J.V.'s Blog

使用Ollama本地部署DeepSeek-R1大模型

Ollama是一个开源的大型语言模型(LLM)平台,可以在本地运行大语言模型。本文记录如何使用Ollama本地部署DeepSeek-R1大模型。

环境准备与安装Ollama

Ollama支持macOS、Windows和Linux系统

  1. 下载安装 访问Ollama官方网站: https://ollama.com 点击Download按钮获取对应系统的安装包,双击完成安装。点击图标启动Ollama服务。

  2. 验证安装 打开终端,执行以下命令验证安装是否成功:

    ollama --version
    

部署并运行DeepSeek-R1模型

  1. 模型选择与拉取 执行以下命令自动下载并启动DeepSeek-R1模型:

    ollama run deepseek-r1
    

    首次运行说明: 命令会自动从Ollama仓库拉取模型文件,请确保网络稳定。 如需指定版本,可使用带标签的命令: ollama run deepseek-r1:latest

  2. 模型仓库查询 访问Ollama模型库获取更多模型: https://ollama.com/search

  3. 运行效果 Ollama运行DeepSeek-R1模型

核心命令详解

命令用途 命令语法 示例
启动服务 ollama serve 后台启动Ollama服务
拉取模型 ollama pull <模型名>:<版本> ollama pull deepseek-r1:7b
运行模型 ollama run <模型名> ollama run deepseek-r1
查看本地模型 ollama list 列出所有已下载的模型
查看模型详情 ollama show <模型名> ollama show deepseek-r1
删除模型 ollama rm <模型名> ollama rm deepseek-r1
模型参数调整 ollama run <模型名> --<参数>=<值> ollama run deepseek-r1 --temperature 0.7

实用技巧: 使用ollama help <命令>获取具体命令的详细说明,如ollama help run

交互式对话技巧

在模型运行界面,可使用以下特殊指令增强交互体验:

/?          # 查看所有支持的交互指令
/bye        # 退出当前对话
/show       # 显示当前模型参数信息
/set temperature 0.5  # 设置温度参数(0-1,值越高生成越随机)
/clear      # 清除对话历史上下文
/load qwen  # 不退出当前会话切换到qwen模型
/save mychat # 将当前对话保存为mychat会话

参数调优建议:

#AI #DeepSeek #Ollama