本地运行 DeepSeek:零成本私有 AI 部署

用 Ollama 在 Mac/Linux 上跑开源大模型

返回教程列表
入门20 分钟

本地运行 DeepSeek:零成本私有 AI 部署

用 Ollama 在 Mac/Linux 上跑开源大模型

不想把数据发给 OpenAI?本文教你用 Ollama 在本地机器上运行 DeepSeek-R1 等开源模型,完全离线、零 API 费用、数据不出本地。从安装到配置 Cursor/Continue 接入本地模型,全程图文指南。

DeepSeekOllama本地部署开源模型隐私安全

本地运行 DeepSeek:零成本私有 AI 部署

为什么选择本地部署?

  • 隐私安全:代码、文档永不离开本地
  • 零费用:一次配置,无限使用
  • 低延迟:局域网速度,无网络延迟
  • 离线可用:断网也能正常工作
  • 1. 安装 Ollama

    bash
    curl -fsSL https://ollama.ai/install.sh | sh
    ollama --version
    

    2. 下载并运行 DeepSeek

    bash
    ollama pull deepseek-r1:7b
    ollama run deepseek-r1:7b
    

    3. 接入 Cursor/VS Code

    Cursor Settings → Models → 添加自定义模型:Base URL http://localhost:11434/v1,Model deepseek-r1:7b

    4. OpenAI 兼容 API

    Ollama 提供 OpenAI 兼容的 API,任何支持 OpenAI API 的工具都可以无缝接入。

    其他推荐本地模型

  • qwen2.5-coder:7b — 代码专项
  • qwen2.5:14b — 中文能力最强
  • llama3.3:70b — 通用推理(需要 32GB+ 内存)
  • 相关工具

    OllamaDeepSeek-R1Cursor