本地运行 DeepSeek:零成本私有 AI 部署
用 Ollama 在 Mac/Linux 上跑开源大模型
返回教程列表隐私安全:代码、文档永不离开本地
零费用:一次配置,无限使用
低延迟:局域网速度,无网络延迟
离线可用:断网也能正常工作 qwen2.5-coder:7b — 代码专项
qwen2.5:14b — 中文能力最强
llama3.3:70b — 通用推理(需要 32GB+ 内存)
入门约 20 分钟
本地运行 DeepSeek:零成本私有 AI 部署
用 Ollama 在 Mac/Linux 上跑开源大模型
不想把数据发给 OpenAI?本文教你用 Ollama 在本地机器上运行 DeepSeek-R1 等开源模型,完全离线、零 API 费用、数据不出本地。从安装到配置 Cursor/Continue 接入本地模型,全程图文指南。
DeepSeekOllama本地部署开源模型隐私安全
本地运行 DeepSeek:零成本私有 AI 部署
为什么选择本地部署?
1. 安装 Ollama
bash
curl -fsSL https://ollama.ai/install.sh | sh
ollama --version
2. 下载并运行 DeepSeek
bash
ollama pull deepseek-r1:7b
ollama run deepseek-r1:7b
3. 接入 Cursor/VS Code
Cursor Settings → Models → 添加自定义模型:Base URL http://localhost:11434/v1,Model deepseek-r1:7b
4. OpenAI 兼容 API
Ollama 提供 OpenAI 兼容的 API,任何支持 OpenAI API 的工具都可以无缝接入。
其他推荐本地模型
相关工具
OllamaDeepSeek-R1Cursor