返回博客2025年2月2日
DeepSeek模型本地化部署与API服务商汇总
AIDeepSeekOllamaLM StudioOpenRouterDMXAPISiliconFlow
DeepSeek模型本地化部署与API服务商汇总
本文将详细介绍如何使用 DeepSeek 大模型,包括本地化部署和 API 调用两种主要使用方式。无论你是个人开发者还是企业用户,都能找到适合自己的使用方案。
本地化部署
只要具备足够的计算资源,我们就可以通过本地部署的方式来运行 DeepSeek 模型。本文介绍两种主流的本地部署方案。
使用 Ollama
Ollama 是一款非常流行的大模型本地运行工具,目前支持了众多主流大模型,使用方式极其简单。

安装与使用步骤:
- 访问 Ollama 官网,下载对应操作系统(支持 Mac、Linux、Windows)的安装包
- 安装完成后,可以通过命令行使用以下命令:
ollama pull- 拉取模型ollama run- 运行模型
DeepSeek 模型部署示例:
# 下载模型
ollama pull deepseek-r1:671b
# 运行模型
ollama run deepseek-r1:671b
Ollama 支持多个版本的 DeepSeek 模型:
- deepseek-r1
- deepseek-coder-v2
- deepseek-coder
- deepseek-v3
- deepseek-llm
- deepseek-v2
- deepseek-v2.5
API 集成
Ollama 提供了本地 API 接口,可以轻松集成到应用中:
- 聊天补全接口:
/api/chat - 生成接口:
/api/generate - 模型列表:
/api/tags
使用 LM Studio
LM Studio 提供了更友好的图形界面,是一个功能完善的桌面应用程序。

主要特点:
- 支持多种操作系统:Mac、Windows、Linux
- 图形化界面,操作直观
- 内置模型下载与管理功能
- 提供与 OpenAI 兼容的 API
使用步骤:
- 从官网下载安装对应版本
- 打开应用后,可以:
- 搜索并下载 DeepSeek 相关模型
- 选择合适的量化版本
- 通过界面直接进行对话测试
API 支持:
- 提供
/v1/models接口获取模型列表 - 支持 chat completions 和 completions 接口
- 支持文本嵌入(embeddings)接口
API 服务调用
通过API调用来集成大模型能力到应用程序,是程序员最常见的使用大模型的方式。目前市场上有许多第三方API服务供应商,提供了各种大模型的使用接口。不具备足够计算资源的开发者可以利用这类API服务轻松集成大模型的推理能力。DeepSeek 作为目前最流行的开源大模型之一,越来越多服务商提供了API支持。接下来我将分享在日常开发中我常用到的API服务,希望对大家有帮助!
DeepSeek 官方 API
DeepSeek 官方提供标准的 API 服务,与 OpenAI API 规范兼容。

配置要点:
- Base URL:
https://api.deepseek.com - 配置 API Key
- 支持标准的 Bearer Token 认证
API调用示例
curl https://api.deepseek.com/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <DeepSeek API Key>" \
-d '{
"model": "deepseek-chat",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"stream": false
}'
DMXAPI
DMXAPI提供了统一的 API 访问接口。非常好记的域名,大模型的拼音首字母 DMX。

特点:
- 提供完整的 DeepSeek 模型系列
- 兼容 OpenAI API 规范
- Base URL:
https://www.dmxapi.com/v1 - 支持模型列表获取:
/v1/models - 支持标准的 Bearer Token 认证
API调用示例
import requests
import json
url = "https://www.dmxapi.com/v1/chat/completions"
payload = json.dumps({
"model": "deepseek-ai/DeepSeek-R1",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "周树人和鲁迅是兄弟吗?"
}
]
})
headers = {
'Accept': 'application/json',
'Authorization': 'sk-***********************************************',
'User-Agent': 'DMXAPI/1.0.0 (https://www.dmxapi.com)',
'Content-Type': 'application/json'
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
OpenRouter
OpenRouter 是一个聚合平台,提供了对多个大模型的统一访问。
配置信息:
- Base URL:
https://openrouter.ai/api/v1 - 支持多个版本的 DeepSeek 模型
- 完全兼容 OpenAI API 规范
- 支持标准的 Bearer Token 认证
API调用示例
curl https://openrouter.ai/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-d '{
"model": "deepseek/deepseek-r1",
"messages": [
{
"role": "user",
"content": "Who are you?"
}
]
}'
硅基流动
硅基流动 同样提供了 DeepSeek 模型的 API 服务。
![]()
关键信息:
- Base URL:
https://api.siliconflow.cn/v1 - 支持 OpenAI 风格的 API 调用
- 提供多个版本的 DeepSeek 模型供选择
- 支持标准的 Bearer Token 认证
API调用示例
curl --request POST \
--url https://api.siliconflow.cn/v1/chat/completions \
--header 'Authorization: Bearer $SILICONFLOW_API_KEY' \
--header 'Content-Type: application/json' \
--data '{
"model": "deepseek-ai/DeepSeek-V3",
"messages": [
{
"role": "user",
"content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"
}
],
"stream": false,
"max_tokens": 512,
"stop": [
"null"
],
"temperature": 0.7,
"top_p": 0.7,
"top_k": 50,
"frequency_penalty": 0.5,
"n": 1,
"response_format": {
"type": "text"
},
"tools": [
{
"type": "function",
"function": {
"description": "<string>",
"name": "<string>",
"parameters": {},
"strict": false
}
}
]
}'
总结
无论是选择本地部署还是使用 API 服务,DeepSeek 模型都提供了灵活的使用方案。开发者可以根据自己的具体需求,选择合适的使用方式:
- 对于需要完全控制和私密性的场景,可以选择 Ollama 或 LM Studio 进行本地部署
- 对于需要稳定性和便捷性的场景,可以选择各种 API 服务商
- 所有 API 服务商基本都遵循 OpenAI API 规范,便于集成和迁移
希望本文能帮助你找到最适合自己的 DeepSeek 使用方案。