返回博客2025年2月2日

DeepSeek模型本地化部署与API服务商汇总

AIDeepSeekOllamaLM StudioOpenRouterDMXAPISiliconFlow

DeepSeek模型本地化部署与API服务商汇总

本文将详细介绍如何使用 DeepSeek 大模型,包括本地化部署和 API 调用两种主要使用方式。无论你是个人开发者还是企业用户,都能找到适合自己的使用方案。

本地化部署

只要具备足够的计算资源,我们就可以通过本地部署的方式来运行 DeepSeek 模型。本文介绍两种主流的本地部署方案。

使用 Ollama

Ollama 是一款非常流行的大模型本地运行工具,目前支持了众多主流大模型,使用方式极其简单。

Ollama

安装与使用步骤:

  1. 访问 Ollama 官网,下载对应操作系统(支持 Mac、Linux、Windows)的安装包
  2. 安装完成后,可以通过命令行使用以下命令:
    • ollama pull - 拉取模型
    • ollama run - 运行模型

DeepSeek 模型部署示例:

# 下载模型
ollama pull deepseek-r1:671b

# 运行模型
ollama run deepseek-r1:671b

Ollama 支持多个版本的 DeepSeek 模型:

  • deepseek-r1
  • deepseek-coder-v2
  • deepseek-coder
  • deepseek-v3
  • deepseek-llm
  • deepseek-v2
  • deepseek-v2.5

API 集成

Ollama 提供了本地 API 接口,可以轻松集成到应用中:

  • 聊天补全接口:/api/chat
  • 生成接口:/api/generate
  • 模型列表:/api/tags

使用 LM Studio

LM Studio 提供了更友好的图形界面,是一个功能完善的桌面应用程序。

LM Studio

主要特点:

  • 支持多种操作系统:Mac、Windows、Linux
  • 图形化界面,操作直观
  • 内置模型下载与管理功能
  • 提供与 OpenAI 兼容的 API

使用步骤:

  1. 从官网下载安装对应版本
  2. 打开应用后,可以:
    • 搜索并下载 DeepSeek 相关模型
    • 选择合适的量化版本
    • 通过界面直接进行对话测试

API 支持:

  • 提供 /v1/models 接口获取模型列表
  • 支持 chat completions 和 completions 接口
  • 支持文本嵌入(embeddings)接口

API 服务调用

通过API调用来集成大模型能力到应用程序,是程序员最常见的使用大模型的方式。目前市场上有许多第三方API服务供应商,提供了各种大模型的使用接口。不具备足够计算资源的开发者可以利用这类API服务轻松集成大模型的推理能力。DeepSeek 作为目前最流行的开源大模型之一,越来越多服务商提供了API支持。接下来我将分享在日常开发中我常用到的API服务,希望对大家有帮助!

DeepSeek 官方 API

DeepSeek 官方提供标准的 API 服务,与 OpenAI API 规范兼容。

DeepSeek

配置要点:

  • Base URL: https://api.deepseek.com
  • 配置 API Key
  • 支持标准的 Bearer Token 认证

API调用示例

curl https://api.deepseek.com/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <DeepSeek API Key>" \
  -d '{
        "model": "deepseek-chat",
        "messages": [
          {"role": "system", "content": "You are a helpful assistant."},
          {"role": "user", "content": "Hello!"}
        ],
        "stream": false
      }'

DMXAPI

DMXAPI提供了统一的 API 访问接口。非常好记的域名,大模型的拼音首字母 DMX。

DMXAPI

特点:

  • 提供完整的 DeepSeek 模型系列
  • 兼容 OpenAI API 规范
  • Base URL: https://www.dmxapi.com/v1
  • 支持模型列表获取:/v1/models
  • 支持标准的 Bearer Token 认证

API调用示例

import requests
import json

url = "https://www.dmxapi.com/v1/chat/completions"

payload = json.dumps({
   "model": "deepseek-ai/DeepSeek-R1",
   "messages": [
      {
         "role": "system",
         "content": "You are a helpful assistant."
      },
      {
         "role": "user",
         "content": "周树人和鲁迅是兄弟吗?"
      }
   ]
})
headers = {
   'Accept': 'application/json',
   'Authorization': 'sk-***********************************************',
   'User-Agent': 'DMXAPI/1.0.0 (https://www.dmxapi.com)',
   'Content-Type': 'application/json'
}

response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)

OpenRouter

OpenRouter 是一个聚合平台,提供了对多个大模型的统一访问。

配置信息:

  • Base URL: https://openrouter.ai/api/v1
  • 支持多个版本的 DeepSeek 模型
  • 完全兼容 OpenAI API 规范
  • 支持标准的 Bearer Token 认证

API调用示例

curl https://openrouter.ai/api/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENROUTER_API_KEY" \
  -d '{
  "model": "deepseek/deepseek-r1",
  "messages": [
    {
      "role": "user",
      "content": "Who are you?"
    }
  ]
  
}'

硅基流动

硅基流动 同样提供了 DeepSeek 模型的 API 服务。

SiliconFlow

关键信息:

  • Base URL: https://api.siliconflow.cn/v1
  • 支持 OpenAI 风格的 API 调用
  • 提供多个版本的 DeepSeek 模型供选择
  • 支持标准的 Bearer Token 认证

API调用示例

curl --request POST \
  --url https://api.siliconflow.cn/v1/chat/completions \
  --header 'Authorization: Bearer $SILICONFLOW_API_KEY' \
  --header 'Content-Type: application/json' \
  --data '{
  "model": "deepseek-ai/DeepSeek-V3",
  "messages": [
    {
      "role": "user",
      "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"
    }
  ],
  "stream": false,
  "max_tokens": 512,
  "stop": [
    "null"
  ],
  "temperature": 0.7,
  "top_p": 0.7,
  "top_k": 50,
  "frequency_penalty": 0.5,
  "n": 1,
  "response_format": {
    "type": "text"
  },
  "tools": [
    {
      "type": "function",
      "function": {
        "description": "<string>",
        "name": "<string>",
        "parameters": {},
        "strict": false
      }
    }
  ]
}'

总结

无论是选择本地部署还是使用 API 服务,DeepSeek 模型都提供了灵活的使用方案。开发者可以根据自己的具体需求,选择合适的使用方式:

  • 对于需要完全控制和私密性的场景,可以选择 Ollama 或 LM Studio 进行本地部署
  • 对于需要稳定性和便捷性的场景,可以选择各种 API 服务商
  • 所有 API 服务商基本都遵循 OpenAI API 规范,便于集成和迁移

希望本文能帮助你找到最适合自己的 DeepSeek 使用方案。

准备开始了吗?

先简单说明目标,我会给出最合适的沟通方式。