SheepNav
精选今天745 投票

DeepSeek v4 发布:API 兼容 OpenAI/Anthropic,推出 Flash 和 Pro 双模型

DeepSeek 悄然发布了其第四代大模型 DeepSeek v4,并同步更新了 API 接口。本次更新最显著的变化是 API 完全兼容 OpenAI 和 Anthropic 的格式,开发者只需修改 base_url 和 API key,即可无缝切换至 DeepSeek API。同时,DeepSeek 推出了 deepseek-v4-flashdeepseek-v4-pro 两个新模型,并宣布旧模型名称 deepseek-chat 和 deepseek-reasoner 将于 2026 年 7 月 24 日废弃,届时将分别映射为 v4-flash 的非思考模式和思考模式。

兼容性升级:降低迁移门槛

DeepSeek 此次 API 升级的核心在于兼容性。通过配置 base_url 为 https://api.deepseek.com,开发者可直接使用 OpenAI SDK 调用 DeepSeek 模型;若使用 Anthropic SDK,则 base_url 设为 https://api.deepseek.com/anthropic。这种设计极大降低了已有 OpenAI/Anthropic 用户的迁移成本,无需修改现有代码逻辑即可体验 DeepSeek 模型。

双模型策略:Flash 与 Pro

DeepSeek v4 提供了两个模型:

  • deepseek-v4-flash:定位为快速响应模型,适合对延迟敏感的场景;
  • deepseek-v4-pro:定位为高性能模型,支持更复杂的推理任务。

API 请求中新增了 thinking 参数和 reasoning_effort 参数,允许用户控制模型的思考模式(启用/禁用)以及推理努力程度(低/中/高)。这一设计借鉴了 Anthropic 和 OpenAI 的思考模型思路,为深度推理任务提供了更精细的控制。

旧模型迁移路径

对于仍在使用 deepseek-chat 和 deepseek-reasoner 的用户,DeepSeek 给出了明确的迁移计划:2026 年 7 月 24 日前,这两个名称将分别对应 deepseek-v4-flash 的非思考模式和思考模式。这意味着用户无需立即修改代码,但建议尽早迁移到新模型名称,以获得最新能力。

行业影响与展望

DeepSeek 此次更新正值大模型 API 市场竞争白热化之际。通过兼容主流 API 格式,DeepSeek 试图在开发者生态中占据一席之地。同时,双模型分层策略也反映了行业趋势:提供从快速推理到深度思考的阶梯式服务。值得注意的是,DeepSeek 并未透露 v4 的具体参数规模或基准测试成绩,但强调其 API 调用方式与行业标准对齐,降低了使用门槛。

对于开发者而言,DeepSeek v4 的发布意味着又多了一个可选的 API 供应商。在成本、速度和能力之间,用户可以根据实际需求灵活选择 flash 或 pro 模型。

延伸阅读

  1. HypEHR:用双曲空间建模电子健康记录,实现高效问答
  2. 逃离“一致性陷阱”:评估规则型AI的新方法——防御性指标
  3. 自适应测试时计算分配:让AI推理更聪明地“花时间”
查看原文