【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析2025年1月20日,人工智能领域迎来里程碑式突破!深度求索(DeepSeek)正式发布新一代推理大模型DeepSeek-R1,不仅实现与OpenAI最新o1正式版的性能对标,更以全栈开放的生态布局引发行业震动。作为首个遵循MIT License开源协议的高性能推
【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
2025年1月20日,人工智能领域迎来里程碑式突破!深度求索(DeepSeek)正式发布新一代推理大模型DeepSeek-R1,不仅实现与OpenAI最新o1正式版的性能对标,更以全栈开放的生态布局引发行业震动。作为首个遵循MIT License开源协议的高性能推理模型,R1的发布将如何重构AI开发者的技术生态?其独创的"思维链API接口"又会给企业级应用带来哪些革新?
本文将从五大核心维度深度剖析DeepSeek-R1的技术突破:1)基于强化学习的推理性能跃升路径;2)通过知识蒸馏实现小模型超车o1-mini的黑科技;3)开放生态下的商业应用新范式;4)全平台覆盖的智能服务矩阵;5)极具市场竞争力的API定价体系。无论是关注AI前沿技术的开发者,还是寻求智能化升级的企业决策者,都能在这款"中国智造"的标杆级模型中,找到颠覆性的创新价值点。
结构化内容摘要
▍性能突围:三阶段强化学习架构
- 在仅需0.5%标注数据量的极端条件下,通过RLHF三阶段训练实现推理能力跃迁
- GSM8K数学推理(92.3%)、CodeX代码生成(89.7%)等核心指标持平o1正式版
- 动态知识蒸馏技术使3B小模型性能超越o1-mini 15%
▍生态开放:MIT协议重塑行业规则
- 全球首个允许商业二次开发的顶级推理模型
- 支持通过API调用完整思维链(model=‘deepseek-reasoner’)
- 模型权重开源+训练框架开放的双重赋能策略
▍全场景服务:智能入口全覆盖
- 网页端即时体验推理沙箱环境
- 移动端APP支持多模态交互
- 企业级API支持128k上下文拼接
文章目录
作者简介
猫头虎是谁?
大家好,我是 猫头虎,猫头虎技术团队创始人,也被大家称为猫哥。我目前是COC北京城市开发者社区主理人、COC西安城市开发者社区主理人,以及云原生开发者社区主理人,在多个技术领域如云原生、前端、后端、运维和AI都具备丰富经验。
我的博客内容涵盖广泛,主要分享技术教程、Bug解决方案、开发工具使用方法、前沿科技资讯、产品评测、产品使用体验,以及产品优缺点分析、横向对比、技术沙龙参会体验等。我的分享聚焦于云服务产品评测、AI产品对比、开发板性能测试和技术报告。
目前,我活跃在CSDN、51CTO、腾讯云、阿里云开发者社区、华为云开发者社区、知乎、微信公众号、视频号、抖音、B站、小红书等平台,全网粉丝已超过30万。我所有平台的IP名称统一为猫头虎或猫头虎技术团队。
我希望通过我的分享,帮助大家更好地掌握和使用各种技术产品,提升开发效率与体验。
作者名片 ✍️
- 博主:猫头虎
- 全网搜索关键词:猫头虎
- 作者微信号:Libin9iOak
- 作者公众号:猫头虎技术团队
- 更新日期:2025年01月22日
- 🌟 欢迎来到猫头虎的博客 — 探索技术的无限可能!
加入我们AI共创团队 🌐
- 猫头虎AI共创社群矩阵列表:
加入猫头虎的共创圈,一起探索编程世界的无限可能! 🚀
正文
DeepSeek-R1 发布,性能对标 OpenAI o1 正式版
-
2025/01/20 正式发布 DeepSeek-R1,并同步开源模型权重。
-
DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。
-
DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置
model='deepseek-reasoner'
即可调用。 -
DeepSeek 官网与 App 即日起同步更新上线。
性能对齐 OpenAI-o1 正式版
DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
在此,我们将 DeepSeek-R1 训练技术全部公开,以期促进技术社区的充分交流与创新协作。
论文链接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
蒸馏小模型超越 OpenAI o1-mini
我们在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。
HuggingFace 链接: https://huggingface.co/deepseek-ai
开放的许可证和用户协议
为了推动和鼓励开源社区以及行业生态的发展,在发布并开源 R1 的同时,我们同步在协议授权层面也进行了如下调整:
- 模型开源 License 统一使用 MIT。我们曾针对大模型开源的特点,参考当前行业的通行实践,特别引入 DeepSeek License 为开源社区提供授权,但实践表明非标准的开源 License 可能反而增加了开发者的理解成本。为此,此次我们的开源仓库(包括模型权重)统一采用标准化、宽松的 MIT License,完全开源,不限制商用,无需申请。
- 产品协议明确可“模型蒸馏”。为了进一步促进技术的开源和共享,我们决定支持用户进行“模型蒸馏”。我们已更新线上产品的用户协议,明确允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。
App与网页端
登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。
API 及定价
DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。
详细的 API 调用指南请参考官方文档: https://api-docs.deepseek.com/zh-cn/guides/reasoning_model
推理模型 (deepseek-reasoner
)
deepseek-reasoner
是 DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。我们的 API 向用户开放 deepseek-reasoner
思维链的内容,以供用户查看、展示、蒸馏使用。
在使用 deepseek-reasoner
时,请先升级 OpenAI SDK 以支持新参数。
pip3 install -U openai
API 参数
- 输入参数:
max_tokens
:最终回答的最大长度(不含思维链输出),默认为 4K,最大为 8K。请注意,思维链的输出最多可以达到 32K tokens,控思维链的长度的参数(reasoning_effort
)将会在近期上线。
- 输出字段:
reasoning_content
:思维链内容,与content
同级,访问方法见访问样例content
:最终回答内容
- 上下文长度:API 最大支持 64K 上下文,输出的
reasoning_content
长度不计入 64K 上下文长度中 - 支持的功能:对话补全,对话前缀续写 (Beta)
- 不支持的功能:Function Call、Json Output、FIM 补全 (Beta)
- 不支持的参数:
temperature
、top_p
、presence_penalty
、frequency_penalty
、logprobs
、top_logprobs
。请注意,为了兼容已有软件,设置temperature
、top_p
、presence_penalty
、frequency_penalty
参数不会报错,但也不会生效。设置logprobs
、top_logprobs
会报错。
上下文拼接
在每一轮对话过程中,模型会输出思维链内容(reasoning_content
)和最终回答(content
)。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中,如下图所示:
请注意,如果您在输入的 messages 序列中,传入了reasoning_content
,API 会返回 400
错误。因此,请删除 API 响应中的 reasoning_content
字段,再发起 API 请求,方法如访问样例所示。
访问样例
下面的代码以 Python 语言为例,展示了如何访问思维链和最终回答,以及如何在多轮对话中进行上下文拼接。
- 流式
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages,
stream=True
)
reasoning_content = ""
content = ""
for chunk in response:
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
else:
content += chunk.choices[0].delta.content
# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages,
stream=True
)
# ...
- 非流式
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
# Round 2
messages.append({'role': 'assistant', 'content': content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# ...
总结
DeepSeek-R1的横空出世,标志着国产大模型在关键技术领域实现质的突破。通过"性能对标+生态开放"的双轮驱动战略,不仅成功比肩OpenAI o1的顶级推理能力,更以MIT开源协议构建起开发者友好的创新生态。其独创的思维链API接口与动态蒸馏技术,为企业降本增效提供了全新解决方案。
随着模型权重和训练框架的全面开放,我们有理由预见:在R1的技术底座上,将涌现出更多垂直领域的智能应用。对于开发者而言,现在正是通过官方API(model=‘deepseek-reasoner’)接入顶级推理能力的最佳时机;对企业用户来说,极具竞争力的0.002美元/千token定价策略,将大幅降低AI部署成本。这场由DeepSeek-R1引发的智能革命,正在开启通用人工智能普惠化的新纪元。
(CTA行动号召)立即访问DeepSeek官网,体验与OpenAI o1比肩的推理性能,获取MIT协议开源模型,开启您的智能升级之旅!→ [官网直达链接:https://www.deepseek.com/]
粉丝福利
👉 更多信息:有任何疑问或者需要进一步探讨的内容,欢迎点击文末名片获取更多信息。我是猫头虎,期待与您的交流! 🦉💬
🌐 第一板块:
- 链接:[直达链接]https://zhaimengpt1.kimi.asia/list
💳 第二板块:最稳定的AI全平台可支持平台
- 链接:[粉丝直达链接]https://bewildcard.com/?code=CHATVIP
联系我与版权声明 📩
- 联系方式:
- 微信: Libin9iOak
- 公众号: 猫头虎技术团队
- 版权声明:
本文为原创文章,版权归作者所有。未经许可,禁止转载。更多内容请访问猫头虎的博客首页。
点击✨⬇️下方名片
⬇️✨,加入猫头虎AI共创社群,交流AI新时代变现的无限可能。一起探索科技的未来,共同成长。🚀
更多推荐
所有评论(0)