2026年4月24日,DeepSeek宣布全新系列模型DeepSeek-V4预览版本正式发布,并同步向全球开发者开源。新系列分为Pro与Flash两个版本,在Agent能力、世界知识储备和推理性能上均实现了国内及开源领域的领先突破。
百万上下文成为全系标配
DeepSeek-V4最大的技术亮点在于其开创性的注意力机制设计。新模型采用基于token维度的压缩方案,结合DSA稀疏注意力(DeepSeek Sparse Attention),在实现全球领先的长上下文能力的同时,大幅降低了对计算资源和显存的需求。
即日起,1M(一百万)token的超长上下文将成为DeepSeek所有官方服务的标准配置。这意味着用户可以一次性输入类似于《三体》三部曲体量的长文本,模型依然能够精准理解并完成复杂任务。
Pro版本:性能比肩顶级闭源模型
DeepSeek-V4-Pro在多项关键评测中展现出接近世界顶级闭源模型的实力。
在Agent能力方面,V4-Pro的提升尤为显著。据官方披露,在Agentic Coding评测中,该版本已达到当前开源模型的最佳水平。目前DeepSeek内部员工已将V4-Pro作为日常使用的Agentic Coding模型,反馈显示其使用体验优于Sonnet 4.5,交付质量接近Opus 4.6的非思考模式。
在世界知识测评中,V4-Pro大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。而在数学、STEM及竞赛级代码任务的评测中,V4-Pro同样超越了所有已公开评测的开源模型。
Flash版本:经济高效的快捷选择
相比Pro版本,DeepSeek-V4-Flash在世界知识储备方面有所取舍,但其推理能力与Pro版本接近。由于模型参数规模和激活范围更小,Flash版本能够提供更快捷、更经济的API服务,适合对响应速度和成本敏感的轻量级应用场景。
在Agent评测中,Flash版本在简单任务上表现与Pro版本旗鼓相当,但在高难度任务上仍存在差距。
Agent能力专项优化
DeepSeek团队针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了专项适配与优化,在代码生成、文档创建等任务上均实现了性能提升。官方建议,对于复杂的Agent应用场景应使用思考模式,并将reasoning_effort参数设置为max以获取最佳效果。
API与开源信息
目前DeepSeek API已同步上线V4-Pro与V4-Flash两个版本,支持OpenAI ChatCompletions接口与Anthropic接口。开发者只需保持base_url不变,将model参数改为deepseek-v4-pro或deepseek-v4-flash即可调用。
需要特别注意的是,旧有的deepseek-chat与deepseek-reasoner两个API接口模型名将于2026年7月24日正式停止使用。过渡期内,这两个模型名将分别指向deepseek-v4-flash的非思考模式与思考模式。
两个版本的模型权重已同步在Hugging Face和ModelScope平台开源,技术报告亦随同发布。
写在最后
DeepSeek在官方公告中写道:“不诱于誉,不恐于诽,率道而行,端然正己。”团队表示,每一位用户的信任与支持都是其不竭探索、持续进步的动力。
DeepSeek表示将始终秉持长期主义的原则理念,在尝试与思考中踏实前行,持续向实现AGI的目标靠近。
本网声明:广东网发布此文仅出于信息分享,并非赞同其观点或证实其描述,不承担侵权行为的连带责任。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。版权归原作者所有,如涉版权或来源标注有误,请联系我们删除。本网原创内容未经书面授权,任何单位或个人不得转载和摘编。
[ 编辑: NO 12]




