📮DeepSeek V4昨天上线了,距离V3的大版本更新过去15个月。
“目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型”,紧接着补了一句**“使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距”**。
我之前聊过Qwen3.6-Max的跑分热闹但语言能力差距、聊过GLM 5.1的上下文短一聊就开新窗口。这次DeepSeek V4的处理方式特别冷静——它没把自己定位成全面碾压谁,而是非常诚实地告诉你「我哪里赶上了Claude,哪里还没赶上」。这种克制在国产AI圈是稀缺品。
📮真正硬的点其实是这两个——
📮全线1M上下文标配。Pro和Flash两个版本都是1M,这意味着**“百万上下文”从过去Claude的高端配置变成了开源模型的入门价**。Flash版输入1元/百万token、输出2元——这个价格直接把长上下文推进了”地板价”。我聊GLM 5.1的时候说”上下文短一聊就开新窗口”,DeepSeek这次直接给所有国产模型把这个短板补完了。
📮绑死华为昇腾。这次V4没给英伟达和AMD早期适配权限,独家开放给了国产算力厂商——华为和寒武纪。技术报告里明确说”在英伟达GPU和华为昇腾NPU两个平台上都做了优化,加速比1.5到1.96倍”。下半年昇腾950批量上市后,Pro价格还要再大幅下调——这不只是省钱,是DeepSeek在用V4给国产算力做兜底,告诉昇腾”你的客户我帮你养出来”。
📮所以这次V4最值得讲的不是参数(1.6万亿听着吓人但激活才49B、推理成本和V3持平)、也不是跑分(基本和顶级闭源持平但没说碾压)、是DeepSeek自己用这个模型替换了Claude这件事。国产模型第一次有人敢说「我们自己最贵的工程师都已经在用我自己的模型了」——之前没有人这么说过,因为之前国产模型还撑不住高强度Coding场景。
📮顺便说一个细节。发布稿结尾DeepSeek引用了《荀子》一句话——「不诱于誉,不恐于诽,率道而行,端然正己」。翻译过来就是:别被夸晕了,也别被骂歪了,认准路走,自己做好自己。