DC娱乐网

DeepSeek崩了12小时,国产算力却站起来了 今天有个事上了热搜,Deep

DeepSeek崩了12小时,国产算力却站起来了 今天有个事上了热搜,DeepSeek崩了。 从昨天晚上9点半左右开始,网页端和App一起瘫痪,用户登录失败、对话中断、内容丢失。一直到今天上午10点多才恢复,前后折腾了12个多小时。 我也是用户之一。昨晚想让它帮我整理点资料,结果一直转圈圈,最后显示“服务异常”。刷了下头条,好多人都在讨论。 官方复盘了一下,原因大概有几个: 一是流量太大了。毕业季、项目交付高峰,很多人赶着写论文、写代码,全都挤上来,系统直接被打穿了。 二是技术架构的问题。DeepSeek用的是MoE(混合专家)架构,这种架构对调度要求很高。一旦某个节点出问题,容易引发全局拥塞。 三是硬件瓶颈。高端GPU本来就缺,国产芯片适配效率只有80%。也就是说,就算有国产算力撑着,也还没到100%能用的程度。 四是运维跟不上。弹性扩容、灾备机制都不够完善。说白了,就是没想到会这么火,也没想到会崩成这样。 网上还有人说遭到了DDoS攻击,峰值3.2Tbps。这个级别的攻击,确实顶不住。 这次崩的时间点太差了。 学生论文写到一半,保存不了;程序员代码调试到关键步骤,对话断了;付费会员发现自己的权益和免费用户没区别,也进不去。 有人调侃说,DeepSeek这是“选择性服务”——开发者API稳得很,普通用户的Web/App直接瘫痪。说明优先级是分明的,先保赚钱的,再保免费的。 但问题是,免费用户也是用户啊。没有普通用户的口碑,哪来的付费转化? 昨天DeepSeek崩了,今天深圳放了个大招——全国首个万卡级全栈自主可控智算集群点亮了。 1.4万P的智能算力,全部用的是国产芯片。去年先期点了3000P,这次又加了1.1万P。这是目前国内最大的、完全自主可控的智算集群。 这件事和DeepSeek的宕机,放在一起看,挺有意思的。 DeepSeek崩了,是因为算力不够、架构扛不住。深圳建了1.4万P的国产算力集群,刚好是给这些AI公司“补粮草”。如果国产芯片的适配效率能提高到100%,如果算力成本能降下来,像DeepSeek这样的服务,就不会这么容易崩。 DeepSeek这次宕机,暴露了几个问题: 第一,算力还是不够。不是总量不够,是“能用的算力”不够。国产芯片适配效率只有80%,意味着20%的算力是浪费的。 第二,技术架构需要升级。MoE虽然省算力,但对调度要求高。一旦出问题,恢复起来也慢。如何做到高可用、高并发,是每个AI公司都要补的课。 第三,运维能力要跟上。弹性扩容、灾备机制、熔断降级,这些都是工程能力的体现。技术再牛,服务器扛不住,用户体验就是零。 深圳那个算力集群,刚好是给这些问题提供了一个解决方案。国产芯片+自主算力,如果能真正跑起来,DeepSeek们的日子会好过很多。 如果你在用AI工具,尤其是写论文、写代码、做重要项目的时候,建议做好备份。 别把所有东西都放在云端。本地存一份,或者多换几个工具试试。DeepSeek崩了,可以用别的;国产芯片集群起来了,算力也会越来越便宜。 下午写完上面这些,又去试了一下DeepSeek,已经能用了。对话记录还在,没丢,算是不幸中的万幸。 看到深圳那个万卡集群,突然觉得国产芯片的春天可能真的要来了。DeepSeek这次崩了,也许是好事——把问题暴露出来,才能更快地解决。 就这些吧。