前几天参加了小鹏关于AI的闭门分享会,几个小时干货很多,看完也大致能理解在所有造车品牌都拼命卷自动驾驶的背景里,为什么小鹏仍然能保持在第一梯队上。
务实地说,智驾之于汽车产业是不是一个机会已经没人质疑了,但厂商们的各有侧重仍然具备十足的观察价值。
比如比亚迪作为常年销冠,在智驾方面的投入大多体现在了规模化普及上,蔚来则是走群策群力的路数,用车主积累的路况数据不断精细化城区NOA能力。
而小鹏用一句话总结,就是这家公司在AI上的动作,从战略到技术都是一致的:质朴,但有效。
首先要达成一个共识,相比于大语言模型的日进千里,AI对物理世界的影响进程,实际上是十分缓慢的——不止国内,全球都是如此——小鹏自动驾驶副总裁李力耘在现场举了这样一个类比:一个4岁的小朋友所接触到的物理世界,信息量可能相当于数字世界里40年的累积。
自动驾驶过去遇到的所有瓶颈,本质上都是被困在「读万卷书不如行万里路」的道理上,虽然两者过程同样漫长,但都知道行路的复杂程度,天然要比读书高得多。
先说小鹏在算力方面的成功卡位,今年拔地而起的「云端模型工厂」,为小鹏自动驾驶带来了万卡集群10EFLOPS的体量,与此同时根据现场公布的数据,小鹏万卡规模的计算集群利用率长期保持在90%以上,最高能达到98%。
在行业内,要堆砌算力不算很难,只要投入足够的金钱就能堆出几十EFLOPs的算力。但是要充分让算力真正的利用起来,变为「有效算力」是非常有挑战的。刘博士还说到「多模态模型训练的主要瓶颈不仅是 GPU,也需要解决数据访问的效率问题。」目前,小鹏在云端算力规模和算力利用率上,都做到了最强。
也就是说,规模与利用率的行业高位,构成了小鹏自动驾驶体系里最基础的机能部分,这倒不是说秀肌肉是必要的,而是没有强大机能,再聪明的大脑也难以有的放矢地发挥出来,连GPT4o应对来自全球用户那波生成吉卜力图片的热潮时,Altman都不免发出「我们的GPU在熔化」这种幸福的抱怨。
这些数字同时也意味着云端基座模型的迭代速度将非常恐怖,甚至达到了5天一次,远比想象中要快。
算力是历史和当下的沉淀,用更通俗的话说,它是所有AI相关领域的门票,而小鹏想从自动驾驶上引发的质变,在于它的云端世界基座模型。
从去年小鹏率先量产车端的端到端模型开始,行业里的跟进者其实不少,而经过国内大语言模型过去几个月的折腾,各种AI相关行业也都达成了「知识蒸馏」和「强化学习」的价值共识,但车端模型毕竟上限摆在那,想单纯靠它在自动驾驶领域做突破,不是不可能,只是效率会很低。
追逐AI就是追逐效率,用有限的资源不断拔高它的上下限,谁能先做到,谁就有话语权。
所以小鹏云端基座模型的理念,是用一个更聪明的大脑赋能另一个大脑,由此让算力的指数级增长——据说云端参数量能达到主流VLA模型的35倍以上——来实现模型质变。
直白的说,小鹏的路径,是对智驾分工侧的优化,过去一个车端模型要兼顾信息整合、逻辑推理、动作输出等一系列功能,让本就存在物理局限性的车端模型雪上加霜,而在云端加入的分工链条里,车端模型最头疼的计算压力被分摊出去,通过云端的多模态编码器(Encoder)进行整合协调,再部署回车端,最终实现「专业的事交给专业部分做」的效率攀升。
与此同时,新分工模式下的下限也在不断提升,比如在还未正式开放小鹏智驾系统XGNP的香港,车辆在模型的加持下仍然可以做到畅通无阻。
这就是小鹏质朴的地方,不追求任何不着边际的宏大叙事,所有技术上的投入,都旨在提升训练效率,把端到端——也就是智驾系统与物理世界的交互——体验讲好。
恰好在移动互联网的历史上,有很多行业都是被这样质朴的企业所改写的,还是那句老话,科技为人服务,所有偏离这个轨道的决策,都难逃被清扫的命运。
放在智驾上,L2后面跟多少加号,也不及把数字换一换更让人激动。