浙大实验室里真跑着个“猕猴大脑”,22亿神经元不靠吹,是实打实通了电在干活,它到底算人还是机器? 最近去浙大脑机智能实验室转了一圈,没看到科幻片里的机器人,只看见十几台刀片服务器排成一列,机箱上贴着张手写纸条:“悟空-22亿”。旁边一个戴黑框眼镜的博士后正拧螺丝,说这玩意儿功耗才2000瓦,比家里三台空调加起来还省电。我问他:那大模型动不动几十万瓦,你们咋做到的?他指了指主板上密密麻麻的小方块,“达尔文3代芯片,一颗顶235万个‘人工神经元’,960颗一起跑,不是堆数量,是让它们真能‘聊’起来。” 2014年团队刚起步时,连芯片设计软件都要自己改。第一代达尔文,只能模拟2048个神经元,实验室里连块像样电路板都凑不齐,大家拿胶带缠线、用示波器当“眼睛”。到了2020年“米奇”出来,总算上亿了;2023年初达尔文3代流片成功,芯片背面直接刻着“悟空”两个小字——不是后来起的名,是早写好的。他们没走光刻机路线,转头搞了晶圆级封装,把64颗芯片直接焊在一张12寸晶圆上,叫“DarwinWafer”,导线细到头发丝的十分之一,互连快得没延迟。 操作系统也是自己写的,名字就叫“达尔文类脑OS”。不是套Linux改改壳,是重写了整个调度层,让22亿神经元能分时协作、自动换任务,像人脑子那样——累了歇一歇,重点信息多跑两圈。实验室墙上挂着张中国脑库的标本图,700多例真实人脑数据全进过训练集。他们不光算得快,还在教机器“怎么学”,比如医疗机器人看CT片,不是喂10万张图,而是边看边调参数,三五张就摸出门道。 潘纲教授说,人脑20瓦就能举一反三,AI却要靠数据堆、电费养。这话我没记全,但记住了桌上一杯凉透的茶和三包空咖啡袋。他们不喊口号,代码里没注释“为国争光”,只写“if neuron_fire > threshold: update synapse”。 “悟空”现在天天跑着,不关机。‘


