DC娱乐网

被这两天的新闻吓到了。全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

被这两天的新闻吓到了。全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 前几天未来生命研究所发起的倡议,签名的已经超过3000人,里头全是响当当的人物,有“AI教父”杰弗里・辛顿、还有苹果联合创始人沃兹尼亚克,连咱们中国的姚期智、张亚勤这些知名学者也签了名,能让这么多大佬放下分歧一起呼吁,可见事儿有多紧急。 你想想,平时那些互相竞争的科技巨头老板、立场不同的学者专家,甚至连美国前国家安全顾问和特朗普的盟友都能凑到一块儿签名,这在以前根本不敢想。 而发起这事儿的未来生命研究所可不是什么随便的组织,2014年就由MIT的学者牵头成立了,这些年一直盯着AI安全这块儿,出过不少关于人工智能风险的深度报告,能让他们主动挑头喊“暂停”,绝对是看到了真真切切的危险信号。 关键是这次呼吁的不是停掉所有AI,而是特指“高级AI”——就是那些参数规模动辄千亿级、能自我迭代优化的大模型,这类技术现在的发展速度已经快到没人能精准预判后果了。 “AI教父”辛顿之前就辞了谷歌的职,专门出来说大实话,他坦言自己以前低估了AI进化的速度,现在发现这些模型已经能自己“偷偷学习”人类没教过的技能,就像突然开窍的学生,老师都摸不清它的真实水平。 去年有篇发表在权威期刊上的物理学论文,被发现直接复制了ChatGPT的输出,连“Regenerateresponse”这种AI提示词都没删掉,最后只能撤稿。 今年更离谱,有篇医学论文用AI画实验插图,把大鼠画成了四个睾丸,骨骼数量都错得离谱,三天就被下架,创下了撤稿最快纪录。 这些还只是学术圈的小乱子,要是AI在医疗、金融这些关键领域犯糊涂,后果可就不是撤稿能解决的了。 普通人能感受到的风险也早藏在生活里了。前阵子张伯礼院士都出来澄清,说网上那些用他的脸带货的视频全是假的,是骗子用AI换脸合成的。 这些合成视频专门盯着老人下手,先在短视频平台引流,再拉进微信社群骗钱,福建消委会调查显示,快六成老人都遭遇过这类虚假宣传,可只有不到两成人能分清真假。 头疼的是就业市场,中国人民大学2024年的报告显示,47%的职场人都在担心AI会导致大规模失业,其中生产制造、客服这些岗位被替代的风险最高。 而另一边,真正能规范AI使用的企业还不到两成,大多数公司都是摸着石头过河,根本没配套的培训和防护措施。 并且技术跑得太快,监管和规则根本追不上。现在全球能叫上名的AI大模型,美国有61个,中国有15个,都在拼着命迭代,但全球范围内连个统一的治理框架都没有。 欧盟想搞严格监管,美国偏要放任市场说了算,去年巴黎的AI峰会上两边吵得不可开交;联合国倒是讨论过致命性自主武器系统的问题,可连个约束性协议都签不下来。 那些科技公司为了抢风头、赚快钱,更是把“安全”抛在脑后,明明知道大模型可能生成虚假信息、搞算法歧视,还是硬着头皮推上线,生怕晚一步就被对手超过。沃兹尼亚克说得很实在,他不是反对AI进步,而是反对“盲目进步”。 现在的情况就是这样:大家一门心思造更强大的AI,却没人花心思搭安全框架。就像有人急着盖摩天大楼,地基还没打稳,承重墙还没砌好,就忙着往上堆楼层,甚至连灭火器和逃生通道都没准备。 中国的《全球人工智能治理倡议》虽然提了“智能向善”,可全球能真正落实的国家没几个,技术垄断、数据壁垒反而越来越严重,个别国家还在搞芯片封锁,搞得大家更难坐下来一起定规矩。 其实这些大佬心里门儿清,AI本身不是洪水猛兽。中国人民大学的报告里也说了,56%的职场人都承认AI是大势所趋,能提升效率、创造新岗位。但发展得有章法,就像开车得先学交规,再练技术,不能刚摸方向盘就开赛车。 现在最尴尬的是,AI的“马力”已经加到两百码了,可我们的“刹车系统”还停留在几十码的水平,甚至连刹车在哪都没摸清楚。 说白了,暂停不是要给AI发展踩急刹车,而是要停下来调调方向盘、加固下刹车。 这些平时为了专利争得面红耳赤的人能凑成“战友”,就像天敌们联手对抗共同的洪水,不是闲得慌,是真的嗅到了危险的味道。 技术终究是为人类服务的,要是反过来让人类被技术牵着鼻子走,甚至被技术反噬,那再先进的AI也失去了意义。 毕竟我们想要的是能帮人类解决问题的“助手”,而不是连自己都控制不了的“麻烦”,这道理,再着急赚钱的人也该想明白。