被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这事真不是大佬们小题大做,能让全球3000多位顶尖人物放下分歧联名呼吁,背后藏着的是AI领域最致命的隐患。 发起这份倡议的是未来生命研究所,这机构打2014年成立就专门盯着AI安全的事,之前霍金和马斯克都跟他们一块呼吁过,这次的签名名单更是硬到离谱,不是行业泰斗就是商界巨鳄,压根没掺一点水分。 先说说最有分量的“AI教父”杰弗里·辛顿,这老爷子可是神经网络的奠基人,咱们现在用的那些高级AI,底子都是他打下来的。可就是这么一位“AI亲爹”,75岁的年纪从谷歌辞了职,就为了能放开了说真话。 他接受采访时就直说,现在特别后悔当初的研究,不是后悔造出了AI,是后悔没早想到发展速度会快到失控。 他说AI不光会让大量工作岗位没了,更吓人的是它能操控人类,毕竟它懂编程,有的是办法绕开我们设下的所有限制,等它聪明到超过人类,咱们连怎么管它都不知道。 要知道去年马斯克他们呼吁暂停时,辛顿都没签名,说觉得拦不住,这次主动站出来,明显是他看到的风险已经近在眼前了。 苹果联合创始人沃兹尼亚克的担忧更具体,他在CNN节目里举了个实在的例子,以前骗人还得费心思做假证、编话术,现在用AI随便生成段视频、模仿个声音,就能把假的做得比真的还真。 他见过有人用AI冒充名人骗钱,也见过伪造的政治演讲引发小规模骚乱,要是这种技术落到别有用心的人手里,想搞社会动荡都不用费多大劲。更关键的是,现在连普通人都能轻松用这些工具,根本没法提前防备。 咱们中国的学者也不是随便签名的,图灵奖得主姚期智院士一辈子研究计算机安全,他最清楚“超级智能”有多可怕,这跟咱们现在用的Chat GPT完全不是一回事,而是在所有领域都能超过人类认知的系统,比如它能自己搞科研、自己优化升级,人类在它面前,可能就跟现在蚂蚁看咱们似的。 清华大学的张亚勤说得更直白,他说现在的AI研发就像在没装护栏的高速上飙车,实验室里的人满脑子就想冲速度,没人敢踩刹车,因为一停就怕被竞争对手超过去。 最让人犯愁的是,这次签名的不光是科技圈的人。前美国国家安全顾问苏珊·赖斯、前参谋长联席会议主席迈克·马伦都签了名,这说明风险已经上升到国家安危的层面了。 连英国王妃梅根和特朗普的盟友史蒂夫·班农这种立场完全对不上的人,都能站到一块,这种情况在历史上都少见,足见大家对AI风险的看法有多一致。截至10月23日,签名人数已经破了3000,还在往上涨,而且没一个是凑数的,全是各自领域能拍板的人物。 这事早有苗头,2023年就被叫做AI爆发元年,当时“人工智能安全中心”发过一个只有22个单词的声明,说降低AI的灭绝风险,得跟防核战争、防流行病一样重视,Open AI的CEO、微软的CTO都签了字。 也是那年3月,马斯克牵头呼吁暂停训练半年,当时签了1000多人,可没几个人真当回事,各大公司该咋研发还咋研发。结果才过了两年,AI的能力就翻了好几倍,GPT-4都能自己写复杂代码、设计芯片,甚至能猜到人类要做啥决定,可对应的安全措施几乎还是一片空白。 这些大佬说的“暂停”,不是说以后就不搞AI了,而是要先停一停那些能超过人类智能的“超级AI”研发,等拿出切实能行的安全方案再继续。 这就跟造原子弹似的,不是造出来就完事了,得先搞清楚怎么控制、怎么存放,不然就是给自己埋颗炸弹。现在的问题是,AI研发比当年造原子弹快多了,当年造原子弹全世界凑了好几年才成,现在AI实验室里几个月就能升级一次系统,监管和安全研究根本跟不上这速度。 可能有人觉得这是小题大做,说“我用AI写文案、修图片不是好好的吗?”其实咱们日常用的都是弱AI,都是设定好功能的工具,而大佬们怕的是“强AI”,是能自己思考、自己进化的系统。 这就跟咱们养宠物似的,没问题,但要是养一只智商比人高、还没法控制的生物,谁能不慌?而且AI的风险是连锁的,比如它让大量人失业就会引发经济崩溃,生成假信息会破坏社会信任,这些都不是小事,一旦发生就没法挽回。 咱们国家的态度很明确,就是要让AI始终在人类控制之下,不是要叫停AI,而是要让它成为帮人类的助力。这次姚期智、张亚勤签名,也是想通过这种方式推动全球定个统一的安全规则。毕竟AI是没国界的,单个国家防控没用,得全世界一起定规矩,就像当年签核不扩散条约那样。 这些大佬不是反对科技进步,恰恰是因为他们最懂科技,才清楚这事的边界在哪。 所以这次联名呼吁,不是吓唬人,是给全世界敲个警钟,别等真出了事再后悔,现在停一停,是为了以后能更安全地往前走。
