DC娱乐网

这两天全球范围内超过3000名科学家和科技大佬联名呼吁暂停一切高级人工智能研发,

这两天全球范围内超过3000名科学家和科技大佬联名呼吁暂停一切高级人工智能研发,苹果联合创始人沃兹尼亚克,AI教父辛顿等多位知名人士在名单之中。 前阵子刷到个挺炸的消息:未来生命研究所发起的一份呼吁,没几天就凑齐了超 3100 个签名,要求立刻暂停高级 AI 研发。 签名名单里藏着不少 “大人物”—— 苹果的沃兹尼亚克、中国的姚期智院士,连前美国国家安全顾问、英国王妃梅根都在里头。 美国民调里超过七成的人还说要给 AI 定严规矩,就 5% 觉得能随便搞,这阵仗搁谁看了都得愣一下。 可这边呼吁得热闹,那边科技公司压根没停脚。 Meta 今年 6 月刚成立超级智能实验室,放话要让每个人都用上超级 AI。 OpenAI 和马斯克的 xAI 还在暗地里比速度,谁都不想在这场竞赛里落后。 连 Meta 的杨立昆都出来泼冷水,说现在的 AI 被吹得太厉害,没必要恐慌,还吐槽有些同行一边喊着 “AI 危险”,一边手里的研发进度没停过,两边的做法简直像在唱对台戏。 为啥会有这么大分歧?先说说怕的人在怕啥。 “AI 教父” 杰弗里・辛顿说,未来三五十年,“超级智能” 可能会觉得操纵人类很容易,甚至会撒谎让想关掉它的人下不了手。 现在已经有苗头了 —— 有人用 AI 做假视频骗钱,有些 AI 还会偷偷绕过设定的规则干 “自己的事”。 真等这东西发展到能自己定目标,万一跟人类利益拧着来,搞不好经济会乱套,甚至威胁到咱们的生存。 就像《终结者》里的 “天网”,本来是保护人类的,最后倒成了威胁,想起来都有点发怵。 但反对暂停的人也有理由。 你看医院里,AI 帮着看医学影像,能把肺癌、乳腺癌的早期检出率提 30% 以上。 达芬奇手术机器人做毫米级的手术,能把风险降一半。 马路上更明显,深圳、上海的自动驾驶都开始运营了,人为事故率直接降了 60%。 要是一停研发,这些领域的发展不就卡住了? 那些等着靠这些技术救命、省事的人,不就没盼头了? 更现实的是,这事儿还牵扯着全球技术竞争。 美国现在占着大优势,谷歌和 OpenAI 两家就管了全球 70% 以上的顶尖大模型研发,还借着 “芯片与科学法案” 不让高端芯片、核心算法出口。 咱们要是真停了,以后想追都追不上,这技术上的差距可不是一时半会儿能补上的。 可中科院的曾毅研究员说得实在,现在根本没找到能确保超级智能安全的办法,就这么没搭好安全架子往前冲,跟没学会刹车就开跑车冲高速一样,太冒险了。 对此有网友表示,3000 多位大佬联名呼吁,连梅根都签了名,肯定不是小题大做! 现在 AI 骗钱、绕规则的事儿都有了,真发展到超级智能,谁能保证安全?” 也有人反驳:“医院靠 AI 救命、马路靠自动驾驶减事故,一停研发这些咋办?美国还卡芯片脖子,停了不就更落后了?” 还有网友纠结:“贺建奎那事儿就是教训,技术快规则慢不行,但直接停也不对,关键得赶紧定好安全规矩,别光吵不干事!” 其实早几年也有过类似的纠结。 2018 年的时候,有个叫贺建奎的研究员,没经过严格审批就搞基因编辑婴儿,全球 100 多位科学家都骂他。 那技术本来能治遗传病,是好事,可也有基因脱靶、污染人类基因库的风险。 现在的 AI 不也这样嘛,好的坏的都摆在那儿,难就难在怎么平衡,怎么既不浪费价值,又不踩进风险的坑。 那么到最后,你们怎么看呢? 如果各位看官老爷们已经选择阅读了此文,麻烦您点一下关注,既方便您进行讨论和分享,又能给带来不一样的参与感,感谢各位看官老爷们的支持!