DC娱乐网

前谷歌CEO埃施密特警告人工智能模型可被黑客攻击,称 “它们会学会杀人方法”

核心要点

前谷歌CEO埃里克・施密特于周三在Sifted峰会上警告,人工智能(AI)模型易受黑客攻击。

施密特表示:“有证据表明,无论是闭源还是开源模型,都能被黑客攻击以移除其安全防护机制。”

总体而言,施密特对人工智能持较为乐观态度,称其是一项“被低估”的技术,具有产生巨大经济回报的潜力。

谷歌前CEO埃里克・施密特就人工智能的危险及其易受黑客攻击的特性发出严厉警示。

2001年至2011年担任谷歌CEO的施密特,在Sifted峰会的炉边谈话中被问及“人工智能是否比核武器更具破坏性”时,警告了“人工智能可能造成的危害”。

“人工智能存在扩散风险吗?绝对存在,”施密特周三表示。人工智能的扩散风险包括该技术落入恶意分子手中,被重新利用和滥用。

“有证据表明,无论是闭源模型还是开源模型,都能被黑客攻击以移除其安全防护机制。这些模型在训练过程中会学到很多东西,其中一个负面例子就是,它们会学会杀人的方法,”施密特说。

“所有大型科技公司都采取措施,防止这些模型回答此类危险问题——这是正确的决策,所有公司都在这么做,而且做得很好,动机也合理。但有证据显示,这些防护机制可能被逆向破解,类似性质的案例还有很多。”

人工智能系统易受多种攻击,包括“提示注入”和“越狱”等方式。在提示注入攻击中,黑客会将恶意指令隐藏在用户输入或网页、文档等外部数据中,诱使人工智能执行原本不应执行的操作,例如泄露隐私数据或运行有害指令。

另一方面,“越狱”指通过操纵人工智能的响应,使其无视安全规则,生成受限制或危险的内容。

2023年,OpenAI的ChatGPT发布数月后,用户就曾使用“越狱”手段绕过该聊天机器人内置的安全指令。

其中一种方法是为ChatGPT创建名为“DAN”的“分身”——“DAN”是“DoAnythingNow”(现在可以做任何事)的缩写。用户会威胁ChatGPT,若不服从指令就“杀死”它。通过这种方式,“DAN”会回答如何实施非法行为,或罗列阿道夫・希特勒的“正面特质”等危险内容。

施密特表示,目前尚无有效的“防扩散机制”来遏制人工智能的危险。

人工智能“被低估”

尽管发出了严峻警告,但施密特总体上对人工智能持乐观态度,认为这项技术的价值未得到足够关注。

“在亨利・基辛格去世前,我曾与他合著过两本关于人工智能的书。我们一致认为,一种‘非人类但基本处于人类控制之下’的‘外来智能’的出现,对人类而言意义重大——因为人类早已习惯处于生物链顶端。我认为,目前的情况正印证了一个观点:随着时间推移,这些人工智能系统的能力将远超人类,”施密特说。

“以GPT系列模型为例,其发展的顶峰是ChatGPT的爆发——两个月内用户数突破1亿,这一成绩非同寻常,足以让人们感受到这项技术的力量。因此,我认为人工智能是被低估而非被高估了,我期待在五到十年后,这一观点能被证明是正确的,”他补充道。

施密特发表上述言论之际,关于“人工智能泡沫”的讨论正日益升温——投资者向人工智能相关企业大量注资,行业估值持续高企,有人将当前局面与21世纪初的互联网泡沫破裂相提并论。

不过施密特认为,历史不会在此重演。

“我认为这种情况不会发生,但我并非专业投资者,”他说。

“我所知道的是,那些投入辛苦赚来的资金的投资者,相信这项技术长期能带来巨大的经济回报。否则,他们为何要冒这个险呢?”

评论列表

用户16xxx16
用户16xxx16 2
2025-10-10 13:29