DC娱乐网

《金融时报》头版报道称,科技集团竞相加强人工智能安全,关键漏洞使黑客能够提取数据

《金融时报》头版报道称,科技集团竞相加强人工智能安全,关键漏洞使黑客能够提取数据。 全球顶尖的人工智能集团正在加紧努力,以解决其大语言模型中一个关键的安全漏洞,网络犯罪分子可以利用这个漏洞。 使模型对间接提示注入攻击更具抵抗力。谷歌深度思维使用一种名为自动红队测试的技术,内部研究人员不断以现实的方式攻击其Gemini模型,以发现潜在的安全弱点。 容易出现越狱情况,即用户可以促使大语言模型无视其安全防护措施。 今年5月,英国国家网络安全中心警告称,人工智能漏洞构成了更大的威胁,因为它们可能使数百万使用大语言模型和聊天机器人的公司和个人面临复杂的网络钓鱼攻击和诈骗。 大语言模型还存在另一个严重漏洞,外部人员可以通过在用于人工智能训练的数据中插入恶意材料来创建后门并导致模型行为异常。 谷歌深度思维、Anthropic、OpenAI和微软等公司都在努力防止所谓的间接提示注入攻击,即第三方在网站或电子邮件中隐藏命令,旨在诱使人工智能模型泄露未经授权的信息,如机密数据。 根据Anthropic、英国人工智能安全研究所和艾伦·图灵研究所上个月发表的研究,这些所谓的数据中毒攻击比科学家此前认为的更容易实施。 “ 目前,人工智能在攻击的每一个环节都被网络行为者利用,”人工智能初创公司Anthropic的威胁情报团队负责人雅各布·克莱因说。 专家警告称,该行业尚未解决如何阻止间接提示注入攻击的问题。部分问题在于,大语言模型旨在遵循指令,尚未区分来自用户的合法命令和不应被信任的输入。 在努力解决人工智能模型缺陷的竞赛中,网络安全已成为寻求将人工智能工具应用于业务的公司最关心的问题之一。麻省理工学院研究人员最近的一项研究发现,他们研究的80%的勒索软件攻击都使用了人工智能。 克莱因说,Anthropic与外部测试人员合作,使其Claude模型更具抵抗力。 这也是为什么人工智能模型容易出现越狱情况的原因。