12月11日消息,据Axios率先报道,OpenAI周三表示,其前沿AI模型的网络安全能力正在加速发展,并警告称,即将推出的模型可能会带来“高”风险。
这些模型的日益强大的能力可能会显著增加能够实施网络攻击的人数。
OpenAI表示,在最近发布的版本中,其功能已经显著提升,特别是模型能够自主运行更长时间,这为暴力攻击铺平了道路。
该公司指出,GPT-5在8月份的夺旗赛中得分为27%,而GPT-5.1-Codex-Max上个月的得分为76%。
该公司在报告中表示:“我们预计即将推出的AI模型将继续沿着这条轨迹发展。为此,我们正在进行规划和评估,假设每个新模型都能达到我们《准备框架》中衡量的‘高’网络安全能力水平。”
OpenAI在6月份发布了类似的关于生物武器风险的警告,然后在7月份发布了ChatGPTAgent,该代理的风险等级确实被评为“高”。
“高”是第二高的级别,仅次于“临界”级别,在临界级别下,模型公开发布是不安全的。
该公司没有具体说明何时会推出首批被评为“高”网络安全风险的型号,也没有说明未来哪些类型的型号可能会构成这种风险。
OpenAI的FouadMatin在接受Axios独家采访时表示:“我明确指出,推动这一目标的关键因素是模型能够长时间运行的能力。”
马丁表示,这种依靠长时间的暴力攻击更容易防御。
“在任何有防御的环境下,这都很容易被发现,”他补充道。
领先的模型在发现安全漏洞方面越来越出色——而且不仅仅是OpenAI的模型。
因此,OpenAI表示,它一直在加大力度与整个行业合作应对网络安全威胁,包括通过其于2023年与其他领先实验室共同发起的“前沿模型论坛”。
该公司表示,将成立一个独立的“前沿风险委员会”,这是一个咨询小组,旨在“让经验丰富的网络防御者和安全从业人员与OpenAI的团队密切合作”。
OpenAI表示,该技术目前也正在进行Aardvark的内部测试。Aardvark是一款开发者可以用来查找产品安全漏洞的工具。开发者需要申请才能获得Aardvark的访问权限,该工具已经发现了一些关键漏洞。(鞭牛士、AI普瑞斯编译)