DC娱乐网

OpenAI披露与五角大楼协议更多细节,强调"三层防护"红线 据CEO山姆·奥特

OpenAI披露与五角大楼协议更多细节,强调"三层防护"红线 据CEO山姆·奥特曼本人承认,OpenAI与美国国防部的合作"确实很仓促",且"看起来不太好看"。 此前,人工智能公司Anthropic与五角大楼的谈判于上周五破裂。随后,特朗普总统指示联邦机构在六个月过渡期后停止使用Anthropic的技术,国防部长皮特·赫格塞斯宣布将该AI公司列为供应链风险企业。 在此背景下,OpenAI迅速宣布已达成协议,将其模型部署于机密环境。当Anthropic明确划出红线,禁止将其技术用于完全自主武器或大规模国内监控时,奥特曼声称OpenAI同样坚守这些红线。这引发外界质疑:OpenAI的安全保障是否属实?为何它能达成协议而Anthropic未能如愿? 面对质疑,OpenAI高管们在社交媒体上为协议辩护的同时,也发布博文阐述了其技术应用方针。博文明确指出三大禁区——大规模国内监控、自主武器系统以及"高风险自动决策(如'社会信用'体系)"。 OpenAI强调,与其他"减少或移除安全护栏、主要依赖使用政策作为国家安全部署主要保障"的AI公司不同,该公司通过"更广泛、多层次的方法"保护其红线。"我们对安全堆栈保留完全自主权,通过云端部署,经过审查的OpenAI人员全程参与,并有强有力的合同保护措施。"博文补充道,"这还不包括美国法律中已有的强大保护条款。我们不知道Anthropic为何未能达成协议,希望他们和其他实验室能够考虑这种方式。" 然而,博文发布后,Techdirt网站的迈克·马斯尼克指出,该协议"绝对允许进行国内监控",因为其中规定私人数据收集将遵循第12333号行政命令。他将该命令描述为"NSA通过窃听'美国境外'线路来隐藏其国内监控的手段,即使这些通信包含美国人信息"。 OpenAI国家安全合作负责人卡特里娜·穆里根在领英发帖反驳称,围绕合同条款的讨论假设"阻止美国人被用于大规模国内监控和自主武器的唯一障碍,是一份与'战争部'的单一合同中的单一使用政策条款"。她强调:"部署架构比合同措辞更重要……通过将部署限制在云端API,我们可以确保模型无法直接集成到武器系统、传感器或其他作战硬件中。" 奥特曼也在X平台回应质询,承认仓促达成协议导致了OpenAI遭受强烈抵制(以至于上周六Anthropic的Claude在苹果应用商店下载量一度超过OpenAI的ChatGPT)。谈及为何仍要推进合作,奥特曼表示:"我们真心希望缓和局势,认为当前协议是有益的。如果我们判断正确,这确实能缓和'战争部'与行业间的紧张关系,我们将被视为天才,是承受巨大痛苦来帮助行业的公司。若非如此,我们将继续被贴上'仓促、不谨慎'的标签。"