【Anthropic 拒绝五角大楼那份合同,背后的逻辑没你想的那么高尚】
快速导读:Anthropic 刚刚以“价值观不符”为由拒绝了一份政府军事合同,但它同时是 Palantir 的核心 AI 供应商——而 Palantir 做的,正是全球最大规模的监控与情报生意。这件事值得多想一秒钟。
---
Anthropic 的 CEO Dario Amodei,在拒绝五角大楼合同后接受采访,说了这样一段话——
“我们并不是在原则上反对全自动武器。我们只是认为,当前的 AI 系统在可靠性上还没达标。”
就这一句话,把这件事的性质说清楚了。
这不是一家公司划定了道德红线。这是一家公司说:技术还没准备好,所以现在不行。等准备好了,我们再谈。
网上很多人把这次拒绝解读成 Anthropic 和 OpenAI 之间的“原则之战”。OpenAI 接了单,Anthropic 没接,于是 Anthropic 成了“那个还有良心的公司”。这个叙事在 Reddit 上引起了广泛讨论,有人甚至用“终于有人守住了底线”来描述它。
但有一个细节被轻描淡写地跳过了:Anthropic 和 Palantir 有深度合作关系。
Palantir 是什么公司,不需要在这里详细介绍。它为美国政府、欧洲各国安全机构、以及多个在争议地区执行军事行动的客户提供数据分析和情报系统。用一位 Reddit 用户的原话说:“你在认真考虑 Anthropic 反对监控的可信度,同时它的 AI 正在通过 Palantir 的管道进入这些系统。”
Anthropic 的公关节奏也有一个值得注意的规律。
几个月前,Anthropic 宣布“不会用广告来变现用户数据”,并把这个决定包装成价值观声明。但当时的背景是:他们的年收入已经到了 140 亿美元级别,根本不需要靠广告维持运营,广告模式对他们而言风险大、回报低。这是一个合理的商业判断,但它被讲述成了一个道德选择。
这次拒绝军事合同,结构上几乎一模一样。
这不是说 Anthropic 做错了什么。拒绝这份合同,在法律和商业层面都可能是正确的决定。但“正确的商业决定”和“有原则的道德立场”是两件不同的事,把前者包装成后者,长期来看是在消耗信任资本。
OpenAI 的问题在于它太急着把一切变现,以至于已经不在意形象管理了。Anthropic 的问题在于它把形象管理做得太好,好到让人忘记去问:这家公司真正不愿意做的事情,到底是什么?
Dario 在采访里说,他跟多位将军和海军上将谈过,他们告诉他 AI 已经革命性地改变了军事能力。他说这些的时候,语气是骄傲的,不是警惕的。
如果你用的是 Claude,这篇文章不是在劝你换掉它。Claude 是一个好用的工具,工具本身没有立场。但下次看到“Anthropic 又守住了底线”这类标题的时候,可以多停一秒——问问自己,这条底线,到底是画在哪里的。
---
简评:
所有的科技公司都在讲故事,区别只在于,有的公司讲的故事连自己都信了,有的公司清楚地知道自己在讲故事。后者其实更危险,因为它更难被戳穿。Anthropic 大概属于第二种,但它的用户群体里有太多人更愿意相信第一种。
---
ref: reddit.com/r/OpenAI/comments/1ritmi0/just_so_you_know
AI创造营人工智能
