美国国防部公布新消息!
5月1日,美国国防部突然扔下一个重要消息,高调宣布跟OpenAl、谷歌、微软、英伟达等7家顶尖AI巨头全部达成了合作协议。声明称,“这些协议加速了美军转型进程,旨在将美军打造为一支‘人工智能主导’的作战力量。”
这事儿看上去是科技与军事的强强联手,但扒开光鲜的外衣,里头藏着一股令人后背发凉的狠劲儿。五角大楼这回不是小打小闹,是要把这些硅谷精英的技术直接塞进最核心的机密网络里。
他们管这叫“合法的作战使用”,可谁都知道,一旦把AI喂给了战争机器,它咬人的方式恐怕连程序员都拦不住。
五角大楼的数据显示,光是他们官方AI平台就有超过130万人用过。
130万人,每天在这个系统里敲出上千万条指令,这不是办公自动化,这是给美军的每一个决策中枢都装上了智能引擎。
说到底,就是在为下一场战争预制一颗能够自己思考、自己开枪的大脑。
更值得玩味的是,这份名单背后有一场无声的“清洗”。
有个叫Anthropic的公司就因为不肯配合,直接被拉黑还被告上了法庭。这家公司跟其他几家不太一样,死活不肯移除模型里两条铁规矩。
哪两条呢?
第一是,禁止用于大规模国内监控,
第二是,禁止开发全自主致命武器。
就这点底线,五角大楼忍不了,直接翻脸不认人,把人家往死里整。
这边Anthropic被扫地出门,那边包括OpenAI在内的其他几家立刻补位,端的是老老实实、无条件服从。
看起来,在“国家利益”这面大旗下,什么“不作恶”的信条,什么伦理底线,统统都得靠边站。
这不是危言耸听。往前翻翻上个月的新闻,美军在对伊朗的打击行动中,一套叫“梅文计划”的AI系统早就深度参与了。
选定目标后,系统自己能算出要多少油、多少弹,连用哪种导弹性价比最高都给你安排得明明白白。
战场上,AI不再是那个只会分析情报的文职参谋,它已经坐到了扳机旁边。那些支持的人说得天花乱坠,说什么AI打得准、速度快、能掌握主动权。可反对者的声音更扎心。
你想想,算法终归是人写的,数据也可能带着偏见。当机器跑偏了,谁来负责?
是写代码的那个硅谷工程师,还是按下启动键的那个将军?分析人士担心的“暴行”,不是没可能发生。
更深一层看,五角大楼这招其实是在下一盘大棋。他们把Anthropic当作那只给猴看的鸡,摆明了告诉所有科技公司:想赚军方的钱,就别跟老子谈条件。
这种“逆向激励”,逼着整个行业在伦理底线上集体后退。
当“拒绝杀人机器”的企业受罚,低头服从的拿大单,以后谁还敢在代码里写“不作恶”?
这就把美国科技界最后一点温情脉脉的面纱撕了个粉碎。所谓的科技向善,在军火订单面前,一文不值。
还有一个细节特别讽刺。五角大楼把人家拉黑了,说禁用Claude模型。可转眼就被爆出,在中东的实际作战里,这模型还在悄悄发挥效用。
嘴上说不要,身体却很诚实。这不正好说明,他们自己也清楚,那些所谓的“安全限制”,压根就不影响战斗力,只是不想让公众知道而已。
说到底,美军这波操作,就是把AI从一个工具,硬生生提拔成了战场规则的制定者。
从情报分析到火力分配,再到最终的扣扳机,人工智能正在挤掉人的位置。五角大楼那个“AI优先”的口号,翻译成人话就是“效率压倒一切,伦理给我滚蛋”。
这场豪赌的代价,可能是让未来的战争变成一场冷血的数据游戏。当杀人的决定被简化为绿色按钮上的一个概率数字,人类的悲悯和犹豫将被视为系统BUG。
技术无罪,但拿着锤子的人眼里全是钉子时,这个世界就只剩下危险了。
各位读者你们怎么看?欢迎在评论区讨论。
中美AI新态势
