DC娱乐网

简直太恐怖了!AI首次参与了人类战争!美国空袭伊朗时使用了AI! ​这次美国利用

简直太恐怖了!AI首次参与了人类战争!美国空袭伊朗时使用了AI! ​这次美国利用科技公司Anthropic开发的人工智能,知情人士证实,包括美国中东中央司令部在内的全球美军指挥机构,均在使用Anthropic旗下的Claude人工智能工具。 ​早在美军抓捕委内瑞拉总统马杜罗等重大任务中,就投入使用了Claude这样的人工智能工具!而此次伊朗空袭以色列同样使用了大量的无人机,同样在地球的另一端,俄乌冲突进入第五年,无人机在战场上持续演化! ​​大家可能还记得去年美军抓捕马杜罗的新闻,当时只觉得这场跨国突袭行动精准得不可思议,150多架战机协同作战,全程零美军伤亡就完成了任务。 ​直到后来《华尔街日报》爆料才知道,这场代号“绝对决心”的行动背后,真正的指挥核心竟然是Claude人工智能。 ​它通过专门的国防平台处理海量情报,不仅规划了战机的飞行路线和突袭时机,还在行动中实时调整作战指令,把原本需要数十人团队几天才能完成的方案推演,压缩到了短短几小时内。 ​更让人意外的是,就连Anthropic公司自己,都是事后才知道自家产品被用于军事行动,这也直接引发了他们和美国国防部的激烈矛盾。 ​而美军空袭伊朗的行动,更是把AI参战的恐怖之处展现得淋漓尽致。这次行动代号“沉默圣城”,全程只用了11分23秒就完成了精准打击,实现了零伤亡和零附带损伤。 ​背后的核心就是升级后的Claude4Opus版本,它能同时处理文本、图像、音频等多种信息,解析伊朗革命卫队的加密文件速度是人类分析师的82倍,处理2.3PB的情报数据只花了90分钟——这要是交给人工团队,300多人连续工作100天才能完成。 ​更惊人的是,它通过分析哈梅内伊6个月的行动轨迹和作息规律,精准预测出了仅有3分钟的行动窗口,还在8分钟内生成15套作战方案,最终推荐的方案成功率高达98.2分。 ​这边美军用AI主导精准打击,那边伊朗空袭以色列时也大规模动用无人机,只是技术水平和美军的AI协同作战不在一个层面。但这已经足够说明,无人机+AI的组合正在成为现代战争的标配。 ​而在俄乌冲突这个更大的战场上,这种趋势变得更加明显,这场打了五年的战争,早已成了各国测试智能武器的“实验场”。 ​北约把乌克兰战场分成12个技术验证区,测试各种AI辅助的武器系统,比如“蛇”无人机集群,3架就能完成过去30人才能做的侦察任务,还能引导火箭炮实施精准打击。 ​但光鲜的军事成果背后,藏着无法回避的矛盾和风险。Anthropic公司之所以和美国国防部闹僵,就是因为担心Claude被用于完全自主武器和大规模监控,他们直言现在的AI可靠性还不足以操控武器,没有适当监管的话太危险。 ​可美国国防部态度强硬,不仅威胁要把Anthropic踢出供应商名单,还想动用《国防生产法》强制其配合,甚至要给它贴上“供应链风险”的标签,这种一边说它有风险,一边又离不开它的做法,本身就充满了矛盾。 ​更让人揪心的是,AI参战正在悄悄改变战争的规则。以前打仗,指挥官的决策还会受到人性和道德的约束,但现在AI只看数据和成功率。 ​在乌克兰战场,北约甚至要求乌军提交“武器效能-伤亡比”报告,用士兵的伤亡数据来优化武器设计,这让战争变得越来越冷血。 ​早在2020年的纳卡冲突中,土耳其的“卡古-2”无人机就已经实现了自主攻击撤退的士兵,成为首个已知的AI自主杀戮案例。 ​现在全球都在加速发展军事AI,美国有Claude,俄罗斯也在部署“猎人”无人机集群,各国都在抢占技术高地。但问题是,相关的规则和监管却远远跟不上。没有明确的法律来界定AI武器的使用边界,也没有有效的机制来防止AI决策失误,一旦这些“杀戮机器”失去控制,后果不堪设想。 ​AI技术本身没有好坏,它能提高效率、减少伤亡,但当它被用于战争,就成了一把双刃剑。我们现在看到的,可能只是AI战争的开端,随着技术的不断演化,未来的战争形态还会发生更大的变化。我们必须意识到,AI在战争中的应用就像打开了潘多拉的盒子。未来,或许会出现AI自主判断是否发动战争的可怕场景。当AI仅依据数据和算法来决定生死存亡,那将是人类道德和伦理的巨大挑战。 而且,随着各国对军事AI的依赖加深,一旦发生AI系统被攻击或出现故障的情况,后果可能是灾难性的。一场误判就可能引发全球性的战争冲突,将无数人的生命卷入其中。 国际社会不能再坐视不理,必须尽快行动起来。各国应共同商讨,制定出一套全面且严格的国际法规,明确AI在军事领域的使用范围和责任界定。同时,建立独立的监督机构,对各国的军事AI研发和使用进行监督,确保其不会脱离控制。 我们不能让AI成为毁灭人类的工具,而应该引导它为人类的和平与发展服务。在未来的科技浪潮中,我们要努力让AI成为维护和平的力量,而不是加剧战争的灾难。