电影里最吓人的AI,是机器突然觉醒。现实里更吓人的AI,是它压根不用觉醒。 军用AI现在已经能做很多过去必须靠人慢慢处理的活。无人机画面、卫星图像、海量情报流,一股脑丢进去,它几秒就能识别目标,几十秒就能筛出重点,连打击先后顺序都能给你列明白。 这次美军对伊作战里,AI上场的力度比很多人想的还猛。Project Maven接入大模型后,识别能力直接提速,Claude和Palantir的组合更夸张,90分钟处理2.3PB数据,把传统人工分析甩出几条街。 2.3PB是什么概念?差不多4.8万部4K电影。人类别说分析,光看完都得两百多年。可机器一个半小时就筛完了,还能把准确率做到98.7%。这种速度一旦进战场,战争节奏就彻底变了。 你可以想象一下,有AI的一方,发现目标、分析威胁、部署打击,几分钟内完成。没AI的一方,还在等情报汇总、等上级批示、等下一轮判断。两边已经不是同一时代的打法了。 也正因为这样,AI和军方之间的边界越来越危险。五角大楼和Anthropic因为权限问题掐起来,说到底就是一件事:军方想把AI用得更彻底,企业不想让模型彻底失控。 军方嫌限制太多,怕影响作战效率。企业怕什么?怕军方把AI一步步喂成没有边界的战争机器。今天是分析情报,明天是辅助决策,后天可能就成了自动决定谁该挨打。 更扎眼的是责任问题。哪天真要出了大事,打错人了,炸错地方了,谁负责?AI最适合当挡箭牌。它没有人格,没有军衔,也不会受审。只要一句“系统误判”,很多脏活就能被技术外衣包起来。 而且军事AI根本不会自己觉得“战争不好”“杀戮过线了”。它只会按训练目标一路推演:怎么最快、最稳、最省成本地解决对手。人类还能犹豫,机器不会。人类会顾忌后果,机器只认结果。 这才是最冷的地方。它不需要变成人类的敌人,它只要把人类给它的任务执行到极致,就已经够吓人了。
