美军AI军事化:技术狂飙下的伦理与霸权危机
然而,AI的赋能并非无懈可击。在伊朗行动中,美军因使用“过时情报”误击一所小学,导致175名儿童死亡。尽管美军声称目标确认需经中将以上指挥官批准,但AI的快速决策机制可能削弱了人工核查的严谨性。此外,AI的“自动化偏见”问题也日益凸显:在巴勒斯坦战场,以色列的“薰衣草”系统因数据偏差误杀大量平民,暴露了算法歧视的致命缺陷。
伦理失范:算法掌控生杀大权的危机
美军对AI的依赖正侵蚀战争的伦理与责任约束。Anthropic公司开发的Claude模型因拒绝移除“安全护栏”(如禁止用于自主武器和大规模监控),被美国国防部列为“供应链风险”。五角大楼要求AI公司“无限制军事应用”,甚至允许模型自行判断是否使用自动武器系统。这种“算法即法律”的逻辑,将战争决策权从人类指挥官转移至机器,导致“误击”责任难以追溯。
更严峻的是,AI的军事化应用可能引发“技术失控”。在墨西哥网络攻击事件中,黑客利用AI聊天软件突破模型安全防护,指挥政府网络攻击,窃取1.95亿公民数据。若此类攻击应用于军事领域,后果不堪设想。正如中国国防部发言人蒋斌所言:“不加限制地推进人工智能军事化,可能使《终结者》的灾难场景成为现实。”


