AIPress.com.cn报道
3月20日消息,美国国防部提交的一份长达40页的法庭文件中表示,Anthropic对其AI模型设置的安全与使用限制,使其在战时环境下构成“不可接受的国家安全风险”。这一表态标志着双方从合同谈判分歧升级为公开法律冲突。
争议起源于军方AI采购谈判。五角大楼在文件中称,Anthropic在谈判中坚持保留其“使用政策红线”,包括对某些用途的限制。这使国防部门质疑其是否能成为“可信赖的合作伙伴”。政府认为,由于AI系统依赖持续调优与供应商支持,如果厂商在关键时刻基于自身判断调整或限制模型行为,可能影响作战任务执行。
文件进一步指出,AI系统“高度易受操控”,且运行依赖供应商持续维护,因此一旦供应商保留干预能力,就可能在作战期间对系统进行修改或限制,从而对军事行动和人员安全带来风险。基于这一判断,国防部认定Anthropic构成“供应链风险”,并限制其参与相关国家安全采购。该认定依据美国法律中关于“供应链风险”的条款,该条款允许政府在认为供应商可能影响系统完整性时采取限制措施。
Anthropic已于3月9日提起诉讼,试图阻止该决定生效。公司方面表示,政府此举是对其立场的报复,并指出其反对的仅是“完全自主武器”和“大规模国内监控”等高风险用途,而非干预具体军事行动。公司CEO曾公开表示,军事决策应由军方负责,而非企业。
美国政府则回应称,该案件本质上是采购问题,而非言论或立场问题。司法部门指出,政府有权决定与谁开展合作以及合作条件,并强调若Anthropic接受“允许一切合法用途”的合同条款,相关争议本可避免。
背景上看,Anthropic的AI模型此前已深度嵌入国防体系。政府文件称,其模型曾是国防部“部署最广泛的AI模型”,并被用于涉密系统。正因如此,完全替换该技术无法立即完成,目前政府设置了约180天的过渡期,以便迁移至其他供应商。
该事件也发生在美国政府推动“AI优先”战略背景下。相关政策要求在军用AI合同中加入“任何合法用途”条款,以确保AI系统不受供应商使用政策限制。
法律界人士指出,此次使用“供应链风险”工具针对一家美国AI公司较为罕见,该机制过去更多用于涉及外国企业的安全问题。分析认为,这一案件将成为AI行业与国家安全体系之间权力边界的重要测试,核心问题在于:当AI技术进入军事体系后,最终控制权应归属企业还是政府。
目前,法院正在审理Anthropic提出的初步禁令请求,案件结果可能对未来AI公司参与政府及军用项目的规则产生深远影响。(AI普瑞斯编译)