Anthropic与DoD的这份合同标志着AI安全研究从实验室走向战场的关键转折。根据合同细节,Claude将被用于后勤优化和网络安全防御,而非直接武器系统。然而,这开创了危险先例:一旦接受了 Pentagon 的资金,技术迭代方向必然向军事需求倾斜。2025年Anthropic还公开反对自主武器,如今这种立场软化令人担忧。更关键的是,合同金额据传超过4亿美元,足以扭曲整个公司的研究优先级。
这份合同实际上是AI技术成熟的必然结果。DoD选择Anthropic而非OpenAI或Google,恰恰说明其Constitutional AI框架在可控性方面获得认可。合同明确排除了杀伤链应用,专注于供应链预测和漏洞分析——这些领域民用与军用界限本就模糊。从产业角度看,4亿美元级别的政府合同将加速多模态推理和边缘部署技术的突破,这些成果最终会通过开源论文和API惠及普通开发者。拒绝军方合作只会把技术主导权让给那些更不透明的竞争者。
问题的核心在于监督机制的缺失而非合同本身。当前美国缺乏类似EU AI Act的军事AI专门审查程序,DoD的AI伦理指南在2024年修订后仍依赖自我评估。Anthropic合同中的'非杀伤性'条款缺乏第三方验证机制,且'网络安全防御'的定义足以涵盖先发制人的网络攻击。更务实的路径是建立跨部门的AI军事应用审查委员会,而非简单禁止或放任。参考Palantir在阿富汗的教训,技术中立承诺往往在战场上失效。