Anthropicの国防総省との契約は、AI安全研究が実験室から戦場へ移行する転換点だ。契約内容によれば、Claudeは武器システムではなく後方支援とサイバー防衛に使用される。しかし、Pentagonの資金を受け入れれば、技術開発の方向性は軍事ニーズに傾く。2025年には自律兵器に反対していた立場が後退している。契約総額は4億ドルを超えるとされ、企業の研究優先順位を歪めるに十分だ。
この契約はAI技術の成熟に伴う必然の帰結だ。国防総省がOpenAIやGoogleではなくAnthropicを選んだのは、Constitutional AIの枠組みが制御性において評価された証拠である。契約は殺傷行為を明確に除外し、サプライチェーン予測と脆弱性分析に限定している。4億ドル規模の政府契約は、マルチモーダル推論やエッジ展開技術の飛躍的進歩を加速させ、その成果は最終的に一般開発者にも恩恵をもたらす。
核心は契約そのものではなく監督メカニズムの欠如にある。米国にはEU AI Actのような軍事AI専門審査プログラムが存在せず、国防総省のAI倫理ガイドラインは2024年改訂後も自己評価に依存している。Anthropic契約の「非殺傷性」条項には第三者検証がなく、「サイバー防衛」の定義は先制的攻撃を含みうる。より実践的な道は、単純な禁止や放任ではなく、省庁横断的なAI軍事利用審査委員会の設立である。