Anthropic、軍事AI利用拒否で「サプライチェーン・リスク」指定
米国防総省がAI企業Anthropicをサプライチェーンリスクに指定。同社がClaudeの軍事利用に制限を求めたことが原因で、OpenAIが代替契約を獲得した。

異例の「サプライチェーンリスク」指定
米国防総省は3月、AI企業Anthropicを正式にサプライチェーンリスクに指定した。この指定を受けたアメリカ企業は、Anthropicが初めてとなる異例の措置だ。 Anthropicは同社のAI「Claude」が完全自律兵器や国内大規模監視に使用されることを制限するガイドラインの維持を求めていたが、国防総省は「あらゆる合法的目的」での無制限アクセスを要求していた。Anthropic CEOのダリオ・アモデイ氏は、この決定を「報復的で懲罰的」と批判している。
POINT
米国防総省によるサプライチェーンリスク指定は通常、外国の敵対企業に対してのみ適用されるもので、米企業への適用は前例がない。Anthropicは軍事契約から排除され、防衛請負業者もClaudeの使用が禁じられる。
OpenAIが契約獲得、業界に衝撃
Anthropicがブラックリストに載せられた数時間後、OpenAIが国防総省との契約を発表した。OpenAIのサム・アルトマンCEOは当初、軍事利用における国内監視の禁止などより強力な保証を提供すると表明したが、後に「拙速で機会主義的に見えた」として契約条件の修正を余儀なくされた。 一方で皮肉にも、Anthropicがサプライチェーンリスクに指定された週末、Claudeがイランに対する米軍の攻撃作戦で使用されていたことが報告されている。トランプ大統領は軍に対し6カ月間でClaudeの段階的廃止を指示しているが、アモデイ氏は「主要な戦闘作戦の最中に戦闘員が重要なツールを奪われることがない」よう優先することを述べている。
法廷闘争と業界への影響
Anthropicは月曜日、トランプ政権を相手に2つの連邦訴訟を提起し、国防総省の決定が同社の言論の自由と適正手続きの権利を侵害していると主張している。連邦地裁判事は「Anthropicが『処罰』されているように見える」と懸念を表明し、国防総省側の行動に疑問を投げかけている。 この騒動の結果、ClaudeはChatGPTを抜いて米国で最もダウンロードされたアプリのトップに躍り出るなど、皮肉にも注目を集めている。業界投資家らは、米国最大手のAI企業の一つを標的にすることで、国防総省が危険な前例を作り、投資を萎縮させる可能性があると懸念を示している。
AITAKE編集部の見方
今回の騒動は、AI技術の軍事利用における倫理的ガイドラインと国家安全保障のバランスという、今後のAI業界が直面する根本的な課題を浮き彫りにした。Anthropicの「安全性第一」のアプローチとOpenAIのより柔軟な姿勢は、AI企業が政府との関係においてどのような立場を取るべきかの分岐点を示している。 特に注目すべきは、サプライチェーンリスク指定という外国企業向けの措置が米企業に初めて適用されたことで、これは今後の政府とテック企業の関係における新たな「武器」となる可能性がある。日本のAI業界にとっても、技術の軍事転用と企業の社会的責任のバランスを考える上で重要な先例となるだろう。
Source: CBS News