国防総省がAnthropicをサプライチェーンリスク指定、AI安全ガードレールで対立
ClaudeのAI技術を軍事利用する際の安全ガイドライン要求を巡り、米国防総省がAI企業Anthropicを異例のサプライチェーンリスク指定。連邦判事が一時差し止め命令を出すも、政府側は控訴。

国防総省とAnthropicの対立が法廷闘争に
米国防総省とAI企業Anthropic(アンソロピック)は、同社のClaude AIモデルの軍事利用を巡り激しく対立している。争点は、国防総省がClaudeを「すべての合法的な目的」で使用したいとする一方、Anthropicが米国市民の大規模監視や完全自律型兵器への使用を明示的に禁止するガイドラインを要求していることだ。 3月初旬、ペット・ヘグセス国防長官はAnthropicを政府契約から排除し、サプライチェーンリスクに指定すると発表した。このサプライチェーンリスク指定は通常、外国の敵対勢力に対して使用される措置で、米国企業に適用されるのは極めて異例だ。
連邦判事が政府措置を一時停止
カリフォルニア州連邦地裁のリタ・リン判事は3月26日、国防総省によるAnthropicのサプライチェーンリスク指定を「憲法上の権利を踏みにじるもの」として一時的に停止する判決を下した。リン判事は43ページに及ぶ判決で「米国企業が政府への異議申し立てを理由に潜在的敵対者や破壊工作員とみなされるという、オーウェル的な概念を支持する根拠は法律にない」と厳しく批判した。 しかし、トランプ政権は4月3日、この判決を不服として第9巡回控訴裁判所に控訴を申し立てた。控訴裁判所は政府側に対し、4月30日までに判決を覆すべき理由を記した書面を提出するよう命じている。
POINT
この対立により、Anthropicの一般消費者向けアプリは皮肉にも人気が急上昇。1日100万人以上が新規登録し、20カ国以上のApp StoreでOpenAIのChatGPTやGoogleのGeminiを抜いてトップAIアプリとなった。
Anthropicの「レッドライン」とその背景
AnthropicのCEOダリオ・アモデイ氏は、AIが政府に「米国の価値観に反する」広範な監視能力を提供する可能性があり、また現在のAI技術は人間の入力なしに人をターゲットにする完全自律型兵器に使用するには十分正確ではないと主張している。同氏は「法律が技術に追いついていない」と述べ、同社の2つのレッドラインは創設時からの方針だと強調している。 国防総省は大規模監視や自律型兵器を制限する法律や政策を文書で確認する妥協案を提示したが、Anthropicは「軍が実質的にガードレールを無視できる法的文言と組み合わされている」として不十分だと反発した。
AITAKE編集部の見方
この事件は、AI技術の軍事利用における倫理的ガードレールと国家安全保障のバランスという、今後ますます重要になる問題を浮き彫りにしている。特に注目すべきは、この対立が米中AI競争に与える影響だ。安全性制限により米国の最先端AIモデルの軍事利用が制約される一方、中国の国家主導型AI開発が有利になる可能性がある。 また、マイクロソフト、業界団体、退役軍人指導者、カトリック神学者グループなど多様な第三者がAnthropicを支持する法廷意見書を提出していることは、この問題が技術業界を超えた広範な関心事であることを示している。AI技術の発達と共に、企業の社会的責任と政府の権限の境界線を巡る議論は今後さらに激化するだろう。
Source: CBS News