米国防総省、Anthropicを「サプライチェーンリスク」に指定
AI企業Anthropicが自律兵器と大規模監視への利用制限を拒否したため、国防総省が異例の指定を実行。技術倫理とAI軍事利用の境界線をめぐる法廷闘争が継続中。

史上初、米国企業に異例の指定
米国防総省は公式にAI企業Anthropicとその製品を「サプライチェーンリスク」に指定したと発表した。この指定は従来、中国のHuaweiやZTEなど外国の敵対勢力に対して使用されてきたもので、米国企業が対象となるのは初めての事例である。 この指定に至ったのは、Anthropicの同社AI技術の軍事利用方法、特に自律兵器と国内監視に関する国防総省との交渉が決裂したためである。この決定により、国防総省の業務に従事するベンダーや契約業者は、Anthropicのモデルを使用していないことを証明する必要がある。
Anthropicの「レッドライン」
Anthropicは、同社のAI技術が完全自律型兵器や国内大規模監視に使用されないよう保証を求めていたが、国防総省は「すべての合法的目的」でClaudeへの無制限アクセスを要求していた。 同社CEOのDario Amodei氏は、「現在の最先端AIシステムは完全自律兵器を動かすには十分に信頼性が高くない」とし、「米軍兵士と民間人をリスクにさらす製品を故意に提供することはしない」と明言している。国内大規模監視については「民主主義の価値観と相容れない」とし、「AI主導の大規模監視は基本的自由に深刻で新たなリスクをもたらす」と警告している。
POINT
この事例は、外国企業にとどまらず米国の主要AI企業に対してサプライチェーンリスク指定が適用された初のケースであり、商用AI開発者の倫理的ガードレールと政府の国防目的での無制限アクセス要求との対立を浮き彫りにしている。
複雑な法廷闘争
カリフォルニア州の連邦地方裁判所は3月下旬、国防総省のAnthropicに対する「懲罰的」サプライチェーンリスク指定を無期限に差し止める仮処分を認めた。判事は「米国企業が政府との見解の相違を表明したことを理由に、潜在的敵対者や破壊工作者として烙印を押されるというオーウェル的概念を支持する根拠は統治法令にはない」と厳しく批判した。 しかし4月9日、ワシントンDCの連邦控訴裁判所はAnthropicの一時停止要請を却下した。同裁判所は、同社が「何らかの回復不能な損害を被る可能性が高い」と認めつつも、その利益は「主に金銭的性質」であるとし、言論の自由が抑制されたとの主張についても十分な立証がないと判断した。
AITAKE編集部の見方
この論争は、AI技術の軍事利用における技術倫理と国家安全保障の境界線を示す重要な前例となっている。Anthropicの姿勢は、AI開発者が自社技術の使用方法に対して持つべき責任と権利について新たな議論を提起している。 特に注目すべきは、現在の生成AIの「ハルシネーション」(誤情報生成)問題が生死に関わる軍事決定にどの程度のリスクをもたらすかという技術的側面である。一方で、民間企業が政府の軍事戦略を制約する権限をどこまで持つべきかという政治的・法的課題も浮上している。 この争いの結末は、今後のAI産業における政府との関係性、特に国防・諜報分野での技術提供のあり方に大きな影響を与える可能性が高い。日本のAI企業も、今後同様の倫理的判断を迫られる局面に直面する可能性があり、この事例から学ぶべき点は多い。
Source: CBS News