EU AI規制法が適用範囲を拡大──欧州議会委員会が新たな規制案を承認
汎用AIモデルの義務が強化。日本企業にとっての影響を解説

欧州議会の内部市場委員会は、EU AI規制法(AI Act)の適用範囲を拡大する新たな規制案を承認した。2024年に成立したAI Actの施行が本格化する中、汎用AIモデル(GPAI)への追加義務や、AI生成コンテンツの表示義務の厳格化など、複数の重要な改正が盛り込まれている。EUのAI規制は世界で最も厳格なものとなりつつある。
主な規制強化ポイント
今回の規制案で特に注目されるのは3点だ。第一に、汎用AIモデルの提供者に対して、学習データの詳細な開示義務が課される。著作権で保護されたデータの使用状況も含まれ、OpenAIやGoogleなどの大手に大きな影響を与える。第二に、AI生成コンテンツへのウォーターマーク(電子透かし)の埋め込みが技術的に義務化される。第三に、感情認識AIの利用制限が職場環境にも拡大される。従業員の感情をAIで分析する行為が原則禁止となる。
POINT
EU域内でAIサービスを提供する全ての企業が対象。日本企業もEU市場向けサービスでは準拠が必要。違反した場合、最大で全世界売上の7%の罰金が科される。
日本企業への影響
日本企業にとって、EU AI規制法の拡大は対岸の火事ではない。EU域内でAIを活用したサービスを提供する企業、EU市民のデータを処理する企業は、直接的に規制の対象となる。特に自動車、製造業、金融など、欧州市場で大きなプレゼンスを持つ日本企業は、AI利用に関するコンプライアンス体制の見直しが急務だ。
AITAKE編集部の見方
EUのAI規制強化は、グローバルなAIガバナンスの方向性を大きく左右する。GDPRがプライバシー規制のグローバルスタンダードになったように、AI ActもAI規制の事実上の国際基準になる可能性がある。一方で、トランプ政権が「軽規制」を打ち出した米国との規制格差は拡大しており、企業にとっては複数の規制への同時対応というコスト増が避けられない。日本政府は、EUと米国の中間的な立場を取りつつも、独自の規制フレームワークを早急に整備する必要がある。特に汎用AIモデルへの規制は、日本国内のAI開発戦略にも直結するテーマだ。
Source: European Parliament