欧州連合(EU)欧州議会が人工知能(AI)の開発や利用を巡る規制法の最終案を賛成多数で承認した。世界初のAI規正法で、加盟国の合意を経て2026年に適用が始まる。
AIの活用は、経済成長をもたらすとの期待が高まる一方、選挙での偽情報拡散などが懸念されている。欧州で民主的な価値観に基づくAI法が制定されることの意義は大きい。
人権侵害招く利用を禁止
AI法は、基本的人権や民主主義が脅かされることのないようAIシステムの安全性を守るとともに、この分野の欧州企業の成長も確保することを目的としたものだ。AIのリスクを四つに分類し、リスクに応じた措置を事業者に義務付けた。市民の社会的なランク付けや、人種や政治信条といった個人情報に基づく生体認証システムの運用など、人権侵害につながるAIの利用は禁止する。
文章や画像を自動で作る生成AIについては、民主主義の価値観に反する情報コンテンツを禁じた。違反した事業者には、最大3500万ユーロ(約56億円)もしくは世界売上高の7%に相当する制裁金が科される。巨額の制裁金は民主主義擁護に向けた欧州の強い決意を示すものだと言える。
米国ではAI関連企業の成長を見据えたハイテク株買いが続き、これが日本に波及して東京株式市場では日経平均株価が34年ぶりに史上最高値を更新するなど、AIによる経済成長への期待は大きい。しかし中国やロシアなどの権威主義国家が悪用すれば、安全保障上の重大な脅威となることが懸念される。
24年1月の台湾総統選で当選した頼清徳副総統に対しては、選挙戦の最中に台湾独立を主張する危険な分離主義者として批判するなど、AIを活用した大規模な偽情報キャンペーンが展開された。厳しい対中姿勢の頼氏を落選させようとした中国によるものとの見方が強い。
AIによる偽情報は米大統領選でも問題となっている。日本でも23年11月、岸田文雄首相が性的な発言をする偽動画がSNSで拡散するなど、AIに対しては不安も拭えない。
5月の先進7カ国首脳会議(G7広島サミット)では、「信頼できるAI」を目指して民主主義の価値観を踏まえた見直しが必要だと訴えた。12月にはG7首脳がテレビ会議で、生成AIの国際ルールの枠組み「広島AIプロセス」に最終合意した。開発者や利用者らの責務を定めたもので、G7はAIの悪用防止を主導して中露などの恣意(しい)的利用に対処すべきだ。
日本政府は24年2月、生成AIの安全性評価の手法などを調査する専門機関「AIセーフティ・インスティテュート(AISI)」を設置した。米国、英国の関係機関と連携し、偽情報生成などのリスク対策に向けて評価手法の確立を目指す。
日本でも法規制検討を
一方、日本ではAIに対する法規制はなく、企業の自主規制を柱としている。
AIの開発や普及を優先しているためだが、悪用による脅威は今後ますます深刻化するだろう。政府は法規制を検討する必要がある。






