【社説】生成AI指針 悪用を防ぐ取り組み急げ

先進7カ国(G7)は、生成AI(人工知能)に関する国際的なルール作りを目指す「広島AIプロセス」で、開発者だけでなく利用者も対象にした初の包括ルールに最終合意した。生成AIを利用した偽情報の拡散を防ぐための「責務」なども盛り込んだ。日本政府には国際的なルール作りで主導的役割を果たすと同時に、国内でAIの悪用を防ぐ取り組みを早急に整備するよう求めたい。

リスクの理解求める

AIの利用が急拡大する中、最も懸念されるのが偽情報の拡散に利用されることだ。ウクライナ戦争やイスラエルとイスラム組織ハマスとの戦闘では、AIによって作製したとみられる偽の画像や映像がSNS上で拡散し混乱を呼んでいる。日本でも、災害時にAIで作られた偽の被災画像が出回ったり、岸田文雄首相ら政治家の音声付き偽動画が投稿されたりするなど既にAIを悪用する動きがある。

包括ルールは、利用者を含む全てのAI関係者に向けた「国際指針」と、開発者に向けた「行動規範」が柱だ。「指針」では偽情報の拡散をはじめとするAIのリスクを理解するなどデジタルリテラシーの向上が求められている。生成AIが覇権主義的な動きを強める中国やロシアに恣意(しい)的に利用されたり、世論を誘導し、政治や社会を混乱させる「情報戦」に使われたりすれば安全保障上の脅威にもつながりかねない。国民の理解を促進する取り組みが急務である。

地方自治体や民間企業では既に生成AIを業務に活用し労働時間の削減や作業の効率化につなげる動きが広がり始めている。一方で、個人情報や機密情報の流出を危惧し利用を禁止する向きもある。これについても、政府がはっきりと方針を示すことが必要だ。AI技術は今後も発展し世界的に広がっていくことが予想される。安易に規制するのではなく国民がリテラシーを深める施策を行いながら効果的な活用を促すのが望ましい。

G7の指針はAI活用のルールにとどまり、規制には踏み込まなかった。これに対し欧州連合(EU)は、リスクを4段階に分類し、それに応じて利用を規制する包括的なAI規制案で大筋合意した。公的機関が個人の信用度を評価したり、子供や障害者などの弱みに付け込んだりするようなAIは利用が禁止される。また生成AIで作られた画像や文章は、そのことを明示するなど透明性の確保が義務付けられる。2026年にも施行される見通しで、EU域内で活動する外国企業にも適用されることから影響は大きいだろう。

先駆けて知財権保護を

日本では生成AIの普及によって著作権や商標権などの知的財産権が侵害されることへ不安の声が多い。現行の法規定では、生成AIが学習したオリジナルに酷似したものが作られた際の著作権の扱いが曖昧との指摘がある。政府は有識者検討会を設置し議論しており、来年4~5月に中間取りまとめをする予定だ。多くのクリエイターやコンテンツを抱える日本だからこそ、世界に先駆けて生成AIの活用と両立しながら彼らの権利を保護し発展させられる仕組みを構築することを期待したい。

spot_img
Google Translate »