生成AI(人工知能)の安全確保に向けたルール整備の行方が不透明になっている。多くの開発企業が集まる米カリフォルニア州で知事が新法に対して拒否権を行使した。生成AIは悪用の懸念が高まっており、関係者が衆知を集めてルールづくりを急ぐべきだ。
カリフォルニア州議会はAIの開発企業に兵器やサイバー攻撃への転用を防止することなどを義務付ける法案を8月に可決していたが、ニューサム知事が成立に必要な署名を拒否した。
同州にはオープンAIなど生成AIを開発する有力企業が多く、環境規制などでも先頭に立ってきた。だが、知事は新法が開発に多くの資金を必要とする大きなAIモデルに対象を限っていることなどが合理的でないと判断した。
判断には理解できる点があるものの、ルール整備が遠のいたのは残念だ。米国ではバイデン大統領が大統領令で連邦議会に安全確保のための法整備を求めたが、実現していない。共和党の大統領候補であるトランプ前大統領は大統領令の撤回を主張しており、州レベルの議論の重要性が増している。
カリフォルニア州では多くの企業が新法に反対し、法案修正の議論に加わったのはわずかだった。生成AIの開発は資金力が高い企業が主導し、ルール整備でも企業の参画が欠かせない。問題があるのであれば具体的に指摘し、早期のルール整備に協力すべきだ。
欧州では罰則規定を伴うAI法の本格的な運用が2026年に迫り、日本でも政府がAI制度研究会を設けて法規制の議論を始めた。ガイドラインなどの緩やかなルールで利活用を促す一方、安全確保のためには法律も要るとの見方が強まっている。
各地でルール整備が進むなか、課題となるのはどう一貫性を保つかだ。日本は23年に始まった主要7カ国(G7)の「広島AIプロセス」を主導した。引き続き企業や専門家など幅広い関係者と協力し、包括的な枠組みの整備に貢献する必要がある。
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。