EUでは5月21日、生成AIなどの基盤モデルの開発やAIを活用したサービスの提供を手がける幅広い企業などを対象に、包括的にAIを規制する法律が成立しました。

2026年に規制が本格的に適用される見通しのこのAI法は、リスクに応じてAIを分類し、利用の禁止や監視などのリスク管理、それにAI製と明示するなど分類ごとに規制を定めています。

一方、日本政府は、EUのAI法が成立した翌日22日に開かれた「AI戦略会議」で、国内でも新たな法規制を導入するかどうか、検討を始めることを確認しました。

生成AIの急速な普及でそのリスクに対する懸念が高まるなか、EUに端を発した規制強化の流れは、日本企業にも大きな影響を与えることになります。

日本企業は

富士通は、すでにEUがデータ保護などの分野で規制を強化したことを受けて、2019年には外部の専門家による委員会を設置し、自社のAIの安全性を客観的に評価する体制を整備しました。

さらに、2021年にEUがAI法の法案を発表したことを受けて、専門の対策チームを設置しました。

また、2023年にはヨーロッパやアメリカなど地域ごとにAI責任者を配置するなど対応の強化を進めています。

NECは、2018年に人権やプライバシーの観点からAIビジネスの戦略を立てる専門組織をつくりました。

EUのAI法の成立を受けて、リスク管理の強化を進める方針です。

AIの規制をめぐっては、開発や普及の強化と安全性や信頼性の確保をどのように両立していくかが大きな課題となるなか、法律による規制と企業の自主的な規制のどちらをより重視するのかEUとアメリカ、それに日本での動きに差も出ています。

一方で、AIビジネスの国際競争は激しさを増していて、日本企業は各国の規制に応じたより精緻な対応が迫られています。

専門家「リスク管理の体制構築が求められている」

野村総合研究所の小林慎太郎グループマネージャーは、「EUの規制は開発者だけでなく実際にAIを実装してサービスとして提供する事業者も対象になる。サプライチェーン全体で対処していかなければならず、組織横断的にリスク管理の体制を構築していくことが日本企業には求められている」と話しています。

そのうえで、リスクの評価の判断を企業側に求めているEUのAI法の特徴を踏まえ、「各社が自身でAIのリスクを評価し、それを特定してどこまで軽減すればよいかを自社で考えていかなければならないところが大変難しく、日本企業にとってはチャレンジになる」と述べ、社内でリスクの評価を行う体制を整えながら、ビジネスとしての国際競争力を高めていく難しさを指摘しました。

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。