(ブルームバーグ): 対話型人工知能(AI)「Chat(チャット)GPT」が公開されて約1年半。政府はデータセンターの整備促進や適切利用に向けたガイドライン整備などを進めてきた。しかし、AIの活用には課題も多く、変革への意識が問われる局面にある。

  政府のAI戦略会議の座長を務める東京大学大学院の松尾豊教授は12日のインタビューで、日本は過去1年「最善手を指し続けてきた」と高く評価した。

  一方で、デジタルトランスフォーメーション(DX)の進捗(しんちょく)が遅れていた日本を「テスト前に真面目に勉強した子ども」に例えて、テスト後も「頑張り続けないと力が伸びない」と指摘。今後の展開は楽観視できないとの認識だ。

東京大学大学院の松尾教授(2023年7月・都内)Photographer: Kiyoshi Ota/Bloomberg

  最大の懸念は、進展の速いAI技術に対する活用熱意の後退だ。企業ではプロジェクトの成果が可視化しづらいと継続投資が難しくなる。また、日本の企業文化では成功事例を囲い込む傾向にあり、社会全体としての変化につながりにくいと述べた。政権交代や政局の混乱により、AI政策への関心が薄れる可能性もあるとみている。

  労働力不足が深刻化する日本では、AI戦略の可否が経済の維持に直結する重要課題となっている。経済産業省はこれを「2025年の崖」と位置付け、デジタル化への体制が整わなければ25年以降、年間12兆円の経済損失が生じる可能性を指摘している。

  国内では、著作権の問題や偽情報、判断プロセスの信ぴょう性などを巡り、AI技術に対して懐疑的な見方もある。松尾氏は、技術利用に当たっては試行錯誤をして成果につながるまでやり遂げられるかが問われており、日本社会が「変化を当たり前」と捉えて官民一体で推進する意識変化が行方を左右すると語った。

  岸田文雄首相は、チャットGPT公開の約3か月後の昨年4月、米オープンAIのサム・アルトマン最高経営責任者(CEO)と官邸で面会。5月には生成AIの国際ルールを検討する「広島AIプロセス」を立ち上げて主要7カ国(G7)首脳声明につなげた。オープンAIは今春、アジア初の拠点として東京都内にオフィスを構えた。

リスクへの対応

  AI戦略会議は今年4月に「AI事業者ガイドライン」を公表したのに続き、5月に技術の安全性確保に向けた法規制の検討を開始。今月19日には法規制を含めた制度を検討する研究会を立ち上げた。従来は開発促進を重視して法的拘束力のない「ガイドライン」の運用を目指してきたが、リスクへの対応を求められている。

  米国ではAIモデルの開発企業に安全性テストの結果などの報告を義務付ける大統領令が発令されており、欧州連合(EU)では制裁金などの罰則を盛り込んだAI法が成立している。

  松尾氏は、法規制により企業活動がしやすくなる面があるとしながらも、規制が国内事業者には厳しく、海外事業者へは対応ができない「ダブルスタンダード」となる可能性に言及。規制の有無よりも議論の過程を重視すべきだとの見解を示した。

  刑事罰や制裁金導入の必要性については、現行法でも対応が可能との見方を示した。同時に、漫画やアニメのクリエーターの著作権を守るために「徹底的に議論」する必要があるとの認識も示した。 

More stories like this are available on bloomberg.com

©2024 Bloomberg L.P.

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。