政府が生成AIを研究する組織を設立 民間企業にも提供

生成AIの開発に伴うリスクについての研究拠点を来年4月にも新設する方針を政府が固めました。

組織の研究者は公募

計画案によると、文部科学省が所管する国立情報学研究所(National Institute of Informatics 以下:NII)内に専門の組織を設けます。
この組織はNII所長をトップとする約20人で構成され、公募にて生成AIの基盤技術となる大規模言語モデル(LLM)の第一線の研究者らを集めます。

NII公募概要:国立情報学研究所 大規模言語モデル研究開発センター(仮称)特任研究員(特定有期雇用職員)募集

大規模言語モデル(LLM)とは
Large Language Models。
膨大な量のデータとディープラーニングによって構成された言語モデルです。
人間の自然な会話に近いやり取りや、様々な処理を高精度で行うことができます。

生成AIが抱える問題点

生成AIについては、

  • 機密情報の漏洩
  • 著作権等の権利侵害
  • 製造物責任
  • フェイクニュースの生成
  • サイバー犯罪
  • 雇用の減少や知的能力の衰退

といった問題が発生しており、一般社団法人日本ディープラーニング協会がガイドラインを作成しています。
関連資料:生成AIの利用ガイドライン

ディープラーニングとは
コンピューターに学習させる機械学習技術の一つです。
人間の手を使わず、コンピューターが自動的に大量のデータの中から希望する特徴を発見する技術を指します。
AIの急速な発展を支える技術です。

民間企業にも研究成果を提供

2022年11月に公開されたchatGPTを開発したOpenAI社や提携関係にあるマイクロソフトは、開発競争で優位に立つため、自社の生成AI技術を原則非公開としています。
こうした手法に対して「ブラックボックスになっている」との懸念が強まっています。
新設する組織では、生成AIがどのようにして文章や画像などを生成しているのか解明し、学習方法の違いによって生じるリスクやその対応策について研究します。

例えば、AIに学習させる場合、著作権侵害のおそれがある内容のリストを作り、それを学習対象から外すよう明示するとどれだけ著作権侵害が起きにくくなるかを検証します。
また生成AIが事実に基づかない情報を出力する「ハルシネーション(幻覚)」現象が、どういった学習過程を経た場合に起きやすくなるのかも分析します。

これらの研究結果を生成AIの開発に取り組む民間企業に提供することで、生成AIの抱える問題の防止につなげていきます。

国内のIT企業や研究機関が日本語に特化した生成AIの開発に取り組んでいますが、リスクを十分に認識しないまま開発されれば、粗悪な生成AIの乱造につながる可能性もあります。
このため、政府は開発に伴うリスクの透明化や対応策の普及を図り、安全な開発を促進する環境を整備したい考えです。

記事ソース:ブラックボックスの生成AIリスク、政府が研究拠点…文章や画像を作り出す仕組み解明

まとめ

生成AIは非常に便利なツールであり、筆者もその技術を日常から利用しています。
しかしながら著作権といった問題がつきまとう以上、利用目的によっては気軽に使えないという状況です。
学習させる元データがある以上、どこまで権利問題がクリアになるかはわかりませんが、研究が進むにつれて今よりも自由度の高い利用環境ができることを期待しています。

タイトルとURLをコピーしました