気になるキーワードや製品のコレクション(IT編)

メルマガ、新聞、雑誌などに登場する(増田悦夫の)気になるキーワード、製品を取り上げ、ITの進展をフォローします。

"ハルシネーション(Hallucination)"とは

2024-12-01 23:11:29 | AI(人工知能)

指示や質問に対する生成AI(※1)の回答内容に関する概念で、学習の不十分さ等(※2)から生成AIが虚偽あるいは誤解を招くような情報を回答してしまう現象を指しています。このことが「もっともらしいウソ」をつくという意味合いから、このように呼ばれるようになったようです。ちなみに、英語の"Hallucination"は、「幻覚」、「幻影」といった意味です。

上記のような意味合いでハルシネーションが使われるようになったのは2010年代後半からで、特に2022年の"ChatGPT"や2023年の"Microsoft Copilot"のようなLLM(※3)の公開によって注目度が増しているようです。

ハルシネーションは、それを減らす方向に改善したり、少なくなるような指示や質問を行うよう心掛けることはできても、完全になくすことは難しいようです。即ち、生成AIの出力の正確さや信頼性を100%担保することはできないようです。

生成AIの回答を真実の情報と思って利用したり拡散したりすると、ハルシネーションの存在により影響を受けたり与えたりする可能性があります。生成AIの利用に当たっては、ハルシネーションが存在し得ることを認識しておく必要があります。

生成AIにおけるハルシネーションという問題は、知られているもう一つ「偏向(バイアス)」がかかる問題(即ち、生成された回答が人種や性別などの社会的な偏りが反映されたデータの学習から得られた不公平なものとなり得る問題)とともに、生成AIの利用における負の(というより注意が必要な)側面であり、健全な社会の維持に向けた今後の更なる対応が求められている状況です。

※1 例えば、関連ブログ("生成AI"とは、2024.2.4、https://blog.goo.ne.jp/blspruce/e/9e2c00c1de0aefa38294f3486089d103)を参照願います。

※2 具体的には、学習データ自身の不足や間違い、学習データに関するAIの理解不足や誤認、AI自身の作りに関する問題(学習データ取り扱い方法)などです。ハルシネーションが起こり得る原因となるものです。

※3 大規模言語モデル(Large Language Models)。膨大なテキストデータから学習し文章の理解や生成を可能にします。自然言語処理(NLP)技術とディープラーニングと呼ばれる機械学習技術とを利用することで構築されます。


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする