Renaissancejapan

哲学と宗教、財閥、国際政治、金融、科学技術、心霊現象など幅広いジャンルについて投稿しています

簡単に見えて実は難しい生成AI技術「RAG」、成功企業でも過去に失敗経験

2024-10-30 21:58:37 | AI・IT・サイバーセキュリティ・メタバース・NFT・ゲーム、

 

企業の生成AI(人工知能)活用が進むにつれ、「RAG(Retrieval Augmented Generation、検索拡張生成)」という言葉を耳にする機会が増えてきた。

RAGは、外部データベースの情報を検索して生成AIの出力に反映させ、回答の精度を高める技術だ。

 

エクサウィザーズが2024年5月に302社/402人を対象として実施した調査では、約5割がRAGに取り組み中もしくは検討中、約4割が関心ありで、関心がないのは約1割に過ぎなかった。

企業は生成AI活用の入り口としてRAGに挑戦し、チャットボットなどを導入しようとしている。もっとも、RAGの扱いは意外に難しい。

 

この特集ではRAGの基本的な知識から導入の成功法まで具体的なユースケースを基に解説していく。

 

 

「以前、社内の人事規定についての問い合わせに回答するRAGシステムを作成してPoC(概念実証)を実施したものの、回答精度が全く出なかった」。

2023年度から生成AIチャットツールの東京ガスグループ内展開を進める東京ガスの笹谷俊徳DX推進部データ活用統括グループグループマネージャーはこう振り返る。

 

同社は生成AIを搭載した社内アプリケーション「AIGNIS(アイグニス)」を独自開発し、RAGを利用したチャットツール「AIGNIS-chat」を2024年10月に導入した。

コールセンター対応や企画部門に寄せられる商材の問い合わせといったユースケースを想定する。笹谷グループマネージャーは、回答精度も含め「使える形にはできた」と自信を見せる。

 

 しかし、2023年度に生成AIチャットツールを利用し始めた当初は、RAGの回答精度は満足のいくものではなかった。

そこで同社は、検索方法の見直しやデータ処理の改善といった地道な改良を重ね、回答精度を上げていった。これにより、RAGを実用レベルまで持っていくことに成功した。

 

RAGはコンセプトが分かりやすいため、簡単に導入できると考える企業は多い。しかし、実際には実用的な精度を出すにはノウハウが必要になる。

RAGを導入しようとしたが、十分な精度を出せずにあきらめてしまう企業は意外に多い。

 

 

追加学習のコストが不要

RAGでは、大規模言語モデル(LLM)に問い合わせて回答を得る際に、ユーザーの質問に応じて外部データベースを参照し、検索結果とユーザーの質問を併せて送る。

これにより、LLMがあらかじめ学習していない知識についても正確な情報を与えることができ、「ハルシネーション(幻覚)」を抑制する効果を期待できる。

 

LLMに新しい情報を与える手法としては「ファインチューニング」もある。しかし、ファインチューニングではモデルの追加学習を行うため、そのためのコストがかかる。

一方、RAGではモデルの学習は行わないため、トレーニングコストがかからない。こうした実装のハードルの低さが、多くの企業における導入につながっている。

 

RAGでは、ユーザーが対話型AIのチャットなどに質問を入力すると質問のクエリーがいったんRAGのアプリケーションに送られる。

アプリケーションはデータベースから質問に適した情報を抽出し、その結果と質問を含むプロンプトをLLMに送信。LLMはプロンプトを基に回答を生成する。

 

 

RAGの構成

 

                      RAGの構成
                  (出所:日経クロステック)
 
 
 
 
 

ベクトルデータベースが主流

RAGのデータベースには、ベクトルの概念を用いてデータを管理する「ベクトルデータベース」を利用することが多い。文章や画像などが持つ「意味」を数値化(ベクトル化)したデータを格納する。

ベクトル化されたデータは多次元のベクトル空間に埋め込まれている。こうしたベクトル間の「距離」から類似度を判定し、意味的に近い検索結果を出す。一致する単語(トークン)を探すキーワード検索とは異なり、意味や文脈を考慮した検索ができるため、RAGに向いている。

 

ベクトルデータベースにはデータをベクトル化して格納する。このベクトル化を「エンベディング」と呼ぶ。最近はエンベディングにもLLMを利用することが多い。

検索時には質問をベクトル化し、質問と関連性が高い情報をベクトルデータベースから検索する。

 
 
 
RAGでベクトルデータベースを利用する場合
 
 
          
          RAGでベクトルデータベースを利用する場合
               (出所:日経クロステック)
 
 
 
 
 

クラウドサービスも利用できる

RAGを実装する方法は大きく2つある。1つは「LangChain(ラングチェーン)」や「LlamaIndex(ラマインデックス)」といった生成AIアプリケーションの開発支援フレームワークを利用して自分で構築する方法。

もう1つは各社のパブリッククラウドが提供するマネージドサービスを利用する方法だ。

 

例えば米Amazon Web Services(アマゾン・ウェブ・サービス、AWS)では、LLMの利用に「Amazon Bedrock」、RAGの検索に「Amazon Kendra」や「Amazon OpenSearch Service」といったサービスを利用できる。

米Google(グーグル)の「Google Cloud」や米Microsoft(マイクロソフト)の「Microsoft Azure」にも、LLMの利用やRAGの検索に使えるサービスがある。

 

RAGの実装にはクラウドのサービスも利用できる

 

             RAGの実装にはクラウドのサービスも利用できる
                 (出所:日経クロステック)
 
 
 
 

業務の作業時間を削減

RAGは、実際にはFAQ対応などの生成AIチャットボットや社内情報検索などで使われることが多い。幾つかの事例を紹介しよう。

損害保険ジャパン(損保ジャパン)はRAGを活用した「おしそんLLM(仮称)」という機能を社内AI検索システム「教えて!SOMPO」に搭載し、2024年10月に試験運用を始めた。社員や代理店担当者からの保険商品などについての問い合わせに答える。ユーザーとして営業店や本社の営業担当者など全国の約1000人の社員を対象とする。

 

損保ジャパンの営業店で勤務する営業担当者が、代理店担当者からの問い合わせを自分で解決できない場合、教えて!SOMPOで照会すると、おしそんLLMが損保ジャパンの規定集やQ&Aを参照して回答を自動生成する。

生成された回答はあらかじめシステムの画面に表示されるため、そのまま利用したり修正したりして代理店担当者に回答できる。回答のために参照した根拠も画面上で確認できる。損保ジャパンの石川隼輔DX推進部開発推進グループリーダーは「現在の対象は自動車保険、賠償責任保険など一部の保険商品にとどまるが、保険商品の追加や社内マニュアルへの転用など横展開を検討している」と話す。

 

 

「おしそんLLM」では代理店からの問い合わせに対して規定集やQ&AをRAGで参照して回答を生成する

 

「おしそんLLM」では代理店からの問い合わせに対して規定集やQ&AをRAGで参照して回答を生成する
        (出所:損保ジャパンの資料を基に日経クロステックが作成)
 
 
 
 
 

LINEヤフーは自社のQ&Aサイト「Yahoo!知恵袋」にRAGを導入した。同社は2024年9月、ユーザーがサイトに質問すると米OpenAI(オープンAI)の生成AIが質問文を解析して回答を生成する「みんなの知恵袋」の提供を開始した。

過去の約1億6000万件(2024年8月29日時点)のベストアンサーの中から最大5件の類似Q&Aを参照する。LINEヤフーの出原貴紀Yahoo!知恵袋プロダクトオーナーは「扱うデータ量が膨大であり、恋愛相談など正解がない質問もカバーしている」とこの機能の特徴を語る。

 

AGCは社内向け生成AIサービス「ChatAGC」で、2024年8月からRAGを利用した社内情報検索機能を提供している。RAGの検索の際に参照するベクトルデータベースは、ユーザーが所属する部門や役職などに基づいて権限を管理しており、ユーザーは付与された権限の範囲内で社内情報に基づく回答を得られる。

「セキュリティーやアクセシビリティーの観点からこうした設定にしている」(AGCの向井拓也情報システム部ITコンピテンスセンタークラウドソリューショングループマネージャー)という。

 

 セゾンテクノロジーは2024年5月、データ連携ソフト「HULFT(ハルフト)」に関するユーザーからの問い合わせに対応するサポートエンジニアの業務に、RAGを利用したAIチャットボットを導入した。

従来はサポートエンジニアが複数のサイトを検索して情報を取得し、回答を作成していた。セゾンテクノロジーDI本部データエンジニアリング統括部データインテグレーションビジネス推進部の石原直樹氏は「熟練したサポートエンジニアであればすぐに回答を作成できるが、新人には難しく心理的負担があった。本業とは関係ないため新人育成にも支障が出ていた」と過去の問題点を挙げた。

 
 
セゾンテクノロジーはサポートエンジニアの問い合わせ対応業務にRAGを導入
 
    セゾンテクノロジーはサポートエンジニアの問い合わせ対応業務にRAGを導入
                (出所:日経クロステック)
 
 
 

RAGを導入することで、数万ページのマニュアルやFAQ、数十万件に及ぶ過去の問い合わせ履歴から関連情報を自動的に抽出して回答案を生成できるようになった。

これによりサポートエンジニアの回答作成時間が最大で約30%短縮したという。

 

こうした事例では作業時間の削減といった業務の効率化に成功しているが、RAGに十分な効果を発揮させるのは実は難しい。そこでこの特集の第2回と第3回ではRAG導入の際に企業が陥りがちな落とし穴を説明し、それを回避するノウハウを紹介する。

 
 
 
 
日経記事2024.10.29より引用
 
ーーーーーーーーーーーーーーーーーーーーーーーーーー
 
(補足)

ChatGPTのRAGとは?
 
RAG(Retrieval-Augmented Generation)とは、ChatGPTが質問に回答する際に、ChatGPTのデータベースに加え、膨大な自社のデータベースから情報を検索し、回答させるように自社データを組み込む手法のことを指します。
 

最新の画像もっと見る

コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。