全3615文字

 企業の生成AI(人工知能)活用が進むにつれ、「RAG(Retrieval Augmented Generation、検索拡張生成)」という言葉を耳にする機会が増えてきた。RAGは、外部データベースの情報を検索して生成AIの出力に反映させ、回答の精度を高める技術だ。エクサウィザーズが2024年5月に302社/402人を対象として実施した調査では、約5割がRAGに取り組み中もしくは検討中、約4割が関心ありで、関心がないのは約1割に過ぎなかった。企業は生成AI活用の入り口としてRAGに挑戦し、チャットボットなどを導入しようとしている。もっとも、RAGの扱いは意外に難しい。この特集ではRAGの基本的な知識から導入の成功法まで具体的なユースケースを基に解説していく。

 「以前、社内の人事規定についての問い合わせに回答するRAGシステムを作成してPoC(概念実証)を実施したものの、回答精度が全く出なかった」。2023年度から生成AIチャットツールの東京ガスグループ内展開を進める東京ガスの笹谷俊徳DX推進部データ活用統括グループグループマネージャーはこう振り返る。

 同社は生成AIを搭載した社内アプリケーション「AIGNIS(アイグニス)」を独自開発し、RAGを利用したチャットツール「AIGNIS-chat」を2024年10月に導入した。コールセンター対応や企画部門に寄せられる商材の問い合わせといったユースケースを想定する。笹谷グループマネージャーは、回答精度も含め「使える形にはできた」と自信を見せる。

 しかし、2023年度に生成AIチャットツールを利用し始めた当初は、RAGの回答精度は満足のいくものではなかった。そこで同社は、検索方法の見直しやデータ処理の改善といった地道な改良を重ね、回答精度を上げていった。これにより、RAGを実用レベルまで持っていくことに成功した。

 RAGはコンセプトが分かりやすいため、簡単に導入できると考える企業は多い。しかし、実際には実用的な精度を出すにはノウハウが必要になる。RAGを導入しようとしたが、十分な精度を出せずにあきらめてしまう企業は意外に多い。

追加学習のコストが不要

 RAGでは、大規模言語モデル(LLM)に問い合わせて回答を得る際に、ユーザーの質問に応じて外部データベースを参照し、検索結果とユーザーの質問を併せて送る。これにより、LLMがあらかじめ学習していない知識についても正確な情報を与えることができ、「ハルシネーション(幻覚)」を抑制する効果を期待できる。

 LLMに新しい情報を与える手法としては「ファインチューニング」もある。しかし、ファインチューニングではモデルの追加学習を行うため、そのためのコストがかかる。一方、RAGではモデルの学習は行わないため、トレーニングコストがかからない。こうした実装のハードルの低さが、多くの企業における導入につながっている。

 RAGでは、ユーザーが対話型AIのチャットなどに質問を入力すると質問のクエリーがいったんRAGのアプリケーションに送られる。アプリケーションはデータベースから質問に適した情報を抽出し、その結果と質問を含むプロンプトをLLMに送信。LLMはプロンプトを基に回答を生成する。

RAGの構成
RAGの構成
(出所:日経クロステック)
[画像のクリックで拡大表示]