※ 本記事は、Fusion Developmentによる“Learn why RAG is GenAI’s hottest topic”を翻訳/意訳したものです。
生成AIよりも注目されているものは何でしょうか?
答えは簡単です。生成AI と検索拡張生成(Retrieval-Augmented Generation、以下RAG)を組み合わせたものです。それは、なぜでしょうか? RAGは大規模言語モデル (LLM) の主な限界に対処できるからです。RAGベースのアプローチにより、生成AIは、ニッチで非常に具体的な情報であっても、文脈に即した正確な応答を提供できます。それは、どうやっているのでしょうか?エンタープライズ・アプリケーションからデータを動的に取得して、詳細で関連性の高いコンテンツを生成しています。適切な実装とセキュリティ機能により、RAGは生成AIを次世代のエンタープライズ・アプリケーションの決定的な機能にすることを約束します。この記事では、RAGの基本と、Fusion ApplicationsでRAGを展開する方法について説明します。
LLMの限界を理解する
生成AIは、膨大な量のデータでトレーニングされたLLMを使用して、指示または「プロンプト」に基づいて新しいコンテンツを理解、要約、作成します。LLMの欠点の 1 つは、応答がトレーニングされた情報に限定されることです。そのため、新しいデータや機密性の高いプライベートなデータを必要とするタスクでは、LLMはうまく機能しません。LLMは次のようなタスクに苦戦します。
- 連続する四半期の収入源と金額の比較などの機密情報に依存するタスク
- 個人に固有の情報(例えば、その人の現在の休暇日数がどのように蓄積されたかを説明するなど)を扱うタスク
- 財務諸表や信用格付けに基づいてサプライヤーの支払い能力を評価するなど、常に変動するデータを使用するタスク
LLMを定期的に再トレーニングして最新の状態に保つことは、法外な費用がかかり、リソースを大量に消費し、非現実的であり、それでも機密性の問題は解決されません。
RAGの登場
簡単に言うと、RAGは、LLMに最新の関連情報を提供することで、LLMがより良い回答を行えるように支援します。ユーザーリクエストのコンテキストに基づいて、RAGは企業、その従業員、そのサプライヤーに関する情報、または接続されたエンタープライズ・データストア内のあらゆる情報を取得し、LLMが安全に使用できるようにします。また、トークン化と暗号化によってセキュリティリスクを軽減することもできます (詳細は下記を参照)。
Fusion Applicationsでの RAG の動作
Fusion ApplicationsのRAG は、セマンティック検索を使用して、生成AIを利用した機能に関連するデータを取得します。セマンティック検索は、場所、検索履歴、単語のバリエーション、フレーズなどのコンテキストを考慮して、ユーザーのプロンプトの背後にある意図を理解します。次に、機械学習技術を使用して、Fusion Applications に保存されている、プロンプトに最も適した情報を検索します。
具体的なステップは次のとおりです。
- プロンプト入力: ユーザーが質問またはプロンプトを入力します。
- ドキュメントの取得: システムはクエリを処理して、事前定義されたデータストアから最も関連性の高いデータを取得します。
- トークン化: LLMリクエストで使用するために選択された企業固有のデータは機密情報とみなされ、LLM に渡される前に匿名性を確保するためにトークン化されます。定義上、トークン化されたデータには固有の意味や価値はありません。
- コンテンツ統合: 取得されトークン化されたデータは、元のクエリとともにLLMに送られます。このステップは、生成モデルに利用可能な情報を増やし、より正確でコンテキストに適した応答を生成できるようにするため、非常に重要です。
- コンテンツ生成: 取得したデータとユーザーの元のクエリの両方を使用して、LLMは応答を生成します。モデルは、取得されたトークン化されたデータ内の情報と事前トレーニングされたナレッジを補間し、関連性の高い詳細な応答を生成できます。
- トークン化解除: ステップ 3 のデータが再構成され、Fusion Applicationsでその意味が復元されます。
- 出力: 最終的に生成されたコンテンツは、ユーザーのプロンプトに対する応答として表示されます。
その他の利点
RAG には、最新の機密データを使用して会社やユーザー固有の応答を提供するという明らかな利点がありますが、それ以外にも利点があります。一般的に、LLMはトレーニングに使用したデータが膨大であるため、応答で提供される情報のソースを引用できません。しかし、RAGで生成された応答は、特定の既知のデータ ストアから取得されるため、引用することができます。これにより、ソースで誤ったデータを識別して修正することもできます。また、時間とコストがかかるLLMの再トレーニングとは異なり、RAGが使用するデータストア内の情報を定期的に更新することは比較的安価です。
Fusion Applicationsのセキュリティ
Oracle の RAG実装は、機密性に関する懸念に対処します。Oracleソリューション上にすでに存在するエンタープライズデータに接続し、データベース間でデータを移動せずに実行できるため、より高速でコスト効率が高く、セキュリティリスクが軽減されます。
Fusion ApplicationsでのRAGの使用例
ここでは、Fusion ApplicationsのRAGが、従業員や組織の仕事をより効率的かつ効果的にするための具体的な使用例を2つご紹介します。
- HCM Benefits Advisorは、RAGを使用して、従業員の自然言語による質問 (「息子が歯列矯正を受ける場合、歯科保険でカバーされる費用はいくらですか?」など) に応じて、パーソナライズされた正確で具体的な推奨事項を提供します。これは、福利厚生文書からデータを取得して処理することで実現します。
- Oracle Cloud Procurementは、RAGを使用して、見込みサプライヤ登録に付随するドキュメント内の情報を自動的に抽出し、要約します。これは、サプライヤの評価、リスク管理、オンボーディングに役立ちます。コンプライアンスとサプライヤの多様化に重点を置く組織にとって特に有益です。
結論
LLMと生成AIのパワーと機能は広く知られ、理解されています。RAGは、応答をよりタイムリーに、より正確に、より状況に即したものにすることで、LLMの利点を活用します。業務アプリケーションにとって、RAGは、セキュリティを損なうことなくLLM の有用性を拡張できる重要な技術的進歩です。
次のステップ
Fusion Apps サブスクリプションについて担当者と話し合いたい場合は、こちらからお問い合わせください。
Oracle のお客様で、 The Fusion Insiderの新着記事を電子メールで受け取りたい場合は、 Oracle Cloud Customer Connectにサインアップしてください。
Oracle パートナーであり、詳細を知りたい場合は、Oracle パートナー コミュニティにアクセスしてください。
