Upgrade to Pro — share decks privately, control downloads, hide ads and more …

(論文読み)データ強化LLMアプリケーションの包括的調査

Avatar for ymgc ymgc
October 03, 2024

 (論文読み)データ強化LLMアプリケーションの包括的調査

元論文
[Retrieval Augmented Generation (RAG) and Beyond: A Comprehensive Survey on How to Make your LLMs use External Data More Wisely](https://arxiv.org/html/2409.14924v1)

Avatar for ymgc

ymgc

October 03, 2024
Tweet

More Decks by ymgc

Other Decks in Science

Transcript

  1. 目次 1. はじめに 2. 問題定義 3. 明示的事実クエリ(L1) 4. 暗黙的事実クエリ(L2) 5.

    解釈可能な根拠クエリ(L3) 6. 隠れた根拠クエリ(L4) 7. 結論 2
  2. データ強化LLMアプリケーションの定式化 f: 𝒬 → 𝒟𝒜 ▶ 𝒬: ユーザーの入力(クエリ) - 𝒜:

    期待される応答(回答) - 𝒟: 与えられたデータ - f: 𝒟に基づいて𝒬から𝒜へのマッピングを行うアプリケーション - 9
  3. 11

  4. クエリの層別化: 詳細 レベル1: 明示的事実 ▶ 回答が与えられたデータに直接存在 - 最小限の推論が必要 - 例:

    「2024年夏季オリンピックはどこで開催されますか?」 - レベル2: 暗黙的事実 ▶ 常識的推論を通じて複数の事実を組み合わせる必要がある - 単純な論理的推論を含む場合がある - 例: 「キャンベラがある国の現在の多数党は何ですか?」 - 12
  5. クエリの層別化: 詳細(続き) レベル3: 解釈可能な根拠 ▶ 専門分野特有の根拠の理解と適用が求められる - 根拠は外部リソースに明示的に提供されることが多い - 例:

    FDAガイダンス文書に基づく医薬品申請の評価 - レベル4: 隠れた根拠 ▶ 明示的に記述されていない専門分野特有の推論方法を推論する - 歴史的データや複雑な知識ベースから暗黙知を統合する必要がある - 例: 財務報告と経済動向に基づく企業発展の予測 - 13
  6. 14

  7. 3.2 課題と解決策 データ処理の困難: ▶ 非構造化およびマルチモーダル要素の処理 - セグメンテーションまたは「チャンキング」中のコンテキスト維持 - データ取得の困難: ▶

    大規模な非構造化データセットからの効率的かつ正確な取得 - 評価の困難: ▶ 取得と応答の品質を評価するための堅牢な指標の開発 - RAG(Retrieval-Augmented Generation)が主要な解決策 ▶ 17
  8. 3.3 検索拡張生成(RAG) データ処理の強化: ▶ マルチモーダル文書解析 - チャンキングの最適化 - データ取得の強化: ▶

    インデックス作成方法: スパース、デンス、ハイブリッド検索 - クエリ-文書アライメント技術 - 再ランキングと修正戦略 - 再帰的または反復的な検索アプローチ - 応答生成の強化: ▶ 取得された知識と内部知識の矛盾の処理 - パフォーマンス向上のための教師あり微調整 - 18
  9. 4.3 反復的RAG 計画ベースのアプローチ: ▶ 段階的な検索計画を生成(例: ReAct, IRCoT, RAT) - 思考の連鎖(Chain

    of Thought)を使用してRAGパイプラインを導く - 情報ギャップ埋め込みベースの方法: ▶ ITRG: 反復的な検索-生成コラボレーション - FLARE: 低確率トークンの再訪と修正 - Self-RAG: 検索継続を決定するためのモデル微調整 - 22
  10. 4.4 グラフ/ツリー質問応答 従来の知識グラフ: ▶ LLMの事前学習と推論段階でKGを統合 - 様々なKGタスクにLLMを使用 - データチャンクグラフ/ツリー: ▶

    テキストチャンクをノードとして使用し、エッジは関係を表現 - アプローチ: Knowledge-Graph-Prompting, MoGG, RAPTOR, GraphRAG - 23
  11. 5.2 課題と解決策 プロンプト最適化コスト: ▶ プロンプトの調整に高い時間と計算要求 - 労働集約的な手動設計プロセス - 限定的な解釈可能性: ▶

    プロンプトがLLM応答に与える影響の判断困難 - LLMの意思決定プロセスにおける透明性の欠如 - 27
  12. 5.4 CoTプロンプティング 拡張推論を必要とする複雑な根拠に効果的 ▶ アプローチ: ▶ よく研究された問題に対する手動CoTプロンプト設計 - 自動CoT生成(例: Automate-CoT)

    - LLMを中心としたエージェントワークフロー構築 - 様々な分野での応用: ▶ ソフトウェア開発(例: MetaGPT) - カスタマーサービス - 医療質問応答 - 29
  13. 6.2 課題と解決策 論理的検索: ▶ クエリの真の対象を捉えることの難しさ - 論理的類似性を持つテキストセグメントの特定 - データ不足: ▶

    関連情報が分散した知識や例に埋め込まれていることが多い - データの解釈と統合における堅牢な能力が必要 - 32
  14. 6.3 オフライン学習 データセットから規則やガイドラインを特定・抽出 ▶ アプローチ: ▶ LLMベースの根拠生成(例: STaR, LXS) -

    誤りベースの原則形成(例: GL, LEAP, RICP) - 複数の技術を組み合わせた統合手法(例: MedPrompt, Agent Hospital) - 33
  15. 6.5 ファインチューニング LLMが新しい専門分野の根拠を迅速に把握できるようにする ▶ アプローチ: ▶ 指示微調整: ペアデータ(指示、出力)を使用 - アダプタ微調整:

    小規模アダプタモデルをLLMと統合 - プレフィックス/プロンプト微調整: 入力前に訓練可能なベクトルを追加 - 低ランク適応: 低ランク制約を通じて訓練可能なパラメータを削減 - 35
  16. データ強化LLMアプリケーションの分類 4つのレベルに分類され、それぞれ固有の課題と解決策がある ▶ LLMに知識を注入する3つのメカニズム: ▶ i. コンテキストベースの抽出: 簡潔に説明されたデータに適している - ii.

    小規模モデルトレーニング: トレーニング時間の短縮を提供するが、性能に上限の可能性 - iii. 直接微調整: 大規模モデルの能力を活用するが、知識喪失のリスク - 38
  17. LLM: Large Language Model(大規模言語モデル) ▶ RAG: Retrieval-Augmented Generation(検索拡張生成) ▶ CoT:

    Chain of Thought(思考の連鎖) ▶ ICL: In-Context Learning(文脈内学習) ▶ KG: Knowledge Graph(知識グラフ) ▶ NL2SQL: Natural Language to SQL(自然言語からSQLへの変換) ▶ TEMPERA: TEMPlate-based Exploration for Reinforcement learning of Augmented prompts 強化学習を用いてプロンプト を最適化する手法。 ▶ FLARE: Feedback Loops for Augmenting Retrieval Efficiency 生成された回答の低確率部分を反復的に改善する検索拡張手 法。 ▶ 46
  18. MoGG: Multi-order Graph-Granularity Reasoning 多階層のグラフ構造を用いて推論を行う技術。 ▶ OPRO: Optimizing Prompts through

    Reinforcement and Observation 強化学習と観察を通じてプロンプトを最適化する手 法。 ▶ STaR: Self-Taught Reasoner LLMが自身で生成した推論過程から学習を行う手法。 ▶ LXS: Learning to Explain from Scratch LLMに説明生成能力を獲得させる手法。 ▶ GL: Guideline Learning エラーから学習し、将来のタスクのためのガイドラインを形成する手法。 ▶ LEAP: Learning from Errors and Principles 誤りと原則から学習し、高レベルの推論能力を獲得する手法。 ▶ RICP: Retrieved In-Context Principles 過去の誤りから学習し、文脈内で適用可能な原則を抽出する技術。 ▶ MedPrompt: Medical Prompting 医療分野特化型の自己検証を含むプロンプト生成手法。 ▶ Agent Hospital: 医療分野での複数エージェント協調システム。反省と経験検索を活用。 ▶ 47
OSZAR »