本論文は、大言語モデル(LLM)の推論プロセスを可視化し、より効率的で生産的な推論スキームを開発するための一般的な枠組みを提案している。
まず、LLMの一般的なプロンプト実行パイプラインを詳細に説明し、その基本的な構成要素を明確に定義している。次に、推論プロセスを表すトポロジーの概念を導入し、チェイン、ツリー、グラフの3つの基本クラスを定義している。これらのトポロジーは、プロンプトの中に含まれる場合(single-prompt)と、複数のプロンプトにまたがる場合(multi-prompt)に分けられる。また、トポロジーの表現方法(暗黙的/明示的)や導出方法(手動/自動/半自動)についても分類している。
さらに、推論スケジュールの概念を導入し、トポロジーの探索方法(DFS、BFS、任意)やその表現方法(テキスト記述、in-context例)について分類している。最後に、プロンプティング以外のAIパイプラインの要素(事前学習、fine-tuning、リトリーバル、ツール、マルチモーダル)の活用についても分析している。
この一般的な枠組みに基づいて、著者らは既存の様々な推論スキームを分類・分析し、性能や効率性の違いを明らかにしている。この分析結果は、今後の推論スキームの開発に役立つ知見を提供している。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問