Core Concepts
大規模な実験からの情報を効率的に要約し、アクセス可能にするためのRAGベースの要約AIが開発中であり、研究者を支援している。
Abstract
目次
背景
情報取得強化生成パイプライン
知識ベースの作成
推論
開発されたRAGの評価
結論
背景
EICは次世代の大規模科学プロジェクトであり、協力者間で情報収集を調整する際に課題がある。
大規模な物理実験では、新しい協力者が圧倒されることがある。
情報取得強化生成パイプライン
RAGエージェントはGitHub Markdown形式で応答を書き直すルーティングロジックを備えている。
ユーザーはCosine類似度やMaximal Marginal Relevanceなどの類似性メトリクスを選択できる。
知識ベースの作成
データ摂取はRetrieval-Augmented Generation(RAG)パイプラインにおける重要な手順である。
データ断片化後、テキスト埋め込み方法(BERT、seq2seqなど)が使用され、高次元ベクトルに変換される。
推論
知識ベースが摂取・保存された後、RAG推論パイプラインを構築することが可能となる。
RAGエージェントはGitHub Markdown形式で応答を書き直すルーティングロジックを備えている。
開発されたRAGの評価
RAG Agentの効果を評価するためにデータセットが作成されており、標準メトリクスやLLMベースメトリクスで評価されている。
RAG Agentは信頼性と真正性を提供し、幻想を減らすことに成功している。
結論
RAGS4EICエージェントはEIC技術の重要な進歩であり、将来的にEICアプリケーションの中核的存在となりうる可能性がある。
Stats
大規模物理実験では協力者が多く文書量も多く、新しい協力者は圧倒感を感じやすい。
LLM(Large Language Model)の微調整は特定タスクやドメインで性能向上させる方法として有用。
Retrieval Augmented Generation(RAG)フレームワークはLLMを現実に根ざしたものへ導くことが可能。
Quotes
"Fine-tuning an LLM involves refining its abilities and performance in specific tasks or domains by training it further in domain-specific datasets after pretraining, improving effectiveness without retraining the entire model."
"Since its proposal, RAG methods have continuously evolved to achieve superior performance in grounding LLM to truth and reducing hallucinations."