Core Concepts
大規模言語モデルを使用したプロンプト最適化手法により、臨床試験報告書セクションと声明の推論関係を効率的に特定できる。
Abstract
本研究では、SemEval 2024 Task 2のチャレンジに対するベースラインを提示している。このタスクの目的は、臨床試験報告書のセクションと声明の間の推論関係(含意vs矛盾)を特定することである。
具体的な手法は以下の通り:
OPRO(Optimized Prompt)アプローチ: 教師あり例を反復して学習し、最も効果的な命令を見つける
自己生成Chain-of-Thought(CoT): タスクに依存しないメタプロンプトを使用してCoT推論を生成
動的one-shotCoT: 訓練データから意味的に近い例を選択し、one-shotプロンプティングを行う
実験の結果、Zero-shot CoTプロンプトが手作業のプロンプトよりも大幅に性能を向上させることが分かった。これは、大規模言語モデルのプロンプト最適化の重要性を示している。特に医療分野では、信頼性と正確性が重要であり、本手法は有効な解決策となる可能性がある。
Stats
臨床試験報告書の平均長は265単語
声明の平均長は19.5単語