本研究では、大規模言語モデル(LLM)の推論能力を向上させるため、「TypedThinker」と呼ばれる新しい枠組みを提案している。TypedThinkerは、帰納的推論、類推的推論、仮説的推論、演繹的推論といった多様な推論タイプを活用することで、LLMの思考の多様性を高めることを目的としている。
分析の結果、これらの推論タイプはそれぞれ固有の問題を解決できることが明らかになった。つまり、適切な推論タイプを選択できないと、LLMは限られた解決策の中に閉じ込められてしまう。
TypedThinkerは2つの主要な課題に取り組む。1つは、与えられた問題に適した推論タイプを選択する方法、もう1つは、特定の推論タイプを効果的に実装する方法である。自己学習を通じて、TypedThinkerは推論タイプの選択と適用に関する暗黙的な方針を学習する。
実験の結果、TypedThinkerはベースラインモデルと比較して大幅な性能向上を示した。Mistral 7BではLogicQAとBBHの平均精度が3.4%、LLaMA3 8Bでは16.7%の向上が確認された。さらに、新しいベンチマークにも効果的に適用できることが示された。また、強力なモデルであるGPT-4oの推論能力も、TypedThinkerによって強化できることが明らかになった。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Danqing Wang... at arxiv.org 10-04-2024
https://arxiv.org/pdf/2410.01952.pdfDeeper Inquiries