本研究は、大言語モデルの自己反省能力を包括的に調査しました。その結果、外部からのフィードバックがない場合、大言語モデルは自身の誤りを修正することが困難であることが明らかになりました。この問題の根本原因は、大言語モデルが自己評価プロセスで過度の自信や矛盾したフィードバックを生み出すことにあります。
そこで本研究は、「Self-Contrast」と呼ばれる新しい手法を提案しました。この手法では、まず大言語モデル自身が複数の解決の視点を生成し、それぞれの解答を得ます。次に、これらの解答の違いを対比し、その差異を分析してチェックリストを作成します。最後に、このチェックリストを使って解答を修正し、一貫性のある最終的な解答を得ます。
実験の結果、「Self-Contrast」は数学推論や翻訳タスクにおいて、従来の自己反省手法に比べて大幅な性能向上を示しました。特に、誤った初期解答を正しく修正する割合が大幅に増加しました。また、「Self-Contrast」は様々な大言語モデルやタスクにおいて高い汎用性を示しました。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Wenqi Zhang,... às arxiv.org 03-28-2024
https://arxiv.org/pdf/2401.02009.pdfPerguntas Mais Profundas