本研究では、自動評価メトリックAlpacaEvalの長さバイアスを簡単に除去する回帰分析ベースのアプローチを提案している。
AlpacaEvalは、言語モデルの出力の品質を自動的に評価するメトリックであるが、出力の長さに大きく依存するという問題がある。本研究では、出力の長さの違いを調整することで、AlpacaEvalの信頼性と堅牢性を高めることができることを示している。
具体的には、出力の長さ、モデルの識別、課題の難易度の3つの要素を含む一般化線形モデルを使って、AlpacaEvalの予測値を推定する。そして、出力の長さの違いを0に設定した場合の予測値を、長さを制御したAlpacaEvalの勝率として算出する。
この長さを制御したAlpacaEvalは、長さに対する感度が大幅に低下し、Chatbot Arenaとの相関も0.98と非常に高くなった。また、長さを操作した攻撃に対しても頑健であり、解釈可能性も維持されている。
本手法は、自動評価メトリックの偏りを簡単に除去できる一般的なアプローチであり、他の自動評価メトリックにも適用できると考えられる。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Yann... lúc arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04475.pdfYêu cầu sâu hơn