本研究では、大規模言語モデルの一貫性と推論能力を評価することを目的としている。Boolqデータセットを使用し、公開モデルと独自モデルの性能を比較した。
実験では、同じクエリを3回提示し、一貫した回答が得られるかを確認した。一貫性は、一貫性率と不一致率で評価した。また、生成された説明と正解の説明を比較することで、推論能力を評価した。指標としてBERT、BLEU、F1スコアを使用した。
結果、独自モデルは公開モデルよりも一貫性が高いことが示された。しかし、基本的な一般知識の質問でさえ、一貫性と推論能力の両方で90%以上のスコアを得られるモデルはなかった。この結果は、一貫性と推論能力が大規模言語モデルの課題であることを示している。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Yash Saxena,... a las arxiv.org 04-26-2024
https://arxiv.org/pdf/2404.16478.pdfConsultas más profundas