Tiivistelmä
大規模言語モデル(LLM)を使ったテキスト生成システムは、自然な会話インターフェースを通じて広範な知識にアクセスできるため、経営者やプログラマーに熱心に受け入れられている。科学者たちも、LLMの使用と評価に引かれており、医薬品開発、材料設計、数学定理の証明などに応用している。しかし、LLMが質問(またはプロンプト)に対して、見かけ上は適切な答えのように見えるが、事実上正しくないまたは関連性のないテキストを生成する「幻覚」の問題が懸念されている。幻覚がどの程度の頻度で生成され、どのような文脈で生じるかは未だ明らかではないが、検出されないと誤りや害につながる可能性がある。Farquhar et al.は、この問題に取り組み、「confabulations」と呼ばれる特定のタイプの幻覚を検出する方法を開発した。
Tilastot
LLMが生成する幻覚は、しばしば事実と異なる情報を含んでいる。
幻覚は定期的に発生し、検出されないと誤りや害につながる可能性がある。
Lainaukset
「LLMが質問(またはプロンプト)に対して、見かけ上は適切な答えのように見えるが、事実上正しくないまたは関連性のないテキストを生成する」
「幻覚がどの程度の頻度で生成され、どのような文脈で生じるかは未だ明らかではないが、検出されないと誤りや害につながる可能性がある」