Core Concepts
LLMの出力の調和性を測定することで、その信頼性を定量的に評価できる。
Abstract
本論文では、LLMの出力の「調和性」を測定する手法を提案している。LLMの出力は数学的に「調和関数」に近いほど信頼性が高いという仮説に基づき、出力の「調和からのずれ」を表す指標γを定義している。
具体的には、入力文に無意味な文字列を付加して擬似的な入力球を生成し、その球内での出力の変動をγで定量化する。この指標γが小さいほど、LLMの出力が安定しており信頼できることを示している。
実際に、人手による評価実験を通じて、GPT-4、ChatGPT、Smaug-72Bなどの大規模LLMでは、γが小さい場合に高い信頼性が確認された。一方、Llama2-7BやMPT-7Bなどの小規模LLMでは、γが大きく信頼性が低いことが示された。
この手法は、LLMの信頼性を自動的かつ定量的に評価できる点で有用であり、LLMの品質管理や改善に活用できると考えられる。また、γの勾配に沿って入力を変化させることで、LLMの脆弱性を効率的に発見できることも示された。
Stats
LLMの出力の調和性を表す指標γは、出力ベクトルと平均擬似出力ベクトルのなす角の正弦値で定義される。
γが小さいほど、LLMの出力が安定しており信頼できることを示している。
人手による評価実験の結果、GPT-4、ChatGPT、Smaug-72Bなどの大規模LLMでは、γが小さい場合に高い信頼性が確認された。
Quotes
"LLMの出力の調和性を表す指標γは、出力ベクトルと平均擬似出力ベクトルのなす角の正弦値で定義される。"
"γが小さいほど、LLMの出力が安定しており信頼できることを示している。"
"人手による評価実験の結果、GPT-4、ChatGPT、Smaug-72Bなどの大規模LLMでは、γが小さい場合に高い信頼性が確認された。"