核心概念
大規模言語モデルが人間の社会規範を理解できるかどうかを検証する新しいチャレンジを紹介する。
要約
本論文では、大規模言語モデルの社会規範理解能力を評価するための新しいベンチマークデータセット「Social」を提案する。Socialは、言語芸術と社会科学の402の社会規範スキルと12,383の問題で構成されており、人間の社会規範理解の基本を網羅している。
実験の結果、最新の大規模言語モデルであるGPT3.5-TurboやLLaMA2-Chatは、以前のモデルに比べて社会規範理解能力が大幅に向上していることが示された。特に、人間のフィードバックを活用したリインフォースメント学習が重要な役割を果たしている。
さらに、提案する「SocialAgent」という多エージェントフレームワークを用いることで、大規模言語モデルの社会規範理解能力をさらに向上させることができる。SocialAgentは、検索、プログラミング、推論の3つのエージェントを組み合わせることで、社会規範に関する知識を効果的に統合している。
この結果、SocialAgentを用いたGPT3.5-Turboは、平均的な小学生と同等の社会規範理解能力を示すことができた。このように、大規模言語モデルの社会規範理解能力の向上は重要な課題であり、本研究は今後の発展につながる貴重な知見を提供している。
統計
社会規範を理解するためには、基本的な社会規範スキルを理解する必要がある。
大規模言語モデルの社会規範理解能力は、人間の小学生レベルと比較して未だ劣っている。
大規模言語モデルの性能向上には、人間からのフィードバックを活用したリインフォースメント学習が有効である。
引用
「大規模言語モデルが人間の価値観や規範に沿った行動をとれるかどうかは重要な課題となっている。」
「提案するSocialAgentは、大規模言語モデルの社会規範理解能力を人間レベルまで引き上げることができた。」