本研究は、3つの著名な大規模言語モデル(GPT-4、ChatGPT、Llama2-70B-Chat)の倫理的推論能力を、6つの異なる言語(英語、スペイン語、ロシア語、中国語、ヒンディー語、スワヒリ語)で検証したものである。
主な知見は以下の通り:
GPT-4は最も一貫性のある倫理的推論を示し、言語間での偏りが最も小さい。一方、ChatGPTとLlama2-70B-Chatは英語以外の言語では大きな偏りを示す。
全てのモデルにおいて、ヒンディー語とスワヒリ語での倫理的推論能力が最も低い。英語とロシア語での能力が最も高い。
全てのモデルにおいて、英語とスペイン語、ヒンディー語と中国語では、倫理的バイアスのパターンが類似している。
これらの結果は、大規模言語モデルの倫理的推論能力が言語によって大きく異なることを示しており、多言語環境での倫理的アライメントの重要性を示唆している。今後の研究では、この言語依存性の原因解明と、より汎用的な倫理的推論能力の実現が課題となる。
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Utkarsh Agar... ที่ arxiv.org 04-30-2024
https://arxiv.org/pdf/2404.18460.pdfสอบถามเพิ่มเติม