本研究は、5つの主要な言語モデル(ChatGPT3.5、ChatGPT4、Claude2.0、Llama2、PaLM2)が生成したテキストに潜む差別的な表現を分析しています。特に、教育現場での活用を想定し、学生の人種、性別、民族性に関する偏見や差別的表現に焦点を当てています。
分析の結果、以下のような問題が明らかになりました:
先住民やネイティブアメリカンの学生に関する表現では、彼らを過去の歴史の中に閉じ込めるような描写が多く、現代の学生としての姿が描かれていません。これは、先住民学生の帰属意識や学習意欲を損なう可能性があります。
ラテン系の学生、特に「マリア」という名前の学生は、多くの場合、学習に困難を抱える存在として描かれています。これは、ラテン系学生の能力を過小評価し、劣位に置くような偏見を助長する可能性があります。
アジア系の学生、特に「プリヤ」という名前の学生は、STEM分野で優秀な成績を収める「モデル・マイノリティ」として描かれることが多い一方で、その他の分野での描写は乏しく、アジア系学生の多様性を反映していません。これは、アジア系学生に対する固定観念を強化し、彼らの帰属意識を損なう可能性があります。
これらの問題は、AI生成テキストが学生の心理社会的well-beingに深刻な影響を及ぼす可能性を示しています。教育現場でのAI活用を検討する際は、このような偏見の問題に十分に注意を払う必要があります。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問