大規模言語モデルは言語間の訓練データの偏りにより、言語的差別を示す可能性がある。本研究では、安全性と品質の2つの側面から言語的差別を系統的に評価し、LDFighterという軽量な手法を提案して、この問題に取り組む。