大規模言語モデル (LLM) は、倫理的に複雑なシナリオにおいて、他の LLM からの説得の影響を受けやすく、その影響の度合いはモデルやシナリオによって異なる。
大規模言語モデルは、抽象的な道徳的価値観と具体的な道徳的違反の評価において矛盾する、偽善的な行動を示す。