Główne pojęcia
大規模言語モデルを質的研究の参加者として使用することには、参加者の同意と主体性の欠如、コンテキストの欠如、特定コミュニティの視点の排除など、根本的な限界がある。
Streszczenie
本研究は、19人の質的研究者にインタビューを行い、大規模言語モデルを研究参加者としてシミュレーションする際の課題と限界を明らかにしている。
研究者は当初、大規模言語モデルの応答に人間の参加者と似たような語りが見られることに驚いた。しかし、会話を重ねるうちに、以下のような根本的な限界を指摘するようになった:
- 大規模言語モデルの応答には具体性が欠けている
- モデルの認識論的立場が曖昧である
- 研究者の立場性が強調される
- 参加者の同意と主体性が失われる
- 特定コミュニティの視点が排除される
- 質的研究の正統性が損なわれる
研究者は、大規模言語モデルを代替参加者として使用することは、サロゲート効果を生み出し、倫理的および認識論的な懸念を引き起こすと指摘した。大規模言語モデルは、生活経験、歴史、感情、社会文化的文脈に根ざした知識を生み出す能力が欠如しているため、質的研究の方法論に適合しないと論じている。
Statystyki
大規模言語モデルの応答は具体性に欠け、参加者の経験の文脈的深さを捉えられない
大規模言語モデルの認識論的立場が曖昧で、一貫性のある視点を示せない
大規模言語モデルの応答は、特定コミュニティの視点を適切に反映できず、その経験を排除してしまう
Cytaty
"LLMsは詳細を与えてくれるが、深さがない。詳細と深さは直交するものだ。"
"インタビューは親密な行為であり、機械がそのような私的な空間を再現することはできない。"
"あなたが話す相手を自分で決められるのは危険だ。本当の人間を相手にしていないと、何も学べない。"