Core Concepts
大規模言語モデルの HCI 研究への採用は、再現性に関する新たな課題と機会をもたらす。適切な対策を講じることで、信頼性の高い研究成果を生み出すことができる。
Abstract
本論文では、大規模言語モデル(LLM)の HCI 研究への採用が及ぼす再現性への影響について検討している。
まず、LLMの特性として以下の点を指摘している:
値のロックイン: LLMは訓練時の価値観を固定化してしまう
訓練データのバイアス: LLMは特定の背景を持つユーザーのデータに基づいて学習されるため、バイアスが含まれる
ホールシネーション: LLMは虚偽の情報を生成してしまう可能性がある
これらの特性は、HCI研究の再現性に様々な課題をもたらす。具体的には以下のような問題が指摘されている:
過去の再現性課題の教訓を活かすこと
p-ハッキングに相当する「prompt-ハッキング」への対策が必要
ユーザー体験研究におけるバイアスの問題
LLMの訓練データの偏りを認識し、複数のLLMを組み合わせる必要がある
データ分析支援としてのLLMの活用
LLMを補助ツールとして活用するが、過度の依存は避ける必要がある
報告要件の定義と研究コミュニティの教育
LLMの使用に関する詳細な報告要件を定める
LLMの課題についての教育リソースを提供する
再現性への圧力の高まりへの対応
LLMの採用に伴う圧力に対処し、ベストプラクティスの確立と共有を促進する
これらの課題に適切に対応することで、LLMの HCI研究への活用は再現性の向上につながると期待できる。
Stats
LLMは1週間で100万人のユーザーを獲得し、現在180万人以上のユーザーを持つ。
Quotes
"By using LLMs, we might make UCD cheaper and hence more widely applicable; at the same time, though, we put pressure on the field to move this way to stay competitive. Hence, the transparency about how UCD is conducted and to what extent models are used is critical."