Core Concepts
デジタル人文学研究者は、ジェネレーティブAIツールの利用と評価について分断された見方を持っているが、個人や研究タスクによって実際の利用は多様化している。
Abstract
本研究は、デジタル人文学研究者がジェネレーティブAIツール(特にChatGPT)をどのように採用し、実践し、批評的に評価しているかを調査したものである。76件の国際的なアンケート調査の結果から、以下の知見が得られた:
デジタル人文学研究者の多くがジェネレーティブAIツールを個人生活で利用しており、研究でも同様の傾向がある。
ジェネレーティブAIツールを研究に使わない理由として、ツールの信頼性や性能への懸念、倫理的懸念、および組織的な規制などが挙げられる。
ジェネレーティブAIツールは、研究アイデアの創出、コーディング支援、データ分析・可視化などの研究タスクで活用されている。一方で、論文執筆支援などの用途は限定的である。
ジェネレーティブAIツールの利点として、生産性の向上、創造性の促進、言語バリアの解消などが認識されている。一方で、出力の信頼性や正確性、研究倫理、バイアスの問題などが主要な懸念事項となっている。
ツールの活用を阻害する要因として、スキル不足、予算不足、計算資源の不足、データ不足などの課題が指摘された。
本調査結果は、ジェネレーティブAIツールの研究への統合に関する実証的な知見を提供し、デジタル人文学研究者がこれらのツールをより効果的かつ慎重に活用するための基盤を築くものである。
Stats
ジェネレーティブAIツールを個人生活で利用している研究者は73%、研究でも56%いる。
ジェネレーティブAIツールを研究に使わない理由として、「出力の信頼性が低い」(78%)、「剽窃を容易にする」(73%)、「バイアスを生む」(76%)などが挙げられた。
ジェネレーティブAIツールを研究で活用している主な用途は、「研究アイデアの創出」(62%)、「コーディング支援」(46%)、「データ分析・可視化」(41%)などである。
Quotes
「AIは私の研究分野にはまだ十分に活用できるレベルではない」
「ジェネレーティブAIの出力は信頼できない」
「ジェネレーティブAIは研究の独創性と誠実性を損なう可能性がある」