本稿は、大規模言語モデル(LLM)であるChatGPTの出力に見られる「でたらめ」を、言語ゲームという概念を用いて分析したものです。著者は、ChatGPTが生成するテキストは、事実の裏付けに欠け、真実に対する無関心さを特徴とする「でたらめ」であると主張しています。
著者は、Wittgensteinの言語ゲームの概念を援用し、ChatGPTの出力に見られる「でたらめ」を、特定の言語使用のパターンとして捉えています。そして、ChatGPTの訓練データにはインターネット上の膨大なテキストデータが含まれており、その中には「でたらめ」なテキストも多数含まれているため、ChatGPTが「でたらめ」を生成するのは必然的な結果であると論じています。
著者は、George Orwellの政治言語に関する批判を参照し、ChatGPTの言語ゲームと政治的言説に見られる言語ゲームとの間に類似性を見出しています。Orwellは、政治的言説はしばしば意図的に不明瞭で情報量に乏しいものであり、人々を欺くために用いられると批判しました。著者は、ChatGPTの出力もまた、真実を伝えるというよりも、もっともらしく聞こえるテキストを生成することに重点が置かれている点で、Orwellの批判する政治言語と共通点を持つと指摘しています。
さらに著者は、David Graeberの「ブルシット・ジョブ」の概念を用い、ChatGPTの言語ゲームと、社会的に無意味な仕事に従事する人々の間にも類似性を見出しています。Graeberは、「ブルシット・ジョブ」とは、従業員自身もその存在意義を正当化できないほど無意味な仕事であると定義しました。著者は、ChatGPTの出力もまた、あたかも意味のある情報を提供しているかのように見せかけているだけであり、「ブルシット・ジョブ」と同様に、無意味な作業を意味ありげに見せるための言語ゲームであると論じています。
著者は、ChatGPTの「でたらめ」を測定するために、「Wittgensteinian Language Game Detector (WLGD)」と呼ばれる指標を開発しました。そして、この指標を用いて、ChatGPTの出力と、人間の政治家による演説や「ブルシット・ジョブ」に従事する人々によって書かれたテキストを比較分析しました。その結果、ChatGPTの出力は、政治的言説や「ブルシット・ジョブ」のテキストと統計的に有意な類似性を持つことが明らかになりました。
本稿は、ChatGPTの出力に見られる「でたらめ」を、言語ゲームという概念を用いて分析し、それが人間の政治的言説や「ブルシット・ジョブ」に見られる言語ゲームと類似していることを示唆しました。この結果は、ChatGPTのようなLLMが生成するテキストの信頼性について、重要な示唆を与えています。
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы