本研究は、大規模言語モデルのスラングに関する知識を包括的に評価している。主な結果は以下の通り:
スラング検出タスクでは、GPTモデルがBERT系モデルよりも優れた性能を示す。ただし、ファインチューニングを行うことで、BERT系モデルもGPTモデルと同等の性能を達成できる。
スラングの地域的・時代的な特徴の識別タスクでは、GPTモデルがBERT系モデルよりも優れた性能を示す。特に、GPT-3は、スラングの使用に関する人口統計学的な知識を良く捉えている。
スラングの意味表現に関しては、大規模言語モデルはスラングの頻度情報を活用しているものの、スラングの意味構造を十分に捉えられていない。
全体として、大規模言語モデルはスラングに関する一定の知識を有しているが、タスク特化のファインチューニングが必要不可欠であることが示された。また、スラングの使用は個人の社会的アイデンティティを反映するため、大規模言語モデルのスラング処理能力には、公平性や個人情報保護の観点から注意が必要である。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問