Core Concepts
大規模言語モデルを活用してテキストを拡充・書き換えすることで、テキスト埋め込みモデルの性能を向上させることができる。
Abstract
本研究では、大規模言語モデルであるChatGPT 3.5を活用して、テキストの埋め込み性能を向上させる新しい手法を提案している。
具体的には以下の手順で行う:
コンテキストの拡充: ChatGPT 3.5を使ってテキストにさらなるコンテキストを付与する。
文法の修正: ChatGPT 3.5を使ってテキストの文法エラーを修正する。
用語の標準化: ChatGPT 3.5の知識ベースを使って、ドメイン固有の用語や略語を標準化する。
多義語の明確化: 文脈に基づいて多義語の意味を明確化する。
略語の展開: ChatGPT 3.5を使ってテキスト中の略語を展開する。
メタデータの追加: 関連するメタデータ(カテゴリ、対象読者、ドメイン固有のタグなど)をテキストに追加する。
文構造の改善: ChatGPT 3.5を使ってテキストの文構造を改善し、明確性と一貫性を高める。
欠落情報の推論: ChatGPT 3.5の文脈理解を活用して、テキスト中の欠落情報を推論する。
これらの手法によって、テキストの質と情報量が向上し、テキスト埋め込みモデルの性能が高まることが期待される。
実験では、Banking77Classification、TwitterSemEval 2015、Amazon Counter Factual Classificationの3つのデータセットを使用して評価を行った。その結果、TwitterSemEval 2015データセットでは、提案手法が従来の最高モデルを上回る性能を示した。一方、他の2つのデータセットでは従来モデルに及ばなかった。これは、ドメイン固有の特性を考慮する必要性を示唆している。
全体として、大規模言語モデルを活用したテキストの拡充と書き換えは、特定のドメインでテキスト埋め込みの性能を向上させる可能性が示された。ただし、ドメイン依存性が高いため、適用するドメインに応じた最適化が重要である。
Stats
テキスト埋め込みモデルの性能は、コサイン類似度に基づく平均精度で評価した。
TwitterSemEval 2015データセットでは、提案手法のPrompt 4が85.34の最高スコアを記録し、従来最高モデルの81.52を上回った。
Banking77Classificationデータセットでは、提案手法の最高スコアは85.69で、従来モデルの88.81に及ばなかった。
Amazon Counter Factual Classificationデータセットでは、提案手法の最高スコアは76.20で、従来モデルの77.93に及ばなかった。
Quotes
"大規模言語モデルを活用したテキストの拡充と書き換えは、特定のドメインでテキスト埋め込みの性能を向上させる可能性が示された。"
"ただし、ドメイン依存性が高いため、適用するドメインに応じた最適化が重要である。"