本論文では、パラレルインコンテキスト学習(ParaICL)と呼ばれる新しい手法を提案している。ParaICLは、入力コンテキストの長さを管理しつつ、利用可能なデモンストレーション例をすべて活用することで、大規模言語モデルのインコンテキスト学習の効率を高めることを目的としている。
具体的には以下の手順で行われる:
この手法により、入力コンテキストの長さを管理しつつ、利用可能なデモンストレーション例をすべて活用することができる。
実験の結果、ParaICLは推論、自然言語推論、プログラミングなどの様々なタスクにおいて、既存手法を上回る性能を示した。また、他の手法との統合も可能であることを確認した。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Xingxuan Li,... at arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00570.pdfDeeper Inquiries