この論文では、大規模言語モデル(LLMs)の微調整が、生成タスクと分類タスクで異なる影響を持つことが示されています。また、微調整とインコンテキスト学習(FTICL)を組み合わせた場合、生成タスクにおいては汎化能力が向上することも示されています。さらに、異なるタスク間での汎化能力も検証され、FTICLが一部の場合に有効であることが示唆されています。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Haoran Yang,... a las arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09162.pdfConsultas más profundas