この論文では、大規模言語モデル(LLMs)の微調整が、生成タスクと分類タスクで異なる影響を持つことが示されています。また、微調整とインコンテキスト学習(FTICL)を組み合わせた場合、生成タスクにおいては汎化能力が向上することも示されています。さらに、異なるタスク間での汎化能力も検証され、FTICLが一部の場合に有効であることが示唆されています。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Haoran Yang,... um arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09162.pdfTiefere Fragen