この論文では、大規模言語モデル(LLMs)の微調整が、生成タスクと分類タスクで異なる影響を持つことが示されています。また、微調整とインコンテキスト学習(FTICL)を組み合わせた場合、生成タスクにおいては汎化能力が向上することも示されています。さらに、異なるタスク間での汎化能力も検証され、FTICLが一部の場合に有効であることが示唆されています。
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Haoran Yang,... في arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09162.pdfاستفسارات أعمق