この論文では、大規模言語モデル(LLMs)の微調整が、生成タスクと分類タスクで異なる影響を持つことが示されています。また、微調整とインコンテキスト学習(FTICL)を組み合わせた場合、生成タスクにおいては汎化能力が向上することも示されています。さらに、異なるタスク間での汎化能力も検証され、FTICLが一部の場合に有効であることが示唆されています。
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Haoran Yang,... ที่ arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09162.pdfสอบถามเพิ่มเติม