本研究では、SHEDと呼ばれる新しいフレームワークを提案している。SHEDは、Shapley値を利用して大規模データセットから高品質なデータサブセットを自動的に選別することで、大規模言語モデルのファインチューニングを効率化することを目的としている。
SHEDの主な特徴は以下の通り:
実験の結果、SHEDで選別したデータセットを用いてLLaMA言語モデルをファインチューニングすると、元のデータセットを使った場合と同等以上の性能が得られることが示された。さらに、SHEDで選別したデータセットは他の言語モデルでも高い汎化性を示した。これにより、データ選別の計算コストを複数のモデルで共有できるというメリットが得られる。
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Yexiao He,Zi... kl. arxiv.org 05-03-2024
https://arxiv.org/pdf/2405.00705.pdfDybere Forespørgsler