本論文では、ネットワーキング分野における大規模言語モデルの活用を目的とした、効率的な微調整フレームワークであるRaC(Rephrase and Contrast)を提案している。
RaCでは、従来の質問-答えペアに加えて、質問の言い換えと正解/不正解の答えの比較分析を行うことで、言語モデルのネットワーキングに関する理解力と批判的思考力を向上させる。
実験の結果、RaCを用いて微調整したモデルは、基礎モデルに比べて63.73%の精度向上を示した。
また、RaCの実装に必要なデータセットを効率的に構築するため、GPT支援のデータマイニング手法とChoiceBoostと呼ばれるデータ拡張手法を開発した。
さらに、ネットワーキング分野の評価ベンチマークとなる3つのテストセットも公開している。
これらの技術的貢献と公開リソースにより、ネットワーキング分野における大規模言語モデルの活用が大きく促進されることが期待される。
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Liujianfu Wa... : arxiv.org 10-01-2024
https://arxiv.org/pdf/2409.19007.pdfDaha Derin Sorular