Основные понятия
大規模事前学習言語モデルを使用したPretrain-Finetuneパラダイムは、限られたトレーニングデータでも優れた効率性を示し、社会科学の研究に特に有益である。
Аннотация
このチュートリアルでは、Pretrain-Finetuneパラダイムの基本的な概念とその一般的な用途について詳細に説明しています。大規模言語モデルの効果的な微調整方法や実際の応用例を提供し、新しいパラダイムの広範な採用を促進することを目指しています。具体的なタスク(多クラス分類や回帰)への適用方法も示されており、心理学分野の量的研究者にとって有益なガイドとなるでしょう。
Статистика
大規模言語モデルは通常数億個のパラメータを含んでいます。
BERT-largeモデルでは24つのエンコーダーレイヤーがあります。
RoBERTa-baseモデルは12つのtransformerレイヤーを持ち、合計125百万個のパラメータがあります。
ConfliBERTはBERT-baseと同じアーキテクチャを持ち、政治および紛争領域で大規模コーパスから事前学習されました。
Цитаты
大規模言語モデルは「few-shot learners」として機能します。 - Brown et al. (2020)
Finetuning RoBERTaモデルは他ドメイン基準よりも26%高い精度を達成します。 - Wang (2023b)
ConfliBERT Length-512ではMSEが0.82まで低下し、R2が0.81まで向上します。 - H¨affner et al. (2023)