核心概念
ラベル付きデータが少ない場合のテキスト分類モデルにおける正則化手法の重要性を比較する。
要約
この論文では、ラベル付きデータが不足している状況で、シンプルな単語埋め込みベースのモデルと複雑なモデルの正則化効果を比較します。シンプルなモデルは完全に教師あり学習で優れたパフォーマンスを発揮しますが、敵対的トレーニングや半教師あり学習を活用することで、複雑なモデルも正規化され、より良い結果を示すことができます。シンプルな単語埋め込みモデルは過学習に強く、オッカムの剃刀の原理から、候補モデルの中で最善と言えます。
統計
ラベル付きトレーニングドキュメントの0.1%〜0.5%だけを使用して4つのテキスト分類データセット(AGニュース、DBpedia、Yahoo! Answers、Yelp Polarity)で正規化効果を評価します。
シンプルな単語埋め込みモデルは完全に教師あり学習で優れたパフォーマンスを発揮しますが、敵対的トレーニングや半教師あり学習により両方のシンプルおよび複雑なモデルが正規化されます。
BiLSTM(MAX)は他の方法と比べて高い精度を達成しました。
正規化は安定したパフォーマンスを提供し、一貫した結果をもたらします。
引用
"Regularization is a technique of increasing performance of a model by reducing overfitting."
"In supervised learning, SWEM achieved higher accuracy compared to other models, especially CNN and BiLSTM."
"With distribution smoothing, the trained model can achieve not only a better accuracy, but a lower variance."