既存の研究では、ニューラルネットワーク最適化において虚偽特徴が核心特徴よりも学習しやすいとされていますが、その相対的な単純さの影響は未だ十分に探求されていません。本稿では、ブール関数解析に基づく理論的枠組みと合成データセットを提案し、虚偽特徴の相対的な複雑さとラベルとの相関強度を細かく制御して、虚偽相関下での特徴学習のダイナミクスを調査します。我々は以下の興味深い現象を明らかにします:(1) より強い虚偽相関やより単純な虚偽特徴は核心特徴の学習速度を遅くします。(2) 虚偽特徴と核心特徴の学習段階は常に分離可能ではありません。(3) 核心特徴が完全に学習された後でも虚偽特徴は忘れられません。これらの発見は、最後の層を再トレーニングして虚偽相関を除去する成功を正当化し、早期に虚偽機能を利用する一般的なバイアス除去アルゴリズムの限界も明らかにします。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by GuanWen Qiu,... um arxiv.org 03-07-2024
https://arxiv.org/pdf/2403.03375.pdfTiefere Fragen