データ拡張(DA)は現代の機械学習における性能向上のための重要なツールであり、一般的なDA戦略がどのように動作するかはしばしば不明確です。本論文では、DAが一般化に及ぼす影響を特徴付ける新しい理論的枠組みを提案しました。この枠組みは、1. 一般的な確率的変換、2. 古典的な過少パラメータ化領域と現代の過多パラメータ化領域、3. 回帰と分類タスク、4. 強力および弱い分布シフト変換に対する一般化解析を可能にします。さらに、我々はDAが暗黙のスペクトル正則化を誘発し、その効果が一般化に及ぼす影響を詳細に説明しました。具体的なDA戦略(ランダムマスキングやカットアウトなど)に対してこの枠組みを適用し、新しいアプローチのテストベッドとして活用しました。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Chi-Heng Lin... at arxiv.org 02-29-2024
https://arxiv.org/pdf/2210.05021.pdfDeeper Inquiries