Der Artikel analysiert theoretisch, wie die Beziehungen zwischen Klassenmerkmalen die Fehlklassifizierung beeinflussen. Ausgehend von der Annahme, dass ein neuronales Netzwerk aus einem Merkmalsextraktions- und einem Klassifikationsteil besteht, leitet der Autor Chebyshev-Wahrscheinlichkeitsschranken für die Abweichung der Kosinusähnlichkeit zwischen den Merkmalen eines Beispiels und seinem Klassenmittelwert-Prototyp ab. Diese Schranken werden dann als Chebyshev-Prototyp-Risiko (CPR) definiert, das es zu minimieren gilt.
Der Autor entwickelt einen neuen Verlustfunktionsansatz, der CPR-relevante Komponenten wie die prototypgewichtete Merkmalskovarianz und die Ähnlichkeit zwischen Klassenmittelwert-Prototypen explizit optimiert. Empirische Ergebnisse auf mehreren Datensätzen und Netzwerkarchitekturen zeigen, dass dieser Ansatz das Overfitting effektiv reduziert und frühere Methoden in vielen Fällen übertrifft. Darüber hinaus skaliert der Algorithmus effizient auf große Netzwerke, da er die Merkmalskovarianz in quasi-linearer Zeit berechnet.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문