Der Artikel analysiert theoretisch, wie die Beziehungen zwischen Klassenmerkmalen die Fehlklassifizierung beeinflussen. Ausgehend von der Annahme, dass ein neuronales Netzwerk aus einem Merkmalsextraktions- und einem Klassifikationsteil besteht, leitet der Autor Chebyshev-Wahrscheinlichkeitsschranken für die Abweichung der Kosinusähnlichkeit zwischen den Merkmalen eines Beispiels und seinem Klassenmittelwert-Prototyp ab. Diese Schranken werden dann als Chebyshev-Prototyp-Risiko (CPR) definiert, das es zu minimieren gilt.
Der Autor entwickelt einen neuen Verlustfunktionsansatz, der CPR-relevante Komponenten wie die prototypgewichtete Merkmalskovarianz und die Ähnlichkeit zwischen Klassenmittelwert-Prototypen explizit optimiert. Empirische Ergebnisse auf mehreren Datensätzen und Netzwerkarchitekturen zeigen, dass dieser Ansatz das Overfitting effektiv reduziert und frühere Methoden in vielen Fällen übertrifft. Darüber hinaus skaliert der Algorithmus effizient auf große Netzwerke, da er die Merkmalskovarianz in quasi-linearer Zeit berechnet.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Nathaniel De... klokken arxiv.org 04-11-2024
https://arxiv.org/pdf/2404.07083.pdfDypere Spørsmål