Der Artikel analysiert theoretisch, wie die Beziehungen zwischen Klassenmerkmalen die Fehlklassifizierung beeinflussen. Ausgehend von der Annahme, dass ein neuronales Netzwerk aus einem Merkmalsextraktions- und einem Klassifikationsteil besteht, leitet der Autor Chebyshev-Wahrscheinlichkeitsschranken für die Abweichung der Kosinusähnlichkeit zwischen den Merkmalen eines Beispiels und seinem Klassenmittelwert-Prototyp ab. Diese Schranken werden dann als Chebyshev-Prototyp-Risiko (CPR) definiert, das es zu minimieren gilt.
Der Autor entwickelt einen neuen Verlustfunktionsansatz, der CPR-relevante Komponenten wie die prototypgewichtete Merkmalskovarianz und die Ähnlichkeit zwischen Klassenmittelwert-Prototypen explizit optimiert. Empirische Ergebnisse auf mehreren Datensätzen und Netzwerkarchitekturen zeigen, dass dieser Ansatz das Overfitting effektiv reduziert und frühere Methoden in vielen Fällen übertrifft. Darüber hinaus skaliert der Algorithmus effizient auf große Netzwerke, da er die Merkmalskovarianz in quasi-linearer Zeit berechnet.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Nathaniel De... às arxiv.org 04-11-2024
https://arxiv.org/pdf/2404.07083.pdfPerguntas Mais Profundas