In dieser Arbeit wird eine neue Technik namens SelMix (Selective Mixup) vorgestellt, um nicht-zerlegbare Zielfunktionen in Klassifikationsaufgaben zu optimieren.
Zunächst wird analysiert, dass bestehende empirische Techniken zwar die durchschnittliche Leistung (mittlere Recall) gut optimieren, aber bei anderen praktischen Metriken wie Minimum-Recall oder Recall-Maße mit Nebenbedingungen schlecht abschneiden. Theoretische Techniken hingegen sind zwar für diese Metriken optimiert, erfordern aber das Neutrainieren des gesamten Modells für jede Zielfunktion.
Um diese Lücke zu schließen, schlägt SelMix ein selektives Mixup-basiertes Finetuning-Verfahren vor. Die Kernidee ist es, eine Stichprobenverteilung zu bestimmen, um Mischungen von Merkmalen zwischen Stichproben aus bestimmten Klassen durchzuführen, so dass die gewünschte Zielfunktion optimiert wird.
SelMix wird in verschiedenen überwachten und semi-überwachten Einstellungen evaluiert, auch in Fällen, in denen die Verteilung der unmarkierten Daten von der der markierten Daten abweicht. Es zeigt sich, dass SelMix mit dem vorgeschlagenen FixMatch (LA) Pre-Training die bestehenden State-of-the-Art-Methoden deutlich übertrifft.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Shrinivas Ra... في arxiv.org 03-28-2024
https://arxiv.org/pdf/2403.18301.pdfاستفسارات أعمق