Ein neuer Ensemble-Modell-Rahmen, der mit Datenaugmentierung und selbstüberwachtem Lernen kombiniert wird, kann das Überfittingproblem in inkrementellen Lernaufgaben mit wenigen Beispielen effektiv mildern und die Leistung im Vergleich zu State-of-the-Art-Methoden deutlich verbessern.
Das OrCo-Verfahren verbessert die Leistung des inkrementellen Lernens mit wenigen Beispielen, indem es die inhärenten Herausforderungen wie katastrophales Vergessen, Überanpassung und Starrheit durch die Nutzung der gegenseitigen Orthogonalität von Merkmalen im Darstellungsraum und kontrastives Lernen angeht.
Große vortrainierte Vision- und Sprachmodelle wie ViT und CLIP können effektiv als Lerner für wenige Beispiele in inkrementellen Lernszenarien eingesetzt werden, wenn man geeignete Methoden zum Erhalt des Vorwissens und zur Aneignung neuen domänenspezifischen Wissens verwendet.