Superposition-Prompting ist eine neuartige Methode, die die Genauigkeit und Effizienz von Retrieval-gestützter Textgenerierung mit großen Sprachmodellen deutlich verbessert, ohne dass eine Feinabstimmung des Modells erforderlich ist.
Wir präsentieren ein neuartiges variationelles Inferenz-Framework namens VI-OOD, das die gemeinsame Verteilung p(x, y) anstelle der bedingten Verteilung p(y|x) optimiert, um effizientere Darstellungen für die Erkennung von Daten außerhalb der Verteilung in Textklassifizierungsaufgaben zu lernen.
Durch ein aktives Lernverfahren, das verschiedene Arten von Halluzinationen in Textzusammenfassungen berücksichtigt, können Großsprachmodelle effizient und effektiv dabei unterstützt werden, Halluzinationen in ihren Ausgaben zu reduzieren.