Sprachmodelle wie GPT-4 neigen dazu, scheinbar glaubwürdige, aber inkorrekte oder unbegründete Informationen zu generieren. In dieser Arbeit untersuchen wir, ob Sprachmodelle ihre eigenen halluzinierten Ausgaben erkennen können, ohne auf externe Ressourcen zurückzugreifen.
Sokratisches Denken verbessert die positive Textumformung durch die Verwendung von Socratic Rationales.
Verbesserung der Erklärbarkeit und diagnostischen Leistung durch AFBT GAN.