Erkennen Sprachmodelle, wann sie Referenzen halluzinieren?
Sprachmodelle wie GPT-4 neigen dazu, scheinbar glaubwürdige, aber inkorrekte oder unbegründete Informationen zu generieren. In dieser Arbeit untersuchen wir, ob Sprachmodelle ihre eigenen halluzinierten Ausgaben erkennen können, ohne auf externe Ressourcen zurückzugreifen.