Erkennung von Halluzinationen und Abdeckungsfehlern in der Retrieval-gestützten Textgenerierung für kontroverse Themen
Wir untersuchen eine Strategie, um kontroverse Themen in auf LLMs basierenden Chatbots zu behandeln, die auf dem Neutralitätsprinzip von Wikipedia basiert: Anerkennung des Fehlens einer einzigen wahren Antwort und Darstellung mehrerer Perspektiven. Wir identifizieren und evaluieren Methoden, um häufige Fehlertypen wie Halluzinationen und Abdeckungsfehler in diesem Ansatz zu erkennen.