Verhinderung von Halluzinationen durch große Sprachmodelle durch die Auswahl wahrheitsgetreuer Kontexte
Große Sprachmodelle (LLMs) neigen dazu, durch unwahrheitsgemäße Kontextinformationen in die Irre geführt zu werden und Halluzinationen zu produzieren. Die Methode "Truth-Aware Context Selection" (TACS) ermöglicht es, unwahrheitsgemäße Kontextinformationen zu erkennen und zu filtern, um die Qualität der Antworten des LLMs zu verbessern.