Erkennung und Bewertung von Halluzinationen in von LLM gesteuerten Code-Generierungen
Große Sprachmodelle (LLMs) neigen dazu, Halluzinationen zu erzeugen, d.h. Ausgaben zu produzieren, die vom Benutzerintent abweichen, interne Inkonsistenzen aufweisen oder mit dem Faktenwissen nicht übereinstimmen. Dies kann bei der Bereitstellung von LLMs in einer Vielzahl von Anwendungen riskant sein.