Sprachmodelle zeigen Halluzinationen in realen Szenarien, erfordern Bewertung und Verbesserung für Zuverlässigkeit.
The author introduces HaluEval-Wild to evaluate LLM hallucinations in real-world scenarios, highlighting the need for reliability and trustworthiness in language models.