核心概念
Diese Arbeit stellt HALO, eine formale und erweiterbare Ontologie zur Modellierung von Halluzinationen in großen Sprachmodellen, vor.
摘要
Diese Arbeit präsentiert HALO, eine Ontologie zur Darstellung und Kategorisierung von Halluzinationen in großen Sprachmodellen (LLMs).
Die Hauptbeiträge sind:
- Entwicklung von HALO, einer Ontologie, die Halluzinationen in generativen KI-Modellen als Forschungsgegenstand behandelt. HALO folgt den FAIR-Prinzipien und ist als nachhaltiges und erweiterbares Ressource für Forscher gedacht, die Halluzinationen in LLMs weiter untersuchen.
- HALO wurde nach einem rigorosen Designprozess erstellt und unterstützt mehrere Halluzinationskategorien und -unterkategorien, Metadatenfelder und -attribute. Es besteht aus zwei Hauptmodulen: dem Halluzinationsmodul und dem Metadatenmodul.
- Die Nützlichkeit von HALO wird anhand von Kompetenzfragen demonstriert, die ähnlich zu denen sind, die normalerweise in empirischen Studien zu Halluzinationen untersucht werden. Ein realer Datensatz zu Halluzinationen wird verwendet, um zu zeigen, dass selbst relativ komplexe Kompetenzfragen als SPARQL-Abfragen unter Verwendung von HALO-Konzepten und -Eigenschaften formalisiert werden können.
統計資料
Die Halluzinationsrate von BARD betrug im Oktober 2023 62,5%, gefolgt von ChatGPT mit 42,5% und Claude mit 40,0%.
Im März 2024 blieben die Ergebnisse für GPT-3.5 und Claude konsistent mit denen vom Oktober 2023, während BARD eine leichte Verbesserung zeigte, indem es sich weigerte, Fragen zu beantworten, zu denen es keine Informationen hatte.
引述
"Halluzinationen sind nicht ungewöhnlich und Forscher haben sie (oder ähnliche Fehler) in einer Vielzahl von generativen Aufgaben dokumentiert, wie z.B. Textgenerierung, Frage-Antwort und Sprachübersetzung."
"Trotz dieser Arbeiten fehlt bislang ein formales Modell zur Beschreibung und Darstellung dieser Halluzinationen (mit relevanten Metadaten) auf feingranularer Ebene."