Der Artikel untersucht die Möglichkeit, einen Zitationsmechanismus in Großsprachmodelle (Large Language Models, LLMs) zu integrieren, um deren Transparenz, Verifizierbarkeit und Rechenschaftspflicht zu erhöhen.
Zunächst wird erläutert, dass LLMs zwar enorme Vorteile bieten, aber auch einzigartige Herausforderungen wie Urheberrechts- und ethische Bedenken mit sich bringen. Der Artikel argumentiert, dass "Zitation" - also das Angeben oder Referenzieren einer Quelle oder eines Belegs - ein entscheidendes, aber fehlendes Element in LLMs ist. Die Einbindung von Zitationen könnte die inhaltliche Transparenz und Verifizierbarkeit erhöhen und so den Umgang mit Urheberrechts- und ethischen Problemen bei der Nutzung von LLMs erleichtern.
Es werden Ansätze diskutiert, wie ein umfassendes Zitationssystem für parametrische und nicht-parametrische Inhalte in LLMs implementiert werden könnte. Dabei werden auch mögliche Fallstricke wie Überzitierung, Ungenauigkeiten bei Zitaten, veraltete Quellen oder Verbreitung von Fehlinformationen thematisiert.
Abschließend werden zentrale Forschungsprobleme identifiziert, die es zu lösen gilt, um verantwortungsvollere und rechenschaftspflichtigere LLMs zu entwickeln. Dazu gehören die Bestimmung wann Zitate angebracht sind, der Umgang mit Halluzinationen in Zitaten, die Aufrechterhaltung der zeitlichen Relevanz von Quellen, die Bewertung der Zuverlässigkeit von Quellen, die Vermeidung von Zitationsverzerrungen sowie das Gleichgewicht zwischen Nutzung bestehender Inhalte und Generierung neuer Inhalte.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Jie Huang,Ke... at arxiv.org 04-02-2024
https://arxiv.org/pdf/2307.02185.pdfDeeper Inquiries