Die Studie untersucht die Anfälligkeit von retrieval-basierten Sprachmodellen wie FiD und GPT-3.5 gegenüber widersprüchlichen Informationen in abgerufenen Dokumenten. Die Autoren stellen fest, dass diese Modelle sehr empfindlich auf Konflikte zwischen den Dokumenten reagieren, selbst wenn ein korrektes Dokument vorhanden ist.
Um dies zu verbessern, schlagen die Autoren zwei Ansätze vor:
Feintunning eines Diskriminators, der zusammen mit dem Hauptmodell trainiert wird. Dieser Diskriminator lernt, zwischen authentischen und verfälschten Dokumenten zu unterscheiden, und hilft dem Hauptmodell, sich auf zuverlässige Informationen zu konzentrieren.
Instruktionsbasierter Ansatz für GPT-3.5, bei dem das Modell explizit aufgefordert wird, verfälschte Dokumente zu identifizieren, bevor es eine Antwort generiert. Darüber hinaus kombinieren die Autoren den feingejusteten Diskriminator mit dem GPT-3.5-Modell, um die Stärken beider Ansätze zu nutzen.
Die Ergebnisse zeigen, dass beide Ansätze die Robustheit der Modelle gegenüber widersprüchlichen Informationen deutlich verbessern. Darüber hinaus stellen die Autoren einen neuen, von GPT-4 generierten Benchmark-Datensatz (MACNOISE) vor, der realistischere Konfliktszenarios abbildet als die bisher verwendeten synthetischen Datensätze.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Giwon Hong,J... alle arxiv.org 03-15-2024
https://arxiv.org/pdf/2305.01579.pdfDomande più approfondite