Die Studie präsentiert eine neuartige zweistufige Methode, um die Leistung von großen Sprachmodellen (LLMs) bei der Verarbeitung komplexer Texte mit begrenzten Daten zu verbessern.
In der ersten Phase wird ein Prompt-basierter Ansatz verwendet, um LLMs zur Extraktion strukturierter Wissensrelationen aus komplexen Texten zu befähigen. Dabei werden verschiedene Prompt-Strategien wie Instruktion, Begründung, Format und Tipps eingesetzt, um die Modelle bei der Ausführung des Reasoning-Prozesses zu unterstützen.
In der zweiten Phase wird das extrahierte Wissen genutzt, um die domänenspezifischen LLMs durch einen Wissensbearbeitungsansatz namens IKE zu verbessern. Dieser Ansatz zeigt sich im Vergleich zu anderen Methoden wie LoRA und RAG als überlegen, da er die Modelle effektiv an die komplexen Anforderungen anpassen kann.
Die Ergebnisse der Studie zeigen, dass die vorgeschlagene Methode eine deutliche Verbesserung der Leistung auf zwei Datensätzen, DCE und MEE, erzielt. Im Vergleich zu herkömmlichen Ansätzen erreicht das Verfahren eine Genauigkeit von 71,7% auf DCE und 75% auf MEE, was eine signifikante Steigerung darstellt.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Xin Zhang,Ti... alle arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15736.pdfDomande più approfondite