Die Studie präsentiert eine neuartige zweistufige Methode, um die Leistung von großen Sprachmodellen (LLMs) bei der Verarbeitung komplexer Texte mit begrenzten Daten zu verbessern.
In der ersten Phase wird ein Prompt-basierter Ansatz verwendet, um LLMs zur Extraktion strukturierter Wissensrelationen aus komplexen Texten zu befähigen. Dabei werden verschiedene Prompt-Strategien wie Instruktion, Begründung, Format und Tipps eingesetzt, um die Modelle bei der Ausführung des Reasoning-Prozesses zu unterstützen.
In der zweiten Phase wird das extrahierte Wissen genutzt, um die domänenspezifischen LLMs durch einen Wissensbearbeitungsansatz namens IKE zu verbessern. Dieser Ansatz zeigt sich im Vergleich zu anderen Methoden wie LoRA und RAG als überlegen, da er die Modelle effektiv an die komplexen Anforderungen anpassen kann.
Die Ergebnisse der Studie zeigen, dass die vorgeschlagene Methode eine deutliche Verbesserung der Leistung auf zwei Datensätzen, DCE und MEE, erzielt. Im Vergleich zu herkömmlichen Ansätzen erreicht das Verfahren eine Genauigkeit von 71,7% auf DCE und 75% auf MEE, was eine signifikante Steigerung darstellt.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Xin Zhang,Ti... às arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15736.pdfPerguntas Mais Profundas