IEPILE, ein umfassender zweisprachiger (Englisch und Chinesisch) Instruktions-Korpus für Informationsextraktion mit ca. 0,32 Milliarden Token, wurde durch Sammeln und Bereinigen von 33 bestehenden Datensätzen sowie Einführung einer Schema-basierten Instruktionsgenerierung erstellt. Die Verwendung von IEPILE verbessert die Leistung von Großsprachmodellen bei Informationsextraktionsaufgaben, insbesondere in Bezug auf Zero-Shot-Generalisierung.
Die Studie stellt ein automatisches Bewertungsframework vor, um die Qualität und Vollständigkeit der Informationsextraktion mit Hilfe von Large Language Models zu messen, insbesondere in Situationen, in denen keine manuell gekennzeichneten Referenzdaten zur Verfügung stehen.
Eine neue Bewertungsmethode, SQC-Score, nutzt Sprachmodelle als Matcher und Natürliche Sprachschlussfolgerung als Ergänzer, um die Ungenauigkeit und Unvollständigkeit herkömmlicher Bewertungsmethoden für Informationsextraktionsaufgaben zu beheben.
Das Modell PerNee extrahiert verschachtelte Ereignisse hauptsächlich durch die Erkennung von Pivot-Elementen, die gleichzeitig als Argumente äußerer Ereignisse und als Auslöser innerer Ereignisse fungieren.
Ein End-to-End-Framework für die Chat-gestützte Instruktionsoptimierung zur universellen Informationsextraktion, das sowohl Chinesisch als auch Englisch unterstützt und die Leistung durch die Nutzung von Dialogdaten und Informationsextraktionsdaten gemeinsam verbessert.
Durch Destillation eines Meta-Modells aus großen Sprachmodellen können kleine Sprachmodelle effizient an verschiedene Informationsextraktionsaufgaben angepasst werden.
Wir schlagen CARE vor, ein Co-Attention-Netzwerk für die gemeinsame Entitäts- und Beziehungsextraktion, das die Wechselwirkungen zwischen den beiden Teilaufgaben effektiv nutzen kann.
Unser System kombiniert fortschrittliche Large Language Models mit strukturierter Textanalyse, um Informationen aus HCI-Forschungsartikeln effizient und genau zu extrahieren und zu interpretieren, um die Literaturrecherche in diesem Bereich zu verbessern.
Definitionsverzerrungen in der Informationsextraktion können die Leistung von Unified Information Extraction (UIE) und Large Language Models (LLMs) beeinträchtigen. Diese Verzerrungen treten sowohl zwischen verschiedenen Informationsextraktionsdatensätzen als auch zwischen Informationsextraktionsdatensätzen und Instruktionsfeintunedatensätzen auf.
Ein trainingsfreier selbstverbessernder Rahmen, der die Selbstlernfähigkeit großer Sprachmodelle nutzt, um die Leistung der Zero-Shot-Named-Entity-Erkennung erheblich zu verbessern.