Concetti Chiave
Durch die Verwendung von Demonstrationen mit logischen Regeln und zugehörigen Beispielen können Sprachmodelle plausible Erklärungen für Schlussfolgerungsaufgaben über Wissensdatenbanken generieren. Die Ergebnisse zeigen, dass die Einschränkung der Ausgaben von Sprachmodellen und die Sicherstellung der Korrektheit der Zwischenschlussfolgerungen wichtig für die Leistung des Schlussfolgerns sind, was neue Erkenntnisse über kontextbasiertes Lernen liefert und einen Mechanismus zur Reduzierung von falschem Schlussfolgern durch symbolische Verifikation bietet.
Sintesi
Die Studie untersucht das kontextbasierte Lernen von Sprachmodellen (LMs) aus Sicht des symbolischen Schlussfolgerns. Es wird gezeigt, dass LMs durch Aufforderungen mit logischen Demonstrationen plausible Erklärungen für Schlussfolgerungsaufgaben über Wissensdatenbanken (KBs) generieren können.
Die Hauptergebnisse sind:
- Die Einschränkung der Ausgaben von LMs und die Sicherstellung der Korrektheit der Zwischenschlussfolgerungen sind wichtig für die Leistung des Schlussfolgerns.
- Das vorgeschlagene Verfahren "Language Models as Logic Programmers" (LMLP) verwendet logische Regeln und zugehörige Beispiele, um den Schlussfolgerungsprozess der LMs in wenigen Schritten zu bootstrappen.
- LMLP übertrifft die Leistung von "Chain-of-Thought" (CoT) Prompting, insbesondere bei längeren Schlussfolgerungsketten.
- Weitere Analysen zeigen, dass die Verwendung mehrerer Beispiele in den Aufforderungen und das Ensemble verschiedener Aufforderungen die Schlussfolgerungsfähigkeit von LMLP weiter verbessern können.
Statistiche
"LMLP kann konsistent eine hohe Bewertung durch Menschen erzielen (Tabelle 2), was erneut die systematische Verallgemeinerungsfähigkeit von LMLP bestätigt."
"Selbst wenn alle Rauschtatsachen in F eingefügt werden, d.h. mehr als 95% der Fakten sind Rauschen, liegt die Leistung immer noch bei über 38% Erfolgsquote, was zeigt, dass LMLP robuste Schlussfolgerungsleistung erbringen kann."
Citazioni
"Durch die Verwendung von Demonstrationen mit logischen Regeln und zugehörigen Beispielen können Sprachmodelle plausible Erklärungen für Schlussfolgerungsaufgaben über Wissensdatenbanken generieren."
"Die Einschränkung der Ausgaben von Sprachmodellen und die Sicherstellung der Korrektheit der Zwischenschlussfolgerungen sind wichtig für die Leistung des Schlussfolgerns."