Die Studie untersucht die Fähigkeit von Großen Sprachmodellen (LLMs), die Ausführung von Logikprogrammen zu simulieren und deren Ergebnisse vorherzusagen.
Zunächst werden drei neue Datensätze für die Aufgabe der Logikcode-Simulation erstellt. Umfangreiche Experimente werden durchgeführt, um die Baseline-Leistung von LLMs bei der Codesimulation zu etablieren.
Anschließend wird eine neuartige LLM-basierte Codesimulationstechnik namens "Dual Chains of Logic" (DCoL) eingeführt. DCoL nutzt einen Dual-Path-Denkansatz, um LLMs dabei zu unterstützen, genauere Schlussfolgerungen für das Ergebnis des Codes zu ziehen und Fallen bei der Logikproblembearbeitung zu vermeiden.
Die Studie untersucht auch die Stärken und möglichen Fallstricke von LLM-basierten Logiklösern. Es wird festgestellt, dass LLMs, insbesondere GPT-Modelle, effektiv die Ergebnisse von Logiklösern simulieren können. Die Simulationsgenauigkeit kann durch den vorgeschlagenen DCoL-Prompt und den bidirektionalen Selbstkonsistenzmechanismus weiter verbessert werden. LLMs zeigen auch Robustheit gegenüber Syntaxfehlern und können Theorien behandeln, die logische Solver nicht bewältigen können.
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Minyu Chen,G... ที่ arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.16097.pdfสอบถามเพิ่มเติม