Core Concepts
Ein iteratives neuronales Inferenznetzwerk mit Gate-Aufmerksamkeit kann höhere Testgenauigkeit als andere RNN-Basismodelle bei mehrschrittigen Schlussfolgerungsaufgaben über natürliche Sprache erreichen und zeigt eine bessere Out-of-Distribution-Generalisierung als RoBERTa-Large.
Abstract
Die Studie untersucht ein iteratives neuronales Inferenznetzwerk, das Gate-Aufmerksamkeit verwendet, um mehrschrittiges deduktives Schlussfolgern über natürliche Sprache zu lernen. Das Modell, genannt IMA-GloVe-GA, wird auf drei Datensätzen evaluiert: PARARULES, CONCEPTRULES V1 und CONCEPTRULES V2.
Die Ergebnisse zeigen, dass IMA-GloVe-GA eine höhere Testgenauigkeit als andere RNN-Basismodelle wie DeepLogic und eine bessere Out-of-Distribution-Generalisierung als RoBERTa-Large erreicht, wenn die Regeln in den Testbeispielen durcheinander gebracht werden.
Um das Problem der unausgewogenen Verteilung der Schlussfolgerungstiefe in den bestehenden Datensätzen anzugehen, entwickeln die Autoren einen neuen großen Datensatz namens PARARULE-Plus, der mehr Beispiele mit tieferer Schlussfolgerung enthält. Die Experimente zeigen, dass die Hinzunahme von PARARULE-Plus die Leistung des Modells bei Beispielen mit tieferer Schlussfolgerung und zusätzlichen Out-of-Distribution-Beispielen verbessert.
Stats
Beispiele in den Datensätzen PARARULES, CONCEPTRULES V1 und CONCEPTRULES V2 können Schlussfolgerungstiefen von bis zu 5, 3 bzw. 3 erfordern.
Der PARARULE-Plus-Datensatz enthält jeweils etwa 100.000 Beispiele mit Schlussfolgerungstiefen von 2 bis 5.
Quotes
"Combining deep learning with symbolic logic reasoning aims to capitalize on the success of both fields and is drawing increasing attention."
"Experimental results show DeepLogic with gate attention can achieve higher test accuracy than DeepLogic and other RNN baseline models."
"Our model achieves better out-of-distribution generalisation than RoBERTa-Large when the rules have been shuffled."