Der Artikel befasst sich mit der Frage, wie man aus einer Menge von Hypothesen diejenige auswählen kann, die am wahrscheinlichsten auf eine unbekannte Aufgabe generalisiert.
Der Autor führt dazu ein formales Modell enaktiver Kognition ein, in dem Aufgaben als Tripel aus Situationen, korrekten Entscheidungen und Modellen dargestellt werden. Er zeigt, dass die Schwäche einer Hypothese, also die Größe ihrer Extension, ein notwendiges und hinreichendes Maß dafür ist, die Wahrscheinlichkeit der Generalisierung zu maximieren.
Im Gegensatz dazu ist die Minimierung der Beschreibungslänge weder notwendig noch hinreichend. Der Autor argumentiert, dass dies die Beziehung zwischen Kompression und Intelligenz in Frage stellt.
In Experimenten zum binären Rechnen zeigt sich, dass die Verwendung der Schwäche als Proxy die Generalisierungsrate um den Faktor 1,1 bis 5 erhöht im Vergleich zur Minimierung der Beschreibungslänge. Dies wird als Beleg dafür gesehen, dass die Schwäche ein weit besserer Proxy ist und erklärt, warum der Apperception Engine von Deepmind effektiv generalisieren kann.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Michael Timo... at arxiv.org 04-12-2024
https://arxiv.org/pdf/2301.12987.pdfDeeper Inquiries