Der Artikel befasst sich mit der Frage, wie man aus einer Menge von Hypothesen diejenige auswählen kann, die am wahrscheinlichsten auf eine unbekannte Aufgabe generalisiert.
Der Autor führt dazu ein formales Modell enaktiver Kognition ein, in dem Aufgaben als Tripel aus Situationen, korrekten Entscheidungen und Modellen dargestellt werden. Er zeigt, dass die Schwäche einer Hypothese, also die Größe ihrer Extension, ein notwendiges und hinreichendes Maß dafür ist, die Wahrscheinlichkeit der Generalisierung zu maximieren.
Im Gegensatz dazu ist die Minimierung der Beschreibungslänge weder notwendig noch hinreichend. Der Autor argumentiert, dass dies die Beziehung zwischen Kompression und Intelligenz in Frage stellt.
In Experimenten zum binären Rechnen zeigt sich, dass die Verwendung der Schwäche als Proxy die Generalisierungsrate um den Faktor 1,1 bis 5 erhöht im Vergleich zur Minimierung der Beschreibungslänge. Dies wird als Beleg dafür gesehen, dass die Schwäche ein weit besserer Proxy ist und erklärt, warum der Apperception Engine von Deepmind effektiv generalisieren kann.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Michael Timo... om arxiv.org 04-12-2024
https://arxiv.org/pdf/2301.12987.pdfDiepere vragen