Der Artikel befasst sich mit der Frage, wie man aus einer Menge von Hypothesen diejenige auswählen kann, die am wahrscheinlichsten auf eine unbekannte Aufgabe generalisiert.
Der Autor führt dazu ein formales Modell enaktiver Kognition ein, in dem Aufgaben als Tripel aus Situationen, korrekten Entscheidungen und Modellen dargestellt werden. Er zeigt, dass die Schwäche einer Hypothese, also die Größe ihrer Extension, ein notwendiges und hinreichendes Maß dafür ist, die Wahrscheinlichkeit der Generalisierung zu maximieren.
Im Gegensatz dazu ist die Minimierung der Beschreibungslänge weder notwendig noch hinreichend. Der Autor argumentiert, dass dies die Beziehung zwischen Kompression und Intelligenz in Frage stellt.
In Experimenten zum binären Rechnen zeigt sich, dass die Verwendung der Schwäche als Proxy die Generalisierungsrate um den Faktor 1,1 bis 5 erhöht im Vergleich zur Minimierung der Beschreibungslänge. Dies wird als Beleg dafür gesehen, dass die Schwäche ein weit besserer Proxy ist und erklärt, warum der Apperception Engine von Deepmind effektiv generalisieren kann.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询