Menschen können Funktionen effizient lernen und komponieren, um neue Generalisierungen zu schaffen, während neuronale Netzwerke ähnliche Fähigkeiten durch metakognitives Lernen entwickeln können.
Große Sprachmodelle (LLMs) zeigen bei der Lösung visueller Analogien ähnliche Fehlertypen wie junge Kinder, insbesondere das Kopieren von Eingabematrizen. Im Vergleich zu Menschen machen LLMs häufiger Fehler, die auf einfachen Matrixkombinationen basieren, aber seltener konzeptbasierte Fehler.