核心概念
Lite-Mind ist ein leichtgewichtiges, effizientes und robustes Paradigma zum Lernen von Gehirnrepräsentationen, das auf der Diskreten Fourier-Transformation basiert und fMRT-Voxel effizient an die feingranularen Informationen von CLIP ausrichtet.
摘要
Die Studie befasst sich mit der Herausforderung, visuelle Informationen aus fMRT-Signalen zu dekodieren, die oft unter räumlicher Redundanz, Rauschen und Datenmangel leiden. Um diese Probleme anzugehen, schlagen die Autoren Lite-Mind vor, ein leichtgewichtiges, effizientes und robustes Paradigma zum Lernen von Gehirnrepräsentationen.
Lite-Mind besteht aus zwei Hauptkomponenten:
- DFT-Backbone: Dieser umfasst die fMRT-Spektrum-Kompression und die Entkopplung der fMRT-Token im Frequenzbereich, um die fMRT-Voxel effizient an die feingranularen Informationen von CLIP auszurichten.
- Retrieval-Pipeline: Diese enthält einen Diffusions-Projektor, kontrastives Lernen und Downstream-Aufgaben mit den Voxel-Embeddings aus dem DFT-Backbone.
Die Experimente zeigen, dass Lite-Mind eine beeindruckende Genauigkeit von 94,6% für die fMRT-zu-Bild-Retrieval-Aufgabe auf dem NSD-Datensatz für Proband 1 erreicht, bei 98,7% weniger Parametern als MindEye. Lite-Mind erweist sich auch als anpassungsfähig an kleinere Gehirndatensätze und etabliert einen neuen Stand der Technik für die Nullschuss-Klassifizierung auf dem GOD-Datensatz.
统计
Lite-Mind erreicht eine Retrieval-Genauigkeit von 94,6% für Proband 1 auf dem NSD-Datensatz, mit 98,7% weniger Parametern als MindEye.
Lite-Mind erzielt einen neuen Stand der Technik für die Nullschuss-Klassifizierung auf dem GOD-Datensatz.
引用
"Lite-Mind ist ein leichtgewichtiges, effizientes und robustes Paradigma zum Lernen von Gehirnrepräsentationen, das auf der Diskreten Fourier-Transformation basiert und fMRT-Voxel effizient an die feingranularen Informationen von CLIP ausrichtet."
"Extensive experiments show that Lite-Mind achieves 94.6% retrieval accuracy for Subject 1 on the NSD dataset, with 98.7% fewer parameters than MindEye."