本研究では、Wills Alignerと呼ばれる頑健な多被験者脳表現学習器を提案している。
まず、解剖学的整列を行い、被験者間の解剖学的差異を解消する。次に、脳専門家の混合(MoBE)と呼ばれるプラグインネットワークを導入し、個々の認知パターンを学習する。さらに、共通性知識の学習と個別の認知パターンの学習を2段階に分けることで、両者のトレードオフを解消し、被験者間の知識転移を実現する。
実験では、NSDデータセットを用いて、粗視的および微視的な視覚デコーディングタスクにおいて、Wills Alignerが最先端の性能を達成することを示している。特に、多被験者分類タスクでは81%の精度向上、微視的な視覚検索タスクでは15%の精度向上を実現している。さらに、少サンプル学習実験では、Wills Alignerが単一被験者モデルを大きく上回ることを示している。
以上より、Wills Alignerは、解剖学的差異と認知パターンの違いを効果的に処理し、多被験者脳視覚表現学習の課題に取り組むことができる頑健なモデルであることが分かる。
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Guangyin Bao... klokken arxiv.org 04-23-2024
https://arxiv.org/pdf/2404.13282.pdfDypere Spørsmål