核心概念
データ駆動型の深層学習モデルを人間が解釈可能な自然言語の説明に変換し、その説明の妥当性を実験的に検証するフレームワークを提案した。
要約
本研究では、言語神経科学における大規模言語モデル(LLM)ベースの符号化モデルの解釈可能性を高めるため、生成的説明検証(GEM-V)フレームワークを提案した。
GEM-V のアプローチは以下の通り:
- LLMベースの符号化モデルから、各脳部位の言語選択性を説明する簡潔な自然言語の説明を生成する。
- その説明に基づいて、LLMを用いて合成的な言語刺激を生成し、その刺激が対応する脳部位の活動を選択的に駆動することを実験的に検証する。
この手法を3人の被験者のfMRIデータに適用した結果:
- 生成された説明は、多くの脳部位の活動を有意に駆動することができた。
- 説明の安定性が高いほど、その説明の妥当性が高いことが示された。
- この手法により、既知の言語選択性に加えて、新しい仮説も提案できることが示された。
GEM-Vは、データ駆動型の深層学習モデルと科学理論を橋渡しする有効な手法であり、言語神経科学の理解を深化させる可能性がある。
統計
各説明に基づいて生成した段落は、対応する脳部位の活動を有意に駆動した(p < 0.05)。
説明の安定性スコアが高いほど、その説明に基づいて生成した段落が脳活動を強く駆動した。
引用
"データ駆動型の深層学習モデルは自然現象をモデル化する上で非常に有効であるが、それらのモデルは人間が解釈可能な科学理論ではない。"
"GEM-Vフレームワークは、深層学習モデルの予測力と安定性を活用し、人間が理解可能な言語的説明を生成し、その説明の妥当性を実験的に検証する。"
"GEM-Vは、データ駆動型モデルと科学理論を橋渡しする有効な手法であり、言語神経科学の理解を深化させる可能性がある。"