この研究で使用されたComposition Scoreメトリックは、TransformerモデルのFeed-Forward Network(FFN)ブロックのキー値メモリ解釈に基づいています。このアプローチは、LLM(Large Language Models)全般に適用可能な原則と考えられます。なぜならば、多くのLLMがTransformerアーキテクチャを採用しており、内部構造や動作原理が類似しているからです。したがって、同様の手法を他の言語モデルに適用することで、意味構成度を定量化し脳活動と関連付けることが可能だろうと推測されます。