下載 Linnk AI
•
AI 研究助理
>
登入
洞見
-
知識迴路、Transformer、知識編輯、模型可解釋性
預訓練 Transformer 中的知識迴路
大型語言模型 (LLM) 的知識儲存並非僅限於孤立的組件,而是透過「知識迴路」——由注意力頭、多層感知器 (MLP) 和嵌入層組成的子圖——來編碼和表達知識。
1