本稿では、深層学習、特に大規模言語モデル(LLM)における活性化関数の表現力に着目し、従来の活性化関数の限界を克服する新しい活性化関数「PolyCom」を提案しています。
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Zhijian Zhuo... о arxiv.org 11-07-2024
https://arxiv.org/pdf/2411.03884.pdfГлибші Запити