核心概念
BERTおよびその派生モデルの組み込みシステムでの実行可能性とパフォーマンスに関する研究
要約
本研究は、BERTおよびその派生モデル(RoBERTa、DistilBERT、TinyBERT)が組み込みシステム上でどのように動作するかを検討しました。さまざまなNLPタスク(IC、SC、NER)を実行し、異なるハードウェア構成で評価しました。結果として、すべてのモデルがICタスクで90%以上のF1スコアを達成しました。一方、多ラベルSCタスクではDistilBERTとTinyBERTが大きく失敗しました。また、NERタスクではCoNLLデータセットではすべてのモデルが高い精度を示しましたが、WNUT17データセットでは精度が著しく低下しました。さらに、カスタムアーキテクチャを使用した探索では、特定の制約条件下で最適なモデルを選択することや剪定されたアーキテクチャにおける精度とサイズのトレードオフなどが明らかになりました。
統計
ハードウェアプラットフォーム:Raspberry Pi, Jetson Nano, UP2, UDOO Bolt
使用したBERT変種:BERT, RoBERTa, DistilBERT, TinyBERT
引用
"All models achieved decent F1 scores (>90%) for IC task."
"DistilBERT and TinyBERT struggled with the multi-label SC task as none achieved an F1 score of more than 15%."
"All BERT models excelled in the NER task on the CoNLL dataset and accurately recognized named entities (resulting in >90% F1 scores)."