Temel Kavramlar
Die Studie untersucht die Leistung von Transformer-Sprachmodellen auf eingebetteten Geräten und deren Anpassung an Ressourcenbeschränkungen.
Özet
Die Studie untersucht die Leistung von BERT-Modellen auf eingebetteten Systemen, insbesondere auf verschiedenen Hardwarekonfigurationen und Genauigkeitsanforderungen. Es wird festgestellt, dass komplexe NLP-Aufgaben auf eingebetteten Systemen durchführbar sind, auch ohne GPUs. Die Ergebnisse können Designern helfen, geeignete Modelle für die Zielplattform auszuwählen.
- Einführung in die natürliche Sprachverarbeitung und die Bedeutung von Sprachmodellen auf eingebetteten Geräten.
- Untersuchung der Leistung von BERT-Modellen auf verschiedenen eingebetteten Plattformen und Datensätzen.
- Erörterung von Herausforderungen und Forschungsfragen im Zusammenhang mit der Anpassung von Modellen an Ressourcenbeschränkungen.
İstatistikler
Transformer-basierte Sprachmodelle wie BERT, RoBERTa, DistilBERT und TinyBERT werden untersucht.
Die Modelle wurden auf vier eingebetteten Plattformen (Raspberry Pi, Jetson, UP2 und UDOO) mit verschiedenen Speicherkonfigurationen getestet.
Die Studie untersucht die Leistung bei verschiedenen NLP-Aufgaben und Datensätzen.
Alıntılar
"Voice-controlled systems are becoming ubiquitous in many IoT-specific applications such as home/industrial automation, automotive infotainment, and healthcare."
"Our study finds that executing complex NLP tasks on embedded systems is feasible even without any GPUs."