Dieser Artikel gibt einen Überblick über das Gebiet des winzigen maschinellen Lernens (TinyML). TinyML ermöglicht es, Maschinen-Lernmodelle auf Geräten mit extrem begrenzten Ressourcen wie Mikrocontrollern einzusetzen.
Der Artikel beginnt mit einer Einführung in die Herausforderungen von TinyML. Herkömmliche Modelle für mobile Geräte oder Cloud-Anwendungen lassen sich nicht direkt auf Mikrocontroller übertragen, da diese viel weniger Speicher und Rechenleistung haben. Stattdessen ist ein Co-Design von Algorithmus und System erforderlich.
Anschließend werden die vielfältigen Anwendungsmöglichkeiten von TinyML erläutert, z.B. in den Bereichen Gesundheitswesen, Wearables, Smart Homes, Mensch-Maschine-Schnittstellen, Fahrzeuge und Ökologie.
Der Hauptteil des Artikels gibt einen Überblick über den aktuellen Forschungsstand in den Bereichen TinyML-Inferenz und TinyML-Training. Es werden verschiedene Ansätze zur Modelloptimierung, Komprimierung und Beschleunigung auf Mikrocontrollern vorgestellt. Außerdem werden Systemplattformen wie CMSIS-NN, TinyEngine und TensorFlow Lite Micro diskutiert.
Abschließend wird das Konzept des System-Algorithmus-Co-Designs am Beispiel von MCUNet erläutert. MCUNet kombiniert eine automatisierte Suche nach effizienten neuronalen Netzwerkarchitekturen (TinyNAS) mit einem speziell entwickelten Inferenz-Framework (TinyEngine), um die Leistung auf Mikrocontrollern zu maximieren.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Ji Lin,Ligen... lúc arxiv.org 03-29-2024
https://arxiv.org/pdf/2403.19076.pdfYêu cầu sâu hơn