Dieser Artikel gibt einen Überblick über das Gebiet des winzigen maschinellen Lernens (TinyML). TinyML ermöglicht es, Maschinen-Lernmodelle auf Geräten mit extrem begrenzten Ressourcen wie Mikrocontrollern einzusetzen.
Der Artikel beginnt mit einer Einführung in die Herausforderungen von TinyML. Herkömmliche Modelle für mobile Geräte oder Cloud-Anwendungen lassen sich nicht direkt auf Mikrocontroller übertragen, da diese viel weniger Speicher und Rechenleistung haben. Stattdessen ist ein Co-Design von Algorithmus und System erforderlich.
Anschließend werden die vielfältigen Anwendungsmöglichkeiten von TinyML erläutert, z.B. in den Bereichen Gesundheitswesen, Wearables, Smart Homes, Mensch-Maschine-Schnittstellen, Fahrzeuge und Ökologie.
Der Hauptteil des Artikels gibt einen Überblick über den aktuellen Forschungsstand in den Bereichen TinyML-Inferenz und TinyML-Training. Es werden verschiedene Ansätze zur Modelloptimierung, Komprimierung und Beschleunigung auf Mikrocontrollern vorgestellt. Außerdem werden Systemplattformen wie CMSIS-NN, TinyEngine und TensorFlow Lite Micro diskutiert.
Abschließend wird das Konzept des System-Algorithmus-Co-Designs am Beispiel von MCUNet erläutert. MCUNet kombiniert eine automatisierte Suche nach effizienten neuronalen Netzwerkarchitekturen (TinyNAS) mit einem speziell entwickelten Inferenz-Framework (TinyEngine), um die Leistung auf Mikrocontrollern zu maximieren.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies