Die Studie untersucht den Einfluss von Trainingseinstellungen und Lernparadigmen auf den Energieverbrauch von KI-Modellen. Dabei wurden zwei Anwendungsszenarien (Bilderkennung und Aktivitätserkennung) auf drei verschiedenen HPC-Hardwarekonfigurationen getestet.
Die Ergebnisse zeigen, dass die Wahl der Batchgröße den größten Einfluss auf den Energieverbrauch pro Epoche hat. Bei gleicher Genauigkeit können falsch konfigurierte Batchgrößen und Lernraten bis zu 5-mal mehr Energie verbrauchen als die optimale Konfiguration.
Beim Vortraining-Szenario wurde der Break-Even-Punkt berechnet, ab wann die Energieeinsparungen durch Wiederverwendung des Encoders die Energie für das Vortraining kompensieren. Je nach Hyperparameter-Konfiguration liegt dieser Punkt zwischen 2 und 40 Zyklen.
Beim Multi-Task-Lernen konnte der Energieverbrauch im Vergleich zum Training separater Modelle für jede Aufgabe um etwa 40% gesenkt werden, da die Klassifikatoren sich gegenseitig unterstützen und schneller konvergieren.
Die Ergebnisse zeigen, dass die Optimierung von Trainingseinstellungen und Lernparadigmen ein vielversprechender Ansatz ist, um den Energieverbrauch von KI-Systemen zu reduzieren, ohne die Modellleistung zu beeinträchtigen.
翻譯成其他語言
從原文內容
arxiv.org
深入探究