Die Studie untersucht den Einfluss von Trainingseinstellungen und Lernparadigmen auf den Energieverbrauch von KI-Modellen. Dabei wurden zwei Anwendungsszenarien (Bilderkennung und Aktivitätserkennung) auf drei verschiedenen HPC-Hardwarekonfigurationen getestet.
Die Ergebnisse zeigen, dass die Wahl der Batchgröße den größten Einfluss auf den Energieverbrauch pro Epoche hat. Bei gleicher Genauigkeit können falsch konfigurierte Batchgrößen und Lernraten bis zu 5-mal mehr Energie verbrauchen als die optimale Konfiguration.
Beim Vortraining-Szenario wurde der Break-Even-Punkt berechnet, ab wann die Energieeinsparungen durch Wiederverwendung des Encoders die Energie für das Vortraining kompensieren. Je nach Hyperparameter-Konfiguration liegt dieser Punkt zwischen 2 und 40 Zyklen.
Beim Multi-Task-Lernen konnte der Energieverbrauch im Vergleich zum Training separater Modelle für jede Aufgabe um etwa 40% gesenkt werden, da die Klassifikatoren sich gegenseitig unterstützen und schneller konvergieren.
Die Ergebnisse zeigen, dass die Optimierung von Trainingseinstellungen und Lernparadigmen ein vielversprechender Ansatz ist, um den Energieverbrauch von KI-Systemen zu reduzieren, ohne die Modellleistung zu beeinträchtigen.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Dani... às arxiv.org 03-19-2024
https://arxiv.org/pdf/2401.01851.pdfPerguntas Mais Profundas