核心概念
Ein Deep-Learning-basierter Optimierungsalgorithmus, der Akustiksignale kognitiv anpasst, um die Reichweite und Genauigkeit der Sensorik zu maximieren und gleichzeitig Frequenzverzerrungen, die die Musikwiedergabe beeinträchtigen könnten, zu minimieren.
要約
Die Studie befasst sich mit dem Problem, dass Lautsprecher in Mobilgeräten gleichzeitig für Musikwiedergabe und Akustiksensorik verwendet werden, was zu Überlastung und Verzerrungen führen kann. Um dies zu lösen, wird ein Deep-Learning-basierter Optimierungsalgorismus namens CoPlay vorgestellt, der:
Die Amplitude des Sensorsignals innerhalb der vom Musiksignal belegten Bandbreite maximiert, um die Reichweite und Genauigkeit der Sensorik zu optimieren.
Frequenzverzerrungen, die die Musikwiedergabe beeinträchtigen könnten, minimiert.
CoPlay wurde mit verschiedenen Arten von Sensorsignalen (Sinuswelle, FMCW-Chirp) und unterschiedlichen Musikarten (Klavier, Popmusik, Bass, Sprache) evaluiert. Die Ergebnisse zeigen, dass CoPlay die Leistung bei Atemüberwachung und Gestenerkennung auf dem Niveau ohne Musikinterferenz hält, während herkömmliche Methoden wie Clipping oder Skalierung die Leistung beeinträchtigen. Qualitative Studien zeigen auch, dass die Musikwiedergabe durch CoPlay nicht beeinträchtigt wird.
統計
Die Amplitude des gemischten Signals (Sensorsignal + Musik) sollte möglichst nahe am maximalen zulässigen Wert liegen.
Die Differenz zwischen dem Frequenzspektrum des Originalsignals und des angepassten Signals sollte minimiert werden.
Bei FMCW-Chirps sollte die Varianz der Amplituden in den Frequenzbändern des Zielsignals minimiert werden.
引用
"Um diese beiden Ziele gleichzeitig zu erreichen, ist es schwierig, da eine einfache Skalierung der Signalamplitude im Zeitbereich zu Verzerrungen im Frequenzbereich führt."
"Daher ist ein Deep-Learning-Algorithmus erforderlich, um das Signal dynamisch zu skalieren, indem diese beiden Ziele als Optimierungsproblem formuliert werden."