Die Studie präsentiert einen neuartigen Ansatz, der modellgetriebenes tiefes Lernen mit binärer Quantisierung kombiniert, um den Kompromiss zwischen Kommunikationsaufwand und Erkennungsleistung in drahtlosen Sensornetzwerken (WSN) auszubalancieren.
Zunächst wird die untere Schranke der Erkennungsfehlerwahrscheinlichkeit für die verteilte Erkennung unter Verwendung des Maximum-A-Posteriori-Kriteriums (MAP) hergeleitet. Außerdem wird bewiesen, dass die Verwendung identischer lokaler Quantisierer über die Sensoren hinweg global optimal ist, da sie die entsprechende Chernoff-Information maximiert.
Anschließend wird die minimale MAP-Erkennungsfehlerwahrscheinlichkeit (MAPDEP) durch Implementierung identischer binärer probabilistischer Quantisierer über die Sensoren hergeleitet. Darüber hinaus wird die Äquivalenz zwischen der Verwendung aller quantisierten Daten und ihres Durchschnitts als Eingabe für den Detektor im Fusionszentrum (FC) nachgewiesen. Insbesondere wird die Kullback-Leibler-Divergenz (KL-Divergenz) hergeleitet, die den Unterschied zwischen der wahren Posteriorwahrscheinlichkeit und der Ausgabe des vorgeschlagenen Detektors misst.
Basierend auf der MAPDEP und der KL-Divergenz als Verlustfunktionen schlägt die Studie eine modellgetriebene Deep-Learning-Methode vor, um die Wahrscheinlichkeitssteuerungsmodule in den Quantisierern und die Detektormodule im FC separat zu trainieren.
Die numerischen Ergebnisse validieren die Konvergenz und Effektivität der vorgeschlagenen Methode, die bei Gaußscher Hypothesentestung eine nahezu optimale Leistung bei reduzierter Komplexität erreicht.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Wei Guo,Meng... a las arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00309.pdfConsultas más profundas