Keskeiset käsitteet
Für log-konkave Zufallsvariablen mit fester Varianz ist die Shannon-Differentialentropie minimal für eine exponentielle Zufallsvariable.
Tiivistelmä
Der Artikel untersucht die Minimierung der Shannon-Differentialentropie für log-konkave Zufallsvariablen mit fester Varianz. Die Hauptergebnisse sind:
Es wird gezeigt, dass die Entropie für log-konkave Zufallsvariablen mit fester Varianz minimal ist, wenn die Zufallsvariable exponentialverteilt ist.
Dieses Ergebnis wird angewendet, um Schranken für die Kapazität von Kanälen mit additiven log-konkaven Rauschen herzuleiten. Außerdem werden Konstanten in der inversen Entropie-Leistungs-Ungleichung für log-konkave Zufallsvariablen verbessert.
Der Beweis erfolgt in mehreren Schritten: Zunächst wird gezeigt, dass es ohne Beschränkung der Allgemeinheit genügt, Dichten zu betrachten, die monoton fallend auf einem kompakten Intervall sind. Dann wird die Extremwertaufgabe auf Funktionen mit höchstens zwei affinen Stücken reduziert.
Schließlich wird die Positivität gewisser Polynome in den Parametern der Dichte nachgewiesen, um die optimale Ungleichung zu beweisen.
Tilastot
Für eine log-konkave Zufallsvariable X gilt:
Var(X) ≥ Var(X↓)
e2h(X) / Var(X) ≥ e2h(X↓) / Var(X↓)
Lainaukset
"Für log-konkave Zufallsvariablen mit fester Varianz ist die Shannon-Differentialentropie minimal für eine exponentielle Zufallsvariable."
"Die Entropie-Leistungs-Ungleichung von Shannon und Stam besagt, dass für unabhängige Zufallsvariablen X, Y gilt: N(X + Y) ≥ N(X) + N(Y)."