Core Concepts
ログコンケーブ変数のエントロピーは指数関数型ランダム変数で最小化される。
Abstract
シャノンのエントロピーと物理学者による研究の歴史的背景を紹介。
ログコンケーブ変数における逆エントロピー不等式について述べられている。
定理1.1により、ログコンケーブランダム変数Xに対して特定の不等式が証明されている。
情報理論への応用やRényiエントロピーなども言及されている。
さまざまなアプリケーションや逆EPIについても議論が展開されている。
Stats
ログコンケーブランダム変数Xはh(X) ≥ 1/2 log Var(X) + 1を満たす。
Xがlog-concaveであれば、hα(X) ≥ 1/2 log Var(X) + log αも成立する。