Core Concepts
深い減算混合モデルを学習し、表現するための新しい枠組みを提案します。
Abstract
混合モデルは複雑な分布をモデル化するために使用される。
伝統的な加法的混合モデルと比較して、減算混合モデルが効率的であることが示唆されている。
深い減算混合モデルは、構造化されたニューラルネットワークとして表現される確率回路の枠組みで学習および推論を行う。
NPC2sは、従来の加法的MMよりも指数関数的に表現力が高くなり得る。
INTRODUCTION
有限混合モデル(MMs)は確率的機械学習における主要な手法であり、複雑な分布を単純かつ優雅にモデル化する。
本稿では、深い減算混合モデル(NPC2s)の理論的貢献や実験結果に焦点を当てています。
SUBTRACTIVE MIXTURES VIA SQUARING
浅いNMMsから始めて、K個の単純な関数の非凸組み合わせを二乗して非負性を保証する方法を形式化します。
テンソライズされた構造分解可能回路の二乗操作によって、効率的かつ正確な推論が可能となります。
SQUARING DEEP MIXTURE MODELS
PCフレームワーク内で深いテンソライズ回路を扱います。これらはトラクタブル推論を可能にし、指数関数的なコンポーネント数をコンパクトにエンコードします。
EXPONENTIALLY SEPARATION OF NPC2S AND STRUCTURED MONOTONIC PCS
NPC2sが構造化単調PCよりも指数関数的に表現力が高くなり得ることが示唆されます。
Quotes
"Mixture models are traditionally represented and learned by adding several distributions as components."
"We investigate how to learn and perform inference on deep subtractive mixtures by squaring them."