Banerjee, S., Carbonetto, P., & Stephens, M. (2024). Gradient-based optimization for variational empirical Bayes multiple regression. arXiv preprint arXiv:2411.14570.
本研究は、大規模でスパースな多重回帰モデルに適した、より効率的でスケーラブルな変分経験ベイズ(VEB)推論のための新しい最適化手法を開発することを目的とする。
本研究では、VEB回帰の目的関数をペナルティ付き回帰として表現できることを利用し、勾配ベースの最適化手法(準ニュートン法)を用いたGradVI(Gradient-based variational inference)を提案する。ペナルティ関数が閉形式で利用できないという課題に対して、数値逆変換と変数変換による2つの解決策を提示し、比較検討している。
シミュレーション実験とトレンドフィルタリングへの応用を通して、GradVIは従来の座標降下法(CAVI)と同等の予測精度を維持しながら、以下の点で優れていることが示された。
GradVIは、従来のCAVIに代わる効果的なVEB推論手法であり、特に大規模で高次元データの分析に適している。
本研究は、VEB推論における勾配ベース最適化の有用性を示し、大規模データ分析におけるベイズ的手法の適用範囲を広げるものである。
本研究では、主に正規混合事前分布を用いた場合のGradVIの性能を評価している。他の事前分布への適用や、より大規模なデータセットにおける性能評価は今後の課題である。
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Saikat Baner... às arxiv.org 11-25-2024
https://arxiv.org/pdf/2411.14570.pdfPerguntas Mais Profundas