要約
三种机器学习方法:贝叶斯方法、分布鲁棒优化方法和正则化方法,对抗分布不确定性。
贝叶斯方法在PAC意义上是分布鲁棒的。
正则化的经验风险最小化等效于贝叶斯方法。
机器学习模型的泛化错误可用于特征空间中的分布不确定性和模型的鲁棒度来刻画。
分析了三种方法在统一框架下为何能够良好泛化。
数据驱动设置下,Dirichlet-process先验可用于构建贝叶斯模型或正则化模型。
学习模型中的数据增强技术等效于正则化技术,提高了模型的稳健性和灵敏度。
統計
Bayesian methods are distributionally robust in the probably approximately correct (PAC) sense.
Regularized empirical risk minimization method is equivalent to a Bayesian method.