Core Concepts
データ依存の境界を使用して、ドリフトする離散分布を学習する新しいアルゴリズムを提供します。
Abstract
この記事は、ドリフトする離散分布の学習に関する新しいアダプティブアルゴリズムに焦点を当てています。過去のサンプルから現在の分布を推定することが目的であり、統計誤差とドリフト誤差のトレードオフを解決します。従来の方法と比較して、本手法は任意のドリフトする離散分布に対応し、事前条件付けが不要です。また、データ依存の境界を使用して統計誤差を推定し、より厳密な境界を提供します。
Stats
ΛT (µ) .= 1/8ΛT (µ) − 1/4√T ≤ E∥µ − ˆµ∥TV ≤ ΛT (µ)
Φr(ˆµ[r]T) .= s∥ˆµ[r]T∥1/2r = 1/√r X i∈N qˆµ[r]T(i)
∆r .= maxt:0≤t<r∥µT − µT−t∥TV
Ωmin1≤r≤Trk/r + ∆r#!
O(ΛTk/r + ∆r)
O((νΔ)1/3)
O((k · Δ)1/3)
O(ΛTk/r)
O((k′/r))
Θ((k · Δ)1/3)
Quotes
"Learning with a drifting target concept." - Hanneke, S., Kanade, V., and Yang, L. (2015)
"The complexity of learning according to two models of a drifting environment." - Long, P. M. (1998)
"A theory of learning from different domains." - Ben-David, S., Blitzer, J., Crammer, K., Kulesza, A., Pereira, F., and Vaughan, J. W. (2010)