Core Concepts
本論文では、ガウシアン混合モデルと最適輸送に基づく新しい多源ドメイン適応フレームワークを提案する。提案手法は、効率的な線形計画問題の解法と、教師付き学習に適したモデル表現の2つの主要な利点を持つ。これに基づき、ガウシアン混合モデルの重心計算アルゴリズムと、2つの新しい多源ドメイン適応手法(GMM-WBT、GMM-DaDiL)を提案する。実験結果から、提案手法は従来手法に比べて高性能かつ高速であることが示された。
Abstract
本論文では、多源ドメイン適応(MSDA)問題に取り組む。MSDでは、複数の異なる(ラベル付きの)ソースドメインから知識を転移し、ラベルのない(ターゲット)ドメインの学習を行う。
提案手法の概要は以下の通り:
- ガウシアン混合モデル(GMM)とOT(最適輸送)の枠組みを用いて、GMM間のパラメータ写像手法を提案(定理1)
- GMM間のWasserstein重心計算アルゴリズムを提案(アルゴリズム1)
- GMM-WBTとGMM-DaDiLの2つの新しいMSDA手法を提案
- GMM-WBTは、ソースドメインのGMMの重心をターゲットドメインに写像することで、ターゲットのラベル付きGMMを得る
- GMM-DaDiLは、各ドメインをGMMの重心で表現するディクショナリー学習手法
提案手法の利点は以下の通り:
- OTの効率的な解法が可能
- 教師付き学習に適したGMMモデル表現
- 従来手法に比べて高速かつパラメータ数が少ない
実験では、画像分類とフォールト診断の4つのベンチマークで評価し、提案手法が従来手法を上回る性能を示した。
Stats
ソースドメインの平均パラメータmは、ターゲットドメインのGMM成分のパラメータの重み付き和で表現できる(式10)
ソースドメインの共分散パラメータsは、ターゲットドメインのGMM成分の共分散パラメータの重み付き和で表現できる(式10)
ソースドメインのラベルパラメータyは、ターゲットドメインのGMM成分のラベルパラメータの重み付き和で表現できる(式13)
Quotes
"OT between GMMs can be solved efficiently via linear programming."
"It provides a convenient model for supervised learning, especially classification, as components in the GMM can be associated with existing classes."