マハラノビスの距離の妥当性
はじめに
マハラノビスの距離は良く機械学習や統計でも使われています.ですが,なぜそれが使われているのか,
使って良いのかに言及がされている記事をあまり見たことがないので,今回書いてみることにしました.
マハラノビスの距離とは
Mahalanobisというインドの統計学者が開発した距離だそうです.
入力を,は期待値の推定量を表す.また,は共分散行列の推定量である.
このとき,
ととのマハラノビスの距離はと表されます.
もちろん期待値を求めるのが難しいという現実の問題での話なので,という推定量ではなく,
としてもマハラノビスの距離です.
マハラノビスの距離は,によって定まる超楕円体(hyperellipsoid)上の点を等距離とみなす距離尺度です.(以下に図を示す)
なぜマハラノビスの距離を使うのか
多変量正規分布を数式で書くと,
となり,が入力ベクトルが平均ベクトル,が分散共分散行列です.
これは何かというと, 分散共分散行列の逆数を固有値分解してマハラノビスの距離の式に代入すると,楕円方程式になることを意味しています。 なので,多変量正規分布はマハラノビスの距離を用いているので,楕円によって確率分布を表現しているとも言えると思います.
数式で表現すると*1,まず分散共分散行列の逆数を固有値分解します.
は固有ベクトル.はそれぞれ,正則行列の逆数,対角行列の逆数,正則行列の逆数となっています.
そしてその結果をマハラノビスの距離の分散共分散行列の逆数に代入します.
上の右辺の2次元のときを考えると以下になっており.
これは楕円方程式に一致します.
結論的には,多変量正規分布を仮定するときにマハラノビスの距離を用いている.
マハラノビスの距離を仮定するときは多変量正規分布を仮定していると言えると思います.
これはガウシアン混合モデル(GMM)にも使われているので,GMMも多変量正規分布を仮定していると言えると思います.
簡単ではありますが,以上となります.
*1:Machine Learning A Probabilistic Perspective Kevin P. Murphyの4.1.2より