EMアルゴリズムの基礎をまとめる
機械学習でよく用いられるEMアルゴリズム(expectation-maximization algorithm ; EM algorihm)を勉強していると,その目的あるいは用途として「観測変数と(観測できない)潜在変数がある確率モデルの尤度関数を最大化するパラメータを求める」と説明されている場合を目にします.よく用いられる応用としては正しそうですが,もう少し広いクラスにも適用可能かどうかという点にモヤモヤしてしまいました.また,対数尤度の更新毎の単調性の証明も知りたいと思いました.それらの点を含めた,確率モデルの具体例には踏み込まない抽象的なレイヤーにおけるEMアルゴリズムの基礎について,調べてまとめることにしました.
文献[1]がとてもわかりやすいのでそれをベースにしてまとめますが,類似の文献[2]も参考にしています.
=================================================================================
目次
0. 導入
1. 完全データと観測データ
2. EMアルゴリズム
3. 特別な場合の 関数
3.1. 完全データに欠損データがある場合
3.2. 完全データが独立同分布に従う確率変数の場合
4. 単調性と収束
5. EMアルゴリズムの別解釈
6. MAP推定への適用
[ 0. 導入 ]
EMアルゴリズムは確率分布のパラメータ の最尤推定値を探索するための手法です.
例を考えます.24時間の窓の外の気温 の発生確率は季節 に依存するとし,その確率分布 を既知とします. は観測できないが1日の平均気温 は観測可能で, を最大化する の最尤推定値 を推定したいものとします.この問題が求解困難な場合にEMアルゴリズムは役立ちます.観測可能なデータ が与えられた下での平均的に起こりうる の計算とそれを最大化する の探索を反復的に行います.このようにして が与えられた下での の最尤推定値 を探索します.
EMアルゴリズムは を最大化する を得ることを保証しませんが,いくつかの理論保証があります.
記号を準備します.
観測データ確率変数
完全データ確率変数
潜在データ確率変数
観測データ確率変数の実現値(観測できる)
完全データ確率変数の実現値(観測できない)
潜在データ確率変数の実現値(観測できない)
パラメータ空間
確率モデルのパラメータ
回目更新時の
観測データの確率モデル
完全データの確率モデル
の台 ; となるような の集合の閉包
の台 ; となるような の集合の閉包
カルバック・ライブラー情報量
の事前分布
閉包の定義は過去記事にあります.
[ 1. 完全データと観測データ ]
完全データ と観測データ の関係を決定論的な関数 で表現します.
(1.1)
例えば,集合 をその要素の平均に移す,ベクトル をその ノルムに写す,などの使い方が考えられますが,最も有名なのは,完全データ が観測データ と欠損データ(あるいは潜在データともいいます) の結合となる,すなわち,
(1.2.1)
(1.2.2)
となる場合です. は から単に を取り除く関数です.混合正規分布(Gaussian mixture model ; GMM)や隠れマルコフモデル(hidden Markov model ; HMM)を表現する場合に相当します.
後の章で示すEMアルゴリズムの単調性が成り立たなくなるので, が確率的な関数ではいけません.ただし, を確率変動項として となるような場合を扱えないということではなく,その方法は とすることです.
[ 2. EMアルゴリズム ]
最尤推定とは,対数尤度関数を最大化する の最尤推定値(maximum likelihood estimate ; MLE)を求めることです.
(2.1)
(2.2)
問題(2.2)を解くことが困難な場合に,EMアルゴリズムは有用かもしれません. の代わりに を用います.ただし は観測できないので を直接的に最大化できません.条件付き確率分布 は計算できるので,その分布についての期待値を最大化するという思想です.そのために以下の 関数を導入します.条件付き確率の定義(文献[3]にあります)を用います.
(2.3)
条件付き確率の定義
(1.1)
EMアルゴリズムは以下の6つのステップで構成されています.
---------------------------------------------------------------------------------------------------------------------
Step 1: 初期値 を設定する.
Step 2: と観測データ を用いて を計算する.
Step 3: を捨てる.
Step 4: Step 2で得た を用いて を準備する.
Step 5: を探索する.
Step 6: としてStep 2に戻る.
---------------------------------------------------------------------------------------------------------------------
Step 6について補足します.EMアルゴリズム収束基準は明確ではありません.標準的なものとして以下の2つがあります. は適当なノルムとします.
・ある について となるまで反復する.
・ある について となるまで反復する.
伝統的な記述に従うと以下となります.
---------------------------------------------------------------------------------------------------------------------
E-Step: を計算して を準備する.
M-Step: を計算する.
---------------------------------------------------------------------------------------------------------------------
[ 3. 特別な場合の 関数 ]
特別な場合の 関数について論じます.本章の結果はEMアルゴリズムを混合正規分布や隠れマルコフモデルに適用する場合に用います.
[ 3.1. 完全データに欠損データがある場合 ]
完全データ が(1.2.1), が(1.2.2)となるとき, 関数は以下のように完全データ を消去して欠損データ についての条件付き期待値に変形できます.
(3.1) (2.3)
(2.3)
(1.2.1)
[ 3.2. 完全データが独立同分布に従う確率変数の場合 ]
完全データ が独立同分布()に従う 個の確率変数 からなる場合を考えます.実現値 は 個の からなる直積集合 の要素,すなわち となります.確率モデルは について以下となります.
(3.2.1)
完全データと観測データの関係を以下とします.
(3.2.2)
命題 6.1.
以下が成り立つ.
(3.2.3)
証明.
初めに以下を示す.
(3.2.4) (1.1)
(3.2.1)
(3.2.2)
これを用いて次に以下を示す.
(3.2.5) 条件付き確率の定義
(3.2.4)
条件付き確率の定義
これを用いて最終的に以下を得る.
(3.2.6) (2.3)
(3.2.1)
(3.2.5)
(証明終わり)
[ 4. 単調性と収束 ]
はじめに以下の定理を示します.証明にはイェンゼンの不等式(Jensen's inequality)(過去記事にあります)と条件付き確率の定義を用います.途中の(※)では第1項のみが に依存していることに注意します.
定理 4.1.
証明.
(1.1)
イェンゼンの不等式
(2.3) (※)
定理の仮定
(1.1)
条件付き確率の定義
(※※)
(証明終わり)
EMアルゴリズムの単調性(monotonicity)は上の定理を用いて容易に示すことができます. は更新毎に単調増加し少なくとも最悪(最小)にはならないことを意味します.
Step 5
定理 4.1.
上に有界で単調増加な数列は収束する(文献[4]にあります)ので, が で上に有界であれば列 の収束は保証されます(このとき の有界性については何もいっていないので列 の収束は保証しません).
EMアルゴリズムにおける の一般的な収束定理は存在しません. と と初期値 に依存します.
[ 5. EMアルゴリズムの別解釈 ]
を台にもち密度が となる完全データの確率分布 と の関数 を以下のように定義します.密度 の確率分布を とします.
(5.1)
EMアルゴリズムは以下のように2つの最大化問題の反復として表現することもできます.カルバック・ライブラー情報量を最小化する確率分布 を探索し,その分布を用いて関数 を最大化する を探索します.
---------------------------------------------------------------------------------------------------------------------
Max Step 1: を計算する.
Max Step 2: を計算する.
---------------------------------------------------------------------------------------------------------------------
Max Step 1は2章のE-Stepと(ほぼ)同じであることを示します.
Max Step 2は2章のM-Stepと同じであることを示します.
Max Step 1
(2.3)
[ 6. MAP推定への適用 ]
EM アルゴリズムは最尤推定を行うアルゴリズムですが,MAP推定にも適用可能です.MAP推定とは,事後分布を最大化する のMAP推定値(maximum a posteriori estimate)を求めることです.ベイズの定理(文献[5]にあります)を用います.
(6.1)
ベイズの定理
(2.1)
MAP推定のためのEMアルゴリズムは以下となります.MAP E-Stepは2章のE-Stepと同じです.
---------------------------------------------------------------------------------------------------------------------
MAP E-Step: を計算して を準備する.
MAP M-Step: を計算する.
---------------------------------------------------------------------------------------------------------------------
以下の定理を示します.証明は定理 4.1.の証明とほぼ同じです.
定理 7.1.
で以下が成り立つ.
証明.
(※) に
定理の仮定
(※※)
(証明終わり)
MAP推定のためのEMアルゴリズムの単調性は上の定理を用いて容易に示すことができます. は更新毎に単調増加し少なくとも最悪(最小)にはならないことを意味します.
MAP M-Step
定理 7.1.
=================================================================================
以上,EMアルゴリズムの基礎をまとめました.
参考文献
[1] University of Washington Yihua Chen先生らによるノート https://vannevar.ece.uw.edu/techsite/papers/documents/UWEETR-2010-0002.pdf
[2] Google Research Maya R. Gupta先生らによるノート http://mayagupta.org/publications/EMbookGuptaChen2010.pdf
[3] Wikipedia Conditional probability のページ https://en.wikipedia.org/wiki/Conditional_probability
[4] Wikipedia Monotone convergence theorem のページ https://en.wikipedia.org/wiki/Monotone_convergence_theorem
[5] Wikipedia Bayes' theorem のページ https://en.wikipedia.org/wiki/Bayes%27_theorem