勉強を進めていて,機械学習であつかう基本的な問題の一つである二値分類(binary classification)の数理について知りました.性能のよい分類器とはどのようなものかを考えるという内容で,具体的には,ベイズ分類器,経験損失最小化,超過損失とくに推定誤差の確率的な評価,などです.本記事ではそれらについて文献[1]のpp.1-16をベースにしてまとめることにしました.
=================================================================================
[ 1.1 二値分類問題の設定とベイズ分類器 ]
(真の)同時確率分布 に従う確率変数の組 のそれぞれ独立な 個の実現値の列(訓練データ) を観測するとします. はラベル(label)という変数であり, 変数 は問題の特徴(feature)を表します.本記事では と考えて差し支えありません.二値分類の目的は,訓練データ のみを用いて,特徴 からラベル を予測する分類器(classifer)という関数 を構成することです.すべての からなる集合を とします.
同時確率分布 の についての周辺分布を とし, が与えられた下での の条件付き確率変数 はベルヌーイ分布(文献[5]にあります)に従うとします. を回帰関数(regression function)といいます.
(1.1.1)
(1.1.2)
ベイズ分類器(Bays classifier)を定義します. は が真のとき ,そうでないとき となる関数とします.
定義 1.1.1. が与えられた下での のベイズ分類器 は以下の関数である.
(1.1.3)
ベイズ分類器は が既知,すなわち の確率分布(1.1.1)(1.1.2)が既知ならば構成できます. ならば が正しい予測となりそうであると考えます. のとき は について何の情報も含んでいないといえます.
分類器 の性能評価を行う指標として,分類誤差(classification error) と超過損失(excess risk) を以下で定義します. をベイズ損失(Bayes risk)といいます.
(1.1.4)
(1.1.5)
次の定理はベイズ分類器が分類誤差について最適,いいかえると分類誤差を最小にする分類器であることを主張しています.
定理 1.1.2. 任意の分類器 について以下が成り立つ.
(1.1.6)
また以下が成り立つ.
(1.1.7) (1.1.4)
(1.1.6)証明.
省略.文献[1]参照.
この定理からわかることをまとめます.
- (1.1.6)より を と類似する性質をもつように構成することで,超過損失を小さくすることができます.
- (1.1.7)よりすべての について のとき となり,ある について のとき となることがわかります.
- (1.1.7)より が成り立つための必要十分条件はほとんど確実に(almost surely) が成り立つことです.すなわちベイズ損失がその最大値 をとるのは が について何の情報も含まないとき,またそのときに限ります.
- (1.1.6)より超過損失 は が からどの程度はなれているか(を意味する非積分関数)を となる の領域で重みをつけることがわかります.(1.1.7)より が に近い値をとるとき,ベイズ分類器はうまく機能せずベイズ損失は大きくなり,超過損失は小さくなります.これは困難な二値分類問題です. が に遠い値をとるとき,ベイズ分類器はうまく機能しベイズ損失は小さくなり,その他の分類器により重いペナルティを課し超過損失は大きくなります.これは簡単な二値分類問題です.
本節では,二値分類問題を設定し,その評価指標として分類誤差を導入しました.また,真の同時確率分布が既知のときに定義できるベイズ分類器が,分類誤差を最小にする分類器であることを述べました.
[ 1.2 経験損失による分類誤差の近似と経験損失最小化 ]
前節の議論は同時確率分布を既知としその性質を扱っているという意味で確率論的ですが,現実には真の同時確率分布 は未知です.すなわち回帰関数 が未知なのでベイズ分類器 を計算できず, についてのいくらか(すべてではない)の情報を含む独立同分布()の実現値の列(訓練データ) のみ利用できます.したがって統計学的な観点から考えていきます.
(1.1.4)より は未知の同時確率分布 に依存するので同じく未知です.したがって を以下の経験損失(empirical risk)で近似することを考えます.
定義 1.2.1. 以下の を分類器 の経験損失という.
(1.2.1)
この定義より
(1.2.2)
(1.1.4)
を得るので, は の不偏推定量(unbiased estimator)です.さらに,任意の について,対数の強法則より以下が成り立ちます,すなわち が十分大きいとき は に概収束します.
(1.2.3)
から構成する分類器を とします.この分類器は の関数であるという意味と確率変数である訓練データ に依存するという意味で確率変数です.次節以降でこの分類器を に依存する(積分するので には依存しません)確率変数 で評価することになるのですが,確率変数なのでその期待値や分位数(高い確率で起こりうる点)を考えることになります.
ベイズ分類器 に類似するものを構成するために経験損失(1.2.1)を用いることを考えます.経験損失最小化(empirical risk minimization; ERM)を達成する分類器である経験損失最小解(empirical risk minimizer)を以下で定義します.
(1.2.4)
これは以下のように容易に構成できます.
(1.2.5)
明らかにこの分類器は を実現しています.一方で,訓練データに含まれない(訓練データと同一でない)任意の をすべてラベル であると予測するという明かな問題があり, は小さくなりそうもありません,すなわち汎化性能が低いといえます.
このように分類器を訓練データに完全に適合させることで経験損失をどのような訓練データに対しても最小化可能( にできる)であるので,すべての分類器を対象として経験損失を最小化することは実用的ではありません.それゆえ対象をある分類器の集合 に制限する必要があります.
定義 1.2.2. 上の経験損失最小解は以下である.
(1.2.6)
はすべての分類器からなる集合 に含まれますが, はベイズ損失 に近い値となってほしいので, が小さすぎてもいけません.次節ではこのトレードオフを定量化するための道具を導入します.
本節では,分類誤差の(概収束の意味での)近似である経験損失を定義し,それが不偏推定量でもあることを示しました.また,汎化性能を向上するためには,経験損失を最小化する分類器を見つける際に対象となる分類器の集合を制限する必要があることを述べました.
[ 1.3 超過損失のトレードオフ : 推定と近似 ]
が与えられた下で分類誤差 を最小化する分類器をオラクル(oracle)といい以下で定義します.真の同時確率分布は未知なので訓練データからオラクルを決定することはできません.
(1.3.1)
超過損失(1.1.5)について以下を得ます.
(1.3.2)
(1.3.1)
(1.2.6)
2,3,4行目の第二項は近似誤差(approximation error)といいます. に含まれる分類器がどの程度ベイズ分類器 を近似しているかを意味し, を固定したときその に固有のものであり改善のしようがありません.
2,3,4行目の第一項は推定誤差(estimation error)といいます.分類誤差 ではなく経験損失 を最小化することの効果がどの程度かを意味します.これは(経験損失は分類誤差に概収束することから)サンプル数 は有限なので同時確率分布 の情報は部分的にしかわからないことによります.推定誤差は に依存し,(1.2.3)を考慮すると とすればこの推定誤差が となる,すなわち が( に制限した下での)最良の性能をもつ分類器となることが望ましいです.しかしノーフリーランチ定理より, ならばそれは成り立ちません(文献[3]が参考になります).それゆえ推定誤差を小さくするためには を小さくとる必要がありますが,このとき近似誤差は大きくなる,すなわち に近い機能をもつ分類器をみつけにくくなります.次節の目標は と の(大きさの)関数としての推定誤差をどのように にするかを理解することです.
ノーフリーランチ定理は以下の過去記事にもあります.
二値分類におけるノーフリーランチ定理を証明する - エンジニアを目指す浪人のブログ
本節では,分類誤差を最小にする分類器であるオラクルを導入しました.また,超過損失が推定誤差と近似誤差に分解され,それらは候補となる分類器の集合の大小についてトレードオフの関係にあることを述べました.
[ 1.4 オラクル不等式 ]
オラクル不等式とは推定誤差をある値で抑えることを意味する以下のような不等式のことです.
(1.4.1)
が数少ない からなるとき, の性能は低下し は大きくなりますが,( は小さくなり) は のよい近似になるかもしれません(すぐわかるように がただ一つの関数のとき となり です).一方で, が数多くの からなるとき, の性能は向上し は小さくなりますが,( は大きくなり) による の統計学的な近似はより困難となります,いいかえると,同じ性能を達成するためにより多くのサンプルが必要です.以下ではこれらのことを具体的に数式で考えていきます.
は確率変数なので,実際には以下のような期待値あるいは確率分布の裾を評価する不等式を証明する必要があります. はサンプル数 と信頼水準 に依存する の関数です.
(1.4.2)
(1.4.3)
が有限個の分類器からなる,すなわち とし, と が変化する場合のこれら不等式のふるまいを考えます.以下の定理は,一般に は よりもよい性能となることは望めないけれども,サンプル数 が分類器の候補の数 と比較して十分小さくなる場合を除けば分類誤差の差はそれほど大きくならないことを主張しています.またその場合,分類誤差と経験損失の差(の絶対値)もそれほど大きくならないことが証明からわかります.定理の証明で用いる Jensen's inequality は文献[6]にあります.Hoeffding's lemma と Hoeffding's inequality は以下の過去記事にあります.
いくつかの集中不等式(Hoeffding's Inequalityなど)を証明する - エンジニアを目指す浪人のブログ
定理 1.4.1. のとき,経験損失最小解 について以下が成り立つ. とする.
証明.
オラクル不等式について以下を得る.これは定理の前半と後半両方の証明に用いる.
(1.2.2)
(※)
これを用いて以下を得る.
(※)
Hoeffding's inequality
したがって以下を得ることができ,定理の前半を示せた.
定理の後半の証明に進む.
Jensen's inequality
(1.2.2)
Hoeffding's lemma
とする
(※※)
(※)の期待値をとったものを考えると
(※)
(※※)
となり,定理の後半が示せた.(証明終わり)
本節では,推定誤差をある値で抑えることを意味するオラクル不等式が,サンプル数と(有限個の)分類器の候補の数にどのように依存するのかということを確率的な評価の観点で述べました.
=================================================================================
以上,二値分類の数理(ベイズ分類器,経験損失最小化,超過損失とくに推定誤差の確率的な評価など)についてまとめました.
参考文献
[1] Massachusetts Institute of Technology Philippe Rigollet先生のノート https://ocw.mit.edu/courses/mathematics/18-657-mathematics-of-machine-learning-fall-2015/lecture-notes/MIT18_657F15_LecNote.pdf
[2] University of Michigan Clayton Scott先生のノート
http://web.eecs.umich.edu/~cscott/past_courses/eecs598w14/notes/01_prob_setting.pdf
http://web.eecs.umich.edu/~cscott/past_courses/eecs598w14/notes/02_bayes_classifier.pdf
http://web.eecs.umich.edu/~cscott/past_courses/eecs598w14/notes/03_hoeffding.pdf
http://web.eecs.umich.edu/~cscott/past_courses/eecs598w14/notes/04_erm.pdf
[3] Ben-Gurion University of the Negev Aryeh Kontorovich先生らのノート https://www.cs.bgu.ac.il/~inabd161/wiki.files/lecture3a_handouts.pdf
[4] Bottou, L. and Bousquet, O. (2008), The Tradeoffs of Large Scale Learning, Advances in Neural Information Processing Systems, NIPS Foundation (http://books.nips.cc), pp.161-168.
[5] Wikipedia Bernoulli distributionのページ https://en.wikipedia.org/wiki/Bernoulli_distribution
[6] Wikipedia Jensen's inequalityのページ https://en.wikipedia.org/wiki/Jensen%27s_inequality