最尤推定

最尤推定(さいゆうすいてい、: maximum likelihood estimationという)や最尤法(さいゆうほう、: method of maximum likelihood)とは、統計学において、与えられたデータからそれが従う確率分布母数点推定する方法である。

X f ( X θ 0 ) θ ^ = arg max θ L ( θ X = x ) = arg max θ f ( X = x θ ) {\displaystyle {\begin{array}{lcl}X&\thicksim &f(X\mid \theta _{0})\\{\hat {\theta }}&=&\arg \max \limits _{\theta }L(\theta \mid X=x)=\arg \max \limits _{\theta }f(X=x\mid \theta )\end{array}}}

この方法はロナルド・フィッシャー1912年から1922年にかけて開発した。

観測されたデータからそれを生んだ母集団を説明しようとする際に広く用いられる。生物学では塩基アミノ酸配列のような分子データの置換に関する確率モデルに基づいて系統樹を作成する際に、一番尤もらしくデータを説明する樹形を選択するための有力な方法としても利用される。機械学習ではニューラルネットワーク(特に生成モデル)を学習する際に最尤推定(負の対数尤度最小化として定式化)が用いられる。

基本的理論

最尤推定が解く基本的な問題は「パラメータ θ {\displaystyle \theta } が不明な確率分布 f D {\displaystyle f_{D}} に従う母集団から標本が得られたとき、データを良く説明する良い θ {\displaystyle \theta } は何か」である。

ある母集団が確率分布関数 f D {\displaystyle f_{D}} と母数 θ {\displaystyle \theta } で表される離散確率分布 D {\displaystyle D} を従うとする。そこから n {\displaystyle n} 個の標本 X 1 , X 2 , . . . X n {\displaystyle X_{1},X_{2},...X_{n}} を取り出すことを考えよう。すると分布関数から、観察されたデータ(標本)が得られる確率を次のように計算できる(離散分布はP=f):

P ( x 1 , x 2 , , x n θ ) = f D ( x 1 , , x n θ ) {\displaystyle \mathbb {P} (x_{1},x_{2},\dots ,x_{n}\mid \theta )=f_{D}(x_{1},\dots ,x_{n}\mid \theta )}

このとき、母集団分布 D {\displaystyle D} の形(確率分布 f D {\displaystyle f_{D}} )はわかっているが母数 θ {\displaystyle \theta } は不明な場合、どうしたら θ {\displaystyle \theta } を良く推定できるか?利用できる情報はこの母集団から得られた n {\displaystyle n} 個の標本 X 1 , X 2 , . . . X n {\displaystyle X_{1},X_{2},...X_{n}} である。

最尤法では 、 θ {\displaystyle \theta } を仮定したときに今回サンプリングされた標本が得られる確率に着目する。すなわち上記にある、母数 θ {\displaystyle \theta } で条件付けられた確率Pに着目する。異なる θ {\displaystyle \theta } θ a {\displaystyle \theta _{a}} θ b {\displaystyle \theta _{b}} )を仮定して P θ a < P θ b {\displaystyle P_{\theta _{a}}<P_{\theta _{b}}} だった場合、これは何を意味するか? 例えばコイン振りの表確率 θ {\displaystyle \theta } θ a = 0.01 {\displaystyle \theta _{a}=0.01} θ b = 0.5 {\displaystyle \theta _{b}=0.5} と仮定し、実際の標本が(表・表・表・表・裏)となって P ( x θ = 0.01 ) = 0.000...9 {\displaystyle \mathbb {P} (x\mid \theta =0.01)=0.000...9} P ( x θ = 0.5 ) = 0.03125 {\displaystyle \mathbb {P} (x\mid \theta =0.5)=0.03125} P θ a << P θ b {\displaystyle P_{\theta _{a}}<<P_{\theta _{b}}} )だった場合、これは何を意味するか?

直感的には「 θ b = 0.5 {\displaystyle \theta _{b}=0.5} の方がそれっぽい」と考えられる。すなわち2つの θ {\displaystyle \theta } を仮定したとき、片方ではほぼあり得ない現象が起きたことになり、もう片方ではまぁありうる確率の現象が起きたと考えられるので、より P ( x θ ) {\displaystyle \mathbb {P} (x\mid \theta )} が大きい方が尤もらしい推定しているのである。もちろん奇跡的に稀な表が続いた( θ a = 0.01 {\displaystyle \theta _{a}=0.01} である)可能性もありうるが、より尤もらしいのはより起きやすい現象であろう、という論理が最尤推定の根底にある論理である(「起きやすい現象が起きた」と「起きづらい現象が起きた」なら前者と考えるのが合理的、という論理)。

このような論理に基づき、母数 θ {\displaystyle \theta } の一番尤もらしい値を探す( θ {\displaystyle \theta } のすべての可能な値の中から、観察された標本の P ( x θ ) {\displaystyle \mathbb {P} (x\mid \theta )} 大にするものを探す)方法が最尤推定である。これは他の推定量を求める方法と対照的である。たとえば θ {\displaystyle \theta } 不偏推定量は、 θ {\displaystyle \theta } を過大評価することも過小評価することもないが、必ずしも一番尤もらしい値を与えるとは限らない。 尤度関数を次のように定義する:

L ( θ ) = f D ( x 1 , , x n θ ) {\displaystyle L(\theta )=f_{D}(x_{1},\dots ,x_{n}\mid \theta )}

この関数を母数 θ {\displaystyle \theta } のすべての可能な値から見て最大になるようにする。そのような値 θ ^ {\displaystyle {\hat {\theta }}} を母数 θ {\displaystyle \theta } に対する最尤推定量(さいゆうすいていりょう、maximum likelihood estimator、これもMLEと略す)という。最尤推定量は(適当な仮定の下では)しばしば尤度方程式(ゆうどほうていしき、likelihood equation)

θ log L ( θ ) = 0 {\displaystyle {\frac {\partial }{\partial \theta }}\log L(\theta )=0}

の解として求められる。

注意

  • 尤度は θ {\displaystyle \theta } を変数とし x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} を定数とする関数である。
  • 最尤推定量は唯一ではないこともあるし、存在しないことさえある[1]
  • f D {\displaystyle f_{D}} を離散確率分布関数でなく確率密度関数として考えれば、上の定義は連続確率分布にも当てはまる。

尤度の解釈

尤度 P ( x θ ) {\displaystyle \mathbb {P} (x\mid \theta )} は条件付確率の定義から「 θ {\displaystyle \theta } を仮定したときに今回サンプリングされた標本が得られる確率」である。「観測データから求まる、パラメータが θ {\displaystyle \theta } である確率」では決してない。それは事後確率 P ( θ x ) {\displaystyle \mathbb {P} (\theta \mid x)} である。

よって尤度最大の θ {\displaystyle \theta } を求める最尤推定は「パラメータが θ {\displaystyle \theta } である確率をデータから最大化する統計的推論手法」ではない。起きやすい現象が起きた場合が最も尤もらしいという考えに基づいて、尤度を最大化する θ {\displaystyle \theta } を母集団の推定値とする手法が最尤推定である。

他手法との関係性

MAP推定

最尤推定は最大事後確率推定MAP推定)の特殊例とみなせる。ベイズの定理より P ( θ x ) L ( θ x ) P ( θ ) {\displaystyle \mathbb {P} (\theta \mid x)\sim \mathbb {L} (\theta \mid x)\cdot \mathbb {P} (\theta )} は常に成り立ちここで P ( θ ) {\displaystyle \mathbb {P} (\theta )} 一様分布と仮定すると、 P ( θ x ) L ( θ x ) {\displaystyle \mathbb {P} (\theta \mid x)\sim \mathbb {L} (\theta \mid x)} となってこの最大値推定量はMLEと一致する(c.f. 計量経済学)。

離散分布で、母数が離散的かつ有限の場合

以下、コインを投げて表・裏(あるいは成功・失敗:その確率は0.5とは限らない)のいずれが出るかを見る場合(ベルヌーイ試行)を例にとる。

箱の中に3つのコインがあるとしよう。見た目では全く区別がつかないが、表の出る確率 p {\displaystyle p} が、それぞれ p = 1 / 3 {\displaystyle p=1/3} p = 1 / 2 {\displaystyle p=1/2} p = 2 / 3 {\displaystyle p=2/3} である。( p {\displaystyle p} が、上で θ {\displaystyle \theta } と書いた母数にあたる)。箱の中から適当に1つ選んだコインを80回投げ、 x 1 = H {\displaystyle x_{1}={\mbox{H}}} x 2 = T {\displaystyle x_{2}={\mbox{T}}} {\displaystyle \ldots } x 80 = T {\displaystyle x_{80}={\mbox{T}}} のようにサンプリングし、表(H)の観察された回数を数えたところ、表(H)が49回、裏が31回であった。さて、投げたコインがどのコインであったと考えるのが一番尤もらしいか? 一番尤もらしいコイン(すなわち、一番尤もらしい p {\displaystyle p} の値)を推定するためには、次のように尤度を計算する:

P ( 49H/80 p = 1 / 3 ) = ( 80 49 ) ( 1 / 3 ) 49 ( 1 1 / 3 ) 31 = 0.000 P ( 49H/80 p = 1 / 2 ) = ( 80 49 ) ( 1 / 2 ) 49 ( 1 1 / 2 ) 31 = 0.012 P ( 49H/80 p = 2 / 3 ) = ( 80 49 ) ( 2 / 3 ) 49 ( 1 2 / 3 ) 31 = 0.054 {\displaystyle {\begin{matrix}\mathbb {P} ({\mbox{49H/80}}\mid p=1/3)&=&{\binom {80}{49}}(1/3)^{49}(1-1/3)^{31}=0.000\\&&\\\mathbb {P} ({\mbox{49H/80}}\mid p=1/2)&=&{\binom {80}{49}}(1/2)^{49}(1-1/2)^{31}=0.012\\&&\\\mathbb {P} ({\mbox{49H/80}}\mid p=2/3)&=&{\binom {80}{49}}(2/3)^{49}(1-2/3)^{31}=0.054\\\end{matrix}}}

こうして母数 p ^ = 2 / 3 {\displaystyle {\hat {p}}=2/3} によって尤度が最大となることがわかり、これが p {\displaystyle p} に対する最尤推定量である。

離散分布で、母数が連続的な場合

こんどは上の例での箱に入っているコインの数は無限であると仮定する。それぞれがすべての可能な 0 p 1 {\displaystyle 0\leq p\leq 1} の値をとるとする。するとすべての可能な 0 p 1 {\displaystyle 0\leq p\leq 1} の値に対して次の尤度関数を最大化しなければならない:

L ( p ) = f D ( observe 49 HEADS out of 80 p ) = ( 80 49 ) p 49 ( 1 p ) 31 {\displaystyle {\begin{matrix}L(p)&=&f_{D}({\mbox{observe 49 HEADS out of 80}}\mid p)={\binom {80}{49}}p^{49}(1-p)^{31}\\\end{matrix}}}

この関数を最大化するには p {\displaystyle p} に関して微分しその値を0にすればよい:

0 = d d p ( ( 80 49 ) p 49 ( 1 p ) 31 ) 49 p 48 ( 1 p ) 31 31 p 49 ( 1 p ) 30 = p 48 ( 1 p ) 30 [ 49 ( 1 p ) 31 p ] {\displaystyle {\begin{matrix}0&=&{\frac {d}{dp}}\left({\binom {80}{49}}p^{49}(1-p)^{31}\right)\\&&\\&\propto &49p^{48}(1-p)^{31}-31p^{49}(1-p)^{30}\\&&\\&=&p^{48}(1-p)^{30}\left[49(1-p)-31p\right]\\\end{matrix}}}

これを解けば p = 0 {\displaystyle p=0} p = 1 {\displaystyle p=1} p = 49 / 80 {\displaystyle p=49/80} の3つの解が得られるが、そのうち尤度を最大化するのは明らかに p = 49 / 80 {\displaystyle p=49/80} である( p = 0 {\displaystyle p=0} p = 1 {\displaystyle p=1} では尤度は0になってしまう)。こうして p {\displaystyle p} に対する最尤推定量は p ^ = 49 / 80 {\displaystyle {\hat {p}}=49/80} と求められる。 この結果で、ベルヌーイ試行の成功数49を t {\displaystyle t} と置き、全回数80を n {\displaystyle n} と置けば一般化できる。 n {\displaystyle n} 回のベルヌーイ試行で t {\displaystyle t} 回成功した場合に対する母数 p {\displaystyle p} の最尤推定量は

p ^ = t n {\displaystyle {\hat {p}}={\frac {t}{n}}}

となる[2]

分布、母数とも連続的な場合

よく出てくる連続確率分布に、次の正規分布がある:

f ( x μ , σ 2 ) = 1 2 π σ 2 e ( x μ ) 2 2 σ 2 {\displaystyle f(x\mid \mu ,\sigma ^{2})={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}e^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}}}

この分布に従う n {\displaystyle n} 個の独立なランダム変数標本の密度関数は:

f ( x 1 , , x n μ , σ 2 ) = ( 1 2 π σ 2 ) n 2 e i = 1 n ( x i μ ) 2 2 σ 2 {\displaystyle f(x_{1},\ldots ,x_{n}\mid \mu ,\sigma ^{2})=\left({\frac {1}{2\pi \sigma ^{2}}}\right)^{\frac {n}{2}}e^{-{\frac {\sum _{i=1}^{n}(x_{i}-\mu )^{2}}{2\sigma ^{2}}}}}

また計算しやすいように書き換えると:

f ( x 1 , , x n μ , σ 2 ) = ( 1 2 π σ 2 ) n 2 e i = 1 n ( x i x ¯ ) 2 + n ( x ¯ μ ) 2 2 σ 2 {\displaystyle f(x_{1},\ldots ,x_{n}\mid \mu ,\sigma ^{2})=\left({\frac {1}{2\pi \sigma ^{2}}}\right)^{\frac {n}{2}}e^{-{\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}+n({\bar {x}}-\mu )^{2}}{2\sigma ^{2}}}}}

この分布には平均 μ {\displaystyle \mu } と分散 σ 2 {\displaystyle \sigma ^{2}} の2つの母数がある。上では1つの母数に対する最大化だけを議論したが、この場合も各母数に対して尤度 L ( μ , σ ) = f ( x 1 , , , x n μ , σ 2 ) {\displaystyle L(\mu ,\sigma )=f(x_{1},,\ldots ,x_{n}\mid \mu ,\sigma ^{2})} を最大化すればよい。上の書き方なら θ = ( μ , σ 2 ) {\displaystyle \theta =(\mu ,\sigma ^{2})} とする(このように母数が複数の場合は母数ベクトル[要曖昧さ回避]として扱う)。 尤度を最大にするのは、尤度の自然対数を最大にするのと同じである(自然対数は単調増加関数であるから)。このような計算法はいろいろな分野でよく利用され、対数尤度は情報エントロピーフィッシャー情報と密接な関係がある。

0 = μ log ( ( 1 2 π σ 2 ) n 2 e i = 1 n ( x i x ¯ ) 2 + n ( x ¯ μ ) 2 2 σ 2 ) = μ ( log ( 1 2 π σ 2 ) n 2 i = 1 n ( x i x ¯ ) 2 + n ( x ¯ μ ) 2 2 σ 2 ) = 0 2 n ( x ¯ μ ) 2 σ 2 {\displaystyle {\begin{matrix}0&=&{\frac {\partial }{\partial \mu }}\log \left(\left({\frac {1}{2\pi \sigma ^{2}}}\right)^{\frac {n}{2}}e^{-{\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}+n({\bar {x}}-\mu )^{2}}{2\sigma ^{2}}}}\right)\\&=&{\frac {\partial }{\partial \mu }}\left(\log \left({\frac {1}{2\pi \sigma ^{2}}}\right)^{\frac {n}{2}}-{\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}+n({\bar {x}}-\mu )^{2}}{2\sigma ^{2}}}\right)\\&=&0-{\frac {-2n({\bar {x}}-\mu )}{2\sigma ^{2}}}\\\end{matrix}}}

これを解くと μ ^ = x ¯ = i = 1 n x i / n {\displaystyle {\hat {\mu }}={\bar {x}}=\sum _{i=1}^{n}x_{i}/n} となる。これはまさに関数の最大値、すなわち μ {\displaystyle \mu } の唯一の極値で、2次微分は負となる。 同様に、 σ {\displaystyle \sigma } に関して微分し0とおけば尤度の最大値 σ ^ 2 = i = 1 n ( x i μ ^ ) 2 / n {\displaystyle {\hat {\sigma }}^{2}=\sum _{i=1}^{n}(x_{i}-{\hat {\mu }})^{2}/n} が得られる。 つまり、正規分布の母数 θ = ( μ , σ 2 ) {\displaystyle \theta =(\mu ,\sigma ^{2})} に対する最尤推定量は

θ ^ = ( μ ^ , σ ^ 2 ) = ( x ¯ , i = 1 n ( x i x ¯ ) 2 / n ) {\displaystyle {\hat {\theta }}=({\hat {\mu }},{\hat {\sigma }}^{2})=({\bar {x}},\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}/n)}

となる[2]

定式化

生物の系統推定への応用

最尤法は生物の分子系統推定(分子系統樹作成)にも応用される。系統推定における最尤法は、塩基やアミノ酸配列の置換に関する確率モデルを仮定した上で、想定される樹形ごとに手持ちのデータ(配列の多重アラインメント)が得られる尤度を求め、最も尤度の高い樹形を採用する方法である[3]

最大節約法距離行列法と比較して正確性の高い樹形が得られるとされるが、使用する進化モデルを変更すると系統解析の結果が大きく変化する場合がある[3]。また、系統樹の枝(解析の対象とする生物の系統)ごとの進化速度が異なる場合、枝長(形質状態の遷移回数)の見積もりを誤って不正確な系統樹を導く場合もある[4]。さらに、最大節約法やベイズ法と比較して計算速度も遅い[5]。こうした欠点はソフトウェアやアルゴリズムの改良により徐々に解消されつつある[4]

2021年時点では最も広く分子系統解析に使用されている系統推定法である[4]。最尤法を用いる代表的な系統推定ソフトウェアにはPAUP*(英語版)やTreefinderおよびRAxMLがある[5]

理論的妥当性

最尤推定の統計的推論としての最終目標は、手元の限られたデータ(標本)から真の母集団分布を得ることである。しかし一般に真の母集団分布は観測できず、ゆえに最尤推定された統計モデルが「正しいか」(真の母集団分布と一致するか)は検証が不可能である。人間にできることは推定されたモデルと真の分布のずれ(誤差)がどのように統計的に振る舞うかを検証することだけである(詳しくは汎化誤差)[6]

最尤推定そのものはあくまで、仮定された分布と観測されたデータから得られる尤度を最大化するパラメータを求める方法論である。最尤推定の枠組みは「常に真の分布と一致した分布を得られる」とは主張していないし「最尤推定を用いることが真の分布へ近い分布を得る唯一最良の方法である」とも主張していない。

これらの疑問点は汎化誤差をはじめとする研究によって検証される。

脚注

  1. ^ Romano & Siegel 1986, p. 182.
  2. ^ a b Lehmann & Casella 1998, p. 445.
  3. ^ a b 隈啓一、加藤和貴「実践的系統樹推定方法」『化学と生物』第44巻第3号、2006年、185-191頁、doi:10.1271/kagakutoseibutsu1962.44.185。 閲覧は自由
  4. ^ a b c 松井求「分子系統解析の最前線」『JSBi Bioinformatics Review』第2巻第1号、2021年、30-57頁、doi:10.11234/jsbibr.2021.7。 オープンアクセス
  5. ^ a b 三中信宏「分子系統学:最近の進歩と今後の展望」『植物防疫』第63巻第3号、2009年、192-196頁。 
  6. ^ 渡辺澄夫. “ベイズ推論:いつも何度でも尋ねられること”. 渡辺澄夫. 東京工業大学. 2019年8月1日閲覧。

参考文献

  • Lehmann, E. L.; Casella, Geoge (1998). Theory of point estimation (Second ed.). Springer. ISBN 0-387-98502-6. http://bayanbox.ir/view/7633357479825685143/Theory-of-point-estimation.-2nd-edition.pdf 
  • Romano, Joseph P.; Siegel, Andrew F. (1986). Counterexamples in Probability And Statistics. Chapman & Hall/CRC, Taylor & Francis Group. ISBN 978-0412989018. https://books.google.com/books?id=irKSXZ7kKFgC&pg=PA182 

関連項目

標本調査
要約統計量
連続確率分布
位置
分散
モーメント
カテゴリデータ
推計統計学
仮説検定
パラメトリック
ノンパラメトリック
その他
区間推定
モデル選択基準
その他
ベイズ統計学
確率
その他
相関
モデル
回帰
線形
非線形
時系列
分類
線形
二次
非線形
その他
教師なし学習
クラスタリング
密度推定(英語版)
その他
統計図表
生存分析
歴史
  • 統計学の創始者
  • 確率論と統計学の歩み
応用
出版物
  • 統計学に関する学術誌一覧
  • 重要な出版物
全般
その他
カテゴリ カテゴリ