#統計

「ベイズだとサンプルサイズ設計は必要ない」とか「尤度原理に基くベイズ統計ならp-hackingのような問題は生じない」とか、危険なことを言う人達がいて頭が痛い。

ベイズ統計は魔法じゃない。

そういうおかしなことを言う人達は無視して、尤度函数を地道にプロットして遊ぶ方が有益😊
#統計 仮にデータを生成している真の確率法則が決まっていても、データは確率的に揺らぎます。データが運悪く偏っているリスクが常にある。

データを生成している真の確率法則がないとか決まっていないなら、もっと状況は悪くなる。データが何の情報を拾っているのか自体を明瞭にしないとダメ。
#統計 添付画像は標準正規分布のサイズ10のサンプル(←確率的に揺らぐ)に関する正規分布モデルの尤度函数のプロット。中央のシアンのドットは標準正規分布の平均と標準偏差。

ランダムに生成されたサンプル(データ)ごとに異なる尤度函数が得られる。

gist.github.com/genkuroki/8a5b…
#統計 尤度函数を最大化するパラメータを求めるのが最尤法で、ベイズ統計では尤度函数に事前分布をかけて正規化して得られる事後分布を使う。

尤度函数のプロットはフラット事前分布の事後分布のプロットだとみなせます。

尤度函数のプロットは最尤法やベイズ統計を学ぶときに最優先でやるべき。
#統計 確率的に揺らいでいるサンプル(=データ)の尤度函数の形を全然見たことがない人が最尤法やベイズ統計を勉強することは、算数レベルの整数の計算さえしたことがない人が整数論を勉強するようなもので、健全な理解は不可能になります。

百聞は一見に如かず。
#統計 特に、渡辺澄夫著『ベイズ統計の理論と方法』のような本を読むときには、とにかく最優先で尤度函数のプロット(=フラット事前分布の事後分布のプロット)をやってみるべきです。
#統計 添付画像はそれぞれサイズn=10, 40, 160の標準正規分布のサンプル(乱数列)に関する標準正規分布の尤度函数のプロットです。

nが大きくなると、尤度函数の台は小さくなり、標準正規分布の平均と標準偏差の真の値に近付きます。

#Julia言語 のソースコード
gist.github.com/genkuroki/8a5b…
#統計 添付画像は平均1(標準偏差1)の指数分布のサイズn=10, 40, 160のサンプル(乱数列)に関する正規分布モデルの尤度函数のプロットです。

データ=サンプルを生成する真の法則は指数分布なのですが、分析用のモデルは正規分布族の場合です。続く

ソースコード
gist.github.com/genkuroki/8a5b…
#統計 続き。初めて見た人は驚くかもしれませんが、データを生成する確率法則の指数分布と推測用のモデルの正規分布は全く異なる形をしているのに、尤度函数の台はnを大きくするとデータを生成した指数分布の平均と標準偏差に近付きます。

ちなみに平均1の指数分布の密度函数は添付画像の通り。
#統計 続き。最尤法でもベイズ統計でもそれらが使用可能な条件が満たされていれば、nを大きくすると推定結果は推定用のモデルの範囲内でデータを生成している真の確率法則を最もよく近似する分布に収束してくれます。

以上で紹介したプロットはその様子の特別な場合です。
#統計 正規分布モデルを使えば、たとえデータが指数分布で生成されていたとしても、サンプルサイズnを十分に大きくすれば平均と分散を正しく推定できます。

しかし~続く
#統計 しかし、nを大きくすれば、データを生成している真の法則が正規分布でないっぽいことはすぐに分かるでしょう。適切なモデルで推定した方が推定の誤差はずっと小さくなります。
#統計 正規分布モデルの最尤法は、最小二乗法の特別な場合になっており、最小二乗法は最良線形不偏推定(BLUE)という良い性質を持っているのですが、その本質は正規分布モデルであり、真の分布が正規分布からかけ離れているとベストから程遠い推定法になります。(「線形」という条件が強すぎ)
#統計 尤度函数のプロット=フラット事前分布での事後分布のプロットの経験を十分に積めば、データの確率的な揺らぎが推測結果をどのように変化させるかの感じがつかめて来る。

その後で最尤法やベイズ統計の詳細を学べば「すでに知っていること」を学んでいる感じになって非常に楽になると思います。
#統計 ベイズ統計は魔法じゃないについての最近の驚愕ネタ

【大本である分布族が対象を十全にモデル化していなければならない。この要請が満たされていなかったら~どうなるのか。実はその場合でも~ベイズ流の更新プロセスは最終的に真理へと到達しうる】(『統計学を哲学する』p.83)

😱😱😱😱😱
#統計 n→∞の極限においては正規分布モデルによって平均と標準偏差の真の値に到達できるのですが、「真の分布が実は指数分布であった」という真理には決して到達できません。正規分布モデルで推測しているのだから当たり前。

この辺の理解が最尤法やベイズ統計では最も基本的です。
#統計 へんてこな哲学もどきの議論に付き合う暇があったら、尤度函数をプロットして遊んでいた方がずっとましだと思います。
#統計 モデルが指数型分布族のようなシンプルなケースでは、n→大で尤度函数の台は丸くなり、尤度函数の形は単峰型になります。

しかし、そうでない場合もある。添付画像を参照!

ベイズ統計の技術を使う場合にはモデルを複雑にする場合が多いので要注意!

ソースコード↓
nbviewer.jupyter.org/gist/genkuroki…
#統計 1つ前のツイートの添付画像は所謂「特異モデル」直上の場合。

注意しなければいけないことは、特異モデル直上ではなく、正則モデルだが特異モデルに近い場合も有限のnではまるで特異モデルのように尤度函数が振る舞うことです。添付画像を参照。

nbviewer.jupyter.org/gist/genkuroki…
(Julia v0.6注意!)
#統計 得られるデータのサイズnで、尤度函数がまるで特異モデルのように振る舞う可能性がある場合には、尤度函数が単峰型になる場合にしか安全に使えない最尤法を使用するのは危ないということになります。

そういう場合には、細く広がった尤度函数全体の情報を使ってくれるベイズ統計が勝ります。
#統計 最尤法は尤度函数を最大化するパラメータを求める方法なので、尤度函数が単峰型になってn→大で尤度函数の台が縮小して行く場合に最尤法は非常に上手く行きます。

しかし、尤度函数が単峰型になってくれない場合は容易に現れます。最尤法は常に良い方法になるとは限らないのだ。
#統計 純粋に数学的には最尤法も適切な方法になる場合であっても、局所解の問題を回避しなければいけない場合には最尤法による推定も結構面倒です。
#統計 最尤法を使おうとしてもベイズ統計でMCMC法を使うのと同程度の手間がかかるなら、ベイズ統計を使った方が総合的には楽そうだと判断する人が多いと思う。

「主義」よりも、モデルの複雑さが原因の数学的理由で「ベイズ統計の方が楽」となっている場合が多いと思う。Stanユーザーは典型例。
#統計 尤度函数のプロットの経験があれば色々納得し易くなる。

「データサイエンス」と口走りながら、デフォルトのベイズ統計を「主観確率」の「ベイズ主義」によるものとし、モデル選択などのそれ以外の事柄をそこへの付け足しとして理解しようとすることは、合理的なStanユーザー達を無視する態度。
#統計 例を増やした。

#Julia言語 ソースコード↓
#統計 「特異モデル」直上の場合
#統計 「特異モデル」ではないが、それに近い場合

尤度函数がn=640でもまだ「特異モデル」っぽい形。

特異モデルになっていなくても、現実に得られるデータサイズでは「実質特異モデル」になっている可能性がある。
#統計 「特異モデル」からちょっと離れた場合

n=10では「特異モデル」っぽく見えるが、n=640では単峰型。

データサイズを大きくできると「解像度」が上がって、「特異モデルっぽい」という判断を「正則モデルである」に切り換えられる場合が出て来る。

統計的推測は本質的にデータサイズ依存。
#統計 こういう尤度函数の振る舞いの実例を1つも知らずに、渡辺澄夫著『ベイズ統計の理論と方法』を読んでも、数学的複雑さに負けて健全な理解に辿り着ける公算は極めて低いと思う。

推測統計学の勉強では「尤度函数のプロットをできるようになること」が最優先事項かもしれないと思った。
#統計 いきなりコンピュータで計算せずに、自分の手を動かしていれば、正規分布モデルの最尤法は「サンプルの平均と分散を計算するだけ」であることがすぐにわかるので、大数の法則から、データを生成している分布が正規分布でなくても、n→∞で真の平均と分散の推定に成功することが分かる。
#統計 指数型分布族一般で正規分布モデルと同様の計算がうまく行く。指数型分布族は極めて特殊。

最尤法の解は尤度函数の最大化点の位置情報に過ぎず、推定の収束の様子について豊富な情報を持っているはずの尤度函数全体の情報のほんの一部しかひろっていない。

だから尤度函数のプロットは重要。
#統計 尤度函数による要約によって、データを生成している確率法則と推測用に用意したモデルの組み合わせの情報を十分にひろえるのは、サンプルサイズnをn→∞とした場合のみ。

有限のnでは情報が抜け落ち、確実な推測は不可能になる。尤度函数の広がり具合がその程度を表しているとも考えられる。
#統計 上で見せたプロットでは、尤度函数のプロットのみを集めてあり、各々の尤度函数がどういうデータに対応するかまでは見せていない。

個人で遊ぶ場合にはその辺にもついても見るようにした方がよい。

データとモデルから尤度函数が決まる。その対応の様子になにがしかの直観がないとつらくなる。
#統計 尤度函数の理解については、以上で説明したような「繰り返しのプロットでどういう様子をしているかを見る」というようなことをすることが大事なのですが、ある種の統計学本には「尤度主義」「尤度原理」といったくだらない害にしかならない話が書いてある場合があるので要注意。
チョー算数問題における「しきの意味」に対応するものが、ある種の統計学文献の世界における「○○主義」だと思っておけば、分かり易いかもしれない。

地道な試行錯誤による理解を阻害するように「○○主義」が使われているように見えるのも同じ。

高等教育におけるチョー算数問題扱いが妥当。

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with 黒木玄 Gen Kuroki

黒木玄 Gen Kuroki Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @genkuroki

15 Nov
#統計 その引用はページ全体に拡張した方が意図がくみとり易いと思います。

x_1,…,x_nの平均は差の二乗和 Σ (x_i - a)² を最小にするaとして特徴付けられ、中央値(一般に一意に決まらない)は差の絶対値の和 Σ |x_i - a| を最小にするaとして特徴付けられます。

mext.go.jp/content/140707…
#統計 私が、正直、理解できないのは、

【データの分布が非対称形の場合】には【代表値として平均値より中央値のほうが適切】である

という主張。

全体の平均を知りたい場合には平均値を知りたいし、順位的に真ん中の値を知りたい場合には中央値を知りたい(トートロジー)なら理解できるが、~続く
#統計 続き~、【データの分布が非対称形の場合】に【代表値として平均値より中央値のほうが適切】であるという主張は理解できない。

分布の非対称性をどこで使っているの?

中央値には左右の非対称性をケアする機能はありません。
Read 18 tweets
14 Nov
#統計 「伝統的な統計学」について、Fisher's exact testに関わるゴタゴタもウンザリさせられるような事態になっている。

* 2×2の分割表のχ²検定はFisher検定の近似に過ぎないので、可能ならば正確なFisher検定の方を使うべきだ(特に度数が小さい場合には)。

このデタラメを他人に教える人が多過ぎ。
#統計 一応念のためため述べておきますが、私は統計学についてはど素人。

そして、数学に関係した事柄については「教科書に書いてある」とか「査読論文に書いてある」のような事実を正しいことの証拠に挙げる人達を常日頃から「権威に基づいて正しさを判定するろくでもない奴らだ」と言っています。
#統計

⭕️2×2の分割表のχ²検定の方法をサンプルサイズが大きな場合のFisher検定の近似によって導出できる。

という主張は正しいです。しかし、

❌χ²検定はFisher検定の近似としてしか導けない。
❌Fisher検定は正確である。
❌χ²検定の誤差をFisher検定との違いで測るのが正しい。

はどれも誤り。
Read 41 tweets
13 Nov
#統計 「真の分布」というのはジャーゴン(特定分野の特殊な言い回し)です。文字通りの意味にとってはいけない。

未知のものについての推測の勝ち目を増やすために数学を利用するためには、その未知のものとその推測方法の両方を数学的に定式化して性質を調べておく必要があります。続く
#統計 その未知のものを確率分布でモデル化するときのその確率分布を「真の分布」と呼ぶ人たちがいます。私は「未知の分布」(unknown distribution)という言い方をした方が誤解が少なくなると思っているのですが、「真の分布」というジャーゴンは結構広く普及していると思います。続く
#統計 未知のものの側のモデル化に付ける条件が少なければ少ないほど、適用できる未知のものの種類が増えるのですが、何の条件も付けないと実践的に役に立ちそうな推測を何もできなくなるので、応用先を狭めてかつ狭めすぎないように条件を付けるのが普通です。
Read 16 tweets
12 Nov
#統計 渡辺澄夫『ベイズ統計の理論と方法』の読み方①は

①頻度主義とベイズ主義を分けるダメな考え方の心の中からの排除

その次は

②自分でWAICやLOOCVをコンピュータ上で計算して、各種の定理を数値的に確認するという読み方

がお勧め。具体的にはp.119の定理15のβ=1の場合を確認するべき。続く
#統計 細かい計算や証明のフォローは上の②の後の③でよいと思う。

渡辺さんの本は数学的に難しい話をしている部分が多いのですが、それ以外によく宣伝されているダメな考え方への対策になっている解説も多数含まれており、そこから入ることができます。最初はそこを読むとよいと思う→①
#統計 あと、途中の計算や証明を飛ばして読んでも、コンピュータを使える人なら自分でWAIC(W_n)やLOOCV(C_n)を自分で実装して計算できるように書いてあります。

具体的な計算例を1つも知らずに証明を読んでも無意味だと思うので、証明を読み始める前にコンピュータで計算できるようになっておくべき。
Read 13 tweets
11 Nov
#統計 尤度の簡単な例

パラメータp_1,…,p_r (どれも非負の実数で総和は1)の多項分布モデルのデータk_1,…,k_r (どれも非負の整数で総和はn)に関する尤度函数は

L(p_1,…,p_r) = (n!/(k_1!…k_r!)) p_1^{k_1}…p_r^{k_r}.

最尤法の解は

p_i = k_i/n (i=1,…,r).
#統計 多くの場合に対数尤度函数の-1倍

-log L(p_1,…,p_r) = -Σ_{i=1}^r k_i log p_i + (定数略)

の方が扱いやすい。これを Σ_{i=1}^r p_i = 1 という条件のもとで最小化するには、Lagrangeの未定乗数法を使ったり、Gibbsの情報不等式を使えば簡単である。お好きな方法でどうぞ、という感じ。
#統計 そういう易しいが「実戦的な」計算をやらないと、

* Lagrangeの未定乗数法



* Jensenの不等式 (Gibbsの情報不等式を特殊な場合に含む)

などの

これこそ神!

と言えるような素晴らしい結果を大学1年のときにすでに習っていることに気付かずに終わる可能性が高い。
Read 10 tweets
11 Nov
#統計 Kullback-Leibler情報量

D(q||p) = ∫ q(x) log(p(x)/q(x)) dx

の統計学への応用におけるq,pに関する非対称性を理解するには、Sanovの定理について学ぶに限ります。

続く
#統計 分布pに従う乱数発生で分布qをシミュレートしたときに、もしもp≠qならば、確率的に指数函数的な速さでボロが出るのですが、その速さがKullback-Leibler情報量になっているというのがSanovの定理の内容です。

だからモデル分布pで真の分布をシミュレートしたい人にとってKL情報量は基本的。
#統計 大雑把に言うと、分布pのi.i.d. X_1, X_2, … について、

(X_1,…,X_nの経験分布がqに近い確率) = exp(-n D(q||p) + o(n))

となるという結果がSanovの定理。ちょっと雑すぎる説明ですが、「qに近い」の程度の違いはo(n)の項に吸収される。

1つ前のツイートと比較すると理解が深まるはず。
Read 29 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!

Follow Us on Twitter!