オーストラリアで勉強してきたデータサイエンティストの口語自由詩

主に、ベイズ・統計・データ分析・機械学習について自由に書く。

Think Bayes

事後確率の推移をグラフで可視化する - 多面体サイコロ編

TL;DR 多面体のサイコロを投げる例で、事後確率が変わる様子を観察する。 事前確率があるとする(例えば1/6とか)= before_p1 サイコロを投げて結果を見る(実際のサイコロの目を見る、例えば6とか) 事後確率(結果を見た上で推定した確率)= after_p1(一…

ベイズの定理の違う顔

TL;DR ベイズの定理を以下の用語を使い言い換える。クッキーの例で考えると簡単。 事前確率: p(ボウル1) => ボウル1とボウル2の2つのボウルからボウル1を選ぶ確率 事後確率: p(ボウル1 | ヴァニラ) => ヴァニラを見た後に、ボウル1が選ばれた確率 尤度: p(ヴ…

ベイズの定理の結果を馬鹿みたいに確かめる

TL;DR 前回の記事の続き。 yukinagae.hatenablog.com ベイズの定理が感覚的に理解できていない気がしたので、実際にサンプリングして確かめてみる。 理論的に理解するのではなく、本当にその確率になるのかを馬鹿みたいに調べる。 (「馬鹿みたい」というの…

ベイズの定理でクッキー問題の確率を計算する

TL;DR ベイズの定理を使って具体的な問題の確率を求めてみましょう。 p(A|B) と p(B|A) は別物 ベイズの定理を使うと、p(B|A) から p(A|B) を求めることができる クッキー問題(Think Bayes p.3〜p.4参照) クッキーが入った2つのボウルがあるとします。しか…

ベイズと機械学習の甘い関係

TL;DR 機械学習はデータから学習してモデルを構築して予測する 多くの機械学習の手法はビッグデータから学習する必要がある ベイズ + 機械学習の場合には事前情報(ドメイン知識)で少量のデータでも学習できる 内容 前回までで以下のベイズの定理を求めるこ…

ベイズの定理をあまりにも簡単に導き出す

条件付き確率と結合確率を理解すると、あとはベイズの定理をそのまま理解できる。 まずは、イベントAとイベントBが両方起きる確率は順番を変えても一緒であることを確認(当たり前!)。 p(A and B) = p(B and A) 当たり前のことも念のため具体例で考える。 …

確率をつなげる - 結合確率

あとちょっとでベイズの定理に入れるがその前に最後の一つ。 (まだ Think Bayes の2ページ目) あとは結合確率を理解すればベイズの定理にいけるみたいだ。 結合確率は、2つのことが真実であるという確率のことである。AとBが両方とも真である確率を意味し…

日常の条件付き確率

そのまま Think Bayes を読み進めていると(まだ1ページ目でしかない)、次の用語の定義は conditional probability (条件付き確率)についてだ。そのまま引用する。 A conditional probability is a probability based on some background information. (…

君は確率を本当に理解しているか?

もちろん理解しているはずがない。 わかっているようで、わからないことが世の中にはたくさんある。 特に数学や統計では日常生活とは異なる用語の使い方をしている可能性もあるので、一つひとつの言葉から理解していこう。 本当は常に書籍や適切なサイトを参…