機器學習白板系列(概率派和貝葉斯派)

2021-10-03 12:56:01 字數 1119 閱讀 2216

x:data,x為n個,每個樣本都是p維向量:

每乙個x~p(x

∣θ)p(x|\theta)

p(x∣θ)

θ

\theta

θ:parameter

p (x

∣θ)p(x|\theta)

p(x∣θ)

中的θ

\theta

θ是乙個常量,對於n個觀測的樣本點的概率為

.。為了求θ

\theta

θ的大小,我們採用最大對數似然估計mle:

p (x

∣θ)p(x|\theta)

p(x∣θ)

中的θ

\theta

θ不是乙個常量,認為θ

\theta

θ要滿足乙個預先設定的乙個先驗概率分布θ

\theta

θ~p(θ)

p(\theta)

p(θ)

,根據貝葉斯定理依賴觀測集引數的後驗可以寫成:

為了求θ

\theta

θ的值,使得後驗最大;我們最大化這個引數後驗map:

因為p (x

)p(x)

p(x)

與θ

\theta

θ無關,我們把分母就去掉了。其中p(θ

∣x)p(\theta|x)

p(θ∣x)

是後驗分布,p(x

∣θ)p(x|\theta)

p(x∣θ)

是似然,是我們的模型分布,得到了引數的後驗分布後(xne

wx_xnew

​是通過θ

\theta

θ這個橋梁與x連線的),我們就可以進行新的貝葉斯**:

概率派的觀點匯出了統計機器學習演算法,而貝葉斯派到處了概率圖模型。

機器學習筆記 1 頻率派和貝葉斯派

頻率派認為當我們有一堆資料時,這些資料一定是符合乙個規律的,只是這個規律我們並不知道,這裡的規律可以理解為構造這些資料所需要的引數,這些引數是唯一確定的,我們的目標是如何從已經給到的資料中去估計出這些引數,而我們估計的引數可以使得這些資料發生的概率是最大的。其中 最大似然估計 幹的就是這麼件事。貝葉...

機器學習 貝葉斯

bayes.py包含了所有函式的實現,需要做的是,明白各個函式的功能作用及輸入輸出,在指令碼中完成函式的呼叫,給出要求的格式的結果。from numpy import import csv import random random.seed 21860251 def loaddataset post...

全概率和貝葉斯公式

引言 到什麼山頭唱什麼歌!0.條件概率p a b p ab p b 變形p ab p a p b a 1.若某個事件b的發生是由於多個原因 ai 引起,且這些原因構成乙個完備的事件組,則常將事件b分解為一些簡單的a1,a2 等事件,從而可以通過全概率公式來出概率p b 2.如果某乙個事件b已經發生,...