x:data,x為n個,每個樣本都是p維向量:
每乙個x~p(x
∣θ)p(x|\theta)
p(x∣θ)
θ
\theta
θ:parameter
p (x
∣θ)p(x|\theta)
p(x∣θ)
中的θ
\theta
θ是乙個常量,對於n個觀測的樣本點的概率為
.。為了求θ
\theta
θ的大小,我們採用最大對數似然估計mle:
p (x
∣θ)p(x|\theta)
p(x∣θ)
中的θ
\theta
θ不是乙個常量,認為θ
\theta
θ要滿足乙個預先設定的乙個先驗概率分布θ
\theta
θ~p(θ)
p(\theta)
p(θ)
,根據貝葉斯定理依賴觀測集引數的後驗可以寫成:
為了求θ
\theta
θ的值,使得後驗最大;我們最大化這個引數後驗map:
因為p (x
)p(x)
p(x)
與θ
\theta
θ無關,我們把分母就去掉了。其中p(θ
∣x)p(\theta|x)
p(θ∣x)
是後驗分布,p(x
∣θ)p(x|\theta)
p(x∣θ)
是似然,是我們的模型分布,得到了引數的後驗分布後(xne
wx_xnew
是通過θ
\theta
θ這個橋梁與x連線的),我們就可以進行新的貝葉斯**:
概率派的觀點匯出了統計機器學習演算法,而貝葉斯派到處了概率圖模型。
機器學習筆記 1 頻率派和貝葉斯派
頻率派認為當我們有一堆資料時,這些資料一定是符合乙個規律的,只是這個規律我們並不知道,這裡的規律可以理解為構造這些資料所需要的引數,這些引數是唯一確定的,我們的目標是如何從已經給到的資料中去估計出這些引數,而我們估計的引數可以使得這些資料發生的概率是最大的。其中 最大似然估計 幹的就是這麼件事。貝葉...
機器學習 貝葉斯
bayes.py包含了所有函式的實現,需要做的是,明白各個函式的功能作用及輸入輸出,在指令碼中完成函式的呼叫,給出要求的格式的結果。from numpy import import csv import random random.seed 21860251 def loaddataset post...
全概率和貝葉斯公式
引言 到什麼山頭唱什麼歌!0.條件概率p a b p ab p b 變形p ab p a p b a 1.若某個事件b的發生是由於多個原因 ai 引起,且這些原因構成乙個完備的事件組,則常將事件b分解為一些簡單的a1,a2 等事件,從而可以通過全概率公式來出概率p b 2.如果某乙個事件b已經發生,...