1、先導知識
2、樸素貝葉斯演算法
樸素貝葉斯其實很簡單,之前看了好幾遍,但總是會忘記,感覺被深度學習荼毒太深。
這樣想,樸素貝葉斯算的也是有監督的東西,那麼無非就是輸入x,輸出y。如果需要得到引數,那麼就是根據輸入x和對應的標籤y,求條件概率p(y
∣x)p(y|x)
p(y∣x)
。這樣就好辦了,我們可以知道的是p(x
∣y)p(x|y)
p(x∣y)
,p (y
)p(y)
p(y)
,因為有標籤啊~又因為算的是樸素貝葉斯,數學公式稍微一推導,很簡單就可以得出下面的演算法。
3、拉普拉斯平滑估計
起那麼複雜的名字,簡單的說就是萬一資料集中狗的訓練資料為0咋辦,總不能求條件概率的時候除個0吧,因此就加上了所謂的拉普拉斯平滑估計,無非就是分母上加乙個epsion.
4、極大似然估計理解
下面博文講的特別好,拷貝過來
極大似然估計可以拆成三個詞,分別是「極大」、「似然」、「估計」,分別的意思如下:
極大:最大的概率
似然:看起來是這個樣子的
估計:就是這個樣子的
連起來就是,最大的概率看起來是這個樣子的那就是這個樣子的。
舉個例子:
有兩個媽媽帶著乙個小孩到了你的面前,媽媽a和小孩長得很像,媽媽b和小孩一點都不像,問你誰是孩子的媽媽,你說是媽媽a。好的,那這種時候你所採取的方式就是極大似然估計:媽媽a和小孩長得像,所以媽媽a是小孩的媽媽的概率大,這樣媽媽a看來就是小孩的媽媽,媽媽a就是小孩的媽媽。
統計學習方法 李航 樸素貝葉斯
之前都是對著抄,感覺沒什麼意思,而且還會漏掉一些點,所以索性直接全拿過來,再對它做些解釋說明,感覺還好點 大概思路就是假設條件獨立性 來簡化問題 然後求聯合分布 進行分類時對具體樣本用貝葉斯公式和剛才的聯合分布求後驗概率,並化簡 而這求解過程中要用到極大似然估計或者貝葉斯估計 y argmax ck...
統計學習方法第四章,貝葉斯估計的實現
include includeusing namespace std const int r 1 const int n 15 訓練樣本個數 const int k 2 類標記數 const int m 3 特徵可能取值數 const int s 2 特徵維數 int array 3 n float...
統計學習方法 樸素貝葉斯法
乙個事件概率依賴於另外乙個事件 已發生 的度量。p b a 的意義是在a發生的情況下b事件發生的概率。這就是條件概率。p ab p a times p b a 代表的意義是,ab事件同時發生的概率等於事件a發生的概率乘以在a發生條件下b事件發生的概率。p b a frac 事件序列發生且彼此相互依賴...