之前都是對著抄,感覺沒什麼意思,而且還會漏掉一些點,所以索性直接全拿過來,再對它做些解釋說明,感覺還好點.
大概思路就是假設條件獨立性(來簡化問題);然後求聯合分布;進行分類時對具體樣本用貝葉斯公式和剛才的聯合分布求後驗概率,並化簡(而這求解過程中要用到極大似然估計或者貝葉斯估計).
y=argmax_ck+式子,即式子取最大值時的ck的值作為y的取值
這節是解釋為什麼用上節最後得到的公式來分類,因為後驗概率最大化,等價於期望風險最小化(即本小節第一句),之後是對此的證明.
但是要想求解後驗概率,就得求出其中的$p(y=c_k)$和$p(x=x|y=c_k)$,這裡用的是極大似然估計,文中說$x$的取值的集合為$,a_,\cdots,a_}$,所以j取$1,2,\cdots,n$,l取$1,2,\cdots,s_j$也就相當於累加,得出$p(x=x^|y=c_k)$,即這個公式和(4.9)等價.
看個例子理解會好很多
用貝葉斯估計替代極大似然估計,排除特殊情況.
統計學習方法 樸素貝葉斯法
乙個事件概率依賴於另外乙個事件 已發生 的度量。p b a 的意義是在a發生的情況下b事件發生的概率。這就是條件概率。p ab p a times p b a 代表的意義是,ab事件同時發生的概率等於事件a發生的概率乘以在a發生條件下b事件發生的概率。p b a frac 事件序列發生且彼此相互依賴...
統計學習方法四 樸素貝葉斯
結合之前的部落格 一 什麼是樸素貝葉斯?樸素貝葉斯是基於貝葉斯定理與特徵條件獨立假設的分類方法。對於給定的資料集,首先基於特徵條件獨立假設學習輸入 輸出的聯合概率分布 然後基於此模型,對給定的輸入x,利用貝葉斯定理求出後驗概率最大的輸出y 特徵 1 多分類 2 生成學習方法二 學習與分類 1 條件獨...
統計學習方法 樸素貝葉斯 python實現
樸素貝葉斯演算法 首先訓練樸素貝葉斯模型,對應演算法4.1 1 分別計算先驗概率及條件概率,分別存在字典priorp和condp中 初始化函式中定義 其中,計算乙個向量各元素頻率的操作反覆出現,定義為count函式。初始化函式定義了先驗概率和條件概率字典,並訓練模型 def init self,da...