loading [mathjax]/jax/output/html-css/fonts/stix/fontdata.js
+ 樸素貝葉斯法是基於貝葉斯定理與特徵條件獨立假設的分類方法。
計算過程
\[p(y=c_k|x=x) = \frac
\]\[y=f(x) =\underset \frac
\]\[y=f(x) =\underset p(y=c_k) \prod_j p(x^j=x^j|y=c_k)
\]學習過程
計算先驗概率以及條件概率
\[p(y=c_k) = \frac^ i(y_i=c_k) } , k=1, 2, ..., k
\]\[p(x^j=a_|y=c_k) = \frac, y_i=c_k)} ^n i(y_i=c_k)}, j=1, 2, ..., n; l=1, 2, ..., s_j; k=1, 2, ..., k
\]對於給定的例項\(x=(x^1, x^2, ..., x^n)\),計算後驗概率
\[p(y=c_k) \prod_^ p(x^j=x^j|y=c_k)
\]去定例項的分類
\[y=\underset p(y=c_k) \prod_^ p(x^j=x^j|y=c_k)
\]\[p_(x^j=x_|y=c_k) = \frac ^n i(x^j_i = a_, y=c_k) + \lambda} ^n i(y_i=c_k) + s_j \lambda}, \lambda \geq 0
\]等價於在各個取值的頻數上賦予乙個正數\(\lambda\)。
\(\lambda=0\)為極大似然估計;\(\lambda=1\)時,稱為拉普拉斯平滑
樸素貝葉斯
樸素貝葉斯演算法是一種基於概率統計的分類方法,它主要利用貝葉斯公式對樣本事件求概率,通過概率進行分類。以下先對貝葉斯公式做個了解。對於事件a b,若p b 0,則事件a在事件b發生的條件下發生的概率為 p a b p a b p b 將條件概率稍作轉化即可得到貝葉斯公式如下 p a b p b a ...
樸素貝葉斯
1.準備資料 從文字中構建詞向量 2.訓練演算法 從詞向量計算概率 3.測試演算法 儲存為 bayes.py 檔案 參考 coding utf 8 from numpy import 文字轉化為詞向量 def loaddataset postinglist my dog has flea probl...
樸素貝葉斯
機器學習是將資料轉化為決策面的過程 scikit learn縮寫為sklearn 訓練乙個分類器,學習之後 其處理的準確性 def nbaccuracy features train,labels train,features test,labels test from sklearn.bayes ...