貝葉斯在機器學習中的應用(一)
一:前提知識
具備大學概率論基礎知識
熟知概率論相關公式,並知曉其本質含義/或實質意義
二:入門介紹
先驗概率:即正向求解概率。 如:四個紅球,兩個白球,從中任取乙個為白球的概率
後驗概率:即逆向求解概率。如:紅球的次品率為30%,白球的次品率為10%,現在袋子中的白球與紅球的數量比是3:1。抽取乙個球為次品,問這個次品為紅球的概率
這裡就用到了貝葉斯公式。其中在使用貝葉斯公式,一般離不開全概率公式
三:與機器學習的聯絡
分類學習。通常的分類器是有監督的學習,即有由大量樣本組成的訓練集和每個樣本對應的標籤(類別資訊)。
在大量的資料之下,容易根據樣本的特徵的概率值來判斷該樣本屬於哪一類。
例如:訓練集: 有10000個人,其中人的屬性有兩個,x1為年齡,x2為身高。標籤即分類資訊有:小學,中學
訓練的過程是: 求類 小學 的情況下 各個年齡和身高出現的概率
求類 中學 的情況下 各個年齡和身高出現的概率
此時訓練已經結束
**過程: 給定乙個樣本:乙個人 年齡已知,身高已知;**其是小學生還是高中生
那麼只需要計算他是小學生的概率大還是高中生的概率大即可
計算方法:在整個訓練集中小學生的概率*在小學生的情況下該樣本身高值在訓練集中的概率*在小學生的情況下該樣本年齡值在訓練集中的概率
同理計算中學生,再比較兩個值的大小
四:詳細公式介紹及原理說明見下章
貝葉斯理論在機器學習中的應用
貝葉斯理論應用於機器學習方面產生了多種不同的方法和多個定理,會讓人有些混淆。主要有最大後驗概率,極大似然估計 mle 樸素貝葉斯分類器,還有乙個最小描述長度準則。貝葉斯理論是基於概率的理論,設 lambda 是將實為 c j 的樣本標記為 c i 的損失,則將樣本 x 標記為 c i 的期望損失是 ...
機器學習 貝葉斯
bayes.py包含了所有函式的實現,需要做的是,明白各個函式的功能作用及輸入輸出,在指令碼中完成函式的呼叫,給出要求的格式的結果。from numpy import import csv import random random.seed 21860251 def loaddataset post...
機器學習 樸素貝葉斯
樸素貝葉斯原理 1.貝葉斯公式 2.樸素貝葉斯的模型 3.後驗概率最大化的含義 4.樸素貝葉斯的引數估計 4.1.特徵是離散值 假設符合多項式分布 4.2.特徵是稀疏的離散值 假設符合伯努利分布 4.3.特徵是連續值 假設符合正態分佈 5.樸素貝葉斯演算法過程 6.樸素貝葉斯演算法小結 scikit...