在統計學習,機器學習中,我們的目標就是找到兩個隨機變數的聯合概率分布p(x
,y)'>p(x,y)
p(x,y)p(x,y) 。
比如說我們有乙個模型,有輸入變數空間x=(
x1,x
2,..
.,xn
)'>x=(x1,x2,...,xn)
x=(x_1,x_2,...,x_n)x=(x1,x2,...,xn) 和輸出變數空間y=(
y1,y
2,..
.,ym
)'>y=(y1,y2,...,ym)
y=(y_1,y_2,...,y_m)y=(y1,y2,...,ym) x=
(x1,
x2,.
..,x
n)'>y=(
y1,y
2,..
.,ym
)'>可能是離散的,可能是連續的。那麼現在我們這個模型的作用就是在輸入乙個x
'>x
的時候,能夠給出乙個y
'>y
,也可以說我們這個模型的作用就是找到x
'>x
和y'>
y的聯合概率分布p(x
,y)'>p(x,y)。x=
(x1,
x2,.
..,x
n)'>y=(
y1,y
2,..
.,ym
)'>x
'>y
'>x
'>y
'>p(x
,y)'>那麼我們就可以根據其聯合概率得到條件概率,就可以得到 p(y
∣x)'>p(y∣x)
,於是就可以利用這個條件概率找到給定乙個x
'>x
的情況下,最大可能的y
'>y
是哪乙個。
而我們上面的基本前提就是假設存在 x
'>x
關於 y
'>y
的聯合概率分布。如果根本就不存在這樣的聯合概率分布,那麼這個模型也是個沒有什麼意義的模型。
三門問題:
三門問題的關鍵,在於主持人是知道哪個門後是有車的,也就是
繼續...
需要求出累積符號左右的argmax
這裡運用到極大似然估計:
1、利用極大似然估計計算先驗概率與條件概率
2、計算
統計學習方法四 樸素貝葉斯
結合之前的部落格 一 什麼是樸素貝葉斯?樸素貝葉斯是基於貝葉斯定理與特徵條件獨立假設的分類方法。對於給定的資料集,首先基於特徵條件獨立假設學習輸入 輸出的聯合概率分布 然後基於此模型,對給定的輸入x,利用貝葉斯定理求出後驗概率最大的輸出y 特徵 1 多分類 2 生成學習方法二 學習與分類 1 條件獨...
統計學習方法四 樸素貝葉斯分類
樸素貝葉斯分類 1,基本概念 2,演算法流程 關鍵點 理解先驗概率,條件概率,最大後驗概率,下面是以極大似然估計的 3,演算法改進 貝葉斯估計 上述用極大似然估計可能會出現所要估計的概率值為0的情況,改進方法 先驗概率貝葉斯估計 k表示類別數,為引數 0時為極大似然估計 1時為拉普拉斯平滑 條件概率...
統計學習方法 樸素貝葉斯法
乙個事件概率依賴於另外乙個事件 已發生 的度量。p b a 的意義是在a發生的情況下b事件發生的概率。這就是條件概率。p ab p a times p b a 代表的意義是,ab事件同時發生的概率等於事件a發生的概率乘以在a發生條件下b事件發生的概率。p b a frac 事件序列發生且彼此相互依賴...