假設隨機變數x
xx的取值域為ω=i
=1
∞\omega=\}
ω=i=1∞
, 那麼對於任何乙個x
ix_i
xi, 事件x=x
ix=x_i
x=xi
的概率記為p(x
i)
p(x_i)
p(xi)
.對於ω
\omega
ω的任何乙個子集s=i
=1
∞s=\\}}
s=i=1∞
, 事件x∈s
x\in s
x∈s的概率為
p (s
)=∑i
=1∞p
(xi)
p(s) = \sum}p(x_i)
p(s)=∑
i=1∞
p(x
i)對於離散隨機變數, 概率為概率函式的求和.
假設隨機變數x
xx的取值域為r
rr, 那麼對於幾乎所有x∈r
x\in \mathbb
x∈r, 事件x=x
x=xx=
x的概率p(x
=x
)p(x=x)
p(x=x)
都等於0, 所以我們轉而定義概率密度函式f:r
→[0,
∞)
f:\mathbb\rightarrow[0,\infty)
f:r→[0
,∞). 對於任何區間(a,
b)
(a, b)
(a,b
), 事件x∈(
a,b)
x\in (a, b)
x∈(a,b
)的概率為
p ((
a,b)
)=∫a
bf(x
)d
xp((a,b))=\intf(x)dx
p((a,b
))=∫
abf
(x)d
x
概率其實就是集合的大小比例, 而概率函式或者概率密度函式可以理解為比較大小時候的權重如果a,b
a,ba,
b是兩個事件, 那麼條件概率滿足公式
p (a
∣b)=
p(b∣
a)p(
a)p(
b)
p(a|b)=\frac
p(a∣b)
=p(b
)p(b
∣a)p
(a)
利用前面的定義我們知道, 事件a,b
a,ba,
b同時發生的概率為p(a
∩b
)p(a\cap b)
p(a∩b)
, 一方面
p (a
∩b)=
p(b∣
a)p(
a)
p(a\cap b)=p(b|a)p(a)
p(a∩b)
=p(b
∣a)p
(a)另一方面對稱的有
p (a
∩b)=
p(a∣
b)p(
b)
p(a\cap b)=p(a|b)p(b)
p(a∩b)
=p(a
∣b)p
(b)所以p(b
∣a)p
(a)=
p(a∣
b)p(
b)
p(b|a)p(a)=p(a|b)p(b)
p(b∣a)
p(a)
=p(a
∣b)p
(b), 兩邊同時除以p(b
)p(b)
p(b)
就得到了貝葉斯公式
常見的概率分布基本上都有引數, 比如正太分布有(μ,
σ)
(\mu, \sigma)
(μ,σ
)兩個引數, 泊松分布有乙個引數λ
\lambda
λ, 對於乙個具體的問題而言, 關於這些引數有兩種不同的看法
如果引數的後驗分布與先驗分布屬於同一類分布, 那麼我們說這種先驗分布為共軛分布(conjugate prior), 比如
具體共軛分布列表可以參考共軛分布的好處在於, 先驗與後驗分布屬於乙個大類, 這樣計算和理解上都比較方便
概率統計 隨機變數與隨機事件
統計學之前的定義不再說,簡單,求概率之類的,值得一體的是條件概率和貝葉斯公式,可是機器學習中樸素貝葉斯的核心了哈哈哈 1.條件概率 條件概率 通俗點就是研究事件間關係,已知乙個事件發生的條件下考慮另乙個事件發生的概率規律有無變化以及如何變化,公式就是分母a的概率分子是ab同時發生的概率。2貝葉斯 貝...
隨機變數 概率論
一,定義 設隨機實驗的樣本空間是s e x x e 是定義在樣本空間s上的實值單值函式,稱x x e 為隨機變數.如下圖畫出了樣本點與實數x x e 對應的示意圖.1,首先隨機變數是乙個函式 2,該函式是作用在全體樣本空間上的 3,輸出為數值 4,輸出值唯一 解析 如果把樣本空間理解成所有事件的集合...
概率論 隨機變數
在進行試驗時,相對於試驗的實際結果而言,我們可能更關注於試驗結果的某些函式。例如,在擲兩枚骰子的試驗中,我們並不關心每個骰子的具體數值,而是關心兩枚骰子的點數之和。定義 定義在樣本空間上的實值函式,稱為隨機變數。由於隨機變數的取值由試驗結果決定,所以我們也會對隨機變數的可能取值指定概率,關於隨機變數...