在補充這個時候還是猶豫了許久,去圖書館借了本浙大第三版版的《概率論與數理統計》,雖然版本有點老但感覺還是足夠了。
這麼我們來談談概率的一些基本常識,雖然大家都已經知道了,但是還是不可避免的要來談一談。
首先,概率是事物發生可能性的大小,概率大的事物,發生的可能性大,但是不一定會發生,概率小也不意味著不會發生。φ(其次,概率只有在談及某個事件的時候才存在並有意義,且事件概率之和為一。我不知道這樣子講是否明確,我可以舉個具體的例子:
比如:拋硬幣,在拋硬幣的時候我們認為只會出現正面與反面(概率各為百分之五十),並且概率之和為一(這必然因為在這個事件裡面不是正面就是反面),而我們在這個事件之外比如拋色子的時候,每個點出現的概率都是1616
,但是這個1616
在我們拋硬幣這個事件裡面並沒有意義。
x)φ (x
)一定為單調遞增函式 mi
n(φ(
x))=
0,ma
x(φ(
x))=
1 min
(φ(x
))=0
,max
(φ(x
))=1
同時對於隨機變數x的分布函式f(
x)f (x
),存在非負函式f(
x)f (x
),使對於任意實數x有:f(
x)=∫
x−∞f
(f)d
t f(x
)=∫−
∞xf(
f)dt
則稱x為連續性隨機變數,其中函式f(x)稱為x的概率密度函式,簡稱概率密度。
1.什麼使古典概型呢?簡單來說就是我們生活中經常遇到的一些簡單的概率模型(比較簡單,讀者可以快速略過),我們看看書上的定義:
試驗的樣本空間只包含有限個元素。這種試驗被稱為等可能概型或者古典概型。試驗中的每個基本事件發生的可能性相同。
例子:放回抽樣比較簡單就不加以舉例,直接舉不放回抽樣的情況,課本的例子實在是太經典了,我就舉前面三個。乙個口袋裝有6只球,其中4只使白球、2只紅球,從袋中取球兩次,每次隨機地取乙隻,我們看看兩種取球方式:
a)、一次取乙隻球,觀察之後放回,攪拌均勻之後再取一球,這一種叫做放回抽樣
b)、第一次取一球之後不放回袋中,第二次從剩餘的球中再取一球。這種取球方式被稱為不放回抽樣。
例1.
將n個球放入n(n≥這一題很容易解決,對於n個盒子來說總有n∗n n≥n
)個盒子中去,試求每個盒子至多有乙個球的概率(假設盒子容量不限)?
n∗n∗
n∗⋯∗
n=nn
n ∗n
∗n∗n
∗⋯∗n
=n
n種不同的放法,而每個盒子中至多放乙個球共有n∗
(n−1
)∗(n
−2)⋯
[n−(
n−1)
] n∗(
n−1)
∗(n−
2)⋯[
n−(n
−1)]
,所以概率為p=
n∗(n
−1)∗
(n−2
)⋯[n
−(n−
1)]n
n=an
nnn p=n
∗(n−
1)∗(
n−2)
⋯[n−
(n−1
)]nn
=ann
nn
再舉個生日悖論
假設每個人的生日在一年365天中的任一天都是等可能的,即都等於他們的生日各不相同的可能性為:1365
1365
,那麼隨機選取n(
≤365
) n(≤
365)
個人,他們中有人生日為同一天的概率是?
365∗
364∗⋯∗
(365−n
−1)365
n 365
∗364∗⋯
∗(
365−n−
1)
365n
因而,n個人中至少有兩個人的生日相同的概率為:p=
1−365∗
364∗⋯∗
(365−n
−1)365
n p=1
−365
∗364∗⋯
∗(
365−n−
1)
365n
然後我們經過計算可以得到如下結果:n20
2330
4050
64100
p0.411
0.507
0.706
0.891
0.970
0.997
0.9999997
我們可以發現在乙個僅僅有64人的班級裡面,至少有兩人生日相同的概率幾乎為1了。
設有n件產品,其中有d件今從中任取n件,問其中恰有k(p=k≤d)k(
k≤d)
件次品的概率是多少?
ckd∗
cn−k
n−dc
nnp =c
dk∗c
n−dn
−kcn
n2.條件概率
什麼是條件概率呢?就是在某個事件a發生下,b發生的概率,比如:
將一枚硬幣拋兩次,a為至少出現乙個正面,b為兩次丟擲同一面,那麼現在已知a已經發生了,那麼b發生的概率是多少?在此,我們不可否認,a的發生是對b的發生概率有影響的,此時我們將這個概率記為p(
b|a)
=13 p(b
|a)=
13
不少東西大家都知道了,我就直接把公式寫出來p(
b|a)
=p(a
b)p(
a)p (b
|a)=
p(ab
)p(a
)
Machine Learning 梯度下降
對於lost function利用梯度下降的方法實現引數調整,梯度下降在每一次迭代的過程中需要全部樣本參與,而隨機梯度法或增量梯度法在迭代中利用樣本中的乙個樣本更新引數。梯度下降達到全域性最優 include include using namespace std define maxiter 22...
安裝Machine Learning環境
公升級python版本到3.5以上。詳情參考linux公升級python版本 步驟1中也包含了安裝pip 第一批ml環境 pip install tensorflow pip install keras pip install beautifulsoup4 pip install lxml pip ...
機器學習(Machine Learning)
最近開始接觸機器學習,簡稱ml。ml 可以這樣理解,從一堆資料中提煉出特徵值。首先,我們需要在計算機中儲存歷史的資料。接著,我們將這些 資料通過機器學習演算法進行處理,這個過程在機器學習中叫做 訓練 處理的結果可以被我們用來對新的資料進行 這個結果一般稱之為 模型 對新資料 的 過程在機器學習中叫做...