投乙個骰子,各個數字的概率都是1/6。 問投的數字6的期望次數。很顯然,這個題的答案是e=1/(1/6)=6;
具體計算如下:
分成兩部分(1)當前狀態下有1/6的概率投出數字6,投擲次數就是1/61;(2)5/6的概率投擲出其他數字,那麼需要重現再投e次,才能得到數字6,投擲次數是5/6(1+e).
因此,總的式子就是 e= 1/61+5/6*(1+e) , 解得:e=6。
抽到r的概率2/3,抽到s的概率是1/3,那麼連抽rrr後必抽到s的期望次數,即問抽n次後,e(s).稍微複雜,但是可以拆解成四部分:
出現r的期望次數**驗證:e1=2/31+1/3(1+e1);
出現rr的期望次數是(在e1的基礎上才可能出現rr,一旦出現s,從頭來過)
e2= 2/3(e1+1)+1/3*(e1+e2+1)
出現rrr的期望次數是(在e2的基礎上)
e3=2/3(e2+1)+1/3*(e2+1+e3);
這裡需要注意,出現s後結束;但是出現r的時候,我們不需要從頭來過,他得到是rrrr,是可以在e3的基礎上繼續投的,因此我們只需要繼續投e4-e3次:
e4=1/3(e3+1)+2/3*(1+e3+e4-e3);
可以得到:
e1=3/2.
e2=15/4
e3=57/8
e4=81/8
import random
n=10000000
coin=
[0,1,2]
times=
for i in range(n):
count=0;
r=0s=0
while r<3 or s<1:
result=random.choice(coin)
if result<2:#r
r=r+1;
else:#s
if r>=3 and s==0:
s=s+1
else:
s=0r=0
count=count+1
aa=sum(times)*1.0/n
print(aa)
>>10.1248318
機器學習之概率分布2
上面介紹了伯努利分布,下面接著介紹一種更為複雜的情況。本質上伯努利分布描述的是拋硬幣的過程,現在我們考慮擲骰子的情況。骰子有六面,每一面的點數分別為 1,2,3,4,5,6 一般情況下,我們投骰子每一面的概率都是一樣的 都是16 但也有特殊的情況,曾經有段時間,香港電影流行賭博主題的電影 賭神 不小...
機器學習筆記 概率
概率的理解 概率的一種理解是頻數的解釋,比如投硬幣,當投的次數無限多時,我們大概知道下次投出 head 的概率。另外一種解釋就是貝葉斯觀點,就是衡量事情的不確定性。貝葉斯觀點的好處在於,其不是基於重複事件的。而是基於先前的資訊,來 下乙個事件發生的概率。概率的基本性質在此略去,下面看看幾種典型的概率...
機器學習演算法之概率分類法
對模型給予概率進行分類的手法稱為概率分類法。給予概率是指對於模式x所對應的類別y的後驗概率 y x 進行學習。其所屬類別為後驗概率達到最大值時所對應的類別。基於概率的模式識別的演算法除了可以避免錯誤分類,還具有乙個優勢。就是的對多分類通常會有乙個號的效果。首先,來看一下最基本也是最常見的概率分類演算...