蒙特卡洛的一般原理:處理缺乏實驗資料的問題,一般會用蒙特卡洛方法來產生所需要的實驗資料。
蒙特卡洛方法結題的基本步驟:
確定所要模擬的目標以及實現這些目標的隨機變數,一般情況下,目標就是這些隨機變數的期望
找到原問題中隨機變數的分布規律
大量抽取隨機樣本以模擬原問題的隨機量
求出隨機樣本的樣本平均值
馬爾科夫過程:馬爾科夫過程的特性在於未來的演變不依賴於它過去的演變,這種性質被稱為無後效性
轉移概率矩陣:馬爾科夫鏈
\left\, n \geq 0\right\}
在時刻m處於狀態i的條件下,在時刻m+n轉移的狀態j的條件概率記為n步轉移概率,記為
\left\ = j|, x_m=i\right\}
顯然有結論:∑j∈
ep(x
m+n=
j∣xm
=i)=
1\sum_ p\left(x_=j \mid x_=i\right)=1
∑j∈ep
(xm+
n=j
∣xm
=i)=
1邏輯回歸獲得的資料我們可能會得到乙個0~1之間的資料,他表示的是是正類的概率
邏輯回歸的響應變數:
logit(
p)=ln
(p1
−p
)\operatorname(p)=\ln \left(\frac\right)
logit(
p)=ln
(1−p
p)p(1-p)是用來描述時間發生強度的統計指標,稱為優勢
聚類分析過程:根據資料樣本的性質,將具有相近特質的樣品或變數分在一組,既可以根據不同組的特徵進行不同的處理,也可以對同組資料進行更進一步的分析
q型聚類:對樣本進行分類處理,距離由樣本相似性來度量
閔可夫斯基距離:d(x
i,xj
)=(∑
k=1d
∣xik
−xjk
∣q)1
qd\left(x_, x_\right)=\left(\sum_^\left|x_-x_\right|^\right)^}
d(xi,
xj)
=(∑k
=1d
∣xik
−xj
k∣q
)q1
當q=1時,稱絕對距離,當q=2,稱歐式距離
馬氏距離: dij
2(m)
=(xi
−xj)
′σ−1
(xi−
xj
)d_^(m)=\left(x_-x_\right)^ \sigma^\left(x_-x_\right)
dij2(
m)=(
xi−
xj)
′σ−1
(xi
−xj
) r型聚類:對變數進行分類處理,距離由變數相似性來度量
用相關係數或者夾角余弦來評估
夾角余弦:cosθ
ij=∑
k=1p
xikx
jk∑k
=1px
ik2∑
k=1p
xjk2
\cos \theta_=\frac^ x_ x_}^ x_^} \sqrt^ x_^}}
cosθij
=∑k
=1p
xik2
∑k
=1p
xjk2
∑k
=1p
xik
xjk
k均值聚類
k均值聚類首先人為確定分類數,起步於乙個初始化的分類,然後通過不斷的迭代把資料在不同類別之間移動,直到最後達到預定的分類數為止。
第一步:將所有的樣本分成k個初始類
第二步:逐一計算每一樣本到各個類別中心點的距離,把各個樣本按照距離最近的原則歸入各個類別,並計算形成的中心點
第三步:按照新的位置,重新計算每乙個樣本距離新的類別中心點的距離,並重新進行歸類,更新類別中心點
第四步:重複第三步,直到達到一定的收斂標準或者達到分析者事先指定的迭代次數為止
概率論中的建模思想
概念 樣本空間 隨機試驗e的所有基本結果組成的集合稱為樣本空間。隨機事件 隨機試驗e中的樣本空間的子集稱為e的隨機事件,簡稱為事件。基本事件 由乙個樣本點組成的單點集,稱為基本事件。以上概念是概率論中基本的概念。1 發現問題 隨機事件中有些是直接用數量來標識的,有的則不是用數量來標識的。要想更深入地...
概率論與數理統計 小結1 概率論中的基本概念
注 其實從中學就開始學習統計學了,最早的寫 正 字唱票 相當於尋找眾數 就是一種統計分析的過程。還有畫直方圖,求平均值,找中位數等。自己在學校裡並沒有完整系統的學習過概率論和數理統計,直到在工作中用到,才從最初的印象中,逐漸把這門學科與整個數學區分開來。自從認識到這門學科在自己從事的工作 資料分析 ...
數學與程式設計 概率論與數理統計
pmf probability mass function,概率質量函式,是離散型隨機變數在各特定取值上的概率。與概率密度函式 pdf probability density function 的不同之處在於 概率質量函式是對離散型隨機變數定義的,本身代表該值的概率 概率密度函式是針對連續型隨機變數...