機器學習主要解決從資料中獲取其概率分布的問題,通過一些機器學習的演算法可以從大量資料中找到一定的規律,從而建立模型來解決實際問題,因此機器學習中主要使用資料來求解其引數:
data:xxxx頻率派認為引數θ=[x1
x2⋯x
n]n×
pt=[
x11x12
⋯x1p
x21x22
⋯x2p
⋮⋮⋱⋮
xn1x
n2⋯x
np]n
×p
x= \left[ \begin x_1 & x_2 & \cdots & x_n\\ \end \right]^t_ = \left[ \begin x_ & x_ & \cdots & x_\\ x_ & x_ & \cdots & x_\\ \vdots & \vdots & \ddots & \vdots \\ x_ & x_ & \cdots & x_\\ \end \right]_
x=[x1
x2
⋯x
n]
n×pt
=⎣⎢
⎢⎢⎡
x11
x21
⋮xn1
x1
2x2
2⋮x
n2
⋯⋯⋱⋯
x1p
x2p
⋮xn
p⎦
⎥⎥⎥⎤
n×p
parameter: θ
\theta
θ
\theta
θ是乙個固定的常數(constant),而資料x
xx是隨機變數,而貝葉斯派認為引數θ
\theta
θ是隨機變數(random variable),其服從某個概率分布p(θ
)p(\theta)
p(θ)
,這個概率分布稱為先驗。
頻率派認為引數θ
\theta
θ是乙個固定的常數(constant),頻率派常用的求解方法為極大似然估計法:
極大似然估計:頻率派的求解步驟為:1.建立模型;2.定義損失函式;3.最優化損失函式。θ ml
e=ar
gmax
θlog
p(x∣
θ)
\theta_=\undersetlogp(x|\theta)
θmle=
θarg
maxl
ogp(
x∣θ)
,其中l(θ
)=lo
gp(x
∣θ
)l(\theta)=logp(x|\theta)
l(θ)=l
ogp(
x∣θ)
。
貝葉斯學派認為引數θ
\theta
θ是乙個隨機變數(random variable),其擁有乙個概率分布p(x
)p(x)
p(x)
,稱為先驗分布,在取樣結果為x
xx時,其後驗概率:
p(θ最大後驗估計map:∣x)⏟
post
erio
r=p(
x∣θ)
⏞lik
elih
oodp
(θ)⏞
prio
rp(x
)\underset}=\frac}\overset}}
poster
iorp
(θ∣x
)=
p(x)
p(x∣
θ)l
ikel
ihoo
dp(
θ)p
rior
其 中p
(x)=
∫θp(
x∣θ)
p(θ)
dθ
其中p(x)=\int_p(x|\theta )p(\theta )\mathrm\theta
其中p(x)
=∫θ
p(x∣
θ)p(
θ)dθ
所 以p
(θ∣x
)∝p(
x∣θ)
p(θ)
所以\propto p(x|\theta)p(\theta )
所以p(θ∣
x)∝p
(x∣θ
)p(θ
)
θmap=ar
gmax
θp(θ
∣x)=
argm
axθp
(x∣θ
)p(θ
)\theta _=\undersetp(\theta|x)=\undersetp(x|\theta)p(\theta )
θmap=
θarg
maxp
(θ∣x
)=θa
rgmax
p(x
∣θ)p
(θ)
(白板推導系列一)緒論 資料介紹
本系列是總結b站清華大佬up主shuhuai008的機器學習白板推導系列的筆記 機器學習按解決問題的方法可分為頻率派和貝葉斯派,其中頻率派逐漸發展出來的理論是統計機器學習,而貝葉斯派逐漸發展出來的理論是概率圖模型。也許有些人會想用一本書來了解所有機器學習的東西,但是沒有一本書能涵蓋機器學習的所有方面...
《機器學習》筆記(一) 緒論
機器學習定義 機器學習是對依據經驗提公升自身效能或豐富自身知識的各種演算法和系統的系統性研究。機器學習 原料 任務 模型及特徵,模型佔據中心地位。正確特徵 正確模型 完成任務 任務與學習問題的區別 任務 通過模型來完成 學習問題 學習任務 通過能夠產生模型的學習演算法來解決 機器學習方法的核心 依據...
機器學習學習筆記(一) 緒論
之前寫了一篇深度學習 優化與識別的學習筆記,但是後來豆瓣書評上對這本書的評價不高,就直接放棄刪除了。1.1引言 1.2基本術語 要進行機器學習,先要有資料,假定我們收集了一批關於西瓜的資料,例如 色澤 青綠 根蒂 蜷縮 敲聲 濁響 色澤 烏黑 根蒂 稍蜷 敲聲 沉悶 色澤 淺白 根蒂 硬挺 敲聲 清...