設x是連續隨機變數,則x服從邏輯斯蒂分布,是指x具有下列分布函式和密度函式: f(f(x)影象如下:x)=p
(x<=x)
=11+
e−(x
−μ)/
γ f(
x)=f
′(x)
=e−(
x−μ)
/γγ(
1+e−
(x−μ
)/γ)
2 其中
μ是位置
引數,γ
>0是
形狀引數
二項邏輯斯蒂回歸模型是一種分類模型,由條件概率分布p(
y|x)
表示。這裡x取值為實數,y取0或者1.概率模型如下: p(
y=1|
x)=e
xp(ω
∗x+b
)1+e
xp(ω
∗x+b
) p(
y=0|
x)=1
−p(y
=1|x
)=1)
1+ex
p(ω∗
x+b)
1.2
對數機率:如果事件發生的概率是p,那麼該事件的機率是 p
1−p ,改事件的對數機率是: l
ogit
(p)=
logp
1−p
對二項邏輯斯蒂回歸而言, l
ogit
(p)=
logp
(y=1
|x)1
−p(y
=1|x
)=ω∗
x+b
1.3
模型引數估計,極大似然法
似然函式: l
(ω,b
)=πn
i=1p
(yi|
xi;ω
,b) ——即在引數 β
=(ω,
b)的條件下,樣本 x
i 屬於 y
i 的概率 其中
p(yi|xi
;ω,b
)=yi
∗p(y
=1|x
i;β)
+(1−
yi)∗
p(y=
0|xi
;β)
取對數: l
ogl(
ω,b)
=σni
=1lo
gp(y
i|xi
;ω,b
) 採用梯度下降或牛頓法求解
概率模型p(y=k|
x)=e
xp(ω
k∗x+
b)1+
σk−1
i=1e
xp(ω
k∗x+
b),k
=1,2
,...
,k−1
p(y=k|x
)=11
+σk−
1i=1
exp(
ωk∗x
+b)
1.原理:分類的思想其實與邏輯回歸分類(預設是指二分類,binary classification)很相似——構造k個二分類lr假設函式即可
這裡其實是「one vs all「的思想:對每乙個類,有針對性地訓練乙個lr分類器。當輸入乙個新的樣本,**該樣本為分類器得分最高的那一類即可
2.如下圖,共有三類。每次訓練某一類的時候,將其他所有類歸位另一類進行訓練,得到乙個二分類的lr
3.引數估計
二項邏輯斯蒂回歸的引數方法可以推廣到多項
邏輯斯蒂回歸
邏輯斯蒂回歸首先研究的是分類問題,所以我們這裡引入的激勵函式是sigmoid函式,所以邏輯斯蒂回歸也叫sigmoid回歸。當然也叫對數機率回歸。邏輯斯蒂回歸是直接對資料的分類的可能性進行建模,而不是假設資料的分布,這就避免了假設資料分布時不均勻所帶來的問題,所以邏輯斯蒂回歸不但可以 類別,還可以得出...
邏輯斯蒂回歸原理
邏輯斯蒂回歸是針對線性可分問題的一種易於實現而且效能優異的分類模型,是使用最為廣泛的分類模型之一。假設某件事發生的概率為p,那麼這件事不發生的概率為 1 p 我們稱p 1 p 為這件事情發生的機率。取這件事情發生機率的對數,定義為logit p 所以logit p 為 因為logit函式的輸入取值範...
邏輯斯蒂回歸 機器學習ML
參考 1.統計學習方法 李航 2.邏輯斯蒂回歸是乙個非常經典的二項分類模型,也可以擴充套件為多項分類模型。其在應用於分類時的過程一般如下,對於給定的資料集,首先根據訓練樣本點學習到引數w,b 再對 點分別計算兩類的條件概率,將 點判為概率值較大的一類。1 線性模型 邏輯斯蒂回歸屬於對數線性模型,那什...