1對其他(one-vs-rest,ovr):
對每個類別c,訓練乙個logistic回歸分類器
對新的輸入x,選擇使得
多項分布
在概率分布中,貝努利(bernoulli)分布的輸出只有兩種取值。
multinoulli分布,或稱為範疇分布(categorical distribution),輸出有k種取值。
類似用bernoulli分布描述兩類分類的概率分布,可用multinoulli分布描述多類分類的概率分布,其引數為向量
將類別y用獨熱編碼(編碼為c維向量,當y=c時,第c維為1,其他元素均為0),記為向量y
則multinoulli分布的概率函式為:
或者用標量形式記為:
softmax分類器
類似兩類分類模型推導,假設輸出y=c的概率可以由x的線性組合再經過sigmoid函式變換得到
則模型為:
上述等式右邊為softmax函式。softmax函式為sigmoid函式的推廣,將c維向量的每個元素轉換為[0,1]的數,且變換後元素之和為1:
因此得到的分類器被稱為softmax分類器。
將類別y用獨熱編碼為向量y:
向量μ表示multinoulli分布的引數:
令
softmax分類模型的log似然函式為:
定義softmax損失為:
則極大似然估計等價於最小訓練集上的softmax損失/負log似然損失:
正則項:softmax分類模型的正則項同兩類分類模型
目標函式優化方法:同兩類分類模型
logistic回歸優化求解
scikit-learn中實現logistic回歸的類
class
sklearn.linear_model.logisticregression
(penalty=』l2』
, dual=false
, tol=0.0001
, c=1.0
, fit_intercept=true
, intercept_scaling=1
, class_weight=none
, random_state=none
, solver
=』liblinear』
, max_iter=100
, multi_cla
ss=』ovr』
, verbose=0
, warm_start=false
, n_jobs=1)
引數multi_class決定了多類分類的實現方式,可選:
1、『ovr』:即1對其他(one-vs-rest,ovr),將多類分類轉化為多個二類分類任務。為了完成第c類的分類決策,將所有第c類的樣本作為正例,除了第c類樣本以外的所有樣本都作為負例,每個類別的二分類器單獨訓練。
2、『multinomial』:softmax回歸分類,對多項分布概率整體進行訓練。
注意:multi_class選擇會影響優化演算法solver引數的選擇
ovr:可用所有的slover
multinomial:只能選擇newton-cg,lbfgs和sag/saga(liblinear不支援)
logistic分類(logistic回歸 LR)
幾乎所有的教材都是從logistic分類開始的,因為logistic分類實在太經典,而且是神經網路的基本組成部分,每個神經元 cell 都可以看做是進行了一次logistic分類。所謂logistic分類,顧名思義,邏輯分類,是一種二分類法,能將資料分成0和1兩類。logistic分類的流程比較簡單...
logistic回歸 logistic回歸
logistic回歸 logistic回歸分析可用於估計某個事件發生的可能性,這是乙個分類模型而不是乙個回歸模型!它的基本思想是利用一條直線將平面上的點分為兩個部分,即兩個類別,要解決的問題就是如何擬合出這條直線,這個擬合的過程就稱之為 回歸 logistic模型 假設你有乙個需要 的內容,要通過三...
有序分類logistic回歸 R語言
正如字面理解,包含兩個方面 一是有序性,如調研中常用的滿意度常用李克特量表,即有序的因變數 二是logistic分類,如1代表優秀 2代表良好 3代表一般等等。因變數為分類變數,且分類間有次序關係,針對因變數為分型別資料的情況應該選用logistic回歸,故應採用有序多分類的logistic回歸分析...