傳送門:機器學習實戰之logistic回歸
正則化這裡補充下正則化的知識。當乙個模型太複雜時,就容易過擬合,解決的辦法是減少輸入特徵的個數,或者獲取更多的訓練樣本。正則化也是用來解決模型過擬合的一種方法。常用的有l1和l2範數做為正則化項。
資料匯入
本次實戰依舊是使用sklearn中的資料集,如圖所示。
切分資料集
x = cancer.data
y = cancer.target
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=33)
模型訓練與評估
邏輯回歸演算法使用sklearn.linear_model 模組中的logisticregression方法。常用的引數如下:
from sklearn.linear_model import logisticregression
model = logisticregression()
model.fit(x_train, y_train)
model.score(x_test, y_test)
# result
# 0.94736842105263153
我們換為l1範數:
model2 = logisticregression(penalty='l1')
model2.fit(x_train, y_train)
model2.score(x_test, y_test)
# result
# 0.95614035087719296
這裡檢視模型的引數,發現確實有很多特徵的引數為0。
sklearn調包俠之KNN演算法
天下武功,唯快不破。今天就正式講解如何通過 sklearn小抄 武林秘籍,成為一代宗師調包俠。欲練此功,必先自宮 就算自宮,未必成功 若不自宮,也能成功。傳說江湖 機器學習領域 有兩大派別 一是學術派,該派資歷高,家境好,多為名門世家 學歷高,數學好 重基礎 數學推導和理論知識 一是實踐派,以找人切...
sklearn調包俠之KNN演算法
天下武功,唯快不破。今天就正式講解如何通過 sklearn小抄 武林秘籍,成為一代宗師調包俠。欲練此功,必先自宮 就算自宮,未必成功 若不自宮,也能成功。傳說江湖 機器學習領域 有兩大派別 一是學術派,該派資歷高,家境好,多為名門世家 學歷高,數學好 重基礎 數學推導和理論知識 一是實踐派,以找人切...
sklearn調包俠之無敵小抄
scikit learn 以下簡稱為sklearn 是用python開發的機器學習庫,其中包含大量機器學習演算法 資料集,是資料探勘方便的工具。本教程參考 python機器學習及實戰 scikit learn機器學習 和sklearn的官方文件,詳細講解如何使用sklearn實現機器學習演算法。首先...