過擬合和欠擬合
嶺回歸**實現
正常求解
梯度下降
比較
,1]) 版本不同,有的要求二維
y_test = std_y.
transform
(y_test)
lr =
linearregression()
lr.fit(x_train, x_test)
lr.fit(x_train, y_train)
(lr.coef_)
y_predict_lr = std_y.
inverse_transform
(lr.
predict
(x_test)
('****'
, y_predict_lr)
('均方誤差'
,mean_absolute_error
(std_y.
inverse_transform
(y_test)
, y_predict_lr)
) # 梯度下降
sgd =
sgdregressor()
sgd.
fit(x_train, x_test)
(sgd.coef_)
y_predict_sgd = std_y.
inverse_transform
(sgd.
predict
(x_test)
('****'
, y_predict_sgd)
('均方誤差'
,mean_absolute_error
(std_y.
inverse_transform
(y_test)
, y_predict_sgd)
) # 嶺回歸
rd =
ridge
(alpha=
1.0)
rd.fit(x_train, x_test)
(rd.coef_)
y_predict_rd = std_y.
inverse_transform
(rd.
predict
(x_test)
('****'
, y_predict_rd)
('均方誤差'
,mean_absolute_error
(std_y.
inverse_transform
(y_test)
, y_predict_rd)
)return
myliner
()
機器學習之1 線性回歸
在最近一段時間,對機器學習進行了學習,但感覺效果不是很好。一日與朋友聊起此事,他建議建個部落格,一來梳理一下所學內容,二來和大家一起學習交流。因此,建立了此部落格,如果您發現博文中有不當之處,歡迎您來郵指明,我的郵箱為212352807 qq.com 在機器學習中,基本分為兩大問題 監督學習 sup...
機器學習演算法 之logistic回歸
還是那句話 統計學習 模型 策略 演算法 1.模型 logistic模型是對條件概率進行了建模 雖然叫做logistic回歸,但實際上解決的是基本的二分類問題,因此可以建立上述的條件概率模型。這裡利用了sigmoid函式的特性,比之線性模型,應當是乙個更加合理的模型 2.策略 在建立好概率模型之後,...
機器學習演算法之邏輯回歸
本部分將講解機器學習演算法中最為常用的邏輯回歸演算法,該演算法的講解主要來自於andrewng deeplearning.ai中部分課程的知識結合書籍中部分數學理論知識,將以較為易懂並部分深入的講解,講解中存在大量手寫體的公式及推導。邏輯回歸演算法中有幾個基本點需要知道 首先了解下二分類演算法需要解...