from sklearn.datasets import load_boston
from sklearn.linear_model import ridge
from sklearn.metrics import r2_score
#切分資料集 隨機劃分測試資料和訓練資料
from sklearn.model_selection import train_test_split
#載入資料
ld = load_boston(
)# 切分資料 (資料,目標,你準備用多少資料測試)
"""data: 會被分成兩半
target 也會被且成兩半
每次劃分隨機
"""828
2train_data,test_data ,train_target,test_target = train_test_split(ld.data,ld.target,test_size=
0.2)
測試資料佔比
#訓練模型
#ridge 是嶺回歸 預設1.0 可以從高往低調
alpha表示正則化強度
lr = lasso(alpha=
0.5)
lr.fit(train_data,train_target)
#評估模型
print
("模型得分是:::"
,r2_score(test_target,lr.predict(
(test_data)))
)
from sklearn.datasets import load_boston
from sklearn.linear_model import lasso
from sklearn.metrics import r2_score
#切分資料集 隨機劃分測試資料和訓練資料
from sklearn.model_selection import train_test_split
#載入資料
ld = load_boston(
)# 切分資料 (資料,目標,你準備用多少資料測試)
"""data: 會被分成兩半
target 也會被且成兩半
每次劃分隨機
"""train_data,test_data ,train_target,test_target = train_test_split(ld.data,ld.target,test_size=
0.2)
#訓練模型
#ridge 是嶺回歸 預設1.0 可以從高往低調
lr = lasso(alpha=
0.5)
lr.fit(train_data,train_target)
#評估模型
print
("模型得分是:::"
,r2_score(test_target,lr.predict(
(test_data)))
)
嶺回歸 lasso回歸
嶺回歸 ridge regression 和lasso least absolute shrinkage and selection operator 都是ols的改進,知乎上有關於三者異同的詳細討論 關於lasso 這裡記錄一下最近的學習心得。嶺回歸的含義 嶺回歸的權值計算公式中有單位方陣i,就像...
R 嶺回歸 lasso回歸
1.嶺回歸 嶺回歸 ridge regression,tikhonov regularization 實際上算是最小二乘法 ols 的改良版。最小二乘法中使用的是無偏估計回歸,而嶺回歸使用的是 有偏估計回歸 通過損失部分資訊 減低精度得到的回歸係數,但是這樣跟符合實際情況。因為ols有四個基本假設 ...
嶺回歸與lasso回歸
a.什麼是嶺回歸和lasso回歸?為什麼要用嶺回歸和lasso回歸?嶺回歸選參的一般原則是什麼。對ols進行範數1正則化叫lasso回歸。對ols進行範數2正則化叫嶺回歸。進行嶺回歸和lasso回歸的主要目的 1.解決病態矩陣的過擬合和欠擬合問題。2.消除多重共線性造成的行列式趨近於0,從而引起的大...