「」"
author:lei
function: l2正則化 解決過擬合,使得w的每個元素都很小,都接近於0
越小的引數說明模型越簡單,越簡單的模型則越不容易產生過擬合現象
線性回歸:容易出現過擬合,為了把訓練集資料表現的更好,可使用l2正則化:ridge:嶺回歸,帶有正則化的線性回歸,解決過擬合。
回歸解決過擬合
「」"from sklearn.linear_model import ridge
from sklearn.preprocessing import standardscaler
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_boston
from sklearn.model_selection import gridsearchcv
def ridge_regression():
rg = ridge()
lb = load_boston()
x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)
std_x = standardscaler()
x_train = std_x.fit_transform(x_train)
x_test = std_x.transform(x_test)
std_y = standardscaler()
y_train = std_y.fit_transform(y_train.reshape(-1, 1))
y_test = std_y.transform(y_test.reshape(-1, 1))
gc = gridsearchcv(rg, param_grid=, cv=5)
gc.fit(x_train, y_train)
y_predict = std_y.inverse_transform(gc.predict(x_test))
# print(y_predict)
print(gc.best_params_)
print(mean_squared_error(std_y.inverse_transform(y_test), y_predict))
ifname== 『main』:
ridge_regression()
線性回歸的改進 嶺回歸
嶺回歸,其實也是一種線性回歸。只不過在演算法建立回歸方程時候,加上正則化的限制,從而達到解決過擬合的效果。normalize 資料是否進行標準化 ridge.coef 回歸權重 ridge.intercept 回歸偏置 ridge方法相當於sgdregressor penalty l2 loss s...
線性回歸的改進 嶺回歸
嶺回歸,其實也是一種線性回歸。只不過在演算法建立回歸方程時候,加上正則化的限制,從而達到解決過擬合的效果 solver 會根據資料自動選擇優化方法 normalize 資料是否進行標準化 ridge.coef 回歸權重 ridge.intercept 回歸偏置 all last four solve...
深度學習(正則化的線性回歸和邏輯回歸)
clear clc 載入資料 x load ex5linx.dat y load ex5liny.dat 顯示原始資料 plot x,y,o markeredgecolor b marke cecolor r markersize 10 將特徵值變成訓練樣本矩陣 x ones length x 1 ...