# lr
lr_param =
lr_grid = gridsearchcv(lr, lr_param, cv=n_fold, scoring=scoring, n_jobs=-1)
lr_grid.fit(x_train_std, y_train)
print(lr_grid.best_score_) # 最優分數
print(lr_grid.best_params_) # 最優引數
print(lr_grid.cv_results_) # 結果
# 把引數重新賦值給原模型
lr.set_params(**lr_grid.best_params_)
lr.fit(x_train_std, y_train)
# 線性svc 如果一次性設定的引數太多,可能會跑很長時間,這個時候,建議使用貪心的方法,在某個引數調到最優的時候再調另乙個引數
linear_svc_param =
linear_svc_grid = gridsearchcv(linear_svc, linear_svc_param, cv=n_fold, scoring=scoring, n_jobs=-1)
linear_svc_grid.fit(x_train_std, y_train)
print(linear_svc_grid.best_score_) # 最優分數
print(linear_svc_grid.best_params_) # 最優引數
# 把引數重新賦值給原模型
linear_svc.set_params(**linear_svc_grid.best_params_)
linear_svc.fit(x_train_std, y_train)
# 多項式svc
poly_svc_param =
poly_svc_grid = gridsearchcv(poly_svc, poly_svc_param, cv=n_fold, scoring=scoring, n_jobs=-1)
poly_svc_grid.fit(x_train_std, y_train)
print(poly_svc_grid.best_score_) # 最優分數
print(poly_svc_grid.best_params_) # 最優引數
# 把引數重新賦值給原模型
poly_svc.set_params(**svc_grid.best_params_)
poly_svc.fit(x_train_std, y_train)
# 決策樹 關於決策樹引數較多,可參考:
dt_param =
dt_grid = gridsearchcv(dt, dt_param, cv=n_fold, scoring=scoring, n_jobs=-1)
dt_grid.fit(x_train_std, y_train)
print(dt_grid.best_score_) # 最優分數
print(dt_grid.best_params_) # 最優引數
# 把引數重新賦值給原模型
dt.set_params(**dt_grid.best_params_)
dt.fit(x_train_std, y_train)
資料探勘 建模調參
線性回歸,模型決策樹模型 gbdt模型,xgboost模型 lightgbm模型 簡單的線性回歸,可以用sklearn from sklearn.linear model import linearregression model linearregression normalize true mo...
零基礎入門資料探勘 Task4 建模調參
一 介紹 1 線性回歸模型 線性回歸對於特徵的要求 處理長尾分布 理解線性回歸模型 2 模型效能驗證 評價函式與目標函式 交叉驗證方法 針對事件序列問題的驗證 繪製學習率曲線 繪製驗證曲線 3 嵌入式特徵選擇 lasso回歸 ridge回歸 決策樹4 模型對比 常用線性模型 常用非線性模型 5 模型...
金融資料 建模與調參
引數調整 logistic regression 雖然被稱為回歸,但其實際上是分類模型,並常用於二分類。logistic regression 因其簡單 可並行化 可解釋強深受工業界喜愛。logistic 回歸的本質是 假設資料服從這個分布,然後使用極大似然估計做引數的估計。logistic 分布是...