def儲存:儲存訓練完結束的模型linear3():
"""嶺回歸的優化方法對波士頓房價**
"""#
獲取資料
boston=load_boston()
#劃分資料集
x_train,x_test,y_train,y_test=train_test_split(boston.data,boston.target,random_state=22)
#標準化
transfer=standardscaler()
x_train=transfer.fit_transform(x_train)
x_test=transfer.transform(x_test)
#預估器
#estimator=ridge(alpha=0.0001, max_iter=100000)
#estimator.fit(x_train,y_train)
#儲存模型
#joblib.dump(estimator,"my_ridge.pkl")
#載入模型
estimator=joblib.load("
my_ridge.pkl")
#得出模型
print("
嶺回歸-權重係數為:\n
",estimator.coef_)
print("
嶺回歸-偏置為:\n
",estimator.intercept_ )
#模型評估
y_predict =estimator.predict(x_test)
print("
**房價:\n
", y_predict)
error =mean_squared_error(y_test, y_predict)
print("
嶺回歸-均方差誤差:\n
", error)
return
none
if__name__ == '
__main__':
#linear1()
#linear2()
linear3()
載入:載入已有的模型,去進行**結果和之前的模型一樣
我們先來看一下乙個k-means的聚類效果圖
我們以一張圖來解釋效果
如何評估聚類的效果?
分析過程(我們以乙個藍1點為例)
如果b_i>>a_i:趨近於1效果越好, b_i<
機器學習日記 監督學習 無監督學習
監督學習是指 利用一組已知類別的樣本調整 分類器的 引數,使其達到所要求效能的過程,也稱為 監督訓練或有教師學習。無監督學習 現實生活中常常會有這樣的問題 缺乏足夠的 先驗知識 因此難以人工標註類別或進行人工類別標註的成本太高。很自然地,我們希望計算機能代我們完成這些工作,或至少提供一些幫助。根據類...
機器學習筆記 監督學習,無監督學習,半監督學習
這個問題可以回答得很簡單 是否有監督 supervised 就看輸入資料是否有標籤 label 輸入資料有標籤,則為有監督學習,沒標籤則為無監督學習。什麼是學習 learning 學習 乙個成語就可概括 舉一反三。此處以高考為例,高考的題目在上考場前我們未必做過,但在高中三年我們做過很多很多題目,懂...
有監督學習和無監督學習 無監督學習
一.無監督學習包含的演算法 聚類 kmeans聚類演算法 降維 pca 之所以叫無監督學習 是因為模型是從無標籤的資料開始學習,沒有目標值。二.kmeans聚類 1.聚類演算法步驟 定義 將高維資料轉化為低維資料的過程,在此過程中可能會捨棄原有資料,創造新的變數 作用 降低原始資料的維數 複雜度 損...