機器學習之路:python支援向量機回歸svr **波士頓地區房價
python3 學習使用api
支援向量機的兩種核函式模型進行**(原始碼)
git:
from sklearn.datasets import load_boston
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import standardscaler
from sklearn.svm import svr
from sklearn.metrics import r2_score, mean_squared_error, mean_absolute_error
import numpy as np
boston = load_boston()
x = boston.data
y = boston.target
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25, random_state=33)
ss_x = standardscaler()
x_train = ss_x.fit_transform(x_train)
x_test = ss_x.transform(x_test)
ss_y = standardscaler()
y_train = ss_y.fit_transform(y_train.reshape(-1, 1))
y_test = ss_y.transform(y_test.reshape(-1, 1))
linear_svr = svr(kernel=「linear」)
linear_svr.fit(x_train, y_train)
linear_svr_y_predict = linear_svr.predict(x_test)
poly_svr = svr(kernel=「poly」)
poly_svr.fit(x_train, y_train)
poly_svr_y_predict = linear_svr.predict(x_test)
print(「線性核函式支援向量機的預設評估值為:」, linear_svr.score(x_test, y_test))
print(「線性核函式支援向量機的r_squared值為:」, r2_score(y_test, linear_svr_y_predict))
print(「線性核函式支援向量機的均方誤差為:」, mean_squared_error(ss_y.inverse_transform(y_test),
ss_y.inverse_transform(linear_svr_y_predict)))
print(「線性核函式支援向量機的平均絕對誤差為:」, mean_absolute_error(ss_y.inverse_transform(y_test),
ss_y.inverse_transform(linear_svr_y_predict)))
print(「對多項式核函式的預設評估值為:」, poly_svr.score(x_test, y_test))
print(「對多項式核函式的r_squared值為:」, r2_score(y_test, poly_svr_y_predict))
print(「對多項式核函式的均方誤差為:」, mean_squared_error(ss_y.inverse_transform(y_test),
ss_y.inverse_transform(poly_svr_y_predict)))
print(「對多項式核函式的平均絕對誤差為:」, mean_absolute_error(ss_y.inverse_transform(y_test),
ss_y.inverse_transform(poly_svr_y_predict)))
『』』線性核函式支援向量機的預設評估值為: 0.651717097429608
線性核函式支援向量機的r_squared值為: 0.651717097429608
線性核函式支援向量機的均方誤差為: 27.0063071393243
線性核函式支援向量機的平均絕對誤差為: 3.426672916872753
對多項式核函式的預設評估值為: 0.40445405800289286
對多項式核函式的r_squared值為: 0.651717097429608
對多項式核函式的均方誤差為: 27.0063071393243
對多項式核函式的平均絕對誤差為: 3.426672916872753
『』』
機器學習 回歸
有別於分類問題,回歸問題,主要是通過特徵來構造乙個函式,並用這個函式求得的值來近似的估計我們需要 的值。回歸的種類有很多,當然我一時之間不能夠完全的總結出所有的回歸分析方法,但是我們在以後的學習中慢慢的補充。作為乙個初學者,以下的總結可能有一些個人的誤區,所以如果出現什麼錯誤的話,我希望各個讀者能夠...
機器學習 回歸
線性回歸方程引數求解有兩種方式 梯度下降法 gradient descent 假設函式和代價函式 假設函式是我們選取的假設為最終求解到的函式曲線形式,而代價函式是乙個評估現在的曲線和真實樣本的差距 一般用平均方差表示 梯度表明了乙個函式變化最快方向的數值,用梯度下降法經過多次迭代可以使得代價函式趨於...
機器學習 logistic回歸
統計機器學習有兩種常見的機器學習演算法 logistic回歸和svm,這兩種演算法都涉及到優化問題,是非常重要的兩種機器學習演算法,尤其是logistic回歸可能是工程上用的最廣泛的機器學習演算法了。在logistic回歸中訓練分類器就是尋找最佳擬合引數,使用的是最簡單常見優化演算法 梯度下降法。l...