sklearn.linear_model.linearregression(fit_intercept=true, normalize=false, copy_x=true, n_jobs=none) 超參
解釋型別(預設值)
fit_intercept
是否計算模型的截距;如果設定為 false,計算將不使用截距(即:期望資料已經進行了中心化處理)
boolean(true)
normalize
是否將資料歸一化;fit_intercept 設定為 false 時,這個引數可以忽略。如果設定為 true,回歸之前將通過減去均值並除l2範數進行歸一化。如果需要進行標準化,請在呼叫估計器 normalize=false的 fit 函式之前使用sklearn.preprocessing.standardscaler
boolean(false)
n_jobs
確定cpu的核數 (none表示1,-1 表示使用所有)
int or none(none) 屬性
解釋型別
coef_
回歸係數(斜率)
array
intercept_
截距array 方法
解釋型別
fit(x, y[, sample_weight])
訓練模型
x : array-like or 稀疏矩陣,y : array_like,sample_weight : numpy array
predict(x)
**x : array_like or 稀疏矩陣
score(x, y[, sample_weight])
評分指標
r 2=
1−(∑
i=1m
(y(i
)−y^
(i))
2)/m
(∑i=
1m(y
(i)−
yˉ)2
)/mr^2 = 1 - \frac^(y^ - \hat y^)^)/m}^(y^ - \bar y)^)/m}
r2=1−(
∑i=1
m(y
(i)−
yˉ)
2)/m
(∑i=
1m(
y(i)
−y^
(i))
2)/m
float
import matplotlib.pyplot as plt
import numpy as np
from sklearn import datasets, linear_model
from sklearn.metrics import mean_squared_error, r2_score
experiences = np.array([0
,1,2
,3,4
,5,6
,7,8
,9,10
])salaries = np.array(
[103100
,104900
,106800
,108700
,110400
,112300
,114200
,116100
,117800
,119700
,121600])
# 將特徵資料集分為訓練集和測試集,除了最後5個作為測試用例,其他都用於訓練
x_train = experiences[:7
] x_train = x_train.reshape(-1
,1) x_test = experiences[7:
] x_test = x_test.reshape(-1
,1)# 把目標資料(特徵對應的真實值)也分為訓練集和測試集
y_train = salaries[:7
] y_test = salaries[7:
]# 建立線性回歸模型
regr = linear_model.linearregression(
)# 用訓練集訓練模型——看就這麼簡單,一行搞定訓練過程
regr.fit(x_train, y_train)
# 用訓練得出的模型進行**
diabetes_y_pred = regr.predict(x_test)
# 將測試結果以圖標的方式顯示出來
李燁-機器學習極簡入門課
深度學習實踐(1) 線性回歸
這次主要是初步用窮舉法實現深度學習的線性回歸。假設給出一組資料符合y 2x,這裡的2我們並不知道,是要求的未知量。如何求呢?用窮舉法。我們知道線性函式是y w x 假設b 0 設w 1 把x帶入,得到y pre y的 值 而損失函式就是loss y y pre 2 當loss最小時,也就是得到了最符...
線性回歸演算法 1 簡單線性回歸原理
一類機器學習演算法的思路 通過分析問題,找到問題的損失函式或者效用函式,通過最優化損失函式或者效用函式,確定機器學習的演算法模型 如圖所示,對於樣本,求一條擬合曲線 y ax b hat 為 的某個樣本 x 的 值,而 y 為樣本的真實值。我們希望 hat 和 y 的差距盡量小 y hat 2 此處...
機器學習 線性回歸python實踐 1
寫在最前面 線性回歸是機器學習最簡單的模型,用來尋找最佳擬合曲線。我曾經在數模比賽時用過,雖然只拿了省二。優點是 易於理解,計算簡單 缺點是 對於非線性的資料擬合效果不好 適用資料型別 數值型和標稱型資料 今天簡單介紹下最小二乘法 ordinary least squares 這是一組樣例資料的的散...