不斷的迭代,
還是波士頓房價**
獲取資料
資料清洗預處理
劃分資料集
特徵工程
預估器流程
coef
intercept
模型評估
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import standardscaler
from sklearn.linear_model import linearregression,sgdregressor
def linear1():
"""正規方程對波士頓房價進行**
:return:
"""# 1)獲取資料
data = load_boston()
# 2)劃分資料集
x_train,x_test,y_train,y_test = train_test_split(data.data, data.target, random_state=22)
# 3)標準化
transfer = standardscaler()
x_train = transfer.fit_transform(x_train)
x_test = transfer.transform(x_test)
# 4)預估器
estimator = linearregression()
estimator.fit(x_train,y_train)
# 5)得出模型
print("正規方程權重係數為:",estimator.coef_)
print("正規方程偏置係數為:",estimator.intercept_)
# 6)模型評估
return none
def linear2():
"""梯度下降對波士頓房價進行**
:return:
"""# 1)獲取資料
data = load_boston()
# 2)劃分資料集
x_train,x_test,y_train,y_test = train_test_split(data.data, data.target, random_state=22)
# 3)標準化
transfer = standardscaler()
x_train = transfer.fit_transform(x_train)
x_test = transfer.transform(x_test)
# 4)預估器
estimator = sgdregressor()
estimator.fit(x_train,y_train)
# 5)得出模型
print("梯度下降權重係數為:",estimator.coef_)
print("梯度下降偏置係數為:",estimator.intercept_)
# 6)模型評估
return none
if __name__ == "__main__":
linear1()
linear2()
線性回歸 梯度下降
線性回歸演算法屬於監督學習的一種,主要用於模型為連續函式的數值 過程總得來說就是初步建模後,通過訓練集合確定模型引數,得到最終 函式,此時輸入自變數即可得到 值。1 初步建模。確定假設函式 h x 最終 用 2 建立價值函式 j 也叫目標函式 損失函式等,求引數 用 3 求引數 對價值函式求偏導 即...
線性回歸梯度下降
梯度下降 一種最優化演算法,就是沿著函式的梯度方向尋找函式的最小值 線性回歸模型 最終的目標就是利用 梯度下降法 求出使 誤差函式 最小的線性函式的系數值 梯度下降演算法有兩種 1.批量梯度下降 batch gradient descent 2.隨機梯度下降 stochastic gradient ...
線性回歸 梯度下降
利用回歸方程對乙個或多個自變數和因變數之間進行建模的分析方式損失 計算損失用最小二乘法。優化。優化有兩種方式。一種是正規方程解法通常只適用於極少量資料,一般不會用 二是梯度下降的方式通常使用梯度下降 梯度下降的簡介。梯度就是倒導數 切線。沿著切線的方向下降的最快。梯度下降有兩個引數,起始點和學習率 ...