使用一種基於自變數(x)來**因變數(y)的方法,假設這兩個變數是線性相關的,因此我們嘗試尋找一種根據特徵或自變數(x)的線性函式來精確**響應值(y)。
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
dataset=pd.read_csv('datasets/studentscores.csv')
x=dataset.iloc[:,:1].values
y=dataset.iloc[:,1].values
# 劃分訓練集、測試集
from sklearn.cross_validation import train_test_split
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=1/4,random_state=0)
from sklearn.linear_model import linearregression
regressor= linearregression()
regressor= regressor.fit(x_train,y_train)
y_pred=regressor.predict(x_test)
#視覺化訓練集
plt.scatter(x_train,y_train,color='red')
plt.plot(x_train,regressor.predict(x_train),color='blue')
#視覺化測試集
plt.scatter(x_test,y_test,color='red')
plt.plot(x_test,regressor.predict(x_test),color='blue')
簡單線性回歸
真實值 y theta x varepsilon 值 hat theta x varepsilon 為誤差 項,服從 均值為0 方差為 為誤差項,服從均值為0,方差為 為誤差項,服 從均值為 0,方差 為 sigma 的高斯分布。已知若干樣本,可以得到若干 varepsilon 值,根 據極大似 然...
簡單線性回歸
資料預處理 data student data 1 刪除缺失值 lm data na.omit data 散點圖 plot height,weight,data data,main scatter plot col 1,pch col為顏色,pch為形狀 箱線圖 boxplot height wei...
簡單線性回歸演算法
一 目標 尋找一條直線,最大程度的 擬合 樣本特徵和樣本輸出標記之間的關係。在回歸問題中我們 的是乙個具體的數值,這個具體的數值是在乙個連續的空間裡的,如果想看兩個特徵的回歸問題就需要在三維空間裡進行觀察。樣本特徵有多個的回歸稱為多元線性回歸 損失函式 對a求偏導數 最後得到的結果 求a b的pyt...