概念
簡單線性回歸建模背後的基本目標是從成對的 x值和 y值(即 x和 y測量值)組成的二維平面中找到最吻合的直線。一旦用 最小方差法找到這條直線,就可以執行各種統計測試,以確定這條直線與觀測到的 y值的偏離量吻合程度。
線性方程( y = mx + b)有兩個引數必須根據所提供的 x和 y資料估算出來,它們是斜率( m)和 y 軸截距( b)。一旦估算出這兩個引數,就可以將觀測值輸入線性方程,並觀察方程所生成的 y**值。
要使用最小方差法估算出 m和 b引數,就要找到 m 和 b 的估計值,使它們對於所有的 x值得到的 y值的觀測值和**值最小。觀測值和**值之差稱為誤差( y i- (mx i+ b) ),並且,如果對每個誤差值都求平方,然後求這些殘差的和,其結果是乙個被稱為 **平方差的數。使用最小方差法來確定最吻合的直線涉及尋找使**方差最小的 m和 b的估計值。
可以用兩種基本方法來找到滿足最小方差法的估計值 m和 b。第一種方法,可以使用數值搜尋過程設定不同的 m和 b值並對它們求值,最終決定產生最小方差的估計值。第二種方法是使用微積分找到用於估算 m和 b 的方程。我不打算深入討論推導出這些方程所涉及的微積分,但我確實在 ******linearregression 類中使用了這些分析方程,以找到 m和 b 的最小平方估計值(請參閱 ******linearregression 類中的 getslope() 和 getyintercept 方法)。
即使擁有了可以用來找到 m和 b的最小平方估計值的方程,也並不意味著只要將這些引數代入線性方程,其結果就是一條與資料良好吻合的直線。這個簡單線性回歸過程中的下一步是確定其餘的**方差是否可以接受。
TensorFlow 實現簡單線性回歸
import tensorflow as tf import numpy as np import random create data x data np.random.rand 100 astype np.float32 使用numpy生成100個隨機點 noise np.random.norm...
簡單線性回歸
真實值 y theta x varepsilon 值 hat theta x varepsilon 為誤差 項,服從 均值為0 方差為 為誤差項,服從均值為0,方差為 為誤差項,服 從均值為 0,方差 為 sigma 的高斯分布。已知若干樣本,可以得到若干 varepsilon 值,根 據極大似 然...
簡單線性回歸
資料預處理 data student data 1 刪除缺失值 lm data na.omit data 散點圖 plot height,weight,data data,main scatter plot col 1,pch col為顏色,pch為形狀 箱線圖 boxplot height wei...