1、回歸是達爾文表弟發現的,就是說人類總體有乙個平均身高。那個高個子生的孩子都個高,矮的孩子生的矮。但是他們的下一代大部分都往平均身高長,也就是說特別高的人,他們的孩子會很高,但是往往比他們自己矮。特別矮的人他們生的孩子會矮一些,但是會比自己的父母高,他們都有這種趨勢。表弟管這個叫做回歸。
2、一元線性回歸 指的是乙個自變數對應乙個因變數的 一元函式。當平面座標系中 有些雜湊的點的時候,我們往往想找到一條直線去擬合他們的回歸線。我們管這條直線叫做一元線性回歸
假定這個函式為
我們要求的就是這個函式的
和的值 確定了這個值 我們就確定了一元線性回歸函式
3、代價函式等於
很顯然 如果
的值能使得
最小 那就是我們要的一元線性回歸函式。
4、梯度下降法
就是針對代價函式 的兩個變數求偏微分,然後這個偏微分的值乘以乙個變數 讓當前導數的值-變數*學習量。值最小時就是梯度下降法所要的。此時的引數
就是我們一元線性回歸方程需要的兩個值。關於學習變數 不要把它想得很神秘 拿到座標系去研究 它只是為了配合求導的斜率 改變當前變數在座標系上移動的方向和大小的 僅此而已
發散一下 如果不是 - 而是+ 的話就是求峰值 此時代價函式最大 擬合的最不好
另外有一點 為什麼不用微積分中兩次求導數 的方法求極值
梯度下降法 一元線性回歸
import numpy as np import matplotlib.pyplot as plt 載入資料,delimite表示分隔符為逗號 data np.genfromtxt data.csv delimiter x data data 0 y data data 1 plt.scatter...
梯度下降法 一元線性回歸
import numpy as np import matplotlib.pyplot as plt 載入資料 data np.genfromtxt data.csv delimiter x data data 0 y data data 1 plt.scatter x data,y data pl...
一元線性回歸模型
在回歸模型裡,線性回歸絕對是最簡單的,但這並不妨礙它成為回歸問題上的佼佼者。對於絕大部分的資料分析場景,線性回歸是我們的首選。歸其原因,有幾點 模型簡單且適用於大資料。訓練起來也非常快,資源消耗也少。線性回歸的評估標準?一種最簡單的方法就是測量真實值和 值之間的差異,也叫做誤差。假設一條線很好地擬合...