區域性加權緊接著上面的線性回歸中引數求解來繼續講吧。還是以上面的房屋**的**,它的中心思想是在對引數進行求解的過程中,每個樣本對當前引數值的影響是有不一樣的權重的。比如上節中我們的回歸方程為(這個地方用矩陣的方法來表示ɵ表示引數,i表示第i個樣本,h為在ɵ引數下的**值):
我們的目標是讓
最小,然後求出來ɵ,再代入h中就可以得到回歸方程了。
但是如果類似以下的樣本,他們的對應圖如下:
如果用之前的方法,圖中線為求出的回歸方程,那麼在x的取值和真實差別很大,這個情況叫做欠擬合。那麼我們怎麼辦呢?我們的主要思想就是只對x的附近的一些樣本進行選擇,根據這些樣本得到x附近這些樣本所推倒出來的回歸方程,那麼此時我們得到的回歸方程就比較擬合樣本資料,得到的效果圖如下:
我們解的思路如下,加入乙個加權因子:
重新構造新的j(x)
exp是以e為低的指數,這個時候可以知道如果x距離樣本很遠的時候w(i)=0,否則為1,當我們**乙個值的時候就需要我們重新來計算當前的引數ɵ的值,然後構造回歸方程,計算當前的**值。
這就是區域性加權回歸lwr!
區域性加權回歸
區域性加權緊接著上面的線性回歸中引數求解來繼續講吧。還是以上面的房屋 的 它的中心思想是在對引數進行求解的過程中,每個樣本對當前引數值的影響是有不一樣的權重的。比如上節中我們的回歸方程為 這個地方用矩陣的方法來表示 表示引數,i表示第i個樣本,h為在 引數下的 值 我們的目標是讓 最小,然後求出來 ...
區域性加權回歸
通常情況下的線性擬合不能很好地 所有的值,因為它容易導致欠擬合 under fitting 比如資料集是 乙個鐘形的曲線。而多項式擬合能擬合所有資料,但是在 新樣本的時候又會變得很糟糕,因為它導致資料的 過擬合 overfitting 不符合資料真實的模型。今天來講一種非引數學習方法,叫做區域性加權...
區域性加權回歸
andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。寫了幾篇筆記,發現好像課程題目和課程內容並不是十分擬合,所...