請注意
:csdn那邊的部落格因為那邊審核的時間太長。搬遷入這裡。stanford機器學習前2堂在csdn的部落格裡面。
剛開始他寫了,
這個公式第二堂講的,是梯度下降法,**房價的那個。
如果完全擬合的話,並不能說明你擬合的很好,也有可能是你的資料樣本採集的不正確。
過擬合就是說,僅僅是擬合了某種特定狀況的行為特徵。而沒有反應出房價和面積的真正規律。
locally weighted linear regression
區域性加權線性回歸
。從表面上看區域性加權線性回歸還是線性回歸,所以基本結構還是一樣的。不過區別在於,
這個是上一堂線性回歸的要求。
這個是加權線性回歸。多了乙個w是權係數。而這個w呢??
這裡這個t呢。叫頻寬係數,是我們自己設定的。和a學習係數的性質差不多。從這個式子可以看出,其實是用周邊的點,來擬合當前的點。離的遠的貢獻就低一些,也就是關聯性不強。這樣擬合的就準確一些。
按照老師的說法是,w的函式還在討論中,僅僅是e指數比較合適。
好像這個是每一次**都需要重新學習重新擬合,所以資料量大的時候,代價很大。
epsilon希臘字母,表示的是error,表示那些沒有被表示出來的特徵。被遺忘的參考因素等。
這裡的誤差模型為什麼選用高斯分布,第乙個它只是乙個方便的討論模型,第二個,目前最合適的。
...............未完待續。
我能力有限,但是我努力的將學習成果分享。到這裡就是我今天所學到的新知識,一起學習一起努力吧。
FPGA機器學習之stanford機器學習第一堂
主講 吳恩達。如果你學機器學習,對這個人牛,神的程度,不了解。你就可以洗洗睡了。必定全球人工智慧最權威專家中有他乙個。他說,機器學習是最重要的it技能。這個是在矽谷那種地方。在中國,目前最火爆的是,網頁和安卓。不過大資料,網際網路,智慧型機械人時代的到來,機器學習也會變的很重要。如果自己程式設計去識...
FPGA 機器學習之BP神經網路2
來個小例子講述一下,過程。apf 是0.9 af是0.1 為什麼用0.9,用0.1 主要是因為1和0.在計算過程中,會有計算隱患 可能遇到0,就計算不下去等情況 a0 1 1.78 a0 2 1.14 也就是第一組資料。輸出a2 0.9 最後我們要進行多次的迭代和優化,優化的呢?就是w1,和w2.使...
FPGA機器學習之BP神經網路4
神經網路3,主要是一些用matlab自帶函式來完成神經網路的例子。matlab自帶的函式,都是經過優化,而且函式的實現過程是被封裝好了點。效能也是非常的優良了。可是自己寫出來的bp神經網路可能就不能達到那樣的效果。要想在fpga上實現,或者要知道內部的運 況,還是要自己寫才行。這個是自己寫的bp神經...