特徵和多項式回歸
正規方程(區別於迭代法的直接解法)
正規方程在矩陣不可逆的情況下的解決方法
用來加快梯度下降的速度。
代價函式j(θ
⃗)
j(\vec \theta)
j(θ)
隨迭代次數的變化圖的用途
選擇學習率
可以選取一系列差乙個數量級的值,eg:0.001,0.01,0.1,1等等
或者對其乘以乙個常數來產生:0.003,0.03,0.3,3。然後根據j(θ
⃗)
j(\vec \theta)
j(θ)
隨迭代次數變化的圖來判斷哪個值作為學習率最好。
特徵的選取
可利用現有特徵來構造新特徵,比如房屋**中,知道房子的臨街寬度和房子的縱深,那麼就可以構造乙個面積來作為新特徵。
多項式回歸
根據訓練集中樣本的分布選擇乙個合適的擬合函式,比如隨著房子面積的增加,房價先快速增長,後增長速度變緩。就可以構造乙個多項式來進行擬合。其**函式可以構造成j(θ
0,θ1
,θ2)
=θ0+
θ1si
ze+θ
2siz
ej(\theta_0,\theta_1,\theta_2)=\theta_0+\theta_1 size +\theta_2 \sqrt
j(θ0,
θ1,
θ2)
=θ0
+θ1
size
+θ2
size
,這樣擬合效果可能比線性擬合會更好。
吳恩達機器學習筆記 多變數線性回歸
目錄前言 一 多維特徵 二 多變數梯度下降 1.代價函式 2.批量梯度下降演算法 3.演示 未驗證 三 特徵縮放 幫助梯度下降演算法更快收斂 1.為什麼要進行特徵縮放 2.特徵縮放的幾種方法 3.進行特徵縮放的注意事項 總結 目前為止,我們 了單變數 特徵的回歸模型,現在我們對房價模型增加更多的特徵...
吳恩達機器學習筆記(2) 多變數線性回歸
我們這次的例題還是用我們上次單變數線性回歸模型一樣的問題 房價問題,但是我們這次新增了房間數,房子所在樓層數,房子面積這三個新變數到我們的例題中。我們把這四個變數命名為x1,x2,x3,x4結果為y,用n表示我們有n個特徵,用m表示樣本數量。既然我們多了這麼多特徵變數,那麼我們的模型的公式也要改變 ...
吳恩達機器學習筆記
為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...