hθ(
x)=θ
0+θ1
x1+θ
2x2+
θ3x3
+θ4x
4h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_3+\theta_4x_4
hθ(x)
=θ0
+θ1
x1+
θ2x
2+θ
3x3
+θ4
x4
為了表示方便,我們定義乙個單純為了計算方便的特徵,也就是x0=
1x_0=1
x0=1.
此時hθ(
x)=θ
txh_\theta(x)=\theta^tx
hθ(x)
=θtx
, x
xx和θ
\theta
θ都是n+1維的向量。
同單變數線性回歸。
為了使得梯度下降演算法正常的工作,最好各個特徵值的大小和範圍都比較接近,否則會出現如下圖一樣的運算路徑。
所以需要調整變數的範圍,使得範圍接近、均值為0,即對變數做如下處理:
x =x
−μsx=\frac
x=sx−μ
這裡的μ
\muμ是x的均值;s是x的方差,或者較為實用的是可以取(max-min).
將x
xx視作x
1x_1
x1,將x
2x^2
x2視作x
2x_2
x2,將x
3x^3
x3視作x
3x_3
x3.
θ =(
xtx)
−1xt
y\theta=(x^tx)^x^ty
θ=(xtx
)−1x
ty正規方程法不需要嘗試,只需一次計算即可獲得結果。
但是計算複雜度高,只適用於低緯度的矩陣運算。
吳恩達機器學習筆記
為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...
吳恩達機器學習筆記
sigmoid啟用函式 0,1 x 0,y 0.5 tanh啟用函式 1,1 x 0,y 0 relu啟用函式 x 0,y 0 x 0,y x sigmoid啟用函式 除了輸出層是乙個二分類問題基本不會用它。tanh啟用函式 tanh是非常優秀的,幾乎適合所有場合。relu啟用函式 最常用的預設函式...
吳恩達機器學習第二週程式設計作業(Python實現)
課程作業 提取碼 3szr 1 單元線性回歸 ex1.py from matplotlib.colors import lognorm from mpl toolkits.mplot3d import axes3d from computecost import from plotdata impo...