幾行幾列即為矩陣。aij表示第i行第j列。
只有一行或者一列的稱為向量,向量是一種特殊矩陣。一般向量指的是列向量。
加法:元素對應相加。
標量乘法:標量和矩陣每乙個元素相乘。
要求:第乙個矩陣的列數等於第二個矩陣的行數,如m x n矩陣與nx 1矩陣相乘,結果為第乙個矩陣的行數乘以第二個矩陣的列數。
結果cij是第乙個矩陣第i行和第二個矩陣第j列對應元素相乘求和的值。
不滿**換律:axb != b x a。
滿足結合律:(a x b) x c=a x (b x c)。
單位矩陣i:是對角線為1,其他都為零的方陣。任何矩陣於單位矩陣相乘,矩陣保持不變。
如果矩陣a的逆矩陣存在,則aa-1=a-1a=i。
如果a的轉置矩陣是b,則a矩陣第i行第j列元素與b矩陣第j行第i列元素相等。記at=b。
轉置矩陣的一些性質:
(a±b)t=(at±bt)。
(axb)t=btx at。
(at)t=a。
(ka)t=kat。
吳恩達《機器學習》課程總結 19 總結
線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...
吳恩達《機器學習》課程總結(19)總結
線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...
吳恩達《機器學習》課程總結(4)多變數線性回歸
上圖中列數即為特徵的個數,行數是樣本數。函式假設如下 其中x0 1。和單變數的損失函式相同 其中,求導迭代如下 特徵之間的尺度變化相差很大 如乙個是0 1000,乙個是0 5 梯度演算法需要非常多次的迭代才能收斂,如下圖所示 方法 將各個特徵縮放至大致相同的尺度,最簡單的方法就是特徵減去均值除以方差...