(如果你很熟悉線性代數,那麼你可以跳過本節)
1、標量、向量、矩陣和張量
2、矩陣和向量相乘
矩陣乘法是矩陣運算中最重要的操作之一。兩個矩陣相乘是第三個矩陣。c=aba的列數必須和b的行數相等。
兩個矩陣中對應元素相乘被稱為元素對應乘積或者badamard乘積。記為 a⊙b
兩個相同維數的向量x和y的點積(dot product)可以看做是矩陣乘積xty.兩個向量的點積是標量,標量的轉置等於自身。
3、單位矩陣和逆矩陣
單位矩陣:任意向量和單位矩陣相乘都不會改變,我們將保持n維向量不變的單位矩陣記作**in
4、線性相關和生成子空間
一組向量的線性組合,是指每乙個向量乘以對應標量係數之後的和,一組向量的生成子空間(span)是原始向量線性組合後所能抵達點的集合。
如果一組向量中的任意乙個向量都不能表示成其他向量的線性組合,那麼這組向量稱為線性無關(linearly independent)。如果某個向量是一組向量中某些向量的線性組合,那麼我們將這個向量加入這組向量後不會增加這組向量的生成子空間
深度學習 應用數學與機器學習基礎 3
矩陣分解除了分解成特徵值和特徵向量。還有一種分解矩陣的方法,被稱為奇異值分解 singular value decomposition svd 將矩陣分解為奇異向量和奇異值。通過奇異值分解,我們會得到一些與特徵分解相同型別的資訊。每個實數矩陣都有乙個奇異值分解,但不一定有特徵分解。回想一下,我們使用...
應用數學與機器學習基礎
線性代數的知識 1 標量 令x屬於 r 表示一條線的斜率,小寫斜體表示,會表明他屬於是哪種型別 2 向量 s 指定x1,x3 和x6,表示為xs,x s 表示x 中除x1,x3,x6 外所有元素構成的向量。3 矩陣 矩陣值表示式的索引 f a i j 表示函式f 作用在a 上輸出的矩陣的第i 行第j...
深度學習基礎(1) 機器學習與深度學習
機器學習 深度學習 通常,在我們接觸深度學習的過程中,經常可以看到機器學習,深度學習,監督學習,無監督學習,神經網路,隱藏層,函式等一系列概念。這些概念之間的相互關係是什麼,分別是什麼意思,有什麼作用,搞清楚這個是非常重要的。在此對其進行一次梳理。所有的概念都可以認為出自 人工智慧 artifici...