兩兩正交且模為1
\[a \cdot b = \left| a \right|\left| b \right|\cos \left( a \right)\]
設向量b的模為1,則a與b的內積值等於a向b所在直線投影的向量長度。要準確描述向量,首先要確定一組基,然後給出在基所在的各個直線上的投影值,就可以了。
\[a \times b = \left\| a \right\|\left\| b \right\|\sin \theta n\]
n是同時垂直於a,b向量的單位向量。
可逆矩陣:$ab = ba = e$
正交矩陣:$a = e$
a相似於b($a \sim b$):$}ap = b$
,p是可逆方陣。相似矩陣有相同的特徵多項式,相同的特徵值。
$ax = \lambda x$,$x$是非零列向量,a是n階方陣。
(1)$\begin
\cdots = \left| a \right|\\
+ + \cdots = } + } + \cdots + }
\end$
(2)實對稱矩陣的任一特徵值都是實數
(3)不同特徵值對應的特徵向量線性無關
$tr\left( a \right) = } + } + \cdots + }$,$a$是n階方陣。
(1)跡是所有對角元的和
(2)跡是所有特徵值的和
(3)某些時候也利用tr(ab)=tr(ba)來求跡
線性代數基礎
向量是由n個數組成的n行1列或1行n列的有序陣列 向量點乘 內積,數量積 運算結果是乙個標量,可以計算兩個向量間的夾角以及a向量在b向量方向上的投影,點積的意義是測量兩個向量同向的程度。向量叉乘 外積,向量積 運算結果是乙個向量,並與這兩個向量組成的平面垂直 向量的線性組合 先數乘後疊加 a1v1 ...
數學基礎 線性代數
1 矩陣正定性的判斷,hessian 矩陣正定性在梯度下降中的應用 若矩陣所有特徵值均不小於0,則判定為半正定,若矩陣所有特徵值均大於0,則判定為正定,在判斷優化演算法的可行性時hessian 矩陣的正定性起了很大的作用,若hessian 正定,則函式的二階偏導恆大於0,函式的變化率處於遞增狀態,在...
線性代數 線性代數的本質
線性代數在機器學習的領域中扮演者十分重要的角色,所以這裡岔開先整理一些線性代數的基本概念和計算方法。這裡是3blue1brown的線性代數課程的截圖和筆記。作為快速複習的網路筆記。本課程的特點 通過影象展現線性代數計算在幾何圖形上意義。這樣能更好的理解線性代數為什麼叫做線性代數。線性代數為什麼採用這...