學完線性代數的同學,可能會對線性代數的很多概念有所疑惑.
這個東西有什麼用?那個玩意定義出來有什麼意義?
本文將**線性代數中及其重要的兩個概念:特徵值與特徵向量.
(ps:下文中的矩陣
a 均認為是方陣)
矩陣不單單是二維的陣列,它更重要的角色是對映:y⃗
=ax⃗
y⃗ =
ax⃗ 就相當於y⃗
=f(x
⃗ ),矩陣
a 是把向量x⃗
對映到向量y⃗
的乙個函式,或者說,對映,運算元.
從一般的角度看,這個對映無非就是矩陣乘向量,說得具體一點,就是n次的向量點積計算.
(矩陣的一行乘上向量,並對結果向量的所有元素求和,就是一次點積)
錯!實際上,這個對映本質是乙個縮放操作.舉乙個簡單的例子,矩陣a=
(43−
2−1)
它的特徵值分別是2和1,特徵向量是(1
1)和(23
) .
設向量x⃗ =
(12)
,那麼顯然結果y⃗
=ax⃗
=(01
) .
我們使用另一種方法計算,首先我們將x⃗
表示成特徵向量(1
1)和(23
) 的線性組合,即:x⃗
=(12
)=−1
∗(11
)+1∗
(23)
然後,我們將特徵值和對應的係數相乘,得到: y⃗
=−1∗
2∗(1
1)+1
∗1∗(
23)=
−2∗(
11)+
1∗(2
3)
顯然,如果你繼續計算下去,你也會得到y⃗
=(01
)
特徵值和特徵向量的意義就在於此!因此,我們需要將向量x⃗矩陣所充當的對映,實際上就是對特徵向量的縮放,每個特徵向量的縮放程度就是特徵值.
表示成特徵向量的線性組合(相當於以特徵向量為基),得到相應的特徵向量的權重.
然後,每個權重與特徵值相乘,就是這個對映最本質的縮放操作.
基於這樣的理解,我們可以很簡單地解釋很多結論.
對角化分解實際上就是我們解釋特徵值含義的過程.a=
pλp−
1 ,其中
p 是由特徵向量組成的矩陣,
λ是由特徵值組成的對角矩陣.
在解釋對角化分解之前,我們還要先解釋矩陣的另乙個含義.對於z
⃗ =py
⃗ ,事實上矩陣
p 還有其他含義,比如在這裡有轉換基向量的含義:
特徵值和特徵向量理解
1 線性變換 首先來個線性方程組 換個表達方式,所以可以寫成如下格式,現在有矩陣a,列向量x和y,向量x通過矩陣a線性變換到y,如下圖 2 接下來,我們說明上述公式的幾何意義。也就是 這就一目了然了,x 經過線性變換後變為y,涉及到了兩個變化,伸縮和旋轉,也就是x先作伸縮變換,然後旋轉到y的位置。矩...
特徵值和特徵向量
在剛開始學的特徵值和特徵向量的時候只是知道了定義和式子,並沒有理解其內在的含義和應用,這段時間整理了相關的內容,跟大家分享一下 首先我們先把特徵值和特徵向量的定義複習一下 定義 設a是n階矩陣,如果數 和n維非零向量x使關係式 成立,那麼,這樣的數 稱為矩陣a的特徵值,非零向量x稱為a的對應於特徵值...
特徵值和特徵向量
特徵向量和特徵值在計算機視覺和機器學習中有許多重要的應用。眾所周知的例子是pca 主成分分析 進行降維或人臉識別是特徵臉。特徵向量和特徵值的乙個有趣應用在我的另一篇有關誤差橢圓的博文中提到。此外,特徵值分解形成協方差矩陣幾何解釋的基礎。在這篇文章中,我將簡單的介紹這個數學概念,並且展示如何手動獲取二...