對稱陣a
相應的,其對應的對映也分解為三個對映。現在假設有x向量,用a將其變換到a的列空間中,那麼首先由u'先對x做變換:
由於正交陣「 u的逆=u『 」,對於兩個空間來講,新空間下的「 基e' 座標 x' ,原空間e 座標x 」有如下關係
ex=e'x' ===>
x=e'x' ===>
x'=(e'的逆)x ==>
x向量在新的「基」下的新座標 (e的轉置)x;
1、那麼對於上式utx先可以理解為:將x用a的所有特徵向量表示為:
則通過第乙個變換就可以把x表示為[a1 a2 ... am]':
2、緊接著,在新的座標系表示下,由中間那個對角矩陣對新的向量座標換,其結果就是將向量往各個軸方向拉伸或壓縮:
如果a不是滿秩的話,那麼就是說對角陣的對角線上元素存在0,這時候就會導致維度退化,這樣就會使對映後的向量落入m維空間的子空間中(塌縮的概念)。
3、最後一步u,相當於將x按照a的空間下變化過後,在轉回原座標系表示!
那麼對於svd分解中,
正交基v選擇為a'a的特徵向量的,由於a'a是對稱陣,v之間兩兩正交,
對v1,v2,...,vk進行擴充套件v(k+1),...,vn(這n-k個向量存在於a的零空間中,即ax=0的解空間的基),使得v1,v2,...,vn為n維空間中的一組正交基,即
當k < i <= m時,對u1,u2,...,uk進行擴充套件u(k+1),...,um,使得u1,u2,...,um為m維空間中的一組正交基,即
a矩陣的奇異值分解:
ax=uevtx,,,按照同上的理解,首先對x座標轉換,然後做對應效果的拉伸,
不過這裡在乙個a的作用下應該沒有ata的效果厲害所以只有sqrt作為對角元素,然後在使用u將表示轉變回來!
參考:
SVD分解原理詳解
在介紹svd之前,先補充一些基礎知識 1.酉矩陣 2.正規 正定 矩陣 3.譜分解 4.svd分解 作為譜定理的泛化,svd 分解對於原矩陣的要求就要弱得多。4.手動svd分解的乙個例項 svd的分解實際可以將矩陣 m寫成乙個求和形式 5.svd分解的應用 1 分析了解原矩陣的主要特徵和攜帶的資訊 ...
機器學習 SVD分解
3 svd的舉例 4 svd的應用 5 svd的優缺點 參考經常看到svd奇異值分解,但一直沒有去了解它講的什麼,剛好在李航老師統計學習方法第二版上是單獨的一章,下面看了一些部落格總結一下 任意乙個m n m nm n的矩陣 m mm階正交陣 降序排列的非負對角線元素組成的m n m nm n對角陣...
特徵值分解和SVD分解
一 特徵值與特徵向量的幾何意義 1.矩陣乘法 在介紹特徵值與特徵向量的幾何意義之前,先介紹矩陣乘法的幾何意義。矩陣乘法對應了乙個變換,是把任意乙個向量變成另乙個方向或長度的新向量。在這個變化過程中,原向量主要發生旋轉 伸縮的變化。如果矩陣對某些向量只發生伸縮變換,不產生旋轉效果,那麼這些向量就稱為這...