在前面一篇 chat 中,我們利用矩陣的特徵值分解對資料進行主成分分析。這種方法有一定的侷限性:即要求矩陣必須是方陣且能夠被對角化。那麼如果拓展到一般情況,對於任意形狀的矩陣我們該如何處理呢?
這篇 chat 將介紹乙個更通用的利器:奇異值分解。他可以對任意形狀的矩陣進行分解,適用性更廣。我們可以將特徵值分解看作是奇異值分解的特殊情況,先從特徵值分解的幾何意義入手,然後從特殊到一般,在空間的背景下引導大家一步一步探索奇異值分解方法的推導過程,從頭摸索一遍方法的來龍去脈,並具體運用他對資料進行降維處理。
全文主要內容如下:
回顧特徵值分解的幾何意義
**奇異值分解的具體實施細節
從行和列兩個維度進行資料壓縮和矩陣近似
利用 python 進行奇異值分解
閱讀全文:
矩陣奇異值分解
奇異值分解是線性代數中一種重要的矩陣分解,在訊號處理 統計學等領域有重要應用。定義 設a為m n階矩陣,aha的n個特徵值的非負平方根叫作a的奇異值。記為 i a 如果把aha的特徵值記為 i a 則 i a i aha 1 2 定理 奇異值分解 設a為m n階復矩陣,則存在m階酉陣u和n階酉陣v,...
矩陣的奇異值分解
奇異值分解 singular value decomposition 是線性代數中一種重要的矩陣分解,奇異值分解則是特徵分解在任意矩陣上的推廣。在訊號處理 統計學等領域有重要應用。假設m是乙個m n階矩陣,其中的元素全部屬於域 k,也就是實數域或複數域。如此則存在乙個分解使得 其中u是m m階酉矩陣...
矩陣的奇異值分解
奇異值分解 singular value decomposition,svd 是將矩陣分解成奇異值 singular vector 和奇異值 singular value 通過奇異值分解,我們會得到一些與特徵分解相同型別的資訊。然而,奇異值分解有更廣泛的應用,每個實數矩陣都有乙個奇異值,但不一定都有...