其實是一種資料的處理方法,可以簡化資料。矩陣乘特徵向量就是在其方向的投影。這點類似於向量點積既是投影。
通過求特徵值和向量,把矩陣資料投影在乙個正交的空間,而且投影的大小就是特徵值。這樣就直觀體現了資料的基本特徵。
最大特徵值並不是說資料在所有方向的投影的最大值,而僅限於正交空間的某一方向。
至於為什麼求出來的特徵向量是正交的,可以證明。
有沒有其他的正交空間,一般矩陣,滿足滿秩,只有乙個這樣的空間。
會不會有更好的空間來體現資料的特徵,一般來說,正交空間就很好,不排除特殊應用需要非正交的空間,可能會更好。
特徵值和特徵向量理解
1 線性變換 首先來個線性方程組 換個表達方式,所以可以寫成如下格式,現在有矩陣a,列向量x和y,向量x通過矩陣a線性變換到y,如下圖 2 接下來,我們說明上述公式的幾何意義。也就是 這就一目了然了,x 經過線性變換後變為y,涉及到了兩個變化,伸縮和旋轉,也就是x先作伸縮變換,然後旋轉到y的位置。矩...
對特徵值 特徵向量的理解
特徵向量確實有很明確的幾何意義,矩陣 既然討論特徵向量的問題,當然是方陣,這裡不討論廣義特徵向量的概念,就是一般的特徵向量 乘以乙個向量的結果仍是同維數的乙個向量,因此,矩陣乘法對應了乙個變換,把乙個向量變成同維數的另乙個向量,那麼變換的效果是什麼呢?這當然與方陣的構造有密切關係,比如可以取適當的二...
特徵值特徵向量的形象理解
特徵值特徵向量在機器視覺中很重要,很基礎,學了這麼多年數學一直不理解特徵值特徵向量到底表達的物理意義是什麼,在人工智慧領域到底怎麼用他們處理資料,當然筆者並不打算把文章寫成純數學文章,而是希望用直觀和易懂的方式進行解釋。可對角化矩陣是 如果乙個方塊矩陣 a 相似於對角矩陣,也就是說,如果存在乙個可逆...