矩陣具有著強大的功能,我們可以矩陣理解為一種變換。比如我們熟知的線性方程——bx=y,相當於將x座標空間變換(對映)到y座標空間,而這簡單地功勞歸功於係數矩陣b。當b=[cos θ, sinθ; -sinθ, cosθ
],則對x的變換為拉東變換,即將原座標旋轉θ角度形成y所在座標。
那存不存在變換矩陣使向量的方向保持不變呢?
對矩陣(方陣)a,若我們能找到乙個向量x使得ax=cx,其中c為標量,則稱x為方陣a的特徵向量。
特徵向量表示式中的原矩陣a就扮演著保持特徵向量x變換而方向保持不變的功能。特徵向量具有保持方向不變的性質,但其向量的長度可能改變(除非c=1),變為原來的c倍。
對特徵值 特徵向量的理解
特徵向量確實有很明確的幾何意義,矩陣 既然討論特徵向量的問題,當然是方陣,這裡不討論廣義特徵向量的概念,就是一般的特徵向量 乘以乙個向量的結果仍是同維數的乙個向量,因此,矩陣乘法對應了乙個變換,把乙個向量變成同維數的另乙個向量,那麼變換的效果是什麼呢?這當然與方陣的構造有密切關係,比如可以取適當的二...
我對特徵值與特徵向量的理解
既然是寫思想,那麼也把之前寫過的一些個人覺得比較好的思考文章陸續發表到這個部落格吧。下面這篇寫關於 特徵值和特徵向量 的理解 寫於2011 11 11 是在本人考研期間複習線性代數時思考好些天寫的。之前只覺得對以後的學弟學妹比較有用,本人這段時間研究回歸分析,發現也需要大量線性代數知識,就拿出來跟更...
特徵值特徵向量的形象理解
特徵值特徵向量在機器視覺中很重要,很基礎,學了這麼多年數學一直不理解特徵值特徵向量到底表達的物理意義是什麼,在人工智慧領域到底怎麼用他們處理資料,當然筆者並不打算把文章寫成純數學文章,而是希望用直觀和易懂的方式進行解釋。可對角化矩陣是 如果乙個方塊矩陣 a 相似於對角矩陣,也就是說,如果存在乙個可逆...