綜述
線性代數的學習,比起計算方法,更重要的是掌握它的本質含義,這一點是非常重要的。矩陣不僅僅是數字排列而成的表而已,如果我們嘗試從空間的角度去理解矩陣,我們會發現,它的「意蘊」是非常豐富有趣的。
其實,本質上來說,矩陣就是對映,在空間上的一種對映。
舉個例子來闡述這個觀點:假設有乙個m * n的矩陣a, 在n維空間中的點x(n * 1 的列向量),則經過矩陣a的對映,就像n維空間中的點x對映到了m維空間中去了(ax, m維的列向量)。
接下來,我將從空間的角度,去闡述一些基本概念:對角矩陣、行列式、特徵值、特徵向量、對角化、秩與可逆化。
首先,不得不說一下單位矩陣,也就是標準空間。(本文只列舉二維空間的變換, 也就是只用二階矩陣來闡述一些概念, 這些概念同樣適用於n維的向量空間)
單位矩陣e,沿著矩陣的對角線的數為1, 其它的數全為0。(例如:
\left\1&0\\0&1\end\right\}
)在這裡,我將直接闡述一些概念的「空間意義」。
一、對角矩陣:
設矩陣a=
\left\1.5&0\\0&0.5\end\right\}
, 那麼,在矩陣a的作用下, 空間會產生怎樣的變化呢?
該空間將發生如下變化:水平方向上將會伸縮為原來的1.5倍,垂直方向上將伸縮為原來的0.5倍。則面積擴大為原來(1 * 1)的1.5 * 0.5倍,即行列式det***a*** = 0.75。
如果矩陣變成了a=
\left\0&0\\0&0.5\end\right\}
, 又會帶來怎樣的變化呢?
水平方向上變為原來的0倍?垂直方向上還是變為原來的0.5倍?對, 沒錯,通過這樣的變換之後,水平方向被壓縮後與垂直方向重合,也就是說,空間的維度由原來的2維降到了1維空間。
那,如果矩陣變成了a=
\left\1.5&0\\0&-0.5\end\right\}
呢?這個時候,垂直方向變為原來的-0.5倍,即上下顛倒後縮短為原來的0.5,而deta<0。
通過這樣的乙個簡單例子,會給我們帶來乙個怎麼樣的思考呢?
首先,對比對角矩陣與單位矩陣,沒錯,單位矩陣,也是對角矩陣。然後呢?有沒有發現,這種伸縮率是相比於1的?也就是單位矩陣,單位空間。再然後呢?會發現,這種變換,它們僅僅只是在每乙個維度上進行的,並沒有影響另外乙個維度。其實從這裡我們便可以得到啟發:即使看似是n維的問題,實際上也只是n個一維問題而已。我們只需要將這n個一維問題「合成」一下即可。
二、特徵值、特徵向量、對角化:
從幾何意義上講,特徵向量乘上矩陣a之後,矩陣a所表示的向量空間除了長度有伸縮變化之外,方向不發生改變。這裡的長度變化倍率,便是特徵值。
假設乙個矩陣a=
\left\1&-0.3\\-0.7&0.6\end\right\}
,那麼在a的作用下,空間將會發生傾斜變形,不過,這並非扭曲,直線仍然是直線,平行關係仍然保持著平行關係。這是一種怎樣的變化呢?第一列
\left\1\\-0.7\end\right\}
,為標準向量空間的乙個基向量
\left\1\\0\end\right\}
經過某種對映關係所成的像(變換之後的目標點,這裡的目標點的參考係是原來的向量空間)。同樣道理,矩陣a的第二列,是標準向量空間的另乙個基向量
\left\0\\1\end\right\}
經過某種對映關係所成的像。
對角化:什麼是對角化呢?同樣以該矩陣a為例來解釋。對於乙個標準向量空間,通過矩陣a的作用後,變成了另外乙個向量空間,這一向量空間,相對於標準向量空間是傾斜的,。但是,如果我們嘗試把變換之後的向量空間作為標準向量空間的話,我們便可以把矩陣a對角化。那麼,在這樣乙個新的「標準向量空間」下,原來的標準向量空間便是傾斜的。所以,對角化的過程,就是將某一向量空間「標準化」的過程。(我覺得是可以這樣理解的。)
三、 秩與可逆性:
秩,就是像的維度。其實,秩這個概念也可以結合著特徵向量的線性相關性,線性無關性來理解。而線性相關性和線性無關性又和向量空間的維度是有關係的。這裡暫時先不具體展開。
壓縮扁平化,如果經過某一矩陣的對映之後,出現了降維的情況,也就是像的維數比原來降低,那麼這時候的矩陣被稱為奇異矩陣。也就是說,我們不能再通過某種變換,將該被壓縮的向量空間復原。相反的,如果沒有發生扁平化,那麼我們便可以將該向量空間再次通過某種對映恢復回來,則稱該矩陣為非奇異矩陣(可逆矩陣)。
線性代數(1)線性代數需要解決的問題
線性代數的中心問題是求解線性方程組。那什麼是線性方程呢?所謂線性方程就是指未知量是一次冪的等式,它的一般形式是ax by cz 0。也就是說線性方程組是由方程組成的,而這些方程的未知量都是一次冪。就如我們經常見到的y ax b就是線性方程,如果我們把y ax b畫到二維的直角座標系上,這個方程就是一...
深度學習數學基礎之線性代數
深度學習中的基本資料結構,基本上都是用向量或矩陣表示的,因此 深度學習的基礎學科之一 就是線性代數。深度學習中的線性代數知識主要包括以下部分 1 標量 向量 矩陣和張量 這4個變數很好理解 分別表示 乙個數 一維空間 一條線 二維 乙個平面 多於二維 立體或超立體等 2 矩陣的乘法和內積 這個在深度...
數學 線性代數中行列式的意義
我們可以從乙個角度去理解線性代數中行列式的意義,即是變換前後尺度的變換的比例,這個尺度在一維情況可以理解為是長度,在二維情況可以理解為是面積,在三維情況可以理解為是體積.具體而言 1.一維的行列式,那自然就是乙個數,這個好理解,如果乙個變換的行列式是 5,那麼這個變換本身也就是5,施加5給乙個什麼東...