在學習andrew ng的深度學習公開課裡,可看到一段與資料的矩陣相關的,這裡提出了求trace的演算法以及規則,雖然學習過高數,線代,概率論,還有數理方程等等,但還是沒有什麼印象,一臉迷茫。這段相關的文字,我放到這裡,如下:
例子如下:
對角元素是a,e,i,這三者之和就叫矩陣的跡。
我一直在想,為什麼非要抓住這個矩陣的對角線不放呢?難道有什麼高深的學問嗎?
後來仔細一想,矩陣的對角線可以表示乙個物體的相似性,比如在圖形學的縮放變換裡使用的矩陣是這樣的:
在這裡可以看到就是對角的元素表示縮放,那麼表示物體具有相似性。
在機器學習裡,主要為了獲取資料的特徵值,那麼就是說,在任何乙個矩陣計算出來之後,都可以簡單化,只要獲取矩陣的跡,就可以表示這一塊資料的最重要的特徵了,這樣就可以把很多無關緊要的資料刪除掉,達到簡化資料,提高處理速度。
關於跡的證明,可以看這裡:
矩陣的跡以及跡對矩陣求導
矩陣的跡 就是 矩陣的主對角線上所有元素的和。矩陣a的跡,記作tr a 可知tra a aii,1 i n。證明 這個是tr ab tr ba 的推廣定理,很容易證明。根據定理tr ab tr ba 可知 tr abc tr ab c tr cab tr abc tr a bc tr bca 所以t...
矩陣的跡和矩陣範數
矩陣的跡 a的跡 或跡 數 一般記作 tr a 跡是所有對角元的和 跡是所有特徵值的和 某些時候也利用tr ab tr ba 來求跡 trace ma nb m trace a n trace b matrix norm 矩陣範數 定義 乙個在的矩陣上的矩陣範數 matrix norm 是乙個從線性...
Tr A HDU 1575(矩陣的跡)
a為乙個方陣,則tr a表示a的跡 就是主對角線上各項的和 現要求tr a k 9973。input 資料的第一行是乙個t,表示有t組資料。每組資料的第一行有n 2 n 10 和k 2 k 10 9 兩個資料。接下來有n行,每行有n個資料,每個資料的範圍是 0,9 表示方陣a的內容。output 對...