特徵降維就是降低特徵矩陣維數,減少雜訊和冗餘,減少過度擬合。
principal factor analysis簡稱pca,其思想是將n維特徵對映到k維上(k
pca計算步驟:
分別求出每一特徵的平均值,然後所有特徵都減去其對應的均值
求特徵協方差矩陣
求協方差的特徵值和特徵向量
將特徵值按照從大到小的順序排序,選擇前k個,然後將其對應的k個特徵向量分別作為列向量組成特徵向量矩陣
將m * n的資料集乘以k個n維的特徵向量的特徵向量(n * k),得到最後降維的資料
為什麼要按從大到小排序選擇前k個特徵?
因為特徵值越大,說明矩陣在對應的特徵向量上的方差越大,樣本點越離散,越容易區分,資訊量也就越多
參考
pca主成分分析 PCA主成分分析(中)
矩陣 matrix,很容易讓人們想到那部著名的科幻電影 駭客帝國 事實上,我們又何嘗不是真的生活在matrix中。機器學習處理的大多數資料,都是以 矩陣 形式儲存的。矩陣是向量的組合,而乙個向量代表一組資料,資料又是多維度的。比如每個人的都具有身高 體重 長相 性情等多個維度的資訊資料,而這些多維度...
主成分分析PCA
主要參考這篇文章 個人總結 pca是一種對取樣資料提取主要成分,從而達到降維的目的。相比於上篇文章介紹到的svd降維不同,svd降維是指減少資料的儲存空間,資料的實際資訊沒有缺少。個人感覺pca更類似與svd的去噪的過程。pca求解過程中,涉及到了svd的使用。針對資料集d 假設di 的維度為 w ...
PCA 主成分分析
在進行影象的特徵提取的過程中,提取的特徵維數太多經常會導致特徵匹配時過於複雜,消耗系統資源,不得不採用特徵降維的方法。所謂特徵降維,即採用乙個低緯度的特徵來表示高緯度。將高緯度的特徵經過某個函式對映至低緯度作為新的特徵。pca和lda區別 pca是從特徵的角度協方差角度 求出協方差矩陣的特徵值和特徵...