pca的流程:
**參考:
協方差矩陣的計算
思想:求解協方差矩陣的特徵值和特徵向量
為什麼pca第一步是進行去掉資料中的平均值?
因為每列資料減去該列的平均值後才能進行協方差計算。
按照特徵值的大小進行排序,用到了numpy 中argsort函式
這篇對numpy中的matrix 總結的很好
(1)方差、協方差、相關係數、協方差矩陣
方差:協方差:,,
**方差是衡量單變數的離散程度,協方差是衡量兩個變數的相關程度(親疏),協方差越大表明兩個變數越相似(親密),協方差越小表明兩個變數之間相互獨立的程度越大。
相關係數:
,**協方差和相關係數都可以衡量兩個表明的相關程度,協方差未消除量綱,不同變數之間的協方差大小不能直接比較,而相關係數消除了量綱,可以比較不同變數之間的相關程度。
摘自——
使用python計算協方差的相關係數
pca主成分分析 PCA主成分分析(中)
矩陣 matrix,很容易讓人們想到那部著名的科幻電影 駭客帝國 事實上,我們又何嘗不是真的生活在matrix中。機器學習處理的大多數資料,都是以 矩陣 形式儲存的。矩陣是向量的組合,而乙個向量代表一組資料,資料又是多維度的。比如每個人的都具有身高 體重 長相 性情等多個維度的資訊資料,而這些多維度...
主成分分析PCA
主要參考這篇文章 個人總結 pca是一種對取樣資料提取主要成分,從而達到降維的目的。相比於上篇文章介紹到的svd降維不同,svd降維是指減少資料的儲存空間,資料的實際資訊沒有缺少。個人感覺pca更類似與svd的去噪的過程。pca求解過程中,涉及到了svd的使用。針對資料集d 假設di 的維度為 w ...
PCA 主成分分析
在進行影象的特徵提取的過程中,提取的特徵維數太多經常會導致特徵匹配時過於複雜,消耗系統資源,不得不採用特徵降維的方法。所謂特徵降維,即採用乙個低緯度的特徵來表示高緯度。將高緯度的特徵經過某個函式對映至低緯度作為新的特徵。pca和lda區別 pca是從特徵的角度協方差角度 求出協方差矩陣的特徵值和特徵...