參考
pca的數學原理
***matlab求方差,均值,均方差,協方差的函式
主成分分析(pca)原理詳解
pca降維及python實現
**:
#coding=utf-8
import numpy as np
from sklearn.decomposition import pca
x = np.array([[-1,2,66,-1], [-2,6,58,-1], [-3,8,45,-2], [1,9,36,1], [2,10,62,1], [3,5,83,2]]) #匯入資料,維度為4
pca = pca(n_components=2) #降到2維
pca.fit(x) #訓練
newx=pca.fit_transform(x) #降維後的資料
# pca(copy=true, n_components=2, whiten=false)
print(pca.explained_variance_ratio_) #輸出貢獻率
print(newx) #輸出降維後的資料
pca 演算法的
兩個矩陣相乘的意義是將右邊矩陣中的每一列列向量變換到左邊矩陣中每一行行向量為基所表示的空間中去。更抽象的說,乙個矩陣可以表示一種線性變換。
上面我們討論了選擇不同的基可以對同樣一組資料給出不同的表示,而且如果基的數量少於向量本身的維數,則可以達到降維的效果。
將一組n維向量降為k維(k大於0,小於n),其目標是選擇k個單位(模為1)正交基,使得原始資料變換到這組基上後,各字段兩兩間協方差為0,而字段的方差則盡可能大(在正交的約束下,取最大的k個方差)。
特徵值和特徵方向: 特徵向量代表了伸縮的方向,特徵值代表了伸縮的程度。
pca主成分分析 PCA主成分分析(中)
矩陣 matrix,很容易讓人們想到那部著名的科幻電影 駭客帝國 事實上,我們又何嘗不是真的生活在matrix中。機器學習處理的大多數資料,都是以 矩陣 形式儲存的。矩陣是向量的組合,而乙個向量代表一組資料,資料又是多維度的。比如每個人的都具有身高 體重 長相 性情等多個維度的資訊資料,而這些多維度...
主成分分析PCA
主要參考這篇文章 個人總結 pca是一種對取樣資料提取主要成分,從而達到降維的目的。相比於上篇文章介紹到的svd降維不同,svd降維是指減少資料的儲存空間,資料的實際資訊沒有缺少。個人感覺pca更類似與svd的去噪的過程。pca求解過程中,涉及到了svd的使用。針對資料集d 假設di 的維度為 w ...
PCA 主成分分析
在進行影象的特徵提取的過程中,提取的特徵維數太多經常會導致特徵匹配時過於複雜,消耗系統資源,不得不採用特徵降維的方法。所謂特徵降維,即採用乙個低緯度的特徵來表示高緯度。將高緯度的特徵經過某個函式對映至低緯度作為新的特徵。pca和lda區別 pca是從特徵的角度協方差角度 求出協方差矩陣的特徵值和特徵...