pca是資料降維的一種方法,其目標是找到資料分布方差最大的方向,並將資料向該方向投影並保持投影後恢復資料的殘差最小。即找到e和a,使得x的估計值x『=m+e*a與x殘差最小。注意,這裡e為乙個方向向量(非矩陣),且限定e的模為1(否則a和e不唯一)。
pca的推導,通過最優化x-x』的均方誤差最小,得到a=t(e)*(x-m)。
進一步,將均方誤差表示為e的表示式,並在e的模為1的約束下相對e最優化均方誤差。
可以推導得到e的最優解需要滿足s*e=lamabda*e,從而e轉為為求矩陣的特徵值和特徵向量問題。而s陣為x的散度矩陣,存在s=x*x『,x為輸入特徵減去均值向量組成的矩陣。
由於x存在奇異值分解,即x=u*d*t(v),則s=u*d*d*t(u)。
對於特徵值和特徵向量,存在s=e*d2*t(e),從而可知,存在e=u,d2=d*d。
需要注意,是對x做奇異值分解,而不是對s做。
當然,也可以通過對s求解特徵值和特徵向量得到投影矩陣。
參考自duda的模式識別。
PCA 分解的基本推導和計算方法
pca是資料降維的一種方法,其目標是找到資料分布方差最大的方向,並將資料向該方向投影並保持投影後恢復資料的殘差最小。即找到e和a,使得x的估計值x m e a與x殘差最小。注意,這裡e為乙個方向向量 非矩陣 且限定e的模為1 否則a和e不唯一 pca的推導,通過最優化x x 的均方誤差最小,得到a ...
PCA 的思路和推導
pca是一種較為常用的降維技術,pca的思想是將n維特徵對映到k維上,這k維是全新的正交特徵。這k維特徵稱為主元,是重新構造出來的k維特徵。在 pca中,資料從原來的座標系轉換到新的座標系下,新的座標系的選擇與資料本身是密切相關的。其中,第乙個新座標軸選擇的是原始資料中方差最大的方向,第二個新座標軸...
校驗和的計算方法
校驗和演算法 unsigned short check sum unsigned short addr,int len if nleft 1 sum sum 16 sum 0xffff sum sum 16 answer sum return answer 首先,ip icmp udp和tcp報文頭...