opencv中使用:實現降維分類預處理)
參考:
降維:
我的理解是,通過降維得到基本特徵可以加快學習演算法。並且由於降維後的資料本身就是正交的,和聚類一樣可以實現分類、識別問題。在自我學習中也可以採用大量無標註的影象,對這些影象降維分類,並結合部分編碼資料得到特徵。
例如:將很2500張人臉資訊,通過2500*畫素數降維到10*畫素數,則這十張就是這所有中最基本的特徵分類,任何一張可以通過投影到這十張對比相似度。
圖中矩陣表示n個樣本由d維降到k維,y=xw
向量乘一列相當於投影,投影出來的方差最大,則資訊可分辨越強(選取y(xw)的二次範數最大)
資料是投影到w向量中,因此w矩陣必須是正交的,即w的範數=1。正交變換保證了新特徵之間的不相關性,並且變換前後特徵尺度保持不變。
根據矩陣乘法
通過計算
聚類也是一種降維,另外在神經網路中還有autocodeer自編碼。
降維 PCA 主成分分析
其實早該整理一下pca了,怎奈一直沒有時間,可能是自己對時間沒有把握好吧,下面進入正題。所謂降維,就是降低資料的維數。在機器學習中尤其常見,之前做過對一幅提取小波特徵,對於一幅大小為800 600的,如果每個點提取五個尺度 八個方向的特徵,那麼每乙個畫素點提取40個特徵,那麼一副的話就是40 800...
降維方法 主成分分析(PCA)
推薦一篇絕對好的文章 理解pca的數學原理 pca principle component analysis 主成分分析,主要應用於資料降維,它是一種非監督的降維方法,主要捕獲觀測資料之間的變異程度。當資料集的維度過高之後,運用各種演算法處理起來的時間複雜度可能會很高,所以需要對資料進行降維處理,而...
主成分分析PCA降維函式
在matlab中有內建的built in function pca降維函式 coeff,score,latent,tsquared,explained princomp x 其中輸出score即為經過pca變換後的資料,但是預設取全部主成分,如x是100x20,其中100是樣本數,20是特徵維數,則...