主成成分分析(pca)
線性判別分析(linear discriminant analysis,lda)
對映後類內方差最小,類間方差最大
區域性線性嵌入(locally linear embedding,lle)
isomap求全域性最優解,lle演算法計算量較小
多維縮放(multidimensional scaling,mds)
非線性降維
在降維的同時盡量保持歐式距離不變
區域性保留投影(locality preserving projections,lpp)
屬於流形學習
線性降維
降維的同時保留區域性近鄰節點的資訊
拉普拉斯特徵對映(laplacian eigenmaps,le)
屬於流形學習
非線性的降維方法
降維的同時保留區域性近鄰節點的資訊
特徵向量降維常見的幾種方法
這裡就簡單描述下。通常我們會使用特徵訓練模型或特徵矩陣求相似度。高維的特徵帶來的計算成本非常大,甚至完不成。同時一般高維的特徵都比較稀疏,直接使用高維的特徵訓練需要樣本量很大,難以擬合,模型效果不好。通常我們訓練模型時,會人為挑選特徵,控制每類特徵維度範圍,比如年齡我們使用one hot的方式表示,...
特徵工程(5) 降維
當特徵選擇完成後,可以直接訓練模型了,但是可能由於特徵矩陣過大,導致計算量大,訓練時間長的問題,因此降低特徵矩陣維度也是必不可少的。常見的降維方法除了上篇提到的基於l1懲罰項的模型以外,另外還有主成分分析法 pca 和線性判別分析 lda 線性判別分析本身也是乙個分類模型。pca和lda有很多的相似...
特徵預處理 降維
降維 降維是指在某些限定條件下,較低特徵的個數,得到一組 不相關 的主變數的過程 1 特徵選擇 1.1 方法 嵌入式embedded 模組 sklearn.feature selection 1.2 方差選擇 sklearn.feature selection.variancethreshold t...