一、用自己的話描述出其本身的含義:
1、特徵選擇
當我們拿到乙個資料集的時候,它其中的特徵會有很多,如果我們直接匯入計算運算量將是極其龐大和沒用處的,所以要對特徵進行降維選擇性的捨棄,留住重要部分,這個操作就叫特徵選擇。
2、pca
pca是一種很成熟的用來對資料集進行簡化降維的一種演算法,他是在保留最多有用特徵的前提下,對資料進行降維,刪除無用資料,並用演算法計算出一套新的簡便的資料替換老資料。
二、並用自己的話闡述出兩者的主要區別
特徵選擇是人為的進行主動的選擇那些特徵要那些不要來降維,而pca是用一套成熟的演算法來對資料自動的進行降維,是用一系列全新的和原資料等價的降維的資料對原資料進行替換。
主成分分析
主成分分析 pca 分析乙個隨機向量的中的主成分 主成分一般不是隨機向量中的某乙個分量,而是不同分量的線性組合,根據資訊理論的觀點,資訊的多少與方差有關,所以 主成分是方差最大的幾個成分 主成分分析的方法是求隨機向量的協方差矩陣 用樣本協方差矩陣代替 對於差異較大的資料,可採用相關矩陣代替協方差矩陣...
主成分分析
理論要點 1 主成分分析是一種無監督學習,因此不能用交叉驗證來檢驗誤差 2 在處理資料之前,要對資料做中心化處理 3 p太大的話,做特徵分解用svd 4 一共有min n 1,p 個主成分,因為中心化以後,rank要降一維 5 主成分的載荷向量就是協方差矩陣的特徵向量,對應特徵值最大的是第一主成分,...
主成分分析
1.概念 將一組可能存在相關性的隨機變數轉變成互不相關的隨機變數。這個概念裡有三個地方需要理解清楚。1 隨機變數的指代 在資料集中,每乙個樣本,即將資料集理解成乙個 的話,乙個樣本就是一行,則每一列就是乙個特徵,也就是乙個隨機變數,一列的所有取值就是隨機變數的所有可能取值 說的所有可能取值只針對訓練...