資料降維 PCA

2021-08-17 14:54:08 字數 1560 閱讀 1683

模型原型

class sklearn.decomposition.pca(n_components=none,copy=true,

whiten=false)

引數

copy:如果為false,則直接使用原始資料來訓練,結果會覆蓋原始資料所在的陣列

whiten:如果為true,則會將特徵向量除以n_samples倍的特徵值,從而非相關輸出的方差為1

屬性

方法

import numpy as np

import matplotlib.pyplot as plt

from sklearn import datasets,decomposition,manifold

載入資料

def

load_data

(): iris=datasets.load_iris()

return iris.data,iris.target

使用pca

def

test_pca

(*data):

x,y=data

pca=decomposition.pca(n_components=none)

pca.fit(x)

print('explained variance radio:%s'%str(pca.explained_variance_ratio_))

x,y=load_data()

test_pca(x,y)

降維後的樣本分佈圖

def

plot_pca

(*data):

x,y=data

pca=decomposition.pca(n_components=2)

pca.fit(x)

x_r=pca.transform(x)

#繪圖fig=plt.figure()

ax=fig.add_subplot(1,1,1)

colors=((1,0,0),(0,1,0),(0,0,1),(0.5,0.5,0),(0,0.5,0.5),(0.5,0,0.5),

(0.4,0.6,0),(0.6,0.4,0),(0,0.6,0.4),(0.5,0.3,0.2),)

for label,color in zip(np.unique(y),colors):

position=y==label

ax.scatter(x_r[position,0],x_r[position,1],label='target=%d'%label,color=color)

ax.set_xlabel('x[0]')

ax.set_ylabel('y[0]')

ax.legend(loc='best')

ax.set_title("pca")

plt.show()

plot_pca(x,y)

PCA 資料降維實戰

資料降維是機器學習領域中非常重要的內容。降維就是指採用某種對映方法,將原高維空間中的資料點對映到低維度的空間中。降維的本質是學習乙個對映函式 f x y,其中x是原始資料點的表達,目前最多使用向量表達形式。y是資料點對映後的低維向量表達,通常y的維度小於x的維度 當然提高維度也是可以的 f可能是顯式...

PCA降維演算法

文章由兩部分構成,第一部分主要講解pca演算法的步驟,第二部分講解pca演算法的原理。那麼首先進入第一部分 pca演算法的步驟 樣本矩陣x的構成 假設待觀察變數有m個,其實相當於乙個資料在m維各維度上的座標,我們的目標是在保證比較資料之間相似性不失真的前提下,將描述資料的維度盡量減小至l維 l樣本矩...

PCA降維原理

在之前的介紹中,一幅影象只能表示乙個物件。那麼對於w x h的灰度影象,只能表示為w x h位的向量,那麼乙個有100 100的影象就需要10000維的向量空間。對於一幅人臉而言,是否所有維的資料都是有用的呢?在矩陣論當中我們知道,矩陣可以近似的表示為乙個特徵值與特徵向量的乘積。根據這個原理,如果我...