主成分:
顯示手寫數字的影象
"""# 設定影象尺寸
fig = plt.figure(figsize=(2
.* n_col,
2.26
* n_row)
) i=
0while i < max_n and i < images.shape[0]
: p = fig.add_subplot(n_row, n_col, i +
1, xticks=
, yticks=
) p.imshow(images[i]
, cmap=plt.cm.bone, interpolation=
'nearest'
)# 新增標籤
主成分顯示
"""colors =
['black'
,'blue'
,'purple'
,'yellow'
,'white'
,'red'
,'lime'
,'cyan'
,'orange'
,'gray'
]for i in
range
(len
(colors)):
# 只顯示前兩個主成分在二維座標系中
# 如果想顯示前三個主成分,可以放在三維座標系中。有興趣的可以自己嘗試下
px = x_pca[:,
0][y_digits == i]
py = x_pca[:,
1][y_digits == i]
plt.scatter(px, py, c=colors[i]
) plt.legend(digits.target_names)
plt.xlabel(
'first principal component'
) plt.ylabel(
'second principal component'
)from sklearn.decomposition import pca
n_components =
10# 取前10個主成分
每幅圖顯示的是所有樣本中計算出的1-10個主成分,不同的主成分描述了不同的特徵。 比如第二幅圖顯示的是第2個特徵向量,可以看出區別的是0和其他數字,因為0的中間是空的,其他數字則不是。 所以pca可用於影象的特徵提取。
主成分分析
主成分分析 pca 分析乙個隨機向量的中的主成分 主成分一般不是隨機向量中的某乙個分量,而是不同分量的線性組合,根據資訊理論的觀點,資訊的多少與方差有關,所以 主成分是方差最大的幾個成分 主成分分析的方法是求隨機向量的協方差矩陣 用樣本協方差矩陣代替 對於差異較大的資料,可採用相關矩陣代替協方差矩陣...
主成分分析
理論要點 1 主成分分析是一種無監督學習,因此不能用交叉驗證來檢驗誤差 2 在處理資料之前,要對資料做中心化處理 3 p太大的話,做特徵分解用svd 4 一共有min n 1,p 個主成分,因為中心化以後,rank要降一維 5 主成分的載荷向量就是協方差矩陣的特徵向量,對應特徵值最大的是第一主成分,...
主成分分析
1.概念 將一組可能存在相關性的隨機變數轉變成互不相關的隨機變數。這個概念裡有三個地方需要理解清楚。1 隨機變數的指代 在資料集中,每乙個樣本,即將資料集理解成乙個 的話,乙個樣本就是一行,則每一列就是乙個特徵,也就是乙個隨機變數,一列的所有取值就是隨機變數的所有可能取值 說的所有可能取值只針對訓練...