通過前面的學習,我們已經能夠正常訓練各種資料了。設定好solver.prototxt後,我們可以把訓練好的模型儲存起來,如lenet_iter_10000.caffemodel。 訓練多少次就自動儲存一下,這個是通過snapshot進行設定的,儲存檔案的路徑及檔名字首是由snapshot_prefix來設定的。這個檔案裡面存放的就是各層的引數,即net.params,裡面沒有資料(net.blobs)。順帶還生成了乙個相應的solverstate檔案,這個和caffemodel差不多,但它多了一些資料,如模型名稱、當前迭代次數等。兩者的功能不一樣,訓練完後儲存起來的caffemodel,是在測試階段用來分類的,而solverstate是用來恢復訓練的,防止意外終止而儲存的快照(有點像斷點續傳的感覺)。
既然我們知道了caffemodel裡面儲存的就是模型各層的引數,因此我們可以把這些引數提取出來,進行視覺化,看一看究竟長什麼樣。
我們先訓練cifar10資料(mnist也可以),迭代10000次,然後將訓練好的 model儲存起來,名稱為my_iter_10000.caffemodel,然後使用jupyter notebook 來進行視覺化。
首先,匯入必要的庫
import numpy as np
import matplotlib.pyplot as plt
import os,sys,caffe
%matplotlib inline
caffe_root='/home/lee/caffe/'
os.chdir(caffe_root)
sys.path.insert(0,caffe_root+'python')
plt.rcparams['figure.figsize'] = (8, 8)
plt.rcparams['image.interpolation'] = 'nearest'
plt.rcparams['image.cmap'] = 'gray'
設定網路模型,並顯示該模型中各層名稱和引數的規模(注意此處是net.params, 而不是net.blobs)
net = caffe.net(caffe_root + 'examples/cifar10/cifar10_full.prototxt',
caffe_root + 'examples/cifar10/my_iter_10000.caffemodel',
caffe.test)
[(k, v[0].data.shape) for k, v in net.params.items()]
out:
[('conv1', (32, 3, 5, 5)),cifar10訓練的模型配置在檔案cifar10_full.prototxt裡面,共有三個卷積層和乙個全連線層,引數規模如上所示。('conv2', (32, 32, 5, 5)),
('conv3', (64, 32, 5, 5)),
('ip1', (10, 1024))]
#編寫乙個函式,用於顯示各層的引數
def show_feature(data, padsize=1, padval=0):
data -= data.min()
data /= data.max()
# force the number of filters to be square
n = int(np.ceil(np.sqrt(data.shape[0])))
padding = ((0, n ** 2 - data.shape[0]), (0, padsize), (0, padsize)) + ((0, 0),) * (data.ndim - 3)
data = np.pad(data, padding, mode='constant', constant_values=(padval, padval))
# tile the filters into an image
data = data.reshape((n, n) + data.shape[1:]).transpose((0, 2, 1, 3) + tuple(range(4, data.ndim + 1)))
data = data.reshape((n * data.shape[1], n * data.shape[3]) + data.shape[4:])
plt.imshow(data)
plt.axis('off')
# 第乙個卷積層,引數規模為(32,3,5,5),即32個5*5的3通道filter
weight = net.params["conv1"][0].data
print weight.shape
show_feature(weight.transpose(0, 2, 3, 1))
(32, 3, 5, 5) 引數有兩種型別:權值引數和偏置項。分別用params["conv1"][0] 和params["conv1"][1] 表示 。 我們只顯示權值引數,因此用params["conv1"][0]
# 第二個卷積層的權值引數,共有32*32個filter,每個filter大小為5*5
# 第三個卷積層的權值,共有64*32個filter,每個filter大小為5*5,取其前1024個進行視覺化
caffe學習 caffemodel視覺化
網路架構的形象展示 在構建完網路後,我們得到乙個xx train.prototxt檔案,該檔案中記錄著每層網路的輸入輸出及規格等引數,在位址 左側拖入xx train.ptototxt檔案,按enter shift組合鍵即可檢視網路模型圖,非常具體形象.以lenet為例 lenet prototxt...
python缺失值視覺化
以阿里二手車交易 訓練資料為例 coding utf 8 匯入warnings包,利用過濾器來實現忽略警告語句。import warnings warnings.filterwarnings ignore import pandas as pd import matplotlib.pyplot as...
資料視覺化 什麼是資料視覺化
資料對應的英文單詞是data,從資訊獲取的角度看,資料是對目標觀察和記錄的結果,是現實世界中的時間 地點 事件 其他物件或概念的描述。不同學者對資料的作用也給出不同的定義,大致分為以下3類 視覺化對應的兩個英文單詞 visualize和visualization。visualize是動詞,描述 生成...