實驗記錄
cnn特徵是由inception_v3模型得到的bottleneck(即卷積神經網路倒數第二層學到的特徵),是一系列2048維特徵向量,將一系列特徵向量作為輸入,放入svm中進行分類(用的是matlab版libsvm),實驗結果如下
資料集 plant_photos12(12種,每種50~100張影象)
訓練集—驗證集
不降維(%)
pca降維(%)
pca+lda降維(%)
80-20
40.9574
40.4255
78.7234
60-40
38.0319% (143/376)
37.766% (142/376)
75.7979% (285/376)
50-50
37.6596% (177/470)
40.8511% (192/470)
66.1702% (311/470)
40-60
35.6383% (201/564)
41.6667% (235/564)
55.3191% (312/564)
20-80
36.8351% (277/752)
37.234% (280/752)
38.5638% (290/752)
實驗結果超級不好,最好的也就78%左右,難過
類魚種資料集, 共
27 370
張魚的影象進行分類,用cnn+svm方法得到了98%左右的識別率。難道是因為資料集太少?
對資料集進行資料增強(水平翻轉+垂直翻轉)後,實驗結果慘不忍睹,我的課題創新點啊,本想著結果會很好呢。問題出在**?
為什麼用傳統的形狀特徵、lbp特徵放入svm得到的結果比cnn+svm好呢?
cnn+softmax結果就比傳統方法好,想不明白啊!
視覺化探索卷積神經網路提取特徵
卷積神經網路的發展主要是為了解決人類視覺問題,不過現在其它方向也都會使用。發展歷程主要從lenet5 alexnet vgg goolenet resnet等。傳統bp神經網路層與層之間都是全連線的,對於影象處理領域,當神經網路處理大影象時,全連線會導致待訓練的引數非常龐大,比如100萬個畫素的影象...
基於深度神經網路特徵提取的文字無關的說話人識別
部分 對文章 deep neural network embeddings for text independent speaker verification 的解讀。1.概要 在實際應用中,往往被測試者或被驗證者的語音長度相對較短,若使用傳統的plda ivector模型效果會相對一般 這一點會在...
對於卷積神經網路中垂直和水平特徵過濾器的理解
1 首先是sobel運算元,用於檢測影象的輪廓 開始使用的是垂直特徵檢測的過濾器,可以識別影象輪廓 後來使用了水平特徵檢測的過濾器,也可以識別影象輪廓 可能是因為對於大的來說,垂直特徵過濾器和水平特徵過濾器能起到類似作用,因為對於顏色變化的區域,很少是非常垂直或者平行的,都存在斜角,並且畫素點的顯示...