csdn潛水多年,一直在這上面從各處大佬的部落格汲取知識,解決了不少作業(● ̄(エ) ̄●)最近開始了自己在深度學習上的學習,自己學什麼東西都很慢,別人覺得很容易的事情在我看來就很複雜,但仍舊想要搞懂他們,就以此記錄一下自己的整個學習過程吧!可能一開始寫的會非常差吧,但是算是乙個記錄,因為我確實也想不到什麼其他可以記錄的方式了。
alexnet:隨著每個epoch的進行過程中,loss反覆橫跳
epoch = 10
max = 0.709
epoch = 20
max = 0.788
googlenet:epoch = 30
train_loss: 0.852 test_accuracy: 0.821(max)
resnet:第乙個epoch就train_loss: 0.500 test_accuracy: 0.912
使用了遷移學習
epoch = 3
train_loss: 0.293 test_accuracy: 0.926(max)
mobilenet:後面的兩個網路使用了遷移學習,預先加了權重,所以不用跑很多epoch就能達到超級厲害的效果呢!epoch = 5
train_loss: 0.588 test_accuracy: 0.874(max)
本來想用自己的資料集跑下這些網路,但是乙個是資料集整合起來有點複雜,乙個是最近要科研實習結題啦,我再不弄mobilenet_ssd,我都不知道結題該怎麼說o(╥﹏╥)o但還挺喜歡這些小網路的,因為有那麼一絲絲的成就感 ( ̄▽ ̄)~*
神經網路深度學習 學習小記
一 sigmod function出現的必要性 為什麼不直接用stage function?在feedback時,假如說我們現在用的是stage function,直接用樓梯式的跳躍函式,我們每次做很小的引數改動時。如果說這個之前這個引數使函式值落在0 1 改變的那一塊區域,即便我們做的change...
makefile學習小記(一)
makefile一直沒有仔細的去看看,最近下狠心看了看,有一些收穫 先來看看這個例子 main.c include dep.h void main dep.c include dep.h void dep int i dep.h include void dep int i 再來看看makefile...
深度學習(一)深度學習學習資料
持續更新 一 學習清單 1 收集了各種最新最經典的文獻,神經網路的資源列表 2 計算機視覺學習清單 3 機器學習學習清單 二 訓練資料 人臉資料 1 香港中文大學訓練資料集 此資料庫包含了20w張人臉,每張標註了5個特徵點 以及幾十種屬性 是否微笑 膚色 髮色 性別等屬性 2 68個人臉特徵點 3 ...