資料增強
一般而言,神經網路需要大量的引數,許許多多的神經網路的引數都是數以百萬計,而使得這些引數可以正確工作則需要大量的資料進行訓練,而實際情況中資料並沒有我們想象中的那麼多
作用增加訓練的資料量,提高模型的泛化能力
增加雜訊資料,提公升模型的魯棒性
如何獲得大量的資料
一種方法是獲得新的資料,這種方法比較麻煩,需要大量的成本,而第二種方法則是對資料進行增強,即利用已有的資料比如翻轉、平移或旋轉,創造出更多的資料,來使得神經網路具有更好的泛化效果。
常用的資料增強技術
翻轉,縮放,裁剪,平移,新增雜訊等。
模型微調
步驟
在源資料集上預訓練乙個神經網路模型,即源模型。
建立乙個新的神經網路模型,即目標模型。它複製了源模型上除了輸出層外的所有模型設計及其引數。我們假設這些模型引數包含了源資料集上學習到的知識,且這些知識同樣適用於目標資料集。我們還假設源模型的輸出層跟源資料集的標籤緊密相關,因此在目標模型中不予採用。
為目標模型新增乙個輸出大小為目標資料集類別個數的輸出層,並隨機初始化該層的模型引數。
在目標資料集(如椅子資料集)上訓練目標模型。我們將從頭訓練輸出層,而其餘層的引數都是基於源模型的引數微調得到的。
機器學習大作業1
晚上不想看編譯原理了,就把吳恩達老師第一次的大作業看了一下。我是用matlab寫的 和c 比真的簡單多了 還挺成功的,一次暴力一次梯度下降算出來的幾乎相等 這個是for for暴力跑出來的 太醜就不放了 這是用梯度下降跑出來的,剛開始學習率太大調了一會 下面是自己寫的 data load ex1da...
軟工大作業中期總結
軟工大作業已經進行了兩個迭代週期,到了預先安排的中期檢查的時間,在這裡對前兩個週期的工作做乙個總結並對之後的工作做出安排。一 技術方面的問題 二 開發時間方面的問題 就我來說,第一次迭代多是基本的一些設計,暫且不談,第二次迭代的大量工作都是第二次迭代檢查前不久的時間才開始進行的。雖然也存在之前有很多...
大作業感悟
作為本次大作業的組長,看著專案從呱呱墜地到瓜熟蒂落,就像看著自己的孩紙長大一樣。心中感慨萬千,成長的過程總是快樂與痛苦並行,喜悅與煩惱同在的。從兩個星期前的頭腦風暴到前期的精心設計 中期的分工實施再到後期的測試與優化。每一步走的都讓 連忘返,每一步都讓人記憶猶新。在這兩個星期中,我們不僅得到了知識和...