總體需要包含:
l 『model』-儲存模型
l 『utils』-包含datasets、dataloader等
l 『dataprocessing』-資料載入及預處理部分
l 『train』-模型訓練
l 『checkpoints』-儲存訓練好的模型引數
l 『runs』-儲存相應的訓練過程
l 『test』-模型使用測試
具體在訓練時的小tricks:
l 學習率的調整-可以採用預熱+函式庫的方式、可以是隨著迭代次數指數形式減少
l 加速方式-可以採用yolov3原始碼中的aprix庫
l 學習停止-當多少步之後,損失函式未有實質性的減少,則停止迭代。見nlp/文字分類/textcnn部分
l 模型引數儲存-為防止訓練中斷,要固定迭代次數儲存一次引數且實時儲存最優引數,且要儲存最後一次訓練引數
l 盡量**有繼續訓練的功能
神經網路風格轉移
就是輸入兩張影象,一張是內容影象c,一張是風格影象s,我們希望生成一張新的影象g,使得新影象g同時具備c的內容和s的風格。如下圖,生成的影象內容還是建築和河流,但是畫風變成了梵谷的油畫。生成的影象g既要和c的內容相近,又要和s的風格相近,因此代價函式由兩部分組成,即內容代價函式和風格代價函式,分別表...
神經網路引數確定原則
網路引數確定原則 網路節點 網路輸入層神經元節點數就是系統的特徵因子 自變數 個數,輸出層神經元節點數就是系統目標個數。隱層節點擊按經驗選取,一般設為輸入層節點數的75 如果輸入層有7個節點,輸出層1個節點,那麼隱含層可暫設為5個節點,即構成乙個7 5 1 bp神經網路模型。在系統訓練時,實際還要對...
關於搭建神經網路
有這麼幾個坑 首先,loss函式真的超級重要!隨神經網路層數的不同,loss函式也應該發生變化。比如我把莫煩python教程mnist的那個例子直接搬下來之後加了一層,正確率直線下降,找不到原因,到網上又找了個 一點一點改,發現把loss函式改掉之後正確率也基本上跟沒訓練差不多了。比如loss後面用...