在識別貓的場景下,我們已經訓練出了不錯的模型,如果要把這個模型搬到放射科診斷上,應該怎麼做呢?如下的做法利用了預訓練模型或者說微調(fine tuning)
要在另乙個場景下做影象識別的工作,當然和識別貓不一樣咯,這裡的做法是把輸出層的去掉,並去掉輸出層的權值,然後為輸出層賦予隨機權重,讓神經網路在放射診斷的資料上訓練。
這種遷移學習有兩種做法:
利用預訓練模型(識別貓的神經網路)進行訓練更新引數,這個過程稱作微調(fine tuning)
為什麼這樣的遷移是有效果的呢?
因為很多低層次特徵(邊緣檢測等)的學習有助於在放射診斷中做得很好,同時演算法學習到了有關影象結構的資訊(學到線條、點、曲線等)
什麼時候遷移學習是有意義的呢?
遷移**問題有大量資料,而遷移目標問題沒有足夠資料。比如影象識別我們的樣本有10000個,但是放射診斷的資料只有100個。
如果反過來恐怕就不成立了,試想放射診斷的資料有1000個,影象識別的資料有100個,你想用這100個資料來提高1000個資料搭成模型的效能,行嗎?仔細想想,你其實在用1000個貓貓狗狗的資料在做提公升對吧,這些樣本的價值肯定不及放射診斷的資料。所以這樣的方式是不可取的。
總結一下如果從a遷移到b需要哪些條件?
搭建乙個神經網路,同時解決多個問題。如下圖中目標檢測問題,在同乙個神經網路中同時識別多個物體。
神經網路結構圖如下
多工學習和softmax回歸不同!softmax回歸給每一幅圖乙個標籤,而多工學習中會有多個標籤,需要判斷哪些物品是出現了的(可以處理帶』?'的標籤)
多工學習什麼時候有意義?
OpenGL學習二十七 混合
混合步驟 1.設定混合模式 2.啟用混合 glcolor4f 1.0f,1.0f,1.0f,0.5f 全亮度,50 alpha 混合 glblendfunc gl src alpha,gl one 基於源象素alpha通道值的半透明混合函式 glenable gl blend 開啟混合 opengl...
系統學習NLP(二十七) EMLo
deep contextualized word representations 參考 elmo的語言理解是通過 訓練單詞序列中的下乙個單詞來實現,這項任務被稱為語言建模。這是很方便的,因為我們有大量的文字資料,這樣的模型不需要標籤就可以從中學習。今天給大家介紹一篇2018年提出的 deep con...
學習第二十七天
一 this關鍵字 this關鍵字 this動態繫結物件 1 this所在的函式是否是通過new呼叫使用的,如果是指向當前new的物件 2 this是通過物件.函式名 使用,this指代當前呼叫的物件 3 this預設指代window,window指全域性物件 定義的全域性變數,預設定義window...