好吧,實習期間學到的東西超多的,還看了一些語義分割相關的內容,嘿嘿~
綜述:
語義分割簡單來說就是畫素級別的分類問題,以往我們做的分類問題只能分出一張單個物體的類別,然而當這個中有多個物體的時候它可能就會傻眼了(當然用muti-label也可以做,但是一般的分類任務都是單標籤的),而語義分割的作用就是能分出一張擁有多個物體的個各個物品的類別並畫出它的位置,用不同的顏色表示不同的類別,那麼它和同樣可以分出多個物體類別的目標檢測任務有什麼不同呢?如下圖所示:
其中(c)是語義分割semantic segmentation,(d)是例項分割instance segmentation
可以看出來,分類任務是乙個粗粒度的任務,它只能告訴你這張中有哪些類別,你無法知道它的具體位置,目標檢測則能對不同的物體的位置用乙個方框進行大致的標記,語義分割任務將位置的標記精確到了畫素級別,甚至可以看出物體的結構和形狀,同一類的物體用同一種顏色表示,例項分割則是對於不同的個體都要有不同顏色去表示它。
針對語義分割任務,我看了一些最經典的**,如最早的fcn和後來的deeplab,跑了git上別人復現的deeplab原始碼,但是這個原始碼沒有加crf,所以我找了乙個fcn+crf的ipython原始碼,然後把crf的內容加到了deeplab的inference中,效果有很大的提公升(人眼直**來~)
語義分割演算法總結(一)
在本文中經常會提到輸出資料的維度,為了防止讀者產生錯誤的理解,在本文的開頭做一下說明。如上圖,原始影象大小為5 5,經過一次卷積後,影象變為3 3。那就是5 5的輸入,經過乙個卷積層後,輸出的維度變為3 3,再經過乙個卷積層,輸出的維度變為1 1,這裡的5 5,3 3和1 1即為本文提到的資料的維度...
語義分割 目標檢測 IOU計算相關
intersection over union是一種測量在特定資料集中檢測相應物體準確度的乙個標準。我們可以在很多物體檢測挑戰中,例如pascal voc challenge中看多很多使用該標準的做法。通常我們在 hog linear svm object detectors 和 convoluti...
深度學習 語義分割總結
翻譯自qure.ai 什麼是語義分割 對的每個畫素都做分類。較為重要的語義分割資料集有 voc2012 以及 mscoco 有哪幾種方法 傳統機器學習方法 如畫素級的決策樹分類,參考textonforest 以及 random forest based classifiers 再有就是深度學習方法。...