初賽所用的提分的點:
1.deeplabv3+
2.lovasz loss
3.邊緣loss不反向傳播
複賽所有提分的點:
1.resnet34-u-net作為baseline(0.743)
2.dice-loss
3.aspp
4.cos lr_scheduler + swa
5.半監督+swa訓練
6.建築物類單獨訓練,縮小尺度訓練+**
7.tta
8.重疊**
1.滑窗切割512*512
2.隨機切割512*512
3.在(768, 1024)尺度中隨機選擇尺寸resize到512*512
flip+rotate
驗證集在每張訓練上均勻取20%
測試集切割成1024、訓練資料切割成256
1.baselline:u-net
3.訓練:用前幾個epoch的模型**訓練集,選出誤檢的放入訓練集再訓練。
4.半監督:用訓練出的在驗證集上最好的模型**測試集,選出置信度高於0.9的正負樣本和相同數量的訓練集一起訓練模型,結合swa跑6個epoch
1.訓練資料:第一類資料少,特徵(在人看起來)單一;二三類多。
2.a榜資料:
問題一:第一類在a榜測試集中佔大多數,但是第一類資料在訓練集裡少。該類在網路上訓練幾個epoch後就可以擬合,但後面的epoch會發生過擬合。也就是第一類擬合的時候其他兩類還沒擬合,其他兩類擬合的時候第一類已經過擬合了。而且loss在第一類擬合之後陷入區域性最優解,後來訓練時損失已經變換不大,但是**出的結果有多樣性。針對該問題,我們用了多個學習率週期(cos lr_scheduler),對每個學習率週期的區域性最優做平均,即對這些loss相同但**有差異的模型做融合(swa),可以得到乙個寬泛的泛化解,讓損失進一步降低。這個技巧可以提1個多點。
問題二:**出來的圖相鄰的相似區域有不同分割結果。運用半監督方法可以學習到**資料的區域一致性,可以讓分割出的區域更完整,一定程度也避免了過檢。
3.b榜資料
問題一:和a榜資料第一類多不同,b榜資料第二類,第三類佔大多數,資料和訓練集分布類似。所以沒有過多對農田類做優化。
問題二:建築物類很容易過檢。資料中有些區域在訓練集裡從沒見過(乙個大坑),此時特別有必要用半監督讓網路學習區域一致性,因為這個坑也不是全檢測出來,而是中間零零星星的檢測出了乙個塊。
問題三:建築物尺寸相比於a榜大,並且過檢的區域也是需要大的感受野,因此訓練和**都用了縮小的尺寸而不是用原尺寸。
2015 8 15比賽總結
在總結之前,我必須膜拜一下某個切完提高組來省賽組虐場的犇。今天的比賽,失策還是有的,今天的問題如下 打 不小心,打錯了乙個小細節,導致最終答案錯誤。有的題目a了樣例我就以為可以了,或者是打的對拍也錯了 打題前沒有想清楚,最後對拍時才發現錯誤。第一題 這是道二分的題目,我在做比賽時就想到了正解,就是用...
8 17比賽總結
這次比賽考得一般般,這回的題是前段時間學的圖論演算法的測試題 100 52.2 40 12.5。1 位圖 這題是很簡單的圖論,用bfs 加優化簡單 o nm 過了。正解 這題將所有更新的點記錄在乙個佇列裡 初始的時候都是1 的看為更新的 然後每次將這些點往四周擴散,如果可以擴散,那麼 ans x,y...
8 18 比賽總結
這次比賽很不錯,排名第一 100 100 0 100 300。1 跳格仔 這題在比賽的時候做就很淼,直接dp 就可以了。正解 dp。2 2048 這題是一道純模擬題,只需要模擬2048 執行的步驟來進行迴圈和合併,由於 比較複雜,所以要精細做,考試的時候在除錯一小時後終於將這道題做了出來。正解 同上...