這幾天跟著datawhale學習了,針對cv方面的資料擴增方法。
主要有兩種型別,分別是基於影象的資料資料擴增方法和基於深度學習的擴增方法(還不太理解)。
我主要是練習了基於影象的資料擴增方法。針對本賽題(語義分割),針對影象的資料擴增方法也是比較合適的。
我在baseline中主要是呼叫了albumentations,(torchvision的transforms還沒有調好**,所有沒有嘗試成功)。
原來baseline中的
trfm = a.compose(
[ a.resize(image_size, image_size)
, a.horizontalflip(p=
0.5)
, a.verticalflip(p=
0.5)
, a.randomrotate90(),
])
這次嘗試新增了其他的一些擴增方法:
trfm = a.compose(
[ a.horizontalflip(p =
0.5)
,# a.transpose(),
a.resize(image_size, image_size)
, a.verticalflip(p=
0.5)
, a.randomrotate90(),
a.oneof(
[ a.iaaadditivegaussiannoise(),
a.gaussnoise(),
], p=
0.3)
,##------模糊處理:
a.oneof(
[ a.motionblur(p=
0.2)
, a.medianblur(blur_limit=
3, p=
0.1)
, a.blur(blur_limit=
3, p=
0.1),]
, p=
0.5)
, a.shiftscalerotate(shift_limit=
0.0625
, scale_limit=
0.2, rotate_limit=
45, p=
0.2)
,##-----彈性變形:
a.oneof(
[ a.opticaldistortion(p=
0.3)
, a.griddistortion(p=
0.1)
, a.elastictransform(alpha=
155, sigma=
210, alpha_affine=
157, p=
0.5)
a.iaapiecewiseaffine(p=
0.3),]
, p=
0.5)
, a.oneof(
[ a.clahe(clip_limit=2)
, a.iaasharpen(),
a.iaaemboss(),
a.randombrightnesscontrast(),
], p=
0.5)
, a.huesaturationvalue(p=
0.3),]
)
然而測試結果並沒有原來的結果好一些,可能其中某些變換並沒有起到正反饋的作用。需要進一步調整。。。
深度學習 語義分割總結
翻譯自qure.ai 什麼是語義分割 對的每個畫素都做分類。較為重要的語義分割資料集有 voc2012 以及 mscoco 有哪幾種方法 傳統機器學習方法 如畫素級的決策樹分類,參考textonforest 以及 random forest based classifiers 再有就是深度學習方法。...
語義分割 loss函式的學習筆記
bce 二分類交叉熵 binary cross entropy 在pytorch中對應著函式torch.nn.bceloss 具體公式如下 引用自pytorch官方文件 bce loss需要搭配sigmoid函式一起使用,具體的使用方法可以參考pytorch官方文件中的example m nn.si...
園區視覺語義分割資料標註項
這次想把專案過程發上來可以更好監督自己,第一次寫請大家多多指教,有問題煩請諸位大佬即使斧正。在網際網路浪潮的衝擊下,人工智慧的應用領域正在逐步滲透進我們生活的方方面面。如今的ai技術所面臨的一大困境就是沒有足夠的資料集作為人工智慧判斷標準的支撐,人工智慧現在正處於演算法層出不窮,但是窘於沒有資料集進...