支援用自己的資料訓練模型。
tensorflow實現,包含了以下部分:
快速開始:
四個步驟,速速上車。
1.複製這個檔案:
2.在使用**前,先安裝一些依賴項:
$ cd tensorflow-yolov3
$ pip install -r .
/docs/requirements.txt
3.把載入好的coco權重匯出為tf checkpoint (yolov3.ckpt) 和 frozen graph (yolov3_gpu_nms.pb) 。
$ python convert_weight.py -
-convert -
-freeze
4.然後,./checkpoint目錄下就會出現一些.pb檔案。現在可以跑demo指令碼了:
$ python nms_demo.py
$ python video_demo.py # if use camera, set video_path = 0
拿自己的資料集訓練:
快速訓練
這個demo就是給大家乙個粗略的感受,感受yolov3的訓練過程到底是怎樣的。
用python core/convert_tfrecord.py
把你的圖集轉成tfrecords
。
$ python core/convert_tfrecord.py -
-dataset /data/train_data/quick_train_data/quick_train_data.txt -
-tfrecord_path_prefix /data/train_data/quick_train_data/tfrecords/quick_train_data
$ python quick_train.py # start training
訓練coco資料集
再把資料集放到./data/train_data/coco裡面。
zip然後,就要從資料集裡提取一些有用的資訊了,比如邊界框,拿這些資訊生成你自己的.txt檔案。
$ python core/extract_coco.py -
-dataset_info_path .
/data/train_data/coco/train2017.txt
上面這步得到的檔案是./data/train_data/coco/train2017.txt。拿一張圖舉栗,應該長這樣:
# image_path, category_id, x_min, y_min, x_max, y_max, category_id, x_min, y_min, ...接下來,要把影象資料集轉成.tfrecord
,就是用二進位制來儲存資料。最後,可以訓練啦。
$ python core/convert_tfrecord.py -
-dataset .
/data/train_data/coco/train2017.txt -
-tfrecord_path_prefix .
/data/train_data/coco/tfrecords/coco -
-num_tfrecords 100
$ python train.py
coco評估
如果要看一下模型在coco上的表現,就這樣做:
zipyolov3 tensorflow實現傳送門:
(早就出了的) yolo v3 pytorch教程傳送門:
以上**於: yolov3目標檢測有了tensorflow實現,可用自己的資料來訓練
官網:
基於OpenCV的多目標動態檢測與跟蹤
1 源 include stdafx.h include include include include include include include include include include include 跟蹤引數 const double mhi duration 0.5 最大跟蹤時間...
黃金時代 深度學習 多目標跟蹤 2021
long term tracking with meta updater ltmu 2020 長時跟蹤資料集有 深度學習基礎的短時跟蹤,往往都從 one shot learning和online learning兩個角度 one shot學習如 siamfc siamrpn 等速度會更加快 splt...
基於顏色的多目標物體檢測與跟蹤系統
1.系統簡介 使用普通usb相機,對 camera 視野範圍內特定顏色的物體進行檢測與跟蹤。首先,將相機獲取的影象從 rgb空間轉換到 hsv空間。然後,通過調整 hsv空間各通道的閾值,生成二值化影象,並找出影象中存在的物體輪廓,從而檢測出符合指定顏色特徵的目標物體並進行跟蹤。通過濾除面積過小和過...