之前做的工作是用yolo3檢測器(keras版本)檢測車輛,加上deepsort跟蹤,使用reid車輛資料集去跑的deepsort,效果很一般,因為檢測就有點問題,所以檢測這一塊還是要自己訓練資料集得到良好的模型,不然跟蹤效果不好。
主要目的就是:判斷車輛違章變道。
方案:1.檢測車輛yolov3,這裡不管是用keras也好,darknet,tensorflow也好,訓練都是離線下完成的,只需要在實際檢測車輛時候吧前向網路寫好,把模型load進去就可以得到車輛檢測結果了。
3.軋線判別模組,這裡需要利用之前車輛檢測得到的bbox的結果,也就是座標和寬高資訊,再結合車道線位置進行判決。
4.通過軋線的那輛車判斷是哪一輛車。開始跟蹤,提取該軋線車輛的特徵,與後續幀,前面幀之間檢測到的那輛車做特徵匹配,判斷是否是同一輛車。(即是否能把deepsort當中的目標檢測後就開始跟蹤改為軋線觸發跟蹤。這是乙個難點)。
這裡給個流程:一開始並不使用deepsort,先把未壓線前幾幀的檢測到的車輛的用乙個容器,這裡使用乙個滑動視窗存起來,同時deepsort當中的特徵提取器提取出這些幀車輛的平均特徵;如果始終未壓線,則繼續做之前的檢測;一旦軋線條件觸發,則開始呼叫deepsort跟蹤後續幀的車輛,把軋線的幀的車輛作為基準,比對後幾幀車輛是否是同一輛,並且和之前未壓線時候的幀平均後的車輛特徵進行關聯,相當於做了兩次deepsort,只不過這個軋線觸發開關給後續的跟蹤。另乙個特徵提取器負責軋線之前的車輛幀的特徵提取,並和一旦軋線之後的那輛車的特徵進行關聯。
5.根據不同序列幀當中的車道線的位置確定下來,車輛在不同幀下位置是在車道線的左邊還是右邊,根據這個條件加上4中的同一輛車判斷車輛是否違章變道。
無人機視覺開發策略
對於目標追蹤的程式問題 飛控需要知道我們是否在正確的路線上。通過航點的x軸與y軸數值來判斷。openmv的影象函式是否監測出了目標物體,並告訴我們再哪乙個方向。在guided模式下 當前位置 應該去的方向和座標。在找到目標物體之後,切換模式到auto模式下。1 定義乙個 氣球類 獲得當前無人機並檢查...
六旋翼無人機(無人機應急基站)或巡檢無人機
諾基亞當時的無人機基站就是用的六旋翼嘛。無人機還可以去用來檢查基站。把六旋翼的原理弄懂。六旋翼和四旋翼的區別是不是還是在旋翼動力分配上?就像球上平衡車三輪和四輪的區別?其實球上平衡車不管三輪還是四倫,都是兩個角度環兩個速度環,可以投影成兩個一級倒立擺,只是最後轉化成的每個輪子的pwm的公式改變一下就...
無人機相關
無人機影像資料拼接原理 1.資料預處理 輻射校正 相鄰影象在色度上趨於一致 幾何校正 2.影象配準 提取特徵點 尺度不變特徵變換 scale invariant feature transform,sift 3.影象融合 拼接重疊區使用最佳縫合線去除 鬼影 生成的dsm 若pos資料中的高程為無人機...