在改**中,作者提出了一種基於自組織神經網路(self-organizing through artificial neural networks)的背景減除演算法(簡稱sobs
1)背景建模
根據神經網路的特性,乙個網路輸入節點,對應多個中間節點。文中在背景建模階段,也採用了這種思路,將背景模型中的乙個畫素對映到模型中的多個位置,首先我們用下圖這個例子來看看對映方式:
在上圖中是採用乙個2×3例子來說明,對於乙個每個畫素,在背景模型中採用n×n(n=3)來表示,則對於一幅m×n的影象來說,其背景模型的大小將變成(m×n)×(n×n),即與原影象相比,模型的大小擴大了n×n倍。圖中,畫素a對應於模型中的(a1,a2,....,an2-1)。在背景模型初始化時,將影象轉換到hsv顏色空間,模型中的每個值用ai=(hi,si,vi)表示。因此,對於原圖中(x,y)處的乙個畫素,則對應於背景模型中的(i,j)(i=n*x,n*x+1,...,x*(n+1)-1), j =n*y,n*y+1,...,y*(n+1)-1))。
至此,sobs背景模型建立完成,下面我們進一步來分析前景檢測與背景更新。
2)前景檢測與背景更新
這種距離叫做hsv color hexcone,對光照變化具有較強的魯棒性。另外,假設影象中(x,y)處的畫素對應的背景模型為c=(c1,c2,...,cn2),則採用上式計算當前畫素與背景模型的距離,如果最小距離滿足下式:
式子的右邊是乙個閾值,則該畫素被分為背景模型,並進行背景更新。背景更新是**中的一大亮點,其採用了畫素鄰域空間相關的更新方式,取得了很好的效果。
具體來說如下:
① 在背景建模時,模型中的每個畫素都對應乙個權重weight,該權重初始化為高斯權重。
② 如果當前畫素被判為背景,且其與對應背景模型c中的cm最匹配(假設對應位置為(x',y')),即上式中的距離最小, 則其權重採用下式進行更新:
其中,i=x'-n/2,x'-n/2+1,...,x'+n/2 , j=y'-n/2,y'-n/2+1,...,y'+n/2 。其中alpha(i,j)的值如下所示:
其中alpha(t)是乙個常數,wi,j就是對應的高斯權重。
通 過上式的更新方式,我們可以看到,如果乙個畫素被判為背景,那麼其鄰域畫素也會被更新,其鄰域畫素的背景模型也會被該畫素影響,使鄰域的資訊進一步融入模型中,使得演算法具有了鄰域空間相關性。這裡我繼續通過上面的對映圖來進一步解釋:假設a位置的畫素與背景模型中的a9最匹配,即其距離滿足上面的最小距離度量方式,那麼背景模型中對應於(a5,a6,b4,a8,a9,b7,d3,e1,e3)將被更新,更新位置如下圖所示(即圖中黑色框框出來的畫素將被更新,更新模型中包括了鄰域的背景畫素,隨著演算法的繼續執行,那麼鄰域之間的資訊將被更好的融合):
經過測試,演算法效能表現不錯,對光照也有較強的魯棒性,另外計算速度還可以,對於352×288的影象來說,處理速度可以達到15-20fps(應個人主機而異)。但是有些許不足的是,該演算法中的每個畫素都要與背景模型中的n×n個畫素背景求最小值,這在一定程度上影響了處理速度(但這又與背景模型的更新緊密關聯,能否採用類似vibe演算法中的度量方式,只要滿足#min,則判為背景,然後選用另外的更新方式,處理速度上應該有所提高)。另外,作者與此相關的一篇**:the sobs algorithm- what are the limits,有興趣的讀者可以下下來看看。下面給出**的偽**:
最後,貼出幾張**中的效果圖:
計算機視覺 背景建模之PBAS
pixel based adaptive segmenter pbas 檢測演算法,是基於畫素的無引數模型,該演算法結合了sacon和vibe兩個演算法的優勢,並在這兩個演算法的基礎上改進而來,sacon和vibe演算法的介紹,請參考 背景建模 sacon 背景建模 vibe 創新點 1 引入控制論...
計算機視覺 基於行為的ReID演示
幫老師做了乙個簡單的基於行為 主要是步態 的reid問題的demo,效果如下圖 下面是提取的集中特徵,前三個都是gei系的,後幾個是基於光流場的。然後右邊是識別出的幾個物件的排序,因為沒有角度和衣服,書包等協變數改變的問題,所以識別比較準確,排第一的就是對的。其實特徵是之前提好的,因為物件也不多,識...
計算機視覺 基於RGB顏色特徵的火焰識別
在計算機中一般用陣列儲存,以畫素點為單位。返回值 323,500,3 高 寬 通道數 484500 畫素點個數 在rgb顏色空間下,每個畫素點的顏色由r g b三通道組成,rgb顏色空間以r red紅 g green綠 b blue藍 三種基本色為基礎,進行不同程度的疊加,產生豐富而廣泛的顏色,所以...