看了不少**,感覺**裡寫的東西和我想象的還是很不一樣
先自己再做點實現推進一下自己的想法吧
畢竟那幾篇**我是仔細看了也沒看懂個啥
主要目標:
1.看看sift, orb都會挑選一些什麼樣的點
2.這些特徵點在詞袋模型下的分類
3.單純對這些點進行分類
主要在python上實現,圖個方便,
ob又這麼慢,換源都不行,conda config --add channels 用了這個沒見過的源終於可以了
opencv要安裝contrib版本的,
opencv-python 是只包含了主要模組的包,opencv-contrib-python包含了主要模組以及擴充套件模組,擴充套件模組主要是包含了一些帶專利的收費演算法(如shift特徵檢測)以及一些在測試的新的演算法(穩定後會合併到主要模組)。
jupyter新增核心的時候又出了問題,如果不加--user選項,就會加出來乙個py2.7的。
1.看了一下,sift特徵點也不是全部都在邊上,像鍵盤這種,就很多都在內部,內部的邊上。
但是對於顯示器這種東西,它自己內部沒什麼特徵,那就只能在邊界上了,懂了。
sift有852個點,每個點的描述子是128維,好像也都是整數。
sift的特徵點數似乎是沒有數量要求的,每張圖不一樣,不過分布的很均勻還。
換成orb的話,特徵點少了好多好多啊,,,,,orb就只有零星的幾個點了。這是為什麼
噢噢,實際上,orb也提取了500個點,但是因為沒有什麼優化策略,500個點都很集中似乎.
乙個orb描述子似乎就32維,也不是很多。還都是整數,怪怪的。
2.基於詞袋的分類
基本上跟著這個**跑了一下,沒有用太多訓練,就tum資料集裡找了幾張,效果還可以吧。
文件詞袋模型
詞袋模型記錄了單詞在詞彙表中出現的次數。def loaddataset 建立文件集合以及標籤 postinglist my dog has flea problems help please maybe not take him to dog park stupid my dalmation is ...
詞袋模型(bag of words,BOW
詞袋模型是自然語言處理中在建模文字時常用的文字表示方法。維基百科上的給出如下的例子 john likes to watch movies.mary likes too.john also likes to watch football games.將上面的兩句話中看作乙個文件集,列出文件 現的所有單...
DBOW詞袋訓練工具
啟動指令碼 說明 安裝安裝visual map,見 catkin build vslam 使用執行檔案 devel lib bag tool bag tool exe 引數1 輸出的模型的檔名,比如freaktest.bin 引數2 描述型別,freak 或者 orb 引數4 模型的分支數 引數5 ...