一 增強現實中虛實融合和人機互動技術的研究與應用_黃震宇
基於標誌物的識別,利用opencv和三維圖形引擎ogre實現虛實融合展示系統;
人機互動方案採用primesense的深度攝像頭,通過計算機視覺處理,重建了人體三維谷歌系統定義體感語義,制定動作-指令對映表。結合體感開發平台openni,實現肢體、全身控制。
一 緒論啥的
1.虛實融合
兩個技術點:幾何和光照
精度、比例和遮擋關係等-抗鋸齒 曲面細分
炫光透明折射反射陰影
2.三維註冊
/感測器註冊
gps,gsensor,陀螺儀,ccd(發led光來測目標基準間角度),超聲波,mems
/計算機視覺註冊 artoolkit等
/綜合註冊
根據影象特徵點的跟蹤定位,ptam方案,使用的是lucas-kanade的光流跟蹤演算法,不需要特定標誌物,基於自然影象
3.互動 資料手套 動作捕捉儀
二 基礎知識介紹
1.數字影象
2.影象分割
主要用的演算法包括 邊緣檢測、區域分割、形態學方法、閾值分割、分類與聚類演算法
3.輪廓提取
4.攝像機標定-世界座標系+攝像機座標系+影象平面座標系
-----世界-攝像機
-----影象平面和影象畫素座標系
------線性攝像機模型/平面定標/模板匹配等
三 開發平台
1.opencv
2.ogre常用的渲染方式有opengl和到d3d,但不適合在大型程式中直接用,使用第三方圖形渲染引擎 ogre 遵循lgpl (火炬之光用的圖形引擎)
其實吧 有點像更底層的unity
3.體感開發平台
openni beckon iisu
四 系統
系統實現
1.標誌物,用的是artoolkit的
用的是opencv的庫 cvcapture * gcap;
gcap = cvcreatecameracaputer(0);
image * frame = cvqueryframe(gcap);
3.檢測標誌物過程
4.確定攝像機位置
5.標誌物識別過程
四邊形輪廓-影象正規化-模板匹配-識別
5.虛擬物體註冊和渲染 用的是ogre工具,大致流程是3dsmax模型-匯出為scene格式(場景匯出外掛程式ogremaxsceneexporter)-ogre
五 基於深度攝像頭的體感漫遊系統
深度攝像頭-谷歌重建-谷歌追蹤-體感語義-互動指令
用的是primesensor,基於openni平台
具體實現可以查閱相關**。
二 桌面增強現實環境下的虛實融合和三維互動技術研究_陳亮
一 仍然是什麼緒論,不得不吐槽國內的碩士**,各種貼上複製。。略過
二 虛實融合和三維互動技術
放棄這篇文章了,寫的都是啥。。。各種貼上來的東西 一點自己的思路都沒有,瀏覽一下看看技術要點吧,大概用的也是openinventor,3d場景用的是oiv的coin3d。感覺做了很多東西發了很多**,然而思路太亂了。
如何閱讀文獻
文獻分類 文章全名 作者 刊物縮寫 出版年給文章命名,用多級目錄分類對文章進行分類,文獻累計到一定程式就分類採用硬拷貝的方式進行集中整理。當一篇文章涉及多個主題的時候,多級目錄分類就不太靈光了,我目前的做法是部分兩邊都放 部分只放最重要的主題。將我的博士 分成6個小方向。然後將資料分成6個部分。每個...
文獻閱讀(1)
針對的問題 利用商用wifi裝置進行aoa估計 面臨的挑戰 天線數量的限制 相位測量中引入的未知的相位偏移 解決方案 利用人體對手機進行自然旋轉,計算不同角度測量的相位差分,以消除相位偏移,提出d music演算法計算差分生成的等效入射訊號角度。再利用慣性感測器 陀螺儀 測得的旋轉角度計算初始和最終...
如何閱讀文獻
閱讀文獻應該是乙個由點到面再到點的過程。選取當下研究中的乙個熱點話題,檢索較全的文獻。知道目前對這個問題的共同看法和分歧。然後,擴充套件開,逐步擴充套件自己的視野,構建個人的專業知識結構和看法。有了一定的知識基礎以後,對於繁雜的文獻,要有個人的判斷。追蹤某個專題 某個專家的研究進展,比較對於同一專題...