在线观看国产区-在线观看国产欧美-在线观看国产免费高清不卡-在线观看国产久青草-久久国产精品久久久久久-久久国产精品久久久

美章網 資料文庫 均值偏移和區域映射的視差圖范文

均值偏移和區域映射的視差圖范文

本站小編為你精心準備了均值偏移和區域映射的視差圖參考范文,愿這些范文能點燃您思維的火花,激發您的寫作靈感。歡迎深入閱讀并收藏。

均值偏移和區域映射的視差圖

《計算機應用研究雜志》2015年第五期

1基于均值偏移區域映射視差圖優化算法

本文算法的思想是在傳統立體匹配算法基礎上對匹配得到的原始視差圖進行優化。經典立體匹配如圖割算法(GraphCut)、成本聚集局部立體匹配算法(DTAggr-P)、成本聚集聯合直方圖匹配算法(HistoAggr)、硬件高效雙邊濾波匹配算法(HEBF)及遞歸雙邊濾波算法(RecursiveBF),采用上述算法得到的視差圖稱為原始視差圖。算法步驟如下:1)采用均值偏移算法對原始視差圖像進行分割;2)對黑色空洞區域進行提取,判斷紋理方向,進行均值紋理填充;3)對原始左圖像進行區域分割,將分割區域映射到黑洞填充后的視差圖中,對視差圖中的每個分割區域進行平面擬合去除誤匹配點;4)結合攝像機標定參數計算得到場景的深度信息和三維坐標,最后進行以左視圖為參考圖像的三維重建。經過以上4個步驟,最終實現精度較高的三維重建。算法整體流程圖如圖1所示。

1.1基于均值偏移算法的圖像分割經過圖像匹配,誤匹配點最明顯的表現為黑色區域。視差圖是灰度圖像,灰度值對應著深度信息,黑色區域也就是灰度值為0的區域,對應到深度信息中就是深度值為零,這是不符合實際情況的。若直接對視差圖進行平滑和濾波處理,由于黑色區域的存在,將導致很大的誤差。本文使用均值偏移算法對視差圖進行基于灰度值的分割,根據相機標定參數中的焦距確定最小深度值從而確定視差值mind,視差圖的最小灰度值minc也就確定了,通過均值偏移聚類標記并提取出小于minc的像素點。均值偏移算法[9]是一種概率核密度估計算法,用于對特征空間內的樣本進行聚類分析。設1...{}iinx是d維空間dR中的任意n個特征點,核函數密度估計算子由核函數K(x)和函數窗口半徑h即帶寬矩陣決定,其表達式. 由式(5)可知,特征點x處的均值偏移向量的方向和該點的密度梯度的方向是一致的,聚類中心點就是指沿著均值偏移的方向收斂到的密度最大點。而密度較低的區域均值偏移的步長也就較大,當在cx點出均值偏移矢量達到零時,該點就被稱為特征空間的模式點。對于黑色空洞區域的填充,本文根據紋理的方向采用行或列的像素平均值進行填充。采用GC算法計算得到的Teddy圖像的作為原始視差圖,此圖黑洞區域的紋理方向是縱向的,于是本文對其進行了橫向填充。分割前后對比圖如圖2所示。其中圖(a)是GC算法得到的原始視差圖,在邊緣和中間部分區域明顯存在著一些誤匹配的不合理區域,尤其是在左邊的邊緣階段,匹配的效果十分不理想。圖(b)是經過均值偏移區域分割后的結果,圖(c)是黑洞區域,圖(d)是對黑洞區域處理后的視差圖??梢钥闯鼍灯扑惴軌蚴褂捎谡`匹配等原因造成的黑洞區域較好的提取出來。

1.2區域映射下的視差圖優化本文算法是基于平滑表面假設的,即在原始彩色圖像中色彩值相似的區域對應某一個物體的表面,當區域劃分的足夠小時,這些表面都可以用一個平面來描述。當這些區域對應到深度圖中時,同一區域內的像素點深度信息可以用一個平面來擬合。本文的視差圖是以左圖像為參考圖像的,視差圖與左圖像間的區域位置是一一對應的。先對原始圖像進行均值偏移分割。原始圖像是RGB格式,需轉化到Lab空間。Lab色彩模型是基于人對顏色的感知,將光線波長轉化為亮度和色度,在視覺感知方面更加均勻,其中L表示亮度,a和b是色度范圍。Lab色彩空間中兩點的歐式距離能夠較好的表征兩個像素點顏色的差異,用該模型來進行圖像分割也能得到更好的分割結果。原始圖像的分割結果如圖3中(b)圖所示,區域映射后的視差圖如圖3中(c)所示。將原始左圖像的區域分割結果映射到視差圖中,對每個區域做視差平面的擬合。本文使用最小二乘法對分割平面進行擬合,分別以行和列的坐標為x和y方向的坐標,以像素的灰度值為z坐標進行平面擬合。擬合公式.其中b(1),b(2),b(3),b(4)為待擬合的系數。用擬合后的平面取代之前的包含較多誤匹配點的不規則曲面,各個區域里摻雜的誤匹配點也就被去除了。優化后的視差圖如圖3中(d)所示。

1.3三維重建在得到經過后處理的視差圖后,結合標定數據,進行了三維重建。由于本文使用的是標準Teddy圖像對,接近于理想的平行雙目立體視覺模型。本文的三維重建是以左原始彩色圖像的坐標為參考圖像,根據平行雙目配準雙CCD系統的三角測量原理[10]。假設兩攝像機的焦距為f,基線長度為B即攝像機投影中心間的距離,以左攝像機為世界坐標系oxyz,左視差圖像坐標系為lllOXY,右視差圖像坐標系為rrrOXY,空間任意一點P(x,y,z)在左視差圖像上的投影為(,)lllOXY,在右視差圖像上的投影則對應的為(,)rrrOXY。理想的平行雙目立體視覺模型中,兩個攝像機的中心是位于同一平面上的,也就意味著lrYYY,即左右視差圖坐標系以及世界坐標系的Y坐標值是一致的。由透視變換三角幾何關系可以得到如下的關系式.由于本文使用的是標準圖像對,因此圖像的基線B及攝像機的焦距f是已知的。再結合經過后處理的視差圖,可以得出物體3D坐標及每一個匹配點的深度信息Z。最終Teddy圖像對的三維重建效果圖如圖4所示。從圖可以看出,由GC算法得到的視差圖進行三維重建時有較多毛刺及較多誤匹配區域,導致重建的效果較差。而經過本文算法優化后的三維效果圖不僅去除了毛刺和不合理區域,同時還保留了該有的紋理方向和三維平面的趨勢。

2實驗結果及分析

本文算法的開發工具為MATLAB2012a,采用Middlebury大學提供的標準圖像對進行實驗驗證。為了客觀評價本文算法的處理效果,采用了指標誤匹配率B和均絕對值誤差R對處理前后的視差圖進行定量分析,定義式如下.本文對Middlebury提供的四對標準圖像對Cones、Teddy、Venus、Tsukuba的視差圖做了后處理,算法所得視差圖實驗結果如圖5所示,其均絕對值誤差和誤匹配率的前后對比結果如表1所示。Cones(分別標記為“aB”和“aR”)、Teddy(“bB”,“bR”)、Venus(“cB”,“cR”)以及Tsukuba(“dB”,“dR”)。從八組數據前后對比可以看出,本文算法對GC算法的原始視差圖優化的效果是相當明顯的,除了Cones圖像的誤匹配率指標,其他的指標數值在處理前后都有降低。為了進一步驗證本文算法的有效性,對DTAggr-P算法、HistoAggr算法、HEBF算法以及RecursiveBF算法得到的Teddy圖像的視差圖也都做了后處理。對這四種典型算法的視差圖像本文同樣采用了均絕對值誤差和誤匹配率來衡量最終視差圖優化的效果,如表2所示:DTAggr-P算法(分別標記為“1B”和“1R”)、HistoAggr2算法(“2B”,“2R”)、HEBF算法(“3B”,“3R”)以及RecursiveBF算法(“4B”,“4R”)。由表格數據可以看出,經過本文算法處理后,除了HistoAggr算法得到的優化后視差圖在誤匹配率指標上略有增加,其他三種經典算法的均絕對值誤差和誤匹配率都有明顯降低。圖6展示了評價結果中兩種評價指標的優化前后的對比折線圖。

3結束語

本文以雙目立體視覺理論為基礎,使用基于均值偏移和區域映射的算法對原始視差圖進行優化,最后結合標準圖像對的標定數據計算得到場景的深度信息,進行了三維重建。本文對GC及其他四種算法得到的視差圖進行了優化。結果表明本文算法不僅能夠維持原始紋理的方向性,還有效地降低了視差圖中圖像遮擋區域及低紋理區域的誤匹配率,三維重建更接近真實值。但是算法也存在不足之處,對于過度復雜紋理區域和紋理重疊區域的紋理處理還不夠完美,導致三維重建的效果還是有欠缺,這是后續研究中需改進的地方。

作者:張驚雷 吉玲 單位:天津市復雜系統控制理論及應用重點實驗室 天津理工大學 自動化學院

主站蜘蛛池模板: 欧美黑人一区二区 | 日本不卡视频一区二区三区 | 日韩欧美在线观看 | 五月婷色 | 日韩成人精品视频 | 中文字幕日本久久2019 | 亚洲免费视频观看 | 在线成人aa在线看片 | 亚洲福利在线视频 | 欧美久久久久久久一区二区三区 | 亚洲天堂男人在线 | 久久综合欧美 | 国产精品视频分类 | 国产精品入口麻豆电影网 | 丁香婷婷激情五月 | 亚洲精品视频在线免费 | 亚洲男人天堂av | 国产成人精品一区二区不卡 | 国产小视频在线免费观看 | 欧美福利视频 | 中文字幕欧美日韩一 | 精品欧美一区二区精品久久 | 日本不卡不码高清免费观看 | 欧美成视频 | 男人的天堂黄色片 | 日韩久久精品视频 | 精品手机在线视频 | 国产羞羞的视频在线观看免费 | 五月天色婷婷在线 | 欧美国产日韩综合 | 中文国产日韩欧美视频 | 亚洲国产系列久久精品99人人 | 色丁香在线视频 | 久久精品成人欧美大片免费 | 亚洲国产成人久久综合一区77 | 波多野吉衣在线视频 | 在线视频国产一区 | 久久久久久久999 | 欧洲欧美人成免费观看 | 亚洲第一在线播放 | 啪啪激情综合 |