发明名称 一种快速自适应支持权值双目视觉立体匹配方法
摘要 本发明公开了一种快速自适应支持权值双目视觉立体匹配方法,包括以下步骤:读取已有待匹配双目图像对;计算匹配代价;加权聚合匹配代价;计算初始视差;对初始视差进行校正,得到最终视差矩阵;生成视差图,输出结果。本发明可用于立体显示技术领域,改善立体匹配效果。
申请公布号 CN103325120A 申请公布日期 2013.09.25
申请号 CN201310268903.3 申请日期 2013.06.30
申请人 西南交通大学 发明人 张葛祥;王涛;关桃
分类号 G06T7/00(2006.01)I 主分类号 G06T7/00(2006.01)I
代理机构 成都宏顺专利代理事务所(普通合伙) 51227 代理人 李顺德;王睿
主权项 1.一种快速自适应支持权值双目视觉立体匹配方法,其特征在于,包括以下步骤:S1、读取已有待匹配双目图像对I<sub>l</sub>和I<sub>r</sub>,获得图像的大小和颜色通道信息,其中,I<sub>l</sub>表示左视图,为待匹配图像,I<sub>r</sub>表示右视图,为匹配图像;S2、计算I<sub>l</sub>,I<sub>r</sub>中像素点间的匹配代价,包括:S21、对待匹配图像I<sub>l</sub>,确定方形支持窗N,计算支持窗内中心像素和支持像素的灰度差diff(p,q),其中,diff(p,q)=I(p)-I(q),I(p)和I(q)分别为中心像素点p和支持像素点q的灰度值;S22、根据S21所得灰度差diff(p,q),将方形支持窗N内每个像素定义到5个等级中去,五个等级如下:<img file="FDA00003439816100011.GIF" wi="590" he="380" />其中,s和t是根据经验设置的阈值,满足尽可能减小图像噪声的影响这一原则;S23、统计得出初始相似性测度值S<sub>d</sub>:令fuz表示经秩变换后得到的数值矩阵,矩阵大小和方形支持窗N大小相同,<maths num="0001"><![CDATA[<math><mrow><mi>fuz</mi><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mo>-</mo><mn>2</mn></mtd><mtd><mi>diff</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><mo>&lt;</mo><mo>-</mo><mi>s</mi></mtd></mtr><mtr><mtd><mo>-</mo><mn>1</mn></mtd><mtd><mo>-</mo><mi>s</mi><mo>&le;</mo><mi>diff</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><mo>&lt;</mo><mo>-</mo><mi>t</mi></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mo>-</mo><mi>t</mi><mo>&le;</mo><mi>diff</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><mo>&le;</mo><mi>t</mi></mtd></mtr><mtr><mtd><mn>1</mn></mtd><mtd><mi>t</mi><mo>&lt;</mo><mi>diff</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><mo>&le;</mo><mi>s</mi></mtd></mtr><mtr><mtd><mn>2</mn></mtd><mtd><mi>s</mi><mo>&lt;</mo><mi>diff</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow></mtd></mtr></mtable></mfenced><mo>,</mo></mrow></math>]]></maths>分别对I<sub>l</sub>中待匹配像素点和I<sub>r</sub>中候选匹配像素点进行秩变换,可以得到两个秩变换矩阵fuz<sub>l</sub>和fuz<sub>r</sub>,统计秩变换矩阵fuz<sub>l</sub>和秩变换矩阵fuz<sub>r</sub>在方形支持窗内对应位置具有相同等级的个数,得到初始相似性测度值S<sub>d</sub>,其中,<maths num="0002"><![CDATA[<math><mrow><msub><mi>S</mi><mi>d</mi></msub><mo>=</mo><msub><mi>&Sigma;</mi><mrow><mi>q</mi><mo>&Element;</mo><mi>N</mi></mrow></msub><mi>m</mi><mo>,</mo></mrow></math>]]></maths><maths num="0003"><![CDATA[<math><mrow><mi>m</mi><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn></mtd><mtd><mrow><mi>if</mi><msub><mi>fuz</mi><mi>l</mi></msub><mo>=</mo><msub><mi>fuz</mi><mi>r</mi></msub></mrow></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>otherwise</mi></mtd></mtr></mtable></mfenced><mo>,</mo></mrow></math>]]></maths>m表示秩变换矩阵fuz<sub>l</sub>和fuz<sub>r</sub>在对应位置是否具有相同等级,若相同,则m=1,否则m=0;S24、统计待匹配图像中待匹配像素点为中心的n×n方形统计窗M内每个视差值d∈D对应的初始相似性测度值,根据ERT相似性度量函数得到待匹配像素和匹配图像中候选匹配像素点间的匹配代价<img file="FDA00003439816100015.GIF" wi="268" he="89" />其中,d表示待匹配像素和候选匹配像素在水平方向的视差,D={d<sub>min</sub>,...d<sub>max</sub>},<maths num="0004"><![CDATA[<math><mrow><msub><mi>C</mi><mi>ERT</mi></msub><mrow><mo>(</mo><mi>q</mi><mo>,</mo><msub><mover><mi>q</mi><mo>&OverBar;</mo></mover><mi>d</mi></msub><mo>)</mo></mrow><mo>=</mo><munder><mi>&Sigma;</mi><mrow><mi>n</mi><mo>&times;</mo><mi>n</mi></mrow></munder><msub><mi>S</mi><mi>d</mi></msub><mrow><mo>(</mo><mi>q</mi><mo>)</mo></mrow><mo>;</mo></mrow></math>]]></maths>S3、加权聚合匹配代价,包括:S31、计算支持权值w(p,q):利用颜色相似性和几何接近性,计算匹配支持窗内支持像素q对待匹配像素p的支持权值w(p,q),w(p,q)=f<sub>s</sub>(Δc<sub>pq</sub>)·f<sub>p</sub>(Δg<sub>pq</sub>),<img file="FDA00003439816100022.GIF" wi="505" he="147" /><img file="FDA00003439816100023.GIF" wi="519" he="157" />其中,f<sub>s</sub>(Δc<sub>pq</sub>)表示由颜色相似性确定的聚类强度,f<sub>p</sub>(Δg<sub>pq</sub>)表示由几何接近性确定的聚类强度,Δc<sub>pq</sub>表示两个像素颜色c<sub>p</sub>和c<sub>q</sub>在RGB颜色空间的欧几里德距离,c<sub>p</sub>=[R<sub>p</sub>,G<sub>p</sub>,B<sub>p</sub>],c<sub>q</sub>=[R<sub>q</sub>,G<sub>q</sub>,B<sub>q</sub>],<maths num="0005"><![CDATA[<math><mrow><msub><mi>&Delta;c</mi><mi>pq</mi></msub><mo>=</mo><msqrt><msup><mrow><mo>(</mo><msub><mi>R</mi><mi>p</mi></msub><mo>-</mo><msub><mi>R</mi><mi>q</mi></msub><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msub><mi>G</mi><mi>p</mi></msub><mo>-</mo><msub><mi>G</mi><mi>q</mi></msub><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msub><mi>B</mi><mi>p</mi></msub><mo>-</mo><msub><mi>B</mi><mi>q</mi></msub><mo>)</mo></mrow><mn>2</mn></msup></msqrt><mo>,</mo></mrow></math>]]></maths>Δg<sub>pq</sub>表示中心像素和支持像素的在空间位置上的欧几里德距离,设像素p在图像域的坐标为p(x,y),像素q在图像域的坐标为q(x',y'),则<img file="FDA00003439816100025.GIF" wi="624" he="99" />γ<sub>c</sub>,γ<sub>p</sub>是用户指定参数,分别用来调节颜色相似性和几何接近性对支持权值大小的影响;S32、根据S24所得匹配代价<img file="FDA00003439816100026.GIF" wi="240" he="85" />和S31所得支持权值w(p,q),加权聚合匹配代价,得到:<maths num="0006"><![CDATA[<math><mrow><mi>E</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><msub><mover><mi>p</mi><mtext>-</mtext></mover><mi>d</mi></msub><mo>)</mo></mrow><mo>=</mo><mfrac><mrow><msub><mi>&Sigma;</mi><mrow><mi>q</mi><mo>&Element;</mo><msub><mi>N</mi><mi>P</mi></msub><mo>,</mo><mrow><mover><mi>q</mi><mo>&OverBar;</mo></mover><mo>&Element;</mo><msub><mi>N</mi><msub><mover><mi>p</mi><mo>&OverBar;</mo></mover><mi>d</mi></msub></msub></mrow></mrow></msub><mi>w</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><msub><mi>c</mi><mi>ERT</mi></msub><mrow><mo>(</mo><mi>q</mi><mo>,</mo><msub><mover><mi>q</mi><mo>&OverBar;</mo></mover><mi>d</mi></msub><mo>)</mo></mrow></mrow><mrow><msub><mi>&Sigma;</mi><mrow><mi>q</mi><mo>&Element;</mo><msub><mi>N</mi><mi>P</mi></msub><mo>,</mo><mover><mi>q</mi><mo>&OverBar;</mo></mover><mo>&Element;</mo><msub><mi>N</mi><msub><mover><mi>p</mi><mo>&OverBar;</mo></mover><mi>d</mi></msub></msub></mrow></msub><mi>w</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow></mrow></mfrac><mo>,</mo></mrow></math>]]></maths>其中,<img file="FDA00003439816100028.GIF" wi="178" he="88" />分别表示当视差为d时待匹配图像像素p、q在匹配图像中对应的匹配像素点,N<sub>p</sub>表示参考图像中的支持窗口大小,<img file="FDA00003439816100029.GIF" wi="88" he="86" />表示目标图像中的对应支持窗口大小,且<img file="FDA000034398161000210.GIF" wi="321" he="76" />S4、计算初始视差:对S3中所得加权聚合匹配代价采用局部最优化方法WTA(Winner-Take-All,胜者为王),得出最大加权聚合结果,最大加权聚合结果对应的视差值为该像素的初始视差d<sub>p</sub>,每个像素的初始视差结果保存到初始视差矩阵,初始视差矩阵为:<maths num="0007"><![CDATA[<math><mrow><msub><mi>d</mi><mi>p</mi></msub><mo>=</mo><mi>arg</mi><munder><mi>max</mi><mrow><mi>d</mi><mo>&Element;</mo><mi>D</mi></mrow></munder><mi>E</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><msub><mover><mi>p</mi><mo>&OverBar;</mo></mover><mi>d</mi></msub><mo>)</mo></mrow><mo>;</mo></mrow></math>]]></maths>S5、对S4所得初始视差进行校正,得到最终视差矩阵,包括:S51、确定以待校正像素p为中心的校正窗口N<sub>c</sub>,根据颜色相似性和几何接近性为校正窗内每一个像素自适应地分配一个合适的支持权值w<sub>c</sub>,<img file="FDA000034398161000212.GIF" wi="682" he="159" />S52、观察校正窗内所有像素的初始视差分布,统计视差d∈D在校正窗内出现的次数,并聚合各个视差值d在校正窗内出现的次数及对应的权值,最大聚合结果对应的视差,则为待校正像素的最终视差d<sub>p_final</sub>,并将结果保存到最终视差矩阵,其中<maths num="0008"><![CDATA[<math><mrow><msub><mi>d</mi><mrow><mi>p</mi><mo>_</mo><mi>final</mi></mrow></msub><mo>=</mo><mi>arg</mi><mrow><munder><mi>max</mi><mrow><mi>d</mi><mo>&Element;</mo><mi>D</mi></mrow></munder><mo>{</mo><msub><mi>&Sigma;</mi><mrow><mi>q</mi><mo>&Element;</mo><msub><mi>N</mi><mi>c</mi></msub></mrow></msub><msub><mi>w</mi><mi>c</mi></msub><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><mo>&times;</mo><mi>k</mi><mo>}</mo></mrow><mo>,</mo></mrow></math>]]></maths><maths num="0009"><![CDATA[<math><mrow><mi>k</mi><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn></mtd><mtd><mi>if</mi><msub><mi>d</mi><mi>p</mi></msub><mrow><mo>(</mo><mi>q</mi><mo>)</mo></mrow><mo>=</mo><mi>d</mi></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>otherwise</mi></mtd></mtr></mtable></mfenced><mo>,</mo></mrow></math>]]></maths>k表示校正窗内像素的初始视差是否等于待统计视差d,若相等,则k=1,否则k=0;S6、生成视差图,输出结果:将S5所得最终视差值d<sub>p_final</sub>映射到相应的灰度空间[0,255],映射比例为t,得到表示视差信息的灰度图像。
地址 610031 四川省成都市二环路北一段111号