发明名称 一种立体图像显著图提取方法
摘要 本发明公开了一种立体图像显著图提取方法,其包括训练阶段和测试阶段两个过程,在训练阶段,提取多幅立体图像各自的右视点图像中的每个区域的对比度、深度和纹理特征矢量,并分别构造基于不同核函数的弱分类器,再通过AdaBoosting模型构造使得经过训练得到的弱分类器的回归函数值与标签值之间的误差最小的强分类器;在测试阶段,计算测试立体图像的右视点图像中的每个区域的对比度、深度和纹理特征矢量,并利用已训练得到的强分类器来预测测试立体图像的右视点图像中的每个区域的三维视觉显著值,从而得到测试立体图像的立体显著图;优点是所训练得到的强分类器较好地反映了不同特征和不同核对显著的影响,从而有效地提高了三维视觉显著值的预测准确性。
申请公布号 CN105338335A 申请公布日期 2016.02.17
申请号 CN201510673217.3 申请日期 2015.10.15
申请人 宁波大学 发明人 邵枫;张竹青;李福
分类号 H04N13/00(2006.01)I 主分类号 H04N13/00(2006.01)I
代理机构 宁波奥圣专利代理事务所(普通合伙) 33226 代理人 周珏
主权项 一种立体图像显著图提取方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段过程的具体步骤如下:①‑1、将选取的N副各不相同的立体图像以及每幅立体图像的右视差图像和右视点图像的真实眼动图构成一个集合,记为{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N},其中,N≥1,L<sub>i</sub>表示{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的第i幅立体图像的左视点图像,R<sub>i</sub>表示{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的第i幅立体图像的右视点图像,d<sub>i</sub>表示{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的第i幅立体图像的右视差图像,F<sub>i</sub>表示{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的第i幅立体图像的右视点图像的真实眼动图;①‑2、采用超像素分割技术将{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像分割成M个互不重叠的区域,将R<sub>i</sub>中的第h个区域记为SP<sub>i,h</sub>,其中,M≥1,1≤h≤M;①‑3、计算{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像中的每个区域的对比度特征矢量,将SP<sub>i,h</sub>的对比度特征矢量记为<img file="FDA0000821863200000011.GIF" wi="126" he="77" /><img file="FDA0000821863200000012.GIF" wi="725" he="101" />其中,<img file="FDA0000821863200000013.GIF" wi="96" he="79" />的维数为6,符号“[]”为矢量表示符号,<img file="FDA0000821863200000014.GIF" wi="77" he="86" />表示SP<sub>i,h</sub>中的所有像素点在CIELAB颜色空间的L分量的颜色值与R<sub>i</sub>中的背景区域中的所有像素点在CIELAB颜色空间的L分量的颜色值的距离,<img file="FDA0000821863200000015.GIF" wi="77" he="82" />表示SP<sub>i,h</sub>中的所有像素点在CIELAB颜色空间的a分量的颜色值与R<sub>i</sub>中的背景区域中的所有像素点在CIELAB颜色空间的a分量的颜色值的距离,<img file="FDA0000821863200000016.GIF" wi="77" he="86" />表示SP<sub>i,h</sub>中的所有像素点在CIELAB颜色空间的b分量的颜色值与R<sub>i</sub>中的背景区域中的所有像素点在CIELAB颜色空间的b分量的颜色值的距离,<img file="FDA0000821863200000017.GIF" wi="82" he="86" />表示SP<sub>i,h</sub>中的所有像素点在RGB颜色空间的R分量的颜色值与SP<sub>i,h</sub>的相邻区域中的所有像素点在RGB颜色空间的R分量的颜色值的距离,<img file="FDA0000821863200000018.GIF" wi="77" he="84" />表示SP<sub>i,h</sub>中的所有像素点在RGB颜色空间的G分量的颜色值与SP<sub>i,h</sub>的相邻区域中的所有像素点在RGB颜色空间的G分量的颜色值的距离,<img file="FDA0000821863200000021.GIF" wi="78" he="85" />表示SP<sub>i,h</sub>中的所有像素点在RGB颜色空间的B分量的颜色值与SP<sub>i,h</sub>的相邻区域中的所有像素点在RGB颜色空间的B分量的颜色值的距离,R<sub>i</sub>中的背景区域是指R<sub>i</sub>中位于最左边、最右边、最上边、最下边的区域,SP<sub>i,h</sub>的相邻区域是指R<sub>i</sub>中与SP<sub>i,h</sub>左相邻、右相邻、上相邻、下相邻的区域;①‑4、计算{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像中的每个区域的深度特征矢量,将SP<sub>i,h</sub>的深度特征矢量记为<img file="FDA0000821863200000022.GIF" wi="117" he="86" /><img file="FDA0000821863200000023.GIF" wi="469" he="100" />其中,<img file="FDA0000821863200000024.GIF" wi="94" he="85" />的维数为3,符号“[]”为矢量表示符号,<img file="FDA0000821863200000025.GIF" wi="82" he="78" />表示SP<sub>i,h</sub>中的所有像素点的视差幅值的均值,<img file="FDA0000821863200000026.GIF" wi="86" he="86" />表示SP<sub>i,h</sub>中的所有像素点的视差幅值与R<sub>i</sub>中的背景区域中的所有像素点的视差幅值的距离,<img file="FDA0000821863200000027.GIF" wi="87" he="86" />表示SP<sub>i,h</sub>中的所有像素点的视差幅值与SP<sub>i,h</sub>的相邻区域中的所有像素点的视差幅值的距离;①‑5、计算{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像中的每个区域中的所有像素点的LBP特征统计直方图,将以矢量形式表示的LBP特征统计直方图作为对应区域的纹理特征矢量,将SP<sub>i,h</sub>的纹理特征矢量记为<img file="FDA0000821863200000028.GIF" wi="111" he="83" />其中,<img file="FDA0000821863200000029.GIF" wi="93" he="78" />的维数为59;①‑6、按{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像中的M个互不重叠的区域,将{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像的真实眼动图对应分割成M个互不重叠的区域;然后计算{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的每幅立体图像的右视点图像的真实眼动图中的每个区域的平均眼动值;接着按平均眼动值的大小对{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的所有N副立体图像的右视点图像的真实眼动图中的M×N个区域进行排序;之后从排序后的M×N个区域中取平均眼动值最高的20%区域,并将{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的所有立体图像的右视点图像中与所取的每个区域对应的区域作为正样本区域,同时从排序后的M×N个区域中取平均眼动值最低的40%区域,并将{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}中的所有立体图像的右视点图像中与所取的每个区域对应的区域作为负样本区域;再将所有正样本区域的特征矢量集的集合作为{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}的正样本集合,记为<img file="FDA0000821863200000031.GIF" wi="334" he="94" />并将所有负样本区域的特征矢量集的集合作为{L<sub>i</sub>,R<sub>i</sub>,d<sub>i</sub>,F<sub>i</sub>|1≤i≤N}的负样本集合,记为<img file="FDA0000821863200000032.GIF" wi="342" he="90" />最后将<img file="FDA0000821863200000033.GIF" wi="305" he="92" />和<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mo>{</mo><msubsup><mi>S</mi><mi>k</mi><mo>-</mo></msubsup><mo>|</mo><mn>1</mn><mo>&le;</mo><mi>k</mi><mo>&le;</mo><msub><mi>T</mi><mn>2</mn></msub><mo>}</mo></mrow>]]></math><img file="FDA0000821863200000034.GIF" wi="316" he="94" /></maths>构成初始的样本训练集,记为<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><mo>{</mo><msubsup><mi>S</mi><mi>r</mi><mo>&PlusMinus;</mo></msubsup><mo>|</mo><mn>1</mn><mo>&le;</mo><mi>r</mi><mo>&le;</mo><mi>T</mi><mo>}</mo><mo>,</mo></mrow>]]></math><img file="FDA0000821863200000035.GIF" wi="326" he="95" /></maths><maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mo>{</mo><msubsup><mi>S</mi><mi>r</mi><mo>&PlusMinus;</mo></msubsup><mo>}</mo><mo>=</mo><mo>{</mo><msubsup><mi>S</mi><mi>j</mi><mo>+</mo></msubsup><mo>,</mo><msubsup><mi>S</mi><mi>k</mi><mo>-</mo></msubsup><mo>}</mo><mo>;</mo></mrow>]]></math><img file="FDA0000821863200000036.GIF" wi="326" he="95" /></maths>其中,<img file="FDA0000821863200000037.GIF" wi="62" he="75" />表示第j个正样本区域的特征矢量集,<img file="FDA0000821863200000038.GIF" wi="462" he="95" /><img file="FDA0000821863200000039.GIF" wi="78" he="71" />表示第j个正样本区域的对比度特征矢量,<img file="FDA00008218632000000310.GIF" wi="88" he="79" />表示第j个正样本区域的深度特征矢量,<img file="FDA00008218632000000311.GIF" wi="73" he="78" />表示第j个正样本区域的纹理特征矢量,L<sub>j</sub>表示第j个正样本区域的标签值,L<sub>j</sub>=+1,T<sub>1</sub>表示正样本区域的总个数,T<sub>1</sub>=0.2×M×N,<img file="FDA00008218632000000312.GIF" wi="62" he="71" />表示第k个负样本区域的特征矢量集,<img file="FDA00008218632000000313.GIF" wi="517" he="92" /><img file="FDA00008218632000000314.GIF" wi="87" he="71" />表示第k个负样本区域的对比度特征矢量,<img file="FDA00008218632000000315.GIF" wi="88" he="77" />表示第k个负样本区域的深度特征矢量,<img file="FDA00008218632000000316.GIF" wi="88" he="70" />表示第k个负样本区域的纹理特征矢量,L<sub>k</sub>'表示第k个负样本区域的标签值,L<sub>k</sub>'=‑1,T<sub>2</sub>表示负样本区域的总个数,T<sub>2</sub>=0.4×M×N,<img file="FDA00008218632000000317.GIF" wi="59" he="69" />表示<img file="FDA00008218632000000318.GIF" wi="296" he="94" />中的第r个样本,<img file="FDA00008218632000000319.GIF" wi="62" he="69" />为正样本或为负样本,若<img file="FDA00008218632000000320.GIF" wi="61" he="68" />中的标签值为+1,则<img file="FDA00008218632000000321.GIF" wi="62" he="71" />为正样本,若<img file="FDA00008218632000000322.GIF" wi="61" he="76" />中的标签值为‑1,则<img file="FDA00008218632000000323.GIF" wi="67" he="74" />为负样本,T=0.6×M×N,T=T<sub>1</sub>+T<sub>2</sub>;①‑7、采用AdaBoosting模型作为机器学习的方法,对<img file="FDA00008218632000000324.GIF" wi="297" he="95" />中的所有正样本和所有负样本进行训练,使得经过训练得到的弱分类器的回归函数值与标签值之间的误差最小,得到<img file="FDA00008218632000000325.GIF" wi="301" he="94" />中的每个样本的所有弱分类器各自的回归函数的最优的权重矢量和最优的偏置项及权重系数,将<img file="FDA00008218632000000326.GIF" wi="294" he="92" />中的任意一个样本的第m个弱分类器的回归函数的最优的权重矢量和最优的偏置项及权重系数对应记为<img file="FDA00008218632000000327.GIF" wi="94" he="71" />和<img file="FDA00008218632000000328.GIF" wi="74" he="71" />及<img file="FDA00008218632000000329.GIF" wi="113" he="70" />然后根据<img file="FDA00008218632000000330.GIF" wi="294" he="95" />中的任意一个样本的所有弱分类器各自的回归函数的最优的权重矢量和最优的偏置项及权重系数,构造一个强分类器,将根据<img file="FDA00008218632000000331.GIF" wi="62" he="70" />的所有弱分类器各自的回归函数的最优的权重矢量和最优的偏置项及权重系数构造的强分类器记为φ(r),<maths num="0004" id="cmaths0004"><math><![CDATA[<mrow><mi>&phi;</mi><mrow><mo>(</mo><mi>r</mi><mo>)</mo></mrow><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>m</mi><mo>=</mo><mn>1</mn></mrow><mi>L</mi></munderover><msubsup><mi>&beta;</mi><mi>m</mi><mrow><mi>o</mi><mi>p</mi><mi>t</mi></mrow></msubsup><mrow><mo>(</mo><msup><mrow><mo>(</mo><msubsup><mi>w</mi><mi>m</mi><mrow><mi>o</mi><mi>p</mi><mi>t</mi></mrow></msubsup><mo>)</mo></mrow><mi>T</mi></msup><msub><mi>k</mi><mi>m</mi></msub><mo>(</mo><mi>r</mi><mo>)</mo><mo>+</mo><msubsup><mi>b</mi><mi>m</mi><mrow><mi>o</mi><mi>p</mi><mi>t</mi></mrow></msubsup><mo>)</mo></mrow><mo>;</mo></mrow>]]></math><img file="FDA00008218632000000332.GIF" wi="702" he="110" /></maths>其中,1≤m≤L,L表示<maths num="0005" id="cmaths0005"><math><![CDATA[<mrow><mo>{</mo><msubsup><mi>S</mi><mi>r</mi><mo>&PlusMinus;</mo></msubsup><mo>|</mo><mn>1</mn><mo>&le;</mo><mi>r</mi><mo>&le;</mo><mi>T</mi><mo>}</mo></mrow>]]></math><img file="FDA00008218632000000333.GIF" wi="310" he="94" /></maths>中的任意一个样本的弱分类器的总个数,L=N<sub>f</sub>×N<sub>k</sub>,N<sub>f</sub>表示<img file="FDA00008218632000000334.GIF" wi="306" he="94" />中的任意一个样本中的特征矢量的总个数,N<sub>f</sub>=3,N<sub>k</sub>表示<img file="FDA0000821863200000041.GIF" wi="301" he="95" />中的任意一个样本的任意一个弱分类器的回归函数的核的总个数,N<sub>k</sub>≥2,<img file="FDA0000821863200000042.GIF" wi="145" he="78" />为<img file="FDA0000821863200000043.GIF" wi="87" he="69" />的转置矢量,k<sub>m</sub>(r)表示<img file="FDA0000821863200000044.GIF" wi="59" he="69" />的第m个弱分类器的回归函数的核函数;所述的测试阶段过程的具体步骤如下:②‑1、对于任意一副测试立体图像S<sub>test</sub>,将S<sub>test</sub>的左视点图像、右视点图像、右视差图像对应记为L<sub>test</sub>、R<sub>test</sub>、d<sub>test</sub>;然后采用超像素分割技术将R<sub>test</sub>分割成M'个互不重叠的区域,将R<sub>test</sub>中的第h个区域记为SP<sub>h</sub>',其中,M'≥1,1≤h≤M';②‑2、按照步骤①‑3至步骤①‑5的过程,以相同的操作方式获取R<sub>test</sub>中的每个区域的对比度特征矢量、深度特征矢量和纹理特征矢量;然后将R<sub>test</sub>中的每个区域的对比度特征矢量、深度特征矢量和纹理特征矢量构成的集合作为输入样本;再计算R<sub>test</sub>中的每个区域对应的输入样本的每个弱分类器的回归函数的核函数,将SP<sub>h</sub>'对应的输入样本的第m个弱分类器的回归函数的核函数记为k<sub>m</sub>(h);②‑3、根据训练阶段构造的强分类器φ(r),获取R<sub>test</sub>中的每个区域的三维视觉显著值,将SP<sub>h</sub>'的三维视觉显著值记为S<sub>3D,h</sub>,S<sub>3D,h</sub>=φ(h),<img file="FDA0000821863200000045.GIF" wi="709" he="110" />再将R<sub>test</sub>中的每个区域的三维视觉显著值作为对应区域中的所有像素点的显著值,对于SP<sub>h</sub>',将SP<sub>h</sub>'的三维视觉显著值作为SP<sub>h</sub>'中的所有像素点的显著值,从而得到S<sub>test</sub>的立体显著图,记为{S<sub>3D</sub>(x',y')},其中,(x',y')表示S<sub>test</sub>中的像素点的坐标位置,1≤x'≤W',1≤y'≤H',W'和H'对应表示S<sub>test</sub>的宽度和高度,S<sub>3D</sub>(x',y')表示{S<sub>3D</sub>(x',y')}中坐标位置为(x',y')的像素点的像素值,S<sub>3D</sub>(x',y')亦表示R<sub>test</sub>中坐标位置为(x',y')的像素点的显著值。
地址 315211 浙江省宁波市江北区风华路818号
您可能感兴趣的专利