发明名称 基于视觉注意机制的图像显著区域检测方法
摘要 本发明公开了一种基于视觉注意机制的图像显著区域检测方法,主要解决现有技术检测出的显著区域与目标区域常存在偏差,精确度不高的问题。其实现过程是:首先,对一幅原始图像进行强度特征和颜色特征提取,其中颜色特征包括RG颜色分量和BY颜色分量,得到三幅特征图;其次,对三幅特征图进行视差计算,得到三幅相应的视差图;再次,根据三幅视差图计算出三个相应的权值系数;最后,根据三个权值系数,对三个视差图进行线性整合,得到最终的视觉显著图。本发明有效提高图像中显著目标区域检测的精度,并具有较好的抗干扰能力,可用于目标检测、目标识别、图像检索以及自然图像压缩等领域。
申请公布号 CN102509299A 申请公布日期 2012.06.20
申请号 CN201110364499.0 申请日期 2011.11.17
申请人 西安电子科技大学 发明人 侯彪;焦李成;杨伟;张向荣;马文萍;王爽
分类号 G06T7/00(2006.01)I 主分类号 G06T7/00(2006.01)I
代理机构 陕西电子工业专利中心 61205 代理人 王品华;朱红星
主权项 1.一种基于视觉注意机制的图像显著区域检测方法,包含以下步骤:(1)对一幅原始的自然图像,提取强度特征和两个颜色特征,即红绿颜色RG分量和蓝黄颜色BY分量,得到三幅特征图;(2)对上述的三幅特征图进行视差计算,得到三幅相应的视差图,即强度视差图、RG视差图和BY视差图;(3)根据步骤(2)得到的三幅视差图,计算三个权值系数;3a)分别计算步骤(2)得到的三幅视差图的平均值和标准差:<maths num="0001"><![CDATA[<math><mrow><msub><mi>Average</mi><mi>n</mi></msub><mo>=</mo><mfrac><mn>1</mn><mrow><mi>H</mi><mo>&times;</mo><mi>W</mi></mrow></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>0</mn></mrow><mrow><mi>H</mi><mo>-</mo><mn>1</mn></mrow></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>0</mn></mrow><mrow><mi>W</mi><mo>-</mo><mn>1</mn></mrow></munderover><msub><mi>D</mi><mi>n</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mrow></math>]]></maths><maths num="0002"><![CDATA[<math><mrow><msub><mi>Deviate</mi><mi>n</mi></msub><mo>=</mo><mfrac><mn>1</mn><mrow><mi>H</mi><mo>&times;</mo><mi>W</mi></mrow></mfrac><msqrt><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>0</mn></mrow><mrow><mi>H</mi><mo>-</mo><mn>1</mn></mrow></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>0</mn></mrow><mrow><mi>W</mi><mo>-</mo><mn>1</mn></mrow></munderover><msup><mrow><mo>(</mo><msub><mi>D</mi><mi>n</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>-</mo><msub><mi>Average</mi><mi>n</mi></msub><mo>)</mo></mrow><mn>2</mn></msup></msqrt></mrow></math>]]></maths>式中,H和W分别代表视差图的长和宽,D<sub>n</sub>(i,j)为第n幅视差图上任意一个像素(i,j)的灰度值,Average<sub>n</sub>和Deviate<sub>n</sub>分别为第n幅视差图的平均值和标准差n=1,2,3;3b)根据每一幅视差图的标准差与平均值,得到三个相应的权值,其计算公式如下:<img file="FDA0000109506730000013.GIF" wi="985" he="137" />式中,k<sub>n</sub>′为第n幅视差图对应的权值n=1,2,3;3c)对上述三个权值归一化,得到三个相应的权值系数,其计算公式如下:<maths num="0003"><![CDATA[<math><mrow><msub><mi>K</mi><mi>n</mi></msub><mo>=</mo><mfrac><msubsup><mi>k</mi><mi>n</mi><mo>&prime;</mo></msubsup><mrow><msubsup><mi>k</mi><mn>1</mn><mo>&prime;</mo></msubsup><mo>+</mo><msubsup><mi>k</mi><mn>2</mn><mo>&prime;</mo></msubsup><mo>+</mo><msubsup><mi>k</mi><mn>3</mn><mo>&prime;</mo></msubsup></mrow></mfrac></mrow></math>]]></maths>式中,K<sub>n</sub>为第n个权值对应的权值系数,k<sub>n</sub>′为第n幅视差图对应的权值,k′<sub>1</sub>、k′<sub>2</sub>、k′<sub>3</sub>分别为强度视差图的权值、RG视差图的权值和BY视差图的权值,n=1,2,3;(4)对步骤(2)中的三幅视差图进行归一化处理,使三幅视差图的灰度值的范围均为0~255,得到三个相应的特征显著图;(5)对三幅特征显著图进行线性整合,即将三幅特征显著图乘以其相应的权值系数,并进行线性相加,得到最终的视觉显著图。
地址 710071 陕西省西安市太白南路2号