发明名称 基于相关度信息的三维模型的特征提取方法和装置
摘要 本发明提供了一种基于相关度信息的三维模型的特征提取方法和装置。该方法主要包括:获取三维模型的各个面分别对应的深度图像,分别计算出每幅深度图像和三维模型之间的相关度;将所述每幅深度图像和三维模型之间的相关度加权到每幅深度图像所对应的面所对应的特征向量中,获取三维模型的特征向量。利用本发明,能够有效地对三维模型进行特征提取,计算出的三维模型的特征向量能够准确地表示三维模型的特征信息。
申请公布号 CN101894265B 申请公布日期 2012.10.03
申请号 CN201010220975.7 申请日期 2010.06.29
申请人 北京航空航天大学 发明人 冷彪;徐州川;陈浪石;熊璋
分类号 G06K9/62(2006.01)I;G06T7/00(2006.01)I 主分类号 G06K9/62(2006.01)I
代理机构 北京慧泉知识产权代理有限公司 11232 代理人 王顺荣;唐爱华
主权项 1.一种基于相关度信息的三维模型的特征提取方法,其特征在于,包括:获取三维模型的各个面分别对应的深度图像,分别计算出每幅深度图像和三维模型之间的相关度;将所述每幅深度图像和三维模型之间的相关度加权到每幅深度图像所对应的面所对应的特征向量中,获取三维模型的特征向量;其中,所述的获取三维模型的各个面分别对应的深度图像,包括:采用深度缓存算法对三维模型进行平移、缩放、旋转的规范化预处理,计算出所述规范化预处理后的三维模型相对于包围盒六个表面的深度,得到三维模型的六个面分别对应的六幅深度图像;其中,所述的分别计算出每幅深度图像和三维模型之间的相关度,包括:计算出深度图像中包括的图像轮廓点的总数目,将所述总数目作为深度图像和三维模型之间的相关度,所述的轮廓点表示该点的深度值不为0而它的八个邻接点中有一个点的深度值为0;或者,从深度图像的中心点出发每隔固定角度发射一条射线,该射线会与深度图像中许多深度值不为0的点相交,在这些交点中与深度图像的中心距离最远的点即为该射线上的采样点,提取深度图像中的所有采样点,将所有的采样点与深度图像的中心点之间的距离进行叠加,将得到的叠加值作为深度图像和三维模型之间的相关度;或者,将深度图像中包括的所有点的深度值进行叠加,将得到的叠加值作为深度图像和三维模型之间的相关度;或者,将深度图像的中心点到深度图像的所有面中的所有点之间的距离进行叠加,将得到的叠加值作为深度图像和三维模型之间的相关度;其中,所述的将深度图像的中心点到深度图像的所有面中的所有点之间的距离进行叠加,将得到的叠加值作为深度图像和三维模型之间的相关度,包括:设p<sub>ij</sub>为深度图像中的点(i,j),p<sub>o</sub>为深度图像的中心点,V<sub>ij</sub>为深度图像的中心点(i,j)的深度值,d(p1,p2)为点p1与点p2之间的距离,则深度图像和三维模型之间的相关度R<sub>V</sub>的计算方法如下:<maths num="0001"><![CDATA[<math><mrow><msub><mi>R</mi><mi>v</mi></msub><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><msqrt><msubsup><mi>V</mi><mi>ij</mi><mn>2</mn></msubsup><mo>+</mo><mi>d</mi><mrow><mo>(</mo><msub><mi>p</mi><mi>ij</mi></msub><mo>,</mo><msub><mi>p</mi><mi>o</mi></msub><mo>)</mo></mrow></msqrt></mrow></math>]]></maths><maths num="0002"><![CDATA[<math><mrow><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><msqrt><mrow><mo>(</mo><msubsup><mi>V</mi><mi>ij</mi><mn>2</mn></msubsup><mo>+</mo><msup><mrow><mo>(</mo><mrow><mo>(</mo><mi>i</mi><mo>-</mo><mi>N</mi><mo>/</mo><mn>2</mn><mo>)</mo></mrow><mo>/</mo><mi>N</mi><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><mrow><mo>(</mo><mi>j</mi><mo>-</mo><mi>N</mi><mo>/</mo><mn>2</mn><mo>)</mo></mrow><mo>/</mo><mi>N</mi><mo>)</mo></mrow><mn>2</mn></msup><mo>)</mo></mrow></msqrt></mrow></math>]]></maths>每一幅深度图像由N*N个点组成,N表示深度图像中的行数或列数;其中,所述的将所述每幅深度图像和三维模型之间的相关度加权到每幅深度图像所对应的面所对应的特征向量中,获取三维模型的特征向量,包括:将每个面对应的深度图像和三维模型之间的相关度进行规范化;将规范化后的每个面对应的深度图像和三维模型之间的相关度加权到每个面所对应的特征向量中,得到三维模型的每个面所对应的新的特征向量,将三维模型的每个面的新的特征向量进行叠加后,得到三维模型的特征向量;其中,所述的将每个面对应的深度图像和三维模型之间的相关度进行规范化,包括:设R<sup>i</sup>为第i个深度图像与三维模型的相关度,则规范化后的第i个深度图像与三维模型的相关度为:<maths num="0003"><![CDATA[<math><mrow><msup><mover><mi>R</mi><mo>&OverBar;</mo></mover><mi>i</mi></msup><mo>=</mo><msup><mi>R</mi><mi>i</mi></msup><mo>/</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mn>6</mn></munderover><msup><mi>R</mi><mi>i</mi></msup><mo>,</mo><mi>i</mi><mo>=</mo><mn>1,2,3,4,5,6</mn><mo>;</mo></mrow></math>]]></maths>其中,所述的将规范化后的每个面对应的深度图像和三维模型之间的相关度加权到每个面所对应的特征向量中,得到三维模型的每个面所对应的新的特征向量,将三维模型的每个面的新的特征向量进行叠加后,得到三维模型的特征向量,包括:设<img file="FSB00000784526200032.GIF" wi="41" he="60" />为第i幅深度图像所对应的第i个面的特征向量的第j维,R<sup>i</sup>为规范化后第i幅深度图像和三维模型之间的相关度,则将R<sup>i</sup>加权到<img file="FSB00000784526200033.GIF" wi="42" he="61" />后,得到的第i个面的新的特征向量为:<maths num="0004"><![CDATA[<math><mrow><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>M</mi></munderover><msup><mi>R</mi><mi>i</mi></msup><msubsup><mi>V</mi><mi>j</mi><mi>i</mi></msubsup></mrow></math>]]></maths>上述M表示特征向量的维的总数;将三维模型的六个面的新的特征向量进行叠加后,得到三维模型的特征向量为:<img file="FSB00000784526200035.GIF" wi="269" he="132" />
地址 100191 北京市海淀区学院路37号北航计算机科学与工程学院