发明名称 基于增强现实技术的生命探测与救援系统及其实现方法
摘要 本发明涉及一种基于增强现实技术的生命探测与救援系统及其实现方法。它包括集成了三维电子罗盘的生命探测仪,三维电子罗盘和生命探测仪均与穿戴式计算机连接;同时穿戴式计算机还与定位设备以及头盔显示器连接,并且头盔显示器也集成了三维电子罗盘和CCD摄像机。通过生命探测仪、高精度三维电子罗盘、高精度定位设备的多点(至少两点)测量可以精确地测定被埋人员的三维位置,然后通过高精度定位设备、穿戴式电脑、头盔显示器及穿戴式电脑中的增强现实软件系统可以使救援人员实时看到叠加了被埋人员三维虚拟图形的现场视频图像,并且随着救援人员位置和视线方向的变化而相应地发生变化,因此可以更好地指导救援工作的进行,缩短了救援时间。
申请公布号 CN101833115B 申请公布日期 2013.07.03
申请号 CN201010174807.9 申请日期 2010.05.18
申请人 山东师范大学 发明人 常勇
分类号 G01V3/12(2006.01)I;G01V8/10(2006.01)I;G01S13/06(2006.01)I;G01S15/06(2006.01)I 主分类号 G01V3/12(2006.01)I
代理机构 济南圣达知识产权代理有限公司 37221 代理人 张勇
主权项 一种基于增强现实技术的生命探测与救援方法,它采用集成了三维电子罗盘的生命探测仪,所述三维电子罗盘和生命探测仪均与穿戴式计算机连接;同时穿戴式计算机还与定位设备以及头盔显示器连接,并且头盔显示器也集成了另一个三维电子罗盘和CCD摄像机,其特征是,它的具体步骤为:a.通过高精度定位设备进行实时、精确的测定救援人员的三维位置;b.利用生命探测仪的三维电子罗盘与生命探测仪,获得在某一已知位置点测定指向被埋人员的三维方向信息,即指向被埋人员的生命探测仪天线的三维角度信息;c.通过至少两点的测量,得出被埋人员位置的三维坐标,具体计算方法如下:设经过已知观测点P1(x1,y1,z1)、P2(x2,y2,z2)......Pn(xn,yn,zn)且已测定方向的n条直线l1,l2......ln,其中,n为自然数;则各直线方程如下: <mrow> <mfrac> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&alpha;</mi> <mn>1</mn> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&beta;</mi> <mn>1</mn> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mi>z</mi> <msub> <mrow> <mo>-</mo> <mi>z</mi> </mrow> <mn>1</mn> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&gamma;</mi> <mn>1</mn> </msub> </mrow> </mfrac> </mrow> <mrow> <mfrac> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&alpha;</mi> <mn>2</mn> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mn>2</mn> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&beta;</mi> <mn>2</mn> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mi>z</mi> <mo>-</mo> <msub> <mi>z</mi> <mn>2</mn> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&gamma;</mi> <mn>2</mn> </msub> </mrow> </mfrac> </mrow>...... <mrow> <mfrac> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&alpha;</mi> <mi>n</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&beta;</mi> <mi>n</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mi>z</mi> <mo>-</mo> <msub> <mi>z</mi> <mi>n</mi> </msub> </mrow> <mrow> <mi>cos</mi> <msub> <mi>&gamma;</mi> <mi>n</mi> </msub> </mrow> </mfrac> </mrow>其中cosα1、cosβ1、cosγ1、cosα2、cosβ2、cosγ2......cosαn、cosβn、cosγn分别是各直线的方向余弦,对于n条直线l1,l2,......,ln,理论上应该相交于一点A,由于测量误差的存在,不会相交于一点,但总能分别求出到两两直线的最短点A'1,A'2,......,A'l,则A'1,A'2,......,A'l的平均值即a为最优值;d.通过穿戴式计算机的三维虚拟图形绘制软件,利用步骤a和步骤b所得到的信息参数以及通过步骤c得到的三维坐标实时绘制出基于被埋人员三维位置的虚拟图形;e.通过救援人员穿戴的头盔显示器上的CCD摄像机获取救援现场的视频图像;f.通过救援人员穿戴的头盔显示器的三维电子罗盘得到救援人员视线方向信息;g.将步骤d所得到的被埋人员位置的虚拟图像利用穿戴式计算机内的增强现实软件,得到叠加了被埋人员虚拟图形的视频图像;h.将步骤g得到的增强现实图像传输到救援人员穿戴的头盔显示器上,使救援人员实时看到叠加了被埋人员三维虚拟图形的视频图像;i.当救援人员的位置和视线方向发生变化的时候,其所看到的被埋人员的虚拟图形也相应地发生变化。
地址 250014 山东省济南市历下区文化东路88号