发明名称 一种虚拟听觉环境实时绘制方法
摘要 本发明公开了一种虚拟听觉环境实时绘制方法。该方法可设定虚拟听觉环境的初始信息,利用头踪迹跟踪器实时检测倾听者头部的六个运动自由度的动态空间位置,并根据这些数据动态、实时地对声源、声传输、环境反射、接收者的散射与双耳声信号转换等进行模拟。在双耳声信号转换模拟中采用了不同方向和距离的多虚拟声源共用滤波器联合处理的方法,提高了信号处理效率。将上述双耳声信号经耳机—耳道传输特性均衡处理后馈给耳机重放,可产生逼真的空间听觉事件或感知。
申请公布号 CN102572676B 申请公布日期 2016.04.13
申请号 CN201210014504.X 申请日期 2012.01.16
申请人 华南理工大学 发明人 张承云;谢菠荪
分类号 H04S7/00(2006.01)I 主分类号 H04S7/00(2006.01)I
代理机构 广州粤高专利商标代理有限公司 44102 代理人 何淑珍
主权项 一种虚拟听觉环境实时绘制方法,其特征在于包括如下步骤和处理条件:1)实时检测倾听者头部动态空间位置;2)输入虚拟听觉环境的初始信息,包括声源信号、声源特性、环境特性和倾听者特性;3)根据倾听者头部动态空间位置计算直达声源和环境反射虚声源相对倾听者的动态方向和距离;4)根据各个声源的距离计算其到倾听者的延时、衰减系数;5)对输入的声源信号进行不同方向和距离的多虚拟声源共用滤波器联合处理,动态调节各输入信号到各滤波器的权重增益,并根据声源相对倾听者的距离动态调整输入信号的延时与衰减,虚拟出直达声源和反射声虚声源,得到合成的动态双耳声信号,所述的共用滤波器联合处理为通过主成分分析的方法,将不同声源距离和方向的近场和远场头相关脉冲响应分解为有限个公共的时间基函数的权重和,加上一个平均时间函数,即:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msub><mi>h</mi><mrow><mi>min</mi><mo>,</mo><mi>L</mi></mrow></msub><mrow><mo>(</mo><mi>r</mi><mo>,</mo><mi>&theta;</mi><mo>,</mo><mi>&phi;</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>q</mi><mo>=</mo><mn>1</mn></mrow><mi>Q</mi></munderover><msub><mi>w</mi><mrow><mi>q</mi><mo>,</mo><mi>L</mi></mrow></msub><mrow><mo>(</mo><mi>r</mi><mo>,</mo><mi>&theta;</mi><mo>,</mo><mi>&phi;</mi><mo>)</mo></mrow><msub><mi>g</mi><mi>q</mi></msub><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>+</mo><msub><mi>h</mi><mrow><mi>min</mi><mo>,</mo><mi>a</mi><mi>v</mi></mrow></msub><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000847010790000011.GIF" wi="950" he="141" /></maths><maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><msub><mi>h</mi><mrow><mi>min</mi><mo>,</mo><mi>R</mi></mrow></msub><mrow><mo>(</mo><mi>r</mi><mo>,</mo><mi>&theta;</mi><mo>,</mo><mi>&phi;</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>q</mi><mo>=</mo><mn>1</mn></mrow><mi>Q</mi></munderover><msub><mi>w</mi><mrow><mi>q</mi><mo>,</mo><mi>R</mi></mrow></msub><mrow><mo>(</mo><mi>r</mi><mo>,</mo><mi>&theta;</mi><mo>,</mo><mi>&phi;</mi><mo>)</mo></mrow><msub><mi>g</mi><mi>q</mi></msub><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>+</mo><msub><mi>h</mi><mrow><mi>min</mi><mo>,</mo><mi>a</mi><mi>v</mi></mrow></msub><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0000847010790000012.GIF" wi="1022" he="152" /></maths>其中h<sub>min,av</sub>(t)是平均时间函数,它只是时间的函数,与声源位置以及左、右耳无关:g<sub>q</sub>(t)是一系列的时间基函数,它同样只是时间的函数,与声源位置以及左、右耳无关:而w<sub>q,L</sub>(r,θ,φ)和w<sub>q,R</sub>(r,θ,φ)是相应的权重系数,它只和声源位置以及左、右耳有关,与时间无关,只要改变权重即可得到不同声源位置的HRIR,所述的平均时间函数,时间基函数以及权重系数可通过对已知HRIR数据进行主成份分析求得,为了简化虚拟不同距离的声源的处理,采用实验测量得到的KEMAR人工头近场HRIR数据,用对最小相位HRIR进行PCA分解,求出相应的权重系数;6)将第5步合成的双耳声信号经过耳机—耳道传输特性均衡处理后馈给耳机重放。
地址 510640 广东省广州市天河区五山路381号