发明名称 一种结合空间约束信息获取动作类别的方法
摘要 一种结合空间约束信息获取动作类别的方法,涉及自动化监控领域,它解决了目前获取动作分类的方法训练时间过长和分类精度不高的问题。它的步骤为:读取视频,利用snake和粒子滤波器对目标轮廓区域内的目标进行跟踪,并在每一帧中都用一个矩形框精确框住目标区域;根据每一帧的目标区域的宽度和高度得到目标曲线和拟合函数,并通过对提取的特征值进行支持向量机分类,得到当前动作a被分类为第k类动作的先验概率,将视频划分为m个区域,得到区域i被第k类动作训练集中所有视频中所有帧所覆盖的概率以及所有分类动作在区域i中出现的概率和;根据当前动作a覆盖区域i的次数占训练集中所有视频区域被覆盖的总次数的比例得到当前动作a所属动作的类别数。
申请公布号 CN101430757A 申请公布日期 2009.05.13
申请号 CN200810137503.8 申请日期 2008.11.12
申请人 哈尔滨工业大学 发明人 姚鸿勋;刘天强;纪荣嵘;孙晓帅
分类号 G06K9/00(2006.01)I;G06K9/46(2006.01)I;G06K9/62(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 哈尔滨市松花江专利商标事务所 代理人 牟永林
主权项 1、一种结合空间约束信息获取动作类别的方法,其特征在于它的步骤为:步骤一、读取视频,利用snake和粒子滤波器对目标轮廓区域内的目标进行跟踪,并在每一帧中都用一个矩形框精确框住目标区域;步骤二、根据每一帧的目标区域的宽度w(t)和高度h(t)得到目标曲线<maths num="0001"><![CDATA[<math><mrow><mi>R</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mrow><mi>w</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow></mrow><mrow><mi>h</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow></mrow></mfrac><mo>;</mo></mrow></math>]]></maths>步骤三、将目标曲线R(t)变换为以2π为周期的傅立叶级拟合函数<maths num="0002"><![CDATA[<math><mrow><mi>f</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><msub><mi>a</mi><mn>0</mn></msub><mo>+</mo><munderover><mi>&Sigma;</mi><mrow><mi>f</mi><mo>=</mo><mn>1</mn></mrow><mo>&infin;</mo></munderover><msub><mi>a</mi><mi>f</mi></msub><mi>cos</mi><mi>ft</mi><mo>+</mo><msub><mi>b</mi><mi>f</mi></msub><mi>sin</mi><mi>ft</mi><mo>,</mo></mrow></math>]]></maths>其中<maths num="0003"><![CDATA[<math><mrow><mfenced open='' close=''><mtable><mtr><mtd><msub><mi>a</mi><mi>n</mi></msub><mo>=</mo><mfrac><mn>1</mn><mi>&pi;</mi></mfrac><msubsup><mo>&Integral;</mo><mrow><mo>-</mo><mi>&pi;</mi></mrow><mi>&pi;</mi></msubsup><mi>f</mi><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mi>cos</mi><mi>nxdx</mi><mrow><mo>(</mo><mi>n</mi><mo>=</mo><mn>0,1,2</mn><mo>,</mo><mi>L</mi><mo>)</mo></mrow><mo>,</mo></mtd></mtr><mtr><mtd><msub><mi>b</mi><mi>n</mi></msub><mo>=</mo><mfrac><mn>1</mn><mi>&pi;</mi></mfrac><msubsup><mo>&Integral;</mo><mrow><mo>-</mo><mi>&pi;</mi></mrow><mi>&pi;</mi></msubsup><mi>f</mi><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mi>sin</mi><mi>nxdx</mi><mrow><mo>(</mo><mi>n</mi><mo>=</mo><mn>1</mn><mo>,</mo><mn>2</mn><mo>,</mo><mn>3</mn><mi>L</mi><mo>)</mo></mrow></mtd></mtr></mtable></mfenced><mo>,</mo></mrow></math>]]></maths>分别提取f=0,1,2,3,4时的a<sub>f</sub>和f=1,2,3,4,5时的bf组合成的一个特征向量;步骤四、通过对提取的特征向量进行支持向量机分类,得到当前动作a被分类为第k类动作的先验概率P(e<sup>k</sup>),将视频划分为m个区域,得到区域i被第k类动作训练集中所有视频中所有帧所覆盖的概率p(i/e<sup>k</sup>)以及所有分类动作在区域i中出现的概率和<img file="A200810137503C00024.GIF" wi="379" he="122" />其中k∈{1,2...n},i∈{1,2...m};步骤五、根据当前动作a覆盖区域i的次数占训练集中所有视频区域被覆盖的总次数的比例p(i/a)得到当前动作a所属动作的类别数:<maths num="0004"><![CDATA[<math><mrow><mtext>C=arg</mtext><munder><mi>max</mi><mi>k</mi></munder><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><mi>p</mi><mrow><mo>(</mo><mi>i</mi><mo>/</mo><mi>a</mi><mo>)</mo></mrow><mi>p</mi><mrow><mo>(</mo><msup><mi>e</mi><mi>k</mi></msup><mo>/</mo><mi>i</mi><mo>)</mo></mrow><mo>.</mo></mrow></math>]]></maths>
地址 150001黑龙江省哈尔滨市南岗区西大直街92号