发明名称 基于场景识别的入侵检测方法
摘要 本发明提供了一种基于场景识别的入侵检测方法,属于智能视频监控技术领域。该方法有效解决了在动态背景下视频区域实时入侵检测的问题。本发明包括如下步骤:初始化:将整个视频区域划分为N×N个图像块,并计算每个图像块的均值和标准差。输入监控区域视频图像:输入的图像是通过监控摄像头实时采集得到的视频图像,也可以是由已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序逐个输入图像;场景识别和入侵区域分析与处理:根据场景已有的正常模式,当前场景首先被有效的识别和匹配,然后通过计算每个图像块的模式偏差并与阈值比较,得到被入侵的视频区域,从而实现对监控视频的入侵检测。主要用于入侵检测。
申请公布号 CN103152558B 申请公布日期 2015.10.07
申请号 CN201310106572.3 申请日期 2013.03.29
申请人 西南交通大学 发明人 权伟;陈锦雄;于小娟;刘彬;邬祖全
分类号 H04N7/18(2006.01)I 主分类号 H04N7/18(2006.01)I
代理机构 成都宏顺专利代理事务所(普通合伙) 51227 代理人 李顺德;王睿
主权项 一种基于场景识别的入侵检测方法,包括如下步骤:(1)初始化将整个视频区域划分为N×N个图像块,根据图像的像素亮度值,计算每个图像块的均值和标准差,设第i个图像块的均值和标准差分别为μ<sub>i</sub>和σ<sub>i</sub>,则整个场景的模式Z为这N×N个图像块对应的均值和标准差组成的向量,即:Z=(μ<sub>1</sub>,σ<sub>1</sub>,μ<sub>2</sub>,σ<sub>2</sub>,…,μ<sub>i</sub>,σ<sub>i</sub>,…,μ<sub>N×N</sub>,σ<sub>N×N</sub>).对于动态场景,各个图像块在不同情况下将具有不同的均值和标准差,因此动态场景将具有多个不同的模式,设Z<sub>k</sub>表示场景的第K个模式,该模式对应的第i个图像块的均值和标准差分别表示为μ<sub>k,i</sub>和σ<sub>k,i</sub>,则:Z<sub>k</sub>=(μ<sub>k,1</sub>,σ<sub>k,1</sub>,μ<sub>k,2</sub>,σ<sub>k,2</sub>,…,μ<sub>k,i</sub>,σ<sub>k,i</sub>,…,μ<sub>k,N×N</sub>,σ<sub>k,N×N</sub>).在监控开始之前,获取场景模式,具体方法为:1)对于固定摄像头,在多个时刻和各种天气情况下采集具有代表性的视频图像;2)对于移动摄像头,当摄像头每移动一定的角度,则采集一组视频图像,该图像为在多个时刻和各种天气情况下采集得到的具有代表性的视频图像;根据以上得到的图像,计算场景的各个模式,该模式均为尚未有入侵发生时场景的正常模式;(2)输入监控区域视频图像进行入侵检测的视频图像输入,输入的图像是通过监控摄像头实时采集得到的视频图像,也可以是由已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序逐个输入图像;如果输入图像为空,则整个流程中止;(3)场景识别按照与初始化中相同的方法,计算当前时刻t监控图像的场景模式Z<sup>t</sup>,即:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msup><mi>Z</mi><mi>t</mi></msup><mo>=</mo><mrow><mo>(</mo><msubsup><mi>&mu;</mi><mn>1</mn><mi>t</mi></msubsup><mo>,</mo><msubsup><mi>&sigma;</mi><mn>1</mn><mi>t</mi></msubsup><mo>,</mo><msubsup><mi>&mu;</mi><mn>2</mn><mi>t</mi></msubsup><mo>,</mo><msubsup><mi>&sigma;</mi><mn>2</mn><mi>t</mi></msubsup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msubsup><mi>&mu;</mi><mi>i</mi><mi>t</mi></msubsup><mo>,</mo><msubsup><mi>&sigma;</mi><mi>i</mi><mi>t</mi></msubsup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msubsup><mi>&mu;</mi><mrow><mi>N</mi><mo>&times;</mo><mi>N</mi></mrow><mi>t</mi></msubsup><mo>,</mo><msubsup><mi>&sigma;</mi><mrow><mi>N</mi><mo>&times;</mo><mi>N</mi></mrow><mi>t</mi></msubsup><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0000715250610000011.GIF" wi="1203" he="77" /></maths>其中,<img file="FDA0000715250610000012.GIF" wi="64" he="78" />和<img file="FDA0000715250610000013.GIF" wi="67" he="67" />分别表示场景模式Z<sup>t</sup>的第i个图像块的均值和标准差;设<img file="FDA0000715250610000014.GIF" wi="61" he="62" />表示当前场景模式Z<sup>t</sup>与场景第K个正常模式的距离,则<img file="FDA0000715250610000015.GIF" wi="60" he="62" />计算为:<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><msubsup><mi>d</mi><mi>K</mi><mi>t</mi></msubsup><mo>=</mo><msqrt><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mrow><mi>N</mi><mo>&times;</mo><mi>N</mi></mrow></munderover><mrow><mo>(</mo><msup><mrow><mo>(</mo><msubsup><mi>&mu;</mi><mi>i</mi><mi>t</mi></msubsup><mo>-</mo><msub><mi>&mu;</mi><mrow><mi>k</mi><mo>,</mo><mi>i</mi></mrow></msub><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msubsup><mi>&sigma;</mi><mi>i</mi><mi>t</mi></msubsup><mo>-</mo><msub><mi>&sigma;</mi><mrow><mi>k</mi><mo>,</mo><mi>i</mi></mrow></msub><mo>)</mo></mrow><mn>2</mn></msup><mo>)</mo></mrow></msqrt><mo>.</mo></mrow>]]></math><img file="FDA0000715250610000021.GIF" wi="773" he="161" /></maths>计算并比较当前场景模式Z<sup>t</sup>与场景的所有正常模式的距离,设<img file="FDA0000715250610000022.GIF" wi="55" he="71" />为所有距离中最小距离对应的场景正常模式的序号,即:<maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mover><mi>K</mi><mo>^</mo></mover><mo>=</mo><mi>arg</mi><munder><mi>min</mi><mrow><mi>K</mi><mo>&Element;</mo><mi>H</mi></mrow></munder><msubsup><mi>d</mi><mi>K</mi><mi>t</mi></msubsup></mrow>]]></math><img file="FDA0000715250610000023.GIF" wi="331" he="112" /></maths>其中,H为场景所有正常模式序号的集合;因此,场景识别的结果为,将场景的第<img file="FDA0000715250610000024.GIF" wi="56" he="73" />个正常模式<maths num="0004" id="cmaths0004"><math><![CDATA[<mrow><msub><mi>Z</mi><mover><mi>K</mi><mo>^</mo></mover></msub><mo>=</mo><mrow><mo>(</mo><msub><mi>&mu;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mn>1</mn></mrow></msub><mo>,</mo><msub><mi>&sigma;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mn>1</mn></mrow></msub><mo>,</mo><msub><mi>&mu;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mn>2</mn></mrow></msub><mo>,</mo><msub><mi>&sigma;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mn>2</mn></mrow></msub><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msub><mi>&mu;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mi>i</mi></mrow></msub><mo>,</mo><msub><mi>&sigma;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mi>i</mi></mrow></msub><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msub><mi>&mu;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mi>N</mi><mo>&times;</mo><mi>N</mi></mrow></msub><mo>,</mo><msub><mi>&sigma;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mi>N</mi><mo>&times;</mo><mi>N</mi></mrow></msub><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000715250610000025.GIF" wi="1366" he="89" /></maths>作为当前场景Z<sup>t</sup>所属的模式,其中<img file="FDA0000715250610000026.GIF" wi="84" he="82" />和<img file="FDA0000715250610000027.GIF" wi="80" he="70" />分别表示场景模式<img file="FDA0000715250610000029.GIF" wi="62" he="69" />的第i个图像块的均值和标准差;(4)入侵区域分析与处理根据当前场景模式Z<sup>t</sup>与其所属的模式<img file="FDA00007152506100000210.GIF" wi="103" he="74" />计算每个图像块对应的模式偏差,设e<sub>i</sub>为第i个图像块对应的模式偏差,则e<sub>i</sub>计算为:<maths num="0005" id="cmaths0005"><math><![CDATA[<mrow><msub><mi>e</mi><mi>i</mi></msub><mo>=</mo><msqrt><msup><mrow><mo>(</mo><msubsup><mi>&mu;</mi><mi>i</mi><mi>t</mi></msubsup><mo>-</mo><msub><mi>&mu;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mi>i</mi></mrow></msub><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msubsup><mi>&sigma;</mi><mi>i</mi><mi>t</mi></msubsup><mo>-</mo><msub><mi>&sigma;</mi><mrow><mover><mi>k</mi><mo>^</mo></mover><mo>,</mo><mi>i</mi></mrow></msub><mo>)</mo></mrow><mn>2</mn></msup></msqrt><mo>.</mo></mrow>]]></math><img file="FDA0000715250610000028.GIF" wi="670" he="122" /></maths>对所有N×N个图像块,如果其偏差值大于阈值θ<sub>e</sub>,则将该图像块标记为有入侵,否则为没有入侵,θ<sub>e</sub>值可根据具体情况按照应用测试结果加以选择和设置;经过以上(1)~(4)的处理后,根据场景已有的正常模式,当前场景首先被有效的识别和匹配,然后通过计算每个图像块的模式偏差并与阈值比较,得到被入侵的视频区域,从而实现对监控视频的入侵检测。
地址 610031 四川省成都市二环路北一段111号