发明名称 基于视觉信息失真分解的全参考视频质量评估方法
摘要 本发明公开了一种基于视觉信息失真分解的全参考视频质量评估方法,属于视频处理技术领域。本发明基于人眼视觉系统对加性噪声S<sub>A</sub>、信道丢包失真S<sub>T</sub>、压缩失真S<sub>C</sub>综合的失真敏感程度不同,而分别采用不同的衡量来评估其失真性,在首先是将加性噪声与主要视觉进行区分后,首先基于现有的评估方式获得加性噪声S<sub>A</sub>,再对主视觉信息进行修道丢包失真和压缩失真区域区分后获取信道丢包失真S<sub>T</sub>、压缩失真S<sub>C</sub>,再将三者结合起来得到单个帧的质量评估值,最后取各视频帧的质量评估值S<sub>F</sub>的均值,为整个视频的质量评估结果并输出。本发明所提出的基于视觉信息分解的全参考视频质量评估方法,具有评估准确,对不同失真类型鲁棒性较高,计算复杂度相对较低的特点。
申请公布号 CN104185022A 申请公布日期 2014.12.03
申请号 CN201410427508.X 申请日期 2014.08.27
申请人 电子科技大学 发明人 李宏亮;熊健
分类号 H04N17/00(2006.01)I;H04N19/154(2014.01)I 主分类号 H04N17/00(2006.01)I
代理机构 电子科技大学专利中心 51203 代理人 周刘英
主权项 基于视觉信息失真分解的全参考视频质量评估方法,其特征在于,包括下列步骤:步骤1:输入参考视频R和待评估视频T,并对各视频帧进行去噪处理,得到视频R的加性噪声A<sub>r</sub>、主要视觉信息P<sub>r</sub>,视频T的加性噪声A<sub>t</sub>、主要视觉信息P<sub>t</sub>;步骤2:基于所述加性噪声A<sub>r</sub>、A<sub>t</sub>,得到加性噪声失真S<sub>A</sub>;基于主要视觉信息P<sub>r</sub>、P<sub>t</sub>,获取主要视觉信息失真P<sub>d</sub>,所述P<sub>d</sub>为P<sub>r</sub>与P<sub>t</sub>对应像素值的绝对差值,对P<sub>d</sub>进行信道丢包区域和压缩失真区域区分,并计算信道丢包失真S<sub>T</sub>、压缩失真S<sub>C</sub>:将P<sub>d</sub>分割成多个相同大小的方块,对每个方块,若所有的像素值均大于预设阈值T1,则将该方块的各像素值均置为m;否则,置为n,且m≠n;基于像素值为m的连通区域,取K个最大连通区域,并将其中面积大于预设值S的连通区域,确定为信道丢包区域,而非信道丢包区域则确定为压缩失真区域;根据公式<img file="FDA0000561051550000011.GIF" wi="476" he="220" />计算信道丢包失真S<sub>T</sub>,其中C<sub>1</sub>=lg(255·W<sup>2</sup>·H<sup>2</sup>),W和H分别为视频T或视频R的当前视频帧的宽和高,k为确定为信道丢包区域的连通区域个数,参数L<sub>i</sub>表示第i个连通区域所对应的主要视觉信息失真P<sub>d</sub>的像素平均值,S<sub>i</sub>表示第i个连通区域所包含的像素个数,其中i=1,2...,k;分别提取P<sub>r</sub>和P<sub>t</sub>当前视频帧的时空梯度向量g<sup>r</sup>、g<sup>t</sup>,基于公式<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msub><mi>S</mi><mi>p</mi></msub><mrow><mo>(</mo><msub><mi>x</mi><mi>r</mi></msub><mo>,</mo><msub><mi>x</mi><mi>t</mi></msub><mo>)</mo></mrow><mo>=</mo><msup><mrow><mo>(</mo><mfrac><mrow><mn>2</mn><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>r</mi></msup><mo>|</mo><mo>|</mo><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>t</mi></msup><mo>|</mo><mo>|</mo><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow><mrow><msup><mrow><mo>(</mo><msup><mi>g</mi><mi>r</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msup><mi>g</mi><mi>t</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow></mfrac><mo>)</mo></mrow><mi>&alpha;</mi></msup><mo>&CenterDot;</mo><msup><mrow><mo>(</mo><mfrac><mrow><msup><mi>g</mi><mi>r</mi></msup><mo>&CenterDot;</mo><msup><mi>g</mi><mi>t</mi></msup><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow><mrow><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>r</mi></msup><mo>|</mo><mo>|</mo><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>r</mi></msup><mo>|</mo><mo>|</mo><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow></mfrac><mo>)</mo></mrow><mi>&beta;</mi></msup></mrow>]]></math><img file="FDA0000561051550000012.GIF" wi="1155" he="176" /></maths>得到像素级相似性S<sub>p</sub>(x<sub>r</sub>,x<sub>t</sub>),其中,x<sub>r</sub>为参考像素,表示参考视频R各视频帧的像素,x<sub>t</sub>为待评估像素,表示待评估视频T各视频帧的像素,基于水平垂直相同采样率分别对P<sub>r</sub>和P<sub>t</sub>当前视频帧进行下采样处理后,再提取空间梯度向量g<sup>br</sup>、g<sup>bt</sup>,基于公式<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><msub><mi>S</mi><mi>b</mi></msub><mrow><mo>(</mo><msub><mi>b</mi><mi>r</mi></msub><mo>,</mo><msub><mi>b</mi><mi>t</mi></msub><mo>)</mo></mrow><mo>=</mo><msup><mrow><mo>(</mo><mfrac><mrow><mn>2</mn><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>br</mi></msup><mo>|</mo><mo>|</mo><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>bt</mi></msup><mo>|</mo><mo>|</mo><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow><mrow><msup><mrow><mo>(</mo><msup><mi>g</mi><mi>br</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msup><mi>g</mi><mi>bt</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow></mfrac><mo>)</mo></mrow><mi>&alpha;</mi></msup><mo>&CenterDot;</mo><msup><mrow><mo>(</mo><mfrac><mrow><msup><mi>g</mi><mi>br</mi></msup><mo>&CenterDot;</mo><msup><mi>g</mi><mi>bt</mi></msup><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow><mrow><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>br</mi></msup><mo>|</mo><mo>|</mo><mo>|</mo><mo>|</mo><msup><mi>g</mi><mi>bt</mi></msup><mo>|</mo><mo>|</mo><mo>+</mo><msub><mi>C</mi><mn>2</mn></msub></mrow></mfrac><mo>)</mo></mrow><mi>&beta;</mi></msup></mrow>]]></math><img file="FDA0000561051550000013.GIF" wi="1208" he="177" /></maths>得到块相似性S<sub>b</sub>(x<sub>r</sub>,x<sub>t</sub>),其中像素块b<sub>r</sub>表示参考视频R当前频帧的像素块,像素块b<sub>t</sub>表示待评估视频T当前频帧的像素块;α和β的对应取值为1、1或2、1或1、0,常数项C<sub>2</sub>为大于0的常数;基于像素级相似性S<sub>p</sub>(x<sub>r</sub>,x<sub>t</sub>)、块相似性S<sub>b</sub>(x<sub>r</sub>,x<sub>t</sub>),并结合像素的结构相似性S<sub>s</sub>(x<sub>r</sub>,x<sub>t</sub>)和显著区域Z,得到压缩失真<maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><msub><mi>S</mi><mi>C</mi></msub><mo>=</mo><munder><mi>Avg</mi><mrow><msub><mi>x</mi><mi>r</mi></msub><mo>&Element;</mo><mi>Z</mi></mrow></munder><mrow><mo>(</mo><mi>&Sigma;</mi><mrow><mo>(</mo><msub><mi>S</mi><mi>p</mi></msub><mrow><mo>(</mo><msub><mi>x</mi><mi>r</mi></msub><mo>,</mo><msub><mi>x</mi><mi>t</mi></msub><mo>)</mo></mrow><msub><mi>S</mi><mi>s</mi></msub><mrow><mo>(</mo><msub><mi>x</mi><mi>r</mi></msub><mo>,</mo><msub><mi>x</mi><mi>t</mi></msub><mo>)</mo></mrow><msub><mi>S</mi><mi>b</mi></msub><mrow><mo>(</mo><msub><mi>b</mi><mi>r</mi></msub><mo>,</mo><msub><mi>b</mi><mi>t</mi></msub><mo>)</mo></mrow><mo>)</mo></mrow><mo>)</mo></mrow><mo>;</mo></mrow>]]></math><img file="FDA0000561051550000021.GIF" wi="949" he="117" /></maths>步骤3:根据加性噪声失真S<sub>A</sub>、信道丢包失真S<sub>T</sub>、压缩失真S<sub>C</sub>,基于公式<img file="FDA0000561051550000022.GIF" wi="376" he="82" />获取视频T的单个视频帧的质量评估值S<sub>F</sub>;步骤4:取视频T的各视频帧的质量评估值S<sub>F</sub>的均值,为视频T的质量评估结果并输出。
地址 611731 四川省成都市高新区(西区)西源大道2006号