发明名称 一种基于色度共生矩阵加权的视频质量客观评价方法
摘要 本发明公开了一种基于色度共生矩阵加权的视频质量客观评价方法,其首先采用维数为8×8维的四元数矩阵来描述参考图像中的8×8的图像块的基于时域和空域的特征和失真图像中的8×8的图像块的基于时域和空域的特征,然后获取参考图像和失真图像中位置相对应的两个图像块的基于时域和空域的特征的奇异值向量之间的夹角的余弦,并作为参考图像和失真图像中位置相对应的两个图像块之间的差异度,再通过差异度及失真图像中的图像块的色度共生矩阵加权权值求得失真图像中的图像块的客观评价值,并以此求得失真图像和失真视频的客观评价值,这种视频评价过程的计算复杂度低,且能够有效地提高客观评价结果与主观感知的相关性。
申请公布号 CN104010189A 申请公布日期 2014.08.27
申请号 CN201410232739.5 申请日期 2014.05.28
申请人 宁波大学 发明人 李纲;杨斌斌;金炜;艾孜买提
分类号 H04N17/00(2006.01)I 主分类号 H04N17/00(2006.01)I
代理机构 宁波奥圣专利代理事务所(普通合伙) 33226 代理人 周珏
主权项 一种基于色度共生矩阵加权的视频质量客观评价方法,其特征在于包括以下步骤:①假设参考视频中的所有参考图像和失真视频中的所有失真图像的尺寸大小均为W×H,其中,W表示参考视频中的所有参考图像和失真视频中的所有失真图像的宽,H表示参考视频中的所有参考图像和失真视频中的所有失真图像的高;②将参考视频中当前待处理的参考图像定义为当前参考图像,并将失真视频中当前待处理的失真图像定义为当前失真图像;③假设当前参考图像为参考视频中的第m帧参考图像,并记为<img file="FDA0000512369350000011.GIF" wi="116" he="71" />同样假设当前失真图像为失真视频中的第m帧失真图像,并记为<img file="FDA0000512369350000012.GIF" wi="108" he="78" />其中,pre+1≤m≤M,m的初始值为pre+1,pre表示参考视频中时域上先于<img file="FDA0000512369350000013.GIF" wi="85" he="71" />的参考图像的总帧数,pre亦表示失真视频中时域上先于<img file="FDA0000512369350000014.GIF" wi="80" he="78" />的参考图像的总帧数,1≤pre≤9,M表示参考视频中包含的参考图像的总帧数,亦表示失真视频中包含的失真图像的总帧数;④假设<img file="FDA0000512369350000015.GIF" wi="86" he="72" />和<img file="FDA0000512369350000016.GIF" wi="76" he="79" />的尺寸大小刚好能够被8×8整除,分别将<img file="FDA0000512369350000017.GIF" wi="85" he="72" />和<img file="FDA0000512369350000018.GIF" wi="78" he="79" />分割成<img file="FDA0000512369350000019.GIF" wi="154" he="128" />个互不重叠的尺寸大小为8×8的图像块;⑤计算<img file="FDA00005123693500000110.GIF" wi="88" he="71" />中的每个图像块中的每个像素点的以四元数表示的基于时域和空域的特征值,将<img file="FDA00005123693500000111.GIF" wi="90" he="71" />中的第n个图像块中坐标位置为(x,y)的像素点的以四元数表示的基于时域和空域的特征值记为<img file="FDA00005123693500000112.GIF" wi="268" he="82" />其中,<img file="FDA00005123693500000113.GIF" wi="330" he="128" />n的初始值为1,1≤x≤8,1≤y≤8;同样,计算<img file="FDA00005123693500000114.GIF" wi="84" he="78" />中的每个图像块中的每个像素点的以四元数表示的基于时域和空域的特征值,将<img file="FDA00005123693500000115.GIF" wi="78" he="78" />中的第n个图像块中坐标位置为(x,y)的像素点的以四元数表示的基于时域和空域的特征值记为<img file="FDA00005123693500000116.GIF" wi="263" he="83" />其中,<img file="FDA00005123693500000117.GIF" wi="328" he="128" />n的初始值为1,1≤x≤8,1≤y≤8;⑥将<img file="FDA00005123693500000118.GIF" wi="93" he="71" />中的每个图像块中的所有像素点的以四元数表示的基于时域和空域的特征值组成一个用于表示<img file="FDA0000512369350000021.GIF" wi="90" he="71" />中的每个图像块的基于时域和空域的特征且维数为8×8维的四元数矩阵;然后对<img file="FDA0000512369350000022.GIF" wi="90" he="71" />中的每个图像块的基于时域和空域的特征进行奇异值分解,得到<img file="FDA0000512369350000023.GIF" wi="84" he="71" />中的每个图像块的基于时域和空域的特征的奇异值向量,将对<img file="FDA0000512369350000024.GIF" wi="88" he="71" />中的第n个图像块的基于时域和空域的特征进行奇异值分解后得到的奇异值向量记为<img file="FDA0000512369350000025.GIF" wi="122" he="76" />同样,将<img file="FDA0000512369350000026.GIF" wi="82" he="78" />中的每个图像块中的所有像素点的以四元数表示的基于时域和空域的特征值组成一个用于表示<img file="FDA0000512369350000027.GIF" wi="82" he="78" />中的每个图像块的基于时域和空域的特征且维数为8×8维的四元数矩阵;然后对<img file="FDA0000512369350000028.GIF" wi="83" he="78" />中的每个图像块的基于时域和空域的特征进行奇异值分解,得到<img file="FDA0000512369350000029.GIF" wi="74" he="78" />中的每个图像块的基于时域和空域的特征的奇异值向量,将对<img file="FDA00005123693500000210.GIF" wi="78" he="78" />中的第n个图像块的基于时域和空域的特征进行奇异值分解后得到的奇异值向量记为<img file="FDA00005123693500000211.GIF" wi="123" he="83" />⑦将<img file="FDA00005123693500000212.GIF" wi="86" he="71" />中的每个图像块的基于时域和空域的特征的奇异值向量与<img file="FDA00005123693500000213.GIF" wi="81" he="78" />中位置相对应的图像块的基于时域和空域的特征的奇异值向量之间的夹角的余弦,作为<img file="FDA00005123693500000214.GIF" wi="86" he="71" />和<img file="FDA00005123693500000215.GIF" wi="81" he="78" />中位置相对应的两个图像块之间的差异度;对于<img file="FDA00005123693500000216.GIF" wi="86" he="71" />中的第n个图像块和<img file="FDA00005123693500000217.GIF" wi="84" he="78" />中的第n个图像块,将<img file="FDA00005123693500000218.GIF" wi="93" he="76" />与<img file="FDA00005123693500000219.GIF" wi="93" he="83" />之间的夹角的余弦作为<img file="FDA00005123693500000220.GIF" wi="88" he="71" />中的第n个图像块与<img file="FDA00005123693500000221.GIF" wi="80" he="78" />中的第n个图像块之间的差异度,记为D<sub>m,n</sub>;⑧根据<img file="FDA00005123693500000222.GIF" wi="86" he="71" />中的每个图像块与<img file="FDA00005123693500000223.GIF" wi="82" he="78" />中位置相对应的图像块之间的差异度,计算<img file="FDA00005123693500000224.GIF" wi="82" he="78" />中的每个图像块的客观评价值,将<img file="FDA00005123693500000225.GIF" wi="80" he="78" />中的第n个图像块的客观评价值记为Q<sub>m,n</sub>,Q<sub>m,n</sub>=W<sub>m,n</sub>×D<sub>m,n</sub>,其中,W<sub>m,n</sub>表示<img file="FDA00005123693500000226.GIF" wi="78" he="78" />中的第n个图像块的色度共生矩阵加权权值;⑨根据<img file="FDA00005123693500000227.GIF" wi="82" he="77" />中的每个图像块的客观评价值,计算<img file="FDA00005123693500000228.GIF" wi="80" he="78" />的客观评价值,记为QF<sub>m</sub>,<img file="FDA00005123693500000229.GIF" wi="530" he="297" />其中,Q<sub>m,mid</sub>表示对<img file="FDA00005123693500000230.GIF" wi="78" he="79" />中的所有图像块的客观评价值排序后的中值;⑩将参考视频中下一帧待处理的参考图像作为当前参考图像,并将失真视频中下一帧待处理的失真图像作为当前失真图像,然后返回步骤③继续执行,直至参考视频中的最后一帧参考图像和失真视频中的最后一帧失真图像处理完毕,得到失真视频中除前pre帧失真图像外的每帧失真图像的客观评价值;<img file="FDA0000512369350000031.GIF" wi="58" he="69" />根据失真视频中除前pre帧失真图像外的每帧失真图像的客观评价值,计算失真视频的客观评价值,记为Q<sub>GLC</sub>,<img file="FDA0000512369350000032.GIF" wi="401" he="146" />
地址 315211 浙江省宁波市江北区风华路818号