发明名称 一种无参考立体图像质量评价方法
摘要 本发明公开了一种无参考立体图像质量评价方法,其在训练阶段,通过主观实验获得失真立体图像的分类标签,并将所有无失真立体图像、所有失真立体图像及各自对应的分类标签构成训练图像集,并通过联合字典训练得到训练图像集的左、右视点图像特征字典表和左、右视点图像质量字典表及变换矩阵,左、右视点图像特征字典表和左、右视点图像质量字典表具有可辨别性;在测试阶段,根据左、右视点图像特征字典表,通过优化得到稀疏系数矩阵,再通过稀疏系数矩阵和左、右视点图像质量字典表,计算图像质量客观评价预测值,因左、右视点图像特征字典表和左、右视点图像质量字典表具有可辨别性,使得图像质量客观评价预测值与主观评价值保持了较好的一致性。
申请公布号 CN106210711A 申请公布日期 2016.12.07
申请号 CN201610645414.9 申请日期 2016.08.05
申请人 宁波大学 发明人 邵枫;张竹青;李福
分类号 H04N17/00(2006.01)I;H04N13/00(2006.01)I 主分类号 H04N17/00(2006.01)I
代理机构 宁波奥圣专利代理事务所(普通合伙) 33226 代理人 周珏
主权项 一种无参考立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程;所述的训练阶段过程的具体步骤如下:①_1、选取N幅原始的无失真立体图像,将第u幅原始的无失真立体图像记为<img file="FDA0001070566040000011.GIF" wi="107" he="59" />将<img file="FDA0001070566040000012.GIF" wi="79" he="55" />的左视点图像和右视点图像对应记为<img file="FDA0001070566040000013.GIF" wi="73" he="55" />和<img file="FDA0001070566040000014.GIF" wi="107" he="55" />然后根据N幅原始的无失真立体图像获取训练图像集,记为<img file="FDA0001070566040000015.GIF" wi="1017" he="79" />再将<img file="FDA0001070566040000016.GIF" wi="982" he="79" />重新记为<img file="FDA0001070566040000017.GIF" wi="886" he="79" />其中,N&gt;1,u的初始值为1,<img file="FDA0001070566040000018.GIF" wi="101" he="71" />表示由<img file="FDA0001070566040000019.GIF" wi="75" he="55" />对应的在第p个左视点失真强度下的失真左视点图像与<img file="FDA00010705660400000110.GIF" wi="83" he="55" />对应的在针对第p个左视点失真强度选取的第q个右视点失真强度下的失真右视点图像构成的失真立体图像,M<sub>u,p,q</sub>表示<img file="FDA00010705660400000111.GIF" wi="100" he="72" />的分类标签,M<sub>u,p,q</sub>∈{‑1,1},P表示选取的各不相同的左视点失真强度的总个数,P&gt;1,Q表示针对每个左视点失真强度选取的各不相同的右视点失真强度的总个数,针对每个左视点失真强度选取的第1个右视点失真强度与该左视点失真强度相同,Q&gt;1,p的初始值为1,q的初始值为1,<img file="FDA00010705660400000112.GIF" wi="70" he="71" />表示<img file="FDA00010705660400000113.GIF" wi="859" he="79" />中的第g幅失真立体图像,M<sub>g</sub>表示<img file="FDA00010705660400000114.GIF" wi="72" he="71" />的分类标签,M<sub>g</sub>∈{‑1,1},g的初始值为1;①_2、采用3种不同的自然场景统计方法获取<img file="FDA00010705660400000115.GIF" wi="862" he="79" />中的每幅失真立体图像的失真左视点图像和失真右视点图像各自的图像特征矢量,将<img file="FDA00010705660400000116.GIF" wi="75" he="70" />的失真左视点图像和失真右视点图像各自的图像特征矢量对应记为<img file="FDA00010705660400000117.GIF" wi="92" he="71" />和<img file="FDA00010705660400000118.GIF" wi="123" he="71" />然后将<img file="FDA00010705660400000119.GIF" wi="859" he="79" />中的所有失真立体图像各自的失真左视点图像的图像特征矢量按序构成的集合记为<img file="FDA00010705660400000120.GIF" wi="526" he="79" />并将<img file="FDA00010705660400000121.GIF" wi="865" he="79" />中的所有失真立体图像各自的失真右视点图像的图像特征矢量按序构成的集合记为<img file="FDA0001070566040000021.GIF" wi="527" he="85" />其中,<img file="FDA0001070566040000022.GIF" wi="98" he="78" />和<img file="FDA0001070566040000023.GIF" wi="99" he="79" />的维数均为84×1;采用6种不同的全参考图像质量评价方法获取<img file="FDA0001070566040000024.GIF" wi="869" he="87" />中的每幅失真立体图像的失真左视点图像和失真右视点图像各自的图像质量矢量,将<img file="FDA0001070566040000025.GIF" wi="75" he="78" />的失真左视点图像和失真右视点图像各自的图像质量矢量对应记为<img file="FDA0001070566040000026.GIF" wi="94" he="77" />和<img file="FDA0001070566040000027.GIF" wi="124" he="77" />然后将<img file="FDA0001070566040000028.GIF" wi="873" he="87" />中的所有失真立体图像各自的失真左视点图像的图像质量矢量按序构成的集合记为<img file="FDA0001070566040000029.GIF" wi="531" he="87" />并将<img file="FDA00010705660400000210.GIF" wi="866" he="86" />中的所有失真立体图像各自的失真右视点图像的图像质量矢量按序构成的集合记为<img file="FDA00010705660400000211.GIF" wi="534" he="86" />其中,<img file="FDA00010705660400000212.GIF" wi="102" he="79" />和<img file="FDA00010705660400000213.GIF" wi="99" he="77" />的维数均为6×1;将<img file="FDA00010705660400000214.GIF" wi="862" he="85" />中的所有分类标签按序构成的集合记为{M<sub>g</sub>|1≤g≤N×P×Q};①_3、采用K‑SVD方法求解<img file="FDA00010705660400000215.GIF" wi="1909" he="277" />,获得<img file="FDA00010705660400000216.GIF" wi="867" he="86" />的左视点图像特征字典表、左视点图像质量字典表、右视点图像特征字典表、右视点图像质量字典表及变换矩阵,对应记为<img file="FDA00010705660400000217.GIF" wi="646" he="70" />及W;其中,<img file="FDA00010705660400000218.GIF" wi="117" he="71" />和<img file="FDA00010705660400000219.GIF" wi="120" he="70" />的维数均为84×K,<img file="FDA00010705660400000220.GIF" wi="118" he="70" />和<img file="FDA00010705660400000221.GIF" wi="125" he="70" />的维数均为6×K,W的维数为1×K,K表示设定的字典的个数,K≥1,min{}为取最小值函数,符号“|| ||<sub>F</sub>”为求取矩阵的弗罗贝尼乌斯范数‑范数符号,符号“|| ||<sub>1</sub>”为求取矩阵的1‑范数符号,X<sup>L,dis</sup>的维数为84×(N×P×Q),<img file="FDA00010705660400000222.GIF" wi="879" he="94" /><img file="FDA00010705660400000223.GIF" wi="653" he="79" />对应为<img file="FDA0001070566040000031.GIF" wi="500" he="79" />中的第1个图像特征矢量、第2个图像特征矢量、…、第g个图像特征矢量、…、第N×P×Q个图像特征矢量,Y<sup>L,dis</sup>的维数为6×(N×P×Q),<img file="FDA0001070566040000032.GIF" wi="926" he="94" /><img file="FDA0001070566040000033.GIF" wi="654" he="79" />对应为<img file="FDA0001070566040000034.GIF" wi="497" he="79" />中的第1个图像质量矢量、第2个图像质量矢量、…、第g个图像质量矢量、…、第N×P×Q个图像质量矢量,X<sup>R,dis</sup>的维数为84×(N×P×Q),<img file="FDA0001070566040000035.GIF" wi="887" he="94" /><img file="FDA0001070566040000036.GIF" wi="654" he="79" />对应为<img file="FDA0001070566040000037.GIF" wi="502" he="79" />中的第1个图像特征矢量、第2个图像特征矢量、…、第g个图像特征矢量、…、第N×P×Q个图像特征矢量,Y<sup>R,dis</sup>的维数为6×(N×P×Q),<img file="FDA0001070566040000038.GIF" wi="892" he="94" /><img file="FDA0001070566040000039.GIF" wi="662" he="78" />对应为<img file="FDA00010705660400000310.GIF" wi="499" he="79" />中的第1个图像质量矢量、第2个图像质量矢量、…、第g个图像质量矢量、…、第N×P×Q个图像质量矢量,Z的维数为1×(N×P×Q),Z=[M<sub>1</sub>,M<sub>2</sub>,…,M<sub>g</sub>,…,M<sub>N×P×Q</sub>],M<sub>1</sub>,M<sub>2</sub>,…,M<sub>g</sub>,…,M<sub>N×P×Q</sub>对应为{M<sub>g</sub>|1≤g≤N×P×Q}中的第1个分类标签、第2个分类标签、…、第g个分类标签、…、第N×P×Q个分类标签,A表示稀疏系数矩阵,A的维数为K×(N×P×Q),A=[a<sub>1</sub>,a<sub>2</sub>,…,a<sub>g</sub>,…,a<sub>N×P×Q</sub>],a<sub>1</sub>,a<sub>2</sub>,…,a<sub>g</sub>,…,a<sub>N×P×Q</sub>对应为A中的第1个列向量、第2个列向量、…、第g个列向量、…、第N×P×Q个列向量,a<sub>1</sub>,a<sub>2</sub>,…,a<sub>g</sub>,…,a<sub>N×P×Q</sub>的维数均为K×1,符号“[]”为矢量表示符号,α和β均为加权参数,λ为拉格朗日参数;所述的测试阶段过程的具体步骤如下:②_1、对于任意一幅测试立体图像S<sub>test</sub>,按照步骤①_2中获取<img file="FDA00010705660400000311.GIF" wi="96" he="71" />和<img file="FDA00010705660400000312.GIF" wi="99" he="71" />的过程,以相同的操作获取S<sub>test</sub>的失真左视点图像和失真右视点图像各自的图像特征矢量,对应记为<img file="FDA00010705660400000313.GIF" wi="75" he="63" />和<img file="FDA00010705660400000314.GIF" wi="99" he="63" />其中,<img file="FDA00010705660400000315.GIF" wi="71" he="63" />和<img file="FDA00010705660400000316.GIF" wi="74" he="63" />的维数均为84×1;②_2、根据在训练阶段过程获得的<img file="FDA00010705660400000317.GIF" wi="115" he="70" />和<img file="FDA00010705660400000318.GIF" wi="147" he="71" />估计<img file="FDA00010705660400000319.GIF" wi="75" he="64" />和<img file="FDA00010705660400000320.GIF" wi="75" he="65" />的稀疏系数矩阵,<img file="FDA0001070566040000041.GIF" wi="77" he="69" />和<img file="FDA0001070566040000042.GIF" wi="77" he="68" />的稀疏系数矩阵相同,并记为<img file="FDA0001070566040000043.GIF" wi="70" he="54" /><img file="FDA0001070566040000044.GIF" wi="36" he="54" />是采用K‑SVD方法求解<img file="FDA0001070566040000045.GIF" wi="1235" he="134" />得到的;其中,<img file="FDA0001070566040000046.GIF" wi="36" he="54" />的维数为K×1,min{}为取最小值函数,符号“|| ||<sub>F</sub>”为求取矩阵的弗罗贝尼乌斯范数‑范数符号,符号“|| ||<sub>1</sub>”为求取矩阵的1‑范数符号,λ为拉格朗日参数;②_3、根据在训练阶段过程获得的<img file="FDA0001070566040000047.GIF" wi="146" he="71" />估计S<sub>test</sub>的失真左视点图像的图像质量矢量,记为<img file="FDA0001070566040000048.GIF" wi="112" he="70" /><img file="FDA0001070566040000049.GIF" wi="304" he="71" />并根据在训练阶段过程获得的<img file="FDA00010705660400000410.GIF" wi="147" he="71" />估计S<sub>test</sub>的失真右视点图像的图像质量矢量,记为<img file="FDA00010705660400000411.GIF" wi="110" he="70" /><img file="FDA00010705660400000412.GIF" wi="306" he="72" />其中,<img file="FDA00010705660400000413.GIF" wi="85" he="70" />和<img file="FDA00010705660400000414.GIF" wi="87" he="70" />的维数均为6×1;②_4、计算S<sub>test</sub>的图像质量客观评价预测值,记为Quality,<img file="FDA00010705660400000415.GIF" wi="646" he="149" />其中,ω<sup>L</sup>表示S<sub>test</sub>的失真左视点图像的质量加权系数,<img file="FDA00010705660400000416.GIF" wi="982" he="223" />ω<sup>R</sup>表示S<sub>test</sub>的失真右视点图像的质量加权系数,<img file="FDA00010705660400000417.GIF" wi="982" he="222" />exp()表示以自然基数e为底的指数函数,符号“|| ||<sub>2</sub>”为求取矩阵的2‑范数符号。
地址 315211 浙江省宁波市江北区风华路818号