发明名称 基于字典学和机器学的无参考立体图像质量评价方法
摘要 本发明公开了一种基于字典学和机器学的无参考立体图像质量评价方法,其首先对左、右视点图像实施log-Gabor滤波,得到各自的幅值和相位信息,然后对幅值和相位信息进行局部二值化操作,得到左、右视点图像的局部二值化模式特征图像;其次,采用双目能量模型对左、右视点图像的幅值和相位信息进行融合,得到双目能量信息,并获取双目能量信息的局部二值化模式特征图像;接着,采用协作表示算法,对左、右视点图像和双目能量信息的局部二值化模式特征图像进行字典学,得到双目视觉感知稀疏特征信息,最后获得待评价的失真立体图像的客观质量评价预测值;优点是其能够充分考虑到立体视觉感知特性,能够有效地提高客观评价结果与主观感知之间的相关性。
申请公布号 CN105488792A 申请公布日期 2016.04.13
申请号 CN201510835634.3 申请日期 2015.11.26
申请人 浙江科技学院 发明人 周武杰;王中鹏;邱薇薇;周扬;吴茗蔚;翁剑枫;葛丁飞;王新华;孙丽慧;陈寿法;郑卫红;李鑫;吴洁雯;文小军;金国英;王建芬
分类号 G06T7/00(2006.01)I 主分类号 G06T7/00(2006.01)I
代理机构 宁波奥圣专利代理事务所(普通合伙) 33226 代理人 周珏
主权项 一种基于字典学习和机器学习的无参考立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:①‑1、选取K幅原始的无失真立体图像,将第k幅原始的无失真立体图像的左视点图像和右视点图像对应记为{L<sub>org,k</sub>(x,y)}和{R<sub>org,k</sub>(x,y)},其中,K≥1,1≤k≤K,1≤x≤W,1≤y≤H,在此W表示原始的无失真立体图像的宽度,在此H表示原始的无失真立体图像的高度,L<sub>org,k</sub>(x,y)表示{L<sub>org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,R<sub>org,k</sub>(x,y)表示{R<sub>org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;①‑2、对每幅原始的无失真立体图像的左视点图像实施log‑Gabor滤波,得到每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像,将{L<sub>org,k</sub>(x,y)}的幅值图像和相位图像对应记为{G<sub>L_org,k</sub>(x,y)}和{P<sub>L_org,k</sub>(x,y)},其中,G<sub>L_org,k</sub>(x,y)表示{G<sub>L_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,P<sub>L_org,k</sub>(x,y)表示{P<sub>L_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;同样,对每幅原始的无失真立体图像的右视点图像实施log‑Gabor滤波,得到每幅原始的无失真立体图像的右视点图像的幅值图像和相位图像,将{R<sub>org,k</sub>(x,y)}的幅值图像和相位图像对应记为{G<sub>R_org,k</sub>(x,y)}和{P<sub>R_org,k</sub>(x,y)},其中,G<sub>R_org,k</sub>(x,y)表示{G<sub>R_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,P<sub>R_org,k</sub>(x,y)表示{P<sub>R_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;①‑3、采用块匹配方法计算每幅原始的无失真立体图像的左视点图像与右视点图像之间的视差图像,将{L<sub>org,k</sub>(x,y)}与{R<sub>org,k</sub>(x,y)}之间的视差图像记为{d<sub>org,k</sub>(x,y)},其中,d<sub>org,k</sub>(x,y)表示{d<sub>org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;①‑4、根据每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左视点图像与右视点图像之间的视差图像,计算每幅原始的无失真立体图像的左右视点特征融合图像,将第k幅原始的无失真立体图像的左右视点特征融合图像记为{F<sub>org,k</sub>(x,y)},其中,F<sub>org,k</sub>(x,y)表示{F<sub>org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;①‑5、采用局部二值化模式操作对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像进行处理,得到各自的局部二值化模式特征图像,将{G<sub>L_org,k</sub>(x,y)}的局部二值化模式特征图像记为{LMP<sub>L_org,k</sub>(x,y)},将{P<sub>L_org,k</sub>(x,y)}的局部二值化模式特征图像记为{LPP<sub>L_org,k</sub>(x,y)},将{G<sub>R_org,k</sub>(x,y)}的局部二值化模式特征图像记为{LMP<sub>R_org,k</sub>(x,y)},将{P<sub>R_org,k</sub>(x,y)}的局部二值化模式特征图像记为{LPP<sub>R_org,k</sub>(x,y)},将{F<sub>org,k</sub>(x,y)}的局部二值化模式特征图像记为{LEP<sub>L_R_org,k</sub>(x,y)},其中,LMP<sub>L_org,k</sub>(x,y)表示{LMP<sub>L_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LMP<sub>L_org,k</sub>(x,y)∈[0,P+1],LPP<sub>L_org.k</sub>(x,y)表示{LPP<sub>L_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LPP<sub>L_org,k</sub>(x,y)∈[0,P+1],LMP<sub>R_org,k</sub>(x,y)表示{LMP<sub>R_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LMP<sub>R_org,k</sub>(x,y)∈[0,P+1],LPP<sub>R_org,k</sub>(x,y)表示{LPP<sub>R_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LPP<sub>R_org,k</sub>(x,y)∈[0,P+1],LEP<sub>L_R_org,k</sub>(x,y)表示{LEP<sub>L_R_org,k</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LEP<sub>L_R_org,k</sub>(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数;①‑6、采用直方图统计方法对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像各自的局部二值化模式特征图像进行统计操作,得到各自的直方图统计特征向量,将{G<sub>L_org,k</sub>(x,y)}的直方图统计特征向量记为H<sub>L_M_org,k</sub>,将{P<sub>L_org,k</sub>(x,y)}的直方图统计特征向量记为H<sub>L_P_org,k</sub>,将{G<sub>R_org,k</sub>(x,y)}的直方图统计特征向量记为H<sub>R_M_org,k</sub>,将{P<sub>R_org,k</sub>(x,y)}的直方图统计特征向量记为H<sub>R_P_org,k</sub>,将{F<sub>org,k</sub>(x,y)}的直方图统计特征向量记为H<sub>L_R_E_org,k</sub>;然后采用双目竞争算法,对每幅原始的无失真立体图像的左视点图像的幅值图像的直方图统计特征向量和右视点图像的幅值图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争幅值特性统计向量,将对H<sub>L_M_org,k</sub>和H<sub>R_M_org,k</sub>进行融合后得到的第k幅原始的无失真立体图像的双目竞争幅值特性统计向量记为H<sub>L_R_M_org,k</sub>;同样,采用双目竞争算法,对每幅原始的无失真立体图像的左视点图像的相位图像的直方图统计特征向量和右视点图像的相位图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争相位特性统计向量,将对H<sub>L_P_org,k</sub>和H<sub>R_P_org,k</sub>进行融合后得到的第k幅原始的无失真立体图像的双目竞争相位特性统计向量记为H<sub>L_R_P_org,k</sub>;其中,H<sub>L_M_org,k</sub>、H<sub>L_P_org,k</sub>、H<sub>R_M_org,k</sub>、H<sub>R_P_org,k</sub>、H<sub>L_R_E_org,k</sub>的维数均为m'×1维,H<sub>L_M_org,k</sub>中的第m个元素为H<sub>L_M_org,k</sub>(m),H<sub>L_P_org,k</sub>中的第m个元素为H<sub>L_P_org,k</sub>(m),H<sub>R_M_org,k</sub>中的第m个元素为H<sub>R_M_org,k</sub>(m),H<sub>R_P_org,k</sub>中的第m个元素为H<sub>R_P_org,k</sub>(m),H<sub>L_R_E_org,k</sub>中的第m个元素为H<sub>L_R_E_org,k</sub>(m),1≤m≤m',m'=P+2,H<sub>L_R_M_org,k</sub>和H<sub>L_R_P_org,k</sub>的维数均为m'×1维,H<sub>L_R_M_org,k</sub>中的第m个元素为H<sub>L_R_M_org,k</sub>(m),H<sub>L_R_P_org,k</sub>中的第m个元素为H<sub>L_R_P_org,k</sub>(m);①‑7、将所有原始的无失真立体图像的双目竞争幅值特性统计向量、双目竞争相位特性统计向量、左右视点特征融合图像的直方图统计特征向量组成字典学习特征矩阵,记为H<sub>org</sub>,其中,H<sub>org</sub>的维数为3m'×K,H<sub>org</sub>中第k列的3m'个元素依次为H<sub>L_R_M_org,k</sub>中的m'个元素、H<sub>L_R_P_org,k</sub>中的m'个元素、H<sub>L_R_E_org,k</sub>中的m'个元素;所述的测试阶段的具体步骤为:②‑1、对于任意一幅尺寸大小与步骤①‑1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像,并记为S<sub>dis</sub>,将S<sub>dis</sub>的左视点图像和右视点图像对应记为{L<sub>dis</sub>(x,y)}和{R<sub>dis</sub>(x,y)},其中,1≤x≤W,1≤y≤H,在此W表示S<sub>dis</sub>的宽度,在此H表示S<sub>dis</sub>的高度,L<sub>dis</sub>(x,y)表示{L<sub>dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,R<sub>dis</sub>(x,y)表示{R<sub>dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;②‑2、对{L<sub>dis</sub>(x,y)}和{R<sub>dis</sub>(x,y)}两幅图像分别实施log‑Gabor滤波,得到{L<sub>dis</sub>(x,y)}和{R<sub>dis</sub>(x,y)}各自的幅值图像和相位图像,将{L<sub>dis</sub>(x,y)}的幅值图像和相位图像对应记为{G<sub>L_dis</sub>(x,y)}和{P<sub>L_dis</sub>(x,y)},将{R<sub>dis</sub>(x,y)}的幅值图像和相位图像对应记为{G<sub>R_dis</sub>(x,y)}和{P<sub>R_dis</sub>(x,y)},其中,G<sub>L_dis</sub>(x,y)表示{G<sub>L_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,P<sub>L_dis</sub>(x,y)表示{P<sub>L_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,G<sub>R_dis</sub>(x,y)表示{G<sub>R_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,P<sub>R_dis</sub>(x,y)表示{P<sub>R_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;②‑3、采用块匹配方法计算{L<sub>dis</sub>(x,y)}与{R<sub>dis</sub>(x,y)}之间的视差图像,记为{d<sub>dis</sub>(x,y)},其中,d<sub>dis</sub>(x,y)表示{d<sub>dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;②‑4、根据{G<sub>L_dis</sub>(x,y)}和{P<sub>L_dis</sub>(x,y)}、{G<sub>R_dis</sub>(x,y)}和{P<sub>R_dis</sub>(x,y)}、{d<sub>dis</sub>(x,y)},计算S<sub>dis</sub>的左右视点特征融合图像,记为{F<sub>dis</sub>(x,y)},其中,F<sub>dis</sub>(x,y)表示{F<sub>dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值;②‑5、采用局部二值化模式操作对{G<sub>L_dis</sub>(x,y)}和{P<sub>L_dis</sub>(x,y)}、{G<sub>R_dis</sub>(x,y)}和{P<sub>R_dis</sub>(x,y)}、{F<sub>dis</sub>(x,y)}进行处理,得到{G<sub>L_dis</sub>(x,y)}和{P<sub>L_dis</sub>(x,y)}、{G<sub>R_dis</sub>(x,y)}和{P<sub>R_dis</sub>(x,y)}、{F<sub>dis</sub>(x,y)}各自的局部二值化模式特征图像,对应记为{LMP<sub>L_dis</sub>(x,y)}、{LPP<sub>L_dis</sub>(x,y)}、{LMP<sub>R_dis</sub>(x,y)}、{LPP<sub>R_dis</sub>(x,y)}、{LEP<sub>L_R_dis</sub>(x,y)},其中,LMP<sub>L_dis</sub>(x,y)表示{LMP<sub>L_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LMP<sub>L_dis</sub>(x,y)∈[0,P+1],LPP<sub>L_dis</sub>(x,y)表示{LPP<sub>L_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LPP<sub>L_dis</sub>(x,y)∈[0,P+1],LMP<sub>R_dis</sub>(x,y)表示{LMP<sub>R_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LMP<sub>R_dis</sub>(x,y)∈[0,P+1],LPP<sub>R_dis</sub>(x,y)表示{LPP<sub>R_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LPP<sub>R_dis</sub>(x,y)∈[0,P+1],LEP<sub>L_R_dis</sub>(x,y)表示{LEP<sub>L_R_dis</sub>(x,y)}中坐标位置为(x,y)的像素点的像素值,LEP<sub>L_R_dis</sub>(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数;②‑6、采用直方图统计方法分别对{LMP<sub>L_dis</sub>(x,y)}、{LPP<sub>L_dis</sub>(x,y)}、{LMP<sub>R_dis</sub>(x,y)}、{LPP<sub>R_dis</sub>(x,y)}、{LEP<sub>L_R_dis</sub>(x,y)}进行统计操作,得到{G<sub>L_dis</sub>(x,y)}、{P<sub>L_dis</sub>(x,y)}、{G<sub>R_dis</sub>(x,y)}、{P<sub>R_dis</sub>(x,y)}、{F<sub>dis</sub>(x,y)}各自的直方图统计特征向量,对应记为H<sub>L_M_dis</sub>、H<sub>L_P_dis</sub>、H<sub>R_M_dis</sub>、H<sub>R_P_dis</sub>、H<sub>L_R_E_dis</sub>;然后采用双目竞争算法,对H<sub>L_M_dis</sub>和H<sub>R_M_dis</sub>进行融合,得到S<sub>dis</sub>的双目竞争幅值特性统计向量,记为H<sub>L_R_M_dis</sub>;同样,采用双目竞争算法,对H<sub>L_P_dis</sub>和H<sub>R_P_dis</sub>进行融合,得到S<sub>dis</sub>的双目竞争相位特性统计向量,记为H<sub>L_R_P_dis</sub>;其中,H<sub>L_M_dis</sub>、H<sub>L_P_dis</sub>、H<sub>R_M_dis</sub>、H<sub>R_P_dis</sub>、H<sub>L_R_E_dis</sub>的维数均为m'×1维,H<sub>L_M_dis</sub>中的第m个元素为H<sub>L_M_dis</sub>(m),H<sub>L_P_dis</sub>中的第m个元素为H<sub>L_P_dis</sub>(m),H<sub>R_M_dis</sub>中的第m个元素为H<sub>R_M_dis</sub>(m),H<sub>R_P_dis</sub>中的第m个元素为H<sub>R_P_dis</sub>(m),H<sub>L_R_E_dis</sub>中的第m个元素为H<sub>L_R_E_dis</sub>(m),1≤m≤m',m'=P+2,H<sub>L_R_M_dis</sub>和H<sub>L_R_P_dis</sub>的维数均为m'×1维,H<sub>L_R_M_dis</sub>中的第m个元素为H<sub>L_R_M_dis</sub>(m),H<sub>L_R_P_dis</sub>中的第m个元素为H<sub>L_R_P_dis</sub>(m);②‑7、将H<sub>L_R_M_dis</sub>、H<sub>L_R_P_dis</sub>、H<sub>L_R_E_dis</sub>组成S<sub>dis</sub>的特征向量,记为H<sub>dis</sub>,其中,H<sub>dis</sub>的维数为3m'×1;②‑8、根据H<sub>org</sub>和H<sub>dis</sub>,利用协作表示算法,获取S<sub>dis</sub>的双目视觉感知稀疏特征向量,记为X,X=((H<sub>org</sub>)<sup>T</sup>H<sub>org</sub>+λ×I)<sup>‑1</sup>(H<sub>org</sub>)<sup>T</sup>H<sub>dis</sub>,其中,X的维数为K×1,(H<sub>org</sub>)<sup>T</sup>为H<sub>org</sub>的转置矩阵,λ为常数,I为K×K维的单位矩阵;②‑9、采用n”幅宽度为W且高度为H的原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOS<sub>j</sub>;再按照步骤②‑1至步骤②‑8的操作,以相同的方式获取训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量,将训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量记为X<sub>j</sub>;其中,n”&gt;1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOS<sub>j</sub>≤100,X<sub>j</sub>的维数为K×1;②‑10、计算S<sub>dis</sub>的双目视觉感知稀疏特征向量X与训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量之间的距离,将S<sub>dis</sub>的双目视觉感知稀疏特征向量X与训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量X<sub>j</sub>之间的距离记为D<sub>dis,j</sub>,D<sub>dis,j</sub>=|X‑X<sub>j</sub>|,并将这N'个距离构成的集合记为{D<sub>dis,j</sub>|1≤j≤N'},其中,符号“| |”为取绝对值符号;然后对{D<sub>dis,j</sub>|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'<sub>dis,j</sub>|1≤j≤N'};接着获取{D'<sub>dis,j</sub>|1≤j≤N'}中的前K'个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K'个平均主观评分值构成的集合记为{DMOS'<sub>1</sub>,DMOS'<sub>2</sub>,…,DMOS'<sub>K'</sub>},其中,1≤K'≤N',DMOS'<sub>1</sub>,DMOS'<sub>2</sub>,…,DMOS'<sub>K'</sub>对应表示{D'<sub>dis,j</sub>|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K'个距离对应的训练集中的失真立体图像的平均主观评分值;②‑11、计算S<sub>dis</sub>的客观质量评价预测值,记为Q<sub>dis</sub>,<img file="FDA0000858581640000061.GIF" wi="733" he="286" />其中,D'<sub>dis,k'</sub>表示{D'<sub>dis,j</sub>|1≤j≤N'}中的第k'个距离,DMOS'<sub>k'</sub>表示D'<sub>dis,k'</sub>对应的训练集中的失真立体图像的平均主观评分值。
地址 310023 浙江省杭州市西湖区留和路318号