发明名称 基于JND和AR模型的感知视频压缩方法
摘要 本发明公布了一种基于可观测的衰减(Just Noticeable Distortion,JND)和自回归(Auto-regressive,AR)模型的感知视频压缩方法,包括了纹理区域的分割算法和基于自回归模型的合成算法。我们首先用基于JND的分割算法将视频中的纹理区域分割出来,接着用自回归模型合成纹理区域。本发明提出了空时JND模型,准确有效地进行了纹理区域的分割。设计了AR模型,通过简单计算,在保证视频质量的同时,大大提高了实时性。开发了结合人眼视觉特性的视频压缩技术,进一步提高了视频的压缩效率,减少了比特率。
申请公布号 CN101841723B 申请公布日期 2011.08.03
申请号 CN201010182160.4 申请日期 2010.05.25
申请人 东南大学 发明人 邹采荣;王翀;赵力;王开;戴红霞;包永强;余华
分类号 H04N7/50(2006.01)I;H04N7/26(2006.01)I 主分类号 H04N7/50(2006.01)I
代理机构 南京经纬专利商标代理有限公司 32200 代理人 许方
主权项 1.一种基于JND和AR模型的感知视频压缩方法,其特征在于所述方法如下:首先把输入序列分为纹理帧和非纹理帧,其中,帧内编码帧(I帧)和前向预测编码帧(P帧)为非纹理帧,用H.264方法编码,双向预测内插编码帧(B帧)为纹理帧;其次,在感知图像的分割过程中,应用JND来检测和分割纹理区域;将时域中的相邻帧的像素通过自回归纹理合成算法线性组合来合成每个像素;所述的应用JND来检测和分割纹理区域的方法如下:图像的纹理区域的分割采用的最小单位为宏块(MB),每一个宏块(MB)的JND能量为:<maths num="0001"><![CDATA[<math><mrow><msub><mi>JND</mi><mi>MB</mi></msub><mo>=</mo><mfrac><mn>1</mn><mn>256</mn></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>0</mn></mrow><mn>15</mn></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>0</mn></mrow><mn>15</mn></munderover><mi>JND</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mrow></math>]]></maths>式(1)其中,JND(i,j)表示像素(i,j)处的JND取值;当宏块(MB)的JND能量大于阈值,那么就将它定义为纹理MB,否则定义为非纹理宏块(MB);所述阈值取所有宏块(MB)的JND能量的平均值:<maths num="0002"><![CDATA[<math><mrow><msub><mi>JND</mi><mi>threshold</mi></msub><mo>=</mo><mfrac><mn>1</mn><mrow><mi>total</mi><mo>_</mo><mi>MB</mi></mrow></mfrac><munder><mi>&Sigma;</mi><mi>MB</mi></munder><msub><mi>JND</mi><mi>MB</mi></msub></mrow></math>]]></maths>式(2)total_MB表示宏块的总体数量;所述的自回归纹理合成算法如下:每一个纹理区域中的像素都是用跟它最接近的前后参考帧的线性组合来生成的,插值的公式如下:<img file="FSB00000516768400013.GIF" wi="1324" he="147" />式(3)其中<img file="FSB00000516768400014.GIF" wi="1062" he="154" />式(4)这里的mvx<sub>f</sub>,mvy<sub>f</sub>分别表示在平行和垂直方向上的前向运动矢量,mvx<sub>b</sub>,mvy<sub>b</sub>别表示在平行和垂直方向上的后向运动矢量,<img file="FSB00000516768400015.GIF" wi="476" he="58" />在前向和后向运动帧轨迹上相对应的重构像素,W<sub>f</sub>(k,l),W<sub>b</sub>(u,v)表示分别指向前向和后向参考帧的自回归AR参数,L是自回归AR模型的窗口大小;所述自回归AR模型中的参数W<sub>f</sub>(k,l)和W<sub>b</sub>(u,v)是通过计算纹理区域最小化的原始像素和合成像素的差平方来得到:<maths num="0003"><![CDATA[<math><mrow><mi>e</mi><mo>=</mo><munder><mi>&Sigma;</mi><mrow><mrow><mo>(</mo><mi>m</mi><mo>,</mo><mi>n</mi><mo>)</mo></mrow><mo>&Element;</mo><mi>texture region</mi></mrow></munder><msup><mrow><mo>(</mo><msub><mi>p</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>m</mi><mo>,</mo><mi>n</mi><mo>)</mo></mrow><mo>-</mo><msub><mover><mi>p</mi><mo>~</mo></mover><mi>t</mi></msub><mrow><mo>(</mo><mi>m</mi><mo>,</mo><mi>n</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mrow></math>]]></maths>式(5)其中p<sub>t</sub>(m,n)表示在(m,n)处的原始像素值,texture region表示纹理区域,将式(3)带入(5)中,得到:<img file="FSB00000516768400022.GIF" wi="882" he="139" />式(6)<img file="FSB00000516768400023.GIF" wi="731" he="146" />根据最小二乘化原理,设置:<maths num="0004"><![CDATA[<math><mfenced open='{' close=''><mtable><mtr><mtd><mfrac><mrow><mo>&PartialD;</mo><mi>e</mi></mrow><mrow><msub><mrow><mo>&PartialD;</mo><mi>W</mi></mrow><mi>f</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow></mrow></mfrac><mo>=</mo><mn>0</mn></mtd></mtr><mtr><mtd><mfrac><mrow><mo>&PartialD;</mo><mi>e</mi></mrow><mrow><msub><mrow><mo>&PartialD;</mo><mi>W</mi></mrow><mi>b</mi></msub><mrow><mo>(</mo><mi>u</mi><mo>,</mo><mi>v</mi><mo>)</mo></mrow></mrow></mfrac><mo>=</mo><mn>0</mn></mtd></mtr></mtable></mfenced></math>]]></maths>式(7)得到自回归AR模型的参数W<sub>f</sub>(k,l)和W<sub>b</sub>(u,v);每一个纹理帧都有独立的自回归AR参数,所述自回归AR参数被写入比特流送到编码器中。
地址 215123 江苏省苏州市工业园区独墅湖高教区林泉街399号