发明名称 基于OCT影像的眼前房角开放程度多特征分类方法
摘要 本发明涉及一种在光学相干断层扫描(OpticalCoherenceTomography,OCT)影像中对眼前房角开放程度采用多特征进行分类的方法。本发明首先对眼前房角的OCT图像进行分割处理,从分割图像中获取角膜后边缘与虹膜前边缘,并以两条边缘交点为基准,取前房角中包括完整房角隐窝的部分为感兴趣区域;然后在感兴趣区域内分别求取梯度、共生梯度方向直方图以及Edgelet等三个图像特征对房角隐窝区域从局部到整体进行全面描述;最后采用支持向量机根据获取的三个特征对图像中的房角开放程度做出分类。该发明能实现对前房角闭合状态的准确与快速分类。
申请公布号 CN104050664A 申请公布日期 2014.09.17
申请号 CN201410252480.0 申请日期 2014.06.09
申请人 杭州电子科技大学 发明人 武薇;王梦蕾;陆晓娟;范影乐
分类号 G06T7/00(2006.01)I 主分类号 G06T7/00(2006.01)I
代理机构 杭州求是专利事务所有限公司 33200 代理人 杜军
主权项 基于OCT影像的眼前房角开放程度多特征分类方法,其特征在于该方法包括如下步骤:步骤(1)对眼前房角OCT图像进行图像分割操作,分割出完整的眼前房角房角区域;具体是:1‑1、对眼前房角OCT图像采用7×3的中值滤波器去除前房角OCT图像中的斑点噪声,得到图像P;1‑2、对图像P做形态学灰度重建得到I<sub>R</sub>,其计算范围为各像素点的四邻域;1‑3、对I<sub>R</sub>进行幂次变换得到图像F,其中将输入灰度值范围为[0.06,0.9]的像素映射至输出灰度值范围[0,1];1‑4、采用最大类间方差法对图像F进行阈值分割,得到分割后的图像I'<sub>BW</sub>;步骤(2)根据眼前房角结构特性,对分割后的图像做边缘检测,并根据角膜后边缘与虹膜前边缘的交点,找出房角隐窝区域作为感兴趣区域,具体是:2‑1、从图像I'<sub>BW</sub>顶端到底部逐行扫描,检测得到第一条初始边缘,即为角膜前边缘;2‑2、从图像I'<sub>BW</sub>底部向上至第一条边缘逐行扫描检测第三条边缘,即为虹膜前边缘;2‑3、在图像I'<sub>BW</sub>中从第三条边缘向上至第一条边缘逐行扫描,得到第二条边缘,即为角膜后边缘2‑4、对检测到的角膜后边缘和虹膜前边缘分别进行直线拟合,并求得两条拟合直线的交点[x,y],取[x‑a,y‑b,w,h]的区域作为感兴趣区域G(i,j),其中(x‑a,y‑b)为感兴趣区域左上角坐标,(w,h)为感兴趣区域宽度和高度;步骤(3)在感兴趣区域中分别计算梯度值、Edgelet和CoHOG特征值,具体是:梯度值的计算方法为:3‑1‑1、采用Sobel梯度算子获得感兴趣区域G的梯度图I<sub>g</sub>;3‑1‑2、在梯度图I<sub>g</sub>中分别计算出各像素点在{0°、45°、90°和135°}四个方向上的梯度强度,并求其均值;Edgelet特征值的计算方法为:采用一边长为d的方形窗口w在梯度图I<sub>g</sub>内滑动,d为奇数,令方形窗口w内的像素坐标为(x,y),x=1,2,…,d,y=1,2,…,d;3‑2‑1、令方形窗口w在梯度图I<sub>g</sub>中已检测到的角膜后边缘与虹膜前边缘位置上逐点滑动,并计算其中心点c(x,y)处的法线方向角θ<sub>E</sub>(x,y);将θ<sub>E</sub>(x,y)量化为6个角度,并分别以0‑5这六个数字表示,得到角β<sub>E</sub>(x,y);3‑2‑2、根据梯度图I<sub>g</sub>中c(x,y)点处的纵向和横向梯度值,计算出该点处的梯度方向角θ<sub>I</sub>(x,y);并将θ<sub>I</sub>(x,y)量化为6个角度,并分别以0‑5这六个数字表示,得到角β<sub>I</sub>(x,y);3‑2‑3、由公式(1)可计算出感兴趣区域G中,边缘上点c(x,y)处的Edgelet特征值f<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mi>f</mi><mrow><mo>(</mo><mi>E</mi><mo>,</mo><mi>G</mi><mo>,</mo><mi>v</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mi>k</mi></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>k</mi></munderover><msup><mi>M</mi><mi>G</mi></msup><mrow><mo>(</mo><msub><mi>u</mi><mi>i</mi></msub><mo>+</mo><mi>v</mi><mo>)</mo></mrow><mo>|</mo><mo>&lt;</mo><msup><mi>n</mi><mi>G</mi></msup><mrow><mo>(</mo><msub><mi>u</mi><mi>i</mi></msub><mo>+</mo><mi>v</mi><mo>)</mo></mrow><mo>,</mo><msubsup><mi>n</mi><mi>i</mi><mi>E</mi></msubsup><mo>></mo><mo>|</mo><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000517802000000021.GIF" wi="1316" he="142" /></maths>其中,k为选取的边缘片段E的长度,k=1,2,…,d;u<sub>i</sub>为方形窗口w中的坐标值(x,y),x=1,2,…,d,y=1,2,…,d;M<sup>G</sup>为I<sub>g</sub>中像素点c(x,y)的亮度;v为方形窗口w在原图像中的坐标位移(x',y');n<sup>G</sup>为像素点(u<sub>i</sub>+v)的梯度向量;<img file="FDA0000517802000000024.GIF" wi="60" he="69" />为像素点c的法向量;两个向量的点积可由式(2)近似表示,即可由式(3)得到点乘结果,从而计算得到最终的Edgelet特征值f;<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><mo>|</mo><mo>&lt;</mo><msup><mi>n</mi><mi>I</mi></msup><mrow><mo>(</mo><msub><mi>u</mi><mi>i</mi></msub><mo>+</mo><mi>w</mi><mo>)</mo></mrow><mo>,</mo><msubsup><mi>n</mi><mi>i</mi><mi>E</mi></msubsup><mo>></mo><mo>|</mo><mo>=</mo><mi>L</mi><mrow><mo>(</mo><msub><mi>&beta;</mi><mi>I</mi></msub><mrow><mo>(</mo><msub><mi>u</mi><mi>i</mi></msub><mo>+</mo><mi>w</mi><mo>)</mo></mrow><mo>-</mo><msub><mi>&beta;</mi><mi>E</mi></msub><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>2</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000517802000000022.GIF" wi="1338" he="113" /></maths><maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mi>L</mi><mo>[</mo><mi>n</mi><mo>]</mo><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn></mtd><mtd><mi>n</mi><mo>=</mo><mn>0</mn></mtd></mtr><mtr><mtd><mfrac><mn>4</mn><mn>5</mn></mfrac></mtd><mtd><mi>n</mi><mo>=</mo><mo>&PlusMinus;</mo><mn>1</mn><mo>,</mo><mo>&PlusMinus;</mo><mn>5</mn></mtd></mtr><mtr><mtd><mfrac><mn>1</mn><mn>2</mn></mfrac></mtd><mtd><mi>n</mi><mo>=</mo><mo>&PlusMinus;</mo><mn>2</mn><mo>,</mo><mo>&PlusMinus;</mo><mn>4</mn></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>n</mi><mo>=</mo><mo>&PlusMinus;</mo><mn>3</mn></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000517802000000023.GIF" wi="1298" he="465" /></maths>CoHOG特征值的计算方法为:3‑3‑1、根据梯度图I<sub>g</sub>中c(x,y)点处的纵向和横向梯度值,计算出该点处的梯度方向角θ<sub>I</sub>(x,y);将感兴趣区域G中各像素点的θ<sub>I</sub>(x,y)进行量化得到α(x,y);其中,θ<sub>I</sub>(x,y)按每45°进行量化,得到8个角度,将其分别表示为α(x,y),α(x,y)取值为0,1,2,…,7;3‑3‑2、将感兴趣区域G分割为多个不互相重叠的边长为N×M个像素的区域;3‑3‑3、在每一个子区域内计算共生矩阵C,由得到梯度方向角已量化为8个角度,那么任何两个梯度方向m和n形成一个角度对,两两组合就有64种组合;同时,计算共生矩阵时考虑位置偏移(x<sub>d</sub>,y<sub>d</sub>),即一个角度对内的两个梯度方向角的位置关系;于是,在每个子区域内根据式(4)可计算共生矩阵C;<maths num="0004" id="cmaths0004"><math><![CDATA[<mrow><mi>C</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>d</mi></msub><mo>,</mo><msub><mi>y</mi><mi>d</mi></msub><mo>,</mo><mi>m</mi><mo>,</mo><mi>n</mi><mo>)</mo></mrow><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>p</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><munderover><mi>&Sigma;</mi><mrow><mi>q</mi><mo>=</mo><mn>1</mn></mrow><mi>M</mi></munderover><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn><mo>,</mo></mtd><mtd><mi>ifG</mi><mrow><mo>(</mo><mi>p</mi><mo>,</mo><mi>q</mi><mo>)</mo></mrow><mo>=</mo><mi>mandG</mi><mrow><mo>(</mo><mi>p</mi><mo>+</mo><msub><mi>x</mi><mi>d</mi></msub><mo>,</mo><mi>q</mi><mo>+</mo><msub><mi>y</mi><mi>d</mi></msub><mo>)</mo></mrow><mo>=</mo><mi>n</mi></mtd></mtr><mtr><mtd><mn>0</mn><mo>,</mo></mtd><mtd><mi>otherwise</mi><mo>.</mo></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>4</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000517802000000031.GIF" wi="1643" he="170" /></maths>其中,(p,q)为子区域内的像素坐标;(m,n)为共生矩阵C内的坐标,m和n取值分别为8个角度,即0,1,…,7;(x<sub>d</sub>,y<sub>d</sub>)为像素点(p,q)的偏移坐标;3‑3‑4、将每个子区域的共生矩阵C串接构成感兴趣区域的CoHOG特征向量;步骤(4)根据步骤(3)得到的三个特征值,再利用支持向量机对图像进行多级分类。
地址 310018 浙江省杭州市下沙高教园区2号大街