主权项 |
一种基于NSST与聚焦区域检测的多聚焦图像融合方法,其特征在于包括下述步骤:步骤1:对已配准的待融合图像A、B分别进行NSST分解,对得到的低频子带系数和高频子带系数分别应用不同的融合规则,从而得到一幅初始融合图像;步骤2:通过均方根误差方法测定源图像与初始融合图像之间的相似性来识别出初始聚焦区域,均方根误差计算公式分别为:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msub><mi>RMSE</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><msup><mrow><mo>(</mo><mfrac><mrow><munderover><mi>Σ</mi><mrow><mi>m</mi><mo>=</mo><mo>-</mo><mi>M</mi></mrow><mi>M</mi></munderover><munderover><mi>Σ</mi><mrow><mi>n</mi><mo>=</mo><mo>-</mo><mi>N</mi></mrow><mi>N</mi></munderover><msup><mrow><mo>(</mo><msub><mi>I</mi><mi>F</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>-</mo><msub><mi>I</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mrow><mrow><mrow><mo>(</mo><mn>2</mn><mi>M</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>×</mo><mrow><mo>(</mo><mn>2</mn><mi>N</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow></mrow></mfrac><mo>)</mo></mrow><mrow><mn>1</mn><mo>/</mo><mn>2</mn></mrow></msup></mrow>]]></math><img file="FDA0000527709350000011.GIF" wi="1454" he="316" /></maths><maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><msub><mi>RMSE</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><msup><mrow><mo>(</mo><mfrac><mrow><munderover><mi>Σ</mi><mrow><mi>m</mi><mo>=</mo><mo>-</mo><mi>M</mi></mrow><mi>M</mi></munderover><munderover><mi>Σ</mi><mrow><mi>n</mi><mo>=</mo><mo>-</mo><mi>N</mi></mrow><mi>N</mi></munderover><msup><mrow><mo>(</mo><msub><mi>I</mi><mi>F</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>-</mo><msub><mi>I</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mrow><mrow><mrow><mo>(</mo><mn>2</mn><mi>M</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>×</mo><mrow><mo>(</mo><mn>2</mn><mi>N</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow></mrow></mfrac><mo>)</mo></mrow><mrow><mn>1</mn><mo>/</mo><mn>2</mn></mrow></msup></mrow>]]></math><img file="FDA0000527709350000012.GIF" wi="1418" he="304" /></maths>其中,I<sub>A</sub>(i,j),I<sub>B</sub>(i,j)和I<sub>F</sub>(i,j)分别表示图像A、B和初始融合图像F在点(i,j)处的像素值;通过比较RMSE<sub>A</sub>和RMSE<sub>B</sub>的大小,可以经由下式得到一个二值化图像,<maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mi>Z</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn></mtd><mtd><mi>if</mi><msub><mi>RMSE</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>≤</mo><msub><mi>RMSE</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>if</mi><msub><mi>RMSE</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>></mo><msub><mi>RMSE</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0000527709350000013.GIF" wi="1085" he="197" /></maths>二值图像中,Z(i,j)=1表示在图像A中,点(i,j)处的像素位于聚焦区域,否则,图像B中在该点处的像素属于聚焦区域;步骤3:利用小结构元素的形态学开闭运算对步骤2中得到的二值图像进行修正,消除初始聚焦区域中的突起、断点和裂缝;步骤4:通过改进的脉冲耦合神经网络(IPCNN)和步骤3中已修正的聚焦区域获得最终的融合图像,融合规则如下:<maths num="0004" id="cmaths0004"><math><![CDATA[<mrow><msub><mi>I</mi><mi>FF</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><msub><mi>I</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><msup><mi>Z</mi><mo>′</mo></msup><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mn>1</mn><mi>and W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mi>m</mi><mo>×</mo><mi>n</mi></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><msup><mi>Z</mi><mo>′</mo></msup><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mn>0</mn><mi>and W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mn>0</mn></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><mn>0</mn><mo><</mo><mi>W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo><</mo><mi>m</mi><mo>×</mo><mi>n and</mi><msub><mi>T</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>≤</mo><msub><mi>T</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><mn>0</mn><mo><</mo><mi>W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo><</mo><mi>m</mi><mo>×</mo><mi>n and</mi><msub><mi>T</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>></mo><msub><mi>T</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0000527709350000014.GIF" wi="1500" he="395" /></maths>其中,I<sub>A</sub>(i,j),I<sub>B</sub>(i,j)和I<sub>FF</sub>(i,j)分别表示图像A、B和最终融合图像F在点(i,j)处的像素值,Z′为修正的二值图像,W(i,j)表示Z′中以点(i,j)为中心、大小为m×n的局部区域像素和,T<sub>A</sub>(i,j)和T<sub>B</sub>(i,j)分别表示源图像A和B输入到改进的脉冲耦合神经网络后得到的赋时矩阵在点(i,j)处的值;上述的邻域(2M+1)×(2N+1)和m×n的大小分别设为5×5和3×3。 |