发明名称 基于超图学的室内场景分类方法
摘要 基于超图学的室内场景分类方法,涉及室内场景分类。使用近百个目标检测子从图像中抽取出目标,根据形成的目标描述符组成的超级描述符作为图像的特征描述符;使用K近邻方法对图像描述符构建超图,计算出其拉普拉斯矩阵,构建半监督学框架;构建一个线性回归模型,并将该线性回归模型加入到半监督学框架内;依据所构建的半监督学框架,并结合所提取的图像的特征描述符,对部分图像描述符进行标注,使得该半监督学框能够自动迭代地预测出未标注图像的标签,从而完成图像分类,同时,线性回归模型在自动迭代过程中被初始化;依据线性回归模型,并结合所提取的图像的特征描述符,可对新加入的数据直接进行图像分类,而无须再次构建超图。
申请公布号 CN103605984B 申请公布日期 2016.08.24
申请号 CN201310566625.X 申请日期 2013.11.14
申请人 厦门大学 发明人 俞俊;王超杰
分类号 G06K9/62(2006.01)I;G06K9/66(2006.01)I 主分类号 G06K9/62(2006.01)I
代理机构 厦门南强之路专利事务所(普通合伙) 35200 代理人 马应森
主权项 基于超图学习的室内场景分类方法,其特征在于包括以下步骤:(1)使用近百个目标检测子从图像中抽取出目标,再根据形成的目标描述符组成的一个超级描述符,作为图像的特征描述符;(2)使用K近邻方法对所有生成的图像描述符构建超图,并基于生成的超图计算出其拉普拉斯矩阵,进而构建半监督学习框架;所述构建半监督学习框架的具体方法为:首先计算出提取的图像的特征描述符两两之间的欧氏距离,并以此得到相关矩阵H:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mi>H</mi><mrow><mo>(</mo><mi>v</mi><mo>,</mo><mi>e</mi><mo>)</mo></mrow><mo>=</mo><mfenced open = '{' close = ''><mtable><mtr><mtd><mrow><mn>1</mn><mo>,</mo></mrow></mtd><mtd><mtable><mtr><mtd><mrow><mi>i</mi><mi>f</mi></mrow></mtd><mtd><mrow><mi>v</mi><mo>&Element;</mo><mi>e</mi></mrow></mtd></mtr></mtable></mtd></mtr><mtr><mtd><mrow><mn>0</mn><mo>,</mo></mrow></mtd><mtd><mtable><mtr><mtd><mrow><mi>i</mi><mi>f</mi></mrow></mtd><mtd><mrow><mi>v</mi><mo>&NotElement;</mo><mi>e</mi></mrow></mtd></mtr></mtable></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0000959533670000011.GIF" wi="504" he="156" /></maths>其中v表示超图的结点,e表示超图的边;进而可以计算超图中每条边的权重w(e)、每个节点的度数d(v)和每条超边的度数δ(e),同时可使用w(e)、d(v)和δ(e)作为对角元素构造其相关的对角矩阵W、D<sub>v</sub>和D<sub>e</sub>,根据这三个对角矩阵及相关矩阵,可以计算得到中间结果Θ为:<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><mi>&Theta;</mi><mo>=</mo><msubsup><mi>D</mi><mi>v</mi><mrow><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>/</mo><mn>2</mn><mo>)</mo></mrow></mrow></msubsup><msubsup><mi>HWD</mi><mi>e</mi><mrow><mo>-</mo><mn>1</mn></mrow></msubsup><msup><mi>H</mi><mi>T</mi></msup><msubsup><mi>D</mi><mi>v</mi><mrow><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>/</mo><mn>2</mn><mo>)</mo></mrow></mrow></msubsup></mrow>]]></math><img file="FDA0000959533670000012.GIF" wi="665" he="71" /></maths>使用单位矩阵I减去Θ则可得:L=I‑Θ计算结果L即表示该超图的拉普拉斯矩阵;基于该拉普拉斯矩阵可以构建出半监督学习框架的正则化项:Ω(f)=f<sup>T</sup>Lf其中f表示需要预测图像的标签向量,f<sup>T</sup>表示向量f的转置向量;进而构造出半监督框架,其公式如下:<maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mi>arg</mi><munder><mrow><mi>m</mi><mi>i</mi><mi>n</mi></mrow><mi>F</mi></munder><mi>t</mi><mi>r</mi><mi> </mi><msup><mi>F</mi><mi>T</mi></msup><mi>L</mi><mi>F</mi><mo>+</mo><mi>&lambda;</mi><mi>t</mi><mi>r</mi><mo>&lsqb;</mo><msup><mrow><mo>(</mo><mi>F</mi><mo>-</mo><mi>Y</mi><mo>)</mo></mrow><mi>T</mi></msup><mrow><mo>(</mo><mi>F</mi><mo>-</mo><mi>Y</mi><mo>)</mo></mrow><mo>&rsqb;</mo></mrow>]]></math><img file="FDA0000959533670000013.GIF" wi="906" he="84" /></maths>其中Y表示对图像进行标注的矩阵,tr表示计算矩阵的迹,λ参数是一个非负的数,控制着模型复杂度和经验损失函数之间的平衡;通过计算该公式,可以得到全部数据的预测标签F;(3)构建一个线性回归模型,并将该线性回归模型加入到半监督学习框架内;(4)依据步骤(3)中所构建的半监督学习框架,并结合步骤(1)所提取的图像的特征描述符,对部分图像描述符进行标注,使得该半监督学习框能够自动迭代地预测出未标注图像的标签,从而完成图像分类,同时,步骤(3)中的线性回归模型在自动迭代过程中被初始化;(5)依据步骤(3)中的线性回归模型,并结合步骤(1)所提取的图像的特征描述符,可以对新加入的数据直接进行图像分类,而无须再次构建超图。
地址 361005 福建省厦门市思明南路422号