发明名称 基于改进的MFA和迁移学的小样本集的物体分类方法
摘要 本发明公开了一种基于改进的MFA(Marginal Fisher Analysis)和迁移学的小样本集(目标域)分类算法。首先,利用一个具有大量标记样本的同构数据集(源域)和内积度量距离的边际Fisher准则将源域和目标域样本的特征映射到低维空间;之后,剔除源域边界奇异点,选择源域密集区域样本点并与目标域中少量的标记样本点组成迁移学训练样本对;然后在核化空间上,学目标域到源域的非线性特征转换矩阵;最后利用源域的大量标记样本训练分类器,通过非线性特征转换矩阵将目标域样本映射到源域中,并输入到训练好的分类器中得到小样本集上的物体分类结果。
申请公布号 CN105469111A 申请公布日期 2016.04.06
申请号 CN201510801292.3 申请日期 2015.11.19
申请人 浙江大学 发明人 于慧敏;舒醒;郑伟伟
分类号 G06K9/62(2006.01)I 主分类号 G06K9/62(2006.01)I
代理机构 杭州求是专利事务所有限公司 33200 代理人 邱启旺
主权项 一种基于改进的MFA和迁移学习的小样本集的物体分类方法,其特征在于,包括以下步骤:步骤1:提取图像的底层特征:对源域和目标域中的每一幅图片,分别进行灰度化,提取图像的纹理特征,并进行量化,其中源域中包含大量的标记样本,目标域中仅少量的样本是有标记的;步骤2:计算特征变换矩阵M:基于图嵌入的框架利用内积作为距离的度量,利用源域中的标记数据构造出表示类内紧凑性的本征图和表示类间区分性的惩罚图,并计算出特征变换矩阵M,将源域和目标域中样本的特征映射到新的特征空间中;步骤3:自适应筛选迁移学习过程中的训练样本对:剔除源域中各类别的边界奇异点,其余点作为候选点,从候选点中选取出k<sub>A</sub>个源域样本点构成集合T(A),并和目标域中的k<sub>B</sub>个标记样本点集T(B)共同组成训练样本对;步骤4:域间迁移学习出特征转换矩阵W:通过特征转换矩阵W将目标域映射到源域,正则化W,记为γ(M),该迁移学习的优化问题表示为:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><munder><mrow><mi>m</mi><mi>i</mi><mi>n</mi></mrow><mi>M</mi></munder><mi>&gamma;</mi><mrow><mo>(</mo><mi>W</mi><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000851700630000011.GIF" wi="221" he="91" /></maths>s.t.f<sub>i</sub>(X<sup>T</sup>WY)≥0,1≤i≤c.其中f<sub>i</sub>(X<sup>T</sup>WY)为约束函数,c为类别数。设σ<sub>1</sub>,σ<sub>2</sub>,"σ<sub>p</sub>是W的奇异值,则<img file="FDA0000851700630000012.GIF" wi="462" he="94" />γ<sub>j</sub>是一个标量函数。假设<img file="FDA0000851700630000013.GIF" wi="166" he="102" />是源域中的标记样本,其中<img file="FDA0000851700630000014.GIF" wi="50" he="77" />是样本x<sub>i</sub>的标签;<img file="FDA0000851700630000015.GIF" wi="181" he="102" />是目标域中的标记样本,其中<img file="FDA0000851700630000016.GIF" wi="54" he="87" />是样本y<sub>j</sub>的标签。l为相似性上限,u为相似性下限,该问题的约束条件表示为:<maths num="0002" id="cmaths0002"><math><![CDATA[<mfenced open = '{' close = ''><mtable><mtr><mtd><mrow><msub><mi>f</mi><mi>i</mi></msub><mrow><mo>(</mo><mrow><msub><mi>x</mi><mi>i</mi></msub><msub><mi>Wy</mi><mi>j</mi></msub></mrow><mo>)</mo></mrow><mo>=</mo><msub><mi>x</mi><mi>i</mi></msub><msub><mi>Wy</mi><mi>j</mi></msub><mo>-</mo><mi>l</mi><mo>,</mo></mrow></mtd><mtd><mrow><msubsup><mi>l</mi><mi>i</mi><mi>A</mi></msubsup><mo>=</mo><msubsup><mi>l</mi><mi>j</mi><mi>B</mi></msubsup></mrow></mtd></mtr><mtr><mtd><mrow><msub><mi>f</mi><mi>i</mi></msub><mrow><mo>(</mo><mrow><msub><mi>x</mi><mi>i</mi></msub><msub><mi>Wy</mi><mi>j</mi></msub></mrow><mo>)</mo></mrow><mo>=</mo><mi>u</mi><mo>-</mo><msub><mi>x</mi><mi>i</mi></msub><msub><mi>Wy</mi><mi>j</mi></msub><mo>,</mo></mrow></mtd><mtd><mrow><msubsup><mi>l</mi><mi>i</mi><mi>A</mi></msubsup><mo>&NotEqual;</mo><msubsup><mi>l</mi><mi>j</mi><mi>B</mi></msubsup></mrow></mtd></mtr></mtable></mfenced>]]></math><img file="FDA0000851700630000021.GIF" wi="692" he="198" /></maths>则该迁移学习问题的求解表示为:<maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><munder><mrow><mi>m</mi><mi>i</mi><mi>n</mi></mrow><mi>M</mi></munder><msubsup><mo>&Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>p</mi></msubsup><msub><mi>&gamma;</mi><mi>j</mi></msub><mrow><mo>(</mo><msub><mi>&sigma;</mi><mi>j</mi></msub><mo>)</mo></mrow><mo>+</mo><mi>&lambda;</mi><munder><mo>&Sigma;</mo><mi>i</mi></munder><munder><mo>&Sigma;</mo><mi>j</mi></munder><msub><mi>f</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><mrow><mo>(</mo><msubsup><mi>x</mi><mi>i</mi><mo>&prime;</mo></msubsup><msubsup><mi>Wy</mi><mi>j</mi><mo>&prime;</mo></msubsup><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000851700630000022.GIF" wi="750" he="118" /></maths>s.t.x<sub>i</sub>'∈T(A),y<sub>j</sub>'∈T(B)其中x<sub>i</sub>'=Mx<sub>i</sub>,y<sub>j</sub>'=My<sub>j</sub>,λ为松弛系数。并将算法引入特征的核化空间,算法中出现特征向量内积的地方用核化函数表示,求解得到W;步骤5:在源域上训练分类器,并计算目标域中的物体分类。
地址 310027 浙江省杭州市西湖区浙大路38号