发明名称 一种基于模糊综合评价的视频情感内容识别方法
摘要 本发明属于视频内容分析领域,具体涉及一种基于模糊综合评价的视频情感内容识别方法。现有视频情感内容识别方法缺乏考虑情感的模糊属性问题。针对现有方法中存在的不足,本发明首次将模糊理论中模糊综合评价模型用于视频情感内容识别。与现有的方法相比,本发明提出的方法充分考虑到视频情感内容的模糊属性,在模糊综合评价模型的基础上,本发明用一个与情感紧密相关的高层特征向量来表示视频片段内容,在高层上研究视频情感内容识别;进一步,采用人工神经网络(ANN)来模拟人类情感反应系统,识别视频片段诱发观众产生的基本情感类型。实验结果证实了本发明在视频情感内容识别中的有效性和可行性。
申请公布号 CN101593273A 申请公布日期 2009.12.02
申请号 CN200910083393.6 申请日期 2009.08.13
申请人 北京邮电大学 发明人 温向明;林新棋;孙勇;路兆铭;何培舟;郑伟
分类号 G06K9/00(2006.01)I;G06K9/62(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 代理人
主权项 1、一种基于模糊综合评价的视频情感内容识别方法,其特征在于该算法包含一下几个步骤:(1)该方法主要思想:由于视频内容(即视频不同低层特征)对诱发观众产生的基本情感具有模糊属性,本发明采用模糊理论中的模糊综合评价模型来表示视频场景内容;进一步,采用人工神经网络识别场景诱发观众产生的基本情感;(2)定义场景低层特征对诱发基本情感的模糊隶属函数μij,并用隶属函数来刻画特征与情感之间的模糊关系。根据前人主观实验分析结果可假设:第j类情感的第i个低层特征数据具有相似性。于是,对于任意一个场景的第i个低层特征值z,将其模糊隶属函数值μij(z)假设为z与对应样本数据集的欧氏距离的函数,即μij(z)=P(d(z,Mij)),其中Mij表示第j类基本情感的第i个特征的样本数据集。一般情况,根据聚类的思想,场景特征值z与某个样本数据集距离越近,则z属于这类数据的可能性越大,故μij与d(z,Mij)近似成反比关系。(3)根据最优化理论来求模糊隶属函数μij;(4)采用低层特征对基本情感的模糊隶属函数来求两者之间的模糊关系R(Z);(5)由于不同视频低层特征对评价不同情感的贡献程度不一样,本发明引入联合综合评价权重矩阵W来刻画贡献程度,设为W=[wij]n×m,其中wij表示第j个场景低层特征对诱发第i类基本情感的贡献值,n是基本情感类型的总数,m是场景低层特征的总数。本发明采用层次分析法来求W;(6)计算各类基本情感的相对综合评价值,即H=[hij]n×m=W·R(Z),其中hij表示在场景诱发观众产生的基本情感是第i类的前提下,被评价为第j类基本情感的综合评价值;(7)采用人工神经网络来识别场景观众产生的基本情感。
地址 100876北京市海淀区西土城路10号