发明名称 一种基于Kinect的多模型融合视频人手分割方法
摘要 本发明提供了一种基于Kinect的多模型融合视频人手分割方法,包括如下步骤:(1)捕捉视频信息;(2)分别对视频中的图像进行分割得到深度模型、肤色模型和背景模型的分割结果,分割结果的表现形式为二值图;(3)计算三个分割结果的两两重叠率,作为衡量它们各自分割效果好坏的特征,把三个重叠率输入到神经网络;(4)神经网络输出三个系数(即置信系数),置信系数表示出三个模型各自的可靠性,三个分割结果经由置信系数进行加权;(5)对加权后的三个模型分割结果进行线性叠加;(6)叠加的结果经过阈值函数输出最终的二值图,最后分割得到的视频人手区域;(7)更新背景模型。具有成本低和灵活性好等优点。
申请公布号 CN103226708A 申请公布日期 2013.07.31
申请号 CN201310118064.7 申请日期 2013.04.07
申请人 华南理工大学 发明人 金连文;叶植超;张鑫
分类号 G06K9/46(2006.01)I;G06K9/62(2006.01)I;G06K9/00(2006.01)I 主分类号 G06K9/46(2006.01)I
代理机构 广州市华学知识产权代理有限公司 44245 代理人 蔡茂略
主权项 一种基于Kinect的多模型融合视频人手分割方法,其特征在于,包括如下步骤:(1)捕捉视频信息;(2)使用深度模型、肤色模型和背景模型分别对视频中的每一帧图像进行分割,得到深度模型分割结果、肤色模型分割结果和背景模型分割结果,所述深度模型分割结果、肤色模型分割结果和背景模型分割结果均为二值图;(3)计算深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果的两两重叠率,把所述的三个重叠率输入到神经网络;(4)神经网络输出置信系数,所述置信系数表征深度模型的可靠性、肤色模型的可靠性和背景模型的可靠性,所述深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果经由置信系数进行加权;(5)对加权后的深度模型分割结果、肤色模型分割结果和背景模型分割结果进行线性叠加;(6)叠加后的结果经过阈值函数输出二值图,得到视频人手区域;(7)利用步骤(6)得到的非手部区域更新背景模型。
地址 510641 广东省广州市天河区五山路381号