发明名称 |
一种基于Kinect的多模型融合视频人手分割方法 |
摘要 |
本发明提供了一种基于Kinect的多模型融合视频人手分割方法,包括如下步骤:(1)捕捉视频信息;(2)分别对视频中的图像进行分割得到深度模型、肤色模型和背景模型的分割结果,分割结果的表现形式为二值图;(3)计算三个分割结果的两两重叠率,作为衡量它们各自分割效果好坏的特征,把三个重叠率输入到神经网络;(4)神经网络输出三个系数(即置信系数),置信系数表示出三个模型各自的可靠性,三个分割结果经由置信系数进行加权;(5)对加权后的三个模型分割结果进行线性叠加;(6)叠加的结果经过阈值函数输出最终的二值图,最后分割得到的视频人手区域;(7)更新背景模型。具有成本低和灵活性好等优点。 |
申请公布号 |
CN103226708A |
申请公布日期 |
2013.07.31 |
申请号 |
CN201310118064.7 |
申请日期 |
2013.04.07 |
申请人 |
华南理工大学 |
发明人 |
金连文;叶植超;张鑫 |
分类号 |
G06K9/46(2006.01)I;G06K9/62(2006.01)I;G06K9/00(2006.01)I |
主分类号 |
G06K9/46(2006.01)I |
代理机构 |
广州市华学知识产权代理有限公司 44245 |
代理人 |
蔡茂略 |
主权项 |
一种基于Kinect的多模型融合视频人手分割方法,其特征在于,包括如下步骤:(1)捕捉视频信息;(2)使用深度模型、肤色模型和背景模型分别对视频中的每一帧图像进行分割,得到深度模型分割结果、肤色模型分割结果和背景模型分割结果,所述深度模型分割结果、肤色模型分割结果和背景模型分割结果均为二值图;(3)计算深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果的两两重叠率,把所述的三个重叠率输入到神经网络;(4)神经网络输出置信系数,所述置信系数表征深度模型的可靠性、肤色模型的可靠性和背景模型的可靠性,所述深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果经由置信系数进行加权;(5)对加权后的深度模型分割结果、肤色模型分割结果和背景模型分割结果进行线性叠加;(6)叠加后的结果经过阈值函数输出二值图,得到视频人手区域;(7)利用步骤(6)得到的非手部区域更新背景模型。 |
地址 |
510641 广东省广州市天河区五山路381号 |