发明名称 一种基于用户定制分类器的眼睛状态识别方法
摘要 本发明属于图像处理与模式识别技术领域,适用于驾驶员疲劳检测。首先建立人脸图像库和用户人脸图像库,计算每幅图像的人眼图像,并按不同比例将两数据库进行混合;再计算混合人眼图像库中每幅图像的haar-like特征向量,并采用AdaBoost方法构建强分类器;再随机选取若干幅用户人脸图像库中的人眼图像,对构建的强分类器进行判断,选取识别准确率最高的强分类器作为用户驾驶过程中使用的人眼状态识别分类器。本发明根据用户定制的思想,采用用户数据与人脸库数据混合的方法,对不同用户使用不同的分类器,使得分类器既能提高识别准确率,又降低了识别风险;本发明还提供了戴眼镜与不戴眼镜两种不同分类器,使得人眼状态识别更具灵活性。
申请公布号 CN101908152B 申请公布日期 2012.04.25
申请号 CN201010197980.0 申请日期 2010.06.11
申请人 电子科技大学 发明人 马争;解梅;孙睿
分类号 G06K9/66(2006.01)I;A61B5/18(2006.01)I 主分类号 G06K9/66(2006.01)I
代理机构 电子科技大学专利中心 51203 代理人 葛启函
主权项 1.一种基于用户定制分类器的眼睛状态识别方法,包括以下步骤:步骤1:建立人脸图像数据库A;所述人脸数据库A包括两个子库A1和A2,其中一个子库A1由除用户外的、不同个体的、不戴眼镜的、正面人脸灰度图像组成,另一个子库A2由除用户外的、不同个体的、配戴眼镜的、正面人脸灰度图像组成;人脸数据库A中的人脸灰度图像的两眼中心点距离不小于48个像素单位,睁眼状态和闭眼状态的人脸灰度图像数量基本一致;步骤2:建立用户人脸图像数据库B;所述用户人脸图像数据库B包括两个子库B1和B2,其中一个子库B1由用户的、不戴眼镜的、正面人脸灰度图像组成,另一个子库B2由用户的、配戴眼镜的、正面人脸灰度图像组成;人脸数据库B中的人脸灰度图像的两眼中心点距离不小于48个像素单位,睁眼状态和闭眼状态的人脸灰度图像数量基本一致;步骤3:计算人脸图像数据库A和用户人脸图像数据库B中每一幅人脸图像的人眼图像,分别得到与人脸图像数据库A中两个子库A1和A2对应的人眼图像数据库A′的两个子库A1′和A2′,以及与用户人脸图像数据库B中两个子库B1和B2对应的人眼图像数据库B′的两个子库B1′和B2′;具体人眼图像的计算方法为:首先计算人脸灰度图像两眼之间的像素距离d;然后按照三庭五眼的原则,以人眼中心点为中心,截取长与宽均为d/2像素大小的矩形区域;将所有矩形区域缩放至24×24像素大小,并按顺时针方向在-10°至10°范围内随机旋转,最后得到人眼图像;步骤4:建立混合人眼图像数据库C;所述混合人眼图像数据库C包括2N个子库<img file="FSB00000711954900011.GIF" wi="358" he="58" />和<img file="FSB00000711954900012.GIF" wi="396" he="59" />其中子库<img file="FSB00000711954900013.GIF" wi="43" he="57" />由步骤3中所述子库A1′的人眼图像和子库B1′的人眼图像按照不同比例、随机混合而成;子库<img file="FSB00000711954900014.GIF" wi="50" he="58" />由步骤3中所述子库A2′的人眼图像和子库B2′的人眼图像按照不同比例、随机混合而成;所述子库<img file="FSB00000711954900015.GIF" wi="45" he="58" />和<img file="FSB00000711954900016.GIF" wi="50" he="58" />中的人眼图像数量不低于2000;其中1≤i≤N,N为自然数;步骤5:计算人眼图像子库<img file="FSB00000711954900017.GIF" wi="43" he="57" />和<img file="FSB00000711954900018.GIF" wi="49" he="58" />中所有人眼图像的haar-like特征向量x,所述haar-like特征向量x包括3种类型14种形式,并将每个人眼图像子库<img file="FSB00000711954900019.GIF" wi="45" he="64" />和<img file="FSB000007119549000110.GIF" wi="50" he="63" />的所有特征向量x组合在一起构成2N个训练序列<img file="FSB000007119549000111.GIF" wi="44" he="58" />和<img file="FSB000007119549000112.GIF" wi="72" he="57" />且训练序列<img file="FSB000007119549000113.GIF" wi="42" he="58" />和<img file="FSB000007119549000114.GIF" wi="48" he="57" />可表示为{(x<sub>1</sub>,y<sub>1</sub>),(x<sub>2</sub>,y<sub>2</sub>),…,(x<sub>i</sub>,y<sub>i</sub>),…,(x<sub>M</sub>,y<sub>M</sub>)}的形式,其中1≤i≤M,x<sub>i</sub>表示<img file="FSB00000711954900021.GIF" wi="44" he="57" />和<img file="FSB00000711954900022.GIF" wi="48" he="57" />中第i个haar-like特征向量;y<sub>i</sub>∈{-1,1},表示haar-like特征向量x<sub>i</sub>所对应的人眼图像睁眼或闭眼的状态;M为人眼图像库<img file="FSB00000711954900023.GIF" wi="44" he="58" />和<img file="FSB00000711954900024.GIF" wi="50" he="57" />中人眼图像数量;步骤6:对步骤5所得的2N个训练序列<img file="FSB00000711954900025.GIF" wi="43" he="57" />和<img file="FSB00000711954900026.GIF" wi="74" he="70" />采用AdaBoost方法构建对应2N个强分类器<img file="FSB00000711954900027.GIF" wi="46" he="58" />和<img file="FSB00000711954900028.GIF" wi="77" he="58" />步骤7:从步骤3所建立的用户人眼图像子库B1′中随机选取1000幅以上的人眼图像,计算其haar-like特征向量x,分别采用步骤6所构建的强分类器<img file="FSB00000711954900029.GIF" wi="46" he="57" />进行判断,得到判断结果:1-睁眼,0-闭眼;同样从步骤3所建立的用户人眼图像子库B2′中随机选取1000幅以上的人眼图像,计算其haar-like特征向量x,分别采用步骤6所构建的强分类器<img file="FSB000007119549000210.GIF" wi="51" he="57" />进行判断,得到判断结果:1-睁眼,0-闭眼;步骤8:将步骤7所得的判断结果与所选取的人眼图像的实际睁眼或闭眼状态进行比较,进而分别统计出两组强分类器<img file="FSB000007119549000211.GIF" wi="46" he="59" />和<img file="FSB000007119549000212.GIF" wi="51" he="59" />的识别准确率,然后选取强分类器<img file="FSB000007119549000213.GIF" wi="45" he="60" />中识别准确率最高的强分类器作为用户在未佩戴眼镜进行驾驶过程中的人眼状态识别的分类器,选取强分类器<img file="FSB000007119549000214.GIF" wi="51" he="55" />中识别准确率最高的强分类器作为用户在佩戴眼镜进行驾驶过程中的人眼状态识别的分类器;步骤9:在用户驾驶过程中,实时采集用户的正面脸部图像,并实时计算出24×24像素大小的眼部图像以及该眼部图像的haar-like特征向量x,最后根据用户是否佩戴眼镜选择步骤8中相应的强分类器进行人眼状态识别。
地址 611731 四川省成都市高新区(西区)西源大道2006号