CN111553217A - 一种驾驶员打***测方法与*** - Google Patents

一种驾驶员打***测方法与*** Download PDF

Info

Publication number
CN111553217A
CN111553217A CN202010314035.8A CN202010314035A CN111553217A CN 111553217 A CN111553217 A CN 111553217A CN 202010314035 A CN202010314035 A CN 202010314035A CN 111553217 A CN111553217 A CN 111553217A
Authority
CN
China
Prior art keywords
driver
face
hand
detection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010314035.8A
Other languages
English (en)
Inventor
闫保中
何伟
韩旭东
张镇
贾瑞涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202010314035.8A priority Critical patent/CN111553217A/zh
Publication of CN111553217A publication Critical patent/CN111553217A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种驾驶员打***测方法与***,具体为:采集驾驶员行车实时视频,定位人脸;根据人脸朝向选取特征点,初始化模型进行人脸特征点定位,完成嘴部动作判断;利用基于人脸掩模的手部定位算法完成对驾驶员的手部定位;获取感兴趣的驾驶员检测区域,对该区域完成HOG特征,利用PAC对HOG特征进行降维,提取LBP特征,组合成新的PCA‑HOG+LBP特征;利用SVM分类器对PCA‑HOG+LBP特征进行分类;利用检测的嘴部动作、手部位置、行车姿势判别驾驶员是否使用电话,通过***对驾驶员进行预警。本发明能够在不同的行车环境中稳定的对驾驶员的打电话行为进行判断并进行及时的预警,有效的减少交通事故的发生。

Description

一种驾驶员打***测方法与***
技术领域
本发明属于安全驾驶技术领域,涉及一种驾驶员打电话检测方法与***,特别是一种基于多特征参数的驾驶员打***测方法与***。
背景技术
研究表明,有80%到90%的道路交通事故是由人为因素造成的,其中由于驾驶员自身差错所造成的交通事故找70%-80%。驾驶员的各种行为状态是造成交通事故发生最重要的影响因子。在日常生活中,驾驶员因为各种各样的原因,需要在行车的过程中接听电话,驾驶员在行车过程中接电话或者玩手机的行为会给交通带来极大的安全隐患。因此,如果在驾驶员有危险驾驶行为时能准确识别,并且对危险的行为发出预警,就能在很大的程度上避免这种情况而降低交通事故的发生。
对于驾驶员打电话行为监测,目前研究较多的是基于视觉特征的方法,直接利用机器学习的方法,对驾驶员是否手机手机的行为进行单帧的分析。但是,这种方法在检测的过程中会带来比较大的误差。驾驶员在驾车的过程中往往会有一些比如捋头发、耳朵等生理动作,这些动作与驾驶员打电话的动作比较相似,在实际应用过程中利用机器学习对其进行分类判断时,往往会产生误判,降低了算法的检测率,驾驶员打电话行为监测技术在实际应用中的检测率和实时性不是很好,在实际应用中受到限制。所以该技术在实际应用中还需要进一步完善。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种能够在不同的行车环境中稳定准确的对驾驶员的打电话行为进行判断,对驾驶员的违规行为进行及时的预警,有效的减少交通事故的发生的驾驶员打***测方法与***。
为解决上述技术问题,本发明的一种驾驶员打***测方法,包括以下步骤:
S1:利用摄像头采集驾驶员驾驶的实时视频图像;
S2:使用改进后的人脸快速检测算法定位人脸位置;
S3:使用改进的人脸特征点提取算法获取驾驶员脸部特征点,计算驾驶员嘴型;
S4:采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置;
S5:根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP特征,对驾驶员的行车姿势进行分类;
S6:利用步骤S3、S4和S5中实时检测到的嘴型、手部位置和行车姿势作为判断驾驶员是否打电话的判断因子,当判断因子大于给定阈值,则判定驾驶员在打电话,***发出报警。
本发明还包括:
1.S2中改进后的人脸快速检测算法定位人脸位置具体为:
S2.1:首先记录三次利用Adaboost检测到的人脸,对这三次检测到的人脸大小求平均值,得到平均人脸的大小,并将求得的平均人脸保存下来,作为肤色检测结果的过滤的依据;
S2.2:建立肤色模型,利用建立的肤色模型对获取的实时图像进行检测,过滤掉非肤色的区域,只保留肤色区域;
S2.3:利用平均人脸的大小对肤色检测的结果进行过滤,将不满足人脸大小的区域进行过滤,只保留满足与平均人脸大小相差在给定范围内的肤色区域面积,缩小检测区域,加快检测速度;
S2.4:在过滤后的区域内利用Adaboost算法进行人脸检测,判断是否检测到人脸,如果未检测到人脸则跳转执行S1,如果检测到人脸,将该区域的位置坐标保存,并执行S3,每次检测人脸优先检测上次保存的位置。
2.S3中使用改进的人脸特征点提取算法获取驾驶员脸部特征点,计算驾驶员嘴型具体为:
S3.1:提取检测到的驾驶员人脸图片的HOG特征,利用训练好的SVM分类器进行头部姿态初步估计,初步姿态包括五种姿态,分别为头部正向前方、头部左偏、头部右偏、头部上扬和头部低下;
S3.2:根据S3.1得到的头部姿态匹配对应的初始化AAM模型;
S3.3:利用反向组合进行AAM拟合计算;
S3.4:重复S3.3,不断的迭代拟合,使模型拟合到与人脸重合的位置,获得特征点;
S3.5:选取左右嘴角两个特征点和上下嘴唇最中间的两个特征点共四个特征点,构成一个菱形,计算菱形对角线的比值,利用这个比值与一个给定的阈值进行比较,确定驾驶员的嘴是张开还是闭合。
3.S4中采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置具体为:
将肤色提取后的图片与肤色掩模图片进行‘与’操作,人脸区域的肤色掩模图像素值为 0,进行‘与’操作后,对应的区域像素值也为0,人脸掩模图肤色以外区域像素值为1,进行‘与’操作之后,保持原来的像素值不变,经过‘与’操作过后的图片进行灰度化,二值化图像处理操作,最后剩余的区域即为手部区域,对最后剩余区域,计算其最小外包矩形,得到手部位置。
4.S5所述根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP 特征,对驾驶员的行车姿势进行分类具体为:
S5.1:利用定位到的驾驶员人脸矩形框位置,按照一定的比率向外扩张,形成新的矩形框,使新的矩形框能包含到驾驶员打电话时手的位置,形成检测区域具体为:
利用S2中确定的驾驶员人脸位置坐标,设点P1为人脸矩形区域左上角坐标,P2为人脸矩形框右上角坐标,P3为人脸矩形区域右下角坐标,将P3向右下角扩展,得到P4,P1和P4形成的矩形区域为驾驶员左手打电话检测区域,将人脸矩形区域左下角坐标点向左下角扩展,得到P5,P2和P5所形成的矩形区域为驾驶员右手打电话检测区域,P1、P2、P3、P4和P5的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)和(x5,y5),其中P1、P2、P3的坐标在S2进行人脸检测时已经获取,计算点P4和P5的坐标,计算的公式如下:
Figure RE-GDA0002528000740000031
其中,a1为设定的横向扩展系数,a2为设定的纵向扩展系数;
S5.2:提取检测区域的PAC-HOG特征和LBP特征,将两种特征串联融合成新的 PCA-HOG+LBP特征,代替单一的特征;
S5.3:利用SVM分类器对融合的PCA-HOG+LBP特征进行分类,判断驾驶员的行车状态,包括左手有手机状态,右手有手机状态和手上无手机状态。
5.S6中判断因子具体为:
Figure RE-GDA0002528000740000032
其中α(i),i=1,2,3…,n,表示为第i帧图像行车姿势的分类结果,结果有0和1两种,结果为0表示驾驶员没有使用手机的动作,结果为1表示驾驶员有使用手机的动作,x1表示行车姿势占最后结果的权重,β(i)表示第i帧图像手部位置检测结果,结果为1表示手部位置在打电话检测区域,x2表示手部位置检测占最后结果的权重;δ(i)表示第i帧图像的嘴型检测结果,结果为1表示有张嘴动作,0表示无张嘴动作,x3表示嘴部动作占最后结果的权值,n表示需要累积检测的帧数。
本发明还包括:
一种采用上述驾驶员打***测方法的检测***,具有人机交互界面,***对已经储存的视频进行打电话行为检测,或实时的对驾驶员打电话行为进行检测,当监测到驾驶员在行车过程中有使用手机的行为,***会对驾驶员发出预警。
本发明的有益效果:
1、对人脸检测算法进行了改进,在改进人脸检测算法之后,能够快速准确地确定人脸的位置;
2、通过改进AAM人脸特征点提取算法,对人脸的朝向进行粗分类,将不同朝向的人脸匹配不同的初始化模型,减少了人脸朝向问题对人脸特征点定位带来的影响,减少了特征点提取过程中的拟合次数,加快了提取速度,同时提取的特征点的精度更高;
3、在对驾驶员的行车姿势进行判断时,融合了PAC-HOG特征和LBP特征,而不是使用单一的某种特征,使识别的鲁棒性更强;
4、提出了一种手部位置定位的方法,能有效的对驾驶员的手部进行定位,为最后的行为判断提供了依据;
5、综合驾驶员嘴部动作,手部位置,行车姿势等多种因素对是否打电话行为进行判断,给不同的因子不同的权值,减少了驾驶员因为在驾车过程中挠耳朵,捋头发等一些生理干扰动作,监测的效果更好。
附图说明
图1是依照本发明实施例的驾驶员打***测方法流程示意图。
图2是依照本发明实施例的驾驶员人脸检测算法流程图。
图3是依照本发明实施例的不同人脸特征点初始化模型示意图。
图4是依照本发明实施例的人脸特征点定位算法示意图。
图5是依照本发明实施例的人脸特征点分布示意图。
图6是依照本发明实施例的手部定位算法示意图。
图7是依照本发明实施例的手部位置分析示意图。
图8(a)是依照本发明实施例的驾驶员左手打电话检测区域分布示意图。
图8(b)是依照本发明实施例的驾驶员右手打电话检测区域分布示意图。
图9是依照本发明实施例的驾驶员打***测***界面示意图。
具体实施方式
下面结合附图对本发明具体实施方式做进一步说明。
本发明是一种基于多特征参数的驾驶员打***测方法,该方法包括以下步骤:利用摄像头采集驾驶员行车实时视频,利用改进的人脸定位算法快算定位人脸。然后判断人脸朝向,根据不同的人脸朝向选取不同的特征点初始化模型进行人脸特征点定位,利用人脸特征点完成对驾驶员嘴部动作判断。提出一种基于人脸掩模的手部定位算法,完成对驾驶员的手部定位。通过定位的人脸,获取感兴趣的驾驶员检测区域,对感兴趣的检测区域完成HOG特征,并且利用PAC对HOG特征进行降维,同时提取感兴趣区域的LBP特征,将降维后的HOG特征和LBP特征组合成新的PCA-HOG+LBP特征。利用SVM分类器对驾驶员行车姿势的PCA-HOG+LBP特征进行分类。利用检测的驾驶员的嘴部动作、手部位置、行车姿势对驾驶员打电话的行为进行综合判别,给出最后驾驶员是否有在形成过程中打电话的最终结果,通过开发的***对驾驶员进行预警。本发明的技术方案能够在不同的行车环境中稳定的对驾驶员的打电话行为进行判断,对驾驶员的违规行为进行及时的预警,有效的减少交通事故的发生。
本发明包括以下步骤:
S1、利用摄像头采集驾驶员驾驶的实时视频图像;
S2、使用改进后的人脸快速检测算法定位人脸位置;
S3、使用改进的人脸特征点定位算法,得出68个特征点坐标,计算驾驶员嘴型;
S4、采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置;
S5、根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP特征,对驾驶员的行车姿势进行分类;
S6、利用步骤S3、S4和S5中实时检测到的嘴部动作、手部位置和行车姿势作为判断判断驾驶员是否打电话的判断因子,综合多因素对驾驶员打电话行为进行判断。
步骤S1利用摄像头的实时视频图像。采用常用的监控摄像头,放置于汽车的前挡风玻璃,获取驾驶员的实时图像,对视频流截取图像之后,对其进行预处理。所述预处理技术包括自适应中值滤波和基于拉普拉斯的图像增强。
步骤S2主要对传统的人脸定位算法进行改进,加快人脸检测的,提高检测算法的实时性。主要包括是指首先记录三次成功检测到的人脸,对这三次检测到的人脸大小求平均值,得到平均人脸的大小,将肤色与Adaboost算法结合,利用平均人脸过滤掉与平均人脸大小差别过大的区域,缩小人脸检测范围。同时每次在***中记录上次成功检测到人脸的位置坐标,每次检测人脸之前,优先检测上次记录的位置
步骤S3对基于AAM的人脸特征点算法进行了改进,并提出了一种嘴型的计算方法。具体包括:
先提取人脸图像的HOG特征,之后使用SVM人脸朝向分类器,通过人脸朝向的不同结果采用不同的人脸特征点初始化模型。然后使用优化的AAM算法对人脸特征点进行提取。
之后利用提取的68个人脸特征点计算嘴型。对这68个特征点进行编号,选取嘴部特征点中的四个,构成一个菱形,计算菱形对角线的比值,利用这个比值与一个特定的阈值进行比较,确定驾驶员的嘴是张开还是闭合。
步骤S4提出了一种基于肤色掩模的手部定位算法,对驾驶员的手部进行定位,作为打电话行为的一个判断依据。通过肤色模型来筛选驾驶员的肤色部分,然后利用S2中的人脸定位算法对驾驶员的人脸进行定位,通过定位的人脸排除人脸区域,剩余的肤色区域即为手部区域,即完成手部定位。
步骤S5提出将多特征进行串联融合,对驾驶员的行车姿势进行分类,具体包括:
首先利用定位到的驾驶员人脸矩形框位置,按照一定的比率向外扩张,形成新的矩形框,使新的矩形框能包含到驾驶员打电话时手的位置,形成感兴趣检测区域;
然后提取感兴趣区域的PAC-HOG特征和LBP特征,将两种特征串联融合成新的PCA-HOG+LBP特征,代替单一的特征;
最后利用SVM分类器对融合的PCA-HOG+LBP特征进行分类,判断驾驶员的行车状态。
步骤S6将驾驶员的嘴部动作,手部位置,行车姿势按照一定的比率作为判断因子,设置一个阈值,当最后的结果大于阈值时,判断为驾驶员在使用手机,***发出警报。
结合OpenCV和Qt进行***开发,绘制人机交互界面,***能对已经储存的视频进行打电话行为检测,也能实时的对驾驶员打电话行为进行检测。驾驶员打***测的实现按S1 到S7所述的步骤进行,当监测到驾驶员在行车过程中有使用手机的行为,***会对驾驶员发出预警。
如图1所示是依照本发明一实施例给出的驾驶员疲劳驾驶检测方法的流程图,其包括以下步骤:
S1、通过摄像头采集驾驶员图像,并进行预处理。
具体地,所述摄像头为普通监控摄像头被设置在汽车前挡风玻璃的前面。用于采集驾驶员图像,得到驾驶员输入图像,对视频流截取图像之后,对其进行预处理。所述预处理技术包括自适应中值滤波和基于拉普拉斯的图像增强。自适应中值滤波是通过模板中所有像素灰度的中值来代替中间像素,并且模板大小可以调整,减少平滑非冲击噪声的干扰。拉普拉斯图像增强通过遍历整幅图像,然后根据像素邻域的灰度值运用拉普拉斯算子得到该像素之后的值。
S2、使用改进的人脸检测算法标注人脸位置。
具体地,如图2所示,对于待检测驾驶员图像来说,首先计算驾驶员平均人脸的大小,利用平均人脸的大小对检测区域进行过滤。方法是利用Adaboost算法记录三次成功检测到的人脸区域大小,并根据这三次成功检测到的人脸区域的大小求平均值,作为平均人脸大小,记为S。利用肤色模型完成对驾驶员肤色的检测,记肤色检测的区域结果为Si,如果肤色检测区域与平均人脸的大小相差过大,不满足0.7S<Si<1.3S,则表示该区域不存在人脸,过滤掉该目标区域。
后序的人脸检测步骤如下:
(1)在通过过滤后的肤色区域进行人脸检测,直到某一帧检测到人脸,记为R1
(2)将R1进行1.2倍扩展,得到R2,将R2作为下一帧的感兴趣区域,在此区域进行人脸检测,如果检测到人脸,则将R2的区域赋予R1,再次执行2),如果没检测到人脸,则跳到步骤3);
(3)继续在该视频帧的R2区域继续做2-3次Adaboost的人脸检测,如果仍然检测不到驾驶员的人脸,则跳转到步骤1),否则将检测的结果再次赋给R1,再次执行步骤2)。
S3、使用改进的人脸特征点定位算法,得到68个人脸特征点位置,计算驾驶员嘴型。
传统的AAM人脸特征点提取算法在提取人脸特征点时,使用的是固定的初始化人脸模型,当初始化模型偏离目标位置过大时,拟合模型收敛到正确的位置是很困难的,收敛的速度慢,而且不精确,提出将不同的头部姿态训练不同的人脸模型。
如图3,本发明在在训练时,训练了五种人脸的初始化模型,分别为头部正向前方、头部左偏、头部右偏、头部上扬和头部低下,这五种头部姿态,不同的头部姿态,选取不同的初始化模型。
头部姿态的具体分别方法为,HOG特征将目标图像划分成若干小块(cell),各个小块像素的梯度直方图合并到一起便可形成表征该图像的向量。HOG没有旋转和尺度不变性,因此计算要快许多。而且对形状变化敏感,可以很好的表征人脸轮廓,尤其适合人脸朝向分类任务。提取HOG特征后能够得到HOG特征向量供后续SVM分类使用,最终得到人脸朝向分类器。
具体的,特征点提取过程,如图4:
1)提取输入图片HOG特征,利用训练好的SVM分类器进行头部姿态初步估计;
2)根据预估的头部姿态匹配对应的初始化AAM模型;
3)利用反向组合进行AAM拟合计算;
4)多次重复3),不断的迭代拟合,使模型拟合到与人脸重合的位置;
5)通过拟合的最终结果获取特征点。
本发明通过68个人脸特征点计算嘴部动作,具体的如图5,表示嘴部的特征点共有20 个,它们的编号为从48至67,对驾驶员的嘴部动作进行分析时,并不需要用到所有的20个嘴部特征点,使用其中的某些特征点就可以反映出驾驶员的嘴部动作。取最能反映嘴部张开与闭合的4个特征点作为分析的对象,选取的特征点分别为左右嘴角两个特征点和上下嘴唇最中间的两个特征点。并将这四个点组合成为一个菱形,利用菱形两个对角线之间的比值大小作为嘴部张开和闭合的判断标准。
判断的标准为,设对角线分别为h与w,当h/w>0.8时,表示为张嘴动作,当h/w<0.8时,表示的是驾驶员没有张嘴动作,以此来对驾驶员是否有张嘴的动嘴进行判断。
S4、采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置,将手部位置作为最终判断驾驶员是否打电话的一个特征。
目标区域是手部位置,由于人脸也是肤色,与手部的肤色相似,在进行肤色检测过程中一般都是包含人脸的,需要排除掉人脸区域,提出了一种基于人脸掩模的手部区域定位算法,最终将驾驶员手部单独分割出来。
如图6,本发明首先假设肤色提取之后的图像为α(x,y),α(x,y)为经过形态学处理和面积滤波后的肤色区域,α(x0,y0)为点(x0,y0)的像素值,人脸检测的结果为β(u,v)。当在检测到人脸的情况下,设点(u0,v0)为人脸矩形区域右上点坐标,点(u1,v1)为人脸矩形区域左下点坐标。人脸掩模为γ(u,v),人脸掩模的表达式为:
Figure RE-GDA0002528000740000081
此时肤色掩模的人脸区域像素值都为0,其余非人脸区域肤色都设置为1,设λ(x,y)为经过肤色掩模处理的输出图像,则λ(x,y)可以表示为:
λ(x,y)=γ(x,y)&α(x,y)
即将肤色提取后的图片与肤色掩模图片进行‘与’操作,由于人脸区域的肤色掩模图像素值为0,进行‘与’操作后,对应的区域像素值也为0,而人脸掩模图肤色以外区域像素值为1,进行‘与’操作之后,保持原来的像素值不变。经过‘与’操作过后的λ(x,y)进行灰度化,二值化等一系列图像处理操作,最后剩余的区域即为手部区域,对最后剩余区域,计算其最小外包矩形,就是要求的手部位置。
最后对手部的位置进行分析,手部的位置状态分为手部在检测区域和手部不在检测区域状态,具体的判断方式为:
如图7所示:设人脸框右上角顶点的横坐标为y1,右下角的顶点横坐标为y3,检测到的驾驶员手部位置框的右上顶点的横坐标为y2。当y3<y2<y1时,手部在打电话检测区域;当y2<y3时,手部位置不在打电话检测区域。通过将手部的位置因子加入打电话最终的判断,能有效的减少背景因素对最终结果的影响。
S5、根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP特征,对驾驶员的行车姿势进行分类。
如图8(a)和图8(b),本发明中,行车姿势检测区域具体的确定方式为,首先利用S2中确定的驾驶员人脸位置,设点P1为人脸矩形区域左上角坐标,P2为人脸矩形框右上角坐标, P3为人脸右下角坐标,P1和P4形成的矩形区域为驾驶员左手打电话检测区域,P2和P5所形成的区域为驾驶员右手打电话检测区域。P1、P2、P3、P4和P5的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)和(x5,y5),其中P1、P2、P3的坐标在S2中进行人脸检测时,已经获取,是已知的量,所以需要计算点P4和P5的坐标,计算的公式如下:
Figure RE-GDA0002528000740000091
对驾驶员行车姿势分类的具体步骤为:
(1)提取HOG特征,在进行HOG特征提取时,各部分的参数设置如下,block为32*32,cell为16*16,block的步长设置为16*16,nbins设置为9;
(2)通过PCA来对HOG特征进行降维,本文降成1000维,从而或得了更低维数的PCA-HOG 特征;
(3)进行LBP特征的提取,在提取LBP特征过程中,设置的区域块的大小为32*32;
(4)将降维后的PAC-HOG特征与LBP特征进行串联融合,得到新的PCA-HOG+LBP特征;
(5)将PCA-HOG+LBP特征输入进行SVM分类器训练,获取分类器;
(6)输入测试图像,利用得到的分类器进行分类,获取分类结果,分类的结果有三种,分别为左手有手机状态,右手有手机状态和手上无手机状态。
HOG和LBP二者之间的特征可以在一定的程度上进行互补,将二者进行结合可以很好的解决单一的特征描述算子在识别时遇到检测区域部分遮挡、光线变化频繁等复杂行车背景下识别效率低的问题。
S6、利用步骤S4、S4和S5中实时检测到的嘴部动作、手部位置和行车姿势作为判断判断驾驶员是否打电话的判断因子,综合多因素对驾驶员打电话行为进行判断。
具体的,每个逻辑的判别模式都采用累积一段时间内的图像检测结果作为最终结果,每个模式结合三个打电话过程中的显著特征,分别为行车姿势,手部位置和嘴部动作,判别的公式如下所示:
Figure RE-GDA0002528000740000092
其中α(i),i=1,2,3…,n,表示为第i帧图像行车姿势的分类结果,结果只有0和1两种,结果为0表示驾驶员没有使用手机的动作,结果为1表示驾驶员有使用手机的动作,x1表示行车姿势占最后结果的权重。β(i)表示第i帧图像手部位置检测结果,同样的,结果为1表示手部位置在打电话检测区域,x2表示手部位置检测占最后结果的权重。δ(i)表示第i帧图像的嘴部动作检测结果,结果为1表示有张嘴动作,0表示无张嘴动作,x3表示嘴部动作占最后结果的权值。n表示需要累积检测的帧数。J为需要判断的当前帧图像的最终结果,设最后判断结果的阈值为T,若
J>T
表示驾驶员有使用打电话的行为。
结合OpenCV和Qt进行***开发,绘制人机交互界面,如图9所示,***能对已经储存的视频进行打电话行为检测,也能实时的对驾驶员打电话行为进行检测。驾驶员打***测的实现按1到7所述的步骤进行,当监测到驾驶员在行车过程中有使用手机的行为,***会对驾驶员发出预警。
本发明具体实施方式还包括:
本发明的一种驾驶员打***测方法,包括以下步骤:
S1、利用摄像头采集驾驶员驾驶的实时视频图像;
S2、使用改进后的人脸快速检测算法定位人脸位置;
S3、使用改进的人脸特征点定位算法,得出68个特征点坐标,计算驾驶员嘴型;
S4、采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置;
S5、根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP特征,对驾驶员的行车姿势进行分类;
S6、利用步骤S4、S4和S5中实时检测到的嘴部动作、手部位置和行车姿势作为判断判断驾驶员是否打电话的判断因子,综合多因素对驾驶员打电话行为进行判断。
步骤S2中改进后的快速人脸检测算法具体为:
S2.1;首先记录三次成功利用Adaboost检测到的人脸,对这三次检测到的人脸大小求平均值,得到平均人脸的大小,并在***中将求得的平均人脸保存下来,作为肤色检测结果的过滤的依据;
S2.2:建立肤色模型,利用建立的肤色模型对获取的实时图像进行检测,过滤掉非肤色的区域,只保留肤色区域;
S2.3:利用平均人脸的大小对肤色检测的结果进行过滤,将不满足人脸大小的区域进行过滤,只保留满足人脸大小的肤色区域面积,缩小检测区域,加快检测速度;
S2.4:在过滤后的区域内利用Adaboost算法进行人脸检测,如果检测到人脸,将该区域的位置保存,下次检测时,继续在该区域附近进行检测,这样可以缩短检测区域,若没检测到人脸,则在过滤后的区域进行全局搜索。
S3中通过改进的人脸特征点提取算法获取驾驶员脸部特征点,计算驾驶员嘴型具体为:
S3.1:提取检测到的驾驶员人脸图片HOG特征,利用训练好的SVM分类器进行头部姿态初步估计,初步姿态中共有五种姿态,分别为头部正向前方、头部左偏、头部右偏、头部上扬和头部低下,这五种头部姿态;
S3.2:根据预估的头部姿态匹配对应的初始化AAM模型;
S3.3:利用反向组合进行AAM拟合计算;
S3.4:多次重复S.3.3),不断的迭代拟合,使模型拟合到与人脸重合的位置,获得68个特征点;
S3.5:利用获取的特征对驾驶员的嘴部动作进行分析。
步骤S3利用获取的68个人脸特征点对嘴型的分析方法为,左右嘴角两个特征点和上下嘴唇最中间的两个特征点共四个特征点,构成菱形,通过菱形对角线的比值来分析驾驶员的嘴部动作,设对角线分别为h与w,当h/w>0.8时,表示为张嘴动作,当h/w<0.8时,表示的是驾驶员没有张嘴动作,h为上下对角线,w为左右对角线,以此来对驾驶员是否有张嘴的动嘴进行判断。
步骤S4采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置具体为:
目标区域是手部位置,由于人脸也是肤色,与手部的肤色相似,在进行肤色检测过程中一般都是包含人脸的,需要排除掉人脸区域将肤色提取后的图片与肤色掩模图片进行‘与’操作,由于人脸区域的肤色掩模图像素值为0,进行‘与’操作后,对应的区域像素值也为0,而人脸掩模图肤色以外区域像素值为1,进行‘与’操作之后,保持原来的像素值不变。经过‘与’操作过后的图片进行灰度化,二值化等一系列图像处理操作,最后剩余的区域即为手部区域,对最后剩余区域,计算其最小外包矩形,就是要求的手部位置。
步骤S5主要对驾驶员的行车姿势进行分类,具体流程包括:
S5.1:利用定位到的驾驶员人脸矩形框位置,按照一定的比率向外扩张,形成新的矩形框,使新的矩形框能包含到驾驶员打电话时手的位置,形成感兴趣检测区域具体的为:
利用S2中确定的驾驶员人脸位置,设点P1为人脸矩形区域左上角坐标,P2为人脸矩形框右上角坐标,P3为人脸右下角坐标,P1和P4形成的矩形区域为驾驶员右手打电话检测区域,p2和P5所形成的区域为驾驶员左手打电话检测区域。P1、P2、P3、P4和P5的坐标分别为(x1,y1)、 (x2,y2)、(x3,y3)、(x4,y4)和(x5,y5),其中P1、P2、P3的坐标在S2中进行人脸检测时,已经获取,是已知的量,所以需要计算点P4和P5的坐标。
S5.2提取感兴趣区域的PAC-HOG特征和LBP特征,将两种特征串联融合成新的PCA-HOG+LBP特征,代替单一的特征;
S5.3利用SVM分类器对融合的PCA-HOG+LBP特征进行分类,判断驾驶员的行车状态。
步骤S6中将驾驶员的嘴部动作,手部位置,行车姿势按照一定的比率作为判断因子,设置一个阈值,当最后的结果大于阈值时,判断为驾驶员在使用手机,***发出警报。最后结果的具体公式为:
Figure RE-GDA0002528000740000121
本发明的一种采用上述驾驶员打***测方法的***具体为:结合OpenCV和Qt进行***开发,绘制人机交互界面,***能对已经储存的视频进行打电话行为检测,也能实时的对驾驶员打电话行为进行检测。驾驶员打***测的实现按1到6所述的步骤进行,当监测到驾驶员在行车过程中有使用手机的行为,***会对驾驶员发出预警。
以上所述只是本发明的优选实施例,而没有具体限制本发明的专利范围。虽然上述优选例的描述很详细,但是该领域研究人员应该明白,在本发明的发明构思下,可以在细节上或者结构上对本发明进行各种改变,而没有偏离本发明权利要求书中所限制的范围。

Claims (7)

1.一种驾驶员打***测方法,其特征在于,包括以下步骤:
S1:利用摄像头采集驾驶员驾驶的实时视频图像;
S2:使用改进后的人脸快速检测算法定位人脸位置;
S3:使用改进的人脸特征点提取算法获取驾驶员脸部特征点,计算驾驶员嘴型;
S4:采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置;
S5:根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP特征,对驾驶员的行车姿势进行分类;
S6:利用步骤S3、S4和S5中实时检测到的嘴型、手部位置和行车姿势作为判断驾驶员是否打电话的判断因子,当判断因子大于给定阈值,则判定驾驶员在打电话,***发出报警。
2.根据权利要求1所述的一种驾驶员打***测方法,其特征在于:S2中所述改进后的人脸快速检测算法定位人脸位置具体为:
S2.1:首先记录三次利用Adaboost检测到的人脸,对这三次检测到的人脸大小求平均值,得到平均人脸的大小,并将求得的平均人脸保存下来,作为肤色检测结果的过滤的依据;
S2.2:建立肤色模型,利用建立的肤色模型对获取的实时图像进行检测,过滤掉非肤色的区域,只保留肤色区域;
S2.3:利用平均人脸的大小对肤色检测的结果进行过滤,将不满足人脸大小的区域进行过滤,只保留满足与平均人脸大小相差在给定范围内的肤色区域面积,缩小检测区域,加快检测速度;
S2.4:在过滤后的区域内利用Adaboost算法进行人脸检测,判断是否检测到人脸,如果未检测到人脸则跳转执行S1,如果检测到人脸,将该区域的位置坐标保存,并执行S3,每次检测人脸优先检测上次保存的位置。
3.根据权利要求2所述的一种驾驶员打***测方法,其特征在于:S3所述使用改进的人脸特征点提取算法获取驾驶员脸部特征点,计算驾驶员嘴型具体为:
S3.1:提取检测到的驾驶员人脸图片的HOG特征,利用训练好的SVM分类器进行头部姿态初步估计,初步姿态包括五种姿态,分别为头部正向前方、头部左偏、头部右偏、头部上扬和头部低下;
S3.2:根据S3.1得到的头部姿态匹配对应的初始化AAM模型;
S3.3:利用反向组合进行AAM拟合计算;
S3.4:重复S3.3,不断的迭代拟合,使模型拟合到与人脸重合的位置,获得特征点;
S3.5:选取左右嘴角两个特征点和上下嘴唇最中间的两个特征点共四个特征点,构成一个菱形,计算菱形对角线的比值,利用这个比值与一个给定的阈值进行比较,确定驾驶员的嘴是张开还是闭合。
4.根据权利要求3所述的一种驾驶员打***测方法,其特征在于:S4所述采用基于人脸掩模的手部定位算法,定位驾驶员的手部位置具体为:
将肤色提取后的图片与肤色掩模图片进行‘与’操作,人脸区域的肤色掩模图像素值为0,进行‘与’操作后,对应的区域像素值也为0,人脸掩模图肤色以外区域像素值为1,进行‘与’操作之后,保持原来的像素值不变,经过‘与’操作过后的图片进行灰度化,二值化图像处理操作,最后剩余的区域即为手部区域,对最后剩余区域,计算其最小外包矩形,得到手部位置。
5.根据权利要求4所述的一种驾驶员打***测方法,其特征在于:S5所述根据人脸位置获取驾驶员行车姿势的检测区域,提取检测区域PAC-HOG+LBP特征,对驾驶员的行车姿势进行分类具体为:
S5.1:利用定位到的驾驶员人脸矩形框位置,按照一定的比率向外扩张,形成新的矩形框,使新的矩形框能包含到驾驶员打电话时手的位置,形成检测区域具体为:
利用S2中确定的驾驶员人脸位置坐标,设点P1为人脸矩形区域左上角坐标,P2为人脸矩形框右上角坐标,P3为人脸矩形区域右下角坐标,将P3向右下角扩展,得到P4,P1和P4形成的矩形区域为驾驶员左手打电话检测区域,将人脸矩形区域左下角坐标点向左下角扩展,得到P5,P2和P5所形成的矩形区域为驾驶员右手打电话检测区域,P1、P2、P3、P4和P5的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)和(x5,y5),其中P1、P2、P3的坐标在S2进行人脸检测时已经获取,计算点P4和P5的坐标,计算的公式如下:
Figure FDA0002458890530000021
其中,a1为设定的横向扩展系数,a2为设定的纵向扩展系数;
S5.2:提取检测区域的PAC-HOG特征和LBP特征,将两种特征串联融合成新的PCA-HOG+LBP特征,代替单一的特征;
S5.3:利用SVM分类器对融合的PCA-HOG+LBP特征进行分类,判断驾驶员的行车状态,包括左手有手机状态,右手有手机状态和手上无手机状态。
6.根据权利要求5所述的一种驾驶员打***测方法,其特征在于:S6所述判断因子具体为:
Figure FDA0002458890530000031
其中α(i),i=1,2,3…,n,表示为第i帧图像行车姿势的分类结果,结果有0和1两种,结果为0表示驾驶员没有使用手机的动作,结果为1表示驾驶员有使用手机的动作,x1表示行车姿势占最后结果的权重,β(i)表示第i帧图像手部位置检测结果,结果为1表示手部位置在打电话检测区域,x2表示手部位置检测占最后结果的权重;δ(i)表示第i帧图像的嘴型检测结果,结果为1表示有张嘴动作,0表示无张嘴动作,x3表示嘴部动作占最后结果的权值,n表示需要累积检测的帧数。
7.一种采用权利要求1至6任意一种驾驶员打***测方法的检测***,其特征在于:具有人机交互界面,***对已经储存的视频进行打电话行为检测,或实时的对驾驶员打电话行为进行检测,当监测到驾驶员在行车过程中有使用手机的行为,***会对驾驶员发出预警。
CN202010314035.8A 2020-04-20 2020-04-20 一种驾驶员打***测方法与*** Pending CN111553217A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010314035.8A CN111553217A (zh) 2020-04-20 2020-04-20 一种驾驶员打***测方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010314035.8A CN111553217A (zh) 2020-04-20 2020-04-20 一种驾驶员打***测方法与***

Publications (1)

Publication Number Publication Date
CN111553217A true CN111553217A (zh) 2020-08-18

Family

ID=72003875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010314035.8A Pending CN111553217A (zh) 2020-04-20 2020-04-20 一种驾驶员打***测方法与***

Country Status (1)

Country Link
CN (1) CN111553217A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966655A (zh) * 2021-03-29 2021-06-15 高新兴科技集团股份有限公司 一种办公区玩手机行为识别方法、装置和计算设备
CN115861984A (zh) * 2023-02-27 2023-03-28 联友智连科技有限公司 一种驾驶员疲劳检测方法及***

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514442A (zh) * 2013-09-26 2014-01-15 华南理工大学 一种基于aam模型的视频序列人脸识别方法
CN104573724A (zh) * 2015-01-09 2015-04-29 安徽清新互联信息科技有限公司 一种驾驶员接打电话行为监控方法
CN104573659A (zh) * 2015-01-09 2015-04-29 安徽清新互联信息科技有限公司 一种基于svm的驾驶员接打***控方法
US20150186714A1 (en) * 2013-12-30 2015-07-02 Alcatel-Lucent Usa Inc. Driver behavior monitoring systems and methods for driver behavior monitoring
CN104966059A (zh) * 2015-06-15 2015-10-07 安徽创世科技有限公司 基于智能监控***的驾驶员开车打电话检测方法
CN106682601A (zh) * 2016-12-16 2017-05-17 华南理工大学 一种基于多维信息特征融合的驾驶员违规通话检测方法
CN107220624A (zh) * 2017-05-27 2017-09-29 东南大学 一种基于Adaboost算法的人脸检测方法
US20180253094A1 (en) * 2013-03-27 2018-09-06 Pixart Imaging Inc. Safety monitoring apparatus and method thereof for human-driven vehicle
CN108509902A (zh) * 2018-03-30 2018-09-07 湖北文理学院 一种驾驶员行车过程中手持电话通话行为检测方法
CN108564034A (zh) * 2018-04-13 2018-09-21 湖北文理学院 一种驾驶员行车中操作手机行为的检测方法
CN110334600A (zh) * 2019-06-03 2019-10-15 武汉工程大学 一种多特征融合驾驶员异常表情识别方法
CN110728185A (zh) * 2019-09-10 2020-01-24 西安工业大学 一种判别驾驶人存在手持手机通话行为的检测方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253094A1 (en) * 2013-03-27 2018-09-06 Pixart Imaging Inc. Safety monitoring apparatus and method thereof for human-driven vehicle
CN103514442A (zh) * 2013-09-26 2014-01-15 华南理工大学 一种基于aam模型的视频序列人脸识别方法
US20150186714A1 (en) * 2013-12-30 2015-07-02 Alcatel-Lucent Usa Inc. Driver behavior monitoring systems and methods for driver behavior monitoring
CN104573724A (zh) * 2015-01-09 2015-04-29 安徽清新互联信息科技有限公司 一种驾驶员接打电话行为监控方法
CN104573659A (zh) * 2015-01-09 2015-04-29 安徽清新互联信息科技有限公司 一种基于svm的驾驶员接打***控方法
CN104966059A (zh) * 2015-06-15 2015-10-07 安徽创世科技有限公司 基于智能监控***的驾驶员开车打电话检测方法
CN106682601A (zh) * 2016-12-16 2017-05-17 华南理工大学 一种基于多维信息特征融合的驾驶员违规通话检测方法
CN107220624A (zh) * 2017-05-27 2017-09-29 东南大学 一种基于Adaboost算法的人脸检测方法
CN108509902A (zh) * 2018-03-30 2018-09-07 湖北文理学院 一种驾驶员行车过程中手持电话通话行为检测方法
CN108564034A (zh) * 2018-04-13 2018-09-21 湖北文理学院 一种驾驶员行车中操作手机行为的检测方法
CN110334600A (zh) * 2019-06-03 2019-10-15 武汉工程大学 一种多特征融合驾驶员异常表情识别方法
CN110728185A (zh) * 2019-09-10 2020-01-24 西安工业大学 一种判别驾驶人存在手持手机通话行为的检测方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
DAN WANG等: "Detecting Driver Use of Mobile Phone Based on In-Car Camera", 《2014 TENTH INTERNATIONAL CONFERENCE ON COMPUTATIONAL INTELLIGENCE AND SECURITY》 *
文佳黎: "基于同时反向合成算法的人脸对齐方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
潘世吉: "智能交通违章监测算法研究及软件***实现", 《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》 *
王丹: "基于机器视觉的驾驶员打电话行为检测", 《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》 *
缑新科等: "基于特征融合的静态手势识别", 《计算机与数字工程》 *
许书环等: "基于肤色特征的AdaBoost人脸检测方法", 《计算机***应用》 *
邓旺华: "基于人脸特征的疲劳驾驶检测算法研究与实现", 《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966655A (zh) * 2021-03-29 2021-06-15 高新兴科技集团股份有限公司 一种办公区玩手机行为识别方法、装置和计算设备
CN115861984A (zh) * 2023-02-27 2023-03-28 联友智连科技有限公司 一种驾驶员疲劳检测方法及***
CN115861984B (zh) * 2023-02-27 2023-06-02 联友智连科技有限公司 一种驾驶员疲劳检测方法及***

Similar Documents

Publication Publication Date Title
US7953253B2 (en) Face detection on mobile devices
CN105205480B (zh) 一种复杂场景中人眼定位方法及***
US7643659B2 (en) Facial feature detection on mobile devices
CN106682601B (zh) 一种基于多维信息特征融合的驾驶员违规通话检测方法
CN102324025B (zh) 基于高斯肤色模型和特征分析的人脸检测与跟踪方法
KR100668303B1 (ko) 피부색 및 패턴 매칭을 이용한 얼굴 검출 방법
CN103400110B (zh) Atm取款机前的异常人脸检测方法
Tsai et al. Road sign detection using eigen colour
CN110728185B (zh) 一种判别驾驶人存在手持手机通话行为的检测方法
CN108197534A (zh) 一种人头部姿态检测方法、电子设备及存储介质
CN111158491A (zh) 一种应用于车载hud的手势识别人机交互方法
CN111553214B (zh) 一种驾驶员吸烟行为检测方法及***
CN113449606B (zh) 一种目标对象识别方法、装置、计算机设备及存储介质
CN110910339B (zh) Logo缺陷检测方法及装置
CN111209818A (zh) 视频个体识别方法、***、设备及可读存储介质
CN113158850B (zh) 基于深度学习的船舶驾驶员疲劳检测方法和***
CN111158457A (zh) 一种基于手势识别的车载hud人机交互***
CN112784712B (zh) 一种基于实时监控的失踪儿童预警实现方法、装置
CN111553217A (zh) 一种驾驶员打***测方法与***
CN106874848A (zh) 一种行人检测方法及***
KR20040042501A (ko) 형판 정합 기반 얼굴 검출방법
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及***
CN114155273B (zh) 一种结合历史轨迹信息的视频图像单目标跟踪方法
CN111881732B (zh) 一种基于svm的人脸质量评价方法
CN113449694A (zh) 基于Android的证件照合规性检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200818