CN114792437A - 一种基于面部特征的安全驾驶行为分析的方法及*** - Google Patents
一种基于面部特征的安全驾驶行为分析的方法及*** Download PDFInfo
- Publication number
- CN114792437A CN114792437A CN202210041064.0A CN202210041064A CN114792437A CN 114792437 A CN114792437 A CN 114792437A CN 202210041064 A CN202210041064 A CN 202210041064A CN 114792437 A CN114792437 A CN 114792437A
- Authority
- CN
- China
- Prior art keywords
- face
- frame
- prediction
- confidence
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于面部特征的安全驾驶行为分析的方法及***,属于安全驾驶技术领域,本发明首先通过人脸检测模块识别候选目标驾驶员所在的位置;基于获得的人脸图像使用人脸关键点检测模块来定位人脸3D关键点位置;然后根据不同的定位位置分别送入行为检测模块和疲劳检测模块;最后在不同的检测模块里面识别驾驶员的行为并进行疲劳分类,其目的为:能够保证实时性和准确性的前提下,对驾驶行为进行分析。
Description
技术领域
本发明属于安全驾驶技术领域,具体涉及一种基于面部特征的安全驾驶行为分析的方法及***。
背景技术
随着经济的迅速发展,汽车也得到了快速的普及,在很多的长途行程中,驾驶员需要连续驾车几个小时或者通宵驾车,这种情况下驾驶员很容易处于疲劳状态,当出现接电话或者抽烟的行为时,驾驶员更容易分神,非常容易造成交通事故。因此对驾驶员的行为和疲劳状态进行监测并作出提醒是当下必需的。
现有技术中,通过监控器对驾驶员的驾驶行为进行监测,如驾驶员在驾驶过程中出现干扰驾驶的行为(如抽烟、接打电话等)或者是驾驶员处于疲劳状态(如不停地眨眼睛或者不停地打哈欠等),此时***需要及时检测并分析出当前驾驶人的行为或者疲劳程度,再给予驾驶人相应的警示。
现有技术存在以下问题:
现有的驾驶行为分析能够分析一些基本的行为,但是随着图像背景变得复杂,往往不能很好地区分所识别的物体和图像背景而导致失效,虽然深度学习的方法能够提高动作识别的准确率,但是深度学习模型的网络规模过大,使得模型参数过大和计算量过大,导致应用在一般配置的硬件上很难实现实时性检测,同时因为疫情需要佩戴口罩导致对人脸关键点的检测上造成很大影响。
发明内容
针对现有技术中存在的随着图像背景变得复杂,往往不能很好地区分所识别的物体和图像背景而导致失效,虽然深度学习的方法能够提高动作识别的准确率,但是深度学习模型的网络规模过大,使得模型参数过大和计算量过大,导致应用在一般配置的硬件上很难实现实时性检测,同时因为疫情需要佩戴口罩导致对人脸关键点的检测上造成很大影响问题,本发明提出了一种基于面部特征的安全驾驶行为分析的方法及***,其目的为:能够保证实时性和准确性的前提下,对驾驶行为进行分析。
为实现上述目的本发明所采用的技术方案是:提供一种基于面部特征的安全驾驶行为分析的方法及***,包括:
S1:利用联合监督和自监督的多任务学习,在各类人脸尺度图像上执行像素方面的人脸定位,定位出候选目标驾驶员人脸的位置;
S2:根据识别到的驾驶员人脸图像,使用3D人脸关键点检测模块对其进行标定,得到用于检测人脸行为特征的数个人脸关键点和头部姿态;
S3:提取S2得到的数个人脸关键点信息和头部姿态信息,将他们结合为特定的图像特征向量,然后将每帧的图像特征向量输入到卷积神经网络中,卷积神经网络输出状态特征向量,然后将所述状态特征向量输入到BiLSTM中,实时判断驾驶员的驾驶状态;
S4:首先使用RPN网络产生一系列粗粒度的候选框信息,然后对所述粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的候选框信息,然后采用特征融合操作用于目标检测网络,得到行为检测结果。
较优的,本发明所述S1具体为:
S1.1:将人脸尺度图像缩放成像素300*300;
S1.2:然后将人脸尺度图像输入到卷积神经网络中,提取人脸特征并输入到特征金字塔,得到带特征点的标定人脸框,并计算标定人脸框的预测值,所述预测值包括分类预测值、边界框回归值和特征点回归值;
S1.3:计算标定人脸框和所有预设的候选人脸框的交互比,取交互比中最大值的候选人脸框作为有效人脸框;
S1.4:通过标定人脸框和选择的有效人脸框,计算标定人脸框的特征点损失、边界框损失和分类损失。
较优的,本发明所述S2具体为:
基于有效人脸框,识别到驾驶员的人脸图像,然后通过模型训练得到一系列含有人脸关键点的特征图,最终输出基于五官和脸部轮廓的数个人脸关键点,以及头部姿态,所述头部姿态包括方位角、仰俯角和翻滚角;
然后通过损失函数计算预测值和真值之间的误差,所述损失函数的公式为:
其中,Φ(w)为正则化项,l(yi,f(xi;w))是损失函数,损失函数L采用的是L2损失,f(xi;w)表示网络预测的五官和脸部轮廓的预测值,yi表示五官和脸部轮廓的真实位置,即为真值,Φ(w)表示参数w的正则化项,来对系数做限制。
较优的,本发明S3中,所述驾驶状态包括专心驾驶、疲劳驾驶和左顾右盼。
较优的,本发明S4具体为:
S4.1:首先通过RPN网络产生一系列粗粒度的候选框信息,然后对所述候选框信息进行分类与回归,采用特征融合操作用于目标检测网络,整个目标检测网络采用的损失函数如下所示:
损失函数定义为位置误差与置信度误差的加权和,其中,权重系数α通过交叉验证设置为1,N是先验框的正样本数量;是一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p;c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,g是ground truth的位置参数;
S4.2:对于位置误差,采用如下公式进行定义:
S4.3:对于置信度误差,采用如下公式进行定义:
S4.4:进行驾驶行为预测时,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据设置的置信度阈值过滤掉低于置信度阈值的预测框;将留下的预测框进行解码,并根据置信度值进行降序排列,根据先验框得到每个预测框真实的位置参数,然后保留top-k个预测框,并通过NMS算法,过滤掉存在重叠的预测框,剩余的预测框即为行为检测结果。
本发明还提供了一种基于面部特征的安全驾驶行为分析的***,包括:
人脸检测模块:利用联合监督和自监督的多任务学习,在各类人脸尺度图像上执行像素方面的人脸定位,定位出候选目标驾驶员人脸的位置;
人脸关键点检测模块:根据识别到的驾驶员人脸图像,使用3D人脸关键点检测模块对其进行标定,得到用于检测人脸行为特征的数个人脸关键点和头部姿态;
疲劳检测模块:提取人脸关键点检测模块得到的数个人脸关键点信息和头部姿态信息,将他们结合为特定的图像特征向量,然后将每帧的图像特征向量输入到卷积神经网络中,卷积神经网络输出状态特征向量,然后将所述状态特征向量输入到BiLSTM 中,实时判断驾驶员的驾驶状态;
行为检测模块:首先使用RPN网络产生一系列粗粒度的候选框信息,然后对所述粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的候选框信息,然后采用特征融合操作用于目标检测网络,得到行为检测结果。
较优的,本发明人脸检测模块定位驾驶员人脸具体为:
步骤1:将人脸尺度图像缩放成像素300*300;
步骤2:然后将人脸尺度图像输入到卷积神经网络中,提取人脸特征并输入到特征金字塔,得到带特征点的标定人脸框,并计算标定人脸框的预测值,所述预测值包括分类预测值、边界框回归值和特征点回归值;
步骤3:计算标定人脸框和所有预设的候选人脸框的交互比,取交互比中最大值的候选人脸框作为有效人脸框;
步骤4:通过标定人脸框和选择的有效人脸框,计算标定人脸框的特征点损失、边界框损失和分类损失。
较优的,本发明所述人脸关键点检测模块具体为:
基于有效人脸框,识别到驾驶员的人脸图像,然后通过模型训练得到一系列含有人脸关键点的特征图,最终输出基于五官和脸部轮廓的数个人脸关键点,以及头部姿态,所述头部姿态包括方位角、仰俯角和翻滚角;
然后通过损失函数计算预测值和真值之间的误差,所述损失函数的公式为:
其中,Φ(w)为正则化项,l(yi,f(xi;w))是损失函数,损失函数L采用的是L2损失,f(xi;w)表示网络预测的五官和脸部轮廓的预测值,yi表示五官和脸部轮廓的真实位置,即为真值,Φ(w)表示参数w的正则化项,来对系数做限制。
较优的,本发明所述疲劳检测模块中,所述驾驶状态包括专心驾驶、疲劳驾驶和左顾右盼。
较优的,本发明所述行为检测模块对驾驶员行为检测具体为:
首先通过RPN网络产生一系列粗粒度的候选框信息,然后对所述候选框信息进行分类与回归,采用特征融合操作用于目标检测网络,整个目标检测网络采用的损失函数如下所示:
损失函数定义为位置误差与置信度误差的加权和,其中,权重系数α通过交叉验证设置为1,N是先验框的正样本数量;是一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p;c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,g是ground truth的位置参数;
对于位置误差,采用如下公式进行定义:
对于置信度误差,采用如下公式进行定义:
进行驾驶行为预测时,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据设置的置信度阈值过滤掉低于置信度阈值的预测框;将留下的预测框进行解码,并根据置信度值进行降序排列,根据先验框得到每个预测框真实的位置参数,然后保留top-k个预测框,并通过NMS算法,过滤掉存在重叠的预测框,剩余的预测框即为行为检测结果。
相比现有技术,本发明的技术方案具有如下优点/有益效果:
1.本发明使用3D关键点检测,弥补了2D关键点检测在实际应用中存在着一些不足,例如识别准确率不高、活体检测准确率不高等问题。
2.本发明在疲劳检测模方面,通过将人脸关键点信息和头部姿态的俯仰角信息结合,再通过设计的卷积神经网络中,能有效的判别疲劳状态。
3.本发明在行为检测模块,使用RPN网络产生一系列粗粒度的候选框信息,然后对这些粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的框信息,采用了特征融合操作用于目标检测网络,有效提高了对小目标的检测效果。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例1的流程示意图。
图2是本发明实施例1的关键点检测示意图。
图3是本发明实施例1的关键点人脸示意图。
图4是本发明疲劳检测流程图。
具体实施方式
为使本发明目的、技术方案和优点更加清楚,下面对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明的一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。
实施例1:
如图1、图2、图3和图4所示,本发明提出一种基于面部特征的安全驾驶行为分析的方法及***,包括:
S1:利用联合监督和自监督的多任务学习,在各类人脸尺度图像上执行像素方面的人脸定位,定位出候选目标驾驶员人脸的位置;S1具体为:
S1.1:将人脸尺度图像缩放成像素300*300;
S1.2:然后将人脸尺度图像输入到卷积神经网络中,提取人脸特征并输入到特征金字塔,得到带特征点的标定人脸框,并计算标定人脸框的预测值,所述预测值包括分类预测值、边界框回归值和特征点回归值;
S1.3:计算标定人脸框和所有预设的候选人脸框的交互比,取交互比中最大值的候选人脸框作为有效人脸框;
S1.4:通过标定人脸框和选择的有效人脸框,计算标定人脸框的特征点损失、边界框损失和分类损失。
S2:根据识别到的驾驶员人脸图像,使用3D人脸关键点检测模块对其进行标定,如图2所示,得到用于检测人脸行为特征的68个人脸关键点和头部姿态;S2具体为:
基于有效人脸框,识别到驾驶员的人脸图像,然后通过模型训练得到一系列含有人脸关键点的特征图,最终输出基于五官和脸部轮廓的68个人脸关键点,以及头部姿态,所述头部姿态包括方位角、仰俯角和翻滚角;如图3所示,其中,对重要的几个关键点作以说明:鼻尖为31,鼻根为28,下巴为9,左眼外角为37,左眼内角为40,右眼内角为43,右眼外角为46,嘴中心为67,嘴右角为55,左脸为1,右脸为17。
然后通过损失函数计算预测值和真值之间的误差,所述损失函数的公式为:
其中,Φ(w)为正则化项,l(yi,f(xi;w))是损失函数,损失函数L采用的是L2损失,f(xi;w)表示网络预测的五官和脸部轮廓的预测值,yi表示五官和脸部轮廓的真实位置,即为真值,Φ(w)表示参数w的正则化项,来对系数做限制。
本实施例1中真值表示为五官和脸部轮廓的人脸关键点的真实位置。
S3:提取S2得到的68个人脸关键点信息和头部姿态信息,将他们结合为68*6的图像特征向量,然后将每帧的图像特征向量输入到卷积神经网络中,卷积神经网络输出状态特征向量,然后将所述状态特征向量输入到BiLSTM中,实时判断驾驶员的驾驶状态;所述驾驶状态包括专心驾驶、疲劳驾驶和左顾右盼。在对戴口罩的驾驶员进行驾驶状态判断时,本实施例1通过判断不停眨眼睛或者打哈欠等表现,来判断驾驶员的疲劳程度。
S4:首先使用RPN网络产生一系列粗粒度的候选框信息,然后对所述粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的候选框信息,然后采用特征融合操作用于目标检测网络,得到行为检测结果。S4具体为:
S4.1:首先通过RPN网络产生一系列粗粒度的候选框信息,然后对所述候选框信息进行分类与回归,采用特征融合操作用于目标检测网络,有效提高对小目标的检测效果,整个目标检测网络采用的损失函数如下所示:
损失函数定义为位置误差与置信度误差的加权和,其中,权重系数α通过交叉验证设置为1,N是先验框的正样本数量;是一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p;c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,g是ground truth的位置参数;
S4.2:对于位置误差,采用如下公式进行定义(本发明对于位置的优化,采用Smooth L1损失来优化):
其中,b={cx,cy,w,h}、 其中,i表示每一个训练批次的锚框索引id为正样本(pos),对于检测出来的每一个识别框,通过和真实位置L在每个点的位置b(检测框的中心坐标x,y,和宽w和高h)通过对比来优化.g表示预测的值,d表示真实的值;
该函数实际上是一个分段函数,在输入点x属于[-1,1]之间就是L2损失,解决L1在0处有折点,在[-1,1]区间以外就是L1损失,解决离群点梯度***问题。
S4.3:对于置信度误差,采用如下公式进行定义(对于分类类别的优化,采用交叉熵损失来进行优化):
其中,对于网络的预测类别得分,通过sotmax,归一化到[0,1]之间;
S4.4:进行驾驶行为预测时,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据设置的置信度阈值过滤掉低于置信度阈值的预测框;将留下的预测框进行解码,解码后还需要做clip,防止预测框位置超出图片,并根据置信度值进行降序排列,根据先验框得到每个预测框真实的位置参数,然后保留400 个预测框,并通过NMS算法,过滤掉存在重叠的预测框,剩余的预测框即为行为检测结果。
本发明还提供了一种基于面部特征的安全驾驶行为分析的***,包括:
人脸检测模块:利用联合监督和自监督的多任务学习,在各类人脸尺度图像上执行像素方面的人脸定位,定位出候选目标驾驶员人脸的位置;本发明人脸检测模块定位驾驶员人脸具体为:
步骤1:将人脸尺度图像缩放成像素300*300;
步骤2:然后将人脸尺度图像输入到卷积神经网络中,提取人脸特征并输入到特征金字塔,得到带特征点的标定人脸框,并计算标定人脸框的预测值,所述预测值包括分类预测值、边界框回归值和特征点回归值;
步骤3:计算标定人脸框和所有预设的候选人脸框的交互比,取交互比中最大值的候选人脸框作为有效人脸框;
步骤4:通过标定人脸框和选择的有效人脸框,计算标定人脸框的特征点损失、边界框损失和分类损失。
人脸关键点检测模块:根据识别到的驾驶员人脸图像,使用3D人脸关键点检测模块对其进行标定,得到用于检测人脸行为特征的68个人脸关键点和头部姿态;本发明所述人脸关键点检测模块具体为:
基于有效人脸框,识别到驾驶员的人脸图像,然后通过模型训练得到一系列含有人脸关键点的特征图,最终输出基于五官和脸部轮廓的68个人脸关键点,以及头部姿态,所述头部姿态包括方位角、仰俯角和翻滚角;
然后通过损失函数计算预测值和真值之间的误差,所述损失函数的公式为:
其中,Φ(w)为正则化项,l(yi,f(xi;w))是损失函数,损失函数L采用的是L2损失,f(xi;w)表示网络预测的五官和脸部轮廓的预测值,yi表示五官和脸部轮廓的真实位置,即为真值,Φ(w)表示参数w的正则化项,来对系数做限制。
疲劳检测模块:如图4所示,提取人脸关键点检测模块得到的68个人脸关键点信息和头部姿态信息,将他们结合为68*6的图像特征向量,然后将每帧的图像特征向量输入到卷积神经网络中,卷积神经网络输出状态特征向量,然后将所述状态特征向量输入到BiLSTM中,实时判断驾驶员的驾驶状态;所述驾驶状态包括专心驾驶、疲劳驾驶和左顾右盼。
行为检测模块:首先使用RPN网络产生一系列粗粒度的候选框信息,然后对所述粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的候选框信息,然后采用特征融合操作用于目标检测网络,得到行为检测结果。行为检测模块对驾驶员行为检测具体为:
首先通过RPN网络产生一系列粗粒度的候选框信息,然后对所述候选框信息进行分类与回归,采用特征融合操作用于目标检测网络,整个目标检测网络采用的损失函数如下所示:
损失函数定义为位置误差与置信度误差的加权和,其中,权重系数α通过交叉验证设置为1,N是先验框的正样本数量;是一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p;c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,g是ground truth的位置参数;
对于位置误差,采用如下公式进行定义:
对于置信度误差,采用如下公式进行定义:
进行驾驶行为预测时,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据设置的置信度阈值过滤掉低于置信度阈值的预测框;将留下的预测框进行解码,解码后还需要做clip,防止预测框位置超出图片,并根据置信度值进行降序排列,根据先验框得到每个预测框真实的位置参数,然后保留400个预测框,并通过NMS算法,过滤掉存在重叠的预测框,剩余的预测框即为行为检测结果。
以上仅是本发明的优选实施方式,应当指出的是,上述优选实施方式不应视为对本发明的限制,本发明的保护范围应当以权利要求所限定的范围为准。对于本技术领域的普通技术人员来说,在不脱离本发明的精神和范围内,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种基于面部特征的安全驾驶行为分析的方法,其特征在于,包括:
S1:利用联合监督和自监督的多任务学习,在各类人脸尺度图像上执行像素方面的人脸定位,定位出候选目标驾驶员人脸的位置;
S2:根据识别到的驾驶员人脸图像,使用3D人脸关键点检测模块对其进行标定,得到用于检测人脸行为特征的数个人脸关键点和头部姿态;
S3:提取S2得到的数个人脸关键点信息和头部姿态信息,将他们结合为特定的图像特征向量,然后将每帧的图像特征向量输入到卷积神经网络中,卷积神经网络输出状态特征向量,然后将所述状态特征向量输入到BiLSTM中,实时判断驾驶员的驾驶状态;
S4:首先使用RPN网络产生一系列粗粒度的候选框信息,然后对所述粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的候选框信息,然后采用特征融合操作用于目标检测网络,得到行为检测结果。
2.根据权利要求1所述的一种基于面部特征的安全驾驶行为分析的方法,其特征在于,所述S1具体为:
S1.1:将人脸尺度图像缩放成像素300*300;
S1.2:然后将人脸尺度图像输入到卷积神经网络中,提取人脸特征并输入到特征金字塔,得到带特征点的标定人脸框,并计算标定人脸框的预测值,所述预测值包括分类预测值、边界框回归值和特征点回归值;
S1.3:计算标定人脸框和所有预设的候选人脸框的交互比,取交互比中最大值的候选人脸框作为有效人脸框;
S1.4:通过标定人脸框和选择的有效人脸框,计算标定人脸框的特征点损失、边界框损失和分类损失。
4.根据权利要求1所述的一种基于面部特征的安全驾驶行为分析的方法,其特征在于,S3中,所述驾驶状态包括专心驾驶、疲劳驾驶和左顾右盼。
5.根据权利要求1所述的一种基于面部特征的安全驾驶行为分析的方法,其特征在于,S4具体为:
S4.1:首先通过RPN网络产生一系列粗粒度的候选框信息,然后对所述候选框信息进行分类与回归,采用特征融合操作用于目标检测网络,整个目标检测网络采用的损失函数如下所示:
损失函数定义为位置误差与置信度误差的加权和,其中,权重系数α通过交叉验证设置为1,N是先验框的正样本数量;是一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p;c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,g是ground truth的位置参数;
S4.2:对于位置误差,采用如下公式进行定义:
S4.3:对于置信度误差,采用如下公式进行定义:
S4.4:进行驾驶行为预测时,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据设置的置信度阈值过滤掉低于置信度阈值的预测框;将留下的预测框进行解码,并根据置信度值进行降序排列,根据先验框得到每个预测框真实的位置参数,然后保留top-k个预测框,并通过NMS算法,过滤掉存在重叠的预测框,剩余的预测框即为行为检测结果。
6.一种基于面部特征的安全驾驶行为分析的***,其特征在于,包括:
人脸检测模块:利用联合监督和自监督的多任务学习,在各类人脸尺度图像上执行像素方面的人脸定位,定位出候选目标驾驶员人脸的位置;
人脸关键点检测模块:根据识别到的驾驶员人脸图像,使用3D人脸关键点检测模块对其进行标定,得到用于检测人脸行为特征的数个人脸关键点和头部姿态;
疲劳检测模块:提取人脸关键点检测模块得到的数个人脸关键点信息和头部姿态信息,将他们结合为特定的图像特征向量,然后将每帧的图像特征向量输入到卷积神经网络中,卷积神经网络输出状态特征向量,然后将所述状态特征向量输入到BiLSTM中,实时判断驾驶员的驾驶状态;
行为检测模块:首先使用RPN网络产生一系列粗粒度的候选框信息,然后对所述粗粒度的候选框信息进行分类与回归,以便进一步回归从而得到更加精确的候选框信息,然后采用特征融合操作用于目标检测网络,得到行为检测结果。
7.根据权利要求6所述的一种基于面部特征的安全驾驶行为分析的***,其特征在于,人脸检测模块定位驾驶员人脸具体为:
步骤1:将人脸尺度图像缩放成像素300*300;
步骤2:然后将人脸尺度图像输入到卷积神经网络中,提取人脸特征并输入到特征金字塔,得到带特征点的标定人脸框,并计算标定人脸框的预测值,所述预测值包括分类预测值、边界框回归值和特征点回归值;
步骤3:计算标定人脸框和所有预设的候选人脸框的交互比,取交互比中最大值的候选人脸框作为有效人脸框;
步骤4:通过标定人脸框和选择的有效人脸框,计算标定人脸框的特征点损失、边界框损失和分类损失。
8.根据权利要求7所述的一种基于面部特征的安全驾驶行为分析的***,其特征在于,所述人脸关键点检测模块具体为:
基于有效人脸框,识别到驾驶员的人脸图像,然后通过模型训练得到一系列含有人脸关键点的特征图,最终输出基于五官和脸部轮廓的数个人脸关键点,以及头部姿态,所述头部姿态包括方位角、仰俯角和翻滚角;
然后通过损失函数计算预测值和真值之间的误差,所述损失函数的公式为:
其中,Φ(w)为正则化项,l(yi,f(xi;w))是损失函数,损失函数L采用的是L2损失,f(xi;w)表示网络预测的五官和脸部轮廓的预测值,yi表示五官和脸部轮廓的真实位置,即为真值,Φ(w)表示参数w的正则化项,来对系数做限制。
9.根据权利要求6所述的一种基于面部特征的安全驾驶行为分析的***,其特征在于,所述疲劳检测模块中,所述驾驶状态包括专心驾驶、疲劳驾驶和左顾右盼。
10.根据权利要求6所述的一种基于面部特征的安全驾驶行为分析的***,其特征在于,所述行为检测模块对驾驶员行为检测具体为:
首先通过RPN网络产生一系列粗粒度的候选框信息,然后对所述候选框信息进行分类与回归,采用特征融合操作用于目标检测网络,整个目标检测网络采用的损失函数如下所示:
损失函数定义为位置误差与置信度误差的加权和,其中,权重系数α通过交叉验证设置为1,N是先验框的正样本数量;是一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p;c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,g是ground truth的位置参数;
对于位置误差,采用如下公式进行定义:
对于置信度误差,采用如下公式进行定义:
进行驾驶行为预测时,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据设置的置信度阈值过滤掉低于置信度阈值的预测框;将留下的预测框进行解码,并根据置信度值进行降序排列,根据先验框得到每个预测框真实的位置参数,然后保留top-k个预测框,并通过NMS算法,过滤掉存在重叠的预测框,剩余的预测框即为行为检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210041064.0A CN114792437A (zh) | 2022-01-14 | 2022-01-14 | 一种基于面部特征的安全驾驶行为分析的方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210041064.0A CN114792437A (zh) | 2022-01-14 | 2022-01-14 | 一种基于面部特征的安全驾驶行为分析的方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114792437A true CN114792437A (zh) | 2022-07-26 |
Family
ID=82460721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210041064.0A Pending CN114792437A (zh) | 2022-01-14 | 2022-01-14 | 一种基于面部特征的安全驾驶行为分析的方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114792437A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541865A (zh) * | 2023-11-14 | 2024-02-09 | 中国矿业大学 | 一种基于粗粒度深度估计的身份分析和手机使用检测方法 |
-
2022
- 2022-01-14 CN CN202210041064.0A patent/CN114792437A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541865A (zh) * | 2023-11-14 | 2024-02-09 | 中国矿业大学 | 一种基于粗粒度深度估计的身份分析和手机使用检测方法 |
CN117541865B (zh) * | 2023-11-14 | 2024-06-04 | 中国矿业大学 | 一种基于粗粒度深度估计的身份分析和手机使用检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108309311A (zh) | 一种列车驾驶员实时盹睡检测装置及检测算法 | |
CN107194346A (zh) | 一种汽车疲劳驾驶预测方法 | |
CN108596087B (zh) | 一种基于双网络结果的驾驶疲劳程度检测回归模型 | |
CN110728241A (zh) | 一种基于深度学习多特征融合的驾驶员疲劳检测方法 | |
CN113158850B (zh) | 基于深度学习的船舶驾驶员疲劳检测方法和*** | |
CN110532925B (zh) | 基于时空图卷积网络的驾驶员疲劳检测方法 | |
CN111626272A (zh) | 一种基于深度学习的驾驶员疲劳监测*** | |
CN111553214B (zh) | 一种驾驶员吸烟行为检测方法及*** | |
CN108108651B (zh) | 基于视频人脸分析的驾驶员非专心驾驶检测方法及*** | |
Luo et al. | The driver fatigue monitoring system based on face recognition technology | |
CN115331205A (zh) | 一种云边协同的驾驶员疲劳检测*** | |
CN115937830A (zh) | 一种面向特种车辆的驾驶员疲劳检测方法 | |
CN116935361A (zh) | 一种基于深度学习的驾驶员分心行为检测方法 | |
CN114220158A (zh) | 基于深度学习的疲劳驾驶检测方法 | |
CN114792437A (zh) | 一种基于面部特征的安全驾驶行为分析的方法及*** | |
CN113408389A (zh) | 一种智能识别司机睡意动作的方法 | |
Gao et al. | Fatigue state detection from multi-feature of eyes | |
Fan et al. | Nonintrusive driver fatigue detection | |
Guo et al. | Monitoring and detection of driver fatigue from monocular cameras based on Yolo v5 | |
CN112597842B (zh) | 基于人工智能的运动检测面瘫程度评估*** | |
CN115273048A (zh) | 基于视觉的手部脱离方向盘检测判断方法及电子设备 | |
CN115171189A (zh) | 一种疲劳检测方法、装置、设备和存储介质 | |
CN112329566A (zh) | 一种精准感知机动车驾驶人员头部动作的视觉感知*** | |
Hu et al. | Comprehensive driver state recognition based on deep learning and PERCLOS criterion | |
CN117058627B (zh) | 一种公共场所人群安全距离监测方法、介质及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |