CN104573659B - 一种基于svm的驾驶员接打***控方法 - Google Patents

一种基于svm的驾驶员接打***控方法 Download PDF

Info

Publication number
CN104573659B
CN104573659B CN201510013139.4A CN201510013139A CN104573659B CN 104573659 B CN104573659 B CN 104573659B CN 201510013139 A CN201510013139 A CN 201510013139A CN 104573659 B CN104573659 B CN 104573659B
Authority
CN
China
Prior art keywords
msub
mrow
mtd
mtr
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510013139.4A
Other languages
English (en)
Other versions
CN104573659A (zh
Inventor
张卡
何佳
曹昌龙
尼秀明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ANHUI QINGXIN INTERNET INFORMATION TECHNOLOGY Co Ltd
Original Assignee
ANHUI QINGXIN INTERNET INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ANHUI QINGXIN INTERNET INFORMATION TECHNOLOGY Co Ltd filed Critical ANHUI QINGXIN INTERNET INFORMATION TECHNOLOGY Co Ltd
Priority to CN201510013139.4A priority Critical patent/CN104573659B/zh
Publication of CN104573659A publication Critical patent/CN104573659A/zh
Application granted granted Critical
Publication of CN104573659B publication Critical patent/CN104573659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于svm的驾驶员接打***控方法,该监控方法包括以下顺序的步骤:建立人脸检测分类器和以接打电话时手部图像为训练正样本的手部检测分类器;实时采集驾驶员的驾驶状态图像;选择合适的图像子区域作为手部运动检测和接打电话检测的有效检测区域;根据有效检测区域图像,实时判断驾驶员是否存在接打电话的准备动作;根据有效检测区域图像,详细监视驾驶员的手停留在耳朵旁边的时间,并根据停留时间的长短判断驾驶员是否正在接打电话;将驾驶员接打电话的实时视频发送至远程服务器,并接收远程服务器发送的命令。

Description

一种基于svm的驾驶员接打***控方法
技术领域
本发明涉及安全驾驶技术领域,具体涉及一种基于svm的驾驶员接打***控方法。
背景技术
随着汽车保有量的快速增长,人们在享受到交通的便利和快捷的同时,也伴随着各类交通事故的频发,造成巨大的人员和经济损失。造成交通事故的因素很多,驾驶员开车途中接打电话是重要的诱因之一。由于无法实时获取驾驶员的驾驶行为视频,一些客运和货运企业的监管部门只能以事后的推断作为划分责任的依据,无法进行事前的监控和预防。因此,实时的监控驾驶员的接打电话行为,及时反馈给运输企业监管部门进行预防,对于避免重大交通事故,起着无可替代的作用。
支持向量机(svm)是一种有监督学习算法,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,该方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折中,以期获得最好的推广能力(或称泛化能力)。
目前,对于驾驶员接打电话行为的监控,常用的技术方法有以下几种:
(1)基于手机信号进行监控,该类方法通过在驾驶室里放置一个手机信号检测器,根据信号波动的不同程度,判断是否存在接打电话行为。该类方法在货运车辆上可以达到监控接打电话的效果。但是在客运车辆上,存在较多的干扰,如客车上乘客的手机信号干扰等,存在严重的漏检和误检,无法实现实时全面的监控驾驶员接打电话行为。
(2)基于视频图像进行监控,该类方法通过实时监控驾驶员双手是否放在方向盘上,一旦出现某只手离开方向盘,即被认为是在接打电话。该类方法存在严重的误检,因为很多驾驶员存在一只手扶方向盘的习惯,因此,该方法在实际环境中使用会有较大的问题。
发明内容
本发明的目的在于提供一种基于svm的驾驶员接打***控方法,该监控方法是基于视频图像处理技术,通过实时监控驾驶员耳朵区域手部的状态来判断接打电话行为,具有监控准确度高,漏检误检较少,速度快,成本低等特点。
本发明的技术方案为:
一种基于svm的驾驶员接打***控方法,该监控方法包括以下顺序的步骤:
(1)建立人脸检测分类器和以接打电话时手部图像为训练正样本的手部检测分类器;
(2)实时采集驾驶员的驾驶状态图像;
(3)选择合适的图像子区域作为手部运动检测和接打电话检测的有效检测区域;
(4)根据有效检测区域图像,实时判断驾驶员是否存在接打电话的准备动作;若是,则执行步骤(5);若否,则返回执行步骤(2);
(5)根据有效检测区域图像,详细监视驾驶员的手停留在耳朵旁边的时间,并根据驾驶员的手停留在耳朵旁边的时间长短判断驾驶员是否正在接打电话;若是,则执行步骤(6);若否,则返回执行步骤(2);
(6)将驾驶员接打电话的实时视频发送至远程服务器,并接收远程服务器发送的命令。
步骤(3)中,所述的选择合适的图像子区域作为手部运动检测和接打电话检测的有效检测区域,具体包括以下顺序的步骤:
(31)采用harr特征和adaboost分类算法,检测人脸位置;
(32)根据人脸的三庭五眼布局规律,粗定位左、右两眼的位置;
(33)精确定位出眼睛的位置;
(34)选择合适的有效图像子区域。
步骤(4)中,所述的根据有效检测区域图像,实时判断驾驶员是否存在接打电话的准备动作,具体包括以下顺序的步骤:
(41)在左、右有效检测区域内分别进行均匀点采样;
(42)进行采样点的精确跟踪;
(43)获取正确跟踪采样点的运动信息;
(44)获取有效检测区域的统计特征,所述的检测区域的统计特征包括左有效检测区域的平均运动强度aveml、右有效检测区域的平均运动强度avemr、左有效检测区域的运动广度Rl和右有效检测区域的运动广度Rr
(45)判断是否存在抬手靠近耳朵的动作。
步骤(5)中,所述的根据有效检测区域图像,详细监视驾驶员的手停留在耳朵旁边的时间,并根据驾驶员的手停留在耳朵旁边的时间长短判断驾驶员是否正在接打电话;具体包括以下顺序的步骤:
(51)将有效检测区域图像作为当前图像,计算当前图像的梯度特征,并对梯度方向角度进行校正,将梯度方向的范围限定在[0 π];
(52)构造一个宽为W、高为H的矩形检测窗口,W和H的值分别等于手部训练器的训练样本的宽高值,并对矩形检测窗口进行子窗口划分;
(53)将矩形检测窗口以一定步长在有效检测区域内滑动,判断矩形检测窗口覆盖的区域是否存在手部图像;
(54)判断矩形检测窗口是否滑动到当前图像的结尾处;若是,则执行步骤(55);若否,则矩形检测窗口滑动到下一个位置,再次执行步骤(53);
(55)设当前图像的宽为Wimage,高为Himage,对当前图像进行尺度变换,进行尺度变换后的图像的宽为σWimage,高为σHimage,将进行尺度变换后的图像设为当前图像;其中,0<σ<1;
(56)判断当前图像的尺寸是否小于最低门限;若当前图像的尺寸小于最低门限,则执行步骤(57);若当前图像的尺寸大于最低门限,则返回执行步骤(51);
(57)根据候选区域列表中的候选目标的个数和位置,综合判断当前帧中手部的位置;
(58)判断累积帧数是否达到单位帧数;若是,则执行步骤(59);若否,则返回执行步骤(51);
(59)统计单位帧数内,存在手部图像的帧数所占比例;并根据手部图像的帧数所占比例判断驾驶员是否正处于接打电话状态。
步骤(34)中,所述的选择合适的有效图像子区域,具体采用以下公式实现:
其中,rectleft、rectright分别表示选择的左、右耳朵附近矩形子区域,rect表示检测到的人脸位置矩形区域,pointl、pointr分别表示左眼的左边缘点和右眼的右边缘点。
步骤(43)中,所述的获取正确跟踪采样点的运动信息,具体采用以下公式实现:
其中,M(i)表示第i个采样点的运动幅值,θ(i)表示第i个采样点的运动方向,xpointi表示第i个采样点在当前帧上的坐标,ypointi表示第i个采样点在上一帧上的坐标,Dx表示某个采样点在x方向的运动量,Dy表示某个采样点在y方向的运动量。
步骤(44)中,所述的获取有效检测区域的统计特征,具体采用以下公式实现:
其中,suml表示左检测区域内具有明显运动的采样点的运动幅值,Nml表示左检测区域内具有明显运动的采样点的数目,Nl表示左检测区域内具有明显运动且向耳朵靠近的采样点的数目;
sumr表示右检测区域内具有明显运动的采样点的运动幅值,Nmr表示右检测区域内具有明显运动的采样点的数目,Nr表示右检测区域内具有明显运动且向耳朵靠近的采样点的数目;
Ml(i)表示左检测区域内第i个正确跟踪采样点的运动幅值,θl(i)表示左检测区域内第i个正确跟踪采样点的运动方向;
Mr(i)表示右检测区域内第i个正确跟踪采样点的运动幅值,θr(i)表示右检测区域内第i个正确跟踪采样点的运动方向。
步骤(45)中,所述的判断是否存在抬手靠近耳朵的动作,具体采用以下公式实现:
其中,exist=1表示存在抬手靠近耳朵的动作,exist=0表示不存在抬手靠近耳朵的动作,sl表示在左侧有效检测区域内是否存在抬手靠近耳朵的动作;sr表示在右侧有效检测区域内是否存在抬手靠近耳朵的动作;Tml表示在左侧有效检测区域内抬手靠近耳朵时运动强度阈值;Tθl表示在左侧有效检测区域内抬手靠近耳朵时的运动广度阈值;Tmr表示在右侧有效检测区域内抬手靠近耳朵时运动强度阈值;Tθr表示在右侧有效检测区域内抬手靠近耳朵时的运动广度阈值;Tmlb表示在左侧有效检测区域内,标准的抬手靠近耳朵时的平均运动强度;Tθlb表示在左侧有效检测区域内,标准的抬手靠近耳朵时的平均运动广度;Tmrb表示在右侧有效检测区域内,标准的抬手靠近耳朵时的平均运动强度;Tθrb表示在右侧有效检测区域内,标准的抬手靠近耳朵时的平均运动广度。
步骤(51)中,所述的计算当前图像的梯度特征,并对梯度方向角度进行校正,具体采用以下公式实现:
其中,M(x,y)、θ(x,y)分别表示像素(x,y)处的梯度幅值和梯度方向,f(x,y)表示像素(x,y)处的灰度值。Gx表示像素(x,y)处x方向的偏导数,Gy表示像素(x,y)处y方向的偏导数。
步骤(53)中,所述的将矩形检测窗口以一定步长在有效检测区域内滑动,判断矩形检测窗口覆盖的区域是否存在手部图像;具体采用以下顺序的步骤实现:
(531)统计每一个子窗口覆盖区域的梯度直方图;
(532)获取矩形检测窗口覆盖区域的特征向量;
(533)将矩形检测窗口覆盖区域的特征向量进行归一化处理;
(534)将矩形检测窗口覆盖区域的特征向量送入手部svm分类器,预测其所属类别;若手部svm分类器预测该特征向量属于手部图像,则将矩形检测窗口所在位置加入候选区域列表中。
相比其它驾驶员接打***控方法,本发明采用视频图像处理技术,通过触发监控模式实时监控驾驶员耳朵区域的手部存在状态,判定接打电话行为,具有监控准确度高,漏检误检较少,速度快,成本低等特点。
附图说明
图1是本发明的方法流程图;
图2是触发模块工作流程图;
图3是监控模块工作流程图;
图4是训练正样本样图;
图5是定位有效检测区域示意图;
图6是点采样效果图;
图7是矩形检测窗口的子窗口划分示意图;
图8是矩形检测窗口滑动示意图;
图9是手部候选检测位置效果图,其中,矩形框1是有效检测区域,矩形框2是候选检测区域;
图10是手部最终检测位置效果图,其中,矩形框1是有效检测区域,矩形框2是最终检测位置。
具体实施方式
下面结合附图进一步说明本发明。
如图1所示,实施例中,本发明所述基于svm的驾驶员接打***控***包含初始化模块、采集模块、定位模块、触发模块、监控模块和通信模块。该基于svm的驾驶员接打***控***的具体实施步骤如下:
S1、执行初始化模块。
初始模块的功能是,加载和训练***必须的分类器文件,具体步骤如下:
S11、加载已有的人脸检测分类器文件。
S12、如图4所示,收集接打电话时手部图像作为正样本,基于svm理论训练手部检测分类器文件。
S2、执行采集模块。
采集模块的功能是,实时采集驾驶员的驾驶状态图像,主要是驾驶员的头部图像。
S3、执行定位模块。
定位模块的功能是,选择合适的图像子区域作为手部运动检测和接打电话检测的有效区域,主要是选择左、右耳朵附近的局部区域。该模块可以极大的提升检测速度,去除更多的干扰区域,如图5所示。该模块的具体步骤如下:
S31、采用harr特征和adaboost分类算法,检测人脸位置。
S32、基于人脸的三庭五眼布局规律,粗定位左、右两眼的位置。
S33、精确定位出眼睛的位置。
S34、采用公式(1)和公式(2)选择合适的有效图像子区域。
其中,rectleft、rectright分别表示选择的左、右耳朵附近矩形子区域,rect表示检测到的人脸位置矩形区域,pointl、pointr分别表示左眼的左边缘点和右眼的右边缘点。
S4、判断触发模块开闭状态,若触发模块处于开启状态,则执行步骤S5,若触发模块处于关闭状态,则执行步骤S7。
S5、执行触发模块。
触发模块的功能是,实时判断驾驶员是否存在接打电话的准备动作,具体是指驾驶员是否存在抬手靠近耳朵的动作。如果存在,说明驾驶员有可能准备接打电话,此时退出触发模块,返回开启监控模块信号;如果不存在该动作,***会继续进行实时判断,等待下一次接打电话准备动作的出现。如图2所示,该模块的具体步骤如下:
S51、在左、右有效检测区域内分别进行均匀点采样,效果如图6。
S52、进行采样点的精确跟踪。具体跟踪算法参见文献:Forward-Backward Error:Automatic Detection of Tracking Failures,Zdenek Kalal,Krystian Mikolajczyk,Jiri Matas,Pattern Recognition (ICPR),2010 20th International Conference on。
S53、采用公式(3)和公式(4)获取正确跟踪采样点的运动信息;
其中,M(i)表示第i个采样点的运动幅值,θ(i)表示第i个采样点的运动方向,xpointi表示第i个采样点在当前帧上的坐标,ypointi表示第i个采样点在上一帧上的坐标,Dx表示某个采样点在x方向的运动量,Dy表示某个采样点在y方向的运动量。
S54、采用公式(5)和公式(6)获取有效检测区域的统计特征。所述的有效检测区域的统计特征包括左边有效检测区域的平均运动强度aveml、右边有效检测区域的平均运动强度avemr、左边有效检测区域的运动广度Rl和右边有效检测区域的运动广度Rr
其中,suml表示左检测区域内具有明显运动的采样点的运动幅值,Nml表示左检测区域内具有明显运动的采样点的数目,Nl表示左检测区域内具有明显运动且向耳朵靠近的采样点的数目;sumr表示右检测区域内具有明显运动的采样点的运动幅值,Nmr表示右检测区域内具有明显运动的采样点的数目,Nr表示右检测区域内具有明显运动且向耳朵靠近的采样点的数目;Ml(i)表示左检测区域内第i个正确跟踪采样点的运动幅值,θl(i)表示左检测区域内第i个正确跟踪采样点的运动方向;Mr(i)表示右检测区域内第i个正确跟踪采样点的运动幅值,θr(i)表示右检测区域内第i个正确跟踪采样点的运动方向。
S55、采用公式(7)-(10),判断是否存在抬手靠近耳朵的动作。若存在,则退出触发模块;若否,则继续执行触发模块。
其中,exist=1表示存在抬手靠近耳朵的动作,exist=0表示不存在抬手靠近耳朵的动作。sl表示在左侧有效检测区域内是否存在抬手靠近耳朵的动作;sr表示在右侧有效检测区域内是否存在抬手靠近耳朵的动作;Tml表示在左侧有效检测区域内抬手靠近耳朵时运动强度阈值;Tθl表示在左侧有效检测区域内抬手靠近耳朵时的运动广度阈值;Tmr表示在右侧有效检测区域内抬手靠近耳朵时运动强度阈值;Tθr表示在右侧有效检测区域内抬手靠近耳朵时的运动广度阈值;Tmlb表示在左侧有效检测区域内,标准的抬手靠近耳朵时的平均运动强度;Tθlb表示在左侧有效检测区域内,标准的抬手靠近耳朵时的平均运动广度;Tmrb表示在右侧有效检测区域内,标准的抬手靠近耳朵时的平均运动强度;Tθrb表示在右侧有效检测区域内,标准的抬手靠近耳朵时的平均运动广度。
S6、判断是否触发监控模块。若存在接打电话的准备动作,则监控模块将被触发开启,进行详细监控,同时关闭触发模块。若不存在接打电话的准备动作,则直接回到采集模块,进行下一次的触发判断。
S7、执行监控模块。
监控模块的功能是,详细监视驾驶员的手停留在耳朵旁边的时间。若驾驶员的手停留在耳朵旁边的时间足够长,说明驾驶员正在接打电话,则返回开启通信模块信号。若否,则说明本次触发开启属于误判。如图3所示,该模块的具体步骤如下:
S71、使用有效检测区域图像作为当前图像,采用公式(11)和公式(12),计算当前图像的梯度特征,并采用公式(13)对梯度方向角度进行校正,将梯度方向的范围限定在[0π]。
其中,M(x,y)、θ(x,y)表示像素(x,y)处的梯度幅值和梯度方向,f(x,y)表示像素(x,y)处的灰度值。
S72、构造一个宽高分别为W和H的矩形检测窗口,W和H的值等于手部svm分类器的训练样本的宽高值。如图7所示,对矩形检测窗口进行子窗口划分。划分依据为:驾驶员不接电话时,由于耳朵旁边没有手的干扰,此时有效检测区域内的头部轮廓总体上是竖直的,因此,选择纵向窄矩形区域作为子窗口是合理的。
S73、如图8所示,将矩形检测窗口以一定步长在有效检测区域内滑动,并判断矩形检测窗口覆盖的区域是否存在手部图像,具体步骤如下:
S731、采用公式(14)统计每一个子窗口覆盖区域的梯度直方图hist[bin]。
其中,floor(x)表示选取不大于x的最大整数,bin的取值范围是1~10。
S732、串联所有子窗口覆盖区域的梯度直方图,获取检测窗口覆盖区域的特征向量。
S733、将矩形检测窗口覆盖区域的特征向量归一化;
S734、判断检测窗口覆盖区域是否属于手部图像,效果如图9。图9中,方框1表示左右有效检测区域,方框2表示矩形检测窗口覆盖区域属于手部图像。具体方法是将检测窗口覆盖区域的特征向量送入手部svm分类器,预测其所属类别。若属于手部图像,则将矩形检测窗口所在位置放入候选区域列表中。
S74、判断检测窗口是否滑动到当前图像的结尾处。若未到达图像结尾,则矩形检测窗口滑动到下一个位置,并再次执行步骤S73;若已到达图像结尾,则执行步骤S75。
S75、设当前图像尺寸为Wimage、Himage,对当前图像进行尺度变换,则尺度变换后图像尺寸变为σWimage、σHimage,并将尺度变换后的图像记为当前图像。其中0<σ<1。
S76、判断当前图像尺寸是否小于最低门限。若小于门限,则说明当前图像过小,已经不可能存在手部,执行步骤S77;若大于门限,则说明当前图像中仍有可能存在手部,执行步骤S71继续检测过程。
S77、根据候选区域列表中的候选目标的个数和位置,综合判断当前帧中手部的位置,效果如图10。图10中,方框1表示左右有效检测区域,方框2表示矩形检测窗口覆盖区域属于手部图像。
S78、判断累积帧数是否达到单位帧数。若达到,则执行步骤S79;若否,则执行步骤S71继续检测过程。
S79、统计单位帧数内,存在手部图像的帧数所占比例。若该比例大于一定阈值,则说明当前驾驶员正处于接打电话状态。
S710、开启触发模块,关闭监控模块。
S8、执行通信模块。
通信模块的功能是,当驾驶员处于接打电话状态时,该模块向远程服务器发送驾驶员接打电话的实时视频,此时运输企业监管部门可以通过该视频进行及时的处理;如果需要和驾驶员通话,还可以通过该模块接收远程命令。
以上所述实施方式仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的权利要求书确定的保护范围内。

Claims (6)

1.一种基于svm的驾驶员接打***控方法,其特征在于:该监控方法包括以下顺序的步骤:
(1)建立人脸检测分类器和以接打电话时手部图像为训练正样本的手部检测分类器;
(2)实时采集驾驶员的驾驶状态图像;
(3)选择合适的图像子区域作为手部运动检测和接打电话检测的有效检测区域;
(4)根据有效检测区域图像,实时判断驾驶员是否存在接打电话的准备动作;若是,则执行步骤(5);若否,则返回执行步骤(2);
(5)根据有效检测区域图像,详细监视驾驶员的手停留在耳朵旁边的时间,并根据驾驶员的手停留在耳朵旁边的时间长短判断驾驶员是否正在接打电话;若是,则执行步骤(6);若否,则返回执行步骤(2);
(6)将驾驶员接打电话的实时视频发送至远程服务器,并接收远程服务器发送的命令;
步骤(4)中,所述的根据有效检测区域图像,实时判断驾驶员是否存在接打电话的准备动作,具体包括以下顺序的步骤:
(41)在左、右有效检测区域内分别进行均匀点采样;
(42)进行采样点的精确跟踪;
(43)获取正确跟踪采样点的运动信息;
(44)获取有效检测区域的统计特征,所述的检测区域的统计特征包括左有效检测区域的平均运动强度aveml、右有效检测区域的平均运动强度avemr、左有效检测区域的运动广度Rl和右有效检测区域的运动广度Rr
(45)判断是否存在抬手靠近耳朵的动作;
步骤(43)中,所述的获取正确跟踪采样点的运动信息,具体采用以下公式实现:
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>M</mi> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>=</mo> <mi>s</mi> <mi>q</mi> <mi>r</mi> <mi>t</mi> <mo>(</mo> <msup> <msub> <mi>D</mi> <mi>x</mi> </msub> <mn>2</mn> </msup> <mo>+</mo> <msup> <msub> <mi>D</mi> <mi>y</mi> </msub> <mn>2</mn> </msup> <mo>)</mo> </mtd> </mtr> <mtr> <mtd> <mi>&amp;theta;</mi> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>=</mo> <mi>a</mi> <mi>r</mi> <mi>c</mi> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mo>(</mo> <mfrac> <msub> <mi>D</mi> <mi>y</mi> </msub> <msub> <mi>D</mi> <mi>x</mi> </msub> </mfrac> <mo>)</mo> </mtd> </mtr> </mtable> </mfenced>
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msub> <mi>D</mi> <mi>x</mi> </msub> <mo>=</mo> <mi>x</mi> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>i</mi> </msub> <mo>.</mo> <mi>x</mi> <mo>-</mo> <mi>y</mi> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>i</mi> </msub> <mo>.</mo> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>D</mi> <mi>y</mi> </msub> <mo>=</mo> <mi>x</mi> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>i</mi> </msub> <mo>.</mo> <mi>y</mi> <mo>-</mo> <mi>y</mi> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>i</mi> </msub> <mo>.</mo> <mi>y</mi> </mtd> </mtr> </mtable> </mfenced>
其中,M(i)表示第i个采样点的运动幅值,θ(i)表示第i个采样点的运动方向,xpointi表示第i个采样点在当前帧上的坐标,ypointi表示第i个采样点在上一帧上的坐标,Dx表示某个采样点在x方向的运动量,Dy表示某个采样点在y方向的运动量;
步骤(44)中,所述的获取有效检测区域的统计特征,具体采用以下公式实现:
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>a</mi> <mi>v</mi> <mi>e</mi> <msub> <mi>m</mi> <mi>l</mi> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>sum</mi> <mi>l</mi> </msub> </mrow> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>l</mi> </mrow> </msub> </mfrac> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>R</mi> <mi>l</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>N</mi> <mi>l</mi> </msub> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>l</mi> </mrow> </msub> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>avem</mi> <mi>r</mi> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>sum</mi> <mi>r</mi> </msub> </mrow> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>R</mi> <mi>r</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>N</mi> <mi>r</mi> </msub> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced>
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>sum</mi> <mi>l</mi> </msub> <mo>=</mo> <msub> <mi>sum</mi> <mi>l</mi> </msub> <mo>+</mo> <msub> <mi>M</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>M</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>2</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>l</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mn>1</mn> </mrow> </msub> <mo>+</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <msub> <mi>M</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>2</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> <mo>=</mo> <msub> <mi>N</mi> <mi>l</mi> </msub> <mo>+</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <msub> <mi>M</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>2</mn> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mfrac> <mi>&amp;pi;</mi> <mn>4</mn> </mfrac> <mo>&lt;</mo> <msub> <mi>&amp;theta;</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <mfrac> <mi>&amp;pi;</mi> <mn>2</mn> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>sum</mi> <mi>r</mi> </msub> <mo>=</mo> <msub> <mi>sum</mi> <mi>r</mi> </msub> <mo>+</mo> <msub> <mi>M</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>M</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>2</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <msub> <mi>M</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>2</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>N</mi> <mi>r</mi> </msub> <mo>=</mo> <msub> <mi>N</mi> <mi>r</mi> </msub> <mo>+</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <msub> <mi>M</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>2</mn> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mfrac> <mi>&amp;pi;</mi> <mn>2</mn> </mfrac> <mo>&lt;</mo> <msub> <mi>&amp;theta;</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <mfrac> <mrow> <mn>3</mn> <mo>*</mo> <mi>&amp;pi;</mi> </mrow> <mn>4</mn> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,suml表示左检测区域内具有明显运动的采样点的运动幅值,Nml表示左检测区域内具有明显运动的采样点的数目,Nl表示左检测区域内具有明显运动且向耳朵靠近的采样点的数目;
sumr表示右检测区域内具有明显运动的采样点的运动幅值,Nmr表示右检测区域内具有明显运动的采样点的数目,Nr表示右检测区域内具有明显运动且向耳朵靠近的采样点的数目;
Ml(i)表示左检测区域内第i个正确跟踪采样点的运动幅值,θl(i)表示左检测区域内第i个正确跟踪采样点的运动方向;
Mr(i)表示右检测区域内第i个正确跟踪采样点的运动幅值,θr(i)表示右检测区域内第i个正确跟踪采样点的运动方向;
步骤(45)中,所述的判断是否存在抬手靠近耳朵的动作,具体采用以下公式实现:
<mrow> <mi>e</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <msub> <mi>s</mi> <mi>l</mi> </msub> <mo>+</mo> <msub> <mi>s</mi> <mi>r</mi> </msub> <mo>=</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>s</mi> <mi>l</mi> </msub> <mo>+</mo> <msub> <mi>s</mi> <mi>r</mi> </msub> <mo>&amp;NotEqual;</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msub> <mi>s</mi> <mi>l</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <msub> <mi>avem</mi> <mi>l</mi> </msub> <mo>&amp;GreaterEqual;</mo> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>l</mi> </mrow> </msub> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mi> </mi> <msub> <mi>R</mi> <mi>l</mi> </msub> <mo>&amp;GreaterEqual;</mo> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>l</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>avem</mi> <mi>l</mi> </msub> <mo>&lt;</mo> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>l</mi> </mrow> </msub> <mi>o</mi> <mi>r</mi> <mi> </mi> <msub> <mi>R</mi> <mi>l</mi> </msub> <mo>&lt;</mo> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>l</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msub> <mi>s</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <msub> <mi>avem</mi> <mi>r</mi> </msub> <mo>&amp;GreaterEqual;</mo> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mi> </mi> <msub> <mi>R</mi> <mi>r</mi> </msub> <mo>&amp;GreaterEqual;</mo> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>r</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>avem</mi> <mi>r</mi> </msub> <mo>&lt;</mo> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> <mi>o</mi> <mi>r</mi> <mi> </mi> <msub> <mi>R</mi> <mi>r</mi> </msub> <mo>&lt;</mo> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>r</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>l</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>l</mi> <mi>b</mi> </mrow> </msub> <mo>*</mo> <mn>0.7</mn> </mtd> </mtr> <mtr> <mtd> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>l</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>l</mi> <mi>b</mi> </mrow> </msub> <mo>*</mo> <mn>0.7</mn> </mtd> </mtr> <mtr> <mtd> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>r</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>r</mi> <mi>b</mi> </mrow> </msub> <mo>*</mo> <mn>0.7</mn> </mtd> </mtr> <mtr> <mtd> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>r</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>T</mi> <mrow> <mi>&amp;theta;</mi> <mi>r</mi> <mi>b</mi> </mrow> </msub> <mo>*</mo> <mn>0.7</mn> </mtd> </mtr> </mtable> </mfenced>
其中,exist=1表示存在抬手靠近耳朵的动作,exist=0表示不存在抬手靠近耳朵的动作;sl表示在左侧有效检测区域内是否存在抬手靠近耳朵的动作;sr表示在右侧有效检测区域内是否存在抬手靠近耳朵的动作;
Tml表示在左侧有效检测区域内抬手靠近耳朵时运动强度阈值;Tθl表示在左侧有效检测区域内抬手靠近耳朵时的运动广度阈值;Tmr表示在右侧有效检测区域内抬手靠近耳朵时运动强度阈值;Tθr表示在右侧有效检测区域内抬手靠近耳朵时的运动广度阈值;
Tmlb表示在左侧有效检测区域内,标准的抬手靠近耳朵时的平均运动强度;Tθlb表示在左侧有效检测区域内,标准的抬手靠近耳朵时的平均运动广度;Tmrb表示在右侧有效检测区域内,标准的抬手靠近耳朵时的平均运动强度;Tθrb表示在右侧有效检测区域内,标准的抬手靠近耳朵时的平均运动广度。
2.根据权利要求1所述的一种基于svm的驾驶员接打***控方法,其特征在于:步骤(3)中,所述的选择合适的图像子区域作为手部运动检测和接打电话检测的有效检测区域,具体包括以下顺序的步骤:
(31)采用harr特征和adaboost分类算法,检测人脸位置;
(32)根据人脸的三庭五眼布局规律,粗定位左、右两眼的位置;
(33)精确定位出眼睛的位置;
(34)选择合适的有效图像子区域。
3.根据权利要求1所述的一种基于svm的驾驶员接打***控方法,其特征在于:步骤(5)中,所述的根据有效检测区域图像,详细监视驾驶员的手停留在耳朵旁边的时间,并根据驾驶员的手停留在耳朵旁边的时间长短判断驾驶员是否正在接打电话;具体包括以下顺序的步骤:
(51)将有效检测区域图像作为当前图像,计算当前图像的梯度特征,并对梯度方向角度进行校正,将梯度方向的范围限定在[0π];
(52)构造一个宽为W、高为H的矩形检测窗口,W和H的值分别等于手部训练器的训练样本的宽高值,并对矩形检测窗口进行子窗口划分;
(53)将矩形检测窗口以一定步长在有效检测区域内滑动,判断矩形检测窗口覆盖的区域是否存在手部图像;
(54)判断矩形检测窗口是否滑动到当前图像的结尾处;若是,则执行步骤(55);若否,则矩形检测窗口滑动到下一个位置,再次执行步骤(53);
(55)设当前图像的宽为Wimage,高为Himage,对当前图像进行尺度变换,进行尺度变换后的图像的宽为σWimage,高为σHimage,将进行尺度变换后的图像设为当前图像;其中,0<σ<1;
(56)判断当前图像的尺寸是否小于最低门限;若当前图像的尺寸小于最低门限,则执行步骤(57);若当前图像的尺寸大于最低门限,则返回执行步骤(51);
(57)根据候选区域列表中的候选目标的个数和位置,综合判断当前帧中手部的位置;
(58)判断累积帧数是否达到单位帧数;若是,则执行步骤(59);若否,则返回执行步骤(51);
(59)统计单位帧数内,存在手部图像的帧数所占比例;并根据手部图像的帧数所占比例判断驾驶员是否正处于接打电话状态。
4.根据权利要求2所述的一种基于svm的驾驶员接打***控方法,其特征在于:步骤(34)中,所述的选择合适的有效图像子区域,具体采用以下公式实现:
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>x</mi> <mo>=</mo> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>l</mi> </msub> <mo>.</mo> <mi>x</mi> <mo>-</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>*</mo> <mn>0.6</mn> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>y</mi> <mo>=</mo> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>l</mi> </msub> <mo>.</mo> <mi>y</mi> <mo>-</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>*</mo> <mn>0.16</mn> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>=</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>*</mo> <mn>0.6</mn> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>=</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>*</mo> <mn>1.16</mn> </mtd> </mtr> </mtable> </mfenced>
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>x</mi> <mo>=</mo> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>r</mi> </msub> <mo>.</mo> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>y</mi> <mo>=</mo> <mi>p</mi> <mi>o</mi> <msub> <mi>int</mi> <mi>r</mi> </msub> <mo>.</mo> <mi>y</mi> <mo>-</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>*</mo> <mn>0.16</mn> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>=</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>*</mo> <mn>0.6</mn> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> <mi>e</mi> <mi>c</mi> <msub> <mi>t</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>.</mo> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>=</mo> <mi>r</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mo>.</mo> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>*</mo> <mn>1.16</mn> </mtd> </mtr> </mtable> </mfenced>
其中,rectleft、rectright分别表示选择的左、右耳朵附近矩形子区域,rect表示检测到的人脸位置矩形区域,pointl、pointr分别表示左眼的左边缘点和右眼的右边缘点。
5.根据权利要求3所述的一种基于svm的驾驶员接打***控方法,其特征在于:步骤(51)中,所述的计算当前图像的梯度特征,并对梯度方向角度进行校正,具体采用以下公式实现:
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>M</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>=</mo> <msqrt> <mrow> <msup> <msub> <mi>G</mi> <mi>x</mi> </msub> <mn>2</mn> </msup> <mo>+</mo> <msup> <msub> <mi>G</mi> <mi>y</mi> </msub> <mn>2</mn> </msup> </mrow> </msqrt> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;theta;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>a</mi> <mi>r</mi> <mi>c</mi> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mfrac> <msub> <mi>G</mi> <mi>y</mi> </msub> <msub> <mi>G</mi> <mi>x</mi> </msub> </mfrac> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced>
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msub> <mi>G</mi> <mi>x</mi> </msub> <mo>=</mo> <mi>f</mi> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>+</mo> <mi>f</mi> <mo>(</mo> <mi>x</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>-</mo> <mn>2</mn> <mo>*</mo> <mi>f</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mtd> </mtr> <mtr> <mtd> <msub> <mi>G</mi> <mi>y</mi> </msub> <mo>=</mo> <mi>f</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>+</mo> <mi>f</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> <mo>-</mo> <mn>2</mn> <mo>*</mo> <mi>f</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mtd> </mtr> </mtable> </mfenced>
<mrow> <mi>&amp;theta;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>&amp;theta;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;pi;</mi> </mrow> </mtd> <mtd> <mrow> <mi>&amp;theta;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;theta;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>&amp;theta;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,M(x,y)、θ(x,y)分别表示像素(x,y)处的梯度幅值和梯度方向,f(x,y)表示像素(x,y)处的灰度值;Gx表示像素(x,y)处x方向的偏导数,Gy表示像素(x,y)处y方向的偏导数。
6.根据权利要求3所述的一种基于svm的驾驶员接打***控方法,其特征在于:步骤(53)中,所述的将矩形检测窗口以一定步长在有效检测区域内滑动,判断矩形检测窗口覆盖的区域是否存在手部图像;具体采用以下顺序的步骤实现:
(531)统计每一个子窗口覆盖区域的梯度直方图;
(532)获取矩形检测窗口覆盖区域的特征向量;
(533)将矩形检测窗口覆盖区域的特征向量进行归一化处理;
(534)将矩形检测窗口覆盖区域的特征向量送入手部svm分类器,预测其所属类别;若手部svm分类器预测该特征向量属于手部图像,则将矩形检测窗口所在位置加入候选区域列表中。
CN201510013139.4A 2015-01-09 2015-01-09 一种基于svm的驾驶员接打***控方法 Active CN104573659B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510013139.4A CN104573659B (zh) 2015-01-09 2015-01-09 一种基于svm的驾驶员接打***控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510013139.4A CN104573659B (zh) 2015-01-09 2015-01-09 一种基于svm的驾驶员接打***控方法

Publications (2)

Publication Number Publication Date
CN104573659A CN104573659A (zh) 2015-04-29
CN104573659B true CN104573659B (zh) 2018-01-09

Family

ID=53089681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510013139.4A Active CN104573659B (zh) 2015-01-09 2015-01-09 一种基于svm的驾驶员接打***控方法

Country Status (1)

Country Link
CN (1) CN104573659B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104966059B (zh) * 2015-06-15 2018-04-27 安徽创世科技股份有限公司 基于智能监控***的驾驶员开车打电话检测方法
CN105469073A (zh) * 2015-12-16 2016-04-06 安徽创世科技有限公司 一种基于Kinect的驾驶员接打***控方法
CN105868690A (zh) * 2016-03-11 2016-08-17 博康智能信息技术有限公司 识别驾驶员打手机行为的方法和装置
CN106022242B (zh) * 2016-05-13 2019-05-03 哈尔滨工业大学(威海) 智能交通***中的驾驶员接打电话识别方法
CN106530730A (zh) * 2016-11-02 2017-03-22 重庆中科云丛科技有限公司 交通违规检测方法及***
CN108345819B (zh) * 2017-01-23 2020-09-15 杭州海康威视数字技术股份有限公司 一种发送报警消息的方法和装置
CN108509902B (zh) * 2018-03-30 2020-07-03 湖北文理学院 一种驾驶员行车过程中手持电话通话行为检测方法
CN110956060A (zh) * 2018-09-27 2020-04-03 北京市商汤科技开发有限公司 动作识别、驾驶动作分析方法和装置及电子设备
CN110309764B (zh) * 2019-06-27 2021-06-01 浙江工业大学 一种基于深度学习的多阶段驾驶员打电话行为检测方法
CN111523380B (zh) * 2020-03-11 2023-06-30 浙江工业大学 一种基于人脸和姿态识别的口罩佩戴情况监测方法
CN111553217A (zh) * 2020-04-20 2020-08-18 哈尔滨工程大学 一种驾驶员打***测方法与***
CN112487990A (zh) * 2020-12-02 2021-03-12 重庆邮电大学 一种基于dsp的驾驶员打电话行为检测方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567743A (zh) * 2011-12-20 2012-07-11 东南大学 基于视频图像的驾驶员姿态自动识别方法
CN102592143A (zh) * 2012-01-09 2012-07-18 清华大学 一种驾驶员行车中手持电话违规行为检测方法
CN103129492A (zh) * 2013-03-01 2013-06-05 公安部第三研究所 车载智能多媒体终端装置
CN103279750A (zh) * 2013-06-14 2013-09-04 清华大学 基于肤色范围的驾驶员手持电话行为检测方法
CN103366506A (zh) * 2013-06-27 2013-10-23 北京理工大学 一种驾驶员行车途中接打手机行为的自动监控装置及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8315617B2 (en) * 2009-10-31 2012-11-20 Btpatent Llc Controlling mobile device functions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567743A (zh) * 2011-12-20 2012-07-11 东南大学 基于视频图像的驾驶员姿态自动识别方法
CN102592143A (zh) * 2012-01-09 2012-07-18 清华大学 一种驾驶员行车中手持电话违规行为检测方法
CN103129492A (zh) * 2013-03-01 2013-06-05 公安部第三研究所 车载智能多媒体终端装置
CN103279750A (zh) * 2013-06-14 2013-09-04 清华大学 基于肤色范围的驾驶员手持电话行为检测方法
CN103366506A (zh) * 2013-06-27 2013-10-23 北京理工大学 一种驾驶员行车途中接打手机行为的自动监控装置及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"面向智能驾驶行为的机器学习";陈雪梅 等;《道路交通与安全》;20141231;第14卷(第6期);第60-64页 *

Also Published As

Publication number Publication date
CN104573659A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
CN104573659B (zh) 一种基于svm的驾驶员接打***控方法
CN109359536B (zh) 基于机器视觉的乘客行为监控方法
CN110728225B (zh) 一种用于考勤的高速人脸搜索方法
CN106874894A (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN110298265A (zh) 一种基于yolo神经网络的电梯中特定目标检测方法
CN107292870A (zh) 基于图像对齐与检测网络模型的轨道塞钉故障检测方法与***
CN103324937A (zh) 标注目标的方法和装置
CN103390164A (zh) 基于深度图像的对象检测方法及其实现装置
CN107273852A (zh) 基于机器视觉的手扶电梯楼层板物件及乘客行为检测算法
CN108364466A (zh) 一种基于无人机交通视频的车流量统计方法
CN107909027A (zh) 一种具有遮挡处理的快速人体目标检测方法
CN110197166A (zh) 一种基于图像识别的车体装载状态识别装置及方法
CN104637058A (zh) 一种基于图像信息的客流量识别统计方法
CN107491715A (zh) 一种基于视频分析的地铁车厢客流统计方法、装置及***
CN108038424A (zh) 一种适用于高空作业的视觉自动化检测方法
CN111460924B (zh) 一种基于目标检测的闸机通过逃票行为检测方法
CN103632427A (zh) 一种道闸防砸方法及道闸控制***
CN109829382A (zh) 基于行为特征智能分析的异常目标预警追踪***及方法
CN112488042B (zh) 一种基于视频分析的行人通行瓶颈判别方法及***
CN111523415A (zh) 一种基于图像的两客一危车辆检测方法和装置
CN109543617A (zh) 基于yolo目标检测技术的智能车辆运动路况信息的检测方法
CN106682600A (zh) 一种目标检测方法及终端
CN107506753A (zh) 一种面向动态视频监控的多车辆跟踪方法
CN106384089A (zh) 基于终生学习的人体可靠检测方法
CN109033964A (zh) 一种判断车辆到离港事件的方法、***及设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant