CN111724408B - 基于5g通信下异常驾驶行为算法模型的验证实验方法 - Google Patents

基于5g通信下异常驾驶行为算法模型的验证实验方法 Download PDF

Info

Publication number
CN111724408B
CN111724408B CN202010503167.5A CN202010503167A CN111724408B CN 111724408 B CN111724408 B CN 111724408B CN 202010503167 A CN202010503167 A CN 202010503167A CN 111724408 B CN111724408 B CN 111724408B
Authority
CN
China
Prior art keywords
driver
image
algorithm
data
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010503167.5A
Other languages
English (en)
Other versions
CN111724408A (zh
Inventor
徐国保
麦锐滔
叶昌鑫
姚旭
赵剪
王骥
李依潼
刘雯景
彭银桥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Ocean University
Original Assignee
Guangdong Ocean University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Ocean University filed Critical Guangdong Ocean University
Priority to CN202010503167.5A priority Critical patent/CN111724408B/zh
Publication of CN111724408A publication Critical patent/CN111724408A/zh
Application granted granted Critical
Publication of CN111724408B publication Critical patent/CN111724408B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开基于5G通信下异常驾驶行为算法模型的验证实验方法,包括以下步骤:驾驶员背景分割、识别定位驾驶员关键子区域图像、识别驾驶员的行为动作状态与时间、验证分析和实验部署;本发明先设计基于改进Mask‑RCNN的驾驶员背景图像分割算法并对驾驶员背景图像进行分割,再设计基于改进的Yolov3目标检测算法并识别出分割图像后的驾驶员关键子区域图像,然后设计应用于驾驶异常行为识别场景的CNN‑LSTM融合分类算法并让其通过输入三种图像识别出驾驶员的动作状态与时间,最后构建小车实验***并进行***的综合验证分析与实验部署,最终实现算法模型的验证实验,实用性较高,使算法模型的精度和速度都得到了保障。

Description

基于5G通信下异常驾驶行为算法模型的验证实验方法
技术领域
本发明涉及异常驾驶行为检测技术领域,尤其涉及基于5G通信下异常驾驶行为算法模型的验证实验方法。
背景技术
对驾驶员异常行为检测的算法研究,属于智能交通领域,是智能辅助驾驶的一项关键技术,此技术通过检测驾驶员异常行为并发出警告,避免交通事故的发生,有重要应用价值和社会意义,现阶段国内外诸多国家在此领域的研发都受限于异常行为自身特点,比如异常行为种类多,包括驾驶员长时间闭眼、打哈欠、揉眼和点头等疲劳行为,不正当驾驶行为类别复杂,包括打电话、吃零食、抽烟、左顾右盼等,由于驾驶员绝大部分时间行为正常,因此异常行为出现次数一般较少,导致数据采集较难,所以需要可靠的算法模型对驾驶员异常行为进行检测;
而目前针对驾驶员异常行为检测而提出的一些驾驶员异常行为识别分类算法大都没有经过有效且可靠的验证分析和实验部署,导致其算法模型的精度和速度都无法保证,且综合性能和实用性也无法确定,因此,本发明提出基于5G通信下异常驾驶行为算法模型的验证实验方法以解决现有技术中存在的问题。
发明内容
针对上述问题,本发明的目的在于提出基于5G通信下异常驾驶行为算法模型的验证实验方法,该方法先验证分析最终算法模型的精度与速度,再对模型进行合理调参和剪枝,然后在服务器部署深度学习环境和框架并开发后台管理***,最后基于5G通信进行车载与服务器实验的部署,方法简单可靠,具有较高的实用性。
为了实现本发明的目的,本发明通过以下技术方案实现:基于5G通信下异常驾驶行为算法模型的验证实验方法,包括以下步骤:
步骤一:驾驶员背景分割
在复杂的车内驾驶环境中,考虑到不同光照以及不同人物的情况下,先在数据增强的基础上对驾驶环境数据进行实时采集,再对采集到的驾驶环境数据进行预处理,然后将预处理后的数据制作成数据集让其检测速度达到实时的要求,并专门针对在驾驶环境下的这个特定场景提高检测精度,最后设计基于改进的Mask-RCNN的驾驶员背景图像分割算法并对驾驶员背景图像进行分割;
步骤二:识别定位驾驶员关键子区域图像
根据步骤一,先采用Mask-RCNN分割后的图像作为网络输入,在考虑到对小物体检测的精度损失的前提下采用多尺度预测提高对驾驶员关键子区域图像的检测精度,并通过搭载不同的尺度、不同的搭载方式和不同数量的融合,以及结合网络结构研究其网络提取特征的特性,再通过识别精度进行网络的可行性验证,得出最适用与该场景的网络模型,然后设计基于改进的Yolov3目标检测算法并识别出分割图像后的驾驶员关键子区域图像;
步骤三:识别驾驶员的行为动作状态与时间
根据步骤二,在得到目标检测模型检测出的分割图像后的驾驶员的关键子区域图像后,先将其输入到CNN去提取出feature map,再展开为向量输入到LSTM并寻求出CNN-LSTM时空特征的最优融合结构,然后设计应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法并让其通过输入三种图像识别出驾驶员的动作状态与时间;
步骤四:验证分析
根据步骤三,先构建小车实验***,车载设备使用5G网络进行通信,并进行***的综合验证分析与实验部署,然后在测试集上对最终的算法模型进行精度上和速度上的验证,并根据结果反馈对算法模型进行合理调参或剪枝,使算法模型达到实时检测并满足所需精度的要求,以验证应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法的性能;
步骤五:实验部署
根据步骤四,先在服务器上对最终模型所需要的深度学习环境和框架进行部署,并开发后台管理***用于数据处理与统计,实现***的正常运行,接着在车内装载小型摄像头和设备使车载具有实时采集驾驶员图像并与云端进行数据传输的功能,最终实现***自动监测和识别驾驶员的行为状态,检测到驾驶员有异常驾驶行为及时语音预警提醒并记录,以完成异常驾驶行为算法模型的实验部署。
进一步改进在于:所述步骤一中,预处理包括对图像数据的翻转、平移和添加噪声,在对实时采集到的数据进行预处理前先通过对抗网络对数据进行增强,再采用精度对比和蒸馏的方法将Mask-RCNN的网络框架进行科学的枝剪。
进一步改进在于:所述步骤二中,在设计基于改进的Yolov3目标检测算法前先研究驾驶员不同区域身体状态对分类的影响并寻找关键子区域,然后建立识别并定位驾驶员关键子区域模型,最后设计基于改进的Yolov3关键子区域定位和识别算法。
进一步改进在于:所述步骤三中,在得到目标检测模型检测出的分割图像后的驾驶员的关键子区域图像后先研究驾驶员的行为动作状态与时间的关系和时空特征融合机理,用以得到CNN-LSTM时空特征的最优融合结构。
进一步改进在于:所述步骤四中,小车实验***用于接收摄像头采集的视频图像并将接收到的数据传输到服务器上,同时用于检测出异常驾驶行为并对驾驶员进行语音提醒和数据记录。
进一步改进在于:所述步骤五中,车内装载的小型摄像头和设备均使用高速度、大容量和低延时的5G通信网络进行数据传输,以满足车内高清视频的传输。
本发明的有益效果为:本发明在自我采集数据集的基础上,充分利用网上开源的数据集,并结合传统图像处理进行图像翻转、平移和添加噪声等操作增加数据集,同时使用生成对抗网络进行图像增强,增加数据集,基于去除背景干扰的机理,建立从复杂背景分割出驾驶员的方法模型,借鉴高精度的Mask-RCNN开源分割算法思想,修改网络结构,以适应驾驶室场景用于分割驾驶员图像,在此基础上,建立识别并定位驾驶员关键子区域模型,研究关键子区域对异常驾驶结果的影响比重并提出基于改进的Yolov3目标检测算法去识别出分割图像后的驾驶员的关键子区域图像,还进一步研究驾驶员的行为动作状态与时间的关系,寻求CNN-LSTM时空特征的最优融合结构,设计一种应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法,让其通过输入三种图像识别出驾驶员的状态,最后构建小车实验***,使用5G网络进行通信和数据传输,并进行***的综合验证分析与实验部署,最终实现***自动监测和识别驾驶员的行为状态,检测到有异常驾驶行为及时语音预警提醒并记录,实用性较高,使算法模型的精度和速度都得到了保障,另外也确定了其综合性能,便于推广。
附图说明
图1是本发明的步骤流程图;
图2是本发明的技术路线图;
图3是本发明的实验方案流程图。
具体实施方式
为了加深对本发明的理解,下面将结合实施例对本发明做进一步详述,本实施例仅用于解释本发明,并不构成对本发明保护范围的限定。
根据图1、2、3所示,本实施例提供了基于5G通信下异常驾驶行为算法模型的验证实验方法,包括以下步骤:
步骤一:驾驶员背景分割
在复杂的车内驾驶环境中,考虑到不同光照以及不同人物的情况下,先在通过对抗网络将数据增强的基础上对驾驶环境数据进行实时采集,再对采集到的驾驶环境数据进行翻转、平移和添加噪声,然后将预处理后的数据制作成数据集并采用精度对比和蒸馏等方法将Mask-RCNN的网络框架进行科学的枝剪,让其的检测速度达到实时的要求,并专门针对在驾驶环境下的这个特定场景提高检测精度,最后设计基于改进的Mask-RCNN的驾驶员背景图像分割算法并对驾驶员背景图像进行分割;
步骤二:识别定位驾驶员关键子区域图像
根据步骤一,先采用Mask-RCNN分割后的图像作为网络输入,在考虑到对小物体检测的精度损失的前提下采用多尺度预测提高对驾驶员关键子区域图像的检测精度,并通过搭载不同的尺度、不同的搭载方式和不同数量的融合,以及结合网络结构研究其网络提取特征的特性,再通过识别精度进行网络的可行性验证,得出最适用与该场景的网络模型,接着研究驾驶员不同区域身体状态对分类的影响并寻找关键子区域,然后建立识别并定位驾驶员关键子区域图像模型,最后设计基于改进的Yolov3目标检测算法并识别出分割图像后的驾驶员的关键子区域图像;
步骤三:识别驾驶员的行为动作状态与时间
根据步骤二,在得到目标检测模型检测出的分割图像后的驾驶员的关键子区域图像后研究驾驶员的行为动作状态与时间的关系和时空特征融合机理,先将其输入到CNN去提取出feature map,再展开为向量输入到LSTM并寻求出CNN-LSTM时空特征的最优融合结构,然后设计应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法并让其通过输入三种图像识别出驾驶员的动作状态与时间;
步骤四:验证分析
根据步骤三,先构建用于接收摄像头采集的视频图像并将接收到的数据传输到服务器上的小车实验***,同时通过小车实验***检测出异常驾驶行为并对驾驶员进行语音提醒和数据记录,车载设备使用5G网络进行通信,并进行***的综合验证分析与实验部署,然后在测试集上对最终的算法模型进行精度上和速度上的验证,并根据结果反馈对算法模型进行合理调参或剪枝,使算法模型达到实时检测并满足所需精度的要求,以验证应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法的性能;
步骤五:实验部署
根据步骤四,先在服务器上对最终模型所需要的深度学习环境和框架进行部署,并开发后台管理***用于数据处理与统计,实现***的正常运行,接着在车内装载小型摄像头和设备,并使用高速度、大容量和低延时的5G通信网络,满足车内高清视频的传输,使车载具有实时采集驾驶员图像并与云端进行数据传输的功能,最终实现***自动监测和识别驾驶员的行为状态,检测到驾驶员有异常驾驶行为及时语音预警提醒并记录,以完成异常驾驶行为算法模型的实验部署。
该基于5G通信下异常驾驶行为算法模型的验证实验方法在自我采集数据集的基础上,充分利用网上开源的数据集,并结合传统图像处理进行图像翻转、平移和添加噪声等操作增加数据集,同时使用生成对抗网络进行图像增强,增加数据集,基于去除背景干扰的机理,建立从复杂背景分割出驾驶员的方法模型,借鉴高精度的Mask-RCNN开源分割算法思想,修改网络结构,以适应驾驶室场景用于分割驾驶员图像,在此基础上,建立识别并定位驾驶员关键子区域模型,研究关键子区域对异常驾驶结果的影响比重并提出基于改进的Yolov3目标检测算法去识别出分割图像后的驾驶员的关键子区域图像,还进一步研究驾驶员的行为动作状态与时间的关系,寻求CNN-LSTM时空特征的最优融合结构,设计一种应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法,让其通过输入三种图像识别出驾驶员的状态,最后构建小车实验***,使用5G网络进行通信和数据传输,并进行***的综合验证分析与实验部署,最终实现***自动监测和识别驾驶员的行为状态,检测到有异常驾驶行为及时语音预警提醒并记录,实用性较高,使算法模型的精度和速度都得到了保障,另外也确定了其综合性能,便于推广。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (4)

1.基于5G通信下异常驾驶行为算法模型的验证实验方法,其特征在于:包括以下步骤:
步骤一:驾驶员背景分割
在复杂的车内驾驶环境中,考虑到不同光照以及不同人物的情况下,先在数据增强的基础上对驾驶环境数据进行实时采集,再对采集到的驾驶环境数据进行预处理,然后将预处理后的数据制作成数据集让其检测速度达到实时的要求,并专门针对在驾驶环境下的这个特定场景提高检测精度,最后设计基于改进的Mask-RCNN的驾驶员背景图像分割算法并对驾驶员背景图像进行分割;
步骤二:识别定位驾驶员关键子区域图像
根据步骤一,先采用Mask-RCNN分割后的图像作为网络输入,在考虑到对小物体检测的精度损失的前提下采用多尺度预测提高对驾驶员关键子区域图像的检测精度,并通过搭载不同的尺度、不同的搭载方式和不同数量的融合,以及结合网络结构研究其网络提取特征的特性,再通过识别精度进行网络的可行性验证,得出最适用与该场景的网络模型,然后设计基于改进的Yolov3目标检测算法并识别出分割图像后的驾驶员关键子区域图像;
步骤三:识别驾驶员的行为动作状态与时间
根据步骤二,在得到目标检测模型检测出的分割图像后的驾驶员的关键子区域图像后,先将其输入到CNN去提取出featuremap,再展开为向量输入到LSTM并寻求出CNN-LSTM时空特征的最优融合结构,然后设计应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法并让其通过输入三种图像识别出驾驶员的动作状态与时间;
步骤四:验证分析
根据步骤三,先构建小车实验***,车载设备使用5G网络进行通信,并进行***的综合验证分析与实验部署,然后在测试集上对最终的算法模型进行精度上和速度上的验证,并根据结果反馈对算法模型进行合理调参或剪枝,使算法模型达到实时检测并满足所需精度的要求,以验证应用于驾驶异常行为识别场景的CNN-LSTM融合分类算法的性能;
步骤五:实验部署
根据步骤四,先在服务器上对最终模型所需要的深度学习环境和框架进行部署,并开发后台管理***用于数据处理与统计,实现***的正常运行,接着在车内装载小型摄像头和设备使车载具有实时采集驾驶员图像并与云端进行数据传输的功能,最终实现***自动监测和识别驾驶员的行为状态,检测到驾驶员有异常驾驶行为及时语音预警提醒并记录,以完成异常驾驶行为算法模型的实验部署;
所述步骤一中,预处理包括对图像数据的翻转、平移和添加噪声,在对实时采集到的数据进行预处理前先通过对抗网络对数据进行增强,再采用精度对比和蒸馏的方法将Mask-RCNN的网络框架进行科学的枝剪;
所述步骤二中,在设计基于改进的Yolov3目标检测算法前先研究驾驶员不同区域身体状态对分类的影响并寻找关键子区域,然后建立识别并定位驾驶员关键子区域模型,最后设计基于改进的Yolov3关键子区域定位和识别算法。
2.根据权利要求1所述的基于5G通信下异常驾驶行为算法模型的验证实验方法,其特征在于:所述步骤三中,在得到目标检测模型检测出的分割图像后的驾驶员的关键子区域图像后先研究驾驶员的行为动作状态与时间的关系和时空特征融合机理,用以得到CNN-LSTM时空特征的最优融合结构。
3.根据权利要求1所述的基于5G通信下异常驾驶行为算法模型的验证实验方法,其特征在于:所述步骤四中,小车实验***用于接收摄像头采集的视频图像并将接收到的数据传输到服务器上,同时用于检测出异常驾驶行为并对驾驶员进行语音提醒和数据记录。
4.根据权利要求1所述的基于5G通信下异常驾驶行为算法模型的验证实验方法,其特征在于:所述步骤五中,车内装载的小型摄像头和设备均使用高速度、大容量和低延时的5G通信网络进行数据传输,以满足车内高清视频的传输。
CN202010503167.5A 2020-06-05 2020-06-05 基于5g通信下异常驾驶行为算法模型的验证实验方法 Active CN111724408B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010503167.5A CN111724408B (zh) 2020-06-05 2020-06-05 基于5g通信下异常驾驶行为算法模型的验证实验方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010503167.5A CN111724408B (zh) 2020-06-05 2020-06-05 基于5g通信下异常驾驶行为算法模型的验证实验方法

Publications (2)

Publication Number Publication Date
CN111724408A CN111724408A (zh) 2020-09-29
CN111724408B true CN111724408B (zh) 2021-09-03

Family

ID=72565898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010503167.5A Active CN111724408B (zh) 2020-06-05 2020-06-05 基于5g通信下异常驾驶行为算法模型的验证实验方法

Country Status (1)

Country Link
CN (1) CN111724408B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560649A (zh) * 2020-12-09 2021-03-26 广州云从鼎望科技有限公司 一种行为动作检测方法、***、设备及介质
CN112477873B (zh) * 2020-12-15 2024-04-30 广东海洋大学 一种基于车联网的辅助驾驶和车辆安全管理***
CN113095183A (zh) * 2021-03-31 2021-07-09 西北工业大学 一种基于深度神经网络的微表情检测方法
CN113536989B (zh) * 2021-06-29 2024-06-18 广州博通信息技术有限公司 基于摄像视频逐帧分析的制冷机结霜监控方法及***
CN115134537A (zh) * 2022-01-18 2022-09-30 长城汽车股份有限公司 一种图像处理方法、装置及车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318237A (zh) * 2014-10-28 2015-01-28 厦门大学 基于人脸识别的疲劳驾驶预警方法
CN105336105A (zh) * 2015-11-30 2016-02-17 宁波力芯科信息科技有限公司 一种预防疲劳驾驶的方法、智能设备及***
CN105769120A (zh) * 2016-01-27 2016-07-20 深圳地平线机器人科技有限公司 疲劳驾驶检测方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592785B2 (en) * 2017-07-12 2020-03-17 Futurewei Technologies, Inc. Integrated system for detection of driver condition
CN109215292A (zh) * 2018-08-10 2019-01-15 珠海研果科技有限公司 一种疲劳驾驶辅助方法及***
CN209471477U (zh) * 2019-02-25 2019-10-08 湖南远眸科技有限公司 一种基于5g边缘云网络的疲劳驾驶实时预警干预***
CN109977930B (zh) * 2019-04-29 2021-04-02 中国电子信息产业集团有限公司第六研究所 疲劳驾驶检测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318237A (zh) * 2014-10-28 2015-01-28 厦门大学 基于人脸识别的疲劳驾驶预警方法
CN105336105A (zh) * 2015-11-30 2016-02-17 宁波力芯科信息科技有限公司 一种预防疲劳驾驶的方法、智能设备及***
CN105769120A (zh) * 2016-01-27 2016-07-20 深圳地平线机器人科技有限公司 疲劳驾驶检测方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Depth Video-based Two-stream Convolutional Neural Networks for Driver Fatigue Detection";Xiaoxi Ma et.al.;《2017 International Conference on Orange Technologies (ICOT)》;20171231;全文 *
"基于卷积循环神经网络的驾驶员疲劳检测方法研究";胡志强;《中国优秀硕士学位论文全文数据库 工程科技II辑》;20190715(第7期);文献第3-5章 *
"基于卷积神经网络的驾驶员不安全行为识别";田文洪等;《电子科技大学学报》;20190531;第48卷(第3期);全文 *

Also Published As

Publication number Publication date
CN111724408A (zh) 2020-09-29

Similar Documents

Publication Publication Date Title
CN111724408B (zh) 基于5g通信下异常驾驶行为算法模型的验证实验方法
CN109657552B (zh) 基于迁移学习实现跨场景冷启动的车型识别装置与方法
Anand et al. Crack-pot: Autonomous road crack and pothole detection
TWI430212B (zh) 利用多特徵自動集群法之異常行為偵測系統與方法
CN110795595B (zh) 基于边缘计算的视频结构化存储方法、装置、设备及介质
KR101653278B1 (ko) 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템
CN106384513B (zh) 一种基于智能交通的***捕捉***及方法
CN107578091B (zh) 一种基于轻量级深度网络的行人车辆实时检测方法
CN102164270A (zh) 具有异常事件发掘功能的智能视频监控方法及***
CN107257161A (zh) 一种基于状态识别算法的变电站刀闸遥控辅助校核方法及***
CN111310026A (zh) 一种基于人工智能的涉黄涉恐监测方法
CN106096504A (zh) 一种基于无人机机载平台的车型识别方法
CN113642474A (zh) 一种基于yolov5的危险区域人员监控方法
CN107832721B (zh) 用于输出信息的方法和装置
CN103914682A (zh) 一种车牌识别方法及***
CN113344967B (zh) 一种复杂背景下的动态目标识别追踪方法
CN110620760A (zh) 一种SVM和贝叶斯网络的FlexRay总线融合入侵检测方法和检测装置
CN116416281A (zh) 一种粮库ai视频监管分析方法及***
Katsamenis et al. A few-shot attention recurrent residual U-Net for crack segmentation
KR101547255B1 (ko) 지능형 감시 시스템의 객체기반 검색방법
CN108932503A (zh) 恶劣天气下车前障碍的识别方法及装置、存储介质、终端
CN107124577A (zh) 一种基于运动目标检测的实时防窃***
Sreedhar et al. Autotrack: a framework for query-based vehicle tracking and retrieval from CCTV footages using machine learning at the edge
CN113723258B (zh) 危险品车辆图像识别方法及其相关设备
Cempron et al. VEMON: Vision-based Vehicle Counter for Traffic Monitoring

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant