CN112347891A - 基于视觉的舱内喝水状态检测算法 - Google Patents
基于视觉的舱内喝水状态检测算法 Download PDFInfo
- Publication number
- CN112347891A CN112347891A CN202011192152.8A CN202011192152A CN112347891A CN 112347891 A CN112347891 A CN 112347891A CN 202011192152 A CN202011192152 A CN 202011192152A CN 112347891 A CN112347891 A CN 112347891A
- Authority
- CN
- China
- Prior art keywords
- driver
- drinking
- key point
- detection
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于视觉的舱内喝水状态检测算法,包括步骤:采集不同光照条件下不同视角的舱内遗落物品的图像,并对图像进行标注,将标注好的图像分为训练集、测试集和验证集;判断车辆是否启动,拍摄驾驶员得到驾驶员图像;基于人体上肢关键点检测器检测判断驾驶员的状态,若检测到驾驶员单手离开方向盘则基于喝水检测器判断驾驶员是否在喝水,如果驾驶员在喝水则判断图像中是否存在喝水容器;基于精细分类器对喝水容器进行分类,判断为敞口容器或吸管杯;若喝水容器为敞口容器,则基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线,基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线。
Description
技术领域
本发明涉及基于视觉的舱内喝水状态检测算法,属于智能座舱技术领域。
背景技术
近几年随着计算机软硬件能力的不断提升,以及人们对驾驶安全的需求提升,舱内监控技术收到了学术界和工业界广泛的关注。喝水状态分析也是其中一项重要的任务,其可以有效保护司机的行车安全。其主要作用是检测舱内司机喝水的状态,并且在影响安全行车时进行报警。
以往喝水状态检测往往是仅仅检测司机是否喝水,一旦喝水就进行报警,这种方式往往不合乎情理。调查显示,不光喝水状态对行车安全有极大影响,喝水前的准备工作,例如开易拉罐行为,需要双手离开方向盘,才能将易拉罐打开,导致车辆在数秒内处于无法控制状态。如果司机以120公里/小时的车速行驶时,每秒的行进路程达33米左右。假设打开易拉罐用时1.5秒,此时车辆就将行驶50余米,而这些路程都是在无操作时完成的,极度危害公共安全。研究表明,使用吸管喝水时,眼睛依旧能平视前方,这对于行车安全有很大的保障。如果仅仅检测喝水状态,不能保证喝水的准备状态对行车是否造成影响,也不能判断喝水是否影响行车安全。
为了克服以上问题,利用人体关键点检测方法判断司机是否双手脱离方向盘,如果双手脱离方向盘及时进行报警,后使用喝水检测算法,检测出司机是否在喝水,并使用深度神经网络对水杯进行区分,再根据人脸关键点检测算法,计算人脸俯仰角,针对俯仰角较大的喝水状态进行报警。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供基于视觉的舱内喝水状态检测算法,利用人体关键点检测方法判断司机是否双手脱离方向盘,如果双手脱离方向盘及时进行报警,后使用喝水检测算法,检测出司机是否在喝水,并使用深度神经网络对水杯进行区分,再根据人脸关键点检测算法,计算人脸俯仰角,针对俯仰角较大的喝水状态进行报警。
为达到上述目的,本发明提供基于视觉的舱内喝水状态检测算法,包括以下步骤:
1)多次采集不同光照条件下不同视角的舱内遗落物品的图像,并对图像进行标注,将标注好的图像分为训练集、测试集和验证集;
2)判断车辆是否启动,拍摄驾驶员得到驾驶员图像;
3)基于人体上肢关键点检测器检测判断驾驶员的状态,若检测到驾驶员单手离开方向盘则进入步骤4),否则重复拍摄驾驶员得到驾驶员图像;
4)基于喝水检测器判断驾驶员是否在喝水,如果驾驶员在喝水则判断图像中是否存在喝水容器;基于精细分类器对喝水容器进行分类,判断为敞口容器或吸管杯;
5)若喝水容器为吸管杯则不报警;若喝水容器为敞口容器,则基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线,基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线。
优先地,基于人体上肢关键点检测判断驾驶员的状态,若驾驶员的手没有离开方向盘则不报警,若驾驶员双手离开方向盘则进行报警。
优先地, 步骤1)中,
人体上肢关键点检测器的训练包括以下步骤:
①对驾驶员图像进行标注,标注出人体上肢节点,将驾驶员图像随机划分为人体上肢关键点检测器训练集、人体上肢关键点检测器验证集和人体上肢关键点检测器测试集;
②设定Hourglass神经网络,将训练集送入Hourglass神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人体上肢关键点位置,利用回流数据进行网络迭代优化,回流数据包括人体上肢关键点位置误检的测试和人体上肢关键点位置漏检的测试。
优先地,喝水检测器的训练包括以下步骤:
①对同视角的舱内遗落物品的图像进行标注,标注喝水状态下的喝水容器位置,喝水容器位置包括左上角坐标和右下角坐标,将同视角的舱内遗落物品的图像随机划分为喝水检测器训练集,喝水检测器验证集以及喝水检测器测试集;
②设定ResNet检测神经网络,将训练集送入ResNet检测神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人脸检测是否准确,利用回流数据进行网络迭代优化,回流数据包括人脸检测误检的测试和人脸检测漏检的测试。
优先地,精细分类器的训练包括以下步骤:
①对驾驶员图像中检测框结果进行挖取并进行标注,分为敞口容器和吸管杯,将驾驶员图像随机划分为精细分类器训练集、精细分类器验证集以及精细分类器测试集;
②设定ShuffleNet分类神经网络,将训练集送入ShuffleNet分类神经网络进行迭代训练,在验证集上验证;
③在测试集上测试杯型分类是否正确,利用回流数据进行网络迭代优化,回流数据包括杯型分类误检的测试和杯型分类漏检的测试。
优先地,人脸关键点检测器的训练包括以下步骤:
①对驾驶员图像进行标注,标注人脸68点关键点坐标;
②设定ResNet回归神经网络,将训练集送入ResNet回归神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人脸关键点位置是否正确,利用回流数据进行网络迭代优化,回流数据包括人脸关键点位置误检的测试和人脸关键点位置漏检的测试。
优先地,人体上肢节点包括左手手腕、右手手腕、左手肘、右手肘,左肩部和右肩部。
优先地,人体上肢关键点检测器训练集占驾驶员图像数量的80%,人体上肢关键点检测器验证集占驾驶员图像数量的10%,人体上肢关键点检测器测试集占驾驶员图像数量的10%。
优先地,喝水检测器训练集占同视角的舱内遗落物品的图像总量的80%,喝水检测器验证集占同视角的舱内遗落物品的图像总量的10%,喝水检测器测试集占同视角的舱内遗落物品的图像总量的10%。
优先地,精细分类器训练集占驾驶员图的80%,精细分类器验证集占驾驶员图的10%,精细分类器测试集占驾驶员图的10%。
本发明所达到的有益效果:
本发明利用人体关键点检测对司机行车状态进行分析后,利用喝水检测算法对喝水状态进行分析,后利用精细分类算法和人脸关键点检测算法进行分析,只针对对行车安全有影响的状态进行报警。基于我们的方案,喝水检测的精度和驾驶员注意力召回率上均有所提升,促使驾驶员的驾驶车辆时集中注意力,提高了驾驶过程中的安全性。
附图说明
图1是本发明方法的流程图。
具体实施方式
以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
基于视觉的舱内喝水状态检测算法,包括以下步骤:
1)多次采集不同光照条件下不同视角的舱内遗落物品的图像,并对图像进行标注,将标注好的图像分为训练集、测试集和验证集;
2)判断车辆是否启动,拍摄驾驶员得到驾驶员图像;
3)基于人体上肢关键点检测器检测判断驾驶员的状态,若检测到驾驶员单手离开方向盘则进入步骤4),否则重复拍摄驾驶员得到驾驶员图像;
4)基于喝水检测器判断驾驶员是否在喝水,如果驾驶员在喝水则判断图像中是否存在喝水容器;基于精细分类器对喝水容器进行分类,判断为敞口容器或吸管杯;
5)若喝水容器为吸管杯则不报警;若喝水容器为敞口容器,则基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线,基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线。
进一步地,基于人体上肢关键点检测判断驾驶员的状态,若驾驶员的手没有离开方向盘则不报警,若驾驶员双手离开方向盘则进行报警。
进一步地, 步骤1)中,
人体上肢关键点检测器的训练包括以下步骤:
①对驾驶员图像进行标注,标注出人体上肢节点,将驾驶员图像随机划分为人体上肢关键点检测器训练集、人体上肢关键点检测器验证集和人体上肢关键点检测器测试集;
②设定Hourglass神经网络,将训练集送入Hourglass神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人体上肢关键点位置,利用回流数据进行网络迭代优化,回流数据包括人体上肢关键点位置误检的测试和人体上肢关键点位置漏检的测试。
进一步地,喝水检测器的训练包括以下步骤:
①对同视角的舱内遗落物品的图像进行标注,标注喝水状态下的喝水容器位置,喝水容器位置包括左上角坐标和右下角坐标,将同视角的舱内遗落物品的图像随机划分为喝水检测器训练集,喝水检测器验证集以及喝水检测器测试集;
②设定ResNet检测神经网络,将训练集送入ResNet检测神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人脸检测是否准确,利用回流数据进行网络迭代优化,回流数据包括人脸检测误检的测试和人脸检测漏检的测试。
进一步地,精细分类器的训练包括以下步骤:
①对驾驶员图像中检测框结果进行挖取并进行标注,分为敞口容器和吸管杯,将驾驶员图像随机划分为精细分类器训练集、精细分类器验证集以及精细分类器测试集;
②设定ShuffleNet分类神经网络,将训练集送入ShuffleNet分类神经网络进行迭代训练,在验证集上验证;
③在测试集上测试杯型分类是否正确,利用回流数据进行网络迭代优化,回流数据包括杯型分类误检的测试和杯型分类漏检的测试。
进一步地,人脸关键点检测器的训练包括以下步骤:
①对驾驶员图像进行标注,标注人脸68点关键点坐标;
②设定ResNet回归神经网络,将训练集送入ResNet回归神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人脸关键点位置是否正确,利用回流数据进行网络迭代优化,回流数据包括人脸关键点位置误检的测试和人脸关键点位置漏检的测试。
进一步地,人体上肢节点包括左手手腕、右手手腕、左手肘、右手肘,左肩部和右肩部。
进一步地,人体上肢关键点检测器训练集占驾驶员图像数量的80%,人体上肢关键点检测器验证集占驾驶员图像数量的10%,人体上肢关键点检测器测试集占驾驶员图像数量的10%。
进一步地,喝水检测器训练集占同视角的舱内遗落物品的图像总量的80%,喝水检测器验证集占同视角的舱内遗落物品的图像总量的10%,喝水检测器测试集占同视角的舱内遗落物品的图像总量的10%。
进一步地,精细分类器训练集占驾驶员图的80%,精细分类器验证集占驾驶员图的10%,精细分类器测试集占驾驶员图的10%。
本实施例中,可以通过拍摄中控台的图像,检测中控台的图像中车速转表来判断车辆是否启动;或者在车上设置速度传感器来检测车辆是否启动。
训练集用于模型训练,验证集确定网络结构或者控制模型复杂程度的参数,测试集检验最终选择最优的模型的性能如何。人脸68点关键点坐标属于现有技术中常用的坐标,本实施例中不一一举例。
摄像头部件在现有技术中可采用的型号很多,本领域技术人员可根据实际需求选用合适的型号,本实施例不再一一举例。
深度神经网络,深度神经网络英文为Deep Neural Networks,缩写为DNN。深度神经网络是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性***提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。深度神经网络是一种判别模型,可以使用反向传播算法进行训练。
本发明基于部署于舱内的嵌入式平台例如平板电脑或者利用通讯模块发送到云端进行处理。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (10)
1.基于视觉的舱内喝水状态检测算法,其特征在于,包括以下步骤:
1)多次采集不同光照条件下不同视角的舱内遗落物品的图像,并对图像进行标注,将标注好的图像分为训练集、测试集和验证集;
2)判断车辆是否启动,拍摄驾驶员得到驾驶员图像;
3)基于人体上肢关键点检测器检测判断驾驶员的状态,若检测到驾驶员单手离开方向盘则进入步骤4),否则重复拍摄驾驶员得到驾驶员图像;
4)基于喝水检测器判断驾驶员是否在喝水,如果驾驶员在喝水则判断图像中是否存在喝水容器;基于精细分类器对喝水容器进行分类,判断为敞口容器或吸管杯;
5)若喝水容器为吸管杯则不报警;若喝水容器为敞口容器,则基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线,基于人脸关键点检测来判断司机头部俯仰角度判断是否影响视线。
2.根据权利要求1所述的基于视觉的舱内喝水状态检测算法,其特征在于,基于人体上肢关键点检测判断驾驶员的状态,若驾驶员的手没有离开方向盘则不报警,若驾驶员双手离开方向盘则进行报警。
3.根据权利要求1所述的基于视觉的舱内喝水状态检测算法,其特征在于, 步骤1)中,
人体上肢关键点检测器的训练包括以下步骤:
①对驾驶员图像进行标注,标注出人体上肢节点,将驾驶员图像随机划分为人体上肢关键点检测器训练集、人体上肢关键点检测器验证集和人体上肢关键点检测器测试集;
②设定Hourglass神经网络,将训练集送入Hourglass神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人体上肢关键点位置,利用回流数据进行网络迭代优化,回流数据包括人体上肢关键点位置误检的测试和人体上肢关键点位置漏检的测试。
4.根据权利要求1所述的基于视觉的舱内喝水状态检测算法,其特征在于,喝水检测器的训练包括以下步骤:
①对同视角的舱内遗落物品的图像进行标注,标注喝水状态下的喝水容器位置,喝水容器位置包括左上角坐标和右下角坐标,将同视角的舱内遗落物品的图像随机划分为喝水检测器训练集,喝水检测器验证集以及喝水检测器测试集;
②设定ResNet检测神经网络,将训练集送入ResNet检测神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人脸检测是否准确,利用回流数据进行网络迭代优化,回流数据包括人脸检测误检的测试和人脸检测漏检的测试。
5.根据权利要求1所述的基于视觉的舱内喝水状态检测算法,其特征在于,精细分类器的训练包括以下步骤:
①对驾驶员图像中检测框结果进行挖取并进行标注,分为敞口容器和吸管杯,将驾驶员图像随机划分为精细分类器训练集、精细分类器验证集以及精细分类器测试集;
②设定ShuffleNet分类神经网络,将训练集送入ShuffleNet分类神经网络进行迭代训练,在验证集上验证;
③在测试集上测试杯型分类是否正确,利用回流数据进行网络迭代优化,回流数据包括杯型分类误检的测试和杯型分类漏检的测试。
6.根据权利要求1所述的基于视觉的舱内喝水状态检测算法,其特征在于,人脸关键点检测器的训练包括以下步骤:
①对驾驶员图像进行标注,标注人脸68点关键点坐标;
②设定ResNet回归神经网络,将训练集送入ResNet回归神经网络进行迭代训练,在验证集上验证;
③在测试集上测试人脸关键点位置是否正确,利用回流数据进行网络迭代优化,回流数据包括人脸关键点位置误检的测试和人脸关键点位置漏检的测试。
7.根据权利要求3所述的基于视觉的舱内喝水状态检测算法,其特征在于,人体上肢节点包括左手手腕、右手手腕、左手肘、右手肘,左肩部和右肩部。
8.根据权利要求3所述的基于视觉的舱内喝水状态检测算法,其特征在于,人体上肢关键点检测器训练集占驾驶员图像数量的80%,人体上肢关键点检测器验证集占驾驶员图像数量的10%,人体上肢关键点检测器测试集占驾驶员图像数量的10%。
9.根据权利要求4所述的基于视觉的舱内喝水状态检测算法,其特征在于,喝水检测器训练集占同视角的舱内遗落物品的图像总量的80%,喝水检测器验证集占同视角的舱内遗落物品的图像总量的10%,喝水检测器测试集占同视角的舱内遗落物品的图像总量的10%。
10.根据权利要求5所述的基于视觉的舱内喝水状态检测算法,其特征在于,精细分类器训练集占驾驶员图的80%,精细分类器验证集占驾驶员图的10%,精细分类器测试集占驾驶员图的10%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011192152.8A CN112347891B (zh) | 2020-10-30 | 2020-10-30 | 基于视觉的舱内喝水状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011192152.8A CN112347891B (zh) | 2020-10-30 | 2020-10-30 | 基于视觉的舱内喝水状态检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112347891A true CN112347891A (zh) | 2021-02-09 |
CN112347891B CN112347891B (zh) | 2022-02-22 |
Family
ID=74356211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011192152.8A Active CN112347891B (zh) | 2020-10-30 | 2020-10-30 | 基于视觉的舱内喝水状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112347891B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180201276A1 (en) * | 2017-01-18 | 2018-07-19 | Toyota Jidosha Kabushiki Kaisha | Driver condition detection system |
US20180326992A1 (en) * | 2017-05-09 | 2018-11-15 | Omron Corporation | Driver monitoring apparatus and driver monitoring method |
CN109937152A (zh) * | 2017-08-10 | 2019-06-25 | 北京市商汤科技开发有限公司 | 驾驶状态监测方法和装置、驾驶员监控***、车辆 |
CN110119676A (zh) * | 2019-03-28 | 2019-08-13 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
CN110309723A (zh) * | 2019-06-04 | 2019-10-08 | 东南大学 | 一种基于人体特征细分类的驾驶员行为识别方法 |
CN111222477A (zh) * | 2020-01-10 | 2020-06-02 | 厦门瑞为信息技术有限公司 | 一种基于视觉的双手离开方向盘检测方法及装置 |
CN111661059A (zh) * | 2019-03-08 | 2020-09-15 | 虹软科技股份有限公司 | 分心驾驶监测方法、***及电子设备 |
-
2020
- 2020-10-30 CN CN202011192152.8A patent/CN112347891B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180201276A1 (en) * | 2017-01-18 | 2018-07-19 | Toyota Jidosha Kabushiki Kaisha | Driver condition detection system |
US20180326992A1 (en) * | 2017-05-09 | 2018-11-15 | Omron Corporation | Driver monitoring apparatus and driver monitoring method |
CN109937152A (zh) * | 2017-08-10 | 2019-06-25 | 北京市商汤科技开发有限公司 | 驾驶状态监测方法和装置、驾驶员监控***、车辆 |
CN111661059A (zh) * | 2019-03-08 | 2020-09-15 | 虹软科技股份有限公司 | 分心驾驶监测方法、***及电子设备 |
CN110119676A (zh) * | 2019-03-28 | 2019-08-13 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
CN110309723A (zh) * | 2019-06-04 | 2019-10-08 | 东南大学 | 一种基于人体特征细分类的驾驶员行为识别方法 |
CN111222477A (zh) * | 2020-01-10 | 2020-06-02 | 厦门瑞为信息技术有限公司 | 一种基于视觉的双手离开方向盘检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112347891B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919049A (zh) | 基于深度学习人脸姿态估计的疲劳检测方法 | |
CN100462047C (zh) | 基于全方位计算机视觉的安全驾驶辅助装置 | |
CN104794855B (zh) | 驾驶员注意力综合评估装置 | |
CN105151049B (zh) | 基于驾驶员脸部特征和车道偏离检测的预警*** | |
CN104637246B (zh) | 一种驾驶员多种行为预警***及危险评估方法 | |
Tipprasert et al. | A method of driver’s eyes closure and yawning detection for drowsiness analysis by infrared camera | |
CN105286802B (zh) | 基于视频信息的驾驶员疲劳检测方法 | |
CN104598934B (zh) | 一种驾驶员吸烟行为监控方法 | |
CN107273816B (zh) | 基于车载前视单目相机的交通限速标识检测识别方法 | |
CN101587544B (zh) | 基于计算机视觉的机动车车载反跟踪装置 | |
CN104224204B (zh) | 一种基于红外检测技术的驾驶员疲劳检测*** | |
CN108537197A (zh) | 一种基于深度学习的车道线检测预警装置及预警方法 | |
CN106529496B (zh) | 一种机车乘务员实时视频疲劳检测的方法 | |
CN104573646A (zh) | 基于激光雷达和双目相机的车前行人检测方法及*** | |
CN110147738B (zh) | 一种驾驶员疲劳监测预警方法及*** | |
CN109636924A (zh) | 基于现实路况信息三维建模的车载多模式增强现实*** | |
CN105354987A (zh) | 车载型疲劳驾驶检测与身份认证装置及其检测方法 | |
CN112381870B (zh) | 一种基于双目视觉的船舶识别与航速测量***及方法 | |
CN108447303A (zh) | 基于人眼视觉与机器视觉耦合的外周视野危险识别方法 | |
CN109334563A (zh) | 一种基于道路前方行人和骑行者的防碰撞预警方法 | |
CN110103816B (zh) | 一种驾驶状态检测方法 | |
US11423673B2 (en) | Method and device for detecting state of holding steering wheel | |
CN102426757A (zh) | 基于模式识别的安全驾驶监控***和方法 | |
CN109740477A (zh) | 驾驶员疲劳检测***及其疲劳检测方法 | |
CN104881956A (zh) | 一种疲劳驾驶预警*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |