CN112193252A - 驾驶风险的预警方法、装置、计算设备及存储介质 - Google Patents
驾驶风险的预警方法、装置、计算设备及存储介质 Download PDFInfo
- Publication number
- CN112193252A CN112193252A CN202011105843.XA CN202011105843A CN112193252A CN 112193252 A CN112193252 A CN 112193252A CN 202011105843 A CN202011105843 A CN 202011105843A CN 112193252 A CN112193252 A CN 112193252A
- Authority
- CN
- China
- Prior art keywords
- dangerous
- driver
- time period
- scene
- driving behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 230000006399 behavior Effects 0.000 claims description 224
- 238000004590 computer program Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 4
- 231100001261 hazardous Toxicity 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 241000543540 Guillardia theta Species 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- ONUFESLQCSAYKA-UHFFFAOYSA-N iprodione Chemical compound O=C1N(C(=O)NC(C)C)CC(=O)N1C1=CC(Cl)=CC(Cl)=C1 ONUFESLQCSAYKA-UHFFFAOYSA-N 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0836—Inactivity or incapacity of driver due to alcohol
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供一种驾驶风险的预警方法、装置、计算设备及存储介质,该方法包括:获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,根据该对应关系和第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,准确预测出驾驶员在当前时间段内发生每一种危险场景的次数,并基于准确预测出的每一种危险场景的可能发生次数进行风险预警,进而提高驾驶风险预警的准确性,可以实现对驾驶员当前时刻的危险驾驶行为可能引起的多种危险场景进行预警。
Description
技术领域
本申请实施例涉及智能驾驶技术领域,尤其涉及一种驾驶风险的预警方法、装置、计算设备及存储介质。
背景技术
在车辆的行驶过程中,如何实现安全驾驶是每个驾驶员最关心的问题。随着计算机视觉技术的发展,计算机视觉技术在安全驾驶领域得到了广泛应用。例如,在车辆上安装摄像头,该摄像头用于实时采集驾驶员的驾驶行为,并基于驾驶员的驾驶行为进行驾驶风险预警。
目前的驾驶风险预警方法是基于驾驶员的历史驾驶行为预测驾驶员发生一种危险场景的可能性,其预警准确性低,无法对驾驶员当前的危险驾驶行为可能引起的多种危险场景进行预警。
发明内容
本申请实施例提供一种驾驶风险的预警方法、装置、计算设备及存储介质,用以提高车辆驾驶风险的预警准确性,实现对驾驶员当前的危险驾驶行为可能引起的多种危险场景进行准确预警。
第一方面,本申请实施例提供一种驾驶风险的预警方法,包括:
获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系;
根据所述第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及所述对应关系,预测所述驾驶员在当前时间段内发生每一种危险场景的次数;
根据预测的所述驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
第二方面,本申请实施例提供一种驾驶风险的预警装置,包括:
获取单元,用于获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系;
预测单元,用于根据所述第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及所述对应关系,预测所述驾驶员在当前时间段内发生每一种危险场景的次数;
确定单元,用于根据预测的所述驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
在第二方面的一种可能的实现方式中,上述获取单元,具体用于获取驾驶员在预设历史时间段内的历史危险驾驶行为数据和历史危险场景数据;并根据驾驶员的历史危险驾驶行驶数据,获得驾驶员在历史时间段内发生每一种危险驾驶行为的次数;以及根据驾驶员的历史危险场景数据,获取驾驶员在历史时间段内发生每一种危险场景的次数;最后根据驾驶员在历史时间段内发生每一种危险驾驶行为的次数和驾驶员在历史时间段内发生每一种危险场景的次数,获得危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
可选的,预警信息包括预测的所述驾驶员在当前时间段内发生每一种危险场景的次数。
在第二方面的一种可能的实现方式中,上述确定单元,具体用于根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,确定每一种危险场景的被预警概率;根据每一种危险场景的被预警概率,确定至少一个待预警的危险场景,预警信息包括至少一个待预警的危险场景。
在第二方面的一种可能的实现方式中,上述确定单元,具体用于生成一个随机数;根据每个危险场景的被预警概率和随机数,确定至少一个待预警的危险场景。
在第二方面的一种可能的实现方式中,上述确定单元,具体用于在随机数大于前k种危险场景的被预警概率之和,且小于或等于前k+1种危险场景的被预警概率之和的情况下,则确定第k+1种危险场景为待预警的危险场景;在随机数大于第一数值,且小于或等于前k种危险场景的被预警概率之和的情况下,则确定第k种危险场景为待预警的危险场景;其中,当所述k大于1时,所述第一数值为前k-1种所述危险场景的被预警概率之和,当所述k等于1时,所述第一数值为0。
在第二方面的一种可能的实现方式中,上述获取单元,具体用于获得第一摄像头在当前时间段内所采集的驾驶员图像;根据预设的危险驾驶行为的类型,识别驾驶员图像中驾驶员发生的各危险驾驶行为;根据识别出的驾驶员发生的各危险驾驶行为,获得第一危险驾驶行为数据。
在第二方面的一种可能的实现方式中,上述获取单元,具体用于从第二车载摄像头中,获得驾驶员在当前时间段内的第一危险驾驶行为数据,该第二车载摄像头用于采集驾驶员图像,并根据预设的危险驾驶行为的类型对采集的驾驶员图像进行危险驾驶行为识别,生成第一危险驾驶行为数据。
可选的,当前时间段的时长为第一车载摄像头采集驾驶员图像的时长。
第三方面,本申请实施例提供一种计算设备,包括处理器和存储器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序以实现上述第一方面所述的驾驶风险的预警方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述存储介质包括计算机指令,当所述指令被计算机执行时,使得所述计算机实现如第一方面所述的驾驶风险的预警方法。
第五方面,本申请实施例提供一种计算机程序产品,所述程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,计算机的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得计算机实施第一方面所述的驾驶风险的预警方法。
本申请实施例提供的驾驶风险的预警方法、装置、计算设备及存储介质,通过获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,该对应关系可以真实反映出危险驾驶行为的发生次数和危险场景的发生次数之间的关联性。这样可以根据该对应关系和第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,准确预测出驾驶员在当前时间段内发生每一种危险场景的次数,并基于准确预测出的每一种危险场景的可能发生次数进行风险预警,进而提高驾驶风险预警的准确性,可以实现对驾驶员当前时刻的危险驾驶行为可能引起的多种危险场景进行预警。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例提供的一种应用场景示意图;
图2为本申请实施例涉及的***架构图;
图3为本申请实施例提供的驾驶风险的预警方法的一种流程示意图;
图4为本申请实施例涉及的一种图像处理示意图;
图5为本申请实施例涉及的预警信息的一种示意图;
图6为本申请实施例涉及的预警信息的另一种示意图;
图7为本申请实施例提供的驾驶风险的预警方法的另一种流程示意图;
图8为本申请实施例提供的驾驶风险的预警方法的又一种流程示意图;
图9为本申请实施例提供的危险驾驶行为的预测方法的一种流程示意图;
图10为本申请实施例提供的驾驶风险的预警装置的一种结构示意图;
图11为本申请实施例提供的危险驾驶行为的预测装置的一种结构示意图;
图12为本申请实施例涉及的计算设备的框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
为了便于理解本申请的实施例,首先对本申请实施例涉及到的相关概念进行如下简单介绍:
车联网(vehicle to everything,V2X)是通过装载在车上的传感器、车载终端等提供车辆信息,并通过各种通信技术实现车与车之间(Vehicle to Vehicle,V2V)、车与路之间(Vehicle to Infrastructure,V2I)、车与人之间(Vehicle to Pedestrian,V2P)、车与网络之间(Vehicle to Network,V2N)的相互通信。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
智能驾驶技术包括高精地图、环境感知、行为决策、路径规划、运动控制等技术,智能驾驶技术有着广泛的应用前景。本申请实施例应用于智能驾驶技术领域,用于对驾驶员的驾驶风险进行预警,以辅助驾驶员进行安全驾驶。
应理解,在本发明实施例中,“与A对应的B”表示B与A相关联。在一种实现方式中,可以根据A确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其它信息确定B。
在本申请的描述中,除非另有说明,“多个”是指两个或多于两个。
另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
图1为本申请实施例提供的一种应用场景示意图,如图1所示,车辆A、车辆B和车辆C均为行驶中的车辆,其中至少一个车辆在行驶过程中可以执行本申请实施例提供的驾驶风险的预警方法。
图2为本申请实施例涉及的***架构图,如图2所示,该***架构包括:驾驶员、计算设备、车载摄像头和预警***。
其中,车载摄像头安装在车辆上,用于采集驾驶员图像。可选的,该车载摄像头可以为AI摄像头,该AI摄像头可以利用计算机视觉技术,获得驾驶员的危险驾驶行为数据。
计算设备分别与车载摄像头和预警***通信连接,可以从车载摄像头和预警***中获得数据,也可以向车载摄像头和预警***发送数据。例如,计算设备可以从车载摄像头中获得驾驶员的驾驶行为数据,以及可以从预警***中获得车辆所发生的危险场景数据。上述计算设备可以用于执行本申请实施例的技术方案,例如可以用于获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系;并根据第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及对应关系,预测驾驶员在当前时间段内发生每一种危险场景的次数,最后根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
在一些实施例中,若上述计算设备不具有显示功能时,计算设备可以将生成的预警信息发送给预警***,预警***显示预警信息。
在一些实施例中,上述计算设备具有显示功能时,例如具有显示屏时,该计算设备可以直接显示预警信息。
预警***安装在车辆上,用于对危险场景进行预警,并且保存车辆真实发生过的危险场景数据。
在一些实施例中,若计算设备为车载设备,则上述预警***可以安装在该计算设备上。
目前的驾驶风险预警方法,是基于驾驶员的历史驾驶行为预测驾驶员发生一种危险场景的可能性,其预警准确性低,无法对驾驶员当前时刻的危险驾驶行为可能引起的多种危险场景进行预警。
为了解决上述技术问题,本申请实施例提供一种驾驶风险预测方法与装置,通过获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,该对应关系可以真实反映出危险驾驶行为的发生次数和危险场景的发生次数之间的关联性。这样可以根据该对应关系和第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,准确预测出驾驶员在当前时间段内发生每一种危险场景的次数,并基于准确预测出的每一种危险场景的可能发生次数进行风险预警,进而提高驾驶风险预警的准确性,可以实现对驾驶员当前时刻的危险驾驶行为可能引起的多种危险场景进行预警。
下面通过一些实施例对本申请实施例的技术方案进行详细说明。下面这几个实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
图3为本申请实施例提供的驾驶风险的预警方法的一种流程示意图。如图3所示,本申请实施例的方法包括:
S301、获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
本申请实施例的执行主体为对车辆的驾驶风险具有预警功能的装置,例如驾驶风险的预警装置,以下简称预警装置。在一些实施例中,该预警装置为图2所示的计算设备。在一些实施例中,上述预警装置为计算设备中具有数据处理功能的单元,例如为计算设备中的处理器。本申请实施例以执行主体为计算设备为例进行说明。
本申请实施例涉及的危险驾驶行为包括预设的M种不同类型的危险驾驶行为,如表1所示,包括疲劳驾驶、分神驾驶、醉酒驾驶、未系安全带等,其中,M为大于或等于1的整数。危险驾驶行为的类型可以根据实际需要进行设定,本申请实施例对此不做限制。
表1
在一些实施例中,危险驾驶行为的类型可以事先保存在图2所示的车载摄像头中,在实际使用时,计算设备可以从车载摄像头中获得危险驾驶行为的类型。
在一些实施例中,危险驾驶行为的类型可以事先保存在计算设备中。
本申请实施例涉及的危险场景包括预设的N种不同类型的危险场景,如表2所示,包括车道偏移、行人碰撞、前碰撞、安全车距等,其中,N为大于或等于1的整数。危险场景的类型可以根据实际需要进行设定,本申请实施例对此不做限制。
表2
危险场景的类型 | 危险场景的名称 |
第1种危险场景 | 车道偏移 |
第2种危险场景 | 行人碰撞 |
第3种危险场景 | 前碰撞 |
第4种危险场景 | 安全车距 |
…… | …… |
需要说明的是,若危险驾驶行为包括超速时,计算设备可以从车辆的驾驶***处获得车辆的行驶速度,以确定车辆是否超速。
在一些实施例中,危险场景的类型可以事先保存在图2所示的预警***中,在实际使用时,计算设备可以从预警***中获得危险场景的类型。
在一些实施例中,危险场景的类型可以事先保存在计算设备中。
本申请实施例中,上述S301中获取驾驶员在当前时间段内的第一危险驾驶行为数据的方式至少包括如下两种,其中,当图2所示的车载摄像头为不具有图像识别功能的第一车载摄像头时,计算设备可以采用方式一获得驾驶员的第一危险驾驶行驶数据。当图2所示的车载摄像头为具有图像识别功能的第二车载摄像头时,计算设备可以采用方式二获得驾驶员的第一危险驾驶行为数据,具体为:
方式一,计算设备基于第一车载摄像头采集的驾驶员图像,生成第一危险驾驶行为数据,具体过程包括如下步骤C1至步骤C3:
步骤C1,获得第一车载摄像头在当前时间段内所采集的驾驶员图像。
该第一车载摄像头安装在车辆上朝向驾驶员的位置处,用于实时采集驾驶员图像。同时,该第一车载摄像头与计算设备通信连接,可以将当前时间段内所采集的驾驶员图像发送给计算设备。
步骤C2,根据预设的危险驾驶行为的类型,识别驾驶员图像中驾驶员发生的各危险驾驶行为。
具体的,计算设备从第一车载摄像头处获得当前时间段内该第一车载摄像头所采集的驾驶员图像。接着,根据预设的M种危险驾驶行为的类型,基于已有技术,对驾驶员图像中驾驶员的面部特征和行为特征进行识别,判断驾驶员在当前时间段内出现了M种危险驾驶行为中的哪些危险驾驶行为。例如计算设备包括事先训练好的图像识别模型,该图像识别模型可以识别驾驶员的面部特征和行为特征。计算设备将驾驶员图像输入该图像识别模型中,该图像识别模型识别出驾驶员的面部特征和行为特征,其中面部特征包括眼睛状态(例如眼睛是睁开还是眯眼)、嘴巴状态(例如嘴巴是张开还是闭住,张开的大小)、头部位置等,行为特征包括手部动作和上身动作等。计算设备将图像识别模型识别出的驾驶员的面部特征和行为特征,与M种危险驾驶行为中每一种危险驾驶行为对应的面部特征和行为特征进行比对,以确定该识别出的面部特征和行为特征所对应的危险驾驶行为。例如,若识别出驾驶员的眼睛为眯眼且嘴巴张开,可以判断驾驶员出现疲劳驾驶;若在驾驶员图像中未识别出安全带,则可以判断驾驶员未系安全带;若识别出驾驶员手部举起,且手里握有电话,则可以判断驾驶员分神驾驶等。其中,不同的危险驾驶行为所对应的驾驶员的面部特征和行为特征可以根据实际情况进行设定。
步骤C3,根据识别出的驾驶员所发生的各危险驾驶行为,获得第一危险驾驶行为数据。
若当前时间段内采集有多张驾驶员图像,针对每一张驾驶员图像采用上述识别方法,识别出每一张驾驶员图像中驾驶员发生的危险驾驶行为。根据每一张驾驶员图像中驾驶员发生的危险驾驶行为,统计出多张驾驶员图像中每一种危险驾驶行为发生的次数,例如,1000张驾驶员图像中,有10张驾驶员图像中识别出疲劳驾驶,则可以确定当前时刻段内驾驶员发生10次疲劳驾驶。将识别出的每一种危险驾驶行为,以及每一种危险驾驶行为的发生次数,作为第一危险驾驶行为数据,也就是说,第一危险驾驶行为数据包括识别出的当前时间段内驾驶员发生的各危险驾驶行为,以及各危险驾驶行为的发生次数。需要说明的是,对于未系安全带的危险驾驶行为,在采集的连续多张驾驶员图像中均未识别出安全带,则确定驾驶员未安全带的次数为1次,而不是多次。
方式二,计算设备从第二车载摄像头中,获得驾驶员在当前时间段内的第一危险驾驶行为数据。
在该方式中,图1所示的车载摄像头为第二车载摄像头,该第二车载摄像头为具有图像处理功能的摄像头,例如为AI摄像头。该第二车载摄像头可以包括摄像模组和处理器,摄像模组用于实时采集驾驶员图像,并将采集的驾驶员图像发送给处理器。如图4所示,该处理器基于计算机视觉技术,对驾驶员图像进行处理,获得左侧所示的第一危险驾驶行为数据。具体是,处理器根据预设的M种危险驾驶行为的类型,对驾驶员图像进行图像识别处理,获得驾驶员在当前时间段内所发生的危险驾驶行为,例如处理器识别驾驶员图像中驾驶员的面部特征和行为特征,若识别出驾驶员的眼睛为闭眼状态且嘴巴张开,可以判断驾驶员出现疲劳驾驶,若在驾驶员图像中未识别出安全带,则可以判断驾驶员未系安全带。这样处理器根据识别出的驾驶员发生的危险驾驶行为生成第一危险驾驶行为数据。需要说明的是,该方式中处理器识别驾驶员图像中驾驶员的危险驾驶行的方法与上述计算设备识别驾驶员图像中驾驶员的危险驾驶行为的方法基本相同,可以参照上述具体描述,在此不再赘述。
在一些实施例中,当前时间段的时长为第一车载摄像头或第二车载摄像头采集驾驶员图像的时长。
需要说明的是,本申请实施例中,获取第一危险驾驶行为数据与获取上述对应关系之间没有先后顺序。也就是说,计算设备可以先获取第一危险驾驶行为数据,再获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,也可以先获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,再获取第一危险驾驶行为数据,还可以同时获取第一危险驾驶行为数据和对应关系。
在一些实施例中,危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系可以先生成好,在进行驾驶风险预警时,计算设备直接获取生成好的对应关系即可,进而避免生成对应关系所消耗的时间资源和计算资源,从而实现驾驶风险的及时预警。例如,计算设备每天生成一次对应关系,这样在该整天的驾驶风险预警过程中,使用该对应关系。
在一些实施例中,上述对应关系可以是计算设备在获取第一危险驾驶行为数据时生成的。例如,计算设备获取驾驶员在当前时间段内的第一危险驾驶行为数据,响应于获得的第一危险驾驶行为数据,计算设备开始生成该对应关系。
由于多数交通事故是由人为因素造成的,因此,驾驶员的危险驾驶行为的发生次数与危险场景的发生次数之间存在关联。基于此,本申请实施例通过获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,基于该对应关系准确预测驾驶员的危险驾驶行为可能导致的一个或多个危险场景,进而提高驾驶风险的预警准确性。
本申请实施例中,上述对应关系可以是基于本驾驶员的历史危险驾驶行为数据和历史危险场景数据生成的。可选的,上述对应关系还可以是基于其他驾驶员的历史危险驾驶行为数据和历史危险场景数据生成的。
S302、根据第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及对应关系,预测驾驶员在当前时间段内发生每一种危险场景的次数。
举例说明,假设当前时间段为10s,这10s内采集了1000张驾驶员图像,对这1000张驾驶员图像进行解析,获得第一危险驾驶行为数据为:10次疲劳驾驶和5次未系安全带,这样可以获得疲劳驾驶的发生次数为10,未系安全带的发生次数为5。计算设备根据第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及对应关系,预测驾驶员在当前时间段内发生每一种危险场景的次数。
在一些实施例中,可以通过如下公式(1),确定出驾驶员在当前时间段内发生每一种危险场景的次数:
其中,CN×M为危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,CN×M为N行M列的矩阵。bi,t为驾驶员在时间段t内发生第i种危险驾驶行为的发生次数,i大于等于1且小于等于M。aj,t为预测的驾驶员在时间段t内发生第j种危险场景的次数,j大于等于1且小于等于N。
结合上述示例,取t为当前时间段,驾驶员在当前时间段内发生10次疲劳驾驶和5次未系安全带的危险驾驶行为,结合表1,可以确定b1,t=10,b4,t=5,其他均为0。这样,将b1,t=10,b4,t=5带入上述公式(1),可以预测出驾驶员在当前时间段内发生每一种危险场景的次数为a1,t、a2,t至aN,t。
举例说明,假设上述M和N均为4,即包括4种危险驾驶行为依次为表1中的疲劳驾驶、分神驾驶、醉酒驾驶和未系安全带,4种危险场景依次为表2中的车道偏移、行人碰撞、前碰撞、安全车距。假设从第一危险驾驶行为数据中获得驾驶员在当前时间段内发生10次疲劳驾驶和5次未系安全带的危险驾驶行为,没有发生分神驾驶和醉酒驾驶,则b1,t=10,b4,t=5,b2,t和b3,t均为0。这样,将b1,t=10,b4,t=5带入上述公式(1),可以得到如下结果:
此时,危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系CN×M为4行4列的矩阵,即其中的各参数均已知。a1,t为车道偏移的发生次数,a2,t为行人碰撞的发生次数,a3,t为前碰撞的发生次数,a4,t为安全车距的发生次数。
这样,可以预测驾驶员在当前时间段内发生车道偏移的发生次数为a1,t=c11×10+c14×5,驾驶员在当前时间段内发生行人碰撞的发生次数为a2,t=c21×10+c24×5,驾驶员在当前时间段内发生前碰撞的发生次数为a3,t=c31×10+c34×5,驾驶员在当前时间段内发生安全车距的发生次数的发生次数为a4,t=c41×10+c44×5。
S303、根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
本申请实施例通过预测出的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息,可以实现对驾驶员当前的危险驾驶行为所造成的危险场景进行准确预测,进而提高车辆的驾驶安全性。
本申请实施例中,根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息的方式包括但不限于如下几种:
方式一,预警信息包括当前预测的驾驶员在当前时间段内发生每一种危险场景的次数,例如图5所示,该预警信息包括预测驾驶员在当前时间段内发生N种危险场景中每一种危险场景的次数。
在一种实现方式中,预警信息中各每一种危险场景的发生次数可以根据发生次数的大小从大到小进行排序。
在一种实现方式中,预警信息可以包括发生次数不为0的危险场景,而不包括发生次数为0的危险场景。
方式二,预警信息包括预测的驾驶员在当前时间段内发生的次数不为0的一个或多个危险场景,例如图6所示,预警信息包括安全车距和行人碰撞两个危险场景,其中预测在当前时间段内驾驶员发生安全车距危险场景的次数为10次,发生行人碰撞的次数为1次。
根据上述方法生成预警信息后,计算设备将生成的预警信息发送给预警***,预警***向驾驶员输出该预警信息,使得驾驶员根据该预警信息进行安全驾驶。
可选的,若计算设备具有显示功能或语音提示功能时,计算设备也可以直接将该预警信息输出给驾驶员。
本申请实施例提供的驾驶风险的预警方法,通过获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,该对应关系可以真实反映出危险驾驶行为的发生次数和危险场景的发生次数之间的关联性。这样可以根据该对应关系和第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,准确预测出在当前时间段内驾驶员发生每一种危险场景的次数,并基于准确预测出的每一种危险场景的可能发生次数进行风险预警,进而提高驾驶风险预警的准确性,可以实现对驾驶员当前时刻的危险驾驶行为可能引起的多种危险场景进行预警。
在上述实施例的基础上,下面结合图7对上述S301中获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系的具体过程进行详细介绍。
图7为本申请实施例提供的驾驶风险的预警方法的另一种流程示意图,如图7所示,上述S301中获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,可以包括:
S701、获取驾驶员在预设的历史时间段内的历史危险驾驶行为数据和历史危险场景数据。
需要说明的是,历史危险驾驶行为数据包括驾驶员在历史时间段内真实发生的危险驾驶行为。历史危险场景数据包括驾驶员在历史时间段内真实发生的危险场景。
上述预设的历史时间段可以为距离当前时刻最近的历史时间段,例如预设历史时间段为当前时刻的前3个月。
在一些实施例中,若危险驾驶行为数据保存在图2所示的车载摄像头,这样计算设备可以从车载摄像头中获得驾驶员在预设历史时间段内的历史危险驾驶行为数据。
在一些实施例中,若危险驾驶行为数据保存在图2所示的计算设备的存储装置中,这样计算设备可以从自身的存储设备中获得驾驶员在预设历史时间段内的历史危险驾驶行为数据。
在一些实施例中,若驾驶员发生的危险场景数据保存在图2所示的预警***中,计算设备可以从预警***中获得驾驶员在预设历史时间段内的历史危险场景数据。
S702、根据驾驶员的历史危险驾驶行驶数据,获得驾驶员在历史时间段内发生每一种危险驾驶行为的发生次数。
具体的,计算设备可以根据驾驶员的历史危险驾驶行为数据,获得驾驶员在历史时间段内发生M种危险驾驶行为中每一种危险驾驶行为的次数,如表3所示:
表3
如表3所示,右侧显示驾驶员在该历史时间段发生各危险驾驶行为的次数,例如,驾驶员在该历史时间段内发生第2种危险驾驶行为的次数为b2。
S703、根据驾驶员的历史危险场景数据,获取驾驶员在历史时间段内发生每一种危险场景的次数。
同理,计算设备可以根据驾驶员的历史危险场景数据,驾驶员在历史时间段内实际发生N种危险场景中每一种危险场景的次数,如表4所示:
表4
危险场景的类型 | 危险场景的名称 | 发生的次数 |
第1种危险场景 | 车道偏移 | a1 |
第2种危险场景 | 行人碰撞 | a2 |
第3种危险场景 | 前碰撞 | a3 |
第4种危险场景 | 安全车距 | a4 |
…… | …… | …… |
如表4所示,右侧显示驾驶员在该历史时间段内实际发生各危险场景的次数,例如,驾驶员在该历史时间段内的实际发生第2种危险场景的次数为a2。
S704、根据驾驶员在历史时间段内发生每一种危险驾驶行为的次数和驾驶员在历史时间段内发生每一种危险场景的次数,获得危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
在一些实施例中,若危险驾驶行为的发生次数与危险场景的实际发生次数之间具有线性映射关系,其线性映射关系如公式(2)所示:
公式(2)中,a1、a2至aN为驾驶员在历史时间段内发生表4中各不同类型的危险场景的次数,b1、b2至bM为驾驶员在历史时间段内发生表3中各不同类型的危险驾驶行为的次数。
将表3和表4中的数据带入公式(2)中可以得到矩阵CN×M,将矩阵CN×M作为危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
在一些实施例中,若危险场景的实际发生次数与危险驾驶行为的发生次数之间具有线性映射关系,其线性映射关系如公式(3)所示:
公式(3)中,a1、a2至aN为驾驶员在历史时间段内发生表4中各不同类型的危险场景的次数,b1、b2至bM为驾驶员在历史时间段内发生表3中各不同类型的危险驾驶行为的次数。
将表3和表4中的数据带入公式(3)中可以得到矩阵AM×N,将矩阵AM×N作为危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,其中矩阵AM×N可以理解为矩阵CN×M的一种变形。
在实际求解矩阵AM×N和CN×M时,可能存在解不唯一的情况,此时选择任意一个解即可。在另一些情况中,在求解的过程中可能存在不收敛的情况,此时可以选择范数最小的解作为矩阵的解,对于范数,可以选择任何类型的范数,例如选择2范数。
本申请实施例提供的驾驶风险的预警方法,通过获取驾驶员在预设历史时间段内的历史危险驾驶行为数据和历史危险场景数据,并根据驾驶员的历史危险驾驶行为数据,获得驾驶员在历史时间段内发生每一种危险驾驶行为的次数,以及根据驾驶员的历史危险场景数据,获得驾驶员在历史时间段内发生每一种危险场景的次数;接着根据驾驶员在历史时间段内发生每一种危险驾驶行为的次数和驾驶员在历史时间段内发生每一种危险场景的次数,获得危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,进而使得该对应关系可以准确反映出危险驾驶行为的发生次数与危险场景的实际发生次数之间的相关性,这样基于该准确确定的对应关系进行预警时,可以提高驾驶风险预警的准确性。
在上述实施例的基础上,下面结合图8对上述S303中根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息的一种实现方式进行详细介绍。
图8为本申请实施例提供的驾驶风险的预警方法的又一种流程示意图,如图8所示,上述S303中根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息,可以包括:
S801、根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,确定每一种危险场景的被预警概率。
具体的,参照上述公式(1),根据驾驶员在当前时间段内发生的每一种危险驾驶行为的次数,预测出当前时间段内驾驶员发生每一种危险场景的次数为:a1,t、a2,t、a3,t……aN,t。
接着,根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,确定每一种危险场景的被预警概率。例如,根据公式(4)可以确定出每一种危险场景的被预警概率:
pj=aj,t/(a1,t+a2,t+...+aN,t) (4)
其中,pj为第j种危险场景的被预警概率,aj,t为预测的驾驶员在时间段t内发生第j种危险场景的次数,j大于等于1且小于等于N。此时,t取当前时间段。
本步骤中可以根据上述公式(4)确定出当前时间段内每一种危险场景的被预警概率。
S802、根据每一种危险场景的被预警概率,确定至少一个待预警的危险场景。
其中,预警信息包括至少一个待预警的危险场景。
在一些实施例中,将预警概率最大的一个或几个危险场景确定为待预警的危险场景。
在一些实施例中,为了使得被预警概率不为0的危险场景具有同等的被预警机会,则上述S702根据每个危险场景的被预警概率,确定至少一个待预警的危险场景,包括步骤A和步骤B:
步骤A,生成一个随机数。
可选的,该随机数服从0-1均分分布。
步骤B,根据每个危险场景的被预警概率和随机数,确定至少一个待预警的危险场景。
其中,根据每个危险场景的被预警概率和随机数,确定至少一个待预警的危险场景,包括如下两种情况:
情况1,在随机数大于前k种危险场景的被预警概率之和,且小于或等于前k+1种危险场景的被预警概率之和的情况下,则确定第k+1种危险场景为待预警的危险场景。
具体的,参照公式(5)所示:
当随机数θ满足上述公式(5)时,将第k+1种危险场景为待预警的危险场景。例如θ=0.5,p1=0.1,p2=0.3,p3=0.2,θ大于p1和p2的和(即0.4),且小于p1、p2和p3的和(即0.6),可以确定k=2,则将第3种危险场景(即表2中的前碰撞)确定为待预警的危险场景。
情况2,在随机数大于第一数值,且小于或等于前k种危险场景的被预警概率之和的情况下,则确定第k种危险场景为待预警的危险场景。
具体的,若k大于1,参照公式(6)所示:
当随机数θ满足上述公式(6)时,将第k种危险场景为待预警的危险场景。例如θ=0.2,p1=0.1,p2=0.3,p3=0.2,θ小于p1和p2的和(即0.4),且大于p1,则将第2种危险场景(即表2中的行人碰撞)确定为待预警的危险场景。
若k=1,参照公式(7)所示:
当随机数θ满足上述公式(7)时,将第k种危险场景为待预警的危险场景。例如θ=0.1,p1=0.2,p2=0.3,p3=0.2,θ小于p1(即0.2)且大于0,则将第1种危险场景(即表2中的行人碰撞)确定为待预警的危险场景。
在本申请实施例的一些实施例中,若上述待预警的危险场景包括多个时,则每次确定一个待预警的危险场景后,将该确定的待预警危险场景的被预警概率从上述危险场景的被预警概率中剔除。对剩余的危险场景的被预警概率进行归一化,重新确定剩余的各危险场景的被预警概率。同时重新确定随机数,并使用重新确定的随机数和重新确定的各危险场景的被预警概率,执行上述公式(5)或公式(6)或公式(7),确定待预警的危险场景。
举例说明,假设需要确定的待预警的危险场景为2个,计算设备首先生成随机数θ1,并根据上述公式(4)确定出N个危险场景中每个危险场景的被预警概率。接着,根据上述公式(5)或公式(6)或公式(7),确定待预警的危险场景1。接着,从上述N个危险场景的被预警概率中剔除待预警的危险场景1的被预警概率,对剩余的N-1个危险场景的被预警概率进行归一化处理,重新确定出N-1个危险场景中每一个危险场景的被预警概率。同时,生成随机数θ2,并将随机数θ2和N-1个危险场景的被预警概率带入公式(5)或公式(6)或公式(7),确定待预警的危险场景2。
本申请实施例提供的驾驶风险的预警方法,通过根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,确定每一种危险场景的被预警概率,根据每个危险场景的被预警概率,确定至少一个待预警的危险场景,并将确定出的待预警的危险场景携带在预警信息中,这样驾驶员可以通过该预警信息直接获得当前可能会发生的危险场景,便于驾驶员及时采取措施,以提高车辆驾驶的安全性。
上面图3至图8所示的实施例对本申请实施例提供的危险驾驶的预警方法进行了详细描述,下面结合实验结果来进一步说明本申请实施例的技术效果。具体的,在模拟器中进行测试,得到本申请与已有技术的漏警率之比,以及和本申请与已有技术的虚警率,如表5所示:
表5
其中,虚预警可以理解为本该不应预警而进行了预警,漏预警可以理解为本该预警但没有预警。如表5所示,本申请实施例的预警方法相比于已有的预警方法,其虚预警率低,漏预警率也低,相比于已有的预警方法,本申请实施例的预警方法显著提高了预警的准确性。
在上述实施例的基础上,本申请实施例还提供一种危险驾驶行为的预测方法。
图9为本申请实施例提供的危险驾驶行为的预测方法的一种流程示意图。如图9所示,本申请实施例的方法包括:
S901、获取车辆在第一时间段内发生的第一危险场景数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
本申请实施例提供的驾驶员的危险驾驶行为的预测方法,可以应用于交通事故的责任确认过程中。例如,根据第一时间段内车辆发生的危险场景,来预测在第一时间段内驾驶员可能存在的危险驾驶行为。
上述第一时间段可以为当前时间段或任意历史时间段。
本申请实施例中获取车辆在第一时间段内发生的第一危险场景数据的方式包括但不限于如下几种:
方式一,车辆上安装有用于拍摄车辆外部环境的摄像头,例如行程记录仪。从该摄像头中获得第一时间段内该车辆的行驶环境图像,对这些行驶环境图像进行分析,获得车辆在第一时间段内发生的第一危险场景数据。
方式二,可以从路侧设备,例如从安装在道路两侧的摄像头处获得车辆在第一时间段内的行驶环境图像,对这些行驶环境图像进行分析,获得车辆在第一时间段内发生的第一危险场景数据。
可选的,第一危险场景数据包括第一时间段内车辆所发生的危险场景,以及各危险场景的发生次数。
需要说明的是,本申请实施例中,获取第一危险场景数据与获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系之间没有先后顺序。也就是说,计算设备可以先获取第一危险场景数据,再获取对应关系,也可以先获取对应关系,再获取第一危险场景数据,还可以同时获取第一危险场景数据和对应关系。
可选的,上述对应关系可以是事先生成的,也可以是计算设备在获取第一危险场景数据时触发生成的。
S902、根据第一危险场景数据中每一种危险场景的发生次数,以及对应关系,预测在第一时间段内驾驶员发生每一种危险驾驶行为的次数。
在一些实施例中,可以通过如下公式(8),确定出当前时间段内每一种危险场景的发生次数:
其中,AM×N为危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,AM×N为M行N列的矩阵。bi,t为驾驶员在时间段t内发生第i种危险驾驶行为的发生次数,i大于等于1且小于等于M。aj,t为预测的驾驶员在时间段t内发生第j种危险场景的发生次数,j大于等于1且小于等于N。
结合上述示例,取t表示第一时间段,车辆在第一时间段内发生的危险场景为:10次车道偏离和2次前碰撞,结合表2,可以确定a1,t=10,a3,t=2,其他均为0。这样,将a1,t=10,a3,t=2带入上述公式(8),可以预测出驾驶员在第一时间段内的每一种危险驾驶行为的发生次数。
S903、根据在第一时间段内驾驶员发生每一种危险驾驶行为的次数,生成预测信息。
该预测信息用于指示第一时间段内驾驶员可能存在的危险驾驶行为。
在一些实施例中,该预测信息包括上述S902预测的在第一时间段内驾驶员发生每一种危险驾驶行为的次数。
在一些实施例中,该预测信息包括预测的发生次数不为0的一个或几个危险驾驶行为,例如预测信息包括预测的发生次数最多的危险驾驶行为。
本申请实施例提供的危险驾驶行为的预测方法,通过获取驾驶员在第一时间段内的第一危险场景数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,该对应关系可以真实反映出危险驾驶行为的发生次数和危险场景的发生次数之间的关联性。这样可以根据该对应关系和第一危险场景数据中每一种危险场景的发生次数,准确预测出驾驶员在第一时间段内可能存在的危险驾驶行为。
图10为本申请实施例提供的驾驶风险的预警装置的一种结构示意图。该预警装置可以是电子设备,也可以是电子设备的部件(例如,集成电路,芯片等等),该电子设备可以为图2所示的计算设备。如图10所示,该预警装置100可以包括:获取单元110、预测单元120和确实单元130。
获取单元110,用于获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系;
预测单元120,用于根据第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及对应关系,预测驾驶员在当前时间段内发生每一种危险场景的次数;
确定单元130,用于根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
本申请实施例的驾驶风险的预警装置,可以用于执行上述各方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
在一种可能的实现方式中,上述获取单元110,具体用于获取驾驶员在预设历史时间段内的历史危险驾驶行为数据和历史危险场景数据;根据驾驶员的历史危险驾驶行驶数据,获得驾驶员在历史时间段内发生每一种危险驾驶行为的次数,以及根据驾驶员的历史危险场景数据,获取驾驶员在历史时间段内发生每一种危险场景的次数;以及根据驾驶员在历史时间段内发生每一种危险驾驶行为的次数和驾驶员在历史时间段内发生每一种危险场景的次数,获得危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
可选的,预警信息包括预测的驾驶员在当前时间段内发生每一种危险场景的次数。
在一种可能的实现方式中,上述确定单元130,具体用于根据预测的驾驶员在当前时间段内发生每一种危险场景的次数,确定每一种危险场景的被预警概率;根据每一种危险场景的被预警概率,确定至少一个待预警的危险场景,预警信息包括至少一个待预警的危险场景。
在一种可能的实现方式中,上述确定单元130,具体用于生成一个随机数;根据每个危险场景的被预警概率和随机数,确定至少一个待预警的危险场景。
在一种可能的实现方式中,上述确定单元130,具体用于在随机数大于前k种危险场景的被预警概率之和,且小于或等于前k+1种危险场景的被预警概率之和的情况下,则确定第k+1种危险场景为待预警的危险场景;在随机数大于第一数值,且小于或等于前k种危险场景的被预警概率之和的情况下,则确定第k种危险场景为待预警的危险场景;其中,当k大于1时,第一数值为前k-1种危险场景的被预警概率之和,当k等于1时,第一数值为0。
在一种可能的实现方式中,上述获取单元110,具体用于获得第一车载摄像头在当前时间段内所采集的驾驶员图像;根据预设的危险驾驶行为的类型,识别驾驶员图像中驾驶员发生的各危险驾驶行为;根据识别出的驾驶员发生的各危险驾驶行为,获得第一危险驾驶行为数据。
在一种可能的实现方式中,上述获取单元110,具体用于从第二车载摄像头中,获得驾驶员在当前时间段内的第一危险驾驶行为数据,其中第二车载摄像头用于采集驾驶员图像,并根据预设的危险驾驶行为的类型对采集的驾驶员图像进行危险驾驶行为识别,生成第一危险驾驶行为数据。
可选的,当前时间段的时长为第一车载摄像头采集驾驶员图像的时长。
本申请实施例的驾驶风险的预警装置,可以用于执行上述各方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图11为本申请实施例提供的危险驾驶行为的预测装置的一种结构示意图。该预测装置可以是电子设备,也可以是电子设备的部件(例如,集成电路,芯片等等),该电子设备可以为图2所示的计算设备。如图11所示,该预测装置300可以包括:获取单元310、预测单元320和确实单元330。
获取单元310,用于获取车辆在第一时间段内发生的第一危险场景数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
预测单元320,用于根据第一危险场景数据中每一种危险场景的发生次数,以及对应关系,预测在第一时间段内驾驶员发生每一种危险驾驶行为的发生次数。
确定单元330,用于根据在第一时间段内驾驶员发生每一种危险驾驶行为的发生次数,生成预测信息。
本申请实施例的危险驾驶行为的预测装置,可以用于执行上述危险驾驶行为的预测方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图12为本申请实施例涉及的计算设备的框图,该设备可以是图2所示的计算设备,用于执行上述实施例所述的驾驶风险的预警方法,具体参见上述方法实施例中的说明。
图12所示的计算设备200包括存储器201、处理器202、通信接口203。存储器201、处理器202、通信接口203之间彼此通信连接。例如,存储器201、处理器202、通信接口203之间可以采用网络连接的方式,实现通信连接。或者,上述计算设备200还可以包括总线204。存储器201、处理器202、通信接口203通过总线204实现彼此之间的通信连接。图12是以存储器201、处理器202、通信接口203通过总线204实现彼此之间的通信连接的计算设备200。
存储器201可以是只读存储器(Read Only Memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(Random Access Memory,RAM)。存储器201可以存储程序,当存储器201中存储的程序被处理器202执行时,处理器202和通信接口203用于执行上述预警方法。
处理器202可以采用通用的中央处理器(Central Processing Unit,CPU),微处理器,应用专用集成电路(Application Specific Integrated Circuit,ASIC),图形处理器(graphics processing unit,GPU)或者一个或多个集成电路。
处理器202还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请的预警方法可以通过处理器202中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器202还可以是通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器201,处理器202读取存储器201中的信息,结合其硬件完成本申请实施例的预警方法。
通信接口203使用例如但不限于收发器一类的收发模块,来实现计算设备200与其他设备或通信网络之间的通信。例如,可以通过通信接口203获取数据集。
当上述计算设备200包括总线204时,总线204可包括在计算设备200各个部件(例如,存储器201、处理器202、通信接口203)之间传送信息的通路。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。另外,各个方法实施例之间、各个装置实施例之间也可以互相参考,在不同实施例中的相同或对应内容可以互相引用,不做赘述。
Claims (12)
1.一种驾驶风险的预警方法,其特征在于,包括:
获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系;
根据所述第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及所述对应关系,预测所述驾驶员在当前时间段内发生每一种危险场景的次数;
根据预测的所述驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
2.根据权利要求1所述的方法,其特征在于,所述获取所述危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系,包括:
获取所述驾驶员在预设的历史时间段内的历史危险驾驶行为数据和历史危险场景数据;
根据所述驾驶员的所述历史危险驾驶行驶数据,获得所述驾驶员在所述历史时间段内发生每一种危险驾驶行为的次数;
根据所述驾驶员的所述历史危险场景数据,获取所述驾驶员在所述历史时间段内发生每一种危险场景的次数;
根据所述驾驶员在所述历史时间段内发生每一种危险驾驶行为的次数和所述驾驶员在所述历史时间段内发生每一种危险场景的次数,获得所述危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系。
3.根据权利要求1或2所述的方法,其特征在于,所述预警信息包括预测的所述驾驶员在当前时间段内发生每一种危险场景的次数。
4.根据权利要求1或2所述的方法,其特征在于,所述根据预测的所述驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息,包括:
根据预测的所述驾驶员在当前时间段内发生每一种危险场景的次数,确定每一种所述危险场景的被预警概率;
根据每一种所述危险场景的被预警概率,确定至少一个待预警的危险场景,所述预警信息包括所述至少一个待预警的危险场景。
5.根据权利要求4所述的方法,其特征在于,所述根据每个所述危险场景的被预警概率,确定至少一个待预警的危险场景,包括:
生成一个随机数;
根据每个所述危险场景的被预警概率和所述随机数,确定至少一个待预警的危险场景。
6.根据权利要求5所述的方法,其特征在于,所述根据每个所述危险场景的被预警概率和所述随机数,确定至少一个待预警的危险场景,包括:
在所述随机数大于前k种所述危险场景的被预警概率之和,且小于或等于前k+1种所述危险场景的被预警概率之和的情况下,则确定第k+1种危险场景为所述待预警的危险场景;
在所述随机数大于第一数值,且小于或等于前k种所述危险场景的被预警概率之和的情况下,则确定第k种危险场景为所述待预警的危险场景;
其中,当k大于1时,所述第一数值为前k-1种所述危险场景的被预警概率之和,当k等于1时,所述第一数值为0。
7.根据权利要求1或2所述的方法,其特征在于,所述获取驾驶员在当前时间段内的第一危险驾驶行为数据,包括:
获得第一车载摄像头在当前时间段内所采集的驾驶员图像;
根据预设的所述危险驾驶行为的类型,识别所述驾驶员图像中所述驾驶员发生的各所述危险驾驶行为;
根据识别出的所述驾驶员发生的各所述危险驾驶行为,获得所述第一危险驾驶行为数据。
8.根据权利要求1或2所述的方法,其特征在于,所述获取驾驶员在当前时间段内的第一危险驾驶行为数据,包括:
从第二车载摄像头中,获得所述驾驶员在当前时间段内的所述第一危险驾驶行为数据,所述第二车载摄像头用于采集驾驶员图像,并根据预设的所述危险驾驶行为的类型对采集的所述驾驶员图像进行危险驾驶行为识别,生成所述第一危险驾驶行为数据。
9.根据权利要求7所述的方法,其特征在于,所述当前时间段的时长为所述第一车载摄像头采集所述驾驶员图像的时长。
10.一种驾驶风险的预警装置,其特征在于,包括:
获取单元,用于获取驾驶员在当前时间段内的第一危险驾驶行为数据,以及获取危险驾驶行为的发生次数与危险场景的实际发生次数之间的对应关系;
预测单元,用于根据所述第一危险驾驶行为数据中每一种危险驾驶行为的发生次数,以及所述对应关系,预测所述驾驶员在当前时间段内发生每一种危险场景的次数;
确定单元,用于根据预测的所述驾驶员在当前时间段内发生每一种危险场景的次数,生成预警信息。
11.一种计算设备,其特征在于,包括:存储器,处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序以实现如上述权利要求1至9任一项所述的驾驶风险的预警方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至9任一项所述的驾驶风险的预警方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011105843.XA CN112193252A (zh) | 2020-10-15 | 2020-10-15 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
PCT/CN2021/114418 WO2022078077A1 (zh) | 2020-10-15 | 2021-08-25 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
US17/968,341 US20230048112A1 (en) | 2020-10-15 | 2022-10-18 | Warning method and apparatus for driving risk, computing device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011105843.XA CN112193252A (zh) | 2020-10-15 | 2020-10-15 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112193252A true CN112193252A (zh) | 2021-01-08 |
Family
ID=74009143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011105843.XA Pending CN112193252A (zh) | 2020-10-15 | 2020-10-15 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230048112A1 (zh) |
CN (1) | CN112193252A (zh) |
WO (1) | WO2022078077A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113506012A (zh) * | 2021-07-22 | 2021-10-15 | 中冶南方城市建设工程技术有限公司 | 一种基于手机车联网数据的驾驶行为风险指数判定方法 |
WO2022078077A1 (zh) * | 2020-10-15 | 2022-04-21 | 腾讯科技(深圳)有限公司 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10745009B2 (en) * | 2016-12-21 | 2020-08-18 | Samsung Electronics Co., Ltd. | Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same |
CN114782926B (zh) * | 2022-06-17 | 2022-08-26 | 清华大学 | 驾驶场景识别方法、装置、设备、存储介质和程序产品 |
CN117084683B (zh) * | 2023-08-07 | 2024-04-19 | 中国人民解放军32302部队 | 一种技术人员心理状态监测评估方法及*** |
CN117292504B (zh) * | 2023-11-11 | 2024-06-11 | 克伦斯(天津)轨道交通技术有限公司 | 交通安全监控方法、装置、设备及介质 |
CN117911992A (zh) * | 2023-12-12 | 2024-04-19 | 广州市启宏普浩企业管理服务有限公司 | 一种驾驶员的驾驶异常行为数据分析方法及*** |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015004748A1 (de) * | 2015-04-11 | 2016-10-13 | Audi Ag | Verfahren zur Vorhersage einer gefährlichen Fahrsituation |
US10745009B2 (en) * | 2016-12-21 | 2020-08-18 | Samsung Electronics Co., Ltd. | Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same |
CN111310562B (zh) * | 2020-01-10 | 2020-11-27 | 中国平安财产保险股份有限公司 | 基于人工智能的车辆驾驶风险管控方法及其相关设备 |
CN111274881B (zh) * | 2020-01-10 | 2024-05-31 | 中国平安财产保险股份有限公司 | 驾驶安全的监控方法、装置、计算机设备及存储介质 |
CN111489588B (zh) * | 2020-03-30 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 车辆驾驶风险预警方法及装置、设备、存储介质 |
CN112193252A (zh) * | 2020-10-15 | 2021-01-08 | 腾讯科技(深圳)有限公司 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
-
2020
- 2020-10-15 CN CN202011105843.XA patent/CN112193252A/zh active Pending
-
2021
- 2021-08-25 WO PCT/CN2021/114418 patent/WO2022078077A1/zh active Application Filing
-
2022
- 2022-10-18 US US17/968,341 patent/US20230048112A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022078077A1 (zh) * | 2020-10-15 | 2022-04-21 | 腾讯科技(深圳)有限公司 | 驾驶风险的预警方法、装置、计算设备及存储介质 |
CN113506012A (zh) * | 2021-07-22 | 2021-10-15 | 中冶南方城市建设工程技术有限公司 | 一种基于手机车联网数据的驾驶行为风险指数判定方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2022078077A1 (zh) | 2022-04-21 |
US20230048112A1 (en) | 2023-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112193252A (zh) | 驾驶风险的预警方法、装置、计算设备及存储介质 | |
US11688203B2 (en) | Systems and methods for providing visual allocation management | |
CN110364008B (zh) | 路况确定方法、装置、计算机设备和存储介质 | |
CN113642633B (zh) | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 | |
US11449727B2 (en) | Method, storage medium and electronic device for detecting vehicle crashes | |
US11055544B2 (en) | Electronic device and control method thereof | |
Gu et al. | A novel lane-changing decision model for autonomous vehicles based on deep autoencoder network and XGBoost | |
WO2020042984A1 (zh) | 一种车辆行为检测方法及装置 | |
US9129519B2 (en) | System and method for providing driver behavior classification at intersections and validation on large naturalistic data sets | |
Peng et al. | Uncertainty evaluation of object detection algorithms for autonomous vehicles | |
CN109118055A (zh) | 一种驾驶行为评分方法及装置 | |
Chang et al. | Onboard measurement and warning module for irregular vehicle behavior | |
Ou et al. | Deep learning-based driving maneuver prediction system | |
Nieto et al. | On creating vision‐based advanced driver assistance systems | |
Taherifard et al. | Bridging connected vehicles with artificial intelligence for smart first responder services | |
Yan et al. | Automatic identification method for driving risk status based on multi-sensor data | |
CN112849144B (zh) | 车辆控制方法、装置及存储介质 | |
Virgilio G et al. | Vision-based blind spot warning system by deep neural networks | |
CN114154510A (zh) | 自动驾驶车辆的控制方法、装置、电子设备及存储介质 | |
CN115640828A (zh) | 一种基于对抗生成网络的车载数字孪生欺骗检测方法 | |
Zhang et al. | Detecting driver distractions using a deep learning approach and multi-source naturalistic driving data | |
Meng et al. | Vehicle action prediction using artificial intelligence | |
Menendez et al. | Detecting and Predicting Smart Car Collisions in Hybrid Environments from Sensor Data | |
US20240190420A1 (en) | Method and apparatus of predicting possibility of accident in real time during vehicle driving | |
Ibrahım Fawzy | A deep learning based real-time object detection implementation in a virtual instrument cluster |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40037799 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |