CN112132861B - 一种车辆事故监测方法、***和计算机设备 - Google Patents
一种车辆事故监测方法、***和计算机设备 Download PDFInfo
- Publication number
- CN112132861B CN112132861B CN202010826914.9A CN202010826914A CN112132861B CN 112132861 B CN112132861 B CN 112132861B CN 202010826914 A CN202010826914 A CN 202010826914A CN 112132861 B CN112132861 B CN 112132861B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- pedestrian
- confidence coefficient
- confidence
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012544 monitoring process Methods 0.000 title claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 8
- 206010039203 Road traffic accident Diseases 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013136 deep learning model Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 8
- 210000003423 ankle Anatomy 0.000 claims description 7
- 210000001624 hip Anatomy 0.000 claims description 7
- 210000003127 knee Anatomy 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 210000002683 foot Anatomy 0.000 claims description 3
- 230000002441 reversible effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 2
- 230000002159 abnormal effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000035484 reaction time Effects 0.000 description 3
- 206010010071 Coma Diseases 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010010904 Convulsion Diseases 0.000 description 1
- 206010034701 Peroneal nerve palsy Diseases 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请涉及一种车辆事故监测方法、***和计算机设备,其中,该车辆事故监测方法包括:获取监控现场的音频和视频;将根据该音频的分贝大小确定第一置信度;根据该视频中车辆和行人的位置关系确定第二置信度;根据该行人的姿态变化确定第三置信度;基于该第一置信度、该第二置信度和该第三置信度加权处理得到综合置信度,当该综合置信度大于预设阈值时,判定为车辆撞人的事故,通过本申请,解决了识别车撞人的事故效率低的问题,实现了快速和准确的判断出车辆撞人的事故。
Description
技术领域
本申请涉及视频监控领域,特别是涉及一种车辆事故监测方法、***和计算机设备。
背景技术
随着经济的发展,车辆数目急剧增长,交通压力也变得越来越大,更导致了交通事故频发。采用视频方式监控城市交通状况已经越来越普遍,但是,由于监控摄像头数量众多,传统人工监控管理摄像头方式已无法满足实际要求,采用智能的科技手段替代人工是大势所趋。
目前交通事故,主要是通过报警之后,警察出警处理交通事故,这种方法存在一定的滞后性;通过视频监控,识别车的速度和状态,根据车的速度和状态判断是否发生事故,然而上述方法,不能判断在车撞到人的情况下,双方事主处于昏***况,以及一方昏迷另一方肇事逃逸的情况,如果不能及时发现和处理这些情况,会产生严重的后果。
目前针对相关技术中,识别车撞人的事故效率低的问题,尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种车辆事故监测方法、***和计算机设备,以至少解决相关技术中识别车撞人的事故效率低的问题。
第一方面,本申请实施例提供了一种车辆事故监测方法包括:获取监控现场的音频和视频;将根据所述音频的分贝大小确定第一置信度;根据所述视频中车辆和行人的位置关系确定第二置信度;根据所述行人的姿态变化确定第三置信度;基于所述第一置信度、所述第二置信度和所述第三置信度加权处理得到综合置信度,当所述综合置信度大于预设阈值时,判定为车辆撞人的事故。
在一个实施例中,所述根据所述音频的分贝确定第一置信度包括:识别所述音频中的声音类型,根据所述音频类型的分贝确定所述第一置信度,其中,所述音频的声音类型包括:猛烈的撞击声、车辆的刹车声和人的尖叫声。
在一个实施例中,所述根据所述车辆和行人的位置关系确定第二置信度之前,所述方法包括:获取人、机动车和非机动车的样本,提取所述人、所述机动车和所述非机动车样本的特征向量,对所述特征向量进行训练,生成深度学习的模型,运用所述深度学习模型,识别出所述视频中的所述车辆和所述行人,再根据所述行人和所述车辆的位置关系和特征值,对所述车辆和所述行人进行跟踪。
在一个实施例中,确定所述车辆和行人的位置关系包括:在所述车辆行驶的方向和摄像机设备的朝向平行的情况下,所述行人距离采集点远于所述车辆,选择所述行人的中间位置点作为第一关键位置点;所述行人距离采集点近于所述车辆,选择所述行人的脚部位置点作为第二关键位置点;在所述车辆行驶的方向和摄像机设备的朝向垂直的情况下,选择所述行人的中间位置点作为第三关键位置点;识别所述车辆的高度高于预设高度时,将所述行人的头部位置点作为第四关键位置点,根据所述第一关键位置点、所述第二关键位置点、所述第三关键位置点和所述第四关键位置点中的至少之一,确定所述行人的位置;在所述车辆的行驶方向为正向行驶的情况下,选择所述车辆的车头线作为所述车辆的关键位置线段,根据所述关键位置线段确定所述车辆的位置;在所述车辆的行驶方向为逆向行驶的情况下,选择所述车辆的车尾线作为所述车辆的关键位置线段,根据所述关键位置线段确定所述车辆的位置。
在一个实施例中,所述根据所述车辆和行人的位置关系确定第二置信度包括:当所述行人的第一关键位置点,与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度;当所述行人的第二关键位置点,与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度;当所述行人的第三关键位置点,与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度;当所述行人的第四关键位置点,与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度。
在一个实施例中,所述根据行人的姿态变化确定第三置信度包括以下之一:根据所述行人高度差的变化范围确定所述第三置信度;根据所述行人的脚踝、膝盖和臀部的位置点形成的夹角角度范围,确定所述第三置信度。
在一个实施例中,所述加权处理得到综合置信度,当所述综合置信度大于预设阈值时,判定为车辆撞人的事故之前,所述方法包括以下之一:当所述第一置信度大于预设阈值或者所述第三置信度大于预设阈值,判定为事故发生,不判定为车辆撞人的事故;当所述第一置信度或者所述第三置信度大于预设阈值时,判定为交通事故;当所述第一置信度与所述第三置信度两项加权之和大于预设阈值时,判定为交通事故;当所述第二置信度大于预设阈值时,判定为车撞人的事故;当所述第一置信度与所述第二置信度两项加权之和大于预设阈值时,判定为车撞人的事故;当所述第二置信度与所述第三置信度两项加权之和大于预设阈值时,判定为车撞人的事故。
第二方面,本申请实施例提供了一种车辆事故监测***包括:摄像机设备、传输设备以及服务器设备;其中,所述摄像机设备通过传输设备连接服务器设备;所述摄像机设备获取监控现场的音频和视频;所述服务器设备将根据所述音频的分贝大小确定第一置信度;根据所述视频中车辆和行人的位置关系确定第二置信度;根据所述行人的姿态变化确定第三置信度;基于所述第一置信度、所述第二置信度和所述第三置信度加权处理得到综合置信度,当所述综合置信度大于预设阈值时,判定为车辆撞人的事故。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的车辆事故监测方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的车辆事故监测方法。
相比于相关技术,本申请实施例提供的一种车辆事故监测方法,获取监控现场的音频和视频;将根据该音频的分贝大小确定第一置信度;根据该视频中车辆和行人的位置关系确定第二置信度;根据该行人的姿态变化确定第三置信度;基于该第一置信度、该第二置信度和该第三置信度加权处理得到综合置信度,当该综合置信度大于预设阈值时,判定为车辆撞人的事故,解决了识别车撞人的事故效率低的问题,实现了快速和准确的判断出车辆撞人的事故。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为根据本申请实施例中一种车辆事故监测***的应用场景示意图;
图2是根据本申请实施例的一种车辆事故监测方法的流程图;
图3A是根据本申请实施例的一种车辆事故监测方法的车辆的关键位置线的示意图;
图3B是根据本申请实施例的一种车辆事故监测方法的行人的关键位置点的示意图;
图4是根据本申请实施例的一种车辆事故监测方法的行人姿态变化的示意图;
图5是根据本申请实施例的一种车辆事故监测方法的具体实施例的流程图;
图6是根据本申请实施例的一种车辆事故监测方法的计算机设备的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
在本实施例中,提供了一种车辆事故监测***的应用场景,图1为根据本申请实施例中一种车辆事故监测***的应用场景示意图,如图1所示,该***包括:摄像机设备12和服务器设备10;其中,
该摄像机设备12通过有线或者无线连接到服务器设备10;该摄像机设备12获取监控现场的音频和视频;
该服务器设备16将根据该音频的分贝大小确定第一置信度;根据该视频中车辆和行人的位置关系确定第二置信度;根据该行人的姿态变化确定第三置信度;基于该第一置信度、该第二置信度和该第三置信度加权处理得到综合置信度,当该综合置信度大于预设阈值时,判定为车辆撞人的事故,在相关技术中,判断车辆撞人事故是通过监控人员监测终端显示器,监控人员会同时监测多个屏幕,当有发生车辆撞人的情况,进行报警,然而仅仅靠监控人员的监测效率非常低,很可能导致遗漏事故的发现,导致报警不够及时造成人员的伤亡,导致脆弱的生命无法挽回;另一种方法是通过行人发现事故,然后报警,这种情况可能导致肇事车辆逃逸,无法记录现场的情况,对社会和伤亡人员造成无法挽回的后果,本申请实施例,通过摄像机设备12获取到监控现场的音频和视频之后,对音频和视频分别进行分析,首先,通过摄像机设备12中的音频采集器,采集到在这个区间内的音频,识别出猛烈的撞击声、车辆的刹车声和人的尖叫声,根据这几类异常声音的大小,指定异常分贝的区间以及对应的置信度,提供给综合判断模块;通过摄像机设备12中视频采集器,采集到在这个区间内的视频,识别出车辆和行人,通过确定车辆关键位置线段和行人关键位置点,计算点到线的距离,得到车辆和行人的位置关系及距离,将车辆和行人的位置关系设置相应的置信度,提供给综合判断模块;判断出行人的姿态,设置行人姿态对应的置信度,提供给综合判断模块,综合判断模块根据分贝的置信度、车辆和行人位置关系的置信度和行人姿态的置信度共同决定是否发生车撞人事故,解决了识别车撞人的事故效率低的问题,实现了监测到车撞人事故,快速定位肇事车辆和报警。
本实施例还提供了一种车辆事故监测方法,图2是根据本申请实施例的一种车辆事故监测方法的流程图,如图2所示,该流程包括如下步骤:
步骤S201,获取监控现场的音频和视频,其中,监控现场可以为隧道口附近,交通意外高发的道路;
步骤S202,将根据该音频的分贝大小确定第一置信度;根据该视频中车辆和行人的位置关系确定第二置信度;根据该行人的姿态变化确定第三置信度;
步骤S203,基于该第一置信度、该第二置信度和该第三置信度加权处理得到综合置信度,当该综合置信度大于预设阈值时,判定为车辆撞人的事故。
通过上述步骤S201至S203,本申请实施例,在获取到监控现场的音频和视频之后,对音频和视频分别进行分析,首先,获取到在这个区间内的音频,识别出猛烈的撞击声、车辆的刹车声和人的尖叫声,根据这几类异常声音的大小,指定异常分贝的区间以及对应的置信度,提供给综合判断模块;获取到在这个区间内的视频,识别出车辆和行人,通过确定车辆关键位置线段和行人关键位置点,计算点到线的距离,来得到车辆和行人的位置关系及距离,将车辆和行人的位置关系设置相应的置信度,提供给综合判断模块;判断出行人的姿态,设置行人姿态对应的置信度,提供给综合判断模块,综合判断模块根据分贝的置信度、车辆和行人位置关系的置信度和行人姿态的置信度共同决定是否发生车撞人事故,具体由各方置信度值和对应的权重来计算综合置信度值,综合置信度值超过设定阈值认为发生了事故,反之没有,例如,设置音频的分贝大小、车辆和行人的位置关系和行人姿态变化的权重分别是10%、40%、50%,三者的置信度值分别是10、60和80,计算综合置信度值10*10%+60*40%+80*50%=65,设定的综合阈值是50,由于65>50,认为是发生了事故,通过本申请实施例,解决了车撞人事故不能在第一时间检测到的问题,提升了识别车撞人事故的监测效率。
在一个实施例中,根据该音频的分贝确定第一置信度包括:识别该音频中的声音类型,根据该音频类型的分贝确定该第一置信度,其中,该音频的声音类型包括:猛烈的撞击声、车辆的刹车声和人的尖叫声,此时音频采集器,采集到在这个区间内的音频,认为有异常声音,根据这几类异常声音的特点,如分贝大小,指定几段异常分贝的区间及对应置信度值,根据不同种类的声音能够设置不同的置信度,通过设置不同的置信度,有利于完善综合置信度的确定方式,更加准确的监测到车撞人的事故。
在一个实施例中,该根据该车辆和行人的位置关系确定第二置信度之前,获取人、机动车和非机动车的样本,提取该人、该机动车和该非机动车样本的特征向量,对该特征向量进行训练,生成深度学习的模型,运用该深度学习模型,识别出该视频中的该车辆和该行人,再根据该行人和该车辆的位置关系和特征值,对该车辆和该行人进行跟踪,能够在事故发生之后,实现了在确定车辆撞人事故之后,对肇事逃逸车辆追踪。
在一个实施例中,图3A是根据本申请实施例的一种车辆事故监测方法的车辆的关键位置线的示意图;图3B是根据本申请实施例的一种车辆事故监测方法的行人的关键位置点的示意图;确定该车辆和行人的位置关系包括:如图3B所示,在所述车辆行驶的方向和摄像机设备12的朝向平行的情况下,该行人距离采集点远于该车辆,选择该行人的中间位置点作为第一关键位置点31;该行人距离采集点近于该车辆,选择该行人的脚部位置点作为第二关键位置点32;在所述车辆行驶的方向和摄像机设备12的朝向垂直的情况下,选择该行人的中间位置点作为第三关键位置点31;识别该车辆的高度高于预设高度时,将该行人的头部位置点作为第四关键位置点33,根据该第一关键位置点31、该第二关键位置点32、该第三关键位置点31和该第四关键位置点33中的至少之一,确定该行人的位置;如图3A所示,在该车辆的行驶方向为正向行驶的情况下,选择该车辆的车头线A1B1作为该车辆的关键位置线段,根据该关键位置线段确定该车辆的位置;在该车辆的行驶方向为逆向行驶的情况下,选择该车辆的车尾线A2B2作为该车辆的关键位置线段,根据该关键位置线段确定该车辆的位置,其中,通过上述确定车辆和行人关系的方法,可以减少由于高度差造成的相对位置错位,提高计算车辆和行人距离的准确度。
在一个实施例中,该根据该车辆和行人的位置关系确定第二置信度包括:当该行人的第一关键位置点31,与该车辆的关键位置线段距离小于预设安全距离范围时,根据该预设安全距离的变化的比例距离,确定该第二置信度;当该行人的第二关键位置点32,与该车辆的关键位置线段距离小于预设安全距离范围时,根据该预设安全距离的变化的距离比例,确定该第二置信度;当该行人的第三关键位置点31,与该车辆的关键位置线段距离小于预设安全距离范围时,根据该预设安全距离的变化的距离比例,确定该第二置信度;当该行人的第四关键位置点34,与该车辆的关键位置线段距离小于预设安全距离范围时,根据该预设安全距离的变化的距离比例,确定该第二置信度,其中,例如,根据车辆的速度、车辆和行人的位置关系,计算出置信度值。假定车辆和行人的安全反应时间是T,车辆速度V,那么安全距离是S=VT,小于安全距离就有可能发生碰撞,根据比例得到置信度值,例如,车辆和行人的安全反应时间是1秒,车辆速度36km/h(10m/s),安全距离是10m,大于10m置信度为0,距离为4m时置信度为60,距离为0时置信度为100,通过上述设置第二置信度,提高了识别车辆撞人的准确性,增加了监测事故的效率。
在一个实施例中,图4是根据本申请实施例的一种车辆事故监测方法的行人姿态变化的示意图,该根据行人的姿态变化确定第三置信度包括以下之一:根据该行人高度差的变化范围确定该第三置信度;例如,一个成年人站立行走时,人体高度差是170cm;下蹲时人体高度差是100cm;倒地时,人体高度差是30cm。那么此人被撞倒时,人体高度差会从170cm变为30cm,根据高度差变化的比例,给出对应的置信度值。我们认为人体高度差变化50%置信度值就为100,即人体高度差每变化1%,置信度加2,置信度值最大100。那么,人体高度从170cm变为100cm时,置信度值为82;变为50cm时,置信度值为100。根据该行人的脚踝、膝盖和臀部的位置点形成的夹角角度范围,确定该第三置信度,例如,根据脚踝、膝盖、臀部形成的夹角角度,给出对应的置信度值;夹角大于135度认为是正常的,135度以下,每小1度,置信度值增加1,置信度最大值为100;那么夹角为90度时,置信度值为45;夹角小于35度时,置信度值为100,增加了判断事故发生的效率,解决了视频监测报警监测事故手段单一的问题。
在一个实施例中,加权处理得到综合置信度,当该综合置信度大于预设阈值时,判定为车辆撞人的事故之前,该方法包括以下之一:当该第一置信度大于预设阈值或者该第三置信度大于预设阈值,判定为事故发生,不判定为车辆撞人的事故;当该第一置信度或者该第三置信度大于预设阈值时,判定为交通事故;当该第一置信度与该第三置信度两项加权之和大于预设阈值时,判定为交通事故;当该第二置信度大于预设阈值时,判定为车撞人的事故;当该第一置信度与该第二置信度两项加权之和大于预设阈值时,判定为车撞人的事故;当该第二置信度与该第三置信度两项加权之和大于预设阈值时,判定为车撞人的事故,增加了判断事故发生的效率,解决了视频监测报警监测事故手段单一的问题。
在一个实施例中,图5是根据本申请实施例的一种车辆事故监测方法的具体实施例的流程图,如图5所示,该流程包括如下步骤:
步骤S501,获取音视频流后,分别对视频帧进行音频分析和视频分析;
步骤S502,音频分析,主要识别是否有猛烈的撞击声、车辆刹车声、人的惊叫声等异常声音,根据这几类异常声音的特点,如分贝大小,指定几段异常分贝的区间及对应置信度值。音频采集器,采集到在这个区间内的音频,确认为有异常声音时,得到此区间内的置信度值,提供给综合判断模块。视频分析,主要是分别对车辆和行人的运行状态进行分析,识别并跟踪车辆和识别并跟踪行人包括:基于深度学***(X轴)方向时:选择行人中心点作为行人的关键位置点,这样可以减少由于高度差造成的相对位置错位,提高计算车辆和行人距离的准确度。车辆和行人的位置关系:当关键位置点到关键位置线段所在直线的垂直距离L不断缩小,直到L小于某个较小的阈值,且此时关键位置点正好在关键位置线段的垂直方向时,认为可能发生了碰撞。此阈值根据车辆的速度、车辆和行人的位置关系,计算出置信度值。假定车辆和行人的安全反应时间是T,车辆速度V,那么安全距离是S=VT,小于安全距离就有可能发生碰撞,根据比例得到置信度值。行人姿态是否发生变化:识别并记录行人姿态信息,判断行人的人体姿态是否有发生变化,特别是从站立行走的姿态变为倒地、下蹲等姿态,具体检测方式可有以下两种方式:第一种当人体的高度差突然发生明显变化,根据高度差变化的比例,给出对应的置信度值。我们认为人体高度差变化50%置信度值就为100,即人体高度差每变化1%,置信度加2,置信度值最大100,那么人体高度从170cm变为100cm时,置信度值为82;人体高度变为50cm时,置信度值为100。第二种当基于人体骨骼的识别,根据人体关键点分布特征,判断人体姿态是否从站立行走变为倒地或下蹲。例如:脚踝、膝盖、臀部、肩部基本在一条线的时候可能是站立行走;脚踝、膝盖、臀部形成较小的夹角的时候可能是下蹲或者倒地。根据脚踝、膝盖、臀部形成的夹角角度,给出对应的置信度值。夹角大于135度认为是正常的,135度以下,每减小1度,置信度值增加1,置信度最大值为100。夹角为90度时,置信度值为45;夹角小于35度时,置信度值为100。
步骤S503,判断车和人是否发生碰撞:音频分析捕捉到异常声音、车辆和行人的位置关系、行人姿态变化,三者均可触发碰撞判断,然后根据三者的数据,综合判断是否发生了车撞人的事故,判断发生事故由三者共同决定,具体由各方置信度值和对应的权重来计算综合置信度值,综合置信度值超过设定阈值认为发生了事故,反之没有。
步骤S504,上报告警:检测车撞人的交通事故后,及时上报告警。
本申请实施例提供了一种计算机可读存储介质,图6是根据本申请实施例的一种车辆事故监测方法的计算机设备的示意图,如图6所示,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面该的车辆事故监测方法。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
另外,结合上述实施例中的一种车辆事故监测方法,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本领域的技术人员应该明白,以上该实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上该实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种车辆事故监测方法,其特征在于,包括:
获取监控现场的音频和视频;
将根据所述音频的分贝大小确定第一置信度;根据所述视频中车辆和行人的位置关系确定第二置信度;根据所述行人的姿态变化确定第三置信度;
基于所述第一置信度、所述第二置信度和所述第三置信度加权处理得到综合置信度,当所述综合置信度大于预设阈值时,判定为车辆撞人的事故。
2.根据权利要求1所述的方法,其特征在于,所述根据所述音频的分贝确定第一置信度包括:
识别所述音频中的声音类型,根据所述音频类型的分贝确定所述第一置信度,其中,所述音频的声音类型包括:猛烈的撞击声、车辆的刹车声和人的尖叫声。
3.根据权利要求1所述的方法,其特征在于,所述根据所述车辆和行人的位置关系确定第二置信度之前,所述方法包括:
获取人、机动车和非机动车的样本,提取所述人、所述机动车和所述非机动车样本的特征向量,对所述特征向量进行训练,生成深度学习的模型,运用所述深度学习模型,识别出所述视频中的所述车辆和所述行人,再根据所述行人和所述车辆的位置关系和特征值,对所述车辆和所述行人进行跟踪。
4.根据权利要求1所述的方法,其特征在于,确定所述车辆和行人的位置关系包括:
在所述车辆行驶的方向和摄像机设备的朝向平行的情况下,
所述行人距离采集点远于所述车辆,选择所述行人的中间位置点作为第一关键位置点;
所述行人距离采集点近于所述车辆,选择所述行人的脚部位置点作为第二关键位置点;
在所述车辆行驶的方向和摄像机设备的朝向垂直的情况下,选择所述行人的中间位置点作为第三关键位置点;
识别所述车辆的高度高于预设高度时,将所述行人的头部位置点作为第四关键位置点,根据所述第一关键位置点、所述第二关键位置点、所述第三关键位置点和所述第四关键位置点中的至少之一,确定所述行人的位置;
在所述车辆的行驶方向为正向行驶的情况下,选择所述车辆的车头线作为所述车辆的关键位置线段,根据所述关键位置线段确定所述车辆的位置;
在所述车辆的行驶方向为逆向行驶的情况下,选择所述车辆的车尾线作为所述车辆的关键位置线段,根据所述关键位置线段确定所述车辆的位置。
5.根据权利要求4所述的方法,其特征在于,所述根据所述车辆和行人的位置关系确定第二置信度包括:
当所述行人的第一关键位置点与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度;
当所述行人的第二关键位置点与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度;
当所述行人的第三关键位置点与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度;
当所述行人的第四关键位置点与所述车辆的关键位置线段距离小于预设安全距离范围时,根据所述预设安全距离的变化的距离,确定所述第二置信度。
6.根据权利要求1所述的方法,其特征在于,所述根据行人的姿态变化确定第三置信度包括以下之一:
根据所述行人高度差的变化范围确定所述第三置信度;
根据所述行人的脚踝、膝盖和臀部的位置点形成的夹角角度范围,确定所述第三置信度。
7.根据权利要求1所述的方法,其特征在于,所述加权处理得到综合置信度,当所述综合置信度大于预设阈值时,判定为车辆撞人的事故之前,所述方法包括以下之一:
当所述第一置信度大于预设阈值或者所述第三置信度大于预设阈值,判定为事故发生,不判定为车辆撞人的事故;
当所述第一置信度或者所述第三置信度大于预设阈值时,判定为交通事故;
当所述第一置信度与所述第三置信度两项加权之和大于预设阈值时,判定为交通事故;
当所述第二置信度大于预设阈值时,判定为车撞人的事故;
当所述第一置信度与所述第二置信度两项加权之和大于预设阈值时,判定为车撞人的事故;
当所述第二置信度与所述第三置信度两项加权之和大于预设阈值时,判定为车撞人的事故。
8.一种车辆事故监测***,其特征在于,包括:摄像机设备、传输设备以及服务器设备;其中,所述摄像机设备通过传输设备连接服务器设备;
所述摄像机设备获取监控现场的音频和视频;
所述服务器设备将根据所述音频的分贝大小确定第一置信度;根据所述视频中车辆和行人的位置关系确定第二置信度;根据所述行人的姿态变化确定第三置信度;基于所述第一置信度、所述第二置信度和所述第三置信度加权处理得到综合置信度,当所述综合置信度大于预设阈值时,判定为车辆撞人的事故。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的车辆事故监测方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一项所述的车辆事故监测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010826914.9A CN112132861B (zh) | 2020-08-17 | 2020-08-17 | 一种车辆事故监测方法、***和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010826914.9A CN112132861B (zh) | 2020-08-17 | 2020-08-17 | 一种车辆事故监测方法、***和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112132861A CN112132861A (zh) | 2020-12-25 |
CN112132861B true CN112132861B (zh) | 2024-04-26 |
Family
ID=73851546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010826914.9A Active CN112132861B (zh) | 2020-08-17 | 2020-08-17 | 一种车辆事故监测方法、***和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132861B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113450590A (zh) * | 2021-06-29 | 2021-09-28 | 重庆市司法局 | 一种指挥中心***及其工作方法 |
CN115223370B (zh) * | 2022-08-31 | 2023-01-17 | 四川九通智路科技有限公司 | 一种交通事故检测方法及检测*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010056087A2 (ko) * | 2008-11-17 | 2010-05-20 | Hur In Young | 교통사고 판별 시스템, 판별 방법 및 판별 장치 |
CN109076167A (zh) * | 2016-06-17 | 2018-12-21 | 索尼公司 | 图像处理器、摄像装置和图像处理*** |
CN109670380A (zh) * | 2017-10-13 | 2019-04-23 | 华为技术有限公司 | 动作识别、姿势估计的方法及装置 |
CN110139073A (zh) * | 2019-05-10 | 2019-08-16 | 浙江大华技术股份有限公司 | 车辆视频监控数据发送方法、装置以及计算机设备 |
CN110309735A (zh) * | 2019-06-14 | 2019-10-08 | 平安科技(深圳)有限公司 | 异常侦测方法、装置、服务器及存储介质 |
WO2020001395A1 (zh) * | 2018-06-29 | 2020-01-02 | 大连民族大学 | 道路行人分类方法及二维世界坐标系的俯视行人风险量化方法 |
CN111105619A (zh) * | 2019-11-28 | 2020-05-05 | 智慧互通科技有限公司 | 一种路侧逆向停车的判断方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10572740B2 (en) * | 2018-05-16 | 2020-02-25 | 360Ai Solutions Llc | Method and system for detecting a threat or other suspicious activity in the vicinity of a motor vehicle |
-
2020
- 2020-08-17 CN CN202010826914.9A patent/CN112132861B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010056087A2 (ko) * | 2008-11-17 | 2010-05-20 | Hur In Young | 교통사고 판별 시스템, 판별 방법 및 판별 장치 |
CN109076167A (zh) * | 2016-06-17 | 2018-12-21 | 索尼公司 | 图像处理器、摄像装置和图像处理*** |
CN109670380A (zh) * | 2017-10-13 | 2019-04-23 | 华为技术有限公司 | 动作识别、姿势估计的方法及装置 |
WO2020001395A1 (zh) * | 2018-06-29 | 2020-01-02 | 大连民族大学 | 道路行人分类方法及二维世界坐标系的俯视行人风险量化方法 |
CN110139073A (zh) * | 2019-05-10 | 2019-08-16 | 浙江大华技术股份有限公司 | 车辆视频监控数据发送方法、装置以及计算机设备 |
CN110309735A (zh) * | 2019-06-14 | 2019-10-08 | 平安科技(深圳)有限公司 | 异常侦测方法、装置、服务器及存储介质 |
CN111105619A (zh) * | 2019-11-28 | 2020-05-05 | 智慧互通科技有限公司 | 一种路侧逆向停车的判断方法及装置 |
Non-Patent Citations (3)
Title |
---|
Audio–Video based People Counting and Security Framework for Traffic Crossings;Ankush Mittal et al.;《The Journal of VLSI Signal Processing Systems for Signal, Image, and Video Technology 》;20070710;377-391 * |
基于NAIS数据库中视频信息的人―车碰撞事故特征分析;曹毅等;《汽车安全与节能学报》;20200315;第11卷(第1期);44-52 * |
影响乘员追尾伤害因素的研究;翟锡杰等;《汽车工程学报》;20181120;第8卷(第6期);459-465 * |
Also Published As
Publication number | Publication date |
---|---|
CN112132861A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112389448B (zh) | 一种基于车辆状态和驾驶员状态的异常驾驶行为识别方法 | |
CN112132861B (zh) | 一种车辆事故监测方法、***和计算机设备 | |
Ki et al. | A traffic accident recording and reporting model at intersections | |
US9975550B2 (en) | Movement trajectory predicting device and movement trajectory predicting method | |
US20180150704A1 (en) | Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera | |
CN106652465A (zh) | 一种道路异常驾驶行为的识别方法及*** | |
KR101116273B1 (ko) | 교통사고 인식장치 및 그 방법 | |
CN110738150B (zh) | 相机联动抓拍方法、装置以及计算机存储介质 | |
CN110895662A (zh) | 车辆超载报警方法、装置、电子设备及存储介质 | |
CN113676702B (zh) | 基于视频流的目标追踪监测方法、***、装置及存储介质 | |
CN106920293A (zh) | 车辆事故自动记录分析方法 | |
Sanchez et al. | Vehicle re-identification using wireless magnetic sensors: Algorithm revision, modifications and performance analysis | |
CN111081061B (zh) | 碰撞预警方法及装置 | |
CN114248819B (zh) | 基于深度学习的铁路侵限异物无人机检测方法、装置及*** | |
CN115877343A (zh) | 基于雷达目标跟踪的人车匹配方法、装置和电子设备 | |
KR101958868B1 (ko) | 야간 주행 자동차를 위한 보행자 의도 예측 시스템 및 이를 이용한 방법 | |
CN111932889A (zh) | 一种基于车路协同的交通疏导*** | |
CN111383248B (zh) | 一种行人闯红灯判断方法、装置和电子设备 | |
KR20210158037A (ko) | 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법 | |
KR101311148B1 (ko) | 영상 감시 시스템 및 영상 감시 시스템의 객체 검출 방법 | |
CN112347906B (zh) | 公交车内异常聚集行为的检测方法 | |
CN113055651A (zh) | 一种人工智能型车辆安防***及计算机可读存储介质 | |
US11176379B2 (en) | Method of acquiring detection zone in image and method of determining zone usage | |
CN117115752A (zh) | 一种高速公路视频监控方法及*** | |
CN111178194B (zh) | 入侵检测方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |