CN112349100A - 一种基于网联环境的多视角行车风险评估方法及装置 - Google Patents
一种基于网联环境的多视角行车风险评估方法及装置 Download PDFInfo
- Publication number
- CN112349100A CN112349100A CN202011241085.4A CN202011241085A CN112349100A CN 112349100 A CN112349100 A CN 112349100A CN 202011241085 A CN202011241085 A CN 202011241085A CN 112349100 A CN112349100 A CN 112349100A
- Authority
- CN
- China
- Prior art keywords
- area
- risk
- region
- environment
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/44—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
Landscapes
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于网联环境的多视角行车风险评估方法及装置,所述方法包括:步骤1,将待风险评估区域划分成若干子区域;步骤2,通过选定的路侧感知设备获取各子区域的第一环境感知信息,判断各子区域的置信度;步骤3,判断待风险评估区域中低置信度区域所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值;步骤4,将低置信度区域的第一环境感知信息和与该第一环境感知信息同一子区域的第二环境感知信息进行融合拼接,进而获得对应低置信度区域Alow的增强后环境感知结果;步骤5,生成待风险评估区域的全局环境感知结果;步骤6,对待风险评估区域的整体风险进行评估。本发明能够利用网联环境,实现无盲区的实时感知和风险评估目的。
Description
技术领域
本发明涉及网联自动驾驶车辆技术领域,特别是关于一种基于网联环境的多视角行车风险评估方法及装置。
背景技术
网联自动驾驶车辆技术是未来交通发展的趋势之一,其能够为人们出行带来便利、节省时间。但其作为新生事物,其安全性和可靠性是目前学术界和工业界研究热点。实际上,自动驾驶车辆应能够与熟练人类驾驶员一样,可有效而准确地实时评估自身及所处环境的安全风险,并采取通过风险最低区域或路径以达到更加安全目的。但目前网联自动驾驶车辆技术在风险评估方面仍有很大进步空间。
目前风险评估方法一般由基于历史数据统计的风险评估方法和基于模型的实时风险评估方法。这两类方法有其各自的优点和缺点,对于车辆风险评估的计算并不全面。
基于数据统计的风险评估方法以从交管单位获取道路交通相关信息,对其进行统计分析,对应道路在一定时期内较稳定的潜在风险。这种方法主要是从交通事故违法行为数据库中,获取在预设时间段内发生了交通事故违法行为的事故道路和对应的交通事故违法行为数据量。从危险驾驶行为数据库中,获取在所述预设时间段内所述事故道路对应的危险驾驶行为数据量。根据所述事故道路的交通事故违法行为数据量和危险驾驶行为数据量,得到道路风险评估阈值。从危险驾驶行为数据库中,获取在所述预设时间段内除所述事故道路外的其他道路对应的危险驾驶行为数据量。将所述其他道路对应的危险驾驶行为数据量和所述道路风险评估阈值进行比较,得到所述其他道路的风险评估结果。这方法主要针对历史交通数据,对于道路规划与设计具有参考价值,但其局限性是无法应对交通环境实时变化,难以直接指导自动驾驶车辆的决策和控制。
基于模型的实时风险评价方法可分为基于确定性指标的风险评估和基于交互的风险评估方法。确定性指标一般以简化车辆动力学为基础,考虑车辆碰撞风险的时间和空间指标,如TTC、THW等,符合人类直观思维。而基于交互的风险评估方法通过估计交通参与者们的行为意图,输出未来碰撞概率以计算风险度。这种方法能够根据车辆所处环境不同,根据模型驱动或数据驱动获取车辆的周围风险。然而,目前方法多以单车计算力和单车感知为主进行实时评估,在面对人车混流的复杂交通口等因素时经常会出现车辆之间遮挡而出现“评估盲区”以及计算力不足的问题。
发明内容
本发明的目的在于提供一种基于网联环境的多视角行车风险评估方法及装置来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种基于网联环境的多视角行车风险评估方法及装置,所述网联环境的多视角风险评估方法包括:
步骤1,确定待风险评估区域,将待风险评估区域划分成若干子区域;
步骤2,通过选定的路侧感知设备获取各子区域的第一环境感知信息f1,判断各子区域的置信度,子区域分为低置信度区域Alow和高置信度区域Ahigh;
步骤3,判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值,如果是,则进入步骤4,否则,重新选定路侧感知设备,并返回步骤2;
步骤4,低置信度区域Alow的路侧感知设备将信息请求发送到该子区域内的网联车辆,接收到请求信息的网联车辆根据自车视角获取第二环境感知信息f2,并将第二环境感知信息反馈给发送信息请求的路侧感知设备,再将低置信度区域Alow的第一环境感知信息和与该第一环境感知信息同一子区域的第二环境感知信息进行融合拼接,进而获得对应低置信度区域Alow的增强后环境感知结果fenhance;
步骤5,生成待风险评估区域的全局环境感知结果Ffinal;
步骤6,对待风险评估区域的整体风险进行评估,并获取实时风险图G。
进一步地,步骤2中的“获取第一环境感知信息f1”和/或步骤4中的“获取第二环境感知信息f2”的方法具体包括:
步骤c,求出待风险评估区域中的交通目标的未来限定时间θt的轨迹位置序列Lseq。
进一步地,步骤2中的“判断各子区域的置信度”的方法具体包括:
利用感知结果自评价模型feva对第一环境感知信息f1进行评估,若计算所得自评价结果feva大于设定阈值θcon,则为高置信度区域Ahigh;若feva小于θcon,则为低置信度区域Alow;
feva=fhard+fconf (1)
其中,由式(2)表示的视觉属性评估子模型fhard用于评价待风险评估区域中给定的视觉困难属性分布;
fhard=hocc+hsml+hfm (2)
其中,遮挡评价函数hocc用于根据单一交通目标被遮挡面积占该交通目标整体面积的比例,对处于不同预设比例范围的遮挡程度进行评分和取值;
小目标评价函数hsml用于根据单一交通目标的像素尺寸占其所在的图像尺寸的比例,对处于不同比例范围内的交通目标进行评分和取值;
快速运动评价函数hfm用于根据第一环境感知信息,估计图像运动模糊程度,运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1;
检测结果部分fconf根据步骤11输出的空间置信度得到。
进一步地,遮挡评价函数hocc中,“对处于不同预设比例范围的遮挡程度进行评分”具体包括:
单一交通目标被遮挡面积占该交通目标整体面积的比例处于0~m1的预设比例范围内时,为小部分遮挡,评分为n1;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m1~m2的预设比例范围内时,为部分遮挡,评分为n2;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m2~m3的预设比例范围内时,为大部分遮挡,评分为n3;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于大于m3的预设比例范围内时,为大部分遮挡,评分为n4;
上述的0<m1<m2<m3<1,0<n3<n2<n1;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
进一步地,小目标评价函数hsml中,“对处于不同预设比例范围的遮挡程度进行评分和取值”具体包括:
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于0~h1的第一预设尺寸比例,则认为是小尺寸交通目标,评价为q1;
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于大于h1的第二预设尺寸比例,则认为交通目标尺度的继续增大则不会影响检测结果,评价为q2;
上述的0<h1<h2<1,q1<q2;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
进一步地,步骤6具体包括:
步骤61,构建待风险评估区域的风险属性信息集合I={Deva,θv,TTC,THW},Deva、θV、TTC和THW分别为待风险评估区域的交通目标密度、交通目标的平均速度分布、所有目标的平均碰撞时间和车头时距;
步骤62,所述边缘计算方法采用路侧感知设备配备的处理器直接进行路侧感知和融合车载与路侧的风险计算静止目标的势能场场强ER、评估区域内运动目标的动能场场强EV和驾驶员行为场场强ED;
步骤63,网联环境下待风险评估区域的行车风险表示为式(5):
ECS=ER+EV+ED+EI (5)
其中,ECS代表行车安全场场强,EI代表信息场,其表达式为(7);
其中,ζ代表待风险评估区域的渗透率,CQ代表由式(6)表示的待风险评估区域的网联环境通信性能,当CQ越大时,则通信质量越差;
式中,TS、PLR和TD分别为待风险评估区域的网联环境通信的传输速度、丢包率和延迟。
本发明提供一种基于网联环境的多视角风险评估装置,该装置包括:
子区域划分单元,其用于确定待风险评估区域,将待风险评估区域划分成若干子区域;
子区域置信度判断单元,其用于通过选定的路侧感知设备获取各子区域的第一环境感知信息f1,判断各子区域的置信度,子区域分为低置信度区域Alow和高置信度区域Ahigh;
低置信度区域的面积占比判断单元,其用于判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值,如果是,则低置信度区域Alow的路侧感知设备将信息请求发送到该子区域内的网联车辆;否则,重新选定路侧感知设备以及子区域置信度判断单元根据新选定的路侧感知设备获取各子区域的第一环境感知信息判断各子区域的置信度;
低置信度区域的环境感知单元,其用于接收路侧感知设备发送的请求信息,根据自车视角获取第二环境感知信息f2,并将第二环境感知信息f2反馈给发送信息请求的路侧感知设备,再将低置信度区域Alow的第一环境感知信息f1和与该第一环境感知信息f1同一子区域的第二环境感知信息f2进行融合拼接,进而获的对应低置信度区域Alow的增强后环境感知结果fenhance;
全局环境感知结果生成单元,其用于生成待风险评估区域的全局环境感知结果Ffinal;
风险评估单元,其用于对待风险评估区域的整体风险进行评估,并获取实时风险图G。
进一步地,子区域置信度判断单元中的“获取第一环境感知信息f1”和/或低置信度区域的环境感知单元中的“获取第二环境感知信息f2”的方法具体包括:
步骤c,求出待风险评估区域中的交通目标的未来限定时间θt的轨迹位置序列Lseq。
进一步地,子区域置信度判断单元中的“判断各子区域的置信度”的方法具体包括:
利用感知结果自评价模型Feva对第一环境感知信息f1进行评估,若计算所得自评价结果Feva大于设定阈值θcon,则为高置信度区域Ahigh;若Feva小于θcon,则为低置信度区域Alow;
Feva=fhard+fconf (1)
其中,由式(2)表示的视觉属性评估子模型fhard用于评价待风险评估区域中给定的视觉困难属性分布;
fhard=hocc+hsml+hfm (2)
其中,遮挡评价函数hocc用于根据单一交通目标被遮挡面积占该交通目标整体面积的比例,对处于不同预设比例范围的遮挡程度进行评分和取值;
小目标评价函数hsml用于根据单一交通目标的像素尺寸占其所在的图像尺寸的比例,对处于不同比例范围内的交通目标进行评分和取值;
快速运动评价函数hfm用于根据第一环境感知信息,估计图像运动模糊程度,运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1;
检测结果部分fconf根据步骤11输出的空间置信度得到。
进一步地,风险评估单元具体包括:
风险属性信息集合构建子单元,其用于构建待风险评估区域的风险属性信息集合I={Deva,θv,TTC,THW},Deva、θV、TTC和THW分别为待风险评估区域的交通目标密度、交通目标的平均速度分布、所有目标的平均碰撞时间和车头时距;
第一计算子单元,其通过所述边缘计算方法采用路侧感知设备配备的处理器直接进行路侧感知和融合车载与路侧的风险计算静止目标的势能场场强ER、评估区域内运动目标的动能场场强EV和驾驶员行为场场强ED;
第二计算子单元,其用于采用式(5)计算网联环境下待风险评估区域的行车风险:
ECS=ER+EV+ED+EI (5)
其中,ECS代表行车安全场场强,EI代表信息场,其表达式为(7);
其中,ζ代表待风险评估区域的渗透率,CQ代表由式(6)表示的待风险评估区域的网联环境通信性能,当CQ越大时,则通信质量越差;
式中,TS、PLR和TD分别为待风险评估区域的网联环境通信的传输速度、丢包率和延迟。
本发明由于采取以上技术方案,其具有以下优点:
本发明能够利用网联环境,实现无盲区的实时感知和风险评估目的。
附图说明
图1为网联环境的多视角风险评估方法的流程示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
如图1所示,本发明实施例提供的网联环境的多视角风险评估方法包括:
步骤1,确定待风险评估区域以及该区域周围的路侧感知设备的数目与编号,并将待风险评估区域划分成若干子区域。
其中,“将待风险评估区域划分成若干子区域”的方法可以是对待风险评估区域进行网格化处理,比如:将待风险评估区域的面积均分为面积大于或等于单车面积小于四分之一整体待评估区域面积的网格,如10*10网格。
步骤2,通过选定的路侧感知设备获取各子区域的第一环境感知信息f1,判断各子区域的置信度,子区域分为低置信度区域Alow和高置信度区域Ahigh。
其中,待风险评估区域周围可有多个路侧感知设备,对于待风险评估区域中的每个子区域,“选定的路侧感知设备”的方式是采用距离最小原则分配最近的路侧感知设备。
在一个实施例中,“获取第一环境感知信息f1”的方法具体包括:
步骤c,求出待风险评估区域中的交通目标的未来限定时间θt的轨迹位置序列Lseq。
交通目标可以理解为事先设定的目标类别,包括车辆、行人和骑车人。
通过获取第一环境感知信息f1,建立待风险评估区域的全局感知图,感知图中高置信度的子区域为正常区域,低置信度的子区域为感知空洞。
其中,“判断各子区域的置信度”的方法具体包括:
利用感知结果自评价模型Feva对第一环境感知信息f1进行评估,包括视觉属性评估fhard和检测结果评价fconf两部分,将二者结合起来求解整体自评价结果。若计算所得自评价结果Feva大于设定阈值θcon,则为高置信度区域Ahigh;若Feva小于θcon,则为低置信度区域Alow。阈值θcon通过人工标定方法获取,例如:通过事先人工分别选取Nθ个有代表性的高置信度和低置信度区域的场景,并计算以上场景的Feva值,再根据所求解值Feva的均值设定θcon。
Feva=fhard+fconf (1)
其中,由式(2)表示的视觉属性评估子模型fhard用于评价待风险评估区域中给定的视觉困难属性分布,限定的视觉困难属性包括遮挡、小目标和快速运动,分别采用遮挡评价函数hocc、小目标评价函数hsml和快速运动评价函数hfm进行估计。
fhard=hocc+hsml+hfm (2)
其中,遮挡评价函数hocc用于根据单一交通目标被遮挡面积占该交通目标整体面积的比例,对处于不同预设比例范围的遮挡程度进行评分和取值。
遮挡评价函数hocc中,“对处于不同预设比例范围的遮挡程度进行评分”具体包括:
单一交通目标被遮挡面积占该交通目标整体面积的比例处于0~m1的预设比例范围内时,为小部分遮挡,评分为n1;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m1~m2的预设比例范围内时,为部分遮挡,评分为n2;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m2~m3的预设比例范围内时,为大部分遮挡,评分为n3;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于大于m3的预设比例范围内时,为大部分遮挡,评分为n4;
上述的0<m1<m2<m3<1,0<n3<n2<n1;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
比如:遮挡评价函数hocc可以采用能够进行分类的机器学习算法根据给定标注的遮挡样本进行遮挡分类。可利用的机器学习算法包括但不限于神经网络和决策树等,以单一交通目标被遮挡面积占该交通目标整体面积的比例为依据,将遮挡情况分类为小部分遮挡(0~0.25)、部分遮挡(0.25~0.5)、大部分遮挡(0.5~0.75)和全遮挡(>0.75)4个类别,分别对应打分取值为1、0.75、0.5、0.25。
小目标评价函数hsml用于根据单一交通目标的像素尺寸占其所在的图像尺寸的比例,对处于不同比例范围内的交通目标进行评分和取值。
小目标评价函数hsml中,“对处于不同预设比例范围的遮挡程度进行评分和取值”具体包括:
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于0~h1的第一预设尺寸比例,则认为是小尺寸交通目标,评价为q1;
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于大于h1的第二预设尺寸比例,则认为交通目标尺度的继续增大则不会影响检测结果,评价为q2;
上述的0<h1<h2<1,q1<q2;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
例如:小目标评价函数hsml可采用所检测出目标的像素尺寸与原始图像尺寸比较结果获取,小目标评价函数取值是[0,1]。若尺寸比例小于0.1,则认为是小目标,此时取最低评价值0。当目标尺寸比例达到0.5或大于0.5时,则认为目标尺度的继续增大则不会影响检测结果,此时取最高评价值1。可利用具有单调递增关系的函数,包括但不限于指数函数,以表示尺寸比例越大则是小目标的概率越小,从而评分越高的关系。
快速运动评价函数hfm用于根据第一环境感知信息,估计图像运动模糊程度,运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1。例如:可采用图像运动模糊算法进行估计,可采用的运动模糊算法包括但不限于拉普拉斯方差算法等,根据算法得到的运动模糊程度进行打分评价,打分取值范围[0,1]。运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1。
检测结果部分fconf根据步骤11输出的空间置信度得到。每个目标检测算法在输出目标的位置和类别同时都会输出置信度,置信度取值范围是[0,1]。因而是直接从目标检测算法中该区域中目标检测算法的置信度均值。
经过以上计算后,可得到整体自评价结果。
步骤3,判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值,如果是,则进入步骤4,否则,重新选定路侧感知设备,并返回步骤2。
下面以举例方式说明“判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值”的方法,一个子区域对应为一个网格,其具体包括:
步骤31,计算低置信度区域Alow的网格数目Gridlow和高置信度区域Ahigh的网格数目Gridhigh。
步骤32,若低置信度网格数目满足公式(3)时:
表示低置信度区域Alow占待风险评估区域整体面积的四分之一以上,即此时车载感知算法已不能满足感知需要。则更换路侧感知设备对于所需评价区域进行重新感知,即返回步骤2。否则,对于置信度较低区域内部目标利用车辆环境感知算法获取的感知结果,即进入步骤4,增强整体感知结果精度。
由于待风险评估区域的子区域具有三种情形:
第一种,全都是低置信度区域Alow;
第二种,全都是高置信度区域Ahigh;
第三种,既有低置信度区域Alow,也有高置信度区域Ahigh。
若出现第一种情形,都为低置信度区域,则返回步骤2,直接更换路侧感知设备,更换完以后则不应都为低置信度区域。若出现第二种情形,都为高置信度区域,此种情况有可能出现,则直接获取的为全局环境感知结果,不需要网联车辆提供车载环境感知信息。
步骤4,低置信度区域Alow的路侧感知设备将信息请求发送到该子区域内的网联车辆,接收到请求信息的网联车辆根据自车视角获取第二环境感知信息f2,并将第二环境感知信息f2反馈给发送信息请求的路侧感知设备,再将低置信度区域Alow的第一环境感知信息f1和与该第一环境感知信息f1同一子区域的第二环境感知信息f2进行融合拼接,进而获的对应低置信度区域Alow的增强后环境感知结果fenhance。
通过车载环境感知算法作为路侧感知设备感知的补充,针对低置信度区域进行二次感知以解决遮挡等问题达到感知增强目的。
在上述列举的第二种情形(全都是高置信度区域Ahigh)下,Ffinal为由多个与子区域数目相同的f1的结果直接拼接而成。在上述列举的第三种情形(既有低置信度区域Alow,也有高置信度区域Ahigh)下,若每个子区域内部都同时有低置信度区域Alow和高置信度区域Ahigh,则Ffinal是由多个与子区域数目相同的fenhance拼接而成;若部分子区域为低置信度区域Alow,剩下部分子区域为高置信度区域Ahigh,则将低置信度区域Alow的fenhance和高置信度区域Ahigh的f1拼接可得到Ffinal。
其中,路侧感知设备通过将广播的方式仅对于离低置信度区域Alow距离小于设定距离阈值θdist内的单车辆或多车辆,也可以理解为:子区域内部以及距离小于距离的阈值的子区域的外部的所有网联车辆。所用信息广播方法包括5G-V2X等通信方式。
其中,“获取第二环境感知信息f2”的方法具体包括:
步骤c,求出待风险评估区域中的交通目标的未来限定时间θt的轨迹位置序列Lseq。
与路侧感知算法不同是,因车载计算力有限,采用对计算量更低的可实时算法。
步骤5,生成待风险评估区域的全局环境感知结果Ffinal。
步骤6,根据全局感知结果以及利用网联环境获取风险评估的其它信息,采用进行车安全场模型对待风险评估区域的整体风险进行评估,并获取实时风险图G。
步骤6具体包括:
步骤61,风险属性是指在行车环境中通过感知获取的对于行车安全的主要整体指标。构建待风险评估区域的风险属性信息集合I={Deva,θv,TTC,THW},Deva、θV、TTC(英文全称为:time to collision)和THW(英文全称为:time headway)分别为待风险评估区域的交通目标密度、交通目标的平均速度分布、所有目标的平均碰撞时间和车头时距,TTC和THW可以通过车载辅助驾驶功能获得。
步骤62,所述边缘计算方法采用路侧感知设备配备的处理器直接进行路侧感知和融合车载与路侧的风险计算静止目标的势能场场强ER、评估区域内运动目标的动能场场强EV和驾驶员行为场场强ED。
步骤63,网联环境下待风险评估区域的行车风险表示为式(5):
ECS=ER+EV+ED+EI (5)
其中,ECS代表行车安全场场强,ER、EV和ED通过步骤62获得,EI代表信息场,信息场表征风险属性信息的传播和质量在风险评估区域内对行车安全影响物理场,主要受到网联车辆渗透率、风险属性信息质量和通信质量影响,其表达式为(7);
其中,风险属性信息通过感知获取,可能存在感知质量问题。若感知质量出现问题则可能引起评价误差,对于指导行车具有不利作用。因而选取风险属性信息质量函数为Ffinal,取值越大说明风险属性信息质量越高,对于指导网联车辆驾驶更加有利。
ζ代表待风险评估区域的渗透率,渗透率表示网联车辆占评估区域车辆比值,取值范围[0,1]。随着渗透率增加,区域内车辆信息传播趋于平均,网联车辆将不占据信息优势。
待风险评估区域内,通信性能对于信息场表征也具有重要影响。CQ代表待风险评估区域的网联环境通信性能,包括待风险评估区域的网联环境通信的传输速度TS、丢包率PLR和延迟TD。CQ由式(6)表示,当CQ越大时,则通信质量越差;
本发明实施例还提供一种基于网联环境的多视角风险评估装置,该装置包括子区域划分单元、子区域置信度判断单元、低置信度区域的面积占比判断单元、低置信度区域的环境感知单元、全局环境感知结果生成单元和风险评估单元,其中:
子区域划分单元用于确定待风险评估区域,将待风险评估区域划分成若干子区域。
其中,“将待风险评估区域划分成若干子区域”的方法可以是对待风险评估区域进行网格化处理,比如:将待风险评估区域的面积均分为面积大于或等于单车面积小于四分之一整体待评估区域面积的网格,如10*10网格。
子区域置信度判断单元用于通过选定的路侧感知设备获取各子区域的第一环境感知信息f1,判断各子区域的置信度,子区域分为低置信度区域Alow和高置信度区域Ahigh。
其中,待风险评估区域周围可有多个路侧感知设备,对于待风险评估区域中的每个子区域,“选定的路侧感知设备”的方式是采用距离最小原则分配最近的路侧感知设备。
在一个实施例中,“获取第一环境感知信息f1”的方法具体包括:
步骤c,求出待风险评估区域中的交通目标的未来限定时间θt的轨迹位置序列Lseq。
其中,“判断各子区域的置信度”的方法具体包括:
利用感知结果自评价模型Feva对第一环境感知信息f1进行评估,包括视觉属性评估fhard和检测结果评价fconf两部分,将二者结合起来求解整体自评价结果。若计算所得自评价结果Feva大于设定阈值θcon,则为高置信度区域Ahigh;若Feva小于θcon,则为低置信度区域Alow。阈值θcon通过人工标定方法获取,例如:通过事先人工分别选取Nθ个有代表性的高置信度和低置信度区域的场景,并计算以上场景的Feva值,再根据所求解值Feva的均值设定θcon。
Feva=fhard+fconf (1)
其中,由式(2)表示的视觉属性评估子模型fhard用于评价待风险评估区域中给定的视觉困难属性分布,限定的视觉困难属性包括遮挡、小目标和快速运动,分别采用遮挡评价函数hocc、小目标评价函数hsml和快速运动评价函数hfm进行估计。
fhard=hocc+hsml+hfm (2)
其中,遮挡评价函数hocc用于根据单一交通目标被遮挡面积占该交通目标整体面积的比例,对处于不同预设比例范围的遮挡程度进行评分和取值。
遮挡评价函数hocc中,“对处于不同预设比例范围的遮挡程度进行评分”具体包括:
单一交通目标被遮挡面积占该交通目标整体面积的比例处于0~m1的预设比例范围内时,为小部分遮挡,评分为n1;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m1~m2的预设比例范围内时,为部分遮挡,评分为n2;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m2~m3的预设比例范围内时,为大部分遮挡,评分为n3;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于大于m3的预设比例范围内时,为大部分遮挡,评分为n4;
上述的0<m1<m2<m3<1,0<n3<n2<n1;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
比如:遮挡评价函数hocc可以采用能够进行分类的机器学习算法根据给定标注的遮挡样本进行遮挡分类。可利用的机器学习算法包括但不限于神经网络和决策树等,以单一交通目标被遮挡面积占该交通目标整体面积的比例为依据,将遮挡情况分类为小部分遮挡(0~0.25)、部分遮挡(0.25~0.5)、大部分遮挡(0.5~0.75)和全遮挡(>0.75)4个类别,分别对应打分取值为1、0.75、0.5、0.25。
小目标评价函数hsml用于根据单一交通目标的像素尺寸占其所在的图像尺寸的比例,对处于不同比例范围内的交通目标进行评分和取值。
小目标评价函数hsml中,“对处于不同预设比例范围的遮挡程度进行评分和取值”具体包括:
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于0~h1的第一预设尺寸比例,则认为是小尺寸交通目标,评价为q1;
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于大于h1的第二预设尺寸比例,则认为交通目标尺度的继续增大则不会影响检测结果,评价为q2;
上述的0<h1<h2<1,q1<q2;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
例如:小目标评价函数hsml可采用所检测出目标的像素尺寸与原始图像尺寸比较结果获取,小目标评价函数取值是[0,1]。若尺寸比例小于0.1,则认为是小目标,此时取最低评价值0。当目标尺寸比例达到0.5或大于0.5时,则认为目标尺度的继续增大则不会影响检测结果,此时取最高评价值1。可利用具有单调递增关系的函数,包括但不限于指数函数,以表示尺寸比例越大则是小目标的概率越小,从而评分越高的关系。
快速运动评价函数hfm用于根据第一环境感知信息,估计图像运动模糊程度,运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1。例如:可采用图像运动模糊算法进行估计,可采用的运动模糊算法包括但不限于拉普拉斯方差算法等,根据算法得到的运动模糊程度进行打分评价,打分取值范围[0,1]。运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1。
检测结果部分fconf根据步骤11输出的空间置信度得到。每个目标检测算法在输出目标的位置和类别同时都会输出置信度,置信度取值范围是[0,1]。因而是直接从目标检测算法中该区域中目标检测算法的置信度均值。
经过以上计算后,可得到整体自评价结果。
低置信度区域的面积占比判断单元用于判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值,如果是,则低置信度区域Alow的路侧感知设备将信息请求发送到该子区域内的网联车辆;否则,重新选定路侧感知设备以及子区域置信度判断单元根据新选定的路侧感知设备获取各子区域的第一环境感知信息判断各子区域的置信度。
低置信度区域的环境感知单元用于接收路侧感知设备发送的请求信息,根据自车视角获取第二环境感知信息f2,并将第二环境感知信息f2反馈给发送信息请求的路侧感知设备,再将低置信度区域Alow的第一环境感知信息f1和与该第一环境感知信息f1同一子区域的第二环境感知信息f2进行融合拼接,进而获的对应低置信度区域Alow的增强后环境感知结果fenhance。
通过车载环境感知算法作为路侧感知设备感知的补充,针对低置信度区域进行二次感知以解决遮挡等问题达到感知增强目的。
其中,路侧感知设备通过将广播的方式仅对于离低置信度区域Alow距离小于设定距离阈值θdist内的单车辆或多车辆,也可以理解为:子区域内部以及距离小于距离的阈值的子区域的外部的所有网联车辆。所用信息广播方法包括5G-V2X等通信方式。
其中,“获取第二环境感知信息f2”的方法具体包括:
步骤c,求出待风险评估区域中的交通目标的未来限定时间θt的轨迹位置序列Lseq。
与路侧感知算法不同是,因车载计算力有限,采用对计算量更低的可实时算法。
全局环境感知结果生成单元用于生成待风险评估区域的全局环境感知结果。
风险评估单元,其用于根据全局感知结果以及利用网联环境获取风险评估的其他信息,采用进行车安全场模型对待风险评估区域的整体风险进行评估,并获取实时风险图G。
风险评估单元具体包括风险属性信息集合构建子单元、第一计算子单元和第二计算子单元,其中:
风险属性信息集合构建子单元用于构建待风险评估区域的风险属性信息集合I={Deva,θv,TTC,THW}。风险属性是指在行车环境中通过感知获取的对于行车安全的主要整体指标。Deva、θV、TTC(英文全称为:time to collision)和THW(英文全称为:time headway)分别为待风险评估区域的交通目标密度、交通目标的平均速度分布、所有目标的平均碰撞时间和车头时距,TTC和THW可以通过车载辅助驾驶功能获得。
Deva和θV为全局环境感知结果生成单元获得的待风险评估区域的全局环境感知结果,Deva是由静态信息中总的ID数目除以待风险评估区域面积获取,即θV是由运动信息获取的给定的速度均值计算获取得到θV=mean(V)。
第一计算子单元通过所述边缘计算方法采用路侧感知设备配备的处理器直接进行路侧感知和融合车载与路侧的风险计算静止目标的势能场场强ER、评估区域内运动目标的动能场场强EV和驾驶员行为场场强ED。
第二计算子单元用于在网联环境下按照式(5)计算待风险评估区域的行车风险:
ECS=ER+EV+ED+EI (5)
其中,ECS代表行车安全场场强,ER、EV和ED通过第一计算子单元获得,EI代表信息场,信息场表征风险属性信息的传播和质量在风险评估区域内对行车安全影响物理场,主要受到网联车辆渗透率、风险属性信息质量和通信质量影响,其表达式为(7);
其中,风险属性信息通过感知获取,可能存在感知质量问题。若感知质量出现问题则可能引起评价误差,对于指导行车具有不利作用。因而选取风险属性信息质量函数为Ffinal,取值越大说明风险属性信息质量越高,对于指导网联车辆驾驶更加有利。
ζ代表待风险评估区域的渗透率,渗透率表示网联车辆占评估区域车辆比值,取值范围[0,1]。随着渗透率增加,区域内车辆信息传播趋于平均,网联车辆将不占据信息优势。
待风险评估区域内,通信性能对于信息场表征也具有重要影响。CQ代表待风险评估区域的网联环境通信性能,包括待风险评估区域的网联环境通信的传输速度TS、丢包率PLR和延迟TD。CQ由式(6)表示,当CQ越大时,则通信质量越差;
式中,TS、PLR和TD分别为待风险评估区域的网联环境通信的传输速度、丢包率和延迟。
本发明通过融合车载感知与路侧感知的多视角策略,可实现对于交通环境的无盲区感知,以达到增强感知能力和更加符合实际风险评估的目的,与传统行车风险评估方法相比,具有能够利用网联环境以实现无盲区的实时感知和风险评估目的,是未来风险评估的发展趋势。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于网联环境的多视角行车风险评估方法,其特征在于,包括:
步骤1,确定待风险评估区域,将待风险评估区域划分成若干子区域;
步骤2,通过选定的路侧感知设备获取各子区域的第一环境感知信息f1,判断各子区域的置信度,子区域分为低置信度区域Alow和高置信度区域Ahigh;
步骤3,判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值,如果是,则进入步骤4,否则,重新选定路侧感知设备,并返回步骤2;
步骤4,低置信度区域Alow的路侧感知设备将信息请求发送到该子区域内的网联车辆,接收到请求信息的网联车辆根据自车视角获取第二环境感知信息f2,并将第二环境感知信息反馈给发送信息请求的路侧感知设备,再将低置信度区域Alow的第一环境感知信息和与该第一环境感知信息同一子区域的第二环境感知信息进行融合拼接,进而获得对应低置信度区域Alow的增强后环境感知结果fenhance;
步骤5,生成待风险评估区域整体的全局环境感知结果Ffinal;
步骤6,对待风险评估区域的整体风险进行评估,并获取实时风险图G。
3.如权利要求2所述的网联环境的多视角风险评估方法,其特征在于,步骤2中的“判断各子区域的置信度”的方法具体包括:
利用感知结果自评价模型feva对第一环境感知信息f1进行评估,若计算所得自评价结果feva大于设定阈值θcon,则为高置信度区域Ahigh;若feva小于θcon,则为低置信度区域Alow;
feva=fhard+fconf (1)
其中,由式(2)表示的视觉属性评估子模型fhard用于评价待风险评估区域中给定的视觉困难属性分布;
fhard=hocc+hsml+hfm (2)
其中,遮挡评价函数hocc用于根据单一交通目标被遮挡面积占该交通目标整体面积的比例,对处于不同预设比例范围的遮挡程度进行评分和取值;
小目标评价函数hsml用于根据单一交通目标的像素尺寸占其所在的图像尺寸的比例,对处于不同比例范围内的交通目标进行评分和取值;
快速运动评价函数hfm用于根据第一环境感知信息,估计图像运动模糊程度,运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1;
检测结果部分fconf根据步骤11输出的空间置信度得到。
4.如权利要求3所述的网联环境的多视角风险评估方法,其特征在于,遮挡评价函数hocc中,“对处于不同预设比例范围的遮挡程度进行评分”具体包括:
单一交通目标被遮挡面积占该交通目标整体面积的比例处于0~m1的预设比例范围内时,为小部分遮挡,评分为n1;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m1~m2的预设比例范围内时,为部分遮挡,评分为n2;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于m2~m3的预设比例范围内时,为较大部分遮挡,评分为n3;
单一交通目标被遮挡面积占该交通目标整体面积的比例处于大于m3的预设比例范围内时,为绝大部分遮挡,评分为n4;
上述的0<m1<m2<m3<1,0<n3<n2<n1;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
5.如权利要求3所述的网联环境的多视角风险评估方法,其特征在于,小目标评价函数hsml中,“对处于不同预设比例范围的遮挡程度进行评分和取值”具体包括:
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于0~h1的第一预设尺寸比例,则认为是小尺寸交通目标,评价为q1;
单一交通目标的像素尺寸占其所在的图像尺寸的比例处于大于h1的第二预设尺寸比例,则认为交通目标尺度的继续增大则不会影响检测结果,评价为q2;
上述的0<h1<h2<1,q1<q2;
“取值”为子区域内所有交通目标的评分总和与该子区域内所有交通目标的数量之商。
6.如权利要求1至5中任一项所述的网联环境的多视角风险评估方法,其特征在于,步骤6具体包括:
步骤61,构建待风险评估区域的风险属性信息集合I={Deva,θv,TTC,THW},Deva、θV、TTC和THW分别为待风险评估区域的交通目标密度、交通目标的平均速度分布、所有目标的平均碰撞时间和车头时距;
步骤62,所述边缘计算方法采用路侧感知设备配备的处理器直接进行路侧感知和融合车载与路侧的风险计算静止目标的势能场场强ER、评估区域内运动目标的动能场场强EV和驾驶员行为场场强ED;
步骤63,网联环境下待风险评估区域的行车风险表示为式(5):
ECS=ER+EV+ED+EI (5)
其中,ECS代表行车安全场场强,EI代表信息场,其表达式为(7);
其中,ζ代表待风险评估区域的渗透率,CQ代表由式(6)表示的待风险评估区域的网联环境通信性能,当CQ越大时,则通信质量越差;
式中,TS、PLR和TD分别为待风险评估区域的网联环境通信的传输速度、丢包率和延迟。
7.一种基于网联环境的多视角风险评估装置,其特征在于,包括:
子区域划分单元,其用于确定待风险评估区域,将待风险评估区域划分成若干子区域;
子区域置信度判断单元,其用于通过选定的路侧感知设备获取各子区域的第一环境感知信息f1,判断各子区域的置信度,子区域分为低置信度区域Alow和高置信度区域Ahigh;
低置信度区域的面积占比判断单元,其用于判断待风险评估区域中低置信度区域Alow所对应的子区域的面积之和是否小于待风险评估区域的面积的预设比值,如果是,则低置信度区域Alow的路侧感知设备将信息请求发送到该子区域内的网联车辆;否则,重新选定路侧感知设备以及子区域置信度判断单元根据新选定的路侧感知设备获取各子区域的第一环境感知信息判断各子区域的置信度;
低置信度区域的环境感知单元,其用于接收路侧感知设备发送的请求信息,根据自车视角获取第二环境感知信息f2,并将第二环境感知信息f2反馈给发送信息请求的路侧感知设备,再将低置信度区域Alow的第一环境感知信息f1和与该第一环境感知信息f1同一子区域的第二环境感知信息f2进行融合拼接,进而获的对应低置信度区域Alow的增强后环境感知结果fenhance;
全局环境感知结果生成单元,其用于生成待风险评估区域的全局环境感知结果Ffinal;
风险评估单元,其用于对待风险评估区域的整体风险进行评估,并获取实时风险图G。
9.如权利要求2所述的网联环境的多视角风险评估装置,其特征在于,子区域置信度判断单元中的“判断各子区域的置信度”的方法具体包括:
利用感知结果自评价模型Feva对第一环境感知信息f1进行评估,若计算所得自评价结果Feva大于设定阈值θcon,则为高置信度区域Ahigh;若Feva小于θcon,则为低置信度区域Alow;
Feva=fhard+fconf (1)
其中,由式(2)表示的视觉属性评估子模型fhard用于评价待风险评估区域中给定的视觉困难属性分布;
fhard=hocc+hsml+hfm (2)
其中,遮挡评价函数hocc用于根据单一交通目标被遮挡面积占该交通目标整体面积的比例,对处于不同预设比例范围的遮挡程度进行评分和取值;
小目标评价函数hsml用于根据单一交通目标的像素尺寸占其所在的图像尺寸的比例,对处于不同比例范围内的交通目标进行评分和取值;
快速运动评价函数hfm用于根据第一环境感知信息,估计图像运动模糊程度,运动越模糊则打分取值结果越低,当不存在运动模糊时取最大值1;
检测结果部分fconf根据步骤11输出的空间置信度得到。
10.如权利要求7至9中任一项所述的网联环境的多视角风险评估装置,其特征在于,风险评估单元具体包括:
风险属性信息集合构建子单元,其用于构建待风险评估区域的风险属性信息集合I={Deva,θv,TTC,THW},Deva、θV、TTC和THW分别为待风险评估区域的交通目标密度、交通目标的平均速度分布、所有目标的平均碰撞时间和车头时距;
第一计算子单元,其通过所述边缘计算方法采用路侧感知设备配备的处理器直接进行路侧感知和融合车载与路侧的风险计算静止目标的势能场场强ER、评估区域内运动目标的动能场场强EV和驾驶员行为场场强ED;
第二计算子单元,其用于采用式(5)计算网联环境下待风险评估区域的行车风险:
ECS=ER+EV+ED+EI (5)其中,ECS代表行车安全场场强,EI代表信息场,其表达式为(7);
其中,ζ代表待风险评估区域的渗透率,CQ代表由式(6)表示的待风险评估区域的网联环境通信性能,当CQ越大时,则通信质量越差;
式中,TS、PLR和TD分别为待风险评估区域的网联环境通信的传输速度、丢包率和延迟。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011241085.4A CN112349100B (zh) | 2020-11-09 | 2020-11-09 | 一种基于网联环境的多视角行车风险评估方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011241085.4A CN112349100B (zh) | 2020-11-09 | 2020-11-09 | 一种基于网联环境的多视角行车风险评估方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112349100A true CN112349100A (zh) | 2021-02-09 |
CN112349100B CN112349100B (zh) | 2021-06-04 |
Family
ID=74428655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011241085.4A Active CN112349100B (zh) | 2020-11-09 | 2020-11-09 | 一种基于网联环境的多视角行车风险评估方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112349100B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114781791A (zh) * | 2022-03-11 | 2022-07-22 | 山东高速建设管理集团有限公司 | 一种基于全息感知数据的高速服务区风险识别方法 |
CN114912717A (zh) * | 2022-07-13 | 2022-08-16 | 成都秦川物联网科技股份有限公司 | 基于物联网的智慧城市保障住房申请风险评估方法和*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002045046A2 (en) * | 2000-11-28 | 2002-06-06 | Applied Generics Limited | Traffic monitoring system |
CN104239741A (zh) * | 2014-09-28 | 2014-12-24 | 清华大学 | 基于行车风险场的汽车驾驶安全辅助方法 |
US20160012722A1 (en) * | 2013-04-01 | 2016-01-14 | Qatar University Qstp-B | Methods and systems for estimating road traffic |
CN108762245A (zh) * | 2018-03-20 | 2018-11-06 | 华为技术有限公司 | 数据融合方法以及相关设备 |
CN111785011A (zh) * | 2019-04-04 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 道路车辆监测调控方法、装置、***和计算机设备 |
-
2020
- 2020-11-09 CN CN202011241085.4A patent/CN112349100B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002045046A2 (en) * | 2000-11-28 | 2002-06-06 | Applied Generics Limited | Traffic monitoring system |
US20160012722A1 (en) * | 2013-04-01 | 2016-01-14 | Qatar University Qstp-B | Methods and systems for estimating road traffic |
CN104239741A (zh) * | 2014-09-28 | 2014-12-24 | 清华大学 | 基于行车风险场的汽车驾驶安全辅助方法 |
CN108762245A (zh) * | 2018-03-20 | 2018-11-06 | 华为技术有限公司 | 数据融合方法以及相关设备 |
CN111785011A (zh) * | 2019-04-04 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 道路车辆监测调控方法、装置、***和计算机设备 |
Non-Patent Citations (1)
Title |
---|
谢志萍,雷莉萍: "智能网联汽车环境感知技术的发展和研究现状", 《成都工业学院学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114781791A (zh) * | 2022-03-11 | 2022-07-22 | 山东高速建设管理集团有限公司 | 一种基于全息感知数据的高速服务区风险识别方法 |
CN114781791B (zh) * | 2022-03-11 | 2023-09-29 | 山东高速建设管理集团有限公司 | 一种基于全息感知数据的高速服务区风险识别方法 |
CN114912717A (zh) * | 2022-07-13 | 2022-08-16 | 成都秦川物联网科技股份有限公司 | 基于物联网的智慧城市保障住房申请风险评估方法和*** |
CN114912717B (zh) * | 2022-07-13 | 2022-10-25 | 成都秦川物联网科技股份有限公司 | 基于物联网的智慧城市保障住房申请风险评估方法和*** |
US11715156B1 (en) | 2022-07-13 | 2023-08-01 | Chengdu Qinchuan Iot Technology Co., Ltd. | Risk assessment methods and systems for affordable housing application in a smart city based on internet of things |
Also Published As
Publication number | Publication date |
---|---|
CN112349100B (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11836985B2 (en) | Identifying suspicious entities using autonomous vehicles | |
CN114364591A (zh) | 用于交通工具导航***和方法 | |
US20180253973A1 (en) | Real-time video analytics for traffic conflict detection and quantification | |
CN112106124A (zh) | 用于使用v2x和传感器数据的***和方法 | |
JP7267874B2 (ja) | 交通流推定装置、交通流推定方法、およびプログラム | |
CN112349100B (zh) | 一种基于网联环境的多视角行车风险评估方法及装置 | |
JP6418574B2 (ja) | 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム | |
CN115618932A (zh) | 基于网联自动驾驶的交通事件预测方法、装置及电子设备 | |
EP4083959A1 (en) | Traffic flow machine-learning modeling system and method applied to vehicles | |
CN113596102A (zh) | 车路协同式交通***、路侧***和数据处理方法 | |
CN113674523A (zh) | 交通事故分析方法、装置及设备 | |
CN104875740B (zh) | 用于管理跟随空间的方法、主车辆以及跟随空间管理单元 | |
US20220383736A1 (en) | Method for estimating coverage of the area of traffic scenarios | |
CN114787010A (zh) | 驾驶安全性*** | |
US10415981B2 (en) | Anomaly estimation apparatus and display apparatus | |
CN117178309A (zh) | 用于创建具有碰撞概率的地图的方法 | |
Zhang et al. | The AD4CHE dataset and its application in typical congestion scenarios of traffic jam pilot systems | |
Alpar et al. | Intelligent collision warning using license plate segmentation | |
CN115691223A (zh) | 一种基于云边端协同的碰撞预警方法及*** | |
CN113593221B (zh) | 信息价值评估式驾驶***、网联车辆***和数据传输方法 | |
Formosa et al. | A new modeling approach for predicting vehicle-based safety threats | |
Jammula et al. | Evaluation of Operational Safety Assessment (OSA) metrics for automated vehicles using real-world data | |
Pyykönen et al. | Traffic monitoring and modeling for intersection safety | |
Meissner et al. | Road user tracking using a Dempster-Shafer based classifying multiple-model PHD filter | |
CN117115752A (zh) | 一种高速公路视频监控方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |