CN111582130B - 一种基于多源异构信息的交通行为感知融合***及方法 - Google Patents
一种基于多源异构信息的交通行为感知融合***及方法 Download PDFInfo
- Publication number
- CN111582130B CN111582130B CN202010361534.2A CN202010361534A CN111582130B CN 111582130 B CN111582130 B CN 111582130B CN 202010361534 A CN202010361534 A CN 202010361534A CN 111582130 B CN111582130 B CN 111582130B
- Authority
- CN
- China
- Prior art keywords
- traffic
- behavior
- information
- fusion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于多源异构传感器信息的交通行为融合***,包括信息采集单元、多源信息数据库、交通行为匹配单元、行为融合单元和交通行为输出单元。以及基于上述融合***的融合方法,利用现有的多种传感器作为多源信息的采集设备,将其检测的交通行为收集至多源信息数据库,多源信息数据库对所采集的多源信息进行数据时空同步和冗余处理,区分检测目标及其交通行为;之后对各信息源检测的交通行为进行行为融合,进一步确定当前交通行为,提升了交通行为识别的速度和精确度,增强了其在不良检测环境中的适应度。
Description
技术领域
本发明涉及交通行为感知技术领域,尤其涉及一种基于多源异构信息的交通行为感知融合***及方法。
背景技术
随着行为检测技术的快速发展,利用图片、视频、雷达等技术监测交通行为的案例越来越多,现有雷达-视频一体化***,雷达和视频各自检测目标的物理参数,然后在参数层面去融合,实现行为的检测,且这些单项技术在车辆遮挡、光照变化、杂波干扰等复杂情况和雨雪、雾霾等恶劣天气时容易出现对交通行为的漏检或虚警问题。
发明内容
针对现有技术中存在的问题,本发明的目的在于提供一种基于多源异构信息的交通行为感知融合***及方法,可提高交通行为感知检测的精确度和速度,并可增强检测***在不良检测环境的适应度。
为达到上述目的,本发明采用以下技术方案予以实现。
技术方案一:
一种基于多源异构信息的交通行为感知融合***,包括信息采集单元、多源信息数据库、交通行为匹配单元、行为融合单元和交通行为输出单元;
其中,所述信息采集单元的输出端连接所述多源信息数据库的输入端,所述多源信息数据库的输出端连接所述交通行为匹配单元的信息输入端,所述交通行为匹配单元的信息输出端连接所述行为融合单元的信息输入端;所述行为融合单元的信息输出端连接所述交通行为输出单元的输入端。
所述信息采集单元用于采集目标信息,并通过所采集得到的目标信息,判别目标的交通行为;
所述多源信息数据库用于存储信息采集单元所判别得到的目标的交通行为;
所述交通行为匹配单元用于对所述多源信息数据库中所存储的多源信息进行处理,对交通行为进行分类;
所述行为融合单元用于对所述交通行为匹配单元分类后的交通行为进行融合,确定当前时间节点交通目标的交通行为;
所述交通行为输出单元用于将行为融合单元所确定的当前时间节点交通目标的交通行为传输至交通目标,对交通目标的行为进行校正和主动防控。
技术方案二:
一种基于多源异构信息的交通行为感知融合方法,基于上述的基于多源异构信息的交通行为感知融合***,包括以下步骤:
步骤1,信息采集单元的各个传感器分别采集交通目标信息,并分别通过所述交通目标信息,判别所述交通目标的交通行为;并将判别得到的交通目标的交通行为传输到多源信息数据库;
步骤2,交通行为匹配单元以时间为节点,从所述多源信息数据库中提取多源信息,并对所述多源信息进行时空同步和冗余处理,区分交通目标及其交通行为;
步骤3,行为融合单元接收到交通行为匹配单元分类后的交通行为之后,对交通行为进行级别融合,确定所述交通目标的当前行为状态;
步骤4,交通行为输出单元将所述交通目标的当前行为状态输出至路侧防控装备,对交通目标进行风险主动防控。
本发明技术方案二的特点和进一步的改进在于:
步骤1中,所述交通目标的交通行为用输出概率函数f(x,y)表示,其中,x表示某种传感器,x=1,2,…q;y表示某种具体的交通行为,y=1,2,…n;q,n为正整数。
步骤2中,对于每一类交通行为,采用专家打分法预先确定每种传感器对这种交通行为的联合表征度K;
当某种传感器出现故障或者受到干扰时,该传感器会输出干扰数据点,通过对联合表征度K进行分析,确定该数据点的行为真实度M;其中,M=x1·K+x2·K+…+xq·K,n为正整数,代表交通行为的种类;
如果该数据点的行为真实度M小于阈值,则认为该数据点为干扰数据点,需要剔除。
步骤3具体为:
首先确定每个交通行为概率函数f(x,y)所对应的可信度矩阵P;
然后根据所述可信度矩阵P,获得行为融合结果可信度T;
其中,T=[f(x1,yn),f(x2,yn),…,f(xq,yn)]·P。
步骤4中,首先确定某种具体的交通行为的可信度阈值,当行为融合结果可信度T大于所述阈值时,认为当前存在所述具体的交通行为,并将所述具体的交通行为识别结果输出至路侧防控装备,对交通目标进行风险主动防控。
与现有技术相比,本发明的有益效果为:
本发明的基于多源异构信息的交通行为感知融合方法基于行为层面的融合,通过对多种传感器所检测的交通行为融合,结合了各项行为检测技术的优点,提高了行为检测的准确性,避免了单种传感器所存在的缺陷,将多种传感器的技术优点相互融合,实现了基于多源异构信息的多层次、多模态检测交通行为的行为融合方法。
本发明无需添加其他新的行为检测传感器,结合现有的传感器优点,提高了交通行为检测的准确性,成本低,可靠性高,对于后期危险及不良交通行为的矫正和主动防控具有实际应用价值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基于多源异构信息的交通行为感知融合方法的一种实施例的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的技术思路是:利用现有的摄像头、毫米波雷达、激光雷达等传感器作为多源信息的采集设备,将其检测的交通行为收集至多源信息数据库,多源信息数据库对所采集的多源信息进行数据时空同步和冗余处理,区分检测目标及其交通行为。之后基于深度学习网络的帧间特征信息传递和融合技术,提出毫米波雷达-视频为主,激光雷达局部增强的机制,对各信息源检测的交通行为进行多层次、多模态融合,进一步确定当前交通行为,以提升交通行为识别的速度和精确度,增强其在不良检测环境中的适应度。
基于上述思路,本发明实施例首先提出了一种基于多源异构信息的交通行为感知融合***,包括信息采集单元、多源信息数据库、交通行为匹配单元、行为融合单元和交通行为输出单元;
其中,所述信息采集单元的输出端连接所述多源信息数据库的输入端,所述多源信息数据库的输出端连接所述交通行为匹配单元的信息输入端,所述交通行为匹配单元的信息输出端连接所述行为融合单元的信息输入端;所述行为融合单元的信息输出端连接所述交通行为输出单元的输入端。
所述信息采集单元用于采集目标信息,并通过所采集得到的目标信息,判别目标的交通行为;
所述多源信息数据库用于存储信息采集单元所判别得到的目标的交通行为;
所述交通行为匹配单元用于对所述多源信息数据库中所存储的多源信息进行处理,对交通行为进行分类;
所述行为融合单元用于对所述交通行为匹配单元分类后的交通行为进行融合,确定当前时间节点交通目标的交通行为;
所述交通行为输出单元用于将行为融合单元所确定的当前时间节点交通目标的交通行为传输至交通目标,对交通目标的行为进行校正和主动防控。
此外,本发明实施例还提出了一种基于多源异构信息的交通行为感知融合方法,基于上述多源异构信息的交通行为感知融合***,包括以下步骤:
步骤1,信息采集单元的各个传感器分别采集交通目标信息,并分别通过所述交通目标信息,判别所述交通目标的交通行为;并将判别得到的交通目标的交通行为传输到多源信息数据库。
具体的,本发明实施例采用摄像头、毫米波雷达、激光雷达作为信息采集单元,发挥其各自优点对目标行人或目标车辆做出检测。
其中,摄像头对道路上的车辆、行人、非机动车等交通目标拍照或录像,通过降噪、增强、超分、LSTM网络技术、对抗网络技术等图像处理技术等对图片或逐帧视频进行处理,提取当前帧中涉及到的交通目标及其交通行为,并通过无线传输技术传输至多源信息数据库;激光雷达广角探测,探测范围广,探测精度高,依据杂波抑制、深度学习等内部行为检测算法将判断的交通行为传输至多源信息数据库;由于激光雷达在恶劣天气光束受到遮挡使得探测能力显著降低,因此在恶劣天气时,由于毫米波雷达穿透雾、烟、灰尘等的能力高,在恶劣天气时可以弥补激光雷达的劣势对交通目标的行为做出检测,并将交通目标及行为传输至多源信息数据库。
其中,交通目标的交通行为用输出概率函数f(x,y)表示,x表示某种传感器,比如摄像头、毫米波雷达、激光雷达等,x=1,2,…q;y表示某种具体的交通行为,比如车道偏离,违章停车、事故、行人侵入道路、车辆起火等,y=1,2,…n;q,n为正整数。
以上实施例中,对于某一种交通行为n,3类传感器分别输出交通目标的该交通行为概率函数分别为f(x1,yn),f(x2,yn),f(x3,yn),
以雾天,能见度为200米的交通情景为例,阐述本发明的实施例。传感器x1-摄像头在雾天拍摄的照片或视频的清晰度降低,其检测到F车偏离当前车道,经过分析判断认为F车的行为是车道偏离的概率是f(x1,y1);传感器x2-激光雷达检测到F车轨迹波动频繁,认为F车的行为是车道偏离的概率是f(x2,y1);传感器x3-毫米波雷达,由于其雾天穿透力强,探测到F车发生车道偏离的概率是f(x3,y1),最后将3个传感器确定的交通目标的交通行为概率经过无线传输技术传输至多源信息数据库。
步骤2,交通行为匹配单元以时间为节点,从所述多源信息数据库中提取多源信息,并对所述多源信息进行时空同步和冗余处理,区分交通目标及其交通行为。
具体地,多源信息数据库接收到摄像头、毫米波雷达、激光雷达等信息采集设备传输过来的交通目标行为检测结果,对数据进行时空同步和冗余处理,即以时间帧为初级分类指标,选定同一时间段传输来的交通目标及其行为数据,对同一时间段的交通目标进行分类,找到同一目标物不同行为检测设备判定的交通行为数据。
对于每一类交通行为,采用专家打分法预先确定每种传感器对这种交通行为的联合表征度K;
当某种传感器出现故障或者受到干扰时,该传感器会输出干扰数据点,通过对联合表征度K进行分析,确定该数据点的行为真实度M;其中,M=x1·K+x2·K+…+xq·K,n为正整数,代表交通行为的种类;
如果该数据点的行为真实度M小于阈值,则认为该数据点为干扰数据点,需要剔除。
步骤3,行为融合单元接收到交通行为匹配单元分类后的交通行为之后,对交通行为进行级别融合,确定所述交通目标的当前行为状态。
具体的,摄像头、毫米波雷达、激光雷达已经对此时间段的交通环境及交通目标进行了检测,对于某一种交通行为,比如车道偏离,摄像头、毫米波雷达、激光雷达传感器同时输出3个概率函数f(x1,yn),f(x2,yn),f(x3,yn)。
由于不同传感器的工作特性不同,每个传感器所输出的概率函数f(x,y)存在差异,并且每个概率函数均不可能达到100%的概率。相比于传统的数据层面的融合方法,本发明实施例进行了行为层面的融合处理。
以f(x1,yn),f(x2,yn),f(x3,yn)3类概率函数,通过专家打分法确定该3类概率函数所对应的可信度矩阵P(P1,P2,P3);将f(x1,yn),f(x2,yn),f(x3,yn)与可信度矩阵P(P1,P2,P3)进行预算,通过公式T=[f(x1,yn),f(x2,yn),f(x3,yn)]·P(P1,P2,P3),计算获得行为融合结果可信度T,以确定当前车辆的行为是车道偏离,检测准确率高于单个设备的检测。
步骤4,交通行为输出单元将所述交通目标的当前行为状态输出至路侧防控装备,对交通目标进行风险主动防控。
首先确定某种具体的交通行为的可信度阈值,当行为融合结果可信度T大于所述阈值时,认为当前存在所述具体的交通行为,并将所述具体的交通行为识别结果输出至路侧防控装备,对交通目标进行风险主动防控。
具体的,对于上述提到的车道偏离行为,若步骤3得到的行为融合结果可信度T大于预先设置的阈值,则认为F车当前交通行为为车道偏离,通过无线传输技术将结果传输至路测及车辆设备,对车辆驾驶人提前做出警示,提醒其危险驾驶行为,尽快予以纠正。
本发明提出的基于多源异构信息的交通行为感知融合方法打破了传统行为融合在物理参数上的融合,创新性地结合各项检测技术的优点,基于深度学习技术、对抗网络理论和迁移学习理论等实现了从行为层面的融合,使得交通行为的监测更加准确和精细,并且增强了检测***在不良检测环境的适应度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (3)
1.一种基于多源异构信息的交通行为感知融合方法,基于多源异构信息的交通行为感知融合***,其特征在于,
所述多源异构信息的交通行为感知融合***包括信息采集单元、多源信息数据库、交通行为匹配单元、行为融合单元和交通行为输出单元;
其中,所述信息采集单元的输出端连接所述多源信息数据库的输入端,所述多源信息数据库的输出端连接所述交通行为匹配单元的信息输入端,所述交通行为匹配单元的信息输出端连接所述行为融合单元的信息输入端;所述行为融合单元的信息输出端连接所述交通行为输出单元的输入端;
所述信息采集单元用于采集目标信息,并通过所采集得到的目标信息,判别目标的交通行为;
所述多源信息数据库用于存储信息采集单元所判别得到的目标的交通行为;
所述交通行为匹配单元用于对所述多源信息数据库中所存储的多源信息进行处理,对交通行为进行分类;
所述行为融合单元用于对所述交通行为匹配单元分类后的交通行为进行融合,确定当前时间节点交通目标的交通行为;
所述交通行为输出单元用于将行为融合单元所确定的当前时间节点交通目标的交通行为传输至交通目标,对交通目标的行为进行校正和主动防控;
所述信息采集单元包含多个传感器,所述传感器包含摄像头、毫米波雷达和激光雷达;
所述基于多源异构信息的交通行为感知融合方法包括以下步骤:
步骤1,信息采集单元的各个传感器分别采集交通目标信息,并分别通过所述交通目标信息,判别所述交通目标的交通行为;并将判别得到的交通目标的交通行为传输到多源信息数据库;
步骤1中,所述交通目标的交通行为用输出概率函数f(x,y)表示,其中,x表示某种传感器,x=1,2,…q;y表示某种具体的交通行为,y=1,2,…n;q,n为正整数;
步骤2,交通行为匹配单元以时间为节点,从所述多源信息数据库中提取多源信息,并对所述多源信息进行时空同步和冗余处理,区分交通目标及其交通行为;
步骤2中,对于每一类交通行为,采用专家打分法预先确定每种传感器对这种交通行为的联合表征度K;
当某种传感器出现故障或者受到干扰时,该传感器会输出干扰数据点,通过对联合表征度K进行分析,确定该数据点的行为真实度M;其中,M=x1·K+x2·K+…+xq·K,q为正整数,代表传感器的种类;
如果该数据点的行为真实度M小于阈值,则认为该数据点为干扰数据点,需要剔除;
步骤3,行为融合单元接收到交通行为匹配单元分类后的交通行为之后,对交通行为进行级别融合,确定所述交通目标的当前行为状态;
步骤4,交通行为输出单元将所述交通目标的当前行为状态输出至路侧防控装备,对交通目标进行风险主动防控。
2.根据权利要求1所述的基于多源异构信息的交通行为感知融合方法,其特征在于,步骤3具体为:
首先确定每个交通行为概率函数f(x,y)所对应的可信度矩阵P;
然后根据所述可信度矩阵P,获得行为融合结果可信度T;
其中,T=[f(x1,yn),f(x2,yn),…,f(xq,yn)]·P。
3.根据权利要求2所述的基于多源异构信息的交通行为感知融合方法,其特征在于,步骤4中,首先确定某种具体的交通行为的可信度阈值,当行为融合结果可信度T大于所述阈值时,认为当前存在所述具体的交通行为,并将所述具体的交通行为识别结果输出至路侧防控装备,对交通目标进行风险主动防控。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010361534.2A CN111582130B (zh) | 2020-04-30 | 2020-04-30 | 一种基于多源异构信息的交通行为感知融合***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010361534.2A CN111582130B (zh) | 2020-04-30 | 2020-04-30 | 一种基于多源异构信息的交通行为感知融合***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582130A CN111582130A (zh) | 2020-08-25 |
CN111582130B true CN111582130B (zh) | 2023-04-28 |
Family
ID=72112019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010361534.2A Active CN111582130B (zh) | 2020-04-30 | 2020-04-30 | 一种基于多源异构信息的交通行为感知融合***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582130B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580702B (zh) * | 2020-12-10 | 2024-01-23 | 深圳技术大学 | 多传感器协同感知方法及装置 |
CN113033483B (zh) * | 2021-04-20 | 2024-02-02 | 北京百度网讯科技有限公司 | 检测目标对象的方法、装置、电子设备和存储介质 |
CN113884090A (zh) * | 2021-09-28 | 2022-01-04 | 中国科学技术大学先进技术研究院 | 智能平台车环境感知***及其数据融合方法 |
CN114267173B (zh) * | 2021-12-13 | 2023-08-18 | 河北雄安京德高速公路有限公司 | 高速公路时空特征的多源数据融合方法、装置及设备 |
CN114898156B (zh) * | 2022-05-21 | 2024-06-04 | 山东大学 | 基于跨模态语义表征学习和融合的图像分类方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831766A (zh) * | 2012-07-04 | 2012-12-19 | 武汉大学 | 基于多传感器的多源交通数据融合方法 |
CN106408940A (zh) * | 2016-11-02 | 2017-02-15 | 南京慧尔视智能科技有限公司 | 基于微波和视频数据融合的交通检测方法及装置 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及*** |
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
-
2020
- 2020-04-30 CN CN202010361534.2A patent/CN111582130B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831766A (zh) * | 2012-07-04 | 2012-12-19 | 武汉大学 | 基于多传感器的多源交通数据融合方法 |
CN106408940A (zh) * | 2016-11-02 | 2017-02-15 | 南京慧尔视智能科技有限公司 | 基于微波和视频数据融合的交通检测方法及装置 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及*** |
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
Non-Patent Citations (1)
Title |
---|
李均阁 ; .多源信息融合及其应用.甘肃科技.2013,(02),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111582130A (zh) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582130B (zh) | 一种基于多源异构信息的交通行为感知融合***及方法 | |
CN111382768B (zh) | 多传感器数据融合方法和装置 | |
CN107202983B (zh) | 基于图像识别和毫米波雷达融合的自动刹车方法和*** | |
CN101303735B (zh) | 探测车辆盲点区域内运动物体的方法及盲点探测装置 | |
CN112215306B (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
WO2021259260A1 (zh) | 一种制动等级的评估方法、装置、车辆和存储介质 | |
KR102282800B1 (ko) | 라이다와 영상카메라를 이용한 멀티 표적 추적 방법 | |
CN112101316B (zh) | 一种目标检测方法及*** | |
CN115034324B (zh) | 一种多传感器融合感知效能增强方法 | |
GB2599939A (en) | Method of updating the existance probability of a track in fusion based on sensor perceived areas | |
CN115856872A (zh) | 一种车辆运动轨迹连续跟踪方法 | |
EP3467545A1 (en) | Object classification | |
CN114675295A (zh) | 一种障碍物判定的方法、装置、设备及存储介质 | |
CN115083088A (zh) | 铁路周界入侵预警方法 | |
CN106405539B (zh) | 车辆雷达***以及用于去除一非感兴趣目标的方法 | |
CN117173666A (zh) | 一种针对非结构化道路的自动驾驶目标识别方法及*** | |
US11119215B2 (en) | Multi-spectral LIDAR object tracking | |
CN117130010A (zh) | 用于无人驾驶的障碍物感知方法、***及无人驾驶汽车 | |
CN116630891A (zh) | 一种交通异常事件检测***及方法 | |
CN105730330B (zh) | 行车安全***及其障碍物筛选方法 | |
TW202323854A (zh) | 監控方法 | |
CN114084129A (zh) | 一种基于融合的车辆自动驾驶控制方法及*** | |
CN117372967B (zh) | 基于物联网智慧路灯的远程监控方法、装置、设备及介质 | |
US20230122293A1 (en) | Occluded oncoming vehicles detection systems and methods | |
CN116679319B (zh) | 多传感器联合的隧道预警方法,***,装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |