CN110568437A - 一种基于雷达辅助的精确环境建模方法 - Google Patents
一种基于雷达辅助的精确环境建模方法 Download PDFInfo
- Publication number
- CN110568437A CN110568437A CN201910925760.6A CN201910925760A CN110568437A CN 110568437 A CN110568437 A CN 110568437A CN 201910925760 A CN201910925760 A CN 201910925760A CN 110568437 A CN110568437 A CN 110568437A
- Authority
- CN
- China
- Prior art keywords
- millimeter wave
- information
- target
- radar
- wave radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于雷达辅助的精确环境建模方法,包括以下步骤:步骤一:毫米波雷达采集信号;步骤二:得到探测范围内物体的深度、速度信息;步骤三:光学传感器进行有向性图像提取;步骤四:语义分割;步骤五:目标标签与毫米波点云目标进行匹配;步骤六:获取目标类别、距离、速度信息。本发明提供了一种融合毫米波雷达信息与可见光图像信息进行场景态势构建的方法,不仅可以对齐两种传感器信号中的同一目标,共同构建属于某一目标的信息向量;可以在环境干扰比较大的情况下(如雾天、雨天),通过多传感器协同,构建精准的环境模型,极大程度上保障了驾驶安全,提高了驾驶过程中的智能化水平,进而提高了驾驶的安全系数。
Description
技术领域
本发明涉及一种环境建模方法,尤其涉及一种基于雷达辅助的精确环境建模方法。
背景技术
随着智能驾驶技术的发展,对场景的理解决定了其智能化的高度,因此场景态势感知逐渐成为智能驾驶技术的重中之重。场景模型的构建为态势感知中的关键技术,通过对周围物体进行类别、深度、速度等信息的标注,可以帮助智能模块进行合理的路径规划,及时的威胁预警与规避等操作。
但是目前构建场景模型的方法,存在以下两点问题:
1)当下***所构建的周围环境信息模型不够精确:存在目标模型不准确的问题,即针对某一目标,光学图像中所提供的目标类别及位置信息无法对应毫米波雷达中同一目标的深度信息进行。具体表现为目标的位置、类别信息与深度、速度信息对应不准确,即传感器之间的信息没有达到精确的融合,没有对齐到同一目标,导致所构建的模型无法高效的配合人工智能算法,进行环境态势感知以及智能辅助决策;
2)当下缺少光学雷达与毫米波雷达信息融合的有效方式:现有方法均为针对单一传感器数据进行深度信息挖掘分析,无法构建精度较高的场景模型,无法融合多传感器的优势进行精准融合,精度较差,且收集信息较为单一。而且现有方法大多基于传统算法,通过提取深度,梯度的统计信息进行直接建模,对环境以及传感器的要求比较高,鲁棒性差,无法高效的工作。
发明内容
为了解决上述技术所存在的不足之处,本发明提供了一种基于雷达辅助的精确环境建模方法。
为了解决以上技术问题,本发明采用的技术方案是:一种基于雷达辅助的精确环境建模方法,包括以下步骤:步骤一:毫米波雷达采集信号;步骤二:得到探测范围内物体的深度、速度信息;步骤三:光学传感器进行有向性图像提取;步骤四:语义分割;步骤五:目标标签与毫米波点云目标进行匹配;步骤六:获取目标类别、距离、速度信息。
优选地,步骤一的具体过程为:以机载毫米波雷达采集的数据作为输入,通过扫描,对在探测范围一千米以内的物体进行初步探测,得到毫米波雷达图。
优选地,步骤二的具体过程为:通过毫米波雷达扫描限定夹角0-180°范围内的空间,获得毫米波雷达图,得到粗略的不带标签属性的目标集群位置和速度信息;该步骤旨在发现出现物体的存在区域,对于那些无物体的区域进行选择性规避,减少计算量。
优选地,步骤三的具体过程为:通过步骤二对环境的初探,得到存在物体的区域;以区域位置信息作为导引,毫米波雷达生成控制信号控制光学传感器进行有方向性的探测,对步骤二存在物体的区域进行数据采集;根据采集毫米波雷达图的方向,将光学传感器引向同一视角,进行图像对齐,使两者在同一坐标系下表达。
优选地,步骤四的具体过程为:采用deeplabv3+算法,将含有障碍物的光学图像作为输入,对图片场景实现像素级别的分割。
优选地,步骤四中算法的输入是以帧为主要形式,训练过程中以对每个像素进行正确分类为主要目标;神经网络采用线下训练、线上工作的模式,对经常出现的物体类别进行提前标注,制成训练集,投入网络进行上万次迭代训练,训练完毕后投入使用。
优选地,步骤五的具体过程为:光学图像是在毫米波雷达指导下进行有向性生成得到的,因此根据物体的位置信息去匹配语义分割下的物体的类别信息;通过图像的对齐,对精细划分的不同目标进行深度、速度信息的赋值。
优选地,步骤六的具体过程为:前述步骤同时得到物体的类别信息,距离信息以及速度信息,该过程为将同一目标的信息进行对应以及归并,得到针对目标的信息向量T={S,v,d},T包含属于该目标的像素集S,速度v以及深度信息d。
本发明提供了一种融合毫米波雷达信息与可见光图像信息进行场景态势构建的方法,解决了已有方法尚未实现在高速复杂环境下,有效的融合毫米波雷达图与光学图像信息,进行精准环境模型的构建;不仅可以在环境干扰比较大的情况下(如雾天、雨天),通过多传感器协同,辅助驾驶在视距范围内通过对障碍物的探测提前感知威胁,结合语义分割网络,实现探测范围内的障碍物目标识别,构建精准的环境模型;而且增加了各传感器之间的协同配合能力,达到精准,高效的发掘威胁的目的,极大程度上保障了驾驶安全,提高了驾驶过程中的智能化水平,进而提高了驾驶的安全系数。
本发明可以对齐两种传感器信号中的同一目标,共同构建属于某一目标的信息向量;可以通过融合毫米波雷达所提供的深度信息和光学传感器提供的位置、类别信息,构建3D环境模型,模型更加直观,信息更加丰富,可以更好的辅助驾驶,作为高质量的信息反馈给中央***做导航规划以及预警。
附图说明
图1为本发明的整体流程图。
图2为本发明步骤一中毫米波雷达采样过程图。
图3为本发明步骤二中毫米波雷达采样关键帧选取图。
图4为本发明步骤三中光学雷达采样关键帧选取图。
图5为目标信息向量效果图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示的一种基于雷达辅助的精确环境建模方法,包括以下步骤:步骤一:毫米波雷达采集信号;步骤二:得到探测范围内物体的深度、速度信息;步骤三:光学传感器进行有向性图像提取;步骤四:语义分割;步骤五:目标标签与毫米波点云目标进行匹配;步骤六:获取目标类别、距离、速度信息。
步骤一的具体过程为:以机载毫米波雷达采集的数据作为输入,通过扫描,对在探测范围一千米以内的物体进行初步探测,得到毫米波雷达图。如图2所示的毫米波雷达采样过程图。
步骤二的具体过程为:通过毫米波雷达扫描限定夹角0-180°范围内的空间,获得毫米波雷达图,得到粗略的不带标签属性的目标集群位置和速度信息;该步骤旨在发现出现物体的存在区域,对于那些无物体的区域进行选择性规避,减少计算量。如图3所示,检测到障碍物的帧序号为5和6,将两帧筛选出来进行后续操作,同时记录下毫米波发射波束的方向角度。
步骤三的具体过程为:通过步骤二对环境的初探,得到存在物体的区域;以区域位置信息作为导引,毫米波雷达生成控制信号控制光学传感器进行有方向性的探测,对步骤二存在物体的区域进行数据采集;根据采集毫米波雷达图的方向,将光学传感器引向同一视角,进行图像对齐,使两者在同一坐标系下表达。本设计可以对齐两种传感器信号中的同一目标,共同构建属于某一目标的信息向量。如图4所示,光学传感器在同一方向角下分别得到了含有障碍物两帧5和6。将光学传感器所获得的图像与毫米波雷达图像进行对应{光学图5->毫米波图5,光学图6->毫米波图6},光学图5与毫米波图5对应,光学图6与毫米波图6对应。
步骤四的具体过程为:采用deeplabv3+算法,将含有障碍物的光学图像作为输入,对图片场景实现像素级别的分割。算法的输入是以帧为主要形式,训练过程中以对每个像素进行正确分类为主要目标;神经网络采用线下训练、线上工作的模式,对经常出现的物体类别进行提前标注,制成训练集,投入网络进行上万次迭代训练,训练完毕后投入使用。
步骤五的具体过程为:光学图像是在毫米波雷达指导下进行有向性生成得到的,因此根据物体的位置信息去匹配语义分割下的物体的类别信息;通过图像的对齐,对精细划分的不同目标进行深度、速度信息的赋值。
步骤六的具体过程为:前述步骤同时得到物体的类别信息,距离信息以及速度信息,该过程为将同一目标的信息进行对应以及归并,得到针对目标的信息向量T={S,v,d},T包含属于该目标的像素集S,速度v以及深度信息d。效果如图5所示,共有四种类别的物体,分别用T1-T4来代表对应不同类别的目标信息向量。目标信息向量是智能避障模块,威胁区间构建模块的输入。精确的目标信息向量是进行后续智能决策等高级功能的必要条件。
现有方法直接作用于毫米波雷达反馈的图像,而毫米波雷达反馈的图像具有散点离散度较大,轮廓模糊的缺点,导致物体识别效果不佳。而当今深度学习所取得的高精度的成就是基于RGB图像的,但RGB图像的缺点是无法反馈深度信息,进而得不到感兴趣目标的方位,无法做到感兴趣目标的识别。本发明结合两种传感器的优点进行融合,由毫米波雷达进行探测,通过反馈感兴趣区域进而指引光学传感器获取相关位置的RGB图像,进行深度学习分割从而获得感兴趣目标的类别信息,同时基于上一步获取的位置信息,构建信息量较全的环境态势模型。
本设计将毫米波雷达与光学传感器融合构建环境模型,不同于其他方法直接采用识别方法去操作毫米波雷达图像信息,通过其提供的模糊信息进行识别分割,而是提供由毫米波雷达提供指引,指导光学传感器进行有向性采集,进而匹配目标深度与目标类别。本发明通过融合多种传感器,构建信息更为全面、参考价值更高的环境模型。
此外,在实际使用中,本模型也可以加入更多其他的传感器信息,通过将新加入传感器的输出对齐到指定坐标系下,即可完成信息向量中信息的扩充,从而可以建立更精准的环境模型,满足不同环境下的使用需求。
上述实施方式并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的技术方案范围内所做出的变化、改型、添加或替换,也均属于本发明的保护范围。
Claims (8)
1.一种基于雷达辅助的精确环境建模方法,其特征在于:所述方法包括以下步骤:步骤一:毫米波雷达采集信号;步骤二:得到探测范围内物体的深度、速度信息;步骤三:光学传感器进行有向性图像提取;步骤四:语义分割;步骤五:目标标签与毫米波点云目标进行匹配;步骤六:获取目标类别、距离、速度信息。
2.根据权利要求1所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤一的具体过程为:以机载毫米波雷达采集的数据作为输入,通过扫描,对在探测范围一千米以内的物体进行初步探测,得到毫米波雷达图。
3.根据权利要求1所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤二的具体过程为:通过毫米波雷达扫描限定夹角0-180°范围内的空间,获得毫米波雷达图,得到粗略的不带标签属性的目标集群位置和速度信息;该步骤旨在发现出现物体的存在区域,对于那些无物体的区域进行选择性规避,减少计算量。
4.根据权利要求1所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤三的具体过程为:通过步骤二对环境的初探,得到存在物体的区域;以区域位置信息作为导引,毫米波雷达生成控制信号控制光学传感器进行有方向性的探测,对步骤二存在物体的区域进行数据采集;根据采集毫米波雷达图的方向,将光学传感器引向同一视角,进行图像对齐,使两者在同一坐标系下表达。
5.根据权利要求1所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤四的具体过程为:采用deeplabv3+算法,将含有障碍物的光学图像作为输入,对图片场景实现像素级别的分割。
6.根据权利要求5所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤四中算法的输入是以帧为主要形式,训练过程中以对每个像素进行正确分类为主要目标;神经网络采用线下训练、线上工作的模式,对经常出现的物体类别进行提前标注,制成训练集,投入网络进行上万次迭代训练,训练完毕后投入使用。
7.根据权利要求1所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤五的具体过程为:光学图像是在毫米波雷达指导下进行有向性生成得到的,因此根据物体的位置信息去匹配语义分割下的物体的类别信息;通过图像的对齐,对精细划分的不同目标进行深度、速度信息的赋值。
8.根据权利要求1所述的基于雷达辅助的精确环境建模方法,其特征在于:所述步骤六的具体过程为:前述步骤同时得到物体的类别信息,距离信息以及速度信息,该过程为将同一目标的信息进行对应以及归并,得到针对目标的信息向量T={S,v,d},T包含属于该目标的像素集S,速度v以及深度信息d。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910925760.6A CN110568437A (zh) | 2019-09-27 | 2019-09-27 | 一种基于雷达辅助的精确环境建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910925760.6A CN110568437A (zh) | 2019-09-27 | 2019-09-27 | 一种基于雷达辅助的精确环境建模方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110568437A true CN110568437A (zh) | 2019-12-13 |
Family
ID=68782906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910925760.6A Pending CN110568437A (zh) | 2019-09-27 | 2019-09-27 | 一种基于雷达辅助的精确环境建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110568437A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111273268A (zh) * | 2020-01-19 | 2020-06-12 | 北京百度网讯科技有限公司 | 障碍物类型的识别方法、装置及电子设备 |
CN111665498A (zh) * | 2020-05-20 | 2020-09-15 | 浙江大华技术股份有限公司 | 环境视图的测绘方法、装置、便携式探测设备 |
CN114051273A (zh) * | 2021-11-08 | 2022-02-15 | 南京大学 | 一种基于深度学习的大规模网络动态自适应路径规划方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3423213B2 (ja) * | 1998-03-30 | 2003-07-07 | 三菱電機株式会社 | 気象レーダ装置 |
CN104240261A (zh) * | 2014-10-11 | 2014-12-24 | 中科九度(北京)空间信息技术有限责任公司 | 影像配准方法及装置 |
CN104615735A (zh) * | 2015-02-11 | 2015-05-13 | 中科九度(北京)空间信息技术有限责任公司 | 一种基于地理信息空间***的时空信息可视化方法 |
CN105225239A (zh) * | 2015-09-24 | 2016-01-06 | 中国科学院电子学研究所 | 一种面向对象的高分遥感影像不透水层提取方法 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及*** |
CN109920185A (zh) * | 2019-04-16 | 2019-06-21 | 中科九度(北京)空间信息技术有限责任公司 | 一种基于毫米波雷达与视频数据融合检测移动目标的方法 |
CN110083163A (zh) * | 2019-05-20 | 2019-08-02 | 三亚学院 | 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及*** |
CN110208787A (zh) * | 2019-05-05 | 2019-09-06 | 北京航空航天大学 | 一种基于v2i的智能网联自动驾驶汽车辅助感知路灯*** |
-
2019
- 2019-09-27 CN CN201910925760.6A patent/CN110568437A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3423213B2 (ja) * | 1998-03-30 | 2003-07-07 | 三菱電機株式会社 | 気象レーダ装置 |
CN104240261A (zh) * | 2014-10-11 | 2014-12-24 | 中科九度(北京)空间信息技术有限责任公司 | 影像配准方法及装置 |
CN104615735A (zh) * | 2015-02-11 | 2015-05-13 | 中科九度(北京)空间信息技术有限责任公司 | 一种基于地理信息空间***的时空信息可视化方法 |
CN105225239A (zh) * | 2015-09-24 | 2016-01-06 | 中国科学院电子学研究所 | 一种面向对象的高分遥感影像不透水层提取方法 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及*** |
CN109920185A (zh) * | 2019-04-16 | 2019-06-21 | 中科九度(北京)空间信息技术有限责任公司 | 一种基于毫米波雷达与视频数据融合检测移动目标的方法 |
CN110208787A (zh) * | 2019-05-05 | 2019-09-06 | 北京航空航天大学 | 一种基于v2i的智能网联自动驾驶汽车辅助感知路灯*** |
CN110083163A (zh) * | 2019-05-20 | 2019-08-02 | 三亚学院 | 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及*** |
Non-Patent Citations (1)
Title |
---|
施建成 等: "《微波遥感地表参数反演进展》", 《中国科学:地球科学》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111273268A (zh) * | 2020-01-19 | 2020-06-12 | 北京百度网讯科技有限公司 | 障碍物类型的识别方法、装置及电子设备 |
CN111273268B (zh) * | 2020-01-19 | 2022-07-19 | 北京百度网讯科技有限公司 | 自动驾驶障碍物类型的识别方法、装置及电子设备 |
CN111665498A (zh) * | 2020-05-20 | 2020-09-15 | 浙江大华技术股份有限公司 | 环境视图的测绘方法、装置、便携式探测设备 |
CN114051273A (zh) * | 2021-11-08 | 2022-02-15 | 南京大学 | 一种基于深度学习的大规模网络动态自适应路径规划方法 |
CN114051273B (zh) * | 2021-11-08 | 2023-10-13 | 南京大学 | 一种基于深度学习的大规模网络动态自适应路径规划方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652179B (zh) | 基于点线特征融合激光的语义高精地图构建与定位方法 | |
CN110084272B (zh) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 | |
CN112396650B (zh) | 一种基于图像和激光雷达融合的目标测距***及方法 | |
US11532151B2 (en) | Vision-LiDAR fusion method and system based on deep canonical correlation analysis | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图*** | |
CN108229366B (zh) | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 | |
CN111626217A (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
CN111060924B (zh) | 一种slam与目标跟踪方法 | |
CN110568437A (zh) | 一种基于雷达辅助的精确环境建模方法 | |
CN110097620A (zh) | 基于图像和三维激光的高精度地图创建*** | |
EP4105600A2 (en) | Method for automatically producing map data, related apparatus and computer program product | |
CN108594244B (zh) | 基于立体视觉和激光雷达的障碍物识别迁移学习方法 | |
CN110210384B (zh) | 一种道路全局信息实时提取与表示*** | |
CN112904395A (zh) | 一种矿用车辆定位***及方法 | |
Ma et al. | Crlf: Automatic calibration and refinement based on line feature for lidar and camera in road scenes | |
CN106446785A (zh) | 基于双目视觉的可行道路检测方法 | |
CN114627112A (zh) | 一种半监督三维目标标注***和方法 | |
CN110618424B (zh) | 一种基于多传感器融合的远距离高压线发现方法 | |
CN116977628A (zh) | 一种应用于动态环境的基于多模态语义框架的slam方法及*** | |
CN117111085A (zh) | 一种自动驾驶汽车车路云融合感知方法 | |
CN116597122A (zh) | 数据标注方法、装置、电子设备及存储介质 | |
CN113538585B (zh) | 基于无人机的高精度多目标智能识别定位追踪方法及*** | |
Liu et al. | Software-defined active LiDARs for autonomous driving: A parallel intelligence-based adaptive model | |
CN114092778A (zh) | 基于表征学习的雷达摄像头数据融合***及方法 | |
CN113988197A (zh) | 基于多相机、多激光雷达的联合标定及目标融合检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191213 |