CN109100730B - 一种多车协同快速建图方法 - Google Patents

一种多车协同快速建图方法 Download PDF

Info

Publication number
CN109100730B
CN109100730B CN201810480527.7A CN201810480527A CN109100730B CN 109100730 B CN109100730 B CN 109100730B CN 201810480527 A CN201810480527 A CN 201810480527A CN 109100730 B CN109100730 B CN 109100730B
Authority
CN
China
Prior art keywords
point cloud
map
vehicle
data
vehicles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810480527.7A
Other languages
English (en)
Other versions
CN109100730A (zh
Inventor
轩辕哲
李博洋
张心翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Normal University HKBU United International College
Original Assignee
Beijing Normal University HKBU United International College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Normal University HKBU United International College filed Critical Beijing Normal University HKBU United International College
Priority to CN201810480527.7A priority Critical patent/CN109100730B/zh
Publication of CN109100730A publication Critical patent/CN109100730A/zh
Application granted granted Critical
Publication of CN109100730B publication Critical patent/CN109100730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/46Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being of a radio-wave signal type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

本发明涉及一种多车协同快速建图方法。包括以下步骤:S1.数据采集与感知;S2.点云数据的预处理;S3.构建车辆的局部点云地图和全局点云地图;S4.车辆与车辆之间进行通信,并计算两车之间的坐标系变换关系;S5.将车辆之间的坐标系变换关系进行一一匹配,匹配结果满足阀值要求的,作为两车的坐标系变换矩阵;S6.配准成功之后,每辆车发送配准结果给对方,每辆车收到配准结果之后,开始发送自己已经建立的全局边缘地图与轨迹给对方,S7.每辆车收到对方持续发过来的全局边缘地图和对方的轨迹数据之后,将数据通过步骤5计算得到的矩阵进行转换,再将结果传输至步骤2和步骤3进行实时的协同建图。本发明使用多车协同建图,效率高探测视野大,且精度高。

Description

一种多车协同快速建图方法
技术领域
本发明属于自动驾驶感知技术领域,具体地,涉及一种多车协同快速建图方法。
背景技术
目前ROS(Robot Operating System)是开源的机器人操作***,该***作为中间件,提供了操作***应有的服务:硬件抽象,底层设备控制,常用函数的实现,进程间消息传递等。
ROS 的主要目标是为机器人研究和开发提供代码复用的支持。ROS采用分布式进程框架,以节点作为基本单元,实现通信。ROS支持一种类似于代码储存库的联合***,这个***也可以实现工程的协作及发布。这个设计可以使一个工程的开发和实现从文件***到用户接口完全独立决策(不受ROS限制)。同时,所有的工程都可以被ROS的基础工具整合在一起。除此之外,ROS平台对velodyne系列激光雷达产品具有比较好的硬件驱动支持以及对PCL点云处理库函数具有良好的环境支持。
点云配准是通过匹配具有重叠部分的数据集,将不同坐标下的三维数据集变换到同一坐标系下,得到旋转变换矩阵和平移向量。这种变换矩阵可以用一个旋转矩阵R和平移向量T来描述。目前经常使用的点云配准算法包括了:最近点迭代算法(ICP)、正态分布变换算法(NDT)以及随机抽样一致性算法(RANSAC)等。本方法利用了一种GPS数据粗略配准结合ICP精确配准的方法完成点云配准任务。
专利名称为基于激光雷达的三维建图的方法,申请号:CN201710598881.5,该发明公开一种基于激光雷达的三维建图的方法,其实现步骤是:首先获得带有坐标信息的点云,然后使用双边滤波算法对点云进行滤波处理,接着由激光雷达测距算法计算激光雷达点云中每一个特征点的位移,最后用绘图算法将扫描到的点云配准到世界坐标系上,构成三维点云图;该发明是一种三维激光雷达的建图方法,该方法主要的针对目标是一台机器人的建图算法,健壮性与鲁棒性相对较差,在经过长距离的建图之后,易产生较大的累积误差。
专利名称为一种多传感器的高精度即时定位与建图方法,申请号:CN201710437709.1,该发明是一种结合激光雷达与相机的建图方法,该方法主要的针对目标是一台机器人的建图算法,健壮性与鲁棒性相对较差,在经过长距离的建图之后,易产生较大的累积误差,并且使用多台传感器设备,价格昂贵。
专利名称为一种智能多机器人协同测图***及其方法,申请号:CN201710787430.6,该发明是一种2D条件下多机器人的协同建图方法,该建图方法使用的是基于图特征的方法,计算代价高昂,在建图过程中需要存储大量的临时点云数据与矩阵信息。此外,此发明方法由于缺少能够降低计算量和通信量的预处理环节,性能方面会有所降低。
现有技术中主要存在以下问题,1.目前大部分的建图技术针对单车的建图;2.上述建图方案需要比较多的外设传感器,价格昂贵;3.单车的建图存在精确度差、速度慢与效率低的问题;4.已有的协同建图方法需要大量内存空间,计算量大,并且对CPU要求很高;5.已有的协同建图方法需要占据大量的带宽资源;6.已有的协同建图算法针对室内2D环境建图效果比较好,拓展到户外3D环境下建图效率较差;7.已有的协同建图算法需要已知所有车的初始位置信息或者车辆在中途相遇,从而实现车辆之间坐标系的统一以及地图融合,此种要求在实际建图任务中过于苛刻。
目前研发重点集中在单车的建图方案,在一辆车上面集中安装多个激光雷达、工业相机以及惯性导航***等高价格传感器,充分发挥一辆车的建图效果。这种做法虽然能够在最大程度上提高一辆车的探测视野,然而单辆车的多传感器使用具有极限性和局限性,无法在探测范围方面进一步突破。单车建图的过程,随着算法运行累积时间的延长,算法自身的累积误差越来越大,所建的地图精确度降低,并且由于长时间的单车建图,很容易造成***的不稳定性。已有的多车协同建图基于图特征的方法建图,其算法需要车辆在整个过程中随时随地发送自身的图节点到整个网络,造成网络利用率下降,网络带宽资源紧张的情况。于此同时网络中所有的节点接到对方发送的数据之后,没有经过任何预处理等优化操作,直接进行大量复杂的计算,这一点对于运行算法的CPU成本要求非常高。已有的2D环境下的协同建图方法,相比3D情况,点云数据量少,点云配准计算过程简单,计算准确率与实时性较好。而拓展到3D情况下,建图效率降低。为了实现车辆间坐标系的统一,已有的协同建图算法需要已知车辆之间初始的相对位置,或者利用车辆相遇的机会,使用点云配准算法完成坐标系变换关系的计算。
发明内容
本发明的目的在于克服现有技术的不足,提供一种多车协同快速建图方法,使用多车协同建图,效率高探测视野大,且精度高。
为解决上述问题,本发明提供的技术方案为:一种多车协同快速建图方法,包括以下步骤:
S1. 数据采集与感知:通过激光雷达采集数据,以激光雷达点云的形式存储在内存中,通过GPS设备,感知实时的GPS数据并存储在内存中;
S2. 点云数据的预处理:将采集到的点云数据作为输入,将点云按照几何分布特性划分为包含平面特征的平面点云以及包含轮廓特征的边缘点云,估算两帧点云的运动变换关系;
S3. 局部地图与全局地图:构建车辆的局部点云地图和全局点云地图;
S4. 车间通信:车辆与车辆之间进行通信,并计算两车之间的坐标系变换关系;
S5. 车辆之间的匹配:将车辆之间的坐标系变换关系进行一一匹配,匹配结果满足阀值要求的,作为两车的坐标系变换矩阵;
S6. 配准成功之后,每辆车发送配准结果给对方,每辆车收到配准结果之后,开始发送自己已经建立的全局边缘地图与轨迹给对方,并在接下来的建图过程中,已经计算得到坐标系转换关系的车辆,会彼此连续发送最新构建的地图至对方以实现地图融合;
S7. 每辆车收到对方持续发过来的全局边缘地图和对方的轨迹数据之后,将数据通过步骤5计算得到的矩阵进行转换,再将结果传输至步骤2的里程计算和步骤3的建图部分进行实时的协同建图。
在本发明中,本发明创造使用多车协同建图,效率高探测视野大:相比于单车建图,本发明创造能够在某车辆未能到达目标区域的时候即可完整地得到目标地区的点云地图。相比于在单辆车上面使用更多、价格更高昂的传感器,本发明创造能够节省建图与感知设备的成本,并且提高效率。由于能够在建图过程中获取并传输各自的轨迹信息,因此本发明创造除了能够进行协同建图之外,还可以实现实时观测对方的轨迹,从而实现协同定位的功能。
进一步地,所述的S3步骤具体包括:
S31. 以车辆出发位置作为原点,车头的前进方向作为y轴建立空间直角坐标系,将步骤2中分类之后的点云作为输入,计算得到当前时刻的局部点云地图,此局部点云地图是以当前位置作为原点得到的地图;
S32. 根据本车点云帧与帧之间的变换关系,得到以起点作为原点的全局点云地图,存储所有的全局点云地图,同时,在建立地图的过程中不断将每一帧建好的点云地图与对应时刻的GPS数据进行记录。
进一步地,所述的S4步骤具体包括:
S41. 车与车之间通信不断发送本车的当前GPS数据,当车辆计算对方当前所处位置,位于本车记录中经过的区域时,将该区域下的点云数据帧、航向角数据发送至对方;
S42. 接收方接收之后将数据与自身的最新点云数据帧进行配准,并将自身的最新点云数据帧发送至提供方,供其计算两车之间的坐标系变换关系;
进一步地,所述的S5步骤具体包括:
S51. 每辆车接收到对方的点云数据帧之后,将车辆的航向角计算差值,作为配准算法的预处理矩阵;
S52. 进入配准阶段,提取两车点云数据帧的快速点特征直方图几何特征,将快速点特征直方图的几何特征与预处理矩阵作为输入,利用SAC-IA算法进行粗略配准;
S53. 将粗略配准结果作为精确配准初始矩阵,利用ICP算法进行精确配准,获得配准结果;
S54. 判断此配准结果的分数值,如果分数值满足阈值要求,则认为匹配成功,该矩阵即为两车的坐标系变换矩阵。
进一步地,所述的全局点云地图包括边缘点云地图和平面点云地图。
进一步地,所述的S1步骤具体为:通过16线激光雷达,以10Hz的频率采集数据,以激光雷达点云的形式记录在内存之中;通过GPS设备,以50Hz的频率感知实时GPS数据存储在内存之中。
与现有技术相比,有益效果是:
1. 本发明使用多车同时对目标地区进行建图,能够在某一辆车出现故障的前提下保证其他车辆能够继续工作,具有比较好的鲁棒性和稳健性;且效率高探测视野大,能够有效节省建图与感知设备的成本;
2. 本发明能够利用多车协同的优势降低里程计的累计距离从而降低累积误差,除此之外本发明创造还可以通过车辆之间的匹配与数据传输实现车辆各自的误差纠正操作,从而提高建图的精确度;同时,还可以实现实时观测对方的轨迹,从而实现协同定位的功能;
3. 本发明创造使用基于GPS数据计算结果作为初始值,并且设计一种粗略配准与精确配准相结合的配准算法,能够极大程度节省网络数据的传输量即节约带宽,能够缓解建图部分的CPU的计算压力,从而提高***的稳定性与实时性;
4. 本发明创造无需提供车辆的初始位置信息,也无创造车辆中途相遇的场景,只需车辆所行驶的轨迹存在重合区域,即可实现坐标***一与协同建图的功能。
附图说明
图1 为本发明整体方法流程图。
图2为本发明点云配准算法流程图。
图3为本发明实施例多车协同快速建图方法数据流示意图。
图4为本发明实时例中接收方算法流程图。
图5为本发明实施例中发送发算法流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
如图1至图5所示,一种多车协同快速建图方法,包括以下步骤:
步骤1. 通过16线激光雷达,以10Hz的频率采集数据,以激光雷达点云的形式记录在内存之中;通过GPS设备,以50Hz的频率感知实时GPS数据存储在内存之中。
步骤2. 点云数据的预处理:将采集到的点云数据作为输入,将点云按照几何分布特性划分为包含平面特征的平面点云以及包含轮廓特征的边缘点云,估算两帧点云的运动变换关系。
步骤3. 构建局部地图与全局地图:
S31. 以车辆出发位置作为原点,车头的前进方向作为y轴建立空间直角坐标系,将步骤2中分类之后的点云作为输入,计算得到当前时刻的局部点云地图,此局部点云地图是以当前位置作为原点得到的地图;
S32. 根据本车点云帧与帧之间的变换关系,得到以起点作为原点的全局点云地图,存储所有的全局点云地图,全局点云地图包括边缘点云地图和平面点云地图,同时,在建立地图的过程中不断将每一帧建好的点云地图与对应时刻的GPS数据进行记录。
步骤4. 车间通信:
S41. 车与车之间通信不断发送本车的当前GPS数据,当车辆计算对方当前所处位置,位于本车记录中经过的区域时,将该区域下的点云数据帧、航向角数据发送至对方;
S42. 接收方接收之后将数据与自身的最新点云数据帧进行配准,并将自身的最新点云数据帧发送至提供方,供其计算两车之间的坐标系变换关系。
步骤5. 车辆之间的匹配:
S51. 每辆车接收到对方的点云数据帧之后,将车辆的航向角计算差值,作为配准算法的预处理矩阵;
S52. 进入配准阶段,提取两车点云数据帧的快速点特征直方图几何特征,将快速点特征直方图的几何特征与预处理矩阵作为输入,利用SAC-IA算法进行粗略配准;
S53. 将粗略配准结果作为精确配准初始矩阵,利用ICP算法进行精确配准,获得配准结果;
S54. 判断此配准结果的分数值,如果分数值满足阈值要求,则认为匹配成功,该矩阵即为两车的坐标系变换矩阵。
步骤6. 配准成功之后,每辆车发送配准结果给对方,每辆车收到配准结果之后,开始发送自己已经建立的全局边缘地图与轨迹给对方,并在接下来的建图过程中,已经计算得到坐标系转换关系的车辆,会彼此连续发送最新构建的地图至对方以实现地图融合;
步骤7. 每辆车收到对方持续发过来的全局边缘地图和对方的轨迹数据之后,将数据通过步骤5计算得到的矩阵进行转换,再将结果传输至步骤2的里程计算和步骤3的建图部分进行实时的协同建图。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (3)

1.一种多车协同快速建图方法,其特征在于,包括以下步骤:
S1.数据采集与感知:通过激光雷达采集数据,以激光雷达点云的形式存储在内存中,通过GPS设备,感知实时的GPS数据并存储在内存中;
S2.点云数据的预处理:将采集到的点云数据作为输入,将点云按照几何分布特性划分为包含平面特征的平面点云以及包含轮廓特征的边缘点云,估算两帧点云的运动变换关系;
S3.局部地图与全局地图:构建车辆的局部点云地图和全局点云地图;具体包括:
S31.以车辆出发位置作为原点,车头的前进方向作为y轴建立空间直角坐标系,将步骤S2中分类之后的点云作为输入,计算得到当前时刻的局部点云地图,此局部点云地图是以当前位置作为原点得到的地图;
S32.根据本车点云帧与帧之间的变换关系,得到以起点作为原点的全局点云地图,存储所有的全局点云地图,同时,在建立地图的过程中不断将每一帧建好的全局点云地图与对应时刻的GPS数据进行记录;
S4.车间通信:车辆与车辆之间进行通信,并计算两车之间的坐标系变换关系;具体包括:
S41.车与车之间通信不断发送本车的当前GPS数据,当车辆计算对方当前所处位置,位于本车记录中经过的区域时,将该区域下的点云数据帧、航向角数据发送至对方;
S42.接收方接收之后将数据与自身的最新点云数据帧进行配准,并将自身的最新点云数据帧发送至提供方,供其计算两车之间的坐标系变换关系;
S5.车辆之间的匹配:将车辆之间的坐标系变换关系进行一一匹配,匹配结果满足阀值要求的,作为两车的坐标系变换矩阵;所述的S5步骤具体包括:
S51.每辆车接收到对方的点云数据帧之后,将车辆的航向角计算差值,作为配准算法的预处理矩阵;
S52.进入配准阶段,提取两车点云数据帧的快速点特征直方图的几何特征,将快速点特征直方图的几何特征与预处理矩阵作为输入,利用SAC-IA算法进行粗略配准;
S53.将粗略配准结果作为精确配准初始矩阵,利用ICP算法进行精确配准,获得配准结果;
S54.判断此配准结果的分数值,如果分数值满足阈值要求,则认为匹配成功,初始矩阵即为两车的坐标系变换矩阵;
S6.匹配成功之后,每辆车发送配准结果给对方,每辆车收到配准结果之后,开始发送自己已经建立的全局点云地图与轨迹给对方,并在接下来的建图过程中,已经计算得到坐标系变换关系的车辆,会彼此连续发送最新构建的地图至对方以实现地图融合;
S7.每辆车收到对方持续发过来的全局边缘地图和对方的轨迹数据之后,将数据通过步骤S5计算得到的矩阵进行转换,再将结果传输至步骤S2的里程计算和步骤S3的建图部分进行实时的协同建图。
2.根据权利要求1所述的一种多车协同快速建图方法,其特征在于,所述的全局点云地图包括边缘点云地图和平面点云地图。
3.根据权利要求1所述的一种多车协同快速建图方法,其特征在于,所述的S1步骤具体为:通过16线激光雷达,以10Hz的频率采集数据,以激光雷达点云的形式记录在内存之中;通过GPS设备,以50Hz的频率感知实时GPS数据存储在内存之中。
CN201810480527.7A 2018-05-18 2018-05-18 一种多车协同快速建图方法 Active CN109100730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810480527.7A CN109100730B (zh) 2018-05-18 2018-05-18 一种多车协同快速建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810480527.7A CN109100730B (zh) 2018-05-18 2018-05-18 一种多车协同快速建图方法

Publications (2)

Publication Number Publication Date
CN109100730A CN109100730A (zh) 2018-12-28
CN109100730B true CN109100730B (zh) 2022-05-24

Family

ID=64796465

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810480527.7A Active CN109100730B (zh) 2018-05-18 2018-05-18 一种多车协同快速建图方法

Country Status (1)

Country Link
CN (1) CN109100730B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106643701B (zh) * 2017-01-16 2019-05-14 深圳优地科技有限公司 一种机器人互相检测方法及装置
CN109887028B (zh) * 2019-01-09 2023-02-03 天津大学 一种基于点云数据配准的无人车辅助定位方法
CN111666797B (zh) * 2019-03-08 2023-08-08 深圳市速腾聚创科技有限公司 车辆定位方法、装置和计算机设备
CN112212871B (zh) * 2019-07-10 2024-07-19 浙江未来精灵人工智能科技有限公司 一种数据处理方法、装置及机器人
CN112348993A (zh) * 2019-08-07 2021-02-09 财团法人车辆研究测试中心 可提供环境信息的动态图资建立方法及***
CN110677491B (zh) * 2019-10-10 2021-10-19 郑州迈拓信息技术有限公司 用于车辆的旁车位置估计方法
CN110827403B (zh) * 2019-11-04 2023-08-25 北京易控智驾科技有限公司 一种矿山三维点云地图的构建方法及装置
EP3819663A1 (en) * 2019-11-07 2021-05-12 Aptiv Technologies Limited Method for determining a position of a vehicle
CN110889901B (zh) * 2019-11-19 2023-08-08 北京航空航天大学青岛研究院 基于分布式***的大场景稀疏点云ba优化方法
CN110850407B (zh) * 2019-11-26 2023-07-21 深圳市国测测绘技术有限公司 一种基于雷达技术的地形测量方法
CN110986969B (zh) * 2019-11-27 2021-12-28 Oppo广东移动通信有限公司 地图融合方法及装置、设备、存储介质
CN111639148B (zh) * 2020-05-13 2022-03-11 广州小鹏自动驾驶科技有限公司 一种建图方法、***及存储介质
CN114078325B (zh) * 2020-08-19 2023-09-05 北京万集科技股份有限公司 多感知***配准方法、装置、计算机设备和存储介质
CN112161635B (zh) * 2020-09-22 2022-07-05 中山大学 一种基于最小回环检测的协同建图方法
CN113192197B (zh) * 2021-05-24 2024-04-05 北京京东乾石科技有限公司 一种全局点云地图的构建方法、装置、设备及存储介质
CN116408807B (zh) * 2023-06-06 2023-08-15 广州东焊智能装备有限公司 一种基于机器视觉和轨迹规划的机器人控制***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302874A (zh) * 2015-10-09 2016-02-03 苏州盛景信息科技股份有限公司 基于地理云数据的空间匹配方法
CN106482736A (zh) * 2016-07-11 2017-03-08 安徽工程大学 一种基于平方根容积卡尔曼滤波的多机器人协同定位算法
KR20170093608A (ko) * 2016-02-05 2017-08-16 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
CN107491071A (zh) * 2017-09-04 2017-12-19 中山大学 一种智能多机器人协同测图***及其方法
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN108010360A (zh) * 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760996B2 (en) * 2015-08-11 2017-09-12 Nokia Technologies Oy Non-rigid registration for large-scale space-time 3D point cloud alignment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302874A (zh) * 2015-10-09 2016-02-03 苏州盛景信息科技股份有限公司 基于地理云数据的空间匹配方法
KR20170093608A (ko) * 2016-02-05 2017-08-16 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
CN106482736A (zh) * 2016-07-11 2017-03-08 安徽工程大学 一种基于平方根容积卡尔曼滤波的多机器人协同定位算法
CN107491071A (zh) * 2017-09-04 2017-12-19 中山大学 一种智能多机器人协同测图***及其方法
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN108010360A (zh) * 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知***

Also Published As

Publication number Publication date
CN109100730A (zh) 2018-12-28

Similar Documents

Publication Publication Date Title
CN109100730B (zh) 一种多车协同快速建图方法
CN108362294B (zh) 一种应用于自动驾驶的多车协同建图方法
CN109710724B (zh) 一种构建点云地图的方法和设备
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
US11503428B2 (en) Systems and methods for co-localization of multiple devices
CN103940434B (zh) 基于单目视觉和惯性导航单元的实时车道线检测***
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
CN114332360A (zh) 一种协同三维建图方法及***
CN115240047A (zh) 一种融合视觉回环检测的激光slam方法及***
CN114459467B (zh) 一种未知救援环境中基于vi-slam的目标定位方法
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
CN115307646B (zh) 一种多传感器融合的机器人定位方法、***及装置
CN112700486A (zh) 对图像中路面车道线的深度进行估计的方法及装置
CN110751123A (zh) 一种单目视觉惯性里程计***及方法
CN115355901A (zh) 一种融合动态目标感知的多机联合建图方法
CN112762945A (zh) 高精度地图全要素采集设备的信息同步方法、***及装置
CN113838129B (zh) 一种获得位姿信息的方法、装置以及***
CN113701750A (zh) 一种井下多传感器的融合定位***
CN112651991B (zh) 视觉定位方法、装置及计算机***
CN109903309B (zh) 一种基于角度光流法的机器人运动信息估计方法
CN114419571B (zh) 一种面向无人驾驶车辆的目标检测定位方法及***
CN116358520A (zh) 一种人机多节点协同语义激光slam***及方法
CN115773759A (zh) 自主移动机器人的室内定位方法、装置、设备及存储介质
CN115937449A (zh) 高精地图生成方法、装置、电子设备和存储介质
CN113324551A (zh) 一种定位方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant