CN112327329B - 避障方法、目标设备和存储介质 - Google Patents

避障方法、目标设备和存储介质 Download PDF

Info

Publication number
CN112327329B
CN112327329B CN202011337318.0A CN202011337318A CN112327329B CN 112327329 B CN112327329 B CN 112327329B CN 202011337318 A CN202011337318 A CN 202011337318A CN 112327329 B CN112327329 B CN 112327329B
Authority
CN
China
Prior art keywords
point cloud
cloud data
coordinate system
visual point
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011337318.0A
Other languages
English (en)
Other versions
CN112327329A (zh
Inventor
邵唱
许义恒
赵家阳
张弥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Sineva Intelligent Technology Co ltd
Original Assignee
Zhejiang Sineva Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Sineva Intelligent Technology Co ltd filed Critical Zhejiang Sineva Intelligent Technology Co ltd
Priority to CN202011337318.0A priority Critical patent/CN112327329B/zh
Publication of CN112327329A publication Critical patent/CN112327329A/zh
Application granted granted Critical
Publication of CN112327329B publication Critical patent/CN112327329B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种避障方法、目标设备和存储介质,该方法应用于目标设备,包括:融合各个障碍物的激光点云数据和视觉点云数据,得到点云数据;根据所述点云数据确定各个障碍物的位置;基于各个障碍物的位置和所述目标设备的预设轨迹进行避障操作。提高了点云数据的准确性,进而确定的障碍物的位置更准确,使避障效率更高且更合理。

Description

避障方法、目标设备和存储介质
技术领域
本发明涉及自动导航技术领域,特别涉及一种避障方法、目标设备和存储介质。
背景技术
对于外界阻碍到物体的运动方向而做出各种躲避障碍的动作,这个过程就是避障,避障可以应用在机器人、机器小车和四旋翼飞机等设备中。
障碍物检测和实时避障是机器人等设备导航过程中核心和难点问题之一,相关技术中,常用的避障传感器包括激光雷达、视觉相机或超声波等,然后应用向量场直方图或者bug算法等局部路径规划算法进行路径规划。
但是,相关技术中的避障算法对障碍物的位置确定的准确性较差,这样造成避障效率和路径规划效率比较低,且避障的合理性较低。
发明内容
本发明提供一种避障方法、目标设备和存储介质,以解决相关技术中的机器人等设备避障过程中的避障效率和路径规划效率低,且避障的合理性较低的问题。
第一方面,本申请实施例提供了一种避障方法,应用于目标设备,该方法包括:
融合各个障碍物的激光点云数据和视觉点云数据,得到点云数据;
根据所述点云数据确定各个障碍物的位置;
基于各个障碍物的位置和所述目标设备的预设轨迹进行避障操作。
上述实施例,利用激光点云数据的准确性和视觉点云数据的稠密性,将障碍物的激光点云数据和视觉点云数据进行融合,提高融合点云的准确性,而融合后的点云数据涵盖了更准确的障碍物信息。因此,应用融合后的点云数据确定的障碍物的位置更准确,进而提高了避障操作的合理性和效率。
在一些示例性的实施方式中,所述融合各个障碍物的激光点云数据和视觉点云数据,包括:
在所述预设轨迹移动过程中,获取目标区域内的多组激光点云数据和多组视觉点云数据;
每获取一组激光点云数据和一组视觉点云数据,将获取的所述一组激光点云数据和所述一组视觉点云数据进行融合;
其中,获取所述一组激光点云数据的第一时刻和获取所述一组视觉点云数据的第二时刻之间的时间差小于设定时间差阈值。
上述实施例,参与融合的一组激光点云数据和一组视觉点云数据的获取时间差小于设定时间差阈值,这样保证两组数据涵盖的障碍物的信息重合度高,更符合实际的避障需求;这样,得到多组融合后的点云数据,获得障碍物的信息更全面。
在一些示例性的实施方式中,通过下列方式获取目标区域内的一组激光点云数据:
通过激光雷达获取激光雷达坐标系下的初始激光点云数据;
基于所述目标设备的初始运动状态数据,将所述初始激光点云数据转换为世界坐标系下的激光点云数据。
上述实施例,将直接获取到的激光雷达坐标系下的初始激光点云数据转换为世界坐标系下的激光点云数据,初步减小激光点云和视觉点云在时间和空间上的误差;保证了数据融合过程中的正常进行。
在一些示例性的实施方式中,所述基于所述目标设备的初始运动状态数据,将所述初始激光点云数据转换为世界坐标系下的激光点云数据,包括:
根据所述初始运动状态数据,计算所述目标设备在所述第一时刻的位姿;
根据所述目标设备在所述第一时刻的位姿,确定所述第一时刻的设备中心坐标系到世界坐标系的第一变换矩阵;
基于所述第一变换矩阵和第二变换矩阵将所述激光点云数据转换为世界坐标系下的激光点云数据,其中,所述第二变换矩阵为激光雷达坐标系到设备中心坐标系下的变换矩阵。
上述实施例中,应用运动状态数据将初始激光点云数据转换为世界坐标系下的激光点云数据,进一步了激光点云数据和视觉点云数据在空间上的误差。
在一些示例性的实施方式中,通过下列方式获取目标区域内的一组视觉点云数据:
通过视觉相机获取视觉传感器坐标系下的初始视觉点云数据;
基于所述目标设备的初始运动状态数据,将所述初始视觉点云数据转换为世界坐标系下的视觉点云数据。
上述实施例,将直接获取到的视觉相机坐标系下的初始视觉点云数据转换为世界坐标系下的视觉点云数据,初步减小激光点云和视觉点云在时间和空间上的误差;保证了数据融合过程中的正常进行。
在一些示例性的实施方式中,所述基于所述目标设备的初始运动状态数据,将所述初始视觉点云数据转换为世界坐标系下的视觉点云数据,包括:
根据所述初始运动状态数据,计算所述目标设备在所述第二时刻的位姿;
根据所述目标设备在所述第二时刻的位姿,确定所述第二时刻的设备中心坐标系到世界坐标系的第三变换矩阵;
应用所述第三变换矩阵、第四变换矩阵将所述初始视觉点云数据转换为世界坐标系下的视觉点云数据,其中,所述第四变换矩阵为视觉传感器坐标系到设备中心坐标系下的变换矩阵。
上述实施例中,应用运动状态数据将初始视觉点云数据转换为世界坐标系下的激光点云数据,进一步了激光点云数据和视觉点云数据在空间上的误差。
在一些示例性的实施方式中,所述将获取的所述一组激光点云数据和所述一组视觉点云数据进行融合,包括:
应用所述激光点云数据对所述视觉点云数据进行筛选;
应用所述激光点云数据对筛选后的视觉点云数据进行点云配准,得到修正矩阵;
应用所述修正矩阵对所述视觉点云数据进行修正,得到修正后的视觉点云数据;
将所述修正后的视觉点云数据和所述激光点云数据进行融合。
上述实施例,利用激光点云数据的准确性,对视觉点云数据进行时间和空间上的同步配准,进一步降低了二者在空间上的误差,提高融合点云的准确性。
在一些示例性的实施方式中,所述基于各个障碍物的位置和所述目标设备的预设轨迹进行避障,包括:
针对任意一个障碍物,根据所述障碍物的位置,以及,所述目标设备的当前位姿和运动方向,判断所述障碍物与所述预设轨迹是否会发生碰撞;
若是,则根据所述障碍物的位置和所述预设轨迹生成避障路线,并确定所述避障路线与所述预设轨迹的偏移距离;
若所述偏移距离小于或等于设定距离阈值,则按照所述避障路线进行移动;
若所述偏移距离大于所述设定距离阈值,则根据设定规划需求重新规划所述预设轨迹,并按照重新规划后的轨迹进行移动。
上述实施例,针对障碍物对预设轨迹的影响情况不同,采用不同的避障策略,提高了避障的合理性和避障效率。
第二方面,本申请实施例提供了一种目标设备,该目标设备包括:
数据融合模块,用于融合各个障碍物的激光点云数据和视觉点云数据,得到点云数据;
障碍物位置确定模块,用于根据所述点云数据确定各个障碍物的位置;
避障操作模块,用于基于各个障碍物的位置和所述目标设备的预设轨迹进行避障操作。
第三方面,本申请实施例提供了一种目标设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行计算机程序时实现上述任一种方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时实现上述任一种方法的步骤。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种静态地图的示意图;
图2是本申请实施例中适用的一种初始激光点云数据转换为世界坐标系下的激光点云数据的流程图;
图3为本申请实施例中适用的一种初始视觉点云数据转换为世界坐标系下的视觉点云数据的流程图;
图4是本申请实施例中适用的一种数据融合的示意图;
图5是本申请实施例中适用的一种点云数据同步与融合的示意图;
图6是本申请实施例中适用的一种碰撞预测与局部规划示意图;
图7是本申请实施例中适用的一种碰撞预测与全局规划示意图;
图8是本申请实施例提供的一种避障方法的流程图;
图9是本申请实施例提供的一种目标设备的结构示意图;
图10是本申请实施例提供的另一种目标设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
首先对本申请实施例应用到的相关术语或名词进行说明。
(1)点云:在逆向工程中通过测量仪器得到的产品外观表面的点数据集合称之为点云,通常使用三维坐标测量机所得到的点数量比较少,点与点的间距也比较大,叫稀疏点云;而使用三维激光扫描仪或照相式扫描仪得到的点云,点数量比较大并且比较密集,叫密集点云。
(2)激光点云数据:应用激光雷达扫描获取到的点云数据称为激光点云数据。
(3)视觉点云数据:应用相机拍摄扫描获取到的点云数据称为视觉点云数据。
(4)变换矩阵:不同坐标系之间的变换矩阵,具体包括:
由于目标设备处于移动过程中,因此,设备中心坐标系到世界坐标系的变换矩阵为变化的。示例性的,B为Body的简称,表示设备中心坐标系;W为World的简称,表示世界坐标系,因此,WTB1表示第一时刻的设备中心坐标系到世界坐标系的变换矩阵。同理,第二时刻的设备中心坐标系到世界坐标系的变换矩阵为第三变换矩阵,记为WTB2
具体的,WTB1的计算方式如下:
假设第一时刻设备中心的位姿为(WxB1WyB1WzB1WαB1WβB1WθB1),此时设备中心坐标系到世界坐标系的旋转矩阵为WRB1
WRB1WRzB1 WRyB1 WRxB1
其中:
Figure BDA0002797553260000061
Figure BDA0002797553260000062
Figure BDA0002797553260000071
设备中心坐标系到世界坐标系的平移矩阵为WMB1
Figure BDA0002797553260000072
综合旋转矩阵WRB1和平移矩阵WMB1,最终得到第一时刻设备中心坐标系到世界坐标系的变换矩阵:
Figure BDA0002797553260000073
具体的,WTB2的计算方式如下:
假设第二时刻设备中心的位姿为(WxB2WyB2WzB2WαB2WβB2WθB2),此时设备中心坐标系到世界坐标系的旋转矩阵为WRB2
WRB2WRzB2 WRyB2 WRxB2
其中:
Figure BDA0002797553260000074
Figure BDA0002797553260000075
Figure BDA0002797553260000076
设备中心坐标系到世界坐标系的平移矩阵为WMB2
Figure BDA0002797553260000081
综合旋转矩阵WRB2和平移矩阵WMB2,最终得到第二时刻设备中心坐标系到世界坐标系的变换矩阵:
Figure BDA0002797553260000082
另外,L为Laser的简称,则激光雷达坐标系到设备中心坐标系的变换矩阵称为第二变换矩阵,记为BTL
具体的,BTL的计算方式如下:
假设激光雷达在设备中心坐标系下的位姿为(BxLByLBzLBαLBβLBθL),此时激光雷达坐标系到设备中心坐标系的旋转矩阵为BRL
BRLBRzL BRyL BRxL
其中:
Figure BDA0002797553260000083
Figure BDA0002797553260000084
Figure BDA0002797553260000085
激光雷达坐标系到设备中心坐标系的平移矩阵为BML
Figure BDA0002797553260000091
综合旋转矩阵BRL和平移矩阵DML,最终得到激光雷达坐标系到设备中心坐标系的变换矩阵:
Figure BDA0002797553260000092
另外,C为Camera的简称,则视觉传感器坐标系到设备中心坐标系的变换矩阵称为第四变换矩阵,记为BTC
具体的,BTC的计算方式如下:
假设视觉传感器在设备中心坐标系下的位姿为(BxCByCBzCBαCBβCBθC);此时视觉传感器到设备中心坐标系的旋转矩阵为BRC
BRCBRzC BRyC BRxC
其中:
Figure BDA0002797553260000093
Figure BDA0002797553260000094
Figure BDA0002797553260000095
视觉传感器坐标系到设备中心坐标系的平移矩阵为BMC
Figure BDA0002797553260000096
综合旋转矩阵BRC和平移矩阵BMC,最终得到激光雷达坐标系到设备中心坐标系的变换矩阵:
Figure BDA0002797553260000101
其次,目标设备以机器人为例,对整个避障方法的流程进行说明。
激光雷达和视觉相机通常设置在机器人上,与机器人的相对位置固定,激光雷达获取到的初始激光点云数据为激光雷达坐标系下的数据,视觉相机获取到的初始视觉点云数据为视觉传感器坐标系下的数据,为了实现准确的视觉融合,先要对激光雷达和视觉相机等传感器的内外参数进行标定,提高获取到的激光点云数据和视觉点云数据的准确性。另外,考虑到激光点云数据和视觉点云数据获取时的坐标系不同,将二者转换为世界坐标系的过程中,需要用到相应的坐标系相对于设备中心坐标系的变换矩阵,激光雷达坐标系到设备中心坐标系下的第二变换矩阵,以及,视觉传感器坐标系到设备中心坐标系下的第四变换矩阵。
选定一个目标区域,研究该区域中的避障过程。目标区域中含有固有障碍物,比如,超市、公交站等,这些固定障碍物所在的区域即为不可通行区域。将包括固有障碍物的目标区域的地图称为静态地图,静态地图为二维占据概率栅格,对静态地图进行二值化处理,这样可以区分可通行区域和不可通行区域,如图1所示,0表示可通行,1表示不可通行。而机器人开始行进后,某些不是固有障碍物的物体可能成为机器人的障碍物,或者,随时可能出现其他运动的物体成为机器人的障碍物,因此,在机器人按照预设轨迹行进过程中,遇到的障碍物随时变化,比如,静态地图中原本为0的位置变成1,表示障碍物增加,静态地图可以被更新。
为了保证数据融合的准确性,获取一组激光点云数据的第一时刻和获取一组视觉点云数据的第二时刻之间的时间差小于设定时间差阈值。以一组激光点云数据和视觉点云数据的获取过程进行说明,每组激光点云数据和视觉点云数据的获取过程相同。
在一个实施例中,通过下列方式获取目标区域内的一组激光点云数据:通过激光雷达获取激光雷达坐标系下的初始激光点云数据Lp;基于目标设备的初始运动状态数据,将初始激光点云数据转换为世界坐标系下的激光点云数据。
参考图2,初始激光点云数据转换为世界坐标系下的激光点云数据的具体转换过程包括:
S201、根据初始运动状态数据,计算目标设备在第一时刻的位姿。
考虑到激光雷达和视觉相机在时间上的不同步,因此,通过引入机器人运动状态数据对激光点云数据进行转换。
以机器人的初始位置为起点,将机器人出发的时刻记为初始时刻t0,其在世界坐标系下的初始速度记为
Figure BDA0002797553260000111
和初始位姿
Figure BDA0002797553260000112
在第一时刻获取激光点云数据Lp时,所处坐标系为激光雷达本身,由于激光点云数据和机器人运动状态采样不同步,因此,主要对第一时刻t1获取的激光点云进行运动校准,预测机器人在t1时刻的位姿,预测方式如下:
Figure BDA0002797553260000113
其中,
Figure BDA0002797553260000114
为机器人在t1时刻的位姿。
S202、根据目标设备在第一时刻的位姿,确定第一时刻的设备中心坐标系到世界坐标系的第一变换矩阵。
由于机器人是移动的,因此,设备中心坐标系到世界坐标系的变换矩阵是变化的,且与当前时刻的机器人的位姿有关。相应的,根据机器人在第一时刻的位姿可以确定第一时刻的设备中心坐标系到世界坐标系的第一变换矩阵WTB1
S203、基于第一变换矩阵和第二变换矩阵将初始激光点云数据转换为世界坐标系下的激光点云数据,其中,第二变换矩阵为激光雷达坐标系到设备中心坐标系下的变换矩阵。
具体的,将t1时刻获取的初始激光点云数据转换到世界坐标系下,转换方式如下:
WplWTB1×BTL×Lpi
其中,Lpi为第Lp中的第i条数据,该条数据转换后对应的世界坐标系下的激光点云数据记为WplLp是激光点云数据的总称,对每条激光点云数据均采用该方式进行转换。
本实施例中,将激光雷达坐标系下的初始激光点云数据转换为世界坐标系下的激光点云数据,初步减小激光点云和视觉点云在时间和空间上的误差。
在一个实施例中,通过下列方式获取目标区域内的一组视觉点云数据:通过视觉相机获取视觉传感器坐标系下的初始视觉点云数据;基于目标设备的初始运动状态数据,将初始视觉点云数据转换为世界坐标系下的视觉点云数据。
参考图3,初始视觉点云数据转换为世界坐标系下的视觉点云数据的具体转换过程包括:
S301、根据初始运动状态数据,计算目标设备在第二时刻的位姿。
考虑到激光雷达和视觉相机在时间上的不同步,因此,通过引入机器人运动状态数据对视觉点云数据进行转换。
由于机器人时刻在运动,而从初始位置出发,从t0到t2时刻,虽然机器人的实际位姿发生了变化,但是变化的位姿可能并没有进行更新。另外,还为了提高位姿预测精度,应用t0时刻的位姿和速度预测t2时刻的位姿,预测方式如下:
Figure BDA0002797553260000131
其中,
Figure BDA0002797553260000132
为机器人在t2时刻的位姿。
S302、根据目标设备在第二时刻的位姿,确定第二时刻的设备中心坐标系到世界坐标系的第三变换矩阵。
第三变换矩阵的计算方式与第一变换矩阵的计算方式相同,参考S202。
S303、应用第三变换矩阵、第四变换矩阵将初始视觉点云数据转换为世界坐标系下的视觉点云数据,其中,第四变换矩阵为视觉传感器坐标系到设备中心坐标系下的变换矩阵。
示例性的,在t2时刻获取视觉传感器坐标系下的初始视觉点云数据,为提高计算效率,可以对初始视觉点云数据进行筛选,而不是对全部初始视觉点云数据进行变换。筛选规则可以是:根据视觉传感器深度值的测量精度,按照测量精度的要求,截取满足使用要求的精度范围内的深度点云或称为稠密点云Cp进行变换。
具体的,初始视觉点云数据转换为世界坐标系下的视觉点云数据的方式包括:
WpcWTB2×BTC×Cpj
其中,Cpj为世界坐标系下的视觉点云数据Wpc第j条数据,Cp是视觉点云数据的总称,对每条激光点云数据均采用该方式进行转换。
本实施例中,将视觉相机坐标系下的初始视觉点云数据转换为世界坐标系下的视觉点云数据,初步减小激光点云和视觉点云在时间和空间上的误差。
在一个实施例中,每得到一组世界坐标系下的激光点云数据和视觉点云数据,则对其进行融合,融合的详细过程参考图4。
S401、应用激光点云数据对视觉点云数据进行筛选。
具体的,对t2时刻的世界坐标系下的视觉点云数据进行筛选,筛选规则可以是平面截取,比如,截取平面与激光雷达共面,截取后的视觉点云数据为Wpc_h。这样是为了应用筛选后的视觉点云数据来进行点云配准,使配准过程更准确。
S402、应用激光点云数据对筛选后的视觉点云数据进行点云配准,得到修正矩阵。
点云数据能够以较小的存储成本获得物体准确的拓扑结构和几何结构,在实际的采集过程中,因为被测物体尺寸过大,物体表面被遮挡或者三维扫描设备的扫描角度等因素,单次的扫描往往得不到物体完整的几何信息。因此,为了获得被测物体的完整几何信息,就需要将不同视角即不同参考坐标下的两组或者多组点云统一到同一坐标系下,进行点云的配准。
点云配准的基本原理是,在待配准的两组点云数据中,按照一定的约束条件,找到最近邻点,然后计算出最优匹配参数,使得误差函数最小。
本申请实施例中,WplWpc_h均为二维平面点云,且同在世界坐标系下。由于激光点云的准确度高于视觉点云,则以激光点云为参考对象,对视觉点云Wpc_h进行点云配准,获取二者之间的相对位姿关系TC-L,满足以下关系:
Wpl=TC-L×Wpc_h
该相对位姿关系的表示矩阵TC-L即为修正矩阵。
S403、应用修正矩阵对视觉点云数据进行修正,得到修正后的视觉点云数据。
利用TC-L对全部视觉点云数据进行修正,得到修正后的视觉点云数据Wpc′,修正方式如下:
Wpc′=TC-L×Wpc
S404、将修正后的视觉点云数据和激光点云数据进行融合。
具体的,为了提高点云避障效率,将修正后的视觉点云数据和激光点云数据进行融合,比如,取两组数据的并集,这样可以使获得的障碍物的信息更准确且更全面。示例性的,Wp为融合后的点云数据,融合方式如下:
Wp=WplWpc
本实施中,利用激光点云数据的准确性,对视觉点云数据进行时间和空间上的同步配准,进一步降低了二者在空间上的误差,提高融合点云的准确性。
在一个具体的例子中,图5示出了一种点云数据同步与融合的示意图,参考图5,机器人状态对应的时刻为t0,激光点云数据的获取时间为t1,视觉点云数据的获取时间为t2,对获取到的每一组激光点云数据和视觉点云数据进行融合。
在一个实施例中,在确定融合后的点云数据后,在根据融合后的点云数据来判断各个障碍物是否与预设轨迹产生干涉,若产生干涉,应该如何进行避障。在判断障碍物是否与预设轨迹产生干涉时,可以预先确定一个检测范围,在该检测范围内进行判断,这样可以提高判断的实时性。
检测范围用R表示,R具体可以根据机器人的当前速度和当前加速度进行调整:
Figure BDA0002797553260000161
其中,v表示机器人当前的线速度,a表示机器人的加速度,δt表示点云数据的延迟时间,r表示预留安全距离。
相应的,在该检测范围R内,比如先不考虑机器人的位姿和运动方向,筛选出来预设轨迹上可能会被影响的点,可以通过判断障碍物到预设轨迹线的距离与机器人最大尺寸的关系来判断。当障碍物到轨迹线的距离大于机器人最大尺寸,表明不会发生碰撞,可以继续行驶;当障碍物到预设轨迹线的距离小于或者等于机器人最大尺寸时,则说明有可能会发生碰撞,因此,将这些点筛选出来作为可能会被影响的点。
继而考虑机器人的位姿和运动方向,针对任意一个障碍物,根据其位置和机器人的当前位姿和运动方向,判断障碍物与预设轨迹是否会发生碰撞。比如是计算下一个目标时刻的预测位姿是不是与预设轨迹有交集,若是,则判断障碍物与预设轨迹发生碰撞。
若障碍物与预设轨迹发生碰撞,则根据受影响的轨迹点以及障碍物的位置生成避障路线,避障路线可以是受影响的轨迹点重新规划后的路线。再计算避障路线与预设轨迹的偏移距离,该偏移距离用来表征避障路线是不是可行。具体的,如果偏移距离小于或等于设定距离阈值,表明局部的轨迹重新规划不影响预设轨迹的实际效果,则机器人按照避障路线进行移动,移动完成后回到原始预设轨迹上继续移动,重新判断是否有与其发生碰撞;如果偏移距离大于设定距离阈值,表明避障路线虽然能保证机器人和障碍物不会发生碰撞,但是避障路线与原始的预设轨迹的偏差已经过大,不符合机器人轨迹规划的目的,或者说不满足机器人运动的实际需求,此时,该避障轨迹不是最优路线的可能性较大,需要以当前机器人位姿为起点,根据设定规划需求重新规划预设轨迹,进行全局规划,并且按照重新规划后的轨迹进行移动。
本实施例中,根据障碍物对路线的影响程度,采用不同的规划策略,提高了避障的效率和合理性,也提高了路径规划的合理性。
在一个具体的例子中,图6示出了一种碰撞预测与局部规划示意图,参考图6,比如可以是将受影响的点按照偏移方向进行偏移,偏移距离为上述实施例计算而得,假设偏移距离小于或等于设定距离阈值,则这种情况为局部规划。在这个具体的例子中,机器人按照初始阶段的预设轨迹601运动;在遇到障碍物时,沿着受影响的点重新规划后的避障路线602避障;避障结束后,仍按原预设轨迹603进行运动。
在另一个具体的例子中,图7示出了一种碰撞预测与全局规划示意图,参考图7,比如将受影响的点按照偏移方向偏移后,计算得到的偏移距离大于设定距离阈值,这种情况中,避障路线已经不符合机器人轨迹规划的目的,此时已机器人当前位姿为起点,根据设定规划需求进行全局规划,得到重新规划后的轨迹,机器人按照重新规划后的轨迹进行运动。其中,701表示原始的预设轨迹,702表示重新规划后的轨迹。
图8是本申请实施例提供的一种避障方法的流程图,参考图5,具体可以包括如下步骤:
S801、融合各个障碍物的激光点云数据和视觉点云数据,得到点云数据。
S802、根据点云数据确定各个障碍物的位置。
S803、基于各个障碍物的位置和目标设备的预设轨迹进行避障操作。
上述实施例,利用激光点云数据的准确性和视觉点云数据的稠密性,将障碍物的激光点云数据和视觉点云数据进行融合,提高融合点云的准确性,而融合后的点云数据涵盖了更准确的障碍物信息。因此,应用融合后的点云数据确定的障碍物的位置更准确,进而提高了避障操作的合理性和效率。
参考图9,基于与上述避障方法相同的发明构思,本申请实施例还提供了一种目标设备,该目标设备主要包括数据融合模块901、障碍物位置确定模块902和避障操作模块903。
其中,数据融合模块901,用于融合各个障碍物的激光点云数据和视觉点云数据,得到点云数据;障碍物位置确定模块902,用于根据点云数据确定各个障碍物的位置;避障操作模块903,用于基于各个障碍物的位置和目标设备的预设轨迹进行避障操作。
上述实施例,利用激光点云数据的准确性和视觉点云数据的稠密性,将障碍物的激光点云数据和视觉点云数据进行融合,提高融合点云的准确性,而融合后的点云数据涵盖了更准确的障碍物信息。因此,应用融合后的点云数据确定的障碍物的位置更准确,进而提高了避障操作的合理性和效率。
可选的,数据融合模块901具体用于:
在预设轨迹移动过程中,获取目标区域内的多组激光点云数据和多组视觉点云数据;
每获取一组激光点云数据和一组视觉点云数据,将获取的一组激光点云数据和一组视觉点云数据进行融合;
其中,获取一组激光点云数据的第一时刻和获取一组视觉点云数据的第二时刻之间的时间差小于设定时间差阈值。
可选的,数据融合模块901具体用于,通过下列方式获取目标区域内的一组激光点云数据:
通过激光雷达获取激光雷达坐标系下的初始激光点云数据;
基于目标设备的初始运动状态数据,将初始激光点云数据转换为世界坐标系下的激光点云数据。
可选的,数据融合模块901具体用于:
根据初始运动状态数据,计算目标设备在第一时刻的位姿;
根据目标设备在第一时刻的位姿,确定第一时刻的设备中心坐标系到世界坐标系的第一变换矩阵;
基于第一变换矩阵和第二变换矩阵将初始激光点云数据转换为世界坐标系下的激光点云数据,其中,第二变换矩阵为激光雷达坐标系到设备中心坐标系下的变换矩阵。
可选的,数据融合模块901具体用于,通过下列方式获取目标区域内的一组视觉点云数据:
通过视觉相机获取视觉传感器坐标系下的初始视觉点云数据;
基于目标设备的初始运动状态数据,将初始视觉点云数据转换为世界坐标系下的视觉点云数据。
可选的,数据融合模块901具体用于:
根据初始运动状态数据,计算目标设备在第二时刻的位姿;
根据目标设备在第二时刻的位姿,确定第二时刻的设备中心坐标系到世界坐标系的第三变换矩阵;
应用第三变换矩阵、第四变换矩阵将初始视觉点云数据转换为世界坐标系下的视觉点云数据,其中,第四变换矩阵为视觉传感器坐标系到设备中心坐标系下的变换矩阵。
可选的,数据融合模块901具体用于:
应用激光点云数据对视觉点云数据进行筛选;
应用激光点云数据对筛选后的视觉点云数据进行点云配准,得到修正矩阵;
应用修正矩阵对视觉点云数据进行修正,得到修正后的视觉点云数据;
将修正后的视觉点云数据和激光点云数据进行融合。
可选的,避障模块903具体用于,基于各个障碍物的位置和目标设备的预设轨迹进行避障,包括:
针对任意一个障碍物,根据障碍物的位置,以及,目标设备的当前位姿和运动方向,判断障碍物与预设轨迹是否会发生碰撞;
若是,则根据障碍物的位置和预设轨迹生成避障路线,并确定避障路线与预设轨迹的偏移距离;
若偏移距离小于或等于设定距离阈值,则按照避障路线进行移动;
若偏移距离大于设定距离阈值,则根据设定规划需求重新规划预设轨迹,并按照重新规划后的轨迹进行移动。
本申请实施例提的避障装置与上述避障方法采用了相同的发明构思,采用了相同的实现手段,能够取得相同的有益效果,在此不再赘述。
基于与上述避障方法相同的发明构思,本申请实施例还提供了一种目标设备,该目标设备具体可以为桌面计算机、便携式计算机、智能手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、服务器等;在本申请实施例中,目标设备可以是机器人。如图10所示,该目标设备100可以包括处理器1001、存储器1002、激光雷达1003和视觉相机1004。其中,激光雷达1003获取到初始激光点云数据后发送至处理1001,视觉相机1004获取到初始视觉点云数据后发送至处理器1001,处理器1001对接收到的初始激光点云数据和初始视觉点云数据进行处理后融合。
处理器1001可以是通用处理器,例如中央处理器(CPU)、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器1002作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random Access Memory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器1002还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;上述计算机存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于:移动存储设备、随机存取存储器(RAM,Random Access Memory)、磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、随机存取存储器(RAM,Random Access Memory)、磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等各种可以存储程序代码的介质。
以上实施例仅用以对本申请的技术方案进行了详细介绍,但以上实施例的说明只是用于帮助理解本申请实施例的方法,不应理解为对本申请实施例的限制。本技术领域的技术人员可轻易想到的变化或替换,都应涵盖在本申请实施例的保护范围之内。

Claims (10)

1.一种避障方法,其特征在于,应用于目标设备,该方法包括:
每获取一组激光点云数据和一组视觉点云数据,将获取的所述一组激光点云数据和所述一组视觉点云数据进行融合;其中,所述一组视觉点云数据和一组激光点云数据分别为所述目标设备在预设轨迹移动过程中获取到的目标区域内的多组激光点云数据和多组视觉点云数据中的一组;
根据所述点云数据确定各个障碍物的位置;
基于各个障碍物的位置和所述目标设备的预设轨迹进行避障操作;
其中,所述将获取的所述一组激光点云数据和所述一组视觉点云数据进行融合,包括:
应用所述激光点云数据对所述视觉点云数据进行筛选;应用所述激光点云数据对筛选后的视觉点云数据进行点云配准,得到修正矩阵;应用所述修正矩阵对所述视觉点云数据进行修正,得到修正后的视觉点云数据;将所述修正后的视觉点云数据和所述激光点云数据进行融合。
2.根据权利要求1所述的方法,其特征在于,获取所述一组激光点云数据的第一时刻和获取所述一组视觉点云数据的第二时刻之间的时间差小于设定时间差阈值。
3.根据权利要求2所述的方法,其特征在于,通过下列方式获取目标区域内的一组激光点云数据:
通过激光雷达获取激光雷达坐标系下的初始激光点云数据;
基于所述目标设备的初始运动状态数据,将所述初始激光点云数据转换为世界坐标系下的激光点云数据。
4.根据权利要求3所述的方法,其特征在于,所述基于所述目标设备的初始运动状态数据,将所述初始激光点云数据转换为世界坐标系下的激光点云数据,包括:
根据所述初始运动状态数据,计算所述目标设备在所述第一时刻的位姿;
根据所述目标设备在所述第一时刻的位姿,确定所述第一时刻的设备中心坐标系到世界坐标系的第一变换矩阵;
基于所述第一变换矩阵和第二变换矩阵将所述激光点云数据转换为世界坐标系下的激光点云数据,其中,所述第二变换矩阵为激光雷达坐标系到设备中心坐标系下的变换矩阵。
5.根据权利要求2所述的方法,其特征在于,通过下列方式获取目标区域内的一组视觉点云数据:
通过视觉相机获取视觉传感器坐标系下的初始视觉点云数据;
基于所述目标设备的初始运动状态数据,将所述初始视觉点云数据转换为世界坐标系下的视觉点云数据。
6.根据权利要求5所述的方法,其特征在于,所述基于所述目标设备的初始运动状态数据,将所述初始视觉点云数据转换为世界坐标系下的视觉点云数据,包括:
根据所述初始运动状态数据,计算所述目标设备在所述第二时刻的位姿;
根据所述目标设备在所述第二时刻的位姿,确定所述第二时刻的设备中心坐标系到世界坐标系的第三变换矩阵;
应用所述第三变换矩阵、第四变换矩阵将所述初始视觉点云数据转换为世界坐标系下的视觉点云数据,其中,所述第四变换矩阵为视觉传感器坐标系到设备中心坐标系下的变换矩阵。
7.根据权利要求1~6任一所述的方法,其特征在于,所述基于各个障碍物的位置和所述目标设备的预设轨迹进行避障,包括:
针对任意一个障碍物,根据所述障碍物的位置,以及,所述目标设备的当前位姿和运动方向,判断所述障碍物与所述预设轨迹是否会发生碰撞;
若是,则根据所述障碍物的位置和所述预设轨迹生成避障路线,并确定所述避障路线与所述预设轨迹的偏移距离;
若所述偏移距离小于或等于设定距离阈值,则按照所述避障路线进行移动;
若所述偏移距离大于所述设定距离阈值,则根据设定规划需求重新规划所述预设轨迹,并按照重新规划后的轨迹进行移动。
8.一种目标设备,其特征在于,包括:
数据融合模块,用于每获取一组激光点云数据和一组视觉点云数据,将获取的所述一组激光点云数据和所述一组视觉点云数据进行融合;其中,所述一组视觉点云数据和一组激光点云数据分别为所述目标设备在预设轨迹移动过程中获取到的目标区域内的多组激光点云数据和多组视觉点云数据中的一组;
障碍物位置确定模块,用于根据所述点云数据确定各个障碍物的位置;
避障操作模块,用于基于各个障碍物的位置和所述目标设备的预设轨迹进行避障操作;
其中,所述数据融合模块还用于:
应用所述激光点云数据对所述视觉点云数据进行筛选;应用所述激光点云数据对筛选后的视觉点云数据进行点云配准,得到修正矩阵;应用所述修正矩阵对所述视觉点云数据进行修正,得到修正后的视觉点云数据;将所述修正后的视觉点云数据和所述激光点云数据进行融合。
9.一种目标设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该计算机程序指令被处理器执行时实现权利要求1至7任一项所述方法的步骤。
CN202011337318.0A 2020-11-25 2020-11-25 避障方法、目标设备和存储介质 Active CN112327329B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011337318.0A CN112327329B (zh) 2020-11-25 2020-11-25 避障方法、目标设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011337318.0A CN112327329B (zh) 2020-11-25 2020-11-25 避障方法、目标设备和存储介质

Publications (2)

Publication Number Publication Date
CN112327329A CN112327329A (zh) 2021-02-05
CN112327329B true CN112327329B (zh) 2023-04-18

Family

ID=74307937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011337318.0A Active CN112327329B (zh) 2020-11-25 2020-11-25 避障方法、目标设备和存储介质

Country Status (1)

Country Link
CN (1) CN112327329B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113031008A (zh) * 2021-03-12 2021-06-25 中国电子科技集团公司第二十研究所 一种具有主动探测海面威胁的前视预测告警方法
CN114137905B (zh) * 2021-11-18 2023-10-03 合肥欣奕华智能机器股份有限公司 一种误差补偿方法、装置及存储介质
CN113901970B (zh) * 2021-12-08 2022-05-24 深圳市速腾聚创科技有限公司 障碍物的检测方法及装置、介质及电子设备
CN114998864A (zh) * 2022-05-27 2022-09-02 重庆长安汽车股份有限公司 一种障碍物检测方法、装置、设备及存储介质
CN115525049A (zh) * 2022-09-06 2022-12-27 劢微机器人科技(深圳)有限公司 车辆避障方法、装置、设备及存储介质
CN117218152A (zh) * 2023-08-16 2023-12-12 南方科技大学 一种假肢运动预测方法、装置及终端设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480638B (zh) * 2017-08-16 2020-06-30 北京京东尚科信息技术有限公司 车辆避障方法、控制器、装置和车辆
CN109283538B (zh) * 2018-07-13 2023-06-13 上海大学 一种基于视觉和激光传感器数据融合的海上目标大小检测方法
CN109859154A (zh) * 2019-01-31 2019-06-07 深兰科技(上海)有限公司 一种数据融合方法、装置、设备及介质
CN111624622B (zh) * 2020-04-24 2023-05-02 库卡机器人(广东)有限公司 障碍物检测方法、装置
CN111724598B (zh) * 2020-06-29 2022-04-05 北京百度网讯科技有限公司 用于自动驾驶规划路径的方法、装置、设备以及存储介质
CN111619560B (zh) * 2020-07-29 2020-11-03 北京三快在线科技有限公司 车辆控制方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Peng Y et.al.《The obstacle detection and obstacle avoidance algorithm based on 2-D lidar》.《IEEE International Conference on Information and Automation》.2015,第1648-1653页. *
孙祥峻 ; 刘志刚 ; .矿井环境基于稀疏激光雷达数据的动态物体检测与追踪.工业控制计算机.2020,(第07期),第94-96页. *

Also Published As

Publication number Publication date
CN112327329A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN112327329B (zh) 避障方法、目标设备和存储介质
CN110645974B (zh) 一种融合多传感器的移动机器人室内地图构建方法
CN108709562B (zh) 一种移动机器人滚动栅格地图构建方法
US9563808B2 (en) Target grouping techniques for object fusion
US20220371602A1 (en) Vehicle positioning method, apparatus, and controller, intelligent vehicle, and system
CN113376650B (zh) 移动机器人定位方法及装置、电子设备及存储介质
US11789141B2 (en) Omnidirectional sensor fusion system and method and vehicle including the same
WO2019062649A1 (zh) 一种自适应区域划分的方法及***
CN111066064A (zh) 使用误差范围分布的网格占用建图
CN113432533B (zh) 一种机器人定位方法、装置、机器人及存储介质
CN112362065B (zh) 绕障轨迹规划方法、装置、存储介质、控制单元和设备
CN114236564B (zh) 动态环境下机器人定位的方法、机器人、装置及存储介质
WO2022141116A1 (zh) 三维点云分割方法和装置、可移动平台
JP2017526083A (ja) 位置特定およびマッピングの装置ならびに方法
WO2022099620A1 (zh) 三维点云分割方法和装置、可移动平台
CN111257826B (zh) 一种多源异构传感器复合跟踪方法
CN117765508A (zh) 一种车辆不可行驶区域检测方法、装置及设备
Lundquist et al. Estimation of the free space in front of a moving vehicle
Ramesh et al. Landmark-based RADAR SLAM for autonomous driving
CN113203424B (zh) 多传感器的数据融合方法、装置及相关设备
CN112506203B (zh) 一种机器人运动动态反馈方法及***
Richter et al. Advanced occupancy grid techniques for lidar based object detection and tracking
CN117677862A (zh) 一种伪像点识别方法、终端设备及计算机可读存储介质
Yang et al. Two-stage multi-sensor fusion positioning system with seamless switching for cooperative mobile robot and manipulator system
Junjing et al. Occupancy grid mapping based on DSmT for dynamic environment perception

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant