WO2022111723A1 - 道路边缘检测方法及机器人 - Google Patents

道路边缘检测方法及机器人 Download PDF

Info

Publication number
WO2022111723A1
WO2022111723A1 PCT/CN2021/134282 CN2021134282W WO2022111723A1 WO 2022111723 A1 WO2022111723 A1 WO 2022111723A1 CN 2021134282 W CN2021134282 W CN 2021134282W WO 2022111723 A1 WO2022111723 A1 WO 2022111723A1
Authority
WO
WIPO (PCT)
Prior art keywords
road edge
detection method
edge detection
robot
map
Prior art date
Application number
PCT/CN2021/134282
Other languages
English (en)
French (fr)
Inventor
黄寅
张涛
吴翔
郭璁
Original Assignee
深圳市普渡科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202011380356.4A external-priority patent/CN112486172B/zh
Application filed by 深圳市普渡科技有限公司 filed Critical 深圳市普渡科技有限公司
Publication of WO2022111723A1 publication Critical patent/WO2022111723A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Definitions

  • the present application relates to the field of Internet technologies, and in particular, to a road edge detection method and a robot.
  • Mobile robots move in specific scenarios to autonomously perform tasks such as distribution, guidance, inspection, and disinfection.
  • the above scenarios include restaurants, hotels, office buildings, hospitals, etc.
  • the robot needs to build a map and perform path planning.
  • the robot detects the edge of the walking road through lidar, but there is a large error in this method, and the robot is prone to collide with obstacles.
  • a road edge detection method comprising:
  • a road edge is calculated according to the robot pose, the topological map and the gray value.
  • a robot comprising a memory and a processor, wherein computer-readable instructions that can be run on the processor are stored in the memory, and when the processor executes the computer-readable instructions, the above-mentioned road edge detection method is implemented. step.
  • a computer storage medium stores computer-readable instructions, and when the computer-readable instructions are executed by a processor, implements the steps of the above-mentioned road edge detection method.
  • FIG. 1 shows a schematic flowchart of the road edge detection method involved in the present application
  • FIG. 2 shows a schematic flowchart of an embodiment of the road edge detection method involved in the present application
  • FIG. 3 shows a schematic flowchart of an embodiment of the road edge detection method involved in the present application
  • the embodiment of the present application relates to a road edge detection method, including:
  • the depth data, robot pose, topological map and static obstacle map are fused to more accurately calculate the road edge and reduce the possibility of robot collision.
  • the depth data can be acquired by scanning the surrounding environment of the robot through the lidar set on the robot.
  • the robot pose includes the position information and orientation information of the robot.
  • the pose of the robot can be obtained through lidar, IMU, or odometer, etc.
  • the topological map is the artificially set moving path of the robot.
  • step 102 it includes:
  • the grid value of the static obstacle map in the corresponding area of the measurement grid is increased by the first feature value, and the measurement grid does not have the depth point cloud.
  • the grid value of the static obstacle map in the area corresponding to the measurement grid is reduced by a second feature value.
  • step 103 specifically includes:
  • the gray value is calculated.
  • the gray value fuses the changes of the grid values of consecutive frames, so that the identification of obstacles is more accurate.
  • the grayscale value is the grayscale value of each pixel.
  • step 1023 specifically includes:
  • the measurement grid with the depth point cloud is marked as 1, and the measurement grid without the depth point cloud is marked as 0.
  • step 104 specifically includes:
  • the corresponding pixel is the peak pixel, which can be identified as the location of the obstacle. According to the location of the obstacle and the topological path, the road edge can be fitted, thereby improving the road edge. detection accuracy.
  • the spatial intervals may be equally spaced.
  • sampling is performed at specific spatial intervals, which can reduce the amount of calculation and improve the calculation efficiency.
  • the gray value of the sampling point is [0, 0, 10, 15, 20, 200, 215, 170, 120, 180, 100, 50], and the threshold may be 190, then the coordinate positions corresponding to the two gray values of 200, 215 are recorded.
  • step 1045 specifically includes:
  • the line is fitted using a random sampling consensus algorithm.
  • the fitting of the straight line using a random sampling consensus algorithm specifically includes:
  • the straight line with the highest score on both sides of the topological map is selected as the road edge.
  • the calculating the confidence level of the straight line specifically includes:
  • the calculation method of the confidence level is:
  • n is the number of pixels covered by the straight line in the static obstacle map
  • V is the pixel value of the pixel
  • the anti-interference ability of the fitting calculation can be improved, and the accuracy of the calculation can be improved.
  • the depth data is acquired by a depth camera.
  • the depth data includes a depth map.
  • the topology map includes several topology paths.
  • the topological map can be drawn manually.
  • the topology map includes path information that the robot can travel. Topological paths can be straight lines.
  • Embodiments of the present application also relate to a robot, including a memory and a processor.
  • Computer-readable instructions that can be run on the processor are stored in the memory.
  • the processor executes the computer-readable instructions, the steps of the above-mentioned road edge detection method are implemented.
  • a depth camera can be included. The depth camera acquires the depth data.
  • the robot may further include at least one of a lidar, an IMU, and an odometer for acquiring the robot pose.
  • the embodiments of the present application also relate to a computer storage medium, where the computer-readable storage medium stores computer-readable instructions, and when the computer-readable instructions are executed by a processor, implements the steps of the above-mentioned road edge detection method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一种道路边缘检测方法及机器人,道路边缘检测方法包括:获取深度数据、机器人位姿、拓扑地图(101);根据深度数据和机器人位姿建立静态障碍物地图(102);计算静态障碍物地图的灰度值(103);根据机器人位姿、拓扑地图和灰度值计算道路边缘(104)。

Description

道路边缘检测方法及机器人
相关申请的交叉引用
本申请要求于2020年11月30日提交中国专利局、申请号为202011380356.4、申请名称为“道路边缘检测方法及机器人”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及互联网技术领域,特别涉及一种道路边缘检测方法及机器人。
背景技术
移动机器人在特定的场景中移动,以自主执行配送、引导、巡查、消毒等任务。上述场景包括餐厅、酒店、写字楼、医院等等。在这些场景中,机器人需要建立地图并进行路径规划,在机器人行走的路径附近会存在很多障碍物,机器人在移动过程中需要躲避这些障碍物。现有技术中,机器人通过激光雷达探测行走道路的边缘,但这种方式存在较大误差,机器人容易与障碍物发生碰撞。
发明内容
根据本申请的各种实施例,提供一种道路边缘检测方法及机器人。一种道路边缘检测方法,所述方法包括:
获取深度数据、机器人位姿、拓扑地图;
根据所述深度数据和所述机器人位姿建立静态障碍物地图;
计算所述静态障碍物地图的灰度值;
根据所述机器人位姿、所述拓扑地图和所述灰度值计算道路边缘。
一种机器人,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现上述的道路边缘检测方法的步骤。
一种计算机存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述的道路边缘检测方法的步骤。
本申请的一个或多个实施例的细节在下面的附图和描述中提出。本申请的其它特征和优点将从说明书、附图以及权利要求书变得明显。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他实施例的附图。
图1示出了本申请所涉及的道路边缘检测方法的流程示意图;
图2示出了本申请所涉及的道路边缘检测方法的实施方式的流程示意图;
图3示出了本申请所涉及的道路边缘检测方法的实施方式的流程示意图;
具体实施方式
为了便于理解本申请,下面将参照相关附图对本申请进行更全面的描述。附图中给出了本申请的较佳实施例。但是,本申请可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于发明的技术领域的技术人员通常理解的含义相同。本文中在发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在限制本申请。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
以下,参考附图,详细地说明本申请的优选实施方式。在下面的说明中,对于相同的部件赋予相同的符号,省略重复的说明。另外,附图只是示意性的图,部件相互之间的尺寸的比例或者部件的形状等可以与实际的不同。
如图1所示,本申请实施方式涉及一种道路边缘检测方法,包括:
101、获取深度数据、机器人位姿、拓扑地图;
102、根据所述深度数据和所述机器人位姿建立静态障碍物地图;
103、计算所述静态障碍物地图的灰度值;
104、根据所述机器人位姿、所述拓扑地图和所述灰度值计算道路边缘。
在这种情况下,将深度数据、机器人位姿、拓扑地图以及静态障碍物地图进行融合,从而更准确地计算出道路边缘,降低机器人发生碰撞的可能性。
在本实施方式中,深度数据可通过设置于机器人上的激光雷达,对机器人周围环境扫描获取。机器人位姿包括机器人的位置信息和朝向信息。通过激光雷达、IMU或者里程计等,可获取所述机器人位姿。拓扑地图为人为设置的机器人移动路径。
如图2所示,在本实施方式中,步骤102之后,包括:
1021、对所述静态障碍物地图设置多个测量网格,所述测量网格的分辨率与所述静态障碍物地图的分辨率相同,将所述多个测量网格与所述静态障碍物地图进行位置对齐;
1022、由所述机器人位姿将所述深度数据的深度点云从机器人坐标系 转换到世界坐标系下,并向地面投影;
1023、根据所述测量网格中是否具有所述深度点云,对所述测量网格进行标记;
1024、所述测量网格内具有所述深度点云时,所述测量网格对应区域的所述静态障碍物地图的栅格值增加第一特征值,所述测量网格内不具有所述深度点云时,所述测量网格对应区域的所述静态障碍物地图的栅格值减少第二特征值。
由此,融合深度点云并结合测量网格,可将静态障碍物地图中有无深度点云的栅格更显著的进行量化区分。
在本实施方式中,步骤103具体包括:
融合连续若干帧所述静态障碍物地图的所述栅格值增加所述第一特征值或者减少所述第二特征值后,计算得出所述灰度值。
在这种情况下,灰度值融合了连续多帧栅格值的变化情况,从而使得对于障碍物的识别更加准确。
在本实施方式中,所述灰度值为各个像素的灰度值。
在本实施方式中,步骤1023具体包括:
将具有所述深度点云的所述测量网格标记为1,将不具有所述深度点云的所述测量网格标记为0。
如图3所示,在本实施方式中,步骤104具体包括:
1041、根据所述机器人位姿在所述拓扑地图中找到所述机器人当前所在道路的拓扑路径;
1042、沿着所述拓扑路径以特定的空间间隔进行采样;
1043、以所述采样位置为起始点,沿着所述拓扑路径的法线方向查询所述灰度值;
1044、当所述灰度值大于阈值时,记录对应的坐标位置;
1045、将若干所述坐标位置拟合成直线。
在这种情况下,灰度值大于阈值时,对应的像素为峰值像素,则可认定为障碍物所在位置,根据障碍物的位置并结合拓扑路径可拟合出道路边缘,从而提升了道路边缘检测的准确性。
在一些示例中,空间间隔可以等间距设置。
在本实施方式中,以特定的空间间隔进行采样,可减少计算量,提升计算效率。
在一些示例中,在一次采样中,采样点灰度值为[0,0,10,15,20,200,215,170,120,180,100,50],阈值可以是190,则记录200,215两个灰度值对应的坐标位置。
在本实施方式中,步骤1045具体包括:
采用随机抽样一致算法拟合所述直线。
在本实施方式中,所述采用随机抽样一致算法拟合所述直线,具体包括:
计算所述直线的置信度;
挑选所述拓扑地图两侧评分最高的所述直线作为所述道路边缘。
在本实施方式中,拓扑地图的两侧均拟合出若干直线。计算直线的置信度,筛选作为所述道路边缘的直线。
在本实施方式中,所述计算所述直线的置信度,具体包括:
所述置信度的计算方法为:
Figure PCTCN2021134282-appb-000001
其中,n为所述直线覆盖在所述静态障碍物地图中的像素数量,V为所述像素的像素值。
由此,可提升拟合计算的抗干扰能力,提升计算的准确性。
在本实施方式中,所述深度数据通过深度相机获取。所述深度数据包括深度图。
在本实施方式中,所述拓扑地图包括若干拓扑路径。
在一些示例中,拓扑地图可以通过人工绘制。拓扑地图包括机器人能够通行的路径信息。拓扑路径可以为直线。
本申请实施方式还涉及一种机器人,包括存储器、处理器存储器中存储有可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时实现上述的道路边缘检测方法的步骤,机器人可以包括深度相机。深度相机获取所述深度数据。机器人还可以包括激光雷达、IMU、里程计中的至少一种,用于获取所述机器人位姿。
本申请实施方式还涉及一种计算机存储介质,计算机可读存储介质存储有计算机可读指令,计算机可读指令被处理器执行时实现上述的道路边缘检测方法的步骤。
以上所述的实施方式,并不构成对该技术方案保护范围的限定。任何在上述实施方式的精神和原则之内所作的修改、等同更换和改进等,均应包含在该技术方案的保护范围之内。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (20)

  1. 一种道路边缘检测方法,所述方法包括:
    获取深度数据、机器人位姿、拓扑地图;
    根据所述深度数据和所述机器人位姿建立静态障碍物地图;
    计算所述静态障碍物地图的灰度值;
    根据所述机器人位姿、所述拓扑地图和所述灰度值计算道路边缘。
  2. 如权利要求1所述的道路边缘检测方法,其特征在于,所述根据所述深度数据和所述机器人位姿建立静态障碍物地图的步骤之后,包括:
    对所述静态障碍物地图设置多个测量网格,所述测量网格的分辨率与所述静态障碍物地图的分辨率相同,将所述多个测量网格与所述静态障碍物地图进行位置对齐;
    由所述机器人位姿将所述深度数据的深度点云从机器人坐标系转换到世界坐标系下,并向地面投影;
    根据所述测量网格中是否具有所述深度点云,对所述测量网格进行标记;
    所述测量网格内具有所述深度点云时,所述测量网格对应区域的所述静态障碍物地图的栅格值增加第一特征值,所述测量网格内不具有所述深度点云时,所述测量网格对应区域的所述静态障碍物地图的栅格值减少第二特征值。
  3. 如权利要求2所述的道路边缘检测方法,其特征在于,所述计算所述静态障碍物地图的灰度值,具体包括:
    融合连续若干帧所述静态障碍物地图的所述栅格值增加所述第一特征值或者减少所述第二特征值后,计算得出所述灰度值。
  4. 如权利要求2所述的道路边缘检测方法,其特征在于,所述根据所述测量网格中是否具有所述深度点云,对所述测量网格进行标记,具体包括:
    将具有所述深度点云的所述测量网格标记为1,将不具有所述深度点云的所述测量网格标记为0。
  5. 如权利要求1所述的道路边缘检测方法,其特征在于,所述根据所述机器人位姿、所述拓扑地图和所述灰度值计算道路边缘,具体包括:
    根据所述机器人位姿在所述拓扑地图中找到所述机器人当前所在道路的拓扑路径;
    沿着所述拓扑路径以特定的空间间隔进行采样;
    以所述采样位置为起始点,沿着所述拓扑路径的法线方向查询所述灰度值;
    当所述灰度值大于阈值时,记录对应的坐标位置;
    将若干所述坐标位置拟合成直线。
  6. 如权利要求5所述的道路边缘检测方法,其特征在于,所述将若干所述坐标位置拟合成直线,具体包括:
    采用随机抽样一致算法拟合所述直线。
  7. 如权利要求6所述的道路边缘检测方法,其特征在于,所述采用随机抽样一致算法拟合所述直线,具体包括:
    计算所述直线的置信度;
    挑选所述拓扑地图两侧评分最高的所述直线作为所述道路边缘。
  8. 如权利要求7所述的道路边缘检测方法,其特征在于,所述计算所述直线的置信度,具体包括:
    所述置信度的计算方法为:
    Figure PCTCN2021134282-appb-100001
    其中,n为所述直线覆盖在所述静态障碍物地图中的像素数量,V为所述像素的像素值。
  9. 如权利要求1所述的道路边缘检测方法,其特征在于,所述深度数 据通过深度相机获取。
  10. 如权利要求1所述的道路边缘检测方法,其特征在于,所述深度数据的获取过程包括:
    利用机器人上的激光雷达对所述机器人的周围环境进行扫描,以获取所述深度数据。
  11. 如权利要求1所述的道路边缘检测方法,其特征在于,所述机器人位姿包括机器人的位置信息和朝向信息。
  12. 如权利要求1所述的道路边缘检测方法,其特征在于,所述机器人位姿的获取过程,包括:
    利用激光雷达、IMU或里程计获取所述机器人位姿。
  13. 如权利要求1所述的道路边缘检测方法,其特征在于,所述拓扑地图具体为人为设置的机器人移动路径。
  14. 如权利要求1所述的道路边缘检测方法,其特征在于,所述拓扑地图包括机器人能够通行的路径信息。
  15. 如权利要求5所述的道路边缘检测方法,其特征在于,所述拓扑地图包括若干所述拓扑路径。
  16. 如权利要求5所述的道路边缘检测方法,其特征在于,所述沿着所述拓扑路径以特定的空间间隔进行采样的过程,包括:
    沿着所述拓扑路径以等间距进行采样。
  17. 如权利要求5所述的道路边缘检测方法,其特征在于,还包括:
    当所述灰度值大于所述阈值时,则将与所述灰度值对应的像素判定为障碍物的所在位置。
  18. 如权利要求17所述的道路边缘检测方法,其特征在于,还包括:
    根据所述障碍物的所在位置并结合所述拓扑路径拟合所述道路边缘。
  19. 一种机器人,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令 时实现如权利要求1-18任一项所述的道路边缘检测方法的步骤。
  20. 一种计算机存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1-18任一项所述的道路边缘检测方法的步骤。
PCT/CN2021/134282 2020-11-30 2021-11-30 道路边缘检测方法及机器人 WO2022111723A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011380356.4A CN112486172B (zh) 2020-11-30 道路边缘检测方法及机器人
CN202011380356.4 2020-11-30

Publications (1)

Publication Number Publication Date
WO2022111723A1 true WO2022111723A1 (zh) 2022-06-02

Family

ID=74938491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/134282 WO2022111723A1 (zh) 2020-11-30 2021-11-30 道路边缘检测方法及机器人

Country Status (1)

Country Link
WO (1) WO2022111723A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330969A (zh) * 2022-10-12 2022-11-11 之江实验室 一种用于地面无人车的局部静态环境矢量化描述方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247040A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于分层拓扑结构的多机器人***地图拼接方法
CN103400392A (zh) * 2013-08-19 2013-11-20 山东鲁能智能技术有限公司 基于变电站巡检机器人的双目视觉导航***及方法
CN103456182A (zh) * 2013-09-06 2013-12-18 浙江大学 一种基于测距传感器的道路边缘检测方法及其***
KR20170050166A (ko) * 2015-10-29 2017-05-11 한국과학기술연구원 로봇의 구동 경로를 계획하기 위한 로봇 제어 시스템 및 로봇 구동 경로 계획방법
CN107544501A (zh) * 2017-09-22 2018-01-05 广东科学技术职业学院 一种智能机器人智慧行走控制***及其方法
CN109765901A (zh) * 2019-02-18 2019-05-17 华南理工大学 基于线激光与双目视觉的动态代价地图导航方法
CN109895100A (zh) * 2019-03-29 2019-06-18 深兰科技(上海)有限公司 一种导航地图的生成方法、装置及机器人
CN109993780A (zh) * 2019-03-07 2019-07-09 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN111679664A (zh) * 2019-02-25 2020-09-18 北京奇虎科技有限公司 基于深度相机的三维地图构建方法及扫地机器人
CN112486172A (zh) * 2020-11-30 2021-03-12 深圳市普渡科技有限公司 道路边缘检测方法及机器人

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247040A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于分层拓扑结构的多机器人***地图拼接方法
CN103400392A (zh) * 2013-08-19 2013-11-20 山东鲁能智能技术有限公司 基于变电站巡检机器人的双目视觉导航***及方法
CN103456182A (zh) * 2013-09-06 2013-12-18 浙江大学 一种基于测距传感器的道路边缘检测方法及其***
KR20170050166A (ko) * 2015-10-29 2017-05-11 한국과학기술연구원 로봇의 구동 경로를 계획하기 위한 로봇 제어 시스템 및 로봇 구동 경로 계획방법
CN107544501A (zh) * 2017-09-22 2018-01-05 广东科学技术职业学院 一种智能机器人智慧行走控制***及其方法
CN109765901A (zh) * 2019-02-18 2019-05-17 华南理工大学 基于线激光与双目视觉的动态代价地图导航方法
CN111679664A (zh) * 2019-02-25 2020-09-18 北京奇虎科技有限公司 基于深度相机的三维地图构建方法及扫地机器人
CN109993780A (zh) * 2019-03-07 2019-07-09 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN109895100A (zh) * 2019-03-29 2019-06-18 深兰科技(上海)有限公司 一种导航地图的生成方法、装置及机器人
CN112486172A (zh) * 2020-11-30 2021-03-12 深圳市普渡科技有限公司 道路边缘检测方法及机器人

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330969A (zh) * 2022-10-12 2022-11-11 之江实验室 一种用于地面无人车的局部静态环境矢量化描述方法

Also Published As

Publication number Publication date
CN112486172A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
US9906914B2 (en) Scalable indoor navigation and positioning systems and methods
CN111076733B (zh) 一种基于视觉与激光slam的机器人室内建图方法及***
WO2021022615A1 (zh) 机器人探索路径生成方法、计算机设备和存储介质
Nieto et al. Recursive scan-matching SLAM
US8340818B2 (en) Method of accurate mapping with mobile robots
US9838850B2 (en) Systems and methods for determining indoor location and floor of a mobile device
CN110174894B (zh) 机器人及其重定位方法
WO2020224305A1 (zh) 用于设备定位的方法、装置及设备
CN113074727A (zh) 基于蓝牙与slam的室内定位导航装置及其方法
CN110749901B (zh) 自主移动机器人及其地图拼接方法、装置和可读存储介质
CN110986956A (zh) 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
WO2019136613A1 (zh) 机器人室内定位的方法及装置
WO2022111723A1 (zh) 道路边缘检测方法及机器人
CN116608847A (zh) 基于面阵激光传感器和图像传感器的定位和建图方法
Chen et al. Drio: Robust radar-inertial odometry in dynamic environments
Ma et al. Semantic geometric fusion multi-object tracking and lidar odometry in dynamic environment
KR101054520B1 (ko) 실내 이동 로봇의 위치 및 방향 인식 방법
CN108253968B (zh) 基于三维激光的绕障方法
AU2021273605B2 (en) Multi-agent map generation
CN112486172B (zh) 道路边缘检测方法及机器人
CN117537803B (zh) 机器人巡检语义-拓扑地图构建方法、***、设备及介质
CN114089746B (zh) 一种基于相对基准的跨无人平台协同定位方法
WO2022071315A1 (ja) 自律移動体制御装置、自律移動体制御方法及びプログラム
Amarasinghe et al. Integrated laser-camera sensor for the detection and localization of landmarks for robotic applications
Lee et al. EKF localization with lateral distance information for mobile robots in urban environments

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21897223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21897223

Country of ref document: EP

Kind code of ref document: A1