CN108363391B - 机器人及其控制方法 - Google Patents

机器人及其控制方法 Download PDF

Info

Publication number
CN108363391B
CN108363391B CN201810075295.7A CN201810075295A CN108363391B CN 108363391 B CN108363391 B CN 108363391B CN 201810075295 A CN201810075295 A CN 201810075295A CN 108363391 B CN108363391 B CN 108363391B
Authority
CN
China
Prior art keywords
measurement
distance measuring
measurement data
sensors
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810075295.7A
Other languages
English (en)
Other versions
CN108363391A (zh
Inventor
安藤健
阮维馨
笹井裕之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN108363391A publication Critical patent/CN108363391A/zh
Application granted granted Critical
Publication of CN108363391B publication Critical patent/CN108363391B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/49Protective device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种机器人及其控制方法,该机器人在使用OSS对机器人的自主移动进行控制的情况下,防止机器人向障碍物的碰撞。该方法是具备多个扫描测距传感器、并基于使用多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人的控制方法,包括以下步骤:删除多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。

Description

机器人及其控制方法
技术领域
本发明涉及自主移动的机器人及其控制方法。
背景技术
作为在室内使用的自主移动机器人的自身位置识别技术,将事先制作的地图与从扫描测距传感器得到的数据进行对照的方法越来越常见。对于在该方法中使用的地图,一般是预先手动或自动地使自主移动机器人行驶,并使用即时定位与地图构建(SLAM,Simultaneous Localization and Maping)的方法制作的。
另一方面,近来,在各种领域中,开源软件(Open Source Software,以下称作OSS)的普及正快速地进行着。在机器人的领域中,例如机器人操作***(ROS,Robot OperatingSystem)或RT中间件(RTM,RT-middleware)之类的OSS也开始在全世界迅速地普及。
在这些OSS之中也包含涉及机器人的自主移动的技术。通过使本公司开发的机器人与各自的OSS对应,能够简单地使该机器人在室内自主移动。这些OSS是以仅将一个扫描测距传感器设于机器人的正面的通用的机器人为前提而制作的。
但是,在实际开发机器人时,为了测量较大范围的周围环境,通常必须设置多个扫描测距传感器。例如,在人搭乘于自主移动机器人的情况下,由于人乘坐在该机器人的正面,所以通常在机器人的左右安装扫描测距传感器。在该情况下,在利用OSS制作地图时,需要将由左右的扫描测距传感器得到的各数据合并,使其像从设于机器人的正面的一个虚拟的扫描测距传感器(以下,称为虚拟传感器)得到的数据那样。
以往提出了下面的方法作为对由左右的扫描测距传感器得到的各数据进行合并的方法:将由各扫描测距传感器得到的各数据转换为以一个虚拟传感器的坐标为基准的数据,并对由各扫描测距传感器得到的各数据直接进行合并的方法(例如,参照专利文献1)。
这里,使用图12对专利文献1的地图的制作方法进行说明。图12是表示专利文献1的移动机器人具备多个扫描测距传感器且以由各位置传感器得到的数据为基础进行地图的生成的情况下的概要的图。
如图12所示,在移动机器人20中,作为扫描测距传感器,在不同的高度具备超声波传感器21a、21b、21c。
图12所示的周边地图22a、22b、22c分别是基于由超声波传感器21a、21b、21c得到的数据制作的地图。周边地图22a~22c的世界坐标与被融合的融合地图23的世界坐标相同。因此,能够通过直接合并周边地图22a、22b、22c的坐标并将它们重叠来制作融合地图23。
现有技术文献
专利文献
专利文献1:日本专利第4256812号公报
发明内容
发明要解决的问题
但是,在上述专利文献1中未设想使用OSS的情况。因此,在使用OSS对机器人的自主移动进行控制的情况下,存在生成错误的地图、基于该地图进行移动的机器人与障碍物碰撞的问题。
本发明的目的在于,使得能够在使用OSS对机器人的自主移动进行控制的情况下,防止机器人与障碍物碰撞。
解决问题的方案
本发明的机器人的控制方法是具备多个扫描测距传感器、并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人的控制方法,其包括以下步骤:删除所述多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
本发明的机器人是具备多个扫描测距传感器、并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人,其具备控制部,该控制部删除所述多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
发明效果
根据本发明,能够在使用OSS对机器人的自主移动进行控制的情况下,防止机器人与障碍物碰撞。
附图说明
图1是表示本发明的实施方式的移动机器人的外观、以及该移动机器人具备的控制部的结构的图。
图2是表示自主移动软件中使用的占据栅格地图的概要图。
图3A是将激光扫描测距传感器在规定的时刻时对障碍物测量出的测量数据以激光扫描测距传感器的原点为中心描绘出的概要图。
图3B是表示根据激光扫描测距传感器测量出的测量数据制作的占据栅格地图的概要图。
图4是表示移动机器人在移动时的动作流程的流程图。
图5是表示各激光扫描测距传感器的原点、障碍物、以及移动机器人主体的位置关系的概要图。
图6是表示多个测量数据的合并方法的流程的流程图。
图7是表示虚拟的激光扫描测距传感器的测定范围的分割示例的概要图。
图8是表示测定区域中包含的激光扫描测距传感器的测量点的一例的概要图。
图9A是将在规定的时刻时对障碍物进行了测量的激光扫描测距传感器的测量数据以激光扫描测距传感器的原点为中心描绘出的概要图。
图9B是表示基于激光扫描测距传感器测量出的激光扫描测距传感器的测量点、和线段数据制作的占据栅格地图的概要图。
图10A是表示假定在规定的时刻时对障碍物进行了测量的激光扫描测距传感器的激光扫描测距传感器的测量点的全部与从虚拟的激光扫描测距传感器的原点得到的激光扫描测距传感器的测量点相同的情况下的概要图。
图10B是表示直接包含矛盾地制作的占据栅格地图的概要图。
图11A是表示将使矛盾产生的激光扫描测距传感器的测量点删除后的、虚拟的激光扫描测距传感器测量出的激光扫描测距传感器的测量点、和线段数据的概要图。
图11B是表示基于激光扫描测距传感器的测量点和线段数据制作的占据栅格地图的概要图。
图12是表示专利文献1的地图制作方法的概要图。
附图标记说明
1 驱动轮
2 脚轮
3 移动机器人主体
4R、4L 激光扫描测距传感器
4Ra、4La、10a 激光扫描测距传感器的原点
4Rb、4Lb、10b 激光扫描测距传感器的测量点
4Rc、4Lc、10c 线段数据
5a 虚拟的激光扫描测距传感器的原点
5b 虚拟的激光扫描测距传感器的测量点
5c 虚拟的扫描测距传感器的线段数据
5d 测定区域
6 未知区域
7 障碍物区域
8 可移动区域
9 障碍物
11 传感器合并部
12 地图部
13 目的地设定部
14 自身位置估计部
15 智能部
16 驱动轮控制部
17 控制部
20、100 移动机器人
21a、21b、21c 超声波传感器
22a、22b、22c 周边地图
23 融合地图
具体实施方式
以下,参照附图对本发明的实施方式进行说明。
首先,使用图1对本发明的实施方式的移动机器人100的结构进行说明。图1是表示本实施方式的移动机器人100的外观、以及该移动机器人100具备的控制部17的结构的图。
如图1所示,移动机器人100具有:移动机器人主体3、设于移动机器人主体3的一对驱动轮1(图1中仅示出了单侧的驱动轮1)、设于移动机器人主体3的一个脚轮2、设于移动机器人主体3的激光扫描测距传感器4R、4L、以及控制部17。
另外,如图1所示,控制部17具有:传感器合并部11、地图部12、目的地设定部13、自身位置估计部14、智能部15、和驱动轮控制部16。
传感器合并部11对由激光扫描测距传感器4R测量出的测量数据、和由激光扫描测距传感器4L测量出的测量数据进行合并。下面将合并后的测量数据称作“合并测量数据”。
地图部12制作并存储(以下也称作管理)移动机器人100移动的区域(空间)的地图。
目的地设定部13将地图中的特定的位置的坐标设定为移动机器人100的移动去处(目的地)。下面将所设定的移动去处的坐标称作“目标坐标”。
自身位置估计部14基于合并测量数据和地图,估计移动机器人100的当前位置(自身位置)。将估计出的位置的坐标在以下称作“当前位置坐标”。
智能部15基于合并测量数据、目标坐标、和当前位置坐标,进行移动机器人移动的路径的生成、以及对路径上的障碍物的识别。
驱动轮控制部16控制驱动轮1,以使移动机器人100在由智能部15生成的路径上移动(行驶)。
移动机器人100通过使一对驱动轮1向图1的箭头a的方向旋转,来向图1的箭头b的方向行驶(前进)。将该箭头b所示的方向设为移动机器人100的行进方向(前进方向)。
另外,移动机器人100还能够通过使一对驱动轮1向与箭头a相反方向旋转,来向与箭头b的方向相反方向行驶(后退)。
另外,一对驱动轮1构成为能够单独地进行旋转。由此,能够通过使一对驱动轮1相互反向旋转,来使移动机器人100自旋转。
激光扫描测距传感器4R设于移动机器人100的、相对于行进方向的右侧,激光扫描测距传感器4L设于移动机器人100的、相对于行进方向的左侧。优选激光扫描测距传感器4R、4L如图1所示那样都设于移动机器人主体3的最前方。
以上,对移动机器人100的结构进行了说明。
接着,使用图2,对地图部12制作并存储的地图的一例进行说明。图2是ROS或RTM等OSS(自主移动软件)中使用的占据栅格地图200的概要图。图2的(a)是将占据栅格地图200的一部分放大后的图。
如图2的(a)所示,占据栅格地图200中,移动机器人100移动的区域被划分为栅格状。占据栅格地图200中包含的各栅格属于以下区域中的某一种:未被激光扫描测距传感器4R、4L检测的未知区域6、包含障碍物的障碍物区域7、或者移动机器人100能够移动的可移动区域8。
接着,使用图3,对图2所示的占据栅格地图200的制作方法进行说明。图3是表示规定的时刻t时的占据栅格地图的制作方法的概要图。
图3A是将激光扫描测距传感器(省略图示)在规定的时刻t时对障碍物9测量出的测量数据,以激光扫描测距传感器的原点10a为中心描绘出的图。
在图3A中,将从激光扫描测距传感器发出的激光与障碍物9相交的点设为激光扫描测距传感器的测量点10b。
另外,在图3A中,将连结各激光扫描测距传感器的测量点10b、与原点10a的线段(图中的虚线)设为线段数据10c。
此外,当从激光扫描测距传感器10发出的激光未在某一定的距离内与障碍物9相交的情况下,将激光扫描测距传感器测量点10b及线段数据10c视为不存在。
图3B是表示根据激光扫描测距传感器测量出的测量数据制作的占据栅格地图200的图。
占据栅格地图200中包含的全部的栅格在最初属于未知区域6。然后,地图部12将线段数据10c通过的栅格变更为可移动区域8,将包含激光扫描测距传感器测量点10b的栅格变更为障碍物区域7。地图部12在如t、t+Δt、t+Δt+1那样的连续时间上进行该处理。由此,逐步制作占据栅格地图200。
接着,使用图4对移动机器人100的移动时的动作流程进行说明。图4是表示移动机器人100的移动时的动作流程的流程图。
在步骤S1中,目的地设定部13在地图部12管理的占据栅格地图200中,对移动机器人100的目的地(目标坐标)进行设定。
具体而言,目的地设定部13将构成占据栅格地图200的栅格中的某一个设定为目的地。这时设定的栅格一定是属于可移动区域8的栅格。
在步骤S2中,智能部15在地图部12管理的占据栅格地图200中确定由自身位置估计部14估计出的移动机器人100的当前位置(当前位置坐标),并计算出从移动机器人100的当前位置到步骤S1中所设定的移动机器人100的目的地的路径。
具体而言,智能部15从构成占据栅格地图200的栅格之中检索与当前位置相符的栅格,将检索到的栅格设定为当前位置。然后,智能部15计算占据栅格地图200上从被设定为当前位置的栅格到被设定为目的地的栅格的路径。在该路径的计算(生成)中,例如使用了公知的A*(A-star,A星)算法,但不限于此,也可以使用其他的公知技术。
在步骤S3中,驱动轮控制部16以使移动机器人100沿着所生成的路径移动(行驶)的方式,控制驱动轮1。由此,移动机器人100向目的地移动。
在该移动中,自身位置估计部14随时估计移动机器人100的当前位置,智能部15随时计算该当前位置与所设定的目的地之间的距离,并对该距离是否为已预先设定的一定距离以下进行判定。
在步骤S4中,智能部15在当前位置与目的地之间的距离为一定距离以下的情况下,判断为到达目的地。然后,驱动轮控制部16停止对驱动轮1的驱动,使移动机器人100的移动停止。
接着,传感器合并部11将由激光扫描测距传感器4R得到的测量数据和由激光扫描测距传感器4L得到的测量数据,以使比实际设置的激光扫描测距传感器的数量(例如两个)少的数量(例如一个)的虚拟传感器得到上述测量数据的方式对上述测量数据进行合并,使用图5对该合并方法进行说明。
图5是表示各激光扫描测距传感器的原点、障碍物9、以及移动机器人主体3之间的位置关系的概要图。
在图5中,4Ra是图1所示的激光扫描测距传感器4R的原点,4La是图1所示的激光扫描测距传感器4L的原点。另外,5a是虚拟的激光扫描测距传感器(省略图示)的原点。在该情况下,将虚拟的激光扫描测距传感器的原点5a设为处于连结激光扫描测距传感器4R的原点4Ra与激光扫描测距传感器4L的原点4La的线段上。此外,只要在该线段上,虚拟的激光扫描测距传感器的原点5a可以处于任意位置。
接着,使用图6,对测量数据的合并方法的流程进行说明。图6是表示测量数据的合并方法的流程的流程图。
在步骤S11中,传感器合并部11将分别从激光扫描测距传感器4R、4L得到的激光扫描测距传感器的测量点4Rb、4Lb全部标示为二维坐标。该二维坐标是虚拟的激光扫描测距传感器的二维坐标。
在步骤S12中,传感器合并部11将二维坐标上的虚拟的激光扫描测距传感器的扫描范围分割为多个扇形。使用图7、图8,对该具体例进行说明。
在图7中,虚拟的激光扫描测距传感器的扫描范围300是以原点5a为中心、半径为L的圆。传感器合并部11将该扫描范围300分割为形状相同的扇形。图7的(a)是分割后的一个扇形的放大图。如图7的(a)所示,一个扇形是以原点5a为中心、中心角为Δθ、半径为L的扇形。将该一个扇形设为测定区域5d。
如图8所示,在测定区域5d中有时会包含激光扫描测距传感器的测量点4Rb、4Lb。
在步骤S13中,传感器合并部11当在一个扇形(测定区域5d)中包含多个激光扫描测距传感器的测量点的情况下,从多个测量点之中选定一个测量点。
例如,如图8的(a)所示,在一个测定区域5d中包含多个激光扫描测距传感器的测量点4Rb或4Lb的情况下,传感器合并部11分别计算出从原点5a到各测量点4Rb、4Lb的距离。
然后,传感器合并部11将距原点5a的距离最短的测量点选定为合并用处理数据(作为合并的对象的测量数据)。这时,将所选定的测量点以外的测量点删除。其理由是,若在一个测定区域中存在多个测量点而以此状态进行测量数据的合并,则会产生以下矛盾:除了被选定的测量点以外,在测量数据的合并后存在本来无法从虚拟的激光扫描测距传感器的位置测量到的测量点。
仅当在一个测定区域5d中包含多个激光扫描测距传感器的测量点的情况下进行上述的步骤S13的处理。
在步骤S14中,传感器合并部11将每个测定区域5d中包含的激光扫描测距传感器的测量点(步骤S13中所选定的测量点)变更(决定)为虚拟的激光扫描测距传感器的测量点。
之后,基于变更后的虚拟的激光扫描测距传感器的测量点,制作占据栅格地图,基于该占据栅格地图进行移动机器人100的自主移动的控制。
接着,使用图9及图10对比较例进行说明,之后,使用图11对本实施方式的作用效果进行说明。
图9是表示在规定的时刻t时,不合并激光扫描测距传感器4R、4L的测量数据而制作占据栅格地图200的情况下的概要图。
图9A是将在规定的时刻t时对障碍物9进行了测量的激光扫描测距传感器4R、4L的测量数据,以激光扫描测距传感器的原点4Ra、4La为中心描绘出的图。图9A中,4Rb、4Lb分别表示激光扫描测距传感器4R、4L的测量点。另外,图9A中,4Rc、4Lc分别表示将原点4Ra与测量点4Rb连结的线段数据、和将原点4La与测量点4Lb连结的线段数据。
图9B是表示基于激光扫描测距传感器4R、4L测量出的激光扫描测距传感器的测量点4Rb、4Lb、线段数据4Rc、4Lc制作的占据栅格地图200的图。在激光扫描测距传感器4R、4L和障碍物9之间例如是图5所说明的位置关系的情况下,准确的占据栅格地图为图9B所示的占据栅格地图200。
另一方面,图10是表示在规定的时刻t时,对激光扫描测距传感器4R、4L的测量数据不进行特别的处理而直接合并,并制作占据栅格地图200的情况下的概要图。
图10A是表示假定了在规定的时刻t时对障碍物9进行了测量的激光扫描测距传感器4R、4L的激光扫描测距传感器的测量点4Rb、4Lb全部与从虚拟的激光扫描测距传感器的原点5a得到的激光扫描测距传感器的测量点5b相同的情况下的概要的图。
图10A中,各激光扫描测距传感器的测量点5b的坐标与图9A所示的全部的激光扫描测距传感器的测量点4Rb、4Lb的坐标相同。线段数据5c是将激光扫描测距传感器的测量点5b与虚拟的激光扫描测距传感器的原点5a连接而成的线段。
如图10A所示,一部分的线段数据5c与障碍物9交叉。由此可知,在激光扫描测距传感器的测量点5b之中,存在若干个使矛盾产生的激光扫描测距传感器的测量点5b。
图10B是表示直接包含上述的矛盾地制作的占据栅格地图200的图。可知,在图10B中,由框边界a包围的区域与图9B所示的占据栅格地图200不同。
移动机器人本来无法进入障碍物9的内侧,但在图10B所示的占据栅格地图200中,在框边界a内(障碍物9内に相当)存在可移动区域8,所以移动机器人变得可以进入障碍物9内。由此,在使用该图10B所示的占据栅格地图来实际地进行移动机器人的自主移动的情况下,会产生移动机器人与障碍物9碰撞的问题。
图11是表示按照图6的步骤S13所说明的那样,在选定了一个测量点5b(删除了其他测量点5b)之后,制作占据栅格地图200的情况下的概要图。如上所述,若在一个测定区域中存在多个测量点而以此状态进行测量数据的合并,则会产生以下矛盾:除了被选定的测量点以外,在测量数据的合并后存在本来无法从虚拟的激光扫描测距传感器的位置测量到的测量点,因此将该被选定的测量点以外的测量点删除。
图11A是表示将使上述矛盾产生的激光扫描测距传感器的测量点5b删除之后的、虚拟的激光扫描测距传感器测量出的激光扫描测距传感器的测量点5b、和线段数据5c的概要的图。
图11B是表示基于激光扫描测距传感器的测量点5b和线段数据5c制作的占据栅格地图200的图。
在图11B所示的占据栅格地图200中,不存在如图10B所示的占据栅格地图200那样位于障碍物9的内部的可移动区域8(即,未产生上述矛盾)。虽然图11B所示的占据栅格地图200中的未知区域6比图9B所示的占据栅格地图200中的未知区域6多,但随着移动机器人100的移动,而不断地获得测量数据并更新地图,最终成为没有矛盾且精度高的地图。
此外,在上述的实施方式中,列举使用激光扫描测距传感器(激光测距仪)作为扫描测距传感器的情况为例进行了说明,但扫描测距传感器也可以是超声波传感器、光学式传感器、或摄像头传感器。由此,移动机器人的自主移动的性能得到提高。
另外,不仅在进行自主移动机器人用的地图的生成的情况下,在自身位置估计部14估计移动机器人100的当前位置时也能够活用上述的图6的合并方法。
如以上详述的那样,本实施方式的特征在于,使用设于移动机器人的多个激光扫描测距传感器的测量数据以制作地图,并基于该地图进行自主移动的情况下,将多个扫描测距传感器的测量数据的一部分删除,将删除后剩余的测量数据合并,将合并后的测量数据决定(变更)为比多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
由此,在使用OSS控制移动机器人的自主移动的情况下,也能够生成准确的地图,能够防止移动机器人错误地与障碍物碰撞的情况。
本发明不限于上述实施方式的说明,能够在不脱离其要点的范围内进行各种变形。
工业实用性
本发明能够在移动体的自主移动或自动运行的领域中活用。

Claims (8)

1.一种机器人的控制方法,是具备多个扫描测距传感器,并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人的控制方法,其特征在于,包括以下步骤:
在包含所述多个扫描测距传感器的测量点的所述测量数据中,将虚拟扫描测距传感器的扫描范围分割为多个测定区域,
在分割出的所述多个测定区域的每一个中进行如下删除,即,在一个测定区域包含多个所述测量点的情况下,将除了一个所选择的测量点以外的测量点删除,
将删除后剩余的测量数据合并,
将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
2.如权利要求1所述的机器人的控制方法,其特征在于,
在所述删除中被删除的测量点是在所述虚拟扫描测距传感器的位置无法测量到的数据。
3.如权利要求1所述的机器人的控制方法,其特征在于,
在分割出的所述多个测定区域的每一个中,所述所选择的测量点是该测定区域中包含的多个所述测量点中的、距所述虚拟扫描测距传感器的位置的距离最短的测量点。
4.如权利要求3所述的机器人的控制方法,其特征在于,
所述虚拟扫描测距传感器的扫描范围是圆形,并以所述虚拟扫描测距传感器的位置为中心,按规定的角度等分。
5.如权利要求4所述的机器人的控制方法,其特征在于,
所述测定区域的形状是中心角度为所述规定的角度的扇形。
6.如权利要求1所述的机器人的控制方法,其特征在于,
使用所述删除后剩余的测量点,生成在所述机器人的移动中使用的地图。
7.如权利要求1所述的机器人的控制方法,其特征在于,
使用所述删除后剩余的测量点,估计所述机器人的当前位置。
8.一种机器人,是具备多个扫描测距传感器,并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人,其特征在于,
具备控制部,该控制部在包含所述多个扫描测距传感器的测量点的所述测量数据中,将虚拟扫描测距传感器的扫描范围分割为多个测定区域,在分割出的所述多个测定区域的每一个中进行如下删除,即,在一个测定区域包含多个所述测量点的情况下,将除了一个所选择的测量点以外的测量点删除,将删除后剩余的测量数据合并,将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
CN201810075295.7A 2017-01-26 2018-01-25 机器人及其控制方法 Active CN108363391B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017012439A JP6809913B2 (ja) 2017-01-26 2017-01-26 ロボット、ロボットの制御方法、および地図の生成方法
JP2017-012439 2017-01-26

Publications (2)

Publication Number Publication Date
CN108363391A CN108363391A (zh) 2018-08-03
CN108363391B true CN108363391B (zh) 2022-04-15

Family

ID=62905869

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810075295.7A Active CN108363391B (zh) 2017-01-26 2018-01-25 机器人及其控制方法

Country Status (3)

Country Link
US (1) US10976749B2 (zh)
JP (1) JP6809913B2 (zh)
CN (1) CN108363391B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102324099B1 (ko) * 2019-12-26 2021-11-10 주식회사 트위니 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
JP2022069057A (ja) * 2020-10-23 2022-05-11 パナソニックホールディングス株式会社 位置推定システム
JP7511504B2 (ja) 2021-02-16 2024-07-05 三菱重工業株式会社 移動体、移動制御システム、移動体の制御方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101842823A (zh) * 2007-11-06 2010-09-22 电子地图北美公司 用于使用来自多个车辆的探头数据来检测供在更新地图中使用的真实世界改变的方法及***
CN102062587A (zh) * 2010-12-13 2011-05-18 上海大学 基于激光传感器的多移动机器人位姿测定方法
CN102449568A (zh) * 2009-06-01 2012-05-09 株式会社日立制作所 机器人管理***、机器人管理终端、机器人管理方法和程序
CN103198751A (zh) * 2013-03-06 2013-07-10 南京邮电大学 一种移动机器人基于激光测距仪的线特征地图创建方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000234908A (ja) * 1999-02-16 2000-08-29 Toshiba Corp 距離計
US7398481B2 (en) * 2002-12-10 2008-07-08 Science Applications International Corporation (Saic) Virtual environment capture
JP4256812B2 (ja) 2004-04-26 2009-04-22 三菱重工業株式会社 移動体の障害物回避方法及び該移動体
JP4464893B2 (ja) * 2004-09-13 2010-05-19 パナソニック株式会社 移動ロボット
US7826969B2 (en) * 2006-12-21 2010-11-02 Deere & Company Determining position of a vehicle with reference to a landmark
US20090018712A1 (en) * 2007-07-13 2009-01-15 Jerry Richard Duncan Method and system for remotely monitoring and controlling a vehicle via a virtual environment
EP2343615B1 (en) * 2008-10-01 2018-10-31 Murata Machinery, Ltd. Autonomous movement device
JP2011128899A (ja) * 2009-12-17 2011-06-30 Murata Machinery Ltd 自律移動装置
US9008998B2 (en) * 2010-02-05 2015-04-14 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
US8863256B1 (en) * 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
US9020637B2 (en) * 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
JP6132659B2 (ja) * 2013-02-27 2017-05-24 シャープ株式会社 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
JP2015055606A (ja) * 2013-09-13 2015-03-23 株式会社オートネットワーク技術研究所 距離計測システム及び3次元画像生成システム
JP6450273B2 (ja) * 2015-07-08 2019-01-09 本田技研工業株式会社 移動ロボットの動作環境情報生成装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101842823A (zh) * 2007-11-06 2010-09-22 电子地图北美公司 用于使用来自多个车辆的探头数据来检测供在更新地图中使用的真实世界改变的方法及***
CN102449568A (zh) * 2009-06-01 2012-05-09 株式会社日立制作所 机器人管理***、机器人管理终端、机器人管理方法和程序
CN102062587A (zh) * 2010-12-13 2011-05-18 上海大学 基于激光传感器的多移动机器人位姿测定方法
CN103198751A (zh) * 2013-03-06 2013-07-10 南京邮电大学 一种移动机器人基于激光测距仪的线特征地图创建方法

Also Published As

Publication number Publication date
US20180210455A1 (en) 2018-07-26
JP2018120482A (ja) 2018-08-02
US10976749B2 (en) 2021-04-13
CN108363391A (zh) 2018-08-03
JP6809913B2 (ja) 2021-01-06

Similar Documents

Publication Publication Date Title
EP3391166B1 (en) Autonomous visual navigation
EP3590016B1 (en) Method and system for simultaneous localization and sensor calibration
Konolige A gradient method for realtime robot control
KR102151811B1 (ko) 회피경로 생성방법 및 그를 위한 장치
JP4682973B2 (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
KR20170061373A (ko) 이동 로봇 및 그 제어 방법
US11493930B2 (en) Determining changes in marker setups for robot localization
CN108363391B (zh) 机器人及其控制方法
CN111788102A (zh) 用于跟踪交通灯的里程计***和方法
CN111708360B (zh) 信息采集方法、设备及存储介质
CN109643128B (zh) 移动体及移动体的控制方法
CN113110497B (zh) 基于导航路径的沿边绕障路径选择方法、芯片及机器人
CN113661505A (zh) 用于校准与物料搬运车辆相关的传感器的姿态的***和方法
CN113190010B (zh) 一种沿边绕障路径规划方法、芯片及机器人
CN114594761B (zh) 机器人的路径规划方法、电子设备及计算机可读存储介质
CN115008465A (zh) 机器人控制方法、机器人及计算机可读存储介质
CN112363491B (zh) 机器人掉头控制方法及装置
Rasmussen et al. Robot navigation using image sequences
JP2022034861A (ja) フォークリフト、位置推定方法、及びプログラム
JP2018013860A (ja) 自律移動体制御装置
US20220196410A1 (en) Vehicle navigation
Shioya et al. Minimal Autonomous Mover-MG-11 for Tsukuba Challenge–
KR101635585B1 (ko) 무인 이동체 원격 제어 장치
US20240142992A1 (en) Map generation device and map generation system
JP7482808B2 (ja) 移動体の制御方法、移動体及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Osaka, Japan

Patentee after: Panasonic Holding Co.,Ltd.

Address before: Osaka, Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

CP01 Change in the name or title of a patent holder