CN109839111A - 一种基于视觉定位的室内多机器人编队*** - Google Patents
一种基于视觉定位的室内多机器人编队*** Download PDFInfo
- Publication number
- CN109839111A CN109839111A CN201910021339.2A CN201910021339A CN109839111A CN 109839111 A CN109839111 A CN 109839111A CN 201910021339 A CN201910021339 A CN 201910021339A CN 109839111 A CN109839111 A CN 109839111A
- Authority
- CN
- China
- Prior art keywords
- robot
- formation
- beacon
- access control
- based access
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 50
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 230000036772 blood pressure Effects 0.000 claims description 2
- 230000000087 stabilizing effect Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 13
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 abstract 1
- 239000011159 matrix material Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000009795 derivation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于视觉定位的室内多机器人编队***,涉及多机器人协同编队领域,提供了一种简单可靠的室内环境多机器人任意形状编队控制***,其中包括有***方案和编队算法两方面的设计。所述的***结构主要由摄像头、服务器、路由器、移动机器人群四部分构成。其中所设计方案主要包括有借助于视觉方式进行多机器人空间定位的设计、通过局域网进行群体中机器人位置信息的传输、基于所提出的***方案进一步进行了任意形状编队算法的设计。本发明的有益效果在于:定位精准、误差小,定位时延低,能够实时对多机器人编队进行可靠控制。通过改变设定形状,***通过匈牙利算法完成了在最小化***冗余路径的前提下自主实现设定形状的阵型变换的功能。
Description
技术领域
本发明涉及多机器人编队领域,尤其涉及一种移动机器人编队运动规划以及定位方法及装置。
背景技术
随着近年来机器人领域有着向集群化、协同作业的方向发展。在一些场合的应用上,比如地震过后的人员搜救,未知地形探索,军事领域的目标围捕等,单机器人的能力就显得过于弱小,它们在信息的获取,实时处理以及范围覆盖上都极为有限,往往得到的局部最优却无法实现对全局的统筹。针对以上所描述的特定场合,使用大规模的同质低复杂度的机器人来完成特定场合的应用具有很广泛的应用前景。群体化的协作是趋势。多机器人之间的协同编队在很多方面都有着广泛的应用,比如军事无人机的编队打击。多机器人协同编队的舞台表演等。
多机器人的编队控制主要包括有定位和编队算法两个方面的内容。对于室内环境下,机器人无法使用GPS定位,其常见的定位方式中借助于红外相机和激光雷达等的成本较高,射频定位和超声定位等方式定位精度较低且***搭载相对复杂。为了在室内环境下获取较高的定位精度及简化定位装置的搭载,视觉定位给出了一个很好的解决方案,视觉定位有着较高的精度,并且仅需要一个摄像头,成本低廉,安装可靠方便等优势,对于室内环境下定位设计是一种不错的选择。通过搭载定位***和合理应用编队算法可以完成室内多机器人编队***的设计。
发明内容
本发明的目的是提供一种室内环境下多台移动机器人的编队控制方法以及***定位方法及装置,主要解决现有技术中集群定位精度相对较低及简化***搭建等技术问题。
为了解决上述技术问题,具体地,本发明的技术方案如下:
一种基于视觉定位的室内多机器人编队***,其特征在于:包括摄像头、服务器、路由器、移动机器人群。
进一步地,所述移动机器人群由多个移动机器人组成,所述移动机器人任意形状编队。
进一步地,所述移动机器人包括控制主板、移动机器人底盘、陀螺仪、编码盘、电机驱动板、降压稳压模块,所述移动机器人附带自制信标。
进一步地,所述移动机器人信标识别和定位为采用视觉的方式。
进一步地,所述移动机器人信标识别定位方案流程包括:canny算子提取信标边缘、仿射变换、AutoEncoder进行图像信息降维、KNN算法完成信标识别、进而通过PnP算法进行信标的空间定位。
进一步地,所述***编队包括以下步骤:
步骤1、机器人随机放置在实验平台中,初始化***;
步骤2、启动机器人,等待定位信息的接收;
步骤3、开启服务端,运行服务端检测算法进行机器人位置信息的获取;
步骤4、通过局域网进行定位信息向机器人的传输;
步骤5、机器人获取到定位信息后,根据设定的编队算法解算下一步的动作;
步骤6、根据所计算的决策信息进行底层电机的控制;
步骤7、机器人运行直到编队结束。
有益效果:采用上述技术方案,定位精准、误差小,定位时延低,能够实时对多机器人编队进行可靠控制。通过改变设定形状,***通过匈牙利算法完成了在最小化***冗余路径的前提下自主实现设定形状的阵型变换的功能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为依照本发明实施例的编队控制***框架示意图;
图2为依照本发明实施例的***编队过程的运行流程图;
图3为依照本发明实施例的设计的移动机器人平台;
图4为依照本发明实施例的移动机器人信标设计图;
图5为依照本发明实施例的信标四个角点向相机坐标系映射的投影关系图;
图6为依照本发明实施例的用于指派的匈牙利矩阵;
图7为匈牙利算法进行指派的过程;
具体实施方式
为了使本发明实施例的目的、技术方案和有点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清晰、完整的描述。
如图1至图7所示:设计编队控制***框架,主要包括有摄像头、服务器、路由器以及移动机器人群四个部分组成,移动机器人群包括多个移动机器人由控制主板、移动机器人底盘、陀螺仪、编码盘、电机驱动板等构成。
其中,服务器端进行定位信息解算并传输给***中每个机器人,多台移动机器人通过局域网向服务器索要当前环境下其他机器人相对于其自身的位置信息进行编队控制,在设计功能上能实现多机器人的任意形状编队。任意形状编队算法设计上采用匈牙利算法进行指派,这种设计能够使多机器人编队过程中总是最小化机器人冗余动作。另外,移动机器人上附带有自制信标,用于标注当前机器人ID。
移动机器人采用视觉的方式进行移动机器人信标识别和定位,所述信标识别方案的主要流程为canny算子提取信标边缘、仿射变换、AutoEncoder进行图像信息降维、KNN算法完成信标识别,信标定位方案的流程为对识别后信标的边缘提取、计算边缘的四个角点在像素坐标系下位置、进而通过PnP求解算法进行多台移动机器人的空间定位。
另一方面,本发明提供了一种用于多机器人任意形状编队控制的方法,包括:
(1)借助匈牙利算法完成编队目标指派;
(2)借助图论中拉普拉斯矩阵进行目标位置解算,完成机器人当前运动控制量的输入,基于图论中拉普拉斯矩阵与当前误差进行运算得到机器人编队过程的输入控制量。
如图1为依照本发明实施例的编队控制***框架示意图,图示中摄像头用于多机器人空间环境的获取,主要是用于获取当前环境下图片。服务器用于对拍摄到的空间环境进行解析,得到不同机器人的空间位置信息,进而通过路由器搭建的局域网对环境中的机器人群进行定位数据的传输。机器人获取到其自身与邻近机器人的相对位置,进而开始其自身编队控制。
基于图1的***搭建,***编队的运行过程如图2所示,其自主编队流程如下:
(1)机器人随机放置在实验平台中,初始化***。
(2)启动机器人,等待定位信息的接收。
(3)开启服务端,运行服务端检测算法进行机器人位置信息的获取。
(4)通过局域网进行定位信息向机器人的传输。
(5)机器人获取到定位信息后,根据设定的编队算法解算下一步的动作。
(6)根据所计算的决策信息进行底层电机的控制。
(7)机器人运行直到编队结束。
循环流程步骤3至6直到完成步骤7。
对于编队过程中的执行机构,即群体中的每个机器人,其结构如图3所示。其中控制主板具备有网路通信功能,获取服务器端传送过来当前环境下其他机器人的位置信息。陀螺仪和编码盘用于进行机器人的底层控制。信标是作为当前机器人在环境中的表征。
本发明的定位***是基于视觉方式实现的,其过程主要是对所设计的信标进行识别及空间位置信息的解算。图3是本发明所设计的信标,其主要包括有边缘梯度,信标ID,矩形边框三个方面,其中矩形边框便于对信标图像进行提取,边缘梯度用于减小环境对信标的干扰,信标ID是当前机器人的ID信息。
对于信标的识别本发明提出的方案如下,该方案中AutoEncoder主要用于进行图像特征提取,对原始图像进行降维。
(1)使用Canny算子进行信标边缘的提取。
(2)在所有提取到的边缘中仅选取四边形。
(3)仿射变换得到28*28的图像。
(4)对图像进行AutoEncoder降维到16维。
(5)采集图片,使用KNN方式进行分类识别。
与此同时,信标还具备有机器人空间定位的功能,图5为信标在像素坐标系下的投影关系,由于当前信标的四个角点在信标坐标系位置是已知,通过使用PnP的求解算法,可以得到信标在相机坐标系下的对应关系,进而完成机器人的空间定位。
通过以上方案,***中每个机器人都能实时获取到当前其他机器人相对于其自身的相对位置关系,基于此进一步对机器人编队控制提出任意形状编队的设计方案。
实现多机器人任意形状编队首先需要设置最终要求机器人编队的形状,作为每个机器人的配置信息,为了减小编队***冗余操作,在编队之初需要进行当前机器人向配置中机器人ID的指派,即当前机器人ID到配置ID的一一映射关系,本发明采用匈牙利算法进行的验证,首先构造如图6矩阵,即当前所有机器人到配置信息中机器人的相对位置关系。图7为匈牙利算法,通过匈牙利算法计算来获取机器人的指派信息。
接下来通过借助于图论中的拉普拉斯矩阵进行编队算法的设计,其中拉普拉斯矩阵L(G)由度矩阵和邻接矩阵相减而得,如下所示。
设定每个机器人自身所测得的其他机器人的相对位置向量xi=[xi1,xi2,...,xin]T,在给定的拓扑图中,当前机器人与其邻近机器人的相对位置信息用di=[di1,di2,…,din]T表示。当前机器人的拉普拉斯矩阵为L(G),当前机器人的控制量输入式下式所示。
通过以上的实施方案的描述,本发明中每个机器人都能自主控制其运动输入,并最终实现所设定形状的编队效果。因此,具有定位精准、误差小,定位时延低,能够实时对多机器人编队进行可靠控制。通过改变设定形状,***通过匈牙利算法完成了在最小化***冗余路径的前提下自主实现设定形状的阵型变换的功能。
根据以上说明书的揭示和教导,本发明所属领域的技术人员还可以对上述方案进行适当的变更和修改。因此,本发明并不局限于以上揭示和描述的具体实施方式,对本发明的一些修改和变更也应当落入本发明的权利要求的保护范围内。此外,尽管本说明书使用了一些特定的术语,但这些术语只是为了方便说明,并不对本发明构成任何限制。
Claims (6)
1.一种基于视觉定位的室内多机器人编队***,其特征在于:包括摄像头、服务器、路由器、移动机器人群。
2.根据权利要求1所述的一种基于视觉定位的室内多机器人编队***,其特征在于:所述移动机器人群由多个移动机器人组成,所述移动机器人任意形状编队。
3.根据权利要求2所述的一种基于视觉定位的室内多机器人编队***,其特征在于:所述移动机器人包括控制主板、移动机器人底盘、陀螺仪、编码盘、电机驱动板、降压稳压模块,所述移动机器人附带自制信标。
4.根据权利要求3所述的一种基于视觉定位的室内多机器人编队***,其特征在于:所述移动机器人信标识别为采用视觉的方式。
5.根据权利要求4所述的一种基于视觉定位的室内多机器人编队***,其特征在于,所述移动机器人信标识别定位方案流程包括:canny算子提取信标边缘、仿射变换、AutoEncoder进行图像信息降维、KNN算法完成信标识别、PnP算法实现信标的空间定位。
6.根据权利要求2所述的一种基于视觉定位的室内多机器人编队***,其特征在于,所述***编队包括以下步骤:
步骤1、机器人随机放置在实验平台中,初始化***;
步骤2、启动机器人,等待定位信息的接收;
步骤3、运行服务端检测算法进行机器人位置信息的获取;
步骤4、通过局域网进行定位信息向机器人的传输;
步骤5、机器人获取到定位信息后,根据设定的编队算法解算下一步的动作;
步骤6、根据所计算的决策信息进行底层电机的控制;
步骤7、机器人运行直到编队结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910021339.2A CN109839111A (zh) | 2019-01-10 | 2019-01-10 | 一种基于视觉定位的室内多机器人编队*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910021339.2A CN109839111A (zh) | 2019-01-10 | 2019-01-10 | 一种基于视觉定位的室内多机器人编队*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109839111A true CN109839111A (zh) | 2019-06-04 |
Family
ID=66883741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910021339.2A Pending CN109839111A (zh) | 2019-01-10 | 2019-01-10 | 一种基于视觉定位的室内多机器人编队*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109839111A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110274599A (zh) * | 2019-06-26 | 2019-09-24 | 皖西学院 | 一种基于多深度摄像头的移动机器人室内定位***及方法 |
CN112631323A (zh) * | 2020-11-19 | 2021-04-09 | 一飞(海南)科技有限公司 | 集群无人机分组指派方法、***、控制器、介质及终端 |
WO2022148419A1 (zh) * | 2021-01-08 | 2022-07-14 | 杭州宇树科技有限公司 | 一种四足机器人定位装置以及四足机器人编队 |
CN115065718A (zh) * | 2022-04-29 | 2022-09-16 | 北京工业大学 | 基于光学室内定位的多智能体协同控制算法验证*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1811793A (zh) * | 2006-03-02 | 2006-08-02 | 复旦大学 | 一种人脸特征点自动定位方法 |
CN106709409A (zh) * | 2015-11-17 | 2017-05-24 | 金华永沐软件研究所有限公司 | 一种新型的机器人室内定位技术 |
CN208013783U (zh) * | 2018-04-03 | 2018-10-26 | 华南理工大学 | 基于视觉的移动机器人编队的协同定位*** |
CN109032138A (zh) * | 2018-07-25 | 2018-12-18 | 南京理工大学 | 基于一致性算法的多机器人编队控制***及方法 |
CN109062204A (zh) * | 2018-07-25 | 2018-12-21 | 南京理工大学 | 一种基于跟随领航者编队的多移动机器人控制*** |
-
2019
- 2019-01-10 CN CN201910021339.2A patent/CN109839111A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1811793A (zh) * | 2006-03-02 | 2006-08-02 | 复旦大学 | 一种人脸特征点自动定位方法 |
CN106709409A (zh) * | 2015-11-17 | 2017-05-24 | 金华永沐软件研究所有限公司 | 一种新型的机器人室内定位技术 |
CN208013783U (zh) * | 2018-04-03 | 2018-10-26 | 华南理工大学 | 基于视觉的移动机器人编队的协同定位*** |
CN109032138A (zh) * | 2018-07-25 | 2018-12-18 | 南京理工大学 | 基于一致性算法的多机器人编队控制***及方法 |
CN109062204A (zh) * | 2018-07-25 | 2018-12-21 | 南京理工大学 | 一种基于跟随领航者编队的多移动机器人控制*** |
Non-Patent Citations (1)
Title |
---|
冯春: "基于单目视觉的目标识别与定位研究", 《中国博士学位论文全文数据库》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110274599A (zh) * | 2019-06-26 | 2019-09-24 | 皖西学院 | 一种基于多深度摄像头的移动机器人室内定位***及方法 |
CN112631323A (zh) * | 2020-11-19 | 2021-04-09 | 一飞(海南)科技有限公司 | 集群无人机分组指派方法、***、控制器、介质及终端 |
CN112631323B (zh) * | 2020-11-19 | 2023-10-31 | 一飞(海南)科技有限公司 | 集群无人机分组指派方法、***、控制器、介质及终端 |
WO2022148419A1 (zh) * | 2021-01-08 | 2022-07-14 | 杭州宇树科技有限公司 | 一种四足机器人定位装置以及四足机器人编队 |
CN115065718A (zh) * | 2022-04-29 | 2022-09-16 | 北京工业大学 | 基于光学室内定位的多智能体协同控制算法验证*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109839111A (zh) | 一种基于视觉定位的室内多机器人编队*** | |
CN108885459B (zh) | 导航方法、导航***、移动控制***及移动机器人 | |
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN106054931B (zh) | 一种基于视觉定位的无人机定点飞行控制*** | |
AU2018450490B2 (en) | Surveying and mapping system, surveying and mapping method and device, and apparatus | |
Breitenmoser et al. | A monocular vision-based system for 6D relative robot localization | |
CN110244284B (zh) | 一种用于多线激光雷达和gps\ins标定的标定板及其方法 | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
CN110262507B (zh) | 一种基于5g通信的相机阵列机器人定位方法及装置 | |
CN109753076A (zh) | 一种无人机视觉追踪实现方法 | |
CN109460064B (zh) | 基于虚拟势场函数的无人机集群区域覆盖方法及其装置 | |
CN107817500B (zh) | 一种模块化舞台激光定位方法 | |
CN110560373B (zh) | 一种多机器人协作分拣运输方法及*** | |
CN106291517A (zh) | 基于位置与视觉信息优化的室内云机器人角度定位方法 | |
CN102313547A (zh) | 基于手绘轮廓语义地图的移动机器人视觉导航方法 | |
CN106647738A (zh) | 一种无人搬运车的对接路径确定方法及***及无人搬运车 | |
JP2003515801A (ja) | 自律マルチプラットフォームロボットシステム | |
CN107689063A (zh) | 一种基于天花板图像的机器人室内定位方法 | |
AU2018449839B2 (en) | Surveying and mapping method and device | |
CN114332360A (zh) | 一种协同三维建图方法及*** | |
CN113485350A (zh) | 一种机器人移动控制方法、装置、设备及存储介质 | |
CN109062229A (zh) | 基于双目视觉的水下机器人***的领航跟随编队方法 | |
CN116578035A (zh) | 基于数字孪生技术的旋翼无人机自主降落控制*** | |
CN111862200A (zh) | 一种煤棚内无人机定位方法 | |
CN112991440A (zh) | 车辆的定位方法和装置、存储介质和电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240524 |