CN112614181B - 一种基于高亮目标的机器人定位方法及装置 - Google Patents

一种基于高亮目标的机器人定位方法及装置 Download PDF

Info

Publication number
CN112614181B
CN112614181B CN202011383266.0A CN202011383266A CN112614181B CN 112614181 B CN112614181 B CN 112614181B CN 202011383266 A CN202011383266 A CN 202011383266A CN 112614181 B CN112614181 B CN 112614181B
Authority
CN
China
Prior art keywords
positioning
highlight
target
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011383266.0A
Other languages
English (en)
Other versions
CN112614181A (zh
Inventor
李昂
郭盖华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen LD Robot Co Ltd
Original Assignee
Shenzhen LD Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen LD Robot Co Ltd filed Critical Shenzhen LD Robot Co Ltd
Priority to CN202011383266.0A priority Critical patent/CN112614181B/zh
Publication of CN112614181A publication Critical patent/CN112614181A/zh
Application granted granted Critical
Publication of CN112614181B publication Critical patent/CN112614181B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本申请适用于智能机器人领域,提供了一种基于高亮目标的机器人定位方法及装置,所述定位方法包括:获取多个包含高亮目标的定位图像;识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息;基于多个所述坐标信息确定所述机器人的定位信息。本申请提供的定位方法可以基于室内的高亮目标对机器人进行定位,而室内的高亮目标相对于室内场景一般是固定的,解决现有技术中障碍物移动导致不能准确定位室内机器人位置的问题。

Description

一种基于高亮目标的机器人定位方法及装置
技术领域
本申请属于智能机器人领域,尤其涉及一种基于高亮目标的机器人定位方法及装置。
背景技术
随着机器人领域的不断发展,机器人在日常生活中得到了越来越多的应用,比如扫地机器人等等。在机器人应用中,能否准确定位机器人位置,对于机器人的路径规划非常重要,而在日常生活的应用中,机器人多数都在室内环境中工作,因此室内机器人定位是实现机器人自助导航的关键,对于提高机器人的自动化水平具有重要的意义。
现有的室内定位技术中,一般通过光学传感器和视觉传感器探测室内障碍物信息,从而在机器人内部构建其所在室内的地图,一旦障碍物发生了移动,定位将产生极大的偏差,导致不能准确的定位出室内机器人的位置。
发明内容
本申请实施例提供了一种基于高亮目标的机器人定位方法及装置,可以基于室内的高亮目标对机器人进行定位,而室内的高亮目标相对于室内场景一般是固定的,解决现有技术中障碍物移动导致不能准确定位室内机器人位置的问题。
第一方面,本申请实施例提供了一种基于高亮目标的机器人定位方法,包括:获取多个包含高亮目标的定位图像;识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息;基于多个所述坐标信息确定所述机器人的定位信息。
第二方面,本申请实施例提供了一种基于高亮目标的机器人定位装置,包括:定位图像获取模块,用于获取多个包含高亮目标的定位图像;高亮目标识别模块,用于识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息;定位信息确定模块,用于基于多个所述坐标信息确定所述机器人的定位信息。
第三方面,本申请实施例提供了一种终端设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,包括:所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一项所述的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:本申请提供的方法,相对于现有技术,可以基于室内的高亮目标对机器人进行定位,而室内的高亮目标相对于室内场景一般是固定的,解决现有技术中障碍物移动导致不能准确定位室内机器人位置的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请第一实施例提供的定位方法的实现流程图;
图2是本申请第二实施例提供的定位方法的实现流程图;
图3是本申请第三实施例提供的定位方法的实现流程图;
图4是本申请第四实施例提供的定位方法的实现流程图;
图5是本申请第五实施例提供的定位方法的实现流程图;
图6是本申请第六实施例提供的定位方法的实现流程图;
图7是本申请一实施例提供的定位装置的结构示意图;
图8是本申请一实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
在本申请实施例中,流程的执行主体为终端设备。该终端设备包括但不限于:服务器、计算机、智能手机以及平板电脑等能够执行本申请提供的定位方法的设备。优选地,该终端设备为机器人设备,该终端设备能够通过视觉传感器等部件获取定位图像。图1示出了本申请第一实施例提供的定位方法的实现流程图,详述如下:
在S101中,获取多个包含高亮目标的定位图像。
在本实施例中,上述获取多个包含高亮目标的定位图像,具体可以为:通过安装在该机器人设备的视觉传感器来获取多个包含高亮目标的定位图像,示例性地,该视觉传感器可以获取该机器人所在环境室内的指向任意空间的图像,具体地,该视觉传感器可以为全方位摄像头。
在S102中,识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息。
在本实施例中,该坐标信息指的是该高亮目标在该定位图像中的坐标,示例性地,该定位图像中,左下角的坐标为(0,0),右上角的坐标为(40,10),也即该定位图像在水平方向上均分了40份单位坐标,在垂直方向上均分了10份单位坐标。
在一种可能实现的方式中,上述识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息,具体可以为:将该定位图像作灰度变换,得到灰度图像,根据该灰度图像中各个像素的灰度值来确定该高亮目标的所在区域,具体地,将灰度值高于预设的灰度阈值的像素识别为高亮像素,将连续相邻的高亮像素组成的区域识别为该高亮目标的所在区域,并将该高亮目标的所在区域的预设点的坐标,识别为该高亮目标在该定位图像中的坐标信息。该预设点可以是该高亮目标的所在区域的几何中心、重心或灰度质心;上述确定该高亮目标的所在区域的预设点,具体可以通过聚类算法计算,可参考现有技术中的聚类算法,在此不再赘述。
在S103中,基于多个所述坐标信息确定所述机器人的定位信息。
在本实施例中,该定位信息包括该机器人的空间水平位置以及姿态旋转角。各个定位图像都是该机器人在各个位置上获取到的,一般地,高亮目标在空间上的位置时不变的,则各个定位图像中的坐标信息反应着该机器人在各个位置上的空间水平位置以及姿态旋转角(即上述视觉传感器的面向方向)。
在一种可能实现的方式中,上述基于多个所述坐标信息确定所述机器人的定位信息,具体可以为:预设置一个标准定位图像,该标准定位图像对应着机器人的标准定位信息以及各个高亮目标的标准坐标信息;通过坐标变换方法,将同一个高亮目标的该坐标信息与该标准坐标信息进行坐标变换,从而确定该标准定位图像与该定位图像的坐标系变换参数,该坐标系变换参数表示该机器人在获取该定位图像时的定位信息与上述标准定位信息的差异,根据该坐标系变换参数以及该标准定位信息,既能确定上述定位信息。
在另一种可能实现的方式中,上述基于多个所述坐标信息确定所述机器人的定位信息,具体可以为:预设置一个定位模型,将该坐标信息输入至该定位模型中,输出该机器人的定位信息;该定位模型是根据多个训练定位图像确定的,该训练定位图像包括训练坐标信息以及对应的训练定位信息;也即以该训练坐标信息为输入,以该训练定位信息为输出,训练得到该定位模型,该定位模型可以是深度学习模型。
应理解,本实施例执行的定位方法是连续性的,也即通过上述视觉传感器一直监测着该机器人的室内环境,按预设时间间隔不断获取定位图像,示例性地,按每秒30帧获取定位图像。该视觉传感器的拍摄角度是固定的,该视觉传感器可以安装于该机器人的顶部,也可以安装于该机器人的侧部,与该机器人的形成固定的倾斜角。
在本实施例中,可以基于室内的高亮目标对机器人进行定位,而室内的高亮目标相对于室内场景一般是固定的,解决现有技术中障碍物移动导致不能准确定位室内机器人位置的问题。
图2示出了本申请第二实施例提供的定位方法的实现流程图。参见图2,相对于图1所述实施例,本实施例提供的定位方法S102包括S201~S203,具体详述如下:
进一步地,所述识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息,包括:
在S201中,对所述定位图像进行二值化处理,得到二值化图像。
在本实施例中,为了能更准确地识别出该定位图像中的高亮目标,基于数字图像处理技术,将该定位图像进行二值化处理,得到该二值化图像。
在S202中,选取所述二值化图像中像素值大于预设的像素阈值的高亮区域,将所述高亮区域作为所述高亮目标的目标区域。
在本实施例中,该像素阈值可以是预设的,也可以根据该机器人所处的环境进行调整。上述选取所述二值化图像中像素值大于预设的像素阈值的高亮区域,将所述高亮区域作为所述高亮目标的目标区域,具体可以为:将像素值高于预设的像素阈值的像素识别为高亮像素,将连续相邻的高亮像素组成的高亮区域识别为该高亮目标的目标区域。
在S203中,将所述目标区域的预设点在所述定位图像内的坐标,识别为所述坐标信息。
在本实施例中,该预设点可以是该高亮目标的所在区域的几何中心、重心或像素质心。在一种可能的实现方式中,上述将所述目标区域的中心点在所述定位图像内的坐标,识别为所述坐标信息,具体可以为:通过聚类算法确定该目标区域的像素质心,并确定该像素质心在该定位图像内的坐标,识别为该坐标信息。具体可参考现有技术中的聚类算法,在此不再赘述。
在本实施例中,通过二值化数字图像处理该定位图像,能准确地识别出该定位图像中的高亮目标,从而提高该坐标信息的精准度。
进一步地,本实施例提供的定位方法S202还包括S2021~S2022,具体详述如下:
所述选取所述二值化图像中像素值大于预设的像素阈值的高亮区域,将所述高亮区域作为所述高亮目标的目标区域,包括:
在S2021中,若所述高亮区域具有轴对称性,则将所述高亮区域识别为所述高亮目标的目标区域;
在本实施例中,为了避免一些临时出现的高亮目标对本实施例的定位方法造成干扰,需要对该高亮目标进行一定的限定。该临时出现可能造成干扰的高亮目标可以是一些电子设备(尤其是移动设备),而本实施例的定位方法中的高亮目标,应该是一些空间上不移动的高亮目标,例如灯管以及灯泡。因此,在本实施例中限定了用于后续步骤的高亮区域具有轴对称性,也即上述若所述高亮区域具有轴对称性,则将所述高亮区域识别为所述高亮目标的目标区域。
在S2022中,若所述高亮区域不具有轴对称性,则将所述高亮区域识别为待定区域。
在本实施例中,同理,若该高亮区域不具有轴对称性,则认为该高亮区域可能是临时出现可能造成干扰的高亮目标的所在区域,因此不将此类高亮区域用于后续步骤,也即上述若所述高亮区域不具有轴对称性,则将所述高亮区域识别为待定区域。
在本实施例中,对该高亮目标作出了具有轴对称性的限定,以避免一些临时出现的高亮目标对后续确定该机器人的定位信息可能造成的干扰,提高后续根据该高亮区域对该机器人进行定位的精确度。
图3示出了本申请第三实施例提供的定位方法的实现流程图。参见图3,相对于图1所述实施例,本实施例提供的定位方法S103之前还包括S301~S304,具体详述如下:
在本实施例中,所述定位图像中包含至少两个高亮目标。
进一步地,所述基于多个所述坐标信息确定所述机器人的定位信息之前,还包括:
在S301中,基于采集时刻的先后次序对所述定位图像进行排序,并从所有所述定位图像中选取前N张所述定位图像作为对照图像。
在本实施例中,所述N为大于1的正整数。该定位方法是连续性的,也即按预设时间间隔不断获取定位图像,也即上述定位图像在获取时已根据采集时刻进行了排序。为了实现后续确定该机器人的定位信息,需要一个基准。也即需要该对照图像以及在该对照图像的采集时刻时该机器人的对照定位信息。选取前N张定位图像,是为了尽早确定这个基准,以实现后续确定该机器人的定位信息。
在S302中,获取所述机器人在各个所述对照图像对应的采集时刻对应的对照定位信息,并基于第一对照图像对应的第一对照定位信息建立定位坐标系。
在本实施例中,所述第一对照图像为在所述对照图像中采集时刻最早的对照图像。
在一种可能实现的方式中,上述获取所述机器人在各个所述对照图像对应的采集时刻对应的对照定位信息,具体可以为:通过预设置该机器人的行动路径,以在该机器人完成该行动路径时获取该对照图像,以确定该对照图像对应的对照定位信息。指示该机器人完成该行动路径,具体地,通过里程计、陀螺仪、激光雷达、距离传感器、光学传感器或视觉传感器等部件监测该机器人是否按照该行动路径进行移动。
在一种可能实现的方式中,上述基于第一对照图像对应的第一对照定位信息建立定位坐标系,具体可以为:将该第一对照图像对应的第一对照定位信息作为该定位坐标系的中心,该定位坐标系包括该机器人的空间水平坐标以及姿态旋转角,也即该机器人在该第一对照图像的采集时刻时所在的空间水平坐标为(0,0),且该机器人的姿态旋转角为0,即此时该机器人的定位信息为(0,0,0)。
应理解,在后续步骤中的空间坐标均以该定位坐标系为基准。
在S303中,确定所述高亮目标在各个所述对照图像中的对照坐标。
在本实施例中,上述确定所述高亮目标在各个所述对照图像中的对照坐标,具体可以参照上述S102的有关描述,在此不再赘述。
在S304中,基于所述对照定位信息以及所述对照坐标,计算所述高亮目标的空间位置信息。
在本实施例中,该定位图像中包含第一高亮目标以及第二高亮目标。上述基于所述对照定位信息以及所述对照坐标,计算所述高亮目标在所述定位坐标系的空间位置信息,具体可以为:以第一对照图像以及第二对照图像为例,基于该第一对照图像对应的该第一对照定位信息确定第一外参矩阵,基于该第二对照图像对应的该第二对照定位信息确定第二外参矩阵;获取该对照图像的采集设备的内参数,并生成内参矩阵;确定该第一高亮目标以及该第二高亮目标分别在该第一对照图像以及该第二对照图像中的坐标,构建对照空间方程式以解出该第一高亮目标以及该第二高亮目标的空间三维坐标。该对照空间方程式具体如下:
{a1=K*M1*A;a2=K*M2*A
{b1=K*M1*B;b2=K*M2*B
其中,a1为第一高亮目标在第一对照图像中的对照坐标;b1为第二高亮目标在第一对照图像中的对照坐标;a2为第一高亮目标在第二对照图像中的对照坐标;b2为第二高亮目标在第二对照图像中的对照坐标;K为内参矩阵;M1为第一外参矩阵;M2为第二外参矩阵;A为第一高亮目标的空间位置信息,也即空间三维坐标;B为第二高亮目标的空间位置信息。
应理解,该空间三维坐标中的水平坐标是以上述定位坐标系为基准的,该空间三维坐标中的高度也是以该定位坐标系的单位坐标为基准的。
在本实施例中,确定至少两个高亮目标的空间位置信息,以便于后续确定该机器人的定位信息。
图4示出了本申请第四实施例提供的定位方法的实现流程图。参见图4,相对于图3所述实施例,本实施例提供的定位方法S103包括S1031~S1032,具体详述如下:
进一步地,所述基于多个所述坐标信息确定所述机器人的定位信息,包括:
在S1031中,基于所述坐标信息以及所述空间位置信息,构建目标空间方程式。
在本实施例中,所述目标空间方程式如下:
{at=K*Mt*A;
{bt=K*Mt*B;
其中,at为第一高亮目标在所述定位图像中的坐标信息;bt为第二高亮目标在所述定位图像中的目标坐标;K为基于预设的内参数构建的内参矩阵;Mt为所述机器人在所述定位图像的采集时刻时的外参矩阵;A为第一高亮目标在所述定位坐标系的空间位置信息,也即空间坐标;B为第二高亮目标在所述定位坐标系的空间位置信息。
在S1032中,求解所述目标空间方程式得到所述外参矩阵,并基于所述外参矩阵确定所述机器人在所述定位坐标系的所述定位信息。
在本实施例中,该外参矩阵代表着该机器人所在的空间水平坐标以及姿态旋转角(以上述定位坐标系为基准)。
在本实施例中,通过至少两个高亮目标,才能根据数学关系确定该机器人的定位信息。
图5示出了本申请第五实施例提供的定位方法的实现流程图。参见图5,相对于图1所述实施例,本实施例提供的定位方法S103包括S501~S503,具体详述如下:
在本实施例中,所述定位图像中只包含一个高亮目标,所述定位信息包括空间水平坐标以及姿态旋转角。
进一步地,所述基于多个所述坐标信息确定所述机器人的定位信息,包括:
在S501中,基于辅助传感器确定所述姿态旋转角。
在本实施例中,该辅助传感器可以是陀螺仪,以记录该机器人的旋转,也即可以确定该机器人在获取该定位图像的初始时刻,到该机器人确定定位信息的时刻,之间的旋转变化值,也即上述姿态旋转角。
在S502中,确定所述高亮目标的空间位置信息。
在本实施例中,上述确定所述高亮目标的空间位置信息可参考上述S304的相关描述,在此不再赘述。需要说明的是,本实施例中只需要确定一个高亮目标的空间位置。
在S503中,基于所述坐标信息以及所述高亮目标的空间位置信息,计算所述机器人的空间水平坐标。
在本实施例中,因为不需要计算该姿态旋转角,则只需要构建空间水平坐标方程式,即可计算该空间水平坐标。具体计算可参考上述S1031的相关描述,在此不再赘述,需要说明的是,本实施例中只有一个高亮目标,本实施例的外参数不包括姿态旋转角,因此少了一个未知参数,只需要一个方程式即可求解该机器人的空间水平坐标,而不需要两个方程式构成的方程组。
在本实施例中,根据辅助传感器确定该机器人的姿态旋转角,以减少后续确定该机器人定位信息时的计算量,提供一种只需要一个高亮目标就能确定该机器人的定位信息的定位方法。
图6示出了本申请第六实施例提供的定位方法的实现流程图。参见图6,相对于图1所述实施例,本实施例提供的定位方法还包括S601~S604,具体详述如下:
进一步地,所述定位方法,还包括:
在S601中,选取任两张连续获取的所述定位图像,识别为第一测试图像以及第二测试图像。
在本实施例中,上述选取任两张连续获取的所述定位图像,识别为第一测试图像以及第二测试图像,具体可以为:基于采集时刻的先后次序对该定位图像进行排序,选取任两张相邻的定位图像作为该第一测试图像以及该第二测试图像。应理解,该定位方法是连续性的,也即按预设时间间隔不断获取定位图像,也即上述定位图像在获取时已根据采集时刻进行了排序
在S602中,确定所述高亮目标在所述第一测试图像中的第一测试图像坐标以及在所述第二测试图像中的第二测试图像坐标。
在本实施例中,上述确定所述高亮目标在所述第一测试图像中的第一测试图像坐标以及在所述第二测试图像中的第二测试图像坐标,具体可以参照上述S102的有关描述,在此不再赘述。
在S603中,将各个所述高亮目标的所述第一测试图像坐标以及所述第二测试图像坐标进行比对,得出测试差异值。
在本实施例中,该测试差异值用于表示该高亮目标在该第一测试图像与在该第二测试图像中的位置变化,以进一步确定该高亮目标在空间上的位置是否发生了变化。
在一种可能实现的方式中,上述将各个所述高亮目标的所述第一测试图像坐标以及所述第二测试图像坐标进行比对,得出测试差异值,具体可以为:计算该第一测试图像坐标与该第二测试图像坐标在各个维度上的差值,将所有差值的总和识别为该测试差异值。
在S604中,若所述测试差异值大于预设的差异阈值,则生成报错或提醒信息,停止基于所述坐标信息确定所述机器人的定位信息或切换为其他定位模式。
在本实施例中,该差异阈值具体可以根据上述预设时间间隔确定的。若该测试差异值大于该差异阈值,则说明该高亮目标在空间上发生了位置变化(也可能是灯被关了导致该高亮目标消失),此时不应继续对该机器人进行定位,需要生成报错信息或提醒信息告知用户,停止正在进行的基于该坐标信息确定该机器人的定位信息的步骤,以让该机器人重新开始执行本实施例提供的定位方法。特别地,若该高亮目标不能继续在获取到的该定位图像中被识别到,则该机器人不能继续执行本实施例提供的定位方法,则此时需要将该机器人切换为其他定位模式。
在本实施例中,该定位方法是连续性地,也即按预设时间间隔获取该定位图像,在连续获取定位图像的过程中,通过上述第一测试图像以及第二测试图像进行测试,可以实现实时追踪高亮目标,使得不同的高亮目标在上述获取的各个定位图像中均能得以区分。
对应于上文实施例所述的方法,图7示出了本申请一实施例提供的定位装置的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图7,该定位装置包括:定位图像获取模块,用于获取多个包含高亮目标的定位图像;高亮目标识别模块,用于识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息;定位信息确定模块,用于基于多个所述坐标信息确定所述机器人的定位信息。
可选的,该高亮目标识别模块包括:图像处理模块,用于对所述定位图像进行二值化处理,得到二值化图像;目标区域确定模块,用于选取所述二值化图像中像素值大于预设的像素阈值的高亮区域,将所述高亮区域作为所述高亮目标的目标区域;坐标信息确定模块,用于将所述目标区域的中心点在所述定位图像内的坐标,识别为所述坐标信息。
可选的,该目标区域确定模块,还用于若所述高亮区域具有轴对称性,则将所述高亮区域识别为所述高亮目标的目标区域;若所述高亮区域不具有轴对称性,则将所述高亮区域识别为待定区域。
可选的,所述定位图像中包含至少两个高亮目标;该定位装置还包括:对照图像确定模块,用于基于采集时刻的先后次序对所述定位图像进行排序,并从所有所述定位图像中选取前N张所述定位图像作为对照图像;所述N为大于1的正整数;定位坐标系建立模块,用于获取所述机器人在各个所述对照图像对应的采集时刻对应的对照定位信息,并基于第一对照图像对应的第一对照定位信息建立定位坐标系;所述第一对照图像为在所述对照图像中采集时刻最早的对照图像;对照坐标确定模块,用于确定所述高亮目标在各个所述对照图像中的对照坐标;空间位置信息计算模块,用于基于所述对照定位信息以及所述对照坐标,计算所述高亮目标在所述定位坐标系的空间位置信息。
可选的,该定位信息确定模块包括:目标空间方程式构建模块,用于基于所述坐标信息以及所述空间位置信息,构建目标空间方程式,所述目标空间方程式如下:{at=K*Mt*A;{bt=K*Mt*B;其中,at为第一高亮目标在所述定位图像中的坐标信息;bt为第二高亮目标在所述定位图像中的目标坐标;K为基于预设的内参数构建的内参矩阵;Mt为所述机器人在所述定位图像的采集时刻时的外参矩阵;A为第一高亮目标在所述定位坐标系的空间位置信息,也即空间坐标;B为第二高亮目标在所述定位坐标系的空间位置信息;外参矩阵求解模块,用于求解所述目标空间方程式得到所述外参矩阵,并基于所述外参矩阵确定所述机器人在所述定位坐标系的所述定位信息。
可选的,所述定位图像中只包含一个高亮目标,所述定位信息包括空间水平坐标以及姿态旋转角;该定位信息确定模块还包括:姿态旋转角确定模块,用于基于辅助传感器确定所述姿态旋转角;空间位置信息确定模块,用于确定所述高亮目标的空间位置信息;空间水平坐标计算模块,用于基于所述坐标信息以及所述高亮目标的空间位置信息,计算所述机器人的空间水平坐标。
可选的,该定位装置还包括:测试图像选取模块,用于选取任两张连续获取的所述定位图像,识别为第一测试图像以及第二测试图像;
测试图像坐标确定模块,用于确定所述高亮目标在所述第一测试图像中的第一测试图像坐标以及在所述第二测试图像中的第二测试图像坐标;
测试差异值比对模块,用于将各个所述高亮目标的所述第一测试图像坐标以及所述第二测试图像坐标进行比对,得出测试差异值;若所述测试差异值大于预设的差异阈值,则生成报错信息并停止基于所述坐标信息确定所述机器人的定位信息。
需要说明的是,上述装置之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图8示出了本申请一实施例提供的终端设备的结构示意图。如图8所示,该实施例的终端设备8包括:至少一个处理器80(图8中仅示出一个处理器)、存储器81以及存储在所述存储器81中并可在所述至少一个处理器80上运行的计算机程序82,所述处理器80执行所述计算机程序82时实现上述任意各个方法实施例中的步骤。
所述终端设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备,与机器人建立通信连接以使该机器人实现本实施例提供的定位方法;也可以是机器人设备本身。该终端设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备8的举例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),该处理器80还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81在一些实施例中可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81在另一些实施例中也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储操作***、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于高亮目标的机器人定位方法,应用于机器人,其特征在于,所述定位方法包括:
获取多个包含高亮目标的定位图像;
识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息;
基于多个所述坐标信息确定所述机器人的定位信息;
其中,所述高亮目标为空间上固定的高亮目标。
2.如权利要求1所述的定位方法,其特征在于,所述识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息,包括:
对所述定位图像进行二值化处理,得到二值化图像;
选取所述二值化图像中像素值大于预设的像素阈值的高亮区域,将所述高亮区域作为所述高亮目标的目标区域;
将所述目标区域的预设点在所述定位图像内的坐标,识别为所述坐标信息;
其中,所述预设点为所述目标区域的几何中心、重心、灰度质心或像素质心。
3.如权利要求2所述的定位方法,其特征在于,所述选取所述二值化图像中像素值大于预设的像素阈值的高亮区域,将所述高亮区域作为所述高亮目标的目标区域,包括:
若所述高亮区域具有轴对称性,则将所述高亮区域识别为所述高亮目标的目标区域;
若所述高亮区域不具有轴对称性,则将所述高亮区域识别为待定区域。
4.如权利要求1所述的定位方法,其特征在于,所述定位图像中包含至少两个高亮目标;所述基于多个所述坐标信息确定所述机器人的定位信息之前,还包括:
基于采集时刻的先后次序对所述定位图像进行排序,并从所有所述定位图像中选取前N张所述定位图像作为对照图像;所述N为大于1的正整数;
获取所述机器人在各个所述对照图像对应的采集时刻对应的对照定位信息,并基于第一对照图像对应的第一对照定位信息建立定位坐标系;所述第一对照图像为在所述对照图像中采集时刻最早的对照图像;
确定所述高亮目标在各个所述对照图像中的对照坐标;
基于所述对照定位信息以及所述对照坐标,计算所述高亮目标的空间位置信息。
5.如权利要求4所述的定位方法,其特征在于,所述基于多个所述坐标信息确定所述机器人的定位信息,包括:
基于所述坐标信息以及所述空间位置信息,构建目标空间方程式,所述目标空间方程式如下:
{at=K*Mt*A;
{bt=K*Mt*B;
其中,at为第一高亮目标在所述定位图像中的坐标信息;bt为第二高亮目标在所述定位图像中的目标坐标;K为基于预设的内参数构建的内参矩阵;Mt为所述机器人在所述定位图像的采集时刻时的外参矩阵;A为第一高亮目标在所述定位坐标系的空间位置信息,也即空间坐标;B为第二高亮目标在所述定位坐标系的空间位置信息;
求解所述目标空间方程式得到所述外参矩阵,并基于所述外参矩阵确定所述机器人在所述定位坐标系的所述定位信息。
6.如权利要求1所述的定位方法,其特征在于,所述定位图像中只包含一个高亮目标,所述定位信息包括空间水平坐标以及姿态旋转角;所述基于多个所述坐标信息确定所述机器人的定位信息,包括:
基于辅助传感器确定所述姿态旋转角;
确定所述高亮目标的空间位置信息;
基于所述坐标信息以及所述高亮目标的空间位置信息,计算所述机器人的空间水平坐标。
7.如权利要求1-6任一项所述的定位方法,其特征在于,所述定位方法,还包括:
选取任两张连续获取的所述定位图像,识别为第一测试图像以及第二测试图像;
确定所述高亮目标在所述第一测试图像中的第一测试图像坐标以及在所述第二测试图像中的第二测试图像坐标;
将各个所述高亮目标的所述第一测试图像坐标以及所述第二测试图像坐标进行比对,得出测试差异值;
若所述测试差异值大于预设的差异阈值,则生成报错或提醒信息,停止基于所述坐标信息确定所述机器人的定位信息或切换为其他定位模式。
8.一种基于高亮目标的机器人定位装置,其特征在于,包括:
定位图像获取模块,用于获取多个包含高亮目标的定位图像;
高亮目标识别模块,用于识别所述高亮目标分别在各个所述定位图像中的对应的坐标信息;
定位信息确定模块,用于基于多个所述坐标信息确定所述机器人的定位信息;
其中,所述高亮目标为空间上固定的高亮目标。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202011383266.0A 2020-12-01 2020-12-01 一种基于高亮目标的机器人定位方法及装置 Active CN112614181B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011383266.0A CN112614181B (zh) 2020-12-01 2020-12-01 一种基于高亮目标的机器人定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011383266.0A CN112614181B (zh) 2020-12-01 2020-12-01 一种基于高亮目标的机器人定位方法及装置

Publications (2)

Publication Number Publication Date
CN112614181A CN112614181A (zh) 2021-04-06
CN112614181B true CN112614181B (zh) 2024-03-22

Family

ID=75228364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011383266.0A Active CN112614181B (zh) 2020-12-01 2020-12-01 一种基于高亮目标的机器人定位方法及装置

Country Status (1)

Country Link
CN (1) CN112614181B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269881A (ja) * 2000-03-24 2001-10-02 Hitachi Zosen Corp 作業ロボットの移動径路作成方法および装置
WO2017042971A1 (ja) * 2015-09-11 2017-03-16 株式会社安川電機 処理システム及びロボットの制御方法
CN106570904A (zh) * 2016-10-25 2017-04-19 大连理工大学 一种基于Xtion摄像头的多目标相对位姿识别方法
CN107065871A (zh) * 2017-04-07 2017-08-18 东北农业大学 一种基于机器视觉的自走餐车识别定位***及方法
CN107622502A (zh) * 2017-07-28 2018-01-23 南京航空航天大学 复杂光照条件下视觉导引***的路径提取与识别方法
CN108981672A (zh) * 2018-07-19 2018-12-11 华南师范大学 基于单目机器人与测距传感器结合的舱门实时定位方法
CN208848089U (zh) * 2018-09-28 2019-05-10 深圳乐动机器人有限公司 扫地机器人
CN109993790A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 标志物、标志物的形成方法、定位方法以及装置
CN110120074A (zh) * 2019-05-10 2019-08-13 清研同创机器人(天津)有限公司 一种复杂环境下的带电作业机器人线缆定位方法
CN112686951A (zh) * 2020-12-07 2021-04-20 深圳乐动机器人有限公司 用于确定机器人位置的方法、装置、终端及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269881A (ja) * 2000-03-24 2001-10-02 Hitachi Zosen Corp 作業ロボットの移動径路作成方法および装置
WO2017042971A1 (ja) * 2015-09-11 2017-03-16 株式会社安川電機 処理システム及びロボットの制御方法
CN106570904A (zh) * 2016-10-25 2017-04-19 大连理工大学 一种基于Xtion摄像头的多目标相对位姿识别方法
CN107065871A (zh) * 2017-04-07 2017-08-18 东北农业大学 一种基于机器视觉的自走餐车识别定位***及方法
CN107622502A (zh) * 2017-07-28 2018-01-23 南京航空航天大学 复杂光照条件下视觉导引***的路径提取与识别方法
CN109993790A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 标志物、标志物的形成方法、定位方法以及装置
CN108981672A (zh) * 2018-07-19 2018-12-11 华南师范大学 基于单目机器人与测距传感器结合的舱门实时定位方法
CN208848089U (zh) * 2018-09-28 2019-05-10 深圳乐动机器人有限公司 扫地机器人
CN110120074A (zh) * 2019-05-10 2019-08-13 清研同创机器人(天津)有限公司 一种复杂环境下的带电作业机器人线缆定位方法
CN112686951A (zh) * 2020-12-07 2021-04-20 深圳乐动机器人有限公司 用于确定机器人位置的方法、装置、终端及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Highlighted Map for Mobile Robot Localization and Its Generation Based on Reinforcement Learning;Ryota Yoshimura等;《IEEE Access》;20201103;第8卷;201527-201544 *
Review of vision-based Simultaneous Localization and Mapping;Ang Li等;《2019 IEEE 3rd Information Technology, Networking, Electronic and Automation Control Conference (ITNEC)》;20190606;117-123 *
基于图结构的视觉场景表达及其应用研究;徐丽娟;《中国博士学位论文全文数据库 信息科技辑》;20200815(第08期);I138-20 *

Also Published As

Publication number Publication date
CN112614181A (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
CN107358149B (zh) 一种人体姿态检测方法和装置
CN110807350B (zh) 用于面向扫描匹配的视觉slam的***和方法
CN111814752B (zh) 室内定位实现方法、服务器、智能移动设备、存储介质
CN112528831B (zh) 多目标姿态估计方法、多目标姿态估计装置及终端设备
JP2022036143A (ja) 物体追跡システム、物体追跡装置、および物体追跡方法
KR20210020945A (ko) 창고 환경에서의 차량 추적
CN110378297B (zh) 基于深度学习的遥感图像目标检测方法、装置、及存储介质
CN111612841A (zh) 目标定位方法及装置、移动机器人及可读存储介质
US20210124960A1 (en) Object recognition method and object recognition device performing the same
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
CN111507327A (zh) 一种目标检测方法及装置
KR20210046217A (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
CN113515143B (zh) 机器人导航方法、机器人及计算机可读存储介质
CN113741446B (zh) 一种机器人自主探索的方法、终端设备及存储介质
KR102096191B1 (ko) 모니터링
CN110673607A (zh) 动态场景下的特征点提取方法、装置、及终端设备
CN117908536A (zh) 机器人避障方法、终端设备及计算机可读存储介质
CN112614181B (zh) 一种基于高亮目标的机器人定位方法及装置
CN113673288A (zh) 空闲车位检测方法、装置、计算机设备及存储介质
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
US11595568B2 (en) System for generating a three-dimensional scene of a physical environment
CN117408935A (zh) 障碍物检测方法、电子设备和存储介质
CN111223139B (zh) 目标定位方法及终端设备
KR20160090649A (ko) 하체 검출/추적 장치 및 방법
US20230196615A1 (en) Determining position of the central point of point cloud data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 518000 room 1601, building 2, Vanke Cloud City phase 6, Tongfa South Road, Xili community, Xili street, Nanshan District, Shenzhen City, Guangdong Province (16th floor, block a, building 6, Shenzhen International Innovation Valley)

Applicant after: Shenzhen Ledong robot Co.,Ltd.

Address before: 518000 room 1601, building 2, Vanke Cloud City phase 6, Tongfa South Road, Xili community, Xili street, Nanshan District, Shenzhen City, Guangdong Province (16th floor, block a, building 6, Shenzhen International Innovation Valley)

Applicant before: SHENZHEN LD ROBOT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant