CN108256430B - 障碍物信息获取方法、装置及机器人 - Google Patents

障碍物信息获取方法、装置及机器人 Download PDF

Info

Publication number
CN108256430B
CN108256430B CN201711384835.1A CN201711384835A CN108256430B CN 108256430 B CN108256430 B CN 108256430B CN 201711384835 A CN201711384835 A CN 201711384835A CN 108256430 B CN108256430 B CN 108256430B
Authority
CN
China
Prior art keywords
robot
entity
coordinate system
dimensional
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711384835.1A
Other languages
English (en)
Other versions
CN108256430A (zh
Inventor
张伟民
李明珠
梁震烁
姚卓
杨天奇
黄强
张华�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201711384835.1A priority Critical patent/CN108256430B/zh
Publication of CN108256430A publication Critical patent/CN108256430A/zh
Application granted granted Critical
Publication of CN108256430B publication Critical patent/CN108256430B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本申请公开了一种障碍物信息获取方法、装置及机器人。该方法包括:通过视觉传感器获得当前环境的深度图像;根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述视觉传感器坐标系为以视觉传感器为原点的坐标系;将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;根据所述二维坐标获取所述实体与机器人之间的位置关系。本申请解决了由于采用红外传感器及现障碍物分析方法造成的机器人无法对障碍物进行准确判断技术问题。

Description

障碍物信息获取方法、装置及机器人
技术领域
本申请涉及机器人技术领域,具体而言,涉及一种障碍物信息获取方法、装置及机器人。
背景技术
随着生活水平的提高,越来越多人渴望得到更多的个人时间,以便享受生活。然而,快节奏的,繁重的家务,占用了人们大量的个人时间。随着科学技术的发展,移动机器人可以逐步代替人类承担简单重复的体力劳动。这些机器人很多都具备自主行走运动能力,而这类机器人的运动空间往往具有各种各样的障碍物(墙壁、家具等),机器人不可避免地与这些障碍物发生碰撞,因此就会大大降低机器人的使用寿命。
目前机器人采用超声波、红外等传感器,通过测量前进方向与障碍物之间的距离进行避障。这种方法在避障方面有较好的效果,但由于传感器本身存在缺陷:对于超声波,声音的速度容易受温度和风向的干扰、声音会被吸音面吸收等;对于红外,最小检测距离太大。这些都会影响机器人对障碍物不能够准确进行的判断。
针对相关技术中机器人无法对障碍物进行准确判断的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种障碍物信息获取方法、装置及机器人,以解决对机器人进行准确判断的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种障碍物信息获取方法,包括:
通过视觉传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述视觉传感器的深度信息;
根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述视觉传感器坐标系为以视觉传感器为原点的坐标系;
将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;
将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
根据所述二维坐标获取所述实体与机器人之间的位置关系。
进一步的,如前述的障碍物信息获取方法,
所述根据机器人中的一点为原点得到的所述机器人坐标系,包括:以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方。
进一步的,如前述的障碍物信息获取方法,所述实体的第一三维坐标包括多个用于体现出所述实体形状特征的三维坐标点。
进一步的,如前述的障碍物信息获取方法,在将所述实体的第一三维坐标转换为第二三维坐标后,还包括:
根据所述第二三维坐标得到所述实体的高度;
如果所述实体的第二三维坐标中的最高点低于所述机器人的高度,则将所述实体判定为障碍物;
如果所述实体的第二三维坐标中的最低点高于所述机器人的高度,则将所述实体判定为可穿过通道。
进一步的,如前述的障碍物信息获取方法,在得到所述实体的二维坐标后,还包括:
在所述二维栅格地图中对所述障碍物和可穿过通道进行区别标注。
进一步的,如前述的障碍物信息获取方法,所述将所述实体的第一三维坐标转换为第二三维坐标,包括:
获取所述视觉传感器在机器人上的位置,得到所述视觉传感器坐标系相对于机器人坐标系的转换矩阵;所述转换矩阵为:
Figure GDA0002767900570000031
其中R为一个3×3的旋转矩阵,t为一个3×1的转移矩阵。
进一步的,如前述的障碍物信息获取方法,所述R为:
Figure GDA0002767900570000032
其中
Figure GDA0002767900570000033
分别为视觉传感器坐标系中的x值、y值和z值的回归值;
Figure GDA0002767900570000034
分别为机器人坐标系中的x值、y值和z值的回归值。
进一步的,如前述的障碍物信息获取方法,
所述t为:
Figure GDA0002767900570000035
其中,Δx、Δy和Δz分别为所述视觉传感器坐标系的原点相对于所述机器人坐标系的原点在所述机器人坐标系的x、y、z三个方向上的偏移距离。
为了实现上述目的,根据本申请的另一方面,提供了一种障碍物信息获取装置,包括:
深度信息获取模块:用于通过视觉传感器获取当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述视觉传感器的深度信息;
第一三维坐标获取模块:用于根据所述深度信息获取当前环境中的所述实体的第一三维坐标;所述第一三维坐标为:所述实体在视觉传感器坐标系下的三维坐标;所述视觉传感器坐标系为:以视觉传感器为原点的坐标系;
坐标转换模块:用于将所述实体的第一三维坐标转换为第二三维坐标;所述第二三维坐标为:所述实体在机器人坐标系下的三维坐标;所述机器人坐标系为:以机器人中的一点为原点的坐标系;
栅格地图生成模块,用于将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标,并以所述实体的二维坐标作为最终障碍物数据;所述二维栅格地图与所述机器人的底面所在平面重合;
障碍物距离生成模块,用于根据所述最终障碍物数据获取所述实体与机器人之间的水平距离及方位。
为了实现上述目的,根据本申请的另一方面,提供了一种机器人,包括机器人本体及设于所述机器人上的视觉传感器。
在本申请实施例中,采用视觉传感器获得当前环境的深度图像,并进行处理获得障碍物信息的方式,包括:通过视觉传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述视觉传感器的深度信息;根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述视觉传感器坐标系为以视觉传感器为原点的坐标系;将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;根据所述二维坐标获取所述实体与机器人之间的位置关系。达到了准确获得障碍物信息的技术效果,进而解决了由于采用红外传感器及现障碍物分析方法造成的机器人无法对障碍物进行准确判断技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种障碍物信息获取方法的流程示意图;
图2是根据图1中所述步骤S3后的一种障碍物信息获取方法的流程示意图;
图3是根据本申请实施例的一种障碍物信息获取装置的模块示意图;
图4是根据本申请实施例所示的求地平面参数的方法。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本实用新型及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本实用新型中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本实用新型中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,本发明提供一种障碍物信息获取方法,该方法包括如下的步骤S1至步骤S5:
S1.通过视觉传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述视觉传感器的深度信息;
S2.根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述视觉传感器坐标系为以视觉传感器为原点的坐标系;
S3.将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;
S4.将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
S5.根据所述二维坐标获取所述实体与机器人之间的位置关系。
根据本发明实施例,提供了一种所述机器人坐标系的方法,该方法包括:
所述根据机器人中的一点为原点得到的所述机器人坐标系,包括:以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方。
在一些实施例中,如前述的障碍物信息获取方法,所述实体的第一三维坐标包括多个用于体现出所述实体形状特征的三维坐标点。
根据本发明实施例,提供了一种障碍物信息获取方法,如图2所示,在将所述实体的第一三维坐标转换为第二三维坐标后,还包括:
S61.根据所述第二三维坐标得到所述实体的高度;
S61.如果所述实体的第二三维坐标中的最高点低于所述机器人的高度,则将所述实体判定为障碍物;
S62.如果所述实体的第二三维坐标中的最低点高于所述机器人的高度,则将所述实体判定为可穿过通道。
优选的,本方法采用500×500分辨率的栅格地图来代表实际10米×10米的空间。黑色的小格视为障碍,代表此处存在低于机器人高度的物体,白色的小格则相反。采用这样的栅格地图便得到可利用的障碍物数据。由于单纯利用深度数据会将人体目标视为障碍,因此这里通过参考骨骼数据,将骨骼所占区域的方格始终视为白色,从而修正障碍物数据,实现了目标与障碍物的区分。
在一些实施例中,如前述的障碍物信息获取方法,在得到所述实体的二维坐标后,还包括:
在所述二维栅格地图中对所述障碍物和可穿过通道进行区别标注。
根据本发明实施例,提供了一种障碍物信息获取方法,所述将所述实体的第一三维坐标转换为第二三维坐标,包括:
获取所述视觉传感器在机器人上的位置,得到所述视觉传感器坐标系相对于机器人坐标系的转换矩阵;所述转换矩阵为:
Figure GDA0002767900570000081
其中R为一个3×3的旋转矩阵,t为一个3×1的转移矩阵。
具体的,获取所述转换矩阵的方法如下所述:
视觉传感器可以获取深度数据,这些深度数据存储了周围环境下的点的三维信息。由于视觉传感器安装在机器人上,所以深度数据集中会有很大一部分点位于地平面上,其余一部分点在三维空间中。基于这样的特点,可以通过求取地平面参数,然后选取任一空间点,向地平面投影,求出视觉传感器坐标系相对于地平面坐标系的转换关系,也就是转换矩阵。因为机器人始终在地平面上,所以这里选取地平面坐标系为机器人坐标系。
如图4所示为求地平面参数的方法:
第一步:从深度数据Q中随机选取3个不共线的数据,然后利用三点确定一个平面的原理,得到平面参数。
设R3空间中不在同一直线上的三个点:m1(x1,y1,z1),m2(x2,y2,z2),m3(x3,y3,z3),由这三个点所确定的平面π方程为:
Figure GDA0002767900570000082
其中M(x,y,z)∈R3。将其写成一般方程的形式为:
Ax+By+Cz+D=0
从而得到平面参数A、B、C、D。
第二步:利用点到平面的距离公式:
Figure GDA0002767900570000083
计算深度数据集Q中所有数据与平面π的距离,若距离小于初始阈值H,则有效数据集,这里记为P的元素个数加1。
第三步:循环第二步,如果当前有效数据集P元素个数大于初始设定的值N,则结束迭代,并停止采样,采用当前的参数ABCD构建平面模型;如果迭代完所有的点仍不能满足N这一阈值,则执行第四步。
第四步:如果迭代次数大于K,则退出;否则迭代次数加1,并重复上述步骤。
得到平面方程之后,求视觉传感器坐标系相对于平面坐标系的转换关系。
首先建立平面坐标系。这里使用投影的方法来确定平面坐标系,根据不同坐标系下对应点几何关系不变的特点,将视觉传感器坐标系轴线上的点投影到平面坐标系,利用投影后的点构建新的坐标轴。
这里用向量的思想描述投影这个过程,设空间点P0(X,Y,Z),以及空间平面π(Pp,Np),容易求得Po到平面的距离是:
D=((Po-Pp)×Np)
将Po沿着法向量的反方向移动D就得到Po在该平面的投影点:
P=Po-Np×(Po-p)×Np)
具体方法如下:
第一步:将视觉传感器坐标系下原点O(0,0,0)向平面π投影得到平面坐标系下原点Ow(0,0,0)。
第二步:分别将视觉传感器坐标系下点X(1,0,0)和点Y(0,1,0)向平面π投影得到平面坐标系下点Xw和Yw
第三步:求平面坐标系x轴和y轴。可以确定,投影后的点Ow和点Xw组成的向量构成了x轴,但y轴可以是平面上与x轴垂直的两个向量之一。任意给定一个垂直向量作为y轴,对该向量与点Xw和点Yw组成的向量求点积,如果结果大于0,则将初始给定的向量作为y轴,否则将初始给定的向量取反作为y轴。
第四步:根据求得的x轴和y轴,由笛卡尔坐标系可以得到z轴。
上述过程得到的轴向量构成了平面坐标系相对于视觉传感器坐标系的旋转矩阵R,投影后的点Ow构成了平移矩阵t。两者共同构成了转换矩阵T。
根据本发明实施例,提供了一种障碍物信息获取方法,所述R为:
Figure GDA0002767900570000101
其中
Figure GDA0002767900570000102
为分别视觉传感器坐标系中的x值、y值和z值的回归值;
Figure GDA0002767900570000103
分别机器人坐标系中的x值、y值和z值的回归值。
根据本发明实施例,提供了一种障碍物信息获取方法,
所述t为:
Figure GDA0002767900570000104
其中,Δx、Δy和Δz分别为所述视觉传感器坐标系的原点相对于所述机器人坐标系的原点在所述机器人坐标系的x、y、z三个方向上的偏移距离。
为了实现上述目的,根据本申请的另一方面,提供了一种障碍物信息获取装置,包括:
深度信息获取模块1:用于通过视觉传感器获取当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述视觉传感器的深度信息;
第一三维坐标获取模块2:用于根据所述深度信息获取当前环境中的所述实体的第一三维坐标;所述第一三维坐标为:所述实体在视觉传感器坐标系下的三维坐标;所述视觉传感器坐标系为:以视觉传感器为原点的坐标系;
坐标转换模块3:用于将所述实体的第一三维坐标转换为第二三维坐标;所述第二三维坐标为:所述实体在机器人坐标系下的三维坐标;所述机器人坐标系为:以机器人中的一点为原点的坐标系;
栅格地图生成模块4,用于将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标,并以所述实体的二维坐标作为最终障碍物数据;所述二维栅格地图与所述机器人的底面所在平面重合;
障碍物距离生成模块5,用于根据所述最终障碍物数据获取所述实体与机器人之间的水平距离及方位。
为了实现上述目的,根据本申请的另一方面,提供了一种机器人,包括机器人本体及设于所述机器人上的视觉传感器。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (9)

1.一种障碍物信息获取方法,其特征在于,包括:
通过视觉传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体的深度信息;
根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述视觉传感器坐标系为以视觉传感器为原点的坐标系;将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;根据机器人中的一点为原点得到的所述机器人坐标系,以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方;
将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
根据所述二维坐标确定所述实体与机器人之间的位置关系;
采用500×500分辨率的栅格地图来代表实际10米×10米的空间,黑色的小格视为障碍,代表低于所述机器人高度的物体,白色的小格则相反;采用所述栅格地图得到可利用的障碍物数据;通过参考骨骼数据,将骨骼所占区域的方格始终视为白色。
2.根据权利要求1所述的障碍物信息获取方法,其特征在于,所述实体的第一三维坐标包括多个用于体现出所述实体形状特征的三维坐标点。
3.根据权利要求2所述的障碍物信息获取方法,其特征在于,在将所述实体的第一三维坐标转换为第二三维坐标后,还包括:
根据所述第二三维坐标得到所述实体的高度;
如果所述实体的第二三维坐标中的最高点低于所述机器人的高度,则将所述实体判定为障碍物;
如果所述实体的第二三维坐标中的最低点高于所述机器人的高度,则将所述实体判定为可穿过通道。
4.根据权利要求3所述的障碍物信息获取方法,其特征在于,在得到所述实体的二维坐标后,还包括:
在所述二维栅格地图中对所述障碍物和可穿过通道进行区别标注。
5.根据权利要求1所述的障碍物信息获取方法,其特征在于,所述将所述实体的第一三维坐标转换为第二三维坐标,包括:
获取所述视觉传感器在机器人上的位置,得到所述视觉传感器坐标系相对于机器人坐标系的转换矩阵;所述转换矩阵为:
Figure FDA0002767900560000021
其中R为一个3×3的旋转矩阵,t为一个3×1的转移矩阵。
6.根据权利要求5所述的障碍物信息获取方法,其特征在于,所述R为:
Figure FDA0002767900560000022
其中
Figure FDA0002767900560000023
分别为视觉传感器坐标系中的x值、y值和z值的回归值;
Figure FDA0002767900560000024
分别为机器人坐标系中的x值、y值和z值的回归值。
7.根据权利要求5所述的障碍物信息获取方法,其特征在于,所述t为:
Figure FDA0002767900560000025
其中,Δx、Δy和Δz分别为所述视觉传感器坐标系的原点相对于所述机器人坐标系的原点在所述机器人坐标系的x、y、z三个方向上的偏移距离。
8.一种障碍物信息获取装置,其特征在于,包括:
深度信息获取模块:用于通过视觉传感器获取当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述视觉传感器的深度信息;
第一三维坐标获取模块:用于根据所述深度信息获取当前环境中的所述实体的第一三维坐标;所述第一三维坐标为:所述实体在视觉传感器坐标系下的三维坐标;所述视觉传感器坐标系为:以视觉传感器为原点的坐标系;坐标转换模块:用于将所述实体的第一三维坐标转换为第二三维坐标;所述第二三维坐标为:所述实体在机器人坐标系下的三维坐标;所述机器人坐标系为:以机器人中的一点为原点的坐标系,以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方;
栅格地图生成模块,用于将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标,并以所述实体的二维坐标作为最终障碍物数据;所述二维栅格地图与所述机器人的底面所在平面重合;
障碍物距离生成模块,用于根据所述最终障碍物数据获取所述实体与机器人之间的水平距离及方位;
采用500×500分辨率的栅格地图代表实际10米×10米的空间,黑色的小格视为障碍,代表低于所述机器人高度的物体,白色的小格则相反,采用所述栅格地图得到可利用的障碍物数据;通过参考骨骼数据,将骨骼所占区域的方格始终视为白色。
9.一种机器人,其特征在于,包括机器人本体及设于所述机器人上的视觉传感器;
所述机器人包括:
通过视觉传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体的深度信息;
根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述视觉传感器坐标系为以视觉传感器为原点的坐标系;将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;根据机器人中的一点为原点得到的所述机器人坐标系,以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方;
将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
根据所述二维坐标确定所述实体与机器人之间的位置关系;
采用500×500分辨率的栅格地图代表实际10米×10米的空间,黑色的小格视为障碍,代表低于所述机器人高度的物体,白色的小格则相反,采用所述栅格地图得到可利用的障碍物数据;通过参考骨骼数据,将骨骼所占区域的方格始终视为白色。
CN201711384835.1A 2017-12-20 2017-12-20 障碍物信息获取方法、装置及机器人 Active CN108256430B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711384835.1A CN108256430B (zh) 2017-12-20 2017-12-20 障碍物信息获取方法、装置及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711384835.1A CN108256430B (zh) 2017-12-20 2017-12-20 障碍物信息获取方法、装置及机器人

Publications (2)

Publication Number Publication Date
CN108256430A CN108256430A (zh) 2018-07-06
CN108256430B true CN108256430B (zh) 2021-01-29

Family

ID=62722671

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711384835.1A Active CN108256430B (zh) 2017-12-20 2017-12-20 障碍物信息获取方法、装置及机器人

Country Status (1)

Country Link
CN (1) CN108256430B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6816070B2 (ja) * 2018-08-24 2021-01-20 ファナック株式会社 干渉回避装置およびロボットシステム
WO2020102946A1 (zh) * 2018-11-19 2020-05-28 珊口(深圳)智能科技有限公司 构建地图、定位、导航、控制方法及***、移动机器人
CN111383321A (zh) * 2018-12-28 2020-07-07 沈阳新松机器人自动化股份有限公司 一种基于3d视觉传感器的三维建模方法及***
CN109828582B (zh) * 2019-02-28 2019-10-29 沈阳师范大学 基于多传感器信息融合的智能小车路径规划方法及***
CN110076777B (zh) * 2019-05-05 2020-11-27 北京云迹科技有限公司 一种取货方法及装置
CN110202577A (zh) * 2019-06-15 2019-09-06 青岛中科智保科技有限公司 一种实现障碍物检测的自主移动机器人及其方法
CN112318496A (zh) * 2019-08-05 2021-02-05 乐歆机器人(东莞)有限公司 一种基于深度摄像机的视觉运动通道的构建***及方法
CN112631266A (zh) * 2019-09-20 2021-04-09 杭州海康机器人技术有限公司 一种移动机器人感知障碍信息的方法、装置
CN113552589A (zh) * 2020-04-01 2021-10-26 杭州萤石软件有限公司 障碍检测方法、机器人和存储介质
CN113494916B (zh) * 2020-04-01 2024-07-02 杭州萤石软件有限公司 地图构建方法及多足式机器人
CN112051921B (zh) * 2020-07-02 2023-06-27 杭州易现先进科技有限公司 Ar导航地图生成方法、装置、计算机设备和可读存储介质
CN112747746A (zh) * 2020-12-25 2021-05-04 珠海市一微半导体有限公司 基于单点tof的点云数据获取方法、芯片和移动机器人
CN115167418B (zh) * 2022-07-04 2023-06-27 未岚大陆(北京)科技有限公司 转移路径生成方法、装置、电子设备和计算机存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9304001B2 (en) * 2013-07-03 2016-04-05 Samsung Electronics Co., Ltd Position recognition methods of autonomous mobile robots
CN105652873A (zh) * 2016-03-04 2016-06-08 中山大学 一种基于Kinect的移动机器人避障方法
CN105785989A (zh) * 2016-02-24 2016-07-20 中国科学院自动化研究所 利用行进中机器人标定分布式网络摄像机的***和相关方法
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和***
CN106441275A (zh) * 2016-09-23 2017-02-22 深圳大学 一种机器人规划路径的更新方法及装置
CN106680832A (zh) * 2016-12-30 2017-05-17 深圳优地科技有限公司 一种移动机器人的障碍物检测方法、装置和移动机器人
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9304001B2 (en) * 2013-07-03 2016-04-05 Samsung Electronics Co., Ltd Position recognition methods of autonomous mobile robots
CN105785989A (zh) * 2016-02-24 2016-07-20 中国科学院自动化研究所 利用行进中机器人标定分布式网络摄像机的***和相关方法
CN105652873A (zh) * 2016-03-04 2016-06-08 中山大学 一种基于Kinect的移动机器人避障方法
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和***
CN106441275A (zh) * 2016-09-23 2017-02-22 深圳大学 一种机器人规划路径的更新方法及装置
CN106680832A (zh) * 2016-12-30 2017-05-17 深圳优地科技有限公司 一种移动机器人的障碍物检测方法、装置和移动机器人
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置

Also Published As

Publication number Publication date
CN108256430A (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
CN108256430B (zh) 障碍物信息获取方法、装置及机器人
CN109564690B (zh) 使用多向相机评估封闭空间的尺寸
KR102455845B1 (ko) 로봇 맵핑 시스템 및 방법
Maier et al. Real-time navigation in 3D environments based on depth camera data
Huang et al. A novel multi-planar LIDAR and computer vision calibration procedure using 2D patterns for automated navigation
Li et al. Navigation simulation of a Mecanum wheel mobile robot based on an improved A* algorithm in Unity3D
Kuramachi et al. G-ICP SLAM: An odometry-free 3D mapping system with robust 6DoF pose estimation
CN102622762A (zh) 使用深度图的实时相机跟踪
Krainin et al. Manipulator and object tracking for in hand model acquisition
Gong et al. Extrinsic calibration of a 3D LIDAR and a camera using a trihedron
JP6746050B2 (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
Mojtahedzadeh Robot obstacle avoidance using the Kinect
Chen et al. Real-time 3D mobile mapping for the built environment
Oßwald et al. Efficient coverage of 3D environments with humanoid robots using inverse reachability maps
Garrote et al. 3D point cloud downsampling for 2D indoor scene modelling in mobile robotics
Glas et al. SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking
CN110202577A (zh) 一种实现障碍物检测的自主移动机器人及其方法
Abanay et al. A calibration method of 2D LIDAR-Visual sensors embedded on an agricultural robot
Zhang et al. Effective safety strategy for mobile robots based on laser-visual fusion in home environments
Chen et al. Low cost and efficient 3D indoor mapping using multiple consumer RGB-D cameras
Xu et al. A flexible 3D point reconstruction with homologous laser point array and monocular vision
Lu et al. 3-D location estimation of underwater circular features by monocular vision
Gulzar et al. See what i mean-probabilistic optimization of robot pointing gestures
Zhang et al. Universal range data acquisition for educational laboratories using Microsoft Kinect
JP6281938B2 (ja) データ処理装置、データ処理方法、及びデータ処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant