CN114750147B - 机器人的空间位姿确定方法、装置和机器人 - Google Patents

机器人的空间位姿确定方法、装置和机器人 Download PDF

Info

Publication number
CN114750147B
CN114750147B CN202210236826.2A CN202210236826A CN114750147B CN 114750147 B CN114750147 B CN 114750147B CN 202210236826 A CN202210236826 A CN 202210236826A CN 114750147 B CN114750147 B CN 114750147B
Authority
CN
China
Prior art keywords
pixel point
image
point
depth
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210236826.2A
Other languages
English (en)
Other versions
CN114750147A (zh
Inventor
洪泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zbeetle Intelligent Co Ltd
Original Assignee
Shenzhen Zbeetle Intelligent Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zbeetle Intelligent Co Ltd filed Critical Shenzhen Zbeetle Intelligent Co Ltd
Priority to CN202210236826.2A priority Critical patent/CN114750147B/zh
Publication of CN114750147A publication Critical patent/CN114750147A/zh
Application granted granted Critical
Publication of CN114750147B publication Critical patent/CN114750147B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种机器人的空间位姿确定方法、装置和机器人。方法包括:获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像;分别从两帧彩色图像中提取特征点;其中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;中心像素点为彩色图像的图像中心对应的像素点;对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点;根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。本方法能够提高确定出机器人的空间位姿的精准度。

Description

机器人的空间位姿确定方法、装置和机器人
技术领域
本申请涉及机器人定位技术领域,特别是涉及一种机器人的空间位姿确定方法、装置和机器人。
背景技术
随着机器人技术的快速发展,为了实现对机器人的准确定位及控制,目前一般是在机器人上搭载RGBD相机,通过RGBD相机拍摄得到位姿图像,位姿图像包括彩色图像和深度图像,通过从连续两帧彩色图像中均匀提取特征点,再通过特征点匹配确定出匹配的特征点,然后根据深度图像对应的特征点进行位姿计算,得到机器人的空间位姿,再利用空间位姿实现避障控制、SLAM(Simultaneous Localization And Mapping,同步定位与地图构建)定位建图、导航、三维重建等操作。但是,由于RGBD相机的成像原理,直接按照传统技术方案从彩色图像中提取特征点,并根据深度图像对应的特征点进行位姿计算,将导致确定出的机器人的空间位姿不够精准,进而导致利用空间位姿进行的避障控制、SLAM定位建图、导航、三维重建等操作将存在误差。
因此,如何提高确定机器人的空间位姿的准确度,是本领域技术人员目前需要解决的技术问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高确定机器人的空间位姿的准确度的机器人的空间位姿确定方法、装置、计算机设备、机器人、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种机器人的空间位姿确定方法。所述方法包括:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点;
对从两帧所述彩色图像中提取出的所述特征点进行匹配,确定匹配点;
根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿。
在其中一个实施例中,所述靠近中心像素点的区域,为以所述中心像素点为中心、以预设数量像素为半径形成的区域,或者与所述中心像素点之间的距离小于等于预设数量的像素点形成的区域,或者所述中心像素点的预设邻域的像素点形成的区域;
所述远离所述中心像素点的区域,为所述彩色图像中除所述靠近中心像素点的区域之外的区域。
在其中一个实施例中,所述靠近中心像素点的区域,为以所述中心像素点为中心、以预设数量像素为半径形成的区域;所述远离所述中心像素点的区域,为所述彩色图像中除所述靠近中心像素点的区域之外的区域。
在其中一个实施例中,所述靠近中心像素点的区域,为与所述中心像素点之间的距离小于等于预设数量的像素点形成的区域;所述远离所述中心像素点的区域,为所述彩色图像中除所述靠近中心像素点的区域之外的区域。
在其中一个实施例中,所述靠近中心像素点的区域,为中心像素点的预设邻域的像素点形成的区域;所述远离所述中心像素点的区域,为所述彩色图像中除所述靠近中心像素点的区域之外的区域。
在其中一个实施例中,在所述靠近中心像素点的区域选取的特征点的数量,为在所述远离中心像素点的区域选取的特征点的数量的预设倍数,所述预设倍数大于1。
在其中一个实施例中,所述分别从两帧所述彩色图像的靠近中心像素点的区域和远离所述中心像素点的区域提取特征点,包括:
按照所述彩色图像的各像素点所在区域与中心像素点的距离,分别从靠近中心像素点的区域和远离所述中心像素点的区域提取特征点;在所述所在区域提取的特征点的数量,与所述所在区域和所述中心像素点的距离成反比。
在其中一个实施例中,在所述根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿之前,所述方法还包括:
删除所述深度图像中图像深度距离大于预设距离范围的所述深度值对应的特征点。
第二方面,本申请还提供了一种机器人的空间位姿确定装置。所述装置包括:
获取模块,用于获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
提取模块,用于分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点;
匹配模块,用于对从两帧所述彩色图像中提取出的所述特征点进行匹配,确定匹配点;
计算模块,用于根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点;
对从两帧所述彩色图像中提取出的所述特征点进行匹配,确定匹配点;
根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿。
第四方面,本申请还提供了一种机器人,所述机器人上搭载有RGBD相机,所述机器人还包括如上述的计算机设备。
第五方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点;
对从两帧所述彩色图像中提取出的所述特征点进行匹配,确定匹配点;
根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿。
第六方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点;
对从两帧所述彩色图像中提取出的所述特征点进行匹配,确定匹配点;
根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿。
上述机器人的空间位姿确定方法、装置、计算机设备、机器人、存储介质和计算机程序产品,由于深度图像的中心区域的深度值最准确,越往图像边缘部分深度值的误差越大,因此本方法针对彩色图像的靠近中心像素点的区域和远离中心像素点的区域分别选取对应数量的特征点,且靠近中心像素点的区域的特征点数量大于远离中心像素点的区域的特征点数量;再在确定出匹配点后,根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿,因此本方法能够提高计算空间位姿时,高精度深度值的占比,因此能够提高确定出的空间位姿的精准度。
附图说明
图1为一个实施例中机器人的空间位姿确定方法的流程示意图;
图2为一个实施例中一种彩色图像的区域划分示意图;
图3为一个实施例中机器人的空间位姿确定装置的结构框图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的机器人的空间位姿确定方法,可以直接应用于机器人中,也可以应用于服务器中,还可以应用于包括终端和服务器的***,并通过终端和服务器的交互实现。其中,本申请实施例中的机器人指的是需要进行空间移动的机器人,需要确定其空间位姿;本实施例对机器人的具体类型以及型号不做限定。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
如图1所示,提供了一种机器人的空间位姿确定方法,以该方法应用于机器人中为例进行说明。该方法包括以下步骤:
步骤102,获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像。
具体的,目标机器人为本实施例中需要确定对应的目标位姿的机器人;拍摄装置指的是搭载于目标机器人上用于获取周围环境图像的装置,拍摄装置连续拍摄以获取连续帧图像。作为优选的实施方式,拍摄装置可以是RGBD相机;RGBD相机是基于结构光技术的相机,一般会有两个摄像头,一个RGB摄像头采集彩色图像,一个IR摄像头采集红外图像,即深度图像。可以理解的是,在确定空间位姿时,至少需要获取连续两帧位姿图像,即获取连续两帧彩色图像,以及与彩色图像对应的两帧深度图像。
步骤104,分别从两帧彩色图像中提取特征点;其中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;中心像素点为彩色图像的图像中心对应的像素点。
具体的,特征点指的是彩色图像中具备明显特征的点,通过提取出彩色图像中的特征点,以对特征点进行匹配,进而确定连续的相邻两帧图像的空间位姿。
需要说明的是,从彩色图像中提取特征点的过程,可以通过特征提取算法如SIFT(Scale-invariant feature transform,尺度不变特征变换)、SURF(Speeded Up RobustFeatures,加速稳健特征)、FAST(Features from accelerated segment test,角点检测算法)、GLOH(gradient location and orientation histogram)等实现,或者通过改进算法如PCA-SIFT、ICA-SIFT、P-ASURF、R-ASURF、Radon-SIFT等实现;本实施例对用于进行特征提取算法不做限定。
在对彩色图像进行特征提取操作,从彩色图像中提取出特征点时,是根据各特征点与彩色图像的中心像素点的距离选取对应数量的特征点。其中,中心像素点指的是彩色图像中位于图像中心部位的像素;在本实施例中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;本实施例对在靠近彩色图像的中心像素点的区域选取的特征点的数量以及在远离中心像素点的区域选取的特征点的数量均不做具体的限定,根据实际需求设置即可。
步骤106,对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点。
具体的,在从两帧彩色图像中分别提取出的特征点后,对提取出的特征点进行特征点匹配,也就是通过描述子的差异判断哪些特征为同一个点,确定出匹配成功的特征点,即确定出匹配点。
在实际操作中,可以根据两帧彩色图像中特征点的距离,来确定匹配点;计算两帧彩色图像中的特征点的距离的方式包括计算欧氏距离、余弦距离等,本实施例对计算方式不做限定。
步骤108,根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。
具体的,由于每一帧彩色图像都有与之对应的深度图像,即彩色图像和深度图像是一一对应的。因此,根据在彩色图像中确定出的匹配点的位置,以及彩色图像和深度图像的对应关系,在深度图像中确定出与匹配点对应的深度值,再利用深度值进行位姿计算,得到目标机器人的空间位姿。具体可以针对匹配点对应的深度值进行ICP(IterativeClosest Point,迭代最近点算法)配准操作,确定出目标机器人的空间位姿。
更具体的,假设连续两帧彩色图像和深度图像分别称之为第一帧彩色图像和第二帧彩色图像、第一帧深度图像和第二帧深度图像;在根据第一帧彩色图像和第二帧彩色图像确定出匹配点A1点和B1点后,在第一帧深度图像和第二帧深度图像对应的像素点位置直接读取与A1点和B1点对应的深度值,再利用深度值进行位姿计算,得到目机器人的空间位姿。在利用深度值进行位姿计算时,首先分别根据第一帧深度图像和第二帧深度图像计算出点云P1和点云P2,再对点云P1和P2进行ICP配准操作,以得到对应的空间位姿。并且一般来说,彩色图像和深度图像在时间上严格对齐,能够提高计算出空间位姿的精准度。
上述机器人的空间位姿确定方法,由于深度图像的中心区域的深度值最准确,越往图像边缘部分深度值的误差越大,因此本方法针对彩色图像的靠近中心像素点的区域和远离中心像素点的区域分别选取对应数量的特征点,且靠近中心像素点的区域的特征点数量大于远离中心像素点的区域的特征点数量;再在确定出匹配点后,根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿,因此本方法能够提高计算空间位姿时,高精度深度值的占比,因此能够提高确定出的空间位姿的精准度。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例中,靠近中心像素点的区域,为以中心像素点为中心、以预设数量像素为半径形成的区域,或者与中心像素点之间的距离小于等于预设数量的像素点形成的区域,或者中心像素点的预设邻域的像素点形成的区域;
远离中心像素点的区域,为彩色图像中除靠近中心像素点的区域之外的区域。
具体的,在本实施例中,是将彩色图像划分为两个区域,即靠近中心像素点的区域和远离中心像素点的区域。其中,可以是将以中心像素点为中心、以预设数量像素为半径形成的区域,确定为靠近中心像素点的区域,也就是将以中心像素点为圆心,以预设数量像素半径,确定对应圆形范围内的像素点均为靠近中心像素点的像素点,该圆形范围即为靠近中心像素点的区域。
另外,在其他的实施例中,可以将与中心像素点之间的距离小于等于预设数量的像素点形成的区域,确定为靠近中心像素点的区域;也就是首先确定预设数量的像素点为阈值,再确定各像素点与中心像素点之间的距离,并将距离小于等于预设数量的像素点,确定为靠近中心像素点的像素点;像素点形成的区域即为靠近中心像素点的区域。
另外,在其他的实施例中,可以将中心像素点的预设邻域的像素点形成的区域,确定为靠近中心像素点的区域;预设邻域指的是中心像素点周围的像素点对应的区域,中心像素点的预设邻域中的各像素点,均为靠近中心像素点的像素点,各邻域组成的区域,即为靠近中心像素点的区域。
对应的,在确定出靠近中心像素点的区域之后,将彩色图像中除靠近中心像素点的区域之外的区域确定为远离中心像素点的区域。
具体的,在确定出靠近中心像素点的区域和远离中心像素点的区域后,在两个区域中提取特征点时,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量。
可见,按照本实施例的方法确定靠近中心像素点的区域和远离中心像素点的区域,确定方式便捷易行。
作为优选的实施方式,在靠近中心像素点的区域选取的特征点的数量,为在远离中心像素点的区域选取的特征点的数量的预设倍数,预设倍数大于1。
具体的,在本实施例中,是在从靠近中心像素点的区域和远离中心像素点的区域分别提取特征点时,提取的特征点的数量是以预设倍数差异的;本实施例对预设倍数的具体数值不做限定,根据实际操作需求设置预设倍数即可。一般来说,预设倍数大于1。例如,假设在远离中心像素点的区域选取的特征点的数量为N,在靠近中心像素点的区域选取的特征点的数量则可以为2N或者3N或者4N等。
可见,本实施例通过按照在靠近中心像素点的区域选取的特征点的数量,为在远离中心像素点的区域选取的特征点的数量的预设倍数,在靠近中心像素点的区域和远离中心像素点的区域分别选取特征点,能够便捷快速地确定出在两个区域分别提取的特征点的数量。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例中,分别从两帧位姿图像的靠近中心像素点的区域和远离中心像素点的区域提取特征点,包括:
按照位姿图像的各像素点所在区域与中心像素点的距离,分别从靠近中心像素点的区域和远离中心像素点的区域提取特征点;在所在区域提取的特征点的数量,与所在区域和中心像素点的距离成反比。
在本实施例中,像素点所在区域指的是像素点在彩色图像中对应的位置区域;所在区域可以是像素点周围相邻的像素点组成的区域,也可以是通过计算各像素点与中心像素点之间的距离,将距离在相同范围内的像素点对应的像素点确定为同一所在区域。对应的,在所在区域提取特征点时,所在区域与中心像素点的距离,确定在各所在区域提取的特征点的数量。
具体的,在所在区域提取的特征点的数量,与所在区域和中心像素点的距离成反比;也就是说,所在区域与中心像素点的距离越近,在该所在区域中提取的特征点数量越多,所在区域与中心像素点的距离越远,在该所在区域中提取的特征点数量越少。
如图2所示,为本实施例中一种彩色图像的区域划分示意图;假设彩色图像包括区域①、区域②和区域③三个区域,各区域中对应包括多个像素点,且区域①、区域②和区域③与中心像素点的距离逐渐增大;如,区域①与中心像素点的距离,小于区域②与中心像素点的距离,小于区域③与中心像素点的距离;对应的,在区域①中提取特征点的数量,大于在区域②中提取特征点的数量,大于在区域③中提取特征点的数量。
并且,在区域①、区域②和区域③中分别提取的特征点的数量,可以是以预设倍数增长,例如,在区域①中提取的特征点的数量是在区域②中提取的特征点的数量的预设倍数,在区域②中提取的特征点的数量是在区域③中提取的特征点的数量的预设倍数。或者,根据区域①、区域②和区域③分别与中心像素点的实际距离,以及预设的距离与特征点数量的线性函数关系,确定在区域①、区域②和区域③中分别提取的特征点的数量。
可见,按照本实施例的方式,随着与中心像素点的距离的减小,以渐进式增加提取特征点的数量,即越靠近中心像素点,提取的特征点数量越多,能够提高精度深度值的占比,提高计算空间位姿的精准度。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例中,在根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点对应的特征点进行位姿计算,得到目标机器人的空间位姿之前,方法还包括:
删除深度图像中图像深度距离大于预设距离范围的深度值对应的特征点。
可以理解的是,目标机器人的拍摄装置有自身的最佳工作距离,在该最佳工作距离对应的深度值的精度最高,不在该最佳工作距离对应的深度值的精度较差。例如,有的结构光的RGBD相机的最佳工作距离为1m~2m,超过该最佳工作距离时,深度值的误差会急剧变大,深度值的精度大幅降低;例如有的结构光相机最佳工作距离为2m,超过该最佳工作距离时,深度值的误差会急剧变大,深度值的精度大幅降低。
在本实施例中,预先根据拍摄装置的最佳工作距离设置预设距离范围,然后将深度图像中的各深度值与预设距离范围进行比较,确定出在预设距离范围以外的深度值,并删除在预设距离范围以外的深度值对应的特征点。
更具体的,若最佳工作距离为一个具体值,则预设距离范围可以是该具体值,也可以是包括容错范围的距离区间。若最佳工作距离为一个距离范围,则预设距离范围可以是与该距离范围对应的距离区间,也可以是包括容错范围的距离区间。例如,若最佳工作距离为1m~2m,容错范围为0.2m,那么对应的预设距离范围可以是(1±0.2)m~(2±0.2)m;本实施例对容错范围不做限定,根据实际需求设置即可。
本实施例通过进一步删除深度图像中图像深度距离大于预设距离范围的深度值对应的特征点,能够进一步提高选取的深度值的精准度,从而提高确定出目标机器人的空间位姿的精准度。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面结合实际应用场景对本申请实施例中的技术方案进行详细说明。在本申请实施例中,一种机器人的空间位姿确定方法,具体步骤如下:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像;
删除深度图像中图像深度距离大于预设距离范围的深度值对应的特征点;
按照彩色图像的各像素点所在区域与中心像素点的距离,分别从靠近中心像素点的区域和远离中心像素点的区域提取特征点;在所在区域提取的特征点的数量,与所在区域和中心像素点的距离成反比;中心像素点为彩色图像的图像中心对应的像素点;
对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点;
根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。
上述机器人的空间位姿确定方法,由于深度图像的中心区域的深度值最准确,越往图像边缘部分深度值的误差越大,因此本方法针对彩色图像的靠近中心像素点的区域和远离中心像素点的区域分别选取对应数量的特征点,且靠近中心像素点的区域的特征点数量大于远离中心像素点的区域的特征点数量;再在确定出匹配点后,根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿,因此本方法能够提高计算空间位姿时,高精度深度值的占比,因此能够提高确定出的空间位姿的精准度。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的机器人的空间位姿确定方法的机器人的空间位姿确定装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个机器人的空间位姿确定装置实施例中的具体限定可以参见上文中对于机器人的空间位姿确定方法的限定,在此不再赘述。
在一个实施例中,如图3所示,提供了一种机器人的空间位姿确定装置,包括:获取模块302、提取模块304、匹配模块306和计算模块308,其中:
获取模块302,用于获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像;
提取模块304,用于分别从两帧彩色图像中提取特征点;其中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;中心像素点为彩色图像的图像中心对应的像素点;
匹配模块306,用于对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点;
计算模块308,用于根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。
本申请实施例提供的一种机器人的空间位姿确定装置,具有与上述一种机器人的空间位姿确定方法相同的有益效果。
在其中一个实施例中,靠近中心像素点的区域,为以中心像素点为中心、以预设数量像素为半径形成的区域,或者与中心像素点之间的距离小于等于预设数量的像素点形成的区域,或者中心像素点的预设邻域的像素点形成的区域;
远离中心像素点的区域,为彩色图像中除靠近中心像素点的区域之外的区域。
在其中一个实施例中,提取模块304包括:
提取子模块,用于按照彩色图像的各像素点所在区域与中心像素点的距离,分别从靠近中心像素点的区域和远离中心像素点的区域提取特征点;在所在区域提取的特征点的数量,与所在区域和中心像素点的距离成反比。
在其中一个实施例中,一种机器人的空间位姿确定装置还包括:
删除模块,用于删除深度图像中图像深度距离大于预设距离范围的深度值对应的特征点。
上述机器人的空间位姿确定装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过***总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种机器人的空间位姿确定方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像;
分别从两帧彩色图像中提取特征点;其中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;中心像素点为彩色图像的图像中心对应的像素点;
对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点;
根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。
本申请实施例提供的一种计算机设备,具有与上述一种机器人的空间位姿确定方法相同的有益效果。
在一个实施例中,提供了一种机器人,机器人上搭载有RGBD相机,机器人还包括如上的计算机设备。
本申请实施例提供的一种机器人,具有与上述一种机器人的空间位姿确定方法相同的有益效果。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像;
分别从两帧彩色图像中提取特征点;其中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;中心像素点为彩色图像的图像中心对应的像素点;
对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点;
根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。
本申请实施例提供的一种计算机可读存储介质,具有与上述一种机器人的空间位姿确定方法相同的有益效果。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;位姿图像包括彩色图像和深度图像;
分别从两帧彩色图像中提取特征点;其中,在靠近彩色图像的中心像素点的区域选取的特征点的数量,大于在远离中心像素点的区域选取的特征点的数量;中心像素点为彩色图像的图像中心对应的像素点;
对从两帧彩色图像中提取出的特征点进行匹配,确定匹配点;
根据彩色图像和深度图像的对应关系,利用深度图像中与匹配点位置对应的深度值进行位姿计算,得到目标机器人的空间位姿。
本申请实施例提供的一种计算机程序产品,具有与上述一种机器人的空间位姿确定方法相同的有益效果。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (10)

1.一种机器人的空间位姿确定方法,其特征在于,所述方法包括:
获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点,所述靠近中心像素点的区域,为以所述中心像素点为中心、以预设数量像素为半径形成的区域,或者与所述中心像素点之间的距离小于等于预设数量的像素点形成的区域,或者所述中心像素点的预设邻域的像素点形成的区域;所述远离所述中心像素点的区域,为所述彩色图像中除所述靠近中心像素点的区域之外的区域,在所述靠近中心像素点的区域选取的特征点的数量,为在所述远离中心像素点的区域选取的特征点的数量的预设倍数,所述预设倍数大于1;
或,按照所述彩色图像的各像素点所在区域与中心像素点的距离,分别从靠近中心像素点的区域和远离所述中心像素点的区域提取特征点;在所述所在区域提取的特征点的数量,与所述所在区域和所述中心像素点的距离成反比;
在从两帧所述彩色图像中分别提取出的特征点后,对提取出的所述特征点进行特征点匹配,通过描述子的差异判断为同一个点的特征点,确定出匹配成功的特征点,得到匹配点;
根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿;
所述根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿包括:
根据所述彩色图像和所述深度图像的对应关系,针对第一帧深度图像和第二帧深度图像分别计算出第一点云和第二点云,再对所述第一点云和所述第二点云进行迭代最近点算法配准操作,得到所述目标机器人的空间位姿。
2.根据权利要求1所述的方法,其特征在于:所述拍摄装置为RGBD相机。
3.根据权利要求1所述的方法,其特征在于,所述根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿包括:
根据所述彩色图像中确定的匹配点的位置,以及所述彩色图像和所述深度图像的对应关系,在所述深度图像中确定出与所述匹配点对应的深度值;
基于所述匹配点对应的深度值进行迭代最近点算法配准操作,得到所述目标机器人的空间位姿。
4.根据权利要求1所述的方法,其特征在于,所述分别从两帧所述彩色图像中提取特征点包括:
通过特征提取算法分别从两帧所述彩色图像中提取特征点。
5.根据权利要求1所述的方法,其特征在于,在所述根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿之前,所述方法还包括:
删除所述深度图像中图像深度距离大于预设距离范围的所述深度值对应的特征点。
6.一种机器人的空间位姿确定装置,其特征在于,所述装置包括:
获取模块,用于获取目标机器人的拍摄装置拍摄得到的连续两帧位姿图像;所述位姿图像包括彩色图像和深度图像;
提取模块,用于分别从两帧所述彩色图像中提取特征点;其中,在靠近所述彩色图像的中心像素点的区域选取的特征点的数量,大于在远离所述中心像素点的区域选取的特征点的数量;所述中心像素点为所述彩色图像的图像中心对应的像素点,所述靠近中心像素点的区域,为以所述中心像素点为中心、以预设数量像素为半径形成的区域,或者与所述中心像素点之间的距离小于等于预设数量的像素点形成的区域,或者所述中心像素点的预设邻域的像素点形成的区域;所述远离所述中心像素点的区域,为所述彩色图像中除所述靠近中心像素点的区域之外的区域,在所述靠近中心像素点的区域选取的特征点的数量,为在所述远离中心像素点的区域选取的特征点的数量的预设倍数,所述预设倍数大于1;或,按照所述彩色图像的各像素点所在区域与中心像素点的距离,分别从靠近中心像素点的区域和远离所述中心像素点的区域提取特征点;在所述所在区域提取的特征点的数量,与所述所在区域和所述中心像素点的距离成反比;
匹配模块,用于在从两帧所述彩色图像中分别提取出的特征点后,对提取出的所述特征点进行特征点匹配,通过描述子的差异判断为同一个点的特征点,确定出匹配成功的特征点,得到匹配点;
计算模块,用于根据所述彩色图像和所述深度图像的对应关系,利用所述深度图像中与所述匹配点位置对应的深度值进行位姿计算,得到所述目标机器人的空间位姿;
所述计算模块具体用于:根据所述彩色图像和所述深度图像的对应关系,针对第一帧深度图像和第二帧深度图像分别计算出第一点云和第二点云,再对所述第一点云和所述第二点云进行迭代最近点算法配准操作,得到所述目标机器人的空间位姿。
7.根据权利要求6所述的装置,其特征在于,所述拍摄装置为RGBD相机。
8.根据权利要求6所述的装置,其特征在于,所述计算模块具体用于:根据所述彩色图像中确定的匹配点的位置,以及所述彩色图像和所述深度图像的对应关系,在所述深度图像中确定出与所述匹配点对应的深度值;基于所述匹配点对应的深度值进行迭代最近点算法配准操作,得到所述目标机器人的空间位姿。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
删除模块,用于删除深度图像中图像深度距离大于预设距离范围的深度值对应的特征点。
10.一种机器人,所述机器人上搭载有RGBD相机,其特征在于,所述机器人还包括计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的方法的步骤。
CN202210236826.2A 2022-03-10 2022-03-10 机器人的空间位姿确定方法、装置和机器人 Active CN114750147B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210236826.2A CN114750147B (zh) 2022-03-10 2022-03-10 机器人的空间位姿确定方法、装置和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210236826.2A CN114750147B (zh) 2022-03-10 2022-03-10 机器人的空间位姿确定方法、装置和机器人

Publications (2)

Publication Number Publication Date
CN114750147A CN114750147A (zh) 2022-07-15
CN114750147B true CN114750147B (zh) 2023-11-24

Family

ID=82325441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210236826.2A Active CN114750147B (zh) 2022-03-10 2022-03-10 机器人的空间位姿确定方法、装置和机器人

Country Status (1)

Country Link
CN (1) CN114750147B (zh)

Citations (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5444799A (en) * 1992-03-26 1995-08-22 Sanyo Electric Co., Ltd. Image processing apparatus and method of strain correction in such an image processing apparatus
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP2011215052A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム
JP2017053795A (ja) * 2015-09-11 2017-03-16 株式会社リコー 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
CN106920252A (zh) * 2016-06-24 2017-07-04 阿里巴巴集团控股有限公司 一种图像数据处理方法、装置及电子设备
CN108830191A (zh) * 2018-05-30 2018-11-16 上海电力学院 基于改进emm及orb算法的移动机器人slam方法
CN109859104A (zh) * 2019-01-19 2019-06-07 创新奇智(重庆)科技有限公司 一种视频生成图片的方法、计算机可读介质及转换***
CN110222688A (zh) * 2019-06-10 2019-09-10 重庆邮电大学 一种基于多层次相关滤波的仪表定位方法
CN110349213A (zh) * 2019-06-28 2019-10-18 Oppo广东移动通信有限公司 基于深度信息的位姿确定方法、装置、介质与电子设备
CN110340887A (zh) * 2019-06-12 2019-10-18 西安交通大学 一种基于图像的加油机器人视觉引导的方法
CN110853100A (zh) * 2019-10-24 2020-02-28 东南大学 一种基于改进点线特征的结构化场景视觉slam方法
CN111220148A (zh) * 2020-01-21 2020-06-02 珊口(深圳)智能科技有限公司 移动机器人的定位方法、***、装置及移动机器人
CN111340766A (zh) * 2020-02-21 2020-06-26 北京市商汤科技开发有限公司 目标对象的检测方法、装置、设备和存储介质
AU2020101932A4 (en) * 2020-07-16 2020-10-01 Xi'an University Of Science And Technology Binocular vision–based method and system for pose measurement of cantilever tunneling equipment
JP2020180914A (ja) * 2019-04-26 2020-11-05 オムロン株式会社 対象物の位置姿勢を検出する装置、方法およびプログラム
CN111951335A (zh) * 2020-08-13 2020-11-17 珠海格力电器股份有限公司 确定相机标定参数的方法、装置、处理器和图像采集***
CN112070770A (zh) * 2020-07-16 2020-12-11 国网安徽省电力有限公司检修分公司 一种高精度三维地图与二维栅格地图同步构建方法
CN112164117A (zh) * 2020-09-30 2021-01-01 武汉科技大学 一种基于Kinect相机的V-SLAM位姿估算方法
CN112288796A (zh) * 2020-12-18 2021-01-29 南京佗道医疗科技有限公司 一种透视图像标记点中心提取方法
CN112416000A (zh) * 2020-11-02 2021-02-26 北京信息科技大学 无人驾驶方程式赛车环境感知和导航方法及转向控制方法
CN112752028A (zh) * 2021-01-06 2021-05-04 南方科技大学 移动平台的位姿确定方法、装置、设备和存储介质
CN112894815A (zh) * 2021-01-25 2021-06-04 西安工业大学 视觉伺服机械臂物品抓取最佳位姿检测方法
CN113592946A (zh) * 2021-07-27 2021-11-02 深圳甲壳虫智能有限公司 位姿定位方法、装置、智能机器人及存储介质
CN113902932A (zh) * 2021-10-22 2022-01-07 Oppo广东移动通信有限公司 特征提取方法、视觉定位方法及装置、介质和电子设备
CN113902944A (zh) * 2021-09-30 2022-01-07 青岛信芯微电子科技股份有限公司 模型的训练及场景识别方法、装置、设备及介质
CN113947576A (zh) * 2021-10-15 2022-01-18 北京极智嘉科技股份有限公司 容器定位方法、装置、容器存取设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010010514A1 (en) * 1999-09-07 2001-08-02 Yukinobu Ishino Position detector and attitude detector
JP2014123230A (ja) * 2012-12-20 2014-07-03 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP6129981B2 (ja) * 2013-10-01 2017-05-17 株式会社日立製作所 移動***置推定装置および移動***置推定方法
US10593060B2 (en) * 2017-04-14 2020-03-17 TwoAntz, Inc. Visual positioning and navigation device and method thereof
CN108965687B (zh) * 2017-05-22 2021-01-29 阿里巴巴集团控股有限公司 拍摄方向识别方法、服务器及监控方法、***及摄像设备
US10902634B2 (en) * 2018-12-04 2021-01-26 Here Global B.V. Method and apparatus for providing feature triangulation

Patent Citations (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5444799A (en) * 1992-03-26 1995-08-22 Sanyo Electric Co., Ltd. Image processing apparatus and method of strain correction in such an image processing apparatus
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP2011215052A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム
JP2017053795A (ja) * 2015-09-11 2017-03-16 株式会社リコー 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
CN106920252A (zh) * 2016-06-24 2017-07-04 阿里巴巴集团控股有限公司 一种图像数据处理方法、装置及电子设备
CN108830191A (zh) * 2018-05-30 2018-11-16 上海电力学院 基于改进emm及orb算法的移动机器人slam方法
CN109859104A (zh) * 2019-01-19 2019-06-07 创新奇智(重庆)科技有限公司 一种视频生成图片的方法、计算机可读介质及转换***
JP2020180914A (ja) * 2019-04-26 2020-11-05 オムロン株式会社 対象物の位置姿勢を検出する装置、方法およびプログラム
CN110222688A (zh) * 2019-06-10 2019-09-10 重庆邮电大学 一种基于多层次相关滤波的仪表定位方法
CN110340887A (zh) * 2019-06-12 2019-10-18 西安交通大学 一种基于图像的加油机器人视觉引导的方法
CN110349213A (zh) * 2019-06-28 2019-10-18 Oppo广东移动通信有限公司 基于深度信息的位姿确定方法、装置、介质与电子设备
CN110853100A (zh) * 2019-10-24 2020-02-28 东南大学 一种基于改进点线特征的结构化场景视觉slam方法
CN111220148A (zh) * 2020-01-21 2020-06-02 珊口(深圳)智能科技有限公司 移动机器人的定位方法、***、装置及移动机器人
CN111340766A (zh) * 2020-02-21 2020-06-26 北京市商汤科技开发有限公司 目标对象的检测方法、装置、设备和存储介质
AU2020101932A4 (en) * 2020-07-16 2020-10-01 Xi'an University Of Science And Technology Binocular vision–based method and system for pose measurement of cantilever tunneling equipment
CN112070770A (zh) * 2020-07-16 2020-12-11 国网安徽省电力有限公司检修分公司 一种高精度三维地图与二维栅格地图同步构建方法
CN111951335A (zh) * 2020-08-13 2020-11-17 珠海格力电器股份有限公司 确定相机标定参数的方法、装置、处理器和图像采集***
CN112164117A (zh) * 2020-09-30 2021-01-01 武汉科技大学 一种基于Kinect相机的V-SLAM位姿估算方法
CN112416000A (zh) * 2020-11-02 2021-02-26 北京信息科技大学 无人驾驶方程式赛车环境感知和导航方法及转向控制方法
CN112288796A (zh) * 2020-12-18 2021-01-29 南京佗道医疗科技有限公司 一种透视图像标记点中心提取方法
CN112752028A (zh) * 2021-01-06 2021-05-04 南方科技大学 移动平台的位姿确定方法、装置、设备和存储介质
CN112894815A (zh) * 2021-01-25 2021-06-04 西安工业大学 视觉伺服机械臂物品抓取最佳位姿检测方法
CN113592946A (zh) * 2021-07-27 2021-11-02 深圳甲壳虫智能有限公司 位姿定位方法、装置、智能机器人及存储介质
CN113902944A (zh) * 2021-09-30 2022-01-07 青岛信芯微电子科技股份有限公司 模型的训练及场景识别方法、装置、设备及介质
CN113947576A (zh) * 2021-10-15 2022-01-18 北京极智嘉科技股份有限公司 容器定位方法、装置、容器存取设备及存储介质
CN113902932A (zh) * 2021-10-22 2022-01-07 Oppo广东移动通信有限公司 特征提取方法、视觉定位方法及装置、介质和电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于RGB-D相机的移动机器人定位分析与实现;彭蔚枝;袁锋伟;周志伟;;智能计算机与应用(第03期);全文 *
机载光电成像平台的多目标自主定位***研究;周前飞;刘晶红;熊文卓;宋悦铭;;光学学报(第01期);全文 *

Also Published As

Publication number Publication date
CN114750147A (zh) 2022-07-15

Similar Documents

Publication Publication Date Title
US10789717B2 (en) Apparatus and method of learning pose of moving object
CN107230225B (zh) 三维重建的方法和装置
KR101470112B1 (ko) 미리 계산된 스케일-공간으로부터의 데이지 서술자 생성
US10726580B2 (en) Method and device for calibration
Jiang et al. Multiscale locality and rank preservation for robust feature matching of remote sensing images
US10839599B2 (en) Method and device for three-dimensional modeling
CN112990228B (zh) 图像特征匹配方法和相关装置、设备及存储介质
JP2011508323A (ja) 不変の視覚場面及び物体の認識
CN114022558B (zh) 图像定位方法、装置、计算机设备和存储介质
CN115661371B (zh) 三维对象建模方法、装置、计算机设备及存储介质
CN116931583B (zh) 移动对象的确定方法和避让方法、装置、设备及存储介质
CN116740669B (zh) 多目图像检测方法、装置、计算机设备和存储介质
Zhang et al. Data association between event streams and intensity frames under diverse baselines
CN114750147B (zh) 机器人的空间位姿确定方法、装置和机器人
CN116977671A (zh) 基于图像空间定位的目标跟踪方法、装置、设备及存储介质
CN114882115B (zh) 车辆位姿的预测方法和装置、电子设备和存储介质
CN116091998A (zh) 图像处理方法、装置、计算机设备和存储介质
CN116468753A (zh) 目标追踪方法、装置、设备、存储介质和程序产品
CN115564639A (zh) 背景虚化方法、装置、计算机设备和存储介质
CN115063473A (zh) 物体高度的检测方法、装置、计算机设备、存储介质
de Lima et al. Toward a smart camera for fast high-level structure extraction
CN116481516B (zh) 机器人、地图创建方法和存储介质
CN116758517B (zh) 基于多目图像的三维目标检测方法、装置和计算机设备
CN116664682A (zh) 机器人、地图生成方法和存储介质
CN116883491A (zh) 调整距离确定方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant