CN111531546B - 一种机器人位姿估计方法、装置、设备及存储介质 - Google Patents
一种机器人位姿估计方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111531546B CN111531546B CN202010443914.0A CN202010443914A CN111531546B CN 111531546 B CN111531546 B CN 111531546B CN 202010443914 A CN202010443914 A CN 202010443914A CN 111531546 B CN111531546 B CN 111531546B
- Authority
- CN
- China
- Prior art keywords
- image
- environment image
- robot
- pose estimation
- static
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种机器人位姿估计方法,包括:获取目标机器人采集到的环境图像;利用Deep Snake实例分割网络对环境图像进行实例分割,剔除环境图像中的移动物体,得到静态环境图像;依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿。本方法能够更加精准地剔除运动物体,从而提高机器人位姿估计的准确度;并且,Deep Snake实例分割网络是通过环卷积核来处理型线,因此能够减少计算量,从而提高对机器人位姿估计的实时性。本申请还公开了一种机器人位姿估计装置、设备及计算机可读存储介质,均具有上述有益效果。
Description
技术领域
本发明涉及机器人导航建图领域,特别涉及一种机器人位姿估计方法、装置、设备及计算机可读存储介质。
背景技术
SLAM(simultaneous localization and mapping,即时定位与地图构建)技术是机器人的核心技术之一,机器人在环境中通过传感器的输入数据,即时确定自身在环境中的位置和姿态,并建立环境地图的一种技术。具体的,机器人在移动过程中通过相机采集环境图像,对环境图像进行特征点提取和帧间匹配,得到对关键点坐标变化的观测数据,并建立观测信息和机器人位姿之间的函数关系,使用最优化方法求解该函数的极值,最终得到估计出的机器人位姿。
近些年,视觉SLAM技术已经取得了很大的进步,位姿估计和建图的准确性均得到提高,实时性也因为算法和硬件的发展而得以实现。但是,目前的视觉SLAM技术多是以静态场景为基础,即假定周围环境是静止不动的,只有机器人在其中移动。但是在实际应用中,这样的场景条件很难满足,室内跑动的宠物,室外行驶的车辆等均会干扰机器人的位姿估计过程,使得机器人的位姿估计不够准确。
现有技术中,通过实例分割技术剔除环境图像中的运动物体,再根据剔除掉运动物体后的静态环境图像进行位姿估计。但是,现有技术中的实例分割技术主要的工作流程为:先检测运动物体的矩形框,然后在矩形框中沿着运动物体边界进行逐像素的分割;这样的方式存在着矩形框划分不准,物体轮廓粗糙的问题,使得剔除运动物体的过程不够精准,从而影响位姿估计的准确度;另外,现有技术的方法中进行逐像素分割的过程的计算量很大,使得对机器人的位姿估计存在延迟,即不能实时地对机器人进行位姿估计。
因此,如何提高对机器人位姿估计的准确度和实时性,是本领域技术人员目前需要解决的技术问题。
发明内容
有鉴于此,本发明的目的在于提供一种机器人位姿估计方法,能够提高对机器人位姿估计的准确度和实时性;本发明的另一目的是提供一种机器人位姿估计装置、设备及计算机可读存储介质,均具有上述有益效果。
为解决上述技术问题,本发明提供一种机器人位姿估计方法,包括:
获取目标机器人采集到的环境图像;
利用Deep Snake实例分割网络对所述环境图像进行实例分割,剔除所述环境图像中的移动物体,得到静态环境图像;
依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿。
优选地,在所述利用Deep Snake实例分割网络对所述环境图像进行实例分割,剔除所述环境图像中的移动物体,得到静态环境图像之后,进一步包括:
利用所述静态环境图像和掩模图像进行图像修复。
优选地,在所述利用所述静态环境图像和掩模图像进行图像修复之后,进一步包括:
依据修复后的所述静态环境图像和与所述环境图像对应的深度图像进行稠密建图,得出与修复后的所述静态环境图像对应的环境三维地图。
优选地,在所述获取目标机器人采集到的环境图像之后,进一步包括:
对所述环境图像进行图像预处理操作。
优选地,所述利用所述静态环境图像和掩模图像进行图像修复的过程,具体包括:
将所述静态环境图像和所述掩模图像输入至预先训练出的对抗生成网络中,利用所述对抗生成网络进行图像修复。
优选地,在所述依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿之后,进一步包括:
显示所述估计位姿。
优选地,在所述依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿之后,进一步包括:
按照时间顺序记录各时间点确定出的所述估计位姿。
为解决上述技术问题,本发明还提供一种机器人位姿估计装置,包括:
获取模块,用于获取目标机器人采集到的环境图像;
剔除模块,用于利用Deep Snake实例分割网络对所述环境图像进行实例分割,剔除所述环境图像中的移动物体,得到静态环境图像;
估计模块,用于依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿。
为解决上述技术问题,本发明还提供一种机器人位姿估计设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述任一种机器人位姿估计方法的步骤。
为解决上述技术问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种机器人位姿估计方法的步骤。
本发明提供的一种机器人位姿估计方法,在获取目标机器人采集到的环境图像之后;利用Deep Snake实例分割网络对环境图像进行实例分割,剔除环境图像中的移动物体,得到静态环境图像;再依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿。由于Deep Snake实例分割网络是通过先给定一个包围运动物体的初始型线来表示运动物体的轮廓,然后将运动物体的极点坐标作为变量,通过最小化目标函数来优化极点坐标,从而确定出运动物体的轮廓,因此相较于现有技术中通过矩形框来剔除运动物体的方式,本方法能够更加精准地剔除运动物体,从而提高机器人位姿估计的准确度;并且,Deep Snake实例分割网络是通过环卷积核来处理型线,因此能够减少计算量,从而提高对机器人位姿估计的实时性。
为解决上述技术问题,本发明还提供了一种机器人位姿估计装置、设备及计算机可读存储介质,均具有上述有益效果。
附图说明
为了更清楚地说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种机器人位姿估计方法的流程图;
图2为本发明实施例提供的一种Deep Snake实例分割网络中使用环卷积核来处理型线的示意图;
图3为本发明实施例提供的一种机器人位姿估计方法的流程示意图;
图4为本发明实施例提供的一种机器人位姿估计装置的结构图;
图5为本发明实施例提供的一种机器人位姿估计设备的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例的核心是提供一种机器人位姿估计方法,能够提高对机器人位姿估计的准确度和实时性;本发明的另一核心是提供一种机器人位姿估计装置、设备及计算机可读存储介质,均具有上述有益效果。
为了使本领域技术人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。
图1为本发明实施例提供的一种机器人位姿估计方法的流程图。如图1所示,一种机器人位姿估计方法包括:
S10:获取目标机器人采集到的环境图像。
具体的,在本实施例中,首先获取目标机器人利用预先设置的相机采集环境图像,在实际操作中,对相机的具体类型和型号均不做限定。
S20:利用Deep Snake实例分割网络对环境图像进行实例分割,剔除环境图像中的移动物体,得到静态环境图像。
具体的,在获取到环境图像后,将环境图像输入至预先训练出的Deep Snake实例分割网络中。在Deep Snake实例分割网络中,首先确定出运动物体的极点,即运动物体最左、最右、最上、最下四个点,并依据运动物体的极点来构造初始型线:在每个极点上延伸出一条线段,将线段连接起来的八边形作为初始型线;其次,基于环境图像的特征图,对初始型线的每个极点进行特征提取,得到定义在初始型线上的特征点;然后,用环卷积构成的网络进行型线上的特征学习,映射输出指向运动物体轮廓的偏差;最后,根据偏差变形型线得到最终的运动物体的轮廓线,并根据运动物体的轮廓线对运动物体进行剔除,即将运动物体从环境图像中剔除,从而得出静态环境图像。
Deep Snake实例分割网络是通过先给定一个包围运动物体的初始型线来表示运动物体的轮廓,然后将运动物体的极点坐标作为变量,通过最小化目标函数来优化极点坐标,从而确定出运动物体的轮廓。其中,目标函数由两部分组成:图像项和型线项;其中,图像项用来将型线拉向环境图像中的运动物体所在的位置,型线项用于约束型线的形状,保证光滑性和节点不交叉。
如图2所示,为本发明实施例提供的一种Deep Snake实例分割网络中使用环卷积核来处理型线的示意图;结合图2可知,型线是一组有序的、首尾相连的点,可以看作一个环图;这种环图的邻居节点个数为2,顺序固定,因此可以定义卷积核;其中,其中白色节点代表定义在型线上的输入特征,即极点的特征点,表示为:
灰色的节点是卷积核,黑色是卷积输出,环卷积过程可表示为:
其中,fN表示1D周期性信号,k表示可学习核函数,*表示卷积;N表示型线上得节点数量,i表示当前节点,j表示循环节点变量。
S30:依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿。
具体的,在得出静态环境图像过之后,对静态环境图像进行特征点提取和匹配,并进行关键帧的选取;根据选取的关键帧,并通过局部优化、回环检测和全局优化操作,得到目标机器人的估计位姿。需要说明的是,通过局部优化、回环检测和全局优化进行位姿估计以确定出目标机器人的估计位姿是本领域技术人员的公知常识,此处不再赘述。
本发明实施例提供的一种机器人位姿估计方法,在获取目标机器人采集到的环境图像之后;利用Deep Snake实例分割网络对环境图像进行实例分割,剔除环境图像中的移动物体,得到静态环境图像;再依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿。由于Deep Snake实例分割网络是通过先给定一个包围运动物体的初始型线来表示运动物体的轮廓,然后将运动物体的极点坐标作为变量,通过最小化目标函数来优化极点坐标,从而确定出运动物体的轮廓,因此相较于现有技术中通过矩形框来剔除运动物体的方式,本方法能够更加精准地剔除运动物体,从而提高机器人位姿估计的准确度;并且,DeepSnake实例分割网络是通过环卷积核来处理型线,因此能够减少计算量,从而提高对机器人位姿估计的实时性。
如图3所示的一种机器人位姿估计方法的流程示意图,在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例在利用Deep Snake实例分割网络对环境图像进行实例分割,剔除环境图像中的移动物体,得到静态环境图像之后,进一步包括:
利用静态环境图像和掩模图像进行图像修复。
具体的,在本实施例中,是进一步对剔除运动物体之后的环境图像,即静态环境图像进行图像修复。进行图像修复时,需要利用静态环境图像和相应的掩模图像;其中,掩模图像指的是剔除掉运动物体部分的图像。
作为优选的实施方式,利用静态环境图像和掩模图像进行图像修复的过程,具体包括:
将静态环境图像和掩模图像输入至预先训练出的对抗生成网络中,利用对抗生成网络进行图像修复。
具体的,对抗生成网络由一个改进的单步的UNet网络图像生成器和一个改进的PatchGAN判别器组成。改进的核心在于3D卷积层,采用3D卷积可以保证图像流修复过程中图像的时空一致性。在训练网络时,将静态环境图像和相应掩模图像作为图像流输入到生成对抗网络的图像生成器中,经过13层3D门控卷积层,对带有的掩模的图像进行卷积,计算过程如下:
Gat,x,y=∑∑Wg·Ft,x,y;
Fet,x,y=∑∑Wf·Ft,x,y;
Opt,x,y=σ(Gat,x,y)Φ(Fet,x,y);
其中,Ft,x,y表示输入的特征,即静态环境图像和相应掩模图像;Wg表示门控卷积滤波器;Gat,x,y表示得到的门控值;Fet,x,y表示输出特征;Wf表示朴素卷积滤波器;Opt,x,y表示最终的输出,即对静态环境图像进行图像修复后得到的图像;σ表示Sigmoid函数;Φ表示LeakyReLU激活函数;脚标t,x,y分别代表图像流的时空坐标系。
需要说明的是,改进的PatchGAN判别器由6个3D卷积层组成,卷积核的大小为3×5×5,步长为1×2×2;
训练模型的总损失函数定义为:
Llot=λl1Ll1+λl1,maskLl1,mask+λpLp+λsLs+λGLG;
其中,Vt,x,y,Ot,x,y和Mt,x,y分别表示输入视频流、输出视频流和掩模视频流,和代表神经网络第p层激活函数的输入和输出,Np表示第p层的元素个数,P为总层数,/>和/>表示区域形状为(HpWp)×Cp的VGG特征,Hp和Wp表示高度和宽度,Cp是格拉姆矩阵维度,z代表输入的待修复视频流,D代表改进的PatchGAN判别器,G代表视频修复网络。
可以理解的是,损失函数越小,模型的鲁棒性就越好,当计算得到损失足够小后即得到了修复好的图像流,也就是完成对静态环境图像的图像修复。
本实施例通过进一步对静态环境图像进行图像修复,能够得出完整的且剔除掉运动物体的图像,便于用户查看,从而进一步提升用户的使用体验。
在上述实施例的技术上,本实施例在利用静态环境图像和掩模图像进行图像修复之后,进一步包括:
依据修复后的静态环境图像和与环境图像对应的深度图像进行稠密建图,得出与修复后的静态环境图像对应的环境三维地图。
需要说明的是,在本实施中,目标机器人利用RGB-D深度相机采集环境图像和与环境图像对应的深度图像,可以理解的是,环境图像为RGB图像,深度图像为包含与视点的环境对象的表面的距离信息的图像,在采集RGB图像和深度图像后,需要对RGB图像和深度图像进行同步。在对静态环境图像进行图像修复之后,本实施例进一步依据修复后的静态环境图像和与环境图像对应的深度图像进行稠密建图,得出与修复后的静态环境图像对应的环境三维地图。具体的,稠密建图指的是利用深度图像进行三维建模,即得出与环境图像对的三维模型,然后利用静态环境图像为三维模型设置颜色纹路等信息,从而得出与修复后的静态环境图像对应的环境三维地图。
可见,本实施例通过进一步依据修复后的静态环境图像和与环境图像对应的深度图像进行稠密建图,得出与修复后的静态环境图像对应的环境三维地图,便于用户依据环境三维地图对目标机器人进行管理控制,从而进一步提升用户的使用体验。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例在依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿之后,进一步包括:
显示估计位姿。
具体的,在本实施例中,是在依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿之后,通过预设的显示装置显示确定出的估计位姿;且本实施例对显示装置的具体类型不做限定。
在实际操作中,一般是以模拟图像的形式显示估计位姿,以便于用户能够更直观地查看目标机器人的估计位姿以及目标机器人的运动情况,从而进一步提升用户的使用体验。
上文对于本发明提供的一种机器人位姿估计方法的实施例进行了详细的描述,本发明还提供了一种与该方法对应的机器人位姿估计装置、设备及计算机可读存储介质,由于装置、设备及计算机可读存储介质部分的实施例与方法部分的实施例相互照应,因此装置、设备及计算机可读存储介质部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
图4为本发明实施例提供的一种机器人位姿估计装置的结构图,如图4所示,一种机器人位姿估计装置包括:
获取模块41,用于获取目标机器人采集到的环境图像;
剔除模块42,用于利用Deep Snake实例分割网络对环境图像进行实例分割,剔除环境图像中的移动物体,得到静态环境图像;
估计模块43,用于依据静态环境图像进行位姿估计,确定出目标机器人的估计位姿。
本发明实施例提供的机器人位姿估计装置,具有上述机器人位姿估计方法的有益效果。
作为优选的实施方式,一种机器人位姿估计装置进一步包括:
图像修复模块,用于利用静态环境图像和掩模图像进行图像修复。
作为优选的实施方式,一种机器人位姿估计装置进一步包括:
三维建模模块,用于依据修复后的静态环境图像和与环境图像对应的深度图像进行稠密建图,得出与修复后的静态环境图像对应的环境三维地图。
作为优选的实施方式,一种机器人位姿估计装置进一步包括:
显示模块,用于显示估计位姿。
图5为本发明实施例提供的一种机器人位姿估计设备的结构图,如图5所示,一种机器人位姿估计设备包括:
存储器51,用于存储计算机程序;
处理器52,用于执行计算机程序时实现如上述机器人位姿估计方法的步骤。
本发明实施例提供的机器人位姿估计设备,具有上述机器人位姿估计方法的有益效果。
为解决上述技术问题,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上述机器人位姿估计方法的步骤。
本发明实施例提供的计算机可读存储介质,具有上述机器人位姿估计方法的有益效果。
以上对本发明所提供的机器人位姿估计方法、装置、设备及计算机可读存储介质进行了详细介绍。本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
Claims (7)
1.一种机器人位姿估计方法,其特征在于,包括:
获取目标机器人采集到的环境图像;
利用Deep Snake实例分割网络对所述环境图像进行实例分割,剔除所述环境图像中的移动物体,得到静态环境图像;
依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿;
在所述利用Deep Snake实例分割网络对所述环境图像进行实例分割,剔除所述环境图像中的移动物体,得到静态环境图像之后,进一步包括:
利用所述静态环境图像和掩模图像进行图像修复。
2.根据权利要求1所述的方法,其特征在于,在所述利用所述静态环境图像和掩模图像进行图像修复之后,进一步包括:
依据修复后的所述静态环境图像和与所述环境图像对应的深度图像进行稠密建图,得出与修复后的所述静态环境图像对应的环境三维地图。
3.根据权利要求1所述的方法,其特征在于,所述利用所述静态环境图像和掩模图像进行图像修复的过程,具体包括:
将所述静态环境图像和所述掩模图像输入至预先训练出的对抗生成网络中,利用所述对抗生成网络进行图像修复。
4.根据权利要求1至3任一项所述的方法,其特征在于,在所述依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿之后,进一步包括:
显示所述估计位姿。
5.一种机器人位姿估计装置,其特征在于,包括:
获取模块,用于获取目标机器人采集到的环境图像;
剔除模块,用于利用Deep Snake实例分割网络对所述环境图像进行实例分割,剔除所述环境图像中的移动物体,得到静态环境图像;
估计模块,用于依据所述静态环境图像进行位姿估计,确定出所述目标机器人的估计位姿;
在所述剔除模块之后,所述机器人位姿估计装置还用于:利用所述静态环境图像和掩模图像进行图像修复。
6.一种机器人位姿估计设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述的机器人位姿估计方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的机器人位姿估计方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010443914.0A CN111531546B (zh) | 2020-05-22 | 2020-05-22 | 一种机器人位姿估计方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010443914.0A CN111531546B (zh) | 2020-05-22 | 2020-05-22 | 一种机器人位姿估计方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111531546A CN111531546A (zh) | 2020-08-14 |
CN111531546B true CN111531546B (zh) | 2023-06-16 |
Family
ID=71969357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010443914.0A Active CN111531546B (zh) | 2020-05-22 | 2020-05-22 | 一种机器人位姿估计方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111531546B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036300B (zh) * | 2020-08-31 | 2022-08-05 | 合肥工业大学 | 一种基于多尺度时空传播层的运动目标检测方法 |
WO2023000294A1 (zh) * | 2021-07-23 | 2023-01-26 | 深圳市大疆创新科技有限公司 | 位姿估计方法、激光雷达-惯性里程计、可移动平台及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109960742B (zh) * | 2019-02-18 | 2021-11-05 | 苏州科达科技股份有限公司 | 局部信息的搜索方法及装置 |
CN110378345B (zh) * | 2019-06-04 | 2022-10-04 | 广东工业大学 | 基于yolact实例分割模型的动态场景slam方法 |
CN110532602B (zh) * | 2019-07-19 | 2022-11-18 | 中国地质大学(武汉) | 一种基于平面图图像的室内自动制图与建模方法 |
CN111127346B (zh) * | 2019-12-08 | 2023-09-05 | 复旦大学 | 基于部分到整体注意力机制的多层次图像修复方法 |
CN111047541B (zh) * | 2019-12-30 | 2023-06-02 | 北京工业大学 | 一种基于小波变换注意力模型的图像修复方法 |
-
2020
- 2020-05-22 CN CN202010443914.0A patent/CN111531546B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111531546A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596974B (zh) | 动态场景机器人定位建图***及方法 | |
Kumar et al. | Monocular fisheye camera depth estimation using sparse lidar supervision | |
CN104115192B (zh) | 三维近距离交互的改进或与其有关的改进 | |
KR20220024517A (ko) | 2차원 이미지들로부터의 3차원의 장면 재구성 | |
CN109472828B (zh) | 一种定位方法、装置、电子设备及计算机可读存储介质 | |
CN112991413A (zh) | 自监督深度估测方法和*** | |
JP6397379B2 (ja) | 変化領域検出装置、方法、及びプログラム | |
Rout | A survey on object detection and tracking algorithms | |
CN110246181B (zh) | 基于锚点的姿态估计模型训练方法、姿态估计方法和*** | |
CN114663502A (zh) | 物体姿态估计、图像处理方法及相关设备 | |
CN111553247B (zh) | 一种基于改进骨干网络的视频结构化***、方法及介质 | |
CN110941996A (zh) | 一种基于生成对抗网络的目标及轨迹增强现实方法和*** | |
CN111476089B (zh) | 一种图像中多模态信息融合的行人检测方法、***及终端 | |
CN111531546B (zh) | 一种机器人位姿估计方法、装置、设备及存储介质 | |
CN111581313A (zh) | 一种基于实例分割的语义slam鲁棒性改进方法 | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
CN115147488B (zh) | 一种基于密集预测的工件位姿估计方法与抓取*** | |
CN113781519A (zh) | 目标跟踪方法和目标跟踪装置 | |
CN115482556A (zh) | 关键点检测模型训练及虚拟角色驱动的方法和对应的装置 | |
Altuntaş et al. | Comparison of 3-dimensional SLAM systems: RTAB-Map vs. Kintinuous | |
CN115578460A (zh) | 基于多模态特征提取与稠密预测的机器人抓取方法与*** | |
Hempel et al. | Pixel-wise motion segmentation for SLAM in dynamic environments | |
CN112465858A (zh) | 基于概率网格滤波的语义视觉slam方法 | |
CN115131407B (zh) | 面向数字仿真环境的机器人目标跟踪方法、装置和设备 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230512 Address after: 250098 building S02, No. 1036, Gaoxin Inspur Road, Jinan, Shandong Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd. Address before: 250104 1st floor, R & D building, 2877 Kehang Road, Suncun Town, high tech Zone, Jinan City, Shandong Province Applicant before: JINAN INSPUR HIGH-TECH TECHNOLOGY DEVELOPMENT Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |