CN112508933B - 一种基于复杂空间障碍物定位的柔性机械臂运动避障方法 - Google Patents
一种基于复杂空间障碍物定位的柔性机械臂运动避障方法 Download PDFInfo
- Publication number
- CN112508933B CN112508933B CN202011519003.8A CN202011519003A CN112508933B CN 112508933 B CN112508933 B CN 112508933B CN 202011519003 A CN202011519003 A CN 202011519003A CN 112508933 B CN112508933 B CN 112508933B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- mechanical arm
- space
- depth
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000033001 locomotion Effects 0.000 title claims abstract description 21
- 238000005259 measurement Methods 0.000 claims abstract description 19
- 238000003708 edge detection Methods 0.000 claims abstract description 7
- 230000009466 transformation Effects 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000178 monomer Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computing Systems (AREA)
- Pure & Applied Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Optimization (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于复杂空间障碍物定位的柔性机械臂运动避障方法,涉及柔性机械臂避障技术领域,包括以下步骤:预先采集目标空间图像特征信息,并作为RCF深度网络的输入;RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;单线激光对获取的障碍物区域进行深度测量;将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型;进行对障碍物标记,并作为机械臂运动避障。本发明实现在非结构性复杂空间中长时间以及高精度工作中,提供路径规划指导,适用于卫星装配等目标空间具有复杂、非结构性特点,满足任务精度高的自动化装配任务,指导效率高,路径规划精确,应用范围广。
Description
技术领域
本发明涉及柔性机械臂避障技术领域,具体来说,涉及一种基于复杂空间障碍物定位的柔性机械臂运动避障方法。
背景技术
小卫星中单体设备的安装是其总装过程的重要部分。由于小卫星内部结构复杂、布线空间狭窄、零部件数目多,主要设备一般重量在十几公斤及以上,目前其装配方式以手工作业为主。手工装配要求装配人员在托举重物的同时,还要保持设备与卫星本体的相对定位精度,给装配人员的操作带来了极大的困难,也影响了卫星总装的装配效率,严重时还可能会损坏卫星或造成操作人员受伤。同时,对于小卫星,每个型号卫星的内部结构都不相同,且布线复杂,因此很难保证操作对象的一致性。为了提高小卫星总装效率,有必要开发小卫星智能装配***,以工业机器人为平台,通过基于小卫星数字化模型的机器人离线编程,并结合机器视觉的实时反馈,实现可以适应不同型号小卫星的单机设备自动化装配,并确保不会发生部件与卫星的碰撞。
卫星的零部件装配都是在狭小空间中进行,装配过程存在视野受限、目标位置受遮挡等问题,装配空间因任务而异,具有复杂、非结构性的特点。因此,小卫星智能装配***的首要任务是对卫星装配过程的不确定环境进行精确测量,主要是对障碍识别和检测。由于固定设备及本体安装前后在空间数据库中都有呈现,机器手及抓取的设备可以通过建模完成避障计算,所以有可能出现障碍的就是空间内固定的线缆。
目前,机械臂避障方法主要基于视觉信息实现障碍物的检测与定位,在此基础上完成机械臂路径规划。但是,由于摄像头视角、机械臂遮挡等因素导致障碍物的定位精度低、误差大,大大增加了发生碰撞的风险,尤其是在目标空间的结构具有不确定性和复杂性的情况下。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于复杂空间障碍物定位的柔性机械臂运动避障方法,以克服现有相关技术所存在的上述技术问题。
本发明的技术方案是这样实现的:
一种基于复杂空间障碍物定位的柔性机械臂运动避障方法,包括以下步骤:
步骤S1:预先采集目标空间图像特征信息,并作为RCF深度网络的输入;
步骤S2:RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;
步骤S3:单线激光对获取的障碍物区域进行深度测量,其中包括测量目标深度和获得多帧融合的深度图;
步骤S4:将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型;
步骤S5:进行对障碍物标记,并作为机械臂运动避障;
其中,所述目标三维点云模型,进一步包括所述视觉传感器和所述激光传感器的相对位置参数对获取到的障碍物距离信息进行配准并与位置信息融合,获得目标空间下障碍物的三维点云模型,所述信息融合,包括以下步骤:
预先选取所述柔性机械臂的三对自由度匹配点;
标定变换矩阵,对所述三维点云模型进行坐标系变换,通过叠加的方式与原模型进行融合;
进一步包括三维点云模型对齐,其三维点云模型的对齐为矩阵变换,表示为:
设定变换矩阵Rx,Ry,Rz,T,其中:
T=[Tx,Ty,Tz]
其中,α,β,φ分别为传感器绕x,y,z轴发生的旋转角,Tx,Ty,Tz为传感器发生的位移,R为旋转变换矩阵;
其变换公式表示为:
确定变换矩阵与当前坐标系下点坐标(x′,y′,z′),确定原坐标系下的点坐标(x,y,z),完成三维点云模型对齐。
进一步的,所述采集目标空间图像特征信息,包括视觉传感器获取目标空间下的图像。
进一步的,所述单线激光对获取的障碍物区域进行深度测量,包括单线激光传感器主动对空间内的障碍物区域进行扫描,获取障碍物深度信息。
进一步的,所述单线激光传感器固定于所述柔性机械臂末端,用于随所述柔性机械臂进行平移或旋转,对目标区域进行深度测量。
本发明的有益效果:
本发明基于复杂空间障碍物定位的柔性机械臂运动避障方法,通过预先采集目标空间图像特征信息,并作为RCF深度网络的输入;其RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;单线激光对获取的障碍物区域进行深度测量;将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型,进行对障碍物标记,并作为机械臂运动避障,实现在非结构性复杂空间中长时间以及高精度工作中,提供路径规划指导,适用于卫星装配等目标空间具有复杂、非结构性特点,满足任务精度高的自动化装配任务,指导效率高,路径规划精确,应用范围广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于复杂空间障碍物定位的柔性机械臂运动避障方法的流程示意图;
图2是根据本发明实施例的一种基于复杂空间障碍物定位的柔性机械臂运动避障方法的流程判定示意图;
图3是根据本发明实施例的一种基于复杂空间障碍物定位的柔性机械臂运动避障方法的装配空间示意图;
图4是根据本发明实施例的一种基于复杂空间障碍物定位的柔性机械臂运动避障方法的分割后的线缆区域示意图;
图5是根据本发明实施例的一种基于复杂空间障碍物定位的柔性机械臂运动避障方法的线缆深度图示意图;
图6是根据本发明实施例的一种基于复杂空间障碍物定位的柔性机械臂运动避障方法的线缆三维坐标信息示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了一种基于复杂空间障碍物定位的柔性机械臂运动避障方法。
如图1-图2所示,根据本发明实施例的基于复杂空间障碍物定位的柔性机械臂运动避障方法,包括以下步骤:
步骤S1、预先采集目标空间图像特征信息,并作为RCF深度网络的输入;
步骤S2、RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;
步骤S3、单线激光对获取的障碍物区域进行深度测量,其中包括测量目标深度和获得多帧融合的深度图;
步骤S4、将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型;
步骤S5、进行对障碍物标记,并作为机械臂运动避障。
其中,所述采集目标空间图像特征信息,包括视觉传感器获取目标空间下的图像。
其中,所述单线激光对获取的障碍物区域进行深度测量,包括单线激光传感器主动对空间内的障碍物区域进行扫描,获取障碍物深度信息。
其中,所述单线激光传感器固定于所述柔性机械臂末端,用于随所述柔性机械臂进行平移或旋转,对目标区域进行深度测量。
其中,所述目标三维点云模型,进一步包括所述视觉传感器和所述激光传感器的相对位置参数对获取到的障碍物距离信息进行配准并与位置信息融合,获得目标空间下障碍物的三维点云模型。
其中,所述信息融合,包括以下步骤:
预先选取所述柔性机械臂的三对自由度匹配点;
标定变换矩阵,对所述三维点云模型进行坐标系变换,通过叠加的方式与原模型进行融合。
其中,还包括三维点云模型对齐,其三维点云模型的对齐为矩阵变换,表示为:
设定变换矩阵Rx,Ry,Rz,T,其中:
T=[Tx,Ty,Tz]
其中,α,β,φ分别为传感器绕x,y,z轴发生的旋转角,Tx,Ty,Tz为传感器发生的位移,R为旋转变换矩阵;
其变换公式表示为:
确定变换矩阵与当前坐标系下点坐标(x′,y′,z′),确定原坐标系下的点坐标(x,y,z),完成三维点云模型对齐。
借助于上述技术方案,通过预先采集目标空间图像特征信息,并作为RCF深度网络的输入;其RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;单线激光对获取的障碍物区域进行深度测量;将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型,进行对障碍物标记,并作为机械臂运动避障,实现在非结构性复杂空间中长时间以及高精度工作中,提供路径规划指导,适用于卫星装配等目标空间具有复杂、非结构性特点,满足任务精度高的自动化装配任务,指导效率高,路径规划精确,应用范围广。
另外,RCF深度网络将视觉传感器采集到的目标空间图像作为输入,其中,网络的卷积分为五个阶段,相邻两个阶段通过池化层进行下采样,从而获得不同尺度的特征。最后,通过级联和1x1卷积对各个阶段的特征进行融合,输出障碍物边缘。相比于其他方法,基于RCF深度网络的障碍物检测与边缘分割更加准确。
而激光测距方法采用单线激光传感器。在初步获取障碍物位置信息后,激光传感器对障碍物区域进行扫描,获取障碍物的深度图。进一步根据视觉传感器和激光传感器的相对位置参数对障碍物深度图进行配准,完成该空间下障碍物的三维重构。
另外,具体的,如图3-图6所示,在一个实施例中,其卫星装配空间下机械臂避障,本实施例的任务在于获取装配空间内精确的线缆三维坐标,实现线缆模型重构,进而指导机械臂避障。
实施例中的装配空间如图3所示,由装配面板4、障碍物5(多线缆)、激光传感器1、视觉传感器2、机械臂组成。机械臂末端与传感器所处二维平面为操作面3,定义为xOy平面,视觉传感器与激光传感器均安装在机械臂末端,可以随机械臂旋转和移动。
机械臂位置初始化后,视觉传感器正对装配面板,如图3所示。本实施例首先通过视觉传感器获取装配空间的彩色图像信息,经过预处理后作为RCF深度网络的输入。RCF深度网络的五个阶段分别对不同尺度下图像中的线缆边缘轮廓信息进行提取,经过级联、融合,最终输出线缆的边缘信息。再经过后处理得到完整线缆的二维坐标信息。本实施例中,分割后的线缆区域如图4所示。
本实施例中的单线激光传感器安装与视觉传感器正上方。根据初步检测到的线缆位置,引导激光传感器对向线缆区域,对线缆的深度信息进行测量,获取线缆深度图,如图5所示。深度最终测量结果采用多帧深度图融合的方式获取,可以有效去除深度图中测量失误产生的噪点,同时提高线缆深度测量的精度。单线激光传感器的移动凭借机械臂末端的移动装置完成,可以主动对感兴趣的目标区域进行深度测量。
其中,利用视觉传感器与激光传感器的相对位置信息,对线缆的深度图进行配准(与彩色图相匹配、融合),精确重构该装配空间下线缆的三维面点云模型,包含线缆的三维坐标信息,如图6所示。
另外,完成目标空间下线缆的三维重建后,基于线缆信息与目标位置信息完成机械臂规划路径,指导机械臂避障。由于基于单线激光传感器的深度测量方式受传感器位置的影响,单一视角下的线缆之间可能存在遮挡的情况,导致重构的线缆模型不完整。为了提高建模的精度与完整性,在机械臂的运动过程中,视觉传感器与激光传感器继续对目标空间进行测量,间隔性重构线缆的点云模型。根据机械臂发生的旋转、平移等位置参数,通过计算变换矩阵将其对齐到原模型坐标系下,对原模型进行补充和校正。整个过程间隔性重复进行,直到机械臂到达目标区域范围。
其上述方案中,在非结构性复杂空间中长时间以及高精度工作中,提供路径规划指导,满足任务精度高的自动化装配任务,指导效率高,路径规划精确。
综上所述,借助于本发明的上述技术方案,通过预先采集目标空间图像特征信息,并作为RCF深度网络的输入;其RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;单线激光对获取的障碍物区域进行深度测量;将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型,进行对障碍物标记,并作为机械臂运动避障,实现在非结构性复杂空间中长时间以及高精度工作中,提供路径规划指导,适用于卫星装配等目标空间具有复杂、非结构性特点,满足任务精度高的自动化装配任务,指导效率高,路径规划精确,应用范围广。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于复杂空间障碍物定位的柔性机械臂运动避障方法,其特征在于,包括以下步骤:
预先采集目标空间图像特征信息,并作为RCF深度网络的输入;
RCF深度网络对空间图像中的所有物体进行边缘检测,获取空间中障碍物的位置信息;
单线激光对获取的障碍物区域进行深度测量,其中包括测量目标深度和获得多帧融合的深度图;
将原始障碍物的平面位置信息与获得的深度图进行匹配融合,并构建目标三维点云模型;
进行对障碍物标记,并作为机械臂运动避障;
其中,所述目标三维点云模型,进一步包括视觉传感器和激光传感器的相对位置参数对获取到的障碍物距离信息进行配准并与位置信息融合,获得目标空间下障碍物的三维点云模型,所述信息融合,包括以下步骤:
预先选取所述柔性机械臂的三对自由度匹配点;
标定变换矩阵,对所述三维点云模型进行坐标系变换,通过叠加的方式与原模型进行融合;
进一步包括三维点云模型对齐,其三维点云模型的对齐为矩阵变换,表示为:
设定变换矩阵Rx,Ry,Rz,T,其中:
T=[Tx,Ty,Tz]
其中,α,β,φ分别为传感器绕x,y,z轴发生的旋转角,Tx,Ty,Tz为传感器发生的位移,R为旋转变换矩阵;
其变换公式表示为:
确定变换矩阵与当前坐标系下点坐标(x′,y′,z′),确定原坐标系下的点坐标(x,y,z),完成三维点云模型对齐。
2.根据权利要求1所述的基于复杂空间障碍物定位的柔性机械臂运动避障方法,其特征在于,所述采集目标空间图像特征信息,包括视觉传感器获取目标空间下的图像。
3.根据权利要求2所述的基于复杂空间障碍物定位的柔性机械臂运动避障方法,其特征在于,所述单线激光对获取的障碍物区域进行深度测量,包括单线激光传感器主动对空间内的障碍物区域进行扫描,获取障碍物深度信息。
4.根据权利要求3所述的基于复杂空间障碍物定位的柔性机械臂运动避障方法,其特征在于,所述单线激光传感器固定于所述柔性机械臂末端,用于随所述柔性机械臂进行平移或旋转,对目标区域进行深度测量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011519003.8A CN112508933B (zh) | 2020-12-21 | 2020-12-21 | 一种基于复杂空间障碍物定位的柔性机械臂运动避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011519003.8A CN112508933B (zh) | 2020-12-21 | 2020-12-21 | 一种基于复杂空间障碍物定位的柔性机械臂运动避障方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112508933A CN112508933A (zh) | 2021-03-16 |
CN112508933B true CN112508933B (zh) | 2024-06-14 |
Family
ID=74922877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011519003.8A Active CN112508933B (zh) | 2020-12-21 | 2020-12-21 | 一种基于复杂空间障碍物定位的柔性机械臂运动避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508933B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113074748B (zh) * | 2021-03-29 | 2022-08-26 | 北京三快在线科技有限公司 | 一种无人驾驶设备的路径规划方法及装置 |
CN114654471A (zh) * | 2022-04-29 | 2022-06-24 | 中国煤炭科工集团太原研究院有限公司 | 基于激光扫描仪的锚护机械臂避障***和方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101878827B1 (ko) * | 2016-11-30 | 2018-07-17 | 주식회사 유진로봇 | 다채널 라이더 기반 이동로봇의 장애물 검출 장치 및 방법, 및 이를 구비한 이동로봇 |
CN108858199B (zh) * | 2018-07-27 | 2020-04-07 | 中国科学院自动化研究所 | 基于视觉的服务机器人抓取目标物体的方法 |
CN109048926A (zh) * | 2018-10-24 | 2018-12-21 | 河北工业大学 | 一种基于立体视觉的机器人智能避障***及方法 |
CN110587600B (zh) * | 2019-08-20 | 2022-04-19 | 南京理工大学 | 基于点云的带电作业机器人自主路径规划方法 |
CN111958590B (zh) * | 2020-07-20 | 2021-09-28 | 佛山科学技术学院 | 一种复杂三维环境中机械臂防碰撞方法及*** |
CN111993425B (zh) * | 2020-08-25 | 2021-11-02 | 深圳市优必选科技股份有限公司 | 一种避障方法、装置、机械臂及存储介质 |
-
2020
- 2020-12-21 CN CN202011519003.8A patent/CN112508933B/zh active Active
Non-Patent Citations (2)
Title |
---|
可移动障碍物环境下的机械臂动态避障规划研究;吴向东;《中国优秀硕士学位论文全文数据库信息科技辑》;20190515(第05期);1-88 * |
基于多传感的不确定环境测量***;丁勤 等;《***仿真技术》;20200228;第16卷(第1期);46-50 * |
Also Published As
Publication number | Publication date |
---|---|
CN112508933A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110370286B (zh) | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 | |
Kim et al. | SLAM-driven robotic mapping and registration of 3D point clouds | |
CN110116407B (zh) | 柔性机器人位姿测量方法及装置 | |
Olson et al. | Wide-baseline stereo vision for terrain mapping | |
Lins et al. | Vision-based measurement for localization of objects in 3-D for robotic applications | |
CN111123911B (zh) | 一种腿足式智能星表探测机器人感知***及其工作方法 | |
CN111487642A (zh) | 基于三维激光和双目视觉的变电站巡检机器人定位导航***及方法 | |
CN112508933B (zh) | 一种基于复杂空间障碍物定位的柔性机械臂运动避障方法 | |
CN112648934B (zh) | 一种自动化弯管几何形态检测方法 | |
CN112045655B (zh) | 用于大尺度多站点场景的移动机器人位姿测量方法及*** | |
Kim et al. | Autonomous mobile robot localization and mapping for unknown construction environments | |
Olson et al. | Wide-baseline stereo vision for Mars rovers | |
CN110370287B (zh) | 基于视觉引导的地铁列检机器人路径规划***及方法 | |
CN116563377A (zh) | 一种基于半球投影模型的火星岩石测量方法 | |
Grudziński et al. | Stereovision tracking system for monitoring loader crane tip position | |
CN114067210A (zh) | 一种基于单目视觉导引的移动机器人智能抓取方法 | |
Suzuki et al. | SLAM using ICP and graph optimization considering physical properties of environment | |
De Miguel et al. | High-Accuracy Patternless Calibration of Multiple 3-D LiDARs for Autonomous Vehicles | |
CN112729252B (zh) | 基于机器人平台的隧道激光点云采集方法及机器人*** | |
Zhu et al. | Multi-camera System Calibration of Indoor Mobile Robot Based on SLAM | |
CN113324538A (zh) | 一种合作目标远距离高精度六自由度位姿测量方法 | |
Kataoka et al. | Performance Improvement of SLAM based on global registration using LiDAR Intensity and Measurement Data of Puddle | |
Xia et al. | A stereo vision based method for autonomous spray of pesticides to plant leaves | |
Kwak et al. | 3-D reconstruction of underwater objects using arbitrary acoustic views | |
CN118003340B (zh) | 基于深度学习的视觉机械臂物料抓取控制方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |