CN112862812B - 一种柔性机器人的操作空间轨迹优化方法、***及装置 - Google Patents

一种柔性机器人的操作空间轨迹优化方法、***及装置 Download PDF

Info

Publication number
CN112862812B
CN112862812B CN202110260593.5A CN202110260593A CN112862812B CN 112862812 B CN112862812 B CN 112862812B CN 202110260593 A CN202110260593 A CN 202110260593A CN 112862812 B CN112862812 B CN 112862812B
Authority
CN
China
Prior art keywords
camera
flexible robot
image
arm
ellipse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110260593.5A
Other languages
English (en)
Other versions
CN112862812A (zh
Inventor
彭键清
张弛
吴皓轩
韩瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202110260593.5A priority Critical patent/CN112862812B/zh
Publication of CN112862812A publication Critical patent/CN112862812A/zh
Application granted granted Critical
Publication of CN112862812B publication Critical patent/CN112862812B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种柔性机器人的操作空间轨迹优化方法、***及装置,该方法包括:获取图像并进行预处理;对预处理后的图像进行特征提取;基于提取的椭圆参数计算柔性机器人的末端位姿和臂型参数;计算误差;构建空间优化模型并得到最优关节角度;判断到误差小于预设阈值,优化结束。该***包括:图像处理模块、特征提取模块、运动学参数计算模块、误差计算模块、轨迹优化模块和阈值判断模块。该装置包括基座、柔性机器人、固定相机、辅助相机和辅助机械臂。通过使用本发明,能实时感知柔性机器人臂型,提高机器人的运动精度。本发明作为一种柔性机器人的操作空间轨迹优化方法、***及装置,可广泛应用于机器人轨迹优化领域。

Description

一种柔性机器人的操作空间轨迹优化方法、***及装置
技术领域
本发明涉及机器人轨迹优化领域,尤其涉及一种柔性机器人的操作空间轨迹优化方法、***及装置。
背景技术
绳索驱动的超冗余机器人近年来发展迅速,相较于传统结构的机器人,其具有体型纤细、机电分离、运动灵活以及杆件轻盈的特点。这些特点使得其非常适合应用于狭小受限空间以及复杂的非结构化场景。多年的研究表明,超冗余机器人在空间在轨服务方面应用越来越广泛,其结构和驱动方式等方面诸多的特性使其非常适合于空间复杂环境,特别其具有弯曲能力强、结构简单以及运动载荷小等特点。但是由于臂杆比较纤细,其径向是一个弧面,由于在曲面上进行加工难度很大,应用传统的添加合作标志进行立体视觉测量的方法不便于操作,同时很难建立测量坐标系与参考坐标系之间的数学模型。此外,超冗余机器人执行任务过程中不同臂杆之间容易发生遮挡或者边缘特征提取不完整等情形,传统立体视觉测量在此情况下会出现臂型感知误差较大甚至三维重构方法失效的问题,因此,不能满足超冗余机器人在有臂型和关节多重约束下对狭小空间穿越的功能需求。
发明内容
本发明的目的是提供一种柔性机器人的操作空间轨迹优化方法、***及装置,能够克服特征遮挡、无无合作标志物问题,实时感知柔性机器人臂型,提高机器人的运动精度。
本发明所采用的第一技术方案是:一种柔性机器人的操作空间轨迹优化方法,包括以下步骤:
获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像;
对预处理后的臂杆图像进行特征提取,得到椭圆参数;
基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数;
根据柔性机器人的末端位姿、臂型参数和对应的期望值计算末端位姿差和臂型误差;
根据位姿差和预构建的空间优化模型,得到最优关节角度;
判断到臂型参数偏差和位姿差小于预设阈值,优化结束。
进一步,所述获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像这一步骤,其具体包括:
基于布置在柔性机器人周围的多个相机对臂杆截面进行图像提取,得到臂杆截面图像;
对臂杆截面图像进行灰度图转换、图像分割和图像滤波预处理,得到预处理后的臂杆图像。
进一步,所述对预处理后的臂杆图像进行特征提取,得到椭圆参数这一步骤,其具体包括:
对预处理后的臂杆图像进行边缘检测,得到离散的椭圆像素点;
对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数;
基于预构建的多目融合位姿测量误差的优化模型对粗略椭圆拟合参数进行处理,得到精确椭圆参数。
进一步,所述对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数这一步骤,其具体包括:
以空间椭圆弧的二元二次函数表示臂杆在像平面的成像,得到成像像素点;
通过非线性的最小二乘方程对成像像素点进行拟合,得到粗略椭圆拟合参数。
进一步,所述基于预构建的多目融合位姿测量误差的优化模型对粗略椭圆拟合参数进行处理,得到精确椭圆参数这一步骤,其具体包括:
将各相机的坐标***一到同一坐标系下;
构建多目融合位姿测量误差的优化模型并对各个相机获取的椭圆参数进行优化;
基于粒子群优化算法对多目融合位姿测量误差的优化模型进行求解,得到精确椭圆参数。
进一步,所述多目融合位姿测量误差的优化模型的表达式如下:
Figure BDA0002969806460000021
Figure 1
其中,k代表像平面上椭圆弧
Figure BDA0002969806460000023
上第k个像素点,E表示拟合后的椭圆标志,
Figure BDA0002969806460000024
表示第i号相机测量得到的末端位置和第1号相机测量得到的末端位置在第1号相机系下的相对偏差,
Figure BDA0002969806460000031
表示第i号相机测量得到的末端法向量和第1号相机测量得到的末端法向量在第1号相机系下的相对偏差,
Figure BDA0002969806460000032
表示表示第i号相机测量拟合后的椭圆中心横坐标,
Figure BDA0002969806460000033
表示第i号相机获取第k个离散像素点的横坐标,
Figure BDA0002969806460000034
表示第i号相机测量拟合后的椭圆中心纵坐标,
Figure BDA0002969806460000035
表示第i号相机获取第k个离散像素点的纵坐标,
Figure BDA0002969806460000036
表示第i号相机测量拟合后的椭圆短半轴,
Figure BDA0002969806460000037
表示第i号相机测量拟合后的椭圆长半轴,
Figure BDA0002969806460000038
表示第i号相机测量拟合后的椭圆偏置角。
进一步,所述基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数这一步骤,其具体包括:
根据精确椭圆参数计算柔性机器人臂杆截面中心的位姿;
基于运动学解算获取柔性机器人各个圆柱臂段的中心位姿,并得到柔性机器人构型以及其末端的位姿。
进一步,所述预构建的空间优化模型具体为针对柔性机器人穿越狭缝的任务目标建立的空间优化模型,包括:
基于柔性机器人的末端位姿差的最小化、狭缝中臂段的方向尽可能垂直于狭缝的法向量、考虑到实际关节角度限制的条件,建立臂型和关节角多重约束下的操作空间优化模型。
本发明所采用的第二技术方案是:一种柔性机器人的操作空间轨迹优化***,包括:
图像处理模块,用于获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像;
特征提取模块,用于对预处理后的臂杆图像进行特征提取,得到椭圆参数;
运动学参数计算模块,用基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数;
误差计算模块,用于根据柔性机器人的末端位姿、臂型参数和对应的期望值计算末端位姿差和臂型误差;
操作空间轨迹优化模块,用于根据位姿差和预构建的空间优化模型,得到最优关节角度;
阈值判断模块,判断到臂型参数偏差和位姿差小于预设阈值,优化结束。
本发明所采用的第三技术方案是:一种柔性机器人的操作空间轨迹优化装置,包括基座、柔性机器人、固定相机、辅助相机和辅助机械臂,其中:
所述柔性机器人固定在基座上,为绳索驱动的超冗余机械臂,其臂杆大体为圆柱体,其径向截面为圆形;
所述固定相机固定在基座上,对柔性机器人进行拍摄;
所述活动相机固定在辅助机械臂末端上,可通过调整辅助机械臂获取不同角度的图像。
本发明方法、***及装置的有益效果是:本发明通过多个相机在臂杆轴向的不同视角进行拍摄获取臂型图像,并对多个单目图像信息融合,解决了传统视觉测量方法在单目相机有效像素点较少情况下测量精度不高及特征被遮挡时重建失效的问题,通过多目融合的优化方程得到精确的圆形截面投影信息,提高机器人构型的测量精度。同时将高精度的臂型感知结果与末端进行同步约束,建立优化模型,能够实现带有臂型和关节角多重约束下对操作空间轨迹的优化,大大提高柔性机器人的控制精度。
附图说明
图1是本发明一种柔性机器人的操作空间轨迹优化方法的步骤流程图;
图2是本发明一种柔性机器人的操作空间轨迹优化***的结构框图;
图3是本发明一种柔性机器人的操作空间轨迹优化装置的结构示意图;
图4是本发明具体实施例针对于柔性机器人穿越狭缝执行任务的示意图。
附图标记:1、柔性机器人;2、固定相机;3、活动相机;4、辅助机械臂;5、基座。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1,本发明提供了一种柔性机器人的操作空间轨迹优化方法,该方法包括以下步骤:
获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像;
对预处理后的臂杆图像进行特征提取,得到椭圆参数;
基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数;
根据柔性机器人的末端位姿、臂型参数和对应的期望值计算末端位姿差和臂型误差;
根据位姿差和预构建的空间优化模型,得到最优关节角度;
判断到臂型参数偏差和位姿差小于预设阈值,优化结束。
进一步作为本方法的优选实施例,所述获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像这一步骤,其具体包括:
基于布置在柔性机器人周围的多个相机对臂杆截面进行图像提取,得到臂杆截面图像;
对臂杆截面图像进行灰度图转换、图像分割和图像滤波预处理,得到预处理后的臂杆图像。
进一步作为本方法的优选实施例,所述对预处理后的臂杆图像进行特征提取,得到椭圆参数这一步骤,其具体包括:
对预处理后的臂杆图像进行边缘检测,得到离散的椭圆像素点;
对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数;
基于预构建的多目融合位姿测量误差的优化模型对粗略椭圆拟合参数进行处理,得到精确椭圆参数。
进一步作为本方法的优选实施例,所述对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数这一步骤,其具体包括:
以空间椭圆弧的二元二次函数表示臂杆在像平面的成像,得到成像像素点;
通过非线性的最小二乘方程对成像像素点进行拟合,得到粗略椭圆拟合参数。
具体地,圆形的臂段横截面在像平面内的投影是椭圆或者直线,以典型的椭圆投影为例,通过二元二次方程表示空间椭圆弧
Figure BDA0002969806460000051
Figure BDA0002969806460000052
其中,
Figure BDA0002969806460000053
为第i号相机里二元二次椭圆方程的常系数,u表示第i 号相机像平面的横坐标,v表示第i号相机像平面的纵坐标。
建立非线性最小二乘方程对成像像素点进行拟合,如下:
Figure BDA0002969806460000054
其中,
Figure BDA0002969806460000055
为第i号相机获取的离散椭圆像素点。
根据最小化代数距离法,式(2)可等价为:
Figure BDA0002969806460000056
其中,
Figure BDA0002969806460000057
Figure BDA0002969806460000058
ζ2=ζ3=ζ4=O3
对单个相机获取的椭圆特征进行位姿测量建模,假设未知圆形目标在第i号相机像平面内显示的5个椭圆参数为
Figure BDA0002969806460000059
像平面内的椭圆方程可进一步化简为:
Figure BDA0002969806460000061
Figure BDA0002969806460000062
将椭圆方程
Figure BDA0002969806460000063
转换到归一化焦平面上,即有:
Figure BDA0002969806460000064
将式(6)代入式(4)可得:
Figure BDA0002969806460000065
其中,
Figure BDA0002969806460000066
Hi为3阶实对称方阵,且
Figure BDA0002969806460000067
F1i为
Figure BDA0002969806460000068
的常数。
第i号相机识别的圆形目标中心在其相机系下的位置和姿态分别表示为:
Figure BDA0002969806460000069
Figure BDA00029698064600000610
这里,
Figure BDA00029698064600000611
为Hi的特征向量(i=1,…,n),且
Figure BDA00029698064600000612
为特征向量对应的正交单位向量,为该圆形目标的半径。
进一步作为本方法优选实施例,所述基于预构建的多目融合位姿测量误差的优化模型对粗略椭圆拟合参数进行处理,得到精确椭圆参数这一步骤,其具体包括:
将各相机的坐标***一到同一坐标系下;
构建多目融合位姿测量误差的优化模型并对各个相机获取的椭圆参数进行优化;
基于粒子群优化算法对多目融合位姿测量误差的优化模型进行求解,得到精确椭圆参数。
具体地,第j号相机识别的圆形目标中心在第i号相机下的位置和姿态分别表示为:
Figure BDA0002969806460000071
Figure BDA0002969806460000072
其中,
Figure BDA0002969806460000073
Figure BDA0002969806460000074
分别为Ci参考系下Cj坐标系的旋转齐次变换矩阵和平移齐次变换矩阵。
第i号相机测量得到的末端位姿和第1号相机测量得到的末端位姿在第1号相机系下的位姿偏差可简化为:
Figure BDA0002969806460000075
Figure BDA0002969806460000076
于是,可以建立多个相机协同测量下的优化模型:
Figure BDA0002969806460000077
其中,k代表像平面上椭圆弧
Figure BDA0002969806460000078
上第k个像素点,E表示拟合后的椭圆标志,
Figure BDA0002969806460000079
表示第i号相机测量得到的末端位置和第1号相机测量得到的末端位置在第1号相机系下的相对偏差,
Figure BDA00029698064600000710
表示第i号相机测量得到的末端法向量和第1号相机测量得到的末端法向量在第1号相机系下的相对偏差,
Figure BDA0002969806460000081
表示表示第i号相机测量拟合后的椭圆中心横坐标,
Figure BDA0002969806460000082
表示第i号相机获取第k个离散像素点的横坐标,
Figure BDA0002969806460000083
表示第i号相机测量拟合后的椭圆中心纵坐标,
Figure BDA0002969806460000084
表示第i号相机获取第k个离散像素点的纵坐标,
Figure BDA0002969806460000085
表示第i号相机测量拟合后的椭圆短半轴,
Figure BDA0002969806460000086
表示第i号相机测量拟合后的椭圆长半轴,
Figure BDA0002969806460000087
表示第i号相机测量拟合后的椭圆偏置角。
利用粒子群优化方法对式(14)进行求解,可得优化的椭圆参数
Figure BDA0002969806460000088
,将其代入(12) 和(13)即可求得该臂杆圆形截面中心的位姿,记为
Figure BDA00029698064600000810
进一步作为本方法优选实施例,所述基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数这一步骤,其具体包括:
根据精确椭圆参数计算柔性机器人臂杆截面中心的位姿;
基于运动学解算获取柔性机器人各个圆柱臂段的中心位姿,并得到柔性机器人构型以及其末端的位姿。
进一步作为本方法优选实施例,所述预构建的空间优化模型具体为针对柔性机器人穿越狭缝的任务目标建立的空间优化模型,包括:
基于柔性机器人的末端位姿差的最小化、狭缝中臂段的方向尽可能垂直于狭缝的法向量、考虑到实际关节角度限制的条件,建立臂型和关节角多重约束下的操作空间优化模型。
参照图4,针对柔性机器人穿越狭缝执行任务的场景,由于绳索变形、绳索和刚性臂杆 之间存在过孔摩擦及常规的测量手段受到极大的限制等等因素的影响,柔性机器人的末端和 臂型控制精确都不高,完成穿越狭缝的任务有一定困难。结合多目视觉的构型测量方法,实 时获取机器人构型参数,对柔性机器人的操作空间轨迹进行优化。
根据多目融合测量结果,可得受控臂段任意两个圆截面中心的位置矢量为:
Figure BDA00029698064600000811
假设受控臂段穿越狭小空间平面的法向量为
Figure BDA00029698064600000812
基于机器人末端跟踪误差最小及狭缝内臂段参数误差最小的要求,以及柔性机器人关节角的限制,可建立有臂型和关节角多重约束下的操作空间优化模型:
Figure BDA0002969806460000091
其中,kp
Figure BDA0002969806460000092
分别表示末端位置和姿态偏差的权值系数,θ-和θ+分别表示关节角的下界和上界,Pe
Figure BDA0002969806460000093
分别表示优化后得到的目标相对于末端的实际位置和姿态、Ped
Figure BDA0002969806460000094
分别表示目标相对于末端的期望位置和姿态,
Figure BDA0002969806460000095
表示受控臂段穿越狭小空间平面的法向量。
根据式(16),可得到最优关节角,进而可计算得末端的位姿。进一步地,柔性机器人的末端速度可以描述为:
Figure BDA0002969806460000096
其中,Kw为引入的对角权重矩阵,
Figure BDA0002969806460000097
分别表示为机器人末端的位置误差与姿态误差。
根据式(17),柔性机器人关节角度速度可以表示为:
Figure BDA0002969806460000098
其中,
Figure BDA0002969806460000099
为梯度映射矩阵,λ∈[0,1]是权重矩阵,I为单位矩阵,
Figure BDA00029698064600000910
表示雅克比矩阵Jg的广义逆矩阵,Kp表示正数权值矩阵,Jg表示柔性机器人末端到关节的雅克比矩阵。
参照图2,一种柔性机器人的操作空间轨迹优化***,包括:
图像处理模块,用于获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像;
特征提取模块,用于对预处理后的臂杆图像进行特征提取,得到椭圆参数;
运动学参数计算模块,用基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数;
误差计算模块,用于根据柔性机器人的末端位姿、臂型参数和对应的期望值计算末端位姿差和臂型误差;
操作空间轨迹优化模块,用于根据位姿差和预构建的空间优化模型,得到最优关节角度;
阈值判断模块,判断到臂型参数偏差和位姿差小于预设阈值,优化结束。
上述方法实施例中的内容均适用于本***实施例中,本***实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
参照图3,一种柔性机器人的操作空间轨迹优化装置,包括基座5、柔性机器人1、固定相机2、活动相机3和辅助机械臂4,其中:
所述柔性机器人1固定在基座5上,为绳索驱动的超冗余机械臂,其臂杆大体为圆柱体,其径向截面为圆形;
所述固定相机2固定在基座5上,对柔性机器人1进行拍摄;
所述活动相机3固定在辅助机械臂4末端上,可通过调整辅助机械臂4获取不同角度的图像。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (7)

1.一种柔性机器人的操作空间轨迹优化方法,其特征在于,包括以下步骤:
获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像;
对预处理后的臂杆图像进行边缘检测,得到离散的椭圆像素点;
对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数;
将各相机的坐标***一到同一坐标系下;
构建多目融合位姿测量误差的优化模型并对各个相机获取的椭圆参数进行优化;
多目融合位姿测量误差的优化模型的表达式如下;
Figure FDA0004019478450000011
Figure FDA0004019478450000012
其中,k代表像平面上椭圆弧
Figure FDA0004019478450000013
上第k个像素点,E表示拟合后的椭圆标志,
Figure FDA0004019478450000014
表示第i号相机测量得到的末端位置和第1号相机测量得到的末端位置在第1号相机系下的相对偏差,
Figure FDA0004019478450000015
表示第i号相机测量得到的末端法向量和第1号相机测量得到的末端法向量在第1号相机系下的相对偏差,
Figure FDA0004019478450000016
表示表示第i号相机测量拟合后的椭圆中心横坐标,
Figure FDA0004019478450000017
表示第i号相机获取第k个离散像素点的横坐标,
Figure FDA0004019478450000018
表示第i号相机测量拟合后的椭圆中心纵坐标,
Figure FDA0004019478450000019
表示第i号相机获取第k个离散像素点的纵坐标,
Figure FDA00040194784500000110
表示第i号相机测量拟合后的椭圆短半轴,
Figure FDA00040194784500000111
表示第i号相机测量拟合后的椭圆长半轴,
Figure FDA00040194784500000112
表示第i号相机测量拟合后的椭圆偏置角;
基于粒子群优化算法对多目融合位姿测量误差的优化模型进行求解,得到精确椭圆参数;
基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数;
根据柔性机器人的末端位姿、臂型参数和对应的期望值计算末端位姿差和臂型误差;
根据末端位姿差和预构建的空间优化模型,得到最优关节角度;
判断到臂型误差和末端位姿差小于预设阈值,优化结束。
2.根据权利要求1所述一种柔性机器人的操作空间轨迹优化方法,其特征在于,所述获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像这一步骤,其具体包括:
基于布置在柔性机器人周围的多个相机对臂杆截面进行图像提取,得到臂杆截面图像;
对臂杆截面图像进行灰度图转换、图像分割和图像滤波预处理,得到预处理后的臂杆图像。
3.根据权利要求2所述一种柔性机器人的操作空间轨迹优化方法,其特征在于,所述对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数这一步骤,其具体包括:
以空间椭圆弧的二元二次函数表示臂杆在像平面的成像,得到成像像素点;
通过非线性的最小二乘方程对成像像素点进行拟合,得到粗略椭圆拟合参数。
4.根据权利要求3所述一种柔性机器人的操作空间轨迹优化方法,其特征在于,所述基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数这一步骤,其具体包括:
根据精确椭圆参数计算柔性机器人臂杆截面中心的位姿;
基于运动学解算获取柔性机器人各个圆柱臂段的中心位姿,并得到柔性机器人构型以及其末端的位姿。
5.根据权利要求4所述一种柔性机器人的操作空间轨迹优化方法,其特征在于,所述预构建的空间优化模型具体为针对柔性机器人穿越狭缝的任务目标建立的空间优化模型,包括:
基于柔性机器人的末端位姿差的最小化、狭缝中臂段的方向尽可能垂直于狭缝的法向量、考虑到实际关节角度限制的条件,建立臂型和关节角多重约束下的操作空间优化模型。
6.一种柔性机器人的操作空间轨迹优化***,其特征在于,包括:
图像处理模块,用于获取臂杆截面图像并对图像进行预处理,得到预处理后的臂杆图像;
特征提取模块,用于对预处理后的臂杆图像进行边缘检测,得到离散的椭圆像素点;对离散的椭圆像素点进行拟合,得到粗略椭圆拟合参数;将各相机的坐标***一到同一坐标系下;构建多目融合位姿测量误差的优化模型并对各个相机获取的椭圆参数进行优化;基于粒子群优化算法对多目融合位姿测量误差的优化模型进行求解,得到精确椭圆参数;
多目融合位姿测量误差的优化模型的表达式如下;
Figure FDA0004019478450000031
Figure FDA0004019478450000032
其中,k代表像平面上椭圆弧
Figure FDA0004019478450000033
上第k个像素点,E表示拟合后的椭圆标志,
Figure FDA0004019478450000034
表示第i号相机测量得到的末端位置和第1号相机测量得到的末端位置在第1号相机系下的相对偏差,
Figure FDA0004019478450000035
表示第i号相机测量得到的末端法向量和第1号相机测量得到的末端法向量在第1号相机系下的相对偏差,
Figure FDA0004019478450000036
表示表示第i号相机测量拟合后的椭圆中心横坐标,
Figure FDA0004019478450000037
表示第i号相机获取第k个离散像素点的横坐标,
Figure FDA0004019478450000038
表示第i号相机测量拟合后的椭圆中心纵坐标,
Figure FDA0004019478450000039
表示第i号相机获取第k个离散像素点的纵坐标,
Figure FDA00040194784500000310
表示第i号相机测量拟合后的椭圆短半轴,
Figure FDA00040194784500000311
表示第i号相机测量拟合后的椭圆长半轴,
Figure FDA00040194784500000312
表示第i号相机测量拟合后的椭圆偏置角;
运动学参数计算模块,用基于椭圆参数计算得到柔性机器人的末端位姿和臂型参数;
误差计算模块,用于根据柔性机器人的末端位姿、臂型参数和对应的期望值计算末端位姿差和臂型误差;
轨迹优化模块,用于根据位姿差和预构建的空间优化模型,得到最优关节角度;
阈值判断模块,判断到臂型参数偏差和位姿差小于预设阈值,优化结束。
7.一种应用如权利要求1所述柔性机器人的操作空间轨迹优化方法的装置,其特征在于,包括基座、柔性机器人、固定相机、辅助相机和辅助机械臂,其中:
所述柔性机器人固定在基座上,为绳索驱动的超冗余机械臂,其臂杆大体为圆柱体,其径向截面为圆形;
所述固定相机固定在基座上,对柔性机器人进行拍摄;
所述辅助相机固定在辅助机械臂末端上,可通过调整辅助机械臂获取不同角度的图像。
CN202110260593.5A 2021-03-10 2021-03-10 一种柔性机器人的操作空间轨迹优化方法、***及装置 Active CN112862812B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110260593.5A CN112862812B (zh) 2021-03-10 2021-03-10 一种柔性机器人的操作空间轨迹优化方法、***及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110260593.5A CN112862812B (zh) 2021-03-10 2021-03-10 一种柔性机器人的操作空间轨迹优化方法、***及装置

Publications (2)

Publication Number Publication Date
CN112862812A CN112862812A (zh) 2021-05-28
CN112862812B true CN112862812B (zh) 2023-04-07

Family

ID=75993284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110260593.5A Active CN112862812B (zh) 2021-03-10 2021-03-10 一种柔性机器人的操作空间轨迹优化方法、***及装置

Country Status (1)

Country Link
CN (1) CN112862812B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110561419A (zh) * 2019-08-09 2019-12-13 哈尔滨工业大学(深圳) 臂型线约束柔性机器人轨迹规划方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106647282B (zh) * 2017-01-19 2020-01-03 北京工业大学 一种考虑末端运动误差的六自由度机器人轨迹规划方法
CN109048890B (zh) * 2018-07-13 2021-07-13 哈尔滨工业大学(深圳) 基于机器人的协调轨迹控制方法、***、设备及存储介质
CN110116407B (zh) * 2019-04-26 2021-03-30 哈尔滨工业大学(深圳) 柔性机器人位姿测量方法及装置
CN110561420B (zh) * 2019-08-09 2021-03-19 哈尔滨工业大学(深圳) 臂型面约束柔性机器人轨迹规划方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110561419A (zh) * 2019-08-09 2019-12-13 哈尔滨工业大学(深圳) 臂型线约束柔性机器人轨迹规划方法及装置

Also Published As

Publication number Publication date
CN112862812A (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
JP7072759B2 (ja) マルチセンサによる複合キャリブレーション装置及び方法
CN112476434B (zh) 一种基于协作机器人的视觉3d取放方法及***
CN111325797B (zh) 一种基于自监督学习的位姿估计方法
CN109270534B (zh) 一种智能车激光传感器与相机在线标定方法
CN111775146B (zh) 一种工业机械臂多工位作业下的视觉对准方法
CN107741234B (zh) 一种基于视觉的离线地图构建及定位方法
CN110116407B (zh) 柔性机器人位姿测量方法及装置
CN107186708B (zh) 基于深度学习图像分割技术的手眼伺服机器人抓取***及方法
CN109658457B (zh) 一种激光与相机任意相对位姿关系的标定方法
CN106529587B (zh) 基于目标点识别的视觉航向识别方法
CN112184812B (zh) 提升无人机相机对AprilTag识别定位精度方法及定位方法和***
CN111801198A (zh) 一种手眼标定方法、***及计算机存储介质
CN111476841B (zh) 一种基于点云和图像的识别定位方法及***
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及***
CN112658643A (zh) 接插件装配方法
CN115294198A (zh) 一种基于视觉的机械臂全局性能测量***及方法
CN114750154A (zh) 一种配网带电作业机器人的动态目标识别定位与抓取方法
CN112588621B (zh) 一种基于视觉伺服的农产品分拣方法及***
CN111609794B (zh) 一种基于双机械臂抓捕的目标卫星星箭对接环抓捕点定位方法
CN117934721A (zh) 基于视触融合的空间机器人对目标航天器重建方法与***
CN112862812B (zh) 一种柔性机器人的操作空间轨迹优化方法、***及装置
CN117340879A (zh) 一种基于图优化模型的工业机器人参数辨识方法和***
CN112288801A (zh) 应用于巡检机器人的四位一体自适应跟踪拍摄方法及装置
CN113240751B (zh) 一种机器人末端相机的标定方法
Liu et al. An image-based accurate alignment for substation inspection robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant