CN111325768A - 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法 - Google Patents

一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法 Download PDF

Info

Publication number
CN111325768A
CN111325768A CN202010077652.0A CN202010077652A CN111325768A CN 111325768 A CN111325768 A CN 111325768A CN 202010077652 A CN202010077652 A CN 202010077652A CN 111325768 A CN111325768 A CN 111325768A
Authority
CN
China
Prior art keywords
target
track
capture
pose
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010077652.0A
Other languages
English (en)
Other versions
CN111325768B (zh
Inventor
肖晓晖
张勇
赵尚宇
汤自林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010077652.0A priority Critical patent/CN111325768B/zh
Publication of CN111325768A publication Critical patent/CN111325768A/zh
Application granted granted Critical
Publication of CN111325768B publication Critical patent/CN111325768B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)

Abstract

本发明公开一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法。主要包含三个部分:首先,使用深度相机实时获取目标抓捕点的位置和姿态;其次,根据历史数据,使用卡尔曼滤波估计运动状态,根据运动信息预测自由漂浮未来一段时间内的轨迹;最后:确定抓捕时机及抓捕点在这一时刻的位姿,采集人的抓捕数据,建立技能模型,将其迁移到机器人上进行抓捕。本发明基于视觉、模仿学习完成了过程中的位姿估计,轨迹预测及机械臂轨迹规划技术,实现自由漂浮目标的自主抓捕,可以很好的满足抓捕需求。

Description

一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法
技术领域
本发明涉及空间机器人领域,具体涉及一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法。
背景技术
人类开发和利用外太空的步伐不断加快。全球每年发射卫星80~130颗,其中10%左右的卫星因故障宣告失败,这些碎片占用了宝贵的轨道资源;部分航天器发射入轨后可能出现零部件失效、轨道偏离等问题,或者在完成预定任务、燃料耗尽时其主要零部件仍能正常工作,对其他在轨航天器构成了严重的安全;利用空间机器人完成轨道碎片清理、在轨维修、维护升级、空间站的组装等任务对提高太空轨道利用率,降低成本、挽回经济损失,延长航天器的寿命,提升航天器的在轨性能,提高经济效益有重要的作用,而对漂浮目标进行抓捕是其中一项关键技术。
目前在轨机器人抓捕大多为遥操作或航天员在轨辅助机器人,自主性不高,并且控制信号的时延也会带来不稳定性,导致精度差,成本高。
自主太空机器人集成视觉、力等多种传感器,可以代替航天员或者地面操作人员控制进行抓捕作业,因此,各个航天大国都在对空间机器人在轨抓捕关键技术进行研究和演示验证,但目前研究成果大多处于概念设计阶段,距离实际应用还有很大差距。
发明内容
鉴于以上现有技术的不足,本发明的目的在于提供一种基于3D视觉和模仿学习的自由漂浮目标抓捕技术,该技术集成了目标位姿估计,轨迹预测,机械臂轨迹规划等技术,保证精度和抓捕速度,能够实现目标的自主抓捕。
为了解决上述问题,本发明采用如下技术方案:
一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,其特征在于,包括以下步骤:
步骤1:基于视觉的位姿估计,实时反馈目标的位置和姿态;
步骤2:轨迹预测,根据历史一段时间位置和姿态轨迹,动态预测后一段时间的位置和姿态轨迹;
步骤3:基于模仿学习的轨迹规划,采集人的抓捕数据,建立技能模型,将其迁移到机器人上,根据步骤2所预测的轨迹,确定合适的抓捕时机进行抓捕。
在上述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,所述步骤1中,基于视觉的位姿估计方法为三维模板匹配方法,融合了RGB信息,深度信息及点云信息,具体包括:
步骤1.1:建立模板库,利用OpenGL,直接采集漂浮物体抓取点三维模型不同视点不同距离的模板,模板特征为RGB图像边缘梯度向量与深度图像法向量;
其中,梯度向量计算公式为:
Figure BDA0002378990790000021
其中,x表示像素位置,R,G,B分别表示图像的三个通道,法向量的计算方法为通过最小二乘法求取最优的深度梯度,通过深度梯度求取法向量;
步骤1.2:计算自由漂浮目标初始位姿,根据RGB与深度信息,进行窗口搜索,得到目标的初始位姿,使用如下公式进行相似度计算:
Figure BDA0002378990790000022
步骤1.3:根据初始位姿进行ICP点云匹配,得到目标的精确位姿,使用如下公式进行计算:
Figure BDA0002378990790000023
其中pi为目标点云中的点,qi为源点云中与之对应的点,R为旋转变换,t为平移量。
在上述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,所述步骤2中,轨迹预测基于欧拉动力学,具体包括:
步骤2.1:根据所测量位姿,找到一组合适的动力学参数来解析表示目标的位姿运动;
目标的动力学模型为:
Figure BDA0002378990790000024
其中Ixx,Iyy,Izz分别为刚体中心主惯量矩,ωxyz为刚体角速度在中心惯量主轴坐标系中的投影分量,ψww,
Figure BDA0002378990790000025
为刚体相对于中心惯量主轴坐标系转过的角度;
令E为刚体的动能,L为刚体的角动量,刚体运动可以看作潘索椭球
Figure BDA0002378990790000026
Figure BDA0002378990790000027
目标的动力学模型可表示为:
Figure BDA0002378990790000028
Jx,Jy,α为所需要估计的参数;
步骤2.2:求解最佳的动力学参数,使得这些动力学参数预测的位姿与观测结果吻合最好;
根据根据约束条件求解如下优化目标得到最佳动力学参数:
Figure BDA0002378990790000031
其中ω(Jx,Jy,Jz,α,ti)为ti时刻预测值,ωl(ti)为ti时刻观测值;
步骤2.3:使用最佳的动力学参数预测目标的位姿。
在上述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,所述步骤3中,轨迹规划基于模仿学习,具体包括:
步骤3.1:在现实场景下建立漂浮物体慢速运动的场景,利用动作捕捉***采集人抓捕目标的轨迹,轨迹包含了手末端位置和姿态的时间序列,建立示教数据集
Figure BDA0002378990790000032
其中N为轨迹数量,D=7为每个点的纬度,包括
Figure BDA0002378990790000033
T为时间序列;
步骤3.2:建立模仿学习的模型,利用采集数据对模型进行训练,将人抓捕目标的技能迁移到机器人上,可以生成对应目标位姿的抓捕轨迹。
在上述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,所述步骤3.2模仿学习的过程按照以下步骤进行:
步骤A:模型训练,将位姿看作
Figure BDA0002378990790000034
6个独立的变量,对每一个维度分别训练,对每一条轨迹分别变换到起点和终点坐标系进行GMM编码,求去轨迹点的概率分布模型;
步骤B:将所得GMM模型分别进行GMR回归,将时间作为输入,轨迹的6维位姿坐标作为输出,对应的条件概率分布为:
Figure BDA0002378990790000035
其中
Figure BDA0002378990790000036
分别为ξtii切分成输入输出而成
Figure BDA0002378990790000037
的计算方式为:
Figure BDA0002378990790000038
步骤C:抓取轨迹生成,将步骤B所得GMR模型起点和终点坐标系分别变换到机械臂现在的坐标系与目标坐标系,把对应的高斯分布进行乘积,计算公式为:
Figure BDA0002378990790000041
其中
Figure BDA0002378990790000042
对应新的起点和终点坐标系,
Figure BDA0002378990790000043
分别对应训练得到的起点和终点坐标系下t时刻轨迹点的均值和协方差矩阵,μtt分别为新生成轨迹点的均值和协方差矩阵。
本发明由于采用以上技术方案,具有以下优点:
1.位姿估计中充分利用了彩色信息与深度信息,提高了识别的速度与准确性;
2.融合了视觉,控制,机器学习等技术,具有较高的自主性;
3.将人的抓捕技巧迁移到机器人上,实现简单,速度快。
附图说明
图1是本发明抓捕场景示意图。
图2是本发明位姿估计与轨迹预测流程图。
图3是本发明模仿学习流程图。
图4是本发明总体抓捕策略流程图。
具体实施方式
下面结合附图来对本发明提供的协作搬运***进行详细说明,所述是对本发明的解释而不是限定。
首先介绍本发明的方法原理,包括以下步骤:
步骤一:基于视觉的位姿估计,实时反馈目标的位置和姿态;
步骤二:轨迹预测,根据历史一段时间位置和姿态轨迹,动态预测后一段时间的位置和姿态轨迹;
步骤三:基于模仿学习的轨迹规划,采集人的抓捕数据,建立技能模型,将其迁移到机器人上,根据步骤二所预测的轨迹,确定合适的抓捕时机进行抓捕。
可选的,抓捕***基于ROS(Robot Operating System)平台,能对慢速运动的自由漂浮目标实现位姿估计、轨迹预测、轨迹规划,最后实现精准抓捕。
可选的,所述基于视觉的位姿估计方法为三维模板匹配方法,融合了RGB信息,深度信息及点云信息,按照以下步骤进行:
步骤一:建立模板库,利用OpenGL,直接采集漂浮物体抓取点三维模型不同视点不同距离的模板,模板特征为RGB图像边缘梯度向量与深度图像法向量;
其中,梯度向量计算公式为:
Figure BDA0002378990790000044
其中,x表示像素位置,R,G,B分别表示图像的三个通道
法向量的计算方法为通过最小二乘法求取最优的深度梯度,通过深度梯度求取法向量。
步骤二:计算自由漂浮目标初始位姿,根据RGB与深度信息,进行窗口搜索,得到目标的初始位姿,使用如下公式进行相似度计算:
Figure BDA0002378990790000051
步骤三:根据初始位姿进行ICP点云匹配,得到目标的精确位姿,使用如下公式进行计算:
Figure BDA0002378990790000052
其中pi为目标点云中的点,qi为源点云中与之对应的点,R为旋转变换,t为平移量。
可选的:所述轨迹预测方法为基于欧拉动力学的方法,按照以下步骤进行:
步骤一:根据所测量位姿,找到一组合适的动力学参数来解析表示目标的位姿运动;
目标的动力学模型为:
Figure BDA0002378990790000053
其中Ixx,Iyy,Izz分别为刚体中心主惯量矩,ωxyz为刚体角速度在中心惯量主轴坐标系中的投影分量,ψww,
Figure BDA0002378990790000054
为刚体相对于中心惯量主轴坐标系转过的角度。
令E为刚体的动能,L为刚体的角动量,刚体运动可以看作潘索椭球
Figure BDA0002378990790000055
Figure BDA0002378990790000056
目标的动力学模型可表示为:
Figure BDA0002378990790000057
Jx,Jy,Jz,α为所需要估计的参数。
步骤二:求解最佳的动力学参数,使得这些动力学参数预测的位姿与观测结果吻合最好;
根据根据约束条件求解如下优化目标得到最佳动力学参数:
Figure BDA0002378990790000058
其中ω(Jx,Jy,Jz,α,ti)为ti时刻预测值,ωl(ti)为ti时刻观测值。
步骤三:使用最佳的动力学参数预测目标的位姿。
可选的:所述轨迹规划方法为基于模仿学习的方法,按照以下步骤进行:
步骤一:在现实场景下建立漂浮物体慢速运动的场景,利用动作捕捉***采集人抓捕目标的轨迹,轨迹包含了手末端位置和姿态的时间序列,建立示教数据集
Figure BDA0002378990790000061
其中N为轨迹数量,D=7为每个点的纬度,包括
Figure BDA0002378990790000062
T为时间序列;
步骤二:建立模仿学习的模型,利用采集数据对模型进行训练,将人抓捕目标的技能迁移到机器人上,可以生成对应目标位姿的抓捕轨迹。
可选的,所述步骤二模仿学习的过程按照以下步骤进行:
步骤一:模型训练,将位姿看作
Figure BDA0002378990790000063
6个独立的变量,对每一个维度分别训练,对每一条轨迹分别变换到起点和终点坐标系进行GMM编码,求去轨迹点的概率分布模型。
步骤二:将所得GMM模型分别进行GMR回归,将时间作为输入,轨迹的6维位姿坐标作为输出,对应的条件概率分布为:
Figure BDA0002378990790000064
其中
Figure BDA0002378990790000065
分别为ξtii切分成输入输出而成
Figure BDA0002378990790000066
的计算方式为:
Figure BDA0002378990790000067
步骤三:抓取轨迹生成,将步骤二所得GMR模型起点和终点坐标系分别变换到机械臂现在的坐标系与目标坐标系,把对应的高斯分布进行乘积,计算公式为:
Figure BDA0002378990790000068
其中
Figure BDA0002378990790000069
对应新的起点和终点坐标系,
Figure BDA00023789907900000610
分别对应训练得到的起点和终点坐标系下t时刻轨迹点的均值和协方差矩阵,μtt分别为新生成轨迹点的均值和协方差矩阵。
下面结合附图对本发明的发明原理进行具体说明
本发明的实施过程如图4所示,首先基于ROS搭建模拟抓捕场景,包括深度相机,可以获取RGB图像,深度图像和点云,两个六轴机械臂,其中一个机械臂用来拖动模拟漂浮物体匀速运动,另一个机械臂用来抓捕模拟漂浮目标。
首先建立模板库,利用OpenGL,直接采集漂浮物体抓取点三维模型不同视点不同距离的模板,模板特征为RGB图像边缘梯度向量与深度图像法向量;利用RGB边缘梯度特征和深度图法向量特征进行模板匹配得到初始位姿,利用点云信息进行ICP位姿修正,实时获取目标的位姿信息,该方法充分利用了深度相机的彩色信息,深度信息及点云信息,首先利用彩色和深度信息的特征进行模板匹配,找到初始位姿,再利用点云信息进行位姿修正,匹配速度快,精度高,能够在目标慢速运动情况下进行实时的位姿估计。
其次利用历史一段时间的位姿进行轨迹预测。根据欧拉方程建立自由漂浮目标的动力学模型,找到一组合适的动力学参数来解析表示目标的位姿运动。根据历史数据对参数进行优化,使动力学参数预测的位姿与观测位姿吻合度最高。这组参数即为最优参数。使用此参数计算目标的角速度,线速度等进行长期预测。此方法实现简单,精度高,能够实现目标的长期稳定预测。
最后进行轨迹规划,根据预测结果和机械臂末端可达到的范围判断合适的抓捕时机,使用模仿学习的方法进行轨迹规划。建立人进行抓捕的技能模型,使用机械臂拖动目标模拟空间自由漂浮物体,使用动作捕捉***采集人手进行抓捕的数据,利用采集的数据对模型进行训练,将人的抓捕技能迁移到机械臂上,在机械臂得到合适的抓捕时机时,快速规划,完成目标的抓捕。此方法基于机器学习,不需要复杂的建模工作,规划速度快,并且能够根据位姿的变化动态的规划轨迹。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (5)

1.一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,其特征在于,包括以下步骤:
步骤1:基于视觉的位姿估计,实时反馈目标的位置和姿态;
步骤2:轨迹预测,根据历史一段时间位置和姿态轨迹,动态预测后一段时间的位置和姿态轨迹;
步骤3:基于模仿学习的轨迹规划,采集人的抓捕数据,建立技能模型,将其迁移到机器人上,根据步骤2所预测的轨迹,确定合适的抓捕时机进行抓捕。
2.根据权利要求1所述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,其特征在于:所述步骤1中,基于视觉的位姿估计方法为三维模板匹配方法,融合了RGB信息,深度信息及点云信息,具体包括:
步骤1.1:建立模板库,利用OpenGL,直接采集漂浮物体抓取点三维模型不同视点不同距离的模板,模板特征为RGB图像边缘梯度向量与深度图像法向量;
其中,梯度向量计算公式为:
Figure FDA0002378990780000011
其中,x表示像素位置,R,G,B分别表示图像的三个通道,法向量的计算方法为通过最小二乘法求取最优的深度梯度,通过深度梯度求取法向量;
步骤1.2:计算自由漂浮目标初始位姿,根据RGB与深度信息,进行窗口搜索,得到目标的初始位姿,使用如下公式进行相似度计算:
Figure FDA0002378990780000012
步骤1.3:根据初始位姿进行ICP点云匹配,得到目标的精确位姿,使用如下公式进行计算:
Figure FDA0002378990780000013
其中pi为目标点云中的点,qi为源点云中与之对应的点,R为旋转变换,t为平移量。
3.根据权利要求1所述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,其特征在于:所述步骤2中,轨迹预测基于欧拉动力学,具体包括:
步骤2.1:根据所测量位姿,找到一组合适的动力学参数来解析表示目标的位姿运动;
目标的动力学模型为:
Figure FDA0002378990780000021
其中Ixx,Iyy,Izz分别为刚体中心主惯量矩,ωxyz为刚体角速度在中心惯量主轴坐标系中的投影分量,ψww,
Figure FDA0002378990780000022
为刚体相对于中心惯量主轴坐标系转过的角度;
令E为刚体的动能,L为刚体的角动量,刚体运动可以看作潘索椭球
Figure FDA0002378990780000023
Figure FDA0002378990780000024
目标的动力学模型可表示为:
Figure FDA0002378990780000025
Jx,Jy,Jz,α为所需要估计的参数;
步骤2.2:求解最佳的动力学参数,使得这些动力学参数预测的位姿与观测结果吻合最好;
根据根据约束条件求解如下优化目标得到最佳动力学参数:
Figure FDA0002378990780000026
其中ω(Jx,Jy,Jz,α,ti)为ti时刻预测值,ωl(ti)为ti时刻观测值;
步骤2.3:使用最佳的动力学参数预测目标的位姿。
4.根据权利要求1所述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,其特征在于:所述步骤3中,轨迹规划基于模仿学习,具体包括:
步骤3.1:在现实场景下建立漂浮物体慢速运动的场景,利用动作捕捉***采集人抓捕目标的轨迹,轨迹包含了手末端位置和姿态的时间序列,建立示教数据集
Figure FDA0002378990780000027
其中N为轨迹数量,D=7为每个点的纬度,包括
Figure FDA0002378990780000028
T为时间序列;
步骤3.2:建立模仿学习的模型,利用采集数据对模型进行训练,将人抓捕目标的技能迁移到机器人上,可以生成对应目标位姿的抓捕轨迹。
5.根据权利要求4所述的一种基于3D视觉和模仿学习的自由漂浮目标抓捕方法,其特征在于:所述步骤3.2模仿学习的过程按照以下步骤进行:
步骤A:模型训练,将位姿看作
Figure FDA0002378990780000031
6个独立的变量,对每一个维度分别训练,对每一条轨迹分别变换到起点和终点坐标系进行GMM编码,求去轨迹点的概率分布模型;
步骤B:将所得GMM模型分别进行GMR回归,将时间作为输入,轨迹的6维位姿坐标作为输出,对应的条件概率分布为:
Figure FDA0002378990780000032
其中
Figure FDA0002378990780000033
分别为ξtii切分成输入输出而成
Figure FDA0002378990780000034
的计算方式为:
Figure FDA0002378990780000035
步骤C:抓取轨迹生成,将步骤B所得GMR模型起点和终点坐标系分别变换到机械臂现在的坐标系与目标坐标系,把对应的高斯分布进行乘积,计算公式为:
Figure FDA0002378990780000036
其中
Figure FDA0002378990780000037
对应新的起点和终点坐标系,
Figure FDA0002378990780000038
分别对应训练得到的起点和终点坐标系下t时刻轨迹点的均值和协方差矩阵,μtt分别为新生成轨迹点的均值和协方差矩阵。
CN202010077652.0A 2020-01-31 2020-01-31 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法 Active CN111325768B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010077652.0A CN111325768B (zh) 2020-01-31 2020-01-31 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010077652.0A CN111325768B (zh) 2020-01-31 2020-01-31 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法

Publications (2)

Publication Number Publication Date
CN111325768A true CN111325768A (zh) 2020-06-23
CN111325768B CN111325768B (zh) 2022-08-30

Family

ID=71167064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010077652.0A Active CN111325768B (zh) 2020-01-31 2020-01-31 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法

Country Status (1)

Country Link
CN (1) CN111325768B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112497240A (zh) * 2020-11-24 2021-03-16 西北工业大学 非刚性抓捕的目标状态观测方法、计算机设备及存储介质
CN112535474A (zh) * 2020-11-11 2021-03-23 西安交通大学 一种基于相似规律搜索的下肢运动关节角度实时预测方法
CN113658250A (zh) * 2021-08-25 2021-11-16 中冶京诚工程技术有限公司 漂浮物位置预测方法及装置
CN114505869A (zh) * 2022-02-17 2022-05-17 西安建筑科技大学 一种化学试剂智配机控制***
CN114833830A (zh) * 2022-04-27 2022-08-02 北京市商汤科技开发有限公司 抓取方法及装置、电子设备和存储介质
CN116330306A (zh) * 2023-05-31 2023-06-27 之江实验室 一种物体的抓取方法、装置、存储介质及电子设备
CN116494253A (zh) * 2023-06-27 2023-07-28 北京迁移科技有限公司 目标物体抓取位姿获取方法及机器人抓取***

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130151442A1 (en) * 2011-12-13 2013-06-13 Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) Method for learning task skill and robot using thereof
US20140211991A1 (en) * 2013-01-30 2014-07-31 Imimtek, Inc. Systems and methods for initializing motion tracking of human hands
CN106210269A (zh) * 2016-06-22 2016-12-07 南京航空航天大学 一种基于智能手机的人体动作识别***及方法
CN106251353A (zh) * 2016-08-01 2016-12-21 上海交通大学 弱纹理工件及其三维位姿的识别检测方法及***
US20170064287A1 (en) * 2015-08-24 2017-03-02 Itseez3D, Inc. Fast algorithm for online calibration of rgb-d camera
CN107490965A (zh) * 2017-08-21 2017-12-19 西北工业大学 一种空间自由漂浮机械臂的多约束轨迹规划方法
CN108115681A (zh) * 2017-11-14 2018-06-05 深圳先进技术研究院 机器人的模仿学习方法、装置、机器人及存储介质
CN108381553A (zh) * 2018-04-28 2018-08-10 北京空间飞行器总体设计部 一种用于空间非合作目标捕获的相对导航近距离跟踪方法及***
CN108537268A (zh) * 2018-03-30 2018-09-14 烟台维度机器人有限公司 一种机器人准周期运动演示学习方法
CN109472830A (zh) * 2018-09-28 2019-03-15 中山大学 一种基于无监督学习的单目视觉定位方法
CN109885073A (zh) * 2019-01-15 2019-06-14 西北工业大学 一种针对空间非合作目标自由漂浮运动状态的预测方法
CN110014426A (zh) * 2019-03-21 2019-07-16 同济大学 一种利用低精度深度相机高精度抓取形状对称工件的方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130151442A1 (en) * 2011-12-13 2013-06-13 Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) Method for learning task skill and robot using thereof
US20140211991A1 (en) * 2013-01-30 2014-07-31 Imimtek, Inc. Systems and methods for initializing motion tracking of human hands
US20170064287A1 (en) * 2015-08-24 2017-03-02 Itseez3D, Inc. Fast algorithm for online calibration of rgb-d camera
CN106210269A (zh) * 2016-06-22 2016-12-07 南京航空航天大学 一种基于智能手机的人体动作识别***及方法
CN106251353A (zh) * 2016-08-01 2016-12-21 上海交通大学 弱纹理工件及其三维位姿的识别检测方法及***
CN107490965A (zh) * 2017-08-21 2017-12-19 西北工业大学 一种空间自由漂浮机械臂的多约束轨迹规划方法
CN108115681A (zh) * 2017-11-14 2018-06-05 深圳先进技术研究院 机器人的模仿学习方法、装置、机器人及存储介质
CN108537268A (zh) * 2018-03-30 2018-09-14 烟台维度机器人有限公司 一种机器人准周期运动演示学习方法
CN108381553A (zh) * 2018-04-28 2018-08-10 北京空间飞行器总体设计部 一种用于空间非合作目标捕获的相对导航近距离跟踪方法及***
CN109472830A (zh) * 2018-09-28 2019-03-15 中山大学 一种基于无监督学习的单目视觉定位方法
CN109885073A (zh) * 2019-01-15 2019-06-14 西北工业大学 一种针对空间非合作目标自由漂浮运动状态的预测方法
CN110014426A (zh) * 2019-03-21 2019-07-16 同济大学 一种利用低精度深度相机高精度抓取形状对称工件的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAOXIANG CAO 等: "The 3D map building of the mobile robot", 《PROCEEDINGS OF 2016 IEEE INTERNATIONAL CONFERENCE ON MECHATRONICS AND AUTOMATION》 *
王月 等: "基于模型的增强现实无标识三维注册追踪方法", 《上海交通大学学报》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112535474A (zh) * 2020-11-11 2021-03-23 西安交通大学 一种基于相似规律搜索的下肢运动关节角度实时预测方法
CN112497240A (zh) * 2020-11-24 2021-03-16 西北工业大学 非刚性抓捕的目标状态观测方法、计算机设备及存储介质
CN113658250A (zh) * 2021-08-25 2021-11-16 中冶京诚工程技术有限公司 漂浮物位置预测方法及装置
CN113658250B (zh) * 2021-08-25 2024-03-08 中冶京诚工程技术有限公司 漂浮物位置预测方法及装置
CN114505869A (zh) * 2022-02-17 2022-05-17 西安建筑科技大学 一种化学试剂智配机控制***
CN114833830A (zh) * 2022-04-27 2022-08-02 北京市商汤科技开发有限公司 抓取方法及装置、电子设备和存储介质
CN116330306A (zh) * 2023-05-31 2023-06-27 之江实验室 一种物体的抓取方法、装置、存储介质及电子设备
CN116330306B (zh) * 2023-05-31 2023-08-15 之江实验室 一种物体的抓取方法、装置、存储介质及电子设备
CN116494253A (zh) * 2023-06-27 2023-07-28 北京迁移科技有限公司 目标物体抓取位姿获取方法及机器人抓取***
CN116494253B (zh) * 2023-06-27 2023-09-19 北京迁移科技有限公司 目标物体抓取位姿获取方法及机器人抓取***

Also Published As

Publication number Publication date
CN111325768B (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN111325768B (zh) 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法
CN108453738B (zh) 一种基于Opencv图像处理的四旋翼飞行器空中自主抓取作业的控制方法
Wang et al. Eye-in-hand tracking control of a free-floating space manipulator
CN107655473B (zh) 基于slam技术的航天器相对自主导航***
CN106651949B (zh) 一种基于仿真的空间机械臂抓捕目标遥操作方法及***
Petit et al. Vision-based space autonomous rendezvous: A case study
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
Peng et al. Dual-arm coordinated capturing of an unknown tumbling target based on efficient parameters estimation
CN114912287A (zh) 基于目标6d位姿估计的机器人自主抓取仿真***及方法
Fu et al. Autonomous landing of a quadrotor on an UGV
CN115122325A (zh) 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法
CN107363834A (zh) 一种基于认知地图的机械臂抓取方法
Sell et al. Pose performance of LIDAR-based navigation for satellite servicing
Ventura et al. Pose tracking of a noncooperative spacecraft during docking maneuvers using a time-of-flight sensor
Li et al. A novel semi-autonomous teleoperation method for the tiangong-2 manipulator system
CN113724260B (zh) 一种基于深度强化学习的卫星抓取方法
Hu et al. A minimal dataset construction method based on similar training for capture position recognition of space robot
CN109542094A (zh) 无期望图像的移动机器人视觉镇定控制
Zhang et al. Vision-based system for satellite on-orbit self-servicing
Gietler et al. Forestry crane automation using learning-based visual grasping point prediction
Shi et al. Study on intelligent visual servoing of space robot for cooperative target capturing
Lee et al. Integrated Simulation of Virtual Prototypes and Control Algorithms of Unmanned Surface Vehicles Based on a Robot Operating System
Sanz et al. Grasper HIL simulation towards autonomous manipulation of an underwater panel in a permanent observatory
Qian et al. An improved ORB-SLAM2 in dynamic scene with instance segmentation
Prats et al. Template tracking and visual servoing for alignment tasks with autonomous underwater vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant