CN113510701A - 机器人的控制方法、机器人及计算机可读存储介质 - Google Patents
机器人的控制方法、机器人及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113510701A CN113510701A CN202110553828.XA CN202110553828A CN113510701A CN 113510701 A CN113510701 A CN 113510701A CN 202110553828 A CN202110553828 A CN 202110553828A CN 113510701 A CN113510701 A CN 113510701A
- Authority
- CN
- China
- Prior art keywords
- speed
- robot
- dynamic object
- target dynamic
- control model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000008569 process Effects 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 34
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本申请涉及机器人控制技术领域,公开了机器人的控制方法、机器人及计算机可读存储介质。该控制方法包括:获取目标动态物体当前时刻的第一速度;将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的;根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。通过上述方式,能够提升机械臂追踪动态物体的精度以及机械臂在移动时的顺滑度。
Description
技术领域
本申请涉及机器人控制技术领域,特别是涉及机器人的控制方法、机器人及计算机可读存储介质。
背景技术
机器人的机械臂在抓取的物体时候需要提前知道欲抓取物体的位置,然后将机械臂的末端通过各个连杆关节角的变化到达物体的位置,再执行抓取命令。
对于移动的物体,由于每次得到的物***置信息来自于上一时刻,因此无法通过得到物***置、移动机械臂、抓取这一套流程去抓取。并且通过笛卡尔空间系下求解机械臂的运动往往会需要花费一段时间,物体会移动到更远的距离,难以实施抓取。
发明内容
本申请主要解决的技术问题是提供一种机器人的控制方法、机器人及计算机可读存储介质,能够提升机械臂追踪动态物体的精度以及机械臂在移动时的顺滑度。
为了解决上述问题,本申请采用的一种技术方案是提供一种机器人的控制方法,该控制方法包括:获取目标动态物体当前时刻的第一速度;将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的;根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
其中,该方法还包括:获取机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度;将历史运动过程中产生的第二速度和第一速度初始化,以生成训练样本;将训练样本输入至预先建立的控制模型,以对控制模型进行训练。
其中,获取目标动态物体当前时刻的第一速度,包括:获取目标动态物体在上一时刻的第一位置和当前时刻的第二位置;根据第一位置和第二位置得到目标动态物体的第一速度。
其中,将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,包括:将第一速度输入至预先训练得到的控制模型中,以使控制模型利用第一速度和控制模型中的误差值得到第二速度;其中,误差值是控制模型训练时得到的。
其中,控制模型的计算公式为:
其中,表示机械臂的第二速度,u表示均值,e表示误差值,表示目标动态物体的第一速度,Pj表示控制模型中第j个高斯模型的先验,表示控制模型中第j个高斯模型中机械臂末端的速度与位置的协方差,∑e,j表示控制模型中第j个高斯模型中机械臂末端的协方差,J表示雅可比矩阵。
其中,根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪,包括:利用第二速度得到机械臂的每个关节对应的第三速度;根据第三速度控制机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
其中,利用第二速度得到机械臂的每个关节对应的第三速度,包括:采用以下公式进行计算:
其中,该方法还包括:在满足预设条件时,控制机器人的机械臂对目标动态物体进行抓取。
为了解决上述问题,本申请采用的另一种技术方案是提供一种机器人,该机器人包括:机器人主体;机械臂,设置于机器人主体;摄像头组件,设置于机器人主体,用于采集目标动态物体的图像数据;存储器,设置于机器人主体,用于存储程序数据;处理器,设置于机器人主体,且连接机械臂、摄像头组件和存储器,用于执行程序数据,以实现如上述技术方案提供的方法。
为了解决上述问题,本申请采用的另一种技术方案是提供一种计算机可读存储介质,该计算机可读存储介质用于存储程序数据,程序数据在被处理器执行时,用于实现如上述技术方案提供的方法。
本申请的有益效果是:区别于现有技术的情况,本申请的机器人的控制方法、机器人及计算机可读存储介质。该控制方法包括:获取目标动态物体当前时刻的第一速度;将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的;根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。通过上述方式,一方面利用控制模型输出对应目标动态物体下一时刻的第二速度,能够提升机械臂追踪动态物体的精度以及机械臂在移动时的顺滑度,进而提升抓取目标动态物体的成功率,另一方面,利用已训练的控制模型来得到机械臂的第二速度,能够减少对机器人的控制器的复杂手动调参,提高机器人的通用性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请提供的机器人的控制方法一实施例的流程示意图;
图2是本申请提供的目标动态物体在上一图像帧的示意图;
图3是本申请提供的目标动态物体在当前图像帧的示意图;
图4是本申请提供的步骤13的流程示意图;
图5是本申请提供的机器人的控制方法另一实施例的流程示意图;
图6是本申请提供的机器人一实施例的结构示意图;
图7是本申请提供的计算机可读存储介质一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。可以理解的是,此处所描述的具体实施例仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参阅图1,图1是本申请提供的机器人的控制方法一实施例的流程示意图。该方法包括:
步骤11:获取目标动态物体当前时刻的第一速度。
在一些实施例中,机器人包括摄像头,可利用摄像头对目标动态物体进行拍摄,利用拍摄的图像计算出目标动态物体当前时刻的第一速度。目标动态物体的速度可以是匀速可以是非匀速。
在一些实施例中,参阅图2,步骤11可以是如下流程:
步骤111:获取目标动态物体在上一时刻的第一位置和当前时刻的第二位置。
在一些实施例中,可以利用摄像头对目标动态物体进行拍摄,得到连续的图像帧。提取相邻的图像帧,并对每一图像帧中的目标动态物体进行识别,则可确定目标动态物体移动的距离。
步骤112:根据第一位置和所述第二位置得到目标动态物体的第一速度。
结合图2-图3进行说明:
图2是目标动态物体在上一图像帧的示意图,图3是目标动态物体在当前图像帧的示意图。如图2所示,目标动态物体A所处的位置为位置1,如图3所示,目标动态物体A所处的位置为位置3。则可以根据位置1和位置3之间的距离求出目标动态物体A的第一速度。
步骤12:将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的。
在一些实施例中,历史运动过程可以是机器人的示教过程,也可以是机器人在其他时候的运行过程。其中,示教过程可以以拖动或遥操作来控制机器人的机械臂,使机械臂始终与运动中的目标动态物体保持在同步。如,使机械臂和目标动态物体在同一平面沿相同方向运动。若以笛卡尔坐标轴表示,则可以表示为在xy平面上保持同步。在该示教过程中收集目标动态物体的第一速度和机器人的第二速度。因此会得到多组由第一速度和第二速度组成的数据。利用这些数据作为训练样本对控制模型进行训练,将训练好的控制模型用于步骤12中。
可以理解,历史运动过程中的第二速度和第一速度是同一刻采集的,也就说明历史运动过程中的第二速度和第一速度是同时产生的。
在一些实施例中,可以采用高斯混合模型、隐马尔科夫模型、K近邻、线性回归、神经网络、支持向量机等方式建立控制模型。
步骤13:根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
在一些实施例中,参阅图4,步骤13可以是如下流程:
步骤131:利用第二速度得到机械臂的每个关节对应的第三速度。
在一些实施例中,可以利用每个关节对应的雅可比矩阵、前向运动学矩阵、转移矩阵和第二速度可以计算得到每个关节对应的第三速度。
步骤132:根据第三速度控制机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
按照步骤132,使机械臂的每个关节达到其对应的第三速度,则在下一时刻机械臂与目标动态物体处于同一速度,且同一位置,实现机械臂对目标动态物体的同步跟踪。
在本实施例中,通过获取目标动态物体当前时刻的第一速度;将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的;根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。通过上述方式,一方面利用控制模型输出对应目标动态物体下一时刻的第二速度,能够提升机械臂追踪动态物体的精度以及机械臂在移动时的顺滑度,进而提升抓取目标动态物体的成功率,另一方面,利用已训练的控制模型来得到机械臂的第二速度,能够减少对机器人的控制器的复杂手动调参,提高机器人的通用性。
参阅图5,图5是本申请提供的机器人的控制方法另一实施例的流程示意图。该方法包括:
步骤51:获取目标动态物体当前时刻的第一速度。
在一些实施例中,机器人包括第一摄像头,第一摄像头可采集深度图像。通过第一摄像头的深度图像可以识别到摄像头到目标动态物体的距离以及目标动态物体在深度图像中的坐标点。结合第一摄像头的内参,则可以得到目标动态物体在第一摄像头对应的第一摄像头的相机坐标系下的位置。
如,可以利用以下公式进行计算:
其中,x′k表示目标动态物体在第一摄像头的相机坐标系下的X轴位置,y′k表示目标动态物体在第一摄像头的相机坐标系下的Y轴位置,uk表示目标动态物体在图像中的X轴位置,vk表示目标动态物体在图像中的Y轴位置,cx表示第一摄像头的X轴上的原点平移尺寸,cy表示第一摄像头的Y轴上的原点平移尺寸,d表示第一摄像头到目标动态物体的距离,fx表示第一摄像头的X轴上的焦距,fy表示第一摄像头的Y轴上的焦距。
然后可以通过第一摄像头对应的相机坐标系下的位置和距离,得到目标动态物体在机器人的坐标系下的位置。
然后,机器人还包括第二摄像头,第二摄像头设置于机器人的机械臂末端,在得到目标动态物体在机器人的坐标系下的位置。对机械臂末端的控制,使第二摄像头再次能够拍摄到目标动态物体。
然后通过第二摄像头再识别目标动态物体的位置uh和中心点vh,第二摄像头的内参为chx、chy、fhx和fhy,将目标动态物体在图像中的坐标转换到机器人的坐标系下得到x'h和y'h。而第二摄像头距离目标动态物体的高度可以通过之前第一摄像头测量的高度减去第二摄像头和第一摄像头机之间的高度,用符号h表示。
其中,x'h表示目标动态物体在第二摄像头的相机坐标系下的X轴位置,y'h表示目标动态物体在第二摄像头的相机坐标系下的Y轴位置,y'h表示目标动态物体在图像中的X轴位置,vh表示目标动态物体在图像中的Y轴位置,chx表示第二摄像头的X轴上的原点平移尺寸,chy表示第二摄像头的Y轴上的原点平移尺寸,h表示第二摄像头到目标动态物体的距离,fhx表示第二摄像头的X轴上的焦距,fhy表示第二摄像头的Y轴上的焦距。
利用两个摄像头的方式,使机械臂能够实现对目标动态物体的准确定位。
然后利用第二摄像头采集的当前帧图像中的目标动态物体的位置与第二摄像头采集的历史帧图像中的目标动态物体的位置计算出目标动态物体当前时刻的第一速度。
如,可以利用以下公式进行计算:
其中,表示目标动态物体相对于机械臂的速度,Poset表示当前帧图像中的目标动态物体的位置,Poset-1表示历史帧图像中的目标动态物体的位置,Δtc表示相应算法处理数据的时间,f表示第二摄像头的频率。
可以理解,因机械臂和目标动态物体在同步移动,则利用相邻的帧图像计算得到的是目标动态物体相对应机械臂的相对速度,所以目标动态物体的实际速度应该加上机械臂的速度。
步骤52:将第一速度输入至预先训练得到的控制模型中,以使控制模型利用第一速度和控制模型中的误差值得到第二速度;其中,误差值是控制模型训练时得到的。
控制模型可以是利用高斯混合模型训练得到的,高斯混合模型中的高斯模型的数量可以根据实际情况设置,如设置为5个,3个等。
其中,控制模型的计算公式为:
其中,表示机械臂的第二速度,u表示均值,e表示误差值,表示目标动态物体的速度,Pj表示控制模型中第j个高斯模型的先验,表示控制模型中第j个高斯模型中机械臂末端的速度与位置的协方差,∑e,j表示控制模型中第j个高斯模型中机械臂末端的协方差,J表示雅可比矩阵。
步骤53:利用第二速度得到机械臂的每个关节对应的第三速度。
在一些实施例中,可以采用以下公式进行计算:
可以理解,在机器人为六轴机器人时,机械臂则对应6个关节速度。
步骤54:根据第三速度控制机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
步骤55:在满足预设条件时,控制机器人的机械臂对目标动态物体进行抓取。
在一些实施例中,预设条件可以以时间为条件,也可以以位置为条件,还可以以机械臂的关节角度为条件。
以机械臂在目标动态物体上方为例,描述如何控制机器人的机械臂对目标动态物体进行抓取。首先可以得到机械臂末端和目标动态物体两者之间的高度差Δh,在控制机械臂下降时使用非线性函数:
通过该函数可以控制机械臂在下降的过程中是一个由急到缓的过程,从而能够防止机械臂在下降时导致的不稳定性,在欲抓取前给足一定的时间进行缓冲,可以理解,根据机械臂的不同,对参数的设置也不尽相同),使其能够顺利收敛。
通过上述方式,能够弥补视觉上带来的延时。通过收集拖动机械臂追踪物体的数据,来训练控制模型避免控制器的复杂手动调参,使得没有控制相关理论知识的人也能够通过示教的方式轻松使用。
该方法以高斯混合模型为基础,相当于在原来的位置控制中增加了一种控制器,该控制器所产生的控制率能够提升机械臂追踪动态物体的精度以及机械臂在移动时的顺滑度,进而提升抓取目标动态物体的成功率。
参阅图6,该机器人60包括机器人主体61、机械臂62、摄像头组件63、存储器64和处理器65。其中,机械臂62设置于机器人主体61;摄像头组件63设置于机器人主体61,用于采集目标动态物体的图像数据;存储器64设置于机器人主体61,用于存储程序数据;处理器65设置于机器人主体61,且连接机械臂62、摄像头组件63和存储器64,用于执行程序数据,以实现如下方法:
获取目标动态物体当前时刻的第一速度;将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的;根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
可以理解的,本实施例中的处理器65还可以实现上述任一实施例的方法,其具体的实施步骤可以参考上述实施例,这里不再赘述。
其中,摄像头组件63包括第一摄像头(图未示)和第二摄像头(图未示),第一摄像头设置于机器人主体61,用于采集目标动态物体的图像数据,能够采集全局的图像;第二摄像头设置于机械臂62的末端,用于采集目标动态物体的图像数据。可以理解,第二摄像头相较于第一摄像头采集的目标动态物体的准确性较高。
参阅图7,该计算机可读存储介质70用于存储程序数据71,程序数据71在被处理器执行时,用于实现如上述技术方案提供的方法。
获取目标动态物体当前时刻的第一速度;将第一速度输入至预先训练得到的控制模型中,并得到控制模型输出的机器人的第二速度,第二速度与目标动态物体下一时刻的速度相对应;其中,控制模型是由机器人在历史运动过程中产生的第二速度以及目标动态物体在历史运动过程中产生的第一速度,作为训练样本对控制模型进行训练得到的;根据第二速度控制机器人的机械臂,以使机械臂在下一时刻对目标动态物体进行同步跟踪。
可以理解的,本实施例中的计算机可读存储介质70应用于机器人60,其具体的实施步骤可以参考上述实施例,这里不再赘述。
在本申请所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述其他实施方式中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种机器人的控制方法,其特征在于,所述控制方法包括:
获取目标动态物体当前时刻的第一速度;
将所述第一速度输入至预先训练得到的控制模型中,并得到所述控制模型输出的机器人的第二速度,所述第二速度与所述目标动态物体下一时刻的速度相对应;其中,所述控制模型是由所述机器人在历史运动过程中产生的第二速度以及所述目标动态物体在所述历史运动过程中产生的第一速度,作为训练样本对所述控制模型进行训练得到的;
根据所述第二速度控制所述机器人的机械臂,以使所述机械臂在下一时刻对所述目标动态物体进行同步跟踪。
2.根据权利要求1所述控制方法,其特征在于,
所述方法还包括:
获取所述机器人在历史运动过程中产生的第二速度以及所述目标动态物体在所述历史运动过程中产生的第一速度;
将所述历史运动过程中产生的所述第二速度和所述第一速度初始化,以生成训练样本;
将所述训练样本输入至预先建立的控制模型,以对所述控制模型进行训练。
3.根据权利要求1所述的控制方法,其特征在于,
所述获取目标动态物体当前时刻的第一速度,包括:
获取所述目标动态物体在上一时刻的第一位置和当前时刻的第二位置;
根据所述第一位置和所述第二位置得到所述目标动态物体的第一速度。
4.根据权利要求1所述的控制方法,其特征在于,
所述将所述第一速度输入至预先训练得到的控制模型中,并得到所述控制模型输出的机器人的第二速度,包括:
将所述第一速度输入至预先训练得到的控制模型中,以使所述控制模型利用所述第一速度和所述控制模型中的误差值得到所述第二速度;其中,所述误差值是所述控制模型训练时得到的。
6.根据权利要求1所述的控制方法,其特征在于,
所述根据所述第二速度控制所述机器人的机械臂,以使所述机械臂在下一时刻对所述目标动态物体进行同步跟踪,包括:
利用所述第二速度得到所述机械臂的每个关节对应的第三速度;
根据所述第三速度控制所述机械臂,以使所述机械臂在下一时刻对所述目标动态物体进行同步跟踪。
8.根据权利要求1所述的控制方法,其特征在于,
所述方法还包括:
在满足预设条件时,控制所述机器人的机械臂对所述目标动态物体进行抓取。
9.一种机器人,其特征在于,所述机器人包括:
机器人主体;
机械臂,设置于所述机器人主体;
摄像头组件,设置于所述机器人主体,用于采集目标动态物体的图像数据;
存储器,设置于所述机器人主体,用于存储程序数据;
处理器,设置于所述机器人主体,且连接所述机械臂、摄像头组件和所述存储器,用于执行所述程序数据,以实现如权利要求1-8任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序数据,所述程序数据在被处理器执行时,用于实现如权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110553828.XA CN113510701B (zh) | 2021-05-20 | 2021-05-20 | 机器人的控制方法、机器人及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110553828.XA CN113510701B (zh) | 2021-05-20 | 2021-05-20 | 机器人的控制方法、机器人及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113510701A true CN113510701A (zh) | 2021-10-19 |
CN113510701B CN113510701B (zh) | 2022-08-09 |
Family
ID=78064788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110553828.XA Active CN113510701B (zh) | 2021-05-20 | 2021-05-20 | 机器人的控制方法、机器人及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113510701B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0732277A (ja) * | 1993-07-16 | 1995-02-03 | Toshiba Corp | ロボットの制御装置 |
CN108674922A (zh) * | 2018-05-16 | 2018-10-19 | 广州视源电子科技股份有限公司 | 一种用于机器人的传送带同步跟踪方法、装置及*** |
WO2019037498A1 (zh) * | 2017-08-25 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 主动跟踪方法、装置及*** |
CN109483541A (zh) * | 2018-11-22 | 2019-03-19 | 浙江大学 | 一种基于分解速度规划算法的移动物体抓取方法 |
CN111452039A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 动态***下机器人姿态调整方法、装置、电子设备及介质 |
-
2021
- 2021-05-20 CN CN202110553828.XA patent/CN113510701B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0732277A (ja) * | 1993-07-16 | 1995-02-03 | Toshiba Corp | ロボットの制御装置 |
WO2019037498A1 (zh) * | 2017-08-25 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 主动跟踪方法、装置及*** |
CN108674922A (zh) * | 2018-05-16 | 2018-10-19 | 广州视源电子科技股份有限公司 | 一种用于机器人的传送带同步跟踪方法、装置及*** |
CN109483541A (zh) * | 2018-11-22 | 2019-03-19 | 浙江大学 | 一种基于分解速度规划算法的移动物体抓取方法 |
CN111452039A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 动态***下机器人姿态调整方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113510701B (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111055279B (zh) | 基于触觉与视觉结合的多模态物体抓取方法与*** | |
EP3414710B1 (en) | Deep machine learning methods and apparatus for robotic grasping | |
CN110000785B (zh) | 农业场景无标定机器人运动视觉协同伺服控制方法与设备 | |
CN113814986B (zh) | 一种基于机器视觉控制scara机器人的方法及*** | |
CN110744541A (zh) | 一种视觉引导的水下机械臂控制方法 | |
CN110385694A (zh) | 机器人的动作示教装置、机器人***以及机器人控制装置 | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作*** | |
Skoglund et al. | Programming by demonstration of pick-and-place tasks for industrial manipulators using task primitives | |
CN114770461B (zh) | 一种基于单目视觉的移动机器人及其自动抓取方法 | |
Han et al. | Visual servoing control of robotics with a neural network estimator based on spectral adaptive law | |
Huang et al. | A novel robotic grasping method for moving objects based on multi-agent deep reinforcement learning | |
CN113510701B (zh) | 机器人的控制方法、机器人及计算机可读存储介质 | |
CN116423520A (zh) | 一种基于视觉和动态运动基元的机械臂轨迹规划方法 | |
Long et al. | Robotic cutting of soft materials using force control & image moments | |
CN116834014A (zh) | 一种空间多臂机器人捕获非合作目标的智能协同控制方法和*** | |
CN113681560B (zh) | 基于视力融合的机械臂操作铰接物体的方法 | |
Zhou et al. | Visual servo control system of 2-DOF parallel robot | |
Lepora et al. | Pose-based servo control with soft tactile sensing | |
Kawagoshi et al. | Visual servoing using virtual space for both learning and task execution | |
CN111413995A (zh) | 双刚体特征点间相对位置跟踪与姿态同步控制方法及*** | |
Hung et al. | An approach to learn hand movements for robot actions from human demonstrations | |
Xu et al. | A fast and straightforward hand-eye calibration method using stereo camera | |
Saudabayev et al. | An intelligent object manipulation framework for industrial tasks | |
Nakatani et al. | Dynamic Manipulation Like Normal-type Pen Spinning by a High-speed Robot Hand and a High-speed Vision System | |
CN115502961B (zh) | 基于人体手臂运动信息预测的人机在线避障方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |