CN114355953A - 一种基于机器视觉的多轴伺服***的高精度控制方法及*** - Google Patents
一种基于机器视觉的多轴伺服***的高精度控制方法及*** Download PDFInfo
- Publication number
- CN114355953A CN114355953A CN202210271120.XA CN202210271120A CN114355953A CN 114355953 A CN114355953 A CN 114355953A CN 202210271120 A CN202210271120 A CN 202210271120A CN 114355953 A CN114355953 A CN 114355953A
- Authority
- CN
- China
- Prior art keywords
- information
- acquiring
- industrial robot
- axis
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种基于机器视觉的多轴伺服***的高精度控制方法及***,包括:获取含有目标工件的视觉图像信息,对视觉图像信息进行清晰度判断,若清晰度达到预设阈值,则将视觉图像信息进行预处理;将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,将特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合工业机器人的运动学参数得到规划路径,从规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。本发明通过机器视觉对多轴工业机器人进行高精度控制,提高了多轴工业机器人的运动控制效率及定位精度。
Description
技术领域
本发明涉及自动化控制技术领域,更具体的,涉及一种基于机器视觉的多轴伺服***的高精度控制方法及***。
背景技术
现如今科技高速发展,机器人、自动控制、智能化技术不断发展成熟,工业机器人的普及不仅解放了劳动力,还加快了生产速度,提高了生产质量,基于视觉的工业机器人应用是近年来实现工业自动化生产的研究热点,搭配视觉***的工业机器人能够有效提高机器人的智能化水平。目前, 多数的工业机器人都是通过离线编程或示教的方式执行设定的动作指令,通过示教人员设定进行放置与精确的位置示教抓取工件来工作。但是,这种方式有明显的局限性。在外界环境或工件状态发生变化导致抓取条件不能满足时,机器人往往不能适应这种变化,就会导致任务中断或失败。
为了对多轴工业机器人进行高精度控制,需要开发一款***与之配合进行实现,该***通过:获取视觉图像信息,将视觉图像信息进行预处理;将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合工业机器人的运动学参数得到规划路径,从所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述置误差实现规划路径的误差补偿。在***的实现过程中如何通过视觉图像信息对多轴工业机器人进行高精度控制以及如何实现控制过程中位置误差的补偿都是亟不可待需要解决的问题。
发明内容
为了解决上述技术问题,本发明提出了一种基于机器视觉的多轴伺服***的高精度控制方法及***。
本发明第一方面提供了一种基于机器视觉的多轴伺服***的高精度控制方法,包括:
获取含有目标工件的视觉图像信息,对所述视觉图像信息进行清晰度判断;
若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;
将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息;
将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作;
通过所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。
本方案中,对所述视觉图像信息进行清晰度判断,具体为:
获取视觉图像信息,利用聚焦评估算子测量所述视觉图像信息中每个像素点的聚焦程度;
通过各像素点进行聚焦评估后的聚焦程度评估值生成聚焦评估曲线,将所述聚焦评估曲线与理想聚焦评估曲线进行对比,生成曲线偏移误差;
判断所述曲线偏移误差是否小于预设偏移误差阈值,若小于,则说明图像清晰度满足预设标准;
若不小于,则通过黄金分割搜索法控制获得准焦位置,根据所述准焦位置进行图像传感器的自动对焦。
本方案中,所述的将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,具体为:
获取预处理后的视觉图像信息中每个像素的灰度值,并利用微分算子计算梯度的幅值和方向;
将目标像素的灰度值与其梯度方向上的相邻像素进行对比,若目标像素的灰度值均大于相邻像素,则目标像素置为边缘,否则目标像素置不是边缘;
根据视觉图像信息中的边缘判断结果进行图像分割,提取分割后视觉图像信息的特征信息,根据所述特征信息对目标工件进行识别;
获取目标工件轮廓信息,根据所述目标工件轮廓信息进行特征点提取,并获取特征点图像位置信息。
本方案中,所述的将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作,具体为:
基于神经网络结合粒子群算法建立多轴工业机器人的路迹规划模型,并进行初始化训练;
获取多轴工业机器人末端执行器所在点的初始位置信息及初始关节角度信息,同时设置多轴工业机器人的运动学约束及适应度函数;
将粒子种群进行初始化,随机赋予粒子速度和位置信息;
获取粒子当前速度与约束进行比较,若满足约束,则根据适应度值判断粒子的优劣,若不满足约束,则将粒子排除,将排除的粒子进行迭代训练,直到满足约束;
进行若干次粒子速度及位置信息的更新后,获取每一个粒子搜寻的最优位置及全部粒子中的最优位置,根据所述最优位置获取多轴工业机器人的规划路径。
本方案中,还包括:
获取多轴机器人各轴末端执行器从初始位置到特征点图像位置信息的时间信息;
将各轴的时间信息进行对比分析生成时间偏差信息,若所述偏差信息大于预设时间偏差阈值,则获取时间偏差信息对应的机械臂信息,根据所述机械臂信息及时间偏差信息生成路径修正信息;
根据所述路径修正信息对规划路径进行更新。
本方案中,所述的获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿,具体为:
通过所述规划路径中获取目标位置点,将所述目标位置点在相机坐标系中进行标定得到目标位置点图像位置坐标,将所述图像位置坐标转移到多轴工业机器人基座坐标系中作为理论位置坐标信息;
根据多轴工业机器人的自由度及多轴机械臂在相机坐标系中相邻两机械臂的位置与姿态关系通过D-H参数法建立机械臂连杆坐标系;
获取多轴工业机器人各轴末端执行器所在点在工业机器人各轴的机械臂连杆坐标系中的相对位置信息,根据所述相对位置信息获取末端执行器的位姿矩阵;
通过所述位姿矩阵获取各轴在目标位置点在多轴工业机器人基座坐标系中的实际位置坐标信息,将所述实际位置坐标信息与所述理论位置坐标信息进行对比生成位置误差;
根据所述位置误差生成规划路径补偿量,并结合周期信息获取轨迹路径补偿点就,根据所述规划路径补偿量及规划路径补偿点生成误差修正信息;
通过所述误差修正信息对规划路径的进行误差补偿。
本发明第二方面还提供了一种基于机器视觉的多轴伺服***的高精度控制***,该***包括:存储器、处理器,所述存储器中包括一种基于机器视觉的多轴伺服***的高精度控制方法程序,所述一种基于机器视觉的多轴伺服***的高精度控制方法程序被所述处理器执行时实现如下步骤:
获取含有目标工件的视觉图像信息,对所述视觉图像信息进行清晰度判断;
若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;
将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息;
将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作;
通过所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。
本方案中,对所述视觉图像信息进行清晰度判断,具体为:
获取视觉图像信息,利用聚焦评估算子测量所述视觉图像信息中每个像素点的聚焦程度;
通过各像素点进行聚焦评估后的聚焦程度评估值生成聚焦评估曲线,将所述聚焦评估曲线与理想聚焦评估曲线进行对比,生成曲线偏移误差;
判断所述曲线偏移误差是否小于预设偏移误差阈值,若小于,则说明图像清晰度满足预设标准;
若不小于,则通过黄金分割搜索法控制获得准焦位置,根据所述准焦位置进行图像传感器的自动对焦。
本方案中,所述的将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,具体为:
获取预处理后的视觉图像信息中每个像素的灰度值,并利用微分算子计算梯度的幅值和方向;
将目标像素的灰度值与其梯度方向上的相邻像素进行对比,若目标像素的灰度值均大于相邻像素,则目标像素置为边缘,否则目标像素置不是边缘;
根据视觉图像信息中的边缘判断结果进行图像分割,提取分割后视觉图像信息的特征信息,根据所述特征信息对目标工件进行识别;
获取目标工件轮廓信息,根据所述目标工件轮廓信息进行特征点提取,并获取特征点图像位置信息。
本方案中,所述的将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作,具体为:
基于神经网络结合粒子群算法建立多轴工业机器人的路迹规划模型,并进行初始化训练;
获取多轴工业机器人末端执行器所在点的初始位置信息及初始关节角度信息,同时设置多轴工业机器人的运动学约束及适应度函数;
将粒子种群进行初始化,随机赋予粒子速度和位置信息;
获取粒子当前速度与约束进行比较,若满足约束,则根据适应度值判断粒子的优劣,若不满足约束,则将粒子排除,将排除的粒子进行迭代训练,直到满足约束;
进行若干次粒子速度及位置信息的更新后,获取每一个粒子搜寻的最优位置及全部粒子中的最优位置,根据所述最优位置获取多轴工业机器人的规划路径。
本方案中,还包括:
获取多轴机器人各轴末端执行器从初始位置到特征点图像位置信息的时间信息;
将各轴的时间信息进行对比分析生成时间偏差信息,若所述偏差信息大于预设时间偏差阈值,则获取时间偏差信息对应的机械臂信息,根据所述机械臂信息及时间偏差信息生成路径修正信息;
根据所述路径修正信息对规划路径进行更新。
本方案中,所述的获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿,具体为:
通过所述规划路径中获取目标位置点,将所述目标位置点在相机坐标系中进行标定得到目标位置点图像位置坐标,将所述图像位置坐标转移到多轴工业机器人基座坐标系中作为理论位置坐标信息;
根据多轴工业机器人的自由度及多轴机械臂在相机坐标系中相邻两机械臂的位置与姿态关系通过D-H参数法建立机械臂连杆坐标系;
获取多轴工业机器人各轴末端执行器所在点在工业机器人各轴的机械臂连杆坐标系中的相对位置信息,根据所述相对位置信息获取末端执行器的位姿矩阵;
通过所述位姿矩阵获取各轴在目标位置点在多轴工业机器人基座坐标系中的实际位置坐标信息,将所述实际位置坐标信息与所述理论位置坐标信息进行对比生成位置误差;
根据所述位置误差生成规划路径补偿量,并结合周期信息获取轨迹路径补偿点就,根据所述规划路径补偿量及规划路径补偿点生成误差修正信息;
通过所述误差修正信息对规划路径的进行误差补偿。
本发明第三方面还提供一种计算机可读存储介质,所述计算机可读存储介质中包括一种基于机器视觉的多轴伺服***的高精度控制方法程序,所述一种基于机器视觉的多轴伺服***的高精度控制方法程序被处理器执行时,实现如上述任一项所述的一种基于机器视觉的多轴伺服***的高精度控制方法的步骤。
本发明公开了一种基于机器视觉的多轴伺服***的高精度控制方法及***,包括:获取视觉图像信息,对所述视觉图像信息进行清晰度判断,若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合工业机器人的运动学参数得到规划路径,从所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。本发明通过机器视觉对多轴工业机器人进行高精度控制,提高了多轴工业机器人的运动控制效率及定位精度。
附图说明
图1示出了本发明一种基于机器视觉的多轴伺服***的高精度控制方法的流程图;
图2示出了本发明一种基于机器视觉的多轴伺服***的高精度控制***的框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本发明一种基于机器视觉的多轴伺服***的高精度控制方法的流程图。
如图1所示,本发明第一方面提供了一种基于机器视觉的多轴伺服***的高精度控制方法,包括:
S102,获取含有目标工件的视觉图像信息,对所述视觉图像信息进行清晰度判断;
S104,若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;
S106,将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息;
S108,将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作;
S110,通过所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。
需要说明的是,对所述视觉图像信息进行清晰度判断,具体为:
获取视觉图像信息,利用聚焦评估算子测量所述视觉图像信息中每个像素点的聚焦程度;通过各像素点进行聚焦评估后的聚焦程度评估值生成聚焦评估曲线,将所述聚焦评估曲线与理想聚焦评估曲线进行对比,生成曲线偏移误差;判断所述曲线偏移误差是否小于预设偏移误差阈值,若小于,则说明图像清晰度满足预设标准;若不小于,则通过黄金分割搜索法控制获得准焦位置,根据所述准焦位置进行图像传感器的自动对焦。
利用聚焦评估算子测定每个像素点的聚焦程度,聚焦程度越高,灰化的程度就越大,边缘锐利程度越大,同时相应的高频信息越大,在后续视觉图像信息的预处理中单个像素点可以更好的体现细节信息。常用的聚焦评估算子包括:基于梯度运算、基于Laplace变换、基于小波变换等方法。所述黄金分割搜索法按照黄金比例分割比不断缩小搜索区间的搜索方式,在长度为的搜索范围中选取两个黄金分割点和,比较和两个位置处所获得的图像评价值和,若,则将搜索范围变为,若,则将搜索范围变为,将搜索范围进行缩小,逼近准焦位置,直到搜索范围到达单位步长要求,完成自动对焦。
需要说明的是,所述的将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,具体为:
获取预处理后的视觉图像信息中每个像素的灰度值,并利用微分算子计算梯度的幅值和方向;将目标像素的灰度值与其梯度方向上的相邻像素进行对比,若目标像素的灰度值均大于相邻像素,则目标像素置为边缘,否则目标像素置不是边缘;根据视觉图像信息中的边缘判断结果进行图像分割,提取分割后视觉图像信息的特征信息,根据所述特征信息对目标工件进行识别;获取目标工件轮廓信息,根据所述目标工件轮廓信息进行特征点提取,并获取特征点图像位置信息。
需要说明的是,所述的将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作,具体为:
基于神经网络结合粒子群算法建立多轴工业机器人的路迹规划模型,并进行初始化训练;
获取多轴工业机器人末端执行器所在点的初始位置信息及初始关节角度信息,同时设置多轴工业机器人的运动学约束及适应度函数;
将粒子种群进行初始化,随机赋予粒子速度和位置信息;
获取粒子当前速度与约束进行比较,若满足约束,则根据适应度值判断粒子的优劣,若不满足约束,则将粒子排除,将排除的粒子进行迭代训练,直到满足约束;
进行若干次粒子速度及位置信息的更新后,获取每一个粒子搜寻的最优位置及全部粒子中的最优位置,根据所述最优位置获取多轴工业机器人的规划路径。
需要说明的是,本发明还包括,通过各轴末端执行器从初始位置到特征点图像位置信息的时间信息进行各轴的同步修正:
获取多轴机器人各轴末端执行器从初始位置到特征点图像位置信息的时间信息;
将各轴的时间信息进行对比分析生成时间偏差信息,若所述偏差信息大于预设时间偏差阈值,则获取时间偏差信息对应的机械臂信息,根据所述机械臂信息及时间偏差信息生成路径修正信息;
根据所述路径修正信息对规划路径进行更新。
需要说明的是,所述的获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿,具体为:
通过所述规划路径中获取目标位置点,将所述目标位置点在相机坐标系中进行标定得到目标位置点图像位置坐标,将所述图像位置坐标转移到多轴工业机器人基座坐标系中作为理论位置坐标信息;
根据多轴工业机器人的自由度及多轴机械臂在相机坐标系中相邻两机械臂的位置与姿态关系通过D-H参数法建立机械臂连杆坐标系;
获取多轴工业机器人各轴末端执行器所在点在工业机器人各轴的机械臂连杆坐标系中的相对位置信息,根据所述相对位置信息获取末端执行器的位姿矩阵;
通过所述位姿矩阵获取各轴在目标位置点在多轴工业机器人基座坐标系中的实际位置坐标信息,将所述实际位置坐标信息与所述理论位置坐标信息进行对比生成位置误差;
根据所述位置误差生成规划路径补偿量,并结合周期信息获取轨迹路径补偿点就,根据所述规划路径补偿量及规划路径补偿点生成误差修正信息;
通过所述误差修正信息对规划路径的进行误差补偿。
根据本发明实施例,本发明还包括,通过图像传感器对目标工件进行非接触识别检验,查看目标工件是否合格,具体为:
获取目标工件的经过多轴工业机器人加工操作后的目标工件图像信息,获取目标工件的中心点坐标信息;
预设目标工件摆放位置区域,获取所述中心点坐标信息到目标工件摆放位置区域边缘距离信息,根据所述距离信息判断目标工件的位置是否合格;
获取目标工件的期望加工信息,将所述目标加工图像信息进行预处理,根据预处理后的目标工件图像信息获取特征信息,将所述期望加工信息与特征信息进行对比,计算生成相似度信息;
判断所述相似度信息是否大于相似度阈值,若大于,则证明目标工件加工合格,若不大于,则将目标工件进行标记,获取标记后目标工件与期望加工信息的偏差;
根据标记后目标工件与期望加工信息的偏差生成反馈信息,对多轴工业机器人的视觉***及路径规划***进行反馈。
图2示出了本发明一种基于机器视觉的多轴伺服***的高精度控制***的框图。
本发明第二方面还提供了一种基于机器视觉的多轴伺服***的高精度控制***2,该***包括:存储器21、处理器22,所述存储器中包括一种基于机器视觉的多轴伺服***的高精度控制方法程序,所述一种基于机器视觉的多轴伺服***的高精度控制方法程序被所述处理器执行时实现如下步骤:
获取含有目标工件的视觉图像信息,对所述视觉图像信息进行清晰度判断;
若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;
将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息;
将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作;
通过所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。
需要说明的是,对所述视觉图像信息进行清晰度判断,具体为:
获取视觉图像信息,利用聚焦评估算子测量所述视觉图像信息中每个像素点的聚焦程度;通过各像素点进行聚焦评估后的聚焦程度评估值生成聚焦评估曲线,将所述聚焦评估曲线与理想聚焦评估曲线进行对比,生成曲线偏移误差;判断所述曲线偏移误差是否小于预设偏移误差阈值,若小于,则说明图像清晰度满足预设标准;若不小于,则通过黄金分割搜索法控制获得准焦位置,根据所述准焦位置进行图像传感器的自动对焦。
利用聚焦评估算子测定每个像素点的聚焦程度,聚焦程度越高,灰化的程度就越大,边缘锐利程度越大,同时相应的高频信息越大,在后续视觉图像信息的预处理中单个像素点可以更好的体现细节信息。常用的聚焦评估算子包括:基于梯度运算、基于Laplace变换、基于小波变换等方法。所述黄金分割搜索法按照黄金比例分割比不断缩小搜索区间的搜索方式,在长度为的搜索范围中选取两个黄金分割点和,比较和两个位置处所获得的图像评价值和,若,则将搜索范围变为,若,则将搜索范围变为,将搜索范围进行缩小,逼近准焦位置,直到搜索范围到达单位步长要求,完成自动对焦。
需要说明的是,所述的将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,具体为:
获取预处理后的视觉图像信息中每个像素的灰度值,并利用微分算子计算梯度的幅值和方向;
将目标像素的灰度值与其梯度方向上的相邻像素进行对比,若目标像素的灰度值均大于相邻像素,则目标像素置为边缘,否则目标像素置不是边缘;
根据视觉图像信息中的边缘判断结果进行图像分割,提取分割后视觉图像信息的特征信息,根据所述特征信息对目标工件进行识别;
获取目标工件轮廓信息,根据所述目标工件轮廓信息进行特征点提取,并获取特征点图像位置信息。
需要说明的是,所述的将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作,具体为:
基于神经网络结合粒子群算法建立多轴工业机器人的路迹规划模型,并进行初始化训练;
获取多轴工业机器人末端执行器所在点的初始位置信息及初始关节角度信息,同时设置多轴工业机器人的运动学约束及适应度函数;
将粒子种群进行初始化,随机赋予粒子速度和位置信息;
获取粒子当前速度与约束进行比较,若满足约束,则根据适应度值判断粒子的优劣,若不满足约束,则将粒子排除,将排除的粒子进行迭代训练,直到满足约束;
进行若干次粒子速度及位置信息的更新后,获取每一个粒子搜寻的最优位置及全部粒子中的最优位置,根据所述最优位置获取多轴工业机器人的规划路径。
需要说明的是,本发明还包括,通过各轴末端执行器从初始位置到特征点图像位置信息的时间信息进行各轴的同步修正:
获取多轴机器人各轴末端执行器从初始位置到特征点图像位置信息的时间信息;
将各轴的时间信息进行对比分析生成时间偏差信息,若所述偏差信息大于预设时间偏差阈值,则获取时间偏差信息对应的机械臂信息,根据所述机械臂信息及时间偏差信息生成路径修正信息;
根据所述路径修正信息对规划路径进行更新。
需要说明的是,所述的获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿,具体为:
通过所述规划路径中获取目标位置点,将所述目标位置点在相机坐标系中进行标定得到目标位置点图像位置坐标,将所述图像位置坐标转移到多轴工业机器人基座坐标系中作为理论位置坐标信息;
根据多轴工业机器人的自由度及多轴机械臂在相机坐标系中相邻两机械臂的位置与姿态关系通过D-H参数法建立机械臂连杆坐标系;
获取多轴工业机器人各轴末端执行器所在点在工业机器人各轴的机械臂连杆坐标系中的相对位置信息,根据所述相对位置信息获取末端执行器的位姿矩阵;
通过所述位姿矩阵获取各轴在目标位置点在多轴工业机器人基座坐标系中的实际位置坐标信息,将所述实际位置坐标信息与所述理论位置坐标信息进行对比生成位置误差;
根据所述位置误差生成规划路径补偿量,并结合周期信息获取轨迹路径补偿点就,根据所述规划路径补偿量及规划路径补偿点生成误差修正信息;
通过所述误差修正信息对规划路径的进行误差补。
根据本发明实施例,本发明还包括,通过图像传感器对目标工件进行非接触识别检验,查看目标工件是否合格,具体为:
获取目标工件的经过多轴工业机器人加工操作后的目标工件图像信息,获取目标工件的中心点坐标信息;
预设目标工件摆放位置区域,获取所述中心点坐标信息到目标工件摆放位置区域边缘距离信息,根据所述距离信息判断目标工件的位置是否合格;
获取目标工件的期望加工信息,将所述目标加工图像信息进行预处理,根据预处理后的目标工件图像信息获取特征信息,将所述期望加工信息与特征信息进行对比,计算生成相似度信息;
判断所述相似度信息是否大于相似度阈值,若大于,则证明目标工件加工合格,若不大于,则将目标工件进行标记,获取标记后目标工件与期望加工信息的偏差;
根据标记后目标工件与期望加工信息的偏差生成反馈信息,对多轴工业机器人的视觉***及路径规划***进行反馈。
本发明第三方面还提供一种计算机可读存储介质,所述计算机可读存储介质中包括一种基于机器视觉的多轴伺服***的高精度控制方法程序,所述一种基于机器视觉的多轴伺服***的高精度控制方法程序被处理器执行时,实现如上述任一项所述的一种基于机器视觉的多轴伺服***的高精度控制方法的步骤。
本发明公开了一种基于机器视觉的多轴伺服***的高精度控制方法及***,包括:获取视觉图像信息,对所述视觉图像信息进行清晰度判断,若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合工业机器人的运动学参数得到规划路径,从所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。本发明通过机器视觉对多轴工业机器人进行高精度控制,提高了多轴工业机器人的运动控制效率及定位精度。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种基于机器视觉的多轴伺服***的高精度控制方法,其特征在于,包括以下步骤:
获取含有目标工件的视觉图像信息,对所述视觉图像信息进行清晰度判断;
若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;
将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息;
将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作;
通过所述规划路径中获取目标位置点,获取多轴工业机器人的各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。
2.根据权利要求1所述的一种基于机器视觉的多轴伺服***的高精度控制方法,其特征在于,对所述视觉图像信息进行清晰度判断,具体为:
获取视觉图像信息,利用聚焦评估算子测量所述视觉图像信息中每个像素点的聚焦程度;
通过各像素点进行聚焦评估后的聚焦程度评估值生成聚焦评估曲线,将所述聚焦评估曲线与理想聚焦评估曲线进行对比,生成曲线偏移误差;
判断所述曲线偏移误差是否小于预设偏移误差阈值,若小于,则说明图像清晰度满足预设标准;
若不小于,则通过黄金分割搜索法控制获得准焦位置,根据所述准焦位置进行图像传感器的自动对焦。
3.根据权利要求1所述的一种基于机器视觉的多轴伺服***的高精度控制方法,其特征在于,所述的将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息,具体为:
获取预处理后的视觉图像信息中每个像素的灰度值,并利用微分算子计算梯度的幅值和方向;
将目标像素的灰度值与其梯度方向上的相邻像素进行对比,若目标像素的灰度值均大于相邻像素,则目标像素置为边缘,否则目标像素置不是边缘;
根据视觉图像信息中的边缘判断结果进行图像分割,提取分割后视觉图像信息的特征信息,根据所述特征信息对目标工件进行识别;
获取目标工件轮廓信息,根据所述目标工件轮廓信息进行特征点提取,并获取特征点图像位置信息。
4.根据权利要求1所述的一种基于机器视觉的多轴伺服***的高精度控制方法,其特征在于,所述的将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作,具体为:
基于神经网络结合粒子群算法建立多轴工业机器人的路迹规划模型,并进行初始化训练;
获取多轴工业机器人末端执行器所在点的初始位置信息及初始关节角度信息,同时设置多轴工业机器人的运动学约束及适应度函数;
将粒子种群进行初始化,随机赋予粒子速度和位置信息;
获取粒子当前速度与约束进行比较,若满足约束,则根据适应度值判断粒子的优劣,若不满足约束,则将粒子排除,将排除的粒子进行迭代训练,直到满足约束;
进行若干次粒子速度及位置信息的更新后,获取每一个粒子搜寻的最优位置及全部粒子中的最优位置,根据所述最优位置获取多轴工业机器人的规划路径。
5.根据权利要求1所述的一种基于机器视觉的多轴伺服***的高精度控制方法,其特征在于,还包括:
获取多轴机器人各轴末端执行器从初始位置到特征点图像位置信息的时间信息;
将各轴的时间信息进行对比分析生成时间偏差信息,若所述偏差信息大于预设时间偏差阈值,则获取时间偏差信息对应的机械臂信息,根据所述机械臂信息及时间偏差信息生成路径修正信息;
根据所述路径修正信息对规划路径进行更新。
6.根据权利要求1所述的一种基于机器视觉的多轴伺服***的高精度控制方法,其特征在于,所述的获取多轴工业机器人的各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿,具体为:
通过所述规划路径中获取目标位置点,将所述目标位置点在相机坐标系中进行标定得到目标位置点图像位置坐标,将所述图像位置坐标转移到多轴工业机器人基座坐标系中作为理论位置坐标信息;
获取多轴工业机器人各轴末端执行器所在点在多轴工业机器人各轴的机械臂连杆坐标系中的相对位置信息,根据所述相对位置信息获取末端执行器的位姿矩阵;
通过所述位姿矩阵获取各轴在目标位置点在多轴工业机器人基座坐标系中的实际位置坐标信息,将所述实际位置坐标信息与所述理论位置坐标信息进行对比生成位置误差;
根据所述位置误差生成规划路径补偿量,并结合周期信息获取轨迹路径补偿点就,根据所述规划路径补偿量及规划路径补偿点生成误差修正信息;
通过所述误差修正信息对规划路径的进行误差补偿。
7.一种基于机器视觉的多轴伺服***的高精度控制***,其特征在于,该***包括:存储器、处理器,所述存储器中包括一种基于机器视觉的多轴伺服***的高精度控制方法程序,所述一种基于机器视觉的多轴伺服***的高精度控制方法程序被所述处理器执行时实现如下步骤:
获取含有目标工件的视觉图像信息,对所述视觉图像信息进行清晰度判断;
若所述视觉图像信息的清晰度达到预设阈值,则将所述视觉图像信息进行预处理;
将预处理后的视觉图像信息进行图像分割,并进行特征提取并生成特征点图像位置信息;
将所述特征点图像位置信息进行坐标变换,并将坐标变换后的坐标信息导入多轴伺服***结合工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作;
通过所述规划路径中获取目标位置点,获取工业机器人各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿。
8.根据权利要求7所述的一种基于机器视觉的多轴伺服***的高精度控制***,其特征在于,所述的将坐标变换后的坐标信息导入多轴伺服***结合多轴工业机器人的运动学参数得到规划路径,根据所述规划路径对目标工件进行操作,具体为:
基于神经网络结合粒子群算法建立多轴工业机器人的路迹规划模型,并进行初始化训练;
获取多轴工业机器人末端执行器所在点的初始位置信息及初始关节角度信息,同时设置多轴工业机器人的运动学约束及适应度函数;
将粒子种群进行初始化,随机赋予粒子速度和位置信息;
获取粒子当前速度与约束进行比较,若满足约束,则根据适应度值判断粒子的优劣,若不满足约束,则将粒子排除,将排除的粒子进行迭代训练,直到满足约束;
进行若干次粒子速度及位置信息的更新后,获取每一个粒子搜寻的最优位置及全部粒子中的最优位置,根据所述最优位置获取多轴工业机器人的规划路径。
9.根据权利要求7所述的一种基于机器视觉的多轴伺服***的高精度控制***,其特征在于,还包括:
获取多轴机器人各轴末端执行器从初始位置到特征点图像位置信息的时间信息;
将各轴的时间信息进行对比分析生成时间偏差信息,若所述偏差信息大于预设时间偏差阈值,则获取时间偏差信息对应的机械臂信息,根据所述机械臂信息及时间偏差信息生成路径修正信息;
根据所述路径修正信息对规划路径进行更新。
10.根据权利要求7所述的一种基于机器视觉的多轴伺服***的高精度控制***,其特征在于,所述的获取多轴工业机器人的各轴在所述目标位置点的位置误差,根据所述位置误差实现规划路径的误差补偿,具体为:
通过所述规划路径中获取目标位置点,将所述目标位置点在相机坐标系中进行标定得到目标位置点图像位置坐标,将所述图像位置坐标转移到多轴工业机器人基座坐标系中作为理论位置坐标信息;
根据多轴工业机器人的自由度及多轴机械臂在相机坐标系中相邻两机械臂的位置与姿态关系通过D-H参数法建立机械臂连杆坐标系;
获取多轴工业机器人各轴末端执行器所在点在工业机器人各轴的机械臂连杆坐标系中的相对位置信息,根据所述相对位置信息获取末端执行器的位姿矩阵;
通过所述位姿矩阵获取各轴在目标位置点在多轴工业机器人基座坐标系中的实际位置坐标信息,将所述实际位置坐标信息与所述理论位置坐标信息进行对比生成位置误差;
根据所述位置误差生成规划路径补偿量,并结合周期信息获取轨迹路径补偿点就,根据所述规划路径补偿量及规划路径补偿点生成误差修正信息;
通过所述误差修正信息对规划路径的进行误差补偿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210271120.XA CN114355953B (zh) | 2022-03-18 | 2022-03-18 | 一种基于机器视觉的多轴伺服***的高精度控制方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210271120.XA CN114355953B (zh) | 2022-03-18 | 2022-03-18 | 一种基于机器视觉的多轴伺服***的高精度控制方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114355953A true CN114355953A (zh) | 2022-04-15 |
CN114355953B CN114355953B (zh) | 2022-07-12 |
Family
ID=81094484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210271120.XA Active CN114355953B (zh) | 2022-03-18 | 2022-03-18 | 一种基于机器视觉的多轴伺服***的高精度控制方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114355953B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115026823A (zh) * | 2022-06-14 | 2022-09-09 | 广东天太机器人有限公司 | 一种基于坐标焊接的工业机器人控制方法以及*** |
CN115365088A (zh) * | 2022-09-05 | 2022-11-22 | 苏州光宝科技股份有限公司 | 一种基于视觉引导的点胶方法及装置 |
CN116909208A (zh) * | 2023-09-12 | 2023-10-20 | 深圳市钧诚精密制造有限公司 | 基于人工智能的壳体加工路径优化方法及*** |
CN117400256A (zh) * | 2023-11-21 | 2024-01-16 | 扬州鹏顺智能制造有限公司 | 一种基于视觉图像的工业机器人连续轨迹控制方法 |
CN117742338A (zh) * | 2023-12-26 | 2024-03-22 | 天津河工大先进装备研究院有限公司 | 基于图像的幕墙修复机器人调度*** |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103381603A (zh) * | 2013-06-29 | 2013-11-06 | 湖南大学 | 高压输电线路除冰巡线机器人的自主越障规划方法 |
CN103974011A (zh) * | 2013-10-21 | 2014-08-06 | 浙江大学 | 一种投影图像模糊消除方法 |
CN104476549A (zh) * | 2014-11-20 | 2015-04-01 | 北京卫星环境工程研究所 | 基于视觉测量的机械臂运动路径补偿方法 |
CN108907526A (zh) * | 2018-08-04 | 2018-11-30 | 苏州佩恩机器人有限公司 | 一种具有高鲁棒性的焊缝图像特征识别方法 |
CN109910010A (zh) * | 2019-03-23 | 2019-06-21 | 广东石油化工学院 | 一种高效控制机器人的***及方法 |
CN110039523A (zh) * | 2019-05-20 | 2019-07-23 | 北京无远弗届科技有限公司 | 一种工业机器人视觉伺服***、伺服方法及装置 |
CN110919654A (zh) * | 2019-12-02 | 2020-03-27 | 中国船舶工业***工程研究院 | 一种基于视觉伺服的机械臂自动对接*** |
CN111360827A (zh) * | 2020-03-06 | 2020-07-03 | 哈尔滨工业大学 | 一种视觉伺服切换控制方法及*** |
CN111462154A (zh) * | 2020-02-27 | 2020-07-28 | 中电莱斯信息***有限公司 | 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人 |
CN113524194A (zh) * | 2021-04-28 | 2021-10-22 | 重庆理工大学 | 基于多模特征深度学习的机器人视觉抓取***的目标抓取方法 |
-
2022
- 2022-03-18 CN CN202210271120.XA patent/CN114355953B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103381603A (zh) * | 2013-06-29 | 2013-11-06 | 湖南大学 | 高压输电线路除冰巡线机器人的自主越障规划方法 |
CN103974011A (zh) * | 2013-10-21 | 2014-08-06 | 浙江大学 | 一种投影图像模糊消除方法 |
CN104476549A (zh) * | 2014-11-20 | 2015-04-01 | 北京卫星环境工程研究所 | 基于视觉测量的机械臂运动路径补偿方法 |
CN108907526A (zh) * | 2018-08-04 | 2018-11-30 | 苏州佩恩机器人有限公司 | 一种具有高鲁棒性的焊缝图像特征识别方法 |
CN109910010A (zh) * | 2019-03-23 | 2019-06-21 | 广东石油化工学院 | 一种高效控制机器人的***及方法 |
CN110039523A (zh) * | 2019-05-20 | 2019-07-23 | 北京无远弗届科技有限公司 | 一种工业机器人视觉伺服***、伺服方法及装置 |
CN110919654A (zh) * | 2019-12-02 | 2020-03-27 | 中国船舶工业***工程研究院 | 一种基于视觉伺服的机械臂自动对接*** |
CN111462154A (zh) * | 2020-02-27 | 2020-07-28 | 中电莱斯信息***有限公司 | 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人 |
CN111360827A (zh) * | 2020-03-06 | 2020-07-03 | 哈尔滨工业大学 | 一种视觉伺服切换控制方法及*** |
CN113524194A (zh) * | 2021-04-28 | 2021-10-22 | 重庆理工大学 | 基于多模特征深度学习的机器人视觉抓取***的目标抓取方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115026823A (zh) * | 2022-06-14 | 2022-09-09 | 广东天太机器人有限公司 | 一种基于坐标焊接的工业机器人控制方法以及*** |
CN115026823B (zh) * | 2022-06-14 | 2023-01-17 | 广东天太机器人有限公司 | 一种基于坐标焊接的工业机器人控制方法以及*** |
CN115365088A (zh) * | 2022-09-05 | 2022-11-22 | 苏州光宝科技股份有限公司 | 一种基于视觉引导的点胶方法及装置 |
CN115365088B (zh) * | 2022-09-05 | 2024-05-10 | 苏州光宝科技股份有限公司 | 一种基于视觉引导的点胶方法及装置 |
CN116909208A (zh) * | 2023-09-12 | 2023-10-20 | 深圳市钧诚精密制造有限公司 | 基于人工智能的壳体加工路径优化方法及*** |
CN116909208B (zh) * | 2023-09-12 | 2023-11-24 | 深圳市钧诚精密制造有限公司 | 基于人工智能的壳体加工路径优化方法及*** |
CN117400256A (zh) * | 2023-11-21 | 2024-01-16 | 扬州鹏顺智能制造有限公司 | 一种基于视觉图像的工业机器人连续轨迹控制方法 |
CN117400256B (zh) * | 2023-11-21 | 2024-05-31 | 扬州鹏顺智能制造有限公司 | 一种基于视觉图像的工业机器人连续轨迹控制方法 |
CN117742338A (zh) * | 2023-12-26 | 2024-03-22 | 天津河工大先进装备研究院有限公司 | 基于图像的幕墙修复机器人调度*** |
CN117742338B (zh) * | 2023-12-26 | 2024-06-21 | 天津河工大先进装备研究院有限公司 | 基于图像的幕墙修复机器人调度*** |
Also Published As
Publication number | Publication date |
---|---|
CN114355953B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114355953B (zh) | 一种基于机器视觉的多轴伺服***的高精度控制方法及*** | |
CN111775146B (zh) | 一种工业机械臂多工位作业下的视觉对准方法 | |
CN112476434A (zh) | 一种基于协作机器人的视觉3d取放方法及*** | |
CN112801977B (zh) | 一种基于深度学习的装配体零件相对位姿估计监测方法 | |
Zou et al. | An end-to-end calibration method for welding robot laser vision systems with deep reinforcement learning | |
Šuligoj et al. | Object tracking with a multiagent robot system and a stereo vision camera | |
CN112836558B (zh) | 机械臂末端调整方法、装置、***、设备及介质 | |
CN110146017B (zh) | 工业机器人重复定位精度测量方法 | |
CN112561886A (zh) | 一种基于机器视觉的工件自动分拣方法及*** | |
CN110695996A (zh) | 一种工业机器人自动手眼标定方法 | |
CN113379849A (zh) | 基于深度相机的机器人自主识别智能抓取方法及*** | |
CN111968048A (zh) | 电力巡检少样本图像数据增强方法及*** | |
CN115213896A (zh) | 基于机械臂的物体抓取方法、***、设备及存储介质 | |
CN112907683A (zh) | 一种点胶平台的相机标定方法、装置及相关设备 | |
Lambrecht | Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection | |
CN117260815A (zh) | 基于视觉定位的机械手精准定位方法及*** | |
Ruan et al. | Feature-based autonomous target recognition and grasping of industrial robots | |
CN116766194A (zh) | 基于双目视觉的盘类工件定位与抓取***和方法 | |
CN110992416A (zh) | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 | |
CN117340879A (zh) | 一种基于图优化模型的工业机器人参数辨识方法和*** | |
Xu et al. | Industrial robot base assembly based on improved Hough transform of circle detection algorithm | |
CN114187312A (zh) | 目标物的抓取方法、装置、***、存储介质及设备 | |
Luo et al. | Robotic conveyor tracking with dynamic object fetching for industrial automation | |
CN111571596A (zh) | 利用视觉修正冶金接插装配作业机器人误差的方法及*** | |
CN112720449A (zh) | 一种机器人定位装置及其控制*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |