CN111823221A - 一种基于多传感器的机器人打磨方法 - Google Patents
一种基于多传感器的机器人打磨方法 Download PDFInfo
- Publication number
- CN111823221A CN111823221A CN201910236303.6A CN201910236303A CN111823221A CN 111823221 A CN111823221 A CN 111823221A CN 201910236303 A CN201910236303 A CN 201910236303A CN 111823221 A CN111823221 A CN 111823221A
- Authority
- CN
- China
- Prior art keywords
- robot
- polishing
- defect
- sensor
- grinding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005498 polishing Methods 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000007547 defect Effects 0.000 claims abstract description 68
- 238000010586 diagram Methods 0.000 claims abstract description 17
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 10
- 238000003709 image segmentation Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000002238 attenuated effect Effects 0.000 claims 1
- 230000005484 gravity Effects 0.000 abstract description 7
- 238000001914 filtration Methods 0.000 abstract description 3
- 230000003068 static effect Effects 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 abstract 3
- 239000011159 matrix material Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 9
- 230000009466 transformation Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007517 polishing process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000221535 Pucciniales Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/005—Manipulators for mechanical processing tasks
- B25J11/0065—Polishing or grinding
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Finish Polishing, Edge Sharpening, And Grinding By Specific Grinding Devices (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于多传感器的机器人打磨方法,包括:(1)对机器人打磨***的硬件进行选型,同时对视觉传感器的硬件组成进行标定;(2)利用视觉传感器对汽车冲压件表面进行缺陷采集,对采集到的图像数据进行人工标注得到真值图,建立缺陷数据集;(3)利用PixelNet卷积神经网络完成对工件表面缺陷的分割;(4)对力矩传感器采集的信号从静态标定、滤波和重力补偿三个方面预处理;(5)搭载有力矩传感器的机器人缺陷打磨***利用已知的缺陷信息,利用力/位置混合控制算法,采用正交式路径打磨方案对缺陷进行打磨作业。本发明可以广泛地用于很多生产制造领域,大至航天航空、轨道交通、医疗器械,小到家具制造等需要工业机器人的科技领域。
Description
技术领域
本发明属于机器视觉与传感器领域,涉及一种基于多传感器的机器人打磨方法,可用于工业机器人打磨。
背景技术
随着工业机器人在硬件和软件方面相关技术的逐渐成熟,机器人本体和运动的精度有了大幅度的提升,其成本也有了很大的降低。针对大尺寸、形状复杂工件难以打磨的问题,国内外专家学者在工业机器人大量研究成果的基础上开始对工业机器人打磨技术进行了相应的研究。目前,主要研究方向根据影响工业机器人打磨的因素展开,包括打磨工具材料、打磨路径规划、机器人速度控制以及打磨接触力等。
针对缺陷打磨效率低,质量难以保证的问题,本文提出一种基于多传感器的机器人打磨***,该***包括两个子***:基于视觉传感器缺陷检测***和基于力矩传感器缺陷打磨***。利用视觉传感器检测待检测工件的表面缺陷,在检测到缺陷的基础上对缺陷区域进行打磨作业,在打磨过程中依靠力矩传感器保证打磨质量。通过该***可以提高工业机器人在汽车冲压件表面打磨中的效率与质量。
发明内容
本发明提出了一种基于多传感器的机器人打磨方法,该方法引进了视觉传感器对汽车冲压件表面进行缺陷采集,采用图像分割算法,利用PixelNet卷积神经网络完成对工件表面缺陷的分割;搭载力矩传感器的机器人缺陷打磨***利用已知的缺陷信息,采用正交式路径打磨方案对缺陷进行打磨作业。这都很好的将深度学习和传感器的方法应用到机器人打磨中去,并且取到了非常好的效果。实现本发明目的技术方案,包括下列步骤:
步骤1:对机器人打磨***的硬件进行选型,同时对视觉传感器的硬件组成进行标定;
步骤2:利用视觉传感器对汽车冲压件表面进行缺陷采集,对采集到的图像数据进行人工标注得到真值图,建立缺陷数据集;
步骤3:采用图像分割算法,利用PixelNet卷积神经网络完成对工件表面缺陷的分割;
步骤4:对力矩传感器采集的信号进行预处理;
步骤5:基于力矩传感器的缺陷打磨,机器人缺陷打磨***利用力/位置混合控制算法,采用正交式路径打磨方案对缺陷进行打磨作业。
与现有技术相比,本发明的有益效果是:
1.设计了一套基于多传感器机器人打磨***,该***分为两个子***:基于视觉传感器的冲压件表面缺陷检测***、基于力矩传感器的缺陷打磨***,解决了目前以人工打磨方式为主,打磨工作环境恶劣,费时费力,效率低下,而且打磨质量不能保证的问题。
2.基于机器视觉和深度学习提出一种冲压件表面缺陷检测方法,通过采集冲压件表面图像并将缺陷标注为划痕与锈蚀两类,采用PixelNet卷积神经网络对表面缺陷进行图像分割得到缺陷检测结果,解决了汽车冲压件表面背景复杂、缺陷形状多样难以分割的问题。
3.采用力/位置控制策略,依靠力矩传感器反馈得到的力矩信息实时调整机器人各轴偏移量的大小,从而保持接触力的恒定,实现恒力打磨,解决了复杂曲面打磨质量难以保证的问题。
附图说明
图1多传感器打磨机器人整体***;
图2瑞士ABB公司生产的IRB1410型工业机器人;图3(a)、图3(b)和图3(c)分别为海康威视公司生产的MV-CE050-50GM工业相机、MVL-MF1220M-5MP镜头、光源;
图4(a)和图4(b)分别为ATI公司研发的Delta IP60 F/T Senor力矩传感器和打磨工具;
图5(a)为透视投影模型,其中相机坐标系OC-XCYCZC、世界坐标系OW-XWYWZW、像平面坐标系o′-xy和图像坐标系o-uv;
图5(b)为手眼关系图和各坐标相对位置,其中Cbase为机器人坐标系,Ctool为机器人末端坐标系,Ccam为相机坐标系,Ccal为标定板坐标系,图5(c)为手眼标定过程图;
图5(d)和图5(e)分别为工具坐标图和三点法示意图,其中Cbase为机器人坐标系,Ctool为机器人末端坐标系,Cpol为打磨工具坐标系;
图6为PixelNet网络结构图;
图7为汽车车身冲压件表面的划痕与锈蚀;
图8为基于力矩传感器的缺陷打磨整体流程;
图9为力/位置混合控制算法图,
其中,XD、和分别为期望的笛卡尔空间位移、速度、加速度;FD为期望力;Xe、和分别为实际的笛卡尔空间位移、速度、加速度;Fe为工具与环境之间的笛卡尔空间相互作用力;S为对角型选择矩阵,对角线上的元素为1或0,它通过约束关系确定:当约束为自然力约束需要进行位置控制时,对应元素取1,反之则取0;I-S也是对角型选择矩阵,S与I-S相互正交,二者决定了每一个自由度控制模式;Xp、Xp、Xf、Xf和Xc为机器人各个轴的位移偏移量,θp和θp为机器人各个轴的角度偏移量;
图10为打磨接触力变化图;
图11为打磨前后冲压件局部表面对比图。
具体实施方式
本发明通过以下步骤实现了一种基于多传感器的机器人打磨方法,具体实施步骤如下所示:
步骤1:对机器人打磨***的硬件进行选型,同时对视觉传感器的硬件组成进行标定,包括相机标定、手眼标定与打磨工具的标定,确立机器人、相机、打磨工具与打磨工件之间坐标转换关系;在相机标定时采用了摄像机透视投影模型,完成了各个坐标系之间的坐标转换,最终求得世界坐标系到图像坐标系的转换公式:
其中fx=f/sx为图像坐标系ui轴的归一化焦距,fy=f/sy为vi轴的尺度因子,M1由fx、fy、uo、vo四个参数构成,它们只与相机结构有关,被称为相机内部参数,M2由世界坐标系到摄像机坐标系的旋转矩阵和平移向量组成,被称为相机外部参数,M则被称为摄像机的投影矩阵;
进行手眼标定时,采用Eye-in-Hand的方式时,相机被安装在机器人末端,而相机与机器人末端之间的位置关系保持不变,相机在工业机器人末端不同的位姿下对已知空间位置的标定板进行拍摄,继而求解二者之间位置的相对关系;相机与机器人末端前后位置之间的变换关系矩阵使用A、B、C、D、X表示,它们描述了各自坐标系之间的旋转矩阵R与平移向量t:
在打磨工具坐标系标定时,打磨工具通过力矩传感器安装在机械臂末端法兰盘上,调整机器人位姿使打磨工具末端从三个不同的方向指向同一点,在标定过程中,通过机器人控制***记录得到机器人末端坐标系相对于机器人本体坐标系的齐次变换矩阵。
步骤2:利用视觉传感器对汽车冲压件表面进行缺陷采集,对采集到的图像数据进行人工标注得到真值图,建立缺陷数据集;在视觉传感器采集工件表面缺陷时,对数据集进行了扩充,通过翻转、旋转模拟相机在同一高度上采集样本的不同位姿;通过尺度变换模拟相机在不同高度采集样本的位姿;通过调整样本的亮度来模拟现场光照环境对于样本的影响;通过以上方式的叠加使用,以及对部分数据排除,最终将图像数据由最初的3000张扩充至1.5万张;
步骤3:采用图像分割算法,利用PixelNet卷积神经网络完成对工件表面缺陷的分割:从数据集中选择9000张图像作为训练集,3000张作为验证集,3000张作为测试集对PixelNet网络进行训练与测试。训练过程以90张图像为一次迭代步长,其中初始学习率设置为0.01,随着训练轮数的增加最终衰减至0.0001,迭代次数为10万次。PixelNet采用像素分层采样,在批量随机梯度下降更新过程中增加了样本多样性,同时引入了复杂的非线性预测器以提高像素的分类精度;PixelNet在多层卷积神经网络提取的多尺度特征上建立预测器,使用“超列”描述符指代对应于同一像素的多个层提取的特征,像素点p的多尺度“超列”特征的计算公式如下:hp(X)=[c1(p),c2(p),…,cM(p)];其中,ci(p)为以像素点p为中心的第i层卷积相应的特征向量,X为输入图像。
步骤4:对力矩传感器采集的信号从静态标定、滤波和重力补偿三个方面预处理;其中滤波是设计了Butterworth低通滤波器;通过双线性变换数字化得到的数字低通滤波器的阶数为7,3dB截至频率Ωc=1.3539*103。
重力补偿时为了测量打磨工具重力FG对采集值的影响,需要将打磨工具与待打磨工件之间的作用力FE置0,因此调整机器人位姿使得打磨工具末端不与待打磨工件相接触,此时FE=0;打磨工具重力方向与机器人本体坐标系Z轴方向相反,打磨工具的重力在机器人本体坐标系下的坐标为:bFG=[0 0 -GT]T,通过机器人本体坐标系与机器人末端坐标系转换矩阵与机器人末端坐标系与力矩传感器坐标系转换矩阵将打磨工具的重力转换到力矩传感器坐标系中,转换关系如下:
SFG为打磨工具重力在力矩传感坐标系中造成的偏差量,为了消除该偏差,需要对力矩传感器在力矩传感器坐标系中的测量值sFS进行修正,即:sFE=sFS-sFG;对力矩传感器的测量值sFS修正后进行坐标变换,转移到机器人本体坐标系中:
步骤5:搭载有力矩传感器的机器人缺陷打磨***便利用已知的缺陷信息,采用正交式路径打磨方案对缺陷进行打磨作业:将打磨工具移动至缺陷的中心点位置按照规划的路径进行打磨任务,打磨加工范围均匀扩大,保证缺陷范围内每个点受力均匀从而保证了打磨效果;在打磨力/位置控制上,为实现机器人恒力打磨提出了力/位置混合控制算法:力/位置混合控制算法对力和位置分别定义了两个空间力空间和位置空间。
结合说明书附图对整个过程做详细介绍:
1、基于多传感器的机器人视觉传感器的硬件选择
本文提出一种基于多传感器的机器人打磨***,该***包括两个子***:基于视觉传感器缺陷检测***和基于力矩传感器缺陷打磨***。图1为多传感器打磨机器人整体***;其中机器人选择的是如图2所示瑞士ABB公司生产的IRB1410型工业机器人,该机器人具有六个可以独立运转的关节,六个关节相对独立性使得该工业机器人具有很大的工作空间。该型号的工业机器人1、2、3轴主要用于调整机器人整体的空间位置,4、5、6轴主要用于调整机器人末端工具的空间位姿,转动范围较大,使得末端执行器具有很高的灵活性;
缺陷检测视场设计的大小为100×75mm2,理论精度为0.05mm,则相机单方向分辨率分别为2000pix和1600pix,相机的分辨率至少为320万。基于以上考虑,选用如图3(a)所示海康威视公司生产的MV-CE050-50GM工业相机,该相机的分辨率达到500万,并且采集帧率为14fps,满足***设计要求。根据物距、CCD靶面尺寸以及视场大小,选择了如图3(b)MVL-MF1220M-5MP镜头,根据待检测工件的特征,采用低角度环形光源在工件正上方进行打光,所采用光源3(c)所示;
在机器人打磨作业中需要较高的精度与频率,所以选择了如图4(a)(b)所示的ATI公司研发的Delta IP60 F/T Senor力矩传感器和打磨工具。
2、基于多传感器的机器人视觉传感器的标定
标定包括相机标定、手眼标定与打磨工具的标定。在相机标定时采用了摄像机透视投影模型,完成了各个坐标系之间的坐标转换,图5(a)为透视投影模型,其中相机坐标系OC-XCYCZC、世界坐标系OW-XWYWZW、像平面坐标系o′-xy和图像坐标o-uv;相机标定的主要步骤为:在相机视场范围内多次移动平面棋盘格标定板并拍摄标定板图像,移动时应保证标定板在相机景深方向同样有变化;提取标定板棋盘格角点的图像坐标;根据相机模型计算相机内部参数。
如图5(b)左图所示,采用Eye-in-Hand的方式时,相机被安装在机器人末端,而相机与机器人末端之间的位置关系保持不变。相机在工业机器人末端不同的位姿下对已知空间位置的标定板进行拍摄,继而求解二者之间位置的相对关系。图5(b)右图所示,相机与机器人末端前后位置之间的变换关系矩阵使用A、B、C、D、X表示,它们描述了各自坐标系之间的旋转矩阵R与平移向量t:
之后调整机器人位姿,并保持标定板在相机视野以内。手眼标定原理,标定步骤如图5(c)手眼标定过程图所示,首先对相机内部参数进行标定:然后调整两次机器人位姿,分别标定相机外部参数并记录调整前后的机器人末端位置信息;根据调整前后记录的相机外部参数与机器人末端位置信息分别计算和相机坐标系变化矩阵C和机器人末端位置变化矩阵D;多次重复上述步骤,得到多组变换矩阵数据,联立求得手眼标定矩阵X。
基于力传感器的缺陷打磨***中,打磨工具通过力矩传感器安装在机械臂末端法兰盘上,如图图5(d)所示。为了得到打磨工具坐标系与机器人末端坐标系之间的转换关系,需要调整机器人位姿使打磨工具末端从三个不同的方向指向同一点,如图5(e)所示。为了提高标定精度,可以把打磨工具尖部当作世界坐标系下的固定参考点。
3、基于多传感器的机器人的图像分割
针对汽车冲压件表面背景复杂、缺陷形状多样难以分割的问题,基于机器视觉和深度学习提出一种冲压件表面缺陷检测方法,采用PixelNet卷积神经网络对表面缺陷进行图像分割得到缺陷检测,图6为PixelNet网络结构图,PixelNet采用像素分层采样,在批量随机梯度下降更新过程中增加了样本多样性,同时引入了复杂的非线性预测器以提高像素的分类精度,该网络在VGG-16基础网络后面进行多尺度特征的提取,同时PixelNet在多层卷积神经网络提取的多尺度特征上建立预测器,使用“超列”描述符指代对应于同一像素的多个层提取的特征。
本次模型在Windows 7操作***下,使用深度学习框架Caffe的Matlab开发接口,利用单块GPU进行训练。通过采集冲压件表面图像并将缺陷标注为如图7所示的划痕与锈蚀两类。
4、基于多传感器的机器人恒力打磨
基于力矩传感器的机器人恒力打磨方法,通过对力矩传感器信号的一系列预处理减小误差,再通过制定打磨策略控制机器人实施恒力打磨方案。基于力矩传感器的缺陷打磨整体流程如图8所示。对于力矩传感器测量到的接触力信息,并不能直接使用该信息。除了力矩传感器在空载状态下存在零点漂移的影响,还会受到其他因素的影响,如高频噪声、畸变点等。为了消除这些干扰因素,设计的滤波器为数字滤波器Butterworth低通滤波器;为实现机器人恒力打磨提出了力/位置混合控制算法,力/位置混合控制算法图如图9所示,根据力/位置混合控制算法通过将控制量转化为机器人各个轴关节的位移量,从而对打磨接触力进行控制。将力矩传感器采集到的接触力FE与期望力FD之间的差值通过逆运动学转化为关节位移量,实现恒力打磨。
5、结果分析
打磨过程中接触力的变化如图10所示,打磨前后汽车冲压件表面对比如图11所示,结果表明,打磨力最终控制在15N左右并且打磨效果满足实际加工需要。
Claims (4)
1.一种基于多传感器的机器人打磨方法,包括下列步骤:
步骤1:对机器人打磨***的硬件进行选型,同时对视觉传感器的硬件组成进行标定;
步骤2:利用视觉传感器对汽车冲压件表面进行缺陷采集,对采集到的图像数据进行人工标注得到真值图,建立缺陷数据集;
步骤3:采用图像分割算法,利用PixelNet卷积神经网络完成对工件表面缺陷的分割;
步骤4:对力矩传感器采集的信号进行预处理;
步骤5:基于力矩传感器的缺陷打磨,机器人缺陷打磨***利用力/位置混合控制算法,采用正交式路径打磨方案对缺陷进行打磨作业。
2.根据权利要求1所述一种基于多传感器的机器人打磨方法,其特征在于,设计了一套基于多传感器机器人打磨***,该***分为两个子***:基于视觉传感器的冲压件表面缺陷检测***和基于力矩传感器的缺陷打磨***,步骤2中缺陷检测部分就是利用视觉传感器对待打磨的冲压件进行表面缺陷检测;即根据冲压件表面形状设定缺陷检测路径,然后工业机器人按照设定好的路径进行移动,同时,视觉采集***按照设定的采集参数对工件表面进行图像采集,计算机利用缺陷检测算法对采集到的图像实时检测冲压件表面是否存在缺陷。
3.根据权利要求1所述一种基于多传感器的机器人打磨方法,其特征在于,步骤3中首次采用PixelNet卷积神经网络完成对工件表面缺陷的分割,初始学习率设置为0.01,随着训练轮数的增加最终衰减至0.0001,PixelNet在多层卷积神经网络提取的多尺度特征上建立预测器,使用“超列”描述符指代对应于同一像素的多个层提取的特征。
4.根据权利要求1所述一种基于多传感器的机器人打磨方法,其特征在于,设计了一套基于多传感器机器人打磨***,该***分为两个子***:基于视觉传感器的冲压件表面缺陷检测***和基于力矩传感器的缺陷打磨***,步骤5机器人恒力打磨方法就是基于力矩传感器的,打磨工具到达打磨相应位置时开始打磨,安装在工业机器人执行臂与打磨工具之间的力矩传感实时采集打磨工具和加工件之间的接触力大小,将采集到的接触力信息反馈给计算机,计算机对接触力大小进行判断是否对工业机器人末端位姿进行调节以确保打磨工具和加工件之间的力相对恒定;在打磨路径规划时设计了一种正交式路径打磨方案,保证缺陷范围内每个点受力均匀从而保证了打磨效果;在打磨力/位置控制上,为实现机器人恒力打磨提出了力/位置混合控制算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910236303.6A CN111823221A (zh) | 2019-03-27 | 2019-03-27 | 一种基于多传感器的机器人打磨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910236303.6A CN111823221A (zh) | 2019-03-27 | 2019-03-27 | 一种基于多传感器的机器人打磨方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111823221A true CN111823221A (zh) | 2020-10-27 |
Family
ID=72914132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910236303.6A Pending CN111823221A (zh) | 2019-03-27 | 2019-03-27 | 一种基于多传感器的机器人打磨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111823221A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113199491A (zh) * | 2021-05-26 | 2021-08-03 | 广西大学 | 一种工业机器人恒力打磨方法 |
CN114770502A (zh) * | 2022-04-25 | 2022-07-22 | 深圳市超准视觉科技有限公司 | 机械臂工具末端位姿快速校准方法 |
CN114833647A (zh) * | 2022-05-25 | 2022-08-02 | 安徽安步轴承有限公司 | 一种轴承表面高精度处理加工打磨设备及其方法 |
CN115301573A (zh) * | 2022-07-12 | 2022-11-08 | 成都合创视达科技有限公司 | 汽车冲压件表面质量自动检测装置*** |
CN115847398A (zh) * | 2022-11-09 | 2023-03-28 | 武汉理工大学 | 一种基于区域的机器人智能加工方法及*** |
CN116945195A (zh) * | 2023-09-19 | 2023-10-27 | 成都飞机工业(集团)有限责任公司 | 全向测量设备***装置、配准方法、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107052950A (zh) * | 2017-05-25 | 2017-08-18 | 上海莫亭机器人科技有限公司 | 一种复杂曲面打磨抛光***及方法 |
CN107866717A (zh) * | 2017-11-09 | 2018-04-03 | 四川工程职业技术学院 | 一种水轮机叶片自动打磨*** |
CN108908120A (zh) * | 2018-08-07 | 2018-11-30 | 东南大学 | 基于六维力传感器和双目视觉的机器人打磨装置及打磨方法 |
CN108942940A (zh) * | 2018-08-01 | 2018-12-07 | 东南大学 | 一种基于多传感器融合的遥操作机器人打磨控制*** |
CN108972573A (zh) * | 2018-06-12 | 2018-12-11 | 浙江大学 | 一种基于图像特征识别的工业机器人自动化轮毂打磨***及方法 |
CN109118471A (zh) * | 2018-06-26 | 2019-01-01 | 广东工业大学 | 一种适用于复杂环境下的打磨工件缺陷检测方法 |
-
2019
- 2019-03-27 CN CN201910236303.6A patent/CN111823221A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107052950A (zh) * | 2017-05-25 | 2017-08-18 | 上海莫亭机器人科技有限公司 | 一种复杂曲面打磨抛光***及方法 |
CN107866717A (zh) * | 2017-11-09 | 2018-04-03 | 四川工程职业技术学院 | 一种水轮机叶片自动打磨*** |
CN108972573A (zh) * | 2018-06-12 | 2018-12-11 | 浙江大学 | 一种基于图像特征识别的工业机器人自动化轮毂打磨***及方法 |
CN109118471A (zh) * | 2018-06-26 | 2019-01-01 | 广东工业大学 | 一种适用于复杂环境下的打磨工件缺陷检测方法 |
CN108942940A (zh) * | 2018-08-01 | 2018-12-07 | 东南大学 | 一种基于多传感器融合的遥操作机器人打磨控制*** |
CN108908120A (zh) * | 2018-08-07 | 2018-11-30 | 东南大学 | 基于六维力传感器和双目视觉的机器人打磨装置及打磨方法 |
Non-Patent Citations (1)
Title |
---|
AMERICAN SCIENTIFIC RESEARCH JOURNAL FOR ENGINEERING, TECHNOLOGY: "Machine Vision Detection Method for Surface Defects of Automobile Stamping Parts", 《AMERICAN SCIENTIFIC RESEARCH JOURNAL FOR ENGINEERING, TECHNOLOGY, AND SCIENCES》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113199491A (zh) * | 2021-05-26 | 2021-08-03 | 广西大学 | 一种工业机器人恒力打磨方法 |
CN114770502A (zh) * | 2022-04-25 | 2022-07-22 | 深圳市超准视觉科技有限公司 | 机械臂工具末端位姿快速校准方法 |
CN114833647A (zh) * | 2022-05-25 | 2022-08-02 | 安徽安步轴承有限公司 | 一种轴承表面高精度处理加工打磨设备及其方法 |
CN115301573A (zh) * | 2022-07-12 | 2022-11-08 | 成都合创视达科技有限公司 | 汽车冲压件表面质量自动检测装置*** |
CN115847398A (zh) * | 2022-11-09 | 2023-03-28 | 武汉理工大学 | 一种基于区域的机器人智能加工方法及*** |
CN116945195A (zh) * | 2023-09-19 | 2023-10-27 | 成都飞机工业(集团)有限责任公司 | 全向测量设备***装置、配准方法、电子设备和存储介质 |
CN116945195B (zh) * | 2023-09-19 | 2024-01-12 | 成都飞机工业(集团)有限责任公司 | 全向测量设备***装置、配准方法、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111823221A (zh) | 一种基于多传感器的机器人打磨方法 | |
CN110370286B (zh) | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 | |
CN109822574B (zh) | 一种工业机器人末端六维力传感器标定的方法 | |
CN110421562B (zh) | 基于四目立体视觉的机械臂标定***和标定方法 | |
CN103020952B (zh) | 信息处理设备和信息处理方法 | |
CN110103217B (zh) | 工业机器人手眼标定方法 | |
CN111486802B (zh) | 基于自适应距离加权的旋转轴标定方法 | |
CN111366084B (zh) | 基于信息融合的零件尺寸检测平台及检测方法、融合方法 | |
CN111127568B (zh) | 一种基于空间点位信息的相机位姿标定方法 | |
CN109015110B (zh) | 一种机床回转轴位置误差建模与辨识方法 | |
WO2020147397A1 (zh) | 用于弧面外观检测的机器视觉***及检测方法 | |
KR20150129701A (ko) | 비파괴 검사를 위한 자립식 홀로노믹 추적 방법 및 장치 | |
CN110450163A (zh) | 无需标定板的基于3d视觉的通用手眼标定方法 | |
CN107817682A (zh) | 一种基于手眼相机的空间机械臂在轨标定方法及*** | |
CN113870366B (zh) | 基于位姿传感器的三维扫描***的标定方法及其标定*** | |
CN111862238A (zh) | 一种全空间单目光笔式视觉测量方法 | |
CN109059755B (zh) | 一种机器人高精度手眼标定方法 | |
CN113702384A (zh) | 一种回转构件表面缺陷检测装置、检测方法及标定方法 | |
CN113814870A (zh) | 一种磁流变抛光工件位姿测算方法及抛光方法 | |
CN111521204B (zh) | 一种基于绝对位置旋转型编码器的角位移视觉测量方法 | |
CN116309879A (zh) | 一种机器人辅助的多视角三维扫描测量方法 | |
CN114346538B (zh) | 一种基于多轴线性霍尔效应传感器的焊枪位姿识别方法 | |
CN110645916B (zh) | 基于基准标定板校正位姿的自由曲面测量方法与装置 | |
Liyanage et al. | A single time scale visual servoing system for a high speed SCARA type robotic arm | |
CN114926531A (zh) | 基于双目视觉的大视场下工件焊缝自主定位方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201027 |
|
WD01 | Invention patent application deemed withdrawn after publication |