CN111376111A - 打磨方法及打磨装置 - Google Patents
打磨方法及打磨装置 Download PDFInfo
- Publication number
- CN111376111A CN111376111A CN201811648603.7A CN201811648603A CN111376111A CN 111376111 A CN111376111 A CN 111376111A CN 201811648603 A CN201811648603 A CN 201811648603A CN 111376111 A CN111376111 A CN 111376111A
- Authority
- CN
- China
- Prior art keywords
- polishing
- robot
- dimensional
- information
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B1/00—Processes of grinding or polishing; Use of auxiliary equipment in connection with such processes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)
- Finish Polishing, Edge Sharpening, And Grinding By Specific Grinding Devices (AREA)
Abstract
本发明涉及一种打磨方法及打磨装置,本发明基于三维视觉技术,完成产品的三维模型的实时重建,解决柔性化打磨,对打磨对象的模型重建要求低,需要的信息量少,可快速兼容多种产品,定位效果佳,打磨准确,操作简单方便。并且,本发明通过动态力控技术,利用力矩传感器有效保证打磨力度和打磨质量,使得打磨精度更高。
Description
技术领域
本发明涉及自动控制领域,特别是涉及打磨方法及打磨装置。
背景技术
现有大多打磨定位方法均基于固定模板,通过经典IPC匹配实现三维定位功能。对物品的模型重建要求高,需要的信息量大;且针对每个产品都需要各自的模板文件,通模板遍历的方式来实现模板查找,效率低,不可兼容多种产品,操作不便,且不可根据实时工况调整打磨力度,导致打磨精度不高。
发明内容
基于此,有必要针对传统的打磨定位方法需要的信息量大,效率低、不可兼容多种产品,操作不便,且不可根据实时工况调整打磨力度,导致打磨精度不高问题,提供一种打磨方法及打磨装置。
一种打磨方法,包括:
通过三维相机对不同打磨对象进行模型重建;
对重建的模型进行分析,获取打磨对象的位置信息和打磨轨迹信息;
将所述位置信息坐标或打磨轨迹信息坐标转化为机器人坐标信息;
将所述机器人坐标信息发送至机器人***中,驱动机器人执行打磨动作;
实时打磨的同时,通过设置于机器人末端的力矩传感器进行实时力矩反馈,对打磨力度进行实时调整。
本技术方案基于三维视觉技术,完成产品的三维模型的实时重建,解决柔性化打磨,对打磨对象的模型重建要求低,需要的信息量少,可快速兼容多种产品,定位效果佳,打磨准确,操作简单方便。并且,本技术方案通过动态力控技术,利用力矩传感器有效保证打磨力度和打磨质量,使得打磨精度更高。
进一步地,所述打磨轨迹信息包括打磨对象的宽度、厚度、长度及空间位置。
进一步地,所述位置信息坐标和打磨轨迹信息坐标通过三维手眼标定转化为机器人坐标信息。
进一步地,所述三维手眼标定包括如下步骤:
获取三维标定块上各角点在三维点云的坐标为(x,y,z);
获取三维标定块上各角点在机器人末端的坐标为(u,v,w);
计算三维点云坐标到机器人末端的坐标变化矩阵为R,其中R的计算公式为R=(x,y,z,1)-1·(u,v,w,1);
获取矩阵R的值。
进一步地,所述坐标信息通过以太网通讯发送至机器人***中。
进一步地,所述机器人为六轴机器人、七轴机器人或八轴机器人中的一种。
本技术方案还提供一种打磨装置,包括基于上述打磨方法的机器人。本技术方案基于三维视觉技术,完成产品的三维模型的实时重建,解决柔性化打磨,对打磨对象的模型重建要求低,需要的信息量少,可快速兼容多种产品,定位效果佳,打磨准确,操作简单方便。并且,本技术方案通过动态力控技术,利用力矩传感器有效保证打磨力度和打磨质量,使得打磨精度更高。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合具体实施方式,对本发明进行进一步的详细说明。应当理解的是,此处所描述的具体实施方式仅用以解释本发明,并不限定本发明的保护范围。
一种打磨方法,包括:
通过三维相机对不同打磨对象进行模型重建;
对重建的模型进行分析,获取打磨对象的位置信息和打磨轨迹信息;
将所述位置信息坐标或打磨轨迹信息坐标转化为机器人坐标信息;
将所述机器人坐标信息发送至机器人***中,驱动机器人执行打磨动作;
实时打磨的同时,通过设置于机器人末端的力矩传感器进行实时力矩反馈,对打磨力度进行实时调整。
本实施方式基于三维视觉技术,完成产品的三维模型的实时重建,解决柔性化打磨,对打磨对象的模型重建要求低,需要的信息量少,可快速兼容多种产品,定位效果佳,打磨准确,操作简单方便。并且,本实施方式通过动态力控技术,利用力矩传感器有效保证打磨力度和打磨质量,使得打磨精度更高。
所述打磨轨迹信息包括打磨对象的宽度、厚度、长度及空间位置,多方位获取打磨对象的坐标信息,从而使得打磨精度更高。
进一步地,所述位置信息坐标和打磨轨迹信息坐标通过三维手眼标定转化为机器人坐标信息。
具体地,所述三维手眼标定包括如下步骤:
获取三维标定块上各角点在三维点云的坐标为(x,y,z);
获取三维标定块上各角点在机器人末端的坐标为(u,v,w);
计算三维点云坐标到机器人末端的坐标变化矩阵为R,其中R的计算公式为R=(x,y,z,1)-1·(u,v,w,1);
获取矩阵R的值。
进一步地,所述坐标信息通过以太网通讯发送至机器人***中。实现24小时不间断不堵塞的通讯模式,通过服务器和客户端的握手方式来保证实时的保证是连接状态。
进一步地,所述机器人为六轴机器人、七轴机器人或八轴机器人中的一种。由于六轴机器人可覆盖空间中所有角度位置信息,且七轴机器人和八轴机器人工艺复杂,成本高,故本实施方式采用六轴机器人。
本实施方式所述三维相机为摆动式线激光三维相机。不受其他光线干扰,数据采集稳定,精度高,形成稳定的三维产品模型重建效果。
具体地,所述摆动式线激光三维相机的激光波长为660nm。
本实施方式还提供一种打磨装置,包括基于上述任一项打磨方法的机器人。本技术方案基于三维视觉技术,完成产品的三维模型的实时重建,解决柔性化打磨,对打磨对象的模型重建要求低,需要的信息量少,可快速兼容多种产品,定位效果佳,打磨准确,操作简单方便。并且,本实施方式通过动态力控技术,利用力矩传感器有效保证打磨力度和打磨质量,使得打磨精度更高。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种打磨方法,其特征在于,包括:
通过三维相机对不同打磨对象进行模型重建;
对重建的模型进行分析,获取打磨对象的位置信息和打磨轨迹信息;
将所述位置信息坐标或打磨轨迹信息坐标转化为机器人坐标信息;
将所述机器人坐标信息发送至机器人***中,驱动机器人执行打磨动作;
实时打磨的同时,通过设置于机器人末端的力矩传感器进行实时力矩反馈,对打磨力度进行实时调整。
2.根据权利要求1所述的打磨方法,其特征在于, 所述打磨轨迹信息包括打磨对象的宽度、厚度、长度及空间位置。
3.根据权利要求1所述的打磨方法,其特征在于,所述位置信息坐标和打磨轨迹信息坐标通过三维手眼标定转化为机器人坐标信息。
4.根据权利要求1所述的打磨方法,其特征在于,所述三维手眼标定包括如下步骤:
获取三维标定块上各角点在三维点云的坐标为(x,y,z);
获取三维标定块上各角点在机器人末端的坐标为(u,v,w);
计算三维点云坐标到机器人末端的坐标变化矩阵为R,其中R的计算公式为R=(x,y,z,1)-1·(u,v,w,1);
获取矩阵R的值。
5.根据权利要求1-4任一项所述的打磨方法,其特征在于,所述坐标信息通过以太网通讯发送至机器人***中。
6.根据权利要求1-4任一项所述的打磨方法,其特征在于,所述机器人为六轴机器人、七轴机器人或八轴机器人中的一种。
7.一种打磨装置,其特征在于,包括基于权利要求1-6任一项所述打磨方法的机器人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811648603.7A CN111376111A (zh) | 2018-12-30 | 2018-12-30 | 打磨方法及打磨装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811648603.7A CN111376111A (zh) | 2018-12-30 | 2018-12-30 | 打磨方法及打磨装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111376111A true CN111376111A (zh) | 2020-07-07 |
Family
ID=71221218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811648603.7A Pending CN111376111A (zh) | 2018-12-30 | 2018-12-30 | 打磨方法及打磨装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111376111A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111906788A (zh) * | 2020-08-12 | 2020-11-10 | 湖北民族大学 | 一种基于机器视觉的卫浴智能打磨***及其打磨方法 |
-
2018
- 2018-12-30 CN CN201811648603.7A patent/CN111376111A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111906788A (zh) * | 2020-08-12 | 2020-11-10 | 湖北民族大学 | 一种基于机器视觉的卫浴智能打磨***及其打磨方法 |
CN111906788B (zh) * | 2020-08-12 | 2021-09-14 | 湖北民族大学 | 一种基于机器视觉的卫浴智能打磨***及其打磨方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108972559B (zh) | 基于红外立体视觉定位***和机械臂的手眼标定方法 | |
CN109910016A (zh) | 基于多自由度机械臂的视觉采集标定方法、装置及*** | |
CN104057290B (zh) | 一种基于视觉和力反馈控制的机器人装配方法与*** | |
CN109848964B (zh) | 基于光学动作捕捉的示教机器人数据采集器*** | |
CN109291048B (zh) | 一种磨抛工业机器人实时在线编程***及方法 | |
CN108942918B (zh) | 一种基于线结构光的立体定位方法 | |
CN102589437A (zh) | 光笔式便携三坐标测量***中测头中心位置的标定方法 | |
CN111823233B (zh) | 基于高精度立体光学定位的机械臂手眼标定***及方法 | |
CN104298244B (zh) | 一种工业机器人三维实时高精度定位装置的定位方法 | |
CN108638052A (zh) | 一种闭链式多臂机器人柔顺控制方法 | |
CN109623822B (zh) | 机器人手眼标定方法 | |
WO2020190166A1 (ru) | Способ и система захвата объекта с помощью роботизированного устройства | |
CN112643207B (zh) | 基于计算机视觉的激光自动除锈***及方法 | |
CN110001840A (zh) | 一种基于视觉传感器的多种路况下的两轮自平衡车运动控制方法 | |
CN108317999B (zh) | 一种基于惯性传感器的通信铁塔倾角测量方法 | |
CN108180834A (zh) | 一种工业机器人同三维成像仪位姿关系现场实时标定方法 | |
Kohn et al. | Towards a real-time environment reconstruction for VR-based teleoperation through model segmentation | |
US12011839B1 (en) | Three-dimensional scanning system and scanning path planning method thereof | |
CN105128010B (zh) | 一种scara机器人分布式控制***及其控制方法 | |
CN113352300A (zh) | 一种喷涂机器人示教器及方法 | |
CN105643619A (zh) | 一种采用框架描述的工业机器人工具位姿控制方法 | |
CN111376111A (zh) | 打磨方法及打磨装置 | |
CN103791889A (zh) | 一种利用十字结构光辅助的单目视觉位姿测量方法 | |
CN105303609A (zh) | 一种三维成像和实时建模的装置和方法 | |
CN115546289A (zh) | 一种基于机器人的复杂结构件三维形貌测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200707 |
|
WD01 | Invention patent application deemed withdrawn after publication |