CN107507177A - 基于三维扫描的机器人加工目标定位方法和装置 - Google Patents

基于三维扫描的机器人加工目标定位方法和装置 Download PDF

Info

Publication number
CN107507177A
CN107507177A CN201710760840.1A CN201710760840A CN107507177A CN 107507177 A CN107507177 A CN 107507177A CN 201710760840 A CN201710760840 A CN 201710760840A CN 107507177 A CN107507177 A CN 107507177A
Authority
CN
China
Prior art keywords
point
point cloud
cloud model
sub
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710760840.1A
Other languages
English (en)
Other versions
CN107507177B (zh
Inventor
刁世普
陈新度
吴磊
李延年
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GUANGZHOU ZSROBOT INTELLIGENT EQUIPMENT Co.,Ltd.
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201710760840.1A priority Critical patent/CN107507177B/zh
Publication of CN107507177A publication Critical patent/CN107507177A/zh
Application granted granted Critical
Publication of CN107507177B publication Critical patent/CN107507177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Numerical Control (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于三维扫描的机器人加工目标定位方法和装置,通过三维扫描仪对待加工部件进行三维扫描所获得的所述待加工部件的点云模型与标准点云模型进行匹配对比,从而获得对应所述待加工部件的差分模型,再通过栅格处理后,转换为稀疏点云模型,将超出预设阈值的所述差分值在所述模型的位置设为需要进行表面打磨处理的需打磨目标项,因此可以在满足对加工精度要求的基础之上,大大减少了计算量,加快了处理速度,减少了计算时间,满足了实时处理的要求,并且降低了对软硬件的性能的要求,可以节约成本,降低了开发的难度,符合对高速化大规模生产模式的要求。

Description

基于三维扫描的机器人加工目标定位方法和装置
技术领域
本发明涉及机器人视觉处理领域,特别涉及一种基于三维扫描的机器人加工目标定位方法和装置。
背景技术
伴随着制造业的发展,诸如打磨抛光之类的表面处理已经成为一道关键工序,其加工质量往往决定了产品的档次。特别是随着加工技术的进步,需要加工的部件的表面越来越复杂,并且对加工的精度要求也越来越高,因此对部件的表面的缺陷的确认和定位是表面处理流程之中必不可少的过程。但现有的方式主要依靠人工判别方式来实现,存在着工作量大,工作强度高,而且容易因漏判和错判而产生废品,工作效率低。此外,因为进行表面处理的工作环境一般都充满了粉尘或有害物质,工人即使配备防护措施,但也会对其身体健康具有一定的威胁。因此,为了替代越来越不适合大规模工业化生产的人工模式,一些自动化方案被提出来。这些自动化方案之中的一个重要的手段是给机器装上“眼睛”和能够与这颗眼睛配合的“大脑”,这只眼睛可以是单目相机,双目相机,多目相机,也可以是三维扫描仪,再通过利用图像处理的方法来对待加工部件的瑕疵位置即目标位置进行定位。但是,图像处理方法的计算复杂度很高,而且需要很大的计算量,计算时间较长,并且对软硬件的性能要求高,很难达到处理的实时性,不符合当前高速化的工业生产过程中的需要。此外,采用图像处理的方式的普适性不高,往往适用于特定的自动化加工***。
发明内容
本发明的主要目的在于提供一种基于三维扫描的机器人加工目标定位方法和装置,旨在解决现有人工操作的模式无法适应大规模工业化生产模式,以及现有的基于图像处理方式计算复杂度很高,需要很大的计算量,计算时间较长,对软硬件的性能要求高,很难达到实时处理,不符合当前高速化的工业生产过程中的需要的技术问题。
为解决上述问题,本发明提供的基于三维扫描的机器人加工目标定位方法,包括:
步骤1、通过安装在机器人的第5自由度的扫描仪按照预定的路线对待加工部件进行扫描,获得所述待加工部件的3D点云模型{O(ix,iy,iz)},所述下标ix为构成所述3D点云模型的点O(ix,iy,iz)的X轴坐标值,所述下标iy为构成所述3D点云模型的所述点O(ix,iy,iz)的Y轴坐标值,所述下标iz为构成所述3D点云模型的所述点O(ix,iy,iz)的Z轴坐标值;
步骤2、使用最佳拟合算法将所述3D点云模型{O(ix,iy,iz)}与标准3D点云模型{R(ix,iy,iz)}进行数据对齐,获得所述待加工部件的3D对齐点云模型{D(ix,iy,iz)};
步骤3、将所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行差分运算,从而获得所述待加工部件的3D差分模型{C(ix,iy,iz)},构成所述3D差分模型{C(ix,iy,iz)}的所述点C(ix,iy,iz)的计算公式为:C(ix,iy,iz)=D(ix,iy,iz)-R(ix,iy,iz)
步骤4、通过将预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)},从而获取所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)构成稀疏点云模型{X(jx,jy,jz)},所述下标jx为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的X轴坐标值,所述下标jy为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Y轴坐标值,所述下标jz为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Z轴坐标值,所述三维栅格的栅格尺寸为大于所述3D点云模型{O(ix,iy,iz)}的三维空间分辨率;
步骤5、遍历所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
优选地,在执行所述步骤1之前,通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。
优选地,所述步骤5包括:
将所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的所述jz坐标值从大到小进行排序,获得以所述Z轴方向等间隔的所述jz坐标值的所述点X(jx,jy,jz)的Z轴分层集合Sub(jz),所述Sub(jz)={X(jx,jy,jz)},所述Sub(jz)的下标jz表示所述Sub(jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同;
依次将所述Z轴分层集合Sub(jz)之内的所述点X(jx,jy,jz)的所述jx坐标值从大到小进行排序,获得以所述X轴方向等间隔的所述jx坐标值的所述点X(jx,jy,jz)的X轴分层集合Sub(jx,jz),所述Sub(ix,jz)={X(jx,jy,jz)},所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同,以及所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jx坐标值相同;
依次将所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz)的所述jy坐标值从大到小进行排序,然后按照所述jy坐标值的大小依次遍历所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
优选地,所述步骤3之中所述点C(ix,iy,iz)的计算公式为C(ix,iy,iz)=sqrt(dx2+dy2+dz2),所述dx为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿X轴方向的法向量的差值,所述dy为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Y轴方向的法向量的差值,所述dz为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Z轴方向的法向量的差值。
优选地,在所述步骤4之中,所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)代表的信息包括:所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)的位置坐标(jx,jy,jz)和所述位置坐标(jx,jy,jz)所对应的法向姿态,以及所述3D差分模型{C(ix,iy,iz)}在所述位置坐标(jx,jy,jz)所对应的位置坐标(ix,iy,iz)构成稀疏点云模型{X(jx,jy,jz)}和所述位置坐标(ix,iy,iz)所对应的法向姿态。
本发明进一步提供基于三维扫描的机器人加工目标定位装置,包括:
扫描模块,用于通过安装在机器人的第5自由度的扫描仪按照预定的路线对待加工部件进行扫描,获得所述待加工部件的3D点云模型{O(ix,iy,iz)},所述下标ix为构成所述3D点云模型的点O(ix,iy,iz)的X轴坐标值,所述下标iy为构成所述3D点云模型的所述点O(ix,iy,iz)的Y轴坐标值,所述下标iz为构成所述3D点云模型的所述点O(ix,iy,iz)的Z轴坐标值;
对齐模块,用于使用最佳拟合算法将所述3D点云模型{O(ix,iy,iz)}与标准3D点云模型{R(ix,iy,iz)}进行数据对齐,获得所述待加工部件的3D对齐点云模型{D(ix,iy,iz)};
差分模块,用于将所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行差分运算,从而获得所述待加工部件的3D差分模型{C(ix,iy,iz)},构成所述3D差分模型{C(ix,iy,iz)}的所述点C(ix,iy,iz)的计算公式为:C(ix,iy,iz)=D(ix,iy,iz)-R(ix,iy,iz)
稀疏模块,用于通过将预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)},从而获取所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)构成稀疏点云模型{X(jx,jy,jz)},所述下标jx为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的X轴坐标值,所述下标jy为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Y轴坐标值,所述下标jz为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Z轴坐标值,所述三维栅格的栅格尺寸为大于所述3D点云模型{O(ix,iy,iz)}的三维空间分辨率;
判别模块,用于遍历所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
优选地,还包括配准模块,用于通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。
优选地,所述判别模块包括:
Z轴分层集合Sub(jz)单元,用于将所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的所述jz坐标值从大到小进行排序,获得以所述Z轴方向等间隔的所述jz坐标值的所述点X(jx,jy,jz)的Z轴分层集合Sub(jz),所述Sub(jz)={X(jx,jy,jz)},所述Sub(jz)的下标jz表示所述Sub(jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同;
X轴分层集合Sub(jx,jz)单元,用于依次将所述Z轴分层集合Sub(jz)之内的所述点X(jx,jy,jz)的所述jx坐标值从大到小进行排序,获得以所述X轴方向等间隔的所述jx坐标值的所述点X(jx,jy,jz)的X轴分层集合Sub(jx,jz),所述Sub(ix,jz)={X(jx,jy,jz)},所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同,以及所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jx坐标值相同;
判别单元,用于依次将所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz)的所述jy坐标值从大到小进行排序,然后按照所述jy坐标值的大小依次遍历所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
优选地,在所述差分模块之中,用于所述点C(ix,iy,iz)的计算公式为C(ix,iy,iz)=sqrt(dx2+dy2+dz2),所述dx为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿X轴方向的法向量的差值,所述dy为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Y轴方向的法向量的差值,所述dz为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Z轴方向的法向量的差值。
优选地,在所述稀疏模块之中,所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)代表的信息包括:所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)的位置坐标(jx,jy,jz)和所述位置坐标(jx,jy,jz)所对应的法向姿态,以及所述3D差分模型{C(ix,iy,iz)}在所述位置坐标(jx,jy,jz)所对应的位置坐标(ix,iy,iz)构成稀疏点云模型{X(jx,jy,jz)}和所述位置坐标(ix,iy,iz)所对应的法向姿态。
本发明通过所述三维扫描仪对所述待加工部件进行三维扫描所获得的所述待加工部件的3D点云模型{O(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行匹配对比,从而获得对应所述待加工部件的所述3D差分模型{C(ix,iy,iz)},再通过对所述3D差分模型{C(ix,iy,iz)}放置栅格处理后,将所述所述3D差分模型{C(ix,iy,iz)}转换为所述稀疏点云模型{X(jx,jy,jz)},将所述稀疏点云模型{X(jx,jy,jz)}之中超出预设阈值θ的所述差分值X(jx,jy,jz)在所述差分模型的位置(jx,jy,jz)设为需要进行表面打磨处理的需打磨目标项,因此可以在满足对加工精度要求的基础之上,大大减少了计算量,加快了处理速度,减少了计算时间,满足了实时处理的要求,并且降低了对软硬件的性能的要求,可以节约成本,降低了开发的难度,符合对高速化大规模生产模式的要求。
附图说明
图1为本发明基于三维扫描的机器人加工目标定位方法第一实施例的流程示意图;
图2为本发明基于三维扫描的机器人加工目标定位方法第二实施例的流程示意图;
图3为本发明基于三维扫描的机器人加工目标定位方法第三实施例的流程示意图;
图4为本发明基于三维扫描的机器人加工目标定位装置第一实施例的流程示意图;
图5为本发明基于三维扫描的机器人加工目标定位装置第二实施例的流程示意图;
图6为本发明基于三维扫描的机器人加工目标定位装置第三实施例的功能模块示意图;
图7为所述标准3D点云模型{R(ix,iy,iz)}的例图;
图8为所述待加工部件的3D点云模型{O(ix,iy,iz)}的例图;
图9为所述待加工部件的3D差分模型{C(ix,iy,iz)}的例图;
图10为所述预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)}的例图;
图11为所述稀疏点云模型{X(jx,jy,jz)}的例图;
图12为所述扫描仪在预先设定的5个方向分别对附带参照配准标志的部件进行扫描的例图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
参照图1,图1为本发明基于三维扫描的机器人加工目标定位方法的第一实施例的流程示意图。如图1所示的实施例,所述基于三维扫描的机器人加工目标定位方法包括:
步骤S10、扫描输入模型。
即通过安装在机器人的第5自由度的扫描仪按照预定的路线对待加工部件进行扫描,获得所述待加工部件的3D点云模型{O(ix,iy,iz)},所述下标ix为构成所述3D点云模型的点O(ix,iy,iz)的X轴坐标值,所述下标iy为构成所述3D点云模型的所述点O(ix,iy,iz)的Y轴坐标值,所述下标iz为构成所述3D点云模型{O(ix,iy,iz)}的所述点O(ix,iy,iz)的Z轴坐标值。
其中所述3D点云模型如图8所示。将所述扫描仪安装到机器人的第5自由度的目的是防止在加工过程中的空气中的细小悬浮物粘附在扫描仪的镜头上,从而影响对所述待加工部件的扫描。
步骤S20、模型对齐。
即使用最佳拟合算法将所述3D点云模型{O(ix,iy,iz)}与标准3D点云模型{R(ix,iy,iz)}进行数据对齐,获得所述待加工部件的3D对齐点云模型{D(ix,iy,iz)}。
步骤S30、差分处理。
即将所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行差分运算,从而获得所述待加工部件的3D差分模型{C(ix,iy,iz)},构成所述3D差分模型{C(ix,iy,iz)}的所述点C(ix,iy,iz)的计算公式为:C(ix,iy,iz)=D(ix,iy,iz)-R(ix,iy,iz)。其中,所述标准3D点云模型{R(ix,iy,iz)}如图7所示,所述3D差分模型{C(ix,iy,iz)}如图9所示。
步骤S40、模型稀疏。
即通过将预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)},从而获取所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)构成稀疏点云模型{X(jx,jy,jz)},所述下标jx为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的X轴坐标值,所述下标jy为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Y轴坐标值,所述下标jz为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Z轴坐标值,所述三维栅格的栅格尺寸为大于所述3D点云模型{O(ix,iy,iz)}的三维空间分辨率。其中,所述三维栅格如图10所示,所述稀疏点云模型{X(jx,jy,jz)}如图11所示。
步骤S50、判别定位。
即遍历所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
通过上述步骤,即对所述3D差分模型{C(ix,iy,iz)}放置栅格处理后,将所述所述3D差分模型{C(ix,iy,iz)}转换为所述稀疏点云模型{X(jx,jy,jz)},将所述稀疏点云模型{X(jx,jy,jz)}之中超出预设阈值θ的所述差分值X(jx,jy,jz)在所述差分模型的位置(jx,jy,jz)设为需要进行表面打磨处理的需打磨目标项,因此可以在满足对加工精度要求的基础之上,大大减少了计算量,加快了处理速度,减少了计算时间,满足了实时处理的要求,并且降低了对软硬件的性能的要求,可以节约成本,降低了开发的难度,符合对高速化大规模生产模式的要求。
参照图2,图2为本发明基于三维扫描的机器人加工目标定位方法的第二实施例的流程示意图。如图2所示,基于上述图1的实施例,在执行所述步骤S10之前、执行步骤S05、配准预处理。
即通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。
图12为在所述预先设定的5个方向分别对附带参照配准标志的部件进行扫描所获得的例图。通过上述步骤,通过对所获取的5个不同方向的附带参照配准标志的部件,从而通过常规的图像处理方法可以实现对配准标志的识别定位,从而实现配准工作,从而可以消除所述扫描仪的偏差,避免了对后续定位算法的精度产生不利影响。并且本方法也具有计算的复杂度不高,计算处理速度快,方法成熟可靠,易于工程实现的特点。
参照图3,图3为本发明基于三维扫描的机器人加工目标定位方法的第三实施例的流程示意图。如图3所示,基于上述图2的实施例,所述步骤S50包括:
步骤S510、生成Z轴分层集合Sub(jz)
即将所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的所述jz坐标值从大到小进行排序,获得以所述Z轴方向等间隔的所述jz坐标值的所述点X(jx,jy,jz)的Z轴分层集合Sub(jz),所述Sub(jz)={X(jx,jy,jz)},所述Sub(jz)的下标jz表示所述Sub(jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同。
步骤S520、生成X轴分层集合Sub(jx,jz)
即依次将所述Z轴分层集合Sub(jz)之内的所述点X(jx,jy,jz)的所述jx坐标值从大到小进行排序,获得以所述X轴方向等间隔的所述jx坐标值的所述点X(jx,jy,jz)的X轴分层集合Sub(jx,jz),所述Sub(ix,jz)={X(jx,jy,jz)},所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同,以及所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jx坐标值相同。
步骤S530、判别定位。
即依次将所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz)的所述jy坐标值从大到小进行排序,然后按照所述jy坐标值的大小依次遍历所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
上述层切法的处理步骤,具有计算的复杂度不高,计算处理速度快,方法成熟可靠,易于工程实现的特点。
进一步,基于上述图3的实施例,所述步骤S30之中所述点C(ix,iy,iz)的计算公式为C(ix,iy,iz)=sqrt(dx2+dy2+dz2),所述dx为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿X轴方向的法向量的差值,所述dy为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Y轴方向的法向量的差值,所述dz为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Z轴方向的法向量的差值。
判别模块通过上述计算公式,可以更加准确的计算所述待加工部件与标准部件之间的差异,从而在后续处理过程之中可以更加准确的获得所述待加工部件的缺陷。
进一步,基于上述图3的实施例,所述步骤S40之中,所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)代表的信息包括:所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)的位置坐标(jx,jy,jz)和所述位置坐标(jx,jy,jz)所对应的法向姿态,以及所述3D差分模型{C(ix,iy,iz)}在所述位置坐标(jx,jy,jz)所对应的位置坐标(ix,iy,iz)构成稀疏点云模型{X(jx,jy,jz)}和所述位置坐标(ix,iy,iz)所对应的法向姿态。
通过上述所述点X(jx,jy,jz)代表的信息,可以更加准确的计算所述待加工部件与标准部件之间的差异,从而在后续处理过程之中可以更加准确的获得所述待加工部件的缺陷。并且具有降低计算复杂度,减少运算量,计算结果更加可靠,易于工程实现。
上述本发明基于三维扫描的机器人加工目标定位方法的第一实施例中的基于三维扫描的机器人加工目标定位方法可以由本发明基于三维扫描的机器人加工目标定位装置的第一实施例所提供的基于三维扫描的机器人加工目标定位装置来实现。
参照图4,图4为本发明基于三维扫描的机器人加工目标定位装置的第一实施例所提供的一种基于三维扫描的机器人加工目标定位装置,所述装置包括:
扫描模块10,用于通过安装在机器人的第5自由度的扫描仪按照预定的路线对待加工部件进行扫描,获得所述待加工部件的3D点云模型{O(ix,iy,iz)},所述下标ix为构成所述3D点云模型的点O(ix,iy,iz)的X轴坐标值,所述下标iy为构成所述3D点云模型的所述点O(ix,iy,iz)的Y轴坐标值,所述下标iz为构成所述3D点云模型的所述点O(ix,iy,iz)的Z轴坐标值。
其中所述3D点云模型如图8所示。将所述扫描仪安装到机器人的第5自由度的目的是防止在加工过程中的空气中的细小悬浮物粘附在扫描仪的镜头上,从而影响对所述待加工部件的扫描。
对齐模块20,用于使用最佳拟合算法将所述3D点云模型{O(ix,iy,iz)}与标准3D点云模型{R(ix,iy,iz)}进行数据对齐,获得所述待加工部件的3D对齐点云模型{D(ix,iy,iz)};
差分模块30,用于将所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行差分运算,从而获得所述待加工部件的3D差分模型{C(ix,iy,iz)},构成所述3D差分模型{C(ix,iy,iz)}的所述点C(ix,iy,iz)的计算公式为:C(ix,iy,iz)=D(ix,iy,iz)-R(ix,iy,iz)
稀疏模块40,用于通过将预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)},从而获取所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)构成稀疏点云模型{X(jx,jy,jz)},所述下标jx为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的X轴坐标值,所述下标jy为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Y轴坐标值,所述下标jz为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Z轴坐标值,所述三维栅格的栅格尺寸为大于所述3D点云模型{O(ix,iy,iz)}的三维空间分辨率;
判别模块50,用于遍历所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
通过上述模块的处理,即对所述3D差分模型{C(ix,iy,iz)}放置栅格处理后,将所述所述3D差分模型{C(ix,iy,iz)}转换为所述稀疏点云模型{X(jx,jy,jz)},将所述稀疏点云模型{X(jx,jy,jz)}之中超出预设阈值θ的所述差分值X(jx,jy,jz)在所述差分模型的位置(jx,jy,jz)设为需要进行表面打磨处理的需打磨目标项,因此可以在满足对加工精度要求的基础之上,大大减少了计算量,加快了处理速度,减少了计算时间,满足了实时处理的要求,并且降低了对软硬件的性能的要求,可以节约成本,降低了开发的难度,符合对高速化大规模生产模式的要求。
上述本发明基于三维扫描的机器人加工目标定位方法的第二实施例中的基于三维扫描的机器人加工目标定位方法可以由本发明基于三维扫描的机器人加工目标定位装置的第二实施例所提供的基于三维扫描的机器人加工目标定位装置来实现。
参照图5,本发明基于三维扫描的机器人加工目标定位装置的第二实施例提供一种基于三维扫描的机器人加工目标定位装置,基于上述图4所示的实施例,所述基于三维扫描的机器人加工目标定位装置还包括配准模块,用于通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。即通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。
图12为在所述预先设定的5个方向分别对附带参照配准标志的部件进行扫描所获得的例图。通过上述模块骤获取的5个不同方向的附带参照配准标志的部件,从而通过常规的图像处理方法可以实现对配准标志的识别定位,从而实现配准工作,从而可以消除所述扫描仪的偏差,避免了对后续定位算法的精度产生不利影响。并且本方法也具有计算的复杂度不高,计算处理速度快,方法成熟可靠,易于工程实现的特点。
上述本发明基于三维扫描的机器人加工目标定位方法的第三实施例中的基于三维扫描的机器人加工目标定位方法可以由本发明基于三维扫描的机器人加工目标定位装置的第三实施例所提供的基于三维扫描的机器人加工目标定位装置来实现。
参照图6,本发明基于三维扫描的机器人加工目标定位装置的第三实施例提供一种基于三维扫描的机器人加工目标定位装置,基于上述图5所示的实施例,所述基于三维扫描的机器人加工目标定位装置的所述判别模块50包括:
Z轴分层集合Sub(jz)单元51,用于将所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的所述jz坐标值从大到小进行排序,获得以所述Z轴方向等间隔的所述jz坐标值的所述点X(jx,jy,jz)的Z轴分层集合Sub(jz),所述Sub(jz)={X(jx,jy,jz)},所述Sub(jz)的下标jz表示所述Sub(jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同。
X轴分层集合Sub(jx,jz)单元52,用于依次将所述Z轴分层集合Sub(jz)之内的所述点X(jx,jy,jz)的所述jx坐标值从大到小进行排序,获得以所述X轴方向等间隔的所述jx坐标值的所述点X(jx,jy,jz)的X轴分层集合Sub(jx,jz),所述Sub(ix,jz)={X(jx,jy,jz)},所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同,以及所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jx坐标值相同。
判别定位单元53,用于依次将所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz)的所述jy坐标值从大到小进行排序,然后按照所述jy坐标值的大小依次遍历所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
上述处理单元的层切法处理,具有计算的复杂度不高,计算处理速度快,方法成熟可靠,易于工程实现的特点。
进一步,基于上述图6的实施例,在所述差分模块30之中,用于所述点C(ix,iy,iz)的计算公式为C(ix,iy,iz)=sqrt(dx2+dy2+dz2),所述dx为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿X轴方向的法向量的差值,所述dy为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Y轴方向的法向量的差值,所述dz为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Z轴方向的法向量的差值。
通过上述计算公式,可以更加准确的计算所述待加工部件与标准部件之间的差异,从而在后续处理过程之中可以更加准确的获得所述待加工部件的缺陷。
进一步,基于上述图6的实施例,在所述稀疏模块40之中,所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)代表的信息包括:所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)的位置坐标(jx,jy,jz)和所述位置坐标(jx,jy,jz)所对应的法向姿态,以及所述3D差分模型{C(ix,iy,iz)}在所述位置坐标(jx,jy,jz)所对应的位置坐标(ix,iy,iz)构成稀疏点云模型{X(jx,jy,jz)}和所述位置坐标(ix,iy,iz)所对应的法向姿态。
通过上述所述点X(jx,jy,jz)代表的信息,可以更加准确的计算所述待加工部件与标准部件之间的差异,从而在后续处理过程之中可以更加准确的获得所述待加工部件的缺陷。并且具有降低计算复杂度,减少运算量,计算结果更加可靠,易于工程实现。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
显然,本领域的技术人员应该明白,上述的本发明的各模块单元或各步骤可以用通用的计算装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.基于三维扫描的机器人加工目标定位方法,其特征在于,包括:
步骤1、通过安装在机器人的第5自由度的扫描仪按照预定的路线对待加工部件进行扫描,获得所述待加工部件的3D点云模型{O(ix,iy,iz)},所述下标ix为构成所述3D点云模型的点O(ix,iy,iz)的X轴坐标值,所述下标iy为构成所述3D点云模型的所述点O(ix,iy,iz)的Y轴坐标值,所述下标iz为构成所述3D点云模型的所述点O(ix,iy,iz)的Z轴坐标值;
步骤2、使用最佳拟合算法将所述3D点云模型{O(ix,iy,iz)}与标准3D点云模型{R(ix,iy,iz)}进行数据对齐,获得所述待加工部件的3D对齐点云模型{D(ix,iy,iz)};
步骤3、将所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行差分运算,从而获得所述待加工部件的3D差分模型{C(ix,iy,iz)},构成所述3D差分模型{C(ix,iy,iz)}的所述点C(ix,iy,iz)的计算公式为:C(ix,iy,iz)=D(ix,iy,iz)-R(ix,iy,iz)
步骤4、通过将预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)},从而获取所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)构成稀疏点云模型{X(jx,jy,jz)},所述下标jx为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的X轴坐标值,所述下标jy为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Y轴坐标值,所述下标jz为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Z轴坐标值,所述三维栅格的栅格尺寸为大于所述3D点云模型{O(ix,iy,iz)}的三维空间分辨率;
步骤5、遍历所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
2.如权利要求1所述的基于三维扫描的机器人加工目标定位方法,其特征在于,在执行所述步骤1之前,通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。
3.如权利要求1或2所述的基于三维扫描的机器人加工目标定位方法,其特征在于,所述步骤5包括:
将所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的所述jz坐标值从大到小进行排序,获得以所述Z轴方向等间隔的所述jz坐标值的所述点X(jx,jy,jz)的Z轴分层集合Sub(jz),所述Sub(jz)={X(jx,jy,jz)},所述Sub(jz)的下标jz表示所述Sub(jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同;
依次将所述Z轴分层集合Sub(jz)之内的所述点X(jx,jy,jz)的所述jx坐标值从大到小进行排序,获得以所述X轴方向等间隔的所述jx坐标值的所述点X(jx,jy,jz)的X轴分层集合Sub(jx,jz),所述Sub(ix,jz)={X(jx,jy,jz)},所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同,以及所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jx坐标值相同;
依次将所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz)的所述jy坐标值从大到小进行排序,然后按照所述jy坐标值的大小依次遍历所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
4.如权利要求3所述的基于三维扫描的机器人加工目标定位方法,其特征在于,所述步骤3之中所述点C(ix,iy,iz)的计算公式为C(ix,iy,iz)=sqrt(dx2+dy2+dz2),所述dx为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿X轴方向的法向量的差值,所述dy为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Y轴方向的法向量的差值,所述dz为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Z轴方向的法向量的差值。
5.如权利要求3所述的基于三维扫描的机器人加工目标定位方法,其特征在于,在所述步骤4之中,所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)代表的信息包括:所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)的位置坐标(jx,jy,jz)和所述位置坐标(jx,jy,jz)所对应的法向姿态,以及所述3D差分模型{C(ix,iy,iz)}在所述位置坐标(jx,jy,jz)所对应的位置坐标(ix,iy,iz)构成稀疏点云模型{X(jx,jy,jz)}和所述位置坐标(ix,iy,iz)所对应的法向姿态。
6.基于三维扫描的机器人加工目标定位装置,其特征在于,包括:
扫描模块,用于通过安装在机器人的第5自由度的扫描仪按照预定的路线对待加工部件进行扫描,获得所述待加工部件的3D点云模型{O(ix,iy,iz)},所述下标ix为构成所述3D点云模型的点O(ix,iy,iz)的X轴坐标值,所述下标iy为构成所述3D点云模型的所述点O(ix,iy,iz)的Y轴坐标值,所述下标iz为构成所述3D点云模型的所述点O(ix,iy,iz)的Z轴坐标值;
对齐模块,用于使用最佳拟合算法将所述3D点云模型{O(ix,iy,iz)}与标准3D点云模型{R(ix,iy,iz)}进行数据对齐,获得所述待加工部件的3D对齐点云模型{D(ix,iy,iz)};
差分模块,用于将所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}进行差分运算,从而获得所述待加工部件的3D差分模型{C(ix,iy,iz)},构成所述3D差分模型{C(ix,iy,iz)}的所述点C(ix,iy,iz)的计算公式为:C(ix,iy,iz)=D(ix,iy,iz)-R(ix,iy,iz)
稀疏模块,用于通过将预设的三维栅格放置在所述3D差分模型{C(ix,iy,iz)},从而获取所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)构成稀疏点云模型{X(jx,jy,jz)},所述下标jx为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的X轴坐标值,所述下标jy为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Y轴坐标值,所述下标jz为构成所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的Z轴坐标值,所述三维栅格的栅格尺寸为大于所述3D点云模型{O(ix,iy,iz)}的三维空间分辨率;
判别模块,用于遍历所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
7.如权利要求6所述的基于三维扫描的机器人加工目标定位装置,其特征在于,还包括配准模块,用于通过所述安装在所述机器人的第5自由度的所述扫描仪在预先设定的5个方向,按照所述预定的路线,分别对附带参照配准标志的部件进行扫描,从而实现对所述扫描仪的配准。
8.如权利要求6或7所述的基于三维扫描的机器人加工目标定位装置,其特征在于,所述判别模块包括:
Z轴分层集合Sub(jz)单元,用于将所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)的所述jz坐标值从大到小进行排序,获得以所述Z轴方向等间隔的所述jz坐标值的所述点X(jx,jy,jz)的Z轴分层集合Sub(jz),所述Sub(jz)={X(jx,jy,jz)},所述Sub(jz)的下标jz表示所述Sub(jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同;
X轴分层集合Sub(jx,jz)单元,用于依次将所述Z轴分层集合Sub(jz)之内的所述点X(jx,jy,jz)的所述jx坐标值从大到小进行排序,获得以所述X轴方向等间隔的所述jx坐标值的所述点X(jx,jy,jz)的X轴分层集合Sub(jx,jz),所述Sub(ix,jz)={X(jx,jy,jz)},所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jz坐标值相同,以及所述Sub(jx,jz)的下标(jx,jz)表示所述Sub(jx,jz)的所有所述点X(jx,jy,jz)的所述jx坐标值相同;
判别单元,用于依次将所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz)的所述jy坐标值从大到小进行排序,然后按照所述jy坐标值的大小依次遍历所述X轴分层集合Sub(jx,jz)之内的所述点X(jx,jy,jz),当所述点X(jx,jy,jz)的值大于预设的阈值θ时,将对应所述点X(jx,jy,jz)的坐标(jx,jy,jz)作为所述待加工部件的待加工目标的坐标值。
9.如权利要求8所述的基于三维扫描的机器人加工目标定位装置,其特征在于,在所述差分模块之中,用于所述点C(ix,iy,iz)的计算公式为C(ix,iy,iz)=sqrt(dx2+dy2+dz2),所述dx为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿X轴方向的法向量的差值,所述dy为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Y轴方向的法向量的差值,所述dz为所述3D对齐点云模型{D(ix,iy,iz)}与所述标准3D点云模型{R(ix,iy,iz)}沿Z轴方向的法向量的差值。
10.如权利要求8所述的基于三维扫描的机器人加工目标定位装置,其特征在于,在所述稀疏模块之中,所述稀疏点云模型{X(jx,jy,jz)}的所述点X(jx,jy,jz)代表的信息包括:所述三维栅格与所述3D差分模型{C(ix,iy,iz)}相交的点X(jx,jy,jz)的位置坐标(jx,jy,jz)和所述位置坐标(jx,jy,jz)所对应的法向姿态,以及所述3D差分模型{C(ix,iy,iz)}在所述位置坐标(jx,jy,jz)所对应的位置坐标(ix,iy,iz)构成稀疏点云模型{X(jx,jy,jz)}和所述位置坐标(ix,iy,iz)所对应的法向姿态。
CN201710760840.1A 2017-08-30 2017-08-30 基于三维扫描的机器人加工目标定位方法和装置 Active CN107507177B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710760840.1A CN107507177B (zh) 2017-08-30 2017-08-30 基于三维扫描的机器人加工目标定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710760840.1A CN107507177B (zh) 2017-08-30 2017-08-30 基于三维扫描的机器人加工目标定位方法和装置

Publications (2)

Publication Number Publication Date
CN107507177A true CN107507177A (zh) 2017-12-22
CN107507177B CN107507177B (zh) 2018-09-28

Family

ID=60694039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710760840.1A Active CN107507177B (zh) 2017-08-30 2017-08-30 基于三维扫描的机器人加工目标定位方法和装置

Country Status (1)

Country Link
CN (1) CN107507177B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109541812A (zh) * 2018-11-12 2019-03-29 西安电子科技大学 一种体三维显示装置及其控制方法
CN111644966A (zh) * 2020-07-06 2020-09-11 中国铁建重工集团股份有限公司 打磨装置
CN112498731A (zh) * 2020-12-15 2021-03-16 西安飞机工业(集团)有限责任公司 一种锯齿型壁板对接修配方法
CN113628177A (zh) * 2021-07-29 2021-11-09 北京好运达智创科技有限公司 一种梁体双层存梁检测***
CN117113591A (zh) * 2023-10-23 2023-11-24 深圳市南科佳安机器人科技有限公司 产品加工方法、装置及存储介质和终端设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105261060A (zh) * 2015-07-23 2016-01-20 东华大学 基于点云压缩和惯性导航的移动场景实时三维重构方法
CN106091931A (zh) * 2016-08-22 2016-11-09 上海交通大学 一种基于三维模型的自适应扫描测量***及其控制方法
US20170084085A1 (en) * 2016-11-30 2017-03-23 Caterpillar Inc. System and method for object recognition
CN106842216A (zh) * 2017-02-13 2017-06-13 大连理工大学 一种基于Kinect与三维激光协同的工件位姿在线检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105261060A (zh) * 2015-07-23 2016-01-20 东华大学 基于点云压缩和惯性导航的移动场景实时三维重构方法
CN106091931A (zh) * 2016-08-22 2016-11-09 上海交通大学 一种基于三维模型的自适应扫描测量***及其控制方法
US20170084085A1 (en) * 2016-11-30 2017-03-23 Caterpillar Inc. System and method for object recognition
CN106842216A (zh) * 2017-02-13 2017-06-13 大连理工大学 一种基于Kinect与三维激光协同的工件位姿在线检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WILLIAM GELARD等: "Model-based Segmentation of 3D Point Clouds for Phenotyping Sunflower Plants", 《PROCEEDINGS OF THE 12TH INTERNATINAL JOINT CONFERENCE ON COMPUTER VISION,IMAGING AND COMPUTER GRPHICS THEORY AND APPLICATIONS》 *
孟凡文等: "用继承与优化算法精密拼接无序点云", 《光学精密工程》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109541812A (zh) * 2018-11-12 2019-03-29 西安电子科技大学 一种体三维显示装置及其控制方法
CN111644966A (zh) * 2020-07-06 2020-09-11 中国铁建重工集团股份有限公司 打磨装置
CN112498731A (zh) * 2020-12-15 2021-03-16 西安飞机工业(集团)有限责任公司 一种锯齿型壁板对接修配方法
CN112498731B (zh) * 2020-12-15 2022-11-18 西安飞机工业(集团)有限责任公司 一种锯齿型壁板对接修配方法
CN113628177A (zh) * 2021-07-29 2021-11-09 北京好运达智创科技有限公司 一种梁体双层存梁检测***
CN117113591A (zh) * 2023-10-23 2023-11-24 深圳市南科佳安机器人科技有限公司 产品加工方法、装置及存储介质和终端设备
CN117113591B (zh) * 2023-10-23 2024-02-23 深圳市南科佳安机器人科技有限公司 产品加工方法、装置及存储介质和终端设备

Also Published As

Publication number Publication date
CN107507177B (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN107507177B (zh) 基于三维扫描的机器人加工目标定位方法和装置
CN106041946B (zh) 基于图像处理的机械人打磨生产方法及应用其的生产***
CN104126157B (zh) 干涉检查装置及数控装置
CN105676642B (zh) 一种六自由度机器人工位布局与运动时间协同优化方法
CN109483554A (zh) 基于全局和局部视觉语义的机器人动态抓取方法及***
JP4083554B2 (ja) 3次元モデルデータ生成装置
CN109397282A (zh) 机械手臂加工方法、***及计算机可读取纪录媒体
CN107598918B (zh) 基于打磨机器人的表面打磨处理自动编程方法和装置
CN108115705A (zh) 一种机器人打磨控制***及方法
CN113379849B (zh) 基于深度相机的机器人自主识别智能抓取方法及***
CN110281231B (zh) 无人化fdm增材制造的移动机器人三维视觉抓取方法
WO2020144784A1 (ja) 画像処理装置、作業ロボット、基板検査装置および検体検査装置
JP2007021634A (ja) ワークの自動加工方法およびワークの自動加工システム
CN111906788B (zh) 一种基于机器视觉的卫浴智能打磨***及其打磨方法
CN109848989A (zh) 一种基于红宝石探针的机器人执行末端自动标定及检测方法
JPH055041B2 (zh)
US20190287258A1 (en) Control Apparatus, Robot System, And Method Of Detecting Object
CN109035241A (zh) 一种鞋底加工方法及***
CN110153582B (zh) 焊接方案生成方法、装置以及焊接***
CN116542914A (zh) 基于3d点云的焊缝提取与拟合方法
JP2007021635A (ja) ワークの自動ハンドリング方法およびワークの自動ハンドリングシステム
JP2007025991A (ja) ワークの自動加工方法およびワークの自動加工システム
US20140336977A1 (en) Moving body placement determining method, measuring apparatus, machining apparatus, and storage medium
CN117301077B (zh) 机械臂轨迹生成方法、装置、电子设备及可读存储介质
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20201207

Address after: Fonda YUNPU Industrial Zone Whampoa District Guangzhou road 510000, Guangdong province No. 6 Room 101

Patentee after: GUANGZHOU ZSROBOT INTELLIGENT EQUIPMENT Co.,Ltd.

Address before: 510006 Panyu District, Guangzhou, Guangzhou University,, West Ring Road, No. 100

Patentee before: GUANGDONG University OF TECHNOLOGY

TR01 Transfer of patent right