CN112419429A - 一种基于多视角的大型工件表面缺陷检测标定方法 - Google Patents

一种基于多视角的大型工件表面缺陷检测标定方法 Download PDF

Info

Publication number
CN112419429A
CN112419429A CN202110094512.9A CN202110094512A CN112419429A CN 112419429 A CN112419429 A CN 112419429A CN 202110094512 A CN202110094512 A CN 202110094512A CN 112419429 A CN112419429 A CN 112419429A
Authority
CN
China
Prior art keywords
camera
sift feature
dimensional
feature points
library
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110094512.9A
Other languages
English (en)
Other versions
CN112419429B (zh
Inventor
曾向荣
钟志伟
刘衍
张政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202110094512.9A priority Critical patent/CN112419429B/zh
Publication of CN112419429A publication Critical patent/CN112419429A/zh
Application granted granted Critical
Publication of CN112419429B publication Critical patent/CN112419429B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开一种基于多视角的大型工件表面缺陷检测标定方法,涉及设计图像处理技术领域。本发明首先对大型工件进行三维建模,确定其表面各个点的相对位置关系,利用相机生成正下方的俯视图像,对俯视图进行SIFT特征点提取,构建SIFT特征点和位置关系的离线库;然后建立在线相机与对应相机图像的SIFT特征点在线库;接着利用三维模型建立的离线库与相机二维图像建立的在线库进行匹配,定位匹配特征点的三维坐标;最后对相机外参进行标定。本发明提供的一种基于多视角的大型工件表面缺陷检测标定方法,有效的提高多视角下大型工件表面缺陷检测定位能力,为工业自动化提供更好的依据。

Description

一种基于多视角的大型工件表面缺陷检测标定方法
技术领域
本发明涉及设计图像处理技术领域,尤其涉及一种基于多视角的大型工件表面缺陷检测标定方法。
背景技术
机器视觉技术已经代替人眼深入到了社会的方方面面,彻底改变了人们的生活环境。机器视觉检测综合了机器视觉和自动化技术,广泛应用于制造行业的产品缺陷检测,例如产品的装配过程检测与定位、产品的包装检测、产品的外观质量检测、物流行业的货物分栋或水果分栋等,机器视觉能够代替人工快速、准确地完成各项工作。
机器视觉是用机器代替人眼,将被拍摄结果转换成图像信号传给图像处理***,并做出判断和测量,一般采用单一的图像扫描的方式或者移动机器人扫描的方式对大型工件表面进行缺陷进行检测,该方法效率较低,且运动过程中不好标定,基于多视角的大型工件表面缺陷检测需要复杂的标定问题。发明专利CN201910341446.3公开了一种摄影测量后处理辅助尺度恢复及定向的标定装置,其提出了一种立体标定板,该标定板不易把所有的多视角相机都拍摄在里面。
发明内容
本发明的目的在于提供了一种基于多视角的大型工件表面缺陷检测标定方法,有效的提高多视角下大型工件表面缺陷检测定位能力,为工业自动化提供更好的依据。
为了解决上述技术问题,本发明提供了一种基于多视角的大型工件表面缺陷检测标定方法,采用多个相机固定在大型工件的正上方或者两侧,且大型工件的三维模型已知,其具体包括以下步骤:
(1)构建三维模型SIFT特征点的离线库,首先对大型工件进行三维建模,确定大型工件各个点的相对位置关系,然后利用相机生成正下方的俯视图像,对俯视图像进行SIFT特征点的提取,从而构建SIFT特征点和三维模型中大型工件各个点的相对位置关系的离线库;
(2)构建多相机图像的在线SIFT特征点库,即在线标点中,每个相机获取当前目标的二维图像,提取SIFT特征点,建立在线相机与对应相机图像的SIFT特征点在线库;
(3)利用三维模型SIFT特征点的离线库与多相机二维图像的在线SIFT特征点库进行匹配,对匹配的特征点在三维模型中进行定位,定位匹配特征点的三维坐标;
(4)利用已经定位匹配特征点的三维坐标,根据相机内参数,和二维图像对应的坐标对相机外参数进行标定。
进一步的,所述构建三维模型SIFT特征点的离线库的具体步骤为:
S1.在大型工件三维模型已知的情况下,以三维模型的一点为原点,建立以该原点为中心的坐标系
Figure 301551DEST_PATH_IMAGE001
,大型工件表面上的点坐标为
Figure 145879DEST_PATH_IMAGE002
S2.采用多视角相机拍摄正下方大型工件的俯视图像,对俯视图像进行SIFT特征点提取,提取的SIFT特征点对用的工件表面上的坐标为
Figure 924480DEST_PATH_IMAGE003
S3.根据多视角相机的大概位置划分为
Figure 339412DEST_PATH_IMAGE004
个区域,把对应区域的SIFT特征点的三维坐标
Figure 189556DEST_PATH_IMAGE005
和该SIFT特征点的SIFT特征向量
Figure 498177DEST_PATH_IMAGE006
放入该区域,即构建了三维模型SIFT特征点的离线库;其中,
Figure 323045DEST_PATH_IMAGE007
为第
Figure 84328DEST_PATH_IMAGE007
个区域,
Figure 534901DEST_PATH_IMAGE008
Figure 698029DEST_PATH_IMAGE009
为该区域图像的第
Figure 786525DEST_PATH_IMAGE009
个SIFT特征点。
进一步的,所述构建多相机图像的在线SIFT特征点库的具体步骤为:
P1.采集每个相机的二维图像,获取该二维图像的SIFT特征点以及对应的特征值;
P2.根据上述SIFT特征点以及对应的特征值生成对应相机内参数矩阵
Figure 300683DEST_PATH_IMAGE010
,该二维图像的任意SIFT特征点图像坐标
Figure 289368DEST_PATH_IMAGE011
,以及对应的特征值向量
Figure 307002DEST_PATH_IMAGE012
的在线SIFT特征点库;其中,
Figure 739252DEST_PATH_IMAGE013
代表第
Figure 803023DEST_PATH_IMAGE013
个相机,
Figure 470765DEST_PATH_IMAGE014
代表二维图像中第
Figure 218272DEST_PATH_IMAGE014
个SIFT特征点。
进一步的,所述利用三维模型SIFT特征点的离线库与多相机二维图像的在线SIFT特征点库进行匹配,即所述特征向量
Figure 211636DEST_PATH_IMAGE006
与特征向量
Figure 559440DEST_PATH_IMAGE012
进行匹配,当特征点匹配阈值大于
Figure 765294DEST_PATH_IMAGE015
时,即确定该点为匹配点,构建匹配点的离线库中的三维坐标
Figure 632887DEST_PATH_IMAGE016
和在线库的二维坐标
Figure 531573DEST_PATH_IMAGE017
,其中
Figure 101094DEST_PATH_IMAGE018
Figure 186337DEST_PATH_IMAGE019
分别为匹配的目标三维点和目标的图像中的二维点。
进一步的,所述相机外参数的标定依据为:根据相机内参数
Figure 564229DEST_PATH_IMAGE010
,并利用已经定位匹配特征点的三维坐标
Figure 492871DEST_PATH_IMAGE016
和二维图像对应点的坐标
Figure 690634DEST_PATH_IMAGE017
进行标定的。
进一步的,所述相机外参数进行标定后,以获取相机外参数矩阵,所述相机外参数矩阵为相对于大型工件的坐标系
Figure 113656DEST_PATH_IMAGE001
;根据第
Figure 80475DEST_PATH_IMAGE020
相机获取的大型工件的原点坐标,以及该相机相对坐标系
Figure 180018DEST_PATH_IMAGE001
的旋转矩阵
Figure 943706DEST_PATH_IMAGE021
和平移矩阵
Figure 295053DEST_PATH_IMAGE022
,该相机相对坐标系
Figure 241012DEST_PATH_IMAGE001
转换为以该
Figure 917981DEST_PATH_IMAGE020
相机为原点的相机坐标系
Figure 700124DEST_PATH_IMAGE023
本发明提供的基于多视角的大型工件表面缺陷检测标定方法可应用于大型机床的裂纹检测、表面腐蚀的缺陷检测、多视角飞机蒙皮缺陷检测等方面。
本发明取得了以下有益效果:本发明的一种基于多视角的大型工件表面缺陷检测标定方法,主要是针对多视角的大型工件表面缺陷检测标定复杂,利用二、三维标定板对结构工艺要求较高的特征,开展在线的基于多视角的大型工件表面缺陷检测标定,为实现非接触、无破坏的精确测量,实现精确化维护管理提供一种新的标定方法。
附图说明
图1是本发明的基于多视角的大型工件表面缺陷检测标定方法流程图;
图2是本发明的SIFT特征检测流程图;
图3是本发明的一实施例的飞机表面SIFT特征点示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行详细地描述。本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本发明主要是针对多视角的大型工件表面缺陷检测标定复杂,利用二、三维标定板对结构工艺要求较高的特点,本文开展在线的基于多视角的大型工件表面缺陷检测标定,为实现非接触、无破坏的精确测量,实现精确化维护管理提供一种新的标定方法。
本发明提供的基于多视角的大型工件表面缺陷检测标定方法,是在大型工件的三维模型已知的情况下,采用多个相机固定在大型工件的正上方或者两侧对大型工件表面缺陷检测进行标定的方法。本发明的在线标定方法可应用于大型机床的裂纹检测、表面腐蚀的缺陷检测、多视角飞机蒙皮缺陷检测等方面。
如图1所示,本发明提供的基于多视角的大型工件表面缺陷检测标定方法,其包括以下步骤:
(1)构建三维模型SIFT特征点的离线库,首先对大型工件进行三维建模,确定大型工件各个点的相对位置关系,然后利用相机生成正下方的俯视图像,对俯视图像进行尺度不变特征(SIFT)特征点的提取,从而构建SIFT特征点和三维模型中大型工件各个点的相对位置关系的离线库。构建该三维模型SIFT特征点的离线库的具体步骤为:
S1.在大型工件三维模型已知的情况下,以三维模型的一点为原点,建立以该原点为中心的坐标系
Figure 589582DEST_PATH_IMAGE001
,大型工件表面上的点坐标为
Figure 655627DEST_PATH_IMAGE002
Figure 972339DEST_PATH_IMAGE001
的点坐标为
Figure 447969DEST_PATH_IMAGE002
S2.采用多视角相机拍摄正下方大型工件的俯视图像,对俯视图像进行SIFT特征点提取,提取的SIFT特征点对用的工件表面上的坐标为
Figure 265753DEST_PATH_IMAGE003
,式中
Figure 61670DEST_PATH_IMAGE013
为1~N,其中N为SIFT特征点个数。
S3.根据多视角相机的大概位置划分为
Figure 690229DEST_PATH_IMAGE004
个区域,把对应区域的SIFT特征点的三维坐标
Figure 571597DEST_PATH_IMAGE005
和该SIFT特征点的SIFT特征向量
Figure 193072DEST_PATH_IMAGE006
放入该区域,即构建了三维模型SIFT特征点的离线库。
其中,
Figure 843496DEST_PATH_IMAGE007
为第
Figure 642956DEST_PATH_IMAGE007
个区域,
Figure 11620DEST_PATH_IMAGE008
Figure 374468DEST_PATH_IMAGE009
为该区域图像的第
Figure 754765DEST_PATH_IMAGE009
个SIFT特征点。
(2)构建多相机图像的在线SIFT特征点库,即在线标点中,每个相机获取当前目标的二维图像,提取SIFT特征点,建立在线相机与对应相机图像的SIFT特征点在线库。构建该多相机图像的在线SIFT特征点库的具体步骤为:
P1.采集每个相机的二维图像,获取该二维图像的SIFT特征点以及对应的特征值。
P2.根据上述SIFT特征点以及对应的特征值生成对应相机内参数矩阵
Figure 849760DEST_PATH_IMAGE010
,该二维图像的任意SIFT特征点图像坐标
Figure 830355DEST_PATH_IMAGE011
,以及对应的特征值向量
Figure 403418DEST_PATH_IMAGE012
的在线SIFT特征点库。
其中,
Figure 900871DEST_PATH_IMAGE013
代表第
Figure 432347DEST_PATH_IMAGE013
个相机,
Figure 634658DEST_PATH_IMAGE014
代表二维图像中第
Figure 276992DEST_PATH_IMAGE014
个SIFT特征点。
(3)利用三维模型SIFT特征点的离线库与多相机二维图像的在线SIFT特征点库进行匹配,即特征向量
Figure 631881DEST_PATH_IMAGE006
与特征向量
Figure 396575DEST_PATH_IMAGE012
进行匹配。当特征点匹配(采用欧氏距离对SIFT特征向量进行匹配)阈值大于
Figure 961548DEST_PATH_IMAGE015
时,即确定该点为匹配点,对匹配的特征点在三维模型中进行定位,定位匹配特征点的三维坐标,构建匹配点的离线库中的三维坐标
Figure 751781DEST_PATH_IMAGE016
和在线库的二维坐标
Figure 351389DEST_PATH_IMAGE017
其中,
Figure 83722DEST_PATH_IMAGE018
Figure 401571DEST_PATH_IMAGE019
分别为匹配的目标三维点和目标的图像中的二维点。
当上述特征向量
Figure 995494DEST_PATH_IMAGE024
与特征向量
Figure 449609DEST_PATH_IMAGE025
进行匹配,特征点匹配采用余弦相似性度量,其公式为:
Figure 352843DEST_PATH_IMAGE026
其中
Figure 962249DEST_PATH_IMAGE027
为特征向量的维度,一般取128维,当
Figure 484497DEST_PATH_IMAGE028
时,即确定该点为匹配点,一般
Figure 917752DEST_PATH_IMAGE015
选择为0.7~0.8。
(4)利用已经定位匹配特征点的三维坐标
Figure 867254DEST_PATH_IMAGE016
,根据相机内参数
Figure 769482DEST_PATH_IMAGE010
,和二维图像对应的坐标
Figure 95421DEST_PATH_IMAGE017
对相机外参数进行标定,求出外参旋转矩阵
Figure 383183DEST_PATH_IMAGE029
和平移向量
Figure 582214DEST_PATH_IMAGE030
。其中
Figure 96372DEST_PATH_IMAGE031
Figure 85057DEST_PATH_IMAGE032
为相邻像素间的距离,
Figure 368270DEST_PATH_IMAGE033
Figure 800520DEST_PATH_IMAGE034
为图像中心点的位置,
Figure 536395DEST_PATH_IMAGE035
为焦距,这些为相机内参数,相机内参数一般固定,利用标定板会事先标定;
Figure 63191DEST_PATH_IMAGE036
上述相机外参数进行标定后,获得相机外参数矩阵。该相机外参数矩阵为相对于大型工件的坐标系
Figure 276610DEST_PATH_IMAGE001
。根据第
Figure 4395DEST_PATH_IMAGE020
相机获取的大型工件的原点坐标,以及该相机相对坐标系
Figure 86620DEST_PATH_IMAGE001
的旋转矩阵
Figure 823632DEST_PATH_IMAGE021
和平移矩阵
Figure 691225DEST_PATH_IMAGE022
,该相机相对坐标系
Figure 324332DEST_PATH_IMAGE001
转换为以该
Figure 159432DEST_PATH_IMAGE020
相机为原点的相机坐标系
Figure 247605DEST_PATH_IMAGE023
SIFT为尺度不变特征点,具有较好的旋转、缩放、倾斜变化的不变特征,因此较多的用于特征点的匹配中。如图2所示,为SIFT特征检测原理图,该SIFT特征检测的原理为:输入图像,图像通过上采样或者下采样生成图像金字塔,其中对图像金字塔进行高斯卷积,生成高斯差分金字塔(DOG金字塔),尺度空间构建,然后对空间极值点检测、特征点方向检测,生成稳定关键点的精确定位,最后时生成特征描述子,即SIFT特征点。因此本文采用SIFT的特征点作为本文的特征点匹配。
下面结合具体实施例来确定大型工件表面的SIFT特征点,如图3所示。
图3为飞机表面的SIFT特征点,其中,101为单个相机的视场角区域,104为目标划分区域其根据多视角相机的大概位置划分为
Figure 94339DEST_PATH_IMAGE004
个区域,102为SIFT特征点位置,103为SIFT特征点方向。
101区域与104的各个区域可能重叠,且观察的角度也不一样,对于单个相机采用101单个区域的SIFT特征点与104的各个区域的特征点进行逐一匹配,当特征点集合匹配阈值大于
Figure 288560DEST_PATH_IMAGE015
时,即确定为该区域,然后利用已经定位匹配特征点的三维坐标,根据相机内参数和二维图像对应的坐标对相机外参数进行标定。由于存在一对多的匹配,可以采用GPU的计算加速以提高匹配效率。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (6)

1.一种基于多视角的大型工件表面缺陷检测标定方法,其特征在于,具体包括以下步骤:
(1)构建三维模型SIFT特征点的离线库,首先对大型工件进行三维建模,确定大型工件各个点的相对位置关系,然后利用相机生成正下方的俯视图像,对俯视图像进行SIFT特征点的提取,从而构建SIFT特征点和三维模型中大型工件各个点的相对位置关系的离线库;
(2)构建多相机图像的在线SIFT特征点库,即在线标点中,每个相机获取当前目标的二维图像,提取SIFT特征点,建立在线相机与对应相机图像的SIFT特征点在线库;
(3)利用三维模型SIFT特征点的离线库与多相机二维图像的在线SIFT特征点库进行匹配,对匹配的特征点在三维模型中进行定位,定位匹配特征点的三维坐标;
(4)利用已经定位匹配特征点的三维坐标,根据相机内参数,和二维图像对应的坐标对相机外参数进行标定。
2.根据权利要求1所述的基于多视角的大型工件表面缺陷检测标定方法,其特征在于,所述构建三维模型SIFT特征点的离线库的具体步骤为:
S1.在大型工件三维模型已知的情况下,以三维模型的一点为原点,建立以该原点为中心的坐标系
Figure 110055DEST_PATH_IMAGE001
,大型工件表面上的点坐标为
Figure 993698DEST_PATH_IMAGE002
S2.采用多视角相机拍摄正下方大型工件的俯视图像,对俯视图像进行SIFT特征点提取,提取的SIFT特征点对用的工件表面上的坐标为
Figure 201825DEST_PATH_IMAGE003
S3.根据多视角相机的大概位置划分为
Figure 46284DEST_PATH_IMAGE004
个区域,把对应区域的SIFT特征点的三维坐标
Figure 998060DEST_PATH_IMAGE005
和该SIFT特征点的SIFT特征向量
Figure 627887DEST_PATH_IMAGE006
放入该区域,即构建了三维模型SIFT特征点的离线库;其中,
Figure 741336DEST_PATH_IMAGE007
为第
Figure 73092DEST_PATH_IMAGE007
个区域,
Figure 828558DEST_PATH_IMAGE008
Figure 811426DEST_PATH_IMAGE009
为该区域图像的第
Figure 361356DEST_PATH_IMAGE009
个SIFT特征点。
3.根据权利要求1所述的基于多视角的大型工件表面缺陷检测标定方法,其特征在于,所述构建多相机图像的在线SIFT特征点库的具体步骤为:
P1.采集每个相机的二维图像,获取该二维图像的SIFT特征点以及对应的特征值;
P2.根据上述SIFT特征点以及对应的特征值生成对应相机内参数矩阵
Figure 305042DEST_PATH_IMAGE010
,该二维图像的任意SIFT特征点图像坐标
Figure 473986DEST_PATH_IMAGE011
,以及对应的特征值向量
Figure 186727DEST_PATH_IMAGE012
的在线SIFT特征点库;其中,
Figure 468410DEST_PATH_IMAGE013
代表第
Figure 633812DEST_PATH_IMAGE013
个相机,
Figure 731081DEST_PATH_IMAGE014
代表二维图像中第
Figure 422963DEST_PATH_IMAGE014
个SIFT特征点。
4.根据权利要求2或3所述的基于多视角的大型工件表面缺陷检测标定方法,其特征在于,所述利用三维模型SIFT特征点的离线库与多相机二维图像的在线SIFT特征点库进行匹配,即所述特征向量
Figure 314695DEST_PATH_IMAGE006
与特征向量
Figure 108339DEST_PATH_IMAGE012
进行匹配,当特征点匹配阈值大于
Figure 743720DEST_PATH_IMAGE015
时,即确定该点为匹配点,构建匹配点的离线库中的三维坐标
Figure 57152DEST_PATH_IMAGE016
和在线库的二维坐标
Figure 385365DEST_PATH_IMAGE017
,其中
Figure 400725DEST_PATH_IMAGE018
Figure 105376DEST_PATH_IMAGE019
分别为匹配的目标三维点和目标的图像中的二维点。
5.根据权利要求4所述的基于多视角的大型工件表面缺陷检测标定方法,其特征在于,所述相机外参数的标定依据为:根据相机内参数
Figure 771850DEST_PATH_IMAGE010
,并利用已经定位匹配特征点的三维坐标
Figure 5385DEST_PATH_IMAGE016
和二维图像对应点的坐标
Figure 632675DEST_PATH_IMAGE017
进行标定的。
6.根据权利要求5所述的基于多视角的大型工件表面缺陷检测标定方法,其特征在于,所述相机外参数进行标定后,以获取相机外参数矩阵,所述相机外参数矩阵为相对于大型工件的坐标系
Figure 485225DEST_PATH_IMAGE001
;根据第
Figure 147150DEST_PATH_IMAGE020
相机获取的大型工件的原点坐标,以及该相机相对坐标系
Figure 446195DEST_PATH_IMAGE001
的旋转矩阵
Figure 295202DEST_PATH_IMAGE021
和平移矩阵
Figure 951442DEST_PATH_IMAGE022
,该相机相对坐标系
Figure 467874DEST_PATH_IMAGE001
转换为以该
Figure 43212DEST_PATH_IMAGE020
相机为原点的相机坐标系
Figure 769728DEST_PATH_IMAGE023
CN202110094512.9A 2021-01-25 2021-01-25 一种基于多视角的大型工件表面缺陷检测标定方法 Active CN112419429B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110094512.9A CN112419429B (zh) 2021-01-25 2021-01-25 一种基于多视角的大型工件表面缺陷检测标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110094512.9A CN112419429B (zh) 2021-01-25 2021-01-25 一种基于多视角的大型工件表面缺陷检测标定方法

Publications (2)

Publication Number Publication Date
CN112419429A true CN112419429A (zh) 2021-02-26
CN112419429B CN112419429B (zh) 2021-08-10

Family

ID=74782618

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110094512.9A Active CN112419429B (zh) 2021-01-25 2021-01-25 一种基于多视角的大型工件表面缺陷检测标定方法

Country Status (1)

Country Link
CN (1) CN112419429B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113237888A (zh) * 2021-05-21 2021-08-10 哈尔滨工业大学 大口径光学元件损伤点在线与离线暗场图像匹配方法
CN113240674A (zh) * 2021-07-09 2021-08-10 深圳市艾视铂智能技术有限公司 基于三维点云和二维图像融合的共面度检测方法
CN113313770A (zh) * 2021-06-29 2021-08-27 智道网联科技(北京)有限公司 行车记录仪的标定方法及其装置
CN114549660A (zh) * 2022-02-23 2022-05-27 北京大学 基于圆柱形自识别标记物的多相机标定方法、装置及设备
EP4195145A1 (en) * 2021-12-10 2023-06-14 The Boeing Company Three-dimensional inspection twin for remote visual inspection of a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282913B2 (en) * 2017-07-24 2019-05-07 Visom Technology, Inc. Markerless augmented reality (AR) system
CN111080627A (zh) * 2019-12-20 2020-04-28 南京航空航天大学 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法
CN111862180A (zh) * 2020-07-24 2020-10-30 三一重工股份有限公司 一种相机组位姿获取方法、装置、存储介质及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282913B2 (en) * 2017-07-24 2019-05-07 Visom Technology, Inc. Markerless augmented reality (AR) system
CN111080627A (zh) * 2019-12-20 2020-04-28 南京航空航天大学 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法
CN111862180A (zh) * 2020-07-24 2020-10-30 三一重工股份有限公司 一种相机组位姿获取方法、装置、存储介质及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
罗四维: "《计算机视觉检测逆问题导论[M]》", 31 March 2017 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113237888A (zh) * 2021-05-21 2021-08-10 哈尔滨工业大学 大口径光学元件损伤点在线与离线暗场图像匹配方法
CN113313770A (zh) * 2021-06-29 2021-08-27 智道网联科技(北京)有限公司 行车记录仪的标定方法及其装置
CN113240674A (zh) * 2021-07-09 2021-08-10 深圳市艾视铂智能技术有限公司 基于三维点云和二维图像融合的共面度检测方法
EP4195145A1 (en) * 2021-12-10 2023-06-14 The Boeing Company Three-dimensional inspection twin for remote visual inspection of a vehicle
CN114549660A (zh) * 2022-02-23 2022-05-27 北京大学 基于圆柱形自识别标记物的多相机标定方法、装置及设备
CN114549660B (zh) * 2022-02-23 2022-10-21 北京大学 基于圆柱形自识别标记物的多相机标定方法、装置及设备

Also Published As

Publication number Publication date
CN112419429B (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
CN112419429B (zh) 一种基于多视角的大型工件表面缺陷检测标定方法
CN108555908B (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN111080627B (zh) 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法
CN105021124B (zh) 一种基于深度图的平面零件三维位置和法向量计算方法
Tang et al. 3D mapping and 6D pose computation for real time augmented reality on cylindrical objects
CN111007073A (zh) 一种増材制造过程中零件缺陷在线检测的方法及检测***
Li et al. Developing a low-cost 3D plant morphological traits characterization system
CN111062915A (zh) 一种基于改进YOLOv3模型的实时钢管缺陷检测方法
CN111507976B (zh) 基于多角度成像的缺陷检测方法及***
CN110334701B (zh) 数字孪生环境下基于深度学习和多目视觉的数据采集方法
JP6899189B2 (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
CN109470149B (zh) 一种管路位姿的测量方法及装置
Zhang et al. Stud pose detection based on photometric stereo and lightweight YOLOv4
Jiang et al. Dual-camera-based method for identification and location of scattered self-plugging rivets for robot grasping
KR102634535B1 (ko) 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법
Hsu et al. Development of a faster classification system for metal parts using machine vision under different lighting environments
CN112734844B (zh) 一种基于正八面体的单目6d位姿估计方法
Wu et al. Fishery monitoring system with AUV based on YOLO and SGBM
CN110030979B (zh) 一种基于序列图像的空间非合作目标相对位姿测量方法
CN112362034B (zh) 基于双目视觉的固体发动机多节筒段对接引导测量方法
CN113012238A (zh) 一种多深度相机快速标定与数据融合的方法
CN116309882A (zh) 一种面向无人叉车应用的托盘检测和定位方法及***
Li et al. Workpiece intelligent identification and positioning system based on binocular machine vision
Masuta et al. 3D plane detection for robot perception applying particle swarm optimization
CN114862969A (zh) 一种智能巡检机器人的机载云台像机角度自适应调整方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant