CN112116619A - 一种基于结构约束的多线结构光***条纹中心线提取方法 - Google Patents

一种基于结构约束的多线结构光***条纹中心线提取方法 Download PDF

Info

Publication number
CN112116619A
CN112116619A CN202010973290.3A CN202010973290A CN112116619A CN 112116619 A CN112116619 A CN 112116619A CN 202010973290 A CN202010973290 A CN 202010973290A CN 112116619 A CN112116619 A CN 112116619A
Authority
CN
China
Prior art keywords
stripe
coordinate
point
pixel
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010973290.3A
Other languages
English (en)
Other versions
CN112116619B (zh
Inventor
李文国
毛雪忆
罗子欣
侯大猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202010973290.3A priority Critical patent/CN112116619B/zh
Publication of CN112116619A publication Critical patent/CN112116619A/zh
Application granted granted Critical
Publication of CN112116619B publication Critical patent/CN112116619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于结构约束的多线结构光***条纹中心线提取方法,属于图像处理领域。包括:(1)相机标定,得到相机的内外参数;(2)对CCD工业相机采集到的图片进行滤波处理及边缘提取,得到条纹的像素宽度,粗提取条纹的像素中心线;(3)对于步骤(1)中获得的相机内外参数和步骤(2)中得到的条纹像素宽度,计算条纹的世界坐标宽度和激光器照射到物体上的光斑中心的世界坐标,然后计算激光器发射的光平面交点的世界坐标;(4)得到***空间结构约束中的中心线偏移量e,并求偏移系数k;(5)求得条纹中心线的图像坐标,并转化为三维坐标用于误差检测。本发明适用于投射发散型多线激光条纹的三维视觉测量***的中心线条纹的提取。

Description

一种基于结构约束的多线结构光***条纹中心线提取方法
技术领域
本发明涉及一种基于结构约束的多线结构光***条纹中心线提取方法,属于图像处理领域。
背景技术
光条图像中心点的提取是结构光视觉测量中的一项关键的技术,因其由相机采集到的光条图像中包含了被测物体的表面三维轮廓信息,是物体表面三维重构的基础。三维视觉***利用非接触式的光学成像技术识别待测物体的空间位置和外形,待测物体的三维信息在计算机中被数字化,三维视觉***利用这些数字化的三维信息做出相应的判断,从而有效避免了由于二维机器视觉受到外在因素影响到检测的可能性。
在一个基于激光的三维测量***中,激光器投射出的线激光是一层具有厚度并且向外发散的三角平面,当与物体接触时,在物体表面上形成有一定宽度的光条纹图像,而此时的光条纹需要细化才能读取到其中有效的信息,所以需要对这些具有一定宽度的光条图像进行中心点提取。
目前,国内外最常用的线结构光中心线提取方法有几何重心法、阈值法、灰度重心法和Steger法等。几何重心法和阈值法都是利用光条图像在其法线方向上的灰度分布呈高斯分布的曲线特征,通过先检测光条图像的边缘,再取其中间点作为该法线方向上的中心点,用上述方法遍历整个光条,则可获得光条中心线。这两种方法处理速度快,但精度较低、对噪声敏感。灰度重心法是将光条法线方向上指定宽度区域的灰度重心作为该横截面上的光条中心点;这种方法在处理有噪声干扰或者光带亮度不集中等问题时,提取精度会明显下降。基于Hessian矩阵的Steger法是对光条横截面上的灰度分布利用泰勒级数展开式来求极值,该方法精度高,但运算量大,运行速度慢,在实时性要求高的***中不适用。
在现场进行相机拍照时,环境因素会大大降低光条纹提取的精度,现有的线结构光中心线提取的方法存在误差大,易受噪声干扰的问题,不能用于复杂情况的中心线提取。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于结构约束的多线结构光***条纹中心线提取方法,在环境干扰大的现场依然能提取精度较高的中心线,由此解决现有技术不能应用于复杂环境的问题。
为实现上述目的,本发明提供了一种基于结构约束的多线结构光***条纹中心线提取方法,包括以下步骤:
步骤1、相机标定,得到相机的内外参数;
步骤2、对CCD工业相机采集到的图片进行滤波处理,并进行边缘提取,得到条纹的像素宽度,并且粗提取条纹的像素中心线;
步骤3、对于步骤1中获得的相机内外参数和步骤2中得到的条纹像素宽度,计算出条纹的世界坐标宽度,激光器发射的光平面交点的世界坐标和激光器照射到物体上的光斑中心的世界坐标;
步骤4、对于步骤2中得到的条纹像素宽度和步骤3中得到的激光器发射的光平面交点的世界坐标,激光器照射到物体上的光斑中心的世界坐标,加上高斯分布特性,得到***空间结构约束中的中心线偏移量e,并求得偏移系数k;
步骤5、对于步骤2中得到的条纹像素宽度和步骤4中获取的偏移系数k,当激光线照射到物体上时,同样求得物体表面线结构光中心线的位置。
具体地,所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其所述步骤1具体包括以下步骤:
步骤1.1,通过搭建图像采集设备获取相机标定所需的棋盘格图像;
步骤1.2,对于步骤1.1中所获取的棋盘格图像,进行相机标定,得到相机的内外参数。
具体地,所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其所述步骤2具体为:
步骤2.1,通过图像采集设备采集到多条激光条纹的原始图像;(设图片中最中间条纹的编号为mid,以此为基准,往左的编号依次为L1,L2,L3…,往右的编号依次为R1,R2,R3…)
步骤2.2,对于步骤2.1中获取的多条激光条纹的原始图像,进行图像灰度化、滤波处理消除图像的噪声;
步骤2.3,对于步骤2.2中获取的消除噪声的图像,使用Canny算法进行边缘提取。
步骤2.4,对于步骤2.3中获取的边缘提取的图像,进行感兴趣区域(ROI)提取,得到ROI图片;
步骤2.5,对于步骤2.4中获取的ROI图片,设置灰度值为R,遍历此图片所有的点,灰度值大于R时输出此点的像素坐标,灰度值小于R则舍去;如下:
If Gray(x,y)>R,OutX=x,Outy=y;
else OutX=0,Outy=0;
其中x,y表示图像的像素坐标,out是一个结构体,里面保存输出的x,y坐标,Gray(x,y)表示像素(x,y)点的灰度值。
步骤2.6,对于步骤2.5中获取的像素坐标,计算条纹像素宽度。如下:
Figure BDA0002684878310000031
其中d为条纹像素宽度,n表示每根条纹垂直方向上的左右两根边缘上像素对的编号,x2n,x2n-1表示条纹左右边缘像素对的横坐标,s表示每根条纹边缘垂直方向上左右像素对的总数。
步骤2.7,对于步骤2.6获取的条纹像素宽度d,取其中值t,再根据步骤2.3使用Canny算法获取的条纹左边缘的像素值,即为粗略条纹中心线的像素值p(u,v)。公式如下:
p(u,v)=(u,v)+(t,0)
u=u+t,v=v
其中,(u,v)中心线像素坐标,(u,v)表示条纹左边缘像素坐标。
具体地,所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其所述步骤3具体为:
步骤3.1,在多线结构光光条纹上设置感兴趣区域,采用Steger算法提取任意两条激光条纹中心线像素坐标;
步骤3.2,对于步骤3.1中所获取的任意两条激光条纹中心线像素坐标,结合相机的内外参数,将中心线的二维像素坐标转换为相机坐标系下的三维坐标。
步骤3.3,对于步骤3.2中所得到的任意两条激光条纹中心线三维坐标,进行光平面拟合,得到这两条光条纹所在的光平面方程;
步骤3.4,对于步骤3.3中得到的两条光条纹所在的光平面方程,将这两平面相交,得到空间点向式直线方程;空间点向式直线方程如下:
Figure BDA0002684878310000041
其中P(x0,y0,z0)是激光器发射中心三维坐标值,位于直线上,(a,b,c)为直线的方向向量值,xα,yβ,zγ分别表示世界坐标系下的三个轴。
步骤3.5,对于步骤2.3中获取的边缘提取的图像,使用ROI提取图像光斑的像素坐标,对这些像素坐标进行均值提取,求得光斑中心点的像素坐标。并利用步骤3.2的方法转化为光斑中心的三维坐标M(xc,yc,zc)。
步骤3.6,对于步骤3.5中所得到的光斑中心的世界坐标(xc,yc,zc),光斑中心点与激光器发射中心的世界坐标为(x0,y0,z0)的连线的方程为:
Figure BDA0002684878310000042
由***空间结构可知,此方程与步骤3.4中的点向式方程相交且垂直,垂足即为激光器发射中心点。联立两个方程,求得垂足(即激光器发射中心)的世界坐标(x0,y0,z0)。
步骤3.7,对于步骤2获取的编号为mid的条纹的像素宽度,利用步骤1获取的相机内外参数,转换为三维坐标,即得到编号为mid的条纹世界坐标的宽度D。
具体地,所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其所述步骤4具体为:
步骤4.1,对于步骤2中得到的所有条纹像素宽度,仅提取出编号为mid的条纹像素宽;
步骤4.2,对于步骤4.1中所提取的编号为mid的条纹像素宽,步骤3获取的激光器发射的光平面交点的世界坐标和激光器照射到物体上的光斑中心的世界坐标,和步骤1得到的相机内外参数,画出***空间结构约束。
步骤4.3,对于步骤4.2所获得的***空间结构约束,求得偏移量e,进而求得偏移系数k;具体原理如下:
(1)由激光器特性知,多线激光器中间条纹即编号为mid的条纹的强度分布为高斯分布且为标准的正态分布。
(2)在世界坐标系下绘制出mid条纹光平面对应的法线N,依据***空间结构可知,法点A(即mid条纹光平面与法线的交点)所处的条纹在法线面上服从正态分布,正态分布函数如下:
Figure BDA0002684878310000051
其中,xb为光斑的x坐标,p为此正态分布对称轴的位置,q为条纹的宽度。
(3)对于步骤3获取的激光器发射中心世界坐标和光斑中心世界坐标,本模型使用前可以通过结构调整使相机的世界坐标中的y值与激光器发射中心的y值相同,因此,可用x,z坐标求得夹角β(即光斑中心点坐标到相机坐标的连线与光斑中心点坐标到激光器发射中心点坐标的连线的夹角),公式如下:
Figure BDA0002684878310000052
其中xp,zp为激光器发射中心点的位置坐标。
(4)编号为mid的条纹光平面与法线N的交点的坐标(xA,yA),公式如下:
Figure BDA0002684878310000053
(5)编号为mid条纹的中心线偏移量e计算如下:
e=f0sinβ,
求得此根条纹偏移系数k0。公式如下:
Figure BDA0002684878310000054
其中,D为条纹的世界坐标宽度。偏移量e是粗提取计算的条纹中心线x坐标与精确得到的中心线x坐标之间的差值,偏移系数是偏移量与同一条纹宽度的比值。
步骤4.4,对于步骤4.2所获得的***空间结构约束,可知同一光条纹上各个位置的条纹偏移系数相同;证明如下:
(1)以光斑中心点为原点建立坐标系,设mid条纹光平面与法线N的交点(即法点A)的纵坐标为h,则法点A与原点的直线方程为:
y=cotβ·x
将y=h代入上式,可知法点A的坐标为(htanβ,h);
(2)设在激光器坐标系下标准正态分布的高度为w0,可知,在以光斑中心为原点的坐标系下高度转换为w1,转换计算如下:
w1=w0·cosβ
则以光斑中心为原点的坐标系下,法点A上的高斯分布的最高点A'的y坐标为:
y′=w1·cosβ+h
因为A'也在法点A与原点的直线上,故将y=y'代入步骤4.4(1)中的方程,求得法点A上的高斯分布的最高点A'的x坐标为:
x′=w1·sinβ+htanβ
则A'的坐标为(w1·sinβ+htanβ,w1·cosβ+h);
(3)由步骤4.4(1)与(2)可得,此根条纹的中心线偏移系数k为:
Figure BDA0002684878310000061
可知,偏移系数k与条纹光平面与法线N的交点(即法点A)的纵坐标无关,即证明同一光条纹上各个位置的条纹偏移系数相同。
步骤4.5,对于步骤4.3所获得的编号为mid的条纹中心线Lm的偏移系数,求得其他条纹Ln(n不为mid)的系数;具体方法如下:
(1)根据发散型激光器自身的特性,已知25根条纹中每两根条纹的夹角为定值α=1.11°,与条纹mid右侧相邻α角度的直线与条纹的mid的法线相交于B点,求得B点的坐标(x1,y1)。公式如下:
Figure BDA0002684878310000062
(2)编号为r1条纹的中心线偏移量e1计算如下
e1=f0cosβsinα,
求得此根条纹的偏移系数k1,公式如下:
Figure BDA0002684878310000071
其中D1为R1条纹的条纹宽度。
(3)以此类推,可求得其他所有条纹的偏移系数k,公式如下:
Figure BDA0002684878310000072
其中n为从中间mid条纹到两边L12或R12条纹的编号数。Dn为n对应条纹的条纹宽度,以光斑中点坐标为基准,分别向左向右依次搜索并编号,当向左搜索时,偏移系数依次为k-1,k-2…,条纹宽度为D-1,D-2…,当向右搜索时,偏移系数依次为k1,k2…,条纹宽度为D1,D2…。
具体地,所述步骤5具体为:
步骤5.1,根据步骤2获取的条纹像素宽d,与系数k相乘得到在图像坐标系下条纹中心线的偏移量m;公式如下:
m=d×k
步骤5.2,根据步骤2的粗略提取条纹中心线的方法,算出在物体上的光条纹的粗略中心线像素坐标p(u,v),再与步骤5.1中算出的条纹中心线偏移量相加,即为条纹在物体上精确的中心线图像坐标l(u,v)。
步骤5.3,将步骤5.2获取的精确的中心线图像坐标,转化为世界坐标系下的三维坐标,用于误差检测。
本发明的有益效果是:与现有技术相比,本发明提供的基于***空间结构约束的多线结构光测量***条纹中心线提取方法,在环境干扰小的地方已经进行相机标定,在环境干扰大的时候,根据偏移系数来确定中心线坐标,能够提取较为精确的条纹中心,能够提高中心线精度。
附图说明
图1是本发明提供的基于***空间结构约束的多线结构光中心线提取法流程示意图;
图2是本实验的结构模型,其中相机和激光器都在x轴。
图3是无物体时***空间结构约束模型;
图4是有物体时***空间结构约束模型;
图5是法点A在激光器轴下的高斯分布和转换为后的高斯分布。
图6是像素坐标下的一整根条纹;
图7是对原图像进行灰度化处理后的图像;
图8是图7的ROI图像;
图9是对图8进行滤波处理后的图像;
图10是对图9进行Canny算子后的图像;
图11是利用本发明提出的***空间结构约束仿真得到的图像。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1:本发明提供了一种基于结构约束的多线结构光***条纹中心线提取方法,如图1所示包括以下步骤:
步骤1、相机标定,得到相机的内外参数;
步骤1.1,通过搭建图像采集设备获取相机标定所需的棋盘格图像;
步骤1.2,对于步骤1.1中所获取的棋盘格图像,进行相机标定,得到相机的内外参数。
步骤2、对CCD工业相机采集到的图片进行滤波处理,并进行边缘提取,得到条纹的像素宽度,并且粗提取条纹的像素中心线;
步骤2.1,通过图像采集设备采集到多条激光条纹的原始图像;(设图像中最中间条纹的编号为mid,以此为基准,往左的编号依次为L1,L2,L3…,往右的编号依次为R1,R2,R3…,如图2示意图所示)
步骤2.2,对于步骤2.1中获取的多条激光条纹的原始图像,进行图像灰度化、滤波处理消除图像的噪声,如图7、8、9所示;
步骤2.3,对于步骤2.2中获取的消除噪声的图像,使用Canny算法进行边缘提取。
步骤2.4,对于步骤2.3中获取的边缘提取的图像,进行感兴趣区域(ROI)提取,得到ROI图片,如图10所示;
步骤2.5,对于步骤2.4中获取的ROI图片,设置灰度值为R,遍历此图片所有的点,灰度值大于R时输出此点的像素坐标,灰度值小于R则舍去;如下:
If Gray(x,y)>R,OutX=x,Outy=y;
else OutX=0,Outy=0;
其中x,y表示图像的像素坐标,out是一个结构体,里面保存输出的x,y坐标,Gray(x,y)表示像素(x,y)点的灰度值。
步骤2.6,对于步骤2.5中获取的像素坐标,计算条纹像素宽度。如下:
Figure BDA0002684878310000091
其中d为条纹像素宽度,n表示每根条纹垂直方向上的左右两根边缘上像素对的编号,x2n,x2n-1表示条纹左右边缘像素对的横坐标,s表示每根条纹边缘垂直方向上左右像素对的总数。
步骤2.7,对于步骤2.6获取的条纹像素宽度d,取其中值t,再根据步骤2.3使用Canny算法获取的条纹左边缘的像素值,即为粗略条纹中心线的像素值p(u,v)。公式如下:
p(u,v)=(u,v)+(t,0)
u=u+t,v=v
其中,(u,v)中心线像素坐标,(u,v)表示条纹左边缘像素坐标。
步骤3、对于步骤1中获得的相机内外参数和步骤2中得到的条纹像素坐标宽度,计算出条纹的世界坐标宽度和激光器照射到物体上的光斑中心的世界坐标,然后计算激光器发射的光平面交点的世界坐标;
步骤3.1,在多线结构光光条纹上设置感兴趣区域,采用Steger算法提取任意两条激光条纹中心线像素坐标;
步骤3.2,对于步骤3.1中所获取的任意两条激光条纹中心线像素坐标,结合相机的内外参数,将中心线的二维像素坐标转换为相机坐标系下的三维坐标。
步骤3.3,对于步骤3.2中所得到的任意两条激光条纹中心线三维坐标,进行光平面拟合,得到这两条光条纹所在的光平面方程;
步骤3.4,对于步骤3.3中得到的两条光条纹所在的光平面方程,将这两平面相交,得到空间点向式直线方程;空间点向式直线方程如下:
Figure BDA0002684878310000101
其中P(x0,y0,z0)是激光器发射中心三维坐标值,位于直线上,(a,b,c)为直线的方向向量值,xα,yβ,zγ分别表示世界坐标系下的三个轴。
步骤3.5,对于步骤2.3中获取的边缘提取的图像,使用ROI提取图像光斑的像素坐标,对这些像素坐标进行均值提取,求得光斑中心点的像素坐标。并利用步骤3.2的方法转化为光斑中心的三维坐标M(xc,yc,zc)。
步骤3.6,对于步骤3.5中所得到的光斑中心的世界坐标(xc,yc,zc),光斑中心点与激光器发射中心的世界坐标为(x0,y0,z0)的连线的方程为:
Figure BDA0002684878310000102
由***空间结构可知,此方程与步骤3.4中的点向式方程相交且垂直,垂足即为激光器发射中心点。联立两个方程,求得垂足(即激光器发射中心)的世界坐标(x0,y0,z0)。
步骤3.7,对于步骤2获取的编号为mid的条纹的像素宽度,利用步骤1获取的相机内外参数,转换为三维坐标,即得到编号为mid的条纹世界坐标的宽度D。
步骤4、对于步骤2中得到的条纹像素宽度和步骤3中得到的激光器发射的光平面交点的世界坐标,激光器照射到物体上的光斑中心的世界坐标,加上高斯分布特性,得到***空间结构约束中的中心线偏移量e,并求得偏移系数k;
步骤4.1,对于步骤2中得到的所有条纹像素宽度,仅提取出编号为mid的条纹像素宽;
步骤4.2,对于步骤4.1中所提取的编号为mid的条纹像素宽,步骤3获取的激光器发射的光平面交点的世界坐标和激光器照射到物体上的光斑中心的世界坐标,和步骤1得到的相机内外参数,画出***空间结构约束,如图3所示。
步骤4.3,对于步骤4.2所获得的***空间结构约束,求得偏移量e,进而求得偏移系数k;具体原理如下:
(1)由激光器特性知,多线激光器中间条纹即编号为mid的条纹的强度分布为高斯分布且为标准的正态分布。
(2)在世界坐标系下绘制出mid条纹光平面对应的法线N,依据***空间结构可知,法点A(即mid条纹光平面与法线的交点)所处的条纹在法线面上服从正态分布,正态分布函数如下:
Figure BDA0002684878310000111
其中,xb为光斑的x坐标,p为此正态分布对称轴的位置,q为条纹的宽度。
(3)对于步骤3获取的激光器发射中心世界坐标和光斑中心世界坐标,本模型使用前可以通过结构调整使相机的世界坐标中的y值与激光器发射中心的y值相同,因此,可用x,z坐标求得夹角β(即光斑中心点坐标到相机坐标的连线与光斑中心点坐标到激光器发射中心点坐标的连线的夹角),公式如下:
Figure BDA0002684878310000112
其中xp,zp为激光器发射中心点的位置坐标。
(4)编号为mid的条纹光平面与法线N的交点的坐标(xA,yA),公式如下:
Figure BDA0002684878310000113
(5)编号为mid条纹的中心线偏移量e计算如下:
e=f0sinβ,
求得此根条纹偏移系数k0。公式如下:
Figure BDA0002684878310000114
其中,D为条纹的世界坐标宽度。偏移量e是粗计算的条纹中心线x坐标与精确得到的中心线x坐标之间的差值,偏移系数是偏移量与同一条纹宽度的比值。
步骤4.4,对于步骤4.2所获得的***空间结构约束,可知同一光条纹上各个位置的条纹偏移系数相同,如图4,图5所示;证明如下:
(1)以光斑中心点为原点建立坐标系,设mid条纹光平面与法线N的交点(即法点A)的纵坐标为h,则法点A与原点的直线方程为:
y=cotβ·x
将y=h代入上式,可知法点A的坐标为(htanβ,h);
(2)设在激光器坐标系下标准正态分布的高度为w0,可知,在以光斑中心为原点的坐标系下,高度转换为w1,转换计算如下:
w1=w0·cosβ
则以光斑中心为原点的坐标系下,法点A上的高斯分布的最高点A'的y坐标为:
y′=w1·cosβ+h
因为A'也在法点A与原点的直线上,故将y=y'代入步骤4.4(1)中的方程,求得法点A上的高斯分布的最高点A'的x坐标为:
x′=w1·sinβ+htanβ
则A'的坐标为(w1·sinβ+htanβ,w1·cosβ+h);
(3)由步骤4.4(1)与(2)可得,此根条纹的中心线偏移系数k为:
Figure BDA0002684878310000121
可知,偏移系数k与条纹光平面与法线N的交点(即法点A)的纵坐标无关,即证明同一光条纹上各个位置的条纹偏移系数相同。
步骤4.5,对于步骤4.3所获得的编号为mid的条纹中心线Lm的偏移系数,求得其他条纹Ln(n不为mid)的系数,如图5所示;具体方法如下:
(1)根据发散型激光器自身的特性,已知25根条纹中每两根条纹的夹角为定值α=1.11°,与条纹mid右侧相邻α角度的直线与条纹的mid的法线相交于B
点,求得B点的坐标(x1,y1)。公式如下:
Figure BDA0002684878310000122
(2)编号为r1条纹的中心线偏移量e1如下:
e1=f0cosβsinα,
求得此根条纹的偏移系数k1,公式如下:
Figure BDA0002684878310000131
其中D1为R1条纹的条纹宽度。
(3)以此类推,可求得其他所有条纹的偏移系数k,公式如下:
Figure BDA0002684878310000132
其中n为从中间mid条纹到两边L12或R12条纹的编号数。Dn为n对应条纹的条纹宽度,以光斑中点坐标为基准,分别向左向右依次搜索并编号,当向左搜索时,偏移系数依次为k-1,k-2…,条纹宽度为D-1,D-2…,当向右搜索时,偏移系数依次为k1,k2…,条纹宽度为D1,D2…。
步骤5、对于步骤2中得到的条纹像素宽度和步骤4中获取的偏移系数k,求得条纹中心线的图像坐标,并转化为三维坐标用于误差检测。
步骤5.1,根据步骤2获取的条纹像素宽d,与系数k相乘得到在图像坐标系下条纹中心线的偏移量m;公式如下:
m=d×k
步骤5.2,根据步骤2的粗略提取条纹中心线的方法,算出在物体上的光条纹的粗略中心线像素坐标p(u,v),再与步骤5.1中算出的条纹中心线偏移量相加,即为条纹在物体上精确的中心线图像坐标l(u,v)。
步骤5.3,将步骤5.2获取的精确的中心线图像坐标,转化为世界坐标系下的三维坐标,用于误差检测。
步骤6、本发明的精度检测如下:
步骤6.1,依据本发明的***空间结构约束,仿真出光条纹图像,如图11所示。
步骤6.2,依据本发明的方法测得的光条纹所在平面与物体之间的距离如下表所示:
实验组别 Steger算法误差/mm 本发明实验误差/mm
1 0.0045 0.0048
2 0.0037 0.0040
3 0.0046 0.0045
4 0.0040 0.0039
5 0.0035 0.0045
6 0.0039 0.0050
由上表可知,本实施例提供的基于结构约束的多线结构光***条纹中心线提取方法,在测量精度方面与现在流行的Steger算法处在同一个像素级(都没有超过0.0050mm),但是由于本发明提出的方法不受测量现场恶劣环境的影响,可明显提高现场测量的实时性和速度,提高测量***的抗干扰能力
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (6)

1.一种基于结构约束的多线结构光***条纹中心线提取方法,其特征在于:包括以下步骤:
步骤1、相机标定,得到相机的内外参数;
步骤2、对CCD工业相机采集到的图片进行滤波处理,并进行边缘提取,得到条纹的像素宽度,并且粗提取条纹的像素中心线;
步骤3、对于步骤1中获得的相机内外参数和步骤2中得到的条纹像素宽度,计算出条纹的世界坐标宽度和激光器照射到物体上的光斑中心的世界坐标,然后计算激光器发射的光平面交点的世界坐标;
步骤4、对于步骤2中得到的条纹像素宽度和步骤3中得到的激光器发射的光平面交点的世界坐标、激光器照射到物体上的光斑中心的世界坐标,加上高斯分布特性,得到***空间结构约束中的中心线偏移量e,并求得偏移系数k;
步骤5、对于步骤2中得到的条纹像素宽度和步骤4中获取的偏移系数k,当激光线照射到物体上时,求得物体表面线结构光中心线的位置。
2.根据权利要求1所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其特征在于:所述步骤1具体包括以下步骤:
步骤1.1,通过搭建图像采集设备获取相机标定所需的棋盘格图像;
步骤1.2,对于步骤1.1中所获取的棋盘格图像,进行相机标定,得到相机的内外参数。
3.根据权利要求1所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其特征在于:所述步骤2具体为:
步骤2.1,通过图像采集设备采集到多条激光条纹的原始图像;设图片中最中间条纹的编号为mid,以此为基准,往左的编号依次为L1,L2,L3…,往右的编号依次为R1,R2,R3…;
步骤2.2,对于步骤2.1中获取的多条激光条纹的原始图像,进行图像灰度化、滤波处理消除图像的噪声;
步骤2.3,对于步骤2.2中获取的消除噪声的图像,使用Canny算法进行边缘提取;
步骤2.4,对于步骤2.3中获取的边缘提取的图像,进行感兴趣区域ROI提取,得到ROI图片;
步骤2.5,对于步骤2.4中获取的ROI图片,设置灰度值为R,遍历此图片所有的点,灰度值大于R时输出此点的像素坐标,灰度值小于R则舍去;如下:
If Gray(x,y)>R,Outx=x,Outy=y;
else Outx=0,Outy=0;
其中x,y表示图像的像素坐标,out是一个结构体,里面保存输出的x,y坐标,Gray(x,y)表示像素(x,y)点的灰度值;
步骤2.6,对于步骤2.5中获取的像素坐标,计算条纹像素宽度,如下:
Figure FDA0002684878300000021
其中d为条纹像素宽度,n表示每根条纹垂直方向上的左右两根边缘上像素对的编号,x2n,x2n-1表示条纹左右边缘像素对的横坐标,s表示每根条纹边缘垂直方向上左右像素对的总数;
步骤2.7,对于步骤2.6获取的条纹像素宽度d,取其中间值t,再根据步骤2.3使用Canny算法获取的条纹左边缘的像素值,即为粗略条纹中心线的像素值p(u,v),公式如下:
p(u,v)=(u,v)+(t,0)
u=u+t,V=V
其中,(u,v)中心线像素坐标,(u,v)表示条纹左边缘像素坐标。
4.根据权利要求3所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其特征在于:所述步骤3具体为:
步骤3.1,在多线结构光光条纹上设置感兴趣区域,采用Steger算法提取任意两条激光条纹中心线像素坐标;
步骤3.2,对于步骤3.1中所获取的任意两条激光条纹中心线像素坐标,结合相机的内外参数,将中心线的二维像素坐标转换为相机坐标系下的三维坐标;
步骤3.3,对于步骤3.2中所得到的任意两条激光条纹中心线三维坐标,进行光平面拟合,得到这两条光条纹所在的光平面方程;
步骤3.4,对于步骤3.3中得到的两条光条纹所在的光平面方程,将这两平面相交,得到空间点向式直线方程;空间点向式直线方程如下:
Figure FDA0002684878300000031
其中P(x0,y0,z0)是激光器发射中心三维坐标值,位于直线上,a,b,c为直线的方向向量值,xα,yβ,zγ分别表示世界坐标系下的三个轴;
步骤3.5,对于步骤2.3中获取的边缘提取的图像,使用ROI提取图像光斑的像素坐标,对这些像素坐标进行均值提取,求得光斑中心点的像素坐标,并利用步骤3.2的方法转化为光斑中心的三维坐标M(xc,yc,zc);
步骤3.6,对于步骤3.5中所得到的光斑中心的世界坐标(xc,yc,zc),光斑中心点与激光器发射中心的世界坐标为(x0,y0,z0)的连线的方程为:
Figure FDA0002684878300000032
由***空间结构可知,此方程与步骤3.4中的点向式方程相交且垂直,垂足即为激光器发射中心点,联立两个方程,求得垂足的世界坐标(x0,y0,z0);
步骤3.7,对于步骤2获取的编号为mid的条纹的像素宽度,利用步骤1获取的相机内外参数,转换为三维坐标,即得到编号为mid的条纹世界坐标的宽度D。
5.根据权利要求4所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其特征在于:所述步骤4具体为:
步骤4.1,对于步骤2中得到的所有条纹像素宽度,仅提取出编号为mid的条纹像素宽;
步骤4.2,对于步骤4.1中所提取的编号为mid的条纹像素宽,步骤3获取的激光器发射的光平面交点的世界坐标和激光器照射到物体上的光斑中心的世界坐标,和步骤1得到的相机内外参数,画出***空间结构约束;
步骤4.3,对于步骤4.2所获得的***空间结构约束,求得偏移量e,进而求得偏移系数k;具体原理如下:
(1)由激光器特性知,多线激光器中间条纹即编号为mid的条纹的强度分布为高斯分布且为标准的正态分布;
(2)在世界坐标系下绘制出mid条纹光平面对应的法线N,mid条纹光平面与法线N的交点为法点A,依据***空间结构可知,法点A所处的条纹在法线面上服从正态分布,正态分布函数如下:
Figure FDA0002684878300000041
其中,xb为光斑的x坐标,p为此正态分布对称轴的位置,q为条纹的宽度;
(3)对于步骤3获取的激光器发射中心世界坐标和光斑中心世界坐标,本模型使用前可以通过结构调整使相机的世界坐标中的y值与激光器发射中心的y值相同,因此,可用x,z坐标求得夹角β,β为光斑中心点坐标到相机坐标的连线与光斑中心点坐标到激光器发射中心点坐标的连线的夹角,公式如下:
Figure FDA0002684878300000042
其中xp,zp为激光器发射中心点的位置坐标;
(4)求得编号为mid的条纹光平面与法线N的交点的坐标(xA,yA),公式如下:
Figure FDA0002684878300000043
(5)编号为mid条纹的中心线偏移量e计算如下:
e=f0sinβ,
求得此根条纹偏移系数k0,公式如下:
Figure FDA0002684878300000044
其中,D为条纹的世界坐标宽度,偏移量e是粗提取计算的条纹中心线x坐标与精确得到的中心线x坐标之间的差值,偏移系数是偏移量与同一条纹宽度的比值;
步骤4.4,对于步骤4.2所获得的***空间结构约束,可知同一光条纹上各个位置的条纹偏移系数相同;证明如下:
(1)以光斑中心点为原点建立坐标系,设法点A的纵坐标为h,则法点A与原点的直线方程为:
y=cotβ·x
将y=h代入上式,可知法点A的坐标为(h tanβ,h);
(2)设在激光器坐标系下标准正态分布的高度为w0,可知,在以光斑中心为原点的坐标系下,高度转换为w1,转换计算如下:
w1=w0·cosβ
则以光斑中心为原点的坐标系下,法点A上的高斯分布的最高点A’的y坐标为:
y′=w1·cosβ+h
因为A’也在法点A与原点的直线上,故将y=y’代入步骤4.4(1)中的方程,求得法点A上的高斯分布的最高点A’的x坐标为:
x′=w1·sinβ+h tanβ
则A’的坐标为(w1·sinβ+h tanβ,w1·cosβ+h);
(3)由步骤4.4(1)与(2)可得,此根条纹的中心线偏移系数k为:
Figure FDA0002684878300000051
可知,偏移系数k与法点A的纵坐标无关,即证明同一光条纹上各个位置的条纹偏移系数相同;
步骤4.5,对于步骤4.3所获得的编号为mid的条纹中心线Lm的偏移系数,求得其他条纹Ln的系数,n不为mid;具体方法如下:
(1)根据发散型激光器自身的特性,已知25根条纹中每两根条纹的夹角为定值α=1.11°,与条纹mid右侧相邻α角度的直线与条纹的mid的法线相交于B点,求得B点的坐标(x1,y1),公式如下:
Figure FDA0002684878300000052
(2)编号为r1条纹的中心线偏移量e1计算如下
e1=f0 cosβsinα,
求得此根条纹的偏移系数k1,公式如下:
Figure FDA0002684878300000053
其中D1为R1条纹的条纹宽度;
(3)以此类推,可求得其他所有条纹的偏移系数k,公式如下:
Figure FDA0002684878300000061
其中n为从中间mid条纹到两边L12或R12条纹的编号数,Dn为编号n的条纹宽度,以光斑中点坐标为基准,分别向左向右依次搜索并编号,当向左搜索时,偏移系数依次为k-1,k-2…,条纹宽度为D-1,D-2…,当向右搜索时,偏移系数依次为k1,k2…,条纹宽度为D1,D2…。
6.根据权利要求5所述的一种基于结构约束的多线结构光***条纹中心线提取方法,其特征在于:所述步骤5具体为:
步骤5.1,根据步骤2获取的条纹像素宽d,与系数k相乘得到在图像坐标系下条纹中心线的偏移量m;公式如下:
m=d×k
步骤5.2,根据步骤2的粗略提取条纹中心线的方法,算出在物体上的光条纹的粗略中心线像素坐标p(u,v),再与步骤5.1中算出的条纹中心线偏移量相加,即为条纹在物体上精确的中心线图像坐标l(u,v);
步骤5.3,将步骤5.2获取的精确的中心线图像坐标,转化为世界坐标系下的三维坐标,用于误差检测。
CN202010973290.3A 2020-09-16 2020-09-16 一种基于结构约束的多线结构光***条纹中心线提取方法 Active CN112116619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010973290.3A CN112116619B (zh) 2020-09-16 2020-09-16 一种基于结构约束的多线结构光***条纹中心线提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010973290.3A CN112116619B (zh) 2020-09-16 2020-09-16 一种基于结构约束的多线结构光***条纹中心线提取方法

Publications (2)

Publication Number Publication Date
CN112116619A true CN112116619A (zh) 2020-12-22
CN112116619B CN112116619B (zh) 2022-06-10

Family

ID=73803568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010973290.3A Active CN112116619B (zh) 2020-09-16 2020-09-16 一种基于结构约束的多线结构光***条纹中心线提取方法

Country Status (1)

Country Link
CN (1) CN112116619B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634287A (zh) * 2020-12-25 2021-04-09 电子科技大学 一种基于层间偏移校正的心脏磁共振图像分割方法
CN113418926A (zh) * 2021-06-02 2021-09-21 南京航空航天大学 基于激光条中心线定位提取算法的轮对踏面损伤检测方法
CN113532320A (zh) * 2021-07-20 2021-10-22 武汉华工激光工程有限责任公司 一种基于图像的光斑衍射环分析方法、存储介质及芯片
CN113536210A (zh) * 2021-06-04 2021-10-22 黄淮学院 基于向量遍历线结构光条纹中心坐标的计算方法
CN113607090A (zh) * 2021-07-23 2021-11-05 深圳市鹰眼在线电子科技有限公司 曲面屏幕的厚度测量***、方法及装置
CN113758422A (zh) * 2021-09-09 2021-12-07 昆明理工大学 一种发散型多线激光条纹的编号及识别方法
CN114119712A (zh) * 2021-11-30 2022-03-01 江苏沙钢集团淮钢特钢股份有限公司 一种基于图像处理的棒材轧制哈夫面氧化黑带宽度的测量方法
CN114893669A (zh) * 2022-05-26 2022-08-12 江苏省建筑工程集团有限公司 一种应用于塔机附着装置安装的监测装置及监测方法
CN115685247A (zh) * 2022-10-31 2023-02-03 哈尔滨工业大学 单行条纹图像中光斑质心位置的获得方法
CN115876108A (zh) * 2023-03-01 2023-03-31 菲特(天津)检测技术有限公司 内径测量方法、装置及计算机可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020175782A1 (en) * 2001-05-25 2002-11-28 Hung Trinh Fringe-field non-overlapping-electrodes discoidal feed-through ceramic filter capacitor with high breakdown voltage
CN101178811A (zh) * 2007-12-10 2008-05-14 北京航空航天大学 一种三步法结构光直线光条的图像特征提取方法
CN101178812A (zh) * 2007-12-10 2008-05-14 北京航空航天大学 一种结构光光条中心线提取的混合图像处理方法
CN104236521A (zh) * 2013-06-14 2014-12-24 科沃斯机器人科技(苏州)有限公司 用于自移动机器人的线激光测距方法
CN104657587A (zh) * 2015-01-08 2015-05-27 华中科技大学 一种激光条纹中心线的提取方法
CN106097430A (zh) * 2016-06-28 2016-11-09 哈尔滨工程大学 一种多高斯信号拟合的激光条纹中心线提取方法
CN107255458A (zh) * 2017-06-19 2017-10-17 昆明理工大学 一种垂直投影光栅测量仿真***及其实现方法
CN107907048A (zh) * 2017-06-30 2018-04-13 长沙湘计海盾科技有限公司 一种基于线结构光扫描的双目立体视觉三维测量方法
CN108088390A (zh) * 2017-12-13 2018-05-29 浙江工业大学 一种焊接检测中基于双目线结构光的光条中心三维坐标获取方法
CN109341548A (zh) * 2018-12-21 2019-02-15 福州大学 基于变密度条纹的三维振动视觉测量***和方法
CN111207670A (zh) * 2020-02-27 2020-05-29 河海大学常州校区 一种线结构光标定装置及方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020175782A1 (en) * 2001-05-25 2002-11-28 Hung Trinh Fringe-field non-overlapping-electrodes discoidal feed-through ceramic filter capacitor with high breakdown voltage
CN101178811A (zh) * 2007-12-10 2008-05-14 北京航空航天大学 一种三步法结构光直线光条的图像特征提取方法
CN101178812A (zh) * 2007-12-10 2008-05-14 北京航空航天大学 一种结构光光条中心线提取的混合图像处理方法
CN104236521A (zh) * 2013-06-14 2014-12-24 科沃斯机器人科技(苏州)有限公司 用于自移动机器人的线激光测距方法
CN104657587A (zh) * 2015-01-08 2015-05-27 华中科技大学 一种激光条纹中心线的提取方法
CN106097430A (zh) * 2016-06-28 2016-11-09 哈尔滨工程大学 一种多高斯信号拟合的激光条纹中心线提取方法
CN107255458A (zh) * 2017-06-19 2017-10-17 昆明理工大学 一种垂直投影光栅测量仿真***及其实现方法
CN107907048A (zh) * 2017-06-30 2018-04-13 长沙湘计海盾科技有限公司 一种基于线结构光扫描的双目立体视觉三维测量方法
CN108088390A (zh) * 2017-12-13 2018-05-29 浙江工业大学 一种焊接检测中基于双目线结构光的光条中心三维坐标获取方法
CN109341548A (zh) * 2018-12-21 2019-02-15 福州大学 基于变密度条纹的三维振动视觉测量***和方法
CN111207670A (zh) * 2020-02-27 2020-05-29 河海大学常州校区 一种线结构光标定装置及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YONG LIU: "An automated method to calibrate industrial robot joint offset using virtual line-based single-point constraint approach", 《2009 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
杨建华: "基于线结构光视觉传感器的三维表面测量***关键技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
陈迎春 等: "一种光学投影测量仿真方法", 《光学仪器》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634287A (zh) * 2020-12-25 2021-04-09 电子科技大学 一种基于层间偏移校正的心脏磁共振图像分割方法
CN113418926A (zh) * 2021-06-02 2021-09-21 南京航空航天大学 基于激光条中心线定位提取算法的轮对踏面损伤检测方法
CN113418926B (zh) * 2021-06-02 2022-02-18 南京航空航天大学 基于激光条中心线定位提取算法的轮对踏面损伤检测方法
CN113536210A (zh) * 2021-06-04 2021-10-22 黄淮学院 基于向量遍历线结构光条纹中心坐标的计算方法
CN113532320A (zh) * 2021-07-20 2021-10-22 武汉华工激光工程有限责任公司 一种基于图像的光斑衍射环分析方法、存储介质及芯片
CN113607090B (zh) * 2021-07-23 2024-01-16 深圳市鹰眼在线电子科技有限公司 曲面屏幕的三维形貌测量***、方法及装置
CN113607090A (zh) * 2021-07-23 2021-11-05 深圳市鹰眼在线电子科技有限公司 曲面屏幕的厚度测量***、方法及装置
CN113758422A (zh) * 2021-09-09 2021-12-07 昆明理工大学 一种发散型多线激光条纹的编号及识别方法
CN113758422B (zh) * 2021-09-09 2022-10-14 昆明理工大学 一种发散型多线激光条纹的编号及识别方法
CN114119712A (zh) * 2021-11-30 2022-03-01 江苏沙钢集团淮钢特钢股份有限公司 一种基于图像处理的棒材轧制哈夫面氧化黑带宽度的测量方法
CN114119712B (zh) * 2021-11-30 2024-05-17 江苏沙钢集团淮钢特钢股份有限公司 一种基于图像处理的棒材轧制哈夫面氧化黑带宽度的测量方法
CN114893669A (zh) * 2022-05-26 2022-08-12 江苏省建筑工程集团有限公司 一种应用于塔机附着装置安装的监测装置及监测方法
CN114893669B (zh) * 2022-05-26 2024-03-26 江苏省建筑工程集团有限公司 一种应用于塔机附着装置安装的监测装置及监测方法
CN115685247A (zh) * 2022-10-31 2023-02-03 哈尔滨工业大学 单行条纹图像中光斑质心位置的获得方法
CN115685247B (zh) * 2022-10-31 2024-05-31 哈尔滨工业大学 单行条纹图像中光斑质心位置的获得方法
CN115876108B (zh) * 2023-03-01 2023-10-24 菲特(天津)检测技术有限公司 内径测量方法、装置及计算机可读存储介质
CN115876108A (zh) * 2023-03-01 2023-03-31 菲特(天津)检测技术有限公司 内径测量方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN112116619B (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
CN112116619B (zh) 一种基于结构约束的多线结构光***条纹中心线提取方法
CN110118528B (zh) 一种基于棋盘靶标的线结构光标定方法
CN110230998B (zh) 基于线激光和双目相机的快速精密三维测量方法和装置
CN111207695A (zh) 一种基于双线结构光的热轧带钢端部三维轮廓测量方法
CN110044374B (zh) 一种基于图像特征的单目视觉测量里程的方法及里程计
CN110163918A (zh) 一种基于射影几何的线结构光标定方法
CN105783779B (zh) 基于三层匹配的钢轨轮廓实时形态识别与失真校准方法
CN115482195B (zh) 一种基于三维点云的列车部件变形检测方法
CN102853786A (zh) 平整度检测装置和方法
CN113074660B (zh) 一种大尺寸透明物体的面型测量方法
CN108489383A (zh) 一种h型断面尺寸的测量装置及方法
CN114396875B (zh) 一种基于深度相机垂直拍摄的长方形包裹体积测量方法
CN111260708A (zh) 一种线结构光中心提取方法及***
CN113554697A (zh) 基于线激光的舱段轮廓精确测量方法
KR101090082B1 (ko) 단일 카메라 및 레이저를 이용한 계단 치수 측정 시스템 및 방법
CN116188558B (zh) 基于双目视觉的立体摄影测量方法
CN114972633A (zh) 交叉激光线约束下的快速扫描点云插值方法
CN111385558A (zh) Tof摄像模组精度测量方法及其***
CN116433584A (zh) 一种长条形打磨模板表面缺陷检测方法、***及存储介质
CN113008158A (zh) 多线激光轮胎花纹深度测量方法
CN105928484B (zh) 基于双目视觉的电梯导轨自动测量***
CN111369533A (zh) 基于偏振图像融合的钢轨廓形检测方法及装置
CN114485479B (zh) 基于双目相机和惯性导航的结构光扫描测量方法及***
Ziqiang et al. Research of the algorithm calculating the length of bridge crack based on stereo vision
CN112184790B (zh) 基于深度相机的物体尺寸高精度测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant