CN110111339B - 条纹图像目标区域提取方法 - Google Patents
条纹图像目标区域提取方法 Download PDFInfo
- Publication number
- CN110111339B CN110111339B CN201910347139.6A CN201910347139A CN110111339B CN 110111339 B CN110111339 B CN 110111339B CN 201910347139 A CN201910347139 A CN 201910347139A CN 110111339 B CN110111339 B CN 110111339B
- Authority
- CN
- China
- Prior art keywords
- parallax
- point
- value
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 25
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001314 profilometry Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/45—Analysis of texture based on statistical description of texture using co-occurrence matrix computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种条纹图像目标区域提取方法,通过进行条纹图像的目标区域提取;在所述目标区域提取的基础上,进行亚像素视差获取;在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;获得精确的视差后,通过标定参数计算三维点云,能够使点云的表面更加平滑。
Description
技术领域
本发明涉及一种条纹图像目标区域提取方法
背景技术
近年来光学三维测量技术发展迅速。立体匹配是保证测量***精度的重要环节。基于特征的立体匹配、基于区域的立体匹配、基于相位的立体匹配等方法很多。
随着DLP投影机的发展,相位测量轮廓术(PMP)成为应用最广泛的技术之一,具有测量精度高、测量速度快的优点。传统的基于相位的匹配用于全局搜索或极性方程。然而,这些方法费时且精度低。
发明内容
本发明的目的在于提供一种条纹图像目标区域提取方法。
为解决上述问题,本发明提供一种条纹图像目标区域提取方法,包括:
进行条纹图像的目标区域提取;
在所述目标区域提取的基础上,进行亚像素视差获取;
在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;
获得精确的视差后,通过标定参数计算三维点云。
进一步的,在上述方法中,进行条纹图像的目标区域提取,包括:
条纹图像的强度写为:
I1(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y))
I2(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π/2)
I3(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π)
I4(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+3π/2) (1)
其中,Ia(x,y)表示环境光的强度,Im(x,y)表示调制强度,φ(x,y)是展开相位,从公式(1)中,Ia(x,y)和Im(x,y)描述为:
Ia(x,y)=(I1+I2+I3+I4)/4
Im(x,y)=(((I4-I2)^2+(I1-I3)^2)^0.5)/2 (2)
共生矩阵定义为:
其中,Cij表示在Im中具有i值以及在Ia中具有j值的像素总数,Pij是概率值,(s,t)是将矩阵分为四个象限的阈值(R1,R2,R3和R4),;为了获得最佳阈值,确保方程(4)的最小值;
其中,QR1,QR2,QR3和QR4定义如下:
QR1(s,t)=PR1/(s+1)(t+1) 0≤i≤s,0≤j≤t
QR2(s,t)=PR2/(t+1)(L1-s-1) s+1≤i≤L1-1,0≤j≤t
QR3(s,t)=PR3/(L2-t-1)(s+1) 0≤i≤s,t+1≤j≤L2-1
QR4(s,t)=PR4/(L1-s-1)(L2-t-1) s+1≤i≤L1-1,t+1≤j≤L2-1 (5)
当阈值(s,t)求取时,建立一个共生掩模用于图像分割:
将OTSU算法应用在强度图像Ia(x,y)中获取强度掩码值Maskia,如果共生矩阵和强度掩码都为真,则对象区域有效。
进一步的,在上述方法中,在所述目标区域提取的基础上,进行亚像素视差获取,包括:
立体校正后,左右两行相位图像平行于极外线;
当在左行相位图像中选取一个点(xL,yL),对应的右行相位图像的点为(xR,yR),因为立体校正的原因,yR等于yL,在这种情况下,yR是固定一个像素,如果左行相位图像中选取的点(xL,yL)的相位值是对应的右相位图像的点的相位值满足方程(7):
基于方程(7),获取关键点(i,j)和(i+1,j),相应的横坐标由式(8)求得:
另一种颜色的环绕点用于计算坐标,这两个因素被定义为:
相应的纵坐标通过方程(11)得到:
亚像素视差通过方程(12)得到:
para_x=xR-i';para_y=yR-j (12)。
进一步的,在上述方法中,在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差,包括:
第一,用一个5×5的模板来判断孤立点,其中,从有效的对象区域中选择一个点(i,j),像素点((i-2,j-2),(i-1,j-2),…(i+1,j+2),(i+2,j+2))确定点(i,j)的特性,如果点((i+m,j+n))是有效的,累计值增加1,然后对这些点的有效视差进行累积,得到视差的平均值,如果累计值大于10,且所选点的视差和平均值之间的差小于2,则保留该点,否则删除该点;
第二,采用线性插值来消除视差。提取间距,将视差线分割成不同的部分,当截面长度小于10时,采用线性插值法,假设截面长度为n,两个端点的值为para(0)和para(n-1),这个间隔的视差值定义为:
进一步的,在上述方法中,获得精确的视差后,通过标定参数计算三维点云,包括:
采用高斯平滑滤波器对点云进行平滑处理,得到了将匹配线划分为不同区段的区间,在每个区间中,从三个方向使用尺寸为5像素、标准偏差为0.8像素的一维高斯滤波器计算三维点云。
与现有技术相比,本发明通过进行条纹图像的目标区域提取;在所述目标区域提取的基础上,进行亚像素视差获取;在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;获得精确的视差后,通过标定参数计算三维点云,能够使点云的表面更加平滑。
附图说明
图1是本发明一实施例的基于环境光调制的共生矩阵图;
图2a是本发明一实施例的目标区域的提取中的条纹图案的图像;
图2b是本发明一实施例的目标区域的提取中的包裹相位图像;
图2c是本发明一实施例的目标区域的提取中的图像强度图;
图2d是本发明一实施例的目标区域的提取中的共生掩码图;
图2e是本发明一实施例的目标区域的提取中的强度掩码图;
图2f是本发明一实施例的目标区域的提取中的分割的前景区域图;
图3是本发明一实施例的获得亚像素坐标图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种条纹图像目标区域提取方法,包括:
步骤S1,进行条纹图像的目标区域提取;
在此,本发明采用四步相移法,条纹图像的强度可以写为:
I1(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y))
I2(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π/2)
I3(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π)
I4(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+3π/2) (1)
其中,Ia(x,y)表示环境光的强度,Im(x,y)表示调制强度,φ(x,y)是展开相位,从公式(1)中,Ia(x,y)和Im(x,y)描述为:
Ia(x,y)=(I1+I2+I3+I4)/4
Im(x,y)=(((I4-I2)^2+(I1-I3)^2)^0.5)/2 (2)
共生矩阵定义为:
其中,Cij表示在Im中具有i值以及在Ia中具有j值的像素总数,Pij是概率值。共生矩阵如图1所示。(s,t)是将矩阵分为四个象限的阈值(R1,R2,R3和R4)。在较大的调制和环境光照强度下,相位值更精确。为了获得最佳阈值,应确保方程(4)的最小值。
QR1,QR2,QR3和QR4定义如下:
QR1(s,t)=PR1/(s+1)(t+1) 0≤i≤s,0≤j≤t
QR2(s,t)=PR2/(t+1)(L1-s-1) s+1≤i≤L1-1,0≤j≤t
QR3(s,t)=PR3/(L2-t-1)(s+1) 0≤i≤s,t+1≤j≤L2-1
QR4(s,t)=PR4/(L1-s-1)(L2-t-1) s+1≤i≤L1-1,t+1≤j≤L2-1 (5)
当阈值(s,t)求取时,可以建立一个共生掩模用于图像分割。
OTSU算法应用在强度图像Ia(x,y)中获取强度掩码值Maskia,如果共生矩阵和强度掩码都为真,则对象区域有效。这个过程如图2(a)~(f)所示。相机拍摄的条纹图像如图2(a)所示。采用四步相移法得到包裹相,如图2(b)所示。图2(c)中显示的强度图像可以用方程(2)计算。共现掩模可以通过方程(6)得到,如图2(d)所示。在强度图像上采用OTSU方法得到强度掩模,如图2(e)所示。该方法结合了两种掩模的优点,提供了一个精确的目标区域,如图2(f)所示。
步骤S2,在所述目标区域提取的基础上,进行亚像素视差获取;
在此,本发明提出了一种新的加权插值方法来获得亚像素视差。立体校正后,左右两行图像平行于极外线。当在左行相位图像中选取一个点(xL,yL),对应的右行相位图像的点为(xR,yR),因为立体校正的原因,yR等于yL,在这种情况下,yR是固定一个像素,如果左行相位图像中选取的点(xL,yL)的相位值是对应的右相位图像的点的相位值满足方程(7):
基于这个方程,可以获取关键点(i,j)和(i+1,j)。相应的横坐标可由式(8)求得。
另一种颜色的环绕点可用于计算坐标。这两个因素被定义为:
相应的纵坐标可通过方程(11)得到。
亚像素视差可以通过方程(12)得到。
para_x=xR-i';para_y=yR-j (12)。
步骤S3,在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;
在此,过滤视差有两个步骤。一种是去除孤立点,另一种是平滑视差。
首先,用一个5×5的模板来判断孤立点。从有效的对象区域中选择一个点(i,j)。像素点((i-2,j-2),(i-1,j-2),…(i+1,j+2),(i+2,j+2))确定点(i,j)的特性。如果点((i+m,j+n))是有效的,累计值增加1。然后对这些点的有效视差进行累积。我们可以得到视差的平均值。如果累计值大于10,且所选点的视差和平均值之间的差小于2,则保留该点,否则删除该点。
第二,采用线性插值来消除视差。提取间距,将视差线分割成不同的部分。当截面长度小于10时,采用线性插值法。假设截面长度为n,两个端点的值为para(0)和para(n-1)。这个间隔的视差值可以定义为:
经过这个操作,去除视差上的毛刺和孤立点。
步骤S4,获得精确的视差后,通过标定参数计算三维点云。
在此,在获得精确的视差后,可以通过标定参数计算三维点云。采用高斯平滑滤波器对点云进行平滑处理。得到了将匹配线划分为不同区段的区间。在每个间隔中,从三个方向使用尺寸为5像素、标准偏差为0.8像素的一维高斯滤波器。在那之后,点云的表面更加平滑。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (4)
1.一种条纹图像目标区域提取方法,其特征在于,包括:
进行条纹图像的目标区域提取;
在所述目标区域提取的基础上,进行亚像素视差获取;
在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;
获得精确的视差后,通过标定参数计算三维点云;
在所述目标区域提取的基础上,进行亚像素视差获取,包括:
立体校正后,左右两行相位图像平行于极外线;
当在左行相位图像中选取一个点(xL,yL),对应的右行相位图像的点为(xR,yR),因为立体校正的原因,yR等于yL,在这种情况下,yR是固定一个像素,如果左行相位图像中选取的点(xL,yL)的相位值是对应的右行相位图像的点的相位值满足方程(7):
基于方程(7),获取关键点(i,j)和(i+1,j),相应的横坐标由式(8)求得:
环绕点用于计算坐标,两个因素被定义为:
相应的纵坐标通过方程(11)得到:
亚像素视差通过方程(12)得到:
para_x=xR-i′;para_y=yR-j (12)。
2.如权利要求1所述的条纹图像目标区域提取方法,其特征在于,进行条纹图像的目标区域提取,包括:
条纹图像的强度写为:
I1(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y))
I2(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π/2)
I3(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π)
I4(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+3π/2) (1)
其中,Ia(x,y)表示环境光的强度,Im(x,y)表示调制强度,φ(x,y)是展开相位,从公式(1)中,Ia(x,y)和Im(x,y)描述为:
Ia(x,y)=(I1(x,y)+I2(x,y)+I3(x,y)+I4(x,y))4
Im(x,y)=(((I4(x,y)-I2(x,y))^2+(I1(x,y)-I3(x,y))^2)^0.5)/2 (2)
共生矩阵定义为:
其中,Cij表示在Im中具有i值以及在Ia中具有j值的像素总数,Pij是概率值,(s,t)是将矩阵分为四个象限R1、R2、R3和R4的阈值;为了获得最佳阈值,确保方程(4)的最小值;
其中,QR1,QR2,QR3和QR4定义如下:
QR1(s,t)=PR1/(s+1)(t+1)0≤i≤s,0≤j≤t
QR2(s,t)=PR2/(t+1)(L1-s-1)s+1≤i≤L1-1,0≤j≤t
QR3(s,t)=PR3/(L2-t-1)(s+1)0≤i≤s,t+1≤j≤L2-1
QR4(s,t)=PR4/(L1-s-1)(L2-t-1)s+1≤i≤L1-1,t+1≤j≤L2-1 (5)
当阈值(s,t)求取时,建立一个共生掩模用于图像分割:
将OTSU算法应用在强度图像Ia(x,y)中获取强度掩码值Maskia,如果共生矩阵和强度掩码都为真,则对象区域有效。
3.如权利要求1所述的条纹图像目标区域提取方法,其特征在于,在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差,包括:
第一,用一个5×5的模板来判断孤立点,其中,从有效的对象区域中选择一个点(i,j),像素点((i-2,j-2),(i-1,j-2),…(i+1,j+2),(i+2,j+2))确定点(i,j)的特性,如果点((i+m,j+n))是有效的,累计值增加1,然后对这些点的有效视差进行累积,得到视差的平均值,如果累计值大于10,且所选点的视差和平均值之间的差小于2,则保留该点,否则删除该点;
第二,采用线性插值来消除视差,提取间距,将视差线分割成不同的部分,当截面长度小于10时,采用线性插值法,假设截面长度为n,两个端点的值为para(0)和para(n-1),视差值定义为:
4.如权利要求1所述的条纹图像目标区域提取方法,其特征在于,获得精确的视差后,通过标定参数计算三维点云,包括:
采用高斯平滑滤波器对点云进行平滑处理,得到了将匹配线划分为不同区段的区间,在每个区间中,从三个方向使用尺寸为5像素、标准偏差为0.8像素的一维高斯滤波器计算三维点云。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910347139.6A CN110111339B (zh) | 2019-04-28 | 2019-04-28 | 条纹图像目标区域提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910347139.6A CN110111339B (zh) | 2019-04-28 | 2019-04-28 | 条纹图像目标区域提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110111339A CN110111339A (zh) | 2019-08-09 |
CN110111339B true CN110111339B (zh) | 2023-08-15 |
Family
ID=67486945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910347139.6A Active CN110111339B (zh) | 2019-04-28 | 2019-04-28 | 条纹图像目标区域提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110111339B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116664408B (zh) * | 2023-07-31 | 2023-10-13 | 北京朗视仪器股份有限公司 | 一种彩色结构光的点云上采样方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008154989A1 (de) * | 2007-06-18 | 2008-12-24 | Daimler Ag | Verfahren zur optimierung eines stereoskopischen bildes |
CN102184540A (zh) * | 2011-05-03 | 2011-09-14 | 哈尔滨工程大学 | 基于尺度空间的亚像素级立体匹配方法 |
CN103440653A (zh) * | 2013-08-27 | 2013-12-11 | 北京航空航天大学 | 双目视觉立体匹配方法 |
CN103729251A (zh) * | 2013-11-06 | 2014-04-16 | 中国科学院上海光学精密机械研究所 | 并行计算光学条纹图相位提取方法 |
CN105043298A (zh) * | 2015-08-21 | 2015-11-11 | 东北大学 | 基于傅里叶变换无需相位展开的快速三维形貌测量方法 |
JP2016011930A (ja) * | 2014-06-30 | 2016-01-21 | 株式会社ニコン | 三次元データの連結方法、測定方法、測定装置、構造物製造方法、構造物製造システム、及び形状測定プログラム |
CN108613637A (zh) * | 2018-04-13 | 2018-10-02 | 深度创新科技(深圳)有限公司 | 一种基于参考图像的结构光***解相方法及*** |
CN108898575A (zh) * | 2018-05-15 | 2018-11-27 | 华南理工大学 | 一种新型自适应权重立体匹配方法 |
CN109499010A (zh) * | 2018-12-21 | 2019-03-22 | 苏州雷泰医疗科技有限公司 | 基于红外和可见光三维重建的放射治疗辅助***及其方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012099986A (ja) * | 2010-10-29 | 2012-05-24 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
US9779328B2 (en) * | 2015-08-28 | 2017-10-03 | Intel Corporation | Range image generation |
-
2019
- 2019-04-28 CN CN201910347139.6A patent/CN110111339B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008154989A1 (de) * | 2007-06-18 | 2008-12-24 | Daimler Ag | Verfahren zur optimierung eines stereoskopischen bildes |
CN102184540A (zh) * | 2011-05-03 | 2011-09-14 | 哈尔滨工程大学 | 基于尺度空间的亚像素级立体匹配方法 |
CN103440653A (zh) * | 2013-08-27 | 2013-12-11 | 北京航空航天大学 | 双目视觉立体匹配方法 |
CN103729251A (zh) * | 2013-11-06 | 2014-04-16 | 中国科学院上海光学精密机械研究所 | 并行计算光学条纹图相位提取方法 |
JP2016011930A (ja) * | 2014-06-30 | 2016-01-21 | 株式会社ニコン | 三次元データの連結方法、測定方法、測定装置、構造物製造方法、構造物製造システム、及び形状測定プログラム |
CN105043298A (zh) * | 2015-08-21 | 2015-11-11 | 东北大学 | 基于傅里叶变换无需相位展开的快速三维形貌测量方法 |
CN108613637A (zh) * | 2018-04-13 | 2018-10-02 | 深度创新科技(深圳)有限公司 | 一种基于参考图像的结构光***解相方法及*** |
CN108898575A (zh) * | 2018-05-15 | 2018-11-27 | 华南理工大学 | 一种新型自适应权重立体匹配方法 |
CN109499010A (zh) * | 2018-12-21 | 2019-03-22 | 苏州雷泰医疗科技有限公司 | 基于红外和可见光三维重建的放射治疗辅助***及其方法 |
Non-Patent Citations (1)
Title |
---|
复杂光学特性表面视觉测量关键技术研究;唐瑞尹;《中国博士学位论文全文数据库信息科技辑》;20180515(第(2018)05期);I138-24 * |
Also Published As
Publication number | Publication date |
---|---|
CN110111339A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110487216B (zh) | 一种基于卷积神经网络的条纹投影三维扫描方法 | |
CN110390640B (zh) | 基于模板的泊松融合图像拼接方法、***、设备及介质 | |
CN109636732B (zh) | 一种深度图像的空洞修复方法以及图像处理装置 | |
CN105374019B (zh) | 一种多深度图融合方法及装置 | |
CN111563921B (zh) | 一种基于双目相机的水下点云获取方法 | |
CN111524233B (zh) | 一种静态场景动态目标的三维重建方法 | |
CN107240073B (zh) | 一种基于梯度融合与聚类的三维视频图像修复方法 | |
CN111105452B (zh) | 基于双目视觉的高低分辨率融合立体匹配方法 | |
CN111209770A (zh) | 一种车道线识别方法及装置 | |
KR20210082857A (ko) | 위성영상을 이용한 수치표면모델 생성 방법 및 장치 | |
CN112669280B (zh) | 一种基于lsd算法的无人机倾斜航拍直角像控点目标检测方法 | |
CN107341804B (zh) | 点云数据中平面的确定方法及装置、图像叠加方法及设备 | |
JP2005037378A (ja) | 奥行計測方法と奥行計測装置 | |
CN111105451B (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 | |
CN111354047A (zh) | 一种基于计算机视觉的摄像模组定位方法及*** | |
CN105335968A (zh) | 一种基于置信度传播算法的深度图提取方法及装置 | |
CN104778673B (zh) | 一种改进的高斯混合模型深度图像增强方法 | |
CN110111339B (zh) | 条纹图像目标区域提取方法 | |
CN110223356A (zh) | 一种基于能量生长的单目相机全自动标定方法 | |
Ebrahimikia et al. | True orthophoto generation based on unmanned aerial vehicle images using reconstructed edge points | |
CN110211053B (zh) | 用于三维测量的快速精确相位匹配方法 | |
KR20170047780A (ko) | 적응적 윈도우 마스크를 이용하는 로우 코스트 계산장치 및 그 방법 | |
CN117315138A (zh) | 基于多目视觉的三维重建方法及*** | |
CN109816710B (zh) | 一种双目视觉***高精度且无拖影的视差计算方法 | |
WO2015140484A1 (en) | A method, apparatus, system, and computer readable medium for enhancing differences between two images of a structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |