CN111947599A - 基于学习的条纹相位恢复和散斑相关的三维测量方法 - Google Patents

基于学习的条纹相位恢复和散斑相关的三维测量方法 Download PDF

Info

Publication number
CN111947599A
CN111947599A CN202010721119.3A CN202010721119A CN111947599A CN 111947599 A CN111947599 A CN 111947599A CN 202010721119 A CN202010721119 A CN 202010721119A CN 111947599 A CN111947599 A CN 111947599A
Authority
CN
China
Prior art keywords
phase
fringe
learning
speckle
dimensional measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010721119.3A
Other languages
English (en)
Other versions
CN111947599B (zh
Inventor
尹维
左超
陈钱
冯世杰
孙佳嵩
胡岩
尚昱昊
陶天阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010721119.3A priority Critical patent/CN111947599B/zh
Publication of CN111947599A publication Critical patent/CN111947599A/zh
Application granted granted Critical
Publication of CN111947599B publication Critical patent/CN111947599B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于学习的条纹相位恢复和散斑相关的三维测量方法。首先使用一个立体匹配网络从一张散斑图案中产生初始视差图。使用U‑net网络从额外的一张条纹图案中高精度地提取包裹相位图。通过将包裹相位图用作附加约束来优化初始视差图,从而最终实现高速高精度的绝对三维形貌测量。本发明仅需要两张投影图案即可实现高速高精度的绝对三维形貌测量。

Description

基于学习的条纹相位恢复和散斑相关的三维测量方法
技术领域
本发明属于光学测量技术领域,具体为一种基于学习的条纹相位恢复和散斑相关的三维测量方法。
背景技术
目前,快速三维形貌测量技术被广泛的应用于各个领域,如智能监控,工业质量控制和三维人脸识别等。在众多三维形貌测量方法中,基于结构光和三角测量原理的条纹投影轮廓术是最实用的技术之一,由于它具有无接触,全场,高精度和高效等优点。主流的条纹投影轮廓术一般需经过三个流程实现三维测量,分别是相位恢复,相位展开和相位到高度的映射。在相位恢复技术中,最常用的两种方法是傅里叶轮廓术和相移轮廓术。傅里叶轮廓术只需一张条纹图即可提取相位,但这种方法受到频谱混叠的影响,导致测量结果的质量很差,不能测量形貌复杂的物体。相比于傅里叶轮廓术,相移轮廓术具有对环境光不敏感、能够获得像素级相位测量的优点,它适合于测量具有复杂表面的物体。但是这个方法一般需要投影多幅相移条纹图(至少三幅)实现相位提取。随着高速相机和DLP投影技术的快速发展,使得相移轮廓术也可以用于实现快速三维测量。但是,傅里叶轮廓术和相移轮廓术都使用反正切函数提取相位,反正切函数的值域[0,2π],因此这两种方法都只能得到包裹相位图,其中存在2π的相位跳变。因此,需要实施相位展开技术使包裹相位图变为绝对相位图。目前主流的相位展开方法是时域相位展开与空域相位展开。一方面,空域相位展开只需一幅包裹相位图即可实现相位展开,但是不能有效测量复杂物体或者多个孤立物体,容易出现相位展开错误。另一方面,时域相位展开能够稳定地展开包裹相位,但是需要使用多幅不同频率的-包裹相位图,这极大地影响相位展开的效率从而降低三维测量的速度。常用的空域相位展开技术有三个:多频法,多波长法和数论法。其中,多频法能够实现最好的相位展开结果,而多波长法则对噪声最敏感(文献“Temporal phase unwrapping algorithmsfor fringe projection profilometry:A comparative review”,作者Chao Zuo等)。多频法的原理是使用单周期的低频包裹相位展开高频包裹相位图,由于测量过程中的噪声影响,通常多频法只能展开频率为20的高频包裹相位图。而更高频率的相位图拥有更高的精度,因此为了实现高精度的三维测量往往需要投影多组不同频率的条纹图。这进一步降低了条纹投影轮廓术的测量效率从而抑制了其测量运动物体的能力。
因此,针对基于条纹投影轮廓术的三维成像技术而言,目前尚缺乏一种测量精度与测量效率兼得的方法。
发明内容
本发明的目的在于提出了一种基于学习的条纹相位恢复和散斑相关的三维测量方法。
实现本发明目的的技术解决方案为:一种基于学习的条纹相位恢复和散斑相关的三维测量方法,具体步骤为:
步骤1:通过两个相机同步采集一张高频条纹图和一张散斑图;
步骤2:根据两个相机同步采集的散斑图案,基于立体匹配网络得到初始视差图;
步骤3:将高频条纹图输入训练好的U-net网络,获得包裹相位;
步骤4:利用包裹相位约束优化初始视差图,获得高精度视差图;
步骤5:根据相机的标定参数,将高精度视差图转换为三维信息,完成三维测量。
优选地,基于立体匹配网络得到初始视差图的具体方法为:
对来自两个不同视角的两张散斑图分别进行立体校正,将散斑图案裁剪为大小不同的块数据;
将块数据输入训练好的立体匹配网络,获得初始匹配成本;
采用基于半全局匹配的成本聚合方法对初始匹配成本进行优化;
通过胜者为王算法将具有最低成本值的候选视差作为整像素视差值,并通过五点二次曲线拟合模型获得具有亚像素精度的视差图。
优选地,所述立体匹配网络包括一个共享子网络和若干具有共享权重的全连接层,所述共享子网络包括依次堆叠在前端的一个卷积层和若干残差块,堆叠在后端的九个卷积层。
优选地,U-net网络训练时的标签为使用三步相移算法获得且去除背景信息后的反正切函数的分子项和分母项M(x,y)和D(x,y)。
优选地,去除背景信息的具体方法为:
将像素点对应的实际的条纹调制度与设定阈值作比较,若低于阈值,则将该像素点对应的反正切函数的分子项和分母项设为0。
优选地,像素点对应的实际的条纹调制度具体为:
Figure BDA0002600052030000031
其中,I1(x,y),I2(x,y),I3(x,y)为对应的三步相移条纹图光强。Modulation(x,y)是实际的条纹调制度。
优选地,将高频条纹图输入训练好的U-net网络,获得包裹相位具体为:
将高频条纹图输入训练好的U-net网络,得到反正切函数的分子项和分母项M(x,y)和D(x,y);
根据M(x,y)和D(x,y)得到包裹相位图
Figure BDA0002600052030000032
具体为:
Figure BDA0002600052030000033
优选地,利用包裹相位约束优化初始视差图,获得高精度视差图的具体方法为:
根据初始视差图和包裹相位信息,通过最小化两个视角的包裹相位之间的差异实现基于相位信息的立体匹配,获得整像素的匹配点;
利用整像素的匹配点及其邻点的相位信息,通过线性插值算法完成亚像素匹配,获得高精度视差图。
本发明与现有技术相比,其显著优点为:本发明仅需要两张投影图案即可实现高速高精度的绝对三维形貌测量。
下面结合附图对本发明做进一步详细的描述。
附图说明
图1是本发明的流程图。
图2为本发明基于深度学习的鲁棒立体匹配算法的基本原理图。
图3为本发明基于改进的U-net型网络的高精度相位提取算法的基本原理图。
图4为本发明的基于学习的条纹相位恢复和散斑相关的三维测量方法的结果图。
具体实施方式
一种基于学习的条纹相位恢复和散斑相关的三维测量方法,仅需要两张投影图案即可实现高速高精度的绝对三维形貌测量,包括以下步骤:
步骤1:通过两个相机同步采集一张高频条纹图和一张散斑图。
进一步的实施例中,采集的高频条纹图为:
I(x,y)=A(x,y)+B(x,y)cosΦ(x,y)
其中,I(x,y)为高频条纹图光强,(x,y)为相机平面的像素坐标,A(x,y)为背景光强,B(x,y)为条纹的调制度,Φ(x,y)为待求相位。采集的散斑图像光强为Ispk(x,y)。
步骤2:根据两个相机同步采集的散斑图案,基于立体匹配网络得到初始视差图;
进一步地,基于立体匹配网络得到初始视差图的具体方法为:
对来自两个不同视角的两张散斑图分别进行立体校正,将散斑图案裁剪为大小不同的块数据,以便在网络的训练期间输入网络。
具体地,对于左相机,以从左相机采集的散斑图中某一待匹配像素(x,y)为中心进行裁剪,块数据BlockL的大小为L×L。对应地,对于右相机,以从右相机采集的散斑图中像素(x,y)为中心进行裁剪,块数据BlockR的大小为L×(L+D-1)。其中,该块数据BlockR是以从右相机采集的散斑图中像素(x,y)为中心的长方形块,块数据BlockR的上半径和下半径均为
Figure BDA0002600052030000041
左半径为
Figure BDA0002600052030000042
右半径为
Figure BDA0002600052030000043
Dmin和Dmax分别表示立体匹配***中的最小视差值和最大视差值,D为其绝对视差范围值,D=Dmax-Dmin+1。
将块数据输入训练好的立体匹配网络,获得初始匹配成本;
所述立体匹配网络采用暹罗结构作为其匹配策略,包括一个共享子网络和若干具有共享权重的全连接层。
所述共享子网络,包括依次堆叠在前端以增强网络的特征提取能力的一个卷积层和若干残差块,以及堆叠在后端的九个具有有效填充的卷积层。例如,L为19pixels,将块数据BlockL和块数据BlockR分别输入到共享子网络中,获得大小为1×1×64和1×D×64的特征张量。将这两个特征张量沿着特征通道进行聚集可得到1×(D+1)×64的特征张量。将1×(D+1)×64的特征张量输入共享权重的全连接层以实现匹配成本计算,从而获得初始匹配成本。
采用基于半全局匹配(SGM)的成本聚合方法进一步优化初始匹配成本。
通过胜者为王算法(WTA)直接将具有最低成本值的候选视差作为整像素视差值,并通过五点二次曲线拟合模型以获得具有亚像素精度的视差图。
步骤3:将高频条纹图输入训练好的U-net网络中以实现包裹相位的提取。
进一步的实施例中,U-net网络训练时的输入为采集到的高频条纹图I(x,y),标签为去除背景信息后的反正切函数的分子项和分母项M(x,y)和D(x,y)。
标签的获取方法具体为:
使用三步相移算法得到获取包裹相位中所需的数据项M(x,y)和D(x,y)。然后去除M(x,y)和D(x,y)中的背景信息,以进一步增强网络对被测场景中有效信息的学习能力,具体为:
将像素点对应的实际的条纹调制度与设定阈值作比较,若低于阈值,则将该像素点对应的反正切函数的分子项和分母项M(x,y)和D(x,y)设为0,以去除M(x,y)和D(x,y)中的背景信息。
像素点对应的实际的条纹调制度计算公式为:
Figure BDA0002600052030000052
其中,I1(x,y),I2(x,y),I3(x,y)为对应的三步相移条纹图光强。Modulation(x,y)是实际的条纹调制度。
图片中属于背景的像素点对应的Modulation(x,y)比被测物体的像素点对应的Modulation(x,y)小得多,在某些实施例中,设置一个合适的阈值来去除M(x,y)和D(x,y)中的背景信息,具体如下公式:
M(x,y)=0 if Modulation(x,y)≤0.01
D(x,y)=0 if Modulation(x,y)≤0.01
然后,将去除背景信息后的M(x,y)和D(x,y)作为网络的标签。通过这一优化策略,就可以发现,由于U-net网络直接输出的预测结果将仅在前景中具有有效值,而在背景中具有可忽略的值。
在网络测试期间,U-net网络的输入为采集到的高频条纹图I(x,y),U-net网络的输出为反正切函数的分子项和分母项M(x,y)和D(x,y),根据M(x,y)和D(x,y)得到包裹相位图
Figure BDA0002600052030000053
具体为:
Figure BDA0002600052030000051
基于这些优化策略,基于U-net型网络的高精度相位提取算法可以成功提取高精度的包裹相位。
步骤4:利用包裹相位约束优化初始视差图,获得高精度视差图,具体为:
步骤2获得的初始视差图可为每个有效的待匹配点提供了一个粗略的匹配位置。根据初始视差图和包裹相位信息,通过最小化两个视角的包裹相位之间的差异来实现基于相位信息的立体匹配以获得整像素的匹配点。然后利用整像素的匹配点及其邻点的相位信息,通过线性插值算法实现亚像素匹配,从而获得高精度、稠密的视差图。
步骤5:基于两个相机视角之间的视差数据,利用相机的标定参数,将视差数据转为三维信息,最终实现高速高精度的绝对三维形貌测量。
本发明首先使用一个立体匹配网络从一张散斑图案中产生初始视差图(但精度较低)。然后使用一种改进的U-net网络从额外的一张条纹图案中高精度地提取包裹相位图(但具有深度歧义)。通过将包裹相位图用作附加约束来优化初始视差图,从而最终实现高速高精度的绝对三维形貌测量。本发明仅需要两张投影图案即可实现高速高精度的绝对三维形貌测量。
实施例:
为验证本发明的有效性,使用两台相机(型号acA640-750um,Basler),一台DLP投影仪(型号LightCrafter 4500PRO,TI)以及一台计算机构建了一套基于学习的条纹相位恢复和散斑相关的三维测量装置。该套装置在进行物体的三维测量时的拍摄速度为25帧每秒。利用步骤1、2所述,使用一个立体匹配网络从一张散斑图案中产生初始视差图(但精度较低)。图2为本发明的基于深度学习的鲁棒立体匹配算法的基本原理图。利用步/3所述,使用一种改进的U-net网络从额外的一张条纹图案中高精度地提取包裹相位图(但具有深度歧义)。图3为本发明的基于改进的U-net型网络的高精度相位提取算法的基本原理图。利用步骤4、5所述,通过将包裹相位图用作附加约束来优化初始视差图,从而最终实现高速高精度的绝对三维形貌测量。整个实验中,投影并拍摄1200组数据,其中800组作为训练集,200组作为验证集,200组作为测试集。值得注意的是,训练集、验证集和测试集中的数据均不重复使用。设置网络的损失函数为均方误差(MSE),优化器为Adam,设置网络的训练周期为500轮。图4为本发明的基于学习的条纹相位恢复和散斑相关的三维测量方法的结果图。图4这个结果证明,本发明仅需要两张投影图案即可实现高速高精度的绝对三维形貌测量。

Claims (8)

1.一种基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,具体步骤为:
步骤1:通过两个相机同步采集一张高频条纹图和一张散斑图;
步骤2:根据两个相机同步采集的散斑图案,基于立体匹配网络得到初始视差图;
步骤3:将高频条纹图输入训练好的U-net网络,获得包裹相位;
步骤4:利用包裹相位约束优化初始视差图,获得高精度视差图;
步骤5:根据相机的标定参数,将高精度视差图转换为三维信息,完成三维测量。
2.根据权利要求1所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,基于立体匹配网络得到初始视差图的具体方法为:
对来自两个不同视角的两张散斑图分别进行立体校正,将散斑图案裁剪为大小不同的块数据;
将块数据输入训练好的立体匹配网络,获得初始匹配成本;
采用基于半全局匹配的成本聚合方法对初始匹配成本进行优化;
通过胜者为王算法将具有最低成本值的候选视差作为整像素视差值,并通过五点二次曲线拟合模型获得具有亚像素精度的视差图。
3.根据权利要求2所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,所述立体匹配网络包括一个共享子网络和若干具有共享权重的全连接层,所述共享子网络包括依次堆叠在前端的一个卷积层和若干残差块,堆叠在后端的九个卷积层。
4.根据权利要求1所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,U-net网络训练时的标签为使用三步相移算法获得且去除背景信息后的反正切函数的分子项和分母项M(x,y)和D(x,y)。
5.根据权利要求4所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,去除背景信息的具体方法为:
将像素点对应的实际的条纹调制度与设定阈值作比较,若低于阈值,则将该像素点对应的反正切函数的分子项和分母项设为0。
6.根据权利要求5所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,像素点对应的实际的条纹调制度具体为:
Figure FDA0002600052020000021
其中,I1(x,y),I2(x,y),I3(x,y)为对应的三步相移条纹图光强。Modulation(x,y)是实际的条纹调制度。
7.根据权利要求1所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,将高频条纹图输入训练好的U-net网络,获得包裹相位具体为:
将高频条纹图输入训练好的U-net网络,得到反正切函数的分子项和分母项M(x,y)和D(x,y);
根据M(x,y)和D(x,y)得到包裹相位图
Figure FDA0002600052020000022
具体为:
Figure FDA0002600052020000023
8.根据权利要求1~7任一所述的基于学习的条纹相位恢复和散斑相关的三维测量方法,其特征在于,利用包裹相位约束优化初始视差图,获得高精度视差图的具体方法为:
根据初始视差图和包裹相位信息,通过最小化两个视角的包裹相位之间的差异实现基于相位信息的立体匹配,获得整像素的匹配点;
利用整像素的匹配点及其邻点的相位信息,通过线性插值算法完成亚像素匹配,获得高精度视差图。
CN202010721119.3A 2020-07-24 2020-07-24 基于学习的条纹相位恢复和散斑相关的三维测量方法 Active CN111947599B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010721119.3A CN111947599B (zh) 2020-07-24 2020-07-24 基于学习的条纹相位恢复和散斑相关的三维测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010721119.3A CN111947599B (zh) 2020-07-24 2020-07-24 基于学习的条纹相位恢复和散斑相关的三维测量方法

Publications (2)

Publication Number Publication Date
CN111947599A true CN111947599A (zh) 2020-11-17
CN111947599B CN111947599B (zh) 2022-03-22

Family

ID=73337922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010721119.3A Active CN111947599B (zh) 2020-07-24 2020-07-24 基于学习的条纹相位恢复和散斑相关的三维测量方法

Country Status (1)

Country Link
CN (1) CN111947599B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381172A (zh) * 2020-11-28 2021-02-19 桂林电子科技大学 一种基于U-net的InSAR干涉图像相位解缠方法
CN113450460A (zh) * 2021-07-22 2021-09-28 四川川大智胜软件股份有限公司 一种基于人脸面形空间分布的无相位展开三维人脸重建方法及***
CN114252020A (zh) * 2021-12-22 2022-03-29 西安交通大学 一种多工位全场条纹图相移辅助散斑大长宽比间隙测量方法
CN114777677A (zh) * 2022-03-09 2022-07-22 南京理工大学 基于深度学习的单帧双频复用条纹投影三维面型测量方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101608908A (zh) * 2009-07-20 2009-12-23 杭州先临三维科技股份有限公司 数字散斑投影和相位测量轮廓术相结合的三维数字成像方法
WO2018067962A1 (en) * 2016-10-06 2018-04-12 Google Llc Image processing neural networks with separable convolutional layers
CN108088391A (zh) * 2018-01-05 2018-05-29 深度创新科技(深圳)有限公司 一种三维形貌测量的方法和***
AU2016393639A1 (en) * 2016-02-18 2018-09-06 Google Llc Image classification neural networks
CN110197505A (zh) * 2019-05-30 2019-09-03 西安电子科技大学 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN110487216A (zh) * 2019-09-20 2019-11-22 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101608908A (zh) * 2009-07-20 2009-12-23 杭州先临三维科技股份有限公司 数字散斑投影和相位测量轮廓术相结合的三维数字成像方法
AU2016393639A1 (en) * 2016-02-18 2018-09-06 Google Llc Image classification neural networks
WO2018067962A1 (en) * 2016-10-06 2018-04-12 Google Llc Image processing neural networks with separable convolutional layers
CN108088391A (zh) * 2018-01-05 2018-05-29 深度创新科技(深圳)有限公司 一种三维形貌测量的方法和***
CN110197505A (zh) * 2019-05-30 2019-09-03 西安电子科技大学 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN110487216A (zh) * 2019-09-20 2019-11-22 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YIN WEI.ET AL.: "High-speed 3D shape measurement using the optimized composite fringe patterns and stereo-assisted structured light system", 《OPTICS EXPRESS》 *
钟锦鑫等: "基于深度学习的散斑投影轮廓术", 《红外与激光工程》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381172A (zh) * 2020-11-28 2021-02-19 桂林电子科技大学 一种基于U-net的InSAR干涉图像相位解缠方法
CN113450460A (zh) * 2021-07-22 2021-09-28 四川川大智胜软件股份有限公司 一种基于人脸面形空间分布的无相位展开三维人脸重建方法及***
CN114252020A (zh) * 2021-12-22 2022-03-29 西安交通大学 一种多工位全场条纹图相移辅助散斑大长宽比间隙测量方法
CN114252020B (zh) * 2021-12-22 2022-10-25 西安交通大学 一种多工位全场条纹图相移辅助散斑大长宽比间隙测量方法
CN114777677A (zh) * 2022-03-09 2022-07-22 南京理工大学 基于深度学习的单帧双频复用条纹投影三维面型测量方法
CN114777677B (zh) * 2022-03-09 2024-04-26 南京理工大学 基于深度学习的单帧双频复用条纹投影三维面型测量方法

Also Published As

Publication number Publication date
CN111947599B (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
CN109253708B (zh) 一种基于深度学习的条纹投影时间相位展开方法
CN111947599B (zh) 基于学习的条纹相位恢复和散斑相关的三维测量方法
CN111563564B (zh) 基于深度学习的散斑图像逐像素匹配方法
CN111351450B (zh) 基于深度学习的单帧条纹图像三维测量方法
CN111563952B (zh) 基于相位信息与空间纹理特征实现立体匹配方法及***
CN114777677B (zh) 基于深度学习的单帧双频复用条纹投影三维面型测量方法
CN106032976A (zh) 基于波长选择的三条纹投影相位展开方法
CN110006365B (zh) 基于二维查找表的相位展开方法、装置及电子设备
CN112504165A (zh) 一种基于双边滤波优化的复合立体相位展开方法
CN113379818A (zh) 一种基于多尺度注意力机制网络的相位解析方法
CN110375675B (zh) 基于空间相位展开的双目光栅投影测量方法
WO2013012054A1 (ja) 画像処理方法および装置
CN111947600B (zh) 基于相位级次代价滤波的鲁棒立体相位展开方法
CN112212806B (zh) 一种基于相位信息导向的立体相位展开方法
Furukawa et al. Multiview projectors/cameras system for 3d reconstruction of dynamic scenes
CN113137939B (zh) 基于二值特征模式匹配的解包裹方法
CN113551617B (zh) 基于条纹投影的双目双频互补三维面型测量方法
Zhang et al. Determination of edge correspondence using color codes for one-shot shape acquisition
CN111815697B (zh) 一种热变形动态三维测量方法
CN114739322A (zh) 一种三维测量方法、设备和存储介质
Kawasaki et al. One-shot scanning method using an unealibrated projector and camera system
CN113450460A (zh) 一种基于人脸面形空间分布的无相位展开三维人脸重建方法及***
Li et al. Single shot dual-frequency structured light based depth sensing
CN112212805B (zh) 一种基于复合编码的高效立体相位展开方法
CN113503832B (zh) 一种基于物体横向尺寸辅助的绝对相位恢复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant