CN108873363B - 基于结构光标记的三维光场成像***及方法 - Google Patents

基于结构光标记的三维光场成像***及方法 Download PDF

Info

Publication number
CN108873363B
CN108873363B CN201811037175.4A CN201811037175A CN108873363B CN 108873363 B CN108873363 B CN 108873363B CN 201811037175 A CN201811037175 A CN 201811037175A CN 108873363 B CN108873363 B CN 108873363B
Authority
CN
China
Prior art keywords
light field
dimensional
phase
measured object
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811037175.4A
Other languages
English (en)
Other versions
CN108873363A (zh
Inventor
吴庆阳
陈顺治
李奇锋
陈泽锋
黄浩涛
卢晓婷
贺威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Technology University
Original Assignee
Shenzhen Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Technology University filed Critical Shenzhen Technology University
Priority to CN201811037175.4A priority Critical patent/CN108873363B/zh
Publication of CN108873363A publication Critical patent/CN108873363A/zh
Application granted granted Critical
Publication of CN108873363B publication Critical patent/CN108873363B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于结构光标记的三维光场成像***及方法,用于重建被测物体的三维模型,解决了现有技术中三维模型重建精度低的问题,包括:投影标记模块,用于对被测物体表面投影及相位标记;光场记录模块,用于在若干视角下记录光场图像;光场转换模块,用于将被测物体的光场图像转换为四维光场数据;数据计算模块,用于将四维光场中等相位值的数据拟合为直线;以及,三维重建模块,用于根据直线的斜率及光场深度的对应关系重建被测物体的三维点云数据信息,以重建三维模型;通过对被测物体进行投影及相位标记,并利用采集到的光场图像建立四维光场数据,最后通过计算能够准确得出被测物体的三维点云数据,从而提高了三维模型重建精度。

Description

基于结构光标记的三维光场成像***及方法
技术领域
本发明涉及三维成像技术领域,尤其涉及一种基于结构光标记的三维光场成像***及方法。
背景技术
随着科技的发展,基于光场成像理论的三维重建方法已经广泛地应用于军事科技、生活娱乐等领域,所以光场理论的三维重建方法成为了当今研究的热门话题,现有的基于光场理论的三维重建方法主要包括傅里叶层析法和极平面分析法。
其中,傅立叶层析法主要是利用对四维光场数据进行分析,根据不同深度的像点的聚焦位置不一样,构建适当的滤波函数,得出大量随着深度变化图像对焦区域变化的层析图片,然后根据深度和对焦点的关系重建出物体表面三维模型,但是这种方法的重建精度低,重建得到的物体表面的三维点云数据不够完整。
其次,极平面分析法是根据极线图的性质,物点对应的像素在极线图上呈直线分布,直线的斜率对应物点的深度,所以通过对光场的极平面图像进行优化处理,约束极平面数据中的直线斜率,求取物点的深度值,这种方法相对于傅立叶层析法,提高了光场成像的重建精度,但是由于直线的斜率的求解是基于灰度值的相似性而定的,对于同一条直线上的特征点很难确定,导致得到的物体表面的三维点云数据不够完整,从而使得广场成像的重建精度依旧有待提高。
基于以上分析,现有的基于光场理论的三维重建方法得到的被测物体的三维点云数据不够完整,从而使得对被测物体表面的三维模型重建精度低。
发明内容
本发明的主要目的在于提供一种基于结构光标记的三维光场成像***及方法,旨在解决现有技术中对被测物体表面的三维模型重建精度低的技术问题。
为实现上述目的,本发明一方面提供一种基于结构光标记的三维光场成像***,包括:投影标记模块,用于对被测物体表面进行投影及相位标记,在本实施例中,投影标记模块具体为投影仪,通过投影仪对被测物体表面进行投影及相位标记,在其他实施例中,投影标记模块还可为投影灯等具有投影及相位标记的设备;光场记录模块,用于在至少两个视角下全方位并重复记录带有相位标记的被测物体的光场图像;光场转换模块,用于根据相位标记将被测物体的光场图像转换为四维光场数据;数据计算模块,用于将所述四维光场中等相位值的数据拟合为直线;以及,三维重建模块,用于根据所述直线的斜率及光场深度的对应关系求解被测物体的三维点云数据信息,以根据所述三维点云数据信息重建被测物体的三维模型。
通过采用上述技术方案,投影标记模块能够对被测物体进行投影及相位标记,从而使得光场图像的标记来源准确;光场记录模块能够在若干视角下记录带有相位标记的光场图像,从而全方位地记录被测物体表面的光场图像及相位标记,从而能够使光场图像在经过光场转换模块后,将光场图像的三维光场数据转换为四维光场数据,得出全方位的被测物体的光场图像数据,四维光场数据经过数据计算模块的转换后,被拟合为直线,三维重建模块能够根据直线的斜率及光场深度的对应关系计算出被测物体的三维点云数据信息,由于三维点云数据信息均来自于明确的四维光场数据,从而使得三维点云数据信息较为准确,从而提高了三维模型重建精度。
进一步地,所述光场转换模块包括:相位解调单元,用于解调被测物体表面的相位标记;相位记录单元,用于记录解调出的所述相位标记;以及,相位集合单元,用于将被测物体的不同视角的相位标记集合,以将被测物体的三维光场数据转换为四维光场数据。
进一步地,所述光场转换模块还包括:相位补偿单元,所述相位补偿单元用于将至少两个视角下的被测物体的相位相互补偿,以得出被测物体表面全方位的相位标记。
进一步地,所述数据计算模块包括:数据查找单元,用于查找所述四维光场内等相位值的四维光场数据,相同相位标记点在不同视角下的相位值相等;数据转换单元,用于将所述四维光场内相位值相等的四维光场数据拟合为直线,并计算出所述直线的斜率。
进一步地,所述数据计算模块还包括:重复查找单元,所述重复查找单元用于对所述四维光场内等相位值的四维光场数据进行至少两次查找。
进一步地,所述光场记录模块包括:同轴记录单元,用于通过同轴且在同一直线不同位置上的视角记录所述带有相位标记的被测物体的光场图像。
进一步地,所述同轴记录单元具体用于在所述同一直线上等距离记录不同位置视角的被测物体的光场图像。
进一步地,所述投影标记模块具体用于通过主动式投影结构光形成的条纹编码对被测物体表面进行投影及相位标记。
本发明另一方面提供了一种基于结构光标记的三维光场成像方法,包括:对被测物体表面进行投影及相位标记;在至少两个视角下全方位并重复记录带有相位标记的被测物体的光场图像;根据相位标记将被测物体的光场图像转换为四维光场数据;将四维光场数据中的等相位值的数据拟合为直线;根据所述直线的斜率及挂光场深度的对应关系重建被测物体的三维点云数据信息。
进一步地,所述根据相位标记将被测物体的光场图像转换为四维光场数据包括:解调被测物体表面的相位标记;记录解调出的相位标记;将被测物体的不同视角的相位标记集合,并将被测物体的三维光场数据转换为四维光场数据。
本发明提供一种基于结构光标记的三维光场成像***,有益效果在于:通过在若干视角下记录被测物体带有相位标记的光场图像,能够全方位地记录被测物体的相位标记及光场图像,从而保证了被测物体的相位标记的完整性;通过光场转换模块将相位标记转换为四维光场数据,能够保证光场数据的完整性,并且由于被测物体的相位标记来源较为明确,故将相位标记转换后的四维光场数据较为准确;当数据计算模块将等相位值的四维光场数据拟合为直线后,三维重建模块根据直线的斜率及光场深度的对应关系重建被测物体的三维点云数据信息,由于直线的斜率来源为等相位的四维光场数据拟合成的直线,而四维光场数据的数据较为准确,从而使得三维点云数据信息较为准确,从而使得根据三维点云数据信息重建的被测物体的三维模型较为准确,从而提高了三维模型重建精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例基于结构光标记的三维光场成像***的结构示意框图;
图2为本发明实施例基于结构光标记的三维光场成像***的光场转换模块的结构示意框图;
图3为本发明实施例基于结构光标记的三维光场成像***的数据计算模块的结构示意框图。
在附图中,各附图标记表示:1、投影标记模块;2、光场记录模块;3、光场转换模块;4、数据计算模块;5、三维重建模块;31、相位解调单元;32、相位记录单元;33、相位集合单元;34、相位补偿单元;41、数据查找单元;42、数据转换单元;43、重复查找单元。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,为一种基于结构光标记的三维光场成像***,包括:投影标记模块1、光场记录模块2、光场转换模块3、数据计算模块4及三维重建模块5;投影标记模块1用于对被测物体表面进行投影及相位标记,具体用于通过主动式投影结构光形成的条纹编码对被测物体表面进行投影相位标记,从而使得光场图像的标记来源准确;光场记录模块2用于在至少两个视角下全方位并重复记录带有相位标记的被测物体的光场图像,从而记录被测物的三维数据;光场转换模块3用于根据相位标记将被测物体的光场图像转换为四维光场数据,得出全方位的被测物体的光场图像数据;数据计算模块4用于将四维光场中等相位值的数据拟合为直线;三维重建模块5用于根据直线的斜率及光场深度的对应关系重建被测物体的三维点云数据信息,从而根据三维点云数据信息计算被测物体的三维模型,由于三维点云数据信息均来自于明确的四维光场数据,从而使得三维点云数据信息较为准确,从而提高了三维模型重建精度。
请参阅图2,其中,光场转换模块3包括:相位解调单元31、相位记录单元32及相位集合单元33;相位解调单元31用于解调被测物体表面的相位标记;相位记录单元32用于记录解调出的相位标记;相位集合单元33用于将被测物体的不同视角的相位标记集合,从而将被测物体的三维光场数据转换为四维光场数据,并且当被测物体四维光场数据被记录后,使得被测物体表面的各位置光场数据均被记录,从而提高了被测物体表面的光场数据的完整性,降低了因光场数据的不完整性而导致最终重建的三维模型精度降低,从而提高了三维模型的重建精度。
在本实施例中,光场转换模块3还包括相位补偿单元34,相位补偿单元34用于将至少两个视角下的被测物体的相位标记相互补偿,从而得出被测物体表面的全方位的相位标记,从而提高了被测物体表面的相位标记的完整性,降低了因相位标记的不完整性而导致最终重建的三维模型精度降低,从而提高了三维模型的重建精度。
请参阅图3,数据计算模块4包括:数据查找单元41及数据转换单元42;数据查找单元41用于查找四维光场内等相位值的四维光场数据,在本实施例中,相同相位标记点在不同视角下的相位值相等;数据转换单元42用于将相位值相等的四维光场数据拟合为直线,并计算出根据四维光场数据拟合成的直线的斜率,从而将四维光场数据转换为二位直线数据,使被测物体的检测结果更加清晰直观,易于后续的研究,并且通过上述斜率及深度的对应关系重建出被测物体的三维点云数据信息,由于被测物体的相位标记的完整性较高,故根据四维光场数据拟合成的直线的斜率较为准确,从而使得三维点云数据较为精确,从而提高了三维模型的重建精度。
在本实施例中,数据计算模块4还包括重复查找单元43,重复查找单元43用于对等相位值的四维光场数据进行至少两次查找,从而降低了四维光场数据被遗漏的几率,提高了根据四维光场数据拟合成的直线的斜率的精度,从而提高了三维点云数据的精确度,提高了三维模型的重建精度。
光场记录模块2包括同轴记录单元,同轴记录单元用于通过同轴且在同一直线的不同位置上的视角记录带有相位标记的被测物体的光场图像,从而全方位地记录被测物体的光场图像,在本实施例中,同轴记录单元具体为摄像机,通过摄像机记录带有相位标记的被测物体的光场图像。
同轴记录单元具体用于在同一直线上等距离记录不同位置视角的被测物体的光场图像,从而使得记录下的被测物体的光场图像规则有序,便于后续的计算,从而减少了后续的计算难度,降低了后续的计算的时间成本;在本实施例中,通过电动水平平移台,将同轴记录单元提供的摄像机每次移动固定位置,从而实现同轴记录单元等距离记录被测物体的光场图像,在其他实施例中,同轴记录单元提供至少三台摄像机,每台摄像机之间的距离相等,从而实现同轴记录单元等距离记录被测物体的光场图像。
本发明提供的基于结构光标记的三维光场成像***,其工作原理或过程如下:通过在若干视角下记录被测物体带有相位标记的光场图像,能够全方位地记录被测物体的相位标记及光场图像,从而保证了被测物体的相位标记的完整性;通过光场转换模块3将相位标记转换为四维光场数据,能够保证光场数据的完整性,并且由于被测物体的相位标记来源较为明确,故将相位标记转换后的四维光场数据较为准确;当数据计算模块4将等相位值的四维光场数据拟合为直线后,三维重建模块5根据直线的斜率及光场深度的对应关系重建被测物体的三维点云数据信息,由于直线的斜率来源为等相位的四维光场数据拟合成的直线,而四维光场数据的数据较为准确,从而使得三维点云数据信息较为准确,从而使得根据三维点云数据信息计算的被测物体的三维模型较为准确,从而提高了三维模型重建精度。
本发明还提供了一种基于结构光标记的三维光场成像方法,包括:对被测物体表面进行投影及相位标记;在至少两个视角下全方位并重复记录带有相位标记的被测物体的光场图像;根据相位标记将被测物体的光场图像转换为四维光场数据;将四维光场数据中的等相位值的数据拟合为直线;根据直线的斜率及挂光场深度的对应关系重建被测物体的三维点云数据信息。
根据相位标记将被测物体的光场图像转换为四维光场数据包括:解调被测物体表面的相位标记;记录解调出的相位标记;将被测物体的不同视角的相位标记集合,并将被测物体的三维光场数据转换为四维光场数据。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
以上为对本发明所提供的一种基于结构光标记的三维光场成像***及方法的描述,对于本领域的技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种基于结构光标记的三维光场成像***,其特征在于,包括:
投影标记模块,用于通过主动式投影结构光形成的条纹编码对被测物体表面进行投影及相位标记;
光场记录模块,用于在至少两个视角下全方位并重复记录带有相位标记的被测物体的光场图像;其中,所述光场记录模块包括:同轴记录单元,用于通过同轴且在同一直线不同位置上的视角记录所述带有相位标记的被测物体的光场图像;
光场转换模块,用于根据相位标记将被测物体的光场图像转换为四维光场数据;
数据计算模块,用于将四维光场中等相位值的数据拟合为直线;以及,
三维重建模块,用于根据所述直线的斜率及光场深度的对应关系求解被测物体的三维点云数据信息,以根据所述三维点云数据信息重建被测物体的三维模型。
2.根据权利要求1所述的基于结构光标记的三维光场成像***,其特征在于,所述光场转换模块包括:
相位解调单元,用于解调被测物体表面的相位标记;
相位记录单元,用于记录解调出的所述相位标记;以及,
相位集合单元,用于将被测物体的不同视角的相位标记集合,以将被测物体的三维光场数据转换为四维光场数据。
3.根据权利要求2所述的基于结构光标记的三维光场成像***,其特征在于,所述光场转换模块还包括:
相位补偿单元,用于将至少两个视角下的被测物体的相位相互补偿,以得出被测物体表面全方位的相位标记。
4.根据权利要求1所述的基于结构光标记的三维光场成像***,其特征在于,所述数据计算模块包括:
数据查找单元,用于查找所述四维光场内等相位值的四维光场数据,相同相位标记点在不同视角下的相位值相等;
数据转换单元,用于将所述四维光场内相位值相等的四维光场数据拟合为直线,并计算出所述直线的斜率。
5.根据权利要求4所述的基于结构光标记的三维光场成像***,其特征在于,所述数据计算模块还包括:
重复查找单元,用于对所述四维光场内等相位值的四维光场数据进行至少两次查找。
6.根据权利要求1所述的基于结构光标记的三维光场成像***,其特征在于,所述同轴记录单元具体用于在所述同一直线上等距离记录不同位置视角的被测物体的光场图像。
7.一种基于结构光标记的三维光场成像方法,其特征在于,包括:
对被测物体表面进行投影及相位标记;
在至少两个视角下全方位并重复记录带有相位标记的被测物体的光场图像;
根据相位标记将被测物体的光场图像转换为四维光场数据;
将四维光场数据中的等相位值的数据拟合为直线;
根据所述直线的斜率及光场深度的对应关系重建被测物体的三维点云数据信息。
8.根据权利要求7所述的基于结构光标记的三维光场成像方法,其特征在于,所述根据相位标记将被测物体的光场图像转换为四维光场数据包括:
解调被测物体表面的相位标记;
记录解调出的相位标记;
将被测物体的不同视角的相位标记集合,并将被测物体的三维光场数据转换为四维光场数据。
CN201811037175.4A 2018-09-06 2018-09-06 基于结构光标记的三维光场成像***及方法 Active CN108873363B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811037175.4A CN108873363B (zh) 2018-09-06 2018-09-06 基于结构光标记的三维光场成像***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811037175.4A CN108873363B (zh) 2018-09-06 2018-09-06 基于结构光标记的三维光场成像***及方法

Publications (2)

Publication Number Publication Date
CN108873363A CN108873363A (zh) 2018-11-23
CN108873363B true CN108873363B (zh) 2023-11-17

Family

ID=64323207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811037175.4A Active CN108873363B (zh) 2018-09-06 2018-09-06 基于结构光标记的三维光场成像***及方法

Country Status (1)

Country Link
CN (1) CN108873363B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233162A (zh) * 2020-10-06 2021-01-15 武汉烽火凯卓科技有限公司 一种基于结构照明特征的平面图像分析的测量方法及装置
CN112945090B (zh) * 2020-12-11 2023-04-21 深圳市菲森科技有限公司 一种三维测量***的标定装置及标定方法
CN113724371B (zh) * 2021-08-13 2023-06-13 深圳技术大学 同轴照明光场的三维成像方法、***、电子装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209061A (zh) * 2014-12-22 2017-09-26 拉古纳大学 用于确定场景相关电磁场的复振幅的方法
US9807373B1 (en) * 2013-12-27 2017-10-31 Google Inc. Systems and devices for acquiring imagery and three-dimensional (3D) models of objects
WO2018018363A1 (zh) * 2016-07-25 2018-02-01 深圳大学 一种结构光场三维成像方法及其***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013212409A1 (de) * 2012-06-29 2014-03-13 Inb Vision Ag Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9807373B1 (en) * 2013-12-27 2017-10-31 Google Inc. Systems and devices for acquiring imagery and three-dimensional (3D) models of objects
CN107209061A (zh) * 2014-12-22 2017-09-26 拉古纳大学 用于确定场景相关电磁场的复振幅的方法
WO2018018363A1 (zh) * 2016-07-25 2018-02-01 深圳大学 一种结构光场三维成像方法及其***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Adopting an unconstrained ray model in light-field cameras for 3D shape reconstruction;Filippo Bergamasco等;《Computer Vision Pattern Recognition》;20151231;正文第2.1节-3.3节 *
Globally Consistent Depth Labeling of 4D Light Fields;Sven Wanner等;《IEEE Conference on Computer Vision and Pattern Recognition》;20121231;正文第41-47页 *
基于结构光标记的光场三维成像技术研究;吴庆阳;黄浩涛;陈顺治;李奇锋;陈泽锋;卢晓婷;;红外与激光工程(第03期);全文 *
应用于结构光投影三维测量的二值时空编码方法;林海新;吴庆阳;黄锦辉;贺威;;中国激光(第11期);全文 *

Also Published As

Publication number Publication date
CN108873363A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
EP3444560B1 (en) Three-dimensional scanning system and scanning method thereof
CN107705333B (zh) 基于双目相机的空间定位方法及装置
CN108873363B (zh) 基于结构光标记的三维光场成像***及方法
Su et al. A fast and robust extrinsic calibration for RGB-D camera networks
Wieneke Improvements for volume self-calibration
CN105809658A (zh) 关心区域设定方法及装置
Gadasin et al. Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems
Nebiker et al. Cloud-Based geospatial 3D image spaces—A powerful urban model for the smart city
Chen et al. Calibrating stereo-digital image correlation system using synthetic speckle-pattern calibration target
Han et al. Vibration detection and motion compensation for multi-frequency phase-shifting-based 3d sensors
Kaczmarek Improving depth maps of plants by using a set of five cameras
CN110702015B (zh) 输电线路覆冰厚度测量方法及装置
Xiong et al. Spatiotemporal correlation-based accurate 3D face imaging using speckle projection and real-time improvement
CN109859313B (zh) 3d点云数据获取方法、装置、3d数据生成方法及***
Hyeon et al. Automatic spatial template generation for realistic 3d modeling of large-scale indoor spaces
Lu et al. Extending single beam lidar to full resolution by fusing with single image depth estimation
CN113724371B (zh) 同轴照明光场的三维成像方法、***、电子装置及存储介质
Zakeri et al. Guided optimization framework for the fusion of time-of-flight with stereo depth
CN112262411B (zh) 图像关联方法、***和装置
Ruf et al. Towards real-time change detection in videos based on existing 3D models
CN113884025A (zh) 增材制造结构光回环检测方法、装置、电子设备和存储介质
CN114359891A (zh) 一种三维车辆检测方法、***、装置及介质
Zhang et al. Passive 3D reconstruction based on binocular vision
CN111489398A (zh) 一种成像设备标定方法以及装置
Zhu et al. Toward the ghosting phenomenon in a stereo-based map with a collaborative RGB-D repair

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant