CN112655203A - 获取3d图像的方法和设备 - Google Patents

获取3d图像的方法和设备 Download PDF

Info

Publication number
CN112655203A
CN112655203A CN201980055955.8A CN201980055955A CN112655203A CN 112655203 A CN112655203 A CN 112655203A CN 201980055955 A CN201980055955 A CN 201980055955A CN 112655203 A CN112655203 A CN 112655203A
Authority
CN
China
Prior art keywords
pattern
beams
sector
depth map
tof
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980055955.8A
Other languages
English (en)
Inventor
安德烈·布特
伊万·萨福诺夫
康斯坦丁·莫罗佐夫
鲁斯兰·埃尔莫伦科
雅罗斯拉夫·拉夫伦尤克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2019/000221 external-priority patent/WO2020045770A1/en
Publication of CN112655203A publication Critical patent/CN112655203A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

提供了一种用于获得3D图像的方法和设备。所述方法包括:向物体顺序地投射多个光束,多个投射光束中的每一个投射光束对应于图案中包括的多个扇区中的相应扇区;检测从所述物体反射的与多个投射光束相对应的多个光束;基于检测到的多个光束来识别多个投射光束中的每一个投射光束的飞行时间(ToF);基于检测到的多个光束来识别由所述物体引起的所述图案的失真;以及基于所述图案的失真和多个投射光束中的每一个投射光束的ToF,生成所述物体的深度图,其中,检测到的多个光束通常用于识别所述ToF和所述图案的失真。

Description

获取3D图像的方法和设备
技术领域
本公开总体上涉及用于获得三维(3D)图像的方法和设备,更具体地,涉及用于获得物体或场景的深度的方法和设备。
背景技术
增强现实(AR)和虚拟现实(VR)技术的发展导致人们对三维(3D)相机的兴趣日益浓厚。3D相机可以安装在各种电子设备(诸如移动设备或计算机)中,或者可以作为独立的电子设备提供。
3D相机可以采用立体被动或主动投射方案以获得3D图像。立体被动方案可以生成环境的稀疏深度图或半稀疏深度图。然而,立体被动方案在低纹理和低照度条件下效率低下。创建密集的深度图需要更高的计算复杂度。
为了生成深度图,主动投射方案可以使用从3D相机投射的光的飞行时间(ToF)或从3D相机投射的图案的失真。在使用ToF时,可以基于多个点之间的距离和基于多个ToF计算出的场景来获得深度图。但是,此方案可能会存在在短距离内应用时的较大深度误差。
图案失真方案可以通过将特定图案投射到物体或场景上,检测被该物体或场景所变形的图案,然后基于所检测到的图案失真来获取深度图。三角测量可以用于计算图案失真与物体之间的距离。图案失真方案也可以称为三角测量技术或结构光(SL)方案(因为该图案被视为SL)。三角测量技术中的误差在短距离内可能很小,但由于三角测量本身的局限性,随着范围的扩大,误差通常会变得越来越严重。
发明内容
技术问题
因此,通常难以将用于获得3D图像的常规技术应用于需要在较宽的深度范围内具有较高质量的深度图的AR/VR应用。
技术方案
因此,本公开的一方面在于提供一种用于在较宽的深度范围内自适应地获得较高质量的深度图的方法和设备。
根据本公开的一方面,提供了一种用于由光束投射器和光束检测器的设备获得3D图像的方法。该方法包括:从所述光束投射器向物体顺序地投射多个光束,所述多个投射光束中的每一个投射光束对应于图案中包括的多个扇区中的相应扇区;由所述光束检测器检测从所述物体反射的与所述多个投射光束相对应的多个光束;基于所检测到的多个光束来识别所述多个投射光束中的每一个投射光束的飞行时间(ToF);基于所检测到的多个光束来识别由所述物体引起的所述图案的失真;以及基于所述图案的失真和所述多个投射光束中的每一个投射光束的ToF,生成所述物体的深度图,其中,所检测到的多个光束通常用于识别所述ToF和所述图案的失真。
根据本公开的一方面,提供了一种用于获得3D图像的设备。所述设备包括:光束投射器,所述光束投射器被配置为向物体顺序地投射多个光束,所述多个投射光束中的每一个投射光束对应于图案中包括的多个扇区中的相应扇区;光束检测器,所述光束检测器被配置为检测从所述物体反射的与所述多个投射光束相对应的多个光束;以及控制器,所述控制器被配置为基于所检测到的多个光束来识别所述多个投射光束中的每一个投射光束的飞行时间(ToF),基于所检测到的多个光束来识别由所述物体引起的所述图案的失真,以及基于所述图案的失真和所述多个投射光束中的每一个投射光束的ToF,生成所述物体的深度图,其中,所检测到的多个光束通常用于识别所述ToF和所述图案的失真。
附图说明
根据结合附图进行的以下详细描述,本公开的某些实施例的上述和其他方面、特征和优点将更加明显,其中:
图1是示出了根据实施例的用于获得3D图像的设备的框图;
图2是示出了根据实施例的光束投射器的框图;
图3是示出了根据实施例的用于获得3D图像的方法的流程图;
图4示出了根据实施例的用于投射多个光束的图案;
图5示出了根据实施例的用于检测失真的图案;
图6示出了根据实施例的用于检测ToF的图案;
图7示出了根据实施例的修改图案的分辨率的示例;
图8示出了根据实施例的图案移位的示例;
图9示出了根据实施例的图案;
图10示出了根据实施例的基于图案的投射光束的顺序;
图11示出了根据实施例的投射光束并检测反射的示例;
图12示出了根据实施例的用于利用同步信号投射光束的方法;
图13示出了根据实施例的用于检测ToF的方法;以及
图14示出了根据实施例的用于基于SL获得到物体的距离的方法。
在所有附图中,相同的附图标记可以表示相同的部件、组件、结构等。
具体实施方式
现在将参考附图详细描述本公开的各种实施例。在以下描述中,仅提供诸如详细配置和组件之类的具体细节以帮助对这些实施例的整体理解。因此,本领域技术人员将理解,在不脱离本公开的范围和精神的情况下,可以对本文所述的实施例进行各种改变和修改。另外,为了清楚和简洁,省略了对公知功能和构造的描述。
尽管可以使用诸如“第一”和“第二”之类的以数字表示的术语来描述各种组件,但是这些组件不受术语的限制。提供这些术语只是为了将一个组件与另一个组件区分开。因此,在本公开的技术精神内,本文描述的第一组件也可以被称为第二组件,反之亦然。
图1是示出了根据实施例的用于获得3D图像的设备的框图。
参照图1,用于获得3D图像的设备100可以是3D相机或包括3D相机的电子设备。设备100包括光束投射器110、光束检测器120、控制器130和存储器140。
光束投射器110可以生成光束并向场景150或物体投射光束。场景150可以表示被投射由光束投射器110生成的以生成3D图像的光束的区域。物体可以表示对其生成3D图像的事物。由光束投射器110生成的光束可以是红外线(IR)光束,但不限于此,也可以是可见或紫外线(UV)光束或其他各种频率的光束。
图2是示出了根据实施例的光束投射器的框图。
参照图2,光束投射器110包括激光器111、激光器驱动器114、第一镜112、第二镜113和微机电***(MEMS)驱动器115。激光器111可以生成并发射预设频率的激光束。激光器111的运行可以由激光器驱动器114控制。从激光器111发射的激光束被引导至第一镜112,该第一镜112将激光束反射到第二镜113。例如,第一镜112可以是固定的镜,但不限于此。第二镜113将来自第一镜112的激光束反射到场景150。可以旋转第二镜113以控制从光束投射器110发射的光束B1的方向。例如,可以绕两个轴旋转第二镜113。
可以使用MEMS来操作第二镜113。MEMS驱动器115可以使用MEMS来控制第二镜113的旋转。
返回参照图1,光束检测器120可以检测从光束投射器110发射并被场景150反射的光束B2。光束检测器120可以检测反射光束B2的存在与否以及其亮度或强度。例如,光束检测器120可以检测IR光束。然而,光束检测器120可检测的光束的频带不限于IR频带。
光束检测器120可以被配置为检测从光束投射器110发射的光束B1的频带。光束检测器120可以检测反射光束B2的频带的信号。光束检测器120可以是能够捕获特定区域(例如,场景150的区域)的二维(2D)相机。2D相机可以包括光敏像素的阵列。例如,可以将2D相机的光敏像素划分为用于检测ToF的像素和用于检测反射图案的像素。可替代地2D相机的多个光敏像素中的至少一个可以用于检测ToF和反射图案。
控制器130可以控制光束投射器110和光束检测器120的运行。控制器130可以基于光束检测器120检测到的反射光束B2,计算并生成场景150或物体的深度图。
存储器140可以存储用于操作控制器130的指令。存储器140可以存储用于操作控制器130所必需的永久或临时数据。存储器140可以存储关于用于光束投射器110进行投射光束B1的一个或更多个图案的信息。
图3是示出了根据实施例的用于获得3D图像的方法的流程图。例如,图3的方法可以由诸如图1所示的设备100之类的用于获得3D图像的设备来执行,或更具体地,图3的方法还可以由诸如图1所示的控制器130之类的控制器执行,该控制器实质上控制用于获得3D图像的设备100的组件的运行。
参照图3,在步骤310,设备100基于图案顺序地投射多个光束。
在步骤320,设备100检测多个光束的反射,例如从场景150反射回来的光束。
在步骤330,设备100基于检测到的多个光束的反射来识别多个投射光束的各自的ToF。
在步骤340中,设备100识别图案的失真,并且在步骤350中,设备100基于ToF和图案失真来生成深度图。
图4示出了根据实施例的用于投射多个光束的图案。例如,图4中的图案可以被用于在步骤310中顺序地投射多个光束。
参照图4,图案400被分成多个扇区(或部分)410。图案400的每个扇区410由像素表示。这些光束可以以对应于它们各自的扇区的方式来被投射。与多个扇区410的较暗扇区相对应的光束和与多个扇区410的较亮扇区相对应的光束可以被不同地调制。例如,与较暗扇区相对应的光束和与较亮扇区相对应的光束可以在亮度、强度、大小、直径和/或频率中的至少一项上不同。
点420表示多个扇区410中的用于测量ToF的扇区。可以基于与用于测量ToF的扇区相对应地投射的光束的反射光束来获得ToF。尽管图4示出了多个扇区410中的所有扇区都用于测量ToF,但是可替代地,多个扇区410中的仅一些扇区可以用于测量ToF。
根据实施例,可以通过将用于检测各个图案的失真的第一图案和用于检测ToF的第二图案合并来生成诸如图案400的图案。
图5示出了根据实施例的用于检测失真的图案,图6示出了根据实施例的用于检测ToF的图案。
参照图5和图6,设备100(或控制器130)可以通过合并例如存储在存储器140中的第一图案500和第二图案600来生成图案400。因此,设备100可以通过将用于检测图案失真的多个第一图案中的一个与用于检测ToF的多个第二图案中的一个选择性地合并来生成用于投射光束的图案,从而自适应地且容易地生成和应用各种图案形状。
根据实施例,用于投射光束的图案可以根据原始图案被修改并生成。例如,设备100可以从存储在存储器140中的原始图案生成用于投射光束的图案。
可以通过修改原始图案的分辨率来生成修改后的图案。
图7示出了根据实施例的修改图案的分辨率的示例。
参照图7,可以通过增加原始图案710的分辨率来生成修改的图案720。尽管图7中未示出,从修改后的图案划分的多个扇区中的每个扇区的尺寸可以比从原始图案710划分的多个扇区中的每个扇区的尺寸小。可以通过降低原始图案的分辨率来生成修改的图案。
可以通过移位原始图案来生成修改的图案。
图8示出了根据实施例的图案移位的示例。
参照图8,可以通过沿向右向下方向移位原始图案810来生成修改的图案820。根据实施例,移位的方向可以不同。
可以同时使用多种修改方法来生成修改后的图案。
用于投射光束的图案的分辨率在图案中可能不均匀。
图9示出了根据实施例的图案。
参照图9,图案900包括具有第一分辨率的第一部分910和具有低于第一分辨率的第二分辨率的第二部分920。例如,具有相对较大的分辨率的第一部分910可以对应于感兴趣区域(ROI)。可以通过将原始图案和通过修改原始图案的分辨率获得的图案进行合并来生成图案900。
在图3的步骤310中,多个光束可以从多个扇区中对应于它们各自的扇区被顺序地投射。
图10示出了根据实施例的基于图案的投射光束的顺序。
参考图10,多个光束以Z字形被投射。可替代地,多个光束可以以Z字形垂直地投射。尽管鉴于光束投射器120控制投射光束的位置的操作效率,以Z字形投射可能是有利的,但是可以根据需要改变投射多个光束的实际顺序。
图11示出了根据实施例的投射光束并检测反射的示例。
参照图11,激光器111可以生成与构成图案的多个扇区中的一个相对应的光束(激光)。从激光器111发射的光束被第一镜112反射并导向第二镜113。可以调节第二镜113的水平角θ和垂直角
Figure BDA0002950995850000071
可以设置第二角113的水平角θ和垂直角
Figure BDA0002950995850000072
以使第二镜113反射的第一光束B1指向期望的位置。第一光束B1的水平方向可以由水平角θ控制,第一光束B1的垂直方向可以由垂直角
Figure BDA0002950995850000073
控制。可以设置第二镜113的水平角θ和垂直角
Figure BDA0002950995850000074
以使第一光束B1被引导到场景150的位置,该位置对应于与图案的多个扇区中与光束相对应的扇区。
作为场景150对第一光束B1的反射的第二光束B2例如可以在图3的步骤320中由光束检测器120检测。
在投射了与图案的多个扇区中的一个扇区相对应的光束并通过上述方法检测到反射光束之后,可以投射与下一扇区相对应的光束,使得可以例如以图10所示的Z字形顺序来检测其反射。
通过重复该过程,可以实现与图案的多个扇区相对应的光束的投射和其反射的检测。
当基于图案顺序地投射多个光束时,诸如在图3的步骤310中所示,多个投射的光束中的全部或至少一些可以结合使用ToF方案和SL方案来生成深度图。例如,当用于检测图案失真的第一图案和用于检测ToF的第二图案在分辨率或扇区排列上不同时(其中该第一图案和第二图案被合并以生成用于顺序地投射多个光束的图案),则利用ToF方案生成深度图或利用SL方案生成深度图不需要使用所有投射的光束。相反,可以结合使用多个光束中的至少一些,以利用ToF方案来生成深度图和利用SL方案来进行深度图,并且可以对多个光束进行一次扫描,从而获得利用ToF方案的深度图和利用SL方案的深度图二者。
为了检测多个投射光束的反射,例如在图3的步骤320中,光束检测器120可以检测多个第二光束B2。光束检测器120可以检测所检测的第二光束B2的波形或相位,并且所检测的波形或相位可以用于获得ToF。光束检测器120可以检测所检测的第二光束B2的亮度。构成光束检测器120的2D相机的多个像素中的每个像素的亮度可以被存储在对应像素的坐标
Figure BDA0002950995850000081
中。因此,设备100可以获得与第二光束B2相对应的图像,并且设备100可以通过对与多个第二光束B2相对应的多个图像进行积分(integrate)来获得由场景或物体150反射的图案。
光束检测器120可以从单个图像获得反射图案,该图像是通过对与接收多个第二光束B2时获得的多个第二光束B2有关的光学数据进行积分而生成的,而不是通过对与多个第二光束B2相对应对的多个图像进行积分而生成的。对与多个第二光束B2有关的光学数据进行积分可以包括在光束检测器120接收多个第二光束B2时曝光2D相机。
可以彼此同步地执行在用于投射光束的图案的多个扇区中识别与第二光束B2相对应的扇区,投射第一光束B1以获得ToF以及检测第二光束B2。也就是说,图3的步骤310和步骤320可以基本同时执行。例如,光束投射器110的操作(即,激光器111和第二镜113的操作)和光束检测器120的操作可以彼此同步。同步信号可以用于使光束投射器110的操作与光束检测器120的操作同步。同步信号可以由控制器130生成,或者在控制器130的控制下生成。
图12示出了根据实施例的用于使用同步信号投射光束的方法。
参照图12,可以与同步信号Sync同步并且根据同步信号Sync的波形在周期内投射多个光束1210。如图12所示,用于投射光束1210的周期可以变化。投射光束1210的周期可以基于图案的分辨率,并且当图案具有不同分辨率的扇区时,该周期可以变化。例如,用于投射光束的周期在第一周期P1与第二周期P2之间不同。在第一周期P1中用于投射光束1210的周期短于在第二周期P2中的周期。因此,第一周期P1中的图案的分辨率可以高于第二周期P2中的图案的分辨率。控制器130可以依据分辨率的变化来改变同步信号Sync的频率以调整用于投射光束1210的周期。也就是说,同步信号Sync的频率可以增加以便增加用于投射光束1210的周期,并且同步信号Sync的频率可以减少以便减少用于投射光束1210的周期。
可以将同步信号Sync提供给光束投射器110并且也提供给光束检测器120。因此,光束检测器120可以基于同步信号Sync识别多个扇区中的划分与第一光束B1(由其产生所检测到的第二光束B2)相对应的扇区。
调制控制信号SL Mod.可以用于控制光束1210的调制。光束投射器110可以根据调制控制信号SL Mod.控制对光束1210的调制。例如,当调制控制信号SL Mod.为低时并且当调制控制信号SL Mod.为高时,可以对光束1210应用不同的调制方案。根据实施例,可以将调制控制信号SL Mod.设置为具有与图案的较暗的扇区1220相对应的“低”值和与图案的较亮的扇区1230相对应的“高”值,反之亦然。
在步骤330中,可以基于检测到的第二光束B2来识别ToF。如下所述,用于识别ToF的检测到的第二光束B2也可以用于检测图案的失真。
图13示出了根据实施例的用于检测ToF的方法。
参照图13,可以通过将从光束投射器110发射的第一光束B1的波形W1与由光束检测器120检测到的第二光束B2的波形W2进行比较,或者通过对第一光束B1的相位与第二光束B2的相位进行比较,生成第二光束B2相对于第一光束B1的延迟Δ。当第一光束B1和第二光束B2的周期为T时,可以使用下面的式(1)获得光束的ToF。
ToF=T×Δ/(2×π)...(1)
可以使用以下式(2)基于ToF来获得光束被反射到的距离D。
D=(ToF×c)/2...(2)
在式(2)中,c是指光速。
根据实施例,控制器130可以通过对由光束检测器120的2D相机获得的图像的亮度进行微分来获得亮度的变化,并且可以基于亮度的变化来获得光束的到达时间。控制器130可以根据所获得的光束到达时间与光束发射时间之间的差来计算延迟Δ。
因此,可以获得多个光束的各个ToF,并且可以基于所获得的多个ToF来获得多个光束的各个距离(D)。可以基于多个D来生成基于ToF的深度图。
在步骤340中,可以基于由光束检测器120检测到的多个第二光束B2来获得由场景或物体150所变形的图案。多个检测到的第二光束B2中的用于获得失真图案的全部或至少一些光束可以被用来在步骤330中识别ToF。这样,可以将检测到的多个第二光束B2一起用于获得ToF和图案失真,从而允许以简化的方式获得基于ToF方案的深度图和基于SL方案的深度图。
可以通过对由光束检测器120(例如,2D相机)获得的场景150的多个图像进行积分来获得反射图案(即,场景或物体150所变形的图案)。在此,多个图像中的每一个可以对应于多个第二光束B2中的相应一个。
对多个图像积分可以包括对具有多个图像的相同坐标的像素的亮度求和或求平均。可以通过将获得的反射图案与原始图案进行比较来识别图案失真。可以基于图案失真获得离与图案的多个扇区中的每个扇区相对应的场景或物体150的距离。图案失真越小,被识别出的到场景或物体150的距离可以越大。因此,可以基于图案失真来生成深度图。基于图案失真的深度图也可以称为基于SL的深度图。
图14示出了根据实施例的用于基于SL获得到物体的距离的方法。
参照图14,从光束投射器的原点Op发射的光束B1在场景或物体的反射点R处被反射并且由光束检测器检测。在原始图案上的与光束B1相对应的位置P和由光束检测器检测到的图像上的与反射光束B2相对应的位置C可以在同一条极线上。到反射点R的距离D可以使用下面的式(3)获得。
D=(f×B)/d...(3)
在式(3)中,f是指光束检测器的2D相机的焦距,B是指光束投射器的原点Op与2D相机的原点Oc之间的基线的长度。“d”表示在原始图案上与光束B1相对应的位置P与在由光束检测器检测到的图像上与反射光束B2相对应的位置C之间的差。
当原始图案和反射图案设置为具有相同的分辨率时,d可以表示为原始图案上的与光束B1相对应的位置P的x坐标(Px)与反射图案上的对应于反射光束B2的位置C的x坐标(Cx)之间差。
可以通过对上述基于ToF创建的第一深度图和基于图案失真创建的第二深度图进行合并来生成例如在图3的步骤350中生成的深度图。第一深度图和第二深度图可以通过各种方法合并。
例如,第一深度图和第二深度可以通过加权和进行合并。随着对于每个像素到场景或物体150的距离的减小,可以将较低的权重分配给第一深度图的距离,并且将较高的权重分配给第二深度图。随着对于每个像素到场景或物体150的距离的增加,可以将较高的权重分配给第一深度图的距离,而将较低的权重分配给第二深度图。到场景或物体150以确定权重的距离可以由第一深度图的距离、第二深度图的距离、第一深度图和第二深度图的距离的平均值、或第一深度图和第二深度图的距离的加权和来确定。当通过合并基于ToF的深度图和基于图案失真的深度图而生成时,深度图可以减小误差,而不管其在短距离内还是长距离内。
根据实施例,可以通过使用下面的式(4)来获得合并的深度图。
Figure BDA0002950995850000111
在式(4)中,z(x,y)是指具有合并深度图的坐标(x,y)的像素处的深度。D1(x,y)是指具有通过SL方案生成的第二深度图的坐标(x,y)的像素处的深度。T1(x,y)是指具有通过ToF方案生成的第一深度图的坐标(x,y)的像素处的深度。σD(x,y)是指基于具有第二深度图的坐标(x,y)的像素的相邻像素的深度而获得的标准深度偏差。σD(x,y)是指基于具有第一深度图的坐标(x,y)的像素的相邻像素的深度而获得的标准深度偏差。
例如,可以使用基于马尔可夫随机场的超高分辨率技术来生成合并深度图。
合并第一深度图和第二深度图不限于上述方法,而是可以可选地采用其他各种已知方法、其变型或新开发的方法。
当第一深度图和第二深度图的分辨率不同时,可以在合并第一深度图和第二深度图之前执行使第一深度图的分辨率与第二深度图的分辨率进行匹配的过程。
可以在基于ToF和图案失真生成深度图之后,识别所生成的深度图的质量。
例如,当识别出的在图3中生成的深度图的质量比阈值差,可以使用与先前的图案不同的图案再次执行步骤310、320、330、340和350,并且可以重复这样的过程,直到深度图具有足够的质量,即等于或大于阈值。
用于重复过程的图案可以与先前的图案完全不同,或者可以使用先前的图案的修改(例如,通过修改全部或部分先前图案的分辨率而得到的图案,或者从先前的图案偏移的图案)。
如上所述,根据实施例,用于获得3D图像的方法和设备可以通过点对点光束投射和检测同时获得ToF和图案失真,这减轻了常规过程的计算负担。此外,点对点光束的投射和检测可以以简化的方式修改或改变用于投射光束的图案。
从前面的描述中显而易见,本公开的各种实施例至少具有以下效果:
可以在宽的深度范围内获得高质量的深度图。
可以提供一种用于以自适应可变的方式获得深度图的方法。
可以减少在生成高质量深度图时的计算负担。
虽然已经参考本公开的某些实施例具体示出和描述了本公开,但是本领域普通技术人员将理解,在不脱离所附权利要求及其等同形式所限定的本公开的精神和范围的情况下,可以在形式和细节上进行各种改变。

Claims (12)

1.一种由包括光束投射器和光束检测器的设备获得三维(3D)图像的方法,所述方法包括:
从所述光束投射器向物体顺序地投射多个光束,所述多个投射光束中的每一个投射光束对应于图案中包括的多个扇区中的相应扇区;
由所述光束检测器检测从所述物体反射的与所述多个投射光束相对应的多个光束;
基于所检测到的多个光束来识别所述多个投射光束中的每一个投射光束的飞行时间(ToF);
基于所检测到的多个光束来识别由所述物体引起的所述图案的失真;以及
基于所述图案的失真和所述多个投射光束中的每一个投射光束的ToF,生成所述物体的深度图,
其中,所检测到的多个光束通常用于识别所述ToF和所述图案的失真。
2.根据权利要求1所述的方法,其中,生成所述深度图包括:
基于所识别出的ToF生成第一深度图;
基于所识别出的所述图案的失真生成第二深度图;以及
基于所述第一深度图和所述第二深度图生成所述深度图。
3.根据权利要求1所述的方法,其中,识别所述图案的失真包括:
基于所检测到的多个光束获得所述物体的反射图案;
比较所述反射图案和所述图案;以及
基于所述比较的结果识别所述图案的失真。
4.根据权利要求1所述的方法,其中,所述多个扇区包括与第一分辨率相对应的第一扇区和与第二分辨率相对应的第二扇区,所述第二分辨率高于所述第一分辨率,
其中,与所述第一扇区相对应的第一光束是按照第一周期被投射的,与所述第二扇区相对应的第二光束是按照第二周期被投射的,并且
其中所述第二周期短于所述第一周期。
5.根据权利要求4所述的方法,其中,所述第二扇区对应于感兴趣区域(ROI)。
6.根据权利要求1所述的方法,其中,所述多个投射光束中的每一个波束是基于所述多个扇区中的相应扇区被调制的。
7.根据权利要求1所述的方法,其中,所检测到的多个波束是基于同步信号,与所述多个投射光束的顺序投射相同步地被检测到的。
8.根据权利要求7所述的方法,其中,所述多个扇区包括与第一分辨率相对应的第一扇区和与第二分辨率相对应的第二扇区,所述第二分辨率高于所述第一分辨率,
其中,当投射与所述第一扇区相对应的第一光束时,所述同步信号具有第一频率,当投射与所述第二扇区相对应的第二光束时,所述同步信号具有第二频率,并且
其中,所述第一频率低于所述第二频率。
9.根据权利要求1所述的方法,所述方法进一步包括:通过修改原始图案来生成所述图案,
其中,修改所述原始图案包括移位所述原始图案、修改所述原始图案的全部区域的分辨率、或修改所述原始图案的部分区域的分辨率中的至少一种。
10.根据权利要求1所述的方法,其中,所述多个扇区包括第一扇区和第二扇区,并且
其中,与所述第一扇区相对应地投射的第一光束和与所述第二扇区相对应地投射的第二光束被不同地调制。
11.一种用于获得3D图像的设备,所述设备包括:
光束投射器,所述光束投射器被配置为向物体顺序地投射多个光束,所述多个投射光束中的每一个投射光束对应于图案中包括的多个扇区中的相应扇区;
光束检测器,所述光束检测器被配置为检测从所述物体反射的与所述多个投射光束相对应的多个光束;以及
控制器,所述控制器被配置为:
基于所检测到的多个光束来识别所述多个投射光束中的每一个投射光束的飞行时间(ToF),
基于所检测到的多个光束来识别由所述物体引起的所述图案的失真,以及
基于所述图案的失真和所述多个投射光束中的每一个投射光束的ToF,生成所述物体的深度图,
其中,所检测到的多个光束通常用于识别所述ToF和所述图案的失真。
12.根据权利要求11所述的设备,其中,所述控制器被进一步配置为根据权利要求2至10中的方法之一来运行。
CN201980055955.8A 2018-08-31 2019-01-07 获取3d图像的方法和设备 Pending CN112655203A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2018-0103662 2018-08-31
KR20180103662 2018-08-31
KR10-2018-0112975 2018-09-20
KR1020180112975A KR102543027B1 (ko) 2018-08-31 2018-09-20 3차원 이미지를 획득하기 위한 방법 및 장치
PCT/KR2019/000221 WO2020045770A1 (en) 2018-08-31 2019-01-07 Method and device for obtaining 3d images

Publications (1)

Publication Number Publication Date
CN112655203A true CN112655203A (zh) 2021-04-13

Family

ID=69809996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980055955.8A Pending CN112655203A (zh) 2018-08-31 2019-01-07 获取3d图像的方法和设备

Country Status (3)

Country Link
EP (1) EP3799689A4 (zh)
KR (1) KR102543027B1 (zh)
CN (1) CN112655203A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023113700A1 (en) * 2021-12-17 2023-06-22 Ams Sensors Singapore Pte. Ltd. A method for generating a depth map
KR20240009275A (ko) * 2022-07-13 2024-01-22 삼성전자주식회사 객체의 깊이 정보를 획득하는 전자 장치 및 그 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086341A1 (en) * 2013-12-27 2016-03-24 Xerox Corporation System and method for adaptive depth map reconstruction
US20170068319A1 (en) * 2015-09-08 2017-03-09 Microvision, Inc. Mixed-Mode Depth Detection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2012154657A (ru) * 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
US10061028B2 (en) * 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
US9773155B2 (en) * 2014-10-14 2017-09-26 Microsoft Technology Licensing, Llc Depth from time of flight camera
US9858672B2 (en) * 2016-01-15 2018-01-02 Oculus Vr, Llc Depth mapping using structured light and time of flight
KR101733228B1 (ko) * 2016-04-28 2017-05-08 주식회사 메디트 구조광을 이용한 3차원 스캐닝 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086341A1 (en) * 2013-12-27 2016-03-24 Xerox Corporation System and method for adaptive depth map reconstruction
US20170068319A1 (en) * 2015-09-08 2017-03-09 Microvision, Inc. Mixed-Mode Depth Detection

Also Published As

Publication number Publication date
EP3799689A4 (en) 2021-08-25
KR20200026643A (ko) 2020-03-11
EP3799689A1 (en) 2021-04-07
KR102543027B1 (ko) 2023-06-14

Similar Documents

Publication Publication Date Title
US11115633B2 (en) Method and system for projector calibration
US10262230B1 (en) Object detection and identification
CN110913188B (zh) 从减少的测试图案集合生成更新的摄像头-投影仪对应关系的设备和方法
EP3154261B1 (en) System and method for online projector-camera calibration from one or more images
JP5632762B2 (ja) 測位情報形成装置、検出装置、及び測位情報形成方法
JP5395173B2 (ja) 走査された光線のオーバーレイ投影
US10872461B2 (en) Method and device for obtaining 3D images
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
US20120176478A1 (en) Forming range maps using periodic illumination patterns
CN109884793B (zh) 用于估计虚拟屏幕的参数的方法和设备
US20160330418A1 (en) Image projection device and adjustment method
JP6187671B2 (ja) 自己位置算出装置及び自己位置算出方法
US11803982B2 (en) Image processing device and three-dimensional measuring system
CN112655203A (zh) 获取3d图像的方法和设备
KR20150133591A (ko) 3차원 영상 획득 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP2020004085A (ja) 画像処理装置、画像処理方法及びプログラム
CN112513670B (zh) 测距仪、测距***、测距方法及程序
US20230162442A1 (en) Image processing apparatus, image processing method, and storage medium
JP2008021210A (ja) 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
CN114332341A (zh) 一种点云重建方法、装置及***
US11979661B1 (en) Method for performing light shaping with aid of adaptive projector, and associated apparatus
CN111373222A (zh) 光投射***
WO2022201848A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP4815881B2 (ja) 投影装置、位相差センサを用いた測距方法及びプログラム
TW202034024A (zh) 結構光校正系統

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination