CN105814875B - 选择用于立体成像的相机对 - Google Patents
选择用于立体成像的相机对 Download PDFInfo
- Publication number
- CN105814875B CN105814875B CN201480066749.4A CN201480066749A CN105814875B CN 105814875 B CN105814875 B CN 105814875B CN 201480066749 A CN201480066749 A CN 201480066749A CN 105814875 B CN105814875 B CN 105814875B
- Authority
- CN
- China
- Prior art keywords
- pair
- image
- image capture
- computing device
- stereoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
示例方法涉及:(a)确定到场景中的物体的距离的指示,其中,计算设备包括提供用于立体成像的两个或更多个基线的三个或更多个图像捕获设备,其中,三个或更多个图像捕获设备中的至少两对图像捕获设备可操作用于立体成像,其中,每对图像捕获设备提供基线之一,并且其中,基线中的第一基线与基线中的第二基线不平行;(b)通过计算设备从至少两对图像捕获设备中选择第一对,其中,所述第一对基于距离的指示和由第一对所提供的基线来选择;以及(c)对图像捕获设备中的第一对进行操作以捕获立体图像数据。
Description
背景技术
通常,成像可以指代以数字格式和/或胶片格式(例如,以照片和/或运动视频)来捕获和表现真实世界环境的色彩和亮度特性。存在大量的图像捕获设备,因此为消费者提供了用于捕获图像数据的多种方式。
随着诸如相机的图像捕获设备变得更加普及,这样的设备可以被用作单独的硬件设备,或者可以被集成到各种其他类型的设备中。例如,静态相机和视频相机现在常规地被包括在无线通信设备(例如,移动电话)、平板式计算机、膝上型计算机、视频游戏接口、家用自动化设备以及甚至汽车和其他类型的车辆中。
在立体成像(也被称为“3D成像”)中,彼此偏移的两个相机被用于同时地捕获一个场景的两个视角。两个镜头被偏移的距离可以被称为“基线(baseline)”或“轴间分离”。一些立体成像***具有与人眼之间的距离相似的基线。这样配置的立体成像***可以以与人眼察觉场景相似的方式来捕获场景。然而,出于各种原因,其他立体成像***可以利用比人眼之间的典型距离更长或更短的基线。
由一对偏移的相机所捕获的场景的图像对可以被称为“立体图像对”。立体图像对可以以各种方式来利用。具体地,立体图像对可以被组合以形成“可视立体图像”(也被称为“3D图像”)。当在立体显示器上观看并且可能利用立体查看器(例如,3D眼镜)的帮助时,人脑将这样的3D图像察觉为具有深度。
此外,立体图像对可以提供关于场景的深度信息。具体地,场景中物体之间的视差可以通过将场景的立体图像对中的单个图像进行比较来确定。在给定具体物体的视差和用于捕获立体图像对的立体成像***的已知基线的情况下,可以计算到物体的距离。
发明内容
示例实施例可以采取诸如移动电话的设备的形式,可以由诸如移动电话的设备实现,或者可以以其它方式与诸如移动电话的设备有关,上述设备包括被定向在相同的方向上并且以某一距离分离的三个或更多个相机***。在示例实施例中,不同的相机对可以提供不同的基线(即,相机对的镜头之间的不同距离)。适合于捕获立体图像对的特定基线可以依赖于被捕获的特定场景而变化;并且具体地,可以根据到被对焦的场景中的物体的距离而变化。因此,示例方法可以帮助通过下述方式来智能地选择用于立体成像的相机对:确定对特定场景适合的(并且可能是最优的)基线,然后选择提供所确定的基线(或者至少提供与期望的基线尽可能接近的基线)的相机对。
在一个方面中,一种用于图像捕获的示例方法涉及计算设备:(a)确定到场景中的物体的距离的指示,其中计算设备包括提供用于立体成像的两个或更多个基线的三个或更多个图像捕获设备,其中三个或更多个图像捕获设备中的至少两对图像捕获设备可操作用于立体成像,其中每对图像捕获设备提供基线之一,并且其中,基线中的第一基线与基线中的第二基线不平行;(b)从至少两对图像捕获设备中选择第一对,其中第一对基于距离的指示和由第一对所提供的基线来选择;以及(c)对图像捕获设备中的第一对进行操作以捕获立体图像数据。
在另一方面中,一种示例装置包括三个或更多个图像捕获***,其中图像捕获***的镜头均被布置在装置的第一表面上并且被定向在基本上相同的方向上,其中三个或更多个图像捕获***提供用于立体成像的两个或更多个基线,其中三个或更多个图像捕获设备中的至少两对图像捕获设备可操作用于立体成像,其中每对图像捕获设备提供基线之一,并且其中,基线中的第一基线与基线中的第二基线不平行。该装置进一步包括控制***,所述控制***被配置为:(a)确定到场景中的物体的距离的指示;(b)从至少两对图像捕获设备中选择第一对,其中第一对基于距离的指示和由第一对所提供的基线来选择;以及(c)对图像捕获设备中的第一对进行操作以捕获立体图像数据。
在又一方面中,一种用于图像捕获的方法涉及计算设备:(i)接收一个或多个立体图像对,其中每个立体图像对包括第一场景的两个图像,其中每个立体图像对由在同一计算设备上的三个或更多个图像捕获设备中的不同的图像捕获设备对所捕获,并且其中,三个或更多个图像捕获设备提供两个或更多个不同的基线;(ii)对于立体图像对中的一个或多个中的每一个,确定对中的图像之间的差异;(iii)选择第一场景的立体图像对中的至少一个,其中选择至少一个所选择的对至少部分基于(a)所确定的对中的图像之间的差异与(b)目标差异的比较;以及(iv)使用所选择的立体图像对作为用于生成与第一场景相对应的数据的基准。
在另一方面中,一种***包括:(a)用于确定到场景中的物体的距离的装置,其中计算设备包括提供用于立体成像的两个或更多个基线的三个或更多个图像捕获设备,其中三个或更多个图像捕获设备中的至少两对图像捕获设备可操作用于立体成像,其中每一对提供基线之一,并且其中,基线中的第一基线与基线中的第二基线不平行;(b)用于从至少两对图像捕获设备中选择第一对的装置,其中第一对基于距离的指示和由第一对所提供的基线来选择;以及(c)用于对图像捕获设备中的第一对进行操作以捕获立体图像数据的装置。
通过适当地参考附图来阅读下列详细描述,这些以及其他方面、优点和替换方案对于本领域普通技术人员来说将变得明显。此外,应当理解,在此发明内容部分和在此文档的其他部分中所提供的描述旨在通过示例的方式而不是通过限制的方式来示意所要求保护的主题。
附图说明
图1A描绘了根据示例实施例的数字相机设备的正视图、右侧视图和后视图。
图1B示出了根据示例实施例的、具有被定向为在相同的方向上的四个相机的布置的数字相机设备。
图1C示出了根据示例实施例的、具有被定向为在相同的方向上的四个相机的布置的另一数字相机设备。
图1D示出了根据示例实施例的、具有被定向为在相同的方向上的六个相机的布置的数字相机设备。
图1E示出了根据示例实施例的、具有多相机布置的另一数字相机设备。
图2是示出了可以包括相机组件的示例计算设备的一些组件的简化框图。
图3是图示了根据示例实施例的一方法的流程图。
图4A是图示了根据示例实施例的另一方法的流程图。
图4B是图示了根据示例实施例的另一方法的流程图。
具体实施方式
在这里描述了方法和***的示例。应当理解,词语“示例性”、“示例”和“示意性”在这里被用于意味着“用作示例、实例或示意”。在这里被描述为“示例性”、“示例”或“示意性”的任何实施例或特征不必被解释为相较于其他实施例或特征为优选的或有利的。此外,这里所描述的示例性实施例不意味着是限制性的。将容易理解,所公开的***和方法的特定方面可以按照各种不同的配置来布置和组合,所有这些在这里都设想到了。
I.概述
为了捕获立体图像对,彼此偏移并且被定向在基本上相同的方向上的两个相机可以被用于同时从不同视角来捕获同一场景的图像数据。在一些情况下,形成立体图像对的场景的单个图像也可以在不同的时间(即,非同时地)被捕获。场景的这样的偏移的图像中的一个或多个对可以被统称为“立体图像数据”。立体图像数据可以被处理,以便产生一个或多个人类可视立体图像,其在这里可以各自被称为“可视立体图像”或“3D图像”。额外地或可替换地,立体图像数据可以被分析,以提取关于场景的深度信息。具体地,场景中的物体或点可以基于场景的两个图像中物体或点之间的视差而被映射在三维(3D)坐标系中。
在立体成像的上下文中,依赖于产生的立体图像数据的期望用途,可以期望不同的基线。因此,示意性设备可以包括三个或更多个相机***(例如,作为单一相机的部分的三个或更多个镜头,或三个或更多个单独的相机),对于其,镜头被定位在基本上相同的方向上,并且因此,通过使用不同的相机对可以提供用于立体成像的多个基线。这样,示例实施例可以通过选择具有对于捕获场景所期望的基线的相机对来智能地调节用于特定场景的基线。相机对可以基于各种因素来选择,诸如正在被捕获的特定场景的特征和/或捕获立体图像数据的目的以及其他可能的因素。
作为示例,为了产生复制人眼如果在场景处将看到的可视立体图像,通常使用50mm到80mm之间的基线。然而,如果可视立体图像的意图的对象是远离的(例如,100英尺远的大型建筑物),则使用这样的基线通常将导致当立体图像数据被组合以产生可视立体图像时物体看起来是平的。因此,如果对象进一步远离,则更宽的基线可以导致其中对象具有更深的深度的可视立体图像。或者,在一些情形中,更宽的基线可以被选择以在从立体图像对所产生的立体图像中提供增加的深度。类似地,如果意图的对象非常接近镜头(例如,1-2英寸远),则50mm到80mm之间的“标准”基线可以导致具有不期望的视差的可视立体图像。因此,更窄的基线可以被用于这样的立体近距图像——其也可以被称为“微距立体”图像——使得从微距立体图像对生成的立体图像更容易观看。
此外,在一些应用中,可以选择不同的基线来例如通过与人眼所察觉的深度相比增大或降低产生的深度实现各种艺术效果。此外,在一些应用中,可以选择不同的基线来例如通过与人眼所察觉的深度相比增大或降低产生的深度实现各种艺术效果。例如,更宽或更窄的基线可以分别被选择,以便增加或减少两个图像之间的视差,其转而可以使得产生的立体图像中的深度分别更容易察觉(在远距离场景中),或更难以察觉(在微距场景中)。
在一些实施例中,示意性相机***可以被配置为针对图像自动确定到意图的对象的距离,并且基于到意图的对象的距离来选择用于捕获图像的一个适合的基线。各种技术可以被用于确定到对象的距离。例如,一旦对象被检测到,就可以使用自动对焦对对象进行对焦。产生的使得对象对焦的镜头位置可以指示到对象的距离(至少在某一范围内)。注意,如果不同的镜头被用于自动对焦,则产生的对焦设定可能需要被校准以考虑到被用于自动对焦的镜头与被用于成像的镜头之间的偏移。
可替换地,设备可以通过下述方式来开始确定用于立体成像的适合的相机对的过程:首先利用提供某一基线的一对相机来捕获立体图像,然后确定所捕获的个体图像之间的差异。注意,在包括意图的对象的图像帧的区域中,差异可以更大量地被加权。如果差异大于期望的差异,则设备可以反复地减小基线(例如,通过使用(一个或多个)不同的相机对)并且评估产生的图像数据,直到获得期望的个体图像之间的差异为止(或者直到差异在离期望的差异的某一阈值量内为止)。注意,这个用于确定适合的基线的方法不需要校准自动对焦,因此在缺乏此特征的相机中可能特别有用。
在又一方面中,相机对可以被选择以便提供帮助改进或简化确定用于场景的深度信息的过程的基线。例如,当针对场景创建深度图时,可能期望控制视差的量。更具体地,如果利用与典型的双眼间隔(即,类人眼的间隔)类似的基线来捕获远距离场景的立体图像对,则视差的量可以是小的,使得深度信息难以提取和/或不精确。另一方面,如果利用与典型的人类双眼间隔类似的基线来捕获近距(即,微距)场景的立体图像对,则立体图像对的视差可能太大;可能大到场景(或场景中的近距物体)的左图像和右图像不重叠的程度。这样的极端视差可能使得难以从立体图像对获得深度信息。
因此,示意性多相机***可以利用促进在场景的通常距离范围处获得深度信息的基线来动态地选择相机对。例如,针对在中间距离范围处的对象可以选择具有(例如,与典型的双眼间隔类似的)标准基线的相机对,针对近距场景可以选择具有相对较小的基线的相机对,以及针对远距离场景可以选择具有相对较大的基线的相机对。其他示例也是可能的。
II.示意性***
图像捕获设备的物理组件可以包括:光通过其进入的光圈;用于捕获由光所表示的图像的记录表面;以及被定位在光圈前面以将图像的至少一部分对焦(focus)在记录表面上的镜头。光圈可以是固定大小或者可调节。在模拟相机中,记录表面可以是摄影胶片。在数字相机中,记录表面可以包括电子图像传感器(例如,电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)传感器)以将所捕获的图像转移和/或存储在数据存储单元(例如,存储器)中。
快门可以耦接到镜头或记录表面,或者可以耦接在镜头或记录表面附近。快门可以处于关闭位置,在该位置中其阻挡光到达记录表面;或处于打开位置,在该位置中光被允许到达记录表面。快门的位置可以由快门按钮控制。例如,快门可以默认地处于关闭位置。当快门按钮被触发(例如,被按下)时,快门可以在称为快门周期的一时间段内从关闭位置改变到打开位置。在该快门周期期间,可在记录表面上捕获图像。在快门周期结束时,快门可改变回关闭位置。
可替换地,快门过程可以是电子的。例如,在CCD图像传感器的电子快门“打开”之前,传感器可以被重置以去除在其光电二极管中的任何残留信号。当电子快门保持打开时,光电二极管可以积累电荷。当快门关闭时或在快门关闭之后,这些电荷可以被转移到长期数据存储装置。机械快门和电子快门的组合也是可能的。
与类型无关,快门可以通过快门按钮之外的事物来激活和/或控制。例如,快门可以通过软键、定时器或某种其他触发器来激活。这里,术语“图像捕获”可以指代导致一个或多个照片被记录的任何机械和/或电子快门过程,而与如何触发或控制快门过程无关。
A.具有多图像捕获***的设备
如之前所指明的,数字相机可以是单独的设备或者可以与其他设备集成。作为示例,图1A图示了数字相机设备100的外形要素(factor)。数字相机设备100可以例如是移动电话、平板式计算机或可穿戴计算设备。然而,其他实施例是可能的。数字相机设备100可以包括各种元件,诸如主体102、前置相机104、多元件显示器106、快门按钮108以及其他按钮110。数字相机设备100可以进一步包括三个后置相机112A至112C。前置相机104可以被定位在主体102在操作中时通常面对用户的一侧上,或被定位在与多元件显示器106相同的那侧上。后置相机112A至112C可以被定位在主体102的与前置相机104相对的一侧上。将相机称为前置的和后置的是任意的,并且数字相机设备100可以包括被定位在主体102的各侧上的多个相机。
后置相机112A和112B的镜头被布置在数字相机设备100的背面的上部拐角上,而相机112C的镜头被布置在设备100的背面的下部拐角上、与相机112A相对。此外,后置相机112A至112C的镜头被定向在基本上相同的方向上。(注意,这里提及的相机被定向在相同的方向上应当被理解为意味着相机的镜头指向基本上相同的方向)。
应当理解,其他多相机布置是可能的。具体地,均被定向在基本上相同的方向上的三个或更多个相机的镜头可以被布置在电话的表面上的不同构成中。例如,这里关于图1B至图1E描述了若干其他多相机布置。
具体地,图1B示出了具有被定向在相同的方向上的四个相机122A至122D的布置的移动设备120,四个相机122A至122D包括在移动设备的上部拐角上的两个相机122A和122B(类似于图1A),和位于移动设备120的下部拐角处的两个额外的相机122C和122D。此外,图1C示出了具有被定向在相同方向上的四个相机的另一布置。具体地,图1C中的布置包括在设备140的每个拐角中的一个相机144A至144D。
又进一步地,图1D示出了具有面向相同方向的六个相机166A至166F的布置。在图1D中,六个相机166A至166F被以没那么结构化的“有组织的(organic)”布置放置在移动设备160的背面上。注意,具有三个或更多个相机的布置可以提供不同相机对之间的多个基线。例如,诸如图1D中所示的六相机布置可以例如针对立体成像来提供高达15个不同的基线。更一般地,被定向在基本上相同的方向上的n个相机的布置可以提供高达C(n,k)个基线。
在另一变型中,图1E示出了具有面向相同方向的九个相机182A至182I的布置。在图1E中,九个相机182A至182I被沿着两个轴184X和184Y放置在移动设备180的背面上。因此,可以从相机182A至182F中选择不同相机对以来提供沿着两个轴184X和184Y的多个不同的基线,以及多个不同的离轴基线。
要设想到,与图1A至图1E中所示的多相机布置相比,其他多相机布置可以包括更多或更少相机。另外,多相机布置中的镜头可以以关于在其上布置有镜头的表面不同的角度来定向。又进一步地,应当理解,多相机布置可以被实现在数字相机设备的另一侧上。关于在附图中所示的多相机布置的其他变型也是可能的。
多元件显示器106可以代表阴极射线管(CRT)显示器、发光二极管(LED)显示器、液晶显示器(LCD)、等离子体显示器或本领域中已知的任何其他类型的显示器。在一些实施例中,多元件显示器106可以显示由前置相机104和/或后置相机112A至112C中的一个、一些或所有正在捕获的当前图像、或者由这些相机中的任何一个或任何组合可捕获的或最近捕获的图像的数字表示。因此,多元件显示器106可以用作任一相机的取景器。多元件显示器106还可以支持触摸屏和/或存在敏感(presence-sensitive)功能,其可能够调节数字相机设备100的任何方面的设定和/或配置。
前置相机104可以包括图像传感器和诸如镜头的相关联的光学元件。前置相机104可以提供变焦能力或可以具有固定的焦距。在其他实施例中,可互换的镜头可以与前置相机104一起使用。前置相机104可以具有可变机械光圈以及机械和/或电子快门。前置相机104还可以被配置为捕获静态图像、视频图像或这两者。此外,前置相机104可以代表单视场的、立体的或多视场的相机。后置相机112A至112C可以被相似地或不同地布置。额外地,前置相机104、每个后置相机112A至112C或这些相机的任何组合可以实际上是一个或多个相机的阵列(或将光引导到公共图像传感器上的镜头的阵列)。
前置相机104和后置相机112A至112C中的任何一个或任何组合可以包括照明组件或与照明组件相关联,该照明组件提供光场以照亮目标物体。例如,照明组件可以提供对目标物体的闪光或恒定照明。照明组件还可以被配置为提供包括结构光、偏振光以及具有特定光谱内容的光中的一个或多个的光场。在这里的实施例的上下文中,已知的并且被用于从物体恢复三维(3D)模型的其他类型的光场是可能的。
前置相机104和后置相机112A至112C中的任何一个或任何组合可以包括环境光传感器或与环境光传感器相关联,该环境光传感器可以连续地或者间或地确定相机可以捕获的场景的环境亮度。在一些设备中,环境光传感器可以被用于调节与相机相关联的屏幕(例如,取景器)的显示亮度。当所确定的环境亮度高时,屏幕的亮度等级可以被增加以使得屏幕更容易查看。当所确定的环境亮度低时,屏幕的亮度等级可以被降低以同样使得屏幕更容易查看以及潜在地节省电力。额外地,环境光传感器的输入可以被用于确定相关联的相机的曝光设定,或在此确定中有所帮助。
数字相机设备100可以被配置为使用多元件显示器106和前置相机104或后置相机112A至112C中的一个、一些或所有来捕获目标物体的图像。所捕获的图像可以是多个静态图像或视频流。图像捕获可以通过激活快门按钮108、按下多元件显示器106上的软键或通过一些其他机制来触发。依赖于实现方式,图像可以以特定的时间间隔,例如在按下快门按钮108时、在目标物体的适合的光照条件时、在将数字相机设备100移动预定距离时或者根据预定捕获安排,而被自动捕获。
B.示意性设备组件
如以上所指明的,数字相机设备100——或另外类型的数字相机——的功能可以集成到计算设备中,或可以采取计算设备的形式,诸如移动电话、平板式计算机、膝上型计算机等。出于示例的目的,图2是示出可以包括相机组件224的示例计算设备200的一些组件的简化框图。相机组件224可以包括多个相机,诸如相机112A至112C。
通过示例而非限制的方式,计算设备200可以是蜂窝移动电话(例如,智能电话)、静态相机、视频相机、传真机、计算机(诸如桌面型、笔记本型、平板式或手持式计算机)、个人数字助理(PDA)、家用自动组件、数字视频记录器(DVR)、数字电视机、遥控、可穿戴计算设备或配备有至少一些图像捕获和/或图像处理能力的某种其他类型的设备。应当理解,计算设备200可以代表诸如数字相机的物理相机设备、在其上相机应用以软件进行操作的特定物理硬件平台、或者被配置为执行相机功能的硬件或软件的其他组合。
如图2中所示,计算设备200可以包括通信接口202、用户接口204、处理器206、数据存储装置208以及相机组件224,所有这些可以通过***总线、网络或其他连接机制210可通信地链接在一起。
通信接口202可以运作为允许计算设备200使用模拟或数字调制来与其他设备、接入网络和/或传输网络进行通信。因此,通信接口202可以促进电路交换和/或分组交换通信,诸如普通老式电话服务(POTS)通信和/或因特网协议(IP)或其他分组化通信。例如,通信接口202可以包括针对与无线电接入网络或接入点的无线通信所布置的芯片集和天线。另外,通信接口202可以采取线缆(wireline)接口的形式或包括线缆接口,线缆接口诸如以太网、通用串行总线(USB)或高清晰度多媒体接口(HDMI)端口。通信接口202还可以采取无线接口的形式或包括无线接口,无线接口诸如Wifi、、全球定位***(GPS)或广域无线接口(例如,WiMAX或3GPP长期演进(LTE))。然而,其他形式的物理层接口和其他类型的标准或专有通信协议可以被用于通信接口202上。此外,通信接口202可以包括多个物理通信接口(例如,Wifi接口、接口和广域无线接口)。
用户接口204可以运作为允许计算设备200与人类或非人类用户交互,诸如接收来自用户的输入并且向用户提供输出。因此,用户接口204可以包括输入组件,诸如键区、键盘、触摸敏感或存在敏感面板、计算机鼠标、轨迹球、操纵杆、麦克风等。用户接口204还可以包括一个或多个输出组件,诸如例如可以与存在敏感面板组合的显示屏。显示屏可以基于CRT、LCD和/或LED技术,或者现在已知的或稍后发展的其他技术。用户接口204还可以被配置为经由扬声器、扬声器插口、音频输出端口、音频输出设备、耳机和/或其他类似的设备来生成(一个或多个)听觉输出。
在一些实施例中,用户接口204可以包括用作由计算设备200所支持的静态相机和/或视频相机功能的取景器的显示器。额外地,用户接口204可以包括一个或多个按钮、开关、旋钮和/或拨盘,它们促进相机功能的配置和对焦以及图像的捕获(例如,捕获图片)。这些按钮、开关、旋钮和/或拨盘中的一些或所有可能会被实现为存在敏感面板上的功能。
处理器206可以包括一个或多个通用处理器——例如,微处理器——和/或一个或多个专用处理器——例如,数字信号处理器(DSP)、图形处理单元(GPU)、浮点单元(FPU)、网络处理器或应用特定集成电路(ASIC)。在一些实例中,专用处理器可能够进行图像处理、图像对准以及合并图像等等。数据存储装置208可以包括一个或多个易失性和/或非易失性存储组件,诸如磁、光、闪存或有机存储装置,并且可以整体地或部分地与处理器206集成。数据存储装置208可以包括可移除和/或不可移除组件。
处理器206可能够执行在数据存储装置208中所存储的程序指令218(例如,编译的或未编译的程序逻辑和/或机器代码)以执行这里所描述的各种功能。因此,数据存储装置208可以包括具有存储在其上的程序指令的非暂态计算机可读介质,该程序指令当被计算设备200执行时,使得计算设备200执行在本说明书和/或附图中所公开的方法、过程或功能中的任一个。由处理器206进行的程序指令218的执行可以导致处理器206使用数据212。
通过示例的方式,程序指令218可以包括安装在计算设备200上的操作***222(例如,操作***核心、(一个或多个)设备驱动器和/或其他模块)以及一个或多个应用程序220(例如,相机功能、地址簿、电子邮件、web浏览、社交网络和/或游戏应用)。类似地,数据212可以包括操作***数据216和应用数据214。操作***数据216可以主要对于操作***222是可访问的,并且应用数据214可以主要对于应用程序220中的一个或多个是可访问的。应用数据214可以被布置在对于计算设备200的用户可见或隐藏的文件***中。
应用程序220可以通过一个或多个应用编程接口(API)与操作***222通信。例如,这些API可以促进应用程序220读取和/或写入应用数据214、经由通信接口202发送或接收信息、接收和/或在用户接口204上显示信息等等。
在一些行话中,应用程序220可以被简称为“app”。额外地,应用程序220可以对于计算设备200是通过一个或多个在线应用商店或应用市场可下载的。然而,应用程序还可以以其他方式被安装到计算设备200上,诸如经由web浏览器或通过计算设备200上的物理接口(例如,USB端口)。
相机组件224可以包括但不限于光圈、快门、记录表面(例如,摄影胶片和/或图像传感器)、镜头和/或快门按钮。相机组件224可以至少部分地被由处理器206所执行的软件控制。此外,相机组件224可以包括多个相机***,其各自包括光圈、快门、记录表面、镜头、图像传感器、处理器和/或快门按钮。
当多个相机***被包括时,可能存在一些在***之间共享的组件,以及不共享的其他组件。例如,每个相机可以包括其自身的光圈、镜头和图像传感器而同时共享诸如处理器和快门按钮的其他组件。作为另一示例,每个相机可以包括其自身的镜头,但是共享同一图像传感器。可替换地,每个相机***的组件可以仅针对该相机***而被利用,并且不与其他相机***共享。
C.数字图像
每当图像捕获被触发时,静态相机都可以捕获一个或多个图像。视频相机可以以特定的速率(例如,24个图像——或帧——每秒)来捕获图像,只要图像捕获保持被触发(例如,当快门按钮被保持按下时)即可。一些数字静态相机可以在相机设备或应用被激活时打开快门,并且快门可以保持在该位置直到相机设备或应用被去激活为止。当快门打开时,相机设备或应用可以捕获场景的表示并且将其显示在取景器上。当图像捕获被触发时,当前场景的一个或多个区别的数字图像可以被捕获。注意,示例实施例可以利用具有电子快门和/或机械快门的相机。
被捕获的数字图像可以被表示为一维、二维或多维的像素阵列。可以通过可对相应的像素的颜色和/或亮度进行编码的一个或多个值来表示每个像素。例如,一个可能的编码使用YCbCr颜色模型(其也可以被称为YUV颜色模型)。在此颜色模型中,Y颜色通道可以表示像素的亮度,并且Cb(U)和Cr(V)颜色通道可以分别表示像素的蓝色色度和红色色度。例如,这些颜色通道中的每一个可以取0-255的值(例如,单个8位字节可以提供的色调范围)。因此,如果像素为黑色或接近黑色,则像素的亮度可以通过0或接近于0的值来表示,并且如果像素为白色或接近白色,则像素的亮度可以通过255或接近255的值来表示。然而,255的值是非限制性的参考点,并且一些实现方式对于像素值表示可以使用不同数量的位(例如,10、12等)。
但是,YCbCr颜色模型仅为一个可能的颜色模型,并且诸如红-绿-蓝(RGB)颜色模型或青-品红-黄-黑(cyan-magenta-yellow-key,CMYK)的其他颜色模型也可以与这里的实施例一起采用。此外,图像中的像素可以以各种文件格式表示,包括原始(未压缩)格式或压缩的格式,诸如联合图像专家组(JPEG)、便携网络图形(PNG)、图形互换格式(GIF)等。
D.自动对焦
通常,自动对焦(AF)***可以包括某一种类的传感器、自动地确定对焦设定的控制***以及根据对焦设定来调节相机的机械组件(例如,镜头)的致动器。由传感器所提供的数据可以被用于评估图像传感器记录或将记录环境的方式,并且被用于响应地控制可以改变相机的对焦的机电***(例如,通过使用致动器来移动镜头的组件和/或改变光圈的大小)。各种类型的自动对焦技术可以由诸如数字相机设备100的图像捕获设备利用。
许多消费者相机包括无源(passive)自动对焦***,该无源自动对焦***通过无源地分析进入光学***的图像来将镜头对焦在对象上(例如,其不将被控制的光束引导到对象上以便进行对焦)。典型的无源自动对焦技术包括“相位检测”自动对焦(PD-AF)和“对比度检测”自动对焦(CD-AF),其也可以被称为“对比度测量”自动对焦。
无源自动对焦过程典型地涉及计算***(例如,处理器)对机械镜头***进行操作以调节镜头的对焦设定(例如,改变对焦距离或景深),然后分析从自动对焦传感器所产生的图像是否对焦。如果产生的图像未被满意地对焦,则计算***再次调节对焦设定并且评估产生的图像中的对焦特性。在一些实现方式中,对于对焦设定的每次调节可以基于图像如何失焦(或图像的特定部分如何失焦)的一些测度来确定。在一些其他实现方式中,调节可以是预定的。在任一情况下,可以重复该过程直到产生的图像被视为被满意地对焦为止。
如以上所指明的,诸如DSLR的一些相机可以包括专用自动对焦***,其可以包括一个或多个自动对焦专用的传感器。这样的相机通常不使用被用于捕获图像的图像传感器来用于自动对焦的目的。此外,这样的相机通常包括PD-AF***,在该***中,通过镜头所接收到的光被分割为一对图像。然后,该对中的两个图像可以被引导到自动对焦传感器上并且被分析以确定镜头是否对焦。然后,镜头的对焦位置可以被调节直到检测到合适的对焦为止。
一个常用***的PD-AF***是通过镜头(through-the-lens)的辅助图像配准相位检测(second-image registration,phase detection,SIR PD-AF)***。SIR PD-AF***利用束分割器来将入射光引导朝向自动对焦传感器。更具体地,位于镜头的相对侧的微镜头可以将来自于源自镜头的相对侧的光引导朝向自动对焦传感器,这可以有效地创建测距仪,其中,两个图像被投影到自动对焦传感器上。然后,由两个微镜头所形成的图像被比较以确定分离误差,该分离误差被评估以确定镜头是否被正确对焦。如果分离误差指示对象失焦(例如,如果分离误差不为零或者不在离零的某一阈值内),则对于对焦的调节可以基于该分离误差来计算,并且镜头可以根据所调节的设定来移动(例如,通过将镜头组件或镜头元件更接近或更远离传感器地移动)。
当在设备设计中,组件的大小和/或成本是显著的时,该设备可以利用不包括单独的自动对焦***的相机***。对于许多移动电话和/或平板式计算机是这样的情况,这些移动电话和/或平板式计算机经常包括对于自动对焦和图像捕获两者使用同一图像传感器的相机***。在许多情况下,诸如移动电话和平板式设备的便携式设备中的相机使用CD-AF用于对焦的目的。
虽然CD-AF***可以使用对于自动对焦专用的单独的传感器,但是大多数CD-AF***对于图像捕获和自动对焦两者使用同一图像传感器。CD-AF***通过测量在传感器上所检测的图像中的对比度来确定对象是否对焦。为了这样做,CD-AF***可以在图像中的各个点评估对比度的改变,其中对比度越高被解释为图像越清晰的指示。
更具体地,与图像对象失焦时相比,当所捕获的对象在相邻像素中对焦时,传感器的相邻像素之间的强度的差异通常较大。此外,CD-AF***可以测量特定像素处的对比度,或确定在特定像素组上的平均。在任一情况下,CD-AF***然后可以调节对焦设定直到检测到阈值对比度为止(并且可能直到检测到最大对比度为止)。例如,示意性CD-AF***可以使图像数据通过高通滤波器,并且调节镜头的对焦直到来自滤波器的输出超过阈值为止(并且可能直到滤波器的输出在其最高水平处为止)。
此外,用于场景的对焦设定可以被定义为或以其它方式指示镜头的对焦元件与传感器(例如,对焦位置)之间的距离,该距离产生了合适的对焦。此外,对焦位置典型地与到被对焦的场景的对象或区域的距离成比例(或至少为其函数)。这里要注意,镜头与特定的对象或物体之间的距离可以被称为“物体距离”。这样,设备上的计算***可以基于对焦位置来确定物体距离。
在示意性实施例中,诸如在图1A至图1E中所示的那些的多相机设备可以使用其相机中的一个来执行自动对焦过程,以实现对于场景的合适对焦。然后,设备可以使用实现合适对焦的对焦位置来针对该场景确定物体距离。然后,物体距离可以被用于确定用于捕获场景的立体图像数据的期望的基线。因此,设备可以根据期望的基线来选择其相机对中的一个。例如,在一些实现方式中,设备可以选择具有与期望的基线最接近的基线的相机对。在其他实现方式中,设备可以选择下述相机对:该相机对具有与期望基线可接受地接近(但是可能不是最接近)的基线并且还满足其他选择准则。在任何情况下,设备然后可以对所选择的相机对进行操作以捕获场景的立体图像数据。
III.用于选择立体成像的相机对的示意性方法
图3是图示了根据示例实施例的用于立体成像的方法300的流程图。方法300可以由包括三个或更多个被定向在相同方向上的相机的设备来实现,其中,每个相机与其他相机分离某一距离,诸如图1A至图1E中所示的设备。这样的设备可以包括三个或更多个图像捕获设备(例如,三个或更多个相机),它们提供用于立体成像的两个或更多个基线。这样,方法300可以被实现以便动态地选择具有适合于捕获特定场景的基线的、用于立体成像的相机对。
如方框302所示的,方法300涉及计算设备确定到场景中的至少一个物体的距离的指示。然后,计算设备可以基于距离的指示和由所选择的图像捕获设备的对提供的基线来从两个或更多个可能的对中选择该图像捕获设备的对,如方框304所示。然后,计算设备可以对所选择的图像捕获设备的对进行操作,以捕获立体图像数据,如方框306所示。
在示例实施例中,方法300在下述设备上执行:在该设备中,由其图像捕获设备提供的基线中的第一基线与基线中的第二基线不平行。更具体地,该设备上的至少三个相机具有非线性布置,从而提供彼此不平行的至少两个基线。
A.确定距离的指示
在方框302处,为了确定到对象的距离的指示,计算设备可以确定使得对象对焦的至少一个对焦设定。具体地,对焦设定可以是当场景被确定为适当地对焦时镜头的对焦位置;但是可以使用其他类型的对焦设定。
因为使得物体对焦的对焦位置可能与到物体的距离成反比例,或以其它方式与到物体的距离在数学上相关,所以处于对焦的对焦位置可以实际上用作到一个或多个物体的距离的指示,即使对焦位置不是到物体的实际距离的测度也如此。可替换地,到物体的实际距离可以基于对焦的对焦位置来确定。然后,到物体的实际距离可以被用作选择用于立体成像的相机对的基准。
其他技术和/或***也可以被用来确定用于场景的距离(或到场景中的特定的一个或多个物体的距离)的指示。例如,设备可以包括低分辨率深度传感器,其使用飞行时间或结构光技术来确定深度信息。用于确定深度信息的其他技术和/或***也是可能的。
B.从多个相机对中选择相机对
在方框304处,为了选择图像捕获设备中的特定对,计算设备可以使用对焦设定到基线(focus-setting-to-baseline)的数据库来确定具有与所确定的对焦设定相对应的基线的相机对。这样的对焦设定到基线的数据库可以将对焦位置范围映射到特定的基线。
例如,物体距离可以被分为三组,诸如近距离(例如,用于微距成像)、远距离(例如,用于远摄成像)以及包含在近距离与远距离之间的物体距离的中等距离。此外,可以确定与每个物体距离范围相对应的对焦位置的范围。这样,对焦设定到基线的数据库可以将与每个物体距离范围相对应的对焦位置的范围映射到对于每个物体距离范围所期望的基线。然后,计算设备可以选择对应于期望的基线的图像捕获设备的对(例如,提供与期望的基线最接近地匹配的基线的对)。
对焦设定到各种基线的映射可以针对特定的目的来设计,诸如目的为促进从立体图像对来创建3D图像。例如,如果使用“人类”基线(例如,50mm到80mm之间)来捕获立体图像对,则在产生的3D图像中描绘的深度可以导致人脑将场景解释为被以与其在真实世界中相同的方式来确定大小(sized)。然而,为了提供其中所描绘的深度使得场景(或其一部分)看起来小于实际的真实世界大小的可视立体图像,则基础立体图像数据可以采用较宽的基线(例如,大于80mm)来捕获。相反,为了提供其中所描绘的深度使得场景(或其一部分)看起来小于实际的真实世界大小的可视立体图像,则基础立体图像数据可以采用较窄的基线来捕获。
在一些实施例中,设备可以利用焦距设定到距离的数据库来代替使用对焦设定到基线的数据库。具体地,设备可以包括或能够访问对焦设定到距离的映射,该映射指示与特定的对焦设定相关联的特定的距离或距离范围。因此,设备可以使用对焦设定到距离的映射来确定用于场景的距离的指示(例如,平均距离或中值距离)和/或确定到场景的特定的(一个或多个)物体或(一个或多个)部分的(一个或多个)距离。然后,在给定用于场景的距离信息的情况下,设备可以使用距离到基线的模型来确定具有采用其来捕获场景的最期望的一个或多个基线的一个或多个相机对。
在一些实施例中,在方框304处,为了选择图像捕获设备的特定对,计算设备可以使用对焦设定到相机对的映射,其将对焦位置范围直接映射到特定相机对。这样的对焦设定到相机对的映射可以允许以比当使用对焦设定到基线的映射时甚至更加直接的方式来选择相机对。具体地,相机对可以被映射到特定的对焦位置,使得利用其来捕获不同距离处的物体的合适基线被构建到对焦设定到相机对的映射中。
在一些实施例中,计算设备可以进一步使对相机对的选择基于关于地面的设备的定向(或特定相机对的定向)。更具体地,当相机对选择的目的是捕获可以从其生成可视3D图像的立体图像时,可能期望选择具有位于与地面平行的平面中的基线的两个相机,或者具有至少尽可能地接近于与地面平行的平面的基线的两个相机。因此,在方框304处,计算设备可以将从其选择相机对的相机对的集合限制为仅具有在与地面平行的平面中的基线的那些相机对或具有在与从与地面平行的平面起的某一可容忍角度内的平面中的基线的那些相机对。
此外,注意在诸如移动电话的设备中,足够接近于与地面平行的对的集合可以依赖于设备如何被握持而变化。考虑到这点,设备上的相机镜头的布局可以针对常见的手持定向而设计,诸如设备的水平定向和垂直定向。设备上的相机镜头的布局可以针对其他更多的创造性用途来设计,诸如涉及关于地面斜线地握持相机的握持这些。例如,参考图1E,当与地面斜线地以不同的角度握持相机时,包括来自轴184X的一个相机(例如,相机182A至182D中的一个相机)和来自轴184Y的一个相机(例如,相机182F至182I中的一个相机)的不同的相机对可以与地面平行。
例如,图1E中的相机182A至182I的布置可以提供用于设备180的垂直定向和水平定向两者的多个不同的基线。具体地,如果以水平位置(与图1E中所示的位置垂直)握持设备180,则由沿着轴184Y摆放的相机182A至182I的不同的组合所提供的基线将基本上与地面平行。这样,当设备180被水平地握持时,基线可以从由相机182A至182E所提供的基线的集合中选择。另一方面,如果以垂直位置握持设备180,则由沿着轴184X所摆放的相机182A至182I的不同组合所提供的基线将基本上与地面平行。这样,当设备180被垂直地握持时,基线可以从由相机182E至182I所提供的基线的集合中选择。其他示例也是可能的。
C.确定期望的基线
在一些情况下,用于立体成像的期望的基线可以依赖于使用立体图像数据的目的而变化。因此,诸如方法300的示例方法可以进一步涉及基于对焦设定和/或其他因素(而非使用简单的对焦设定到基线的映射)来动态地确定用于特定场景的期望的基线。
在一些情况下,用于给定的场景的期望的基线可以根据立体图像捕获的目的而变化。例如,当立体图像对被捕获以创建可视立体图像时,则计算设备可以确定期望的基线以使得产生的立体图像对可以被组合成具有某些期望的特性的可视立体图像对。作为示例,考虑到当可视立体图像从利用“人类”基线(例如,50mm到80mm之间)所捕获的图形对生成时,脑部将立体图像解释为其原始大小。因此,方法300被实现为促进创建精确地描绘场景的深度的可视立体图像,如同其对实际处于该场景中的人所看起来的那样,然后设备可以将期望的基线确定为“人类”基线。
然而,存在下述时刻:可能期望可视立体图像呈现场景,使得该场景被察觉为与观察实际场景的情况不同。例如,当捕获立体图像对以创建近距或微距立体图像时,可能期望通过使用较窄的基线来捕获立体图像对以可察觉地“放大”场景。换言之,当使用较窄的基线(例如,小于50mm)捕获立体图像对时,从其所生成的可视立体图像将被察觉为与人眼在立体图像对被捕获的位置处所观看到的情况相比具有更小的深度(例如,物体之间更小的距离)。另一方面,当捕获具有一个或多个远距离的对象(例如,山脉或城市天际线)的场景时,可能期望通过使用较宽的基线来捕获立体图像对以可察觉地“缩小”场景。换言之,当使用较宽的基线(例如,大于80mm)来捕获立体图像对时,从其所生成的可视立体图像将被察觉为与人眼在立体图像对被捕获的位置处所观看的情况相比具有更大的深度(例如,物体之间更大的距离)。
在又一方面中,如果立体成像被执行以便确定用于特定场景的深度信息,则计算设备可以确定促进从特定场景的立体图像对中提取深度信息的一个或多个期望的基线。例如,如果立体图像对被捕获以生成场景的精确深度图;则当可以控制视差的量时,深度图可以被更加精确地确定(并且可能被更加有效地实现)。更具体地,在远距离的场景中,类人眼基线可能不足以看到很多的视差,并且在非常近的场景中,视差可能过多(例如,在极端场景中,使得左“眼”和右“眼”看到完全不同的物体)。通过动态地选择基线(例如,对于接近的场景选择较窄的,而对于远处的场景选择较宽的),设备可以在感官上“标准化”场景的距离,从而导致更好的深度信息。
注意,在多个应用中改进的深度信息会是有用的。例如,改进的深度信息可以被用于重对焦技术(例如,模拟窄景深,或改变焦平面的深度),以从移位的视点来产生新的图像,改进对场景的由深度辅助的分割(segmentation),应用雾化效果,提取表面法线,相对于表面颜色来区分光照和/或生成飞越场景的3D模拟,以及其他可能性。
又进一步地,如果所选择的立体图像对被用于创建可视立体图像和确定深度信息两者,则计算设备可以基于用于这两个目的的期望的差异来确定目标差异。注意,这些用于从某一相机对中选择图像数据的原因并不互相排斥。具体地,立体图像对可以被选择为促进可视立体图像的创建和用于场景的深度信息的生成两者。在其他情况下,针对两个目的来选择立体图像对的过程可以并行地运行,并且针对每个目的可以选择不同的立体图像对。
IV.用于测试用于立体成像的多个相机对的方法
图4A是图示了根据示例实施例的用于图像捕获的方法400的流程图。具体地,方法400可以由下述设备实现:该设备包括被定向在相同方向上并且彼此分离开一些距离的三个或更多个相机,使得三个或更多个相机提供用于立体成像的两个或更多个不同的基线。这样的设备可以实现方法400,以便从使用不同基线所捕获的图像对中动态选择图像对。
具体地,方法400涉及计算设备接收一个或多个立体图像对,其中,每个立体图像对包括第一场景的两个图像,并且其中,每个立体图像对被在同一计算设备上的三个或更多个图像捕获设备当中的不同的图像捕获设备的对所捕获,如方框402所示。注意,执行方法400的方框402和/或其他部分的计算设备可以是包括三个或更多个图像捕获设备的同一计算设备(例如,移动电话),或可以是不同的计算设备(例如,与捕获图像数据的移动设备通信的云服务器)。
计算设备可以针对立体图像对中的一个或多个中的每一个来确定立体图像对中的两个图像之间的差异,如方框404所示。然后,计算设备可以至少部分地基于(a)所确定的立体图像对中的两个图像之间的差异与(b)目标差异的比较来选择立体图像对中的至少一个,如方框406所示。然后,计算设备可以使用所选择的立体图像对作为用于生成与第一场景相对应的数据的基准,如方框408所示。
注意,依赖于情境,存在可能使得使用一个方法或另一方法更有利的方法300与方法400之间的差异。例如,因为方法300使用对焦设定来确定用于捕获场景的期望的基线,所以方法300可以在立体图像对被实际捕获之前被执行。另一方面,方法400评估已使用不同的基线捕获的实际立体图像对。这样,方法400可能需要在设备找到具有满意的差异的立体图像对之前捕获多于一个立体图像对。然而,方法400可能够选择相机对并且生成期望的立体图像对,而不利用自动对焦功能。此外,方法400可允许在单个帧中选择相机对,而传统的基于AF的技术可能并不允许这样。另一方面,方法300可被用于在捕获任何立体图像对之前确定用于立体成像的适当的相机对,从而可能更加有效,只要设备包括恰当的自动对焦功能即可(否则,方法400可能更适合设备)。
在又一方面中,在设备包括三个或更多个相机的情境中,一个相机可以被指定为主要相机。然后,在主要相机在记录场景的视频的同时,两个或更多个其他相机可以使用示例性方法,诸如方法300或方法400(或可能使用其部分),来确定用于场景的深度信息。然后,深度信息可以被用于用于主要相机的自动对焦过程,该自动对焦过程在记录期间调节主要相机的对焦设定一次或多次,使得在记录视频的同时由第一相机进行的对焦搜寻被消除或减少。
A.对由多个相机对捕获的立体图像对的并发评估
在一些实施例中,在方框402和方框404处,计算设备可以在于方框406处选择图像对中的一个之前,接收两个或更多个立体图像对并且针对两个或更多个立体图像对评估相应的差异。例如,设备可以利用各自提供不同基线的两个或更多个相机对,来捕获两个或更多个立体图像对。两个或更多个立体图像对均可以在方框402处被接收到。然后,在方框404处,计算设备可以针对立体图像对中的全部来确定相应的差异。并且,在方框406处,计算设备可以选择下述立体图像对:对于该立体图像对相应地确定的差异相较于目标差异变动最小。
在这样的实施例中,计算设备可以并行地针对多个立体图像对(并且可能针对所有立体图像对)确定并比较相应的差异。可替换地,计算设备可以一次针对一个立体图像对来确定并比较差异,直到其针对所有立体图像对确定相应的差异为止,在如下程度处设备可以选择立体图像对:对于该立体图像对相应地确定的差异相较于目标差异变动最少。
B.依次地评估由一个相机对所捕获的立体图像对
在一些实施例中,在方框402至方框406处,计算设备可以一次针对一个图像对来迭代地评估差异,并且选择对于其所确定的差异满足某一准则的第一对。例如,图4B是图示了根据示例实施例的用于选择立体图像对的方法450的流程图。方法450可以在方法400的方框402至方框406处实现,以便一次一个图像对地针对利用不同基线所捕获的图像对迭代地评估图像对差异,并且选择被视为可接受的第一图像对。
更具体地,如方框452所示,计算设备可以接收给定立体图像对。然后,计算设备可以确定给定立体图像对中的两个图像之间的差异,如方框453所示。然后,计算设备可以确定给定立体图像对中的图像之间的差异是否相较于目标差异变动小于一阈值,如方框454所示。如果给定立体图像对中的图像之间的差异相较于目标差异变动小于阈值,则计算设备选择该给定立体图像对,如方框456所示。否则,计算设备可以接收提供不同基线的另一立体图像对,如方框458所示。然后,计算设备可以对于一个或多个其他立体图像对重复方框453和方框456,直到立体图像对中的一个被确定为具有相较于目标差异变动小于阈值的差异并且在方框456处被选择为止。
在示意性实施例中,计算设备可以对第一相机对进行操作以捕获在方框452处所接收的第一立体图像对。然后,如果针对第一图像对的差异不是满意的,则计算设备可以选择具有与任何之前所利用的相机对不同的基线的不同的相机对来捕获要评估的下一立体图像对。因此,计算设备可以在方法450的每个迭代期间利用具有不同基线的相机对。
C.确定图像对中的两个图像之间的差异
在方框404处,各种技术可以被利用以确定给定立体图像对中的两个图像之间的差异。在一些实施例中,计算设备可以计算整个场景上的差异。在其他实施例中,计算设备可以仅使用场景中的特定目标区域(例如,被确定为包括感兴趣的对象的区域)来计算差异,或当计算用于场景的差异时可以对这样的目标区域施加更大的权重。例如,更大的权重可以被施加在场景的中心区域、其中检测到表面是感兴趣的其他物体的区域或者用户已手动识别的区域以及其他可能性。
在一些情况下,确定两个图像之间的差异可以涉及针对图像帧中的每个像素来确定一个图像中的像素值减去另一图像中的相应像素值的绝对值。然后,差异可以通过对绝对像素差异进行加和来确定。此外,在一些情况下,计算两个图像之间或两个图像的对应部分之间的差异可以涉及使用用于确定视差的各种已知技术中的一种或多种来确定两个图像之间的视差。
D.使用所选择的立体图像对来生成用于第一场景的数据
在方框408处,计算设备可以生成与场景相对应的各种类型的数据,并且可以使用各种技术来这样做。例如,计算设备可以对所选择的立体图像对进行组合以创建可视立体图像。额外地或可替换地,计算设备可以分析立体图像对,以确定用于场景的深度信息。在一些实施例中,计算设备还可进行到远到构建针对在立体图像对中所捕获的整个场景的深度图。
E.确定目标差异
注意,立体图像对中的图像之间的期望的差异可以依赖于使用立体图像数据的目的而变化。因此,方法400可以进一步涉及针对第一场景确定目标差异。具体地,在给定被捕获的具体场景的特性的情况下,计算设备可以动态地确定目标差异,使得利用不同基线捕获的立体图像对可以被评估,以尝试选择与选择立体图像对的目的最适合的图像对。
例如,如果所选择的立体图像对被组合以创建可视立体图像,则计算设备可以确定促进具体场景的可视立体图像的创建的目标差异。此外,如果所选择的立体图像对被评估以确定用于场景的深度信息,则计算设备可以确定促进(并且很可能最大化)从立体图像对中对深度信息的提取的目标差异。
又进一步地,如果所选择的立体图像对被用于创建可视立体图像和确定深度信息两者,则计算设备可以基于用于这两个目的的期望的差异来确定目标差异。可替换地,不同的立体图像对可以被选择,以可能经由并行选择过程来创建可视立体图像以及确定深度信息。
V.结论
以上详述的描述参考附图描述了所公开的***、设备和方法的各种特征和功能。在附图中,相似的符号通常标识相似的组件,除非上下文另有指示。在详述的描述、附图以及权利要求中所描述的示意性实施例不意欲为进行限制。可以利用其他实施例,并且可以进行其他改变,而不脱离这里所呈现的主题的范围。将容易理解,如在这里一般描述的和在附图中所图示的本公开的各方面可以以各种不同的配置来布置、替换、组合、分离和设计,所有这些在这里都明确地设想到了。
关于附图中的和如在这里所讨论的消息流图、情境和流程图中的任何一个或全部,每个步骤、方框和/或通信可以代表根据示例实施例的信息的处理和/或信息的传输。可替换实施例被包括在这些示例实施例的范围内。例如,在这些可替换实施例中,依赖于所涉及的功能,被描述为步骤、方框、传输、通信、请求、响应和/或消息的功能可以不按照所示出的或所讨论的顺序来执行,包括按照基本上并发地或相反的顺序来执行。此外,更多的或更少的步骤、方框和/或功能可以与这里所讨论的消息流图、情境和流程图中的任何一个一起使用,并且这些消息流图、情境和流程图可以部分地或整体地彼此组合。
代表信息的处理的步骤或方框可以与可以被配置为执行这里所描述的方法或技术的特定逻辑功能的电路相对应。可替换地或额外地,代表信息的处理的步骤或方框可以与程序代码(包括相关数据)的模块、片段或部分相对应。程序代码可以包括一个或多个指令,所述指令可由处理器执行以用于实现方法或技术中的特定逻辑功能或动作。程序代码和/或相关数据可以被存储在诸如存储设备的任何类型的计算机可读介质上,包括盘驱动器、硬盘驱动器或其他存储介质。
计算机可读介质还可以包括非暂态计算机可读介质,诸如像寄存器存储器、处理器高速缓存和/或随机存取存储器(RAM)那样短时间段地存储数据的计算机可读介质。计算机可读介质还可以包括较长时间段地存储程序代码和/数据的非暂态计算机可读介质,诸如像例如只读存储器(ROM)、光盘或磁盘和/或压缩盘只读存储器(CD-ROM)那样的次级的或永久的长期存储装置。计算机可读介质还可以是任何其他易失性或非易失性存储***。计算机可读介质可以被认为是例如计算机可读存储介质或有形存储设备。
此外,代表一个或多个信息传输的步骤或方框可以与同一物理设备中的软件模块和/或硬件模块之间的信息传输相对应。然而,其他信息传输可以在不同的物理设备中的软件模块和/或硬件模块之间。
虽然这里公开了各种方面和实施例,但是其他方面和实施例对于本领域技术人员将是明显的。这里所公开的各种方面和实施例出于示意的目的而不意欲进行限制,真实的范围由所附权利要求指示。
Claims (16)
1.一种用于图像捕获的方法,包括:
通过计算设备确定到场景中的物体的距离的指示,其中,所述计算设备包括提供用于立体成像的两个或更多个基线的三个或更多个图像捕获设备,其中,所述三个或更多个图像捕获设备中的至少两对图像捕获设备可操作用于立体成像,其中,每对图像捕获设备提供所述基线之一,并且其中,所述基线中的第一基线与所述基线中的第二基线不平行,其中,确定到物体的距离的指示包括确定使得所述物体对焦的至少一个对焦设定;
通过所述计算设备从所述至少两对图像捕获设备中选择图像捕获设备中的第一对,其中,所述第一对基于距离的指示和由第一对所提供的基线来选择,
其中,选择图像捕获设备中的第一对包括:使用对焦设定到基线的数据库来确定与所确定的对焦设定相对应的期望的基线,以及确定图像捕获设备中的第一对对应于期望的基线;以及
对图像捕获设备中的第一对进行操作以捕获立体图像数据。
2.根据权利要求1所述的方法,其中,所述三个或更多个图像捕获设备中的全部被布置在所述计算设备的第一表面上。
3.根据权利要求1所述的方法,其中,所述计算设备是移动设备。
4.根据权利要求1所述的方法,其中,所述三个或更多个图像捕获设备中的每一个包括各自的镜头,其中,镜头中的全部被布置在一平面中。
5.根据权利要求1所述的方法,其中,确定到物体的距离的指示进一步包括确定与使得所述物体对焦的至少一个对焦设定相对应的距离或距离范围。
6.根据权利要求1所述的方法,进一步包括,所述计算设备使用图像捕获设备中的第一对相对于地面的定向作为用于选择第一对的进一步的基准。
7.一种用于图像捕获的装置,包括:
三个或更多个图像捕获***,其中,图像捕获***的镜头均被布置在所述装置的第一表面上并且被定向在相同的方向上,其中,所述三个或更多个图像捕获***提供用于立体成像的两个或更多个基线,其中,所述三个或更多个图像捕获设备中的至少两对图像捕获设备可操作用于立体成像,其中,每对图像捕获设备提供所述基线之一,并且其中,所述基线中的第一基线与所述基线中的第二基线不平行;以及
控制***,被配置为:
(a)确定到场景中的物体的距离的指示,其中,确定使得所述物体对焦的至少一个对焦设定;
(b)从所述至少两对图像捕获设备中选择图像捕获设备中的第一对,其中,所述第一对基于距离的指示和由第一对所提供的基线来选择,其中,使用对焦设定到基线的数据库来确定与所确定的对焦设定相对应的期望的基线,以及确定图像捕获设备中的第一对对应于期望的基线;以及
(c)对图像捕获设备中的第一对进行操作以捕获立体图像数据。
8.根据权利要求7所述的装置,其中,所述三个或更多个图像捕获设备中的全部被布置在计算设备的第一表面上。
9.根据权利要求7所述的装置,其中,所述控制***进一步被配置为使用图像捕获设备中的第一对相对于地面的定向作为用于选择第一对的进一步的基准。
10.一种用于图像捕获的方法,包括:
通过第一计算设备接收一个或多个立体图像对,其中,每个立体图像对包括第一场景的两个图像,其中,每个立体图像对由从在同一计算设备上的三个或更多个图像捕获设备中选择的不同的图像捕获设备对所捕获,并且其中,所述三个或更多个图像捕获设备提供两个或更多个不同的基线;
通过计算设备对于立体图像对中的一个或多个中的每一个确定对中的图像之间的差异;
通过所述计算设备选择第一场景的立体图像对中的至少一个,其中,选择至少一个所选择的对至少部分地基于(a)所确定的对中的图像之间的差异与(b)目标差异的比较;以及
使用所选择的立体图像对作为用于生成与第一场景相对应的数据的基准。
11.根据权利要求10所述的方法,其中,选择立体图像对中的至少一个包括:
将(a)所确定的在所选择的对中的图像之间的差异与(b)目标差异进行比较;以及
确定所确定的所选择的对中的图像之间的差异相较于目标差异的任何变动小于阈值变动。
12.根据权利要求11所述的方法,其中,选择所述立体图像对中的至少一个包括:
(a)对于给定立体图像对,确定给定立体图像对中的图像之间的差异相较于所述目标差异的变动是否小于阈值;
(b)如果给定立体图像对中的图像之间的差异相较于所述目标差异的变动小于阈值,则选择所述给定立体图像对;以及
(c)否则针对一个或多个其他立体图像对重复功能(a)和(b)直到立体图像对之一被确定为具有相较于所述目标差异变动小于所述阈值的差异为止。
13.根据权利要求10所述的方法,其中,所述计算设备针对两个或更多个立体图像对中的每一个确定相应的差异,并且其中,选择立体图像对中的至少一个包括:
从所述两个或更多个立体图像对中确定对于其分别确定的差异相较于针对所述第一场景的目标差异变动最小的立体图像对;以及
选择对于其相应的差异相较于所述目标差异变动最小的立体图像对。
14.根据权利要求10所述的方法,进一步包括所述计算设备针对所述第一场景确定所述目标差异。
15.根据权利要求14所述的方法,其中,确定所述目标差异包括确定用于促进基于所选择的立体图像对确定用于场景的深度信息的目标差异。
16.根据权利要求14所述的方法,其中,确定所述目标差异包括确定用于促进从所选择的立体图像对创建可视立体图像的目标差异。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/098,818 | 2013-12-06 | ||
US14/098,818 US9544574B2 (en) | 2013-12-06 | 2013-12-06 | Selecting camera pairs for stereoscopic imaging |
PCT/US2014/068520 WO2015085042A1 (en) | 2013-12-06 | 2014-12-04 | Selecting camera pairs for stereoscopic imaging |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105814875A CN105814875A (zh) | 2016-07-27 |
CN105814875B true CN105814875B (zh) | 2020-12-01 |
Family
ID=53272443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480066749.4A Active CN105814875B (zh) | 2013-12-06 | 2014-12-04 | 选择用于立体成像的相机对 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9544574B2 (zh) |
CN (1) | CN105814875B (zh) |
WO (1) | WO2015085042A1 (zh) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9497380B1 (en) | 2013-02-15 | 2016-11-15 | Red.Com, Inc. | Dense field imaging |
US9392189B2 (en) * | 2014-02-28 | 2016-07-12 | Intel Corporation | Mechanism for facilitating fast and efficient calculations for hybrid camera arrays |
US9710724B2 (en) * | 2014-09-05 | 2017-07-18 | Intel Corporation | Multi-camera device |
WO2016049889A1 (zh) * | 2014-09-30 | 2016-04-07 | 华为技术有限公司 | 一种自动对焦方法、装置及电子设备 |
US10481116B2 (en) * | 2014-10-30 | 2019-11-19 | BAE Systems Information and Electronic Systems Integratlon Inc. | High resolution inspection device for casting defects using IR imaging |
US10531071B2 (en) * | 2015-01-21 | 2020-01-07 | Nextvr Inc. | Methods and apparatus for environmental measurements and/or stereoscopic image capture |
US11019323B2 (en) * | 2015-02-06 | 2021-05-25 | Tara Chand Singhal | Apparatus and method for 3D like camera system in a handheld mobile wireless device |
EP3958557A1 (en) | 2015-04-23 | 2022-02-23 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
EP3305206A4 (en) * | 2015-06-05 | 2018-06-20 | Shikuukankoubou Co., Ltd. | Program and system for early detection and prevention of mild dementia |
US10706569B2 (en) * | 2016-06-08 | 2020-07-07 | Amazon Technologies, Inc. | Selectively paired imaging elements for stereo images |
US9716825B1 (en) | 2016-06-12 | 2017-07-25 | Apple Inc. | User interface for camera effects |
WO2018086133A1 (en) | 2016-11-14 | 2018-05-17 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
WO2018086122A1 (zh) * | 2016-11-14 | 2018-05-17 | 深圳市大疆创新科技有限公司 | 多路传感数据融合的方法和*** |
CN106657974B (zh) * | 2017-02-27 | 2024-02-09 | 北京图森智途科技有限公司 | 双目摄像机的控制方法及装置、双目摄像机 |
KR102204596B1 (ko) * | 2017-06-02 | 2021-01-19 | 삼성전자주식회사 | 프로세서, 이를 포함하는 이미지 프로세싱 장치 및 이미지 프로세싱 방법 |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
CN107580207A (zh) * | 2017-10-31 | 2018-01-12 | 武汉华星光电技术有限公司 | 光场3d显示单元图像的生成方法及生成装置 |
WO2019133640A1 (en) * | 2017-12-29 | 2019-07-04 | PlusAI Corp | Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
FR3078564B1 (fr) * | 2018-03-01 | 2020-09-11 | 4D View Solutions | Systeme de modelisation tridimensionnelle d'une scene par photogrammetrie multi-vue |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
CN109379460B (zh) * | 2018-10-15 | 2019-11-26 | 华为技术有限公司 | 镜头、主动发光模组及终端 |
DE102018222865A1 (de) * | 2018-12-21 | 2020-06-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung mit einer Multiaperturabbildungsvorrichtung zur Erzeugung einer Tiefenkarte |
EP3686610A1 (en) * | 2019-01-24 | 2020-07-29 | Rohde & Schwarz GmbH & Co. KG | Probe, measuring system and method for applying a probe |
CN109872323A (zh) * | 2019-02-28 | 2019-06-11 | 北京国网富达科技发展有限责任公司 | 输电线路的绝缘子缺陷检测方法及装置 |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11159737B2 (en) * | 2019-10-14 | 2021-10-26 | Google Llc | Exposure change control in low light environments |
CN112788201A (zh) * | 2019-11-07 | 2021-05-11 | 虹软科技股份有限公司 | 摄像*** |
CN111222579B (zh) * | 2020-01-09 | 2023-10-03 | 北京百度网讯科技有限公司 | 跨相机的障碍物关联方法、装置、设备、电子***及介质 |
CN113141497A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 3d拍摄装置、3d拍摄方法及3d显示终端 |
WO2021184341A1 (en) * | 2020-03-20 | 2021-09-23 | SZ DJI Technology Co., Ltd. | Autofocus method and camera system thereof |
US11054973B1 (en) | 2020-06-01 | 2021-07-06 | Apple Inc. | User interfaces for managing media |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US20230298197A1 (en) * | 2022-03-17 | 2023-09-21 | Motorola Mobility Llc | Electronic device with gaze-based autofocus of camera during video rendition of scene |
US12022182B2 (en) | 2022-05-26 | 2024-06-25 | Motorola Mobility Llc | Visual feature based video effects |
WO2023239877A1 (en) * | 2022-06-09 | 2023-12-14 | Apple Inc. | Dynamic camera selection |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102165785A (zh) * | 2008-09-24 | 2011-08-24 | 富士胶片株式会社 | 三维成像装置和方法及程序 |
CN102792333A (zh) * | 2010-03-19 | 2012-11-21 | 拉碧斯半导体株式会社 | 图像处理装置、方法、程序以及记录介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5978015A (en) | 1994-10-13 | 1999-11-02 | Minolta Co., Ltd. | Stereoscopic system with convergence and dioptric power adjustments according to object distance |
JPH08116553A (ja) | 1994-10-17 | 1996-05-07 | Minolta Co Ltd | 立体視システム |
JP4428761B2 (ja) | 1999-07-07 | 2010-03-10 | Hoya株式会社 | ステレオカメラ |
JP2002095018A (ja) * | 2000-09-12 | 2002-03-29 | Canon Inc | 画像表示制御装置及び画像表示システム、並びに画像データの表示方法 |
US20080030592A1 (en) | 2006-08-01 | 2008-02-07 | Eastman Kodak Company | Producing digital image with different resolution portions |
US8736672B2 (en) | 2006-08-24 | 2014-05-27 | Reald Inc. | Algorithmic interaxial reduction |
US8134589B2 (en) | 2008-07-17 | 2012-03-13 | Eastman Kodak Company | Zoom by multiple image capture |
CN101398937B (zh) * | 2008-10-29 | 2011-05-18 | 北京航空航天大学 | 基于同一场景散乱照片集的三维重构方法 |
CN101813867A (zh) * | 2009-02-20 | 2010-08-25 | 张小频 | 半通过镜头无反光镜相位比较对焦数码相机*** |
CN101546111A (zh) * | 2009-04-30 | 2009-09-30 | 浙江大学 | 单相机双目宽基线折反射全景立体成像方法及其装置 |
US8553106B2 (en) | 2009-05-04 | 2013-10-08 | Digitaloptics Corporation | Dual lens digital zoom |
CN102447836A (zh) | 2009-06-16 | 2012-05-09 | 英特尔公司 | 手持装置中的摄像机应用 |
KR101735612B1 (ko) * | 2010-08-16 | 2017-05-15 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US20120075489A1 (en) | 2010-09-24 | 2012-03-29 | Nishihara H Keith | Zoom camera image blending technique |
CN102012627B (zh) * | 2010-11-30 | 2012-03-28 | 深圳市九洲电器有限公司 | 一种双目立体摄像机和3d成像*** |
JP5807056B2 (ja) * | 2011-03-18 | 2015-11-10 | 富士フイルム株式会社 | 立体映像撮影用レンズシステム |
JP2012220679A (ja) * | 2011-04-07 | 2012-11-12 | Sony Corp | 立体映像撮像装置、輻輳距離調整方法及びプログラム |
EP2729915B1 (en) * | 2011-07-05 | 2017-12-27 | Omron Corporation | A method and apparatus for projective volume monitoring |
KR101828805B1 (ko) * | 2011-07-07 | 2018-03-29 | 삼성전자주식회사 | 스테레오 카메라의 3차원 줌 영상 생성 방법 및 장치 |
US9246543B2 (en) * | 2011-12-12 | 2016-01-26 | Futurewei Technologies, Inc. | Smart audio and video capture systems for data processing systems |
US20140043445A1 (en) * | 2012-08-13 | 2014-02-13 | Buyue Zhang | Method and system for capturing a stereoscopic image |
CN104184961A (zh) * | 2013-05-22 | 2014-12-03 | 辉达公司 | 用于生成全景视频的移动设备和*** |
-
2013
- 2013-12-06 US US14/098,818 patent/US9544574B2/en active Active
-
2014
- 2014-12-04 CN CN201480066749.4A patent/CN105814875B/zh active Active
- 2014-12-04 WO PCT/US2014/068520 patent/WO2015085042A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102165785A (zh) * | 2008-09-24 | 2011-08-24 | 富士胶片株式会社 | 三维成像装置和方法及程序 |
CN102792333A (zh) * | 2010-03-19 | 2012-11-21 | 拉碧斯半导体株式会社 | 图像处理装置、方法、程序以及记录介质 |
Also Published As
Publication number | Publication date |
---|---|
US9544574B2 (en) | 2017-01-10 |
US20150163478A1 (en) | 2015-06-11 |
WO2015085042A1 (en) | 2015-06-11 |
CN105814875A (zh) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105814875B (zh) | 选择用于立体成像的相机对 | |
CN111164647B (zh) | 使用单个相机估算深度 | |
US9918065B2 (en) | Depth-assisted focus in multi-camera systems | |
JP7186672B2 (ja) | マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 | |
CN112492170B (zh) | 一种用于选择图像数据的方法、装置及计算机可读介质 | |
US10708486B2 (en) | Generation of a depth-artificial image by determining an interpolated supplementary depth through interpolation based on the original depths and a detected edge | |
JP5655174B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
CN105791793A (zh) | 图像处理方法及其电子装置 | |
US20230033956A1 (en) | Estimating depth based on iris size | |
CN115244570A (zh) | 合并分离像素数据以获得更深景深 | |
WO2024076363A1 (en) | Field of view correction techniques for shutterless camera systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |