CN217445411U - 用于从独立图像源产生连续图像的*** - Google Patents
用于从独立图像源产生连续图像的*** Download PDFInfo
- Publication number
- CN217445411U CN217445411U CN202090000816.3U CN202090000816U CN217445411U CN 217445411 U CN217445411 U CN 217445411U CN 202090000816 U CN202090000816 U CN 202090000816U CN 217445411 U CN217445411 U CN 217445411U
- Authority
- CN
- China
- Prior art keywords
- image capture
- image
- control device
- capture device
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 60
- 238000000034 method Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 11
- 230000035945 sensitivity Effects 0.000 claims description 3
- 239000007787 solid Substances 0.000 description 13
- 230000001934 delay Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/04—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
- H04N5/06—Generation of synchronising signals
- H04N5/067—Arrangements or circuits at the transmitter end
- H04N5/073—Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
- H04N5/0733—Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations for distributing synchronisation pulses to different TV cameras
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本实用新型公开了一种用于从独立图像源产生连续图像的***。该***可包括图像捕获单元,该图像捕获单元包括用于同时地捕获图像的图像捕获设备和用于将图像捕获设备相对于彼此并相对于图像捕获单元结构支撑在固定位置中的图像捕获单元结构。图像捕获设备围绕图像捕获单元的中心轴线径向地设置。图像捕获设备中的每个图像捕获设备的视场的中心线与从中心轴线延伸的径向线形成至少30度角。每个图像捕获设备的视场与两个相邻图像捕获设备的视场重叠。图像捕获设备的视场一起构成360度视场。
Description
技术领域
所描述的实施方案整体涉及图像捕获***。更具体地,实施方案涉及用于从独立图像源产生连续图像的图像捕获***。
背景技术
摄影师、电视录像制作人或其他人可能期望使用若干图像捕获设备来捕获图像,并且将由单独设备中的每个单独设备捕获的图像组合为一个连续图像。所组合的连续图像与由图像捕获设备捕获的单独图像相比可具有更大视场并且包括更多图像数据。
实用新型内容
公开了涉及用于从独立图像源产生连续图像的***的各种实施方案。例如,这种***可包括图像捕获单元,其中图像捕获单元包括用于同时地捕获图像的图像捕获设备和用于支撑图像捕获设备的图像捕获结构。在一些实施方案中,图像捕获设备围绕图像捕获单元的中心轴线径向地设置,并且相对于彼此并相对于图像捕获单元结构支撑在固定位置中。在一些实施方案中,图像捕获设备中的每个图像捕获设备的视场的中心线相对于中心轴线在成角度的向外方向上指向。此外,每个图像捕获设备的视场可与两个相邻图像捕获设备的视场重叠,并且图像捕获设备的视场一起可构成360度视场。
在一些实施方案中,用于从独立图像源产生连续图像的***可包括计算设备,这些计算设备各自包括图像捕获设备、处理器和存储器。该***还可包括支撑结构,该支撑结构用于将计算设备相对于彼此并相对于支撑结构支撑在固定位置中。该***还可包括控制设备,该控制设备可被配置为与这些计算设备中的每个计算设备无线地通信。在一些实施方案中,控制设备被配置为向计算设备同时地发送命令,并且每个计算设备被配置为基于从控制设备接收的命令独立地调整该计算设备的相应图像捕获设备的图像捕获参数。此外,在一些实施方案中,控制设备被配置为实时地接收由图像捕获设备捕获的图像。
在一些实施方案中,用于从独立图像源产生连续图像的***可包括控制设备和图像捕获设备。控制设备被配置为将第一电子数据传输到图像捕获设备。第一电子数据包括根据控制设备的内部时钟的控制设备发送所述第一电子数据的时间。图像捕获设备被配置为将第二电子数据传输到控制设备。第二电子数据包括根据图像捕获设备的内部时钟的图像捕获设备接收第一电子数据的时间。控制设备发送第一电子数据的时间和图像捕获设备接收第一电子数据的时间用于确定控制设备的内部时钟和图像捕获设备的内部时钟之间的时间差异。
实施方案还包括从独立图像源产生连续图像的方法。在一些实施方案中,这种方法可包括:将第一电子数据从控制设备传输到图像捕获设备,其中第一电子数据包括根据控制设备的内部时钟的控制设备发送第一电子数据的时间。该方法还可包括:将第二电子数据从图像捕获设备传输到控制设备,其中第二电子数据包括根据图像捕获设备的内部时钟的图像捕获设备接收第一电子数据的时间。该方法还可包括:确定控制设备的内部时钟和图像捕获设备的内部时钟之间的时间差异。
附图说明
通过以下结合附图的详细描述,将容易理解本公开,其中类似的附图标号指代类似的结构元件,并且其中:
图1示出了图像捕获单元的示意性俯视图。
图2A示出了图1的图像捕获设备的示例性输出图像的表示。
图2B示出了图2A的一起组合为连续图像的示例性输出图像的表示。
图3示出了图像捕获单元的透视图。
图4示出了图3的图像捕获单元的示意性俯视图。
图5示出了图3的图像捕获单元的示意性俯视图。
图6A示出了图3的图像捕获设备的示例性输出图像的表示。
图6B示出了图6A的一起组合为连续图像的示例性输出图像的表示。
图7示出了示例性网络的示意图,该示例性网络包括图3的图像捕获设备、控制设备和处理设备。
图8示出了示例性网络的示意图,该示例性网络包括图7的图像捕获设备和控制设备。
图9示出了图7的控制设备的前视图。
图10示出了示例性网络的示意图,该示例性网络包括图7的图像捕获设备和控制设备。
图11示出了示例性网络的示意图,该示例性网络包括图7的图像捕获设备和处理设备。
图12示出了图3的图像捕获单元的示意性侧视图,其中添加了上部图像捕获设备。
具体实施方式
相关申请的交叉引用
本申请要求2020年2月14日提交的名称为“System for Producing a ContinuousImage from Separate Image Sources”的美国专利申请第16/791,762 号和2019年8月15日提交的名称为“System for Producing a Continuous Image from Separate ImageSources”的美国临时专利申请第62/887,505号的优先权。这些专利申请中的每个专利申请全文以引用方式并入本文。
现在将具体地参考在附图中示出的代表性实施方案。应当理解,以下描述不旨在将实施方案限制于一个优选实施方案。相反,其旨在涵盖可被包括在由所附权利要求书限定的所述实施方案的实质和范围内的另选形式、修改形式和等同形式。
一些摄影师、电视录像制作人或其他人可能期望捕获(即,记录)引人注目的高质量图像(例如,视频)以供在某些大格式应用,诸如例如全景视频、360度视频、球面视频、沉浸式视频、虚拟现实视频等中使用。有助于由图像捕获设备捕获的图像的总体质量的一个因素是图像的分辨率(例如,像素数量),该分辨率可受图像捕获设备的图像传感器(例如,相机传感器、数字相机传感器、成像器件或将光学图像转换为电子信号的其他设备)的大小和配置的限制。虽然一些图像捕获设备可允许用户以标准格式 (例如,1:1、4:3、16:9等)捕获高分辨率图像,但较大格式图像可需要相对高分辨率以便维持图像的保真性,该相对高分辨率可超过一些图像捕获设备的图像传感器的分辨率。此外,图像的期望视场(例如,360度)可超过一些图像捕获设备的透镜的视场。尽管一些透镜可具有较大视场(例如,广角、鱼眼或360度透镜),但此类透镜可固有地使此类透镜用于捕获的图像失真。在一些应用诸如例如虚拟现实视频中,此类失真可减损用户的体验,因为清晰的未失真图像可有助于更多沉浸式和吸引人的用户体验。此类人还可期望同时地记录音频以及此类人的视频,并且可想要音频是方向相关的,其中音频与从其接收该音频的方向以及在该方向上记录的同时图像相关联。
本公开涉及图像捕获单元,该图像捕获单元可为图像捕获***的一部分并且可用于以简便且有效的方式捕获大的高分辨率图像。图像捕获单元可包括可同时地从不同视角捕获图像的两个或更多个图像捕获设备。例如,图像捕获单元可包括支撑结构,该支撑结构支撑呈相对于支撑结构面向外的柱形布置的图像捕获设备。图像捕获设备的图像捕获透镜可具有重叠视场,并且因此由图像捕获设备捕获的图像可包括重叠部分。处理设备(例如,计算设备,诸如例如平板计算机、膝上型计算机或台式计算机)然后可将图像的重叠部分进行比较并组合在一起(例如,将重叠部分“拼接”在一起),使得形成单个连续图像。因此,单个连续图像可与由图像捕获设备捕获的单独图像中的任一个单独图像相比具有更高分辨率和更大视场。
在一些实施方案中,图像捕获设备可为可商购获得的图像捕获设备 (例如,相机、智能电话等),并且可各自包括处理器、内部存储器和电池。在一些实施方案中,图像捕获设备各自可为独立的消费者级计算设备 (例如,智能电话)。因此,图像捕获单元可不包括外部布线(例如,用于外部电源或存储器),这可增加图像捕获单元的灵活性和易用性。在一些实施方案中,图像捕获***包括控制设备(例如,计算设备,诸如例如平板计算机),该控制设备可用于例如控制图像捕获设备的某些图像捕获参数,以预览由图像捕获设备捕获的图像并且使图像捕获设备的图像捕获定时同步。在一些实施方案中,控制设备可使用无线对等网络来与图像捕获设备通信。
在一些实施方案中,每个图像捕获设备可同时地从该每个图像捕获设备捕获视频的方向捕获音频。在同时地使用从多个设备捕获的音频和视频的回放场景中(例如,在虚拟现实(VR)或全景回放中),由用户看见的视频和听到的音频可取决于用户正在看的方向,从而提供高度沉浸式音频- 视觉体验。
下文参考图1至图12来论述这些实施方案以及其他实施方案。然而,本领域的技术人员将容易地理解,本文相对于这些附图所给出的详细描述仅出于说明性目的,而不应被理解为是限制性的。
如图1所示,图像捕获单元10可包括图像捕获单元结构20和图像捕获设备300。图像捕获设备300可为例如具有用于捕获图像(例如,静止图像和/或视频)的图像捕获透镜320的电子设备。在一些实施方案中,图像捕获设备300可为数字相机,诸如例如紧凑型数字相机、数字单透镜反射式相机(“DSLR”)、无镜面相机等。在一些实施方案中,图像捕获设备300可为计算设备,并且可包括例如处理器、内部存储器和电池。在一些实施方案中,图像捕获设备300可为包括图像捕获透镜320的电子设备,但也具有其它特征和功能,诸如例如智能电话。图像捕获设备300可包括特征和功能,诸如例如无线联网能力、内部存储器和内部电池。在一些实施方案中,图像捕获设备300还可被配置为捕获与捕获图像相关的估计深度信息(下文进一步详细描述)。在一些实施方案中,图像捕获设备 300包括与捕获图像无关的特征和功能,诸如例如电话。
每个图像捕获设备300可包括视场330。视场330可为例如能够通过图像捕获设备300的图像捕获透镜320观察到的区域。在一些实施方案中,视场330是如由图像捕获设备300的图像传感器(例如,相机传感器、数字相机传感器、成像器件或将光学图像转换为电子信号的其它设备)感知到的能够通过图像捕获透镜320观察到的区域。图1示出了图像捕获单元10和图像捕获设备300的视场330的示意性俯视图。尽管视场 330在图1中由例如二维示意图表示,但视场330可为三维的(例如,始于透镜320的锥形)。此外,视场330被示出未必按比例绘制。例如,为了便于说明包括视场330的外边界(例如,由图1中的虚线表示),但视场330从图像捕获设备300延伸的程度可变化。
每个视场330可包括视场中心线334,该视场中心线可为例如图像捕获透镜320的光轴。视场330可由视角333定义。视角333可为例如视场 330在与视场中心线334共面的平面中延伸的角度范围(例如,角度大小)。例如,此类平面也可垂直于图像捕获单元10的中心轴线11,如图1 所示。每个视角333可被每个视角的相应中心线334等分。在一些实施方案中,视角333可为视场330在与视场中心线334共面的水平平面中延伸的角度范围(例如,角度大小)。如图12所示,例如,视场330也可由视角338限定。视角338可为例如视场330在与视场中心线334共面并且平行于中心轴线11的平面中延伸的角度范围(例如,角度大小)。在一些实施方案中,视角338可为视场330在与视场中心线334共面的竖直平面中延伸的角度范围(例如,角度大小)。
在一些实施方案中,图像捕获单元结构20可将图像捕获设备300相对于彼此并相对于图像捕获单元结构20支撑在固定位置中。如图1所示,例如,图像捕获单元结构20可支撑呈柱形布置的图像捕获设备300。尽管图 1示出图像捕获单元10具有五个图像捕获设备300,但图像捕获单元10可包括任何数量的图像捕获设备300。例如,在一些实施方案中,图像捕获单元10包括两个、三个、四个或更多个图像捕获设备300。在一些实施方案中,图像捕获单元10包括十二个、十三个、十四个、十五个或更多个图像捕获设备300。
在一些实施方案中,图像捕获设备300的视场中心线334中的每个视场中心线是共面的并且在垂直于图像捕获单元10的中心轴线11的平面中延伸。在一些实施方案中,图像捕获设备300的视场中心线334中的每个视场中心线设置在相同水平平面中(例如参见图12)。在一些实施方案中,每个图像捕获设备300的视场中心线334可相对于中心轴线11在向外方向上指向。在一些实施方案中,视场中心线334各自相对于图像捕获单元10的中心轴线11在大致径向向外的方向上指向(例如参见图1)。如下文进一步详细描述,在一些实施方案中,视场中心线334各自相对于图像捕获单元10的中心轴线11在非径向向外方向上指向(例如参见图5)。
在一些实施方案中,第一图像捕获设备300的视场330可与第二图像捕获设备300的视场330重叠,也就是说,能够通过第一图像捕获设备 300的图像捕获透镜320观察到的区域中的一些区域或全部区域也能够通过第二图像捕获设备300的图像捕获透镜320观察到。在一些实施方案中,一个图像捕获设备300的视场330可与两个或更多个其它图像捕获设备300的视场330重叠。由于每个图像捕获设备300可具有不同物理位置和取向,因此重叠区域(例如,能够通过两个或更多个图像捕获设备300 的图像捕获透镜320观察到的区域)可从对应于图像捕获设备300的相对位置和取向的不同视角观察到。
如图1所示,每个图像捕获设备300的视场330可包括重叠部分331 (例如,视场330的具有较暗灰色阴影的部分)和非重叠部分332(例如,视场330的具有较浅灰色阴影的部分)。重叠部分331可为一个图像捕获设备300的视场330与另一个图像捕获设备300的视场330重叠的部分。在一些实施方案中,一个图像捕获设备300的视场330可包括若干重叠部分331。如图1所示,例如,每个图像捕获设备300的视场330可与两个相邻图像捕获设备300的视场330重叠。因此,每个图像捕获设备 300的视场330可包括两个重叠部分331。
在一些实施方案中,图像捕获单元10的每个图像捕获设备300具有相同视角333。在一些实施方案中,图像捕获单元10的每个图像捕获设备 300具有不同视角333。在一些实施方案中,一些图像捕获设备300具有相同视角333,并且一些图像捕获设备具有不同视角333。在一些实施方案中,图像捕获透镜320可具有固定焦距。在一些实施方案中,图像捕获透镜320可具有可变焦距。在一些实施方案中,可例如通过调整图像捕获透镜320的焦距来改变每个图像捕获设备300的视角333。因此,可例如通过调整图像捕获透镜320的焦距来改变相邻视场330之间的重叠量。
在一些实施方案中,具有重叠部分331的两个或更多个视场330可一起形成组合视场350。组合视场350可为例如能够通过具有重叠视场330 的图像捕获设备300的至少一个图像捕获透镜320观察到的连续区域。
如图1所示,在一些实施方案中,组合视场350由组合视角353限定。组合视角353可为例如组合视场350在与具有重叠视场330的图像捕获设备300的视场中心线334共面并且垂直于中心轴线11的平面中延伸的角度范围(例如,角度大小)。在一些实施方案中,组合视角353可为组合视场350在与具有重叠视场330的图像捕获设备300的视场中心线334 共面的水平平面中延伸的角度范围(例如,角度大小)。
如图1所示,组合视角353可为360度。然而,在一些实施方案中,组合视角353小于360度。例如,在一些实施方案中,组合视角353介于约360度和180度之间。在一些实施方案中,组合视角353介于约270度和180度之间。
参考图2A和图2B,在一些实施方案中,图像捕获单元10的每个图像捕获设备300被配置为捕获并产生输出图像340(例如,静止图像或视频)。例如,图2A示出了图1所示的图像捕获设备300的输出图像340。如图1和图2A所示,例如,图像捕获单元10的每个图像捕获设备300可具有对应于设备的视场330的输出图像340(例如参见图1中的视场“A B C”和图2A中的输出图像“A B C”)。
如上所述,一个图像捕获设备300的视场330可与一个或多个其它图像捕获设备300的视场330重叠。因此,具有重叠视场330的图像捕获设备300的输出图像340可包括相同主题的图像(例如,从对应于图像捕获设备300的相对位置和取向的略微不同的视角)。如图2A所示,输出图像340可包括重叠部分341和非重叠部分342。重叠部分341可为一个图像捕获设备300的输出图像340的一部分,该部分也显现在另一个图像捕获设备300的输出图像340中(例如参见图2A中的重叠部分“A”、“C”、“E”、“G”和“I”)。非重叠部分342可为一个图像捕获设备 300的输出图像340的一部分,该部分包括在另一个图像捕获设备300的输出图像340中未示出的主题(例如参见图2A中的非重叠部分“B”、“D”、“F”、“H”和“J”)。在一些实施方案中,一个图像捕获设备 300的输出图像340可包括若干重叠部分341。例如,每个图像捕获设备 300的输出图像340可包括两个重叠部分341。在一些实施方案中,一些图像捕获设备300的输出图像340包括两个重叠部分341,并且其它图像捕获设备300的输出图像340仅包括一个重叠部分341。在一些实施方案中,图像捕获设备300的输出图像340与该图像捕获设备的相邻图像捕获设备300的输出图像完全重叠。
在一些实施方案中,处理设备(例如,下文描述的处理设备500)可将由若干图像捕获设备300捕获的图像组合为一个连续图像。例如,图2B 示出了图2A的输出图像340,这些输出图像一起组合为组合图像360。如下文进一步详细描述,处理设备500可包括软件应用程序,该软件应用程序将由具有重叠视场330的图像捕获设备300捕获的图像进行比较并组合 (例如,“拼接”)在一起以产生单个组合图像360。
为了产生单个组合图像360,处理设备500可将重叠部分341组合在一起(例如,使得这些重叠部分的主题不在组合图像中重复)。如图2A 和图2B所示,例如,两个重叠部分341可组合在一起以形成一个组合部分361(例如参见图2B中的组合部分“A”、“C”、“E”、“G”和“I”)。此外,非重叠部分342可在组合图像360中显现为非组合部分 362(例如参见图2B中的非组合部分“B”、“D”、“F”、“H”和“J”)。在一些实施方案中,组合部分361和非组合部分362可在组合图像360中以交替图案显现。
在一些实施方案中,组合图像360可为全景视频、360度视频、球形视频、沉浸式视频、虚拟现实视频等。如图2A所示,例如,重叠部分“A”显现在最左输出图像340和最右输出图像340上。因此,尽管组合图像360以二维形式表示,但在一些实施方案中,组合图像360可为连续地延伸360度(例如,没有限定端部)的图像。
如上所述,图像捕获设备300可被配置为捕获与捕获图像相关的估计深度信息。例如,图像捕获设备300可被配置为捕获并记录与捕获图像相关联的深度图。深度图可包括例如与对象、表面或其它图像主题距图像捕获透镜320的距离有关的信息。在一些实施方案中,图像捕获设备300可使用例如多相机深度估计、“飞行时间”传感器和/或相机(例如,LIDAR)深度估计和/或结构化光深度估计来捕获深度信息。因此,通过捕获视觉图像数据(例如,视觉外观)和深度数据,图像捕获单元100可用于其它应用,诸如例如增强现实应用、体积视频捕获、摄影测量和/或3D重建。
在一些实施方案中,图像捕获设备300还可被配置为捕获音频。例如,每个图像捕获设备可包括音频输入端322(参见图3),诸如麦克风 (例如,在图像捕获设备是智能电话的实施方案中为智能电话的麦克风)。在如图1所示的图像捕获单元10中,例如,每个图像捕获设备300 被布置成在不同方向上取向,使得具有重叠视场330,以一起产生组合图像360,如上所述。在这种布置中,当每个图像捕获设备300正在捕获图像(例如,视频)时,该每个图像捕获设备可同时地捕获音频。并且由每个图像捕获设备300捕获的音频可取决于图像捕获设备300被取向的方向,正如捕获的图像取决于此方向一样。例如,每个图像捕获设备300的音频输入端332可捕获来自该每个图像捕获设备的相应图像捕获设备300 的视场330的方向的音频。
在一些实施方案中,可将捕获的音频分成用于每个图像捕获设备300 的两个通道,并且因此每个图像捕获设备300可被配置为记录与该每个图像捕获设备的图像捕获透镜320具有相同取向的高度定向音频。以此方式,每个图像捕获设备300可接收并捕获(即,记录)不同音频,并且此音频可与来自相同图像捕获设备300的同时地捕获的图像(例如,视频) 相关联。可将捕获的音频单独地存储或嵌入具有图像数据的视频文件中。图像捕获单元100可将此音频组合为使每个通道映射到不同方向的多通道音频(被称为“空间音频”)。
例如,可在VR和全景视频回放中使用此类空间音频。例如,音频输出(例如,耳机)可根据用户的头部正在面向的方向而向用户输出不同音频,使得用户听到在该相对方向上捕获的音频。在一些实施方案中,音频输出与在用户的头部正在面向的方向上显示的视频对应,此类视频从与正在输出给用户的音频通道相同的方向(例如,使用相同图像捕获设备300) 捕获。当用户移动其头部时,音频输出可实时地改变以与用户的头部正在面向的新方向对应。根据图像捕获单元10的配置,大量定向音频通道可提供高度沉浸式音频体验。例如,在具有10个图像捕获设备300(例如,智能电话)的图像捕获单元10中,这将意味着20个音频通道。在具有14个图像捕获设备300的图像盖单元10中,这将意味着28个音频通道。
在一些实施方案中,图像捕获单元100也可用于基于图像的照明 (“IBL”)应用中。例如,图像捕获设备300可用于捕获包围图像捕获单元100的环境光的光信息,诸如例如强度、方向和温度。处理设备500例如可然后使用所捕获的光信息来模拟场景中(例如,组合图像360中)对象 (例如,真实或合成)的照明。这种配置可允许使用高度详细的基于真实世界的照明模型来照明场景,而不是使用例如光渲染软件生成合成照明模型。
如图3所示,例如,图像捕获单元100可为大致柱形形状。然而,图像捕获单元100也可采取其它形状,诸如例如锥形、截头圆锥形、球形、棱柱形、三角棱柱形、矩形棱柱形或立方体,并且该图像捕获单元可以或可以不绕任何轴线对称。图像捕获单元100可包括上文关于图像捕获单元 10描述的特征中的一些特征或全部特征。在一些实施方案中,图像捕获单元100可具有小于3平方英尺的占有面积。在一些实施方案中,图像捕获单元100可具有小于1平方英尺的占有面积。
图像捕获单元结构200(其可包括上文关于图像捕获单元结构20所描述的特征中的一些特征或全部特征)可包括顶部部分210和底部部分220。在一些实施方案中,支撑构件230可在顶部部分210和底部部分220之间延伸,并且可将顶部部分210和底部部分220相对于彼此支撑在固定位置中。
在一些实施方案中,顶部部分210具有柱形形状。在一些实施方案中,顶部部分210具有圆盘形状。顶部部分210也可采取其它形状,诸如例如三角形实心形状、矩形实心形状、五边形实心形状、六边形实心形状或其它形状,并且可以或可以不绕任何轴线对称。在一些实施方案中,相对于中心轴线110,顶部部分210可旋转地对称。在一些实施方案中,相对于中心轴线110,顶部部分210可具有至少2重旋转对称。在一些实施方案中,顶部部分210相对于中心轴线110可为轴对称的。在一些实施方案中,底部部分220具有柱形形状。在一些实施方案中,底部部分220具有圆盘形状。底部部分220也可采取其它形状,诸如例如三角形实心形状、矩形实心形状、五边形实心形状、六边形实心形状或其它形状,并且可以或可以不绕任何轴线对称。在一些实施方案中,相对于中心轴线 110,底部部分220可旋转地对称。在一些实施方案中,相对于中心轴线 110,底部部分220可具有至少2重旋转对称。在一些实施方案中,底部部分220相对于中心轴线110可为轴对称的。
在一些实施方案中,顶部部分210和底部部分220具有相同的一般形状(例如,圆盘形状)。在一些实施方案中,顶部部分210小于底部部分 220。例如,顶部部分210和底部部分220可各自具有圆盘形状,并且顶部部分210的圆形面(例如,底部表面214)可与底部部分220的圆形面 (例如,顶部表面222)相比具有更小直径。在一些实施方案中,顶部部分210的底部表面214和底部部分220的顶部表面222彼此平行。
在一些实施方案中,支撑构件230具有柱形形状。支撑构件230也可采取其它形状,诸如例如三角形实心形状、矩形实心形状、五边形实心形状、六边形实心形状或其它形状,并且可以或可以不绕任何轴线对称。在一些实施方案中,支撑构件230相对于中心轴线110在轴向方向上延伸。在一些实施方案中,顶部部分210、底部部分220和/或支撑构件230可为可分离的,例如以有利于易于运输图像捕获单元结构200或者从图像捕获单元结构200释放图像捕获设备300(下文进一步描述的)。例如,顶部部分210可能够从支撑构件230移除。在一些实施方案中,图像捕获单元 200可包括可将顶部部分210耦接到支撑构件230的紧固件232(例如,旋钮、螺钉、夹具等)。例如,支撑构件230可包括延伸穿过顶部部分210 中的开口的螺纹部分,并且紧固件232可包括与支撑构件230的螺纹部分啮合的螺纹部分。支撑构件230的螺纹部分可与支撑构件230的其它部分相比具有更小直径,并且紧固件232可与顶部部分210中的开口相比具有更大直径。因此,通过将紧固件232和支撑构件230耦接在一起,顶部部分210可固着在支撑构件230和紧固件232之间。
在一些实施方案中,顶部部分210可包括设备固着部分216。设备固着部分216可在顶部部分210的底部表面214中例如是被配置为接收图像捕获设备300的凹陷部、沟槽等。同样,底部部分220可包括设备固着部分226。设备固着部分226可在底部部分220的顶部表面222中例如是被配置为接收图像捕获设备300的凹陷部、沟槽等。在一些实施方案中,设备固着部分216可延伸穿过顶部部分210的外边缘217(例如参见图3)。在一些实施方案中,设备固着部分226可从底部部分220的外边缘227向内间隔开。在一些实施方案中,设备固着部分216可与每个设备固着部分 226(例如,竖直地)对准,使得每对设备固着部分216、226可支撑并固着一个图像捕获设备300。例如,图像捕获设备300可具有第一端部302 和第二端部304。在一些实施方案中,设备固着部分216可接收并支撑图像捕获设备300的第一端部302。此外,设备固着部分226可接收并支撑图像捕获设备300的第二端部304。因此,可将图像捕获设备300支撑并固着在顶部部分210和底部部分220之间。在一些实施方案中,当组装图像捕获单元结构200时,仅通过设备固着部分216、226将图像捕获设备 300固着到图像捕获单元结构200。例如,如上所述,顶部部分210可能够从支撑构件230移除。因此,为了将图像捕获设备300安装在图像捕获单元结构200中,可首先移除顶部部分210。然后,可将每个图像捕获设备 300的第二端部304***相应的设备固着部分226中。然后,顶部部分210 可耦接到支撑构件230(例如,如上所述)并且对准,使得相应的设备固着部分216可与每个图像捕获设备300的第一端部302对准。顶部部分 210的底部表面214和底部部分220的顶部表面222之间的距离(例如,竖直距离)可小于图像捕获设备300的第一端部302和第一端部304之间的距离(例如,竖直距离)。因此,由于顶部部分210通过支撑构件230 相对于底部部分220部分地固定,因此图像捕获设备300可通过设备固着部分216、226固着在顶部部分210和底部部分220之间。
在一些实施方案中,图像捕获单元结构200的第二端部204(例如,底部端部)可设置在图像捕获单元支撑件240(例如参见图12)上、耦接到该图像捕获单元支撑件或与该图像捕获单元支撑件一体地形成。图像捕获单元支撑件240可为例如三脚架、两脚架、单脚架、常平架、束具、稳定器、支撑臂或其它静止或移动支撑设备或支撑***。在一些实施方案中,支撑构件230可延伸穿过底部部分220(例如,用于连接到图像捕获单元支撑件240)。
在一些实施方案中,图像捕获单元结构200可不包括电子部件。在一些实施方案中,图像捕获单元结构200的底部部分220包括孔,使得布线、连接器、电缆等可延伸穿过底部部分220并且可由图像捕获设备300 接收。在一些实施方案中,此类孔可设置在底部部分220的一些或全部设备固着部分226中,使得布线、连接器、电缆等可连接到例如图像捕获设备300的第二端部304上的端口,同时第二端部304由设备固着部分226固着。在一些实施方案中,图像捕获单元结构200包括可由图像捕获设备300 接收的集成布线、连接器、电缆等。此类布线、连接器、电缆等可例如用于在图像捕获设备300固着在图像捕获单元结构200中时给图像捕获设备 300充电、或者将数据上传到该设备和/或从该设备下载数据。然而,在使用期间(例如,在捕获图像时),每个图像捕获设备300可捕获图像而无需与图像捕获单元100的另一个部件进行任何有线连接。在一些实施方案中,可使用增材制造(例如,3D打印等)来制造图像捕获单元结构200。
参考图3至图5,图像捕获设备300可围绕图像捕获单元100的中心轴线110(该中心轴线可与上述中心轴线11具有相同特性)径向地设置。在一些实施方案中,图像捕获设备300可以柱形布置设置,并且可通过图像捕获单元结构200相对于彼此固定。在一些实施方案中,图像捕获设备 300可通过图像捕获单元结构200在3平方英尺区域内彼此固定。如图所示,图像捕获单元100可包括十四个图像捕获设备300,然而,图像捕获单元100可包括足以实现本文所述的特征的任何数量的图像捕获设备 300。例如,图像捕获单元100可包括十二个、十三个、十四个或更多个图像捕获设备300。在一些实施方案中,图像捕获设备300可围绕中心轴线110等距地间隔开。在一些实施方案中,图像捕获设备300可以间隔角370 相对于中心轴线110间隔开。间隔角370可为例如从中心轴线110延伸穿过第一图像捕获设备300的图像捕获透镜320的中心的第一线和从中心轴线110延伸穿过第二图像捕获设备300的图像捕获透镜320的中心的第二线之间的角度。在一些实施方案中,间隔角370可为约10度至45度。在一些实施方案中,间隔角370可为约20度至30度。
如图3和图4所示,例如,图像捕获设备300可相对于中心轴线110以针轮布置设置。例如,图像捕获设备300可通常具有矩形实心形状(例如参见图3)。在一些实施方案中,图像捕获设备300具有由较薄边缘表面包围的两个大致平行前表面和后表面。因此,每个图像捕获设备300可具有平行于前表面和后表面并且居中地设置在前表面和后表面之间的主要中心平面。当从上方观察时(例如,如图4中),图像捕获设备300可围绕中心轴线 110形成针轮布置,其中图像捕获设备300的主要中心平面不与中心轴线 110相交。此外,每个图像捕获设备300的视场中心线334可在垂直于相应图像捕获设备300的主要中心平面的方向上取向。因此,图像捕获设备300 的视场中心线334一起也可绕中心轴线110形成针轮布置。在一些实施方案中,存在一起形成针轮布置的至少5个图像捕获设备300。在一些实施方案中,存在一起形成针轮布置的至少10个图像捕获设备300。在一些实施方案中,存在一起形成针轮布置的14个图像捕获设备300。
组合视场350可包括重叠半径352,该重叠半径可由中心轴线110和重叠点351(例如,其中两个相邻视场330首先重叠的点)之间的距离限定。重叠半径352可为例如从中心轴线110到通过重叠点351中的每个重叠点的圆的距离。组合视场350可仅在大于或等于重叠半径352的距离处连续。在一些实施方案中,在距中心轴线110大于重叠半径352的距离处,可不存在至少一个图像捕获设备300不可见的区域。在一些实施方案中,在小于重叠半径352的距离处,可存在未捕获部分354,这些未捕获部分可为在任何图像捕获设备300的视场中不存在的区域。
如图4和图5所示,每个图像捕获设备300的视场中心线334可相对于中心轴线110在非径向方向上指向。由于视场中心线334在非径向方向上指向,因此重叠半径352可小于视场中心线334在径向方向上指向的情况。减小重叠半径352可例如有利于相邻视场330之间的更大重叠量,这可例如改进处理设备500组合输出图像340的能力,从而提高组合图像360的质量。此外,减小重叠半径352可减小未捕获部分354的大小,这可例如通过允许图像捕获单元100捕获小空间中的图像或者捕获相对靠近于图像捕获单元100设置的主题图像来改善图像捕获单元100的灵活性和可用性。在一些实施方案中,重叠半径352可小于5英尺。在一些实施方案中,重叠半径352可小于3英尺。
在一些实施方案中,一个图像捕获设备300的视场中心线334可相对于另一个图像捕获设备300的视场中心线334以相对视场角380设置。在一些实施方案中,相对视场角380介于约20度和45度之间。在一些实施方案中,相邻图像捕获设备300的输出图像340可重叠至少百分之30。在一些实施方案中,相邻图像捕获设备300的输出图像340可重叠至少百分之50。在一些实施方案中,重叠部分341与非重叠部分342之比可为约 1:3。在一些实施方案中,重叠部分341与非重叠部分342之比可为约1:2。在一些实施方案中,重叠部分341与非重叠部分342之比可为约1:1。
如上所述,在一些实施方案中,视场中心线334可在非径向向外方向上指向。如图4所示,中心线334可在由径向角336和切向角337限定的方向上指向。径向角336可为例如视场中心线334和从中心轴线110延伸并通过视场中心线334的原点(例如,图像捕获透镜320)的径向线120 之间的角度。切向角337可为例如视场中心线334和垂直于径向线120延伸并通过通过视场中心线334的原点(例如,图像捕获透镜320)的切线 130之间的角度。在一些实施方案中,径向线120、切线130和视场中心线 334共面。在一些实施方案中,径向线120、切线130和视场中心线334各自设置在相同水平平面中。
径向角336和切向角337可为互补角度。在一些实施方案中,径向角 336可为约零度。在一些实施方案中,径向角336可为至少30度。在一些实施方案中,径向角336可为至少45度。在一些实施方案中,径向角336 可介于45度至60度之间。在一些实施方案中,径向角336的大小可被设定成使得图像捕获设备300恰好定位在相邻图像捕获设备300的视场330之外(例如,更靠近于中心轴线110),使得可最小化重叠半径352,而图像捕获设备300本身不会显现在输出图像340中。
在一些实施方案中,图像捕获单元100的每个图像捕获设备300被配置为捕获并产生输出图像340,并且输出图像340可组合在一起以形成单个连续组合图像360。例如,图6A示出了图5所示的图像捕获设备300的输出图像340,并且图6B示出了图6A的一起组合为组合图像360的输出图像340。由于图5的图像捕获单元比图1的图像捕获单元包括更多图像捕获设备300,然而每个输出图像340可形成组合图像360的更小部分。因此,与图1的图像捕获单元100(其仅具有5个设备)相比,图5的图像捕获单元100(其具有14个设备)可产生更高分辨率的组合图像360。例如,在一些实施方案中,每个图像捕获设备300可被配置为捕获高分辨率图像。在一些实施方案中,每个图像捕获设备300可被配置为捕获4K 视频、6K视频或其它高分辨率视频。在一些实施方案中,每个视频可以例如30帧/秒、60帧/秒或以另一个帧速率拍摄。在一些实施方案中,组合图像360可为例如4K视频、12K视频、16K视频或其它高分辨率视频。
如上所述,图像捕获设备300可为智能电话,这可增加图像捕获单元 100的使用灵活性和模块化。例如,每个图像捕获设备300可独立地用作智能电话,并且这样可用于除捕获图像之外的目的。由于智能电话通常是个人拥有的设备,因此拥有智能电话的若干人可聚在一起并(例如,暂时地)使用这些人的个人设备作为图像捕获单元100的一部分。然后,在记录会话结束之后,每个人可拿回他们的智能电话并再次将智能电话用作个人设备。此外,一些智能电话被周期性地置换。因此,用户可例如通过使用智能电话作为图像捕获单元100的一部分来延长旧智能电话的使用寿命。例如,此类灵活性可允许用户创建高分辨率、360度图像,而无需昂贵的专用***。此外,由于图像捕获设备300可为智能电话,因此每个图像捕获设备300将能够记录该每个图像捕获设备自己的音轨并将这些音轨与捕获的图像相嵌。可使用与视频相同的过程自动地同步音频通道,如本文其它地方所述。
此外,由于图像捕获设备300可为可商购获得的设备,因此图像捕获设备300可易于置换。例如,图像捕获设备300可在零售店处易得,零售店可向新的和/或置换图像捕获设备300提供方便源(例如,在图像捕获设备300丢失或发生故障的情形下)。如上所述,智能电话通常是个人拥有的设备。因此,例如如果图像捕获设备300发生故障,则图像捕获单元100的用户可用用户自己的个人智能电话置换故障的图像捕获设备300,并且然后继续使用图像捕获单元100。然而,即使没有置换图像捕获设备300 可用,图像捕获单元100仍可在具有少于图像捕获单元结构200被配置为支持的最大数量的图像捕获设备300的情况下操作。例如,图像捕获单元结构200可被配置为固着并支持14个图像捕获设备300。然而,图像捕获单元100可在具有少于14个图像捕获设备300的情况下操作。例如,图像捕获单元100可在具有仅7个图像捕获设备300的情况下操作,其中一个设备固着在每隔一对设备固着部分216、226中,或者其中各设备固着在连续的设备固着部分216、226对中(例如,以捕获180度图像)。
如图7所示,图像捕获设备300可通过网络600与控制设备400和/或处理设备500通信。图像捕获设备300还可通过网络600彼此通信。网络 600可为或可包括例如对等网络、局域网(“LAN”)、无线局域网 (“WLAN”)、校园网(“CAN”)、城域网(“MAN”)或广域网 (“WAN”)。在一些实施方案中,图像捕获设备300、控制设备400和/ 或处理设备500各自包括被配置为无线地发送和接收信息的收发器。收发器可被配置为在多种频率上(诸如特高频(例如,在30MHz和300MHz之间)或超高频(例如,在300MHz和3GHz之间)范围内)操作,并且可与特定网络标准例如诸如手机、WIFITM或无线网络兼容。在一些实施方案中,图像捕获设备300、控制设备400和/或处理设备500可使用有线连接(例如,以太网等)连接到网络600。
在一些实施方案中,图像捕获设备300可仅使用对等连接来与彼此、控制设备400和/或处理设备500通信,也就是说,图像捕获设备300、控制设备400和/或处理设备500之间的通信不需要另外的网络设备(例如,服务器、路由器或ISP)。以此方式,图像捕获设备300、控制设备400和/ 或处理设备500可在不需要任何外部网络基础设施(例如,路由器)的情况下通信,因此从而允许***例如在远程位置中使用,而无需任何专用外部网络或互联网连接。
参考图8至图10,控制设备400可与图像捕获设备300通信并控制这些图像捕获设备。在一些实施方案中,控制设备400可为计算设备,并且可包括例如处理器、内部存储器和电池。控制设备400可为例如平板计算机、膝上型计算机、台式计算机、智能电话等。在一些实施方案中,控制设备400是与图像捕获设备300相同类型的设备。
如上所述,控制设备400可使用对等网络600与图像捕获设备300通信。然而,在一些实施方案中,例如由于控制设备400的软件和/或硬件限制,控制设备400被配置为使用对等网络连接到有限数量的图像捕获设备 300。然而,在一些实施方案中,一个或多个图像捕获设备300可在控制设备400和其它图像捕获设备300之间转发信息。因此,控制设备400可与一定数量的图像捕获设备300有效地通信(例如,间接地通过转发的通信),该数量超过控制设备400可直接连接到的图像捕获设备300的有限数量。
如图8所示,例如,图像捕获设备300A可与控制设备400直接通信。图像捕获设备300B可与图像捕获设备300A直接通信,并且图像捕获设备 300A可在图像捕获设备300B和控制设备400之间转发包括命令的信息。
与控制设备400一样,在一些实施方案中,例如由于图像捕获设备300A或对等标准的软件和/或硬件限制,图像捕获设备300A还被配置为使用对等网络与有限量的图像捕获设备300B通信。因此,可限制可连接到图像捕获设备300A的图像捕获设备300B的数量。然而,在一些实施方案中,图像捕获设备300B还可在图像捕获设备300A和其它图像捕获设备之间转发信息,这些其他图像捕获设备还可在其它图像捕获设备之间转发信息,以此类推。这样,控制设备400可使用上述间接通信结构来与任何数量的图像捕获设备300间接地通信并控制该任何数量的图像捕获设备。
如图9所示,例如,控制设备400可包括用户界面410。在一些实施方案中,用户界面410包括用于接收用户输入并向用户传送信息的触摸屏显示器。在一些实施方案中,用户界面410包括用于从用户接收输入的机电按钮。在一些实施方案中,用户界面410包括用于与用户通信或向用户显示信息的视觉显示器。在一些实施方案中,用户界面410包括触摸屏、机电按钮和/或视觉显示器的组合。用户界面410可显示关于例如如下的信息:图像捕获设备300的状态(例如,剩余电池电平和存储器水平)、图像捕获设备300的图像捕获参数(例如,光圈、快门速度、灵敏度 (ISO)、帧速率)和/或关于图像捕获单元100或图像捕获设备300的其它信息。在一些实施方案中,用户界面410还可显示关于网络600的信息,诸如例如哪些设备连接到网络600。在一些实施方案中,用户界面410 还可显示关于处理设备500的信息,诸如例如处理设备500的状态(例如,剩余电池电平和存储器水平、处理器使用情况、处理状态)。
在一些实施方案中,控制设备400可从图像捕获设备300接收输出图像340,并且输出图像340可显示在用户界面410上(例如参见图9)。在一些实施方案中,控制设备400可实时地从图像捕获设备300接收并显示图像340。如上所述,输出图像340可为高分辨率图像,并且因此可具有大文件大小。为了经由网络600更有效地实时地传输输出图像340,图像捕获设备300可向控制设备400传输大小已减小(例如,压缩和/或缩小取样)的输出图像340的“预览”版本。尽管控制设备400接收输出图像 340的减小尺寸版本,但输出图像340的更高质量的全大小版本可被保留并存储在每个图像捕获设备300的存储器中,并且可被提取(例如,通过处理设备500)以供进一步非实时地处理(例如,在记录会话之后)。在一些实施方案中,控制设备400和处理设备500为相同设备。在一些实施方案中,控制设备400处理输出图像340并将这些输出图像组合为组合图像360,并且在用户界面410上实时地显示组合图像360。在一些实施方案中,处理设备500实时地处理并组合输出图像340,并且然后将组合图像 360传输到控制设备400以便实时地显示在用户界面410上。
用户界面410可从图像捕获单元100的用户接收可例如用于控制图像捕获单元100的功能的输入。例如,用户可使用用户界面410监测且/或调整图像捕获设备300的某些图像捕获参数。在一些实施方案中,用户可调整图像捕获设备300的图像捕获参数,诸如例如图像捕获设备300的光圈、快门速度、灵敏度(例如,ISO)、帧速率、一个或多个焦点、焦距、白平衡和/或其它参数。在一些实施方案中,用户可单独地调整每个图像捕获设备300的图像捕获参数。在一些实施方案中,用户可同时地调整每个图像捕获设备300的图像捕获参数。
在一些实施方案中,用户可调整一个图像捕获设备300的图像捕获参数,并且一个或多个其它图像捕获设备300的图像捕获参数可基于用户的输入自动地调整。例如,用户可将一个图像捕获设备300指定为优先级设备,并且其它图像捕获设备300可基于该优先级设备的图像捕获参数自动地调整这些其它图像捕获设备的图像捕获参数。类似地,用户可经由用户界面410 例如通过轻击在用户界面410上的输出图像340中示出的主题来选择优先级主题(例如,在所捕获图像中显现的人)。然后,在其中显现优先级主题的图像捕获设备300可自动地调整该图像捕获设备的图像捕获参数,以最佳地捕获优先级主题的图像。然后,在其中优先级主题未显现的图像捕获设备 300可基于优先级设备的图像捕获参数自动地调整这些图像捕获设备的图像捕获参数,使得例如所有图像捕获设备300的图像捕获参数一致。图像捕获设备300的图像捕获参数之间的此类一致性可例如提高处理设备500组合输出图像340的能力和/或可提高组合图像360的质量。
如图10所示,例如,控制设备400可利用图像捕获单元100的图像捕获设备300中的每个图像捕获设备发送和接收电子数据(直接或间接地)。电子数据可包括例如与如上文所述的每个图像捕获设备300的图像捕获参数相关的信息和/或命令。
控制设备400可用于使图像捕获设备300同步,使得例如每个图像捕获设备300同时开始捕获图像。控制设备400和图像捕获设备300中的每个图像捕获设备可包括内部时钟,这些内部时钟可不一定同步。然而,同步图像捕获可对于产生高质量组合图像360是有利的,因为非同步图像捕获可损害处理设备500组合输出图像340的能力,或者可例如在主题在图像捕获设备300的视场330之间移动的情形下造成重影或其它不期望的影响。因此,如下所述,控制设备400可执行同步操作,以便补偿控制设备 400和图像捕获设备300的内部时钟之间的差异。
为了使每个图像捕获设备300A与控制设备400同步(例如,使内部时钟同步或使用于执行命令的开始时间同步),控制设备400可首先将电子数据420A发送到图像捕获设备300A中的每个图像捕获设备,并且还可将电子数据420A存储在每个图像捕获设备的存储器中。电子数据420A可包括例如控制设备400将电子数据420A发送到图像捕获设备300A的时间(根据控制设备400的内部时钟)。然后,当图像捕获设备300A从控制设备400 接收电子数据420时,每个图像捕获设备300A可将电子数据430A发送回到控制设备400。电子数据430A可包括例如每个图像捕获设备300A从控制设备400接收电子数据420A的时间(根据每个图像捕获设备300A的内部时钟)。然后,当控制设备400从每个图像捕获设备300A接收电子数据430A 时,控制设备400可将电子数据430A存储在该控制设备的存储器中。控制设备400还可将控制设备400从每个图像捕获设备300A接收电子数据430A 的时间(根据控制设备400的内部时钟)存储在该控制设备的存储器中。
控制设备400可计算控制设备400的内部时钟和每个图像捕获设备 300A的内部时钟之间的差异并且补偿网络延迟(例如,电子数据420A在控制设备400和每个图像捕获设备300A之间行进所需的时间)。例如,为了补偿网络延迟,控制设备400可计算由控制设备400发送的时间电子数据420A和由控制设备400接收的时间电子数据430A之间的差异的平均值。然后,控制设备可通过从控制设备发送电子数据420A的时间(根据控制设备400的内部时钟)和图像捕获设备300A接收电子数据430A的时间(根据图像捕获设备300A的内部时钟)之间的差异减去所确定的网络延迟来确定控制设备400的内部时钟和图像捕获设备300A的内部时钟之间的差异。在一些实施方案中,在同步操作期间,控制设备400和图像捕获设备300可最小化或停止与同步过程无关的网络流量(例如,上文所述的图像预览),以便在同步过程期间最小化网络延迟和/或网络延迟波动,这可帮助更准确地确定网络延迟的量以及因此图像捕获设备300A和控制设备400的内部时钟之间的差异。
在控制设备400计算出控制设备400的内部时钟和每个图像捕获设备 300A的内部时钟之间的差异之后,所计算的时间差异可用于使图像捕获设备300A的图像捕获同步。例如,用户可使用控制设备400的用户界面410 来启动图像捕获设备300A的图像捕获。然后,控制设备400可选择可为例如将来数秒的记录开始时间。然后,控制设备400可将记录开始时间传送到图像捕获设备300A并且补偿控制设备400的内部时钟和每个图像捕获设备300A的内部时钟之间的所确定的差异。
例如,使用上述过程,控制设备400可确定第一图像捕获设备300A所具有的内部时钟比控制设备400的内部时钟提前100毫秒。同样,使用上述过程,控制设备可确定第二图像捕获设备300A所具有的内部时钟比控制设备400的内部时钟晚200毫秒。在用户发起图像捕获(例如,使用用户界面 410)之后,控制设备400可选取将来2000毫秒的记录开始时间(相对于控制设备400的内部时钟)。然而,为了补偿控制设备400的内部时钟和第一图像捕获设备300A的内部时钟之间的时间差异,控制设备400可指示第一图像捕获设备300A在2100毫秒(例如,2000加100毫秒)时开始记录。同样,为了补偿控制设备400的内部时钟和第二图像捕获设备300A的内部时钟之间的时间差异,控制设备可指示第一图像捕获设备300A在1800毫秒(例如,2000减200毫秒)时开始记录。因此,尽管控制设备400、第一图像捕获设备300A和第二图像捕获设备300A的内部时钟之间存在差异,第一图像捕获设备300A和第二图像捕获设备300A可同时开始捕获图像。
如上所述,在一些实施方案中,一些图像捕获设备300A可充当控制设备400和其它图像捕获设备300B之间的集线器(例如,信息继电器)。因此,在一些实施方案中,可能需要计算图像捕获设备300A的内部时钟和连接到图像捕获设备300A的图像捕获设备300B的内部时钟之间的差异。图像捕获设备300A和300B的计算和同步可使用与上文关于控制设备400和图像捕获设备300A描述的类似过程。
例如,为了使图像捕获设备300A与图像捕获设备300B的内部时钟同步,图像捕获设备300A可首先将电子数据420B发送到图像捕获设备 300B中的每个图像捕获设备,并且还可将电子数据420B存储在图像捕获设备300B的存储器中。电子数据420B可包括例如图像捕获设备300A将电子数据420B发送到图像捕获设备300B的时间(根据图像捕获设备 300A的内部时钟)。然后,当图像捕获设备300B从图像捕获设备300A 接收电子数据420B时,每个图像捕获设备300B可将电子数据430B发送回到图像捕获设备300A。电子数据430B可包括例如每个图像捕获设备 300B从图像捕获设备300A接收电子数据420B的时间(根据每个图像捕获设备300B的内部时钟)。然后,当图像捕获设备300A从每个图像捕获设备300B接收电子数据430B时,图像捕获设备300A可将电子数据430B 存储在图像捕获设备300A的存储器中。图像捕获设备300A还可将图像捕获设备300A从每个图像捕获设备300B接收电子数据430B的时间(根据图像捕获设备300A的内部时钟)存储在图像捕获设备300A的存储器中。
图像捕获设备300A可计算图像捕获设备300A的内部时钟和每个图像捕获设备300B的内部时钟之间的差异并且补偿网络延迟(例如,电子数据420B在图像捕获设备300A和每个图像捕获设备300B之间行进所需的时间)。例如,为了补偿网络延迟,图像捕获设备300A可计算由图像捕获设备300A发送的时间电子数据420B和由图像捕获设备300A接收的时间电子数据430B之间的差异的平均值。然后,图像捕获设备300A可通过从控制设备发送电子数据420B的时间(根据图像捕获设备300A的内部时钟)和图像捕获设备300B接收电子数据430B的时间(根据图像捕获设备300B的内部时钟)之间的差异减去所确定的网络延迟来确定图像捕获设备 300A的内部时钟和图像捕获设备300B的内部时钟之间的差异。在一些实施方案中,在同步操作期间,图像捕获设备300A和图像捕获设备300B可最小化或停止与同步过程无关的网络流量(例如,上文所述的图像预览),以便在同步过程期间最小化网络延迟和/或网络延迟波动,这可帮助更准确地确定网络延迟的量以及因此图像捕获设备300B和图像捕获设备 300A的内部时钟之间的时间差异。
在图像捕获设备300A计算出图像捕获设备300A的内部时钟和每个图像捕获设备300B的内部时钟之间的差异之后,所计算的时间差异可用于使图像捕获设备300A和300B的图像捕获同步。例如,用户可使用控制设备400的用户界面410来启动图像捕获设备300A和300B的图像捕获。然后,控制设备400可选择可为例如将来数秒的记录开始时间。然后,控制设备400可将记录开始时间传送到图像捕获设备300A并且补偿控制设备 400的内部时钟和每个图像捕获设备300A的内部时钟之间的所确定的差异。同样,图像捕获设备300A可将记录开始时间传送到图像捕获设备 300B并且补偿图像捕获设备300A的内部时钟和每个图像捕获设备300B 的内部时钟之间的所确定的差异。
如上所述,在一些实施方案中,图像捕获设备300B还可充当集线器以用于在图像捕获设备300A和其它图像捕获设备(未示出)之间转发信息,这些其他图像捕获设备还可充当集线器以用于在另外的图像捕获设备之间转发信息,以此类推。在包括另外的图像捕获设备的一些实施方案中,与上文关于图像捕获设备300A和300B描述的同步过程类似的同步过程可用于使另外的图像捕获设备同步。
在一些实施方案中,上述通信路径和过程还可用于在控制设备400和图像捕获设备300之间发送电子数据(例如,命令和指令)以达到除上述时间同步过程之外的目的。例如,上述通信路径和过程可用于发送和接收与图像捕获设备300的图像捕获参数有关的命令、指令和/或其它信息。在一些实施方案中,例如,可在图像捕获设备300正在捕获图像时(例如,在记录视频时)实时地调整某些图像捕获参数,并且因此同时地对图像捕获参数进行调整可能是有利的。因此,控制设备400可例如将基于时间的命令发送到图像捕获设备300,并且补偿控制设备400的内部时钟和每个图像捕获设备300的内部时钟之间的所确定的差异,从而允许同时地调整图像捕获设备300的图像捕获参数。在一些实施方案中,控制设备400可在每次发出新命令时计算控制设备400的内部时钟和每个图像捕获设备 300的内部时钟之间的差异。在一些实施方案中,控制设备400可仅以某一间隔(例如,每分钟一次、每小时一次或每个记录会话一次)计算控制设备400的内部时钟和每个图像捕获设备300的内部时钟之间的差异,并且在间隔之间,可基于控制设备400的内部时钟和每个图像捕获设备300 的内部时钟之间的先前计算的差异来发出命令。
如图11所示,网络600可包括处理设备500和图像捕获设备300。在一些实施方案中,处理设备500从图像捕获设备接收图像和/或其它图像相关数据(例如,图像捕获参数)。如上所述,在一些实施方案中,图像捕获设备300可通过无线连接与处理设备500通信。在一些实施方案中,图像捕获设备300各自经由直接无线连接与处理设备500通信。在一些实施方案中,一些图像捕获设备300与处理设备500直接通信,并且一些图像捕获设备使用如上文关于控制设备400所述的间接通信结构间接地通信 (例如,通过另一个图像捕获设备300)。在一些实施方案中,图像捕获设备300使用有线连接与处理设备500通信。在一些实施方案中,图像捕获设备300使用无线连接与控制设备400通信,并且图像捕获设备300使用有线连接与处理设备500通信。
在一些实施方案中,处理设备500可为计算设备,并且可包括例如处理器、内部存储器和电池。处理设备500可为例如平板计算机、膝上型计算机、台式计算机等。在一些实施方案中,处理设备500可为智能电话。在一些实施方案中,处理设备500可为与图像捕获设备300相同类型的设备。在一些实施方案中,处理设备500可为控制设备400。在一些实施方案中,处理设备500可为图像捕获设备300中的一个图像捕获设备。在一些实施方案中,图像处理可由图像捕获设备300中的一个或多个图像捕获设备分布并执行。在一些实施方案中,图像处理可由图像捕获设备300和控制设备400中的一者或多者分布并执行。在一些实施方案中,处理设备500是与控制设备 400分离的设备可能是有利的,因为由处理设备执行的操作与控制设备400 所需的相比可更加处理器密集并且可受益于能力更强的硬件。以此方式,控制设备400与处理设备500(例如,台式计算机或膝上型计算机)相比可为更轻质、便携式设备(例如,平板计算机或智能电话)。
在一些实施方案中,每个图像捕获设备300可保存图像数据以及图像参数数据(例如,当捕获图像时使用的图像捕获参数),并且图像参数数据可与该图像参数数据涉及的图像数据相关联。处理设备500可接收图像数据并且可在处理并组合输出图像340时使用图像数据来对这些图像进行调整和/或补偿。例如,在一些实施方案中,一个图像捕获设备300可具有与另一图像捕获设备300不同的某些图像捕获参数。然后,处理设备500 可使用图像数据来对输出图像340作出调整(例如,曝光或着色),以例如提高组合图像360的质量。
如上所述,处理设备500可使用图像拼接过程以便将重叠部分341组合在一起。例如,处理设备500可对输出图像340进行分析并作出某些变更,以便创建更无缝的组合图像360。例如,处理设备可首先检测重叠部分341 中的关键点(例如,边缘、拐角或其它独特特征)。然后,处理设备500可将重叠部分341的所检测到的关键点匹配在一起。然后,处理设备500可基于所匹配的关键点例如对准、变换、旋转和/或平移输出图像340或输出图像340的一部分。然后,处理设备500可将输出图像340合成(例如,组合)在一起,以便产生组合图像360。在一些实施方案中,处理设备500可对输出图像340进行混合、校准或执行其它操作,以便将输出图像340组合为无缝的组合图像360。在一些实施方案中,处理设备可包括被配置为自动地组合输出图像340的软件应用程序。在一些实施方案中,输出图像340可为视频,并且处理设备500可将输出图像340逐帧地组合在一起。
在一些实施方案中,处理设备500可使用估计的深度数据(上文所述)来更准确地组合输出图像340。例如,估计的深度数据可提供与输出图像340中不同像素的物理距离有关的信息。因此,此类深度信息以及上文所述的其它检测和比较可允许处理设备500以更大细微差别和准确性组合输出图像340。同样,此类深度信息可在对象从一个输出图像340传递到另一个输出图像时允许处理设备更准确地检测并比较这些对象,这可有利于产生更加无缝的组合输出图像360。
如图12所示,在一些实施方案中,图像捕获单元100可包括图像捕获设备300,这些图像捕获设备设置在图像捕获单元结构200的第一端部202 (例如,顶部)上并且在大致向上方向上指向。图12仅示出了设置在图像捕获单元结构200的第一端部202上的两个图像捕获设备300。然而,图像捕获单元100可包括设置在图像捕获单元结构200的第一端部202上的多于或少于两个图像捕获设备100。在一些实施方案中,例如,图像捕获单元 100包括设置在图像捕获单元结构200的第一端部202上的一个、两个、三个、四个、五个或更多个图像捕获设备300。设置在图像捕获单元结构200 的第一端部202上的图像捕获设备300可包括与本文所述的其它图像捕获设备300相同的特征和功能。此外,图12仅示出了设置在图像捕获单元结构200的侧面上的两个图像捕获设备300。然而,如上所述,图像捕获单元 100可包括围绕中心轴线110径向地设置的任何数量的图像捕获设备300。
在一些实施方案中,设置在图像捕获单元结构200的第一端部202上的图像捕获设备300可具有视场330,该视场包括相对于中心轴线110在轴向方向(例如,竖直方向)上指向的部分。在一些实施方案中,设置在图像捕获单元结构200的第一端部202上的图像捕获设备300可具有视场中心线 334,该视场中心线相对于中心轴线110在非轴向方向上指向,但设置在第一端部202上的图像捕获设备300的视场330可在重叠部分331处与彼此重叠。同样,在一些实施方案中,设置在图像捕获单元结构200的第一端部 202上的图像捕获设备300可具有视场中心线334,该视场中心线相对于中心轴线110在非水平方向上指向,但设置在第一端部202上的图像捕获设备 300的视场330可与绕中心轴线110径向地设置的图像捕获设备的视场330 重叠。在一些实施方案中,图像捕获单元100还可包括设置在图像捕获单元结构200的第二端部204(例如,底部)上的图像捕获设备300。
图像捕获单元结构200(包括用于支撑设置在第一端部202上的图像捕获设备300的结构)的示例在2019年8月15日提交的名称为“VIDEO DEVICE STAND”的美国设计专利申请第29/701,978号中示出,该申请以引用方式并入本文。
如图12所示,在一些实施方案中,组合视场350由组合视角358限定。组合视角358可为例如组合视场350在与中心轴线110共面并且平行于中心轴线110的平面中延伸的角度范围(例如,角度大小)。在一些实施方案中,组合视角358可为组合视场350在与中心轴线110共面的竖直平面中延伸的角度范围(例如,角度大小)。在一些实施方案中,组合视角358可为360度。然而,在一些实施方案中,组合视角358小于360度。例如,在一些实施方案中,组合视角358介于约360度和180度之间。在一些实施方案中,组合视角358介于约270度和180度之间。在一些实施方案中,设置在图像捕获单元结构200的第一端部202上的图像捕获设备300和绕中心轴线110径向地设置的图像捕获设备300可一起构成组合视场,该组合视场为至少半球状形状或具有构成球体的一部分的形状。在一些实施方案中,设置在图像捕获单元结构200的第一端部202上的图像捕获设备300、设置在图像捕获单元结构200的第二端部204上的图像捕获设备300和绕中心轴线 110径向地设置的图像捕获设备300可一起构成形状为球形的组合视场。
众所周知,使用个人可识别信息应遵循公认为满足或超过维护用户隐私的行业或政府要求的隐私政策和做法。具体地,应管理和处理个人可识别信息数据,以使无意或未经授权的访问或使用的风险最小化,并应当向用户明确说明授权使用的性质。
为了说明的目的,前述描述使用具体命名以提供对所述实施方案的彻底理解。然而,对于本领域的技术人员而言将显而易见的是,不需要具体细节,以便实践所述实施方案。因此,出于例示和描述的目的,呈现了对本文所述的具体实施方案的前述描述。它们并非意在穷举或将实施方案限制到所公开的精确形式。对于本领域的普通技术人员而言将显而易见的是,鉴于上面的教导内容,许多修改和变型是可行的。
Claims (35)
1.一种用于从独立图像源产生连续图像的***,其特征在于所述***包括:
图像捕获单元,所述图像捕获单元包括:
图像捕获设备,所述图像捕获设备用于同时地捕获图像;以及
图像捕获单元结构,所述图像捕获单元结构用于将所述图像捕获设备相对于彼此并相对于所述图像捕获单元结构支撑在固定位置中,其中所述图像捕获设备围绕所述图像捕获单元的中心轴线径向地设置,
其中所述图像捕获设备中的每个图像捕获设备的视场的中心线与从所述中心轴线延伸的径向线形成至少30度角,其中每个图像捕获设备的所述视场与两个相邻图像捕获设备的所述视场重叠,并且其中所述图像捕获设备的所述视场一起构成360度视场。
2.根据权利要求1所述的用于从独立图像源产生连续图像的***,所述***还包括:控制设备,其中所述控制设备与所述图像捕获设备通信,并且其中所述控制设备被配置为向所述图像捕获设备发送同步命令。
3.根据权利要求2所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备通过无线连接与所述控制设备通信。
4.根据权利要求2所述的用于从独立图像源产生连续图像的***,其中所述控制设备被配置为接收由所述图像捕获设备同时地且实时地捕获的图像。
5.根据权利要求2所述的用于从独立图像源产生连续图像的***,其中所述控制设备是平板计算机。
6.根据权利要求2所述的用于从独立图像源产生连续图像的***,所述***还包括:处理设备,其中所述处理设备与所述图像捕获设备通信,并且其中所述处理设备被配置为接收并处理由所述图像捕获设备捕获的图像。
7.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备中的每个图像捕获设备包括处理器、内部存储器和电池,并且其中所述图像捕获设备中的每个图像捕获设备被配置为同时地捕获图像,而无需与所述控制设备或所述图像捕获单元的另一个部件进行任何有线连接。
8.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备是智能电话。
9.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获单元包括多于10个所述图像捕获设备。
10.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备通过所述图像捕获单元结构以柱形布置相对于彼此固定。
11.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获单元具有小于1平方英尺的占有面积。
12.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中每个图像捕获设备的视场在所述中心轴线的3英尺半径内与两个相邻图像捕获设备的视场重叠。
13.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备中的每个图像捕获设备的视场的中心线与从所述中心轴线延伸的径向线形成至少45度角。
14.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备中的每个图像捕获设备的视场的中心线共面。
15.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中每个图像捕获设备的视场的中心线相对于相邻图像捕获设备的视场的中心线的角度在10度和35度之间。
16.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中每个图像捕获设备的输出图像与两个相邻图像捕获设备的所述输出图像重叠,并且其中每个输出图像的非重叠部分与重叠部分之比为至少3:1。
17.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中每个图像捕获设备包括音频输入端并且被配置为捕获来自所述图像捕获设备的视场的方向的音频。
18.根据权利要求1所述的用于从独立图像源产生连续图像的***,所述***还包括:第二图像捕获设备,所述第二图像捕获设备设置在所述第一图像捕获设备上方并且通过所述图像捕获单元结构相对于所述第一图像捕获设备保持在固定位置,
其中所述第二图像捕获设备中的每个第二图像捕获设备的视场包括相对于所述中心轴线在轴向方向上指向的部分,并且
其中每个第二图像捕获设备的视场与另一个第二图像捕获的视场重叠并且与第一图像捕获设备的视场重叠。
19.根据权利要求18所述的用于从独立图像源产生连续图像的***,其中所述第一图像捕获设备和所述第二图像捕获设备的视场一起构成至少半球状视场。
20.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备的每个图像捕获设备的视场的中心线与两个相邻图像捕获设备中的每个图像捕获设备的视场的中心线在相同的旋转方向上围绕所述中心轴线形成角度。
21.根据权利要求1所述的用于从独立图像源产生连续图像的***,其中所述图像捕获设备的每个图像捕获设备的视场的中心线与两个相邻图像捕获设备中的每个图像捕获设备的视场的中心线在相同的顺时针方向或逆时针方向上围绕所述中心轴线被取向。
22.一种用于从独立图像源产生连续图像的***,其特征在于所述***包括:
计算设备,其中每个计算设备包括图像捕获设备、处理器和存储器;
支撑结构,所述支撑结构用于将所述计算设备相对于彼此并相对于所述支撑结构支撑在固定位置中;和
控制设备,所述控制设备被配置为与所述计算设备中的每个计算设备无线地通信,
其中所述控制设备被配置为向所述计算设备发送命令,其中每个计算设备被配置为基于从所述控制设备接收的所述命令独立地调整所述计算设备的相应图像捕获设备的图像捕获参数,并且其中所述控制设备被配置为实时地接收由所述图像捕获设备捕获的图像。
23.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中所述控制设备使用对等通信与至少一个计算设备直接通信,其中所述至少一个计算设备使用对等通信将从所述控制设备接收的信息转发到第二计算设备,并且其中所述至少一个计算设备使用对等通信将从所述第二计算设备接收的信息转发到所述控制设备。
24.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中所述***包括至少10个图像捕获设备。
25.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中所述控制设备被配置为发送基于所述图像捕获设备中的所选择图像捕获设备的图像捕获参数调整所述图像捕获设备中的一些图像捕获设备的图像捕获参数的命令。
26.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中由每个图像捕获设备捕获的所述图像作为图像数据存储在相应的所述计算设备的所述存储器中,并且其中由所述控制设备接收的所述图像与存储在所述相应计算设备的所述存储器中的相应的所述图像相比包括更少图像数据。
27.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中可调整的所述图像捕获参数包括光圈、快门速度、灵敏度、帧速率、焦点、焦距和白平衡中的至少一者。
28.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中所述控制设备将电子数据传输到所述计算设备中的至少一个计算设备,其中所述至少一个计算设备将电子数据传输到所述控制设备,并且其中由所述控制设备从所述至少一个计算设备接收的所述电子数据用于确定所述控制设备的内部时钟和所述至少一个计算设备的内部时钟之间的时间差异。
29.根据权利要求28所述的用于从独立图像源产生连续图像的***,其中所述控制设备确定所述控制设备的所述内部时钟和第一计算设备的内部时钟之间的时间差异,其中所述控制设备确定所述控制设备的所述内部时钟和第二计算设备的内部时钟之间的时间差异,其中所述控制设备将第一同步开始时间传输到所述第一计算设备并将第二同步开始时间传输到所述第二计算设备,并且其中根据第一图像捕获设备的内部时钟和第二图像捕获设备的内部时钟,所述第一同步开始时间和所述第二同步开始时间为不同时间。
30.根据权利要求22所述的用于从独立图像源产生连续图像的***,其中所述计算设备通过所述支撑结构在3平方英尺区域内相对于彼此固定。
31.一种用于从独立图像源产生连续图像的***,其特征在于所述***包括:
控制设备,所述控制设备被配置为将第一电子数据传输到图像捕获设备,其中所述第一电子数据包括根据所述控制设备的内部时钟的所述控制设备发送所述第一电子数据的时间;以及
图像捕获设备,所述图像捕获设备被配置为将第二电子数据传输到所述控制设备,其中所述第二电子数据包括根据所述图像捕获设备的内部时钟的所述图像捕获设备接收所述第一电子数据的时间,
其中所述控制设备发送所述第一电子数据的时间和所述图像捕获设备接收所述第一电子数据的时间用于确定所述控制设备的所述内部时钟和所述图像捕获设备的所述内部时钟之间的时间差异。
32.根据权利要求31所述的用于从独立图像源产生连续图像的***,其中所述控制设备还被配置为:
将第三电子数据传输到所述图像捕获设备,其中所述第三电子数据包括根据所述图像捕获设备的所述内部时钟的同步开始时间。
33.根据权利要求31所述的用于从独立图像源产生连续图像的***,还包括第二图像捕获设备,
其中所述控制设备还被配置为将第三电子数据传输到第二图像捕获设备,其中所述第三电子数据包括根据所述控制设备的所述内部时钟的所述控制设备发送所述第三电子数据的时间;
其中所述第二图像捕获设备还被配置为将第四电子数据传输到所述控制设备,其中所述第四电子数据包括根据所述第二图像捕获设备的内部时钟的所述第二图像捕获设备接收所述第三电子数据的时间;以及
其中所述控制设备发送所述第三电子数据的时间和所述第二图像捕获设备接收所述第三电子数据的时间用于确定所述控制设备的所述内部时钟和所述第二图像捕获设备的所述内部时钟之间的时间差异。
34.根据权利要求33所述的用于从独立图像源产生连续图像的***,其中所述控制设备还被配置为:
将第五电子数据传输到所述第一图像捕获设备,其中所述第五电子数据包括根据所述第一图像捕获设备的所述内部时钟的第一同步开始时间;
将第六电子数据传输到所述第二图像捕获设备,其中所述第六电子数据包括根据所述第二图像捕获设备的所述内部时钟的第二同步开始时间;
其中根据所述控制设备的所述内部时钟,所述第一同步开始时间和所述第二同步开始时间为相同时间。
35.根据权利要求34所述的用于从独立图像源产生连续图像的***,其中根据所述第一图像捕获设备的所述内部时钟和所述第二图像捕获设备的所述内部时钟,所述第一同步开始时间和所述第二同步开始时间为不同时间。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962887505P | 2019-08-15 | 2019-08-15 | |
US62/887,505 | 2019-08-15 | ||
US16/791,762 US11375104B2 (en) | 2019-08-15 | 2020-02-14 | System for producing a continuous image from separate image sources |
US16/791,762 | 2020-02-14 | ||
PCT/US2020/046048 WO2021030518A1 (en) | 2019-08-15 | 2020-08-13 | System for producing a continuous image from separate image sources |
Publications (1)
Publication Number | Publication Date |
---|---|
CN217445411U true CN217445411U (zh) | 2022-09-16 |
Family
ID=74567628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202090000816.3U Active CN217445411U (zh) | 2019-08-15 | 2020-08-13 | 用于从独立图像源产生连续图像的*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US11375104B2 (zh) |
CN (1) | CN217445411U (zh) |
DE (1) | DE212020000701U1 (zh) |
GB (1) | GB2600586B (zh) |
WO (1) | WO2021030518A1 (zh) |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI20031657A (fi) * | 2003-11-14 | 2005-05-15 | Nokia Corp | Langaton monikamerajärjestelmä |
US9007432B2 (en) * | 2010-12-16 | 2015-04-14 | The Massachusetts Institute Of Technology | Imaging systems and methods for immersive surveillance |
JP5881827B2 (ja) | 2012-06-11 | 2016-03-09 | 株式会社ソニー・コンピュータエンタテインメント | 画像撮像装置および画像撮像方法 |
US9264598B1 (en) * | 2012-12-12 | 2016-02-16 | Amazon Technologies, Inc. | Collaborative image capturing |
US11108971B2 (en) * | 2014-07-25 | 2021-08-31 | Verzon Patent and Licensing Ine. | Camera array removing lens distortion |
JP6302564B2 (ja) * | 2014-09-05 | 2018-03-28 | 富士フイルム株式会社 | 動画編集装置、動画編集方法及び動画編集プログラム |
US20160077422A1 (en) * | 2014-09-12 | 2016-03-17 | Adobe Systems Incorporated | Collaborative synchronized multi-device photography |
US10257494B2 (en) * | 2014-09-22 | 2019-04-09 | Samsung Electronics Co., Ltd. | Reconstruction of three-dimensional video |
US10440332B2 (en) * | 2014-11-07 | 2019-10-08 | SeeScan, Inc. | Inspection camera devices and methods with selectively illuminated multisensor imaging |
GB2535706A (en) | 2015-02-24 | 2016-08-31 | Nokia Technologies Oy | Device with an adaptive camera array |
KR102023587B1 (ko) | 2015-05-27 | 2019-09-23 | 구글 엘엘씨 | 카메라 리그 및 입체 이미지 캡쳐 |
US10038887B2 (en) | 2015-05-27 | 2018-07-31 | Google Llc | Capture and render of panoramic virtual reality content |
NZ742883A (en) * | 2015-10-26 | 2023-04-28 | Liang Kong | Immersive all-in-one pc system |
US10230904B2 (en) * | 2016-04-06 | 2019-03-12 | Facebook, Inc. | Three-dimensional, 360-degree virtual reality camera system |
US10554896B2 (en) * | 2016-05-04 | 2020-02-04 | Insidemaps, Inc. | Stereoscopic imaging using mobile computing devices having front-facing and rear-facing cameras |
US11212437B2 (en) | 2016-06-06 | 2021-12-28 | Bryan COLIN | Immersive capture and review |
US10848743B2 (en) * | 2016-06-10 | 2020-11-24 | Lucid VR, Inc. | 3D Camera calibration for adjustable camera settings |
JP6743604B2 (ja) * | 2016-09-12 | 2020-08-19 | ソニー株式会社 | マルチカメラシステム、カメラ、カメラの処理方法、確認装置および確認装置の処理方法 |
KR101851338B1 (ko) * | 2016-12-02 | 2018-04-23 | 서울과학기술대학교 산학협력단 | 실감형 미디어 영상을 제공하는 장치 |
US10291855B2 (en) * | 2017-04-14 | 2019-05-14 | Facebook, Inc. | Three-dimensional, 360-degree virtual reality camera live preview |
KR102372808B1 (ko) * | 2017-09-11 | 2022-03-15 | 삼성전자주식회사 | 복수의 카메라를 통해 수신되는 이미지를 처리하기 위한 장치 및 방법 |
-
2020
- 2020-02-14 US US16/791,762 patent/US11375104B2/en active Active
- 2020-08-13 DE DE212020000701.2U patent/DE212020000701U1/de active Active
- 2020-08-13 GB GB2200828.8A patent/GB2600586B/en active Active
- 2020-08-13 CN CN202090000816.3U patent/CN217445411U/zh active Active
- 2020-08-13 WO PCT/US2020/046048 patent/WO2021030518A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021030518A1 (en) | 2021-02-18 |
US20210051263A1 (en) | 2021-02-18 |
GB202200828D0 (en) | 2022-03-09 |
US11375104B2 (en) | 2022-06-28 |
GB2600586B (en) | 2024-05-01 |
DE212020000701U1 (de) | 2022-04-05 |
GB2600586A (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10665261B2 (en) | Camera array including camera modules | |
US11032490B2 (en) | Camera array including camera modules | |
US10368011B2 (en) | Camera array removing lens distortion | |
US10694167B1 (en) | Camera array including camera modules | |
US10171792B2 (en) | Device and method for three-dimensional video communication | |
JP6496093B1 (ja) | 3次元360度バーチャルリアリティカメラの露出制御 | |
EP3326365B1 (en) | Virtual three dimensional video creation and management system and method | |
US10154194B2 (en) | Video capturing and formatting system | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
US10186301B1 (en) | Camera array including camera modules | |
US11108971B2 (en) | Camera array removing lens distortion | |
JP2017505565A (ja) | 多面映像の生成方法及びシステム | |
US20160344999A1 (en) | SYSTEMS AND METHODs FOR PRODUCING PANORAMIC AND STEREOSCOPIC VIDEOS | |
JP2005092121A (ja) | 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体 | |
WO2015085406A1 (en) | Systems and methods for producing panoramic and stereoscopic videos | |
US20210185299A1 (en) | A multi-camera device and a calibration method | |
CN217445411U (zh) | 用于从独立图像源产生连续图像的*** | |
KR20150125246A (ko) | 다시점 카메라에 대한 촬영 설정값을 조절하는 방법 및 다시점 카메라에 대한 촬영 설정값을 조절하는 장치 | |
JP6916896B2 (ja) | 情報処理装置および画像生成方法 | |
EP4018645A2 (en) | Camera system utilizing auxiliary image sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GR01 | Patent grant | ||
GR01 | Patent grant |