CN109416475A - 分束扩展的动态范围图像捕获*** - Google Patents

分束扩展的动态范围图像捕获*** Download PDF

Info

Publication number
CN109416475A
CN109416475A CN201780040706.2A CN201780040706A CN109416475A CN 109416475 A CN109416475 A CN 109416475A CN 201780040706 A CN201780040706 A CN 201780040706A CN 109416475 A CN109416475 A CN 109416475A
Authority
CN
China
Prior art keywords
image
imaging sensor
incident light
photon flux
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780040706.2A
Other languages
English (en)
Other versions
CN109416475B (zh
Inventor
R.勒夫科
M.尚德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wai On LLC
Waymo LLC
Original Assignee
Wai On LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wai On LLC filed Critical Wai On LLC
Priority to CN202111625477.5A priority Critical patent/CN114422724B/zh
Publication of CN109416475A publication Critical patent/CN109416475A/zh
Application granted granted Critical
Publication of CN109416475B publication Critical patent/CN109416475B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1066Beam splitting or combining systems for enhancing image performance, like resolution, pixel numbers, dual magnifications or dynamic range, by tiling, slicing or overlapping fields of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B33/00Colour photography, other than mere exposure or projection of a colour film
    • G03B33/10Simultaneous recording or projection
    • G03B33/12Simultaneous recording or projection using beam-splitting or beam-combining systems, e.g. dichroic mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/048Picture signal generators using solid-state devices having several pick-up sensors
    • H04N2209/049Picture signal generators using solid-state devices having several pick-up sensors having three pick-up sensors

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)
  • Radio Relay Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

一种光学***和方法可以涉及捕获扩展的动态范围图像。在示例实施例中,光学***可以包括被配置为接收入射光的透镜元件和光学耦合到透镜元件的分束器。分束器被配置为将入射光分离成至少具有第一光子通量的第一部分和具有第二光子通量的第二部分。第一光子通量比第二光子通量大至少一个数量级。控制器可以被配置为使得第一图像传感器根据第一曝光参数捕获入射光的第一部分的第一图像,并且使得第二图像传感器根据第二曝光参数捕获入射光的第二部分的第二图像。

Description

分束扩展的动态范围图像捕获***
相关申请的交叉引用
本申请要求2016年8月3日提交的美国专利申请第15/227,113号的优先权,其整体通过引用结合于此。
背景技术
传统的三芯片相机可以包括一个或多个分束器,以将颜色分离成粗略的可见光颜色范围(例如,红、绿、蓝)。对于正常场景,这些颜色范围中的每一个中的预期光子通量可以基本平衡,以均衡所有图像传感器中的信噪比。
发明内容
一种光学***和方法可以通过衰减去往多个图像传感器中的一个或多个的入射光来捕获扩展或高动态范围图像,以便捕获通常会过度曝光图像传感器的区段的光强度的动态范围的一部分。如此以来,光学***和方法可以涉及高动态范围成像。根据示例实施例,光学***可以包括一个或多个分束器,该分束器被配置为将入射光分离成至少两个部分。光的部分在光子通量上可以至少相差一个数量级(10x)。例如,光的第一部分可以包括光的第二部分的光子通量的100倍。在一些实施例中,另外的分束器可以将入射光分离成光的另外的部分。
一方面,提供了一种光学***。该光学***包括至少一个透镜元件,该透镜元件被配置为接收入射光。光学***还包括至少一个分束器,该分束器光学耦合到至少一个透镜元件。至少一个分束器被配置为将入射光分离成至少具有第一光子通量的第一部分和具有第二光子通量的第二部分。第一光子通量比第二光子通量大至少一个数量级。光学***还包括配置为接收入射光的第一部分的第一图像传感器和配置为接收入射光的第二部分的第二图像传感器。光学***还进一步包括具有至少一个处理器和存储器的控制器。控制器被配置为运行存储在存储器中的指令,以便执行操作。该操作包括使得第一图像传感器根据第一曝光参数捕获入射光的第一部分的第一图像,并使得第二图像传感器根据第二曝光参数捕获入射光的第二部分的第二图像。
一方面,提供了一种方法。该方法包括经由至少一个透镜元件接收入射光,并且通过至少一个分束器将入射光分离成至少具有第一光子通量的第一部分和具有第二光子通量的第二部分。第一光子通量比第二光子通量大至少一个数量级。该方法还包括使得第一图像传感器根据第一曝光参数捕获入射光的第一部分的第一图像,并使得第二图像传感器根据第二曝光参数捕获入射光的第二部分的第二图像。
一方面,提供了一种***。该***包括用于执行本文描述的其他各个方面的操作的各种装置。
通过阅读下面的详细描述,并适当参考附图,这些以及其他实施例、方面、优点和替换方案对于本领域普通技术人员来说将变得显而易见。此外,应当理解,本文提供的该发明内容和其他描述和附图意图仅借助示例来说明实施例,如此以来,许多变化是可能的。例如,结构元件和工艺步骤可以重新布置、组合、分布、消除或以其他方式改变,同时保持在所要求保护的实施例的范围内。
附图说明
图1示出了根据示例实施例的光学***的示意图。
图2A示出了根据示例实施例的光学***。
图2B示出了根据示例实施例的光学***。
图2C示出了根据示例实施例的光学***。
图3A示出了根据示例实施例的交通灯和操作时序图。
图3B示出了根据示例实施例的尾灯。
图4示出了根据示例实施例的方法。
具体实施方式
本文描述了示例方法、设备和***。应当理解,本文使用的词语“示例”和“示例性”是指“充当示例、实例或说明”。本文描述的作为“示例”和“示例性”的任何实施例或特征不一定被解释为比其它实施例或特征更优选或更有利。在不脱离本文所呈现的主题的范围的情况下,可以利用其他实施例,并且可以进行其他改变。
因此,本文描述的示例实施例并不意味着限制。如在本文总体描述的以及在附图中示出的本公开的各方面可以以各种不同的配置来布置、替换、组合、分离和设计,所有这些都在此被考虑。
此外,除非上下文另有暗示,否则每个附图中所示的特征可以彼此结合使用。因此,附图通常应被视为一个或多个总体实施例的组成方面,但应理解,并非所有示出的特征对于每个实施例都是必要的。
I.概述
光学***的视场可以包括场景中光子通量变化很大的部分。也就是说,给定场景可以包括非常明亮的特征和非常昏暗的特征。另外地或可替代地,场景的一些特征可以以周期性和/或变化的方式(例如,频闪(strobing)、调光(dimming)等)发光。由于传统图像传感器的相对有限的动态范围,对于给定的曝光条件,一些图像信息可能需要“扔掉”。例如,为了最好地捕获给定场景的“亮点”或非常明亮的部位,光学***的曝光条件可以包括小孔径设置、低增益/低灵敏度图像传感器设置和/或相对短的曝光时间。在这样的情景中,场景的明亮部分可以被准确捕获。然而,场景的昏暗部分可能被捕获为“黑色”,因为对于特定的曝光条件,来自场景的这些区域的光子通量可能太小,而不能落入给定图像传感器的动态范围内(例如,光子通量低于图像传感器的噪声水平)。
类似地,为了捕获给定场景的“阴影”,光学***的曝光条件可以包括大孔径设置、高增益/高灵敏度图像传感器设置和/或相对长的曝光时间。如此以来,场景的昏暗部分可以被准确地捕获。然而,由于饱和,场景的明亮部分可能会被“曝光过度(blown out)”,因为图像传感器从这些区域接收到的光子可能比图像传感器的动态范围能够再现的光子多。
本文描述的光学***和方法可以提供高动态范围的图像捕获。即,根据示例实施例,光学***可以包括一个或多个分束器,该分束器被配置为将入射光分离成至少两个部分。光的不同部分在光子通量上可以至少相差一个数量级(10x)。例如,光的第一部分可以包括光的第二部分的光子通量的100倍。在一些实施例中,另外的分束器可以将入射光分离成光的另外的部分。
入射光的相应部分可以由相应的图像传感器接收和捕获。图像传感器中的每一个可以与其他传感器分开操作。具体地,每个图像传感器可以被配置为经由不同的图像捕获曝光参数捕获光的相应部分。例如,在上述情景中,光的第一部分可以用1毫秒的曝光时间捕获,而光的第二部分可以用100毫秒的曝光时间捕获。在示例实施例中,光学***可以包括对每个图像传感器相同视场。如此以来,可以消除光学***复杂性,诸如视差(parallax)。在示例实施例中,两次图像捕获都可以在相同的时间间隔(曝光窗口)内进行。如此以来,可以消除两个图像之间的时间失配,以简化将两个图像组合成一个高动态范围图像的任务。
另外,可以包括被配置为改变入射光的一个或多个部分的特性的其他光学元件。例如,其它光学元件可以包括光学衰减器、空间滤光器或透镜。
在一些实施例中,图像传感器可以是彩色镶嵌型的,或者图像传感器中的一个或多个可以具有与***的其他图像传感器不同的特性。例如,一个或多个传感器可以是单色的,而其他传感器是彩色的,等等。此外,与其它传感器相比,传感器中的一个或多个可以具有不同的光谱响应、不同的空间分辨率或不同的读出速率。具有相同参数的所有图像传感器的操作也是可能的。
在检测交通灯和车辆指示器(例如,刹车灯或转向信号灯)的汽车环境中,各种曝光参数可以预先固定和/或已知。如此以来,示例实施例可以基于已知的光通量来设计。也就是说,可以提供覆盖大部分帧时间(例如,已知交通灯光栅周期)的曝光时间,以最大化传感器占空比并最小化光源的照明落在光子捕获间隔之外的风险。换句话说,图像捕获路径之一可以包括固定曝光时间和/或其他曝光参数,以最好地检测给定场景内的频闪灯或闪烁灯。另一图像捕获路径可以具有可自由调节的曝光时间(例如,自动曝光捕获),以最好地检测来自给定场景的其他元素。
在示例实施例中,一个公共透镜(或透镜组)可以在***中提供。这可以降低***的成本和尺寸(例如,透镜可能是相机***中最昂贵和体积最大的元件)。这种单个透镜或透镜组也可以消除视差误差,因为所有图像传感器从单个视点接收并记录由单个透镜捕获的场景图像。(记录场景的强烈衰减视图的)图像传感器中的一个或多个可能能够使用长曝光时间,从而允许其捕获场景中的短期事件(例如,来自光栅扫描或脉冲调制LED符号和指示器的快速光脉冲),这些事件可能会被采用短曝光时间的捕获***遗漏,以便产生场景的另外的“正确”曝光(例如,使用基于场景的平均或采样光子通量的曝光参数)。
本文描述的***和方法可以为具有光子通量水平相差很大的区域的情景和/或场景中的光源提供脉冲或以其他方式改变光子通量的场景提供扩展的动态范围成像。与传统成像***相比,这样的***和方法可以被配置为捕获给定场景的更可靠的再现和/或提供关于时变光源的更确定的信息。
II.示例***
图1示出了根据示例实施例的光学***100的示意图。该光学***100可以包括一个或多个透镜元件110、一个或多个分束器120和一个或多个光学元件130。光学***100还包括多个图像传感器140和控制器150。
光学***100可以包括静止相机、摄像机、显微镜、望远镜或被配置为从场景捕获图像信息的另一设备。光学***100可以包括独立设备(例如,手持相机)。可替换地,光学***100可以被并入到(或者可以被识别为)另一***(例如,自主车辆的传感器***)。
光学***100可以具有视场,该视场可以由透镜元件110和/或孔径来定义。光学***100可以经由透镜元件110从视场接收入射光102。透镜元件110可以包括单个透镜、双透镜、三透镜和/或多透镜元件。透镜元件110可以是可互换的(例如,单透镜反射(singlelens reflex,SLR)型或测距仪型透镜)。也就是说,各种透镜或透镜的组合可以经由光学透镜支架(例如,佳能EF-S支架、尼康F支架)可切换地耦合到光学***100。如此以来,光学***100可以被配置为提供具有固定或可变范围的宽范围视场。透镜元件110能够手动或通过遥控致动器改变它们的光学参数(例如,焦距、视场、孔径、聚焦设置、图像稳定等)。
应当理解,光学***100的视场可以包括许多不同类型的场景和/或主题。在示例实施例中,给定场景可以提供来自场景的不同部分的变化很大的光子通量。
入射光103的至少一部分可以与一个或多个分束器120相互作用。一个或多个分束器120可以包括由两个三角形玻璃棱镜形成的分束立方体。然而,其它类型的分束器也是可能的。例如,一个或多个分束器120可以包括具有抗反射涂层的部分镀银镜或玻璃。
一个或多个分束器120可以将收集的光103分离成具有第一光子通量的第一部分104和具有第二光子通量的第二部分106。光的第一部分104和光的第二部分106可以具有相同的视场。然而,光的第一部分104可以具有比光的第二部分106大至少一个数量级的光子通量。例如,光的第一部分104可以具有相当于收集的光103的光子通量的96%的光子通量。因此,光的第二部分106可以具有相当于收集的光103的光子通量的4%的光子通量。如此以来,在示例实施例中,分束器120可以有效地向入射光提供不同量的中性密度光衰减,以提供光的第一部分104和光的第二部分106。
在一些实施例中,一个或多个分束器120可以包括分色(dichroic)光学元件或频率选择表面(frequency selective surface)。在这种情景下,分束器120可以另外地或可替代地被配置为基于分色光学元件或频率选择表面提供具有特定光谱分量的光的相应部分。
在与分束器120相互作用之后,相应的光的第一部分104和光的第二部分106可以可选地与另外的光学元件130相互作用。在示例实施例中,光学元件130可以包括偏振滤光器、光谱滤光器、空间滤光器、透镜、透镜组或中性密度滤光器。可以考虑其它类型的光学元件130。
多个图像传感器140可以包括被配置为接收入射光的第一部分104的第一图像传感器和被配置为接收入射光的第二部分106的第二图像传感器。多个图像传感器140可以包括但不限于互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)图像传感器、电荷耦合器件(charge-coupled device,CCD)图像传感器或另一类型的多元件光电检测器传感器(例如,焦平面阵列)。此外,虽然本文的实施例描述了可见光光谱中的图像捕获情景,但是可以考虑类似的光学***,其可以接收和捕获其他波长或波段的光。例如,光学***100可以被配置为在近红外波长范围或另一光谱范围中操作。
控制器150包括至少一个处理器152和存储器154。控制器150被配置为运行存储在存储器中的指令。可以执行指令的运行以执行各种操作,诸如使得第一图像传感器根据第一曝光参数捕获入射光的第一部分104的第一图像。此外,操作可以包括使得第二图像传感器根据第二曝光参数捕获入射光的第二部分106的第二图像。
各个曝光参数可以包括光学***100用来捕获第一图像和第二图像的各种设置。例如,各个曝光参数可以包括图像传感器灵敏度设置(例如,ISO)、孔径设置(例如,f-值(f-number))和图像捕获时间(例如,快门速度)。其他类型的曝光参数也是可能的。在示例实施例中,第一曝光参数可以包括相对短的捕获时间(例如,1毫秒),并且第二曝光参数可以包括相对长的捕获时间(例如,100毫秒)。也就是说,在一些实施例中,用于捕获第一图像的第一曝光时间可以比用于捕获第二图像的第二曝光时间短至少一个数量级。
可以基于第一图像和第二图像形成扩展的动态范围图像。也就是说,第一图像和第二图像可以被组合或合并,以形成相对于构成图像具有有效更大的动态范围的合成图像。在这点上,图像的组合和合并可以经由高动态范围(high-dynamic range,HDR)图像处理来执行。例如,第一图像的曝光不足区域可以用来自第二图像的对应区域的“适当”曝光的信息来替代或增强。另外地或替代地,第二图像的过度曝光区域可以用来自第一图像的对应区域的“适当”曝光的信息来替代或增强。组合第一和第二图像以形成扩展的动态范围图像的其它方式也是可能的。
扩展的动态范围图像可以提供关于给定场景内特定目标或特征的更多信息。例如,在自主车辆环境中,扩展的动态范围图像可以提供关于昏暗或时变光源的更完整的信息,诸如光栅显示器(例如,阴极射线管或隔行视频监视器)或闪烁显示器(例如,LED横幅字幕(banner marquee)或LED交通信号)。本文考虑了其它类型的随时间变化的光源。
在一些实施例中,一个或多个分束器120可以被配置为将收集的光103分离成两个以上的部分。也就是说,在示例实施例中,两个光耦合的分束器120可以被配置为将收集的光103分离成光的第一部分、第二部分和第三部分。类似于先前的示例,光的第一部分可以具有比光的第二部分高至少一个数量级的光子通量,其又可以具有比光的第三部分高至少一个数量级的光子通量。光的各个部分之间的光子通量的其它相对水平是可能的,也是可以考虑的。
在这种情景下,图像传感器140可以包括被配置为捕获第三图像的第三图像传感器。第三图像可以包括根据第三曝光参数捕获的入射光的第三部分。在示例实施例中,第三曝光参数可以包括比第二曝光参数更长的捕获时间。例如,第三图像的捕获时间可以是1秒。其他捕获时间和其他曝光参数也是可能的。基于第一图像、第二图像和第三图像,可以提供界定的(bracketed)扩展的动态范围图像。界定的扩展的动态范围图像可以提供比仅用一个图像传感器就可以以给定的曝光参数组捕获给定场景更大的动态范围上的图像信息。
可选地,各种图像传感器140可以是相同的(除了它们接收的入射光的部分)。可替换地,图像传感器140可以各自具有与其它图像传感器不同的特性。例如,来自多个图像传感器140的给定图像传感器可以具有与其它图像传感器不同的光谱响应、不同的空间分辨率或不同的读出速率。各种图像传感器140之间的其他类型的区别是可能的。
图2A至图2C示出了本公开中考虑的光学***的一些非限制性示例。图2A示出了根据示例实施例的光学***200。光学***200可以包括与关于图1描述的光学***100的对应元件相似或相同的元件。光学***200包括透镜元件210,该透镜元件210可以包括透镜主体204和一个或多个透镜206a-c。在实施例中,透镜元件210可以包括可互换透镜(例如,SLR透镜)或可以可移除地耦合到光学***200的其他元件的另一类型的透镜。光学***200还包括分束器230,该分束器230可以是如本文所述的光束立方体或光分束器的其它类型。在实施例中,分束器230可以包括分束表面232,该分束表面被配置为将入射光202分离成第一部分209a和第二部分209b。在示例实施例中,第一部分209a可以包括比第二部分209b的光子通量大得多的光子通量。例如,第一部分209a可以具有比第二部分209b的光子通量大至少一个数量级的光子通量。换句话说,第二部分209b可以包括来自透镜元件210的视场的被衰减的光。
光学***200包括配置为接收光的第一部分209a的第一图像传感器220a和配置为接收光的第二部分209b的第二图像传感器220b。相应的图像传感器220a和220b可以是类似的或相同的图像传感器,其被配置为根据相应的曝光参数捕获光的相应部分。在示例实施例中,第一图像可以由第一图像传感器220a根据第一曝光参数来捕获,该第一曝光参数可以包括灵敏度和/或增益设置或捕获时间(例如,曝光时间或快门时间)。例如,第一图像的捕获时间可以是1毫秒。
类似地,第二图像可以由第二图像传感器220b根据第二曝光参数捕获。在这种情景下,如果光的第二部分209b的光子通量大约比光的第一部分209a的光子通量小一个数量级,则第二图像的捕获时间可以是10毫秒。其他捕获时间也是可能的。此外,相应的捕获时间和其他曝光参数可以基于场景的先前图像和/或来自光度计测量(light metermeasurement)的信息来确定。
图2B示出了根据示例实施例的光学***240。光学***240可以包括与关于图1和图2A示出和描述的光学***100和200的对应元件类似或相同的元件。光学***240包括透镜元件210和分束器230。此外,光学***240可以包括另外的分束器242,其具有分束表面244。在这种情景下,另外的分束器242可以被配置为将入射光209b分离成光的第二部分209d和光的另外的第三部分209c。光的第三部分209c可以具有比光的第二部分209d的光子通量小至少一个数量级的光子通量。更进一步地,光学***240可以包括第二图像传感器20d和第三图像传感器220c。第二图像传感器20d可以被配置为基于光的第二部分209d捕获第二图像。第三图像传感器220c可以被配置为基于光的第三部分209c捕获第三图像。可以根据第三曝光参数捕获第三图像。例如,第三曝光参数可以包括100毫秒的捕获时间。然而,其他捕获时间也是可能的。
图2C示出了根据示例实施例的光学***250。光学***250可以包括与如关于图1、图2A和图2B所示和描述的光学***100、200和240的对应元件类似或相同的元件。此外,光学***250可以包括一个或多个另外的光学元件252a和252b。另外的光学元件252a和252b可以被布置在分束器230和相应的图像传感器220a和220b之间。在示例实施例中,光学元件252a和252b可以包括光学衰减器、空间滤光器或透镜。光学元件252a和252b可以提供例如到不同尺寸图像传感器或不同视场的转换(例如,经由转换透镜)。在一些示例实施例中,光学元件252a和252b可以可控地***光路和从光路中移除。如此以来,各种光学元件252a和252b可以基于例如成像条件(例如,环境照明、平均或采样光子通量等)应用于光路。
图3A示出了根据示例实施例的交通灯300和操作时序图320。交通灯300可以包括外壳302和红灯304、黄灯306和绿灯308。应当理解,本文也考虑了其他类型的交通信号或标志。
红灯304可以包括多个红灯段314a-c,其可以对应于单独的LED灯泡或LED灯泡组。类似地,黄灯306可以包括多个黄灯段316a-c,绿灯308可以包括多个绿灯段318a-c。应当理解,为了简洁起见,简化了所描述的多段光。传统的交通指示器可以具有3个以上的段,这些段不需要布置成水平条。例如,一些灯可以包括布置成垂直条或阵列中的像素的多个段。
操作时序图320示出了交通灯302的顺序操作的简化示例。即,交通灯302可以在第一时隙322a期间照明以“a”结尾的灯段(例如,红灯段314a、黄灯段316a或绿灯段318a)。此外,交通灯302可以在第二时隙322b期间照明以“b”结尾的灯段(例如,红灯段314b、黄灯段316b或绿灯段318b)。此外,交通灯302可以在第三时隙322c期间照明以“c”结尾的灯段(例如,红灯段314c、黄灯段316c或绿灯段318c)。
第一、第二和第三时隙322a-c可以构成可以重复的时间段324。此外,绿灯、黄灯和红灯可以根据比本文考虑的更长的时间段循环。换句话说,在“红灯”期间,红灯段314a-c可以根据操作时序图320顺序地循环开和关。也就是说,在时段324上的任何一个时间,只有一个红灯段314a-c会被照明。在示例实施例中,出于说明的目的,各个时隙322a-c可以是2毫秒,尽管其它时隙周期也是可能的。本文考虑了其它类型的顺序和非连续照明操作模式。
在示例实施例中,第一图像传感器(例如,图像传感器220a)可以接收具有约为总入射光通量的91%的光子通量的光的第一部分。在这种情景下,可以控制第一图像传感器以在相对短的捕获时间334(例如,1毫秒)上捕获第一图像。第一图像传感器还可以在读取/重置时段336期间执行读取和重置功能。然而,由于捕获时间短(例如,1毫秒),第一图像将仅包括关于三个灯段中的两个灯段的信息(最多)。
第二图像传感器(例如,图像传感器220b)可以接收具有约为总入射光通量的9%的光子通量的光的第二部分。因此,可以控制第二图像传感器以在相对较长的捕获时间344(例如,6毫秒)上捕获第二图像,这可以提供关于在时隙322a-c中的每一个中哪些灯段被照明的信息。在一些实施例中,与第一图像传感器相比,第二图像传感器可以具有相对较短的读取/重置时段346。
本文描述的操作时序图320仅用于说明性目的,并且各种其他可能的光照明序列是可能的。本光学***和方法可以提供对于利用这种连续或非持续照明***的停车灯的更好的成像信息。考虑了涉及时间动态光源的其他图像捕获应用。
图3B示出了根据示例实施例的尾灯350。尾灯350可以是自主车辆或标准车辆的一部分。尾灯350可以包括多个灯段352-364。在示例实施例中,多个灯段352-364可以以分组的顺序的方式照明。也就是说,在正常操作期间,尾灯350可以在多个连续时隙期间部分照明。作为示例,第一组三个灯段352、358和364可以在第一时隙期间照明,随后第二组两个灯段354和360在第二时隙期间照明,随后第三组两个灯段356和362在第三时隙期间照明。在一些实施例中,情景可以包括尾灯350打开和关闭(例如,诸如转向指示器)。其他类型的发光变化(例如,时间和空间)也是可能的。
当对这样的尾灯350成像时,光学***(诸如光学***100、200、240和250)可以被配置为以曝光条件捕获至少一个图像,该曝光条件具有大于第一、第二和第三时隙之和的捕获时间。在这种情景下,合成扩展的动态范围图像包括关于尾灯350的可能照明的更完整的信息。
III.示例方法
图4示出了根据示例实施例的方法400。方法400可以包括各种块或步骤。这些块或步骤可以单独或组合执行。这些块或步骤可以以任何顺序执行和/或串联或并联执行。此外,可以从方法400中省略或添加块或步骤。
方法400的一些或所有块可以涉及光学***100、200、240或250的元件,如参考图1、图2A、图2B和图2C所示和描述的。此外,方法400的一些块可以涉及使得一个或多个图像传感器捕获图像,如参考图4A和图4B所示和描述的。方法400的一些或所有块可以由控制器150和/或处理器152和存储器154执行。
块402包括经由光学***的至少一个透镜元件接收入射光。在示例实施例中,该方法可以包括经由透镜元件110接收入射光102,如关于图1所示和描述的。入射光可以包括从光栅显示器或闪烁显示器发射的光。在示例实施例中,光栅显示器或闪烁显示器可以包括交通信号、车辆灯或指示器。
块404包括由至少一个分束器将入射光分离成至少具有第一光子通量的第一部分和具有第二光子通量的第二部分,其中第一光子通量比第二光子通量大至少一个数量级。该至少一个分束器可以包括具有抗反射涂层的部分镀银镜或玻璃。在示例实施例中,该至少一个分束器可以包括分色光学元件或频率选择表面。
在示例实施例中,至少一个光学元件可以沿着至少一个分束器和第一图像传感器或第二图像传感器中的至少一个之间的光路来布置。该至少一个光学元件可以包括透镜、光学衰减器、空间滤光器或光谱滤光器。
框406包括使得第一图像传感器根据第一曝光参数捕获入射光的第一部分的第一图像。
块408包括使得第二图像传感器根据第二曝光参数捕获入射光的第二部分的第二图像。在示例实施例中,第一和第二图像传感器可以包括多元件光电检测器阵列。
在示例实施例中,第一曝光参数包括第一曝光时间,并且第二曝光参数包括第二曝光时间。第一曝光时间比第二曝光时间短至少一个数量级。
第一和第二图像可以被组合和/或合并以提供更宽的动态范围图像。例如,该方法可以可选地包括基于第一图像和第二图像的高动态范围(HDR)图像处理来确定扩展的动态范围图像。
在示例实施例中,光学***可以包括第一分束器和第二分束器。第一分束器和第二分束器可以进一步配置为将入射光分离成具有第三光子通量的第三部分。在这种情景下,第二光子通量可以比第三光子通量大至少一个数量级。
在这种情景下,该方法还可以包括使得第三图像传感器根据第三曝光参数捕获入射光的第三部分的第三图像。如此以来,该方法还可以包括基于第一图像、第二图像和第三图像确定界定的扩展的动态范围图像。
附图中所示的特定布置不应当被视为限制。应当理解,其它实施例可以包括给定图中所示的每个元件中的更多或更少的元件。此外,一些示出的元件可以被组合或省略。此外,说明性实施例可以包括图中未示出的元件。
表示信息处理的步骤或块可以与可以被配置为执行本文描述的方法或技术的特定逻辑功能的电路相对应。可替代地或另外地,表示信息处理的步骤或块可以与模块、段、或程序代码的一部分(包括相关数据)相对应。程序代码可以包括可由处理器运行的一个或多个指令,以用于实施方法或技术中的特定逻辑功能或动作。程序代码和/或相关数据可以被存储在任何类型的计算机可读介质上,诸如包括磁盘、硬盘驱动器或其他存储介质的存储设备。
计算机可读介质还可以包括非暂时性计算机可读介质,诸如像寄存器存储器、处理器高速缓存和随机存取存储器(random access memory,RAM)这样的短期存储数据的计算机可读介质。计算机可读介质还可以包括存储程序代码和/或数据更长时间的非暂时性计算机可读介质。因此,计算机可读介质可以包括次级或永久长期存储,例如,像只读存储器(read only memory,ROM)、光盘或磁盘、光盘只读存储器(compact-disc read onlymemory,cD-ROM)这样的。计算机可读介质也可以是任何其他易失性或非易失性存储***。计算机可读介质可以被认为是例如计算机可读存储介质、或有形存储设备。
虽然已经公开了各种示例和实施例,但是其他示例和实施例对于本领域技术人员来说将是显而易见的。所公开的各种示例和实施例是为了说明的目的,而不是为了限制,真正的范围由所附权利要求来指示。

Claims (20)

1.一种光学***,包括:
至少一个透镜元件,被配置为接收入射光;
至少一个分束器,被光学耦合到所述至少一个透镜元件,其中所述至少一个分束器被配置为将所述入射光分离成至少具有第一光子通量的第一部分和具有第二光子通量的第二部分,其中,所述第一光子通量比所述第二光子通量大至少一个数量级;
第一图像传感器,被配置为接收所述入射光的第一部分;
第二图像传感器,被配置为接收所述入射光的第二部分;和
控制器,包括至少一个处理器和存储器,其中,所述控制器被配置为运行存储在所述存储器中的指令以便执行操作,所述操作包括:
使得第一图像传感器根据第一曝光参数捕获所述入射光的第一部分的第一图像;和
使得第二图像传感器根据第二曝光参数捕获所述入射光的第二部分的第二图像。
2.根据权利要求1所述的光学***,其中,所述操作还包括基于第一图像和第二图像确定扩展的动态范围图像。
3.根据权利要求1所述的光学***,其中,所述至少一个分束器包括具有抗反射涂层的部分镀银镜或玻璃。
4.根据权利要求1所述的光学***,其中,所述至少一个分束器包括分色光学元件或频率选择表面。
5.根据权利要求1所述的光学***,其中,所述入射光包括从随时间变化的光子通量源发射的光。
6.根据权利要求5所述的光学***,其中,光栅显示器或闪烁显示器包括交通信号或汽车指示器。
7.根据权利要求1所述的光学***,还包括至少一个光学元件,其中,所述至少一个光学元件沿着所述至少一个分束器和第一图像传感器或第二图像传感器中的至少一个之间的光路来布置,其中,所述至少一个光学元件包括光学衰减器、空间滤光器或透镜中的至少一个。
8.根据权利要求1所述的光学***,其中,第一曝光参数包括第一曝光时间,并且第二曝光参数包括第二曝光时间,其中,第一曝光时间比第二曝光时间短至少一个数量级。
9.根据权利要求1所述的光学***,其中,所述至少一个分束器包括第一分束器和第二分束器,其中,所述至少一个分束器还被配置为将所述入射光分离成具有第三光子通量的第三部分,其中,第二光子通量比第三光子通量大至少一个数量级。
10.根据权利要求9所述的光学***,还包括第三图像传感器,其中,所述操作还包括:
使得第三图像传感器根据第三曝光参数捕获所述入射光的第三部分的第三图像;和
基于第一图像、第二图像和第三图像确定界定的扩展的动态范围图像。
11.根据权利要求10所述的光学***,其中,第一图像传感器、第二图像传感器或第三图像传感器中的至少一个具有相对于其他图像传感器的不同光谱响应、不同空间分辨率或不同读出速率中的至少一个。
12.一种方法,包括:
经由至少一个透镜元件接收入射光;
由至少一个分束器将所述入射光分离成至少具有第一光子通量的第一部分和具有第二光子通量的第二部分,其中,第一光子通量比第二光子通量大至少一个数量级;
使得第一图像传感器根据第一曝光参数捕获所述入射光的第一部分的第一图像;和
使得第二图像传感器根据第二曝光参数捕获所述入射光的第二部分的第二图像。
13.根据权利要求12所述的方法,还包括基于第一图像和第二图像确定扩展的动态范围图像。
14.根据权利要求12所述的方法,其中,所述至少一个分束器包括具有抗反射涂层的部分镀银镜或玻璃。
15.根据权利要求12所述的方法,其中,所述至少一个分束器包括分色光学元件或频率选择表面。
16.根据权利要求12所述的方法,其中,所述入射光包括从光栅显示器或闪烁显示器发射的光,其中,所述光栅显示器或闪烁显示器包括交通信号。
17.根据权利要求12所述的方法,其中,所述至少一个光学元件沿着所述至少一个分束器和第一图像传感器或第二图像传感器中的至少一个之间的光路来布置。
18.根据权利要求12所述的方法,其中,第一曝光参数包括第一曝光时间,并且第二曝光参数包括第二曝光时间,其中,第一曝光时间比第二曝光时间短至少一个数量级。
19.根据权利要求12所述的方法,其中,所述至少一个分束器包括第一分束器和第二分束器,其中,分离所述入射光还包括将所述入射光分离成具有第三光子通量的第三部分,其中,第二光子通量比第三光子通量大至少一个数量级。
20.根据权利要求19所述的方法,还包括:
使得第三图像传感器根据第三曝光参数捕获所述入射光的第三部分的第三图像;和
基于第一图像、第二图像和第三图像确定界定的扩展的动态范围图像。
CN201780040706.2A 2016-08-03 2017-07-26 分束扩展的动态范围图像捕获*** Active CN109416475B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111625477.5A CN114422724B (zh) 2016-08-03 2017-07-26 分束扩展的动态范围图像捕获***

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/227,113 2016-08-03
US15/227,113 US9979906B2 (en) 2016-08-03 2016-08-03 Beam split extended dynamic range image capture system
PCT/US2017/043934 WO2018026599A1 (en) 2016-08-03 2017-07-26 Beam split extended dynamic range image capture system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202111625477.5A Division CN114422724B (zh) 2016-08-03 2017-07-26 分束扩展的动态范围图像捕获***

Publications (2)

Publication Number Publication Date
CN109416475A true CN109416475A (zh) 2019-03-01
CN109416475B CN109416475B (zh) 2022-01-14

Family

ID=61069754

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780040706.2A Active CN109416475B (zh) 2016-08-03 2017-07-26 分束扩展的动态范围图像捕获***
CN202111625477.5A Active CN114422724B (zh) 2016-08-03 2017-07-26 分束扩展的动态范围图像捕获***

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202111625477.5A Active CN114422724B (zh) 2016-08-03 2017-07-26 分束扩展的动态范围图像捕获***

Country Status (9)

Country Link
US (2) US9979906B2 (zh)
EP (1) EP3494434A4 (zh)
JP (2) JP6901508B2 (zh)
KR (2) KR102072600B1 (zh)
CN (2) CN109416475B (zh)
CA (1) CA3028236C (zh)
IL (1) IL263876B (zh)
SG (1) SG11201811356SA (zh)
WO (1) WO2018026599A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110868551A (zh) * 2019-11-23 2020-03-06 英特灵达信息技术(深圳)有限公司 一种时间同步和空间对齐的暗光-亮光成对视频获取***
CN111666894A (zh) * 2020-06-08 2020-09-15 深圳裹动智驾科技有限公司 交通灯和车灯的检测方法及其感测***、以及车辆
CN113156935A (zh) * 2020-01-07 2021-07-23 动态Ad有限责任公司 用于交通灯检测的***和方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10264196B2 (en) * 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
KR101816572B1 (ko) * 2016-12-28 2018-02-21 엘지전자 주식회사 차량용 카메라 장치 및 차량
JP6765494B1 (ja) 2019-10-31 2020-10-07 パナソニックi−PROセンシングソリューションズ株式会社 3板式カメラ
US11656371B1 (en) * 2020-06-09 2023-05-23 El-Mul Technologies Ltd High dynamic range detector with controllable photon flux functionality
JP2022029026A (ja) * 2020-08-04 2022-02-17 キヤノン株式会社 撮像装置
US11933991B2 (en) * 2020-09-29 2024-03-19 Sony Group Corporation Optical apparatus for improving camera sensitivity and matching of identical perspectives
KR102437442B1 (ko) * 2020-12-18 2022-08-26 연세대학교 산학협력단 시야각 축소 및 백그라운드 광 잡음의 완화를 위한 무선 광통신 수신 장치 및 방법
GB2605768A (en) * 2021-03-31 2022-10-19 Continental Automotive Gmbh An imaging device for a driver monitoring system
FR3123734A1 (fr) * 2021-06-02 2022-12-09 Université de Bourgogne Procédé de traitement de données de pixels, dispositif et programme correspondant
WO2023123110A1 (en) * 2021-12-29 2023-07-06 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Camera system including multiple lenses and multiple image sensors, method for controlling the same, and electronic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101300854A (zh) * 2004-03-31 2008-11-05 索尼电子有限公司 使用数字成像***再现来自物体的可供选择形式的光
US20090231465A1 (en) * 2008-03-11 2009-09-17 Fujifilm Corporation Image pick-up apparatus, image pick-up method and recording medium
US20090244717A1 (en) * 2008-03-28 2009-10-01 Contrast Optical Design & Engineering, Inc. Whole beam image splitting system
CN101888487A (zh) * 2010-06-02 2010-11-17 中国科学院深圳先进技术研究院 高动态范围视频成像***和图像生成方法
CN104285434A (zh) * 2012-05-18 2015-01-14 汤姆逊许可公司 原生的三色图像和高动态范围图像
CN105721783A (zh) * 2014-12-17 2016-06-29 佳能株式会社 摄像装置及图像传感器的驱动方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61175136A (ja) * 1985-01-30 1986-08-06 Mitsubishi Electric Corp ブレ−キ量表示装置
KR100422887B1 (ko) * 1995-03-16 2005-02-02 가부시키가이샤 니콘 노광장치및방법
JPH09101450A (ja) * 1995-10-05 1997-04-15 Olympus Optical Co Ltd 撮像装置
US6529640B1 (en) * 1998-06-09 2003-03-04 Nikon Corporation Image processing apparatus
US6788338B1 (en) * 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
EP1271935A1 (de) 2001-06-29 2003-01-02 Kappa opto-electronics GmbH Vorrichtung zum Aufnehmen von digitalen Bildern mit zwei gleichzeitig angesteuerten elektronischen Bildsensoren
US20030048493A1 (en) 2001-09-10 2003-03-13 Pontifex Brian Decoursey Two sensor quantitative low-light color camera
WO2004001667A2 (en) * 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
US6801719B1 (en) 2003-03-14 2004-10-05 Eastman Kodak Company Camera using beam splitter with micro-lens image amplification
US7496293B2 (en) * 2004-01-14 2009-02-24 Elbit Systems Ltd. Versatile camera for various visibility conditions
US7777199B2 (en) 2004-09-17 2010-08-17 Wichita State University System and method for capturing image sequences at ultra-high framing rates
US8140529B2 (en) * 2005-07-28 2012-03-20 International Business Machines Corporation Method and apparatus for autonomically regulating information transfer when accessing database resources
JP2007133748A (ja) 2005-11-11 2007-05-31 Nippon Signal Co Ltd:The 歩行者用信号灯器
US7531774B2 (en) * 2006-06-05 2009-05-12 General Dynamics Advanced Information Systems, Inc. Measurement-diverse imaging and wavefront sensing with amplitude and phase estimation
EP2014761B1 (en) * 2007-06-22 2016-09-28 Sony Deutschland GmbH A device for processing an analyte and a method of processing and/or detecting an analyte using said device
US8204825B2 (en) * 2007-07-16 2012-06-19 American Express Travel Related Services Company, Inc. System, method and computer program product for processing payments
US20090086074A1 (en) * 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
US20100073499A1 (en) * 2008-09-25 2010-03-25 Apple Inc. Image capture using separate luminance and chrominance sensors
EP2404209A4 (en) * 2009-03-04 2012-10-17 Paul A Wagner TEMPORAL ALIGNMENT EXPOSURE SHIFTING FOR HIGH DYNAMIC RANGE IMAGING
CN101909157B (zh) * 2009-06-05 2012-09-05 比亚迪股份有限公司 在图像传感器中获得高动态范围图像的方法及图像传感器
JP5261805B2 (ja) 2009-06-16 2013-08-14 インテル・コーポレーション 携帯用機器のカメラアプリケーション
CN102596019B (zh) * 2009-09-04 2014-12-10 约翰斯·霍普金斯大学 多模激光斑点成像
WO2011032028A2 (en) * 2009-09-10 2011-03-17 Contrast Optical Design & Engineering, Inc. Whole beam image splitting system
FR2968876B1 (fr) * 2010-12-14 2013-02-15 Thales Sa Systeme d'acquisition d'images presentant une dynamique elevee
US9491372B2 (en) 2011-11-23 2016-11-08 Nokia Technologies Oy Apparatus and method comprising a beam splitter
US9258468B2 (en) 2012-02-15 2016-02-09 Fluxdata, Inc. Method and apparatus for separate spectral imaging and sensing
JP2014050042A (ja) 2012-09-03 2014-03-17 Toshiba Corp 画像処理装置及び固体撮像装置
US9197819B2 (en) * 2013-12-06 2015-11-24 National Chung Shan Institute Of Science And Technology Exposure-suppressing imaging system
WO2015127328A2 (en) * 2014-02-21 2015-08-27 The Lightco Inc. Illumination methods and apparatus
JP2016197795A (ja) * 2015-04-03 2016-11-24 日立オートモティブシステムズ株式会社 撮像装置
EP4270976A3 (en) 2016-02-12 2024-01-10 Contrast, Inc. Devices and methods for high dynamic range video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101300854A (zh) * 2004-03-31 2008-11-05 索尼电子有限公司 使用数字成像***再现来自物体的可供选择形式的光
US20090231465A1 (en) * 2008-03-11 2009-09-17 Fujifilm Corporation Image pick-up apparatus, image pick-up method and recording medium
US20090244717A1 (en) * 2008-03-28 2009-10-01 Contrast Optical Design & Engineering, Inc. Whole beam image splitting system
CN101888487A (zh) * 2010-06-02 2010-11-17 中国科学院深圳先进技术研究院 高动态范围视频成像***和图像生成方法
CN104285434A (zh) * 2012-05-18 2015-01-14 汤姆逊许可公司 原生的三色图像和高动态范围图像
CN105721783A (zh) * 2014-12-17 2016-06-29 佳能株式会社 摄像装置及图像传感器的驱动方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110868551A (zh) * 2019-11-23 2020-03-06 英特灵达信息技术(深圳)有限公司 一种时间同步和空间对齐的暗光-亮光成对视频获取***
CN113156935A (zh) * 2020-01-07 2021-07-23 动态Ad有限责任公司 用于交通灯检测的***和方法
CN111666894A (zh) * 2020-06-08 2020-09-15 深圳裹动智驾科技有限公司 交通灯和车灯的检测方法及其感测***、以及车辆

Also Published As

Publication number Publication date
KR20190004002A (ko) 2019-01-10
US20180255252A1 (en) 2018-09-06
US20180041721A1 (en) 2018-02-08
CN114422724B (zh) 2023-09-26
SG11201811356SA (en) 2019-01-30
CN114422724A (zh) 2022-04-29
CA3028236C (en) 2020-11-10
CA3028236A1 (en) 2018-02-08
JP6901508B2 (ja) 2021-07-14
KR102072600B1 (ko) 2020-02-03
JP2021158677A (ja) 2021-10-07
EP3494434A4 (en) 2020-04-01
KR102301044B1 (ko) 2021-09-13
KR20200013082A (ko) 2020-02-05
CN109416475B (zh) 2022-01-14
JP2019525541A (ja) 2019-09-05
IL263876B (en) 2022-05-01
WO2018026599A1 (en) 2018-02-08
US9979906B2 (en) 2018-05-22
US10674099B2 (en) 2020-06-02
JP7265588B2 (ja) 2023-04-26
IL263876A (en) 2019-01-31
EP3494434A1 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
CN109416475A (zh) 分束扩展的动态范围图像捕获***
US8629916B2 (en) Camera with imaging unit and imaging unit for camera
KR20200031689A (ko) 이미지 처리 방법, 장치 및 기기
JP6547073B2 (ja) 改善されたオートフォーカス性能を有する撮像装置
KR102480618B1 (ko) 낮은 광 및 높은 광 레벨 이미징을 위한 단일 옵틱
JP2017126883A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2008017079A (ja) ビデオカメラ
JP2019165447A (ja) 固体撮像装置及び撮像システム
JP5794665B2 (ja) 撮像装置
JP6529214B2 (ja) 撮像装置
JPS5913899A (ja) 撮像装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant