CN105100638A - 使用点矩阵照明的光学区域监测 - Google Patents

使用点矩阵照明的光学区域监测 Download PDF

Info

Publication number
CN105100638A
CN105100638A CN201510257326.7A CN201510257326A CN105100638A CN 105100638 A CN105100638 A CN 105100638A CN 201510257326 A CN201510257326 A CN 201510257326A CN 105100638 A CN105100638 A CN 105100638A
Authority
CN
China
Prior art keywords
light
intensity
imaging sensor
light source
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510257326.7A
Other languages
English (en)
Other versions
CN105100638B (zh
Inventor
理查德·加莱拉
安妮·博尔比
德里克·W·琼斯
尼莱什·普拉丹
弗朗西斯·L·利尔德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rockwell Automation Technologies Inc
Original Assignee
Rockwell Automation Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rockwell Automation Technologies Inc filed Critical Rockwell Automation Technologies Inc
Publication of CN105100638A publication Critical patent/CN105100638A/zh
Application granted granted Critical
Publication of CN105100638B publication Critical patent/CN105100638B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

一种成像传感器设备,该成像传感器设备被配置成使用贯穿视场的聚焦光点阵列来照明视场而不是均匀地照明视场,从而减小产生从光点反射的给定强度的光所需的照明能量的量。在一些实施方式中,成像传感器设备可以以两个不同的强度或亮度水平来投射聚焦光点阵列,以使得高强度光点和低强度光点在视场中交错。这确保了可以在视场中可靠地检测到相对暗的对象、相对亮的对象或反射对象。可以基于视场的测量情况来调整光点的强度,该测量情况包括但不限于所测量的环境光或视场内的对象的所确定的反射率的动态范围。

Description

使用点矩阵照明的光学区域监测
相关申请的交叉引用
本申请涉及于2014年5月19日提交的题目为“OPTICALAREAMONITORINGWITHSPOTMATRIXILLUMINATION”的美国临时申请联案No.62/000,484的权益,其全部内容通过引用并入本文中。
背景技术
本文中所公开的主题大致涉及光学区域监测,并且,更特别地,涉及使用由提供对象的深度测量的成像传感器进行的点矩阵照明并且实现在单个图像帧内对不同反射率和不同距离的对象的高动态范围的检测和定位。
发明内容
以下给出简要的概述,以便提供对本文中所描述的一些方面的基本理解。该概述既不意在概括也不意在标识关键/重要元件或者划定本文中所描述的各个方面的范围。本概述的唯一目的是以简要的形式给出一些概念以作为随后给出的更详细的描述的序言。
在一个或更多个实施方式中,提供有包括照明部件的成像传感器设备,该照明部件被配置成将多个聚焦光束发射至由成像传感器设备监测的视觉空间,以产生贯穿视觉空间的光点阵列,光电接收器阵列被配置成接收来自视觉空间的反射光以及基于反射光产生针对与视觉空间对应的图像的像素数据,并且图像分析部件被配置成基于对像素数据的分析来确定视觉空间中的对象的位置。
另外,一个或更多个实施方式提供用于光学监测视场的方法,该方法包括:由包括至少一个处理器的成像传感器设备将多个聚焦光束发射至视场,以产生贯穿视场的多个光点;由成像传感器设备接收来自视场的反射光;基于反射光生成针对视场的图像的像素数据;以及基于对像素数据进行的对象位置分析来确定对象在视场中的位置。
另外,根据一个或更多个实施方式,提供有存储有指令的非暂态计算机可读介质,响应于执行,该指令使得成像传感器设备进行下述操作,该操作包括:将多个聚焦光束发射至视觉空间,以产生贯穿视觉空间的光点阵列;接收来自视觉空间的反射光;基于反射光生成表示视觉空间的像素数据;基于像素数据进行对象位置的确定。
为了实现上述目的及相关目的,在本文中结合以下描述及附图描述特定示例性方面。这些方面指示可以被实践的本文中意图涵盖的各种方法。当结合附图理解时,根据以下详细描述,其他优点和新颖特征可以变得明显。
附图说明
图1是示出使用二维成像传感器对X维度和Y维度中的对象的2D检测的示意图;
图2是示例性成像传感器设备的框图;
图3是示出成像传感器设备的部件的框图;
图4是示出点矩阵照明技术的示例性实现的示意图;
图5是示出利用高亮度点和低亮度点的交错的点矩阵照明技术的示例性实现的示意图;
图6是示出用于对光点图案进行投射的示例性设计的示意图;
图7是示出用于对光点图案进行投射的另一示例性设计的示意图;
图8是用于使用采用点矩阵技术的成像传感器设备进行区域监测的示例性方法的流程图;
图9是用于使用采用具有点强度调制的点矩阵照明的成像传感器设备进行区域监测的示例性方法的流程图;
图10是用于使用采用具有动态范围调节的点矩阵照明的成像传感器设备进行区域监测的示例性方法的流程图;
图11是示例性计算环境;以及
图12是示例性网络环境。
具体实施方式
现在,参照附图描述本主题公开内容。其中,贯穿全文,相同的附图标记用于指代相同的元件。在以下描述中,为便于说明起见,提出多个具体细节以提供对以下描述的透彻理解。然而,可以明显的是,在没有这些具体细节的情况下也可以对主题公开内容进行实践。在其他示例中,以框图的形式示出众所周知的结构和设备,以便有助于对主题公开内容的描述。
如在本申请中所使用,术语“部件”、“***”、“平台”、“层”、“控制器”、“端子”、“站”、“节点”、“接口”意在指代计算机相关实体或者与具有一个或更多个具体功能的操作设备有关或作为具有一个或更多个具体功能的操作设备的一部分的实体,其中,这样的实体可以为硬件、硬件和软件的组合、软件或者执行中的软件中之一。例如,部件可以为但不限于处理器上运行的处理、处理器、硬盘驱动、包括附加固态存储驱动(螺丝拧紧或螺栓固定的)或者可移除的附加固态存储驱动(光存储介质或磁存储介质的)多个存储驱动、对象、可执行、执行线程、计算机可执行程序和/或计算机。通过例示,服务器上运行的应用和服务器二者均可以为部件。一个或更多个部件可以存在于处理和/或执行线程内,并且部件可以位于一个计算机上和/或分布在两个或更多个计算机之间。另外,本文中所描述的部件可以根据存储有各种数据结构的各种计算机可读存储介质来执行。部件可以例如根据具有一个或更多个数据包(例如,来自与本地***、分布式***中的另一部件交互的一个部件的数据以及/或者来自经由信号经过网络例如因特网与其他***交互的部件的数据)的信号经由本地处理和/或远程处理进行通信。作为另一示例,部件可以为具有由电路或电子电路操作的机械部件提供的特定功能的设备,电路或电子电路由处理器执行的软件应用或固件应用来操作,其中,处理器可以位于设备内部或设备外部并且执行软件应用或固件应用的至少一部分。作为又一示例,部件可以为通过没有机械部分的电子部件提供特定功能的设备,电子部件可以包括其中的处理器以执行提供电子部件的至少一部分功能的软件或固件。作为再一示例,一个或更多个接口可以包括输入/输出(I/O)部件以及关联处理器、应用或者应用程序接口(API)部件。虽然上述示例涉及部件的各个方面,所例示的方面或特征还应用于***、平台、接口、层、控制器、终端等。
如本文中所使用,术语“进行推断”和“推断”大体是指根据如经由事件和/或数据拍摄的观察集推理或推断***、环境和/或用户的状态的处理。推断可以用于识别具体内容或动作,或者可以生成例如状态的可能性分布。推断可以为或然性的——即,基于数据或事件的考虑对关注状态的可能性分布的计算。推断也可以指根据事件和/或数据集组成较高水平的事件所采用的技术。这样的推断导致根据所观察的事件和/或存储的事件数据集创建新的事件或动作,而与事件是否与事件接近性密切相关无关,并且与事件和数据是否来自一个或若干个事件和数据源无关。
此外,术语“或者”意在指包括“或者”而非排除“或者”。也就是说,除非特别指出,或者文本中明确说明,短语“X采用A或者B”意在指自然包括排列中的任何一个。也就是说,下述示例中任何示例均满足短语“X采用A或者B”:X采用A;X采用B;或者X采用A和B二者。此外,除非特别指出或者文本中明确说明是指单数形式,否则本申请及所附权利要求中所使用的词语“一个(a)”和“一个(an)”通常应当理解为意指“一个或更多个”。
此外,本文中所使用的术语“集”不包括空集,例如其中没有元素的集。因此,主题公开内容中的“集”包括一个或更多个元素或实体。作为例示,控制器的集包括一个或更多个控制器;数据源的集包括一个或更多个数据源等。类似地,本文中所使用的术语“组”是指一个或更多个实体的聚集,例如,一组节点是指一个或更多个节点。
将根据可以包括多种设备、部件、模块等的***给出各个方面或特征。要明白和理解的是,各个***可以包括另外的设备、部件、模块等,并且/或者可以不包括结合附图所讨论的所有的设备、部件、模块等。也可以使用这些方法的组合。
图1示出了使用三维(3D)图像传感器104对对象108的检测。3D图像传感器(也已知为飞行时间(TOF)传感器)被设计成针对传感器视场内的物体和表面生成沿Z轴的距离信息以及沿XY平面的二维形状和位置信息。对于图像的每个像素而言,TOF传感器测量向视场发射光脉冲与在传感器的光电接收器(photo-receiver)处接受到反射光脉冲之间的推移时间。由于该飞行时间信息为对象或表面距传感器的距离的函数,所以传感器能够使用TOF信息来确定对象或表面点距传感器的距离。
二维成像传感器和三维成像传感器通常朝向视场投射均匀水平的照明。对于基于例如环境中出现的环境光的水平、要检测的对象的反射程度或者其他方面的因素的视场条件而言,该水平的照明通常是最佳的。然而,当将均匀照明应用于包括具有大范围反射率的对象的环境时,对于检测环境中的一些对象而言,照明水平可能不是最佳的。例如,如果照明水平对暗的对象是最佳的,则对包括非常暗的对象和高反射对象的视场应用均匀照明可能引起与高反射对象对应的像素的饱和,或者如果照明水平对反射对象是最佳的,则可能引起针对与暗的对象对应的像素的、不足的信噪比(SNR)。
此外,需要检测大视角内的对象的应用需要高水平照明,以确保整个视觉区域被适当照射以进行可靠的对象检测,这导致高功率的消耗。
为了解决这些问题和其他问题,本公开内容的一个或更多个实施方式提供成像传感器,成像传感器包括能够将光聚集至贯穿视场的空间的点,在本文中将该技术称为点矩阵照明。与应用遍及环境的一个均匀光束不同,成像传感器对聚焦在所关注的特定区域上的单独的光束进行投射,从而在不牺牲对象检测的可靠性的情况下减少对视觉区域内的给定特定关注区进行照明所需要的功率的量。通常,本文中所描述的成像传感器的实施方式在不增大光源的功率的情况下增大视场的照明量。该原理为将光聚集至具有特定距离的点中,以确保对象的检测。使用该原理的可利用光的预算大于传统照明并且可以实现对不同反射率和不同距离的对象的更大动态范围的检测和定位。
成像传感器的一些实施方式还可以被配置成通过使贯穿视场的高亮度点和低亮度点交错来调制所投射的光点的照明强度,这有助于可靠地检测环境范围内的亮的对象和暗的对象二者。一些这样的实施方式还可以被配置成独立管理与高亮度点和低亮度点关联的照明程度。由成像传感器执行的算法可以基于所检测的条件(例如,所测量的视场上的环境光的程度)来调节帧之间的点的亮度,前提是关于光的量的点灵活程度和帧灵活程度与高亮度点和低亮度点关联。
图2是根据本公开内容的一个或更多个实施方式的示例成像传感器设备202的框图。虽然图2描绘了成像传感器设备202上所驻留的某些功能性部件,但是要理解的是,在一些实施方式中,图2中所示的功能性部件中的一个或更多个可以驻留在相对于成像传感器设备202的分离的设备上。本公开内容中所说明的***、装置或处理的方面可以构成包含在机器内的机器可执行部件,例如包含在与一个或更多个机器相关联的一个或更多个计算机可读介质(或媒介)的机器可执行部件。这样的部件当被一个或更多个机器(例如计算机、计算设备、自动化设备、虚拟机器等)执行时,可以使机器执行所描述的操作。
成像传感器设备202可以包括照明部件204、环境光测量部件206、强度调制部件208、像素数据分析部件210、控制输出部件212、一个或更多个处理器214以及存储器216。在各种实施方式中,照明部件204、环境光测量部件206、强度调制部件208、像素数据分析部件210、控制输出部件212、一个或更多个处理器214以及存储器216中的一个或更多个可以电和/或在通信上彼此耦接,以执行成像传感器设备202的功能中的一个或更多个功能。在一些实施方式中,部件204、部件206、部件208、部件210和部件212可以构成存储在存储器216上并且由处理器214执行的软件指令。成像传感器设备202还可以与图2中未描绘的其他硬件部件和/或软件部件交互。例如,处理器214可以与一个或更多个外部用户接口设备交互,该外部用户接口设备例如为键盘、鼠标、显示监视器、触摸屏或其他这样的接口设备。成像传感器设备202还可以包括网络通信部件以及用于通过网络(标准数据网络或安全网络中的一个或二个)或通过背板来发送由部件204、部件206、部件208、部件21和部件212生成的数据的相关联联网端口。
照明部件204可以被配置成控制由传感器设备发出光。成像传感器设备202可以包括激光器、发光二极管(LED)或在照明部件204的控制下的远程荧光发光源(在共同待决的美国专利申请No.14/509,466(其全部内容通过引用合并到本文中)中更详细地描述了远程荧光发光源)。特别地,照明部件204可以被配置成将光束聚焦在贯穿视场间隔分布的光点中,其中,基于有效像素尺寸以及成像传感器设备202的接收元件的透镜特性来定义每个光点的尺寸。在一些实施方式中,照明部件204可以被配置成使贯穿视场的高亮度光点和低亮度光点交错,以便可靠地检测单帧内的亮对象和暗对象。
环境光测量部件206可以被配置成检测从视区接收的环境光的量。环境光测量部件206可以测量针对所投射的光点之间的像素所接收的光,作为环境光。
强度调制部件208可以被配置成基于所测量的条件来调整所投射的光点的强度。强度调制部件208的一些实施方式可以基于由环境光测量部件206所提供的环境光测量数据来对光点的亮度进行调整。对于支持高亮度光点和亮度光点的交错的成像传感器设备202,强度调制部件208可以被配置成基于所测量的条件来单独地调整与各个高亮度光点和低亮度光点相关联的发光强度的程度。
像素数据分析部件210可以被配置成对由成像传感器设备202所收集的图像数据应用2D或3D图像分析中的一个或二者,以便识别视场内的对象。例如,对象检测部件可以执行图像像素的红-绿-蓝(RGB)分析或灰度分析(包括但不限于边缘检测、轮廓分析、图像锐化、对比度调整、差异和附加成像等),以确定帧内的对象的存在。对于支持3D分析(飞行时间分析)的成像传感器设备,像素数据分析部件210还可以被配置成生成针对各个像素的距离信息以确定对象距传感器的距离。
控制输出部件212可以被配置成基于由像素数据分析部件210生成的结果(其是基于使用照明部件204、环境光测量部件206和/或强度调制部件208所获得的数据得到的)来分析和控制一个或更多个传感器输出。这可以包括例如:发送控制信号以控制或监控设备(例如、工业控制器、安装在移动车辆中的车辆计算机等)来执行控制动作;发起安全动作(例如,去除危险机器的电力、将工业***切换至安全操作模式等);经由人机接口(HMI)或个人移动设备将反馈信号发送至一个或更多个人;通过安全网络发送数据;或者其他这样的输出。
一个或更多个处理器214可以执行本文中参照所公开的***和/或方法所描述的功能中的一个或更多个功能。存储器216可以为计算机可读存储介质,其存储用于执行本文中参照所公开的***和/或方法所描述的功能的计算机可执行指令和/或信息。
图3是示出根据一个或更多个实施方式的成像传感器设备202的部件的框图。在该示例中,照明部件204控制LED、激光或远程荧光体经由发光透镜306向视场发光。照明部件204根据光点矩阵发光技术向视场或场景310发光,而不是均匀地对场景310进行照明,照明部件204将光聚集或聚焦在视区上间隔一定距离的光点312中。该技术可以提高对小对象以及具有低反射率的对象的检测的可靠性,而不增大由成像传感器的光源所消耗的电力。在这样的情形下,可以基于像素的有效尺寸以及成像传感器设备的接收透镜元件308的透镜特性来定义光点312中的每一个的尺寸。相对于光点尺寸对接收透镜元件308来限定尺寸,以使得接收透镜元件308上的光点的图像覆盖一个像素的至少光敏感区。
在该技术的变型中,照明部件204或发光透镜设计还可以被配置成对所发出的光点的照明强度进行调制,以使得高亮度光点和低亮度光点同时地贯穿视区而交错。该技术可以便于对单图像帧内的亮对象和暗对象的可靠检测。在示例实现中,可以通过将光学结构置于LED、雷达或远程荧光源的前面来实现照明的聚焦光点。该光学结构可以包括例如方形小透镜或其他类型的包括方形或矩形光圈的光学元件。该小透镜可以包括平透镜阵列或曲面上的阵列透镜元件。为了确保利用小对象尺寸进行准确地检测,可以定义光点图案,以使得至少两个水平光点和两个竖直光点覆盖距接收透镜元件308给定距离处的对象的最小尺寸。其他类型的光学结构也可以用于生成所聚焦的光点,光学元件包括但不限于衍射光学元件或全息光学元件。
接收透镜元件308接收从对象和视场内的表面反射的光并且将所发射的光引导至光电接收器阵列304。在光电接收器阵列304处接收到所反射的光时,基于在阵列中的每个光电接收器处所测量的光强度来生成像素数据,以产生可以由成像传感器设备处理和分析的图像302。
像素数据分析部件210可以执行对图像302的2D分析或3D分析。2D图像分析可以包括对图像302的全部或一部分的RGB分析或灰度分析,包括但不限于边缘检测、轮廓分析、图像锐化、对比度调整、差异和附加成像等。成像传感器设备202可以采用2D图像分析来识别视区内的对象并且确定所识别的对象是否与一个或更多个定义的对象分类(例如,人类、叉车或手推车、传送带上的机器零件、包含包装产品的货盘)相对应。在一些实施方式中,成像传感器设备202还可以被配置成使用2D图像分析来执行面部识别,其对于其中控制决策或操作者反馈输出依赖于在视场内检测到的人的身份的应用是有用的。
3D分析(或飞行时间分析)用于确定视场中的与图像302的像素相对应的对象或表面的距离,例如对由对象所反射的光束使用相移飞行时间分析,或者对从对象所反射的光脉冲使用脉冲调整的飞行时间分析。对图像302的每个像素执行距离计算产生了针对视场的所选择区域的3D点云。在一些实施方式中,成像传感器设备202可以支持2D分析和3D分析二者,并且可以对分析结果进行关联以确定例如三维视觉空间内的所识别对象的位、速度、加速度和/或轨迹。
根据应用的类型,控制输出部件212可以基于由像素数据分析部件210基于对图像302的分析生成的对象身份、位置和/或行为数据来生成合适的输出或操作者反馈。在一些实施方式中,成像传感器设备202可以与工业控制或安全***、车辆安全***或其他这样的***对接,以实现基于对象检测的控制特征。因此,由成像传感器设备生成的输出可以包括:用于基于对象数据来改变机器或***的操作的、对相关联控制或安全***(例如,可编程逻辑控制器或其他安全自动化控制器、移动车辆的引擎控制单元等)的控制指令;基于视场内的人类的存在和移动将工业***置于安全状态的、对相关联安全***(例如,安全继电器)的安全输出;或者其他这样的输出。由控制输出部件212生成的控制输出和消息可以另外地为由成像传感器设备202执行的内部部件诊断的函数。
图4是示出光点矩阵照明技术的实现的一个示例的示意图。如上所述,照明部件204对具有聚焦光点的图案的场景进行照明,该聚焦光点的图案可以使用集成图案生成器408来产生。在一些实施方式中,可以通过将光学结构(例如,方形小透镜、衍射光学元件、全息光学元件)置于成像传感器的发光光学***412的前面来生成光点图案,发光光学***412对来自光源(例如,LED、激光器或远程荧光体)的光进行投射。该光学结构可以包括对由光源402生成的光进行聚焦以产生贯穿视场的光点图案406的透镜部分或其他元件。要理解的是,用于对来自光源402的光进行聚焦的其他装置在本公开内容的范围内,并且以上所描述的光学结构并非意在限制。图案生成器408可以通过下述使来自光源402的光损失最小化:将光分隔并且聚集成分离的、被隔开的束;以及以使得至少两个光点落入距发光透镜306给定距离处的最小对象尺寸内的方式来定义光点图案。
例如,如果特定感测应用要求对距发光透镜5米处的具有50mm的最小尺寸的对象进行检测,则图案生成器408可以被配置成对光点图案406进行投射,以使得相邻光点之间的距离为20mm。这确保了来自视场内的给定对象的至少两个光点将被反射回接收光学***410,从而实现针对视场中的对象的可靠SNR。在成像传感器设备的接收光学***410处接收从视场所反射的光,该接收光学***410将所接收的光引导至要对其执行飞行时间(TOF)分析的像素。图案406中的每个光点的尺寸以及接收透镜元件的尺寸可以被选择成使得:接收透镜元件上的光点的图像覆盖一个像素的至少光敏感区。以此方式,图像404的给定像素将与从视场接收到的环境光或所投射的光点相对应。
通过使用图案生成器408将光点聚焦在视场内的感兴趣的特定区上,可以相对于对场景进行均匀照明而使用较低供电光源,而不牺牲可靠地检测感兴趣的区域处的对象的能力。
在一些场景中,给定视场可以包括各种对象和具有不同反射率的表面。当利用均匀光对场景进行照明时,非常暗的对象和高反射率对象二者均存在于相同的视场,其可以降低针对视场内的一些对象的检测准确度。特别地,优化针对高反射率对象的照明水平可以使得接收到针对与暗的对象相关联的像素的不充足量的反射光,其导致针对那些对象的准确检测的不充足的SNR。相反地,优化针对较暗对象的照明水平会使得接收到来自视场中的高反射率对象的太多的光。为了解决这些以及其他问题,可以采用上述光点矩阵照明技术的变型来提高成像传感器的对象反射率的动态范围。根据该技术,照明部件204可以通过使贯穿视场的高亮度光点和低亮度光点交错来对光点的照明强度进行调整。将高亮度光点和低亮度光点二者均发射进视场中可以使传感器能够检测单帧内的亮对象和暗对象二者。
图5是示出了利用高亮度点和低亮度点的交错的点矩阵照明技术的示例性实施方式的示意图。与图4中所示出的示例类似,位于成像传感器的光学发射***306的前面的图案生成器508将来自光源502的光聚集成聚焦光点,这些聚焦光点贯穿可视区间隔开以形成点图案506。在这个示例中,图案生成器508配置成控制来自光源502的光,以使得点图案506包括两种类型的点—高强度(或高亮度)点和低强度(或低亮度)点。高强度点和低强度点贯穿可视区而交错,确保在一帧中明亮对象和黑暗对象两者的精确检测。也就是说,在图像504包含黑暗对象和明亮对象两者的情况下,高强度点和低强度点的交错图案506确保至少一个低强度点将被明亮对象反射,导致从对象反射合适的光量并且减缓对于对象的像素饱和。同样地,至少一个高强度点将落在黑暗对象上,确保足够的光量被对象反射以获得对于该像素的合适的信噪比(SNR)。
高强度点和低强度点的交错可以使用任何合适配置的光源502和图案生成器508来获得。图6是示出了用于投射点图案506的示例性设计的示意图。在这个示例中,两个分离的LED606A和LED606B通过各自的两个图案生成器604投射光。LED606A以相对于LED606B较高的强度投射光。每个图案生成器604被配置成将来自该图案生成器对应的LED606的光聚集成聚焦点608以产生一个与该图案生成器对应的LED606的光强度对应的总点(totalspot)图案506的子集。通过将两个LED/透镜对并排放置在成像传感器内,在LED606通过图案生成器发射光的情况下,由两个LED/图案生成器对所生成的高强度子图案和低强度子图案贯穿可视区而交错。
由于每个LED606的亮度可以分别调整,所以该设计提供了关于与高强度点和低强度点相关的光量的灵活度。在一些实施方式中,LED606A和LED606B各自的强度水平可以由最终用户调整以适应操作环境的需要。另外地或可替选地,成像传感器的强度调制部件208可以基于所测量的环境条件根据所需自动调整LED606A和LED606B的亮度水平。例如,成像传感器设备202的一些实施方式可以包括环境光测量部件206(参见图3),该环境光测量部件206测量与落在所投射的高强度点和低强度点之间的像素(例如,图5中图像504的白像素)对应的光接收器接收到的环境光。基于通过环境光测量部件206测量到的环境光的强度,强度调制部件208可以调制LED606A和LED606B的强度以获得满足或超过所指定的SNR的信噪比。在一些场景中,强度调制部件208可以成比例地增加或降低LED606A和LED606B的强度,以使得在高强度点和低强度点之间的强度比保持不变。可替选地,强度调制部件208可以调整LED606A和LED606B各自的强度以改变高强度点和低强度点之间的强度比。强度调制部件208可以基于对于所给定的视场条件的精确对象检测所需的动态范围的确定来改变该强度比(例如,基于在视场中检测到的黑暗对象和明亮对象之间在反射率上的所测量到的差异)。
成像传感器可以在逐个帧的基础上对LED强度进行调整。例如,在对图像504的帧的处理过程中,环境光测量部件206可以对于针对图像504的环境光像素中的一个或更多个所接收到的环境光进行测量。另外地,或可替选地,像素数据分析部件210除了执行3D分析以确定在帧内的对象的位置外,像素数据分析部件210还可以确定在帧中的最明亮对象与在帧中的最黑暗对象之间的亮度比(例如,亮度差异的程度)。基于这些所测量的因素,强度调制部件208或者可以同步调整LED606A和LED606B的强度(保持两个LED之间的亮度比不变),或者可以调整两个LED606A和LED606B之间的亮度比以在所给定的帧中的对象反射率的动态范围下获得合适的SNR。该调整可以在对图像504的下一帧的图像像素进行更新之前执行,以使得成像传感器能够快速管理高的动态范围。在一些实施方式中,成像传感器可以以指定的校准频率周期性地执行这种自动化的LED校准,而不是对于每一帧执行这些测量和执行调整。
图7是示出了对于投射点图案506的另一设计的示意图。与图6中所示的双LED设计相反,该示例采用了单个LED706和对应的图案生成器704。图案生成器704包括两种类型的发光元件—用于产生高亮度点的大元件(例如,元件1、3、6、8、9和11)和用于产生低亮度点的较小元件(元件2、4、6、7、10和12)。与图6中所示的设计不同,使用该设计在高亮度和低亮度之间的比通过大元件和小元件的比而固定。然而,由于仅需要一个LED以产生交错点图案506,因此在图7中所示的设计需要的功率量为图6的双LED设计所需的功率量的一半。此外,仍然可以使用与图6相关的那些描述类似的测量和调整技术来同步调整低亮度点和高亮度点的强度(无需改变在两种类型的点之间的亮度比)。利用图7中所描述的设计的成像传感器设备202的实施方式可以包括LED/图案生成器对阵列以在整个视场投射高强度和低强度的聚焦光点的交错图案。
图8至图10示出了根据本申请的一个或更多个实施方式的各种方法。然而,为了简单说明的目的,将本文示出的一个或更多个方法示出并描述为一系列动作,应当理解并领会的是,本创新不被动作的顺序所限,根据本文,一些动作可以以不同的顺序发生以及/或者与本文示出并描述的其他动作同时发生。例如,本领域普通技术人员将理解并领会的是,方法也可以表示为如在状态图中的一系列相互关联的状态或事件。此外,并非所有示出的动作被需要以实现根据本创新的方法。此外,当不同的实体进行方法的不同部分时,一个或更多个交互图可以表示根据本公开内容的方法或方式。进一步,所公开的示例性方法中的两个或更多个方法可以彼此结合来实现,以实现本文所描述的一个或更多个特征或优点。
图8示出了使用采用了点矩阵技术的成像传感器设备用于执行面或体监测的示例性方法800。首先,在802处,光从成像传感器被发射,作为产生贯穿视场的光点图案的聚焦光束。在一个或更多个实施方式中,成像传感器可以包括将光通过发射透镜投射的光源(例如,激光器、LED或非接触式磷光体发射器),发射透镜将光引导至将光聚集成聚焦光束阵列的光学结构。这些聚焦光束产生贯穿视场的聚焦光点图案。对图案进行管理使得点以一定距离间隔开以确保至少两个点将落在所指定的最小检测尺寸的对象上。此外,点或点组可以被引导至视场内感兴趣的特定区域以将光发射聚焦至精确对象检测的临界区域,从而利用光源能量的效率更高。
在804处,从视场反射的光被成像传感器的接收透镜接收。在806处,与视场的图像对应的像素数据基于反射光而生成。例如,像素数据可以基于成像传感器的光接收器的电输出的测量,该测量基于入射到光接收器的表面上的光量。在808处,执行对像素数据的分析以获得对于在图像内的对象的距离和位置信息。在810处,控制输出或反馈信息中的至少一个通过成像传感器基于分析而生成。
图9示出了使用采用了带有点强度调制的点矩阵照明的成像传感器设备用于执行区检测的示例性方法900。首先,在902处,以第一强度从成像传感器发射第一组聚焦光束并且以第二强度从成像传感器发射第二组聚焦光束,以形成贯穿视场的聚焦光点图案。第一组聚焦光束和第二组聚焦光束被引导以使得由第一组聚焦光束形成的光点与由第二组聚焦光束形成的光点交错。
在904处,与视场的图像的帧对应的像素数据基于在成像传感器接收到的、来自视场的反射光而生成。在906处,使用3D分析来对像素数据执行对象检测分析。在908处,入射到成像传感器的光接收器阵列的来自视场的环境光量基于来自帧的一个或更多个像素的数据被测量,该帧不对应于来自聚焦光点的反射光(例如,基于来自与聚焦光点对应的像素之间的一个或更多个像素的数据)。
在910处,基于在步骤908获得的环境光测量对关于是否需要对发射第一组聚焦光束和第二组聚焦光束的光源进行调整进行了确定。就这一点而言,成像传感器能够通过执行所投射的光强度的环境光补偿来使对象检测可靠性最优化。通常,较低的环境光量可能需要增加投射光束的强度以便获得足够的SNR以精确地检测视场中的对象。相反地,较高的环境光量可以驱动传感器降低投射光束的强度以便缓和像素饱和的风险。
如果确定在步骤910不需要调整,那么方法移动至步骤912,在步骤912处获得图像的下一帧(例如,通过对成像传感器的光接收阵列进行新的读取),并且方法在步骤902处关于图像的下一帧再次开始。可替选地,如果确定在步骤910需要调整,则方法移动至步骤914,在步骤914处第一组聚焦光束或第二组聚焦光束中的一个或两个的强度基于在步骤908测量的环境光量被修改。例如,可以通过改变驱动第一组光束和第二组光束的一个或更多个LED或激光器的强度来实现强度调制。然后方法移动至步骤912,在步骤912处获得下一帧并且对于下一帧方法重复执行。
图10示出了使用采用了带有动态范围调整的点矩阵照明的成像传感器设备用于执行区检测的示例性方法1000。首先,在1002处,以第一强度从成像传感器发射第一组聚焦光束并且以第二强度从成像传感器发射第二组聚焦光束以形成贯穿视场的聚焦光点图案。第一组聚焦光束和第二组聚焦光束被引导以使得由第一组聚焦光束形成的光点与由第二组聚焦光束形成的光点交错。第一强度和第二强度相差指定的强度比。通过以相对高的强度(例如,第一强度)和以相对低的强度(例如,第二强度)投射两个光束,间隔开以使得至少两个光点将入射到至少最小尺寸的对象上,由于在视场中两种类型的对象中的每一个被确保将至少两个光点反射至对于对象的反射率已进行合适地调整的成像传感器,因此成像传感器能够在视场内更可靠地检测相对高反射的对象以及相对低反射的对象,
在1004处,基于来自视场的在成像传感器处接收到的反射光来生成与视场的图像的帧对应的像素数据。在1006处,使用2D分析或3D分析中的一个或两者来对像素数据进行对象检测分析。在1008处,基于对像素数据的分析来测量视场内的两个对象之间的反射率差,以确定与视场关联的反射率的动态范围。
在1010处,基于在步骤1008处获得的动态范围来确定是否需要对光束的第一强度和第二强度之间的强度比进行调整。如果确定不需要调整,则方法移动至步骤1012,在步骤1012处获得下一图像帧,并且针对下一帧来重复该方法。或者,如果确定需要调整强度比,则方法移动至步骤1014,在步骤1014处,基于在步骤1008处测量的动态范围来修改第一强度和第二强度之间的强度比,从而补偿针对视场测量的反射率的动态范围。然后方法移动至步骤1012,在步骤1012处获得下一图像帧,并且针对下一帧来重复该方法。
本文中所描述的实施方式、***和部件,以及其中可以实施主题说明书中阐述的各个方面的控制***和自动化环境可以包括能够跨网络进行交互的计算机或网络部件例如服务器、客户机、可编程逻辑控制器(PLC)、自动化控制器、通信模块、移动计算机、用于移动车辆的车载电脑、无线部件、控制部件等。计算机和服务器包括如下一个或更多个处理器(采用电信号执行逻辑运算的电子集成电路),该处理器被配置成执行存储在以下介质中的指令:例如随机存取存储器(RAM)、只读存储器(ROM)、硬盘驱动器以及可以包括记忆棒、存储卡、闪存驱动器、外部硬盘驱动器等的可移除存储设备。
类似地,如本文所使用的术语PLC或自动化控制器可以包括可以跨多个部件、***和/或网络共享的功能。作为示例,一个或更多个PLC或自动化控制器可以跨网络与各种网络设备进行通信和协作。这基本上可以包括经由包括控制网络、自动化网络和/或公共网络的网络进行通信的任意类型的控制、通信模块、计算机、输入/输出(I/O)设备、传感器、执行器以及人机接口(HMI)。PLC或自动化控制器还可以与以下各种其他设备进行通信并控制各种其他设备:例如包括模拟、数字、编程/智能I/O模块、其他可编程控制器、通信模块、传感器、执行器、输出设备等的标准或安全级I/O模块。
所述网络可以包括:公共网络,例如因特网、内联网;以及自动化网络,例如包括DeviceNet、ControlNet、安全网络和以太网/IP的控制和信息协议(CIP)网络。其他网络包括以太网、DH/DH+、远程I/O、现场总线、Modbus、过程现场总线(Profibus)、CAN、无线网、串行协议等。另外,网络设备可以包括各种可能性(硬件和/或软件部件)。这包括以下部件:例如具有虚拟局域网(VLAN)能力的接线器(switch)、LAN、WAN、代理、网关、路由器、防火墙、虚拟专用网(VPN)设备、服务器、客户端、计算机、配置工具、监控工具和/或其他设备。
为了提供用于所公开的主题的各个方面的境况,图11和图12以及以下讨论旨在提供对在其中可以实现所公开的主题的各个方面的适合的环境的简要、概括的描述。
参照图11,用于实现上述主题的各个方面的示例环境1110包括计算机1112。计算机1112包括处理单元1114、***存储器1116和***总线1118。***总线1118使得包括但不限于***存储器1116的***部件耦接至处理单元1114。处理单元1114可以是各种可用的处理器中任意一个。也可以使用多核微处理器和其他多处理器架构作为处理单元1114。
***总线1118可以是包括存储器总线或存储器控制器、***总线或外部总线、和/或局部总线的若干类型的一个或多个总线结构中的任意一类,局部总线使用以下任意多种可用总线架构,总线架构包括但不限于8位总线、工业标准架构(ISA)、微通道架构(MSA)、扩展型ISA(EISA)、智能驱动电子设备(IDE)、VESA局部总线(VLB)、***部件互连(PCI)、通用串行总线(USB)、高级图形端口(AGP)、个人计算机存储卡国际协会总线(PCMCIA)以及小型计算机***接口(SCSI)。
***存储器1116包括易失性存储器1120和非易失性存储器1122。在非易失性存储器1122中存储有包括例如在启动期间用于在计算机1112内的元件之间传送信息的基本例程的基本输入/输出***(BIOS)。作为说明而非限制,非易失性存储器1122可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除PROM(EEPROM)或闪速存储器。易失性存储器1120包括作为外部高速缓冲存储器的随机存取存储器(RAM)。作为说明而非限制,RAM可以以许多形式获得,例如同步RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、SynchlinkDRAM(SLDRAM)和直接RambusRAM(DRRAM)。
计算机1112还包括可移除/不可移除计算机存储介质、易失性/非易失性计算机存储介质。图11示出例如磁盘存储器1124。磁盘存储器1124包括但不限于诸如磁盘驱动器、软盘驱动器、磁带驱动器、Jaz驱动器、Zip驱动器、LS-100驱动器、闪存卡、或记忆棒。另外,盘式存储1124可以单独包括存储介质或者以与其他存储介质组合的方式包括存储介质,所述其他存储介质包括但不限于光盘驱动器,例如压缩盘式ROM设备(CD-ROM)、CD可记录驱动器(CD-R驱动器)、CD可复写驱动器(CD-RW驱动器)或数字多功能盘ROM驱动器(DVD-ROM)。为便于磁盘存储器1124与***总线1118连接,通常使用可移动或不可移动接口例如接口1126。
应当理解的是,图11描述了在适合的操作环境1110中用作拥护与所描述的基本计算机资源之间的媒介的软件。这样的软件包括操作***1128。操作***1128可以被存储在磁盘存储器1124上,操作***1128用作对计算机1112资源进行控制和分配。***应用程序1130通过存储在***存储器1116中或磁盘存储器1124上的程序模块1132和程序数据1334经由操作***1128利用资源管理。应当理解的是,可以利用多个操作***或操作***的组合来实现本主题公开内容的一个或更多个实施方式。
用户通过一个或多个输入设备1136将命令或信息输入到计算机1112中。输入设备1136包括但不限于定点设备,例如鼠标、跟踪球、触控笔、触摸垫、键盘、麦克风、操纵杆、游戏垫、卫星天线、扫描仪,TV调谐卡、数码相机、数码摄像机,网络摄像头等。这些和其它输入设备通过***总线1118经由一个或多个接口端口1138与处理单元1114连接。一个或多个接口端口1138包括例如,串行端口、并行端口、游戏端口和通用串行总线(USB)。一个或多个输出设备1140使用一些与一个或多个输入设备1136相同类型的端口。因此,例如,USB端口可以用来向计算机1112提供输入,并从计算机1112向输出装置1140输出信息。设置输出适配器1142用以说明存在一些需要特殊适配器的输出装置1140诸如监视器、扬声器和打印机以及其他输出设备1140。输出适配器1142包括作为举例说明而非限制的使输出设备1140与***总线1118之间连接的装置的显卡和声卡。应当注意的是,其他设备和/或设备的***提供了输入和输出两种能力,例如一个或多个远程计算机1144。
计算机1112可以在网络化环境中操作以利用逻辑连接至一个或更多个远程计算机例如一个或多个远程计算机1144。一个或多个远程计算机1144可以为个人计算机、服务器、路由器、网络PC、工作站、基于微处理器的装置、对等设备或其他公共网络节点等,并且远程计算机1144通常包括许多或所有所描述的关于计算机1112的元件。为了简明起见,仅记忆存储设备1346与一个或多个远程计算机1144一起进行说明。一个或多个远程计算机1144通过网络接口1148被逻辑地连接至计算机1112,然后经由通信连接1150物理地连接。网络接口1148包括通信网络例如局域网连接(LAN)和广域网(WAN)。LAN技术包括光纤分布式数据接口(FDDI)、铜分布式数据接口(CDDI)、以太网/IEEE802.3、令牌环/IEEE802.5等。WAN技术包括但不限于点对点链路、电路交换网诸如整合服务数位网(ISDN)及其变体、包交换网络以及数字用户线路(DSL)。
通信连接1150指的是用于使网络接口1148与***总线1118连接的硬件/软件。尽管为了清楚说明起见,通信连接1150被示出在计算机1112的内部,但通信连接1150也可以在计算机1112的外部。必要,用于连接至网络接口1148的必要的硬件/软件包括仅作示例的内部和外部技术例如,包括常见电话级调制解调器、电缆调制解调器和DSL调制解调器、SDN适配器和以太网卡的调制解调器。
图12是可以与所公开的主题进行交互的示例计算环境1200的示意性框图。示例计算环境1200包括一个或更多个客户端1202。一个或多个客户端1202可以为硬件和/或软件(例如线程、进程、计算设备)。示例计算环境1200还包括一个或更多个服务器1204。一个或多个服务器1204也可以为硬件和/或软件(例如线程、进程、计算设备)。例如,服务器1204可以通过利用本文中所描述的一个或更多个实施方式的来容纳线程以进行转换。客户端1202和服务器1204之间的一种可能的通信可以是适于在两个或更多个计算机进程之间传送的数据包的形式。示例计算环境1200包括可以被用来便于一个或多个客户端1202与一个或多个服务器1204之间的通信的通信框架1206。一个或多个客户端1202可操作地连接至可以用于存储客户端1202局域的信息。类似地,一个或多个服务器1204可操作地连接至可以用来存储一个或多个客户端1202局域的信息的一个或更多个服务器数据存储器1210。
上述内容包括本发明的示例。当然,不可能为了描述所公开的主题而描述组件或方法的所有可想到的组合,但是,本领域技术人员可以认识到,本发明的很多另外的组合和置换是可能的。因此,所公开的主题意在包括落入所附权利要求的精神和范围内的所有这样的替选、修改和变化。
具体地,关于由上述组件、设备、电路、***等执行的各种功能,用于描述这样的组件的术语(包括涉及“装置”)除非另行指出,否则意在对应于执行所述组件的具体功能的任意组件(例如,功能上的等同),该组件即使结构上不等同于所公开的结构,但执行所公开的主题的本文中示出的示例性方面中的功能。关于这点,还应当认识到,所公开的主题包括***以及具有计算机可执行指令的计算机可读介质,这些计算机可执行指令用于执行所公开的主题的各种方法的动作和/或事件。
此外,尽管可能只关于若干实现中的一个实现公开了所公开的主题的具体特征,然而,在有利于特定或具体应用或者被特定或具体应用所需要的情况下,这样的特征可以与可以想到的其它实现的一个或更多个其它特征相组合。此外,就术语“包括(includes)”和“包括(including)”及其变体在详细描述或权利要求中的使用而言,这些术语意在以类似于术语“包括(comprising)”的方式是包括性的。
在本申请中,词语“示例性”用于表示用作示例、例子或说明。本文中描述为“示例性”的任意方面或设计并不一定要被理解为相比于其它方面或设计是优选的或有利的。相反,词语“示例性”的使用意在以具体的方式表示概念。
本文中所描述的各种方面和特征可以实现为方法、装置、或使用标准编程和/或工程技术的制造物。本文中所使用的术语“制造物”意在包括能够从任意计算机可读设备、载体或介质访问的计算机程序。例如,计算机可读介质可以包括但不限于磁存储设备(例如,硬盘、软盘、磁条……)、光盘(例如,致密盘(CD)、数字多功能盘(DVD)……)、智能卡和闪存设备(例如,卡、条、键驱动器……)。

Claims (20)

1.一种成像传感器设备,包括:
存储器,所述存储器存储计算机可执行部件;
处理器,所述处理器工作上耦接到所述存储器,所述处理器执行所述计算机可执行部件,所述计算机可执行部件包括:
照明部件,所述照明部件被配置成将多个聚焦光束发射至由所述成像传感器设备监测的视觉空间,以产生贯穿所述视觉空间的光点阵列;
光电接收器阵列,所述光电接收器阵列被配置成接收来自所述视觉空间的反射光以及基于所述反射光来产生针对与所述视觉空间对应的图像的像素数据;以及
图像分析部件,所述图像分析部件被配置成基于对所述像素数据的分析来确定所述视觉空间中的对象的位置。
2.根据权利要求1所述的成像传感器设备,其中,所述照明部件包括将来自光源的光聚焦成所述聚焦光束的至少一个图案生成器。
3.根据权利要求2所述的成像传感器设备,其中,所述至少一个图案生成器被配置成对来自所述光源的光进行聚焦,来以第一强度产生第一子集光束以及以第二强度产生第二子集光束。
4.根据权利要求3所述的成像传感器设备,其中,所述光点阵列包括与所述第一子集光束对应的第一组光点,所述第一组光点和与所述第二子集光束对应的第二子集光点交错。
5.根据权利要求4所述的成像传感器设备,还包括:
环境光测量部件,所述环境光测量部件被配置成测量在所述光电接收器阵列处接收到的环境光的量;以及
强度调制部件,所述强度调制部件被配置成基于环境光的所述量来修改所述光源的强度。
6.根据权利要求3所述的成像传感器设备,其中,所述至少一个图案生成器包括:被配置成产生所述第一子集光束的第一组发射元件,以及被配置成产生所述第二子集光束的第二组发射元件。
7.根据权利要求3所述的成像传感器设备,其中,所述光源包括第一光源元件和第二光源元件,所述至少一个图案生成器包括第一图案生成器和第二图案生成器,所述第一图案生成器从所述第一光源元件接收光以产生所述第一子集光束,所述第二图案生成器被配置成从所述第二光源元件接收光以产生所述第二子集光束。
8.根据权利要求7所述的成像传感器设备,还包括强度调制部件,所述强度调制部件被配置成基于在所述光电接收器阵列处接收到的环境光的测量量来调整所述第一光源元件或所述第二光源元件中的至少一个光源元件的强度。
9.根据权利要求8所述的成像传感器设备,其中,所述强度调制部件还被配置成基于在所述视觉空间中检测到的第一对象与在所述视觉空间中检测到的第二对象之间的、所测量出的反射率差来修改所述第一光源元件或所述第二光源元件中的至少一个光源元件的所述强度。
10.根据权利要求1所述的成像传感器设备,还包括控制输出部件,所述控制输出部件被配置成基于由所述图像分析部件生成的输出来生成控制输出或消息输出中的至少一个。
11.一种用于光学地监测视场的方法,包括:
由包括至少一个处理器的成像传感器设备将多个聚焦光束发射至视场,以产生贯穿所述视场的多个光点;
由所述成像传感器设备接收来自所述视场的反射光;
基于所述反射光来生成针对所述视场的图像的像素数据;以及
基于对所述像素数据进行的对象位置分析来确定所述视场中的对象的位置。
12.根据权利要求11所述的方法,其中,所述发射包括将来自所述成像传感器设备的光源的光引导至将所述光聚焦成所述聚焦光束的至少一个图案生成器。
13.根据权利要求12所述的方法,其中,所述发射包括由所述至少一个图案生成器对来自所述光源的光进行聚焦,来以第一强度产生第一子集光束以及以第二强度产生第二子集光束。
14.根据权利要求13所述的方法,其中,所述发射包括引导所述光束以产生与所述第一子集光束对应的第一组光点,所述第一组光点和与所述第二子集光束对应的第二子集光点交错。
15.根据权利要求14所述的方法,还包括:
测量在所述成像传感器设备的所述光电接收器阵列处接收到的环境光的量;以及
基于环境光的所述量来改变来自所述光源的所述光的强度。
16.根据权利要求13所述的方法,其中,所述至少一个图案生成器包括第一图案生成器和第二图案生成器,所述光源包括第一光源元件和第二光源元件,以及所述发射包括:
以所述第一强度将来自所述第一光源元件的光引导至所述第一图案生成器来产生所述第一子集光束;以及
以所述第二强度将来自所述第二光源元件的光引导至所述第二图案生成器来产生所述第二子集光束。
17.根据权利要求16所述的方法,还包括:
测量在所述视场中检测到的第一对象与在所述视场中检测到的第二对象之间的反射率差;以及
基于所述差来修改所述第一光源的所述第一强度与所述第二光源的所述第二强度之比。
18.一种存储有指令的非暂态计算机可读介质,所述指令响应于被执行而使包括处理器的成像传感器设备进行操作,所述操作包括:
将多个聚焦光束发射至视觉空间,以产生贯穿所述视觉空间的光点阵列;
接收来自所述视觉空间的反射光;
基于所述反射光来生成针对所述视觉空间的图像的像素数据;以及
对所述像素数据进行对象识别分析;以及
基于所述对象识别分析的结果来识别所述视场中的对象。
19.根据权利要求18所述的非暂态计算机可读介质,其中,所述操作还包括:
测量在所述成像传感器设备的光电接收器阵列处接收到的环境光的量;以及
基于环境光的所述量来改变所述多个聚焦光束的强度。
20.根据权利要求18所述的非暂态计算机可读介质,其中,所述发射包括:
以第一强度发射所述多个聚焦光束的第一子集;以及
以第二强度发射所述多个聚焦光束的第二子集。
CN201510257326.7A 2014-05-19 2015-05-19 使用点矩阵照明的光学区域监测 Active CN105100638B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462000484P 2014-05-19 2014-05-19
US62/000,484 2014-05-19
US14/553,363 US9696424B2 (en) 2014-05-19 2014-11-25 Optical area monitoring with spot matrix illumination
US14/553,363 2014-11-25

Publications (2)

Publication Number Publication Date
CN105100638A true CN105100638A (zh) 2015-11-25
CN105100638B CN105100638B (zh) 2018-09-04

Family

ID=53434198

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510257326.7A Active CN105100638B (zh) 2014-05-19 2015-05-19 使用点矩阵照明的光学区域监测

Country Status (3)

Country Link
US (1) US9696424B2 (zh)
EP (1) EP2947482B1 (zh)
CN (1) CN105100638B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426818A (zh) * 2017-09-01 2019-03-05 威斯康星校友研究基金会 用于识别视线外对象的装置
CN109791201A (zh) * 2016-09-30 2019-05-21 奇跃公司 具有空间光调制的投影仪
CN109959942A (zh) * 2017-12-22 2019-07-02 株式会社电装 距离测量设备、识别设备和距离测量方法
CN109983506A (zh) * 2016-12-15 2019-07-05 高通股份有限公司 用于改进的深度感测的***和方法
CN110285788A (zh) * 2018-03-19 2019-09-27 深圳光峰科技股份有限公司 ToF相机及衍射光学元件的设计方法
CN111149066A (zh) * 2017-09-25 2020-05-12 Imec 非营利协会 用于对象的同轴全息成像的成像设备
CN112805585A (zh) * 2018-08-07 2021-05-14 剑桥机电有限公司 改进的3d感测

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106461762B (zh) * 2014-05-23 2022-03-18 昕诺飞控股有限公司 对象检测***和方法
KR102311688B1 (ko) 2015-06-17 2021-10-12 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101757263B1 (ko) * 2015-07-08 2017-07-12 현대자동차주식회사 근거리 물체 감지 장치 및 방법과 이를 이용한 차량
DE102016219516B4 (de) 2015-10-30 2021-11-04 pmdtechnologies ag Lichtlaufzeitkamerasystem
DE102016219518B4 (de) * 2015-11-12 2021-06-17 pmdtechnologies ag Lichtlaufzeitkamerasystem
US11064173B2 (en) 2017-12-14 2021-07-13 International Business Machines Corporation Photographic directional light reference for articulating devices
JP7238343B2 (ja) * 2017-12-22 2023-03-14 株式会社デンソー 距離測定装置及び距離測定方法
US20190293795A1 (en) * 2018-03-21 2019-09-26 Visteon Global Technologies, Inc. Light modulating lidar system
US20190310349A1 (en) * 2018-04-09 2019-10-10 Visteon Global Technologies, Inc. Light modulating lidar apparatus
US10914823B2 (en) * 2018-05-01 2021-02-09 Qualcomm Incorporated Time of flight ranging with varying fields of emission
US11041957B2 (en) 2018-06-25 2021-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for mitigating effects of high-reflectivity objects in LiDAR data
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
US11506764B2 (en) 2018-12-26 2022-11-22 Beijing Voyager Technology Co., Ltd. System and methods for ranging operations using multiple signals
WO2020139381A1 (en) * 2018-12-26 2020-07-02 Didi Research America, Llc System and methods for ranging operations using multiple signals
US11486984B2 (en) 2018-12-26 2022-11-01 Beijing Voyager Technology Co., Ltd. Three-dimensional light detection and ranging system using hybrid TDC and ADC receiver
US10725157B1 (en) * 2019-04-05 2020-07-28 Rockwell Automation Technologies, Inc. Industrial safety sensor
US20220397675A1 (en) * 2019-07-09 2022-12-15 Sony Semiconductor Solutions Corporation Imaging systems, devices and methods
US11019276B1 (en) * 2019-11-14 2021-05-25 Hand Held Products, Inc. Apparatuses and methodologies for flicker control
GB2591518B (en) 2020-02-03 2022-03-02 Perkins Engines Co Ltd Vehicle lighting control using image processing of changes in ambient light intensity
EP3923561A1 (en) * 2020-06-10 2021-12-15 Koninklijke Philips N.V. Signal-to-noise ratio targeting
CN112887628B (zh) * 2021-01-26 2022-08-30 光为科技(广州)有限公司 光探测和测距设备及增加其动态范围的方法
US20230095000A1 (en) * 2021-09-24 2023-03-30 Apple Inc. Adaptive-Flash Photography, Videography, and/or Flashlight Using Camera, Scene, or User Input Parameters

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101995652A (zh) * 2009-08-17 2011-03-30 索尼公司 图像获取装置和图像获取方法
US20120293625A1 (en) * 2011-05-18 2012-11-22 Sick Ag 3d-camera and method for the three-dimensional monitoring of a monitoring area

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4967317A (en) 1988-06-16 1990-10-30 Genlyte Exit sign
US5029008A (en) 1990-05-04 1991-07-02 Bran Ferren Apparatus for identifying television monitors
US5075823A (en) 1990-11-16 1991-12-24 Video One Systems Ltd. Color correcting system for fluorescent lighting
CN100524015C (zh) 1995-06-22 2009-08-05 3Dv***有限公司 生成距景物距离的图象的方法和装置
FR2756129B1 (fr) 1996-11-15 1999-07-09 Sagem Camera video a deviateur d'augmentation de resolution
WO1998044475A1 (fr) 1997-03-31 1998-10-08 Idec Izumi Corporation Dispositif d'affichage et d'eclairage
US6235148B1 (en) 1999-03-05 2001-05-22 Billy F. Courson, Jr. Chemiluminescent photo-curable adhesive curing and bonding system
US7200246B2 (en) 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
DE10113880B4 (de) 2001-03-21 2004-04-29 T-Mobile Deutschland Gmbh Verfahren zur Komprimierung und Dekomprimierung von Videodaten
US7768549B2 (en) 2001-06-08 2010-08-03 Honeywell International Inc. Machine safety system with mutual exclusion zone
US7212278B2 (en) 2001-08-06 2007-05-01 Siemens Aktiengesellschaft Method and device for recording a three-dimensional distance-measuring image
EP1496992A1 (en) 2002-04-16 2005-01-19 Lumerx, Inc. Chemiluminescent light source using visible light for biotherapy
JP2004093623A (ja) 2002-08-29 2004-03-25 Olympus Corp 照明装置及びそれを用いた表示装置
US7729511B2 (en) 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
US20040159900A1 (en) 2003-01-27 2004-08-19 3M Innovative Properties Company Phosphor based light sources having front illumination
US7091661B2 (en) 2003-01-27 2006-08-15 3M Innovative Properties Company Phosphor based light sources having a reflective polarizer
DE10345948B4 (de) 2003-10-02 2018-08-23 Robert Bosch Gmbh Verfahren zur Bewertung und zeitlichen Stabilisierung von Klassifizierungsergebnissen
WO2005114338A1 (en) 2004-05-20 2005-12-01 Mcmaster University Method for controlling the appearance of products and process performance by image analysis
US8113695B2 (en) 2005-02-04 2012-02-14 Adac Plastics, Inc. Trim component with concealed indicium
US7532311B2 (en) 2005-04-06 2009-05-12 Lockheed Martin Coherent Technologies, Inc. Efficient lidar with flexible target interrogation pattern
US8128272B2 (en) 2005-06-07 2012-03-06 Oree, Inc. Illumination apparatus
US7355179B1 (en) 2005-07-30 2008-04-08 Rockwell Collins, Inc. Scene imaging system integrity monitor and method thereof
DE102005056265A1 (de) 2005-11-14 2007-05-16 Pilz Gmbh & Co Kg Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage
JP4769859B2 (ja) 2006-02-28 2011-09-07 富士通株式会社 反射光検出装置、並びに、反射特性判断装置、及び、物体検出装置
US8942426B2 (en) 2006-03-02 2015-01-27 Michael Bar-Am On-train rail track monitoring system
DE102006029025A1 (de) 2006-06-14 2007-12-27 Iris-Gmbh Infrared & Intelligent Sensors Vorrichtung und Verfahren zur Abstandsbestimmung
WO2008005516A2 (en) 2006-07-06 2008-01-10 Canesta, Inc. Method and system for fast calibration of three-dimensional (3d) sensors
DE102006048166A1 (de) 2006-08-02 2008-02-07 Daimler Ag Verfahren zur Beobachtung einer Person in einem industriellen Umfeld
US8333907B2 (en) 2007-01-17 2012-12-18 Utc Fire & Security Corporation Articles using persistent phosphors
WO2008152647A2 (en) 2007-06-15 2008-12-18 Ben Gurion University Of The Negev Research And Development Authority Three-dimensional imaging method and apparatus
US8325245B2 (en) 2007-09-25 2012-12-04 Rockwell Automation Technologies, Inc. Apparatus and methods for use of infra-red light in camera applications
JP5671345B2 (ja) 2007-12-21 2015-02-18 レッダーテック インコーポレイテッド 検出及び測距方法
US8531308B2 (en) 2008-01-21 2013-09-10 Kameraflage, Inc. Methods and systems for displaying a message in a wide-spectrum display
US7995854B2 (en) 2008-03-28 2011-08-09 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
EP3396416A1 (en) 2008-11-25 2018-10-31 Tetravue, Inc. Systems and methods of high resolution three-dimensional imaging
US8905610B2 (en) 2009-01-26 2014-12-09 Flex Lighting Ii, Llc Light emitting device comprising a lightguide film
US8253564B2 (en) 2009-02-19 2012-08-28 Panasonic Corporation Predicting a future location of a moving object observed by a surveillance device
US8253792B2 (en) 2009-08-28 2012-08-28 GM Global Technology Operations LLC Vision system for monitoring humans in dynamic environments
KR101565969B1 (ko) 2009-09-01 2015-11-05 삼성전자주식회사 깊이 정보를 추정할 수 있는 방법과 장치, 및 상기 장치를 포함하는 신호 처리 장치
JP2011169701A (ja) 2010-02-17 2011-09-01 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
US9143843B2 (en) 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US9189949B2 (en) 2010-12-09 2015-11-17 Sealed Air Corporation (Us) Automated monitoring and control of contamination in a production area
CN102447882A (zh) 2010-10-13 2012-05-09 鸿富锦精密工业(深圳)有限公司 时间飞行摄影机装置及利用其进行影像监控的方法
US8983121B2 (en) 2010-10-27 2015-03-17 Samsung Techwin Co., Ltd. Image processing apparatus and method thereof
US9599461B2 (en) 2010-11-16 2017-03-21 Ectoscan Systems, Llc Surface data acquisition, storage, and assessment system
US8421037B2 (en) 2011-06-10 2013-04-16 Rockwell Automation Technologies, Inc. System and method for reduction of optical noise
US8480246B2 (en) 2011-06-10 2013-07-09 Rockwell Automation Technologies, Inc. System and method for reduction of optical noise
EP2733928B1 (en) 2011-07-12 2021-09-22 Samsung Electronics Co., Ltd. Device and method for blur processing
CN103181156B (zh) 2011-07-12 2017-09-01 三星电子株式会社 模糊处理装置及方法
WO2013056016A1 (en) 2011-10-14 2013-04-18 Omron Corporation A method and apparatus for projective volume monitoring
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
US9247211B2 (en) 2012-01-17 2016-01-26 Avigilon Fortress Corporation System and method for video content analysis using depth sensing
US9297935B2 (en) 2012-01-27 2016-03-29 Rockwell Automation Technologies, Inc. Method and device for enhancing sensor indication
JP6309459B2 (ja) 2012-02-15 2018-04-11 ヘプタゴン・マイクロ・オプティクス・ピーティーイー・エルティーディーHeptagon Micro Optics Pte.Ltd. ストライプ照明の飛行時間型カメラ
DE102012102236A1 (de) 2012-03-16 2013-09-19 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine
JP6197291B2 (ja) 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
US20130300835A1 (en) 2012-05-14 2013-11-14 Omron Scientific Technologies, Inc. Method and Apparatus to Guarantee Minimum Contrast for Machine Vision System
US9002067B2 (en) 2013-03-28 2015-04-07 Bytelogics Inc. Systems and methods for detecting blood alcohol level
CA2912191C (en) 2013-08-06 2021-06-15 Bp Corporation North America Inc. Image-based direct numerical simulation of petrophysical properties under simulated stress and strain conditions
US9251598B2 (en) 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101995652A (zh) * 2009-08-17 2011-03-30 索尼公司 图像获取装置和图像获取方法
US20120293625A1 (en) * 2011-05-18 2012-11-22 Sick Ag 3d-camera and method for the three-dimensional monitoring of a monitoring area

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109791201A (zh) * 2016-09-30 2019-05-21 奇跃公司 具有空间光调制的投影仪
US11635492B2 (en) 2016-09-30 2023-04-25 Magic Leap, Inc. Projector with spatial light modulation
US12007505B2 (en) 2016-09-30 2024-06-11 Magic Leap, Inc. Projector with spatial light modulation
CN109983506A (zh) * 2016-12-15 2019-07-05 高通股份有限公司 用于改进的深度感测的***和方法
CN109426818A (zh) * 2017-09-01 2019-03-05 威斯康星校友研究基金会 用于识别视线外对象的装置
CN111149066A (zh) * 2017-09-25 2020-05-12 Imec 非营利协会 用于对象的同轴全息成像的成像设备
CN109959942A (zh) * 2017-12-22 2019-07-02 株式会社电装 距离测量设备、识别设备和距离测量方法
CN109959942B (zh) * 2017-12-22 2024-01-12 株式会社电装 距离测量设备、识别设备和距离测量方法
CN110285788A (zh) * 2018-03-19 2019-09-27 深圳光峰科技股份有限公司 ToF相机及衍射光学元件的设计方法
CN112805585A (zh) * 2018-08-07 2021-05-14 剑桥机电有限公司 改进的3d感测

Also Published As

Publication number Publication date
US20150331107A1 (en) 2015-11-19
EP2947482A3 (en) 2016-04-06
CN105100638B (zh) 2018-09-04
US9696424B2 (en) 2017-07-04
EP2947482A2 (en) 2015-11-25
EP2947482B1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
CN105100638A (zh) 使用点矩阵照明的光学区域监测
EP3645965B1 (en) Detector for determining a position of at least one object
CN105094005B (zh) 光学安全***、用于控制机动化工业设备的方法和计算机可读介质
US11579254B2 (en) Multi-channel lidar sensor module
US9781318B2 (en) Camera for measuring depth image and method of measuring depth image using the same
CN105100780A (zh) 使用选择的像素阵列分析的光学安全监视
US10527730B2 (en) Object detection system
CN107884066A (zh) 基于泛光功能的光传感器及其3d成像装置
US11644570B2 (en) Depth information acquisition system and method, camera module, and electronic device
US8994942B2 (en) Method for identifying interference object in scatter volume of optical fire detector and optical fire detector
US20150009131A1 (en) System for Determining Three-Dimensional Position of Transmission Device Relative to Detecting Device
CN102640087A (zh) 基于距离的感测
CN112055820B (zh) 利用不同发射场的飞行时间测距
CN102783123A (zh) 便携式电子设备
CN107845627A (zh) 多接近度检测光传感器
CN103486979A (zh) 混合***
CN102047031A (zh) 用于控制光***的控制信息
US20140268161A1 (en) Methods and apparatus for an optical system outputting direct light and having a sensor
CN113325392A (zh) 广角tof模组及其应用
CN107782354B (zh) 动作传感器检测***以及方法
CN102865849A (zh) 一种用于测距的拍摄装置及测距方法
CN109901137B (zh) 广角tof模组的标定方法及其标定设备
US10184793B2 (en) Measuring device and method for triangulation measurement
US20230392923A1 (en) Sensing module
JP2017133931A (ja) 画像生成装置、ならびに距離画像およびカラー画像の生成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: ohio

Applicant after: Rockwell automation technologies

Address before: ohio

Applicant before: Rockwell Automation Tech Inc.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant