CN104380729B - 摄像机参数的上下文驱动调整 - Google Patents

摄像机参数的上下文驱动调整 Download PDF

Info

Publication number
CN104380729B
CN104380729B CN201380033408.2A CN201380033408A CN104380729B CN 104380729 B CN104380729 B CN 104380729B CN 201380033408 A CN201380033408 A CN 201380033408A CN 104380729 B CN104380729 B CN 104380729B
Authority
CN
China
Prior art keywords
depth
depth camera
camera
video camera
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380033408.2A
Other languages
English (en)
Other versions
CN104380729A (zh
Inventor
G.库特利洛夫
S.弗莱什曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN104380729A publication Critical patent/CN104380729A/zh
Application granted granted Critical
Publication of CN104380729B publication Critical patent/CN104380729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

描述用于基于成像场景中的元素来调整摄像机的参数的***和方法。可以基于感兴趣的对象是否出现在摄像机视野中来调整摄像机捕获图像的帧率而改进摄像机的功耗。可以基于对象与摄像机的距离来设置曝光时间而改进获取的摄像机数据的质量。

Description

摄像机参数的上下文驱动调整
相关申请的交叉参考
本申请主张享有在2012年7月31日提交的的美国专利申请13/563,516的优先权,其全部内容通过参照并入于此。
背景技术
深度摄像机(depth camera)以交互式、高的帧率获取它们的环境的深度图像。深度图像提供摄像机的视野内的对象与摄像机自身之间的距离的逐像素测量。深度摄像机用来解决计算机视觉的一般领域中的许多问题。特别地,摄像机应用于HMI(人机接口)问题,例如追踪人的运动及其手和手指的运动。此外,深度摄像机被部署为监视产业的部件,例如,追踪人并且监测对禁止区域的访问。
实际上,近年来,在用于与电子装置的用户交互的姿势(gesture)控制的应用中已经作出重要改进。例如,由深度摄像机捕获的姿势可用来控制电视(用于家庭自动化),或允许与平板计算机、个人计算机和移动电话的用户接口。随着在这些摄像机中使用的核心技术继续改进并且它们的成本下降,姿势控制将继续在协助与电子装置的人机交互中起到主要作用。
附图说明
在图中图示用于基于场景内容来调整深度摄像机的参数的***的示例。示例和图是说明性的而不是限制性的。
图1是图示根据一些实施例的通过手/手指的追踪的远程装置的控制的示意图。
图2A和图2B示出根据一些实施例的可追踪的手势的示例的图形图示。
图3是图示根据一些实施例的用来调整摄像机的参数的***的示例部件的示意图。
图4是图示根据一些实施例的用来调整摄像机参数的***的示例部件的示意图。
图5是图示根据一些实施例的用于深度摄像机对象追踪的示例过程的流程图。
图6是图示根据一些实施例的用于调整摄像机的参数的示例过程的流程图。
具体实施方式
如同许多技术,可以通过调整摄像机的某些参数来最优化深度摄像机的性能。然而,基于这些参数的最佳性能变化,并且取决于成像的场景中的元素。例如,由于深度摄像机对HMI应用的适用性,自然将它们用作移动平台(例如,膝上型设备、平板计算机、和智能电话)的姿势控制接口。由于移动平台的有限电力供应,***功耗是关注重点。在这些情况下,在由深度摄像机获取的深度数据的质量与摄像机的功耗之间有直接折衷。获取基于深度摄像机的数据来追踪的对象的精确性与由这些装置消耗的功率之间的最佳平衡要求摄像机的参数的仔细调整。
本公开描述用于基于成像场景的内容设置摄像机的参数来改进数据的整体质量和***的性能的技术。在以上引入的示例中的功耗的情况下,如果在摄像机的视野中没有对象,则可以大幅减小摄像机的帧率,这又减小摄像机的功耗。当感兴趣的对象出现在摄像机的视野中时,可以恢复全摄像机帧率(要求准确并且稳健地追踪对象)。以此方式,基于场景内容来调整摄像机的参数以改进整体***性能。
本公开特别地有关于其中摄像机用作主要输入捕获装置的实例。这些情况下的目标是解释摄像机看到的场景,即,检测并且标识(如果有可能)对象、追踪这样的对象、可能将模型应用于对象以便更准确地理解它们的位置和清晰度、并且解释这样的对象的运动(当有关时)。在本公开的核心,解释场景并且使用算法来检测并且追踪感兴趣的对象的追踪模块可以集成到***并且用来调整摄像机的参数。
现在将描述本发明的各种方面和示例。下文的描述提供具体细节用于透彻理解并且允许这些示例的描述。然而,本领域的技术人员将理解可实践本发明而没有许多这些细节。此外,可不详细示出或描述一些熟知的结构或功能,以便避免不必要地模糊有关的描述。
在以下呈现的描述中使用的术语旨在以其最广泛和合理的方式来解释,即使它是结合技术的某些具体示例的详细描述来使用。以下甚至可强调某些术语;然而,旨在以任何限制方式来解释的任何术语将在具体实施方式部分中公开地并且具体地定义。
深度摄像机是捕获深度图像的摄像机。通常,深度摄像机以每秒多个帧(帧率)来捕获一系列深度图像。每个深度图像可包含每个像素的深度数据,即,获取的深度图像中的每个像素具有表示成像场景中的对象的关联部分与摄像机之间的距离的值。深度摄像机有时被称作三维摄像机。
深度摄像机可包含深度图像传感器、光透镜和照明源,以及其它部件。深度图像传感器可依靠若干不同的传感器技术中的一个。在这些传感器技术之中有飞行时间(TOF)(包含扫描TOF或阵列TOF)、结构光、激光散斑图案技术、立体摄像机、有源立体传感器和阴影恢复形状技术。这些技术中的大多数依靠提供它们自己的照明源的有源传感器***。与此不同,被动传感器***(例如,立体摄像机)不提供它们自己的照明源,但反而取决于周围环境光照。除了深度数据以外,深度摄像机还可生成彩色数据(类似于传统的彩色摄像机),并且可以结合深度数据来处理彩色数据。
飞行时间传感器利用飞行时间原理以便计算深度图像。根据飞行时间原理,入射光信号s与参考信号g(它是从对象反射的入射光信号)的相关性定义为:
例如,如果g是理想正弦信号、是调制频率、a是入射光信号的幅度、b是相关性偏置、并且φ是相移(对应于对象距离),则相关性由下式给出:
使用具有不同的偏置的四个顺序相位图像:
可以如下确定信号的相移、强度和幅度:
在实践中,输入信号可不同于正弦信号。例如,输入可以是矩形信号。然后,对应相移、强度和幅度会不同于以上呈现的理想式子。
在结构光摄像机的情况下,光的图案(典型地是网格图案或条纹图案)可被投射到场景。图案是由在场景中出现的对象来变形。可由深度图像传感器来捕获变形的图案并且可以从此数据来计算深度图像。
若干参数影响由摄像机生成的深度数据的质量,例如,积分时间、帧率和有源传感器***中的照明的强度。积分时间(也被称为曝光时间)控制入射在传感器像素阵列上的光量。在TOF摄像机***中,例如,如果对象接近传感器像素阵列,则长积分时间可导致太多光通过光闸,并且阵列像素可变得过饱和。另一方面,如果对象远离传感器像素阵列,则从对象反射的不足的返回光可得到具有高电平噪声的像素深度值。
在获取关于环境的数据(其然后由图像处理(或其它)算法处理)的上下文中,由深度摄像机生成的数据具有优于由传统的、也被称为“2D”(二维)或“RGB”(红、绿、蓝)摄像机生成的数据的若干优势。深度数据极大地简化了分割前景与背景的问题,通常对光照状况的变化是稳健的,并且可有效地使用来解释闭塞。例如,使用深度摄像机,有可能实时地标识并且稳健追踪用户的手和手指。用户的手和手指的位置的知识又用于允许虚拟“3D”触摸屏以及自然和直觉的用户接口。手和手指的运动可以激励与各种不同的***、设备和/或电子装置(包含计算机、平板计算机、移动电话、手持游戏控制台和自动汽车的仪表板控制)的用户交互。此外,此接口所允许的应用和交互可包含生产力工具和游戏以及娱乐***控制(例如,媒体中心)、增强现实和人类与电子装置之间的许多其它形式的通信/交互。
图1显示其中可使用深度摄像机的示例应用。用户110通过他的手和手指130的运动来控制远程外部装置140。用户在一个手中持有包含深度摄像机的装置120,并且追踪模块从由深度摄像机生成的深度图像来标识并且追踪他的手指的运动,处理运动来将它们翻译成用于外部装置140的命令,并且将命令传送到外部装置140。
图2A和图2B示出一系列手势,作为可被检测、追踪并且识别的运动的示例。在图2B中示出的一些示例包含指示手指的运动的一系列叠加箭头,以便产生有意义和可识别的信号或姿势。当然,可从用户的身体的其它部分或从其它对象来检测并且追踪其它姿势或信号。在另外示例中,可检测、追踪、识别并且执行来自用户运动的多个对象的姿势或信号(例如,两个或者更多手指的同时运动)。当然,可执行身体的其它部分或其它对象的追踪(除手和手指以外)。
现在参考图3,图3是图示用于调整深度摄像机的参数来最优化性能的示例部件的示意图。根据一个实施例,摄像机310是独立装置,它经由USB端口而连接到计算机370,或通过一些其它方式(有线或无线)而耦合到计算机。计算机370可包含追踪模块320、参数调整模块330、姿势识别模块340和应用软件350。不失一般性地,例如,计算机可以是膝上型设备、平板计算机或智能电话。
摄像机310可包含深度图像传感器315,它用于生成(一个或多个)对象的深度数据。摄像机310监测其中可出现对象305的场景。合意的是追踪这些对象中的一个或多个。在一个实施例中,合意的是追踪用户的手和手指。摄像机310捕获被传递到追踪模块320的一系列深度图像。在2010年6月16日提交的题为“用于从深度图建模对象的方法和***”的美国专利申请12/817,102描述使用深度摄像机来追踪人类形态的方法(可由追踪模块320执行),并且因此其全部内容并入于此。
追踪模块320处理由摄像机310获取的数据来标识并且追踪摄像机的视野中的对象。基于此追踪的结果,调整摄像机的参数,以便最大化在追踪的对象上获取的数据的质量。这些参数可以包含积分时间、照明功率、帧率和摄像机的有效范围,以及其它。
一旦追踪模块320检测到感兴趣的对象(例如,通过执行用于捕获关于特定对象的信息的算法),则可以根据对象与摄像机的距离来设置摄像机的积分时间。随着对象接近摄像机,积分时间减少,以防止传感器的过饱和,并且随着对象远离摄像机,积分时间增加以便获取对应于感兴趣的对象的像素的更准确值。以此方式,最大化对应于感兴趣的对象的数据的质量,其又允许算法的更准确和稳健的追踪。然后,在设计为最大化基于摄像机的追踪***的性能的反馈环中,追踪结果用来再次调整摄像机参数。可以在即兴(ad hoc)基础上调整积分时间。
备选地,对于飞行时间摄像机,由深度图像传感器计算的幅度值(如上所述)可用于将积分时间维持在使深度摄像机能捕获良好质量数据的范围内。幅度值有效对应于在它们反射出成像场景中的对象之后返回到图像传感器的光子总数量。因此,越接近摄像机的对象对应于更高幅度值,并且远离摄像机的对象得到更低幅度值。因此有效的是将对应于感兴趣的对象的幅度值维持在固定范围内,这是通过调整摄像机的参数(具体地,积分时间和照明功率)来完成。
帧率是在固定时间段内由摄像机捕获的帧或图像的数量。它通常是按照每秒帧测量。由于更高帧率引起更多的数据样本,典型地在由追踪算法执行的追踪的帧率与质量之间成比例。即,随着帧率上升,追踪的质量改进。此外,更高帧率缩短由用户体验的***的等待时间。另一方面,更高帧率也要求更高功耗(由于增加的计算),以及在有源传感器***的情况下,照明源所要求的增加的功率。在一个实施例中,基于电池功率剩余量来动态地调整帧率。
在另一实施例中,追踪模块可用于在摄像机的视野中检测对象。当没有出现感兴趣的对象时,可以显著地减少帧率以便保存功率。例如,帧率可以减少至1帧/秒。利用每个帧捕获(每秒一个),追踪模块可用于确定在摄像机的视野中是否有感兴趣的对象。在此情况下,可增加帧率以便最大化追踪模块的有效性。当对象离开视野时,再次减少帧率以便保存功率。这可以在即兴基础上完成。
在一个实施例中,当在摄像机的视野中有多个对象时,用户可以指定一个对象用于确定摄像机参数。在深度摄像机捕获用来追踪对象的数据的能力的上下文中,可以调整摄像机参数使得对应于感兴趣的对象的数据是最佳质量,以此角色改进摄像机的性能。在此情况的另外增强中,摄像机可用于其中多个人可见的场景的监视。可以设置***来追踪场景中的一个人,并且可以自动地调整摄像机参数来得到对感兴趣的人的最佳数据结果。
深度摄像机的有效范围是获取有效的像素值的摄像机前面的三维空间。此范围是由摄像机参数的特定值来确定。因此,还可经由在本公开中描述的方法来调整摄像机的范围,以便最大化在感兴趣的对象上获取的追踪数据的质量。特别地,如果对象在有效范围的远端处(远离摄像机),可以扩展此范围以便继续追踪对象。例如,可以通过延长积分时间或射出更多照明来扩展范围,两者都引起来自入射信号的更多光到达图像传感器,因此改进数据的质量。备选地或此外,可以通过调整焦距来扩展范围。
本文描述的方法可以与传统的RGB摄像机组合,并且可以根据追踪模块的结果来确定RGB摄像机的设置。具体地,RGB摄像机的焦点可以自动地适应于到场景中的感兴趣的对象的距离,以便最佳地调整RGB摄像机的景深。此距离可从通过深度传感器并且利用追踪算法来检测并且追踪场景中的感兴趣的对象而捕获的深度图像计算。
追踪模块320将追踪信息发送到参数调整模块330,并且然后参数调整模块330将适当的参数调整传送到摄像机310,以便最大化捕获的数据的质量。在一个实施例中,追踪模块320的输出可被传送到姿势识别模块340,姿势识别模块340计算是否执行了给定姿势。追踪模块320的结果和姿势识别模块340的结果都被传递到软件应用350。利用交互式软件应用350,某些姿势和追踪配置可以变更在显示器360上的渲染的图像。用户将此事件链解释为好像他的动作直接影响显示器360上的结果。
现在参考图4,图4是图示用来设置摄像机的参数的示例部件的示意图。根据一个实施例,摄像机410可包含深度图像传感器425。摄像机410也可包含嵌入式处理器420,它用于执行追踪模块430和参数调整模块440的功能。摄像机410可经由USB端口而连接到计算机450、或通过一些其它方式(有线或无线)而耦合到计算机。计算机可包含姿势识别模块460和软件应用470。
追踪模块430可处理来自摄像机410的数据,例如,使用如在题为“用于从深度图建模对象的方法和***”的美国专利申请12/817,102中描述的使用深度摄像机来追踪人类形态的方法。可检测并且追踪感兴趣的对象,并且此信息可从追踪模块430传到参数调整模块440。参数调整模块440执行计算来确定应该如何调整摄像机参数来得到对应于感兴趣的对象的数据的最佳质量。然后,参数调整模块440将参数调整发送到摄像机410,摄像机410相应地调整参数。这些参数可包含积分时间、照明功率、帧率和摄像机的有效范围,以及其它。
来自追踪模块430的数据还可被传送到计算机450。不失一般性地,例如,计算机可以是膝上型设备、平板计算机或智能电话。姿势识别模块460可处理追踪结果来检测用户是否执行了具体姿势,例如,使用如在2010年2月17日提交的题为“用于姿势识别的方法和***”的美国专利申请12/707,340中描述的使用深度摄像机来识别姿势的方法,或如在2007年10月2日提交的题为“用于姿势分类的方法和***”的美国专利7,970,176中描述的使用深度摄像机来标识姿势。两个专利申请的全部内容并入于此。姿势识别模块460的输出和追踪模块430的输出可被传到应用软件470。应用软件470计算应该向用户显示的输出并且在关联的显示器480上显示它。在交互式应用中,某些姿势和追踪配置典型地变更在显示器480上的渲染的图像。用户将此事件链解释为好像他的动作直接影响显示器480上的结果。
现在参考图5,它描述用于分别使用由深度摄像机310或410生成的数据来追踪用户的手和手指的、由追踪模块320或430执行的示例过程。在框510处,对象被分割并且与背景分离。例如,这可以通过对深度值取阈值、或通过追踪来自以前的帧的对象的轮廓并且匹配它与来自当前帧的轮廓来完成。在一个实施例中,用户的手是标识自从深度摄像机310或410获取的深度图像数据,并且手与背景分割。在此阶段,从深度图像移除不需要的噪声和背景数据。
然后,在框520处,在深度图像数据和关联的幅度数据和/或关联的RGB图像中检测特征。在一个实施例中,这些特征可以是手指的指尖、手指的基部遇到手掌的点和可检测的任何其它图像数据。然后,在框520处检测的特征用来在图像数据中标识各个手指(在框530处)。在框540处,基于以前的帧中的它们的位置,在当前帧中追踪手指。此步骤对于帮助过滤假阳性特征(可在框520处检测)很重要。
在框550处,手指尖的三维点和手指的一些接合可用于构造手部骨骼模型。模型可用于进一步改进追踪的质量并且向在先前的步骤中未检测(由于闭塞、或来自在摄像机的视野之外的手的部分的丢失特征)的接合分配位置。此外,在框550处,运动学模型可应用作为骨骼的一部分来添加改进追踪结果的另外信息。
现在参考图6,图6是示出用于调整摄像机的参数的示例过程的流程图。在框610处,深度摄像机监测可包含一个或多个感兴趣的对象的场景。
布尔状态变量“objTracking”可用于指示***当前处于的状态,以及具体地,在框610处在由摄像机捕获的数据的最近帧中是否检测到对象。在决定框620处,评价此状态变量“objTracking”的值。如果它为“真”,即,感兴趣的对象当前在摄像机的视野中(框620-是),则在框630处追踪模块追踪由摄像机获取的数据来发现感兴趣的对象的位置(在图5中更详细描述)。过程继续到框660和650。
在框660处,追踪数据被传到软件应用。然后,软件应用可以向用户显示适当的响应。
在框650处,更新objTracking状态变量。如果感兴趣的对象在摄像机的视野内,则objTracking状态变量被设置为真。如果不在,则objTracking状态变量被设置为假。
然后在框670处,摄像机参数是根据状态变量objTracking来调整并且被发送到摄像机。例如,如果objTracking为真,则可提高帧率参数来支持在框630处的追踪模块的更高精确性。此外,可根据感兴趣的对象与摄像机的距离来调整积分时间,来最大化由摄像机获取的感兴趣的对象的数据的质量。还可调整照明功率来在功耗与要求的数据的质量之间平衡(给定对象与摄像机的距离)。
摄像机参数的调整可以用即兴基础来完成,或通过设计为计算摄像机参数的最佳值的算法来完成。例如,在飞行时间摄像机的情况下(如在以上描述中描述的),幅度值表示返回(入射)信号的强度。此信号强度取决于若干因素,包含对象与摄像机的距离、材料的反射率和来自周围光照的可能影响。可基于幅度信号的强度来调整摄像机参数。具体地,对于感兴趣的给定对象,对应于对象的像素的幅度值应该在给定范围内。如果这些值的函数降到可接受的范围以下,则可以延长积分时间,或可增加照明功率,使得幅度像素值的函数返回到可接受的范围。此幅度像素值的函数可以是总计、或加权平均值、或取决于幅度像素值的一些其它函数。类似地,如果对应于感兴趣的对象的幅度像素值的函数高于可接受的范围,则可以减少积分时间,或可减小照明功率,以便避免深度像素值的过饱和。
在一个实施例中,每多个帧可以应用一次决定是否更新objTracking状态变量(在框650处),或可每个帧应用它。评价objTracking状态并且决定是否调整摄像机参数可招致一些***开销,并且因此它会有利于每多个帧只执行一次此步骤。一旦计算摄像机参数,并且新的参数被传递到摄像机,在框610处应用新的参数值。
如果感兴趣的对象当前没有出现在摄像机610的视野中(框620-否),则在框640处初始检测模块确定感兴趣的对象现在是否第一次出现在摄像机的视野中。初始检测模块可在摄像机的视野和范围中检测任何对象。这可以是感兴趣的具体对象,例如手、或通过摄像机前面的任何事物。在另外实施例中,用户可以定义检测的特定对象,并且如果在摄像机的视野中有多个对象,用户可以指定应该使用多个对象中的特定一个或任何一个以便调整摄像机的参数。
除非上下文以其它方式清楚地要求,说明书和权利要求书通篇中,词语“包括”、“包括”等将以包含的意义来解释(即,意思是,以“包含但不限于”的意义),与排外或穷尽的意义不同。如本文所使用的,术语“连接”、“耦合”、或其任何变量意味着两个或者更多元件之间的任何连接或耦合(直接或间接)。元件之间的这样的耦合或连接可以是物理、逻辑、或其组合。此外,当在本申请中使用时,本申请将词语“在本文中”、“以上”、“以下”和类似输入的词语指代为整体并且不是本申请的任何特定部分。当上下文许可时,使用单数或复数的以上详细描述中的词语还可分别包含复数或单数。引用两个或者更多项目的列表的词语“或”涵盖词语的所有以下解释:列表中的任何项目、列表中的所有项目和列表中的项目的任何组合。
本发明的示例的以上描述不旨在作为穷尽的或将本发明限于以上公开的精确形式。虽然以上为了说明性的目的来描述本发明的具体示例,但是在本发明的范围内各种等效修改是可能的,如本领域的技术人员将认出的。虽然在本申请中以给定次序来呈现过程或框,但是备选实现可执行具有以不同次序执行的步骤的例程,或采用具有以不同次序的框的***。可删除、移动、添加、再分、组合、和/或修改一些过程或框来提供备选或子组合。而且,虽然过程或框有时示为连续地执行,但是这些过程或框可反而并行地执行或实现,或可在不同的时间执行。另外,本文提出的任何具体数量只是示例。要理解,备选实现可采用不同的值或范围。
本文提供的各种图示和教导还可应用于不同于上述***的***。可以组合上述各种示例的元件和动作来提供本发明的另外实现。
以上提出的任何专利和申请和其它参考(包含可列在附加申请文件中的任何文件)通过参照并入于此。如有必要,可以修改本发明的方面来采用包含在这样的参考中的***、功能、和概念来提供本发明的另外实现。
可以按照以上描述对本发明作出这些和其它改变。虽然以上描述描述本发明的某些示例,并且描述设想的最佳模式(不论在以上文本中多么详细出现),但是可以用许多方式来实践本发明。***的细节可显著地改变在其具体实现中,而仍然包含于本文所公开的发明。如上所述,当描述本发明的某些特征或方面时使用的特定术语不应该视为暗示本文将术语重新定义为受限于与那个术语关联的本发明的任何具体特性、特征、或方面。一般而言,在下文的权利要求中使用的术语不应解释为将本发明限于在说明书中公开的具体示例,除非以上详细描述段明确地定义这样的术语。因此,本发明的实际范围不只包含所公开的示例,也包含在权利要求下实施或实现本发明的所有等效方式。
虽然以下本发明的某些方面是以某些权利要求形式来呈现,但是申请人在任何数量的权利要求形式中设想本发明的各种方面。例如,虽然只有本发明的一个方面是根据35U.S.C. §112第六段而叙述为手段加功能权利要求,但是其它方面可类似地体现为手段加功能权利要求,或其它形式(例如,体现在计算机可读介质中)。(旨在根据35 U.S.C. §112第六段对待的任何权利要求将开始于词语“用于…的装置”)。因此,申请人保留权利来在提交申请之后添加附加的权利要求以追求用于本发明的其它方面的这样的附加的权利要求形式。

Claims (34)

1.一种用于深度摄像机的方法,包括:
使用深度摄像机来获取一个或多个深度图像;
分析所述一个或多个深度图像的内容;
基于所述分析来自动地调整所述深度摄像机的一个或多个参数,
其中所述一个或多个参数包含帧率。
2.如权利要求1所述的方法,其中基于所述深度摄像机的可用的功率资源来另外调整所述帧率。
3.如权利要求1所述的方法,其中所述一个或多个参数包含积分时间,并且所述分析包含分析感兴趣的对象与所述深度摄像机的距离。
4.如权利要求3所述的方法,其中另外调整所述积分时间来将所述一个或多个深度图像中的幅度像素值的函数维持在可接受的范围内。
5.如权利要求1所述的方法,其中所述一个或多个参数包含所述深度摄像机的范围。
6.如权利要求1所述的方法,还包括调整红、绿、蓝(RGB)摄像机的焦点和景深,其中所述RGB摄像机调整是基于所述深度摄像机的所述一个或多个参数中的至少一个。
7.如权利要求1所述的方法,还包括通过用户输入来标识对象,所述对象要在所述分析中用于调整所述深度摄像机的所述一个或多个参数。
8.如权利要求7所述的方法,其中所述一个或多个参数包含帧率,其中当所述对象离开所述摄像机的视野时,所述帧率减少。
9.如权利要求1所述的方法,其中所述深度摄像机使用具有照明源的有源传感器,并且所述一个或多个参数包含所述照明源的功率电平,并且另外其中调整所述功率电平来将所述一个或多个图像中的幅度像素值的函数维持在可接受的范围内。
10.如权利要求1所述的方法,其中分析所述内容包括在所述一个或多个图像中检测对象并且追踪所述对象。
11.如权利要求10所述的方法,还包括基于所述对象的所述检测和追踪来在显示器上渲染显示图像。
12.如权利要求11所述的方法,还包括在所述一个或多个追踪的对象上执行姿势识别,其中所述渲染所述显示图像另外基于所述一个或多个追踪的对象的识别的姿势。
13.一种用于深度摄像机的***,包括:
深度摄像机,配置为获取多个深度图像;
追踪模块,配置为在所述多个深度图像中检测并且追踪对象;
参数调整模块,配置为基于所述对象的所述检测和追踪来计算一个或多个深度摄像机参数的调整并且将所述调整发送到所述深度摄像机,
其中所述一个或多个深度摄像机参数包含帧率。
14.如权利要求13所述的***,还包括显示器和应用软件模块,配置为基于所述对象的所述检测和追踪来在所述显示器上渲染显示图像。
15.如权利要求14所述的***,还包括姿势识别模块,配置为确定姿势是否是由所述对象执行,其中所述应用软件模块配置为另外基于所述姿势识别模块的所述确定来渲染所述显示图像。
16.如权利要求13所述的***,其中基于所述深度摄像机的可用的功率资源来另外调整所述帧率。
17.如权利要求13所述的***,其中所述一个或多个深度摄像机参数包含基于所述对象与所述深度摄像机的距离来调整的积分时间。
18.如权利要求17所述的***,其中另外调整所述积分时间来将所述一个或多个深度图像中的幅度像素值的函数维持在可接受的范围内。
19.如权利要求13所述的***,其中所述一个或多个深度摄像机参数包含所述深度摄像机的范围。
20.如权利要求13所述的***,其中所述深度摄像机使用具有照明源的有源传感器,并且所述一个或多个参数包含所述照明源的功率电平,并且另外其中调整所述功率电平来将所述一个或多个图像中的幅度像素值的函数维持在可接受的范围内。
21.一种用于深度摄像机的***,包括:
用于使用深度摄像机来获取一个或多个深度图像的装置;
用于在所述一个或多个深度图像中检测对象并且追踪所述对象的装置;
用于基于所述检测和追踪来调整所述深度摄像机的一个或多个参数的装置,
其中所述一个或多个参数包含所述深度摄像机的帧率、积分时间和范围。
22.一种用于深度摄像机的装置,包括:
用于使用深度摄像机来获取一个或多个深度图像的部件;
用于分析所述一个或多个深度图像的内容的部件;
用于基于所述分析来自动地调整所述深度摄像机的一个或多个参数的部件,
其中所述一个或多个参数包含帧率。
23.如权利要求22所述的装置,其中基于所述深度摄像机的可用的功率资源来另外调整所述帧率。
24.如权利要求22所述的装置,其中所述一个或多个参数包含积分时间,并且所述分析包含分析感兴趣的对象与所述深度摄像机的距离。
25.如权利要求24所述的装置,其中另外调整所述积分时间来将所述一个或多个深度图像中的幅度像素值的函数维持在可接受的范围内。
26.如权利要求22所述的装置,其中所述一个或多个参数包含所述深度摄像机的范围。
27.如权利要求22所述的装置,还包括用于调整红、绿、蓝(RGB)摄像机的焦点和景深的部件,其中所述RGB摄像机调整是基于所述深度摄像机的所述一个或多个参数中的至少一个。
28.如权利要求22所述的装置,还包括用于通过用户输入来标识对象的部件,所述对象要在所述分析中用于调整所述深度摄像机的所述一个或多个参数。
29.如权利要求28所述的装置,其中所述一个或多个参数包含帧率,其中当所述对象离开所述摄像机的视野时,所述帧率减少。
30.如权利要求22所述的装置,其中所述深度摄像机使用具有照明源的有源传感器,并且所述一个或多个参数包含所述照明源的功率电平,并且另外其中调整所述功率电平来将所述一个或多个图像中的幅度像素值的函数维持在可接受的范围内。
31.如权利要求22所述的装置,其中分析所述内容包括在所述一个或多个图像中检测对象并且追踪所述对象。
32.如权利要求31所述的装置,还包括用于基于所述对象的所述检测和追踪来在显示器上渲染显示图像的部件。
33.如权利要求32所述的装置,还包括用于在所述一个或多个追踪的对象上执行姿势识别的部件,其中所述渲染所述显示图像另外基于所述一个或多个追踪的对象的识别的姿势。
34.一种具有指令的机器可读介质,所述指令在被处理器执行时,促使所述处理器执行如权利要求1-12的任一项的方法。
CN201380033408.2A 2012-07-31 2013-07-31 摄像机参数的上下文驱动调整 Active CN104380729B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/563,516 US20140037135A1 (en) 2012-07-31 2012-07-31 Context-driven adjustment of camera parameters
US13/563516 2012-07-31
PCT/US2013/052894 WO2014022490A1 (en) 2012-07-31 2013-07-31 Context-driven adjustment of camera parameters

Publications (2)

Publication Number Publication Date
CN104380729A CN104380729A (zh) 2015-02-25
CN104380729B true CN104380729B (zh) 2018-06-12

Family

ID=50025508

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380033408.2A Active CN104380729B (zh) 2012-07-31 2013-07-31 摄像机参数的上下文驱动调整

Country Status (6)

Country Link
US (1) US20140037135A1 (zh)
EP (1) EP2880863A4 (zh)
JP (1) JP2015526927A (zh)
KR (1) KR101643496B1 (zh)
CN (1) CN104380729B (zh)
WO (1) WO2014022490A1 (zh)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101977711B1 (ko) * 2012-10-12 2019-05-13 삼성전자주식회사 깊이 센서, 이의 이미지 캡쳐 방법, 및 상기 깊이 센서를 포함하는 이미지 처리 시스템
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US11172126B2 (en) 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
US9916009B2 (en) * 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9672627B1 (en) * 2013-05-09 2017-06-06 Amazon Technologies, Inc. Multiple camera based motion tracking
US10079970B2 (en) 2013-07-16 2018-09-18 Texas Instruments Incorporated Controlling image focus in real-time using gestures and depth sensor data
EP3117598A1 (en) * 2014-03-11 2017-01-18 Sony Corporation Exposure control using depth information
US9812486B2 (en) 2014-12-22 2017-11-07 Google Inc. Time-of-flight image sensor and light source driver having simulated distance capability
US9826149B2 (en) * 2015-03-27 2017-11-21 Intel Corporation Machine learning of real-time image capture parameters
KR102477522B1 (ko) 2015-09-09 2022-12-15 삼성전자 주식회사 전자 장치 및 그의 카메라 노출 조정 방법
JP2017053833A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 補正装置、補正方法および測距装置
WO2017149441A1 (en) 2016-02-29 2017-09-08 Nokia Technologies Oy Adaptive control of image capture parameters in virtual reality cameras
US10302764B2 (en) * 2017-02-03 2019-05-28 Microsoft Technology Licensing, Llc Active illumination management through contextual information
CN107124553A (zh) * 2017-05-27 2017-09-01 珠海市魅族科技有限公司 拍摄控制方法及装置、计算机装置和可读存储介质
SE542644C2 (en) 2017-05-30 2020-06-23 Photon Sports Tech Ab Method and camera arrangement for measuring a movement of a person
JP6865110B2 (ja) * 2017-05-31 2021-04-28 Kddi株式会社 オブジェクト追跡方法および装置
WO2019014861A1 (en) * 2017-07-18 2019-01-24 Hangzhou Taruo Information Technology Co., Ltd. INTELLIGENT FOLLOWING OF OBJECTS
KR101972331B1 (ko) * 2017-08-29 2019-04-25 키튼플래닛 주식회사 영상 얼라인먼트 방법 및 그 장치
JP6934811B2 (ja) * 2017-11-16 2021-09-15 株式会社ミツトヨ 三次元測定装置
US10877238B2 (en) 2018-07-17 2020-12-29 STMicroelectronics (Beijing) R&D Co. Ltd Bokeh control utilizing time-of-flight sensor to estimate distances to an object
WO2020085524A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 이동단말기 및 그 제어 방법
JP7158261B2 (ja) * 2018-11-29 2022-10-21 シャープ株式会社 情報処理装置、制御プログラム、記録媒体
US10887169B2 (en) * 2018-12-21 2021-01-05 Here Global B.V. Method and apparatus for regulating resource consumption by one or more sensors of a sensor array
US10917568B2 (en) * 2018-12-28 2021-02-09 Microsoft Technology Licensing, Llc Low-power surface reconstruction
TWI692969B (zh) * 2019-01-15 2020-05-01 沅聖科技股份有限公司 攝像頭自動調焦檢測方法及裝置
US10592753B1 (en) * 2019-03-01 2020-03-17 Microsoft Technology Licensing, Llc Depth camera resource management
CN110032979A (zh) * 2019-04-18 2019-07-19 北京迈格威科技有限公司 Tof传感器的工作频率的控制方法、装置、设备及介质
CN110263522A (zh) * 2019-06-25 2019-09-20 努比亚技术有限公司 人脸识别方法、终端及计算机可读存储介质
CN113228622A (zh) * 2019-09-12 2021-08-06 深圳市汇顶科技股份有限公司 图像采集方法、装置及存储介质
DE102019131988A1 (de) 2019-11-26 2021-05-27 Sick Ag 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
US11600010B2 (en) * 2020-06-03 2023-03-07 Lucid Vision Labs, Inc. Time-of-flight camera having improved dynamic range and method of generating a depth map
US11620966B2 (en) * 2020-08-26 2023-04-04 Htc Corporation Multimedia system, driving method thereof, and non-transitory computer-readable storage medium
US11528407B2 (en) * 2020-12-15 2022-12-13 Stmicroelectronics Sa Methods and devices to identify focal objects
US20220414935A1 (en) * 2021-06-03 2022-12-29 Nec Laboratories America, Inc. Reinforcement-learning based system for camera parameter tuning to improve analytics
US11836301B2 (en) * 2021-08-10 2023-12-05 Qualcomm Incorporated Electronic device for tracking objects
EP4333449A1 (en) 2021-09-27 2024-03-06 Samsung Electronics Co., Ltd. Wearable device comprising camera, and control method therefor
KR20230044781A (ko) * 2021-09-27 2023-04-04 삼성전자주식회사 카메라를 포함하는 웨어러블 장치 및 그 제어 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5994844A (en) * 1997-12-12 1999-11-30 Frezzolini Electronics, Inc. Video lighthead with dimmer control and stabilized intensity
CN102253711A (zh) * 2010-03-26 2011-11-23 微软公司 使用深度传感相机来增强演示
CN102332090A (zh) * 2010-06-21 2012-01-25 微软公司 划分在视野内的焦点区域

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027083B2 (en) * 2001-02-12 2006-04-11 Carnegie Mellon University System and method for servoing on a moving fixation point within a dynamic scene
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9325890B2 (en) * 2005-03-25 2016-04-26 Siemens Aktiengesellschaft Method and system to control a camera of a wireless device
US8531396B2 (en) * 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP2007318262A (ja) * 2006-05-23 2007-12-06 Sanyo Electric Co Ltd 撮像装置
US20090015681A1 (en) * 2007-07-12 2009-01-15 Sony Ericsson Mobile Communications Ab Multipoint autofocus for adjusting depth of field
US7885145B2 (en) * 2007-10-26 2011-02-08 Samsung Electronics Co. Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
JP2009200713A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8081797B2 (en) * 2008-10-10 2011-12-20 Institut National D'optique Selective and adaptive illumination of a target
JP5743390B2 (ja) * 2009-09-15 2015-07-01 本田技研工業株式会社 測距装置、及び測距方法
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
JP5809390B2 (ja) * 2010-02-03 2015-11-10 株式会社リコー 測距・測光装置及び撮像装置
US8351651B2 (en) * 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US9008355B2 (en) * 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
TWI540312B (zh) * 2010-06-15 2016-07-01 原相科技股份有限公司 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法
US9485495B2 (en) * 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9661232B2 (en) * 2010-08-12 2017-05-23 John G. Posa Apparatus and method providing auto zoom in response to relative movement of target subject matter
US9100640B2 (en) * 2010-08-27 2015-08-04 Broadcom Corporation Method and system for utilizing image sensor pipeline (ISP) for enhancing color of the 3D image utilizing z-depth information
KR101708696B1 (ko) * 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5360166B2 (ja) * 2010-09-22 2013-12-04 株式会社ニコン 画像表示装置
KR20120031805A (ko) * 2010-09-27 2012-04-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20120327218A1 (en) * 2011-06-21 2012-12-27 Microsoft Corporation Resource conservation based on a region of interest
US8830302B2 (en) * 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
US9491441B2 (en) * 2011-08-30 2016-11-08 Microsoft Technology Licensing, Llc Method to extend laser depth map range

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5994844A (en) * 1997-12-12 1999-11-30 Frezzolini Electronics, Inc. Video lighthead with dimmer control and stabilized intensity
CN102253711A (zh) * 2010-03-26 2011-11-23 微软公司 使用深度传感相机来增强演示
CN102332090A (zh) * 2010-06-21 2012-01-25 微软公司 划分在视野内的焦点区域

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Hand Gesture for Taking Self Portrait》;Shaowei Chu and Jiro Tannka;《Human-Computer Interaction.Interaction Techniques and Environments》;20110614;第238-247页 *

Also Published As

Publication number Publication date
KR20150027137A (ko) 2015-03-11
WO2014022490A1 (en) 2014-02-06
EP2880863A1 (en) 2015-06-10
EP2880863A4 (en) 2016-04-27
JP2015526927A (ja) 2015-09-10
KR101643496B1 (ko) 2016-07-27
CN104380729A (zh) 2015-02-25
US20140037135A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
CN104380729B (zh) 摄像机参数的上下文驱动调整
US11010967B2 (en) Three dimensional content generating apparatus and three dimensional content generating method thereof
US10274735B2 (en) Systems and methods for processing a 2D video
US20200387697A1 (en) Real-time gesture recognition method and apparatus
CN107466411B (zh) 二维红外深度感测
JP6268303B2 (ja) 2d画像分析装置
CN105659200B (zh) 用于显示图形用户界面的方法、设备和***
KR101874494B1 (ko) 특징점의 삼차원 위치 계산 장치 및 방법
CN104871084A (zh) 自适应投影仪
CN108268864A (zh) 人脸识别方法、***、电子设备和计算机程序产品
KR102369989B1 (ko) 적외선 이미징을 사용한 색상 식별
US11143879B2 (en) Semi-dense depth estimation from a dynamic vision sensor (DVS) stereo pair and a pulsed speckle pattern projector
US11699259B2 (en) Stylized image painting
US11589024B2 (en) Multi-dimensional rendering
WO2010144050A1 (en) Method and system for gesture based manipulation of a 3-dimensional image of object
CN109191393A (zh) 基于三维模型的美颜方法
CN109525786A (zh) 视频处理方法、装置、终端设备及存储介质
KR20210052570A (ko) 분리가능한 왜곡 불일치 결정
CN107437268A (zh) 拍照方法、装置、移动终端和计算机存储介质
US20230412779A1 (en) Artistic effects for images and videos
KR102173608B1 (ko) 제스처 기반 nui를 이용한 조명효과 제어 시스템 및 방법
CN103729060B (zh) 多环境虚拟投影互动***
Tian et al. Robust facial marker tracking based on a synthetic analysis of optical flows and the YOLO network
CN107589834A (zh) 终端设备操作方法及装置、终端设备
MWENDA 3D MOTION CONSTRUCTION USING VISIBLE LIGHT COMMUNICATION BY

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant