CN101086600A - 成像设备、成像设备控制方法以及计算机程序 - Google Patents
成像设备、成像设备控制方法以及计算机程序 Download PDFInfo
- Publication number
- CN101086600A CN101086600A CNA2007101102286A CN200710110228A CN101086600A CN 101086600 A CN101086600 A CN 101086600A CN A2007101102286 A CNA2007101102286 A CN A2007101102286A CN 200710110228 A CN200710110228 A CN 200710110228A CN 101086600 A CN101086600 A CN 101086600A
- Authority
- CN
- China
- Prior art keywords
- assessed value
- nictation
- imaging device
- condenser lens
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
- G03B13/10—Viewfinders adjusting viewfinders field
- G03B13/14—Viewfinders adjusting viewfinders field to compensate for parallax due to short range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
Abstract
公开了一种成像设备、成像设备控制方法以及计算机程序。成像设备包含设置包含眼睛的、被包含在成像设备中输入的输入图像中的图像区域,作为计算物距的测距区,以及基于测距区的对比度获得评估值以检测聚焦位置的聚焦控制单元,以及根据测距区中的图像分析检测眨眼存在或不存在的眨眼检测单元。聚焦控制单元输入眨眼检测单元中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值来检测聚焦位置的处理。
Description
相关应用的交叉索引
本发明包含涉及2006年6月9日提交到日本专利局的日本专利申请JP 2006-160454的主题,这里参考引用了该专利申请的全部内容。
技术领域
本发明涉及成像设备、成像设备控制方法以及计算机程序。更具体地,本发明涉及使得能够对目标主体执行快速和准确的自动聚焦处理,尤其是防止眨眼(blink)造成的自动聚焦控制错误的成像设备、成像设备控制方法以及计算机程序。
背景技术
最近,自动地在主体上取得焦点的自动聚焦(AF)机构被装配在例如静止图片照相机和摄像机的许多成像设备上。在普通照相机的拍照过程中,人们在大多数情况下是主要对象。然而,人们在所拍的图像中出现在各种位置,并且存在各种图像的构图。从最开始,目标主体可能出现在未设置成像设备中的测距区的位置处。为了处理这种问题,建议从成像设备的图像中识别面孔,并且在所识别的面孔的位置处设置测距区,使得能够不考虑构图地把成像设备聚焦在面孔上。例如,基于这种面孔识别的聚焦控制技术在JP-A-2003-107335中公开。基于这个面孔识别的聚焦控制使得能够在拍照各种构图时执行适当聚焦控制(对焦)。
在拍照人的过程中,把眼睛作为对焦目标是标准实践。在JP-A-2005-128156中公开了指定人的眼睛为测距区并且使用主体的眼睛区域作为参考自动地执行照相机的对焦的设备。
作为聚焦控制的方法,已知判断通过镜头获得的图像数据的对比度水平的方法。这个***把所拍图像的特定区域设置为聚焦控制的信号获得区域(空间频率提取区域),当这个特定区域的对比度较高时判断镜头更加合焦,当对比度较低时判断镜头失焦,以及驱动镜头到增加对比度的位置以调整聚焦。在例如JP-A-10-213737中公开了这种聚焦控制处理技术。
具体地,提取特定区域的高频分量,产生所提取的高频分量的集分数据(integrated data),并且根据所产生的高频分量集分数据判断对比度水平的方法被应用于聚焦控制方法。换言之,特定区域的高频分量集分值被计算用于判断对比度的水平,以及用作评估值(AF评估值)。通过驱动聚焦透镜以使评估值最大,实现自动聚焦。为了执行自动聚焦,有必要以评估值作为指引来驱动透镜。例如使用音圈电机作为透镜驱动机构。
然而,在使用图像对比度信号的自动聚焦中,如果包含眼睛的区域被设置成特定区域以判断对比度的水平,则当人在自动聚焦操作期间眨眼时对比度大大地变化。结果,难于执行准确的距离测量和聚焦控制。
使用对比度信号的自动聚焦的前提是对比度的波动仅取决于焦点的变化。然而,当人眨眼时,对比度信号的变化仅由眨眼导致。因而,难于判断对比度信号变化是由焦点移动造成的,并且难于判断聚焦透镜的聚焦位置。
参照图1说明具体例子。图1的(A)和(B)是聚焦透镜从近距离侧移动到无限远侧并且测量指示包含人眼的特定区域的对比度水平的评估值的例子的图例。在图1的(A)中,人不眨眼,并且在图1的(B)中,人眨眼。
在人不眨眼的图1(A)的情况下的自动聚焦处理中,对比度波动仅根据焦点变化而发生。执行评估值的峰值位置对应于聚焦位置的准确聚焦控制。 另一方面,在人眨眼的图1的(B)情况下,包含含有眼睛的特定区域的图像自身发生变化,根据由于眨眼而不是焦点变化所造成的图像变化发生对比度变化,并且评估值的峰值位置不同于聚焦位置。因而,未执行准确的聚焦控制。
发明内容
因此,期望提供使得能够对目标主体执行快速和准确的自动聚焦处理,尤其是防止由于眨眼而造成的聚焦控制误差的成像设备、成像设备控制方法以及计算机程序。
由于人眨眼是偶然的运动并且受心理影响,所以难于预测眨眼的时机。因此,期望提供在自动聚焦控制期间监视眨眼的出现,并且执行顺应监视信息以防止由于眨眼造成的聚焦控制误差的处理的成像设备、成像设备控制方法以及计算机程序。
基于本发明的一个实施例,提供了一种成像设备,包括:聚焦控制单元,其设置包含眼睛、被包含在成像设备中输入的输入图像中的图像区域,以作为用于计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置;以及眨眼检测单元,其根据测距区中的图像分析来检测眨眼的存在或不存在。聚焦控制单元输入眨眼检测单元中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值检测聚焦位置的处理。
基于本发明的实施例,当指示人正在眨眼的检测信息在开始驱动聚焦透镜以获得评估值之前被从眨眼检测单元输入时,聚焦控制单元等待眨眼的结束,并且在确认眨眼结束之后,聚焦控制单元执行开始驱动聚焦透镜以获得评估值的控制。
基于本发明的实施例,当指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,聚焦控制单元停止驱动聚焦透镜以暂停评估值的获得,并且聚焦控制单元执行把聚焦透镜返回到人眨眼之前的聚焦透镜设置位置的处理。
基于本发明的实施例,聚焦控制单元考虑到眨眼检测处理和评估值计算处理之间的时间差,执行把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置的处理。
基于本发明的实施例,聚焦控制单元在指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,并且当峰值已经被检测到时,根据峰值确定聚焦位置,并且结束聚焦位置检测处理。
基于本发明的实施例,聚焦控制单元在指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,以及当峰值未被检测到时,在确认眨眼结束之后,从人眨眼之前的聚焦透镜设置位置获得评估值。
基于本发明的实施例,成像设备还包括根据输入图像中包含的面孔的尺寸计算物距的物距计算单元。聚焦控制单元执行基于对应于对比度的评估值的物距和根据面孔的尺寸计算的物距的比较,并且当两个距离之间的差值等于或大于事先设置的阈值时,再次基于对比度执行评估值获得处理。
基于本发明的实施例,物距计算单元基于由面孔检测单元检测的面孔尺寸在物距计算处理中输入种族、性别、年龄以及体格中的至少一个的主体信息,以及根据所输入的主体信息执行应用对应于主体的面孔尺寸参考值的物距计算处理。
基于本发明的实施例,种族、性别、年龄以及体格中的至少一个主体信息是作为图像分析单元针对输入成像设备的输入图像的分析结果而输入到物距计算单元的信息。
基于本发明的实施例,种族、性别、年龄以及体格中的至少一个主体信息是通过成像设备中的用户输入单元输入到物距计算单元的信息。
基于本发明的实施例,聚焦控制单元多次基于测距区的对比度重复执行评估值获得处理,比较所获得的多个结果数据,并且当获得相同评估数据时,基于设置评估值数据为正确评估数据的多数处理来确定聚焦位置。
基于本发明的另一个实施例,提供了一种执行成像设备中的自动聚焦控制的成像设备控制方法,该成像设备控制方法包括步骤:在聚焦控制单元中设置包含眼睛、被包含在成像设备的输入图像中的图像区域,以作为计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置;以及在眨眼检测单元中根据测距区中的图像分析来检测眨眼的存在或不存在。聚焦控制步骤是输入眨眼检测单元的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值检测聚焦位置的处理的步骤。
基于本发明的实施例,聚焦控制步骤包含步骤:当指示人正在眨眼的检测信息在开始驱动聚焦透镜以获得评估值之前被从眨眼检测单元输入时,等待眨眼的结束,并且在确认眨眼结束之后,执行开始驱动聚焦透镜以获得评估值的控制。
基于本发明的实施例,聚焦控制步骤包含步骤:在指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,停止驱动聚焦透镜以暂停获得评估值,并且执行把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置的处理。
基于本发明的实施例,在聚焦控制步骤中,考虑到眨眼检测处理和评估值计算处理之间的时间差,执行把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置的处理。
基于本发明的实施例,聚焦控制步骤包含步骤:当指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,并且当峰值已经被检测到时,根据峰值确定聚焦位置并且结束聚焦位置检测处理。
基于本发明的实施例,聚焦控制步骤包含步骤:当指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,并且当峰值未被检测到时,在确认眨眼结束之后,从人眨眼之前的聚焦透镜设置位置获得评估值。
基于本发明的实施例,成像设备控制方法还包括在物距计算单元中根据输入图像中包含的面孔的尺寸计算物距的物距计算步骤。聚焦控制步骤包含步骤:执行基于对应于对比度的评估值的物距和根据面孔的尺寸计算的物距的比较,并且当两个距离之间的差值等于或大于事先设置的阈值时,再次基于对比度执行评估值获得处理。
基于本发明的实施例,物距计算步骤包含步骤:基于由面孔检测单元检测的面孔尺寸在物距计算处理中输入种族、性别、年龄以及体格中的至少一个的主体信息,以及根据所输入的主体信息执行应用对应于主体的面孔尺寸的参考值的物距计算处理。
基于本发明的实施例,聚焦控制步骤包含步骤:多次基于测距区的对比度重复执行评估值获得处理,比较所获得的多个结果数据,并且当获得相同评估数据时,基于设置评估值数据为正确评估数据的多数处理来确定聚焦位置。
基于本发明的另一个实施例,提供了一种使成像设备执行自动聚焦控制的计算机程序,该计算机程序包括步骤:在聚焦控制单元中设置包含眼睛、被包含在成像设备中输入的输入图像中的图像区域,以作为计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置;以及在眨眼检测单元中根据测距区中的图像分析来检测眨眼的存在或不存在。聚焦控制步骤是输入眨眼检测单元中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值检测聚焦位置的处理的步骤。
基于本发明的实施例的计算机程序可以提供给例如能够通过以计算机可读格式提供的存储介质、通信介质、例如CD、FD以及MO的记录介质或例如网络的通信介质执行各种程序代码的计算机***。通过提供这种计算机可读格式的程序,在计算机***上实现对应于该程序的处理。
通过基于以后描述的本发明的实施例和附图的详细说明,会明白本发明的其它目的、特性以及优点。在这个说明书中,***是多个设备的逻辑集合,并且不局限于具有容纳在相同外壳中的各种结构的设备。
基于本发明的一个实施例,在设置包含眼睛、被包含在成像设备中输入的输入图像中的图像区域以作为计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置的聚焦控制处理中,输入眨眼检测信息,识别眨眼期间和非眨眼期间的评估数据,并且仅根据判断为非眨眼期间的期间的评估值执行检测聚焦位置的处理。因而,可以防止由于基于眨眼的对比度变化而造成的聚焦误差的出现。
基于本发明的一个实施例,即使在眨眼检测未被满意地执行时,例如,执行基于面孔尺寸的物距信息和从评估值计算的物距的比较,以确定是否获得正确评估值,并且对多次搜索中获得的评估值获得数据进行比较以基于多数判定获得正确评估值数据。因而,即使在眨眼检测未被满意地执行时,仍实现基于准确的评估值的聚焦控制。
附图说明
图1示出了说明AF评估值计算和自动聚焦处理中眨眼的影响的图例;
图2A到2C是说明基于本发明的一个实施例的成像设备的外部结构的例子的图例;
图3是说明基于实施例的成像设备的硬件结构的例子的图例;
图4A和4B是说明测距区的设置的例子的图例;
图5是说明基于实施例的成像设备的焦点控制中透镜驱动和AF评估值测量的例子的图例;
图6是说明基于实施例的成像设备的自动聚焦控制序列的流程图;
图7是说明基于面孔尺寸的物距计算处理的图例;
图8是说明面孔尺寸参考值计算单元的结构和处理的图例;
图9示出了说明在面孔尺寸参考值计算单元中应用于计算的参考值计算表的例子的图例;
图10是说明在面孔尺寸参考值计算单元中应用于计算的参考值计算表的例子的图例;
图11是说明在面孔尺寸参考值计算单元中应用于计算的参考值计算表的例子的图例;
图12是说明基于实施例的成像设备的自动聚焦控制序列的流程图;
图13是说明多数处理应用到的处理的图例;
图14是说明多数处理应用到的自动聚焦控制序列的流程图;
图15是说明焦点显示的例子的图例;以及
图16是说明基于实施例的成像设备的处理和功能的模块图。
具体实施方式
下面参照附图说明基于本发明的一个实施例的成像设备、成像设备控制方法以及计算机程序的细节。
在本发明的实施例中,公开了使得能够对目标主体执行快速和准确的自动聚焦的技术。在基于实施例的成像设备中,作为聚焦控制的方法,把判断通过透镜获得的图像数据的对比度水平的方法作为基础。成像设备把所拍图像中包含的含有人面孔的眼睛的特定区域设置为聚焦控制的信号获得区域(空间频率提取区域),当这个特定区域的对比度较高时判断透镜更合焦,当对比度较低时判断透镜失焦,以及驱动透镜以增加对比度和调整焦点。
具体地,成像设备提取包含眼睛的特定区域的高频分量,产生所提取的高频分量的集分数据,以及根据所产生的高频分量集分数据判断对比度水平。换言之,成像设备计算特定区域的高频分量集分值以判断对比度的水平,以及使用这个高频分量集分值作为评估值(AF评估值)。通过驱动聚焦透镜以使评估值最大,实现自动聚焦。为了执行自动聚焦,有必要以评估值作为指引来驱动透镜。使用例如音圈电机作为透镜驱动机构。
在这个实施例中,检测眨眼存在或不存在,根据检测信息改变处理,以及在这个自动聚焦处理中确定准确的聚焦点(聚焦位置)。
首先,参照附图说明基于这个实施例的成像设备的结构。图2A到2C是示出成像设备10的外观的图例。图2A是成像设备10的顶视图,图2B是成像设备10的前视图,图2C是成像设备10的后视图。通过剖视图示出图2A的顶视图的透镜部分。成像设备10具有电源开关11,用于设置图像捕捉定时的触发器装置,即,充当快门的释放开关12,显示成像设备拍照的图像(直接图像(through image)),操作信息等等的监视器13,作为成像设备(CCD)的成像器14,执行变焦控制的变焦按钮15,输入各种操作信息的操作按钮16,检查由成像设备拍照的图像(直接图像)的取景器17,焦点调整时驱动的聚焦透镜18,变焦调整时驱动的变焦透镜19,用于设置拍照模式的模式拨号20,用于驱动聚焦透镜18的聚焦透镜电机(M1)21,以及用于驱动变焦透镜19的变焦透镜电机(M2)22。
主体图像在取景器17和监视器13上显示。取景器17和监视器13由例如LCD构成。通过透镜获得的主体图像作为运动图象在取景器17和监视器13上显示。这个运动图像被称作直接图像。用户检查取景器17或监视器13,检查要拍照的目标主体并且按下作为快门的释放开关12以执行图像的记录处理。
参照图3说明基于这个实施例的成像设备100的内部结构。基于这个实施例的成像设备是具有自动聚焦功能的成像设备。穿过聚焦透镜101和变焦透镜12的入射光被输入到例如CCD(电荷耦合器件)的成像设备103,并且在成像设备103中被光电转换。光电转换数据被输入到模拟信号处理单元104,在模拟信号处理单元104中经历例如噪声清除的处理,并且在A/D转换单元105中转换成数字信号。A/D转换单元105中转换成数字信号的数据被记录在由快擦写存储器等等构成的记录设备115中。数据还被显示在监视器117和取景器(EVF)116上通过透镜获得的图像被显示为监视器117和取景器(EVF)116上的直接图像,与是否执行拍照无关。
操作单元118是包含参考图2A到2C说明的照相机主体中提供的释放开关12、变焦按钮15、输入各种操作信息的操作按钮16以及设置拍照模式的模式拨盘20的操作单元。控制单元110具有CPU并且基于事先存储在存储器(ROM)120等等中的程序对由成像设备执行的各种处理的执行控制。存储器(EEPROM)119是非易失存储器。图像数据、各种补充信息、程序等等被存储在存储器119中。存储器(ROM)120存储由控制单元(CPU)110使用的程序、算术运算参数等等。存储器(RAM)121存储控制单元(CPU)110中使用的程序,在程序执行时根据情况改变的参数等等。陀螺仪111检测成像设备的倾角、震动等等。检测信息被输入到控制单元(CPU)110,并且执行例如防止手抖的处理。
电机驱动器112驱动与聚焦透镜101关联设置的聚焦透镜驱动电机113,和与变焦透镜102关联设置的变焦透镜驱动电机114。垂直驱动器107驱动成像设备(CCD)103。定时发生器106产生成像设备103和模拟信号处理单元104的处理定时的控制信号,并且控制这些处理单元的处理定时。
面孔检测单元130分析通过透镜输入的图像数据并且检测图像数据中的面孔和人的眼睛的区域。检测信息被发送到控制单元110。控制单元110根据检测信息指定面孔和人的眼睛的区域作为目标主体,并且根据这个指定区域测量到主体的距离。
在基于这个实施例中的成像设备中,如上所述,在聚焦控制中,把判断通过透镜获得的成像数据中的对比度水平的方法作为基础。在使用对比度识别处理的这个聚焦控制中,成像设备还检测眨眼存在或不存在,根据检测信息改变处理,以及确定准确的聚焦点(聚焦位置)。
在基于对比度判断聚焦位置的处理中,成像设备计算特定区域的高频分量集分值并且使用这个高频分量集分值作为评估值(AF评估值)。通过驱动聚焦透镜以使评估值最大来实现自动聚焦。作为具体自动聚焦控制处理,存在把伺服应用到聚焦透镜,使得AF评估值保持峰值的方法(爬山法),把聚焦透镜移动到通过计算特定区域中特定区间的评估值数据并且计算评估值数据的评估值的最大值而获得的聚焦位置的方法,等等。
基于这个实施例的成像设备根据由成像设备拍照的图像数据,指定面孔和人的眼睛的区域为目标主体,并且基于包含眼睛的特定区域执行距离估测。此后说明这个处理的具体处理构成。按以下项目的顺序进行说明。
(1)面孔和眼睛的识别处理
(2)眨眼检测和应对眨眼的处理
(3)基于面孔尺寸的物距计算处理
(4)基于多数法(majority method)的处理
(1)面孔和眼睛的识别处理
首先,说明根据由成像设备获得的图像数据指定人的面孔和眼睛的区域的方法。作为识别和跟踪面孔的技术,已经公开了各种技术。可以把这些现有技术应用到识别和跟踪面孔的技术上。可以通过例如JP-A-2004-133637中描述的把记录有的面孔的亮度分布信息的模板与实际图像匹配来实现该技术。首先,准备通过把缩小处理应用到实际图像而获得的多种图像。事先准备在人倾斜面孔时获得的面孔的一组亮度分布信息模板。随后执行图像和模板的匹配。模板是相对面孔三维正交坐标***的每个X,Y和Z轴倾斜的模板。基于与模板的匹配判断面孔的实际倾斜。
当在把图像转移到二维平面的同时顺序地执行缩小图像与模板的匹配时,如果某个区域匹配模板,则该区域是面孔出现的位置。可以根据实际图像的缩小比计算面孔尺寸。可以根据匹配中使用的模板计算围绕正交三轴的旋转角度、偏离、间距以及滚动角。根据通过这种方式获得的面孔数据估测眼睛的区域。根据所估测的区域的亮度分布指定眼睛的区域。在通过这种方式计算的眼睛的图像区域中设置作为距离测量的特定区域的测距区。在图4A和4B中示出测距区的具体设置的例子。
图4A是在面向前方的面孔图像中两个眼睛的相应区域中设置的测距区的例子,并且图4B是在面向旁边的面孔图像中一个眼睛的区域中设置的测距区的例子。
成像设备作为基础执行通过透镜获得这个测距区的图像,通过移动聚焦透镜判断对比度水平以及设置对比度最高的位置(即AF评估值较高的位置)作为聚焦位置的控制。此外,基于这个实施例的成像设备检测眨眼存在或不存在,根据检测信息改变处理,以及确定准确的聚焦点(聚焦位置)。
(2)眨眼检测和应对眨眼的处理
基于这个实施例的成像设备在通过移动聚焦透镜判断对比度水平的聚焦控制处理期间,判断人是否在所设置的测距区中眨过眼。通过监视判断为眼睛的位置处的颜色波动来执行判断眨眼存在或不存在的处理。换言之,成像设备执行判断为眼睛的图像区域的分析,并且在白色区域缩小或白色区域消失时执行眨眼判断处理,以判断人是否在眨眼。
在自动聚焦处理中,例如,成像设备作为基础执行如图5所示从近距离侧向无限远侧顺序地移动聚焦透镜201,在每个移动点处测量等价于包含眼睛的测距区的对比度水平的AF评估值,以及设置AF评估值的峰值位置为聚焦点(聚焦位置)的处理。
下面说明基于这个实施例的包含眨眼检测的自动聚焦处理以及应对眨眼的处理的序列。基于这个实施例的成像设备执行包含眼睛的测距区中的检测数据的获取和眨眼判断,并且通过把下面说明的处理方法应用到自动聚焦处理来防止由于眨眼而导致的散焦。
(处理″a″)在开始评估值搜索之前的处理
根据半按快门,当在执行获取对比度信号的评估值搜索的准备处理,即对应于聚焦透镜移动、搜索与对比度测量值相对应的AF评估值的处理期间检测眨眼时,成像设备把聚焦透镜移动到搜索开始位置,完成自动聚焦的准备以及等待眨眼结束。此后,在确认眨眼结束之后,成像设备开始评估值搜索。
(处理″b″)在开始评估值搜索之后的处理1
当在评估值搜索期间检测到眨眼时,如果眨眼的检测在评估值形成峰值之前,则成像设备在检测点处等待,直到眨眼结束。此时,当在眨眼检测中存在时间差″延迟″:Td时,成像设备返回在这个时间:Td移动透镜的距离,并且在这个点等待,在眨眼结束之后立即从该点恢复搜索。
(处理″c″)在开始评估值搜索之后的处理2
当亮度差异评估值的获得相对于眨眼检测存在时间差(延迟)时,如果可以确认所延迟的评估值在等待眨眼结束期间形成峰值,则成像设备判断这个峰值为聚焦点并且结束搜索。
(处理″d″)在开始评估值搜索之后的处理3
当眨眼未结束,即使对眨眼结束的等待持续一个固定时间,成像设备仍判断人已闭上眼睛,清除所获得的搜索结果并且从该点开始新的搜索。
下面参考图6示出的流程图说明包含眨眼检测的自动聚焦处理和基于包含如上所述处理的这个实施例的应对眨眼的处理的序列。图6示出的流程图是在图3示出的成像设备的控制单元110的控制下执行的处理的流程图。当根据通过透镜获得的输入图像的分析在面孔检测单元130中检测图像中的人的眼睛的区域,并且包含眼睛的区域的图像区域被设置成AF评估值计算的特定区域(测距区)之后,执行这个处理。
首先,在步骤S101,控制单元110把聚焦透镜移动到搜索开始位置。这对应于如上所述的处理″a″。换言之,根据半按快门,为了开始获得作为AF评估的对比度信号的评估值搜索,控制单元110把聚焦透镜移动到例如近距离侧极限的搜索开始位置。
在步骤S102,控制单元110判断人是否在眨眼。通过如上所述检测包含判断为眼睛的位置的图像区域中的颜色变化来执行这个处理。换言之,控制单元110执行判断为眼睛的图像区域,即特定区域(测距区)的分析,并且检测在这个图像区域中的白色区域的比值变化。具体地,控制单元110在白色区域缩小或白色区域消失时判断人在眨眼。
当在步骤S102判断人在眨眼时,控制单元110返回到步骤S101。换言之,控制单元等待聚焦透镜被移动到搜索开始位置的状态。当在步骤S102判断人未在眨眼时,控制单元110前进到步骤S103并且开始评估值搜索。换言之,在步骤S104,控制单元110开始移动聚焦透镜以及获得评估值的处理。
控制单元110甚至在评估值获得处理期间监视眨眼存在或不存在。当在步骤S105未检测到眨眼并且在步骤S106判断评估值形成峰值时,控制单元110判断峰值形成的点是聚焦位置并且结束处理。当在步骤S106未检测到评估值的峰值时,控制单元110确认搜索到达结束点(例如,无穷远侧极限)并且结束处理。
另一方面,在作为评估值获得处理的搜索的执行期间,当在步骤S105检测到眨眼时,控制单元110前进到步骤S108,并且执行把透镜返回一个等价于眨眼检测的时间″延迟″的透镜移动距离的处理。 这相当于处理″b″,并且是返回在检测延迟:Td中透镜移动的距离,在该点等待,并且在眨眼结束之后立即从该点恢复搜索的处理。
随后,在步骤S109,控制单元110判断评估值是否形成峰值。这个判断评估值的峰值形成的处理是当在评估值检测中存在延迟时采取的措施,并且等价于处理″c″。当亮度差异评估值的获得相对于眨眼检测存在时间差(延迟)时,如果可以确认所延迟的评估值在等待眨眼结束期间形成峰值,则控制单元110判断这个峰值为聚焦点,并且结束搜索(在S109中为“是”)。
当难于在步骤S109确认评估值形成峰值时,控制单元110前进到步骤S110并且确认眨眼结束。根据该确认,控制单元110返回到步骤S104并且恢复搜索。在这种情况下透镜的位置根据在步骤S108设置的透镜位置计算。由该处理获得的评估值数据被原样使用。
当控制单元110前进到步骤S110,眨眼未结束,在步骤S111等待,并且经过事先设置的固定时间时(在步骤S112为“是”),控制单元110判断人闭上了眼睛。在步骤S113,控制单元110清除该点的搜索结果并且从该点开始新搜索。这个处理是对应于处理″d″的处理。
通过这种方式,在这个实施例中,在开始搜索以获得AF评估值之前和在执行搜索期间检测眨眼存在或不存在。在开始搜索之前,搜索在等待眨眼结束之后开始。在执行搜索期间,处理形式基于评估值的峰值的检测而改变。通过这种方式,实现了AF评估值的有效获得而无不浪费操作,并且防止了由于眨眼造成的聚焦误差的出现。
(3)基于面孔尺寸的物距计算处理
下面说明也使用基于面孔尺寸的物距计算处理作为在眨眼检测未被准确地执行时的测量的处理的例子。能够明白,当包含作为主体的人的眼睛的区域被设置成测距区,并且根据该区域中图像的变化,即白色区域的增加和减少来检测眨眼时,成像设备不能进行眨眼检测。在这种情况下,存在焦点移动位置大大地偏离透镜应当聚焦的位置的问题。下面说明比较聚焦位置的距离和物理地根据面孔尺寸的信息计算的距离,以及当距离彼此偏离固定数值或更多时,再次执行搜索以防止焦点偏移的处理。
在这个实施例中,基于成像设备所拍的图像中包含的面孔的尺寸,计算到面孔的距离。参考图7说明这个处理。在图7中示出主***置301、聚焦透镜302以及成像设备303。人的面孔出现在主***置301。面孔尺寸(面孔的宽度)是Wf。
如果已知面孔的实际大小(Wf),则根据透镜的基本物理定律,基于以下等式可以计算到面孔的距离,即,物距(Df),其是从聚焦透镜302到主***置301的距离(Df)。
Df=Wref×(f/Wi)×(Ww/Wf) (等式1.1)
其中Wref是人的面孔尺寸的参考值,Wi是成像设备的宽度,f是焦距,Wf是所拍图像中的人的面孔尺寸的像素数量(成像设备检测值),以及Ww是用于检测人的面孔的图像的尺寸的像素数量(成像设备检测值)。
可以使用事先设置的固定数值作为人的面孔尺寸的参考值(Wref)。可以用这个面孔尺寸参考值(Wref)执行处理,这个面孔尺寸参考值(Wref)被设置成通过考虑个体差异、种族的差异、年龄的差异、性别的差异等等而获得的值。基于这个处理,可以实现更准确的距离估测。
参考图8和后续附图说明这个处理。这个处理是将面孔尺寸参考值:Wref设置为基于对应于主体的种族、性别、年龄以及体格的适当值,并且计算对应于主体的准确物距(Df)的处理。对于这个处理,计算和使用对应于各种族、性别、年龄以及体格的参考值Wref。例如,用于对应于各种族、性别、年龄以及体格的参考值Wref的计算的表格数据被保存,根据图像分析结果或用户输入信息获得对应于主体的种族、性别、年龄以及体格信息,以及根据这种所获得的信息从表中计算对应于主体的面孔尺寸参考值:Wref。
基于由成像设备所拍的图像中包含的面孔图像的分析,可以估测具有该面孔的人的种族、性别、年龄以及体格。换言之,识别面孔的各部分,执行与对应于事先登记的种族、性别、年龄以及体格的部分信息的匹配,以估测主体的种族、性别、年龄以及体格。可选地,类似摄影者的用户也可以输入涉及种族、性别、年龄以及体格的主体信息,并且把这个输入信息应用于分析。
通过这种方式,根据图像分析或用户输入信息获得主体的种族、性别、年龄以及体格信息,并且计算对应于主体的适当面孔尺寸参考值:Wref。参考图8说明这个处理的例子。
如图8所示,成像设备具有面孔尺寸参考值(Wref)计算单元310。面孔尺寸参考值(Wref)计算单元310具有种族参考值计算表311、性别参考值计算表312、年龄参考值计算表313、体格参考值计算表314以及数据处理单元320。
基于由成像设备所拍的图像中包含的面孔图像的分析,图像分析单元331估测具有该面孔的人的种族、性别、年龄以及体格。换言之,图像分析单元331识别面孔的各部分,执行与对应于事先登记的种族、性别、年龄以及体格的部分信息的匹配,估测主体的种族、性别、年龄以及体格,并且把有关估测的信息输入到面孔尺寸参考值(Wref)]计算单元310。可选地,类似摄影者的用户通过用户输入单元332输入涉及种族、性别、年龄以及体格的主体信息,并且把这个输入信息输入到面孔尺寸参考值(Wref)计算单元310。
面孔尺寸参考值(Wref)计算单元310通过根据经由图像分析单元331或用户输入单元332输入的主体信息把相应表应用到计算中,计算对应于主体的最优参考值(Wref)。作为实际输出,可以计算考虑到某种程度的变化的参考值范围Wref=(Wref+ΔWrefb)到Wref=(Wref-ΔWrefs)。面孔尺寸参考值(Wref)计算单元310输出通过考虑较大侧的所估测偏差为ΔWrefb并且考虑较小侧的所估测偏差为ΔWrefb而获得的结果。
参考图9到11说明表的数据结构的例子。在图9中,(A)是种族参考值计算表,并且(B)是种族以及性别参考值计算表。在图10中,(C)是种族、性别以及年龄参考值计算表。在图11中,(D)是种族、性别、年龄以及体格参考值计算表。在图8示出的结构的例子的说明中,设置针对种族、性别、年龄以及体格的单独的表。然而,不同于设置单独的表,可以设置具有图9到11所示的各种形式的表。
例如,当可以根据通过图像分析单元331或用户输入单元332输入的主体信息仅估测或判定种族时,使用图9中的(A)中示出的种族参考值计算表。如果难于判断种族,则使用″共同″数据。
当可以根据通过图像分析单元331或用户输入单元332输入的主体信息估测或判定种族和性别时,使用图9中的(B)中示出的种族和性别参考值表。如果人是亚洲人和男性,则使用图9中(B)示出的A行中的数据。另一方面,例如,当难于判定人的种族,但是可以估测或判定人的性别为女性时,使用指示种族是共同的并且性别是女性的图9中的(B)示出的B行中的数据。
类似地,当可以估测或判定种族、性别和年龄时,使用图10中的(C)中示出的种族、性别和年龄参考值计算表。如果已知人是亚洲男性并且是12岁及以上,则不得不仅使用图10中(C)中示出的C行中的数据。当由于某种原因难于估测年龄时,不得不仅使用图10中(C)中示出的D行中的数据。类似地,当可以估测或判定种族、性别、年龄和体格时,使用图11中(D)示出的种族、性别、年龄以及体格参考值计算表来计算最优参考值Wref=(Wref+ΔWrefb)到(Wref-ΔWrefs)。
通过这种方式,可以根据图像分析或用户输入信息获得主体的种族、性别、年龄以及体格信息,并且计算对应于主体的适当面孔尺寸参考值:Wref。可以通过把所计算的参考值:Wref应用到计算中,计算更准确的到主体的距离(Df)。在应用参考值:Wref的处理和计算到主体的距离(Df)的处理中,可以应用面孔的宽度和面孔的长度中的任何一个到计算中,并且还可以使用宽度和长度两者。此外,可以考虑面孔的倾角。
对通过这种方式根据主体的面孔尺寸计算的到主体的距离(Df),和通过基于对比度的AF评估值峰值检测而获得的聚焦位置进行比较。当距离(Df)和聚焦位置之间的偏差大于事先设置的阈值时,成像设备判断可能在AF评估值峰值检测中存在误差,并且再次执行搜索。参考图12中示出的流程图说明这个处理的序列。
在图3中示出的成像设备的控制单元110的控制下执行由图12示出的流程图指示的处理。当在面孔检测单元130中根据通过透镜获得的输入图像的分析检测图像中的人的面孔区域和眼睛的区域,并且包含眼睛的区域的图像区域被设置成计算AF评估值的特定区域(测距区)之后,也执行这个处理。
首先,在步骤S201,控制单元110执行搜索AF评估值的处理。换言之,控制单元110顺序地把聚焦透镜从近距离侧向无穷远侧移动,并且获得对应于特定区域(测距区)的对比度的评估值。在步骤S202,控制单元110计算在这个搜索处理中评估值形成峰值的点处的物距(Ds)。此外,在步骤S203,控制单元110基于参照图7到11说明的处理,根据面孔尺寸计算到主体的距离(Df)。
随后,在步骤S204,控制单元110比较根据AF评估值的峰值计算的物距(Ds)和根据面孔的尺寸计算的物距(Df),并且判断物距(Ds)和物距(Df)之间的差值是否在事先设置的阈值内。当判断差值在事先设置的阈值内时,在步骤S205,控制单元110判断评估值搜索被准确地执行,并且设置根据评估值搜索获得的峰值位置为聚焦位置。
另一方面,当控制单元110在步骤S204比较根据AF评估值的峰值计算的物距(Ds)和根据面孔的尺寸计算的物距(Df),并且判断物距(Ds)和物距(Df)之间的差值大于事先设置的阈值时,在步骤S206,控制单元110判断评估值搜索未被准确地执行,返回到步骤S201,并且再次执行评估值搜索。
基于这个处理,即使在控制单元110在评估值搜索中无法进行眨眼检测并且未获得基于准确评估值的聚焦点时,可以根据基于面孔尺寸的物距检测误差的出现,并且可以防错误设置聚焦透镜的位置。
(4)基于多数法的处理
如前面(3)中那样,下面说明作为眨眼检测在执行搜索期间未被准确地执行时的措施,基于通过多次执行的搜索的多数结果而得出的判定,判断准确峰值位置和将聚焦透镜设置在正确聚焦位置的处理的例子。
例如,当白平衡偏离时或当曝光不正确时,可能不能基于检测眨眼的处理,即检测包含眼睛的区域的白色区域变化正确地执行″眨眼检测″。防止该问题的方法是这个多数法。
具体地,成像设备执行以下处理。
当难于保证眨眼检测的准确性时,成像设备重复地在相同AF范围中执行搜索两次。
当重复地执行两次的搜索的结果指示相同聚焦位置时,成像设备相信该结果。
当重复地执行两次的搜索的结果不同时,成像设备在相同范围中执行第三次搜索。当第三次搜索的结果中的位置出现在第一或第二次搜索的结果中时,第三次搜索的结果中的位置被设置成聚焦位置。
当重复执行三次的搜索的结果中的全部聚焦位置彼此不一致时,成像设备判断难于聚焦在主体上,并且输出警告,或进一步重复搜索,直到获得覆盖过去的搜索结果的结果。
参考图13说明第一到第三次搜索AF评估值的例子。在全部例子中,相同主体的相同测距区(即,包含眼睛的图像区域)被设置成测距区,并且获得取决于对比度数据的AF评估值。峰值的位置是对比度最高并且AF评估值最高的位置,并且是估测为聚焦点的点。
然而,由于在第一次搜索中峰值P1的位置和第二次搜索中峰值P2的位置不同,所以假定在任何一次搜索中出现测量误差。在这种情况下,执行第三次搜索,并且执行通过第三次搜索获得的峰值P3、第一次搜索的峰值P1以及第二次搜索的峰值P2的比较。峰值P3基本与峰值P2一致。在这种情况下,成像设备判断峰值P2和P3是作为正确搜索的结果而获得的峰值,并且设置该峰值的位置为聚焦位置。
通过这种方式,在这个处理例子中,成像设备根据多次执行的搜索的结果基于多数判定来确定聚焦点,并且确定设置聚焦透镜的位置。参考图14示出的流程图说明执行这个处理的序列。在图3示出的成像设备的控制单元110的控制下执行由图14示出的流程图指示的处理。当在面孔检测单元130中根据通过透镜获得的输入图像的分析检测到图像中的人的面孔区域和眼睛的区域,并且包含眼睛的区域的图像区域被设置成计算AF评估值的特定区域(测距区)之后,也执行这个处理。
首先,在步骤S301,控制单元110执行搜索AF评估值的处理。换言之,控制单元110顺序地把聚焦透镜从近距离侧向无穷远侧移动,并且获得对应于特定区域(测距区)的对比度的评估值。随后,在步骤S302,控制单元110判断在第一次搜索处理中执行的眨眼检测的可靠性。如上所述,当在成像设备中获得的图像的白平衡偏离时,或当曝光不正确时,假定眨眼检测的可靠性下降。因此,成像设备的控制单元110判断所获得的图像的白平衡以及曝光调节的准确性,并且根据有关这个判断的信息判断眨眼检测的可靠性。
当在步骤S302判断眨眼检测的可靠性较高时,控制单元110前进到步骤S312,判断第一次搜索处理中的AF评估值的峰值位置是聚焦位置,将聚焦透镜设置在聚焦位置,并且结束处理。
当在步骤S302判断眨眼检测的可靠性较低时,控制单元110前进到步骤S303,并且执行第二次搜索。控制单元110顺序地把聚焦透镜从近距离侧向无穷远侧移动,并且再次获得对应于特定区域(测距区)的对比度的评估值。
随后,在步骤S304,控制单元110执行由第一次搜索获得的AF评估值和由第二次搜索获得的AF评估值的比较。当两个AF评估值基本上是相同结果时,控制单元110判断两次搜索被正确地执行并且前进到步骤S312。控制单元110通过把AF评估值应用于判断,判断出在第一或第二次搜索中的AF评估值的峰值位置是聚焦位置,将聚焦透镜设置在聚焦位置,并且结束处理。
当在步骤S304判断通过第一次搜索获得的AF评估值和通过第二次搜索获得的AF评估值不同时,控制单元110前进到步骤S305并且执行第三次搜索。控制单元110顺序地把聚焦透镜从近距离侧向无穷远侧移动,并且再次获得对应于特定区域(测距区)的对比度的评估值。
随后,在步骤S306,控制单元110执行由第三次搜索获得的AF评估值和由第一次与第二次搜索获得的AF评估值的比较。当由第三次搜索获得的AF评估值和第一或第二次搜索的搜索结果相同时,控制单元110前进到步骤S311。控制单元110判断由第三次搜索获得的AF评估值是正确评估值并且前进到步骤S312。控制单元110通过把AF评估值应用于判断,判断出在第三次搜索的AF评估值中的峰值位置是聚焦位置,将聚焦透镜设置在聚焦位置,并且结束处理。
当在步骤S306判断通过第三次搜索获得的AF评估值不同于通过第一和第二次搜索获得的AF评估值时,控制单元110在步骤S307判断是否应当重试搜索。当不重试搜索时,控制单元110前进到步骤S308,输出警告或指示控制单元110的聚焦处理失败的消息,并且结束处理。当在步骤S307判断应当重试搜索时,控制单元110前进到步骤S313,用第一次搜索替代第三次搜索,并且重复地执行在步骤S303中的处理以及后续步骤,即第二次搜索处理和后续处理。在步骤S307的判断搜索是否应当撤消的处理中,控制单元110可以把事先在设备中设置的信息应用到处理中,或可以使用户判断搜索是否应当重试,并且根据用户的输入执行搜索。
通过这种方式,在这个处理例子中,成像设备根据多次执行的搜索的结果,基于多数判定来判断评估值的峰值位置的可靠性,并且确定最后的聚焦点,即聚焦透镜的设置位置。因而,即使在由于眨眼检测的错误而未获得正确AF评估值时,仍可以防止聚焦透镜被设置在错误的聚焦位置。
当聚焦透镜的位置被确定并且成像设备基于如上所述的处理聚焦成功时,成像设备在成像设备的监视器上的显示图像中呈现指示成功聚焦的对焦框,并且通知用户聚焦成功。例如,成像设备执行特定面孔的聚焦显示。聚焦显示是在监视器或取景器上显示的图像中呈现的、指示完成聚焦的标识信息。通过检查这个聚焦显示并且按下快门以拍照主体,用户能够稳妥地拍照主体。
图15示出了聚焦显示的例子。图15中示出的例子是在作为成像设备的照相机的监视器上显示的图像中执行聚焦显示的例子。例如,当成像设备根据包含图15中示出的面孔421的眼睛的区域,基于AF评估值计算来执行自动聚焦处理并且成功聚焦时,在面孔421上设置和显示对焦框431。此外,当判断面孔422和面孔423也处于在这个聚焦点事先设置的可接受聚焦景深时,成像设备在各面孔上显示对焦框432和433。通过检查这个聚焦显示、按下快门并且拍照主体,用户能够稳妥地拍照主体。
最后,参照图16说明用于执行在基于这个实施例的成像设备中执行的处理的功能结构。通过把参考图3说明的硬件结构应用到该处理,并且主要基于在控制单元110控制下执行的程序来执行该处理。图16是主要说明在执行处理时把各个功能应用于这个处理的模块图。
在成像设备中获得的图像信息500通过参考图3说明的成像设备、数字信号处理单元等等被输入到面孔检测单元502。面孔检测单元502以和如上所述相同的方式分析图像信息500并且检测图像中的面孔以及人的眼睛的区域。
包含由面孔检测单元502检测的面孔检测信息的图像信息被输出到测距区设置单元503、图像分析单元504、面孔尺寸参考值[Wref]计算单元505以及面孔估测距离[Df]计算单元506。测距区设置单元503将包含由面孔检测单元502检测的面孔的眼睛的区域设置为用于计算AF评估的特定区域,即测距区。
由测距区设置单元503设置的包含人的眼睛的测距区信息被输入到聚焦控制单元507。聚焦控制单元507向聚焦透镜驱动单元510输出驱动命令。聚焦透镜在聚焦透镜的工作范围中移动。聚焦控制单元507从对比度信号产生单元508在每个移动点处产生的对比度信息中获得AF评估值。换言之,聚焦控制单元507将成像设备中输入的输入图像500中包含的含有眼睛的图像区域设置为用于计算物距的测距区,基于测距区的对比度获得评估值,并且检测聚焦位置。
在这个AF评估值获得处理中,聚焦控制单元507输入眨眼检测单元509检测的眨眼检测信息,并且基于是否检测到眨眼来改变处理。换言之,聚焦控制单元507输入眨眼检测单元509中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,并且执行仅根据判断为非眨眼期间的期间的评估值来检测聚焦位置的处理。具体地,聚焦控制单元507执行参考图6中的流程图说明的处理。显示控制单元511执行处理以在通过这个聚焦控制聚焦的主体上显示参考图15说明的对焦框。
例如,在开始驱动聚焦透镜以获得评估值之前,当指示人在眨眼的检测信息被从眨眼检测单元509输入时,聚焦控制单元507等待眨眼的结束,并且在确认眨眼结束之后,开始驱动聚焦透镜以获得评估值。在开始驱动聚焦透镜以获得评估值之后,当指示人已经眨眼的眨眼检测信息被从眨眼检测单元509输入时,聚焦控制单元507停止驱动聚焦透镜以暂停获得评估值,把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置,并且恢复评估值的获得。
然而,当指示人已经眨眼的眨眼检测信息被从眨眼检测单元509输入时,聚焦控制单元507判断评估值的峰值是否已经被检测到。当峰值已经被检测到时,聚焦控制单元507根据峰值确定聚焦位置,并且结束聚焦位置检测处理。
此外,当也执行参考图12中的流程图说明的处理,即基于面孔尺寸的计算距离的处理时,图像分析单元504执行参考图7说明的图像分析处理。换言之,基于由成像设备拍照的图像中包含的面孔图像的分析,图像分析单元504估测具有该面孔的人的种族、性别、年龄以及体格。图像分析单元504识别面孔的各部分,执行各部分与对应于事先登记的种族、性别、年龄以及体格的部分信息的匹配,估测主体的种族、性别、年龄以及体格,并且把估测的信息输入到面孔尺寸参考值[Wref]计算单元505。这些主体信息可以通过用户输入单元501由用户输入。
面孔尺寸参考值[Wref]计算单元504根据通过图像分析单元503或用户输入单元501输入的主体信息,通过把相应表应用到计算中来计算对应于主体的最优参考值(Wref)。在计算处理中,如参考图8到11说明的,参考各表计算对应于主体的参考值Wref。
面孔估测距离[Df]计算单元506通过把面孔尺寸参考值(Wref)应用到计算中来计算物距Df。计算物距的基本等式是上述等式,即,
Df=Wref×(f/Wi)×(Ww/Wf) (等式1.1)
其中Wref是人的面孔尺寸的参考值,Wi是成像设备的宽度,f是焦距,Wf是所拍图像中的人的面孔尺寸的像素数量(成像设备检测值),以及Ww是用于检测人的面孔的图像的尺寸的像素数量(成像设备检测值)。
根据面孔尺寸计算的主体距离信息被输出到聚焦控制单元507。聚焦控制单元507比较根据AF评估值的峰值计算的物距(Ds)和根据面孔尺寸计算的物距(Df)。当判断物距(Ds)和物距(Df)之间的差值大于事先设置的阈值时,聚焦控制单元507判断评估值搜索未被准确地执行并且再次执行评估值搜索。这个处理相当于参考图12中的流程图说明的处理。
当执行参考图13和14说明的多数处理时,聚焦控制单元507执行其中应用相同测距区的搜索以重复AF评估获得,并且比较所获得的多个结果数据。当获得相同评估值数据时,聚焦控制单元507确定正确峰值,并且基于用于设置评估值数据为正确评估数据的多数处理确定聚焦位置和聚焦透镜的设置位置。
参考具体实施例详细说明了本发明。然而,显然本领域的技术人员可以在不偏离本发明的宗旨的情况下对实施例进行修改和替换。本发明以图解的形式被公开,并且将不应被限制性地解释。为了判断本发明的要点,应当考虑所附权利要求书。
可以使用硬件、软件或硬件和软件的组合执行在这个说明书中说明的一系列处理。当通过软件执行处理时,可以把其中记录有处理序列的程序安装在装有专用硬件的计算机的存储器中,并且执行该程序。可选地,可以把程序安装在能够执行各种处理的通用计算机中,并且执行程序。
例如,可以事先在作为记录介质的硬盘或ROM(只读存储器)中记录程序。可选地,可以在例如软盘、CD-ROM(光盘只读存储器)、MO(磁光盘)、DVD(数字化视频光盘)、磁盘或半导体存储器的可移动记录介质中临时或永久地存储(记录)程序。可以提供这种可移动记录介质作为所谓封装软件。
除了从可移动记录介质把程序安装在计算机中之外,可以通过无线设备向计算机传送程序,或通过例如LAN(局域网)或因特网的网络从下载站点通过线路向计算机传送程序。计算机可以接收以该种方式传送的程序,并且把程序安装在例如其中安装的硬盘的记录介质中。
在这个说明书中描述的各种处理不仅基于以上描述按时间序列执行,而且可以基于执行处理的设备的处理能力或在必要时并行或分别地执行。在这个说明书中,***是多个设备的逻辑集合,并且不局限于具有容纳在相同外壳中的各种结构的设备。
如上所述,基于本发明的实施例,在设置包含眼睛、被包含在成像设备中的输入图像中的图像区域作为计算物距的测距区并且基于测距区的对比度获得评估值以检测聚焦位置的聚焦控制处理中,输入眨眼检测信息,识别眨眼期间和非眨眼期间的评估数据,以及执行仅根据判断为非眨眼期间的期间的评估值来检测聚焦位置的处理。因而,可以防止由于基于眨眼的对比度变化而造成的聚焦错误的出现。
基于本发明的实施例,即使在眨眼检测未被满意地执行时,例如,执行基于面孔尺寸的物距信息和从评估值计算的物距的比较,以确定是否执行正确的评估值获得,并且比较在多次搜索中获得的评估值获得数据,以基于多数判定获得正确评估值数据。因而,即使在眨眼检测未被满意地执行时,仍实现基于准确评估值的聚焦控制。
本领域的技术人员应当理解,各种修改、组合、子组合以及变化可以根据设计需求而被想到,并且迄今为止的其它要素实际上在所附权利要求书或其等价物的范围内。
Claims (21)
1.一种成像设备,包括:
聚焦控制单元,其设置包含眼睛、被包含在成像设备中输入的输入图像中的图像区域,以作为用于计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置;以及
眨眼检测单元,其根据测距区中的图像分析来检测眨眼的存在或不存在,其中
聚焦控制单元输入眨眼检测单元中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值检测聚焦位置的处理。
2.如权利要求1所述的成像设备,其中当指示人正在眨眼的检测信息在开始驱动聚焦透镜以获得评估值之前被从眨眼检测单元输入时,聚焦控制单元等待眨眼的结束,并且在确认眨眼结束之后,聚焦控制单元执行开始驱动聚焦透镜以获得评估值的控制。
3.如权利要求1所述的成像设备,其中当指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,聚焦控制单元停止驱动聚焦透镜以暂停评估值的获得,并且聚焦控制单元执行把聚焦透镜返回到人眨眼之前的聚焦透镜设置位置的处理。
4.如权利要求3所述的成像设备,其中聚焦控制单元考虑到眨眼检测处理和评估值计算处理之间的时间差,执行把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置的处理。
5.如权利要求1所述的成像设备,其中聚焦控制单元在指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,并且当峰值已经被检测到时,根据峰值确定聚焦位置,并且结束聚焦位置检测处理。
6.如权利要求1所述的成像设备,其中聚焦控制单元在指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,以及当峰值未被检测到时,在确认眨眼结束之后,从人眨眼之前的聚焦透镜设置位置获得评估值。
7.如权利要求1所述的成像设备,还包括根据输入图像中包含的面孔的尺寸计算物距的物距计算单元,其中
聚焦控制单元执行基于对应于对比度的评估值的物距和根据面孔的尺寸计算的物距的比较,并且当两个距离之间的差值等于或大于事先设置的阈值时,再次基于对比度执行评估值获得处理。
8.如权利要求7所述的成像设备,其中物距计算单元基于由面孔检测单元检测的面孔尺寸在物距计算处理中输入种族、性别、年龄以及体格中的至少一个的主体信息,以及根据所输入的主体信息执行应用对应于主体的面孔尺寸参考值的物距计算处理。
9.如权利要求8所述的成像设备,其中种族、性别、年龄以及体格中的至少一个主体信息是作为图像分析单元针对输入成像设备的输入图像的分析结果而输入到物距计算单元的信息。
10.如权利要求8所述的成像设备,其中种族、性别、年龄以及体格中的至少一个主体信息是通过成像设备中的用户输入单元输入到物距计算单元的信息。
11.如权利要求1所述的成像设备,其中聚焦控制单元多次基于测距区的对比度重复执行评估值获得处理,比较所获得的多个结果数据,并且当获得相同评估数据时,基于设置评估值数据为正确评估数据的多数处理来确定聚焦位置。
12.一种在成像设备中执行自动聚焦控制的成像设备控制方法,该成像设备控制方法包括步骤:
在聚焦控制单元中设置包含眼睛、被包含在成像设备的输入图像中的图像区域,以作为计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置;以及
在眨眼检测单元中根据测距区中的图像分析来检测眨眼的存在或不存在,其中
聚焦控制步骤是输入眨眼检测单元中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值检测聚焦位置的处理的步骤。
13.如权利要求12所述的成像设备控制方法,其中聚焦控制步骤包含步骤:当指示人正在眨眼的检测信息在开始驱动聚焦透镜以获得评估值之前被从眨眼检测单元输入时,等待眨眼的结束,并且在确认眨眼结束之后,执行开始驱动聚焦透镜以获得评估值的控制。
14.如权利要求12所述的成像设备控制方法,其中聚焦控制步骤包含步骤:
在指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,停止驱动聚焦透镜以暂停获得评估值,并且执行把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置的处理。
15.如权利要求14所述的成像设备控制方法,其中在聚焦控制步骤中,考虑到眨眼检测处理和评估值计算处理之间的时间差,执行把聚焦透镜返回到在人眨眼之前的聚焦透镜设置位置的处理。
16.如权利要求12所述的成像设备控制方法,其中聚焦控制步骤包含步骤:当指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,并且当峰值已经被检测到时,根据峰值确定聚焦位置并且结束聚焦位置检测处理。
17.如权利要求12所述的成像设备控制方法,其中聚焦控制步骤包含步骤:当指示人已经眨眼的眨眼检测信息在开始驱动聚焦透镜以获得评估值之后被从眨眼检测单元输入时,判断评估值的峰值是否已经被检测到,并且当峰值未被检测到时,在确认眨眼结束之后,从人眨眼之前的聚焦透镜设置位置获得评估值。
18.如权利要求12所述的成像设备控制方法,还包括在物距计算单元中根据输入图像中包含的面孔的尺寸计算物距的物距计算步骤,其中
聚焦控制步骤包含步骤:执行基于对应于对比度的评估值的物距和根据面孔的尺寸计算的物距的比较,并且当两个距离之间的差值等于或大于事先设置的阈值时,再次基于对比度执行评估值获得处理。
19.如权利要求18所述的成像设备控制方法,其中物距计算步骤包含步骤:基于由面孔检测单元检测的面孔尺寸在物距计算处理中输入种族、性别、年龄以及体格中的至少一个的主体信息,以及根据所输入的主体信息执行应用对应于主体的面孔尺寸的参考值的物距计算处理。
20.如权利要求12所述的成像设备控制方法,其中聚焦控制步骤包含步骤:多次基于测距区的对比度重复执行评估值获得处理,比较所获得的多个结果数据,并且当获得相同评估数据时,基于设置评估值数据为正确评估数据的多数处理来确定聚焦位置。
21.一种使成像设备执行自动聚焦控制的计算机程序,该计算机程序包括步骤:在聚焦控制单元中设置包含眼睛、被包含在成像设备中输入的输入图像中的图像区域,以作为计算物距的测距区,并且基于测距区的对比度获得评估值以检测聚焦位置;以及
在眨眼检测单元中根据测距区中的图像分析来检测眨眼的存在或不存在,其中
聚焦控制步骤是输入眨眼检测单元中的眨眼检测信息,识别眨眼期间和非眨眼期间的评估值数据,以及执行仅根据判断为非眨眼期间的期间的评估值检测聚焦位置的处理的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006160454 | 2006-06-09 | ||
JP2006160454A JP4127296B2 (ja) | 2006-06-09 | 2006-06-09 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101086600A true CN101086600A (zh) | 2007-12-12 |
CN100533248C CN100533248C (zh) | 2009-08-26 |
Family
ID=38873185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2007101102286A Expired - Fee Related CN100533248C (zh) | 2006-06-09 | 2007-06-08 | 成像设备、成像设备控制方法以及计算机程序 |
Country Status (4)
Country | Link |
---|---|
US (2) | US7714927B2 (zh) |
JP (1) | JP4127296B2 (zh) |
CN (1) | CN100533248C (zh) |
TW (1) | TWI352870B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102006407B (zh) * | 2009-09-03 | 2012-11-28 | 华晶科技股份有限公司 | 防眨眼拍摄***及方法 |
CN104867125A (zh) * | 2015-06-04 | 2015-08-26 | 北京京东尚科信息技术有限公司 | 获取图像的方法以及装置 |
CN105791682A (zh) * | 2016-02-29 | 2016-07-20 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106534666A (zh) * | 2016-10-11 | 2017-03-22 | 广东欧珀移动通信有限公司 | 相位对焦方法、装置及终端设备 |
CN106899800A (zh) * | 2016-06-28 | 2017-06-27 | 阿里巴巴集团控股有限公司 | 相机对焦的方法、装置及移动终端设备 |
CN111886565A (zh) * | 2018-03-22 | 2020-11-03 | 国立研究开发法人科学技术振兴机构 | 处理装置、处理方法、数据处理装置、数据处理***、数据处理方法和程序 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4127296B2 (ja) * | 2006-06-09 | 2008-07-30 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
JP5046788B2 (ja) * | 2007-08-10 | 2012-10-10 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP4946741B2 (ja) * | 2007-09-05 | 2012-06-06 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法、及び画像処理システム |
JP5088118B2 (ja) * | 2007-12-07 | 2012-12-05 | 株式会社ニコン | 焦点調節装置 |
KR101448536B1 (ko) * | 2008-03-21 | 2014-10-08 | 삼성전자주식회사 | 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체 |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
JP2010054607A (ja) * | 2008-08-26 | 2010-03-11 | Canon Inc | 自動合焦装置、その制御方法及びプログラム |
JP5338197B2 (ja) * | 2008-08-26 | 2013-11-13 | 株式会社ニコン | 焦点検出装置および撮像装置 |
US20190215449A1 (en) * | 2008-09-05 | 2019-07-11 | Telefonaktiebolaget Lm Ericsson (Publ) | Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same |
US8913176B2 (en) | 2008-09-05 | 2014-12-16 | Lg Electronics Inc. | Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same |
JP5178441B2 (ja) * | 2008-10-14 | 2013-04-10 | 三洋電機株式会社 | 電子カメラ |
US8055638B2 (en) * | 2008-12-11 | 2011-11-08 | Microsoft Corporation | Providing recent history with search results |
US8060524B2 (en) * | 2008-12-11 | 2011-11-15 | Microsoft Corporation | History answer for re-finding search results |
US11213397B2 (en) | 2009-05-21 | 2022-01-04 | Depuy Ireland Unlimited Company | Prosthesis with surfaces having different textures and method of making the prosthesis |
US9101476B2 (en) | 2009-05-21 | 2015-08-11 | Depuy (Ireland) | Prosthesis with surfaces having different textures and method of making the prosthesis |
TWI423147B (zh) * | 2009-07-22 | 2014-01-11 | Altek Corp | 防眨眼拍攝系統及方法 |
JP5495683B2 (ja) * | 2009-09-10 | 2014-05-21 | キヤノン株式会社 | 撮像装置および測距方法 |
JP5388774B2 (ja) * | 2009-09-24 | 2014-01-15 | キヤノン株式会社 | 画像処理装置及び画像処理装置の制御方法 |
JP2011211662A (ja) * | 2010-03-31 | 2011-10-20 | 3R Systems Corp | 画像処理装置 |
KR101728042B1 (ko) * | 2010-10-01 | 2017-04-18 | 삼성전자주식회사 | 디지털 촬영 장치 및 이의 제어 방법 |
US9386993B2 (en) | 2011-09-29 | 2016-07-12 | Biomet Manufacturing, Llc | Patient-specific femoroacetabular impingement instruments and methods |
JP2014137627A (ja) * | 2013-01-15 | 2014-07-28 | Sony Corp | 入力装置、出力装置および記憶媒体 |
KR102068049B1 (ko) * | 2013-05-13 | 2020-01-20 | 삼성전자주식회사 | 영상 처리 장치 및 영상 처리 방법 |
US10074199B2 (en) | 2013-06-27 | 2018-09-11 | Tractus Corporation | Systems and methods for tissue mapping |
US9741315B2 (en) * | 2013-07-03 | 2017-08-22 | Visteon Global Technologies, Inc. | Adjusting a transparent display with an image capturing device |
KR102227284B1 (ko) | 2014-01-16 | 2021-03-12 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
JP6290038B2 (ja) * | 2014-08-20 | 2018-03-07 | 株式会社東芝 | 電子機器、方法及びプログラム |
CN105578045A (zh) * | 2015-12-23 | 2016-05-11 | 努比亚技术有限公司 | 一种终端及终端拍摄的方法 |
CN110799986B (zh) | 2018-04-25 | 2020-09-18 | 北京嘀嘀无限科技发展有限公司 | 一种基于面部特征点的眨眼动作识别的***和方法 |
US10887525B2 (en) * | 2019-03-05 | 2021-01-05 | Sony Corporation | Delivery of notifications for feedback over visual quality of images |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5051768A (en) * | 1990-03-26 | 1991-09-24 | Polaroid Corporation | Electronic flash apparatus for reducing the incidence of human eyelid closures during exposure |
JP3350296B2 (ja) * | 1995-07-28 | 2002-11-25 | 三菱電機株式会社 | 顔画像処理装置 |
JPH10213737A (ja) | 1997-01-30 | 1998-08-11 | Sony Corp | ビデオカメラのオートフォーカス装置 |
EP1380884B1 (en) * | 1999-09-14 | 2010-09-29 | Kabushiki Kaisha Toshiba | Face image photographing apparatus and face image photographing method |
US6785469B1 (en) * | 1999-11-16 | 2004-08-31 | Olympus Corporation | Distance measuring device installed in camera |
JP4778158B2 (ja) * | 2001-05-31 | 2011-09-21 | オリンパス株式会社 | 画像選出支援装置 |
US6918093B2 (en) * | 2001-05-31 | 2005-07-12 | International Business Machines Corp. | Inheritance of background color in a containment hierarchy of objects in a graphical user interface |
JP2003107335A (ja) | 2001-09-28 | 2003-04-09 | Ricoh Co Ltd | 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム |
US7298412B2 (en) * | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
US6721499B2 (en) * | 2002-04-26 | 2004-04-13 | Nikon Corporation | Camera |
JP4063583B2 (ja) * | 2002-05-20 | 2008-03-19 | 三洋電機株式会社 | デジタルカメラ |
US7391463B2 (en) * | 2002-08-06 | 2008-06-24 | Olympus Corporation | Image sensing apparatus having distance measuring unit and control method thereof |
JP2004133637A (ja) | 2002-10-09 | 2004-04-30 | Sony Corp | 顔検出装置、顔検出方法及びプログラム、並びにロボット装置 |
JP2004294498A (ja) * | 2003-03-25 | 2004-10-21 | Fuji Photo Film Co Ltd | 自動撮影システム |
US20040207743A1 (en) * | 2003-04-15 | 2004-10-21 | Nikon Corporation | Digital camera system |
US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
JP4553346B2 (ja) | 2003-10-22 | 2010-09-29 | キヤノン株式会社 | 焦点調節装置及び焦点調節方法 |
CN100358340C (zh) * | 2005-01-05 | 2007-12-26 | 张健 | 可选择最佳拍照时机的数码相机 |
JP4591325B2 (ja) * | 2005-01-28 | 2010-12-01 | カシオ計算機株式会社 | 撮像装置及びプログラム |
DE602006009191D1 (de) * | 2005-07-26 | 2009-10-29 | Canon Kk | Bildaufnahmegerät und -verfahren |
JP2007065290A (ja) * | 2005-08-31 | 2007-03-15 | Nikon Corp | オートフォーカス装置 |
JP4127296B2 (ja) * | 2006-06-09 | 2008-07-30 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
-
2006
- 2006-06-09 JP JP2006160454A patent/JP4127296B2/ja not_active Expired - Fee Related
-
2007
- 2007-05-28 TW TW096118974A patent/TWI352870B/zh not_active IP Right Cessation
- 2007-05-31 US US11/756,067 patent/US7714927B2/en not_active Expired - Fee Related
- 2007-06-08 CN CNB2007101102286A patent/CN100533248C/zh not_active Expired - Fee Related
-
2010
- 2010-04-09 US US12/757,606 patent/US8253848B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102006407B (zh) * | 2009-09-03 | 2012-11-28 | 华晶科技股份有限公司 | 防眨眼拍摄***及方法 |
CN104867125A (zh) * | 2015-06-04 | 2015-08-26 | 北京京东尚科信息技术有限公司 | 获取图像的方法以及装置 |
CN104867125B (zh) * | 2015-06-04 | 2018-03-02 | 北京京东尚科信息技术有限公司 | 获取图像的方法以及装置 |
CN105791682A (zh) * | 2016-02-29 | 2016-07-20 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106899800A (zh) * | 2016-06-28 | 2017-06-27 | 阿里巴巴集团控股有限公司 | 相机对焦的方法、装置及移动终端设备 |
CN106899800B (zh) * | 2016-06-28 | 2020-02-14 | 阿里巴巴集团控股有限公司 | 相机对焦的方法、装置及移动终端设备 |
CN106534666A (zh) * | 2016-10-11 | 2017-03-22 | 广东欧珀移动通信有限公司 | 相位对焦方法、装置及终端设备 |
CN111886565A (zh) * | 2018-03-22 | 2020-11-03 | 国立研究开发法人科学技术振兴机构 | 处理装置、处理方法、数据处理装置、数据处理***、数据处理方法和程序 |
US11983309B2 (en) | 2018-03-22 | 2024-05-14 | Japan Science And Technology Agency | Device and method to acquire timing of blink motion performed by a dialogue device |
Also Published As
Publication number | Publication date |
---|---|
TW200815892A (en) | 2008-04-01 |
CN100533248C (zh) | 2009-08-26 |
US20100194912A1 (en) | 2010-08-05 |
US8253848B2 (en) | 2012-08-28 |
US7714927B2 (en) | 2010-05-11 |
US20070296848A1 (en) | 2007-12-27 |
TWI352870B (en) | 2011-11-21 |
JP2007328214A (ja) | 2007-12-20 |
JP4127296B2 (ja) | 2008-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100533248C (zh) | 成像设备、成像设备控制方法以及计算机程序 | |
CN103246044B (zh) | 一种自动对焦方法、***及具有该***的照相机和摄像机 | |
CN100545733C (zh) | 成像设备、成像设备的控制方法以及计算机程序 | |
CN102843509B (zh) | 图像处理装置和图像处理方法 | |
CN101281290A (zh) | 数码相机 | |
CN101621625B (zh) | 摄像设备 | |
RU2323677C2 (ru) | Чистящий робот, имеющий функцию автовозврата к зарядному устройству, и способ его использования | |
CN100587538C (zh) | 成像设备、成像设备的控制方法 | |
JP4961965B2 (ja) | 被写体追跡プログラム、被写体追跡装置、およびカメラ | |
JP2004320287A (ja) | デジタルカメラ | |
CN102017599A (zh) | 用于眼睛注视测量的方法和装置 | |
KR20070118036A (ko) | 촬상 장치와 촬상 장치 제어 방법, 및 컴퓨터 프로그램 | |
CN101494735B (zh) | 摄像装置、摄像装置控制方法 | |
CN105744152B (zh) | 被摄体追踪设备、摄像设备和被摄体追踪方法 | |
CN103905727A (zh) | 被摄体区域跟踪设备及其控制方法 | |
CN102196166A (zh) | 摄像装置及显示方法 | |
US20210068742A1 (en) | Image processing system, imaging apparatus, electronic device, methods of controlling the system, and the apparatuses, and storage medium | |
JP2012015642A (ja) | 撮像装置 | |
JP2009141475A (ja) | カメラ | |
JP2008282031A (ja) | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム | |
JP5625844B2 (ja) | 撮像方法、および撮像システム | |
CN111212226A (zh) | 对焦拍摄方法和装置 | |
JP2008072183A (ja) | 撮像装置および撮像方法 | |
CN104935807B (zh) | 摄像装置、摄像方法以及计算机可读取的记录介质 | |
JP2010066728A (ja) | 撮像装置および撮像装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090826 Termination date: 20150608 |
|
EXPY | Termination of patent right or utility model |