CN101600051A - 图像拍摄设备、图像拍摄方法和计算机程序 - Google Patents

图像拍摄设备、图像拍摄方法和计算机程序 Download PDF

Info

Publication number
CN101600051A
CN101600051A CNA2009101415561A CN200910141556A CN101600051A CN 101600051 A CN101600051 A CN 101600051A CN A2009101415561 A CNA2009101415561 A CN A2009101415561A CN 200910141556 A CN200910141556 A CN 200910141556A CN 101600051 A CN101600051 A CN 101600051A
Authority
CN
China
Prior art keywords
image
face
unit
evaluation
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2009101415561A
Other languages
English (en)
Other versions
CN101600051B (zh
Inventor
加里本誉司
森田拓磨
卜部和孝
丸山加奈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101600051A publication Critical patent/CN101600051A/zh
Application granted granted Critical
Publication of CN101600051B publication Critical patent/CN101600051B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像拍摄设备、图像拍摄方法和计算机程序。提供了一种图像拍摄设备,包括:图像拾取单元,被配置为获得图像;面部检测单元,被配置为检测包括在所述图像中的拍摄对象的面部;属性检测单元,被配置为检测所述面部的属性信息;评价单元,被配置为基于由所述属性检测单元从所述面部检测单元检测到的多个拍摄对象的面部中检测到的多个属性信息项,评价所述多个拍摄对象之间的亲密度;以及控制单元,被配置为基于所述评价单元获得的评价结果使得所述图像拾取单元拍摄所述多个拍摄对象的图像。

Description

图像拍摄设备、图像拍摄方法和计算机程序
技术领域
本发明涉及一种用于拍摄包括诸如人物的拍摄对象的图像的图像拍摄设备、图像拍摄方法和计算机程序,更具体地讲,本发明涉及一种用于根据对包括在图像中的拍摄对象中的特定模式的识别来执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
更具体地讲,本发明涉及一种用于对包括多个人物的拍摄的图像执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序,更具体地讲,本发明涉及一种用于基于多个人物的面部识别结果之间的相互关系来执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
背景技术
近年来,取代利用胶片或感光板拍摄图像的银盐相机,利用固态图像拾取器件(在其中由光电二极管实现具有执行光电转换和累积的像素阵列的光接收部分)拍摄图像,对拍摄的图像执行数字编码处理,并且保存经处理的图像的数字相机已经广泛普及。作为固态图像拾取器件,例如能够采用电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)器件。例如,CMOS传感器相对于CCD传感器的优点是:CMOS传感器的功耗较小;CMOS传感器可用单一低电压驱动;以及CMOS传感器易于与***电路集成。
银盐相机的基本相机工作与数字相机基本上相同。与拍摄的图像的数字化相结合,相机工作已经自动化。因此,即使对于不擅长操作相机的无经验用户,拍摄图像失败的可能性也显著降低。
主要的图像拍摄控制功能通常根据存在于图像帧中的至少一个拍摄对象执行处理。在过去,用户人工输入与指定重要拍摄对象相关的设置。近年来,已经引入了一种图像拍摄技术,该技术采用面部检测,诸如检测拍摄的图像中的面部,并且自动将焦点调整到检测到的面部或者自动根据检测到的面部校正图像质量。作为检测拍摄的图像中的面部的方法,例如,广泛使用一种将输入图像信号与用作模板的平均面部图像进行匹配的方法(例如,参见日本未审专利申请公报第2003-271933号(第0051-0053段,图9))。
近来,已经进行了利用对拍摄对象的图像中的诸如笑脸的特定模式的检测来确定图像拍摄定时的自动图像拍摄的研究和开发。例如,提出了一种相机,该相机确定在包括在要拍摄的图像的主要拍摄对象中的关注部分中,该主要拍摄对象是否满足预定图像拍摄条件,如果满足预定图像拍摄条件,则输出图像拍摄定时信号(例如,参见日本未审专利申请公报第2000-347278号、第2004-294498号和第2006-237803号)。用于确定图像拍摄定时的具体标准例如包括:“没有眨眼”、“眼睛正看向相机”和“微笑”,它们是拍摄人物的有吸引力图像的条件。照片修饰已进行了很长时间。将正在眨眼的人物的照片修饰为看起来该人物不在眨眼或者将没在微笑的人物的照片修饰为看起来该人物正在微笑是很困难的。这些困难是将这些条件用作确定图像拍摄定时的标准的理由之一。例如,能够基于例如指示拍摄对象的眼睛的白色部分的面积、嘴的水平长度以及嘴中的白色部分的面积的图像信息,来确定拍摄对象是否满足拍摄条件“微笑”。
已经构思了一种当两个或更多个拍摄对象包括在拍摄的图像中时,通过基于确定为“主角”的特定拍摄对象执行聚焦或图像质量校正来执行图像拍摄控制的图像拍摄控制方法。直觉上,位于拍摄的图像的中心附近的拍摄对象或者占据拍摄的图像的大部分的拍摄对象是更重要的并且可被估计为主角。例如,提出了一种面部重要度确定设备,该设备通过获取在图像信号中检测到的面部的尺寸信息和位置信息,基于该尺寸信息计算第一重要度因子,基于该位置信息计算第二重要度因子,以及基于第一和第二重要度因子计算最终的重要度,从而为摄影师更加准确地确定重要度(例如,参见日本未审专利申请公报第2007-201980号)。
另外,构思了一种当两个或更多个拍摄对象包括在拍摄的图像中时,基于拍摄对象之间的相互关系执行图像拍摄控制的图像拍摄控制方法。提出了一种图像拍摄设备,该设备例如识别多个拍摄对象的面部,基于诸如拍摄对象的面部之间的距离和拍摄对象的亮度的图像拍摄参数将拍摄对象组织成多个组,并且针对每个组设置最优图像拍摄参数,由此利用各个拍摄对象的最优图像拍摄参数来拍摄图像(例如,参见日本未审专利申请公报第2006-345254号)。
发明内容
期望提供一种能够根据对图像中包括的诸如人物的拍摄对象中的特定模式的识别,适当地执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
还期望提供一种能够对包括多个人物的拍摄的图像适当地执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
还期望提供一种能够基于多个人物的面部识别结果之间的相互关系适当地执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
根据本发明的实施例,提供了一种图像拍摄设备,包括以下部件:图像拾取单元,被配置为获得图像;面部检测单元,被配置为检测包括在所述图像中的拍摄对象的面部;属性检测单元,被配置为检测所述面部的属性信息;评价单元,被配置为基于由所述属性检测单元从所述面部检测单元检测到的多个拍摄对象的面部中检测到的多个属性信息项,评价所述多个拍摄对象之间的亲密度;以及控制单元,被配置为基于所述评价单元获得的评价结果使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
该图像拍摄设备还可以包括计算单元,该计算单元被配置为计算所述多个拍摄对象的面部的位置随着时间而变化的速度或者所述多个拍摄对象的面部的角度随着时间而变化的角速度。所述评价单元可基于所述速度或所述角速度来评价亲密度。
该评价单元可以基于所述多个拍摄对象的面部的微笑程度来评价亲密度。
该评价单元可以基于所述多个拍摄对象的面部之间的距离和所述多个拍摄对象的面部的倾度之间的差来评价亲密度。
该控制单元可以基于由该评价单元获得的评价结果对要显示在显示单元上的动画进行控制。
该评价单元可以基于所述多个拍摄对象的面部之间的距离和面部的微笑程度来评价亲密度。在由所述评价单元获得的评价结果没有达到预定状态的情况下,所述控制单元可以在所述显示单元上显示帮助所述多个拍摄对象执行缩短所述多个拍摄对象之间的距离或者增强微笑程度的操作的动画。
在由所述评价单元获得的评价结果达到预定状态并且所述控制单元控制所述图像拾取单元拍摄所述多个拍摄对象的图像的情况下,所述控制单元可以在所述显示单元上显示以视觉方式表示由所述评价单元获得的评价结果的动画。
该图像拍摄设备还可以包括人物关系确定单元,该人物关系确定单元被配置为通过对在预定的亲密度确定时段内由所述评价单元获得的评价结果执行统计处理,确定所述多个拍摄对象之间的人物关系。
该控制单元可以基于由所述人物关系确定单元确定的所述多个拍摄对象之间的人物关系向由所述图像拾取单元获得的图像添加装饰。
该图像拍摄设备还可以包括记录单元,该记录单元被配置为记录由所述人物关系确定单元确定的所述多个拍摄对象之间的人物关系,作为要添加到拍摄的图像的信息。
根据本发明的另一个实施例,提供了一种图像拍摄方法,如下步骤:使得图像拾取单元获得图像;检测包括在所述图像中的拍摄对象的面部;检测所述面部的属性信息;基于从多个拍摄对象的检测到的面部检测到的多个属性信息项,评价所述多个拍摄对象之间的亲密度;以及基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
根据本发明的另一个实施例,提供了一种其上记录有程序的计算机可读记录介质,所述程序使得计算机执行包括如下步骤的处理:使得图像拾取单元获得图像;检测包括在所述图像中的拍摄对象的面部;检测所述面部的属性信息;基于从多个拍摄对象的检测到的面部检测到的多个属性信息项,评价所述多个拍摄对象之间的亲密度;以及基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
根据本发明的另一个实施例,提供了一种图像拍摄设备,包括:图像拾取单元,被配置为获得图像;面部检测单元,被配置为检测包括在所述图像中的拍摄对象的面部;评价单元,被配置为评价由所述面部检测单元检测到的多个拍摄对象的面部的位置或角度之间的相互关系;以及控制单元,被配置为基于由所述评价单元获得的评价结果,使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
该评价单元可以通过将由所述面部的位置或角度限定的相互关系与预定位置或角度进行比较来评价所述相互关系。
该预定位置或角度可以是两个或更多个检测到的面部处于相同高度的位置或角度,或者是三个或更多个检测到的面部在一条直线上大致对齐的位置或角度。
该预定位置或角度可以是以拍摄对象的三个或更多个检测到的面部的位置作为顶点的多边形的位置或角度。
该预定位置或角度可以是两个检测到的面部面向内侧的位置或角度,或者是多个检测到的面部面向特定方向的位置或角度。
根据本发明的另一个实施例,提供了一种图像拍摄方法,包括如下步骤:使得图像拾取单元获得图像;检测包括在所述图像中的拍摄对象的面部;评价多个拍摄对象的检测到的面部的位置或角度之间的相互关系;以及基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
根据本发明的另一个实施例,提供了一种其上记录有程序的计算机可读记录介质,所述程序使得计算机执行包括如下步骤的处理:使得图像拾取单元获得图像;检测包括在所述图像中的拍摄对象的面部;评价多个拍摄对象的检测到的面部的位置或角度之间的相互关系;以及基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
根据本发明的实施例,能够提供一种能够根据对包括在图像中的诸如人物的拍摄对象中的特定模式的识别,适当地执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
根据本发明的实施例,能够提供一种能够对包括多个人物的拍摄的图像适当地执行图像拍摄控制的图像拍摄设备、图像拍摄方法和计算机程序。
当根据本发明实施例的图像拍摄设备拍摄包括多个拍摄对象的图像时,该图像拍摄设备从各个拍摄对象检测诸如微笑程度、图像帧中的位置、检测到的面部的倾度和诸如每个拍摄对象的性别的属性的多个面部识别参数,并且基于检测到的面部识别参数之间的相互关系适当地执行诸如确定快门定时和设置自身定时器的图像拍摄控制。
根据以下参照附图对示例性实施例进行的描述,本发明的其它特征和优点将变得清楚。
附图说明
图1是示出根据本发明实施例的数字静态相机的硬件结构的示意图;
图2是示意性地示出了根据本发明第一实施例的***的功能结构的图;
图3是示出图2所示的***中的基于各个拍摄对象的面部识别参数之间的相互关系执行图像拍摄控制的处理过程的流程图;
图4是示出了利用友好度计算单元的友好度计算处理过程,在该处理过程中拍摄对象之间的亲密度由称作“友好度”的评价值表示;
图5是示意性地示出了根据本发明第二实施例的***的功能结构的图;
图6A示出了可用作表示拍摄对象之间的友好度的指标的位置模式;
图6B示出了可用作表示拍摄对象之间的友好度的指标的位置模式;
图6C示出了可用作表示拍摄对象之间的友好度的指标的位置模式;
图6D示出了可用作表示拍摄对象之间的友好度的指标的位置模式;
图6E示出了可用作表示拍摄对象之间的友好度的指标的位置模式;
图7A示出了可用作表示拍摄对象之间的友好度的指标的角度模式;
图7B示出了可用作表示拍摄对象之间的友好度的指标的角度模式;
图8示出了速度计算单元以时间连续方式跟踪由面部检测单元检测到的每个拍摄对象的位置信息的方式;
图9示出了角速度计算单元以时间连续方式跟踪由面部检测单元检测到的每个拍摄对象的角度信息的方式;
图10示出了确定为具有高友好度的检测到的面部之间的相互关系的例子;
图11是示出了基于各个拍摄对象的面部识别参数之间的相互关系执行图像拍摄控制的处理过程的流程图;
图12示出了(显示在监视显示器上的)拍摄的图像中的检测到的面部的位置的坐标(x,y)、宽度w和高度h;
图13示出了(显示在监视显示器上的)拍摄的图像中的检测到的面部的倾度;
图14A示出了三角形模式的位置信息;
图14B示出了矩形模式的位置信息;
图15A示出了两个拍摄对象面向内侧的角度模式的角度信息;
图15B示出了多个拍摄对象面向特定方向的角度模式的角度信息;
图16示出了位置/角度模式的位置/角度信息;
图17示出了两个拍摄对象a和b的检测到的面部的两个位置信息项D_a(x,y)和D_b(x,y)从时刻tu-1到时刻tu进行移动的方式;
图18示出了两个拍摄对象a和b的检测到的面部的两个角度信息项A_a(roll,yaw,pitch)和A_b(roll,yaw,pitch)从时刻tu-1到时刻tu进行移动的方式;
图19是示出了友好度计算处理过程的图,在该处理过程中拍摄对象之间的亲密度由称作“友好度”的评价值表示;
图20A是示出用于基于检测到的面部A和B之间的相对距离d确定分值S1的权重m1的函数F1的特征的曲线图;
图20B是示出用于基于检测到的面部A和B之间的相对距离d确定分值S1的权重m1的函数F1的特征的曲线图;
图21A是示出用于基于检测到的面部A和B之间的相对距离d确定分值S2的权重m2的函数F2的特征的曲线图;以及
图21B是示出用于基于检测到的面部A和B之间的相对距离d确定分值S2的权重m2的函数F2的特征的曲线图。
具体实施方式
在下文中,将参照附图详细描述本发明的实施例。
图1示意性地示出了根据本发明实施例的数字静态相机1的硬件结构。图1所示的数字静态相机1包括图像拾取装置11、模拟前端(AFE)单元12和相机数字信号处理(DSP)单元16。数字静态相机1对经由光学***10输入的图像执行数字处理并且记录处理后的图像。
光学***10包括透镜,用于将从拍摄对象反射的光收集到图像拾取装置11的图像拾取面上;驱动机构,用于通过移动透镜执行聚焦和变焦;快门机构,用于通过执行开/闭操作使从拍摄对象反射的光入射在图像拾取装置11上达预定时间;和光阑机构,用于限制从拍摄对象反射的光束的方向和范围。在附图中没有示出该透镜、驱动机构、快门机构和光阑机构。驱动器10a基于来自将在以后描述的中央处理单元(CPU)29的控制信号,控制光学***10中的每个机构的驱动。也就是说,驱动器10a例如控制对拍摄对象的聚焦、光阑、快门的定时或者自身定时器的设置。
图像拾取装置11例如由CCD或CMOS器件实现。图像拾取装置11具有图像拾取面,在该图像拾取面上以二维形式排列了具有光电转换效果的像素。图像拾取装置11将从拍摄对象反射的入射光转换成电信号。例如,绿(G)网格红/蓝(RB)色(G-checkered RB-color)编码单板布置在图像拾取装置11的光接收侧。与通过各滤色片的入射光的量对应的信号电荷存储在每个像素中,并且能够基于从该像素读取的三种颜色的信号电荷的量来再现该像素位置的入射光的颜色。从图像拾取装置11输出的模拟图像信号是R、G和B颜色的原色信号。然而,该模拟图像信号可以是补色信号。
AFE单元12包括相关双采样(CDS)/自动增益控制(AGC)/模拟-数字转换(ADC)块13、定时产生器14和V驱动器15,并且例如实现为单个集成电路(IC)芯片。
CDS/AGC/ADC块13高度准确地抑制从图像拾取装置11接收的像素信号中的信号低噪声,执行相关双采样(CDS)、采样保持、用于施加适当增益控制的自动增益控制(AGC)、和模拟-数字转换(ADC),由此输出数字图像信号。
定时产生器14产生用于驱动图像拾取装置11的定时脉冲信号。V驱动器15根据定时脉冲信号输出驱动信号,从而使图像拾取装置11中的每个像素的电荷能够在垂直方向上逐行地输出。
相机DSP单元16包括相机信号处理单元17、分辨率转换器18、图像编解码处理单元19、存储控制单元20、显示控制单元21和介质控制单元22,并且例如实现为单个IC芯片。
相机信号处理单元17对从AFE单元12发送的图像信号施加诸如缺陷像素校正、数字箝位(clamping)和数字增益控制的预处理。然后,相机信号处理单元17对图像信号施加利用自动白平衡(AWB)的白平衡增益控制并且施加诸如锐度/饱和度对比度调整、闪光灯控制和消除红眼的图像质量校正,由此再现适当的颜色状态。相机信号处理单元17还执行去马赛克,以产生RGB图像信号。通过对RGB图像信号施加伽马(γ)校正,相机信号处理单元17能够将RGB图像信号转换成适于从监视器输出、被打印或者被记录的图像信息的灰度信号。
分辨率转换器18根据是作为完成图像(through image)在监视显示器25上显示并输出拍摄的图像还是在记录介质上保存拍摄的图像,对拍摄的图像的尺寸进行转换。
图像编解码处理单元19将RGB色系的图像信号转换成包括亮度分量(Y)和色度分量(Cr/Cb)的图像信号,然后对YUV色系的图像信号施加诸如联合图像专家组(JPEG)压缩或者运动图像专家组(MPEG)压缩的编码压缩处理。通过将颜色空间从RGB转换成YUV,数据压缩变得更易于进行,这是因为人眼的可见度特性对于亮度的分辨力要高于对于颜色的分辨力。
存储控制单元20控制从存储装置24读取或者向其写入诸如拍摄的图像信息的数据的存取操作,存储装置24例如由同步动态随机存取存储器(SDRAM)实现。
介质控制单元22包括用于加载诸如记忆棒
Figure A20091014155600151
的可移动记录介质26,并且从记录介质26读取或者向其写入数据。介质控制单元22例如将保持在存储装置24上的拍摄的图像文件记录到记录介质26上。
监视显示器25例如由液晶显示器(LCD)或者其它类型的薄显示面板实现。显示控制单元21控制监视显示器25的驱动,并且将从相机信号处理单元17输出的图像数据(完成图像)、保持在存储装置24上的图像数据或者从记录介质26读取并且由图像编解码处理单元19解码的图像数据转换成要显示在监视显示器25上的信号,并且将该信号输出到监视显示器25。
除了在监视显示器25上显示完成图像的情况外,根据来自以后描述的控制单元27的请求,将菜单屏幕、各种设置屏幕和各种警告信息项目进行组合,并且组合后的信息被显示并输出为“在屏显示”(OSD)。触摸传感器被设置在监视显示器25的表面上,由此,监视显示器25还用作触摸面板。由触摸面板识别的坐标与显示在监视显示器25的显示屏幕上的坐标相同。因此,摄影师能够在监视显示器25的显示屏幕上直接指定要进行微笑检测的拍摄对象或者另一个图形用户接口(GUI)组件。
相机DSP单元16经由总线接口单元(BIU)23连接到控制单元27。控制单元27包括用户接口(UI)单元28、根据用户操作来控制整个设备的全部操作的CPU 29、用作CPU 29的主存储器的随机存取存储器(RAM)30和以非易失性方式保持程序代码和设备信息的可电擦除可编程只读存储器(EEPROM)31。
CPU 29根据对在拍摄的图像(在存储装置24上形成的图像帧)中包括的图像中包括的诸如人物的拍摄对象中的特定模式的识别,执行图像拍摄控制。在本实施例中,基于在图像中识别的多个人物的面部识别结果之间的相互关系,适当地执行图像拍摄控制。将在以后详细描述图像拍摄控制。CPU 29还执行用于在监视显示器25上显示OSD的GUI处理。
UI单元28具有允许用户输入指令的操作功能和如扬声器或发光二极管(LED)灯一样的输出功能。作为操作功能,UI单元28例如具有快门键按钮和用于输入诸如打开/关闭闪光灯的各种设置的键和转盘。对应于利用这些键等输入的用户操作的控制信号被输入到CPU 29。利用输出功能,UI单元28输出诸如警告的声音或者利用LED发光或闪光,由此将关于相机工作的信息作为反馈发送给用户。闪光发光单元32根据来自控制单元27的闪光控制信息发射闪光。
在数字静态相机1中,光在图像拾取装置11中被接收并且转换成电信号。电信号接下来被提供给AFE单元12,AFE单元12对该电信号施加CDS处理和AFE处理,然后将处理后的电信号转换成数字信号。相机信号处理单元17对从AFE单元12提供的数字图像信号执行图像质量校正并且最终将图像质量校正后的数字图像信号转换成具有亮度分量(Y)和色度分量(R-Y和B-Y)的信号,并且输出该信号。从相机信号处理单元17输出的图像数据被显示控制单元21转换成要进行显示的图像信号,并且在监视显示器25上显示完成图像。
当前,具有面部识别功能的数字相机变得越来越普及。根据本实施例的数字静态相机1基于在图像中识别的多个人物的面部识别结果之间的相互关系执行图像拍摄控制。
例如,可以基于拍摄对象之间的距离来估计多个拍摄对象之间的相互关系。例如,可以想到一种通过基于与拍摄对象的排列(诸如检测到的面部之间的距离)相关的相互关系设置自身定时器,来控制快门的定时的方法。然而,拍摄对象可能碰巧彼此靠近,诸如当他们偶遇时。发明人认为仅仅通过利用检测到的面部之间的距离无法执行准确的图像拍摄控制。换言之,如果基于单个参数(即检测到的面部之间的距离)执行图像拍摄控制,则可能会在不期望的时刻释放快门,或者可能在适当的图像拍摄时刻没有释放快门。
因此,当拍摄包括多个拍摄对象的图像时,根据本发明第一实施例的数字静态相机1从各个拍摄对象中检测包括微笑程度、在图像帧中的位置、检测到的面部的倾度和诸如每个拍摄对象的性别的属性的多个面部识别参数,并且基于所检测的面部识别参数之间的相互关系执行图像拍摄控制。具体地讲,可以由基于检测到的面部之间的距离和每个面部的微笑和倾斜的程度的可被称作“友好度”的数值来表示拍摄对象之间的亲密度。如果计算出的友好度超过预定阈值,则图像拍摄控制被激活以确定快门定时,设置自身定时器,等等。
图2示意性地示出了根据本发明的第一实施例的***的功能结构。所示的***包括面部检测单元101、面部属性检测单元102、友好度计算单元103和图像拍摄确定单元104。
面部检测单元101检测待处理图像(诸如写在存储装置24上的拍摄的图像)中的面部区域。面部检测单元101输出在图像中检测到的每个拍摄对象的检测到的面部的位置(图像中的XY坐标)、检测到的面部的尺寸(宽度和高度)和检测到的面部的姿势(关于横滚(roll)、俯仰(pitch)和偏航(yaw)旋转轴的倾度),作为面部检测结果。例如,可以采用在日本未审专利申请公报第2004-133637号中描述的面部检测设备,该专利申请已经转让给本发明的受让人。
面部属性检测单元102检测由面部检测单元101在待处理图像中检测到的每个检测到的面部的属性信息。这里陈述的属性信息包括检测到的面部的微笑程度、性别、年龄和种族。面部检测单元101输出指示每个检测到的面部的这些属性信息项目的属性值。例如,面部属性检测单元102能够由目标检测设备实现,该目标检测设备可以通过利用包括采用诸如Adaboost的统计学习算法的多个确定单元的确定装置执行组合学习而获得。对于这种类型的目标检测设备的详细情况,例如请参见日本未审专利申请公报第2005-157679号,该专利申请已经转让给本发明的受让人。
友好度计算单元103基于从面部检测单元101输出的每个检测到的面部的位置、尺寸和角度信息以及从面部属性检测单元102输出的微笑程度和其它面部属性信息,执行计算以将拍摄对象之间的亲密度表示为称作“友好度”的评价值Hlove。例如,当彼此靠近的两个检测到的面部彼此面对时(即,检测到的面部的法向矢量在彼此的面部附近相交)以及当检测到的面部的微笑程度高时,确定了友好度高,由此,执行了图像拍摄控制(使用从面部属性检测单元102输出的参数来指示微笑程度)。将在以后详细描述友好度计算处理。
图像拍摄确定单元104基于从友好度计算单元103输出的指示拍摄对象之间的亲密度的评价值(即友好度Hlove)来确定拍摄对象之间的相互关系,并且确定是否激活诸如确定快门定时或者设置自身定时器的图像拍摄控制。
图3是示出图2所示的***中的基于各个拍摄对象的面部识别参数之间的相互关系执行图像拍摄控制的处理过程的流程图。
读取由面部检测单元101获得的检测到的数据(步骤S1)。确定是否检测到多个面部(步骤S2)。当检查结果为肯定时,该流程进行到执行图像拍摄确定的后续处理。
接下来,从面部属性检测单元102读取每个检测到的面部的诸如微笑程度的属性信息(步骤S3)。属性信息被输入到友好度计算单元103,并且发出针对友好度计算单元103的计算请求(步骤S4)。友好度计算单元103基于每个检测到的面部的属性信息,计算指示拍摄对象之间的亲密度的评价值,即友好度Hlove。将在以后详细描述该计算处理。
向图像拍摄确定单元104发出评价值计算请求(步骤S5)。基于从友好度计算单元103输出的友好度Hlove,图像拍摄确定单元104计算评价值H,该评价值H用于确定是否激活诸如确定快门定时或设置自身定时器的图像拍摄控制。
当评价值H超过预定阈值时(步骤S6为是),CPU 29向驱动器10a发出用于控制快门定时或自身定时器设置的指令(步骤S7)。
图4是示出了利用友好度计算单元103的友好度计算处理过程的图,在该处理过程中拍摄对象之间的亲密度由称作“友好度”的评价值表示。在图4中,为了简化描述,假定已经检测到了面部的拍摄对象是两个人A和B。
友好度计算单元103能够利用作为由面部检测单元101获得的检测结果的检测到的面部A和B的位置信息、尺寸(即宽度和高度)和角度信息(关于横滚、偏航和俯仰轴的旋转角度)、以及作为由面部属性检测单元102获得的检测结果的检测到的面部A和B的微笑程度和其它属性信息,作为输入参数。
假定检测到的面部A和B的微笑程度是从面部属性检测单元102输出的微笑程度Sa和Sb。另外,检测到的面部A和B之间的相对距离d由检测到的面部A和B彼此相距多少个面部来表示并且通过下式计算:
d = ( X a - X b ) 2 ( W a + W b ) / 2 + ( Y a - Y b ) 2 ( H a + H b ) / 2 . . . ( 1 )
另外假定检测到的面部A和B的倾度之间的差r是检测到的面部A和B的横滚轴的倾度Ra和Rb的绝对值之差(利用绝对值从而将诸如+30度和-30度的相反倾度视为相同倾度)。
r=||Ra|-|Rb||    …(2)
将各个元素i的评价值进行评分或归一化,并且利用下式对获得的分值Si求和,由此获得评价值Hlove,然后将该评价值输出到图像拍摄确定单元104。
Hlove=∑Si       …(3)
现在,将描述本发明的第二实施例。在第二实施例中,与上述的第一实施例一样,基于检测到的面部之间的距离和检测到的面部的微笑程度计算拍摄对象之间的友好度。另外,对检测到的面部的位置或角度之间的相关关系进行评价,由此执行图像拍摄控制。也就是说,评价检测到的面部的排列是否与如下的位置模式、角度模式或位置/角度模式匹配,这些模式指示:检测到的面部被排列为能够容易地拍摄具有一体感的照片或者检测到的面部被排列为暗示拍摄对象是好朋友。与友好度一起执行总体评价,并且由此,实现了确定快门定时、设置自身定时器等的准确图像拍摄控制。
图5是示意性地示出了用于在拍摄包括多个拍摄对象的图像时检测多个面部识别参数并且基于检测到的面部识别参数之间的相互关系执行图像拍摄控制的***的功能结构的图。所示的***包括面部检测单元201、面部属性检测单元202、模式检测单元203、速度计算单元204、角速度计算单元205、友好度计算单元206、和图像拍摄确定单元207。
面部检测单元201检测待处理图像(诸如写在存储装置24上的拍摄的图像)中的面部区域。面部检测单元201输出在图像中检测到的每个拍摄对象的检测到的面部的位置(图像中的XY坐标)、检测到的面部的尺寸(宽度和高度)以及检测到的面部的姿势(关于横滚、俯仰和偏航旋转轴的倾度),作为面部检测结果。这些与上面的描述相同。
面部属性检测单元202检测由面部检测单元201在待处理图像中检测到的每个检测到的面部的属性信息。这里陈述的属性信息包括检测到的面部的微笑程度、性别、年龄和种族。面部检测单元201输出指示每个检测到的面部的这些属性信息项目的属性值。这些与上面的描述相同。
模式检测单元203检测待处理图像是否与可以用来从由面部检测单元201在图像中检测到的检测到的面部的排列读取图像拍摄意图的任何模式相匹配。这里陈述的模式可被粗略地组织成检测到的面部之间的位置模式的组和检测到的面部的姿势或角度模式的组。
图6A和6B示出了能够从中读取拍摄对象的图像拍摄意图的位置模式。
如图6A所示,当两个或更多个检测到的面部位于相同高度时,能够读取拍摄对象的图像拍摄意图。因此,能够检测到执行图像拍摄控制的时刻到来。如图6B所示,当三个或更多个检测到的面部排列在一条直线上时,能够读取拍摄对象的图像拍摄意图。因此,能够检测到执行图像拍摄控制的时刻到来。可将诸如图6A和图6B所示的线性位置模式作为用于表达友好度的指标应用于包括两个、三个或更多人的一组拍摄对象。具体地讲,当通过连接拍摄对象的检测到的面部而呈现的直线为水平时,不同高度的拍摄对象可能已经自己对齐从而使他们的面部处于相同高度。因此,可以认为这些拍摄对象是特别好的朋友。
如图6C、6D和6E所示,当三个、四个或五个拍摄对象形成诸如三角形、矩形或五边形的特定几何模式并且以拍摄对象的检测到的面部为顶点时,能够读取拍摄对象的图像拍摄意图。因此,能够检测到执行图像拍摄控制的时刻到来。可将诸如图6C、6D和6E所示的多边形模式作为用于表达友好度的指标应用于包括三个或更多人的一组拍摄对象。与利用上述的线性模式相比,利用多边形模式能够更容易地拍摄具有一体感的照片。随着人数的增加,拍摄对象的位置的排列变得更加困难。因此,当形成多边形模式时,能够感觉到强烈的达成感。
图7A和图7B示出了能够从中读取拍摄对象的图像拍摄意图的角度模式。当两个检测到的面部如图7A所示面向内侧时或者当多个检测到的面部如图7B所示面向特定方向时,能够读取拍摄对象的图像拍摄意图。也就是说,能够估计出拍摄对象已经形成了亲密关系,并且由此,能够检测到执行图像拍摄控制的时刻到来。可将诸如图7A和图7B所示的角度模式作为用于表达友好度的指标应用于包括两个、三个或更多人的一组拍摄对象。当角度模式被应用于两个拍摄对象时,可以认为能够拍摄亲密的照片。当角度模式被应用于三个或更多人的组时,能够拍摄具有一体感的照片。
将这些位置模式、角度模式、以及作为排列和角度的组合的位置/角度模式例如作为模式数据存储在EEPROM 31中。通过执行几何计算等,模式检测单元203将检测到的面部的位置和姿势信息与上述的位置模式、角度模式以及位置/角度模式进行比较,以确定检测到的面部是否与这些模式中的任何一个相匹配并且输出该结果作为模式评价值Hpattern。将在以后详细描述模式检测处理。
速度计算单元204和角速度计算单元205检测各个检测到的面部的位置的时间连续变化和姿势的时间连续变化是否与能够读取出拍摄对象的图像拍摄意图的模式中的任何一个相匹配。速度计算单元204在时间上连续跟踪由面部检测单元201检测到的每个拍摄对象的位置信息。如图8所示,速度计算单元204连续测量检测到的面部之间的距离。当检测到的面部变得最靠近彼此时,能够检测到拍摄对象的图像拍摄意图。如图9所示,角速度计算单元205连续检测每个拍摄对象的角度。例如,当每个检测到的面部的倾度变得接近向内的角度时,能够检测到拍摄对象的图像拍摄意图。将在以后详细描述由速度计算单元204和角速度计算单元205执行的计算处理。
友好度计算单元206基于从面部检测单元201输出的每个检测到的面部的位置、尺寸和角度信息以及从面部属性检测单元202输出的微笑程度和其它面部属性信息,执行计算以将拍摄对象之间的亲密度表示为称作“友好度”的评价值Hlove。例如,如图10所示,当彼此靠近的两个检测到的面部彼此面对(即,检测到的面部的法向矢量在彼此的面部附近相交)时以及当检测到的面部的微笑程度高时,确定友好度为高,并且由此执行图像拍摄控制(使用从面部属性检测单元202输出的参数来指示微笑程度)。将在以后详细描述友好度计算处理。
图像拍摄确定单元207基于从模式检测单元203获得的指示多个检测到的面部的相互关系与期望位置模式或角度模式(见图6A到图7B)的匹配程度的评价值Hpattern以及从友好度计算单元206输出的指示拍摄对象之间的亲密度的评价值(即友好度Hlove),对拍摄对象之间的相互关系进行总体确定,由此确定是否激活诸如确定快门定时或设置自身定时器的图像拍摄控制。
图11是示出图5所示的***中的基于各个拍摄对象的面部识别参数之间的相互关系来执行图像拍摄控制的处理过程的流程图。
读取由面部检测单元201获得的检测到的数据(步骤S11)。确定是否检测到多个面部(步骤S12)。当检查结果为肯定时,流程进行到用于执行图像拍摄确定的后续处理。
向模式检测单元203发出模式检测请求(步骤S13)。当模式检测单元203获得由面部检测单元201获得的检测到的面部数据时,模式检测单元203通过将检测到的面部的相互关系与期望位置模式或角度模式(见图6A到图7B)进行比较,来确定该相互关系是否与期望位置模式或角度模式中的任何一个相匹配。当检测到的面部之间的相互关系与期望位置模式或角度模式中的任何一个匹配时(步骤S14为是),指示匹配程度的评价值Hpattern被输出到图像拍摄确定单元207(步骤S15)。将在以后详细描述由模式检测单元203执行的计算处理。
接下来,向速度计算单元204发出计算请求(步骤S16)。将在以后详细描述由速度计算单元204执行的计算处理。
接下来,向角速度计算单元205发出计算请求(步骤S17)。将在以后详细描述由角速度计算单元205执行的计算处理。
接下来,从面部属性检测单元202读取每个检测到的面部的诸如微笑程度的属性信息(步骤S18)。属性信息被输入到友好度计算单元206,并且向友好度计算单元206发出计算请求(步骤S19)。友好度计算单元206基于每个检测到的面部的属性信息计算指示拍摄对象之间的亲密度的评价值,即友好度Hlove。将在以后详细描述该计算处理。
向图像拍摄确定单元207发出评价值计算请求(步骤S20)。图像拍摄确定单元207基于从模式检测单元203输出的指示与位置模式、角度模式或位置/角度模式的匹配程度的评价值Hpattern和从友好度计算单元206输出的友好度Hlove,确定是否激活诸如确定快门定时或者设置自身定时器的图像拍摄控制。
当评价值H超过预定阈值时(步骤S21为是),CPU 29向驱动器10a发出用于控制快门定时或自身定时器设置的指令(步骤S22)。
在下文中,将详细描述由模式检测单元203、速度计算单元204、角速度计算单元205、友好度计算单元206和图像拍摄确定单元207执行的计算处理。
在下面的描述中,如图12所示定义(显示在监视显示器25上的)拍摄的图像中的检测到的面部的位置坐标(x,y)、宽度w和高度h。另外,如图13所示,检测到的面部的角度(倾度)包括关于三个轴(即横滚、偏航和俯仰)的旋转。第n个检测到的面部的位置被写为D_n(x,y),并且其旋转角度被写为A_n(roll,yaw,pitch)。
位置模式确定处理:
利用模式检测单元203,根据在图11所示的流程图的步骤S13中进行的模式检测请求,执行位置模式确定处理。
(1)从面部检测单元201获得n个(n>1)检测到的面部的位置信息项D_n(其中,n是指示用作拍摄对象的人的识别编号)。
(2)从诸如EEPROM 31的存储位置获得要进行确定的位置模式信息。在下面的描述中,假定获得了p个(p≥1)位置模式信息项。每个位置模式信息项包括针对每个模式编号的指示各面部编号的坐标位置(x,y)的位置信息Ppos_pattern_no(x,y)和针对每个模式编号的评价值Pval_pattern。已经描述了多边形模式使得拍摄具有一体感的照片更加容易这一事实。图14A和14B分别示出了三角形模式的位置信息和矩形模式的位置信息。
(3)将下面的评价函数Hpos计算p次(也就是说,针对各个位置模式信息项进行计算)。
Hpos(D_1,D_2,…,D_n,Ppos_p,Pval_p)    …(4)
在上述的评价函数Hpos中,通过执行比较来计算输入的检测到的面部的位置D_1、...、D_n是否与位置模式信息Ppos_p匹配。当确定位置信息项D_n与位置模式信息Ppos_p匹配时,返回评价值Ppos_p。当确定位置信息项D_n与位置模式信息Ppos_p不匹配时,返回零。
角度模式确定处理:
利用模式检测单元203,根据在图11所示的流程图的步骤S13中进行的模式检测请求,执行角度模式确定处理。
(1)从面部检测单元201获得n(n>1)个检测到的面部的角度信息项A_n(其中,n是指示用作拍摄对象的人的识别编号)。
(2)从诸如EEPROM 31的存储位置获得要进行确定的角度模式信息。在下面的描述中,假定获得了p个(p≥1)角度模式信息项。每个角度模式信息项包括针对每个模式编号的指示每个面部编号的关于横滚、偏航和俯仰轴的旋转角度(roll,yaw,pitch)的角度信息Pangle_pattern_no(roll,yaw,pitch)以及针对每个模式编号的评价值Pval_pattern。已经描述了如下事实:如图7A所示指示两个拍摄对象面向内侧或者如图7B所示多个拍摄对象面向特定方向的角度模式使得拍摄具有一体感的照片更加容易。图15A和15B分别示出了两个拍摄对象面向内侧的角度模式的角度信息和多个拍摄对象面向特定方向的角度模式的角度信息。
(3)将下面的评价函数Hangle计算p次(也就是说,针对各个角度模式信息项进行计算)。
Hangle(A_1,A_2,…,A_n,Pangle_q,Pval_q)    …(5)
在上述的评价函数Hangle中,通过执行比较来计算输入的检测到的面部的角度A_1、...、A_n是否与角度模式信息Pangle_q相匹配。当确定角度信息项A_n与角度模式信息Pangel_q相匹配时,返回评价值Pval_q。当确定角度信息项A_n不与角度模式信息Pangle_q匹配时,返回零。
位置/角度模式确定处理:
利用模式检测单元203,根据在图11所示的流程图的步骤S13中进行的模式检测请求,执行位置/角度模式确定处理。
(1)从面部检测单元201获得n个(n>1)检测到的面部的位置信息项。
(2)从诸如EEPROM 31的存储位置获得要进行确定的位置/角度模式信息。在下面的描述中,假定获得了p个(p≥1)位置/角度模式信息项。每个位置/角度模式信息项包括针对每个模式编号的指示每个面部编号的坐标位置和角度位置(x,y,roll,yaw,pitch)的位置/角度信息Ppos&angle_pattern_no(x,y,roll,yaw,pitch)和针对每个模式编号的评价值Pval_pattern。图16示出了考虑到能够使拍摄具有一体感的照片更加容易的位置/角度模式的位置/角度信息。
(3)将下面的评价函数Hpos&angle计算r次(也就是说,针对各个位置/角度模式信息项进行计算)。
Hpos&angle(D_1,A_1,D_2,A_2,…,D_n,A_n,Ppos_angle_r,Pval_r)
…(6)
在上述的评价函数Hpos&angle中,通过执行比较来计算输入的检测到的面部的位置D_1、...、D_n和角度A_1、...、A_n是否与位置/角度模式信息Ppos&angle_p匹配。当确定位置/角度信息项D_n和A_n与位置/角度模式信息Ppos&angle_p匹配时,返回评价值Pval_q。当确定位置/角度信息项D_n和A_n不与位置/角度模式信息Ppos&angle_p匹配时,返回零。
模式确定处理:
利用模式检测单元203,根据在图11所示的流程图的步骤S13中进行的模式检测请求,基于上述的位置模式确定处理、角度模式确定处理和位置/角度模式确定处理的结果,执行模式确定处理。具体地讲,如下式所示,计算包括各模式确定处理的评价值Hpos、Hangle和Hpos&angel之和的模式评价值Hpattern并且将模式评价值Hpattern输出给图像拍摄确定单元207。
速度计算处理:
利用速度计算单元204,根据在图11所示的流程图的步骤S16中进行的计算请求,执行速度计算处理。该速度计算处理确定各个检测到的面部的位置的时间连续变化是否与能够从中读取拍摄对象的图像拍摄意图的任何一个模式相匹配。
(1)从面部检测单元201获得在时刻tu-1的检测到的面部的位置信息项D_n(其中,n是指示用作拍摄对象的人物的识别编号)。
(2)计算每个检测到的面部的移动速度。
图17示出了两个拍摄对象a和b的检测到的面部的两个位置信息项D_a(x,y)和D_b(x,y)从时刻tu-1到时刻tu进行移动的方式。利用下式计算在这种情况下的检测到的面部的移动速度(X′a,Y′a)和(X′b,Y′b)。
X ′ a Y ′ a = dD _ a dt = dx dt dy dt = xa t u - xa t un - 1 t u - t u - 1 ya t u - ya t u - 1 t u - t u - 1
X ′ b Y ′ b = dD _ b dt = dx dt dy dt = xb t u - xb t u - 1 t u - t u - 1 yb t u - yb t u - 1 t u - t u - 1 · · · ( 8 )
角速度计算处理:
利用角速度计算单元205,根据在图11所示的流程图的步骤S17中进行的计算请求,执行角速度计算处理。该角速度计算处理确定各个检测到的面部的角度的时间连续变化是否与能够从中读取拍摄对象的图像拍摄意图的任何一个模式相匹配。
(1)从面部检测单元201获得在时刻tu-1的检测到的面部的角度信息项A_n(其中,n是指示用作拍摄对象的人物的识别编号)。
(2)计算每个检测到的面部的角速度。
图18示出了两个拍摄对象a和b的检测到的面部的两个角度信息项A_a(roll,yaw,pitch)和A_b(roll,yaw,pitch)从时刻tu-1到时刻tu进行移动的方式。利用下式计算这种情况下的检测到的面部的角速度(θroll′a,θyaw′a,θpitch′a)和(θroll′b,θyaw′b,θpitch′b)。
θ x ′ ′ a θ y ′ ′ a θ z ′ ′ a = dA _ a dt = dθ x a dt dθ y a dt dθ z a dt = rolla t u - rolla t u - 1 t u - t u - 1 yawa t u - yawa t u - 1 t u - t u - 1 pitcha t u - pitcha t u - 1 t u - t u - 1
θ x ′ ′ b θ y ′ ′ b θ z ′ ′ b = dA _ b dt = dθ x b dt dθ y b dt dθ z b dt = rollb t u - rollb t u - 1 t u - t u - 1 yawb t u - yawb t u - 1 t u - t u - 1 pitchb t u - pitchb t u - 1 t u - t u - 1 · · · ( 9 )
友好度计算处理:
利用友好度计算单元206,根据在图11所示的流程图的步骤S19中进行的计算请求,执行友好度计算处理。
图19是示出了利用友好度计算单元206的友好度计算处理过程的图,在该处理过程中拍摄对象之间的亲密度由称作“友好度”的评价值表示。在图19中,为了简化描述,假定已经检测到面部的拍摄对象是两个人A和B。
友好度计算单元206可利用以下参数作为输入参数:作为由面部检测单元101获得的检测结果的检测到的面部A和B的位置信息、尺寸(即,宽度和高度)以及角度信息(关于横滚、偏航和俯仰轴的旋转角度)、作为由速度计算单元204获得的计算结果的检测到的面部A和B的速度信息项、作为由角速度计算单元205获得的计算结果的检测到的面部A和B的角速度信息项(关于横滚、偏航和俯仰轴的角速度)和作为由面部属性检测单元102获得的检测结果的检测到的面部A和B的微笑程度和其它属性信息。
在本实施例中,假定拍摄对象的检测到的面部A和B之间的相对距离d、检测到的面部A和B的倾度之间的差r以及检测到的面部A和B的微笑程度Sa和Sb是用于确定友好度的元素。另外,将权重系数mi分配给每个元素i。为了确定或计算每个元素i以及计算每个元素i的权重系数mi,对上述输入参数进行分类。
假定检测到的面部A和B的微笑程度是从面部属性检测单元202输出的微笑程度Sa和Sb。另外,检测到的面部A和B之间的相对距离d被表示为检测到的面部A和B彼此相距多少个面部并且通过下式进行计算。
d = ( X a - X b ) 2 ( W a + W b ) / 2 + ( Y a - Y b ) 2 ( H a + H b ) / 2 · · · ( 10 )
另外假定检测到的面部A和B的倾度之间的差r是检测到的面部A和B的横滚轴Ra和Rb的倾度的绝对值之间的差(为了将诸如+30度和-30度的相反倾度视为相同倾度,利用绝对值)。
r=||Ra|-|Rb||    …(11)
对各个元素i的评价值进行评分或归一化,并且利用各个权重系数mi根据下式对获得的分值求和,由此获得评价值Hlove,该评价值Hlove然后被输出到图像拍摄确定单元204。
Hlove=∑miSi    …(12)
现在,将描述计算与每个元素i的分值Si进行相乘的系数mi的方法。
可以如下式所示,基于以检测到的面部A和B的移动速度为变量的函数F1和以检测到的面部A和B的(除了微笑程度以外的)属性信息为变量的函数G,确定基于检测到的面部A和B之间的相对距离d的分数S1的权重m1。能够从速度计算单元204获得检测到的面部的移动速度。
m1=F1(X′a,Y′a,X′b,Y′b)×G(Aa,Ab)    …(13)
这里,如图20A或20B所示,函数F1是具有如下特征的函数:随着检测到的面部A和B的移动速度之和V1(见下式)变大,函数F1变小。当V1相对较小时,也就是说,当检测到的面部A和B的位置变化不缓和时,即使检测到的面部A和B之间的距离小,仍能够执行控制从而不增大友好度Hlove
V 1 = X a ′ 2 + Y a ′ 2 + X b ′ 2 + Y b ′ 2 · · · ( 14 )
如下面的表1所示,当检测到的面部A和B的属性信息Aa和Ab例如被按性别和年龄(成人和儿童)进行划分时,能够利用对应于属性信息Aa和Ab的组合的G的值。能够利用各种方法设置表1中的各栏的值。例如,当摄影师得到当两个男性成人没有非常靠近彼此时就能够拍摄他们的良好照片的暗示时,如果检测到两个男性成人的面部,则增大权重m1,由此即使当男性成人没有非常靠近彼此时仍允许释放快门。
表1
如下式所示,能够基于以检测到的面部A和B的角速度为变量的函数F2确定基于检测到的面部A和B的倾度之间的差的分数S2的权重m2。能够从角速度计算单元205获得检测到的面部的角速度。
m 2 = F 2 ( θ roll a ′ , θ yaw a ′ , θ pitch a ′ , θ roll b ′ , θ yaw b ′ , θ pitch b ′ ) · · · ( 15 )
这里,如图21A或21B所示,函数F2是具有如下特征的函数:随着检测到的面部A和B的角速度的绝对值之和V2(见下式)变大,函数F2变小。当V2相对较小时,也就是说,当检测到的面部A和B的倾度变化不缓和时,即使检测到的面部A和B之间的距离小,仍能够执行控制从而不增大友好度Hlove
V 2 = | θ roll a ′ | + | θ yaw a ′ | + | θ pitch a ′ | + | θ roll b ′ | + | θ yaw b ′ | + | θ pitch b ′ | · · · ( 16 )
能够基于以检测到的面部A和B的除了微笑程度以外的诸如性别和年龄的属性信息Aa和Ab为变量的函数F3确定基于检测到的面部A和B的微笑程度的分值Sa和Sb的权重m3和m4
m3(或m4)=F3(Aa,Ab)    …(17)
这里,能够参照下表实现函数F3
表2
Figure A20091014155600321
当儿童的微笑被着重加权时,仅在儿童的情况下增大m3的值。当摄影师利用统计方法得到“男性微笑的频率低于女性”的暗示时以及当摄影师考虑该暗示时,如果检测到的面部A是男性的面部时,则权重m3的值被增大为大于女性的权重m3的值。
如在式(12)中,友好度计算单元206利用各个权重系数mi对获得的分值Si进行加权计算,并且将获得的评价值Hlove作为评价值输出到图像拍摄确定单元204。图像拍摄确定单元207利用下式基于从模式检测单元203获得的指示与位置模式、角度模式或位置/角度模式的匹配程度的评价值Hpattern和从友好度计算单元206输出的友好度Hlove,获得评价值H。
H=αHpattern+βHlove    …(18)
在上式中,α和β是权重系数。例如,可以根据图像拍摄模式来控制权重系数α和β。例如,可以根据Hpattern、Hlove、检测到的面部的属性信息参数和图像拍摄模式(对拍摄对象的排列进行着重加权的图像拍摄模式或对诸如微笑程度的拍摄对象的属性进行着重加权的图像拍摄模式),控制评价值H的确定阈值,省略了对它的描述。
如果评价值H超过预定阈值,则图像拍摄确定单元207确定是否激活诸如确定快门定时或设置自身定时器的图像拍摄控制。
已经参照特定实施例详细描述了本发明。然而,清楚的是,在不脱离本发明的主旨的情况下,本领域技术人员能够对这些实施例进行修改或替换。
在本说明书中,主要描述了应用于数字相机的实施例。然而,本发明的主旨不限于此。例如,本发明能够相似地应用于诸如具有拍摄静态图像的功能的数字摄像机、具有数字相机功能的蜂窝电话或个人数字助理(PDA)、笔记本计算机以及外部连接到数字相机的计算机的各种信息装置。
简而言之,已经通过例子公开了本发明,本说明书中的公开不应被解释为限制。应该基于权利要求部分来确定本发明的主旨。
本申请包含与于2008年6月6日提交到日本专利局的日本在先专利申请JP 2008-148841中公开的主题相关的主题,通过引用将该专利申请的全部内容纳入于此。
本领域技术人员应该明白,可以根据设计需要和其它因素想到各种变型、组合、子组合和替代,只要它们位于权利要求及其等同物的范围内即可。

Claims (19)

1.一种图像拍摄设备,包括:
图像拾取单元,被配置为获得图像;
面部检测单元,被配置为检测包括在所述图像中的拍摄对象的面部;
属性检测单元,被配置为检测所述面部的属性信息;
评价单元,被配置为基于由所述属性检测单元从所述面部检测单元检测到的多个拍摄对象的面部中检测到的多个属性信息,评价所述多个拍摄对象之间的亲密度;以及
控制单元,被配置为基于所述评价单元获得的评价结果使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
2.如权利要求1所述的图像拍摄设备,还包括计算单元,该计算单元被配置为计算所述多个拍摄对象的面部的位置随着时间而变化的速度或者所述多个拍摄对象的面部的角度随着时间而变化的角速度,
其中,所述评价单元基于所述速度或所述角速度来评价亲密度。
3.如权利要求1所述的图像拍摄设备,其中,所述评价单元基于所述多个拍摄对象的面部的微笑程度来评价亲密度。
4.如权利要求1所述的图像拍摄设备,其中,所述评价单元基于所述多个拍摄对象的面部之间的距离和所述多个拍摄对象的面部的倾度之间的差来评价亲密度。
5.如权利要求1所述的图像拍摄设备,其中,所述控制单元基于由所述评价单元获得的评价结果对要在显示单元上显示的动画进行控制。
6.如权利要求5所述的图像拍摄设备,其中,所述评价单元基于所述多个拍摄对象的面部之间的距离和面部的微笑程度来评价亲密度,并且
其中,在由所述评价单元获得的评价结果没有达到预定状态的情况下,所述控制单元在所述显示单元上显示用以帮助所述多个拍摄对象执行缩短所述多个拍摄对象之间的距离或者增强微笑程度的操作的动画。
7.如权利要求5所述的图像拍摄设备,其中,在由所述评价单元获得的评价结果达到预定状态并且所述控制单元控制所述图像拾取单元拍摄所述多个拍摄对象的图像的情况下,所述控制单元在所述显示单元上显示以视觉方式表示由所述评价单元获得的评价结果的动画。
8.如权利要求5所述的图像拍摄设备,还包括人物关系确定单元,该人物关系确定单元被配置为通过对在预定的亲密度确定时段内由所述评价单元获得的评价结果执行统计处理,确定所述多个拍摄对象之间的人物关系。
9.如权利要求8所述的图像拍摄设备,其中,所述控制单元基于由所述人物关系确定单元确定的所述多个拍摄对象之间的人物关系向由所述图像拾取单元获得的图像添加装饰。
10.如权利要求8所述的图像拍摄设备,还包括记录单元,该记录单元被配置为记录由所述人物关系确定单元确定的所述多个拍摄对象之间的人物关系,作为要添加到拍摄的图像中的信息。
11.一种图像拍摄方法,包括如下步骤:
图像拾取步骤,使得图像拾取单元获得图像;
面部检测步骤,检测包括在所述图像中的拍摄对象的面部;
属性检测步骤,检测所述面部的属性信息;
评价步骤,基于从多个拍摄对象的检测到的面部检测到的多个属性信息,评价所述多个拍摄对象之间的亲密度;以及
控制步骤,基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
12.一种其上记录有程序的计算机可读记录介质,所述程序使得计算机执行包括如下步骤的处理:
图像拾取步骤,使得图像拾取单元获得图像;
面部检测步骤,检测包括在所述图像中的拍摄对象的面部;
属性检测步骤,检测所述面部的属性信息;
评价步骤,基于从多个拍摄对象的检测到的面部检测到的多个属性信息,评价所述多个拍摄对象之间的亲密度;以及
控制步骤,基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
13.一种图像拍摄设备,包括:
图像拾取单元,被配置为获得图像;
面部检测单元,被配置为检测包括在所述图像中的拍摄对象的面部;
评价单元,被配置为评价由所述面部检测单元检测到的多个拍摄对象的面部的位置之间或角度之间的相互关系;以及
控制单元,被配置为基于由所述评价单元获得的评价结果,使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
14.如权利要求13所述的图像拍摄设备,其中,所述评价单元通过将由多个所述面部的位置或角度限定的相互关系与预定位置或角度进行比较来评价所述相互关系。
15.如权利要求13所述的图像拍摄设备,其中,所述预定位置或角度是两个或更多个检测到的面部处于相同高度的位置或角度,或者是三个或更多个检测到的面部在一条直线上大致对齐的位置或角度。
16.如权利要求13所述的图像拍摄设备,其中,所述预定位置或角度是以三个或更多个检测到的拍摄对象的面部的位置作为顶点的多边形的位置或角度。
17.如权利要求13所述的图像拍摄设备,其中,所述预定位置或角度是两个检测到的面部面向内侧的位置或角度,或者是多个检测到的面部面向特定方向的位置或角度。
18.一种图像拍摄方法,包括如下步骤:
图像拾取步骤,使得图像拾取单元获得图像;
面部检测步骤,检测包括在所述图像中的拍摄对象的面部;
评价步骤,评价多个拍摄对象的检测到的面部的位置或角度之间的相互关系;以及
控制步骤,基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
19.一种其上记录有程序的计算机可读记录介质,所述程序使得计算机执行包括如下步骤的处理:
图像拾取步骤,使得图像拾取单元获得图像;
面部检测步骤,检测包括在所述图像中的拍摄对象的面部;
评价步骤,评价多个拍摄对象的检测到的面部的位置或角度之间的相互关系;以及
控制步骤,基于在评价步骤中获得的评价结果,执行控制以使得所述图像拾取单元拍摄所述多个拍摄对象的图像。
CN2009101415561A 2008-06-06 2009-06-04 图像拍摄设备和图像拍摄方法 Expired - Fee Related CN101600051B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008148841 2008-06-06
JP2008148841 2008-06-06
JP2008-148841 2008-06-06

Publications (2)

Publication Number Publication Date
CN101600051A true CN101600051A (zh) 2009-12-09
CN101600051B CN101600051B (zh) 2011-07-13

Family

ID=41400378

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101415561A Expired - Fee Related CN101600051B (zh) 2008-06-06 2009-06-04 图像拍摄设备和图像拍摄方法

Country Status (3)

Country Link
US (1) US8467581B2 (zh)
JP (1) JP5251547B2 (zh)
CN (1) CN101600051B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158649A (zh) * 2010-02-01 2011-08-17 奥林巴斯映像株式会社 摄影设备和该摄影设备的摄影方法
CN102843463A (zh) * 2012-08-02 2012-12-26 广东欧珀移动通信有限公司 一种新拍照互动方法及移动智能终端
CN102855552A (zh) * 2011-06-13 2013-01-02 索尼公司 信息处理设备、信息处理方法和程序
CN102855269A (zh) * 2011-06-13 2013-01-02 索尼公司 内容提取装置、内容提取方法和程序
CN103024274A (zh) * 2012-12-17 2013-04-03 东莞宇龙通信科技有限公司 一种相机主体间距检测拍照方法和***
CN103139471A (zh) * 2011-11-24 2013-06-05 三星电子株式会社 数字拍摄设备及其控制方法
CN103581548A (zh) * 2012-07-24 2014-02-12 奥林巴斯映像株式会社 摄影设备
CN105721778A (zh) * 2016-03-25 2016-06-29 宇龙计算机通信科技(深圳)有限公司 拍摄数据的处理方法、拍摄数据的处理装置和终端
CN105979134A (zh) * 2015-01-30 2016-09-28 佳能株式会社 图像处理装置、图像处理方法和图像处理***
CN106165391A (zh) * 2014-05-21 2016-11-23 谷歌技术控股有限责任公司 增强的图像捕获
CN106846103A (zh) * 2017-01-11 2017-06-13 美的集团股份有限公司 家电设备的购买推荐方法和装置
CN107103593A (zh) * 2017-04-26 2017-08-29 广东小天才科技有限公司 图片拍摄优化方法及装置
WO2017215133A1 (zh) * 2016-06-15 2017-12-21 北京小米移动软件有限公司 拍照提示方法及装置
CN107851324A (zh) * 2015-07-28 2018-03-27 索尼公司 信息处理***、信息处理方法和记录介质
CN109492515A (zh) * 2017-09-13 2019-03-19 富士施乐株式会社 信息处理装置、图像文件的数据结构以及计算机可读介质
CN109740510A (zh) * 2018-12-29 2019-05-10 三星电子(中国)研发中心 用于输出信息的方法和装置
CN110059530A (zh) * 2017-12-11 2019-07-26 欧姆龙株式会社 面部位置检测装置
CN111294507A (zh) * 2018-12-07 2020-06-16 瑞萨电子株式会社 拍摄控制装置、拍摄***和拍摄控制方法
CN112200023A (zh) * 2020-09-24 2021-01-08 上海新氦类脑智能科技有限公司 基于人***互智能图像采集与互动方法、***、终端以及介质
US11019252B2 (en) 2014-05-21 2021-05-25 Google Technology Holdings LLC Enhanced image capture

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090324127A1 (en) * 2008-06-30 2009-12-31 Madhukar Budagavi Method and System for Automatic Red-Eye Correction
JP5195120B2 (ja) * 2008-07-25 2013-05-08 株式会社ニコン デジタルカメラ
JP5208617B2 (ja) * 2008-08-11 2013-06-12 オリンパス株式会社 画像処理装置および画像処理プログラム
JP2010177894A (ja) * 2009-01-28 2010-08-12 Sony Corp 撮像装置、画像管理装置及び画像管理方法、並びにコンピューター・プログラム
US8908976B2 (en) 2010-05-26 2014-12-09 Panasonic Intellectual Property Corporation Of America Image information processing apparatus
WO2012002047A1 (ja) * 2010-06-30 2012-01-05 Necソフト株式会社 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP2013003631A (ja) 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法、情報処理システム、及びプログラム
CN102831430B (zh) * 2011-06-14 2015-02-04 华晶科技股份有限公司 拍照时间点的预测方法及采用所述拍照时间点的预测方法的装置
TWI423150B (zh) * 2011-06-14 2014-01-11 Altek Corp 拍照時間點之預測方法
US9036069B2 (en) * 2012-02-06 2015-05-19 Qualcomm Incorporated Method and apparatus for unattended image capture
JP2013239074A (ja) * 2012-05-16 2013-11-28 Sony Corp 情報処理装置および情報処理方法、並びにプログラム
KR20150097632A (ko) * 2012-12-15 2015-08-26 고쿠리츠다이가쿠호진 토쿄고교 다이가꾸 인간의 심적 상태의 평가 장치
JP5663652B2 (ja) * 2013-12-03 2015-02-04 オリンパスイメージング株式会社 被写体状況判定方法
EP3073448A1 (en) * 2015-03-23 2016-09-28 Continental Automotive GmbH Vehicle control apparatus and vehicle control method
WO2017064891A1 (ja) 2015-10-13 2017-04-20 ソニー株式会社 情報処理システム、情報処理方法、および記憶媒体
JP6533481B2 (ja) * 2016-03-16 2019-06-19 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US11367306B1 (en) * 2020-06-23 2022-06-21 Amazon Technologies, Inc. System to determine user engagement with autonomous mobile device
EP4179282A4 (en) * 2020-07-08 2023-05-31 Charles University RENDERING PROCESS AND SYSTEM

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347278A (ja) 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd カメラ及び撮影方法
US7248300B1 (en) * 1999-06-03 2007-07-24 Fujifilm Corporation Camera and method of photographing good image
DE60013717T2 (de) * 1999-09-14 2005-09-29 Kabushiki Kaisha Toshiba, Kawasaki Vorrichtung und Verfahren zur Portrait Photographie
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
JP2003271933A (ja) 2002-03-18 2003-09-26 Sony Corp 顔検出装置及び顔検出方法並びにロボット装置
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
JP4427714B2 (ja) * 2002-09-13 2010-03-10 ソニー株式会社 画像認識装置、画像認識処理方法および画像認識プログラム
JP2004294498A (ja) 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 自動撮影システム
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
EP1628465A1 (en) * 2004-08-16 2006-02-22 Canon Kabushiki Kaisha Image capture apparatus and control method therefor
JP4970716B2 (ja) * 2004-09-01 2012-07-11 株式会社ニコン 電子カメラ
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2006237803A (ja) 2005-02-23 2006-09-07 Konica Minolta Photo Imaging Inc 撮像システム、写真撮影スタジオ、撮像システムの制御方法
JP4574459B2 (ja) 2005-06-09 2010-11-04 キヤノン株式会社 撮影装置及びその制御方法及びプログラム及び記憶媒体
JP2007041964A (ja) * 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP4422667B2 (ja) * 2005-10-18 2010-02-24 富士フイルム株式会社 撮影装置および撮影方法
JP4665780B2 (ja) * 2006-01-30 2011-04-06 ソニー株式会社 顔重要度判定装置、方法、および撮像装置
JP4197019B2 (ja) * 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置
JP4201809B2 (ja) * 2006-11-13 2008-12-24 三洋電機株式会社 手ぶれ補正装置及び方法並びに撮像装置
JP4656331B2 (ja) * 2006-12-27 2011-03-23 富士フイルム株式会社 撮像装置および撮像方法
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP4904243B2 (ja) * 2007-10-17 2012-03-28 富士フイルム株式会社 撮像装置及び撮像制御方法
JP4944055B2 (ja) * 2008-03-19 2012-05-30 富士フイルム株式会社 撮像装置及び撮像制御方法

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158649A (zh) * 2010-02-01 2011-08-17 奥林巴斯映像株式会社 摄影设备和该摄影设备的摄影方法
CN102855552A (zh) * 2011-06-13 2013-01-02 索尼公司 信息处理设备、信息处理方法和程序
CN102855269A (zh) * 2011-06-13 2013-01-02 索尼公司 内容提取装置、内容提取方法和程序
CN103139471A (zh) * 2011-11-24 2013-06-05 三星电子株式会社 数字拍摄设备及其控制方法
CN103581548A (zh) * 2012-07-24 2014-02-12 奥林巴斯映像株式会社 摄影设备
CN102843463A (zh) * 2012-08-02 2012-12-26 广东欧珀移动通信有限公司 一种新拍照互动方法及移动智能终端
CN102843463B (zh) * 2012-08-02 2015-06-24 广东欧珀移动通信有限公司 一种新拍照互动方法及移动智能终端
CN103024274A (zh) * 2012-12-17 2013-04-03 东莞宇龙通信科技有限公司 一种相机主体间距检测拍照方法和***
US11943532B2 (en) 2014-05-21 2024-03-26 Google Technology Holdings LLC Enhanced image capture
US11575829B2 (en) 2014-05-21 2023-02-07 Google Llc Enhanced image capture
CN106165391A (zh) * 2014-05-21 2016-11-23 谷歌技术控股有限责任公司 增强的图像捕获
US11290639B2 (en) 2014-05-21 2022-03-29 Google Llc Enhanced image capture
US11019252B2 (en) 2014-05-21 2021-05-25 Google Technology Holdings LLC Enhanced image capture
CN105979134B (zh) * 2015-01-30 2020-07-14 佳能株式会社 图像处理装置、图像处理方法和图像处理***
US10070047B2 (en) 2015-01-30 2018-09-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing system
CN105979134A (zh) * 2015-01-30 2016-09-28 佳能株式会社 图像处理装置、图像处理方法和图像处理***
CN107851324A (zh) * 2015-07-28 2018-03-27 索尼公司 信息处理***、信息处理方法和记录介质
CN107851324B (zh) * 2015-07-28 2022-12-20 索尼公司 信息处理***、信息处理方法和记录介质
CN105721778A (zh) * 2016-03-25 2016-06-29 宇龙计算机通信科技(深圳)有限公司 拍摄数据的处理方法、拍摄数据的处理装置和终端
US10230891B2 (en) 2016-06-15 2019-03-12 Beijing Xiaomi Mobile Software Co., Ltd. Method, device and medium of photography prompts
WO2017215133A1 (zh) * 2016-06-15 2017-12-21 北京小米移动软件有限公司 拍照提示方法及装置
CN106846103A (zh) * 2017-01-11 2017-06-13 美的集团股份有限公司 家电设备的购买推荐方法和装置
CN107103593A (zh) * 2017-04-26 2017-08-29 广东小天才科技有限公司 图片拍摄优化方法及装置
CN109492515A (zh) * 2017-09-13 2019-03-19 富士施乐株式会社 信息处理装置、图像文件的数据结构以及计算机可读介质
CN110059530A (zh) * 2017-12-11 2019-07-26 欧姆龙株式会社 面部位置检测装置
CN110059530B (zh) * 2017-12-11 2023-07-04 欧姆龙株式会社 面部位置检测装置
CN111294507A (zh) * 2018-12-07 2020-06-16 瑞萨电子株式会社 拍摄控制装置、拍摄***和拍摄控制方法
CN109740510A (zh) * 2018-12-29 2019-05-10 三星电子(中国)研发中心 用于输出信息的方法和装置
CN112200023B (zh) * 2020-09-24 2023-03-28 上海新氦类脑智能科技有限公司 基于人***互智能图像采集与互动方法、***、终端以及介质
CN112200023A (zh) * 2020-09-24 2021-01-08 上海新氦类脑智能科技有限公司 基于人***互智能图像采集与互动方法、***、终端以及介质

Also Published As

Publication number Publication date
JP2010016796A (ja) 2010-01-21
CN101600051B (zh) 2011-07-13
US20090304289A1 (en) 2009-12-10
US8467581B2 (en) 2013-06-18
JP5251547B2 (ja) 2013-07-31

Similar Documents

Publication Publication Date Title
CN101600051B (zh) 图像拍摄设备和图像拍摄方法
US8477207B2 (en) Image capturing apparatus, image capturing method, and computer program
CN101325658B (zh) 成像设备和成像方法
US8026932B2 (en) Image processing apparatus, image processing method, image processing program, and image pickup apparatus
CN101753812B (zh) 成像装置和成像方法
CN104854496B (zh) 摄像装置、散焦量运算方法及摄像光学***
JP4438871B2 (ja) 撮像装置、その制御方法およびプログラム
US9113075B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
CN100508558C (zh) 图像捕获设备及控制方法、图像处理设备
JP5939705B2 (ja) 被写体判定装置、被写体判定方法及びプログラム
US8350918B2 (en) Image capturing apparatus and control method therefor
JP2010045770A (ja) 画像処理装置及び画像処理方法
US20070122139A1 (en) Controller, photographing equipment, control method of photographing equipment, and control program
US8284278B2 (en) Image processing apparatus, imaging apparatus, method of correction coefficient calculation, and storage medium storing image processing program
CN108028894A (zh) 控制***、成像装置和程序
US20140071318A1 (en) Imaging apparatus
CN101931747A (zh) 图像处理装置及电子设备
CN102957877A (zh) 图像处理装置以及图像处理方法
CN104796600B (zh) 图像合成装置和图像合成方法
JP5125734B2 (ja) 撮像装置、画像選択方法及び画像選択プログラム
US8295609B2 (en) Image processing apparatus, image processing method and computer readable-medium
CN102542251B (zh) 被摄体检测装置以及被摄体检测方法
CN110519485A (zh) 图像处理方法、装置、存储介质及电子设备
JP6491581B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
US20220329729A1 (en) Photographing method, storage medium and electronic device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110713

Termination date: 20210604