JP5106355B2 - Facial expression determination device, control method thereof, imaging device, and program - Google Patents

Facial expression determination device, control method thereof, imaging device, and program Download PDF

Info

Publication number
JP5106355B2
JP5106355B2 JP2008291494A JP2008291494A JP5106355B2 JP 5106355 B2 JP5106355 B2 JP 5106355B2 JP 2008291494 A JP2008291494 A JP 2008291494A JP 2008291494 A JP2008291494 A JP 2008291494A JP 5106355 B2 JP5106355 B2 JP 5106355B2
Authority
JP
Japan
Prior art keywords
determination
facial expression
face
facial
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008291494A
Other languages
Japanese (ja)
Other versions
JP2010117948A (en
JP2010117948A5 (en
Inventor
正雄 岡田
信也 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008291494A priority Critical patent/JP5106355B2/en
Publication of JP2010117948A publication Critical patent/JP2010117948A/en
Publication of JP2010117948A5 publication Critical patent/JP2010117948A5/ja
Application granted granted Critical
Publication of JP5106355B2 publication Critical patent/JP5106355B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、表情判定装置、その制御方法、撮像装置及びプログラムに関する。   The present invention relates to a facial expression determination device, a control method thereof, an imaging device, and a program.

従来から、人物が撮影された画像データから顔領域を検出し、検出された顔領域に含まれる顔の表情が笑顔に代表される特定の表情であるか否かを判定する方法が知られている。撮影された画像データの中の顔から特定の表情として笑顔を判定する方法は大別すると2つある。   Conventionally, there has been known a method for detecting a face area from image data obtained by photographing a person and determining whether a facial expression included in the detected face area is a specific expression represented by a smile. Yes. There are roughly two methods for determining a smile as a specific expression from a face in captured image data.

1つ目の表情判定方法は、図11(a)に示すように、1枚の画像G1に写っている顔から判定する方法である。この方法では、検出すべき特定の表情である笑顔の特徴量を含む笑顔データD1と照合することによって、画像G1に写っている顔が笑顔であるか否かを判定する。   The first expression determination method is a method for determining from a face shown in one image G1, as shown in FIG. In this method, it is determined whether or not the face shown in the image G1 is a smile by collating it with smile data D1 including a feature amount of a smile that is a specific facial expression to be detected.

2つ目の表情判定方法は、予め特定の表情の顔が写った画像を登録しておき、その登録された画像と判定したい顔が写った画像とを比較することで、その差分や類似度から特定の表情を判定する方法である。具体的には、図11(b)に示すように、予め登録された画像G2と、笑顔であるか否かを判定したい顔が写った画像G3の差分から笑顔の判定を行う。この方法では、事前に人物の無表情の顔を撮影して画像G2として登録しておく。そして、登録した画像G2と画像G3とを比較し、目尻や口角付近の変化量からその顔が笑顔であるか否かを判定する。   The second facial expression determination method registers an image in which a face with a specific facial expression is recorded in advance, and compares the registered image with an image in which a face to be determined is captured, so that the difference or similarity It is a method of determining a specific facial expression from Specifically, as shown in FIG. 11B, smile determination is performed from a difference between an image G2 registered in advance and an image G3 in which a face to be determined whether or not it is a smile. In this method, an expressionless face of a person is photographed in advance and registered as an image G2. Then, the registered image G2 is compared with the image G3, and it is determined whether or not the face is a smile from the amount of change near the corners of the eyes and the mouth corners.

また、特許文献1には、類似度から特定の表情を判定する技術が開示されている。具体的には、予め特定の表情をした人物の画像を登録しておき、登録された画像及び人物の表情を検出する検出対象の画像から顔部品の輪郭を示す特徴点を抽出する。そして、抽出された特徴点の類似度から検出対象の画像の写った人物が特定の表情に類似しているか否かを検出する。
特開2007−213378号公報
Patent Document 1 discloses a technique for determining a specific facial expression from similarity. Specifically, an image of a person with a specific facial expression is registered in advance, and feature points indicating the outline of the facial part are extracted from the registered image and an image to be detected for detecting the facial expression of the person. Then, it is detected from the similarity of the extracted feature points whether or not the person in the image to be detected is similar to a specific facial expression.
JP 2007-213378 A

上述した1つ目の判定方法では、1枚の画像から判定を行うため検出速度は速いが、表情の変化が乏しい人であり、笑顔になったときの表情の変化が少ない人の場合は検出が困難となるため検出精度が低いという特徴がある。また、上述した2つ目の判定方法では、2枚の画像から判定を行うため検出速度が遅く、予め特定の表情をした人物の画像を登録する手間がかかるが、微少な変化であっても検出できるため検出精度が高いという特徴がある。   In the first determination method described above, the detection speed is fast because the determination is performed from one image, but detection is performed for a person who has a small change in facial expression and a small change in facial expression when smiling. Therefore, the detection accuracy is low. Further, in the second determination method described above, since the determination is performed from two images, the detection speed is slow, and it takes time to register a person image with a specific facial expression in advance. Since it can detect, it has the feature that detection accuracy is high.

しかしながら、上記従来技術は、2つの表情判定方法を切り替えて行う仕組みが存在しておらず、状況に応じてそれぞれの特徴を生かすことができないため、使い勝手が悪いものであった。   However, the above prior art does not have a mechanism for switching between the two facial expression determination methods, and cannot use each feature according to the situation, so it is inconvenient.

本発明は、このような従来技術の課題を解決することを目的としてなされたものである。本発明の目的は、2つの表情判定方法を切り替え可能な表情判定装置、その制御方法及びプログラムの提供を目的とする。   The present invention has been made for the purpose of solving such problems of the prior art. An object of the present invention is to provide an expression determination device capable of switching between two expression determination methods, a control method thereof, and a program.

上記目的は、入力された画像データから人物の顔を検出する検出手段を有し、検出された顔が所定の表情であるか否かを判定する表情判定装置であって、前記検出された顔を構成する顔部品の特徴量を、当該顔部品ごとに抽出する抽出手段と、前記抽出手段により抽出された顔部品ごとの特徴量に基づいて、第1の判定モード、又は、前記第1の判定モードと異なる第2の判定モードのいずれかで、前記検出された顔が前記所定の表情であるか否かを判定する表情判定手段と、前記表情判定手段において前記第1の判定モード、又は、前記第2の判定モードのいずれによって表情判定するかを、予め定められた判定条件に応じて前記表情判定手段に設定する制御手段と、を備え、前記第1の判定モードは、前記抽出手段により抽出された顔部品ごとの特徴量と、前記所定の表情であることを示す基準値との相関に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであり、前記第2の判定モードは、前記抽出手段により抽出された顔部品ごとの特徴量と、予め記憶された基準となる表情の顔を構成する顔部品ごとの特徴量との差分に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであことを特徴とする表情判定装置によって達成される。 The above object has a detection means for detecting a face of a person from the input image data, the detected face is a determining expression determination device whether or not the predetermined expression, was the detected face fEATURES amount of the face parts constituting the extraction means for extracting for each relevant face part, based on the feature amount of each extracted facial components by the extraction unit, a first determination mode, or the first determination in either determination mode different from the second determination mode, the and the detected face is determined facial expression determination unit configured to determine whether the a predetermined expression, you have to first to the facial expression determination unit mode, or one by one expression determines the second judgment mode, and a control means for setting the facial expression determination unit according to a predetermined judgment condition, the first determination mode, Face part extracted by the extraction means A determination mode for determining whether or not the detected face is the predetermined facial expression based on a correlation between a feature amount for each and a reference value indicating the predetermined facial expression, Is determined based on the difference between the feature quantity for each facial part extracted by the extracting means and the feature quantity for each facial part constituting the face of the reference expression stored in advance. face Oh Ru in determination mode whether the a predetermined expression is achieved by the facial expression determination apparatus characterized by.

また、上記目的は、入力された画像データから人物の顔を検出する検出手段を有し、検出した顔が所定の表情であるか否かを判定する表情判定装置の制御方法であって、抽出手段が、前記検出された顔を構成する顔部品の特徴量を、当該顔部品ごとに抽出する抽出工程と、表情判定手段が、前記抽出工程において抽出された顔部品ごとの特徴量に基づいて、第1の判定モード、又は、前記第1の判定モードと異なる第2の判定モードのいずれかで、前記検出された顔が前記所定の表情であるか否かを判定する表情判定工程と、制御手段が、前記表情判定工程で用いる判定モードを、予め定められた判定条件に応じて前記第1の判定モード及び前記第2の判定モードのいずれかに設定する制御工程と、を有し、前記第1の判定モードは、前記抽出工程において抽出された顔部品ごとの特徴量と、前記所定の表情であることを示す基準値との相関に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであり、前記第2の判定モードは、前記抽出手段において抽出された顔部品ごとの特徴量と、予め記憶された基準となる表情の顔を構成する顔部品ごとの特徴量との差分に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであことを特徴とする表情判定装置の制御方法によっても達成される。 The above-described object includes a detection means for detecting a face of a person from the input image data, the detected face is a control method for determining the facial expression determination unit whether a predetermined expression, extraction means a feature amount of the face part constituting the detected face, an extraction step of extracting for each relevant face part, facial expression determination means, the feature amount of each Oite extracted face parts in the extraction step A facial expression determination that determines whether the detected face is the predetermined facial expression in either the first determination mode or a second determination mode that is different from the first determination mode a step, control means, a determination mode used in the facial expression determination step, a control step in response to a predetermined determination condition, any crab set of the first determination mode and the second determination mode, has the first determination mode, the Whether or not the detected face is the predetermined facial expression is determined based on the correlation between the feature amount of each facial part extracted in the exiting step and the reference value indicating the predetermined facial expression. A determination mode, wherein the second determination mode is a difference between a feature amount for each facial part extracted by the extracting means and a feature amount for each facial part constituting a face of a facial expression serving as a reference stored in advance. based on the detected face Oh Ru in determination mode whether the a predetermined expression is achieved by the control method of the facial expression determination apparatus characterized by.

本発明によれば、2つの表情判定方法を切り替えることができる。   According to the present invention, two facial expression determination methods can be switched.

以下、この発明の実施の形態について図を参照して説明するが、この発明は以下の実施の形態に限定されない。また、この発明の実施の形態は発明の最も好ましい形態を示すものであり、発明の範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, the embodiment of the present invention shows the most preferable mode of the invention, and does not limit the scope of the invention.

[第1の実施形態]
第1の実施形態では、人物の表情を検出する表情判定装置の例として、笑顔であるか否かを判定する撮像装置の構成を例示して説明する。図1は、第1の実施形態に係る撮像装置の概略構成を示すブロック図である。
[First Embodiment]
In the first embodiment, as an example of a facial expression determination apparatus that detects a facial expression of a person, a configuration of an imaging apparatus that determines whether or not a smile is illustrated will be described. FIG. 1 is a block diagram illustrating a schematic configuration of the imaging apparatus according to the first embodiment.

図1に示すように、撮像装置100では、レンズ系1によって被写体像を表す光線が集光され、CCDなどの撮像素子2に入射する。撮像素子2は、レンズ系1によって集光された被写体像を光電変換してアナログ映像信号を出力する。撮像素子2から出力されたアナログ映像信号はアナログ信号処理部3に入力される。アナログ信号処理部3は、入力されたアナログ映像信号に相関二重サンプリング等のアナログ信号処理を施す。アナログ信号処理の後、アナログ信号処理部3から出力されたアナログ映像信号は、A/D変換部4においてデジタル映像信号に変換され、制御回路11及びデジタル信号処理部5に入力される。   As shown in FIG. 1, in the imaging apparatus 100, a light beam representing a subject image is collected by a lens system 1 and enters an imaging device 2 such as a CCD. The image sensor 2 photoelectrically converts the subject image collected by the lens system 1 and outputs an analog video signal. The analog video signal output from the image sensor 2 is input to the analog signal processing unit 3. The analog signal processing unit 3 performs analog signal processing such as correlated double sampling on the input analog video signal. After the analog signal processing, the analog video signal output from the analog signal processing unit 3 is converted into a digital video signal by the A / D conversion unit 4 and input to the control circuit 11 and the digital signal processing unit 5.

デジタル信号処理部5は、入力されたデジタル映像信号にガンマ補正、ホワイトバランス処理などのデジタル信号処理を施す。デジタル信号処理の後、デジタル信号処理部5から出力されたデジタル映像信号はメモリ7を介して表示部10に送られる。なお、後述する笑顔判定処理モードが設定されている場合、デジタル信号処理部5は、デジタル信号処理後のデジタル映像信号を表情判定処理部6にも出力する。表情判定処理部6は、入力されたデジタル映像信号における画像から人物の顔領域を検出し、その検出された顔領域に含まれる顔の表情を判定する。なお、表情判定処理部6における判定処理の詳細は後述する。   The digital signal processing unit 5 performs digital signal processing such as gamma correction and white balance processing on the input digital video signal. After the digital signal processing, the digital video signal output from the digital signal processing unit 5 is sent to the display unit 10 via the memory 7. When the smile determination processing mode described later is set, the digital signal processing unit 5 also outputs the digital video signal after the digital signal processing to the facial expression determination processing unit 6. The facial expression determination processing unit 6 detects a human face area from an image in the input digital video signal, and determines a facial expression included in the detected face area. Details of the determination process in the facial expression determination processing unit 6 will be described later.

メモリ7は、デジタル信号処理部5から出力されたデジタル映像信号などのデータを一時的に記憶するRAMなどである。記憶制御部8は、メモリカードなどの外部メモリ9と着脱可能に接続するインターフェイス(図示しない)を介し、外部メモリ9へのデータの記録や外部メモリ9からのデータの読み出しを制御する。例えば、撮像素子2で被写体像を撮像してメモリ7に一時的に記憶された画像データは、記憶制御部8によりメモリ7から読み出されて、外部メモリ9に記録される。   The memory 7 is a RAM or the like that temporarily stores data such as a digital video signal output from the digital signal processing unit 5. The storage control unit 8 controls data recording to the external memory 9 and data reading from the external memory 9 via an interface (not shown) detachably connected to the external memory 9 such as a memory card. For example, image data captured by the image sensor 2 and temporarily stored in the memory 7 is read from the memory 7 by the storage controller 8 and recorded in the external memory 9.

表示部10は、LCDなどであり入力されたデジタル映像信号に基づいた画像を表示する。具体的には、表示部10は、撮像素子2で被写体像を撮像し、デジタル信号処理部5から出力されたデジタル映像信号により、表示画面上に被写体像を表示する。したがって、撮像装置100は、撮像素子2で逐次撮像した被写体像を表示部10の表示画面上に表示することで、電子ビューファインダ(EVF)機能を提供する。   The display unit 10 is an LCD or the like and displays an image based on the input digital video signal. Specifically, the display unit 10 captures a subject image with the image sensor 2 and displays the subject image on the display screen using the digital video signal output from the digital signal processing unit 5. Therefore, the imaging apparatus 100 provides an electronic viewfinder (EVF) function by displaying on the display screen of the display unit 10 subject images sequentially captured by the imaging device 2.

制御回路11は、撮像装置100の動作を中央制御する。具体的には、制御回路11は、CPU、ROM、RAMなどを有しており、CPUがROMに記憶されたプログラムデータをRAMの作業領域に展開して順次実行し、撮像装置100の各部に制御信号を出力して各部を制御している。なお、制御回路11が行う処理動作の詳細については後述する。また、制御回路11は、A/D変換部4から出力されたデジタル映像信号の輝度値やコントラスト値に基づいて、焦点調整を行うためにレンズ系1を駆動させるモータ(図示しない)の制御や、撮像素子2の露光時間を制御する。   The control circuit 11 centrally controls the operation of the imaging device 100. Specifically, the control circuit 11 includes a CPU, a ROM, a RAM, and the like. The CPU expands the program data stored in the ROM in a work area of the RAM and sequentially executes the program data. Each part is controlled by outputting a control signal. Details of the processing operation performed by the control circuit 11 will be described later. The control circuit 11 controls a motor (not shown) that drives the lens system 1 to perform focus adjustment based on the luminance value and contrast value of the digital video signal output from the A / D converter 4. The exposure time of the image sensor 2 is controlled.

操作部12は、ユーザからの指示を受け付ける操作ボタンなどであり、操作指示に応じた信号を制御回路11に出力する。具体的には、操作部12は、撮影指示を受け付けるシャッターボタン、レンズ系1の動作モードに関する指示を受け付ける動作モードボタン、各種設定を受け付ける設定ボタンなどがある。例えば、操作部12のシャッターボタンが押下された場合は、制御回路11の制御の下、撮像素子2で被写体像が撮影されてメモリ7に撮影した画像データが一時記憶される。次いで、メモリ7に一時記憶された画像データは、記憶制御部8によって読み出され、外部メモリ9に記録されることとなる。   The operation unit 12 is an operation button or the like that receives an instruction from the user, and outputs a signal corresponding to the operation instruction to the control circuit 11. Specifically, the operation unit 12 includes a shutter button that receives a shooting instruction, an operation mode button that receives an instruction regarding the operation mode of the lens system 1, a setting button that receives various settings, and the like. For example, when the shutter button of the operation unit 12 is pressed, the subject image is captured by the image sensor 2 under the control of the control circuit 11 and the captured image data is temporarily stored in the memory 7. Next, the image data temporarily stored in the memory 7 is read out by the storage control unit 8 and recorded in the external memory 9.

次に、制御回路11の制御の下で行われる撮像装置100の処理動作について説明する。以下で説明する処理動作は、操作部12のシャッターボタンの押下に応じて開始される撮影動作である。すなわち、撮影動作では、制御手段としての制御回路11の制御の下、S36における笑顔判定に応じたS37において、撮像手段としての撮像素子2での撮影と、その撮影した画像データの記録手段としての外部メモリ9への記録が行われることとなる。なお、上述した処理動作は、表示手段としての表示部10でEVF表示を行っている際などに開始されてもよい。この場合は、制御手段としての制御回路11の制御の下、S36における笑顔判定に応じたS37において、笑顔判定に応じた判定結果が表示部10に表示出力されることとなる。図2は、撮像装置100の処理動作を示すフローチャートである。   Next, the processing operation of the imaging device 100 performed under the control of the control circuit 11 will be described. The processing operation described below is a shooting operation started in response to pressing of the shutter button of the operation unit 12. That is, in the photographing operation, under the control of the control circuit 11 as the control means, in S37 according to the smile determination in S36, the photographing with the imaging device 2 as the imaging means and the means for recording the photographed image data are used. Recording to the external memory 9 is performed. The processing operation described above may be started when EVF display is performed on the display unit 10 as a display unit. In this case, under the control of the control circuit 11 as the control means, the determination result corresponding to the smile determination is displayed and output on the display unit 10 in S37 corresponding to the smile determination in S36. FIG. 2 is a flowchart showing the processing operation of the imaging apparatus 100.

図2に示すように、処理が開始されると、制御回路11は、操作部12の動作モードボタンなどにより笑顔判定モードに設定されているか否かを判定する(S30)。笑顔判定モードに設定されていない場合は、通常の撮影モードとしての処理が行われて処理動作が終了する。具体的には、制御回路11は、S37に処理を進め、撮像素子2で撮影した画像データを外部メモリ9に記録させて処理動作を終了する。   As shown in FIG. 2, when the process is started, the control circuit 11 determines whether or not the smile determination mode is set by an operation mode button or the like of the operation unit 12 (S30). When the smile determination mode is not set, the processing as the normal shooting mode is performed and the processing operation ends. Specifically, the control circuit 11 advances the process to S37, records the image data captured by the image sensor 2 in the external memory 9, and ends the processing operation.

S30で笑顔判定モードに設定されている場合、S31で制御回路11は、笑顔判定用の画像を撮像素子2で撮影して取得する。次いで、S32において、表情判定処理部6は、S31で取得した画像から人物の顔を検出する顔検出処理を行う。   When the smile determination mode is set in S30, the control circuit 11 captures and acquires a smile determination image with the image sensor 2 in S31. Next, in S32, the facial expression determination processing unit 6 performs face detection processing for detecting a human face from the image acquired in S31.

S32における顔検出処理では、撮影した画像から人物の顔領域を検出し、検出した一つ又は複数の顔情報(顔領域の位置、そのサイズ、信頼度など)が取得される。人物の顔検出方法は、公知の技術を適用可能であり、本発明とは直接関係しないため、詳細な説明は省略する。なお、公知の顔検出技術としては、ニューラルネットワークなどを利用した学習に基づく手法、テンプレートマッチングを用いて目、鼻、口等の形状に特徴のある部位を画像から探し出し、類似度が高ければ顔とみなす手法などがある。また、他にも、肌の色や目の形といった画像特徴量を検出し、統計的解析を用いた手法等、多数提案されている。一般的には、これらの手法を複数組み合わせ、顔検出の精度を向上させている。具体的な例としては特開2002−251380号公報に記載されるような、ウエーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   In the face detection process in S32, a human face area is detected from the captured image, and one or more pieces of detected face information (face area position, size, reliability, etc.) are acquired. Since a known technique can be applied to the person face detection method and it is not directly related to the present invention, a detailed description thereof will be omitted. It should be noted that as a known face detection technique, a method based on learning using a neural network or the like, template matching is used to search a part having features in the shape of eyes, nose, mouth, etc. from an image. There is a method to consider that. In addition, many other methods have been proposed, such as a method that detects image feature amounts such as skin color and eye shape and uses statistical analysis. In general, a plurality of these methods are combined to improve face detection accuracy. As a specific example, there is a method of detecting a face using wavelet transform and image feature amount as described in JP-A-2002-251380.

次いで、S33において、表情判定処理部6は、S32で人物の顔が検出されたか否かを判定して判定結果を制御回路11へ出力する。人物の顔が検出された場合にはS34に処理が進み、制御回路11は、表情判定処理部6で笑顔判定を行う際の笑顔判定方法(判定モード)を、メモリなどに予め設定された判定条件に従って選択する。具体的には、制御回路11は、判定速度が速く判定精度が低い第1の判定モード、判定速度が遅く判定精度が高い第2の判定モードのうち、いずれか1つの判定モードを選択し、表情判定処理部6における判定モードの設定を行う。例えば、制御回路11は、予め設定された判定条件が判定速度を優先する場合は第1の判定モードを設定し、その判定条件が判定精度を優先する場合は第2の判定モードを設定する。人物の顔が検出されなかった場合には、処理がS31に戻って、新しい笑顔判定用の画像を撮像素子2で撮影して取得され、再びS32で人物の顔の検出処理が行われることとなる。   Next, in S33, the facial expression determination processing unit 6 determines whether or not a human face has been detected in S32, and outputs the determination result to the control circuit 11. When a person's face is detected, the process proceeds to S34, and the control circuit 11 determines a smile determination method (determination mode) when the facial expression determination processing unit 6 performs a smile determination in a memory or the like. Select according to conditions. Specifically, the control circuit 11 selects one determination mode from the first determination mode in which the determination speed is high and the determination accuracy is low, and the second determination mode in which the determination speed is low and the determination accuracy is high. The determination mode is set in the facial expression determination processing unit 6. For example, the control circuit 11 sets the first determination mode when the predetermined determination condition prioritizes the determination speed, and sets the second determination mode when the determination condition prioritizes the determination accuracy. If the person's face is not detected, the process returns to S31, and a new smile determination image is captured by the image sensor 2, and the person's face is detected again in S32. Become.

本実施形態において、S34では、1枚の画像に写っている顔から笑顔を判定する第1の判定モード、無表情の顔が写った画像と、笑顔を判定したい顔が写った画像との差分から笑顔を判定する第2の判定モードの2種類のうちの一方に設定される。なお、表情判定処理部6が行う笑顔判定方法の選択の詳細については後述する。   In the present embodiment, in S34, a first determination mode for determining a smile from a face shown in one image, a difference between an image showing an expressionless face and an image showing a face for which a smile is to be determined Is set to one of the two types of the second determination mode for determining smile. Details of selection of the smile determination method performed by the facial expression determination processing unit 6 will be described later.

次いで、S35において、制御回路11は、S34で選択された笑顔判定方法を用いて、S31で取得された画像に含まれる人物の顔が笑顔であるか否かの判定処理を表情判定処理部6で行わせる。具体的には、S35では、S32で取得された顔情報と選択された笑顔判定方法とが表情判定処理部6に通知され、デジタル信号処理部5から出力されたデジタル映像信の画像に含まれる人物の顔についての判定処理が表情判定処理部6で行われる。次いで、S36において、制御回路11は、表情判定処理部6における判定処理の結果が笑顔であるか否かを判定する。S36において笑顔である場合、制御回路11は、S37に処理を進め、撮像素子2で撮影した画像データを外部メモリ9に記録させて処理動作を終了する。S36において笑顔でない場合、制御回路11は、S31に処理を戻し、再び笑顔判定用の画像の取得を行わせる。   Next, in S35, the control circuit 11 uses the smile determination method selected in S34 to determine whether or not the face of the person included in the image acquired in S31 is a smile. Let me do it. Specifically, in S35, the facial information acquired in S32 and the selected smile determination method are notified to the facial expression determination processing unit 6, and are included in the digital video signal image output from the digital signal processing unit 5. The facial expression determination processing unit 6 performs a determination process for a human face. Next, in S36, the control circuit 11 determines whether or not the result of the determination process in the facial expression determination processing unit 6 is a smile. If it is a smile at S36, the control circuit 11 advances the process to S37, records the image data captured by the image sensor 2 in the external memory 9, and ends the processing operation. If it is not a smile in S36, the control circuit 11 returns the process to S31 and again acquires an image for smile determination.

ここで、制御回路11の選択に応じて表情判定処理部6が行う2種類の笑顔判定方法について、詳細に説明する。1つ目の方法(第1の判定モード)は、1枚の画像に写っている顔から、その顔が笑顔であるか否かを判定する方法である。この方法では、判定対象の画像における顔を構成する顔部品の輪郭を表す特徴量を抽出するとともに、笑顔を一般化して定義した基準値との相関を表す指標値を算出し、この指標値の大小に基づいて、判定対象の顔画像が、笑顔に類似した顔かどうかを判定する。なお、笑顔を一般化して定義した基準は、多量の笑顔の画像を分析して、笑顔における顔部品の輪郭を表す特徴量のデータベースを作成することによって求めることができる。   Here, two types of smile determination methods performed by the facial expression determination processing unit 6 according to the selection of the control circuit 11 will be described in detail. The first method (first determination mode) is a method for determining whether or not the face is smiling from the face shown in one image. In this method, a feature amount representing the contour of a facial part constituting a face in an image to be determined is extracted, an index value representing a correlation with a reference value defined by generalizing a smile is calculated, and the index value Based on the size, it is determined whether the face image to be determined is a face similar to a smile. The standard defined by generalizing smiles can be obtained by analyzing a large number of smile images and creating a database of feature amounts representing the contours of facial parts in smiles.

図3は、1枚の画像に写っている顔から笑顔判定を行う処理動作を示すフローチャートである。図3に示すように、S40において、表情判定処理部6には笑顔判定用の顔を含む顔画像が入力される。次いで、S41において、抽出手段としての表情判定処理部6は、入力された顔画像から顔を構成する顔部品の輪郭を表す特徴量を抽出する。   FIG. 3 is a flowchart showing a processing operation for determining smile from a face shown in one image. As shown in FIG. 3, in S <b> 40, a facial image including a smile determination face is input to the facial expression determination processing unit 6. Next, in S <b> 41, the facial expression determination processing unit 6 serving as an extraction unit extracts a feature amount that represents the contour of a facial part constituting the face from the input face image.

次いで、S42において、表情判定処理部6は、S41で抽出した特徴量により、笑顔を一般化して定義した基準との相関を表す指標値を算出する。次いで、表情判定処理部6は、S43において、S42で算出された指標値の大小に基づいて顔画像に含まれた顔が笑顔であるか否かを判定して制御回路11へ出力する。   Next, in S42, the facial expression determination processing unit 6 calculates an index value representing a correlation with a standard defined by generalizing a smile based on the feature amount extracted in S41. Next, in S43, the facial expression determination processing unit 6 determines whether the face included in the face image is a smile based on the magnitude of the index value calculated in S42, and outputs it to the control circuit 11.

2つ目の方法(第2の判定モード)は、無表情の顔(基準となる表情)が写った画像と、笑顔を判定したい顔が写った画像の差分から判定する方法である。この方法では、人物の無表情の顔を予め撮影して登録しておき、その登録された画像における顔を構成する顔部品の輪郭を表す特徴量を抽出する。次いで、笑顔判定対象の顔画像における顔を構成する顔部品の輪郭を表す特徴量を抽出し、その特徴量が無表情の顔の特徴量と比較して、どの程度変化したかに基づいて笑顔を判定する。   The second method (second determination mode) is a method of determining from the difference between an image showing an expressionless face (reference expression) and an image showing a face on which a smile is to be determined. In this method, an expressionless face of a person is photographed and registered in advance, and a feature amount representing the contour of a facial part constituting the face in the registered image is extracted. Next, feature values representing the contours of the facial parts constituting the face in the face image of the smile determination target are extracted, and smiles are made based on how much the feature values have changed compared to the feature values of the expressionless face. Determine.

図4は、無表情の顔が写った画像と、笑顔を判定したい顔が写った画像と、の差分から笑顔判定を行う処理動作を示すフローチャートである。図4に示すように、S51において、表情判定処理部6は、人物の無表情の顔が予め登録されているか否かを判定する。S51において無表情の顔が予め登録されている場合、表情判定処理部6はS52へ処理を進める。また、S51において登録されていない場合、表情判定処理部6はS56へ処理を進める。   FIG. 4 is a flowchart showing a processing operation for performing smile determination based on a difference between an image showing an expressionless face and an image showing a face whose smile is to be determined. As shown in FIG. 4, in S <b> 51, the facial expression determination processing unit 6 determines whether or not a person's expressionless face is registered in advance. When an expressionless face is registered in advance in S51, the facial expression determination processing unit 6 advances the process to S52. If it is not registered in S51, the facial expression determination processing unit 6 advances the process to S56.

S56では、制御回路11の制御の下、無表情顔を撮影する撮影処理行われ、人物の無表情の顔が撮影される。具体的には、制御回路11の制御の下、表示部10に無表情顔を撮影する旨のガイダンス表示などを行って人物の無表情顔の撮影を促し、操作部12のシャッターボタンの操作に応じた撮影が行われる。あるいは、所定期間その人物の顔の画像を連続して撮影し、得られた顔の中から最も表情の小さいと思われる顔を無表情顔として登録するようにしてもよい。次いで、S57ではS56で撮影された人物の無表情の顔が表情判定処理部6に登録される。次いで、S58では、その登録された表情の顔画像における顔を構成する顔部品の輪郭を表す特徴量が表情判定処理部6で抽出され、S52に処理が進む。 In S56, under the control of the control circuit 11, a photographing process for photographing the expressionless face is performed, and the expressionless face of the person is photographed. Specifically, under the control of the control circuit 11, a guidance display for photographing an expressionless face is displayed on the display unit 10 to prompt photographing of a person's expressionless face, and the shutter button of the operation unit 12 is operated. The corresponding shooting is performed. Alternatively, images of the person's face may be taken continuously for a predetermined period, and the face that appears to have the smallest expression among the obtained faces may be registered as an expressionless face. Next, in S57, the expressionless face of the person photographed in S56 is registered in the expression determination processing unit 6. Next, in S58, the facial expression determination processing unit 6 extracts the feature amount representing the contour of the facial part constituting the face in the registered facial expression image, and the process proceeds to S52.

S52において、表情判定処理部6には笑顔判定用の顔を含む顔画像が入力される。次いで、S53において、表情判定処理部6は、入力された顔画像から顔を構成する顔部品の輪郭を表す特徴量を抽出する。次いで、S54において、表情判定処理部6は、S53で笑顔判定用の顔を含む顔画像から抽出された特徴量と、予め登録されている無表情の顔の特徴量とを比較して、どの程度変化したかを示す変化量を算出する。次いで、S55において、表情判定処理部6は、S54で算出された変化量をもとに、顔画像に含まれた顔が笑顔であるか否かを判定して制御回路11へ出力する。   In S <b> 52, a facial image including a smile determination face is input to the facial expression determination processing unit 6. Next, in S <b> 53, the facial expression determination processing unit 6 extracts a feature amount representing the outline of the facial part that constitutes the face from the input face image. Next, in S54, the facial expression determination processing unit 6 compares the feature amount extracted from the face image including the face for smile determination in S53 with the feature amount of the expressionless face registered in advance. A change amount indicating whether or not the degree has changed is calculated. Next, in S55, the facial expression determination processing unit 6 determines whether or not the face included in the face image is a smile based on the amount of change calculated in S54, and outputs it to the control circuit 11.

次に、S34において制御回路11が行う笑顔判定方法の選択について詳細に説明する。前述した1枚の画像に写っている顔から判定する1つ目の方法では、判定速度は速いが、笑顔になったときの表情の変化が少ない人の場合は判定が困難であり、判定精度が低くなるという特徴がある。また、無表情の顔が写った画像と、笑顔を判定したい顔が写った画像の差分から判定する2つ目の方法では、判定精度は上がるが、無表情の顔の登録が面倒であることや、判定速度が遅くなるという特徴がある。以上のような、それぞれの笑顔判定方法の特徴をもとに、制御回路11がどのように選択するかの選択例を以下に述べる。   Next, the selection of the smile determination method performed by the control circuit 11 in S34 will be described in detail. In the first method for judging from the face shown in one image as described above, the judgment speed is fast, but it is difficult to judge for a person who has little change in facial expression when smiling. There is a feature that becomes low. In addition, the second method for judging from the difference between an image showing an expressionless face and an image showing a face for which a smile is to be judged is improved in accuracy, but registration of an expressionless face is troublesome. In addition, the determination speed is slow. A selection example of how the control circuit 11 selects based on the characteristics of each smile determination method as described above will be described below.

例えば、撮影画像からS32で顔検出を行った際に、複数の顔が検出された場合には、どの顔が登録されている無表情の顔に対応しているのか判断が困難であり、処理時間がかかるため、1枚の画像に写っている顔から判定する1つ目の方法を選択する。したがって、撮像画像から検出された顔の数を判定条件とし、複数の顔が検出された場合は第1の判定モードで表情判定を行う。具体的には、表情判定処理部6により複数の顔情報が検出された場合、制御回路11は表情判定処理部6の笑顔判定方法を1つ目の方法に設定することで、判定時間を短縮させる。   For example, if a plurality of faces are detected when face detection is performed in S32 from the photographed image, it is difficult to determine which face corresponds to the registered expressionless face, Since it takes time, the first method for judging from the face shown in one image is selected. Therefore, the number of faces detected from the captured image is used as a determination condition, and when a plurality of faces are detected, facial expression determination is performed in the first determination mode. Specifically, when a plurality of pieces of face information are detected by the facial expression determination processing unit 6, the control circuit 11 shortens the determination time by setting the smile determination method of the facial expression determination processing unit 6 to the first method. Let

また、検出された顔の位置が枚フレーム毎に大きく変化していて、被写体の動きが激しいと判断される場合には、時間がたつと、被写体がフレームアウトしたり、横や後ろを向いて顔検出できなくなる可能性が高い。したがって、S32における顔検出を逐次行って、上述したケースを検出した場合には、笑顔判定をできるだけ速く行う必要があるため、1枚の画像に写っている顔から判定する1つ目の方法を選択する。したがって、逐次検出された顔の動き量の大きさを判定条件とし、その動き量が予め設定された基準の動き量より大きい場合は第1の判定モードで表情判定を行う。具体的には、動作検出手段としての表情判定処理部6により逐次入力された画像データに基づいて顔領域の動き量を検出し、その動き量が予め設定された閾値(基準動き量)より大きい場合、制御回路11は表情判定処理部6の笑顔判定方法を1つ目の方法に設定する。よって、撮像装置100は、被写体の動きに応じて判定モードを切り替えることができ、例え激しく動く被写体であっても的確な笑顔判定を行うことができる。   Also, if the detected face position varies greatly from frame to frame and it is determined that the subject is moving rapidly, the subject may go out of the frame or turn sideways or backwards over time. There is a high possibility that face detection will not be possible. Therefore, when the face detection in S32 is sequentially performed and the above-described case is detected, it is necessary to perform smile determination as fast as possible. Therefore, the first method for determining from the face shown in one image is as follows. select. Therefore, the size of the detected face motion amount is used as a determination condition, and facial expression determination is performed in the first determination mode when the amount of motion is larger than a preset reference motion amount. Specifically, the amount of motion of the face area is detected based on the image data sequentially input by the facial expression determination processing unit 6 as the motion detection means, and the amount of motion is greater than a preset threshold (reference motion amount). In this case, the control circuit 11 sets the smile determination method of the facial expression determination processing unit 6 to the first method. Therefore, the imaging apparatus 100 can switch the determination mode according to the movement of the subject, and can perform an accurate smile determination even for a subject that moves violently.

また、ユーザそれぞれで笑顔の程度は異なるのが実情である。同じ笑顔でも、口を閉じて微笑むユーザもいれば、口を大きく開けて歯が見えるくらいの笑顔をするユーザもいる。前者のようなユーザの場合、1枚の画像に写っている顔から判定する方法では、笑顔基準データとの相関がほとんど無く、笑顔と判定される可能性が低くなる。よって、この場合は、無表情の顔が写った画像と、笑顔を判定したい顔が写った画像の差分から判定する2つ目の方法を選択する。すなわち、逐次入力された複数の画像データに亘る顔部品ごとの特徴量の変化量の大きさを判定条件とし、その変化量が予め設定された基準の変化量より小さい場合は第2の判定モードで表情判定を行う。この方法では、無表情の顔との差分が少しでもあると検出できるため、笑顔のときに表情の変化が少ないユーザであっても、笑顔を検出することができる。具体的には、変化量検出手段としての表情判定処理部6により逐次入力された画像データに亘って抽出された顔部品ごとの特徴量の変化量を検出し、制御回路11は検出された変化量から人物の表情がどの程度変化するかを監視する。そして、制御回路11は、検出された変化量が予め設定された閾値(基準変化量)より小さく、表情の変化が少ない人物の場合は表情判定処理部6の笑顔判定方法を判定精度の高い2つ目の方法に設定する。よって、撮像装置100は、人物の表情の変化に応じて判定モードを切り替えることができ、例え表情の変化が乏しい人物であっても的確な笑顔判定を行うことができる。   The actual situation is that each user has a different degree of smile. Some users smile with their mouths closed even with the same smile, while others smile as much as they can open their mouths and see their teeth. In the case of a user like the former, the method of determining from a face reflected in one image has little correlation with smile reference data, and the possibility of determining a smile is low. Therefore, in this case, a second method is selected that is determined from the difference between an image showing an expressionless face and an image showing a face whose smile is to be determined. That is, when the change amount of the feature amount for each face part over a plurality of sequentially input image data is used as a determination condition, and the change amount is smaller than a preset reference change amount, the second determination mode Perform facial expression determination with. In this method, since it is possible to detect that there is even a slight difference from an expressionless face, even a user who has little change in facial expression when smiling, can detect a smile. Specifically, the control circuit 11 detects the change amount of the feature amount for each facial part extracted over the image data sequentially input by the facial expression determination processing unit 6 as the change amount detection means, and the control circuit 11 detects the detected change amount. Monitor how much the facial expression of the person changes from the quantity. The control circuit 11 uses the smile determination method of the facial expression determination processing unit 6 with high determination accuracy when the detected change amount is smaller than a preset threshold value (reference change amount) and the expression change is small. Set to the second method. Therefore, the imaging apparatus 100 can switch the determination mode in accordance with a change in the facial expression of the person, and can perform an accurate smile determination even for a person with a small change in facial expression.

なお、上述した選択については、操作部12の動作モードボタンなどによりユーザが自由に選択できるようにしてもよい。すなわち、ユーザから判定モードを指定する入力を操作部12で受け付け、その入力内容を判定条件とし、上述した2種類の判定モードのうち、ユーザが所望する判定モードで人物の顔の笑顔判定が行われてもよい。その場合、笑顔を速く検出したいと思うユーザや、無表情の顔を予め登録しておくのが面倒だと感じるユーザは、1つ目の方法が設定されるため、その要求を満たすことができる。また、笑ってもあまり表情が変化しない人で判定を行う場合や、絶対に笑顔を撮り逃したくないと思われるシーンで判定精度を上げたい場合には2つ目の方法が設定されるため、その要求を満たすことができる。   Note that the above-described selection may be freely selected by the user using an operation mode button or the like of the operation unit 12. That is, the operation unit 12 accepts an input specifying a determination mode from the user, and the input content is used as a determination condition, and the smile determination of a person's face is performed in the determination mode desired by the user among the above-described two types of determination modes. It may be broken. In that case, the user who wants to detect a smile quickly or the user who feels troublesome to register an expressionless face in advance can satisfy the request because the first method is set. . In addition, the second method is set when the determination is made by a person whose facial expression does not change much even when laughing, or when it is desired to improve the determination accuracy in a scene where you do not want to miss a smile. The demand can be satisfied.

[第2の実施形態]
第2の実施形態では、笑顔以外の顔パターンとして、目を瞑っている人物の顔であるか否かを判定する処理動作を例示して説明する。なお、本実施形態における撮像装置の構成などについては、前述した第1の実施形態と同様であり、表情判定処理部6の判定処理が目瞑り状態の顔を判定することが異なる。図5は、第2の実施形態に係る撮像装置100の処理動作を示すフローチャートである。
[Second Embodiment]
In the second embodiment, a processing operation for determining whether a face pattern other than a smile is the face of a person who is meditating on eyes will be described as an example. The configuration of the imaging apparatus in the present embodiment is the same as that of the first embodiment described above, except that the determination process of the facial expression determination processing unit 6 determines a face in a closed state. FIG. 5 is a flowchart illustrating the processing operation of the imaging apparatus 100 according to the second embodiment.

図6に示すように、処理が開始されると、制御回路11は、操作部12の動作モードボタンなどにより目瞑り判定モードに設定されているか否かを判定する(S60)。目瞑り判定モードに設定されていない場合は、通常の撮影モードとしての処理が行われて処理動作が終了する。具体的には、制御回路11は、S69に処理を進め、撮像素子2で撮影した画像データを外部メモリ9に記録させて処理動作を終了する。   As shown in FIG. 6, when the process is started, the control circuit 11 determines whether or not the eye-meditation determination mode is set by an operation mode button or the like of the operation unit 12 (S60). If the eye-meditation determination mode is not set, processing as the normal shooting mode is performed and the processing operation ends. Specifically, the control circuit 11 advances the process to S69, records the image data captured by the image sensor 2 in the external memory 9, and ends the processing operation.

S60で目瞑り判定モードに設定されている場合、S61で制御回路11は、目瞑り判定用の画像を撮像素子2で撮影して取得する。次いで、S62において、表情判定処理部6は、S61で取得した画像から人物の顔を検出する顔検出処理をS32と同様に行う。   When the eye meditation determination mode is set in S60, the control circuit 11 captures and acquires an image for eye meditation determination with the image sensor 2 in S61. Next, in S62, the facial expression determination processing unit 6 performs a face detection process for detecting a human face from the image acquired in S61 in the same manner as in S32.

次いで、S63において、制御回路11は、S62で人物の顔が検出されたか否かを判定してその判定結果を11へ出力する。人物の顔が検出された場合にはS64に処理が進み、制御回路11は、表情判定処理部6で目瞑り判定を行う際の判定方法(判定モード)を前述した判定条件に従って選択する。人物の顔が検出されなかった場合には、制御回路11は処理動作を終了する。   Next, in S63, the control circuit 11 determines whether or not a human face is detected in S62, and outputs the determination result to 11. If a person's face is detected, the process proceeds to S64, and the control circuit 11 selects a determination method (determination mode) for performing eye-meditation determination by the facial expression determination processing unit 6 according to the determination conditions described above. If no human face is detected, the control circuit 11 ends the processing operation.

S64では、1枚の画像に写っている顔から判定する第1の判定モード、目が開いたときの顔が写った画像と、目を瞑っているかどうかを判定したい顔が写った画像との差分から判定する第2の判定モードの2種類のうち、どちらか一方の方法が選択される。なお、制御回路11が行う判定方法の選択の詳細については後述する。   In S64, a first determination mode for determining from a face shown in one image, an image showing a face when the eyes are opened, and an image showing a face for which it is determined whether the eyes are meditated One of the two methods of the second determination mode determined from the difference is selected. Details of selection of the determination method performed by the control circuit 11 will be described later.

次いで、S65において、制御回路11は、S64で選択された目瞑り判定方法を用いて、S61で取得された画像に含まれる人物の顔が目を瞑っているか否かの判定処理を表情判定処理部6で行わせる。次いで、S66において、制御回路11は、表情判定処理部6における判定処理の結果が目を瞑っているか否かを判定する。S66において目を瞑っていない場合、制御回路11は、S64に処理を進め、撮像素子2で撮影した画像データを外部メモリ9に記録させて処理動作を終了する。S66において目を瞑っている場合、制御回路11は、撮像素子2で撮影した画像データの消去、又は、表示部10に警告を表示出力させて、ユーザへの警告を行う。   Next, in S65, the control circuit 11 uses the eye meditation determination method selected in S64 to determine whether or not the face of the person included in the image acquired in S61 is meditating as facial expression determination processing. Part 6 is performed. Next, in S66, the control circuit 11 determines whether or not the result of the determination process in the facial expression determination processing unit 6 is meditating. When the eyes are not meditated in S66, the control circuit 11 advances the process to S64, records the image data captured by the image sensor 2 in the external memory 9, and ends the processing operation. When the eyes are meditated in S <b> 66, the control circuit 11 erases the image data captured by the image sensor 2 or causes the display unit 10 to display and output a warning to warn the user.

ここで、制御回路11の選択に応じて表情判定処理部6が行う2種類の目瞑り判定方法について説明する。1つめの方法(第1の判定モード)は、前述した笑顔判定方法の1つ目の方法と同様、1枚の画像に写っている顔からその顔が目瞑り状態であるか否かを判定する方法である。この方法では、検出された顔の画像において、縦方向に伸びる中心軸を中心とした両側であって、目が存在すべきと考えられる2つの領域が検出される。次いで、検出された2つの領域内における黒色の割合(黒目の大きさ)が算出される。そして、算出された黒色の割合が所定以上の割合であれば、目が開いていると判断され、所定未満の割合であれば、目を瞑っていると判定される。   Here, two types of eye-meditation determination methods performed by the facial expression determination processing unit 6 according to the selection of the control circuit 11 will be described. The first method (first determination mode) is similar to the first method of the smile determination method described above, and it is determined whether or not the face is in an eye-medicine state from the face reflected in one image. It is a method to do. In this method, two regions that are considered to have eyes on both sides of the center axis extending in the vertical direction are detected in the detected face image. Next, the ratio of black (the size of the black eye) in the two detected areas is calculated. If the calculated black ratio is equal to or greater than a predetermined ratio, it is determined that the eyes are open. If the calculated ratio is less than the predetermined ratio, it is determined that the eyes are meditated.

2つ目の方法(第2の判定モード)は、前述した笑顔判定方法の2つ目の方法と同様、目が開いたときの顔が写った画像と、目瞑りを判定したい顔が写った画像の差分から判定する方法である。この方法では、人物の目が開いたときの顔を予め撮影して登録しておき、1つ目の方法と同様に、目が存在すべきと考えられる2つの領域における黒色の割合を算出する。次いで、算出された黒色の割合と、目が開いたときの黒色の割合とを比較して、どの程度変化したかに基づいて、目瞑りを判定する。   In the second method (second determination mode), as in the second method of the smile determination method described above, an image showing the face when the eyes are opened and the face for which the eyes are to be determined are shown. This is a method of determining from image differences. In this method, a face when a person's eyes are opened is photographed and registered in advance, and the ratio of black in two regions where the eyes should be present is calculated as in the first method. . Next, the calculated ratio of black and the ratio of black when the eyes are opened are compared, and based on how much the eye has changed, eye-meditation is determined.

次に、S64において制御回路11が行う目瞑り判定方法の選択について詳細に説明する。前述した1枚の画像に写っている顔から判定する1つ目の方法では、検出速度は速いが、目が開いているときと、目を瞑ったときとの変化が少ない人の場合は判定が困難であり、判定精度が低くなるという特徴がある。また、目が開いたときの顔が写った画像と、目瞑りを判定したい顔が写った画像の差分から判定する2つ目の方法では、判定精度は上がるが、目が開いたときの顔の登録が面倒であることや、判定速度も遅くなるという特徴がある。以上のような、それぞれの目瞑り判定方法の特徴をもとに、制御回路11がどのように選択するかの選択例を以下に述べる。   Next, selection of the eye-meditation determination method performed by the control circuit 11 in S64 will be described in detail. In the first method of judging from the face shown in one image as described above, the detection speed is fast, but it is judged if the person has little change between when the eyes are open and when the eyes are meditated Is difficult, and the determination accuracy is low. The second method of judging from the difference between the image with the face when the eyes are open and the image with the face that the eye wants to mitigate is determined with higher accuracy, but the face with the eyes open Registration is troublesome and the determination speed is slow. A selection example of how the control circuit 11 selects based on the characteristics of each eye-meditation determination method as described above will be described below.

例えば、撮影画像からS62で顔検出を行った際に複数の顔が検出された場合は、どの顔が登録されている目が開いたときの顔に対応しているのか判断が困難であり、処理時間がかかるため、1つ目の方法を選択して設定する。よって、撮像装置100では、撮像画像に複数の顔が含まれる場合であっても、笑顔判定にかかる判定時間の増加を防止できる。   For example, when a plurality of faces are detected when face detection is performed in S62 from the photographed image, it is difficult to determine which face corresponds to the face when the registered eyes are open, Since processing time is required, the first method is selected and set. Therefore, the imaging apparatus 100 can prevent an increase in determination time for smile determination even when the captured image includes a plurality of faces.

また、もともと目が細い人のように、目が開いているときと、目を瞑ったときとの変化が少ない人の場合は、目を開いたときの顔が写った画像と、目瞑りを判定したい顔が写った画像の差分から判定する2つ目の方法を選択して設定する。この方法では、目を開いたときの顔との差分が少しでもあると検出できるため、目が細い人物であっても、目瞑りを検出することができる。よって、撮像装置100では、撮像画像に目が細い人物の顔が含まれる場合であっても、的確な目瞑り判定を行うことができる。   Also, for people who originally had narrow eyes, such as those with narrow eyes, when there is little change between when the eyes are closed and when the eyes are meditated, images with the face when the eyes are opened A second method for judging from the difference between images showing the face to be judged is selected and set. In this method, since it can be detected that there is even a slight difference from the face when the eyes are opened, it is possible to detect eye meditation even for a person with thin eyes. Therefore, the imaging apparatus 100 can perform accurate eye meditation determination even when the captured image includes a face of a person with narrow eyes.

なお、上述した判定条件については、操作部12の動作モードボタンなどによりユーザが自由に選択できるようにしてもよい。すなわち、ユーザから判定モードを指定する入力を操作部12で受け付け、上述した2種類の目瞑り判定モードのうち、ユーザが所望する判定モードで人物の顔の目瞑り判定を行うようにしてよい。その場合、目瞑りを速く検出したいと思うユーザや、目が開いたときの顔を予め登録しておくのが面倒だと感じるユーザは、1つ目の方法が設定されるため、その要求を満たすことができる。また、目の細い人で判定を行う場合や、絶対に目瞑りを見逃したくないと思われるシーンで判定精度を上げたい場合には2つ目の方法が設定されるため、その要求を満たすことができる。   Note that the determination condition described above may be freely selected by the user using an operation mode button or the like of the operation unit 12. That is, an input for designating a determination mode from the user may be received by the operation unit 12, and the eye face mediting determination of the person's face may be performed in the determination mode desired by the user among the two types of eye meditation determination modes described above. In that case, the user who wants to detect eye meditation quickly, or the user who feels it is troublesome to register the face when the eyes are opened in advance, the first method is set. Can be satisfied. In addition, the second method is set when the judgment is performed by a person with narrow eyes, or when it is desired to improve the judgment accuracy in a scene that you do not want to miss your eyes. Can do.

以上のように、撮像装置100は、撮影した画像から笑顔などの表情を判定する際に、2つの表情判定方法を切り替えて行うことができるため、状況に応じてそれぞれの表情判定方法が有する特徴を生かすことができる。   As described above, the imaging apparatus 100 can switch between the two facial expression determination methods when determining a facial expression such as a smile from the captured image. Therefore, each facial expression determination method has characteristics according to the situation. Can be used.

[第3の実施形態]
次に、第3の実施形態について説明する。本実施形態に係る撮像装置は、表情判定処理部の構成以外、前述した第1、第2の実施形態と同一である。以下の説明では、前述した実施形態と異なる表情判定処理部について詳細に述べる。図6は、第3の実施形態に係る表情判定処理部6aの概略構成を示すブロック図である。
[Third Embodiment]
Next, a third embodiment will be described. The imaging apparatus according to the present embodiment is the same as the first and second embodiments described above except for the configuration of the facial expression determination processing unit. In the following description, a facial expression determination processing unit different from the above-described embodiment will be described in detail. FIG. 6 is a block diagram illustrating a schematic configuration of the facial expression determination processing unit 6a according to the third embodiment.

図6に示すように、表情判定処理部6aは、画像入力部61より入力されたデジタル映像信号における画像から人物の顔領域を検出し、その検出された顔領域に含まれる顔の表情を判定して、その判定結果を結果出力部69より出力している。顔検出部62は、画像入力部61により入力された画像に含まれる人物の顔の位置やサイズを検出する。顔検出部62における顔検出は、前述した既知の方法で行われる。   As shown in FIG. 6, the facial expression determination processing unit 6a detects a human face area from an image in the digital video signal input from the image input unit 61, and determines the facial expression included in the detected face area. The determination result is output from the result output unit 69. The face detection unit 62 detects the position and size of a person's face included in the image input by the image input unit 61. The face detection in the face detection unit 62 is performed by the known method described above.

シーン変化検出部63は、顔検出部62により検出された顔の位置やサイズにより、入力された画像のシーンが変化したか否かを検出し、変化したと判定した場合には後述する記憶部66に記憶された無表情画像の特徴量を消去する。本実施形態では、シーン変化検出部63は、逐次入力された画像から検出された顔の位置やサイズにより、特に表情検出の対象とする人物が変わった場合をシーン変化として検出する。   The scene change detection unit 63 detects whether or not the scene of the input image has changed according to the position and size of the face detected by the face detection unit 62. The feature amount of the expressionless image stored in 66 is deleted. In the present embodiment, the scene change detection unit 63 detects, as a scene change, a case where a person who is a target of facial expression detection is changed by the face position and size detected from the sequentially input images.

顔検出部62により検出された顔について、特徴量抽出部64は、顔を構成する顔部品(目、鼻、口の位置など表情により変化する部位)の輪郭を表す特徴量を抽出し、抽出した特徴量を記憶部66に記憶させる。例えば、特徴量抽出部64は、図7(a)、図7(b)に示したように、顔Fa、Fbの各パーツ(目、鼻、口など)の輪郭を抽出し、その輪郭に沿った位置の特徴点F1〜F23を抽出する。   With respect to the face detected by the face detection unit 62, the feature amount extraction unit 64 extracts and extracts a feature amount representing the outline of a facial component (a part that changes depending on facial expressions such as the position of eyes, nose, and mouth) constituting the face. The stored feature amount is stored in the storage unit 66. For example, as shown in FIGS. 7A and 7B, the feature amount extraction unit 64 extracts the contours of the parts (eyes, nose, mouth, etc.) of the faces Fa and Fb, and uses them as the contours. Feature points F1 to F23 at positions along the line are extracted.

表情判定処理部6aでは、特徴量抽出部64により抽出された特徴量を用いて人物の顔の表情を判定するが、表情判定は制御部60により制御される。制御部60は、無表情判定部65において、上記抽出した人物の顔が無表情であるか否かを判定させ、無表情である場合はその特徴量を記憶部66に記憶させる。無表情判定部65では、抽出した人物の顔の顔部品ごとの特徴量が、無表情の顔の顔部品ごとの特徴量を示す基準データに類似する場合であり、抽出した人物の顔と基準データが示す無表情の顔の輪郭が類似する場合に無表情であると判定する。また、記憶部66には、基準となる表情の顔を構成する顔部品ごとの特徴量を示す、例えば笑顔を一般化して定義した基準値が予め記憶されている。したがって、記憶部66は、基準となる表情の顔を構成する顔部品ごとの特徴量を予め記憶するとともに、抽出した無表情の顔の特徴量を記憶する基準表情記憶手段である。   The facial expression determination processing unit 6 a determines the facial expression of a person using the feature amount extracted by the feature amount extraction unit 64, and facial expression determination is controlled by the control unit 60. The control unit 60 causes the expressionless determination unit 65 to determine whether or not the extracted person's face is expressionless. If it is expressionless, the feature amount is stored in the storage unit 66. In the expressionless determination unit 65, the feature quantity for each facial part of the extracted person's face is similar to the reference data indicating the feature quantity for each facial part of the expressionless face. It is determined that there is no expression when the contours of the expressionless face indicated by the data are similar. Further, the storage unit 66 stores in advance a reference value that is defined by generalizing a smile, for example, indicating a feature amount for each facial part that constitutes a facial expression that serves as a reference. Therefore, the storage unit 66 is a reference facial expression storage unit that stores in advance the feature amount of each facial part constituting the face of the reference facial expression and stores the extracted feature amount of the expressionless face.

次に、制御部60は、記憶部66に無表情画像の特徴量が記憶されていない場合、特徴量抽出部64で抽出された特徴量と、記憶部66に予め記憶された笑顔を一般化して定義した基準値とに基づいた表情判定を第1表情判定部67で実施させる。第1表情判定部67は、現時点で検出された顔の特徴量のみを用いた表情の判定、すなわち、第1の実施形態における1つ目の方法による表情判定を行う。   Next, when the feature amount of the expressionless image is not stored in the storage unit 66, the control unit 60 generalizes the feature amount extracted by the feature amount extraction unit 64 and the smile stored in advance in the storage unit 66. The first facial expression determination unit 67 performs facial expression determination based on the defined reference value. The first facial expression determination unit 67 performs facial expression determination using only the facial feature amount detected at the present time, that is, facial expression determination by the first method in the first embodiment.

また、制御部60は、記憶部66に無表情画像の特徴量が記憶されている場合、その無表情画像の特徴量と、特徴量抽出部64で検出されて記憶部66に記憶された特徴量とに基づいた表情判定を第2表情判定部68で実施させる。第2表情判定部68では、無表情画像の特徴量と現時点で検出された顔の特徴量とを用いたその差分による表情判定、すなわち、第1の実施形態における2つ目の方法による表情判定を行う。結果出力部69は、第1表情判定部67又は第2表情判定部68の判定結果を出力する。表情判定処理部6aでは、画像入力部61へ順次入力される画像について、上述した処理を繰り返して行うことで、表情判定を継続して行う。   When the feature amount of the expressionless image is stored in the storage unit 66, the control unit 60 detects the feature amount of the expressionless image and the feature detected by the feature amount extraction unit 64 and stored in the storage unit 66. The facial expression determination based on the amount is performed by the second facial expression determination unit 68. The second facial expression determination unit 68 uses the difference between the feature amount of the expressionless image and the currently detected facial feature amount to determine the facial expression, that is, the facial expression determination by the second method in the first embodiment. I do. The result output unit 69 outputs the determination result of the first facial expression determination unit 67 or the second facial expression determination unit 68. The facial expression determination processing unit 6a continuously performs facial expression determination by repeatedly performing the above-described processing on images sequentially input to the image input unit 61.

次に、表情判定処理部6aの処理動作を図8を参照してさらに詳細に説明する。図8に示すように、表情判定処理部6aは、S81において、画像入力部61より表情判定を行う画像を入力する。次いで、表情判定処理部6aは、S82において、入力された画像に含まれる人物の顔を顔検出部62により検出する。   Next, the processing operation of the facial expression determination processing unit 6a will be described in more detail with reference to FIG. As shown in FIG. 8, the facial expression determination processing unit 6a inputs an image for facial expression determination from the image input unit 61 in S81. Next, in S82, the facial expression determination processing unit 6a detects the face of a person included in the input image by the face detection unit 62.

次いで、表情判定処理部6aは、S83において、判別手段としてのシーン変化検出部63で、別人物の顔に切り替わったか否かのシーン変化の検出を以下のように行う。今回検出した顔の大きさSi及び位置(Px,Py)と、その直前に検出した顔の大きさSi’及び位置(Px’,Py’)と、予め設定された閾値THs及びTHpとを次式のように比較する。
|Si−Si’|<THs
かつ
(Px−Px’)+(Py−Py)<THp
Next, in S83, the facial expression determination processing unit 6a uses the scene change detection unit 63 as a determination unit to detect a scene change as to whether or not a face of another person has been switched as follows. The face size Si and position (Px, Py) detected this time, the face size Si ′ and position (Px ′, Py ′) detected immediately before, and the preset thresholds THs and THp are as follows. Compare as in the equation.
| Si-Si '| <THs
And (Px−Px ′) 2 + (Py−Py) 2 <THp

上式が満たされる場合、表情判定処理部6aは、逐次入力された画像において、顔のサイズの変化も少なく(THs未満)、顔の位置の変化も少ない(THp未満)ことから、同一人物の顔であると判定し、シーン変化がなかったものと判定する。また、上式が満たされない場合、表情判定処理部6aは、逐次入力された画像において、顔のサイズの変化が大きく、顔の位置の変化が大きいことから、シーン変化があったと判定する。シーン変化があったと判定した場合、表情判定処理部6aは、記憶部66に記憶されている無表情顔の特徴量を消去する。したがって、表情判定処理部6aでは、シーン変化を判定することにより、別人の無表情顔と表情を比較して表情を誤判定することを避けることが可能となる。   When the above equation is satisfied, the facial expression determination processing unit 6a has little change in the size of the face (less than THs) and little change in the position of the face (less than THp) in the sequentially input images. It is determined that the face is present, and it is determined that the scene has not changed. If the above equation is not satisfied, the facial expression determination processing unit 6a determines that there has been a scene change because the face size change is large and the face position change is large in the sequentially input images. When it is determined that the scene has changed, the facial expression determination processing unit 6a deletes the feature amount of the expressionless face stored in the storage unit 66. Therefore, in the facial expression determination processing unit 6a, it is possible to avoid erroneous determination of facial expressions by comparing a facial expression with another person's expressionless face by determining a scene change.

次いで、表情判定処理部6aは、S84において、顔検出部62で検出された人物の顔について、その特徴量を特徴量抽出部64で検出する。次いで、表情判定処理部6aは、S85において、顔検出部62で検出された人物の顔が無表情であるか否かを無表情判定部65により次のように判定する。   Next, the facial expression determination processing unit 6a detects the feature amount of the person's face detected by the face detection unit 62 using the feature amount extraction unit 64 in S84. Next, in S85, the facial expression determination processing unit 6a determines whether or not the human face detected by the face detection unit 62 is an expressionless by the expressionless determination unit 65 as follows.

図7(a)と図7(b)との比較により明らかなように、笑顔である顔Fbでは、口角にあたる特徴点F6、7が上がる、目尻にあたる特徴点F8、F14が下がるといった特徴がある。また、人物の顔において、特徴点F4と特徴点F10(又は特徴点F12)とは比較的表情による変化が小さい特徴がある。したがって、比較的表情による変化が小さい特徴点F4と特徴点F10(又は特徴点F12)の距離、特徴点F6と特徴点F8(又は特徴点F7と特徴点F14)の距離の比を見ることで表情(笑顔)の判定が可能である。例えば、上記比が所定範囲内であれば無表情との判定が可能である。その他、怒った顔などの他の表情に特徴的な部分についても同様な判定を行い、全ての判定において、比較的表情による変化が小さい部分と大きい部分との比が所定範囲内である場合に無表情の判定を行ってもよい。このように全ての表情判定で無表情である場合に、無表情とすることで、無表情判定の精度を向上することができる。無表情であると判定された場合には、無表情と判定された特徴量を記憶部66に記憶する。   As is clear from a comparison between FIG. 7A and FIG. 7B, the smiling face Fb has features such that the feature points F6 and F7 corresponding to the corner of the mouth are raised and the feature points F8 and F14 corresponding to the corners of the eyes are lowered. . Further, in the face of a person, the feature point F4 and the feature point F10 (or the feature point F12) have a feature that changes relatively little by facial expressions. Therefore, by looking at the ratio of the distance between the feature point F4 and the feature point F10 (or the feature point F12) and the distance between the feature point F6 and the feature point F8 (or the feature point F7 and the feature point F14) that change relatively little by the expression. A facial expression (smile) can be determined. For example, if the ratio is within a predetermined range, it can be determined that there is no expression. In addition, the same determination is made for other facial features characteristic of an angry face, etc., and the ratio of the portion with relatively small change due to facial expression is within a predetermined range in all the determinations. An expressionless expression may be determined. In this way, when all facial expressions are expressionless, expressionlessness can be improved by making expressionless. When it is determined that there is no expression, the feature amount determined as expressionless is stored in the storage unit 66.

次いで、表情判定処理部6aは、S16において、無表情画像の特徴量が記憶部66に記憶されているか否かを制御部60で判定し、無表情画像の特徴量が記憶されている場合、S18に処理を進める。S18では、無表情画像の特徴量と今回検出した顔の特徴量とを用いた表情判定を第2表情判定部68により行う。例えば、口角の位置(図7(a)、(b)の特徴点F6、F7)が無表情時の特徴量と比較して上方に移動している。且つ、目尻の位置(図7(a)、(b)の特徴点F8、F14)が無表情時の特徴量と比較して下方に移動している。上記の条件を満たす場合は笑顔であると判定する。   Next, the facial expression determination processing unit 6a determines in S16 whether or not the feature amount of the expressionless image is stored in the storage unit 66, and if the feature amount of the expressionless image is stored, The process proceeds to S18. In S18, the second facial expression determination unit 68 performs facial expression determination using the feature amount of the expressionless image and the facial feature amount detected this time. For example, the position of the mouth corner (feature points F6 and F7 in FIGS. 7A and 7B) has moved upward compared to the feature amount in the expressionless state. In addition, the positions of the corners of the eyes (feature points F8 and F14 in FIGS. 7A and 7B) are moved downward as compared with the feature amount in the expressionless state. If the above condition is satisfied, it is determined that the face is smiling.

また、S16において無表情画像の特徴量が記憶されていない場合、表情判定処理部6aは、S19に処理を進め、今回取得した顔の特徴量のみを用いた表情判定を第1表情判定部67により行う。例えば、上記無表情の判定と同様に、比較的表情による変化が小さい特徴点F4と特徴点F10(又はF12)の距離、特徴点F6と特徴点F8(又は特徴点F7と特徴点F14)の距離の比を算出する。そして、算出された距離の比が所定値以上であれば笑顔であると判定する。次いで、表情判定処理部6aは、S20において、第1表情判定部67又は第2表情判定部68の判定結果を結果出力部69より出力する。   If the feature amount of the expressionless image is not stored in S16, the facial expression determination processing unit 6a proceeds to S19, and the facial expression determination using only the facial feature amount acquired this time is the first facial expression determination unit 67. To do. For example, similar to the determination of the expressionlessness, the distance between the feature point F4 and the feature point F10 (or F12), the feature point F6 and the feature point F8 (or the feature point F7 and the feature point F14) that change relatively little by the expression. Calculate the distance ratio. If the calculated distance ratio is equal to or greater than a predetermined value, the smile is determined. Next, the facial expression determination processing unit 6a outputs the determination result of the first facial expression determination unit 67 or the second facial expression determination unit 68 from the result output unit 69 in S20.

したがって、第3の実施形態では、順次入力された画像から無表情画像の取得ができているか否かを判定し、無表情画像の取得ができていない場合は第1表情判定部67が無表情画像を用いないで表情判定を行う。また、無表情画像の取得ができている場合は第2表情判定部68が無表情画像を用いて表情判定を行う。したがって、撮像装置100では、無表情画像が取得できていないときにも第1の判定モードによる表情判定が可能であり、また、無表情画像が取得できている場合には、その無表情画像との差分による精度の高い表情判定を行うことが可能である。   Therefore, in the third embodiment, it is determined whether or not an expressionless image can be acquired from sequentially input images. If no expressionless image can be acquired, the first expression determination unit 67 determines whether or not an expressionless image is acquired. Perform facial expression determination without using images. When the expressionless image has been acquired, the second expression determination unit 68 performs expression determination using the expressionless image. Therefore, the imaging apparatus 100 can perform facial expression determination in the first determination mode even when an expressionless image cannot be acquired. If an expressionless image can be acquired, the expressionless image It is possible to perform highly accurate facial expression determination based on the difference between the two.

[第4の実施形態]
次に、前述した第3の実施形態を変形した第4の実施形態について説明する。第3の実施形態において、表情判定処理部は2つの異なる表情判定部を有する構成であった。第4の実施形態では、標準無表情特徴量を導入することで、表情判定処理部における表情判定部を1つで構成したものである。
[Fourth Embodiment]
Next, a fourth embodiment obtained by modifying the above-described third embodiment will be described. In the third embodiment, the facial expression determination processing unit has two different facial expression determination units. In the fourth embodiment, the standard expressionless feature quantity is introduced, so that the expression determination unit in the expression determination processing unit is configured as one.

図9に第4の実施形態に係る表情判定処理部6bの概略構成を示す。図9に示すように、表情判定処理部6bは、第3の実施形態における表情判定処理部6a比較して、1つの表情判定部67aと標準無表情特徴量が予め記憶されたメモリ70とを有する構成であり、他の部分は同一な構成である。以下の説明では、前述した第3の実施形態と異なる部分についてのみ説明する。   FIG. 9 shows a schematic configuration of the facial expression determination processing unit 6b according to the fourth embodiment. As shown in FIG. 9, the facial expression determination processing unit 6b includes one facial expression determination unit 67a and a memory 70 in which standard facial expression feature values are stored in advance, as compared with the facial expression determination processing unit 6a in the third embodiment. The other parts have the same configuration. In the following description, only parts different from the third embodiment will be described.

図10に表情判定処理部6bの処理動作を示す。図10のフローチャートにおいて、S91〜S96までの処理動作は第3の実施形態のS81〜S86と同じである。S96において無表情画像の特徴量が取得できていた場合、表情判定処理部6bは、S97に処理を進め、取得している無表情画像の特徴量を表情判定用の比較データとして設定する。また、S96において無表情画像の特徴量が取得できていない場合、表情判定処理部6bは、S98に処理を進め、メモリ70に予め記憶された標準無表情特徴量を表情判定用の比較データとして設定する。   FIG. 10 shows the processing operation of the facial expression determination processing unit 6b. In the flowchart of FIG. 10, the processing operations from S91 to S96 are the same as S81 to S86 of the third embodiment. If the feature amount of the expressionless image has been acquired in S96, the expression determination processing unit 6b advances the processing to S97, and sets the acquired feature amount of the expressionless image as comparison data for expression determination. If the feature amount of the expressionless image has not been acquired in S96, the expression determination processing unit 6b advances the processing to S98 and uses the standard expressionless feature amount stored in advance in the memory 70 as comparison data for expression determination. Set.

標準無表情特徴量は、複数人の無表情画像から特徴量を取得して算出された平均値であり、平均的な無表情の特徴量である。したがって、表情判定部67aは、順次入力された画像から無表情画像の特徴量が取得できていない場合であっても、比較データとして標準無表情特徴量が設定されるため、無表情画像との差分による高精度で、万人に対して平均的な表情判定を実施できる。   The standard expressionless feature value is an average value calculated by acquiring feature values from a plurality of expressionless images, and is an average expressionless feature value. Therefore, the facial expression determination unit 67a sets the standard expressionless feature amount as the comparison data even if the feature amount of the expressionless image cannot be acquired from the sequentially input images. It is possible to carry out average facial expression judgments for all people with high accuracy based on differences.

次いで、表情判定処理部6bは、S99において、設定された比較用の特徴量と今回取得した特徴量を用いて、第3の実施形態における第2表情判定部68と同様な表情判定を表情判定部67aにより行う。具体的には、表情判定部67aにおいて、予め記憶された標準無表情特徴量を表情判定用の比較データとして設定された場合には、標準無表情特徴量と今回取得した特徴量を用いた判定方法(第1の判定モード)で表情判定が行われる。また、S96において取得した無表情画像の特徴量を表情判定用の比較データとして設定された場合には、その取得した無表情画像の特徴量と今回取得した特徴量を用いた判定方法(第2の判定モード)で表情判定が行われる。次いで、表情判定処理部6bは、S100において、表情判定部67aの判定結果を結果出力部69より出力する。   Next, in S99, the facial expression determination processing unit 6b performs facial expression determination similar to the second facial expression determination unit 68 in the third embodiment, using the set feature value for comparison and the feature amount acquired this time. This is performed by the unit 67a. Specifically, when the standard expressionless feature amount stored in advance is set as comparison data for facial expression determination in the facial expression determination unit 67a, determination using the standard expressionless feature amount and the feature amount acquired this time Expression determination is performed by the method (first determination mode). If the feature amount of the expressionless image acquired in S96 is set as comparison data for facial expression determination, the determination method using the feature amount of the acquired expressionless image and the feature amount acquired this time (second) In the determination mode). Next, the facial expression determination processing unit 6b outputs the determination result of the facial expression determination unit 67a from the result output unit 69 in S100.

以上のとおり、第4の実施形態では、順次入力される画像から無表情の特徴量が取得できた場合、その無表情の特徴量との差分による表情判定を行うことができ、本人の無表情な顔との比較による精度の高い表情判定を行うことが可能となる。また、無表情の特徴量が取得できない場合であっても、平均的な無表情の特徴量が表情判定部67aに設定されるため、現時点で検出された顔の特徴量のみを用いた表情判定を行う、表情判定部67aと異なる表情判定部を用意する必要がない。   As described above, in the fourth embodiment, when an expressionless feature amount can be acquired from sequentially input images, an expression determination based on a difference from the expressionless feature amount can be performed. It is possible to perform facial expression determination with high accuracy by comparison with a simple face. Even if the expressionless feature value cannot be acquired, the average expressionless feature value is set in the expression determination unit 67a. Therefore, the expression determination using only the facial feature value detected at the present time. It is not necessary to prepare a facial expression determination unit different from the facial expression determination unit 67a.

なお、上述した実施の形態における記述は、一例を示すものであり、これに限定するものではない。上述した実施の形態における構成及び動作に関しては、適宜変更が可能である。   Note that the description in the above-described embodiment shows an example, and the present invention is not limited to this. The configuration and operation in the embodiment described above can be changed as appropriate.

(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

第1の実施形態に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment. 第1の実施形態に係る撮像装置の処理動作を示すフローチャートである。3 is a flowchart illustrating a processing operation of the imaging apparatus according to the first embodiment. 1枚の画像に写っている顔から笑顔判定を行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation which performs smile determination from the face reflected in one image. 無表情の顔が写った画像と、笑顔を判定したい顔が写った画像と、の差分から笑顔判定を行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation | movement which performs a smile determination from the difference of the image in which the expressionless face was reflected, and the image in which the face which wants to determine a smile was reflected. 第2の実施形態に係る撮像装置の処理動作を示すフローチャートである。10 is a flowchart illustrating a processing operation of the imaging apparatus according to the second embodiment. 第3の実施形態に係る表情判定処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the facial expression determination process part which concerns on 3rd Embodiment. (a)は、無表情時の特徴点を例示する概念図であり、(b)は、笑顔時の特徴点を例示する概念図である。(A) is a conceptual diagram illustrating a feature point when there is no expression, and (b) is a conceptual diagram illustrating a feature point when smiling. 第3の実施形態に係る表情判定処理部の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the facial expression determination processing part which concerns on 3rd Embodiment. 第4の実施形態に係る表情判定処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the facial expression determination process part which concerns on 4th Embodiment. 第4の実施形態に係る表情判定処理部の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the facial expression determination processing part which concerns on 4th Embodiment. (a)は、1枚の画像に写っている顔から笑顔を判定する方法を示す概念図であり、(b)は、予め登録された画像と判定したい顔が写った画像との差分から笑顔を判定する方法を示す概念図である。(A) is a conceptual diagram showing a method for determining a smile from a face shown in one image, and (b) is a smile based on a difference between a previously registered image and an image showing a face to be determined. It is a conceptual diagram which shows the method of determining.

符号の説明Explanation of symbols

100 撮像装置
1 レンズ系
2 撮像素子
3 アナログ信号処理部
4 A/D変換部
5 デジタル信号処理部
6、6a、6b 表情判定処理部
7 メモリ
8 記憶制御部
9 外部メモリ
10 表示部
11 制御回路
12 操作部
DESCRIPTION OF SYMBOLS 100 Image pick-up device 1 Lens system 2 Image pick-up element 3 Analog signal processing part 4 A / D conversion part 5 Digital signal processing part 6, 6a, 6b Expression determination processing part 7 Memory 8 Storage control part 9 External memory 10 Display part 11 Control circuit 12 Operation part

Claims (13)

入力された画像データから人物の顔を検出する検出手段を有し、検出された顔が所定の表情であるか否かを判定する表情判定装置であって、
前記検出された顔を構成する顔部品の特徴量を、当該顔部品ごとに抽出する抽出手段と、
前記抽出手段により抽出された顔部品ごとの特徴量に基づいて、第1の判定モード、又は、前記第1の判定モードと異なる第2の判定モードのいずれかで、前記検出された顔が前記所定の表情であるか否かを判定する表情判定手段と、
前記表情判定手段において前記第1の判定モード、又は、前記第2の判定モードのいずれによって表情判定するかを、予め定められた判定条件に応じて前記表情判定手段に設定する制御手段と、
を備え
前記第1の判定モードは、前記抽出手段により抽出された顔部品ごとの特徴量と、前記所定の表情であることを示す基準値との相関に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであり、
前記第2の判定モードは、前記抽出手段により抽出された顔部品ごとの特徴量と、予め記憶された基準となる表情の顔を構成する顔部品ごとの特徴量との差分に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであことを特徴とする表情判定装置。
Has a detection means for detecting a face of a person from the input image data, the detected face is a determining expression determination device whether or not the predetermined expression,
FEATURES amount of the face part constituting the detected face, extraction means for extracting for each relevant face part,
Based on the feature amount for each face part extracted by the extraction unit, the detected face is detected in either the first determination mode or the second determination mode different from the first determination mode. Facial expression determination means for determining whether or not a predetermined facial expression;
The facial expression determination unit to your stomach the first determination mode, or a control means for setting one by one expression determines the second judgment mode, the facial expression determination unit according to a predetermined determination condition ,
Equipped with a,
In the first determination mode, the detected face is detected based on a correlation between a feature amount for each facial part extracted by the extraction unit and a reference value indicating the predetermined facial expression. It is a judgment mode that determines whether or not it is a facial expression,
The second determination mode is based on a difference between a feature amount for each facial part extracted by the extraction unit and a feature amount for each facial part constituting a facial expression that is a reference stored in advance. Oh Ru in the detected face determination mode whether the a predetermined expression, facial expression determination apparatus characterized by.
記判定条件が、前記表情判定手段における判定速度と判定精度のどちらを優先するかであり、前記制御手段は、前記表情判定手段における判定速度を優先する場合は前記第1の判定モードを、前記表情判定手段における判定精度を優先する場合は前記第2の判定モードを前記表情判定手段に設定することを特徴とする請求項1に記載の表情判定装置。 Before SL determination condition is a whether to assign priority to the determination speed and determination accuracy in the facial expression determination unit, wherein if the priority is given to determination speed in the facial expression determination unit the first determination mode, The facial expression determination apparatus according to claim 1, wherein the second determination mode is set in the facial expression determination unit when priority is given to determination accuracy in the facial expression determination unit. 前記判定条件が、前記検出手段により前記画像データから検出された顔の数であり、前記制御手段は、前記検出手段により複数の顔が検出された場合は前記第1の判定モードを設定することを特徴とする請求項に記載の表情判定装置。 The determination condition is the number of faces detected from the image data by the detection means, and the control means sets the first determination mode when a plurality of faces are detected by the detection means. The facial expression determination apparatus according to claim 1 . 逐次入力された複数の前記画像データに基づいて前記顔の動き量を検出する動作検出手段を更に備え、
前記判定条件が前記顔の動き量の大きさであって、前記制御手段は、前記動作検出手段により検出された動き量が予め設定された基準動き量より大きい場合は前記第1の判定モードを設定することを特徴とする請求項に記載の表情判定装置。
Further comprising motion detection means for detecting the amount of movement of the face based on the plurality of image data sequentially input,
If the determination condition is the magnitude of the amount of movement of the face, and the amount of movement detected by the motion detection unit is greater than a preset reference movement amount, the control unit sets the first determination mode. The facial expression determination device according to claim 1 , wherein the facial expression determination device is set.
逐次入力された複数の前記画像データに亘って前記抽出手段により抽出された顔部品ごとの特徴量の変化量を検出する変化量検出手段を更に備え、
前記判定条件が前記特徴量の変化量の大きさであって、前記制御手段は、前記変化量検出手段により検出された変化量が予め設定された基準変化量より小さい場合は前記第2の判定モードへ切り替えることを特徴とする請求項に記載の表情判定装置。
It further comprises a change amount detection means for detecting a change amount of the feature amount for each face part extracted by the extraction means over the plurality of image data sequentially input.
When the determination condition is the magnitude of the change amount of the feature amount and the change amount detected by the change amount detection unit is smaller than a preset reference change amount, the second determination The facial expression determination device according to claim 1 , wherein the facial expression determination device is switched to a mode.
ユーザから前記判定モードを指定する入力を受け付ける操作手段を更に備え、
前記判定条件が前記操作手段で受け付けた入力の内容であり、前記制御手段は、前記操作手段が受け付けた入力で指定された判定モードを前記表情判定手段に設定することを特徴とする請求項に記載の表情判定装置。
An operation means for receiving an input for designating the determination mode from a user;
A content of the input to the determination condition accepted by said operation means, the control means, according to claim 1, characterized in that sets a determination mode in which the operating means is specified by the accepted input to the facial expression determination unit The facial expression determination apparatus described in 1.
前記検出手段で検出された顔について、逐次入力された前記画像データから前記抽出手段により抽出された顔部品ごとの特徴量のうち、前記基準となる表情の顔を構成する顔部品ごとの特徴量を、前記基準となる表情の顔を構成する顔部品ごとの特徴量として記憶する基準表情記憶手段を更に備え、
前記判定条件が前記基準表情記憶手段に前記基準となる表情の顔を構成する顔部品ごとの特徴量が記憶されているか否かであり、前記制御手段は、前記検出手段で検出された顔について前記基準表情記憶手段に前記基準となる表情の顔を構成する顔部品ごとの特徴量が記憶されていない場合は前記第1の判定モードを、前記基準表情記憶手段に前記基準となる表情の顔を構成する顔部品ごとの特徴量が記憶されている場合は前記第2の判定モードを、前記表情判定手段に設定することを特徴とする請求項に記載の表情判定装置。
Of the feature quantities of the facial parts detected by the detection means, the feature quantities of the facial parts constituting the reference facial expression among the feature quantities of the facial parts extracted by the extraction means from the sequentially input image data. And a reference facial expression storage means for storing as a feature quantity for each facial part constituting the reference facial expression,
The determination condition is whether or not a feature amount for each facial part constituting the face of the reference facial expression is stored in the reference facial expression storage unit, and the control unit is configured to detect the face detected by the detection unit. When the feature quantity for each facial part constituting the face of the reference facial expression is not stored in the reference facial expression storage means, the first determination mode is entered, and the reference facial expression face is stored in the reference facial expression storage means. The facial expression determination apparatus according to claim 1 , wherein the second determination mode is set in the facial expression determination unit when a feature amount for each facial part that constitutes is stored.
前記基準となる表情の顔を構成する顔部品ごとの特徴量を予め記憶するとともに、逐次入力された前記画像データから前記抽出手段により抽出された顔部品ごとの特徴量が、前記基準となる表情の顔を構成する顔部品ごとの特徴量の相関を示す基準データに類似する場合に、当該抽出された顔部品ごとの特徴量を記憶する基準表情記憶手段を更に備え、
前記第1の判定モードで用いる前記基準値、前記基準表情記憶手段に予め記憶された前記基準となる表情の顔を構成する顔部品ごとの特徴量であり、
前記第2の判定モードで用いる前記予め記憶された基準となる表情の顔を構成する顔部品ごとの特徴量、前記基準表情記憶手段に記憶された前記抽出された顔部品ごとの特徴量であって、
前記判定条件が前記基準表情記憶手段に前記抽出された顔部品ごとの特徴量が記憶されているか否かであり、前記制御手段は、前記基準表情記憶手段に前記抽出された顔部品ごとの特徴量が記憶されていない場合は前記第1の判定モードを、前記基準表情記憶手段に前記抽出された顔部品ごとの特徴量が記憶されている場合は前記第2の判定モードを、前記表情判定手段に設定することを特徴とする請求項1に記載の表情判定装置。
The feature amount for each facial part constituting the face of the reference facial expression is stored in advance, and the feature amount for each facial part extracted by the extraction unit from the sequentially input image data is used as the reference facial expression. A reference facial expression storage means for storing the feature quantity of each extracted facial part when the face data is similar to the reference data indicating the correlation of the feature quantity of each facial part constituting the face,
Wherein the reference value used in the first determination mode is a feature amount of each face part constituting the facial expressions of the previously stored the criteria before Symbol reference facial expression storing means,
Characteristic quantity of each of the feature amounts of each facial components forming the face of the expressions to be pre-stored reference used in the second determination mode pre Symbol reference facial expression the extracted face parts stored in the storage means Because
The determination condition is whether or not the feature value for each extracted facial part is stored in the reference facial expression storage means, and the control means is a feature for each facial part extracted in the reference facial expression storage means. When the amount is not stored, the first determination mode is selected. When the feature value for each of the extracted facial parts is stored in the reference facial expression storage means, the second determination mode is selected. The facial expression determination device according to claim 1, wherein the facial expression determination device is set in a means.
逐次入力された複数の前記画像データに亘って前記抽出手段により抽出された顔部品ごとの特徴量の変化量に応じて、前記検出された顔が別人物の顔に切り替わったか否かを判別する判別手段を更に備え、
前記制御手段は、前記判別手段により別人物の顔に切り替わったと判別された場合は前記基準表情記憶手段に記憶された前記抽出された顔部品ごとの特徴量を消去することを特徴とする請求項7又は8に記載の表情判定装置。
It is determined whether or not the detected face has been switched to another person's face according to the amount of change in the feature amount for each facial part extracted by the extracting means over the plurality of image data that are sequentially input. Further comprising a determining means for
The control means erases the feature amount for each extracted facial part stored in the reference facial expression storage means when it is determined by the determination means that the face has been switched to another person's face. The facial expression determination apparatus according to 7 or 8.
前記所定の表情は、笑顔、又は、目瞑り顔であることを特徴とする請求項1乃至9のいずか一項に記載の表情判定装置。 The predetermined expression is smile or facial expression determination apparatus according to any one of claims 1 to 9, whichever is one wherein characterized in that it is a eye closed face. 撮像手段と、
表示手段と、
前記撮像手段により撮影された画像データを記録する記録手段と、
前記撮像手段により撮影された画像データから人物の顔を検出する検出手段を有し、検出された顔が所定の表情であるか否かを判定する請求項1乃至10のいずれか一項に記載の表情判定装置と、
前記表情判定装置の判定結果に応じて前記撮影された画像データの前記記録手段への記録、又は、当該判定結果の前記表示手段への表示出力を制御する出力制御手段と、
を備えることを特徴とする撮像装置。
Imaging means;
Display means;
Recording means for recording image data taken by the imaging means;
It has a detection means for detecting a human face from the photographed image data by the image pickup means, detected face according to any one of claims 1 to 10 determines whether a predetermined expression Facial expression determination device,
According to the determination result of the facial expression determination unit, the captured recording to the recording means of the image data, or an output control means for controlling a display output to the display unit of the determination result,
An imaging apparatus comprising:
入力された画像データから人物の顔を検出する検出手段を有し、検出した顔が所定の表情であるか否かを判定する表情判定装置の制御方法であって、
抽出手段が、前記検出された顔を構成する顔部品の特徴量を、当該顔部品ごとに抽出する抽出工程と、
表情判定手段が、前記抽出工程において抽出された顔部品ごとの特徴量に基づいて、第1の判定モード、又は、前記第1の判定モードと異なる第2の判定モードのいずれかで、前記検出された顔が前記所定の表情であるか否かを判定する表情判定工程と、
制御手段が、前記表情判定工程で用いる判定モードを、予め定められた判定条件に応じて前記第1の判定モード及び前記第2の判定モードのいずれかに設定する制御工程と、
有し、
前記第1の判定モードは、前記抽出工程において抽出された顔部品ごとの特徴量と、前記所定の表情であることを示す基準値との相関に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであり、
前記第2の判定モードは、前記抽出工程において抽出された顔部品ごとの特徴量と、予め記憶された基準となる表情の顔を構成する顔部品ごとの特徴量との差分に基づいて、前記検出された顔が前記所定の表情であるか否かを判定する判定モードであことを特徴とする表情判定装置の制御方法。
A control method for a facial expression determination apparatus that includes detection means for detecting a human face from input image data and determines whether or not the detected face is a predetermined facial expression,
Extraction means, a feature amount of the face part constituting the detected face, an extraction step of extracting for each relevant face part,
Facial expression determination unit, based on the feature amount of each Oite extracted face parts in the extraction step, the first determination mode, or in one of the first determination mode is different from the second determination mode, A facial expression determination step for determining whether or not the detected face is the predetermined facial expression;
Control means, and a control step of the determination mode used in the facial expression determination step, according to a predetermined determination condition, any crab set of the first determination mode and the second determination mode,
Have
In the first determination mode, the detected face is detected based on the correlation between the feature amount of each facial part extracted in the extraction step and a reference value indicating the predetermined facial expression. It is a judgment mode that determines whether or not it is a facial expression,
The second determination mode is based on a difference between a feature amount for each facial part extracted in the extraction step and a feature amount for each facial part constituting a facial expression serving as a reference stored in advance. Oh Ru in the detected face determination mode whether the a predetermined expression, the control method of the facial expression determination apparatus characterized by.
請求項12に記載の表情判定装置の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of the facial expression determination apparatus of Claim 12.
JP2008291494A 2008-11-13 2008-11-13 Facial expression determination device, control method thereof, imaging device, and program Expired - Fee Related JP5106355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008291494A JP5106355B2 (en) 2008-11-13 2008-11-13 Facial expression determination device, control method thereof, imaging device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008291494A JP5106355B2 (en) 2008-11-13 2008-11-13 Facial expression determination device, control method thereof, imaging device, and program

Publications (3)

Publication Number Publication Date
JP2010117948A JP2010117948A (en) 2010-05-27
JP2010117948A5 JP2010117948A5 (en) 2012-01-05
JP5106355B2 true JP5106355B2 (en) 2012-12-26

Family

ID=42305579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008291494A Expired - Fee Related JP5106355B2 (en) 2008-11-13 2008-11-13 Facial expression determination device, control method thereof, imaging device, and program

Country Status (1)

Country Link
JP (1) JP5106355B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021434A (en) * 2011-07-08 2013-01-31 Nec Saitama Ltd Imaging apparatus, imaging control method, and program
JP5828722B2 (en) * 2011-09-07 2015-12-09 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP2013132011A (en) * 2011-12-22 2013-07-04 Canon Inc Imaging device, imaging method, and program
JP5906817B2 (en) * 2012-03-02 2016-04-20 株式会社ニコン Image processing device
JP2013186512A (en) 2012-03-06 2013-09-19 Sony Corp Image processing apparatus and method, and program
JP6202882B2 (en) * 2013-05-28 2017-09-27 大和ハウス工業株式会社 Facial expression detection system and facial expression detection method
KR101802062B1 (en) * 2016-03-14 2017-11-27 한국과학기술원 Method and system to measure stereoscopic 3d content-induced visual discomfort based facial expression recognition for sensitivity tv
CN105975935B (en) * 2016-05-04 2019-06-25 腾讯科技(深圳)有限公司 A kind of face image processing process and device
KR102564855B1 (en) 2018-01-08 2023-08-08 삼성전자주식회사 Device and method to recognize object and face expression, and device and method to train obejct and face expression robust to facial change
JP7080212B2 (en) 2019-12-27 2022-06-03 グリー株式会社 Computer programs, server devices and methods

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4013684B2 (en) * 2002-07-23 2007-11-28 オムロン株式会社 Unauthorized registration prevention device in personal authentication system
JP4743823B2 (en) * 2003-07-18 2011-08-10 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing method
JP2005293539A (en) * 2004-03-08 2005-10-20 Matsushita Electric Works Ltd Facial expression recognizing device
JP2007067559A (en) * 2005-08-29 2007-03-15 Canon Inc Image processing method, image processing apparatus, and control method of imaging apparatus
JP2008123399A (en) * 2006-11-15 2008-05-29 Seiko Epson Corp Feeling recognition device, electronic equipment, feeling recognizing method, control program and recording medium
JP4884251B2 (en) * 2007-02-09 2012-02-29 富士フイルム株式会社 Imaging apparatus, method, and program
JP4789825B2 (en) * 2007-02-20 2011-10-12 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JP2010117948A (en) 2010-05-27

Similar Documents

Publication Publication Date Title
JP5106355B2 (en) Facial expression determination device, control method thereof, imaging device, and program
JP4519708B2 (en) Imaging apparatus and method, and program
JP5055166B2 (en) Eye open / closed degree determination device, method and program, and imaging device
KR101539043B1 (en) Image photography apparatus and method for proposing composition based person
JP4182117B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4197019B2 (en) Imaging apparatus and facial expression evaluation apparatus
US8488847B2 (en) Electronic camera and image processing device
CN101753822B (en) Imaging apparatus and image processing method used in imaging device
JP4110178B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
JP4999570B2 (en) Facial expression recognition apparatus and method, and imaging apparatus
JP4702418B2 (en) Imaging apparatus, image region existence determination method and program
JP4431547B2 (en) Image display control device, control method therefor, and control program therefor
US8077216B2 (en) Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
JP4315234B2 (en) Imaging apparatus and facial expression evaluation apparatus
US20120275648A1 (en) Imaging device and imaging method and program
JP5129683B2 (en) Imaging apparatus and control method thereof
KR20090098505A (en) Media signal generating method and apparatus using state information
JP2008035125A (en) Image pickup device, image processing method, and program
KR100816949B1 (en) Optimal-state image pickup camera
US20180260650A1 (en) Imaging device and imaging method
JP5157761B2 (en) Electronic still camera
JP5434096B2 (en) Digital camera
KR101276724B1 (en) Method for controlling digital photographing apparatus, and digital photographing apparatus adopting the method
JP6511780B2 (en) Image acquisition apparatus and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R151 Written notification of patent or utility model registration

Ref document number: 5106355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees