JP2005234686A - Expression recognition device, expression recognition method and program - Google Patents
Expression recognition device, expression recognition method and program Download PDFInfo
- Publication number
- JP2005234686A JP2005234686A JP2004040159A JP2004040159A JP2005234686A JP 2005234686 A JP2005234686 A JP 2005234686A JP 2004040159 A JP2004040159 A JP 2004040159A JP 2004040159 A JP2004040159 A JP 2004040159A JP 2005234686 A JP2005234686 A JP 2005234686A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- image
- information
- identification information
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、写真等の画像上の顔の表情を認識する表情認識装置等に関する。 The present invention relates to a facial expression recognition device that recognizes facial expressions on images such as photographs.
近年、我々の周りには写真等の画像が溢れている。その要因の1つとして、デジタルカメラ(いわゆるカメラ付き携帯電話を含む)の急速な普及が挙げられる。
銀塩カメラでは、感光剤としてハロゲン化銀を用いたフィルムに画像を記録するため、一旦撮影した画像を後で削除することはできない。これに対し、デジタルカメラでは、デジタルデータとして画像を記録するため、撮影に失敗する可能性があったとしてもとりあえず撮影しておき、失敗であれば後から削除するということも可能である。また、永久保存するかどうか判断に迷う画像については、とりあえずPC(Personal Computer)等に移しておき、後で削除するか保存するかを判断することもよくある。このように我々の意識も銀塩カメラを用いる場合とは大きく異なってきており、その結果、多くの画像がデジタルカメラの中、記録媒体の中、PCのハードディスクの中等に散乱する状況が生じているのである。
In recent years, images such as photographs are overflowing around us. One of the factors is the rapid spread of digital cameras (including so-called camera-equipped mobile phones).
In a silver salt camera, since an image is recorded on a film using silver halide as a photosensitive agent, an image once taken cannot be deleted later. On the other hand, since a digital camera records an image as digital data, even if there is a possibility of shooting failure, it is possible to take a picture for the time being and delete it later if it fails. In addition, images that are confused about whether to permanently store them are often transferred to a PC (Personal Computer) or the like for the time being, and it is often determined whether to delete or save them later. In this way, our consciousness is also very different from the case of using a silver halide camera. As a result, many images are scattered in the digital camera, in the recording medium, in the PC hard disk, etc. It is.
ところで、このように画像が散乱してくると、その整理を行う必要が出て来る。その場合、例えば、失敗した画像は削除し、残った画像の中から特によく撮れているものをピックアップして電子アルバムに含める等の作業が行われる。
ところが、このような作業では、散乱している多数の画像の中から電子アルバムに含めるものを1つ1つ確認しながら決めていかなればならない。画像をデジタルデータとして扱えることによる利点は大きいが、画像を閲覧するために時間がかかってしまうのは、デジタルデータとして扱うことによりもたらされる不利益な点である。
そこで、多数の画像の中から電子アルバムに含める画像をピックアップする等の画像分類作業を効率的に行えるようにするために、画像に対しその画像に関する所定の付帯情報を付加し、その付帯情報を用いて画像を自動分類することが行われていた(例えば、特許文献1、特許文献2参照。)。
By the way, when images are scattered like this, it becomes necessary to organize them. In that case, for example, a failed image is deleted, and a work that is particularly well taken from the remaining images is picked up and included in an electronic album.
However, in such a work, it is necessary to determine each of the scattered images to be included in the electronic album while checking each one. Although the advantages of being able to handle images as digital data are great, it takes a long time to view images, which is a disadvantage brought about by handling them as digital data.
Therefore, in order to efficiently perform an image classification operation such as picking up an image to be included in an electronic album from a large number of images, predetermined incidental information about the image is added to the image, and the incidental information is It has been used to automatically classify images (see, for example, Patent Document 1 and Patent Document 2).
しかしながら、特許文献1の発明は、撮影年、撮影月、撮影日、撮影時刻等を、特許文献2記載の発明は、位置情報や被写体情報等を、それぞれ、付帯情報として画像に付加するものであり、画像上の顔の表情を示す指標を付帯情報として画像に付加するものではなかった。従って、顔の表情に着目した画像の分類が行えないという問題点があった。
例えば、電子アルバムに含める画像については、一般に、暗い表情をしたものよりも、明るい表情をしたもの(例えば、笑顔)を選びたいという欲求があるが、従来、多くの画像の中から笑顔で写っている画像を選び出す作業には多大な労力を要していた。
However, the invention of Patent Document 1 adds a shooting year, a shooting month, a shooting date, a shooting time, and the like, and the invention of
For example, for images to be included in electronic albums, there is generally a desire to select a bright expression (for example, a smile) rather than a dark expression. It took a great deal of work to select the images that were present.
本発明は、以上のような技術的課題を解決するためになされたものであって、その目的は、画像上の顔の表情を表す指標を生成することにある。
また本発明の他の目的は、画像上の顔の表情に着目した画像の分類を容易に行えるようにすることにある。
The present invention has been made to solve the above technical problems, and an object thereof is to generate an index representing a facial expression on an image.
Another object of the present invention is to make it easy to classify images focusing on facial expressions on images.
かかる目的のもと、本発明は、画像を解析することで被写体の顔の表情を表す情報(以下、「表情識別情報」という)を自動生成するようにしている。即ち、本発明の第1の表情認識装置は、画像上の被写体の唇の領域および/または歯の領域を特定する口領域解析部と、この口領域解析部により特定された唇および/または歯の領域の情報に基づき、被写体の表情を示す表情識別情報を生成する情報生成部とを備えている。ここで、情報生成部は、唇の領域の情報に基づき、口が開いている度合いを求め、その度合いを表情識別情報とすることが可能である。また、歯の領域の情報に基づき、歯が見えている度合いを求め、その度合いを表情識別情報としてもよい。さらに、唇の領域の情報に基づき、口が開いている度合いである第1のパラメータを求めると共に、歯の領域の情報に基づき、歯が見えている度合いである第2のパラメータを求め、この第1のパラメータと第2のパラメータとから表情識別情報を決定するように構成することも可能である。 For this purpose, the present invention automatically generates information representing the facial expression of the subject (hereinafter referred to as “expression identification information”) by analyzing the image. That is, the first facial expression recognition device of the present invention includes a mouth region analysis unit that identifies a lip region and / or a tooth region of a subject on an image, and a lip and / or tooth identified by the mouth region analysis unit. And an information generation unit that generates facial expression identification information indicating the facial expression of the subject based on the information of the area. Here, the information generation unit can obtain the degree of opening of the mouth based on the information on the lip region, and can use the degree as facial expression identification information. Further, the degree of visible teeth may be obtained based on the tooth area information, and the degree may be used as facial expression identification information. Further, based on the information on the lip area, a first parameter indicating the degree of opening of the mouth is obtained, and on the basis of the information on the tooth area, a second parameter indicating the degree of visibility of the tooth is obtained. The facial expression identification information may be determined from the first parameter and the second parameter.
また、本発明では、生成された表情識別情報を、電子アルバムの作成等の際に画像と同時に読み込めるような構成も提案している。即ち、第一に、画像上の複数の被写体のそれぞれについて情報生成部が表情識別情報として生成した複数の数値から、画像についての1の固有値を算出し、その固有値を画像に付加する情報付加部を備えた構成である。また、第二に、画像上の複数の被写体のそれぞれについて情報生成部が表情識別情報として生成した複数の数値を、対応する被写体との関係が分かる形式で画像に付加する情報付加部を備えた構成である。 Further, the present invention also proposes a configuration in which the generated facial expression identification information can be read simultaneously with the image when creating an electronic album. That is, first, an information addition unit that calculates one eigenvalue for an image from a plurality of numerical values generated as facial expression identification information by the information generation unit for each of a plurality of subjects on the image, and adds the eigenvalue to the image. It is the structure provided with. Secondly, an information adding unit is provided for adding a plurality of numerical values generated as expression identification information by the information generating unit for each of a plurality of subjects on the image in a format in which the relationship with the corresponding subject can be understood. It is a configuration.
さらに、本発明は、画像を解析することで被写体の顔の表情を表す表情識別情報を自動生成する方法として捉えることも可能である。その場合、本発明の表情認識方法は、画像上の被写体の唇および歯の領域を特定するステップと、特定された唇の領域の情報に基づき、口が開いている度合いである第1のパラメータを求めるステップと、特定された歯の領域の情報に基づき、歯が見えている度合いである第2のパラメータを求めるステップと、第1のパラメータと第2のパラメータとに基づき被写体の表情を示す表情識別情報を決定するためのテーブルを所定の記憶装置から読み出すステップと、読み出されたテーブルを参照することにより、表情識別情報を決定するステップとを含んでいる。 Furthermore, the present invention can also be understood as a method of automatically generating facial expression identification information representing facial expressions of a subject by analyzing an image. In this case, the facial expression recognition method according to the present invention includes the step of specifying the lip and tooth regions of the subject on the image, and the first parameter that is the degree to which the mouth is open based on the information on the specified lip region. Showing the facial expression of the subject based on the first parameter and the second parameter, the step of obtaining the second parameter, which is the degree to which the tooth is visible, based on the information on the identified tooth region It includes a step of reading a table for determining facial expression identification information from a predetermined storage device and a step of determining facial expression identification information by referring to the read table.
また、本発明では、生成された表情識別情報を、電子アルバムの作成等の際に画像と同時に読み込めるようにするための方法も提案している。即ち、第一に、画像上の複数の被写体のそれぞれについて表情識別情報として生成された複数の数値から、画像についての1の固有値を算出し、その固有値を画像に付加するステップをさらに含んだ方法である。また、第二に、画像上の複数の被写体のそれぞれについて表情識別情報として生成された複数の数値を、対応する被写体との関係が分かる形式で画像に付加するステップをさらに含んだ構成である。 In addition, the present invention also proposes a method for enabling the generated facial expression identification information to be read simultaneously with an image when creating an electronic album. That is, first, a method further includes a step of calculating one eigenvalue for an image from a plurality of numerical values generated as facial expression identification information for each of a plurality of subjects on the image, and adding the eigenvalue to the image. It is. Secondly, the image processing apparatus further includes a step of adding a plurality of numerical values generated as facial expression identification information for each of a plurality of subjects on the image to the image in a form in which the relationship with the corresponding subject can be understood.
一方、本発明は、所定の機能をコンピュータに実現させるためのコンピュータプログラムとして捉えることもできる。その場合、本発明のプログラムは、コンピュータに、顔の画像上で唇の領域および/または歯の領域を特定する機能と、特定された唇および/または歯の領域の情報に基づき、顔の表情を示す表情識別情報を生成する機能とを実現させるものである。ここで、表情識別情報を生成する機能は、唇の領域の情報に基づき、口が開いている度合いを求め、その度合いを表情識別情報とする機能であってよい。また、歯の領域の情報に基づき、歯が見えている度合いを求め、その度合いを表情識別情報とする機能であってもよい。さらに、唇の領域の情報に基づき、口が開いている度合いである第1のパラメータを求めると共に、歯の領域の情報に基づき、歯が見えている度合いである第2のパラメータを求め、この第1のパラメータと第2のパラメータとから表情識別情報を決定する機能であってもよい。 On the other hand, the present invention can also be understood as a computer program for causing a computer to realize a predetermined function. In that case, the program of the present invention causes the computer to perform facial expression based on the function of identifying the lip area and / or tooth area on the face image and the information on the identified lip and / or tooth area. And a function of generating facial expression identification information indicating the above. Here, the function of generating facial expression identification information may be a function of obtaining the degree of opening of the mouth based on information on the lip area and using the degree as facial expression identification information. Moreover, the function which calculates | requires the degree which the tooth | gear is visible based on the information of a tooth | gear area | region, and makes the degree the expression identification information may be sufficient. Further, based on the information on the lip area, a first parameter indicating the degree of opening of the mouth is obtained, and on the basis of the information on the tooth area, a second parameter indicating the degree of visibility of the tooth is obtained. A function of determining facial expression identification information from the first parameter and the second parameter may be used.
また、コンピュータに、画像上の複数の被写体のそれぞれについて表情識別情報として生成された複数の数値から、画像についての1の固有値を算出し、その固有値を画像に付加する機能をさらに実現させるようにしてもよいし、画像上の複数の被写体のそれぞれについて表情識別情報として生成された複数の数値を、対応する被写体との関係が分かる形式で画像に付加する機能をさらに実現させるようにしてもよい。 Further, the computer further realizes a function of calculating one eigenvalue for the image from a plurality of numerical values generated as facial expression identification information for each of a plurality of subjects on the image and adding the eigenvalue to the image. Alternatively, a function of adding a plurality of numerical values generated as facial expression identification information for each of a plurality of subjects on the image to the image in a form in which the relationship with the corresponding subject can be understood may be further realized. .
本発明によれば、画像上の顔の表情を表す指標を生成することが可能となる。 According to the present invention, it is possible to generate an index representing a facial expression on an image.
以下、添付図面を参照して、本発明を実施するための最良の形態(以下、「実施の形態」という)について詳細に説明する。
図1は、本実施の形態におけるデジタルカメラのハードウェア構成の一例を示した図である。このデジタルカメラは、コントローラ10と、レンズ20と、撮像素子30と、A/D変換回路40と、液晶ディスプレイ50と、操作キー60と、内蔵メモリ70と、補助記憶装置80とから構成される。なお、この図は、概略を示したものであり、一般にデジタルカメラに必要な構成であっても、本発明に直接関係しないものについては、省略している場合がある。
The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below in detail with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating an example of a hardware configuration of a digital camera according to the present embodiment. The digital camera includes a
コントローラ10は、CPU(Central Processing Unit)を有しており、A/D変換回路40からの信号入力制御、液晶ディスプレイ50への表示制御、操作キー60からの入力制御、内蔵メモリ70への出力制御、補助記憶装置80への出力制御等の各種制御を行う部分である。
レンズ20は、被写体を撮像素子30の上に結像するものである。撮像素子30は、レンズ20を通して入って来た光を電気信号に変換する素子であり、例えば、CCD(Charge Coupled Diode)やCMOS(Complementary Metal Oxide Semiconductor)である。また、A/D変換回路40は、アナログ信号として入力される画像データの信号をデジタル信号に変換するための回路である。
The
The
液晶ディスプレイ50は、内蔵メモリ70に格納された画像や、デジタルカメラに対し各種設定を行うためのメニュー画面を表示するためのディスプレイである。操作キー60は、デジタルカメラに対し各種設定操作を行うためのキーである。また、内蔵メモリ70は、撮影した画像や、各種設定を行うためのデータ等を格納するメモリである。補助記憶装置80は、撮影した画像を記録するための記録媒体であり、例えば、フラッシュメモリである。なお、通常、補助記憶装置80はデジタルカメラ本体から着脱可能に構成されるが、図1においては、便宜上、コントローラ10と結線された形で示している。
The
次に、図2を参照して、コントローラ10の機能構成を説明する。
図2に示すように、コントローラ10は、画像取得部11と、顔領域抽出部12と、口領域抽出部13と、口領域解析部14と、情報生成部15と、情報付加部16とを備える。
画像取得部11は、A/D変換回路40、内蔵メモリ70、または、補助記憶装置80から画像データを取得する部分である。顔領域抽出部12は、画像上の顔に相当する領域(以下、「顔領域」という)を抽出する部分であり、口領域抽出部13は、顔領域内で口に相当する領域(以下、「口領域」という)を抽出する部分である。なお、口領域の抽出は、口の輪郭である唇に相当する領域(以下、「唇領域」という)を検出することにより行う。
口領域解析部14は、口領域を解析して表情識別情報の生成に用いる値を取り出す部分である。また、情報生成部15は、表情識別情報を生成する部分であり、情報付加部16は、表情識別情報を画像データに付加する部分である。
Next, the functional configuration of the
As shown in FIG. 2, the
The
The mouth
なお、これらの各機能部は、ハードウェアのみによっても実現可能であるが、ハードウェアとソフトウェアの組み合わせによっても実現可能である。後者の場合は、コントローラ10の図示しないCPU(Central Processing Unit)が、例えば、内蔵メモリ70に記憶されたプログラムを読み込んで実行することにより各機能が実現される。
また、このプログラムは、コントローラ10を含むデジタルカメラの出荷時に予めインストールされているものであってもよいし、出荷後に有線または無線の通信手段を用いてダウンロードされインストールされたものであってもよい。
Each of these functional units can be realized only by hardware, but can also be realized by a combination of hardware and software. In the latter case, each function is realized by a CPU (Central Processing Unit) (not shown) of the
The program may be installed in advance at the time of shipment of the digital camera including the
本実施の形態は、このような構成を備えたデジタルカメラにおいて、画像データに対し表情識別情報を付加するものである。なお、表情識別情報は、撮影直後に自動的に付加してもよいし、撮影後の任意の時点における利用者の指示により付加してもよい。
ところで、電子アルバムに含める画像を選択する場合には、表情が笑顔の画像を優先的に選択したいという欲求が一般に認められる。従って、ここでは、表情識別情報として、表情が笑顔であるほど数値が大きくなるような指数(以下、「笑顔指数」という)を付加することを前提に、具体的な実施の形態について説明する。
In the present embodiment, expression identification information is added to image data in a digital camera having such a configuration. The facial expression identification information may be automatically added immediately after shooting, or may be added according to a user instruction at an arbitrary time after shooting.
By the way, when selecting an image to be included in an electronic album, a desire to preferentially select an image with a smiling expression is generally recognized. Therefore, a specific embodiment will be described on the premise that an index (hereinafter referred to as “smile index”) is added as facial expression identification information so that the numerical value increases as the facial expression smiles.
(第1の実施の形態)
第1の実施の形態では、図3に示すように、画像データに対し、付帯情報として、ファイル名、撮影日時等の情報に加え、その画像データの固有値としての笑顔指数を付加する。そのような笑顔指数を撮影時に付加する場合、コントローラ10は、撮像素子30からA/D変換回路40を介して取得した画像データに直接、または、内蔵メモリ70に格納した後に、笑顔指数を付加して補助記憶装置80に記憶する。また、そのような笑顔指数を撮影後の任意の時点で付加する場合、コントローラ10は、補助記憶装置80から画像データを読み出し、笑顔指数を付加して補助記憶装置80に書き戻す。
(First embodiment)
In the first embodiment, as shown in FIG. 3, a smile index as an eigenvalue of the image data is added to the image data as supplementary information in addition to information such as a file name and a shooting date. When adding such a smile index at the time of shooting, the
以下、本実施の形態におけるコントローラ10の動作について説明する。
図4は、コントローラ10内の画像取得部11、顔領域抽出部12、口領域抽出部13の動作を示すフローチャートである。
まず、画像取得部11が、A/D変換回路40、内蔵メモリ70、または、補助記憶装置80から画像データを取得する(ステップ101)。
次に、顔領域抽出部12が、その画像データのサイズを正規化する(ステップ102)。具体的には、その画像データの画素数を、顔領域や口領域を抽出するのに適切な画素数として予め設定された画素数となるように変換を行う。
Hereinafter, the operation of the
FIG. 4 is a flowchart showing operations of the
First, the
Next, the face
また、顔領域抽出部12は、この正規化された画像データを輝度・色差信号に変換する(ステップ103)。A/D変換回路40で変換されたままの画像データはRGB座標系により表されている。しかし、RGB座標系のままでは、顔領域や口領域の抽出は行えないので、色相、彩度、明度を表すHSV座標系に変換する必要がある。このステップは、そのHSV座標系への変換を行うための前ステップである。
そして、HSV座標系への変換を行い、各画素に対し、明度、色相が、それぞれ、予め定義した一定の範囲内にあるものを肌色と判断し、そのような画素を肌色画素として特定する(ステップ104)。なお、色相のみを用いても、肌色らしい部分を抽出することはできるが、肌色を暗くしたような色の部分(例えば、木の幹等)も一緒に抽出されてしまう虞があるので、明度も用いるようにする。
さらに、顔領域抽出部12は、肌色画素を連結させて顔領域を特定し、ラベリング処理を行うと共に、連結させても顔領域とはならない小領域については、それらを除去する処理を行う(ステップ105)。
The face
Then, conversion to the HSV coordinate system is performed, and for each pixel, the lightness and the hue are determined to be flesh color within a predetermined range, and such a pixel is specified as a flesh color pixel ( Step 104). Even if only the hue is used, it is possible to extract the part that seems to be skin tone, but there is a possibility that the part of the color that darkens the skin color (for example, the trunk of the tree) may be extracted together. Also use it.
Furthermore, the face
次に、口領域抽出部13は、ステップ105で特定された顔領域内の各画素に対し、明度、色相が、それぞれ、予め定義した一定の範囲内にあるものを唇色と判断し、そのような画素を唇色画素として特定する(ステップ106)。なお、色相のみを用いても、唇色らしい部分を抽出することはできるが、唇色を暗くしたような色の部分も一緒に抽出されてしまう虞があるので、明度も用いるようにする。
さらに、口領域抽出部13は、唇色画素を連結させて唇領域を特定し、ラベリング処理を行うと共に、連結させても唇領域とはならない小領域については、それらを除去する処理を行う(ステップ107)。
Next, the mouth
Further, the mouth
図5は、コントローラ10内の口領域解析部14、情報生成部15、情報付加部16の動作を示したフローチャートである。
ここでは、図6(a)、(b)に示すような画像の口領域が、口領域抽出部13により抽出されているものとする。図中、唇に相当する領域(図6において黒で塗りつぶした領域)を上述した通り「唇領域」と呼び、歯に相当する領域(図6において白地のままになっている領域)を「歯領域」と呼ぶこととする。
FIG. 5 is a flowchart showing operations of the mouth
Here, it is assumed that the mouth area of the image as shown in FIGS. 6A and 6B is extracted by the mouth
まず、口領域解析部14は、唇領域の外径d1と内径d2と口領域の面積s1と歯領域の面積s2とを求める(ステップ201)。唇領域の外径d1および内径d2としては、例えば、図6(a)に示す部分の長さを採用することができる。即ち、唇領域に外接する矩形の高さを外径d1とし、唇領域に内接する矩形の高さを内径d2とすることができる。また、口領域の面積s1および歯領域の面積s2としては、図6(b)に示す領域の面積を採用する。即ち、黒で塗りつぶした領域、白地のままになっている領域、斜線を施した領域の面積の合計を口領域の面積s1とし、白地のままになっている領域の面積を歯領域の面積s2とする。
First, the mouth
次に、情報生成部15は、d2をd1で除することにより、口の開き具合を示すパラメータ(以下、「パラメータA」という)を求める(ステップ202)。また、s2をs1で除することにより、歯の見え具合を示すパラメータ(以下、「パラメータB」という)を求める(ステップ203)。
そして、情報生成部15は、内蔵メモリ70に記憶された笑顔指数テーブルを参照し、笑顔指数を求める(ステップ204)。図7に、笑顔指数テーブルの一例を示す。図7の笑顔指数テーブルでは、パラメータAについては閾値ThAを、パラメータBについては閾値ThBを設け、パラメータAがThA以下の場合、パラメータBがThB以下の場合は、ともに笑顔指数には「笑顔ではない」ことを示す値(例えば、「0」)が設定されるような定義となっている。また、パラメータAがThAより大きく、かつ、パラメータBがThBより大きい場合は、それぞれのパラメータの値により、笑顔指数に「笑顔らしさ大」または「笑顔らしさ小」を示す値が設定されるような定義となっている。
Next, the
Then, the
但し、図7の笑顔指数テーブルはあくまで一例であり、パラメータAとパラメータBについての刻み幅をもっと細かく設定し、笑顔らしさをよりきめ細かく判定するようにしてもよい。
また、笑顔指数を、パラメータA、パラメータBを変数とする関数と捉え、テーブルを参照するのではなく、計算により笑顔指数を求めるようにしてもよい。
なお、画像上に複数の被写体が存在し、口領域も複数存在する場合は、各口領域について以上の処理を行い、口領域の数だけの笑顔指数を求める。
However, the smile index table in FIG. 7 is merely an example, and the step size for parameter A and parameter B may be set more finely to determine the smile-likeness more finely.
Further, the smile index may be regarded as a function having the parameters A and B as variables, and the smile index may be obtained by calculation instead of referring to the table.
When there are a plurality of subjects on the image and a plurality of mouth areas, the above processing is performed for each mouth area, and smile indexes corresponding to the number of mouth areas are obtained.
そして、情報付加部16が、笑顔指数を口領域の数(顔の数)で除して平均値を求め(ステップ205)、画像データの固有値としての笑顔指数として付加する(ステップ206)。
Then, the
本実施の形態では、笑顔指数を生成して画像に付加するようにしたことにより、被写体が笑顔かどうかに着目した画像の分類を容易に行うことが可能となる。また、画像上に複数の被写体が存在する場合に全ての被写体についての笑顔指数の平均を付加するようにしたことにより、画像全体として笑顔の度合いが高いかどうか、つまり、和やかなムードで撮影された画像かどうか等も分かり、画像の分類の効率向上が図れる。 In this embodiment, the smile index is generated and added to the image, so that it is possible to easily classify the image focusing on whether or not the subject is smiling. Also, when there are multiple subjects on the image, the average smile index for all subjects is added, so that the whole image is shot with a high degree of smile, that is, with a gentle mood. It is possible to improve the efficiency of image classification.
なお、本実施の形態では、複数の被写体についての笑顔指数の平均を画像に付加するようにしたが、笑顔指数の最大値、最頻値、中央値等の如何なる統計量を付加するようにしてもよい。 In the present embodiment, the average smile index for a plurality of subjects is added to the image, but any statistic such as the maximum value, mode value, or median value of the smile index is added. Also good.
(第2の実施の形態)
第2の実施の形態では、図8に示すように、画像データに対し、付帯情報として、ファイル名、撮影日時等の情報に加え、その画像データに含まれる被写体の数だけ、被写体IDと笑顔指数との対応関係を付加する。そのような笑顔指数を撮影時に付加する場合、コントローラ10は、撮像素子30からA/D変換回路40を介して取得した画像データに直接、または、内蔵メモリ70に格納した後に、笑顔指数を付加して補助記憶装置80に記憶する。また、そのような笑顔指数を撮影後の任意の時点で付加する場合、コントローラ10は、補助記憶装置80から画像データを読み出し、笑顔指数を付加して補助記憶装置80に書き戻す。
(Second embodiment)
In the second embodiment, as shown in FIG. 8, in addition to the information such as the file name and the shooting date and time as supplementary information for the image data, the subject ID and the smile are as many as the number of subjects included in the image data. Add a correspondence with the index. When adding such a smile index at the time of shooting, the
以下、本実施の形態におけるコントローラ10の動作について説明する。
コントローラ10内の画像取得部11、顔領域抽出部12、口領域抽出部13の動作については、図4に示したものと同様である。
コントローラ10内の口領域解析部14、情報生成部15、情報付加部16の動作については、図9に示す。
まず、口領域解析部14は、唇領域の外径d1と内径d2と口領域の面積s1と歯領域の面積s2とを求める(ステップ301)。唇領域の外径d1および内径d2としては、例えば、図6(a)に示す部分の長さを採用することができる。即ち、唇領域に外接する矩形の高さを外径d1とし、唇領域に内接する矩形の高さを内径d2とすることができる。また、口領域の面積s1および歯領域の面積s2としては、図6(b)に示す領域の面積を採用する。即ち、黒で塗りつぶした領域、白地のままになっている領域、斜線を施した領域の面積の合計を口領域の面積s1とし、白地のままになっている領域の面積を歯領域の面積s2とする。
Hereinafter, the operation of the
The operations of the
The operations of the mouth
First, the mouth
次に、情報生成部15は、d2をd1で除することにより、口の開き具合を示すパラメータ(以下、「パラメータA」という)を求める(ステップ302)。また、s2をs1で除することにより、歯の見え具合を示すパラメータ(以下、「パラメータB」という)を求める(ステップ303)。そして、情報生成部15は、図7に示した笑顔指数テーブルを参照し、笑顔指数を求める(ステップ304)。
なお、画像上に複数の被写体が存在し、口領域も複数存在する場合は、各口領域について以上の処理を行い、口領域の数(顔の数)だけの笑顔指数を求める。その際、本実施の形態では、各笑顔指数に対し、対応する被写体を一意に識別する被写体IDを対応付けておく。なお、被写体IDとしては、顔領域抽出部12、口領域抽出部13、または、口領域解析部14が、自動的に採番するようにしてもよいが、利用者に入力を促してもよい。特に、画像を被写体により分類する場合は、その分類の際に用いる被写体IDと、笑顔指数に対応付ける被写体IDとを同じ体系のものにしておくことにより、特定の被写体が笑顔であるかどうかに着目した画像の分類も可能となる。
Next, the
If there are a plurality of subjects on the image and a plurality of mouth areas, the above processing is performed for each mouth area, and smile indexes corresponding to the number of mouth areas (the number of faces) are obtained. At this time, in this embodiment, each smile index is associated with a subject ID that uniquely identifies the corresponding subject. As the subject ID, the face
そして、情報付加部16が、1つの被写体IDと笑顔指数との対応を画像データに付加し(ステップ305)、他に被写体があるかどうかを判断する(ステップ306)。ここで、被写体があれば、ステップ305の処理を繰り返すが、被写体がなければ、処理を終了する。
Then, the
本実施の形態では、笑顔指数を生成して画像に付加するようにしたことにより、被写体が笑顔かどうかに着目した画像の分類を容易に行うことが可能となる。また、画像上に複数の被写体が存在する場合に各被写体の被写体IDと笑顔指数との対応関係を付加するようにしたことにより、笑顔かどうかに着目した画像の分類を被写体ごとに行うことが容易になる。 In this embodiment, the smile index is generated and added to the image, so that it is possible to easily classify the image focusing on whether or not the subject is smiling. In addition, when there are a plurality of subjects on the image, the correspondence between the subject ID of each subject and the smile index is added, so that the image can be classified for each subject focusing on whether or not it is a smile. It becomes easy.
なお、以上述べた実施の形態においては、デジタルカメラにおいて笑顔指数を生成し画像に付加することとしたが、同様の処理は、PC等の一般のコンピュータにおいて行うことも可能である。また、この場合においても、図1に示した各機能部が、そのコンピュータ内で実現される。具体的には、コンピュータのCPU(Central Processing Unit)が、所定の記憶装置に記憶されたプログラムをメインメモリに読み込んで実行することにより実現される。
また、このプログラムは、コンピュータの出荷時に予めインストールされているものであってもよいし、出荷後に有線または無線の通信手段を用いてダウンロードされインストールされたものであってもよい。
さらに、デジタルカメラ、コンピュータのいずれで実現する場合においても、算出された笑顔指数は、画像に対し付加せずに、別の記憶領域に記憶したり、出力装置に出力したりするように構成することも可能である。
In the embodiment described above, the smile index is generated and added to the image by the digital camera, but the same processing can be performed by a general computer such as a PC. Also in this case, each functional unit shown in FIG. 1 is realized in the computer. Specifically, it is realized by a CPU (Central Processing Unit) of a computer reading a program stored in a predetermined storage device into a main memory and executing it.
Further, this program may be installed in advance at the time of shipment of the computer, or may be downloaded and installed using wired or wireless communication means after shipment.
Further, in the case of realizing with either a digital camera or a computer, the calculated smile index is configured to be stored in another storage area or output to an output device without being added to the image. It is also possible.
10…コントローラ、11…画像取得部、12…顔領域抽出部、13…口領域抽出部、14…口領域解析部、15…情報生成部、16…情報付加部、20…レンズ、30…撮像素子、40…A/D変換回路、50…液晶ディスプレイ、60…操作キー、70…内蔵メモリ、80…補助記憶装置
DESCRIPTION OF
Claims (15)
前記口領域解析部により特定された前記唇および/または歯の領域の情報に基づき、前記被写体の表情を示す表情識別情報を生成する情報生成部と
を備えたことを特徴とする表情認識装置。 A mouth region analysis unit for identifying the lip region and / or the tooth region of the subject on the image;
An expression recognition device comprising: an information generation unit that generates expression identification information indicating the expression of the subject based on information on the lip and / or tooth region specified by the mouth region analysis unit.
特定された前記唇の領域の情報に基づき、口が開いている度合いである第1のパラメータを求めるステップと、
特定された前記歯の領域の情報に基づき、歯が見えている度合いである第2のパラメータを求めるステップと、
前記第1のパラメータと前記第2のパラメータとに基づき前記被写体の表情を示す表情識別情報を決定するためのテーブルを所定の記憶装置から読み出すステップと、
読み出された前記テーブルを参照することにより、前記表情識別情報を決定するステップと
を含むことを特徴とする表情認識方法。 Identifying the area of the subject's lips and teeth on the image;
Obtaining a first parameter that is a degree to which the mouth is open based on information on the identified lip region;
Obtaining a second parameter that is a degree of visibility of the tooth based on the information of the identified tooth region;
Reading out a table for determining facial expression identification information indicating the facial expression of the subject based on the first parameter and the second parameter from a predetermined storage device;
A facial expression recognition method comprising: determining the facial expression identification information by referring to the read table.
顔の画像上で唇の領域および/または歯の領域を特定する機能と、
特定された前記唇および/または歯の領域の情報に基づき、前記顔の表情を示す表情識別情報を生成する機能と
を実現させるためのプログラム。 On the computer,
The ability to identify lip and / or tooth areas on facial images;
And a function of generating facial expression identification information indicating the facial expression based on the specified information on the lip and / or tooth region.
画像上の複数の被写体のそれぞれについて前記表情識別情報として生成された複数の数値から、前記画像についての1の固有値を算出し、当該固有値を前記画像に付加する機能をさらに実現させることを特徴とする請求項10記載のプログラム。 On the computer,
A function of calculating one eigenvalue for the image from a plurality of numerical values generated as the facial expression identification information for each of a plurality of subjects on the image and further adding a function of adding the eigenvalue to the image is provided. The program according to claim 10.
画像上の複数の被写体のそれぞれについて前記表情識別情報として生成された複数の数値を、対応する被写体との関係が分かる形式で前記画像に付加する機能をさらに実現させることを特徴とする請求項10記載のプログラム。 On the computer,
11. The function of adding a plurality of numerical values generated as the facial expression identification information for each of a plurality of subjects on an image to the image in a format that can understand the relationship with the corresponding subject is further realized. The listed program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004040159A JP2005234686A (en) | 2004-02-17 | 2004-02-17 | Expression recognition device, expression recognition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004040159A JP2005234686A (en) | 2004-02-17 | 2004-02-17 | Expression recognition device, expression recognition method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005234686A true JP2005234686A (en) | 2005-09-02 |
Family
ID=35017607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004040159A Pending JP2005234686A (en) | 2004-02-17 | 2004-02-17 | Expression recognition device, expression recognition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005234686A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009033491A (en) * | 2007-07-27 | 2009-02-12 | Olympus Imaging Corp | Imaging apparatus and imaging method |
WO2009125733A1 (en) * | 2008-04-09 | 2009-10-15 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
WO2010007865A1 (en) * | 2008-07-17 | 2010-01-21 | 日本電気株式会社 | Imaging device, imaging method and program |
JP2010035813A (en) * | 2008-08-05 | 2010-02-18 | Fujishoji Co Ltd | Game machine |
JP2010177811A (en) * | 2009-01-27 | 2010-08-12 | Nikon Corp | Digital camera |
US7840035B2 (en) | 2006-03-02 | 2010-11-23 | Fuji Xerox, Co., Ltd. | Information processing apparatus, method of computer control, computer readable medium, and computer data signal |
JP2010267278A (en) * | 2010-06-22 | 2010-11-25 | Seiko Epson Corp | Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color |
WO2012036669A1 (en) * | 2010-09-13 | 2012-03-22 | Hewlett-Packard Development Company, L.P. | Smile detection systems and methods |
KR101145672B1 (en) | 2011-09-20 | 2012-05-24 | 원광대학교산학협력단 | A smile analysis system for smile self-training |
JP2012155631A (en) * | 2011-01-27 | 2012-08-16 | Fujitsu Ltd | Facial expression determining program and facial expression determining device |
JP2013157030A (en) * | 2013-05-07 | 2013-08-15 | Olympus Corp | Imaging method and imaging apparatus |
JP2015064881A (en) * | 2014-10-14 | 2015-04-09 | オリンパスイメージング株式会社 | Image display device, image display method and image display program |
JP2016502157A (en) * | 2012-09-18 | 2016-01-21 | チョル キム,サン | Lip shape changing device and method based on automatic word translation |
-
2004
- 2004-02-17 JP JP2004040159A patent/JP2005234686A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7840035B2 (en) | 2006-03-02 | 2010-11-23 | Fuji Xerox, Co., Ltd. | Information processing apparatus, method of computer control, computer readable medium, and computer data signal |
JP2009033491A (en) * | 2007-07-27 | 2009-02-12 | Olympus Imaging Corp | Imaging apparatus and imaging method |
WO2009125733A1 (en) * | 2008-04-09 | 2009-10-15 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
US9258482B2 (en) | 2008-04-09 | 2016-02-09 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
US9147107B2 (en) | 2008-04-09 | 2015-09-29 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
US8780221B2 (en) | 2008-04-09 | 2014-07-15 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
JP5482654B2 (en) * | 2008-07-17 | 2014-05-07 | 日本電気株式会社 | Imaging apparatus, imaging method, and program |
WO2010007865A1 (en) * | 2008-07-17 | 2010-01-21 | 日本電気株式会社 | Imaging device, imaging method and program |
JP2010035813A (en) * | 2008-08-05 | 2010-02-18 | Fujishoji Co Ltd | Game machine |
JP2010177811A (en) * | 2009-01-27 | 2010-08-12 | Nikon Corp | Digital camera |
JP2010267278A (en) * | 2010-06-22 | 2010-11-25 | Seiko Epson Corp | Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color |
US8983202B2 (en) | 2010-09-13 | 2015-03-17 | Hewlett-Packard Development Company, L.P. | Smile detection systems and methods |
WO2012036669A1 (en) * | 2010-09-13 | 2012-03-22 | Hewlett-Packard Development Company, L.P. | Smile detection systems and methods |
JP2012155631A (en) * | 2011-01-27 | 2012-08-16 | Fujitsu Ltd | Facial expression determining program and facial expression determining device |
KR101145672B1 (en) | 2011-09-20 | 2012-05-24 | 원광대학교산학협력단 | A smile analysis system for smile self-training |
JP2016502157A (en) * | 2012-09-18 | 2016-01-21 | チョル キム,サン | Lip shape changing device and method based on automatic word translation |
JP2013157030A (en) * | 2013-05-07 | 2013-08-15 | Olympus Corp | Imaging method and imaging apparatus |
JP2015064881A (en) * | 2014-10-14 | 2015-04-09 | オリンパスイメージング株式会社 | Image display device, image display method and image display program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10157325B2 (en) | Image capture device with contemporaneous image correction mechanism | |
CN110248098B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
JP5818799B2 (en) | Estimating the aesthetic quality of digital images | |
JP4519708B2 (en) | Imaging apparatus and method, and program | |
JP4574249B2 (en) | Image processing apparatus and method, program, and imaging apparatus | |
JP4078334B2 (en) | Image processing apparatus and image processing method | |
US8055067B2 (en) | Color segmentation | |
US8760551B2 (en) | Systems and methods for image capturing based on user interest | |
JP2005086516A (en) | Imaging device, printer, image processor and program | |
JP5949331B2 (en) | Image generating apparatus, image generating method, and program | |
CN101753822A (en) | Imaging apparatus and image processing method used in imaging device | |
CN101753814A (en) | Filming device, illumination processing device and illumination processing method | |
JP2005234686A (en) | Expression recognition device, expression recognition method and program | |
JP2008035149A (en) | Video recording and reproducing system and video recording and reproducing method | |
JP5272775B2 (en) | Electronic still camera | |
JP2010092094A (en) | Image processing apparatus, image processing program, and digital camera | |
JP2010198110A (en) | Image processor and electronic still camera | |
JP5453796B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP6099973B2 (en) | Subject area tracking device, control method thereof, and program | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2010200270A (en) | Image processing device, camera, and program | |
JP6776532B2 (en) | Image processing equipment, imaging equipment, electronic devices and image processing programs | |
JP5995610B2 (en) | Subject recognition device and control method therefor, imaging device, display device, and program | |
JP2005057360A (en) | Picture photographing apparatus and program | |
JP2009042989A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100112 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100202 |