JP2013178658A - Image processing device, program, and electronic camera - Google Patents

Image processing device, program, and electronic camera Download PDF

Info

Publication number
JP2013178658A
JP2013178658A JP2012042077A JP2012042077A JP2013178658A JP 2013178658 A JP2013178658 A JP 2013178658A JP 2012042077 A JP2012042077 A JP 2012042077A JP 2012042077 A JP2012042077 A JP 2012042077A JP 2013178658 A JP2013178658 A JP 2013178658A
Authority
JP
Japan
Prior art keywords
face
image
image processing
position information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012042077A
Other languages
Japanese (ja)
Inventor
Masanaga Nakamura
正永 中村
Mayuko Iwasaki
麻由子 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012042077A priority Critical patent/JP2013178658A/en
Publication of JP2013178658A publication Critical patent/JP2013178658A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide means for improving operability when performing image processing for favorably correcting a face of a person.SOLUTION: The image processing device includes a position information detecting unit, a face detecting unit, a determination unit, a reception unit, and a correction unit. The position information detecting unit detects position information of an object coming into contact with a display screen of an image display device. The face detecting unit detects a face area of a subject from an image to be displayed on the image display device. The determination unit determines the number of faces identified by the object on the basis of the position information of the face area and the position information of the object. The reception unit receives a command input of a predetermined operation according to the number of identified faces on the basis of a contact position or a moving trajectory of the object. The correction unit performs correction processing of the face on the image on the basis of the command input.

Description

本発明は、画像処理装置及びプログラム、並びに電子カメラに関する。   The present invention relates to an image processing apparatus, a program, and an electronic camera.

従来より、撮影した人物写真の画像から顔領域を補正する画像処理方法が提案されている(例えば、特許文献1参照)。上記の画像処理方法では、顔領域を補正することにより、見映えの良い画像を生成する。   Conventionally, there has been proposed an image processing method for correcting a face area from a photographed human photograph image (see, for example, Patent Document 1). In the image processing method described above, a good-looking image is generated by correcting the face area.

特開2001−218020号公報JP 2001-2108020 A

しかし、上記の画像処理方法では、先ず、特定の人物毎に所定の画像処理条件を予め登録し、入力画像中の人物を抽出して人物同定を行う。続いて、上記の画像処理方法では、同定された特定の人物に対応する画像処理条件を選択し、選択された画像処理条件に基づいて画像処理を行う。そのため、上記の画像処理方法では、特定の人物毎に画像処理条件を予め登録しなければならず、操作性に改善の余地がある。   However, in the above image processing method, first, predetermined image processing conditions are registered in advance for each specific person, and a person in the input image is extracted to perform person identification. Subsequently, in the above image processing method, an image processing condition corresponding to the identified specific person is selected, and image processing is performed based on the selected image processing condition. Therefore, in the image processing method described above, image processing conditions must be registered in advance for each specific person, and there is room for improvement in operability.

そこで、本発明は、上記事情に鑑み、人物の顔を好ましく補正する画像処理を行う際の操作性を向上させる手段を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide means for improving operability when performing image processing for preferably correcting a human face.

第1の発明に係る画像処理装置は、位置情報検出部と、顔検出部と、判定部と、受付部と、補正部とを備える。位置情報検出部は、画像表示装置の表示画面に接触する物体の位置情報を検出する。顔検出部は、画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する。判定部は、顔領域の位置情報と物体の位置情報とに基づいて、物体により指定された顔の数を判定する。受付部は、表示画面上での物体の接触位置又は移動軌跡に基づいて、指定された顔の数に応じた所定の操作の指示入力を受け付ける。補正部は、指示入力に基づいて、画像の顔の補正処理を行う。   An image processing apparatus according to a first invention includes a position information detection unit, a face detection unit, a determination unit, a reception unit, and a correction unit. The position information detection unit detects position information of an object that contacts the display screen of the image display device. The face detection unit detects a face area that is a candidate for processing from an image displayed on the image display device. The determination unit determines the number of faces designated by the object based on the position information of the face area and the position information of the object. The accepting unit accepts an instruction input for a predetermined operation corresponding to the designated number of faces based on the contact position or movement locus of the object on the display screen. The correction unit performs a process of correcting the face of the image based on the instruction input.

第2の発明は、第1の発明において、判定部は、画像内の顔に対応する表示領域に物体が接触した場合、表示領域の顔をカウントする。   In a second aspect based on the first aspect, the determination unit counts the faces in the display area when an object contacts the display area corresponding to the face in the image.

第3の発明は、第1又は第2の発明において、表示画面に接触する物体の数に応じて異なる指示入力を受け付ける。   According to a third invention, in the first or second invention, a different instruction input is accepted depending on the number of objects in contact with the display screen.

第4の発明は、第3の発明において、指定された顔の数が1つであって、位置情報検出部が指定された顔から他の顔への物体の移動軌跡を検出した場合、受付部は、指定された顔に対して行った補正処理を他の顔に対して行う指示入力を受け付ける。   In a fourth aspect based on the third aspect, when the number of designated faces is one and the position information detection unit detects a movement locus of an object from the designated face to another face, The unit accepts an instruction input for performing correction processing performed on the designated face on another face.

第5の発明は、第3の発明において、指定された顔の数が複数であって、位置情報検出部が表示画面に接触する物体の回転を示す移動軌跡を検出した場合、受付部は、指定された顔毎に行った個別の補正処理を交換して行う指示入力を受け付ける。   In a fifth aspect based on the third aspect, when the number of designated faces is plural and the position information detection unit detects a movement trajectory indicating rotation of an object in contact with the display screen, An instruction input performed by exchanging individual correction processes performed for each designated face is accepted.

第6の発明は、第1から第3の何れか1の発明において、分類部をさらに備える。分類部は、顔検出部により画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する。受付部は、指定された顔のグループに属する複数の顔に対して、同一の前記補正処理を一括して行う指示入力を受け付ける。   In a sixth aspect based on any one of the first to third aspects, the sixth aspect further includes a classification unit. The classification unit groups a plurality of faces in the image based on the facial feature amount extracted from the image by the face detection unit. The accepting unit accepts an instruction input for collectively performing the same correction processing on a plurality of faces belonging to the designated face group.

第7の発明は、第1から第6の何れか1の発明において、物体が、指先である。   In a seventh aspect based on any one of the first to sixth aspects, the object is a fingertip.

第8の発明に係る電子カメラは、被写体を撮像して画像を生成する撮像素子と、請求項1から請求項7に記載の何れかの画像処理装置とを備える。   An electronic camera according to an eighth aspect of the present invention includes an image sensor that captures an image of a subject and generates an image, and any one of the image processing apparatuses according to claims 1 to 7.

第9の発明に係るプログラムは、コンピュータに画像の処理を実行させるプログラムであって、位置情報検出処理と、顔検出処理と、判定処理と、受付処理と、補正処理とをコンピュータに実行させる。位置情報検出処理は、画像表示装置の表示画面に接触する物体の位置情報を検出する。顔検出処理は、画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する。判定処理は、顔領域の位置情報と物体の位置情報とに基づいて、物体により指定された顔の数を判定する。受付処理は、表示画面内での物体の接触位置又は移動軌跡に基づいて、指定された顔の数に応じた所定の操作の指示入力を受け付ける。補正処理は、指示入力に基づいて、画像の顔の補正処理を行う。   A program according to a ninth aspect is a program that causes a computer to execute image processing, and causes a computer to execute position information detection processing, face detection processing, determination processing, reception processing, and correction processing. In the position information detection process, position information of an object that contacts the display screen of the image display device is detected. The face detection process detects a face area that is a candidate for processing from an image displayed on the image display device. In the determination process, the number of faces designated by the object is determined based on the position information of the face area and the position information of the object. In the reception process, an instruction input for a predetermined operation corresponding to the number of specified faces is received based on the contact position or movement locus of the object on the display screen. In the correction process, an image face correction process is performed based on an instruction input.

本発明によれば、人物の顔を好ましく補正する画像処理を行う際の操作性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the operativity at the time of performing the image process which correct | amends a person's face preferably can be improved.

電子カメラ1の構成を説明するブロック図The block diagram explaining the structure of the electronic camera 1 本実施形態のテーブルメモリ100の一例を説明する図A figure explaining an example of the table memory 100 of this embodiment テーブルメモリ100のレベル表示を説明する図The figure explaining the level display of the table memory 100 美容化補正処理モードにおける電子カメラ1の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the electronic camera 1 in the beautification correction process mode. 美容化補正処理の一例を示す図The figure which shows an example of the cosmetic correction process 美容化補正処理の一例を示す図The figure which shows an example of the cosmetic correction process 本画像の一例を示す図Diagram showing an example of this image グループ化表示の一例を示す図Diagram showing an example of grouped display 第3変形例の一例について説明する図The figure explaining an example of a 3rd modification 第3変形例の一例について説明する図The figure explaining an example of a 3rd modification

以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、電子カメラ1の構成を説明するブロック図である。ここで、本実施形態の電子カメラ1は、撮像により生成した本画像内の顔を美しく補正するメイクアップモード(以下「美容化補正処理モード」という)を有する。美容化補正処理モードは、ポートレートモードや風景モード等の既存のシーンモードと独立に備えられる。美容化補正処理モードの具体的な内容については、後述する。なお、本実施形態では、先ず、撮影後の本画像に対してオートで美容化補正処理を行う。そして、本実施形態では、美容化補正処理の後の本画像に対して、ユーザの入力により、電子カメラ1が、再度、美容化補正処理を行う場合を説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of the electronic camera 1. Here, the electronic camera 1 of the present embodiment has a makeup mode (hereinafter referred to as “cosmetic correction processing mode”) that beautifully corrects the face in the main image generated by imaging. The cosmetic correction processing mode is provided independently of existing scene modes such as portrait mode and landscape mode. Specific contents of the beautification correction processing mode will be described later. In the present embodiment, first, the beautification correction process is automatically performed on the main image after shooting. And this embodiment demonstrates the case where the electronic camera 1 performs a cosmetic correction process again with respect to the main image after the cosmetic correction process by a user's input.

電子カメラ1は、図1に示す通り撮影光学系10と、撮像素子11と、信号処理部12と、RAM(Random Access Memory)13と、画像処理部14と、ROM(Read Only Memory)15と、記録インターフェース部(以下「記録I/F部」という)16と、表示モニタ17と、タッチパネル18と、操作部19と、レリーズ釦20と、CPU(Central Processing Unit)21と、データバス22とを備える。   As shown in FIG. 1, the electronic camera 1 includes a photographing optical system 10, an image sensor 11, a signal processing unit 12, a RAM (Random Access Memory) 13, an image processing unit 14, a ROM (Read Only Memory) 15, and the like. A recording interface unit (hereinafter referred to as “recording I / F unit”) 16, a display monitor 17, a touch panel 18, an operation unit 19, a release button 20, a CPU (Central Processing Unit) 21, and a data bus 22. Is provided.

このうち、信号処理部12、RAM13、画像処理部14、ROM15、記録I/F部16、表示モニタ17及びCPU21は、データバス22を介して互いに接続されている。また、タッチパネル18、操作部19及びレリーズ釦20は、CPU21に接続されている。   Among these, the signal processing unit 12, the RAM 13, the image processing unit 14, the ROM 15, the recording I / F unit 16, the display monitor 17, and the CPU 21 are connected to each other via a data bus 22. The touch panel 18, the operation unit 19, and the release button 20 are connected to the CPU 21.

撮像光学系10は、ズームレンズとフォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮像光学系10を1枚のレンズとして図示する。   The imaging optical system 10 includes a plurality of lens groups including a zoom lens and a focus lens. For simplicity, FIG. 1 shows the imaging optical system 10 as a single lens.

撮像素子11は、撮像光学系10を通過した被写体を撮像し、アナログの画像信号(画像)を出力する。そして、撮像素子11が出力するアナログの画像信号は、信号処理部12に入力される。なお、撮像素子11の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。   The image sensor 11 captures an image of a subject that has passed through the imaging optical system 10 and outputs an analog image signal (image). The analog image signal output from the image sensor 11 is input to the signal processing unit 12. Note that the charge accumulation time of the image sensor 11 and the reading of the image signal are controlled by a timing generator (not shown).

ここで、撮像素子11は、電子カメラの撮影モードにおいて、後述のレリーズ釦20の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮像素子11は、撮影待機時にも所定間隔毎に構図確認用の画像(スルー画像)を連続的に撮像する。   Here, the imaging device 11 captures a still image for recording (main image) in response to a full-pressing operation of a release button 20 described later in the photographing mode of the electronic camera. In addition, the image sensor 11 continuously captures images for composition confirmation (through images) at predetermined intervals even during standby for shooting.

信号処理部12は、撮像素子11が出力する画像信号に対してアナログ信号処理を施すアナログフロントエンド回路(AFE)と、そのAFEでアナログ信号処理が施された画像信号に対して、デジタル信号処理を施すデジタルフロントエンド回路(DFE)とを有する。信号処理部12のAFEは、アナログの画像信号に対して相関二重サンプリングやゲイン調整をした後、アナログの画像信号をデジタルの画像信号に変換する(A/D変換)処理等を行う。   The signal processing unit 12 performs an analog front end circuit (AFE) that performs analog signal processing on an image signal output from the image sensor 11, and performs digital signal processing on the image signal that has been subjected to analog signal processing by the AFE. A digital front-end circuit (DFE). The AFE of the signal processing unit 12 performs correlated double sampling or gain adjustment on the analog image signal, and then performs a process of converting the analog image signal into a digital image signal (A / D conversion).

また、信号処理部12のDFEは、A/D変換されたデジタルの画像信号の補正処理等を行う。この信号処理部12が出力する画像信号は、RGB信号の画像データとしてRAM13に一時的に記録される。RAM13は、画像データを一時的に記録するバッファメモリである。   In addition, the DFE of the signal processing unit 12 performs a correction process on the digital image signal after A / D conversion. The image signal output from the signal processing unit 12 is temporarily recorded in the RAM 13 as image data of RGB signals. The RAM 13 is a buffer memory that temporarily records image data.

画像処理部14は、RAM13に記録されている画像データを読み出し、必要に応じて各種の画像処理(例えば、色補間処理、ホワイトバランス等)を施す。   The image processing unit 14 reads the image data recorded in the RAM 13 and performs various types of image processing (for example, color interpolation processing, white balance, etc.) as necessary.

また、画像処理部14は、撮影待機時において、スルー画像を例えばモニタ表示用としてNTSC方式のビデオ信号のビュー画像に変換する。そして、画像処理部14は、所定のフレームレート(例えば、30fps)でビュー画像を表示モニタ17に出力する。また、画像処理部14は、記録媒体30に画像データを記録する前に、例えば、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理を行う。また、画像処理部14は、記録媒体30に圧縮された画像データの伸長及び復元の処理も実行する。   Also, the image processing unit 14 converts the through image into a view image of an NTSC video signal for monitor display, for example, during standby for shooting. Then, the image processing unit 14 outputs the view image to the display monitor 17 at a predetermined frame rate (for example, 30 fps). Further, the image processing unit 14 performs a process of compressing, for example, in the JPEG (Joint Photographic Experts Group) format before recording the image data on the recording medium 30. The image processing unit 14 also executes processing for decompressing and restoring image data compressed on the recording medium 30.

また、画像処理部14は、美容化補正処理モードの実行時において、本画像に対して美容化補正処理を施す。この美容化補正処理は、被写体の顔を美しく見せるための画像処理である。なお、画像処理部14は、以下に示す少なくとも1つの画像処理をCPU21の指示或いはユーザからの選択入力により行う。
(1)明度、彩度補正
画像処理部14は、画像データを解析して彩度のパラメータを補正する。この彩度補正により、画像処理部14は、肌を白く表現した画像を生成することができる。また、画像処理部14は、画像データを解析して明度のパラメータを補正する。この明度補正により、画像処理部14は、肌を明るく表現した画像を生成することができる。
(2)平滑化補正
画像処理部14は、顔の肌色の領域に存在するノイズ成分を低減化する。例えば、画像処理部14は、肌色領域のノイズ成分を低減化するローパスフィルタ等を用いてノイズの低減化処理を行う。画像処理部14は、このノイズの低減化処理により、被写体の皺や、ニキビ等の凹凸感、肌荒れ等が目立ちにくい好ましい画像を生成することができる。
(3)鮮鋭化補正
画像処理部14は、被写体の顔の輪郭を強調する鮮鋭化処理を施す。例えば、画像処理部14は、鮮鋭化処理の1つであるアンシャープマスク処理を行って、顔の輪郭を強調する。画像処理部14は、このアンシャープマスク処理により、顔がはっきりとした画像を生成することができる。
(4)ハイライト補正
画像処理部14は、画像中の最も明るいハイライト部分の輝度値を調整することによって、ハイライト部分を抑える処理を行う。これにより、画像処理部14は、例えば、閃光発光などの強い光に起因して発生しやすいテカリを軽減することができる。
Further, the image processing unit 14 performs a cosmetic correction process on the main image when the cosmetic correction process mode is executed. This cosmetic correction processing is image processing for making the subject's face look beautiful. Note that the image processing unit 14 performs at least one of the following image processing in response to an instruction from the CPU 21 or a selection input from the user.
(1) Lightness and Saturation Correction The image processing unit 14 analyzes image data and corrects a saturation parameter. By this saturation correction, the image processing unit 14 can generate an image expressing the skin white. The image processing unit 14 analyzes the image data and corrects the brightness parameter. By this lightness correction, the image processing unit 14 can generate an image expressing the skin brightly.
(2) Smoothing Correction The image processing unit 14 reduces noise components existing in the skin color area of the face. For example, the image processing unit 14 performs noise reduction processing using a low-pass filter or the like that reduces noise components in the skin color area. By this noise reduction processing, the image processing unit 14 can generate a preferable image in which the subject's wrinkles, unevenness such as acne, rough skin, and the like are not noticeable.
(3) Sharpening Correction The image processing unit 14 performs a sharpening process that enhances the contour of the face of the subject. For example, the image processing unit 14 performs an unsharp mask process, which is one of the sharpening processes, to enhance the face outline. The image processing unit 14 can generate an image with a clear face by the unsharp mask process.
(4) Highlight Correction The image processing unit 14 performs a process of suppressing the highlight portion by adjusting the luminance value of the brightest highlight portion in the image. As a result, the image processing unit 14 can reduce shine caused by strong light such as flash emission.

ここで、本実施形態の美容化補正処理は、上記の補正に限られず、例えば、画像の露出をオーバー側に補正する露出補正、画像内の明るい部分の階調を圧縮して肌色領域を強調するダイナミックレンジ拡張補正等の補正を行っても良い。   Here, the beautification correction process of the present embodiment is not limited to the above correction, and for example, exposure correction for correcting the exposure of the image to the over side, and enhancement of the skin color area by compressing the gradation of the bright part in the image. Correction such as dynamic range expansion correction may be performed.

なお、本実施形態の美容化補正処理は、単純に女性の見映えを良くするだけのものではなく、顔を明るく、好ましく補正することができる。したがって、本実施形態の美容化補正処理は、被写体が男性や子供である場合にも有用である。   Note that the beautification correction process according to the present embodiment is not limited to simply improving the appearance of a woman, but can correct the face brightly and preferably. Therefore, the beautification correction process of the present embodiment is also useful when the subject is a man or a child.

ROM15は、電子カメラ1の制御を行うプログラム等を予め記憶している不揮発性のメモリである。また、ROM15には、美容化補正処理モードで使用されるテーブルメモリが予め記憶されている。   The ROM 15 is a non-volatile memory that stores a program for controlling the electronic camera 1 in advance. The ROM 15 stores in advance a table memory used in the beautification correction processing mode.

図2は、本実施形態のテーブルメモリ100の一例を説明する図である。テーブルメモリ100は、美容化補正処理モードの実行時に参照される。図3は、テーブルメモリ100のレベル表示を説明する図である。   FIG. 2 is a diagram illustrating an example of the table memory 100 according to the present embodiment. The table memory 100 is referred to when executing the cosmetic correction processing mode. FIG. 3 is a diagram for explaining the level display of the table memory 100.

テーブルメモリ100は、条件A(肌色)、条件B(皺、肌の凹凸)、条件C(輪郭)及び条件D(テカリ)の4つの項目について、美容化補正処理の対象となる被写体の年齢と性別とに対応して異なる補正処理(補正レベル)が設定されている。また、図3は、各補正レベル(0〜6)に対応する美容化補正処理の条件を示す。図3では、各補正レベルが高くなるにつれて、各々の美容化補正処理の効果が高くなることを表している。   The table memory 100 stores the age of the subject to be cosmetically corrected for the four items of condition A (skin color), condition B (wrinkle, skin unevenness), condition C (contour) and condition D (shine). Different correction processes (correction levels) are set corresponding to gender. FIG. 3 shows the conditions for the cosmetic correction processing corresponding to each correction level (0 to 6). FIG. 3 shows that the effect of each beautification correction process increases as each correction level increases.

画像処理部14は、条件A(肌色)に関して、例えば、彩度のパラメータや明度のパラメータを補正する処理を行う。また、画像処理部14は、条件B(皺、肌の凹凸)に関して、平滑化処理を行う。また、画像処理部14は、条件C(輪郭)に関して、鮮鋭化処理を行う。また、画像処理部14は、条件D(テカリ)に関して、ハイライトを抑える処理を行う。   For example, the image processing unit 14 performs processing for correcting a saturation parameter and a brightness parameter with respect to the condition A (skin color). Further, the image processing unit 14 performs a smoothing process on the condition B (wrinkles, skin irregularities). Further, the image processing unit 14 performs a sharpening process on the condition C (contour). In addition, the image processing unit 14 performs processing for suppressing highlights regarding the condition D (shine).

なお、テーブルメモリ100では、図2に示す通り、被写体の年齢が高くなるほど、美容化補正処理の効果が高くなるように補正レベルが設定されている。また、テーブルメモリ100では、被写体の性別が女性である場合には、男性である場合よりも美容化補正処理の効果が高くなるように補正レベルを設定している。また、テーブルメモリ100では、条件A(肌色)、条件B(皺、肌の凹凸)、条件C(輪郭)及び条件D(テカリ)の4つの各項目について、画像での肌状態が悪いほど、美容化補正処理の効果が高くなるように補正レベルが設定されている。なお、本実施形態では、例えば、画像処理部14が、画像内で大きい顔に行った美容化補正処理をより小さい顔に対して行う場合、美容化補正処理の影響を抑えるように補正レベルを変更しても良い。   In the table memory 100, as shown in FIG. 2, the correction level is set so that the effect of the cosmetic correction processing increases as the age of the subject increases. In the table memory 100, the correction level is set so that the effect of the cosmetic correction processing is higher when the gender of the subject is female than when the subject is male. Further, in the table memory 100, for each of the four items of condition A (skin color), condition B (wrinkle, skin unevenness), condition C (contour) and condition D (shine), the worse the skin state in the image, The correction level is set so that the effect of the cosmetic correction process is enhanced. In this embodiment, for example, when the image processing unit 14 performs the beautification correction process performed on a larger face in the image on a smaller face, the correction level is set so as to suppress the influence of the beautification correction process. It may be changed.

再び、図1の説明に戻る。記録I/F部16は、データの書き込みや読み出しのインターフェースを提供する。記録I/F部16には、着脱自在の記録媒体30を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部16は、そのコネクタに接続された記録媒体30にアクセスして画像の記録処理等を行う。この記録媒体30は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。   Returning again to the description of FIG. The recording I / F unit 16 provides an interface for writing and reading data. The recording I / F unit 16 is formed with a connector (not shown) for connecting a detachable recording medium 30. The recording I / F unit 16 accesses the recording medium 30 connected to the connector and performs image recording processing and the like. The recording medium 30 is, for example, a non-volatile memory card. FIG. 1 shows the recording medium 30 after being connected to the connector.

表示モニタ17は、CPU21の指示に応じて各種画像や電子カメラ1の操作メニュー等を表示する。なお、表示モニタ17には、液晶のモニタ等を適宜選択して用いることができる。   The display monitor 17 displays various images, an operation menu of the electronic camera 1 and the like according to instructions from the CPU 21. As the display monitor 17, a liquid crystal monitor or the like can be appropriately selected and used.

タッチパネル18は、タッチパネル表面に接触した物体(指先)の位置を検出する。そして、タッチパネル18は、検出した位置を示す信号を後述するCPU21の位置情報検出部21bに送信する。なお、タッチパネル18は、人間以外の物体(スタイラス等)の位置を検出しても良い。   The touch panel 18 detects the position of an object (fingertip) in contact with the touch panel surface. And the touch panel 18 transmits the signal which shows the detected position to the positional information detection part 21b of CPU21 mentioned later. The touch panel 18 may detect the position of an object other than a human (such as a stylus).

操作部19は、電源釦、広角ズーム釦と、望遠ズーム釦等のユーザからの操作を受け付ける複数の釦(不図示)を有している。   The operation unit 19 has a plurality of buttons (not shown) that accept operations from the user, such as a power button, a wide-angle zoom button, and a telephoto zoom button.

レリーズ釦20は、例えば、プログラムオート(Program Auto)撮影の場合、半押し操作(撮影前における自動露出(AE:Automatic Exposure)、自動焦点合わせ(AF:Auto Focus)等の動作開始)の指示入力と全押し操作(撮像動作開始)との指示入力とを受け付ける。   For example, in the case of Program Auto shooting, the release button 20 is used to input an instruction for a half-press operation (automatic exposure (AE: Auto Exposure) before shooting, automatic focus (AF: Auto Focus) operation start)). And an instruction input for full-press operation (imaging operation start) are received.

CPU21は、各種演算及び電子カメラ1の制御を行うプロセッサである。CPU21は、ROM15に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行う。   The CPU 21 is a processor that performs various calculations and control of the electronic camera 1. The CPU 21 controls each part of the electronic camera 1 by executing a sequence program stored in advance in the ROM 15.

また、CPU21は、本実施形態のプログラムが実行されることにより、顔検出部21a、位置情報検出部21b、判定部21c、受付部21d及び分類部21eとしても機能する。   The CPU 21 also functions as a face detection unit 21a, a position information detection unit 21b, a determination unit 21c, a reception unit 21d, and a classification unit 21e by executing the program of the present embodiment.

顔検出部21aは、例えば、スルー画像又は本画像から特徴点(特徴量)を抽出して処理対象の候補となる顔領域、顔領域の大きさ(顔面積)等を検出する。例えば、顔検出部21aは、特開2001−16573号公報等に記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔検出部21aは、顔領域の位置情報を特定する。例えば、顔検出部21aは、画像の横方向をX軸、縦方向をY軸としたときに、顔領域に含まれる画素のX座標及びY座標を算出する。さらに、顔検出部21aは、例えば、特開2004−222118号公報等に記載された特徴点を用いた演算処理によって、検出した人物の人種、年齢、性別等を判別する。   For example, the face detection unit 21a extracts a feature point (feature amount) from a through image or a main image, and detects a face area that is a candidate for processing, a size of the face area (face area), and the like. For example, the face detection unit 21a extracts a face region by a feature point extraction process described in Japanese Patent Application Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head apexes, and chin lower end points. Then, the face detection unit 21a specifies the position information of the face area. For example, the face detection unit 21a calculates the X coordinate and the Y coordinate of the pixels included in the face area when the horizontal direction of the image is the X axis and the vertical direction is the Y axis. Furthermore, the face detection unit 21a determines the race, age, gender, and the like of the detected person by a calculation process using feature points described in, for example, Japanese Patent Application Laid-Open No. 2004-222118.

位置情報検出部21bは、タッチパネル18からの信号を受信し、表示モニタ17の表示画面に接触する指先の位置情報を画像内の位置に対応させて検出する。   The position information detection unit 21b receives a signal from the touch panel 18 and detects the position information of the fingertip that contacts the display screen of the display monitor 17 in correspondence with the position in the image.

判定部21cは、位置情報検出部21bが検出した位置情報に基づいて、指先により指定された顔の数をカウントする。なお、判定部21cは、表示モニタ17に表示された人物の顔に対応する領域(例えば、顔を囲む枠表示(以下「顔枠」という))に指先が接触した場合、顔の数をカウントする。これにより、判定部21cは、指先により指定された顔の数を精度良くカウントできる。   The determination unit 21c counts the number of faces specified by the fingertip based on the position information detected by the position information detection unit 21b. Note that the determination unit 21c counts the number of faces when the fingertip touches an area corresponding to the face of the person displayed on the display monitor 17 (for example, a frame display surrounding the face (hereinafter referred to as “face frame”)). To do. Thereby, the determination unit 21c can accurately count the number of faces designated by the fingertip.

受付部21dは、タッチパネル18上での指先の接触位置又は指先の移動軌跡に基づいて、指定された顔の数に応じた、美容化補正処理モードにおける操作の指示入力を受け付ける。なお、受付部21dは、指先の本数に応じて、異なる操作の指示入力を受け付けても良い。画像処理部14は、指示入力に基づいて、顔を美容化する美容化補正処理を行う。   The accepting unit 21d accepts an operation instruction input in the beautification correction processing mode according to the designated number of faces based on the touch position of the fingertip on the touch panel 18 or the movement trajectory of the fingertip. The receiving unit 21d may receive instruction inputs for different operations depending on the number of fingertips. The image processing unit 14 performs a beautification correction process for beautifying the face based on the instruction input.

ここで、指定された顔の数が1つであって、位置情報検出部21bが指定された顔から他の顔への指先のタッチパネル18上での移動軌跡を検出した場合、受付部21dは、指定された顔に対して行った美容化補正処理を他の顔に対して行う指示入力を受け付ける。   Here, when the number of designated faces is one and the position information detection unit 21b detects the movement trajectory of the fingertip from the designated face to another face on the touch panel 18, the reception unit 21d An instruction input for performing the beautification correction process performed on the designated face on another face is received.

また、指定された顔の数が複数(例えば2つ)であって、位置情報検出部21bがタッチパネル18上での指先(例えば、それぞれの顔領域上に接触している指先)の回転を示す移動軌跡を検出した場合、受付部21dは、指定された顔毎に行った個別の美容化補正処理を交換して行う指示入力を受け付ける。   In addition, the number of designated faces is plural (for example, two), and the position information detection unit 21b indicates the rotation of the fingertip (for example, the fingertip in contact with each face area) on the touch panel 18. When the movement trajectory is detected, the receiving unit 21d receives an instruction input performed by exchanging individual cosmetic correction processes performed for each designated face.

分類部21eは、顔検出部21aにより画像から抽出された顔の特徴量に基づいて、複数の顔をグループ化する。例えば、分類部21eは、顔検出部21aにより画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する。受付部21dは、指定された顔のグループに属する複数の顔に対して、同一の美容化補正処理を一括して行う指示入力を受け付ける。   The classification unit 21e groups a plurality of faces based on the facial feature amount extracted from the image by the face detection unit 21a. For example, the classification unit 21e groups a plurality of faces in the image based on the facial feature amount extracted from the image by the face detection unit 21a. The accepting unit 21d accepts an instruction input for collectively performing the same cosmetic correction process on a plurality of faces belonging to the designated face group.

次に、本実施形態の美容化補正処理モードにおける電子カメラ1の動作の一例を説明する。図4は、美容化補正処理モードにおける電子カメラ1の動作の一例を示すフローチャートである。   Next, an example of the operation of the electronic camera 1 in the cosmetic correction processing mode of this embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the electronic camera 1 in the cosmetic correction processing mode.

ここで、電子カメラ1で本画像の撮影後、図1に示す操作部19が、美容化補正処理モードの指示入力を受け付けると、CPU21は、図4に示すフローの処理を開始させる。   Here, after the main image is captured by the electronic camera 1, when the operation unit 19 illustrated in FIG. 1 receives an instruction input for the cosmetic correction processing mode, the CPU 21 starts the processing of the flow illustrated in FIG.

ステップS101:CPU21の顔検出部21aは、本画像の顔検出処理を行う。具体的には、顔検出部21aは、本画像の画像データを読み出して、画像内の特徴点(特徴量)を抽出して顔領域、顔領域の大きさ(顔面積)等を検出する。そして、顔検出部21aは、検出した顔毎に年齢や性別を推定する。   Step S101: The face detection unit 21a of the CPU 21 performs face detection processing of the main image. Specifically, the face detection unit 21a reads image data of the main image, extracts feature points (feature amounts) in the image, and detects a face area, the size of the face area (face area), and the like. And the face detection part 21a estimates age and sex for every detected face.

ステップS102:画像処理部14は、検出した顔毎にオートで美容化補正処理を行う。例えば、顔検出部21aが人物P1に対して、性別:女性、年齢:20代と推定した場合、画像処理部14は、テーブルメモリ100を参照して、一例として明度、彩度補正(レベル2)の美容化補正処理を行う。また、例えば、顔検出部21aが人物P2に対して、性別:女性、年齢:10代と推定した場合、画像処理部14は、テーブルメモリ100を参照して、一例として明度、彩度補正(レベル1)の美容化補正処理を行う。   Step S102: The image processing unit 14 automatically performs cosmetic correction processing for each detected face. For example, when the face detection unit 21a estimates that the person P1 is gender: female and age: 20s, the image processing unit 14 refers to the table memory 100 and, as an example, brightness and saturation correction (level 2) ) Cosmetic correction processing. For example, when the face detection unit 21a estimates that the person P2 is gender: female and age: teen, the image processing unit 14 refers to the table memory 100 as an example to correct brightness and saturation ( Level 1) cosmetic correction processing is performed.

ステップS103:画像処理部14は、表示モニタ17に美容化補正処理後の本画像を表示する。   Step S103: The image processing unit 14 displays the main image after the cosmetic correction processing on the display monitor 17.

図5は、美容化補正処理の一例を示す図である。図5(a)は、表示モニタ17に表示された美容化補正処理後の本画像を示している。CPU21は、図5(a)中、人物P1の顔を囲む枠W1、人物P2の顔を囲む枠W2を重畳表示させる。   FIG. 5 is a diagram illustrating an example of the cosmetic correction process. FIG. 5A shows the main image after the cosmetic correction processing displayed on the display monitor 17. In FIG. 5A, the CPU 21 superimposes and displays a frame W1 surrounding the face of the person P1 and a frame W2 surrounding the face of the person P2.

ステップS104:CPU21は、タッチパネル18を介して、顔の選択入力を受け付ける。図5(b)は、ユーザの入力よる顔の選択入力例を示す図である。図5(b)において、位置情報検出部21bは、タッチパネル18の入力により、例えばユーザの人指し指F1が顔枠W1内に接触していることを検出する。これにより、CPU21は、人物P1の顔の選択入力を受け付ける。   Step S104: The CPU 21 accepts a face selection input via the touch panel 18. FIG. 5B is a diagram showing an example of face selection input by a user input. In FIG. 5B, the position information detection unit 21b detects, for example, that the user's index finger F1 is in contact with the face frame W1 by the input of the touch panel 18. Thereby, the CPU 21 accepts a selection input of the face of the person P1.

ステップS105:判定部21cは、指定された顔をカウントする。図5の例では、判定部21cは、指定された顔が1つであるとカウントする。   Step S105: The determination unit 21c counts the designated face. In the example of FIG. 5, the determination unit 21c counts that there is one designated face.

ステップS106:受付部21dは、ユーザから美容化補正処理の指示入力を受け付ける。例えば、位置情報検出部21bが指定された人物P1の顔から人物P2の顔への人指し指F1の移動軌跡を検出した場合(図5(c)参照)、受付部21dは、ステップS102の処理により人物P1の顔に対して行った美容化補正処理を人物P2の顔に対して行う指示入力を受け付ける。   Step S106: The accepting unit 21d accepts an instruction input for cosmetic modification processing from the user. For example, when the position information detection unit 21b detects the movement trajectory of the index finger F1 from the designated face of the person P1 to the face of the person P2 (see FIG. 5C), the reception unit 21d performs the process of step S102. An instruction input for performing the cosmetic correction processing performed on the face of the person P1 on the face of the person P2 is received.

ステップS107:画像処理部14は、ユーザの入力に応じて美容化補正処理を行う。図5(c)の場合、画像処理部14は、テーブルメモリ100を参照し、ステップS102の処理により人物P1の顔に対して行った美容化補正処理を人物P2の顔に対して行う。具体的には、画像処理部14は、人物P2の顔に対して、明度、彩度補正(レベル2)の美容化補正処理を行う。   Step S107: The image processing unit 14 performs a beautification correction process in response to a user input. In the case of FIG. 5C, the image processing unit 14 refers to the table memory 100, and performs the cosmetic correction processing performed on the face of the person P1 by the process of step S102 on the face of the person P2. Specifically, the image processing unit 14 performs cosmetic correction processing for brightness and saturation correction (level 2) on the face of the person P2.

ステップS108:CPU21は、ユーザの入力による美容化補正処理後の本画像を表示モニタ17に表示する。   Step S <b> 108: The CPU 21 displays the main image after the beautification correction process by the user input on the display monitor 17.

ステップS109:CPU21は、ユーザの入力による美容化補正処理後の本画像を記録媒体30に記録する。そして、CPU21は、図4に示すフローを終了させる。   Step S109: The CPU 21 records the main image after the beautification correction process by the user input on the recording medium 30. Then, the CPU 21 ends the flow shown in FIG.

なお、ステップS108の処理で、ユーザが美容化補正処理後の本画像を見た後、美容化補正処理を戻したい場合、CPU21は、操作部7を介して元に戻す処理を受け付けても良い。この場合、CPU21は、ステップS109を行わずに図4に示すフローを終了させる。   When the user wants to return to the beautification correction process after viewing the main image after the beautification correction process in step S108, the CPU 21 may accept an undo process via the operation unit 7. . In this case, the CPU 21 ends the flow shown in FIG. 4 without performing step S109.

以上より、本実施形態の電子カメラ1によれば、特定の人物毎に所定の画像処理条件を予め登録し、入力画像中の人物を抽出して人物同定を行う必要がない。そして、ユーザは、特定の人物の美容化補正処理を他の人物へ簡単に適用させることができる。そのため、本実施形態の電子カメラ1は、人物の顔を好ましく補正する画像処理を行う際の操作性を向上させることができる。
<第1変形例>
次に、上記実施形態の第1変形例について説明する。第1変形例では、ユーザが2つの顔を指定して、タッチパネル18上において指先で回転を示す操作を行った場合の美容化補正処理を例示する。ここで、ステップS101からステップS103までの処理は、上記の場合と同様であるので、説明を省略する。
As described above, according to the electronic camera 1 of the present embodiment, it is not necessary to register a predetermined image processing condition in advance for each specific person, extract a person in the input image, and perform person identification. The user can easily apply the beautification correction process for a specific person to another person. Therefore, the electronic camera 1 of the present embodiment can improve operability when performing image processing that preferably corrects a human face.
<First Modification>
Next, a first modification of the above embodiment will be described. In the first modified example, a cosmetic correction process in the case where the user designates two faces and performs an operation indicating rotation with the fingertip on the touch panel 18 is illustrated. Here, the processing from step S101 to step S103 is the same as in the above case, and thus the description thereof is omitted.

図6は、美容化補正処理の一例を示す図である。図6(a)は、図5(a)に示す本画像が表示モニタ17に表示された後、ユーザの指先が表示画面にタッチされている状態を表している。   FIG. 6 is a diagram illustrating an example of the cosmetic correction process. FIG. 6A shows a state in which the user's fingertip is touched on the display screen after the main image shown in FIG. 5A is displayed on the display monitor 17.

ステップS104:CPU21は、タッチパネル18を介して、顔の選択入力を受け付ける。具体的には、図6(a)において、位置情報検出部21bは、例えばユーザの指先(人指し指F1、中指F2)がそれぞれ顔枠W1、W2内に接触していることを検出する。これにより、CPU21は、タッチパネル18からのユーザの入力により、人物P1及び人物P2の顔の選択入力を受け付ける。   Step S104: The CPU 21 accepts a face selection input via the touch panel 18. Specifically, in FIG. 6A, the position information detection unit 21b detects, for example, that the user's fingertips (index finger F1 and middle finger F2) are in contact with the face frames W1 and W2, respectively. As a result, the CPU 21 receives selection input of the faces of the person P1 and the person P2 by the user input from the touch panel 18.

ステップS105:判定部21cは、指定された顔をカウントする。図6(a)の場合、判定部21cは、指定された顔が2つであるとカウントする。   Step S105: The determination unit 21c counts the designated face. In the case of FIG. 6A, the determination unit 21c counts that there are two designated faces.

ステップS106:受付部21dは、ユーザから美容化補正処理の指示入力を受け付ける。例えば、位置情報検出部21bが2本の指先の回転を示す移動軌跡を検出した場合(図6(b)参照)、受付部21dは、ステップS102の処理により顔毎に行った個別の美容化補正処理を交換して行う指示入力を受け付ける。なお、上記の美容化補正処理の交換を行なう指示入力は、回転を示す移動に限られず、互いの指先の移動軌跡が直線とならない入力であれば良い。例えば、受付部21dは、ユーザがタッチパネル18上において2本の指先を捻じる操作を行った場合も、ステップS102の処理により顔毎に行った個別の美容化補正処理を交換して行う指示入力を受け付けることとする。   Step S106: The accepting unit 21d accepts an instruction input for cosmetic modification processing from the user. For example, when the position information detection unit 21b detects a movement trajectory indicating the rotation of two fingertips (see FIG. 6B), the reception unit 21d performs individual cosmeticization performed for each face by the process of step S102. An instruction input performed by exchanging the correction process is received. The instruction input for exchanging the beautification correction process is not limited to the movement indicating rotation, and may be an input in which the movement trajectory of each fingertip is not a straight line. For example, even when the user performs an operation of twisting two fingertips on the touch panel 18, the reception unit 21 d exchanges the individual cosmetic correction processing performed for each face by the processing in step S <b> 102. Will be accepted.

ステップS107:画像処理部14は、ユーザの入力に応じて美容化補正処理を行う。図6の場合、画像処理部14は、テーブルメモリ100を参照し、ステップS102の処理により人物P1の顔に対して行った美容化補正処理を人物P2の顔に対して行う。具体的には、画像処理部14は、人物P2の顔に対して、明度、彩度補正(レベル2)の美容化補正処理を行う。   Step S107: The image processing unit 14 performs a beautification correction process in response to a user input. In the case of FIG. 6, the image processing unit 14 refers to the table memory 100 and performs the beautification correction process performed on the face of the person P1 by the process of step S102 on the face of the person P2. Specifically, the image processing unit 14 performs cosmetic correction processing for brightness and saturation correction (level 2) on the face of the person P2.

また、画像処理部14は、テーブルメモリ100を参照し、ステップS102の処理により人物P2の顔に対して行った美容化補正処理を人物P1の顔に対して行う。具体的には、画像処理部14は、人物P1の顔に対して、明度、彩度補正(レベル1)の美容化補正処理を行う。   Further, the image processing unit 14 refers to the table memory 100 and performs the beautification correction process performed on the face of the person P2 by the process of step S102 on the face of the person P1. Specifically, the image processing unit 14 performs cosmetic correction processing for brightness and saturation correction (level 1) on the face of the person P1.

ステップS108:CPU21は、図6(c)に示す通り、美容化補正処理後の本画像を表示モニタ17に表示する。   Step S108: As shown in FIG. 6C, the CPU 21 displays the main image after the beautification correction process on the display monitor 17.

ステップS109:CPU21は、本画像を記録媒体30に記録する。そして、CPU21は、図4に示すフローを終了させる。   Step S109: The CPU 21 records the main image on the recording medium 30. Then, the CPU 21 ends the flow shown in FIG.

以上より、本実施形態の電子カメラ1では、特定の人物同士の美容化補正処理を交換して実行することが簡単にできる。これにより、美容化補正処理の操作性が向上する。
<第2変形例>
次に、上記実施形態の第2変形例について説明する。第2変形例では、ユーザが、複数の顔を一括して美容化補正処理を行う指示入力をした場合について例示する。ここで、ステップS101からステップS102までの処理は、上記の場合と同様であるので、説明を省略する。
As described above, in the electronic camera 1 of the present embodiment, it is possible to easily exchange and execute the cosmetic correction processing between specific persons. This improves the operability of the cosmetic correction process.
<Second Modification>
Next, a second modification of the above embodiment will be described. In the second modified example, a case where the user inputs an instruction to perform a cosmetic correction process on a plurality of faces at once is illustrated. Here, the processing from step S101 to step S102 is the same as that described above, and thus the description thereof is omitted.

ステップS103:CPU21は、オートによる美容化補正処理後の本画像を表示モニタ17に表示する。図7は、本画像の一例を示す図である。図7では、本画像内に人物P1〜P4の4人の人物が写っている。ここで、CPU21は、操作部19又はタッチパネル18からのユーザの入力に応じて、顔をグループ化する指示入力を受け付ける。この場合、分類部21eは、顔検出部21aにより画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する。例えば、分類部21eは、複数の顔を年齢別や性別にグループ化する。そして、グループ化した結果を表示モニタ17に表示する。   Step S103: The CPU 21 displays the main image after the beautification correction processing by auto on the display monitor 17. FIG. 7 is a diagram illustrating an example of the main image. In FIG. 7, four persons P1 to P4 are shown in the main image. Here, the CPU 21 receives an instruction input for grouping faces in accordance with a user input from the operation unit 19 or the touch panel 18. In this case, the classification unit 21e groups a plurality of faces in the image based on the facial feature amounts extracted from the image by the face detection unit 21a. For example, the classification unit 21e groups a plurality of faces by age or gender. Then, the grouped result is displayed on the display monitor 17.

図8は、グループ化表示の一例を示す図である。例えば、CPU21は、本画像の画像から人物P1〜P4の顔領域を切り出して、表示モニタ17に表示する。この際、CPU21は、女性P1の顔を囲む領域を赤枠W1、女性P2の顔を囲む領域を赤枠W2で表示モニタ17に重畳表示する。また、CPU21は、男性P3の顔を囲む領域を青枠W3、男性P4の顔を囲む領域を青枠W4で表示モニタ17に重畳表示する。   FIG. 8 is a diagram illustrating an example of grouped display. For example, the CPU 21 cuts out the face areas of the persons P1 to P4 from the main image and displays them on the display monitor 17. At this time, the CPU 21 superimposes and displays the area surrounding the face of the female P1 on the display monitor 17 with the red frame W1 and the area surrounding the face of the female P2 with the red frame W2. Further, the CPU 21 superimposes and displays the area surrounding the face of the male P3 on the display monitor 17 with the blue frame W3 and the area surrounding the face of the male P4 with the blue frame W4.

ステップS104:CPU21は、タッチパネル18からのユーザの入力に応じて、顔の選択入力を受け付ける。図8において、位置情報検出部21bは、例えばユーザの指先(人指し指F1、不図示)が赤枠W1内に接触していることを検出する。これにより、CPU21は、タッチパネル18を介して、人物P1の顔の選択入力を受け付ける。   Step S104: The CPU 21 accepts a face selection input in response to a user input from the touch panel 18. In FIG. 8, the position information detection unit 21b detects, for example, that the user's fingertip (forefinger F1, not shown) is in contact with the red frame W1. Thereby, the CPU 21 receives a selection input of the face of the person P1 via the touch panel 18.

ステップS105:判定部21cは、指定された顔をカウントする。この場合、判定部21cは、指定された顔の属するグループの顔の数をカウントする。この場合、判定部21cは、赤枠W1、W2でグループ化された人物P1及び人物P2をカウントする。   Step S105: The determination unit 21c counts the designated face. In this case, the determination unit 21c counts the number of faces in the group to which the designated face belongs. In this case, the determination unit 21c counts the person P1 and the person P2 grouped by the red frames W1 and W2.

ステップS106:受付部21dは、指定された顔のグループに属する顔に対して、同一の美容化補正処理を一括して行う指示入力を受け付ける。   Step S106: The accepting unit 21d accepts an instruction input for collectively performing the same cosmetic correction process on the faces belonging to the specified face group.

ステップS107:画像処理部14は、本画像(図7)の指定された複数の顔に対して同一の美容化補正処理を一括して行う。   Step S107: The image processing unit 14 collectively performs the same cosmetic correction process on a plurality of designated faces of the main image (FIG. 7).

ステップS108:CPU21は、美容化補正処理の後の本画像を表示モニタ17に表示する。   Step S108: The CPU 21 displays the main image after the cosmetic correction processing on the display monitor 17.

ステップS109:CPU21は、本画像を記録媒体30に記録する。そして、CPU21は、図4に示すフローを終了させる。   Step S109: The CPU 21 records the main image on the recording medium 30. Then, the CPU 21 ends the flow shown in FIG.

以上より、第2変形例では、複数の顔に対して、所望の美容化補正処理を一括して行えるので、操作性が向上する。   As described above, in the second modified example, since a desired cosmetic correction process can be performed on a plurality of faces at once, the operability is improved.

なお、ステップS103において、CPU21は、分類部21eの分類結果に応じて、人物P1、人物P2の女性のみを表示モニタ17に表示しても良い。或いは、CPU21は、分類部21eの分類結果に応じて、人物P3、人物P4の男性のみを表示モニタ17に表示しても良い。また、CPU21は、本画像内の顔の大きさが異なる場合、顔の大きさを一括して同一サイズにリサイズして表示モニタ17に表示しても良い。また、CPU21は、顔の比率が互いに変わらないようにして表示モニタ17に拡大表示しても良い。例えば、CPU21は、ユーザからの拡大表示の指示入力を受け付ける。CPU21は、一例として図7に示す人物P3の顔が人物P4の顔に比べて大きい場合、顔の比率を保ちながら、人物P3の顔と人物P4の顔とを表示モニタ17に拡大表示しても良い。
<第3変形例>
次に、上記実施形態の第3変形例について説明する。第3変形例では、ユーザが複数の指でタッチパネル18をタッチした場合、CPU21は、指の本数に応じて指示入力の処理を実行する。
In step S103, the CPU 21 may display only the women of the person P1 and the person P2 on the display monitor 17 according to the classification result of the classification unit 21e. Alternatively, the CPU 21 may display only the men of the person P3 and the person P4 on the display monitor 17 according to the classification result of the classification unit 21e. Further, when the face sizes in the main image are different, the CPU 21 may collectively resize the face sizes to the same size and display them on the display monitor 17. Further, the CPU 21 may enlarge the display on the display monitor 17 so that the ratios of the faces do not change. For example, the CPU 21 receives an enlarged display instruction input from the user. For example, when the face of the person P3 shown in FIG. 7 is larger than the face of the person P4, the CPU 21 enlarges and displays the face of the person P3 and the face of the person P4 on the display monitor 17 while maintaining the face ratio. Also good.
<Third Modification>
Next, a third modification of the above embodiment will be described. In the third modification, when the user touches the touch panel 18 with a plurality of fingers, the CPU 21 executes an instruction input process according to the number of fingers.

図9は、第3変形例の一例について説明する図である。図9(a)において、CPU21は、人物P1を撮影した本画像を表示モニタ17に表示すると共に、顔枠W1を重畳表示する。   FIG. 9 is a diagram illustrating an example of the third modification. In FIG. 9A, the CPU 21 displays the main image obtained by photographing the person P1 on the display monitor 17 and displays the face frame W1 in a superimposed manner.

位置情報検出部21bは、図9(b)に示す通り、ユーザの第1の指(人指し指)F1が顔枠W1内にタッチしたことを検出した場合、CPU21は、タッチパネル18を介して、人物P1の顔の選択入力を受け付ける(処理1の指示入力)。   When the position information detection unit 21b detects that the user's first finger (index finger) F1 has touched the face frame W1, as shown in FIG. The selection input of the face of P1 is received (instruction input of process 1).

続いて、位置情報検出部21bは、ユーザの第2の指(中指)F2が顔枠W1外にタッチしたことを検出した場合、図9(c)に示す通り、受付部21dは、第1の美容化処理補正(例えば彩度補正)の指示入力を受け付ける(処理2の指示入力)。   Subsequently, when the position information detection unit 21b detects that the user's second finger (middle finger) F2 touches outside the face frame W1, as illustrated in FIG. 9C, the reception unit 21d An instruction input for the beautification process correction (for example, saturation correction) is received (instruction input for process 2).

さらに、位置情報検出部21bは、ユーザの第3の指(薬指)F3が顔枠W1外にタッチしたことを検出した場合、図9(d)に示す通り、受付部21dは、第1の美容化処理補正(例えば平滑化補正)の指示入力を受け付ける(処理3の指示入力)。画像処理部14は、これらの指示入力により、人物P1の顔に対して彩度補正と平滑化補正とを実行する。   Furthermore, when the position information detection unit 21b detects that the third finger (ringing finger) F3 of the user has touched outside the face frame W1, as illustrated in FIG. 9D, the reception unit 21d An instruction input for cosmetic correction (for example, smoothing correction) is received (instruction input for process 3). The image processing unit 14 performs saturation correction and smoothing correction on the face of the person P1 in response to these instruction inputs.

図10は、第3変形例の一例について説明する図である。図10(a)において、CPU21は、彩度補正と平滑化補正とが施された人物P1の拡大画像を表示モニタ17に表示する。ここで、例えば、位置情報検出部21bは、図10(b)に示す通り、ユーザの第1の指(人指し指)F1がタッチパネルにタッチしたことを検出した場合、CPU21は、タッチパネル18を介して、人物P1の顔の補正が良い旨の指示入力を受け付ける(処理4の指示入力)。   FIG. 10 is a diagram illustrating an example of the third modification. In FIG. 10A, the CPU 21 displays on the display monitor 17 an enlarged image of the person P1 that has been subjected to saturation correction and smoothing correction. Here, for example, when the position information detection unit 21b detects that the first finger (index finger) F1 of the user has touched the touch panel as shown in FIG. Then, an instruction input indicating that the correction of the face of the person P1 is good is received (instruction input of process 4).

続いて、位置情報検出部21bは、図10(c)に示す通り、ユーザの第2の指(中指)F2がタッチパネルにタッチしたことを検出した場合、CPU21は、補正後の本画像の保存の指示入力を受け付ける(処理5の指示入力)。   Subsequently, when the position information detection unit 21b detects that the user's second finger (middle finger) F2 touches the touch panel as illustrated in FIG. 10C, the CPU 21 stores the corrected main image. Is received (instruction input in process 5).

さらに、位置情報検出部21bは、図10(d)に示す通り、ユーザの第3の指(薬指)F3がタッチパネルにタッチしたことを検出した場合、美容化補正処理モードの終了の指示入力を受け付ける(処理6の指示入力)。CPU21は、補正後の本画像を記録媒体30に記録した後、美容化補正処理モードを終了する。   Furthermore, as shown in FIG. 10D, when the position information detection unit 21b detects that the user's third finger (ringing finger) F3 has touched the touch panel, it inputs an instruction to end the cosmetic correction processing mode. Accept (instruction input of process 6). After recording the corrected main image on the recording medium 30, the CPU 21 ends the cosmetic correction processing mode.

ここで、図9(d)、図10(d)に示す通り、ユーザは、同時に3本の指をタッチしても良い。この場合、CPU21は、1度に3つの処理の指示入力を受け付けることができる。   Here, as shown in FIGS. 9D and 10D, the user may touch three fingers at the same time. In this case, the CPU 21 can accept instruction inputs for three processes at a time.

以上より、処理1〜処理6の指示入力を1本の指で行う場合、ユーザは、タッチパネル上で時系列に6回タッチする操作を行う。しかし、変形例3では、例えば、図9(d)、図10(d)に示す通り、ユーザは、同時に3本の指をタッチすれば良いので、短時間で指示入力の操作を行うことが可能となり、操作性がより向上する。
<実施形態の補足事項>
(1)本実施形態では、本画像に対して美容化補正処理を行ったが、スルー画像に対して行っても良い。つまり、ユーザは、スルー画像上で美容化補正処理の結果を確認した後に本画像の撮影を行うことができる。
(2)本実施形態の画像処理装置1は、タッチパネル機能を有する電子機器として、例えば携帯電話、PDA(Personal Digital Assistant)、若しくはパーソナルコンピュータ等に適用しても良い。
(3)本実施形態では、画像内の顔に対応する表示領域として顔枠を用いたが、顔に対応する表示領域を例えば、顔を含む領域を半透過状態の色付きで示す表示形態であっても良い。
(4)本実施形態では、図6において、2本の指の回転操作における指示入力の一例について説明したが、上記の例に限定されるものではない。例えば、複数の顔が指定された状態において、時計回りに1本の指による回転操作を位置情報検出部21bが検出した場合、受付部21dは、指定された顔毎に行った個別の美容化補正処理を回転方向に沿って交換する入力を受け付けても良い。また、3つ以上の顔が指定された状態で、位置情報検出部21bが2本の指による回転操作を検出した場合、受付部21dは、指定された顔毎に行った個別の美容化補正処理を回転方向に沿って交換する入力を受け付けても良い。
As described above, when the instruction input of the processing 1 to the processing 6 is performed with one finger, the user performs an operation of touching the touch panel six times in time series on the touch panel. However, in Modification 3, for example, as shown in FIGS. 9D and 10D, the user only has to touch three fingers at the same time. It becomes possible and the operability is further improved.
<Supplementary items of the embodiment>
(1) In this embodiment, the cosmetic correction processing is performed on the main image, but it may be performed on the through image. That is, the user can take the main image after confirming the result of the cosmetic correction processing on the through image.
(2) The image processing apparatus 1 of the present embodiment may be applied to, for example, a mobile phone, a PDA (Personal Digital Assistant), or a personal computer as an electronic device having a touch panel function.
(3) In this embodiment, the face frame is used as the display area corresponding to the face in the image. However, the display area corresponding to the face is, for example, a display form in which the area including the face is colored in a semi-transparent state. May be.
(4) In the present embodiment, an example of instruction input in the rotation operation of two fingers has been described in FIG. 6, but is not limited to the above example. For example, in a state where a plurality of faces are designated, when the position information detection unit 21b detects a rotation operation with one finger in a clockwise direction, the reception unit 21d performs individual cosmeticization performed for each designated face. An input for exchanging the correction process along the rotation direction may be received. In addition, when the position information detection unit 21b detects a rotation operation with two fingers in a state where three or more faces are designated, the reception unit 21d performs individual cosmetic correction performed for each designated face. You may receive the input which replaces a process along a rotation direction.

1・・・電子カメラ、11・・・撮像素子、14・・・画像処理部、21a・・・顔検出部、21b・・・位置情報検出部、21c・・・判定部、21d・・・受付部、21e・・・分類部 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 11 ... Image sensor, 14 ... Image processing part, 21a ... Face detection part, 21b ... Position information detection part, 21c ... Determination part, 21d ... Reception part, 21e ... Classification part

Claims (9)

画像表示装置の表示画面に接触する物体の位置情報を検出する位置情報検出部と、
前記画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する顔検出部と、
前記顔領域の位置情報と前記物体の位置情報とに基づいて、前記物体により指定された顔の数を判定する判定部と、
前記表示画面上での前記物体の接触位置又は移動軌跡に基づいて、前記指定された顔の数に応じた所定の操作の指示入力を受け付ける受付部と、
前記指示入力に基づいて、前記画像の顔の補正処理を行う補正部と、
を備えることを特徴とする画像処理装置。
A position information detector that detects position information of an object that contacts the display screen of the image display device;
A face detection unit for detecting a face area that is a candidate for processing from an image displayed on the image display device;
A determination unit configured to determine the number of faces designated by the object based on the position information of the face region and the position information of the object;
A receiving unit that receives an instruction input of a predetermined operation according to the number of the designated faces, based on the contact position or movement locus of the object on the display screen;
A correction unit that performs correction processing on the face of the image based on the instruction input;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記判定部は、前記画像内の顔に対応する表示領域に前記物体が接触した場合、前記表示領域の顔をカウントすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The determination unit counts the faces in the display area when the object comes into contact with the display area corresponding to the face in the image.
請求項1又は請求項2に記載の画像処理装置において、
前記受付部は、前記表示画面に接触する前記物体の数に応じて異なる前記指示入力を受け付けることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus according to claim 1, wherein the receiving unit receives the instruction input that varies depending on the number of the objects that touch the display screen.
請求項3に記載の画像処理装置において、
前記指定された顔の数が1つであって、前記位置情報検出部が前記指定された顔から他の顔への前記物体の移動軌跡を検出した場合、前記受付部は、前記指定された顔に対して行った前記補正処理を前記他の顔に対して行う指示入力を受け付けることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
When the number of the designated faces is one and the position information detection unit detects a movement locus of the object from the designated face to another face, the reception unit An image processing apparatus that receives an instruction input for performing the correction processing performed on a face on the other face.
請求項3に記載の画像処理装置において、
前記指定された顔の数が複数であって、前記位置情報検出部が前記表示画面に接触する前記物体の回転を示す移動軌跡を検出した場合、前記受付部は、前記指定された顔毎に行った個別の前記補正処理を交換して行う指示入力を受け付けることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
When the number of the designated faces is plural and the position information detection unit detects a movement trajectory indicating the rotation of the object in contact with the display screen, the reception unit is provided for each of the designated faces. An image processing apparatus that receives an instruction input performed by exchanging the individual correction processing performed.
請求項1から請求項3の何れか1項に記載の画像処理装置において、
前記顔検出部により前記画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する分類部をさらに備え、
前記受付部は、前記指定された顔のグループに属する複数の顔に対して、同一の前記補正処理を一括して行う指示入力を受け付けることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
A classification unit for grouping a plurality of faces in the image based on the feature amount of the face extracted from the image by the face detection unit;
The image processing apparatus according to claim 1, wherein the receiving unit receives an instruction input for performing the same correction process collectively on a plurality of faces belonging to the specified face group.
請求項1から請求項6の何れか1項に記載の画像処理装置において、
前記物体が、指先であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
An image processing apparatus, wherein the object is a fingertip.
被写体像を撮像して画像を生成する撮像素子と、
請求項1から請求項7の何れか1項に記載の画像処理装置と、
を備えることを特徴とする電子カメラ。
An image sensor that captures a subject image and generates an image;
An image processing apparatus according to any one of claims 1 to 7,
An electronic camera comprising:
コンピュータに画像の処理を実行させるプログラムであって、
画像表示装置の表示画面に接触する物体の位置情報を検出する位置情報検出処理と、
前記画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する顔検出処理と、
前記顔領域の位置情報と前記物体の位置情報とに基づいて、前記物体により指定された顔の数を判定する判定処理と、
前記表示画面内での前記物体の接触位置又は移動軌跡に基づいて、前記指定された顔の数に応じた所定の操作の指示入力を受け付ける受付処理と、
前記指示入力に基づいて、前記画像の顔の補正処理を行う補正処理とをコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute image processing,
Position information detection processing for detecting position information of an object in contact with the display screen of the image display device;
A face detection process for detecting a face area as a candidate for processing from an image displayed on the image display device;
A determination process for determining the number of faces designated by the object based on the position information of the face region and the position information of the object;
A reception process for receiving an instruction input for a predetermined operation according to the number of the designated faces, based on the contact position or movement locus of the object in the display screen;
A program for causing a computer to execute correction processing for correcting a face of the image based on the instruction input.
JP2012042077A 2012-02-28 2012-02-28 Image processing device, program, and electronic camera Pending JP2013178658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012042077A JP2013178658A (en) 2012-02-28 2012-02-28 Image processing device, program, and electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012042077A JP2013178658A (en) 2012-02-28 2012-02-28 Image processing device, program, and electronic camera

Publications (1)

Publication Number Publication Date
JP2013178658A true JP2013178658A (en) 2013-09-09

Family

ID=49270234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012042077A Pending JP2013178658A (en) 2012-02-28 2012-02-28 Image processing device, program, and electronic camera

Country Status (1)

Country Link
JP (1) JP2013178658A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008508601A (en) * 2004-07-30 2008-03-21 アップル インコーポレイテッド Gestures for touch-sensitive input devices
JP2010102395A (en) * 2008-10-21 2010-05-06 Sony Corp Image processing apparatus, image processing method, and program
JP2010199720A (en) * 2009-02-23 2010-09-09 Nikon Corp Digital camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008508601A (en) * 2004-07-30 2008-03-21 アップル インコーポレイテッド Gestures for touch-sensitive input devices
JP2010102395A (en) * 2008-10-21 2010-05-06 Sony Corp Image processing apparatus, image processing method, and program
JP2010199720A (en) * 2009-02-23 2010-09-09 Nikon Corp Digital camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015051368; 松下 伸行,外2名: 'Dual Touch:ペン型PDAのための新しい操作手法' レクチャーノート/ソフトウェア学 23 インタラクティブシステムとソフトウェアVII , 19991220, P.23-32, 株式会社近代科学社 *

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
JP2010211497A (en) Digital camera and image processing program
JP4663699B2 (en) Image display device and image display method
CN106412458A (en) Image processing method and apparatus
JP2010147808A (en) Imaging apparatus and image processing method in same
JP4752941B2 (en) Image composition apparatus and program
JP2008078945A (en) Imaging apparatus with blurring correction function, blurring correction method, and blurring correction processing program
US20100188520A1 (en) Imaging device and storage medium storing program
CN114071010A (en) Shooting method and equipment
JP5370555B2 (en) Imaging apparatus, imaging method, and program
KR20110138162A (en) Image processing apparatus, image processing method, and recording medium recording a program
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
US8971636B2 (en) Image creating device, image creating method and recording medium
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
US9600735B2 (en) Image processing device, image processing method, program recording medium
JP2012004719A (en) Image processing device, image processing program, and electronic camera
US20110279649A1 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2011193066A (en) Image sensing device
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP2010199968A (en) Digital camera
CN113572955A (en) Image processing method and device and electronic equipment
JP2013178658A (en) Image processing device, program, and electronic camera
JP5185027B2 (en) Image display device, imaging device, image display method, and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161115