JP2013178658A - Image processing device, program, and electronic camera - Google Patents
Image processing device, program, and electronic camera Download PDFInfo
- Publication number
- JP2013178658A JP2013178658A JP2012042077A JP2012042077A JP2013178658A JP 2013178658 A JP2013178658 A JP 2013178658A JP 2012042077 A JP2012042077 A JP 2012042077A JP 2012042077 A JP2012042077 A JP 2012042077A JP 2013178658 A JP2013178658 A JP 2013178658A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- image processing
- position information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置及びプログラム、並びに電子カメラに関する。 The present invention relates to an image processing apparatus, a program, and an electronic camera.
従来より、撮影した人物写真の画像から顔領域を補正する画像処理方法が提案されている(例えば、特許文献1参照)。上記の画像処理方法では、顔領域を補正することにより、見映えの良い画像を生成する。 Conventionally, there has been proposed an image processing method for correcting a face area from a photographed human photograph image (see, for example, Patent Document 1). In the image processing method described above, a good-looking image is generated by correcting the face area.
しかし、上記の画像処理方法では、先ず、特定の人物毎に所定の画像処理条件を予め登録し、入力画像中の人物を抽出して人物同定を行う。続いて、上記の画像処理方法では、同定された特定の人物に対応する画像処理条件を選択し、選択された画像処理条件に基づいて画像処理を行う。そのため、上記の画像処理方法では、特定の人物毎に画像処理条件を予め登録しなければならず、操作性に改善の余地がある。 However, in the above image processing method, first, predetermined image processing conditions are registered in advance for each specific person, and a person in the input image is extracted to perform person identification. Subsequently, in the above image processing method, an image processing condition corresponding to the identified specific person is selected, and image processing is performed based on the selected image processing condition. Therefore, in the image processing method described above, image processing conditions must be registered in advance for each specific person, and there is room for improvement in operability.
そこで、本発明は、上記事情に鑑み、人物の顔を好ましく補正する画像処理を行う際の操作性を向上させる手段を提供することを目的とする。 In view of the above circumstances, an object of the present invention is to provide means for improving operability when performing image processing for preferably correcting a human face.
第1の発明に係る画像処理装置は、位置情報検出部と、顔検出部と、判定部と、受付部と、補正部とを備える。位置情報検出部は、画像表示装置の表示画面に接触する物体の位置情報を検出する。顔検出部は、画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する。判定部は、顔領域の位置情報と物体の位置情報とに基づいて、物体により指定された顔の数を判定する。受付部は、表示画面上での物体の接触位置又は移動軌跡に基づいて、指定された顔の数に応じた所定の操作の指示入力を受け付ける。補正部は、指示入力に基づいて、画像の顔の補正処理を行う。 An image processing apparatus according to a first invention includes a position information detection unit, a face detection unit, a determination unit, a reception unit, and a correction unit. The position information detection unit detects position information of an object that contacts the display screen of the image display device. The face detection unit detects a face area that is a candidate for processing from an image displayed on the image display device. The determination unit determines the number of faces designated by the object based on the position information of the face area and the position information of the object. The accepting unit accepts an instruction input for a predetermined operation corresponding to the designated number of faces based on the contact position or movement locus of the object on the display screen. The correction unit performs a process of correcting the face of the image based on the instruction input.
第2の発明は、第1の発明において、判定部は、画像内の顔に対応する表示領域に物体が接触した場合、表示領域の顔をカウントする。 In a second aspect based on the first aspect, the determination unit counts the faces in the display area when an object contacts the display area corresponding to the face in the image.
第3の発明は、第1又は第2の発明において、表示画面に接触する物体の数に応じて異なる指示入力を受け付ける。 According to a third invention, in the first or second invention, a different instruction input is accepted depending on the number of objects in contact with the display screen.
第4の発明は、第3の発明において、指定された顔の数が1つであって、位置情報検出部が指定された顔から他の顔への物体の移動軌跡を検出した場合、受付部は、指定された顔に対して行った補正処理を他の顔に対して行う指示入力を受け付ける。 In a fourth aspect based on the third aspect, when the number of designated faces is one and the position information detection unit detects a movement locus of an object from the designated face to another face, The unit accepts an instruction input for performing correction processing performed on the designated face on another face.
第5の発明は、第3の発明において、指定された顔の数が複数であって、位置情報検出部が表示画面に接触する物体の回転を示す移動軌跡を検出した場合、受付部は、指定された顔毎に行った個別の補正処理を交換して行う指示入力を受け付ける。 In a fifth aspect based on the third aspect, when the number of designated faces is plural and the position information detection unit detects a movement trajectory indicating rotation of an object in contact with the display screen, An instruction input performed by exchanging individual correction processes performed for each designated face is accepted.
第6の発明は、第1から第3の何れか1の発明において、分類部をさらに備える。分類部は、顔検出部により画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する。受付部は、指定された顔のグループに属する複数の顔に対して、同一の前記補正処理を一括して行う指示入力を受け付ける。 In a sixth aspect based on any one of the first to third aspects, the sixth aspect further includes a classification unit. The classification unit groups a plurality of faces in the image based on the facial feature amount extracted from the image by the face detection unit. The accepting unit accepts an instruction input for collectively performing the same correction processing on a plurality of faces belonging to the designated face group.
第7の発明は、第1から第6の何れか1の発明において、物体が、指先である。 In a seventh aspect based on any one of the first to sixth aspects, the object is a fingertip.
第8の発明に係る電子カメラは、被写体を撮像して画像を生成する撮像素子と、請求項1から請求項7に記載の何れかの画像処理装置とを備える。
An electronic camera according to an eighth aspect of the present invention includes an image sensor that captures an image of a subject and generates an image, and any one of the image processing apparatuses according to
第9の発明に係るプログラムは、コンピュータに画像の処理を実行させるプログラムであって、位置情報検出処理と、顔検出処理と、判定処理と、受付処理と、補正処理とをコンピュータに実行させる。位置情報検出処理は、画像表示装置の表示画面に接触する物体の位置情報を検出する。顔検出処理は、画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する。判定処理は、顔領域の位置情報と物体の位置情報とに基づいて、物体により指定された顔の数を判定する。受付処理は、表示画面内での物体の接触位置又は移動軌跡に基づいて、指定された顔の数に応じた所定の操作の指示入力を受け付ける。補正処理は、指示入力に基づいて、画像の顔の補正処理を行う。 A program according to a ninth aspect is a program that causes a computer to execute image processing, and causes a computer to execute position information detection processing, face detection processing, determination processing, reception processing, and correction processing. In the position information detection process, position information of an object that contacts the display screen of the image display device is detected. The face detection process detects a face area that is a candidate for processing from an image displayed on the image display device. In the determination process, the number of faces designated by the object is determined based on the position information of the face area and the position information of the object. In the reception process, an instruction input for a predetermined operation corresponding to the number of specified faces is received based on the contact position or movement locus of the object on the display screen. In the correction process, an image face correction process is performed based on an instruction input.
本発明によれば、人物の顔を好ましく補正する画像処理を行う際の操作性を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the operativity at the time of performing the image process which correct | amends a person's face preferably can be improved.
以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、電子カメラ1の構成を説明するブロック図である。ここで、本実施形態の電子カメラ1は、撮像により生成した本画像内の顔を美しく補正するメイクアップモード(以下「美容化補正処理モード」という)を有する。美容化補正処理モードは、ポートレートモードや風景モード等の既存のシーンモードと独立に備えられる。美容化補正処理モードの具体的な内容については、後述する。なお、本実施形態では、先ず、撮影後の本画像に対してオートで美容化補正処理を行う。そして、本実施形態では、美容化補正処理の後の本画像に対して、ユーザの入力により、電子カメラ1が、再度、美容化補正処理を行う場合を説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of the
電子カメラ1は、図1に示す通り撮影光学系10と、撮像素子11と、信号処理部12と、RAM(Random Access Memory)13と、画像処理部14と、ROM(Read Only Memory)15と、記録インターフェース部(以下「記録I/F部」という)16と、表示モニタ17と、タッチパネル18と、操作部19と、レリーズ釦20と、CPU(Central Processing Unit)21と、データバス22とを備える。
As shown in FIG. 1, the
このうち、信号処理部12、RAM13、画像処理部14、ROM15、記録I/F部16、表示モニタ17及びCPU21は、データバス22を介して互いに接続されている。また、タッチパネル18、操作部19及びレリーズ釦20は、CPU21に接続されている。
Among these, the signal processing unit 12, the RAM 13, the
撮像光学系10は、ズームレンズとフォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮像光学系10を1枚のレンズとして図示する。
The imaging
撮像素子11は、撮像光学系10を通過した被写体を撮像し、アナログの画像信号(画像)を出力する。そして、撮像素子11が出力するアナログの画像信号は、信号処理部12に入力される。なお、撮像素子11の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。
The image sensor 11 captures an image of a subject that has passed through the imaging
ここで、撮像素子11は、電子カメラの撮影モードにおいて、後述のレリーズ釦20の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮像素子11は、撮影待機時にも所定間隔毎に構図確認用の画像(スルー画像)を連続的に撮像する。
Here, the imaging device 11 captures a still image for recording (main image) in response to a full-pressing operation of a
信号処理部12は、撮像素子11が出力する画像信号に対してアナログ信号処理を施すアナログフロントエンド回路(AFE)と、そのAFEでアナログ信号処理が施された画像信号に対して、デジタル信号処理を施すデジタルフロントエンド回路(DFE)とを有する。信号処理部12のAFEは、アナログの画像信号に対して相関二重サンプリングやゲイン調整をした後、アナログの画像信号をデジタルの画像信号に変換する(A/D変換)処理等を行う。 The signal processing unit 12 performs an analog front end circuit (AFE) that performs analog signal processing on an image signal output from the image sensor 11, and performs digital signal processing on the image signal that has been subjected to analog signal processing by the AFE. A digital front-end circuit (DFE). The AFE of the signal processing unit 12 performs correlated double sampling or gain adjustment on the analog image signal, and then performs a process of converting the analog image signal into a digital image signal (A / D conversion).
また、信号処理部12のDFEは、A/D変換されたデジタルの画像信号の補正処理等を行う。この信号処理部12が出力する画像信号は、RGB信号の画像データとしてRAM13に一時的に記録される。RAM13は、画像データを一時的に記録するバッファメモリである。 In addition, the DFE of the signal processing unit 12 performs a correction process on the digital image signal after A / D conversion. The image signal output from the signal processing unit 12 is temporarily recorded in the RAM 13 as image data of RGB signals. The RAM 13 is a buffer memory that temporarily records image data.
画像処理部14は、RAM13に記録されている画像データを読み出し、必要に応じて各種の画像処理(例えば、色補間処理、ホワイトバランス等)を施す。
The
また、画像処理部14は、撮影待機時において、スルー画像を例えばモニタ表示用としてNTSC方式のビデオ信号のビュー画像に変換する。そして、画像処理部14は、所定のフレームレート(例えば、30fps)でビュー画像を表示モニタ17に出力する。また、画像処理部14は、記録媒体30に画像データを記録する前に、例えば、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理を行う。また、画像処理部14は、記録媒体30に圧縮された画像データの伸長及び復元の処理も実行する。
Also, the
また、画像処理部14は、美容化補正処理モードの実行時において、本画像に対して美容化補正処理を施す。この美容化補正処理は、被写体の顔を美しく見せるための画像処理である。なお、画像処理部14は、以下に示す少なくとも1つの画像処理をCPU21の指示或いはユーザからの選択入力により行う。
(1)明度、彩度補正
画像処理部14は、画像データを解析して彩度のパラメータを補正する。この彩度補正により、画像処理部14は、肌を白く表現した画像を生成することができる。また、画像処理部14は、画像データを解析して明度のパラメータを補正する。この明度補正により、画像処理部14は、肌を明るく表現した画像を生成することができる。
(2)平滑化補正
画像処理部14は、顔の肌色の領域に存在するノイズ成分を低減化する。例えば、画像処理部14は、肌色領域のノイズ成分を低減化するローパスフィルタ等を用いてノイズの低減化処理を行う。画像処理部14は、このノイズの低減化処理により、被写体の皺や、ニキビ等の凹凸感、肌荒れ等が目立ちにくい好ましい画像を生成することができる。
(3)鮮鋭化補正
画像処理部14は、被写体の顔の輪郭を強調する鮮鋭化処理を施す。例えば、画像処理部14は、鮮鋭化処理の1つであるアンシャープマスク処理を行って、顔の輪郭を強調する。画像処理部14は、このアンシャープマスク処理により、顔がはっきりとした画像を生成することができる。
(4)ハイライト補正
画像処理部14は、画像中の最も明るいハイライト部分の輝度値を調整することによって、ハイライト部分を抑える処理を行う。これにより、画像処理部14は、例えば、閃光発光などの強い光に起因して発生しやすいテカリを軽減することができる。
Further, the
(1) Lightness and Saturation Correction The
(2) Smoothing Correction The
(3) Sharpening Correction The
(4) Highlight Correction The
ここで、本実施形態の美容化補正処理は、上記の補正に限られず、例えば、画像の露出をオーバー側に補正する露出補正、画像内の明るい部分の階調を圧縮して肌色領域を強調するダイナミックレンジ拡張補正等の補正を行っても良い。 Here, the beautification correction process of the present embodiment is not limited to the above correction, and for example, exposure correction for correcting the exposure of the image to the over side, and enhancement of the skin color area by compressing the gradation of the bright part in the image. Correction such as dynamic range expansion correction may be performed.
なお、本実施形態の美容化補正処理は、単純に女性の見映えを良くするだけのものではなく、顔を明るく、好ましく補正することができる。したがって、本実施形態の美容化補正処理は、被写体が男性や子供である場合にも有用である。 Note that the beautification correction process according to the present embodiment is not limited to simply improving the appearance of a woman, but can correct the face brightly and preferably. Therefore, the beautification correction process of the present embodiment is also useful when the subject is a man or a child.
ROM15は、電子カメラ1の制御を行うプログラム等を予め記憶している不揮発性のメモリである。また、ROM15には、美容化補正処理モードで使用されるテーブルメモリが予め記憶されている。
The ROM 15 is a non-volatile memory that stores a program for controlling the
図2は、本実施形態のテーブルメモリ100の一例を説明する図である。テーブルメモリ100は、美容化補正処理モードの実行時に参照される。図3は、テーブルメモリ100のレベル表示を説明する図である。
FIG. 2 is a diagram illustrating an example of the
テーブルメモリ100は、条件A(肌色)、条件B(皺、肌の凹凸)、条件C(輪郭)及び条件D(テカリ)の4つの項目について、美容化補正処理の対象となる被写体の年齢と性別とに対応して異なる補正処理(補正レベル)が設定されている。また、図3は、各補正レベル(0〜6)に対応する美容化補正処理の条件を示す。図3では、各補正レベルが高くなるにつれて、各々の美容化補正処理の効果が高くなることを表している。
The
画像処理部14は、条件A(肌色)に関して、例えば、彩度のパラメータや明度のパラメータを補正する処理を行う。また、画像処理部14は、条件B(皺、肌の凹凸)に関して、平滑化処理を行う。また、画像処理部14は、条件C(輪郭)に関して、鮮鋭化処理を行う。また、画像処理部14は、条件D(テカリ)に関して、ハイライトを抑える処理を行う。
For example, the
なお、テーブルメモリ100では、図2に示す通り、被写体の年齢が高くなるほど、美容化補正処理の効果が高くなるように補正レベルが設定されている。また、テーブルメモリ100では、被写体の性別が女性である場合には、男性である場合よりも美容化補正処理の効果が高くなるように補正レベルを設定している。また、テーブルメモリ100では、条件A(肌色)、条件B(皺、肌の凹凸)、条件C(輪郭)及び条件D(テカリ)の4つの各項目について、画像での肌状態が悪いほど、美容化補正処理の効果が高くなるように補正レベルが設定されている。なお、本実施形態では、例えば、画像処理部14が、画像内で大きい顔に行った美容化補正処理をより小さい顔に対して行う場合、美容化補正処理の影響を抑えるように補正レベルを変更しても良い。
In the
再び、図1の説明に戻る。記録I/F部16は、データの書き込みや読み出しのインターフェースを提供する。記録I/F部16には、着脱自在の記録媒体30を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部16は、そのコネクタに接続された記録媒体30にアクセスして画像の記録処理等を行う。この記録媒体30は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。
Returning again to the description of FIG. The recording I /
表示モニタ17は、CPU21の指示に応じて各種画像や電子カメラ1の操作メニュー等を表示する。なお、表示モニタ17には、液晶のモニタ等を適宜選択して用いることができる。
The display monitor 17 displays various images, an operation menu of the
タッチパネル18は、タッチパネル表面に接触した物体(指先)の位置を検出する。そして、タッチパネル18は、検出した位置を示す信号を後述するCPU21の位置情報検出部21bに送信する。なお、タッチパネル18は、人間以外の物体(スタイラス等)の位置を検出しても良い。 The touch panel 18 detects the position of an object (fingertip) in contact with the touch panel surface. And the touch panel 18 transmits the signal which shows the detected position to the positional information detection part 21b of CPU21 mentioned later. The touch panel 18 may detect the position of an object other than a human (such as a stylus).
操作部19は、電源釦、広角ズーム釦と、望遠ズーム釦等のユーザからの操作を受け付ける複数の釦(不図示)を有している。
The
レリーズ釦20は、例えば、プログラムオート(Program Auto)撮影の場合、半押し操作(撮影前における自動露出(AE:Automatic Exposure)、自動焦点合わせ(AF:Auto Focus)等の動作開始)の指示入力と全押し操作(撮像動作開始)との指示入力とを受け付ける。
For example, in the case of Program Auto shooting, the
CPU21は、各種演算及び電子カメラ1の制御を行うプロセッサである。CPU21は、ROM15に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行う。
The
また、CPU21は、本実施形態のプログラムが実行されることにより、顔検出部21a、位置情報検出部21b、判定部21c、受付部21d及び分類部21eとしても機能する。
The
顔検出部21aは、例えば、スルー画像又は本画像から特徴点(特徴量)を抽出して処理対象の候補となる顔領域、顔領域の大きさ(顔面積)等を検出する。例えば、顔検出部21aは、特開2001−16573号公報等に記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔検出部21aは、顔領域の位置情報を特定する。例えば、顔検出部21aは、画像の横方向をX軸、縦方向をY軸としたときに、顔領域に含まれる画素のX座標及びY座標を算出する。さらに、顔検出部21aは、例えば、特開2004−222118号公報等に記載された特徴点を用いた演算処理によって、検出した人物の人種、年齢、性別等を判別する。 For example, the face detection unit 21a extracts a feature point (feature amount) from a through image or a main image, and detects a face area that is a candidate for processing, a size of the face area (face area), and the like. For example, the face detection unit 21a extracts a face region by a feature point extraction process described in Japanese Patent Application Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head apexes, and chin lower end points. Then, the face detection unit 21a specifies the position information of the face area. For example, the face detection unit 21a calculates the X coordinate and the Y coordinate of the pixels included in the face area when the horizontal direction of the image is the X axis and the vertical direction is the Y axis. Furthermore, the face detection unit 21a determines the race, age, gender, and the like of the detected person by a calculation process using feature points described in, for example, Japanese Patent Application Laid-Open No. 2004-222118.
位置情報検出部21bは、タッチパネル18からの信号を受信し、表示モニタ17の表示画面に接触する指先の位置情報を画像内の位置に対応させて検出する。 The position information detection unit 21b receives a signal from the touch panel 18 and detects the position information of the fingertip that contacts the display screen of the display monitor 17 in correspondence with the position in the image.
判定部21cは、位置情報検出部21bが検出した位置情報に基づいて、指先により指定された顔の数をカウントする。なお、判定部21cは、表示モニタ17に表示された人物の顔に対応する領域(例えば、顔を囲む枠表示(以下「顔枠」という))に指先が接触した場合、顔の数をカウントする。これにより、判定部21cは、指先により指定された顔の数を精度良くカウントできる。 The determination unit 21c counts the number of faces specified by the fingertip based on the position information detected by the position information detection unit 21b. Note that the determination unit 21c counts the number of faces when the fingertip touches an area corresponding to the face of the person displayed on the display monitor 17 (for example, a frame display surrounding the face (hereinafter referred to as “face frame”)). To do. Thereby, the determination unit 21c can accurately count the number of faces designated by the fingertip.
受付部21dは、タッチパネル18上での指先の接触位置又は指先の移動軌跡に基づいて、指定された顔の数に応じた、美容化補正処理モードにおける操作の指示入力を受け付ける。なお、受付部21dは、指先の本数に応じて、異なる操作の指示入力を受け付けても良い。画像処理部14は、指示入力に基づいて、顔を美容化する美容化補正処理を行う。
The accepting unit 21d accepts an operation instruction input in the beautification correction processing mode according to the designated number of faces based on the touch position of the fingertip on the touch panel 18 or the movement trajectory of the fingertip. The receiving unit 21d may receive instruction inputs for different operations depending on the number of fingertips. The
ここで、指定された顔の数が1つであって、位置情報検出部21bが指定された顔から他の顔への指先のタッチパネル18上での移動軌跡を検出した場合、受付部21dは、指定された顔に対して行った美容化補正処理を他の顔に対して行う指示入力を受け付ける。 Here, when the number of designated faces is one and the position information detection unit 21b detects the movement trajectory of the fingertip from the designated face to another face on the touch panel 18, the reception unit 21d An instruction input for performing the beautification correction process performed on the designated face on another face is received.
また、指定された顔の数が複数(例えば2つ)であって、位置情報検出部21bがタッチパネル18上での指先(例えば、それぞれの顔領域上に接触している指先)の回転を示す移動軌跡を検出した場合、受付部21dは、指定された顔毎に行った個別の美容化補正処理を交換して行う指示入力を受け付ける。 In addition, the number of designated faces is plural (for example, two), and the position information detection unit 21b indicates the rotation of the fingertip (for example, the fingertip in contact with each face area) on the touch panel 18. When the movement trajectory is detected, the receiving unit 21d receives an instruction input performed by exchanging individual cosmetic correction processes performed for each designated face.
分類部21eは、顔検出部21aにより画像から抽出された顔の特徴量に基づいて、複数の顔をグループ化する。例えば、分類部21eは、顔検出部21aにより画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する。受付部21dは、指定された顔のグループに属する複数の顔に対して、同一の美容化補正処理を一括して行う指示入力を受け付ける。 The classification unit 21e groups a plurality of faces based on the facial feature amount extracted from the image by the face detection unit 21a. For example, the classification unit 21e groups a plurality of faces in the image based on the facial feature amount extracted from the image by the face detection unit 21a. The accepting unit 21d accepts an instruction input for collectively performing the same cosmetic correction process on a plurality of faces belonging to the designated face group.
次に、本実施形態の美容化補正処理モードにおける電子カメラ1の動作の一例を説明する。図4は、美容化補正処理モードにおける電子カメラ1の動作の一例を示すフローチャートである。
Next, an example of the operation of the
ここで、電子カメラ1で本画像の撮影後、図1に示す操作部19が、美容化補正処理モードの指示入力を受け付けると、CPU21は、図4に示すフローの処理を開始させる。
Here, after the main image is captured by the
ステップS101:CPU21の顔検出部21aは、本画像の顔検出処理を行う。具体的には、顔検出部21aは、本画像の画像データを読み出して、画像内の特徴点(特徴量)を抽出して顔領域、顔領域の大きさ(顔面積)等を検出する。そして、顔検出部21aは、検出した顔毎に年齢や性別を推定する。
Step S101: The face detection unit 21a of the
ステップS102:画像処理部14は、検出した顔毎にオートで美容化補正処理を行う。例えば、顔検出部21aが人物P1に対して、性別:女性、年齢:20代と推定した場合、画像処理部14は、テーブルメモリ100を参照して、一例として明度、彩度補正(レベル2)の美容化補正処理を行う。また、例えば、顔検出部21aが人物P2に対して、性別:女性、年齢:10代と推定した場合、画像処理部14は、テーブルメモリ100を参照して、一例として明度、彩度補正(レベル1)の美容化補正処理を行う。
Step S102: The
ステップS103:画像処理部14は、表示モニタ17に美容化補正処理後の本画像を表示する。
Step S103: The
図5は、美容化補正処理の一例を示す図である。図5(a)は、表示モニタ17に表示された美容化補正処理後の本画像を示している。CPU21は、図5(a)中、人物P1の顔を囲む枠W1、人物P2の顔を囲む枠W2を重畳表示させる。
FIG. 5 is a diagram illustrating an example of the cosmetic correction process. FIG. 5A shows the main image after the cosmetic correction processing displayed on the
ステップS104:CPU21は、タッチパネル18を介して、顔の選択入力を受け付ける。図5(b)は、ユーザの入力よる顔の選択入力例を示す図である。図5(b)において、位置情報検出部21bは、タッチパネル18の入力により、例えばユーザの人指し指F1が顔枠W1内に接触していることを検出する。これにより、CPU21は、人物P1の顔の選択入力を受け付ける。
Step S104: The
ステップS105:判定部21cは、指定された顔をカウントする。図5の例では、判定部21cは、指定された顔が1つであるとカウントする。 Step S105: The determination unit 21c counts the designated face. In the example of FIG. 5, the determination unit 21c counts that there is one designated face.
ステップS106:受付部21dは、ユーザから美容化補正処理の指示入力を受け付ける。例えば、位置情報検出部21bが指定された人物P1の顔から人物P2の顔への人指し指F1の移動軌跡を検出した場合(図5(c)参照)、受付部21dは、ステップS102の処理により人物P1の顔に対して行った美容化補正処理を人物P2の顔に対して行う指示入力を受け付ける。 Step S106: The accepting unit 21d accepts an instruction input for cosmetic modification processing from the user. For example, when the position information detection unit 21b detects the movement trajectory of the index finger F1 from the designated face of the person P1 to the face of the person P2 (see FIG. 5C), the reception unit 21d performs the process of step S102. An instruction input for performing the cosmetic correction processing performed on the face of the person P1 on the face of the person P2 is received.
ステップS107:画像処理部14は、ユーザの入力に応じて美容化補正処理を行う。図5(c)の場合、画像処理部14は、テーブルメモリ100を参照し、ステップS102の処理により人物P1の顔に対して行った美容化補正処理を人物P2の顔に対して行う。具体的には、画像処理部14は、人物P2の顔に対して、明度、彩度補正(レベル2)の美容化補正処理を行う。
Step S107: The
ステップS108:CPU21は、ユーザの入力による美容化補正処理後の本画像を表示モニタ17に表示する。
Step S <b> 108: The
ステップS109:CPU21は、ユーザの入力による美容化補正処理後の本画像を記録媒体30に記録する。そして、CPU21は、図4に示すフローを終了させる。
Step S109: The
なお、ステップS108の処理で、ユーザが美容化補正処理後の本画像を見た後、美容化補正処理を戻したい場合、CPU21は、操作部7を介して元に戻す処理を受け付けても良い。この場合、CPU21は、ステップS109を行わずに図4に示すフローを終了させる。
When the user wants to return to the beautification correction process after viewing the main image after the beautification correction process in step S108, the
以上より、本実施形態の電子カメラ1によれば、特定の人物毎に所定の画像処理条件を予め登録し、入力画像中の人物を抽出して人物同定を行う必要がない。そして、ユーザは、特定の人物の美容化補正処理を他の人物へ簡単に適用させることができる。そのため、本実施形態の電子カメラ1は、人物の顔を好ましく補正する画像処理を行う際の操作性を向上させることができる。
<第1変形例>
次に、上記実施形態の第1変形例について説明する。第1変形例では、ユーザが2つの顔を指定して、タッチパネル18上において指先で回転を示す操作を行った場合の美容化補正処理を例示する。ここで、ステップS101からステップS103までの処理は、上記の場合と同様であるので、説明を省略する。
As described above, according to the
<First Modification>
Next, a first modification of the above embodiment will be described. In the first modified example, a cosmetic correction process in the case where the user designates two faces and performs an operation indicating rotation with the fingertip on the touch panel 18 is illustrated. Here, the processing from step S101 to step S103 is the same as in the above case, and thus the description thereof is omitted.
図6は、美容化補正処理の一例を示す図である。図6(a)は、図5(a)に示す本画像が表示モニタ17に表示された後、ユーザの指先が表示画面にタッチされている状態を表している。
FIG. 6 is a diagram illustrating an example of the cosmetic correction process. FIG. 6A shows a state in which the user's fingertip is touched on the display screen after the main image shown in FIG. 5A is displayed on the
ステップS104:CPU21は、タッチパネル18を介して、顔の選択入力を受け付ける。具体的には、図6(a)において、位置情報検出部21bは、例えばユーザの指先(人指し指F1、中指F2)がそれぞれ顔枠W1、W2内に接触していることを検出する。これにより、CPU21は、タッチパネル18からのユーザの入力により、人物P1及び人物P2の顔の選択入力を受け付ける。
Step S104: The
ステップS105:判定部21cは、指定された顔をカウントする。図6(a)の場合、判定部21cは、指定された顔が2つであるとカウントする。 Step S105: The determination unit 21c counts the designated face. In the case of FIG. 6A, the determination unit 21c counts that there are two designated faces.
ステップS106:受付部21dは、ユーザから美容化補正処理の指示入力を受け付ける。例えば、位置情報検出部21bが2本の指先の回転を示す移動軌跡を検出した場合(図6(b)参照)、受付部21dは、ステップS102の処理により顔毎に行った個別の美容化補正処理を交換して行う指示入力を受け付ける。なお、上記の美容化補正処理の交換を行なう指示入力は、回転を示す移動に限られず、互いの指先の移動軌跡が直線とならない入力であれば良い。例えば、受付部21dは、ユーザがタッチパネル18上において2本の指先を捻じる操作を行った場合も、ステップS102の処理により顔毎に行った個別の美容化補正処理を交換して行う指示入力を受け付けることとする。 Step S106: The accepting unit 21d accepts an instruction input for cosmetic modification processing from the user. For example, when the position information detection unit 21b detects a movement trajectory indicating the rotation of two fingertips (see FIG. 6B), the reception unit 21d performs individual cosmeticization performed for each face by the process of step S102. An instruction input performed by exchanging the correction process is received. The instruction input for exchanging the beautification correction process is not limited to the movement indicating rotation, and may be an input in which the movement trajectory of each fingertip is not a straight line. For example, even when the user performs an operation of twisting two fingertips on the touch panel 18, the reception unit 21 d exchanges the individual cosmetic correction processing performed for each face by the processing in step S <b> 102. Will be accepted.
ステップS107:画像処理部14は、ユーザの入力に応じて美容化補正処理を行う。図6の場合、画像処理部14は、テーブルメモリ100を参照し、ステップS102の処理により人物P1の顔に対して行った美容化補正処理を人物P2の顔に対して行う。具体的には、画像処理部14は、人物P2の顔に対して、明度、彩度補正(レベル2)の美容化補正処理を行う。
Step S107: The
また、画像処理部14は、テーブルメモリ100を参照し、ステップS102の処理により人物P2の顔に対して行った美容化補正処理を人物P1の顔に対して行う。具体的には、画像処理部14は、人物P1の顔に対して、明度、彩度補正(レベル1)の美容化補正処理を行う。
Further, the
ステップS108:CPU21は、図6(c)に示す通り、美容化補正処理後の本画像を表示モニタ17に表示する。
Step S108: As shown in FIG. 6C, the
ステップS109:CPU21は、本画像を記録媒体30に記録する。そして、CPU21は、図4に示すフローを終了させる。
Step S109: The
以上より、本実施形態の電子カメラ1では、特定の人物同士の美容化補正処理を交換して実行することが簡単にできる。これにより、美容化補正処理の操作性が向上する。
<第2変形例>
次に、上記実施形態の第2変形例について説明する。第2変形例では、ユーザが、複数の顔を一括して美容化補正処理を行う指示入力をした場合について例示する。ここで、ステップS101からステップS102までの処理は、上記の場合と同様であるので、説明を省略する。
As described above, in the
<Second Modification>
Next, a second modification of the above embodiment will be described. In the second modified example, a case where the user inputs an instruction to perform a cosmetic correction process on a plurality of faces at once is illustrated. Here, the processing from step S101 to step S102 is the same as that described above, and thus the description thereof is omitted.
ステップS103:CPU21は、オートによる美容化補正処理後の本画像を表示モニタ17に表示する。図7は、本画像の一例を示す図である。図7では、本画像内に人物P1〜P4の4人の人物が写っている。ここで、CPU21は、操作部19又はタッチパネル18からのユーザの入力に応じて、顔をグループ化する指示入力を受け付ける。この場合、分類部21eは、顔検出部21aにより画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する。例えば、分類部21eは、複数の顔を年齢別や性別にグループ化する。そして、グループ化した結果を表示モニタ17に表示する。
Step S103: The
図8は、グループ化表示の一例を示す図である。例えば、CPU21は、本画像の画像から人物P1〜P4の顔領域を切り出して、表示モニタ17に表示する。この際、CPU21は、女性P1の顔を囲む領域を赤枠W1、女性P2の顔を囲む領域を赤枠W2で表示モニタ17に重畳表示する。また、CPU21は、男性P3の顔を囲む領域を青枠W3、男性P4の顔を囲む領域を青枠W4で表示モニタ17に重畳表示する。
FIG. 8 is a diagram illustrating an example of grouped display. For example, the
ステップS104:CPU21は、タッチパネル18からのユーザの入力に応じて、顔の選択入力を受け付ける。図8において、位置情報検出部21bは、例えばユーザの指先(人指し指F1、不図示)が赤枠W1内に接触していることを検出する。これにより、CPU21は、タッチパネル18を介して、人物P1の顔の選択入力を受け付ける。
Step S104: The
ステップS105:判定部21cは、指定された顔をカウントする。この場合、判定部21cは、指定された顔の属するグループの顔の数をカウントする。この場合、判定部21cは、赤枠W1、W2でグループ化された人物P1及び人物P2をカウントする。 Step S105: The determination unit 21c counts the designated face. In this case, the determination unit 21c counts the number of faces in the group to which the designated face belongs. In this case, the determination unit 21c counts the person P1 and the person P2 grouped by the red frames W1 and W2.
ステップS106:受付部21dは、指定された顔のグループに属する顔に対して、同一の美容化補正処理を一括して行う指示入力を受け付ける。 Step S106: The accepting unit 21d accepts an instruction input for collectively performing the same cosmetic correction process on the faces belonging to the specified face group.
ステップS107:画像処理部14は、本画像(図7)の指定された複数の顔に対して同一の美容化補正処理を一括して行う。
Step S107: The
ステップS108:CPU21は、美容化補正処理の後の本画像を表示モニタ17に表示する。
Step S108: The
ステップS109:CPU21は、本画像を記録媒体30に記録する。そして、CPU21は、図4に示すフローを終了させる。
Step S109: The
以上より、第2変形例では、複数の顔に対して、所望の美容化補正処理を一括して行えるので、操作性が向上する。 As described above, in the second modified example, since a desired cosmetic correction process can be performed on a plurality of faces at once, the operability is improved.
なお、ステップS103において、CPU21は、分類部21eの分類結果に応じて、人物P1、人物P2の女性のみを表示モニタ17に表示しても良い。或いは、CPU21は、分類部21eの分類結果に応じて、人物P3、人物P4の男性のみを表示モニタ17に表示しても良い。また、CPU21は、本画像内の顔の大きさが異なる場合、顔の大きさを一括して同一サイズにリサイズして表示モニタ17に表示しても良い。また、CPU21は、顔の比率が互いに変わらないようにして表示モニタ17に拡大表示しても良い。例えば、CPU21は、ユーザからの拡大表示の指示入力を受け付ける。CPU21は、一例として図7に示す人物P3の顔が人物P4の顔に比べて大きい場合、顔の比率を保ちながら、人物P3の顔と人物P4の顔とを表示モニタ17に拡大表示しても良い。
<第3変形例>
次に、上記実施形態の第3変形例について説明する。第3変形例では、ユーザが複数の指でタッチパネル18をタッチした場合、CPU21は、指の本数に応じて指示入力の処理を実行する。
In step S103, the
<Third Modification>
Next, a third modification of the above embodiment will be described. In the third modification, when the user touches the touch panel 18 with a plurality of fingers, the
図9は、第3変形例の一例について説明する図である。図9(a)において、CPU21は、人物P1を撮影した本画像を表示モニタ17に表示すると共に、顔枠W1を重畳表示する。
FIG. 9 is a diagram illustrating an example of the third modification. In FIG. 9A, the
位置情報検出部21bは、図9(b)に示す通り、ユーザの第1の指(人指し指)F1が顔枠W1内にタッチしたことを検出した場合、CPU21は、タッチパネル18を介して、人物P1の顔の選択入力を受け付ける(処理1の指示入力)。 When the position information detection unit 21b detects that the user's first finger (index finger) F1 has touched the face frame W1, as shown in FIG. The selection input of the face of P1 is received (instruction input of process 1).
続いて、位置情報検出部21bは、ユーザの第2の指(中指)F2が顔枠W1外にタッチしたことを検出した場合、図9(c)に示す通り、受付部21dは、第1の美容化処理補正(例えば彩度補正)の指示入力を受け付ける(処理2の指示入力)。 Subsequently, when the position information detection unit 21b detects that the user's second finger (middle finger) F2 touches outside the face frame W1, as illustrated in FIG. 9C, the reception unit 21d An instruction input for the beautification process correction (for example, saturation correction) is received (instruction input for process 2).
さらに、位置情報検出部21bは、ユーザの第3の指(薬指)F3が顔枠W1外にタッチしたことを検出した場合、図9(d)に示す通り、受付部21dは、第1の美容化処理補正(例えば平滑化補正)の指示入力を受け付ける(処理3の指示入力)。画像処理部14は、これらの指示入力により、人物P1の顔に対して彩度補正と平滑化補正とを実行する。
Furthermore, when the position information detection unit 21b detects that the third finger (ringing finger) F3 of the user has touched outside the face frame W1, as illustrated in FIG. 9D, the reception unit 21d An instruction input for cosmetic correction (for example, smoothing correction) is received (instruction input for process 3). The
図10は、第3変形例の一例について説明する図である。図10(a)において、CPU21は、彩度補正と平滑化補正とが施された人物P1の拡大画像を表示モニタ17に表示する。ここで、例えば、位置情報検出部21bは、図10(b)に示す通り、ユーザの第1の指(人指し指)F1がタッチパネルにタッチしたことを検出した場合、CPU21は、タッチパネル18を介して、人物P1の顔の補正が良い旨の指示入力を受け付ける(処理4の指示入力)。
FIG. 10 is a diagram illustrating an example of the third modification. In FIG. 10A, the
続いて、位置情報検出部21bは、図10(c)に示す通り、ユーザの第2の指(中指)F2がタッチパネルにタッチしたことを検出した場合、CPU21は、補正後の本画像の保存の指示入力を受け付ける(処理5の指示入力)。
Subsequently, when the position information detection unit 21b detects that the user's second finger (middle finger) F2 touches the touch panel as illustrated in FIG. 10C, the
さらに、位置情報検出部21bは、図10(d)に示す通り、ユーザの第3の指(薬指)F3がタッチパネルにタッチしたことを検出した場合、美容化補正処理モードの終了の指示入力を受け付ける(処理6の指示入力)。CPU21は、補正後の本画像を記録媒体30に記録した後、美容化補正処理モードを終了する。
Furthermore, as shown in FIG. 10D, when the position information detection unit 21b detects that the user's third finger (ringing finger) F3 has touched the touch panel, it inputs an instruction to end the cosmetic correction processing mode. Accept (instruction input of process 6). After recording the corrected main image on the
ここで、図9(d)、図10(d)に示す通り、ユーザは、同時に3本の指をタッチしても良い。この場合、CPU21は、1度に3つの処理の指示入力を受け付けることができる。
Here, as shown in FIGS. 9D and 10D, the user may touch three fingers at the same time. In this case, the
以上より、処理1〜処理6の指示入力を1本の指で行う場合、ユーザは、タッチパネル上で時系列に6回タッチする操作を行う。しかし、変形例3では、例えば、図9(d)、図10(d)に示す通り、ユーザは、同時に3本の指をタッチすれば良いので、短時間で指示入力の操作を行うことが可能となり、操作性がより向上する。
<実施形態の補足事項>
(1)本実施形態では、本画像に対して美容化補正処理を行ったが、スルー画像に対して行っても良い。つまり、ユーザは、スルー画像上で美容化補正処理の結果を確認した後に本画像の撮影を行うことができる。
(2)本実施形態の画像処理装置1は、タッチパネル機能を有する電子機器として、例えば携帯電話、PDA(Personal Digital Assistant)、若しくはパーソナルコンピュータ等に適用しても良い。
(3)本実施形態では、画像内の顔に対応する表示領域として顔枠を用いたが、顔に対応する表示領域を例えば、顔を含む領域を半透過状態の色付きで示す表示形態であっても良い。
(4)本実施形態では、図6において、2本の指の回転操作における指示入力の一例について説明したが、上記の例に限定されるものではない。例えば、複数の顔が指定された状態において、時計回りに1本の指による回転操作を位置情報検出部21bが検出した場合、受付部21dは、指定された顔毎に行った個別の美容化補正処理を回転方向に沿って交換する入力を受け付けても良い。また、3つ以上の顔が指定された状態で、位置情報検出部21bが2本の指による回転操作を検出した場合、受付部21dは、指定された顔毎に行った個別の美容化補正処理を回転方向に沿って交換する入力を受け付けても良い。
As described above, when the instruction input of the
<Supplementary items of the embodiment>
(1) In this embodiment, the cosmetic correction processing is performed on the main image, but it may be performed on the through image. That is, the user can take the main image after confirming the result of the cosmetic correction processing on the through image.
(2) The
(3) In this embodiment, the face frame is used as the display area corresponding to the face in the image. However, the display area corresponding to the face is, for example, a display form in which the area including the face is colored in a semi-transparent state. May be.
(4) In the present embodiment, an example of instruction input in the rotation operation of two fingers has been described in FIG. 6, but is not limited to the above example. For example, in a state where a plurality of faces are designated, when the position information detection unit 21b detects a rotation operation with one finger in a clockwise direction, the reception unit 21d performs individual cosmeticization performed for each designated face. An input for exchanging the correction process along the rotation direction may be received. In addition, when the position information detection unit 21b detects a rotation operation with two fingers in a state where three or more faces are designated, the reception unit 21d performs individual cosmetic correction performed for each designated face. You may receive the input which replaces a process along a rotation direction.
1・・・電子カメラ、11・・・撮像素子、14・・・画像処理部、21a・・・顔検出部、21b・・・位置情報検出部、21c・・・判定部、21d・・・受付部、21e・・・分類部
DESCRIPTION OF
Claims (9)
前記画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する顔検出部と、
前記顔領域の位置情報と前記物体の位置情報とに基づいて、前記物体により指定された顔の数を判定する判定部と、
前記表示画面上での前記物体の接触位置又は移動軌跡に基づいて、前記指定された顔の数に応じた所定の操作の指示入力を受け付ける受付部と、
前記指示入力に基づいて、前記画像の顔の補正処理を行う補正部と、
を備えることを特徴とする画像処理装置。 A position information detector that detects position information of an object that contacts the display screen of the image display device;
A face detection unit for detecting a face area that is a candidate for processing from an image displayed on the image display device;
A determination unit configured to determine the number of faces designated by the object based on the position information of the face region and the position information of the object;
A receiving unit that receives an instruction input of a predetermined operation according to the number of the designated faces, based on the contact position or movement locus of the object on the display screen;
A correction unit that performs correction processing on the face of the image based on the instruction input;
An image processing apparatus comprising:
前記判定部は、前記画像内の顔に対応する表示領域に前記物体が接触した場合、前記表示領域の顔をカウントすることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The determination unit counts the faces in the display area when the object comes into contact with the display area corresponding to the face in the image.
前記受付部は、前記表示画面に接触する前記物体の数に応じて異なる前記指示入力を受け付けることを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The image processing apparatus according to claim 1, wherein the receiving unit receives the instruction input that varies depending on the number of the objects that touch the display screen.
前記指定された顔の数が1つであって、前記位置情報検出部が前記指定された顔から他の顔への前記物体の移動軌跡を検出した場合、前記受付部は、前記指定された顔に対して行った前記補正処理を前記他の顔に対して行う指示入力を受け付けることを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
When the number of the designated faces is one and the position information detection unit detects a movement locus of the object from the designated face to another face, the reception unit An image processing apparatus that receives an instruction input for performing the correction processing performed on a face on the other face.
前記指定された顔の数が複数であって、前記位置情報検出部が前記表示画面に接触する前記物体の回転を示す移動軌跡を検出した場合、前記受付部は、前記指定された顔毎に行った個別の前記補正処理を交換して行う指示入力を受け付けることを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
When the number of the designated faces is plural and the position information detection unit detects a movement trajectory indicating the rotation of the object in contact with the display screen, the reception unit is provided for each of the designated faces. An image processing apparatus that receives an instruction input performed by exchanging the individual correction processing performed.
前記顔検出部により前記画像から抽出された顔の特徴量に基づいて、画像内の複数の顔をグループ化する分類部をさらに備え、
前記受付部は、前記指定された顔のグループに属する複数の顔に対して、同一の前記補正処理を一括して行う指示入力を受け付けることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
A classification unit for grouping a plurality of faces in the image based on the feature amount of the face extracted from the image by the face detection unit;
The image processing apparatus according to claim 1, wherein the receiving unit receives an instruction input for performing the same correction process collectively on a plurality of faces belonging to the specified face group.
前記物体が、指先であることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
An image processing apparatus, wherein the object is a fingertip.
請求項1から請求項7の何れか1項に記載の画像処理装置と、
を備えることを特徴とする電子カメラ。 An image sensor that captures a subject image and generates an image;
An image processing apparatus according to any one of claims 1 to 7,
An electronic camera comprising:
画像表示装置の表示画面に接触する物体の位置情報を検出する位置情報検出処理と、
前記画像表示装置に表示される画像から処理対象の候補となる顔領域を検出する顔検出処理と、
前記顔領域の位置情報と前記物体の位置情報とに基づいて、前記物体により指定された顔の数を判定する判定処理と、
前記表示画面内での前記物体の接触位置又は移動軌跡に基づいて、前記指定された顔の数に応じた所定の操作の指示入力を受け付ける受付処理と、
前記指示入力に基づいて、前記画像の顔の補正処理を行う補正処理とをコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to execute image processing,
Position information detection processing for detecting position information of an object in contact with the display screen of the image display device;
A face detection process for detecting a face area as a candidate for processing from an image displayed on the image display device;
A determination process for determining the number of faces designated by the object based on the position information of the face region and the position information of the object;
A reception process for receiving an instruction input for a predetermined operation according to the number of the designated faces, based on the contact position or movement locus of the object in the display screen;
A program for causing a computer to execute correction processing for correcting a face of the image based on the instruction input.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042077A JP2013178658A (en) | 2012-02-28 | 2012-02-28 | Image processing device, program, and electronic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042077A JP2013178658A (en) | 2012-02-28 | 2012-02-28 | Image processing device, program, and electronic camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013178658A true JP2013178658A (en) | 2013-09-09 |
Family
ID=49270234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012042077A Pending JP2013178658A (en) | 2012-02-28 | 2012-02-28 | Image processing device, program, and electronic camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013178658A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008508601A (en) * | 2004-07-30 | 2008-03-21 | アップル インコーポレイテッド | Gestures for touch-sensitive input devices |
JP2010102395A (en) * | 2008-10-21 | 2010-05-06 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2010199720A (en) * | 2009-02-23 | 2010-09-09 | Nikon Corp | Digital camera |
-
2012
- 2012-02-28 JP JP2012042077A patent/JP2013178658A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008508601A (en) * | 2004-07-30 | 2008-03-21 | アップル インコーポレイテッド | Gestures for touch-sensitive input devices |
JP2010102395A (en) * | 2008-10-21 | 2010-05-06 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2010199720A (en) * | 2009-02-23 | 2010-09-09 | Nikon Corp | Digital camera |
Non-Patent Citations (1)
Title |
---|
JPN6015051368; 松下 伸行,外2名: 'Dual Touch:ペン型PDAのための新しい操作手法' レクチャーノート/ソフトウェア学 23 インタラクティブシステムとソフトウェアVII , 19991220, P.23-32, 株式会社近代科学社 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5136669B2 (en) | Image processing apparatus, image processing method, and program | |
KR101817657B1 (en) | Digital photographing apparatus splay apparatus and control method thereof | |
JP2010211497A (en) | Digital camera and image processing program | |
JP4663699B2 (en) | Image display device and image display method | |
CN106412458A (en) | Image processing method and apparatus | |
JP2010147808A (en) | Imaging apparatus and image processing method in same | |
JP4752941B2 (en) | Image composition apparatus and program | |
JP2008078945A (en) | Imaging apparatus with blurring correction function, blurring correction method, and blurring correction processing program | |
US20100188520A1 (en) | Imaging device and storage medium storing program | |
CN114071010A (en) | Shooting method and equipment | |
JP5370555B2 (en) | Imaging apparatus, imaging method, and program | |
KR20110138162A (en) | Image processing apparatus, image processing method, and recording medium recording a program | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
US8971636B2 (en) | Image creating device, image creating method and recording medium | |
US8866934B2 (en) | Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium | |
US9600735B2 (en) | Image processing device, image processing method, program recording medium | |
JP2012004719A (en) | Image processing device, image processing program, and electronic camera | |
US20110279649A1 (en) | Digital photographing apparatus, method of controlling the same, and computer-readable storage medium | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2011193066A (en) | Image sensing device | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
JP2010199968A (en) | Digital camera | |
CN113572955A (en) | Image processing method and device and electronic equipment | |
JP2013178658A (en) | Image processing device, program, and electronic camera | |
JP5185027B2 (en) | Image display device, imaging device, image display method, and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161115 |