JP2009278598A - Image processing apparatus, control method of the same, and storage medium - Google Patents

Image processing apparatus, control method of the same, and storage medium Download PDF

Info

Publication number
JP2009278598A
JP2009278598A JP2008130760A JP2008130760A JP2009278598A JP 2009278598 A JP2009278598 A JP 2009278598A JP 2008130760 A JP2008130760 A JP 2008130760A JP 2008130760 A JP2008130760 A JP 2008130760A JP 2009278598 A JP2009278598 A JP 2009278598A
Authority
JP
Japan
Prior art keywords
image
evaluation
image data
face
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008130760A
Other languages
Japanese (ja)
Other versions
JP5171387B2 (en
Inventor
Kohei Kawamura
公平 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008130760A priority Critical patent/JP5171387B2/en
Priority to CN2009101353743A priority patent/CN101588452B/en
Priority to US12/429,505 priority patent/US8711265B2/en
Publication of JP2009278598A publication Critical patent/JP2009278598A/en
Application granted granted Critical
Publication of JP5171387B2 publication Critical patent/JP5171387B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily set and hold partial evaluation, associated with a person included in an image, for the image. <P>SOLUTION: A digital camera is configured to extract a face area from image data and to display a face area image on a display panel. A flag indicative of evaluation such as OK, NG, etc., is set for the displayed face area image. Coordinates of the face area and set flag are stored associatively with the image data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像を記憶し、再生するための画像処理装置およびその制御方法およびプログラムに関する。   The present invention relates to an image processing apparatus for storing and reproducing an image, and a control method and program thereof.

従来、デジタルカメラで撮影した画像を印刷して複数の人に配布することが一般的によく行われている。その際、ユーザはデジタルカメラを操作して、どの画像を何枚印刷するかをDPOF(Digital Print Order Format)のような規格に則って記録メディアに記録することで、印刷指定を行う(例えば特許文献1参照)。   Conventionally, it is common to print images taken with a digital camera and distribute them to a plurality of people. At that time, the user operates the digital camera to make print designation by recording which images are to be printed on a recording medium in accordance with a standard such as DPOF (Digital Print Order Format) (for example, patents). Reference 1).

また、被写体に顔が含まれている画像の場合に、検出された顔の個数を印刷枚数として自動的に指定することができる(例えば特許文献2参照)。
特開2002−044577号公報 特開2007−208732号公報
In addition, in the case of an image in which a subject includes a face, the number of detected faces can be automatically designated as the number of prints (see, for example, Patent Document 2).
JP 2002-044577 A JP 2007-208732 A

画像を印刷して複数の人に配布する場合、その人物が画像に含まれていても写り具合によっては、配る必要がないことがある。例えば、画像の中で小さく写っている場合や、目を瞑っている場合、顔がうつむいている場合など何らかの理由で、撮影者やその人物が写り具合を気に入らない場合である。   When an image is printed and distributed to a plurality of people, even if the person is included in the image, it may not be necessary to distribute it depending on the appearance of the image. For example, when the photographer or the person does not like the image for some reason, such as when the image appears small, when the eyes are meditated, or when the face is depressed.

このような場合、ユーザは画像を印刷するたびに、各画像について人物毎に写り具合を詳細に確認して印刷枚数を指定しなければならず、非常に手間がかかっていた。   In such a case, every time the user prints an image, the user has to check the details of each image for each person and specify the number of prints, which is very troublesome.

そこで、本発明は上記問題点を鑑みてなされたものであり、画像に含まれる人物について、部分的にその評価を設定し、保持することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to partially set and hold an evaluation of a person included in an image.

上記課題を解決するために本願発明の1つは、 画像データから顔領域を抽出する抽出手段と、前記抽出手段により抽出された顔領域に対して任意の評価を設定する設定手段と、前記設定手段により設定された前記顔領域の評価を前記画像データと対応付けて記憶する記憶手段とを備え、前記記憶手段は前記画像データを複数の顔領域の評価と対応付けて記憶することが可能であり、前記画像データに対応付けられた顔領域の評価をカウントするカウント手段と、前記画像データを出力処理する際の出力量を前記カウント手段によるカウント結果にしたがって決定する決定手段とを更に備えたことを特徴とする画像処理装置を提供する。   In order to solve the above-described problem, one of the present invention includes an extraction unit that extracts a face area from image data, a setting unit that sets an arbitrary evaluation for the face area extracted by the extraction unit, and the setting Storage means for storing the evaluation of the face area set by the means in association with the image data, and the storage means can store the image data in association with the evaluation of a plurality of face areas. A counting unit that counts the evaluation of the face area associated with the image data; and a determination unit that determines an output amount when the image data is output according to a count result by the counting unit. An image processing apparatus is provided.

本発明によれば、画像に含まれる人物に関する部分的な評価を用いて、印刷出力や表示出力等の出力処理の対象となる画像を簡単に選択できるようになる。   According to the present invention, it is possible to easily select an image to be subjected to output processing such as print output or display output by using partial evaluation regarding a person included in the image.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

(第1の実施形態)
本実施の形態では、デジタルカメラを例として用いることにより本発明を実現する場合について説明する。
(First embodiment)
In this embodiment, a case where the present invention is realized by using a digital camera as an example will be described.

図1は本実施形態に係るデジタルカメラ100の回路構成を示すブロック図である。同図において、101は撮影レンズ、102は撮影レンズ101のズーム倍率の変更やフォーカス調節を行う撮影レンズ駆動部である。103は撮影レンズ101によって生成された被写体像を光電変換して電子的な画像データを生成する撮像素子である。104は撮像素子103で得た画像信号に所定の処理を施すことにより画像データを生成したり、画像データに対して表示したり編集したり保存するために変換する等の画像処理を行うデータ処理部である。105は画像データを一時的に記憶する一次メモリである。106は撮影レンズ101の撮影領域の被写体距離を測定する距離測定部である。107は画像データ等の情報を表示する表示部、108はデジタルカメラ100の各種設定を行うための操作部である。109はデジタルカメラ100の各種の動作の制御を行う中央演算素子(CPU)、110は画像データおよび画像データに付随する情報などを保存する保存メモリである。保存メモリ110はデジタルカメラ100から着脱可能な記録メディアも含む。   FIG. 1 is a block diagram showing a circuit configuration of a digital camera 100 according to the present embodiment. In the figure, reference numeral 101 denotes a photographic lens, and reference numeral 102 denotes a photographic lens driving unit that changes the zoom magnification and adjusts the focus of the photographic lens 101. Reference numeral 103 denotes an image sensor that photoelectrically converts a subject image generated by the photographing lens 101 to generate electronic image data. Data processing 104 performs image processing such as generating image data by performing predetermined processing on the image signal obtained by the image sensor 103, or converting the image data for display, editing, or storage. Part. A primary memory 105 temporarily stores image data. Reference numeral 106 denotes a distance measuring unit that measures the subject distance in the photographing region of the photographing lens 101. Reference numeral 107 denotes a display unit that displays information such as image data, and reference numeral 108 denotes an operation unit for performing various settings of the digital camera 100. A central processing element (CPU) 109 controls various operations of the digital camera 100, and a storage memory 110 stores image data and information associated with the image data. The storage memory 110 also includes a recording medium that can be detached from the digital camera 100.

図2は本実施形態に係るデジタルカメラ100の背面図であり、同図において、201は前述した表示部107に含まれ、たとえば表示パネルなどで構成される表示画面である。202は表示画面201に表示されたカーソル等を上下左右に動かす、もしくは表示された画像の領域の位置を上下左右に動かして位置を指定するための十字キーである。206、207、208、209はそれぞれ上、下、左、右への移動を指示するボタンである。本実施形態では上下左右の位置を指定するボタンを個別に設けて説明しているが、1つのボタンで上下左右および斜めも含む自由な方向に位置を指定できるポインティングデバイスやマルチコントローラであっても良い。203はメニュー画面を表示パネル201に表示するもしくは非表示にするよう指示するためのメニューボタンである。204は表示画面201に表示されたメニューや機能を選択する場合等、操作内容に応じて選択中の内容の決定を指示するためのセットボタンである。212は他の操作ボタンと組み合わせて用いることで機能指定を入力するためのファンクションボタンである。205はデジタルカメラの動作を切り替えるものであり、画像を撮影するための撮影モードと画像を再生表示するための再生モードのいずれかを選択するためのモード切替スイッチである。   FIG. 2 is a rear view of the digital camera 100 according to the present embodiment. In FIG. Reference numeral 202 denotes a cross key for moving the cursor or the like displayed on the display screen 201 up, down, left, or right, or moving the position of the displayed image region up, down, left, or right to designate the position. Reference numerals 206, 207, 208, and 209 denote buttons for instructing movement to the upper, lower, left, and right, respectively. In the present embodiment, the buttons for specifying the vertical and horizontal positions are individually described. However, even with a pointing device or a multi-controller that can specify the position in any direction including vertical, horizontal, and diagonal directions with a single button. good. Reference numeral 203 denotes a menu button for instructing to display or hide the menu screen on the display panel 201. Reference numeral 204 denotes a set button for instructing the determination of the currently selected content according to the operation content, such as when selecting a menu or function displayed on the display screen 201. Reference numeral 212 denotes a function button for inputting a function designation by using it in combination with other operation buttons. Reference numeral 205 denotes a mode switch for switching between operations of the digital camera and for selecting either a shooting mode for shooting an image or a playback mode for playing back and displaying an image.

図3は本実施形態に係るデジタルカメラ100の上面図であり、同図において、301は電源スイッチである。302は画像を撮影するためのシャッターボタンである。303は図2におけるモード切替スイッチに応じてその機能が切り替わる多機能レバー(ズームレバーともいう。)である。多機能レバー303は、モード切替スイッチ205が撮影モードの場合は撮影される被写体の拡大や縮小を調整の指示を入力するためのものである。また、モード切替スイッチが再生モードの場合は、表示パネル201に表示される画像の拡大または縮小を調整し、さらに複数画像表示と一画像表示を切替える指示を入力するためのものである。本実施形態では表示画像の拡大または縮小の表示の調整を1つの多機能レバー303で実現するものとして説明しているが、これに限らず、縮小ボタンと拡大ボタンを個別に設けても良い。これら十字キー202、メニューボタン203、セットボタン204、モード切替スイッチ205、ファンクションボタン212、電源ボタン301、シャッターボタン302、多機能レバー303は図1の操作部108に含まれる。   FIG. 3 is a top view of the digital camera 100 according to the present embodiment, in which 301 is a power switch. Reference numeral 302 denotes a shutter button for taking an image. Reference numeral 303 denotes a multi-function lever (also referred to as a zoom lever) whose function is switched in accordance with the mode switch in FIG. The multi-function lever 303 is used to input an instruction to adjust the enlargement or reduction of the subject to be photographed when the mode switch 205 is in the photographing mode. When the mode switch is in the playback mode, it is used to adjust the enlargement or reduction of the image displayed on the display panel 201 and to input an instruction to switch between multiple image display and single image display. In this embodiment, the display image enlargement or reduction display adjustment is described as being realized by one multi-function lever 303. However, the present invention is not limited to this, and a reduction button and an enlargement button may be provided separately. The cross key 202, menu button 203, set button 204, mode switch 205, function button 212, power button 301, shutter button 302, and multi-function lever 303 are included in the operation unit 108 of FIG.

次に、本実施形態に係るデジタルカメラ100を使って、顔を含む画像の部分領域を指定し、評価(レイティング)を設定する動作について説明する。   Next, an operation of specifying a partial region of an image including a face and setting evaluation (rating) using the digital camera 100 according to the present embodiment will be described.

デジタルカメラの電源ボタン301を押下してモード切替スイッチ205を再生モードにすると、表示パネル201には撮影日時が最新の画像が1つ表示される。そして、メニューボタン203を押下すると再生モード用の初期メニュー画面が表示される。表示パネル201に表示する対象となる画像は通常は保存メモリ110に保存された画像すべてであるが、所定の条件を満たす画像だけを抽出して表示することもできる。例えば、ユーザは十字キー202を押下することによって初期メニュー画面の項目を移動して、画像の部分レイティング設定を指示する。さらに「抽出」機能を選択することによって画像を絞り込んで表示パネル201に表示させることができる。表示パネル201は「抽出」機能が選択されている状態を示し、この状態でセットボタン204が押下されると「抽出」機能の条件を設定するための画面に切り替わる。ユーザは抽出条件を変更する場合は左キー206および右キー208を押下することによって設定値を選択し、セットボタン204を押下することによって設定値を決定、更新することができる。抽出条件の設定値としては、例えば、「全て」、「全ての顔」や「特定の顔」などがある。   When the power button 301 of the digital camera is pressed and the mode switch 205 is set to the playback mode, one image with the latest shooting date and time is displayed on the display panel 201. When the menu button 203 is pressed, an initial menu screen for the playback mode is displayed. The images to be displayed on the display panel 201 are usually all images stored in the storage memory 110, but only images that satisfy a predetermined condition can be extracted and displayed. For example, the user moves an item on the initial menu screen by depressing the cross key 202 to instruct partial rating setting of the image. Further, by selecting the “extract” function, the image can be narrowed down and displayed on the display panel 201. The display panel 201 shows a state in which the “extract” function is selected, and when the set button 204 is pressed in this state, the screen is switched to a screen for setting the condition of the “extract” function. When changing the extraction condition, the user can select a setting value by pressing the left key 206 and the right key 208, and can determine and update the setting value by pressing the set button 204. As the set value of the extraction condition, for example, there are “all”, “all faces”, “specific face”, and the like.

次に本実施形態のデジタルカメラ100において、画像の顔領域に関してOK(第1の評価)やNG(第2の評価)などの評価を示すフラグを任意に設定し、画像ファイルに関連づけて記録する手順を図4のフローチャート図を参照して説明する。本フローチャートの動作は、上述のようにして、ユーザの操作に応答して、表示パネル201に表示されたメニュー画面上で「抽出」機能の条件が入力されると開始する。   Next, in the digital camera 100 of the present embodiment, flags indicating evaluations such as OK (first evaluation) and NG (second evaluation) are arbitrarily set for the face area of the image, and are recorded in association with the image file. The procedure will be described with reference to the flowchart of FIG. The operation of this flowchart starts as described above when a condition of the “extraction” function is input on the menu screen displayed on the display panel 201 in response to a user operation.

ステップS401においてCPU109は「抽出」機能において設定された抽出条件の設定値を参照する。   In step S401, the CPU 109 refers to the setting value of the extraction condition set in the “extraction” function.

そして、ステップS402においてCPU109は、ステップS401で参照された設定値が「全ての顔」であるかどうかを判定する。   In step S402, the CPU 109 determines whether or not the setting value referred to in step S401 is “all faces”.

ステップS402で設定値が「全ての顔」であると判定された場合、ステップS407においてCPU109は保存メモリ110に保存された画像に対して顔認識処理を実行し、顔の含まれる画像から顔領域画像を抽出する。周知の顔認識技術としては、例えば、特開2004−317699号公報に開示されているように、目、鼻、口のパターン情報に基づいてパターンマッチングを行ったり、画像内の肌色画素を検出することにより画像に含まれる顔領域を認識する技術がある。   If it is determined in step S402 that the setting value is “all faces”, in step S407, the CPU 109 executes face recognition processing on the image stored in the storage memory 110, and the face area is determined from the image including the face. Extract images. As a known face recognition technique, for example, as disclosed in Japanese Patent Application Laid-Open No. 2004-317699, pattern matching is performed based on eye, nose, and mouth pattern information, and skin color pixels in an image are detected. There is a technique for recognizing a face area included in an image.

ステップS424においてCPU109は、ステップS407で抽出された顔領域画像を表示パネル201の画像表示エリアに表示させる。画像表示エリア全体に顔領域画像を表示すれば、画像の顔部分が大きく表示されることになるので、ユーザは人物の顔の詳細を確認し易くなる。1つの画像に複数の顔領域が含まれている場合には、顔領域画像を1つずつ表示パネル201に表示して十字キー202の操作に応答して、顔領域画像を順に送り表示する。なお、1つの画像に複数の顔領域が含まれている場合には、画面を分割して複数の顔領域画像を一度に画像表示エリアに表示するようにしてもよい。   In step S424, the CPU 109 displays the face area image extracted in step S407 in the image display area of the display panel 201. If the face area image is displayed in the entire image display area, the face portion of the image is displayed in a large size, so that the user can easily confirm the details of the person's face. When a plurality of face areas are included in one image, the face area images are displayed one by one on the display panel 201, and the face area images are sequentially sent and displayed in response to the operation of the cross key 202. When a plurality of face areas are included in one image, the screen may be divided and a plurality of face area images may be displayed at a time in the image display area.

ステップS425においてCPU109は、ユーザの入力操作に応答して、画像表示エリアに表示された顔領域に対してフラグを設定する。図5にフラグ設定画面501の一例を示す。ユーザは十字キー202を押下することによって「OK」502または「NG」503へカーソルを移動し、セットボタン204を押下することで、画像表示エリア505に表示された顔領域のフラグの値を決定する。1つの画像に複数の顔領域が含まれている場合には、それぞれの顔領域画像を順に表示し、顔領域画像毎にフラグを設定する。また「OK」または「NG」のいずれでもない場合は、「キャンセル」504を指定することにより何も設定しなくてもよい。そして、画像ファイルには、顔領域の座標と当該顔領域に設定されたフラグが関連付けて記録される。なお、顔領域およびフラグの情報は画像ファイルに付加して保存されてもよいし、顔領域及びフラグ情報と画像ファイルは別に保存され、対応付けられるように記録してもよい。   In step S425, the CPU 109 sets a flag for the face area displayed in the image display area in response to a user input operation. FIG. 5 shows an example of the flag setting screen 501. The user moves the cursor to “OK” 502 or “NG” 503 by pressing the cross key 202, and determines the value of the flag of the face area displayed in the image display area 505 by pressing the set button 204. To do. When a plurality of face areas are included in one image, each face area image is displayed in order, and a flag is set for each face area image. If it is neither “OK” nor “NG”, it is not necessary to set anything by specifying “Cancel” 504. In the image file, the coordinates of the face area and the flag set in the face area are recorded in association with each other. The face area and flag information may be added to the image file and stored, or the face area and flag information and the image file may be stored separately and recorded so as to be associated with each other.

ステップS402で設定値が「全ての顔」でないと判定された場合、ステップS408においてCPU109は抽出条件の設定値が「特定の顔」であるかどうかを判定する。   When it is determined in step S402 that the setting value is not “all faces”, in step S408, the CPU 109 determines whether the setting value of the extraction condition is “specific face”.

ステップS408で設定値が「特定の顔」であると判定された場合、ステップS410においてCPU109は保存メモリ110に保存された画像を読み出し、表示パネル201に一覧表示する。この時、画像を複数表示とすることで、ユーザはより早く目的の顔を含む画像を探し出すことができる。ユーザの選択操作に応答して、CPU109は画像を選択する。そして、CPU109は、選択された画像を表示パネル201に表示させる。そして、ステップS411においてCPU109は、選択された画像に対して顔認識処理を実行し、顔領域を抽出する。抽出された顔領域が1つであれば、それを指定し、複数あればユーザの選択指示に応答して、いずれかを抽出対象となる顔領域として指定する。   When it is determined in step S408 that the setting value is “specific face”, in step S410, the CPU 109 reads out the images stored in the storage memory 110 and displays the images on the display panel 201 as a list. At this time, by displaying a plurality of images, the user can find an image including the target face earlier. In response to the user's selection operation, the CPU 109 selects an image. Then, the CPU 109 causes the display panel 201 to display the selected image. In step S411, the CPU 109 performs face recognition processing on the selected image and extracts a face area. If there is one extracted face area, it is designated, and if there is more than one, one is designated as a face area to be extracted in response to a user's selection instruction.

ステップS412においてCPU109は、ステップS411で指定された顔領域を解析し、その特徴量を「特定の顔」の特徴量として設定する。ここで、「特定の顔」として設定された顔領域の特徴量や顔領域の画像などの情報は、保存メモリ110に保存される。   In step S412, the CPU 109 analyzes the face area designated in step S411, and sets the feature amount as the feature amount of the “specific face”. Here, information such as the feature amount of the face area set as the “specific face” and the image of the face area is stored in the storage memory 110.

ステップS409においてCPU109は、保存メモリ110に保存された画像に対して顔認識処理を実行し、ステップS412で保存メモリ110に保存された特定の顔領域の特徴量と一致する顔を含む画像から、顔領域画像を抽出する。そして、ステップS424およびステップS425と同様の処理を順に実行する。   In step S409, the CPU 109 performs face recognition processing on the image stored in the storage memory 110, and from the image including the face that matches the feature amount of the specific face area stored in the storage memory 110 in step S412. A face area image is extracted. And the process similar to step S424 and step S425 is performed in order.

なお、上述したステップS410〜ステップS412の処理の代わりに、以前にステップS412にて保存メモリ110に保存された顔領域画像を表示パネル201に一覧表示し、その中から選択された顔領域画像を特定の顔として設定するようにしてもよい。また、この場合、保存メモリ110に保存された画像が削除された場合は、それと対応する顔領域の情報も保存メモリ110から削除するようにしてもよい。これによって、ユーザが存在しない画像に対する抽出条件を設定してしまう手間を省くとともに、保存メモリ110の記憶容量を有効に利用できる。   Instead of the processing in steps S410 to S412, the face area images previously stored in the storage memory 110 in step S412 are displayed as a list on the display panel 201, and the face area image selected from the list is displayed. You may make it set as a specific face. In this case, when the image stored in the storage memory 110 is deleted, the information on the face area corresponding to the image may be deleted from the storage memory 110. As a result, it is possible to save the trouble of setting an extraction condition for an image for which the user does not exist and to effectively use the storage capacity of the storage memory 110.

ステップS408で抽出条件の設定値が「特定の顔」でないと判定された場合、ステップS404においてCPU109は抽出条件の設定値が「全て」であると判断して、保存メモリ110に保存された画像全てを読出す。そして、CPU109は、読み出された画像を表示パネル201に順に表示させる。本実施形態では撮影日時が最新の画像から順に表示パネル201に表示される。画像が表示パネル201に1枚表示された状態で多機能レバー303や十字キー202が画像の拡大表示方向に操作されることによって、画像に含まれる特定の部分領域が拡大されて表示パネル201の画像表示エリアに表示される。例えば、ユーザが多機能レバー303を時計回り方向に一度引く(回転させる)操作を行うと、これに応答して画像の部分領域が拡大して表示される。拡大表示された画像の部分領域の中心は拡大表示する前の画像の中心と同一であり、拡大率はあらかじめ定められた固定値である。さらに多機能レバー303を時計回りに引く(回転させる)操作があると、それに応答して上記一定の拡大率に基づいてさらに画像を拡大し、拡大された画像の部分領域が表示パネル201に表示される。また、拡大された画像の部分領域が表示パネル201に表示された状態で十字キー202が押下されると、それに応答して、固定値として定められているグリッド間隔値分だけ表示パネル201に表示される画像の部分領域を移動することができる。   If it is determined in step S408 that the extraction condition setting value is not “specific face”, the CPU 109 determines in step S404 that the extraction condition setting value is “all”, and the image stored in the storage memory 110 is stored. Read all. Then, the CPU 109 displays the read images on the display panel 201 in order. In the present embodiment, the shooting date and time are displayed on the display panel 201 in order from the latest image. When the multi-function lever 303 or the cross key 202 is operated in the image enlargement display direction while one image is displayed on the display panel 201, a specific partial area included in the image is enlarged and the display panel 201 Displayed in the image display area. For example, when the user performs an operation of pulling (rotating) the multifunction lever 303 once in the clockwise direction, a partial area of the image is enlarged and displayed in response to the operation. The center of the partial area of the magnified image is the same as the center of the image before magnified display, and the magnification ratio is a fixed value determined in advance. Further, when there is an operation of pulling (rotating) the multi-function lever 303 clockwise, the image is further enlarged based on the constant enlargement ratio, and a partial area of the enlarged image is displayed on the display panel 201. Is done. Further, when the cross key 202 is pressed in a state where the partial area of the enlarged image is displayed on the display panel 201, the display panel 201 displays only the grid interval value determined as a fixed value in response thereto. The partial area of the image to be moved can be moved.

一方、多機能レバー303を反時計回り方向に一度引く(回転させる)操作を行うと、これに応答して画像が縮小して表示され、複数枚表示に切り替わる。この時の表示枚数はあらかじめ固定値として定められている。図6はこの時の複数表示させた状態を示しており、顔を含む画像601や顔を含まない画像602が混在して表示パネル201に表示されている。多機能レバー303は引いても(回転させても)レバー自体が元に戻るような操作性を提供しているのでレバーを引く操作は繰り返し可能である。   On the other hand, when the multi-function lever 303 is once pulled (rotated) in the counterclockwise direction, the image is reduced and displayed in response to the operation, and the display is switched to a plurality of images. The number of displayed images at this time is determined in advance as a fixed value. FIG. 6 shows a state where a plurality of images are displayed at this time. An image 601 including a face and an image 602 including no face are mixedly displayed on the display panel 201. Even if the multi-function lever 303 is pulled (rotated), it provides operability such that the lever itself returns to its original state, so that the operation of pulling the lever can be repeated.

このように多機能レバー303や十字キー202を操作をすることで、画像表示エリアに表示される画像の表示サイズを変更したり、画像の表示位置を変更したりすることができる。   By operating the multi-function lever 303 and the cross key 202 in this way, the display size of the image displayed in the image display area or the display position of the image can be changed.

ステップS405においてCPU109は、上記のようにして画像表示エリアに表示されている画像の表示範囲を、画像の部分領域として指定する。本実施形態では、CPU109は、セットボタン204の押下操作を受けたときに画像表示エリアに表示されていた画像の表示範囲の座標を取得し、部分領域として指定する。   In step S405, the CPU 109 designates the display range of the image displayed in the image display area as described above as a partial region of the image. In the present embodiment, the CPU 109 acquires the coordinates of the display range of the image displayed in the image display area when receiving the pressing operation of the set button 204, and designates it as a partial area.

ステップS406においてCPU109は、ユーザの入力操作に応答して、ステップS405で指定された部分領域に対してフラグを設定する。なお、1つの画像に対して複数の部分領域を指定し、それぞれにフラグを設定することもできる。そして、画像ファイルには、部分領域の座標と当該部分領域に設定されたフラグが関連付けて記録される。なお、部分領域およびフラグの情報は画像ファイルに付加して保存されてもよいし、部分領域及びフラグ情報と画像ファイルは別に保存され、関連付けて記録されるようにしてもよい。   In step S406, the CPU 109 sets a flag for the partial area specified in step S405 in response to the user's input operation. It is also possible to specify a plurality of partial areas for one image and set a flag for each. In the image file, the coordinates of the partial area and the flag set in the partial area are recorded in association with each other. Note that the partial area and flag information may be added to the image file and stored, or the partial area and flag information and the image file may be stored separately and recorded in association with each other.

なお、上記では、ステップS407やステップS409で抽出された顔領域をフラグ設定の対象とする場合について説明した。さらに、抽出された顔領域について、ステップS405と同様にしてさらに部分領域を指定し、フラグ設定の対象領域としてもよい。   In the above description, the case where the face area extracted in step S407 or step S409 is set as a flag setting target has been described. Further, for the extracted face area, a partial area may be further designated in the same manner as in step S405, and may be set as a flag setting target area.

また、上記では、ステップS407やステップS409で画像から顔領域を抽出し、顔領域画像を画像表示エリアに表示する場合について説明した。これに限らず、ステップS407やステップS409で顔領域を抽出できた画像の全体を画像表示エリアに表示し、ステップS405と同様にして部分領域を指定し、フラグ設定の対象領域とするようにしてもよい。この場合、「全て」の画像を抽出対象とする場合に比べて、画像の数が少なくなるので、フラグの設定を行うための画像を取捨選択する手間を省くことができる。図7に顔領域を抽出できた画像を表示パネル201に複数表示した例を示す。   In the above description, the face area is extracted from the image in step S407 and step S409, and the face area image is displayed in the image display area. Not limited to this, the entire image from which the face area can be extracted in step S407 or step S409 is displayed in the image display area, and the partial area is designated in the same manner as in step S405 so as to be the target area for flag setting. Also good. In this case, since the number of images is reduced as compared with the case where “all” images are to be extracted, it is possible to save the trouble of selecting images for setting a flag. FIG. 7 shows an example in which a plurality of images from which face areas can be extracted are displayed on the display panel 201.

また、上記では、ステップS424では抽出された顔領域画像だけを表示パネル201の画像表示エリアに表示する場合について説明した。これに限らず、図8に示すように画像の全体を表示パネル201の画像表示エリアに表示し、その中で顔領域を強調表示するようにしてもよい。図8では顔領域を枠で囲んで強調表示している。この枠で囲まれた顔領域がフラグ設定の対象領域となる。これにより、ユーザは画像の全体における顔領域を確認しながら、顔領域を評価することができる。   In the above description, the case where only the extracted face area image is displayed in the image display area of the display panel 201 in step S424 has been described. However, the present invention is not limited thereto, and the entire image may be displayed in the image display area of the display panel 201 as shown in FIG. In FIG. 8, the face area is highlighted with a frame. The face area surrounded by the frame is the target area for flag setting. Thus, the user can evaluate the face area while confirming the face area in the entire image.

また、上記では、フラグの設定をユーザの入力操作に応答して行う場合について説明した。これに限らず、顔認識処理を用いて顔領域が笑顔であるか否かをさらに検知し、検知結果が笑顔を示せば「OK」を設定するというように、自動的にフラグを設定するようにしてもよい。   In the above description, the flag is set in response to a user input operation. In addition to this, it is further detected whether or not the face area is smiling using face recognition processing, and a flag is automatically set so that “OK” is set if the detection result indicates a smile. It may be.

次に本実施形態のデジタルカメラ100において、画像に含まれる人物について部分的な評価が設定され、保持された画像を出力処理する手順を図11のフローチャート図を参照して説明する。本フローチャートの動作は、ユーザの操作に応答して、表示パネルに表示されたメニュー画面上で、出力処理の指示が入力されると開始する。   Next, in the digital camera 100 according to the present embodiment, a procedure for setting a partial evaluation for a person included in an image and outputting the held image will be described with reference to a flowchart of FIG. The operation of this flowchart starts when an instruction for output processing is input on the menu screen displayed on the display panel in response to a user operation.

ステップS1100においてCPU109は、指示された出力処理の種類が写真印刷であるか否かを判定する。   In step S1100, the CPU 109 determines whether or not the instructed type of output processing is photo printing.

ステップS1100で出力処理の種類が写真印刷であると判定された場合、ステップS1101においてCPU109は、ユーザの操作に応答して、写真印刷の印刷枚数の条件を選択する。条件としては、各画像の印刷枚数を「画像に含まれるOKの数」または「画像に含まれる人物の総数からNGの数を引いた数」のいずれかを選択する。   If it is determined in step S1100 that the type of output processing is photo printing, in step S1101, the CPU 109 selects a condition for the number of prints for photo printing in response to a user operation. As a condition, the number of prints of each image is selected from “the number of OK included in the image” or “the number obtained by subtracting the number of NG from the total number of persons included in the image”.

ステップS1102においてCPU109は、ステップS1101で選択された条件にしたがい、各画像の印刷枚数をDPOFファイルに格納する。ここで、DPOFファイルは各画像ファイルとともに保存メモリ110に保存される。DPOFファイルは各画像ファイルに対する印刷指定情報である。この印刷指定情報には、印刷対象となる画像ファイルの識別情報と印刷枚数が含まれる。画像ファイルの識別情報は、保存メモリ110に保存された画像ファイルを一意に識別可能な情報であり、具体的には、画像ファイルのファイル名等である。   In step S1102, the CPU 109 stores the number of prints of each image in the DPOF file according to the condition selected in step S1101. Here, the DPOF file is stored in the storage memory 110 together with each image file. The DPOF file is print designation information for each image file. This print designation information includes identification information of the image file to be printed and the number of prints. The identification information of the image file is information that can uniquely identify the image file stored in the storage memory 110, and specifically, the file name of the image file.

ステップS1101で選択された条件が「画像に含まれるOKの数」である場合、CPU109は各画像ファイルのフラグを参照し、OKが設定されているフラグの数をカウントする。そして、カウント結果を当該画像ファイルの印刷枚数として決定し、DPOFファイルに格納する。したがって、画像ファイルに含まれるOKの数が“0”の場合には、印刷枚数が“0”となるため、当該画像ファイルは印刷されないこととなる。   If the condition selected in step S1101 is “the number of OK included in the image”, the CPU 109 refers to the flag of each image file and counts the number of flags for which OK is set. Then, the count result is determined as the number of prints of the image file and stored in the DPOF file. Therefore, when the number of OKs included in the image file is “0”, the number of prints is “0”, and the image file is not printed.

一方、ステップS1101で選択された条件が「画像に含まれる人物の総数からNGの数を引いた数」である場合、CPU109は、まず各画像ファイルに対して顔認識処理を実行し、画像に含まれる人物の総数をカウントする。次に各画像ファイルのフラグを参照し、NGが設定されているフラグの数をカウントする。そして、画像に含まれる人物の総数からNGが設定されているフラグの数を引いた結果を当該画像ファイルの印刷枚数として決定し、DPOFファイルに格納する。   On the other hand, when the condition selected in step S1101 is “the number of persons included in the image minus the number of NGs”, the CPU 109 first executes face recognition processing on each image file to generate the image. Count the total number of people included. Next, referring to the flags of each image file, the number of flags for which NG is set is counted. Then, the result of subtracting the number of flags for which NG is set from the total number of persons included in the image is determined as the number of prints of the image file, and stored in the DPOF file.

そして、印刷装置は、デジタルカメラ100の保存メモリ110に保存された画像ファイルおよびDPOFファイルを読み出し、印刷出力を実行する。以上のようにして、画像ファイルを写真印刷して人に配布する場合に、ユーザの手間をかけることなく、写り映えのよい写真を必要な枚数だけ印刷することができるようになる。   Then, the printing apparatus reads the image file and DPOF file stored in the storage memory 110 of the digital camera 100 and executes print output. As described above, when an image file is printed and distributed to a person, it is possible to print only a necessary number of high-quality photos without user trouble.

ステップS1100にて指示された出力処理の種類が写真印刷でないと判定された場合、ステップS1110においてCPU109は、指示された出力処理の種類がスライドショー再生であるか否かを判定する。   If it is determined in step S1100 that the type of output processing instructed is not photo printing, the CPU 109 determines in step S1110 whether or not the type of output processing instructed is slide show playback.

ステップS1110にて指示された出力処理の種類がスライドショー再生であると判定された場合、ステップS1111においてCPU109は、ユーザの操作に応答して各画像の再生時間の条件を選択する。条件としては「画像に含まれるOKの数に比例する」または「画像に含まれる人物の総数からNGの数を引いた数に比例する」のいずれかを選択する。   If it is determined in step S1110 that the type of output processing instructed is slideshow playback, the CPU 109 selects a playback time condition for each image in response to a user operation in step S1111. As the condition, either “proportional to the number of OK included in the image” or “proportional to the number obtained by subtracting the number of NG from the total number of persons included in the image” is selected.

ステップS1112においてCPU109は、ステップS1101で選択された条件にしたがい、各画像の再生時間をスライドショー管理ファイルに格納する。ここで、スライドショー管理ファイルは各画像ファイルとともに保存メモリ110に保存される。スライドショー管理ファイルには、再生対象となる画像ファイルの識別情報と、各画像ファイルの再生順序、各画像ファイルの再生時間が含まれる。   In step S <b> 1112, the CPU 109 stores the playback time of each image in the slide show management file according to the condition selected in step S <b> 1101. Here, the slide show management file is stored in the storage memory 110 together with each image file. The slide show management file includes identification information of an image file to be reproduced, a reproduction order of each image file, and a reproduction time of each image file.

ステップS1111で選択された条件が「画像に含まれるOKの数に比例する」である場合、CPU109は各画像ファイルのフラグを参照し、OKが設定されているフラグの数をカウントする。そして、カウント値と所定の再生時間との積を当該画像ファイルの再生時間として決定し、スライドショー管理ファイルに格納する。所定の再生時間はユーザが任意に設定できるようにしてもよいし、予めデジタルカメラ100に固定で設定されていてもよい。したがって、画像ファイルに含まれるOKの数が“0”の場合には、再生時間が“0”となるため、当該画像ファイルは再生されないこととなる。   If the condition selected in step S1111 is “proportional to the number of OK included in the image”, the CPU 109 refers to the flag of each image file and counts the number of flags for which OK is set. Then, the product of the count value and the predetermined reproduction time is determined as the reproduction time of the image file and stored in the slide show management file. The predetermined playback time may be arbitrarily set by the user, or may be fixedly set in the digital camera 100 in advance. Therefore, when the number of OKs included in the image file is “0”, the reproduction time is “0”, and the image file is not reproduced.

一方、ステップS1111で選択された条件が「画像に含まれる人物の総数からNGの数を引いた数に比例する」である場合、CPU109は、まず各画像ファイルに対して顔認識処理を実行し、画像に含まれる人物の総数をカウントする。次に各画像ファイルのフラグを参照し、NGが設定されているフラグの数をカウントする。そして、画像に含まれる人物の総数からNGが設定されているフラグの数を引いた値と所定の再生時間との積を当該画像ファイルの再生時間として決定し、スライドショー管理ファイルに格納する。   On the other hand, when the condition selected in step S1111 is “proportional to the total number of persons included in the image minus the number of NG”, the CPU 109 first executes face recognition processing on each image file. The total number of persons included in the image is counted. Next, referring to the flags of each image file, the number of flags for which NG is set is counted. Then, a product of a value obtained by subtracting the number of flags for which NG is set from the total number of persons included in the image and a predetermined reproduction time is determined as the reproduction time of the image file, and is stored in the slide show management file.

そして、デジタルカメラ100はスライドショー管理ファイルを参照し、保存メモリ110に保存された画像ファイルを順に読出して、設定された再生時間だけ表示部107に表示させる。以上のようにして、ユーザに手間をかけることなく、写り映えのよい画像をより長く再生させることができるようになる。   The digital camera 100 refers to the slide show management file, reads out the image files stored in the storage memory 110 in order, and causes the display unit 107 to display them for the set playback time. As described above, a high-quality image can be reproduced for a longer time without taking time and effort to the user.

なお、本実施形態では、画像に含まれる人物の総数とNGフラグの数との差分やOKフラグの数を用いて出力量を決定する場合について説明した。これに限らず、NGフラグの数やOKフラグの数をそれぞれ所定値と比較し、比較結果に応じて出力量を決定するようにしてもよい。例えば、OKフラグの数が所定値より大きければ所定量を出力し、そうでなければ出力しないようにすることや、NGフラグの数が所定値より大きければ出力せず、そうでなければ所定量を出力する。あるいは、OKフラグの数がNGフラグの数より大きければ、所定量を出力することが考えられる。   In the present embodiment, the case where the output amount is determined using the difference between the total number of persons included in the image and the number of NG flags or the number of OK flags has been described. Not limited to this, the number of NG flags and the number of OK flags may be compared with predetermined values, respectively, and the output amount may be determined according to the comparison result. For example, if the number of OK flags is larger than a predetermined value, a predetermined amount is output, otherwise it is not output, or if the number of NG flags is larger than a predetermined value, it is not output. Is output. Alternatively, if the number of OK flags is larger than the number of NG flags, a predetermined amount may be output.

以上のように本実施形態によれば、画像に含まれる人物に関する部分的な評価を用いて、印刷出力や表示出力等の出力処理の対象となる画像を簡単に選択できるようになる。   As described above, according to the present embodiment, it is possible to easily select an image to be subjected to output processing such as print output or display output using partial evaluation regarding a person included in the image.

また、本実施形態によれば、画像に含まれる人物に関する部分的な評価を用いて、印刷出力の場合の印刷枚数や表示出力の場合の表示時間等のような出力量の設定を簡単に決定できるようになる。   Further, according to the present embodiment, setting of the output amount such as the number of prints in the case of print output, the display time in the case of display output, and the like is easily determined by using partial evaluation regarding a person included in the image. become able to.

(第2の実施形態)
本実施形態では、第1の実施形態のデジタルカメラの代わりに、画像を管理するためのアプリケーションソフトウェアをインストールしたコンピュータ装置を用いて本願発明を実現する場合について説明する。以下、第1の実施形態と同様の部分については説明を省略し、本実施形態に特有の部分について詳細に説明する。
(Second Embodiment)
In the present embodiment, a case will be described in which the present invention is implemented using a computer device in which application software for managing images is installed instead of the digital camera of the first embodiment. Hereinafter, description of the same parts as those of the first embodiment will be omitted, and parts unique to the present embodiment will be described in detail.

図9は、本実施形態に係る画像管理システムの概略を示すブロック図である。901は光学像を電気信号に変換し、所定の画像処理を施した後デジタル情報として記録可能な画像入力装置である。この画像入力装置901は、例えば静止画や動画を撮影し、画像データとして記録可能なデジタルカメラや、原稿を読み取って画像データとして出力可能なスキャナなどである。また、画像データを記憶した記憶媒体から画像データを読み出して出力可能な各種記憶媒体のドライバであってもよい。   FIG. 9 is a block diagram showing an outline of the image management system according to the present embodiment. Reference numeral 901 denotes an image input device capable of converting an optical image into an electrical signal, performing predetermined image processing, and recording it as digital information. The image input device 901 is, for example, a digital camera that can capture a still image or a moving image and record it as image data, or a scanner that can read a document and output it as image data. Further, it may be a driver of various storage media that can read and output image data from a storage medium that stores image data.

902はパーソナルコンピュータ(PC)、903は画像入力装置901からPC902へ、画像データを転送するためのデータ転送用インタフェース(I/F)である。データ転送用I/F903としては、例えば、USB(Universal Serial Bus)、IEEE1394に代表される有線インタフェースや、IrDA、Bluetoothに代表される無線系インタフェースなどを用いることができる。   Reference numeral 902 denotes a personal computer (PC), and reference numeral 903 denotes a data transfer interface (I / F) for transferring image data from the image input apparatus 901 to the PC 902. As the data transfer I / F 903, for example, a USB (Universal Serial Bus), a wired interface represented by IEEE 1394, a wireless interface represented by IrDA, Bluetooth, or the like can be used.

画像データは、画像入力装置901からデータ転送用I/F903を介してPC902に転送され、ハードディスクドライブ(HDD)に記憶される。PC902には、画像管理アプリケーションソフトウェアがインストールされており、これを起動することによって、ハードディスクに記憶された画像データに対して、その顔領域の評価を設定したり、保持したりすることができる。   The image data is transferred from the image input device 901 to the PC 902 via the data transfer I / F 903 and stored in a hard disk drive (HDD). The PC 902 is installed with image management application software, and by starting the image management application software, the evaluation of the face area can be set or held for the image data stored in the hard disk.

図10は、PC902を実現するための情報処理装置の構成を示すブロック図である。情報処理装置は、CRTディスプレイ1001、VRAM1002、BMU1003、キーボード1004、PD1005、CPU1006、ROM1007、RAM1008、HDD1009、FDD1010、ネットワークI/F1011を有する。   FIG. 10 is a block diagram illustrating a configuration of an information processing device for realizing the PC 902. The information processing apparatus includes a CRT display 1001, a VRAM 1002, a BMU 1003, a keyboard 1004, a PD 1005, a CPU 1006, a ROM 1007, a RAM 1008, an HDD 1009, an FDD 1010, and a network I / F 1011.

CRT(Cathode Ray Tube)ディスプレイ1001には、画像や画像管理アプリケーションソフトウェアのメニュー画面が表示される。ディスプレイ1001は、第1の実施形態における表示部107と対応する。VRAM1002には、ディスプレイ1001に表示するための画像が描画される。このVRAM1002に描画された画像は、所定の規定に従ってディスプレイ1001に転送され、これによりディスプレイ1001に画像が表示されることとなる。BMU(ビットムーブユニット)1003は、メモリ間のデータ転送や、メモリと各I/Oデバイスとの間のデータ転送を制御する。キーボード1004は、ユーザの指示を入力するための各種キーを有する。PD(ポインティングデバイス)1005は、例えば、ディスプレイ1001に表示されたアイコンやメニュー画面の項目に対するユーザの指示を入力するために使用される。キーボード1004やPD1005は第1の実施形態における十字キー202やメニューボタン203、セットボタン204、ファンクションボタン212、多機能レバー303と対応する。CPU1006は、ROM1007やHDD1009に格納された制御プログラムに基づいて、各デバイスを制御する。CPU1006は第1の実施形態におけるCPU109と対応する。ROM1007は、各種制御プログラムやデータを保存する。RAM1008は、CPU1006のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。HDD1009は、オペレーティングシステム(OS)や画像管理アプリケーションソフトウェア、画像データなどを格納する。HDD1009は第1の実施形態における保存メモリ110と対応する。ネットワークI/F1011は、他の情報処理装置やプリンタ等とネットワークを介して通信を行う。CPUバス1012は、アドレスバス、データバス及びコントロールバスを含む。CPU1006に対する制御プログラムの提供は、ROM1007、HDD1009から行うこともできるし、ネットワークI/F1011を介してネットワーク経由で他の情報処理装置等から行うこともできる。   A CRT (Cathode Ray Tube) display 1001 displays an image and a menu screen of image management application software. A display 1001 corresponds to the display unit 107 in the first embodiment. An image to be displayed on the display 1001 is drawn on the VRAM 1002. The image drawn in the VRAM 1002 is transferred to the display 1001 in accordance with a predetermined rule, whereby the image is displayed on the display 1001. A BMU (bit move unit) 1003 controls data transfer between memories and data transfer between the memory and each I / O device. The keyboard 1004 has various keys for inputting user instructions. A PD (pointing device) 1005 is used, for example, to input a user instruction for an icon displayed on the display 1001 or a menu screen item. The keyboard 1004 and the PD 1005 correspond to the cross key 202, the menu button 203, the set button 204, the function button 212, and the multi-function lever 303 in the first embodiment. The CPU 1006 controls each device based on a control program stored in the ROM 1007 or the HDD 1009. The CPU 1006 corresponds to the CPU 109 in the first embodiment. The ROM 1007 stores various control programs and data. The RAM 1008 has a work area for the CPU 1006, a data save area during error processing, a control program load area, and the like. The HDD 1009 stores an operating system (OS), image management application software, image data, and the like. The HDD 1009 corresponds to the storage memory 110 in the first embodiment. A network I / F 1011 communicates with other information processing apparatuses and printers via a network. The CPU bus 1012 includes an address bus, a data bus, and a control bus. The provision of the control program to the CPU 1006 can be performed from the ROM 1007 and the HDD 1009, or can be performed from another information processing apparatus or the like via the network via the network I / F 1011.

第1の実施形態において図4で示したフローは、PC902においてCPU1006がOSや画像管理アプリケーションソフトウェアを起動し、それらにしたがって動作することで実現できる。   The flow shown in FIG. 4 in the first embodiment can be realized by the CPU 1006 starting up the OS and image management application software in the PC 902 and operating in accordance with them.

なお、本発明の目的は、以下の処理を実行することによって達成される。即ち、上述した実施の形態の機能を実現するプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。   In addition, the objective of this invention is achieved by performing the following processes. That is, a storage medium storing a program code for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a program code (or CPU or MPU) of the system or apparatus is stored in the storage medium. Is a process of reading.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。   Moreover, the following can be used as a storage medium for supplying the program code. For example, floppy (registered trademark) disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM or the like. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。   Further, the present invention includes a case where the function of the above-described embodiment is realized by executing the program code read by the computer. In addition, an OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Cases are also included.

更に、前述した実施の形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。   Furthermore, the present invention includes a case where the functions of the above-described embodiment are realized by the following processing. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

本発明の一実施形態におけるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera in one Embodiment of this invention. 本発明の一実施形態におけるデジタルカメラの背面部の構成を示す図である。It is a figure which shows the structure of the back part of the digital camera in one Embodiment of this invention. 本発明の一実施形態におけるデジタルカメラの上面部の構成を示す図である。It is a figure which shows the structure of the upper surface part of the digital camera in one Embodiment of this invention. 本発明の一実施形態においてデジタルカメラが実行する動作を示すフローチャートである。6 is a flowchart illustrating an operation executed by the digital camera in the embodiment of the present invention. 本発明の一実施形態におけるフラグ設定画面を示す図である。It is a figure which shows the flag setting screen in one Embodiment of this invention. 本発明の一実施形態における画像一覧画面を示す図である。It is a figure which shows the image list screen in one Embodiment of this invention. 本発明の一実施形態における画像一覧画面を示す図である。It is a figure which shows the image list screen in one Embodiment of this invention. 本発明の一実施形態における画像一覧画面を示す図である。It is a figure which shows the image list screen in one Embodiment of this invention. 本発明の一実施形態における画像管理システムの構成を示す図である。It is a figure which shows the structure of the image management system in one Embodiment of this invention. 本発明の一実施形態における情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus in one Embodiment of this invention. 本発明の一実施形態においてデジタルカメラが実行する動作を示すフローチャートである。6 is a flowchart illustrating an operation executed by the digital camera in the embodiment of the present invention.

符号の説明Explanation of symbols

100 デジタルカメラ
101 撮影レンズ
102 撮影レンズ駆動部
103 撮像素子
104 信号処理部
105 一次メモリ
106 距離測定部
107 表示部
108 操作部
109 CPU
110 保存メモリ
DESCRIPTION OF SYMBOLS 100 Digital camera 101 Shooting lens 102 Shooting lens drive part 103 Image pick-up element 104 Signal processing part 105 Primary memory 106 Distance measurement part 107 Display part 108 Operation part 109 CPU
110 Storage memory

Claims (6)

画像データから顔領域を抽出する抽出手段と、
前記抽出手段により抽出された顔領域に対して任意の評価を設定する設定手段と、
前記設定手段により設定された前記顔領域の評価を前記画像データと対応付けて記憶する記憶手段とを備え、
前記記憶手段は前記画像データを複数の顔領域の評価と対応付けて記憶することが可能であり、前記画像データに対応付けられた顔領域の評価をカウントするカウント手段と、
前記画像データを出力処理する際の出力量を前記カウント手段によるカウント結果にしたがって決定する決定手段とを更に備えたことを特徴とする画像処理装置。
Extracting means for extracting a face region from image data;
Setting means for setting an arbitrary evaluation for the face area extracted by the extracting means;
Storage means for storing the evaluation of the face area set by the setting means in association with the image data;
The storage means can store the image data in association with evaluation of a plurality of face areas, and count means for counting the evaluation of face areas associated with the image data;
An image processing apparatus, further comprising: a determining unit that determines an output amount when the image data is output according to a count result by the counting unit.
前記評価は互いに異なる第1の評価および第2の評価を含み、前記カウント手段は、前記抽出手段により抽出された顔領域の総数もカウントし、
前記決定手段は前記カウント手段によりカウントされた前記第1の評価の数、あるいは前記顔領域の総数と前記第2の評価の数との差分、あるいは前記第1の評価の数と前記第2の評価の数との比較結果、前記第1または2の評価の数のうちいずれか一方と所定値との比較結果のうち少なくとも1つにしたがって前記画像データを出力処理する際の出力量を決定することを特徴とする請求項1記載の画像処理装置。
The evaluation includes a first evaluation and a second evaluation that are different from each other, and the counting means also counts the total number of face regions extracted by the extracting means,
The determination means is the number of the first evaluations counted by the counting means, or the difference between the total number of the face regions and the number of the second evaluations, or the number of the first evaluations and the second evaluation The output amount when the image data is output is determined according to at least one of the comparison result with the number of evaluations and the comparison result between one of the first or second evaluation numbers and a predetermined value. The image processing apparatus according to claim 1.
前記抽出手段により抽出された顔領域の画像を画面に表示させる表示手段をさらに備え、
前記設定手段は、前記表示手段により前記画面に表示された顔領域の画像に関する、ユーザの入力操作に応答して前記評価を設定することを特徴とする請求項1または2に記載の画像処理装置。
Further comprising display means for displaying an image of the face area extracted by the extracting means on a screen;
The image processing apparatus according to claim 1, wherein the setting unit sets the evaluation in response to a user input operation regarding an image of a face area displayed on the screen by the display unit. .
前記抽出手段により抽出された顔領域が笑顔であるか否か検知する検知手段をさらに備え、
前記設定手段は、前記検知手段による検知結果にしたがって前記評価を設定することを特徴とする請求項1乃至3に記載の画像処理装置。
A detection means for detecting whether or not the face area extracted by the extraction means is a smile;
The image processing apparatus according to claim 1, wherein the setting unit sets the evaluation according to a detection result by the detection unit.
画像データから顔領域を抽出するステップと、
前記抽出された顔領域に対して任意の評価を設定するステップと、
前記設定された前記顔領域の評価を前記画像データと対応付けて記憶するステップと、
前記画像データは複数の顔領域の評価と対応付けて記憶されることが可能であり、前記画像データに対応付けられた顔領域の評価をカウントするステップと、
前記画像データを出力処理する際の出力量を前記カウント結果にしたがって決定するステップとを備えたことを特徴とする画像処理装置の制御方法。
Extracting a face region from the image data;
Setting an arbitrary evaluation on the extracted face area;
Storing the set evaluation of the face area in association with the image data;
The image data can be stored in association with evaluation of a plurality of face areas, and counting the evaluation of face areas associated with the image data;
And a step of determining an output amount when the image data is output according to the count result.
コンピュータに、
画像データから顔領域を抽出するステップと、
前記抽出された顔領域に対して任意の評価を設定するステップと、
前記設定された前記顔領域の評価を前記画像データと対応付けて記憶するステップと、
前記画像データは複数の顔領域の評価と対応付けて記憶されることが可能であり、前記画像データに対応付けられた顔領域の評価をカウントするステップと、
前記画像データを出力処理する際の出力量を前記カウント結果にしたがって決定するステップとを実行させるためのプログラム。
On the computer,
Extracting a face region from the image data;
Setting an arbitrary evaluation on the extracted face area;
Storing the set evaluation of the face area in association with the image data;
The image data can be stored in association with evaluation of a plurality of face areas, and counting the evaluation of face areas associated with the image data;
And a step of determining an output amount when the image data is output according to the count result.
JP2008130760A 2008-04-24 2008-05-19 Image processing apparatus, control method therefor, and program Expired - Fee Related JP5171387B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008130760A JP5171387B2 (en) 2008-05-19 2008-05-19 Image processing apparatus, control method therefor, and program
CN2009101353743A CN101588452B (en) 2008-04-24 2009-04-24 Image taking apparatus, image processing device and management method
US12/429,505 US8711265B2 (en) 2008-04-24 2009-04-24 Image processing apparatus, control method for the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008130760A JP5171387B2 (en) 2008-05-19 2008-05-19 Image processing apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2009278598A true JP2009278598A (en) 2009-11-26
JP5171387B2 JP5171387B2 (en) 2013-03-27

Family

ID=41372493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008130760A Expired - Fee Related JP5171387B2 (en) 2008-04-24 2008-05-19 Image processing apparatus, control method therefor, and program

Country Status (2)

Country Link
JP (1) JP5171387B2 (en)
CN (1) CN101588452B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290336A (en) * 2008-05-27 2009-12-10 Sony Corp Image reproducing device, image reproducing method, and program
JP2012133459A (en) * 2010-12-20 2012-07-12 Nikon Corp Apparatus, method and program for estimating image, and computer-readable recording medium storing the program

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739210B (en) * 2009-12-21 2012-08-08 无锡中星微电子有限公司 Reminding method for image browsing and device thereof
JP5483012B2 (en) * 2010-03-25 2014-05-07 ソニー株式会社 TV with videophone function
JP5906023B2 (en) 2011-04-28 2016-04-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP5882599B2 (en) 2011-04-28 2016-03-09 キヤノン株式会社 Imaging apparatus and control method thereof
JP5762114B2 (en) 2011-04-28 2015-08-12 キヤノン株式会社 Imaging apparatus and control method thereof
CN102708841B (en) * 2012-04-16 2015-04-29 广东威创视讯科技股份有限公司 Signal window-opening method and device
CN107608508B (en) * 2012-12-19 2021-07-16 联想(北京)有限公司 Information processing method and electronic equipment
JP2015177221A (en) * 2014-03-13 2015-10-05 オリンパス株式会社 Imaging apparatus, imaging method, data recording device, and program
CN104320700A (en) * 2014-10-27 2015-01-28 无锡天脉聚源传媒科技有限公司 Method and device for marking regions in video
JP6452409B2 (en) * 2014-11-28 2019-01-16 キヤノン株式会社 Image display device and image display method
JP7242232B2 (en) * 2018-09-28 2023-03-20 キヤノン株式会社 Information processing device, information processing method, and program
JP7252729B2 (en) * 2018-10-18 2023-04-05 キヤノン株式会社 Image processing device, image processing method
CN111240543B (en) * 2020-01-03 2023-08-22 腾讯科技(深圳)有限公司 Comment method, comment device, computer equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141512A (en) * 2001-11-06 2003-05-16 Konica Corp Face imaging system and image processing method
JP2007036603A (en) * 2005-07-26 2007-02-08 Noritsu Koki Co Ltd Print preparation device
JP2007208732A (en) * 2006-02-02 2007-08-16 Fujifilm Corp Method for recording print specifying information and digital camera
JP2008052402A (en) * 2006-08-23 2008-03-06 Konica Minolta Holdings Inc Print creation system and print creation method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4712661B2 (en) * 2006-09-22 2011-06-29 オリンパスイメージング株式会社 Imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141512A (en) * 2001-11-06 2003-05-16 Konica Corp Face imaging system and image processing method
JP2007036603A (en) * 2005-07-26 2007-02-08 Noritsu Koki Co Ltd Print preparation device
JP2007208732A (en) * 2006-02-02 2007-08-16 Fujifilm Corp Method for recording print specifying information and digital camera
JP2008052402A (en) * 2006-08-23 2008-03-06 Konica Minolta Holdings Inc Print creation system and print creation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290336A (en) * 2008-05-27 2009-12-10 Sony Corp Image reproducing device, image reproducing method, and program
JP2012133459A (en) * 2010-12-20 2012-07-12 Nikon Corp Apparatus, method and program for estimating image, and computer-readable recording medium storing the program

Also Published As

Publication number Publication date
JP5171387B2 (en) 2013-03-27
CN101588452A (en) 2009-11-25
CN101588452B (en) 2011-05-25

Similar Documents

Publication Publication Date Title
JP5171387B2 (en) Image processing apparatus, control method therefor, and program
US8711265B2 (en) Image processing apparatus, control method for the same, and storage medium
US7308158B2 (en) Imaging method and system
US7084916B2 (en) Digital camera having an improved user interface
JP2008191799A (en) Portable device
JP2008187381A (en) Image device, image-editing method, and program
JP3841046B2 (en) Image display device and print system
JP2008236454A (en) Multifunction printer, print system, and still image print program
EP1812906B1 (en) Screen edit apparatus, screen edit method, and screen edit program
JP2008244997A (en) Image processing system
JP5336759B2 (en) Image output apparatus and image output method
JP4974966B2 (en) Image editing apparatus, control method therefor, and program
US7812977B2 (en) Image-processing system, image-processing method, and product of image-processing program for displaying an image individually or as a composite image
JP2005096301A (en) Image output device, image correction method, image adjustment method, program and recording medium
JP5020882B2 (en) Image processing apparatus, control method therefor, and program
JP2011160292A (en) Image processing apparatus, and image processing method
JP5575173B2 (en) Image editing apparatus, control method therefor, and program
JP5645878B2 (en) Image processing apparatus, control method therefor, and program
JP2006227903A (en) Print controller, print control method, print control program and storage medium
JP4605345B2 (en) Image processing method and apparatus
JP2005045650A (en) Image extracting device and image extracting method
JP2012019475A (en) Image edition processing device, electronic camera, image edition processing program
JP2009021733A (en) Image file generating device, and image file generation program
JP2008210347A (en) Image editing device, method, and program
JP2001111947A (en) Recorder, image processing unit, display device, recording method, display method and recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees