JP2006033438A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2006033438A
JP2006033438A JP2004209672A JP2004209672A JP2006033438A JP 2006033438 A JP2006033438 A JP 2006033438A JP 2004209672 A JP2004209672 A JP 2004209672A JP 2004209672 A JP2004209672 A JP 2004209672A JP 2006033438 A JP2006033438 A JP 2006033438A
Authority
JP
Japan
Prior art keywords
face
digital camera
monitor
detected
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004209672A
Other languages
Japanese (ja)
Other versions
JP4475044B2 (en
Inventor
Takumi Kawahara
巧 河原
Akira Omura
晃 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004209672A priority Critical patent/JP4475044B2/en
Publication of JP2006033438A publication Critical patent/JP2006033438A/en
Application granted granted Critical
Publication of JP4475044B2 publication Critical patent/JP4475044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve detection accuracy for detecting a feature such as the face of an object, in a digital camera. <P>SOLUTION: The digital camera has a configuration provided with a feature detector for detecting the feature of an object, a monitor for displaying an image of the object, a detector for detecting the operation status of the monitor, and a control unit for controlling the operation of the feature detector in response to the operation status of the monitor. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、被写体を撮像するデジタルカメラに関し、特に、顔検出等の被写体の特徴部位を検出することが可能なデジタルカメラに関する。   The present invention relates to a digital camera that captures an image of a subject, and more particularly to a digital camera that can detect a characteristic part of a subject such as face detection.

被写体が人物である場合に人物の顔部分にピントを合わせるため、カメラにより撮像した被写界内の人物の顔部分を検出して、検出した顔エリアにAFするカメラが提案されている。   In order to focus on the face portion of a person when the subject is a person, a camera that detects the face portion of the person in the object scene captured by the camera and performs AF on the detected face area has been proposed.

しかし、顔検出する場合に、顔検出方式によって、または環境によって、顔が検出できない、検出精度が悪い等の不具合が生じる。本発明は、デジタルカメラにおける、顔等の被写体の特徴部位を検出する検出精度を高めることを目的とする。   However, when a face is detected, problems such as a face cannot be detected or detection accuracy is poor depending on the face detection method or environment. An object of the present invention is to improve detection accuracy for detecting a characteristic part of a subject such as a face in a digital camera.

請求項1に記載の発明では、デジタルカメラにおいて、被写体の特徴部位を検出する特徴部位検出部と、被写体像を表示するモニタと、前記モニタの動作状態を検出する検出部と、前記モニタの動作状態に応じて前記特徴部位検出部の動作を制御する制御部とを備えた構成とした。   According to the first aspect of the present invention, in the digital camera, a feature part detection unit that detects a feature part of a subject, a monitor that displays a subject image, a detection unit that detects an operation state of the monitor, and an operation of the monitor And a control unit that controls the operation of the characteristic part detection unit according to the state.

請求項2に記載の発明では、請求項1に記載のデジタルカメラにおいて、前記制御部は、前記モニタの動作状態に応じて前記特徴部位の検出を禁止する構成とした。   According to a second aspect of the present invention, in the digital camera according to the first aspect, the control unit is configured to prohibit the detection of the characteristic portion according to the operating state of the monitor.

請求項3に記載の発明では、請求項2に記載のデジタルカメラにおいて、前記制御部は、前記モニタが動作していないときに前記特徴部位の検出を禁止する構成とした。   According to a third aspect of the present invention, in the digital camera according to the second aspect, the control unit prohibits the detection of the characteristic portion when the monitor is not operating.

請求項4に記載の発明では、請求項1に記載のデジタルカメラにおいて、被写界の所定エリアでピントが合うように調整するピント調整部を備え、前記ピント調整部は、前記特徴部位検出部が検出した特徴部位に基づくエリアでピントが合うように調整する構成とした。   According to a fourth aspect of the present invention, in the digital camera according to the first aspect, the digital camera includes a focus adjustment unit that adjusts the focus in a predetermined area of the object scene, and the focus adjustment unit includes the feature part detection unit. The adjustment is made so that the focus is adjusted in the area based on the characteristic part detected by the camera.

請求項5に記載の発明では、請求項4に記載のデジタルカメラにおいて、前記ピント調整部は、前記モニタの動作状態に応じて予め決められた特定エリアでピントが合うように調整する構成とした。   According to a fifth aspect of the present invention, in the digital camera according to the fourth aspect, the focus adjustment unit is configured to adjust so that the focus is in a specific area determined in advance according to the operating state of the monitor. .

請求項6に記載の発明では、請求項5に記載のデジタルカメラにおいて、前記ピント調整部は、前記モニタの動作状態に応じて被写界の中央部のエリアでピントが合うように調整する構成とした。   According to a sixth aspect of the present invention, in the digital camera according to the fifth aspect, the focus adjustment unit is configured to adjust the focus in the central area of the object scene according to the operating state of the monitor. It was.

請求項7に記載の発明では、デジタルカメラにおいて、被写体の特徴部位を検出する特徴部位検出部と、被写体像を表示するモニタと、前記特徴部位検出部の動作設定を検出する検出部と、前記特徴部位検出部の動作設定に応じて前記モニタの動作を制御する制御部とを備えた構成とした。   According to the seventh aspect of the present invention, in the digital camera, a feature part detection unit that detects a feature part of a subject, a monitor that displays a subject image, a detection unit that detects an operation setting of the feature part detection unit, And a control unit that controls the operation of the monitor according to the operation setting of the characteristic part detection unit.

請求項8に記載の発明では、請求項7に記載のデジタルカメラにおいて、前記制御部は、前記特徴部位検出が動作するように設定されているときは前記モニタを動作状態にする
構成とした。
According to an eighth aspect of the present invention, in the digital camera according to the seventh aspect, the control unit is configured to place the monitor in an operating state when the characteristic part detection is set to operate.

モニタの動作状態により特徴部位検出の動作を制御することで、誤った部位を特徴部位と検出してしまったことが確認されずに撮影されることを防ぐことができる。   By controlling the operation of detecting the characteristic part according to the operation state of the monitor, it is possible to prevent an image without being confirmed that an erroneous part has been detected as the characteristic part.

以下、図面を用いて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本発明の実施の形態によるデジタルカメラ1の構成について説明する。   First, the configuration of the digital camera 1 according to the embodiment of the present invention will be described.

図1は、本発明の実施の形態によるデジタルカメラ1の外観図である。図1において、デジタルカメラ1は、シャッターボタン101、十字キー102、モニタ103、決定ボタン104を備える。   FIG. 1 is an external view of a digital camera 1 according to an embodiment of the present invention. In FIG. 1, the digital camera 1 includes a shutter button 101, a cross key 102, a monitor 103, and an enter button 104.

シャッターボタン101は、半押し段階、全押し段階の2段階を検出可能なボタンである。シャッターボタン101は、使用者が撮影開始を指示するために操作される。十字キー102は、モニタ103上のカーソル等を移動させるために操作される。決定ボタン104は、十字キー102で選択された項目等を決定する時に操作される。また、決定ボタン104は、モニタ103の点灯状態、消灯状態を切り換えるときに操作される。   The shutter button 101 is a button that can detect two stages, a half-pressed stage and a fully-pressed stage. The shutter button 101 is operated for the user to instruct the start of shooting. The cross key 102 is operated to move a cursor or the like on the monitor 103. The decision button 104 is operated when the item selected with the cross key 102 is decided. The enter button 104 is operated to switch the monitor 103 between the on state and the off state.

図2は、本発明の実施の形態によるデジタルカメラ1の機能を示すブロック図である。図2において、デジタルカメラ1は、CPU111、顔検出部112、内蔵メモリ113、操作回路114、表示回路115、モニタ103、画像処理回路116、撮像素子117、ズームレンズ118、ズームドライバ119、フォーカスレンズ120、フォーカスドライバ121、絞り122、絞りドライバ123、メモリカードスロット124により構成される。当然、他にもデジタルカメラの機能を実現するための回路は存在するが本発明と関係が薄いので説明を省略する。   FIG. 2 is a block diagram showing functions of the digital camera 1 according to the embodiment of the present invention. In FIG. 2, the digital camera 1 includes a CPU 111, a face detection unit 112, a built-in memory 113, an operation circuit 114, a display circuit 115, a monitor 103, an image processing circuit 116, an image sensor 117, a zoom lens 118, a zoom driver 119, and a focus lens. 120, a focus driver 121, an aperture 122, an aperture driver 123, and a memory card slot 124. Of course, there are other circuits for realizing the functions of the digital camera, but they are not related to the present invention and will not be described.

CPU111は、デジタルカメラ1で実行される様々な機能を実現するためのプログラムを処理する回路である。CPU111は、CPU111内メモリ、内蔵メモリ113に記憶されたプログラムを実行し、デジタルカメラ1内の様々な回路を制御する。顔検出部112は、撮像素子117で撮像した画像データの特徴部分を抽出して被写体の顔エリア、顔の大きさ等を検出する。説明のため顔検出部112という機能ブロックで記載したが、本実施の形態では、顔検出プログラムをCPU111で実行することによるソフトウェアにて顔検出機能を実現する。ハードウェア回路を組み立てて実現することも可能である。   The CPU 111 is a circuit that processes programs for realizing various functions executed by the digital camera 1. The CPU 111 executes programs stored in the memory in the CPU 111 and the built-in memory 113 and controls various circuits in the digital camera 1. The face detection unit 112 extracts a feature portion of image data captured by the image sensor 117 and detects a face area, a face size, and the like of the subject. For the sake of explanation, the functional block of the face detection unit 112 is described, but in the present embodiment, the face detection function is realized by software obtained by executing the face detection program by the CPU 111. It is also possible to assemble and implement hardware circuits.

内蔵メモリ113は、画像データ、制御プログラム等を記憶するためのメモリである。例えば、不揮発性の半導体メモリが用いられる。内蔵メモリ113には、被写体の顔エリアを検出するために実行される顔検出プログラムを記憶している。また、内臓メモリ113は、顔検出により得られた顔位置、顔の大きさ等の顔情報を記憶することができる。操作回路114は、デジタルカメラ1に設けられたレリーズボタン101、十字キー102、決定ボタン104等の操作ボタンの操作を検出し、CPU111に伝達する回路である。また、操作回路114は、レリーズボタン101の半押し操作、全押し操作を検出する。表示回路115は、モニタ103に表示する画面データを生成する回路である。モニタ103は、デジタルカメラ1の背面に設けられた液晶ディスプレイであり、表示回路115が生成した画面データを表示する。   The built-in memory 113 is a memory for storing image data, a control program, and the like. For example, a nonvolatile semiconductor memory is used. The built-in memory 113 stores a face detection program that is executed to detect the face area of the subject. The built-in memory 113 can store face information such as a face position and a face size obtained by face detection. The operation circuit 114 is a circuit that detects the operation of operation buttons such as the release button 101, the cross key 102, and the determination button 104 provided in the digital camera 1 and transmits them to the CPU 111. The operation circuit 114 detects a half-press operation and a full-press operation of the release button 101. The display circuit 115 is a circuit that generates screen data to be displayed on the monitor 103. The monitor 103 is a liquid crystal display provided on the back surface of the digital camera 1 and displays the screen data generated by the display circuit 115.

撮影レンズは、ズームレンズ118、フォーカスレンズ120等で構成され、被写体像
を撮像素子117の受光面上に結像させるための光学レンズである。ズームレンズ118は、撮影レンズを構成するレンズの中で、撮像素子117に結像する光学像を拡大、縮小を実現するためにモータにて移動されるレンズである。ズームドライバ119は、CPU111の指令によりモータを駆動し、ズームレンズ118を所定の位置に移動させるための回路である。フォーカスレンズ120は、撮影レンズを構成するレンズの中で、フォーカスを合わせるためにモータにて移動されるレンズである。フォーカスドライバ121は、CPU111の指令によりモータを駆動し、フォーカスレンズ120を所定の位置に移動させるための回路である。
The photographing lens is composed of a zoom lens 118, a focus lens 120, and the like, and is an optical lens for forming a subject image on the light receiving surface of the image sensor 117. The zoom lens 118 is a lens that is moved by a motor to realize enlargement and reduction of an optical image formed on the image sensor 117 among lenses constituting the photographing lens. The zoom driver 119 is a circuit for driving a motor according to a command from the CPU 111 and moving the zoom lens 118 to a predetermined position. The focus lens 120 is a lens that is moved by a motor in order to adjust the focus among the lenses constituting the photographing lens. The focus driver 121 is a circuit for driving a motor according to a command from the CPU 111 and moving the focus lens 120 to a predetermined position.

絞り122は、撮像素子117に入射する被写界の光量を調節するためのものである。絞りドライバ123は、CPU111の指令によりモータを駆動し、絞り122の開閉状態を制御する回路である。撮像素子117は、撮影レンズを介して入力した光学像を電気画像信号に変換するCCD等により構成される素子である。画像処理回路116は、撮像素子117から出力された電気信号をアナログ/デジタル変換してデジタル信号を生成する。また、画像処理回路116は、デジタル変換されたデジタル信号に対して補間処理等を施して画像データを生成する。メモリカードスロット124は、メモリカードが挿入され、メモリカードに画像データ等のデータを書き込んだり、データを消去したりするためのスロットである。   The diaphragm 122 is for adjusting the amount of light of the object scene incident on the image sensor 117. The aperture driver 123 is a circuit that drives a motor in response to a command from the CPU 111 and controls the open / close state of the aperture 122. The imaging element 117 is an element configured by a CCD or the like that converts an optical image input via a photographing lens into an electric image signal. The image processing circuit 116 performs analog / digital conversion on the electrical signal output from the image sensor 117 to generate a digital signal. Further, the image processing circuit 116 performs interpolation processing or the like on the digital signal that has been digitally converted, and generates image data. The memory card slot 124 is a slot for inserting a memory card, writing data such as image data into the memory card, and erasing the data.

次に、本発明の実施の形態によるデジタルカメラ1における動作を説明する。   Next, the operation of the digital camera 1 according to the embodiment of the present invention will be described.

デジタルカメラ1で顔検出機能を使用するための設定操作について説明する。カメラの使用者は、主要被写体が人物である場合には、顔検出により得られた顔部分にピントを合わせたいと考える。デジタルカメラ1では、AFするエリアを決定する選択肢の1つとして顔検出による結果を用いる。したがって、デジタルカメラ1では、使用者が選択可能なAFエリアの選択項目の1つとして顔検出を備える。   A setting operation for using the face detection function in the digital camera 1 will be described. When the main subject is a person, the camera user wants to focus on the face portion obtained by the face detection. The digital camera 1 uses the result of face detection as one of the options for determining the area to be AF. Therefore, the digital camera 1 includes face detection as one of AF area selection items that can be selected by the user.

図3、図4は、デジタルカメラ1のモニタ103に表示されるフォーカスに関するメニュー画面を示す図である。   3 and 4 are diagrams showing menu screens related to the focus displayed on the monitor 103 of the digital camera 1.

図3は、メニュー画面の選択項目中の「AFエリア」を設定する場合に表示される画面を示す図である。選択項目「AFエリア」では、「オート」「マニュアル」「中央」「顔検出」のいずれから選択できる。「オート」が選択された場合には、全てのAFエリアを使用して、いずれかのAFエリアに重なる被写体のうち、デジタルカメラ1に最至近の被写体にピントを合わせるように制御する。「マニュアル」が選択された場合には、複数のAFエリアの中から、使用者が選択したAFエリアだけを使用してピントを合わせるように制御する。「中央」が選択された場合には、複数のAFエリアのうち中央部のAFエリアのみを使用してピント合わせを行わせるように制御する。また、「顔検出」が選択された場合には、検出した顔の中から一番近い顔部分にピントが合うように制御する。   FIG. 3 is a diagram showing a screen displayed when setting the “AF area” in the selection items of the menu screen. In the selection item “AF area”, any one of “auto”, “manual”, “center”, and “face detection” can be selected. When “Auto” is selected, control is performed using all the AF areas to focus on the subject closest to the digital camera 1 among the subjects overlapping any of the AF areas. When “Manual” is selected, control is performed so as to focus using only the AF area selected by the user from among a plurality of AF areas. When “center” is selected, control is performed so that focusing is performed using only the central AF area among the plurality of AF areas. When “Face detection” is selected, control is performed so that the closest face portion among the detected faces is in focus.

図4は、メニュー画面の選択項目中の「AFモード」を設定する場合に表示される画面を示す図である。選択項目「AFモード」では、「常時AF」と「シングルAF」が選択できるが、「顔検出」が選択された場合には自動的に「常時AF」に切り換えられる。「常時AF」が選択された場合には、シャッターボタン101の操作に関係なく、AFによるピント合わせを繰り返し、シャッターボタン101の半押しでAFロックを行うよう制御する。「シングルAF」が選択された場合には、シャッターボタン101が半押しされている間のみAFによるピント合わせを行い、ピントが合うとAFロックを行うように制御する。   FIG. 4 is a diagram showing a screen displayed when “AF mode” in the selection items of the menu screen is set. In the selection item “AF mode”, “always AF” and “single AF” can be selected, but when “face detection” is selected, the mode is automatically switched to “always AF”. When “always AF” is selected, regardless of the operation of the shutter button 101, focusing by AF is repeated, and the AF lock is performed by half-pressing the shutter button 101. When “single AF” is selected, control is performed so that AF is focused only while the shutter button 101 is half-pressed, and AF lock is performed when focus is achieved.

上記メニュー画面における選択、決定は、十字キー102と決定ボタン104とを使用
者が操作することにより行うことができる。
Selection and determination on the menu screen can be performed by the user operating the cross key 102 and the determination button 104.

続いて、本発明の実施の形態によるデジタルカメラ1における顔検出動作を説明する。   Next, the face detection operation in the digital camera 1 according to the embodiment of the present invention will be described.

デジタルカメラ1は、図3に示すメニュー画面で「顔検出」が選択されている状態で静止画像撮影を可能とする静止画像撮影モードに切り換えられることで顔検出制御を実行する。デジタルカメラ1では、撮影する被写体像を確認するためにモニタ103に表示する、撮像素子117により撮像された動画像(スルー画像)を利用して顔検出を行う。また、デジタルカメラ1は、顔検出を実行している時には、顔検出を実行していないときに比べてスルー画像の輝度を上げるように制御する。スルー画像の輝度を上げることにより顔の検出をし易くすることができる。   The digital camera 1 executes face detection control by switching to a still image shooting mode that enables still image shooting in a state where “face detection” is selected on the menu screen shown in FIG. In the digital camera 1, face detection is performed using a moving image (through image) captured by the image sensor 117 displayed on the monitor 103 in order to confirm a subject image to be captured. Further, the digital camera 1 performs control so that the brightness of the through image is increased when face detection is performed, compared to when face detection is not performed. The face can be easily detected by increasing the brightness of the through image.

また、デジタルカメラ1では、シャッターボタン101が半押し操作されるまで、スルー画像を用いて繰り返し顔検出を実行する。そのとき、顔が検出できない場合には、中央エリアAF、マルチエリアAFを実行して被写体にピントを合わせ顔検出を補助する。   Further, the digital camera 1 repeatedly performs face detection using the through image until the shutter button 101 is half-pressed. At that time, if a face cannot be detected, center area AF and multi-area AF are executed to focus on the subject and assist face detection.

また、デジタルカメラ1は、シャッターボタン101が半押し操作されるまで顔検出結果である顔位置、顔の大きさ等の顔検出情報の最近1回分を上書きしながら繰り返し内蔵メモリ113に記憶する。これにより、半押し操作されたときに顔検出できなくても、内蔵メモリ113に記憶されている前回の検出結果を読出して利用することができる。また、半押し操作時に顔検出情報が得られていない場合には、中央エリア等の他のエリアを用いたAFを強制的に実行する。   Further, the digital camera 1 repeatedly stores the face detection information such as the face position and the face size as face detection results in the built-in memory 113 while overwriting the latest one time until the shutter button 101 is half-pressed. Thereby, even if the face cannot be detected when the half-press operation is performed, the previous detection result stored in the built-in memory 113 can be read and used. If face detection information is not obtained during the half-press operation, AF using another area such as the central area is forcibly executed.

以下にフローチャート図を用いて顔検出による撮影制御を具体的に説明する。   Hereinafter, photographing control by face detection will be specifically described with reference to a flowchart.

図5は、CPU111で実行される制御を示すフローチャート図である。図5に示すフローは、図3に示すメニュー画面で「顔検出」が選択され、静止画撮影モードに設定されることでスタートする。   FIG. 5 is a flowchart showing the control executed by the CPU 111. The flow shown in FIG. 5 starts when “Face Detection” is selected on the menu screen shown in FIG. 3 and the still image shooting mode is set.

先ず、ステップS101は、モニタ103が点灯状態であるか検出する。点灯状態である場合にはステップS102に進み、点灯状態でない場合にはステップS118に進む。ここでは、モニタ103が点灯状態にない場合には、使用者は顔検出結果を確認できないため、顔を誤検出している可能性がある。デジタルカメラ1では、使用者によって顔検出結果を確認できない状態では顔検出によるAFエリア設定を無効にする。デジタルカメラ1では、モニタ103が点灯状態でない場合にはスルー画像を出力しないように制御して顔検出を行わない。   First, in step S101, it is detected whether the monitor 103 is in a lighting state. When it is in the lighting state, the process proceeds to step S102, and when it is not in the lighting state, the process proceeds to step S118. Here, when the monitor 103 is not in the lit state, the user cannot confirm the face detection result, so there is a possibility that the face is erroneously detected. In the digital camera 1, the AF area setting by face detection is invalidated when the face detection result cannot be confirmed by the user. In the digital camera 1, when the monitor 103 is not in the lighting state, the face detection is not performed by controlling so as not to output the through image.

そして、ステップS102では、撮像素子117で撮像した画像を用いて被写界輝度を測光する。続いて、ステップS103では、測光した被写界輝度に基づいて輝度調整を実行して、スルー画像をモニタ103に表示する。また、被写界深度を広くする処理を実行する。本ステップで実行される処理については、図8に示すフローチャート図を用いて後述する。   In step S102, the field luminance is measured using the image captured by the image sensor 117. Subsequently, in step S <b> 103, brightness adjustment is performed based on the photometric field brightness, and a through image is displayed on the monitor 103. In addition, processing for increasing the depth of field is executed. The process executed in this step will be described later with reference to the flowchart shown in FIG.

そして、ステップS104では、スルー画像を用いて顔検出を実行する。続いて、ステップS105では、顔を検出できたか判定する。顔を検出した場合にはステップS106に進み、顔を検出しない場合にはステップS108に進む。そして、ステップS106では、検出した顔の位置と顔の大きさによりエリアを設定し、そのエリアでAFを実行する。顔を検出した場合のモニタ103における表示例を図6に示す。続いて、ステップS107では、検出した顔情報を一時的に内蔵メモリ113に記憶する。ここで検出した顔情報を記憶しておくことで、最終的にAFエリアを決定する半押し操作時に顔を検出できな
かった場合に内蔵メモリ113に記憶された顔情報を利用してAFエリアを決定する。内蔵メモリ113に記憶した顔情報は、次の顔検出時には新たな顔情報で上書きされる。
In step S104, face detection is performed using the through image. Subsequently, in step S105, it is determined whether a face has been detected. If a face is detected, the process proceeds to step S106, and if no face is detected, the process proceeds to step S108. In step S106, an area is set based on the detected face position and face size, and AF is executed in the area. A display example on the monitor 103 when a face is detected is shown in FIG. Subsequently, in step S107, the detected face information is temporarily stored in the built-in memory 113. By storing the face information detected here, the face information stored in the built-in memory 113 is used to determine the AF area when a face cannot be detected during the half-press operation for finally determining the AF area. decide. The face information stored in the built-in memory 113 is overwritten with new face information when the next face is detected.

また、ステップS108では、中央エリアをAFエリアとしたAFを実行する。人物が被写界内にいるにも関わらず顔がボケ過ぎていて顔が検出できない可能性があるので、主要被写体のいる可能性の高い中央部の被写体にピントを合わせることにより、顔検出を補助する。そして、ステップS109では、顔が検出できたか再度判定する。顔を検出しない場合にはステップS110に進み、顔を検出した場合にはステップS106に進む。そして、ステップS110では、マルチエリアAFを実行する。ステップS108において中央エリアでのAFと同様、中央部以外に人物がいるときの顔を検出可能にする。   In step S108, AF with the central area as the AF area is executed. Even if a person is in the field, the face may be too blurry to detect the face, so focus detection is performed by focusing on the central subject where the main subject is likely to be. Assist. In step S109, it is determined again whether a face has been detected. If no face is detected, the process proceeds to step S110. If a face is detected, the process proceeds to step S106. In step S110, multi-area AF is executed. In step S108, as in AF in the central area, a face when a person is present in a region other than the central portion can be detected.

次に、ステップS111では、再び顔が検出できたか判定する。顔を検出しない場合にはステップS112に進み、顔を検出した場合にはステップS106に進む。そして、ステップS112では、シャッターボタン101が半押し操作されたか検出する。半押し操作されたことを検出した場合にはステップS114に進み、半押し操作を検出しない場合にはステップS113に進む。ステップS113では、内蔵メモリ113に記憶された顔情報を消去して、ステップS101に戻る。   Next, in step S111, it is determined whether the face has been detected again. If no face is detected, the process proceeds to step S112. If a face is detected, the process proceeds to step S106. In step S112, it is detected whether the shutter button 101 is half-pressed. If it is detected that the half-press operation has been performed, the process proceeds to step S114. If the half-press operation is not detected, the process proceeds to step S113. In step S113, the face information stored in the built-in memory 113 is deleted, and the process returns to step S101.

また、ステップS114では、最終的なAFエリアとする顔を特定するため、顔が検出できたか判定する。顔を検出した場合にはステップS115に進み、顔を検出しない場合にはステップS116に進む。そして、ステップS115では、検出した顔の位置、大きさにより設定されたエリアを最終的なAFエリアとして設定し、AF制御を実行する。ここでのモニタ103における表示例を図7に示す。また、ステップS116では、ステップS107で記憶された顔情報がメモリ内に存在するか検出する。存在する場合にはステップS117に進み、存在しない場合にはステップS118に進む。   In step S114, it is determined whether a face has been detected in order to identify the face to be the final AF area. If a face is detected, the process proceeds to step S115, and if no face is detected, the process proceeds to step S116. In step S115, an area set according to the detected face position and size is set as the final AF area, and AF control is executed. A display example on the monitor 103 is shown in FIG. In step S116, it is detected whether the face information stored in step S107 exists in the memory. When it exists, it progresses to step S117, and when it does not exist, it progresses to step S118.

そして、ステップS117では、記憶された顔情報に基づくエリアをAFエリアとして設定してAF制御を実行する。これにより半押し操作時に顔を検出できなかった場合でも時間差の少ない直近に検出された顔エリアをAFエリアとして使用することでほぼ間違えなく顔部分にピントを合わせることができる。特に、シャッターボタン101を一気に全押しまで押し込む一気押し操作にも対応できる。また、ステップS118では、中央エリアをAFエリアとしたAF制御を実行する。これにより、顔を検出できなかった場合に、自動的に主要被写体が存在する可能性の高いエリアである中央エリアをAFエリアとして使用することで、主要被写体にピントが合う可能性が高い。また、メニュー画面に戻ってAFエリアの設定をしなおす必要をなくしたことにより、シャッタチャンスを逃すこともない。   In step S117, an area based on the stored face information is set as an AF area, and AF control is executed. As a result, even when a face cannot be detected during a half-press operation, the most recently detected face area with a small time difference can be used as the AF area, so that the face can be focused almost without error. In particular, it is possible to cope with a single press operation of pressing the shutter button 101 all the way down. In step S118, AF control with the central area as the AF area is executed. As a result, when the face cannot be detected, the central area, which is an area where the main subject is likely to exist automatically, is automatically used as the AF area, so that the main subject is likely to be focused. Further, since it is not necessary to return to the menu screen and reset the AF area, a photo opportunity is not missed.

そして、ステップS119では、シャッターボタン101が全押し操作されたか検出する。全押し操作された場合にはステップS120に進み、全押し操作されない場合にはステップS121に進む。ステップS120では、撮影、記録処理を実行する。また、ステップS121では、シャッターボタン101が半押し操作されているか検出し、半押し操作されている場合にはステップS119に戻り、半押し操作されていない場合にはステップS101に戻る。   In step S119, it is detected whether the shutter button 101 has been fully pressed. If the full press operation has been performed, the process proceeds to step S120, and if the full press operation has not been performed, the process proceeds to step S121. In step S120, shooting and recording processing is executed. In step S121, it is detected whether the shutter button 101 is half-pressed. If the shutter button 101 is half-pressed, the process returns to step S119. If the shutter button 101 is not half-pressed, the process returns to step S101.

図6、図7は、デジタルカメラ1のモニタ103に表示される顔検出制御時の表示例を示す図である。図6、図7を用いて顔検出制御時のモニタ表示を説明する。シャッターボタン101の半押し操作前の表示例を図6に、判押し操作後の表例を図7に示す。図6、図7に示すように、検出した顔の位置と大きさによりAFエリアとして設定した枠をスルー画像上に重ねて表示する。また、複数の顔が検出された場合にはそれぞれに枠が表示される。半押し操作がなされると、半押し操作時点で検出された一番大きいまたは最至近の
顔の枠が黄色枠(図6の細線枠)から赤色枠(図7の太線枠)に切り換えられる。図7における赤色枠で表示されたエリアが全押し操作時のAFエリアに設定される。
6 and 7 are diagrams showing display examples at the time of face detection control displayed on the monitor 103 of the digital camera 1. The monitor display during face detection control will be described with reference to FIGS. A display example before the half-pressing operation of the shutter button 101 is shown in FIG. 6, and a table example after the full-pressing operation is shown in FIG. As shown in FIGS. 6 and 7, a frame set as an AF area according to the detected position and size of the face is displayed over the through image. When a plurality of faces are detected, a frame is displayed for each face. When a half-press operation is performed, the largest or closest face frame detected at the time of the half-press operation is switched from a yellow frame (thin line frame in FIG. 6) to a red frame (thick line frame in FIG. 7). The area indicated by the red frame in FIG. 7 is set as the AF area at the time of the full press operation.

次に、図5のステップS103で実行される輝度調整処理について説明する。   Next, the brightness adjustment process executed in step S103 in FIG. 5 will be described.

ここでの処理は、顔部分を検出する精度を高めることを目的とする。顔を検出するための顔検出プログラムの検出アルゴリズムにより異なるが、検出に用いる画像の輝度を顔検出プログラムにとって顔検出しやすい輝度に調整するように制御する。本実施の形態のデジタルカメラ1では、輝度を通常撮影時より上げたほうが顔検出しやすい顔検出プログラムを用いる例を示す。   The purpose of this processing is to improve the accuracy of detecting the face portion. Although it differs depending on the detection algorithm of the face detection program for detecting the face, control is performed so that the brightness of the image used for detection is adjusted to a brightness that is easy for the face detection program to detect the face. In the digital camera 1 of the present embodiment, an example is shown in which a face detection program that makes it easier to detect a face when the brightness is increased than during normal shooting is shown.

また、被写界深度が広い方が顔検出できる可能性が増える。したがって、通常のスルー画像に比べて被写界深度を広くするように制御する。顔検出が選択されているときには、できるだけ絞りを絞ったり、ズームを広角側に移動したりする動作を実行する。当然、所定の被写界深度以上に広くする必要はなく、顔検出ができない場合に徐々に広くするように制御してもよい。   In addition, the possibility that a face can be detected increases when the depth of field is wider. Therefore, the depth of field is controlled to be wider than that of a normal through image. When face detection is selected, an operation of reducing the aperture as much as possible or moving the zoom to the wide angle side is executed. Of course, it is not necessary to widen the depth of field more than a predetermined depth of field, and when the face cannot be detected, the width may be gradually increased.

図8を用いて具体的な制御を説明する。図8は、図5のステップS103で実行される制御を示すフローチャート図である。   Specific control will be described with reference to FIG. FIG. 8 is a flowchart showing the control executed in step S103 of FIG.

まず、ステップS301では、通常のスルー画像時の適正輝度設定より輝度設定を明るめにするように設定する。続いて、ステップS302では、所定の被写界深度になるように絞り122を駆動する。次に、ステップS303では、現在の絞り122の状態で輝度を確保できているか判定する。確保できている場合には本フローを終了し、確保できていない場合にはステップS304に進む。そして、ステップS304では、画像処理回路116によりスルー画像の感度をアップする処理を施す。続いて、ステップS305では、輝度を確保できているか再度判定する。確保できている場合には本フローを終了し、確保できていない場合にはステップS306に進む。   First, in step S301, the brightness setting is set to be brighter than the appropriate brightness setting for a normal through image. Subsequently, in step S302, the diaphragm 122 is driven so as to have a predetermined depth of field. Next, in step S303, it is determined whether the brightness can be secured with the current state of the aperture 122. If it has been secured, this flow is terminated, and if it has not been secured, the process proceeds to step S304. In step S304, the image processing circuit 116 performs processing for increasing the sensitivity of the through image. Subsequently, in step S305, it is determined again whether the luminance is secured. If it has been secured, this flow is terminated, and if it has not been secured, the process proceeds to step S306.

そして、ステップS306では、ズームレンズ118がズームされている状態であるか否かを判定する。ズームされている状態であればステップS307に進み、ズームされている状態でなければステップ309に進む。そして、ステップS307では、ズームレンズ118を広角側に移動する。続いて、ステップS308では、所定の深度および輝度が確保されているか判定する。確保されている場合には本フローを終了し、確保されていない場合にはステップS309に進む。そして、ステップS309では、絞り122を開放側に駆動し、輝度を確保する。   In step S306, it is determined whether or not the zoom lens 118 is in a zoomed state. If it is zoomed, the process proceeds to step S307, and if it is not zoomed, the process proceeds to step 309. In step S307, the zoom lens 118 is moved to the wide angle side. Subsequently, in step S308, it is determined whether a predetermined depth and luminance are secured. If it has been secured, this flow ends. If it has not been secured, the process proceeds to step S309. In step S309, the diaphragm 122 is driven to the open side to ensure brightness.

次に、デジタルカメラ1で実行される顔検出制御の別の実施の形態を説明する。   Next, another embodiment of face detection control executed by the digital camera 1 will be described.

図5に示した制御では、顔検出できなかった場合に中央エリア、マルチエリアを用いてAFを実行し、顔検出の補助を行う例を示した。   In the control shown in FIG. 5, an example is shown in which AF is performed using the center area and the multi-area when face detection cannot be performed to assist face detection.

本実施の形態での制御では、顔が検出されなかった場合に、AFを実行するのではなくフォーカスレンズ120を予め決められた位置に移動させる。例えば、まず、最至近側にフォーカスレンズ120を移動する。至近の顔を優先するためである。そして、顔が検出されるまで至近側からフォーカスレンズ120を所定の移動量(移動ステップ)毎移動させ、顔を検出したらレンズ駆動を停止する。   In the control in the present embodiment, when a face is not detected, AF is not performed but the focus lens 120 is moved to a predetermined position. For example, first, the focus lens 120 is moved to the closest side. This is to give priority to the closest face. Then, until the face is detected, the focus lens 120 is moved from the closest side by a predetermined movement amount (movement step), and when the face is detected, the lens driving is stopped.

また、フォーカスレンズ120の移動ステップは、マニュアルフォーカス時に移動可能な最小移動ステップと同じ移動量にする。   The moving step of the focus lens 120 is set to the same moving amount as the minimum moving step that can be moved during manual focusing.

以下に、図9を用いて本実施の形態のデジタルカメラ1における制御例を具体的に説明する。図9は、CPU111で実行される制御を示すフローチャート図である。図9に示すフローは、図3に示すメニュー画面で「顔検出」が選択され、静止画撮影モードに設定されることでスタートする。   Hereinafter, an example of control in the digital camera 1 of the present embodiment will be specifically described with reference to FIG. FIG. 9 is a flowchart showing the control executed by the CPU 111. The flow shown in FIG. 9 starts when “FACE DETECTION” is selected on the menu screen shown in FIG. 3 and the still image shooting mode is set.

先ず、ステップS201は、モニタ103が点灯状態であるか検出する。点灯状態である場合にはステップS203に進み、点灯状態でない場合にはステップS202に進む。そして、ステップS202では、モニタ103が点灯状態にない場合には、使用者は顔検出結果を確認できないため、強制的にモニタ103を点灯する。   First, in step S201, it is detected whether the monitor 103 is in a lighting state. When it is in the lighting state, the process proceeds to step S203, and when it is not in the lighting state, the process proceeds to step S202. In step S202, if the monitor 103 is not in the lighting state, the user cannot confirm the face detection result, and thus the monitor 103 is forcibly turned on.

そして、ステップS203では、撮像素子117で撮像した画像を用いて被写界輝度を測光する。続いて、ステップS204では、測光した被写界輝度に基づいて輝度調整を実行して、スルー画像をモニタ103に表示する。また、被写界深度を広くする処理を実行する。本ステップで実行される処理については、図8に示すフローチャート図を用いて説明した。   In step S203, the field luminance is measured using an image captured by the image sensor 117. Subsequently, in step S <b> 204, brightness adjustment is performed based on the photometric field brightness, and a through image is displayed on the monitor 103. In addition, processing for increasing the depth of field is executed. The processing executed in this step has been described with reference to the flowchart shown in FIG.

そして、ステップS205では、スルー画像を用いて顔検出を実行する。続いて、ステップS206では、顔を検出できたか判定する。顔を検出した場合にはステップS211に進み、顔を検出しない場合にはステップS207に進む。そして、ステップS207では、フォーカスレンズ120を至近側に移動させる。次に、ステップS208では、顔が検出できたか再度判定する。顔を検出した場合にはステップS211に進み、顔を検出しない場合にはステップS209に進む。そして、ステップS209では、所定の移動ステップでフォーカスレンズ120を移動させる。続いて、ステップS210では、再度、顔が検出できたか判定する。顔を検出した場合にはステップS211に進み、顔を検出しない場合にはステップS209に戻る。   In step S205, face detection is performed using the through image. In step S206, it is determined whether a face has been detected. If a face is detected, the process proceeds to step S211, and if no face is detected, the process proceeds to step S207. In step S207, the focus lens 120 is moved to the closest side. Next, in step S208, it is determined again whether a face has been detected. If a face is detected, the process proceeds to step S211, and if no face is detected, the process proceeds to step S209. In step S209, the focus lens 120 is moved in a predetermined movement step. Subsequently, in step S210, it is determined again whether a face has been detected. If a face is detected, the process proceeds to step S211. If no face is detected, the process returns to step S209.

そして、ステップS211では、検出した顔の位置と顔の大きさによりエリアを設定し、そのエリアでAFを実行する。顔を検出した場合のモニタ103における表示例を図6に示す。続いて、ステップS212では、検出した顔情報を一時的に内蔵メモリ113に記憶する。ここで検出した顔情報を記憶しておくことで、最終的にAFエリアを決定する半押し操作時に顔を検出できなかった場合に内蔵メモリ113に記憶された顔情報を利用してAFエリアを決定する。内蔵メモリ113に記憶した顔情報は、次の顔検出時には新たな顔情報で上書きされる。   In step S211, an area is set according to the detected face position and face size, and AF is executed in the area. A display example on the monitor 103 when a face is detected is shown in FIG. In step S212, the detected face information is temporarily stored in the built-in memory 113. By storing the face information detected here, the face information stored in the built-in memory 113 is used to determine the AF area when a face cannot be detected during the half-press operation for finally determining the AF area. decide. The face information stored in the built-in memory 113 is overwritten with new face information when the next face is detected.

そして、ステップS213では、シャッターボタン101が半押し操作されたか検出する。半押し操作されたことを検出した場合にはステップS215に進み、半押し操作を検出しない場合にはステップS214に進む。ステップS214では、内蔵メモリ113に記憶された顔情報を消去して、ステップS201に戻る。   In step S213, it is detected whether the shutter button 101 has been pressed halfway. If it is detected that the half-press operation has been performed, the process proceeds to step S215. If the half-press operation is not detected, the process proceeds to step S214. In step S214, the face information stored in the built-in memory 113 is deleted, and the process returns to step S201.

また、ステップS215では、最終的なAFエリアとする顔を特定するため、顔が検出できたか判定する。顔を検出した場合にはステップS216に進み、顔を検出しない場合にはステップS217に進む。そして、ステップS216では、検出した顔の位置、大きさにより設定されたエリアを最終的なAFエリアとして設定し、AF制御を実行する。ここでのモニタ103における表示例を図7に示す。また、ステップS217では、ステップS212で記憶された顔情報がメモリ内に存在するか検出する。存在する場合にはステップS218に進み、存在しない場合にはステップS219に進む。   In step S215, it is determined whether a face has been detected in order to identify the face to be the final AF area. If a face is detected, the process proceeds to step S216. If no face is detected, the process proceeds to step S217. In step S216, an area set according to the detected face position and size is set as a final AF area, and AF control is executed. A display example on the monitor 103 is shown in FIG. In step S217, it is detected whether the face information stored in step S212 exists in the memory. When it exists, it progresses to step S218, and when it does not exist, it progresses to step S219.

そして、ステップS218では、記憶された顔情報に基づくエリアをAFエリアとして設定してAF制御を実行する。これにより半押し操作時に顔を検出できなかった場合でも
時間差の少ない直近に検出された顔エリアをAFエリアとして使用することでほぼ間違えなく顔部分にピントを合わせることができる。特に、シャッターボタン101を一気に全押しまで押し込む一気押し操作にも対応できる。また、ステップS219では、中央エリアをAFエリアとしたAF制御を実行する。これにより、顔を検出できなかった場合に、自動的に主要被写体が存在する可能性の高いエリアである中央エリアをAFエリアとして使用することで、主要被写体にピントが合う可能性が高い。また、メニュー画面に戻ってAFエリアの設定をしなおす必要をなくしたことにより、シャッタチャンスを逃すこともない。
In step S218, an area based on the stored face information is set as an AF area, and AF control is executed. Thus, even when the face cannot be detected during the half-press operation, the face area detected most recently with a small time difference can be used as the AF area, so that the face can be focused almost without mistake. In particular, it is possible to cope with a single press operation in which the shutter button 101 is pressed all the way down. In step S219, AF control using the center area as the AF area is executed. Accordingly, when the face cannot be detected, the central area, which is an area where the main subject is likely to exist automatically, is used as the AF area, so that the main subject is likely to be focused. Further, since it is not necessary to return to the menu screen and reset the AF area, a photo opportunity is not missed.

そして、ステップS220では、シャッターボタン101が全押し操作されたか検出する。全押し操作された場合にはステップS221に進み、全押し操作されない場合にはステップS222に進む。ステップS221では、撮影、記録処理を実行する。また、ステップS222では、シャッターボタン101が半押し操作されているか検出し、半押し操作されている場合にはステップS220に戻り、半押し操作されていない場合にはステップS201に戻る。   In step S220, it is detected whether the shutter button 101 is fully pressed. If the full press operation has been performed, the process proceeds to step S221. If the full press operation has not been performed, the process proceeds to step S222. In step S221, shooting and recording processing is executed. In step S222, it is detected whether the shutter button 101 is half-pressed. If the shutter button 101 is half-pressed, the process returns to step S220. If the shutter button 101 is not half-pressed, the process returns to step S201.

以上説明した上記の制御を実行することにより、顔検出の精度を高めることができる。   By executing the above-described control described above, the accuracy of face detection can be improved.

図1は、本発明の実施の形態によるデジタルカメラ1の外観図である。FIG. 1 is an external view of a digital camera 1 according to an embodiment of the present invention. 図2は、本発明の実施の形態によるデジタルカメラ1の機能を示すブロック図である。FIG. 2 is a block diagram showing functions of the digital camera 1 according to the embodiment of the present invention. 図3は、デジタルカメラ1のモニタ103に表示されるフォーカスに関するメニュー画面を示す図である。FIG. 3 is a diagram showing a menu screen related to focus displayed on the monitor 103 of the digital camera 1. 図4は、デジタルカメラ1のモニタ103に表示されるフォーカスに関するメニュー画面を示す図である。FIG. 4 is a diagram showing a menu screen related to focus displayed on the monitor 103 of the digital camera 1. 図5は、CPU111で実行される制御を示すフローチャート図である。FIG. 5 is a flowchart showing the control executed by the CPU 111. 図6は、デジタルカメラ1のモニタ103に表示される顔検出制御時の表示例を示す図である。FIG. 6 is a diagram illustrating a display example at the time of face detection control displayed on the monitor 103 of the digital camera 1. 図7は、デジタルカメラ1のモニタ103に表示される顔検出制御時の表示例を示す図である。FIG. 7 is a diagram illustrating a display example during face detection control displayed on the monitor 103 of the digital camera 1. 図8は、図5のステップS103で実行される制御を示すフローチャート図である。FIG. 8 is a flowchart showing the control executed in step S103 of FIG. 図9は、CPU111で実行される制御を示すフローチャート図である。FIG. 9 is a flowchart showing the control executed by the CPU 111.

符号の説明Explanation of symbols

1・・・デジタルカメラ
101・・・シャッターボタン
102・・・十字キー
103・・・モニタ
104・・・決定ボタン
111・・・CPU
112・・・顔検出部
113・・・内蔵メモリ
114・・・操作回路
115・・・表示回路
116・・・画像処理回路
117・・・撮像素子
118・・・ズームレンズ
119・・・ズームドライバ
120・・・フォーカスレンズ
121・・・フォーカスドライバ
122・・・絞り
123・・・絞りドライバ
124・・・メモリカードスロット
DESCRIPTION OF SYMBOLS 1 ... Digital camera 101 ... Shutter button 102 ... Cross key 103 ... Monitor 104 ... Decision button 111 ... CPU
DESCRIPTION OF SYMBOLS 112 ... Face detection part 113 ... Built-in memory 114 ... Operation circuit 115 ... Display circuit 116 ... Image processing circuit 117 ... Image sensor 118 ... Zoom lens 119 ... Zoom driver 120 ... Focus lens 121 ... Focus driver 122 ... Aperture 123 ... Aperture driver 124 ... Memory card slot

Claims (8)

被写体の特徴部位を検出する特徴部位検出部と、
被写体像を表示するモニタと、
前記モニタの動作状態を検出する検出部と、
前記モニタの動作状態に応じて前記特徴部位検出部の動作を制御する制御部とを備えたことを特徴とするデジタルカメラ。
A feature part detector for detecting a feature part of the subject;
A monitor that displays the subject image;
A detection unit for detecting an operating state of the monitor;
A digital camera comprising: a control unit that controls an operation of the characteristic part detection unit according to an operation state of the monitor.
請求項1に記載のデジタルカメラにおいて、
前記制御部は、前記モニタの動作状態に応じて前記特徴部位の検出を禁止することを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The digital camera according to claim 1, wherein the control unit prohibits the detection of the characteristic part in accordance with an operating state of the monitor.
請求項2に記載のデジタルカメラにおいて、
前記制御部は、前記モニタが動作していないときに前記特徴部位の検出を禁止することを特徴とするデジタルカメラ。
The digital camera according to claim 2,
The digital camera according to claim 1, wherein the control unit prohibits the detection of the characteristic part when the monitor is not operating.
請求項1に記載のデジタルカメラにおいて、
被写界の所定エリアでピントが合うように調整するピント調整部を備え、
前記ピント調整部は、前記特徴部位検出部が検出した特徴部位に基づくエリアでピントが合うように調整することを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
It has a focus adjustment section that adjusts the focus so that it is in focus in a predetermined area of the scene.
The digital camera according to claim 1, wherein the focus adjustment unit adjusts the focus in an area based on the feature part detected by the feature part detection unit.
請求項4に記載のデジタルカメラにおいて、
前記ピント調整部は、前記モニタの動作状態に応じて予め決められた特定エリアでピントが合うように調整することを特徴とするデジタルカメラ。
The digital camera according to claim 4, wherein
The digital camera according to claim 1, wherein the focus adjustment unit adjusts the focus in a specific area determined in advance according to the operating state of the monitor.
請求項5に記載のデジタルカメラにおいて、
前記ピント調整部は、前記モニタの動作状態に応じて被写界の中央部のエリアでピントが合うように調整することを特徴とするデジタルカメラ。
The digital camera according to claim 5, wherein
The digital camera according to claim 1, wherein the focus adjustment unit adjusts the focus in the central area of the object scene according to the operating state of the monitor.
被写体の特徴部位を検出する特徴部位検出部と、
被写体像を表示するモニタと、
前記特徴部位検出部の動作設定を検出する検出部と、
前記特徴部位検出部の動作設定に応じて前記モニタの動作を制御する制御部とを備えたことを特徴とするデジタルカメラ。
A feature part detector for detecting a feature part of the subject;
A monitor that displays the subject image;
A detection unit for detecting an operation setting of the characteristic part detection unit;
A digital camera comprising: a control unit that controls the operation of the monitor in accordance with an operation setting of the characteristic part detection unit.
請求項7に記載のデジタルカメラにおいて、
前記制御部は、前記特徴部位検出が動作するように設定されているときは前記モニタを動作状態にすることを特徴とするデジタルカメラ。
The digital camera according to claim 7, wherein
The digital camera according to claim 1, wherein the control unit sets the monitor to an operating state when the characteristic part detection is set to operate.
JP2004209672A 2004-07-16 2004-07-16 Digital camera Active JP4475044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004209672A JP4475044B2 (en) 2004-07-16 2004-07-16 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004209672A JP4475044B2 (en) 2004-07-16 2004-07-16 Digital camera

Publications (2)

Publication Number Publication Date
JP2006033438A true JP2006033438A (en) 2006-02-02
JP4475044B2 JP4475044B2 (en) 2010-06-09

Family

ID=35899250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004209672A Active JP4475044B2 (en) 2004-07-16 2004-07-16 Digital camera

Country Status (1)

Country Link
JP (1) JP4475044B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008054177A (en) * 2006-08-28 2008-03-06 Fujifilm Corp Imaging apparatus
JP2009009072A (en) * 2006-07-25 2009-01-15 Hewlett-Packard Development Co Lp Dynamic focus zone for camera
JP2009044682A (en) * 2007-08-10 2009-02-26 Canon Inc Imaging apparatus and control method thereof
JP2010048994A (en) * 2008-08-21 2010-03-04 Hoya Corp Image pickup device
JP2012199986A (en) * 2012-05-31 2012-10-18 Canon Inc Imaging apparatus and control method thereof
JP2016167088A (en) * 2016-05-02 2016-09-15 キヤノン株式会社 Imaging device and control method of the same
JP2018097380A (en) * 2018-02-01 2018-06-21 キヤノン株式会社 Imaging device and control method of the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009072A (en) * 2006-07-25 2009-01-15 Hewlett-Packard Development Co Lp Dynamic focus zone for camera
JP2008054177A (en) * 2006-08-28 2008-03-06 Fujifilm Corp Imaging apparatus
JP2009044682A (en) * 2007-08-10 2009-02-26 Canon Inc Imaging apparatus and control method thereof
USRE46834E1 (en) 2007-08-10 2018-05-08 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor
JP2010048994A (en) * 2008-08-21 2010-03-04 Hoya Corp Image pickup device
JP2012199986A (en) * 2012-05-31 2012-10-18 Canon Inc Imaging apparatus and control method thereof
JP2016167088A (en) * 2016-05-02 2016-09-15 キヤノン株式会社 Imaging device and control method of the same
JP2018097380A (en) * 2018-02-01 2018-06-21 キヤノン株式会社 Imaging device and control method of the same

Also Published As

Publication number Publication date
JP4475044B2 (en) 2010-06-09

Similar Documents

Publication Publication Date Title
JP4581730B2 (en) Digital camera
JP4403903B2 (en) Digital camera
JP3541820B2 (en) Imaging device and imaging method
JP4582212B2 (en) Imaging apparatus and program
KR101120027B1 (en) Apparatus and method for processing on screen display when shutter is pressed half state in digital camera
US8194173B2 (en) Auto-focusing electronic camera that focuses on a characterized portion of an object
US7505679B2 (en) Image-taking apparatus
JPWO2009013850A1 (en) Imaging device
JP2007108412A (en) Autofocus device and its program
JP2009177328A (en) Imaging device
US10425573B2 (en) Automatic focus adjustment device and automatic focus adjustment control device
JP4442344B2 (en) Digital camera
JP5196768B2 (en) Imaging device
JP4475044B2 (en) Digital camera
JP2010113129A (en) Image tracking device, focusing device, and image capturing apparatus
JP2010028158A (en) Imaging apparatus
JP4931769B2 (en) Imaging apparatus and imaging control method
JP6465566B2 (en) Imaging apparatus and imaging method
JP2005223658A (en) Digital camera
JP2006235060A (en) Imaging apparatus
JP2006033439A (en) Digital camera
JP4725714B2 (en) Digital camera
JP2000039643A (en) Electronic image pickup device
JP2003295042A (en) Camera
JP5407538B2 (en) Camera and focus detection area display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070713

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080620

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100301

R150 Certificate of patent or registration of utility model

Ref document number: 4475044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250