JP2009077175A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2009077175A
JP2009077175A JP2007244435A JP2007244435A JP2009077175A JP 2009077175 A JP2009077175 A JP 2009077175A JP 2007244435 A JP2007244435 A JP 2007244435A JP 2007244435 A JP2007244435 A JP 2007244435A JP 2009077175 A JP2009077175 A JP 2009077175A
Authority
JP
Japan
Prior art keywords
area
image
photometric
feature
feature image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007244435A
Other languages
Japanese (ja)
Inventor
Ryo Sakachi
亮 坂地
Nobuhiko Ichii
伸彦 市居
Yurie Sakai
有里江 堺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007244435A priority Critical patent/JP2009077175A/en
Publication of JP2009077175A publication Critical patent/JP2009077175A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera capable of performing an appropriate exposure control even when a plurality of feature images are detected. <P>SOLUTION: The electronic camera is provided with: a feature image area setting means for setting a plurality of feature image areas on a field image based on positions of the plurality of feature images detected by a search means for searching the feature images included in the field image; a specified area determination means for determining at least one specified area from among the plurality of set feature image areas; a first photometric means for considering the determined specified area as a photometric area; a second photometric means for considering the feature image areas except the set specified area from among the set feature image areas as photometric areas; and an exposure calculation means for calculating exposure by making weighting of a photometric result obtained by the first photometric means larger in comparison with that of a photometric result obtained by the second photometric result. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、電子カメラに関し、特にたとえば人物の顔等、被写界像内の特定画像に注目して露出制御を行う電子カメラに関する。   The present invention relates to an electronic camera, and more particularly to an electronic camera that performs exposure control while paying attention to a specific image in a scene image, such as a human face.

電子カメラには、特定の被写体に対して焦点を合わせるオートフォーカスや、特定の被写体に応じて露出制御を実行する自動露出制御などの技術が搭載される。従来は、被写界像内で予め規定された特定の位置(例えば被写界像内の中央点)に存在する被写体に対してオートフォーカスや自動露出制御が実施されていた。しかし、ユーザのフレーミングの好みによっては、ユーザにとって注目したい被写体、即ちオートフォーカスや自動露出制御の対象としたい被写体が被写界像の中央に位置するとは限らない。この場合、ユーザは、注目したい被写体を被写界像内の特定の位置に来るように電子カメラを操作し、そこでオートフォーカスや自動露出制御を行った後に、好みに応じたフレーミングを実施しなければならず、このような処理を行うことは煩わしい作業であった。   The electronic camera is equipped with technologies such as autofocus for focusing on a specific subject and automatic exposure control for performing exposure control according to the specific subject. Conventionally, autofocus and automatic exposure control have been performed on a subject existing at a specific position (for example, a center point in the object scene image) defined in advance in the object scene image. However, depending on the user's framing preference, the subject that the user wants to pay attention to, that is, the subject that is the subject of autofocus or automatic exposure control, is not always located at the center of the object scene image. In this case, the user must operate the electronic camera so that the subject to be noticed is at a specific position in the object scene image, perform autofocus and automatic exposure control there, and then perform framing as desired. In other words, it was a troublesome work to perform such processing.

このような問題を解決する技術として、合焦させる対象や露出制御の対象を特定するために、予め撮像を実施する(以下、このような撮像を「予備撮像」と呼ぶ)技術がある。予備撮像を行う技術では、予備撮像において撮像された被写界像を用いて、合焦や露出制御の対象が特定される。   As a technique for solving such a problem, there is a technique in which imaging is performed in advance in order to specify an object to be focused or an exposure control target (hereinafter, such imaging is referred to as “preliminary imaging”). In the technique for performing preliminary imaging, an object for focusing or exposure control is specified using the object scene image captured in the preliminary imaging.

予備撮像を行う技術の具体的な例として、被写界像内の人物の位置/範囲に関わらず画像内の人物を適正露光とする技術がある(特許文献1参照)。
特開2003−107555号公報
As a specific example of the technique for performing preliminary imaging, there is a technique for appropriately exposing a person in an image regardless of the position / range of the person in the object scene image (see Patent Document 1).
JP 2003-107555 A


ところで、被写界像内において検出される特徴画像である人の顔の数が一つである場合には、無条件でこの顔に対して露出制御を行えば良かった。しかし、画像内において複数の人物の顔が検出された場合にどの様に露出制御を行うべきか、これまで十分に考慮されていなかった。

By the way, when the number of human faces, which is a feature image detected in the object scene image, is one, exposure control should be performed unconditionally on this face. However, how to perform exposure control when a plurality of human faces are detected in an image has not been sufficiently considered so far.

本発明では、このような問題を解決し、複数の特徴画像が検出された場合であっても適切な露出制御を行うことが可能な電子カメラを提供することを目的とする。   An object of the present invention is to provide an electronic camera capable of solving such a problem and performing appropriate exposure control even when a plurality of feature images are detected.


本発明は、電子カメラにおいて、被写界を捉える撮像面を有し、被写界像を生成する撮像手段、被写界像に含まれる特徴画像を探索する探索手段、探索手段によって検知された複数の特徴画像の位置に基づいて複数の特徴画像領域を被写界像上に設定する特徴画像領域設定手段、特徴画像領域設定手段によって設定された複数の特徴画像領域の中から少なくとも1つの指定領域を決定する指定領域決定手段、指定領域決定手段によって決定された指定領域を測光領域とする第1測光手段、特徴画像領域設定手段によって設定された特徴画像領域の内、指定領域を除いた特徴画像領域を測光領域とする第2測光手段、第1測光手段によって得られた測光結果を第2測光手段によって得られた測光結果に比して重み付けを大きくして露出量を算出する露出量算出手段、および露出量算出手段によって算出した露出量に基づき露出制御を行う露出制御手段を具えることを特徴とする。

The present invention is an electronic camera that has an imaging surface for capturing a scene and is detected by an imaging unit that generates a scene image, a search unit that searches for a feature image included in the scene image, and a search unit. Feature image area setting means for setting a plurality of feature image areas on the object scene image based on the positions of the plurality of feature images, and at least one designation from among the plurality of feature image areas set by the feature image area setting means A feature that excludes the designated region from the feature image region set by the designated region determination unit that determines the region, the first photometric unit that uses the designated region determined by the designated region determiner as the metering region, and the feature image region setting unit The exposure amount is calculated by increasing the weighting of the photometry result obtained by the second photometry means and the photometry result obtained by the second photometry means with the image area as the photometry area. Characterized in that it comprises an exposure control means for performing exposure control on the basis of the exposure amount calculated by that exposure amount calculating means, and exposure amount calculating means.

さらに、特徴画像領域設定手段は、探索手段によって検知された複数の特徴画像の位置と大きさに基づいて複数の特徴画像領域を被写界像上に設定することを特徴とする。   Further, the feature image area setting means sets a plurality of feature image areas on the object scene image based on the positions and sizes of the plurality of feature images detected by the search means.

さらに、特徴画像領域設定手段によって設定された領域を除いた被写界像上の領域を測光領域とする第3測光手段を具え、露出量算出手段は、第3測光手段によって得られた測光結果を、第1測光手段によって得られた測光結果と第2測光手段によって得られた測光結果を用いて算出した測光結果に比して重み付けを小さくして露出量を算出することを特徴とする。   Furthermore, it comprises a third photometry unit that uses a region on the object scene image excluding the region set by the feature image region setting unit as a photometry region, and the exposure amount calculation unit obtains the photometric result obtained by the third photometry unit. The exposure amount is calculated by reducing the weight compared to the photometry result calculated using the photometry result obtained by the first photometry means and the photometry result obtained by the second photometry means.

さらに、探索手段は人物の顔を特徴画像として探索することを特徴とする。   Further, the search means is characterized by searching for a person's face as a feature image.

さらに、指定領域決定手段は、特徴画像領域設定手段によって設定された複数の領域の中で被写界像の画角中心位置から最も近い位置にある特徴画像領域を指定領域に決定することを特徴とする。   Further, the designated region determining means determines the feature image region closest to the field angle center position of the object scene image as the designated region among the plurality of regions set by the feature image region setting means. And

さらに、指定領域決定手段によって決定された指定領域の被写界像に基づいて撮像手段の焦点距離を調整する焦点距離調整手段をさらに具えることを特徴とする。   Further, the image processing apparatus further includes a focal length adjusting unit that adjusts a focal length of the imaging unit based on the object scene image of the designated region determined by the designated region determining unit.

以上述べた本発明によれば、複数の特徴画像が検出された場合であっても適切な露出制御を行うことが可能な電子カメラを提供することができる。   According to the present invention described above, it is possible to provide an electronic camera capable of performing appropriate exposure control even when a plurality of feature images are detected.

本願発明の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、本発明の第1実施例であるディジタルカメラ10は、光学レンズ12を含む。被写界の光学像は、光学レンズ12を通してイメージセンサ14の撮像面14fに照射され、光電変換を施される。これによって、被写界を表す電荷つまり生画像信号が生成される。   Referring to FIG. 1, a digital camera 10 according to a first embodiment of the present invention includes an optical lens 12. The optical image of the object scene is irradiated onto the imaging surface 14f of the image sensor 14 through the optical lens 12 and subjected to photoelectric conversion. Thereby, a charge representing the object scene, that is, a raw image signal is generated.

電源が投入されると、CPU42は、スルー画像処理を実行するべく、プリ露光および間引き読み出しの繰り返しをTG/SG18に命令する。TG/SG18は、イメージセンサ14の撮像面14fのプリ露光と、これによって得られた電荷の間引き読み出しとを実行するべく、複数のタイミング信号をイメージセンサ14に与える。撮像面14fで生成された生画像信号は、1/30秒に1回の割合で発生する垂直同期信号Vsyncに応答して、ラスタ走査に従う順序で読み出される。   When the power is turned on, the CPU 42 instructs the TG / SG 18 to repeat pre-exposure and thinning-out reading in order to execute through image processing. The TG / SG 18 gives a plurality of timing signals to the image sensor 14 in order to execute pre-exposure of the imaging surface 14 f of the image sensor 14 and thinning-out readout of the charges obtained thereby. The raw image signal generated on the imaging surface 14f is read in the order according to the raster scanning in response to the vertical synchronization signal Vsync generated once every 1/30 seconds.

イメージセンサ14から出力された生画像信号は、CDS/AGC/AD回路16によって相関二重サンプリング、自動ゲイン調整およびA/D変換の一連の処理を施される。信号処理回路20は、CDS/AGC/AD回路16から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施し、YUV形式の画像データをメモリ制御回路26を通してSDRAM28の表示画像領域28aに書き込む。   The raw image signal output from the image sensor 14 is subjected to a series of processes of correlated double sampling, automatic gain adjustment, and A / D conversion by the CDS / AGC / AD circuit 16. The signal processing circuit 20 performs processing such as white balance adjustment, color separation, and YUV conversion on the raw image data output from the CDS / AGC / AD circuit 16, and displays the YUV format image data on the SDRAM 28 through the memory control circuit 26. Write to the image area 28a.

ビデオエンコーダ30は、表示画像領域28aに格納された画像データをメモリ制御回路26を通して1/30秒毎に読み出し、読み出された画像データをコンポジットビデオ信号に変換する。この結果、被写界を表すリアルタイム動画像(スルー画像)がLCDモニタ32に表示される。   The video encoder 30 reads the image data stored in the display image area 28a every 1/30 seconds through the memory control circuit 26, and converts the read image data into a composite video signal. As a result, a real-time moving image (through image) representing the scene is displayed on the LCD monitor 32.

AE/AF評価値作成回路24は、信号処理回路20から出力された画像データに基づいて、図2に示すように、撮像面14fを縦8横8の計64個に分割された小領域毎に、被写界の明るさを示す輝度評価値と被写界の合焦度を示すフォーカス評価値とを作成する。輝度評価値は、小領域に含まれるYUV形式の画像データのY(輝度値)を垂直同期信号Vsyncに同期して1/30秒毎に積算することによって作成され、垂直同期信号Vsyncに同期して順次更新される。輝度評価値は被写界の明るさを示すものであり、当該小さい領域を測光領域として得られる測光結果である。また、フォーカス評価値は、小領域に含まれるYUV形式の画像データのY(輝度値)の高周波成分を垂直同期信号Vsyncに同期して1/30秒毎に積算することによって作成され、垂直同期信号Vsyncに同期して順次更新される。作成された64個の輝度評価値およびフォーカス評価値は、CPU42に与えられる。   Based on the image data output from the signal processing circuit 20, the AE / AF evaluation value creation circuit 24, as shown in FIG. Then, a brightness evaluation value indicating the brightness of the object scene and a focus evaluation value indicating the degree of focus of the object field are created. The luminance evaluation value is created by accumulating Y (luminance value) of YUV format image data included in the small area every 1/30 seconds in synchronization with the vertical synchronization signal Vsync, and is synchronized with the vertical synchronization signal Vsync. Are updated sequentially. The luminance evaluation value indicates the brightness of the object scene, and is a photometric result obtained by using the small area as a photometric area. The focus evaluation value is generated by accumulating high-frequency components of Y (luminance value) of YUV format image data included in the small area every 1/30 seconds in synchronization with the vertical synchronization signal Vsync. It is sequentially updated in synchronization with the signal Vsync. The created 64 luminance evaluation values and focus evaluation values are given to the CPU.

キー入力装置46に設けられたシャッタボタン46Sが操作されていないとき、CPU42は、スルー画像用露出制御と合焦制御を実行する。TG/SG18に設定されたプリ露光時間は、AE/AF評価値作成回路24からの輝度評価値に基づいて制御される。これによって、スルー画像の明るさが適度に調整される。AE/AF評価値作成回路24からのフォーカス評価値に基づいた合焦制御、所謂画像信号の高周波成分が最大となるように光学レンズ12を設定する山登りオートフォーカス処理に基づき、光学レンズ12はドライバ44によって駆動される。なお、スルー画像用露出制御と合焦制御についての詳細な説明は割愛する。   When the shutter button 46S provided on the key input device 46 is not operated, the CPU 42 executes through image exposure control and focusing control. The pre-exposure time set in the TG / SG 18 is controlled based on the luminance evaluation value from the AE / AF evaluation value creation circuit 24. As a result, the brightness of the through image is appropriately adjusted. Based on focus control based on the focus evaluation value from the AE / AF evaluation value creating circuit 24, so-called hill-climbing autofocus processing for setting the optical lens 12 so that the high frequency component of the image signal is maximized, the optical lens 12 is a driver. 44. A detailed description of the through image exposure control and the focusing control is omitted.

顔検出処理によって顔情報が得られると、CPU42は、この顔情報によって定義されるキャラクタC1のOSD表示をキャラクタジェネレータ34に命令する。キャラクタジェネレータ34は、顔情報として得られた顔のサイズに基づいた大きさ有するキャラクタC1を顔情報として得られた位置に表示するべく、キャラクタデータをLCDモニタ32に与える。キャラクタC1は、図3に示すように3人の人物P1、P2、P3が入った被写界像であれば、顔検出の結果、図4に示す要領でスルー画像に多重表示される。   When the face information is obtained by the face detection process, the CPU 42 instructs the character generator 34 to display the OSD of the character C1 defined by the face information. The character generator 34 provides the character data to the LCD monitor 32 so as to display the character C1 having a size based on the face size obtained as the face information at the position obtained as the face information. If the character C1 is an object scene image including three persons P1, P2, and P3 as shown in FIG. 3, the result of face detection is multiplexed and displayed on the through image as shown in FIG.

なお、キャラクタC1の位置と大きさは、得られた顔情報を基に、撮像面14fを縦8横8の計64個に分割して形成された小領域の境界線に沿って設定され、その中に含まれる1つ又は複数の小領域を合わせたものが、当該顔情報に基づいて設定された特徴画像領域となる。   The position and size of the character C1 are set along the boundary line of the small area formed by dividing the imaging surface 14f into a total of 64 vertical and horizontal 8 based on the obtained face information. A combination of one or a plurality of small regions included therein is a feature image region set based on the face information.

シャッタボタン46Sが半押しされると、CPU42は、顔情報の検出結果によって異なる態様で露出制御および合焦制御を実行する。得られた顔情報が1つであれば当該顔が検出された顔の位置に設定された特徴画像領域が指定領域として決定され、複数の顔が検出されている場合は、画角中心位置から最も近い顔の位置に設定された特徴画像領域が指定領域として決定され、当該決定が行われたことを表示するべく、キャラクタデータをLCDモニタ32に与える。キャラクタC2は、図3に示すように3人の人物P1、P2、P3が入った被写界像であれば、画角中心位置から最も近い顔の位置は人物P2の顔の位置となり、図5に示す要領でスルー画像に多重表示される。当該指定領域は、後述するようにフォーカス評価値を得る領域をとなる。画角中心位置から最も近い顔の位置の決定は、SDRAM28の表示画像領域28aにおける顔画像の位置と画角中心からの距離を各顔画像毎に算出したものを比較することによって行う。なお、画角中心からの距離が等しい顔画像が複数存在する場合は、より大きな顔画像が検出されたことによって設定された特徴画像領域を優先して指定領域に決定する。   When the shutter button 46S is half-pressed, the CPU 42 performs exposure control and focus control in different manners depending on the detection result of face information. If the obtained face information is one, the feature image area set at the position of the face where the face is detected is determined as the designated area, and when a plurality of faces are detected, The feature image area set at the closest face position is determined as the designated area, and character data is given to the LCD monitor 32 to display that the determination has been made. If the character C2 is an object scene image including three persons P1, P2, and P3 as shown in FIG. 3, the position of the face closest to the center of the angle of view is the position of the face of the person P2. In the manner shown in FIG. The designated area is an area for obtaining a focus evaluation value as will be described later. The position of the face closest to the view angle center position is determined by comparing the face image position in the display image area 28a of the SDRAM 28 with the distance calculated from the view angle center for each face image. When there are a plurality of face images having the same distance from the center of the angle of view, the feature image area set when a larger face image is detected is preferentially determined as the designated area.

顔情報が検出されなかったとき、CPU42は、図2に示すように、撮像面の中央にある4×4個の小領域からなる中央領域ECを基準として露出制御および合焦制御を実行する。撮像面の中央領域とは、撮影しようとする被写体が含まれている可能性が高い領域として撮像面の中央に設けられたものである。これに対して、顔情報が検出されたとき、CPU42は、この顔情報を用いて撮像面上に指定される指定領域を決定し、指定領域を表示するべく、キャラクタデータをLCDモニタ32に与える。   When face information is not detected, as shown in FIG. 2, the CPU 42 performs exposure control and focus control with reference to a central area EC composed of 4 × 4 small areas in the center of the imaging surface. The central area of the imaging surface is provided in the center of the imaging surface as an area that is highly likely to contain the subject to be photographed. On the other hand, when face information is detected, the CPU 42 uses this face information to determine a designated area designated on the imaging surface, and provides character data to the LCD monitor 32 to display the designated area. .

キャラクタC3は、図3に示すように3人の人物P1、P2、P3が写った被写界像であれば、たとえば図6に示す要領で、後述する合焦制御によって光学レンズ12の合焦位置設定が完了した時点でスルー画像に多重表示される。キャラクタC3が表示されることによって、使用者は合焦制御が完了したことを知ることができる。   If the character C3 is an object scene image in which three persons P1, P2, and P3 are photographed as shown in FIG. 3, the focus of the optical lens 12 is controlled by focusing control described later, for example, as shown in FIG. When the position setting is completed, multiple images are displayed on the through image. By displaying the character C3, the user can know that the focusing control has been completed.

指定領域は、検出された顔情報が1つであれば顔検出処理において当該顔が検出された位置に、複数の顔が検出されている場合は、顔検出処理において画角中心位置から最も近い位置に検出された顔の位置に設定された特徴画像領域に決定する。そして、指定領域を重視して露出制御を実行し、指定領域を基準として、すなわち、指定領域から得られる画像信号を用いて合焦制御を実行する。露出制御の結果、TG/SG18に設定された露光時間は最適値に設定される。また、合焦制御の結果、光学レンズ12はドライバ44によって合焦位置に設定される。   The designated area is closest to the center position of the angle of view in the face detection process when a plurality of faces are detected at the position where the face is detected in the face detection process if the detected face information is one. The feature image area set at the position of the face detected at the position is determined. Then, exposure control is executed with emphasis on the designated area, and focusing control is executed using the designated area as a reference, that is, using an image signal obtained from the designated area. As a result of exposure control, the exposure time set in TG / SG 18 is set to an optimum value. Further, as a result of the focus control, the optical lens 12 is set to the focus position by the driver 44.

図3に示すように3人の人物P1、P2、P3が入った被写界像であれば、図4に示すように3つの顔情報が検出される。画角中心位置から最も近い顔が検出された位置は人物P2の顔を検出した位置であるため、図7に示すように、人物P1の顔を検出することによって得られた顔情報を基に設定した特徴画像領域を領域E1、人物P2の顔を検出することによって得られた顔情報を基に設定した特徴画像領域を領域E2、人物P3の顔を検出することによって得られた顔情報を基に設定した特徴画像領域を領域E3とすると、指定領域は、人物P2の顔を検出することによって得られた顔情報を基に設定した特徴画像領域である領域E2となる。露出制御は、指定領域となった領域E2から得られる輝度評価値を重視し、他の領域である領域E1、E3から得られる輝度評価値と共に用いて行う。詳細は後述する。   As shown in FIG. 3, if the object scene image includes three persons P1, P2, and P3, three pieces of face information are detected as shown in FIG. Since the position where the face closest to the view angle center position is detected is the position where the face of the person P2 is detected, as shown in FIG. 7, based on the face information obtained by detecting the face of the person P1. The set feature image area is the area E1, the face information obtained by detecting the face of the person P3 is the feature image area set based on the face information obtained by detecting the face of the person P2, and the face information obtained by detecting the face information of the person P3. Assuming that the feature image area set based on the area is an area E3, the designated area is an area E2 that is a feature image area set based on face information obtained by detecting the face of the person P2. The exposure control is performed with emphasis on the luminance evaluation value obtained from the area E2 which is the designated area, and is used together with the luminance evaluation values obtained from the areas E1 and E3 which are other areas. Details will be described later.

シャッタボタン46Sが全押しされると、CPU42は、記録処理を実行するべく、本露光および全画素読み出しをTG/SG18に命令し、JPEG圧縮をJPEGエンコーダ36に命令する。   When the shutter button 46S is fully pressed, the CPU 42 instructs the TG / SG 18 to perform main exposure and all pixel readout and JPEG compression 36 to execute the recording process.

なお、領域E1、E2、E3、の位置と大きさは、顔検出処理によって得られた人物P1、P2、P3の顔の位置と大きさに基づいて設定するが、両者は厳密に同じである必要はない。本実施例では、領域E1、E2、E3の位置と大きさは、図2に示すように、撮像面14fに設定された縦8個、横8個、全64個の小領域を組み合わせて設定される。   The positions and sizes of the areas E1, E2, and E3 are set based on the positions and sizes of the faces of the persons P1, P2, and P3 obtained by the face detection process, but they are exactly the same. There is no need. In this embodiment, the positions and sizes of the areas E1, E2, and E3 are set by combining eight vertical areas, eight horizontal areas, and a total of 64 small areas set on the imaging surface 14f as shown in FIG. Is done.

TG/SG18は、イメージセンサ14の撮像面14fの本露光と、これによって得られた全ての電荷の読み出しとを実行するべく、複数のタイミング信号をイメージセンサ14に与える。撮像面14fで生成された生画像信号は、ラスタ走査に従う順序で読み出される。イメージセンサ14から出力された生画像信号は、CDS/AGC/AD回路16によって相関二重サンプリング、自動ゲイン調整およびA/D変換の一連の処理を施される。信号処理回路20は、CDS/AGC/AD回路16から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施し、表示画像領域28aに格納される画像データよりも解像度の高いYUV形式の画像データ、ずなわち、イメージセンサ14の全画素で構成される画像データ、全画素の数は約500万個であり、縦1944画素、横2592画素の画像データに変換される。変換された画像データは、メモリ制御回路26を通してSDRAM28の非圧縮画像領域28bに書き込まれる。   The TG / SG 18 gives a plurality of timing signals to the image sensor 14 in order to perform the main exposure of the imaging surface 14f of the image sensor 14 and the reading of all the charges obtained thereby. The raw image signal generated on the imaging surface 14f is read in the order according to the raster scanning. The raw image signal output from the image sensor 14 is subjected to a series of processes of correlated double sampling, automatic gain adjustment, and A / D conversion by the CDS / AGC / AD circuit 16. The signal processing circuit 20 performs processing such as white balance adjustment, color separation, and YUV conversion on the raw image data output from the CDS / AGC / AD circuit 16, and has a resolution higher than that of the image data stored in the display image area 28a. High YUV format image data, that is, image data composed of all pixels of the image sensor 14, the total number of pixels is about 5 million, and is converted into image data of 1944 pixels vertically and 2592 pixels horizontally . The converted image data is written into the uncompressed image area 28 b of the SDRAM 28 through the memory control circuit 26.

JPEGエンコーダ36は、非圧縮画像領域28bに格納された画像データをメモリ制御回路26を通して読み出し、読み出された画像データをJPEG方式で圧縮し、そして圧縮画像データつまりJPEGデータをメモリ制御回路26を通して圧縮画像領域28cに書き込む。こうして得られたJPEGデータはその後、CPU42によって読み出され、I/F38を経てファイル形式で記録媒体40に記録される。記録媒体40には複数の画像ファイルが記録可能である。   The JPEG encoder 36 reads the image data stored in the uncompressed image area 28b through the memory control circuit 26, compresses the read image data by the JPEG method, and passes the compressed image data, that is, JPEG data through the memory control circuit 26. Write to the compressed image area 28c. The JPEG data thus obtained is then read out by the CPU 42 and recorded on the recording medium 40 in a file format via the I / F 38. A plurality of image files can be recorded on the recording medium 40.

CPU42は、撮影動作時、図8に示す撮影処理を実行する。なお、当該処理に対応する制御プログラムは、フラッシュメモリ48に記憶されている。   The CPU 42 executes the photographing process shown in FIG. 8 during the photographing operation. A control program corresponding to the processing is stored in the flash memory 48.

図8を参照して、ステップS1ではスルー画処理と顔検出処理を実行する。ステップS1の処理によって、スルー画像がLCDモニタ32に表示される。顔検出処理は、表示画像領域28aに格納された画像データに対して画像認識処理を行い、顔画像の有無、大きさ、位置を検出する。本実施例では1/30秒毎に顔検出処理を実行し、被写界像中に最大10個の顔を検出する。詳細な説明は割愛する。   Referring to FIG. 8, in step S1, through image processing and face detection processing are executed. The through image is displayed on the LCD monitor 32 by the process of step S1. In the face detection processing, image recognition processing is performed on the image data stored in the display image area 28a to detect the presence, size, and position of a face image. In this embodiment, face detection processing is executed every 1/30 seconds, and a maximum of 10 faces are detected in the object scene image. Detailed explanation is omitted.

顔が検出されるとステップS5において検出された顔情報に基づいて設定された特徴画像領域を示すキャラクタC1を表示する。ステップS7においてシャッターボタン46Sが半押しされたことが検出されると、ステップS9において顔検出の有無が判別される。顔検出が無ければ、ステップS11でスルー画表示における中央領域を重視する露出制御を実行すると共に、本露光時のTG/SG18に設定される露光時間、CDS/AGC/AD回路16のゲイン、図示されていないストロボの発光量等を決定する。そして、ステップS13で中央領域を基準とする合焦処理を実行しステップS37に進む。   When the face is detected, the character C1 indicating the feature image area set based on the face information detected in step S5 is displayed. If it is detected in step S7 that the shutter button 46S is half-pressed, it is determined in step S9 whether or not a face is detected. If there is no face detection, in step S11 exposure control emphasizing the central area in the live view display is executed, the exposure time set in the TG / SG 18 during the main exposure, the gain of the CDS / AGC / AD circuit 16, Determine the amount of light emitted from the strobe that is not activated. In step S13, a focusing process based on the central area is executed, and the process proceeds to step S37.

ステップS9において、顔検出ありと判別されるとステップS15で検出した顔の数を判別する。判別結果が1であればステップS17において、検出された顔情報によって設定された特徴画像領域を指定領域に決定し、ステップS19にて指定領域を示すキャラクタC2を表示し、ステップS21にて指定領域を重視する第1露出制御を実行する。   If it is determined in step S9 that face detection has been performed, the number of faces detected in step S15 is determined. If the determination result is 1, in step S17, the feature image area set by the detected face information is determined as the designated area, the character C2 indicating the designated area is displayed in step S19, and the designated area is displayed in step S21. The first exposure control that places emphasis on is executed.

ステップS21において、指定領域を重視する第1露出制御における露出量Eは、数1を用いて算出する。
In step S21, the exposure amount E in the first exposure control that places importance on the designated area is calculated using Equation (1).

Figure 2009077175
Figure 2009077175

AE/AF評価値作成回路24は、信号処理回路20から出力された画像データに基づいて、図2に示すように、撮像面14fを縦8横8の計64個に分割された小領域毎に、被写界の明るさを示す輝度評価値を作成している。各領域の測光結果は、領域内に含まれる小領域から得られた輝度評価値の平均値として求められる。撮像面全領域とは、指定領域を含む特徴画像領域も含めた全領域、すなわち、64個の小領域全てである。重み付け係数pの値は0.6〜1.0程度の値(例えば0.7)に設定されている。算出された露出量Eを基にスルー画表示における露出制御、すなわち、TG/SG18に設定する露光時間やCDS/AGC/AD回路16のゲインの調整を行うと共に、本露光時のTG/SG18に設定される露光時間、CDS/AGC/AD回路16のゲイン、図示されていないストロボの発光量や絞り機構の絞り量等を決定する。なお、重み付け係数pの値を1.0とすることによって、指定領域の測光結果のみを用いて露出制御を行うことができる。   Based on the image data output from the signal processing circuit 20, the AE / AF evaluation value creation circuit 24, as shown in FIG. In addition, a luminance evaluation value indicating the brightness of the object scene is created. The photometric result of each area is obtained as an average value of the luminance evaluation values obtained from the small areas included in the area. The entire imaging surface area is the entire area including the characteristic image area including the designated area, that is, all 64 small areas. The value of the weighting coefficient p is set to a value of about 0.6 to 1.0 (for example, 0.7). Based on the calculated exposure amount E, exposure control in live view display, that is, adjustment of the exposure time set in the TG / SG 18 and the gain of the CDS / AGC / AD circuit 16, and the TG / SG 18 during the main exposure are adjusted. The exposure time to be set, the gain of the CDS / AGC / AD circuit 16, the light emission amount of a strobe (not shown), the aperture amount of the aperture mechanism, and the like are determined. By setting the value of the weighting coefficient p to 1.0, exposure control can be performed using only the photometric result of the designated area.

なお、ステップS21において、指定領域を重視する第1露出制御における露出量Eを、数1における撮像面全領域の測光結果であるEvに代えて、指定領域を含む特徴画像領域を除いた領域の測光結果であるEVoutを用いた数2を用いて算出してもよい。
In step S21, the exposure amount E in the first exposure control that places importance on the designated area is replaced with Ev that is the photometric result of the entire area of the imaging surface in Equation 1, and the area excluding the characteristic image area including the designated area. You may calculate using Formula 2 using EVout which is a photometry result.

Figure 2009077175
Figure 2009077175

ステップS15で検出した顔の数を判別した結果が2であればステップS23において、検出された2つの顔領域の内、画角中心位置により近い位置に存在する顔情報によって設定された特徴画像領域を指定領域に決定し、ステップS25にて指定領域を示すキャラクタC2を表示し、ステップS27にて指定領域を重視する第2露出制御を実行する。   If the result of determining the number of faces detected in step S15 is 2, in step S23, a feature image area set by face information existing at a position closer to the center of the angle of view among the two detected face areas Is designated as the designated area, the character C2 indicating the designated area is displayed in step S25, and the second exposure control emphasizing the designated area is executed in step S27.

ステップS27において、指定領域を重視する第2露出制御における露出量Eは、数3を用いて算出する。
In step S27, the exposure amount E in the second exposure control that places importance on the designated area is calculated using Equation 3.

Figure 2009077175
Figure 2009077175

各領域の測光結果は、ステップS21の第1露出制御と同様に、領域内に含まれる小領域から得られた輝度評価値の平均値として求められる。撮像面全領域とは、指定領域を含む特徴画像領域も含めた全領域、すなわち、64個の小領域全てである。なお、重み付け係数pの値は0.6〜1.0程度の値(例えば0.7)、重み付け係数mの値は0.6〜0.8程度の値(例えば0.75)である。算出された露出量Eを基にスルー画表示における露出制御、すなわち、TG/SG18に設定する露光時間やCDS/AGC/AD回路16のゲインの調整を行うと共に、本露光時のTG/SG18に設定される露光時間、CDS/AGC/AD回路16のゲイン、図示されていないストロボの発光量や絞り機構の絞り量等を決定する。よって、特徴画像である顔が複数検出された場合であっても、画角中心位置により近い位置に存在することを根拠に決定した主となる顔を重視した適切な露出制御を行うことが可能となる。なお、重み付け係数pの値を1.0とすることによって、指定領域の測光結果と特徴画像領域である顔領域の測光結果のみを用いて露出制御を行うことができる。   The photometric result of each area is obtained as an average value of the luminance evaluation values obtained from the small areas included in the area, similarly to the first exposure control in step S21. The entire imaging surface area is the entire area including the characteristic image area including the designated area, that is, all 64 small areas. The value of the weighting coefficient p is about 0.6 to 1.0 (for example, 0.7), and the value of the weighting coefficient m is about 0.6 to 0.8 (for example, 0.75). Based on the calculated exposure amount E, exposure control in live view display, that is, adjustment of the exposure time set in the TG / SG 18 and the gain of the CDS / AGC / AD circuit 16, and the TG / SG 18 during the main exposure are adjusted. The exposure time to be set, the gain of the CDS / AGC / AD circuit 16, the light emission amount of a strobe (not shown), the aperture amount of the aperture mechanism, and the like are determined. Therefore, even when multiple faces that are feature images are detected, it is possible to perform appropriate exposure control that places emphasis on the main face determined on the basis that it is located closer to the center of the angle of view. It becomes. By setting the value of the weighting coefficient p to 1.0, exposure control can be performed using only the photometric result of the designated area and the photometric result of the face area that is the feature image area.

なお、ステップS27において、指定領域を重視する第2露出制御における露出量Eを、数3における撮像面全領域の測光結果であるEvに代えて、指定領域を含む特徴画像領域を除いた領域の測光結果であるEVoutを用いた数4を用いて算出してもよい。
In step S27, the exposure amount E in the second exposure control that places importance on the designated area is replaced with Ev, which is the photometric result of the entire area of the imaging surface in Equation 3, and the area excluding the characteristic image area including the designated area. You may calculate using Formula 4 using EVout which is a photometry result.

Figure 2009077175
Figure 2009077175

一方、図3に示すような3人の人物P1、P2、P3が入った被写界像を撮影した場合のように、ステップS15で検出した顔の数を判別した結果が3以上であれば、ステップS29において、検出された3以上の顔情報の内、画角中心位置に最も近い位置に存在する顔情報によって設定された特徴画像領域を指定領域に決定し、ステップS31にて指定領域を示すキャラクタC2を表示し、ステップS33にて指定領域を重視する第3露出制御を実行する。なお、画角中心位置から最も近い顔の位置の決定は、SDRAM28の表示画像領域28aにおける顔画像の位置と画角中心からの距離を各顔画像毎に算出したものを比較することによって行う。画角中心からの距離が等しい顔画像が複数存在する場合は、より大きな顔画像が検出されたことによって設定された特徴画像領域を優先して指定領域に決定する。   On the other hand, if the result of determining the number of faces detected in step S15 is 3 or more, as in the case of shooting a scene image containing three persons P1, P2, and P3 as shown in FIG. In step S29, the feature image area set by the face information present at the position closest to the center of the angle of view among the detected three or more face information is determined as the designated area, and the designated area is selected in step S31. Character C2 is displayed, and in step S33, third exposure control is performed with emphasis on the designated area. The position of the face closest to the view angle center position is determined by comparing the face image position in the display image area 28a of the SDRAM 28 with the distance calculated from the view angle center for each face image. When there are a plurality of face images having the same distance from the center of the angle of view, the feature image area set by detecting a larger face image is preferentially determined as the designated area.

ステップS33において、指定領域を重視する第3露出制御における露出量Eは、数5を用いて算出する。
In step S33, the exposure amount E in the third exposure control that places importance on the designated area is calculated using Equation 5.

Figure 2009077175
Figure 2009077175

各領域の測光結果は、ステップS21の第1露出制御と同様に、領域内に含まれる小領域から得られた輝度評価値の平均値として求められる。撮像面全領域とは、指定領域を含む特徴画像領域も含めた全領域、すなわち、64個の小領域全てである。なお、重み付け係数Pの値は0.6〜1.0程度の値(例えば0.7)、重み付け係数nの値は0.5〜0.6程度の値(例えば0.55)である。算出された露出量Eを基にスルー画表示における露出制御、すなわち、TG/SG18に設定する露光時間やCDS/AGC/AD回路16のゲインの調整を行うと共に、本露光時のTG/SG18に設定される露光時間、CDS/AGC/AD回路16のゲイン、図示されていないストロボの発光量や絞り機構の絞り量等を決定する。よって、特徴画像である顔が複数検出された場合であっても、画角中心位置により近い位置に存在することを根拠に決定した主となる顔を重視した適切な露出制御を行うことが可能となる。なお、重み付け係数pの値を1.0とすることによって、指定領域の測光結果と特徴画像領域である顔領域の測光結果のみを用いて露出制御を行うことができる。また、重み付け係数nの値が0.5であっても、指定領域以外の顔領域の数が2以上あるため、指定領域を測光領域として得られた測光結果を、指定領域以外の顔領域を測光領域として得られた測光結果に比して重み付けを大きくして露出量を算出することになる。   The photometric result of each area is obtained as an average value of the luminance evaluation values obtained from the small areas included in the area, similarly to the first exposure control in step S21. The entire imaging surface area is the entire area including the characteristic image area including the designated area, that is, all 64 small areas. The value of the weighting coefficient P is about 0.6 to 1.0 (for example, 0.7), and the value of the weighting coefficient n is about 0.5 to 0.6 (for example, 0.55). Based on the calculated exposure amount E, exposure control in live view display, that is, adjustment of the exposure time set in the TG / SG 18 and the gain of the CDS / AGC / AD circuit 16, and the TG / SG 18 during the main exposure are adjusted. The exposure time to be set, the gain of the CDS / AGC / AD circuit 16, the light emission amount of a strobe (not shown), the aperture amount of the aperture mechanism, and the like are determined. Therefore, even when multiple faces that are feature images are detected, it is possible to perform appropriate exposure control that places emphasis on the main face determined on the basis that it is located closer to the center of the angle of view. It becomes. By setting the value of the weighting coefficient p to 1.0, exposure control can be performed using only the photometric result of the designated area and the photometric result of the face area that is the feature image area. Even if the value of the weighting coefficient n is 0.5, the number of face areas other than the designated area is two or more. Therefore, the photometric results obtained using the designated area as the photometric area are represented as face areas other than the designated area. The exposure amount is calculated by increasing the weighting compared to the photometry result obtained as the photometry area.

なお、ステップS33において、指定領域を重視する第3露出制御における露出量Eを、数5における撮像面全領域の測光結果であるEvに代えて、指定領域を含む特徴画像領域を除いた領域の測光結果であるEVoutを用いた数6を用いて算出してもよい。
In step S33, the exposure amount E in the third exposure control that places importance on the designated area is replaced with Ev, which is the photometric result of the entire imaging surface area in Equation 5, and the area excluding the characteristic image area including the designated area. You may calculate using Formula 6 using EVout which is a photometry result.

Figure 2009077175
Figure 2009077175

ステップS21、ステップS27、又はステップS33を実行した後、ステップS35にて指定領域を基準とする合焦制御を行う。すなわち、指定領域から得られる画像信号の高周波成分が最大となるように光学レンズ12を設定する山登りオートフォーカス処理を行う。合焦制御が完了した時点でキャラクタC3をスルー画像に多重表示する。よって、使用者は合焦制御が完了したことを知ることができる。   After step S21, step S27, or step S33 is executed, in-focus control based on the designated area is performed in step S35. That is, hill-climbing autofocus processing is performed to set the optical lens 12 so that the high-frequency component of the image signal obtained from the designated area is maximized. When the focus control is completed, the character C3 is displayed in multiple on the through image. Therefore, the user can know that the focusing control has been completed.

ステップS37ではシャッタボタン46Sが半押しされた状態か否かを判別し、YESであれば、当該判別を繰り返す。よって、シャッタボタン46Sの半押しが継続された状態では、ステップS19、S25、S31によるキャラクタ表示やステップS11、S13、又はステップS21、S27、S33、S35による撮影条件の調整値が固定される。   In step S37, it is determined whether or not the shutter button 46S is half-pressed. If YES, the determination is repeated. Therefore, in the state where the shutter button 46S is half-pressed, the character display in steps S19, S25, and S31 and the adjustment values for the shooting conditions in steps S11 and S13 or steps S21, S27, S33, and S35 are fixed.

ステップS37でNOであれば、ステップS39でシャッタボタン46Sが全押しされたか否かを判別し、YESであれば、ステップS41において、ステップS11、ステップS21、ステップS27、又はステップS33によって決定された本露光時のTG/SG18に設定される露光時間、CDS/AGC/AD回路16のゲイン、図示されていないストロボの発光量や絞り機構の絞り量等を用いて本露光による撮影を行い記録処理を実行し、終了する。ステップS39でNOであれば、シャッタボタン46sが全押しされることなく半押し状態が解除されたと判断し、ステップS19、S25、S31で表示した指定領域を示すキャラクタC2、ステップS35で表示した合焦制御完了を示すキャラクタC3を消去するステップS43を実行しステップS1に進む。   If “NO” in the step S37, it is determined whether or not the shutter button 46S is fully pressed in a step S39. If “YES”, it is determined in a step S41 by the step S11, the step S21, the step S27, or the step S33. Using the exposure time set in the TG / SG 18 at the time of the main exposure, the gain of the CDS / AGC / AD circuit 16, the light emission amount of the strobe (not shown), the aperture amount of the aperture mechanism, etc., photographing by the main exposure is performed and the recording process is performed. To exit. If “NO” in the step S39, it is determined that the half-pressed state is released without the shutter button 46s being fully pressed, and the character C2 indicating the designated area displayed in the steps S19, S25, and S31, and the combination displayed in the step S35. Step S43 for deleting the character C3 indicating the completion of the focus control is executed, and the process proceeds to step S1.

ステップS41の処理によって、シャッタボタン46sが操作された時点の被写界像を表すJPEGデータがファイル形式で記録媒体40に記録される。   By the processing in step S41, JPEG data representing the object scene image at the time when the shutter button 46s is operated is recorded on the recording medium 40 in a file format.

なお、図4〜図6に示されたキャラクタC1、C2、C3は一例であって、色、柄、太さ、厳密な大きさ、枠内の透過度、等は自由に設定可能である。キャラクタC2を表示する際、対応する位置に表示されたキャラクタC1を消去してもよい。また、キャラクタC3の表示を、キャラクタC2の色、柄、太さ、枠内の透過度の何れか1つを変更することによって代用することも可能である。   The characters C1, C2, and C3 shown in FIGS. 4 to 6 are examples, and the color, pattern, thickness, exact size, transparency within the frame, and the like can be freely set. When displaying the character C2, the character C1 displayed at the corresponding position may be deleted. In addition, the display of the character C3 can be substituted by changing any one of the color, design, thickness, and transparency within the frame of the character C2.

なお、複数の顔が検出されている場合、本実施例では、画角中心位置から最も近い顔が検出された時の顔判別領域を指定領域に設定しているが、指定領域の決定方法はこれに限らない。複数の顔が検出されている場合、例えば、最も大きな顔が検出された特徴画像領域を指定領域に設定したり、顔検出処理として表示画像領域28aに格納された画像データに対して行われる画像認識処理において、最も認識率が高く認識されて検出された顔によって設定された特徴画像領域を指定領域に設定したりするようにしてもよい。更に、複数の特徴画像領域を所定のルールに従って組み合わせて指定領域に設定してもよい。   In addition, when a plurality of faces are detected, in this embodiment, the face discrimination area when the face closest to the view angle center position is detected is set as the designated area. Not limited to this. When a plurality of faces are detected, for example, a feature image area in which the largest face is detected is set as a designated area, or an image that is performed on image data stored in the display image area 28a as face detection processing In the recognition process, a feature image area set by a face detected with the highest recognition rate may be set as a designated area. Furthermore, a plurality of feature image areas may be combined and set as a designated area according to a predetermined rule.

また、重み付け係数mや重み付け係数nの値を、指定領域が大きく設定されるほど大きくなるように制御してもよい。   Further, the values of the weighting coefficient m and the weighting coefficient n may be controlled so as to increase as the designated area is set larger.

以上、本願発明の実施例について説明したが、本願発明は上記実施例に限定されるものではない。特徴画像として顔画像を用いるのではなく、サッカーボールや小動物の画像を特徴画像として探索し、被写界像内の特徴画像領域を設定するようにしてもよい。また、特徴画像領域の大きさは検知された特徴画像の大きさに係らず一定、例えば、各特徴画像領域内に存在する、撮像面を縦8横8の計64個に分割した小領域1つとするようにしてもよい。すなわち、検知された特徴画像の位置のみに基づいて特徴画像領域を被写界像上に設定してもよい。特徴画像領域の大きさがこの様に一定であっても、複数の特徴画像領域の中から決定される指定領域を重視した露出制御を行うことになるため、複数の特徴画像が検出された場合に従来よりも適切な露出制御を行うことが可能な電子カメラを提供することができる。また、被写界像は圧縮して記録されている必要はなく、非圧縮で記録されていてもよい。被写界像は静止画に限らず動画や動画の一部、例えばMPEG画像データ内のIピクチャ(フレーム内符号化画像)であってもよい。
As mentioned above, although the Example of this invention was described, this invention is not limited to the said Example. Instead of using a face image as the feature image, an image of a soccer ball or a small animal may be searched as a feature image, and a feature image region in the object scene image may be set. The size of the feature image area is constant regardless of the size of the detected feature image. For example, the small area 1 exists in each feature image area, and the imaging surface is divided into a total of 64 pixels of 8 × 8. You may make it. That is, the feature image area may be set on the object scene image based only on the position of the detected feature image. Even if the size of the feature image area is constant, exposure control is performed with emphasis on the specified area determined from the multiple feature image areas. Therefore, when multiple feature images are detected. In addition, it is possible to provide an electronic camera capable of performing exposure control more appropriate than before. The object scene image does not need to be recorded after being compressed, and may be recorded without being compressed. The object scene image is not limited to a still image, but may be a moving image or a part of the moving image, for example, an I picture (encoded image within a frame) in MPEG image data.

本発明の実施例であるディジタルカメラを示したブロック図である。It is the block diagram which showed the digital camera which is an Example of this invention. 本発明の実施例の動作を説明する説明図である。It is explanatory drawing explaining operation | movement of the Example of this invention. 本発明の実施例の動作を説明する説明図である。It is explanatory drawing explaining operation | movement of the Example of this invention. 本発明の実施例の動作を説明する説明図である。It is explanatory drawing explaining operation | movement of the Example of this invention. 本発明の実施例の動作を説明する説明図である。It is explanatory drawing explaining operation | movement of the Example of this invention. 本発明の実施例の動作を説明する説明図である。It is explanatory drawing explaining operation | movement of the Example of this invention. 本発明の実施例の動作を説明する説明図である。It is explanatory drawing explaining operation | movement of the Example of this invention. 本発明の実施例の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the Example of this invention.

符号の説明Explanation of symbols

10 ディジタルカメラ
12 光学レンズ
14 イメージセンサ
24 AE/AF評価値作成回路
28 SDRAM
32 LCDモニタ
34 キャラクタジェネレータ
40 記録媒体
42 CPU
46 キー入力装置
48 フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 Digital camera 12 Optical lens 14 Image sensor 24 AE / AF evaluation value creation circuit 28 SDRAM
32 LCD monitor 34 Character generator 40 Recording medium 42 CPU
46 Key input device 48 Flash memory

Claims (6)

被写界を捉える撮像面を有し、被写界像を生成する撮像手段、
前記被写界像に含まれる特徴画像を探索する探索手段、
前記探索手段によって検知された複数の特徴画像の位置に基づいて複数の特徴画像領域を被写界像上に設定する特徴画像領域設定手段、
前記特徴画像領域設定手段によって設定された複数の特徴画像領域の中から少なくとも1つの指定領域を決定する指定領域決定手段、
前記指定領域決定手段によって決定された指定領域を測光領域とする第1測光手段、
前記特徴画像領域設定手段によって設定された特徴画像領域の内、前記指定領域を除いた特徴画像領域を測光領域とする第2測光手段、
前記第1測光手段によって得られた測光結果を前記第2測光手段によって得られた測光結果に比して重み付けを大きくして露出量を算出する露出量算出手段、および
前記露出量算出手段によって算出した露出量に基づき露出制御を行う露出制御手段を具える、電子カメラ。
An imaging means having an imaging surface for capturing an object scene and generating an object scene image;
Search means for searching for a feature image included in the object scene image;
Feature image area setting means for setting a plurality of feature image areas on the object scene image based on the positions of the plurality of feature images detected by the search means;
Designated area determining means for determining at least one designated area from among a plurality of feature image areas set by the feature image area setting means;
First photometric means for setting the designated area determined by the designated area determining means as a photometric area;
Second photometric means for setting the characteristic image area excluding the designated area out of the characteristic image area set by the characteristic image area setting means to be a photometric area;
An exposure amount calculating means for calculating an exposure amount by increasing the weighting of the photometric result obtained by the first photometric means as compared with the photometric result obtained by the second photometric means, and calculating by the exposure amount calculating means An electronic camera comprising exposure control means for controlling exposure based on the exposure amount.
前記特徴画像領域設定手段は、前記探索手段によって検知された複数の特徴画像の位置と大きさに基づいて複数の特徴画像領域を被写界像上に設定することを特徴とする請求項1記載の電子カメラ。   2. The feature image area setting means sets a plurality of feature image areas on a scene image based on positions and sizes of the plurality of feature images detected by the search means. Electronic camera. 前記特徴画像領域設定手段によって設定された領域を除いた被写界像上の領域を測光領域とする第3測光手段をさらに具え、前記露出量算出手段は、前記第3測光手段によって得られた測光結果を、前記第1測光手段によって得られた測光結果と前記第2測光手段によって得られた測光結果を用いて算出した測光結果に比して重み付けを小さくして露出量を算出することを特徴とする請求項1又は2記載の電子カメラ。   The apparatus further comprises a third photometry unit that uses a region on the object scene image excluding the region set by the feature image region setting unit as a photometry region, and the exposure amount calculation unit is obtained by the third photometry unit. The exposure amount is calculated by reducing the weighting of the photometric result compared to the photometric result calculated using the photometric result obtained by the first photometric means and the photometric result obtained by the second photometric means. The electronic camera according to claim 1 or 2, characterized in that 前記探索手段は人物の顔を特徴画像として探索することを特徴とする請求項1乃至3記載の電子カメラ。   4. The electronic camera according to claim 1, wherein the search means searches for a human face as a feature image. 前記指定領域決定手段は、前記特徴画像領域設定手段によって設定された複数の特徴画像領域の中で被写界像の画角中心位置から最も近い位置にある特徴画像領域を指定領域に決定することを特徴とする請求項1乃至4記載の電子カメラ。   The designated area determining means determines, as the designated area, a feature image area that is closest to the field angle center position of the object scene image among the plurality of feature image areas set by the feature image area setting means. The electronic camera according to claim 1, wherein: 前記指定領域決定手段によって決定され指定領域の被写界像に基づいて前記撮像手段の焦点距離を調整する焦点距離調整手段をさらに具えることを特徴とする請求項1乃至5記載の電子カメラ。   6. The electronic camera according to claim 1, further comprising a focal length adjusting unit that adjusts a focal length of the imaging unit based on an object scene image of the designated region determined by the designated region determining unit.
JP2007244435A 2007-09-20 2007-09-20 Electronic camera Pending JP2009077175A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007244435A JP2009077175A (en) 2007-09-20 2007-09-20 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007244435A JP2009077175A (en) 2007-09-20 2007-09-20 Electronic camera

Publications (1)

Publication Number Publication Date
JP2009077175A true JP2009077175A (en) 2009-04-09

Family

ID=40611728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007244435A Pending JP2009077175A (en) 2007-09-20 2007-09-20 Electronic camera

Country Status (1)

Country Link
JP (1) JP2009077175A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224923A (en) * 2016-06-14 2017-12-21 エイチエスティ・ビジョン株式会社 Autofocus device and autofocus program
JP2019219566A (en) * 2018-06-21 2019-12-26 キヤノン株式会社 Imaging device, exposure control method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983860A (en) * 1995-09-07 1997-03-28 Hitachi Ltd Image pickup device
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP2005269604A (en) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd Imaging device, imaging method, and imaging program
JP2007074394A (en) * 2005-09-07 2007-03-22 Canon Inc Image pickup device and control method of same
JP2007228201A (en) * 2006-02-23 2007-09-06 Fujifilm Corp Imaging apparatus and method of controlling same
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same
JP2008306765A (en) * 2008-09-03 2008-12-18 Canon Inc Image pickup device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983860A (en) * 1995-09-07 1997-03-28 Hitachi Ltd Image pickup device
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP2005269604A (en) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd Imaging device, imaging method, and imaging program
JP2007074394A (en) * 2005-09-07 2007-03-22 Canon Inc Image pickup device and control method of same
JP2007228201A (en) * 2006-02-23 2007-09-06 Fujifilm Corp Imaging apparatus and method of controlling same
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same
JP2008306765A (en) * 2008-09-03 2008-12-18 Canon Inc Image pickup device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224923A (en) * 2016-06-14 2017-12-21 エイチエスティ・ビジョン株式会社 Autofocus device and autofocus program
JP2019219566A (en) * 2018-06-21 2019-12-26 キヤノン株式会社 Imaging device, exposure control method and program

Similar Documents

Publication Publication Date Title
KR101643321B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
US20130016245A1 (en) Imaging apparatus
JP4974812B2 (en) Electronic camera
JP2008141740A (en) Apparatus, method and program for photography
JP2008311817A (en) Image photographing device and image photographing method, and computer program
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
US8081804B2 (en) Electronic camera and object scene image reproducing apparatus
US20120002081A1 (en) Method for adjusting photosensitiveness of digital camera
JP2015005860A (en) Imaging device, imaging method, and program
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP2009098351A (en) Photographing method and apparatus
JP4818999B2 (en) Imaging apparatus, method, and program
JP2011254487A (en) Photographing apparatus, method, and program
JP2004349750A (en) Digital camera and control method therefor
JP5027580B2 (en) Imaging apparatus, method, and program
KR20120080376A (en) Digital image photographing apparatus and method for controlling the same
KR101630304B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2010154306A (en) Device, program and method for imaging control
JP2010103612A (en) Electronic camera and image processing program
JP2010016695A (en) Electronic camera and image processing program
JP4842919B2 (en) Display device, photographing device, and display method
JP2008054031A (en) Digital camera and display control method
JP4553570B2 (en) Auto focus camera
JP2009077175A (en) Electronic camera
JP2008187590A (en) Photographing apparatus, and photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100902

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120731