JP5515589B2 - Photometric device and imaging device - Google Patents

Photometric device and imaging device Download PDF

Info

Publication number
JP5515589B2
JP5515589B2 JP2009232378A JP2009232378A JP5515589B2 JP 5515589 B2 JP5515589 B2 JP 5515589B2 JP 2009232378 A JP2009232378 A JP 2009232378A JP 2009232378 A JP2009232378 A JP 2009232378A JP 5515589 B2 JP5515589 B2 JP 5515589B2
Authority
JP
Japan
Prior art keywords
image
analysis
frame
index
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009232378A
Other languages
Japanese (ja)
Other versions
JP2011082740A (en
Inventor
宏 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009232378A priority Critical patent/JP5515589B2/en
Publication of JP2011082740A publication Critical patent/JP2011082740A/en
Application granted granted Critical
Publication of JP5515589B2 publication Critical patent/JP5515589B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、測光装置および撮像装置に関する。   The present invention relates to a photometric device and an imaging device.

従来、様々な一眼レフタイプのデジタルカメラが考えられている。例えば、特許文献1では、ファインダの像を画像センサによって取り込み、シーンの解析を行う一眼レフカメラが、開示されている。   Conventionally, various single-lens reflex digital cameras have been considered. For example, Patent Document 1 discloses a single-lens reflex camera that takes a finder image by an image sensor and analyzes a scene.

特開2006−203346号公報JP 2006-203346 A

ところで、一眼レフタイプのデジタルカメラには、ファインダの光路中に、オートフォーカス(以下、「AF」と称する)の検出点を示すAF枠やAFエリアの指標などをスーパーインポーズ表示する部材が設けられているものがある。   By the way, a single-lens reflex digital camera is provided with a member that superimposes an AF frame indicating an autofocus (hereinafter referred to as “AF”) or an AF area index in the optical path of the finder. There is something that has been.

このようなデジタルカメラでは、AF枠やAFエリアの指標などの像が、測光などを目的とした解析用画像センサで撮像された画像に写り込んでしまう場合がある。このような場合、シーン解析などの画像解析結果に影響を与える場合がある。   In such a digital camera, an image such as an AF frame or an AF area index may appear in an image captured by an analysis image sensor for the purpose of photometry. In such a case, image analysis results such as scene analysis may be affected.

上記従来技術が有する問題に鑑み、本発明の目的は、指標などをスーパーインポーズ表示する部材が光学系に設けられている場合であっても、その影響を受けることなく好適な画像処理の結果を得ることができる技術を提供することにある。   In view of the above-described problems of the prior art, the object of the present invention is to obtain a result of suitable image processing without being affected even when a member for superimposing and displaying an index or the like is provided in an optical system. It is to provide a technique capable of obtaining the above.

発明を例示する測光装置の一態様は、光学系による像に重畳して指標を表示する指標表示部と、指標表示部によって表示される指標を光学系による像に重畳した像を撮像して第1画像を生成する撮像部と、第1画像内の指標の像を補正した第2画像を生成する補正部と、所定の条件に基づいて、第1画像と第2画像との少なくとも一方の画像を用いて、光学系による像の情報を処理する処理部と、指標表示部による指標の表示位置が変化したか否かを判定する判定部と、を備え、処理部は、判定部が指標の表示位置が変化していないと判定した場合、第2画像を用いて処理を行う An aspect of a photometric device that exemplifies the present invention includes an index display unit that superimposes an image displayed by an optical system and displays an index, and an image obtained by superimposing an index displayed by the index display unit on an image generated by the optical system. An imaging unit that generates a first image, a correction unit that generates a second image obtained by correcting an index image in the first image, and at least one of the first image and the second image based on a predetermined condition using an image, comprising: a processing unit for processing the information of the image formed by the optical system, a determination section for determining whether or not the display position of the index is changed by the indicator display unit, a processing unit, determining unit indicator When it is determined that the display position has not changed, processing is performed using the second image .

本発明を例示する測光装置の別態様は、光学系による像に重畳して指標を表示する指標表示部と、指標表示部によって表示される指標を光学系による像に重畳した像を撮像して第1画像を生成する撮像部と、第1画像内の指標の像を補正した第2画像を生成する補正部と、所定の条件に基づいて、第1画像と第2画像との少なくとも一方の画像を用いて、光学系による像の情報を処理する処理部と、指標表示部による指標の表示位置が変化したか否かを判定する判定部と、を備え、処理部は、判定部が指標の表示位置が変化したと判定した場合、第1画像を用いて処理を行
Another aspect of the photometric device that exemplifies the present invention includes an index display unit that displays an index superimposed on an image by an optical system, and an image in which the index displayed by the index display unit is superimposed on an image by an optical system. An imaging unit that generates a first image, a correction unit that generates a second image obtained by correcting an index image in the first image, and at least one of the first image and the second image based on a predetermined condition using an image, comprising: a processing unit for processing the information of the image formed by the optical system, a determination section for determining whether or not the display position of the index is changed by the indicator display unit, a processing unit, determining unit indicator when the display position of is determined to have changed, it intends row processing using the first image.

また、処理部は、像の情報の処理の結果に応じて、第1画像および第2画像のうちの異なる画像を用いて処理を行っても良い。   Further, the processing unit may perform processing using a different image of the first image and the second image according to the result of the processing of the image information.

また、処理部は、異なる画像に対する像の情報の処理を、指標を含む所定の大きさの画像に対して行っても良い。   The processing unit may perform image information processing for different images on an image having a predetermined size including an index.

本発明の撮像装置は、本発明の測光装置と、光学系による像を撮像する撮像素子と、を備える。   The imaging device of the present invention includes the photometric device of the present invention and an imaging element that captures an image by an optical system.

本発明によれば、指標などをスーパーインポーズ表示する部材が光学系に設けられている場合であっても、その影響を受けることなく好適な画像処理の結果を得ることができる。   According to the present invention, even if a member for superimposing and displaying an index or the like is provided in the optical system, a suitable image processing result can be obtained without being affected by the effect.

本発明の第1の実施形態に係るカメラ100の機能ブロック図1 is a functional block diagram of the camera 100 according to the first embodiment of the present invention. AF枠表示板13に表示されるAF枠について説明する図The figure explaining the AF frame displayed on the AF frame display board 13 第1の実施形態におけるカメラ100によるシーン解析および測光演算の動作についてのフローチャートThe flowchart about the operation | movement of the scene analysis and photometry calculation by the camera 100 in 1st Embodiment. 解析用撮像素子18によって撮像された解析用画像30とAF枠の写り込みの補正を行った補正画像の一部を示す図The figure which shows a part of corrected image which corrected the image 30 for an analysis imaged with the image pick-up element 18 for analysis, and the reflection of AF frame 第2の実施形態におけるカメラ100によるシーン解析および測光演算の動作についてのフローチャートFlowchart of scene analysis and photometric calculation operations by the camera 100 in the second embodiment 第3の実施形態におけるカメラ100によるシーン解析および測光演算の動作についてのフローチャートFlowchart of scene analysis and photometric calculation operations by the camera 100 in the third embodiment 第4の実施形態におけるカメラ100によるシーン解析および測光演算の動作についてのフローチャートFlowchart of scene analysis and photometric calculation operations by the camera 100 in the fourth embodiment

≪第1の実施形態≫
図1は、本発明の第1の実施形態に係るカメラ100の機能ブロック図である。
<< First Embodiment >>
FIG. 1 is a functional block diagram of a camera 100 according to the first embodiment of the present invention.

本実施形態に係るカメラ100は、一眼レフデジタルカメラである。図1に示すように、カメラ100は、レンズ部分と本体部分とからなり、レンズ部分は、繰出し可能な撮影レンズ1、絞り2、撮影レンズ1を駆動するレンズ駆動部3、撮影レンズ1の焦点距離を検出する距離検出部4、絞り2を制御する絞り制御部5、レンズ部分の各部を制御するレンズ側マイコン6を備える。また、カメラ100は、レンズ部分と本体部分とを電気的に接続する電気接点7を備える。   The camera 100 according to the present embodiment is a single-lens reflex digital camera. As shown in FIG. 1, the camera 100 includes a lens portion and a main body portion. The lens portion includes a photographic lens 1 that can be extended, a diaphragm 2, a lens driving unit 3 that drives the photographic lens 1, and a focal point of the photographic lens 1. A distance detection unit 4 that detects the distance, an aperture control unit 5 that controls the aperture 2, and a lens-side microcomputer 6 that controls each part of the lens portion are provided. The camera 100 also includes an electrical contact 7 that electrically connects the lens portion and the main body portion.

レンズ駆動部3は、焦点調節のために撮影レンズ1を繰出し、距離検出部4は、撮影レンズ1のレンズ繰出し量を検出し、撮影レンズ1が像を結ぶ距離を検出する。以上説明した各機能は、レンズ側マイコン6によって制御される。   The lens driving unit 3 extends the photographing lens 1 for focus adjustment, and the distance detection unit 4 detects a lens extension amount of the photographing lens 1 and detects a distance at which the photographing lens 1 forms an image. Each function described above is controlled by the lens side microcomputer 6.

また、カメラ部分は、撮影レンズ1からの光束を分岐するためのクイックリターンミラー11、焦点板12、AF枠表示板13、AF枠表示板13を照明するためのLED14、ペンタプリズム15を備える。そして、焦点板12で投影される被写体からの光束の一部は、構図確認に用いるための接眼レンズ16へ、残りの光束は、後述する被写体の情報の取得するための再結像レンズ17および解析用撮像素子18へ入射される。   The camera portion also includes a quick return mirror 11 for branching the light beam from the photographing lens 1, a focusing screen 12, an AF frame display plate 13, an LED 14 for illuminating the AF frame display plate 13, and a pentaprism 15. A part of the light beam from the subject projected on the focusing screen 12 is sent to an eyepiece lens 16 for use in composition confirmation, and the remaining light flux is used as a re-imaging lens 17 for acquiring subject information, which will be described later. The light enters the image sensor 18 for analysis.

AF枠表示板13は、例えば、透明板に透明電極と高分子分散液晶(PN液晶)を挟んだ構造を有し、後述する表示板制御部28からの指示に基づいて電圧をON/OFF制御されることにより、図2に示されるA1〜A15のAF枠の各々が、表示(例えば、AF枠A8の黒枠表示)と非表示(例えば、AF枠A1など)との切り換えが可能な液晶表示素子である。また、LED14を点灯することにより、暗い視野において黒枠で表示されているAF枠を、光らせる(照明する)ことができる。例えば、LED14として赤色LEDを用いる場合、AF枠表示板13に表示されたAF枠A8は赤く点灯表示される。   The AF frame display board 13 has, for example, a structure in which a transparent electrode and a polymer dispersed liquid crystal (PN liquid crystal) are sandwiched between transparent plates, and the voltage is ON / OFF controlled based on an instruction from the display board control unit 28 described later. Thus, each of the AF frames A1 to A15 shown in FIG. 2 can be switched between display (for example, black frame display of AF frame A8) and non-display (for example, AF frame A1). It is an element. Further, by turning on the LED 14, the AF frame displayed with a black frame in a dark field of view can be illuminated (illuminated). For example, when a red LED is used as the LED 14, the AF frame A8 displayed on the AF frame display board 13 is lit red.

また、解析用撮像素子18は、例えば、CCDイメージセンサやCMOSイメージセンサなどのイメージセンサである。解析用撮像素子18の画素には、赤、緑、青などのオンチップカラーフィルタが、例えばベイヤ配列の配列で設けられる。そして、この解析用撮像素子18により、色情報を含む画像情報を得ることができる。   The analysis image sensor 18 is an image sensor such as a CCD image sensor or a CMOS image sensor. The pixels of the analysis image sensor 18 are provided with on-chip color filters such as red, green, and blue in a Bayer array, for example. The image sensor 18 for analysis can obtain image information including color information.

また、カメラ部分は、被写体を撮像するための画像用撮像素子19、シャッタ20を備えるとともに、焦点検出に用いる光束を導くサブミラー21を備える。また、各部の制御に関わるボディ側マイコン22、焦点検出部23、シャッタ20を制御するシャッタ制御部24を備える。また、解析用撮像素子18を駆動する撮像素子駆動部25と、画像用撮像素子19を駆動する撮像素子駆動部27とを備える。また、解析用撮像素子18または画像用撮像素子19により得られた画像に画像処理を施すための画像処理部26、AF枠表示板13の表示を制御する表示板制御部28、LED14を駆動するLED駆動部29を備える。   Further, the camera portion includes an image pickup device 19 for capturing an image of the subject and a shutter 20, and a sub mirror 21 for guiding a light beam used for focus detection. Further, a body side microcomputer 22, a focus detection unit 23, and a shutter control unit 24 that controls the shutter 20 related to the control of each unit are provided. The image pickup device drive unit 25 drives the image pickup device for analysis 18 and the image pickup device drive unit 27 drives the image pickup device 19 for image. Further, the image processing unit 26 for performing image processing on the image obtained by the image sensor 18 for analysis or the image sensor 19 for image, the display plate control unit 28 for controlling the display of the AF frame display plate 13, and the LED 14 are driven. An LED drive unit 29 is provided.

解析用撮像素子18によって撮像された画像の情報は、適宜画像処理部26による画像処理が施されて、シーン解析、測光演算、ボディ制御演算などに用いられる。   Image information captured by the analysis imaging element 18 is appropriately subjected to image processing by the image processing unit 26 and used for scene analysis, photometry calculation, body control calculation, and the like.

被写体からの光束は撮影レンズ1および絞り2を通過して、クイックリターンミラー11に導かれる。撮影時にはクイックリターンミラー11が跳ね上がり、シャッタ20が開放されることにより、被写体からの光束は撮影レンズ1により画像用撮像素子19の撮像面上に結像される。そして、画像用撮像素子19からの画像信号は不図示のA/D変換器によってデジタル信号化され、画像処理部26によって画像処理が施された後に、不図示のRAMなどの記憶装置に記録される。   The light beam from the subject passes through the photographing lens 1 and the aperture 2 and is guided to the quick return mirror 11. At the time of shooting, the quick return mirror 11 jumps up and the shutter 20 is opened, so that the light flux from the subject is imaged on the image pickup surface of the image pickup device 19 by the shooting lens 1. An image signal from the image pickup device 19 is converted into a digital signal by an A / D converter (not shown), subjected to image processing by the image processing unit 26, and then recorded in a storage device such as a RAM (not shown). The

撮影時以外、すなわち構図確認中などには、クイックリターンミラー11は下がり、被写体からの光束の一部は、クイックリターンミラー11により反射され、焦点板12上に結像する。この像はAF枠表示板13およびペンタプリズム15を介して、光束の一部は接眼レンズ16に到達する。ユーザは、接眼レンズ16を介してこの像を観察することにより、構図を確認することができる。一方、残りの光束は、再結像レンズ17を介して解析用撮像素子18上に結像する。したがって、解析用撮像素子18は、クイックリターンミラー11が下がり、シャッタ20が閉じていて画像用撮像素子19による撮像が行われていない状態でも、被写体の画像を生成することができる。なお、接眼レンズ16を介してユーザにより観察される像、および解析用撮像素子18上に結像する像には、AF枠表示板13が表示するAF枠の像が重畳される。また、本実施形態における解析用撮像素子18は、10〜20fpsで画像を撮像生成するものとする。   Other than during photographing, that is, during composition confirmation, the quick return mirror 11 is lowered, and a part of the light flux from the subject is reflected by the quick return mirror 11 and forms an image on the focusing screen 12. A part of the luminous flux reaches the eyepiece 16 via the AF frame display plate 13 and the pentaprism 15. The user can confirm the composition by observing this image through the eyepiece 16. On the other hand, the remaining light beam forms an image on the image sensor 18 for analysis via the re-imaging lens 17. Therefore, the image sensor for analysis 18 can generate an image of a subject even when the quick return mirror 11 is lowered, the shutter 20 is closed, and the image sensor 19 is not capturing an image. Note that the image of the AF frame displayed on the AF frame display plate 13 is superimposed on the image observed by the user through the eyepiece 16 and the image formed on the image sensor 18 for analysis. In addition, it is assumed that the analysis imaging element 18 in the present embodiment captures and generates an image at 10 to 20 fps.

さらに、解析用撮像素子18は、露出制御用センサ、ホワイトバランス制御用センサなどの測光/測色センサおよび後述する被写体解析用センサを兼ねる。解析用撮像素子18からの画像信号は不図示のA/D変換器によってデジタル信号化され、ボディ側マイコン22に備えられる不図示のRAMなどのメモリに記憶される。   Further, the image sensor 18 for analysis also serves as a photometric / colorimetric sensor such as an exposure control sensor and a white balance control sensor, and a subject analysis sensor described later. An image signal from the analysis imaging element 18 is converted into a digital signal by an A / D converter (not shown) and stored in a memory such as a RAM (not shown) provided in the body side microcomputer 22.

ところで、撮影時以外、すなわち構図確認中などに、下がった状態のクイックリターンミラー11を透過した、被写体からの光束の一部は、サブミラー21によって焦点検出部23に導かれる。焦点検出部23は、撮影レンズ1を通過する光束を用いて、視差を有する被写体の2像を1対のイメージセンサアレー上に導き、イメージセンサアレーの画像出力から像の相対的ずれ量を算出して合焦状態を判別する、いわゆる位相差方式の焦点検出を行う。   By the way, a part of the luminous flux from the subject that has passed through the quick return mirror 11 in the lowered state is not guided at the time of photographing, that is, during composition confirmation, etc., is guided to the focus detection unit 23 by the sub mirror 21. The focus detection unit 23 guides two images of a subject with parallax onto a pair of image sensor arrays using a light beam passing through the photographing lens 1, and calculates a relative image shift amount from the image output of the image sensor array. Thus, so-called phase difference type focus detection is performed to determine the in-focus state.

ここまで説明した各部は、基本的に、ボディ側マイコン22によって制御される。ボディ側マイコン22の各制御プログラムは、不図示のROMなどに予め記憶されている。また画像用撮像素子19により生成されて記憶された画像は、メモリカードなどの外部記憶装置などにファイルとして出力され、ユーザの利用に供される。また、ボディ側マイコン22は、電気接点7を介して、レンズ側マイコン6と相互に接続される。そして、ボディ側マイコン22は、電気接点7を介して、レンズ側マイコン6を制御する。   Each part described so far is basically controlled by the body side microcomputer 22. Each control program of the body side microcomputer 22 is stored in advance in a ROM (not shown) or the like. The image generated and stored by the image pickup device 19 is output as a file to an external storage device such as a memory card and used for the user. The body side microcomputer 22 is connected to the lens side microcomputer 6 through the electrical contact 7. Then, the body side microcomputer 22 controls the lens side microcomputer 6 via the electrical contact 7.

以上説明した構成のカメラ100において、解析用撮像素子18による画像情報は、上述したように、シーン解析、測光演算、ボディ制御演算などに用いられる。しかし、解析用撮像素子18には、AF枠表示板13が表示するAF枠やAFエリアの指標などの像が重畳する場合がある。このような場合には、解析用撮像素子18による画像情報に誤差が発生することになり、この画像情報に基づくシーン解析、測光演算、ボディ制御演算などの信頼性が低下してしまう。   In the camera 100 having the above-described configuration, the image information from the analysis image sensor 18 is used for scene analysis, photometry calculation, body control calculation, and the like as described above. However, an image such as an AF frame or an AF area index displayed on the AF frame display plate 13 may be superimposed on the analysis imaging element 18. In such a case, an error occurs in the image information by the image sensor 18 for analysis, and the reliability of scene analysis, photometry calculation, body control calculation, etc. based on this image information is lowered.

そこで、本実施形態におけるボディ側マイコン22は、解析用撮像素子18に重畳したAF枠やAFエリアの指標などの像を補正することにより、解析用撮像素子18による画像情報における誤差の影響を抑えて、シーン解析、測光演算、ボディ制御演算などの信頼性低下の回避を図る。   Therefore, the body side microcomputer 22 in the present embodiment corrects an image such as an AF frame or an AF area index superimposed on the analysis image sensor 18 to suppress the influence of errors in the image information by the analysis image sensor 18. In this way, the reliability of scene analysis, photometry calculation, body control calculation, etc. is avoided.

以下において、図4(a)に示すように、被写体である人物とともに、AF枠表示板13のAF枠A4が解析用撮像素子18によって撮像された解析用画像30に対する、ボディ側マイコン22によるシーン解析、測光演算、ボディ制御演算などの処理について、図3のフローチャートを参照して説明する。なお、以下の説明におけるボディ側マイコン22による処理として、シーン解析の1つである顔検出と測光演算とを例に説明する。また、この処理において、LED14を点灯させずに、AF枠の像が黒枠で表示される場合を例に説明するが、合焦状態となって、LED14が点灯されAF枠の像が赤く表示される場合でも同様の処理が行われる。   In the following, as shown in FIG. 4A, a scene by the body-side microcomputer 22 with respect to an analysis image 30 in which the AF frame A4 of the AF frame display board 13 is imaged by the analysis image sensor 18 together with a person who is a subject. Processing such as analysis, photometry calculation, and body control calculation will be described with reference to the flowchart of FIG. Note that, as processing by the body side microcomputer 22 in the following description, face detection and photometry calculation which are one of scene analysis will be described as an example. In this process, the case where the image of the AF frame is displayed as a black frame without turning on the LED 14 will be described as an example. However, the focused state is reached, and the image of the AF frame is displayed in red. The same processing is performed even when

ユーザにより、操作部材(不図示)の電源釦が押され、または、レリーズ釦が半押しされることで、カメラ100に電源が投入される。そして、ボディ側マイコン22は、ステップS1からの処理を開始する。   When the user presses a power button on an operation member (not shown) or presses the release button halfway, the camera 100 is powered on. And the body side microcomputer 22 starts the process from step S1.

ステップS1:ボディ側マイコン22は、撮像素子駆動部25に対して、解析用撮像素子18の撮像面に結像される被写体の撮像指示を出力する。撮像素子駆動部25は、解析用撮像素子18に、図4(a)に示すような、AF枠表示板13のAF枠A4の像が重畳した被写体の像を撮像させる。解析用撮像素子18は、第1画像である解析用画像30を生成する。なお、解析用画像30には、表示板制御部28によって、AF枠表示板13のAF枠A1〜AF15のいずれかが黒枠で表示される。本実施形態では、図4(a)に示すように、被写体である人物の顔の部分に位置するAF枠A4の像が表示されるものとする。   Step S <b> 1: The body side microcomputer 22 outputs an imaging instruction of the subject imaged on the imaging surface of the analysis imaging element 18 to the imaging element driving unit 25. The image sensor drive unit 25 causes the analysis image sensor 18 to capture an image of the subject on which the image of the AF frame A4 of the AF frame display plate 13 is superimposed as shown in FIG. The analysis imaging element 18 generates an analysis image 30 that is a first image. In the analysis image 30, any one of the AF frames A1 to AF15 of the AF frame display plate 13 is displayed as a black frame by the display plate control unit 28. In the present embodiment, as shown in FIG. 4A, it is assumed that an image of the AF frame A4 positioned on the face portion of the person who is the subject is displayed.

ステップS2:ボディ側マイコン22は、撮像素子駆動部25に対して、解析用撮像素子18に解析用画像30の画像信号を出力させる指示を出す。その解析用画像30の画像信号は、ボディ側マイコン22に備えられたメモリ(不図示)に記録される。   Step S2: The body side microcomputer 22 instructs the image sensor drive unit 25 to cause the analysis image sensor 18 to output the image signal of the analysis image 30. The image signal of the analysis image 30 is recorded in a memory (not shown) provided in the body side microcomputer 22.

ステップS3:ボディ側マイコン22は、メモリ(不図示)に記録された解析用画像30に対するシーン解析を行うために、解析用画像30を画像処理部26へ転送する。画像処理部26は、解析用画像30に対してシーン解析の1つである顔検出を行う。なお、本実施形態における顔検出の手法は、目、鼻、口などの形に基づいて行われるパターンマッチングによる周知の手法を用いても良い。   Step S3: The body side microcomputer 22 transfers the analysis image 30 to the image processing unit 26 in order to perform scene analysis on the analysis image 30 recorded in the memory (not shown). The image processing unit 26 performs face detection, which is one of scene analysis, on the analysis image 30. Note that the face detection method in this embodiment may be a well-known method based on pattern matching performed based on the shape of eyes, nose, mouth, and the like.

ステップS4:ボディ側マイコン22は、ステップS3において、図4(a)に示すように、解析用画像30に重畳するAF枠A4の像が被写体である人物の顔にかかるような場合、顔検出できないことがあり、AF枠A4の像を除去するなどの補正処理を行う。具体的には、ボディ側マイコン22は、解析用画像30に重畳するAF枠A4の像に対応する画素の値を、その画素に隣接しAF枠A4の像が重畳していない画素の値で補間をして、第2画像である補正画像を生成する。   Step S4: The body microcomputer 22 detects the face in step S3 when the image of the AF frame A4 superimposed on the analysis image 30 covers the face of the person who is the subject, as shown in FIG. Correction processing such as removing the image of the AF frame A4 may be performed. Specifically, the body side microcomputer 22 uses the value of the pixel corresponding to the image of the AF frame A4 superimposed on the analysis image 30 as the value of the pixel adjacent to the pixel and not superimposed on the image of the AF frame A4. Interpolation is performed to generate a corrected image that is the second image.

ステップS5:ボディ側マイコン22は、ステップS4において、生成した補正画像に対するシーン解析を行うために、補正画像を画像処理部26へ転送する。画像処理部26は、補正画像に対して顔検出を再度行う。ただし、本実施形態における画像処理部26は、補正画像に対する顔検出を画像全体に対して行わず、図4(a)および(b)に示すように、AF枠A4の位置を中心とした所定の大きさの画像領域40における補正画像の画素値を用いて、顔検出を行う。なお、本実施形態における画像領域40の大きさは、解析用画像30の1/3などの大きさであるとする。   Step S5: In step S4, the body side microcomputer 22 transfers the corrected image to the image processing unit 26 in order to perform scene analysis on the generated corrected image. The image processing unit 26 performs face detection again on the corrected image. However, the image processing unit 26 in the present embodiment does not perform face detection for the corrected image on the entire image, and as shown in FIGS. 4A and 4B, the image processing unit 26 is a predetermined centered on the position of the AF frame A4 Face detection is performed using the pixel value of the corrected image in the image area 40 of the size of. It is assumed that the size of the image area 40 in the present embodiment is a size such as 1/3 of the analysis image 30.

ステップS6:ボディ側マイコン22は、解析用画像30または補正画像を用いて、測光演算を行う。具体的には、ボディ側マイコン22は、解析用画像30または補正画像をいくつかの領域に分割して輝度を測定する分割測光を行い、ステップS3またはステップS5において顔検出された領域の人物の顔の輝度に応じて補正する測光演算を行う。これにより、本実施形態に係るカメラ100は、シーンに適した露出制御を行うことができる。   Step S6: The body side microcomputer 22 performs photometric calculation using the analysis image 30 or the corrected image. Specifically, the body side microcomputer 22 performs division photometry for dividing the analysis image 30 or the correction image into several areas and measuring the luminance, and the person in the area where the face is detected in step S3 or step S5. Photometric calculation is performed to correct according to the brightness of the face. Thereby, the camera 100 according to the present embodiment can perform exposure control suitable for the scene.

なお、解析用画像30または補正画像のいずれの画像を用いて測光演算を行うかは、例えば、LED14によってAF枠A4が赤く光っていない場合には、解析用画像30および補正画像のいずれを用いて行っても良く、AF枠A4が赤く光っている場合には、補正画像を用いることが好ましい。理由は、AF枠A4が明るく光ることにより、測光演算に基づく露出制御において、正確な露出時間や絞り値などの露出条件を算出することが困難になるからである。あるいは、LED14によってAF枠A4が赤く光っている場合、ボディ側マイコン22は、ステップS6における測光演算を行う前に、LED駆動部29に対して、LED14を消灯させる指示をすることが好ましい。   Note that which of the analysis image 30 and the correction image is used for the photometric calculation is determined by using either the analysis image 30 or the correction image when the AF frame A4 is not shining red by the LED 14, for example. If the AF frame A4 shines red, it is preferable to use a corrected image. The reason is that the AF frame A4 shines brightly, so that it is difficult to calculate exposure conditions such as accurate exposure time and aperture value in exposure control based on photometry calculation. Alternatively, when the AF frame A4 is shining red by the LED 14, the body side microcomputer 22 preferably instructs the LED drive unit 29 to turn off the LED 14 before performing the photometric calculation in step S6.

ステップS7:ボディ側マイコン22は、ユーザによって操作部材(不図示)の電源釦が再度押された、または、所定の時間が経過したことにより、カメラ100がOFF状態であるか否かを判定する。ボディ側マイコン22は、カメラ100がOFF状態であると判定した場合(YES側)、一連の処理を終了する。一方、ボディ側マイコン22は、カメラ100がON状態と判定した場合、ステップS1(NO側)へ移行して、解析用撮像素子18によって撮像される次の解析用画像30に対して、ステップS1〜ステップS7の処理を行う。そして、もしユーザによって操作部材(不図示)のレリーズ釦が全押しされた場合、ボディ側マイコン22は、求めた露出条件に基づいてシャッタや絞りなどを制御して、画像用撮像素子19による撮像を行う。   Step S7: The body side microcomputer 22 determines whether or not the camera 100 is in the OFF state when the power button of the operation member (not shown) is pressed again by the user or a predetermined time has elapsed. . When it is determined that the camera 100 is in the OFF state (YES side), the body side microcomputer 22 ends the series of processes. On the other hand, if the body-side microcomputer 22 determines that the camera 100 is in the ON state, the body-side microcomputer 22 proceeds to step S1 (NO side) and performs step S1 for the next analysis image 30 captured by the analysis image sensor 18. -The process of step S7 is performed. If the release button of the operation member (not shown) is fully pressed by the user, the body side microcomputer 22 controls the shutter, the diaphragm, and the like based on the obtained exposure condition, and the imaging by the image pickup device 19 is performed. I do.

このように、本実施形態では、AF枠表示板13のAF枠A1〜A15の像が重畳した解析用画像30に対して、AF枠の像を除去するなどの補正処理を施した補正画像に基づいてシーン解析などの処理を行うことにより、解析用撮像素子18にAF枠表示板13のAF枠の像が重畳したとしても、より確度高くシーン解析などの処理を行うことができる。   As described above, in the present embodiment, a correction image obtained by performing correction processing such as removing the image of the AF frame on the analysis image 30 on which the images of the AF frames A1 to A15 of the AF frame display board 13 are superimposed is applied. By performing processing such as scene analysis based on the above, processing such as scene analysis can be performed with higher accuracy even if the image of the AF frame of the AF frame display plate 13 is superimposed on the image sensor 18 for analysis.

また、AF枠の像が重畳した解析用画像30に対する補正処理は、AF枠の像の画素の値を、その画素に隣接してAF枠の像が重畳していない画素の値で補間することで行われるが、その補正処理によって、補正画像が元の解析用画像30よりも不自然な画像となり、シーン解析などの処理が困難な場合、解析用画像30と補正画像との両方に対してシーン解析などの処理を施すことにより、補正画像のみに対してシーン解析などの処理を行う場合と比べて、補正による悪影響を小さくすることができる。   Further, the correction processing for the analysis image 30 on which the AF frame image is superimposed interpolates the pixel value of the AF frame image with the pixel value adjacent to the pixel and not superimposed with the AF frame image. However, when the correction process results in an unnatural image than the original analysis image 30 and the process such as scene analysis is difficult, the correction process is performed on both the analysis image 30 and the correction image. By performing processing such as scene analysis, it is possible to reduce the adverse effects of correction compared to the case where processing such as scene analysis is performed only on the corrected image.

さらに、補正画像に対してシーン解析などの処理を行う時に、補正を行ったAF枠付近の画像領域40に対してのみシーン解析などの処理を行うことで、補正画像全体について再度シーン解析などの処理を行う場合に比べて、演算量の徒な増加を回避することができる。
≪第2の実施形態≫
本発明の第2の実施形態に係るカメラは、図1の第1の実施形態に係るカメラ100と同じ構成を有し、各構成要素の詳細な説明は省略する。
Further, when processing such as scene analysis is performed on the corrected image, scene analysis or the like is performed again on the entire corrected image by performing processing such as scene analysis only on the image area 40 near the corrected AF frame. Compared with the case where processing is performed, an increase in the amount of computation can be avoided.
<< Second Embodiment >>
The camera according to the second embodiment of the present invention has the same configuration as the camera 100 according to the first embodiment of FIG. 1, and detailed description of each component will be omitted.

本実施形態に係るカメラ100と第1の実施形態に係るものと異なる点は、第1の実施形態では、図4(a)に示す解析用画像30に重畳するAF枠A4は、解析用撮像素子18による解析用画像30の露出時間の間、他のAF枠(A3やA5など)に移動しなかったが、本実施形態では、例えば、スポーツなどの撮影のように被写体を追尾などして撮像する場合、たとえ短い露出時間の間としても、表示されるAF枠がA4からA3やA5などに切り替わって移動してしまう点にある。   The difference between the camera 100 according to this embodiment and that according to the first embodiment is that, in the first embodiment, the AF frame A4 superimposed on the analysis image 30 shown in FIG. During the exposure time of the analysis image 30 by the element 18, it did not move to another AF frame (A3, A5, etc.), but in this embodiment, for example, the subject is tracked as in sports photography. When capturing an image, the displayed AF frame is switched from A4 to A3, A5, etc., even during a short exposure time.

即ち、上述のように、表示されるAF枠が、解析用撮像素子18の露出時間の間に切り替わって移動する場合、解析用撮像素子18によって撮像された解析用画像30には、複数のAF枠の像がぼけて重畳してしまう。その結果、複数のAF枠の像がぼけて重畳した解析用画像30に基づく、シーン解析、測光演算、ボディ制御演算などの演算結果の信頼性が低下してしまう。   That is, as described above, when the displayed AF frame is switched during the exposure time of the analysis image sensor 18, the analysis image 30 captured by the analysis image sensor 18 includes a plurality of AF frames. The frame image is blurred and superimposed. As a result, the reliability of calculation results such as scene analysis, photometry calculation, and body control calculation based on the analysis image 30 in which the images of the plurality of AF frames are blurred and superimposed is reduced.

そこで、本実施形態において、ボディ側マイコン22は、解析用撮像素子18に重畳したAF枠やAFエリアの指標などの像を補正するにあたり、表示されるAF枠が切り替わって移動したか否かに応じて、解析用画像30に対する補正画像を行うか否かを判定し、シーン解析、測光演算、ボディ制御演算などの信頼性低下の回避を図る。   Therefore, in the present embodiment, the body side microcomputer 22 determines whether or not the displayed AF frame has been switched and moved when correcting an image such as an AF frame or an AF area index superimposed on the analysis image sensor 18. Accordingly, it is determined whether or not a correction image for the analysis image 30 is to be performed, and a reduction in reliability such as scene analysis, photometry calculation, and body control calculation is avoided.

具体的には、被写体の追尾撮像などによって、解析用撮像素子18で撮像された解析用画像30に対する、ボディ側マイコン22によるシーン解析、測光演算、ボディ制御演算などの処理について、図5のフローチャートを参照して説明する。なお、以下の説明におけるボディ側マイコン22による処理として、シーン解析と測光演算とを例に説明する。また、この処理において、LED14を点灯させずに、AF枠の像が黒枠で表示される場合を例に説明するが、合焦状態となって、LED14が点灯されAF枠が赤く表示される場合でも同様の処理が行われる。また、ボディ側マイコン22は、表示板制御部28からAF枠表示板13のAF枠A1〜A15のうち、どのAF枠が表示されたかの表示AF枠の位置情報を受け取り、自身に備えられた不図示のメモリに記録するものとする。   Specifically, the flowchart of FIG. 5 shows processing such as scene analysis, photometry calculation, and body control calculation performed by the body-side microcomputer 22 on the analysis image 30 captured by the analysis imaging element 18 by tracking imaging of the subject. Will be described with reference to FIG. Note that scene analysis and photometric calculation will be described as examples of processing by the body side microcomputer 22 in the following description. In this process, the case where the image of the AF frame is displayed as a black frame without turning on the LED 14 will be described as an example. However, the focus state is reached and the LED 14 is turned on and the AF frame is displayed in red. However, the same processing is performed. Further, the body side microcomputer 22 receives the position information of the display AF frame indicating which AF frame has been displayed among the AF frames A1 to A15 of the AF frame display plate 13 from the display panel control unit 28, and is provided with the information provided in itself. It is assumed that it is recorded in the illustrated memory.

本実施形態における図5のフローチャートは、第1の実施形態における図3のフローチャートと、基本的に同じである。ただし、図5のフローチャートが、図3のフローチャートと異なる点は、解析用画像30に重畳したAF枠の像が複数あるか否か、即ち、解析用撮像素子18の露出時間の間に、表示されるAF枠が切り替わって移動して位置が変化したか否かを、ボディ側マイコン22が、表示板制御部28からの表示AF枠の位置情報に基づいて判定するステップS14が追加されたことにある。   The flowchart of FIG. 5 in the present embodiment is basically the same as the flowchart of FIG. 3 in the first embodiment. However, the flowchart of FIG. 5 differs from the flowchart of FIG. 3 in that whether there are a plurality of AF frame images superimposed on the analysis image 30, that is, during the exposure time of the analysis image sensor 18. Step S14 is added, in which the body side microcomputer 22 determines whether or not the position of the AF frame to be changed by moving the AF frame is changed based on the position information of the display AF frame from the display panel control unit 28. It is in.

つまり、ステップS14において、ボディ側マイコン22は、AF枠の位置が変化しなかった(即ち、重畳したAF枠の像は1つ)と判定した場合、ステップS15(NO側)へ移行して、解析用画像30に重畳したAF枠の像を除去するなどの補正処理を行い、補正画像を生成する。ボディ側マイコン22は、ステップS16において、補正画像に対する処理を、画像処理部26に行わせる。   That is, in step S14, when the body side microcomputer 22 determines that the position of the AF frame has not changed (that is, there is one superimposed AF frame image), the process proceeds to step S15 (NO side). Correction processing such as removal of the image of the AF frame superimposed on the analysis image 30 is performed to generate a corrected image. In step S <b> 16, the body side microcomputer 22 causes the image processing unit 26 to perform processing on the corrected image.

一方、ボディ側マイコン22は、AF枠の位置が変化した(即ち、重畳したAF枠の像が複数)と判定した場合、解析用画像30に対する補正処理を行わず、ステップS17(YES側)へ移行する。   On the other hand, if the body side microcomputer 22 determines that the position of the AF frame has changed (that is, there are a plurality of images of the superimposed AF frame), the body side microcomputer 22 does not perform the correction process on the analysis image 30, and proceeds to step S17 (YES side). Transition.

このように、本実施形態では、表示されるAF枠が切り替わることによって、表示AF枠の位置が変化する場合、複数のAF枠の像が重畳した解析用画像30に対するAF枠の像の補正処理を行わないことで、演算量の徒な増加を回避し、AF枠の像の影響を軽減した解析演算を行うことができる。   As described above, in the present embodiment, when the position of the display AF frame is changed by switching the displayed AF frame, the AF frame image correction process for the analysis image 30 in which a plurality of AF frame images are superimposed is performed. By not performing the calculation, it is possible to avoid an increase in the amount of calculation and perform an analysis calculation that reduces the influence of the image of the AF frame.

また、表示AF枠の位置が変化していないと判定された場合には、AF枠の像が重畳した解析用画像30に対して、そのAF枠の像を除去するなどの補正処理を施した補正画像に基づいてシーン解析などの処理を行うことで、解析用撮像素子18にAF枠表示板13のAF枠の像が重畳したとしても、より確度高くシーン解析などの処理を行うことができる。   In addition, when it is determined that the position of the display AF frame has not changed, the analysis image 30 on which the AF frame image is superimposed is subjected to correction processing such as removing the AF frame image. By performing processing such as scene analysis based on the corrected image, processing such as scene analysis can be performed with higher accuracy even if the image of the AF frame of the AF frame display plate 13 is superimposed on the analysis image sensor 18. .

また、表示AF枠の位置が変化していないと判定された場合、AF枠の像が重畳した解析用画像30に対する補正処理は、AF枠の像の画素の値を、その画素に隣接してAF枠の像が重畳していない画素の値で補間することで行われるが、その補正処理によって、補正画像が元の解析用画像30よりも不自然な画像となり、シーン解析などの処理が困難な場合、解析用画像30と補正画像との両方に対してシーン解析などの処理を施すことにより、補正画像のみに対してシーン解析などの処理を行う場合と比べて、補正による悪影響を小さくすることができる。   If it is determined that the position of the display AF frame has not changed, the correction processing for the analysis image 30 on which the AF frame image is superimposed is performed by setting the pixel value of the AF frame image adjacent to the pixel. This is done by interpolating with the values of the pixels on which the image of the AF frame is not superimposed. However, due to the correction processing, the corrected image becomes unnatural than the original analysis image 30, and processing such as scene analysis is difficult. In such a case, by performing a process such as scene analysis on both the analysis image 30 and the corrected image, the adverse effect of the correction is reduced as compared with the case where the process such as scene analysis is performed only on the corrected image. be able to.

さらに、補正画像に対してシーン解析などの処理を行う時に、補正を行ったAF枠付近の画像領域40に対してのみシーン解析などの処理を行うことで、補正画像全体について再度シーン解析などの処理を行う場合に比べて、演算量の徒な増加を回避することができる。
≪第3の実施形態≫
本発明の第3の実施形態に係るカメラは、第1の実施形態および第2の実施形態に係るカメラ100と同じ構成を有し、各構成要素の詳細な説明は省略する。
Further, when processing such as scene analysis is performed on the corrected image, scene analysis or the like is performed again on the entire corrected image by performing processing such as scene analysis only on the image area 40 near the corrected AF frame. Compared with the case where processing is performed, an increase in the amount of computation can be avoided.
<< Third Embodiment >>
The camera according to the third embodiment of the present invention has the same configuration as the camera 100 according to the first embodiment and the second embodiment, and a detailed description of each component is omitted.

本実施形態に係るカメラ100と第2の実施形態に係るものと異なる点は、画像処理部26が解析用画像30に対してシーン解析などの処理を行った後、ボディ側マイコン22が、解析用画像30に対するAF枠の像の補正処理を行うか否かの判定を、表示AF枠の位置情報とともに、解析用画像30に対するシーン解析の処理によってシーンが特定できたか否かに基づいて判定する点にある。   The difference between the camera 100 according to this embodiment and that according to the second embodiment is that after the image processing unit 26 performs processing such as scene analysis on the analysis image 30, the body side microcomputer 22 performs analysis. The determination as to whether or not to perform the correction process of the image of the AF frame with respect to the image for use 30 is made based on whether the scene can be specified by the scene analysis process for the analysis image 30 together with the position information of the display AF frame. In the point.

そこで、被写体の追尾などによって、解析用撮像素子18で撮像された解析用画像30に対する、ボディ側マイコン22によるシーン解析、測光演算、ボディ制御演算などの処理について、図6のフローチャートを参照して説明する。なお、以下の説明におけるボディ側マイコン22による処理として、シーン解析と測光演算とを例に説明する。また、この処理において、LED14を点灯させずに、AF枠の像が黒枠で表示される場合を例に説明するが、合焦状態となって、LED14が点灯されAF枠が赤く表示される場合でも同様の処理が行われる。また、ボディ側マイコン22は、表示板制御部28からAF枠表示板13のAF枠A1〜A15のうち、どのAF枠が表示されたかの表示AF枠の位置情報を受け取り、自身に備えられた不図示のメモリに記録するものとする。   Therefore, with reference to the flowchart of FIG. 6, processing such as scene analysis, photometry calculation, and body control calculation by the body side microcomputer 22 for the analysis image 30 captured by the analysis imaging element 18 by subject tracking or the like will be described. explain. Note that scene analysis and photometric calculation will be described as examples of processing by the body side microcomputer 22 in the following description. In this process, the case where the image of the AF frame is displayed as a black frame without turning on the LED 14 will be described as an example. However, the focus state is reached and the LED 14 is turned on and the AF frame is displayed in red. However, the same processing is performed. Further, the body side microcomputer 22 receives the position information of the display AF frame indicating which AF frame has been displayed among the AF frames A1 to A15 of the AF frame display plate 13 from the display panel control unit 28, and is provided with the information provided in itself. It is assumed that it is recorded in the illustrated memory.

本実施形態における図6のフローチャートは、第2の実施形態における図5のフローチャートと、基本的に同じである。ただし、図6のフローチャートが、図5のフローチャートと異なる点は、ボディ側マイコン22が、画像処理部26による解析用画像30に対するシーン解析によって、シーンが特定できたか否かを判定するステップS25が追加された点にある。   The flowchart in FIG. 6 in the present embodiment is basically the same as the flowchart in FIG. 5 in the second embodiment. However, the flowchart of FIG. 6 is different from the flowchart of FIG. 5 in that the body side microcomputer 22 determines whether or not the scene can be specified by the scene analysis on the analysis image 30 by the image processing unit 26. In the added point.

即ち、ステップS25において、ボディ側マイコン22は、解析用画像30のシーンが特定できなかったと判定した場合、ステップS26(NO側)へ移行して、解析用画像30に重畳したAF枠の像を除去するなどの補正処理を行い、補正画像を生成する。ボディ側マイコン22は、補正画像に対するステップS27の処理を、画像処理部26に行わせる。   That is, in step S25, when the body side microcomputer 22 determines that the scene of the analysis image 30 cannot be specified, the process proceeds to step S26 (NO side), and the AF frame image superimposed on the analysis image 30 is displayed. Correction processing such as removal is performed to generate a corrected image. The body side microcomputer 22 causes the image processing unit 26 to perform the process of step S27 on the corrected image.

一方、ボディ側マイコン22は、シーンが特定できたと判定した場合、解析用画像30に対する補正処理を行わず、ステップS28(YES側)へ移行する。   On the other hand, if the body side microcomputer 22 determines that the scene has been identified, the body side microcomputer 22 does not perform the correction process on the analysis image 30, and proceeds to step S28 (YES side).

このように、本実施形態では、AF枠の像の補正処理を行う前に、解析用画像30に対するシーン解析などの処理が、AF枠の像の影響を受けずに処理できた場合、AF枠の像の補正処理および補正画像によるシーン解析などの処理を行わないことで、演算量の徒な増加を回避し、シーン解析などの処理の確立を維持することができる。   As described above, in the present embodiment, before the AF frame image correction processing is performed, if the processing such as scene analysis on the analysis image 30 can be performed without being affected by the AF frame image, the AF frame By not performing the image correction process and the scene analysis process using the corrected image, it is possible to avoid an increase in the amount of calculation and maintain the establishment of the process such as scene analysis.

また、表示AF枠の位置が変化せず、シーンなどが特定できないと判定された場合には、AF枠の像が重畳した解析用画像30に対して、そのAF枠の像を除去するなどの補正処理を施した補正画像に基づいてシーン解析などの処理を行うことで、解析用撮像素子18にAF枠表示板13のAF枠の像が重畳したとしても、より確度高くシーン解析などの処理を行うことができる。   When it is determined that the position of the display AF frame does not change and a scene or the like cannot be specified, the AF frame image is removed from the analysis image 30 on which the AF frame image is superimposed. By performing processing such as scene analysis based on the corrected image that has been subjected to the correction processing, even if the image of the AF frame of the AF frame display plate 13 is superimposed on the analysis image sensor 18, processing such as scene analysis is performed with higher accuracy. It can be performed.

また、AF枠の位置が変化せず、シーンなどが特定できないと判定された場合、AF枠の像が重畳した解析用画像30に対する補正処理は、AF枠の像の画素の値を、その画素に隣接してAF枠の像が重畳していない画素の値で補間することによって行われるが、その補正処理によって、補正画像が元の解析用画像30よりも不自然な画像となり、シーン解析などの処理が困難な場合、解析用画像30と補正画像との両方に対してシーン解析などの処理を施すことにより、補正画像のみに対してシーン解析などの処理を行う場合と比べて、補正による悪影響を小さくすることができる。   When it is determined that the position of the AF frame does not change and the scene or the like cannot be specified, the correction processing for the analysis image 30 on which the AF frame image is superimposed is performed by using the pixel value of the AF frame image as the pixel value. Is performed by interpolating with the value of a pixel adjacent to the image of the AF frame that is not superimposed, the correction process results in an unnatural image compared to the original analysis image 30, and scene analysis, etc. If it is difficult to perform the above process, by performing a process such as scene analysis on both the analysis image 30 and the corrected image, it is possible to perform correction as compared with the case where the process such as scene analysis is performed only on the corrected image. Adverse effects can be reduced.

さらに、補正画像に対してシーン解析などの処理を行う時に、補正を行ったAF枠付近の画像領域40に対してのみシーン解析などの処理を行うことで、補正画像全体について再度シーン解析などの処理を行う場合に比べて、演算量の徒な増加を回避することができる。
≪第4の実施形態≫
本発明の第4の実施形態に係るカメラは、図1の第1の実施形態に係るカメラ100と同じ構成を有し、各構成要素の詳細な説明は省略する。
Further, when processing such as scene analysis is performed on the corrected image, scene analysis or the like is performed again on the entire corrected image by performing processing such as scene analysis only on the image area 40 near the corrected AF frame. Compared with the case where processing is performed, an increase in the amount of computation can be avoided.
<< Fourth Embodiment >>
The camera according to the fourth embodiment of the present invention has the same configuration as the camera 100 according to the first embodiment of FIG. 1, and detailed description of each component will be omitted.

本実施形態に係るカメラ100と第1の実施形態に係るものと異なる点は、最初に、ボディ側マイコン22が、解析用撮像素子18によって撮像された解析用画像30に重畳したAF枠の像の補正処理を行い、画像処理部26に補正画像に対するシーン解析などの処理を行わせ、その処理の結果に応じて、画像処理部26に解析用画像30に対するシーン解析などの処理を行わせるか否かを判定する点にある。   The difference between the camera 100 according to the present embodiment and that according to the first embodiment is that an image of the AF frame superimposed on the analysis image 30 first captured by the body-side microcomputer 22 by the analysis image sensor 18. Whether to cause the image processing unit 26 to perform processing such as scene analysis on the corrected image, and to cause the image processing unit 26 to perform processing such as scene analysis on the analysis image 30 according to the result of the processing. The point is to determine whether or not.

以下において、図4(a)に示すように、被写体である人物とともに、AF枠表示板13のAF枠A4が解析用撮像素子18によって撮像された解析用画像30に対する、ボディ側マイコン22によるシーン解析、測光演算、ボディ制御演算などの処理について、図7のフローチャートを参照して説明する。なお、以下の説明におけるボディ側マイコン22による処理として、シーン解析の1つである顔検出と測光演算とを例に説明する。また、この処理において、LED14を点灯させずに、AF枠の像が黒枠で表示される場合を例に説明するが、合焦状態となって、LED14が点灯されAF枠の像が赤く表示される場合でも同様の処理が行われる。   In the following, as shown in FIG. 4A, a scene by the body-side microcomputer 22 with respect to an analysis image 30 in which the AF frame A4 of the AF frame display board 13 is imaged by the analysis image sensor 18 together with a person who is a subject. Processing such as analysis, photometry calculation, and body control calculation will be described with reference to the flowchart of FIG. In addition, as a process by the body side microcomputer 22 in the following description, face detection and photometry calculation which are one of scene analysis will be described as an example. In this process, the case where the image of the AF frame is displayed as a black frame without turning on the LED 14 will be described as an example. However, the focused state is reached, and the image of the AF frame is displayed in red. The same processing is performed even when

ユーザにより、操作部材(不図示)の電源釦が押され、または、レリーズ釦が半押しされることで、カメラ100に電源が投入される。そして、ボディ側マイコン22は、ステップS31からの処理を開始する。   When the user presses a power button on an operation member (not shown) or presses the release button halfway, the camera 100 is powered on. And the body side microcomputer 22 starts the process from step S31.

ステップS31:ボディ側マイコン22は、撮像素子駆動部25に対して、解析用撮像素子18の撮像面に結像される被写体の撮像指示を出力する。撮像素子駆動部25は、解析用撮像素子18に、図4(a)に示すような、AF枠表示板13のAF枠A4の像が重畳した被写体を撮像させる。解析用撮像素子18は、解析用画像30を生成する。   Step S <b> 31: The body side microcomputer 22 outputs an imaging instruction of the subject imaged on the imaging surface of the analysis imaging element 18 to the imaging element driving unit 25. The image sensor drive unit 25 causes the analysis image sensor 18 to capture a subject on which the image of the AF frame A4 of the AF frame display board 13 is superimposed as shown in FIG. The analysis image sensor 18 generates an analysis image 30.

ステップS32:ボディ側マイコン22は、撮像素子駆動部25に対して、解析用撮像素子18に解析用画像30の画像信号を出力させる指示を出す。その解析用画像30の画像信号は、ボディ側マイコン22に備えられたメモリ(不図示)に記録される。   Step S32: The body side microcomputer 22 instructs the image sensor drive unit 25 to output the image signal of the analysis image 30 to the analysis image sensor 18. The image signal of the analysis image 30 is recorded in a memory (not shown) provided in the body side microcomputer 22.

ステップS33:ボディ側マイコン22は、メモリ(不図示)に記録された解析用画像30に対して、重畳したAF枠A4の像を除去するなどの補正処理を行い、補正画像を生成する。   Step S33: The body side microcomputer 22 performs a correction process such as removing the superimposed image of the AF frame A4 on the analysis image 30 recorded in the memory (not shown) to generate a corrected image.

ステップS34:ボディ側マイコン22は、ステップS33において、生成した補正画像に対するシーン解析を行うために、その補正画像を画像処理部26へ転送する。画像処理部26は、補正画像に対してシーン解析の1つである顔検出を行う。   Step S34: In step S33, the body side microcomputer 22 transfers the corrected image to the image processing unit 26 in order to perform scene analysis on the generated corrected image. The image processing unit 26 performs face detection, which is one of scene analysis, on the corrected image.

ステップS35:ボディ側マイコン22は、ステップS34において、画像処理部26により補正画像から顔検出できたか否かを判定する。ボディ側マイコン22は、顔検出ができたと判定した場合、ステップS37(YES側)へ移行する。一方、ボディ側マイコン22は、顔検出ができなかったと判定した場合、ステップS36(NO側)へ移行する。   Step S35: In step S34, the body side microcomputer 22 determines whether or not the image processing unit 26 has detected the face from the corrected image. If the body side microcomputer 22 determines that the face has been detected, the process proceeds to step S37 (YES side). On the other hand, if the body side microcomputer 22 determines that face detection has failed, the process proceeds to step S36 (NO side).

ステップS36:ボディ側マイコン22は、解析用画像30に対するシーン解析を行うために、解析用画像30を画像処理部26へ転送する。画像処理部26は、解析用画像30に対して顔検出を再度行う。ただし、本実施形態における画像処理部26は、解析用画像30に対する顔検出を画像全体に対して行わず、図4(a)および(b)に示すように、AF枠A4の位置を中心とした所定の大きさの画像領域40における解析用画像30の画素値を用いて、顔検出を行う。なお、本実施形態における画像領域40の大きさは、元の解析用画像30の1/3などの大きさであるとする。   Step S <b> 36: The body side microcomputer 22 transfers the analysis image 30 to the image processing unit 26 in order to perform scene analysis on the analysis image 30. The image processing unit 26 performs face detection again on the analysis image 30. However, the image processing unit 26 according to the present embodiment does not perform face detection for the analysis image 30 on the entire image, and as shown in FIGS. 4A and 4B, the position of the AF frame A4 is the center. Face detection is performed using the pixel values of the analysis image 30 in the image region 40 having a predetermined size. It is assumed that the size of the image area 40 in the present embodiment is a size such as 1/3 of the original analysis image 30.

ステップS37: ボディ側マイコン22は、解析用画像30または補正画像を用いて、測光演算を行う。   Step S37: The body side microcomputer 22 performs photometric calculation using the analysis image 30 or the corrected image.

ステップS38:ボディ側マイコン22は、ユーザによって操作部材(不図示)の電源釦が再度押された、または、所定の時間が経過したことにより、カメラ100がOFF状態であるか否かを判定する。ボディ側マイコン22は、カメラ100がOFF状態であると判定した場合(YES側)、一連の処理を終了する。一方、ボディ側マイコン22は、カメラ100がON状態と判定した場合、ステップS31(NO側)へ移行して、解析用撮像素子18によって撮像される次の解析用画像30に対して、ステップS31〜ステップS38の処理を行う。そして、もしユーザによって操作部材(不図示)のレリーズ釦が全押しされた場合、ボディ側マイコン22は、求めた露出条件に基づいてシャッタや絞りなどを制御して、画像用撮像素子19による撮像を行う。   Step S38: The body side microcomputer 22 determines whether or not the camera 100 is in the OFF state when the power button of the operation member (not shown) is pressed again by the user or a predetermined time has elapsed. . When it is determined that the camera 100 is in the OFF state (YES side), the body side microcomputer 22 ends the series of processes. On the other hand, when the camera 100 determines that the camera 100 is in the ON state, the body side microcomputer 22 proceeds to step S31 (NO side) and performs step S31 on the next analysis image 30 captured by the analysis image sensor 18. -The process of step S38 is performed. If the release button of the operation member (not shown) is fully pressed by the user, the body side microcomputer 22 controls the shutter, the diaphragm, and the like based on the obtained exposure condition, and the imaging by the image pickup device 19 is performed. I do.

このように、本実施形態では、AF枠表示板13のAF枠A1〜A15の像が重畳した解析用画像30に対して、AF枠の像を除去するなどの補正処理を施した補正画像に基づいてシーン解析などの処理を行うことにより、解析用撮像素子18にAF枠表示板13のAF枠の像が重畳したとしても、より確度高くシーン解析などの処理を行うことができる。   As described above, in the present embodiment, a correction image obtained by performing correction processing such as removing the image of the AF frame on the analysis image 30 on which the images of the AF frames A1 to A15 of the AF frame display board 13 are superimposed is applied. By performing processing such as scene analysis based on the above, processing such as scene analysis can be performed with higher accuracy even if the image of the AF frame of the AF frame display plate 13 is superimposed on the image sensor 18 for analysis.

また、AF枠の像が重畳した解析用画像30に対する補正処理は、AF枠の像の画素の値を、その画素に隣接してAF枠の像が重畳していない画素の値で補間することで行われるが、その補正処理によって、補正画像が元の解析用画像30よりも不自然な画像となり、シーン解析などの処理が困難な場合、解析用画像30と補正画像との両方に対してシーン解析などの処理を施すことにより、補正画像のみに対してシーン解析などの処理を行う場合と比べて、補正による悪影響を小さくすることができる。   Further, the correction processing for the analysis image 30 on which the AF frame image is superimposed interpolates the pixel value of the AF frame image with the pixel value adjacent to the pixel and not superimposed with the AF frame image. However, when the correction process results in an unnatural image than the original analysis image 30 and the process such as scene analysis is difficult, the correction process is performed on both the analysis image 30 and the correction image. By performing processing such as scene analysis, it is possible to reduce the adverse effects of correction compared to the case where processing such as scene analysis is performed only on the corrected image.

さらに、解析用画像30に対してシーン解析などの処理を行う時に、重畳しているAF枠の像付近の画像領域40に対してのみシーン解析などの処理を行うことで、解析用画像30全体について再度シーン解析などの処理を行う場合に比べて、演算量の徒な増加を回避することができる。
≪実施形態の補足事項≫
第1の実施形態ないし第4の実施形態では、画像処理部26の処理として、測光演算と、シーン解析、特に、顔検出とを説明したが、本発明はこれに限定されず、他の解析演算を行っても良い。例えば、記憶した被写体の色や輝度パターン情報を記憶して、次々入力される解析用画像30の中で、記憶した情報と最も類似する部分を検索する、テンプレートマッチングによる追尾演算を解析演算として行うことができ、AF枠の重畳の影響を小さくしてより正確に演算を行うことができる。
Furthermore, when processing such as scene analysis is performed on the analysis image 30, the entire analysis image 30 is obtained by performing processing such as scene analysis only on the image region 40 near the superimposed AF frame image. As compared with the case where processing such as scene analysis is performed again, an increase in the amount of computation can be avoided.
≪Supplementary items of embodiment≫
In the first to fourth embodiments, photometric calculation and scene analysis, particularly face detection, have been described as the processing of the image processing unit 26. However, the present invention is not limited to this, and other analysis is performed. An operation may be performed. For example, the stored subject color and luminance pattern information is stored, and a tracking operation based on template matching is performed as an analysis operation to search for a portion most similar to the stored information in the analysis image 30 input one after another. It is possible to perform the calculation more accurately by reducing the influence of the AF frame superposition.

なお、第1の実施形態ないし第4の実施形態では、図2に示したAF枠表示板13におけるAF枠の配置は一例であり、これ以外のレイアウトやサイズであっても、本発明を同様に適用することができる。   In the first to fourth embodiments, the arrangement of the AF frames on the AF frame display board 13 shown in FIG. 2 is an example, and the present invention is similarly applied to other layouts and sizes. Can be applied to.

また、AF枠表示板13およびLED14の構成や組み合わせについても一例であり、これ以外の構成や組み合わせであっても、本発明を同様に適用することができる。例えば、LED14に代えて、複数のAF枠のそれぞれを独立に照明可能な照明装置を備えても良いし、照明の色を変更可能な照明装置を備えても良い。この場合、例えば、ユーザに対してエラーを報知する際などに、AF枠を照明する照明の色を変更することにより報知を行うことができる。また、AF枠表示板13およびLED14に代えて、AF枠の表示および照明を同時に行うことが可能な自発光型の表示素子を備えても良い。   Further, the configuration and combination of the AF frame display board 13 and the LED 14 are only examples, and the present invention can be similarly applied to other configurations and combinations. For example, instead of the LED 14, an illumination device that can independently illuminate each of the plurality of AF frames may be provided, or an illumination device that can change the color of illumination may be provided. In this case, for example, when an error is notified to the user, the notification can be performed by changing the color of the illumination that illuminates the AF frame. Further, instead of the AF frame display plate 13 and the LED 14, a self-luminous display element capable of simultaneously displaying and illuminating the AF frame may be provided.

なお、第1の実施形態ないし第4の実施形態では、図4(a)および(b)に示した画像領域40の大きさを、元の解析用画像30や補正画像の1/3としたが、本発明はこれに限定されず、画像領域40の大きさは、ボディ側マイコン22や画像処理部26の処理能力などに応じて適宜決めることが好ましい。   In the first to fourth embodiments, the size of the image region 40 shown in FIGS. 4A and 4B is set to 1/3 of the original analysis image 30 and the corrected image. However, the present invention is not limited to this, and the size of the image region 40 is preferably determined as appropriate according to the processing capability of the body side microcomputer 22 and the image processing unit 26.

なお、第1の実施形態ないし第4の実施形態では、ボディ側マイコン22と画像処理部26とは別々の構成要素として扱ったが、本発明はこれに限定されず、1つのマイコンで処理できるようにしても良い。   In the first to fourth embodiments, the body side microcomputer 22 and the image processing unit 26 are treated as separate components, but the present invention is not limited to this and can be processed by one microcomputer. You may do it.

なお、第1の実施形態ないし第4の実施形態では、解析用撮像素子18のフレームレートを10〜20fpsとしたが、本発明はこれに限定されず、解析用撮像素子18の撮像能力、ボディ側マイコン22や画像処理部26の処理能力などに応じて適宜決めることが好ましい。   In the first to fourth embodiments, the frame rate of the analysis image sensor 18 is set to 10 to 20 fps. However, the present invention is not limited to this, and the imaging capability and body of the analysis image sensor 18 are determined. It is preferable to determine appropriately according to the processing capability of the side microcomputer 22 and the image processing unit 26.

また、第1の実施形態ないし第4の実施形態で例示したカメラ100は、一例であり、測光装置や他の構成のカメラにも本発明を同様に適用することができる。例えば、銀塩カメラや、レンズとボディとが一体となって構成されたカメラにも本発明を同様に適用することができる。   The camera 100 illustrated in the first to fourth embodiments is an example, and the present invention can be similarly applied to a photometric device or a camera having another configuration. For example, the present invention can be similarly applied to a silver salt camera or a camera in which a lens and a body are integrated.

1 撮像レンズ、2 絞り、3 レンズ駆動部、4 距離検出部、5 絞り制御部、6 レンズ側マイコン、7 電気接点、11 クイックターンミラー、12 焦点板、13 AF枠表示板、 14 LED、 15 ペンタプリズム、16 接眼レンズ、17 再結像レンズ、18 解析用撮像素子、19 画像用撮像素子、20 シャッタ、21 サブミラー、22 ボディ側マイコン、23 焦点検出部、24 シャッタ制御部、25、27 撮像素子駆動部、26 画像処理部、28 表示板制御部、29 LED駆動部
DESCRIPTION OF SYMBOLS 1 Imaging lens, 2 Aperture, 3 Lens drive part, 4 Distance detection part, 5 Aperture control part, 6 Lens side microcomputer, 7 Electrical contact, 11 Quick turn mirror, 12 Focus plate, 13 AF frame display board, 14 LED, 15 Penta prism, 16 eyepiece lens, 17 re-imaging lens, 18 image sensor for analysis, 19 image sensor for image, 20 shutter, 21 submirror, 22 body side microcomputer, 23 focus detection unit, 24 shutter control unit, 25, 27 Element driving unit, 26 image processing unit, 28 display panel control unit, 29 LED driving unit

Claims (5)

光学系による像に重畳して指標を表示する指標表示部と、
前記指標表示部によって表示される前記指標を前記光学系による像に重畳した画像を撮像して第1画像を生成する撮像部と、
前記第1画像内の前記指標の像を補正した第2画像を生成する補正部と、
所定の条件に基づいて、前記第1画像と前記第2画像との少なくとも一方の画像を用いて、前記光学系による像の情報を処理する処理部と、
前記指標表示部による前記指標の表示位置が変化したか否かを判定する判定部と、を備え、
前記処理部は、
前記判定部が前記指標の表示位置が変化していないと判定した場合、前記第2画像を用いて処理を行う
とを特徴とする測光装置。
An index display unit that displays an index superimposed on an image by the optical system;
An imaging unit that captures an image in which the index displayed by the index display unit is superimposed on an image of the optical system to generate a first image;
A correction unit that generates a second image obtained by correcting the image of the index in the first image;
A processing unit that processes image information by the optical system using at least one of the first image and the second image based on a predetermined condition;
A determination unit that determines whether or not the display position of the index by the index display unit has changed,
The processor is
If the determination unit determines that the display position of the index has not changed, the second image is used for processing.
Photometric device comprising a call.
光学系による像に重畳して指標を表示する指標表示部と
前記指標表示部によって表示される前記指標を前記光学系による像に重畳した画像を撮像して第1画像を生成する撮像部と、
前記第1画像内の前記指標の像を補正した第2画像を生成する補正部と、
所定の条件に基づいて、前記第1画像と前記第2画像との少なくとも一方の画像を用いて、前記光学系による像の情報を処理する処理部と、
前記指標表示部による前記指標の表示位置が変化したか否かを判定する判定部と、を備え、
前記処理部は、
前記判定部が前記指標の表示位置が変化しと判定した場合、前記第画像を用いて処理を行う
ことを特徴とする測光装置。
An index display unit that displays an index superimposed on an image by the optical system ;
An imaging unit that captures an image in which the index displayed by the index display unit is superimposed on an image of the optical system to generate a first image;
A correction unit that generates a second image obtained by correcting the image of the index in the first image;
A processing unit that processes image information by the optical system using at least one of the first image and the second image based on a predetermined condition;
And a determination unit configured to determine whether or not the display position of the index is changed by the indicator display unit,
The processor is
When the determination unit determines that the display position of the index is changed, the photometric apparatus and performs a process using the first image.
請求項1または請求項2に記載の測光装置において
前記処理部は、
前記像の情報の処理の結果に応じて、前記第1画像および前記第2画像のうちの異なる画像を用いて処理を行う
ことを特徴とする測光装置。
In the photometric device according to claim 1 or 2 ,
The processor is
A photometric device characterized in that processing is performed using a different image of the first image and the second image in accordance with a result of processing of the image information .
請求項に記載の測光装置において、
前記処理部は、
前記異なる画像に対する像の情報の処理を、前記指標を含む所定の大きさの画像に対して行う
ことを特徴とする測光装置。
The photometric device according to claim 3 ,
The processor is
The processing of information of an image for the different image, a photometric apparatus and performs for a given size of the image containing the index.
請求項1ないし請求項4のいずれか1項に記載の測光装置
前記光学系による像を撮像する撮像素子と、
を備えることを特徴とする撮像装置。
A metering device according to any one of claims 1 to claim 4,
An image sensor for capturing an image by the optical system;
Imaging device, characterized in that it comprises a.
JP2009232378A 2009-10-06 2009-10-06 Photometric device and imaging device Expired - Fee Related JP5515589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009232378A JP5515589B2 (en) 2009-10-06 2009-10-06 Photometric device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009232378A JP5515589B2 (en) 2009-10-06 2009-10-06 Photometric device and imaging device

Publications (2)

Publication Number Publication Date
JP2011082740A JP2011082740A (en) 2011-04-21
JP5515589B2 true JP5515589B2 (en) 2014-06-11

Family

ID=44076348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009232378A Expired - Fee Related JP5515589B2 (en) 2009-10-06 2009-10-06 Photometric device and imaging device

Country Status (1)

Country Link
JP (1) JP5515589B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5423836B2 (en) 2011-08-15 2014-02-19 株式会社ニコン Viewfinder unit, imaging device, and display control program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311126A (en) * 2005-04-27 2006-11-09 Olympus Imaging Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2011082740A (en) 2011-04-21

Similar Documents

Publication Publication Date Title
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
US7944499B2 (en) Single lens reflex type electronic imaging apparatus
JP5676988B2 (en) Focus adjustment device
US8345147B2 (en) Image pickup apparatus
JP2009267566A (en) Image pickup apparatus
JP4745077B2 (en) Imaging device
JP2010014788A (en) Imaging element and imaging device
JP5515589B2 (en) Photometric device and imaging device
JP5110043B2 (en) Imaging device
JP2009044382A (en) Display of camera
JP2010224290A (en) Camera
JP2005024858A (en) Digital single lens reflex camera
JP5347269B2 (en) Imaging device
JP5672922B2 (en) Imaging device
JP2015018194A (en) Focus detection unit and image capturing device
JP2007036951A (en) Camera having electronic viewfinder
JP2005345501A (en) Electronic camera
JP2003029137A (en) Automatic focusing detector
JP2012063681A (en) Focus detecting device and camera
JP2005006217A (en) Digital single lens reflex camera
JP2009037031A (en) Display device and camera equipped with it
JP2007057933A (en) Camera having electronic view finder
JP2005055768A (en) Focus detector
JP2007156249A (en) Focus detector
JP2010072284A (en) Focusing unit for camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5515589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees