JP2015126387A - Image pickup device, and control method and program of the same - Google Patents

Image pickup device, and control method and program of the same Download PDF

Info

Publication number
JP2015126387A
JP2015126387A JP2013269682A JP2013269682A JP2015126387A JP 2015126387 A JP2015126387 A JP 2015126387A JP 2013269682 A JP2013269682 A JP 2013269682A JP 2013269682 A JP2013269682 A JP 2013269682A JP 2015126387 A JP2015126387 A JP 2015126387A
Authority
JP
Japan
Prior art keywords
row
image
evaluation value
subject
value calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013269682A
Other languages
Japanese (ja)
Inventor
大久保 俊之
Toshiyuki Okubo
俊之 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013269682A priority Critical patent/JP2015126387A/en
Publication of JP2015126387A publication Critical patent/JP2015126387A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Stroboscope Apparatuses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To inhibit a decrease in frame rate of a moving image and influence by auxiliary light for setting a photographing condition and information of a subject on the moving image when the auxiliary light is emitted while acquiring the moving image by one image pickup element.SOLUTION: An image pickup device comprises: a charge storage image pickup element which has a plurality of pixels arranged two-dimensionally and which can independently control reading cycle of a first row for a moving image and a second row different from the first row, for evaluation value calculation; first control means for controlling light emission of light emission means and second control means for controlling a storage time of the light emitting element, in which a photographing condition by the first row at the time of photography is set based on an image for the evaluation value calculation. The image pickup device causes the light emission means to emit light up to the next storage after a stop of storage for a moving image when photography for evaluation value calculation is performed by causing the emission means to emit light, and causes the second row to store charge in order to acquire the image for evaluation value calculation by causing the emission means to emit light up to the start of the next storage after the stop of storage for the moving image.

Description

本発明は、動画を取得しつつ、撮影条件や被写体の情報を設定することが可能な撮像素子を備える撮像装置および、その制御方法とプログラムに関する。   The present invention relates to an imaging apparatus including an imaging element capable of setting shooting conditions and subject information while acquiring a moving image, and a control method and program thereof.

従来、暗い被写体を撮像して動画を取得する場合に、補助光によって被写体が照明された状態の画像を用いて撮影条件や被写体の情報を設定するための評価値を算出する撮像装置が一般的に知られている。このような撮像装置において、補助光によって被写体を照明することで評価値を算出しつつ、ユーザの撮影意図に関係の無い補助光が、取得する動画に影響しないことが望ましい。   Conventionally, when capturing a moving image by capturing a dark subject, an imaging device that calculates an evaluation value for setting shooting conditions and subject information using an image in which the subject is illuminated by auxiliary light is generally used. Known to. In such an imaging apparatus, it is desirable that the auxiliary light not related to the user's intention to shoot does not affect the acquired moving image while calculating the evaluation value by illuminating the subject with the auxiliary light.

特許文献1には、1つの撮像素子において動画記録用のフレームとAF/AE評価用のフレームとが、それぞれ分けて設けられたデジタルカメラが記載されている。そして、AF/AE評価用のフレームで画像データを取得する際に、被写体に補助光を照射することについて記載されている。   Patent Document 1 describes a digital camera in which a moving image recording frame and an AF / AE evaluation frame are separately provided in one image sensor. Then, it describes that the subject is irradiated with auxiliary light when the image data is acquired with the AF / AE evaluation frame.

特開2007−163527号公報JP 2007-163527 A

しかしながら、特許文献1のデジタルカメラは、1つの撮像素子において動画記録用のフレームとAF/AE評価用のフレームの両方が設けられているので、動画のフレームレートが低下してしまう。   However, since the digital camera disclosed in Patent Document 1 is provided with both a moving image recording frame and an AF / AE evaluation frame in one image sensor, the moving image frame rate is reduced.

本発明の目的は、1つの撮像素子を用いて動画を取得しながら撮影条件や被写体の情報を設定するための補助光を発光する場合に、動画のフレームが低下することなく、補助光の発光が動画に影響することを抑制することである。   An object of the present invention is to emit auxiliary light without lowering a frame of a moving image when emitting auxiliary light for setting shooting conditions and subject information while acquiring a moving image using one image sensor. Is to suppress the influence on the video.

上記目的を達成するための本発明に係る撮像装置は、行方向と列方向に並べられた複数の画素を有し、第1の行と前記第1の行とは異なる第2の行とでそれぞれ独立して読み出し周期の制御が可能な電荷蓄積型の撮像素子と、被写体を照明する発光手段の発光を制御する第1の制御手段と、前記撮像素子の前記第1の行と前記第2の行の蓄積時間を制御する第2の制御手段とを有し、前記第2の行によって取得する評価値算出用の画像に基づいて、前記第1の行によって被写体を撮像する際の撮影条件を設定する撮像装置であって、前記第1の制御手段は、前記発光手段を発光させて前記第2の行で評価値算出用に被写体を撮像する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段を発光させ、前記第2の制御手段は、前記発光手段を発光させる期間と少なくとも一部が重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行わせることを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes a plurality of pixels arranged in a row direction and a column direction, and a first row and a second row different from the first row. A charge storage type image sensor capable of independently controlling the readout cycle, first control means for controlling the light emission of the light emitting means for illuminating the subject, the first row and the second of the image sensor. A second control unit that controls the accumulation time of the first row, and based on an evaluation value calculation image acquired by the second row, a photographing condition when the subject is imaged by the first row Wherein the first control unit emits light from the light emitting unit and captures an object for evaluation value calculation in the second row. During the period from when the accumulation of the video is completed to when the accumulation for the next video is started. And the second control unit causes the second row to accumulate for the evaluation value calculation image in the second row in a period at least partially overlapping the period in which the light emitting unit emits light. It is characterized by.

また、上記目的を達成するための他の本発明に係る撮像装置は、行方向と列方向に並べられた複数の画素を有し、第1の行と前記第1の行とは異なる第2の行とでそれぞれ独立して読み出し周期の制御が可能な電荷蓄積型の撮像素子と、被写体を照明する発光手段の発光を制御する第1の制御手段と、前記撮像素子の前記第1の行と前記第2の行の蓄積時間を制御する第2の制御手段とを有し、前記第2の行によって取得された評価値算出用の画像に基づいて取得した被写体の情報を前記第1の行によって取得した画像に関連付けることが可能な撮像装置であって、前記第1の制御手段は、前記発光手段を発光させて前記第2の行で評価値算出用に被写体を撮像する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段を発光させ、前記第2の制御手段は、前記発光手段を発光させる期間と少なくとも一部が重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行わせることを特徴とする。   Further, another imaging device according to the present invention for achieving the above object has a plurality of pixels arranged in a row direction and a column direction, and the first row is different from the first row. A charge storage type image sensor capable of controlling the readout cycle independently for each row, first control means for controlling the light emission of the light emitting means for illuminating the subject, and the first row of the image sensor. And second control means for controlling the accumulation time of the second row, and the subject information acquired based on the evaluation value calculation image acquired by the second row is the first An imaging apparatus capable of associating with an image acquired by a row, wherein the first control means causes the light emitting means to emit light and images a subject for evaluation value calculation in the second row. In the first row, after the accumulation for the moving image is completed, the accumulation for the next moving image is opened. The light emitting means is caused to emit light during a period until the light emitting means is emitted, and the second control means is for calculating the evaluation value in the second row during a period at least partially overlapping with the period during which the light emitting means is caused to emit light. It is characterized in that accumulation is performed for the images.

本発明によれば、1つの撮像素子を用いて動画を取得しながら撮影条件や被写体の情報を設定するための補助光を発光する場合に、動画のフレームが低下することなく、補助光の発光が動画に影響することを抑制することが出来る。   According to the present invention, in the case where auxiliary light for setting shooting conditions and subject information is emitted while acquiring a moving image using a single image sensor, the auxiliary light is emitted without lowering the frame of the moving image. Can suppress the influence on the video.

本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100を説明する図である。It is a figure explaining the digital camera 100 which is 1st Embodiment of the imaging device which implemented this invention. 本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100の内部構成を説明するブロック図である。1 is a block diagram illustrating an internal configuration of a digital camera 100 that is a first embodiment of an imaging apparatus embodying the present invention. 本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100の撮像部204を説明する図である。It is a figure explaining the imaging part 204 of the digital camera 100 which is 1st Embodiment of the imaging device which implemented this invention. 本発明を実施する撮像装置の第1実施形態であるデジタルカメラ100の撮像素子205からの信号の読み出し行を模式的に説明する図である。It is a figure which illustrates typically the reading line of the signal from the image pick-up element 205 of the digital camera 100 which is 1st Embodiment of the imaging device which implements this invention. 図5は本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100の動画取得処理を説明するフローチャートである。FIG. 5 is a flowchart for explaining the moving image acquisition process of the digital camera 100 which is the first embodiment of the imaging apparatus embodying the present invention. 本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100の発光部219の発光タイミングと撮像素子205の蓄積タイミングを説明するタイミングチャートである。3 is a timing chart illustrating light emission timings of a light emitting unit 219 and storage timings of an image sensor 205 of a digital camera 100 that is a first embodiment of an imaging apparatus embodying the present invention. 本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100の発光部219の発光時間と撮像素子205の蓄積時間との関係を説明するタイミングチャートである。6 is a timing chart for explaining the relationship between the light emission time of the light emitting unit 219 and the accumulation time of the image sensor 205 of the digital camera 100 which is the first embodiment of the image pickup apparatus embodying the present invention. 本発明を実施した撮像装置の第1実施形態であるデジタルカメラ100のフォーカス制御処理を説明するフローチャートである。It is a flowchart explaining the focus control processing of the digital camera 100 which is 1st Embodiment of the imaging device which implemented this invention. 本発明を実施した撮像装置の第2実施形態であるデジタルカメラ100の動画取得処理を説明するフローチャートである。It is a flowchart explaining the moving image acquisition process of the digital camera 100 which is 2nd Embodiment of the imaging device which implemented this invention. 本発明を実施した撮像装置の第2実施形態であるデジタルカメラ100の発光部219の発光タイミングと撮像素子205の蓄積タイミングを説明するタイミングチャートである。It is a timing chart explaining the light emission timing of the light emission part 219 and the accumulation | storage timing of the image pick-up element 205 of the digital camera 100 which is 2nd Embodiment of the imaging device which implemented this invention. 本発明を実施した撮像装置の第2実施形態であるデジタルカメラ100の被写体認証処理を説明するフローチャートである。It is a flowchart explaining the subject authentication process of the digital camera 100 which is 2nd Embodiment of the imaging device which implemented this invention.

(第1実施形態)
本発明に係る第1実施形態としての撮像装置であるデジタルカメラ(以下、単にカメラと称す)100について図1〜図8を参照して説明する。
(First embodiment)
A digital camera (hereinafter simply referred to as a camera) 100 that is an imaging apparatus according to a first embodiment of the present invention will be described with reference to FIGS.

図1は、本発明を実施した撮像装置の第1実施形態であるカメラ100を説明する図であって、カメラ100の背面図を示している。以下、図1に記載された各部を説明する。   FIG. 1 is a diagram for explaining a camera 100 that is a first embodiment of an imaging apparatus embodying the present invention, and shows a rear view of the camera 100. Hereinafter, each part described in FIG. 1 will be described.

カメラ100の背面には、画像や各種情報を表示する表示部101が設けられている。表示部101は、例えば、液晶ディスプレイ或いは有機ELディスプレイ等であり、タッチパネルとして入力機能を備えることにより操作部として機能するものであってもよい。   A display unit 101 that displays images and various information is provided on the back of the camera 100. The display unit 101 is, for example, a liquid crystal display or an organic EL display, and may function as an operation unit by providing an input function as a touch panel.

また、カメラ100の背面には、ユーザによる各種操作を受け付ける各種のスイッチやボタン等の操作部材からなる操作部102が設けられている。なお、操作部102の一部は、カメラ100の上面にも設けられている。   In addition, an operation unit 102 including operation members such as various switches and buttons that accept various operations by the user is provided on the back surface of the camera 100. A part of the operation unit 102 is also provided on the upper surface of the camera 100.

また、カメラ100の背面には、被写体に対する撮影モード等を切り替えるモード切替スイッチ104と、回転操作可能なコントローラホイール103が設けられている。操作部102、コントローラホイール103及びモード切替スイッチ104の機能等の詳細については、図2を参照して後述する。   Further, on the back surface of the camera 100, there are provided a mode changeover switch 104 for switching a photographing mode for a subject and a controller wheel 103 that can be rotated. Details of functions of the operation unit 102, the controller wheel 103, and the mode changeover switch 104 will be described later with reference to FIG.

カメラ100の上面には、被写体の撮影指示を行うシャッタボタン121と、カメラ100の電源オン/電源オフを切り替える電源スイッチ122とが設けられている。シャッタボタン121の機能の詳細については、図2を参照して後述する。   On the upper surface of the camera 100, a shutter button 121 for instructing photographing of a subject and a power switch 122 for switching the power on / off of the camera 100 are provided. Details of the function of the shutter button 121 will be described later with reference to FIG.

カメラ100の側面には、コネクタ112が設けられている。カメラ100はこのコネクタ112と、コネクタ112に接続可能な接続ケーブル111を介して、不図示の外部装置と接続ができる。そして、カメラ100は、接続ケーブル111及びコネクタ112を介して、不図示の外部装置に静止画、動画に係るデジタル画像データを出力することができる。   A connector 112 is provided on the side surface of the camera 100. The camera 100 can be connected to an external device (not shown) via the connector 112 and a connection cable 111 that can be connected to the connector 112. The camera 100 can output digital image data relating to still images and moving images to an external device (not shown) via the connection cable 111 and the connector 112.

カメラ100の下面には、蓋131により開閉可能な記録媒体スロット(不図示)が設けられており、当該記録媒体スロットには、メモリカード等の記録媒体130を挿抜することができるようになっている。記録媒体スロットに格納された記録媒体130は、図2を参照して後述するシステム制御部(CPU)212と通信が可能である。なお、記録媒体130は、記録媒体スロットに対して挿抜可能なメモリカード等に限定されるものではなく、DVD−RWディスク等の光学ディスクやハードディスク等の磁気ディスクであってもよい。さらに、カメラ100に内蔵されていてもよい。   A recording medium slot (not shown) that can be opened and closed by a lid 131 is provided on the lower surface of the camera 100, and a recording medium 130 such as a memory card can be inserted into and removed from the recording medium slot. Yes. The recording medium 130 stored in the recording medium slot can communicate with a system control unit (CPU) 212 described later with reference to FIG. The recording medium 130 is not limited to a memory card that can be inserted into and removed from the recording medium slot, but may be an optical disk such as a DVD-RW disk or a magnetic disk such as a hard disk. Further, it may be built in the camera 100.

図2は、本発明を実施した撮像装置の第1実施形態であるカメラ100の内部構成を説明するブロック図である。以下、図2を参照して、カメラ100の内部構成について説明する。   FIG. 2 is a block diagram illustrating the internal configuration of the camera 100 that is the first embodiment of the imaging apparatus embodying the present invention. Hereinafter, the internal configuration of the camera 100 will be described with reference to FIG.

カメラ100は、バリア201と、撮像光学系を構成する撮影レンズ202およびシャッタ203と、撮像部204と、ストロボ218とを備える。   The camera 100 includes a barrier 201, a photographing lens 202 and a shutter 203 that constitute an imaging optical system, an imaging unit 204, and a strobe 218.

バリア201は、撮像光学系を覆うことにより、撮像光学系の汚れや破損を防止する。   The barrier 201 covers the imaging optical system to prevent the imaging optical system from being soiled or damaged.

撮影レンズ202は、ズームレンズやフォーカスレンズを含むレンズ群であり、カメラ100の内部に被写体の光学像を導く。シャッタ203は、絞り機能を備え、撮像素子205に入射する光量を調節する。なお、後述するAF制御部221によるフォーカス制御によって、撮影レンズ202のレンズ位置の移動が制御されて、被写体に対するピント調節が行われる。   The photographing lens 202 is a lens group including a zoom lens and a focus lens, and guides an optical image of a subject into the camera 100. The shutter 203 has a diaphragm function and adjusts the amount of light incident on the image sensor 205. Note that the focus control by the AF control unit 221 to be described later controls the movement of the lens position of the taking lens 202, thereby adjusting the focus on the subject.

撮像部204は、光学像を電気信号(アナログ電気信号)に変換する撮像素子205を有する。撮像素子205は、電荷を蓄積することで画像を生成することが可能な、CCDやCMOSなどの固体撮像素子からなる電荷蓄積型の撮像手段である。   The imaging unit 204 includes an imaging element 205 that converts an optical image into an electrical signal (analog electrical signal). The image sensor 205 is a charge storage type image pickup unit made of a solid-state image sensor such as a CCD or a CMOS capable of generating an image by accumulating charges.

撮像部204は、AFE(Analog Front End)を有しており、当該AFEは、撮像素子205から出力されたアナログ電気信号(アナログ画像データ)に対してゲイン量の調節やサンプリングなどを行う。なお、アナログ画像データに対するゲイン量の調節は、後述のシステム制御部(CPU)212の内部にもうけられた露出制御部222からの指示に応じて行われる。   The imaging unit 204 has an AFE (Analog Front End), and the AFE performs adjustment of a gain amount, sampling, and the like on an analog electric signal (analog image data) output from the imaging element 205. The adjustment of the gain amount for the analog image data is performed according to an instruction from an exposure control unit 222 provided in a system control unit (CPU) 212 described later.

また、撮像部204は、A/D変換部206を有している。A/D変換部206は、撮像素子205から出力され、ゲイン量が調節されたアナログ電気信号(アナログ画像データ)をデジタル信号(デジタル画像データ)に変換する。なお、本実施形態では、後述するCPU212に設けられた測光演算部220が、撮像部204で得た画像データに基づいて被写体の輝度値を算出する。   In addition, the imaging unit 204 includes an A / D conversion unit 206. The A / D conversion unit 206 converts an analog electrical signal (analog image data) output from the image sensor 205 and having an adjusted gain amount into a digital signal (digital image data). In the present embodiment, the photometric calculation unit 220 provided in the CPU 212 described later calculates the luminance value of the subject based on the image data obtained by the imaging unit 204.

また、撮像部204は、評価部207を有している。評価部207は、A/D変換部206により生成されたデジタル画像データから得られる、輝度成分のコントラスト情報からAF評価値などの、撮影条件を設定するための評価値を算出する。評価部207によって算出されたAF評価値などは、後述のCPU212に出力される。   The imaging unit 204 has an evaluation unit 207. The evaluation unit 207 calculates an evaluation value for setting shooting conditions such as an AF evaluation value from the contrast information of the luminance component obtained from the digital image data generated by the A / D conversion unit 206. The AF evaluation value calculated by the evaluation unit 207 is output to the CPU 212 described later.

カメラ100は、画像処理部208、メモリ制御部209、D/A変換部210、メモリ211、発光部219、システム制御部(CPU)212、不揮発性メモリ213、システムタイマー214、システムメモリ215及び表示部101を備える。   The camera 100 includes an image processing unit 208, a memory control unit 209, a D / A conversion unit 210, a memory 211, a light emitting unit 219, a system control unit (CPU) 212, a nonvolatile memory 213, a system timer 214, a system memory 215, and a display. Part 101 is provided.

画像処理部208とメモリ制御部209は、撮像部204においてA/D変換処理により生成されたデジタル画像データを受信する。画像処理部208は、撮像部204から受信するデジタル画像データ、または、メモリ制御部209から受信するデジタル画像データに対し、所定の画素補間や縮小等のリサイズ処理、色変換処理等の処理を行う。   The image processing unit 208 and the memory control unit 209 receive digital image data generated by the A / D conversion process in the imaging unit 204. The image processing unit 208 performs predetermined resizing processing such as pixel interpolation and reduction, color conversion processing, and the like on the digital image data received from the imaging unit 204 or the digital image data received from the memory control unit 209. .

また、画像処理部208は、撮像部204から出力されたデジタル画像データに対するゲイン量を調節することができる。なお、デジタル画像データに対するゲイン量の調節はCPU212の内部に設けられた露出制御部222からの指示に応じて行われる。すなわち、本実施形態では、取得したアナログ画像データおよびデジタル画像データの両方に対するゲイン量の調節は、露出制御部222(第3の制御手段)からの指示に応じて行われる。   The image processing unit 208 can adjust the gain amount for the digital image data output from the imaging unit 204. Note that adjustment of the gain amount for the digital image data is performed in accordance with an instruction from an exposure control unit 222 provided in the CPU 212. That is, in the present embodiment, the gain amount for both the acquired analog image data and digital image data is adjusted in accordance with an instruction from the exposure control unit 222 (third control means).

なお、デジタル画像データは画像処理部208で各種の処理が施された後にCPU212に送られ、CPU212の測光演算部で算出された被写体の輝度値(代表輝度値)に応じてフォーカス制御や露出制御などが実行される。例えば、後述するAF制御部221では、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理などのフォーカス制御が実行される。また、後述の露出制御部222では、AE(自動露出)処理、調光処理、AWB(オートホワイトバランス)処理などが実行される。フォーカス制御などの詳細については後述する。   The digital image data is subjected to various processes by the image processing unit 208 and then sent to the CPU 212. Focus control and exposure control are performed according to the luminance value (representative luminance value) of the subject calculated by the photometric calculation unit of the CPU 212. Etc. are executed. For example, an AF control unit 221 to be described later performs focus control such as TTL (through-the-lens) AF (autofocus) processing. The exposure control unit 222 described later performs AE (automatic exposure) processing, light control processing, AWB (auto white balance) processing, and the like. Details of focus control and the like will be described later.

また、撮像部204から出力されるデジタル画像データは、画像処理部208とメモリ制御部209を介して、あるいは、メモリ制御部209を介して、メモリ211に一時的に記録される。   Further, digital image data output from the imaging unit 204 is temporarily recorded in the memory 211 via the image processing unit 208 and the memory control unit 209 or via the memory control unit 209.

メモリ211は、DRAMなどの記録素子からなる記録部であり、撮像部204によって取得されたデジタル画像データや、表示部101に表示する表示用のアナログ画像データを記録することができる。また、メモリ211は、所定枚数の静止画や所定時間の動画、音声データを記録することができる十分な記憶容量を備えている。また、メモリ211は、画像表示用メモリ(ビデオメモリ)を兼ねている。   The memory 211 is a recording unit composed of a recording element such as a DRAM, and can record digital image data acquired by the imaging unit 204 and analog image data for display displayed on the display unit 101. Further, the memory 211 has a sufficient storage capacity capable of recording a predetermined number of still images, a moving image of predetermined time, and audio data. The memory 211 also serves as an image display memory (video memory).

メモリ211に一時的に記録されたデジタル画像データは、D/A変換部210に送信される。D/A変換部210は、受け取ったデジタル画像データを表示用のアナログ画像データに変換して表示部101に送信する。そして、表示部101は、CPU212からの指示によって、受け取った表示用のアナログ画像データを表示部101に表示する。なお、表示用のアナログ画像データを、表示部101に逐次表示することにより、スルー画像をライブビュー表示することが可能となる。また、表示部101のみでなく、不図示の電子ビューファインダに当該スルー画像をライブビュー表示させることも可能である。   The digital image data temporarily recorded in the memory 211 is transmitted to the D / A conversion unit 210. The D / A conversion unit 210 converts the received digital image data into analog image data for display and transmits it to the display unit 101. The display unit 101 displays the received analog image data for display on the display unit 101 in accordance with an instruction from the CPU 212. In addition, by displaying the analog image data for display on the display unit 101 sequentially, it is possible to perform live view display of the through image. In addition, the through image can be displayed in live view not only on the display unit 101 but also on an electronic viewfinder (not shown).

不揮発性メモリ213は、電気的に消去や記憶が可能なメモリであり、例えば、フラッシュメモリ等に代表されるEEPROM等である。不揮発性メモリ213には、本実施形態において使用される種々のデータが格納されている。例えば、カメラ100において実行されるプログラムや動作用の定数、種々の露出条件、カメラ100内の処理で使用する算出式、発光部219の発光条件、パターンマッチング用のデータなどが不揮発性メモリ213に格納されている。なお、カメラ100において実行されるプログラムとは、図5、図8に示すフローと同様の動作を指示するためのプログラムである。   The non-volatile memory 213 is an electrically erasable and erasable memory, such as an EEPROM typified by a flash memory. The nonvolatile memory 213 stores various data used in this embodiment. For example, a program executed in the camera 100, operation constants, various exposure conditions, calculation formulas used in processing in the camera 100, light emission conditions of the light emitting unit 219, data for pattern matching, and the like are stored in the nonvolatile memory 213. Stored. The program executed in the camera 100 is a program for instructing the same operation as the flow shown in FIGS.

発光部219は、AF補助光などの補助光を発光して被写体を照明する発光手段である。本実施形態では、後述のフォーカス制御に用いるAF評価値を算出するために、撮像素子205の評価値算出用の蓄積行(以下、第2の行)によって被写体を撮像する際に、発光部219のAF補助光によって被写体を照明させる。そして、AF補助光によって被写体が照明された状態の評価値算出用の画像データ(以下、評価値算出画像と称す)を第2の行によって取得し、当該評価値算出画像に基づいてAF評価値を算出する。この構成によって、暗い被写体に対しても適正なフォーカス制御を行うことができる。フォーカス制御の詳細については後述する。   The light emitting unit 219 is a light emitting unit that emits auxiliary light such as AF auxiliary light to illuminate the subject. In the present embodiment, in order to calculate an AF evaluation value used for focus control, which will be described later, when the subject is imaged by an accumulation row for evaluation value calculation (hereinafter referred to as a second row) of the image sensor 205, the light emitting unit 219 The subject is illuminated by the AF auxiliary light. Then, image data for evaluation value calculation (hereinafter referred to as an evaluation value calculation image) in a state where the subject is illuminated by AF auxiliary light is acquired by the second row, and an AF evaluation value is obtained based on the evaluation value calculation image. Is calculated. With this configuration, it is possible to perform appropriate focus control even for a dark subject. Details of the focus control will be described later.

CPU212は、不揮発性メモリ213に記憶されている各種のプログラムを実行するだけでなく、カメラ100の全体的な動作を統括的に制御する。例えば、CPU212は、メモリ211やD/A変換部210、表示部101等を制御することにより、静止画および動画の表示を制御する。また、画像処理部208やメモリ制御部209、後述の電源制御部217などに対して制御の指示を行う。なお、CPU212の内部には測光演算部220、AF制御部221、露出制御部222、発光制御部223などが設けられている。   The CPU 212 not only executes various programs stored in the nonvolatile memory 213 but also comprehensively controls the overall operation of the camera 100. For example, the CPU 212 controls display of still images and moving images by controlling the memory 211, the D / A conversion unit 210, the display unit 101, and the like. Also, control instructions are given to the image processing unit 208, the memory control unit 209, a power source control unit 217, which will be described later, and the like. In the CPU 212, a photometric calculation unit 220, an AF control unit 221, an exposure control unit 222, a light emission control unit 223, and the like are provided.

測光演算部220は、撮像部204によって取得したデジタル画像データを受け、撮像部204で撮像した被写体の輝度値を算出する。測光演算部220による輝度値の算出方法として、まず、撮像部204で取得した画像データ(一画面分)を複数のブロックに分割する。次に、これらのブロックごとに平均輝度値を算出する。そして、全ブロックの平均輝度値を積分して代表輝度値を算出する。本実施形態では、この代表輝度値を用いて後述する種々の処理を実行する。   The photometric calculation unit 220 receives the digital image data acquired by the imaging unit 204 and calculates the luminance value of the subject imaged by the imaging unit 204. As a method of calculating the luminance value by the photometric calculation unit 220, first, the image data (for one screen) acquired by the imaging unit 204 is divided into a plurality of blocks. Next, an average luminance value is calculated for each of these blocks. Then, a representative luminance value is calculated by integrating the average luminance values of all blocks. In the present embodiment, various processes to be described later are executed using this representative luminance value.

なお、代表輝度値の算出方法としては、公知のものであればどのようなものでもよい。例えば、平均輝度値と基準となるブロック(基準ブロック)との輝度値の差、および、ブロックの位置に応じた重みづけを行った後、輝度値の加算処理を行う。この重みづけ加算された輝度値を代表輝度値とするような構成であってもよい。測光演算部220によって算出した代表輝度値(以下、単に輝度値と称す)は、メモリ211へと送られる。   As a method for calculating the representative luminance value, any known method may be used. For example, the luminance value is added after performing the weighting according to the difference between the average luminance value and the luminance value of the reference block (reference block) and the position of the block. A configuration may be adopted in which the weighted luminance value is used as the representative luminance value. The representative luminance value (hereinafter simply referred to as “luminance value”) calculated by the photometric calculation unit 220 is sent to the memory 211.

AF制御部221は、撮像部204から画像処理部208およびメモリ制御部209を介して受け取ったデジタル画像データに基づいて、撮像する被写体に対する撮影レンズ202の位置(レンズ位置)を設定するフォーカス制御部である。本実施形態におけるフォーカス制御としては、AF補助光を発光させない場合とAF補助光を発光させる場合の2つのパターンに分けられる。   The AF control unit 221 sets a position (lens position) of the photographing lens 202 with respect to the subject to be imaged based on the digital image data received from the imaging unit 204 via the image processing unit 208 and the memory control unit 209. It is. The focus control in this embodiment can be divided into two patterns: a case where AF auxiliary light is not emitted and a case where AF auxiliary light is emitted.

例えば、AF制御部221は、測光演算部220によって算出された被写体の輝度値が閾値より大きい場合は、被写体が暗い状態ではないと判定し、発光部219によるAF補助光の発光を行わない。この場合のフォーカス制御は、撮像素子205の動画用の蓄積をおこなう行(以下、第1の行と称す)で取得した画像データ(以下、動画用の画像データ)の輝度成分のコントラスト情報に基づいて、動画取得時の撮影レンズ202のレンズ位置を算出する。   For example, when the luminance value of the subject calculated by the photometry calculating unit 220 is larger than the threshold value, the AF control unit 221 determines that the subject is not in a dark state and does not emit the AF auxiliary light by the light emitting unit 219. Focus control in this case is based on contrast information of luminance components of image data (hereinafter referred to as moving image data) acquired in a row (hereinafter referred to as a first row) in which the image sensor 205 stores moving images. Thus, the lens position of the photographing lens 202 at the time of moving image acquisition is calculated.

なお、上述した閾値としては、取得した動画用の画像データにおいて、主被写体(例えば、人物など)が視認できる程度の明るさの輝度値であればどのようなものであってもよい。   Note that the above-described threshold value may be any luminance value as long as the main subject (for example, a person) can be visually recognized in the acquired moving image data.

また、AF制御部221は、測光演算部220によって算出された被写体の輝度値が閾値より小さい場合は、被写体が暗い状態であると判定し、発光部219によるAF補助光の発光を行う。そして、前述したように、発光部219によって照明された状態の評価値算出画像に基づいてAF評価値を算出し、当該AF評価値に基づいて、動画取得時の撮影レンズ202のレンズ位置を算出する。   The AF control unit 221 determines that the subject is in a dark state when the luminance value of the subject calculated by the photometry calculation unit 220 is smaller than the threshold value, and causes the light emitting unit 219 to emit AF auxiliary light. Then, as described above, the AF evaluation value is calculated based on the evaluation value calculation image in the state illuminated by the light emitting unit 219, and the lens position of the photographing lens 202 at the time of moving image acquisition is calculated based on the AF evaluation value. To do.

以上説明した各パターンで算出された撮影レンズ202のレンズ位置の情報は、メモリ211に記録される。そして、動画取得用に撮影条件を設定する際に、AF制御部221によって、メモリ211から撮影レンズ202のレンズ位置の情報が読み出され、当該レンズ位置の情報に基づいて撮影レンズ202のレンズ位置が設定される。以上が本実施形態のフォーカス制御であるが、フォーカス制御に伴うカメラ100の各部の駆動は、図5のフローを参照して後述する。   Information on the lens position of the photographic lens 202 calculated with each pattern described above is recorded in the memory 211. Then, when setting the shooting condition for moving image acquisition, the AF control unit 221 reads out the lens position information of the shooting lens 202 from the memory 211, and the lens position of the shooting lens 202 based on the lens position information. Is set. The above is the focus control of the present embodiment, and driving of each part of the camera 100 according to the focus control will be described later with reference to the flow of FIG.

露出制御部222は、被写体を撮像する際、および撮像部204から画像処理部208およびメモリ制御部209を介して受け取った画像データに対する露出制御を実行する。具体的には、露出制御部222は、測光演算部220で算出された被写体の輝度値に基づいて露出量を設定する。ここで、本実施形態において露出量とは、画像データの明るさを示す総合的な値である。例えば、被写体を撮像する際の絞り値や蓄積時間、そして、取得した画像データに対するゲイン量などを設定することで、当該露出量が設定される。   The exposure control unit 222 executes exposure control on image data received from the imaging unit 204 via the image processing unit 208 and the memory control unit 209 when the subject is imaged. Specifically, the exposure control unit 222 sets the exposure amount based on the luminance value of the subject calculated by the photometry calculation unit 220. Here, in the present embodiment, the exposure amount is a comprehensive value indicating the brightness of the image data. For example, the exposure value is set by setting the aperture value and accumulation time when the subject is imaged, and the gain amount for the acquired image data.

そして、露出制御部222は、当該露出量に基づいて、被写体を撮像する際の絞り値と蓄積時間を設定し、取得したアナログ画像データとデジタル画像データのゲイン量を調節することで、カメラ100における露出制御を実行する。   Then, the exposure control unit 222 sets an aperture value and an accumulation time when capturing an image of the subject based on the exposure amount, and adjusts the gain amount of the acquired analog image data and digital image data, so that the camera 100 The exposure control is executed.

例えば、露出制御部222は、設定した露出量に基づいて、カメラ100におけるAE制御が可能である。   For example, the exposure control unit 222 can perform AE control in the camera 100 based on the set exposure amount.

発光制御部223は、発光部219の発光制御を行う発光制御部(第1の制御部)である。まず、発光制御部223は、測光演算部220によって算出された輝度値に基づき、発光部219を発光(AF補助光を発光)して被写体を照明する必要があるかないかを判定する(発光要否の判定)。   The light emission control unit 223 is a light emission control unit (first control unit) that performs light emission control of the light emitting unit 219. First, the light emission control unit 223 determines whether or not it is necessary to illuminate the subject by emitting light from the light emitting unit 219 (emitting AF auxiliary light) based on the luminance value calculated by the photometry calculation unit 220 (light emission required). Judgment of no).

そして、発光制御部223は、当該判定の結果に基づき、後述する動画取得処理における発光部219によるAF補助光の発光制御を行う。具体的には、発光制御部223は、発光部219によってAF補助光を発光させるタイミング(発光タイミング)や、AF補助光の発光量などを設定するための発光制御を行う。以上説明した、AF制御部221や発光制御部223などにおける各種の処理の詳細は後述する。   Then, the light emission control unit 223 performs light emission control of AF auxiliary light by the light emission unit 219 in the moving image acquisition process described later based on the determination result. Specifically, the light emission control unit 223 performs light emission control for setting a timing (light emission timing) at which the light emitting unit 219 emits AF auxiliary light, a light emission amount of the AF auxiliary light, and the like. Details of various processes in the AF control unit 221 and the light emission control unit 223 described above will be described later.

なお、本実施形態では、CPU212およびCPU212に設けられた制御部などからの指示に応じて、カメラ100に設けられた制御部や処理部が、カメラ100における各種の制御や処理を実行するような構成であるがこれに限定されるものではない。例えば、CPU212以外に制御部や処理部を設けずに、CPU212がカメラ100内の各部を制御するような構成であっても良いし、CPU212を設けずに上述した各部が連動して、カメラ100の制御(処理)をおこなうような構成であってもよい。この場合、CPU212を構成する測光演算部220、AF制御部221、露出制御部222、発光制御部223などは、それぞれ個別に設けられているような構成が望ましい。   In the present embodiment, the control unit and processing unit provided in the camera 100 execute various controls and processes in the camera 100 in response to instructions from the CPU 212 and the control unit provided in the CPU 212. Although it is a structure, it is not limited to this. For example, a configuration in which the CPU 212 controls each unit in the camera 100 without providing a control unit or a processing unit other than the CPU 212 may be employed, or the above-described units may be linked to each other without providing the CPU 212. It may be configured to perform the control (processing). In this case, it is desirable that the photometric calculation unit 220, the AF control unit 221, the exposure control unit 222, the light emission control unit 223, and the like constituting the CPU 212 are provided individually.

図2に戻り、CPU212が不揮発性メモリ213から読み出したプログラムや動作用の定数や変数等は、システムメモリ215において展開される。システムメモリ215にはRAMが用いられる。システムタイマー214は、各種の制御に用いる時間やタイミングが内蔵された時計の時間を計測する。   Returning to FIG. 2, the program read by the CPU 212 from the nonvolatile memory 213, operation constants, variables, and the like are expanded in the system memory 215. A RAM is used as the system memory 215. The system timer 214 measures the time of a clock with a built-in time and timing used for various controls.

操作部102を構成する各種の操作部材は、表示部101に表示される種々の機能アイコンの選択等に用いられ、所定の機能アイコンが選択されることにより、場面毎に、適宜、機能が割り当てられる。即ち、操作部102の各操作部材は、各種の機能ボタンとして用いられる。   Various operation members constituting the operation unit 102 are used for selecting various function icons displayed on the display unit 101, and functions are appropriately assigned to each scene by selecting a predetermined function icon. It is done. That is, each operation member of the operation unit 102 is used as various function buttons.

回転操作が可能な操作部材であるコントローラホイール103は、4方向ボタンと共に選択項目を指示するとき等に使用される。コントローラホイール103を回転操作すると、操作量(回転角度や回転回数等)に応じた電気的なパルス信号が発生する。CPU212は、このパルス信号を解析して、カメラ100の各部を制御する。   A controller wheel 103, which is an operation member capable of rotating, is used when a selection item is instructed together with a four-way button. When the controller wheel 103 is rotated, an electrical pulse signal corresponding to the operation amount (rotation angle, number of rotations, etc.) is generated. The CPU 212 analyzes this pulse signal and controls each part of the camera 100.

なお、コントローラホイール103は、回転操作が検出できる操作部材であれば、部材自体が回転するものや、部材自体は回転しないがタッチセンサで回転操作を検出するものなど、どのようなものでもよい。   Note that the controller wheel 103 may be any operation member that can detect a rotation operation, such as a member that rotates itself, or a member that does not rotate but detects a rotation operation with a touch sensor.

シャッタボタン121は、第1スイッチSW1と、第2スイッチSW2とを有する。第1スイッチSW1は、シャッタボタン121の操作途中の半押し状態でONとなり、これにより、撮影準備を指示する信号がCPU212に送信される。CPU212は、第1スイッチSW1がONになった信号を受信すると、前述したAF処理、AE処理、AWB処理、調光処理等などの、露出制御やフォーカス制御を開始する。   The shutter button 121 includes a first switch SW1 and a second switch SW2. The first switch SW1 is turned on when the shutter button 121 is half-pressed during operation, and a signal instructing preparation for photographing is transmitted to the CPU 212. When the CPU 212 receives a signal that the first switch SW1 is turned on, it starts exposure control and focus control such as the AF process, AE process, AWB process, and light control process described above.

第2スイッチSW2は、シャッタボタン121の操作が完了する全押し状態でONとなり、これにより、被写体の撮像開始を指示する信号がCPU212に送信される。CPU212は、第2スイッチSW2がONになった信号を受信すると、撮像部204において蓄積された電荷に応じたアナログ画像データとして読み出す。次に、当該アナログ画像データから変換されたデジタル画像データを記録媒体130に書き込む。同時に、デジタル画像データから変換された表示用のアナログ画像データをスルー画像として表示部101に表示させる。以上説明した一連の撮影動作が、第2スイッチSW2のONに応じて行われる。   The second switch SW2 is turned on when the shutter button 121 is fully pressed, and a signal instructing the start of imaging of the subject is transmitted to the CPU 212. When the CPU 212 receives a signal indicating that the second switch SW2 is turned on, the CPU 212 reads it out as analog image data corresponding to the charge accumulated in the imaging unit 204. Next, the digital image data converted from the analog image data is written into the recording medium 130. At the same time, display analog image data converted from digital image data is displayed on the display unit 101 as a through image. The series of photographing operations described above is performed in response to turning on of the second switch SW2.

モード切替スイッチ104は、カメラ100の動作モードを、静止画記録モード、動画記録モード、再生モード等の各種モードの間で切り替えるためのスイッチである。また、動画記録モードおよび静止画記録モードには、例えば、オート撮影モード、オートシーン判定モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等の撮影モードがある。例えば、マニュアルモードや所定のシーンモードなどが設定された場合は、ユーザの手動操作によって撮影条件を自由に設定することが出来るため、ユーザの意図を尊重した静止画や動画を取得することができる。   The mode switch 104 is a switch for switching the operation mode of the camera 100 between various modes such as a still image recording mode, a moving image recording mode, and a reproduction mode. The moving image recording mode and still image recording mode include, for example, an auto shooting mode, an auto scene determination mode, a manual mode, various scene modes serving as shooting settings for each shooting scene, a program AE mode, a custom mode, and the like. is there. For example, when a manual mode or a predetermined scene mode is set, shooting conditions can be freely set by a user's manual operation, so that still images and videos that respect the user's intention can be acquired. .

本実施形態では、ユーザがモード切替スイッチ104を手動操作することより、各記録モードと各撮影モードの切り替えができる。なお、このような構成に限定されず、例えば、モード切替スイッチ104によって記録モードを設定した後に、他の操作部材を用いて静止画記録モードおよび動画記録モードに含まれる種々の撮影モードのいずれかに切り替えるような構成でもよい。   In the present embodiment, each recording mode and each photographing mode can be switched by the user manually operating the mode switch 104. Note that the present invention is not limited to such a configuration. For example, after the recording mode is set by the mode switch 104, any one of various shooting modes included in the still image recording mode and the moving image recording mode using another operation member is used. It may be configured to switch to.

カメラ100は、電源部216と、電源制御部217を備える。電源部216は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li電池等の二次電池、或いは、ACアダプター等であり、電源制御部217へ電力を供給する。電源制御部217は、電池検出回路やDC−DCコンバータ、通電ブロックを切り替えるスイッチ回路等により構成されている。電源制御部217は、電源部216における電池の装着の有無、電池の種類、電池残量等を検出し、その検出結果及びCPU212の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体130を含む各部へ供給する。   The camera 100 includes a power supply unit 216 and a power supply control unit 217. The power supply unit 216 is a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter, and supplies power to the power supply control unit 217. The power supply control unit 217 is configured by a battery detection circuit, a DC-DC converter, a switch circuit that switches an energization block, and the like. The power supply control unit 217 detects the presence / absence of the battery in the power supply unit 216, the type of battery, the remaining battery level, and the like, and controls the DC-DC converter based on the detection result and the instruction of the CPU 212 to obtain the necessary voltage It supplies to each part containing the recording medium 130 for a required period.

カメラ100は、記録媒体130が記録媒体スロット(不図示)に装着された際に、記録媒体130とCPU212との間の通信を可能にするためのI/F(インターフェース)218を備える。   The camera 100 includes an I / F (interface) 218 for enabling communication between the recording medium 130 and the CPU 212 when the recording medium 130 is mounted in a recording medium slot (not shown).

以下、図3を参照して撮像部204の詳細について説明する。図3は本発明を実施した撮像装置の第1実施形態であるカメラ100の撮像部204を説明する図であって、(a)は撮像部204の概略斜視図であって、(b)は撮像部204を示すブロック図である。   Hereinafter, details of the imaging unit 204 will be described with reference to FIG. 3. 3A and 3B are diagrams illustrating the imaging unit 204 of the camera 100 that is the first embodiment of the imaging apparatus according to the present invention. FIG. 3A is a schematic perspective view of the imaging unit 204, and FIG. 2 is a block diagram illustrating an imaging unit 204. FIG.

まず、前述した撮像部204は、複数の画素301が形成されて光入射側に配置される第1のチップ30と、列走査回路313a、313bや行走査回路312等の画素駆動回路(以下、周辺回路と称す)が形成された第2のチップ31からなる。この第1のチップ30が、本実施形態の撮像素子205であり、前述したA/D変換部206と評価部207は第2のチップ31に設けられている。   First, the imaging unit 204 described above includes a first chip 30 in which a plurality of pixels 301 are formed and disposed on the light incident side, and pixel driving circuits (hereinafter referred to as column scanning circuits 313a and 313b and a row scanning circuit 312). The second chip 31 is formed with a peripheral circuit). The first chip 30 is the image sensor 205 of the present embodiment, and the A / D conversion unit 206 and the evaluation unit 207 described above are provided on the second chip 31.

撮像部204は、第1のチップ30が第2のチップ31の上に積層されて構成されている。第1のチップ30に画素301を形成し、第2のチップ31に周辺回路を形成することにより、周辺回路と画素301の製造プロセスを分けることができる。これにより、周辺回路部の配線の細線化、高密度化による高速化、小型化、高機能化を実現することができる。   The imaging unit 204 is configured by stacking the first chip 30 on the second chip 31. By forming the pixel 301 on the first chip 30 and forming the peripheral circuit on the second chip 31, the manufacturing process of the peripheral circuit and the pixel 301 can be separated. As a result, it is possible to realize speeding up, downsizing, and high functionality by thinning the wiring of the peripheral circuit portion and increasing the density.

第1のチップ30は、マトリクス状に行方向と列方向に一定の間隔で配置された複数の画素301を有する。なお、本実施形態では、複数の画素301は被写体を撮像する撮像用の画素であるが、これ以外の用途で使用するような構成であってもよい。   The first chip 30 has a plurality of pixels 301 arranged in a matrix at regular intervals in the row direction and the column direction. In the present embodiment, the plurality of pixels 301 are imaging pixels that capture an image of a subject, but may be configured to be used for other purposes.

第1のチップ30は、各画素301に行方向(水平方向)に接続された転送信号線303と、リセット信号線304及び行選択信号線305と、各画素301の列方向に接続された列信号線302a、302bとを有する。列信号線302a、302bはそれぞれ、読み出し行単位によって接続先が区別されている。読み出し行の詳細については図4を参照して後述する。   The first chip 30 includes a transfer signal line 303 connected to each pixel 301 in the row direction (horizontal direction), a reset signal line 304 and a row selection signal line 305, and a column connected in the column direction of each pixel 301. Signal lines 302a and 302b. The connection destinations of the column signal lines 302a and 302b are distinguished by the read row unit. Details of the read row will be described later with reference to FIG.

第2のチップ31は、列信号線302a、302bがそれぞれ接続されるカラムADCブロックであるA/D変換部206と、各行を走査する行走査回路312と、各列を走査する列走査回路313a、313bを有する。また、第2のチップ31は、タイミング制御回路314と、水平信号線315a、315bと、フレームメモリ317と、評価部207と、スイッチ316とを有する。   The second chip 31 includes an A / D converter 206, which is a column ADC block to which the column signal lines 302a and 302b are connected, a row scanning circuit 312 that scans each row, and a column scanning circuit 313a that scans each column. 313b. The second chip 31 includes a timing control circuit 314, horizontal signal lines 315a and 315b, a frame memory 317, an evaluation unit 207, and a switch 316.

タイミング制御回路314は、CPU212からの制御信号を受けて、行走査回路312、列走査回路313a、313b及びA/D変換部206のそれぞれの動作のタイミングを制御する。水平信号線315a、315bは、列走査回路313a、313bにより制御されるタイミングに従い、A/D変換部206からのデジタル画像データ(デジタル信号)を転送する。   The timing control circuit 314 receives control signals from the CPU 212 and controls the operation timings of the row scanning circuit 312, the column scanning circuits 313 a and 313 b, and the A / D conversion unit 206. The horizontal signal lines 315a and 315b transfer digital image data (digital signals) from the A / D conversion unit 206 in accordance with the timing controlled by the column scanning circuits 313a and 313b.

フレームメモリ317は、水平信号線315bから出力される各画像データ(画像信号)を一時的に記憶する。図2で前述した評価部207は、フレームメモリ317から出力された各画像データから、フォーカス制御用にAF評価値を算出する。スイッチ316は、水平信号線315bに出力された各画像データを、評価部207の側に出力するか、または画像処理部208側に出力するかを切り替える。   The frame memory 317 temporarily stores each image data (image signal) output from the horizontal signal line 315b. The evaluation unit 207 described above with reference to FIG. 2 calculates an AF evaluation value for focus control from each image data output from the frame memory 317. The switch 316 switches whether to output each image data output to the horizontal signal line 315b to the evaluation unit 207 side or to the image processing unit 208 side.

第1のチップ30(撮像素子205)において、画素301は、フォトダイオードPD、フローティングディフュージョンFD、転送トランジスタM1、リセットトランジスタM2、増幅トランジスタM3及び選択トランジスタM4を含む。なお、ここでは、各トランジスタはnチャネルMOSFETであるとする。   In the first chip 30 (image sensor 205), the pixel 301 includes a photodiode PD, a floating diffusion FD, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, and a selection transistor M4. Here, each transistor is assumed to be an n-channel MOSFET.

転送トランジスタM1、リセットトランジスタM2及び選択トランジスタM4の各ゲートには、転送信号線303、リセット信号線304及び行選択信号線305が接続されている。これらの信号線は、行方向に延在して、同一行に含まれる画素301を同時に駆動するようになっており、これによりライン順次動作型のローリングシャッタや、全行同時動作型のグローバルシャッタの動作を制御することが可能になっている。選択トランジスタM4のソースには、列信号線302a又は列信号線302bが、行単位で分かれて接続されている。   A transfer signal line 303, a reset signal line 304, and a row selection signal line 305 are connected to the gates of the transfer transistor M1, the reset transistor M2, and the selection transistor M4. These signal lines extend in the row direction and simultaneously drive the pixels 301 included in the same row, thereby enabling a line-sequential operation type rolling shutter and an all-row simultaneous operation type global shutter. It is possible to control the operation. The column signal line 302a or the column signal line 302b is connected to the source of the selection transistor M4 in units of rows.

フォトダイオードPDは、光電変換により生成された電荷を蓄積し、そのP側は接地され、そのN側は転送トランジスタM1のソースに接続されている。転送トランジスタM1がONすると、フォトダイオードPDの電荷がフローティングディフュージョンFDに転送されるが、フローティングディフュージョンFDには寄生容量があるので、この部分に電荷が蓄積される。   The photodiode PD accumulates electric charges generated by photoelectric conversion, the P side is grounded, and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the floating diffusion FD. However, since the floating diffusion FD has a parasitic capacitance, the charge is accumulated in this portion.

増幅トランジスタM3のドレインは電源電圧Vddとされ、増幅トランジスタM3のゲートはフローティングディフュージョンFDに接続されているものとする。増幅トランジスタM3は、フローティングディフュージョンFDの電圧を電気信号に変換する。選択トランジスタM4は、信号を読み出す画素を行単位で選択するためのものである。選択トランジスタM4のドレインは増幅トランジスタM3のソースに接続され、選択トランジスタM4のソースは列信号線302a又は列信号線302bに接続されている。選択トランジスタM4がONしたときに、フローティングディフュージョンFDの電圧に対応する電圧が列信号線302a又は列信号線302bに出力される。リセットトランジスタM2のドレインは電源電圧Vddとされ、リセットトランジスタM2のソースはフローティングディフュージョンFDに接続されている。リセットトランジスタM2は、フローティングディフュージョンFDの電圧を電源電圧Vddにリセットする。   The drain of the amplification transistor M3 is assumed to be the power supply voltage Vdd, and the gate of the amplification transistor M3 is connected to the floating diffusion FD. The amplification transistor M3 converts the voltage of the floating diffusion FD into an electric signal. The selection transistor M4 is for selecting a pixel from which a signal is read out in units of rows. The drain of the selection transistor M4 is connected to the source of the amplification transistor M3, and the source of the selection transistor M4 is connected to the column signal line 302a or the column signal line 302b. When the selection transistor M4 is turned on, a voltage corresponding to the voltage of the floating diffusion FD is output to the column signal line 302a or the column signal line 302b. The drain of the reset transistor M2 is the power supply voltage Vdd, and the source of the reset transistor M2 is connected to the floating diffusion FD. The reset transistor M2 resets the voltage of the floating diffusion FD to the power supply voltage Vdd.

以上説明したように、本実施形態では、第1のチップ30(撮像素子205)を構成する各画素を行単位で同時に駆動、及び読み出しが可能である。したがって、前述した第1の行および第2の行についても、駆動の周期および読み出しの周期を、それぞれ独立して制御することが出来る。   As described above, in the present embodiment, each pixel constituting the first chip 30 (image sensor 205) can be simultaneously driven and read out in units of rows. Accordingly, the driving cycle and the reading cycle can be independently controlled for the first row and the second row described above.

次に、図4を参照して、前述した撮像素子205の列信号線302a、302bにおける画素選択について説明する。図4は、本発明を実施する撮像装置の第1実施形態であるカメラ100の撮像素子205からの信号の読み出し行を模式的に説明する図である。   Next, pixel selection on the column signal lines 302a and 302b of the image sensor 205 described above will be described with reference to FIG. FIG. 4 is a diagram schematically illustrating a readout row of signals from the image sensor 205 of the camera 100 which is the first embodiment of the imaging apparatus that implements the present invention.

図4の左側には、撮像素子205の画素301の配列を、画素配列に対応して配置されるベイヤー配列を有するカラーフィルタの各色(R,G(Gb,Gr),B)で示している。図4の右側は、動画取得用の蓄積行(第1の行)、および評価値算出用の蓄積行(第2の行)を例示的に示している。なお、以下の説明では、動画の取得中に、発光部219を発光して第2の行によって被写体を撮像する場合について説明する。すなわち、暗い被写体を撮像する際の撮像条件(例えば撮影レンズ202のレンズ位置など)を適正に設定するために、第2の行で評価値算出画像を取得する場合である。   On the left side of FIG. 4, the arrangement of the pixels 301 of the image sensor 205 is indicated by each color (R, G (Gb, Gr), B) of a color filter having a Bayer arrangement arranged corresponding to the pixel arrangement. . The right side of FIG. 4 exemplarily shows a moving image acquisition accumulation row (first row) and an evaluation value calculation accumulation row (second row). In the following description, a case will be described in which the light emitting unit 219 emits light and a subject is imaged by the second row during moving image acquisition. That is, the evaluation value calculation image is acquired in the second row in order to appropriately set the imaging condition (for example, the lens position of the photographic lens 202) when imaging a dark subject.

本実施形態では、ユーザが発光部219を発光させていない状態の動画を取得したい場合や、種々の処理に使用するために被写体に対する露出量を通常よりもアンダーで取得したい場合を想定する。以下、このような場合を非発光動画時とする。   In the present embodiment, it is assumed that the user wants to acquire a moving image in a state where the light emitting unit 219 is not lit, or the user wants to acquire the exposure amount for the subject under the normal level for use in various processes. Hereinafter, such a case is referred to as a non-luminous moving image.

この場合、周囲の状況変化によって被写体が暗くなっても、発光部219は発光させないので、暗い状態の被写体に対してフォーカス制御が適正に行われない確率が高い。すなわち、ユーザが撮像を意図する被写体に対してピントがずれた状態の動画が取得されてしまう場合がある。   In this case, since the light emitting unit 219 does not emit light even when the subject becomes dark due to a change in surrounding conditions, there is a high probability that focus control is not properly performed on the dark subject. That is, there may be a case where a moving image in a state in which the user intends to capture an image is out of focus is acquired.

この様な場合、AF補助光によって被写体が照明された状態の画像データに基づいてフォーカス制御を行うことで、主たる被写体に対してピントが合った状態の動画を取得することができる。   In such a case, by performing focus control based on the image data in a state where the subject is illuminated by the AF auxiliary light, it is possible to obtain a moving image in a state where the main subject is in focus.

しかしながら、動画を取得しながらAF補助光を発光すると、動画用に被写体を撮像する際に当該AF補助光が影響してしまう場合がある。すなわち、取得した動画にAF補助光が写り込んでしまい、ユーザの意図しない明るさの動画となってしまう。   However, if AF auxiliary light is emitted while a moving image is being acquired, the AF auxiliary light may be affected when the subject is imaged for the moving image. That is, the AF auxiliary light is reflected in the acquired moving image, resulting in a moving image with brightness not intended by the user.

そこで、本実施形態では、撮像素子205を、動画用の蓄積を行う第1の行と、AF評価値などの評価値を算出する評価値算出用の第2の行とに分け、各行の読み出し周期(フレームレート)を独立して制御する。そして、第1の行の、動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでのリセット期間(第1の期間)で発光部219のAF補助光を発光させる。   Thus, in the present embodiment, the image sensor 205 is divided into a first row for storing moving images and a second row for evaluation value calculation for calculating an evaluation value such as an AF evaluation value, and reading out each row. The period (frame rate) is controlled independently. Then, the AF auxiliary light of the light emitting unit 219 is emitted in the reset period (first period) from the end of the moving image storage to the start of the next moving image storage in the first row.

さらに、AF補助光を発光させる期間と少なくとも一部が重複する期間において、第2の行によって評価値算出画像を取得する。すなわち、AF補助光によって被写体が照明された状態の評価値算出画像を第2の行によって取得する。この構成によって、動画取得時のフォーカス制御を適正におこないつつ、発光部219によるAF補助光が影響しない動画を取得することが出来る。以下、その詳細を説明する。   Further, the evaluation value calculation image is acquired by the second row in a period at least partially overlapping with the period in which the AF auxiliary light is emitted. That is, the evaluation value calculation image in a state where the subject is illuminated by the AF auxiliary light is acquired by the second row. With this configuration, it is possible to acquire a moving image that is not affected by the AF auxiliary light from the light emitting unit 219 while appropriately performing focus control during moving image acquisition. Details will be described below.

図4に図示するように、動画と評価値算出画像の取得を並行して行うために、画像データの読み出し行を分ける。以下の説明において、動画取得用の電気信号は列信号線302aに出力され、評価値算出画像用の電気信号は列信号線302bへと出力される。なお、以下の説明では、動画取得用の電気信号および評価値算出画像取得用の電気信号を撮像信号と称す。   As shown in FIG. 4, in order to acquire a moving image and an evaluation value calculation image in parallel, read lines of image data are divided. In the following description, an electric signal for moving image acquisition is output to the column signal line 302a, and an electric signal for evaluation value calculation image is output to the column signal line 302b. In the following description, an electric signal for acquiring a moving image and an electric signal for acquiring an evaluation value calculation image are referred to as an imaging signal.

本実施形態では、図4に示す行番号1、2、5、6は動画を取得するための蓄積をする第1の行であり、行番号1、2、5、6から、動画取得用に蓄積した電荷に対応した撮像信号の読み出しがされる。動画記録モードにおいて動画用の画像データを取得する場合は、行番号1、2、5、6から撮像信号が読み出される。   In the present embodiment, line numbers 1, 2, 5, and 6 shown in FIG. 4 are the first lines for accumulating for acquiring moving images. The imaging signal corresponding to the accumulated charge is read out. When acquiring image data for moving images in the moving image recording mode, imaging signals are read from row numbers 1, 2, 5, and 6.

図4に示す行番号3、4、7、8は評価値算出用の画像を取得するための蓄積をする第2の行であり、行番号3、4、7、8から、評価値算出画像を取得するために蓄積した電荷に対応した撮像信号の読み出しがされる。なお、動画を取得しない静止画記録モードにおいては、行番号1〜8の全ての行から静止画を取得するために蓄積した電荷に対応した撮像信号が読み出される。また、本実施形態では、AF補助光を発光させない場合であっても、動画用の画像データは行番号1、2、5、6によって取得した画像データを用いる。すなわち、撮像素子205を構成する画素のうちの約半分の画素が、動画用の画像データを取得するための撮像画素となる。   Line numbers 3, 4, 7, and 8 shown in FIG. 4 are second lines for accumulating to obtain an evaluation value calculation image. From line numbers 3, 4, 7, and 8, the evaluation value calculation image is displayed. The image pickup signal corresponding to the electric charge accumulated to acquire the signal is read out. Note that, in the still image recording mode in which no moving image is acquired, an imaging signal corresponding to the charge accumulated in order to acquire a still image from all the rows of line numbers 1 to 8 is read out. In the present embodiment, even when AF auxiliary light is not emitted, the image data for moving images uses the image data acquired by row numbers 1, 2, 5, and 6. That is, about half of the pixels constituting the imaging element 205 are imaging pixels for acquiring moving image data.

本実施形態では、行番号1、2、5、6及び行番号3、4、7、8からの読み出し走査を行単位で順次行うこととし、8行単位で繰り返して読み出し走査を行うとする。なお、本実施形態では、ライブビュー表示を行う場合は、第1の行を用いて被写体の撮像を行うような構成であるが、第2の行を用いるような構成や、第1の行と第2の行の両方を用いるような構成であっても良い。   In this embodiment, it is assumed that readout scanning from row numbers 1, 2, 5, 6 and row numbers 3, 4, 7, and 8 is sequentially performed in units of rows, and readout scanning is repeatedly performed in units of 8 rows. In the present embodiment, when live view display is performed, the first row is used to capture an image of the subject. However, the second row is used, or the first row is used. A configuration using both of the second rows may also be used.

第1の行で取得された動画取得用の撮像信号は列信号線302aに出力される。列信号線302aに出力された動画取得用の撮像信号は、A/D変換部206においてアナログ信号(アナログ画像データ)からデジタル信号(デジタル画像データ)に変換される。変換された動画用のデジタル画像データは列走査回路313aの操作によってA/D変換部206から水平信号線315aへ読み出される。水平信号線315aへ読み出された動画用のデジタル画像データは、撮像部204から画像処理部208に出力される。   The moving image acquisition imaging signal acquired in the first row is output to the column signal line 302a. The moving image acquisition imaging signal output to the column signal line 302a is converted from an analog signal (analog image data) to a digital signal (digital image data) in the A / D converter 206. The converted digital image data for moving images is read from the A / D converter 206 to the horizontal signal line 315a by the operation of the column scanning circuit 313a. The moving image digital image data read to the horizontal signal line 315a is output from the imaging unit 204 to the image processing unit 208.

第2の行で取得された評価値算出画像取得用の撮像信号は列信号線302bに出力される。列信号線302bに出力された評価値算出画像取得用の撮像信号は、A/D変換部206においてアナログ信号(アナログ画像データ)からデジタル信号(デジタル画像データ)に変換される。変換された評価値算出画像取得用のデジタル画像データは列走査回路313bの操作によってA/D変換部206から水平信号線315bへ読み出される。   The imaging signal for acquiring the evaluation value calculation image acquired in the second row is output to the column signal line 302b. The imaging signal for obtaining the evaluation value calculation image output to the column signal line 302b is converted from an analog signal (analog image data) to a digital signal (digital image data) in the A / D converter 206. The converted digital image data for obtaining the evaluation value calculation image is read from the A / D conversion unit 206 to the horizontal signal line 315b by the operation of the column scanning circuit 313b.

ここで、第2の行において、発光部219によりAF補助光を発光させて評価値算出画像を取得する場合は、水平信号線315bからスイッチ316を経てフレームメモリ317に、取得した評価値算出画像が一時的に記録される。そして、フレームメモリ317に記録された評価値算出画像は評価部207に送られる。   Here, in the second row, when the AF assist light is emitted by the light emitting unit 219 and the evaluation value calculation image is acquired, the acquired evaluation value calculation image is acquired from the horizontal signal line 315b to the frame memory 317 via the switch 316. Is temporarily recorded. Then, the evaluation value calculation image recorded in the frame memory 317 is sent to the evaluation unit 207.

評価部207は、受け取った評価値算出画像の輝度成分のコントラスト情報に基づいてAF評価値を算出し、AF評価値(の電気信号)を撮像部204からCPU212へと出力する。AF評価値としては、評価値算出画像のうち、コントラスト値が最も大きくなる位置に対応した値とする。この値に対応した撮影レンズ202のレンズ位置において、撮影レンズ202を透過した被写体の光学像のうち、主たる被写体の光学像が撮像素子205上に合焦した状態となる。なお、AF評価値の算出方法の詳細については後述する。   The evaluation unit 207 calculates the AF evaluation value based on the contrast information of the luminance component of the received evaluation value calculation image, and outputs the AF evaluation value (electric signal thereof) from the imaging unit 204 to the CPU 212. The AF evaluation value is a value corresponding to the position where the contrast value is the largest in the evaluation value calculation image. At the lens position of the photographing lens 202 corresponding to this value, the optical image of the main subject among the optical images of the subject that has passed through the photographing lens 202 is in focus on the image sensor 205. Details of the AF evaluation value calculation method will be described later.

一方、静止画記録モードが設定され、撮像素子205によって静止画を取得する場合は、第1の行と第2の行の両方で、静止画用に被写体を撮像する。したがって、この場合は、CPU212からの指示に応じてスイッチ316が切り替わり、水平信号線315bからスイッチ316を経て画像処理部208へと静止画用に取得した画像データが出力される。   On the other hand, when the still image recording mode is set and a still image is acquired by the image sensor 205, the subject is imaged for the still image in both the first row and the second row. Therefore, in this case, the switch 316 is switched in accordance with an instruction from the CPU 212, and the image data acquired for the still image is output from the horizontal signal line 315b to the image processing unit 208 via the switch 316.

以上説明したように、本実施形態において撮像素子205を構成する撮像用の各画素は、第1の行と第2の行とでそれぞれ独立して制御することが出来る。特に、第1の行と第2の行とで独立して被写体の撮像を行うため、蓄積した電荷に対応する撮像信号の読み出し周期(フレームレート)は、第1の行と第2の行とで独立した制御が可能となる。したがって、本実施形態のカメラ100は、動画のフレームレートを低下させることなく評価値算出画像を取得することが可能である。   As described above, in the present embodiment, each of the imaging pixels constituting the imaging device 205 can be controlled independently in the first row and the second row. In particular, since the subject is imaged independently in the first row and the second row, the readout cycle (frame rate) of the imaging signal corresponding to the accumulated charges is the first row and the second row. Independent control becomes possible. Therefore, the camera 100 of this embodiment can acquire an evaluation value calculation image without reducing the frame rate of the moving image.

以下、本発明の第1実施形態における動画の取得処理について図5を参照して説明する。図5は本発明を実施した撮像装置の第1実施形態であるカメラ100の動画取得処理を説明するフローチャートである。なお、図5のフローチャートは、前述した非発光動画時において動画を取得する場合について説明する。   Hereinafter, the moving image acquisition process according to the first embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flowchart for explaining the moving image acquisition process of the camera 100 which is the first embodiment of the imaging apparatus embodying the present invention. In addition, the flowchart of FIG. 5 demonstrates the case where a moving image is acquired in the above-mentioned non-light-emitting moving image.

ユーザによって動画の取得が指示されると、第1の行によって動画用の画像データが随時取得される。ステップS101で測光演算部220は、前のフレームの(第1の行)で取得した動画用の画像データに基づいて測光演算を行い被写体の輝度値を算出する。なお、動画の取得が指示されてから初めての処理の場合は、第1の行によって動画用の画像データを取得して、当該動画用の画像データに基づいて被写体の輝度値を算出する。算出した被写体の輝度値はメモリ211へと送られる。   When acquisition of a moving image is instructed by the user, image data for the moving image is acquired as needed by the first row. In step S101, the photometry calculation unit 220 performs photometry calculation based on the moving image image data acquired in the first frame (first row) to calculate the luminance value of the subject. In the case of the first processing after the acquisition of the moving image is instructed, moving image data is acquired by the first row, and the luminance value of the subject is calculated based on the moving image image data. The calculated luminance value of the subject is sent to the memory 211.

ここで、測光演算の方法は前述した通りであって、本実施形態では、第1の行によって動画用の画像データを取得するごとに、測光演算部220によって、取得した動画用の画像データに基づいて被写体の輝度値が算出される。   Here, the method of photometry calculation is as described above. In this embodiment, every time the image data for moving image is acquired by the first row, the image data for moving image acquired by the photometry calculating unit 220 is obtained. Based on this, the luminance value of the subject is calculated.

次に、ステップS102で発光制御部223は、メモリ211から算出した被写体の輝度値を読み出し、当該輝度値が閾値以下であるか否かを判定する。発光制御部223は、被写体の輝度値が閾値以下である場合は次のフレームでAF補助光を発光させる必要があると判定し、被写体の輝度値が閾値よりも大きい場合は次のフレームでAF補助光を発光させる必要がないと判定する。そして、当該判定の結果がメモリ211に記録される。   Next, in step S102, the light emission control unit 223 reads the luminance value of the subject calculated from the memory 211, and determines whether the luminance value is equal to or less than a threshold value. The light emission control unit 223 determines that the AF auxiliary light needs to be emitted in the next frame when the luminance value of the subject is equal to or less than the threshold value, and performs AF in the next frame when the luminance value of the subject is larger than the threshold value. It is determined that there is no need to emit auxiliary light. Then, the determination result is recorded in the memory 211.

前述したように、本実施形態では、被写体が暗い場合は、撮像素子205の第2の行によってAF補助光によって照明した被写体の画像を取得し、当該画像を用いて動画取得用に適正なフォーカス制御を実現する。   As described above, in the present embodiment, when the subject is dark, an image of the subject illuminated by the AF auxiliary light is acquired by the second row of the image sensor 205, and an appropriate focus for moving image acquisition is acquired using the image. Realize control.

ここで、発光部219によってAF補助光を発光させて動画取得用のフォーカス制御を行う場合の処理の概要について説明する。まず、前述したように、第1の行によって取得された動画用の画像データに基づいて、発光制御部223はAF補助光の発光の要否を判定する。発光制御部223によって、AF補助光を発光させる必要があると判定された場合は、次のフレームの第1の行のリセット期間(第1の期間)で、発光部219を発光させて、第2の行によって評価値算出画像を取得する。そして、当該評価値算出画像に基づいてAF評価値を算出して、そのすぐ後の第1の行において、動画用の蓄積を開始するまでの間に、当該AF評価値を用いてフォーカス制御を実行する。本実施形態はこのような時系列にそってそれぞれの動作を実行する。以下、その詳細を説明する。   Here, an outline of processing when the AF assist light is emitted by the light emitting unit 219 and focus control for moving image acquisition is performed will be described. First, as described above, the light emission control unit 223 determines whether or not it is necessary to emit the AF auxiliary light based on the moving image image data acquired in the first row. If the light emission control unit 223 determines that the AF auxiliary light needs to be emitted, the light emission unit 219 is caused to emit light during the reset period (first period) of the first row of the next frame, An evaluation value calculation image is obtained from the second row. Then, the AF evaluation value is calculated based on the evaluation value calculation image, and the focus control is performed using the AF evaluation value in the first row immediately after that until the accumulation of the moving image is started. Run. In the present embodiment, each operation is executed along such a time series. Details will be described below.

図5に戻り、ステップS103で露出制御部222は、撮像部204の第1の行における露出量を再設定する。具体的には、第1の行において取得する動画用の画像データに、第2の行で評価値算出画像を取得する際に発光部219によって発光させるAF補助光の影響が及ばないように、第1の行の蓄積時間を設定する。   Returning to FIG. 5, in step S <b> 103, the exposure control unit 222 resets the exposure amount in the first row of the imaging unit 204. Specifically, the image data for moving images acquired in the first row is not affected by the AF auxiliary light emitted by the light emitting unit 219 when the evaluation value calculation image is acquired in the second row. Set the accumulation time for the first row.

また、ステップS103で露出制御部222は、第1の行で取得した動画用のデジタル画像データに対して、蓄積時間を再設定したことで変化した露出量を補償するようなゲイン量を設定する。以下、撮像素子205の第1の行と第2の行における蓄積時間と発光部219の発光タイミングについて図6を参照して説明する。   In step S103, the exposure control unit 222 sets a gain amount that compensates for the exposure amount changed by resetting the accumulation time for the moving image digital image data acquired in the first row. . Hereinafter, the accumulation time and the light emission timing of the light emitting unit 219 in the first row and the second row of the image sensor 205 will be described with reference to FIG.

図6は本発明を実施した撮像装置の第1実施形態であるカメラ100の発光部219の発光タイミングと撮像素子205の蓄積タイミングを説明するタイミングチャートである。図中の上側は、第1の行および第2の行における蓄積期間(白色部分)とリセット期間(黒色部分)を示している。図中の下側は、図5のフローチャートの各ステップの処理のタイミングを示している。なお、本実施形態においてリセット期間とは、第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間(第1の期間)である。すなわち、第1の期間は撮像素子205の第1の行を構成する各画素によって蓄積された電荷を電気信号として撮像素子205の外部に読み出してから、当該読み出し済みの電気信号をリセットトランジスタM2によってリセットするまでの期間である。   FIG. 6 is a timing chart for explaining the light emission timing of the light emitting unit 219 and the accumulation timing of the image sensor 205 of the camera 100 which is the first embodiment of the imaging apparatus embodying the present invention. The upper side in the figure shows the accumulation period (white portion) and the reset period (black portion) in the first row and the second row. The lower side of the figure shows the processing timing of each step in the flowchart of FIG. In the present embodiment, the reset period is a period (first period) from the end of the accumulation of the moving image to the start of the accumulation of the next moving image in the first row. That is, in the first period, the electric charge accumulated by each pixel constituting the first row of the image sensor 205 is read out as an electric signal to the outside of the image sensor 205, and then the read electric signal is read by the reset transistor M2. This is the period until reset.

図6に図示するように、本実施形態では、動画用に被写体を撮像している際に発光部219によってAF補助光を発光させて評価値算出画像の取得が指示されると、第1の行の蓄積時間(第1の蓄積時間)E1を蓄積時間(第2の蓄積時間)E2へと変更する。すなわち、AF補助光を発光させる場合は、撮像素子205における動画を取得するための蓄積時間を通常時よりも短くする。   As illustrated in FIG. 6, in the present embodiment, when the subject is imaged for a moving image, the first light emitting unit 219 emits AF auxiliary light to instruct acquisition of the evaluation value calculation image. The row accumulation time (first accumulation time) E1 is changed to the accumulation time (second accumulation time) E2. That is, when the AF auxiliary light is emitted, the accumulation time for acquiring a moving image in the image sensor 205 is made shorter than usual.

前述したように、第2の蓄積時間E2としては、発光部219の発光による影響が動画に及ばない程度の蓄積時間が設定される。そして、本実施形態では、予め設定された第1の行の第2の蓄積時間E2に合わせて、発光部219におけるAF補助光の発光量が設定される。この構成によって、発光部219の発光が、取得した動画に影響することを抑制することが出来る。   As described above, as the second accumulation time E2, the accumulation time is set such that the influence of the light emission of the light emitting unit 219 does not affect the moving image. In this embodiment, the light emission amount of the AF auxiliary light in the light emitting unit 219 is set in accordance with the second accumulation time E2 of the first row set in advance. With this configuration, it is possible to suppress the light emission of the light emitting unit 219 from affecting the acquired moving image.

次に、ゲイン量の再設定について説明する。先に説明したように、第1の行では、蓄積時間を短くすることに対応してゲイン量の再設定も行われる。この構成によって、蓄積時間を短くすることで減少した露出量を補償することができる。具体的には、1フレーム(の期間)をTflameとし、再設定前の蓄積時間をT_old、再設定後の第1の行のリセット期間をTres2とすると、増加させるゲイン量GainUPは式(1)を用いて、
Gain UP=T_old/(Tflame−Tres2)・・・(1)
として算出できる。
Next, the resetting of the gain amount will be described. As described above, in the first row, the gain amount is also reset in response to shortening the accumulation time. With this configuration, it is possible to compensate for the reduced exposure amount by shortening the accumulation time. Specifically, assuming that one frame (period) is Tframe, the accumulation time before resetting is T_old, and the reset period of the first row after resetting is Tres2, the gain amount GainUP to be increased is given by equation (1). Using,
Gain UP = T_old / (Tframe-Tres2) (1)
Can be calculated as

また、再設定する蓄積時間をT_new、再設定前のゲイン量をGain_oldとすると、再設定するゲイン量Gain_newは式(2)を用いて、
Gain_new=(Gain_old×T_old)/T_new・・・(2)
として算出できる。上述した(1)、(2)式のうちのどちらかを用いて第1の行によって取得される画像のゲイン量を再設定する。
Also, assuming that the accumulation time to be reset is T_new, and the gain amount before resetting is Gain_old, the gain amount Gain_new to be reset is calculated using Equation (2):
Gain_new = (Gain_old × T_old) / T_new (2)
Can be calculated as The gain amount of the image acquired by the first row is reset using either of the above-described expressions (1) and (2).

以上説明したように、図5のステップS103で露出制御部222は、第1の行の蓄積時間と、当該蓄積時間で取得した画像データのゲイン量を再設定する。   As described above, in step S103 of FIG. 5, the exposure control unit 222 resets the accumulation time of the first row and the gain amount of the image data acquired at the accumulation time.

図5に戻り、ステップS104で発光制御部223は、発光部219の発光制御をおこなう。図6に図示するように、発光部219の発光タイミングは、動画用に被写体を撮像する第1の行のリセット期間(第1の期間)に行う。   Returning to FIG. 5, in step S <b> 104, the light emission control unit 223 performs light emission control of the light emission unit 219. As illustrated in FIG. 6, the light emission timing of the light emitting unit 219 is performed in the reset period (first period) of the first row in which the subject is imaged for moving images.

次に、ステップS105で露出制御部222は、第2の行で評価値算出画像用に被写体を撮像する際の蓄積時間を設定する。図6に図示するように、本実施形態では、第1の行における蓄積時間と比較して、第2の行における蓄積時間が短く設定されている。具体的には、第2の行において、第1の行における1フレームの略半分にあたる期間が、評価値算出画像を取得する際の第2の行のリセット期間(第2の期間)として設定されている。   Next, in step S105, the exposure control unit 222 sets an accumulation time when the subject is imaged for the evaluation value calculation image in the second row. As shown in FIG. 6, in this embodiment, the accumulation time in the second row is set shorter than the accumulation time in the first row. Specifically, in the second row, a period corresponding to approximately half of one frame in the first row is set as a reset period (second period) of the second row when the evaluation value calculation image is acquired. ing.

本実施形態では、この第2の期間において、動画用に被写体を撮像する際のフォーカス制御に用いるAF評価値(焦点評価値)を算出する。そして、当該第2の期間が終了し、そのすぐ後の第1の行で蓄積を開始する前に、算出したAF評価値を用いてフォーカス制御を行う。すなわち、次に動画用の画像データの取得を開始する前に、算出した評価値に基づいて撮影レンズ202のレンズ位置を設定する。なお、動画に対する影響が少なければ、第1の行での蓄積が開始した後も継続してフォーカス制御を行うような構成であってもよい。   In the present embodiment, in this second period, an AF evaluation value (focus evaluation value) used for focus control when capturing a subject for moving images is calculated. Then, focus control is performed using the calculated AF evaluation value before the second period ends and accumulation starts in the first row immediately after that. That is, the lens position of the photographic lens 202 is set based on the calculated evaluation value before the next acquisition of moving image data. If the influence on the moving image is small, the configuration may be such that the focus control is continuously performed after the accumulation in the first row is started.

この構成によって、AF評価値を算出してから時間的なズレが少ない状態で、動画用のフォーカス制御を行うことが出来るので、被写体に対するして高精度なフォーカス制御を行うことが可能である。   With this configuration, since the moving image focus control can be performed with little temporal deviation after the AF evaluation value is calculated, it is possible to perform highly accurate focus control on the subject.

なお、第2の行によって取得する画像データは記録用には使用されため、AF評価値を算出するのに必要最低限の明るさの画像であれば十分である。したがって、第2の行のリセット期間(第2の期間)は、AF評価値を算出できる期間であればどのような期間であってもよい。例えば、第2の行の1フレームの1/3の期間を蓄積期間として設定し、残りの2/3の期間をリセット期間(第2の期間)に設定するような構成であってもよい。少なくとも、第2の期間と重複する第1の行の蓄積の期間の次のフレームが開始されるまでの間に、第2の期間が終了するような構成であればよい。   Since the image data acquired by the second row is used for recording, an image having the minimum brightness necessary for calculating the AF evaluation value is sufficient. Therefore, the reset period (second period) of the second row may be any period as long as the AF evaluation value can be calculated. For example, a configuration in which a period of 1/3 of one frame in the second row is set as an accumulation period and the remaining 2/3 period is set as a reset period (second period) may be employed. It is sufficient that the second period ends at least before the start of the next frame of the accumulation period of the first row that overlaps the second period.

次に、ステップS106で発光制御部223は、先に設定した発光部219によるAF補助光の発光タイミングに基づき、第1の行のリセット期間で、発光部219によってAF補助光を発光させて被写体を照明する。   Next, in step S106, the light emission control unit 223 causes the light emission unit 219 to emit the AF auxiliary light during the reset period of the first row based on the previously set emission timing of the AF auxiliary light by the light emission unit 219. Illuminate.

ここで、本実施形態における発光部219のAF補助光の発光のタイミングと、撮像素子205の各行における蓄積のタイミングについて図7を参照して説明する。図7は本発明を実施した撮像装置の第1実施形態であるカメラ100の発光部219の発光時間と撮像素子205の蓄積時間との関係を説明するタイミングチャートである。   Here, the timing of emission of AF auxiliary light from the light emitting unit 219 and the timing of accumulation in each row of the image sensor 205 in this embodiment will be described with reference to FIG. FIG. 7 is a timing chart illustrating the relationship between the light emission time of the light emitting unit 219 and the storage time of the image sensor 205 of the camera 100 which is the first embodiment of the image pickup apparatus embodying the present invention.

図7に図示するように、第2の行のリセット期間が経過したのち、評価値算出画像を取得するための蓄積が開始される時刻t1において、発光部219を発光させる発光トリガ信号が発光制御部223から発光部219に出力される。   As illustrated in FIG. 7, after the reset period of the second row has elapsed, at a time t1 when accumulation for acquiring the evaluation value calculation image is started, a light emission trigger signal that causes the light emitting unit 219 to emit light is controlled to emit light. The light is output from the unit 223 to the light emitting unit 219.

なお、図6に示すように、評価値算出画像の取得が指示された次のフレームにおける第1の行のリセット期間(第1の期間)を、発光部219によってAF補助光を発光する発光タイミングとして設定する。この際、第1の行のリセット期間(第1の期間)に発光の開始から終了までが収まるように、発光制御部223によって発光部219によるAF補助光の発光タイミングが制御される。   As shown in FIG. 6, the light emission timing at which the light emitting unit 219 emits the AF auxiliary light during the reset period (first period) of the first row in the next frame instructed to acquire the evaluation value calculation image. Set as. At this time, the light emission control unit 223 controls the emission timing of the AF auxiliary light by the light emission unit 219 so that the light emission control unit 223 fits in the reset period (first period) of the first row.

発光トリガ信号を受けると、発光部219の発光量は少し遅れて立ち上がり、発光トリガを解除した後も発光を持続する。発光が終了する時刻t2において動画用に第1の行での蓄積を開始する。すなわち、発光部219を発光させて評価値算出画像を取得する場合、第1の行のリセット期間(第1の期間)Tres1の終了のタイミングと時刻t2とは同じタイミングとなる。   When the light emission trigger signal is received, the light emission amount of the light emitting unit 219 rises with a slight delay, and the light emission continues even after the light emission trigger is released. Accumulation in the first row is started for moving images at time t2 when the light emission ends. That is, when the evaluation value calculation image is acquired by causing the light emitting unit 219 to emit light, the timing of the end of the reset period (first period) Tres1 of the first row and the time t2 are the same timing.

そして、AF制御部221は、発光部219を発光させて取得した評価値算出画像に基づいて、そのすぐ後の第1の行での蓄積が開始されるまでの期間にフォーカス制御を行う。   Then, the AF control unit 221 performs focus control during a period until accumulation in the first row immediately after that starts based on the evaluation value calculation image acquired by causing the light emitting unit 219 to emit light.

なお、後述する第2の行で取得する評価値算出画像に対して、発光部219の発光による影響が少なければ、時刻t2と第1の期間Tres1の終了タイミングとが一致しないような構成であってもよい。例えば、第1の期間Tres1の終了タイミングよりも前に、発光部219の発光が終了するような構成であってもよい。また、発光部219の発光によるわずかな残光が、第2の行によって取得する評価値算出画像に影響するくらいであれば、発光部219の発光の終了が第1の期間Tres1の終了タイミングの少し後であってもよい。   The evaluation value calculation image acquired in the second row, which will be described later, has a configuration in which the time t2 and the end timing of the first period Tres1 do not match unless the light emission of the light emitting unit 219 is small. May be. For example, the configuration may be such that the light emission of the light emitting unit 219 ends before the end timing of the first period Tres1. Further, if the slight afterglow due to the light emission of the light emitting unit 219 affects the evaluation value calculation image acquired by the second row, the end of the light emission of the light emitting unit 219 is the end timing of the first period Tres1. It may be a little later.

以上説明した発光部219の発光タイミングと、撮像素子205の各行の蓄積時間の関係であれば、発光部219の発光による影響を抑制して、動画用の画像データを取得することが出来る。この構成によって、動画のフレームレートを変化させることなく、発光部219のAF補助光によって照明された状態の評価値算出画像を取得することが出来る。この際、撮像素子205の、動画用の第1の行と評価値算出画像用の第2の行とは、それぞれ独立してフレームレートが制御されているので、第2の行の蓄積時間は自由に設定することができる。   If it is the relationship between the light emission timing of the light emission part 219 demonstrated above and the accumulation time of each line of the image sensor 205, the influence by light emission of the light emission part 219 can be suppressed and the image data for moving images can be acquired. With this configuration, an evaluation value calculation image in a state illuminated by the AF auxiliary light of the light emitting unit 219 can be acquired without changing the frame rate of the moving image. At this time, since the frame rate of the first row for the moving image and the second row for the evaluation value calculation image of the image sensor 205 are controlled independently, the accumulation time of the second row is It can be set freely.

図5に戻り、ステップS107でCPU212は、第2の行のリセット期間が経過した後であって、第1の行のリセット期間(第1の期間)において、撮像素子205の第2の行によって、評価値算出用に被写体を撮像する。   Returning to FIG. 5, in step S <b> 107, the CPU 212 performs the second row of the image sensor 205 in the first row reset period (first period) after the second row reset period has elapsed. The subject is imaged for evaluation value calculation.

具体的には、発光部219によってAF補助光を発光させる期間と少なくとも一部が重複するような期間において、第2の行での評価値算出用の蓄積を行う。すなわち、第2の行によって取得される評価値算出画像は、発光部219によるAF補助光の発光によって被写体が照明されている状態の画像データとなる。第2の行での蓄積の終了後、取得した評価値算出画像はメモリ211に記録される。   Specifically, accumulation for evaluation value calculation in the second row is performed in a period at least partially overlapping with a period in which the AF assist light is emitted by the light emitting unit 219. That is, the evaluation value calculation image acquired by the second row is image data in a state where the subject is illuminated by the emission of the AF auxiliary light by the light emitting unit 219. After the accumulation in the second row is completed, the acquired evaluation value calculation image is recorded in the memory 211.

なお、本実施形態では、第2の行にあたる、評価値算出用の全ての蓄積行による蓄積が開始されてから、発光部219でのAF補助光の発光を行う。これは、撮像素子205が、所謂ローリングシャッタ型の電荷蓄積型の撮像素子であるため、行ごとに蓄積の開始と終了がずれてしまうためである。したがって、発光部219によってAF補助光の発光を開始する前に、第2の行を構成する一部の蓄積行での蓄積はすでに開始されている。   In the present embodiment, AF auxiliary light is emitted from the light emitting unit 219 after accumulation by all accumulation rows for evaluation value calculation corresponding to the second row is started. This is because the image pickup element 205 is a so-called rolling shutter type charge storage type image pickup element, and therefore, the start and end of storage are shifted for each row. Therefore, before starting the emission of the AF auxiliary light by the light emitting unit 219, accumulation in a part of accumulation rows constituting the second row has already been started.

また、本実施形態では、リセット期間が終わった画素から順に、第2の行によって評価値算出画像用の蓄積を開始するような構成であるが、これに限定されるものではない。例えば、第1の期間Tres1が経過してから、第2の行を構成する全ての蓄積行で同時に蓄積を開始するような構成であってもよい。   In the present embodiment, the storage for the evaluation value calculation image is started by the second row in order from the pixel for which the reset period has ended. However, the present invention is not limited to this. For example, after the first period Tres1 has elapsed, the storage may be started simultaneously in all the storage rows that constitute the second row.

さらに、本実施形態では、第2の行での評価値算出画像用の蓄積を開始した後に発光部219の発光を行うような構成であるが、これに限定されるものではない。例えば、第1の行のリセット期間(第1の期間)に、第2の行での蓄積の開始から終了までが収まるような構成であれば、第2の行での蓄積の期間が発光部219の発光の期間よりも短いような構成であってもよい。すなわち、発光部219によってAF補助光の発光を開始してから第2の行での蓄積を開始し、当該第2の行での蓄積が終了してから発光部219によるAF補助光の発光を終了するような構成であってもよい。   Furthermore, in the present embodiment, the light emitting unit 219 emits light after starting the accumulation for the evaluation value calculation image in the second row. However, the present invention is not limited to this. For example, if the configuration is such that the period from the start to the end of accumulation in the second row falls within the reset period (first period) of the first row, the accumulation period in the second row is the light emitting unit. The configuration may be shorter than the light emission period of 219. That is, after the light emission unit 219 starts to emit AF auxiliary light, accumulation in the second row starts, and after the accumulation in the second row ends, the light emission unit 219 emits AF auxiliary light. The structure which complete | finishes may be sufficient.

さらに、撮像素子205が、所謂グローバルシャッタ方式を採用するような場合は、発光部219の発光を開始してから第2の行での蓄積を開始して、発光部219によるAF補助光の発光が終了してから、第2の行での蓄積を終了する構成であってもよい。この場合も、発光部219によってAF補助光を発光する期間が、評価値算出用に第2の行での蓄積を行う期間の少なくとも一部と重複するようの構成であればよい。   Further, when the imaging device 205 adopts a so-called global shutter system, the light emission unit 219 starts light emission and then starts accumulation in the second row, and the light emission unit 219 emits AF auxiliary light. The configuration may be such that the accumulation in the second row is terminated after ending. Also in this case, it is only necessary that the period during which the AF assist light is emitted by the light emitting unit 219 overlaps at least a part of the period in which the accumulation in the second row is performed for evaluation value calculation.

図5に戻り、ステップS108で発光制御部223は、発光部219を消灯させ、AF補助光による被写体の照明を終了させる。次に、ステップS109でCPU212は、撮像素子205の第1の行によって、動画用に被写体を撮像させる。なお、図6に図示するように、このタイミングでは発光部219よって被写体が照明されていない状態で被写体の撮像が行われる。取得した動画用の画像データはメモリ211に記録される。また、取得した動画用の画像データは記録用の動画(の画像データ)として記録媒体130に記録される。さらに、取得した動画用の画像データは、画像処理、圧縮・符号化などが適宜行われた状態で、D/A変換部210によって動画として表示するための表示用の画像データに変換され、表示部101に表示される。   Returning to FIG. 5, in step S <b> 108, the light emission control unit 223 turns off the light emission unit 219 and ends the illumination of the subject by the AF auxiliary light. Next, in step S <b> 109, the CPU 212 causes the subject to be imaged for a moving image by the first row of the image sensor 205. As shown in FIG. 6, at this timing, the subject is imaged in a state where the subject is not illuminated by the light emitting unit 219. The acquired moving image image data is recorded in the memory 211. The acquired moving image data is recorded in the recording medium 130 as a recording moving image (image data). Furthermore, the acquired image data for moving images is converted into image data for display for display as a moving image by the D / A conversion unit 210 in a state where image processing, compression / encoding, and the like have been performed as appropriate. Displayed on the unit 101.

次に、ステップS110でAF制御部221は、第1の行での動画取得用にフォーカス制御を行う。以下、フォーカス制御を行うためのフォーカス制御処理について図8を参照して説明する。   Next, in step S110, the AF control unit 221 performs focus control for moving image acquisition in the first row. Hereinafter, focus control processing for performing focus control will be described with reference to FIG.

図8は本発明を実施した撮像装置の第1実施形態であるカメラ100のフォーカス制御処理を説明するフローチャートである。フォーカス制御処理が開始されると、ステップS201でCPU212は、今回の処理で発光部219によるAF補助光を発光させているか否かを判定する。CPU212によって、AF補助光を発光させていないと判定された場合はステップS202へと進み、AF補助光を発光させていると判定された場合はステップS203へと進む。   FIG. 8 is a flowchart for explaining the focus control process of the camera 100 which is the first embodiment of the imaging apparatus embodying the present invention. When the focus control process is started, in step S201, the CPU 212 determines whether or not the AF assist light from the light emitting unit 219 is emitted in the current process. If the CPU 212 determines that AF auxiliary light is not emitted, the process proceeds to step S202. If it is determined that AF auxiliary light is emitted, the process proceeds to step S203.

次に、AF補助光を発光させていない場合は、ステップS202でAF制御部221は、第1の行によって取得した動画用の画像データをメモリ211から読み出し、当該動画用の画像データを用いて、第1の行における動画取得用にフォーカス制御を行う。   Next, when the AF auxiliary light is not emitted, in step S202, the AF control unit 221 reads out the moving image data acquired from the first row from the memory 211, and uses the moving image data. Focus control is performed for moving image acquisition in the first row.

ステップS202におけるフォーカス制御の詳細としては、動画用の画像データの輝度成分のコントラスト情報に基づいて、動画取得用(第1の行で被写体を撮像する際)の、撮影レンズ202のレンズ位置を算出する。そして、AF制御部221は、算出したレンズ位置の情報に基づいて、撮影レンズ202を移動させる。   As the details of the focus control in step S202, the lens position of the taking lens 202 for moving image acquisition (when the subject is imaged in the first row) is calculated based on the contrast information of the luminance component of the image data for moving image. To do. Then, the AF control unit 221 moves the photographing lens 202 based on the calculated lens position information.

図6で図示したように、記録および表示用に第1の行で取得する動画用の画像データは、リセット期間(第1の期間)は第2の行に比べて短いものとなる場合がある。例えば、動画用の画像データの蓄積時間を出来るだけ長くしたいような場合は、先に説明した発光部219による発光タイミングを維持できる程度に、第1の行のリセット期間を短くする。この場合、当該リセット期間(第1の期間)だけでフォーカス制御を行うことは難しい。   As illustrated in FIG. 6, the moving image image data acquired in the first row for recording and display may have a shorter reset period (first period) than the second row. . For example, when it is desired to increase the accumulation time of image data for moving images as much as possible, the reset period of the first row is shortened to such an extent that the light emission timing by the light emitting unit 219 described above can be maintained. In this case, it is difficult to perform focus control only in the reset period (first period).

したがって、発光部219によりAF補助光を発光させないでフォーカス制御をする場合、あるフレームで取得した動画用の画像データに基づくフォーカス制御は、2つ後のフレームにおける動画用の画像データを取得するために行うものとする。すなわち、本実施形態では、あるフレームで取得した動画用の画像データに基づき、2つ後のフレームでの動画用の画像データを取得するための撮影レンズ202のレンズ位置を設定する。   Therefore, when focus control is performed without causing the light emitting unit 219 to emit AF auxiliary light, the focus control based on the moving image data acquired in a certain frame acquires moving image data in the second frame. Shall be performed. That is, in the present embodiment, the lens position of the taking lens 202 for acquiring moving image data in the second frame is set based on moving image data acquired in a certain frame.

以上説明したように、ステップS202の処理は、図6に図示する第2の蓄積期間E2から2つ後のフレームの第2の蓄積期間E2までの期間で行われる。以上が、AF補助光を発光させていない場合の、動画取得用のフォーカス制御である。   As described above, the process of step S202 is performed in the period from the second accumulation period E2 illustrated in FIG. 6 to the second accumulation period E2 of the second frame. The above is the focus control for moving image acquisition when the AF auxiliary light is not emitted.

次に、AF補助光を発光させる場合の、動画取得用のフォーカス制御について説明する。ステップS203でAF制御部221は、第2の行によって取得した評価値算出画像をメモリ211から読み出し、当該評価値算出画像を用いて、動画取得用のフォーカス制御を行う。以下、その詳細について説明する。   Next, focus control for moving image acquisition when AF auxiliary light is emitted will be described. In step S203, the AF control unit 221 reads the evaluation value calculation image acquired by the second row from the memory 211, and performs focus control for moving image acquisition using the evaluation value calculation image. The details will be described below.

先に説明したように、撮像素子205の第2の行から出力された評価値算出画像のアナログ画像データは、A/D変換部206によりデジタル画像データへと変換された後に、スイッチ316とフレームメモリ317を介して評価部207へと送られる。   As described above, the analog image data of the evaluation value calculation image output from the second row of the image sensor 205 is converted into digital image data by the A / D conversion unit 206, and then the switch 316 and the frame The data is sent to the evaluation unit 207 via the memory 317.

評価部207では、AF制御部221からの指示に従い、評価値算出画像の高周波成分を算出するために、当該画像データの第2の行ごとにハイパスフィルタを適用する。次に、第2の行ごとに、ハイパスフィルタ出力信号の絶対値の最も大きいものを選択する。なお、絶対値の算出を行うのは、評価値算出画像において、正方向と負方向の両方の情報からなる被写体の輪郭情報を正規化するためである。そして、選択したそれぞれの行における信号を垂直方向に積分した積分値を算出する。本実施形態では、この積分値をAF評価値とする。この、AF評価値は、被写体に対してピントが合っている合焦状態において最も値が大きくなり、逆に、合焦状態から乖離するほど値が小さくなる信号である。したがって、このAF評価値が極大となる撮影レンズ202のレンズ位置が、被写体に対してピントが合っている状態となる。   The evaluation unit 207 applies a high-pass filter for each second row of the image data in order to calculate a high-frequency component of the evaluation value calculation image in accordance with an instruction from the AF control unit 221. Next, for each second row, the one having the largest absolute value of the high-pass filter output signal is selected. The reason why the absolute value is calculated is to normalize the contour information of the subject that includes both the positive direction information and the negative direction information in the evaluation value calculation image. Then, an integral value obtained by integrating the signals in each selected row in the vertical direction is calculated. In this embodiment, this integral value is used as the AF evaluation value. The AF evaluation value is a signal that has the largest value in a focused state in which the subject is in focus, and conversely, the value decreases as the distance from the focused state increases. Therefore, the lens position of the photographic lens 202 where the AF evaluation value is maximized is in a state of being in focus with respect to the subject.

図8に戻り、ステップS205でAF制御部221は、先に算出したAF評価値に基づき被写体に対してピントが合うレンズ位置に撮影レンズ202を移動させる。なお、このレンズ位置が、次のフレームの、動画取得用の撮影レンズ202のレンズ位置となる。   Returning to FIG. 8, in step S <b> 205, the AF control unit 221 moves the photographing lens 202 to a lens position that focuses on the subject based on the previously calculated AF evaluation value. This lens position is the lens position of the shooting lens 202 for moving image acquisition in the next frame.

前述したように、AF補助光を発光させないでフォーカス制御を行う場合は、次のフレームでの動画用の蓄積を開始するまでの期間に制限があった。しかし、AF補助光を発光させてフォーカス制御を行う場合、評価値算出画像は記録・表示用に取得するものではないので、被写体を認識できる程度な最低限の明るさの画像データであればよい。したがって、第2の行のリセット期間(第2の期間)を出来るだけ長くすることが出来るため、当該第2の期間と第1の期間が終了するまでの間に、AF評価値の算出とフォーカス制御を行うことができる。すなわち、評価値算出画像を取得したすぐ後の第1の行での蓄積用に、撮影レンズ202のレンズ位置を設定することが可能である。以上が、AF補助光を発光させる場合における、動画取得用のフォーカス制御である。本実施形態は、この構成によって、AF評価値(焦点評価値)の算出から時間的なズレの少ない期間において、当該AF評価値を用いたフォーカス制御を行うことができる。   As described above, when focus control is performed without causing AF auxiliary light to be emitted, there is a limit to the period until the accumulation of moving images in the next frame is started. However, when focus control is performed by emitting AF auxiliary light, the evaluation value calculation image is not acquired for recording / displaying, so it is sufficient if the image data has a minimum brightness that can recognize the subject. . Therefore, since the reset period (second period) of the second row can be made as long as possible, the calculation of the AF evaluation value and the focus between the second period and the end of the first period. Control can be performed. That is, it is possible to set the lens position of the photographing lens 202 for accumulation in the first row immediately after obtaining the evaluation value calculation image. The above is the focus control for moving image acquisition when the AF auxiliary light is emitted. With this configuration, the present embodiment can perform focus control using the AF evaluation value in a period in which there is little temporal deviation from the calculation of the AF evaluation value (focus evaluation value).

図5に戻り、ステップS111でCPU212は、動画の取得を続行するか否かを判定する。動画の取得を続行する場合はステップS101に戻り、動画の取得を終了する場合は動画取得処理を終了する。以上が本実施形態の動画取得処理である。   Returning to FIG. 5, in step S <b> 111, the CPU 212 determines whether to continue the acquisition of the moving image. When the acquisition of the moving image is continued, the process returns to step S101, and when the acquisition of the moving image is finished, the moving image acquisition process is ended. The above is the moving image acquisition process of the present embodiment.

以上説明したように、本実施形態のカメラ100は、動画取得中であって撮像素子205の第1の行のリセット期間において、撮像素子205の第2の行で、発光部219によるAF補助光を発光させた状態で評価値算出画像用に被写体を撮像することができる。この構成によって、動画のフレームレートを低下させることなく、取得した動画に発光部219を発光させることによる影響が及ぶことを抑制することができる。   As described above, the camera 100 according to the present embodiment is acquiring the AF auxiliary light from the light emitting unit 219 in the second row of the image sensor 205 during the moving image acquisition and the reset period of the first row of the image sensor 205. The subject can be imaged for the evaluation value calculation image in a state where the light is emitted. With this configuration, it is possible to suppress the influence of causing the light emitting unit 219 to emit light on the acquired moving image without reducing the frame rate of the moving image.

したがって、本実施形態のカメラ100は、1つの撮像素子を用いて動画を取得しながらAF補助光を発光する場合に、動画のフレームが低下することなく、補助光の発光が動画に影響することを抑制することができる。   Therefore, when the camera 100 according to the present embodiment emits AF auxiliary light while acquiring a moving image using a single image sensor, the light emission of the auxiliary light affects the moving image without lowering the frame of the moving image. Can be suppressed.

また、本実施形態では、1つの撮像素子205のみで動画と評価値算出画像とを独立して取得することができる。そのため、被写体が暗い場合でも、蓄積時間を自由に設定して発光部219によるAF補助光を発光させた状態の評価値算出画像を取得することができる。そして、当該画像を取得したフレーム内でAF評価値を算出することもできる。このAF評価値を用いて、当該AF評価値を算出したすぐ後の第1の行での蓄積開始までに、動画取得用にフォーカス制御を行うことができるので、被写体が暗い状態であっても、フレーム毎に精度の高いフォーカス制御を行うことができる。すなわち、合焦の精度が高い動画を取得することができる。   In the present embodiment, a moving image and an evaluation value calculation image can be acquired independently with only one image sensor 205. Therefore, even when the subject is dark, it is possible to acquire an evaluation value calculation image in a state where the AF auxiliary light emitted from the light emitting unit 219 is emitted by freely setting the accumulation time. The AF evaluation value can also be calculated within the frame from which the image is acquired. Using this AF evaluation value, focus control can be performed for moving image acquisition by the start of accumulation in the first row immediately after the AF evaluation value is calculated, so even if the subject is dark Highly accurate focus control can be performed for each frame. That is, a moving image with high focusing accuracy can be acquired.

なお、本実施形態では、撮像素子205の第1の行のみで動画用に被写体を撮像するような構成であるが、これに限定されるものではない。例えば、被写体の輝度値が閾値以下となり、被写体が暗い状態であると判定されるまでは、第2の行でも動画用に被写体を撮像するような構成であってもよい。すなわち、AF補助光の発光指示がされるまでの間は、撮像素子205の全ての画素を動画用に用いるような構成であってもよい。   In this embodiment, the configuration is such that the subject is imaged for moving images only by the first row of the image sensor 205, but the present invention is not limited to this. For example, the configuration may be such that the subject is imaged for moving images in the second row until the luminance value of the subject is equal to or less than the threshold value and the subject is determined to be dark. That is, until the AF auxiliary light is instructed to emit, all the pixels of the image sensor 205 may be used for moving images.

また、本実施形態では、撮像素子205を構成する各画素を、おおよそ1:1の比率で第1の行と第2の行とに分けているが、動画の画素数を向上させるために、撮像素子205における第1の行の比率を大きくするような構成であってもよい。この場合、第2の行の数は減少するが、第2の行で取得する評価値算出画像は記録される画像データではないため、フォーカス制御を適正に行える程度に、第2の行が確保されていればよい。   In this embodiment, each pixel constituting the image sensor 205 is divided into a first row and a second row at a ratio of approximately 1: 1, but in order to improve the number of pixels of the moving image, A configuration in which the ratio of the first row in the image sensor 205 is increased may be employed. In this case, the number of second rows decreases, but the evaluation value calculation image acquired in the second row is not recorded image data, so the second row is secured to the extent that focus control can be performed appropriately. It only has to be done.

(第2実施形態)
本発明の第2実施形態における動画取得処理について図9〜11を参照して説明する。図1、図2に図示したようなカメラ100の基本構成や、図3、図4に図示したような撮像部204の構成については前述の第1実施形態と同様であるので説明は省略する。なお、本実施形態では、後述する図9や図11に示すフローと同様の動作を指示するためのプログラムが不揮発性メモリ213に予め格納されているものとする。
(Second Embodiment)
The moving image acquisition process according to the second embodiment of the present invention will be described with reference to FIGS. Since the basic configuration of the camera 100 as illustrated in FIGS. 1 and 2 and the configuration of the imaging unit 204 as illustrated in FIGS. 3 and 4 are the same as those in the first embodiment, description thereof will be omitted. In the present embodiment, it is assumed that a program for instructing an operation similar to the flow shown in FIGS. 9 and 11 described later is stored in advance in the nonvolatile memory 213.

前述した第1の実施形態では、撮像素子205の第2の行によって取得される評価値算出画像からAF評価値を算出するような構成であった。本実施形態では、当該評価値算出画像から、動画用の画像データに関連付ける被写体の情報を算出する場合について説明する。   In the first embodiment described above, the AF evaluation value is calculated from the evaluation value calculation image acquired by the second row of the image sensor 205. In the present embodiment, a case will be described in which information on a subject to be associated with moving image data is calculated from the evaluation value calculation image.

なお、本実施形態においても、ユーザが発光部219を発光させていない状態の動画を取得したい場合や、種々の処理に使用するために被写体に対する露出量を通常よりもアンダーで取得したい場合(非発光動画時)を想定する。この場合、例えば、暗い状態の被写体を撮像した画像データから、被写体中の顔領域や人物領域を識別することは困難である。したがって、当該暗い状態の被写体を撮像した画像データの中から、ユーザによって事前に登録された特定の顔や人物を認証(照合)する処理を行うことは難しい。   In this embodiment as well, when the user wants to acquire a moving image in a state where the light emitting unit 219 is not lit, or when the user wants to acquire an exposure amount with respect to a subject under a normal level for use in various processes (non- Assuming flash video). In this case, for example, it is difficult to identify a face area or a person area in a subject from image data obtained by imaging a dark subject. Therefore, it is difficult to perform processing for authenticating (collating) a specific face or person registered in advance by the user from image data obtained by imaging the dark subject.

この様な場合も、補助光によって被写体を照明した状態の画像データを用いることで、上述したような被写体の識別や認証を適正におこなうことができるが、動画を取得する場合は、補助光を発光させることによる影響が動画に及んでしまう。   In such a case, it is possible to properly identify and authenticate the subject as described above by using the image data in a state in which the subject is illuminated with the auxiliary light. However, when acquiring a moving image, the auxiliary light is used. The effect of emitting light will affect the video.

そこで、本実施形態では、撮像素子205の第1の行を動画取得用の蓄積行とし、第2の行を、被写体を識別するための識別評価値などを算出する評価値算出画像用の蓄積行とする。そして、第1の行と第2の行の読み出し周期(フレームレート)をそれぞれ独立して制御し、第1の行のリセット期間(第1の期間)で発光部219による補助光を発光させる。さらに、発光部219による補助光の発光期間と少なくとも一部が重複する期間で、第2の行による評価値算出画像を取得するための蓄積を行う。   Therefore, in the present embodiment, the first row of the image sensor 205 is set as a storage row for moving image acquisition, and the second row is stored for evaluation value calculation images for calculating an identification evaluation value for identifying a subject. Line. Then, the readout cycle (frame rate) of the first row and the second row is controlled independently, and auxiliary light is emitted from the light emitting unit 219 in the reset period (first period) of the first row. Further, accumulation for acquiring the evaluation value calculation image by the second row is performed in a period at least partially overlapping with the light emission period of the auxiliary light by the light emitting unit 219.

この構成によって、被写体中の顔領域や人物領域を適正に識別しつつ、発光による影響を抑制した動画を取得することが出来る。そして、識別された顔領域や人物領域が、カメラ100に前もって登録された被写体であるか否かの認証処理を行い、当該認証処理によって得られた被写体の情報を動画に関連付けることができる。以下、その詳細について図9〜11を参照して説明する。   With this configuration, it is possible to acquire a moving image in which the influence of light emission is suppressed while appropriately identifying the face area and the person area in the subject. Then, authentication processing can be performed to determine whether the identified face region or person region is a subject registered in advance in the camera 100, and the subject information obtained by the authentication processing can be associated with a moving image. Hereinafter, the details will be described with reference to FIGS.

図9は本発明を実施した撮像装置の第2実施形態であるカメラ100の動画取得処理を説明するフローチャートである。ユーザによって動画の取得が指示されると、第1の行によって動画用の画像データが随時取得される。ステップS301で測光演算部220は、動画用の画像データを取得し、当該動画用の画像データに基づいて測光演算を行い被写体の輝度値を算出する。なお、本実施形態においても、動画用の画像データを取得するごとに、測光演算部220によって被写体の輝度値が算出される。測光演算の方法は前述の第1実施形態と同様である、算出した被写体の輝度値はメモリ211に記録される。以降、ステップS303までの処理は、前述の第1実施形態と同様であるので、説明は省略する。   FIG. 9 is a flowchart illustrating the moving image acquisition process of the camera 100 which is the second embodiment of the imaging apparatus embodying the present invention. When acquisition of a moving image is instructed by the user, image data for the moving image is acquired as needed by the first row. In step S301, the photometric calculation unit 220 acquires moving image image data, performs photometric calculation based on the moving image data, and calculates the luminance value of the subject. In the present embodiment, the luminance value of the subject is calculated by the photometric calculation unit 220 every time moving image data is acquired. The photometric calculation method is the same as in the first embodiment, and the calculated luminance value of the subject is recorded in the memory 211. Henceforth, since the process to step S303 is the same as that of the above-mentioned 1st Embodiment, description is abbreviate | omitted.

ステップS304で発光制御部223は、発光部219の発光制御をおこなう。以下、図10を参照して本実施形態における、発光部219の発光と撮像素子205による蓄積に関するタイミングについて説明する。図10は本発明を実施した撮像装置の第2実施形態であるカメラ100の発光部219の発光タイミングと撮像素子205の蓄積タイミングを説明するタイミングチャートである。   In step S304, the light emission control unit 223 performs light emission control of the light emission unit 219. Hereinafter, the timing related to the light emission of the light emitting unit 219 and the accumulation by the image sensor 205 in the present embodiment will be described with reference to FIG. FIG. 10 is a timing chart for explaining the light emission timing of the light emitting unit 219 and the storage timing of the image sensor 205 of the camera 100 which is the second embodiment of the imaging apparatus embodying the present invention.

図10に図示するように、発光部219による補助光の発光タイミングは、第1の行のリセット期間(第1の期間)とする。この際、前述した第1実施形態と同様に、第1の行のリセット期間(第1の期間)に発光の開始から終了までが収まるように、発光制御部223によって発光部219による補助光の発光タイミングが制御される。   As illustrated in FIG. 10, the light emission timing of the auxiliary light by the light emitting unit 219 is a reset period (first period) of the first row. At this time, as in the first embodiment described above, the light emission control unit 223 causes the light emission unit 219 to emit auxiliary light so that the light emission from the start to the end of the first row reset period (first period) falls within the reset period (first period). The light emission timing is controlled.

図9に戻り、ステップS305で露出制御部222は、第2の行で評価値算出画像用に被写体を撮像する際の蓄積時間を設定する。図9に図示するように、本実施形態においても、第1の行における蓄積時間と比較して、第2の行において、第1の行における1フレームの略半分にあたる期間が、評価値算出画像を取得する際の第2の行のリセット期間(第2の期間)として設定されている。   Returning to FIG. 9, in step S <b> 305, the exposure control unit 222 sets an accumulation time when the subject is imaged for the evaluation value calculation image in the second row. As shown in FIG. 9, also in the present embodiment, a period corresponding to approximately half of one frame in the first row in the second row is compared with the accumulation time in the first row. Is set as the reset period (second period) of the second row when acquiring.

本実施形態では、この第2の期間において、評価値算出画像中の顔領域や人物領域の識別を行ない、識別された顔領域や人物領域に基づいて予め登録された被写体の情報との被写体認証処理を行う。そして、動画用の画像データを表示部101に表示する際に、評価値算出画像で認証された被写体の位置情報を反映させる。この際、被写体認証処理を行う評価値算出画像用に被写体を撮像するフレームと、認証された被写体の情報を反映させる動画用に被写体を撮像するフレームとは、少なくとも一部が重複するように取得する。   In the present embodiment, in this second period, the face area and person area in the evaluation value calculation image are identified, and subject authentication with subject information registered in advance based on the identified face area and person area is performed. Process. Then, when displaying the image data for moving images on the display unit 101, the position information of the subject authenticated by the evaluation value calculation image is reflected. At this time, the frame for capturing the subject for the evaluation value calculation image for subject authentication processing and the frame for capturing the subject for the moving image reflecting the information of the authenticated subject are acquired so that at least a part thereof overlaps. To do.

すなわち、被写体認証を行う画像データと、認証された情報を反映させる画像データとはほとんど同じタイミングで取得されるので、被写体が暗い状態でも、時間的なズレが少ない期間で、認証された被写体の情報を反映させることが可能である。この詳細については図11を参照して後述する。   That is, the image data for subject authentication and the image data reflecting the authenticated information are acquired at almost the same timing, so even if the subject is in a dark state, the authenticated subject can be detected in a period with little time deviation. It is possible to reflect information. Details of this will be described later with reference to FIG.

なお、本実施形態においても、第2の行によって取得する画像データは記録用には使用されないので、評価値算出画像の明るさは、識別評価値を算出するために必要最低限のものであればよい。すなわち、第2の行のリセット期間(第2の期間)は、識別評価値を算出できるような期間であればどのような期間であってもよい。   Also in this embodiment, since the image data acquired by the second row is not used for recording, the brightness of the evaluation value calculation image is the minimum necessary for calculating the identification evaluation value. That's fine. That is, the reset period (second period) of the second row may be any period as long as the identification evaluation value can be calculated.

図9に戻り、ステップS306で発光制御部223は、先に設定した補助光の発光タイミングに基づき、第1の行のリセット期間で、発光部219によって補助光を発光させて被写体を照明する。以降、ステップS309までの処理は前述の第1実施形態と同様であるので、説明は省略する。   Returning to FIG. 9, in step S306, the light emission control unit 223 illuminates the subject by causing the light emission unit 219 to emit auxiliary light in the reset period of the first row based on the previously set emission timing of the auxiliary light. Henceforth, since the process to step S309 is the same as that of the above-mentioned 1st Embodiment, description is abbreviate | omitted.

ステップS310でCPU212は、取得した画像データの被写体と、予め登録されている顔や人物の認証(照合)を行う、被写体認証処理を実行する。以下、図11を参照してこの詳細を説明する。図11は本発明を実施した撮像装置の第2実施形態であるカメラ100の被写体認証処理を説明するフローチャートである。   In step S310, the CPU 212 executes subject authentication processing for authenticating (collating) the subject of the acquired image data with a face or person registered in advance. The details will be described below with reference to FIG. FIG. 11 is a flowchart for explaining subject authentication processing of the camera 100 which is the second embodiment of the imaging apparatus embodying the present invention.

被写体認証処理が開始されると、ステップS401でCPU212は、今回の処理で発光部219により補助光が発光されたか否かを判定する。発光部219によって補助光が発光されていないと、CPU212によって判定された場合はステップS402へと進む。また、発光部219によって補助光が発光されたと、CPU212によって判定された場合はステップS404へと進む。   When the subject authentication process is started, in step S401, the CPU 212 determines whether or not auxiliary light is emitted by the light emitting unit 219 in the current process. If it is determined by the CPU 212 that the auxiliary light is not emitted by the light emitting unit 219, the process proceeds to step S402. If the CPU 212 determines that the auxiliary light is emitted by the light emitting unit 219, the process proceeds to step S404.

補助光が発光されていない場合、ステップS402でCPU(識別手段)212は、第1の行によって取得した動画用の画像データをメモリ211から読み出し、当該画像データの被写体の中に、顔領域や人物領域が存在するか否かを識別する。   When the auxiliary light is not emitted, in step S402, the CPU (identification unit) 212 reads out the moving image data acquired from the first row from the memory 211, and includes a face region and a subject in the subject of the image data. Whether or not a person area exists is identified.

まず、顔領域の識別方法の詳細について説明する。CPU212は、メモリ211から先に取得した動画用の画像データを読み出し、当該画像データの被写体の中から、目・鼻・口・顔の輪郭などの物理的な特徴点を抽出する。   First, the details of the face area identification method will be described. The CPU 212 reads the moving image image data acquired previously from the memory 211, and extracts physical feature points such as eyes, nose, mouth, and face outline from the subject of the image data.

次に、CPU212は、抽出した特徴点を用いて、不揮発性メモリ213に格納されているテンプレートマッチング用のデータとのテンプレートマッチング処理を行い、被写体中の顔領域を識別する。なお、被写体中の顔領域を識別する方法としては、一般的な方法であればどのようなものを用いてもよい。   Next, the CPU 212 performs template matching processing with the template matching data stored in the nonvolatile memory 213 using the extracted feature points, and identifies a face area in the subject. As a method for identifying the face area in the subject, any method may be used as long as it is a general method.

次に、人物領域の識別方法の詳細について説明する。CPU212は、メモリ211から先に取得した動画用の画像データを読み出し、当該画像データの被写体の中から、髪型・体型・姿勢・服装・持ち物などの、人物を構成するパーツやその他の人物を特定するパーツの特徴部分を抽出する。   Next, details of the person region identification method will be described. The CPU 212 reads the image data for the moving image previously acquired from the memory 211, and identifies the parts constituting the person and other persons such as the hairstyle, body shape, posture, clothes, and belongings from the subject of the image data. Extract the characteristic part of the part to be used.

次に、CPU212は、抽出した特徴点を用いて、不揮発性メモリ213に格納されているテンプレートマッチング用のデータとのテンプレートマッチング処理を行い、被写体中の人物領域を識別する。なお、被写体中の人物領域を識別する方法としては、一般的な方法であればどのようなものを用いてもよい。以上が、顔領域および人物領域の識別方法である。   Next, the CPU 212 performs template matching processing with the template matching data stored in the nonvolatile memory 213 using the extracted feature points, and identifies a person area in the subject. As a method for identifying the person area in the subject, any method may be used as long as it is a general method. The above is the identification method of the face area and the person area.

図11に戻り、ステップS403でCPU(認証手段)212は、先に算出した顔領域や人物領域に基づいて、動画用の画像データの被写体の中に、カメラ100に予め登録されている被写体がいるか否かの認証を行う。以下、その詳細について説明する。なお、ユーザによって、特定の顔や人物の登録が事前に行われており、メモリ(記録手段)211に当該登録した顔や人物の情報が記録されるものとする。   Returning to FIG. 11, in step S403, the CPU (authentication unit) 212 determines a subject registered in advance in the camera 100 among the subjects of the image data for moving images based on the previously calculated face area and person area. Authentication of whether or not there is. The details will be described below. Note that a specific face or person is registered in advance by the user, and the registered face or person information is recorded in the memory (recording unit) 211.

CPU212は、予め登録されている顔や人物の情報をメモリ211から読み出し、当該情報と先に識別した顔領域と人物領域の情報とを照合する。当該照合に参照する情報としては、先に説明したような顔領域や人物領域の特徴点と、当該顔領域や人物領域の色調を比較することで、登録された顔や人物が、識別された顔領域と人物領域と一致するか否かを照合する。   The CPU 212 reads out pre-registered face and person information from the memory 211 and collates the information with the previously identified face area and person area information. As information to be referred to for the comparison, the registered face or person is identified by comparing the feature points of the face area or person area as described above with the color tone of the face area or person area. It is checked whether or not the face area matches the person area.

そして、動画用の画像データに、予め登録された顔や人物の情報と、識別した顔領域や人物領域とが一致する場合は、一致した顔領域や人物領域に対する重み付けをおこなう。最後に、当該重み付け関する重み付け情報をメモリ211に記録し、被写体認証処理を終了する。なお、被写体認証処理の方法としては、一般的な方法であればどのようなものを用いてもよい。以上が、補助光を発光させない場合の被写体認証処理である。   Then, when the face and person information registered in advance in the image data for moving image matches the identified face area and person area, the matched face area and person area are weighted. Finally, the weighting information related to the weighting is recorded in the memory 211, and the subject authentication process is terminated. As a subject authentication processing method, any method may be used as long as it is a general method. The above is the subject authentication process when the auxiliary light is not emitted.

図11に戻り、補助光が発光された場合、ステップS404でCPU(識別手段)212は、第2の行によって取得した評価値算出画像をメモリ211から読み出し、当該画像における被写体の中に、顔領域や人物領域が存在するか否かを識別する。なお、顔領域や人物領域の識別方法は、補助光を発光させない場合のものと同様である。   Returning to FIG. 11, when the auxiliary light is emitted, the CPU (identification unit) 212 reads the evaluation value calculation image acquired by the second row from the memory 211 in step S <b> 404, and includes the face in the subject in the image. Whether or not an area or a person area exists is identified. The method for identifying the face area and the person area is the same as that in the case where the auxiliary light is not emitted.

次に、ステップS405でCPU(認証手段)212は、先に算出した顔領域や人物領域に基づいて、評価値算出画像の被写体の中に、メモリ(記録手段)211に予め登録されている被写体がいるか否かの認証を行う。被写体認証の方法は前述したものと同様である。   Next, in step S405, the CPU (authentication unit) 212 is a subject registered in advance in the memory (recording unit) 211 among the subjects of the evaluation value calculation image based on the previously calculated face area and person area. Authentication of whether or not there is. The method of subject authentication is the same as that described above.

次に、ステップS406でCPU212は、先に認証した被写体の情報を動画用の画像データに反映させるために、被写体評価値を算出する。被写体評価値の算出方法としては、まず、評価値算出画像を複数のブロックに分ける。この際の複数のブロックに分ける方法としては、前述した第1実施形態で説明した、輝度値を算出する際と同じ方法を用いる。CPU212は、複数のブロックの中から、先に認証した顔および人物が存在する評価値算出画像内のブロックを特定する。そして、CPU212は、認証した被写体が存在するブロックの位置を特定して、被写体の位置情報(被写体評価値)を算出する。算出された被写体評価値はメモリ211に記録される。   Next, in step S406, the CPU 212 calculates a subject evaluation value in order to reflect the previously authenticated subject information in the image data for moving images. As a method for calculating a subject evaluation value, first, an evaluation value calculation image is divided into a plurality of blocks. As a method of dividing into a plurality of blocks at this time, the same method as that used when calculating the luminance value described in the first embodiment is used. The CPU 212 identifies a block in the evaluation value calculation image where the previously authenticated face and person are present from the plurality of blocks. Then, the CPU 212 identifies the position of the block where the authenticated subject is present, and calculates subject position information (subject evaluation value). The calculated subject evaluation value is recorded in the memory 211.

次に、ステップS407でCPU212は、メモリ211から被写体評価値を読み出し、動画用の画像データに関連付ける。なお、被写体評価値を関連付ける動画用の画像データは、被写体評価値を算出する評価値算出画像を取得したフレームと重複する第1の行のフレームで取得されたものである。   Next, in step S407, the CPU 212 reads out the subject evaluation value from the memory 211 and associates it with the image data for the moving image. Note that the image data for a moving image that associates the subject evaluation value is acquired in a frame in the first row that overlaps the frame from which the evaluation value calculation image for calculating the subject evaluation value is acquired.

被写体評価値と動画用の画像データとの関連付けの方法としては、被写体評価値に基づいて、評価値算出画像で認証された顔や人物が存在するブロックの位置を、動画用の画像データに反映させる。   As a method of associating the subject evaluation value with the image data for moving images, the position of the block where the face or person authenticated by the evaluation value calculation image exists is reflected in the image data for moving images based on the subject evaluation value. Let

以上が、補助光を発光させる場合の被写体認証処理である。この構成によって、被写体認証を行いたい動画用の画像データとほとんど同じタイミングで取得された評価値算出画像で被写体認証を行い、被写体認証の結果を当該動画用の画像データに反映するため、時間的なズレが少ない状態で被写体の認証が可能である。   The above is the subject authentication process when the auxiliary light is emitted. With this configuration, the subject authentication is performed with the evaluation value calculation image acquired at almost the same timing as the moving image image data to be subjected to the subject authentication, and the subject authentication result is reflected in the moving image image data. It is possible to authenticate the subject with little misalignment.

図9に戻り、ステップS311でCPU212は、動画用の画像データをメモリ211から読み出し、D/A変換部210によって表示用のアナログ画像データへと変換し表示部101に表示させる。この際、CPU212は、先に算出した重み付け情報、または被写体評価値をメモリ211から読み出し、動画を表示部101に表示させる際に、当該読み出した被写体の位置情報を重畳して表示部101に表示させる。   Returning to FIG. 9, in step S <b> 311, the CPU 212 reads the moving image data from the memory 211, converts it into analog image data for display by the D / A conversion unit 210, and causes the display unit 101 to display it. At this time, the CPU 212 reads the previously calculated weighting information or the subject evaluation value from the memory 211 and displays the moving subject on the display unit 101 so that the position information of the read subject is superimposed on the display unit 101. Let

本実施形態では、上述した被写体の位置情報の表示方法として、対応する被写体(顔領域や人物領域)を囲う枠などを表示部101に表示させるが、それ以外の方法によって、認証された被写体に関する位置情報を表示させるような構成であってもよい。   In the present embodiment, as a method for displaying the position information of the subject described above, a frame surrounding the corresponding subject (face area or person area) is displayed on the display unit 101, but the subject related to the authenticated subject by other methods is displayed. The configuration may be such that position information is displayed.

また、取得した動画を再生する際には、認証された被写体に関する位置情報を表示させないような構成であってもよい。なお、認証された被写体に関する位置情報に基づいて、被写体を追尾させ、以降の処理において、追尾させた被写体に対して、優先的にフォーカス制御を行ったり、露出制御を行うような構成であってもよい。   Further, when reproducing the acquired moving image, the position information regarding the authenticated subject may not be displayed. Note that the subject is tracked based on the positional information regarding the authenticated subject, and the focus control or exposure control is preferentially performed on the tracked subject in the subsequent processing. Also good.

次に、ステップS312でCPU212は、動画の取得を続行するか否かを判定する。動画の取得を続行する場合はステップS301に戻り、動画の取得を終了する場合は動画取得処理を終了する。以上が本実施形態の動画取得処理である。   Next, in step S <b> 312, the CPU 212 determines whether or not to continue the moving image acquisition. When the acquisition of the moving image is continued, the process returns to step S301, and when the acquisition of the moving image is ended, the moving image acquisition process is ended. The above is the moving image acquisition process of the present embodiment.

以上説明したように、本実施形態のカメラ100は、動画取得中であって撮像素子205の第1の行のリセット期間において、撮像素子205の第2の行で、発光部219による補助光を発光させた状態で評価値算出画像用に被写体を撮像することができる。この構成によって、被写体が暗い状態であっても、動画のフレームレートを低下させることなく、取得した動画に発光部219を発光させることによる影響が及ぶことを抑制することができる。   As described above, the camera 100 of the present embodiment is acquiring the auxiliary light from the light emitting unit 219 in the second row of the image sensor 205 during the moving image acquisition and in the reset period of the first row of the image sensor 205. The subject can be imaged for the evaluation value calculation image in a state where the light is emitted. With this configuration, even when the subject is in a dark state, it is possible to suppress the influence of causing the light emitting unit 219 to emit light on the acquired moving image without reducing the frame rate of the moving image.

したがって、本実施形態のカメラ100は、1つの撮像素子を用いて動画を取得しながら補助光を発光する場合に、動画のフレームが低下することなく、補助光の発光が動画に影響することを抑制することができる。   Therefore, when the camera 100 according to the present embodiment emits auxiliary light while acquiring a moving image using a single image sensor, the emission of auxiliary light affects the moving image without lowering the frame of the moving image. Can be suppressed.

また、本実施形態では、1つの撮像素子205のみで動画と評価値算出画像とを独立して取得することができる。そのため、被写体が暗い場合でも、評価値算出画像の蓄積時間を自由に設定し、当該画像を取得したフレーム内で被写体評価値を算出することもできる。この被写体評価値を動画用の画像データに反映させることで、被写体が暗い場合であっても、予め登録された被写体を第1の行のフレーム毎に認証することができる。   In the present embodiment, a moving image and an evaluation value calculation image can be acquired independently with only one image sensor 205. Therefore, even when the subject is dark, the accumulation time of the evaluation value calculation image can be freely set, and the subject evaluation value can be calculated within the frame from which the image is acquired. By reflecting this subject evaluation value on the image data for moving images, it is possible to authenticate a pre-registered subject for each frame in the first row even when the subject is dark.

なお、本実施形態では、発光部219を発光させない場合における顔領域や人物領域の識別は、第1の行で取得した動画用の画像データを用いて実行するような構成であるが、これに限定されるものではない。例えば、発光部219を発光させない場合であっても、評価値算出画像を用いて顔領域や人物領域の識別を行うような構成であっても良い。この場合、発光部219を発光させる必要はないので、第1の行の露出量(蓄積時間やゲイン量)を改めて設定する必要はない。   In the present embodiment, the identification of the face area and the person area when the light emitting unit 219 is not caused to emit light is performed using the moving image data acquired in the first row. It is not limited. For example, even when the light emitting unit 219 does not emit light, the configuration may be such that the face area and the person area are identified using the evaluation value calculation image. In this case, since it is not necessary to cause the light emitting unit 219 to emit light, it is not necessary to newly set the exposure amount (accumulation time or gain amount) of the first row.

また、本実施形態では、画像データの中の顔領域や人物領域を識別するような構成であるが、これに限定されるものではない。例えば、自動車や飛行機などの動きを伴う人工物や動物など、人物以外の被写体を識別するような構成であってもよい。   In this embodiment, the face area and the person area in the image data are identified. However, the present invention is not limited to this. For example, the configuration may be such that an object other than a person, such as an artificial object or an animal accompanying movement of an automobile or an airplane, is identified.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、カメラ100は、前述した第1実施形態の構成と第2実施形態の構成とを組み合わせて実行するような構成であってもよい。すなわち、第1の行のリセット期間(第1の期間)において取得された被写体が照明された状態の評価値算出画像を用いて、動画用にフォーカス制御と被写体認証を行うような構成であってもよい。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the camera 100 may be configured to execute a combination of the configuration of the first embodiment and the configuration of the second embodiment described above. That is, the configuration is such that focus control and subject authentication are performed for a moving image using the evaluation value calculation image in a state where the subject acquired in the reset period (first period) of the first row is illuminated. Also good.

この場合、予め登録された顔や人物が動画用の画像データに存在するか否かの認証を行い、認証された被写体がある場合は、当該認証された被写体に対して、第1実施形態で説明したようなフォーカス制御を行う。この構成によって、予め認証された被写体を追尾するように、連続的にフォーカス制御を行うことができるため、ユーザが撮像したい被写体に対して高精度なピント合わせを行うことが可能となる。   In this case, authentication is performed as to whether or not a pre-registered face or person exists in the image data for moving images. If there is an authenticated subject, the first embodiment applies to the authenticated subject. Perform focus control as described. With this configuration, since focus control can be continuously performed so as to track a subject that has been authenticated in advance, it is possible to focus on the subject that the user wants to capture with high accuracy.

また、本実施形態において、評価値算出画像は、記録媒体130への記録や、表示部101への表示を行わないような構成であるが、これに限定されるものではない。記録用の画像データとして記録媒体130への記録、および、表示用のアナログ画像データとして表示部101に表示させるような構成であっても勿論よい。   In the present embodiment, the evaluation value calculation image is configured not to be recorded on the recording medium 130 or displayed on the display unit 101, but is not limited thereto. Of course, a configuration may be adopted in which recording on the recording medium 130 as image data for recording and display on the display unit 101 as analog image data for display are possible.

なお、前述した実施形態では、撮像素子205の撮像用の画素を構成する行の数は例示的に8行としたが、勿論これに限定されるものではなく、当該撮像素子205の行の数が8行ではないような構成であっても良い。   In the above-described embodiment, the number of rows constituting the imaging pixels of the image sensor 205 is illustratively eight. However, the number of rows of the image sensor 205 is not limited to this, of course. However, the configuration may not be 8 lines.

また、前述した実施形態では、撮像素子205の第1の行と第2の行のフレームレート(読み出し周期)を独立して制御することが出来るため、それぞれ異なるタイミングで第1の行と第2の行の読み出しを行ってもよい。例えば、第1の行で1度の読み出しをする間に、第2の行で2度の読み出しをするような構成であってもよいし、第1の行で2度の読み出しをする間に、第2の行で1度の読み出しをするような構成であってもよい。すなわち、第1の行と第2の行の読み出しタイミングを自由に設定するような構成であってもよい。   In the above-described embodiment, since the frame rate (reading cycle) of the first row and the second row of the image sensor 205 can be controlled independently, the first row and the second row at different timings. The rows may be read out. For example, it may be configured to read twice in the second row while reading once in the first row, or between two times reading in the first row. The configuration may be such that reading is performed once in the second row. That is, a configuration in which the read timing of the first row and the second row is freely set may be employed.

なお、この場合も、第1の行のリセット期間(第1の期間)において、発光部219を発光させた状態で第2の行での蓄積を開始するように、発光部219の発光タイミングと、撮像素子205の蓄積時間を設定する。本実施形態では、このような構成によって、第2の行によって取得する評価値算出画像の蓄積時間を自由に設定することができる。   In this case as well, in the reset period (first period) of the first row, the light emission timing of the light emitting unit 219 is set so as to start accumulation in the second row with the light emitting unit 219 emitting light. The accumulation time of the image sensor 205 is set. In the present embodiment, with such a configuration, the accumulation time of the evaluation value calculation image acquired by the second row can be freely set.

また、前述した実施形態では、予め第1の行での蓄積時間を設定してから、当該第1の行の蓄積時間に合わせて発光部219の発光量(に応じた発光時間)を設定するような構成であるが、これに限定されるものではない。   In the above-described embodiment, the accumulation time in the first row is set in advance, and then the light emission amount of the light emitting unit 219 (according to the light emission time) is set in accordance with the accumulation time in the first row. Although it is such a structure, it is not limited to this.

例えば、発光部219の発光量を先に設定し、当該発光量に応じて変化する発光部219の発光時間に合わせて、第1の行の蓄積時間を設定するような構成であってもよい。なお、第1の行の蓄積時間を改めて設定することで変化した分の露出量は、前述した(1)式および(2)式を用いて、第1の行で取得される画像データのゲイン量を再設定することで対応する。したがって、発光部219を発光させることによる影響が及ばない程度であれば、評価値算出画像にフレームごとに、第1の行の蓄積時間とリセット期間を自由に設定することも可能である。   For example, the configuration may be such that the light emission amount of the light emitting unit 219 is set first, and the accumulation time of the first row is set in accordance with the light emission time of the light emitting unit 219 that changes according to the light emission amount. . Note that the exposure amount corresponding to the change by setting the accumulation time of the first row anew is obtained by using the above-described equations (1) and (2) to obtain the gain of the image data acquired in the first row. Respond by resetting the amount. Therefore, the accumulation time and the reset period of the first row can be freely set for each frame in the evaluation value calculation image as long as the light emission unit 219 does not affect the light emission.

さらに、本発明においてカメラ100内の各部の駆動は、画像処理部208、メモリ制御部209、CPU212とCPU212を構成する各部、電源制御部217、タイミング制御回路314などによって制御されるがこれに限定されるものではない。例えば、前述した図5、図8、図9、図11のフローに従ったプログラムを不揮発性メモリ213に記憶させておき、CPU212が該プログラムを実行することでカメラ100内の各部の駆動を制御するような構成であってもよい。この際、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。また、プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記録媒体でもあってもよい。   Further, in the present invention, driving of each unit in the camera 100 is controlled by the image processing unit 208, the memory control unit 209, each unit constituting the CPU 212 and the CPU 212, the power source control unit 217, the timing control circuit 314, and the like. Is not to be done. For example, the program according to the flow of FIGS. 5, 8, 9, and 11 described above is stored in the nonvolatile memory 213, and the CPU 212 executes the program to control driving of each unit in the camera 100. Such a configuration may be adopted. At this time, as long as it has a function of the program, the form of the program is not limited, such as an object code, a program executed by an interpreter, and script data supplied to the OS. The recording medium for supplying the program may be, for example, a magnetic recording medium such as a hard disk or a magnetic tape, or an optical / magneto-optical recording medium.

なお、前述した実施形態では、デジタルカメラ100を、本発明を実施する撮像装置の一例として説明したが、これに限定されるものではない。例えば、デジタルビデオカメラやスマートフォンなどの可搬型デバイスなど、本発明は、その要旨の範囲内で種々の撮像装置に適用することが可能である。   In the above-described embodiment, the digital camera 100 has been described as an example of an imaging apparatus that implements the present invention. However, the present invention is not limited to this. For example, the present invention, such as a portable device such as a digital video camera or a smartphone, can be applied to various imaging devices within the scope of the gist thereof.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワークまたは各種記録媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

204 撮像部
205 撮像素子
207 評価部
212 システム制御部(CPU)
221 AF制御部(フォーカス制御手段)
222 露出制御部(第2の制御手段)
223 発光制御部(第1の制御手段)
204 Imaging Unit 205 Imaging Device 207 Evaluation Unit 212 System Control Unit (CPU)
221 AF control unit (focus control means)
222 Exposure control unit (second control means)
223 Light emission control unit (first control means)

Claims (14)

行方向と列方向に並べられた複数の画素を有し、第1の行と前記第1の行とは異なる第2の行とでそれぞれ独立して読み出し周期の制御が可能な電荷蓄積型の撮像素子と、
被写体を照明する発光手段の発光を制御する第1の制御手段と、
前記撮像素子の前記第1の行と前記第2の行の蓄積時間を制御する第2の制御手段とを有し、前記第2の行によって取得する評価値算出用の画像に基づいて、前記第1の行によって被写体を撮像する際の撮影条件を設定する撮像装置であって、
前記第1の制御手段は、前記発光手段を発光させて前記第2の行で評価値算出用に被写体を撮像する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段を発光させ、
前記第2の制御手段は、前記発光手段を発光させる期間と少なくとも一部が重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行わせることを特徴とする撮像装置。
A charge storage type having a plurality of pixels arranged in a row direction and a column direction and capable of independently controlling a read cycle in a first row and a second row different from the first row An image sensor;
First control means for controlling light emission of the light emitting means for illuminating the subject;
A second control unit configured to control an accumulation time of the first row and the second row of the image sensor, and based on an evaluation value calculation image acquired by the second row, An imaging apparatus for setting shooting conditions when shooting a subject by a first row,
When the first control unit causes the light emitting unit to emit light and captures an image of an object for evaluation value calculation in the second row, the first control unit performs the next operation after the accumulation of the moving image in the first row ends. The light emitting means is caused to emit light in a period until accumulation of moving images starts,
The second control unit causes accumulation for the image for evaluation value calculation in the second row in a period at least partially overlapping with a period during which the light emitting unit emits light. Imaging device.
前記第2の制御手段は、前記発光手段を発光させて前記第2の行で評価値算出用の画像を取得する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段の発光の開始から終了までが収まるように、前記第1の行の蓄積時間を設定することを特徴とする請求項1に記載の撮像装置。   When the second control means causes the light emitting means to emit light and obtains an image for calculating an evaluation value in the second row, the second control means performs the next operation after the accumulation of moving images is completed in the first row. 2. The imaging according to claim 1, wherein the accumulation time of the first row is set so that the period from the start to the end of the light emission of the light emitting unit falls within a period until the accumulation for moving images is started. apparatus. 前記第2の制御手段は、前記発光手段を発光させて前記第2の行で評価値算出用の画像用に被写体を撮像する場合に、前記第1の行での動画用の蓄積を行う期間と重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行うことを特徴とする請求項1又は2に記載の撮像装置。   The second control means performs a storage period for the moving image in the first row when the subject is imaged for the evaluation value calculation image in the second row by causing the light emitting means to emit light. 3. The imaging apparatus according to claim 1, wherein accumulation is performed for the image for evaluation value calculation in the second row in a period overlapping with the second row. 前記評価値算出用の画像は、被写体の光学像を前記撮像素子へと導く撮影レンズの位置を設定するための焦点評価値を取得するための画像であって、前記評価値算出用の画像に基づいて前記第1の行によって被写体を撮像する際の前記撮影レンズの位置を設定するフォーカス制御手段を有することを特徴とする請求項1乃至3の何れか一項に記載の撮像装置。   The evaluation value calculation image is an image for obtaining a focus evaluation value for setting a position of a photographing lens that guides an optical image of a subject to the image sensor, and the evaluation value calculation image is included in the evaluation value calculation image. 4. The imaging apparatus according to claim 1, further comprising a focus control unit that sets a position of the photographing lens when the subject is imaged by the first row. 5. 前記フォーカス制御手段は、前記第2の行の、前記評価値算出用の画像を蓄積するフレームで取得した前記焦点評価値を前記第1の行によって被写体を撮像する際の前記撮影レンズの位置の設定に用いることを特徴とする請求項4に記載の撮像装置。   The focus control unit is configured to determine the position of the photographic lens when the subject is imaged by the first row using the focus evaluation value acquired in the frame in which the evaluation value calculation image of the second row is accumulated. The imaging apparatus according to claim 4, wherein the imaging apparatus is used for setting. 前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間に、前記第2の行での蓄積を開始した前記評価値算出用の画像に基づいて取得した前記焦点評価値は、当該焦点評価値を取得した後の前記第1の行のフレームで、前記第1の行によって被写体を撮像する際に用いられることを特徴とする請求項4又は5に記載の撮像装置。   Based on the evaluation value calculation image that has been accumulated in the second row during the period from the end of accumulation of the moving image in the first row to the start of accumulation of the next moving image. 5. The focus evaluation value acquired in the above step is used when the subject is imaged by the first row in the frame of the first row after the focus evaluation value is acquired. 5. The imaging device according to 5. 行方向と列方向に並べられた複数の画素を有し、第1の行と前記第1の行とは異なる第2の行とでそれぞれ独立して読み出し周期の制御が可能な電荷蓄積型の撮像素子と、
被写体を照明する発光手段の発光を制御する第1の制御手段と、
前記撮像素子の前記第1の行と前記第2の行の蓄積時間を制御する第2の制御手段とを有し、前記第2の行によって取得された評価値算出用の画像に基づいて取得した被写体の情報を前記第1の行によって取得した画像に関連付けることが可能な撮像装置であって、
前記第1の制御手段は、前記発光手段を発光させて前記第2の行で評価値算出用に被写体を撮像する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段を発光させ、
前記第2の制御手段は、前記発光手段を発光させる期間と少なくとも一部が重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行わせることを特徴とする撮像装置。
A charge storage type having a plurality of pixels arranged in a row direction and a column direction and capable of independently controlling a read cycle in a first row and a second row different from the first row An image sensor;
First control means for controlling light emission of the light emitting means for illuminating the subject;
Obtained on the basis of an evaluation value calculation image obtained by the second row, comprising second control means for controlling an accumulation time of the first row and the second row of the image sensor. An imaging device capable of associating information on the subject obtained with the image acquired by the first row,
When the first control unit causes the light emitting unit to emit light and captures an image of an object for evaluation value calculation in the second row, the first control unit performs the next operation after the accumulation of the moving image in the first row ends. The light emitting means is caused to emit light in a period until accumulation of moving images starts,
The second control unit causes accumulation for the image for evaluation value calculation in the second row in a period at least partially overlapping with a period during which the light emitting unit emits light. Imaging device.
被写体の情報を予め記録することが可能な記録手段と、
前記評価値算出用の画像の被写体を識別するための識別手段と、
前記識別手段によって識別された被写体が前記記録手段に登録されている被写体であるか否かを認証する認証手段と、を有し、前記認証手段によって認証された被写体の情報を、前記第1の行によって取得した動画用の画像に関連付けることを特徴とする請求項7に記載の撮像装置。
Recording means capable of pre-recording subject information;
Identification means for identifying the subject of the image for evaluation value calculation;
Authentication means for authenticating whether or not the subject identified by the identification means is a subject registered in the recording means, and information on the subject authenticated by the authentication means The image pickup apparatus according to claim 7, wherein the image pickup apparatus is associated with a moving image acquired by a row.
前記評価値算出用の画像が取得される前記第2の行のフレームと少なくとも一部が重複する前記第1の行のフレームで取得された動画用の画像に、前記認証手段によって認証された被写体の情報を関連付けることを特徴とする請求項8に記載の撮像装置。   The subject authenticated by the authentication means to the moving image image acquired in the first row frame at least partially overlapping the second row frame from which the evaluation value calculation image is acquired The imaging apparatus according to claim 8, wherein the information is associated with each other. 表示用の画像を表示する表示手段を有し、
前記表示手段は、前記第1の行によって取得した動画を前記表示部に表示する際に、前記認証手段によって認証された被写体の情報を前記表示手段に重畳して表示することを特徴とする請求項8又は9に記載の撮像装置。
Having display means for displaying an image for display;
The display means superimposes and displays the information of the subject authenticated by the authentication means on the display means when displaying the moving image acquired by the first row on the display unit. Item 10. The imaging device according to Item 8 or 9.
前記第2の制御手段によって設定された前記第1の行の蓄積時間に応じて、当該第1の行によって取得する画像のゲイン量を設定する第3の制御手段を有することを特徴とする請求項1乃至10の何れか一項に記載の撮像装置。   3. The apparatus according to claim 1, further comprising a third control unit that sets a gain amount of an image acquired by the first row in accordance with the accumulation time of the first row set by the second control unit. Item 11. The imaging device according to any one of Items 1 to 10. 行方向と列方向に並べられた複数の画素を有し、第1の行と前記第1の行とは異なる第2の行とでそれぞれ独立して読み出し周期の制御が可能な電荷蓄積型の撮像素子を備えた撮像装置の制御方法であって、
被写体を照明する発光手段の発光を制御する第1の制御工程と、
前記撮像素子の前記第1の行と前記第2の行の蓄積時間を制御する第2の制御工程とを有し、
前記第1の制御工程は、前記発光手段を発光させて前記第2の行で評価値算出用に被写体を撮像する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段を発光させ、
前記第2の制御工程は、前記発光手段を発光させる期間と少なくとも一部が重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行わせ、前記第2の行によって取得した評価値算出用の画像に基づいて、前記第1の行によって被写体を撮像する際の撮影条件を設定することを特徴とする撮像装置の制御方法。
A charge storage type having a plurality of pixels arranged in a row direction and a column direction and capable of independently controlling a read cycle in a first row and a second row different from the first row A method for controlling an imaging apparatus including an imaging element,
A first control step for controlling the light emission of the light emitting means for illuminating the subject;
A second control step for controlling an accumulation time of the first row and the second row of the image sensor;
In the first control step, when the subject is imaged for evaluation value calculation in the second row by causing the light emitting means to emit light, after the accumulation of the moving image in the first row is finished, The light emitting means is caused to emit light in a period until accumulation of moving images starts,
In the second control step, accumulation is performed for the image for evaluation value calculation in the second row in a period at least partially overlapping with a period during which the light emitting unit emits light, and the second control step A method for controlling an imaging apparatus, comprising: setting an imaging condition for capturing an image of a subject by the first row based on an evaluation value calculation image acquired by the row.
行方向と列方向に並べられた複数の画素を有し、第1の行と前記第1の行とは異なる第2の行とでそれぞれ独立して読み出し周期の制御が可能な電荷蓄積型の撮像素子を備えた撮像装置の制御方法であって、
被写体を照明する発光手段の発光を制御する第1の制御工程と、
前記撮像素子の前記第1の行と前記第2の行の蓄積時間を制御する第2の制御工程とを有し、
前記第1の制御工程は、前記発光手段を発光させて前記第2の行で評価値算出用に被写体を撮像する場合に、前記第1の行で動画用の蓄積が終了してから次の動画用の蓄積が開始されるまでの期間で前記発光手段を発光させ、
前記第2の制御工程は、前記発光手段を発光させる期間と少なくとも一部が重複する期間で、前記第2の行での前記評価値算出用の画像用に蓄積を行わせ、前記第2の行によって取得された評価値算出用の画像に基づいて取得した被写体の情報を前記第1の行によって取得した画像に関連付けることを特徴とする撮像装置の制御方法。
A charge storage type having a plurality of pixels arranged in a row direction and a column direction and capable of independently controlling a read cycle in a first row and a second row different from the first row A method for controlling an imaging apparatus including an imaging element,
A first control step for controlling the light emission of the light emitting means for illuminating the subject;
A second control step for controlling an accumulation time of the first row and the second row of the image sensor;
In the first control step, when the subject is imaged for evaluation value calculation in the second row by causing the light emitting means to emit light, after the accumulation of the moving image in the first row is finished, The light emitting means is caused to emit light in a period until accumulation of moving images starts,
In the second control step, accumulation is performed for the image for evaluation value calculation in the second row in a period at least partially overlapping with a period during which the light emitting unit emits light, and the second control step A method for controlling an imaging apparatus, comprising: associating information on a subject acquired based on an evaluation value calculation image acquired by a row with an image acquired by the first row.
請求項12又は13に記載の撮像装置の制御方法をコンピュータに実行させるためのコンピュータで読み取り可能なプログラム。   A computer-readable program for causing a computer to execute the control method of the imaging apparatus according to claim 12 or 13.
JP2013269682A 2013-12-26 2013-12-26 Image pickup device, and control method and program of the same Pending JP2015126387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269682A JP2015126387A (en) 2013-12-26 2013-12-26 Image pickup device, and control method and program of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269682A JP2015126387A (en) 2013-12-26 2013-12-26 Image pickup device, and control method and program of the same

Publications (1)

Publication Number Publication Date
JP2015126387A true JP2015126387A (en) 2015-07-06

Family

ID=53536805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269682A Pending JP2015126387A (en) 2013-12-26 2013-12-26 Image pickup device, and control method and program of the same

Country Status (1)

Country Link
JP (1) JP2015126387A (en)

Similar Documents

Publication Publication Date Title
JP5954336B2 (en) Image processing apparatus, image processing method, and recording medium
JP6247527B2 (en) Imaging apparatus, control method, program, and storage medium
US8670658B2 (en) Image capture apparatus and method of controlling the same
US20140071318A1 (en) Imaging apparatus
US9277111B2 (en) Image capture apparatus and control method therefor
JP6124700B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
TW201301866A (en) Image processing device capable of generating wide-range image, image processing method, and recording medium
JP5855454B2 (en) Imaging device
US7911527B2 (en) Focusing apparatus and focusing method
JP2016072695A (en) Imaging apparatus, control method thereof, program, and storage medium
US8860876B2 (en) Image display using flash reach information
US9924094B2 (en) Image pickup apparatus capable of changing drive mode and image signal control method
JP2008109485A (en) Imaging apparatus and imaging control method
US20190139239A1 (en) Imaging processing apparatus, image pickup apparatus, control method for image processing apparatus, and storage medium
JP6296767B2 (en) Imaging apparatus and image signal processing method
JP6758950B2 (en) Imaging device, its control method and program
US7656450B2 (en) Image capture apparatus which sets a substrate bias voltage of an image sensor
JP7422911B2 (en) Image processing device, imaging device, image processing method, image processing program, and recording medium
JP6998454B2 (en) Imaging equipment, imaging methods, programs and recording media
US9113098B2 (en) Image pickup apparatus and control method thereof, image pickup system, and non-transitory computer-readable storage medium
JP2018107741A (en) Image processing system, image processing method, and program
JP7086774B2 (en) Imaging equipment, imaging methods and programs
JP2015126387A (en) Image pickup device, and control method and program of the same
US10462360B2 (en) Image capturing apparatus and control method utilizing an image sensor with two-dimensional pixels and pixel signal storing unit
JP5448391B2 (en) Imaging apparatus and red-eye correction method