JP5870533B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5870533B2
JP5870533B2 JP2011174393A JP2011174393A JP5870533B2 JP 5870533 B2 JP5870533 B2 JP 5870533B2 JP 2011174393 A JP2011174393 A JP 2011174393A JP 2011174393 A JP2011174393 A JP 2011174393A JP 5870533 B2 JP5870533 B2 JP 5870533B2
Authority
JP
Japan
Prior art keywords
area
distance
image
imaging
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011174393A
Other languages
Japanese (ja)
Other versions
JP2013037246A (en
Inventor
圭 伊藤
圭 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011174393A priority Critical patent/JP5870533B2/en
Publication of JP2013037246A publication Critical patent/JP2013037246A/en
Application granted granted Critical
Publication of JP5870533B2 publication Critical patent/JP5870533B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

従来よりデジタルスチルカメラ等の電子撮像装置は、被写体に対して自動的に焦点を合わせるオートフォーカス(以下「AF」という)装置を搭載しているのが一般的である。AF装置におけるAF制御方法として、山登りAF制御が広く用いられている(例えば、特許文献1参照)。この山登りAF制御は、撮像素子が出力する映像信号から近接画素の輝度差の積分値を求め、この輝度差の積分値を、合焦度合いを示すAF評価値とする。合焦状態にあるときは被写体の輪郭部分がはっきりしており、近接画素間の輝度差が大きくなるのでAF評価値が大きくなる。非合焦状態のときは、被写体の輪郭部分がぼやけるため、画素間の輝度差は小さくなるので、AF評価値が小さくなる。AF動作実行時は、レンズを移動させながらこのAF評価値を順次取得していき、AF評価値が最も大きくなったところ、すなわちピーク位置を合焦点として、レンズを停止させる。   Conventionally, an electronic imaging device such as a digital still camera is generally equipped with an autofocus (hereinafter referred to as “AF”) device that automatically focuses on a subject. As an AF control method in the AF apparatus, hill-climbing AF control is widely used (for example, see Patent Document 1). In this hill-climbing AF control, an integrated value of the luminance difference between adjacent pixels is obtained from the video signal output from the image sensor, and this integrated value of the luminance difference is used as an AF evaluation value indicating the degree of focus. When the subject is in focus, the outline of the subject is clear and the brightness difference between adjacent pixels increases, so the AF evaluation value increases. In the out-of-focus state, the contour portion of the subject is blurred, and the luminance difference between pixels is small, so the AF evaluation value is small. When the AF operation is executed, the AF evaluation values are sequentially acquired while moving the lens, and the lens is stopped at the point where the AF evaluation value becomes the maximum, that is, the peak position as a focal point.

近年では、花の接写など合焦距離が画面内に多数あるシーンで有効な機能として、被写体情報から、カメラが自動的に複数点の合焦距離を決定し、それぞれの距離にピントを移動しながら、高速連続撮影を行い、その結果をマルチピクチャフォーマットのファイルとして保存することで、ユーザが撮影後に、好みの領域に合焦した画像を選択することを可能とした技術がある。   In recent years, as a function that is effective in scenes with many in-focus distances such as close-ups of flowers, the camera automatically determines the in-focus distance from multiple points based on subject information and moves the focus to each distance. However, there is a technique that allows a user to select an image focused on a desired region after shooting by performing high-speed continuous shooting and saving the result as a multi-picture format file.

また、特許文献2では、フォーカスエリア内の輝度の分布の平均値(重心)を求め、フレーム間におけるその平均値を比較して被写体の移動を検出し、この移動に追従してフォーカスエリアを移動させ、新たなフォーカスエリア内で合焦位置を検出する技術(自動追尾機能)が提案されている。   In Patent Document 2, the average value (center of gravity) of the luminance distribution in the focus area is obtained, and the movement of the subject is detected by comparing the average value between frames, and the focus area is moved following this movement. Thus, a technique (automatic tracking function) for detecting a focus position in a new focus area has been proposed.

しかしながら、従来のAF技術では、高速連続撮影の前にAF測距スキャン動作を行っており、このAF測距スキャン動作はフォーカスレンズが移動可能な範囲全てにフォーカスレンズを移動しながらAF評価値を取得しピーク位置を順次選択するために、処理時間がかかるという問題が既に知られている。   However, with the conventional AF technology, an AF distance scan operation is performed before high-speed continuous shooting, and this AF distance scan operation moves the focus lens to the entire range in which the focus lens can move, and the AF evaluation value is obtained. The problem that processing time is required to acquire and sequentially select peak positions is already known.

また、焦点を合わせたい被写体を特定することができる特許文献2等に開示の技術でも、オートフォーカス時の処理時間が問題となり、シャッターチャンスを逃してしまうという問題が残る。   Further, even with the technique disclosed in Patent Document 2 and the like that can identify a subject to be focused on, the processing time at the time of autofocus becomes a problem, and there remains a problem that a photo opportunity is missed.

本発明は、上記に鑑みてなされたものであって、測距を高速化でき、また、ユーザが撮影したい瞬間に連続的に所望の画像を撮影することが可能な撮像装置および撮像方法を提供する。   The present invention has been made in view of the above, and provides an imaging apparatus and an imaging method capable of speeding up distance measurement and capable of continuously capturing a desired image at the moment when a user wants to capture an image. To do.

上述した課題を解決し、目的を達成するために、本発明の撮像装置は、レンズを介して被写体像を電気信号に変換する撮像手段と、前記撮像手段により撮像した画像を表示する画像表示手段と、被写体までの距離を測距する測距手段と、前記測距手段から出力される測距結果から算出される複数の測距エリアを設定する測距エリア設定手段と、前記測距エリア設定手段により設定された前記複数の測距エリアのうち互いに前記距離が近い隣接する測距エリアを合成し、合成したエリアと該エリアに係る距離情報とを、前記画像表示手段により表示される画像上に表示するエリア表示手段と、前記合成したエリアのうち前記画像表示手段に表示する合成エリアを所定の条件に従って削除するとともに前記距離情報を削除後の合成エリアに係る距離情報変更するエリア表示変更手段と、前記エリア表示変更手段により設定された複数の前記合成エリアに基づき合焦位置を選択する合焦位置決定手段と、前記合焦位置決定手段により選択された各合焦位置における撮影を行う連続撮影制御手段と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that converts a subject image into an electrical signal via a lens, and an image display unit that displays an image captured by the imaging unit. When, a distance measuring means for ranging the distance to the Utsushitai, the ranging area setting means for setting a plurality of distance measurement areas calculated from the measurement result output from the distance measuring means, distance measuring Among the plurality of distance measurement areas set by the area setting means, adjacent distance measurement areas that are close to each other are combined, and the combined area and distance information related to the areas are displayed by the image display means. an area displaying means for displaying on the image, according to the distance information is deleted in accordance with the synthesized predetermined condition synthesis area to be displayed on the image display unit of area synthesis area after the deletion And area display changing means for changing the release information, and focus position determining means for selecting a focus position based on a plurality of the synthesis area set by the area display change unit, selected by the focus position determination unit And continuous shooting control means for shooting at each in-focus position.

また、本発明の撮像方法は、レンズを介して被写体像を電気信号に変換する撮像手段と、前記撮像手段により撮像した画像を表示する画像表示手段と、被写体までの距離を測距する測距手段と、を備える撮像装置に対し、該撮像装置を制御する制御手段が、測距エリア設定手段として、前記測距手段から出力される測距結果から算出される複数の測距エリアを設定し、エリア表示手段として、前記測距エリア設定手段により設定された前記複数の測距エリアのうち互いに前記距離が近い隣接する測距エリアを合成し、合成したエリアと該エリアに係る距離情報とを、前記画像表示手段により表示される画像上に表示し、エリア表示変更手段として、前記合成したエリアのうち前記画像表示手段に表示する合成エリアを所定の条件に従って削除するとともに前記距離情報を削除後の合成エリアに係る距離情報変更し、合焦位置決定手段として、前記エリア表示変更手段により設定された複数の前記合成エリアに基づき合焦位置を選択し、連続撮影制御手段として、前記合焦位置決定手段により選択された各合焦位置における撮影を行うことを特徴とする。 The imaging method of the present invention ranging imaging means for converting an object image into an electrical signal through the lens, and image display means for displaying the image captured by the imaging means, a distance to the Utsushitai A plurality of distance measurement areas calculated from the distance measurement results output from the distance measurement means as distance measurement area setting means for the image pickup apparatus including the distance measurement means; Set, as an area display means, combine adjacent distance measuring areas that are close to each other among the plurality of distance measuring areas set by the distance measuring area setting means, and combine the combined area and distance information related to the area remove preparative, displayed on the image displayed by said image display means, as the area display changing means, according to a predetermined condition synthesis area to be displayed on the image display means among the synthesized area The Rutotomoni the distance information and change the distance information relating to the synthesis area after the deletion, as an in-focus position determining means, to select the focus position based on a plurality of the synthesis area set by the area display changing means, The continuous photographing control means performs photographing at each in-focus position selected by the in-focus position determining means.

本発明によれば、測距を高速化でき、また、ユーザが撮影したい瞬間に連続的に所望の画像を撮影することができるようになるという効果を奏する。   According to the present invention, it is possible to speed up the distance measurement, and it is possible to continuously capture a desired image at the moment when the user wants to photograph.

図1は、本発明に係る一実施形態のデジタルスチルカメラの外観の一例を示す上面図である。FIG. 1 is a top view showing an example of the appearance of a digital still camera according to an embodiment of the present invention. 図2は、同デジタルスチルカメラの外観の一例を示す正面図である。FIG. 2 is a front view showing an example of the appearance of the digital still camera. 図3は、同デジタルスチルカメラの外観の一例を示す背面図である。FIG. 3 is a rear view showing an example of the appearance of the digital still camera. 図4は、同デジタルスチルカメラ内部のシステム構成例を示すブロック図である。FIG. 4 is a block diagram showing an example of the system configuration inside the digital still camera. 図5は、同デジタルスチルカメラに備わる測距ユニット内の構成図である。FIG. 5 is a configuration diagram of the distance measuring unit provided in the digital still camera. 図6は、撮像素子の基板の内部ブロック図である。FIG. 6 is an internal block diagram of the substrate of the image sensor. 図7は、撮像素子の画像信号の取り込みタイミングを示すタイミングチャートである。FIG. 7 is a timing chart showing image signal capture timing of the image sensor. 図8は、測距および測光の基本原理(ラインセンサでの測距方法)に関して説明するための図である。FIG. 8 is a diagram for explaining the basic principle of distance measurement and photometry (a distance measurement method using a line sensor). 図9は、撮像素子上に配置された2次元のエリア構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of a two-dimensional area configuration arranged on the image sensor. 図10は、同デジタルスチルカメラの測距ユニットにおける測距処理を説明する図である。FIG. 10 is a diagram for explaining the distance measuring process in the distance measuring unit of the digital still camera. 図11は、測距ユニットの撮像素子であるCCD内で分割されたエリアの一例を示す図である。FIG. 11 is a diagram illustrating an example of areas divided in a CCD which is an image sensor of the distance measuring unit. 図12は、第1の実施例におけるファインダモードから高速連続撮影までの処理フローを示すフローチャートである。FIG. 12 is a flowchart showing a processing flow from the viewfinder mode to the high-speed continuous shooting in the first embodiment. 図13は、第1の実施例におけるエリア選択処理を説明するためのフローチャートである。FIG. 13 is a flowchart for explaining the area selection processing in the first embodiment. 図14は、第2の実施例におけるファインダモードから高速連続撮影までの処理フローを示すフローチャートである。FIG. 14 is a flowchart showing a processing flow from the finder mode to high-speed continuous shooting in the second embodiment. 図15は、測距処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining the distance measurement processing. 図16は、図15の測距処理における測光処理を説明するためのフローチャートである。FIG. 16 is a flowchart for explaining the photometry process in the distance measurement process of FIG. 図17は、図15の測距処理における測距処理を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining the ranging process in the ranging process of FIG. 図18Aは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18A is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図18Bは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18B is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図18Cは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18C is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図18Dは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18D is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図18Eは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18E is a diagram for explaining from the ranging process to the area setting process in the first embodiment. 図18Fは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18F is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図18Gは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18G is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図18Hは、第1の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 18H is a diagram for explaining the ranging process to the area setting process in the first embodiment. 図19Aは、第2の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 19A is a diagram for explaining the ranging process to the area setting process in the second embodiment. 図19Bは、第2の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 19B is a diagram for explaining the ranging process to the area setting process in the second embodiment. 図19Cは、第2の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 19C is a diagram for explaining the ranging process to the area setting process in the second embodiment. 図19Dは、第2の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 19D is a diagram for explaining from the ranging process to the area setting process in the second embodiment. 図19Eは、第2の実施例における測距処理からエリア設定処理までを説明するための図である。FIG. 19E is a diagram for explaining the ranging process to the area setting process in the second embodiment.

以下に添付図面を参照して、この発明にかかる撮像装置および撮像方法の実施の形態を詳細に説明する。   Exemplary embodiments of an imaging apparatus and an imaging method according to the present invention will be described below in detail with reference to the accompanying drawings.

[実施形態の概要]
本実施形態の撮像装置および撮像方法は、デジタルスチルカメラ等の撮像装置におけるマルチターゲットAF(本明細書では、オートフォーカスを「AF」と記す)において、測距手段として2次元撮像素子を利用する点、および、合焦させる被写体の候補を含むエリアを自動で決定しそのエリアと被写体までの距離に係る情報(距離分布)を表示する点、その後、その表示を元にユーザ操作により削除するエリアを選択できるようにした点、および、その選択の際、削除対象のエリアと削除非対象のエリアとで、そのエリアと距離の表示態様を異なるようにした点等が特徴になっている。なお、本明細書においてエリアの「距離」とは、測距結果に基づくデジタルスチルカメラから被写体までの距離またはこの距離に相当するもの(距離の平均値等)を意味するものであって、エリア間(被写体間)の距離を意味するものではない。
[Outline of Embodiment]
The imaging apparatus and imaging method of the present embodiment use a two-dimensional imaging element as a distance measuring means in multi-target AF (in this specification, autofocus is described as “AF”) in an imaging apparatus such as a digital still camera. An area that automatically determines an area including a point and a subject candidate to be focused and displays information (distance distribution) on the distance between the area and the object, and then an area that is deleted by a user operation based on the display The feature is that the display mode of the area and the distance are different between the area to be deleted and the area not to be deleted. In this specification, the “distance” of an area means a distance from a digital still camera to a subject based on a distance measurement result or an equivalent to this distance (such as an average value of the distance). It does not mean the distance between subjects (between subjects).

[デジタルスチルカメラの構成]
まず、この発明にかかる撮像装置の一実施形態であるデジタルスチルカメラの構成を、図1から図5に基づいて説明する。なお、ここではデジタルスチルカメラを例に説明するが、このデジタルスチルカメラに限らず、カメラ付き携帯電話、PDA等の携帯機器にも本発明を適用することができる。
[Configuration of digital still camera]
First, the configuration of a digital still camera which is an embodiment of an imaging apparatus according to the present invention will be described with reference to FIGS. Here, a digital still camera will be described as an example. However, the present invention is not limited to this digital still camera, and the present invention can be applied to portable devices such as a camera-equipped mobile phone and a PDA.

(デジタルスチルカメラの外観)
図1から図3はそれぞれ、本実施形態のデジタルスチルカメラの外観の一例を示す上面図、正面図および背面図である。図1に示すように、デジタルスチルカメラの上面には、レリーズスイッチSW1、モードダイアルSW2、タッチパネル式サブ液晶ディスプレイ(以下、液晶ディスプレイを「LCD」という)1が配置されている。また、図2に示すように、デジタルスチルカメラの正面には、撮影レンズを含む鏡胴ユニット7、光学ファインダ4、ストロボ発光部3、測距ユニット5、リモコン受光部6、メモリカード装填室および電池装填室の蓋2が配置されている。また、デジタルスチルカメラの背面には、図3に示すように、電源スイッチ13、タッチパネルを備えるLCDモニタ10、AF用LED8、ストロボLED9、光学ファインダ4、広角方向ズームスイッチSW3、望遠方向ズームスイッチSW4、セルフタイマの設定および解除スイッチSW5、メニュースイッチSW6、上移動およびストロボセットスイッチSW7、右移動スイッチSW8、ディスプレイスイッチSW9、下移動およびマクロスイッチSW10、左移動および画像確認スイッチSW11、OKスイッチSW12、撮影設定へのクイックアクセススイッチSW13が配置されている。なお、上記において各部位の機能は、公知のデジタルスチルカメラのものと同様である。
(Appearance of digital still camera)
FIGS. 1 to 3 are a top view, a front view, and a rear view, respectively, showing an example of the appearance of the digital still camera of the present embodiment. As shown in FIG. 1, a release switch SW1, a mode dial SW2, and a touch panel sub liquid crystal display (hereinafter referred to as “LCD”) 1 are disposed on the top surface of the digital still camera. As shown in FIG. 2, on the front side of the digital still camera, a lens barrel unit 7 including a photographing lens, an optical finder 4, a strobe light emitting unit 3, a distance measuring unit 5, a remote control light receiving unit 6, a memory card loading chamber, A battery loading chamber lid 2 is disposed. On the back of the digital still camera, as shown in FIG. 3, a power switch 13, an LCD monitor 10 having a touch panel, an AF LED 8, a strobe LED 9, an optical viewfinder 4, a wide-angle zoom switch SW3, a telephoto zoom switch SW4. , Self-timer setting and release switch SW5, menu switch SW6, upward movement and strobe set switch SW7, right movement switch SW8, display switch SW9, downward movement and macro switch SW10, left movement and image confirmation switch SW11, OK switch SW12, A quick access switch SW13 for shooting setting is arranged. In the above description, the function of each part is the same as that of a known digital still camera.

(デジタルスチルカメラのシステム構成例)
図4は、このデジタルスチルカメラ内部のシステム構成例を示すブロック図である。図4に示すように、デジタルスチルカメラの各部はデジタルスチルカメラプロセッサ104(以下、単に「プロセッサ104」という)によって制御されるように構成されている。プロセッサ104は、CCD1信号処理ブロック104−1、CCD2信号処理ブロック104−2、CPUブロック104−3、ローカルSRAM(Local SRAM)104−4、USBブロック104−5、シリアルブロック104−6、JPEG・CODECブロック104−7、RESIZEブロック104−8、TV信号表示ブロック104−9、メモリカードコントローラブロック104−10を備え、これらは相互にバスラインで接続されている。
(System configuration example of a digital still camera)
FIG. 4 is a block diagram showing an example of the system configuration inside the digital still camera. As shown in FIG. 4, each part of the digital still camera is configured to be controlled by a digital still camera processor 104 (hereinafter simply referred to as “processor 104”). The processor 104 includes a CCD1 signal processing block 104-1, a CCD2 signal processing block 104-2, a CPU block 104-3, a local SRAM (Local SRAM) 104-4, a USB block 104-5, a serial block 104-6, a JPEG. The CODEC block 104-7, the RESIZE block 104-8, the TV signal display block 104-9, and the memory card controller block 104-10 are connected to each other via a bus line.

CCD1信号処理ブロック104−1は、TG(タイミングジェネレータ)102−4に、垂直同期信号VD、水平同期信号HDを供給する。CCD2信号処理ブロック104−2は、フィルタリング処理により輝度データ・色差データへの変換を行う。   The CCD1 signal processing block 104-1 supplies a vertical synchronization signal VD and a horizontal synchronization signal HD to a TG (timing generator) 102-4. The CCD2 signal processing block 104-2 performs conversion into luminance data and color difference data by filtering processing.

プロセッサ104のCPUブロック104−3は、音声記録回路115−1による音声記録動作を制御するようになっている。音声記録回路115−1は、マイクロホン115−3で変換された音声信号のマイクロホンアンプ115−2による増幅信号を、CPUブロック104−3からの指令に応じて記録する。   The CPU block 104-3 of the processor 104 controls the sound recording operation by the sound recording circuit 115-1. The voice recording circuit 115-1 records the amplified signal of the voice signal converted by the microphone 115-3 by the microphone amplifier 115-2 in accordance with a command from the CPU block 104-3.

また、CPUブロック104−3は、音声再生回路116−1の動作も制御する。音声再生回路116−1は、CPUブロック104−3からの指令により、適宜のメモリに記録されている音声信号を再生してオーディオアンプ116−2に入力し、スピーカー116−3から音声を出力するように構成されている。   The CPU block 104-3 also controls the operation of the audio reproduction circuit 116-1. In response to a command from the CPU block 104-3, the audio reproduction circuit 116-1 reproduces an audio signal recorded in an appropriate memory, inputs the audio signal to the audio amplifier 116-2, and outputs audio from the speaker 116-3. It is configured as follows.

CPUブロック104−3はまた、ストロボ回路114の動作を制御することによってストロボ発光部3から照明光を発光させるようになっており測距ユニット5の動作も制御する。   The CPU block 104-3 also controls the operation of the distance measuring unit 5 by controlling the operation of the strobe circuit 114 to emit illumination light from the strobe light emitting unit 3.

また、CPUブロック104−3は、プロセッサ104の外部に配置されたサブCPU109と接続されており、このサブCPU109は、LCDドライバ111を介してサブLCD1による表示を制御する。サブCPU109はさらに、AF用LED8、ストロボLED9、リモコン受光部6、スイッチSW1〜SW13からなる操作キーユニット、ブザー113と接続されており、これらの制御も行う。   The CPU block 104-3 is connected to a sub CPU 109 arranged outside the processor 104, and the sub CPU 109 controls display by the sub LCD 1 via the LCD driver 111. Further, the sub CPU 109 is connected to an AF LED 8, a strobe LED 9, a remote control light receiving unit 6, an operation key unit including switches SW1 to SW13, and a buzzer 113, and controls these.

ローカルSRAM104−4は、制御に必要なデータ等を一時的に保存する。USBブロック104−5は、USBコネクタ122に接続されており、パソコンなどの外部機器とUSB通信を行う。シリアルブロック104−6は、シリアルドライバ回路123−1を介してRS−232Cコネクタ123−2に接続されており、パソコンなどの外部機器とシリアル通信を行う。JPEG CODECブロック104−7は、JPEG圧縮・伸張を行う。RESIZEブロック104−8は、画像データのサイズを補間処理により拡大/縮小する。TV信号表示ブロック104−9は、LCDドライバ117を介してLCDモニタ10に接続され、また、ビデオアンプ118を介してビデオジャック119にも接続されており、画像データを液晶モニタやTVなどの外部表示機器に表示するためのビデオ信号に変換する。メモリカードコントローラブロック104−10は、メモリカードスロット121の、カードとの接点に接続されており、撮影された画像データを記録するメモリカードの制御を行う。   The local SRAM 104-4 temporarily stores data necessary for control. The USB block 104-5 is connected to the USB connector 122 and performs USB communication with an external device such as a personal computer. The serial block 104-6 is connected to the RS-232C connector 123-2 via the serial driver circuit 123-1, and performs serial communication with an external device such as a personal computer. The JPEG CODEC block 104-7 performs JPEG compression / decompression. The RESIZE block 104-8 enlarges / reduces the size of the image data by interpolation processing. The TV signal display block 104-9 is connected to the LCD monitor 10 via the LCD driver 117, and is also connected to the video jack 119 via the video amplifier 118, and the image data is transferred to an external device such as a liquid crystal monitor or TV. Convert to a video signal for display on a display device. The memory card controller block 104-10 is connected to a contact point of the memory card slot 121 with the card, and controls the memory card that records captured image data.

プロセッサ104の外部には、画像データに各種処理を施す際に、その画像データを一時的に保存するSDRAM103が配置され、プロセッサ104とバスラインによって接続されている。SDRAM103に保存される画像データは、例えば、CCD101からF/E−IC102を経由して取り込まれ、CCD1信号処理ブロック104−1でホワイトバランス設定およびガンマ設定が行われた状態の「RAW−RGB画像データ」や、CCD2信号処理ブロック104−2で輝度データ・色差データ変換が行われた状態の「YUV画像データ」や、JPEG CODECブロック104−7でJPEG圧縮された「JPEG画像データ」等である。   An SDRAM 103 that temporarily stores image data when various processing is performed on the image data is disposed outside the processor 104 and is connected to the processor 104 by a bus line. For example, the image data stored in the SDRAM 103 is fetched from the CCD 101 via the F / E-IC 102 and the “RAW-RGB image” in a state where the white balance setting and the gamma setting are performed in the CCD 1 signal processing block 104-1. Data ”,“ YUV image data ”in which luminance data / color difference data conversion has been performed by the CCD2 signal processing block 104-2,“ JPEG image data ”compressed by JPEG by the JPEG CODEC block 104-7, etc. .

プロセッサ104の外部にはまた、RAM107、内蔵メモリ120、およびROM108が配置され、これらも、プロセッサ104とバスラインによって接続されている。ROM108には、CPUブロック104−3にて解読可能なプログラムコードで記述された、制御プログラムや制御するためのパラメータ等が格納されている。電源スイッチ13の操作によって、このデジタルスチルカメラの電源がオン状態になると、制御プログラムがROM108からメインメモリとしても利用されるLocal SRAM104−4またはRAM107にロードされ、CPUブロック104−3は、その制御プログラムに従って装置各部の動作を制御することとなる。内蔵メモリ120は、撮影した画像データを記憶するためのメモリであり、メモリカードスロット121にメモリカードが装着されていない場合であっても、撮影した画像データを記憶することができるようにするために設けられている。   A RAM 107, a built-in memory 120, and a ROM 108 are also arranged outside the processor 104, and these are also connected to the processor 104 by a bus line. The ROM 108 stores a control program, parameters for control, and the like written in program codes readable by the CPU block 104-3. When the power of the digital still camera is turned on by the operation of the power switch 13, the control program is loaded from the ROM 108 to the local SRAM 104-4 or RAM 107 that is also used as the main memory, and the CPU block 104-3 controls the control of the digital still camera. The operation of each part of the apparatus is controlled according to the program. The built-in memory 120 is a memory for storing photographed image data, so that the photographed image data can be stored even when no memory card is inserted in the memory card slot 121. Is provided.

上記制御プログラムは、測距ユニット5からの出力(測距結果)を処理し、測距エリアを設定する測距エリア設定機能をもつ「測距処理部」、LCDに画像データを表示する処理を行う「画像表示処理部」、LCDに表示された画像上に、互いに距離(上記測距結果)が近い隣接する測距エリアを合成して表示するとともにこの合成したエリアの距離(合成前の各測距エリアの測距結果の平均値)をインジケータ表示するための処理を行う「エリア表示処理部」と、ユーザによる所定操作等の所定の条件に応じて測距エリアを変更し、変更後の測距エリアとその距離を表示する処理を行う「エリア表示変更処理部」、SDRAM103に格納された画像データから被写体の顔領域を検出する「顔領域検出処理部」、静止画撮影を高速に連続して行う、いわゆる高速連続撮影機能をもつ「連続撮影処理部」、および、後述の距離リストの距離データから、各フォーカスレンズ7−2aの合焦位置へ変換する合焦位置決定機能をもつ「レンズ位置決定処理部」を含む各種処理プログラムを有する。   The above control program processes the output (ranging result) from the ranging unit 5 and “ranging processing unit” having a ranging area setting function for setting the ranging area, and processing for displaying image data on the LCD. “Image display processing unit” to be performed, on the image displayed on the LCD, the adjacent distance measuring areas that are close to each other (the above distance measurement result) are combined and displayed, and the distance of the combined area (each of the pre-combination distances) “Area display processing unit” that performs processing for displaying an indicator of the distance measurement area average value), and changes the distance measurement area according to a predetermined condition such as a predetermined operation by the user. "Area display change processing unit" that performs processing to display the distance measurement area and its distance, "Face region detection processing unit" that detects the face region of the subject from the image data stored in the SDRAM 103, and still image shooting at high speed Shi A “continuous shooting processing unit” having a so-called high-speed continuous shooting function, and a “lens position” having a focus position determining function for converting from distance data of a distance list described later to a focus position of each focus lens 7-2a. Various processing programs including a “determination processing unit”.

鏡胴ユニット7は、ズームレンズ7−1aを有するズーム光学系7−1、フォーカスレンズ7−2aを有するフォーカス光学系7−2、絞り7−3aを有する絞りユニット7−3、メカニズムシャッタ7−4aを有するメカシャッタユニット7−4、を備える。ズーム光学系7−1、フォーカス光学系7−2、絞りユニット7−3、メカシャッタユニット7−4は、それぞれズームモータ7−1b、フォーカスモータ7−2b、絞りモータ7−3b、メカシャッタモータ7−4bによって駆動されるようになっており、各モータは、プロセッサ104のCPUブロック104−3によって制御されるモータドライバ7−5によってそれらの動作が制御されるように構成されている。   The lens barrel unit 7 includes a zoom optical system 7-1 having a zoom lens 7-1a, a focus optical system 7-2 having a focus lens 7-2a, an aperture unit 7-3 having an aperture 7-3a, and a mechanism shutter 7-. A mechanical shutter unit 7-4 having 4a. The zoom optical system 7-1, the focus optical system 7-2, the aperture unit 7-3, and the mechanical shutter unit 7-4 are respectively a zoom motor 7-1b, a focus motor 7-2b, an aperture motor 7-3b, and a mechanical shutter motor. 7-4b is driven, and each motor is configured such that the operation thereof is controlled by a motor driver 7-5 controlled by the CPU block 104-3 of the processor 104.

鏡胴ユニット7は、撮像素子であるCCD101に被写体像を結ぶ撮影レンズを有し、CCD101は上記被写体像を画像信号に変換してF/E−IC102に入力する。F/E−IC(フロントエンドIC)102は周知のとおり、画像ノイズ除去用のため相関二重サンプリングを行うCDS102−1、利得調整を行うAGC102−2、A/D変換を行うA/D102−3を有し、上記画像信号にそれぞれ所定の処理を施し、デジタル信号に変換してプロセッサ104のCCD1信号処理ブロック104−1に入力する。これらの信号処理動作は、プロセッサ104のCCD1信号処理ブロック104−1から出力されるVD・HD信号により、TG102−4を介して制御される。   The lens barrel unit 7 has a photographing lens that connects a subject image to a CCD 101 that is an image sensor. The CCD 101 converts the subject image into an image signal and inputs the image signal to the F / E-IC 102. As is well known, an F / E-IC (front-end IC) 102 is a CDS 102-1 that performs correlated double sampling for image noise removal, an AGC 102-2 that performs gain adjustment, and an A / D 102- that performs A / D conversion. 3, each of the image signals is subjected to predetermined processing, converted into a digital signal, and input to the CCD1 signal processing block 104-1 of the processor 104. These signal processing operations are controlled via the TG 102-4 by the VD / HD signal output from the CCD1 signal processing block 104-1 of the processor 104.

また、測距ユニット5は、単独でCPUを有する。そのため、測距ユニット5は、デジタルスチルカメラ内における他の処理とは非同期に動作させることが可能である。その測距ユニット5内の構成図を図5に示す。   The distance measuring unit 5 has a CPU alone. Therefore, the distance measuring unit 5 can be operated asynchronously with other processes in the digital still camera. A configuration diagram of the distance measuring unit 5 is shown in FIG.

(測距ユニットの構成)
図5に示すように、レンズアレイ11にはレンズ12a、12bが一体化されて形成されている。レンズ12a、12bは測距用のレンズであり、同じ形状で焦点距離は等しく、それぞれの光軸14a、14bは平行である。光軸14aと光軸14bの間隔が基線長Dである。
(Configuration of ranging unit)
As shown in FIG. 5, lenses 12 a and 12 b are integrally formed in the lens array 11. The lenses 12a and 12b are distance measuring lenses having the same shape and the same focal length, and the optical axes 14a and 14b are parallel to each other. The distance between the optical axis 14a and the optical axis 14b is the baseline length D.

ここで図5のように光軸14a、14bの方向をZ軸とし、Z軸に垂直であり、かつ光軸14bから光軸14aへ向かう方向をY軸とし、Z軸とY軸の両方に直交する方向をX軸とする。レンズ12a、12bはXY平面上にありY軸上に両レンズの中心を配置した。この場合、視差Δが発生する方向はY軸方向となる。   Here, as shown in FIG. 5, the direction of the optical axes 14a and 14b is the Z axis, the direction perpendicular to the Z axis and the direction from the optical axis 14b to the optical axis 14a is the Y axis, and both the Z axis and the Y axis are An orthogonal direction is taken as an X axis. The lenses 12a and 12b are on the XY plane, and the centers of both lenses are arranged on the Y axis. In this case, the direction in which the parallax Δ is generated is the Y-axis direction.

撮像素子15はCMOS、CCD等の撮像素子であり、ウェハ上に半導体プロセスにより多数の受光素子(画素)を形成したものである。本実施形態ではCCDを用いて説明する。撮像素子15上には、測距用レンズ12aを経て被写体像が結像される撮像領域16aと、測距用レンズ12bを経て被写体像が結像される撮像領域16bが離間して配置されている。   The image sensor 15 is an image sensor such as a CMOS or CCD, and has a large number of light receiving elements (pixels) formed on a wafer by a semiconductor process. In this embodiment, a description will be given using a CCD. On the image sensor 15, an imaging region 16a in which a subject image is formed through a distance measuring lens 12a and an imaging region 16b in which a subject image is formed through a distance measuring lens 12b are arranged separately. Yes.

撮像領域16aと撮像領域16bはそれぞれ同じ大きさの矩形領域であり(図5下図)、これらの各撮像領域の対角中心と、各レンズの光軸はほぼ一致するように配置されている。本実施形態の測距ユニット5は、撮像領域16aと撮像領域16bを離間して設けている。これらの撮像領域が離間されていない場合は、隣接する撮像領域に光線が入射することを避けるために撮像領域を区切る壁などを設ける必要があるが、本実施形態の測距ユニット5にはこのような構造は不要である。   The imaging area 16a and the imaging area 16b are rectangular areas having the same size (the lower diagram in FIG. 5), and the diagonal centers of these imaging areas are arranged so that the optical axes of the lenses substantially coincide with each other. In the distance measuring unit 5 of the present embodiment, the imaging area 16a and the imaging area 16b are provided apart from each other. If these imaging areas are not separated, it is necessary to provide a wall or the like that separates the imaging areas in order to avoid the incidence of light rays on adjacent imaging areas. Such a structure is not necessary.

撮像素子15の下には図示しないデジタル信号プロセッサ(DSP)を含む基板18が配置されている。基板18の内部ブロック図は、図6のとおりである。図6に示す構成において撮像素子15は、プロセッサ204によって制御されるように構成されている。   A substrate 18 including a digital signal processor (DSP) (not shown) is disposed under the image sensor 15. An internal block diagram of the substrate 18 is as shown in FIG. In the configuration shown in FIG. 6, the image sensor 15 is configured to be controlled by the processor 204.

プロセッサ204は、CCD信号処理ブロック204−1、CPUブロック204−2、メモリコントローラブロック204−3、外部I/Fブロック204−4を有し、これらは相互にバスラインで接続されている。プロセッサ204の外部には、YUV画像データを保存するSDRAM205が配置され、プロセッサ204とバスラインによって接続されている。またプロセッサ204の外部には、制御プログラムが格納されたROM206が配置され、プロセッサ204とバスラインによって接続されている。   The processor 204 includes a CCD signal processing block 204-1, a CPU block 204-2, a memory controller block 204-3, and an external I / F block 204-4, which are connected to each other via a bus line. An SDRAM 205 that stores YUV image data is disposed outside the processor 204 and is connected to the processor 204 via a bus line. A ROM 206 storing a control program is disposed outside the processor 204, and is connected to the processor 204 by a bus line.

また、基板18では、撮像素子15であるCCD201−1、201−2からの被写体像の画像信号をそれぞれ、F/E−IC202、203に入力する。本実施形態では、測距ユニット5は2つの撮像素子を有し、それぞれについて測距用センサ1用F/E−IC202、測距用センサ2用F/E−IC203を有している。F/E−ICは周知のとおりで、F/E−IC202および203はそれぞれ、相関二重サンプリングを行うCDS202−1、203−1、利得調整を行うAGC202−2、203−2、A/D変換を行うA/D変換部202−3、203−3を有しており、画像信号をデジタル信号へと変換しプロセッサ204のCCD信号ブロック204−1へ入力する。これらの信号処理動作は、プロセッサ204のCCD信号処理ブロック204−1から出力される同期信号であるVD/HD/CLK信号より、TG202−4、203−4を介して制御される。   Further, on the substrate 18, image signals of subject images from the CCDs 201-1 and 201-2 serving as the image sensor 15 are input to the F / E-ICs 202 and 203, respectively. In the present embodiment, the distance measuring unit 5 includes two image sensors, and each includes a distance measuring sensor 1 F / E-IC 202 and a distance measuring sensor 2 F / E-IC 203. The F / E-IC is well known, and the F / E-ICs 202 and 203 are respectively CDSs 202-1 and 203-1 that perform correlated double sampling, AGCs 202-2 and 203-2 that perform gain adjustment, and A / D. A / D converters 202-3 and 203-3 that perform conversion are provided. The image signal is converted into a digital signal and input to the CCD signal block 204-1 of the processor 204. These signal processing operations are controlled via TGs 202-4 and 203-4 from a VD / HD / CLK signal that is a synchronization signal output from the CCD signal processing block 204-1 of the processor 204.

ROM206に格納された制御プログラムは、CCD信号処理ブロック204−1がこれらの制御を2つの撮像素子201−1、201−2のそれぞれに対して行えるようにプログラムされている。この制御プログラムは、撮像素子201−1、201−2のそれぞれに対して測距処理を行うための測距処理部ブロックおよび測光処理を行うための測光処理部ブロックをもつ。   The control program stored in the ROM 206 is programmed so that the CCD signal processing block 204-1 can perform these controls on each of the two image sensors 201-1 and 201-2. This control program has a distance measurement processing unit block for performing distance measurement processing on each of the image sensors 201-1 and 201-2 and a photometry processing unit block for performing photometry processing.

また、撮像素子(CCD201−1、201−2)の画像信号の取り込みタイミングはVD信号に同期して制御されるが、その取り込みタイミングは、本実施形態では30fps(以後フレームレート)で駆動できるようになっている。そのタイミングチャートは、図7のようになり、電子シャッタの取り込みタイミングを設定することで、露光量を制御することが可能である。   The image signal capture timing of the image sensors (CCDs 201-1 and 201-2) is controlled in synchronization with the VD signal. In this embodiment, the capture timing can be driven at 30 fps (hereinafter frame rate). It has become. The timing chart is as shown in FIG. 7, and the exposure amount can be controlled by setting the electronic shutter capture timing.

外部I/Fブロック204−4は、測距(距離分布)および測光結果の出力、2つの撮像素子からの画像データの出力、さらにデジタルスチルカメラからの通信を行えるようにしている。従って、測距ユニット5以外のデジタルスチルカメラの内部でも、その出力データを演算させることが可能である。   The external I / F block 204-4 can output a distance measurement (distance distribution) and a photometric result, output image data from two image sensors, and perform communication from a digital still camera. Therefore, the output data can be calculated even inside the digital still camera other than the distance measuring unit 5.

[測距および測光の基本原理]
次に、測距および測光の基本原理に関して説明する。まず、測距に関して、図8のラインセンサでの測距方法を用いて説明する。
[Basic principles of distance measurement and photometry]
Next, the basic principle of distance measurement and photometry will be described. First, distance measurement will be described using the distance measurement method with the line sensor of FIG.

図8において被写体311からの光を同一の光学系からなる2台のデジタルスチルカメラ312a、312bを配置して撮影する場合を考える。レンズ313aを通して得た被写体像314aと、レンズ313bを通して得た被写体像314bとは、図8のように被写体上の同一点が視差Δだけずれてラインセンサ315a、315bにそれぞれ至り、複数の受光素子(画素)で受光され、電気信号に変換される。ここでレンズ313a、313bの光軸間の距離は基線長と呼ばれ、これをDとし、レンズと被写体との距離をA、レンズの焦点距離をfとして、A≫fであるときには次式の式(1)が成り立つ。   In FIG. 8, consider a case where two digital still cameras 312a and 312b having the same optical system are arranged to shoot light from a subject 311. The subject image 314a obtained through the lens 313a and the subject image 314b obtained through the lens 313b are respectively shifted to the line sensors 315a and 315b by shifting the same point on the subject by the parallax Δ as shown in FIG. Light is received by (pixel) and converted into an electric signal. Here, the distance between the optical axes of the lenses 313a and 313b is called a base line length, which is D, where A is the distance between the lens and the subject, and f is the focal length of the lens. Equation (1) holds.

A=Df/Δ … (1)       A = Df / Δ (1)

基線長Dおよびレンズの焦点距離fは既知であるから、式(1)より、視差Δを検出すれば被写体までの距離Aを算出することができる。このように2つの画像の視差Δから距離Aを算出する方式を三角測量という。視野全体のうち、レンズ解像度の高い中心部にラインセンサを配して受光するため、視野の中心部に焦点合わせが行われることになる。   Since the baseline length D and the focal length f of the lens are known, the distance A to the subject can be calculated by detecting the parallax Δ from the equation (1). A method for calculating the distance A from the parallax Δ between two images in this way is called triangulation. In the entire field of view, the line sensor is arranged and received at the center portion with high lens resolution, so that focusing is performed on the center portion of the field of view.

[本実施形態の測距ユニットにおける測距および測光]
本実施形態の測距ユニット5は2次元センサを有しており、上記原理を2次元に展開して実現させている。図9は撮像素子15上に配置された2次元のエリア構成を示している。この各エリアに対して、測距用センサ1(CCD201−1)および測距用センサ2(CCD201−2)による検知結果のズレを求めて視差を求める。例えば図9の測距用センサ1のエリアaとこれに対応する、測距用センサ2のエリアAとを、図10のように水平方向に数画素ずらしながらその画素差分を求めその値が最も小さい位置をそのエリアの視差とする。その視差から上記式(1)より距離を求める。視差を求める場合、空のような視差がわからない被写体の場合は、距離が出ない場合がある。その際は測距不能のため0とすることとする。
[Distance measurement and photometry in the distance measurement unit of this embodiment]
The distance measuring unit 5 of the present embodiment has a two-dimensional sensor, and realizes the above principle in two dimensions. FIG. 9 shows a two-dimensional area configuration arranged on the image sensor 15. For each of these areas, a difference between detection results by the distance measuring sensor 1 (CCD 201-1) and the distance measuring sensor 2 (CCD 201-2) is obtained to obtain a parallax. For example, the pixel difference is obtained by shifting the area a of the distance measuring sensor 1 in FIG. 9 and the corresponding area A of the distance measuring sensor 2 by several pixels in the horizontal direction as shown in FIG. A small position is set as the parallax of the area. The distance is obtained from the parallax according to the above equation (1). When obtaining the parallax, the distance may not be obtained in the case of a subject whose parallax is not known, such as the sky. In that case, it is set to 0 because distance measurement is impossible.

一方、本実施形態の測距ユニット5は露光量を可変にすることができるので、測光機能を持っている。本実施形態では、撮像素子の撮像領域を多分割することにより視野領域全体を複数に分割し、各領域の明るさを測定する。図11が測距ユニット5の撮像素子であるCCD201−1もしくは201−2内で分割されたエリアである。例えば、CCD201−2からの画像信号はF/E−IC203を介してCCD信号処理ブロック204−1へと渡り、SDRAM205に格納されたYUV画像データから、これらの分割エリア内のY値(輝度)を用いて、Y値の加算、対象画素数で乗算することによって、各エリアの評価値が求められる。その評価値から得られる分割エリアの輝度分布により適正露光量を算出し、被写体の明るさを検知する。その結果に対して、明るいまたは暗いといった場合は、プロセッサ104がメカシャッタユニット7−4を制御し、電子シャッタを変化させ露光量を変更する。   On the other hand, the distance measuring unit 5 of the present embodiment has a photometric function because the exposure amount can be made variable. In the present embodiment, the entire visual field region is divided into a plurality of parts by dividing the imaging region of the image sensor into multiple parts, and the brightness of each region is measured. FIG. 11 shows areas divided in the CCD 201-1 or 201-2 which is an image pickup element of the distance measuring unit 5. For example, the image signal from the CCD 201-2 passes to the CCD signal processing block 204-1 via the F / E-IC 203, and the Y value (luminance) in these divided areas is obtained from the YUV image data stored in the SDRAM 205. Is used to obtain the evaluation value of each area by adding the Y value and multiplying by the number of target pixels. An appropriate exposure amount is calculated from the luminance distribution of the divided area obtained from the evaluation value, and the brightness of the subject is detected. If the result is bright or dark, the processor 104 controls the mechanical shutter unit 7-4 to change the electronic shutter to change the exposure amount.

[従来のデジタルスチルカメラの動作概要]
次に、上記のように構成されたデジタルスチルカメラの動作を説明する前に、従来のデジタルスチルカメラの動作概要を説明しておく。
[Overview of operation of conventional digital still camera]
Next, before describing the operation of the digital still camera configured as described above, an outline of the operation of the conventional digital still camera will be described.

図1に示すモードダイアルSW2を記録モードに設定することで、デジタルスチルカメラが記録モードで起動する。モードダイアルSW2の設定は、図4における操作Keyユニット(SW1〜SW13)に含まれるモードダイアルSW2の状態が記録モードONになったことをCPUが検知し、モータドライバ7−5を制御して、鏡胴ユニット7を撮影可能な位置に移動させる。さらにCCD101、F/E−IC102、LCDモニタ10等の各部に電源を投入して動作を開始させる。各部の電源が投入されると、ファインダモードの動作が開始される。   By setting the mode dial SW2 shown in FIG. 1 to the recording mode, the digital still camera is activated in the recording mode. The mode dial SW2 is set by the CPU detecting that the mode dial SW2 included in the operation key units (SW1 to SW13) in FIG. 4 is in the recording mode ON, and controlling the motor driver 7-5. The lens barrel unit 7 is moved to a position where photographing can be performed. Furthermore, the power is turned on to the respective parts such as the CCD 101, the F / E-IC 102, the LCD monitor 10 and the like to start the operation. When the power of each part is turned on, the operation in the finder mode is started.

ファインダモードでは、レンズを通して撮像素子(CCD101)に入射した光は、電気信号に変換されてアナログ信号のR,G,BとしてCDS回路102−1、AGC102−2、A/D変換器102−3に送られる。A/D変換器102−3でデジタル信号に変換されたそれぞれの信号は、CCD2信号処理ブロック104−2内のYUV変換部でYUV信号に変換されて、メモリコントローラ(図示せず)によってSDRAM103に書き込まれる。このYUV信号はメモリコントローラに読み出されて、TV信号表示ブロック104−9を介してTVやLCDモニタ10へ送られて表示が行われる。この処理が30fps(1/30秒間隔)で行われ、1/30秒ごとに更新されるファインダモードの表示となる。   In the finder mode, the light incident on the image sensor (CCD 101) through the lens is converted into an electrical signal and converted into analog signals R, G, B as a CDS circuit 102-1, AGC 102-2, and A / D converter 102-3. Sent to. Each signal converted into a digital signal by the A / D converter 102-3 is converted into a YUV signal by the YUV conversion unit in the CCD2 signal processing block 104-2, and is stored in the SDRAM 103 by a memory controller (not shown). Written. This YUV signal is read out by the memory controller and sent to the TV or LCD monitor 10 via the TV signal display block 104-9 for display. This process is performed at 30 fps (1/30 second interval), and a finder mode display updated every 1/30 second is obtained.

[本実施形態のデジタルスチルカメラの動作]
続いて、本実施形態のデジタルスチルカメラの動作を説明する。以下では、本実施形態において特徴的な高速連続撮影処理に関して、第1の実施例および第2の実施例を挙げ説明する。
[Operation of Digital Still Camera of this Embodiment]
Next, the operation of the digital still camera of this embodiment will be described. Hereinafter, the first and second examples will be described with respect to the high-speed continuous shooting process characteristic of the present embodiment.

(第1の実施例)
まず、本実施形態のデジタルスチルカメラにおける高速連続撮影処理の第1の実施例について説明する。本実施例のファインダモードから高速連続撮影までの処理フローに関しては図12のフローチャートのとおりである。以下では、このフローに基づき説明する。
(First embodiment)
First, a first example of high-speed continuous shooting processing in the digital still camera of this embodiment will be described. The processing flow from the viewfinder mode to the high-speed continuous shooting in this embodiment is as shown in the flowchart of FIG. Below, it demonstrates based on this flow.

デジタルスチルカメラは電源ON後、ファインダモードの状態となる。そして、このファインダモード時に、まず測距ユニット5を使用した測距処理を行う(S12−1)。ここで、この測距処理に関して、図15〜17のフローチャートを用いて説明する。   The digital still camera enters the finder mode after the power is turned on. In the finder mode, first, a ranging process using the ranging unit 5 is performed (S12-1). Here, the distance measurement process will be described with reference to the flowcharts of FIGS.

まず測距ユニット5内のROM206に格納された制御プログラム(測距処理部)に従い、CPUブロック204−2は、先ず測光処理(S15−1)を行う。ここでの測光処理(S15−1)は、図16のフローチャートのとおりである。   First, in accordance with a control program (ranging processing unit) stored in the ROM 206 in the ranging unit 5, the CPU block 204-2 first performs a photometric process (S15-1). The photometric process (S15-1) here is as shown in the flowchart of FIG.

まず、露光した画像信号からCCD信号処理ブロック(204−1)にてYUV変換された画像信号に基づいて、前述のように自動露出のための評価値を演算する(S16−1)。   First, based on the image signal YUV converted from the exposed image signal by the CCD signal processing block (204-1), an evaluation value for automatic exposure is calculated as described above (S16-1).

次に、その評価値から被写体のY値(輝度)の分布を確認し、適正露光になるような露光量(シャッタースピード)を設定する(S16−2)。   Next, the distribution of the Y value (luminance) of the subject is confirmed from the evaluation value, and an exposure amount (shutter speed) is set so as to achieve proper exposure (S16-2).

最後に、設定された露光量を各測距用センサのTG202−4、203−4に設定する(S16−3)。なお、この測光結果はSDRAM205上に保存しておき、デジタルスチルカメラが撮影処理に入った場合に、測距ユニット5から外部I/Fブロック204−4を介して、この測光結果を送信できるようにしておけば、測距ユニット5以外のデジタルスチルカメラ内での測光処理を省略できるので処理時間を短縮することが可能になる。   Finally, the set exposure amount is set in TG 202-4 and 203-4 of each distance measuring sensor (S16-3). This photometry result is stored on the SDRAM 205 so that the photometry result can be transmitted from the distance measuring unit 5 via the external I / F block 204-4 when the digital still camera enters photographing processing. If this is done, the photometric process in the digital still camera other than the distance measuring unit 5 can be omitted, so that the processing time can be shortened.

図15に戻り、上記測光処理で設定された露光設定に基づいて、測距用センサ1、2で露光し、その画像信号から測距処理(S15−2)を行う。ここでの測距処理(S15−2)は、図17のフローチャートのとおりである。   Returning to FIG. 15, based on the exposure setting set in the photometry process, exposure is performed by the distance measuring sensors 1 and 2, and the distance measurement process (S15-2) is performed from the image signal. The distance measurement process (S15-2) here is as shown in the flowchart of FIG.

まず2つの測距用センサ1、2の露光のタイミングを取るためVD信号待ちを行う(S17−1)。   First, a VD signal is waited for the exposure timing of the two distance measuring sensors 1 and 2 (S17-1).

次に、その露光した画像信号からCCD信号処理ブロック(204−1)にてYUV変換された画像信号に基づいて、図9のようなエリアに対して測距演算処理を行う(S17−2)。本実施形態では、7×7の計49エリアを撮像範囲に均等に配置している。このエリア数に関しては、さらに細かく設定することで、より細かい被写体に対しての測距演算結果を出力することが可能である。   Next, based on the image signal YUV-converted by the CCD signal processing block (204-1) from the exposed image signal, distance calculation processing is performed on the area as shown in FIG. 9 (S17-2). . In this embodiment, a total of 49 areas of 7 × 7 are arranged uniformly in the imaging range. By setting the number of areas more finely, it is possible to output a distance measurement calculation result for a finer subject.

次に、その測距演算結果から、距離分布生成処理を行う(S17−3)。例えば、図18Aのようなシーンにおいては、図18Bのように49のエリアにエリア分割し、図18Cのような距離分布を作成する。表示されている数値は1/距離[m]で表示している。以上のようにして、測距処理を行う。   Next, a distance distribution generation process is performed from the distance measurement calculation result (S17-3). For example, in the scene as shown in FIG. 18A, the area is divided into 49 areas as shown in FIG. 18B, and a distance distribution as shown in FIG. 18C is created. The displayed numerical value is 1 / distance [m]. The distance measurement process is performed as described above.

図12に戻り、測距処理(S12−1)で測距された距離分布から、各測距エリアにおいて互いに距離が近いものは、その測距エリアに含まれる被写体が同じ被写体であると判定し(測距エリア選択処理)、そのエリアを合成する処理を行う(S12−2)。これは測距ユニット5から出力された距離分布より、各測距エリアの“1/距離”が近いものを抽出し、そのエリアを1つのエリアとして合成する処理である。以下、この合成したエリアを“エリア”と略記する。   Returning to FIG. 12, from the distance distribution measured in the distance measurement process (S12-1), if each distance area is close to each other, it is determined that the subjects included in the distance measurement area are the same subject. (Range-finding area selection process), a process for combining the areas is performed (S12-2). This is a process of extracting from the distance distribution output from the distance measuring unit 5 the ones having a distance close to “1 / distance” and combining the areas as one area. Hereinafter, this combined area is abbreviated as “area”.

次に、S12−2で合成した各エリアとその距離を示すインジケータ表示を行うエリア表示処理を行う(S12−3)。図18Dは、このエリア表示処理後の状態の一例を示している。図18Dの例は、図18Aのシーンについて、A〜Fの6つのエリアとその測距結果が表示されていることになる。なお、各エリアの測距結果は、合成する各測距エリアの測距結果の平均をとり、その平均値を、合成したエリアの測距演算結果として(図18G)、SDRAM103へ保存しておく。そしてこのエリア表示処理(S12−3)ではさらに、合成後の各エリアの測距結果を表示するために、各エリアの測距結果からなる距離分布もインジゲータ表示するようにしている。これによってユーザは測距結果がどのような距離分布になっているかを確認することができる。図18Dの例では色分けしていないが、実際には各エリアとその距離(測距結果)を対応づけて距離分布を示し色で区別できるようにするとより被写体のエリアと距離の関係をより分り易くユーザに示すことが可能となる。   Next, an area display process for displaying an indicator indicating each area combined in S12-2 and its distance is performed (S12-3). FIG. 18D shows an example of the state after this area display processing. In the example of FIG. 18D, six areas A to F and the distance measurement results are displayed for the scene of FIG. 18A. The distance measurement results of each area are averaged from the distance measurement results of the distance measurement areas to be combined, and the average value is stored in the SDRAM 103 as the distance calculation result of the combined area (FIG. 18G). . Further, in this area display process (S12-3), in order to display the distance measurement result of each area after composition, the distance distribution made up of the distance measurement result of each area is also displayed as an indicator. As a result, the user can confirm the distance distribution of the distance measurement result. Although not color-coded in the example of FIG. 18D, actually, the relationship between the area of the subject and the distance can be understood more by associating each area with its distance (ranging result) to indicate the distance distribution and distinguish it by color. It can be easily shown to the user.

次に、表示されたエリアとその距離から、撮影時に所望とするフォーカスエリア(合焦位置が決定されるエリア)を選択するエリア設定処理を行う(S12−4)。これは実際に測距した結果は、背景や不必要な領域も測距しているため不要なエリアも含まれており、この不要なエリアを任意に削除するための処理である。以下では、この処理に関して図13のフローチャートを用いて説明する。   Next, an area setting process for selecting a desired focus area (an area where the in-focus position is determined) from the displayed area and its distance is performed (S12-4). This is a process for arbitrarily deleting the unnecessary area because the result of the actual distance measurement includes the unnecessary area because the background and the unnecessary area are also measured. Hereinafter, this process will be described with reference to the flowchart of FIG.

まず、削除対象とするエリアを選択する(S13−1)。例えば、右移動スイッチSW8、左移動および画像確認スイッチSW11およびOKスイッチSW12によって、削除対象のエリアを選択するようにする。ここでは、右移動スイッチSW8または左移動および画像確認スイッチSW11を押下することによって、押下された右移動スイッチSW8または左移動および画像確認スイッチSW11の方向に順次エリアを移動し、OKスイッチSW12が押下されることで、現在選択されているエリアを削除対象エリアとして決定することができる。図18Eは、削除対象のエリアが選択されている状態を示している。図18Eの例では、削除対象となるエリアを破線で表わし、そうでないものを実線で表している。また、インジケータ表示されている距離分布に関しては、選択された削除対象のエリアとそうでないエリアが色等で区別できるようにしている。このように、ユーザ操作に応じて、表示の変更を行う。なお、上記削除対象エリアの選択の際の操作は一例であって、上記操作方法に限るものではない。   First, an area to be deleted is selected (S13-1). For example, the area to be deleted is selected by the right movement switch SW8, the left movement and image confirmation switch SW11, and the OK switch SW12. Here, by pressing the right movement switch SW8 or the left movement and image confirmation switch SW11, the area is sequentially moved in the direction of the pressed right movement switch SW8 or the left movement and image confirmation switch SW11, and the OK switch SW12 is depressed. As a result, the currently selected area can be determined as the deletion target area. FIG. 18E shows a state where an area to be deleted is selected. In the example of FIG. 18E, the area to be deleted is represented by a broken line, and the area not to be removed is represented by a solid line. In addition, regarding the distance distribution displayed on the indicator, the selected area to be deleted and the area that is not to be deleted can be distinguished by color or the like. In this way, the display is changed according to the user operation. The operation for selecting the area to be deleted is an example, and is not limited to the operation method.

ところで、表示される各エリアのうち互いに距離が近いもの(ここでは被写界深度内のものとする)と、そうでないエリアとで、その表示態様を変更するようにしてもよい。具体的には、例えば、互いに距離が近いエリア(被写界深度内のもの)を同一の表示態様で表示するようにする。図18Eでは、エリアB、Eは互いに近い距離にあると判断されるので、これらを共通の線で(図の例では実線だが、例えば共通の色として)表示する。このようにすることにより、ユーザは、LCDモニタ10に表示される画面上で各エリアが離れていても互いに(本デジタルスチルカメラからの)距離が近い被写体を容易に認識でき、削除対象のエリアとして選択するか否かの判断も容易になる。   By the way, the display mode may be changed between the displayed areas that are close to each other (here, those within the depth of field) and areas that are not. Specifically, for example, areas that are close to each other (those within the depth of field) are displayed in the same display mode. In FIG. 18E, since it is determined that the areas B and E are close to each other, they are displayed with a common line (in the example of the figure, a solid line, but as a common color, for example). In this way, the user can easily recognize subjects that are close to each other (from the digital still camera) even if each area is separated on the screen displayed on the LCD monitor 10, and the area to be deleted It is also easy to determine whether to select as

図13に戻り、ユーザは、削除したいエリアがある場合(S13−2でYes)、ディスプレイスイッチSW9を押下することで、処理は、エリア削除処理(S13−3)へと移行する。このエリア削除処理では、削除対象のエリアとその距離に係る表示を消去し、残りのエリアのみをフォーカスエリアとして設定する。一方、削除したいエリアがない場合(S13−2でNo)は、メニュースイッチSW6を押下することで、処理は終了する。図18Fは、削除後の状態を示している。ここでは削除したエリアはA、Dの2つエリアで、これらは背景を測距していたため削除されている。   Returning to FIG. 13, when there is an area to be deleted (Yes in S13-2), the user presses the display switch SW9 to shift the process to an area deletion process (S13-3). In this area deletion process, the display related to the area to be deleted and its distance are deleted, and only the remaining area is set as the focus area. On the other hand, when there is no area to be deleted (No in S13-2), the process ends by pressing the menu switch SW6. FIG. 18F shows the state after deletion. Here, the deleted areas are two areas A and D, and these areas are deleted because the background is measured.

以上までがエリア設定処理(S12−4)である。   The above is the area setting process (S12-4).

図12に戻り、上記エリア設定処理(S12−4)において、設定された複数エリアの測距結果を用いて、距離リストを作成する(S12−5)。図18Aのシーンに関しては図18Gのようにフォーカスエリアとなる4つのエリア(全6エリアだが、そのうち2エリアは上記のエリア設定処理で削除している)を抽出しているので、その4つのエリアの距離データを抽出する。それを距離のリスト(図18H)として作成する。   Returning to FIG. 12, in the area setting process (S12-4), a distance list is created using the distance measurement results of the set areas (S12-5). As for the scene in FIG. 18A, four areas (6 areas in total, of which 2 areas have been deleted in the above area setting process) are extracted as shown in FIG. 18G. Extract distance data. It is created as a list of distances (FIG. 18H).

距離のリストが作成され(S12−6でYes)、さらにレリーズスイッチSW1が押下された場合には(S12−7でYes)、そのリストに基づいて、連続撮影処理へと入る(S12−8)。この連続撮影処理の開始は、レリーズスイッチSW1の押下に代えて、例えば、LCDモニタ10に表示された撮像画面上に表示させたフォーカスエリアの枠のいずれかがタッチパネルを介してタップまたはタッチされると開始するようにしてもよいし、その他のスイッチ操作に応じて開始するようにしてもよい。   A list of distances is created (Yes in S12-6), and when the release switch SW1 is further pressed (Yes in S12-7), a continuous shooting process is entered based on the list (S12-8). . For example, instead of pressing the release switch SW1, the continuous shooting process is started by tapping or touching one of the focus area frames displayed on the imaging screen displayed on the LCD monitor 10 via the touch panel. Or may be started in response to other switch operations.

本実施例では、距離リストの距離データから、各フォーカスレンズ7−2aの合焦位置へ変換し、その位置へフォーカスレンズを移動してから撮影することを各距離について順次行う。こうすることで、ユーザが所望とする距離についてのみ、山登りAF動作をせずに、より高速な高速連続撮影をすることが可能となり、撮影での処理時間を削減させることが可能となる。また、露光に関しては、事前にファインダモード時に、測距ユニット5以外のデジタルスチルカメラ内で測光した結果を用いて撮影しても、測距ユニット5での測光結果を用いて撮影しても良いが、高速性を配慮する2次元撮像素子を用いた測距ユニット5からの測光結果を用いたほうが、撮影にかかる処理が速くなる。また、測距ユニット5からの測光結果を用いることで、シャッターチャンスを逃さないという効果を奏する。   In the present embodiment, the distance data in the distance list is converted into the focus position of each focus lens 7-2a, and after the focus lens is moved to that position, shooting is sequentially performed for each distance. By doing so, it is possible to perform high-speed continuous shooting at a high speed without performing a hill-climbing AF operation only at a distance desired by the user, and it is possible to reduce processing time in shooting. In addition, regarding exposure, in the finder mode in advance, shooting may be performed using the result of light metering in a digital still camera other than the distance measuring unit 5 or using the result of light metering in the distance measuring unit 5. However, the use of the photometric result from the distance measuring unit 5 using a two-dimensional image sensor that takes high speed into consideration speeds up the processing for photographing. Further, by using the photometric result from the distance measuring unit 5, there is an effect that a photo opportunity is not missed.

また、特定の測距エリアの合焦位置での高速連続撮影を行えばよいので、ユーザにとって不要な画像が排除され、その結果連続撮影枚数を最適化できる。   In addition, since high-speed continuous shooting at a focus position in a specific distance measurement area may be performed, images unnecessary for the user are eliminated, and as a result, the number of continuous shots can be optimized.

以上、本実施形態のデジタルスチルカメラにおける高速連続撮影処理の第1の実施例について説明した。   The first example of the high-speed continuous shooting process in the digital still camera of the present embodiment has been described above.

(第2の実施例)
続いて、本実施形態のデジタルスチルカメラにおける高速連続撮影処理の第2の実施例について説明する。本実施例のファインダモードから高速連続撮影までの基本的な処理フローは、第1の実施例で図12のフローチャートを用いて説明したとおりである。また、測距ユニット5を使用した測距処理についても、第1の実施例で図15、16、17を用いて説明したとおりである。以下では、ファインダモードから高速連続撮影までの基本的な処理フローに加え、本実施例に特徴的な処理について図14を用いて説明する。
(Second embodiment)
Next, a second example of high-speed continuous shooting processing in the digital still camera of this embodiment will be described. The basic processing flow from the finder mode to high-speed continuous shooting in this embodiment is as described with reference to the flowchart of FIG. 12 in the first embodiment. Further, the distance measuring process using the distance measuring unit 5 is also as described in the first embodiment with reference to FIGS. In the following, in addition to the basic processing flow from the finder mode to high-speed continuous shooting, processing characteristic of this embodiment will be described with reference to FIG.

まず、デジタルスチルカメラは電源ON後、ファインダモードの状態となる。このファインダモード時に、まず測距ユニット5を使用した測距処理を行う(S14−1)。この測距処理は、第1の実施例において、図15、16、17を用いて前述したとおりであるので、ここではその説明を省略する。この測距処理で、第1の実施例と同様に図18Aに示すようなシーンでは、図18Bのように49のエリアにエリア分割し、図18Cに示すような距離分布が作成される。この距離分布に示す数値は、1/距離[m]で表示している。   First, the digital still camera enters the finder mode after the power is turned on. In the finder mode, first, distance measurement processing using the distance measurement unit 5 is performed (S14-1). This distance measurement processing is the same as that described above with reference to FIGS. 15, 16, and 17 in the first embodiment, and therefore the description thereof is omitted here. In this distance measurement process, as in the first embodiment, in the scene as shown in FIG. 18A, the area is divided into 49 areas as shown in FIG. 18B, and a distance distribution as shown in FIG. 18C is created. The numerical value shown in this distance distribution is expressed by 1 / distance [m].

次いで、ファインダモード時に表示されている画像データの中で、顔領域があるかどうかを確認する(顔検知処理:S14−2)。顔領域の検知方法に関しては、デジタルスチルカメラの技術分野のおいて様々な手法がすでに知られており、本実施例では、そのうちのいずれかの方法を用いるものとする。以下に、顔領域の検知方法に関する公知例を示す。   Next, it is confirmed whether or not there is a face area in the image data displayed in the finder mode (face detection process: S14-2). Various methods for detecting the face area are already known in the technical field of digital still cameras. In this embodiment, any one of these methods is used. The following is a known example relating to a face area detection method.

(1)テレビジョン学会誌Vol.49、No.6、pp.787−797(1995)の「顔領域抽出に有効な修正HSV表色系の提案」に示されるように、カラー画像をモザイク画像化し、肌色領域に着目して顔領域を抽出する方法。 (1) Television Society Journal Vol. 49, no. 6, pp. No. 787-797 (1995) “Proposal of a modified HSV color system effective for face area extraction” is a method of extracting a face area by converting a color image into a mosaic image and paying attention to a skin color area.

(2)電子情報通信学会誌Vol.74−D−II、No.11、pp.1625−1627(1991)の「静止濃淡情景画像からの顔領域を抽出する手法」に示されているように、髪や目や口など正面人物像の頭部を構成する各部分に関する幾何学的な形状特徴を利用して正面人物の頭部領域を抽出する方法。 (2) Journal of the Institute of Electronics, Information and Communication Engineers, Vol. 74-D-II, no. 11, pp. 1625-1627 (1991) “A method for extracting a face region from a still gray scene image”, the geometrical structure of each part constituting the head of a front human figure such as hair, eyes and mouth. Of extracting the head region of a frontal person using various shape features.

(3)画像ラボ1991−11(1991)の「テレビ電話用顔領域検出とその効果」に示されるように、動画像の場合、フレーム間の人物の微妙な動きによって発生する人物像の輪郭エッジを利用して正面人物像を抽出する方法。 (3) In the case of a moving image, the contour edge of a person image generated by subtle movement of a person between frames, as shown in “Video phone face area detection and its effect” of Image Lab 1991-11 (1991) To extract a frontal portrait using GIS.

上記のような顔領域の検知方法のいずれかの方法を用いて、ファインダモード時のデジタルスチルカメラの画像データを用いて顔検知を行い、顔領域が検知された場合(S14−3でYes)、検知された顔エリアを選択し、その顔エリアと重なる測距エリアを、測距ユニット5から出力される距離分布と比較し、抽出する(S14−4)。   When face detection is performed using image data of a digital still camera in the viewfinder mode using any one of the face area detection methods as described above (Yes in S14-3). Then, the detected face area is selected, and the distance measurement area overlapping the face area is compared with the distance distribution output from the distance measurement unit 5 and extracted (S14-4).

図19Aが、顔エリアが検出できたときの状態である。ここでは4人の顔を検知しており、その顔エリアA〜Dに近い測距エリア部分について、その測距結果の平均値をそれぞれ算出する。そして、その値を測距演算結果として(図19D)、SDRAM103へ保存しておく。   FIG. 19A shows a state when a face area has been detected. Here, four faces are detected, and the average value of the distance measurement results is calculated for each distance measurement area portion close to the face areas A to D. Then, the value is stored in the SDRAM 103 as a distance measurement calculation result (FIG. 19D).

一方、顔が検出されなかった場合(S14−3でNo)、第1の実施例と同様に、測距処理(S14−1)で測距された距離分布から、各測距エリアにおいて距離が近いものは同じ被写体であると判定し(S14−6)、そのエリアを合成する処理を行う(S14−7)。そして合成した各エリアとその距離分布を表示するエリア表示処理を行う(S14−5)。なお、実施例1と同様に本実施例でも、各エリアの測距結果(ここでは合成された各測距エリアの測距結果の平均値)を示す距離分布もインジゲータ表示するようにしている。これによってユーザは距離分布がどのようになっているかを確認することができる。本実施例では色分けしていないが、実際にはこの各エリアとその距離分布を対応づけて色で区別するようにするとより被写体のエリアと距離の関係をユーザに示すことが可能となる。   On the other hand, if no face is detected (No in S14-3), the distance in each distance measurement area is determined from the distance distribution measured in the distance measurement process (S14-1), as in the first embodiment. It is determined that close subjects are the same subject (S14-6), and processing for combining the areas is performed (S14-7). Then, area display processing for displaying each synthesized area and its distance distribution is performed (S14-5). As in the first embodiment, in this embodiment, the distance distribution indicating the distance measurement result of each area (here, the average value of the distance measurement results of the combined distance measurement areas) is also displayed as an indicator. This allows the user to check how the distance distribution is. In this embodiment, although not color-coded, in actuality, if each area and its distance distribution are associated with each other and distinguished by color, the relationship between the area of the subject and the distance can be shown to the user.

次に、エリア設定処理(S14−8)において、表示されたエリアとその距離から、撮影時に所望とするフォーカスエリアを選択するエリア設定処理を行う。これは実際に測距した結果は、背景や不必要な領域も測距しているため、そのエリアを任意に削除するためのものである。この処理は、前述の第1の実施例にて図13を用いて説明した同処理と同様であるので、ここではその説明を省略する。   Next, in an area setting process (S14-8), an area setting process for selecting a desired focus area at the time of shooting is performed from the displayed area and its distance. This is because the result of actual distance measurement is that the background and unnecessary areas are also measured, so that area is arbitrarily deleted. Since this process is the same as the process described with reference to FIG. 13 in the first embodiment, the description thereof is omitted here.

図19Bは、削除対象となるエリアが選択されている状態を示している。この図においても、削除対象となるエリアを破線で表わし、そうでないものを実線で表している。図19Cは、削除後のエリアと距離分布を示している。なお、本実施例においても、各エリアの距離が近い場合(被写界深度内のもの)は、第1の実施例で説明したように処理するとよい。   FIG. 19B shows a state where an area to be deleted is selected. Also in this figure, the area to be deleted is represented by a broken line, and the other areas are represented by a solid line. FIG. 19C shows the area and distance distribution after deletion. Also in the present embodiment, when the distance between the areas is short (within the depth of field), the processing is preferably performed as described in the first embodiment.

次いで、上記エリア設定処理(S14−8)で設定された複数エリアの測距結果を用いて、距離リストを作成する(S14−9)。図19Cのシーンに関しては2つの顔エリア(4人の顔を検出しているが、エリア設定処理にて2つ除外したため)を抽出しているので、その2つのエリアの距離データを抽出する。図19Eはそのときの距離のリストである。   Next, a distance list is created using the distance measurement results of a plurality of areas set in the area setting process (S14-8) (S14-9). With respect to the scene of FIG. 19C, since two face areas (the faces of four people are detected but are excluded in the area setting process) are extracted, the distance data of the two areas is extracted. FIG. 19E is a list of distances at that time.

距離のリストが作成され(S14−10のYes)、レリーズスイッチSW1が押下された場合(14−11のYes)には、作成された距離リストに基づいて高速連続撮影を行う連続撮影処理へと入る(S14−12)。この連続撮影処理の開始は、レリーズスイッチSW1の押下に代えて、例えば、LCDモニタ10に表示された撮像画面上に表示させたフォーカスエリアの枠のいずれかがタッチパネルを介してタップまたはタッチされると開始するようにしてもよいし、その他のスイッチ操作に応じて開始するようにしてもよい。   When a list of distances is created (Yes in S14-10) and the release switch SW1 is pressed (Yes in 14-11), a continuous shooting process for performing high-speed continuous shooting based on the created distance list is performed. Enter (S14-12). For example, instead of pressing the release switch SW1, the continuous shooting process is started by tapping or touching one of the focus area frames displayed on the imaging screen displayed on the LCD monitor 10 via the touch panel. Or may be started in response to other switch operations.

本実施例においても、第1の実施例と同様に、距離リストの距離データから、各フォーカスレンズ7−2aの合焦位置へ変換し、その位置へフォーカスレンズを移動してから撮影することを各距離について順次行う。こうすることで、ユーザが所望とする距離のみ、山登りAF動作をせずに、より高速な高速連続撮影をすることが可能となり、高速連続撮影での処理時間を削減させることが可能となる。本実施例では特に顔領域を検知しているが、実際のデジタルスチルカメラでは顔優先モードを用意し、顔領域を判別するか、またはそれ以外の被写体も判別するかを切り替えられるようにしておくと尚良い。また、露光に関しては、事前にファインダモード時に、測距ユニット5以外のデジタルスチルカメラ内で測光した結果を用いて撮影しても、測距ユニット5での測光結果を用いて撮影しても良いが、高速性を配慮する2次元撮像素子を用いた測距ユニット5からの測光結果を用いたほうが、撮影にかかる処理が速くなる。また、測距ユニット5からの測光結果を用いることで、シャッターチャンスを逃さないという効果を奏する。   In this embodiment, as in the first embodiment, the distance data in the distance list is converted to the focus position of each focus lens 7-2a, and the focus lens is moved to that position before shooting. Repeat for each distance. By doing so, it is possible to perform high-speed continuous shooting at a high speed without performing a hill-climbing AF operation only for a distance desired by the user, and it is possible to reduce processing time in high-speed continuous shooting. In this embodiment, the face area is particularly detected. However, an actual digital still camera has a face priority mode so that the face area can be discriminated or another subject can be discriminated. And still better. In addition, regarding exposure, in the finder mode in advance, shooting may be performed using the result of light metering in a digital still camera other than the distance measuring unit 5 or using the result of light metering in the distance measuring unit 5. However, the use of the photometric result from the distance measuring unit 5 using a two-dimensional image sensor that takes high speed into consideration speeds up the processing for photographing. Further, by using the photometric result from the distance measuring unit 5, there is an effect that a photo opportunity is not missed.

また、特定の測距エリアの合焦位置での高速連続撮影を行えばよいので、ユーザにとって不要な画像が排除され、その結果連続撮影枚数を最適化できる。   In addition, since high-speed continuous shooting at a focus position in a specific distance measurement area may be performed, images unnecessary for the user are eliminated, and as a result, the number of continuous shots can be optimized.

以上、本実施形態のデジタルスチルカメラにおける高速連続撮影処理の第2の実施例について説明した。   The second example of the high-speed continuous shooting process in the digital still camera of the present embodiment has been described above.

1 サブ液晶ディスプレイ
2 メモリカード装填室および電池装填室の蓋
3 ストロボ発光部
4 光学ファインダ
5 測距ユニット
6 リモコン受光部
7 鏡胴ユニット
8 AF用LED
9 ストロボLED
10 LCDモニタ
13 電源スイッチ
SW1 レリーズスイッチ
SW2 モードダイアル
SW3 広角方向ズームスイッチ
SW4 望遠方向ズームスイッチ
SW5 セルフタイマの設定および解除スイッチ
SW6 メニュースイッチ
SW7 上移動およびストロボセットスイッチ
SW8 右移動スイッチ
SW9 ディスプレイスイッチ
SW10 下移動およびマクロスイッチ
SW11 左移動および画像確認スイッチ
SW12 OKスイッチ
SW13 クイックアクセススイッチ
101 CCD
102 F/E−IC
103 SDRAM
104 デジタルスチルカメラプロセッサ
107 RAM
108 ROM
109 サブCPU(SUB−CPU)
111 LCDドライバ
113 ブザー
117 LCDドライバ
118 ビデオアンプ
119 ビデオジャック
120 内蔵メモリ
121 メモリカードスロット
122 USBコネクタ
DESCRIPTION OF SYMBOLS 1 Sub-liquid crystal display 2 Cover of memory card loading chamber and battery loading chamber 3 Strobe light emitting unit 4 Optical finder 5 Distance measuring unit 6 Remote control light receiving unit 7 Lens barrel unit 8 LED for AF
9 Strobe LED
10 LCD monitor 13 Power switch SW1 Release switch SW2 Mode dial SW3 Wide-angle zoom switch SW4 Tele-zoom switch SW5 Self-timer setting and release switch SW6 Menu switch SW7 Up and strobe set switch SW8 Right switch SW9 Display switch SW10 Down And macro switch SW11 Left shift and image confirmation switch SW12 OK switch SW13 Quick access switch 101 CCD
102 F / E-IC
103 SDRAM
104 Digital still camera processor 107 RAM
108 ROM
109 Sub CPU (SUB-CPU)
111 LCD Driver 113 Buzzer 117 LCD Driver 118 Video Amplifier 119 Video Jack 120 Internal Memory 121 Memory Card Slot 122 USB Connector

特公昭39−5265号公報Japanese Examined Patent Publication No. 39-5265 特開平04−158322号公報Japanese Patent Laid-Open No. 04-158322

Claims (8)

レンズを介して被写体像を電気信号に変換する撮像手段と、
前記撮像手段により撮像した画像を表示する画像表示手段と、
写体までの距離を測距する測距手段と、
前記測距手段から出力される測距結果から算出される複数の測距エリアを設定する測距エリア設定手段と、
前記測距エリア設定手段により設定された前記複数の測距エリアのうち互いに前記距離が近い隣接する測距エリアを合成し、合成したエリアと該エリアに係る距離情報とを、前記画像表示手段により表示される画像上に表示するエリア表示手段と、
前記合成したエリアのうち前記画像表示手段に表示する合成エリアを所定の条件に従って削除するとともに前記距離情報を削除後の合成エリアに係る距離情報変更するエリア表示変更手段と、
前記エリア表示変更手段により設定された複数の前記合成エリアに基づき合焦位置を選択する合焦位置決定手段と、
前記合焦位置決定手段により選択された合焦位置における撮影を行う連続撮影制御手段と、を備える
ことを特徴とする撮像装置。
Imaging means for converting a subject image into an electrical signal via a lens;
Image display means for displaying an image captured by the imaging means;
A distance measuring means for ranging the distance to the Utsushitai,
Ranging area setting means for setting a plurality of ranging areas calculated from the ranging results output from the ranging means;
Among the plurality of distance measurement areas set by the distance measurement area setting means, adjacent distance measurement areas that are close to each other are combined, and the combined area and distance information related to the areas are combined by the image display means. Area display means for displaying on the displayed image;
An area display change means for changing the distance information on the distance information relating to the synthesis area after the deletion is deleted according to a predetermined condition synthesis area to be displayed on the image display means among the area for which the synthesized,
An in-focus position determining means for selecting an in-focus position based on the plurality of composite areas set by the area display changing means ;
An imaging apparatus comprising: continuous shooting control means for shooting at each focusing position selected by the focusing position determination means.
前記撮像手段により撮像した画像から顔領域を検出する顔領域検出手段をさらに備え、前記顔領域検出手段により顔領域が検出された場合、前記エリア表示手段は、前記顔領域検出手段により検出された顔領域と該顔領域に係る距離情報とを、前記画像表示手段に表示される画像上に表示することを特徴とする請求項1に記載の撮像装置。   The image processing apparatus further includes a face area detection unit that detects a face area from an image captured by the imaging unit. When the face area is detected by the face area detection unit, the area display unit is detected by the face area detection unit. The imaging apparatus according to claim 1, wherein a face area and distance information related to the face area are displayed on an image displayed on the image display unit. ユーザ操作を受け付ける操作手段をさらに備え、前記エリア表示変更手段は、前記所定の条件に従った変更としてユーザ操作による指示に従って、該ユーザ操作により選択されたエリアを削除対象として、当該エリアおよびその距離情報の表示態様を変更することを特徴とする請求項1または請求項2に記載の撮像装置。   An operation means for accepting a user operation is further provided, wherein the area display changing means sets the area selected by the user operation as a deletion target according to an instruction by the user operation as a change according to the predetermined condition, and the area and its distance The imaging apparatus according to claim 1 or 2, wherein a display mode of information is changed. 前記エリア表示変更手段は、前記所定の条件として前記エリア表示手段により表示されるエリアの前記距離が互いに近いか否かを条件とし、互いに近いエリアを同一の表示態様に変更することを特徴とする請求項1から請求項3のいずれか1項に記載の撮像装置。   The area display changing means changes the areas close to each other to the same display mode on the condition that the distances of the areas displayed by the area display means are close to each other as the predetermined condition. The imaging device according to any one of claims 1 to 3. レンズを介して被写体像を電気信号に変換する撮像手段と、前記撮像手段により撮像した画像を表示する画像表示手段と、被写体までの距離を測距する測距手段と、を備える撮像装置に対し、該撮像装置を制御する制御手段が、
測距エリア設定手段として、前記測距手段から出力される測距結果から算出される複数の測距エリアを設定し、
エリア表示手段として、前記測距エリア設定手段により設定された前記複数の測距エリアのうち互いに前記距離が近い隣接する測距エリアを合成し、合成したエリアと該エリアに係る距離情報とを、前記画像表示手段により表示される画像上に表示し、
エリア表示変更手段として、前記合成したエリアのうち前記画像表示手段に表示する合成エリアを所定の条件に従って削除するとともに前記距離情報を削除後の合成エリアに係る距離情報変更し、
合焦位置決定手段として、前記エリア表示変更手段により設定された複数の前記合成エリアに基づき合焦位置を選択し、
連続撮影制御手段として、前記合焦位置決定手段により選択された合焦位置における撮影を行う
ことを特徴とする撮像方法。
Imaging apparatus including imaging means for converting an object image into an electrical signal through the lens, and image display means for displaying the image captured by the imaging unit, a distance measuring means for ranging the distance to the Utsushitai, the On the other hand, the control means for controlling the imaging device
As the distance measurement area setting means, a plurality of distance measurement areas calculated from the distance measurement results output from the distance measurement means are set,
As an area display means, among the plurality of distance measurement areas set by the distance measurement area setting means, the adjacent distance measurement areas that are close to each other are synthesized, and the synthesized area and the distance information related to the area are combined. Displaying on the image displayed by the image display means,
As an area display change means changes the distance information together with the delete accordance synthesized predetermined condition synthesis area to be displayed on the image display unit of the area the distance information relating to the synthesis area after the deletion,
As a focus position determining means, a focus position is selected based on the plurality of composite areas set by the area display changing means ,
An imaging method characterized in that imaging is performed at each in- focus position selected by the in-focus position determining unit as the continuous imaging control unit.
前記制御手段は、顔領域検出手段として、前記撮像手段により撮像した画像から顔領域を検出し、前記顔領域検出手段により顔領域が検出された場合、前記顔領域検出手段により顔領域が検出された場合、前記エリア表示手段は、前記顔領域検出手段により検出された顔領域と該顔領域に係る距離情報とを、前記画像表示手段に表示される画像上に表示することを特徴とする請求項5に記載の撮像方法。   The control means detects the face area from the image captured by the imaging means as the face area detection means, and when the face area is detected by the face area detection means, the face area is detected by the face area detection means. In this case, the area display means displays the face area detected by the face area detection means and distance information related to the face area on an image displayed on the image display means. Item 6. The imaging method according to Item 5. 前記撮像装置は、ユーザ操作を受け付ける操作手段をさらに備えており、前記エリア表示変更手段としての前記制御手段は、前記所定の条件に従った変更としてユーザ操作による指示に従って、該ユーザ操作により選択されたエリアを削除対象として、当該エリアおよびその距離情報の表示態様を変更することを特徴とする請求項5または請求項6に記載の撮像方法。   The imaging apparatus further includes an operation unit that receives a user operation, and the control unit as the area display change unit is selected by the user operation according to an instruction by the user operation as a change according to the predetermined condition. The imaging method according to claim 5 or 6, wherein a display mode of the area and its distance information is changed with the area as a deletion target. 前記エリア表示変更手段としての前記制御手段は、前記所定の条件として前記エリア表示手段により表示されるエリアの前記距離が互いに近いか否かを条件とし、互いに近いエリアを同一の表示態様に変更することを特徴とする請求項5から請求項7のいずれか1項に記載の撮像方法。   The control means as the area display changing means changes the close areas to the same display mode on the condition that the distances of the areas displayed by the area display means are close to each other as the predetermined condition. The imaging method according to any one of claims 5 to 7, wherein:
JP2011174393A 2011-08-09 2011-08-09 Imaging apparatus and imaging method Active JP5870533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011174393A JP5870533B2 (en) 2011-08-09 2011-08-09 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011174393A JP5870533B2 (en) 2011-08-09 2011-08-09 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2013037246A JP2013037246A (en) 2013-02-21
JP5870533B2 true JP5870533B2 (en) 2016-03-01

Family

ID=47886888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011174393A Active JP5870533B2 (en) 2011-08-09 2011-08-09 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5870533B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6245885B2 (en) * 2013-08-02 2017-12-13 キヤノン株式会社 Imaging apparatus and control method thereof
CN107850753B (en) * 2015-08-31 2021-10-29 索尼公司 Detection apparatus, detection method, detection program, and imaging apparatus
JP6603206B2 (en) * 2016-12-28 2019-11-06 オリンパス株式会社 Imaging device, imaging device control method, imaging device system, and imaging device control program
US11467371B2 (en) 2018-03-30 2022-10-11 Sony Corporation Imaging device and control method thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3966461B2 (en) * 2002-08-09 2007-08-29 株式会社リコー Electronic camera device
JP2004096641A (en) * 2002-09-03 2004-03-25 Canon Inc Imaging apparatus and its control method
JP2004317917A (en) * 2003-04-18 2004-11-11 Minolta Co Ltd Imaging apparatus
JP4654874B2 (en) * 2005-10-17 2011-03-23 株式会社ニコン Subject analysis device, imaging device, and image processing program
JP2007233170A (en) * 2006-03-02 2007-09-13 Nikon Corp Focus detector and camera
JP4264660B2 (en) * 2006-06-09 2009-05-20 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4767904B2 (en) * 2007-05-10 2011-09-07 富士フイルム株式会社 Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP2013037246A (en) 2013-02-21

Similar Documents

Publication Publication Date Title
JP5834410B2 (en) Imaging apparatus and imaging method
TWI399082B (en) Display control device, display control method and program
TWI465107B (en) Image capturing apparatus capable of displaying live preview image
EP2525565B1 (en) Digital photographing apparatus and method of controlling the same to increase continuous shooting speed for capturing panoramic photographs
JP4644883B2 (en) Imaging device
KR101700366B1 (en) Digital photographing apparatus and control method thereof
JP2008170932A (en) Imaging device, method for controlling exposure of imaging device
JP6172428B2 (en) Imaging apparatus and imaging method
KR20120025872A (en) Digital photographing apparatus and method for controlling the same
JP4780205B2 (en) Imaging device, angle of view adjustment method, and program
US8687047B2 (en) Compound-eye imaging apparatus
JP2007215091A (en) Imaging apparatus and program therefor
JP5870533B2 (en) Imaging apparatus and imaging method
JP2011223294A (en) Imaging apparatus
JP2010200196A (en) Imaging apparatus, auto-focusing method, and program
JP5857610B2 (en) Imaging apparatus and imaging method
KR20120011920A (en) Digital image signal processing apparatus, digital image signal processing method and medium for recording the method
CN101834997A (en) The method of digital image processing apparatus and this digital image processing apparatus of control
JP2010016695A (en) Electronic camera and image processing program
JP2007225897A (en) Focusing position determination device and method
JP2012093409A (en) Image-pickup device and image-pickup method
KR20110090610A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2002044495A (en) Electronic camera
JP5846928B2 (en) Imaging device
JP5625325B2 (en) Image data recording apparatus and image data recording program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R151 Written notification of patent or utility model registration

Ref document number: 5870533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151