JPH06153067A - Video camera and its photometric method - Google Patents

Video camera and its photometric method

Info

Publication number
JPH06153067A
JPH06153067A JP4314365A JP31436592A JPH06153067A JP H06153067 A JPH06153067 A JP H06153067A JP 4314365 A JP4314365 A JP 4314365A JP 31436592 A JP31436592 A JP 31436592A JP H06153067 A JPH06153067 A JP H06153067A
Authority
JP
Japan
Prior art keywords
area
photometric
divided
focusing control
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4314365A
Other languages
Japanese (ja)
Inventor
Minoru Arai
実 荒井
Kiyotaka Kaneko
清隆 金子
Takashi Soga
孝 曽我
Juichi Fukada
重一 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP4314365A priority Critical patent/JPH06153067A/en
Publication of JPH06153067A publication Critical patent/JPH06153067A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To calculate a photometric value by setting this area to be a partial photometric area by executing focus-control based on the high-frequency components not less than an extracted prescribed level. CONSTITUTION:A photometric sensor 26 and a range finding sensor 27 are provided respectively for preparatory photometry and preparatory range finding, data is given to CPU 3 and a diaphragm value and a shutter speed are controlled to decide an exposure to CCD 4. Besides, a lens 25 is positioned near a focusing position with an image pickup lens driving device 25. By preparatory photographing, the calculation of the photometric value and accurate exposure control are executed through the use of a video signal from CCD 4 and highly- accurate focusing control is executed based on the high-frequency component for focus control by extraction from the video signal. The output of a gain control and blanking circuit 12 is inputted to a gate circuit 19 and controlled by a signal WIND 2 from CPU 3. The output signal of the circuit 12 is inputted to BPF 20 by way of the circuit 19 in a period when the signal WIND 2 is given during a prescribed horizontal scanning period. Thus, the photometric value is calculated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は,固体電子撮像素子か
ら得られる映像信号を用いて被写体の測光を行ない,露
光条件を定めるビデオ・カメラ(スチル/ムービ・ビデ
オ・カメラおよびスチル・ビデオ・カメラを含む)およ
びその測光方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video camera (still / movie video camera and still video camera) which determines an exposure condition by performing photometry of an object using a video signal obtained from a solid-state electronic image pickup device. And the photometric method thereof.

【0002】[0002]

【背景技術】自動露光(いわゆるAE)機能をもつカメ
ラにおいては,露光条件を定めるために測光が必要であ
る。測光のために種々の方式がある。その1つはカメラ
の前面に測光素子を配置するものである。この方式は構
成が簡単であるが,測光領域が撮影領域と一致しないと
いう本質的な問題を内包している。とくにズーム・レン
ズを用いて視野を変更する場合にこの問題は顕著に現わ
れる。この問題を解決するためには撮像系のズーム・レ
ンズに連動して測光素子の測光領域を変更する必要があ
り,そのために大がかりな機構が必要となる。
BACKGROUND ART In a camera having an automatic exposure (so-called AE) function, photometry is necessary to determine an exposure condition. There are various methods for photometry. One of them is to arrange a photometric element in front of the camera. Although this method has a simple configuration, it has an essential problem that the photometric area does not match the shooting area. This problem is particularly noticeable when the field of view is changed using a zoom lens. In order to solve this problem, it is necessary to change the photometric area of the photometric element in conjunction with the zoom lens of the imaging system, which requires a large-scale mechanism.

【0003】測光素子を撮像光学系内に組込み,測光領
域を撮像領域と一致させる方式(いわゆるTTL測光)
もある。この方式では撮像光学系内にビーム・スプリッ
タ,光路変更素子等が必要であり,光学系の大型化と感
度の低下を招く。また,ミラーを用いた場合には耐久
性,信頼性の点で問題がある。
A method in which a photometric element is incorporated in the image pickup optical system so that the photometric area coincides with the image pickup area (so-called TTL photometry).
There is also. This method requires a beam splitter, an optical path changing element, etc. in the imaging optical system, which leads to an increase in the size of the optical system and a decrease in sensitivity. Moreover, when a mirror is used, there are problems in terms of durability and reliability.

【0004】そこで,固体電子撮像素子(CCD等)を
備え,被写体像を表わす映像信号を得るビデオ・カメラ
においては,固体電子撮像素子から出力される映像信号
を適当な測光領域にわたって積分することにより測光値
を求める方式が考えられている。この方式によると,撮
像領域と測光領域が完全に一致し,しかも大型化を招く
余分な光学系を必要としないという利点がある。また,
固体電子撮像素子から得られる映像信号の電気的な処理
により,平均的な測光,部分的な測光,分割測光等のバ
リエーションが可能であり,様々な撮影領域に対応した
露光条件の設定が可能となって応用範囲が広がる。
Therefore, in a video camera equipped with a solid-state electronic image pickup device (CCD or the like) to obtain a video signal representing a subject image, the video signal output from the solid-state electronic image pickup device is integrated over an appropriate photometric region. A method of obtaining a photometric value is considered. According to this method, there is an advantage that the image pickup area and the photometric area are completely coincident with each other, and an extra optical system for increasing the size is not required. Also,
By electrical processing of the video signal obtained from the solid-state electronic image sensor, variations such as average photometry, partial photometry, and split photometry are possible, and it is possible to set the exposure conditions corresponding to various shooting areas. The range of applications expands.

【0005】また固体電子撮像素子から出力される映像
信号から合焦制御のための高周波信号成分を抽出し,適
当な合焦検出領域にわたって積分することにより撮像レ
ンズの合焦制御を行なう方式も考えられている。
A method of controlling the focus of the image pickup lens by extracting a high-frequency signal component for focus control from the video signal output from the solid-state electronic image sensor and integrating it over an appropriate focus detection area is also considered. Has been.

【0006】しかしながら,分割測光を行なった場合,
分割測光領域と合焦検出領域とが一致せず,合焦検出に
用いた領域における測光値と分割測光に用いた領域にお
ける測光値とがきわめて異なると,撮影画像にいわゆる
白とびが生じることがあり適正な画像が得られない。
However, when the divided photometry is performed,
If the split photometric area and the focus detection area do not match and the photometric value in the area used for focus detection and the photometric value in the area used for split photometry are extremely different, so-called overexposure may occur in the captured image. Yes Proper image cannot be obtained.

【0007】[0007]

【発明の開示】この発明は,分割測光に用いられる領域
と合焦制御に用いられる領域とを一致させることを目的
とする。
DISCLOSURE OF THE INVENTION An object of the present invention is to match the area used for divided photometry with the area used for focus control.

【0008】この発明のビデオ・カメラの測光方法は,
撮像レンズを用いて被写体像を結像する撮像光学系を含
むビデオ・カメラにおいて,撮影領域内にあらかじめ複
数の分割領域を設定し,上記複数の分割領域における画
像を表わすそれぞれの映像信号から上記撮像レンズの合
焦制御のための高周波信号成分をそれぞれ抽出し,上記
複数の分割領域のうち合焦制御に用いるいずれかの分割
領域を決定し,決定した分割領域における画像を表わす
映像信号から抽出された合焦制御のための上記高周波信
号成分に基づいて上記撮像レンズの合焦制御を行ない,
決定した分割領域における画像を表わす映像信号から輝
度信号に関する成分を抽出し,抽出した輝度信号に関す
る成分に基づいて測光値を算定することを特徴とする。
The photometric method of the video camera of the present invention is as follows:
In a video camera including an image pickup optical system for forming a subject image using an image pickup lens, a plurality of divided areas are set in advance in a shooting area, and the image pickup is performed from each video signal representing an image in the plurality of divided areas. A high-frequency signal component for focus control of the lens is extracted, and one of the plurality of divided regions to be used for focus control is determined, and extracted from a video signal representing an image in the determined divided region. Focusing control of the imaging lens is performed based on the high frequency signal component for focusing control,
It is characterized in that a component related to a luminance signal is extracted from a video signal representing an image in the determined divided area, and a photometric value is calculated based on the extracted component related to the luminance signal.

【0009】またこの発明は,撮像レンズを用いて被写
体像を結像する撮像光学系を含むビデオ・カメラにおい
て,複数の分割領域を撮影領域内に設定する分割領域設
定手段,上記複数の分割領域における画像を表わすそれ
ぞれの映像信号から上記撮像レンズの合焦制御のための
高周波信号成分をそれぞれ抽出する高周波信号成分抽出
手段,上記複数の分割領域のうち合焦制御に用いるいず
れかの分割領域を決定する分割領域決定手段,決定した
分割領域における画像を表わす映像信号から抽出された
合焦制御のための上記高周波信号成分に基づいて上記撮
像レンズの合焦制御を行なう合焦制御手段,決定した分
割領域における画像を表わす映像信号から輝度信号に関
する成分を抽出する輝度信号成分抽出手段,および抽出
した輝度信号に関する成分に基づいて測光値を算定する
測光値算定手段を備えていることを特徴とする。
Further, according to the present invention, in a video camera including an image pickup optical system for forming a subject image using an image pickup lens, divided area setting means for setting a plurality of divided areas within a photographing area, and the plurality of divided areas. A high-frequency signal component extracting means for extracting a high-frequency signal component for focusing control of the image pickup lens from each video signal representing the image in FIG. Divided area determining means for determining, focusing control means for performing focusing control of the imaging lens based on the high frequency signal component for focusing control extracted from a video signal representing an image in the determined divided area, determined Luminance signal component extraction means for extracting a component relating to a luminance signal from a video signal representing an image in a divided area, and Characterized in that it comprises a photometric value calculating means for calculating a photometric value on the basis of that component.

【0010】この発明によると,撮影領域内に複数の分
割領域が設定される。これらの分割領域のうち合焦制御
に用いる分割領域が決定され,決定された分割領域の画
像を表わす映像信号から抽出される合焦制御のための高
周波信号成分に基づいて撮像レンズの合焦制御が行なわ
れる。また決定された分割領域の画像を表わす映像信号
から抽出される輝度信号に関する成分に基づいて測光値
が算定される。
According to the present invention, a plurality of divided areas are set within the photographing area. Of these divided areas, a divided area to be used for focus control is determined, and focusing control of the imaging lens is performed based on a high-frequency signal component for focus control extracted from a video signal representing an image of the determined divided area. Is performed. Further, the photometric value is calculated based on the component relating to the luminance signal extracted from the video signal representing the image of the determined divided area.

【0011】合焦制御に用いられる分割領域と測光値算
定に用いられる分割領域とは一致しており,分割領域ご
との測光値が異なる場合でも適正な画像が得られる。
The divided areas used for focus control and the divided areas used for calculating the photometric value match, and an appropriate image can be obtained even when the photometric value differs for each divided area.

【0012】上記において合焦制御に用いる分割領域の
決定は,上記複数の分割領域のうち上記撮影領域のほぼ
中央にある分割領域の画像を表わす映像信号から得られ
る上記高周波信号成分のレベルが所定レベル以上のとき
は上記撮影領域のほぼ中央にある分割領域を,合焦制御
に用いる分割領域と決定し,上記撮影領域のほぼ中央に
ある分割領域の画像を表わす映像信号から得られる合焦
制御のための高周波信号成分のレベルが所定レベル未満
のときは上記撮影領域のほぼ中央にある分割領域以外の
分割領域であって,それぞれの分割領域の画像を表わす
映像信号から得られる上記高周波信号成分のレベルが所
定レベル以上の分割領域を合焦制御に用いる分割領域と
して決定することが好ましい。
In the above, the division area used for the focus control is determined by determining the level of the high frequency signal component obtained from the video signal representing the image of the division area in the center of the photographing area among the plurality of division areas. When the level is equal to or higher than the level, the divided area in the center of the photographing area is determined as the divided area to be used for focusing control, and the focusing control obtained from the video signal representing the image of the divided area in the center of the photographing area is determined. If the level of the high-frequency signal component for is less than a predetermined level, the high-frequency signal component is obtained from a video signal representing an image of each divided region, other than the divided region in the center of the photographing region. It is preferable to determine a divided area whose level is equal to or higher than a predetermined level as a divided area used for focus control.

【0013】また上記撮影領域のほぼ中央の領域に存在
する被写体までの距離を測定する予備測距を行ない,上
記予備測距により得られる上記被写体までの距離につい
てのデータに基づいて,上記撮像レンズの予備的な合焦
制御を行ない,その後上記分割領域の設定,上記合焦制
御のための高周波信号成分の抽出処理,上記合焦制御に
用いる分割領域の決定処理,上記高周波信号成分に基づ
く上記撮像レンズの合焦制御処理,上記輝度信号に関す
る成分の抽出処理,および上記測光値算定処理を行なう
ことがよい。
Preliminary distance measurement is performed to measure the distance to the object existing in the center of the photographing area, and the image pickup lens is obtained based on the data about the distance to the object obtained by the preliminary distance measurement. Preliminary focus control is performed, then the divided areas are set, the high-frequency signal component extraction processing for the focus control, the divided area determination processing used for the focus control, the high-frequency signal component based Focusing control processing of the imaging lens, extraction processing of the component relating to the luminance signal, and the photometric value calculation processing may be performed.

【0014】[0014]

【実施例】以下,この発明をディジタル・スチル・カメ
ラに適用した実施例について,図面を参照しながら詳細
を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment in which the present invention is applied to a digital still camera will be described below in detail with reference to the drawings.

【0015】図1は,この発明の実施例のディジタル・
スチル・カメラの電気的構成を示すブロック図である。
FIG. 1 is a block diagram of a digital circuit of an embodiment of the present invention.
It is a block diagram which shows the electric constitution of a still camera.

【0016】撮像光学系には,撮像レンズ24,絞り(図
示略)および固体電子撮像素子(イメージ・センサ)と
してのCCD4が含まれる。必要ならば機械的シャッタ
が設けられるが,一般的にはシャッタ機能はCCD4の
制御によって実現される電子シャッタによって達成され
る。撮像レンズ24は被写体像をCCD4に結像させるも
ので,CPU3によって制御される撮像レンズ駆動装置
25によって移動され合焦位置に位置決めされる。
The image pickup optical system includes an image pickup lens 24, a diaphragm (not shown), and a CCD 4 as a solid-state electronic image pickup device (image sensor). A mechanical shutter is provided if necessary, but generally the shutter function is achieved by an electronic shutter realized by the control of the CCD 4. The image pickup lens 24 forms an object image on the CCD 4, and the image pickup lens drive device controlled by the CPU 3
It is moved by 25 and positioned at the in-focus position.

【0017】この実施例では予備測光のために測光セン
サ26が,予備測距のために測距センサ27がそれぞれ設け
られており,これらのセンサ26および27による測光デー
タおよび測距データはCPU3に与えられる。測距セン
サ27による測距領域は図3に示すように撮影領域のほぼ
中央にあり,後述する第2の分割領域SP2 内に含まれ
る。CPU3は測光センサ26から得られる測光データに
基づいて,絞り値およびシャッタ速度の少なくとも一方
を制御することによりCCD4への露光量がほぼ妥当な
範囲内に入るようにする。CPU3はまた,測距センサ
27からの測距データに基づいて撮像レンズ駆動装置25を
介して撮像レンズ24を合焦位置の付近に位置決めする。
In this embodiment, a photometric sensor 26 is provided for preliminary photometry, and a range finding sensor 27 is provided for preliminary range finding. The photometric data and range finding data from these sensors 26 and 27 are stored in the CPU 3. Given. The distance measuring area by the distance measuring sensor 27 is substantially in the center of the photographing area as shown in FIG. 3, and is included in the second divided area SP 2 described later. The CPU 3 controls at least one of the aperture value and the shutter speed on the basis of the photometric data obtained from the photometric sensor 26 so that the exposure amount to the CCD 4 falls within an appropriate range. CPU3 is also a distance measuring sensor
The image pickup lens 24 is positioned near the in-focus position via the image pickup lens driving device 25 based on the distance measurement data from 27.

【0018】このような予備測光に基づく概略的な露光
量調整および予備測距に基づく概略的な合焦制御ののち
に,予備撮影が行なわれる。この予備撮影によってCC
D4から得られる映像信号を利用して測光値の算出と精
密な露光制御,および映像信号から抽出した合焦制御の
ための高周波信号成分に基づく精度の高い合焦制御が行
なわれることになる。
After the rough exposure amount adjustment based on the preliminary photometry and the approximate focusing control based on the preliminary distance measurement, the preliminary photographing is performed. CC by this preliminary shooting
By using the video signal obtained from D4, calculation of a photometric value and precise exposure control, and highly accurate focusing control based on the high frequency signal component for focusing control extracted from the video signal are performed.

【0019】ディジタル・スチル・カメラでは図3に示
すように撮影領域内に複数の分割領域が設定される。こ
れらの分割領域が合焦制御のための合焦制御領域であ
り,かつ測光値算定のための分割測光領域となる。
In the digital still camera, a plurality of divided areas are set in the photographing area as shown in FIG. These divided areas are the focus control area for focus control and the divided photometry area for calculating the photometric value.

【0020】映像信号から抽出された高周波信号成分の
うち,撮影領域のほぼ中央の分割領域から得られる高周
波信号成分のレベルが所定レベル以上のときにはその高
周波信号成分に基づいて,撮像レンズの精密な合焦制御
が行なわれる。撮影領域のほぼ中央の分割領域から得ら
れる高周波信号成分のレベルが所定レベルより低いとき
には,撮影領域のほぼ中央の分割領域以外の分割領域で
あって,所定レベル以上の高周波信号成分が得られる分
割領域が合焦検出領域として決定され,この合焦検出領
域から得られる高周波信号成分に基づいて,撮像レンズ
の合焦制御が行なわれる。これらの高精度の露光制御お
よび合焦制御については後に詳述する。
Of the high frequency signal components extracted from the video signal, when the level of the high frequency signal component obtained from the substantially central divided area of the photographing area is equal to or higher than a predetermined level, the precision of the imaging lens Focus control is performed. When the level of the high-frequency signal component obtained from the substantially central divided area of the photographing area is lower than a predetermined level, the divided areas other than the substantially central divided area of the photographing area are divided such that a high-frequency signal component of a predetermined level or higher is obtained. The area is determined as the focus detection area, and the focus control of the imaging lens is performed based on the high frequency signal component obtained from the focus detection area. These highly accurate exposure control and focusing control will be described in detail later.

【0021】クロック信号発生回路(以下,CGとい
う)1は,クロック信号CLK,CCD4の水平転送路
を駆動するための水平転送パルスH,不要電荷掃出しの
ための基板抜きパルスSUB,Aフィールド垂直転送パ
ルスVAおよびBフィールド垂直転送パルスVBを発生
する。さらに,CG1はフィールド・インデックス信号
F1,ストロボ発光のためのXタイミング信号XTMを
発生する。
A clock signal generation circuit (hereinafter referred to as CG) 1 includes a clock signal CLK, a horizontal transfer pulse H for driving the horizontal transfer path of the CCD 4, a substrate extraction pulse SUB for sweeping unnecessary charges, and an A field vertical transfer. A pulse VA and a B field vertical transfer pulse VB are generated. Further, CG1 generates a field index signal F1 and an X timing signal XTM for strobe emission.

【0022】クロック信号CLKは,同期信号発生回路
(以下,SSGという)2に与えられ,SSG2はこの
クロック信号CLKに基づいて水平同期信号HDおよび
垂直同期信号VDを発生し,CG1に与える。
The clock signal CLK is given to a synchronizing signal generating circuit (hereinafter referred to as SSG) 2, and the SSG2 generates a horizontal synchronizing signal HD and a vertical synchronizing signal VD based on this clock signal CLK and gives it to CG1.

【0023】水平転送パルスHはCCD4に与えられ
る。基板抜きパルスSUBおよびAフィールド垂直転送
パルスVAはドライバ5を介して,Bフィールド垂直転
送パルスVBはVドライバ6を介して,それぞれCCD
4に与えられる。
The horizontal transfer pulse H is given to the CCD 4. The substrate extraction pulse SUB and the A-field vertical transfer pulse VA are passed through the driver 5, and the B-field vertical transfer pulse VB is passed through the V-driver 6 and the CCD, respectively.
Given to 4.

【0024】フィールド・インデックス信号F1,Xタ
イミング信号XTMおよび水平同期信号HDは,CPU
3に与えられる。このCPU3からCG1に,露光条件
が設定されたことを示すシャッタのイネーブル信号TS
ENおよびCCD4における露光を開始するための電子
シャッタ制御信号TS1が与えられる。
The field index signal F1, the X timing signal XTM and the horizontal synchronizing signal HD are the CPU
Given to 3. A shutter enable signal TS indicating that the exposure condition is set from the CPU 3 to the CG 1.
An electronic shutter control signal TS1 for starting exposure in EN and CCD 4 is applied.

【0025】CCD4では,基板抜きパルスSUB,A
フィールド垂直転送パルスVA,Bフィールド垂直転送
パルスVBおよび水平転送パルスHによって,インター
レース撮影が行なわれ,AフィールドとBフィールドの
映像信号(GRGBの色順次信号)が1フィールド期間
ごとに交互に生成されて,順次読み出される。CCD4
の駆動(撮像および映像信号の読出し)は,少なくとも
撮影時と,それに先だつ精密な測光処理および測距処理
のために行なわれる。
In the CCD 4, the substrate extraction pulses SUB, A
By the field vertical transfer pulse VA, the B field vertical transfer pulse VB, and the horizontal transfer pulse H, interlaced shooting is performed, and video signals of the A field and the B field (color sequential signals of GRGB) are alternately generated every one field period. Are sequentially read. CCD4
Is driven (imaging and reading of a video signal) at least at the time of photographing and for the purpose of precise photometric processing and distance measuring processing.

【0026】CCD4から出力される被写体像を表わす
AフィールドおよびBフィールドの映像信号は,相関二
重サンプリング回路(CDS)7を通して色分離回路8
に与えられ,3原色,G(緑),R(赤)およびB
(青)の色信号に分離される。
The video signals of the A field and the B field representing the subject image output from the CCD 4 are passed through a correlated double sampling circuit (CDS) 7 to a color separation circuit 8
Given to three primary colors, G (green), R (red) and B
It is separated into (blue) color signals.

【0027】この色信号G,R,Bは可変利得増幅回路
(以下,GCAという)9に与えられる。図1にはGC
A9として1個のブロックが示されているが,実際には
GCAはR,G,Bのそれぞれの信号について設けられ
る。このGCA9において,CCD4に設けられた色フ
ィルタにおける光透過率のフィルタの色間のばらつきの
補正(以下,色フィルタばらつき補正という)およびホ
ワイト・バランス調整が行なわれた後,ガンマ補正回路
10に与えられる。合焦制御の目的のためには少なくとも
色フィルタばらつき補正を行なえばよいが,これに加え
てホワイト・バランス調整も行なえば一層好ましい。
The color signals G, R and B are given to a variable gain amplifier circuit (hereinafter referred to as GCA) 9. In Figure 1, GC
Although one block is shown as A9, GCA is actually provided for each of the R, G, and B signals. In the GCA 9, the gamma correction circuit is provided after correction of variations in light transmittance of the color filters provided in the CCD 4 between filters (hereinafter referred to as color filter variation correction) and white balance adjustment.
Given to 10. For the purpose of focusing control, at least color filter variation correction may be performed, but it is more preferable to perform white balance adjustment in addition to this.

【0028】GCA9の出力色信号R,G,Bは,ガン
マ補正回路10で階調補正が行なわれて,クランプおよび
リサンプリング回路11に入力する。
The output color signals R, G, B of the GCA 9 are gradation-corrected by the gamma correction circuit 10 and input to the clamp and resampling circuit 11.

【0029】クランプおよびリサンプリング回路11は,
3つの色信号R,G,Bをクランプし,かつリサンプリ
ングによってCCD4における色フィルタ配置に一致し
たGRGB…の色順次信号に再変換する。この色順次信
号はゲイン・コントロールおよびブランキング回路12に
入力する。ゲイン・コントロールおよびブランキング回
路12は,色順次信号を記録のために適当なレベルに増幅
するとともにこれにブランキング信号を加える。ゲイン
・コントロールおよびブランキング回路12の出力信号は
切換スイッチ13の第1の入力端子S1に与えられる。
The clamp and resampling circuit 11 is
The three color signals R, G, B are clamped and re-converted into color sequential signals of GRGB ... Which match the color filter arrangement in the CCD 4. This color sequential signal is input to the gain control and blanking circuit 12. The gain control and blanking circuit 12 amplifies the color sequential signal to an appropriate level for recording and adds the blanking signal to it. The output signal of the gain control and blanking circuit 12 is given to the first input terminal S1 of the changeover switch 13.

【0030】本撮影に先だち上述したように精密な測光
処理(露光制御)および合焦制御が行なわれる。測光処
理は予備撮影によってCCD4から得られる映像信号の
低周波成分を利用して行なわれ,合焦制御は上記映像信
号の高周波成分を利用して行なわれる。
Prior to the main photographing, precise photometric processing (exposure control) and focusing control are performed as described above. The photometric processing is performed by using the low frequency component of the video signal obtained from the CCD 4 by the preliminary photographing, and the focusing control is performed by using the high frequency component of the video signal.

【0031】測光処理のために,CCD4の撮影領域内
に設けられた測光領域(後述する)内の画像を表わす映
像信号の低周波成分を取出すために,YL 合成回路15,
ゲート回路16,積分回路17および増幅回路18が設けられ
ている。増幅回路18の出力信号は切換スイッチ13の第2
の入力端子S2に与えられる。
In order to extract the low frequency component of the video signal representing the image in the photometric area (described later) provided in the photographing area of the CCD 4 for the photometric processing, the Y L synthesizing circuit 15,
A gate circuit 16, an integrating circuit 17, and an amplifying circuit 18 are provided. The output signal of the amplifier circuit 18 is the second signal of the changeover switch 13.
Input terminal S2.

【0032】一方,合焦制御のために,CCD4の撮影
領域内に設けられた分割領域内の画像を表わす映像信号
の高周波成分を取出すためにゲート回路19,バンド・パ
ス・フィルタ(以下,BPFという)20,検波回路21,
積分回路22および増幅回路23が設けられている。増幅回
路23の出力信号は切換スイッチ13の第3の入力端子S3
に与えられる。
On the other hand, for focusing control, a gate circuit 19 and a band pass filter (hereinafter referred to as BPF) are used to extract high frequency components of a video signal representing an image in a divided area provided in the photographing area of the CCD 4. 20), detection circuit 21,
An integrating circuit 22 and an amplifying circuit 23 are provided. The output signal of the amplifier circuit 23 is the third input terminal S3 of the changeover switch 13.
Given to.

【0033】切換スイッチ13はCPU3によって制御さ
れ,ブランキング回路12,増幅回路18および増幅回路23
の出力信号のいずれか1つを選択して出力する。切換ス
イッチ13の出力信号はA/D変換器14に与えられ,ディ
ジタル・データに変換される。
The changeover switch 13 is controlled by the CPU 3, and has a blanking circuit 12, an amplifying circuit 18, and an amplifying circuit 23.
And outputs any one of the output signals. The output signal of the changeover switch 13 is given to the A / D converter 14 and converted into digital data.

【0034】本撮影に先だつ測光処理および合焦制御に
おいては切換スイッチ13は入力端子S2またはS3のい
ずれかの入力信号を選択して出力する。後述するよう
に,入力端子S2とS3との間で1フィールドごとに切
換えられる。1フレームを構成するAフィールド(第1
フィールド)の期間においては入力端子S2が選択され
ることにより測光処理が行なわれ,Bフィールド(第2
フィールド)の期間においては入力端子S3が選択され
ることにより合焦制御が行なわれる。1フレームを構成
するAフィールド画像とBフィールド画像とはほぼ同時
点の視野像を表わしていると考えられるので,このよう
にAフィールドの映像信号を測光処理のために,Bフィ
ールドの映像信号を合焦処理のためにそれぞれ用いるこ
とができる。このような測光処理および合焦制御におい
て,A/D変換器14の出力データはCPU3に取込まれ
る。
In the photometric processing and focusing control prior to the main photographing, the changeover switch 13 selects and outputs the input signal of either the input terminal S2 or S3. As will be described later, the input terminals S2 and S3 are switched for each field. A field (1st frame)
During the field period, the photometric process is performed by selecting the input terminal S2, and the B field (second field)
In the field period, focus control is performed by selecting the input terminal S3. Since it is considered that the A field image and the B field image forming one frame represent the field images at almost the same time points, the B field image signal is converted to the A field image signal for photometric processing in this way. Each can be used for focusing processing. In such photometric processing and focusing control, the output data of the A / D converter 14 is taken into the CPU 3.

【0035】測光処理,それに基づく露光制御(絞りや
シャッタの制御),および合焦制御(撮像レンズ24の位
置決め)の後に本撮影が行なわれる。このとき切換スイ
ッチ13は入力端子S1を選択するように切換えられる。
本撮影によりCCD4から得られる映像信号が上述した
回路7,8,9,10,11,12および切換スイッチ13を経
てA/D変換器14に入力し,このA/D変換器14でディ
ジタル画像データに変換され,画像データ処理回路(図
示略)でY/C分離,データ圧縮等の加工が加えられた
のち,メモリ・カード等の記録媒体に記録されることに
なる。
The main photographing is performed after the photometric processing, the exposure control (control of the diaphragm and the shutter) based thereon, and the focus control (positioning of the imaging lens 24). At this time, the changeover switch 13 is changed over so as to select the input terminal S1.
The video signal obtained from the CCD 4 by the actual photographing is inputted to the A / D converter 14 through the circuits 7, 8, 9, 10, 11, 12 and the changeover switch 13 described above, and the A / D converter 14 produces a digital image. After being converted into data and processed by an image data processing circuit (not shown) such as Y / C separation and data compression, it is recorded on a recording medium such as a memory card.

【0036】本撮影に先だつ測光処理(およびそれに基
づく露光制御)ならびに合焦制御のうち,まず測光処理
について説明する。
Of the photometric processing (and exposure control based on it) and the focus control prior to the main photographing, the photometric processing will be described first.

【0037】測光処理は上述のようにYL 合成回路15,
ゲート回路16,積分回路17および増幅回路18を用いて行
なわれる。YL 合成回路15にはGCA9の出力色信号
R,G,Bが与えられている。
The photometric processing is performed by the Y L synthesizing circuit 15, as described above.
This is performed using the gate circuit 16, the integrating circuit 17, and the amplifying circuit 18. The Y L synthesizing circuit 15 is supplied with the output color signals R, G, B of the GCA 9.

【0038】これら回路の具体的な電気的構成の一例が
図2に示されている。CPU3はゲート回路16を制御す
るウインドウ信号WIND1および積分回路17をリセッ
トするリセット信号HLRST1を出力する。これらの
信号WINDおよびHLRSTのタイミングについては
後述する。
An example of a specific electrical configuration of these circuits is shown in FIG. The CPU 3 outputs a window signal WIND1 for controlling the gate circuit 16 and a reset signal HLRST1 for resetting the integration circuit 17. The timing of these signals WIND and HLRST will be described later.

【0039】GCA9から出力される色信号R,Gおよ
びBはYL 合成回路15で加算され,相対的に低周波の輝
度信号YL (以下単に輝度信号YL という)が生成され
る。この輝度信号YL は,所要の水平走査期間において
ウインドウ信号WIND1が与えられている期間ゲート
回路16を通過する。積分回路17はリセット信号HLRS
T1が与えられたときにリセットされ,その後ゲート回
路16から入力する輝度信号YL を積分する。積分回路17
の積分信号は増幅回路18で増幅されたのち,積分回路17
がリセットされる直前に切換スイッチ13を経てA/D変
換器14に入力しこのA/D変換器14によって測光用ディ
ジタル積分データに変換され,CPU3に取込まれる。
積分回路17および増幅回路18の基準分圧V1,V2はこ
れらに適当なオフセットを与えるものである。
The color signals R, G and B output from the GCA 9 are added by the Y L synthesizing circuit 15 to generate a relatively low frequency luminance signal Y L (hereinafter simply referred to as luminance signal Y L ). The luminance signal Y L passes through the gate circuit 16 while the window signal WIND1 is applied during the required horizontal scanning period. The integrator circuit 17 has a reset signal HLRS.
It is reset when T1 is given, and then the luminance signal Y L input from the gate circuit 16 is integrated. Integrator circuit 17
The integrated signal of is amplified by the amplification circuit 18, and then the integration circuit 17
Immediately before being reset, the data is input to the A / D converter 14 via the change-over switch 13, converted into digital integrated data for photometry by the A / D converter 14 and taken into the CPU 3.
The reference voltage divisions V1 and V2 of the integrating circuit 17 and the amplifying circuit 18 give them an appropriate offset.

【0040】この実施例の測光処理においては,視野内
の平均的な明るさを測定するアベレージ測光(以下,A
V測光という)と,視野内の主要被写体の明るさを測定
するスポット測光(以下,SP測光という)とが行なわ
れる。これは特に,視野内の主要被写体と背景の明るさ
が異なり,それに応じた適切な露光条件を設定する必要
のある場合に有用である。
In the photometric processing of this embodiment, average photometry (hereinafter referred to as A
V metering) and spot metering (hereinafter referred to as SP metering) for measuring the brightness of the main subject in the field of view are performed. This is particularly useful when the brightness of the main subject in the field of view and the brightness of the background are different, and it is necessary to set appropriate exposure conditions in accordance with the brightness.

【0041】また,この実施例では積分回路17による積
分とA/D変換器14によるA/D変換動作および加算処
理とが,水平走査期間ごとに交互に行なわれる。
Further, in this embodiment, the integration by the integration circuit 17 and the A / D conversion operation and the addition processing by the A / D converter 14 are alternately performed every horizontal scanning period.

【0042】図3はCCD4の撮影領域30内に設定され
た分割領域を示すものである。
FIG. 3 shows divided areas set in the photographing area 30 of the CCD 4.

【0043】この実施例ではCCD4の撮影領域30内に
は第1の分割領域SP1 ,第2の分割領域SP2 ,第3
の分割領域SP3 ,第4の分割領域SP4 および第5の
分割領域SP5 の5つの分割領域が設定される。第1の
分割領域SP1 ,第2の分割領域SP2 ,第3の分割領
域SP3 ,第4の分割領域SP4 および第5の分割領域
SP5 がそれぞれ第1の分割測光領域SP1 ,第2の分
割測光領域SP2 ,第3の分割測光領域SP3 ,第4の
分割測光領域SP4 および第5の分割測光領域SP5
相当する。分割測光領域も分割領域と同じ符号で表わ
す。第1〜第5のすべての分割領域を合わせた領域がA
V測光領域に相当する。
In this embodiment, the first divided area SP 1 , the second divided area SP 2 and the third divided area SP 1 are provided in the photographing area 30 of the CCD 4.
5 divided areas SP 3 , 4 divided areas SP 4 and 5 divided areas SP 5 are set. The first divided area SP 1 , the second divided area SP 2 , the third divided area SP 3 , the fourth divided area SP 4 and the fifth divided area SP 5 are respectively the first divided photometric area SP 1 , It corresponds to the second divided photometric area SP 2 , the third divided photometric area SP 3 , the fourth divided photometric area SP 4, and the fifth divided photometric area SP 5 . The divided photometric area is also denoted by the same reference numeral as the divided area. The area including all the first to fifth divided areas is A
It corresponds to the V photometric area.

【0044】AV測光領域は基本的に撮影領域30のほぼ
全域にわたって設定される。この実施例ではAV測光領
域は,横方向が水平同期信号HDの立下り(水平走査期
間の開始の時点)から16μsの経過後,40μsの期間に
設定され,縦方向が第35番目の水平走査ラインから第24
6 番目の水平走査ラインまでの間に設定される。
The AV photometric area is basically set over almost the entire photographing area 30. In this embodiment, the AV photometric area is set for a period of 40 μs after the lapse of 16 μs from the trailing edge of the horizontal synchronizing signal HD (the start point of the horizontal scanning period) in the horizontal direction, and the 35th horizontal scanning in the vertical direction. 24th from the line
It is set up to the 6th horizontal scan line.

【0045】SP測光領域は,撮影領域30内の任意位置
に小さな領域として設定されている。
The SP photometric area is set as a small area at an arbitrary position within the photographing area 30.

【0046】第1の分割測光領域SP1 は撮影領域30の
中央左端部に設定され,横方向が水平同期信号HDの立
下りから16μs経過後12.5μsの期間に,縦方向が第87
番目の水平走査ラインから第194 番目の水平走査ライン
までの間に設定されている。
The first divided photometric area SP 1 is set at the left end of the center of the photographing area 30. The horizontal direction is 16 μs after the fall of the horizontal synchronizing signal HD, and the vertical direction is the 87th interval during a period of 12.5 μs.
It is set between the 19th horizontal scan line and the 194th horizontal scan line.

【0047】第2の分割測光領域SP2 は撮影領域30の
中央部に設定され,横方向が水平同期信号HDの立下り
から28.5μs経過後15μsの期間に,縦方向が第87番目
の水平走査ラインから第194 番目の水平走査ラインまで
の間に設定されている。
The second divided photometric area SP 2 is set at the center of the photographing area 30, and the horizontal direction is the 87th horizontal in the vertical direction during a period of 15 μs after 28.5 μs has elapsed from the fall of the horizontal synchronizing signal HD. It is set between the scan line and the 194th horizontal scan line.

【0048】第3の分割測光領域SP3 は撮影領域30の
中央右端部に設定され,横方向が水平同期信号HDの立
下りから43.5μs経過後12.5μsの期間に,縦方向が第
87番目の水平走査ラインから第194 番目の水平走査ライ
ンまでの間に設定されている。
The third divided photometric area SP 3 is set at the center right end portion of the photographing area 30, and the horizontal direction is the 12.5 μs after 43.5 μs has elapsed from the fall of the horizontal synchronizing signal HD, and the vertical direction is the third.
It is set between the 87th horizontal scan line and the 194th horizontal scan line.

【0049】第4の分割測光領域SP4 は撮影領域30の
上部に設定され,横方向が水平同期信号HDの立下りか
ら16μs経過後の40μs期間に,縦方向が第35番目の水
平走査ラインから第86番目の水平走査ラインまでの間に
設定されている。
The fourth divided photometric area SP 4 is set at the upper part of the photographing area 30, and the horizontal direction is the 35th horizontal scanning line in the 40 μs period 16 μs after the fall of the horizontal synchronizing signal HD. To the 86th horizontal scanning line.

【0050】第5の分割測光領域SP5 は撮影領域30の
下部に設定され,横方向が水平同期信号HDの立下りか
ら16μs経過後の40μs期間に,縦方向が第195 番目の
水平走査ラインから第246 番目の水平走査ラインまでの
間に設定されている。
The fifth divided photometric area SP 5 is set in the lower portion of the photographing area 30, and the horizontal direction is the 195th horizontal scanning line in the 40 μs period 16 μs after the fall of the horizontal synchronizing signal HD in the horizontal direction. To the 246th horizontal scan line.

【0051】CPU3に付随するメモリには測光用エリ
アと測距用エリアとが設けられている。測光用エリアに
は平均測光値(AV測光値という)を記憶するAV測光
領域データ・エリアと分割測光値(SP測光値という)
を記憶するSP測光データ領域データ・エリアとがあ
る。さらにSP測光データ・エリアには第1の分割測光
領域SP1 から得られる測光データを記憶するSP1
光領域データ・エリア,第2の分割測光領域SP2 から
得られる測光データを記憶するSP2 測光領域データ・
エリア,第3の分割測光領域SP3 から得られる測光デ
ータを記憶するSP3 測光領域データ・エリア,第4の
分割測光領域SP4 から得られる測光データを記憶する
SP4 測光領域データ・エリア,および第5の分割測光
領域SP5から得られる測光データを記憶するSP5
光領域データ・エリアがある。
The memory associated with the CPU 3 is provided with a photometry area and a distance measurement area. In the photometric area, an AV photometric area data area that stores an average photometric value (called an AV photometric value) and a divided photometric value (called an SP photometric value)
There is an SP metering data area data area for storing SP 2 is more SP photometric data area for storing the photometric data obtained from SP 1 photometric area data area, the second divided light metering areas SP 2 for storing photometric data obtained from the first divided light metering areas SP 1 Metering area data
Area, SP 3 photometric area data area for storing photometric data obtained from the third divided photometric area SP 3, SP 4 photometric area data area for storing photometric data obtained from the fourth divided photometric area SP 4 , There is also an SP 5 photometric area data area for storing photometric data obtained from the fifth divided photometric area SP 5 .

【0052】図4はAV測光値およびSP測光値を得る
ための映像信号の取り出し方法を示している。
FIG. 4 shows a method of extracting a video signal for obtaining an AV photometric value and an SP photometric value.

【0053】第1〜第3の分割測光領域SP1 〜SP3
においてはAV測光値を得るための走査とSP測光値を
得るための走査とが交互に行なわれる。SP測光値を得
るための走査は第1〜第3のSP測光領域ごとに異なる
走査ラインになる。第4および第5のSP測光領域にお
いてはAV測光値を得るための走査とSP測光値を得る
ための走査とが交互に行なわれる。
First to third divided photometric areas SP 1 to SP 3
In, scanning for obtaining the AV photometric value and scanning for obtaining the SP photometric value are alternately performed. The scan for obtaining the SP photometric value is a different scanning line for each of the first to third SP photometric areas. In the fourth and fifth SP photometric areas, scanning for obtaining the AV photometric value and scanning for obtaining the SP photometric value are alternately performed.

【0054】第1〜第5の分割測光領域SP1 〜SP5
において映像信号のA/D変換,積分回路のリセットお
よび積分,A/D変換されたデータの加算処理の必要の
ために上記走査は1水平走査ラインおきに行なわれる。
First to fifth divided photometric areas SP 1 to SP 5
The scanning is performed every other horizontal scanning line because of the necessity of A / D conversion of the video signal, resetting and integration of the integrating circuit, and addition processing of the A / D converted data.

【0055】図5は,第4の分割測光領域SP4 の測光
処理を示すタイム・チャートである。
FIG. 5 is a time chart showing the photometric processing of the fourth divided photometric area SP 4 .

【0056】第34番目の水平走査ラインから第86番目の
水平走査ラインまでの間では,ゲート回路16に,水平同
期信号HDの立下りから16μs後にパルス幅40μsのウ
インドウ信号WIND1が与えられる。そして,積分回
路17による輝度信号YL の積分と,この積分動作が行な
われた水平走査期間の次の水平走査期間における積分信
号のA/D変換,積分回路17のリセットならびにメモリ
のAVおよび第4の分割測光領域データ・エリアへの積
分データの加算とが,水平走査期間毎に交互に繰返して
行なわれる。
Between the 34th horizontal scanning line and the 86th horizontal scanning line, the gate circuit 16 is supplied with the window signal WIND1 having a pulse width of 40 μs 16 μs after the fall of the horizontal synchronizing signal HD. Then, the integration circuit 17 integrates the luminance signal Y L , A / D-converts the integration signal in the horizontal scanning period subsequent to the horizontal scanning period in which this integration operation is performed, resets the integration circuit 17, and stores the AV and The addition of the integration data to the divided photometric area data area 4 is alternately repeated for each horizontal scanning period.

【0057】第5の分割測光領域SP5 における測光処
理のタイミングも第195 番目の水平走査ラインから第24
6 番目の水平走査ラインまでに行なわれることを除き第
4の測光領域SP4 と同様であるため説明を省略する。
The timing of the photometric processing in the fifth divided photometric area SP 5 is also the 24th from the 195th horizontal scanning line.
The description is omitted because it is the same as the fourth photometric area SP 4 except that it is performed up to the sixth horizontal scanning line.

【0058】図6は第1〜第3の分割測光領域SP1
SP3 の測光処理を示すタイム・チャートである。
FIG. 6 shows the first to third divided photometric areas SP 1 to.
Is a time chart showing the photometric processing of SP 3.

【0059】第87番目の水平走査ラインから第194 番目
の水平走査ラインまでの間は,AV測光のための,水平
同期信号HDの立下りから16μs後に立上るパルス幅40
μsのウインドウ信号WIND1と,第1の分割測光の
ための,水平同期信号HDの立下りから16μs後に立上
るパルス幅12.5μsのウインドウ信号WIND1と,第
2の分割測光のための,水平同期信号HDの立下りから
28.5μs後に立上るパルス幅15μsのウインドウ信号W
IND1と,第3の分割測光のための,水平同期信号H
Dの立下りから31μs後に立上るパルス幅12.5μsのウ
インドウ信号WIND1とが1水平走査ラインおきに繰
返してゲート回路16に与えられる。
Between the 87th horizontal scanning line and the 194th horizontal scanning line, a pulse width 40 rising 16 μs after the falling edge of the horizontal synchronizing signal HD for AV photometry is used.
μs window signal WIND1, a window signal WIND1 with a pulse width of 12.5 μs that rises 16 μs after the fall of the horizontal synchronizing signal HD for the first split photometry, and a horizontal synchronizing signal for the second split photometry From the fall of HD
Window signal W with a pulse width of 15 μs that rises after 28.5 μs
Horizontal synchronization signal H for IND1 and third split photometry
The window signal WIND1 having a pulse width of 12.5 μs which rises 31 μs after the fall of D is repeatedly supplied to the gate circuit 16 every other horizontal scanning line.

【0060】パルス幅40μsのウインドウ信号WIND
1が積分回路17に与えられ輝度信号YL の積分が行なわ
れたときには,積分動作が行なわれた水平走査期間の次
の水平走査期間において積分信号のA/D変換,積分回
路17のリセット,メモリのAV測光領域データ・エリア
への積分データの加算が行なわれる(AV測光領域の測
光)。水平同期信号HDの立下りから16μs経過後のパ
ルス幅12.5μsのウインドウ信号WIND1が積分回路
17に与えられ輝度信号YL の積分が行なわれたときに
は,積分動作が行なわれた水平走査期間の次の水平走査
期間において積分信号のA/D変換,積分回路17のリセ
ット,メモリの第1の分割測光領域データ・エリアへの
積分データの加算が行なわれる(第1の測光領域の測
光)。
Window signal WIND having a pulse width of 40 μs
When 1 is given to the integration circuit 17 to integrate the luminance signal Y L , A / D conversion of the integration signal, reset of the integration circuit 17 in the horizontal scanning period subsequent to the horizontal scanning period in which the integration operation is performed, Integration data is added to the AV photometry area data area of the memory (photometry of the AV photometry area). The window signal WIND1 having a pulse width of 12.5 μs after 16 μs has elapsed from the falling edge of the horizontal synchronizing signal HD is an integrating circuit.
When the luminance signal Y L given to 17 is integrated, the A / D conversion of the integrated signal, the reset of the integrating circuit 17, the first memory of the memory in the horizontal scanning period subsequent to the horizontal scanning period in which the integration operation is performed. The integrated data is added to the divided photometry area data area of (1st photometry area).

【0061】水平同期信号HDの立下りから28.5μs経
過後に,パルス幅15μsのウインドウ信号WIND1が
積分回路17に与えられ輝度信号YL の積分が行なわれた
ときには,積分動作が行なわれた水平走査期間の次の水
平走査期間において積分信号のA/D変換,積分回路17
のリセット,メモリのSP2 測光領域データ・エリアへ
の積分データの加算が行なわれる(第2の分割測光領域
の測光)。また,水平同期信号HDの立下りから33.5μ
s経過後にパルス幅12.5μsのウインドウ信号WIND
1が積分回路17に与えられ輝度信号YL の積分が行なわ
れたときには,積分動作が行なわれた水平走査期間の次
の水平走査期間において積分信号のA/D変換,積分回
路17のリセット,メモリのSP3 測光領域データ・エリ
アへの積分データの加算が行なわれる(第3の分割測光
領域の測光)。
When 28.5 μs has elapsed from the fall of the horizontal synchronizing signal HD, the window signal WIND1 having a pulse width of 15 μs is given to the integrating circuit 17 and the luminance signal Y L is integrated. A / D conversion and integration circuit 17 of the integrated signal in the horizontal scanning period following the period
Is reset and the integrated data is added to the SP 2 photometric area data area of the memory (photometry of the second divided photometric area). Also, 33.5μ from the falling edge of the horizontal sync signal HD
Window signal WIND with pulse width of 12.5 μs after s
When 1 is given to the integration circuit 17 to integrate the luminance signal Y L , A / D conversion of the integration signal, reset of the integration circuit 17 in the horizontal scanning period subsequent to the horizontal scanning period in which the integration operation is performed, Integration data is added to the SP 3 photometric area data area of the memory (photometry of the third divided photometric area).

【0062】CPU3は,パルス幅40μsのウインドウ
信号WIND1に基づいて得られる1水平走査ラインに
ついての積分データを後述する手順によって1フィール
ド期間にわたってAV測光領域データ・エリアにおいて
加算して,AV測光値EVAVを算定する。
The CPU 3 adds the integrated data for one horizontal scanning line obtained on the basis of the window signal WIND1 having a pulse width of 40 μs in the AV metering area data area for one field period by the procedure described later to obtain the AV metering value EV. Calculate AV .

【0063】さらに,CPU3は上記AV測光値EVAV
の算定とは別個に,パルス幅12.5μsおよび15μsのウ
インドウ信号WINDに基づいて得られる1水平走査ラ
インについての積分データを後述する手順によって1フ
ィールド期間にわたって第1〜第5の分割測光領域デー
タ・エリアにおいて加算する。SP測光値EVSPは,後
述する合焦制御処理に用いた合焦検出領域に対応する分
割測光領域から得られるデータの加算値に基づいて算定
される。
Further, the CPU 3 controls the AV photometric value EV AV
Separately from the above calculation, the integrated data for one horizontal scanning line obtained based on the window signal WIND having a pulse width of 12.5 μs and 15 μs is used for the first to fifth divided photometric area data for one field period by the procedure described later. Add in the area. The SP photometric value EV SP is calculated based on the added value of the data obtained from the divided photometric areas corresponding to the focus detection area used in the focus control processing described later.

【0064】上記においてAV測光値EVAVを得るため
にAV測光をSP測光とは別個に行なっているが,すべ
てのSP測光値EVSP1 〜EVSP5 を加算することによ
りAV測光値EVAVを得るようにしてもよい。
[0064] are separately performed from the SP photometry of the AV photometry to obtain the AV photometric value EV AV In the above, but obtain the AV photometric value EV AV by adding all the SP photometric value EV SP1 ~EV SP5 You may do it.

【0065】図7はCPU3が行なうAV測光処理およ
びSP測光処理の全体的な動作を示すものである。
FIG. 7 shows the overall operation of the AV photometry processing and SP photometry processing performed by the CPU 3.

【0066】CPU3は測光処理を開始するにあたっ
て,上述したように測光センサ26から得られる測光デー
タに基づいて露光条件の初期設定を行ない,この初期露
光条件が実現されるようにアイリスおよび電子シャッタ
の少なくともいずれか一方を制御する(ステップ50)。
予備測光を行なわずに,初期露光条件として統計的に最
もありうる露光条件,たとえば露光値Ev=10(絞りF
4,シャッタ速度1/60秒,または絞りF2.8 ,シャッ
タ速度1/125 秒)を設定するようにしてもよい。
When starting the photometric processing, the CPU 3 initializes the exposure condition based on the photometric data obtained from the photometric sensor 26 as described above, and the iris and the electronic shutter are set so that the initial exposure condition is realized. At least one of them is controlled (step 50).
An exposure condition that is statistically most likely as an initial exposure condition without performing preliminary photometry, for example, an exposure value Ev = 10 (aperture F
4, shutter speed 1/60 seconds, or aperture F2.8, shutter speed 1/125 seconds) may be set.

【0067】測光領域内の水平走査期間になると(ステ
ップ51),それぞれの測光領域に対応したウインドウ信
号WIND1が出力される。
In the horizontal scanning period within the photometric area (step 51), the window signal WIND1 corresponding to each photometric area is output.

【0068】図4に示すようにまず第4の分割測光領域
SP4 の水平走査期間から始まり第4の分割測光領域S
4 においては第4の分割測光値EVSP4 およびAV測
光値を得るためのパルス幅40μsのウインドウ信号WI
ND1が出力される。
[0068] divided from the first fourth horizontal scanning period of the divided photometric regions SP 4 of, as shown in FIG. 4 the beginning of the fourth metering area S
At P 4 , a window signal WI having a pulse width of 40 μs for obtaining the fourth split photometric value EV SP4 and AV photometric value
ND1 is output.

【0069】次に第1〜第3の分割測光領域SP1 〜S
3 の水平走査期間が始まる。第1の分割測光領域SP
1 においては第1の分割測光値EVSP1 を得るためのパ
ルス幅12.5μsのウインドウ信号WIND1が出力さ
れ,第2の分割測光領域SP2においては第2のSP測
光値EVSP2 を得るためのパルス幅15μsのウインドウ
信号WIND1が出力され,第3のSP測光領域SP3
においては第3のSP測光値EVSP3 を得るためのパル
ス幅12.5μsのウインドウ信号WIND1が出力され
る。
Next, the first to third divided photometric areas SP 1 to S
Horizontal scanning period of the P 3 begins. First split photometric area SP
At 1 , the window signal WIND1 having a pulse width of 12.5 μs for obtaining the first split photometric value EV SP1 is output, and at the second split photometric area SP 2 , a pulse for obtaining the second SP photometric value EV SP2. A window signal WIND1 having a width of 15 μs is output, and the third SP photometric area SP 3
In, the window signal WIND1 having a pulse width of 12.5 μs for obtaining the third SP photometric value EV SP3 is output.

【0070】第5の分割測光領域SP5 においては第5
のSP測光値EVSP5 を得るためのパルス幅40μsのウ
インドウ信号WIND1が出力される。
In the fifth divided photometric area SP 5 , the fifth
The window signal WIND1 having a pulse width of 40 μs for obtaining the SP photometric value EV SP5 is output.

【0071】第1〜第3および第5の分割測光領域SP
1 〜SP3 およびSP5 においてもAV測光値EVAV
得るためのウインドウ信号WIND1が出力される。
First to third and fifth divided photometric areas SP
Also in 1 to SP 3 and SP 5 , the window signal WIND1 for obtaining the AV photometric value EV AV is output.

【0072】ウインドウ信号WIND1の出力がある
と,そのパルス幅の間,積分回路17に積分動作を行なわ
せる(ステップ52)。このウインドウ信号WIND1が
立下ったのち,A/D変換器14を駆動して積分回路17の
積分信号のA/D変換を行なわせて,積分データを得
る。
When the window signal WIND1 is output, the integrating circuit 17 is caused to perform an integrating operation during the pulse width (step 52). After the window signal WIND1 falls, the A / D converter 14 is driven to perform A / D conversion of the integrated signal of the integrating circuit 17 to obtain integrated data.

【0073】次に,得られた積分データがあらかじめ定
められた所定の範囲内にあるかどうかをAV,SP1
SP5 の積分データごとに判断する(ステップ53)。こ
れは,得られた積分データを1水平ライン分の測光値と
して使用できるかどうかを判定することである。測光の
対象となった水平走査ラインにそう部分において輝度信
号YL が飽和しているような場合には,その積分データ
は測光値として使用するには適当ではない。この所定の
範囲の上限値は,CCD4のダイナミック・レンジ,G
CA9や増幅回路18のゲイン等を考慮して,飽和してい
る輝度信号YLに基づく積分データを排除できる程度に
定められる。一方,測光の対象となった水平走査ライン
にそう部分がきわめて暗く,輝度信号YL は殆どノイズ
成分によるものであるような場合にもその積分データを
測光値として用いるのは適切ではない。そこで,ノイズ
成分が支配的となっている積分データを排除するレベル
に上記所定範囲の下限値が定められる。また各領域の大
きさが異なっていることからこれらの上限値および下限
値は各領域に応じて定められる。
Next, it is determined whether the obtained integrated data is within a predetermined range, which is AV, SP 1- .
A judgment is made for each integrated data of SP 5 (step 53). This is to determine whether the obtained integrated data can be used as a photometric value for one horizontal line. When the luminance signal Y L is saturated in the portion of the horizontal scanning line which is the object of photometry, the integrated data is not suitable for use as a photometric value. The upper limit of this predetermined range is the dynamic range of CCD 4, G
In consideration of the gain of the CA 9 and the amplifier circuit 18, etc., it is set to such an extent that integrated data based on the saturated luminance signal Y L can be excluded. On the other hand, even when such a portion is extremely dark in the horizontal scanning line which is the object of photometry and the luminance signal Y L is almost due to the noise component, it is not appropriate to use the integrated data as the photometric value. Therefore, the lower limit value of the above-mentioned predetermined range is set to the level at which the integrated data in which the noise component is dominant is excluded. Further, since the size of each area is different, the upper limit value and the lower limit value are determined according to each area.

【0074】得られたそれぞれの積分データが所定の範
囲内である場合には,その積分データとメモリのそれぞ
れの測光領域データ・エリアの値に加算する(ステップ
54)。すなわち,AV測光のためのウインドウ信号WI
ND1のパルス幅によって得られた積分データはAV測
光領域データ・エリアに加算され,第1,第2,第3,
第4および第5の分割測光のためのウインドウ信号WI
ND1のパルス幅によって得られた積分データは第1,
第2,第3,第4および第5の分割測光領域データ・エ
リアに加算される。
If each of the obtained integrated data is within a predetermined range, the integrated data and the value of each photometric area data area of the memory are added (step
54). That is, the window signal WI for AV photometry
The integrated data obtained by the pulse width of ND1 is added to the AV photometry area data area, and the first, second, third, and
Window signal WI for fourth and fifth split photometry
The integrated data obtained by the pulse width of ND1 is
It is added to the second, third, fourth and fifth divided photometric area data areas.

【0075】まだ測光領域内であれば(ステップ55)ス
テップ52に戻る。積分データが所定の範囲外の場合に
は,ライン数カウンタを1インクレメントし(ステップ
57),積分データの加算処理は行なわない。すなわちそ
の積分データは測光値として使用しない。ライン数カウ
ンタは第1〜第5の分割測光領域SP1 〜SP5 および
AV測光領域に対応してそれぞれ設けられており,それ
ぞれの積分データが所定範囲外にある水平ライン数をそ
れぞれ別個に計数するものである。このライン数カウン
タの値が所定値以内であれば(ステップ58),ステップ
55を経てステップ52に戻る。
If it is still within the photometric area (step 55), the process returns to step 52. When the integrated data is out of the predetermined range, the line number counter is incremented by 1 (step
57), addition processing of integrated data is not performed. That is, the integrated data is not used as a photometric value. The line number counters are provided corresponding to the first to fifth divided photometric areas SP 1 to SP 5 and the AV photometric area, respectively, and the number of horizontal lines whose integrated data is outside the predetermined range are individually counted. To do. If the value of the line number counter is within the predetermined value (step 58), step
After 55, return to step 52.

【0076】ステップ58における判断のための所定のラ
イン数もAV測光領域と分割測光領域とについて異なる
値を設定しておいてもよい。
The predetermined number of lines for the determination in step 58 may be set to different values for the AV photometric area and the divided photometric area.

【0077】測光領域の範囲外に出ると(ステップ5
5),それまでに得られたAV測光領域およびそれぞれ
の分割測光領域における積分データの各加算値をそれぞ
れ用いて,AV測光領域のAV測光値EVAVおよび後述
のようにして選択される分割測光領域のSP測光値EV
SPがそれぞれ算出される(ステップ56)。AV測光値E
AVおよびSP測光値EVSPの演算は,各測光領域にお
いて積分データの加算値を,積分データとして加算され
たライン数で除すことにより,一水平走査線当りの積分
値の平均値を求める演算,および平均値に適当な定数を
乗ずる演算を含む。積分データとして加算されたライン
数は,各測光領域内の水平走査ラインの半数から対応す
るライン数カウンタの値を減算することにより求められ
る。
When it goes out of the range of the photometry area (step 5
5), the AV metering value EV AV of the AV metering area and the divided metering selected as described below are used by using the respective added values of the integrated data in the AV metering area and the respective divided metering areas obtained up to that point. Area SP photometric value EV
Each SP is calculated (step 56). AV photometric value E
In the calculation of V AV and SP photometric value EV SP , the average value of the integrated values per horizontal scanning line is obtained by dividing the added value of the integrated data in each photometric area by the number of lines added as the integrated data. Includes operations and operations that multiply the average value by an appropriate constant. The number of lines added as the integrated data can be obtained by subtracting the value of the corresponding line number counter from half of the horizontal scanning lines in each photometric area.

【0078】CPU3は,得られた測光値EVAVおよび
EVSPに基づいて,絞り,シャッタ速度,ストロボ発光
の有無等の露光条件を決定する。
The CPU 3 determines the exposure conditions such as the aperture, the shutter speed, and the presence / absence of stroboscopic light emission based on the obtained photometric values EV AV and EV SP .

【0079】また,CPU3は,積分データが所定範囲
外にある水平ライン数を計数するライン数カウンタの値
が所定数を超えた場合には(ステップ58),露光条件を
変更(ステップ59)して,メモリの測光用エリアをクリ
アした後に,次のフレームの開始の時点においてステッ
プ51からの測光処理を繰返す。
Further, when the value of the line number counter for counting the number of horizontal lines whose integrated data is outside the predetermined range exceeds the predetermined number (step 58), the CPU 3 changes the exposure condition (step 59). After clearing the photometric area of the memory, the photometric process from step 51 is repeated at the time of starting the next frame.

【0080】露光条件の変更に際しては,各水平ライン
にそう積分データの多くが上記所定範囲を超えている場
合には,露光量を初期設定露光量よりも少なくし,逆の
場合には露光量を多くするというように露光量を1段階
(たとえば±2Ev)ずつ変更するとよい。初期露光量
が視野の実際の明るさとそれほどかけ離れていない場合
には(上述のように予備測光している場合には特に),
図7に示す測光処理を1〜2回(フレーム〜2フレーム
期間)繰返すことにより,適切な露光量が求まるであろ
う。
When the exposure conditions are changed, if most of the integrated data for each horizontal line exceeds the above predetermined range, the exposure amount is made smaller than the initially set exposure amount, and in the opposite case, the exposure amount is set. The exposure amount may be changed by one step (for example, ± 2 Ev) such that If the initial exposure is not too far from the actual brightness of the field of view (especially when pre-metering as described above),
An appropriate exposure amount will be obtained by repeating the photometric processing shown in FIG. 7 once or twice (frame to two frame periods).

【0081】上記においてステップ53,55および58の判
断ならびにステップ51,56および57の処理はそれぞれの
領域SP1 〜SP5 ,AVごとにそれぞれ別個に行なわ
れる。
In the above, the determination in steps 53, 55 and 58 and the processing in steps 51, 56 and 57 are separately performed for each of the areas SP 1 to SP 5 , AV.

【0082】またステップ59における露光条件の変更処
理は,たとえばAV測光値に基づいて行なわれる。
The exposure condition changing process in step 59 is performed based on, for example, the AV photometric value.

【0083】いずれにしても,適切な測光値が得られた
かどうかの判定処理に関しては,図13の説明において再
び触れることになる。
In any case, the process of determining whether or not an appropriate photometric value has been obtained will be touched upon again in the explanation of FIG.

【0084】図8は,上記測光処理によって得られたA
V測光値EVAVとSP測光値EVSPに基づいて,露光条
件を設定するためにCPU3が行なう処理手順を示すフ
ローチャートである。SP測光値EVSPは後述のように
して5つのSP測光値EVSP1 〜EVSP5 のうちから選
択される。
FIG. 8 shows A obtained by the above photometric processing.
6 is a flowchart showing a processing procedure performed by a CPU 3 for setting an exposure condition based on a V photometry value EV AV and an SP photometry value EV SP . The SP photometric value EV SP is selected from five SP photometric values EV SP1 to EV SP5 as described later.

【0085】CPU3は,SP測光値EVSPとAV測光
値EVAVの差ΔEV=EVSP−EVAVをとり(ステップ
60),次に,この測光値の差ΔEVが零以上であるか,
零と−0.5 EVの間にあるか,−0.5 EVと−2EVの
間にあるか,または−2EV以下であるかの判定を行な
う(ステップ61,63)。
The CPU 3 takes the difference ΔEV = EV SP −EV AV between the SP photometric value EV SP and the AV photometric value EV AV (step
60), next, whether the difference ΔEV of the photometric value is zero or more,
It is determined whether it is between zero and -0.5 EV, between -0.5 EV and -2 EV, or below -2 EV (steps 61 and 63).

【0086】測光値の差ΔEVが0≦ΔEVであると判
定された場合,すなわち主被写体が明るく背景が暗いと
判定された場合には,CPU3はSP測光値EVSPに基
づいて露光条件の設定を行なう(ステップ62)。AV測
光値EVAVに基づいて露光条件を設定すると主要被写体
が暗く撮影されてしまうからであり,撮影者が最も撮影
したいと考える主要被写体が適正露光されることが最善
であるからである。
When it is determined that the photometric value difference ΔEV is 0 ≦ ΔEV, that is, when the main subject is bright and the background is dark, the CPU 3 sets the exposure condition based on the SP photometric value EV SP. (Step 62). This is because if the exposure condition is set based on the AV photometric value EV AV , the main subject will be photographed darkly, and it is best to properly expose the main subject that the photographer wants to photograph most.

【0087】−0.5 EV≦ΔEV<0であると判定され
た場合,すなわち主被写体と背景との輝度差が小さいと
判定された場合には,CPU3はAV測光値EVAVに基
づいて露光条件の設定を行なう(ステップ64)。AV測
光値EVAVに基づいて露光条件を定めれば,主要被写体
と背景がともに適正露光されると考えてよいからであ
る。−2EV<ΔEV<−0.5 EVと判定された場合,
すなわち背景の方が明るくかつ主要被写体と背景との輝
度差が比較的大きいと判定された場合には,CPU3は
EVAV−1EVの値に基づいて露光条件の設定を行なう
(ステップ65)。すなわち,この場合には背景が明るい
ので背景がやや暗くなるように露光補正(逆光補正)を
することになる。
When -0.5 EV≤ΔEV <0 is determined, that is, when the luminance difference between the main subject and the background is small, the CPU 3 sets the exposure condition based on the AV photometric value EV AV . Make settings (step 64). This is because if the exposure condition is set based on the AV photometric value EV AV , it can be considered that both the main subject and the background are properly exposed. If -2EV <ΔEV <-0.5 EV is determined,
That is, when it is determined that the background is brighter and the brightness difference between the main subject and the background is relatively large, the CPU 3 sets the exposure condition based on the value of EV AV -1EV (step 65). That is, in this case, since the background is bright, exposure correction (backlight correction) is performed so that the background becomes slightly dark.

【0088】ΔEV≦−2EVと判定された場合,すな
わち主要被写体が背景よりも暗くしかもその輝度差が非
常に大きいと判定された場合には,ストロボ発光をして
主要被写体を明るくする必要があるので,CPU3は日
中シンクロ撮影を行なう。すなわち,ストロボ発光の準
備とストロボ発光時の露光条件を設定する(ステップ6
6)。この場合は,前述したような逆光補正によっても
主要被写体を適正露光させることができずストロボ発光
による補正が適切と判断されるためである。
When it is determined that ΔEV ≦ −2EV, that is, when the main subject is darker than the background and the brightness difference is very large, it is necessary to make the main subject bright by emitting strobe light. Therefore, the CPU 3 carries out daytime sync photography. That is, preparation for strobe emission and exposure conditions for strobe emission are set (step 6).
6). In this case, the main subject cannot be properly exposed even by the backlight correction as described above, and it is determined that the correction by the stroboscopic light emission is appropriate.

【0089】次に合焦制御について説明する。Next, focusing control will be described.

【0090】再び図1を参照して,ゲイン・コントロー
ルおよびブランキング回路12の出力信号はゲート回路19
に入力する。ゲート回路19はCPU3から与えられるウ
インドウ信号WIND2によって制御される。ゲイン・
コントロールおよびブランキング回路12の出力信号は所
定の水平走査期間においてウインドウ信号WIND2が
与えられている期間,ゲート回路19を通過してBPF20
に入力する。
Referring again to FIG. 1, the output signal of the gain control and blanking circuit 12 is the gate circuit 19
To enter. The gate circuit 19 is controlled by the window signal WIND2 given from the CPU3. gain·
The output signal of the control and blanking circuit 12 passes through the gate circuit 19 during the period in which the window signal WIND2 is given in a predetermined horizontal scanning period and passes through the BPF 20.
To enter.

【0091】BPF20は,その入力信号から合焦制御に
必要な高周波成分を取出すものであり,BPF20の出力
信号は検波回路21に入力する。このBPF20から出力さ
れる高周波成分信号は検波回路21によって検波され,積
分回路22において積分され,さらに増幅回路23によって
増幅された後,切換スイッチ13が入力端子S3を選択し
ているときにA/D変換器14に入力し,そのA/D変換
器14で合焦制御用デジタル・データに変換されて,CP
U3に取込まれる。
The BPF 20 extracts a high frequency component required for focusing control from the input signal, and the output signal of the BPF 20 is input to the detection circuit 21. The high frequency component signal output from the BPF 20 is detected by the detection circuit 21, integrated by the integration circuit 22, and further amplified by the amplification circuit 23. Then, when the changeover switch 13 selects the input terminal S3, A / It is input to the D converter 14 and converted into focusing control digital data by the A / D converter 14,
Captured by U3.

【0092】A/D変換器14から与えられたディジタル
・データは,撮影領域内に設定された後述する合焦制御
領域の水平走査期間にわたる積分により得られる積分デ
ータであり,CPU3はこの積分データを測距領域の垂
直走査期間にわたって加算して,測距用データを算定
し,このデータに基づいて合焦制御を行なう。詳細につ
いては後述する。
The digital data given from the A / D converter 14 is integral data obtained by integration over a horizontal scanning period of a focusing control area set in the photographing area, which will be described later. Is added over the vertical scanning period of the distance measurement area to calculate distance measurement data, and focusing control is performed based on this data. Details will be described later.

【0093】一般に焦点が合っていず画像がぼけている
場合には撮影によりCCDから得られる映像信号に含ま
れる高周波成分は少ない。焦点が合ってくると映像信号
の高周波成分が多くなり,正しく合焦した位置で映像信
号に含まれる高周波成分は最大となる。この実施例では
このような事実に基づいて合焦制御を行なっており,B
PF20には映像信号の高周波成分を取出すために約1.5
〜2.5 MHzの通過帯域が設定されている。
In general, when the image is out of focus and blurred, the high frequency component contained in the image signal obtained from the CCD by photographing is small. When the image comes into focus, the high-frequency component of the video signal increases, and the high-frequency component contained in the video signal becomes maximum at the correctly focused position. In this embodiment, focusing control is performed based on this fact, and B
PF20 has about 1.5 to extract high frequency components of video signal.
A pass band of ~ 2.5 MHz is set.

【0094】合焦検出領域は撮影領域のうち測光領域に
対応して,測光領域と等しく設定される。第1の分割測
光領域SP1 が第1の合焦検出領域SP1 となり,第2
の分割測光領域SP2 が第2の合焦検出領域SP2 とな
り,第3の分割測光領域SP3 が第3の合焦検出領域S
3 となり,第4の分割測光領域SP4 が第4の合焦検
出領域SP4 となり,第5の分割測光領域SP5 が第5
の合焦検出領域SP5となる。
The focus detection area corresponds to the photometric area of the photographing area and is set equal to the photometric area. The first divided photometric area SP 1 becomes the first focus detection area SP 1 , and the second
Divided photometric area SP 2 becomes the second focus detection area SP 2 , and the third divided photometric area SP 3 becomes the third focus detection area S 3.
P 3 , the fourth divided photometric area SP 4 becomes the fourth focus detection area SP 4 , and the fifth divided photometric area SP 5 becomes the fifth.
Is the focus detection area SP 5 .

【0095】図9は第4の合焦検出領域SP4 の合焦検
出処理を示すタイム・チャートである。
FIG. 9 is a time chart showing the focus detection processing of the fourth focus detection area SP 4 .

【0096】第34番目の水平走査ラインから第86番目の
水平走査ラインまでの間では,ゲート回路16に,水平同
期信号HDの立下りから16μs後にパルス幅40μsのウ
インドウ信号WIND1が与えられる。そして,積分回
路20による高周波信号の積分と,この積分動作が行なわ
れた水平走査期間の次の水平走査期間における積分信号
のA/D変換,積分回路22のリセットおよびメモリの第
4の測光領域データ・エリアへの積分データの加算と
が,水平走査期間毎に交互に繰返して行なわれる。
Between the 34th horizontal scanning line and the 86th horizontal scanning line, the gate circuit 16 is supplied with the window signal WIND1 having a pulse width of 40 μs 16 μs after the fall of the horizontal synchronizing signal HD. Then, the integration circuit 20 integrates the high frequency signal, A / D-converts the integration signal in the horizontal scanning period subsequent to the horizontal scanning period in which this integration operation is performed, resets the integration circuit 22 and the fourth photometric area of the memory. The addition of integrated data to the data area is alternately repeated every horizontal scanning period.

【0097】第5の合焦検出領域SP5 における合焦検
出処理のタイミングも第195 番目の水平走査ラインから
第246 番目の水平走査ラインまでに行なわれることを除
き第4の合焦検出領域と同様であるため説明を省略す
る。
The timing of focus detection processing in the fifth focus detection area SP 5 is the same as that of the fourth focus detection area except that it is performed from the 195th horizontal scanning line to the 246th horizontal scanning line. The description is omitted because it is the same.

【0098】図10は第1〜第3の合焦検出領域SP1
SP3 の合焦検出処理を示すタイム・チャートである。
FIG. 10 shows the first to third focus detection areas SP 1 to
7 is a time chart showing the focus detection processing of SP 3 .

【0099】第87番目の水平走査ラインから第194 番目
の水平走査ラインまでの間は合焦検出領域SP1 のため
の,水平同期信号HDの立下りから16μs後に立上るパ
ルス幅12.5μsのウインドウ信号WIND2と合焦検出
領域SP2 のための,水平同期信号HDの立下りから2
8.5μs後に立上るパルス幅15μsのウインドウ信号W
IND2と,合焦検出領域SP3 のための,水平同期信
号HDの立下りから31μs後に立上るパルス幅12.5μs
のウインドウ信号WIND2とが繰返してゲート回路19
に与えられる。
A window having a pulse width of 12.5 μs which rises 16 μs after the fall of the horizontal synchronizing signal HD for the focus detection area SP 1 between the 87th horizontal scanning line and the 194th horizontal scanning line. 2 from the trailing edge of the horizontal synchronizing signal HD for the signal WIND2 and the focus detection area SP2
Window signal W with a pulse width of 15 μs that rises after 8.5 μs
A pulse width of 12.5 μs that rises 31 μs after the fall of the horizontal synchronizing signal HD for the IND2 and the focus detection area SP 3.
And the window signal WIND2 of
Given to.

【0100】水平同期信号HDの立下りから16μs経過
後のパルス幅12.5μsのウインドウ信号WIND2が積
分回路22に与えられ高周波信号の積分が行なわれたとき
には,積分動作が行なわれた水平走査期間の次の水平走
査期間において積分信号のA/D変換,積分回路17のリ
セット,メモリの第1の合焦検出領域データ・エリアへ
の積分データの加算が行なわれる(合焦検出領域SP1
の処理)。
When the window signal WIND2 having a pulse width of 12.5 μs after 16 μs has passed from the falling of the horizontal synchronizing signal HD is applied to the integrating circuit 22 and the high frequency signal is integrated, the integration operation is performed in the horizontal scanning period. In the next horizontal scanning period, A / D conversion of the integrated signal, reset of the integration circuit 17, and addition of the integrated data to the first focus detection area data area of the memory (focus detection area SP 1
Processing).

【0101】水平同期信号HDの立下りから28.5μs経
過後にパルス幅15μsのウインドウ信号WIND2が積
分回路22に与えられ高周波信号の積分が行なわれたとき
には,積分動作が行なわれた水平走査期間の次の水平走
査期間において積分信号のA/D変換,積分回路17のリ
セット,メモリの第2の合焦検出領域データ・エリアへ
の積分データの加算が行なわれる(合焦検出領域SP2
の処理)。
When 28.5 μs has elapsed from the falling of the horizontal synchronizing signal HD, the window signal WIND2 having a pulse width of 15 μs is applied to the integrating circuit 22 to integrate the high frequency signal, and then the horizontal scanning period after the integration operation is performed. A / D conversion of the integration signal, resetting of the integration circuit 17, and addition of the integration data to the second focus detection area data area of the memory are performed during the horizontal scanning period of (focus detection area SP 2
Processing).

【0102】また,水平同期信号HDの立下りから33.5
μs経過後にパルス幅12.5μsのウインドウ信号WIN
D2が積分回路22に与えられ高周波信号の積分が行なわ
れたときには,積分動作が行なわれた水平走査期間の次
の水平走査期間において積分信号のA/D変換,積分回
路22のリセット,メモリのSP3 合焦検出領域データ・
エリアへの積分データの加算が行なわれる(合焦検出領
域SP3 の処理)。
Further, from the falling edge of the horizontal synchronizing signal HD, 33.5
Window signal WIN with pulse width of 12.5 μs after μs
When D2 is supplied to the integrating circuit 22 to integrate the high frequency signal, A / D conversion of the integrating signal, resetting of the integrating circuit 22 and memory operation in the horizontal scanning period subsequent to the horizontal scanning period in which the integrating operation is performed. SP 3 focus detection area data
Integration data is added to the area (processing of focus detection area SP 3 ).

【0103】CPU3はパルス幅40μs,12.5μsまた
は15μsのウインドウ信号WIND2に基づいて得られ
る1水平走査ラインについてのそれぞれの積分データを
後述する手順によって1フィールド期間にわたってそれ
ぞれの合焦検出領域データ・エリアにおいて加算する。
The CPU 3 collects the respective integrated data for one horizontal scanning line obtained on the basis of the window signal WIND2 having the pulse width of 40 μs, 12.5 μs or 15 μs by the procedure described later for each focus detection area data area over one field period. Add in.

【0104】したがって,合焦検出領域内における走査
が終了した時点においてはメモリの各合焦検出用エリア
には,BPF20を通過した高周波信号の合焦検出領域全
域にわたる積分値を表わす合焦検出用加算データがそれ
ぞれの合焦検出領域に対応してストアされていることに
なる。
Therefore, at the time when the scanning in the focus detection area is completed, each focus detection area of the memory has a focus detection area which represents an integrated value of the high frequency signal passing through the BPF 20 over the entire focus detection area. The added data is stored corresponding to each focus detection area.

【0105】上述したように測距センサ27を用いた予備
測距において被写体までのおおよその距離が測定されて
いる。この予備測距データに基づいて撮像レンズ24は合
焦位置と考えられる少し手前の位置(初期位置という)
まで繰出される。
As described above, in the preliminary distance measurement using the distance measuring sensor 27, the approximate distance to the subject is measured. Based on this preliminary distance measurement data, the image pickup lens 24 is considered to be the in-focus position, which is a little before this position (called the initial position)
Is delivered to.

【0106】CCD4から出力される映像信号の高周波
成分の合焦検出領域にわたる積分動作は,撮像レンズ24
を10μmずつ前方に繰出しながら,少なくとも6回(す
なわち6フレーム期間にわたって各フレーム期間のBフ
ィールド期間において)行なわれる。上記の初期位置
(撮像レンズ24の繰出し量=0μm)においてまず第1
の測距用加算データが得られる。次のフレーム期間にお
いて初期位置から撮像レンズ24を10μm繰出した位置
(撮像レンズ繰出し量=10μm)において第2の合焦検
出用加算データが得られる。同様にして撮像レンズ24を
10μmずつ繰出しながら第3〜第6の合焦検出用加算デ
ータが得られる。このようにして得られた6位置の加算
データは図11に示すようにメモリの各合焦検出領域に対
応したそれぞれの所定エリアに記憶される。
The integration operation over the focus detection area of the high frequency component of the video signal output from the CCD 4 is performed by the imaging lens 24
Is carried out at least 6 times (that is, in the B field period of each frame period over 6 frame periods) while feeding forward by 10 μm. At the above-mentioned initial position (extending amount of the imaging lens 24 = 0 μm), first
The additional data for distance measurement is obtained. In the next frame period, the second focus detection additional data is obtained at the position where the imaging lens 24 is extended by 10 μm from the initial position (image pickup lens extension amount = 10 μm). In the same way, the imaging lens 24
The third to sixth focus detection addition data are obtained while feeding each 10 μm. The added data at the six positions thus obtained is stored in respective predetermined areas corresponding to the respective focus detection areas of the memory as shown in FIG.

【0107】図12は図11に示す6位置における合焦検出
用加算データをグラフに表わしたものである。撮像レン
ズ24の初期位置は真の合焦位置の少し手前である。この
位置から撮像レンズ24が10μmずつ繰出され,合焦検出
用加算データが得られる。映像信号に含まれる高周波信
号の積分値は真の合焦位置で最大となる。撮像レンズ24
の単位繰出し量は10μmで非常に微小距離であるから,
合焦検出用加算データが最大値を示す位置を真の合焦位
置とみなしても誤差はきわめて小さい。したがって,合
焦検出用加算データが最大値を示す位置に撮像レンズ24
が位置決めされることにより高精度の合焦が達成でき
る。
FIG. 12 is a graph showing the focus detection addition data at the six positions shown in FIG. The initial position of the imaging lens 24 is slightly before the true in-focus position. From this position, the image pickup lens 24 is extended by 10 μm, and the addition data for focus detection is obtained. The integrated value of the high frequency signal included in the video signal becomes maximum at the true focus position. Imaging lens 24
The unit feeding amount of is 10 μm, which is a very small distance.
Even if the position where the focus detection addition data shows the maximum value is regarded as the true focus position, the error is extremely small. Therefore, the imaging lens 24 is placed at a position where the focus detection addition data shows the maximum value.
High-precision focusing can be achieved by positioning.

【0108】上述した測光処理と合焦制御のための合焦
検出用加算データ収集処理はフィールド毎に交互に行な
われる。
The above-described photometric processing and focus detection additional data collection processing for focus control are alternately performed for each field.

【0109】図13および図14は予備測光,予備測距処理
ならびにその後に行なわれる予備撮影に基づく露光制御
および合焦制御の全体的な手順を示すものである。
13 and 14 show the overall procedure of the preliminary photometry, the preliminary distance measurement processing, and the exposure control and focusing control based on the preliminary photographing performed thereafter.

【0110】Aフィールドにおいて測光処理が行なわ
れ,Bフィールドにおいて合焦制御処理が行なわれるよ
うCPU3において制御される。合焦制御処理は第1〜
第5の合焦検出領域SP1 〜SP5 から得られるデータ
のうちいずれかのデータに基づいて行なわれる。測光処
理はAV測光領域から得られるデータに基づくAV測光
処理と,第1〜第5の分割測光領域SP1 〜SP5 のう
ち合焦検出に用いられた領域と等しい領域から得られる
データに基づくSP測光処理とが行なわれる。
The CPU 3 controls so that photometry processing is performed in the A field and focus control processing is performed in the B field. Focus control processing is first to
This is performed based on any one of the data obtained from the fifth focus detection areas SP 1 to SP 5 . The photometric processing is based on the AV photometric processing based on the data obtained from the AV photometric area and the data obtained from the area equal to the area used for focus detection among the first to fifth divided photometric areas SP 1 to SP 5. SP photometric processing is performed.

【0111】図13および図14のフローチャートを参照し
てCPU3の測光処理および合焦制御処理の詳細を説明
する。
Details of the photometry processing and the focus control processing of the CPU 3 will be described with reference to the flowcharts of FIGS. 13 and 14.

【0112】CPU3はまず測光センサ26の測光信号に
基づく予備測光および測距センサ26からの測距信号に基
づく予備測距を行なう(ステップ70)。予備測光に基づ
いて露光条件の初期設定が行なわれ(ステップ71),予
備測距に基づいて撮像レンズ24が初期位置まで繰出され
る(ステップ72)。
The CPU 3 first carries out preliminary photometry based on the photometry signal of the photometry sensor 26 and preliminary rangefinding based on the rangefinding signal from the rangefinding sensor 26 (step 70). The exposure conditions are initialized based on the preliminary photometry (step 71), and the imaging lens 24 is extended to the initial position based on the preliminary distance measurement (step 72).

【0113】次に,切換スイッチ13が入力端子S2に接
続される(ステップ73)。これによって,Aフィールド
期間において図7に示した手順でまずAV測光およびA
V測光値演算がそれぞれ行なわれる(ステップ74,7
5)。これは図7のステップ51〜56の処理に対応する。
Next, the changeover switch 13 is connected to the input terminal S2 (step 73). As a result, during the A field period, the AV metering and A
V photometric value calculation is performed (steps 74 and 7).
Five). This corresponds to the processing of steps 51 to 56 in FIG.

【0114】このようにして求められた測光値が適切か
否かの判断が行なわれる(ステップ76)。この判断は図
7のステップ58の判断を含む。ステップ58の判断に加え
て,好ましくは測光値がステップ71で設定された露光条
件に対応する範囲内のものかどうかの判断も行なわれ
る。
It is determined whether the photometric value thus obtained is appropriate (step 76). This judgment includes the judgment of step 58 in FIG. In addition to the determination in step 58, it is also preferably determined whether the photometric value is within the range corresponding to the exposure condition set in step 71.

【0115】得られた測光値が適切であると判断された
場合には,その測光値に基づいて露光条件(絞り値,シ
ャッタ速度)が設定され,この露光条件となるように絞
りの絞り値およびシャッタ速度が設定され(ステップ8
0)。
When it is determined that the obtained photometric value is appropriate, the exposure condition (aperture value, shutter speed) is set based on the photometric value, and the aperture value of the aperture is adjusted to meet this exposure condition. And the shutter speed is set (step 8
0).

【0116】続いて切換スイッチ13が入力端子S3側に
切換えられる(ステップ81)。Bフィールドの映像信号
の読出しが開始されると,上述したようにそれぞれの合
焦検出領域における水平走査線にそう映像信号の積分,
積分信号のA/D変換,A/D変換された積分データの
加算がそれぞれ合焦検出領域SP1 〜SP5 の全体にわ
たって行なわれる(ステップ82,83)。
Then, the changeover switch 13 is changed over to the input terminal S3 side (step 81). When the reading of the video signal of the B field is started, the integration of the video signal on the horizontal scanning line in each focus detection area is performed as described above.
The A / D conversion of the integrated signal and the addition of the A / D converted integrated data are performed over the entire focus detection areas SP 1 to SP 5 (steps 82 and 83).

【0117】上述したように合焦検出用加算データはフ
レーム(Bフィールド)毎に撮像レンズ24を10μmずつ
繰出しながら収集される。撮像レンズ24の繰出し回数を
計数するためにカウンタが設けられている。
As described above, the focus detection addition data is collected while feeding out the image pickup lens 24 by 10 μm for each frame (B field). A counter is provided to count the number of times the imaging lens 24 is extended.

【0118】それぞれの合焦検出領域SP1 〜SP5
ついて加算データが得られると,上記カウンタがインク
レメントされるとともに(ステップ84),撮像レンズ24
が10μm繰出される(ステップ85)。得られた加算デー
タは図11に示すメモリ・エリアに記憶される。
When the addition data is obtained for each of the focus detection areas SP 1 to SP 5 , the counter is incremented (step 84) and the imaging lens 24
For 10 μm (step 85). The obtained addition data is stored in the memory area shown in FIG.

【0119】1フレーム毎にステップ73〜76,80〜85の
処理が繰返され,カウンタの値が5を超えると(ステッ
プ86でYES),図12に示すようなグラフが5つの合焦
検出領域に対応して5種類得られることになる(ステッ
プ87でYES)。
When the processing of steps 73 to 76 and 80 to 85 is repeated for each frame and the value of the counter exceeds 5 (YES in step 86), the graph as shown in FIG. 12 has five focus detection areas. 5 types will be obtained corresponding to (YES at step 87).

【0120】測距センサ27の予備測距領域は撮影領域の
ほぼ中央に存在している。撮影領域のほぼ中央に存在す
る第2の合焦検出領域から得られるデータに基づいて精
密な合焦制御が行なわれることが多い。このために第2
の合焦検出領域から得られるデータのレベルがしきい値
以上どうかが判断される(ステップ88)。
The preliminary distance-measuring area of the distance-measuring sensor 27 is present in the approximate center of the photographing area. In many cases, precise focus control is performed based on the data obtained from the second focus detection area, which exists in the approximate center of the shooting area. Second for this
It is determined whether or not the level of the data obtained from the focus detection area is above the threshold value (step 88).

【0121】第2の合焦検出領域から得られるデータの
レベルがしきい値以上ならば(ステップ88でYES),
第2の合焦検出領域から得られるデータを用いて合焦制
御が行なわれることが決定される(ステップ90)。
If the level of data obtained from the second focus detection area is equal to or higher than the threshold value (YES in step 88),
It is determined that the focus control is performed using the data obtained from the second focus detection area (step 90).

【0122】第2の合焦検出領域から得られるデータの
レベルがしきい値以下ならば(ステップ88でNO),第
2の合焦検出領域以外の合焦検出領域から得られるデー
タのレベルにしきい値以上のものがあるかどうかが判断
される(ステップ89)。しきい値以上のレベルをもつデ
ータがある場合には,それが1つならばそのデータを用
いて合焦制御が行なわれるように決定し,しきい値以上
のレベルをもつデータが2つ以上ある場合にはそれぞれ
の合焦制御領域のうち被写体が最も近い位置に存在する
領域から得られるデータを用いて合焦制御が行なわれる
ように決定される(ステップ91)。被写体が最も近いか
どうかは撮像レンズ24の位置によって把握することがで
きる。
If the level of the data obtained from the second focus detection area is less than or equal to the threshold value (NO in step 88), the level of the data obtained from the focus detection areas other than the second focus detection area is set. It is determined whether there is more than the threshold value (step 89). If there is data with a level above the threshold value, if there is one, it is decided to use that data for focus control, and there are two or more data with a level above the threshold value. In some cases, it is determined that the focusing control is performed using the data obtained from the area in which the subject is closest to each of the focusing control areas (step 91). Whether or not the subject is the closest can be grasped by the position of the imaging lens 24.

【0123】第2の分割合焦検出領域SP2 から得られ
るデータのレベルがしきい値以下であっても(ステップ
88でNO),第2の分割合焦検出領域SP2 以外の合焦
検出領域から得られるデータのレベルがいずれもしきい
値未満のときは第2の分割合焦検出領域SP2 から得ら
れるデータを用いて合焦制御が行なわれる(ステップ88
および89でNO,ステップ90)。
Even if the level of the data obtained from the second partial focus detection area SP 2 is below the threshold value (step
No in 88), and if the levels of the data obtained from the focus detection areas other than the second focus detection area SP 2 are all less than the threshold value, the data obtained from the second focus detection area SP 2 Focusing control is performed using (step 88).
And 89, NO, step 90).

【0124】このようにして決定した合焦制御に用いら
れる合焦検出領域に対応する分割測光領域の画像を表わ
す映像信号から抽出される輝度データからSP測光値E
SPが算定される(ステップ92)。
The SP photometric value E is calculated from the luminance data extracted from the video signal representing the image of the divided photometric area corresponding to the focus detection area used for the focus control thus determined.
V SP is calculated (step 92).

【0125】主被写体が存在するであろうと考えられる
領域が選択され,選択された領域に対応したSP測光領
域に基づいたSP測光が行なわれるので最も適したSP
測光値EVSPが得られることとなる。このようにして得
られたSP測光値EVSPとAV測光値EVAVとから図8
に示す処理が行なわれる。
The most suitable SP because the area where the main subject is considered to be present is selected and the SP photometry based on the SP photometry area corresponding to the selected area is performed.
The photometric value EV SP will be obtained. From the SP photometric value EV SP and the AV photometric value EV AV thus obtained, FIG.
The process shown in is performed.

【0126】次に選択された測光領域から得られる,図
11に示すエリアの6回分の測距用加算データが相互に比
較され,その最大値が求められる(ステップ93)。そし
て最大の測距用加算データに対応する位置に撮像レンズ
24が変位させられ,そこに位置決めされる(ステップ9
4)。図12に示す例でいうと,初期位置から30μm繰出
された位置に撮像レンズ24が位置決めされる。
Figure obtained from the selected photometric area
Six addition data for distance measurement in the area shown by 11 are compared with each other to obtain the maximum value (step 93). The imaging lens is placed at the position corresponding to the maximum added data for distance measurement.
24 is displaced and positioned there (step 9
Four). In the example shown in FIG. 12, the imaging lens 24 is positioned at a position extended by 30 μm from the initial position.

【0127】以上のようにして,測光と測距が終了し露
光条件の設定および合焦が行なわれると,切換スイッチ
13が入力端子S1に切換えられて,本撮影に移る。
As described above, when the photometry and the distance measurement are completed and the exposure condition is set and the focus is achieved, the changeover switch is set.
13 is switched to the input terminal S1 and the actual photographing is started.

【0128】ステップ76において測光値が不適切な範囲
にあると判定されたときには,露光条件が変更される
(ステップ77)。
If it is determined in step 76 that the photometric value is in an inappropriate range, the exposure condition is changed (step 77).

【0129】次に図11に示すメモリ・エリアの今までに
得られた測距用加算データがすべてクリアされ(ステッ
プ78),さらにカウンタがクリアされ,かつ撮像レンズ
24が初期位置に戻される(ステップ79)。これは,適正
な露光条件が設定されていない状態で得られる測距用加
算データを合焦制御に使用しないようにするためであ
る。
Next, all the distance measurement addition data obtained so far in the memory area shown in FIG. 11 are cleared (step 78), the counter is further cleared, and the imaging lens
24 is returned to the initial position (step 79). This is because the addition data for distance measurement obtained in the state where the proper exposure condition is not set is not used for focusing control.

【0130】測光と測距はフィールド毎に交互に行なわ
れ,ステップ80で露光条件の設定ならびに絞りおよびシ
ャッタの制御が行なわれる前であってもBフィールド期
間において測距が行なわれる。しかし,前述のようにA
フィールド期間において得られた測光値が適切でない場
合は,その前のBフィールド期間における測距処理にお
いて得られた合焦制御のための測距用加算データはクリ
アされるため,AV測光に基づく露光条件設定前の加算
データが合焦制御に使用されることはない。
The photometry and the distance measurement are alternately performed for each field, and the distance measurement is performed in the B field period even before the exposure condition is set and the aperture and shutter are controlled in step 80. However, as mentioned above, A
If the photometric value obtained during the field period is not appropriate, the distance measurement addition data for focus control obtained during the distance measurement process in the previous B field period is cleared, so exposure based on AV photometry is performed. The addition data before the condition setting is not used for focusing control.

【0131】測距処理を行なっている間にも測光処理を
並行して行なうのは,測距処理を行なっている間に,た
とえば被写体が動いたり変更したり,ズーム・アップま
たはズーム・ダウンしたり,急に陽光がさして明るくな
ったりすることにより,露光条件が変った場合,ステッ
プ78,79においてそれまでに記憶されていた加算データ
やカウンタをクリアにして,改めて測距を行なうためで
ある。
The photometric processing is performed in parallel while the distance measuring processing is being performed. For example, when the distance measuring processing is being performed, the subject moves or changes, or the zoom up or zoom down is performed. This is because, if the exposure conditions change due to sudden brightening of the sun or the sudden brightening, the addition data and counters stored up to that point are cleared in steps 78 and 79, and distance measurement is performed again. .

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例によるディジタル・スチル・
ビデオ・カメラの電気的構成を示すブロック図である。
FIG. 1 is a block diagram of a digital still camera according to an embodiment of the present invention.
It is a block diagram which shows the electric constitution of a video camera.

【図2】図1のディジタル・スチル・ビデオ・カメラに
おける測光のために必要な回路部分のより具体的な電気
的構成を示す回路図である。
2 is a circuit diagram showing a more specific electrical configuration of a circuit portion required for photometry in the digital still video camera shown in FIG.

【図3】撮影領域内に設定された測光領域を示す図であ
る。
FIG. 3 is a diagram showing a photometric area set within a shooting area.

【図4】各領域ごとの積分ラインを示している。FIG. 4 shows an integration line for each area.

【図5】測光処理を示すタイム・チャートである。FIG. 5 is a time chart showing photometric processing.

【図6】測光処理を示すタイム・チャートである。FIG. 6 is a time chart showing photometric processing.

【図7】CPUによる測光処理の手順を示すフローチャ
ートである。
FIG. 7 is a flowchart showing a procedure of photometric processing by a CPU.

【図8】CPUによる露光処理の設定処理手順を示すフ
ローチャートである。
FIG. 8 is a flowchart showing a procedure for setting exposure processing by a CPU.

【図9】測距処理を示すタイム・チャートである。FIG. 9 is a time chart showing distance measurement processing.

【図10】測距処理を示すタイム・チャートである。FIG. 10 is a time chart showing a distance measuring process.

【図11】測距用加算データの記憶エリアを示す図であ
る。
FIG. 11 is a diagram showing a storage area of added data for distance measurement.

【図12】合焦のため測距用加算データを示すグラフで
ある。
FIG. 12 is a graph showing distance measurement addition data for focusing.

【図13】CPUによる露光制御および合焦制御の処理
の手順を示すフローチャートである。
FIG. 13 is a flowchart showing a procedure of processing of exposure control and focusing control by the CPU.

【図14】CPUによる露光制御および合焦制御の処理
の手順を示すフローチャートである。
FIG. 14 is a flowchart showing a procedure of processing of exposure control and focusing control by the CPU.

【符号の説明】[Explanation of symbols]

3 CPU 4 CCD(固体電子撮像素子) 14 A/D変換器 15 YL 合成回路 16 ゲート回路 17 積分回路 18 増幅回路 19 ゲート回路 20 バンド・パス・フィルタ 21 検波回路 22 積分回路 24 撮像レンズ 25 撮像レンズ駆動装置 26 測光センサ 27 測距センサ3 CPU 4 CCD (solid-state electronic image sensor) 14 A / D converter 15 Y L combining circuit 16 gate circuit 17 integrating circuit 18 amplifying circuit 19 gate circuit 20 band pass filter 21 detection circuit 22 integrating circuit 24 imaging lens 25 imaging Lens drive 26 Photometric sensor 27 Distance measuring sensor

フロントページの続き (72)発明者 深田 重一 埼玉県朝霞市泉水三丁目11番46号 富士写 真フイルム株式会社内Front page continuation (72) Inventor Shigekazu Fukada 3-1146 Izumi, Asaka-shi, Saitama Fuji Shashin Film Co., Ltd.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮像レンズを用いて被写体像を結像する
撮像光学系を含むビデオ・カメラにおいて,撮影領域内
にあらかじめ複数の分割領域を設定し,上記複数の分割
領域における画像を表わすそれぞれの映像信号から上記
撮像レンズの合焦制御のための高周波信号成分をそれぞ
れ抽出し,上記複数の分割領域のうち合焦制御に用いる
いずれかの分割領域を決定し,決定した分割領域におけ
る画像を表わす映像信号から抽出された合焦制御のため
の上記高周波信号成分にもとづいて上記撮像レンズの合
焦制御を行ない,決定した分割領域における画像を表わ
す映像信号から輝度信号に関する成分を抽出し,抽出し
た輝度信号に関する成分にもとづいて測光値を算定す
る,ビデオ・カメラの測光方法。
1. A video camera including an image pickup optical system for forming a subject image by using an image pickup lens, wherein a plurality of divided areas are set in advance in an image pickup area, and images are displayed in the plurality of divided areas. A high-frequency signal component for focusing control of the imaging lens is extracted from a video signal, and one of the plurality of divided areas used for focusing control is determined, and an image in the determined divided area is displayed. Focusing control of the imaging lens is performed based on the high-frequency signal component for focus control extracted from the video signal, and a component relating to the luminance signal is extracted from the video signal representing the image in the determined divided area and extracted. A photometric method for video cameras that calculates photometric values based on components related to luminance signals.
【請求項2】 上記複数の分割領域のうち上記撮影領域
のほぼ中央にある分割領域の画像を表わす映像信号から
得られる上記高周波信号成分のレベルが所定レベル以上
のときは上記撮影領域のほぼ中央にある分割領域を,合
焦制御に用いる分割領域と決定し,上記撮影領域のほぼ
中央にある分割領域の画像を表わす映像信号から得られ
る合焦制御のための高周波信号成分のレベルが所定レベ
ル未満のときは上記撮影領域のほぼ中央にある分割領域
以外の分割領域であって,それぞれの分割領域の画像を
表わす映像信号から得られる上記高周波信号成分のレベ
ルが所定レベル以上の分割領域を合焦制御に用いる分割
領域として決定する,請求項1に記載のビデオ・カメラ
の測光方法。
2. When the level of the high-frequency signal component obtained from a video signal representing an image of a divided area in the center of the photographing area of the plurality of divided areas is equal to or higher than a predetermined level, the center of the photographing area is substantially the same. Is determined as a divided area to be used for focusing control, and the level of a high-frequency signal component for focusing control obtained from a video signal representing an image of the divided area in the center of the photographing area is a predetermined level. When it is less than the above, there are divided areas other than the divided area in the center of the photographing area, in which the level of the high frequency signal component obtained from the video signal representing the image of each divided area is equal to or higher than a predetermined level. The photometric method for a video camera according to claim 1, wherein the photometric method is determined as a divided area used for focus control.
【請求項3】 上記撮影領域のほぼ中央の領域に存在す
る被写体までの距離を測定する予備測距を行ない,上記
予備測距により得られる上記被写体までの距離について
のデータに基づいて,上記撮像レンズの予備的な合焦制
御を行ない,その後上記分割領域の設定,上記合焦制御
のための高周波信号成分の抽出処理,上記合焦制御に用
いる分割領域の決定処理,上記高周波信号成分に基づく
上記撮像レンズの合焦制御処理,上記輝度信号に関する
成分の抽出処理,および上記測光値算定処理を行なう,
請求項1に記載のビデオ・カメラの測光方法。
3. Preliminary distance measurement for measuring a distance to a subject existing in a region substantially in the center of the photographing region is performed, and the image pickup is performed based on the data about the distance to the subject obtained by the preliminary distance measurement. Preliminary focusing control of the lens is performed, and then the divided areas are set, extraction processing of high frequency signal components for the focusing control, determination processing of divided areas used for the focusing control, based on the high frequency signal components Focusing control processing of the imaging lens, extraction processing of components relating to the luminance signal, and photometric value calculation processing are performed.
The photometric method of the video camera according to claim 1.
【請求項4】 撮像レンズを用いて被写体像を結像する
撮像光学系を含むビデオ・カメラにおいて,複数の分割
領域を撮影領域内に設定する分割領域設定手段,上記複
数の分割領域における画像を表わすそれぞれの映像信号
から上記撮像レンズの合焦制御のための高周波信号成分
をそれぞれ抽出する高周波信号成分抽出手段,上記複数
の分割領域のうち合焦制御に用いるいずれかの分割領域
を決定する分割領域決定手段,決定した分割領域におけ
る画像を表わす映像信号から抽出された合焦制御のため
の上記高周波信号成分に基づいて上記撮像レンズの合焦
制御を行なう合焦制御手段,決定した分割領域における
画像を表わす映像信号から輝度信号に関する成分を抽出
する輝度信号成分抽出手段,および抽出した輝度信号に
関する成分に基づいて測光値を算定する測光値算定手
段,を備えたビデオ・カメラ。
4. A video camera including an image pickup optical system for forming a subject image using an image pickup lens, a divided area setting means for setting a plurality of divided areas within a photographing area, and an image in the plurality of divided areas. High-frequency signal component extraction means for extracting high-frequency signal components for focusing control of the imaging lens from the respective image signals shown, and division for determining any one of the plurality of divided areas used for focusing control Area determining means, focus control means for performing focus control of the imaging lens based on the high frequency signal component for focus control extracted from a video signal representing an image in the determined divided area, and in the determined divided area Luminance signal component extraction means for extracting a component relating to a luminance signal from a video signal representing an image, and based on the extracted component relating to a luminance signal A video camera equipped with a photometric value calculation means for calculating a photometric value.
【請求項5】 上記分割領域決定手段が,上記複数の分
割領域のうち上記撮影領域のほぼ中央にある分割領域の
画像を表わす映像信号から得られる上記高周波信号成分
のレベルが所定レベル以上のときは上記撮影領域のほぼ
中央にある分割領域を,合焦制御に用いる分割領域と決
定し,上記撮影領域のほぼ中央にある分割領域の画像を
表わす映像信号から得られる合焦制御のための高周波信
号成分のレベルが所定レベル未満のときは上記撮影領域
のほぼ中央にある分割領域以外の分割領域であって,そ
れぞれの分割領域の画像を表わす映像信号から得られる
上記高周波信号成分のレベルが所定レベル以上の分割領
域を合焦制御に用いる分割領域として決定するものであ
る,請求項4に記載のビデオ・カメラ。
5. The level of the high-frequency signal component obtained from a video signal representing an image of a divided area in the center of the photographing area of the plurality of divided areas is equal to or higher than a predetermined level by the divided area determination means. Determines a divided area in the approximate center of the photographing area as a divided area to be used for focusing control, and determines a high frequency for focusing control obtained from a video signal representing an image of the divided area in the approximate center of the photographing area. When the level of the signal component is less than the predetermined level, the level of the high frequency signal component obtained from the video signal representing the image of each divided area is a predetermined level in the divided areas other than the divided area in the center of the photographing area The video camera according to claim 4, wherein a divided area of a level or higher is determined as a divided area used for focusing control.
【請求項6】 上記撮影領域のほぼ中央の領域に存在す
る被写体までの距離を測定する予備測距を行なう予備測
距手段,上記予備測距により得られる上記被写体までの
距離についてのデータに基づいて,上記撮像レンズの予
備的な合焦制御を行なう予備合焦制御手段,ならびに上
記予備測距手段による予備測距および上記予備合焦制御
手段による予備合焦制御を行ない,その後上記分割領域
設定手段による分割領域の設定,上記高周波信号成分抽
出手段による合焦制御のための高周波信号成分の抽出処
理,上記分割領域決定手段による合焦制御に用いる分割
領域の決定処理,上記合焦制御手段による高周波信号成
分に基づく上記撮像レンズの合焦制御処理,上記輝度信
号成分抽出手段による輝度信号に関する成分の抽出処
理,および上記測光値算定手段による測光値算定処理を
行なうよう制御する手段,をさらに備えた請求項4に記
載のビデオ・カメラ。
6. A preliminary distance measuring means for performing preliminary distance measurement for measuring a distance to a subject existing in a region substantially in the center of the photographing region, and based on data about the distance to the subject obtained by the preliminary distance measurement. The preliminary focusing control means for performing the preliminary focusing control of the imaging lens, the preliminary distance measurement by the preliminary distance measuring means and the preliminary focusing control by the preliminary focusing control means, and then the divided area setting. Setting of divided areas by means, extraction processing of high-frequency signal components for focusing control by the high-frequency signal component extraction means, determination processing of divided areas used for focusing control by the divided area determination means, by the focusing control means Focusing control processing of the imaging lens based on a high frequency signal component, extraction processing of a component related to a luminance signal by the luminance signal component extraction means, and the photometric value The video camera according to claim 4, further comprising means for controlling to perform a photometric value calculation process by the calculation means.
JP4314365A 1992-10-30 1992-10-30 Video camera and its photometric method Pending JPH06153067A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4314365A JPH06153067A (en) 1992-10-30 1992-10-30 Video camera and its photometric method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4314365A JPH06153067A (en) 1992-10-30 1992-10-30 Video camera and its photometric method

Publications (1)

Publication Number Publication Date
JPH06153067A true JPH06153067A (en) 1994-05-31

Family

ID=18052461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4314365A Pending JPH06153067A (en) 1992-10-30 1992-10-30 Video camera and its photometric method

Country Status (1)

Country Link
JP (1) JPH06153067A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042181A (en) * 1996-07-19 1998-02-13 Canon Inc Camera
JP2007171298A (en) * 2005-12-19 2007-07-05 Canon Inc Imaging apparatus, and its control method, program and storage medium therefor
JP2008209762A (en) * 2007-02-27 2008-09-11 Nikon Corp Photoelectric detector of image forming optical system, focus detector, and imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042181A (en) * 1996-07-19 1998-02-13 Canon Inc Camera
JP2007171298A (en) * 2005-12-19 2007-07-05 Canon Inc Imaging apparatus, and its control method, program and storage medium therefor
JP2008209762A (en) * 2007-02-27 2008-09-11 Nikon Corp Photoelectric detector of image forming optical system, focus detector, and imaging apparatus

Similar Documents

Publication Publication Date Title
TWI423664B (en) Imaging apparatus and exposure control method
JP2008187615A (en) Imaging device, imaging apparatus, control method, and program
JP5597243B2 (en) Imaging device
US5436656A (en) Digital electronic still-video camera and method of controlling same
US5376964A (en) Video camera, method of photometry therein, and method of focusing same
JP4136464B2 (en) Imaging apparatus and imaging method
JP3071891B2 (en) Solid-state electronic imaging device
JPH0614236A (en) Electronic still camera
JP2518942B2 (en) Electronic still camera automatic exposure device
JP5791765B2 (en) Imaging apparatus and control method thereof
JP3384818B2 (en) Camera, preliminary photometric method thereof, preliminary photometric device and method
JPH06153067A (en) Video camera and its photometric method
JPH0690397A (en) Video camera and its focusing method
JP3086753B2 (en) Video camera and focusing method thereof
JP3453153B2 (en) Video camera and focusing method thereof
JP3433954B2 (en) Electronic still camera and control method thereof
JP2010193498A (en) Photographing device and exposure control method
JPH06105217A (en) Video camera, its photometry method and focusing control method
JP3058994B2 (en) Video camera and photometric method thereof
JP2003008983A (en) Image pickup device
JP3467049B2 (en) Video camera and photometric method thereof
JP3213394B2 (en) Video camera and photometric method thereof
JP3410155B2 (en) Exposure control device and method for electronic camera
JPH077669A (en) Still/beam video camera and control method therefor
JP3517421B2 (en) Video camera and photometric method thereof