JPH06105217A - Video camera, its photometry method and focusing control method - Google Patents

Video camera, its photometry method and focusing control method

Info

Publication number
JPH06105217A
JPH06105217A JP4279485A JP27948592A JPH06105217A JP H06105217 A JPH06105217 A JP H06105217A JP 4279485 A JP4279485 A JP 4279485A JP 27948592 A JP27948592 A JP 27948592A JP H06105217 A JPH06105217 A JP H06105217A
Authority
JP
Japan
Prior art keywords
range
image pickup
optical system
image
solid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4279485A
Other languages
Japanese (ja)
Inventor
Juichi Fukada
重一 深田
Kiyotaka Kaneko
清隆 金子
Minoru Arai
実 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP4279485A priority Critical patent/JPH06105217A/en
Publication of JPH06105217A publication Critical patent/JPH06105217A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To implement an exposure control intended by a photographer. CONSTITUTION:A range finder sensor 27 measures a distance up to an object, and a duplicate range between the visual field range of a finder and the pickup range of a CCD 4 is detected based on the distance up to the object and the focus of an image pickup lens. A YL synthesis circuit 15 extracts a luminance signal component from the output video signal of the CCD 4. A luminance signal component obtained from the light receiving section of the CCD corresponding to the duplicate range is integrated by an integration circuit 17. The integrated value is added as to the duplicate range. The photometry value is calculated from the sum.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明は,固体電子撮像素子から得られ
る映像信号を用いて被写体の測光を行い,露光条件を定
めるビテオ・カメラ(スチル/ムービ・ビデオ・カメラ
およびスチル・ビデオ・カメラを含む)およびその測光
方法に関する。
TECHNICAL FIELD The present invention relates to a video camera (including a still / movie video camera and a still video camera) that performs photometry of a subject using a video signal obtained from a solid-state electronic image pickup device and determines exposure conditions. And its photometric method.

【0002】またこの発明は,固体電子撮像素子から得
られる映像信号を用いて合焦制御を行なうビデオ・カメ
ラおよびその合焦制御方法に関する。
The present invention also relates to a video camera for performing focus control using a video signal obtained from a solid-state electronic image pickup device and a focus control method therefor.

【0003】[0003]

【背景技術】自動露光(いわゆるAE)機能をもつカメ
ラにおいては,露光条件を定めるために測光が必要であ
る。測光のために種々の方式がある。その1つはカメラ
の前面に測光素子を配置するものである。この方式は構
成が簡単であるが,測光領域が撮影領域と一致しないと
いう本質的な問題を内包している。とくにズーム・レン
ズを用いて視野を変更する場合にこの問題は顕著に現わ
れる。この問題を解決するためには撮像系のズーム・レ
ンズに連動して測光素子の測光領域を変更する必要があ
り,そのために大がかりな機構が必要となる。
BACKGROUND ART In a camera having an automatic exposure (so-called AE) function, photometry is necessary to determine an exposure condition. There are various methods for photometry. One of them is to arrange a photometric element in front of the camera. Although this method has a simple configuration, it has an essential problem that the photometric area does not match the shooting area. This problem is particularly noticeable when the field of view is changed using a zoom lens. In order to solve this problem, it is necessary to change the photometric area of the photometric element in conjunction with the zoom lens of the imaging system, which requires a large-scale mechanism.

【0004】測光素子を撮像光学系内に組込み,測光領
域を撮像領域と一致させる方式(いわゆるTTL測光)
もある。この方式では撮像光学系内にビーム・スプリッ
タ,光路変更素子等が必要であり,光学系の大型化と光
の透過率の低下による感度の低下を招く。また,ミラー
を用いた場合には耐久性,信頼性の点で問題がある。
A method in which a photometric element is incorporated in the image pickup optical system so that the photometric area coincides with the image pickup area (so-called TTL photometry).
There is also. This method requires a beam splitter, an optical path changing element, etc. in the image pickup optical system, which leads to a decrease in sensitivity due to an increase in size of the optical system and a decrease in light transmittance. Moreover, when a mirror is used, there are problems in terms of durability and reliability.

【0005】そこで,固体電子撮像素子(CCD等)を
備え,被写体像を表わす映像信号を得るビデオ・カメラ
においては,固体電子撮像素子から出力される映像信号
を適当な測光領域にわたって積分することにより測光値
を求める方式が考えられている。この方式によると,撮
像領域と測光領域が完全に一致し,しかも大型化を招く
余分な光学系を必要としないという利点がある。また,
固体電子撮像素子から得られる映像信号の電気的な処理
により,平均的な測光,部分的な測光,分割測光等のバ
リエーションが可能であり,様々な撮影環境に対応した
露光条件の設定が可能となって応用範囲が広がる。
Therefore, in a video camera equipped with a solid-state electronic image pickup device (CCD or the like) to obtain a video signal representing a subject image, the video signal output from the solid-state electronic image pickup device is integrated over an appropriate photometric region. A method of obtaining a photometric value is considered. According to this method, there is an advantage that the image pickup area and the photometric area are completely coincident with each other, and an extra optical system for increasing the size is not required. Also,
By electrically processing the video signal obtained from the solid-state electronic image sensor, variations such as average photometry, partial photometry, and split photometry are possible, and it is possible to set the exposure conditions corresponding to various shooting environments. The range of applications expands.

【0006】固体電子撮像素子から出力される映像信号
を適当な測光領域にわたって積分することにより測光値
を求める方式であっても,撮像光学系の光軸と異なる光
軸を有するファインダが設けられているビデオ・カメラ
においてファインダを覗きファインダの視野内に被写体
を収めて測光するときには,ファインダの光軸と撮像光
学系の光軸とが一致しないためにファインダの可視領域
と実際の撮影領域との間にずれが生じることがある。
Even in the method of obtaining the photometric value by integrating the video signal output from the solid-state electronic image pickup device over an appropriate photometric region, a finder having an optical axis different from the optical axis of the image pickup optical system is provided. When a subject is placed in the viewfinder's field of view for photometry with a video camera in use, the optical axis of the viewfinder does not coincide with the optical axis of the imaging optical system, so the distance between the viewable area of the viewfinder and the actual shooting area Gaps may occur.

【0007】カメラを用いて撮影する場合,主被写体は
カメラの前方1〜2mに位置していることが多い。この
ためにカメラ前方1〜2mの位置においてファインダの
可視領域と撮影領域とが一致するように設計されてい
る。この場合は固体電子撮像素子から出力される映像信
号を用いて測光値を算定しても正確な測光値が得られ
る。
When shooting with a camera, the main subject is often located 1 to 2 m in front of the camera. For this reason, it is designed so that the visible area of the finder and the shooting area coincide with each other at a position 1 to 2 m in front of the camera. In this case, an accurate photometric value can be obtained even if the photometric value is calculated using the video signal output from the solid-state electronic image pickup device.

【0008】ファインダの可視領域と撮影領域とが一致
しない位置に主被写体が存在するときは,ファインダを
覗いている範囲と異なる領域を測光することとなる。こ
のために撮影者の意図しない測光が行なわれることとな
る。
When the main subject exists at a position where the visible region of the finder and the photographing region do not coincide with each other, an area different from the range looking into the finder is measured. Therefore, photometry that is not intended by the photographer is performed.

【0009】[0009]

【発明の開示】この発明は,撮影者の意図した適正な露
光制御および合焦制御を行なうことを目的とする。
DISCLOSURE OF THE INVENTION An object of the present invention is to perform appropriate exposure control and focusing control intended by a photographer.

【0010】この発明のビデオ・カメラの測光方法は,
入射する光像を映像信号に変換して出力する固体電子撮
像素子および上記固体電子撮像素子上に被写体像を結像
する撮像レンズを含む撮像光学系と,この撮像光学系と
は光軸の異なるビューファインダ光学系とを備えたビデ
オ・カメラにおいて,主被写体までの距離を測定し,測
定された主被写体までの距離と上記撮像レンズの焦点距
離とにもとづいて,上記素子の撮影範囲と上記ビューフ
ァインダ光学系の視野の範囲とが重複する範囲を定め,
上記固体電子撮像素子から出力される映像信号のうち,
上記重複範囲の画像を表わす映像信号から輝度信号成分
を抽出し,抽出した輝度信号成分にもとづいて測光値を
算定することを特徴とする。
The photometric method of the video camera of the present invention is
An image pickup optical system including a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal and an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and an optical axis different from the image pickup optical system. In a video camera equipped with a viewfinder optical system, the distance to the main subject is measured, and based on the measured distance to the main subject and the focal length of the imaging lens, the shooting range of the element and the view Define a range that overlaps with the field of view of the finder optical system,
Of the video signals output from the solid-state electronic image sensor,
It is characterized in that a luminance signal component is extracted from a video signal representing an image in the overlapping range, and a photometric value is calculated based on the extracted luminance signal component.

【0011】またこの発明は,入射する光像を映像信号
に変換して出力する固体電子撮像素子および上記固体電
子撮像素子上に被写体像を結像する撮像レンズを含む撮
像光学系と,この撮像光学系とは光軸の異なるビューフ
ァインダ光学系とを備えたビデオ・カメラにおいて,主
被写体までの距離を測定する測距手段,上記測距手段に
よって測定された主被写体までの距離と上記撮像レンズ
の焦点距離とにもとづいて,上記固体電子撮像素子の撮
影範囲と上記ビューファインダ光学系の視野の範囲とが
重複する範囲を定める決定手段,上記固体電子撮像素子
から出力される映像信号のうち,上記決定手段によって
定められた上記重複範囲の画像を表わす映像信号から輝
度信号成分を抽出する輝度信号成分抽出手段,および上
記輝度信号成分抽出手段によって抽出された輝度信号成
分にもとづいて測光値を算定する測光値算定手段を備え
ていることを特徴とする。
The present invention also relates to an imaging optical system including a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal, and an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and this image pickup system. In a video camera equipped with a viewfinder optical system whose optical axis is different from the optical system, a distance measuring means for measuring a distance to a main subject, a distance to the main subject measured by the distance measuring means and the imaging lens Determining means for determining an overlapping range of the photographing range of the solid-state electronic image pickup device and the view range of the viewfinder optical system based on the focal length of the solid-state electronic image pickup device; Luminance signal component extracting means for extracting a luminance signal component from the video signal representing the image of the overlapping range determined by the determining means, and the luminance signal component extraction Characterized in that it comprises a photometric value calculating means for calculating a photometric value on the basis of the luminance signal component extracted by means.

【0012】被写体の撮影範囲とファインダの可視領域
との重複範囲は被写体までの距離と撮像レンズの焦点距
離とに関連する。
The overlapping range between the photographing range of the subject and the visible range of the finder is related to the distance to the subject and the focal length of the imaging lens.

【0013】この発明においては被写体までの距離が測
定され,測定された被写体までの距離と撮像レンズの焦
点距離とから被写体の撮影範囲とファインダの可視領域
との重複範囲が定められる。重複範囲の画像を表わす映
像信号から輝度信号成分が,抽出される。抽出された輝
度信号成分にもとづいて測光値が算定される。
In the present invention, the distance to the subject is measured, and the overlapping range between the photographing range of the subject and the visible range of the finder is determined based on the measured distance to the subject and the focal length of the imaging lens. A luminance signal component is extracted from the video signal representing the image in the overlapping range. A photometric value is calculated based on the extracted luminance signal component.

【0014】輝度信号成分の得られる範囲はファインダ
によって撮影者が見える範囲に限定されている。ファイ
ンダに見えない範囲について輝度信号成分が抽出される
ことがなく測光値が得られるので,撮影者の意図した露
出制御が行なわれる。
The range in which the luminance signal component can be obtained is limited to the range visible to the photographer by the finder. Since the photometric value can be obtained without extracting the luminance signal component in the range not visible in the viewfinder, the exposure control intended by the photographer is performed.

【0015】この発明のビデオ・カメラの合焦制御方法
は,入射する光像を映像信号に変換して出力する固体電
子撮像素子および上記固体電子撮像素子上に被写体像を
結像する撮像レンズを含む撮像光学系と,この撮像光学
系とは光軸の異なるビューファインダ光学系とを備えた
ビデオ・カメラにおいて,主被写体までの距離を測定
し,測定された主被写体までの距離と上記撮像レンズの
焦点距離とにもとづいて,上記固体電子撮像素子の撮影
範囲と上記ビューファインダ光学系の視野の範囲とが重
複する範囲を定め,上記固体電子撮像素子から出力され
る映像信号のうち,上記重複範囲の画像を表わす映像信
号から測距のための高周波成分を抽出し,抽出した高周
波成分にもとづいて上記撮像レンズの合焦制御を行なう
ことを特徴とする。
A focusing control method for a video camera according to the present invention comprises a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal, and an image pickup lens for forming a subject image on the solid-state electronic image pickup device. In a video camera including an image pickup optical system including the image pickup optical system and a viewfinder optical system having an optical axis different from that of the image pickup optical system, the distance to the main subject is measured, and the measured distance to the main subject and the image pickup lens Based on the focal length of the solid-state electronic image pickup device, a range in which the shooting range of the solid-state electronic image pickup device and the range of the field of view of the viewfinder optical system overlap is determined, and the overlap of the video signals output from the solid-state electronic image pickup device A high frequency component for distance measurement is extracted from a video signal representing an image in the range, and focusing control of the imaging lens is performed based on the extracted high frequency component.

【0016】またこの発明は,入射する光像を映像信号
に変換して出力する固体電子撮像素子および上記固体電
子撮像素子上に被写体像を結像する撮像レンズを含む撮
像光学系と,この撮像光学系とは光軸の異なるビューフ
ァインダ光学系とを備えたビデオ・カメラにおいて,主
被写体までの距離を測定する測距手段,上記測距手段に
よって測定された主被写体までの距離と上記撮像レンズ
の焦点距離とにもとづいて,上記固体電子撮像素子の撮
影範囲と上記ビューファインダ光学系の視野の範囲とが
重複する範囲を定める決定手段,上記固体電子撮像素子
から出力される映像信号のうち,上記決定手段によって
定められた上記重複範囲の画像を表わす映像信号から測
距のための高周波成分を抽出する高周波成分抽出手段,
および上記高周波成分抽出手段によって抽出された高周
波成分にもとづいて上記撮像レンズの合焦制御を行なう
合焦制御手段を備えていることを特徴とする。
The present invention also relates to a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal, and an image pickup optical system including an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and this image pickup system. In a video camera equipped with a viewfinder optical system whose optical axis is different from the optical system, a distance measuring means for measuring a distance to a main subject, a distance to the main subject measured by the distance measuring means and the imaging lens Determining means for determining an overlapping range of the photographing range of the solid-state electronic image pickup device and the view range of the viewfinder optical system based on the focal length of the solid-state electronic image pickup device; High frequency component extracting means for extracting a high frequency component for distance measurement from a video signal representing the image of the overlapping range determined by the determining means,
And a focusing control means for controlling the focusing of the imaging lens based on the high frequency component extracted by the high frequency component extracting means.

【0017】この発明においても,被写体までの距離が
計測され,計測された被写体までの距離と撮像レンズの
焦点距離とから被写体の撮影範囲とファインダの可視領
域との重複範囲が定められる。固体電子撮像素子から出
力される映像信号のうち測距に用いられる高周波信号成
分が,この重複範囲について抽出される。抽出された高
周波信号成分にもとづいて合焦制御が行なわれる。
Also in the present invention, the distance to the subject is measured, and the overlapping range between the photographing range of the subject and the visible range of the finder is determined from the measured distance to the subject and the focal length of the imaging lens. The high-frequency signal component used for distance measurement in the video signal output from the solid-state electronic image sensor is extracted for this overlapping range. Focusing control is performed based on the extracted high frequency signal component.

【0018】高周波信号成分の抽出範囲はファインダに
よって撮影者が見える範囲に限定されている。ファイン
ダに見えない範囲について高周波信号成分が抽出される
ことなく,すなわち合焦位置決定のためのデータとして
用いられないので,撮影者の意図した合焦制御が行なわ
れる。
The extraction range of the high frequency signal component is limited to the range visible to the photographer by the finder. The high-frequency signal component is not extracted in the range invisible to the viewfinder, that is, it is not used as the data for determining the focus position, so the focus control intended by the photographer is performed.

【0019】[0019]

【実施例】以下,この発明をディジタル・スチル・カメ
ラに適用した実施例について,図面を参照しながら詳細
を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment in which the present invention is applied to a digital still camera will be described below in detail with reference to the drawings.

【0020】図1は,この発明の実施例のディジタル・
スチル・カメラの電気的構成を示すブロック図である。
FIG. 1 is a block diagram of a digital circuit of an embodiment of the present invention.
It is a block diagram which shows the electric constitution of a still camera.

【0021】撮像光学系には,撮像レンズ24,絞り(図
示略)および固体電子撮像素子(イメージ・センサ)と
してのCCD4が含まれる。必要ならば機械的シャッタ
が設けられるが,一般的にはシャッタ機能はCCD4の
制御によって実現される電子シャッタによって達成され
る。撮像レンズ24は被写体像をCCD4に結像させるも
ので,CPU3によって制御される撮像レンズ駆動装置
25によって移動され合焦位置に位置決めされる。
The image pickup optical system includes an image pickup lens 24, a diaphragm (not shown), and a CCD 4 as a solid-state electronic image pickup device (image sensor). A mechanical shutter is provided if necessary, but generally the shutter function is achieved by an electronic shutter realized by the control of the CCD 4. The image pickup lens 24 forms an object image on the CCD 4, and the image pickup lens drive device controlled by the CPU 3
It is moved by 25 and positioned at the in-focus position.

【0022】この実施例では予備測光のために測光セン
サ26が,予備測距のために測距センサ27がそれぞれ設け
られており,これらのセンサ26および27による測光デー
タおよび測距データはCPU3に与えられる。CPU3
は測光センサ26から得られる測光データに基づいて,絞
り値およびシャッタ速度の少なくとも一方を制御するこ
とにより,CCD4への露光量がほぼ妥当な範囲内に入
るようにする。CPU3はまた,測距センサ27からの測
距データに基づいて撮像レンズ駆動装置25を制御して撮
像レンズ24を合焦位置の付近に位置決めする。
In this embodiment, a photometric sensor 26 is provided for preliminary photometry, and a range finding sensor 27 is provided for preliminary range finding. The photometric data and range finding data from these sensors 26 and 27 are stored in the CPU 3. Given. CPU3
Controls at least one of the aperture value and the shutter speed on the basis of the photometric data obtained from the photometric sensor 26 so that the exposure amount to the CCD 4 falls within a substantially appropriate range. The CPU 3 also controls the image pickup lens driving device 25 based on the distance measurement data from the distance measurement sensor 27 to position the image pickup lens 24 near the in-focus position.

【0023】このような予備測光に基づく概略的な露光
量調整および予備測距に基づく概略的な合焦制御ののち
に,予備撮影が行われる。この予備撮影によってCCD
4から得られる映像信号を利用して測光値の算出と精密
な露光制御,および精度の高い合焦制御が行われること
になる。これらの高精度の露光制御および合焦制御につ
いては後に詳述する。
After the rough adjustment of the exposure amount based on the preliminary photometry and the rough focusing control based on the preliminary distance measurement, the preliminary photographing is performed. By this preliminary shooting CCD
The calculation of the photometric value, the precise exposure control, and the highly accurate focusing control are performed by using the video signal obtained from No. 4. These highly accurate exposure control and focusing control will be described in detail later.

【0024】クロック信号発生回路(以下,CGとい
う)1は,クロック信号CLK,CCD4の水平転送路
を駆動するための水平転送パルスH,不要電荷掃出しの
ための基板抜きパルスSUB,Aフィールド垂直転送パ
ルスVAおよびBフィールド垂直転送パルスVBを発生
する。さらに,CG1はフィールド・インデックス信号
FI,ストロボ発光のためのXタイミング信号XTMを
発生する。
A clock signal generation circuit (hereinafter referred to as CG) 1 includes a clock signal CLK, a horizontal transfer pulse H for driving the horizontal transfer path of the CCD 4, a substrate extraction pulse SUB for sweeping unnecessary charges, and an A field vertical transfer. A pulse VA and a B field vertical transfer pulse VB are generated. Further, CG1 generates a field index signal FI and an X timing signal XTM for strobe emission.

【0025】クロック信号CLKは,同期信号発生回路
(以下,SSGという)2に与えられ,SSG2はこの
クロック信号CLKに基づいて水平同期信号HDおよび
垂直同期信号VDを発生し,CG1に与える。
The clock signal CLK is given to a synchronizing signal generating circuit (hereinafter referred to as SSG) 2, and the SSG2 generates a horizontal synchronizing signal HD and a vertical synchronizing signal VD based on this clock signal CLK and gives it to CG1.

【0026】水平転送パルスHはCCD4に与えられ
る。基板抜きパルスSUBおよびAフィールド垂直転送
パルスVAはVドライバ5を介して,Bフィールド垂直
転送パルスVBはVドライバ6を介して,それぞれCC
D4に与えられる。
The horizontal transfer pulse H is given to the CCD 4. The substrate extraction pulse SUB and the A field vertical transfer pulse VA are passed through the V driver 5, and the B field vertical transfer pulse VB is passed through the V driver 6 and CC, respectively.
Given to D4.

【0027】フィールド・インデックス信号FI,Xタ
イミング信号XTMおよび水平同期信号HDは,CPU
3に与えられる。このCPU3からCG1には露光条件
が設定されたことを示すシャッタのイネーブル信号TS
ENおよびCCD4における露光を開始するための電子
シャッタ制御信号TS1が与えられる。
The field index signal FI, the X timing signal XTM and the horizontal synchronizing signal HD are the CPU
Given to 3. A shutter enable signal TS indicating that the exposure condition has been set from the CPU 3 to the CG 1.
An electronic shutter control signal TS1 for starting exposure in EN and CCD 4 is applied.

【0028】CCD4では,基板抜きパルスSUB,A
フィールド垂直転送パルスVA,Bフィールド垂直転送
パルスVBおよび水平転送パルスHによって,インター
レース撮影が行われ,AフィールドとBフィールドの映
像信号(GRGBの色順次信号)が1フィールド期間ご
とに交互に生成されて,順次読み出される。CCD4の
駆動(撮像および映像信号の読出し)は,少なくとも撮
影時と,それに先だつ精密な測光処理および測距処理の
ために行われる。
In the CCD 4, the substrate extraction pulses SUB, A
By the field vertical transfer pulse VA, the B field vertical transfer pulse VB, and the horizontal transfer pulse H, interlaced shooting is performed, and video signals of the A field and the B field (color sequential signals of GRGB) are alternately generated every one field period. Are sequentially read. The driving of the CCD 4 (imaging and reading of a video signal) is performed at least at the time of photographing, and for precision photometric processing and distance measuring processing prior thereto.

【0029】CCD4から出力される被写体像を表わす
AフィールドおよびBフィールドの映像信号は,相関二
重サンプリング回路(CDS)7を通して色分離回路8
に与えられ,3原色,G(緑),R(赤)およびB
(青)の色信号に分離される。
The image signals of the A field and the B field representing the subject image output from the CCD 4 are passed through a correlated double sampling circuit (CDS) 7 to a color separation circuit 8
Given to three primary colors, G (green), R (red) and B
It is separated into (blue) color signals.

【0030】この色信号G,R,Bは可変利得増幅回路
(以下,GCAという)9に与えられる。図1にはGC
A9として1個のブロックが示されているが,実際には
GCAはR,G,Bのそれぞれの信号について設けられ
る。このGCA9において,CCD4に設けられた色フ
ィルタにおける光透過率のフィルタの色間のばらつきの
補正(以下,色フィルタばらつき補正という)およびホ
ワイト・バランス調整が行われた後,ガンマ補正回路10
に与えられる。これは後述する合焦制御を高精度に行う
ためであり,その詳細は後に述べる。合焦制御の目的の
ためには少なくとも色フィルタばらつき補正を行えばよ
いが,これに加えてホワイト・バランス調整も行えば一
層好ましい。
The color signals G, R and B are supplied to a variable gain amplifier circuit (hereinafter referred to as GCA) 9. In Figure 1, GC
Although one block is shown as A9, GCA is actually provided for each of the R, G, and B signals. In this GCA 9, after correction of variations in light transmittance of the color filters provided in the CCD 4 between filters (hereinafter referred to as color filter variation correction) and white balance adjustment are performed, the gamma correction circuit 10
Given to. This is because the focusing control described later is performed with high accuracy, and details thereof will be described later. For the purpose of focusing control, at least color filter variation correction may be performed, but it is more preferable to perform white balance adjustment in addition to this.

【0031】GCA9の出力色信号R,G,Bは,ガン
マ補正回路10で階調補正が行われて,クランプおよびリ
サンプリング回路11に入力する。
The output color signals R, G, B of the GCA 9 are gradation-corrected by the gamma correction circuit 10 and input to the clamp and resampling circuit 11.

【0032】クランプおよびリサンプリング回路11は,
3つの色信号R,G,Bをクランプし,かつリサンプリ
ングによってCCD4における色フィルタ配置に一致し
たGRGB…の色順次信号に再変換する。この色順次信
号はゲイン・コントロールおよびブランキング回路12に
入力する。ゲイン・コントロールおよびブランキング回
路12は,色順次信号を記録のために適当なレベルに増幅
するとともにこれにブランキング信号を加える。ゲイン
・コントロールおよびブランキング回路12の出力信号は
切換スイッチ13の第1の入力端子S1に与えられる。
The clamp and resampling circuit 11 is
The three color signals R, G, B are clamped and re-converted into color sequential signals of GRGB ... Which match the color filter arrangement in the CCD 4. This color sequential signal is input to the gain control and blanking circuit 12. The gain control and blanking circuit 12 amplifies the color sequential signal to an appropriate level for recording and adds the blanking signal to it. The output signal of the gain control and blanking circuit 12 is given to the first input terminal S1 of the changeover switch 13.

【0033】本撮影に先だち上述したように精密な測光
処理(露光制御)および合焦制御が行われる。測光処理
は予備撮影によってCCD4から得られる映像信号の低
周波成分を利用して行なわれ,合焦制御は上記映像信号
の高周波成分を利用して行われる。
Prior to the main photographing, precise photometric processing (exposure control) and focusing control are performed as described above. The photometric processing is carried out by utilizing the low frequency component of the video signal obtained from the CCD 4 by preliminary photography, and the focusing control is carried out by utilizing the high frequency component of the above video signal.

【0034】測光処理のために,CCD4の撮影領域内
に設けられた測光領域(後述する)内の画像を表わす映
像信号の低周波成分を取出すために,YL 合成回路15,
ゲート回路16,積分回路17および増幅回路18が設けられ
ている。増幅回路18の出力信号は切換スイッチ13の第2
の入力端子S2に与えられる。
In order to extract the low frequency component of the video signal representing the image in the photometric area (described later) provided in the photographing area of the CCD 4 for the photometric processing, the Y L synthesizing circuit 15,
A gate circuit 16, an integrating circuit 17, and an amplifying circuit 18 are provided. The output signal of the amplifier circuit 18 is the second signal of the changeover switch 13.
Input terminal S2.

【0035】一方,合焦制御のために,CCD4の撮影
領域内に設けられた測距領域(後述する)内の画像を表
わす映像信号の高周波成分を取出すために,ゲート回路
19,バンド・パス・フィルタ(以下,BPFという)2
0,検波回路21,積分回路22および増幅回路23が設けら
れている。増幅回路23の出力信号は切換スイッチ13の第
3の入力端子S3に与えられる。
On the other hand, for focusing control, in order to extract a high frequency component of a video signal representing an image in a distance measuring area (described later) provided in the photographing area of the CCD 4, a gate circuit is used.
19, band pass filter (hereinafter referred to as BPF) 2
0, a detection circuit 21, an integration circuit 22, and an amplification circuit 23 are provided. The output signal of the amplifier circuit 23 is given to the third input terminal S3 of the changeover switch 13.

【0036】切換スイッチ13はCPU3によって制御さ
れ,ゲイン・コントロールおよびブランキング回路12,
増幅回路18および増幅回路23の出力信号のいずれか1つ
を選択して出力する。切換スイッチ13の出力信号はA/
D変換器14に与えられ,ディジタル・データに変換され
る。
The changeover switch 13 is controlled by the CPU 3, and has a gain control and blanking circuit 12,
Either one of the output signals of the amplifier circuit 18 and the amplifier circuit 23 is selected and output. The output signal of the changeover switch 13 is A /
It is given to the D converter 14 and converted into digital data.

【0037】本撮影に先だつ測光処理および合焦制御に
おいては切換スイッチ13は入力端子S2またはS3のい
ずれかの入力信号を選択して出力する。後述するよう
に,入力端子S2とS3との間で1フィールドごとに切
換えられる。1フレームを構成するAフィールド(第1
フィールド)の期間においては入力端子S2が選択され
ることにより測光処理が行われ,Bフィールド(第2フ
ィールド)の期間においては入力端子S3が選択される
ことにより合焦制御が行なわれる。1フレームを構成す
るAフィールド画像とBフィールド画像とはほぼ同時点
の視野像を表わしていると考えられるので,このように
Aフィールドの映像信号を測光処理のために,Bフィー
ルドの映像信号を合焦処理のためにそれぞれ用いること
ができる。このような測光処理および合焦制御におい
て,A/D変換器14の出力データはCPU3に取込まれ
る。
In the photometric processing and focus control prior to the main photographing, the changeover switch 13 selects and outputs the input signal of either the input terminal S2 or S3. As will be described later, the input terminals S2 and S3 are switched for each field. A field (1st frame)
During the field period, the photometric processing is performed by selecting the input terminal S2, and during the B field (second field) period, the focusing control is performed by selecting the input terminal S3. Since it is considered that the A field image and the B field image forming one frame represent the field images at almost the same time points, the B field image signal is converted to the A field image signal for photometric processing in this way. Each can be used for focusing processing. In such photometric processing and focusing control, the output data of the A / D converter 14 is taken into the CPU 3.

【0038】測光処理,それに基づく露光制御(絞りや
シャッタの制御),および合焦制御(撮像レンズ24の位
置決め)の後に本撮影が行われる。このとき切換スイッ
チ13は入力端子S1を選択するように切換えられる。本
撮影によりCCD4から得られる映像信号が上述した回
路7,8,9,10,11,12および切換スイッチ13を経て
A/D変換器14に入力し,このA/D変換器14でディジ
タル画像データに変換され,画像データ処理回路(図示
略)でY/C分離,データ圧縮等の加工が加えられたの
ち,メモリ・カード等の記録媒体に記録されることにな
る。
The main photographing is performed after the photometric processing, the exposure control (control of the diaphragm and the shutter) based thereon, and the focusing control (positioning of the image pickup lens 24). At this time, the changeover switch 13 is changed over so as to select the input terminal S1. The video signal obtained from the CCD 4 by the actual photographing is inputted to the A / D converter 14 through the circuits 7, 8, 9, 10, 11, 12 and the changeover switch 13 described above, and the A / D converter 14 produces a digital image. After being converted into data and processed by an image data processing circuit (not shown) such as Y / C separation and data compression, it is recorded on a recording medium such as a memory card.

【0039】本撮影に先だつ測光処理(およびそれに基
づく露光制御)ならびに合焦制御のうち,まず測光処理
について説明する。
Of the photometric processing (and exposure control based on it) and focus control prior to the main photographing, the photometric processing will be described first.

【0040】測光処理は上述のようにYL 合成回路15,
ゲート回路16,積分回路17および増幅回路18を用いて行
われる。YL 合成回路15にはGCA9の出力色信号R,
G,Bが与えられている。
The photometric processing is performed by the Y L synthesizing circuit 15, as described above.
This is performed using the gate circuit 16, the integration circuit 17, and the amplification circuit 18. The Y L synthesizing circuit 15 outputs the output color signal R of the GCA 9,
G and B are given.

【0041】これら回路の具体的な電気的構成の一例が
図2に示されている。CPU3はゲート回路16を制御す
るウインドウ信号WIND1および積分回路17をリセッ
トするリセット信号HLRST1を出力する。これらの
信号WIND1およびHLRST1のタイミングについ
ては後述する。
An example of a specific electrical configuration of these circuits is shown in FIG. The CPU 3 outputs a window signal WIND1 for controlling the gate circuit 16 and a reset signal HLRST1 for resetting the integration circuit 17. The timing of these signals WIND1 and HLRST1 will be described later.

【0042】GCA9から出力される色信号R,Gおよ
びBはYL 合成回路15で加算され,相対的に低周波の輝
度信号YL (以下単に輝度信号YL という)が生成され
る。この輝度信号YL は,所要の水平走査期間において
ウインドウ信号WIND1が与えられている期間ゲート
回路16を通過する。積分回路17はリセット信号HLRS
T1が与えられたときにリセットされ,その後ゲート回
路16から入力する輝度信号YL を積分する。積分回路17
の積分信号は増幅回路18で増幅されたのち,積分回路17
がリセットされる直前に切換スイッチ13を経てA/D変
換器14に入力しこのA/D変換器14によって測光用ディ
ジタル積分データに変換され,CPU3に取込まれる。
積分回路17および増幅回路18の基準分圧V1,V2はこ
れらに適当なオフセットを与えるものである。
The color signals R, G and B output from the GCA 9 are added by the Y L synthesizing circuit 15 to generate a relatively low frequency luminance signal Y L (hereinafter simply referred to as luminance signal Y L ). The luminance signal Y L passes through the gate circuit 16 while the window signal WIND1 is applied during the required horizontal scanning period. The integrator circuit 17 has a reset signal HLRS.
It is reset when T1 is given, and then the luminance signal Y L input from the gate circuit 16 is integrated. Integrator circuit 17
The integrated signal of is amplified by the amplification circuit 18, and then the integration circuit 17
Immediately before being reset, the data is input to the A / D converter 14 via the change-over switch 13, converted into digital integrated data for photometry by the A / D converter 14 and taken into the CPU 3.
The reference voltage divisions V1 and V2 of the integrating circuit 17 and the amplifying circuit 18 give them an appropriate offset.

【0043】また,この実施例では積分回路17による積
分とA/D変換器14によるA/D変換動作および加算処
理とが,水平走査期間ごとに交互に行われる。
Further, in this embodiment, the integration by the integration circuit 17 and the A / D conversion operation and addition processing by the A / D converter 14 are alternately performed every horizontal scanning period.

【0044】図1に示すビデオ・カメラ50は撮影者が被
写体を見るためにビューファインダ51が設けられてい
る。このビューファインダ51の光軸l1 は図3に示すよ
うに撮像レンズ24の光軸と異なっている。ビューファイ
ンダ52の光軸l2 と撮像レンズ24の光軸とはカメラ前方
1〜2mのb点において一致している。b点よりカメラ
に近いa点またはb点よりカメラから遠いc点の位置に
おいては光軸l1 とl2とは一致していない。
The video camera 50 shown in FIG. 1 is provided with a viewfinder 51 so that the photographer can see the subject. The optical axis l 1 of the viewfinder 51 is different from the optical axis of the image pickup lens 24 as shown in FIG. The optical axis l 2 of the viewfinder 52 and the optical axis of the imaging lens 24 coincide with each other at point b 1 to 2 m in front of the camera. The optical axes l 1 and l 2 do not coincide with each other at a point a closer to the camera than the point b or a point c farther from the camera than the point b.

【0045】図4は撮影範囲,ビューファインダの視野
範囲および測光(測距)範囲の関係を示している。(A)
は図3のa点位置における各範囲の関係を,(B) は図3
のb点位置における各範囲の関係を,(C) は図3のc点
位置における各範囲の関係を示している。
FIG. 4 shows the relationship between the photographing range, the viewfinder visual field range, and the photometry (distance measurement) range. (A)
Is the relationship between the ranges at point a in Fig. 3, (B) is
3C shows the relationship between the ranges at the point b, and (C) shows the relationship between the ranges at the point c in FIG.

【0046】b点位置においては図4(B) に示すように
撮影範囲とファインダの視野範囲とがほぼ一致するが,
a点位置およびc点位置においては図4(A) および図4
(C)に示すように撮影範囲とファインダの視野範囲とは
一致しない。
At the position of point b, as shown in FIG. 4 (B), the photographing range and the field of view of the finder are almost the same,
4 (A) and 4 at the points a and c.
As shown in (C), the shooting range and the viewfinder range do not match.

【0047】ファインダの視野範囲と撮影範囲とが一致
しているときには撮影範囲のほぼ全域にわたって図4
(B) に示すように測光領域が設定される(基本測光領
域)。これらの両範囲が一致しないときには被写体まで
の距離および撮像レンズの焦点距離に応じて,図4(A)
および(C) に示すように測光領域が決定される。被写体
までの距離を測定するために測距センサ27が利用され
る。
When the visual field range of the finder and the photographing range match, almost the entire photographing range is shown in FIG.
The metering area is set as shown in (B) (basic metering area). When these two ranges do not match, depending on the distance to the subject and the focal length of the imaging lens,
And the photometric area is determined as shown in (C). The distance measuring sensor 27 is used to measure the distance to the subject.

【0048】図5は映像信号と被写***置に応じたゲー
ト信号との関係を表わしている。ゲート信号がHレベル
のときにCPU3からウインドウ信号WIND1の出力
が許可される。
FIG. 5 shows the relationship between the video signal and the gate signal according to the subject position. When the gate signal is at the H level, the CPU 3 permits the output of the window signal WIND1.

【0049】設定される測光領域の映像信号を用いて測
光処理が行なわれる。たとえば被写体がa地点にあると
きは図4(A) に示すように撮影範囲に対してファインダ
の視野範囲が上方にずれるので,1V期間の映像信号の
うち前半TAを中心として用いられて測光処理が行なわ
れる。被写体がb地点にあるときは図4(B) に示すよう
に撮影範囲と視野範囲がほぼ同位置となるので,1V期
間の映像信号ほぼすべてTBが用いられて測光処理が行
なわれる。被写体がc地点にあるときは図4(C) に示す
ように撮影領域に対してファインダの視野範囲が下方に
ずれるので,1V期間の映像信号のうち後半TCを中心
として用いられて測光処理が行なわれる。水平方向につ
いてはいずれもTHの幅をもっている。もっとも焦点距
離が変化するときはTHの幅も変わり,焦点距離に応じ
て測光範囲も変わる。
The photometric processing is performed using the video signal in the photometric area that is set. For example, when the subject is at point a, the field of view of the viewfinder shifts upward with respect to the shooting range as shown in FIG. 4 (A). Is performed. When the subject is at the point b, the photographing range and the visual field range are almost at the same position as shown in FIG. 4 (B), so that almost all the video signal in the 1V period TB is used for the photometric processing. When the subject is at point c, the viewfinder's field of view shifts downward with respect to the shooting area as shown in FIG. 4 (C), so the second half TC of the 1V period video signal is mainly used for the photometry process. Done. All have a width of TH in the horizontal direction. However, when the focal length changes, the TH width also changes, and the photometric range also changes according to the focal length.

【0050】この実施例では基本測光領域は,横方向が
水平同期信号HDの立下り(水平走査期間の開始の時
点)から16μsの経過後,40μsの期間(第1の測光期
間)に設定され,縦方向が第35番目の水平走査ラインか
ら第246 番目の水平走査ラインまでの間に設定される。
In this embodiment, the basic photometric area is set to a period of 40 μs (first photometric period) after 16 μs has elapsed from the fall of the horizontal synchronizing signal HD (at the start of the horizontal scanning period) in the horizontal direction. , The vertical direction is set between the 35th horizontal scan line and the 246th horizontal scan line.

【0051】基本測光においては,第35番目の水平同期
信号HDの立下りから16μs後にパルス幅40μsのウイ
ンドウ信号WIND1がゲート回路15に与えられる。こ
のウインドウ信号WIND1が与えられている間,ゲー
ト回路15は入力する輝度信号YL を通過させ,この輝度
信号YL は積分回路16に入力する。
In basic photometry, the window signal WIND1 having a pulse width of 40 μs is given to the gate circuit 15 16 μs after the trailing edge of the 35th horizontal synchronizing signal HD. While the window signal WIND1 is being applied, the gate circuit 15 allows the input luminance signal Y L to pass through, and the luminance signal Y L is input to the integrating circuit 16.

【0052】積分回路16は先行するフィールドにおいて
既にリセットされており,ゲート回路15を通過して入力
する輝度信号YL を積分する。ウインドウ信号WIND
1がLレベルになって輝度信号YL の積分回路16への入
力が停止すると,積分回路16の積分出力はそのまま保持
されるとともにこの積分回路16の積分出力がCPU3に
内蔵されたA/D変換器18によってディジタル・データ
に変換される。A/D変換に要する時間はこの実施例で
は15μsである。この後,積分回路16は,CPU3から
与えられる水平ライン・リセット信号HLRST1によ
ってリセットされ次の積分動作に備える。
The integrating circuit 16 has already been reset in the preceding field and integrates the luminance signal Y L which has passed through the gate circuit 15 and is input. Window signal WIND
When 1 becomes the L level and the input of the luminance signal Y L to the integrator circuit 16 is stopped, the integrated output of the integrator circuit 16 is held as it is and the integrated output of the integrator circuit 16 is incorporated in the A / D Converted to digital data by converter 18. The time required for A / D conversion is 15 μs in this embodiment. After that, the integration circuit 16 is reset by the horizontal line reset signal HLRST1 provided from the CPU 3 to prepare for the next integration operation.

【0053】CPU3に付属したメモリ(たとえばRA
M)の積分データ記憶領域は第34番目の水平同期信号H
Dに同期してクリアされている。A/D変換器18によっ
てディジタル・データに変換された積分値はこの積分デ
ータ記憶領域に先のデータ(第1番目の場合にはクリア
されているので零である)に加算されて記憶される。
A memory attached to the CPU 3 (for example, RA
The integrated data storage area of M) is the 34th horizontal synchronizing signal H.
It is cleared in synchronization with D. The integrated value converted into digital data by the A / D converter 18 is added to the previous data (which is cleared in the first case and is zero) and stored in this integrated data storage area. .

【0054】A/D変換器18によるA/D変換,積分回
路16のリセットおよび積分データの加算処理は,次の水
平走査期間において行われる。
The A / D conversion by the A / D converter 18, the reset of the integrating circuit 16 and the addition processing of the integrated data are performed in the next horizontal scanning period.

【0055】以上のようにして,測光領域内における1
本の水平走査ラインにそう積分回路16による輝度信号Y
L の積分と,この積分により得られた積分信号のA/D
変換,積分回路16のリセットおよびメモリへの積分デー
タの加算とが,水平走査期間毎に交互に繰返して行われ
る。そして,この繰返しは,第246 番目の水平走査期間
まで,すなわち測光領域内の全域に亘って行われる。
As described above, 1 in the photometry area
The luminance signal Y by the integrating circuit 16 is applied to the horizontal scanning line of the book.
Integration of L and A / D of the integrated signal obtained by this integration
The conversion, the reset of the integrating circuit 16 and the addition of the integrated data to the memory are alternately repeated every horizontal scanning period. Then, this repetition is performed until the 246th horizontal scanning period, that is, over the entire area within the photometric area.

【0056】このようにして,一水平走査期間おきに輝
度信号YL の積分が行われ,積分後の次の水平走査期間
においてA/D変換,その他の処理が行われるので,低
速のA/D変換器を用いても充分に対応できる。そし
て,一水平走査ラインおきに積分を行っても,測光値を
得るために充分な量の積分データを得ることができる。
In this way, the luminance signal Y L is integrated every other horizontal scanning period, and A / D conversion and other processing are performed in the next horizontal scanning period after the integration. Even if a D converter is used, it can be sufficiently dealt with. Even if the integration is performed every other horizontal scanning line, a sufficient amount of integration data can be obtained to obtain the photometric value.

【0057】図7はCPU3が行う測光処理の全体的な
動作を示すものである。
FIG. 7 shows the overall operation of the photometric processing performed by the CPU 3.

【0058】CPU3は測光処理を開始するにあたって
露光条件の初期設定を行い,この初期露光条件が実現さ
れるようにアイリスおよび電子シャッタの少なくともい
ずれか一方を制御する。初期露光条件としては,統計的
に最もありうる露光条件,たとえば露光量EV=10(絞
りF4,シャッタ速度1/60秒,または絞りF2,シャ
ッタ速度1/125 秒)が好ましい。
The CPU 3 initializes the exposure condition when starting the photometric processing, and controls at least one of the iris and the electronic shutter so that the initial exposure condition is realized. As the initial exposure condition, a statistically most possible exposure condition, for example, an exposure amount EV = 10 (aperture F4, shutter speed 1/60 seconds, or aperture F2, shutter speed 1/125 seconds) is preferable.

【0059】被写体までの距離および焦点距離に応じて
測光領域が定められ(ステップ50),測光領域内の水平
走査期間になると(ステップ51),上述したようにウイ
ンドウ信号WINDを出力して第1の測光期間の間,積
分回路16に積分動作を行わせる(ステップ52)。第1の
測光期間が経過したのち,A/D変換器18を駆動して積
分回路16の積分信号のA/D変換を行わせて,積分デー
タを得る。
The photometric region is determined according to the distance to the subject and the focal length (step 50), and when the horizontal scanning period within the photometric region is reached (step 51), the window signal WIND is output as described above, and the first During the photometric period of, the integrating circuit 16 is caused to perform an integrating operation (step 52). After the first photometric period has elapsed, the A / D converter 18 is driven to perform A / D conversion of the integrated signal of the integrating circuit 16 to obtain integrated data.

【0060】次に,得られた積分データがあらかじめ定
められた所定の範囲内にあるかどうかを判断する(ステ
ップ53)。これは,得られた積分データを1水平ライン
分の測光値として使用できるかどうかを判定することで
ある。測光の対象となった水平走査ラインにそう部分に
きわめて輝度の高いところがあり,輝度信号YL が飽和
しているような場合には,その積分データは測光値とし
て使用するには適当ではない。この所定の範囲は,CC
D4のダイナミック・レンジ,ゲイン・コントロール回
路9や増幅回路17のゲイン等を考慮して,飽和している
輝度信号YL に基づく積分データを排除できる程度に定
められる。所定範囲としては上限値のみならず下限値を
設定してもよい。測光の対象となった水平走査ラインに
そう部分がきわめて暗く,輝度信号YL は殆どノイズ成
分によるものであるような場合にもその積分データを測
光値として用いるのは適切ではない。そこで,ノイズ成
分が支配的となっている積分データを排除するレベルに
所定範囲の下限値が定められよう。
Next, it is judged whether the obtained integrated data is within a predetermined range (step 53). This is to determine whether the obtained integrated data can be used as a photometric value for one horizontal line. In the case where the horizontal scanning line which is the object of photometry has a very high brightness portion in that part and the brightness signal Y L is saturated, the integrated data is not suitable for use as a photometric value. This predetermined range is CC
In consideration of the dynamic range of D4, the gain of the gain control circuit 9 and the gain circuit 17, etc., it is determined to such an extent that integrated data based on the saturated luminance signal Y L can be eliminated. As the predetermined range, not only the upper limit value but also the lower limit value may be set. It is not appropriate to use the integrated data as the photometric value even when the portion of the horizontal scanning line which is the object of photometry is extremely dark and the luminance signal Y L is almost due to the noise component. Therefore, the lower limit value of the predetermined range will be set to the level at which the integrated data in which the noise component is dominant is excluded.

【0061】得られた積分データが所定の範囲内の値で
ある場合には,その積分データをメモリの積分データ領
域の値に加算して(ステップ54),まだ測光領域内であ
れば(ステップ55)ステップ52に戻る。積分データが所
定の範囲外の場合には,ライン数カウンタを1インクレ
メントし(ステップ57),積分データの加算処理は行わ
ない。すなわちその積分データは測光値として使用しな
い。ライン数カウンタは,積分データが所定範囲外にあ
る水平ライン数を計数するものである。このライン数カ
ウンタの値が所定値以内であれば(ステップ58),ステ
ップ55を経てステップ52に戻る。
If the obtained integrated data is a value within a predetermined range, the integrated data is added to the value in the integrated data area of the memory (step 54) and if it is still within the photometric area (step 54). 55) Return to step 52. If the integrated data is out of the predetermined range, the line number counter is incremented by 1 (step 57) and the addition process of the integrated data is not performed. That is, the integrated data is not used as a photometric value. The line number counter counts the number of horizontal lines whose integrated data is outside a predetermined range. If the value of the line number counter is within the predetermined value (step 58), the process returns to step 52 through step 55.

【0062】上述の動作を,2水平走査期間を1周期と
して繰返しながら測光領域の全域に亘って行う。そし
て,測光領域の範囲外に出ると(ステップ55),それま
でに得られた積分データの加算値を用いて測光値の演算
を行う(ステップ56)。この測光値演算は,積分データ
の加算値を,積分データとして加算されたライン数で除
すことにより,一水平走査線当りの積分値の平均値を求
める演算を含む。積分データとして加算されたライン数
は,測光領域内の水平走査ラインの半数からライン数カ
ウンタの値を減算することにより求められる。
The above operation is repeated over the entire photometric region while repeating two horizontal scanning periods as one cycle. Then, when it goes out of the range of the photometric area (step 55), the photometric value is calculated using the added value of the integrated data obtained up to that point (step 56). This photometric value calculation includes a calculation of dividing the added value of the integrated data by the number of lines added as the integrated data to obtain the average value of the integrated values per horizontal scanning line. The number of lines added as the integrated data is obtained by subtracting the value of the line number counter from half of the horizontal scanning lines in the photometric area.

【0063】CPU3は,この演算結果(積分値の平均
値)に基づいて,絞り,シャッタ速度,ストロボ発光の
有無等の露光条件を決定する。
The CPU 3 determines the exposure conditions such as the aperture, the shutter speed, and the presence / absence of stroboscopic light emission based on the result of this calculation (the average value of the integrated values).

【0064】また,CPU3は,積分データが所定範囲
外にある水平ライン数を計数するライン数カウンタの値
が所定数を越えた場合には(ステップ58),露光条件を
変更(ステップ59)して,メモリの積分データ領域をク
リアした後に,次のフレームまたはフィールドの開始の
時点においてステップ51からの測光処理を繰返す。
Further, when the value of the line number counter for counting the number of horizontal lines whose integrated data is outside the predetermined range exceeds the predetermined number (step 58), the CPU 3 changes the exposure condition (step 59). After clearing the integral data area of the memory, the photometric processing from step 51 is repeated at the start of the next frame or field.

【0065】露光条件の変更にさいしては,積分データ
の多くが上記所定範囲を越えている場合には,露光量を
初期設定露光量よりも少くし,逆の場合には露光量を多
くするというように露光量を1段階(たとえば±2E
V)ずつ変更するとよい。初期露光量が視野の実際の明
るさとそれほどかけ離れていない場合には,図7に示す
測光処理を1〜2回(1フレーム〜2フレーム期間)繰
返すことにより,適切な露光量が求まるであろう。
In changing the exposure conditions, if much of the integrated data exceeds the predetermined range, the exposure amount is made smaller than the initially set exposure amount, and in the opposite case, the exposure amount is made larger. In this way, the exposure amount is changed in one step (for example ± 2E
V) should be changed by each. When the initial exposure amount is not so different from the actual brightness of the field of view, an appropriate exposure amount may be obtained by repeating the photometric processing shown in FIG. 7 once or twice (one frame to two frame periods). .

【0066】次に合焦制御について説明する。Next, focusing control will be described.

【0067】再び図1を参照して,ゲイン・コントロー
ルおよびブランキング回路12の出力信号はゲート回路19
に入力する。ゲート回路19はCPU3から与えられるウ
インドウ信号WIND2によって制御される。ゲイン・
コントロールおよびブランキング回路12の出力信号は所
要の水平走査期間においてウインドウ信号WIND2が
与えられている期間,ゲート回路19を通過してBPF20
に入力する。
Referring again to FIG. 1, the output signal of the gain control and blanking circuit 12 is the gate circuit 19
To enter. The gate circuit 19 is controlled by the window signal WIND2 given from the CPU3. gain·
The output signal of the control and blanking circuit 12 passes through the gate circuit 19 and BPF20 during the period in which the window signal WIND2 is given in the required horizontal scanning period.
To enter.

【0068】BPF20は,その入力信号から合焦制御に
必要な高周波成分を取出すものであり,BPF20の出力
信号は検波回路21に入力する。このBPF20から出力さ
れる高周波成分信号は検波回路21によって検波され,積
分回路22において積分され,さらに増幅回路23によって
増幅された後,切換スイッチ13が入力端子S3を選択し
ているときにA/D変換器14に入力し,そのA/D変換
器14で合焦制御用ディジタル・データに変換されて,C
PU3に取込まれる。
The BPF 20 extracts a high frequency component required for focusing control from the input signal, and the output signal of the BPF 20 is input to the detection circuit 21. The high frequency component signal output from the BPF 20 is detected by the detection circuit 21, integrated by the integration circuit 22, and further amplified by the amplification circuit 23. Then, when the changeover switch 13 selects the input terminal S3, A / The data is input to the D converter 14, converted into digital data for focusing control by the A / D converter 14, and then converted into C
Captured by PU3.

【0069】A/D変換器14から与えられたディジタル
・データは,撮影領域内に設定された後述する測距領域
の水平走査期間にわたる積分により得られる積分データ
であり,CPU3はこの積分データを測距領域の垂直走
査期間にわたって加算して,測距用データを算定し,こ
のデータに基づいて合焦制御を行う。詳細については後
述する。
The digital data supplied from the A / D converter 14 is integral data obtained by integration over a horizontal scanning period of a range-finding area, which will be described later, set in the photographing area, and the CPU 3 converts this integrated data. The data for distance measurement is calculated by adding up over the vertical scanning period of the distance measurement area, and focusing control is performed based on this data. Details will be described later.

【0070】一般に焦点が合っていず画像がぼけている
場合には撮影によりCCDから得られる映像信号に含ま
れる高周波成分は少ない。焦点が合ってくると映像信号
の高周波成分が多くなり,正しく合焦した位置で映像信
号に含まれる高周波成分は最大となる。この実施例では
このような事実に基づいて合焦制御を行っており,BP
F20には映像信号の高周波成分を取出すために約1.5 〜
2.5 MHzの通過帯域が設定されている。
Generally, when the image is out of focus and out of focus, the high frequency component contained in the image signal obtained from the CCD by photographing is small. When the image comes into focus, the high-frequency component of the video signal increases, and the high-frequency component contained in the video signal becomes maximum at the correctly focused position. In this embodiment, focusing control is performed based on such a fact, and the BP
F20 has about 1.5 to extract high frequency component of video signal.
A pass band of 2.5 MHz is set.

【0071】一方,CCD4に設けられた色フィルタ
は,この実施例では,水平方向にGRGBの繰返しで配
列されている。CCD4の読出しクロック周波数を13.5
MHzとすると,緑色(G)のフィルタが設けられた受
光素子(フォトダイオード)から得られる映像信号には
6.8 MHzの繰返し周波数成分が,赤色(R)および青
色(B)については3.4 MHzの繰返し周波数成分が含
まれることになる。
On the other hand, the color filters provided in the CCD 4 are arranged by repeating GRGB in the horizontal direction in this embodiment. Read clock frequency of CCD4 is 13.5
If it is set to MHz, the image signal obtained from the light receiving element (photodiode) provided with the green (G) filter is
The repetition frequency component of 6.8 MHz includes the repetition frequency component of 3.4 MHz for red (R) and blue (B).

【0072】ゲート回路19を通ってBPF20に入力する
映像信号はクランプおよびリサンプリング回路11におい
て,色フィルタ配列に変換された色信号成分から構成さ
れるものであるから,この映像信号中には,被写体像を
表わす周波数成分に加えて,上述した色フィルタ配列に
起因する繰返し周波数成分(3.4 MHzおよび6.8 MH
z)が含まれている。
Since the video signal input to the BPF 20 through the gate circuit 19 is composed of the color signal components converted into the color filter array in the clamp and resampling circuit 11, this video signal contains: In addition to the frequency component representing the subject image, the repetitive frequency components (3.4 MHz and 6.8 MH) resulting from the color filter array described above.
z) is included.

【0073】色フィルタ配列に起因する繰返し周波数成
分は,R,G,Bの各色フィルタ間における光透過率の
相違,およびホワイト・バランスがくずれていることに
依存して増減する。たとえば,各色フィルタの光透過率
がすべて同じ値でかつ完全にホワイト・バランスがとれ
ていたと仮定し,真白の被写体を撮影したとすると,色
フィルタ配列に起因する繰返し周波数成分は殆ど無くな
るであろう。
The repetitive frequency components due to the color filter array increase / decrease depending on the difference in the light transmittance between the R, G, and B color filters and the impaired white balance. For example, assuming that the light transmittances of the color filters are all the same and the white balance is perfectly balanced, if a pure white object is photographed, the repetitive frequency component due to the color filter array will be almost eliminated. .

【0074】GCA9は,色フィルタ配列に起因する繰
返し周波数成分をできるだけ除去するために,色フィル
タの光透過率の相違に基づく映像信号のレベルの変動を
補正する(色フィルタばらつき補正),ホワイト・バラ
ンスを調整するためのものである。
The GCA 9 corrects fluctuations in the level of the video signal due to the difference in the light transmittance of the color filters (color filter variation correction) in order to remove the repetitive frequency components due to the color filter array as much as possible. It is for adjusting the balance.

【0075】測距領域は測光領域と同じように撮影範囲
とビューファインダの視野範囲との重複範囲に設定され
る。したがって重複範囲のCCD4から得られる映像信
号からのみ高周波信号成分が抽出されるようウインドウ
信号WIND2の出力が制御される。ウインドウ信号2
の出力は測光処理と同様に図5に示すようにゲート信号
がHレベルのときにのみその出力が許可される。
The range-finding region is set to the overlapping range of the photographing range and the field-of-view range of the viewfinder, like the photometry region. Therefore, the output of the window signal WIND2 is controlled so that the high frequency signal component is extracted only from the video signal obtained from the CCD 4 in the overlapping range. Window signal 2
Similar to the photometric processing, the output of is permitted only when the gate signal is at the H level as shown in FIG.

【0076】たとえば図3に示すようにb点以外の位置
においては撮像レンズの光軸とファインダの光軸とは一
致していない。a点のようにb点よりもカメラに近い位
置に被写体がある場合は図4(A) に示すように,ファイ
ンダの視野範囲は撮影範囲よりも上側にずれる。c点の
ようにb点よりもカメラに近い位置に被写体がある場合
は図4(C) に示すようにファインダの視野範囲は撮影範
囲よりも下側にずれる。したがって,CCD4から得ら
れる映像信号はファインダで実際に覗いている範囲と異
なる範囲についての信号となる。
For example, as shown in FIG. 3, the optical axis of the image pickup lens and the optical axis of the finder do not coincide at positions other than point b. When the subject is located closer to the camera than the point b, such as the point a, the field of view of the viewfinder shifts to the upper side of the shooting range, as shown in FIG. 4 (A). When the subject is located closer to the camera than the point b, such as the point c, the field of view of the viewfinder shifts below the shooting range as shown in FIG. 4 (C). Therefore, the video signal obtained from the CCD 4 is a signal in a range different from the range actually seen by the finder.

【0077】このために撮影範囲とファインダの視野範
囲との重複範囲について,CCD4から信号が得られる
ようにゲート回路19によって制限される。
For this reason, the gate circuit 19 limits the overlap range of the photographing range and the viewfinder range so that a signal can be obtained from the CCD 4.

【0078】撮影範囲とファインダの視野範囲との位置
ずれ量は測距回路27から得られるデータによって求めら
れる主被写体までの距離と撮像レンズの焦点距離によっ
て算出することができる。a点に示すように主被写体が
カメラに近づいているときは撮影範囲のうち上側の範囲
がファインダの視野範囲と重複しているので,図5に示
すようにCCD4の上側の範囲から得られる信号のみが
利用できるように,1Vの期間の後半部分がLレベルと
なるように,ゲート信号の出力が制御される。c点に示
すように主被写体がカメラから遠いときは撮影範囲のう
ち下側の範囲がファインダの可視領域と重複しているの
で,図5に示すようにCCD4の下側の範囲から得られ
る信号のみが利用できるように1Vの期間の前半部分が
Lレベルとなるようにゲート信号の出力が制御される。
The amount of positional deviation between the photographing range and the viewfinder range can be calculated from the distance to the main subject obtained from the data obtained from the distance measuring circuit 27 and the focal length of the imaging lens. When the main subject is close to the camera as shown at point a, the upper range of the shooting range overlaps with the field of view of the viewfinder, so the signal obtained from the upper range of the CCD 4 as shown in FIG. The output of the gate signal is controlled so that the latter half part of the 1 V period is at the L level so that only the above can be used. When the main subject is far from the camera as shown at point c, the lower range of the shooting range overlaps the visible range of the viewfinder, so that the signal obtained from the lower range of the CCD 4 as shown in FIG. The output of the gate signal is controlled so that the first half portion of the 1 V period is at the L level so that only the first portion can be used.

【0079】ゲート信号がHレベルの期間においてウイ
ンドウ信号WIND2のゲート回路19を通過した信号か
ら高周波成分が抽出されて合焦制御が行なわれることと
なる。
During the period when the gate signal is at the H level, the high frequency component is extracted from the signal of the window signal WIND2 that has passed through the gate circuit 19 and focus control is performed.

【0080】図8に示されるように,Bフィールド期間
において測距が行なわれる。第35番目の水平同期信号H
Dの立下りから16μs経過した後に40μsパルス幅のウ
インドウ信号WIND2がゲート回路19に与えられ,前
述したように,このウインドウ信号WIND2が与えら
れている間,ゲート回路19は回路12の出力信号を通過さ
せる。BPF20で取出された高周波成分信号は検波回路
21を経て積分回路22に与えられ,積分される。積分回路
22の積分出力信号は増幅回路23および切換スイッチ13を
経て,次の水平走査期間においてA/D変換器14により
ディジタル・データに変換されてCPU3に与えられ
る。積分回路22はA/D変換処理ののちリセット信号H
LRST2によりリセットされる。CPU3は,このデ
ィジタル・データをメモリの測距用エリアの先のデータ
(第1番目の場合にはクリアされているので零である)
に加算して記憶する。測距用エリアは第34番目の水平同
期信号HDに同期してまたはBフィールドの開始にあた
ってクリアされている。
As shown in FIG. 8, distance measurement is performed in the B field period. 35th horizontal sync signal H
A window signal WIND2 having a pulse width of 40 μs is applied to the gate circuit 19 after 16 μs has elapsed from the falling edge of D. As described above, the gate circuit 19 outputs the output signal of the circuit 12 while the window signal WIND2 is applied. Let it pass. The high frequency component signal extracted by BPF20 is a detection circuit.
It is given to the integration circuit 22 via 21 and integrated. Integrator circuit
The integrated output signal of 22 is passed through the amplifier circuit 23 and the changeover switch 13, converted into digital data by the A / D converter 14 in the next horizontal scanning period, and given to the CPU 3. The integrator circuit 22 performs the A / D conversion process and then the reset signal H.
It is reset by LRST2. The CPU 3 uses this digital data as the previous data in the distance measuring area of the memory (it is zero because it has been cleared in the first case).
Is added to and stored. The distance measuring area is cleared in synchronization with the 34th horizontal synchronizing signal HD or at the start of the B field.

【0081】以上のようにして,測距領域内における1
本の水平走査ラインにそうBPF20による高周波成分信
号の検出,この高周波成分信号の検波および積分と,積
分信号のA/D変換および水平走査期間における積分デ
ータの加算とが水平走査期間毎に交互に繰返して行われ
る。そして,この繰返しは,決定された測距領域内の全
域にわたって行われる。
As described above, 1 in the distance measuring area
The detection of the high frequency component signal by the BPF 20, the detection and integration of the high frequency component signal, the A / D conversion of the integrated signal, and the addition of the integrated data in the horizontal scanning period are alternately performed for each horizontal scanning period on the horizontal scanning line of the book. It is repeated. Then, this repetition is performed over the entire area within the determined distance measuring area.

【0082】したがって,測距領域内における走査が終
了した時点においてはメモリの測距用エリアには,BP
F20を通過した高周波信号の測距範囲全域にわたる積分
値を表わす測距用加算データがストアされていることに
なる。
Therefore, when the scanning within the distance measuring area is completed, the BP is set in the distance measuring area of the memory.
The addition data for distance measurement, which represents the integral value of the high-frequency signal that has passed through F20 over the entire distance measurement range, is stored.

【0083】上述したように測距センサ27を用いた予備
測距において被写体までのおおよその距離が測定されて
いる。この予備測距データに基づいて撮像レンズ24は合
焦位置と考えられる少し手前の位置(初期位置という)
まで繰出される。
As described above, in the preliminary distance measurement using the distance measuring sensor 27, the approximate distance to the subject is measured. Based on this preliminary distance measurement data, the image pickup lens 24 is considered to be the in-focus position, which is a little before this position (called the initial position)
Is delivered to.

【0084】CCD4から出力される映像信号の高周波
成分の測距領域にわたる積分動作は,撮像レンズ24を10
μmずつ前方に繰出しながら,少なくとも6回(すなわ
ち6フレーム期間にわたって各フレーム期間のBフィー
ルド期間において)行われる。上記の初期位置(撮像レ
ンズ24の繰出し量=0μm)においてまず第1の測距用
加算データが得られる。次のフレーム期間において,初
期位置から撮像レンズ24を10μm繰出した位置(撮像レ
ンズ繰出し量=10μm)において第2の測距用加算デー
タが得られる。同様にして撮像レンズ24を10μmずつ繰
出しながら第3〜第6の測距用加算データが得られる。
このようにして得られた6位置の加算データは図9に示
すようにメモリの所定エリアに記憶される。
The integration operation of the high frequency component of the video signal output from the CCD 4 over the distance measuring area is performed by the image pickup lens 24 at 10
It is performed at least 6 times (that is, in the B field period of each frame period over 6 frame periods) while feeding forward by μm. At the above-mentioned initial position (extending amount of the imaging lens 24 = 0 μm), first addition data for distance measurement is obtained. In the next frame period, the second distance measurement addition data is obtained at a position where the imaging lens 24 is extended by 10 μm from the initial position (image pickup lens extension amount = 10 μm). Similarly, the third to sixth distance measurement addition data can be obtained while the imaging lens 24 is extended by 10 μm.
The 6-position addition data thus obtained is stored in a predetermined area of the memory as shown in FIG.

【0085】図10は図9に示す6位置における測距用加
算データをグラフに表わしたものである。撮像レンズ24
の初期位置は真の合焦位置の少し手前である。この位置
から撮像レンズ24が10μmずつ繰出され,測距用加算デ
ータが得られる。映像信号に含まれる高周波信号の積分
値は真の合焦位置で最大となる。撮像レンズ24の単位繰
出し量は10μmで非常に微小距離であるから,測距用加
算データが最大値を示す位置を真の合焦位置とみなして
も誤差はきわめて小さい。したがって,測距用加算デー
タが最大値を示す位置に撮像レンズ24が位置決めされる
ことにより高精度の合焦が達成できる。
FIG. 10 is a graph showing the distance measurement addition data at the six positions shown in FIG. Imaging lens 24
The initial position of is just before the true focus position. From this position, the image pickup lens 24 is extended by 10 μm, and the addition data for distance measurement is obtained. The integrated value of the high frequency signal included in the video signal becomes maximum at the true focus position. Since the unit feeding amount of the imaging lens 24 is 10 μm, which is a very small distance, even if the position where the addition data for distance measurement shows the maximum value is regarded as the true focusing position, the error is extremely small. Therefore, highly accurate focusing can be achieved by positioning the imaging lens 24 at the position where the distance measurement addition data shows the maximum value.

【0086】上述した測光処理と合焦制御のための測距
用加算データ収集処理はフィールド毎に交互に行われ
る。しかしながら,露光条件が設定される前に得られた
測距用加算データは無効化され,露光条件の設定が行わ
れた後に得られる測距用加算データのみが有効とされ
る。これは得られる測距用加算データの値が露光条件に
よって異なるため,露光条件が適切に設定されていない
状態では正確な測距用加算データを得ることができない
ためである。
The above-described photometric processing and distance measurement addition data collection processing for focusing control are alternately performed for each field. However, the distance measurement addition data obtained before the exposure condition is set is invalidated, and only the distance measurement addition data obtained after the exposure condition is set is valid. This is because the value of the additional data for distance measurement that is obtained differs depending on the exposure condition, so that accurate additional data for distance measurement cannot be obtained if the exposure condition is not set appropriately.

【0087】図11は予備測光,予備測距処理ならびにそ
の後に行われる予備撮影に基づく露光制御および合焦制
御の全体的な手順を示すものである。
FIG. 11 shows an overall procedure of preliminary photometry, preliminary distance measurement processing, and exposure control and focusing control based on preliminary photographing performed thereafter.

【0088】CPU3はまず測光センサ26の測光信号に
基づく予備測光センサ26からの測光信号に基づく予備測
光および予備測距センサ27からの測距信号に基づく予備
測距を行う(ステップ70)。予備測光に基づいて露光条
件の初期設定が行われ(ステップ71),予備測距に基づ
いて撮像レンズ24が初期位置まで繰出される(ステップ
72)。
The CPU 3 first carries out preliminary photometry based on the photometry signal from the preliminary photometry sensor 26 based on the photometry signal from the photometry sensor 26 and preliminary range finding based on the range finding signal from the preliminary range finding sensor 27 (step 70). The exposure conditions are initialized based on the preliminary photometry (step 71), and the imaging lens 24 is extended to the initial position based on the preliminary distance measurement (step 71).
72).

【0089】次に,切換スイッチ13が入力端子S2に接
続される(ステップ73)。これによって,Aフィールド
期間において図7に示した手順で測光および測光値の演
算が行われる(ステップ74,75)。これは図7のステッ
プ51〜56の処理に対応する。
Next, the changeover switch 13 is connected to the input terminal S2 (step 73). As a result, in the A field period, the photometry and the calculation of the photometric value are performed in the procedure shown in FIG. 7 (steps 74 and 75). This corresponds to the processing of steps 51 to 56 in FIG.

【0090】このようにして求められた測光値が適切か
否かの判断が行われる(ステップ76)。この判断は図7
のステップ58の判断を含む。ステップ58の判断に加え
て,好ましくは測光値がステップ71で設定された露光条
件に対応する範囲内のものかどうかの判断も行われる。
It is judged whether or not the photometric value thus obtained is appropriate (step 76). This judgment is shown in FIG.
The determination of step 58 of In addition to the determination in step 58, it is also preferably determined whether the photometric value is within the range corresponding to the exposure condition set in step 71.

【0091】得られた測光値が適切であると判断された
場合には,その測光値に基づいて露光条件(絞り値,シ
ャッタ速度)が設定され,この露光条件となるように絞
りの絞り値およびシャッタ速度が設定される(ステップ
80)。
When it is determined that the obtained photometric value is appropriate, the exposure condition (aperture value, shutter speed) is set based on the photometric value, and the aperture value of the aperture is adjusted to meet this exposure condition. And the shutter speed is set (step
80).

【0092】続いて切換スイッチ13が入力端子S3側に
切換えられる(ステップ81)。Bフィールドの映像信号
の読出しが開始されると,上述したように測距領域にお
ける水平走査線にそう映像信号の積分,積分信号のA/
D変換,A/D変換された積分データの加算が測距領域
の全体にわたって行われる(ステップ82,83)。
Then, the changeover switch 13 is changed over to the input terminal S3 side (step 81). When the reading of the video signal of the B field is started, the integration of the video signal is performed on the horizontal scanning line in the distance measurement area as described above, and the A /
The addition of the D-converted and A / D-converted integral data is performed over the entire distance measuring area (steps 82 and 83).

【0093】上述したように測距用加算データはフレー
ム(Bフィールド)毎に撮像レンズ24を10μmずつ繰出
しながら収集される。撮像レンズ24の繰出し回数を計数
するためにカウンタが設けられている。
As described above, the distance measurement addition data is collected while the imaging lens 24 is extended by 10 μm for each frame (B field). A counter is provided to count the number of times the imaging lens 24 is extended.

【0094】測距領域について加算データが得られる
と,上記カウンタがインクレメントされるとともに(ス
テップ84),撮像レンズ24が10μm繰出される(ステッ
プ85)。得られた加算データは図12に示すメモリ・エリ
アに記憶される。
When the addition data is obtained for the distance measuring area, the counter is incremented (step 84) and the image pickup lens 24 is extended by 10 μm (step 85). The obtained addition data is stored in the memory area shown in FIG.

【0095】1フレーム毎にステップ73〜76,80〜85の
処理が繰返され,カウンタの値が5を超えると,図12に
示すエリアの6回分の測距用加算データが相互に比較さ
れ,その最大値が求められる(ステップ87)。そして最
大の測距用加算データに対応する位置に撮像レンズ24が
変位させられ,そこに位置決めされる。図10に示す例で
いうと,初期位置から30μm繰出された位置に撮像レン
ズ24が位置決めされる。
The processing of steps 73 to 76 and 80 to 85 is repeated for each frame, and when the value of the counter exceeds 5, the six addition data for distance measurement in the area shown in FIG. 12 are compared with each other, The maximum value is obtained (step 87). Then, the imaging lens 24 is displaced to a position corresponding to the maximum addition data for distance measurement, and positioned there. In the example shown in FIG. 10, the imaging lens 24 is positioned at a position extended by 30 μm from the initial position.

【0096】以上のようにして,測光と測距が終了し露
光条件の設定および合焦が行われると,切換スイッチ13
が入力端子S1に切換えられて,本撮影に移る。
As described above, when the photometry and the distance measurement are completed and the exposure conditions are set and the focusing is performed, the changeover switch 13
Is switched to the input terminal S1 and the actual photographing is started.

【0097】ステップ76において測光値が不適切な範囲
にあると判定されたときには,露光条件が変更される
(ステップ77)。これは図7のステップ59に対応し,測
光値が小さい値の場合には露光量が少なくされ,逆の場
合には露光量が多くされる。
When it is determined in step 76 that the photometric value is in an inappropriate range, the exposure condition is changed (step 77). This corresponds to step 59 in FIG. 7, in which the exposure amount is decreased when the photometric value is small, and is increased in the opposite case.

【0098】次に図9に示すメモリ・エリアの今までに
得られた測距用加算データがすべてクリアされ(ステッ
プ78),さらにカウンタがクリアされ,かつ撮像レンズ
24が初期位置に戻される(ステップ79)。これは,適正
な露光条件が設定されていない状態で得られる測距用加
算データを合焦制御に使用しないようにするためであ
る。
Next, all the distance measurement addition data obtained so far in the memory area shown in FIG. 9 are cleared (step 78), the counter is further cleared, and the imaging lens
24 is returned to the initial position (step 79). This is because the addition data for distance measurement obtained in the state where the proper exposure condition is not set is not used for focusing control.

【0099】測光と測距はフィールド毎に交互に行わ
れ,ステップ80で露光条件の設定ならびに絞りおよびシ
ャッタの制御が行われる前であってもBフィールド期間
において測距が行われる。しかし,前述のようにAフィ
ールド期間において得られた測光値が適切でない場合
は,その前のBフィールド期間における測距処理におい
て得られた合焦制御のための測距用加算データはクリア
されるため,露光条件設定前の加算データが合焦制御に
使用されることはない。
The photometry and the distance measurement are alternately performed for each field, and the distance measurement is performed in the B field period even before the exposure condition is set and the aperture and shutter are controlled in step 80. However, as described above, when the photometric value obtained in the A field period is not appropriate, the distance measurement addition data for focus control obtained in the distance measurement process in the previous B field period is cleared. Therefore, the addition data before exposure condition setting is not used for focusing control.

【0100】測距処理を行っている間にも測光処理を並
行して行うのは,測距処理を行っている間に,たとえば
被写体が動いたり変更したり,ズーム・アップまたはズ
ーム・ダウンしたり,急に陽光がさして明るくなったり
することにより,露光条件が変った場合,ステップ78,
79においてそれまでに記憶されていた加算データやカウ
ンタをクリアにして,改めて測距を行うためである。
The photometric processing is performed in parallel while the distance measuring processing is being performed. For example, when the distance measuring processing is being performed, the subject moves or changes, or the zoom up or zoom down is performed. Or if the exposure conditions change due to sudden brightening of the sun, step 78,
This is because the addition data and counters stored up to that point are cleared in 79 and distance measurement is performed again.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例によるディジタル・スチル・
ビデオ・カメラの電気的構成を示すブロック図である。
FIG. 1 is a block diagram of a digital still camera according to an embodiment of the present invention.
It is a block diagram which shows the electric constitution of a video camera.

【図2】図1のディジタル・スチル・ビデオ・カメラに
おける測光のために必要な回路部分のより具体的な電気
的構成を示す回路図である。
2 is a circuit diagram showing a more specific electrical configuration of a circuit portion required for photometry in the digital still video camera of FIG.

【図3】撮像レンズの光軸とビューファインダの光軸と
を示している。
FIG. 3 shows an optical axis of an image pickup lens and an optical axis of a viewfinder.

【図4】(A) 〜(C) は撮像範囲とビューファインダの視
野範囲と測光範囲とを示している。
4A to 4C show an imaging range, a viewfinder range of a viewfinder, and a photometry range.

【図5】測光のために用いられる映像信号の範囲を示し
ている。
FIG. 5 shows a range of a video signal used for photometry.

【図6】測光を行なうときのタイム・チャートを示して
いる。
FIG. 6 shows a time chart when performing photometry.

【図7】CPUによる測光処理の手順を示すフローチャ
ートである。
FIG. 7 is a flowchart showing a procedure of photometric processing by a CPU.

【図8】測距処理を示すタイム・チャートである。FIG. 8 is a time chart showing a distance measuring process.

【図9】測距用加算データの記憶エリアを示す図であ
る。
FIG. 9 is a diagram showing a storage area of added data for distance measurement.

【図10】合焦のための測距用加算データを示すグラフ
である。
FIG. 10 is a graph showing distance measurement addition data for focusing.

【図11】CPUによる露光制御および合焦制御の処理
の手順を示すフローチャートである。
FIG. 11 is a flowchart showing a procedure of processing of exposure control and focusing control by the CPU.

【符号の説明】[Explanation of symbols]

3 CPU 4 CCD 14 YL 合成回路 16,19 ゲート回路 17,22 積分回路 22 BPF3 CPU 4 CCD 14 Y L Compositing circuit 16, 19 Gate circuit 17, 22 Integrating circuit 22 BPF

フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G02B 7/28 G03B 13/10 7139−2K H04N 5/232 J 5/335 F Continuation of front page (51) Int.Cl. 5 Identification number Office reference number FI Technical display location G02B 7/28 G03B 13/10 7139-2K H04N 5/232 J 5/335 F

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 入射する光像を映像信号に変換して出力
する固体電子撮像素子および上記固体電子撮像素子上に
被写体像を結像する撮像レンズを含む撮像光学系と,こ
の撮像光学系とは光軸の異なるビューファインダ光学系
とを備えたビデオ・カメラにおいて, 主被写体までの距離を測定し, 測定された主被写体までの距離と上記撮像レンズの焦点
距離とにもとづいて,上記素子の撮影範囲と上記ビュー
ファインダ光学系の視野の範囲とが重複する範囲を定
め, 上記固体電子撮像素子から出力される映像信号のうち,
上記重複範囲の画像を表わす映像信号から輝度信号成分
を抽出し, 抽出した輝度信号成分にもとづいて測光値を算定する, ビデオ・カメラの測光方法。
1. An imaging optical system including a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal, and an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and the image pickup optical system. Measures the distance to the main subject in a video camera equipped with a viewfinder optical system with different optical axes, and based on the measured distance to the main subject and the focal length of the imaging lens, A range in which the shooting range and the range of the field of view of the viewfinder optical system overlap is determined, and among the video signals output from the solid-state electronic image sensor,
A photometric method for a video camera, in which a luminance signal component is extracted from a video signal representing an image in the overlapping range and a photometric value is calculated based on the extracted luminance signal component.
【請求項2】 入射する光像を映像信号に変換して出力
する固体電子撮像素子および上記固体電子撮像素子上に
被写体像を結像する撮像レンズを含む撮像光学系と,こ
の撮像光学系とは光軸の異なるビューファインダ光学系
とを備えたビデオ・カメラにおいて, 主被写体までの距離を測定し, 測定された主被写体までの距離と上記撮像レンズの焦点
距離とにもとづいて,上記固体電子撮像素子の撮影範囲
と上記ビューファインダ光学系の視野の範囲とが重複す
る範囲を定め, 上記固体電子撮像素子から出力される映像信号のうち,
上記重複範囲の画像を表わす映像信号から測距のための
高周波成分を抽出し, 抽出した高周波成分にもとづいて上記撮像レンズの合焦
制御を行なう, ビデオ・カメラの合焦制御方法。
2. An imaging optical system including a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal and an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and the image pickup optical system. Measures the distance to the main subject in a video camera equipped with a viewfinder optical system with different optical axes, and based on the measured distance to the main subject and the focal length of the imaging lens, Of the video signals output from the solid-state electronic image sensor, a range in which the image capturing range of the image sensor and the field of view of the viewfinder optical system overlap is determined.
A focusing control method for a video camera, wherein a high frequency component for distance measurement is extracted from a video signal representing an image in the overlapping range, and focusing control of the imaging lens is performed based on the extracted high frequency component.
【請求項3】 入射する光像を映像信号に変換して出力
する固体電子撮像素子および上記固体電子撮像素子上に
被写体像を結像する撮像レンズを含む撮像光学系と,こ
の撮像光学系とは光軸の異なるビューファインダ光学系
とを備えたビデオ・カメラにおいて, 主被写体までの距離を測定する測距手段, 上記測距手段によって測定された主被写体までの距離と
上記撮像レンズの焦点距離とにもとづいて,上記固体電
子撮像素子の撮影範囲と上記ビューファインダ光学系の
視野の範囲とが重複する範囲を定める決定手段, 上記固体電子撮像素子から出力される映像信号のうち,
上記決定手段によって定められた上記重複範囲の画像を
表わす映像信号から輝度信号成分を抽出する輝度信号成
分抽出手段,および上記輝度信号成分抽出手段によって
抽出された輝度信号成分にもとづいて測光値を算定する
測光値算定手段, を備えたビデオ・カメラ。
3. An imaging optical system including a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal, and an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and the image pickup optical system. In a video camera equipped with a viewfinder optical system having different optical axes, distance measuring means for measuring the distance to the main subject, distance to the main subject measured by the distance measuring means, and focal length of the imaging lens Based on the above, determining means for determining a range in which the photographing range of the solid-state electronic image sensor and the range of the field of view of the viewfinder optical system overlap, among the video signals output from the solid-state electronic image sensor,
Luminance signal component extracting means for extracting a luminance signal component from a video signal representing the image of the overlapping range determined by the determining means, and a photometric value is calculated based on the luminance signal component extracted by the luminance signal component extracting means. A video camera equipped with a means for calculating photometric values.
【請求項4】 入射する光像を映像信号に変換して出力
する固体電子撮像素子および上記固体電子撮像素子上に
被写体像を結像する撮像レンズを含む撮像光学系と,こ
の撮像光学系とは光軸の異なるビューファインダ光学系
とを備えたビデオ・カメラにおいて, 主被写体までの距離を測定する測距手段, 上記測距手段によって測定された主被写体までの距離と
上記撮像レンズの焦点距離とにもとづいて,上記固体電
子撮像素子の撮影範囲と上記ビューファインダ光学系の
視野の範囲とが重複する範囲を定める決定手段, 上記固体電子撮像素子から出力される映像信号のうち,
上記決定手段によって定められた上記重複範囲の画像を
表わす映像信号から測距のための高周波成分を抽出する
高周波成分抽出手段,および上記高周波成分抽出手段に
よって抽出された高周波成分にもとづいて上記撮像レン
ズの合焦制御を行なう合焦制御手段, を備えたビデオ・カメラ。
4. An imaging optical system including a solid-state electronic image pickup device for converting an incident light image into a video signal and outputting the image signal, and an image pickup lens for forming a subject image on the solid-state electronic image pickup device, and the image pickup optical system. In a video camera equipped with a viewfinder optical system having different optical axes, distance measuring means for measuring the distance to the main subject, distance to the main subject measured by the distance measuring means, and focal length of the imaging lens Based on the above, determining means for determining a range in which the photographing range of the solid-state electronic image sensor and the range of the field of view of the viewfinder optical system overlap, among the video signals output from the solid-state electronic image sensor,
High-frequency component extracting means for extracting a high-frequency component for distance measurement from a video signal representing an image of the overlapping range determined by the determining means, and the imaging lens based on the high-frequency component extracted by the high-frequency component extracting means A video camera equipped with a focusing control means for controlling the focusing.
JP4279485A 1992-09-24 1992-09-24 Video camera, its photometry method and focusing control method Pending JPH06105217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4279485A JPH06105217A (en) 1992-09-24 1992-09-24 Video camera, its photometry method and focusing control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4279485A JPH06105217A (en) 1992-09-24 1992-09-24 Video camera, its photometry method and focusing control method

Publications (1)

Publication Number Publication Date
JPH06105217A true JPH06105217A (en) 1994-04-15

Family

ID=17611705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4279485A Pending JPH06105217A (en) 1992-09-24 1992-09-24 Video camera, its photometry method and focusing control method

Country Status (1)

Country Link
JP (1) JPH06105217A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002099497A1 (en) * 2001-06-04 2002-12-12 Fuji Photo Optical Co., Ltd. Device for determining focused state of taking lens
JP2013110769A (en) * 1999-06-15 2013-06-06 Analog Devices Inc <Adi> Variable gain amplifier system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013110769A (en) * 1999-06-15 2013-06-06 Analog Devices Inc <Adi> Variable gain amplifier system
WO2002099497A1 (en) * 2001-06-04 2002-12-12 Fuji Photo Optical Co., Ltd. Device for determining focused state of taking lens
US6833538B2 (en) 2001-06-04 2004-12-21 Fuji Photo Optical Co., Ltd. Device for determining focused state of taking lens

Similar Documents

Publication Publication Date Title
TWI375464B (en) Imaging device
US20070139548A1 (en) Image capturing apparatus, image capturing method, and computer-readable medium storing program
JP3386495B2 (en) Digital electronic still camera and control method thereof
US5376964A (en) Video camera, method of photometry therein, and method of focusing same
JPH0564083A (en) Solid-state electronic image pickup device
JP2518942B2 (en) Electronic still camera automatic exposure device
JP3384818B2 (en) Camera, preliminary photometric method thereof, preliminary photometric device and method
JP3994721B2 (en) Image capturing apparatus and method
JPH06105217A (en) Video camera, its photometry method and focusing control method
JPH0690397A (en) Video camera and its focusing method
JP4095630B2 (en) Imaging device
JP3453153B2 (en) Video camera and focusing method thereof
JPH06153067A (en) Video camera and its photometric method
JP3086753B2 (en) Video camera and focusing method thereof
JP2020127202A (en) Imaging apparatus
JP3058994B2 (en) Video camera and photometric method thereof
WO2023042453A1 (en) Imaging device, image processing method, and program
JP2002298137A (en) Image processing method, image processor, recording medium and program
WO2022244311A1 (en) Imaging device, image processing method, and program
JP3410155B2 (en) Exposure control device and method for electronic camera
JP3467049B2 (en) Video camera and photometric method thereof
JPH0265474A (en) Camera whose lens is interchangeable
JPH06189184A (en) Video camera and photometric method therefor
JP3213394B2 (en) Video camera and photometric method thereof
JP3517421B2 (en) Video camera and photometric method thereof