JP2001075141A - Camera - Google Patents

Camera

Info

Publication number
JP2001075141A
JP2001075141A JP24786799A JP24786799A JP2001075141A JP 2001075141 A JP2001075141 A JP 2001075141A JP 24786799 A JP24786799 A JP 24786799A JP 24786799 A JP24786799 A JP 24786799A JP 2001075141 A JP2001075141 A JP 2001075141A
Authority
JP
Japan
Prior art keywords
area
luminance
scene
camera
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP24786799A
Other languages
Japanese (ja)
Other versions
JP4307648B2 (en
Inventor
Masataka Ide
昌孝 井出
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP24786799A priority Critical patent/JP4307648B2/en
Priority to US09/651,877 priority patent/US6792203B1/en
Publication of JP2001075141A publication Critical patent/JP2001075141A/en
Application granted granted Critical
Publication of JP4307648B2 publication Critical patent/JP4307648B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera whose handleability is improved by automatically judging a night scene and performing photographing operation suitable for the night scene even when a photographer does not set a mode. SOLUTION: In this camera, a microcomputer 11 detects luminance distribution in a photographic image plane based on the result of output from an AF area sensor 12. An area where specified luminance is continued is judged based on the result of the output. Based on the judged result about a luminance area, a specified area of a area where a specified luminance is continued is calculated. Then, a photographing mode is decided based on the calculated result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明はカメラに関し、よ
り詳細には、夜景シーンを判定して夜景に適した撮影動
作を行うことが可能なカメラに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera, and more particularly to a camera capable of determining a night scene and performing a shooting operation suitable for the night scene.

【0002】[0002]

【従来の技術】従来より、夜景を撮影する場合に工夫さ
れたカメラが多数開発されている。
2. Description of the Related Art Conventionally, a large number of cameras devised for shooting night scenes have been developed.

【0003】例えば、特開平7−199039号公報に
は、夜景シーンを撮影するときに撮影者が夜景モードに
設定して、撮影を行うことが可能なカメラが開示されて
いる。このカメラに於いては、補助光を被写体に投光し
てAFを行うようになっている。
For example, Japanese Patent Application Laid-Open No. Hei 7-199039 discloses a camera which enables a photographer to set a night view mode when shooting a night scene scene and perform shooting. In this camera, AF is performed by projecting auxiliary light onto a subject.

【0004】また、特開平5−249369号公報に記
載のカメラでは、AFセンサの画素データが高輝度部と
低輝度部に分かれて分布している場合は、明るい背景の
人物と判定し、AFセンサの積分時間を長くして再度積
分させることにより、低輝度部分を重視してAF検出を
行う技術が開示されている。
In the camera described in Japanese Patent Application Laid-Open No. 5-249369, when pixel data of the AF sensor is distributed in a high-luminance area and a low-luminance area, it is determined that a person has a bright background, A technique has been disclosed in which AF integration is performed with a longer integration time of the sensor and AF detection is performed with emphasis on a low luminance portion.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記特
開平7-199039号公報に記載のカメラでは、撮影
者が撮影シーンに応じて夜景モードに設定するのは煩わ
しいという課題を有している。
However, the camera described in Japanese Patent Application Laid-Open No. Hei 7-199039 has a problem that it is troublesome for the photographer to set the night view mode according to the shooting scene.

【0006】また、上記特開平5−249369号公報
に記載のカメラに於いては、輝度を1つのラインセンサ
により検出しているので、検出エリアが狭く、高コント
ラストの被写体を誤認識するという課題を有している。
更に、また、明るい部分が検出エリアに入らないと夜景
と判別できないという課題を有している。
Further, in the camera described in Japanese Patent Application Laid-Open No. 5-249369, since the luminance is detected by one line sensor, the detection area is small and a high-contrast object is erroneously recognized. have.
Further, there is a problem that a bright portion cannot be determined as a night view unless it enters the detection area.

【0007】この発明は上記課題に鑑みてなされたもの
で、撮影者が設定しなくとも夜景シーンを自動的に判別
して夜景に適した撮影動作を行うことのできるカメラを
提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and has as its object to provide a camera which can automatically determine a night scene and perform a shooting operation suitable for the night scene without setting by a photographer. And

【0008】[0008]

【課題を解決するための手段】すなわちこの発明は、撮
像手段と、この撮像手段の出力結果に基き撮影画面内の
輝度分布を検出する輝度分布検出手段と、この輝度分布
検出手段の出力結果に基き所定の輝度が連続する領域を
判別する輝度領域判別手段と、この輝度領域判別手段の
出力結果に基き上記所定の輝度が連続する領域の所定面
積を演算する演算手段と、この演算手段の出力結果に基
き撮影モードを決定する撮影モード決定手段と、を具備
することを特徴とする。
That is, the present invention relates to an image pickup means, a luminance distribution detection means for detecting a luminance distribution in a photographing screen based on an output result of the image pickup means, and an output result of the luminance distribution detection means. A luminance area discriminating means for discriminating an area where predetermined luminance is continuous, an arithmetic means for calculating a predetermined area of the area where the predetermined luminance is continuous based on an output result of the luminance area discriminating means, and an output of the arithmetic means. Photographing mode determining means for determining a photographing mode based on the result.

【0009】またこの発明は、撮像手段と、この撮像手
段の出力結果に基き撮影画面内の輝度分布を検出する輝
度分布検出手段と、この輝度分布検出手段の出力結果に
基き所定の輝度が連続する領域を判別する輝度領域判別
手段と、この輝度領域判別手段の出力結果に基き上記所
定の輝度が連続する領域の所定面積を演算する演算手段
と、この演算手段の出力結果と、上記撮影画面全体の平
均輝度情報とに基き撮影モードを決定する撮影モード決
定手段と、を具備することを特徴とする。
Further, according to the present invention, there is provided an image pickup means, a luminance distribution detection means for detecting a luminance distribution in a photographing screen based on an output result of the image pickup means, and a predetermined luminance continuously based on an output result of the luminance distribution detection means. Brightness area determination means for determining an area to be processed; calculation means for calculating a predetermined area of a region where the predetermined brightness is continuous based on an output result of the brightness area determination means; output results of the calculation means; A photographing mode determining means for determining a photographing mode based on the average luminance information of the whole.

【0010】この発明のカメラにあっては、撮像手段の
出力結果に基いて、輝度分布検出手段で撮影画面内の輝
度分布が検出される。そして、この輝度分布検出手段の
出力結果に基いて、所定の輝度が連続する領域が輝度領
域判別手段にて判別される。また、この輝度領域判別手
段の出力結果に基いて、上記所定の輝度が連続する領域
の所定面積が演算手段によって演算される。この演算手
段の出力結果に基いて、撮影モード決定手段によって撮
影モードが決定される。
In the camera according to the present invention, the luminance distribution in the photographing screen is detected by the luminance distribution detecting means based on the output result of the imaging means. Then, based on the output result of the luminance distribution detecting means, an area where predetermined luminance continues is determined by the luminance area determining means. Further, a predetermined area of a region where the predetermined luminance is continuous is calculated by the calculation unit based on the output result of the brightness region determination unit. The photographing mode is determined by the photographing mode determining means based on the output result of the calculating means.

【0011】またこの発明のカメラにあっては、撮像手
段の出力結果に基いて撮影画面内の輝度分布が輝度分布
検出手段で検出される。そして、この輝度分布検出手段
の出力結果に基いて、所定の輝度が連続する領域が輝度
領域判別手段により判別される。また、この輝度領域判
別手段の出力結果に基いて、上記所定の輝度が連続する
領域の所定面積が演算手段で演算され、この演算手段の
出力結果と、上記撮影画面全体の平均輝度情報とに基い
て、撮影モード決定手段で撮影モードが決定される。
In the camera according to the present invention, the luminance distribution in the photographing screen is detected by the luminance distribution detecting means based on the output result of the imaging means. Then, based on the output result of the luminance distribution detecting means, an area where predetermined luminance continues is determined by the luminance area determining means. Further, based on the output result of the luminance area determining means, a predetermined area of the area where the predetermined luminance is continuous is calculated by the calculating means, and the output result of the calculating means and the average luminance information of the entire photographing screen are calculated. Based on this, the shooting mode is determined by the shooting mode determining means.

【0012】[0012]

【発明の実施の形態】以下、図面を参照してこの発明の
実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は、この発明の第1の実施の形態に係
るカメラの構成を示したブロック図である。
FIG. 1 is a block diagram showing a configuration of a camera according to a first embodiment of the present invention.

【0014】図1に於いて、マイクロコンピュータ11
は、このカメラ全体の制御を司るシステムコントローラ
であり、内部に、CPU(中央処理装置)11a、RO
M11b、RAM11c、アナログ−デジタル(A/
D)コンバータ(ADC)11d及びEEPROM11
eを有している。
Referring to FIG. 1, a microcomputer 11
Is a system controller that controls the entire camera, and includes a CPU (Central Processing Unit) 11a, an RO
M11b, RAM11c, analog-digital (A /
D) Converter (ADC) 11d and EEPROM 11
e.

【0015】上記CPU11aは、ROM11bに格納
されたシーケンスプログラムに従って一連の動作を行う
ものである。また、EEPROM11eは、AF、測光
・露出演算等に関する補正データをカメラ毎に記憶して
いる。
The CPU 11a performs a series of operations according to a sequence program stored in the ROM 11b. Further, the EEPROM 11e stores correction data relating to AF, photometry / exposure calculation, and the like for each camera.

【0016】上記マイクロコンピュータ11には、測距
光学系により形成される被写体像を撮像して電気信号で
あるセンサデータに変換するAFエリアセンサ12が接
続されている。このエリアセンサ12は、撮像領域12
aである水平方向と垂直方向に二次元状に配置された受
光素子群と、これら受光素子群の処理回路12bから構
成される。
The microcomputer 11 is connected to an AF area sensor 12 which captures a subject image formed by a distance measuring optical system and converts the image into sensor data as electric signals. The area sensor 12 includes an imaging area 12
The light receiving element group is a two-dimensionally arranged light emitting element group a in the horizontal and vertical directions, and a processing circuit 12b for the light receiving element group.

【0017】また、上記マイクロコンピュータ11に
は、フォーカスレンズ13を駆動するためのフォーカス
レンズ駆動部14と、該フォーカスレンズ13の移動量
に対応するパルス信号を発生するフォーカスレンズエン
コーダ15と、ズームレンズ駆動部16と、測光用受光
素子17を有する測光部18と、シャッタ駆動部19
と、フィルム駆動部20と、ストロボ23を有したスト
ロボ回路部24と、表示部25と、ファーストレリーズ
スイッチ(1RSW)26及びセカンドレリーズスイッ
チ(2RSW)27とが接続されている。
The microcomputer 11 includes a focus lens driving unit 14 for driving the focus lens 13, a focus lens encoder 15 for generating a pulse signal corresponding to the amount of movement of the focus lens 13, and a zoom lens. A driving unit 16, a photometric unit 18 having a photometric light receiving element 17, and a shutter driving unit 19
, A film drive unit 20, a strobe circuit unit 24 having a strobe 23, a display unit 25, a first release switch (1RSW) 26 and a second release switch (2RSW) 27 are connected.

【0018】マイクロコンピュータ11では、上記AF
エリアセンサ12の積分動作の制御、センサーデータの
読出し制御が行われると共に、エリアセンサ12から出
力されるセンサデータを処理して測距演算が行われる。
そして、この測距演算結果に基いて、マイクロコンピュ
ータ11からフォーカスレンズ駆動部14に駆動信号が
出力され、フォーカスレンズエンコーダ15の出力がモ
ニタされてフォーカスレンズ13の位置制御が行われ
る。
In the microcomputer 11, the AF
Control of the integration operation of the area sensor 12 and reading control of the sensor data are performed, and sensor data output from the area sensor 12 is processed to perform distance measurement calculation.
A drive signal is output from the microcomputer 11 to the focus lens drive unit 14 based on the result of the distance measurement calculation, the output of the focus lens encoder 15 is monitored, and the position of the focus lens 13 is controlled.

【0019】上記ズームレンズ駆動部16では、マイク
ロコンピュータ11の司令によりズーム動作が行われ
る。
In the zoom lens driving section 16, a zoom operation is performed by a command of the microcomputer 11.

【0020】上記測光部18では、測光用受光素子17
の発生する光電流信号が処理されて測光出力が発生され
る。マイクロコンピュータ11では、この測光出力をが
A/Dコンバータ11dによりA/D変換されて測光露
出演算が行われる。
In the photometric section 18, the photometric light receiving element 17
Is generated and a photometric output is generated. In the microcomputer 11, the photometric output is A / D converted by an A / D converter 11d, and a photometric exposure calculation is performed.

【0021】また、シャッタ駆動部19では、マイクロ
コンピュータ11からの司令に基いて、図示されないシ
ャッタが駆動される。
In the shutter drive section 19, a shutter (not shown) is driven based on a command from the microcomputer 11.

【0022】上記フィルム駆動部20では、マイクロコ
ンピュータ11の司令により、オートロード、1駒巻上
げ、巻戻しのフィルム駆動動作が行われる。
In the film driving section 20, under the command of the microcomputer 11, the film driving operation of auto load, single frame winding and rewinding is performed.

【0023】上記ストロボ回路24は、撮影時の補助光
源としてストロボ23発光させる機能を有している。こ
のストロボ回路部24の充電、発光制御は、マイクロコ
ンピュータ11によりなされている。尚、ストロボ回路
部24は、測距動作時のAF補助光としても動作され
る。
The flash circuit 24 has a function of emitting the flash light 23 as an auxiliary light source at the time of photographing. The microcomputer 11 controls charging and light emission of the flash circuit section 24. Note that the strobe circuit unit 24 is also operated as AF auxiliary light during the distance measuring operation.

【0024】そして、表示部25は、カメラ内部の情報
をLCD等の表示素子により表示するもので、マイクロ
コンピュータ11により制御される。
The display section 25 displays information inside the camera on a display element such as an LCD, and is controlled by the microcomputer 11.

【0025】上記ファーストレリーズスイッチ26及び
セカンドレリーズスイッチ27は、図示されないレリー
ズ釦に連動したスイッチである。レリーズ釦の第1段階
の押し下げによりファーストレリーズスイッチ26がオ
ンし、引続いて第2段階の押し下げによりセカンドレリ
ーズスイッチ27がオンするようになっている。そし
て、ファーストレリーズスイッチ26のオンによりA
F、測光動作が行われ、セカンドレリーズスイッチ27
のオンにより露出動作、フィルム巻上げ動作が行われる
よう、マイクロコンピュータ11により制御される。
The first release switch 26 and the second release switch 27 are switches linked to a release button (not shown). The first release switch 26 is turned on by pressing the release button in the first stage, and the second release switch 27 is subsequently turned on by pressing the release button in the second stage. Then, when the first release switch 26 is turned on, A
F, the photometry operation is performed, and the second release switch 27
Is turned on, the microcomputer 11 controls the exposure operation and the film winding operation.

【0026】次に、測距光学系について説明する。Next, the distance measuring optical system will be described.

【0027】図2は、上述した光学系、AFエリアセン
サ12の配置を示した図である。
FIG. 2 is a diagram showing the arrangement of the optical system and the AF area sensor 12 described above.

【0028】尚、ここでは、被写体の像信号を基に測距
する、いわゆるパッシブ方式について説明する。
Here, a description will be given of a so-called passive system in which distance measurement is performed based on an image signal of a subject.

【0029】パッシブ方式に於いて、被写体までの距離
を測定するにあたり、受光レンズ31a、31bは基線
長Bを隔てて配置され、被写体30の像を2像に分割し
てAFエリアセンサ12の撮像領域12aに結像させ
る。
In the passive method, when measuring the distance to the subject, the light receiving lenses 31a and 31b are arranged with a base line length B therebetween, and divide the image of the subject 30 into two images to be picked up by the AF area sensor 12. An image is formed on the area 12a.

【0030】上記2像の相対的な位置差xは、三角測距
の原理によって、受光レンズの焦点距離fと基線長Bと
から、被写体距離Lは下記(1)式により求められる。 L=(B・f)/x …(1) 図3は、撮影画面(ワイドとテレ)と測距エリアの関係を
示した図である。
The relative position difference x between the two images is obtained from the focal length f of the light receiving lens and the base line length B according to the principle of triangulation, and the subject distance L is obtained by the following equation (1). L = (B · f) / x (1) FIG. 3 is a diagram showing the relationship between the shooting screen (wide and tele) and the distance measurement area.

【0031】外光パッシブ方式による測距なので、撮像
画面と測距エリアとの間にはパララックスが存在する。
Since the distance is measured by the external light passive method, there is a parallax between the imaging screen and the distance measurement area.

【0032】図3に示されるように、AFエリアセンサ
12の検出エリア(測距エリア)33に対し、スタンダ
ード、テレ、ワイドそれぞれの撮影画面34、35、3
6のエリアは異なっている。
As shown in FIG. 3, standard, tele, and wide photographing screens 34, 35, and 3 are set with respect to a detection area (ranging area) 33 of the AF area sensor 12.
Area 6 is different.

【0033】そのため、撮像光学系の焦点距離情報(ズ
ーム情報)に応じて、測距に使用するエリアを限定する
ようにする。
Therefore, the area used for distance measurement is limited according to the focal length information (zoom information) of the image pickup optical system.

【0034】このような焦点距離の変化に応じた測距エ
リア位置補正データは、EEPROM11eに予め記憶
されており、マイクロコンピュータ11の初期化と共に
RAM11cに展開されている。ズーム動作に応じてこ
の補正データが参照されて、AFエリアセンサ12の撮
像領域内の測距動作に使用される測距エリアが決定され
る。そして、この測距エリア範囲内のセンサデータによ
り、測距演算が行われる。
The distance measurement area position correction data corresponding to the change of the focal length is stored in the EEPROM 11e in advance, and is expanded in the RAM 11c when the microcomputer 11 is initialized. The correction data is referred to in accordance with the zoom operation, and the distance measurement area used for the distance measurement operation in the imaging area of the AF area sensor 12 is determined. Then, a distance measurement calculation is performed based on the sensor data within the range of the distance measurement area.

【0035】また、マイクロコンピュータ11からは、
AFエリアセンサ12に対して、この測距エリア内に対
応する積分制御用ピークモニタが発生されるように、制
御信号が出力される。そして、AFエリアセンサ12か
らは、指定された測距エリアの範囲内のピーク信号がマ
イクロコンピュータ11に出力される。
Also, from the microcomputer 11,
A control signal is output to the AF area sensor 12 so that a peak monitor for integration control corresponding to the distance measurement area is generated. Then, the AF area sensor 12 outputs a peak signal within the range of the designated distance measurement area to the microcomputer 11.

【0036】マイクロコンピュータ11では、このモニ
タ信号が参照されて積分量が所定のレベルとなるように
制御される(図6参照)。
The microcomputer 11 refers to this monitor signal and controls the amount of integration to a predetermined level (see FIG. 6).

【0037】このようにして、撮影画面外に被写体の影
響を受けないようにしている。
In this way, the influence of the subject outside the photographing screen is prevented.

【0038】尚、センサデータの読出し時にも、上記撮
影画面に対応する測距エリアの補正データが参照され
て、不要な撮影画面外のセンサーデータは読飛ばしされ
てRAM11cに格納されないようにする。
When the sensor data is read out, the correction data of the distance measurement area corresponding to the photographing screen is referred to, so that unnecessary sensor data outside the photographing screen is skipped and is not stored in the RAM 11c.

【0039】或いは、AFエリアセンサ12に読出し範
囲設定信号が出力されて、必要なセンサデータだけ出力
されるようにする。
Alternatively, a read range setting signal is output to the AF area sensor 12 so that only necessary sensor data is output.

【0040】次に、図4のフローチャートを参照して、
本実施の形態に於けるカメラのメインルーチンを説明す
る。
Next, referring to the flowchart of FIG.
A main routine of the camera according to the present embodiment will be described.

【0041】図示されない電源スイッチがオンされるか
電池がカメラ内に装填されると、マイクロコンピュータ
11の動作が開始され、ROM11bに格納されたシー
ケンスプログラムが実行される。
When a power switch (not shown) is turned on or a battery is loaded in the camera, the operation of the microcomputer 11 is started, and the sequence program stored in the ROM 11b is executed.

【0042】すなわち、先ず、ステップS1にて、カメ
ラ内の各ブロックの初期化が行われる。そして、EEP
ROM11eに格納されたデータがRAM11cに展開
される。
That is, first, in step S1, each block in the camera is initialized. And EEP
The data stored in the ROM 11e is expanded on the RAM 11c.

【0043】次いで、ステップS2に於いて、ファース
トレリーズスイッチ26の状態が検出される。ここで、
ファーストレリーズスイッチ26がオンになっていなけ
ればステップS8に移行する。
Next, in step S2, the state of the first release switch 26 is detected. here,
If the first release switch 26 has not been turned on, the process proceeds to step S8.

【0044】上記ステップS2にて、ファーストレリー
ズスイッチ26がオンされると、続くステップS3に移
行してAF動作が実行される。次いで、ステップS4で
は測光、露出演算が行われる。
In step S2, when the first release switch 26 is turned on, the process proceeds to step S3 to execute the AF operation. Next, in step S4, photometry and exposure calculation are performed.

【0045】そして、ステップS5に於いて、セカンド
レリーズスイッチ27の状態が検出される。ここで、セ
カンドレリーズスイッチ27がオンされない場合は上記
ステップS2に移行する。
Then, in step S5, the state of the second release switch 27 is detected. Here, if the second release switch 27 is not turned on, the process proceeds to step S2.

【0046】一方、セカンドレリーズスイッチ27がオ
ンされると、ステップS6に移行してシャッタ動作によ
りフィルムに露出が行われる。次いで、ステップS7に
て、フィルムの1駒巻上げが行われる。その後、上記ス
テップS2に移行する。
On the other hand, when the second release switch 27 is turned on, the flow shifts to step S6 to expose the film by the shutter operation. Next, in step S7, the film is wound up by one frame. Thereafter, the process proceeds to step S2.

【0047】上記ステップS8に於いては、ファースト
レリーズスイッチ26及びセカンドレリーズスイッチ2
7以外のスイッチの入力状態が検出される。
In step S8, the first release switch 26 and the second release switch 2
Input states of switches other than 7 are detected.

【0048】ステップS8にて、他のスイッチ入力がな
い場合は上記ステップS2に移行する。一方、上記ファ
ーストレリーズスイッチ26及びセカンドレリーズスイ
ッチ27以外のスイッチ入力があった場合は、ステップ
S9に移行して、そのスイッチ入力に応じた処理が実行
される。例えば、ズームスイッチのアップ、ダウン入力
に応じてズームアップ、ダウン処理を行う等である。こ
の後、上記ステップS2に移行する。
In step S8, if there is no other switch input, the process proceeds to step S2. On the other hand, when there is a switch input other than the first release switch 26 and the second release switch 27, the process proceeds to step S9, and a process corresponding to the switch input is executed. For example, zoom-up / down processing is performed in response to a zoom switch up / down input. Thereafter, the process proceeds to step S2.

【0049】次に、図5のフローチャート及び図6のタ
イミングチャートを参照して、AF動作について説明す
る。
Next, the AF operation will be described with reference to the flowchart of FIG. 5 and the timing chart of FIG.

【0050】先ず、ステップS11にて、AFエリアセ
ンサ12から積分制御信号が出力されて、積分動作が行
われる。AFエリアセンサ12からは、所定範囲内のピ
ーク(最も明るい画素)出力に対応するモニタ信号が出
力される。このモニタ信号が参照されながら、AFエリ
アセンサ12の受光部の受光量が適正となるように、積
分時間が調節される(図6(a)、(b)参照)。
First, in step S11, an integration control signal is output from the AF area sensor 12, and an integration operation is performed. From the AF area sensor 12, a monitor signal corresponding to a peak (brightest pixel) output within a predetermined range is output. While referring to this monitor signal, the integration time is adjusted so that the light receiving amount of the light receiving section of the AF area sensor 12 becomes appropriate (see FIGS. 6A and 6B).

【0051】次いで、ステップS12にて、AFエリア
センサ12に読出しクロックCLKが出力される。これ
により、センサデータ(画素データ)がA/Dコンバー
タ11dに出力され、A/D変換されて読出されRAM
11cに格納される(図6(c)、(d)参照)。
Next, in step S12, a read clock CLK is output to the AF area sensor 12. As a result, the sensor data (pixel data) is output to the A / D converter 11d, A / D converted and read out from the RAM.
11c (see FIGS. 6C and 6D).

【0052】そして、ステップS3にて夜景判定ルーチ
ンが開始される。続くステップS14に於いて、夜景シ
ーンか否かが判定される。ここで、夜景シーンである場
合は、ステップS15に移行して夜景処理が実行され
る。一方、夜景シーンでない場合は、ステップS16に
移行して通常処理が実行される。
Then, a night scene determination routine is started in step S3. In the following step S14, it is determined whether or not the scene is a night scene. Here, if the scene is a night scene, the process proceeds to step S15 to execute a night scene process. On the other hand, if the scene is not a night scene, the process proceeds to step S16 and normal processing is executed.

【0053】その後、ステップS17にてフォーカスレ
ンズ13の駆動が行われると、本ルーチンを抜ける。
Thereafter, when the focus lens 13 is driven in step S17, the process exits this routine.

【0054】尚、上述したステップS13〜S16は、
サブルーチン“夜景判定処理”を構成している。
The above steps S13 to S16
It constitutes a subroutine "night scene determination processing".

【0055】次に、図6及び図7を参照して、夜景判定
・処理ルーチンについて説明する。
Next, a night scene determination / processing routine will be described with reference to FIGS.

【0056】図7は、サブルーチン“夜景判定処理”の
動作を説明するフローチャート(図5のステップS13
〜S16に相当)である。
FIG. 7 is a flowchart (step S13 in FIG. 5) for explaining the operation of the subroutine "night scene judgment processing".
To S16).

【0057】先ず、ステップS21に於いて、低輝度か
否かが判定される。これは、AFエリアセンサ12の全
撮像領域のセンサデータと積分時間より、各画素の輝度
データの平均値が求められて、所定値より小さいか否か
により低輝度か否かが判定されるものである。
First, in step S21, it is determined whether or not the luminance is low. In this method, the average value of the luminance data of each pixel is obtained from the sensor data of the entire imaging area of the AF area sensor 12 and the integration time, and it is determined whether the luminance is low based on whether the average value is smaller than a predetermined value. It is.

【0058】また、ステップS22では、高輝度画素の
分布が調査される。ここでは、所定レベルより大きい値
を示すセンサデータの画素がピックアップされる。そし
て、その分布が連続する領域の面積が、所定値より小さ
いものが多いか否かが判定される。
In step S22, the distribution of high-luminance pixels is examined. Here, pixels of the sensor data indicating a value larger than the predetermined level are picked up. Then, it is determined whether or not the area of the region where the distribution is continuous is often smaller than a predetermined value.

【0059】上記ステップS21及びS22とも条件を
満たす場合は、夜景シーンであると判定されて、夜景モ
ードのステップS23に移行する。一方、何れかの条件
が満たされない場合は、ノーマルモードであるとして、
ステップS31に移行する。
If the conditions are satisfied in both steps S21 and S22, it is determined that the scene is a night scene, and the process proceeds to step S23 in the night scene mode. On the other hand, if any of the conditions is not satisfied, it is determined that the normal mode is set.
Move to step S31.

【0060】ステップS23では、ストロボ回路部24
よりストロボ23がプリ発光される。そして、そのタイ
ミングでAFエリアセンサ12が積分動作されて、スト
ロボプリ発光による被写体からの反射光が検出される
(図6(a)、(b)、(e)参照)。
In step S23, the flash circuit section 24
Thus, the strobe light 23 is pre-emitted. Then, at that timing, the AF area sensor 12 performs an integration operation to detect reflected light from the subject due to pre-flash emission (see FIGS. 6A, 6B, and 6E).

【0061】次いで、ステップS24にて、AFエリア
センサ12からセンサデータが読出される(図6(c)
参照)。ステップS25では、プリ発光なしの通常積分
時のセンサデータと、プリ発光積分時のセンサデータの
差が求められる。
Next, in step S24, sensor data is read from the AF area sensor 12 (FIG. 6C).
reference). In step S25, the difference between the sensor data during normal integration without pre-emission and the sensor data during pre-emission integration is determined.

【0062】そして、ステップS26に於いて、所定の
各測距エリアについて所定値以上の差があるか否かが判
定される。ここで、センサデータの差が大きいエリアに
ついては、ステップS27に移行して公知の測距演算が
行われる(図14参照)。一方、所定値以上でなければ
ステップS30へ移行する。
Then, in step S26, it is determined whether or not there is a difference equal to or greater than a predetermined value for each of the predetermined distance measurement areas. Here, for an area where the difference between the sensor data is large, the flow shifts to step S27 to perform a known distance measurement calculation (see FIG. 14). On the other hand, if not more than the predetermined value, the process proceeds to step S30.

【0063】次に、ステップS28に於いて、上記測距
結果が近距離か否かが判定される。ここで、近距離の場
合はステップS29に移行し、露出モードとして、夜景
を背景にして人物を撮影する、いわゆる夜景ポートレー
トモードが設定される。夜景ポートレートモードでは、
近距離の主要被写体が適正露出となるようにストロボ光
が照射されると共に、背景の夜景も適正露出となるよう
にシャッタに露光時間が長く設定される。
Next, in step S28, it is determined whether or not the result of the distance measurement is a short distance. Here, if the distance is short, the process proceeds to step S29, and a so-called night view portrait mode in which a person is photographed with a night view as a background is set as the exposure mode. In night view portrait mode,
The main subject at a short distance is irradiated with strobe light so as to be properly exposed, and the shutter is set to have a long exposure time so that the background night scene is also properly exposed.

【0064】上記ステップS28に於いて近距離ではな
い場合、及び上記ステップS26で所定値以上の差がな
い場合は、ステップS30に移行して、通常風景の夜景
を撮影する通常夜景モードが設定される。
If it is determined in step S28 that the distance is not a short distance, and if there is no difference equal to or greater than the predetermined value in step S26, the process proceeds to step S30 to set a normal night scene mode for photographing a night scene of a normal scene. You.

【0065】通常夜景モードの場合は、露出モードとし
て、ストロボ23は発光させず、夜景に対して適正露出
となるようにシャッタの露光時間が長くされる。
In the case of the normal night view mode, the exposure mode of the shutter is extended so that the strobe light is not emitted in the exposure mode so that an appropriate exposure is obtained for the night view.

【0066】また、夜景モードではない場合は、ノーマ
ルモードとして、ステップS31にて、予め決定された
所定エリア毎の測距演算が行われ、より近距離側の測距
結果が選択される。
If the mode is not the night scene mode, the normal mode is set, and in step S31, a distance measurement calculation is performed for each predetermined area, and the distance measurement result on the closer distance side is selected.

【0067】次に、夜景シーンの判定方法について説明
する。
Next, a method of determining a night scene will be described.

【0068】図8は、夜景を背景として人物を撮影する
典型的なシーンを示したものである。この場合、街灯3
8a〜38d及びネオンサイン39等が、主要被写体4
0の後方に配置されている。
FIG. 8 shows a typical scene in which a person is photographed against a night scene as a background. In this case, streetlight 3
8a to 38d and the neon sign 39 etc.
0.

【0069】図9は、このような撮影シーンでのAFエ
リアセンサ12のセンサデータを3次元的に示した図で
ある。
FIG. 9 is a diagram three-dimensionally showing sensor data of the AF area sensor 12 in such a shooting scene.

【0070】したがって、夜景シーンの判定には以下の
ような特徴を有している。すなわち、 (a) 全体的には低輝度である。画素毎または所定エ
リア毎の輝度を求め、その平均値を算出し、所定値と比
較する。 (b) 高輝度部分は面積的には小さく、且つ点在して
いる。 (c) 低輝度部分は面積的に大きい範囲を占める。
Therefore, the judgment of the night scene has the following features. That is, (a) the overall brightness is low. The luminance for each pixel or each predetermined area is obtained, the average value is calculated, and compared with the predetermined value. (B) The high luminance portion is small in area and is scattered. (C) The low luminance portion occupies a large area in area.

【0071】図10は、連続する高輝度部分及び低輝度
部分の面積を算出し、輝度と面積の関係を示す分布図で
ある。
FIG. 10 is a distribution diagram showing the relationship between the luminance and the area by calculating the areas of the continuous high luminance part and low luminance part.

【0072】図10に示されるように、高輝度部分と低
輝度部分の面積の比率により、夜景シーンが判定され
る。
As shown in FIG. 10, the night view scene is determined based on the ratio of the areas of the high luminance portion and the low luminance portion.

【0073】次に、図11のフローチャートを参照し
て、サブルーチン“夜景判定処理”の他の動作例につい
て説明する。
Next, another operation example of the subroutine "night scene judgment processing" will be described with reference to the flowchart of FIG.

【0074】先ず、ステップS41に於いて、平均輝度
と所定スレッシュBthが比較される。次いで、ステップ
S42にて、所定値より高輝度の画素が連続する部分の
数がカウントされ(Sa)、続くステップS43にて、
所定値より低輝度の画素が連続する部分の数がカウント
される(Sb)。
First, in step S41, the average luminance is compared with a predetermined threshold Bth . Next, in step S42, the number of portions where pixels having higher luminance than the predetermined value continue is counted (Sa), and in subsequent step S43,
The number of portions where pixels of lower luminance than the predetermined value continue is counted (Sb).

【0075】そして、ステップS44に於いて、上記エ
リア数Saと所定の判定値mとが比較され、続いてステ
ップS45にて、上記エリア数Sbと所定の判定値nと
が比較される。
Then, in step S44, the number of areas Sa is compared with a predetermined determination value m, and then in step S45, the number of areas Sb is compared with a predetermined determination value n.

【0076】上記ステップS44及びS45に於いて、
Sa>m、Sb<nが満たされた場合は夜景シーンと判
定され、夜景モードとなる。その他は、夜景シーン以外
と判定されてノーマルモードに入る。
In steps S44 and S45,
When Sa> m and Sb <n are satisfied, it is determined that the scene is a night scene, and a night scene mode is set. In other cases, the scene is determined to be other than the night scene, and the normal mode is entered.

【0077】これ以降の、夜景モード及びノーマルモー
ドを実行するステップS46〜S53及びステップS5
4の処理動作は、上述した図7のフローチャートに於け
るステップS23〜S30及びステップS31と同じで
あるので、説明は省略する。
Steps S46 to S53 and step S5 for executing the night view mode and the normal mode thereafter
The processing operation of Step 4 is the same as Steps S23 to S30 and Step S31 in the above-described flowchart of FIG.

【0078】ここで、上述した夜景ポートレートモード
と通常の夜景モードについて説明する。
Here, the night view portrait mode and the normal night view mode will be described.

【0079】図12は、図9の撮影シーンに於いて、ス
トロボをプリ発光してAFエリアセンサ12が積分する
場合のAFエリアセンサデータを3次元的に示した図で
ある。
FIG. 12 is a diagram three-dimensionally showing AF area sensor data when the AF area sensor 12 integrates by pre-emission of a strobe light in the shooting scene of FIG.

【0080】また、図13は、プリ発光なしのデータと
プリ発光ありのデータを比較して、差のある部分を抽出
したデータを3次元的に示した図である。
FIG. 13 is a diagram three-dimensionally showing data obtained by comparing data without pre-light emission and data with pre-light emission and extracting a difference portion.

【0081】輝度ピーク値で、両方のデータを規格化し
てから対応するセンサデータまたはエリア毎に差をと
る。
After the two data are normalized by the luminance peak value, a difference is obtained for each corresponding sensor data or area.

【0082】このように、近距離に人物等の被写体が存
在する場合は、画像に差が発生するので、この部分に主
要被写体が存在すると判定される(夜景ポートレートモ
ード)。
As described above, when a subject such as a person exists at a short distance, a difference occurs in the image, and it is determined that a main subject exists in this portion (night view portrait mode).

【0083】そして、上記差が発生したエリアについて
のみ、測距演算が行われる(図14参照)。
Then, the distance measurement calculation is performed only for the area where the difference has occurred (see FIG. 14).

【0084】次に、この発明の第2の実施の形態につい
て説明する。
Next, a second embodiment of the present invention will be described.

【0085】この第2の実施の形態は、上述した第1の
実施の形態に於ける夜景シーン判定方法を変形したもの
である。
The second embodiment is a modification of the night scene scene determination method according to the first embodiment.

【0086】図15は、AFエリアセンサデータのコン
トラスト分布を示した図である。
FIG. 15 is a diagram showing a contrast distribution of AF area sensor data.

【0087】具体的なコントラスト値としては、1個の
画素のセンサデータとその周辺画素のセンサデータとの
差の絶対値の和が各画素について算出され、撮影画面に
対応するエリアについて上記コントラスト値が総和され
る。
As a specific contrast value, the sum of the absolute values of the differences between the sensor data of one pixel and the sensor data of the surrounding pixels is calculated for each pixel, and the contrast value is calculated for the area corresponding to the shooting screen. Are summed.

【0088】夜景シーンの場合、高輝度部と低輝度部の
輝度差が大きいので、このようにコントラストが大きく
なる。すなわち、 (d) 平均輝度が低い。上記(a)と同じ。 (e) 撮影画面内のコントラストの和が所定値より大
きい。
In the case of a night scene, the contrast is large because the luminance difference between the high luminance part and the low luminance part is large. (D) Average luminance is low. Same as (a) above. (E) The sum of contrasts in the shooting screen is larger than a predetermined value.

【0089】所定エリア毎のコントラストの和が求めら
れ、更に撮影画面に対応する全エリアに上記コントラス
トが積算されて所定値と比較される。
The sum of the contrast for each predetermined area is obtained, and the above-described contrast is integrated in all the areas corresponding to the photographing screen and compared with a predetermined value.

【0090】次に、図16のフローチャートを参照し
て、第2の実施の形態に於けるサブルーチン“夜景判定
処理”の動作を説明する。
Next, the operation of the subroutine "night scene judgment processing" in the second embodiment will be described with reference to the flowchart of FIG.

【0091】先ず、ステップS61に於いて、平均輝度
と所定値Bthとが比較される。次いで、ステップS62
に於いて、撮影画面全体コントラストと所定スレッシュ
thとが比較される。
First, in step S61, the average luminance is compared with a predetermined value Bth . Next, step S62
In the above, the contrast of the entire photographing screen is compared with a predetermined threshold Cth .

【0092】上記ステップS61及びS62にて、平均
輝度<Bth、コントラスト>Cthの条件が満たされた場
合、夜景シーンと判定され、そうでない場合はノーマル
モードとなる。
In steps S61 and S62, if the conditions of average luminance <B th and contrast> C th are satisfied, it is determined that the scene is a night scene, and if not, the normal mode is set.

【0093】以降の夜景モード及びノーマルモードを実
行するステップS63〜70及びステップS71の処理
動作は、上述した図7のフローチャートに於けるステッ
プS23〜S30及びステップS31と同じであるの
で、説明は省略する。
The processing operations of steps S63 to S70 and step S71 for executing the subsequent night scene mode and normal mode are the same as steps S23 to S30 and step S31 in the flowchart of FIG. I do.

【0094】次に、この発明の第3の実施の形態を説明
する。
Next, a third embodiment of the present invention will be described.

【0095】この第3の実施の形態は、上述した第1の
実施の形態と、夜景ポートレートモードと通常夜景モー
ドの判定が異なっている。
The third embodiment is different from the first embodiment described above in that the determination of the night scene portrait mode and the normal night scene mode is different.

【0096】図17は、輝度と、対応する輝度の画素数
(またはエリア数)の関係を示すグラフである。
FIG. 17 is a graph showing the relationship between the luminance and the number of pixels (or the number of areas) of the corresponding luminance.

【0097】図17に示されるように、夜景シーンで
は、低輝度部と高輝度部に分布が偏り、中輝度部の分布
が少ない(図示実線部)。
As shown in FIG. 17, in the night view scene, the distribution is biased between the low luminance portion and the high luminance portion, and the distribution of the middle luminance portion is small (solid line portion in the figure).

【0098】主要被写体が近距離に存在する場合は、プ
リ発光なしの場合とプリ発光ありの場合の分布が異な
り、プリ発光ありの場合は中輝度部分が増加する(図示
破線部)。
When the main subject is located at a short distance, the distribution when there is no pre-emission is different from the distribution when there is pre-emission.

【0099】被写体が近距離にいない場合は、上記分布
の変化はほとんどない。
When the subject is not at a short distance, the above distribution hardly changes.

【0100】以上より、 (f) 高輝度部分と低輝度部分に分布が偏り、中輝度
部分に分布が少ない場合は夜景シーンと判定する。 (g) プリ発光なしとプリ発光ありとで分布に変化が
ある場合は、夜景を背景とする人物撮影と判定する。 (h) プリ発光なしとプリ発光ありとで分布に変化が
ない場合は、通常風景の夜景を撮影する通常夜景シーン
と判定する。
From the above, (f) When the distribution is biased in the high luminance portion and the low luminance portion and the distribution is small in the middle luminance portion, it is determined that the scene is a night scene. (G) When there is a change in the distribution between no pre-flash and with pre-flash, it is determined that a person is shot with a night view as a background. (H) If there is no change in distribution between the case without pre-emission and the case with pre-emission, it is determined that the scene is a normal night scene where a night scene of a normal scene is photographed.

【0101】次に、図18のフローチャートを参照し
て、第3の実施の形態に於けるサブルーチン“夜景判定
処理”の動作について説明する。
Next, the operation of the subroutine "night scene judgment processing" in the third embodiment will be described with reference to the flowchart of FIG.

【0102】ステップS81では、先ず、撮影画面に対
応する測距エリアのうち所定値より高輝度な画素の数が
カウントされてBHCとされる。次いで、ステップS8
2にて、同様に、所定の中輝度範囲に含まれる画素の数
がカウントされてBMCとされる。更に、ステップS8
3では、同様に所定より低輝度の画素数がカウントされ
てBLCとされる。
In step S81, first, the number of pixels having a luminance higher than a predetermined value in the distance measurement area corresponding to the photographing screen is counted and set as BHC. Next, step S8
At 2, similarly, the number of pixels included in the predetermined middle luminance range is counted and set as BMC. Further, step S8
In 3, the number of pixels having a luminance lower than a predetermined value is similarly counted and set as BLC.

【0103】そして、ステップS84、S85及びS8
6に於いて、上記BMC、BMC及びBLCが、それぞ
れ所定の判定値a、b、cと比較される。
Then, steps S84, S85 and S8
At 6, the BMC, BMC, and BLC are compared with predetermined determination values a, b, and c, respectively.

【0104】上記ステップS84〜S86に於いて、B
HC>a、BMC<b、且つBMC<cが満足された場
合に、夜景シーンと判定され、夜景モードに入る。した
がって、ステップS87では、ストロボプリ発光が行わ
れながらAFエリアセンサ12の積分が行われる。
In steps S84 to S86, B
When HC> a, BMC <b, and BMC <c are satisfied, it is determined that the scene is a night scene, and a night scene mode is entered. Therefore, in step S87, the integration of the AF area sensor 12 is performed while the pre-flash emission is performed.

【0105】次いで、ステップS88にて、AFエリア
センサ12よりセンサデータが読出される。更に、ステ
ップS89では、撮影画面に対応する測距エリアから、
中輝度の画素数がカウントされてBMC´とされる。
Next, in step S88, sensor data is read from the AF area sensor 12. Further, in step S89, from the ranging area corresponding to the shooting screen,
The number of pixels of medium luminance is counted and set as BMC '.

【0106】そして、ステップS90に於いて、上記B
MC´が所定値b´と比較される。ここで、BMC´>
b´の場合は、夜景の前には主要被写体が存在すると判
定され、ステップS91に移行して、中輝度画素が増加
したエリアで測距演算が行われる。
Then, in step S90, B
MC ′ is compared with a predetermined value b ′. Here, BMC '>
In the case of b ', it is determined that the main subject exists before the night view, and the flow shifts to step S91 to perform distance measurement calculation in an area where the number of middle-luminance pixels is increased.

【0107】また、ステップS92では、上記測距演算
の結果により被写体が近距離に存在するか否かが判定さ
れる。その結果、被写体が近距離である場合は、ステッ
プS93に移行して、夜景ポートレートモードに設定さ
れる。
In step S92, it is determined whether or not the subject is at a short distance based on the result of the distance measurement calculation. As a result, if the subject is at a short distance, the flow shifts to step S93 to set the night view portrait mode.

【0108】上記ステップS90でBMC´>b´でな
い場合、及びステップS92に於いて近距離ではない場
合は、ステップS94に移行して、通常夜景モードが設
定される。
If BMC '>b' is not satisfied in step S90, and if the distance is not short in step S92, the flow shifts to step S94 to set the normal night view mode.

【0109】上記ステップS84〜S86に於いて、何
れかの条件が満たされない場合は、ノーマルモードであ
るとして、ステップS95に移行する。そして、予め決
定された所定エリア毎の測距演算が行われる。
If any of the conditions is not satisfied in steps S84 to S86, it is determined that the mode is the normal mode, and the process proceeds to step S95. Then, distance measurement calculation is performed for each predetermined area determined in advance.

【0110】ここで、図19を参照して、スーパーコン
ビネーションAFと称される新たなオートフォーカス技
術について説明する。
Here, a new autofocus technique called super combination AF will be described with reference to FIG.

【0111】尚、このスーパーコンビネーションAFと
は、アクティブ方式とバッシブ方式を単にハイブリッド
的に組合わせたものではなく、2つの方式を用いて主要
被写体検知まで行うようにしたものである。
Note that the super combination AF is not a simple combination of the active method and the passive method in a hybrid manner, but uses two methods to detect the main subject.

【0112】図19(a)は、被写体をこの方式のAF
で測距しているところを示したもので、主要な部分の構
成を示したブロック図である。
FIG. 19A shows a case where the subject is set to the AF method of this method.
FIG. 2 is a block diagram showing a configuration of a main part, showing a part where distance measurement is performed.

【0113】同図に於いて、CPU50はカメラ制御用
のマイクロコンピュータで構成されるもので、内部にパ
ターン制御部51を有している。また、CPU50は、
測光部52に接続されている。
In the figure, a CPU 50 is constituted by a microcomputer for controlling a camera, and has a pattern control section 51 therein. In addition, the CPU 50
It is connected to the photometric unit 52.

【0114】この測光部52には、被写体53からの光
を導く2つの受光レンズ54a、54bと、上記被写体
53からの光を受像する2つのエリアセンサ55a、5
5bと、A/Dコンバータ(ADC)56と、定常光除
去回路57とを有して構成される。
The photometric section 52 has two light receiving lenses 54a and 54b for guiding light from the subject 53, and two area sensors 55a and 55b for receiving the light from the subject 53.
5b, an A / D converter (ADC) 56, and a stationary light removing circuit 57.

【0115】更に、上記CPU50には、光源59を発
光制御するための発光部60と、音声信号発生部61と
が接続されている。
Further, a light emitting section 60 for controlling light emission of the light source 59 and an audio signal generating section 61 are connected to the CPU 50.

【0116】図19(a)に於いて、2つの受光レンズ
54a、54bから入射された被写体53からの光は、
2つのエリアセンサ55a、55bに入射される。これ
らのエリアセンサ55a、55bでは、被写体像が受像
されて光電変換される。そして、その出力はA/Dコン
バータ56で各画素のデジタル値に変換されて、CPU
50に供給される。
In FIG. 19A, the light from the subject 53 incident from the two light receiving lenses 54a and 54b is
The light is incident on the two area sensors 55a and 55b. In these area sensors 55a and 55b, a subject image is received and photoelectrically converted. The output is converted to a digital value of each pixel by an A / D converter 56,
50.

【0117】また、エリアセンサ55a、55bに接続
されている定常光除去回路57が制御されると、被写体
53から定常的に入射される直流的な光の信号が除去さ
れる。これにより、光源59からのパルス光のみが出力
信号として得られるようになっている。
When the stationary light removing circuit 57 connected to the area sensors 55a and 55b is controlled, a DC light signal constantly incident from the subject 53 is removed. Thus, only pulse light from the light source 59 can be obtained as an output signal.

【0118】したがって、定常光除去回路57を作動さ
せた状態でCPU50が発光部60を制御して光源59
等を照射すると、その反射信号光が、被写体53から返
ってきて、例えばエリアセンサ55a上に、図19
(b)に示されるような像が結ばれる。
Therefore, the CPU 50 controls the light emitting section 60 while the steady light removing circuit 57 is operated, and
And the like, the reflected signal light returns from the subject 53 and is, for example, displayed on the area sensor 55a as shown in FIG.
An image as shown in FIG.

【0119】図19(b)は、黒い部分に光が入射した
ところを示した図である。こうしたエリアセンサ上の像
のパターンを分析するソフトウエアがCPU50内には
組込まれていて、人間の形であることが判定されれば、
これを主要被写体と考えることができる。
FIG. 19B is a diagram showing a state where light is incident on a black portion. If software for analyzing the pattern of the image on the area sensor is incorporated in the CPU 50 and it is determined that the image is a human figure,
This can be considered a main subject.

【0120】したがって、図20に示されるようなフロ
ーチャートによる測距が考えれる。
Therefore, distance measurement according to a flowchart as shown in FIG. 20 can be considered.

【0121】先ず、ステップS101にて、測距に先立
って光源59が照射され、定常光除去回路57により反
射信号光のパターンのみが、図19(b)に示されるよ
うに取出される。次いで、ステップS102にて該反射
信号光のパターンが判別され、更にステップS103に
て、夜景部分が除外される。
First, in step S101, the light source 59 is irradiated before the distance measurement, and only the pattern of the reflected signal light is extracted by the stationary light removing circuit 57 as shown in FIG. 19B. Next, in step S102, the pattern of the reflected signal light is determined, and in step S103, the night scene portion is excluded.

【0122】そして、ステップS104に於いて、この
パターンが人物の形状等から主要被写体か否かが判定さ
れる。
Then, in step S104, it is determined whether or not this pattern is a main subject based on the shape of the person.

【0123】ここで、主要被写体が検知されない場合
は、ステップS105に移行して、輝度情報等が加味さ
れて、アクティブ方式、またはバッシブ方式が選択され
た後、被写体の存在確率の高い画面中央部が重点的に測
距される。次いで、ステップS106にて、この中央測
距に応じた音声が音声信号発生部61より発音される。
If the main subject is not detected, the flow shifts to step S105, where the active mode or the passive mode is selected in consideration of the luminance information and the like, and then the central portion of the screen having a high probability of the existence of the subject is selected. Is mainly measured. Next, in step S <b> 106, a sound corresponding to the center distance measurement is generated by the sound signal generator 61.

【0124】一方、上記ステップS104に於いて、主
要被写体が検知された場合は、ステップS107に移行
して、上記パターンを形成する光信号が弱いかどうか、
或いは十分なコントラストがあるかが判定される。すな
わち、ステップS107では、測距方式が、信号光をカ
メラ側から投射して、その反射信号光を用いて測距す
る、いわゆるアクティブタイプと、被写体の像信号を基
に測距する、いわゆるパッシブタイプの何れの方式を用
いるかの選択が行われる。
On the other hand, if the main subject is detected in step S104, the flow advances to step S107 to determine whether the optical signal forming the pattern is weak.
Alternatively, it is determined whether there is sufficient contrast. That is, in step S107, the distance measurement method is a so-called active type in which a signal light is projected from the camera side and a distance is measured using the reflected signal light, and a so-called passive type in which a distance is measured based on an image signal of a subject. A selection is made of which of the types to use.

【0125】つまり、反射信号光が弱いと判定された場
合は、パッシブ方式のAFの方が適しているとして、ス
テップS108に移行する。そして、このステップS1
08にて、すでに求められた主要被写***置の像信号が
重点的に用いられたパッシブ方式による測距が行われ
る。その後、ステップS109にて、このパッシブAF
に対応した音声が音声信号発生部61から発音される。
In other words, if it is determined that the reflected signal light is weak, it is determined that the passive AF is more suitable, and the flow shifts to step S108. Then, this step S1
At 08, the distance measurement is performed by the passive method in which the image signal of the main subject position already obtained is used with emphasis. Thereafter, in step S109, the passive AF
Is output from the audio signal generation unit 61.

【0126】一方、上記ステップS107にて、像信号
のコントラストが弱い場合には、ステップS110に移
行する。そして、このステップS110及びS111に
て、再度測距用光が照射されて、その反射信号光による
アクティブAFが、先に求められた主要被写***置に対
して重点的に行われる。その後、ステップS112に
て、このアクティブAFに対応した音声が音声信号発生
部61より発音される。
On the other hand, if the contrast of the image signal is low in step S107, the flow shifts to step S110. In steps S110 and S111, the light for distance measurement is irradiated again, and the active AF based on the reflected signal light is performed with emphasis on the previously obtained main subject position. Thereafter, in step S 112, a sound corresponding to the active AF is generated by the sound signal generation unit 61.

【0127】これらの測距方式、または主要被写体の判
定の可否に従って、CPU50が音声信号を選択して出
力制御すれば、ユーザにわかりやすく、このスーパーコ
ンビネーションAFの特徴をアピールしながら安心感の
ある測距が可能となる。
If the CPU 50 selects and controls the output of the audio signal in accordance with the distance measurement method or whether the main subject can be determined or not, it is easy for the user to understand, and there is a sense of security while appealing the features of this super combination AF. Distance measurement becomes possible.

【0128】図21は、この発明の第4の実施の形態と
して、上述したスーパーコンビネーションAFが適用さ
れたカメラの外観図である。
FIG. 21 is an external view of a camera to which the above-described super combination AF is applied as a fourth embodiment of the present invention.

【0129】上述したスーパーコンビネーションAFが
適用されたカメラであっても、図22に示されるような
シーンでは、画面が煩雑なので、カメラもどれが主要被
写体かを判断できずに迷うことがある。
Even in a camera to which the above-described super combination AF is applied, in the scene shown in FIG. 22, since the screen is complicated, the camera may not be able to determine which is the main subject and may be lost.

【0130】基本的には、図22(a)に示されるよう
に、真中にいる人物65の形のパターンを優先すればか
なりの確率で合焦となる。しかしながら、条件によって
は、誤って図22(b)に示されるようにビン66に合
焦してしまったり、或いは撮影者が、図22(c)に示
されるように周辺の人物67にピントを合わせたい場合
もある。
Basically, as shown in FIG. 22 (a), if priority is given to a pattern in the shape of a person 65 in the center, focusing will be performed with a considerable probability. However, depending on the condition, the bin 66 is erroneously focused on as shown in FIG. 22B, or the photographer focuses on the surrounding person 67 as shown in FIG. Sometimes you want to match.

【0131】この場合は、カメラ63に設けられた次候
補スイッチ64の操作によって、次のピント合わせ候補
をCPUが判断して、ファインダ内のドットマトリック
スLCDによって指示することによりユーザにわかるよ
うにすれば、多くの不満は解消される。
In this case, by operating the next candidate switch 64 provided on the camera 63, the CPU determines the next focus candidate and gives the dot matrix LCD in the finder to indicate it to the user. Many complaints will go away.

【0132】また、このように一眼レフレックスカメラ
に応用すれば、ピントが合っているか否かを撮影レンズ
を介して判別できるので、ユーザにはいっそうピント位
置の確認が容易となり、失敗のないカメラを提供するこ
とができる。
Further, if the present invention is applied to a single-lens reflex camera, it is possible to determine whether or not the subject is in focus via a photographing lens, so that it is easier for the user to confirm the focus position, and the camera can be used without failure. Can be provided.

【0133】更に、上述した実施の形態以外に、次のよ
うな変形例が考えられる。
Further, in addition to the above-described embodiment, the following modified examples can be considered.

【0134】夜景シーンと判定された場合、算出された
シャッタ秒時が手ぶれを発生するような長秒時の時に
は、表示部25により、三脚の使用を促す警告表示を行
うようにしても良い。
When it is determined that the scene is a night scene, when the calculated shutter time is a long time at which camera shake occurs, the display unit 25 may display a warning display urging the use of a tripod.

【0135】また、LCD表示上に点滅表示をさせた
り、PCV等を使用して音声による警告を発しても良
い。
Also, a blinking display may be displayed on the LCD display, or a voice warning may be issued using a PCV or the like.

【0136】更に、磁気記録部付きフィルムを使用する
場合は、三脚が不要となるような、より高ISOのフィ
ルムを使用するように警告表示を行うようにしても良
い。この場合、手ぶれが発生しないシャッタ秒時となる
ISO感度をLCD表示に表示しても良い。
Further, when a film with a magnetic recording section is used, a warning may be displayed so as to use a higher ISO film which does not require a tripod. In this case, the ISO sensitivity corresponding to the shutter time at which camera shake does not occur may be displayed on the LCD.

【0137】これにより、撮影者はMRC機能により、
現在カメラ内にあるフィルムを巻戻して、取出し、代わ
りに高ISOフィルムに交換して撮影を行うことがで
き、三脚が不要で、且つ手ぶれのない撮影を行うことが
できる。
As a result, the photographer can use the MRC function to
The film currently in the camera can be rewound, taken out, and replaced with a high ISO film for photographing, and a tripod is unnecessary and photographing without camera shake can be performed.

【0138】次に、この発明の第5の実施の形態につい
て説明する。
Next, a fifth embodiment of the present invention will be described.

【0139】この第5の実施の形態では、撮像素子で撮
像して撮影するデジタルカメラに適用した場合を説明す
る。
In the fifth embodiment, a case will be described in which the present invention is applied to a digital camera in which an image is captured by an image sensor.

【0140】デジタルカメラは、夜景撮影の場合、高輝
度部の色とび、S/Nの劣化等により、画像が不自然に
なるという問題がある。したがって、こうした夜景撮影
に於ける画像の不自然さを解消することが望まれてい
る。
In the case of taking a night view, a digital camera has a problem that an image becomes unnatural due to color skipping of a high luminance portion, deterioration of S / N, and the like. Therefore, it is desired to eliminate the unnaturalness of the image in the night view shooting.

【0141】図23は、第5の実施の形態に係るデジタ
ルカメラの構成を示したブロック図である。
FIG. 23 is a block diagram showing a configuration of a digital camera according to the fifth embodiment.

【0142】図23に於いて、撮影レンズ71を通過し
た被写体光は、絞り72を介して、CCD等で構成され
る撮像素子73に結像される。撮像素子73の出力は、
相関2重サンプリングを行い画像信号からリセットノイ
ズを除去するCDS部74及びサンプルホールド回路を
構成するS/H部75、A/Dコンバータ(ADC)7
6を介して、デジタル画像信号に各種処理を行うプロセ
ス処理部77に供給される。このプロセス処理部77
は、オートゲインコントロールを行うAGC・γ補正部
77aと、画像信号より夜景シーンを判定する夜景判定
部77bとを有している。
In FIG. 23, the subject light having passed through the photographing lens 71 is focused on an image pickup device 73 composed of a CCD or the like via a stop 72. The output of the image sensor 73 is
A CDS unit 74 for removing the reset noise from the image signal by performing correlated double sampling, an S / H unit 75 constituting a sample and hold circuit, and an A / D converter (ADC) 7
6, the digital image signal is supplied to a process processing unit 77 that performs various processes on the digital image signal. This processing unit 77
Has an AGC / γ correction unit 77a that performs automatic gain control, and a night scene determination unit 77b that determines a night scene scene from an image signal.

【0143】上記プロセス処理部77は、測光部79及
び絞り制御部80を経て、絞り72を制御して撮像素子
への入射光量を規制する。また、上記プロセス処理部7
7は、画像信号を記憶するDRAM81、画像信号を圧
縮してデータ量を減らす圧縮伸長部82を介して、圧縮
された静止画データを記録する記録媒体83が接続され
ている。
The processing section 77 controls the stop 72 via the photometric section 79 and the stop control section 80 to regulate the amount of light incident on the image pickup device. In addition, the processing unit 7
Reference numeral 7 is connected to a DRAM 81 for storing image signals and a recording medium 83 for recording compressed still image data via a compression / expansion unit 82 for compressing image signals to reduce the amount of data.

【0144】次に、このように構成されたデジタルカメ
ラの動作について説明する。
Next, the operation of the digital camera configured as described above will be described.

【0145】撮影レンズ71、絞り72を通過した光束
が、撮像素子73に入射される。そして、この撮像素子
73に入射された光は、ここで光電変換された後、CD
S部74、S/H部75を経て、A/Dコンバータ76
にてA/D変換されてデジタル信号に変換される。
The light beam that has passed through the taking lens 71 and the aperture 72 enters the image sensor 73. The light incident on the image sensor 73 is subjected to photoelectric conversion here,
A / D converter 76 via S section 74 and S / H section 75
A / D-converted into a digital signal.

【0146】プロセス処理部77では、上記デジタル信
号を受けて、AGC・γ補正部77aによるゲインコン
トロール処理やγ変換処理等の処理が行われる。また、
夜景判定部77bでは、画像データが処理されて夜景シ
ーンが判定される。
In the process processing section 77, upon receiving the digital signal, the AGC / γ correction section 77a performs processing such as gain control processing and γ conversion processing. Also,
The night scene determining section 77b processes the image data to determine a night scene scene.

【0147】測光部79では、プロセス処理部77の出
力に基いて測光露出演算が行われて、絞り72の開口値
や撮像素子73の電子シャッタスピードが算出される。
そして、絞り制御部80では、測光部79の出力に基い
て絞り72の制御が行われる。
In the photometric unit 79, a photometric exposure calculation is performed based on the output of the process processing unit 77, and the aperture value of the aperture 72 and the electronic shutter speed of the image sensor 73 are calculated.
Then, the aperture control unit 80 controls the aperture 72 based on the output of the photometry unit 79.

【0148】プロセス処理部77により処理された画像
信号は、DRAM81に一旦記憶された後、圧縮伸長部
82にて圧縮されてデータ量が減らされる。そして、記
録媒体83には上記圧縮伸長部82で圧縮された静止画
データが記録される。
The image signal processed by the process processing unit 77 is temporarily stored in the DRAM 81 and then compressed by the compression / expansion unit 82 to reduce the data amount. The still image data compressed by the compression / decompression unit 82 is recorded on the recording medium 83.

【0149】次に、図24のフローチャートを参照し
て、夜景判定の動作について説明する。
Next, the operation of night scene determination will be described with reference to the flowchart of FIG.

【0150】先ず、ステップS121にて、撮影レンズ
71、絞り72を介して取込まれた被写体光束に対し、
撮像素子73により撮像素子積分動作が行われる。次い
で、ステップS122にて、CDS部74、S/H部7
5及びアナログ−デジタル変換器76により、画像信号
が読出される。
First, in step S121, the luminous flux of the subject captured through the taking lens 71 and the aperture 72 is
An image sensor integration operation is performed by the image sensor 73. Next, in step S122, the CDS unit 74 and the S / H unit 7
5 and the analog-digital converter 76 read out an image signal.

【0151】更に、ステップS123では、プロセス処
理部77内の夜景判定部77bにより、分割エリア毎に
輝度算出(以下、夜景判定部77bによる処理と記す)
される。
Further, in step S123, the night scene determination unit 77b in the process processing unit 77 calculates the luminance for each divided area (hereinafter, referred to as processing by the night scene determination unit 77b).
Is done.

【0152】そして、ステップS124に於いて、平均
輝度値と所定値Bthとが比較される。次いで、ステップ
S125にて、分割エリアコントラストと所定値Cth
が比較される。
Then, in step S124, the average luminance value is compared with a predetermined value Bth . Next, in step S125, the divided area contrast is compared with a predetermined value Cth .

【0153】上記ステップS124及びS125に於い
て、輝度平均値<Bth、且つ分割エリアコントラスト>
thの場合、夜景シーンと判定されてステップS126
に移行する。また、上記ステップS124、S125で
何れかの条件が満たされていない場合は、ノーマルモー
ドとして本ルーチンを抜ける。
In steps S124 and S125, the average luminance value <B th and the divided area contrast>
In the case of Cth , it is determined that the scene is a night view scene, and step S126 is performed.
Move to If any of the conditions is not satisfied in steps S124 and S125, the process exits this routine as the normal mode.

【0154】ステップS126では、夜景モードとし
て、AGC・γ補正部のゲインが低下される。
In step S126, the gain of the AGC / γ correction unit is reduced in the night scene mode.

【0155】尚、夜景判定部77bでは、撮像素子73
の受光エリアを、図25に示されるように、複数の分割
エリアに分割して処理が行われる。
In the night scene determination section 77b, the image sensor 73
Is divided into a plurality of divided areas as shown in FIG.

【0156】また、上記分割エリアコントラストとは、
分割エリア毎にその周辺分割エリアとの輝度値の差を求
め、その絶対値の和を求め、更に全分割エリアの上記値
を加算したものを表している。
Further, the above-mentioned divided area contrast is
For each divided area, the difference between the luminance value of the peripheral divided area and that of the surrounding divided areas is calculated, the sum of the absolute values is calculated, and the above values of all the divided areas are added.

【0157】夜景シーンのような低輝度では、AGC・
γ補正部77aのゲインが非常に高く設定されるので、
夜景の暗い部分のノイズが目立ってしまう。そこで、夜
景シーンを自動的に判別してゲインを低下させることに
より、ノイズの発生を抑えることができる。
In low brightness such as night scenes, AGC
Since the gain of the γ correction unit 77a is set very high,
The noise in the dark part of the night view becomes noticeable. Therefore, the occurrence of noise can be suppressed by automatically determining the night view scene and reducing the gain.

【0158】また、上述した第5の実施の形態の変形例
として、図24に於けるフローチャートのステップS1
26の処理を、次のようにすることも可能である。
As a modification of the above-described fifth embodiment, step S1 of the flowchart in FIG.
The processing of 26 can also be performed as follows.

【0159】すなわち、夜景モードと判定されると、高
輝度部分の圧縮特性を変化させて色の改善が行われる。
That is, when it is determined that the mode is the night scene mode, the color is improved by changing the compression characteristic of the high luminance portion.

【0160】AGC・γ補正部77aの高輝度部圧縮特
性を、図26に示されるように変化させてラチチュード
を改善し、白くとびすぎるのを防止すると共に、色を改
善する。
The compression characteristics of the high-brightness part of the AGC / γ correction unit 77a are changed as shown in FIG. 26 to improve the latitude, prevent overexposure in white, and improve the color.

【0161】以上のように、夜景シーンに於いて、低輝
度部のノイズ低減、高輝度部分のラチチュード、色が改
善され夜景シーンでも自然な画像が得られる。
As described above, in the night scene, noise reduction in the low luminance portion, latitude and color in the high luminance portion are improved, and a natural image can be obtained even in the night scene.

【0162】尚、この発明の上記実施の形態によれば、
以下の如き構成を得ることができる。
According to the above embodiment of the present invention,
The following configuration can be obtained.

【0163】(1) 撮像素子の撮像出力に基いて夜景
シーンを判別し、夜景シーンに適した撮影モードを設定
することを特徴とするカメラ。
(1) A camera characterized in that a night scene is determined based on an image pickup output of an image sensor, and a shooting mode suitable for the night scene is set.

【0164】(2) 被写体を撮像する撮像素子と、上
記撮像素子の出力に基いて夜景シーンを判別する判別手
段と、上記判別手段の出力に基いて撮影モードを設定す
る撮影モード設定手段と、を具備することを特徴とする
カメラ。
(2) An image pickup device for picking up an object, a discriminating means for discriminating a night scene based on the output of the image pickup device, a photographing mode setting means for setting a photographing mode based on the output of the discriminating means, A camera comprising:

【0165】(3) 上記撮像素子はAF用のエリアセ
ンサであることを特徴とする上記(1)若しくは(2)
に記載のカメラ。
(3) The above-mentioned (1) or (2), wherein the image sensor is an area sensor for AF.
The camera according to.

【0166】(4) 撮影画面内の輝度分布を検出する
像検出手段と、上記像検出手段の出力結果より、所定範
囲内の輝度が連続する領域を判別する判別手段と、上記
判別された領域の面積判断を行う面積判断手段と、を有
することを特徴とするカメラ。
(4) Image detecting means for detecting the luminance distribution in the photographing screen, determining means for determining an area in which luminance within a predetermined range is continuous based on the output result of the image detecting means, And an area determining means for determining the area of the camera.

【0167】(5) 撮影画面内の輝度分布を検出する
像検出手段と、上記像検出手段の出力結果より、その平
均的な輝度情報と、連続して所定輝度を出力する領域の
面積判断結果に基いて、撮影モードを決定する決定手段
と、を有することを特徴とするカメラ。
(5) Image detecting means for detecting the luminance distribution in the photographing screen, and, based on the output result of the image detecting means, average luminance information and the result of judging the area of a region for continuously outputting a predetermined luminance. And a deciding means for deciding a photographing mode based on the camera.

【0168】(6) 上記判別手段は、撮像素子の出力
の平均と、所定輝度より高輝度な部分の面積、及び所定
輝度より低輝度な部分の面積と共に基いて夜景シーンを
判別することを特徴とする上記(1)に記載のカメラ。
(6) The discriminating means discriminates a night view scene based on the average of the output of the image sensor, the area of a portion having a luminance higher than a predetermined luminance, and the area of a portion having a luminance lower than the predetermined luminance. The camera according to the above (1).

【0169】[0169]

【発明の効果】以上のようにこの発明によれば、エリア
センサの撮像信号に基いて、夜景等の撮影シーンを判別
し、それに応じたカメラ動作を行うので、使い勝手の良
いカメラを提供することが可能となる。
As described above, according to the present invention, a photographing scene such as a night scene is determined based on an image pickup signal of an area sensor, and a camera operation is performed in accordance with the scene. Therefore, an easy-to-use camera is provided. Becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施の形態に係るカメラの構
成を示したブロック図である。
FIG. 1 is a block diagram showing a configuration of a camera according to a first embodiment of the present invention.

【図2】図1の光学系、AFエリアセンサ12の配置を
示した図である。
FIG. 2 is a diagram showing an arrangement of an optical system and an AF area sensor 12 in FIG. 1;

【図3】撮影画面(ワイドとテレ)と測距エリアの関係を
示した図である。
FIG. 3 is a diagram illustrating a relationship between a shooting screen (wide and tele) and a distance measurement area.

【図4】第1の実施の形態に於けるカメラのメインルー
チンを説明するフローチャートである。
FIG. 4 is a flowchart illustrating a main routine of the camera according to the first embodiment.

【図5】AF動作を説明するためのフローチャートであ
る。
FIG. 5 is a flowchart for explaining an AF operation.

【図6】AF動作を説明するためのタイミングチャート
である。
FIG. 6 is a timing chart for explaining an AF operation.

【図7】サブルーチン“夜景判定処理”の動作を説明す
るためのフローチャートである。
FIG. 7 is a flowchart illustrating an operation of a subroutine “night scene determination process”.

【図8】夜景を背景として人物を撮影する典型的なシー
ンを示した図である
FIG. 8 is a diagram showing a typical scene in which a person is photographed with a night view as a background.

【図9】図8のような撮影シーンでのAFエリアセンサ
12のセンサデータを3次元的に示した図である。
9 is a diagram three-dimensionally showing sensor data of the AF area sensor 12 in a shooting scene as shown in FIG.

【図10】連続する高輝度部分及び低輝度部分の面積を
算出し、輝度と面積の関係を示す分布図である。
FIG. 10 is a distribution diagram showing the relationship between luminance and area by calculating the area of a continuous high luminance portion and low luminance portion.

【図11】サブルーチン“夜景判定処理”の他の動作例
について説明するフローチャートである。
FIG. 11 is a flowchart illustrating another operation example of a subroutine “night scene determination process”.

【図12】図9の撮影シーンに於いて、ストロボをプリ
発光してAFエリアセンサ12が積分する場合のAFエ
リアセンサデータを3次元的に示した図である。
12 is a diagram three-dimensionally showing AF area sensor data when the AF area sensor 12 integrates by pre-emission of a strobe light in the shooting scene of FIG. 9;

【図13】プリ発光なしのデータとプリ発光ありのデー
タを比較して、差のある部分を抽出したデータを3次元
的に示した図である。
FIG. 13 is a diagram three-dimensionally showing data obtained by comparing data without pre-light emission and data with pre-light emission and extracting a difference portion;

【図14】近距離に人物等の被写体が存在する場合の撮
影画面に対する選択された測距エリアを示した図であ
る。
FIG. 14 is a diagram illustrating a selected ranging area with respect to a shooting screen when a subject such as a person is present at a short distance.

【図15】この発明の第2の実施の形態を説明するもの
で、AFエリアセンサデータのコントラスト分布を示し
た図である。
FIG. 15 is a view for explaining a second embodiment of the present invention and showing a contrast distribution of AF area sensor data.

【図16】第2の実施の形態に於けるサブルーチン“夜
景判定処理”の動作を説明するフローチャートである。
FIG. 16 is a flowchart illustrating an operation of a subroutine “night scene determination process” in the second embodiment.

【図17】この発明の第3の実施の形態を説明するもの
で、輝度と、対応する輝度の画素数(またはエリア数)
の関係を示すグラフである。
FIG. 17 is a view for explaining the third embodiment of the present invention, in which the luminance and the number of pixels (or the number of areas) of the corresponding luminance are described.
6 is a graph showing the relationship of.

【図18】第3の実施の形態に於けるサブルーチン“夜
景判定処理”の動作について説明するフローチャートで
ある。
FIG. 18 is a flowchart illustrating an operation of a subroutine “night scene determination process” in the third embodiment.

【図19】スーパーコンビネーションAFと称される新
たなオートフォーカス技術について説明する図である。
FIG. 19 is a diagram for explaining a new autofocus technique called super combination AF.

【図20】スーパーコンビネーションAFに於ける測距
の動作を説明するフローチャートである。
FIG. 20 is a flowchart illustrating a distance measurement operation in the super combination AF.

【図21】この発明の第4の実施の形態として、上述し
たスーパーコンビネーションAFが適用されたカメラの
外観図である。
FIG. 21 is an external view of a camera to which the above-described super combination AF is applied as a fourth embodiment of the present invention.

【図22】第4の実施の形態に於けるカメラによる合焦
を説明する図である。
FIG. 22 is a diagram illustrating focusing by a camera according to a fourth embodiment.

【図23】この発明の第5の実施の形態に係るデジタル
カメラの構成を示したブロック図である。
FIG. 23 is a block diagram showing a configuration of a digital camera according to a fifth embodiment of the present invention.

【図24】第5の実施の形態による夜景判定の動作につ
いて説明するフローチャートである。
FIG. 24 is a flowchart illustrating an operation of night scene determination according to a fifth embodiment.

【図25】撮像素子73の受光エリアを複数の分割エリ
アに分割した例を示した図である。
FIG. 25 is a diagram showing an example in which the light receiving area of the image sensor 73 is divided into a plurality of divided areas.

【図26】AGC・γ補正部77aの高輝度部圧縮特性
を示した図である。
FIG. 26 is a diagram showing a high-luminance portion compression characteristic of the AGC / γ correction section 77a.

【符号の説明】[Explanation of symbols]

11 マイクロコンピュータ、 11a CPU(中央処理装置)、 11b ROM、 11c RAM、 11d アナログ−デジタル(A/D)コンバータ(A
DC)、 11e EEPROM、 12 AFエリアセンサ、 12a 撮像領域、 12b 処理回路、 13 フォーカスレンズ、 14 フォーカスレンズ駆動部、 15 フォーカスレンズエンコーダ、 16 ズームレンズ駆動部、 17 測光用受光素子、 18 測光部、 19 シャッタ駆動部、 20 フィルム駆動部、 23 ストロボ、 24 ストロボ回路部、 25 表示部、 26 ファーストレリーズスイッチ(1RSW)、 27 セカンドレリーズスイッチ(2RSW)、 30 被写体、 31a、31b 受光レンズ、 33 AFエリアセンサ12の検出エリア(測距エリ
ア)。
11 microcomputer, 11a CPU (central processing unit), 11b ROM, 11c RAM, 11d analog-digital (A / D) converter (A
DC), 11e EEPROM, 12 AF area sensor, 12a imaging area, 12b processing circuit, 13 focus lens, 14 focus lens drive section, 15 focus lens encoder, 16 zoom lens drive section, 17 photometric light receiving element, 18 photometric section, 19 shutter drive section, 20 film drive section, 23 strobe, 24 strobe circuit section, 25 display section, 26 first release switch (1RSW), 27 second release switch (2RSW), 30 subject, 31a, 31b light receiving lens, 33 AF area Detection area (distance measurement area) of the sensor 12.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段と、 この撮像手段の出力結果に基き撮影画面内の輝度分布を
検出する輝度分布検出手段と、 この輝度分布検出手段の出力結果に基き所定の輝度が連
続する領域を判別する輝度領域判別手段と、 この輝度領域判別手段の出力結果に基き上記所定の輝度
が連続する領域の所定面積を演算する演算手段と、 この演算手段の出力結果に基き撮影モードを決定する撮
影モード決定手段と、 を具備することを特徴とするカメラ。
1. An image pickup means, a luminance distribution detection means for detecting a luminance distribution in a photographing screen based on an output result of the image pickup means, and an area where a predetermined luminance is continuous based on an output result of the luminance distribution detection means. Luminance area discriminating means for discriminating; Calculation means for calculating a predetermined area of a region where the predetermined luminance is continuous based on an output result of the brightness area discrimination means; and Imaging for determining a shooting mode based on an output result of the calculation means. A camera comprising: a mode determining unit.
【請求項2】 撮像手段と、 この撮像手段の出力結果に基き撮影画面内の輝度分布を
検出する輝度分布検出手段と、 この輝度分布検出手段の出力結果に基き所定の輝度が連
続する領域を判別する輝度領域判別手段と、 この輝度領域判別手段の出力結果に基き上記所定の輝度
が連続する領域の所定面積を演算する演算手段と、 この演算手段の出力結果と、上記撮影画面全体の平均輝
度情報とに基き撮影モードを決定する撮影モード決定手
段と、 を具備することを特徴とするカメラ。
2. An image pickup means, a luminance distribution detection means for detecting a luminance distribution in a photographing screen based on an output result of the image pickup means, and an area in which predetermined luminance is continuous based on an output result of the luminance distribution detection means. A brightness area determining means for determining; a calculating means for calculating a predetermined area of an area where the predetermined brightness is continuous based on an output result of the brightness area determining means; an output result of the calculating means; A photographing mode determining means for determining a photographing mode based on the luminance information.
【請求項3】 上記撮影モード決定手段は、少なくとも
通常撮影モードと夜景撮影モードの決定を選択的に行う
ことを特徴とする請求項1若しくは2の何れか1に記載
のカメラ。
3. The camera according to claim 1, wherein the photographing mode determining means selectively determines at least a normal photographing mode and a night scene photographing mode.
JP24786799A 1999-09-01 1999-09-01 camera Expired - Fee Related JP4307648B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP24786799A JP4307648B2 (en) 1999-09-01 1999-09-01 camera
US09/651,877 US6792203B1 (en) 1999-09-01 2000-08-30 Camera and distance measuring apparatus used in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24786799A JP4307648B2 (en) 1999-09-01 1999-09-01 camera

Publications (2)

Publication Number Publication Date
JP2001075141A true JP2001075141A (en) 2001-03-23
JP4307648B2 JP4307648B2 (en) 2009-08-05

Family

ID=17169820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24786799A Expired - Fee Related JP4307648B2 (en) 1999-09-01 1999-09-01 camera

Country Status (1)

Country Link
JP (1) JP4307648B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298142A (en) * 2001-03-29 2002-10-11 Minolta Co Ltd Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
JP2003084343A (en) * 2001-09-13 2003-03-19 Olympus Optical Co Ltd Automatic exposure camera
KR100405039B1 (en) * 2001-11-20 2003-11-14 고속도로정보통신(주) Frame grabber with iris control facility
JP2007065048A (en) * 2005-08-29 2007-03-15 Fujifilm Holdings Corp Photographing device and focus control method
KR100743081B1 (en) 2006-06-15 2007-07-27 주식회사 엠씨넥스 Photographing apparatus and method for providing stable brightness characteristic
US7397500B2 (en) 2003-04-30 2008-07-08 Hewlett-Packard Development Company, L.P. Camera shake warning and feedback system that teaches the photographer
US7872670B2 (en) 2002-04-22 2011-01-18 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
JP2011139171A (en) * 2009-12-25 2011-07-14 Canon Inc Video processing apparatus, and video processing method
JP2011223378A (en) * 2010-04-12 2011-11-04 Sanyo Electric Co Ltd Electronic camera
JP2014161062A (en) * 2014-04-07 2014-09-04 Canon Inc Video processor and video processing method
JP2015040965A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Imaging device and control method of the same, program, and storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298142A (en) * 2001-03-29 2002-10-11 Minolta Co Ltd Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
JP2003084343A (en) * 2001-09-13 2003-03-19 Olympus Optical Co Ltd Automatic exposure camera
KR100405039B1 (en) * 2001-11-20 2003-11-14 고속도로정보통신(주) Frame grabber with iris control facility
US7969481B2 (en) 2002-04-22 2011-06-28 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
US7872670B2 (en) 2002-04-22 2011-01-18 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
US7397500B2 (en) 2003-04-30 2008-07-08 Hewlett-Packard Development Company, L.P. Camera shake warning and feedback system that teaches the photographer
JP4588583B2 (en) * 2005-08-29 2010-12-01 富士フイルム株式会社 Imaging apparatus and focus control method
JP2007065048A (en) * 2005-08-29 2007-03-15 Fujifilm Holdings Corp Photographing device and focus control method
KR100743081B1 (en) 2006-06-15 2007-07-27 주식회사 엠씨넥스 Photographing apparatus and method for providing stable brightness characteristic
JP2011139171A (en) * 2009-12-25 2011-07-14 Canon Inc Video processing apparatus, and video processing method
US9117139B2 (en) 2009-12-25 2015-08-25 Canon Kabushiki Kaisha Video processing apparatus and video processing method
JP2011223378A (en) * 2010-04-12 2011-11-04 Sanyo Electric Co Ltd Electronic camera
JP2015040965A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Imaging device and control method of the same, program, and storage medium
JP2014161062A (en) * 2014-04-07 2014-09-04 Canon Inc Video processor and video processing method

Also Published As

Publication number Publication date
JP4307648B2 (en) 2009-08-05

Similar Documents

Publication Publication Date Title
JP4040613B2 (en) Imaging device
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
US20050212950A1 (en) Focal length detecting method, focusing device, image capturing method and image capturing apparatus
US9137450B2 (en) Image sensing apparatus, exposure control method and recording medium
US20050099522A1 (en) Variable length encoding method and variable length decoding method
US6792203B1 (en) Camera and distance measuring apparatus used in the same
JP2007036978A (en) Digital camera, photographing method and photography control program
JP2001004909A (en) Camera having automatic focusing device
JPH0427530B2 (en)
JP2001091819A (en) Range-finding device for camera
JP2003029135A (en) Camera, camera system and photographic lens device
JP4307648B2 (en) camera
JP2008224808A (en) Automatic focusing device and imaging apparatus
JP5316923B2 (en) Imaging apparatus and program thereof
JP5371474B2 (en) Imaging apparatus, control method, and program
JP2009017427A (en) Imaging device
JP2004004449A (en) Exposure control system for camera
JP2006197236A (en) Image pickup device and method for controlling the same
JP2008160701A (en) Camera and photographic control program for the camera
JP2001100087A (en) Multispot range finder
JP2006333052A (en) Exposure adjusting device
JP2017129719A (en) Imaging apparatus, control method thereof, and control program
JP2002341235A (en) Digital camera
JP4657543B2 (en) Focus detection device
US20220345611A1 (en) Image capturing apparatus and control method thereof and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees