JP2001264624A - Camera - Google Patents

Camera

Info

Publication number
JP2001264624A
JP2001264624A JP2000078745A JP2000078745A JP2001264624A JP 2001264624 A JP2001264624 A JP 2001264624A JP 2000078745 A JP2000078745 A JP 2000078745A JP 2000078745 A JP2000078745 A JP 2000078745A JP 2001264624 A JP2001264624 A JP 2001264624A
Authority
JP
Japan
Prior art keywords
processing
microcomputer
photographing
camera
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000078745A
Other languages
Japanese (ja)
Other versions
JP4550211B2 (en
JP2001264624A5 (en
Inventor
Toshiyuki Matsumoto
寿之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000078745A priority Critical patent/JP4550211B2/en
Publication of JP2001264624A publication Critical patent/JP2001264624A/en
Publication of JP2001264624A5 publication Critical patent/JP2001264624A5/ja
Application granted granted Critical
Publication of JP4550211B2 publication Critical patent/JP4550211B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To control principal subject detection processing at a low cost with simple constitution and to surely shorten a time lag even under a photographing condition on which shortening the time lag is required. SOLUTION: This camera is constituted by including an imaging device 1 picking up an optical image formed through a photographing optical system (photographing lens) fetching and forming a subject image (optical image) and generating a subject image signal, a principal subject discrimination part 2 discriminating a principal subject based on the subject image signal from the device 1, a photographing mode setting part 4 where a photographing mode is manually or automatically selected and set by a photographer, and a discrimination system changing part 3 being a part to change the discriminating method of the discrimination part 2 in accordance with the photographing mode selected by the setting part 4 and performing control, for example, to inhibit or simplify discriminating operation. Namely, by performing the changing control of the discriminating method in accordance with the photographing mode selected by the setting part 4, the time lag is surely shortened even under the photographing condition on which shortening the time lag is required with the simple constitution, whereby the camera realizing high-speed and high-accuracy AF by which a shutter chance is not missed is constituted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、AF(オートフォ
ーカス)実行に必要な測距装置を備えたカメラに係り、
特に主要被写体を検出する主要被写体検出機能を用いて
合焦時間の短縮が要求される条件下でもタイムラグを短
縮して高速且つ高精度のAFが可能なカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera provided with a distance measuring device necessary for executing AF (auto focus).
In particular, the present invention relates to a camera capable of performing a high-speed and high-precision AF by shortening a time lag even under a condition where a shortening of a focusing time is required by using a main subject detection function for detecting a main subject.

【0002】[0002]

【従来の技術】一般にカメラにおいては、撮影レンズを
通過した被写体光束を撮像素子で受光し、撮像出力の評
価値が極大になるようにフォーカスレンズ位置を調節す
る山登りコントラストAFや、撮影レンズとは異なる光
路で被写体からの反射光を受光する公知のパッシブ測距
やアクティブ測距に基づくAFを行う外光AF等のAF
方式が採用されている。特に、外光AF方式について
は、銀塩カメラで多く採用されており、合焦精度は前述
した山登りコントラストAFに及ばないものの、合焦時
間が短いという特徴があるため、被写体までの距離を高
速に測距することができるという利点がある。
2. Description of the Related Art In general, a camera receives a luminous flux of a subject passing through a photographic lens by an image sensor and adjusts a focus lens position so that an evaluation value of an image output is maximized. AF such as external light AF that performs AF based on known passive distance measurement or active distance measurement that receives reflected light from a subject in different optical paths
The method is adopted. In particular, the external light AF method is widely used in silver halide cameras, and although the focusing accuracy is not as high as that of the hill-climbing contrast AF described above, the focusing time is short. There is an advantage that the distance can be measured.

【0003】このようなカメラにおいては、どんな状態
の被写体でも高精細な撮像画像を得るためには、特にA
F機能が重要であり、従来より如何にAFの高速化且つ
高精度化を図りAF機能を向上させるかの検討がなされ
ている。
In such a camera, in order to obtain a high-definition captured image of a subject in any state, in particular, A
The F function is important, and it has been studied how to increase the speed and accuracy of the AF to improve the AF function.

【0004】一般に、AF機能は、カメラに搭載される
測距装置の測距性能に大きく左右される。このような測
距装置には、種々様々な測距方法があるが、特に最近で
は、AF機能向上化のため、複数の測距点を用いて測距
することの可能な測距装置を備えたカメラも多く見受け
られる。このような測距装置を備えたカメラでは、例え
ば撮影画面の中央部とその左右の3点やこの3点に中央
上下の2点を加えた5点の多点測距を行うカメラがある
が、最近ではそれ以上の測距点を用いて測距するカメラ
も製品化されており、測距点は増加する傾向にある。こ
のような傾向に伴い、将来は殆ど全画面に測距点を配置
する可能性もある。
[0004] Generally, the AF function largely depends on the distance measuring performance of a distance measuring device mounted on a camera. There are various distance measuring methods for such a distance measuring device. In particular, recently, in order to improve the AF function, a distance measuring device capable of measuring a distance using a plurality of distance measuring points is provided. Many cameras are also found. Among cameras equipped with such a distance measuring device, there are cameras that perform multi-point distance measurement of, for example, a central portion of a shooting screen, three points on the left and right thereof, and five points obtained by adding two points above and below the center to the three points. Recently, a camera that measures the distance using more distance measuring points has also been commercialized, and the number of distance measuring points tends to increase. With this tendency, there is a possibility that ranging points will be arranged on almost the entire screen in the future.

【0005】しかしながら、このように測距点が多くな
ると、どの被写体が主要被写体であるかの判別が困難に
なり、撮影者が意図しない被写体が主要被写体と判定さ
れて意図しない被写体にピントや露出が合ってしまうと
いう不都合の発生が多くなってしまう。
However, when the number of distance measurement points increases, it becomes difficult to determine which subject is the main subject, and a subject not intended by the photographer is determined to be the main subject, and focus or exposure to an unintended subject is determined. The inconvenience of matching is increased.

【0006】そこで、従来より、このような不都合を解
消するために、撮影者の視線を検出して見ている被写体
を主要被写体とする視線検出方法が周知であるが、この
ような視線検出方法は、構造的に視線検出機構が複雑で
あるために、ごく一部のカメラしか採用されておらず、
視線検出方法以外で主要被写体を検出する方法をカメラ
に応用することが、多点測距が可能なカメラにおいて強
く望まれている。このような要望に伴い、主要被写体検
出機能を応用させたカメラに関する提案がいくつかなさ
れている。
In order to solve such inconveniences, a gaze detection method has been conventionally known in which the gaze of the photographer is detected and the subject being viewed is set as a main subject. Has a complicated eye-gaze detection mechanism, so only a small number of cameras are used.
It is strongly desired to apply a method of detecting a main subject other than the line of sight detection method to a camera capable of multipoint ranging. In response to such demands, several proposals have been made regarding cameras to which a main subject detection function is applied.

【0007】例えば主要被写体を考慮すると、撮影画面
内に人物が入っている場合には、その人物が主要被写体
で有る場合が多い。これに応じた従来技術としては、画
像処理技術によって撮影画面内に人物が入っていること
を検出する技術が周知であり、例えば人物検出技術をカ
メラに適用したものとしては、例えば特開平6−303
41号公報に開示された電子カメラ、あるいは本出願人
によって提案された特願平11−264247号に開示
されたカメラ等がある。
For example, considering a main subject, when a person is included in the photographing screen, the person is often the main subject. As a conventional technique corresponding to this, a technique of detecting that a person is included in a shooting screen by an image processing technique is well known. 303
There is an electronic camera disclosed in Japanese Patent Application Publication No. 41, a camera disclosed in Japanese Patent Application No. 11-264247 proposed by the present applicant, and the like.

【0008】前者の特開平6−30341号公報に開示
された電子カメラでは、検出した主要被写体にピントを
合わせるだけでなく、適切な露出処理を施す技術が開示
されており、画面内に人物を検出すると、制御手段によ
って距離検出手段より得られた被写体までの距離の情報
に基づいて撮影レンズの焦点距離と焦点位置と絞りを調
節し、人物と顔全体が略被写界深度内に入るように露出
を制御するものである。
[0008] In the former electronic camera disclosed in Japanese Patent Application Laid-Open No. Hei 6-30341, a technique for not only focusing on a detected main subject but also performing an appropriate exposure process is disclosed. Upon detection, the control means adjusts the focal length, the focal position, and the aperture of the taking lens based on information on the distance to the subject obtained from the distance detection means, so that the person and the entire face are substantially within the depth of field. To control the exposure.

【0009】また、後者の特願平11−264247号
に開示されたカメラでは、公知の人物検出技術をカメラ
に応用し、主要被写体の輪郭を検出して輪郭内部エリア
を優先的に測距するようにしている。
In the camera disclosed in Japanese Patent Application No. Hei 11-264247, a known person detection technique is applied to the camera to detect a contour of a main subject and preferentially measure a distance inside the contour. Like that.

【0010】しなかしながら、前述の特開平6−303
41号公報や特願平11−264247号に開示された
ような主要被写体検出技術をカメラに応用した従来技術
では、主要被写体検出を行うにかなりの演算時間を要し
てしまい、その結果、合焦時間(タイムラグともいう)
が長くなってしまい、高速にAFを行うことができない
という問題点があった。
[0010] However, the above-mentioned Japanese Patent Application Laid-Open No. Hei 6-303
In the related art in which the main subject detection technology disclosed in Japanese Patent Application Publication No. 41-210 and Japanese Patent Application No. 11-264247 is applied to a camera, it takes a considerable amount of calculation time to detect the main subject. Focal time (also called time lag)
However, there is a problem that AF cannot be performed at high speed.

【0011】また主要被写体が人物であるポートレート
撮影では、タイムラグが長くなってもさほど問題ではな
いが、移動している被写体を撮影する場合や、連写して
撮影するような撮影条件下では、タイムラグが長いと、
貴重なシャッターチャンスを逃す等の不都合が頻繁に生
じてしまうという虞れもあった。
In portrait photography in which the main subject is a person, even if the time lag is long, it does not matter much. If the time lag is long,
There is also a fear that inconveniences such as missing valuable shutter chances often occur.

【0012】このような問題点に対処すべく、タイムラ
グを短縮するための方法として、例えば測距装置に使用
されるマイコンを高速のものを用いて構成する方法が考
えられるが、これではコストアップ等の設計上の問題点
がある。
In order to cope with such a problem, as a method of shortening the time lag, for example, a method of using a high-speed microcomputer for a distance measuring device can be considered, but this increases cost. And other design problems.

【0013】[0013]

【発明が解決しようとする課題】上記の如く、特開平6
−30341号公報や特願平11−264247号に開
示されたような主要被写体検出技術をカメラに応用した
従来技術では、主要被写体検出を行うにかなりの演算時
間を要してしまい、その結果、合焦時間(タイムラグと
もいう)が長くなってしまい、高速にAFを行うことが
できないという問題点があった。また主要被写体が人物
であるポートレート撮影では、タイムラグが長くなって
もさほど問題ではないが、移動している被写体を撮影す
る場合や、連写して撮影するような撮影条件下では、タ
イムラグが長いと、貴重なシャッターチャンスを逃す等
の不都合が頻繁に生じてしまうという虞れもあった。ま
た、このような問題点に対処すべく、タイムラグを短縮
するための方法として、例えば測距装置に使用されるマ
イコンを高速のものを用いて構成する方法が考えられる
が、これではコストアップ等の設計上の問題点があり、
有効な手段とは言えない。
As described above, Japanese Patent Laid-Open No.
In the prior art in which a main subject detection technique disclosed in Japanese Patent Application No. 30341 or Japanese Patent Application No. 11-264247 is applied to a camera, it takes a considerable amount of calculation time to detect a main subject. The focusing time (also called time lag) becomes long, and there is a problem that AF cannot be performed at high speed. In portrait photography where the main subject is a person, the time lag is not a problem even if the time lag is long.However, the time lag is long when shooting a moving subject or under shooting conditions such as continuous shooting. Therefore, there is a fear that inconveniences such as missing a valuable photo opportunity often occur. As a method for reducing the time lag in order to deal with such a problem, for example, a method in which a microcomputer used for a distance measuring device is configured by using a high-speed microcomputer is conceivable. There is a design problem of
It is not an effective means.

【0014】そこで、本発明は上記問題点に鑑みてなさ
れたもので、低コストで且つ簡単な構成で主要被写体検
出処理制御を行うことができ、タイムラグの短縮が必要
とされる撮影条件下でも確実にタイムラグを短縮させて
シャッターチャンスを逃さない高速且つ高精度のAFが
可能なカメラの提供を目的とする。
Accordingly, the present invention has been made in view of the above-mentioned problems, and it is possible to perform main subject detection processing control with a low cost and simple configuration, and even under photographing conditions where a time lag needs to be reduced. It is an object of the present invention to provide a camera capable of performing high-speed and high-precision AF in which a time lag is reliably reduced and a photo opportunity is not missed.

【0015】[0015]

【課題を解決するための手段】請求項1に記載の発明の
カメラは、被写体像信号を出力する撮像手段と、前記撮
像手段の出力に基づいて主要被写体を判別する判別手段
と、合焦時間の短縮が要求される撮影条件下では、前記
判別手段の判別方法を変更する変更制御手段と、を具備
したことを特徴とするものである。
According to a first aspect of the present invention, there is provided a camera, comprising: imaging means for outputting a subject image signal; determining means for determining a main subject based on an output of the imaging means; And a change control unit for changing a determination method of the determination unit under a photographing condition that requires a reduction in image quality.

【0016】請求項2に記載の発明のカメラは、請求項
1に記載のカメラにおいて、前記合焦時間の短縮が要求
される撮影条件下は、移動する被写体を撮影する条件、
又は連写して撮影する条件、又は撮影者が手動で選択す
る条件であることを特徴とするものである。
According to a second aspect of the present invention, there is provided the camera according to the first aspect, wherein a photographing condition of the moving subject is set under a photographing condition in which the shortening of the focusing time is required.
Or a condition for continuous shooting or a condition manually selected by a photographer.

【0017】前記請求項1及び請求項2の発明によれ
ば、前記変更制御手段によって、前記合焦時間の短縮が
要求される撮影条件下が、例えば移動する被写体を撮影
する条件、又は連写して撮影する条件、又は撮影者が手
動で選択する条件である場合に、前記判別手段の判別方
法を変更するように制御することにより、簡単な構成で
確実にタイムラグを短縮させることが可能となる。これ
により、貴重なシャッターチャンスを逃さない高速且つ
高精度のAFが可能なカメラを構成できる。
According to the first and second aspects of the present invention, the change control means may set the photographing condition for which the focusing time is required to be shorter, such as a condition for photographing a moving subject or a continuous photographing operation. In the case where the condition is such that the photographing condition is selected or the photographer manually selects the condition, the time lag can be reliably reduced with a simple configuration by controlling the determination method of the determination unit to be changed. . As a result, a camera capable of performing high-speed and high-precision AF without missing a valuable photo opportunity can be configured.

【0018】請求項3に記載の発明のカメラは、請求項
1に記載のカメラにおいて、前記変更制御手段は、前記
合焦時間の短縮が要求される撮影条件下では、前記判別
手段の動作を禁止、又は単純化するように制御すること
を特徴とするものである。
According to a third aspect of the present invention, in the camera according to the first aspect, the change control means controls the operation of the discrimination means under a photographing condition requiring a reduction in the focusing time. It is characterized in that control is performed so as to be prohibited or simplified.

【0019】請求項3の発明によれば、請求項1の発明
と同様に作用して、同様の効果が得られる他に、前記判
別手段の動作を禁止、又は単純化するように制御するこ
とで、さらにタイムラグの短縮効果を向上させることが
可能となる。
According to the third aspect of the present invention, the same effect as that of the first aspect of the invention is obtained, and the same effect is obtained. In addition, the operation of the discriminating means is controlled so as to be prohibited or simplified. Thus, the effect of shortening the time lag can be further improved.

【0020】[0020]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0021】図1乃至図11は本発明のカメラの第1の
実施の形態を示し、図1は本発明に係るカメラの概念を
説明するための概念図、図2は本発明のカメラの全体構
成例を示すブロック図、図3は図2のマイコンのメイン
処理ルーチンを示すフローチャート、図4は図2のカメ
ラに搭載された測距光学系の構成を説明するための説明
図、図5は図2のAFエリアセンサの具体的構成例を示
すブロック図、図6は撮影画面内の測距エリアを示す説
明図、図7は図2のマイコンによるAF処理ルーチンを
示すフローチャート、図8は図2のマイコンの主要被写
体検出処理ルーチンを示すフローチャート、図9は図8
の処理における主要被写体検出領域を示す説明図、図1
0は図2のマイコンによる全抽出領域の形状判定処理ル
ーチンを示すフローチャート、図11は図10の処理に
おける主要被写体検出領域を示す説明図である。
1 to 11 show a first embodiment of the camera of the present invention. FIG. 1 is a conceptual diagram for explaining the concept of the camera according to the present invention. FIG. FIG. 3 is a block diagram showing a configuration example, FIG. 3 is a flowchart showing a main processing routine of the microcomputer in FIG. 2, FIG. 4 is an explanatory diagram for explaining the configuration of a distance measuring optical system mounted on the camera in FIG. 2, and FIG. FIG. 6 is a block diagram showing a specific configuration example of the AF area sensor of FIG. 2, FIG. 6 is an explanatory diagram showing a distance measurement area in a shooting screen, FIG. 7 is a flowchart showing an AF processing routine by the microcomputer of FIG. 2, and FIG. 9 is a flowchart showing a main subject detection processing routine of the microcomputer 2, FIG.
FIG. 1 is an explanatory view showing a main subject detection area in the processing of FIG.
0 is a flowchart showing a routine for determining the shape of all extraction regions by the microcomputer of FIG. 2, and FIG. 11 is an explanatory diagram showing a main subject detection region in the processing of FIG.

【0022】まず、本発明のカメラの概念について図1
を参照しながら説明する。本発明に係るカメラは、図1
に示すように、被写体像(光像)を取り込み結像する撮
像光学系(撮影レンズ)を介して結像される光像を撮像
して、被写体像信号を生成する撮像手段としての撮像素
子1と、該撮像素子1からの被写体像信号に基づいて、
主要被写体を判別する主要被写体判別部2と、撮影者に
よって撮影モードが手動又は自動で選択され設定される
撮影モード設定部4と、該撮影モード設定部4にて選択
された撮影モードに応じて、前記主要被写体判別部2の
判別方法を変更するもので、例えば判別動作を禁止した
り、又は単純化したり制御する判別方式変更部3とを含
んで構成される。
First, the concept of the camera of the present invention is shown in FIG.
This will be described with reference to FIG. FIG. 1 shows a camera according to the present invention.
As shown in (1), an image pickup device 1 as an image pickup unit that picks up a light image formed through an image pickup optical system (photographing lens) that captures and forms a subject image (light image) and generates a subject image signal. And a subject image signal from the image sensor 1
A main subject determining unit 2 for determining a main subject, a shooting mode setting unit 4 in which a shooting mode is manually or automatically selected and set by a photographer, and a shooting mode selected by the shooting mode setting unit 4. The main subject discriminating unit 2 changes the discriminating method, and includes, for example, a discriminating method changing unit 3 for inhibiting or simplifying or controlling the discriminating operation.

【0023】なお、前記撮像素子1は、例えばAFエリ
アセンサ12であり、該AFエリアセンサ12によって
撮影レンズ(図示せず)を介して結像される光像を撮像
して被写体像信号を生成する。
The image pickup device 1 is, for example, an AF area sensor 12, which generates a subject image signal by picking up an optical image formed by the AF area sensor 12 via a photographing lens (not shown). I do.

【0024】また、前記撮影モード設定部4において、
ユーザ操作によって設定される撮影モードとしては、例
えば通常の撮影モードや、移動している被写体を撮影す
る撮影モードあるいは連写して撮影する連写撮影モード
等があり、これらの撮影モードの中からいずれかの撮影
モードが撮影者によって手動、又は自動で選択されるよ
うになっている。
In the photographing mode setting section 4,
Examples of the shooting mode set by the user operation include a normal shooting mode, a shooting mode for shooting a moving subject, a continuous shooting mode for continuous shooting, and the like. The photographing mode is manually or automatically selected by the photographer.

【0025】例えば、判別方式変更部3は、前記撮影モ
ード設定部4により選択された撮影モードが移動してい
る被写体を撮影する撮影モード又は連写して撮影する連
写撮影モードであり、つまりタイムラグの短縮が必要と
される撮影モードで有る場合には、撮影時、例えば前記
主要被写体判別部2による判別動作を禁止したり、又は
単純化したりするように判別方法の変更制御を行う。
For example, the discrimination method changing unit 3 is a shooting mode selected by the shooting mode setting unit 4 which is a shooting mode for shooting a moving subject or a continuous shooting mode for continuous shooting. In the case of a shooting mode that requires shortening, the change of the determination method is controlled at the time of shooting, for example, to prohibit or simplify the determination operation by the main subject determination unit 2.

【0026】したがって、このように前記撮影モード設
定部4により選択された撮影モードに応じて判別方法の
変更制御を行うようにすれば、簡単な構成で、タイムラ
グの短縮が必要とされる撮影条件下でも確実にタイムラ
グを短縮させることが可能となり、シャッターチャンス
を逃さない高速且つ高精度のAFが可能なカメラの実現
が可能である。
Therefore, if the change of the discriminating method is controlled in accordance with the photographing mode selected by the photographing mode setting section 4 as described above, the photographing condition which requires a short time lag with a simple configuration. The time lag can be reliably reduced even under the camera, and a camera capable of high-speed and high-precision AF without missing a photo opportunity can be realized.

【0027】次に、このような本発明を実際のデジタル
カメラ等のカメラに適応した場合の実施の形態を図2を
参照しながら説明する。 第1の実施の形態: (構成)図2に示すように、本実施の形態のカメラに
は、制御部(以下、マイコンと称す)11が備えられて
いる。このマイコン11は、カメラ全体の各種動作を制
御するシステムコントローラであって、内部には、CP
U(中央演算処理装置)11a,ROM11b,RAM
11c,A/Dコンバータ11d,及びEEPROM1
1eを有している。
Next, an embodiment in which the present invention is applied to an actual camera such as a digital camera will be described with reference to FIG. First Embodiment (Configuration) As shown in FIG. 2, the camera of the present embodiment includes a control unit (hereinafter, referred to as a microcomputer) 11. The microcomputer 11 is a system controller that controls various operations of the entire camera.
U (central processing unit) 11a, ROM 11b, RAM
11c, A / D converter 11d, and EEPROM1
1e.

【0028】CPU11aは、ROM11bに格納され
たシーケンスプログラムに従って一連の動作を制御す
る。
The CPU 11a controls a series of operations according to a sequence program stored in the ROM 11b.

【0029】マイコン11内部のEEPROM11e
は、AF,測光,露出演算等に関する補正データをカメ
ラ毎に複数記憶している。さらに、該EEPROM11
eには、後述する撮影画面内の主要被写体を検出するた
めの各種バラメータ等が記憶されるようになっている。
An EEPROM 11e inside the microcomputer 11
Stores a plurality of correction data for AF, photometry, exposure calculation, and the like for each camera. Further, the EEPROM 11
In e, various parameters and the like for detecting a main subject in a shooting screen described later are stored.

【0030】一方、撮像素子1としてのAFエリアセン
サ12は、後述する測距光学系により形成される被写体
像を撮像して電気信号であるセンサデータ(被写体像信
号)に変換する。例えばAFエリアセンサ12は、受光
領域12aである水平方向と垂直方向に二次元状に配置
された受光素子群12aと、その処理回路12bと、定
常光除去部12cとを含んで構成される。
On the other hand, the AF area sensor 12 as the image sensor 1 captures a subject image formed by a distance measuring optical system, which will be described later, and converts it into sensor data (subject image signal) which is an electric signal. For example, the AF area sensor 12 includes a light receiving element group 12a, which is a light receiving area 12a, which is two-dimensionally arranged in a horizontal direction and a vertical direction, a processing circuit 12b, and a stationary light removing unit 12c.

【0031】上記構成のAFエリアセンサ12では、受
光素子(フォトダイオード)への入射光により発生する
電荷を画素毎の画素回路により電圧に変換するととも
に、増幅してマイコン11へと出力する。
In the AF area sensor 12 configured as described above, the charge generated by the light incident on the light receiving element (photodiode) is converted into a voltage by a pixel circuit for each pixel, and is amplified and output to the microcomputer 11.

【0032】マイコン11は、AFエリアセンサ12の
積分動作の制御、センサーデータの読み出し制御を行
い、Aはエリアセンサ12からのセンサーデータを処理
して、測距演算処理、主要被写体検出処理等を行うよう
に制御する。
The microcomputer 11 controls the integration operation of the AF area sensor 12 and controls the reading of sensor data. A processes the sensor data from the area sensor 12 and performs a distance measurement calculation process, a main subject detection process, and the like. Control to do.

【0033】また、AFエリアセンサ12には、画素毎
に定常光除去部12cが設けられており、これらの定常
光除去部12cは、マイコン11によって定常光を除去
するか否かが切り換えられるようになっている。
The AF area sensor 12 is provided with a stationary light removing unit 12c for each pixel, and the microcomputer 11 switches whether or not the stationary light removing unit 12c removes the stationary light. It has become.

【0034】この場合、定常光除去動作は、後述する補
助光を投光しながら行うことにより、投光成分による被
写体反射光のみに対応する受光信号を検出することがで
きるようになっている。
In this case, by performing the steady light removing operation while projecting auxiliary light, which will be described later, it is possible to detect a light receiving signal corresponding to only the subject reflected light due to the projected component.

【0035】フォーカスレンズ駆動部13は、撮影レン
ズ130の一部であるフォーカスレンズ14を駆動す
る。フォーカスレンズ駆動部13の駆動力は、図示しな
いレンズ駆動機構を介して撮影レンズ130内のフォー
カスレンズ14に伝達されて該フォーカスレンズ14の
駆動が行われる。また、レンズ駆動機構内には、フォー
カスレンズエンコーダ15が配置され、該フォーカスレ
ンズエンコーダは、前記フォーカスレンズ14の移動量
を常時検出し、この移動量に対応するパルス信号を生成
して、マイコン11に与える。
The focus lens driving section 13 drives the focus lens 14 which is a part of the photographing lens 130. The driving force of the focus lens driving unit 13 is transmitted to the focus lens 14 in the photographing lens 130 via a lens driving mechanism (not shown), and the focus lens 14 is driven. A focus lens encoder 15 is disposed in the lens driving mechanism. The focus lens encoder constantly detects the amount of movement of the focus lens 14 and generates a pulse signal corresponding to the amount of movement. Give to.

【0036】マイコン11は、測距演算処理結果に基づ
き、フォーカスレンズ駆動部13に駆動信号を出力し、
フォーカスレンズエンコーダ15の出力をモニター表示
してフォーカスレンズ14の位置制御して焦点調整を行
う。
The microcomputer 11 outputs a drive signal to the focus lens drive unit 13 based on the result of the distance measurement calculation processing,
The output of the focus lens encoder 15 is displayed on a monitor and the position of the focus lens 14 is controlled to adjust the focus.

【0037】また、カメラには、マイコン11と接続さ
れる測光部13Aが設けられている。該測光部13A
は、撮影画面に対応し、複数に分割された測光用受光素
子13aの発生する光電流信号を処理して測光出力信号
を生成する。マイコン11は、この測光出力信号をA/
Dコンバータ11dにより、アナログ→デジタル変換
(AD変換)を行い測光・露出演算処理を行う。
Further, the camera is provided with a photometric section 13A connected to the microcomputer 11. The photometric unit 13A
Processes a photocurrent signal generated by the photometric light receiving element 13a divided into a plurality of sections, corresponding to a shooting screen, to generate a photometric output signal. The microcomputer 11 outputs the photometric output signal to A /
The D-converter 11d performs analog-to-digital conversion (AD conversion) and performs photometry and exposure calculation processing.

【0038】またマイコン11にはシャッタ駆動部16
が接続されている。該シャッタ駆動部16は、マイコン
11からの指示に基づいて、図示しないシャッタを駆動
してフィルムに対する露出を行う。
The microcomputer 11 has a shutter driving unit 16
Is connected. The shutter drive unit 16 drives a shutter (not shown) based on an instruction from the microcomputer 11 to perform exposure on the film.

【0039】また、カメラには、マイコン11と接続さ
れるストロボ回路部20が設けられている。このストロ
ボ回路部20は、撮影時の補助光源としてストロボ20
aを発光させるブロック回路である。このストロボ回路
部20は、マイコン11によってその回路部20の充
電、発光制御がなされるようになっている。また、スト
ロボ回路部20は、測距動作時のAF補助光としても動
作するようになっている。
The camera is provided with a flash circuit section 20 connected to the microcomputer 11. The strobe circuit unit 20 includes a strobe light 20 as an auxiliary light source for photographing.
a is a block circuit that emits light. The flash circuit section 20 is controlled by the microcomputer 11 to control charging and light emission of the circuit section 20. Further, the strobe circuit unit 20 operates as AF auxiliary light at the time of a distance measurement operation.

【0040】さらにカメラの本体には、表示部回路部1
9が設けられ、この表示回路部19はマイコン11に接
続されている。表示回路部19は、例えば液晶表示素子
(LCD)等の表示素子を含んで構成されたもので、カ
メラ内部の情報を該表示素子により表示する。この表示
回路部19による表示制御は、マイコン11によって制
御されるようになっている。
The camera body further includes a display circuit 1
The display circuit section 19 is connected to the microcomputer 11. The display circuit section 19 includes a display element such as a liquid crystal display element (LCD), and displays information inside the camera using the display element. The display control by the display circuit unit 19 is controlled by the microcomputer 11.

【0041】また、このカメラは、2段式のレリーズス
イッチが採用されており、図2に示すようにファースト
レリーズスイッチ17(以下、1RSWと称す)、セカ
ンドレリーズスイッチ18(以下、2RSWと称す)が
設けられている。これらの1RSW17、2RSW18
は、レリーズボタンに連動したスイッチであって、レリ
ーズボタンの第1段階の押し下げにより1RSW17が
オンし、引き続いて第2段階の押し下げで2RSW18
がオンするようなっている。各レリーズスイッチ17、
18からのスイッチ操作信号は、マイコン11に供給さ
れる。
This camera employs a two-stage release switch. As shown in FIG. 2, a first release switch 17 (hereinafter, referred to as 1RSW) and a second release switch 18 (hereinafter, referred to as 2RSW). Is provided. These 1RSW17, 2RSW18
Is a switch interlocked with the release button. The 1RSW 17 is turned on when the release button is depressed in the first stage, and the 2RSW 18 is subsequently depressed in the second stage.
Is turned on. Each release switch 17,
The switch operation signal from 18 is supplied to the microcomputer 11.

【0042】マイコン11は、供給されたスイッチ操作
信号から1RSW17のオンを認識すると、AF,測光
動作を行うように制御し、さらに2RSW18のオンを
認識すると、露出動作,フィルム巻き上げ動作を行うよ
うに制御する。この場合のフィルム巻き上げ動作は、フ
ィルム駆動部21によって実施される。つまり、フィル
ム駆動部21は、マイコン11による指示制御により、
オートロード、一駒巻き上げ、巻き戻しのフィルム駆動
動作を行う。
When the microcomputer 11 recognizes that the 1RSW 17 is turned on from the supplied switch operation signal, it controls the AF and photometry operations to be performed, and when the microcomputer 11 recognizes that the 2RSW 18 is turned on, it performs the exposure operation and the film winding operation. Control. The film winding operation in this case is performed by the film driving unit 21. That is, the film driving unit 21 controls the instruction by the microcomputer 11
Performs film driving operations of auto load, single frame winding and rewinding.

【0043】また、カメラには、ズーム機能を備えてい
る。マイコン11に接続されたズームレンズ駆動部22
は、マイコン11の指示制御により撮影レンズ130内
のズームレンズのズーム動作を行う。この場合、ズーム
レンズ駆動部22は、投影レンズ130内のズームレン
ズの焦点距離情報を検出し、マイコン11に与える。こ
れを受けマイコン11は、この焦点距離情報に基づきズ
ームレンズ駆動部22に駆動信号を出力し、この焦点距
離情報をモニタ表示してズームレンズの位置制御するこ
とでズーム調整が行われるようになっている。
The camera has a zoom function. Zoom lens drive unit 22 connected to microcomputer 11
Performs the zoom operation of the zoom lens in the photographing lens 130 under the instruction control of the microcomputer 11. In this case, the zoom lens driving unit 22 detects the focal length information of the zoom lens in the projection lens 130 and supplies the information to the microcomputer 11. In response to this, the microcomputer 11 outputs a drive signal to the zoom lens driving unit 22 based on the focal length information, displays the focal length information on a monitor, and controls the position of the zoom lens to perform zoom adjustment. ing.

【0044】また、このようなカメラでの撮影動作は、
撮影モード設定部23により設定された撮影モードに基
づき実行される。
The photographing operation of such a camera is as follows.
It is executed based on the shooting mode set by the shooting mode setting unit 23.

【0045】撮影モード設定部23は、各種の撮影モー
ドを自動あるいは手動で選択することが可能であり、例
えば図示はしないがポートレート撮影モードSW、移動
被写体の撮影に適する動体AFモードSW、連写を行う
モードSW等の複数のスイッチが設けられている。つま
り、撮影モード設定部23において、撮影者がこれら複
数のスイッチから所望する撮影モードに応じたスイッチ
を操作することにより、いずれかの撮影モードを設定す
ることが可能である。これを受け、マイコン11は、選
択された撮影モードに基づいて、最適な露出制御、焦点
制御を行う。また、本実施の形態では、撮影モード設定
部23には、さらにタイムラグ優先モードSWが設けら
れており、このタイムラグ優先モードSWが押下される
と、マイコン11は、主要被写体検出処理を禁止、又は
単純化するように動作制御を行う。これにより、このタ
イムラグ優先モードが選択された場合には、タイムラグ
を短縮することが可能である。
The photographing mode setting unit 23 can automatically or manually select various photographing modes. For example, although not shown, a portrait photographing mode switch, a moving object AF mode switch suitable for photographing a moving subject, A plurality of switches such as a mode switch for performing a photograph are provided. That is, in the photographing mode setting unit 23, the photographer can set any one of the photographing modes by operating a switch corresponding to a desired photographing mode from the plurality of switches. In response, the microcomputer 11 performs optimal exposure control and focus control based on the selected shooting mode. Further, in the present embodiment, the photographing mode setting unit 23 is further provided with a time lag priority mode SW, and when the time lag priority mode SW is pressed, the microcomputer 11 inhibits the main subject detection processing, or Operation control is performed to simplify the operation. Thereby, when this time lag priority mode is selected, the time lag can be reduced.

【0046】次に、上記構成のカメラにおいて、マイコ
ン11によるメイン処理制御動作例を図3を参照しなが
ら詳細に説明する。
Next, an example of the main processing control operation by the microcomputer 11 in the camera having the above configuration will be described in detail with reference to FIG.

【0047】いま、図2に示すカメラの電源スイッチ
(図示せず)をオンし、あるいは電池挿入を行い電源を
オンしたものとする。すると、マイコン11が起動して
カメラ動作を開始し、ROM11b内に格納されたシー
ケンスプログラムを実行する。
Now, it is assumed that the power switch (not shown) of the camera shown in FIG. 2 is turned on or the battery is inserted and the power is turned on. Then, the microcomputer 11 starts and starts the camera operation, and executes the sequence program stored in the ROM 11b.

【0048】マイコン11は、まずステップS101に
よる処理で、カメラ内部の初期化動作を行い、次いでE
EPROM11e内のAF,測光等の調整・補正データ
を読み出し、RAM11cに供給して展開することによ
り、該カメラを撮影可能状態にする。
The microcomputer 11 first performs an initialization operation inside the camera in the processing in step S101, and then executes E
The adjustment / correction data such as AF and photometry in the EPROM 11e is read out, supplied to the RAM 11c and developed, thereby setting the camera in a photographable state.

【0049】その後、マイコン11は、続くステップS
102による判断処理で、レリーズスイッチ押下に伴い
1RSW17がオンされたか否か判断し、オンされるま
で待機する。その後、該ステップS101の判断処理
で、レリーズボタンの押下に伴い1RSW17がオンし
たと判断した場合には、次のステップS103に処理を
移行し、そうでない場合には、ステップS108に処理
を移行する。
Thereafter, the microcomputer 11 executes the following step S
In the determination process by 102, it is determined whether the 1RSW 17 has been turned on in response to the depression of the release switch, and the process waits until it is turned on. Thereafter, in the determination processing of step S101, when it is determined that the 1RSW 17 has been turned on in response to the pressing of the release button, the process proceeds to the next step S103, and otherwise, the process proceeds to step S108. .

【0050】ステップS103による処理では、1RS
W17がオンされた場合であるので、マイコン11は、
1RSW17の押下に伴いAF動作を行うように制御
し、次のステップS104の処理によって、測光部13
Aにて測光・露出演算処理を行うように制御して、処理
を次のステップS105に移行する。
In the process in step S103, 1RS
Since W17 is turned on, the microcomputer 11
The control is performed so that the AF operation is performed when the 1RSW 17 is pressed, and the light measurement unit 13
At A, control is performed to perform the photometry / exposure calculation process, and the process proceeds to the next step S105.

【0051】マイコン11は、ステップS105による
判断処理で、レリーズスイッチ押下に伴い2RSW18
がオンされたか否か判断し、2RSW18がオンしたと
判断した場合には、次のステップS106に処理を移行
し、オフであると判断した場合には、処理を前記ステッ
プS102に戻して再び1RSW17がオンされるまで
待機する。
The microcomputer 11 determines in step S105 that the 2RSW 18
It is determined whether or not is turned on. If it is determined that the 2RSW 18 is turned on, the process proceeds to the next step S106, and if it is determined that the 2RSW 18 is off, the process returns to the step S102 to return to the 1RSW 17 again. Wait until is turned on.

【0052】ステップS106による処理では、2RS
W18が押下された場合であるので、マイコン11は、
シャッタ駆動部16にてフィルムに露出するように制御
し、続くステップS107の処理により、フィルム1駒
巻き上げるようにフィルム駆動部21を制御し、一連の
撮影動作を完了して処理を前記ステップS102に戻
す。
In the process in step S106, 2RS
Since W18 is pressed, the microcomputer 11
The shutter drive unit 16 controls the exposure to the film, and in the subsequent step S107, the film drive unit 21 is controlled to wind up one frame of the film, and a series of photographing operations is completed. return.

【0053】前記ステップS102により1RSW17
がオンされていないものと判断された場合には、マイコ
ン11は、ステップS108の判断処理で、1RSW1
7,2RSW18以外のスイッチの入力を検出し、続く
ステップS109の処理で、スイッチ入力に応じた処理
を行うように制御する。例えば、ズームスイッチ(ZU
SW19,ZDSW20)のアップ又はダウン入力に基
づきズームアップ処理、又はズームダウン処理を行うよ
うに制御して、処理を前記ステップS102に戻す。
In step S102, 1RSW 17
If it is determined that is not turned on, the microcomputer 11 determines in step S108 that 1RSW1
The input of a switch other than the 7, 2RSW 18 is detected, and control is performed in the subsequent processing of step S109 so that processing corresponding to the switch input is performed. For example, a zoom switch (ZU
SW19, ZDSW20) is controlled to perform a zoom-up process or a zoom-down process based on an up or down input, and the process returns to step S102.

【0054】次に、本実施の形態のカメラにおけるAF
動作処理について、さらに詳細に説明する。まず、上述
したようにマイコン11によるステップS103にてA
F動作処理を実行することになるが、AFを実行するた
めには測距処理が必要である。つまり、本実施の形態の
カメラでは、図4に示す測距光学系によって測距動作が
実行される。すなわち、本実施の形態のカメラは、外光
パッシブ方式が採用され、この外光パッシブ方式によ
り、被写体までの距離を測定する。
Next, AF in the camera of the present embodiment
The operation processing will be described in more detail. First, as described above, in step S103 by the microcomputer 11, A
Although the F operation process is executed, a distance measurement process is required to execute the AF. That is, in the camera of the present embodiment, the distance measuring operation is performed by the distance measuring optical system shown in FIG. That is, the camera of the present embodiment employs an external light passive method, and measures the distance to the subject by the external light passive method.

【0055】具体的には、図4(a)に示すように受光
レンズ101,102が基線長B(図4(b)参照)を
隔てて配置され、被写体103の像を2像に分割してA
Fエリアセンサ12の受光領域12aに結像させる。
Specifically, as shown in FIG. 4A, the light receiving lenses 101 and 102 are arranged with a base line length B (see FIG. 4B) therebetween, and divide the image of the subject 103 into two images. A
An image is formed on the light receiving area 12a of the F area sensor 12.

【0056】そして、図4(b)に示すように、前記2
像の相対的な位置差xは、三角測量の原理を用いること
により、受光レンズの焦点距離fと基線長Bとから導き
だされ、その結果、被写体距離Lは下記の式によって導
きだされる。
Then, as shown in FIG.
The relative position difference x of the image is derived from the focal length f of the light receiving lens and the base line length B by using the principle of triangulation, and as a result, the subject distance L is derived by the following equation. .

【0057】 L=(B・f)/x …(式1) このような(式1)の測距演算処理は、マイコン11に
よって行われる。より具体的には、AFエリアセンサ1
2の受光領域12aに、測距エリアを設定して2像に対
応するセンサデータを用いて相関演算処理(位相差検出
処理)を行い、上記2像の相対的な位置差を検出する。
これにより、被写体までの距離を確実に測定することが
可能となる。
L = (B · f) / x (Equation 1) The distance measurement calculation processing of (Equation 1) is performed by the microcomputer 11. More specifically, AF area sensor 1
A distance measurement area is set in the two light receiving areas 12a, and a correlation calculation process (a phase difference detection process) is performed using sensor data corresponding to the two images to detect a relative position difference between the two images.
This makes it possible to reliably measure the distance to the subject.

【0058】次に、AFエリアセンサ12の具体的な構
成について図5を参照しながら詳細に説明する。図5
(a)はAFエリアセンサ12の全体構成例を示すブロ
ック図、図5(b)は1つの画素の構成を示すブロック
図である。
Next, a specific configuration of the AF area sensor 12 will be described in detail with reference to FIG. FIG.
FIG. 5A is a block diagram illustrating an example of the entire configuration of the AF area sensor 12, and FIG. 5B is a block diagram illustrating a configuration of one pixel.

【0059】本実施の形態のカメラに使用されるAFエ
リアセンサ12は、図5(a)に示すように、撮影画面
に対応して複数の画素50が配置されており、全体構成
としては、複数の画素50,スイッチ53、62,垂直
シフトレジスタ54,固定パターンノイズ除去回路5
5,水平シフトレジスタ56,モニタ選択回路57,出
力部(増幅器)60、61,及び読み出しエリア選択部
63を含んで構成されている。
As shown in FIG. 5A, the AF area sensor 12 used in the camera according to the present embodiment has a plurality of pixels 50 arranged corresponding to a shooting screen. Plural pixels 50, switches 53 and 62, vertical shift register 54, fixed pattern noise elimination circuit 5
5, a horizontal shift register 56, a monitor selection circuit 57, output sections (amplifiers) 60 and 61, and a read area selection section 63.

【0060】また、1つの画素50の構成は、図5
(b)に示すように受光素子であるフォトダイオード5
2と、フォトダイオード52の出力する信号電荷を蓄積
する蓄積容量58と、蓄積容量58に蓄積された蓄積電
圧を検出するための増幅回路51と、定常光成分を除去
する定常光除去回路59とから構成されている。
The structure of one pixel 50 is shown in FIG.
(B) As shown in FIG.
2, a storage capacitor 58 for storing a signal charge output from the photodiode 52, an amplifier circuit 51 for detecting a storage voltage stored in the storage capacitor 58, and a steady light removing circuit 59 for removing a steady light component. It is composed of

【0061】このような構成のAFエリアセンサ12に
おいて、前記モニタ選択回路57は、マイコン11から
の指示による所定画素範囲について、その範囲内のピー
ク蓄積量を示すモニタ信号を作成して出力部61により
マイコン11に出力する。マイコン11は、供給された
モニタ信号をA/Dコンバータ(ADCと略して説明す
る場合もある)11dでA/D変換し、蓄積動作を制御
する。
In the AF area sensor 12 having such a configuration, the monitor selection circuit 57 creates a monitor signal indicating a peak accumulation amount within a predetermined pixel range instructed by the microcomputer 11 and outputs the monitor signal to the output unit 61. To the microcomputer 11. The microcomputer 11 performs A / D conversion of the supplied monitor signal by an A / D converter (which may be abbreviated as ADC) 11d and controls a storage operation.

【0062】読み出し選択部63は、マイコン11から
の指示により水平シフトレジスタ56,垂直シフトレジ
スタ54を制御してセンサーデータを読み出す領域を設
定する。
The read selection section 63 controls the horizontal shift register 56 and the vertical shift register 54 in accordance with an instruction from the microcomputer 11 to set an area from which sensor data is read.

【0063】水平シフトレジスタ56,垂直シフトレジ
スタ54は、各画素の信号出力をスイッチ53,62を
介して選択し、得られたセンサーデータを出力部60よ
りマイコン11に出力する。マイコン11は、供給され
たセンサーデータ出力をA/Dコンバータ11dでA/
D変換し、RAM11cに記憶するように制御する。
The horizontal shift register 56 and the vertical shift register 54 select the signal output of each pixel via the switches 53 and 62, and output the obtained sensor data to the microcomputer 11 from the output unit 60. The microcomputer 11 converts the supplied sensor data output into an A / D converter 11d.
Control is performed so as to perform D conversion and store the result in the RAM 11c.

【0064】固定パターンノイズ除去回路55は、各画
素の信号出力に含まれる固定パターンノイズを除去する
ための回路である。これにより、各画素の信号出力はノ
イズが低減されることにより、より鮮明で且つ正確な被
写体像信号を得ることが可能である。
The fixed pattern noise removing circuit 55 is a circuit for removing fixed pattern noise included in the signal output of each pixel. Accordingly, the noise of the signal output of each pixel is reduced, so that a clearer and more accurate subject image signal can be obtained.

【0065】また、本実施の形態において、上述した測
距処理動作する場合の測距エリアは、図6に示されたも
のとなる。つまり、図6に示すようにカメラの撮影画面
を撮影画面100とすると、測距エリアは、該撮影画面
100内を例えば9つの分割し、測距エリア101〜1
09となる。したがって、測距動作処理する場合に、こ
のように例えば9つの測距エリア101〜109をそれ
ぞれ測距するようにしている。
In this embodiment, the distance measuring area in the case where the above-described distance measuring operation is performed is as shown in FIG. That is, as shown in FIG. 6, assuming that the photographing screen of the camera is the photographing screen 100, the ranging area is divided into, for example, nine areas within the photographing screen 100, and the ranging areas 101 to 1
09. Therefore, when performing the distance measurement operation processing, for example, the nine distance measurement areas 101 to 109 are respectively measured in this way.

【0066】(作用)次に、本発明の特徴となるマイコ
ン11によるAF処理制御例について、さらに図7を参
照しながら詳細に説明する。いま、図3に示すステップ
S103による処理でAF処理が実行されると、マイコ
ン11は、図7に示すAF処理ルーチンを実行させ、ス
テップS201に移行する。
(Operation) Next, an example of AF processing control by the microcomputer 11 which is a feature of the present invention will be described in detail with reference to FIG. Now, when the AF process is executed in the process in step S103 shown in FIG. 3, the microcomputer 11 executes the AF process routine shown in FIG. 7, and proceeds to step S201.

【0067】マイコン11は、このステップS201に
よる処理で、AFエリアセンサ12に積分スタート信号
を出力して、積分動作を行わせる。この場合、図5で説
明したように、AFエリアセンサ12から所定範囲内の
ピーク(最も明るい画素)出力に対応するモニタ信号が
出力され、マイコン11は、このモニタ信号を参照しな
がらAFエリアセンサ12の受光部の受光量が適正とな
るように積分時間を制御し、積分終了信号を出力する。
The microcomputer 11 outputs an integration start signal to the AF area sensor 12 in the processing in step S201 to perform the integration operation. In this case, as described with reference to FIG. 5, a monitor signal corresponding to a peak (brightest pixel) output within a predetermined range is output from the AF area sensor 12, and the microcomputer 11 refers to the monitor signal to refer to the AF area sensor. The integration time is controlled so that the light receiving amount of the light receiving unit 12 becomes appropriate, and an integration end signal is output.

【0068】その後、マイコン11は、次のステップS
202の処理で、AFエリアセンサ12に読み出しクロ
ックを出力してセンサーデータを読み出し、読み出した
センサーデータをA/Dコンバータ11dに取り込み、
A/D変換した後にRAM11cに格納して、次のステ
ップS203に処理を移行する。
Thereafter, the microcomputer 11 proceeds to the next step S
In the process of 202, a read clock is output to the AF area sensor 12 to read sensor data, and the read sensor data is taken into the A / D converter 11d.
After the A / D conversion, the data is stored in the RAM 11c, and the process proceeds to the next step S203.

【0069】ステップS203の処理では、図6のよう
に予め設定されている複数の測距エリア101〜109
について、それぞれ測距演算処理を行わせる。この場
合、測距演算は公知の位相差検出方法によって実施され
る。こうして、上記複数の測距エリアについてそれぞれ
測距演算がなされることにより、測距データが得られる
ようになっている。
In the process of step S203, a plurality of ranging areas 101 to 109 set in advance as shown in FIG.
Are subjected to distance measurement calculation processing. In this case, the distance measurement calculation is performed by a known phase difference detection method. Thus, the distance measurement data is obtained by performing the distance measurement calculation for each of the plurality of distance measurement areas.

【0070】そして、マイコン11は、続くステップS
204の判断処理で、撮影モード設定部23で、タイム
ラグの短縮を優先する必要のある動体モードが設定され
ているか否かを判別する。ここで、動体モードとは、動
体予測AF技術によって移動している被写体にピントを
合わせる公知の技術である。この判断処理で、動体モー
ドであると判定された場合には、処理をステップS21
4に移行し、動体モードでないと判定された場合には、
処理を次のステップS205に移行する。
Then, the microcomputer 11 proceeds to the next step S
In the determination process at 204, the photographing mode setting unit 23 determines whether or not a moving object mode in which reduction of the time lag needs to be prioritized is set. Here, the moving object mode is a known technology for focusing on a moving object by the moving object prediction AF technology. If it is determined that the mode is the moving body mode in this determination processing, the processing is performed in step S21.
If it is determined that the mode is not the moving body mode,
The process moves to the next step S205.

【0071】マイコン11は、動体モードでないと判定
した場合、ステップS205の処理で、複数の測距エリ
ア101〜109で得られた測距データについて、所定
の条件(信頼性の有無)を満足するか否かを判定し、満
足しない測距エリアのデータについては、排除する。そ
して、信頼性の最も高い測距データのうちから、所定の
アルゴリズムに基づいて複数の測距データより一つ、又
は複数の測距データを選択する。なお、前記所定のアル
ゴリズムとは、例えば最も至近側の測距データを採用す
る最至近選択等種々の方法が考えられる。
If the microcomputer 11 determines that the mode is not the moving object mode, the process of step S205 satisfies predetermined conditions (reliability) for the distance measurement data obtained in the plurality of distance measurement areas 101 to 109. It is determined whether or not the data of the ranging area is not satisfied. Then, from among the most reliable distance measurement data, one or a plurality of distance measurement data is selected from the plurality of distance measurement data based on a predetermined algorithm. As the predetermined algorithm, for example, various methods such as closest selection using distance measurement data on the closest side can be considered.

【0072】その後、マイコン11は、続くステップS
206の処理により、前記選択された測距データの測距
エリアを含む主要被写体検出領域を、AFエリアセンサ
12の受光量域上に設定して主要被写体検出処理を行
う。そして、得られた主要被写体検出結果が所定の条件
(信頼性の有無)を満足するか否かを判別する。その
後、主要被写体検出結果の信頼性が高い測距エリアの内
で、同一のグループに属するものをまとめてグループ化
を行い、主要被写体を確定して、次のステップS207
の判断処理に移行する。
Thereafter, the microcomputer 11 executes the following step S
By the processing of 206, the main subject detection area including the distance measurement area of the selected distance measurement data is set on the light receiving amount area of the AF area sensor 12, and the main object detection processing is performed. Then, it is determined whether or not the obtained main subject detection result satisfies a predetermined condition (reliability). After that, in the ranging areas with high reliability of the main subject detection result, those belonging to the same group are grouped together to determine the main subject, and the next step S207
The processing moves to the judgment processing of.

【0073】マイコン11は、ステップS207の判断
処理で、前記ステップS205で選択された一つ、又は
複数の選択測距エリア(測距データ)のうちで主要被写
体領域に含まれているものと判別されたものを最終的な
測距データとして採用する。つまり、選択された測距エ
リアが主要被写体であるか否かの判別を行い、選択測距
エリアが主要被写体であれば、ステップS212に移行
し、そうでなければ、次のステップS208に移行す
る。
The microcomputer 11 determines in the determination processing of step S207 that one or a plurality of selected ranging areas (ranging data) selected in step S205 are included in the main subject area. The measured data is adopted as final ranging data. That is, it is determined whether or not the selected ranging area is the main subject. If the selected ranging area is the main subject, the process proceeds to step S212; otherwise, the process proceeds to the next step S208. .

【0074】ステップS208では、選択測距エリアが
主要被写体でない場合であるので、マイコン11は、他
の測距エリアを選択し、次ぎのステップS209の判断
処理で、撮影画面内の全ての測距エリアについて主要被
写体であるか否かの判別が終了したか否かの判別を行
う。この場合、撮影画面内の全ての測距エリアについて
主要被写体でない判定がなされた場合には、処理をステ
ップS210に移行し、また全ての測距エリアについて
終了していない場合には、前記ステップS206に処理
を戻し、新たに選択された測距エリアについて主要被写
体検出処理を行う。
In step S208, since the selected distance measurement area is not the main subject, the microcomputer 11 selects another distance measurement area, and in the next step S209, determines all the distance measurement areas in the shooting screen. It is determined whether the determination as to whether or not the area is the main subject has been completed. In this case, if it is determined that the main subject is not the main subject for all the distance measurement areas in the shooting screen, the process proceeds to step S210. If not completed for all the distance measurement areas, the process proceeds to step S206. And the main subject detection process is performed for the newly selected ranging area.

【0075】マイコン11は、ステップS210の処理
では、前記ステップS205の処理とは異なり、主要被
写体検出領域を測距エリア毎に限定せず、撮影画面内の
全ての画像について主要被写体検出処理を行う。
In the processing of step S210, unlike the processing of step S205, the microcomputer 11 does not limit the main subject detection area to each distance measurement area, but performs the main subject detection processing for all the images in the photographing screen. .

【0076】そして、続くステップS211の処理によ
り、検出された主要被写体領域に対して、新たな測距エ
リアを設定し、測距演算処理を行う。
Then, a new distance measurement area is set for the detected main subject area by the processing of the subsequent step S211 and distance measurement calculation processing is performed.

【0077】その後、マイコン11は、続くステップS
212の処理で、フォーカスエンコーダ15からのパル
ス信号からフォーカスレンズ14の合焦までの移動量
(駆動量)を演算処理し、次のステップS213の処理
で、測距結果に基づきフォーカス連度駆動を制御してA
F動作処理制御を完了する。
Thereafter, the microcomputer 11 executes the following step S
In the process of 212, the moving amount (driving amount) from the pulse signal from the focus encoder 15 to the focusing of the focus lens 14 is calculated, and in the next process of step S213, the focus continuous driving is performed based on the distance measurement result. Control and A
The F operation processing control is completed.

【0078】一方、前記ステップS204の判断処理
で、動体モードであると判定された場合には、マイコン
11は、ステップS214の判断処理で、動体予測の実
行に必要な所定回数の測距が終了したか否かを判定し、
終了していない場合には、処理をステップS202に戻
し、つまりステップS202〜ステップS204のルー
チンを繰り返す。また、所定回数測距が終了した場合に
は、次のステップS215の処理で、公知の技術によっ
て動体予測演算処理を行い、被写体の動きを予測する。
具体的には、図4(b)で説明したように、位相差xの
データから未来の位相差xを予測して距離データを得
る。 その後、マイコン11は、次のステップS216の処理
により、移動被写体が観測された測距エリアを選択し、
処理を前記ステップS212に移行して、同様のステッ
プS212,213の処理を順次行い、AF動作処理を
完了する。
On the other hand, if it is determined in the determination processing in step S204 that the moving object mode is set, the microcomputer 11 terminates the predetermined number of times of distance measurement required for executing the prediction of the moving object in the determination processing in step S214. Judge whether or not
If not, the process returns to step S202, that is, the routine of steps S202 to S204 is repeated. If the distance measurement has been completed a predetermined number of times, in the next step S215, a moving object prediction calculation process is performed by a known technique to predict the motion of the subject.
Specifically, as described with reference to FIG. 4B, a distance data is obtained by predicting a future phase difference x from the data of the phase difference x. Thereafter, the microcomputer 11 selects a ranging area where the moving subject is observed by the processing of the next step S216,
The process proceeds to step S212, and the same processes in steps S212 and S213 are sequentially performed to complete the AF operation process.

【0079】なお、前記ステップS207による主要被
写体検出処理ルーチンでは、特に主要被写体として人物
を想定して検出処理を行うようになっている。このよう
に人物を主要被写体として検出する技術は、前述の特願
平11−264247号にも詳細に記載されている。
In the main subject detection processing routine in step S207, the detection processing is performed by assuming a person as a main subject. The technique of detecting a person as a main subject in this manner is also described in detail in the above-mentioned Japanese Patent Application No. 11-264247.

【0080】また、AFエリアセンサ12により2つの
画像が得られることになるが、主要被写体検出処理に使
用する画像データ(センサデータ)はどちらか一方の画
像でも良いし、両方の画像を使用しても良い。
Although two images can be obtained by the AF area sensor 12, the image data (sensor data) used for the main subject detection processing may be either one of the images or both images. May be.

【0081】AFエリアセンサ12のセンサデータは、
マイコン11内のRAM11cに格納されており、マイ
コン11はこのセンサデータに基づき、後述する主要被
写体検出処理を行う。
The sensor data of the AF area sensor 12 is
It is stored in the RAM 11c in the microcomputer 11, and the microcomputer 11 performs a main subject detection process described later based on the sensor data.

【0082】次に、上記マイコン11による主要被写体
検出処理制御例について、さらに図8を参照しながら詳
細に説明する。 いま、図7に示すステップS207によって主要被写体
検出処理が実行されると、マイコン11は、図8に示す
主要被写体検出処理ルーチンを開始し、つまり、ステッ
プS301の処理で、選択された測距エリアについてそ
れぞれ主要被写体検出領域を設定する(図9(a)参
照)。そして、設定された主要被写体領域について、以
降のステップS302〜304の処理を行うように制御
する。
Next, an example of the main subject detection processing control by the microcomputer 11 will be described in detail with reference to FIG. Now, when the main subject detection processing is executed in step S207 shown in FIG. 7, the microcomputer 11 starts a main subject detection processing routine shown in FIG. 8, that is, in the processing in step S301, the selected distance measurement area is selected. The main subject detection area is set for each (see FIG. 9A). Then, for the set main subject area, control is performed so that the processing of the following steps S302 to S304 is performed.

【0083】ステップS302の処理では、平滑化処理
を行う。つまり、マイコン11は、画像中のランダムノ
イズを除去する処理であって、例えばフィルタ処理やフ
ーリエ変換によってランダムノイズを除去して、次のス
テップS303に移行する。
In the process of step S302, a smoothing process is performed. In other words, the microcomputer 11 removes random noise from the image, for example, by filtering or Fourier transform, and proceeds to the next step S303.

【0084】ステップS303の処理では、2値化処理
を行い、画像信号に対して所定のしきい値以上の部分を
抽出して2値画像を求め、次のステップS304に処理
を移行する。
In the process of step S303, a binarization process is performed, a portion equal to or larger than a predetermined threshold value is extracted from the image signal to obtain a binary image, and the process proceeds to the next step S304.

【0085】ステップS304の処理では、ラベリング
処理を行い、例えば、2値化画像において同じ輝度値
(0,1)の画素が互いに連結している連結部分の塊に
対してラベリングを行う。つまり、異なる連結部分に対
して異なるラベルを貼り付けて区別して領域(連結領
域)を分離する(図9(b)参照)。
In the processing of step S304, labeling processing is performed, for example, labeling is performed on a block of connected portions where pixels of the same luminance value (0, 1) are connected to each other in a binary image. In other words, different labels are attached to different connection portions to distinguish and separate regions (connection regions) (see FIG. 9B).

【0086】その後、マイコン11は、処理をステップ
S305に移行し、このステップS305の処理で、形
状判定処理を行う。この場合、画像の形状を判別して主
要被写体を抽出する。詳細は後述するが、1つ又は複数
の選択された測距エリアが、それぞれ主要被写体である
か否かを示すデータを確定し、続くステップS306に
処理を移行する。
Thereafter, the microcomputer 11 shifts the processing to step S 305, and performs the shape determination processing in the processing of step S 305. In this case, the main subject is extracted by determining the shape of the image. Although details will be described later, data indicating whether or not each of one or a plurality of selected ranging areas is a main subject is determined, and the process proceeds to subsequent step S306.

【0087】ステップS306の判断処理では、前記1
つ又は複数の設定された主要被写体検出領域について、
全ての処理を行ったか否かを判別し、終了した場合には
該主要被写体検出処理を完了し、終了していない場合に
は処理をステップS302に戻し、別の領域について再
び処理を行う。
In the determination processing of step S306,
For one or more set main subject detection areas,
It is determined whether or not all the processing has been performed. If the processing has been completed, the main subject detection processing is completed. If not completed, the processing returns to step S302, and processing is performed again for another area.

【0088】次に、前記ステップS305による形状判
定処理について、さらに図10を参照しながら詳細に説
明する。 上述した図8に示すステップS305による形状判定処
理では、連結領域の面積は、その連結領域の属する画素
の個数である。また、周囲長は、連結領域のまわりの境
界に位置する画素の個数となっている。ただし、斜め方
向は水平,垂直方向に対して√2倍に補正する。
Next, the shape determination processing in step S305 will be described in detail with reference to FIG. In the shape determination processing in step S305 shown in FIG. 8 described above, the area of the connected region is the number of pixels to which the connected region belongs. The perimeter is the number of pixels located at the boundary around the connection area. However, the oblique direction is corrected by √2 times the horizontal and vertical directions.

【0089】画像の形状を判定するために、以下の係数
e(形状判定値)が使用される。ここで、係数eを求め
る式を示すと、 係数e=(周囲長)^2/(面積) …(式2) となる。係数eは、形状が円形の時に最小値を示し、形
状が複雑になるほど大きい値を示す。このような関係で
あることから、人物の顔は略円形に近いと考えられるの
で、上記係数eと所定値とを比較して対象画像が人物の
顔であるか否かを判定する。
To determine the shape of an image, the following coefficient e (shape determination value) is used. Here, an expression for obtaining the coefficient e is as follows: coefficient e = (perimeter) ^ 2 / (area) (Expression 2) The coefficient e indicates a minimum value when the shape is circular, and indicates a larger value as the shape becomes more complicated. Because of such a relationship, the face of the person is considered to be substantially circular. Therefore, it is determined whether or not the target image is the face of the person by comparing the coefficient e with a predetermined value.

【0090】また、前記連結領域面積も所定値と比較し
て、対象画像が人物の顔であるか否かを判定する。この
場合の前記所定値は、個人差や年齢を含めて統計的に求
めた数値を採用することが望ましい。
The area of the connected area is also compared with a predetermined value to determine whether or not the target image is a person's face. In this case, it is preferable that the predetermined value employs a numerical value obtained statistically including the individual difference and the age.

【0091】次に、このような形状判定処理を実行する
マイコン11の制御動作例を図8を参照しながら詳細に
説明する。 いま、図8に示すステップS305によって形状判定処
理が実行されると、マイコン11は、図10に示す形状
判定処理ルーチンを開始し、つまり、ステップS401
の処理で、図8のステップS304でのラベリング処理
による抽出領域があるか否かを判別し、抽出領域がない
場合には、ステップS409に処理を移行し、ある場合
には、次のステップS402に処理を移行する。
Next, an example of a control operation of the microcomputer 11 for executing such a shape determination process will be described in detail with reference to FIG. Now, when the shape determination processing is executed in step S305 shown in FIG. 8, the microcomputer 11 starts a shape determination processing routine shown in FIG. 10, that is, in step S401.
It is determined whether or not there is an extraction area by the labeling processing in step S304 in FIG. 8. If there is no extraction area, the processing shifts to step S409. If there is, there is a next step S402. The processing shifts to.

【0092】ステップS402の処理では、抽出領域の
面積Sを求め、所定範囲内であるか否かを判別する。所
定範囲は、主要被写体である人物の顔の大きさが距離と
焦点距離で変化するのに合わせ、測距結果である被写体
距離Lと撮影レンズの焦点距離によって変化させてい
る。マイコン11は、測距結果の被写体距離Lとズーム
駆動部22からのズーム情報に基づいても基準人物被写
体の顔の面積SLを算出し、このようにして求めた面積
SLに対して所定の幅をもたせて所定範囲を設定する。
In the process of step S402, the area S of the extraction area is obtained, and it is determined whether or not the area S is within a predetermined range. The predetermined range is changed by the subject distance L, which is the distance measurement result, and the focal length of the photographing lens, in accordance with the change in the size of the face of the person who is the main subject depending on the distance and the focal length. The microcomputer 11 calculates the area SL of the face of the reference person subject based on the subject distance L obtained as a result of the distance measurement and the zoom information from the zoom drive unit 22, and calculates a predetermined width for the area SL thus obtained. To set a predetermined range.

【0093】そして、マイコン11は、次のステップS
403の判断処理で、前記抽出領域面積Sが所定範囲内
であるか否かを判別し、所定範囲内である場合には次の
ステップS404に処理を移行し、そうでない場合には
ステップS409に処理を移行する。
Then, the microcomputer 11 proceeds to the next step S
In the determination process of 403, it is determined whether or not the extraction area S is within a predetermined range. If it is within the predetermined range, the process proceeds to the next step S404, and if not, the process proceeds to step S409. Transfer processing.

【0094】ステップS404の処理では、前記(式
2)から形状判定値eを算出し、続くステップS405
の判断処理で、算出した形状判定値eが所定範囲内であ
るか否かを判別する。この場合、所定範囲内である場合
にはステップS406に処理を移行し、そうでない場合
には処理をステップS409に移行する。
In the processing of step S404, the shape determination value e is calculated from the above (Equation 2), and the subsequent step S405
It is determined whether or not the calculated shape determination value e is within a predetermined range. In this case, if it is within the predetermined range, the process shifts to step S406; otherwise, the process shifts to step S409.

【0095】そして、マイコン11は、ステップS40
6の処理によって、人物であると判定しその結果をメモ
リする。
Then, the microcomputer 11 proceeds to step S40.
By the process of 6, the person is determined to be a person and the result is stored in the memory.

【0096】図11は図9(a)における主要被写体4
01(人物の顔)に合致している測距エリア105が選
択された場合に対応する2値画像を示している。この場
合、円形と形状判定がなされ、人物(主要被写体)と判
定される。
FIG. 11 shows the main subject 4 in FIG.
A binary image corresponding to a case where the distance measurement area 105 matching 01 (a human face) is selected is shown. In this case, a circle and a shape are determined, and a person (main subject) is determined.

【0097】その後、マイコン11は、次のステップS
407の判断処理により、全抽出領域について形状判定
がなされたか否かを判別し、終了していると判別された
場合には該形状判定処理を完了し、そうでない場合には
処理をステップS408に移行する。
Thereafter, the microcomputer 11 proceeds to the next step S
By the determination processing of 407, it is determined whether or not the shape determination has been performed for all the extraction regions. If it is determined that the extraction has been completed, the shape determination processing is completed. If not, the processing proceeds to step S408. Transition.

【0098】ステップS408の処理では、全抽出領域
について形状判定処理が成されていない場合なので、次
の抽出領域を設定して、処理を前記ステップS402に
戻し、再度該ステップS402移行の処理を繰り返し実
行するように制御する。
In the processing of step S408, since the shape determination processing has not been performed for all the extraction areas, the next extraction area is set, the processing returns to step S402, and the processing of step S402 is repeated again. Control to run.

【0099】一方、ステップS409による処理では、
人物以外の被写体と判定しメモリするように制御し、該
形状判定処理を完了する。この場合、図9(a)の撮影
シーンにおける被写体402(測距エリア102,10
3に対応)は円形ではないので、人物(主要被写体)で
はないと判定されることになる。
On the other hand, in the processing in step S409,
It is determined that the subject is a person other than a person and is controlled to be stored, and the shape determination process is completed. In this case, the subject 402 (the ranging areas 102 and 10) in the shooting scene of FIG.
3) is not circular, so that it is determined that it is not a person (main subject).

【0100】なお、上述したマイコン11によるAF動
作処理ルーチンにおいて、測距エリアから主要被写体領
域を求められなかった場合の処理であるステップS21
0(図7参照)では、撮影画面に対応する受光領域全体
のセンサデータについて主要被写体検出を行う。そし
て、その結果得られた主要被写体領域内に複数の測距エ
リアを設定するようになっている。またこれらの複数の
測距エリアの測距結果は、平均処理や最至近選択等の処
理により、1つの測距データに求められる(図8に示す
ステップS211)。
In the AF operation processing routine by the microcomputer 11 described above, step S21 is a processing when the main subject area cannot be obtained from the distance measurement area.
At 0 (see FIG. 7), main subject detection is performed on the sensor data of the entire light receiving area corresponding to the shooting screen. Then, a plurality of ranging areas are set in the main subject area obtained as a result. The distance measurement results of the plurality of distance measurement areas are obtained as one distance measurement data by processing such as averaging processing and closest distance selection (step S211 shown in FIG. 8).

【0101】なお、前述した主要被写体検出処理では、
円形画像を人物の顔として検出しているが、これは一例
を示しており、これに限定されず種々の方法が考えられ
る。例えば、予め用意されている人物形状の形状データ
と取得画像とについて、公知のテンプレートマッチング
方法を用いることにより、検出するように処理を行って
も良い。あるいは、AFエリアセンサ12としてカラー
タイプの撮像素子を使用して、センサデータを色処理す
ることにより、人物に相当する肌色領域を検出するよう
に処理を行っても良い。また、人物以外の形状データを
用いれば、人物以外の被写体も検出することが可能であ
る。
In the main subject detection process described above,
Although the circular image is detected as a human face, this is an example, and the present invention is not limited to this, and various methods can be considered. For example, processing may be performed to detect the shape data of the person shape and the acquired image prepared in advance by using a known template matching method. Alternatively, by using a color-type image sensor as the AF area sensor 12 and performing color processing on the sensor data, processing may be performed so as to detect a flesh color area corresponding to a person. Also, if shape data other than a person is used, a subject other than a person can be detected.

【0102】(効果)したがって、本実施の形態では、
タイムラグの短縮が必要とされる撮影モード(動体モー
ド)で有る場合に、マイコン11によって主要被写体検
出処理を単純化するように制御することにより、確実に
タイムラグを短縮することができる。よって、貴重なシ
ャッターチャンスを逃すこともなく確実に撮影すること
ができ、高精度な撮影画像を得ることが可能となる。ま
た、高速なマイコンを使用せずとも確実に主要被写体検
出処理制御を行うことができるので、低コスト化を図る
ことも可能である。
(Effect) Therefore, in the present embodiment,
In the case of a shooting mode (moving object mode) in which the time lag needs to be reduced, the time lag can be reliably reduced by controlling the microcomputer 11 to simplify the main subject detection process. Therefore, it is possible to reliably shoot without missing a valuable photo opportunity, and it is possible to obtain a high-accuracy shot image. In addition, since the main subject detection processing control can be reliably performed without using a high-speed microcomputer, cost reduction can be achieved.

【0103】第2の実施の形態:図12は本発明に係る
カメラの第2の実施の形態を示し、該カメラに搭載され
たマイコンによるAF処理ルーチンを示すフローチャー
トである。なお、図12に示すフローチャートは、前記
第1の実施の形態の図7に示すフローチャートと同様の
処理及び判断処理については、同一のステップS番号を
付して説明を省略し、異なる処理のみを説明する。
Second Embodiment FIG. 12 shows a camera according to a second embodiment of the present invention, and is a flowchart showing an AF processing routine by a microcomputer mounted on the camera. In the flowchart shown in FIG. 12, the same processes and determination processes as those of the flowchart shown in FIG. 7 of the first embodiment are denoted by the same step S numbers, and description thereof will be omitted. Only different processes will be described. explain.

【0104】(構成)本実施の形態のカメラの全体構成
としては、図2に示す前記第1の実施の形態と略同様で
あるが、マイコン11によるAF処理の制御内容が前記
第1の実施の形態と異なっている。つまり、本実施の形
態では、図3に示すAF処理ルーチンのステップS10
3のみが前記第1の実施の形態とは異なり、他の処理制
御については同様である。
(Configuration) The overall configuration of the camera of this embodiment is substantially the same as that of the first embodiment shown in FIG. 2, but the control of the AF processing by the microcomputer 11 is the same as that of the first embodiment. Is different from the form. That is, in the present embodiment, step S10 of the AF processing routine shown in FIG.
Only 3 is different from the first embodiment, and the other processing control is the same.

【0105】つまり、本実施の形態のカメラに搭載され
たマイコン11は、AF処理を実行する場合に、図12
に示すAF処理ルーチンを実行する。
That is, the microcomputer 11 mounted on the camera according to the present embodiment performs the AF processing shown in FIG.
The AF processing routine shown in FIG.

【0106】この場合、このAF処理ルーチンでは、図
7に示すAF処理ルーチンにおけるステップS204に
替えて新たなステップS217の処理を設けるととも
に、ステップS205による処理をステップS203の
次に行うように配置し、このステップS205の処理の
後に前記新たに設けたステップS217の処理を行うよ
うに配置しており、さらに、ステップS214,21
5,216の処理を削除している。
In this case, in this AF processing routine, a new step S217 is provided in place of step S204 in the AF processing routine shown in FIG. After the processing of step S205, the processing of step S217 newly provided is arranged to be performed.
5, 216 are deleted.

【0107】(作用)本実施の形態において、マイコン
11は、図12に示すように、前記ステップS205の
処理で、複数の測距データより一つ、又は複数の測距デ
ータが選択された後、ステップS217に移行し、該ス
テップS217の判断処理で、撮影モード設定部23
で、タイムラグの短縮を優先する必要のある連写モード
が設定されているか否かを判別する。ここで、連写モー
ドとは、2RSW18が押されている間中は連続撮影を
行う撮影モードである。この判断処理で、連写モードで
あると判定された場合には、処理をステップS212に
移行し、連写モードでないと判定された場合には、処理
を次のステップS206に移行する。
(Operation) In the present embodiment, as shown in FIG. 12, after the microcomputer 11 selects one or a plurality of distance measurement data from the plurality of distance measurement data in the process of step S205, as shown in FIG. Then, the process proceeds to step S217, and in the determination process of step S217, the photographing mode setting unit 23
Then, it is determined whether or not the continuous shooting mode in which the priority is given to the reduction of the time lag is set. Here, the continuous shooting mode is a shooting mode in which continuous shooting is performed while the 2RSW 18 is pressed. In this determination processing, when it is determined that the mode is the continuous shooting mode, the process proceeds to step S212, and when it is determined that the mode is not the continuous shooting mode, the process proceeds to the next step S206.

【0108】その後のマイコン11による制御について
は、図7に示すAF処理と同様である。
The subsequent control by the microcomputer 11 is the same as the AF process shown in FIG.

【0109】(効果)したがって、本実施の形態によれ
ば、タイムラグの短縮が必要とされる撮影モードが連写
モードで有る場合にも、マイコン11によって主要被写
体検出処理を単純化するように制御することにより、確
実にタイムラグを短縮することができ、前記第1の実施
の形態と同様の効果を得ることが可能となる。
(Effects) Therefore, according to the present embodiment, even when the shooting mode in which the time lag needs to be reduced is the continuous shooting mode, the microcomputer 11 controls the main subject detection processing to be simplified. By doing so, the time lag can be reliably reduced, and the same effect as in the first embodiment can be obtained.

【0110】第3の実施の形態:図13は本発明に係る
カメラの第3の実施の形態を示し、該カメラに搭載され
たマイコンによるAF処理ルーチンを示すフローチャー
トである。なお、図13に示すフローチャートは、前記
第2の実施の形態の図12に示すフローチャートと同様
に処理及び判断処理については、同一のステップS番号
を付して説明を省略し、異なる処理のみを説明する。
Third Embodiment FIG. 13 shows a third embodiment of the camera according to the present invention, and is a flowchart showing an AF processing routine by a microcomputer mounted on the camera. Note that, in the flowchart shown in FIG. 13, like the flowchart shown in FIG. 12 of the second embodiment, the processing and the judgment processing are denoted by the same step S numbers, and the description is omitted. explain.

【0111】(構成)本実施の形態のカメラの全体構成
としては、図2に示す前記第1の実施の形態と略同様で
あるが、マイコン11によるAF処理の制御内容が前記
第1の実施の形態と異なっている。つまり、本実施の形
態では、図3に示すAF処理ルーチンのステップS10
3のみが前記第1の実施の形態とは異なり、他の処理制
御については同様である。
(Configuration) The overall configuration of the camera of this embodiment is substantially the same as that of the first embodiment shown in FIG. 2, but the control of the AF processing by the microcomputer 11 is the same as that of the first embodiment. Is different from the form. That is, in the present embodiment, step S10 of the AF processing routine shown in FIG.
Only 3 is different from the first embodiment, and the other processing control is the same.

【0112】つまり、本実施の形態のカメラに搭載され
たマイコン11は、AF処理を実行する場合に、図13
に示すAF処理ルーチンを実行する。
That is, the microcomputer 11 mounted on the camera according to the present embodiment executes the AF processing shown in FIG.
The AF processing routine shown in FIG.

【0113】この場合、このAF処理ルーチンは、前記
第2の実施の形態の図12に示すAFルーチンと略同様
であるが、新たにステップS218による判断処理が追
加されている。
In this case, the AF processing routine is substantially the same as the AF routine shown in FIG. 12 of the second embodiment, except that a new judgment processing in step S218 is added.

【0114】(作用)本実施の形態において、図13に
示すようにマイコン11は、前記第2の実施の形態と同
様に前記ステップS205の処理で、複数の測距データ
より一つ、又は複数の測距データが選択された後、ステ
ップS217に移行し、該ステップS217の判断処理
で、撮影モード設定部23で、タイムラグの短縮を優先
する必要のある連写モードが設定されているか否かを判
別する。ここで、連写モードとは、2RSW18が押さ
れている間中は連続撮影を行う撮影モードである。この
判断処理で、連写モードであると判定された場合には、
処理をステップS218に移行し、連写モードでないと
判定された場合には、前記実施の形態と同様に処理を次
のステップS206に移行して、以降同様に制御する。
(Operation) In this embodiment, as shown in FIG. 13, the microcomputer 11 performs one or a plurality of distance measurement data from the plurality of distance measurement data in the processing of the step S205 similarly to the second embodiment. After the distance measurement data is selected, the flow shifts to step S217, and in the determination processing in step S217, whether the shooting mode setting unit 23 has set the continuous shooting mode in which reduction of the time lag should be prioritized Is determined. Here, the continuous shooting mode is a shooting mode in which continuous shooting is performed while the 2RSW 18 is pressed. In this determination processing, when it is determined that the continuous shooting mode is set,
The process shifts to step S218, and when it is determined that the mode is not the continuous shooting mode, the process shifts to the next step S206 as in the above-described embodiment, and the same control is performed thereafter.

【0115】前記ステップS217の判断処理で連写モ
ードが設定されている場合、マイコン11は、該ステッ
プS218の判断処理で、1枚目の撮影であるか否かを
判定し、1枚目の撮影である場合にはステップS206
に移行して主要被写体検出処理を行わせ、以降前記と同
様に処理を行い、逆に1枚目の撮影でない場合には、処
理をステップS212に移行する。すなわち、2枚目以
降は主要被写体検出を行わないように制御する。
If the continuous shooting mode has been set in the judgment processing in step S217, the microcomputer 11 judges in the judgment processing in step S218 whether or not the first image has been photographed. If it is shooting, step S206
Then, the main subject detection processing is performed, and thereafter, the same processing as described above is performed. Conversely, if it is not the first image capturing, the processing proceeds to step S212. That is, control is performed so that main subject detection is not performed for the second and subsequent sheets.

【0116】その後のマイコン11による制御について
は、図12に示すAF処理と同様である。
The subsequent control by the microcomputer 11 is the same as the AF process shown in FIG.

【0117】(効果)したがって、本実施の形態によれ
ば、タイムラグの短縮が必要とされる連写モードで有る
場合にも、マイコン11によって主要被写体検出処理を
単純化するように制御することにより、確実にタイムラ
グを短縮することができる。ただし、1枚目のみ主要被
写体検出処理を行い、2枚目以降はタイムラグ短縮を重
視して主要被写体検出処理を行わない。すなわち、前記
第2の実施の形態よりもタイムラグ短縮効果は下がる
が、主要被写体検出効果を向上させるという利点があ
る。
(Effects) Therefore, according to the present embodiment, even in the continuous shooting mode in which the time lag needs to be reduced, the microcomputer 11 controls the main subject detection process to be simplified. Thus, the time lag can be reliably reduced. However, the main subject detection processing is performed only on the first sheet, and the main subject detection processing is not performed on the second and subsequent sheets with emphasis on time lag reduction. That is, although the effect of reducing the time lag is lower than that of the second embodiment, there is an advantage that the main subject detection effect is improved.

【0118】第4の実施の形態:図14は本発明に係る
カメラの第4の実施の形態を示し、該カメラに搭載され
たマイコンによるAF処理ルーチンを示すフローチャー
トである。なお、図14に示すフローチャートは、前記
第2の実施の形態の図12に示すフローチャートと同様
に処理及び判断処理については、同一のステップS番号
を付して説明を省略し、異なる処理のみを説明する。
Fourth Embodiment FIG. 14 is a flowchart showing an AF processing routine by a microcomputer mounted on a camera according to a fourth embodiment of the camera according to the present invention. Note that, in the flowchart shown in FIG. 14, like the flowchart shown in FIG. 12 of the second embodiment, processes and determination processes are denoted by the same step S numbers, and description thereof will be omitted. Only different processes will be described. explain.

【0119】(構成)本実施の形態のカメラの全体構成
としては、図2に示す前記第1の実施の形態と略同様で
あるが、マイコン11によるAF処理の制御内容が前記
第1の実施の形態と異なっている。つまり、本実施の形
態では、図3に示すAF処理ルーチンのステップS10
3のみが前記第1の実施の形態とは異なり、他の処理制
御については同様である。
(Configuration) The overall configuration of the camera of this embodiment is substantially the same as that of the first embodiment shown in FIG. 2, but the control of the AF processing by the microcomputer 11 is the same as that of the first embodiment. Is different from the form. That is, in the present embodiment, step S10 of the AF processing routine shown in FIG.
Only 3 is different from the first embodiment, and the other processing control is the same.

【0120】つまり、本実施の形態のカメラに搭載され
たマイコン11は、AF処理を実行する場合に、図14
に示すAF処理ルーチンを実行する。
That is, the microcomputer 11 mounted on the camera according to the present embodiment executes the AF processing shown in FIG.
The AF processing routine shown in FIG.

【0121】この場合、このAF処理ルーチンは、前記
第2の実施の形態の図12に示すAFルーチンと略同様
であるが、ステップS217に替えて新たにステップS
219による判断処理が設けられている。 (作用)本実施の形態において、図14に示すようにマ
イコン11は、前記第3の実施の形態と同様に前記ステ
ップS205の処理で、複数の測距データより一つ、又
は複数の測距データが選択された後、ステップS219
に処理を移行する。
In this case, the AF processing routine is substantially the same as the AF routine shown in FIG. 12 of the second embodiment, except that step S217 is replaced by a new step S217.
219 is provided. (Operation) In the present embodiment, as shown in FIG. 14, the microcomputer 11 performs one or more distance measurement based on a plurality of distance measurement data in the processing of the step S205 as in the third embodiment. After the data is selected, step S219
The processing shifts to.

【0122】このステップS219による判断処理で
は、撮影モード設定部23で、撮影者がタイムラグの短
縮を優先するタイムラグ優先スイッチが押下されたか否
かを判別し、押下されてオンしている場合には、処理を
ステップS212に移行し、押下されていない場合に
は、前記実施の形態と同様に処理を次のステップS20
6に移行して、以降同様に制御する。
In the determination processing in step S219, the photographing mode setting section 23 determines whether or not the photographer has pressed the time lag priority switch for giving priority to the reduction of the time lag. The process proceeds to step S212, and if not pressed, the process proceeds to step S20 in the same manner as in the above-described embodiment.
Then, control is performed in the same manner.

【0123】その後のマイコン11による制御について
は、図12に示すAF処理と同様である。
The subsequent control by the microcomputer 11 is the same as the AF process shown in FIG.

【0124】(効果)したがって、本実施の形態によれ
ば、撮影モードに拘わらず撮影者の意想でタイムラグの
短縮が必要とされるモードが選択されている場合でも、
確実にタイムラグを短縮することができ、前記第2の実
施の形態と同様の効果が得られる。 第5の実施の形態:図15は本発明に係るカメラの第5
の実施の形態を示し、該カメラに搭載されたマイコンに
よるAF処理ルーチンを示すフローチャートである。な
お、図15に示すフローチャートは、前記第2,4の実
施の形態の図12,図14に示すフローチャートと同様
に処理及び判断処理については、同一のステップS番号
を付して説明を省略し、異なる処理のみを説明する。
(Effect) Therefore, according to the present embodiment, even if a mode that requires a reduction in the time lag is selected by the photographer's intention regardless of the shooting mode,
The time lag can be reliably reduced, and the same effect as in the second embodiment can be obtained. Fifth Embodiment: FIG. 15 shows a fifth embodiment of the camera according to the present invention.
9 is a flowchart showing an AF processing routine by a microcomputer mounted on the camera according to the embodiment. Note that, in the flowchart shown in FIG. 15, like the flowcharts shown in FIGS. 12 and 14 of the second and fourth embodiments, the processing and the judgment processing are denoted by the same step S numbers, and description thereof is omitted. Only different processes will be described.

【0125】(構成)本実施の形態のカメラの全体構成
としては、図2に示す前記第1の実施の形態と略同様で
あるが、マイコン11によるAF処理の制御内容が前記
第1の実施の形態と異なっている。つまり、本実施の形
態では、図3に示すAF処理ルーチンのステップS10
3のみが前記第1の実施の形態とは異なり、他の処理制
御については同様である。
(Configuration) The overall configuration of the camera of this embodiment is substantially the same as that of the first embodiment shown in FIG. 2, but the control of the AF processing by the microcomputer 11 is the same as that of the first embodiment. Is different from the form. That is, in the present embodiment, step S10 of the AF processing routine shown in FIG.
Only 3 is different from the first embodiment, and the other processing control is the same.

【0126】つまり、本実施の形態のカメラに搭載され
たマイコン11は、AF処理を実行する場合に、図15
に示すAF処理ルーチンを実行する。
That is, the microcomputer 11 mounted on the camera according to the present embodiment executes the AF process shown in FIG.
The AF processing routine shown in FIG.

【0127】この場合、このAF処理ルーチンは、前記
第2の実施の形態の図12に示すAFルーチンと略同様
であるが、図12に示すステップS217の処理と図1
4に示すステップS219による処理を、ステップS2
09,210との処理との間に配置したことが特徴であ
る。
In this case, the AF processing routine is substantially the same as the AF routine shown in FIG. 12 of the second embodiment, except that the processing in step S217 shown in FIG.
The processing in step S219 shown in FIG.
It is characterized in that it is arranged between the processes 09 and 210.

【0128】(作用)本実施の形態において、図15に
示すようにマイコン11は、ステップS209の判断処
理で、撮影画面内の全ての測距エリアについて主要被写
体であるか否かの判別が終了したか否かの判別を行い、
撮影画面内の全ての測距エリアについて主要被写体でな
い判定がなされた場合には、処理をステップS217に
移行し、また全ての測距エリアについて終了していない
場合には、前記ステップS206に処理を戻し、新たに
選択された測距エリアについて主要被写体検出処理を行
う。
(Operation) In the present embodiment, as shown in FIG. 15, the microcomputer 11 completes the determination processing in step S209 to determine whether or not all the distance measurement areas in the shooting screen are the main subjects. Determine whether or not
If it is determined that the main subject is not the main subject for all the distance measurement areas in the shooting screen, the process proceeds to step S217. If not completed for all the distance measurement areas, the process proceeds to step S206. Then, the main subject detection process is performed for the newly selected ranging area.

【0129】その後、マイコン11は、ステップS21
7の判断処理で、撮影モード設定部23で、タイムラグ
の短縮を優先する必要のある連写モードが設定されてい
るか否かを判別し、連写モードであると判定された場合
には、処理をステップS212に移行し、連写モードで
ないと判定された場合には、前記第4の実施の形態にた
用いたステップ219の処理に移行する。
Thereafter, the microcomputer 11 proceeds to step S21.
In the determination process of 7, the shooting mode setting unit 23 determines whether or not the continuous shooting mode in which reduction of the time lag needs to be prioritized is set, and if it is determined that the continuous shooting mode is set, the process is performed. Shifts to step S212, and when it is determined that the mode is not the continuous shooting mode, the process shifts to step 219 used in the fourth embodiment.

【0130】このステップS219による判断処理で
は、撮影モード設定部23で、撮影者がタイムラグの短
縮を優先するタイムラグ優先スイッチが押下されたか否
かを判別し、押下されてオンしている場合には、処理を
ステップS212に移行し、押下されていない場合に
は、処理を次のステップS210に移行して、以降同様
に制御する。
In the determination processing in step S219, the photographing mode setting section 23 determines whether or not the photographer has pressed the time lag priority switch for giving priority to the reduction of the time lag. Then, the process shifts to step S212. If the button is not pressed, the process shifts to the next step S210, and the same control is performed thereafter.

【0131】その後のマイコン11による制御について
は、図12に示すAF処理と同様であるつまり、全ての
モードで主要被写体検出処理(ステップS206による
処理)が実行されるが、ステップS217で連写モー
ド、あるいはタイムラグ優先スイッチがオンしている場
合には、ステップS210,211によるそれぞれの処
理を実行しない。すなわち、主要被写体検出処理を単純
化している。
The subsequent control by the microcomputer 11 is the same as the AF process shown in FIG. 12. That is, the main subject detection process (the process in step S206) is executed in all modes, but the continuous shooting mode is executed in step S217. Alternatively, when the time lag priority switch is on, the respective processes in steps S210 and S211 are not executed. That is, the main subject detection process is simplified.

【0132】なお、本実施の形態は、主要被写体検出ア
ルゴリズムを単純化してタイムラグを短縮する一例であ
るが、これに限定されることはなく、単純化できれば他
の方法を採用しても良い。例えば図8に示すステップS
306で判定される領域を減らすように処理を行っても
良い。すなわち、主要被写体検出領域を中央付近に限定
しても良いことである。
Although the present embodiment is an example in which the main subject detection algorithm is simplified to reduce the time lag, the present invention is not limited to this, and another method may be employed as long as the algorithm can be simplified. For example, step S shown in FIG.
Processing may be performed to reduce the area determined in 306. That is, the main subject detection area may be limited to the vicinity of the center.

【0133】(効果)したがって、本実施の形態によれ
ば、マイコン11によって主要被写体検出処理を単純化
するように制御することにより、確実にタイムラグを短
縮することができ、前記第2,4の実施の形態よりもタ
イムラグ短縮効果の点で有効である。
(Effects) Therefore, according to the present embodiment, the time lag can be reliably reduced by controlling the microcomputer 11 to simplify the main subject detection process. This is more effective in reducing the time lag than in the embodiment.

【0134】なお、本発明に係る各実施の形態では、主
要被写体アルゴリズムとして、図8〜図11で説明した
方法以外の方法を採用しても良い。
In each embodiment according to the present invention, a method other than the method described with reference to FIGS. 8 to 11 may be employed as the main subject algorithm.

【0135】また、本発明に係る各実施の形態では、前
記外光式AFの測距方式として、パッシブ方式を採用し
たことについて説明したが、本発明はこれに限定される
ものではなく、例えばTTLパッシブ方式を一眼レフレ
ックスカメラに適用して構成しても良い。
Further, in each of the embodiments according to the present invention, a description has been given of the adoption of the passive method as the distance measuring method of the external light AF, but the present invention is not limited to this. The TTL passive method may be applied to a single-lens reflex camera.

【0136】さらに、本発明に係る各実施の形態では、
主に人物を主要被写体として検出する例を説明したが、
検出パターンを変更することで人物以外にも適用できる
カメラを構成することも可能である。
Furthermore, in each embodiment according to the present invention,
Although the example of mainly detecting a person as a main subject has been described,
By changing the detection pattern, it is also possible to configure a camera that can be applied to a person other than a person.

【0137】[付記項] (付記項1) 被写体像信号を出力する撮像手段と、前
記撮像手段の出力に基づいて主要被写体を判別する判別
手段と、合焦時間の短縮が要求される撮影条件下では、
前記判別手段の判別方法を変更する変更制御手段と、を
具備したことを特徴とするカメラ。
[Appendix] (Appendix 1) Imaging means for outputting a subject image signal, discrimination means for discriminating a main subject based on the output of the imaging means, and photographing conditions requiring a reduction in focusing time Below,
A camera, comprising: a change control unit that changes a determination method of the determination unit.

【0138】(付記項2) 前記合焦時間の短縮が要求
される撮影条件下は、移動する被写体を撮影する条件、
又は連写して撮影する条件、又は撮影者が手動で選択す
る条件であることを特徴とする付記項1に記載のカメ
ラ。
(Additional Item 2) Under the photographing conditions in which the shortening of the focusing time is required, the conditions for photographing a moving subject,
2. The camera according to claim 1, wherein the camera is a condition for continuous shooting or a condition manually selected by a photographer.

【0139】(付記項3) 前記変更制御手段は、前記
合焦時間の短縮が要求される撮影条件下では、前記判別
手段の動作を禁止、又は単純化するように制御すること
を特徴とする付記項1に記載のカメラ。
(Additional Item 3) The change control means controls the operation of the discriminating means to be inhibited or simplified under a photographing condition in which shortening of the focusing time is required. 2. The camera according to claim 1.

【0140】(付記項4) 前記変更制御手段は、前記
撮影条件が連写して撮影する条件、又は撮影者が手動で
選択する条件である場合には、前記判別手段のアルゴリ
ズムを短縮化し、一方、移動している被写体を撮影する
条件で有る場合には、移動が観察された被写体を主要被
写体とするように前記判別手段の動作を単純化させるこ
とを特徴とする付記項3に記載のカメラ。
(Additional Item 4) When the photographing condition is a condition for continuous photographing or a condition manually selected by a photographer, the change control means shortens the algorithm of the discriminating means. The camera according to claim 3, wherein the operation of the discriminating means is simplified so that, when the condition for photographing the moving subject is satisfied, the subject whose movement is observed is set as the main subject. .

【0141】(付記項5) 前記変更制御手段は、前記
撮影条件が連写して撮影する条件である場合には、1枚
目の撮影では前記判別手段を動作させ、2枚目以降は禁
止するように制御することを特徴とする付記項3に記載
のカメラ。
(Additional Item 5) If the photographing condition is a condition for continuous photographing, the change control means operates the discriminating means in the first photographing and prohibits the second and subsequent photographs. 4. The camera according to claim 3, wherein the camera is controlled as follows.

【0142】[0142]

【発明の効果】以上、述べたように本発明によれば、低
コストで且つ簡単な構成で主要被写体検出処理制御を行
うことができ、タイムラグの短縮が必要とされる撮影条
件下でも確実にタイムラグを短縮することができる。こ
れにより、貴重なシャッターチャンスを逃さない高速且
つ高精度のAFが可能なカメラを構成できる。
As described above, according to the present invention, the control of the main subject detection processing can be performed with a low cost and a simple configuration, and it is ensured even under the photographing conditions that require a short time lag. Time lag can be reduced. As a result, a camera capable of performing high-speed and high-precision AF without missing a valuable photo opportunity can be configured.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のカメラの第1の実施の形態を示し、該
カメラの概念を説明するための概念図。
FIG. 1 is a conceptual diagram illustrating a first embodiment of a camera according to the present invention and illustrating the concept of the camera.

【図2】本発明のカメラの全体構成例を示すブロック
図。
FIG. 2 is a block diagram showing an overall configuration example of a camera according to the present invention.

【図3】図2のマイコンのメイン処理ルーチンを示すフ
ローチャート。
FIG. 3 is a flowchart showing a main processing routine of the microcomputer of FIG. 2;

【図4】図2のカメラに搭載された測距光学系の構成を
説明するための説明図。
FIG. 4 is an explanatory diagram for explaining a configuration of a distance measuring optical system mounted on the camera in FIG. 2;

【図5】図2のAFエリアセンサの具体的構成例を示す
ブロック図。
FIG. 5 is a block diagram showing a specific configuration example of the AF area sensor of FIG. 2;

【図6】撮影画面内の測距エリアを示す説明図。FIG. 6 is an explanatory diagram showing a distance measurement area in a shooting screen.

【図7】図2のマイコンによるAF処理ルーチンを示す
フローチャート。
FIG. 7 is a flowchart showing an AF processing routine by the microcomputer of FIG. 2;

【図8】図2のマイコンの主要被写体検出処理ルーチン
を示すフローチャート。
FIG. 8 is a flowchart showing a main subject detection processing routine of the microcomputer of FIG. 2;

【図9】図8の処理における主要被写体検出領域を示す
説明図。
FIG. 9 is an explanatory diagram showing a main subject detection area in the processing of FIG. 8;

【図10】図2のマイコンによる全抽出領域の形状判定
処理ルーチンを示すフローチャート。
FIG. 10 is a flowchart illustrating a shape determination processing routine for all extraction regions by the microcomputer of FIG. 2;

【図11】図10の処理における主要被写体検出領域を
示す説明図。
FIG. 11 is an explanatory diagram showing a main subject detection area in the processing of FIG. 10;

【図12】本発明のカメラの第2の実施の形態を示し、
AF処理ルーチンを示すフローチャート。
FIG. 12 shows a second embodiment of the camera of the present invention,
9 is a flowchart illustrating an AF processing routine.

【図13】本発明のカメラの第3の実施の形態を示し、
AF処理ルーチンを示すフローチャート。
FIG. 13 shows a third embodiment of the camera of the present invention,
9 is a flowchart illustrating an AF processing routine.

【図14】本発明のカメラの第4の実施の形態を示し、
AF処理ルーチンを示すフローチャート。
FIG. 14 shows a fourth embodiment of the camera of the present invention,
9 is a flowchart illustrating an AF processing routine.

【図15】本発明のカメラの第5の実施の形態を示し、
AF処理ルーチンを示すフローチャート。
FIG. 15 shows a fifth embodiment of the camera of the present invention,
9 is a flowchart illustrating an AF processing routine.

【符号の説明】[Explanation of symbols]

1…撮像素子、 2…主要被写体判別部、 3…判別方式変更部、 4…撮影モード設定部、 11…制御部(マイコン)、 11a…中央処理装置(CPU)、 11b…ROM、 11c…RAM、 11d…A/Dコンバータ(ADC)、 11e…EEPROM、 12…AFエリアセンサ、 12a…受光領域、 12b…受光信号処理回路、 12c…定常光除去部、 13…フォーカスレンズ駆動部、 13A…測光部、 13a…測光用受光素子、 14…フォーカスレンズ、 15…フォーカスレンズエンコーダ、 16…シャッタ駆動部、 17…1RSW、 18…2RSW、 19…表示回路部、 20…ストロボ回路部、 21フィルム駆動部、 22…ズームレンズ駆動部、 23…撮影モード設定部、 DESCRIPTION OF SYMBOLS 1 ... Image sensor, 2 ... Main subject discrimination part, 3 ... Discrimination method change part, 4 ... Photographing mode setting part, 11 ... Control part (microcomputer), 11a ... Central processing unit (CPU), 11b ... ROM, 11c ... RAM Reference numeral 11d: A / D converter (ADC), 11e: EEPROM, 12: AF area sensor, 12a: Light receiving area, 12b: Light receiving signal processing circuit, 12c: Regular light removing unit, 13: Focus lens driving unit, 13A: Photometry Section 13a: Photometric light receiving element, 14: Focus lens, 15: Focus lens encoder, 16: Shutter drive section, 17: 1RSW, 18: 2RSW, 19: Display circuit section, 20: Flash circuit section, 21 Film drive section , 22: a zoom lens driving unit, 23: a shooting mode setting unit,

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 被写体像信号を出力する撮像手段と、 前記撮像手段の出力に基づいて主要被写体を判別する判
別手段と、 合焦時間の短縮が要求される撮影条件下では、前記判別
手段の判別方法を変更する変更制御手段と、 を具備したことを特徴とするカメラ。
An imaging unit that outputs a subject image signal; a determination unit that determines a main subject based on an output of the imaging unit; A camera, comprising: change control means for changing a determination method.
【請求項2】 前記合焦時間の短縮が要求される撮影条
件下は、移動する被写体を撮影する条件、又は連写して
撮影する条件、又は撮影者が手動で選択する条件である
ことを特徴とする請求項1に記載のカメラ。
2. The photographing condition in which the shortening of the focusing time is required is a condition for photographing a moving subject, a condition for continuously photographing, or a condition for manual selection by a photographer. The camera according to claim 1, wherein:
【請求項3】 前記変更制御手段は、前記合焦時間の短
縮が要求される撮影条件下では、前記判別手段の動作を
禁止、又は単純化するように制御することを特徴とする
請求項1に記載のカメラ。
3. The apparatus according to claim 1, wherein the change control unit controls the operation of the determination unit to be prohibited or simplified under a photographing condition in which the focus time is required to be shortened. The camera according to.
JP2000078745A 2000-03-21 2000-03-21 camera Expired - Fee Related JP4550211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000078745A JP4550211B2 (en) 2000-03-21 2000-03-21 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000078745A JP4550211B2 (en) 2000-03-21 2000-03-21 camera

Publications (3)

Publication Number Publication Date
JP2001264624A true JP2001264624A (en) 2001-09-26
JP2001264624A5 JP2001264624A5 (en) 2007-03-01
JP4550211B2 JP4550211B2 (en) 2010-09-22

Family

ID=18596114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000078745A Expired - Fee Related JP4550211B2 (en) 2000-03-21 2000-03-21 camera

Country Status (1)

Country Link
JP (1) JP4550211B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161628B2 (en) 2001-12-25 2007-01-09 Canon Kabushiki Kaisha Image-pickup apparatus outputting signals for finder display and signals for focal-point detection, control method applied to the apparatus, and computer readable medium having encoded thereon a program implementing a method using the apparatus
JP2008527360A (en) * 2005-01-14 2008-07-24 ライカ ジオシステムズ アクチェンゲゼルシャフト At least one target surveying method and geodetic apparatus
JP2009545929A (en) * 2006-08-01 2009-12-24 クゥアルコム・インコーポレイテッド Real-time acquisition and generation of stereoscopic images and videos on planar low power mobile devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269915A (en) * 1987-04-27 1987-11-24 Minolta Camera Co Ltd Automatic focusing device
JPH0229636A (en) * 1988-07-19 1990-01-31 Canon Inc Automatic focusing camera
JPH0738796A (en) * 1993-07-21 1995-02-07 Mitsubishi Electric Corp Automatic focusing device
JPH09297335A (en) * 1996-03-06 1997-11-18 Olympus Optical Co Ltd Automatic focusing device for camera
JPH11190816A (en) * 1997-12-25 1999-07-13 Canon Inc Optical device and focusing point selecting method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269915A (en) * 1987-04-27 1987-11-24 Minolta Camera Co Ltd Automatic focusing device
JPH0229636A (en) * 1988-07-19 1990-01-31 Canon Inc Automatic focusing camera
JPH0738796A (en) * 1993-07-21 1995-02-07 Mitsubishi Electric Corp Automatic focusing device
JPH09297335A (en) * 1996-03-06 1997-11-18 Olympus Optical Co Ltd Automatic focusing device for camera
JPH11190816A (en) * 1997-12-25 1999-07-13 Canon Inc Optical device and focusing point selecting method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161628B2 (en) 2001-12-25 2007-01-09 Canon Kabushiki Kaisha Image-pickup apparatus outputting signals for finder display and signals for focal-point detection, control method applied to the apparatus, and computer readable medium having encoded thereon a program implementing a method using the apparatus
JP2008527360A (en) * 2005-01-14 2008-07-24 ライカ ジオシステムズ アクチェンゲゼルシャフト At least one target surveying method and geodetic apparatus
US8331624B2 (en) 2005-01-14 2012-12-11 Leica Geosystems Ag Method and geodetic device for surveying at least one target
US9933512B2 (en) 2005-01-14 2018-04-03 Leica Geosystems Ag Method and geodetic device for surveying at least one target
JP2009545929A (en) * 2006-08-01 2009-12-24 クゥアルコム・インコーポレイテッド Real-time acquisition and generation of stereoscopic images and videos on planar low power mobile devices
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US9509980B2 (en) 2006-08-01 2016-11-29 Qualcomm Incorporated Real-time capturing and generating viewpoint images and videos with a monoscopic low power mobile device

Also Published As

Publication number Publication date
JP4550211B2 (en) 2010-09-22

Similar Documents

Publication Publication Date Title
JP4422667B2 (en) Imaging apparatus and imaging method
JP2001004909A (en) Camera having automatic focusing device
JP2003344891A (en) Automatic photographing mode setting camera
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2002051255A (en) Main object detectable camera
JP6116277B2 (en) Imaging apparatus and control method thereof
JP4398017B2 (en) Ranging device
JP2003029135A (en) Camera, camera system and photographic lens device
JP2001249265A (en) Range finder
JP2008298943A (en) Focal point control device and imaging device
JP2001304855A (en) Range finder
JP2007199261A (en) Focus detecting device, method and camera
JP2014206711A (en) Imaging apparatus, and control method therefor
JP4550211B2 (en) camera
JP5359150B2 (en) Imaging device
JP2014197141A (en) Imaging apparatus
JP2009175310A (en) Focus detection device, focus detection method and camera
JP5309661B2 (en) Exposure calculation device and imaging device
JP2005173254A (en) Camera system
JP2001305422A (en) Range finder
JP2001264621A (en) Range-finding device
JP2012128343A (en) Camera
JP2012108281A (en) Focus detector and imaging apparatus
JP2012063664A (en) Photometric device and electronic camera
JP2015167308A (en) Photometry method suitable for face detection autofocus control

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100708

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees