JP4845720B2 - Focus detection apparatus and imaging apparatus - Google Patents

Focus detection apparatus and imaging apparatus Download PDF

Info

Publication number
JP4845720B2
JP4845720B2 JP2006348698A JP2006348698A JP4845720B2 JP 4845720 B2 JP4845720 B2 JP 4845720B2 JP 2006348698 A JP2006348698 A JP 2006348698A JP 2006348698 A JP2006348698 A JP 2006348698A JP 4845720 B2 JP4845720 B2 JP 4845720B2
Authority
JP
Japan
Prior art keywords
light receiving
sensor
light source
image
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006348698A
Other languages
Japanese (ja)
Other versions
JP2008158362A (en
Inventor
靖宏 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006348698A priority Critical patent/JP4845720B2/en
Publication of JP2008158362A publication Critical patent/JP2008158362A/en
Application granted granted Critical
Publication of JP4845720B2 publication Critical patent/JP4845720B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像光学系の焦点状態を検出する焦点検出装置に関し、さらには該焦点検出装置を備えた撮像装置に関する。   The present invention relates to a focus detection apparatus that detects a focus state of an imaging optical system, and further relates to an imaging apparatus including the focus detection apparatus.

1眼レフレックスカメラに代表される撮像装置に装着された撮像レンズの焦点状態を検出する際に、TTL(Through The Lens)位相差検出方式を利用した焦点検出装置が従来使用されている。   Conventionally, a focus detection device using a TTL (Through The Lens) phase difference detection method is used when detecting a focus state of an imaging lens mounted on an imaging device represented by a single-lens reflex camera.

TTL位相差方式は、撮像レンズの瞳を一対の領域に分割し、該分割された瞳領域を通過する光束が形成する一対の像の相対的な位置ずれを検出することで、撮像レンズの焦点状態を検出する。   The TTL phase difference method divides the pupil of the imaging lens into a pair of regions, and detects the relative positional shift of the pair of images formed by the light flux passing through the divided pupil region, thereby focusing the imaging lens. Detect state.

撮像レンズは、一般に色収差等の収差を含んでおり、光の波長が異なると、フィールドレンズの近傍に結像される空中像の結像位置が変化してしまう。そこで、撮像レンズは、400nm〜700nmの可視光領域において、種々の収差を補正するように構成されている。   An imaging lens generally includes aberrations such as chromatic aberration. If the wavelength of light is different, the imaging position of an aerial image formed in the vicinity of the field lens changes. Therefore, the imaging lens is configured to correct various aberrations in the visible light region of 400 nm to 700 nm.

ただし、焦点検出用受光素子は、一般に可視光領域から近赤外領域までの感度を有するP−N接合型フォトダイオードである。これに対し、被写体を太陽光で照明する場合と、色温度の低い光源で照明する場合と、色温度の高い光源で照明する場合とで可視光に対する近赤外光の相対的な割合が異なる。このため、上記各場合でフィールドレンズの近傍に結像される空中像の結像位置が変化してしまい、赤外光領域に関して撮像レンズの色収差が補正されない上記焦点検出装置では正確な焦点状態の検出(焦点検出)が行えない。   However, the focus detection light receiving element is generally a PN junction photodiode having sensitivity from the visible light region to the near infrared region. On the other hand, the relative ratio of near-infrared light to visible light differs between when the subject is illuminated with sunlight, when illuminated with a light source with a low color temperature, and when illuminated with a light source with a high color temperature. . For this reason, the image formation position of the aerial image formed in the vicinity of the field lens changes in each case described above, and the focus detection device in which the chromatic aberration of the imaging lens is not corrected with respect to the infrared light region has an accurate focus state. Detection (focus detection) cannot be performed.

そこで、被写体を照明する光源を判別し、判別した光源に応じて焦点検出誤差を補正するための技術として、従来から幾つか提案がなされている(例えば、特許文献1参照)。なお、近赤外領域の感度を有さない焦点検出用受光素子を用いることも考えられるが、焦点検出用の補助光源にはパワーの大きな近赤外光のLEDが使用されるため、焦点検出用受光素子の感度は近赤外領域まで有することが好ましい。   Thus, several proposals have conventionally been made as techniques for determining a light source that illuminates a subject and correcting a focus detection error in accordance with the determined light source (see, for example, Patent Document 1). Although it is conceivable to use a focus detection light-receiving element having no sensitivity in the near-infrared region, a high-power near-infrared LED is used as an auxiliary light source for focus detection. The sensitivity of the light receiving element for use is preferably up to the near infrared region.

特許文献1にて提案されている焦点検出装置では、AFセンサ上で赤外領域の光とそれ以外の波長領域の光との差をとり、その差に基づいて焦点検出結果を補正する。すなわち、赤外光を検出するセンサと可視光を検出するセンサからの出力信号の差に基づいて光源を推定する。   In the focus detection apparatus proposed in Patent Document 1, the difference between the light in the infrared region and the light in the other wavelength region is taken on the AF sensor, and the focus detection result is corrected based on the difference. That is, the light source is estimated based on a difference between output signals from a sensor that detects infrared light and a sensor that detects visible light.

図13A〜13Fには、他の従来技術(以下、従来技術2と称す)を示す。この従来技術2では、AF測距点(焦点検出領域)に対応した位置で光源の検知ができるとされている。具体的には、S/N及び低輝度性能を向上させるよう画素を大きく保つために、AFセンサ210A,210Bに並ぶように、大きな単一の受光素子で構成された光源検知センサ220A,220Bを設けている。
特公平1−045883号公報(3頁右欄12〜25行、図13等)
13A to 13F show another conventional technique (hereinafter referred to as conventional technique 2). In this prior art 2, the light source can be detected at a position corresponding to the AF distance measuring point (focus detection area). Specifically, in order to keep the pixels large so as to improve the S / N and low luminance performance, the light source detection sensors 220A and 220B configured by large single light receiving elements are arranged in a line with the AF sensors 210A and 210B. Provided.
Japanese Patent Publication No. 1-045883 (page 3, right column, lines 12-25, FIG. 13 etc.)

上記特許文献1が提案する焦点検出装置では、AFセンサに対してその受光素子列の方向に離れた位置に光源検知のためのセンサ(赤外光センサと可視光センサ)が設けられている。この場合、デフォーカス時に光源検知センサの視野とAFセンサの視野とがずれてパララックスが発生する。このため、ピントを合わせたい主被写体を照らす光源を正しく検出できないという問題がある。これを解消するために、合焦を待ってから光源を検出すると、レリーズタイムラグが長くなってしまう。   In the focus detection device proposed in Patent Document 1, sensors for detecting a light source (infrared light sensor and visible light sensor) are provided at positions away from the AF sensor in the direction of the light receiving element array. In this case, at the time of defocusing, the field of view of the light source detection sensor and the field of view of the AF sensor are shifted and parallax occurs. For this reason, there is a problem that the light source that illuminates the main subject to be focused cannot be detected correctly. In order to solve this problem, if the light source is detected after waiting for focusing, the release time lag becomes longer.

また、従来技術2でも、実は同様な問題が生ずる。これについて、図13A〜13Fを用いて詳しく説明する。図13Aは被写体に対する合焦が得られた状態でのカメラの撮像画面(ファインダ画面)を示す。また、図13Bには、その状態での焦点検出装置におけるAFセンサ210A,210B及び光源検知センサ220A,230Bの配置を示す。これらのセンサは、半導体基板上に形成されている。   Further, even in the prior art 2, the same problem actually occurs. This will be described in detail with reference to FIGS. FIG. 13A shows an imaging screen (finder screen) of the camera in a state where focus on the subject is obtained. FIG. 13B shows the arrangement of the AF sensors 210A and 210B and the light source detection sensors 220A and 230B in the focus detection apparatus in that state. These sensors are formed on a semiconductor substrate.

AFセンサ210A,210Bは、焦点検出用の受光素子アレイであり、フォトダイオードを1次元方向に並べて構成されている。AFセンサ210A上には、A像が形成されている。一方、AFセンサ210B上には、B像が形成されている。焦点検出装置は、AFセンサ210A,210Bに形成されたA像及びB像の間隔を検出することによって、撮像レンズのデフォーカス量を検出する。   The AF sensors 210A and 210B are light receiving element arrays for focus detection, and are configured by arranging photodiodes in a one-dimensional direction. An A image is formed on the AF sensor 210A. On the other hand, a B image is formed on the AF sensor 210B. The focus detection device detects the defocus amount of the imaging lens by detecting the interval between the A and B images formed on the AF sensors 210A and 210B.

光源検知センサ220A,220Bは、前述したように光源に関する情報を求めるためら設けられた単一の受光素子である。光源検知センサ220A,220Bにおいて、AFセンサ210A,210Bの受光素子列方向(以下、単に列方向という)の長さは、該AFセンサ210A,210Bの列方向の長さより短い。   The light source detection sensors 220A and 220B are single light receiving elements provided to obtain information on the light source as described above. In the light source detection sensors 220A and 220B, the length of the AF sensors 210A and 210B in the light receiving element row direction (hereinafter simply referred to as the row direction) is shorter than the length of the AF sensors 210A and 210B in the row direction.

AFセンサ210Aと光源検知センサ220Aは、それらの列方向の中心(中心軸221A)が互いに一致するように配置されている。また、AFセンサ210Bと光源検知センサ220Bは、それらの列方向の中心(中心軸221B)が互いに一致するように配置されている。   The AF sensor 210 </ b> A and the light source detection sensor 220 </ b> A are arranged so that their centers in the column direction (center axis 221 </ b> A) coincide with each other. The AF sensor 210B and the light source detection sensor 220B are arranged so that their centers in the column direction (center axis 221B) coincide with each other.

211AはAFセンサ210A上に形成されたA像の光電変換により得られるA像信号である。211BはAFセンサ210B上に形成されたB像の光電変換により得られるB像信号である。画面中央に位置する被写体にピントが合った状態では、A像信号及びB像信号の重心位置が中心軸221A,221Bにそれぞれ一致している。このときのA像信号とB像信号の重心間の間隔をΔとする。   211A is an A image signal obtained by photoelectric conversion of an A image formed on the AF sensor 210A. 211B is a B image signal obtained by photoelectric conversion of the B image formed on the AF sensor 210B. When the subject located at the center of the screen is in focus, the center positions of the A image signal and the B image signal coincide with the central axes 221A and 221B, respectively. At this time, the interval between the centroids of the A image signal and the B image signal is Δ.

230はピントを合わせるべき主被写体(人物)であり、図では該主被写体が画面中央の焦点検出領域235内に存在する。ここでは、該焦点検出領域235において焦点検出を行っている場合について説明する。   Reference numeral 230 denotes a main subject (person) to be focused. In the figure, the main subject exists in the focus detection area 235 at the center of the screen. Here, a case where focus detection is performed in the focus detection area 235 will be described.

230Aは主被写体230よりも手前に存在する物体(被写体)、231は太陽、232は太陽光下の屋外、233は室内蛍光灯、234は蛍光灯下の室内を示している。   230A is an object (subject) existing in front of the main subject 230, 231 is the sun, 232 is outdoors under sunlight, 233 is an indoor fluorescent lamp, and 234 is an indoor under the fluorescent lamp.

210CはAFセンサ210Aの焦点検出領域235内での視野を、210DはAFセンサ210Bの焦点検出領域235内での視野を示している。図13Aでは、両視野210C,210Dは完全に重なり合っている。   210C shows the field of view within the focus detection area 235 of the AF sensor 210A, and 210D shows the field of view within the focus detection area 235 of the AF sensor 210B. In FIG. 13A, both visual fields 210C and 210D are completely overlapped.

220Cは光源検知センサ220Aの焦点検出領域235内での視野、220Dは光源検知センサ220Bの焦点検出領域235内での視野である。図13Aでは、両視野220C,220Dは完全に重なり合っている。   220C is a field of view within the focus detection area 235 of the light source detection sensor 220A, and 220D is a field of view within the focus detection area 235 of the light source detection sensor 220B. In FIG. 13A, both visual fields 220C and 220D are completely overlapped.

ここで、主被写体である人物230は室内で、窓辺におり、正面を向いた顔は蛍光灯の光で照らされている。   Here, the person 230 as the main subject is indoors, on the window, and the face facing the front is illuminated with fluorescent light.

このとき、光源検知センサ220A,220Bには人物230からの反射光が入射し、それに応じた出力が該センサ220A,220Bから出力される。つまり、光源検知センサ220A,220Bの視野とAFセンサ210A,210Bの視野とは殆どパララックスがなく、主被写体の殆ど同じ部分からの反射光に対応した出力が得られる。   At this time, the reflected light from the person 230 enters the light source detection sensors 220A and 220B, and outputs corresponding to the reflected light are output from the sensors 220A and 220B. In other words, the visual field of the light source detection sensors 220A and 220B and the visual field of the AF sensors 210A and 210B have almost no parallax, and an output corresponding to reflected light from almost the same part of the main subject can be obtained.

図13Cは、人物230に対して後ピン状態となったときの撮像画面を示す。また、図13Dは、その状態でのセンサ配置とA像信号211A及びB像信号211Bを示している。これらの図において、A像信号211A及びB像信号211Bの重心を通る線222A,222Bはそれぞれ、中心軸221A,221Bから外側へずれている。このときにA像信号211AとB像信号211Bの重心間の間隔はδ1(δ1>Δ)である。   FIG. 13C shows an imaging screen when the person 230 is in a rear pin state. FIG. 13D shows the sensor arrangement and the A image signal 211A and the B image signal 211B in that state. In these drawings, lines 222A and 222B passing through the center of gravity of the A image signal 211A and the B image signal 211B are shifted outward from the central axes 221A and 221B, respectively. At this time, the distance between the centers of gravity of the A image signal 211A and the B image signal 211B is δ1 (δ1> Δ).

また、この後ピン状態では、AFセンサ210Aの視野210C及びAFセンサ210Bの視野210Dが、図13Bに示した位置よりもそれぞれ右方向及び左方向にずれた状態で重なり合っている。また、光源検知センサ220Aの視野220C及び光源検知センサ220Bの視野220Dも、図13Bに示した位置よりもそれぞれ右方向及び左方向にずれた状態で重なり合っている。   Further, in the rear pin state, the visual field 210C of the AF sensor 210A and the visual field 210D of the AF sensor 210B overlap with each other in a state shifted from the position shown in FIG. 13B in the right direction and the left direction, respectively. Further, the visual field 220C of the light source detection sensor 220A and the visual field 220D of the light source detection sensor 220B are also overlapped in a state of being shifted to the right and left, respectively, from the position shown in FIG. 13B.

前述したように、光源検知センサ220A,220Bは単一の受光素子(画素)で構成されている。このため、この後ピン状態では、光源検知センサ220A,220Bの視野220C,220Dのうち重なり合った部分220Eは人物230からの蛍光灯の反射光を検出するが、重なり合っていないかなり広い部分で、背景の太陽からの反射光を検出してしまう。したがって、人物230からの反射光に対する正確な検出出力が得られない。   As described above, the light source detection sensors 220A and 220B are configured by a single light receiving element (pixel). For this reason, in the pin state, the overlapping portions 220E of the visual fields 220C and 220D of the light source detection sensors 220A and 220B detect the reflected light of the fluorescent lamp from the person 230. The reflected light from the sun will be detected. Therefore, an accurate detection output for the reflected light from the person 230 cannot be obtained.

また、図13Eは、人物230に対して前ピン状態となったときの撮像画面を示す。図13Fは、その状態でのセンサ配置とA像信号211A及びB像信号211Bを示している。これらの図において、A像信号211A及びB像信号211Bの重心を通る線222A,222Bはそれぞれ、中心軸221A,221Bから内側へずれている。このときにA像信号211AとB像信号211Bの重心間の間隔はδ2(δ2<Δ)である。   FIG. 13E shows an imaging screen when the person 230 is in the front pin state. FIG. 13F shows the sensor arrangement and the A image signal 211A and the B image signal 211B in that state. In these figures, lines 222A and 222B passing through the center of gravity of the A image signal 211A and the B image signal 211B are shifted inward from the central axes 221A and 221B, respectively. At this time, the distance between the centers of gravity of the A image signal 211A and the B image signal 211B is δ2 (δ2 <Δ).

また、この前ピン状態では、AFセンサ210Aの視野210C及びAFセンサ210Bの視野210Dが、図13Bに示した位置よりもそれぞれ左方向及び右方向にずれた状態で重なり合っている。また、光源検知センサ220Aの視野220C及び光源検知センサ220Bの視野220Dも、図13Bに示した位置よりもそれぞれ左方向及び右方向にずれた状態で重なり合っている。   In this front pin state, the visual field 210C of the AF sensor 210A and the visual field 210D of the AF sensor 210B overlap with each other in a state of being shifted leftward and rightward from the position shown in FIG. 13B. Further, the visual field 220C of the light source detection sensor 220A and the visual field 220D of the light source detection sensor 220B are also overlapped in a state of being shifted in the left direction and the right direction from the position shown in FIG. 13B, respectively.

この前ピン状態では、光源検知センサ220A,220Bの視野220C,220Dのうち重なり合った部分220Fは人物230からの蛍光灯の反射光を検出するが、重なり合っていないかなり広い部分で、背景の太陽からの反射光を検出してしまう。このため、人物230からの反射光に対する正確な検出出力が得られない。   In this front pin state, the overlapping portions 220F of the visual fields 220C and 220D of the light source detection sensors 220A and 220B detect the reflected light of the fluorescent lamp from the person 230. Will detect the reflected light. For this reason, an accurate detection output for the reflected light from the person 230 cannot be obtained.

以上より、従来技術2においても、デフォーカス状態(前ピン及び後ピン状態)においては、光源検知センサの視野とAFセンサの視野とにパララックスが発生するため、AFセンサ内の主被写体を照らす光源を正しく検知できない。   As described above, also in the prior art 2, in the defocused state (front pin and rear pin state), parallax occurs between the field of view of the light source detection sensor and the field of view of the AF sensor, so that the main subject in the AF sensor is illuminated. The light source cannot be detected correctly.

本発明は、デフォーカス状態においても主被写体を照らす光源に関する情報を正確に検出でき、主被写体に対する精度の高いフォーカス制御を行えるようにした焦点検出装置及びこれを備えた撮像装置を提供することを目的の1つとしている。   It is an object of the present invention to provide a focus detection device capable of accurately detecting information related to a light source that illuminates a main subject even in a defocused state, and to perform high-precision focus control on the main subject, and an imaging device including the same. One of the purposes.

本発明の一側面としての焦点検出装置は、それぞれ第1方向に並んだ複数の受光素子により構成され、被写界からの光束により形成された一対の物体像に応じた信号を生成する一対の第1受光センサと、前記物体像を形成する光束の波長領域に応じた信号を生成する一対の第2受光センサと、前記一対の第1受光センサからの信号及び前記一対の第2受光センサからの信号に基づいてフォーカス制御に用いる情報を生成するフォーカス制御手段とを有し、前記第2受光センサは、前記第1方向に並んだ複数の受光素子により構成されており、前記第1受光センサ及び前記第2受光センサは、それぞれの前記第1方向における中心が互いに一致するように並列配置され、前記フォーカス制御手段は、前記第1受光センサにより生成された一対の物体像の重心間の距離に基づいて、前記第2受光センサを構成する複数の受光素子のうち前記波長領域に応じた信号を読み出す受光素子を変更可能であって、前記重心間の距離が第1の値より大きい第2の値の場合は、前記第1の値の場合と比較して、前記第2受光センサを構成する複数の受光素子のうち、より外側に位置する受光素子を含む受光素子からの前記信号を読み出すことを特徴とする。 A focus detection apparatus according to an aspect of the present invention includes a pair of light receiving elements arranged in the first direction, and generates a signal corresponding to a pair of object images formed by a light beam from an object scene. From the first light receiving sensor, a pair of second light receiving sensors that generate a signal corresponding to the wavelength region of the light beam forming the object image, the signal from the pair of first light receiving sensors, and the pair of second light receiving sensors Focus control means for generating information used for focus control based on the signal of the first, the second light receiving sensor is composed of a plurality of light receiving elements arranged in the first direction, and the first light receiving sensor and the second light receiving sensor is arranged in parallel so that the center of each of the first direction coincide with each other, the focus control means includes a pair of generated by the first light receiving sensor Based on the distance between the centers of gravity of the body image, a changeable light receiving elements for reading out a signal corresponding to the wavelength region among the plurality of light receiving elements constituting the second light receiving sensor, the distance between the center of gravity is first In the case of the second value larger than 1, the light reception including the light receiving element located on the outer side among the plurality of light receiving elements constituting the second light receiving sensor as compared with the case of the first value. The signal from the element is read out.

なお、上記焦点検出装置を備えた撮像装置も本発明の他の側面を構成する。   Note that an imaging device including the focus detection device also constitutes another aspect of the present invention.

本発明によれば、光源にかかわらず主被写体に対する精度の高いフォーカス制御を行うことができる。   According to the present invention, it is possible to perform focus control with high accuracy for the main subject regardless of the light source.

以下、本発明の好ましい実施例について図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1には、本発明の実施例1である撮像装置としてのデジタルカラー一眼レフカメラシステムの概略構成を示す。撮像装置としてのカメラは、CCDセンサ又はCMOSセンサ等の撮像素子を用いた単板式のデジタルカラーカメラであり、撮像素子を単発的又は連続的に駆動して被写界の物体の静止画像又は動画像を得る。ここで、撮像素子は、受けた光(物体像)を画素毎に電気信号に変換し、その光量に応じた電荷を蓄積するエリアセンサである。そして、蓄積された電荷を読み出すことで画像を得る。   FIG. 1 shows a schematic configuration of a digital color single-lens reflex camera system as an image pickup apparatus that is Embodiment 1 of the present invention. A camera as an imaging device is a single-plate digital color camera using an image sensor such as a CCD sensor or a CMOS sensor, and a still image or a moving image of an object in the field by driving the image sensor once or continuously. Get a statue. Here, the image sensor is an area sensor that converts received light (object image) into an electrical signal for each pixel and accumulates electric charges according to the amount of light. Then, an image is obtained by reading the accumulated charges.

図1において、101はカメラ、102は内部に結像光学系103を有した取り外し可能なレンズ装置としての交換レンズである。交換レンズ102は、不図示のマウント機構を介してカメラ101に機械的及び電気的に接続されている。焦点距離の異なる交換レンズに交換することによって、様々な画角の撮像画面を得ることが可能である。   In FIG. 1, reference numeral 101 denotes a camera, and reference numeral 102 denotes an interchangeable lens as a detachable lens device having an imaging optical system 103 therein. The interchangeable lens 102 is mechanically and electrically connected to the camera 101 via a mount mechanism (not shown). By exchanging with interchangeable lenses having different focal lengths, it is possible to obtain imaging screens with various angles of view.

182はレンズ装着用マウント面である。交換レンズ102は不図示の駆動機構を有し、撮像光学系としての結像光学系103の一部を構成するフォーカスレンズを光軸L1の方向に移動させることで被写体に対するピント合わせを行う。フォーカスレンズに代えて、柔軟性のある透明弾性部材や液体レンズを配置し、その界面形状を変化させて屈折力を変えることでピント合わせを行ってもよい。   Reference numeral 182 denotes a lens mounting surface. The interchangeable lens 102 has a drive mechanism (not shown), and focuses on the subject by moving a focus lens that forms part of the imaging optical system 103 as an imaging optical system in the direction of the optical axis L1. Instead of the focus lens, a flexible transparent elastic member or a liquid lens may be disposed, and focusing may be performed by changing the interface shape to change the refractive power.

106は撮像パッケージ124に収納された撮像素子である。結像光学系103から撮像素子106に至る光路中には、撮像素子106上に物体像の必要以上に高い空間周波数成分が伝達されないように、結像光学系103のカットオフ周波数を制限する光学ローパスフィルタ156が設けられている。また、結像光学系103には、赤外線カットフィルタも設けられている。   Reference numeral 106 denotes an image pickup element housed in the image pickup package 124. Optical that limits the cutoff frequency of the imaging optical system 103 so that a spatial frequency component higher than necessary of the object image is not transmitted to the imaging element 106 in the optical path from the imaging optical system 103 to the imaging element 106. A low pass filter 156 is provided. The imaging optical system 103 is also provided with an infrared cut filter.

撮像素子106の受光面106aで捉えられた物体像は、ディスプレイユニット107上に表示される。ディスプレイユニット107はカメラ101の背面に取り付けられている。ディスプレイユニット107は、有機EL空間変調素子や液晶空間変調素子、微粒子の電気泳動を利用した空間変調素子等で構成すると、消費電力が小さくかつ薄型でカメラの小型化に都合がよい。   The object image captured by the light receiving surface 106 a of the image sensor 106 is displayed on the display unit 107. The display unit 107 is attached to the back surface of the camera 101. When the display unit 107 is composed of an organic EL spatial modulation element, a liquid crystal spatial modulation element, a spatial modulation element using fine particle electrophoresis, etc., the power consumption is small and thin, which is convenient for downsizing of the camera.

撮像素子106は、増幅型固体撮像素子の1つであるCMOSプロセスコンパチブルのセンサ(以下、CMOSセンサという)である。CMOSセンサには、エリアセンサ部のMOSトランジスタと、撮像素子駆動回路、AD変換回路及び画像処理回路といった周辺回路とを同一工程で形成できるため、マスク枚数やプロセス工程がCCDセンサと比較して削減できるという特長がある。また、任意の画素へのランダムアクセスが可能といった特長も有し、ディスプレイ用に適した電荷読み出しが容易であって、高い表示レートでリアルタイム電子画像表示が行える。   The image sensor 106 is a CMOS process compatible sensor (hereinafter referred to as a CMOS sensor) which is one of amplification type solid-state image sensors. In the CMOS sensor, the MOS transistors in the area sensor section and peripheral circuits such as the image sensor drive circuit, AD converter circuit, and image processing circuit can be formed in the same process, reducing the number of masks and process steps compared to the CCD sensor. There is a feature that you can. Further, it has a feature that random access to an arbitrary pixel is possible, charge reading suitable for display is easy, and real-time electronic image display can be performed at a high display rate.

撮像素子106は、この特長を利用し、ディスプレイ画像の出力動作と高精細記録画像の出力動作とを行う。   Using this feature, the image sensor 106 performs a display image output operation and a high-definition recorded image output operation.

111は結像光学系103からの光路を分割する可動ハーフミラーである。結像光学系103を通して被写界から入射した光束のうち、図に示すように該光路に対して斜めに配置された状態(ファインダ観察状態)にあるハーフミラー111によって反射された光束は、後述するファインダ光学系に導かれる。   Reference numeral 111 denotes a movable half mirror that divides the optical path from the imaging optical system 103. Among the light beams incident from the object field through the imaging optical system 103, the light beam reflected by the half mirror 111 in a state (viewfinder observation state) arranged obliquely with respect to the optical path as shown in FIG. To the viewfinder optical system.

105は結像光学系103の予定結像面に配置されたフォーカシングスクリーン、112はフォーカシングスクリーン105上に形成された物体像の上下左右を反転するためのペンタプリズムである。109はペンタプリズム112により正立正像とされたファインダ像を観察するための接眼レンズであり、実際には不図示の3つのレンズで構成されている。フォーカシングスクリーン105、ペンタプリズム112及び接眼レンズ109により、ファインダ光学系が構成される。   Reference numeral 105 denotes a focusing screen arranged on a predetermined imaging surface of the imaging optical system 103, and 112 denotes a pentaprism for inverting the object image formed on the focusing screen 105 vertically and horizontally. Reference numeral 109 denotes an eyepiece for observing a finder image that has been erected by the pentaprism 112, and is actually composed of three lenses (not shown). The focusing screen 105, the pentaprism 112, and the eyepiece lens 109 constitute a finder optical system.

フォーカシングスクリーン105の上面、すなわちペンタプリズム112側には、複数の焦点検出領域に対応する微細反射面が形成されている。ペンタプリズム112の前側上部には、LEDと透光レンズ及びプリズムからなるSI投光ユニット110が配置されている。   On the upper surface of the focusing screen 105, that is, on the pentaprism 112 side, fine reflecting surfaces corresponding to a plurality of focus detection areas are formed. An SI light projecting unit 110 including an LED, a translucent lens, and a prism is disposed on the upper front side of the pentaprism 112.

SI投光ユニット110からの照明光は、ペンタプリズム112を介して、上記複数の微細反射面のうちユーザによって任意に又はカメラによって自動的に選択された焦点検出領域に対応した微細反射面に照射される。微細反射面により反射された照明光は、ペンタプリズム112及び接眼レンズ109を介してユーザの眼に導かれる。これにより、ファインダ像に、選択された焦点検出領域が重なって表示されるスーパーインポーズ表示が行われる。ハーフミラー111の屈折率はおよそ1.5、厚さは0.5mmである。   Illumination light from the SI light projecting unit 110 irradiates the fine reflection surface corresponding to the focus detection region arbitrarily selected by the user or automatically by the camera from the plurality of fine reflection surfaces via the pentaprism 112. Is done. The illumination light reflected by the fine reflecting surface is guided to the user's eye via the pentaprism 112 and the eyepiece lens 109. As a result, superimpose display is performed in which the selected focus detection area is displayed on the finder image. The half mirror 111 has a refractive index of about 1.5 and a thickness of 0.5 mm.

ハーフミラー111の背後には、可動サブミラー122が設けられている。ファインダ観察状態においてハーフミラー111を透過した光束のうち光軸L1に近い光束は、該サブミラー122によって焦点検出ユニット(焦点検出装置)121に向けて反射される。サブミラー122は、ハーフミラー111を支持する不図示のミラー受け板に設けられた回転軸(不図示)を中心に回転する。撮像時には、ハーフミラー111とともに光路外へ退避し、不図示のミラーボックスの上部に収納される。   A movable sub mirror 122 is provided behind the half mirror 111. Of the light beams transmitted through the half mirror 111 in the viewfinder observation state, the light beam close to the optical axis L 1 is reflected by the sub mirror 122 toward the focus detection unit (focus detection device) 121. The sub mirror 122 rotates around a rotation shaft (not shown) provided on a mirror receiving plate (not shown) that supports the half mirror 111. At the time of imaging, it is retracted out of the optical path together with the half mirror 111 and stored in the upper part of a mirror box (not shown).

焦点検出装置としての焦点検出ユニット121は、サブミラー122からの反射光束を用いて、位相差検出方式で結像光学系103の上記選択された焦点検出領域内の被写体に対する焦点状態の検出(焦点検出)を行う。   A focus detection unit 121 as a focus detection device uses a reflected light beam from the sub-mirror 122 to detect a focus state (focus detection) for a subject in the selected focus detection region of the imaging optical system 103 by a phase difference detection method. )I do.

ミラー駆動機構は、不図示の電磁モータとギア列とを含む。該ミラー駆動機構は、ハーフミラー111とサブミラー122を、上記ファインダ観察状態に対応した位置と、結像光学系103からの光束を撮像素子106に向かわせる撮像状態に対応した位置との間で移動させる。   The mirror driving mechanism includes an electromagnetic motor (not shown) and a gear train. The mirror driving mechanism moves the half mirror 111 and the sub mirror 122 between a position corresponding to the finder observation state and a position corresponding to the imaging state in which the light beam from the imaging optical system 103 is directed to the image sensor 106. Let

104は被写体を照明する可動式のフラッシュユニット、113は撮像素子106に到達する光量を制御するフォーカルプレンシャッタである。119はカメラ101の電源をオン/オフするためのメインスイッチである。120は静止画像及び動画像の取得開始を指示するレリーズボタンである。123は上記複数の焦点検出領域からユーザが任意の焦点検出領域を選択させる焦点検出領域選択スイッチである。180はファインダ光学系(光学ファインダ)内に撮像条件等の情報を表示するファインダ内情報表示ユニットである。   Reference numeral 104 denotes a movable flash unit that illuminates the subject, and reference numeral 113 denotes a focal plane shutter that controls the amount of light reaching the image sensor 106. Reference numeral 119 denotes a main switch for turning on / off the power of the camera 101. Reference numeral 120 denotes a release button for instructing start of acquisition of still images and moving images. A focus detection area selection switch 123 allows the user to select an arbitrary focus detection area from the plurality of focus detection areas. Reference numeral 180 denotes an in-finder information display unit that displays information such as imaging conditions in the finder optical system (optical finder).

図2には、本実施例のカメラシステムの電気的構成を示す。このカメラシステムは、撮像系、画像処理系、記録再生系及び制御系を有する。まず、撮像、記録に関する説明を行う。なお、同図において、図1で説明した部材と同じ部材については同一符号を付す。   FIG. 2 shows an electrical configuration of the camera system of the present embodiment. This camera system has an imaging system, an image processing system, a recording / reproducing system, and a control system. First, description regarding imaging and recording will be given. In the figure, the same members as those described in FIG.

撮像系は、結像光学系103及び撮像素子106を含み、画像処理系は、A/D変換器130、RGB画像処理回路131及びYC処理回路132を含む。また、記録再生系は、記録処理回路133及び再生処理回路134を含み、制御系は、マイクロコンピュータであるカメラシステム制御回路135、操作検出回路136及び撮像素子駆動回路137を含む。   The imaging system includes an imaging optical system 103 and an imaging element 106, and the image processing system includes an A / D converter 130, an RGB image processing circuit 131, and a YC processing circuit 132. The recording / reproducing system includes a recording processing circuit 133 and a reproducing processing circuit 134, and the control system includes a camera system control circuit 135 that is a microcomputer, an operation detection circuit 136, and an image sensor driving circuit 137.

138は外部のコンピュータ等に接続して、データの送受信を行うための規格化された接続端子である。上記の電気回路は、不図示の小型燃料電池によって駆動される。   Reference numeral 138 denotes a standardized connection terminal for connecting to an external computer or the like to transmit and receive data. The above electric circuit is driven by a small fuel cell (not shown).

撮像系は、被写界からの光束を結像光学系103を介して撮像素子106の撮像面に結像させる光学処理系である。撮像系は、交換レンズ102内の不図示の絞り(光量調節ユニット)とフォーカルプレンシャッタ113における先幕及び後幕の走行とを調節して、適切な光量で撮像素子106を露光する。   The imaging system is an optical processing system that forms an image of the light flux from the object scene on the imaging surface of the imaging element 106 via the imaging optical system 103. The imaging system adjusts the diaphragm (light quantity adjustment unit) (not shown) in the interchangeable lens 102 and the traveling of the front curtain and the rear curtain in the focal plane shutter 113 to expose the image sensor 106 with an appropriate light quantity.

撮像素子106は、正方画素が長辺方向に3700個、短辺方向に2800個並べられ、合計約1000万個の画素数を有している。各画素には、R(赤色),G(緑色),B(青色)のカラーフィルタのいずれかが配置され、2つのGと1つずつのR,Bの4画素が1組となる、いわゆるベイヤー配列画素となっている。   The image sensor 106 has 3700 square pixels arranged in the long side direction and 2800 in the short side direction, and has a total of about 10 million pixels. Each pixel is provided with one of R (red), G (green), and B (blue) color filters, so that two G and four R and B pixels each form one set. It is a Bayer array pixel.

ベイヤー配列では、撮影者が画像を見たときに強く感じやすいGの画素をRやBの画素よりも多く配置することで、総合的な画像性能を上げている。一般に、この方式の撮像素子106を用いる画像処理では、輝度信号は主にGから生成し、色信号はR,G,Bから生成される。   In the Bayer array, the overall image performance is improved by arranging more G pixels that are easily felt when the photographer looks at the image than the R and B pixels. In general, in image processing using this type of image sensor 106, a luminance signal is generated mainly from G, and a color signal is generated from R, G, and B.

撮像素子106から読み出された信号は、A/D変換器130を介して画像処理系に供給される。A/D変換器130は、各画素からの信号をその振幅に応じて、例えば10ビットのデジタル信号に変換して出力する信号変換回路であり、以降の画像信号処理はデジタル処理にて実行される。   The signal read from the image sensor 106 is supplied to the image processing system via the A / D converter 130. The A / D converter 130 is a signal conversion circuit that converts a signal from each pixel into, for example, a 10-bit digital signal according to the amplitude thereof, and outputs the signal. Subsequent image signal processing is executed by digital processing. The

画像処理系は、R,G,Bのデジタル信号から所望の形式の画像信号を生成する信号処理系であり、R,G,Bの色信号を輝度信号Y及び色差信号(R−Y),(B−Y)にて表されるYC信号等に変換する。   The image processing system is a signal processing system that generates an image signal of a desired format from R, G, and B digital signals. The R, G, and B color signals are converted into a luminance signal Y, a color difference signal (R−Y), It is converted into a YC signal or the like represented by (BY).

RGB画像処理回路131は、A/D変換器130を介して撮像素子106から受けた3700×2800画素からの信号を処理する信号処理回路であり、ホワイトバランス回路、ガンマ補正回路及び補間演算による高解像度化を行う補間演算回路を有する。   The RGB image processing circuit 131 is a signal processing circuit that processes a signal from 3700 × 2800 pixels received from the image sensor 106 via the A / D converter 130, and is a high-performance white balance circuit, gamma correction circuit, and interpolation calculation. It has an interpolation operation circuit that performs resolution.

YC処理回路132は、輝度信号Y及び色差信号R−Y,B−Yを生成する信号処理回路である。このYC処理回路132は、高域輝度信号YHを生成する高域輝度信号発生回路、低域輝度信号YLを生成する低域輝度信号発生回路、及び色差信号R−Y,B−Yを生成する色差信号発生回路で構成されている。輝度信号Yは、高域輝度信号YHと低域輝度信号YLを合成することによって形成される。   The YC processing circuit 132 is a signal processing circuit that generates a luminance signal Y and color difference signals RY and BY. The YC processing circuit 132 generates a high-frequency luminance signal generation circuit that generates a high-frequency luminance signal YH, a low-frequency luminance signal generation circuit that generates a low-frequency luminance signal YL, and color difference signals RY and BY. It is composed of a color difference signal generation circuit. The luminance signal Y is formed by combining the high frequency luminance signal YH and the low frequency luminance signal YL.

記録再生系は、不図示の記録媒体(半導体メモリや光ディスク等)への画像信号の出力と、ディスプレイユニット107への画像信号の出力とを行う処理系である。記録処理回路133は、記録媒体に対する画像信号の書き込み処理及び読み出し処理を行う。再生処理回路134は、記録媒体から読み出した画像信号を再生して、ディスプレイユニット107に出力する。   The recording / reproducing system is a processing system that outputs an image signal to a recording medium (not shown) (such as a semiconductor memory or an optical disk) and outputs an image signal to the display unit 107. The recording processing circuit 133 performs image signal writing processing and reading processing on the recording medium. The reproduction processing circuit 134 reproduces the image signal read from the recording medium and outputs it to the display unit 107.

また、記録処理回路133は、静止画像及び動画像を表すYC信号を所定の圧縮形式(例えば、JPEG形式)にて圧縮するとともに、圧縮データを読み出した際に圧縮データを伸張する圧縮伸張回路を有する。圧縮伸張回路は、信号処理のためのフレームメモリなどを含み、このフレームメモリに画像処理系からのYC信号をフレーム毎に蓄積して、それぞれ複数のブロック毎に読み出して圧縮符号化する。圧縮符号化は、例えば、ブロック毎の画像信号を2次元直交変換、正規化及びハフマン符号化することにより行われる。   The recording processing circuit 133 also includes a compression / decompression circuit that compresses YC signals representing still images and moving images in a predetermined compression format (for example, JPEG format) and decompresses the compressed data when the compressed data is read out. Have. The compression / decompression circuit includes a frame memory for signal processing. The YC signal from the image processing system is stored in this frame memory for each frame, and is read and compressed for each of a plurality of blocks. The compression encoding is performed, for example, by subjecting the image signal for each block to two-dimensional orthogonal transform, normalization, and Huffman encoding.

再生処理回路134は、輝度信号Y及び色差信号R−Y,B−Yをマトリックス変換し、例えばRGB信号に変換する回路である。再生処理回路134によって変換された信号は、ディスプレイユニット107に出力され、可視画像が表示(再生)される。   The reproduction processing circuit 134 is a circuit that performs matrix conversion of the luminance signal Y and the color difference signals RY and BY, for example, into RGB signals. The signal converted by the reproduction processing circuit 134 is output to the display unit 107, and a visible image is displayed (reproduced).

再生処理回路134及びディスプレイユニット107は、Bluetoothなどの無線通信回線を介して接続することができる。このように構成すれば、カメラで撮像した画像を離れたところからモニタすることができる。   The reproduction processing circuit 134 and the display unit 107 can be connected via a wireless communication line such as Bluetooth. If comprised in this way, the image imaged with the camera can be monitored from the distant place.

一方、制御系の一部である操作検出回路136は、レリーズボタン120やファインダモード切り換えスイッチ123等の操作を検出する。また、カメラシステム制御回路135は、操作検出回路136の検出信号に応じてハーフミラー111やサブミラー122を含むカメラ内の各部材の駆動を制御し、撮像の際のタイミング信号などを生成して出力する。   On the other hand, the operation detection circuit 136 which is a part of the control system detects operations of the release button 120, the finder mode changeover switch 123, and the like. The camera system control circuit 135 controls driving of each member in the camera including the half mirror 111 and the sub mirror 122 according to the detection signal of the operation detection circuit 136, and generates and outputs a timing signal at the time of imaging. To do.

撮像素子駆動回路137は、カメラシステム制御回路135の制御の下に撮像素子106を駆動する駆動信号を生成する。情報表示回路142は、ファインダ内情報表示ユニット180の駆動を制御する。   The image sensor drive circuit 137 generates a drive signal for driving the image sensor 106 under the control of the camera system control circuit 135. The information display circuit 142 controls driving of the in-finder information display unit 180.

制御系は、外部操作に応じて撮像系、画像処理系及び記録再生系における各回路の駆動を制御する。例えば、制御系は、レリーズボタン120が押圧操作されたことを検出して、撮像素子106の駆動、RGB画像処理回路131の動作、記録処理回路133の圧縮処理などを制御する。また、制御系は、ファインダ内情報表示回路142によってファインダ内情報表示ユニット180の各発光セグメントの状態を制御する。   The control system controls driving of each circuit in the imaging system, the image processing system, and the recording / reproducing system in accordance with an external operation. For example, the control system detects that the release button 120 has been pressed, and controls the driving of the image sensor 106, the operation of the RGB image processing circuit 131, the compression processing of the recording processing circuit 133, and the like. The control system controls the state of each light emitting segment of the in-finder information display unit 180 by the in-finder information display circuit 142.

また、情報表示回路142は、SI投光ユニット110における上記選択された焦点検出領域に対応するLEDを点灯させるよう制御する。   Further, the information display circuit 142 controls the LED corresponding to the selected focus detection area in the SI light projecting unit 110 to be lit.

181はメモリであり、レンズ装着用マウント面182から撮像素子106の受光面106aまでの距離(カメラのフランジバック)FBが設計値からいくらずれているかを示すフランジバック情報を記憶している。メモリ181は、書換え可能なEEPROMにより構成されている。   Reference numeral 181 denotes a memory, which stores flange back information indicating how far the distance (camera flange back) FB from the lens mounting surface 182 to the light receiving surface 106a of the image sensor 106 deviates from the design value. The memory 181 is composed of a rewritable EEPROM.

次に、焦点調節に関する構成及び動作について説明する。カメラシステム制御回路135には、AF制御回路140と交換レンズ102に設けられたレンズシステム制御回路141とが接続されている。これらはカメラシステム制御回路135を中心にして各々の処理に必要なデータを相互に通信する。   Next, the configuration and operation related to focus adjustment will be described. An AF control circuit 140 and a lens system control circuit 141 provided in the interchangeable lens 102 are connected to the camera system control circuit 135. These communicate with each other data necessary for each processing, centering on the camera system control circuit 135.

フォーカス制御手段であるAF制御回路140は、撮像画面上の複数の特定位置に配置された焦点検出領域に対応した、焦点検出ユニット121のセンサユニット167からの像信号のずれ量(位相差)に基づいて、結像光学系103のデフォーカス量を算出する。   The AF control circuit 140, which is a focus control means, adjusts the image signal deviation amount (phase difference) from the sensor unit 167 of the focus detection unit 121 corresponding to the focus detection areas arranged at a plurality of specific positions on the imaging screen. Based on this, the defocus amount of the imaging optical system 103 is calculated.

また、AF制御回路140は、該デフォーカス量とメモリ181に記憶されたフランジバック情報とに基づいて、合焦を得るためのフォーカスレンズの駆動量を算出する。そして、AF制御回路140は、該フォーカスレンズの駆動量情報をカメラシステム制御回路135を介してレンズシステム制御回路141に送信する。   Further, the AF control circuit 140 calculates a drive amount of the focus lens for obtaining focus based on the defocus amount and the flange back information stored in the memory 181. Then, the AF control circuit 140 transmits the driving amount information of the focus lens to the lens system control circuit 141 via the camera system control circuit 135.

また、移動する被写体に対しては、レリーズボタン120が押し下げられてから実際の撮像制御が開始されるまでのタイムラグを勘案し、適切なフォーカスレンズ位置を予測した結果によるフォーカスレンズ駆動量を指示する。また、被写体の輝度が低く、十分な焦点検出精度が得られないと判定されるときには、フラッシュユニット104又は不図示の白色LEDや蛍光管によって被写体を照明する。   In addition, for a moving subject, the focus lens drive amount is instructed based on a result of predicting an appropriate focus lens position in consideration of a time lag from when the release button 120 is pressed down until actual imaging control is started. . When it is determined that the brightness of the subject is low and sufficient focus detection accuracy cannot be obtained, the subject is illuminated by the flash unit 104 or a white LED or fluorescent tube (not shown).

レンズシステム制御回路141は、フォーカスレンズ駆動量の情報を受信すると、交換レンズ102内の不図示の駆動機構によってフォーカスレンズを光軸L1の方向に移動させる。これにより、被写体にピントを合わせる。   When the lens system control circuit 141 receives the focus lens drive amount information, the lens system control circuit 141 moves the focus lens in the direction of the optical axis L1 by a drive mechanism (not shown) in the interchangeable lens 102. Thereby, the subject is focused.

AF制御回路140によって被写体にピントが合ったことが検出されると、その情報はカメラシステム制御回路135に伝えられる。このとき、レリーズボタン120が押し下げられれば、前述したように撮像系、画像処理系及び記録再生系による撮像処理が行われる。   When the AF control circuit 140 detects that the subject is in focus, the information is transmitted to the camera system control circuit 135. At this time, if the release button 120 is depressed, the imaging process by the imaging system, the image processing system, and the recording / reproducing system is performed as described above.

図3には、焦点検出ユニット121のセンサユニット167の構造を示す。図3において、380はAFリニア回路ブロックである。AFリニア回路ブロック380は、A像部及びB像部を有する。   FIG. 3 shows the structure of the sensor unit 167 of the focus detection unit 121. In FIG. 3, reference numeral 380 denotes an AF linear circuit block. The AF linear circuit block 380 has an A image portion and a B image portion.

A像部は、第1受光センサとしてのAFセンサ310Aと第2受光センサとしての光源検知センサ320Aとを有する。また、B像部も、A像部と同様に、第1受光センサとしてのAFセンサ310Bと第2受光センサとしての光源検知センサ320Bとを有する。AFセンサ310A,310B及び光源検知センサ320A,320Bの具体的な構成及び配置については、後述する。また、AFセンサ310A,310B及び光源検知センサ320A,320Bはそれぞれ、被写界からの光束を光電変換する複数の受光素子(フォトダイオード)と、該受光素子の蓄積電荷を電圧に変換するアンプ等により構成されている。   The A image portion includes an AF sensor 310A as a first light receiving sensor and a light source detection sensor 320A as a second light receiving sensor. Similarly to the A image portion, the B image portion also includes an AF sensor 310B as a first light receiving sensor and a light source detection sensor 320B as a second light receiving sensor. Specific configurations and arrangements of the AF sensors 310A and 310B and the light source detection sensors 320A and 320B will be described later. Each of the AF sensors 310A and 310B and the light source detection sensors 320A and 320B includes a plurality of light receiving elements (photodiodes) that photoelectrically convert a light beam from the object field, an amplifier that converts the accumulated charge of the light receiving elements into a voltage, and the like. It is comprised by.

被写界からの光束は、互いに視差を有する一対の受光光学系を通過することで一対の物体像を形成する。該物体像には、撮像対象として特定被写体である主被写体の像とその背景の像が含まれる。   The light flux from the object scene forms a pair of object images by passing through a pair of light receiving optical systems having parallax. The object image includes an image of a main subject that is a specific subject as an imaging target and an image of its background.

A像部及びB像部のそれぞれにおいて、AFセンサと光源検知センサは並列配置されている。このため、該一対の物体像のうちA像はA像部のAFセンサ310A及び光源検知センサ320A上に形成され、B像はB像部のAFセンサ310B及び光源検知センサ320B上に形成される。AFセンサ310A,310Bはそれぞれ、A像及びB像に応じた像信号を生成する。また、光源検知センサ320A,320Bはそれぞれ、A像及びB像を形成する光束の波長成分に応じた信号を生成する。   In each of the A image portion and the B image portion, the AF sensor and the light source detection sensor are arranged in parallel. Therefore, of the pair of object images, the A image is formed on the AF sensor 310A and the light source detection sensor 320A in the A image portion, and the B image is formed on the AF sensor 310B and the light source detection sensor 320B in the B image portion. . The AF sensors 310A and 310B generate image signals corresponding to the A image and the B image, respectively. Further, the light source detection sensors 320A and 320B generate signals corresponding to the wavelength components of the light beams forming the A image and the B image, respectively.

そして、AFセンサ310A,310Bの出力(像信号)から得られる該一対の主被写体像のずれ量(位相差)から、主被写体に対する結像光学系103のデフォーカス量、すなわちフォーカス制御に用いる情報を取得することができる。   Then, the defocus amount of the imaging optical system 103 with respect to the main subject, that is, information used for focus control, from the shift amount (phase difference) of the pair of main subject images obtained from the outputs (image signals) of the AF sensors 310A and 310B. Can be obtained.

340はアナログ回路ブロックであり、第1のAGC(オートゲインコントロール)回路341と、第2のAGC(オートゲインコントロール)回路342と、信号増幅回路343と、基準電圧発生回路344と、中間電圧発生回路345とを有する。   An analog circuit block 340 includes a first AGC (auto gain control) circuit 341, a second AGC (auto gain control) circuit 342, a signal amplification circuit 343, a reference voltage generation circuit 344, and an intermediate voltage generation. Circuit 345.

第1のAGC回路341は、AFリニア回路ブロック380からの像信号に基づいて、A像部及びB像部のAFセンサ310A,310Bの電荷蓄積時間を制御する。第2のAGC回路342は、AFリニア回路ブロック380からの像信号に基づいて、A像部及びB像部の光源検知センサ320A,320Bの電荷蓄積時間を制御する。   The first AGC circuit 341 controls the charge accumulation time of the AF sensors 310A and 310B in the A image portion and the B image portion based on the image signal from the AF linear circuit block 380. Based on the image signal from the AF linear circuit block 380, the second AGC circuit 342 controls the charge accumulation time of the light source detection sensors 320A and 320B for the A and B image portions.

信号増幅回路343は、AFセンサ310A,310B及び光源検知センサ320A,320Bからの信号を所定の増幅率で増幅し、出力する。   The signal amplification circuit 343 amplifies the signals from the AF sensors 310A and 310B and the light source detection sensors 320A and 320B with a predetermined amplification factor, and outputs the amplified signals.

基準電圧発生回路344及び中間電圧発生回路345は、AFリニア回路ブロック380での信号処理回路等に用いられるバイアス電圧や各種のクランプ電圧を出力する。   The reference voltage generation circuit 344 and the intermediate voltage generation circuit 345 output bias voltages and various clamp voltages used for the signal processing circuit in the AF linear circuit block 380 and the like.

なお、信号増幅回路343は、AFセンサ310A,310Bの出力を外部に出力する場合には、該AFセンサ310A,310Bの最小値出力を所定電圧にクランプして出力する。また、信号増幅回路343は、光源検知センサ320A,320Bの出力を外部に出力する場合には、該光源検知センサ320A,320Bの遮光画素の出力を所定電圧にクランプして出力する。   When the output of the AF sensors 310A and 310B is output to the outside, the signal amplification circuit 343 clamps and outputs the minimum value output of the AF sensors 310A and 310B to a predetermined voltage. Further, when the output of the light source detection sensors 320A and 320B is output to the outside, the signal amplification circuit 343 clamps the output of the light shielding pixels of the light source detection sensors 320A and 320B to a predetermined voltage and outputs the clamped output.

350はデジタル回路ブロックであり、I/O回路352と、TG(タイミングジェネレーター)回路354とを有する。I/O回路352は、センサユニット167を制御するカメラシステム制御回路135に接続されている。TG回路354は、AFリニア回路ブロック380の駆動タイミングを発生する。   A digital circuit block 350 includes an I / O circuit 352 and a TG (timing generator) circuit 354. The I / O circuit 352 is connected to a camera system control circuit 135 that controls the sensor unit 167. The TG circuit 354 generates drive timing for the AF linear circuit block 380.

AF制御回路140は、AFセンサ310A,310Bにおける信号読み出し領域を決定したり、該決定された信号読み出し領域に対応した光源検知センサ320A,320Bにおける信号読み出し領域を選択したりする。具体的には、AF制御回路140は、各AFセンサを構成する複数の受光素子のうち、主被写体の像を光電変換している1又は複数の受光素子を決定する。   The AF control circuit 140 determines a signal reading area in the AF sensors 310A and 310B, and selects a signal reading area in the light source detection sensors 320A and 320B corresponding to the determined signal reading area. Specifically, the AF control circuit 140 determines one or a plurality of light receiving elements that photoelectrically convert the image of the main subject among the plurality of light receiving elements constituting each AF sensor.

このAFセンサにおける信号読み出し領域の決定方法としてはいつくか方法がある。例えば、AFセンサを構成する複数の受光素子のうち、最も中央近くで高い出力レベルを有する受光素子(代表受光素子)を含む所定数の受光素子をAFセンサにおける信号読み出し領域とする。光源検知センサがAFセンサに並列配置されている場合は、光源検知センサを構成する複数の受光素子のうち上記代表受光素子と受光素子列方向の同位置に配置された受光素子を含む所定数の受光素子を、光源検知センサにおける信号読み出し領域として選択する。   There are several methods for determining the signal readout area in this AF sensor. For example, among a plurality of light receiving elements constituting the AF sensor, a predetermined number of light receiving elements including a light receiving element (representative light receiving element) having the highest output level near the center is set as a signal reading area in the AF sensor. When the light source detection sensor is arranged in parallel with the AF sensor, among the plurality of light receiving elements constituting the light source detection sensor, a predetermined number of light receiving elements including the light receiving elements arranged at the same position in the light receiving element array direction as the representative light receiving element. The light receiving element is selected as a signal readout region in the light source detection sensor.

さらに、AF制御回路140は、光源検知センサ320A,320B内の信号読み出し領域からの出力(つまりは、光源に関する情報)に基づいて、デフォーカス量情報を補正する。なお、デフォーカス量情報を補正するとは、新たなデフォーカス量情報を生成すると同義である。   Further, the AF control circuit 140 corrects the defocus amount information based on the output from the signal reading area in the light source detection sensors 320A and 320B (that is, information on the light source). Note that correcting the defocus amount information is synonymous with generating new defocus amount information.

図4Aは主被写体330に対して合焦が得られた状態での撮像画面(ファインダ画面)、つまりは被写界を示す。また、図4Bは、その状態でのセンサユニット167におけるAFセンサ310A,310B及び光源検知センサ320A,320Bの配置を示す。AFセンサ310A,310B及び光源検知センサ320A,320Bは、単一の半導体基板上に設けられている。   FIG. 4A shows an imaging screen (finder screen), that is, an object scene in a state where the main subject 330 is focused. FIG. 4B shows the arrangement of the AF sensors 310A and 310B and the light source detection sensors 320A and 320B in the sensor unit 167 in that state. The AF sensors 310A and 310B and the light source detection sensors 320A and 320B are provided on a single semiconductor substrate.

図4Bに示すように、AFセンサ310A,310Bは、複数の受光素子を1次元方向に並べたラインセンサとして構成されている。AFセンサ310A上には、前述したA像が形成され、AFセンサ310B上にはB像が形成される。焦点検出ユニット121は、AFセンサ310A,310B上に形成されたA像及びB像の間隔(主被写体像の間隔)を検出することによって、主被写体330に対する結像光学系103のデフォーカス量を求める。   As shown in FIG. 4B, the AF sensors 310A and 310B are configured as line sensors in which a plurality of light receiving elements are arranged in a one-dimensional direction. The aforementioned A image is formed on the AF sensor 310A, and the B image is formed on the AF sensor 310B. The focus detection unit 121 detects the defocus amount of the imaging optical system 103 with respect to the main subject 330 by detecting the interval between the A image and the B image (interval of the main subject image) formed on the AF sensors 310A and 310B. Ask.

光源に関する情報を得るために設けられた光源検知センサ320A,320Bは、複数の受光素子(画素)を一列に並べて構成されている。光源検知センサ320A,320Bはそれぞれ、AFセンサ310A,310Bに平行に並ぶように配置されている。   The light source detection sensors 320A and 320B provided for obtaining information about the light source are configured by arranging a plurality of light receiving elements (pixels) in a line. The light source detection sensors 320A and 320B are arranged in parallel with the AF sensors 310A and 310B, respectively.

なお、本実施例のカメラは、実際は複数の焦点検出領域を有する。このため、焦点検出領域ごとに上記AFセンサ310A,310B及び光源検知センサ320A,320Bが設けられている。このことは、後述する他の実施例でも同様である。   Note that the camera of this embodiment actually has a plurality of focus detection areas. For this reason, the AF sensors 310A and 310B and the light source detection sensors 320A and 320B are provided for each focus detection region. The same applies to other embodiments described later.

光源検知センサ320A,320Bではそれぞれ、中央部に大きな画素(中央画素)320AM,320BMが配置されている。また、中央画素320AM,320BMよりも内側(端部側)には、該中央画素320AM,320BMよりも小さく分割された複数(ここでは5つ)の内側画素320AI,320BIが配置されている。さらに、中央画素320AM,320BMよりも外側(端部側)には、該中央画素320AM,320BMよりも小さく分割された複数(ここでは5つ)の外側画素320AO,320BOが配置されている。言い換えれば、各光源検知センサは、フォトダイオードが1行×11列に配置されて構成されている。   In the light source detection sensors 320A and 320B, large pixels (center pixels) 320AM and 320BM are arranged in the center. Further, a plurality of (here, five) inner pixels 320AI and 320BI that are divided smaller than the central pixels 320AM and 320BM are arranged on the inner side (end side) of the central pixels 320AM and 320BM. Further, a plurality of (here, five) outer pixels 320AO and 320BO that are divided smaller than the central pixels 320AM and 320BM are arranged outside (end side) from the central pixels 320AM and 320BM. In other words, each light source detection sensor is configured by arranging photodiodes in 1 row × 11 columns.

なお、中央画素320AM,320BMよりも内側とは、該一対の光源検知センサ320A,320Bにおいて受光素子が並んだ図中の左右方向(第1方向:以下、列方向という)において、他方の光源検知センサに近い側をいう。また、中央画素320AM,320BMよりも外側とは、列方向において、他方の光源検知センサから遠い側をいう。これらは、後述する他の実施例でも同様である。   The inner side of the central pixels 320AM and 320BM means that the other light source is detected in the left-right direction (first direction: hereinafter referred to as the column direction) in the figure in which the light receiving elements are arranged in the pair of light source detection sensors 320A and 320B. The side close to the sensor. Further, the outside of the central pixels 320AM and 320BM means a side far from the other light source detection sensor in the column direction. The same applies to other embodiments described later.

中央画素320AM,320BMの大きさを内側画素320AI,320BIや外側画素320AO,320BOの大きさよりも大きくしている。これは、一般的に撮影者は主被写体を焦点検出領域335の中央で狙う確率が高く、合焦に近い状態で、光源に関する情報を得るための画素出力をできるだけ大きくするためである。また、光源検知センサ320A,320Bの構造の複雑化を避けるために、画素の分割数をできるだけ少なく抑えるためでもある。   The sizes of the central pixels 320AM and 320BM are larger than the sizes of the inner pixels 320AI and 320BI and the outer pixels 320AO and 320BO. This is because the photographer generally has a high probability of aiming the main subject at the center of the focus detection area 335, and makes the pixel output for obtaining information about the light source as large as possible in a state close to focusing. Further, in order to avoid the complexity of the structure of the light source detection sensors 320A and 320B, the number of divided pixels is minimized.

光源検知センサ320A,320Bの列方向の長さはそれぞれ、A像及びB像を光電変換するAFセンサ310A,310Bの同方向の長さよりも短い。   The lengths of the light source detection sensors 320A and 320B in the column direction are shorter than the lengths of the AF sensors 310A and 310B that photoelectrically convert the A image and the B image, respectively.

これは以下の理由による。ピントが大きくずれた状態では、焦点検出及びフォーカスレンズ駆動を1回行っても合焦まで至らない場合が多い。このため、仮に各光源検知センサの列方向長さを各AFセンサの長さと同じとしても、各光源検知センサの両端付近の画素からの信号は最終的な合焦のための焦点検出結果には反映されず、無駄になってしまうからである。また、各光源検知センサの列方向長さが長いと、両端付近の画素によって主被写体以外の被写体を照らす光源を検出してしまうおそれが生じるからである。   This is due to the following reason. In a state where the focus is greatly deviated, focusing is often not achieved even if focus detection and focus lens driving are performed once. Therefore, even if the length in the column direction of each light source detection sensor is the same as the length of each AF sensor, signals from pixels near both ends of each light source detection sensor are not included in the focus detection result for final focusing. This is because it is not reflected and is wasted. Also, if the length of each light source detection sensor in the column direction is long, there is a risk that a light source that illuminates a subject other than the main subject is detected by pixels near both ends.

また、光源検知センサ320A,320Bの行方向(第1方向に直交する第2方向:図中の上下方向)の長さはそれぞれ、AFセンサ310A,310Bの同方向の長さより長く設定されている。これは、光源を検出するための十分な信号出力が得られるようにするためである。   The lengths of the light source detection sensors 320A and 320B in the row direction (second direction orthogonal to the first direction: the vertical direction in the figure) are set longer than the lengths of the AF sensors 310A and 310B in the same direction, respectively. . This is in order to obtain a sufficient signal output for detecting the light source.

そして、AFセンサ310Aと光源検知センサ320Aは、それらの列方向の中心(中心軸321A)が互いに一致するように配置されている。また、AFセンサ310Bと光源検知センサ320Bは、それらの列方向の中心(中心軸321B)が互いに一致するように配置されている。   The AF sensor 310A and the light source detection sensor 320A are arranged such that their centers in the column direction (center axis 321A) coincide with each other. In addition, the AF sensor 310B and the light source detection sensor 320B are arranged such that their centers in the column direction (center axis 321B) coincide with each other.

311AはAFセンサ310A上に形成されたA像の光電変換により得られるA像信号である。311BはAFセンサ310B上に形成されたB像の光電変換により得られるB像信号である。なお、実際には、AFセンサ310A,310B及び光源検知センサ320A,320B上には、図4Aに示す焦点検出領域335に含まれる主被写体330とその背景とにより構成される被写界物体の一対の像が形成される。ただし、図4Bに示すA像信号311A及びB像信号311Bは、主被写体330の一対の像が光電変換されて得られた信号を示している。   Reference numeral 311A denotes an A image signal obtained by photoelectric conversion of an A image formed on the AF sensor 310A. Reference numeral 311B denotes a B image signal obtained by photoelectric conversion of the B image formed on the AF sensor 310B. Actually, a pair of object objects composed of the main subject 330 and its background included in the focus detection area 335 shown in FIG. 4A are placed on the AF sensors 310A and 310B and the light source detection sensors 320A and 320B. Is formed. However, the A image signal 311A and the B image signal 311B illustrated in FIG. 4B indicate signals obtained by photoelectrically converting a pair of images of the main subject 330.

図4Bは、図4Aに示す画面中央に位置する主被写体(人物)330にピントが合った状態を示し、A像信号311A及びB像信号311Bのそれぞれの重心が上記中心軸321A,321Bに一致している。このときのA像信号311A及びB像信号311Bの重心間の間隔はΔである。   FIG. 4B shows a state in which the main subject (person) 330 located at the center of the screen shown in FIG. 4A is in focus, and the center of gravity of each of the A image signal 311A and the B image signal 311B is aligned with the central axes 321A and 321B. I'm doing it. At this time, the distance between the centers of gravity of the A image signal 311A and the B image signal 311B is Δ.

ピントを合わせるべき主被写体330は、画面中央の焦点検出領域335内に存在する。ここでは、該焦点検出領域335において焦点検出を行っている場合について説明する。   The main subject 330 to be focused exists in the focus detection area 335 at the center of the screen. Here, a case where focus detection is performed in the focus detection region 335 will be described.

330Aは主被写体330よりも手前に存在する被写体、331は太陽、332は太陽光下の屋外、333は室内蛍光灯、334は蛍光灯下の室内を示している。   330A is a subject existing in front of the main subject 330, 331 is the sun, 332 is outdoors under sunlight, 333 is an indoor fluorescent lamp, and 334 is an indoor under the fluorescent lamp.

310CはAFセンサ310Aの視野を、310DはAFセンサ310Bの視野を示している。図4Aでは、両視野310C,310Dは完全に重なり合っている。   310C represents the field of view of the AF sensor 310A, and 310D represents the field of view of the AF sensor 310B. In FIG. 4A, both visual fields 310C and 310D are completely overlapped.

320Cは光源検知センサ320Aの視野を、320Dは光源検知センサ320Bの視野である。図4Aでは、両視野320C,320Dは完全に重なり合っている。   320C is a field of view of the light source detection sensor 320A, and 320D is a field of view of the light source detection sensor 320B. In FIG. 4A, both visual fields 320C and 320D are completely overlapped.

ここで、主被写体330である人物は室内で、窓辺におり、正面を向いた顔は蛍光灯の光で照らされている。   Here, the person who is the main subject 330 is indoors, on the window, and the face facing the front is illuminated by the light of the fluorescent lamp.

このとき、光源検知センサ320Aでは、中央画素320AMと、内側画素320AIのうち中央寄りの2画素と、外側画素320AOのうち中央寄りの2画素とから、主被写体330からの反射光に対応した出力が発生する。また、光源検知センサ320Bでは、中央画素320BMと内側画素320BIのうち中央寄りの2画素と、外側画素320BOのうち中央寄りの2画素とから、主被写体330からの反射光に対応した出力が発生する。つまり、光源検知センサ320A,320Bの視野320C,320DとAFセンサ310A,310Bの視野310C,310Dには殆どパララックスがない。このため、光源検知センサ320A,320BとAFセンサ310A,310Bからは、主被写体330の殆ど同じ部分からの反射光に対応した出力が得られる。   At this time, in the light source detection sensor 320A, output corresponding to the reflected light from the main subject 330 from the central pixel 320AM, two pixels closer to the center among the inner pixels 320AI, and two pixels closer to the center among the outer pixels 320AO. Occurs. Further, in the light source detection sensor 320B, output corresponding to the reflected light from the main subject 330 is generated from two pixels closer to the center of the central pixel 320BM and the inner pixel 320BI and two pixels closer to the center of the outer pixels 320BO. To do. That is, the visual fields 320C and 320D of the light source detection sensors 320A and 320B and the visual fields 310C and 310D of the AF sensors 310A and 310B have almost no parallax. Therefore, the light source detection sensors 320A and 320B and the AF sensors 310A and 310B can obtain outputs corresponding to the reflected light from almost the same part of the main subject 330.

このため、前述したAFセンサにおける信号読み出し領域に対応した光源検知センサにおける信号読み出し領域として、中央画素と内側及び外側画素のうち中央寄りの2画素ずつを選択すれば、主被写体330を照らす光源に関する情報を取得することができる。   For this reason, if two pixels closer to the center are selected from the central pixel and the inner and outer pixels as the signal reading region in the light source detection sensor corresponding to the signal reading region in the AF sensor described above, the light source that illuminates the main subject 330 is obtained. Information can be acquired.

図4Cは、主被写体330に対して後ピン状態となったときの撮像画面を示す。また、図4Dは、その状態でのセンサ配置とA像信号311A及びB像信号311Bを示している。これらの図において、A像信号311A及びB像信号311Bの重心を通る線322A,322Bはそれぞれ、中心軸321A,321Bから外側へずれている。このときにA像信号311A及びB像信号311Bの重心間の間隔はδ1(δ1>Δ)である。   FIG. 4C shows an imaging screen when the main object 330 is in the rear pin state. FIG. 4D shows the sensor arrangement and the A image signal 311A and the B image signal 311B in that state. In these figures, lines 322A and 322B passing through the centroids of the A image signal 311A and the B image signal 311B are shifted outward from the central axes 321A and 321B, respectively. At this time, the distance between the centroids of the A image signal 311A and the B image signal 311B is δ1 (δ1> Δ).

また、この後ピン状態では、AFセンサ310Aの視野310C及びAFセンサ310Bの視野310Dが、図4Aに示した位置よりもそれぞれ右方向及び左方向にずれた状態で重なっている。また、光源検知センサ320Aの視野320C及び光源検知センサ320Bの視野320Dも、図4Aに示した位置よりもそれぞれ右方向及び左方向にずれた状態で重なっている。   Further, in the rear pin state, the visual field 310C of the AF sensor 310A and the visual field 310D of the AF sensor 310B overlap with each other in a state shifted from the position illustrated in FIG. 4A in the right direction and the left direction, respectively. Further, the field of view 320C of the light source detection sensor 320A and the field of view 320D of the light source detection sensor 320B are also overlapped in a state shifted from the position shown in FIG. 4A to the right and left, respectively.

このとき、光源検知センサ320Aでは、図4Dに示すように、中央画素320AMと外側画素320AOのうち中央寄りの4画素から、主被写体330からの反射光に対応した出力が発生する。また、光源検知センサ320Bでは、中央画素320BMと外側画素320BOのうち中央寄りの4画素から、主被写体330からの反射光に対応した出力が発生する。   At this time, in the light source detection sensor 320A, as shown in FIG. 4D, an output corresponding to the reflected light from the main subject 330 is generated from four pixels closer to the center among the central pixel 320AM and the outer pixel 320AO. In the light source detection sensor 320B, an output corresponding to the reflected light from the main subject 330 is generated from four pixels closer to the center among the center pixel 320BM and the outer pixel 320BO.

この場合、AFセンサにおける信号読み出し領域に対応した光源検知センサにおける信号読み出し領域として、中央画素と中央寄りの外側4画素を選択すれば、AFセンサの視野のうち主被写体330が存在する領域に対して殆どパララックスがなくなる。これにより、光源検知センサ320A,320BとAFセンサ310A,310Bから主被写体330の殆ど同じ位置の反射光に対応した出力が得られる。したがって、主被写体330を照らす光源に関する情報を正確に取得することができる。   In this case, if the central pixel and the four outer pixels closer to the center are selected as the signal readout region in the light source detection sensor corresponding to the signal readout region in the AF sensor, the region where the main subject 330 exists in the field of view of the AF sensor. Almost no parallax. Thereby, the output corresponding to the reflected light at almost the same position of the main subject 330 is obtained from the light source detection sensors 320A and 320B and the AF sensors 310A and 310B. Therefore, it is possible to accurately acquire information regarding the light source that illuminates the main subject 330.

図4Eは、主被写体330に対して前ピン状態となったときの撮像画面を示す。また、図4Fは、その状態でのセンサ配置とA像信号311A及びB像信号311Bを示している。これらの図において、A像信号311A及びB像信号311Bの重心を通る線322A,322Bはそれぞれ、中心軸321A,321Bから内側へずれている。このときにA像信号311A及びB像信号311Bの重心間の間隔はδ2(δ2<Δ)である。   FIG. 4E shows an imaging screen when the main subject 330 is in the front pin state. FIG. 4F shows the sensor arrangement and the A image signal 311A and the B image signal 311B in that state. In these figures, lines 322A and 322B passing through the centroids of the A image signal 311A and the B image signal 311B are shifted inward from the central axes 321A and 321B, respectively. At this time, the interval between the centers of gravity of the A image signal 311A and the B image signal 311B is δ2 (δ2 <Δ).

また、この前ピン状態では、AFセンサ310Aの視野310C及びAFセンサ310Bの視野310Dが、図4Bに示した位置よりもそれぞれ左方向及び右方向にずれた状態で重なり合っている。また、光源検知センサ320Aの視野320C及び光源検知センサ320Bの視野320Dも、図4Bに示した位置よりもそれぞれ左方向及び右方向にずれた状態で重なり合っている。   In this front pin state, the visual field 310C of the AF sensor 310A and the visual field 310D of the AF sensor 310B overlap with each other in a state of being shifted leftward and rightward from the position shown in FIG. 4B. Further, the field of view 320C of the light source detection sensor 320A and the field of view 320D of the light source detection sensor 320B are also overlapped in a state shifted from the position shown in FIG. 4B in the left direction and the right direction, respectively.

このとき、光源検知センサ320Aでは、中央画素320AMと内側画素320AIのうち中央寄りの4画素から、主被写体からの反射光に対応した出力が発生する。また、光源検知センサ320Bでは、中央画素320BMと内側画素320BIのうち中央寄りの4画素から、主被写体からの反射光に対応した出力が発生する。   At this time, in the light source detection sensor 320A, an output corresponding to reflected light from the main subject is generated from four pixels closer to the center among the central pixel 320AM and the inner pixel 320AI. In the light source detection sensor 320B, an output corresponding to the reflected light from the main subject is generated from four pixels closer to the center among the center pixel 320BM and the inner pixel 320BI.

この場合、AFセンサにおける信号読み出し領域に対応した光源検知センサにおける信号読み出し領域として、中央画素と中央寄りの内側4画素を選択すれば、AFセンサの視野のうち主被写体330が存在する領域に対して殆どパララックスがなくなる。これにより、光源検知センサ320A,320BとAFセンサ310A,310Bから主被写体330の殆ど同じ位置の反射光に対応した出力が得られる。したがって、主被写体330を照らす光源に関する情報を正確に取得することができる。   In this case, if the central pixel and the inner four pixels closer to the center are selected as the signal readout region in the light source detection sensor corresponding to the signal readout region in the AF sensor, the region where the main subject 330 exists in the field of view of the AF sensor. Almost no parallax. Thereby, the output corresponding to the reflected light at almost the same position of the main subject 330 is obtained from the light source detection sensors 320A and 320B and the AF sensors 310A and 310B. Therefore, it is possible to accurately acquire information regarding the light source that illuminates the main subject 330.

以上のことから、光源検知センサ320A,320Bからの出力は、ほぼ主被写体330からの反射光によるものとなり、デフォーカス状態においても、主被写体330を照らす光源に関する情報を正確に取得することができる。   From the above, the output from the light source detection sensors 320A and 320B is substantially due to the reflected light from the main subject 330, and information regarding the light source that illuminates the main subject 330 can be accurately acquired even in the defocused state. .

図5、図6及び図7には、本実施例の光源検知センサ320A,320Bを構成する受光素子の特性例を示す。   FIG. 5, FIG. 6 and FIG. 7 show characteristic examples of the light receiving elements constituting the light source detection sensors 320A and 320B of the present embodiment.

図5には、可視光の波長領域(以下、可視光領域という)に分光感度を持つ受光素子の特性1と、赤外光の波長領域(以下、赤外光領域という)に分光感度を持つ受光素子の特性2とを示す。特性1を有する受光素子からの出力と特性2を有する受光素子からの出力の比に基づいて、被写体を照らす光源に含まれる可視光成分と赤外光成分との比を推定することができる。特性1を有する受光素子と特性2を有する受光素子のうちどちらか一方からしか出力が得られない場合は、該出力が得られた受光素子が感度を有する分光特性の光束のみが含まれている場合である。   FIG. 5 shows characteristic 1 of a light receiving element having spectral sensitivity in the visible light wavelength region (hereinafter referred to as visible light region) and spectral sensitivity in the infrared light wavelength region (hereinafter referred to as infrared light region). The characteristic 2 of a light receiving element is shown. Based on the ratio between the output from the light receiving element having the characteristic 1 and the output from the light receiving element having the characteristic 2, the ratio between the visible light component and the infrared light component included in the light source that illuminates the subject can be estimated. When the output can be obtained from only one of the light receiving element having the characteristic 1 and the light receiving element having the characteristic 2, the light receiving element from which the output is obtained includes only a light beam having a spectral characteristic having sensitivity. Is the case.

可視光成分と赤外光成分との比(いずれかがゼロである場合も含む)が、前述した光源に関する情報である。このことは、後述する図6及び図7の場合も同じである。   The ratio of the visible light component to the infrared light component (including the case where any of them is zero) is information on the light source described above. This also applies to FIGS. 6 and 7 described later.

図6には、可視光領域及び赤外光領域に分光感度を持つ受光素子の特性1と、赤外光領域のみに分光感度を持つ受光素子の特性2とを示す。特性1を有する受光素子からしか出力が得られない場合は、光源に赤外光成分が含まれていない場合である。また、特性1を有する受光素子からの出力と特性2を有する受光素子からの出力とが同じ場合は、光源に赤外光成分のみが含まれている場合である。さらに、特性1を有する受光素子と特性2を有する受光素子のいずれからも出力がある場合は、両受光素子の出力の比に基づいて、光源に含まれる可視光成分と赤外光成分の比を推定することができる。   FIG. 6 shows a characteristic 1 of the light receiving element having spectral sensitivity in the visible light region and the infrared light region, and a characteristic 2 of the light receiving element having spectral sensitivity only in the infrared light region. A case where an output can be obtained only from a light receiving element having the characteristic 1 is a case where an infrared light component is not included in the light source. Further, the case where the output from the light receiving element having the characteristic 1 is the same as the output from the light receiving element having the characteristic 2 is a case where only the infrared light component is included in the light source. Furthermore, when there is an output from both the light receiving element having the characteristic 1 and the light receiving element having the characteristic 2, the ratio of the visible light component and the infrared light component included in the light source is based on the ratio of the outputs of the two light receiving elements. Can be estimated.

図7には、可視光領域及び赤外光領域に分光感度を持つ受光素子の特性1と、可視光領域にのみ分光感度を持つ受光素子の特性2とを示している。特性1を有する受光素子からの出力と特性2を有する受光素子からの出力とが同じ場合は、光源に赤外光成分が含まれていない場合である。また、特性1を有する受光素子からしか出力が得られない場合は、光源に赤外光成分のみが含まれている場合である。さらに、特性1を有する受光素子と特性2を有する受光素子のいずれからも出力がある場合は、両受光素子の出力の比に基づいて、光源に含まれる可視光成分と赤外光成分の比を推定することができる。   FIG. 7 shows a characteristic 1 of the light receiving element having spectral sensitivity in the visible light region and the infrared light region and a characteristic 2 of the light receiving element having spectral sensitivity only in the visible light region. The case where the output from the light receiving element having the characteristic 1 and the output from the light receiving element having the characteristic 2 are the same is the case where the infrared light component is not included in the light source. Further, the case where the output can be obtained only from the light receiving element having the characteristic 1 is a case where only the infrared light component is included in the light source. Furthermore, when there is an output from both the light receiving element having the characteristic 1 and the light receiving element having the characteristic 2, the ratio of the visible light component and the infrared light component included in the light source is based on the ratio of the outputs of the two light receiving elements. Can be estimated.

上記特性のうち可視光領域に分光感度を持つ特性を、撮像素子106と同一の分光感度特性とすることで、撮像素子106に対する光源特性のずれを検出することができる。   By setting the characteristic having the spectral sensitivity in the visible light region out of the above characteristics to the same spectral sensitivity characteristic as that of the image sensor 106, the deviation of the light source characteristic with respect to the image sensor 106 can be detected.

本実施例においては、光源検知センサ320A,320Bを、結像光学系103の予定結像面(撮像素子106の受光面)と等価な位置に配置している。このため、光源検知センサ320Aに図5、図6又は図7に示した分光感度特性1,2のうち一方を、光源検知センサ320Bに他方を付加することで、被写体を照らす光源に関する情報を求めることができる。分光感度特性の付加は、受光素子に対してそれぞれの特性に対応した光学フィルタを設けることで行うことができる。また、光源検知センサ320A,320Bのいずれにも受光深さ方向において分光感度特性が異なる受光素子を用い、一方の光源検知センサからは特性1に対応する出力を抽出し、他方の光源検知センサからは特性2に対応する出力を抽出してもよい。   In this embodiment, the light source detection sensors 320 </ b> A and 320 </ b> B are disposed at a position equivalent to the planned image formation surface of the image forming optical system 103 (the light receiving surface of the image sensor 106). Therefore, by adding one of the spectral sensitivity characteristics 1 and 2 shown in FIG. 5, FIG. 6 or FIG. 7 to the light source detection sensor 320A and the other to the light source detection sensor 320B, information on the light source that illuminates the subject is obtained. be able to. Spectral sensitivity characteristics can be added by providing an optical filter corresponding to each characteristic for the light receiving element. In addition, a light receiving element having different spectral sensitivity characteristics in the light receiving depth direction is used for both of the light source detection sensors 320A and 320B, an output corresponding to the characteristic 1 is extracted from one light source detection sensor, and the other light source detection sensor is used. May extract the output corresponding to characteristic 2.

なお、図5〜図7に示した分光感度特性は例にすぎず、光源検知センサの受光素子の特性がこれらに限定されるわけではない。   The spectral sensitivity characteristics shown in FIGS. 5 to 7 are merely examples, and the characteristics of the light receiving element of the light source detection sensor are not limited to these.

次に、本実施例のカメラシステムのAF動作について、図12のフローチャートを用いて説明する。このAF動作は、主として制御手段としてのAF制御回路140及びカメラシステム制御回路135がコンピュータプログラムに従って実行する。   Next, the AF operation of the camera system of the present embodiment will be described using the flowchart of FIG. This AF operation is mainly executed by the AF control circuit 140 and the camera system control circuit 135 as control means according to a computer program.

図1で示したメインスイッチがONされると、ステップ(図ではSと略す)101から動作を開始する。ステップ101では、カメラシステム制御回路135は、レリーズボタン120の半押し操作によって、操作検出回路136に含まれる不図示のスイッチSW1がONされたか否かを判別する。スイッチSW1がONされた場合は、ステップ102に進み、ONされていない場合はステップ101を繰り返す。   When the main switch shown in FIG. 1 is turned on, the operation starts from step (abbreviated as S in the figure) 101. In step 101, the camera system control circuit 135 determines whether or not a switch SW <b> 1 (not shown) included in the operation detection circuit 136 is turned on by a half-press operation of the release button 120. If the switch SW1 is turned on, the process proceeds to step 102. If the switch SW1 is not turned on, step 101 is repeated.

ステップ102では、AF制御回路140は、焦点検出ユニット121内のAFセンサ310A,310Bに電荷蓄積を行わせる。   In step 102, the AF control circuit 140 causes the AF sensors 310A and 310B in the focus detection unit 121 to accumulate charges.

ステップ103では、AF制御回路140は、焦点検出ユニット121内の光源検知センサ320A,320Bの電荷蓄積を行わせる。   In step 103, the AF control circuit 140 causes the light source detection sensors 320A and 320B in the focus detection unit 121 to accumulate charges.

そして、ステップ104では、AF制御回路140は、前述したAFセンサにおける信号読み出し領域の決定及びこれに対応した光源検知センサにおける信号読み出し領域の選択を行う。そして、光源検知センサ320A,320Bからの出力に基づいて主被写体を照らす光源に関する情報(前述した可視光成分と赤外光成分との比)を求める。図には、この動作を「光源判定」として示している。   In step 104, the AF control circuit 140 determines the signal readout area in the AF sensor described above and selects the signal readout area in the light source detection sensor corresponding thereto. Then, information on the light source that illuminates the main subject (the ratio between the visible light component and the infrared light component described above) is obtained based on outputs from the light source detection sensors 320A and 320B. In the drawing, this operation is shown as “light source determination”.

ステップ105では、AF制御回路140は、AFセンサ310A,310Bから取得したA像信号及びB像信号のずれ量(位相差)に基づいて、結像光学系103のデフォーカス量を演算する。さらに、ステップ104で得られた光源に関する情報に基づいて、デフォーカス量を補正(新たに生成)する。   In step 105, the AF control circuit 140 calculates the defocus amount of the imaging optical system 103 based on the shift amount (phase difference) between the A image signal and the B image signal acquired from the AF sensors 310A and 310B. Further, the defocus amount is corrected (newly generated) based on the information on the light source obtained in step 104.

補正の方法としてはどのようなものでもよい。例えば、メモリ181内に可視光成分と赤外光成分との比に対する補正値をデータテーブルとして記憶させておき、ステップ104で得られた該比に対応する補正値を読み出す。そして、この補正値を位相差から求めたデフォーカス量に加算することで、デフォーカス量を補正する。以下、補正されたデフォーカス量を光源補正後デフォーカス量という。   Any correction method may be used. For example, the correction value corresponding to the ratio between the visible light component and the infrared light component is stored in the memory 181 as a data table, and the correction value corresponding to the ratio obtained in step 104 is read out. Then, the defocus amount is corrected by adding this correction value to the defocus amount obtained from the phase difference. Hereinafter, the corrected defocus amount is referred to as a defocus amount after light source correction.

ステップ106では、AF制御回路140は、光源補正後デフォーカス量が特定の合焦範囲内であるか否かを判別する。合焦範囲よりも大きい場合はステップ107に進み、合焦範囲内である場合はステップ108に進む。   In step 106, the AF control circuit 140 determines whether the defocus amount after light source correction is within a specific focus range. When it is larger than the in-focus range, the process proceeds to step 107, and when within the in-focus range, the process proceeds to step 108.

ステップ107では、AF制御回路140は、光源補正後デフォーカス量からフォーカスレンズの合焦のための駆動量を演算する。そして、該駆動量情報をカメラシステム制御回路135を通じてレンズシステム制御回路141に送信する。駆動量情報を受けたレンズシステム制御回路141は、該駆動量情報に応じて不図示のフォーカス駆動モータを駆動する。そして、ステップ101に戻る。   In step 107, the AF control circuit 140 calculates a drive amount for focusing the focus lens from the light source corrected defocus amount. Then, the driving amount information is transmitted to the lens system control circuit 141 through the camera system control circuit 135. Receiving the drive amount information, the lens system control circuit 141 drives a focus drive motor (not shown) according to the drive amount information. Then, the process returns to step 101.

ステップ108では、カメラシステム制御回路135は、レリーズボタン120が全押し操作されて、操作検出回路136に含まれる不図示のスイッチSW2がONしたか否かを判定する。ONの場合は、ステップ109に進み、撮像制御を行う。スイッチSW2がOFFの場合は、ステップ108を繰り返す。   In step 108, the camera system control circuit 135 determines whether or not the release button 120 is fully pressed and a switch SW <b> 2 (not shown) included in the operation detection circuit 136 is turned on. If it is ON, the process proceeds to step 109 to perform imaging control. If the switch SW2 is OFF, step 108 is repeated.

次に、本発明の実施例2であるカメラシステムについて説明する。カメラシステムの基本構成や動作は実施例1と同様であるため、ここでは、実施例1と異なる部分についてのみ説明する。なお、実施例1と共通する構成要素には、実施例1と同符号を付す。   Next, a camera system that is Embodiment 2 of the present invention will be described. Since the basic configuration and operation of the camera system are the same as those in the first embodiment, only the parts different from the first embodiment will be described here. In addition, the same code | symbol as Example 1 is attached | subjected to the component which is common in Example 1. FIG.

図8Aには、焦点検出ユニット121のセンサユニット167におけるAFセンサ410A,410B及び光源検知センサ420A,420Bの配置を示す。AFセンサ410A,410B及び光源検知センサ420A,420Bは、単一の半導体基板上に設けられている。   FIG. 8A shows the arrangement of the AF sensors 410A and 410B and the light source detection sensors 420A and 420B in the sensor unit 167 of the focus detection unit 121. The AF sensors 410A and 410B and the light source detection sensors 420A and 420B are provided on a single semiconductor substrate.

同図に示すように、AFセンサ410A,410Bは、複数の受光素子を1次元方向に並べたラインセンサとして構成されている。AFセンサ410A上には、実施例1で説明したA像が形成されている。また、AFセンサ410B上にはB像が形成されている。焦点検出ユニット121は、AFセンサ410A,410B上に形成されたA像及びB像の間隔(主被写体像の間隔)を検出することによって、主被写体に対する結像光学系103のデフォーカス量を検出する。   As shown in the figure, the AF sensors 410A and 410B are configured as line sensors in which a plurality of light receiving elements are arranged in a one-dimensional direction. The A image described in the first embodiment is formed on the AF sensor 410A. A B image is formed on the AF sensor 410B. The focus detection unit 121 detects the defocus amount of the imaging optical system 103 with respect to the main subject by detecting the interval between the A and B images formed on the AF sensors 410A and 410B (interval of the main subject image). To do.

光源に関する情報を得るために設けられた光源検知センサ420A,420Bは、2次元的な広がりを有する単一の受光素子を用いて構成されている。光源検知センサ420A,420Bはそれぞれ、AFセンサ410A,410Bに平行に並んで配置されている。   The light source detection sensors 420A and 420B provided for obtaining information on the light source are configured using a single light receiving element having a two-dimensional extent. The light source detection sensors 420A and 420B are arranged in parallel to the AF sensors 410A and 410B, respectively.

光源検知センサ420A,420Bの受光領域は、長手方向における中央部において、長手方向に直交する方向の長さ(高さ)が一定である中央領域420AC,420BCを有する。ここにいう長手方向は、AFセンサ410A,410Bの受光素子が並ぶ図中の左右方向(第1方向)であり、長手方向に直交する方向(第2方向)は、図中の上下方向である。   The light receiving regions of the light source detection sensors 420A and 420B have central regions 420AC and 420BC in which the length (height) in the direction orthogonal to the longitudinal direction is constant at the central portion in the longitudinal direction. The longitudinal direction here is the left-right direction (first direction) in the figure in which the light receiving elements of the AF sensors 410A and 410B are arranged, and the direction orthogonal to the longitudinal direction (second direction) is the up-down direction in the figure. .

また、光源検知センサ420A,420Bの受光領域は、該中央領域420AC,420BCよりも内側において、端部に向かって直線的に徐々に細くなるテーパ形状を有する内側領域420AI,420BIを有する。さらに、該受光領域は、中央領域420AC,420BCよりも外側において、端部に向かって直線的に徐々に細くなるテーパ形状を有する外側領域420AO,420BOを有する。   In addition, the light receiving regions of the light source detection sensors 420A and 420B have inner regions 420AI and 420BI having tapered shapes that become gradually narrower linearly toward the end portions inside the central regions 420AC and 420BC. Further, the light receiving region has outer regions 420AO and 420BO having tapered shapes that gradually and linearly narrow toward the end portion outside the central regions 420AC and 420BC.

言い換えれば、光源検知センサ420A,420Bは、長手方向中央部の受光領域の高さに比べて、端部側の受光領域の高さが小さい形状を有する。さらに言えば、光源検知センサ420A,420Bは、長手方向端部側の受光領域の高さが、端部に近いほど小さくなる形状を有する。   In other words, the light source detection sensors 420A and 420B have a shape in which the height of the light receiving region on the end side is smaller than the height of the light receiving region at the center in the longitudinal direction. Furthermore, the light source detection sensors 420A and 420B have a shape in which the height of the light receiving region on the side in the longitudinal direction becomes smaller as the distance to the end is closer.

光源検知センサ420A,420Bの長手方向の長さは、AFセンサ410A,410Bの同方向の長さよりも短い。理由は、実施例1と同じである。また、光源検知センサ420A,420Bの長手方向に直交する方向(図中の上下方向)の長さは、AFセンサ410A,410Bの同方向の長さより長く設定されている。この理由も、実施例1と同じである。   The lengths of the light source detection sensors 420A and 420B in the longitudinal direction are shorter than the lengths of the AF sensors 410A and 410B in the same direction. The reason is the same as in the first embodiment. Further, the length of the light source detection sensors 420A and 420B in the direction orthogonal to the longitudinal direction (the vertical direction in the figure) is set longer than the length of the AF sensors 410A and 410B in the same direction. The reason for this is also the same as in the first embodiment.

そして、AFセンサ410Aと光源検知センサ420Aは、それらの列方向及び長手方向の中心(中心軸421A)が互いに一致するように配置されている。また、AFセンサ410Bと光源検知センサ420Bは、それらの列方向及び長手方向の中心(中心軸421B)が互いに一致するように配置されている。   The AF sensor 410A and the light source detection sensor 420A are arranged such that the center in the column direction and the longitudinal direction (center axis 421A) coincide with each other. In addition, the AF sensor 410B and the light source detection sensor 420B are arranged so that the centers in the column direction and the longitudinal direction (center axis 421B) coincide with each other.

411AはAFセンサ410A上に形成されたA像の光電変換により得られるA像信号である。411BはAFセンサ410B上に形成されたB像の光電変換により得られるB像信号である。なお、実際には、AFセンサ410A,410B及び光源検知センサ420A,420B上には、図4Aに示す焦点検出領域335に含まれる主被写体330とその背景とにより構成される被写界物体の一対の像が形成される。ただし、図8Aに示すA像信号411A及びB像信号411Bは、主被写体330の一対の像が光電変換されて得られた信号を示している。   Reference numeral 411A denotes an A image signal obtained by photoelectric conversion of an A image formed on the AF sensor 410A. Reference numeral 411B denotes a B image signal obtained by photoelectric conversion of the B image formed on the AF sensor 410B. Actually, a pair of object objects composed of the main subject 330 and its background included in the focus detection area 335 shown in FIG. 4A are placed on the AF sensors 410A and 410B and the light source detection sensors 420A and 420B. Is formed. However, the A image signal 411A and the B image signal 411B shown in FIG. 8A indicate signals obtained by photoelectrically converting a pair of images of the main subject 330.

図8Aは、実施例1の図4Aに示すように、撮像画面(ファインダ画面)の中央に位置する主被写体330にピントが合った状態を示し、A像信号411A及びB像信号411Bのそれぞれの重心が上記中心軸421A,421Bに一致している。このときのA像信号411A及びB像信号411Bの重心間の間隔はΔである。   FIG. 8A shows a state in which the main subject 330 located at the center of the imaging screen (finder screen) is in focus as shown in FIG. 4A of the first embodiment, and each of the A image signal 411A and the B image signal 411B. The center of gravity coincides with the central axes 421A and 421B. At this time, the interval between the centroids of the A image signal 411A and the B image signal 411B is Δ.

図4Aにおいて、ピントを合わせるべき主被写体330は、画面中央の焦点検出領域335内に存在する。ここでは、該焦点検出領域において焦点検出を行っている場合について説明する。   In FIG. 4A, the main subject 330 to be focused exists in the focus detection area 335 at the center of the screen. Here, a case where focus detection is performed in the focus detection area will be described.

330Aは主被写体330よりも手前に存在する被写体、331は太陽、332は太陽光下の屋外、333は室内蛍光灯、334は蛍光灯下の室内を示している。   330A is a subject existing in front of the main subject 330, 331 is the sun, 332 is outdoors under sunlight, 333 is an indoor fluorescent lamp, and 334 is an indoor under the fluorescent lamp.

310CはAFセンサ410Aの視野を、310DはAFセンサ410Bの視野を示している。図4Aでは、両視野310C,310Dは完全に重なり合っている。   310C shows the field of view of the AF sensor 410A, and 310D shows the field of view of the AF sensor 410B. In FIG. 4A, both visual fields 310C and 310D are completely overlapped.

320Cは光源検知センサ420Aの視野、320Dは光源検知センサ420Bの視野である。図4Aでは、両視野320C,320Dは完全に重なり合っている。   320C is a field of view of the light source detection sensor 420A, and 320D is a field of view of the light source detection sensor 420B. In FIG. 4A, both visual fields 320C and 320D are completely overlapped.

ここで、主被写体330である人物は室内で、窓辺におり、正面を向いた顔は蛍光灯の光で照らされている。   Here, the person who is the main subject 330 is indoors, on the window, and the face facing the front is illuminated by the light of the fluorescent lamp.

このとき、光源検知センサ420A,420Bのうちテーパがない中央領域420AC,420BCにて主被写体330からの反射光が受光される。つまり、光源検知センサ420A,420Bの視野320C,320DとAFセンサ410A,410Bの視野310C,310Dには殆どパララックスがない。このため、光源検知センサ420A,420BとAFセンサ410A,410Bからは、主被写体の殆ど同じ部分からの反射光に対応した出力が得られる。   At this time, the reflected light from the main subject 330 is received by the central regions 420AC and 420BC having no taper among the light source detection sensors 420A and 420B. In other words, the visual fields 320C and 320D of the light source detection sensors 420A and 420B and the visual fields 310C and 310D of the AF sensors 410A and 410B have almost no parallax. For this reason, the light source detection sensors 420A and 420B and the AF sensors 410A and 410B can obtain outputs corresponding to the reflected light from almost the same part of the main subject.

図8Bは、主被写体330に対して後ピン状態となったときのセンサ配置とA像信号411A及びB像信号411Bを示している。この図において、A像信号411A及びB像信号411Bの重心を通る線422A,422Bはそれぞれ、中心軸421A,421Bから外側へずれている。このときにA像信号411A及びB像信号411Bの重心間の間隔はδ1(δ1>Δ)である。   FIG. 8B shows the sensor arrangement and the A image signal 411A and the B image signal 411B when the main object 330 is in the rear pin state. In this figure, lines 422A and 422B passing through the centroids of the A image signal 411A and the B image signal 411B are shifted outward from the central axes 421A and 421B, respectively. At this time, the interval between the centroids of the A image signal 411A and the B image signal 411B is δ1 (δ1> Δ).

また、この後ピン状態では、図4Cに示すように、AFセンサ410Aの視野310CとAFセンサ410Bの視野310Dとが、図4Aに示した位置よりもそれぞれ右方向及び左方向にずれた状態で重なり合っている。また、光源検知センサ420Aの視野320C及び光源検知センサ420Bの視野320Dも、図4Aに示した位置よりもそれぞれ右方向及び左方向にずれた状態で重なり合っている。   Further, in the subsequent pin state, as shown in FIG. 4C, the visual field 310C of the AF sensor 410A and the visual field 310D of the AF sensor 410B are shifted to the right and left, respectively, from the position shown in FIG. 4A. They are overlapping. In addition, the field of view 320C of the light source detection sensor 420A and the field of view 320D of the light source detection sensor 420B are also overlapped in a state shifted from the position shown in FIG. 4A in the right and left directions, respectively.

このとき、光源検知センサ420A,420Bのうち中央領域420AC,420BCと外側領域420AO,420BOとで主被写体330からの反射光が受光される。ここで、内側領域420AI,420BIに対応する視野部分は主被写体330から外れるが、内側領域420AI,420BIがテーパ形状を有し、その受光面積が小さいので、屋外332を照らす太陽光の影響が少なくなる。   At this time, the reflected light from the main subject 330 is received by the central regions 420AC and 420BC and the outer regions 420AO and 420BO of the light source detection sensors 420A and 420B. Here, the field of view corresponding to the inner areas 420AI and 420BI deviates from the main subject 330, but the inner areas 420AI and 420BI have a tapered shape and the light receiving area is small, so the influence of sunlight illuminating the outdoors 332 is small. Become.

図8Cは、主被写体330に対して前ピン状態となったときのセンサ配置とA像信号411A及びB像信号411Bを示している。この図において、A像信号411A及びB像信号411Bの重心を通る線422A,422Bはそれぞれ、中心軸421A,421Bから内側へずれている。このときにA像信号411A及びB像信号411Bの重心間の間隔はδ2(δ2<Δ)である。   FIG. 8C shows the sensor arrangement and the A image signal 411A and the B image signal 411B when the main object 330 is in the front pin state. In this figure, lines 422A and 422B passing through the centroids of the A image signal 411A and the B image signal 411B are shifted inward from the central axes 421A and 421B, respectively. At this time, the interval between the centroids of the A image signal 411A and the B image signal 411B is δ2 (δ2 <Δ).

また、この前ピン状態では、図4Eに示すように、AFセンサ410Aの視野310CとAFセンサ410Bの視野310Dとが、図4Aに示した位置よりもそれぞれ左方向及び右方向にずれた状態で重なり合っている。また、光源検知センサ420Aの視野320C及び光源検知センサ420Bの視野320Dも、図4Aに示した位置よりもそれぞれ左方向及び右方向にずれた状態で重なり合っている。   In the front pin state, as shown in FIG. 4E, the visual field 310C of the AF sensor 410A and the visual field 310D of the AF sensor 410B are shifted in the left direction and the right direction from the position shown in FIG. 4A, respectively. They are overlapping. Also, the field of view 320C of the light source detection sensor 420A and the field of view 320D of the light source detection sensor 420B are overlapped in a state of being shifted leftward and rightward from the position shown in FIG. 4A, respectively.

このとき、光源検知センサ420A,420Bのうち中央領域420AC,420BCと内側領域420AI,420BIとで主被写体330からの反射光が受光される。ここで、外側領域420AO,420BOに対応する視野部分は主被写体330から外れるが、外側領域420AO,420BOがテーパ形状を有し、その受光面積が小さいので、屋外332を照らす太陽光の影響が少なくなる。   At this time, the reflected light from the main subject 330 is received by the central regions 420AC and 420BC and the inner regions 420AI and 420BI of the light source detection sensors 420A and 420B. Here, the field of view corresponding to the outer areas 420AO and 420BO deviates from the main subject 330, but the outer areas 420AO and 420BO have a tapered shape and the light receiving area is small, so that the influence of sunlight illuminating the outdoors 332 is small. Become.

以上のことから、光源検知センサ420A,420Bからの出力は、ほぼ主被写体330からの反射光によるものとなり、デフォーカス状態においても、主被写体330を照らす光源に関する情報を正確に取得することができる。   From the above, the output from the light source detection sensors 420A and 420B is substantially due to the reflected light from the main subject 330, and information regarding the light source that illuminates the main subject 330 can be accurately acquired even in the defocused state. .

なお、本実施例では、AFセンサの信号読み出し領域に対応した光源検知センサの信号読み出し領域を選択する動作は行わない。   In this embodiment, the operation for selecting the signal readout region of the light source detection sensor corresponding to the signal readout region of the AF sensor is not performed.

図9には、本実施例の光源検知センサ420Aの出力特性を示す。横軸は、光源検知センサ420Aの外側端部420ALの位置を原点とし、発光量が一定のスリット光源430を図中の矢印方向に動かしたときの変位を示す。また、縦軸は光源検知センサ420Aからの出力(センサ出力)である。   FIG. 9 shows the output characteristics of the light source detection sensor 420A of this embodiment. The horizontal axis represents the displacement when the slit light source 430 having a constant light emission amount is moved in the direction of the arrow in the drawing with the position of the outer end 420AL of the light source detection sensor 420A as the origin. The vertical axis represents the output (sensor output) from the light source detection sensor 420A.

センサ出力は、外側端部420ALでのゼロから中央領域420ACに向かって徐々に増加し、中央領域420ACに到達した後(変位Xa)から中央領域420ACの終わり(変位Xb)までフラットな値Icとなる。そして、中央領域420ACの終わりから内側端部420ARに向かって徐々に減少し、内側端部420ARでゼロとなる。   The sensor output gradually increases from zero at the outer end 420AL toward the central region 420AC, and after reaching the central region 420AC (displacement Xa) to a flat value Ic from the end of the central region 420AC (displacement Xb). Become. Then, it gradually decreases from the end of the central region 420AC toward the inner end portion 420AR, and becomes zero at the inner end portion 420AR.

このような出力特性は、光源検知センサ420Bについても同様である。また、この出力特性は、可視光成分に分光感度を有する光源検知センサが可視光成分を受光した場合でも、赤外光成分に分光感度を有する光源検知センサが赤外光成分を受光した場合でも同様である。   Such output characteristics are the same for the light source detection sensor 420B. In addition, this output characteristic is obtained even when a light source detection sensor having a spectral sensitivity in the visible light component receives a visible light component, or when a light source detection sensor having a spectral sensitivity in an infrared light component receives an infrared light component. It is the same.

そして、光源検知センサ420Aに図5、図6又は図7に示した分光感度特性1,2のうち一方を、光源検知センサ420Bに他方を付加することで、被写体を照らす光源に関する正確な情報を取得することができる。   Then, by adding one of the spectral sensitivity characteristics 1 and 2 shown in FIG. 5, FIG. 6 or FIG. 7 to the light source detection sensor 420A and the other to the light source detection sensor 420B, accurate information regarding the light source that illuminates the subject can be obtained. Can be acquired.

次に、本発明の実施例3であるカメラシステムについて説明する。カメラシステムの基本構成や動作は実施例1と同様であるため、ここでは、実施例1と異なる部分についてのみ説明する。なお、実施例1と共通する構成要素には、実施例1と同符号を付す。   Next, a camera system that is Embodiment 3 of the present invention will be described. Since the basic configuration and operation of the camera system are the same as those in the first embodiment, only the parts different from the first embodiment will be described here. In addition, the same code | symbol as Example 1 is attached | subjected to the component which is common in Example 1. FIG.

図10には、焦点検出ユニット121のセンサユニット167におけるAFセンサ510A,510B及び光源検知センサ520A,520Bの配置を示す。AFセンサ510A,510B及び光源検知センサ520A,520Bは、単一の半導体基板上に設けられている。   FIG. 10 shows the arrangement of the AF sensors 510A and 510B and the light source detection sensors 520A and 520B in the sensor unit 167 of the focus detection unit 121. The AF sensors 510A and 510B and the light source detection sensors 520A and 520B are provided on a single semiconductor substrate.

同図に示すように、AFセンサ510A,510Bは、複数の受光素子を1次元方向に並べたラインセンサとして構成される。AFセンサ510A上には、一対の物体像(主被写体を含む物体の一対の像)のうちA像が形成されている。また、AFセンサ510B上には、該一対の物体像のうちB像が形成される。焦点検出ユニット121は、AFセンサ510A,510B上に形成されたA像及びB像の間隔を検出することによって、結像光学系103のデフォーカス量を検出する。   As shown in the figure, AF sensors 510A and 510B are configured as line sensors in which a plurality of light receiving elements are arranged in a one-dimensional direction. An A image of a pair of object images (a pair of images of an object including the main subject) is formed on the AF sensor 510A. Further, a B image of the pair of object images is formed on the AF sensor 510B. The focus detection unit 121 detects the defocus amount of the imaging optical system 103 by detecting the interval between the A and B images formed on the AF sensors 510A and 510B.

光源に関する情報を得るために設けられた光源検知センサ520A,520Bは、2次元的な広がりを有する単一の受光素子を用いて構成されている。光源検知センサ520A,520Bはそれぞれ、AFセンサ510A,510Bに平行に並んで配置されている。   The light source detection sensors 520A and 520B provided for obtaining information on the light source are configured using a single light receiving element having a two-dimensional extent. The light source detection sensors 520A and 520B are arranged in parallel with the AF sensors 510A and 510B, respectively.

光源検知センサ520A,520Bの受光領域は、長手方向における中央部において、長手方向に直交する方向の長さ(高さ)が一定である中央領域520AC,520BCを有する。ここにいう長手方向は、AFセンサ510A,510Bの受光素子が並ぶ図中の左右方向(第1方向)であり、長手方向に直交する方向(第2方向)は、図中の上下方向である。   The light receiving regions of the light source detection sensors 520A and 520B have central regions 520AC and 520BC in which the length (height) in the direction orthogonal to the longitudinal direction is constant at the central portion in the longitudinal direction. The longitudinal direction here is the left-right direction (first direction) in the figure in which the light receiving elements of the AF sensors 510A and 510B are arranged, and the direction orthogonal to the longitudinal direction (second direction) is the up-down direction in the figure. .

また、光源検知センサ520A,520Bの受光領域は、中央領域520AC,520BCよりも内側において、端部に向かって徐々に細くなるテーパ形状部が長手方向に直交する方向に3つ形成された内側領域520AI,520BIを有する。さらに、該受光領域は、中央領域520AC,520BCよりも外側において、端部に向かって徐々に細くなるテーパ形状部が長手方向に直交する方向に3つ形成された外側領域520AO,520BOを有する。   In addition, the light receiving areas of the light source detection sensors 520A and 520B are the inner areas in which three tapered portions that gradually narrow toward the end are formed in the direction perpendicular to the longitudinal direction inside the central areas 520AC and 520BC. 520AI, 520BI. Further, the light receiving region has outer regions 520AO and 520BO in which three tapered portions that gradually narrow toward the end portion are formed outside the central regions 520AC and 520BC in a direction perpendicular to the longitudinal direction.

つまり、光源検知センサ520A,520Bは、長手方向中央部の受光領域の高さに比べて、端部側の受光領域の高さ(分割された受光領域の合計高さ)が小さい形状を有する。さらに言えば、光源検知センサ520A,520Bは、長手方向端部側の受光領域の高さ(分割された受光領域の合計高さ)が、端部に近いほど小さくなる形状を有する。   That is, the light source detection sensors 520A and 520B have a shape in which the height of the light receiving area on the end side (the total height of the divided light receiving areas) is smaller than the height of the light receiving area at the center in the longitudinal direction. Furthermore, the light source detection sensors 520A and 520B have a shape in which the height of the light receiving region on the side in the longitudinal direction (the total height of the divided light receiving regions) becomes smaller as it approaches the end.

AFセンサ510A,510Bに対する光源検知センサ520A,520Bの長手方向の長さ及び長手方向に直交する方向の長さについては、実施例2と同様である。   The length in the longitudinal direction of the light source detection sensors 520A and 520B relative to the AF sensors 510A and 510B and the length in the direction perpendicular to the longitudinal direction are the same as in the second embodiment.

また、AFセンサ510Aと光源検知センサ520Aは、それらの列方向及び長手方向の中心(中心軸521A)が互いに一致するように配置されている。また、AFセンサ510Bと光源検知センサ520Bは、それらの列方向及び長手方向の中心(中心軸521B)が互いに一致するように配置されている。   In addition, the AF sensor 510A and the light source detection sensor 520A are arranged such that the centers in the column direction and the longitudinal direction (center axis 521A) coincide with each other. In addition, the AF sensor 510B and the light source detection sensor 520B are arranged such that the center in the column direction and the longitudinal direction (center axis 521B) coincide with each other.

511AはAFセンサ510A上に形成されたA像の光電変換により得られるA像信号である。511BはAFセンサ510B上に形成されたB像の光電変換により得られるB像信号である。なお、実際には、AFセンサ510A,510B及び光源検知センサ520A,520B上には、図4Aに示す焦点検出領域335に含まれる主被写体330とその背景とにより構成される被写界物体の一対の像が形成される。ただし、図10に示すA像信号511A及びB像信号511Bは、主被写体330の一対の像が光電変換されて得られた信号を示している。   Reference numeral 511A denotes an A image signal obtained by photoelectric conversion of an A image formed on the AF sensor 510A. Reference numeral 511B denotes a B image signal obtained by photoelectric conversion of the B image formed on the AF sensor 510B. Actually, a pair of object objects constituted by the main subject 330 and its background included in the focus detection area 335 shown in FIG. 4A are placed on the AF sensors 510A and 510B and the light source detection sensors 520A and 520B. Is formed. However, the A image signal 511A and the B image signal 511B illustrated in FIG. 10 indicate signals obtained by photoelectrically converting a pair of images of the main subject 330.

図10では、実施例1の図4Aに示すように、撮像画面(ファインダ画面)の中央に位置する主被写体330にピントが合った状態を示し、A像信号511A及びB像信号511Bのそれぞれの重心が上記中心軸521A,521Bに一致している。このときのA像信号511A及びB像信号511Bの重心間の間隔はΔである。   In FIG. 10, as shown in FIG. 4A of the first embodiment, the main subject 330 located at the center of the imaging screen (finder screen) is in focus, and each of the A image signal 511A and the B image signal 511B is shown. The center of gravity coincides with the central axes 521A and 521B. At this time, the distance between the centroids of the A image signal 511A and the B image signal 511B is Δ.

後ピン状態及び前ピン状態においては、実施例1と同様に、A像信号511A及びB像信号511Bのそれぞれの重心が中心軸521A,521Bに対してずれる。そして、本実施例でも、後ピン状態及び前ピン状態のそれぞれにおいて、光源検知センサ520A,520Bの内側領域520AI,520BI及び外側領域520AO,520BOに対応する視野部分が主被写体330から外れる。しかし、該領域の受光面積は小さいので、屋外を照らす太陽光の影響は少ない。   In the rear pin state and the front pin state, as in the first embodiment, the respective center of gravity of the A image signal 511A and the B image signal 511B are shifted from the central axes 521A and 521B. Also in this embodiment, the visual field portions corresponding to the inner regions 520AI and 520BI and the outer regions 520AO and 520BO of the light source detection sensors 520A and 520B are removed from the main subject 330 in each of the rear pin state and the front pin state. However, since the light receiving area of the region is small, the influence of sunlight illuminating the outdoors is small.

これにより、光源検知センサ520A,520Bからの出力は、ほぼ主被写体330からの反射光によるものとなり、デフォーカス状態においても、主被写体330を照らす光源に関する情報を正確に取得することができる。   As a result, the outputs from the light source detection sensors 520A and 520B are substantially due to the reflected light from the main subject 330, and information regarding the light source that illuminates the main subject 330 can be accurately acquired even in the defocused state.

なお、本実施例では、AFセンサの信号読み出し領域に対応した光源検知センサの信号読み出し領域を選択する動作は行わない。   In this embodiment, the operation for selecting the signal readout region of the light source detection sensor corresponding to the signal readout region of the AF sensor is not performed.

図11には、本実施例の光源検知センサ520Aの出力特性を示す。横軸は、光源検知センサ520Aの外側端部520ALの位置を原点とし、発光量が一定のスリット光源530を図中の矢印方向に動かしたときの変位を示す。また、縦軸は光源検知センサ520Aからの出力(センサ出力)である。   FIG. 11 shows the output characteristics of the light source detection sensor 520A of this embodiment. The horizontal axis shows the displacement when the slit light source 530 having a constant light emission amount is moved in the direction of the arrow in the figure, with the position of the outer end 520AL of the light source detection sensor 520A as the origin. The vertical axis represents the output (sensor output) from the light source detection sensor 520A.

センサ出力は、外側端部520ALでのゼロから中央領域520ACに向かって徐々に増加し、中央領域520ACに到達した後(変位Xa)から中央領域520ACの終わり(変位Xb)までフラットな値Icとなる。そして、中央領域520ACの終わりから内側端部520ARに向かって徐々に減少し、内側端部520ARでゼロとなる。   The sensor output gradually increases from zero at the outer end 520AL toward the central region 520AC, and reaches a flat value Ic from reaching the central region 520AC (displacement Xa) to the end of the central region 520AC (displacement Xb). Become. Then, it gradually decreases from the end of the central region 520AC toward the inner end portion 520AR, and becomes zero at the inner end portion 520AR.

このような出力特性は、光源検知センサ520Bについても同様である。また、この出力特性は、可視光成分に分光感度を有する光源検知センサが可視光成分を受光した場合でも、赤外光成分に分光感度を有する光源検知センサが赤外光成分を受光した場合でも同様である。   Such output characteristics are the same for the light source detection sensor 520B. In addition, this output characteristic is obtained even when a light source detection sensor having a spectral sensitivity in the visible light component receives a visible light component, or when a light source detection sensor having a spectral sensitivity in an infrared light component receives an infrared light component. It is the same.

そして、光源検知センサ520Aに図5、図6又は図7に示した分光感度特性1,2のうち一方を、光源検知センサ520Bに他方を付加することで、被写体を照らす光源に関する正確な情報を取得することができる。   Then, by adding one of the spectral sensitivity characteristics 1 and 2 shown in FIG. 5, FIG. 6 or FIG. 7 to the light source detection sensor 520A and the other to the light source detection sensor 520B, accurate information regarding the light source that illuminates the subject can be obtained. Can be acquired.

以上、本発明の好ましい実施例について説明したが、本発明は各実施例に限られず、請求項の内容の範囲内で種々の形態で実施可能である。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to the embodiments, and can be implemented in various forms within the scope of the contents of the claims.

例えば、上記各実施例では、光源検知センサを一対設けた場合について説明した。しかし、前述した受光深さ方向において分光感度特性が異なる受光素子を用いる等して、1つの光源検知センサのみ設けるようにしてもよい。   For example, in each of the above embodiments, the case where a pair of light source detection sensors is provided has been described. However, only one light source detection sensor may be provided by using, for example, a light receiving element having different spectral sensitivity characteristics in the light receiving depth direction described above.

また、上記実施例2,3では、長手方向端部に向かって徐々に高さが小さくなる光源検知センサを用いた。しかし、端部側の受光領域の高さを中央部の受光領域の高さより低く、かつ一定としてもよい。   Moreover, in the said Example 2, 3, the light source detection sensor which height becomes small gradually toward a longitudinal direction edge part was used. However, the height of the light receiving region on the end side may be lower than the height of the light receiving region at the center and constant.

また、撮像素子106とは別に焦点検出ユニット121(センサユニット167)を設け、該センサユニット167に一対のAFセンサと一対の光源検知センサを設けた場合について説明した。しかし、撮像素子106上に一対のAFセンサと光源検知センサに相当する受光領域を設定して、位相差検出と光源判定とを行うようにしてもよい。   Further, a case has been described in which the focus detection unit 121 (sensor unit 167) is provided separately from the image sensor 106, and the sensor unit 167 is provided with a pair of AF sensors and a pair of light source detection sensors. However, a light receiving area corresponding to a pair of AF sensors and a light source detection sensor may be set on the image sensor 106 to perform phase difference detection and light source determination.

また、上記実施例では、焦点検出結果としてのデフォーカス量を補正する場合について説明したが、本発明はこれに限られない。例えば、デフォーカス量に基づいて算出されるフォーカスレンズ駆動量を補正することもできる。すなわち、補正の対象は、デフォーカス量やフォーカスレンズ駆動量といったフォーカス制御に用いられる情報であればどの情報であってもよい。   In the above embodiment, the case where the defocus amount as the focus detection result is corrected has been described. However, the present invention is not limited to this. For example, the focus lens drive amount calculated based on the defocus amount can be corrected. That is, the correction target may be any information as long as it is information used for focus control such as a defocus amount and a focus lens drive amount.

また、上記実施例では、一眼レフカメラについて説明したが、本発明は、レンズ交換タイプのビデオカメラであって、位相差検出方式AFを行うものにも適用することができる。   In the above embodiments, a single-lens reflex camera has been described. However, the present invention can also be applied to a lens exchange type video camera that performs phase difference detection AF.

本発明の実施例1であるカメラシステムの構成を示す概略図。1 is a schematic diagram illustrating a configuration of a camera system that is Embodiment 1 of the present invention. FIG. 実施例1のカメラシステムの電気的構成を示すブロック図。1 is a block diagram showing an electrical configuration of a camera system according to Embodiment 1. FIG. 実施例1のカメラシステムに設けられた焦点検出ユニット内のセンサユニットの電気的構成を示すブロック図。FIG. 3 is a block diagram showing an electrical configuration of a sensor unit in a focus detection unit provided in the camera system of Embodiment 1. 実施例1のカメラシステムの撮像画面(合焦状態)を示す模式図。FIG. 3 is a schematic diagram illustrating an imaging screen (focused state) of the camera system according to the first embodiment. 実施例1のセンサユニットにおけるセンサ配置と図4Aに示す状態での像信号を示す模式図。FIG. 4 is a schematic diagram showing sensor arrangement in the sensor unit of Example 1 and an image signal in the state shown in FIG. 4A. 実施例1のカメラシステムの撮像画面(後ピン状態)を示す模式図。FIG. 3 is a schematic diagram illustrating an imaging screen (rear pin state) of the camera system according to the first embodiment. 実施例1のセンサユニットにおけるセンサ配置と図4Cに示す状態での像信号を示す模式図。The schematic diagram which shows the sensor arrangement | positioning in the sensor unit of Example 1, and the image signal in the state shown to FIG. 4C. 実施例1のカメラシステムの撮像画面(前ピン状態)を示す模式図。FIG. 3 is a schematic diagram illustrating an imaging screen (front pin state) of the camera system according to the first embodiment. 実施例1のセンサユニットにおけるセンサ配置と図4Eに示す状態での像信号を示す模式図。The schematic diagram which shows the sensor arrangement | positioning in the sensor unit of Example 1, and the image signal in the state shown to FIG. 4E. 実施例1の光源検知センサの分光感度特性例を示す図。FIG. 3 is a diagram illustrating an example of spectral sensitivity characteristics of the light source detection sensor according to the first embodiment. 実施例1の光源検知センサの分光感度特性例を示す図。FIG. 3 is a diagram illustrating an example of spectral sensitivity characteristics of the light source detection sensor according to the first embodiment. 実施例1の光源検知センサの分光感度特性例を示す図。FIG. 3 is a diagram illustrating an example of spectral sensitivity characteristics of the light source detection sensor according to the first embodiment. 本発明の実施例2であるカメラシステムに設けられた焦点検出ユニット内のセンサユニットにおけるセンサ配置と合焦状態での像信号を示す模式図。FIG. 9 is a schematic diagram illustrating sensor arrangement and image signals in a focused state in a sensor unit in a focus detection unit provided in a camera system that is Embodiment 2 of the present invention. 実施例2のセンサユニットにおけるセンサ配置と後ピン状態での像信号を示す模式図。FIG. 6 is a schematic diagram showing sensor arrangement and image signals in a rear pin state in the sensor unit of Embodiment 2. 実施例2のセンサユニットにおけるセンサ配置と前ピン状態での像信号を示す模式図。FIG. 6 is a schematic diagram illustrating sensor arrangement in the sensor unit of Example 2 and an image signal in a front pin state. 実施例2の光源検知センサと出力特性を示す図。FIG. 6 is a diagram illustrating a light source detection sensor and output characteristics of Example 2. 本発明の実施例3であるカメラシステムに設けられた焦点検出ユニット内のセンサユニットにおけるセンサ配置と合焦状態での像信号を示す模式図。FIG. 10 is a schematic diagram illustrating sensor arrangement and image signals in a focused state in a sensor unit in a focus detection unit provided in a camera system that is Embodiment 3 of the present invention. 実施例3の光源検知センサと出力特性を示す図。FIG. 10 is a diagram illustrating a light source detection sensor and output characteristics of Example 3. 実施例1におけるカメラシステムの動作を示すフローチャート。3 is a flowchart showing the operation of the camera system in Embodiment 1. 従来のカメラシステムの撮像画面(合焦状態)を示す模式図。The schematic diagram which shows the imaging screen (focused state) of the conventional camera system. 従来のカメラシステムに設けられた焦点検出装置におけるセンサ配置と図13Aに示す状態での像信号を示す模式図。The schematic diagram which shows the sensor arrangement | positioning in the focus detection apparatus provided in the conventional camera system, and the image signal in the state shown to FIG. 13A. 従来のカメラシステムの撮像画面(後ピン状態)を示す模式図。The schematic diagram which shows the imaging screen (rear pin state) of the conventional camera system. 従来の焦点検出装置におけるセンサ配置と図13Cに示す状態での像信号を示す模式図。The schematic diagram which shows the sensor arrangement | positioning in the conventional focus detection apparatus, and the image signal in the state shown to FIG. 13C. 従来のカメラシステムの撮像画面(前ピン状態)を示す模式図。The schematic diagram which shows the imaging screen (front pin state) of the conventional camera system. 従来の焦点検出装置におけるセンサ配置と図13Eに示す状態での像信号を示す模式図。The schematic diagram which shows the sensor arrangement | positioning in the conventional focus detection apparatus, and the image signal in the state shown to FIG. 13E.

符号の説明Explanation of symbols

102 交換レンズ
103 結像光学系
106 撮像素子
121 焦点検出ユニット
135 カメラシステム制御回路
140 AF制御回路
167 センサユニット
310A,310B,410A,410B,510A,510B AFセンサ
320A,320B,420A,420B,520A,520B 光源検知センサ
311A,311B,411A,411B,511A,511B 像信号
DESCRIPTION OF SYMBOLS 102 Interchangeable lens 103 Imaging optical system 106 Image pick-up element 121 Focus detection unit 135 Camera system control circuit 140 AF control circuit 167 Sensor unit 310A, 310B, 410A, 410B, 510A, 510B AF sensor 320A, 320B, 420A, 420B, 520A, 520B Light source detection sensor 311A, 311B, 411A, 411B, 511A, 511B Image signal

Claims (3)

それぞれ第1方向に並んだ複数の受光素子により構成され、被写界からの光束により形成された一対の物体像に応じた信号を生成する一対の第1受光センサと、
前記物体像を形成する光束の波長領域に応じた信号を生成する一対の第2受光センサと、
前記一対の第1受光センサからの信号及び前記一対の第2受光センサからの信号に基づいてフォーカス制御に用いる情報を生成するフォーカス制御手段とを有し、
前記第2受光センサは、前記第1方向に並んだ複数の受光素子により構成されており、
前記第1受光センサ及び前記第2受光センサは、それぞれの前記第1方向における中心が互いに一致するように並列配置され、
前記フォーカス制御手段は、前記第1受光センサにより生成された一対の物体像の重心間の距離に基づいて、前記第2受光センサを構成する複数の受光素子のうち前記波長領域に応じた信号を読み出す受光素子を変更可能であって、前記重心間の距離が第1の値より大きい第2の値の場合は、前記第1の値の場合と比較して、前記第2受光センサを構成する複数の受光素子のうち、より外側に位置する受光素子を含む受光素子からの前記信号を読み出すことを特徴とする焦点検出装置。
A pair of first light receiving sensors each of which is composed of a plurality of light receiving elements arranged in the first direction and generates a signal corresponding to a pair of object images formed by a light beam from the object field;
A pair of second light receiving sensors for generating a signal corresponding to a wavelength region of a light beam forming the object image;
Focus control means for generating information used for focus control based on signals from the pair of first light receiving sensors and signals from the pair of second light receiving sensors;
The second light receiving sensor is composed of a plurality of light receiving elements arranged in the first direction,
The first light receiving sensor and the second light receiving sensor are arranged in parallel so that the centers in the first direction coincide with each other,
The focus control means outputs a signal corresponding to the wavelength region among a plurality of light receiving elements constituting the second light receiving sensor based on a distance between the centroids of the pair of object images generated by the first light receiving sensor. When the light receiving element to be read can be changed and the distance between the centroids is a second value larger than the first value, the second light receiving sensor is configured as compared with the case of the first value. A focus detection apparatus that reads the signal from a light receiving element including a light receiving element located on the outer side among the plurality of light receiving elements .
前記第2受光センサを構成する複数の受光素子のうち、前記第1方向における中央部の受光素子の大きさに比べて該第1方向における端部側の受光素子の大きさが小さいことを特徴とする請求項1に記載の焦点検出装置。   Among the plurality of light receiving elements constituting the second light receiving sensor, the size of the light receiving element on the end side in the first direction is smaller than the size of the light receiving element in the center in the first direction. The focus detection apparatus according to claim 1. 請求項1又は2に記載の焦点検出装置と、
被写体像を画像信号に変換する撮像手段とを有し、
換レンズを着脱可能であることを特徴とする撮像装置。
The focus detection device according to claim 1 or 2 ,
Imaging means for converting a subject image into an image signal,
Imaging device, which is a detachable replacement lens.
JP2006348698A 2006-12-25 2006-12-25 Focus detection apparatus and imaging apparatus Expired - Fee Related JP4845720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006348698A JP4845720B2 (en) 2006-12-25 2006-12-25 Focus detection apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006348698A JP4845720B2 (en) 2006-12-25 2006-12-25 Focus detection apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2008158362A JP2008158362A (en) 2008-07-10
JP4845720B2 true JP4845720B2 (en) 2011-12-28

Family

ID=39659311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006348698A Expired - Fee Related JP4845720B2 (en) 2006-12-25 2006-12-25 Focus detection apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP4845720B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5704699B2 (en) * 2011-02-22 2015-04-22 株式会社タムロン Rear focus adjustment system for infrared camera and rear focus adjustment method for infrared camera

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0334369A (en) * 1988-04-11 1991-02-14 Canon Inc Optical sensor
JP3710864B2 (en) * 1996-01-29 2005-10-26 コニカミノルタフォトイメージング株式会社 camera
JP2000338390A (en) * 1999-05-25 2000-12-08 Olympus Optical Co Ltd Range finder
JP4612869B2 (en) * 2005-06-08 2011-01-12 キヤノン株式会社 Focus detection device, imaging device, and focusing method

Also Published As

Publication number Publication date
JP2008158362A (en) 2008-07-10

Similar Documents

Publication Publication Date Title
KR100875938B1 (en) Optics and Beam Splitters
JP4720508B2 (en) Imaging device and imaging apparatus
JP4867566B2 (en) Imaging device, focus detection device, and imaging device
JP4414486B2 (en) Imaging device and camera
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
JP5097275B2 (en) Imaging unit
US20110019028A1 (en) Image capturing apparatus and image processing method
JP5076416B2 (en) Imaging device and imaging apparatus
JP4612869B2 (en) Focus detection device, imaging device, and focusing method
JP4983271B2 (en) Imaging device
US7355154B2 (en) Image sensing apparatus with movable light flux splitter and control method thereof
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP2006126652A (en) Imaging apparatus
JP2010113272A (en) Imaging apparatus
JP2014048329A (en) Imaging device
JP2013097154A (en) Distance measurement device, imaging apparatus, and distance measurement method
JP2006071741A (en) Focus detecting device
JP4845720B2 (en) Focus detection apparatus and imaging apparatus
JP2014165778A (en) Solid state image sensor, imaging device and focus detector
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2003322791A (en) Focus adjusting device, imaging device, and optical equipment
JP2008129360A (en) Focus detector and imaging apparatus
JP2011175172A (en) Digital camera
JP2007187806A (en) Imaging apparatus
JP2005300756A (en) Solid imaging apparatus and solid imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees