WO2019058972A1 - 撮像装置及び撮像装置の合焦制御方法 - Google Patents

撮像装置及び撮像装置の合焦制御方法 Download PDF

Info

Publication number
WO2019058972A1
WO2019058972A1 PCT/JP2018/032913 JP2018032913W WO2019058972A1 WO 2019058972 A1 WO2019058972 A1 WO 2019058972A1 JP 2018032913 W JP2018032913 W JP 2018032913W WO 2019058972 A1 WO2019058972 A1 WO 2019058972A1
Authority
WO
WIPO (PCT)
Prior art keywords
image sensor
focus lens
focusing
lens
drive
Prior art date
Application number
PCT/JP2018/032913
Other languages
English (en)
French (fr)
Inventor
和田 哲
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019543538A priority Critical patent/JP6836656B2/ja
Priority to CN201880060179.6A priority patent/CN111095066B/zh
Publication of WO2019058972A1 publication Critical patent/WO2019058972A1/ja
Priority to US16/824,072 priority patent/US10785402B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/04Focusing arrangements of general interest for cameras, projectors or printers adjusting position of image plane without moving lens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses

Definitions

  • the present invention relates to an imaging apparatus and a focusing control method thereof.
  • the AF (autofocus / autofocus) of the imaging device is performed by detecting a focus state using phase difference, contrast, and the like, and moving a focus lens based on the detection result.
  • infrared rays, ultrasonic waves, or the like are irradiated to measure the distance to the subject, and the focus lens is moved based on the measurement results.
  • Patent Documents 1 and 2 propose a method of moving an image sensor so as to cancel an overshoot when the focus lens is stopped.
  • Patent Literatures 1 and 2 In order to make AF faster by the methods of Patent Literatures 1 and 2, it is necessary to move the focus lens faster. However, there is a limit to the speed that can be increased. In addition, in order to move the focusing lens at a higher speed, a large motor and a large amount of power are required, and there is a problem that the size of the apparatus is increased and the power consumption is increased.
  • the present invention has been made in view of such circumstances, and it is an object of the present invention to provide an imaging device capable of speeding up AF and a focusing control method thereof.
  • the means for solving the above problems are as follows.
  • An imaging lens having a focus lens, a focus lens drive unit for driving the focus lens, an image sensor, an image sensor movement drive unit for moving the image sensor along the optical axis, and a focus on an object
  • the focus lens drive control unit controls the drive of the focus lens based on the drive target setting unit that sets the drive target of the focus lens, the drive target set by the drive target setting unit, and the focus lens drive control unit
  • the image sensor movement control unit moves the image sensor to focus before stopping the driving of the image sensor, and moves the image sensor until the focus lens stops after focusing to maintain the in-focus state. apparatus.
  • the image sensor moves before the drive is stopped, and the object is brought into focus early. Even after focusing, the image sensor moves until the focus lens stops, and the in-focus state is maintained. This makes it possible to shorten the time to focus and to speed up the AF.
  • the focus lens drive unit moves the focus lens along the optical axis, the drive target setting unit sets the target position of the focus lens for focusing on the subject as the drive target, and the focus lens drive control unit
  • the focusing of the imaging lens is performed by moving the focusing lens along the optical axis.
  • the drive target is set as a target position of the focus lens for focusing on the subject.
  • the focus lens drive control unit moves the focus lens to the target position.
  • the image sensor movement control unit moves the image sensor for focusing before the focus lens reaches the target position. After focusing, the image sensor is moved to follow or synchronize with the movement of the focus lens, and the in-focus state is maintained.
  • the passive or active autofocus sensor is provided, and the drive target of the focus lens for focusing on the subject is set based on the output of the autofocus sensor.
  • the phase difference detection autofocus sensor is provided, and the drive target of the focus lens for focusing on the subject is set based on the output of the phase difference detection autofocus sensor.
  • the phase difference detection type autofocus sensor is configured of a plurality of phase difference detection pixels provided on the imaging surface of the image sensor. That is, the focus state is detected by the image plane phase difference method, and the drive target of the focus lens is set based on the detection result.
  • the image plane phase difference method it is possible to directly detect the direction and amount of defocus even while the image sensor is moving. Thereby, control of movement of the image sensor can be further simplified.
  • the reference position of the image sensor is set to the position of the flange back defined by the imaging lens.
  • the optical performance of the imaging lens can be maximized.
  • the position of the flange back includes a position that can be regarded as substantially the position of the flange back, that is, a position that can be regarded as substantially the position of the flange back.
  • the speed is reduced. This can prevent the occurrence of overshoot.
  • the image sensor starts moving before decelerating the focus lens. This makes it possible to shorten the time to focus and to speed up the AF.
  • the movement of the image sensor is started simultaneously with the start of driving of the focus lens.
  • “simultaneous” here includes the range which can be regarded as substantially simultaneous. That is, it includes the case where the movement of the image sensor is started almost simultaneously with the start of driving of the focus lens.
  • the image sensor moves to the end of the movable range and stands by. This makes it possible to shorten the time to focus and to speed up the AF.
  • a combination of an imaging device including an imaging lens having a focus lens, a focus lens drive unit for driving the focus lens, an image sensor, and an image sensor movement drive unit for moving the image sensor along the optical axis A focus control method, comprising the steps of: setting a drive target of a focus lens for focusing on a subject; driving the focus lens based on the set drive target; and stopping the drive of the focus lens. Moving the image sensor to bring it into focus, and moving the image sensor until the focus lens is stopped after focusing to maintain the in-focus state.
  • the image sensor moves before the drive is stopped, and the object is brought into focus early. Even after focusing, the image sensor moves until the focus lens stops, and the in-focus state is maintained. This makes it possible to shorten the time to focus and to speed up the AF.
  • a schematic configuration diagram showing an embodiment of a digital camera to which the present invention is applied A diagram showing a schematic configuration of an image sensor An enlarged view of a part of the imaging surface
  • a diagram showing a schematic configuration of each pixel Block diagram of functions related to AF realized by the camera control unit and the lens control unit Conceptual diagram of movement control of image sensor
  • Flow chart showing processing procedure of AF by digital camera 1 of the present embodiment Flow chart showing the processing procedure of AF control
  • a block diagram showing a modification of functions related to AF realized by the camera control unit and the lens control unit Conceptual diagram of a variation of movement control of an image sensor Conceptual diagram of another modification of movement control of image sensor Conceptual diagram of a variation of movement control of focus lens
  • FIG. 1 is a schematic block diagram showing an embodiment of a digital camera to which the present invention is applied.
  • the digital camera 1 shown in FIG. 1 is a lens-interchangeable digital camera, and includes an interchangeable lens 10 and a camera body 100.
  • the interchangeable lens 10 is an example of an imaging lens.
  • the interchangeable lens 10 is detachably mounted to the camera body 100 via the mount 102.
  • the interchangeable lens 10 is configured by combining a plurality of lenses.
  • the interchangeable lens 10 has a focus lens 12 and a stop 14.
  • the interchangeable lens 10 is focused by moving the focus lens 12 back and forth along the optical axis L. Further, by adjusting the opening amount of the diaphragm 14, the light amount is adjusted.
  • the interchangeable lens 10 includes a focus lens drive unit 16 that drives the focus lens 12 and a focus lens position detection unit 18 that detects the position of the focus lens 12.
  • the focus lens drive unit 16 includes, for example, an actuator such as a linear motor and a drive circuit therefor, and moves the focus lens 12 back and forth along the optical axis L.
  • the focus lens position detection unit 18 is configured of, for example, a photo interrupter and an MR sensor (MR sensor: Magneto Resistive Sensor).
  • the photo interrupter detects that the focus lens 12 is positioned at a predetermined home position.
  • the MR sensor detects the amount of movement of the focus lens 12.
  • the position of the focus lens 12 with respect to the origin position can be detected by detecting that the focus lens 12 is positioned at the origin position by the photo interrupter and detecting the movement amount of the focus lens 12 from the origin position by the MR sensor.
  • the interchangeable lens 10 includes a diaphragm driving unit 20 that drives the diaphragm 14.
  • the diaphragm 14 is configured of, for example, an iris diaphragm.
  • the diaphragm drive unit 20 is configured to include a motor for driving the diaphragm blade of the iris diaphragm and a drive circuit therefor.
  • the interchangeable lens 10 includes a lens control unit 22 that controls the drive of the focus lens drive unit 16 and the diaphragm drive unit 20.
  • the lens control unit 22 is formed of, for example, a microcomputer, and functions as a focus lens drive control unit, an aperture drive control unit, and the like by executing a predetermined control program.
  • the focus lens drive control unit controls the drive of the focus lens drive unit 16.
  • the diaphragm drive control controls the drive of the diaphragm drive unit 20.
  • the lens control unit 22 is communicably connected to the camera control unit 150 of the camera body 100 via a communication terminal (not shown) provided on the mount 102.
  • the camera body 100 includes an image sensor 110, an image sensor movement driver 120, an image sensor position detector 122, an image sensor driver 124, an analog signal processor 126, and an ADC (Analog-to-digital converter) 128.
  • the image sensor 110 receives light passing through the interchangeable lens 10 and captures an image of an object.
  • the image sensor 110 is formed of, for example, a solid-state imaging device such as a charged coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CCD charged coupled device
  • CMOS complementary metal oxide semiconductor
  • the image sensor 110 has a plurality of phase difference detection pixels on its imaging surface.
  • FIG. 2 is a view showing a schematic configuration of an image sensor.
  • the image sensor 110 has an imaging surface 112 in which a large number of pixels are two-dimensionally arranged in the x direction (row direction) and the y direction (column direction).
  • the imaging surface 112 has a plurality of autofocus (AF) areas 114.
  • the AF area 114 is an area set on the imaging surface 112 as an area capable of focusing. In the example shown in FIG. 2, nine AF areas 114 are set at the center of the screen.
  • FIG. 3 is an enlarged view of a part of the imaging surface.
  • Each pixel includes a photoelectric conversion unit, and outputs a signal corresponding to the amount of light received.
  • Each pixel has a color filter of any of R (Red / Red), G (Green / Green), and B (Blue / Blue). Color filters are assigned to each pixel so as to be in a predetermined array.
  • FIG. 3 shows an example of the Bayer arrangement. In the same figure, a letter R is attached to a pixel having an R color filter (R pixel), a letter G is attached to a pixel having a G color filter (G pixel), and a B color filter is provided. The letter B is attached to the pixel (B pixel).
  • the normal pixel 116 and the phase difference detection pixel 118 are disposed.
  • the normal pixel 116 is a pixel for normal imaging.
  • the phase difference detection pixel 118 is a pixel that detects a phase difference.
  • the phase difference detection pixel 118 is an example of a phase difference detection type autofocus sensor.
  • the pixels other than the phase difference detection pixels usually constitute pixels. Usually, only pixels are arranged in the area other than the AF area.
  • phase difference detection pixels 118 are indicated by oblique lines. As shown in the figure, the phase difference detection pixels 118 are regularly arranged on the imaging surface 112.
  • the phase difference detection pixel 118 includes a first phase difference detection pixel 118A and a second phase difference detection pixel 118B.
  • the first phase difference detection pixel 118A and the second phase difference detection pixel 118B are disposed close to each other.
  • the first phase difference detection pixels 118A are arranged at fixed intervals in one of two rows of the same arrangement which are close to each other, and the second phase difference detection pixels 118B are arranged at fixed intervals in the other.
  • An example is shown. In particular, an example in which a specific G pixel of a specific row in which R pixels and G pixels are arranged is used as a phase difference detection pixel is shown.
  • FIG. 4 is a diagram showing a schematic configuration of each pixel.
  • Each pixel has a light shielding film provided with a predetermined opening.
  • FIG. 4 shows the opening of the light shielding film provided in each pixel in white.
  • the normal pixel 116 has a light shielding film whose opening coincides with the center of the photoelectric conversion unit.
  • the normal pixel 116 receives the light flux that has passed through almost all of the pupil region of the interchangeable lens 10.
  • the first phase difference detection pixel 118 ⁇ / b> A has a light shielding film in which the opening is eccentric to the right with respect to the center of the photoelectric conversion unit. As a result, in the first phase difference detection pixel 118 ⁇ / b> A, one light beam of the pair of light beams that has passed through different portions of the pupil region of the interchangeable lens 10 is received.
  • the second phase difference detection pixel 118 ⁇ / b> B has a light shielding film in which the opening is offset to the left with respect to the center of the photoelectric conversion unit.
  • the phase difference amount can be detected by acquiring the signals of the first phase difference detection pixel 118A and the second phase difference detection pixel 118B and comparing the two.
  • the image sensor movement drive unit 120 moves the image sensor 110 back and forth along the optical axis L.
  • the image sensor movement drive unit 120 is configured to include, for example, an actuator such as a piezo actuator and a drive circuit thereof.
  • the image sensor 210 moves within the movable range, and the reference position is set at the center of the movable range.
  • the reference position is set to the position of the flange back defined by the interchangeable lens 10.
  • the interchangeable lens 10 has an optical design based on the position of the flange back. Therefore, by positioning the image sensor 110 at the reference position, the optical performance of the interchangeable lens 10 can be maximized.
  • the flange back of an interchangeable lens employing a C-mount is 17.526 mm.
  • the flange back of the interchangeable lens which adopts CS mount is 12.5 mm.
  • the image sensor position detection unit 122 detects the position of the image sensor 110 with respect to the reference position.
  • the image sensor position detection unit 122 is configured of, for example, a displacement sensor such as an eddy current sensor.
  • Image sensor driver The image sensor drive unit 124 drives the image sensor 110 under the control of the camera control unit 150.
  • the image sensor 110 is driven by the image sensor drive unit 124 to capture an image.
  • the analog signal processing unit 126 takes in an analog image signal for each pixel output from the image sensor 110, and performs predetermined signal processing (for example, correlated double sampling processing, amplification processing, etc.).
  • the ADC 128 converts an analog image signal output from the analog signal processing unit 126 into a digital image signal and outputs it.
  • the digital signal processing unit 130 takes in digital image signals, performs predetermined signal processing (for example, tone conversion processing, white balance correction processing, gamma correction processing, synchronization processing, YC conversion processing, etc.), and Generate
  • phase difference AF processing unit 132 acquires the signals of the first phase difference detection pixel 118A and the second phase difference detection pixel 118B from the AF area 114 designated by the user, and performs correlation operation processing on the acquired signals. To calculate the phase difference amount. Then, based on the calculated phase difference amount, the direction and amount of defocus are calculated.
  • the memory card interface 134 reads and writes data with respect to the memory card 136 mounted in the card slot under the control of the camera control unit 150.
  • the display unit 138 displays various information including an image.
  • the display unit 138 includes a display device such as a liquid crystal display or an organic EL display (EL: ElectroLuminescent), and a drive circuit thereof.
  • EL ElectroLuminescent
  • the live view is a function of displaying an image captured by the image sensor 110 in real time. By displaying the live view, it is possible to capture an image while confirming it on the display unit 138.
  • the display unit 138 is also used as a user interface when performing various settings.
  • the operation unit 140 is a general operation as a digital camera such as a release button, a power switch, an imaging mode dial, a shutter speed dial, an exposure correction dial, a command dial, a menu button, an arrow key, an enter button, a cancel button, and an erase button. And outputs a signal corresponding to the operation to the camera control unit 150.
  • the release button is composed of a so-called half-press and full-press two-step stroke type button, and when the half-press is made, the S1 ON signal is output, and when the full-press is pressed the S2 ON signal is output.
  • the camera control unit 150 is a control unit that generally controls the overall operation of the digital camera 1.
  • the camera control unit 150 is configured by, for example, a microcomputer, and provides various functions by executing a predetermined program.
  • FIG. 5 is a block diagram of functions related to AF that are realized by the camera control unit and the lens control unit.
  • the camera control unit 150 functions as a target position setting unit 150a, an AF (autofocus) control unit 150b, and an image sensor movement control unit 150c by executing a predetermined program.
  • the lens control unit 22 also functions as a focus lens drive control unit 22a by executing a predetermined program.
  • the target position setting unit 150a is an example of a drive target setting unit.
  • the target position setting unit 150a sets a target position of the focus lens 12 for focusing on the subject based on the direction and amount of defocus obtained by the phase difference AF processing unit 132.
  • the AF control unit 150b notifies the focus lens drive control unit 22a of information on the target position set by the target position setting unit 150a, and outputs a drive command to the focus lens drive control unit 22a. Further, the AF control unit 150b notifies the image sensor movement control unit 150c of information on the target position, and notifies that the control has been shifted to AF control.
  • the focus lens drive control unit 22a performs control to move the focus lens 12 to the target position based on the drive command from the AF control unit 150b. Specifically, based on the information on the current position of the focus lens 12 detected by the focus lens position detection unit 18, the focus lens drive unit 16 is controlled to move the focus lens 12 to the target position.
  • the focus lens drive control unit 22a outputs the information on the current position of the focus lens 12 detected by the focus lens position detection unit 18 to the image sensor movement control unit 150c.
  • the image sensor movement control unit 150 c is based on the information on the target position of the focus lens 12, the information on the current position of the focus lens 12 output from the focus lens drive control unit 22 a, and the information on the current position of the image sensor 110.
  • the image sensor movement driver 120 is controlled to control movement of the image sensor 110. Specifically, the image sensor 110 is moved such that the focus lens 12 is in focus before reaching the target position, and after the focus, the image sensor 110 is moved so as to follow or synchronize with the movement of the focus lens 12 Let me keep it in focus.
  • FIG. 6 is a conceptual view of movement control of the image sensor.
  • reference numeral L1 indicates the movement locus of the image of the subject formed by the interchangeable lens
  • reference numeral L2 indicates the movement locus of the image sensor 110 (movement locus of the imaging surface).
  • the position of the image of the subject formed by the interchangeable lens 10 is moved by moving the focus lens 12 back and forth along the optical axis L.
  • the position of the image of the subject formed by the interchangeable lens 10 is brought into focus by being positioned on the imaging surface of the image sensor 110.
  • the focus lens 12 sets a target position based on the direction and amount of defocus obtained by the phase difference AF processing unit 132.
  • the target position is set such that the position of the image of the subject formed by the interchangeable lens 10 is located on the imaging surface of the image sensor 110 located at the reference position. Therefore, moving the focus lens 12 from the current position to the target position moves the image of the subject formed by the interchangeable lens 10 to the position of the imaging surface of the image sensor 110 located at the reference position.
  • the focus lens 12 starts moving toward the target position from time T0.
  • the image sensor 110 also starts moving simultaneously or almost simultaneously with the focus lens 12, and starts moving from time T0. At this time, the image sensor 110 starts moving so as to pick up the image of the subject. That is, the movement is started toward the position of the image of the subject. For example, when the position of the image of the subject is located on the subject side (front side) relative to the reference position, the image sensor 110 is moved toward the subject side (front side). On the other hand, when the position of the image of the subject is located on the image plane side (rear side) relative to the reference position, the image sensor 110 is moved toward the image plane side (rear side).
  • the image sensor 110 reaches the end of the movable range before focusing, the movement of the image sensor 110 is stopped at the position of the end, and the image sensor 110 stands by.
  • the example shown in FIG. 6 shows the case where the image sensor 110 reaches the end of the movable range faster than focusing, and shows the case of reaching the end of the movable range at time T1. In this case, the image sensor 110 stops at the end of the movable range and stands by.
  • the image sensor movement control unit 150c determines whether or not focusing is achieved based on the information on the current position of the focus lens 12 with respect to the target position and the information on the current position of the image sensor 110.
  • the example shown in FIG. 6 shows the case of focusing at time T2.
  • follow-up processing is performed until the movement of the focus lens 12 is stopped. That is, the image sensor 110 is moved to follow or synchronize with the movement of the focus lens 12. As a result, the imaging surface moves following or in synchronization with the movement of the position of the image of the subject, and the in-focus state is maintained.
  • the image sensor 110 When an overshoot occurs at the time of stopping, the image sensor 110 is moved so as to cancel the overshoot.
  • the presence or absence of the overshoot can be obtained in advance from the movement characteristic of the focus lens 12.
  • FIG. 6 shows the case where the movement of the focus lens 12 is stopped at time T3.
  • the target position of the focus lens 12 is set such that the image of the subject is formed on the image sensor 110 located at the reference position. Therefore, as the focus lens 12 moves to the target position, the image sensor 110 also returns to the reference position.
  • the image sensor movement control unit 150 c moves the image sensor 110 to achieve early focusing before the focus lens 12 reaches the target position, and follows or moves the movement of the focus lens 12 after focusing.
  • the image sensor 110 is moved to maintain the in-focus state.
  • FIG. 7 is a flowchart showing an AF processing procedure by the digital camera according to the present embodiment.
  • step S11 initialization is performed (step S11). Specifically, processing for positioning the image sensor 110 at the reference position is performed.
  • AF execution is instructed by half-pressing the release button.
  • an S1 ON signal is input from the operation unit 140 to the camera control unit 150, and AF execution is instructed. Therefore, the presence or absence of AF execution is determined based on the presence or absence of the S1 ON signal (step S12).
  • step S13 the direction and amount of defocus are detected.
  • the direction and amount of defocus are detected by the phase difference AF processing unit 132 based on the output of the phase difference detection pixel 118.
  • the phase difference AF processing unit 132 acquires signals of the first phase difference detection pixel 118A and the second phase difference detection pixel 118B from the AF area 114 designated by the user, and calculates the direction and amount of defocus. Selection of the AF area 114 is performed by the operation unit 140.
  • the target position of the focus lens 12 is set based on the detection result (step S14).
  • the target position setting unit 150a sets a target position of the focus lens 12 for focusing on the subject based on the direction and amount of defocus obtained by the phase difference AF processing unit 132.
  • step S15 When the target position is set, AF control is performed (step S15).
  • FIG. 8 is a flowchart showing the processing procedure of AF control (focus control method).
  • the focus lens drive unit 16 is driven to move the focus lens 12 toward the target position (step S21).
  • the image sensor movement drive unit 120 is driven to move the image sensor 110 in the in-focus direction (step S22).
  • the focus lens 12 is brought into focus before reaching the target position. That is, the image of the subject is positioned on the imaging surface of the image sensor 110 before the focus lens 12 reaches the target position.
  • the image sensor movement control unit 150c determines whether the in-focus state is achieved based on the current position of the focus lens 12 with respect to the target position and the current position of the image sensor 110 (step S23).
  • the image sensor movement control unit 150c starts the following process (step S24). That is, since the focus lens 12 moves toward the target position even after focusing, the image sensor 110 is moved so as to follow or synchronize with the movement of the focus lens 12. Thereby, the in-focus state is maintained continuously.
  • step S25 it is determined whether the focus lens 12 has reached the target position.
  • the drive of the focus lens drive unit 16 is stopped, and the focus lens 12 is stopped (step S26).
  • the driving of the image sensor movement driving unit 120 is stopped, and the image sensor 110 is stopped (step S27). If an overshoot occurs when the focus lens 12 stops, the image sensor 110 is moved and stopped so as to cancel the overshoot.
  • the processing of the AF is completed in the above series of steps. Thereafter, when the release button is full-pressed, a recording process for recording is performed.
  • the digital camera 1 of the present embodiment since the image sensor 110 is moved in the in-focus direction before the focus lens 12 reaches the target position, focusing can be performed early. Can. As a result, the time until focusing can be shortened, and the speed of AF can be increased.
  • Modification ⁇ Modified example of movement control of image sensor
  • the movement of the image sensor 110 is controlled based on the information on the target position of the focus lens 12, the information on the current position of the focus lens 12, and the information on the current position of the image sensor 110.
  • the movement control mode of the image sensor 110 is not limited to this.
  • the movement of the image sensor 110 may be controlled based on the direction and amount of defocus detected by the phase difference AF processing unit 132.
  • FIG. 9 is a block diagram showing a modification of functions related to AF which are realized by the camera control unit and the lens control unit.
  • the phase difference AF processing unit 132 continuously detects the direction and amount of defocus and outputs the detection result to the image sensor movement control unit 150 c.
  • the image sensor movement control unit 150 c controls the movement of the image sensor 110 based on the direction and amount of defocus detected by the phase difference AF processing unit 132. That is, the movement of the image sensor 110 is controlled so that the defocus amount becomes zero.
  • position information of the focus lens 12 is not required, it can be realized even when it is not assumed that the position information is sent from the lens side to the camera side.
  • processing of movement control of the image sensor 110 can be simplified.
  • the image sensor 110 is moved simultaneously with the start of driving of the focus lens 12, but the timing of moving the image sensor 110 is not limited to this.
  • FIG. 10 is a conceptual view of a variation of movement control of the image sensor.
  • the image sensor 110 is moved in accordance with the timing when the image of the subject formed by the interchangeable lens 10 reaches the end of the movable range of the image sensor 110.
  • FIG. 11 is a conceptual view of another modification of movement control of the image sensor.
  • FIG. 11 shows an example of movement control of the image sensor 110 when the image of the subject formed by the interchangeable lens 10 is within the movable range of the image sensor 110.
  • the image sensor 110 is moved simultaneously with the driving of the focus lens 12. This makes it possible to focus early. After focusing, the image sensor 110 is moved to follow or synchronize with the movement of the focus lens 12.
  • FIG. 12 is a conceptual view of a modification of movement control of the focus lens.
  • reference numeral L1 denotes a movement locus of an image of a subject formed by the interchangeable lens 10
  • reference numeral L2 denotes a movement locus of the image sensor 110.
  • the movement locus L1 of the image of the subject formed by the interchangeable lens 10 matches the movement locus of the focus lens 12.
  • the focus lens 12 starts moving at time T0, and reaches the target position at time T3. As shown in FIG. 12, the focus lens 12 is decelerated before reaching the target position. In the example shown in FIG. 12, the vehicle decelerates at time Tx, and then reaches the target position at time T3. In this case, the image sensor 110 controls the movement so as to focus on the focus lens 12 before decelerating. In the example shown in FIG. 12, focusing is performed at time T2, and then the focus lens 12 is decelerated.
  • the position to start the deceleration is set after the position of the image of the subject formed by the interchangeable lens 10 enters the movable range of the image sensor 110. Thereby, it is possible to focus on the subject by moving the image sensor 110 at least before starting the deceleration.
  • phase difference detection pixels 118 provided on the imaging surface 112 of the image sensor 110 are used as an autofocus sensor in the above embodiment, the configuration of the autofocus sensor is not limited to this.
  • a known autofocus sensor such as a passive system or an active system can be employed.
  • an autofocus sensor of a method using contrast can be adopted.
  • the autofocus sensor of the system using contrast can use an image sensor as an autofocus sensor.
  • an active type auto focus sensor an auto focus sensor of a type that irradiates infrared rays, ultrasonic waves or the like to measure a distance can be adopted.
  • the phase difference detection pixels are arranged at constant intervals along the x direction, but may be arranged at regular intervals along the y direction. In addition, they may be arranged at regular intervals along the x direction and the y direction.
  • the phase difference detection pixels are arranged only in the AF area set at the center of the screen, but the area in which the phase difference detection pixels are arranged is not limited to this. It is good also as composition arranged on the whole screen.
  • the focus lens is moved back and forth along the optical axis to perform focusing, but the focusing mechanism of the imaging lens is not limited to this.
  • a liquid lens, a liquid crystal lens or the like can also be used as a focus lens. In liquid lenses and liquid crystal lenses, focusing is performed using refractive index change.
  • the focus lens drive unit changes the refractive index of the liquid lens by changing the voltage (drive voltage) applied to the liquid lens.
  • the refractive index of the liquid lens for focusing on the subject is set as the drive target.
  • the image sensor movement control unit moves the image sensor for focusing before reaching the target refractive index. After focusing, the image sensor is moved so as to follow or tune in focus variation due to refractive index change.
  • the focus lens drive unit changes the refractive index of the liquid crystal lens by changing the voltage (drive voltage) applied to the liquid crystal lens.
  • the refractive index of the liquid crystal lens for focusing on the subject is set as the drive target.
  • the image sensor movement control unit moves the image sensor for focusing before reaching the target refractive index. After focusing, the image sensor is moved so as to follow or tune in focus variation due to refractive index change.
  • the image sensor 210 is moved along the optical axis L using a piezo actuator, but the configuration of the image sensor movement driver is not limited to this. Besides, for example, a known linear drive type drive mechanism such as a linear motor and a feed screw mechanism can be adopted to move the image sensor 210 along the optical axis L.
  • a known linear drive type drive mechanism such as a linear motor and a feed screw mechanism can be adopted to move the image sensor 210 along the optical axis L.
  • the reference position of the image sensor is set at the center of the movable range in the above embodiment, the position set as the reference position is not limited to this.
  • the reference position may be set at a position on the subject side (front side) of the center of the movable range, or may be set at a position on the image plane side (rear side).
  • the user may be set arbitrarily. As described above, by setting the reference position at the center of the movable range, the followability can be improved.
  • the reference position is set at the position of the flange back in the above embodiment, it may be set at a position different from the flange back. As described above, by setting the reference position at the position of the flange back, it is possible to maximize the optical performance of the interchangeable lens when focusing at the reference position.
  • the reference position may be variable.
  • the reference position may be appropriately switched with reference to the position information of the image sensor at the time of focusing of the subject in the past.
  • the reference position may be appropriately switched according to the subject.
  • the configuration can be appropriately switched according to the moving direction of the subject and the like. For example, for an object moving in one direction, the reference position is set in the direction opposite to the moving direction of the imaging point.
  • FIG. 13 is a view showing an example in which the present invention is applied to a three-plate type digital camera.
  • the three-plate type digital camera includes a color separation prism 310 and three image sensors 210R, 210G, and 210B in an imaging unit.
  • the color separation prism 310 separates the light incident on the incident surface 310 a into light of three colors of R (Red) light, G (Green) light and B (Blue) light.
  • the three color lights separated are emitted from the R light emission surface 310r, the G light emission surface 310g, and the B light emission surface 310b, respectively.
  • the three image sensors are configured by an image sensor 210R that receives R light, an image sensor 210G that receives G light, and an image sensor 210B that receives B light.
  • the image sensor 210R that receives R light is disposed to face the R light emission surface 310r, and receives R light emitted from the R light emission surface 310r.
  • the image sensor 210G that receives G light is disposed to face the G light emission surface 310g, and receives G light emitted from the G light emission surface 310g.
  • the image sensor 210B that receives B light is disposed to face the B light emission surface 310b, and receives B light emitted from the B light emission surface 310b.
  • the three image sensors 210R, 210G, and 210B are disposed at positions where the optical path lengths from the incident surface 310a of the color separation prism 310 are the same.
  • the three image sensors 210R, 210G and 210B are integrally attached to the color separation prism 310 via a holder (not shown).
  • a unit in which the image sensors 210R, 210G, and 210B are integrated into the color separation prism 310 is referred to as an imaging unit 330.
  • the image sensor movement drive unit 220x moves the imaging unit 330 back and forth along the optical axis L. Further, the image sensor position detection unit 222x detects the position of the imaging unit 330 with respect to the reference position.
  • the present invention can be applied to video cameras, television cameras, cinema cameras, and the like, and can also be applied to electronic devices having an imaging function (for example, mobile phones, smartphones, tablet computers, notebook computers, etc.).
  • the drive target setting unit, the focus lens drive control unit, the image sensor movement control unit and the like are configured by the microcomputer, the hardware configuration for realizing these functions is It is not limited. It can be configured with various processors. For various processors, it is possible to change the circuit configuration after manufacturing a CPU, FPGA (Field Programmable Gate Array (FPGA)) that is a general-purpose processor that functions as a processing unit that executes software (programs) and performs various processing. Processors (PLD: Programmable Logic Device), ASIC (Application Specific Integrated Circuit), ASIC (Application Specific Integrated Circuit), etc. Includes a dedicated electric circuit that is a processor with a circuit configuration designed specifically to execute specific processing. Be
  • FPGA Field Programmable Gate Array
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types. For example, it may be configured by a plurality of FPGAs, or may be configured by a combination of a CPU and an FPGA.
  • a plurality of processing units may be configured by one processor.
  • a plurality of processing units are configured by one processor
  • one processor is configured by a combination of one or more CPUs and software, as represented by computers such as clients and servers; There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • IC Integrated Circuit
  • the various processing units are configured using one or more of the various processors as a hardware structure.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit combining circuit elements such as semiconductor elements.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

AFを高速化できる撮像装置及びその合焦制御方法を提供する。フォーカスレンズ(12)を駆動するフォーカスレンズ駆動部(16)と、イメージセンサ(110)を光軸(L)に沿って移動させるイメージセンサ移動駆動部(120)と、を備える。被写体に合焦させるためのフォーカスレンズ(12)の目標位置を設定し、目標位置に向けてフォーカスレンズ(12)を移動させる。フォーカスレンズ(12)が目標位置に到達する前にイメージセンサ(110)を移動させて合焦させる。合焦後は、フォーカスレンズ(12)に追従するようにイメージセンサ(110)を移動させて合焦状態を維持する。

Description

撮像装置及び撮像装置の合焦制御方法
 本発明は、撮像装置及びその合焦制御方法に関する。
 撮像装置のAF(autofocus/オートフォーカス)は、位相差、コントラストなどを利用して焦点状態を検出し、その検出結果に基づいて、フォーカスレンズを移動させることにより行われる。あるいは、赤外線、超音波などを照射して被写体までの距離を測定し、その測定結果に基づいて、フォーカスレンズを移動させることにより行われる。
 AFを高速化するためには、フォーカスレンズを高速移動させる必要がある。しかし、フォーカスレンズを高速移動させると、停止の際にオーバーシュートが生じるという問題がある。この問題を解決するため、特許文献1、2には、フォーカスレンズの停止に際して、オーバーシュートを打ち消すように、イメージセンサを移動させる方法が提案されている。
特開昭63-93277号公報 特開2006-145813号公報
 特許文献1、2の方法でAFをより高速化するためには、フォーカスレンズをより高速に移動させる必要がある。しかし、高速化できる速度には限界がある。また、フォーカスレンズをより高速に移動させるためには、大きなモータ、大きな電力が必要になり、装置が大型化したり、消費電力が大きくなったりするという問題もある。
 本発明は、このような事情に鑑みてなされたもので、AFを高速化できる撮像装置及びその合焦制御方法を提供することを目的とする。
 上記課題を解決するための手段は、次のとおりである。
 (1)フォーカスレンズを有する撮像レンズと、フォーカスレンズを駆動するフォーカスレンズ駆動部と、イメージセンサと、イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、被写体に合焦させるためのフォーカスレンズの駆動目標を設定する駆動目標設定部と、駆動目標設定部で設定された駆動目標に基づいて、フォーカスレンズの駆動を制御するフォーカスレンズ駆動制御部と、フォーカスレンズ駆動制御部がフォーカスレンズの駆動を停止する前にイメージセンサを移動させて合焦させ、合焦後はフォーカスレンズが停止するまでイメージセンサを移動させて合焦状態を維持させるイメージセンサ移動制御部と、を備えた撮像装置。
 本態様によれば、被写体に合焦させるためにフォーカスレンズを駆動すると、その駆動が停止される前にイメージセンサが移動して、早期に合焦する。合焦後もフォーカスレンズが停止するまで、イメージセンサが移動し、合焦状態が維持される。これにより、合焦までの時間を短縮でき、AFを高速化できる。
 (2)フォーカスレンズ駆動部は、フォーカスレンズを光軸に沿って移動させ、駆動目標設定部は、被写体に合焦させるためのフォーカスレンズの目標位置を駆動目標として設定し、フォーカスレンズ駆動制御部は、フォーカスレンズ駆動部を制御して、フォーカスレンズを目標位置に移動させる、上記(1)の撮像装置。
 本態様によれば、フォーカスレンズを光軸に沿って移動させることにより、撮像レンズの焦点調節が行われる。また、駆動目標は、被写体に合焦させるためのフォーカスレンズの目標位置として設定される。フォーカスレンズ駆動制御部は、フォーカスレンズを目標位置に移動させる。イメージセンサ移動制御部は、フォーカスレンズが目標位置に到達する前にイメージセンサを移動させて合焦させる。また、合焦後は、フォーカスレンズの移動に追従ないし同調するようにイメージセンサを移動させて、合焦状態を維持する。
 (3)パッシブ方式又はアクティブ方式のオートフォーカスセンサを更に備え、駆動目標設定部は、オートフォーカスセンサの出力に基づいて、駆動目標を設定する、上記(1)又は(2)の撮像装置。
 本態様によれば、パッシブ方式又はアクティブ方式のオートフォーカスセンサが備えられ、そのオートフォーカスセンサの出力に基づいて、被写体に合焦させるためのフォーカスレンズの駆動目標が設定される。
 (4)オートフォーカスセンサが、位相差検出方式のオートフォーカスセンサで構成される、上記(3)の撮像装置。
 本態様によれば、位相差検出方式のオートフォーカスセンサが備えられ、その位相差検出方式のオートフォーカスセンサの出力に基づいて、被写体に合焦させるためのフォーカスレンズの駆動目標が設定される。
 (5)オートフォーカスセンサが、イメージセンサの撮像面に備えられた複数の位相差検出画素で構成される、上記(4)の撮像装置。
 本態様によれば、位相差検出方式のオートフォーカスセンサが、イメージセンサの撮像面に備えられた複数の位相差検出画素で構成される。すなわち、像面位相差方式によって、焦点状態が検出され、その検出結果に基づいて、フォーカスレンズの駆動目標が設定される。像面位相差方式を採用することにより、イメージセンサの移動中であっても、デフォーカスの方向及び量を直接検出できる。これにより、イメージセンサの移動の制御をより簡素化できる。
 (6)イメージセンサの基準位置が、撮像レンズで規定されるフランジバックの位置に設定される、上記(1)から(5)のいずれか一の撮像装置。
 本態様によれば、イメージセンサの基準位置が、撮像レンズで規定されるフランジバックの位置に設定される。これにより、撮像レンズの光学性能を最大限に発揮させることができる。なお、ここでの「フランジバックの位置」には、実質的にフランジバックの位置とみなせる位置、すなわち、ほぼフランジバックの位置とみなせる位置が含まれる。
 (7)フォーカスレンズ駆動制御部は、フォーカスレンズを目標位置で停止させる前に減速させる、上記(2)の撮像装置。
 本態様によれば、フォーカスレンズの駆動を停止させる際、減速される。これにより、オーバーシュートの発生を防止できる。
 (8)イメージセンサ移動制御部は、フォーカスレンズを減速させる前にイメージセンサを移動させて合焦させる、上記(7)の撮像装置。
 本態様によれば、フォーカスレンズを減速させる前にイメージセンサが移動を開始する。これにより、合焦までの時間を短縮でき、AFを高速化できる。
 (9)イメージセンサ移動制御部は、フォーカスレンズの駆動開始と同時にイメージセンサを移動させる、上記(1)から(8)のいずれか一の撮像装置。
 本態様によれば、フォーカスレンズの駆動開始と同時にイメージセンサの移動が開始される。これにより、合焦までの時間を短縮でき、AFを高速化できる。なお、ここでの「同時」は、実質的に同時とみなせる範囲を含むものである。すなわち、フォーカスレンの駆動開始とほぼ同時にイメージセンサの移動が開始される場合を含むものである。
 (10)イメージセンサ移動制御部は、イメージセンサを可動範囲の端部に移動させて待機させる、上記(1)から(9)のいずれか一の撮像装置。
 本態様によれば、イメージセンサが可動範囲の端部に移動して待機する。これにより、合焦までの時間を短縮でき、AFを高速化できる。
 (11)フォーカスレンズを有する撮像レンズと、フォーカスレンズを駆動するフォーカスレンズ駆動部と、イメージセンサと、イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、を備えた撮像装置の合焦制御方法であって、被写体に合焦させるためのフォーカスレンズの駆動目標を設定するステップと、設定された駆動目標に基づいて、フォーカスレンズを駆動するステップと、フォーカスレンズの駆動を停止する前にイメージセンサを移動させて合焦させ、合焦後はフォーカスレンズが停止するまでイメージセンサを移動させて合焦状態を維持させるステップと、を含む撮像装置の合焦制御方法。
 本態様によれば、被写体に合焦させるためにフォーカスレンズを駆動すると、その駆動が停止される前にイメージセンサが移動して、早期に合焦する。合焦後もフォーカスレンズが停止するまで、イメージセンサが移動し、合焦状態が維持される。これにより、合焦までの時間を短縮でき、AFを高速化できる。
 本発明によれば、AFを高速化できる。
本発明が適用されたデジタルカメラの一実施形態を示す概略構成図 イメージセンサの概略構成を示す図 撮像面の一部を拡大した図 各画素の概略構成を示す図 カメラ制御部及びレンズ制御部が実現するAFに係わる機能のブロック図 イメージセンサの移動制御の概念図 本実施の形態のデジタルカメラ1によるAFの処理手順を示すフローチャート AF制御の処理手順を示すフローチャート カメラ制御部及びレンズ制御部が実現するAFに係わる機能の変形例を示すブロック図 イメージセンサの移動制御の変形例の概念図 イメージセンサの移動制御の他の変形例の概念図 フォーカスレンズの移動制御の変形例の概念図 3板式のデジタルカメラに本発明適用する場合の一例を示す図
 以下、添付図面に従って本発明を実施するための好ましい形態について詳説する。
 [全体構成]
 図1は、本発明が適用されたデジタルカメラの一実施形態を示す概略構成図である。
 同図に示すデジタルカメラ1は、レンズ交換式のデジタルカメラであり、交換レンズ10及びカメラ本体100を備える。
 《交換レンズ》
 交換レンズ10は、撮像レンズの一例である。交換レンズ10は、マウント102を介してカメラ本体100に着脱自在に装着される。交換レンズ10は、複数枚のレンズを組み合わせて構成される。交換レンズ10は、フォーカスレンズ12及び絞り14を有する。交換レンズ10は、フォーカスレンズ12を光軸Lに沿って前後移動させることにより焦点調節される。また、絞り14の開口量を調整することにより、光量が調整される。
 交換レンズ10は、フォーカスレンズ12を駆動するフォーカスレンズ駆動部16、及び、フォーカスレンズ12の位置を検出するフォーカスレンズ位置検出部18を備える。
 フォーカスレンズ駆動部16は、たとえば、リニアモータ等のアクチュエータ、及び、その駆動回路を備えて構成され、フォーカスレンズ12を光軸Lに沿って前後移動させる。
 フォーカスレンズ位置検出部18は、たとえば、フォトインタラプタ及びMRセンサ(MRセンサ:Magneto Resistive Sensor/磁気抵抗効果素子)で構成される。フォトインタラプタは、フォーカスレンズ12が、あらかじめ定められた原点位置に位置したことを検出する。MRセンサは、フォーカスレンズ12の移動量を検出する。フォトインタラプタによってフォーカスレンズ12が原点位置に位置したことを検出し、MRセンサによって原点位置からのフォーカスレンズ12の移動量を検出することにより、原点位置に対するフォーカスレンズ12の位置を検出できる。
 交換レンズ10は、絞り14を駆動する絞り駆動部20を備える。絞り14は、たとえば、虹彩絞りで構成される。絞り駆動部20は、虹彩絞りの絞り羽根を駆動するモータ、及び、その駆動回路を備えて構成される。
 交換レンズ10は、フォーカスレンズ駆動部16及び絞り駆動部20の駆動を制御するレンズ制御部22を備える。レンズ制御部22は、たとえば、マイクロコンピュータで構成され、所定の制御プログラムを実行することにより、フォーカスレンズ駆動制御部、絞り駆動制御部等として機能する。フォーカスレンズ駆動制御部は、フォーカスレンズ駆動部16の駆動を制御する。絞り駆動制御は、絞り駆動部20の駆動を制御する。レンズ制御部22は、マウント102に備えられた通信端子(図示せず)を介して、カメラ本体100のカメラ制御部150と通信可能に接続される。
 《カメラ本体》
 カメラ本体100は、イメージセンサ110、イメージセンサ移動駆動部120、イメージセンサ位置検出部122、イメージセンサ駆動部124、アナログ信号処理部126、ADC(Analog-to-digital converter/アナログデジタル変換器)128、デジタル信号処理部130、位相差AF処理部132、メモリカードインタフェース134、メモリカード136、表示部138、操作部140及びカメラ制御部150を備える。
 〈イメージセンサ〉
 イメージセンサ110は、交換レンズ10を通る光を受光して被写体を撮像する。イメージセンサ110は、たとえば、CCD(Charged Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子で構成される。イメージセンサ110は、その撮像面に複数の位相差検出画素を有する。
 図2は、イメージセンサの概略構成を示す図である。
 イメージセンサ110は、多数の画素がx方向(行方向)及びy方向(列方向)に二次元的に配列された撮像面112を有する。撮像面112は、複数のAF(autofocus)エリア114を有する。AFエリア114は、焦点合わせが可能な領域として撮像面112に設定された領域である。図2に示す例では、画面中央部分に9つのAFエリア114を設定している。
 図3は、撮像面の一部を拡大した図である。
 撮像面112には、多数の画素が規則的に配置される。各画素は光電変換部を備え、受光量に応じた信号を出力する。また、各画素は、R(Red/赤)、G(Green/緑)、B(Blue/青)のいずれかの色のカラーフィルタを有する。カラーフィルタは、所定の配列となるように、各画素に割り当てられる。図3は、ベイヤ配列の例を示している。なお、同図では、Rのカラーフィルタを有する画素(R画素)にRの文字を付し、Gのカラーフィルタを有する画素(G画素)にGの文字を付し、Bのカラーフィルタを有する画素(B画素)にBの文字を付している。
 AFエリアには、通常画素116及び位相差検出画素118が配置される。通常画素116とは、通常の撮像用の画素のことである。位相差検出画素118とは、位相差を検出する画素のことである。位相差検出画素118は、位相差検出方式のオートフォーカスセンサの一例である。位相差検出画素以外は、通常画素を構成する。AFエリア以外の領域には、通常画素のみが配置される。
 図3では、位相差検出画素118を斜線で示している。同図に示すように、位相差検出画素118は、撮像面112に規則的に配置される。
 位相差検出画素118は、第1位相差検出画素118A及び第2位相差検出画素118Bで構成される。第1位相差検出画素118A及び第2位相差検出画素118Bは、互いに近接して配置される。図3に示す例では、互いに近接する同じ配列の2つの行の一方に一定の間隔で第1位相差検出画素118Aを配置し、他方に一定の間隔で第2位相差検出画素118Bを配置した例を示している。特に、R画素及びG画素が配列された特定の行の特定のG画素を位相差検出画素として利用した場合の例を示している。
 図4は、各画素の概略構成を示す図である。
 各画素は、所定の開口部を備えた遮光膜を有する。図4は、各画素に備えられる遮光膜の開口部を白抜きで示している。
 通常画素116は、開口部が、光電変換部の中心と一致した遮光膜を有する。通常画素116は、交換レンズ10の瞳領域のほぼ全ての部分を通過した光束を受光する。
 第1位相差検出画素118Aは、開口部が光電変換部の中心に対して右側に偏心した遮光膜を有する。この結果、第1位相差検出画素118Aは、交換レンズ10の瞳領域の異なる部分を通過した一対の光束のうち一方の光束が受光される。
 第2位相差検出画素118Bは、開口部が光電変換部の中心に対して左側に偏芯した遮光膜を有する。この結果、第2位相差検出画素118Bでは、交換レンズ10の瞳領域の異なる部分を通過した一対の光束のうち他方の光束が受光される。
 以上の構成により、第1位相差検出画素118A及び第2位相差検出画素118Bの信号を取得し、両者を比較することにより、位相差量の検出が可能となる。
 〈イメージセンサ移動駆動部〉
 イメージセンサ移動駆動部120は、イメージセンサ110を光軸Lに沿って前後に移動させる。イメージセンサ移動駆動部120は、たとえば、ピエゾアクチュエータ等のアクチュエータ、及び、その駆動回路を備えて構成される。
 イメージセンサ210は、可動範囲内で移動し、その可動範囲の中央に基準位置が設定される。基準位置は、交換レンズ10で規定されるフランジバックの位置に設定される。一般に交換レンズ10は、フランジバックの位置を基準に光学設計が行われる。したがって、イメージセンサ110を基準位置に位置させることにより、交換レンズ10の光学性能を最大限に発揮させることができる。
 たとえば、Cマウントを採用する交換レンズのフランジバックは、17.526mmである。また、CSマウントを採用する交換レンズのフランジバックは、12.5mmである。
 〈イメージセンサ位置検出部〉
 イメージセンサ位置検出部122は、基準位置に対するイメージセンサ110の位置を検出する。イメージセンサ位置検出部122は、たとえば、渦電流センサ等の変位センサで構成される。
 〈イメージセンサ駆動部〉
 イメージセンサ駆動部124は、カメラ制御部150による制御の下、イメージセンサ110を駆動する。イメージセンサ110は、イメージセンサ駆動部124に駆動されて、画像を撮像する。
 〈アナログ信号処理部〉
 アナログ信号処理部126は、イメージセンサ110から出力される画素ごとのアナログの画像信号を取り込み、所定の信号処理(たとえば、相関二重サンプリング処理、増幅処理等)を施す。
 〈ADC〉
 ADC128は、アナログ信号処理部126から出力されるアナログの画像信号をデジタルの画像信号に変換して出力する。
 〈デジタル信号処理部〉
 デジタル信号処理部130は、デジタルの画像信号を取り込み、所定の信号処理(たとえば、階調変換処理、ホワイトバランス補正処理、ガンマ補正処理、同時化処理、YC変換処理等)を施して、画像データを生成する。
 〈位相差AF処理部〉
 位相差AF(autofocus)処理部132は、ユーザによって指定されたAFエリア114から第1位相差検出画素118A及び第2位相差検出画素118Bの信号を取得し、取得した信号に対して相関演算処理を行って位相差量を算出する。そして、算出した位相差量に基づいて、デフォーカスの方向及び量を算出する。
 〈メモリカードインタフェース及びメモリカード〉
 メモリカードインタフェース134は、カメラ制御部150による制御の下、カードスロットに装着されたメモリカード136に対して、データの読み書きを行う。
 〈表示部〉
 表示部138は、画像を含む各種情報を表示する。表示部138は、液晶ディスプレイ、有機ELディスプレイ(EL:ElectroLuminescent)等の表示デバイス、及び、その駆動回路を備えて構成される。
 表示部138には、撮像済みの画像の他、ライブビューが表示される。ライブビューとは、イメージセンサ110がとらえた画像をリアルタイムに表示する機能である。ライブビューを表示することより、表示部138で画像を確認しながら撮像できる。また、表示部138は、各種設定を行う際のユーザインターフェースとしても利用される。
 〈操作部〉
 操作部140は、レリーズボタン、電源スイッチ、撮像モードダイヤル、シャッタースピードダイヤル、露出補正ダイヤル、コマンドダイヤル、メニューボタン、十字キー、決定ボタン、キャンセルボタン、消去ボタン等のデジタルカメラとしての一般的な操作手段を含み、操作に応じた信号をカメラ制御部150に出力する。
 レリーズボタンは、いわゆる半押し及び全押しが可能な二段ストローク式のボタンで構成され、半押しでS1ON信号、全押しでS2ON信号が出力される。
 〈カメラ制御部〉
 カメラ制御部150は、デジタルカメラ1の全体の動作を統括制御する制御部である。カメラ制御部150は、たとえば、マイクロコンピュータで構成され、所定のプログラムを実行することにより、各種機能を提供する。
 図5は、カメラ制御部及びレンズ制御部が実現するAFに係わる機能のブロック図である。
 図5に示すように、カメラ制御部150は、所定のプログラムを実行することにより、目標位置設定部150a、AF(autofocus)制御部150b及びイメージセンサ移動制御部150cとして機能する。また、レンズ制御部22は、所定のプログラムを実行することにより、フォーカスレンズ駆動制御部22aとして機能する。
 目標位置設定部150aは、駆動目標設定部の一例である。目標位置設定部150aは、位相差AF処理部132で求めたデフォーカスの方向及び量に基づいて、被写体に合焦させるためのフォーカスレンズ12の目標位置を設定する。
 AF制御部150bは、目標位置設定部150aで設定された目標位置の情報をフォーカスレンズ駆動制御部22aに通知し、フォーカスレンズ駆動制御部22aに駆動指令を出力する。また、AF制御部150bは、イメージセンサ移動制御部150cに対して、目標位置の情報を通知し、AF制御に移行したことを通知する。
 フォーカスレンズ駆動制御部22aは、AF制御部150bからの駆動指令に基づいて、フォーカスレンズ12を目標位置に移動させる制御を行う。具体的には、フォーカスレンズ位置検出部18で検出されるフォーカスレンズ12の現在位置の情報に基づいて、フォーカスレンズ駆動部16を制御し、フォーカスレンズ12を目標位置に移動させる。
 また、フォーカスレンズ駆動制御部22aは、フォーカスレンズ位置検出部18で検出されるフォーカスレンズ12の現在位置の情報をイメージセンサ移動制御部150cに出力する。
 イメージセンサ移動制御部150cは、フォーカスレンズ12の目標位置の情報、フォーカスレンズ駆動制御部22aから出力されるフォーカスレンズ12の現在位置の情報、及び、イメージセンサ110の現在位置の情報に基づいて、イメージセンサ移動駆動部120を制御し、イメージセンサ110の移動を制御する。具体的には、フォーカスレンズ12が目標位置に到達する前に合焦するようにイメージセンサ110を移動させ、合焦後は、フォーカスレンズ12の移動に追従ないし同調するようにイメージセンサ110を移動させて、合焦状態を維持させる。
 図6は、イメージセンサの移動制御の概念図である。
 同図において、符号L1は、交換レンズ10によって形成される被写体の像の移動軌跡を示し、符号L2は、イメージセンサ110の移動軌跡(撮像面の移動軌跡)を示している。交換レンズ10によって形成される被写体の像の位置は、フォーカスレンズ12を光軸Lに沿って前後移動させることにより移動する。交換レンズ10によって形成される被写体の像の位置が、イメージセンサ110の撮像面上に位置することにより合焦する。
 フォーカスレンズ12は、位相差AF処理部132で求めたデフォーカスの方向及び量に基づいて目標位置が設定される。この目標位置は、交換レンズ10によって形成される被写体の像の位置が、基準位置に位置したイメージセンサ110の撮像面上に位置するように設定される。したがって、現在の位置から目標位置にフォーカスレンズ12を移動させることにより、交換レンズ10によって形成される被写体の像が、基準位置に位置したイメージセンサ110の撮像面の位置に移動する。
 いま、時間T0でAF制御が開始されたとする。時間T0において、イメージセンサ110は、基準位置に位置している。
 フォーカスレンズ12は、時間T0から目標位置に向けて移動を開始する。イメージセンサ110もフォーカスレンズ12と同時、又は、ほぼ同時に移動を開始し、時間T0から移動を開始する。この際、イメージセンサ110は、被写体の像を迎えに行くように、移動を開始する。すなわち、被写体の像の位置に向けて移動を開始する。たとえば、被写体の像の位置が、基準位置よりも被写体側(前側)に位置している場合は、被写体側(前側)に向けてイメージセンサ110を移動させる。一方、被写体の像の位置が、基準位置よりも像面側(後側)に位置している場合は、像面側(後側)に向けてイメージセンサ110を移動させる。
 このように、被写体の像の位置に向けてイメージセンサ110を移動させることにより、フォーカスレンズ12が目標位置に到達する前に合焦させることができる。
 合焦する前にイメージセンサ110が、可動範囲の端部に到達した場合は、その端部の位置でイメージセンサ110の移動を停止し、待機させる。図6に示す例は、合焦するよりも速くイメージセンサ110が可動範囲の端部に到達した場合を示しており、時間T1で可動範囲の端部に到達した場合を示している。この場合、イメージセンサ110は、可動範囲の端部で停止して待機する。
 可動範囲の端部に待機していると、やがて被写体の像の位置が、イメージセンサ110の撮像面の位置に到達する。これにより、合焦する。イメージセンサ移動制御部150cは、目標位置に対するフォーカスレンズ12の現在位置の情報及びイメージセンサ110の現在位置の情報に基づいて、合焦したか否かを判定する。図6に示す例は、時間T2で合焦した場合を示している。
 合焦後は、フォーカスレンズ12の移動が停止するまで、追従処理が行われる。すなわち、フォーカスレンズ12の移動に追従ないし同調するように、イメージセンサ110を移動させる。これにより、被写体の像の位置の移動に追従ないし同調して撮像面が移動し、合焦状態が維持される。
 なお、停止の際にオーバーシュートが生じる場合は、そのオーバーシュートを打ち消すように、イメージセンサ110を移動させる。オーバーシュートの有無は、フォーカスレンズ12の移動特性から事前に求めることができる。
 図6は、時間T3でフォーカスレンズ12の移動が停止した場合を示している。フォーカスレンズ12は、基準位置に位置するイメージセンサ110に被写体の像が結像するように目標位置が設定される。したがって、フォーカスレンズ12が目標位置に移動することにより、イメージセンサ110も基準位置に復帰する。
 このように、イメージセンサ移動制御部150cは、フォーカスレンズ12が目標位置に到達する前にイメージセンサ110を移動させて早期に合焦させ、合焦後は、フォーカスレンズ12の移動に追従ないし同調するようにイメージセンサ110を移動させて合焦状態を維持する制御を行う。
 [作用]
 図7は、本実施の形態のデジタルカメラによるAFの処理手順を示すフローチャートである。
 まず、初期設定が行われる(ステップS11)。具体的には、イメージセンサ110を基準位置に位置させる処理が行われる。
 その後、AF実行の指示の有無が判定される。AF実行は、レリーズボタンの半押しで指示される。レリーズボタンが半押しされると、操作部140からカメラ制御部150にS1ON信号が入力され、AF実行が指示される。したがって、S1ON信号の有無によって、AF実行の有無が判定される(ステップS12)。
 S1ON信号が入力され、AF実行が指示されると、まず、デフォーカスの方向及び量が検出される(ステップS13)。デフォーカスの方向及び量は、位相差検出画素118の出力に基づいて、位相差AF処理部132で検出される。位相差AF処理部132は、ユーザによって指定されたAFエリア114から第1位相差検出画素118A及び第2位相差検出画素118Bの信号を取得し、デフォーカスの方向及び量を算出する。AFエリア114の選択は、操作部140で行われる。
 デフォーカスの方向及び量が検出されると、その検出結果に基づいて、フォーカスレンズ12の目標位置が設定される(ステップS14)。目標位置設定部150aは、位相差AF処理部132で求めたデフォーカスの方向及び量に基づいて、被写体に合焦させるためのフォーカスレンズ12の目標位置を設定する。
 目標位置が設定されると、AF制御が実行される(ステップS15)。
 図8は、AF制御(合焦制御方法)の処理手順を示すフローチャートである。
 まず、フォーカスレンズ駆動部16が駆動され、目標位置に向けてフォーカスレンズ12が移動する(ステップS21)。これと同時にイメージセンサ移動駆動部120が駆動され、合焦する方向に向けてイメージセンサ110が移動する(ステップS22)。
 イメージセンサ110が合焦する方向に向けて移動することにより、フォーカスレンズ12が目標位置に到達する前に合焦する。すなわち、フォーカスレンズ12が目標位置に到達する前に被写体の像がイメージセンサ110の撮像面上に位置する。イメージセンサ移動制御部150cは、目標位置に対するフォーカスレンズ12の現在位置とイメージセンサ110の現在位置とに基づいて、合焦したか否かを判定する(ステップS23)。
 合焦したと判定すると、イメージセンサ移動制御部150cは、追従処理を開始する(ステップS24)。すなわち、フォーカスレンズ12は、合焦後も目標位置に向かって移動するので、このフォーカスレンズ12の移動に追従ないし同調するようにイメージセンサ110を移動させる。これにより、継続して合焦状態が維持される。
 この後、フォーカスレンズ12が目標位置に到達したか否かが判定される(ステップS25)。目標位置に到達すると、フォーカスレンズ駆動部16の駆動が停止され、フォーカスレンズ12が停止する(ステップS26)。更に、イメージセンサ移動駆動部120の駆動が停止され、イメージセンサ110が停止する(ステップS27)。なお、フォーカスレンズ12の停止に際してオーバーシュートが発生する場合は、そのオーバーシュートを打ち消すように、イメージセンサ110を移動させて停止する。
 以上一連の工程でAFの処理が完了する。この後、レリーズボタンが全押しされると、記録用の撮像処理が実行される。
 以上説明したように、本実施の形態のデジタルカメラ1によれば、フォーカスレンズ12が目標位置に到達する前にイメージセンサ110を合焦する方向に向けて移動させるので、早期に合焦させることができる。これにより、合焦するまでの時間を短縮でき、AFを高速化できる。
 [変形例]
 《イメージセンサの移動制御の変形例》
 上記実施の形態では、フォーカスレンズ12の目標位置の情報、フォーカスレンズ12の現在位置の情報、及び、イメージセンサ110の現在位置の情報に基づいて、イメージセンサ110の移動を制御する構成としているが、イメージセンサ110の移動制御の態様は、これに限定されるものではない。たとえば、位相差AF処理部132で検出されるデフォーカスの方向及び量に基づいて、イメージセンサ110の移動を制御する構成としてもよい。
 図9は、カメラ制御部及びレンズ制御部が実現するAFに係わる機能の変形例を示すブロック図である。
 位相差AF処理部132は、連続的にデフォーカスの方向及び量を検出し、その検出結果をイメージセンサ移動制御部150cに出力する。
 イメージセンサ移動制御部150cは、位相差AF処理部132で検出されたデフォーカスの方向及び量に基づいて、イメージセンサ110の移動を制御する。すなわち、デフォーカス量が0となるように、イメージセンサ110の移動を制御する。
 本態様によれば、フォーカスレンズ12の位置情報を必要としないので、レンズ側からカメラ側に位置情報を送ることを想定していない場合においても実現できる。また、イメージセンサ110の移動制御の処理も簡素化できる。
 また、上記実施の形態では、フォーカスレンズ12の駆動開始と同時にイメージセンサ110を移動させているが、イメージセンサ110を移動させるタイミングは、これに限定されるものではない。
 図10は、イメージセンサの移動制御の変形例の概念図である。
 図10に示す例では、交換レンズ10によって形成される被写体の像が、イメージセンサ110の可動範囲の端部に到達するタイミングに合わせて、イメージセンサ110を移動させている。
 図11は、イメージセンサの移動制御の他の変形例の概念図である。
 図11は、交換レンズ10によって形成される被写体の像が、イメージセンサ110の可動範囲内に存在する場合のイメージセンサ110を移動制御の例を示している。この場合、フォーカスレンズ12の駆動と同時にイメージセンサ110を移動させる。これにより、早期に合焦させることができる。合焦後は、フォーカスレンズ12の移動に追従ないし同調するようにイメージセンサ110を移動させる。
 《フォーカスレンズの移動制御の変形例》
 上記実施の形態では、フォーカスレンズ12を目標位置に向けて移動させる際、一定速度で移動させているが、フォーカスレンズ12を目標位置で停止させる前に減速させる構成としてもよい。これにより、オーバーシュートの発生を防止できる。
 図12は、フォーカスレンズの移動制御の変形例の概念図である。
 同図において、符号L1は、交換レンズ10によって形成される被写体の像の移動軌跡を示し、符号L2は、イメージセンサ110の移動軌跡を示している。交換レンズ10によって形成される被写体の像の移動軌跡L1は、フォーカスレンズ12の移動軌跡と一致する。
 フォーカスレンズ12は、時間T0で移動を開始し、時間T3で目標位置に到達する。図12に示すように、目標位置に到達する前にフォーカスレンズ12を減速させる。図12に示す例では、時間Txで減速し、その後、時間T3で目標位置に到達する。この場合、イメージセンサ110は、フォーカスレンズ12を減速させる前に合焦するように移動を制御する。図12に示す例では、時間T2で合焦し、その後、フォーカスレンズ12を減速させる構成としている。
 減速を開始する位置は、交換レンズ10によって形成される被写体の像の位置が、イメージセンサ110の可動範囲に入った後に設定される。これにより、少なくとも減速を開始する前にイメージセンサ110の移動によって、被写体に合焦させることができる。
 《オートフォーカスセンサの変形例》
 上記実施の形態では、イメージセンサ110の撮像面112に備えられた位相差検出画素118をオートフォーカスセンサとして使用しているが、オートフォーカスセンサの構成は、これに限定されるものではない。パッシブ方式、アクティブ方式等の公知のオートフォーカスセンサを採用できる。パッシブ方式としては、位相差を利用する方式の他、コントラストを利用する方式のオートフォーカスセンサを採用できる。コントラストを利用する方式のオートフォーカスセンサは、イメージセンサをオートフォーカスセンサとして利用できる。また、アクティブ方式のオートフォーカスセンサとしては、赤外線、超音波等を照射して距離を測定する方式のオートフォーカスセンサを採用できる。
 また、上記実施の形態では、位相差検出画素をx方向に沿って一定の間隔で配置しているが、y方向に沿って一定の間隔で配置してもよい。また、x方向及びy方向に沿って一定の間隔で配置してもよい。
 また、上記実施の形態では、画面中央に設定されたAFエリアにのみ位相差検出画素を配置しているが、位相差検出画素を配置する領域は、これに限定されるものではない。画面全体に配置する構成としてもよい。
 《フォーカスレンズの変形例》
 上記実施の形態では、フォーカスレンズを光軸に沿って前後移動させて焦点調節しているが、撮像レンズの焦点調節機構は、これに限定されるものではない。この他、液体レンズ、液晶レンズ等をフォーカスレンズとして利用することもできる。液体レンズ及び液晶レンズでは、屈折率変化を利用して、焦点調節する。
 フォーカスレンズに液体レンズを用いた場合、フォーカスレンズ駆動部は、液体レンズに印加する電圧(駆動電圧)を変化させることにより、液体レンズの屈折率を変化させる。この場合、駆動目標として、被写体に合焦させるための液体レンズの屈折率が設定される。イメージセンサ移動制御部は、目標とする屈折率となる前にイメージセンサを移動させて合焦させる。合焦後は、屈折率の変化による焦点の変動に追従ないし同調するように、イメージセンサを移動させる。
 同様に、フォーカスレンズに液晶レンズを用いた場合、フォーカスレンズ駆動部は、液晶レンズに印加する電圧(駆動電圧)を変化させることにより、液晶レンズの屈折率を変化させる。この場合、駆動目標として、被写体に合焦させるための液晶レンズの屈折率が設定される。イメージセンサ移動制御部は、目標とする屈折率となる前にイメージセンサを移動させて合焦させる。合焦後は、屈折率の変化による焦点の変動に追従ないし同調するように、イメージセンサを移動させる。
 《イメージセンサ移動駆動部の変形例》
 上記実施の形態では、ピエゾアクチュエータを使用して、イメージセンサ210を光軸Lに沿って移動させる構成としているが、イメージセンサ移動駆動部の構成は、これに限定されるものではない。この他、たとえば、リニアモータ、送りネジ機構等の公知の直動式の駆動機構を採用して、イメージセンサ210を光軸Lに沿って移動させることができる。
 《イメージセンサの基準位置の変形例》
 上記実施の形態では、イメージセンサの基準位置を可動範囲の中央に設定しているが、基準位置として設定する位置は、これに限定されるものではない。たとえば、可動範囲の中央よりも被写体側(前側)の位置に基準位置を設定してもよいし、また、像面側(後側)の位置に基準位置を設定してもよい。また、ユーザが、任意に設定できる構成としてもよい。なお、上記のように、可動範囲の中央に基準位置を設定することにより、追従性を向上できる。
 また、上記実施の形態では、フランジバックの位置に基準位置を設定しているが、フランジバックと異なる位置に設定してもよい。なお、上記のように、フランジバックの位置に基準位置を設定することにより、基準位置で合焦した際に交換レンズの光学性能を最大限に発揮させることができる。
 また、基準位置が可変する構成とすることもできる。たとえば、過去の被写体の合焦時のイメージセンサの位置情報を参照して、基準位置を適宜切り替える構成とすることができる。また、被写体に応じて、基準位置を適宜切り替える構成とすることもできる。たとえば、被写体の移動方向等に応じて、適宜切り替える構成とすることができる。たとえば、一方向に移動する被写体については、結像点の移動方向と反対方向に基準位置を設定する。
 《撮像部の変形例》
 上記実施の形態では、本発明を単板式のデジタルカメラに適用した場合を例に説明したが、本発明は多板式のカメラにも適用できる。
 図13は、3板式のデジタルカメラに本発明適用する場合の一例を示す図である。
 同図に示すように、3板式のデジタルカメラは、撮像部に色分解プリズム310、及び、3つのイメージセンサ210R、210G、210Bを備える。
 色分解プリズム310は、入射面310aに入射した光をR(Red)光、G(Green)光及びB(Blue)光の3色の光に分解する。分解された3色の光は、それぞれR光出射面310r、G光出射面310g、B光出射面310bから出射される。
 3つのイメージセンサは、R光を受光するイメージセンサ210Rと、G光を受光するイメージセンサ210Gと、B光を受光するイメージセンサ210Bと、で構成される。
 R光を受光するイメージセンサ210Rは、R光出射面310rに対向して配置され、R光出射面310rから出射されるR光を受光する。
 G光を受光するイメージセンサ210Gは、G光出射面310gに対向して配置され、G光出射面310gから出射されるG光を受光する。
 B光を受光するイメージセンサ210Bは、B光出射面310bに対向して配置され、B光出射面310bから出射されるB光を受光する。
 3つのイメージセンサ210R、210G、210Bは、それぞれ色分解プリズム310の入射面310aからの光路長が同じになる位置に配置される。
 3つのイメージセンサ210R、210G、210Bは、図示しないホルダを介して、色分解プリズム310に一体的に取り付けられる。色分解プリズム310にイメージセンサ210R、210G、210Bが一体化されたユニットを撮像ユニット330とする。イメージセンサ移動駆動部220xは、撮像ユニット330を光軸Lに沿って前後移動させる。また、イメージセンサ位置検出部222xは、基準位置に対する撮像ユニット330の位置を検出する。
 《撮像装置の変形例》
 上記実施の形態では、本発明をデジタルカメラに適用した場合を例に説明したが、本発明の適用は、これに限定されるものではない。この他、たとえば、ビデオカメラ、テレビカメラ、シネマカメラ等にも適用でき、更に、撮像機能を備えた電子機器(たとえば、携帯電話、スマートフォン、タブレットパソコン、ノートパソコン等)にも同様に適用できる。
 《その他の変形例》
 上記実施の形態では、駆動目標設定部、フォーカスレンズ駆動制御部、イメージセンサ移動制御部等をマイクロコンピュータで構成しているが、これらの機能を実現するためのハードウェア的な構成は、これに限定されるものではない。各種のプロセッサで構成できる。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理を行う処理部として機能する汎用的なプロセッサであるCPU、FPGA(FPGA:Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるPLD(PLD:Programmable Logic Device)、ASIC(ASIC:Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 一つの処理部は、これら各種のプロセッサのうちの一つで構成されていてもよいし、同種又は異種の二つ以上のプロセッサで構成されていてもよい。たとえば、複数のFPGAで構成されてもよいし、CPU及びFPGAの組み合わせで構成されてもよい。
 また、複数の処理部を一つのプロセッサで構成してもよい。複数の処理部を一つのプロセッサで構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、一つ以上のCPUとソフトウェアとの組合せで一つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(SoC:System On Chip)などに代表されるように、複数の処理部を含むシステム全体の機能を一つのICチップ(IC:Integrated Circuit)で実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを一つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路である。
1 デジタルカメラ
10 交換レンズ
12 フォーカスレンズ
14 絞り
16 フォーカスレンズ駆動部
18 フォーカスレンズ位置検出部
20 絞り駆動部
22 レンズ制御部
22a フォーカスレンズ駆動制御部
100 カメラ本体
102 マウント
110 イメージセンサ
112 撮像面
114 AFエリア
116 通常画素
118 位相差検出画素
118A 第1位相差検出画素
118B 第2位相差検出画素
120 イメージセンサ移動駆動部
122 イメージセンサ位置検出部
124 イメージセンサ駆動部
126 アナログ信号処理部
128 ADC(アナログデジタル変換器)
130 デジタル信号処理部
132 位相差AF処理部
134 メモリカードインタフェース
136 メモリカード
138 表示部
140 操作部
150 カメラ制御部
150a 目標位置設定部
150b AF制御部
150c イメージセンサ移動制御部
210B イメージセンサ
210G イメージセンサ
210R イメージセンサ
220x イメージセンサ移動駆動部
222x イメージセンサ位置検出部
310 色分解プリズム
310a 入射面
310b B光出射面
310g G光出射面
310r R光出射面
330 撮像ユニット
L 光軸
L1 交換レンズによって形成される被写体の像の移動軌跡
L2 イメージセンサの移動軌跡
S11~S15 AFの処理手順
S21~S27 AF制御の処理手順

Claims (11)

  1.  フォーカスレンズを有する撮像レンズと、
     前記フォーカスレンズを駆動するフォーカスレンズ駆動部と、
     イメージセンサと、
     前記イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、
     被写体に合焦させるための前記フォーカスレンズの駆動目標を設定する駆動目標設定部と、
     前記駆動目標設定部で設定された前記駆動目標に基づいて、前記フォーカスレンズの駆動を制御するフォーカスレンズ駆動制御部と、
     前記フォーカスレンズ駆動制御部が前記フォーカスレンズの駆動を停止する前に前記イメージセンサを移動させて合焦させ、合焦後は前記フォーカスレンズが停止するまで前記イメージセンサを移動させて合焦状態を維持させるイメージセンサ移動制御部と、
     を備えた撮像装置。
  2.  前記フォーカスレンズ駆動部は、前記フォーカスレンズを光軸に沿って移動させ、
     前記駆動目標設定部は、被写体に合焦させるための前記フォーカスレンズの目標位置を前記駆動目標として設定し、
     前記フォーカスレンズ駆動制御部は、前記フォーカスレンズ駆動部を制御して、前記フォーカスレンズを前記目標位置に移動させる、
     請求項1に記載の撮像装置。
  3.  パッシブ方式又はアクティブ方式のオートフォーカスセンサを更に備え、
     前記駆動目標設定部は、前記オートフォーカスセンサの出力に基づいて、前記駆動目標を設定する、
     請求項1又は2に記載の撮像装置。
  4.  前記オートフォーカスセンサが、位相差検出方式のオートフォーカスセンサで構成される、
     請求項3に記載の撮像装置。
  5.  前記オートフォーカスセンサが、前記イメージセンサの撮像面に備えられた複数の位相差検出画素で構成される、
     請求項4に記載の撮像装置。
  6.  前記イメージセンサの基準位置が、前記撮像レンズで規定されるフランジバックの位置に設定される、
     請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記フォーカスレンズ駆動制御部は、前記フォーカスレンズを前記目標位置で停止させる前に減速させる、
     請求項2に記載の撮像装置。
  8.  前記イメージセンサ移動制御部は、前記フォーカスレンズを減速させる前に前記イメージセンサを移動させて合焦させる、
     請求項7に記載の撮像装置。
  9.  前記イメージセンサ移動制御部は、前記フォーカスレンズの駆動開始と同時に前記イメージセンサを移動させる、
     請求項1から8のいずれか1項に記載の撮像装置。
  10.  前記イメージセンサ移動制御部は、前記イメージセンサを可動範囲の端部に移動させて待機させる、
     請求項1から9のいずれか1項に記載の撮像装置。
  11.  フォーカスレンズを有する撮像レンズと、前記フォーカスレンズを駆動するフォーカスレンズ駆動部と、イメージセンサと、前記イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、を備えた撮像装置の合焦制御方法であって、
     被写体に合焦させるための前記フォーカスレンズの駆動目標を設定するステップと、
     設定された前記駆動目標に基づいて、前記フォーカスレンズを駆動するステップと、
     前記フォーカスレンズの駆動を停止する前に前記イメージセンサを移動させて合焦させ、合焦後は前記フォーカスレンズが停止するまで前記イメージセンサを移動させて合焦状態を維持させるステップと、
     を含む撮像装置の合焦制御方法。
PCT/JP2018/032913 2017-09-20 2018-09-05 撮像装置及び撮像装置の合焦制御方法 WO2019058972A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019543538A JP6836656B2 (ja) 2017-09-20 2018-09-05 撮像装置及び撮像装置の合焦制御方法
CN201880060179.6A CN111095066B (zh) 2017-09-20 2018-09-05 摄像装置及摄像装置的对焦控制方法
US16/824,072 US10785402B2 (en) 2017-09-20 2020-03-19 Imaging device and focusing control method of imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-180244 2017-09-20
JP2017180244 2017-09-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/824,072 Continuation US10785402B2 (en) 2017-09-20 2020-03-19 Imaging device and focusing control method of imaging device

Publications (1)

Publication Number Publication Date
WO2019058972A1 true WO2019058972A1 (ja) 2019-03-28

Family

ID=65809686

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/032913 WO2019058972A1 (ja) 2017-09-20 2018-09-05 撮像装置及び撮像装置の合焦制御方法

Country Status (4)

Country Link
US (1) US10785402B2 (ja)
JP (1) JP6836656B2 (ja)
CN (1) CN111095066B (ja)
WO (1) WO2019058972A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775614B1 (en) * 2017-09-27 2020-09-15 Apple Inc. Optical aberration control for camera
WO2019188934A1 (ja) * 2018-03-30 2019-10-03 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
CN115277989A (zh) * 2021-04-29 2022-11-01 北京小米移动软件有限公司 电子设备
CN113671660A (zh) * 2021-08-13 2021-11-19 Oppo广东移动通信有限公司 图像生成方法、装置、电子设备和存储介质
CN116577900B (zh) * 2023-07-13 2023-09-22 中国科学院长春光学精密机械与物理研究所 一种具有等位移调焦功能的光电成像***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6689998B1 (en) * 2000-07-05 2004-02-10 Psc Scanning, Inc. Apparatus for optical distancing autofocus and imaging and method of using the same
JP2007148242A (ja) * 2005-11-30 2007-06-14 Konica Minolta Photo Imaging Inc 合焦制御装置、および撮像装置
JP2011253134A (ja) * 2010-06-04 2011-12-15 Canon Inc 撮像装置
JP2012042724A (ja) * 2010-08-19 2012-03-01 Canon Inc 光学機器
JP2013218063A (ja) * 2012-04-06 2013-10-24 Canon Inc カメラ

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6393277A (ja) * 1986-10-08 1988-04-23 Canon Inc 自動合焦装置
EP0319127B1 (en) * 1987-10-08 1994-08-03 Matsushita Electric Industrial Co., Ltd. Automatic focusing system for a video camera
JP2833169B2 (ja) * 1990-07-18 1998-12-09 日本ビクター株式会社 撮像装置
US5969760A (en) * 1996-03-14 1999-10-19 Polaroid Corporation Electronic still camera having mechanically adjustable CCD to effect focus
JP4437244B2 (ja) * 2003-11-19 2010-03-24 ソニー株式会社 撮像装置
CN1716078B (zh) * 2004-06-03 2012-03-28 佳能株式会社 图像拾取设备和图像拾取方法
JP4901093B2 (ja) 2004-11-19 2012-03-21 Hoya株式会社 デジタルカメラ
JP2006301032A (ja) * 2005-04-15 2006-11-02 Sony Corp オートフォーカス装置とオートフォーカス方法およびプログラム
JP4706335B2 (ja) * 2005-05-30 2011-06-22 株式会社ニコン オートフォーカス装置
JP2007279695A (ja) * 2006-03-17 2007-10-25 Citizen Holdings Co Ltd 自動合焦点装置
JP2009036986A (ja) * 2007-08-01 2009-02-19 Olympus Imaging Corp 撮影装置および撮影装置の制御方法
CN101639606B (zh) * 2008-07-30 2013-09-18 索尼株式会社 光学调焦装置
JP2010107866A (ja) * 2008-10-31 2010-05-13 Olympus Imaging Corp デジタルカメラ及び光学機器
WO2011158498A1 (ja) * 2010-06-15 2011-12-22 パナソニック株式会社 撮像装置及び撮像方法
JP2012222602A (ja) * 2011-04-08 2012-11-12 Sony Corp 撮像装置及び撮像システム
KR101915193B1 (ko) * 2012-04-24 2018-11-05 한화테크윈 주식회사 이미지 센서를 이동시켜 영상 블러 현상을 보상하는 방법 및 시스템
JP6152772B2 (ja) * 2012-11-29 2017-06-28 パナソニックIpマネジメント株式会社 撮像装置、半導体集積回路および撮像方法
WO2014083914A1 (ja) * 2012-11-29 2014-06-05 富士フイルム株式会社 撮像装置及び合焦制御方法
JP5948492B2 (ja) * 2013-03-29 2016-07-06 富士フイルム株式会社 撮像装置及び合焦制御方法
WO2015033646A1 (ja) * 2013-09-05 2015-03-12 富士フイルム株式会社 撮像装置及び合焦制御方法
JP6186498B2 (ja) * 2014-03-25 2017-08-23 富士フイルム株式会社 撮像装置及び合焦制御方法
US9918004B2 (en) * 2015-02-06 2018-03-13 Panasonic Intellectual Property Management Co., Ltd. Camera body capable of driving an image sensor along an optical axis in response to a change in an optical state of an object image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6689998B1 (en) * 2000-07-05 2004-02-10 Psc Scanning, Inc. Apparatus for optical distancing autofocus and imaging and method of using the same
JP2007148242A (ja) * 2005-11-30 2007-06-14 Konica Minolta Photo Imaging Inc 合焦制御装置、および撮像装置
JP2011253134A (ja) * 2010-06-04 2011-12-15 Canon Inc 撮像装置
JP2012042724A (ja) * 2010-08-19 2012-03-01 Canon Inc 光学機器
JP2013218063A (ja) * 2012-04-06 2013-10-24 Canon Inc カメラ

Also Published As

Publication number Publication date
CN111095066A (zh) 2020-05-01
US20200221016A1 (en) 2020-07-09
US10785402B2 (en) 2020-09-22
JPWO2019058972A1 (ja) 2020-11-05
CN111095066B (zh) 2021-11-02
JP6836656B2 (ja) 2021-03-03

Similar Documents

Publication Publication Date Title
JP6836656B2 (ja) 撮像装置及び撮像装置の合焦制御方法
US8369700B2 (en) Distance measurement and photometry device, and imaging apparatus
US20140071303A1 (en) Processing apparatus, processing method, and program
TW200803473A (en) Imaging apparatus
CN111133356B (zh) 摄像装置、摄像装置主体及摄像装置的对焦控制方法
US11729500B2 (en) Lowpass filter control apparatus and lowpass filter control method for controlling variable lowpass filter
JP7156352B2 (ja) 撮像装置、撮像方法、及びプログラム
US9451149B2 (en) Processing apparatus, processing method, and program
JP2015188199A (ja) 撮像装置
JP6781859B2 (ja) 撮像装置、その焦点合わせ補助方法、及び、その焦点合わせ補助プログラム
JP6856761B2 (ja) 撮像装置、撮像装置本体及び撮像装置の合焦制御方法
KR20110054772A (ko) 디지털 촬영장치 및 그 제어방법
US8305481B2 (en) Image pickup apparatus and method for controlling the same
JP6960755B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2012128298A (ja) 撮像装置及び撮像方法
JP7241511B2 (ja) 撮像装置およびその制御方法
US20240171858A1 (en) Focus control apparatus, image pickup apparatus, and focus control method
JP5938268B2 (ja) 撮像装置およびその制御方法
JP2016006463A (ja) 撮像装置およびその制御方法
JP2021189220A (ja) 撮像装置およびその制御方法
JP2015128226A (ja) 撮像装置、その制御方法及びプログラム
JP2013238730A (ja) 撮像装置、撮像方法およびプログラム
US20150062348A1 (en) Image capture apparatus and method for controlling the same
JP2018107546A (ja) 撮像装置
JP2017107058A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18858717

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019543538

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18858717

Country of ref document: EP

Kind code of ref document: A1