WO2018096816A1 - 焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体 - Google Patents

焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体 Download PDF

Info

Publication number
WO2018096816A1
WO2018096816A1 PCT/JP2017/036713 JP2017036713W WO2018096816A1 WO 2018096816 A1 WO2018096816 A1 WO 2018096816A1 JP 2017036713 W JP2017036713 W JP 2017036713W WO 2018096816 A1 WO2018096816 A1 WO 2018096816A1
Authority
WO
WIPO (PCT)
Prior art keywords
defocus amount
determination
focus adjustment
area
focus
Prior art date
Application number
PCT/JP2017/036713
Other languages
English (en)
French (fr)
Inventor
哲央 菊地
功刀 和正
幸恵 山崎
友宏 星野
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2018096816A1 publication Critical patent/WO2018096816A1/ja
Priority to US16/423,110 priority Critical patent/US10859790B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to a focus adjustment device, a control method for the focus adjustment device, and a recording medium storing a focus adjustment program.
  • Japanese Unexamined Patent Application Publication No. 2007-199261 and Japanese Unexamined Patent Application Publication No. 2015-087706 propose techniques related to AF area selection based on a defocus amount during autofocus (AF) operation.
  • Japanese Laid-Open Patent Publication No. 2007-199261 discloses a technique for detecting an AF area where a main subject exists based on a defocus amount
  • Japanese Laid-Open Patent Publication No. 2015-087706 discloses a defocusing technique.
  • a technique for making it difficult for an AF area with a large deviation in focus amount to be selected as an AF area without a main subject is disclosed.
  • AF autofocus
  • the focus adjustment apparatus includes a plurality of AF areas, repeatedly detects a defocus amount for the AF area, and selects the AF area based on the defocus amount to perform focus adjustment. From the first determination as to whether or not the moving body prediction formula is satisfied, and the moving body prediction formula, the moving body prediction formula is calculated based on a plurality of defocus amount histories that are repeatedly detected.
  • a second determination is made as to whether the driving direction of the focus lens to be obtained is a close direction or an infinite direction, and it is determined in the first determination that the moving object prediction formula is satisfied, and in the second determination When it is determined that the direction is the closest direction, at least one circuit that selects an AF area indicating a defocus amount closest to the moving object prediction formula is provided.
  • a control method for a focus adjustment apparatus includes a plurality of AF areas, repeatedly detects a defocus amount for the AF area, selects an AF area based on the defocus amount, and performs focus adjustment.
  • a moving object prediction formula is calculated based on a plurality of defocus amount histories that are repeatedly detected, a first determination as to whether or not the moving object prediction formula is satisfied, and the moving object Performing a second determination as to whether the driving direction of the focus lens determined from the prediction formula is a close direction or an infinite direction, and determining that the moving object prediction formula is satisfied in the first determination; and And selecting an AF area showing a defocus amount closest to the moving object prediction formula when it is determined in the second determination that the direction is the closest direction.
  • a computer-readable non-transitory storage medium storing a focus adjustment program repeatedly detects a defocus amount for each of a plurality of AF areas, and performs focus adjustment based on the defocus amount.
  • a computer-readable non-transitory storage medium storing a focus adjustment program for causing a computer to select the AF area to be used, wherein the focus adjustment program includes a plurality of repeatedly detected data.
  • a focus adjustment device that can select and perform an AF by selecting an appropriate autofocus (AF) area, a control method for the focus adjustment device, and a recording medium storing a focus adjustment program.
  • AF autofocus
  • FIG. 1 is a block diagram illustrating an example of a configuration of a focus adjustment apparatus 1 according to an embodiment.
  • FIG. 2A is a flowchart illustrating an example of a focus adjustment device control process according to an embodiment.
  • FIG. 2B is a flowchart illustrating an example of a focus adjustment device control process according to an embodiment.
  • FIG. 3 is a schematic diagram illustrating an example of a plurality of AF areas according to an embodiment.
  • FIG. 4 is a schematic diagram illustrating an example of a correction amount calculation unit in the case of an all target according to an embodiment.
  • FIG. 5 is a schematic diagram illustrating an example of an AF calculation execution range in the case of a group target in the first area selection process according to an embodiment.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a focus adjustment apparatus 1 according to an embodiment.
  • FIG. 2A is a flowchart illustrating an example of a focus adjustment device control process according to an embodiment.
  • FIG. 2B is
  • FIG. 6 is a schematic diagram illustrating an example of an AF calculation execution range in the case of a group target in the first area selection process according to an embodiment.
  • FIG. 7 is a schematic diagram illustrating an example of an AF calculation execution range in the case of all targets in the first area selection process according to an embodiment.
  • FIG. 8 is a schematic diagram illustrating an example of a face detection range and an AF calculation execution range in the case of face AF in the first area selection process according to an embodiment.
  • FIG. 9 is a schematic diagram illustrating an example of the priority order of selection of AF areas included in the AF calculation execution range in the case of face AF in the first area selection process according to an embodiment.
  • FIG. 10 is a schematic diagram illustrating an example of an AF calculation execution range during tracking AF in the second area selection process according to an embodiment.
  • FIG. 11 is a schematic diagram illustrating an example of AF area selection in the first case according to an embodiment.
  • FIG. 12 is a schematic diagram illustrating an example of AF area selection in the second case according to the embodiment.
  • FIG. 13 is a schematic diagram illustrating an example of AF area selection in the third case according to the embodiment.
  • FIG. 1 An example of the configuration of the focus adjustment apparatus 1 according to an embodiment of the present invention is shown in FIG. 1 as a block diagram.
  • the focus adjustment device 1 is an example of an imaging device and an example of a camera system.
  • a solid line with an arrow indicates a data flow
  • a broken line with an arrow indicates a control signal flow.
  • the focus adjustment device 1 includes an interchangeable lens 100 and a camera body 200.
  • the interchangeable lens 100 is configured to be detachable from the camera body 200.
  • the interchangeable lens 100 and the camera body 200 are connected so that they can communicate with each other when the interchangeable lens 100 is attached to the camera body 200.
  • the focus adjustment device 1 is not necessarily a lens-interchangeable camera system.
  • the focus adjustment device 1 may be a lens-integrated camera system.
  • the interchangeable lens 100 as a lens unit includes a photographing lens 102, a drive unit 104, a lens CPU 106, and a lens side storage unit 108.
  • the taking lens 102 is an optical system for forming an image of the subject light flux on the image pickup device 208 of the camera body 200.
  • the photographing lens 102 includes a focus lens 1021 and a diaphragm 1022.
  • the focus lens 1021 is configured to adjust the focal position of the photographing lens 102 by moving in the optical axis direction.
  • the stop 1022 is disposed on the optical axis of the focus lens 1021.
  • the aperture of the diaphragm 1022 is variable.
  • the diaphragm 1022 adjusts the subject light flux that passes through the focus lens 1021 and enters the image sensor 208.
  • the drive unit 104 drives the focus lens 1021 and the diaphragm 1022 based on the control signal output from the lens CPU 106.
  • the photographing lens 102 may be configured as a zoom lens.
  • the driving unit 104 also performs zoom driving.
  • the lens CPU 106 is configured to be able to communicate with the CPU 216 of the camera body 200 via an interface (I / F) 110 as a lens communication unit.
  • the lens CPU 106 has a function as a focus control unit.
  • the driving unit 104 performs a focusing operation according to the control of the CPU 216.
  • the lens CPU 106 transmits information such as the aperture value (F value) of the aperture 1022 and lens information stored in the lens-side storage unit 108 to the CPU 216 via the I / F 110.
  • the lens side storage unit 108 stores lens information regarding the interchangeable lens 100.
  • the lens information includes, for example, information on the focal length of the photographing lens 102 and information on aberration.
  • the camera body 200 includes a mechanical shutter 202, a drive unit 204, an operation unit 206, an imaging device 208, an imaging control circuit 210, an analog processing unit 212, an analog / digital conversion unit (ADC) 214, a CPU 216, and an image.
  • the mechanical shutter 202 is configured to be openable and closable, and adjusts the incident time of the subject luminous flux from the subject to the image sensor 208 (exposure time of the image sensor 208).
  • a focal plane shutter is employed as the mechanical shutter 202.
  • the drive unit 204 drives the mechanical shutter 202 based on a control signal from the CPU 216.
  • the operation unit 206 includes a focus adjustment instruction unit 206a.
  • the focus adjustment instruction unit 206a includes a release button, for example, and outputs a control signal for starting focusing in response to an operation by the user such as the first release. That is, the focus adjustment instruction unit 206a issues a focus adjustment start instruction.
  • the operation unit 206 includes various operation buttons such as a power button, a moving image button, a playback button, and a menu button, and various operation members such as a touch panel.
  • the operation unit 206 detects operation states of various operation members and outputs a signal indicating the detection result to the CPU 216.
  • the image sensor 208 is disposed on the optical axis of the photographic lens 102, behind the mechanical shutter 202, and at a position where the subject luminous flux is imaged by the photographic lens 102.
  • the image sensor 208 is configured by two-dimensionally arranging light receiving portions (for example, photodiodes) constituting pixels.
  • the light receiving unit constituting the image sensor 208 generates a charge corresponding to the amount of received light.
  • the electric charges generated in the light receiving units are accumulated in capacitors connected to the respective light receiving units.
  • the electric charge accumulated in the capacitor is read out as a pixel signal in accordance with a control signal from the imaging control circuit 210.
  • the image sensor 208 may have focus detection pixels.
  • the imaging control circuit 210 controls the exposure of the image sensor 208 and the reading of the pixel signal from the image sensor 208 in accordance with the setting for reading the pixel signal from the image sensor 208.
  • the analog processing unit 212 performs analog processing such as amplification processing on the pixel signal read from the image sensor 208 according to the control of the imaging control circuit 210.
  • the ADC 214 converts the pixel signal output from the analog processing unit 212 into pixel data in digital format. In the following description, a collection of pixel data is referred to as image data.
  • the CPU 216 is a control unit that performs overall control of the focus adjustment device 1 according to a program stored in the main body side storage unit 230.
  • the CPU 216 includes a moving object prediction unit 216a, a determination unit 216b, and a sensitivity setting unit 216c.
  • the moving object prediction unit 216a calculates a moving object prediction formula based on a plurality of defocus amount histories that are repeatedly detected.
  • the history includes, for example, a history of past distance measurement results (defocus amount or driving position of the focus lens 1021) stored in the DRAM 228.
  • the plurality of defocus amounts are repeatedly detected by, for example, a focus detection circuit 222 described later.
  • the determination unit 216b performs determination (first determination) as to whether or not the moving object prediction formula is satisfied. In addition, the determination unit 216b further performs determination (second determination) on whether the driving direction of the focus lens obtained from the moving object prediction formula is the closest direction or the infinite direction. The second determination is whether the inclination of the moving object prediction formula is positive (the driving direction is the closest direction) or negative (the driving direction is the infinite direction) when the vertical axis indicates the lens position and the horizontal axis indicates time. Can also be expressed. In the description of the present embodiment, a positive defocus amount means that there is a certain amount of defocus and the defocus direction is the closest direction side.
  • the determination unit 216b is the minimum absolute value of the positive defocus amount and the minimum absolute value of the negative defocus amount among the detected defocus amounts.
  • a determination (third determination) is further made as to whether or not there is a defocus amount smaller than a predetermined coefficient multiple of or a positive defocus amount is sufficiently small.
  • the determination unit 216b may perform an evaluation related to the accuracy of the moving object prediction expression, such as how much the calculated moving object prediction expression follows the defocus amount history information. Further, the accuracy of the moving object prediction formula evaluated in this way can be expressed as, for example, the reliability of the moving object prediction expression, the certainty of the moving object prediction expression, and the like.
  • Sensitivity setting unit 216c sets the sensitivity of focus adjustment. For example, when the user wants AF to follow a rapidly moving subject that suddenly accelerates or decelerates, the user sets a high sensitivity.
  • the sensitivity may be provided with a plurality of predetermined values such as “high”, “standard”, “low” and the like, and a user can set an arbitrary value. It may be a thing.
  • the image processing unit 218 performs various types of image processing on the image data. For example, the image processing unit 218 performs image processing for recording a still image when recording a still image. Similarly, the image processing unit 218 performs image processing for moving image recording when recording a moving image. Furthermore, the image processing unit 218 performs image processing for display during live view display.
  • the image compression / decompression unit 220 compresses the image data (still image data or moving image data) generated by the image processing unit 218 when the image data is recorded. When reproducing the image data, the image data recorded in the compressed state on the recording medium 232 is expanded.
  • the focus detection circuit 222 performs a defocus amount calculation for calculating a defocus amount (a focus shift direction and a focus shift amount) with respect to the focus position of the focus lens 1021.
  • a focus detection pixel is provided in the image sensor 208, pixel data from the focus detection pixel is acquired, and based on the acquired pixel data, a known phase difference method is used for the focus position of the focus lens 1021. Calculate the defocus amount. Then, the focus detection circuit 222 calculates a lens position to be driven by the focus lens 1021 based on the defocus amount. In the following description, it is assumed that the focus detection circuit 222 detects the defocus amount by a phase difference method using focus detection pixels.
  • the focus detection circuit 222 may detect the defocus amount by various methods other than the phase difference method using the focus detection pixels.
  • the focus detection circuit 222 may detect a defocus amount from a pair of image data output from a distance measuring sensor different from the focus detection pixel.
  • the focus detection circuit 222 includes a reliability determination unit 222a.
  • the reliability determination unit 222a performs reliability determination regarding the defocus amount detection, that is, reliability determination of the two-image interval value.
  • the display unit 224 is a display unit such as a liquid crystal display or an organic EL display, and is disposed on the back surface of the camera body 200, for example.
  • the display unit 224 displays an image according to the control of the CPU 216.
  • the display unit 224 is used for live view display, display of recorded images, and the like.
  • the bus 226 is connected to the ADC 214, the CPU 216, the image processing unit 218, the image compression / decompression unit 220, the focus detection circuit 222, the DRAM 228, the main body side storage unit 230, and the recording medium 232, and transfers various data generated in these blocks. It functions as a transfer path for
  • the DRAM 228 is a memory that can be electrically rewritten, and temporarily stores various data such as the above-described image data (pixel data), image data for recording, image data for display, and processing data in the CPU 216.
  • An SDRAM may be used for temporary storage.
  • the main body storage unit 230 stores various data such as a program used by the CPU 216 and adjustment values of the camera main body 200.
  • the recording medium 232 is configured to be built in or loaded into the camera body 200, and records image data for recording as an image file of a predetermined format.
  • the DRAM 228, the main body storage unit 230, and the recording medium 232 may each be configured with one memory or the like, or may be configured with a plurality of memories or the like combined.
  • the tracking circuit 234 tracks a moving subject such as a moving child or pet.
  • the face detection circuit 236 detects whether or not the subject includes a face, and when the subject includes a face, the face detection circuit 236 detects the position within the angle of view.
  • an area including the face detected by the face detection circuit 236 is referred to as a face detection range.
  • the face detection circuit 236 includes a pupil detection circuit.
  • the pupil detection circuit detects, for example, the presence or absence of the pupil and the position of the pupil within the face detection range detected by the face detection circuit 236.
  • the lens CPU 106, the CPU 216, and each unit included in the CPU 216 include Central Processing Unit (CPU), Application Specific Integrated Circuit (ASIC), Field Programmable Gate Array (FPGA), Digital Signal Processor (DSP), or Graphics Processing Unit (Integrated circuits such as GPU).
  • the CPU 216 and each unit included in the CPU 216 may be configured by one integrated circuit or the like, or may be configured by combining a plurality of integrated circuits. These operations of the integrated circuit and the like are performed in accordance with a program recorded in a recording area included in the lens side storage unit 108, the main body side storage unit 230, or the integrated circuit, for example.
  • step S101 the CPU 216 turns on the camera based on, for example, an operation signal output by the operation unit 206 in response to a user operation.
  • step S102 the CPU 216 determines whether or not the 1st release switch is in an ON state based on, for example, an operation signal output by the focus adjustment instruction unit 206a in response to a user operation.
  • the 1st release switch is a switch that is turned on in response to, for example, a half-press operation of the release button by the user.
  • the focus adjustment device control process proceeds to step S104 if it is determined that the first release switch is in the on state, and proceeds to step S103 if it is not determined.
  • step S103 the CPU 216 captures image data for live view (LV) display.
  • the CPU 216 switches the control signal of the driving unit 204 so that the mechanical shutter 202 is fully opened, and outputs a control signal to the lens CPU 106 so as to drive the diaphragm 1022.
  • the CPU 216 starts an exposure operation for LV display by the image sensor 208 after a lapse of a predetermined time that the diaphragm 1022 is opened and the mechanical shutter 202 is fully opened.
  • the frame rate of the exposure operation for LV display is, for example, 60 fps.
  • the image processing unit 218 performs correction processing on the pixel data from the focus detection pixels.
  • the pixel data from the focus detection pixel can be used for LV display similarly to the pixel data from the imaging pixel.
  • the image processing unit 218 performs other processing necessary for generating image data for LV display to generate image data for display.
  • the CPU 216 displays an LV image on the display unit 224 based on the display image data generated by the image processing unit 218.
  • the focus adjustment device control process returns to step S102.
  • the processing related to the LV display in step S103 is repeatedly performed until it is determined in step S102 that the 1st release switch is on.
  • step S104 the CPU 216 takes in image data for autofocus (AF).
  • the CPU 216 starts an AF exposure operation by the image sensor 208.
  • the exposure time in the AF exposure operation may be different from the exposure time in the LV display exposure operation.
  • the pixel signal may be read from only the focus detection pixel.
  • step S105 the reliability determination unit 222a determines the reliability of the two-image interval value.
  • FIG. 3 an example of a plurality of AF areas according to the present embodiment is shown in FIG. 3 as a schematic diagram, and the reliability determination of the two-image interval value according to the present embodiment will be described with reference to this.
  • FIG. 3 a description will be given of an example in which 11 AF areas A1 are arranged vertically and horizontally, and all AF areas A0 are composed of 121 AF areas.
  • the reliability determination according to the present embodiment is performed in each AF area included in the entire AF area A0, for example.
  • the reliability determination according to the present embodiment is performed in the vertical direction and the horizontal direction in each of the 121 AF areas. In the reliability determination according to the present embodiment, whether the contrast amount of the focus detection pixel output is sufficient, whether the minimum value in the correlation calculation result is sufficiently small, the minimum value and the minimum value in the correlation calculation result are determined. It is determined whether or not the slope FS with the value of the larger correlation calculation result among the correlation calculation results at the positions adjacent to the position to be taken is sufficient (whether an edge stands in the V shape).
  • step S105 in the focus adjustment apparatus control process are performed only for the AF area determined as a result of the reliability determination and that the above-described three determination conditions are all satisfied. Shall be. Note that the description here does not exclude that the subsequent processing is performed on an AF area where all of the above three conditions are not satisfied.
  • the reliability determination threshold value may be set separately from a value at the time of area selection and a simple focus determination value. At the time of area selection, a stable area selection is performed by strictly setting a threshold value, and at the time of focusing determination, the threshold value is set to a level that can ensure accuracy.
  • the determination conditions in the reliability determination are not limited to the above three conditions, and other conditions may be added or any of the three conditions may be omitted. Further, whether each AF area satisfies the various conditions may be determined by calculating the degree to which the various conditions are satisfied as a numerical value and evaluating the reliability based on the numerical value. Good.
  • the focus detection circuit 222 calculates the defocus amount (focus shift direction and focus shift amount) with respect to the focus position of the focus lens 1021 by a known phase difference method using pixel data acquired from the focus detection pixel. To do.
  • the defocus amount is a value in mm, for example, by multiplying the two image interval values of each AF area (image shift amount indicating the minimum correlation calculation result) by a different sensitivity value for each AF area.
  • a correction amount of contrast best deviation of the photographing lens generally a frequency deviation amount of the photographing lens
  • a different correction amount for each AF area is added to the defocus amount.
  • the correction amount can also be expressed as an optical correction amount.
  • the optical correction amount is stored in the main body storage unit 230, for example.
  • the focus detection circuit 222 further performs a process of converting the defocus amount into a focus lens position (lens pulse position) in order to perform moving object prediction.
  • the focus detection circuit 222 converts the defocus amount into a pulse position using an approximate expression for each defocus amount with respect to the current lens position.
  • the approximate expression is, for example, a cubic expression determined for each interchangeable lens.
  • the focus pulse position which is the focus lens position
  • focus pulse position current lens position (lens pulse position) + a ⁇ defocus amount cubed + b ⁇ defocus amount squared + c ⁇ defocus amount
  • a, b, and c in the equation is a value uniquely determined for each photographic lens depending on the zoom value of the photographic lens and the current lens position.
  • the focus detection circuit 222 performs the following processing, for example. For example, when the AF area setting is a group target using 5 points, 9 points, etc. out of 121 points, only the correction amount in one AF area included in the group is calculated, and the AF area included in the group is calculated. In contrast, the same correction amount is applied as a temporary correction amount.
  • the same correction amount is applied as a temporary correction amount for each grouped area as in the case of the group target described above.
  • An example of the correction amount calculation unit in the case of the all target is shown in FIG. 4 as a schematic diagram.
  • the correction amount is calculated for each correction amount calculation execution range A2 composed of a plurality of AF areas A1 as indicated by a thick frame line in FIG.
  • the correction amount calculation execution range A2 is, for example, 9 points of 3 ⁇ 3 at the center, 6 points of 3 ⁇ 2 at the top and bottom of the center, 6 points of 2 ⁇ 3 at the left and right of the center, and 4 points of 2 ⁇ 2 for the others.
  • the correction amount in the AF area A3 included in the correction amount calculation execution range A2 is applied as a temporary correction amount.
  • the AF area A3 for example, the AF area A1 indicated by hatching in FIG. 4 is selected.
  • the AF area A3 is arranged at a position closest to the center of the image sensor 208 in the AF area A1 included in each correction amount calculation execution range A2. It is not limited.
  • any AF area A1 may be selected from among the AF areas A1 included in each correction amount calculation execution range A2.
  • the calculation of the correction amount can be done in the calculation time for 25 ⁇ 2 directions instead of 121 times ⁇ 2 directions.
  • the focus detection circuit 222 finally calculates the correct correction amount for the AF area selected in the area selection process described later. That's fine.
  • step S107 the CPU 216 performs a first area selection process. Although details of the first area selection process will be described later, in this process, an AF area indicating the closest defocus amount is selected based on the value of the defocus amount calculated in step S106.
  • the first area selection process is performed after the first release is pressed and before the focus determination is once performed.
  • step S108 the CPU 216 determines whether or not the focus lens 1021 is in focus. This determination is performed, for example, by determining whether or not the defocus amount is within a predetermined allowable range. Details of the determination will be described later.
  • the focus adjustment device control process proceeds to step S109 if the focus lens 1021 is not determined to be in focus, and proceeds to step S110 if it is determined that the focus lens 1021 is in focus.
  • step S109 the CPU 216 outputs a control signal to the lens CPU 106 so that the focus lens 1021 is driven according to the focus lens position (lens pulse position).
  • the lens pulse position is a focus pulse position calculated by the focus detection circuit 222 based on the defocus amount in step S106, for example.
  • the lens CPU 106 acquires the control signal and drives the focus lens 1021 via the drive unit 104. Thereafter, the focus adjustment device control process returns to step S102.
  • step S110 the CPU 216 starts the exposure operation for AF and LV and reads out the pixel signal in the same manner as the processing in step S104.
  • step S111 the reliability determination unit 222a determines the reliability of the two-image interval value in the same manner as the process in step S105.
  • step S112 the focus detection circuit 222 calculates the defocus amount in the same manner as the process in step S106.
  • the focus detection circuit 222 further performs processing for converting the defocus amount into a focus lens position (focus pulse position).
  • step S113 the CPU 216 performs a second area selection process. Although details of the second area selection processing will be described later, this processing is performed after the main subject is once focused (that is, during the holding of the first release).
  • step S114 the CPU 216 performs a process of storing history information used in the moving object prediction calculation in, for example, the DRAM 228.
  • the history information includes, for example, a lens pulse position based on the defocus amount corresponding to the AF area selected in the second area selection process.
  • step S115 the moving object prediction unit 216a starts the moving object prediction calculation.
  • the moving object prediction calculation is a process for predicting the current position of the focus lens 1021 to be driven from the history of past distance measurement results (drive position of the focus lens 1021).
  • step S116 the CPU 216 determines whether or not the 2nd release switch is turned on.
  • the 2nd release switch is a switch that is turned on in response to, for example, a user fully pressing the release button. If it is determined that the 2nd release switch is not turned on, the focus adjustment device control process proceeds to step S117. If it is determined that the 2nd release switch is turned on, the process proceeds to step S118.
  • step S117 the CPU 216 determines whether or not the focus lens 1021 is in an in-focus state in the same manner as in step S108. Details of the determination will be described later.
  • the focus adjustment device control process proceeds to step S118 if the focus lens 1021 is not determined to be in focus, and returns to step S110 if it is determined that the focus lens 1021 is in focus.
  • step S118 the CPU 216 drives the focus lens in the same manner as in step S109. Thereafter, the focus adjustment device control process returns to step S110.
  • step S119 the CPU 216 starts the operation of the mechanical shutter 202 in order to perform the main exposure for still image continuous shooting.
  • the operation of the mechanical shutter 202 includes an opening / closing operation of the mechanical shutter 202 before and after the main exposure and a full opening operation of the mechanical shutter 202 for starting the exposure operation for live view and AF after the main exposure.
  • the CPU 216 switches the control signal of the drive unit 204 so that the mechanical shutter 202 is fully closed.
  • the CPU 216 controls the drive unit 204 so that the mechanical shutter 202 is fully opened.
  • step S120 the CPU 216 instructs the lens CPU 106 to simultaneously drive the focus lens 1021 and the aperture 1022, and starts the operation.
  • an instruction is given to drive the aperture 1022 to an aperture amount required for still image continuous shooting that is determined in advance by, for example, an exposure amount calculation for Automatic Exposure (AE).
  • AE Automatic Exposure
  • step S121 the CPU 216 starts main exposure.
  • the main exposure is an exposure operation for acquiring image data for recording.
  • the CPU 216 controls the drive unit 204 so that the mechanical shutter 202 is opened and closed only during an exposure period necessary for predetermined still image continuous shooting.
  • the CPU 216 starts the imaging operation of the imaging element 208 during the exposure period.
  • the imaging control circuit 210 reads pixel signals from each pixel of the imaging element 208.
  • the image processing unit 218 performs processing for correcting the pixel output of the focus detection pixel and generating other image data for recording.
  • the image compression / decompression unit 220 compresses the recording image data.
  • the CPU 216 records the compressed recording image data on the recording medium 232 as an image file.
  • step S122 the CPU 216 instructs the lens CPU 106 to drive the diaphragm 1022.
  • an instruction is given to drive the aperture 1022 to an aperture amount (for example, an open aperture) necessary for live view exposure and AF exposure.
  • the processing in this step may be performed in parallel with the readout of the pixel signal after the main exposure in step S121. By such parallel processing, the display time of the live view image during the main exposure can be extended.
  • step S123 the CPU 216 determines whether or not the 1st release switch is in an on state in the same manner as in step S104. When it is determined that the focus adjustment device control process is in the first release state, the process returns to step S110, and when it is not determined, the process proceeds to step S124.
  • step S124 the CPU 216 determines whether to turn off the power of the camera body 200. For example, when an instruction to turn off the power is given by the user's operation of the operation unit 206 or when there is no operation of the user's operation unit 206 for a predetermined time, it is determined that the power is turned off.
  • the focus adjustment device control process returns to step S102 when it is determined that the power of the camera body 200 is not turned off, and ends when it is determined that the power is turned off.
  • step S107 ⁇ First area selection processing>
  • the focus adjustment instructing unit 206a issues a focus adjustment start instruction, and then in step S108, the in-focus state is temporarily set. This is performed until the determination (in-focus determination) is made.
  • an AF area showing the maximum value (closest) of positive defocus amounts among the plurality of defocus amounts is selected.
  • phase difference detection direction indicating the maximum value of the defocus amount is selected, and the defocus amount indicated by the phase difference detection direction is employed.
  • the AF area where the phase difference detection calculation is performed may be referred to as an AF calculation execution range.
  • the defocus amount is calculated in an area including a plurality of AF areas such as group 5 points and group 9 points designated by the user.
  • An example of the AF calculation execution range in the case of the group target in the first area selection processing according to the present embodiment is shown in FIGS. 5 and 6, respectively.
  • the group 5 point AF calculation execution range A4 and the group 9 point AF calculation execution range A5 are respectively shown in FIGS. 5 and 6 surrounded by a cross-shaped or rectangular thick frame line. It is an area.
  • the AF area indicating the maximum defocus amount is selected and indicated by the AF area. Defocus amount is adopted.
  • the phase difference detection direction indicating the maximum value of the defocus amount is further selected in the same manner as in the case of the single target.
  • a defocus amount indicated by the phase difference detection direction may be employed.
  • the area selection is the phase difference detection direction indicating the maximum defocus amount among the phase difference detection directions included in the AF areas belonging to the group and determined to be reliable. May be selected, and a defocus amount indicated by the phase difference detection direction may be employed.
  • FIG. 7 shows an example of an AF area (priority calculation range) that is preferentially selected in the case of all targets in the first area selection process according to the present embodiment.
  • the center 25 point AF area first priority calculation range A6 surrounded by a thick frame is selected with the highest priority.
  • the 49-point AF area second priority calculation range A7 surrounded by a thick frame in FIG. 7 is selected.
  • the AF calculation execution range is the 121-point all AF area A0, and the first priority calculation range A6 and the second priority calculation range A7 are included in the AF calculation execution range.
  • the central 25 points AF area (first priority calculation range A6) is considered. If there is an AF area determined to be reliable in the first priority calculation range A6, the defocus amount of the AF area indicating the positive defocus amount is adopted from among the AF areas.
  • the 49-point AF area (second priority calculation range A7) as shown in FIG. ) Is considered. If there is an AF area that is determined to be reliable in the second priority calculation range A7, the defocus amount of the AF area that indicates the closest defocus amount is employed.
  • the defocus amount of the AF area indicating the closest defocus amount among the AF areas determined to have reliability within the 121 AF points A0 (AF calculation execution range) is employed. Will be.
  • the area selection may be performed for the defocus amount indicated by the phase difference detection direction in the case of the all target as in the case of the group target.
  • tracking AF In tracking AF, first, an AF area is selected and a defocus amount is acquired based on the single target, group target, or all target AF area setting described above. However, in the case of tracking AF, the AF area is updated as needed based on the movement of the subject (tracking result).
  • FIG. 1 An example of the face detection range and AF calculation execution range in the case of face AF in the first area selection processing according to the present embodiment is shown in FIG.
  • the AF calculation execution range A9 is determined based on the face detection range A8 that is the range where the face F0 exists.
  • the AF area closest to the pupil position (pupil position F1 or pupil position F2) is preferentially selected from the AF areas determined to have reliability within the AF calculation execution range A9.
  • the face-centered AF area is preferentially selected.
  • FIG. 9 shows the priority order of selection of the AF areas included in the AF calculation execution range A9 in the case shown in FIG.
  • the numbers shown in FIG. 9 indicate the priority order in which each AF area included in the AF calculation execution range A9 is selected, and the smaller the number, the higher the priority order.
  • the AF area closest to the pupil position (pupil position F1 or pupil position F2) is preferentially selected, 1 or 2 points in FIG. This AF area is selected.
  • an AF area with higher reliability is selected from these.
  • the priority order in FIG. 9 is the highest among the AF areas having reliability.
  • the AF area is preferentially selected. As described above, in the face AF in the first area selection process, the AF area corresponding to the position of the pupil within the face detection range among the plurality of defocus amounts that the focus detection circuit 222 repeatedly detects in each AF area, or The AF area determined to have high reliability is selected.
  • the face detection range A8 can include AF areas of 3 ⁇ 3 points and 5 ⁇ 5 points depending on the size of the face F0. Further, the AF calculation execution range A9 can change depending on the size of the face detection range A8.
  • the CPU 216 may perform the same process as the first area selection process when performing an exposure operation for LV display that is repeatedly performed until it is determined that the first release switch is in the on state. That is, the AF area indicating the closest distance is selected from among a plurality of defocus amounts that the focus detection circuit 222 repeatedly detects in each AF area until the focus adjustment instruction unit 206a instructs to start focus adjustment. Processing may be performed.
  • an AF area or reliability corresponding to the position of the pupil within the face detection range among the plurality of defocus amounts may be performed.
  • step S113 the second area selection process in step S113 will be described.
  • the second area selection processing is performed after the main subject is once focused (that is, during the 1st release holding), and the AF area is selected as follows.
  • the defocus amount has a correct value of zero unless the main subject moves.
  • the main subject is usually moving at a constant speed and within a short distance, so the defocus amount conforms to the moving object prediction formula. It can be said that the AF area showing the correct defocus amount.
  • the AF calculation execution range for calculating the defocus amount in the second area selection process will be described.
  • the defocus amount is calculated for each of the vertical direction and the horizontal direction in the selected AF area (AF calculation execution range).
  • the defocus amount is calculated for each of the vertical direction and the horizontal direction within the selected group target (AF calculation execution range).
  • the defocus amount is calculated within the AF calculation execution range of 5 ⁇ 5 points, for example, with the AF area selected last time as the center.
  • FIG. 10 An example of the AF calculation execution range during tracking AF is shown in FIG. 10 as a schematic diagram, and will be described with reference to this.
  • a defocus amount within an AF calculation execution range of 3 ⁇ 3 points is calculated around the tracking coordinate C0 as shown in FIG. 10, for example, and an AF area is selected based on the defocus amount.
  • face AF a defocus amount within a range where the face detected by the face detection circuit exists (face detection range) is calculated, and an AF area is selected based on the defocus amount.
  • face detection range a range where the face detected by the face detection circuit exists
  • the determination unit 216b determines whether or not the moving object prediction formula is satisfied (first determination).
  • the condition that the moving object prediction formula is satisfied refers to a case where the following two conditions (first condition and second condition) are both satisfied.
  • the first condition is that the history information related to the defocus amount is greater than or equal to a certain number of points (for example, history information within the past one second from the current time is 5 points or more).
  • the second condition is that the number of points where the deviation from the calculated primary prediction formula is within a certain amount (for example, 10F ⁇ ) or less is 5 points or more in a state where the first condition is satisfied.
  • F ⁇ indicates FNO (also referred to as F value or aperture value)
  • indicates an allowable circle of confusion
  • F ⁇ indicates an allowable depth.
  • F ⁇ may be written as 1F ⁇ .
  • the determination unit 216b determines whether the driving direction of the focus lens 1021 obtained from the moving object prediction formula is the closest direction or the infinite direction (second determination).
  • the direction in which the focus lens 1021 is driven from the infinite side toward the close side is positive
  • the defocus amount is positive when the focus shift direction is the close side. If that is the case.
  • the slope of the moving object prediction formula is positive when the vertical axis is the lens pulse position and the horizontal axis is time.
  • the positive / negative of other values, the slope of the moving object prediction formula, and the like may change depending on which is positive.
  • the second area selection processing when it is determined that the moving object prediction formula is established in the first determination, and it is determined in the second determination that the moving object prediction expression has a positive slope (
  • the first case the AF area indicating the defocus amount closest to the moving object prediction formula is selected.
  • the first case is, for example, a case where the lens is driven from the infinite side toward the close side.
  • the first case may include a case where the slope of the moving object prediction formula is zero.
  • FIG. 11 An example of AF area selection in the first case is shown in FIG. 11 as a schematic diagram, and will be described more specifically with reference to this.
  • the vertical axis indicates the lens pulse position calculated by the processing in S112, and the horizontal axis indicates time.
  • a plot indicated by a filled circle is a lens pulse position calculated at each timing for each time ⁇ t, for example, and a solid line is a moving object prediction formula calculated based on the history of the lens pulse position. Eq1 is shown respectively.
  • the history includes, for example, lens pulse positions acquired from timing 0 to timing n-1.
  • the plot of a plurality of unfilled circles (including the double circle pn) shown in the graph in FIG. 11 has reliability at the timing n when the second area selection process is performed this time.
  • Each lens pulse position calculated based on each defocus amount acquired in the determined plurality of AF areas is shown.
  • a lens pulse position indicated by a double circle pn in FIG. 11 that is closest to the moving object prediction formula Eq1 is selected from the plurality of lens pulse positions. Therefore, in the first case, an AF area indicating the defocus amount used for calculating the lens pulse position is selected from among a plurality of AF areas. In the first case, the defocus amount may be positive or negative.
  • the moving object prediction formula is satisfied (the first determination is satisfied), but the inclination of the moving object prediction expression is negative (the focus is determined in the second determination).
  • the lens driving direction is determined to be infinite.
  • a second case is, for example, a case where the lens is driven from the closest side to the infinity side.
  • the AF area is selected such that the AF area that calculates the defocus amount for focusing on the background on the infinity side compared to the main subject is not selected.
  • the AF area selection process performed in the second case described below also when the moving object prediction formula is not satisfied (the first determination is not satisfied). The same processing is performed.
  • the first determination when the moving object prediction formula is not satisfied, the case where the accuracy of the moving object prediction expression is low (the probability is not sufficient) is also included.
  • FIG. 12 An example of AF area selection in the second case is shown in FIG. 12 as a schematic diagram, and will be described more specifically with reference to this.
  • the items indicated by each of the vertical and horizontal axes of the graph in FIG. 12, the items indicated by the type of each plot, and the items indicated by the broken lines are the same as those in the graph in FIG. 11.
  • the solid line in FIG. 12 indicates the moving object prediction formula Eq2 calculated based on the history of the lens pulse position.
  • shaft which shows the defocus amount are described on the same plane, they are axes of another dimension mutually.
  • the moving object prediction formula Eq2 is established, but the inclination of the moving object prediction equation Eq2 is negative.
  • AF indicating each defocus amount used for calculation of a plurality of focus pulse positions indicated by a round plot not painted at the position of timing n is selected.
  • the determination unit 216b determines (the minimum value of absolute values of defocus amounts having a positive value) ⁇ (a negative value) for the defocus amount indicated by the AF area determined to have reliability.
  • the determination unit 216b determines whether the sensitivity set by the sensitivity setting unit 216c, rather than the face AF, is set higher than a predetermined value (fourth determination).
  • the CPU 216 selects an AF area indicating the minimum positive defocus amount.
  • the sensitivity setting is a parameter that can be set by the user.
  • a positive defocus amount is preferentially adopted.
  • a case where the first case and the second case are not satisfied for example, a case where the moving object prediction formula is not satisfied and the defocus amount having a positive value is large (hereinafter referred to as a third case) will be described.
  • An example of AF area selection in the third case is shown in FIG. 13 as a schematic diagram, and will be described more specifically with reference to this.
  • the items indicated by each of the vertical axis, the horizontal axis, and the defocus amount axis of the graph in FIG. 13 and the items indicated by the type of each plot are the same as described in FIG.
  • an AF area indicating the minimum absolute value of the negative defocus amount is selected.
  • the second area selection it is determined whether or not there is a defocus amount that satisfies each case in the order of the first case, the second case, and the third case. It is easy to adopt the defocus amount.
  • the reason why a defocus amount having a positive value is easily adopted in this way is, for example, to prevent focusing on a background that often exists farther away than the subject in a mixed perspective subject. is there. Accordingly, it is needless to say that the change in the above-described determination order and the like performed from the viewpoint of easily adopting a positive defocus amount is the same as the present technology, and the same effect can be obtained.
  • the above-mentioned constant is about 10 times.
  • the reason for doing this is to employ a positive defocus amount as much as possible unless it is an extremely large positive defocus amount.
  • the sensitivity setting is considered for the purpose of positively adopting even if the value of the positive defocus amount itself is large so that it can easily follow a subject approaching from far away.
  • the vertical axis represents the defocus amount
  • the horizontal axis represents the AF area.
  • Each plot (def0, def1, def2, def3) in FIG. 14 represents the defocus amount calculated in each AF area.
  • the double circle plot def0 indicates the defocus amount calculated in the AF area to be originally selected
  • the filled circle plot def1 indicates the selected defocus amount
  • the x plot def2 in the circle Indicates the defocus amount calculated for the background miscellaneous subject
  • the unfilled circle plot def3 indicates the other defocus amount.
  • the solid line indicates the current lens position where the current defocus amount is zero
  • the broken line indicates the true in-focus position
  • the solid line D1 with an arrow indicates the allowable depth with respect to the current lens position
  • the arrow indicates
  • a broken line D0 indicates the permissible depth for the true in-focus position.
  • the permissible depth for the true in-focus position indicated by the broken line and the true in-focus position indicated by the broken arrow D0 with arrows is a value that the focus adjustment device 1 should aim at during focus adjustment. Needless to say, it is unknown information that is not known at the time of focus adjustment.
  • the allowable depth setting in the focus determination is, for example, -1F ⁇ to + 1F ⁇ .
  • the defocus amount such as plot def0, plot def1, plot def3, etc.
  • the defocus amount calculated in this way is also included in the range of the allowable depth (solid line D1 with an arrow). For this reason, when the current lens position is at a position of -1F ⁇ from the true in-focus position, etc., a slight deviation from the AF area of the plot def0 to be originally selected, such as the plot def1, due to variations in the detected defocus amount.
  • the defocus amount of the selected AF area is selected. Based on the result of this selection, if the lens is further defocused to the negative side, the lens will be gradually adjusted to the background subject and the focus will be adjusted accordingly.
  • the AF operation may not be realized.
  • lens driving is performed based on the result of the moving object prediction calculation immediately before the main exposure (step S121).
  • the focus adjustment apparatus 1 according to the present embodiment does not necessarily need to adjust the focus lens position within the allowable depth while holding the first release.
  • the focus adjustment apparatus 1 according to the present embodiment has a positive value. Select the focus amount with priority.
  • An example of the relationship between the defocus amount distribution with respect to the AF area at this time, the current lens position, and the true in-focus position is shown as a schematic diagram in FIG. 15, and the following description will be given with reference to this.
  • the vertical axis, the horizontal axis, the solid line, the broken line, the solid line D1 with arrow and the broken line D0 with arrow in the graph in FIG. 15 are the same as the graph in FIG. is there.
  • the lens is driven to the infinite side from the true in-focus position, for example, when a defocus amount suitable for a miscellaneous subject in the background is adopted in a subject with mixed perspective. . Therefore, as shown in FIG. 15, the focus adjustment apparatus 1 according to the present embodiment dares to set the focus lens to a positive defocus amount value from the true in-focus position indicated by the broken line, as indicated by the solid line. For example, an offset of “+ 1F ⁇ ” is added for driving. This can also be expressed as that the focus adjustment apparatus 1 according to the present embodiment performs focus adjustment by correcting the defocus amount indicated by the selected AF area to the positive side by a predetermined amount.
  • LD lens is driven
  • the setting of the focus range of the focus determination in step S117 is set to be widened to the negative side, such as ⁇ 2F ⁇ to + 1F ⁇ . This can also be expressed as that the focus adjustment device 1 according to the present embodiment performs the focus determination by correcting the threshold value in the focus determination to the negative side.
  • the allowable depth (one-dot chain line D2 with an arrow) as set is set as the focusing range.
  • the present technology suppresses the negative lens driving toward the background, makes it difficult to select the AF area indicating the defocus amount according to the miscellaneous subject in the background, and reduces the defocus amount according to the main subject. It is possible to easily select an appropriate AF area to be calculated.
  • the focus adjusting apparatus 1 selects the defocus amount indicating the closest distance from the AF area until the in-focus determination can be made immediately after the first release is pressed, for example, when performing C-AF.
  • the focus adjustment apparatus 1 according to the present embodiment is closest to the AF area or moving object prediction calculation result with the smallest defocus amount by the first determination to the fourth determination when the first release is pressed or during continuous shooting.
  • An AF area indicating the defocus amount is selected.
  • the focus adjustment apparatus 1 can prevent the AF area indicating the defocus amount matching the miscellaneous subject in the background from being selected. Therefore, if the present technology is applied, even if shooting is performed on a subject with mixed perspective, the main subject indicating the closest defocus amount immediately after the first release is pressed, and the background miscellaneous subject is captured. Instead, the AF area indicating the defocus amount suitable for the main subject can be appropriately selected.
  • the defocus amount of one AF area has been described as indicating two distance measurement results in the vertical direction and the horizontal direction, but the present invention is not limited to this.
  • the defocus amount may be further divided into the vertical direction and the horizontal direction.
  • three defocus amounts may be calculated in the vertical direction and three defocus amounts may be calculated in the horizontal direction. obtain.
  • one AF area is divided into three positions and divided into three blocks of L, C, and R within each AF area.
  • the defocus amount is calculated.
  • the present technology can be realized by treating the AF area as 121 ⁇ 2 (vertical and horizontal) ⁇ 3 blocks.
  • the calculation amount of the defocus amount increases and the calculation time also increases.
  • block selection is performed in the state of the two-image interval value before conversion to a defocus amount and application of various correction values. That's fine.
  • the following determination process is performed.
  • the determination unit 216b has two images having positive values that satisfy the relationship of (minimum absolute value of positive two-image interval values) ⁇ (minimum absolute value of negative two-image interval values ⁇ constant). It is determined whether there is an interval value (fifth determination). When there are two image interval values that satisfy the fifth determination, a block indicating the two image interval values is selected. On the other hand, if there is no two-image interval value that satisfies the fifth determination, a block indicating the minimum absolute value of the negative two-image interval value is selected.
  • each process and each step in each process shown in the flowchart can be changed, and addition and deletion can be performed.
  • Each of these processes is executed by each program recorded in the interchangeable lens 100 or the camera body 200.
  • Each program may be recorded in advance in the interchangeable lens 100 or the camera body 200 or may be recorded in another recording medium.
  • These recording methods are various, and may be recorded at the time of product shipment, may be recorded using a distributed recording medium, or may be recorded using a communication line such as the Internet.
  • the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage.
  • the embodiments may be appropriately combined as much as possible, and in that case, the combined effect can be obtained.
  • the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

焦点調節装置(1)は、複数のAFエリアを備え、前記AFエリアについて繰り返しデフォーカス量を検出し、前記デフォーカス量に基づきAFエリアを選択して焦点調節を行う。焦点調節装置(1)は、少なくとも1つの回路(216)を備える。回路(216)は、繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出し、前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズ(1021)の駆動方向が至近方向であるか無限方向であるかの第2の判定とを行い、前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択する。

Description

焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体
 本発明は、焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体に関する。
 日本国特開2007-199261号公報及び日本国特開2015-087706号公報には、オートフォーカス(AF)動作中におけるデフォーカス量に基づくAFエリア選択に係る技術が提案されている。例えば、日本国特開2007-199261号公報では、デフォーカス量に基づいて主要被写体の存在するAFエリアを検出する技術が開示されており、また、日本国特開2015-087706号公報では、デフォーカス量の偏差が大きいAFエリアが主要被写体の存在しないAFエリアとして選択され難くなるようにする技術が開示されている。
 しかしながら、特に遠近混在の被写体において、これらの技術では適切にAFエリアを選択できるとは限らない。例えば至近側の被写体を撮影したいときに、無限側の背景に対してAFしてしまうことも十分に起こり得る。このような中、主要被写体に対して確実にAFできる技術には需要がある。
 本発明は、適切なオートフォーカス(AF)エリアを選択してAFできる焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体を提供することを目的とする。
 本発明の一態様によれば、焦点調節装置は、複数のAFエリアを備え、前記AFエリアについて繰り返しデフォーカス量を検出し、前記デフォーカス量に基づきAFエリアを選択して焦点調節を行う焦点調節装置であって、繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出し、前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの第2の判定とを行い、前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択する少なくとも1つの回路を備える。
 本発明の一態様によれば、焦点調節装置の制御方法は、複数のAFエリアを備え、前記AFエリアについて繰り返しデフォーカス量を検出し、前記デフォーカス量に基づきAFエリアを選択して焦点調節を行う焦点調節装置において、繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出することと、前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの第2の判定とを行うことと、前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択することとを含む。
 本発明の一態様によれば、焦点調節プログラムを記憶したコンピュータ読み取り可能な非一時的記憶媒体は、複数のAFエリアの各々について繰り返しデフォーカス量を検出し、前記デフォーカス量に基づき焦点調節に用いられる前記AFエリアを選択することをコンピュータに実行させるための、焦点調節プログラムを記憶したコンピュータ読み取り可能な非一時的記憶媒体であって、前記焦点調節プログラムは、繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出することと、前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの第2の判定とを行うことと、前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択することとを含む。
 本発明によれば、適切なオートフォーカス(AF)エリアを選択してAFできる焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体を提供できる。
図1は、一実施形態に係る焦点調節装置1の構成の一例を示すブロック図である。 図2Aは、一実施形態に係る焦点調節装置制御処理の一例を示すフローチャートである。 図2Bは、一実施形態に係る焦点調節装置制御処理の一例を示すフローチャートである。 図3は、一実施形態に係る複数のAFエリアの一例を示す模式図である。 図4は、一実施形態に係るオールターゲットの場合における補正量の算出単位の一例を示す模式図である。 図5は、一実施形態に係る第1のエリア選択処理におけるグループターゲットの場合のAF演算実施範囲の一例を示す模式図である。 図6は、一実施形態に係る第1のエリア選択処理におけるグループターゲットの場合のAF演算実施範囲の一例を示す模式図である。 図7は、一実施形態に係る第1のエリア選択処理におけるオールターゲットの場合のAF演算実施範囲の一例を示す模式図である。 図8は、一実施形態に係る第1のエリア選択処理における顔AFの場合の顔検出範囲及びAF演算実施範囲の一例を示す模式図である。 図9は、一実施形態に係る第1のエリア選択処理における顔AFの場合のAF演算実施範囲に含まれるAFエリアの選択の優先順位の一例を示す模式図である。 図10は、一実施形態に係る第2のエリア選択処理における追尾AF時のAF演算実施範囲の一例を示す模式図である。 図11は、一実施形態に係る第1のケースにおけるAFエリアの選択の一例を示す模式図である。 図12は、一実施形態に係る第2のケースにおけるAFエリアの選択の一例を示す模式図である。 図13は、一実施形態に係る第3のケースにおけるAFエリアの選択の一例を示す模式図である。 図14は、一実施形態に係るデフォーカス量=0を狙いとした制御が行われる場合のAFエリアに対するデフォーカス量分布と現在のレンズ位置及び真の合焦位置との関係の一例を示す模式図である。 図15は、一実施形態に係るデフォーカス量=+1Fδを狙いとした制御が行われる場合のAFエリアに対するデフォーカス量分布と現在のレンズ位置及び真の合焦位置との関係の一例を示す模式図である。
 [第1の実施形態]
 <焦点調節装置の構成>
 以下、図面を参照して本発明の第1の実施形態について説明する。本発明の一実施形態に係る焦点調節装置1の構成の一例をブロック図として図1に示す。なお、当該焦点調節装置1は撮像装置の一例であって、また、カメラシステムの一例でもある。なお、図1中において、矢印付き実線はデータの流れを、矢印付き破線は制御信号の流れをそれぞれ示している。
 図1に示すように、本実施形態に係る焦点調節装置1は、交換式レンズ100と、カメラ本体200とを有する。交換式レンズ100は、カメラ本体200に着脱できるように構成されている。交換式レンズ100とカメラ本体200とは、交換式レンズ100がカメラ本体200に装着されたときに、互いに通信できるように接続される。なお、焦点調節装置1は、必ずしもレンズ交換式のカメラシステムでなくてもよい。例えば、焦点調節装置1は、レンズ一体型のカメラシステムであってもよい。
 レンズユニットとしての交換式レンズ100は、撮影レンズ102と、駆動部104と、レンズCPU106と、レンズ側記憶部108とを備える。
 撮影レンズ102は、被写体光束をカメラ本体200の撮像素子208に結像させるための光学系である。撮影レンズ102は、フォーカスレンズ1021と、絞り1022とを備える。フォーカスレンズ1021は、光軸方向に移動することによって、撮影レンズ102の焦点位置を調節できるように構成されている。絞り1022は、フォーカスレンズ1021の光軸上に配置される。絞り1022の口径は可変である。絞り1022は、フォーカスレンズ1021を通過して撮像素子208に入射する被写体光束を調節する。駆動部104は、レンズCPU106の出力する制御信号に基づいて、フォーカスレンズ1021、絞り1022を駆動する。ここで、撮影レンズ102は、ズームレンズとして構成されていてもよい。この場合、駆動部104はズーム駆動も行う。
 レンズCPU106は、レンズ通信部としてのインターフェイス(I/F)110を介してカメラ本体200のCPU216との間で通信自在となるように構成されている。レンズCPU106は、フォーカス制御部としての機能を有する。駆動部104は、CPU216の制御に従ってフォーカスの動作を行う。また、レンズCPU106は、I/F110を介して絞り1022の絞り値(F値)やレンズ側記憶部108に記憶されているレンズ情報といった情報をCPU216に送信する。レンズ側記憶部108は、交換式レンズ100に関するレンズ情報を記憶している。レンズ情報は、例えば撮影レンズ102の焦点距離の情報や収差の情報を含む。
 カメラ本体200は、メカシャッタ202と、駆動部204と、操作部206と、撮像素子208と、撮像制御回路210と、アナログ処理部212と、アナログデジタル変換部(ADC)214と、CPU216と、画像処理部218と、画像圧縮展開部220と、焦点検出回路222と、表示部224と、バス226と、DRAM228と、本体側記憶部230と、記録媒体232と、追尾回路234と、顔検出回路236とを備える。
 メカシャッタ202は、開閉自在に構成され、撮像素子208への被写体からの被写体光束の入射時間(撮像素子208の露光時間)を調節する。メカシャッタ202としては、例えばフォーカルプレーンシャッタが採用される。駆動部204は、CPU216からの制御信号に基づいてメカシャッタ202を駆動する。
 操作部206は、焦点調節指示部206aを備える。焦点調節指示部206aは、例えばレリーズボタンを含み、1stレリーズ等のユーザによる操作に応じてフォーカシングを開始させる制御信号を出力する。すなわち、焦点調節指示部206aは焦点調節の開始指示を行う。操作部206は、電源ボタン、動画ボタン、再生ボタン、メニューボタンといった各種の操作釦及びタッチパネル等の各種の操作部材を含む。この操作部206は、各種の操作部材の操作状態を検知し、検知結果を示す信号をCPU216に出力する。
 撮像素子208は、撮影レンズ102の光軸上であって、メカシャッタ202の後方で、かつ、撮影レンズ102によって被写体光束が結像される位置に配置されている。撮像素子208は、画素を構成する受光部(例えばフォトダイオード)が二次元的に配置されて構成されている。撮像素子208を構成する受光部は、受光量に応じた電荷を生成する。受光部で発生した電荷は、各受光部に接続されているキャパシタに蓄積される。このキャパシタに蓄積された電荷は、撮像制御回路210からの制御信号に従って画素信号として読み出される。ここで、撮像素子208は、焦点検出画素を有していてもよい。
 撮像制御回路210は、撮像素子208からの画素信号の読出しの設定に従って撮像素子208の露光及び撮像素子208からの画素信号の読出しを制御する。
 アナログ処理部212は、撮像制御回路210の制御に従って撮像素子208から読み出された画素信号に対して増幅処理等のアナログ処理を行う。ADC214は、アナログ処理部212から出力された画素信号を、デジタル形式の画素データに変換する。なお、以下の説明では、画素データの集まりを画像データと言うことにする。
 CPU216は、本体側記憶部230に記憶されているプログラムに従って焦点調節装置1の全体制御を行う制御部である。CPU216は、動体予測部216aと、判定部216bと、敏感度設定部216cとを備える。
 動体予測部216aは、繰り返し検出される複数のデフォーカス量の履歴に基づいて動体予測式を算出する。当該履歴は、例えばDRAM228が記憶している過去の測距結果(デフォーカス量又はフォーカスレンズ1021の駆動位置)の履歴を含む。なお、複数の当該デフォーカス量は、例えば後述する焦点検出回路222によって繰り返し検出される。
 判定部216bは、動体予測式が成立するか否かの判定(第1の判定)を行う。また、判定部216bは、当該動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの判定(第2の判定)をさらに行う。第2の判定は、縦軸をレンズ位置と、横軸を時間としたときの当該動体予測式の傾きが正(駆動方向が至近方向)であるか負(駆動方向が無限方向)であるかとも表現できる。なお、本実施形態における説明では、デフォーカス量が正であるとは、あるピントずれ量があってピントずれ方向が至近方向側であることを表すものとする。ただし、デフォーカス量、動体予測式の傾き等が正であるか負であるかは、例えばレンズ駆動方向の何れを正の方向とするかで変化し得ることは言うまでもない。また、詳細は後述するが、判定部216bは、検出された複数のデフォーカス量のうち、正のデフォーカス量の絶対値の最小値であって、負のデフォーカス量の絶対値の最小値の所定係数倍よりも小さいデフォーカス量が存在するか、又は、正のデフォーカス量が十分小さいか否かの判定(第3の判定)をさらに行う。
 なお、判定部216bは、後述の通り、算出された動体予測式が、どの程度デフォーカス量の履歴情報に沿っているか等、動体予測式の精度に係る評価を行ってもよい。また、このように評価される動体予測式の精度は、例えば動体予測式の信頼性、動体予測式の確からしさ等と表現することもできる。
 敏感度設定部216cは、焦点調節の敏感度を設定する。例えばユーザは、急加速又は急減速するような、激しく動く被写体にAFを追従させたいときに、高い敏感度を設定することになる。当該敏感度は、例えば「高」、「標準」、「低」のような選択され得る区分等、複数の所定値が用意されているものでもよいし、ユーザが任意の値を設定できるようなものでもよい。
 画像処理部218は、画像データに対して各種の画像処理を施す。例えば画像処理部218は、静止画像の記録の際には、静止画記録用の画像処理を施す。同様に、画像処理部218は、動画像の記録の際には、動画記録用の画像処理を施す。さらに、画像処理部218は、ライブビュー表示時には、表示用の画像処理を施す。
 画像圧縮展開部220は、画像データの記録時には、画像処理部218で生成された画像データ(静止画像データ又は動画像データ)を圧縮する。また、画像データの再生時には、記録媒体232に圧縮状態で記録された画像データを伸張する。
 焦点検出回路222は、フォーカスレンズ1021の合焦位置に対するデフォーカス量(ピントずれ方向及びピントずれ量)を算出するためのデフォーカス量演算を行う。撮像素子208に焦点検出画素が設けられている場合には、焦点検出画素からの画素データを取得し、取得した画素データに基づき、公知の位相差方式を用いてフォーカスレンズ1021の合焦位置に対するデフォーカス量を算出する。そして、焦点検出回路222は、当該デフォーカス量に基づいてフォーカスレンズ1021の駆動すべきレンズ位置を算出する。以下では焦点検出回路222は、焦点検出画素を用いた位相差方式でデフォーカス量を検出するものであるとして説明をする。しかしながら、焦点検出回路222は、焦点検出画素を用いた位相差方式以外の各種の方式でデフォーカス量を検出するものでよい。例えば、焦点検出回路222は、焦点検出画素とは別の測距センサから出力される一対の像データからデフォーカス量を検出するものであってもよい。焦点検出回路222は、信頼性判定部222aを備える。信頼性判定部222aは、デフォーカス量の検出に関する信頼性、すなわち2像間隔値の信頼性判定を行う。
 表示部224は、例えば液晶ディスプレイや有機ELディスプレイといった表示部であって、例えばカメラ本体200の背面に配置される。この表示部224は、CPU216の制御に従って画像を表示する。表示部224は、ライブビュー表示や記録済み画像の表示等に使用される。
 バス226は、ADC214、CPU216、画像処理部218、画像圧縮展開部220、焦点検出回路222、DRAM228、本体側記憶部230、記録媒体232に接続され、これらのブロックで発生した各種のデータを転送するための転送路として機能する。
 DRAM228は、電気的に書き換えできるメモリであり、前述した画像データ(画素データ)、記録用の画像データ、表示用の画像データ、CPU216における処理データといった各種データを一時的に記憶する。なお、一時記憶用としてSDRAMが用いられてもよい。本体側記憶部230は、CPU216で使用されるプログラム、カメラ本体200の調整値等の各種データを記憶している。記録媒体232は、カメラ本体200に内蔵されるか又は装填されるように構成されており、記録用の画像データを所定の形式の画像ファイルとして記録する。なお、DRAM228、本体側記憶部230及び記録媒体232は、それぞれ1つのメモリ等で構成されてもよいし、複数のメモリ等が組み合わされて構成されてもよい。
 追尾回路234は、動きのある子供やペット等、動く被写体を追尾する。顔検出回路236は、被写体に顔が含まれているか否か、顔が含まれている場合は画角内の何れの位置にあるか等を検出する。以下、本実施形態では顔検出回路236が検出した顔が含まれる領域を顔検出範囲と記載する。また、顔検出回路236は瞳検出回路を備える。瞳検出回路は、例えば顔検出回路236の検出した顔検出範囲内で瞳の有無、瞳の位置等を検出する。
 なお、レンズCPU106と、CPU216と、CPU216の備える各部とは、Central Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)、Field Programmable Gate Array(FPGA)、Digital Signal Processor(DSP)又はGraphics Processing Unit(GPU)等の集積回路等を含む。CPU216と、CPU216の備える各部とは、それぞれ1つの集積回路等で構成されてもよいし、複数の集積回路等が組み合わされて構成されてもよい。これら集積回路等の動作は、例えばレンズ側記憶部108、本体側記憶部230又は集積回路等がその内部に備える記録領域に記録されたプログラムに従って行われる。
 <焦点調節装置の動作>
 本実施形態に係る焦点調節装置制御処理の一例をフローチャートとして図2A及び図2Bに示し、これらを参照して焦点調節装置1の動作について説明をする。
 ステップS101において、CPU216は、例えば操作部206がユーザの操作に応じて出力する操作信号に基づいて、カメラの電源をオンとする。
 ステップS102において、CPU216は、例えば焦点調節指示部206aがユーザの操作に応じて出力する操作信号に基づいて、1stレリーズスイッチがオンの状態であるか否かを判定する。1stレリーズスイッチは、例えばユーザによるレリーズボタンの半押し操作に応答してオンの状態となるスイッチである。焦点調節装置制御処理は、1stレリーズスイッチがオンの状態であると判定された場合はステップS104へ進み、判定されなかった場合はステップS103へ進む。
 ステップS103において、CPU216は、ライブビュー(LV)表示用の画像データを取り込む。まず、CPU216は、メカシャッタ202を全開状態とするように駆動部204の制御信号を切換えさせるとともに、絞り1022を駆動するようにレンズCPU106に対して制御信号を出力する。CPU216は、絞り1022が開放され、かつ、メカシャッタ202が全開状態となるだけの所定時間の経過後に、撮像素子208によるLV表示用の露光動作を開始させる。このLV表示用の露光動作のフレームレートは、例えば60fpsである。また、画像処理部218は、焦点検出画素からの画素データに対して補正処理を行う。この補正処理により、焦点検出画素からの画素データを撮像画素からの画素データと同様にLV表示に使用することができるようになる。この補正処理の後、画像処理部218は、LV表示用の画像データの生成に必要なその他の処理を行って表示用の画像データを生成する。CPU216は、画像処理部218で生成された表示用の画像データに基づいて表示部224にLV画像を表示させる。その後、焦点調節装置制御処理はステップS102へ戻る。このように、ステップS103におけるLV表示に係る処理はステップS102において1stレリーズスイッチがオンの状態であると判定されるまで繰り返し行われることになる。
 ステップS104において、CPU216は、オートフォーカス(AF)用の画像データを取り込む。この際、CPU216は、撮像素子208によるAF用の露光動作を開始する。AF用の露光動作における露光時間は、LV表示用の露光動作における露光時間と異ならせてよい。また、AF用の露光動作においては、画素信号は、焦点検出画素のみから読み出されるものであってよい。
 ステップS105において、信頼性判定部222aは、2像間隔値の信頼性判定を行う。ここで、本実施形態に係る複数のAFエリアの一例を模式図として図3に示し、これを参照して本実施形態に係る2像間隔値の信頼性判定について説明する。なお、本実施形態では、図3に示すように、AFエリアA1が縦と横とにそれぞれ11点ずつ配置され、全AFエリアA0が121点のAFエリアから成る場合を例として説明する。本実施形態に係る信頼性判定は、例えば全AFエリアA0に含まれる各々のAFエリアにおいて行われる。また、焦点検出画素の配置の仕方によっては、1つのAFエリアについて縦方向と横方向の2つの位相差検出方向のそれぞれで2像間隔値を得ることができる。この場合、本実施形態に係る信頼性判定は、121点の各々のAFエリアにおいて縦方向と横方向とに対して行われる。本実施形態に係る信頼性判定では、焦点検出画素出力のコントラスト量が十分にあるか否か、相関演算結果における極小値が十分に小さいか否か、相関演算結果における極小値と当該極小値をとる位置の両隣の位置における相関演算結果のうち大きい方の相関演算結果の値との傾きFSが十分であるか否か(V字にエッジが立っているか否か)が判定される。本実施形態に係る焦点調節装置制御処理におけるステップS105以降の処理は、信頼性判定が行われた結果、上述した3つの判定条件が全て満たされていると判定されたAFエリアに対してのみ実施されるものとする。なお、ここでの記載は、上述した3つの条件の全てが満たされないAFエリアに対して以降の処理が行われることを除外するものではない。また、信頼性判定の閾値は、エリア選択時の値と単なる合焦判断用の値とを分けて設定することもある。エリア選択時は、閾値を厳しく設定することで安定したエリア選択を実施し、合焦判断実施時などは、精度が確保できるぎりぎりのレベルの閾値とする。
 ただし、信頼性判定における判定条件は上述した3つの条件に限定されず、他の条件が加わったり、3つの条件のうち何れかの条件が省かれたりし得る。また、各々のAFエリアが諸条件を満たすか否かの判定は、当該諸条件をどの程度満たしているかの程度を数値として算出し、当該数値に基づいて信頼性を評価する形態であってもよい。
 再び図2A及び図2Bを参照して、焦点調節装置1の動作について説明を続ける。ステップS106において、焦点検出回路222は、焦点検出画素から取得された画素データを用いた公知の位相差方式によってフォーカスレンズ1021の合焦位置に対するデフォーカス量(ピントずれ方向及びピントずれ量)を算出する。本ステップでは、各々のAFエリアの2像間隔値(最少となる相関演算結果を示す像ずれ量)に対してAFエリア毎に異なる感度値を乗算して、デフォーカス量を例えばmm単位の値として算出する。また、AFエリア毎に異なる補正量である、撮影レンズのコントラストベストずれ補正量(概ね撮影レンズの周波数ずれ量)をデフォーカス量に加算する。当該補正量は光学補正量とも表現できる。なお、当該光学補正量は、例えば本体側記憶部230に記憶される。また、本ステップでは、焦点検出回路222は、動体予測を行うために、当該デフォーカス量をフォーカスレンズ位置(レンズパルス位置)に変換する処理をさらに行う。本実施形態に係る焦点検出回路222は、当該変換において、現在のレンズ位置に対するデフォーカス量毎の近似式を用いて、デフォーカス量をパルス位置に変換する。当該近似式は、例えば、交換レンズ毎に決まる3次式等である。このとき、合焦レンズ位置である合焦パルス位置は、合焦パルス位置=現在のレンズ位置(レンズパルス位置)+a×デフォーカス量の3乗+b×デフォーカス量の2乗+c×デフォーカス量、と表される式によって算出される。なお、式中のaと、bと、cとの各々の係数は、撮影レンズのズーム値、現在のレンズ位置によって撮影レンズ毎に一意に決まる値である。
 なお、補正量の加算に係る演算時間を減らしたい場合は、焦点検出回路222は、例えば以下のように処理を行う。例えばAFエリア設定が121点中の5点、9点等を用いるグループターゲットである場合には、当該グループに含まれる1点のAFエリアにおける補正量のみを算出し、当該グループに含まれるAFエリアに対して、すべて同一の当該補正量を仮の補正量として適用する。
 また、例えばAFエリア設定が121点のAFエリアすべてを用いるオールターゲットである場合には、上述したグループターゲットの場合と同様に、まとまった領域毎に同一の補正量を仮の補正量として適用する。オールターゲットの場合における補正量の算出単位の一例を模式図として図4に示す。例えば図4中に太枠線で示すような複数のAFエリアA1から成る補正量演算実施範囲A2毎に補正量の計算が行われる。なお、補正量演算実施範囲A2は、例えば中央は3×3の9点、中央の上下は3×2の6点、中央の左右は2×3の6点、その他は2×2の4点の複数のAFエリアを含む。このとき、例えば補正量演算実施範囲A2に含まれるAFエリアの補正量としては、補正量演算実施範囲A2に含まれるAFエリアA3における補正量が仮の補正量として適用されることになる。当該AFエリアA3として、例えば図4中においてハッチングが付されて示されているAFエリアA1が選択される。当該AFエリアA3は、例えば図4中に示すように、各々の補正量演算実施範囲A2に含まれるAFエリアA1のうち、撮像素子208の中央に最も近い位置に配置されているが、これに限定されない。当該AFエリアA3として、各々の補正量演算実施範囲A2に含まれるAFエリアA1のうち、何れのAFエリアA1が選択されてもよい。
 したがって、補正量の演算は、121回×2方向分ではなく、25×2方向分の算出時間で済ますことが出来る。そして、レンズ駆動を行うための最終的なデフォーカス量を算出するときには、焦点検出回路222は、後述するエリア選択処理にて選択したAFエリアに対して、最終的に、正しい補正量を算出すればよい。
 ステップS107において、CPU216は、第1のエリア選択処理を行う。第1のエリア選択処理の詳細は後述するが、当該処理においては、ステップS106で算出されたデフォーカス量の値に基づいて最至近のデフォーカス量を示すAFエリアが選択される。また、第1のエリア選択処理は、1stレリーズが押下された後、一旦合焦判断が行われるまでの間に実施されることになる。
 ステップS108において、CPU216は、フォーカスレンズ1021が合焦状態であるか否かを判定する。当該判定は、例えばデフォーカス量が予め定められた許容範囲内であるか否かを判定することによって行われる。当該判定の詳細は後述する。焦点調節装置制御処理は、フォーカスレンズ1021が合焦状態であると判定されていない場合はステップS109に進み、フォーカスレンズ1021が合焦状態であると判定された場合はステップS110へ進む。
 ステップS109において、CPU216は、フォーカスレンズ位置(レンズパルス位置)に応じてフォーカスレンズ1021が駆動されるよう、レンズCPU106に対して制御信号を出力する。当該レンズパルス位置は、例えばステップS106においてデフォーカス量に基づいて焦点検出回路222が算出した合焦パルス位置である。レンズCPU106は、当該制御信号を取得して、駆動部104を介してフォーカスレンズ1021を駆動する。その後、焦点調節装置制御処理は、ステップS102へ戻る。
 ステップS110において、CPU216は、ステップS104における処理と同様にして、AF及びLV用の露光動作を開始し、また、画素信号を読み出す。ステップS111において、信頼性判定部222aは、ステップS105における処理と同様にして、2像間隔値の信頼性判定を行う。
 ステップS112において、焦点検出回路222は、ステップS106における処理と同様にして、デフォーカス量を算出する。また、焦点検出回路222は、当該デフォーカス量をフォーカスレンズ位置(合焦パルス位置)に変換する処理をさらに行う。
 ステップS113において、CPU216は、第2のエリア選択処理を行う。第2のエリア選択処理の詳細は後述するが、当該処理は、一旦主要被写体にピントが合った後(つまり1stレリーズ保持中)に実施されることになる。
 ステップS114において、CPU216は、動体予測演算に用いられる履歴情報を例えばDRAM228へ記憶させる処理を行う。当該履歴情報は、例えば第2のエリア選択処理において選択されたAFエリアに対応するデフォーカス量に基づくレンズパルス位置を含む。
 ステップS115において、動体予測部216aは、動体予測演算を開始する。動体予測演算は、過去の測距結果(フォーカスレンズ1021の駆動位置)の履歴から今回のフォーカスレンズ1021の駆動すべき位置を予測する処理である。
 ステップS116において、CPU216は、2ndレリーズスイッチがオンされているか否かを判定する。2ndレリーズスイッチは、例えばユーザによるレリーズボタンの全押し操作に応答してオンするスイッチである。焦点調節装置制御処理は、2ndレリーズスイッチがオンされていないと判定された場合はステップS117へ進み、2ndレリーズスイッチがオンされていると判定されたときには、処理はステップS118へ進む。
 ステップS117において、CPU216は、ステップS108と同様にして、フォーカスレンズ1021が合焦状態であるか否かを判定する。当該判定の詳細は後述する。焦点調節装置制御処理は、フォーカスレンズ1021が合焦状態であると判定されていない場合はステップS118に進み、フォーカスレンズ1021が合焦状態であると判定された場合はステップS110へ戻る。
 ステップS118において、CPU216は、ステップS109と同様にして、フォーカスレンズを駆動させる。その後、焦点調節装置制御処理は、ステップS110へ戻る。
 ステップS119において、CPU216は、静止画連写撮影の本露光を行うために、メカシャッタ202の動作を開始させる。このメカシャッタ202の動作は、本露光の前後のメカシャッタ202の開閉動作と、本露光の後でライブビュー用及びAF用の露光動作を開始するためのメカシャッタ202の全開動作とを含む。CPU216は、まず、メカシャッタ202を全閉状態とするように駆動部204の制御信号を切り替える。そして、ステップS121で本露光を行った後に、CPU216は、メカシャッタ202を全開状態とするように駆動部204を制御する。
 ステップS120において、CPU216は、レンズCPU106に対してフォーカスレンズ1021及び絞り1022を同時駆動させるように指示して動作を開始させる。ここで、本ステップにおいては、Automatic Exposure(AE)用の露光量演算等で予め決定された静止画連写撮影に必要な開口量まで絞り1022を絞り込む駆動を行うように指示が行われる。
 ステップS121において、CPU216は、本露光を開始させる。本露光は、記録用の画像データを取得するための露光動作である。本露光において、CPU216は、予め決定された静止画連写撮影に必要な露光期間だけメカシャッタ202を開閉させるように駆動部204を制御する。そして、CPU216は、露光期間中に撮像素子208の撮像動作を開始する。露光期間の終了後、撮像制御回路210は、撮像素子208の各画素からの画素信号を読み出す。画素信号の読出し後、画像処理部218は、焦点検出画素の画素出力の補正及びその他の記録用の画像データを生成するための処理を行う。画像処理の完了後に画像圧縮展開部220は、記録用画像データを圧縮する。圧縮の完了後、CPU216は、圧縮された記録用画像データを画像ファイルとして記録媒体232に記録する。
 ステップS122において、CPU216は、レンズCPU106に対して絞り1022を駆動させるように指示する。ここで、本ステップにおいては、ライブビュー用の露光及びAF用の露光に必要な開口量(例えば開放絞り)まで絞り1022を開放する駆動を行うように指示が行われる。なお、本ステップの処理は、ステップS121の本露光後の画素信号の読出しと並列に行われてもよい。このような並列処理により、本露光の間のライブビュー画像の表示時間を延ばすことができる。
 ステップS123において、CPU216は、ステップS104と同様にして、1stレリーズスイッチがオンの状態であるか否かを判定する。焦点調節装置制御処理は、1stレリーズの状態であると判定された場合はステップS110へ戻り、判定されなかった場合はステップS124へ進む。
 ステップS124において、CPU216は、カメラ本体200の電源をオフするか否かを判定する。例えば、ユーザの操作部206の操作によって電源のオフが指示された場合又は所定時間のユーザの操作部206の操作がない場合には電源をオフすると判定される。焦点調節装置制御処理は、カメラ本体200の電源をオフしないと判定された場合はステップS102へ戻り、電源をオフすると判定された場合は終了する。
 <第1のエリア選択処理>
 ここで、ステップS107における第1のエリア選択処理について、より詳細に説明をする。第1のエリア選択処理では、ステップS102において1stレリーズスイッチが押下されたと判定された場合のように、焦点調節指示部206aから焦点調節の開始指示がなされてから、ステップS108において一旦合焦状態か否かの判定(合焦判断)がなされるまでの間に実施される。第1のエリア選択処理では、複数の前記デフォーカス量のうち正のデフォーカス量の最大値(最至近)を示すAFエリアが選択される。
 (シングルターゲットの場合)
 シングルターゲットの場合には、例えばユーザによって指定された1つのAFエリア内の縦方向と横方向とにおける位相差検出及び2像間隔値の信頼性判定の結果、信頼性を有すると判定された位相差検出方向のうち、デフォーカス量の最大値を示す位相差検出方向が選択され、当該位相差検出方向の示すデフォーカス量が採用される。なお、当該位相差検出演算が行われるAFエリアをAF演算実施範囲と称してもよい。
 (グループターゲットの場合)
 グループターゲットの場合には、例えばユーザによって指定されたグループ5点、グループ9点等の複数のAFエリアを含む領域でデフォーカス量が算出される。本実施形態に係る第1のエリア選択処理におけるグループターゲットの場合のAF演算実施範囲の一例を図5及び図6にそれぞれ示す。なお、グループ5点のAF演算実施範囲A4と、グループ9点のAF演算実施範囲A5とは、それぞれ図5又は図6中において、それぞれ十字形又は矩形の太枠線で囲まれて示されている領域である。これらグループターゲットの場合には、グループに属するAFエリアのうち、かつ、信頼性を有すると判定されたAFエリアのうち、デフォーカス量の最大値を示すAFエリアが選択され、当該AFエリアの示すデフォーカス量が採用される。
 なお、エリア選択は、デフォーカス量の最大値を示すAFエリアが選択された後に、シングルターゲットの場合と同様にして、デフォーカス量の最大値を示す位相差検出方向がさらに選択されて、当該位相差検出方向が示すデフォーカス量が採用されるものであってもよい。また、エリア選択は、グループに属するAFエリアに含まれる位相差検出方向のうち、かつ、信頼性を有すると判定された位相差検出方向のうち、デフォーカス量の最大値を示す位相差検出方向が選択され、当該位相差検出方向の示すデフォーカス量が採用されるものであってもよい。
 (オールターゲットの場合)
 オールターゲットの場合には、中央優先の正のデフォーカス量を示すAFエリアが選択される。本実施形態に係る第1のエリア選択処理におけるオールターゲットの場合において優先的に選択されるAFエリア(優先演算範囲)の一例を図7に示す。図7中において太線枠で囲まれている中央25点のAFエリア(第1の優先演算範囲A6)が最優先で選択される。続いて、図7中において太線枠で囲まれている中央49点のAFエリア(第2の優先演算範囲A7)が選択される。なお、オールターゲットの場合におけるAF演算実施範囲は121点の全AFエリアA0であり、第1の優先演算範囲A6及び第2の優先演算範囲A7は当該AF演算実施範囲に含まれる。
 まず、図7に示すような121点の全AFエリアA0(AF演算実施範囲)のうちの中央25点のAFエリア(第1の優先演算範囲A6)が考慮される。第1の優先演算範囲A6のうち、信頼性を有すると判定されたAFエリアが存在する場合には、その中から正のデフォーカス量を示すAFエリアのデフォーカス量が採用される。
 一方で、第1の優先演算範囲A6のうち、信頼性を有すると判定されたAFエリアが存在しない場合には、図7に示すような中央49点のAFエリア(第2の優先演算範囲A7)が考慮される。第2の優先演算範囲A7のうち、信頼性を有すると判定されたAFエリアが存在する場合には、その中から最至近のデフォーカス量を示すAFエリアのデフォーカス量が採用される。
 また、第1の優先演算範囲A6又は第2の優先演算範囲A7の何れの領域にも、信頼性を有すると判定されたAFエリアが存在しない場合もあり得る。このようなときには、121点の全AFエリアA0(AF演算実施範囲)内で信頼性を有すると判定されたAFエリアのうち、最至近のデフォーカス量を示すAFエリアのデフォーカス量が採用されることになる。
 なお、エリア選択は、オールターゲットの場合もグループターゲットの場合と同様に、位相差検出方向の示すデフォーカス量について選択されるものであってもよい。
 (追尾AFの場合)
 追尾AFの場合には、まずは、上述したシングルターゲット、グループターゲット、又はオールターゲットのAFエリア設定に基づいて、AFエリアが選択されてデフォーカス量が取得される。ただし、追尾AFの場合には、AFエリアは、被写体の動き(追尾結果)に基づいて随時更新されていくことになる。
 (顔AFの場合)
 本実施形態に係る第1のエリア選択処理における顔AFの場合の顔検出範囲及びAF演算実施範囲の一例を図8に示す。顔AFの場合には、顔F0が存在する範囲である顔検出範囲A8に基づいてAF演算実施範囲A9が決定される。そして、当該AF演算実施範囲A9内の信頼性を有すると判定されたAFエリアのうち、瞳の位置(瞳位置F1又は瞳位置F2)に最も近いAFエリアが優先して選択されることになる。なお、瞳位置近傍のAFエリアが信頼性を有していない場合には、顔中心のAFエリアが優先して選択されることになる。
 ここで、図8に示す場合におけるAF演算実施範囲A9に含まれるAFエリアの選択の優先順位を図9に示す。図9中に示されている数字はAF演算実施範囲A9に含まれる各々のAFエリアが選択される優先順位を表しており、数字が小さいほど優先順位が高いことを示している。
 本実施形態に係る顔AFの場合には、瞳の位置(瞳位置F1又は瞳位置F2)に最も近いAFエリアが優先して選択されることになるため、図9中の1又は2の箇所のAFエリアが選択されることになる。ここで、1及び2の箇所のAFエリアの何れも信頼性を有すると判定された場合には、これらのうち、より信頼性の高いAFエリアが選択される。
 一方で、1及び2の箇所のAFエリアの何れも信頼性を有していないと判定された場合には、信頼性を有しているAFエリアのうち、図9中の優先順位が最も高いAFエリアが優先的に選択されることになる。このように、第1のエリア選択処理における顔AFでは、焦点検出回路222が各々のAFエリアにおいて繰り返し検出する複数のデフォーカス量のうち、顔検出範囲内の瞳の位置に対応するAFエリア又は信頼性の高いと判定されたAFエリアが選択されることになる。
 なお、本実施形態では、顔検出範囲A8が4×4点のAFエリアである場合について説明をしたが、これに限定されない。顔検出範囲A8は、顔F0のサイズによって3×3点、5×5点のAFエリアを含み得る。また、AF演算実施範囲A9は、当該顔検出範囲A8のサイズによって変化し得る。
 なお、CPU216は、焦点調節指示部206aから焦点調節の開始指示がなされてから一旦合焦判断がなされるまでの間に第1のエリア選択処理を実施すると説明したが、これに限定されない。例えば、CPU216は、1stレリーズスイッチがオンの状態であると判定されるまで繰り返し行われるLV表示用の露光動作を行う際に第1のエリア選択処理と同様の処理を行ってもよい。すなわち、焦点調節指示部206aから焦点調節の開始の指示がなされるまで、焦点検出回路222が各々のAFエリアにおいて繰り返し検出する複数のデフォーカス量のうち、最至近を示すAFエリアが選択される処理が行われてもよい。また、例えば顔AFにおいても、焦点調節指示部206aから焦点調節の開始の指示がなされるまで、当該複数のデフォーカス量のうち、顔検出範囲内の瞳の位置に対応するAFエリア又は信頼性の高いと判定されたAFエリアが選択される処理が行われてもよい。
 <第2のエリア選択処理>
 ここで、ステップS113における第2のエリア選択処理について説明をする。第2のエリア選択処理では、一旦主要被写体にピントが合った後(つまり1stレリーズ保持中)に実施され、以下のようにしてAFエリアが選択される。
 1stレリーズ保持中には主要被写体を捉え続ける必要がある。このような、主要被写体にピントを合わせた状態のときは、主要被写体が移動しない限り、デフォーカス量はゼロの値が正しいことになる。また、露光時間の短さを考慮すると、主要被写体が移動する場合には、通常は当該主要被写体が等速で、かつ、短距離を移動するとみなせるため、動体予測式に則っているデフォーカス量を示すAFエリアが正しいデフォーカス量を示すと言える。
 ここで、第2のエリア選択処理において、デフォーカス量を算出するAF演算実施範囲について説明をする。シングルターゲットの場合は、選択されたAFエリア(AF演算実施範囲)における縦方向と横方向との各々についてデフォーカス量が算出される。グループ5点やグループ9点等のグループターゲットの場合は、選択されたグループターゲット(AF演算実施範囲)内における縦方向と横方向との各々についてデフォーカス量が算出される。オールターゲット(121点)の場合は、前回選択されたAFエリアを中心として、例えば5×5点のAF演算実施範囲内についてデフォーカス量が算出される。追尾AF時のAF演算実施範囲の一例を模式図として図10に示し、これを参照して説明する。追尾AF時には、追尾座標C0を中心に、例えば図10に示すように3×3点のAF演算実施範囲内のデフォーカス量が算出され、当該デフォーカス量に基づいてAFエリアが選択される。顔AF時は、顔検出回路が検出する顔が存在する範囲(顔検出範囲)内のデフォーカス量が算出され、当該デフォーカス量に基づいてAFエリアが選択される。なお、第2のエリア選択処理における顔AF時には、第1のエリア選択処理とは異なり、顔AF特有の処理は行われないものとする。第2のエリア選択処理における顔AF時には、例えば上述したグループターゲットの場合のように、顔検出範囲内における縦方向と横方向との各々についてデフォーカス量が算出される。なお、この記載は、第2のエリア選択処理において、顔AF特有の処理が行われることを除外するものではない。
 まず、本実施形態に係る第2のエリア選択処理において、判定部216bは、動体予測式が成立するか否かの判定(第1の判定)を行う。ここで、動体予測式が成立する条件とは、以下の2つの条件(第1の条件及び第2の条件)がともに成立する場合を言う。第1の条件は、デフォーカス量に係る履歴情報が一定ポイント数以上存在すること(例えば、現在時刻から過去1秒以内の履歴情報が5ポイント以上等)である。第2の条件は、第1の条件が満たされた状態で、算出した一次予測式との乖離量が一定量(例えば10Fδ)以下に収まっているポイント数が、5ポイント以上あることである。なお、動体予測式としては、図2A及び図2Bのフローチャートを参照して説明した通り、1つ前までの測距結果に基づいて算出した予測式の結果が使用される。なお、Fδとの記載において、Fは、FNO(F値、絞り値ともいう)を示し、δは許容錯乱円を示し、一般的に、Fδは許容深度を示すものである。また、Fδを1Fδと記す場合もある。
 次に、判定部216bは、当該動体予測式から求まるフォーカスレンズ1021の駆動方向が至近方向であるか無限方向であるかの判定(第2の判定)を行う。なお、本実施形態における説明では、フォーカスレンズ1021が無限側から至近側へ向かって駆動される方向(至近方向)を正とし、また、ピントずれ方向が至近側である場合をデフォーカス量が正である場合としている。このとき、被写体が無限側から至近側に向かっていれば、縦軸をレンズパルス位置、横軸を時間としたときの動体予測式の傾きは正となる。もちろん、何れを正とするかによって、他の値の正負、動体予測式の傾き等が変わり得ることは言うまでもない。
 本実施形態に係る第2のエリア選択処理では、第1の判定において動体予測式が成立すると判定され、かつ、第2の判定において当該動体予測式が正の傾きを有すると判定された場合(以下、第1のケースという。)には、当該動体予測式に最も近いデフォーカス量を示すAFエリアが選択されることになる。上述したように、第1のケースは例えば無限側から至近側に向かってレンズ駆動が為されている場合である。なお、第1のケースでは、当該動体予測式の傾きがゼロである場合を含んでいてもよい。
 第1のケースにおけるAFエリアの選択の一例について模式図として図11に示し、これを参照してより具体的に説明をする。図11中のグラフにおいて、縦軸がS112における処理で算出されるレンズパルス位置を、横軸が時間を、それぞれ示している。図11中のグラフにおいて、塗りつぶされた丸で示されたプロットは例えば時間δt毎の各タイミングで算出されたレンズパルス位置を、実線は当該レンズパルス位置の履歴に基づいて算出された動体予測式Eq1を、それぞれ示している。当該履歴は、例えばタイミング0からタイミングn-1までに取得されたレンズパルス位置を含む。また、図11中のグラフに示された複数の塗りつぶされていない丸(二重丸pnを含む)のプロットは、今回の第2のエリア選択処理が行われるタイミングnにおいて、信頼性を有すると判定された複数のAFエリアで取得された各々のデフォーカス量に基づいて算出された各々のレンズパルス位置を示している。
 第1のケースでは、これら複数のレンズパルス位置のうち、動体予測式Eq1に最も近い図11中で二重丸pnによって示されているレンズパルス位置が選択される。したがって、第1のケースでは、複数のAFエリアのうち、当該レンズパルス位置の算出に用いられたデフォーカス量を示すAFエリアが選択されることになる。なお、第1のケースでは、デフォーカス量の正負は問わない。
 次に、第1のケースに該当しない場合について説明する。ここでは、第1のケースに該当しない場合のうち、動体予測式は成立して(第1の判定は満たされて)いるが、動体予測式の傾きが負である(第2の判定でフォーカスレンズの駆動方向が無限方向と判定された)場合を例として説明する。以下、このような場合を第2のケースという。第2のケースは例えば至近側から無限側に向かってレンズ駆動が為されている場合である。そのため、例えば第2のケースでは、主要被写体と比べて無限側にある背景にピントを合わせんとするデフォーカス量を算出したAFエリアが選択されないようにして、AFエリアの選択が行われる。なお、第1のケースに該当しない場合のうち、動体予測式が成立しない(第1の判定が満たされていない)場合も、以下で説明する第2のケースで行われるAFエリア選択に係る処理と同様の処理が行われる。なお、第1の判定について説明した際に上述したとおり、動体予測式が成立しない場合には、当該動体予測式の精度が低い(確からしさが不十分な)場合も含まれる。
 第2のケースにおけるAFエリアの選択の一例について模式図として図12に示し、これを参照してより具体的に説明をする。図12中のグラフの縦軸及び横軸の各々が示す事項と、各々のプロットの種別が示す事項と、破線が示す事項とは図11中のグラフと同様である。また、図12中の実線は当該レンズパルス位置の履歴に基づいて算出された動体予測式Eq2を示している。なお、図12中のグラフの縦軸とデフォーカス量を示す軸とは同一平面上に記載されているが、互いに別次元の軸である。
 第2のケースでは、図12中のグラフに示すように、動体予測式Eq2は成立しているが、当該動体予測式Eq2の傾きは負である。第2のケースでは、図12中のグラフで、タイミングnの位置に塗りつぶされていない丸のプロットで示されている複数の合焦パルス位置の算出に用いられた各々のデフォーカス量を示すAFエリアのうち、以下の2つの判定(第3の判定、第4の判定)のうち何れかの判定を満たすデフォーカス量を示すAFエリアが選択される。第2のケースでは判定部216bは、信頼性を有すると判定されたAFエリアの示すデフォーカス量について、(正の値を有するデフォーカス量の絶対値のうち最小値)≦(負の値を有するデフォーカス量の絶対値のうち最小値)×定数、の関係を満たす正の値を有するデフォーカス量が存在するか否かの判定(第3の判定)を行う。また、第2のケースでは判定部216bは、顔AFではなく敏感度設定部216cにより設定される敏感度が所定値より高い設定である場合か否かの判定(第4の判定)を行う。CPU216は、第3の判定又は第4の判定が満たされると判定された場合には、正のデフォーカス量の最小値を示すAFエリアを選択する。ここで、敏感度設定はユーザが設定できるパラメータである。敏感度設定のための表示、操作画面等は、例えばカメラシステムの通常メニュー画面内に存在する。なお、例えばデフォーカス量=0を示すAFエリアが存在する場合には、当該デフォーカス量は第3の判定を満たすと言える。このように、第2のケースに該当する場合には正のデフォーカス量が優先的に採用されることになる。
 さらに、第1のケース及び第2のケースに該当しない場合、例えば動体予測式が成立せず、正の値を有するデフォーカス量の値が大きい場合(以下、第3のケースという。)を説明する。第3のケースにおけるAFエリアの選択の一例について模式図として図13に示し、これを参照してより具体的に説明をする。図13中のグラフの縦軸、横軸及びデフォーカス量を示す軸の各々が示す事項と、各々のプロットの種別が示す事項とは図12中の記載と同様である。このような第3のケースでは、負のデフォーカス量の絶対値の最小値を示すAFエリアが選択されることになる。
 本実施形態に係る第2のエリア選択では、第1のケース、第2のケース及び第3のケースの順に各々の場合を満たすデフォーカス量が存在するか否かが判定され、正の値を有するデフォーカス量が採用されやすくなっている。このように、正の値を有するデフォーカス量が採用されやすくしている理由は、例えば遠近混在被写体において被写体よりも遠方に存在することの多い背景にピントを合わせてしまわない様にするためである。したがって、正のデフォーカス量が採用されやすくする観点から行う上述した判定の順序等の変更は、本技術と同様の趣旨であり、同様の効果が得られ得ることは言うまでもない。
 また、第2のケースにおいて上述した定数は、10倍程度とする。このようにする理由は、極端に大きな正のデフォーカス量でなければ、なるべく正のデフォーカス量を採用するためである。また、第2のケースで記述した「敏感度=高」の状態は、被写体に敏感に追従するように設定された状態を指し、例えば急加速する被写体等にも追従することを狙っている状態である。当該敏感度設定は、特に、遠方から手前へと近づいてくる被写体に追従しやすい様に、正のデフォーカス量の値そのものが大きくても積極的に採用することを目的として考慮されている。
 <合焦状態(合焦範囲内)か否かの判定>
 ここで、ステップS108又はステップS117における合焦状態(合焦範囲内)か否かの判定について、より詳細に説明をする。まず、本実施形態に係る焦点調節装置1が要求される状況の一例について、デフォーカス量=0を狙いとした制御が行われる場合のAFエリアに対するデフォーカス量分布と現在のレンズ位置及び真の合焦位置との関係の一例を模式図として図14に示し、これを参照して説明を行う。なお、上述したように、顔AF時は、最至近優先ではなく顔中心優先としたAFエリア選択が行われる。また、以下の説明では、各々のAFエリアの示すデフォーカス量について考慮されるとして記載をするが、各々のAFエリアに含まれる各々の位相差検出方向について考慮される場合も同様に実施でき、また、同様の効果が得られることは言うまでもない。
 図14中のグラフは、縦軸がデフォーカス量を、横軸がAFエリアを、それぞれ示している。図14中の各々のプロット(def0、def1、def2、def3)は、各々のAFエリアにおいて算出されたデフォーカス量をそれぞれ表している。当該プロットのうち、二重丸のプロットdef0は本来選択したいAFエリアで算出されるデフォーカス量を、塗りつぶされた丸のプロットdef1は選択されるデフォーカス量を、丸の中に×のプロットdef2は背景の雑被写体に対して算出されたデフォーカス量を、塗りつぶされていない丸のプロットdef3はその他のデフォーカス量をそれぞれ示している。また、図14中のグラフにおいて、実線は現デフォーカス量がゼロである現在のレンズ位置を、破線は真の合焦位置を、矢印付き実線D1は現在のレンズ位置に対する許容深度を、矢印付き破線D0は真の合焦位置に対する許容深度を、それぞれ示している。なお、当該破線の示す真の合焦位置及び矢印付き破線D0の示す当該真の合焦位置に対する許容深度は、焦点調節装置1が焦点調節時に目指すべき値であるが、同時に焦点調節装置1が焦点調節時に把握していない未知の情報であることは言うまでもない。
 一般に、合焦判断における許容深度の設定は、例えば-1Fδ~+1Fδとされている。しかしながら、図14に示すような遠近混在の被写体に対してAFを実施する状況では、プロットdef0、プロットdef1、プロットdef3等のデフォーカス量に加えて、プロットdef2のような背景の雑被写体に合わせて算出されたデフォーカス量もまた許容深度(矢印付き実線D1)の範囲内に含まれる。そのため、現在のレンズ位置が真の合焦位置から-1Fδの位置に存在するとき等では、検出したデフォーカス量のばらつきにより、プロットdef1のように、本来選択したいプロットdef0のAFエリアから若干ずれたAFエリアのデフォーカス量が選択されてしまう。また、この選択の結果に基づいて、さらに負側にデフォーカス駆動してしまうと、少しずつ背景の雑被写体に合わせてレンズ駆動してピントを合わせてしまうこととなり、適切に主要被写体に合わせたAF動作が実現しない可能性がある。
 例えば、移動する被写体に合わせてAFと合焦とを繰り返すコンティニュアスAF(C-AF)においては、通常手前に移動する被写体に追従し続けることが重要である。また、本実施形態に係る焦点調節装置1の制御処理では、図2A及び図2Bを参照して上述した通り、本露光(ステップS121)の直前に動体予測演算の結果に基づいてレンズ駆動(LD)を実施する(ステップS120)。
 したがって、本実施形態に係る焦点調節装置1は、1stレリーズ保持中に必ずしも許容深度内にフォーカスレンズ位置を合わせる必要はない。また、特にC-AFにおいては背景にピントを合わせてしまわないことが重要であり、第2のエリア選択処理に示すように、本実施形態に係る焦点調節装置1は、正の値を有するデフォーカス量を優先して選択する。
 そこで、本実施形態に係る焦点調節装置1は、ステップS118のフォーカスレンズ駆動では、例えばデフォーカス量=+1Fδを狙いとした制御を行う。このときのAFエリアに対するデフォーカス量分布と現在のレンズ位置及び真の合焦位置との関係の一例を模式図として図15に示し、これを参照して以下の説明を行う。図15中のグラフの縦軸、横軸、実線、破線、矢印付き実線D1及び矢印付き破線D0の各々が示す事項と、各々のプロットの種別が示す事項とは図14中のグラフと同様である。また、矢印付き一点鎖線D2は、デフォーカス量=+1Fδを狙いとした場合の現在のレンズ位置に対する許容深度を示す。
 図14を参照して上述したように、特に遠近混在の被写体において背景の雑被写体に合ったデフォーカス量が採用されてしまう場合等、真の合焦位置よりも無限側にレンズ駆動してしまう。そのため、図15中に示すように、本実施形態に係る焦点調節装置1は、あえて実線で示されるように、フォーカスレンズを、破線で示される真の合焦位置より正のデフォーカス量の値を取り得るように例えば「+1Fδ」分のオフセットを加算して駆動する。これは、本実施形態に係る焦点調節装置1は、選択されたAFエリアの示すデフォーカス量を所定量だけ正側に補正して焦点調節を行う、とも表現できる。これにより、本実施形態に係る焦点調節装置1は、検出されたデフォーカス量のばらつきによって真の合焦位置から+1Fδ程度ずれたデフォーカス量(プロットdef1)を採用することになる。したがって、本技術は、デフォーカス量=0を狙いとしてレンズ駆動(LD)したときの様に、背景側の雑被写体に合ったデフォーカス量を検出してしまうことを避けることができる。すなわち、雑被写体のデフォーカス量を採用しない様にすることができる。
 このように、本実施形態に係る焦点調節装置1は、例えばデフォーカス量=+1Fδを狙いとした制御を行うなど、第2のエリア選択処理において正の値を有するデフォーカス量を優先して選択し、また、ステップS117の合焦判断の合焦範囲の設定を例えば-2Fδ~+1Fδ等のように負側に広げて設定する。これは、本実施形態に係る焦点調節装置1は、合焦判断における閾値を負側に補正して合焦判断を行う、とも表現できる。すなわち、遠近混在の被写体において、真の合焦位置に対する許容深度(矢印付き破線D0)に相当すると考えられる許容深度と、オフセット駆動された現在のレンズ位置に対する許容深度(矢印付き実線D1)とを合わせたような許容深度(矢印付き一点鎖線D2)内を合焦範囲として設定する。現在のレンズ位置(EFデフォーカス量=0)に対して-2Fδ~+1Fδの範囲ではレンズ駆動が行われない。これにより、本技術は、背景に向かう負方向のレンズ駆動を抑制しつつ、背景の雑被写体に合わせたデフォーカス量を示すAFエリアを選択しにくくして、主要被写体に合わせたデフォーカス量を算出する適切なAFエリアを選択しやすくすることができる。
 本実施形態に係る焦点調節装置1は、例えばC-AFを実行する時等、1stレリーズ押下直後から合焦判断できるまでは、AFエリアのうち最至近を示すデフォーカス量を選択する。また、本実施形態に係る焦点調節装置1は、1stレリーズ押下中や連写中等には、第1の判定乃至第4の判定によってデフォーカス量が最も小さいAFエリア又は動体予測演算結果に最も近いデフォーカス量を示すAFエリアを選択する。さらに、本実施形態に係る焦点調節装置1は、合焦判断において、例えばデフォーカス量=+1Fδを狙いとした制御を行う。
 このようにして、本実施形態に係る焦点調節装置1は、背景の雑被写体に合わせたデフォーカス量を示すAFエリアを選択しないようにできる。したがって、本技術を適用すれば、遠近混在の被写体に対して撮影を行う場合であっても、1stレリーズの押下直後に最至近のデフォーカス量を示す主要被写体を捉え、また、背景の雑被写体ではなく主要被写体に合ったデフォーカス量を示すAFエリアを適切に選択できる。
 [変形例]
 ここまで、1つのAFエリアのデフォーカス量は縦方向と横方向との2つの測距結果を示すとして説明をしてきたが、これに限定されない。デフォーカス量は、当該縦方向と横方向とが、それぞれさらに細かく分割されてもよく、例えば、縦方向で3つのデフォーカス量が、横方向で3つのデフォーカス量が算出される場合もあり得る。このように縦方向と横方向とをさらに3分割する場合には、例えば1つのAFエリアが3つの位置に分けられて、各々のAFエリア内でL・C・Rの3つのブロックに分けてデフォーカス量を算出する場合があり得る。この場合も、AFエリアを121×2(縦横)×3ブロックとして扱って本技術によって実現できることは言うまでもない。
 しかしながら、このようにAFエリアをさらに分割してデフォーカス量を算出する場合には、当該デフォーカス量の演算量が増加し、演算時間もまた増加する。演算時間を短縮するために、例えばブロック選択が実施される時は、デフォーカス量への変換や各種補正値を適用する前の、2像間隔値の状態でブロック選択が実施されるようにすればよい。ただし、このときは動体予測結果も得られないため、以下の判定処理が行われることとする。
 このとき、判定部216bは、(正の2像間隔値の絶対値の最小値)≦(負の2像間隔値の絶対値の最小値×定数)の関係を満たす正の値を有する2像間隔値が存在するか否かの判定(第5の判定)を行う。第5の判定を満たす2像間隔値が存在する場合は、当該2像間隔値を示すブロックが選択される。一方で、第5の判定を満たす2像間隔値が存在しない場合、負の2像間隔値の絶対値の最小値を示すブロックが選択される。
 なお、フローチャートで示した各々の処理及び各々の処理内の各ステップは、その順序を変更でき、また、追加及び削除もできる。これら各々の処理は、交換式レンズ100又はカメラ本体200の内部に記録された各々のプログラムによって実行される。各々のプログラムは、予め交換式レンズ100又はカメラ本体200の内部に記録されていても、別の記録媒体に記録されていてもよい。これら記録の方法は様々であり、製品出荷時に記録されるものでもよく、配布された記録媒体が利用されて記録されるものでもよく、インターネット等通信回線が利用されて記録されるものでもよい。
 なお、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。

Claims (20)

  1.  複数のAFエリアを備え、前記AFエリアについて繰り返しデフォーカス量を検出し、前記デフォーカス量に基づきAFエリアを選択して焦点調節を行う焦点調節装置であって、
      繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出し、
      前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの第2の判定とを行い、
      前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択する
     少なくとも1つの回路を備える、焦点調節装置。
  2.  前記回路は、検出された複数の前記デフォーカス量のうち、正のデフォーカス量の絶対値の最小値であって、負のデフォーカス量の絶対値の最小値の所定係数倍よりも小さいデフォーカス量が存在するか、又は、正のデフォーカス量が十分小さいか否かの第3の判定をさらに行い、前記第2の判定において前記動体予測式の確からしさが不十分な場合、又は、前記第2の判定において無限方向であると判定された場合に、前記第3の判定を満たす前記デフォーカス量を示すAFエリアを選択する、
     請求項1に記載の焦点調節装置。
  3.  前記回路は、前記第1の判定において前記動体予測式が成立しないと判定された場合又は前記第2の判定において無限方向であると判定された場合であって前記第3の判定を満たすデフォーカス量が存在しない場合に、前記負のデフォーカス量の絶対値の最小値を示すAFエリアを選択する、請求項2に記載の焦点調節装置。
  4.  焦点調節の開始を指示する焦点調節指示部をさらに備え、
     前記回路は、前記焦点調節指示部から焦点調節の開始の指示がなされるまで又は開始指示がなされてから一旦合焦判断がなされるまでは、複数の前記デフォーカス量のうち正のデフォーカス量の最大値を示すAFエリアを選択する、
     請求項1乃至3の何れか1項に記載の焦点調節装置。
  5.  前記回路は、焦点調節の敏感度をさらに設定し、設定される敏感度が所定値より高い場合は、複数の前記デフォーカス量のうち正のデフォーカス量を示すAFエリアを優先して選択する、請求項1乃至3の何れか1項に記載の焦点調節装置。
  6.  被写体を追尾する追尾回路をさらに備え、
     前記回路は、前記追尾回路の追尾位置を中心とする所定範囲内の前記AFエリアの示すデフォーカス量に基づいてAFエリアを選択する、
     請求項1乃至3の何れか1項に記載の焦点調節装置。
  7.  顔を検出する顔検出回路をさらに備え、
     前記回路は、前記顔検出回路の検出する顔の範囲内の前記AFエリアの示すデフォーカス量に基づいてAFエリアを選択する、
     請求項1乃至3の何れか1項に記載の焦点調節装置。
  8.  焦点調節の開始を指示する焦点調節指示部と、
     前記デフォーカス量の検出に関する信頼性を判定する信頼性判定部と、
     前記顔検出回路の検出した顔の範囲内で瞳を検出する瞳検出回路と
     をさらに備え、
     前記回路は、前記焦点調節指示部から焦点調節の開始の指示がなされるまで又は開始指示がなされてから一旦合焦判断がなされるまでは、複数の前記デフォーカス量のうち前記顔の範囲内の瞳の位置に対応するAFエリア又は前記信頼性が高いAFエリアを選択する、
     請求項7に記載の焦点調節装置。
  9.  焦点調節の開始を指示する焦点調節指示部をさらに備え、
     前記回路は、選択された前記AFエリアの示すデフォーカス量を所定量だけ正側に補正して前記焦点調節を行う、
     請求項1乃至3の何れか1項に記載の焦点調節装置。
  10.  焦点調節の開始を指示する焦点調節指示部をさらに備え、
     前記回路は、合焦判断における閾値を負側に補正して前記合焦判断を行う、
     請求項1乃至3の何れか1項に記載の焦点調節装置。
  11.  デフォーカス量に関する光学補正量を記憶する記憶部をさらに備え、
     前記回路は、検出された前記デフォーカス量を前記光学補正量により補正したデフォーカス量の履歴に基づいて前記動体予測式を算出し、前記補正したデフォーカス量に基づいてAFエリアを選択する、
     請求項1乃至3の何れか1項に記載の焦点調節装置。
  12.  前記回路は、前記第1の判定に加えて前記動体予測式の精度の評価をさらに行う、請求項1に記載の焦点調節装置。
  13.  複数のAFエリアを備え、前記AFエリアについて繰り返しデフォーカス量を検出し、前記デフォーカス量に基づきAFエリアを選択して焦点調節を行う焦点調節装置において、
     繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出することと、
     前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの第2の判定とを行うことと、
     前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択することと
     を含む焦点調節装置の制御方法。
  14.  検出された複数の前記デフォーカス量のうち、正のデフォーカス量の絶対値の最小値であって、負のデフォーカス量の絶対値の最小値の所定係数倍よりも小さいデフォーカス量が存在するか、又は、正のデフォーカス量が十分小さいか否かの第3の判定を行うことをさらに含み、
     前記AFエリアを選択することは、前記第2の判定において前記動体予測式の確からしさが不十分な場合、又は、前記第2の判定において無限方向であると判定された場合に、前記第3の判定を満たす前記デフォーカス量を示すAFエリアを選択することをさらに含む、
     請求項13に記載の焦点調節装置の制御方法。
  15.  前記AFエリアを選択することは、前記第1の判定において前記動体予測式が成立しないと判定された場合又は前記第2の判定において無限方向であると判定された場合であって前記第3の判定を満たすデフォーカス量が存在しない場合に、前記負のデフォーカス量の絶対値の最小値を示すAFエリアを選択することをさらに含む、請求項14に記載の焦点調節装置の制御方法。
  16.  焦点調節の開始の指示に応じて焦点調節を開始することをさらに含み、
     前記AFエリアを選択することは、焦点調節の開始の指示がなされるまで又は開始指示がなされてから一旦合焦判断がなされるまでは、複数の前記デフォーカス量のうち正のデフォーカス量の最大値を示すAFエリアを選択することをさらに含む、
     請求項13乃至15のうち何れか1項に記載の焦点調節装置の制御方法。
  17.  焦点調節の敏感度を設定することをさらに含み、
     前記AFエリアを選択することは、前記設定される敏感度が所定値より高い場合は、複数の前記デフォーカス量のうち正のデフォーカス量を示すAFエリアを優先して選択することを含む、
     請求項13乃至15のうち何れか1項に記載の焦点調節装置の制御方法。
  18.  複数のAFエリアの各々について繰り返しデフォーカス量を検出し、前記デフォーカス量に基づき焦点調節に用いられる前記AFエリアを選択することをコンピュータに実行させるための、焦点調節プログラムを記憶したコンピュータ読み取り可能な非一時的記憶媒体であって、前記焦点調節プログラムは、
     繰り返し検出される複数の前記デフォーカス量の履歴に基づいて動体予測式を算出することと、
     前記動体予測式が成立するか否かの第1の判定と、前記動体予測式から求まるフォーカスレンズの駆動方向が至近方向であるか無限方向であるかの第2の判定とを行うことと、
     前記第1の判定において前記動体予測式が成立すると判定され、かつ、前記第2の判定において至近方向であると判定された場合に、前記動体予測式に最も近いデフォーカス量を示すAFエリアを選択することと
     を含む、焦点調節プログラムを記憶したコンピュータ読み取り可能な非一時的記憶媒体。
  19.  前記焦点調節プログラムは、検出された複数の前記デフォーカス量のうち、正のデフォーカス量の絶対値の最小値であって、負のデフォーカス量の絶対値の最小値の所定係数倍よりも小さいデフォーカス量が存在するか、又は、正のデフォーカス量が十分小さいか否かの第3の判定を行うことをさらに含み、
     前記AFエリアを選択することは、前記第2の判定において前記動体予測式の確からしさが不十分な場合、又は、前記第2の判定において無限方向であると判定された場合に、前記第3の判定を満たす前記デフォーカス量を示すAFエリアを選択することをさらに含む、
     請求項18に記載の焦点調節プログラムを記憶したコンピュータ読み取り可能な非一時的記憶媒体。
  20.  前記AFエリアを選択することは、前記第1の判定において前記動体予測式が成立しないと判定された場合又は前記第2の判定において無限方向であると判定された場合であって前記第3の判定を満たすデフォーカス量が存在しない場合に、前記負のデフォーカス量の絶対値の最小値を示すAFエリアを選択することをさらに含む、請求項19に記載の焦点調節プログラムを記憶したコンピュータ読み取り可能な非一時的記憶媒体。
PCT/JP2017/036713 2016-11-28 2017-10-10 焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体 WO2018096816A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/423,110 US10859790B2 (en) 2016-11-28 2019-05-27 Focusing apparatus, control method of focusing apparatus, and recording medium storing focus adjustment program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016230273A JP2018087864A (ja) 2016-11-28 2016-11-28 焦点調節装置及び焦点調節装置の制御方法
JP2016-230273 2016-11-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/423,110 Continuation US10859790B2 (en) 2016-11-28 2019-05-27 Focusing apparatus, control method of focusing apparatus, and recording medium storing focus adjustment program

Publications (1)

Publication Number Publication Date
WO2018096816A1 true WO2018096816A1 (ja) 2018-05-31

Family

ID=62195830

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/036713 WO2018096816A1 (ja) 2016-11-28 2017-10-10 焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体

Country Status (3)

Country Link
US (1) US10859790B2 (ja)
JP (1) JP2018087864A (ja)
WO (1) WO2018096816A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10958825B2 (en) * 2017-10-17 2021-03-23 Canon Kabushiki Kaisha Electronic apparatus and method for controlling the same
JP2020003733A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 デフォーカス検出装置及びデフォーカス検出方法
US11115583B2 (en) 2018-06-29 2021-09-07 Canon Kabushiki Kaisha Apparatus and method for determination of a focus detection target
JP2020003741A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 撮像装置及びその制御方法
JP7249174B2 (ja) * 2019-03-13 2023-03-30 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP7289714B2 (ja) * 2019-04-26 2023-06-12 キヤノン株式会社 焦点調整装置、撮像装置、焦点調整方法、およびプログラム
JP7171966B2 (ja) * 2020-02-20 2022-11-15 富士フイルム株式会社 撮像装置、制御装置、撮像装置の動作方法、及びプログラム
JP2022137760A (ja) * 2021-03-09 2022-09-22 オリンパス株式会社 焦点調節装置および焦点調節方法
JP2022170035A (ja) * 2021-04-28 2022-11-10 キヤノン株式会社 制御装置、撮像装置、制御方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000258682A (ja) * 1999-03-08 2000-09-22 Olympus Optical Co Ltd 自動焦点調節装置
JP2005065021A (ja) * 2003-08-18 2005-03-10 Honda Motor Co Ltd 携帯端末機器を用いた移動ロボットの画像撮影装置及びその方法
JP2008046354A (ja) * 2006-08-16 2008-02-28 Nikon Corp 被写体追尾装置およびカメラ
JP2013228571A (ja) * 2012-04-26 2013-11-07 Canon Inc レンズ装置、撮像システム、撮像装置および制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756322B2 (en) 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US20050248681A1 (en) * 2004-05-07 2005-11-10 Nikon Corporation Digital camera
JP4923587B2 (ja) 2006-01-25 2012-04-25 株式会社ニコン 焦点検出装置、方法およびカメラ
WO2008001575A1 (fr) * 2006-06-28 2008-01-03 Nikon Corporation Dispositif de localisation, dispositif de mise au point automatique et appareil photographique
JP5368723B2 (ja) * 2008-04-09 2013-12-18 キヤノン株式会社 撮像装置及びその制御方法
JP5882593B2 (ja) * 2011-03-14 2016-03-09 キヤノン株式会社 撮像装置
JP6305017B2 (ja) 2013-11-01 2018-04-04 キヤノン株式会社 フォーカス制御装置、およびその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000258682A (ja) * 1999-03-08 2000-09-22 Olympus Optical Co Ltd 自動焦点調節装置
JP2005065021A (ja) * 2003-08-18 2005-03-10 Honda Motor Co Ltd 携帯端末機器を用いた移動ロボットの画像撮影装置及びその方法
JP2008046354A (ja) * 2006-08-16 2008-02-28 Nikon Corp 被写体追尾装置およびカメラ
JP2013228571A (ja) * 2012-04-26 2013-11-07 Canon Inc レンズ装置、撮像システム、撮像装置および制御方法

Also Published As

Publication number Publication date
JP2018087864A (ja) 2018-06-07
US20190278052A1 (en) 2019-09-12
US10859790B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
WO2018096816A1 (ja) 焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体
US7756411B2 (en) Photographing apparatus and method
JP5394296B2 (ja) 撮像装置及び画像処理方法
US9344621B2 (en) Imaging device and control method for imaging device
KR101847392B1 (ko) 화상처리장치 및 그 제어 방법
US10264173B2 (en) Image capturing apparatus and control method thereof, and storage medium
US9137436B2 (en) Imaging apparatus and method with focus detection and adjustment
JP6518452B2 (ja) 撮像装置及び撮像方法
US10187564B2 (en) Focus adjustment apparatus, imaging apparatus, focus adjustment method, and recording medium storing a focus adjustment program thereon
US9509899B2 (en) Camera system and method for correcting focus detection pixel
JP2017211487A (ja) 撮像装置及び自動焦点調節方法
JP2018084701A (ja) 焦点調節装置、カメラシステム及び焦点調節方法
JP2011053318A (ja) 焦点状態検出装置、撮像装置、およびその制御方法
JP2016142999A (ja) 撮像装置及びその制御方法
JP6220144B2 (ja) 焦点調節装置およびその制御方法
JP2011217334A (ja) 撮像装置および撮像装置の制御方法
JP6168827B2 (ja) 像振れ補正装置および光学機器
JP7039326B2 (ja) 焦点調節装置及び焦点調節装置の制御方法
JP2011048265A (ja) 焦点検出装置及び焦点検出方法
JP2018101110A (ja) 焦点検出装置
JP6624789B2 (ja) 合焦制御装置、その制御方法、および制御プログラム、並びに撮像装置
US9832364B2 (en) Automatic focal adjustment apparatus and method of controlling automatic focal adjustment apparatus, and image capture apparatus
JP2009260413A (ja) 撮像装置及び撮像装置の制御方法
JP2006003428A (ja) フォーカス制御装置及び光学機器
JP2020118728A (ja) 焦点調節装置および焦点調節方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17873027

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17873027

Country of ref document: EP

Kind code of ref document: A1