WO2019058974A1 - 撮像装置、撮像装置本体及び撮像装置の合焦制御方法 - Google Patents

撮像装置、撮像装置本体及び撮像装置の合焦制御方法 Download PDF

Info

Publication number
WO2019058974A1
WO2019058974A1 PCT/JP2018/032915 JP2018032915W WO2019058974A1 WO 2019058974 A1 WO2019058974 A1 WO 2019058974A1 JP 2018032915 W JP2018032915 W JP 2018032915W WO 2019058974 A1 WO2019058974 A1 WO 2019058974A1
Authority
WO
WIPO (PCT)
Prior art keywords
image sensor
movable range
tracking
range
imaging device
Prior art date
Application number
PCT/JP2018/032915
Other languages
English (en)
French (fr)
Inventor
和田 哲
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201880060186.6A priority Critical patent/CN111095067B/zh
Priority to JP2019543540A priority patent/JP6856761B2/ja
Publication of WO2019058974A1 publication Critical patent/WO2019058974A1/ja
Priority to US16/824,173 priority patent/US10764488B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention relates to an imaging apparatus, an imaging apparatus main body, and a focusing control method of an imaging apparatus, and in particular, an imaging apparatus having a function of moving an image sensor for focusing, an imaging apparatus main body, and a focusing control method of an imaging apparatus About.
  • Patent Document 1 as a function to support manual focus adjustment, an imaging apparatus provided with a function of performing contrast AF by moving the image sensor back and forth when the photographer manually adjusts the focus and then presses the AF button. Has been proposed.
  • the present invention has been made in view of such circumstances, and it is an object of the present invention to provide an imaging device capable of appropriately supporting a photographer at the time of focusing, an imaging device main body, and a focusing control method of the imaging device. .
  • the means for solving the above problems are as follows.
  • Image pickup lens having focus adjustment function, image sensor, image sensor movement drive unit for moving the image sensor along the optical axis, focus detection unit for detecting defocus amount, detection by focus detection unit Based on the amount of defocus that is detected, the movement of the image sensor is controlled within the movable range, and the tracking control unit that tracks the subject, and the focusing operation of the imaging lens for the subject are detected by the focus detection unit.
  • An image pickup apparatus comprising: a focusing operation detection unit which detects based on the focus operation detection unit;
  • the subject can be tracked by moving the image sensor.
  • tracking means keeping the subject in focus, that is, maintaining the in-focus state.
  • the image sensor can track the subject within its movable range. Therefore, the movable range of the image sensor is the trackable range.
  • the movable range of the image sensor is automatically switched depending on the presence or absence of the focusing operation. The switching is performed by the movable range switching unit.
  • the movable range switching unit expands the movable range of the image sensor when the focusing operation is detected.
  • the focusing operation is an operation of focusing on an object by adjusting the focus of an imaging lens having a focusing function. For this reason, the focusing operation is detected based on the amount of change in defocus.
  • the focusing operation is performed when the photographer adjusts the focus of the imaging lens to focus on the subject. Therefore, in this case, by expanding the movable range of the image sensor and expanding the trackable range, it is possible to appropriately support the focusing operation by the photographer.
  • the movable range is not changed but is maintained constant if the operation is not an operation to bring the subject into focus. If the movable range of the image sensor is expanded and the trackable range is expanded when the focusing operation is not performed, the result does not conform to the photographer's intention. That is, for example, when the photographer operates the imaging lens to check the state of blur, if the subject is tracked in a wide range, the state of blur which is the original purpose can not be confirmed. Therefore, when the focusing operation is not performed, the movement according to the photographer's intention can be performed by maintaining the movable range without changing it.
  • the movable range of the image sensor before enlargement includes zero.
  • the subject is tracked only when the movable range is expanded.
  • the range to be enlarged can be arbitrarily set within the range in which the image sensor movement driver can physically move the image sensor.
  • the wider this range is, the wider the trackable range can be.
  • the movable range of the image sensor is reduced and returned to the original range.
  • the image sensor moves to the end of the movable range, tracking is no longer possible.
  • the movable range of the image sensor is reduced and returned to the original range. That is, the movable range before enlargement is returned.
  • the movable range switching unit reduces the movable range of the image sensor to the original range when the position of the imaging point of the subject is separated from the movable range of the image sensor by a certain amount or more after expanding the movable range of the image sensor , The imaging device of said (1).
  • the movable range of the image sensor is reduced and returned to the original range when the position of the imaging point of the subject is separated from the movable range of the image sensor by a certain amount or more.
  • the position of the imaging point of the subject is the position at which the image of the subject is formed.
  • the tracking is performed by moving the image sensor so as to follow the movement of the imaging point. Therefore, when the position of the imaging point exceeds the movable range of the image sensor, tracking becomes impossible.
  • the movable range of the image sensor is reduced and returned to the original range.
  • the movable range switching unit expands the movable range of the image sensor from zero to a fixed range when the focusing operation is detected by the focusing operation detection unit, according to any one of (1) to (3) Imaging device.
  • the movable range of the image sensor is expanded from zero to a certain range. That is, when the focusing operation is detected, the movable range of the image sensor is set for the first time. Therefore, in this case, the image sensor can move only when the focusing operation is detected.
  • the zero here includes a range that can be regarded as substantially zero.
  • the focusing operation detection unit detects the focusing operation by detecting that the fluctuation speed of the defocus amount has become equal to or less than the threshold within a certain range before and after the position at which the subject is in focus. Any one imaging device from (4).
  • the focusing operation has been performed when the fluctuation speed of the defocus amount becomes equal to or less than the threshold within a certain range before and after the position where the subject is in focus. That is, it is determined that the focusing operation is performed when the speed of focusing is reduced at a position near the in-focus position.
  • the photographer slows and finely adjusts the speed near the in-focus position. By detecting that the speed of focusing is reduced at a position near the in-focus position, it is possible to appropriately detect the focusing operation.
  • tracking of the subject is automatically started. That is, the movement of the image sensor is controlled to maintain the in-focus state.
  • tracking of the subject is automatically started when the defocus amount continues below the threshold for a predetermined time. That is, when the state close to the in-focus state is maintained for a predetermined time, tracking of the subject is automatically started.
  • the tracking control unit starts tracking of the subject when the fluctuation speed of the defocus amount becomes less than or equal to the threshold within a certain range before and after the position where the subject is in focus. Any one imaging device.
  • tracking of the subject is automatically started. That is, tracking is automatically started when the speed of focusing is reduced at a position near the in-focus position. Therefore, when an operation of focusing on the subject is performed, tracking is automatically started.
  • the tracking control unit returns the image sensor to the reference position when the image sensor reaches the end of the movable range and the tracking of the subject becomes impossible, any one of the above (1) to (8) Imaging device.
  • the image sensor when the image sensor reaches the end of the movable range and tracking of the subject becomes impossible, the image sensor returns to the reference position. By returning to the reference position, it is possible to improve the followability at the time of resuming the tracking.
  • the image sensor when the image sensor returns to the reference position, the image sensor moves at the moving speed according to the change in the defocus amount, and returns to the reference position.
  • the focus state changes, which may result in an unnatural image.
  • the image sensor can be returned to the reference position without giving a sense of discomfort to the image.
  • a mode switching unit for switching on and off of the tracking range expansion mode is further provided.
  • the movable range switching unit expands the movable range of the image sensor once, and performs subsequent switching operations.
  • the imaging device according to any one of (1) to (10), which is stopped.
  • a mode switching unit is further provided that turns on and off the tracking range expansion mode.
  • the tracking range expansion mode is on, when the movable range of the image sensor is expanded, the subsequent switching operation is stopped. That is, once the movable range of the image sensor is expanded, the expanded state is maintained continuously thereafter. Thus, the photographer's intention can be properly reflected in the control.
  • the tracking range expansion mode is further provided with a mode switching unit that switches on and off.
  • the movable range switching unit expands the movable range of the image sensor once, and performs subsequent switching operations.
  • the tracking control unit stops the image sensor until the subject is refocused.
  • a mode switching unit is further provided that turns on and off the tracking range expansion mode.
  • the tracking range expansion mode is on, when the movable range of the image sensor is expanded, the subsequent switching operation is stopped. That is, once the movable range of the image sensor is expanded, the expanded state is maintained continuously thereafter. Thus, the photographer's intention can be properly reflected in the control.
  • the movable range of the image sensor when the image sensor reaches the end of the movable range and tracking of the subject becomes impossible, the image sensor ends the movable range until the subject is refocused. Stand by in the department. Thereby, it is possible to return to the in-focus state early.
  • the reference position is set at the center of the movable range of the image sensor, and the reference position is set at the position of the flange back defined by the imaging lens. Imaging device.
  • the reference position is set at the center of the movable range of the image sensor.
  • the range in the vicinity is included in the center here. That is, the range that can be regarded as approximately the center is included.
  • the reference position is set at the position of the flange back.
  • the imaging lens is designed to have the best performance at the flange back position. Therefore, by setting the reference position at the position of the flange back, it is possible to capture a high quality image.
  • the range of the vicinity is included in the position of the flange back here. That is, the range which can be regarded as approximately flange back is included.
  • the defocus amount is detected based on the outputs of the plurality of phase difference detection pixels provided on the imaging surface of the image sensor.
  • the movement amount of the image sensor for focusing on the subject can be easily obtained. Also, this makes it possible to track the subject with high accuracy.
  • a monitor or an electronic viewfinder is provided.
  • An image captured by an image sensor is displayed in real time on the monitor and the electronic viewfinder.
  • the resolution of the monitor and the electronic viewfinder is lower than the resolution of the image sensor, it is difficult to focus manually with high accuracy while checking the display of the monitor and the electronic viewfinder. Therefore, in such a case, the AF support by the movement of the image sensor works particularly effectively.
  • ppi pixel per inch
  • the tracking control unit that controls the movement of the image sensor within the movable range based on the unit and the defocus amount detected by the focus detection unit, and tracks the object, and the focusing operation of the imaging lens for the object
  • An imaging apparatus main body comprising: a focusing operation detection unit that detects based on a detected change in defocus amount; and a movable range switching unit that expands the movable range of the image sensor when the focusing operation is detected by the focusing operation detection unit.
  • the subject can be tracked by moving the image sensor.
  • the movable range of the image sensor is automatically switched depending on the presence or absence of the focusing operation.
  • the switching is performed by the movable range switching unit.
  • the movable range switching unit expands the movable range of the image sensor when the focusing operation is detected.
  • the focusing operation is performed when the photographer is trying to focus on the subject. Therefore, in this case, by expanding the movable range of the image sensor and expanding the trackable range, it is possible to appropriately support the focusing operation by the photographer.
  • the movable range is not changed but is maintained constant if the operation is not an operation to bring the subject into focus.
  • the movable range of the image sensor is expanded and the trackable range is expanded when the focusing operation is not performed, the result does not conform to the photographer's intention. Therefore, when the focusing operation is not performed, the movement according to the photographer's intention can be performed by maintaining the movable range without changing it.
  • the movable range of the image sensor is reduced and returned to the original range.
  • the image sensor moves to the end of the movable range, tracking is no longer possible.
  • the movable range of the image sensor is reduced and returned to the original range. That is, the movable range before enlargement is returned.
  • the movable range switching unit reduces the movable range of the image sensor to the original range when the position of the imaging point of the subject is separated from the movable range of the image sensor by a certain amount or more after expanding the movable range of the image sensor ,
  • the movable range of the image sensor is reduced and returned to the original range when the position of the imaging point of the subject is separated from the movable range of the image sensor by a certain amount or more.
  • the tracking is performed by moving the image sensor so as to follow the movement of the imaging point. Therefore, when the position of the imaging point exceeds the movable range of the image sensor, tracking becomes impossible.
  • the movable range of the image sensor is reduced and returned to the original range.
  • the movable range switching unit expands the movable range of the image sensor from zero to a fixed range when the focusing operation is detected by the focusing operation detection unit, according to any one of (16) to (18). Imaging device body.
  • the movable range of the image sensor is expanded from zero to a certain range. That is, when the focusing operation is detected, the movable range of the image sensor is set for the first time. Therefore, in this case, the image sensor can move only when the focusing operation is detected.
  • the focusing operation detection unit detects the focusing operation by detecting that the fluctuation speed of the defocus amount has become equal to or less than a threshold within a certain range before and after the position at which the subject is in focus.
  • the imaging device main body according to any one of (19) to (19).
  • the focusing operation has been performed when the fluctuation speed of the defocus amount becomes equal to or less than the threshold within a certain range before and after the position where the subject is in focus. That is, it is determined that the focusing operation is performed when the speed of focusing is reduced at a position near the in-focus position.
  • An imaging lens having a focus adjustment function, an image sensor, an image sensor movement drive unit for moving the image sensor along the optical axis, a focus detection unit for detecting the defocus amount, and detection by the focus detection unit And a tracking control unit for controlling the movement of the image sensor within the movable range based on the amount of defocus to be detected and tracking the subject
  • the focus control method of the imaging apparatus comprising: A focusing control method of an imaging device, comprising: detecting a focusing operation of an imaging lens for an object based on a change in defocus amount; and expanding a movable range of an image sensor when the focusing operation is detected.
  • the movable range of the image sensor when tracking an object by moving the image sensor, when the focusing operation is detected, the movable range of the image sensor is expanded.
  • the focusing operation is performed when the photographer is trying to focus on the subject. Therefore, in this case, by expanding the movable range of the image sensor and expanding the trackable range, it is possible to appropriately support the focusing operation by the photographer.
  • the movable range is not changed but is maintained constant if the operation is not an operation to bring the subject into focus. If the movable range of the image sensor is expanded and the trackable range is expanded when the focusing operation is not performed, the result does not conform to the photographer's intention. Therefore, when the focusing operation is not performed, the movement according to the photographer's intention can be performed by maintaining the movable range without changing it.
  • the movable range of the image sensor is reduced and returned to the original range.
  • the image sensor moves to the end of the movable range, tracking is no longer possible.
  • the movable range of the image sensor is reduced and returned to the original range. That is, the movable range before enlargement is returned.
  • the method further includes the step of reducing the movable range of the image sensor to the original range when the position of the imaging point of the subject is separated from the movable range of the image sensor by a certain amount or more after expanding the movable range of the image sensor.
  • the movable range of the image sensor is reduced and returned to the original range when the position of the imaging point of the subject is separated from the movable range of the image sensor by a certain amount or more.
  • the tracking is performed by moving the image sensor so as to follow the movement of the imaging point. Therefore, when the position of the imaging point exceeds the movable range of the image sensor, tracking becomes impossible.
  • the movable range of the image sensor is reduced and returned to the original range.
  • the step of expanding the movable range of the image sensor expands the movable range of the image sensor from zero to a certain range, any one of the above (1) to (3) Focus control method of the image pickup apparatus.
  • the movable range of the image sensor is expanded from zero to a certain range. That is, when the focusing operation is detected, the movable range of the image sensor is set for the first time. Therefore, in this case, the image sensor can move only when the focusing operation is detected.
  • the focusing operation has been performed when the fluctuation speed of the defocus amount becomes equal to or less than the threshold within a certain range before and after the position where the subject is in focus. That is, it is determined that the focusing operation is performed when the speed of focusing is reduced at a position near the in-focus position.
  • the photographer can be properly supported at the time of focusing.
  • FIG. 1 Front perspective view showing an embodiment of a digital camera Rear perspective view showing an embodiment of a digital camera Block diagram showing the electrical configuration of the digital camera
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 showing a schematic configuration of each pixel provided on an imaging surface
  • FIG. 1 showing a schematic configuration of each pixel provided on an imaging surface
  • FIG. 1 Block diagram showing a schematic configuration of each pixel provided on an imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An enlarged view of a part of the imaging surface
  • FIG. 1 An
  • [Appearance configuration] 1 and 2 are a front perspective view and a back perspective view, respectively, showing an embodiment of a digital camera to which the present invention is applied.
  • the digital camera 1 shown in FIGS. 1 and 2 is an interchangeable lens type digital camera, and includes an interchangeable lens 10 and a camera body 100.
  • the digital camera 1 is an example of an imaging device.
  • the interchangeable lens 10 is an example of an imaging lens, and is configured by combining a plurality of lenses.
  • the interchangeable lens 10 has a focusing function, and is focused by moving some or all of the lens groups along the optical axis. In this example, focusing is performed by moving a focusing lens including some lens groups along the optical axis.
  • the interchangeable lens 10 includes a focus ring 16 and an aperture ring 18 as a lens operation unit 14.
  • the focus ring 16 is an operation member for focus adjustment.
  • the focus ring 16 is rotatably provided around the lens barrel 12.
  • the focusing mechanism is activated according to the operation direction and the amount of operation. That is, the focus lens moves according to the operation direction and the amount of operation, and focusing is performed.
  • the aperture ring 18 is an operation member for adjusting the aperture.
  • the aperture ring 18 is rotatably provided around the lens barrel 12.
  • the squeeze ring 18 is printed with a set squeeze value which can be set on its outer periphery at a constant interval (not shown).
  • the setting of the aperture is performed by rotating the aperture ring 18 and adjusting the desired aperture value to the position of the index (not shown) provided on the lens barrel 12.
  • the camera body 100 is an example of an imaging device body.
  • the camera body 100 includes a mount 102, a main monitor 104, a sub monitor 106, an electronic viewfinder 108, a camera operation unit 110, and the like.
  • the mount 102 is a mounting portion of the interchangeable lens 10 and is provided on the front of the camera body 100.
  • the interchangeable lens 10 is detachably mounted on the mount 102.
  • the main monitor 104 is provided on the back of the camera body 100.
  • the main monitor 104 is configured by an LCD (Liquid Crystal Display).
  • the main monitor 104 is used as a GUI (Graphical User Interface) for performing various settings, and is also used as a monitor for reproducing captured images. Further, at the time of imaging, a live view is displayed as necessary, and an image captured by the image sensor is displayed in real time.
  • the sub monitor 106 is provided on the top surface of the camera body 100.
  • the sub monitor 106 is configured of an LCD.
  • the sub monitor 106 displays main imaging information such as shutter speed, aperture value, sensitivity, and exposure correction.
  • An electronic view finder (EVF) 108 is provided on the top of the camera body 100.
  • the electronic view finder 108 displays a live view and displays an image captured by an image sensor in real time.
  • the electronic view finder 108 can be turned on and off as needed, and switched to display on the main monitor 104.
  • the camera operation unit 110 as an operation member of the digital camera 1, includes a sensitivity dial 111, an erase button 112, a power lever 113, a shutter button 114, a drive button 115, a sub monitor illumination button 116, a shutter speed dial 117, a play button 118, and a front command Dial 119, rear command dial 120, focus lever 121, quick menu button 122, menu / OK button 123, selector button 124, display / BACK button 125, first function button 126, second function button 127, third function button 128 , Fourth function button 129, fifth function button 130, and the like.
  • the sensitivity dial 111 is a dial for setting the sensitivity.
  • the erase button 112 is a button for erasing the captured image. When the button is pressed during image playback, the image being played back is deleted.
  • the power supply lever 113 is a lever for turning on and off the power of the digital camera 1.
  • the shutter button 114 is a button for instructing recording of an image.
  • the shutter button 114 is composed of a two-step stroke type button which can be pressed halfway and fully. When the shutter button 114 is pressed halfway, the S1 ON signal is output, and when the shutter button 114 is fully pressed, the S2 ON signal is output.
  • the drive button 115 is a button for calling a drive mode selection screen.
  • a drive mode selection screen is displayed on the main monitor 104. The drive mode is selected on the drive mode selection screen, and single frame imaging, continuous shooting, bracket imaging, multiple exposure, moving image imaging and the like are selected.
  • the sub monitor illumination button 116 is a button for turning on and off the illumination of the sub monitor 106.
  • the shutter speed dial 117 is a dial for setting the shutter speed.
  • the play button 118 is a button for instructing to switch to the play mode.
  • the digital camera 1 is activated in the imaging mode, and switches to the reproduction mode when the reproduction button 118 is pressed.
  • the front command dial 119 and the rear command dial 120 are assigned functions according to the state of the digital camera 1.
  • the focus lever 121 is a lever for selecting an AF area.
  • the quick menu button 122 is a button for calling a quick menu. When the quick menu button 122 is pressed, a quick menu is displayed on the main monitor 104.
  • the menu / OK button 123 is a button for calling a menu screen. When the menu / OK button 123 is pressed, a menu screen is displayed on the main monitor 104. Further, the menu / OK button 123 also functions as a button for confirming the selected item and the like.
  • the selector button 124 is a so-called cross button, and is a button capable of instructing four directions. When various settings are performed, items are selected by the selector button 124.
  • the display / BACK button 125 is a button for switching the display content of the main monitor 104.
  • the display / BACK button 125 also functions as a button for canceling the selected item etc., that is, a button for returning to the previous state.
  • the function selected by the user is assigned to the first function button 126, the second function button 127, the third function button 128, the fourth function button 129, and the fifth function button 130. For example, a function to switch the tracking function on and off is assigned.
  • FIG. 3 is a block diagram showing the electrical configuration of the digital camera.
  • the interchangeable lens 10 mounted on the camera body 100 is electrically connected to the camera body 100 via a contact (not shown) provided on the mount 102.
  • the interchangeable lens 10 includes a focus lens 20, a focus lens drive unit 22, and a focus lens position detection unit 24 as a focus adjustment mechanism.
  • the focus lens 20 is a part of a plurality of lenses constituting the interchangeable lens 10.
  • the interchangeable lens 10 is focused by moving the focusing lens 20 back and forth along the optical axis L.
  • the focus lens drive unit 22 moves the focus lens 20 back and forth along the optical axis L.
  • the focus lens drive unit 22 includes, for example, an actuator such as a linear motor and a drive circuit thereof.
  • the focus lens position detection unit 24 detects the position of the focus lens 20.
  • the focus lens position detection unit 24 is configured of, for example, a photo interrupter and an MR sensor (MR sensor: Magneto Resistive Sensor).
  • the photo interrupter detects that the focus lens 20 is positioned at a predetermined home position.
  • the MR sensor detects the amount of movement of the focus lens 20.
  • the position of the focus lens 20 with respect to the origin position can be detected by detecting that the focus lens 20 is positioned at the origin position by the photo interrupter and detecting the movement amount of the focus lens 20 from the origin position by the MR sensor.
  • the interchangeable lens 10 includes a diaphragm 26 and a diaphragm driving unit 28 as a light amount adjustment mechanism.
  • the diaphragm 26 is configured of, for example, an iris diaphragm.
  • the diaphragm drive unit 28 includes a motor for driving the diaphragm blades of the diaphragm 26 and a drive circuit thereof.
  • the interchangeable lens 10 includes a lens control unit 30 that generally controls the entire operation of the interchangeable lens 10.
  • the lens control unit 30 is formed of, for example, a microcomputer, and functions as a focus lens drive control unit 30a, an aperture drive control unit 30b, and the like by executing a predetermined control program (see FIG. 7).
  • the focus lens drive control unit 30 a controls the focus lens drive unit 22 based on the operation signal from the lens operation unit 14 to control the movement of the focus lens 20. Specifically, the focus lens drive unit 22 is controlled so that the focus lens 20 moves by a direction and a movement amount corresponding to the operation direction and the operation amount of the focus ring 16. When the focus ring 16 is operated, the lens operation unit 14 outputs an operation signal corresponding to the operation direction and the operation amount to the lens control unit 30.
  • the diaphragm drive control unit 30 b controls the diaphragm drive unit 28 based on the operation signal from the lens operation unit 14 to control the diaphragm 26. Specifically, the diaphragm drive unit 28 is controlled so that the diaphragm stop set by the diaphragm ring 18 is obtained. When the diaphragm ring 18 is operated, the lens operation unit 14 outputs an operation signal corresponding to the set aperture value to the lens control unit 30.
  • the lens control unit 30 is communicably connected to the camera control unit 250 of the camera body 100.
  • the camera body 100 includes an image sensor 210, an image sensor movement driver 220, an image sensor position detector 222, an image sensor driver 224, an analog signal processor 226, and an ADC (Analog-to-digital converter) 228.
  • EMF electronic viewfinder
  • the image sensor 210 receives light passing through the interchangeable lens 10 and captures an image of an object.
  • the image sensor 210 is formed of, for example, a solid-state imaging device such as a charged coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • the image sensor 210 has a plurality of phase difference detection pixels on its imaging surface.
  • FIG. 4 is a diagram showing a schematic configuration of the image sensor.
  • the image sensor 210 has an imaging surface 212 in which a large number of pixels are two-dimensionally arranged in the x direction (row direction) and the y direction (column direction).
  • the imaging surface 212 has a plurality of AF (autofocus) areas 214.
  • the AF area 214 is an area set on the imaging surface 212 as an area capable of focusing. In the example shown in FIG. 4, nine AF areas 214 are set at the center of the screen.
  • FIG. 5 is an enlarged view of a part of the imaging surface.
  • Each pixel includes a photoelectric conversion unit, and outputs a signal corresponding to the amount of light received.
  • Each pixel has a color filter of any of R (Red / Red), G (Green / Green), and B (Blue / Blue). Color filters are assigned to each pixel so as to be in a predetermined array.
  • FIG. 5 shows an example of the Bayer arrangement. In the same figure, a letter R is attached to a pixel having an R color filter (R pixel), a letter G is attached to a pixel having a G color filter (G pixel), and a B color filter is provided. The letter B is attached to the pixel (B pixel).
  • the normal pixel 216 and the phase difference detection pixel 218 are disposed.
  • the normal pixel 216 is a pixel for normal imaging.
  • the phase difference detection pixel 218 is a pixel that detects a phase difference.
  • the pixels other than the phase difference detection pixels usually constitute pixels. Usually, only pixels are arranged in the area other than the AF area.
  • phase difference detection pixels 218 are indicated by oblique lines. As shown in the figure, the phase difference detection pixels 218 are regularly arranged on the imaging surface 212.
  • the phase difference detection pixel 218 includes a first phase difference detection pixel 218A and a second phase difference detection pixel 218B.
  • the first phase difference detection pixel 218A and the second phase difference detection pixel 218B are disposed close to each other.
  • the first phase difference detection pixels 218A are arranged at fixed intervals in one of two rows of the same arrangement which are close to each other, and the second phase difference detection pixels 218B are arranged at fixed intervals in the other.
  • An example is shown. In particular, an example in which a specific G pixel of a specific row in which R pixels and G pixels are arranged is used as a phase difference detection pixel is shown.
  • FIG. 6 is a diagram showing a schematic configuration of each pixel provided on the imaging surface.
  • Each pixel has a light shielding film provided with a predetermined opening.
  • FIG. 6 shows the opening of the light shielding film provided in each pixel in white.
  • the normal pixel 216 has a light shielding film whose opening coincides with the center of the photoelectric conversion unit.
  • the normal pixel 216 receives the light flux that has passed through almost all parts of the pupil region of the interchangeable lens 10.
  • the first phase difference detection pixel 218A has a light shielding film in which the opening is eccentric to the right with respect to the center of the photoelectric conversion unit. As a result, in the first phase difference detection pixel 218A, one of the light fluxes of the pair of light fluxes which has passed through different portions of the pupil area of the interchangeable lens 10 is received.
  • the second phase difference detection pixel 218B has a light shielding film in which the opening is offset to the left with respect to the center of the photoelectric conversion unit.
  • the image sensor movement drive unit 220 moves the image sensor 210 back and forth along the optical axis L.
  • the image sensor movement drive unit 220 is configured to include, for example, an actuator such as a piezo actuator and a drive circuit thereof.
  • the image sensor 210 moves within the movable range.
  • the movable range is set within the range in which the image sensor 210 can be physically moved by the image sensor movement driver 220. As described later, the movable range is switched by the movable range switching unit 250c (see FIG. 7).
  • the reference position is set at the center of the movable range.
  • the reference position is set to the position of the flange back defined by the interchangeable lens 10.
  • the interchangeable lens 10 has an optical design based on the position of the flange back. Accordingly, by positioning the image sensor 210 at the reference position, the optical performance of the interchangeable lens 10 can be maximized.
  • the flange back of an interchangeable lens employing a C-mount is 17.526 mm.
  • the flange back of the interchangeable lens which adopts CS mount is 12.5 mm.
  • the image sensor position detection unit 222 detects the position of the image sensor 210 with respect to the reference position.
  • the image sensor position detection unit 222 is configured of, for example, a displacement sensor such as an eddy current sensor.
  • Image sensor driver The image sensor drive unit 224 drives the image sensor 210 under the control of the camera control unit 250.
  • the image sensor 210 is driven by the image sensor drive unit 224 to capture an image.
  • the analog signal processing unit 226 takes in an analog image signal for each pixel output from the image sensor 210 and performs predetermined signal processing (for example, correlated double sampling processing, amplification processing, etc.).
  • the ADC 228 converts an analog image signal output from the analog signal processing unit 226 into a digital image signal and outputs it.
  • the digital signal processing unit 230 takes in a digital image signal, and performs predetermined signal processing (for example, gradation conversion processing, white balance correction processing, gamma correction processing, synchronization processing, YC conversion processing, etc.) to obtain image data.
  • predetermined signal processing for example, gradation conversion processing, white balance correction processing, gamma correction processing, synchronization processing, YC conversion processing, etc.
  • the phase difference AF (autofocus) processing unit 232 is an example of a focus detection unit.
  • the phase difference AF processing unit 232 acquires the signals of the first phase difference detection pixel 218A and the second phase difference detection pixel 218B from the designated AF area 214, performs correlation operation processing on the acquired signals, and performs phase difference. Calculate the quantity. Then, based on the calculated phase difference amount, the direction and amount of defocus are calculated.
  • the AF area is selected by the user. Alternatively, it is determined automatically. Selection by the user is performed by operating the focus lever 121. In the case of automatic determination, for example, the subject is automatically recognized, and the AF area in which the subject is present is selected. Alternatively, the moving body is recognized, and the AF area in which the moving body exists is selected.
  • the memory card interface 234 reads and writes data with respect to the memory card 236 mounted in the card slot under the control of the camera control unit 250.
  • the main monitor 104 is configured of an LCD.
  • the display of the main monitor 104 is controlled by the camera control unit 250.
  • the camera control unit 250 controls the display of the main monitor 104 via the LCD driver 104 a.
  • the sub monitor 106 is configured of an LCD.
  • the display of the sub monitor 106 is controlled by the camera control unit 250.
  • the camera control unit 250 controls the display of the sub monitor 106 via the LCD driver 106 a.
  • the display unit of the electronic viewfinder (EVF) 108 is configured of an LCD.
  • the display of the electronic viewfinder 108 is controlled by the camera control unit 250.
  • the camera control unit 250 controls the display of the electronic viewfinder 108 via the LCD driver 108 a.
  • the camera operation unit 110 outputs, to the camera control unit 250, a signal corresponding to the operation of each operation member.
  • the camera control unit 250 is a control unit that generally controls the overall operation of the digital camera 1.
  • the camera control unit 250 is configured by, for example, a microcomputer, and provides various functions by executing a predetermined program.
  • FIG. 7 is a block diagram of functions realized by the camera control unit and the lens control unit.
  • the camera control unit 250 functions as a tracking control unit 250a, a focusing operation detection unit 250b, and a movable range switching unit 250c by executing a predetermined program.
  • the tracking control unit 250 a controls the movement of the image sensor 210 based on the defocus amount detected by the phase difference AF processing unit 232 to track the subject.
  • the tracking is performed by controlling the movement of the image sensor 210 so as to maintain the in-focus state.
  • FIG. 8 is a conceptual view of focusing by movement of the image sensor.
  • the figure (A) has shown the state which the focus shifted
  • the image sensor 210 is located at the reference position R0, and the image of the subject A at the position P1 is formed at the position R1.
  • the position R1 is behind (on the image plane side) the reference position R0.
  • the image sensor 210 is moved backward and positioned at the position R1. As a result, the image of the subject A is formed on the imaging surface and focused.
  • the image sensor 210 may be moved to follow the movement of the imaging point. Accordingly, tracking is performed by moving the image sensor 210 so as to follow the movement of the imaging point.
  • the shift amount between the position of the imaging point and the position of the imaging surface is detected as a defocus amount. Therefore, the tracking control unit 250a controls the movement of the image sensor 210 based on the defocus amount, and maintains the in-focus state.
  • FIG. 9 is a conceptual view of tracking control by movement of the image sensor.
  • FIG. 9A shows a case where the subject A moves from the position P1 to the position P2 and the position R2 of the imaging point reaches the end of the movable range W of the image sensor 210.
  • the tracking control unit 250 a performs tracking until the image sensor 210 reaches the end of the movable range W. That is, based on the defocus amount, the movement of the image sensor 210 is controlled to maintain the in-focus state.
  • FIG. 9B shows a case where the subject A further moves from the position P2 to the position P3 and the position R3 of the imaging point moves beyond the end of the movable range W of the image sensor 210.
  • the tracking control unit 250 a ends the tracking.
  • the tracking control unit 250a returns the image sensor 210 to the reference position R0.
  • the tracking control unit 250a moves the image sensor 210 at a moving speed according to the change of the defocus amount.
  • the focus state changes, which may result in an unnatural image.
  • the image sensor 210 can be returned to the reference position R0 without giving a sense of discomfort to the image.
  • the image sensor 210 is moved at substantially the same speed (the same speed or substantially the same speed) as the speed at which the defocus amount changes, and the image sensor 210 is returned to the reference position R0. That is, the image sensor 210 is moved at the same speed as the moving speed of the imaging point, and the image sensor 210 is returned to the reference position R0.
  • FIG. 10 is a conceptual diagram of tracking control over time.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210.
  • tracking is started. That is, when the imaging point is located on the imaging surface of the image sensor 210 located at the reference position R0, tracking is started. When the imaging point is located on the imaging surface of the image sensor 210, the defocus amount becomes zero. Therefore, tracking is started when the defocus amount becomes zero.
  • focusing is performed for the first time at time t0. Therefore, tracking is started from time t0.
  • the movement of the image sensor 210 starts.
  • the image sensor 210 moves following the movement of the imaging point. Thereby, the in-focus state is maintained.
  • the image sensor 210 moves within the movable range.
  • the example shown in FIG. 10 shows the case where the image sensor 210 reaches the end of the movable range W at time t1 after focusing at time t0. In this case, tracking ends once. When the tracking ends, the image sensor 210 returns to the reference position R0. At this time, it moves at almost the same speed as the moving speed of the imaging point, and returns to the reference position R0.
  • the image sensor 210 When returning to the reference position R0, the image sensor 210 stands by at the reference position R0 until focusing again.
  • the example shown in FIG. 10 shows the case where focusing is performed again at time t2. In this case, tracking is resumed from time t2.
  • the image sensor 210 further reaches the end of the movable range W at time t3, and after focusing again at time t4, the image sensor 210 reaches the end of the movable range W at time t5.
  • the tracking ends As shown in the figure, each time the image sensor 210 reaches the end of the movable range W, the tracking ends. When the tracking ends, the image sensor 210 returns to the reference position R0.
  • the operation waits until the in-focus is achieved again, and when the in-focus is achieved, the tracking is resumed.
  • the tracking control unit 250a starts the tracking, moves the image sensor 210 within the movable range, and maintains the in-focus state.
  • the image sensor 210 reaches the end of the movable range W, the tracking is ended, the image sensor 210 is returned to the reference position R0, and standby is performed until the in-focus state is achieved again.
  • the focusing operation detection unit 250b detects a focusing operation on the subject.
  • the focusing operation is an operation of focusing on an object by adjusting the focus of an imaging lens having a focusing function.
  • the focusing operation detection unit 250 b detects the focusing operation based on the defocus amount detected by the phase difference AF processing unit 232.
  • the focusing operation is detected by detecting that the fluctuation speed of the defocus amount has become equal to or less than the threshold within a certain range before and after the position where the subject is in focus. That is, when the speed of focus adjustment by the focus lens of the imaging lens is reduced at a position near the in-focus position, it is determined that the focusing operation has been performed and this is detected.
  • the movable range switching unit 250 c switches the movable range of the image sensor 210 based on the detection result of the focusing operation detection unit 250 b.
  • the switching is performed between the first movable range and the second movable range.
  • the first movable range is a narrow movable range
  • the second movable range is a wide movable range. Therefore, the movable range of the image sensor 210 is expanded by switching from the first movable range to the second movable range.
  • the second movable range is set to, for example, the maximum range in which the image sensor movement driver 220 can move.
  • the first movable range is set to a narrower range than the second movable range.
  • the movable range switching unit 250c sets the movable range of the image sensor 210 to the first movable range. Thereafter, when the focusing operation is detected by the focusing operation detection unit 250b, the movable range switching unit 250c switches the movable range of the image sensor from the first movable range to the second movable range. Thereby, the movable range is expanded.
  • the movable range switching unit 250 c sets the movable range of the image sensor 210 to the first. Switch to movable range. Thereby, the original state before enlargement is restored.
  • FIG. 11 is a conceptual view of switching of the movable range.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210
  • reference symbol W1 indicates a first movable range
  • reference symbol W2 indicates a second movable range. As shown in the figure, the second movable range W2 is set wider than the first movable range W1.
  • the first movable range W1 is switched to the second movable range W2.
  • the focusing operation detection unit 250b detects that the variation speed of the defocus amount has become equal to or less than a threshold within a certain range before and after the position where the subject is in focus, and detects the focusing operation.
  • the fluctuation speed of the defocus amount is synonymous with the moving speed of the imaging point. Therefore, in FIG. 11, the inclination of the movement locus L1 of the imaging point becomes the fluctuation speed of the defocus amount.
  • the position at which the subject is in focus is the position of the image sensor 210 (more precisely, the position of the imaging surface).
  • the focusing operation is detected by detecting that the fluctuation speed of the defocus amount has become equal to or less than the threshold value within a certain range before and after the image sensor 210.
  • the constant range before and after is the range near the image sensor 210. In the example shown in FIG. 11, it is set to the same range as the first movable range W1. Therefore, in the example shown in FIG. 11, the movable range switches from the first movable range W1 to the second movable range W2 when the fluctuation speed of the defocus amount becomes equal to or less than the threshold in the first movable range W1.
  • the threshold is set in consideration of the speed at which the focus is finely adjusted.
  • the subject is in focus at times t1, t2 and t4.
  • the focusing operation is not detected, and therefore the movable range of the image sensor 210 is maintained in the first movable range W1. That is, since the fluctuation speed of the defocus amount in the vicinity of the in-focus state exceeds the threshold value, it is not recognized as the focusing operation, and the movable range is maintained in the first movable range W1.
  • the movable range of the image sensor 210 is expanded from the first movable range W1 to the second movable range W2. That is, since the fluctuation speed of the defocus amount in the vicinity of the in-focus state is equal to or less than the threshold value, it is recognized that the focusing operation is performed, and the movable range is expanded from the first movable range W1 to the second movable range W2. It is done.
  • the focusing operation is recognized at the stage of time t3, and the movable range is expanded from the first movable range W1 to the second movable range W2.
  • the image sensor 210 moves within the enlarged movable range, and the subject is tracked.
  • tracking is disabled at time t5. That is, the image sensor 210 has reached the end of the movable range, and the subsequent tracking is disabled.
  • the enlarged movable range is reduced and returned to the original range. That is, it is returned to the first movable range W1.
  • the movable range may be switched to the first movable range W1 after returning to the reference position R0.
  • the movable range of the image sensor 210 is enlarged when the focusing operation is detected, and is reduced when the tracking becomes impossible after the enlargement.
  • Tracking of an object by moving the image sensor 210 is performed when the tracking function is turned on.
  • the function of turning on and off the tracking function can be assigned to one of the function buttons.
  • the tracking function can be turned on / off on the menu screen.
  • FIG. 12 is a flowchart showing the processing procedure of tracking control when the tracking function is turned on.
  • the photographer operates the focus ring 16 to manually adjust the focus.
  • the tracking control unit 250a determines whether or not the in-focus state is achieved based on the output of the phase difference AF processing unit 232 (step S11).
  • the tracking control unit 250a starts tracking (step S12). That is, the movement of the image sensor 210 is controlled based on the defocus amount detected by the phase difference AF processing unit 232 to maintain the in-focus state.
  • the tracking control is performed within the movable range of the image sensor 210.
  • the tracking ends.
  • the tracking control unit 250a determines whether the image sensor 210 has reached the end of the movable range based on the detection result of the image sensor position detection unit 222 (step S13).
  • the tracking control unit 250a determines the presence or absence of a tracking end instruction (step S17).
  • the tracking is instructed to end when the tracking function is turned off. Further, when the power of the digital camera 1 is turned off, the termination is similarly instructed. When the end is instructed, the process ends. Tracking is continued unless termination is instructed.
  • the tracking control unit 250a ends the tracking (step S14). After the end, the tracking control unit 250a restores the image sensor 210 to the reference position R0 (step S15).
  • the tracking control unit 250a determines the presence or absence of a tracking end instruction (step S16). When the end is instructed, the process ends. On the other hand, when it is determined that there is no end instruction, the process returns to step S11, and it is determined whether or not the in-focus state is achieved. When focus is achieved, tracking is resumed.
  • the digital camera 1 of the present embodiment when focusing is performed, tracking is started, and movement of the image sensor 210 is controlled so as to maintain the in-focus state. This makes it possible to properly support the user when focusing manually, and to focus with high accuracy. In particular, it is possible to focus on a moving subject with high accuracy.
  • the image sensor 210 When the tracking becomes impossible, the image sensor 210 is returned to the reference position R0. Thereby, the followability can be improved when the tracking is resumed. Further, when the image sensor 210 is returned to the reference position R0, the image sensor 210 is moved at a moving speed according to the change of the defocus amount and returned to the reference position R0. Thus, the image sensor 210 can be returned to the reference position R0 without giving a sense of discomfort to the image.
  • FIG. 13 is a flowchart showing a processing procedure of switching control of the movable range of the image sensor.
  • the movable range switching unit 250c sets the movable range of the image sensor 210 to the first movable range W1 (step S21).
  • the movable range switching unit 250c determines the presence or absence of the focusing operation based on the output of the focusing operation detection unit 250b (step S22).
  • the focusing operation detection unit 250b detects that the fluctuation speed of the defocus amount has become equal to or less than the threshold within a certain range before and after the image sensor 210, and detects the focusing operation.
  • the movable range switching unit 250c determines the presence or absence of a tracking end instruction (step S26). If it is determined that there is an instruction to end, the process ends. On the other hand, when it is determined that the end instruction is not given, the process returns to step S22, and the presence or absence of the focusing operation is determined again.
  • step S22 when it is determined that the focusing operation is performed, the movable range switching unit 250c switches the movable range of the image sensor 210 from the first movable range W1 to the second movable range W2 (step S23). Thereby, the movable range of the image sensor 210 is expanded.
  • the movable range switching unit 250c determines whether tracking can not be performed (step S24).
  • the tracking of the subject is performed within the movable range of the image sensor 210.
  • the movable range switching unit 250c determines whether the image sensor 210 has reached the end of the movable range. When it is determined that the image sensor 210 has reached the end of the movable range, it is determined that tracking can not be performed.
  • step S24 If it is determined in step S24 that tracking is not possible, the movable range switching unit 250c determines the presence or absence of a tracking end instruction (step S25). If it is determined that there is an instruction to end, the process ends. On the other hand, if it is determined that there is no end instruction, the process returns to step S24, and it is determined again whether tracking is impossible.
  • step S24 If it is determined in step S24 that tracking can not be performed, the movable range switching unit 250c switches the movable range of the image sensor 210 from the second movable range W2 to the first movable range W1 (step S21). Thereby, the movable range of the image sensor 210 is reduced. Thereafter, the presence or absence of the focusing operation is determined again (step S22). When the focusing operation is detected, the movable range of the image sensor 210 is switched from the first movable range W1 to the second movable range W2.
  • the movable range of the image sensor 210 is automatically expanded.
  • the focusing operation is performed when the photographer is trying to focus on the subject. Therefore, by expanding the movable range of the image sensor 210 and expanding the trackable range in this case, it is possible to appropriately support the focusing operation by the photographer.
  • the movable range is not changed but is maintained constant if the operation is not an operation to focus the subject. If the movable range of the image sensor 210 is expanded and the trackable range is expanded when the focusing operation is not performed, the result does not conform to the photographer's intention.
  • the photographer operates the interchangeable lens 10 in order to confirm the state of blur
  • the state of blur which is the original purpose can not be confirmed. Therefore, when the focusing operation is not performed, the movement according to the photographer's intention can be performed by maintaining the movable range without changing it.
  • FIG. 14 is a conceptual diagram showing a procedure of processing in time series in the case where the movable range is switched when the position of the imaging point is separated from the movable range by a certain amount or more.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210
  • reference symbol W1 indicates a first movable range
  • reference symbol W2 indicates a second movable range.
  • the focusing operation is detected at time t1, and the movable range is switched from the first movable range W1 to the second movable range W2.
  • the image sensor 210 reaches the end of the movable range (the second movable range W2), and tracking becomes impossible.
  • the movable range is not immediately reduced, and is reduced when the position of the imaging point is separated from the movable range by a certain amount or more. Specifically, when the position of the imaging point is separated by a distance ⁇ from the end of the movable range, the movable range is reduced. In the example shown in FIG. 14, at time t3, the position of the imaging point is separated from the end of the movable range by the distance ⁇ . Therefore, at time t3, the movable range is reduced.
  • the image when the position of the imaging point of the subject is separated from the movable range of the image sensor 210 by a predetermined amount or more, the image may be reduced and returned to the original movable range.
  • the distance ⁇ can be appropriately set according to the tracking control mode or the like.
  • a tracking range expansion mode is prepared as a tracking operation mode.
  • the mode is selected, once the movable range of the image sensor 210 is expanded, the movable range switching unit 250c stops the subsequent switching operation.
  • FIG. 15 is a conceptual diagram showing a procedure of processing in time series when the tracking range expansion mode is selected.
  • the function of turning on and off the tracking range expansion mode can be assigned to one of the function buttons, for example.
  • the function button to which the function is assigned functions as a mode switching unit.
  • the focusing operation is detected at time t1, and the movable range is switched from the first movable range W1 to the second movable range W2.
  • the image sensor 210 reaches the end of the movable range (the second movable range W2), and tracking becomes impossible.
  • the movable range is not reduced, and the expanded state is maintained.
  • the subsequent switching operation is stopped when the movable range is expanded. That is, once the movable range of the image sensor 210 is expanded, the expanded state is maintained continuously thereafter. Thus, the photographer's intention can be properly reflected in the control.
  • the movable range of the image sensor 210 before enlargement may be zero. In this case, when the focusing operation is detected, the movable range is set.
  • FIG. 16 is a conceptual view showing a procedure of time-series switching processing in the case where the movable range is set only when the focusing operation is detected.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210.
  • the movable range switches between zero and W.
  • the subject is in focus at times t1, t2 and t4.
  • the focusing range is not detected, and therefore the movable range of the image sensor 210 is maintained at zero.
  • the movable range is switched from zero to W at the stage of time t3. That is, the movable range is expanded.
  • the image sensor 210 moves within the enlarged movable range, and the subject is tracked.
  • tracking is disabled at time t5.
  • the enlarged movable range is reduced and returned to the original range. That is, the movable range is returned to zero.
  • the movable range may be switched to zero after the return to the reference position R0.
  • the movable range may be set so that tracking can be performed.
  • the zero in this example includes a range that can be regarded substantially as zero.
  • FIG. 17 is a conceptual diagram of tracking control over time in the digital camera of the present embodiment.
  • the movable range of the image sensor 210 is constant will be described as an example.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210.
  • tracking is started. That is, when the imaging point is located on the imaging surface of the image sensor 210 located at the reference position R0, tracking is started.
  • the image sensor 210 moves within the movable range.
  • the example shown in FIG. 17 shows the case where the image sensor 210 reaches one end E ⁇ of the movable range W at time t1 after focusing at time t0. In this case, tracking ends once. When the tracking is finished, the image sensor 210 stops at the position of the end E- and stands by until focusing again.
  • the example shown in FIG. 17 shows the case where focusing is performed again at time t2. In this case, tracking is resumed from time t2.
  • the image sensor 210 further reaches one end E ⁇ of the movable range W at time t3 and focuses again at time t4. Shows the case of reaching the other end E + of. Further, it shows the case where the image sensor 210 reaches the other end E + of the movable range W at time t7 after focusing again at time t6.
  • the tracking ends each time the image sensor 210 reaches the end of the movable range W, the tracking ends. When the tracking ends, the image sensor 210 stops at the position of the end, and stands by until focusing again. When the subject is focused again, tracking resumes.
  • the tracking control unit 250a starts the tracking, moves the image sensor 210 within the movable range, and maintains the in-focus state.
  • the image sensor 210 reaches the end of the movable range W, the tracking is ended, and it waits at the position of the end until it is focused again.
  • FIG. 18 is a flowchart showing the processing procedure of tracking control.
  • the photographer operates the focus ring 16 to manually adjust the focus.
  • the tracking control unit 250a determines whether or not the in-focus state is achieved based on the output of the phase difference AF processing unit 232 (step S31).
  • the tracking control unit 250a starts tracking (step S32). That is, the movement of the image sensor 210 is controlled based on the defocus amount detected by the phase difference AF processing unit 232 to maintain the in-focus state.
  • the tracking is performed within the movable range of the image sensor 210.
  • the tracking ends.
  • the tracking control unit 250a determines whether the image sensor 210 has reached the end of the movable range (step S33).
  • the tracking control unit 250a determines the presence or absence of a tracking termination instruction (step S37). When the end is instructed, the process ends. Tracking is continued unless termination is instructed.
  • the tracking control unit 250a ends the tracking (step S34). After the end, the tracking control unit 250a causes the image sensor 210 to stand by at the end position (step S35).
  • the tracking control unit 250a determines the presence or absence of a tracking end instruction (step S36). When the end is instructed, the process ends. On the other hand, when it is determined that there is no end instruction, the process returns to step S31, and it is determined whether the in-focus state is achieved. When focus is achieved, tracking is resumed.
  • the digital camera 1 of the present embodiment when focusing is performed, tracking is started, and movement of the image sensor 210 is controlled so as to maintain the in-focus state. This makes it possible to properly support the user when focusing manually, and to focus with high accuracy. In particular, moving objects can be focused with high accuracy.
  • the image sensor 210 is stopped at the position of the end of the movable range W and made to stand by. This makes it easy to recover the in-focus state. That is, since the distance for returning to the in-focus state can be shortened, the in-focus state can be recovered early.
  • the movable range of the image sensor 210 is fixed for the sake of simplicity, but when the movable range is expanded, if the tracking becomes impossible, the image sensor 210 is returned to the reference position. To make it Alternatively, it is configured to stand by at the position of the end of the reduced movable range.
  • the tracking range expansion mode when the tracking range expansion mode is turned on, it is preferable to have a configuration in which the position of the end of the movable range is made to stand by. As a result, the distance for returning to the in-focus state can be shortened, so that the in-focus state can be recovered early.
  • FIG. 19 is a conceptual diagram showing a procedure of processing in time series when the tracking range expansion mode is selected.
  • the focusing operation is detected at time t3, and the movable range is switched from the first movable range W1 to the second movable range W2. Thereafter, at time t4, the image sensor 210 reaches the end of the movable range (the second movable range W2), and tracking becomes impossible.
  • the tracking range expansion mode is on, the movable range is not reduced, and the expansion state is maintained.
  • the image sensor 210 reaches the end of the movable range at times t1, t2 and t4, and tracking is disabled.
  • the image sensor 210 stops when reaching the position of the end of the movable range, and stands by at that position. Thereby, the in-focus state can be recovered early.
  • tracking is started when focusing on the subject, but the condition for starting the tracking is not limited to this.
  • tracking may be started when reaching a state in which it is recognized that the image is substantially in focus.
  • a state in which it is recognized that the image is substantially in focus is, for example, a case where the defocus amount continues for a fixed time and is below the threshold. That is, this is a case where a state nearly in focus is maintained continuously for a fixed time. In such a case, tracking may be started on the assumption that the subject is in focus.
  • tracking is considered to be in focus. If the defocus amount continues below the threshold for a certain period of time, it is considered to be in the in-focus state, and in that case, it is regarded as in-focus and tracking is started.
  • FIG. 20 is a conceptual diagram of a temporal process when tracking is considered to be in focus when the defocus amount continues below a threshold for a fixed time.
  • a case where the movable range of the image sensor 210 is constant will be described as an example.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210.
  • the threshold value of the defocus amount be ⁇ .
  • the tracking is started on the assumption that the in-focus state is achieved when the state below the threshold ⁇ continues for the time ⁇ T.
  • the defocus amount is first equal to or less than the threshold ⁇ at time t0. However, the defocus amount exceeds the threshold ⁇ at time t1 before the time ⁇ T elapses. For this reason, it is not considered to be in focus even when the defocus amount becomes equal to or less than the threshold ⁇ .
  • the threshold value ⁇ is again equal to or less at time t2. After time t2, the defocus amount is maintained at or below the threshold ⁇ continuously. For this reason, tracking is started at the stage of time t3 when time ⁇ T has elapsed.
  • the image sensor 210 moves toward the imaging point and focuses. After focusing, the image sensor 210 moves within the movable range, and the in-focus state is maintained.
  • tracking is regarded as being in focus and tracking is started. This can improve the convenience.
  • tracking is performed when focusing is performed in the vicinity of the in-focus position, so that the intention of the photographer can be appropriately reflected in the control.
  • the tracking may be started on the assumption that focus is achieved when the amount of change in the defocus amount continues for a fixed time and is less than or equal to the threshold. That is, it is considered that focusing is performed when the defocus amount is continuously less than the first threshold for a fixed time and the variation of the defocus amount is less than the second threshold for a fixed time continuously.
  • Start. A state in which the defocus amount continues for a fixed time and does not exceed the fixed value (less than the first threshold) and the change amount of the defocus amount continues for the fixed time and does not exceed the fixed value (less than the second threshold) It is a state where the focus lens hardly changes near the focal point. That is, focusing is almost stopped near the in-focus state. In this case, it is regarded that the subject is in focus and tracking is started. In this way, tracking can be started from an almost in-focus state. This can improve the convenience.
  • the function may be arbitrarily turned on and off by the user. That is, it may have a function that allows the user to arbitrarily turn on and off the function to be regarded as focusing.
  • the on / off of the function is set, for example, on the menu screen.
  • the tracking may be started when the focusing operation is detected. In this case, tracking is started simultaneously (including almost simultaneously) as the movable range of the image sensor 210 is expanded.
  • FIG. 21 is a conceptual diagram of temporal processing when tracking is started when the focusing operation is performed.
  • reference numeral L1 indicates the movement locus of the imaging point
  • reference numeral L2 indicates the movement locus of the image sensor 210.
  • FIG. 21 shows an example in which the focusing operation is detected at time tx.
  • the focusing operation is detected in a state where the movable range is reduced, the movable range is expanded.
  • tracking starts.
  • the image sensor 210 moves toward the imaging point. That is, the image sensor 210 moves so as to focus early. After focusing, the image sensor 210 moves following the imaging point within the movable range, and the in-focus state is maintained.
  • focusing can be made early by starting tracking when the focusing operation is detected. Also, tracking is started in conjunction with the focusing operation, so control can be performed according to the photographer's intention.
  • the tracking function is manually switched on and off.
  • switching of the tracking function may be automated.
  • the tracking function may be automatically turned on when manual focus is selected.
  • the tracking function may be automatically turned on.
  • the case where the camera body 100 can not communicate with the interchangeable lens 10 means the case where the camera control unit 250 can not communicate with the lens control unit 30, and the case where the interchangeable lens 10 is not provided with the lens control unit 30 corresponds.
  • focusing is usually performed manually. Therefore, by automatically turning on the tracking function in such a case, control can be realized in accordance with the photographer's intention.
  • the movable range of the image sensor 210 is arbitrarily set within the mechanical operation range of the image sensor movement drive unit 220.
  • the movable range of the image sensor 210 is arbitrarily set within the mechanical operation range of the piezo actuator. The wider the range of movement, the wider the range of AF operation.
  • the movable state in the case of enlargement in consideration of the resolutions of the main monitor 104 and the electronic view finder 108 It is preferable to set the range (second movable range).
  • the range second movable range
  • the movable range it is preferable to set the movable range so that the range which can not be adjusted can be covered by the movement of the image sensor 210.
  • a movable range that is equal to or greater than the pixel pitch of the main monitor 104 and the electronic viewfinder 108.
  • Reference position of image sensor Although the reference position of the image sensor 210 is set at the center of the movable range in the above embodiment, the position set as the reference position is not limited to this.
  • the reference position may be set at a position on the subject side (front side) of the center of the movable range, or may be set at a position on the image plane side (rear side).
  • the user may be set arbitrarily. As described above, by setting the reference position at the center of the movable range, the followability can be improved.
  • the reference position is set at the position of the flange back in the above embodiment, it may be set at a position different from the flange back. As described above, by setting the reference position at the position of the flange back, it is possible to maximize the optical performance of the interchangeable lens 10 when focusing at the reference position.
  • the reference position may be variable.
  • the reference position may be appropriately switched with reference to position information of the image sensor 210 at the time of focusing of a subject in the past.
  • the reference position may be appropriately switched according to the subject.
  • the configuration can be appropriately switched according to the moving direction of the subject and the like. For example, for an object moving in one direction, the reference position is set in the direction opposite to the moving direction of the imaging point.
  • the defocus amount is detected based on the output of the phase difference detection pixel 218 provided on the imaging surface 212 of the image sensor 210, but the means for detecting the defocus amount is limited to this. It is not something to be done.
  • a known focus detection means such as a passive system or an active system can be used.
  • the phase difference detection pixels are arranged at constant intervals along the x direction, but may be arranged at regular intervals along the y direction. In addition, they may be arranged at regular intervals along the x direction and the y direction.
  • the phase difference detection pixels are arranged only in the AF area set at the center of the screen, but the area in which the phase difference detection pixels are arranged is not limited to this. It is good also as composition arranged on the whole screen.
  • Image sensor movement driver the image sensor 210 is moved along the optical axis L using a piezo actuator, but the configuration of the image sensor movement driver is not limited to this. Besides, for example, a known linear drive type drive mechanism such as a linear motor and a feed screw mechanism can be adopted to move the image sensor 210 along the optical axis L.
  • FIG. 22 is a view showing an example in which the present invention is applied to a three-plate type digital camera.
  • the three-plate type digital camera includes a color separation prism 310 and three image sensors 210R, 210G, and 210B in an imaging unit.
  • the color separation prism 310 separates the light incident on the incident surface 310 a into light of three colors of R (Red) light, G (Green) light and B (Blue) light.
  • the three color lights separated are emitted from the R light emission surface 310r, the G light emission surface 310g, and the B light emission surface 310b, respectively.
  • the three image sensors are configured by an image sensor 210R that receives R light, an image sensor 210G that receives G light, and an image sensor 210B that receives B light.
  • the image sensor 210R that receives R light is disposed to face the R light emission surface 310r, and receives R light emitted from the R light emission surface 310r.
  • the image sensor 210G that receives G light is disposed to face the G light emission surface 310g, and receives G light emitted from the G light emission surface 310g.
  • the image sensor 210B that receives B light is disposed to face the B light emission surface 310b, and receives B light emitted from the B light emission surface 310b.
  • the three image sensors 210R, 210G, and 210B are disposed at positions where the optical path lengths from the incident surface 310a of the color separation prism 310 are the same.
  • the three image sensors 210R, 210G and 210B are integrally attached to the color separation prism 310 via a holder (not shown).
  • a unit in which the image sensors 210R, 210G, and 210B are integrated into the color separation prism 310 is referred to as an imaging unit 330.
  • the image sensor movement drive unit 220x moves the imaging unit 330 back and forth along the optical axis L. Further, the image sensor position detection unit 222x detects the position of the imaging unit 330 with respect to the reference position.
  • the focus lens is moved back and forth along the optical axis to perform focusing, but the focusing mechanism of the imaging lens is not limited to this.
  • a liquid lens, a liquid crystal lens or the like can also be used as a focus lens. In liquid lenses and liquid crystal lenses, focusing is performed using refractive index change.
  • the focus lens is driven by an actuator such as a linear motor.
  • the focus lens may be moved manually using a cam mechanism, a helicoid gear, or the like.
  • the present invention can be applied to video cameras, television cameras, cinema cameras, and the like, and can also be applied to electronic devices having an imaging function (for example, mobile phones, smartphones, tablet computers, notebook computers, etc.).
  • the present invention can be similarly applied to a camera in which an imaging lens is integrally incorporated in a camera body.
  • the tracking control unit and the like are configured by a microcomputer, but the hardware configuration for realizing these functions is not limited to this. It can be configured with various processors. For various processors, it is possible to change the circuit configuration after manufacturing a CPU, FPGA (Field Programmable Gate Array (FPGA)) that is a general-purpose processor that functions as a processing unit that executes software (programs) and performs various processing. Processors (PLD: Programmable Logic Device), ASIC (Application Specific Integrated Circuit), ASIC (Application Specific Integrated Circuit), etc. Includes a dedicated electric circuit that is a processor with a circuit configuration designed specifically to execute specific processing. Be
  • FPGA Field Programmable Gate Array
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types. For example, it may be configured by a plurality of FPGAs, or may be configured by a combination of a CPU and an FPGA.
  • a plurality of processing units may be configured by one processor.
  • a plurality of processing units are configured by one processor
  • one processor is configured by a combination of one or more CPUs and software, as represented by computers such as clients and servers; There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • IC Integrated Circuit
  • the various processing units are configured using one or more of the various processors as a hardware structure.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit combining circuit elements such as semiconductor elements.
  • Aperture drive control unit 100 Camera body 102 Mount 104 Main monitor 104a LCD driver 106 Sub monitor 106a LCD driver 108 Electronic viewfinder (EVF) 108a LCD driver 110 camera operation unit 111 sensitivity dial 112 erase button 113 power lever 114 shutter button 115 drive button 116 sub monitor illumination button 117 shutter speed dial 118 play button 119 front command dial 120 rear command dial 121 focus lever 122 quick menu button 123 menu / OK button 124 Selector button 125 Display / BACK button 126 1st function button 127 2nd function button 128 3rd function button 129 4th function button 130 5th function button 210 Image sensor 210B Image sensor 210G Image sensor 210R Image sensor 212 Imaging Face 214 AF Eri AR 216 Normal pixel 218 Phase difference

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

焦点合わせの際に撮影者を適切にサポートできる撮像装置、撮像装置本体及び撮像装置の合焦制御方法を提供する。イメージセンサ(210)を光軸(L)に沿って移動させるイメージセンサ移動駆動部(220)を備え、イメージセンサ(210)を可動範囲内で移動させて、被写体を追尾する。また、被写体に対するフォーカシング動作を検出するフォーカシング動作検出部(250b)と、イメージセンサ(210)の可動範囲を切り替える可動範囲切替部(205c)と、を備える。可動範囲切替部(250c)は、フォーカシング動作検出部(250b)でフォーカシング動作が検出されると、イメージセンサ(210)の可動範囲を拡大する。

Description

撮像装置、撮像装置本体及び撮像装置の合焦制御方法
 本発明は、撮像装置、撮像装置本体及び撮像装置の合焦制御方法に係り、特に、イメージセンサを移動させて焦点調節する機能を備えた撮像装置、撮像装置本体及び撮像装置の合焦制御方法に関する。
 AF(Auto Focus/オートフォーカス)機能のない撮像装置では、マニュアルで焦点調節が行われる。また、AF機能を備えた撮像装置であっても、AF機能をオフして、撮像者がマニュアルで焦点調節する場合がある。
 特許文献1には、マニュアルでの焦点調節をサポートする機能として、撮影者がマニュアルで焦点調節した後、AFボタンを押すと、イメージセンサが前後移動してコントラストAFを行う機能を備えた撮像装置が提案されている。
特開2016-148832号公報
 しかしながら、特許文献1の撮像装置では、被写体が動いている場合、AFを作動させても、適切に焦点合わせすることができないという欠点がある。
 これを解消するためには、合焦近傍で自動的にAFを作動させ、合焦状態を維持するように、イメージセンサの移動を制御する必要がある。しかし、マニュアルで焦点調節する場合、撮影者は、必ずしも焦点を合わせるためだけにフォーカスレンズを動かすのではなく、ボケの状態を確認等するためにフォーカスレンズを動かす場合がある。この場合に自動的にAFを作動させると、撮影者の意図に反した制御が行われる問題がある。
 本発明は、このような事情に鑑みてなされたもので、焦点合わせの際に撮影者を適切にサポートできる撮像装置、撮像装置本体及び撮像装置の合焦制御方法を提供することを目的とする。
 上記課題を解決するための手段は、次のとおりである。
 (1)焦点調節機能を備えた撮像レンズと、イメージセンサと、イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、デフォーカス量を検出する焦点検出部と、焦点検出部で検出されるデフォーカス量に基づいて、イメージセンサの移動を可動範囲内で制御し、被写体を追尾する追尾制御部と、被写体に対する撮像レンズのフォーカシング動作を焦点検出部で検出したデフォーカス量の変化に基づき検出するフォーカシング動作検出部と、フォーカシング動作検出部でフォーカシング動作が検出されると、イメージセンサの可動範囲を拡大する可動範囲切替部と、を備えた撮像装置。
 本態様によれば、イメージセンサを移動させることで、被写体を追尾できる。ここで、追尾とは、被写体に合焦させ続けること、すなわち、合焦状態を維持することを意味する。イメージセンサは、その可動範囲内で被写体を追尾できる。したがって、イメージセンサの可動範囲が追尾可能範囲となる。イメージセンサの可動範囲は、フォーカシング動作の有無によって、自動的に切り替えられる。切り替えは、可動範囲切替部によって行われる。可動範囲切替部は、フォーカシング動作が検出されると、イメージセンサの可動範囲を拡大する。フォーカシング動作とは、焦点調節機能を備えた撮像レンズの焦点を調節することで被写体に焦点を合わせ込む動作のことである。このため、フォーカシング動作は、デフォーカスの変化量に基づいて検出される。フォーカシング動作を行うのは、撮影者が撮像レンズの焦点を調節し被写体に焦点を合わせようとしている場合である。したがって、この場合にイメージセンサの可動範囲を拡大させて、追尾可能範囲を拡大させることにより、撮影者による焦点合わせの操作を適切にサポートできる。一方、撮影者が撮像レンズを操作した場合であっても、その操作が被写体に焦点を合わせ込もうとする操作ではない場合は、可動範囲は変更されず、一定に維持される。フォーカシング動作ではない場合にイメージセンサの可動範囲を拡大させて、追尾可能範囲を拡大すると、撮影者の意図に沿わない結果となる。すなわち、たとえば、撮影者が、ボケの状態を確認するために撮像レンズを操作した場合、広い範囲で被写体を追尾すると、本来の目的であるボケの状態を確認できなくなる。したがって、フォーカシング動作ではない場合は、可動範囲を変えずに維持することにより、撮影者の意図に沿った動作ができる。
 なお、拡大する前のイメージセンサの可動範囲には零が含まれる。この場合、可動範囲が拡大された場合にのみ被写体が追尾される。
 また、拡大する範囲は、イメージセンサ移動駆動部がイメージセンサを物理的に移動させることができる範囲内で任意に設定できる。この範囲を広くとるほど、追尾可能な範囲を広くとれる。
 (2)可動範囲切替部は、イメージセンサの可動範囲を拡大した後、被写体の追尾が不能になると、イメージセンサの可動範囲を元の範囲に縮小する、上記(1)の撮像装置。
 本態様によれば、イメージセンサの可動範囲を拡大した後、被写体の追尾が不能になると、イメージセンサの可動範囲が縮小され、元の範囲に戻される。イメージセンサが可動範囲の端部まで移動すると、以後追尾は不能となる。この場合、イメージセンサの可動範囲が縮小され、元の範囲に戻される。すなわち、拡大前の可動範囲に戻される。
 (3)可動範囲切替部は、イメージセンサの可動範囲を拡大した後、被写体の結像点の位置がイメージセンサの可動範囲から一定以上離れると、イメージセンサの可動範囲を元の範囲に縮小する、上記(1)の撮像装置。
 本態様によれば、イメージセンサの可動範囲を拡大した後、被写体の結像点の位置がイメージセンサの可動範囲から一定以上離れると、イメージセンサの可動範囲が縮小され、元の範囲に戻される。被写体の結像点の位置とは、被写体の像が形成される位置のことである。追尾は、結像点の移動に追従するように、イメージセンサを移動させることにより行われる。したがって、結像点の位置が、イメージセンサの可動範囲を超えると、追尾不能になる。本態様では、結像点の位置がイメージセンサの可動範囲から一定以上離れた場合にイメージセンサの可動範囲が縮小され、元の範囲に戻される。
 (4)可動範囲切替部は、フォーカシング動作検出部でフォーカシング動作が検出されると、イメージセンサの可動範囲を零から一定の範囲に拡大させる、上記(1)から(3)のいずれか一の撮像装置。
 本態様によれば、フォーカシング動作が検出されると、イメージセンサの可動範囲が、零から一定の範囲に拡大される。すなわち、フォーカシング動作が検出されると、初めてイメージセンサの可動範囲が設定される。したがって、この場合、イメージセンサは、フォーカシング動作が検出されると、初めて移動が可能になる。なお、ここでの零には、ほぼ零とみなせる範囲が含まれる。
 (5)フォーカシング動作検出部は、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する、上記(1)から(4)のいずれか一の撮像装置。
 本態様によれば、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になった場合に、フォーカシング動作が行われたと判定される。すなわち、合焦近傍の位置で焦点調節の速度が緩められた場合にフォーカシング動作が行われたと認定する。一般に被写体に焦点を合わせ込む場合、撮影者は、合焦近傍で速度を緩めて微調整する。合焦近傍の位置で焦点調節の速度が緩められたことを検出することにより、適切にフォーカシング動作を検出できる。
 (6)追尾制御部は、被写体に合焦すると、被写体の追尾を開始する、上記(1)から(5)のいずれか一の撮像装置。
 本態様によれば、被写体に合焦すると、自動的に被写体の追尾が開始される。すなわち、合焦状態を維持するように、イメージセンサの移動が制御される。
 (7)追尾制御部は、デフォーカス量が、一定時間継続して閾値以下になると、被写体の追尾を開始する、上記(1)から(5)のいずれか一の撮像装置。
 本態様によれば、デフォーカス量が一定時間継続して閾値以下になると、被写体の追尾が自動的に開始される。すなわち、合焦に近い状態が一定時間保たれると、自動的に被写体の追尾が開始される。
 (8)追尾制御部は、デフォーカス量の変動速度が、被写体に合焦する位置の前後一定の範囲内で閾値以下になると、被写体の追尾を開始する、上記(1)から(5)のいずれか一の撮像装置。
 本態様によれば、デフォーカス量の変動速度が、被写体に合焦する位置の前後一定の範囲内で閾値以下になると、自動的に被写体の追尾が開始される。すなわち、合焦近傍の位置で焦点調節の速度が緩められると、自動的に追尾が開始される。したがって、被写体に焦点を合わせ込む動作を行うと、自動的に追尾が開始される。
 (9)追尾制御部は、イメージセンサが可動範囲の端部に到達して、被写体の追尾が不能になると、イメージセンサを基準位置に復帰させる、上記(1)から(8)のいずれか一の撮像装置。
 本態様によれば、イメージセンサが可動範囲の端部に到達して、被写体の追尾が不能になると、イメージセンサが基準位置に復帰する。基準位置に復帰させることにより、追尾を再開する際の追従性を向上させることができる。
 (10)追尾制御部は、デフォーカス量の変化に応じた移動速度でイメージセンサを移動させて、イメージセンサを基準位置に復帰させる、上記(9)の撮像装置。
 本態様によれば、イメージセンサが基準位置に復帰する際、デフォーカス量の変化に応じた移動速度でイメージセンサが移動して、基準位置に復帰する。イメージセンサを基準位置に復帰させると、焦点状態が変化するので、不自然な画像になるおそれがある。しかし、本態様のようにイメージセンサを移動させることにより、画像に違和感を与えることなく、イメージセンサを基準位置に戻すことができる。
 (11)追尾範囲拡大モードのオン、オフを切り替えるモード切替部を更に備え、追尾範囲拡大モードがオンの場合、可動範囲切替部は、イメージセンサの可動範囲を一度拡大すると、以後の切り替え動作を停止する、上記(1)から(10)のいずれか一の撮像装置。
 本態様によれば、追尾範囲拡大モードをオン、オフするモード切替部が更に備えられる。追尾範囲拡大モードがオンの場合、イメージセンサの可動範囲が拡大されると、以後の切り替え動作が停止される。すなわち、一度イメージセンサの可動範囲が拡大されると、以後継続して拡大された状態が維持される。これにより、撮影者の意図を適切に制御に反映できる。
 (12)追尾範囲拡大モードのオン、オフを切り替えるモード切替部を更に備え、追尾範囲拡大モードがオンの場合、可動範囲切替部は、イメージセンサの可動範囲を一度拡大すると、以後の切り替え動作を停止し、追尾制御部は、イメージセンサの可動範囲が拡大された場合において、イメージセンサが可動範囲の端部に到達して、被写体の追尾が不能になると、被写体に再度合焦するまでイメージセンサを可動範囲の端部で待機させる、上記(1)から(8)のいずれか一の撮像装置。
 本態様によれば、追尾範囲拡大モードをオン、オフするモード切替部が更に備えられる。追尾範囲拡大モードがオンの場合、イメージセンサの可動範囲が拡大されると、以後の切り替え動作が停止される。すなわち、一度イメージセンサの可動範囲が拡大されると、以後継続して拡大された状態が維持される。これにより、撮影者の意図を適切に制御に反映できる。また、イメージセンサの可動範囲が拡大された場合において、イメージセンサが可動範囲の端部に到達して、被写体の追尾が不能になると、被写体に再度合焦するまで、イメージセンサが可動範囲の端部で待機する。これにより、早期に合焦状態に復帰させることができる。
 (13)イメージセンサの可動範囲の中央に基準位置が設定され、かつ、撮像レンズで規定されるフランジバックの位置に基準位置が設定される、上記(1)から(12)のいずれか一の撮像装置。
 本態様によれば、イメージセンサの可動範囲の中央に基準位置が設定される。これにより、追尾の追従性を向上させることができる。なお、ここでの中央には、その近傍の範囲が含まれる。すなわち、ほぼ中央とみなせる範囲が含まれる。また、フランジバックの位置に基準位置が設定される。一般に撮像レンズは、フランジバックの位置で性能が最高になるように設計される。したがって、フランジバックの位置に基準位置を設定することにより、高品質な画像を撮像できる。なお、ここでのフランジバックの位置には、その近傍の範囲が含まれる。すなわち、ほぼフランジバックとみなせる範囲が含まれる。
 (14)焦点検出部は、イメージセンサの撮像面に備えられた複数の位相差検出画素の出力に基づいてデフォーカス量を検出する、上記(1)から(13)のいずれか一の撮像装置。
 本態様によれば、イメージセンサの撮像面に備えられた複数の位相差検出画素の出力に基づいてデフォーカス量が検出される。これにより、被写体に合焦させるためのイメージセンサの移動量を簡単に求めることができる。また、これにより、高精度に被写体を追尾できる。
 (15)イメージセンサで撮像された画像がリアルタイムに表示されるモニタ又は電子ビューファインダを更に備え、モニタ及び電子ビューファインダがイメージセンサよりも低い解像度を有する、上記(1)から(14)のいずれか一の撮像装置。
 本態様によれば、モニタ又は電子ビューファインダが備えられる。モニタ及び電子ビューファインダには、イメージセンサで撮像された画像がリアルタイムに表示される。モニタ及び電子ビューファインダの解像度が、イメージセンサの解像度よりも低い場合、モニタ及び電子ビューファインダの表示を確認しながら、マニュアルで高精度に焦点合わせするのは困難である。したがって、このような場合は、イメージセンサの移動によるAFのサポートが特に有効に作用する。
 なお、ここでの解像度は画素密度と同義であり、たとえば、ppi(pixel per inch)で表現される。ppiは、画像を表現する格子の細かさであり、一般に1インチあたりのピクセルの数を表す。
 (16)焦点調節機能を備えた撮像レンズが着脱自在に装着されるマウントと、イメージセンサと、イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、デフォーカス量を検出する焦点検出部と、焦点検出部で検出されるデフォーカス量に基づいて、イメージセンサの移動を可動範囲内で制御し、被写体を追尾する追尾制御部と、被写体に対する撮像レンズのフォーカシング動作を焦点検出部で検出したデフォーカス量の変化に基づき検出するフォーカシング動作検出部と、フォーカシング動作検出部でフォーカシング動作が検出されると、イメージセンサの可動範囲を拡大する可動範囲切替部と、を備えた撮像装置本体。
 本態様によれば、イメージセンサを移動させることで、被写体を追尾できる。イメージセンサの可動範囲は、フォーカシング動作の有無によって、自動的に切り替えられる。切り替えは、可動範囲切替部によって行われる。可動範囲切替部は、フォーカシング動作が検出されると、イメージセンサの可動範囲を拡大する。フォーカシング動作を行うのは、撮影者が被写体に焦点を合わせようとしている場合である。したがって、この場合にイメージセンサの可動範囲を拡大させて、追尾可能範囲を拡大させることにより、撮影者による焦点合わせの操作を適切にサポートできる。一方、撮影者が撮像レンズを操作した場合であっても、その操作が被写体に焦点を合わせ込もうとする操作ではない場合、可動範囲は変更されず、一定に維持される。フォーカシング動作ではない場合にイメージセンサの可動範囲を拡大させて、追尾可能範囲を拡大すると、撮影者の意図に沿わない結果となる。したがって、フォーカシング動作ではない場合は、可動範囲を変えずに維持することにより、撮影者の意図に沿った動作ができる。
 (17)可動範囲切替部は、イメージセンサの可動範囲を拡大した後、被写体の追尾が不能になると、イメージセンサの可動範囲を元の範囲に縮小する、上記(16)の撮像装置本体。
 本態様によれば、イメージセンサの可動範囲を拡大した後、被写体の追尾が不能になると、イメージセンサの可動範囲が縮小され、元の範囲に戻される。イメージセンサが可動範囲の端部まで移動すると、以後追尾は不能となる。この場合、イメージセンサの可動範囲が縮小され、元の範囲に戻される。すなわち、拡大前の可動範囲に戻される。
 (18)可動範囲切替部は、イメージセンサの可動範囲を拡大した後、被写体の結像点の位置がイメージセンサの可動範囲から一定以上離れると、イメージセンサの可動範囲を元の範囲に縮小する、上記(16)の撮像装置本体。
 本態様によれば、イメージセンサの可動範囲を拡大した後、被写体の結像点の位置がイメージセンサの可動範囲から一定以上離れると、イメージセンサの可動範囲が縮小され、元の範囲に戻される。追尾は、結像点の移動に追従するように、イメージセンサを移動させることにより行われる。したがって、結像点の位置が、イメージセンサの可動範囲を超えると、追尾不能になる。本態様では、結像点の位置がイメージセンサの可動範囲から一定以上離れた場合にイメージセンサの可動範囲が縮小され、元の範囲に戻される。
 (19)可動範囲切替部は、フォーカシング動作検出部でフォーカシング動作が検出されると、イメージセンサの可動範囲を零から一定の範囲に拡大させる、上記(16)から(18)のいずれか一の撮像装置本体。
 本態様によれば、フォーカシング動作が検出されると、イメージセンサの可動範囲が、零から一定の範囲に拡大される。すなわち、フォーカシング動作が検出されると、初めてイメージセンサの可動範囲が設定される。したがって、この場合、イメージセンサは、フォーカシング動作が検出されると、初めて移動が可能になる。
 (20)フォーカシング動作検出部は、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する、上記(16)から(19)のいずれか一の撮像装置本体。
 本態様によれば、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になった場合に、フォーカシング動作が行われたと判定される。すなわち、合焦近傍の位置で焦点調節の速度が緩められた場合にフォーカシング動作が行われたと認定する。合焦近傍の位置で焦点調節の速度が緩められたことを検出することにより、適切にフォーカシング動作を検出できる。
 (21)焦点調節機能を備えた撮像レンズと、イメージセンサと、イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、デフォーカス量を検出する焦点検出部と、焦点検出部で検出されるデフォーカス量に基づいて、イメージセンサの移動を可動範囲内で制御し、被写体を追尾する追尾制御部と、を備えた撮像装置の合焦制御方法であって、焦点検出部で検出したデフォーカス量の変化に基づき被写体に対する撮像レンズのフォーカシング動作を検出するステップと、フォーカシング動作が検出された場合に、イメージセンサの可動範囲を拡大するステップと、を含む撮像装置の合焦制御方法。
 本態様によれば、イメージセンサを移動させて、被写体を追尾する場合において、フォーカシング動作が検出されると、イメージセンサの可動範囲が拡大される。フォーカシング動作を行うのは、撮影者が被写体に焦点を合わせようとしている場合である。したがって、この場合にイメージセンサの可動範囲を拡大させて、追尾可能範囲を拡大させることにより、撮影者による焦点合わせの操作を適切にサポートできる。一方、撮影者が撮像レンズを操作した場合であっても、その操作が被写体に焦点を合わせ込もうとする操作ではない場合、可動範囲は変更されず、一定に維持される。フォーカシング動作ではない場合にイメージセンサの可動範囲を拡大させて、追尾可能範囲を拡大すると、撮影者の意図に沿わない結果となる。したがって、フォーカシング動作ではない場合は、可動範囲を変えずに維持することにより、撮影者の意図に沿った動作ができる。
 (22)イメージセンサの可動範囲を拡大した後、被写体の追尾が不能になった場合に、イメージセンサの可動範囲を元の範囲に縮小するステップを更に含む、上記(21)の撮像装置の合焦制御方法。
 本態様によれば、イメージセンサの可動範囲を拡大した後、被写体の追尾が不能になると、イメージセンサの可動範囲が縮小され、元の範囲に戻される。イメージセンサが可動範囲の端部まで移動すると、以後追尾は不能となる。この場合、イメージセンサの可動範囲が縮小され、元の範囲に戻される。すなわち、拡大前の可動範囲に戻される。
 (23)イメージセンサの可動範囲を拡大した後、被写体の結像点の位置がイメージセンサの可動範囲から一定以上離れた場合に、イメージセンサの可動範囲を元の範囲に縮小するステップを更に含む、上記(21)の撮像装置の合焦制御方法。
 本態様によれば、イメージセンサの可動範囲を拡大した後、被写体の結像点の位置がイメージセンサの可動範囲から一定以上離れると、イメージセンサの可動範囲が縮小され、元の範囲に戻される。追尾は、結像点の移動に追従するように、イメージセンサを移動させることにより行われる。したがって、結像点の位置が、イメージセンサの可動範囲を超えると、追尾不能になる。本態様では、結像点の位置がイメージセンサの可動範囲から一定以上離れた場合にイメージセンサの可動範囲が縮小され、元の範囲に戻される。
 (24)フォーカシング動作が検出された場合に、イメージセンサの可動範囲を拡大するステップは、イメージセンサの可動範囲を零から一定の範囲に拡大させる、上記(1)から(3)のいずれか一の撮像装置の合焦制御方法。
 本態様によれば、フォーカシング動作が検出されると、イメージセンサの可動範囲が、零から一定の範囲に拡大される。すなわち、フォーカシング動作が検出されると、初めてイメージセンサの可動範囲が設定される。したがって、この場合、イメージセンサは、フォーカシング動作が検出されると、初めて移動が可能になる。
 (25)フォーカシング動作を検出するステップでは、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する、上記(21)から(24)のいずれか一の撮像装置の合焦制御方法。
 本態様によれば、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になった場合に、フォーカシング動作が行われたと判定される。すなわち、合焦近傍の位置で焦点調節の速度が緩められた場合にフォーカシング動作が行われたと認定する。合焦近傍の位置で焦点調節の速度が緩められたことを検出することにより、適切にフォーカシング動作を検出できる。
 本発明によれば、焦点合わせの際に撮影者を適切にサポートできる。
デジタルカメラの一実施形態を示す正面斜視図 デジタルカメラの一実施形態を示す背面斜視図 デジタルカメラの電気的構成を示すブロック図 イメージセンサの概略構成を示す図 撮像面の一部を拡大した図 撮像面に備えられる各画素の概略構成を示す図 カメラ制御部及びレンズ制御部が実現する機能のブロック図 イメージセンサの移動による焦点合わせの概念図 イメージセンサの移動による追尾制御の概念図 経時的な追尾制御の概念図 可動範囲の切り替えの概念図 追尾機能がオンされた場合の追尾制御の処理手順を示すフローチャート イメージセンサの可動範囲の切替制御の処理手順を示すフローチャート 結像点の位置が可動範囲から一定以上離れた場合に可動範囲を切り替える場合の時系列での処理の手順を示す概念図 追尾範囲拡大モードが選択された場合の時系列での処理の手順を示す概念図 フォーカシング動作が検出された場合にのみ可動範囲が設定される場合の時系列での切り替えの処理の手順を示す概念図 デジタルカメラにおける経時的な追尾制御の概念図 追尾制御の処理手順を示すフローチャート 追尾範囲拡大モードが選択された場合の時系列での処理の手順を示す概念図 デフォーカス量が一定時間継続して閾値以下の場合に合焦したとみなして追尾する場合の経時的な処理の概念図 フォーカシング動作がされた場合に追尾を開始する場合の経時的な処理の概念図 3板式のデジタルカメラに本発明適用する場合の一例を示す図
 以下、添付図面に従って本発明を実施するための好ましい形態について詳説する。
 [外観構成]
 図1、図2は、それぞれ本発明が適用されたデジタルカメラの一実施形態を示す正面斜視図、背面斜視図である。
 図1及び図2に示すデジタルカメラ1は、レンズ交換式のデジタルカメラであり、交換レンズ10及びカメラ本体100を備える。デジタルカメラ1は、撮像装置の一例である。
 《交換レンズ》
 交換レンズ10は、撮像レンズの一例であり、複数のレンズを組み合わせて構成される。交換レンズ10は、焦点調節機能を備え、一部のレンズ群又は全てのレンズ群を光軸に沿って移動させることにより焦点調節される。本例では、一部のレンズ群で構成されるフォーカスレンズを光軸に沿って移動させることにより焦点調節される。
 交換レンズ10は、レンズ操作部14として、フォーカスリング16及び絞りリング18を備える。
 フォーカスリング16は、焦点調節用の操作部材である。フォーカスリング16は、鏡筒12の周りを回転自在に設けられる。フォーカスリング16を回転操作すると、その操作方向及び操作量に応じて、焦点調節機構が作動する。すなわち、その操作方向及び操作量に応じて、フォーカスレンズが移動し、焦点調節が行われる。
 絞りリング18は、絞り調節用の操作部材である。絞りリング18は、鏡筒12の周りを回転自在に設けられる。絞りリング18は、その外周に設定可能な絞り値が一定の間隔で印字される(不図示)。絞りの設定は、絞りリング18を回転操作し、鏡筒12に備えられた指標(不図示)の位置に設定を希望する絞り値を合わせることにより行われる。
 《カメラ本体》
 カメラ本体100は、撮像装置本体の一例である。カメラ本体100は、マウント102、メインモニタ104、サブモニタ106、電子ビューファインダ108、カメラ操作部110等を備える。
 マウント102は、交換レンズ10の装着部であり、カメラ本体100の正面に備えられる。交換レンズ10は、このマウント102に着脱自在に装着される。
 メインモニタ104は、カメラ本体100の背面に備えられる。メインモニタ104は、LCD(Liquid Crystal Display/液晶ディスプレイ)で構成される。メインモニタ104は、各種設定を行う際のGUI(Graphical User Interface)として利用されるほか、撮像済み画像の再生用モニタとして利用される。また、撮像時には、必要に応じてライブビューが表示され、イメージセンサで撮像された画像がリアルタイムに表示される。
 サブモニタ106は、カメラ本体100の上面に備えられる。サブモニタ106は、LCDで構成される。サブモニタ106には、シャッタースピード、絞り値、感度、露出補正などの主要な撮像情報が表示される。
 電子ビューファインダ(EVF:Electronic View Finder)108は、カメラ本体100の上部に備えられる。電子ビューファインダ108には、ライブビューが表示され、イメージセンサで撮像された画像がリアルタイムに表示される。電子ビューファインダ108は、必要に応じてオン、オフでき、メインモニタ104への表示に切り替えられる。
 カメラ操作部110は、デジタルカメラ1の操作部材として、感度ダイヤル111、消去ボタン112、電源レバー113、シャッターボタン114、ドライブボタン115、サブモニタ照明ボタン116、シャッタースピードダイヤル117、再生ボタン118、フロントコマンドダイヤル119、リアコマンドダイヤル120、フォーカスレバー121、クイックメニューボタン122、メニュー/OKボタン123、セレクターボタン124、表示/BACKボタン125、第1ファンクションボタン126、第2ファンクションボタン127、第3ファンクションボタン128、第4ファンクションボタン129、第5ファンクションボタン130等を備える。
 感度ダイヤル111は、感度を設定するダイヤルである。消去ボタン112は、撮像済みの画像を消去するボタンである。画像再生中に当該ボタンを押すと、再生中の画像が消去される。電源レバー113は、デジタルカメラ1の電源をオン、オフするレバーである。シャッターボタン114は、画像の記録を指示するボタンである。シャッターボタン114は、半押し及び全押しが可能な二段ストローク式のボタンで構成される。シャッターボタン114を半押しするとS1ON信号が出力され、全押しするとS2ON信号が出力される。静止画を撮像する場合、シャッターボタン114の半押しで撮像準備が行われ、全押しで画像の記録が行われる。動画を撮像する場合、最初のシャッターボタン114の全押しで撮像が開始され、2回目のシャッターボタン114を全押しで撮像が終了する。ドライブボタン115は、ドライブモードの選択画面を呼び出すボタンである。ドライブボタン115が押されると、メインモニタ104にドライブモードの選択画面が表示される。ドライブモードの選択画面でドライブモードが選択され、1コマ撮像、連写、ブラケット撮像、多重露光、動画撮像等が選択される。サブモニタ照明ボタン116は、サブモニタ106の照明をオン、オフするボタンである。シャッタースピードダイヤル117は、シャッタースピードを設定するダイヤルである。再生ボタン118は、再生モードへの切り替えを指示するボタンである。デジタルカメラ1は、撮像モードで起動し、再生ボタン118を押すと、再生モードに切り替わる。なお、再生モードの状態でシャッターボタン114を押すと、撮像モードに切り替わる。フロントコマンドダイヤル119及びリアコマンドダイヤル120には、デジタルカメラ1の状態に応じた機能が割り当てられる。フォーカスレバー121は、AFエリアを選択するレバーである。クイックメニューボタン122は、クイックメニューを呼び出すボタンである。クイックメニューボタン122を押すと、メインモニタ104にクイックメニューが表示される。クイックメニューには、デジタルカメラ1で設定可能な項目のうちユーザーが登録した項目が表示される。メニュー/OKボタン123は、メニュー画面を呼び出すボタンである。メニュー/OKボタン123を押すと、メインモニタ104にメニュー画面が表示される。また、メニュー/OKボタン123は、選択事項等を確定するボタンとしても機能する。セレクターボタン124は、いわゆる十字ボタンであり、4方向の指示が可能なボタンである。各種設定等を行う場合は、このセレクターボタン124で項目の選択等を行う。表示/BACKボタン125は、メインモニタ104の表示内容を切り替えるボタンである。また、表示/BACKボタン125は、選択事項等をキャンセルするボタン、すなわち、一つ前の状態に戻すボタンとしても機能する。第1ファンクションボタン126、第2ファンクションボタン127、第3ファンクションボタン128、第4ファンクションボタン129及び第5ファンクションボタン130には、あらかじめ用意された機能のうちユーザーが選択した機能が割り当てられる。たとえば、追尾機能のオン、オフを切り替える機能が割り当てられる。
 [電気的構成]
 図3は、デジタルカメラの電気的構成を示すブロック図である。
 カメラ本体100に装着された交換レンズ10は、マウント102に備えられた接点(不図示)を介してカメラ本体100と電気的に接続される。
 《交換レンズ》
 交換レンズ10は、焦点調節機構として、フォーカスレンズ20、フォーカスレンズ駆動部22及びフォーカスレンズ位置検出部24を備える。
 フォーカスレンズ20は、交換レンズ10を構成する複数のレンズの一部のレンズである。交換レンズ10は、フォーカスレンズ20を光軸Lに沿って前後移動させることにより焦点調節される。
 フォーカスレンズ駆動部22は、フォーカスレンズ20を光軸Lに沿って前後移動させる。フォーカスレンズ駆動部22は、たとえば、リニアモータ等のアクチュエータ、及び、その駆動回路を備えて構成される。
 フォーカスレンズ位置検出部24は、フォーカスレンズ20の位置を検出する。フォーカスレンズ位置検出部24は、たとえば、フォトインタラプタ及びMRセンサ(MRセンサ:Magneto Resistive Sensor/磁気抵抗効果素子)で構成される。フォトインタラプタは、フォーカスレンズ20が、あらかじめ定められた原点位置に位置したことを検出する。MRセンサは、フォーカスレンズ20の移動量を検出する。フォトインタラプタによってフォーカスレンズ20が原点位置に位置したことを検出し、MRセンサによって原点位置からのフォーカスレンズ20の移動量を検出することにより、原点位置に対するフォーカスレンズ20の位置を検出できる。
 交換レンズ10は、光量調節機構として、絞り26及び絞り駆動部28を備える。絞り26は、たとえば、虹彩絞りで構成される。絞り駆動部28は、絞り26の絞り羽根を駆動するモータ、及び、その駆動回路を備えて構成される。
 交換レンズ10は、交換レンズ10の全体の動作を統括制御するレンズ制御部30を備える。レンズ制御部30は、たとえば、マイクロコンピュータで構成され、所定の制御プログラムを実行することにより、フォーカスレンズ駆動制御部30a、絞り駆動制御部30b等として機能する(図7参照)。
 フォーカスレンズ駆動制御部30aは、レンズ操作部14からの操作信号に基づいて、フォーカスレンズ駆動部22を制御し、フォーカスレンズ20の移動を制御する。具体的には、フォーカスリング16の操作方向及び操作量に対応した方向及び移動量でフォーカスレンズ20が移動するように、フォーカスレンズ駆動部22を制御する。レンズ操作部14は、フォーカスリング16が操作されると、その操作方向及び操作量に応じた操作信号をレンズ制御部30に出力する。
 絞り駆動制御部30bは、レンズ操作部14からの操作信号に基づいて、絞り駆動部28を制御し、絞り26を制御する。具体的には、絞りリング18で設定された絞り値になるように、絞り駆動部28を制御する。レンズ操作部14は、絞りリング18が操作されると、設定された絞り値に対応した操作信号をレンズ制御部30に出力する。
 レンズ制御部30は、交換レンズ10がカメラ本体100に装着されると、カメラ本体100のカメラ制御部250と通信可能に接続される。
 《カメラ本体》
 カメラ本体100は、イメージセンサ210、イメージセンサ移動駆動部220、イメージセンサ位置検出部222、イメージセンサ駆動部224、アナログ信号処理部226、ADC(Analog-to-digital converter/アナログデジタル変換器)228、デジタル信号処理部230、位相差AF処理部232、メモリカードインタフェース234、メモリカード236、メインモニタ104、サブモニタ106、電子ビューファインダ(EVF)108、カメラ操作部110及びカメラ制御部250を備える。
 〈イメージセンサ〉
 イメージセンサ210は、交換レンズ10を通る光を受光して被写体を撮像する。イメージセンサ210は、たとえば、CCD(Charged Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子で構成される。イメージセンサ210は、その撮像面に複数の位相差検出画素を有する。
 図4は、イメージセンサの概略構成を示す図である。
 イメージセンサ210は、多数の画素がx方向(行方向)及びy方向(列方向)に二次元的に配列された撮像面212を有する。撮像面212は、複数のAF(autofocus)エリア214を有する。AFエリア214は、焦点合わせが可能な領域として撮像面212に設定された領域である。図4に示す例では、画面中央部分に9つのAFエリア214を設定している。
 図5は、撮像面の一部を拡大した図である。
 撮像面212には、多数の画素が規則的に配置される。各画素は光電変換部を備え、受光量に応じた信号を出力する。また、各画素は、R(Red/赤)、G(Green/緑)、B(Blue/青)のいずれかの色のカラーフィルタを有する。カラーフィルタは、所定の配列となるように、各画素に割り当てられる。図5は、ベイヤ配列の例を示している。なお、同図では、Rのカラーフィルタを有する画素(R画素)にRの文字を付し、Gのカラーフィルタを有する画素(G画素)にGの文字を付し、Bのカラーフィルタを有する画素(B画素)にBの文字を付している。
 AFエリアには、通常画素216及び位相差検出画素218が配置される。通常画素216とは、通常の撮像用の画素のことである。位相差検出画素218とは、位相差を検出する画素のことである。位相差検出画素以外は、通常画素を構成する。AFエリア以外の領域には、通常画素のみが配置される。
 図5では、位相差検出画素218を斜線で示している。同図に示すように、位相差検出画素218は、撮像面212に規則的に配置される。
 位相差検出画素218は、第1位相差検出画素218A及び第2位相差検出画素218Bで構成される。第1位相差検出画素218A及び第2位相差検出画素218Bは、互いに近接して配置される。図5に示す例では、互いに近接する同じ配列の2つの行の一方に一定の間隔で第1位相差検出画素218Aを配置し、他方に一定の間隔で第2位相差検出画素218Bを配置した例を示している。特に、R画素及びG画素が配列された特定の行の特定のG画素を位相差検出画素として利用した場合の例を示している。
 図6は、撮像面に備えられる各画素の概略構成を示す図である。
 各画素は、所定の開口部を備えた遮光膜を有する。図6は、各画素に備えられる遮光膜の開口部を白抜きで示している。
 通常画素216は、開口部が、光電変換部の中心と一致した遮光膜を有する。通常画素216は、交換レンズ10の瞳領域のほぼ全ての部分を通過した光束を受光する。
 第1位相差検出画素218Aは、開口部が光電変換部の中心に対して右側に偏心した遮光膜を有する。この結果、第1位相差検出画素218Aは、交換レンズ10の瞳領域の異なる部分を通過した一対の光束のうち一方の光束が受光される。
 第2位相差検出画素218Bは、開口部が光電変換部の中心に対して左側に偏芯した遮光膜を有する。この結果、第2位相差検出画素218Bでは、交換レンズ10の瞳領域の異なる部分を通過した一対の光束のうち他方の光束が受光される。
 以上の構成により、第1位相差検出画素218A及び第2位相差検出画素218Bの信号を取得し、両者を比較することにより、位相差量の検出が可能となる。
 〈イメージセンサ移動駆動部〉
 イメージセンサ移動駆動部220は、イメージセンサ210を光軸Lに沿って前後に移動させる。イメージセンサ移動駆動部220は、たとえば、ピエゾアクチュエータ等のアクチュエータ、及び、その駆動回路を備えて構成される。
 イメージセンサ210は、可動範囲内で移動する。可動範囲は、イメージセンサ移動駆動部220によってイメージセンサ210を物理的に移動させることができる範囲内で設定される。後述するように、可動範囲は、可動範囲切替部250cによって切り替えられる(図7参照)。
 可動範囲の中央に基準位置が設定される。基準位置は、交換レンズ10で規定されるフランジバックの位置に設定される。一般に交換レンズ10は、フランジバックの位置を基準に光学設計が行われる。したがって、イメージセンサ210を基準位置に位置させることにより、交換レンズ10の光学性能を最大限に発揮させることができる。
 たとえば、Cマウントを採用する交換レンズのフランジバックは、17.526mmである。また、CSマウントを採用する交換レンズのフランジバックは、12.5mmである。
 〈イメージセンサ位置検出部〉
 イメージセンサ位置検出部222は、基準位置に対するイメージセンサ210の位置を検出する。イメージセンサ位置検出部222は、たとえば、渦電流センサ等の変位センサで構成される。
 〈イメージセンサ駆動部〉
 イメージセンサ駆動部224は、カメラ制御部250による制御の下、イメージセンサ210を駆動する。イメージセンサ210は、イメージセンサ駆動部224に駆動されて、画像を撮像する。
 〈アナログ信号処理部〉
 アナログ信号処理部226は、イメージセンサ210から出力される画素ごとのアナログの画像信号を取り込み、所定の信号処理(たとえば、相関二重サンプリング処理、増幅処理等)を施す。
 〈ADC〉
 ADC228は、アナログ信号処理部226から出力されるアナログの画像信号をデジタルの画像信号に変換して出力する。
 〈デジタル信号処理部〉
 デジタル信号処理部230は、デジタルの画像信号を取り込み、所定の信号処理(たとえば、階調変換処理、ホワイトバランス補正処理、ガンマ補正処理、同時化処理、YC変換処理等)を施して、画像データを生成する。
 〈位相差AF処理部〉
 位相差AF(autofocus)処理部232は、焦点検出部の一例である。位相差AF処理部232は、指定されたAFエリア214から第1位相差検出画素218A及び第2位相差検出画素218Bの信号を取得し、取得した信号に対して相関演算処理を行って位相差量を算出する。そして、算出した位相差量に基づいて、デフォーカスの方向及び量を算出する。AFエリアは、ユーザーによって選択される。あるいは、自動で決定される。ユーザーによる選択は、フォーカスレバー121の操作によって行われる。自動で決定する場合は、たとえば、被写体を自動で認識し、被写体の存在するAFエリアを選択する。あるいは、動体を認識し、動体の存在するAFエリアを選択する。
 〈メモリカードインタフェース及びメモリカード〉
 メモリカードインタフェース234は、カメラ制御部250による制御の下、カードスロットに装着されたメモリカード236に対して、データの読み書きを行う。
 〈メインモニタ〉
 メインモニタ104は、LCDで構成される。メインモニタ104の表示は、カメラ制御部250で制御される。カメラ制御部250は、LCDドライバ104aを介してメインモニタ104の表示を制御する。
 〈サブモニタ〉
 サブモニタ106は、LCDで構成される。サブモニタ106の表示は、カメラ制御部250で制御される。カメラ制御部250は、LCDドライバ106aを介してサブモニタ106の表示を制御する。
 〈電子ビューファインダ〉
 電子ビューファインダ(EVF)108は、その表示部がLCDで構成される。電子ビューファインダ108の表示は、カメラ制御部250で制御される。カメラ制御部250は、LCDドライバ108aを介して電子ビューファインダ108の表示を制御する。
 〈カメラ操作部〉
 カメラ操作部110は、各操作部材の操作に応じた信号をカメラ制御部250に出力する。
 〈カメラ制御部〉
 カメラ制御部250は、デジタルカメラ1の全体の動作を統括制御する制御部である。カメラ制御部250は、たとえば、マイクロコンピュータで構成され、所定のプログラムを実行することにより、各種機能を提供する。
 図7は、カメラ制御部及びレンズ制御部が実現する機能のブロック図である。
 図7に示すように、カメラ制御部250は、所定のプログラムを実行することにより、追尾制御部250a、フォーカシング動作検出部250b及び可動範囲切替部250cとして機能する。
 〔追尾制御部〕
 追尾制御部250aは、位相差AF処理部232で検出されるデフォーカス量に基づいて、イメージセンサ210の移動を制御し、被写体を追尾する。追尾は、合焦状態を維持するように、イメージセンサ210の移動を制御することにより行われる。
 ここで、イメージセンサ210の移動による焦点合わせについて説明する。
 図8は、イメージセンサの移動による焦点合わせの概念図である。同図(A)は焦点がずれた状態を示しており、同図(B)は、合焦状態を示している。
 図8(A)に示すように、イメージセンサ210が基準位置R0に位置しており、位置P1の被写体Aの像が位置R1に形成されているとする。図8(A)に示すように、位置R1が基準位置R0よりも後方(像面側)にあるとする。この場合、図8(B)に示すように、イメージセンサ210を後方に移動させて、位置R1に位置させる。これにより、被写体Aの像が撮像面上に形成され、合焦する。
 このように、被写体の像が形成される位置、すなわち、結像点の位置にイメージセンサ210を移動させることにより、被写体に合焦させることができる。合焦状態を維持するためには、結像点の移動に追従するように、イメージセンサ210を移動させればよい。したがって、追尾は、結像点の移動に追従するように、イメージセンサ210を移動させることにより行われる。結像点の位置と撮像面の位置とのずれ量は、デフォーカス量として検出される。したがって、追尾制御部250aは、デフォーカス量に基づいて、イメージセンサ210の移動を制御し、合焦状態を維持する。
 図9は、イメージセンサの移動による追尾制御の概念図である。
 図9(A)は、被写体Aが位置P1から位置P2に移動して、結像点の位置R2がイメージセンサ210の可動範囲Wの端部に到達した場合を示している。追尾制御部250aは、イメージセンサ210が可動範囲Wの端部に到達するまで、追尾を実施する。すなわち、デフォーカス量に基づいて、イメージセンサ210の移動を制御し、合焦状態を維持させる。
 図9(B)は、被写体Aが位置P2から更に位置P3に移動して、結像点の位置R3がイメージセンサ210の可動範囲Wの端部を超えて移動した場合を示している。イメージセンサ210が、可動範囲Wの端部に到達すると、以後は、追尾不能となる。追尾制御部250aは、イメージセンサ210が可動範囲Wの端部に到達すると、追尾を終了する。追尾を終了すると、追尾制御部250aは、イメージセンサ210を基準位置R0に復帰させる。
 イメージセンサ210を基準位置R0に復帰させる際、追尾制御部250aは、デフォーカス量の変化に応じた移動速度でイメージセンサ210を移動させる。イメージセンサ210を基準位置R0に復帰させると、焦点状態が変化するので、不自然な画像になるおそれがある。しかし、デフォーカス量の変化に応じた移動速度でイメージセンサ210を移動させることにより、画像に違和感を与えることなくイメージセンサ210を基準位置R0に戻すことができる。ここでは、デフォーカス量が変化する速度とほぼ同じ速度(同じ速度ないし実質的に同じ速度)でイメージセンサ210を移動させて、イメージセンサ210を基準位置R0に復帰させる。すなわち、結像点の移動速度と同じ速度でイメージセンサ210を移動させて、イメージセンサ210を基準位置R0に復帰させる。
 以下、追尾制御の経時的な処理について説明する。なお、ここでは、説明を簡単にするため、イメージセンサ210の可動範囲が一定の場合を例に説明する。
 図10は、経時的な追尾制御の概念図である。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。
 同図に示すように、合焦すると、追尾が開始される。すなわち、基準位置R0に位置するイメージセンサ210の撮像面上に結像点が位置すると、追尾が開始される。イメージセンサ210の撮像面上に結像点が位置すると、デフォーカス量は零となる。したがって、デフォーカス量が零となった段階で追尾が開始される。
 図10に示す例では、時刻t0で初めて合焦している。したがって、時刻t0から追尾が開始される。図10に示すように、時刻t0で合焦後、イメージセンサ210の移動が開始する。イメージセンサ210は、結像点の移動に追従して移動する。これにより、合焦状態が維持される。
 イメージセンサ210は、可動範囲内で移動する。図10に示す例では、時刻t0で合焦後、時刻t1でイメージセンサ210が可動範囲Wの端部に到達した場合を示している。この場合、追尾は、一旦終了する。追尾が終了すると、イメージセンサ210は、基準位置R0に復帰する。この際、結像点の移動速度とほぼ同じ速度で移動して、基準位置R0に復帰する。
 基準位置R0に復帰すると、イメージセンサ210は、再度合焦するまで基準位置R0で待機する。図10に示す例では、時刻t2で再度合焦した場合を示している。この場合、時刻t2から追尾が再開される。図10に示す例では、更に、時刻t3でイメージセンサ210が可動範囲Wの端部に到達し、時刻t4で再度合焦後、時刻t5でイメージセンサ210が可動範囲Wの端部に到達した場合を示している。同図に示すように、イメージセンサ210が可動範囲Wの端部に到達するたびに、追尾が終了する。追尾が終了すると、イメージセンサ210が基準位置R0に復帰する。イメージセンサ210が基準位置R0に復帰すると、再度合焦するまで待機し、合焦すると、追尾が再開される。
 このように、追尾制御部250aは、合焦すると、追尾を開始し、可動範囲内でイメージセンサ210を移動させて、合焦状態を維持させる。一方、イメージセンサ210が可動範囲Wの端部に到達すると、追尾を終了し、イメージセンサ210を基準位置R0に復帰させて、再度合焦するまで待機させる。
 〔フォーカシング動作検出部〕
 フォーカシング動作検出部250bは、被写体に対するフォーカシング動作を検出する。フォーカシング動作とは、焦点調節機能を備えた撮像レンズの焦点を調節することで被写体に焦点を合わせ込む動作のことである。フォーカシング動作検出部250bは、位相差AF処理部232で検出されるデフォーカス量に基づいて、フォーカシング動作を検出する。本実施の形態では、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する。すなわち、合焦近傍の位置で撮像レンズのフォーカスレンズによる焦点調節の速度が緩められた場合にフォーカシング動作が行われたと認定し、これを検出する。一般に被写体に焦点を合わせ込む場合、撮影者は、合焦近傍で速度を緩めて微調整する。合焦近傍の位置で焦点調節の速度が緩められたことを検出することにより、適切にフォーカシング動作を検出できる。したがって、被写体に合焦する位置の前後一定の範囲は、合焦する位置の近傍の範囲に設定される。
 〔可動範囲切替部〕
 可動範囲切替部250cは、フォーカシング動作検出部250bの検出結果に基づいて、イメージセンサ210の可動範囲を切り替える。切り替えは、第1の可動範囲と第2の可動範囲との間で行われる。第1の可動範囲は、狭い可動範囲であり、第2の可動範囲は、広い可動範囲である。したがって、第1の可動範囲から第2の可動範囲に切り替えることにより、イメージセンサ210の可動範囲は拡大される。一方、第2の可動範囲から第1の可動範囲に切り替えることにより、イメージセンサ210の可動範囲は縮小される。第2の可動範囲は、たとえば、イメージセンサ移動駆動部220によって移動できる最大の範囲に設定される。一方、第1の可動範囲は、第2の可動範囲よりも狭い範囲に設定される。
 追尾の機能がオンされると、可動範囲切替部250cは、イメージセンサ210の可動範囲を第1の可動範囲に設定する。その後、フォーカシング動作検出部250bでフォーカシング動作が検出されると、可動範囲切替部250cは、イメージセンサの可動範囲を第1の可動範囲から第2の可動範囲に切り替える。これにより、可動範囲が拡大される。
 イメージセンサ210の可動範囲が拡大された後、すなわち、第2の可動範囲に切り替えられた後、被写体の追尾が不能になると、可動範囲切替部250cは、イメージセンサ210の可動範囲を第1の可動範囲に切り替える。これにより、拡大前の元の状態に戻される。
 図11は、可動範囲の切り替えの概念図である。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。また、符号W1は、第1の可動範囲を示し、符号W2は、第2の可動範囲を示している。同図に示すように、第2の可動範囲W2は、第1の可動範囲W1よりも広く設定されている。
 上記のように、フォーカシング動作検出部250bでフォーカシング動作が検出されると、第1の可動範囲W1から第2の可動範囲W2に切り替えられる。フォーカシング動作検出部250bは、被写体に合焦する位置の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する。デフォーカス量の変動速度は、結像点の移動速度と同義である。したがって、図11では、結像点の移動軌跡L1の傾きが、デフォーカス量の変動速度となる。被写体に合焦する位置は、イメージセンサ210の位置(より正確には撮像面の位置)である。したがって、イメージセンサ210の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する。前後一定の範囲は、イメージセンサ210の近傍の範囲である。図11に示す例では、第1の可動範囲W1と同じ範囲に設定している。したがって、図11に示す例では、第1の可動範囲W1でデフォーカス量の変動速度が閾値以下になると、可動範囲が第1の可動範囲W1から第2の可動範囲W2に切り替わる。閾値は、焦点を微調整する際の速度を考慮して設定される。
 図11に示す例では、時刻t1、t2及びt4において、被写体に合焦している。
 1回目及び2回目の合焦(時刻t1及びt2での合焦)では、フォーカシング動作が検出されていないため、イメージセンサ210の可動範囲が、第1の可動範囲W1に維持されている。すなわち、合焦近傍でのデフォーカス量の変動速度が閾値を超えているため、フォーカシング動作とは認められず、可動範囲が第1の可動範囲W1に維持されている。
 3回目の合焦(時刻t4での合焦)では、フォーカシング動作が検出されたため、イメージセンサ210の可動範囲が、第1の可動範囲W1から第2の可動範囲W2に拡大されている。すなわち、合焦近傍でのデフォーカス量の変動速度が閾値以下となっているため、フォーカシング動作が行われたと認識されて、可動範囲が第1の可動範囲W1から第2の可動範囲W2に拡大されている。図11に示す例では、時刻t3の段階でフォーカシング動作と認識され、可動範囲が第1の可動範囲W1から第2の可動範囲W2に拡大されている。
 図11に示すように、可動範囲を拡大した後は、拡大された可動範囲内でイメージセンサ210が移動して、被写体が追尾される。
 図11に示す例では、時刻t5で追尾が不能になっている。すなわち、イメージセンサ210が、可動範囲の端部に到達し、以後の追尾が不能になっている。
 図11に示すように、追尾が不能になると、拡大した可動範囲が縮小され、元の範囲に戻される。すなわち、第1の可動範囲W1に戻される。
 なお、追尾が不能になると、イメージセンサ210は基準位置R0に復帰するので、基準位置R0に復帰後、可動範囲を第1の可動範囲W1に切り替える構成としてもよい。
 このように、イメージセンサ210の可動範囲は、フォーカシング動作が検出されると拡大され、拡大後、追尾が不能になると縮小される。
 [作用]
 次に、上記のように構成される本実施の形態のデジタルカメラ1の作用(合焦制御方法)について説明する。
 《追尾》
 イメージセンサ210を移動させて行う被写体の追尾は、追尾機能がオンされた場合に実施される。上記のように、追尾機能をオン、オフする機能は、ファンクションボタンの一つに割り当てることができる。この他、メニュー画面で追尾機能をオン、オフすることができる。
 図12は、追尾機能がオンされた場合の追尾制御の処理手順を示すフローチャートである。
 撮影者は、フォーカスリング16を操作して、マニュアルで焦点調節を行う。追尾制御部250aは、位相差AF処理部232の出力に基づいて、合焦したか否かを判定する(ステップS11)。
 追尾制御部250aは、合焦したと判定すると、追尾を開始する(ステップS12)。すなわち、位相差AF処理部232で検出されるデフォーカス量に基づいて、イメージセンサ210の移動を制御し、合焦状態を維持させる。
 追尾制御は、イメージセンサ210の可動範囲内で実施される。イメージセンサ210が、可動範囲の端部に到達すると、追尾は終了する。追尾制御部250aは、イメージセンサ位置検出部222の検出結果に基づいて、イメージセンサ210が、可動範囲の端部に到達したか否かを判定する(ステップS13)。
 イメージセンサ210が、可動範囲の端部に到達していないと判定すると、追尾制御部250aは、追尾終了の指示の有無を判定する(ステップS17)。追尾は、追尾機能がオフされると、終了が指示される。また、デジタルカメラ1の電源がオフされた場合も同様に終了が指示される。終了が指示されると、処理を終了する。終了が指示されない限り、追尾を継続する。
 一方、イメージセンサ210が、可動範囲の端部に到達したと判定すると、追尾制御部250aは、追尾を終了する(ステップS14)。終了後、追尾制御部250aは、イメージセンサ210を基準位置R0に復帰させる(ステップS15)。
 この後、追尾制御部250aは、追尾終了の指示の有無を判定する(ステップS16)。終了が指示されると、処理を終了する。一方、終了指示がないと判定すると、ステップS11に戻り、合焦したか否かを判定する。合焦した場合は、追尾を再開する。
 このように、本実施の形態のデジタルカメラ1では、合焦すると、追尾が開始され、合焦状態を維持するように、イメージセンサ210の移動が制御される。これにより、マニュアルでの焦点合わせする際、ユーザーを適切にサポートでき、高精度に焦点合わせできる。特に、動いている被写体に対して高精度に焦点合わせできる。
 また、追尾が不能になった場合は、イメージセンサ210を基準位置R0に復帰させる。これにより、追尾を再開する際に追従性を向上させることができる。また、イメージセンサ210を基準位置R0に復帰させる際、デフォーカス量の変化に応じた移動速度でイメージセンサ210を移動させて、基準位置R0に復帰させる。これにより、画像に違和感を与えることなくイメージセンサ210を基準位置R0に復帰させることができる。
 《可動範囲の切り替え》
 図13は、イメージセンサの可動範囲の切替制御の処理手順を示すフローチャートである。
 追尾機能がオンされると、可動範囲切替部250cは、イメージセンサ210の可動範囲を第1の可動範囲W1に設定する(ステップS21)。
 その後、可動範囲切替部250cは、フォーカシング動作検出部250bの出力に基づいて、フォーカシング動作の有無を判定する(ステップS22)。ここで、フォーカシング動作検出部250bは、イメージセンサ210の前後一定の範囲内でデフォーカス量の変動速度が閾値以下になったことを検出して、フォーカシング動作を検出する。
 フォーカシング動作なし、と判定すると、可動範囲切替部250cは、追尾終了の指示の有無を判定する(ステップS26)。終了の指示あり、と判定すると、処理を終了する。一方、終了の指示なし、と判定すると、ステップS22に戻り、再度、フォーカシング動作の有無を判定する。
 ステップS22において、フォーカシング動作あり、と判定すると、可動範囲切替部250cは、イメージセンサ210の可動範囲を第1の可動範囲W1から第2の可動範囲W2に切り替える(ステップS23)。これにより、イメージセンサ210の可動範囲が拡大される。
 この後、可動範囲切替部250cは、追尾不能か否かを判定する(ステップS24)。被写体の追尾は、イメージセンサ210の可動範囲内で実施される。イメージセンサ210が、可動範囲の端部まで移動すると、以後の追尾は不能となる。可動範囲切替部250cは、イメージセンサ位置検出部222の検出結果に基づいて、イメージセンサ210が可動範囲の端部に到達したか否かを判定する。そして、イメージセンサ210が可動範囲の端部に到達したと判定すると、追尾不能と判定する。
 ステップS24において、追尾不能ではない、と判定すると、可動範囲切替部250cは、追尾終了の指示の有無を判定する(ステップS25)。終了の指示あり、と判定すると、処理を終了する。一方、終了の指示なし、と判定すると、ステップS24に戻り、再度、追尾不能か否かを判定する。
 ステップS24において、追尾不能と判定すると、可動範囲切替部250cは、イメージセンサ210の可動範囲を第2の可動範囲W2から第1の可動範囲W1に切り替える(ステップS21)。これにより、イメージセンサ210の可動範囲が縮小される。この後、再度、フォーカシング動作の有無を判定する(ステップS22)。フォーカシング動作が検出された場合は、イメージセンサ210の可動範囲を第1の可動範囲W1から第2の可動範囲W2に切り替える。
 このように、本実施の形態のデジタルカメラ1では、フォーカシング動作が行われると、イメージセンサ210の可動範囲が自動的に拡大される。フォーカシング動作を行うのは、撮影者が被写体に焦点を合わせようとしている場合である。したがって、この場合にイメージセンサ210の可動範囲を拡大させて、追尾可能範囲を拡大させることにより、撮影者による焦点合わせの操作を適切にサポートできる。一方、撮影者が交換レンズ10を操作した場合であっても、その操作が被写体に焦点を合わせ込もうとする操作ではない場合、可動範囲は変更されず、一定に維持される。フォーカシング動作ではない場合にイメージセンサ210の可動範囲を拡大させて、追尾可能範囲を拡大すると、撮影者の意図に沿わない結果となる。すなわち、たとえば、撮影者が、ボケの状態を確認するために交換レンズ10を操作した場合、広い範囲で被写体を追尾すると、本来の目的であるボケの状態を確認できなくなる。したがって、フォーカシング動作ではない場合は、可動範囲を変えずに維持することにより、撮影者の意図に沿った動作ができる。
 [変形例]
 《可動範囲の切り替えの変形例》
 〈可動範囲を縮小させる条件の他の例〉
 上記実施の形態では、イメージセンサ210の可動範囲を拡大した場合において、被写体の追尾が不能になると、縮小して元の可動範囲(第1の可動範囲)に戻す構成としている。イメージセンサ210の可動範囲を拡大した場合において、縮小して元の可動範囲に戻す態様は、これに限定されるものではない。この他、被写体の結像点の位置がイメージセンサ210の可動範囲から一定以上離れた場合に縮小して元の可動範囲に戻す構成としてもよい。
 図14は、結像点の位置が可動範囲から一定以上離れた場合に可動範囲を切り替える場合の時系列での処理の手順を示す概念図である。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。また、符号W1は、第1の可動範囲を示し、符号W2は、第2の可動範囲を示している。
 同図に示す例では、時刻t1において、フォーカシング動作が検出され、可動範囲が第1の可動範囲W1から第2の可動範囲W2に切り替えられている。
 その後、時刻t2において、イメージセンサ210が可動範囲(第2の可動範囲W2)の端部に到達し、追尾不能になっている。本態様では、追尾不能になっても、可動範囲は直ぐには縮小されず、結像点の位置が可動範囲から一定以上離れると縮小される。具体的には、結像点の位置が、可動範囲の端部から距離δ離れると、可動範囲が縮小される。図14に示す例では、時刻t3において、結像点の位置が、可動範囲の端部から距離δ離れている。このため、時刻t3において、可動範囲が縮小されている。
 このように、被写体の結像点の位置がイメージセンサ210の可動範囲から一定以上離れた場合に縮小して元の可動範囲に戻す構成としてもよい。なお、距離δについては、追尾の制御態様等に応じて、適宜設定できる。
 〈可動範囲を拡大した場合に拡大状態を維持する例〉
 上記実施の形態では、可動範囲を拡大した場合に一定の条件で元の範囲に戻しているが、撮影者の意志に応じて、拡大した状態を維持するようにしてもよい。たとえば、追尾の動作モードとして、追尾範囲拡大モードを用意する。当該モードが選択された場合、可動範囲切替部250cは、イメージセンサ210の可動範囲を一度拡大すると、以後の切り替え動作を停止する。
 図15は、追尾範囲拡大モードが選択された場合の時系列での処理の手順を示す概念図である。
 追尾範囲拡大モードをオン、オフする機能は、たとえば、ファンクションボタンの一つに割り当てることができる。この場合、当該機能が割り当てられたファンクションボタンが、モード切替部として機能する。この他、メニュー画面で追尾範囲拡大モードのオン、オフを設定する構成とすることができる。
 同図に示す例では、時刻t1において、フォーカシング動作が検出され、可動範囲が第1の可動範囲W1から第2の可動範囲W2に切り替えられている。
 その後、時刻t2において、イメージセンサ210が可動範囲(第2の可動範囲W2)の端部に到達し、追尾不能になっている。本態様では、追尾不能になっても、可動範囲は縮小されず、拡大状態が維持されている。
 このように、追尾範囲拡大モードがオンされると、可動範囲が拡大された場合に以後の切り替え動作が停止される。すなわち、一度イメージセンサ210の可動範囲が拡大されると、以後継続して拡大された状態が維持される。これにより、撮影者の意図を適切に制御に反映できる。
 《可動範囲の変形例》
 拡大する前のイメージセンサ210の可動範囲は零とすることもできる。この場合、フォーカシング動作が検出されると、可動範囲が設定される。
 図16は、フォーカシング動作が検出された場合にのみ可動範囲が設定される場合の時系列での切り替えの処理の手順を示す概念図である。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。可動範囲は、零とWとの間で切り替わる。
 図16に示す例では、時刻t1、t2及びt4において、被写体に合焦している。
 1回目及び2回目の合焦(時刻t1及びt2での合焦)では、フォーカシング動作が検出されていないため、イメージセンサ210の可動範囲が零に維持されている。
 3回目の合焦(時刻t4での合焦)では、フォーカシング動作が検出されたため、時刻t3の段階で可動範囲が零からWに切り替えられている。すなわち、可動範囲が拡大されている。
 図16に示すように、可動範囲を拡大した後は、拡大された可動範囲内でイメージセンサ210が移動して、被写体が追尾される。
 図16に示す例では、時刻t5で追尾が不能になっている。追尾が不能になると、拡大した可動範囲が縮小され、元の範囲に戻される。すなわち、可動範囲が零に戻される。
 なお、追尾が不能になると、イメージセンサ210は基準位置R0に復帰するので、基準位置R0に復帰後、可動範囲を零に切り替える構成としてもよい。
 このように、フォーカシング動作が検出されると、可動範囲が設定され、追尾できるように構成してもよい。なお、本例での零には、実質的に零とみなせる範囲が含まれる。
 《追尾制御の変形例》
 上記実施の形態のデジタルカメラでは、イメージセンサ210が可動範囲Wの端部に到達すると、追尾を終了し、イメージセンサ210を基準位置R0に復帰させる構成としている。追尾制御の態様は、これに限定されるものではない。この他、たとえば、イメージセンサ210が可動範囲Wの端部に到達すると、追尾を終了し、再度合焦するまでイメージセンサ210を端部の位置で待機させる構成としてもよい。この場合、待機中に再度合焦すると、追尾を再開する。
 図17は、本実施の形態のデジタルカメラにおける経時的な追尾制御の概念図である。ここでは、説明を簡単にするため、イメージセンサ210の可動範囲が一定の場合を例に説明する。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。
 同図に示すように、合焦すると、追尾が開始される。すなわち、基準位置R0に位置するイメージセンサ210の撮像面上に結像点が位置すると、追尾が開始される。
 図17に示す例では、時刻t0で初めて合焦している。したがって、時刻t0から追尾が開始される。図17に示すように、時刻t0で合焦後、イメージセンサ210の移動が開始する。イメージセンサ210は、結像点の移動に追従して移動する。これにより、合焦状態が維持される。
 イメージセンサ210は、可動範囲内で移動する。図17に示す例では、時刻t0で合焦後、時刻t1でイメージセンサ210が、可動範囲Wの一方の端部E-に到達した場合を示している。この場合、追尾は、一旦終了する。追尾が終了すると、イメージセンサ210は、その端部E-の位置で停止し、再度合焦するまで待機する。
 図17に示す例では、時刻t2で再度合焦した場合を示している。この場合、時刻t2から追尾が再開される。図17に示す例では、更に、時刻t3でイメージセンサ210が、可動範囲Wの一方の端部E-に到達し、時刻t4で再度合焦後、時刻t5でイメージセンサ210が、可動範囲Wの他方の端部E+に到達した場合を示している。また、時刻t6で再度合焦後、時刻t7でイメージセンサ210が、可動範囲Wの他方の端部E+に到達した場合を示している。同図に示すように、イメージセンサ210が可動範囲Wの端部に到達するたびに、追尾が終了する。追尾が終了すると、イメージセンサ210は、その端部の位置で停止し、再度合焦するまで待機する。そして、再度合焦すると、追尾が再開される。
 このように、追尾制御部250aは、合焦すると、追尾を開始し、可動範囲内でイメージセンサ210を移動させて、合焦状態を維持させる。一方、イメージセンサ210が可動範囲Wの端部に到達すると、追尾を終了し、再度合焦するまで、その端部の位置で待機させる。
 図18は、追尾制御の処理手順を示すフローチャートである。
 撮影者は、フォーカスリング16を操作して、マニュアルで焦点調節を行う。追尾制御部250aは、位相差AF処理部232の出力に基づいて、合焦したか否かを判定する(ステップS31)。
 追尾制御部250aは、合焦したと判定すると、追尾を開始する(ステップS32)。すなわち、位相差AF処理部232で検出されるデフォーカス量に基づいて、イメージセンサ210の移動を制御し、合焦状態を維持させる。
 追尾は、イメージセンサ210の可動範囲内で実施される。イメージセンサ210が、可動範囲の端部に到達すると、追尾は終了する。追尾制御部250aは、イメージセンサ210が、可動範囲の端部に到達したか否かを判定する(ステップS33)。
 イメージセンサ210が、可動範囲の端部に到達していないと判定すると、追尾制御部250aは、追尾終了の指示の有無を判定する(ステップS37)。終了が指示されると、処理を終了する。終了が指示されない限り、追尾を継続する。
 一方、イメージセンサ210が、可動範囲の端部に到達したと判定すると、追尾制御部250aは、追尾を終了する(ステップS34)。終了後、追尾制御部250aは、イメージセンサ210を端部の位置で待機させる(ステップS35)。
 この後、追尾制御部250aは、追尾終了の指示の有無を判定する(ステップS36)。終了が指示されると、処理を終了する。一方、終了指示がないと判定すると、ステップS31に戻り、合焦したか否かを判定する。合焦した場合は、追尾を再開する。
 このように、本実施の形態のデジタルカメラ1では、合焦すると、追尾が開始され、合焦状態を維持するように、イメージセンサ210の移動が制御される。これにより、マニュアルで焦点合わせする際、ユーザーを適切にサポートでき、高精度に焦点合わせできる。特に、動いている被写体を高精度に焦点合わせできる。
 また、追尾が不能になった場合は、イメージセンサ210を可動範囲Wの端部の位置で停止させて待機させる。これにより、合焦状態を回復しやすくできる。すなわち、合焦状態に戻す距離を短くできるので、早期に合焦状態に回復させることができる。
 なお、上記の例では、説明を簡単にするため、イメージセンサ210の可動範囲を一定としているが、可動範囲を拡大した場合において、追尾不能になった場合は、イメージセンサ210を基準位置に復帰させる構成とする。あるいは、縮小した可動範囲の端部の位置で待機させる構成とする。
 一方、追尾の動作モードとして、上記の追尾範囲拡大モードを備えている場合において、追尾範囲拡大モードをオンした場合は、可動範囲の端部の位置で待機させる構成とすることが好ましい。これにより、合焦状態に戻す距離を短くできるので、早期に合焦状態に回復させることができる。
 図19は、追尾範囲拡大モードが選択された場合の時系列での処理の手順を示す概念図である。
 同図に示す例では、時刻t3でフォーカシング動作が検出され、可動範囲が第1の可動範囲W1から第2の可動範囲W2に切り替えられている。その後、時刻t4でイメージセンサ210が可動範囲(第2の可動範囲W2)の端部に到達し、追尾不能になっている。しかし、追尾範囲拡大モードがオンであるため、可動範囲は縮小されず、拡大状態が維持されている。
 また、図19に示す例では、時刻t1、t2及びt4でイメージセンサ210が可動範囲の端部に到達し、追尾が不能になっている。イメージセンサ210は、可動範囲の端部の位置に到達すると停止し、その位置で待機する。これにより、早期に合焦状態に回復させることができる。
 《追尾開始の条件の変形例》
 〈ほぼ合焦したと認められる場合に追尾を開始する例〉
 上記実施の形態では、被写体に合焦すると、追尾を開始する構成としているが、追尾を開始する条件は、これに限定されるものではない。この他、たとえば、ほぼ合焦したと認められる状態に達した場合にも追尾を開始するように構成してもよい。ほぼ合焦したと認められる状態とは、たとえば、デフォーカス量が一定時間継続して閾値以下の場合である。すなわち、ほぼ合焦に近い状態が一定時間継続して保たれた場合である。このような場合は、合焦したものとみなして、追尾を開始するようにしてもよい。
 メインモニタ104又は電子ビューファインダ108を使用して焦点調節する場合において、メインモニタ104及び電子ビューファインダ108の解像度が低い場合、正確に焦点合わせすることは難しい。
 そこで、検出されるデフォーカス量が一定時間継続して閾値以下の場合、合焦したとみなして、追尾を開始する。デフォーカス量が一定時間継続して閾値以下であれば、合焦に近い状態にあると認められるので、その場合は、合焦したものとみなして、追尾を開始する。
 図20は、デフォーカス量が一定時間継続して閾値以下の場合に合焦したとみなして追尾する場合の経時的な処理の概念図である。ここでは、説明を簡単にするため、イメージセンサ210の可動範囲が一定の場合を例に説明する。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。
 デフォーカス量の閾値をεとする。閾値ε以下の状態が時間ΔT継続した場合に合焦したとみなして、追尾を開始する。
 図20に示す例では、最初に時刻t0でデフォーカス量が閾値ε以下となっている。しかし、時間ΔTを経過する前に時刻t1でデフォーカス量が閾値εを超えている。このため、デフォーカス量が閾値ε以下になっても合焦したとはみなされていない。
 図20に示す例では、時刻t2で再び閾値ε以下となっている。時刻t2以降は、継続してデフォーカス量が閾値ε以下に保たれている。このため、時間ΔTが経過した時刻t3の段階で追尾が開始されている。
 追尾が開始されると、イメージセンサ210が結像点に向けて移動し、合焦する。合焦後は、可動範囲内でイメージセンサ210が移動し、合焦状態が維持される。
 このように、デフォーカス量が一定時間継続して閾値以下の場合に合焦したとみなして、追尾を開始する。これにより、利便性を向上できる。特に、解像度(分解能)の低いメインモニタ104又は電子ビューファインダ108を使用して焦点合わせする場合、正確に合焦させることが難しい場合がある。このような場合であっても、合焦近傍に焦点合わせされた場合は、追尾が行われるので、撮影者の意図を適切に制御に反映させることができる。
 この他、上記条件に加えて、デフォーカス量の変化量が一定時間継続して閾値以下の場合に合焦したとみなして、追尾を開始する構成としてもよい。すなわち、デフォーカス量が一定時間継続して第1の閾値以下であり、かつ、デフォーカス量の変化量が一定時間継続して第2の閾値以下の場合に合焦したとみなして、追尾を開始する。デフォーカス量が一定時間継続して一定値以下(第1の閾値以下)、かつ、デフォーカス量の変化量が一定時間継続して一定値以下(第2の閾値以下)の状態とは、合焦付近でフォーカスレンズがほとんど変化しない状態のことである。すなわち、合焦付近で焦点調節がほぼ行われなくなった状態である。この場合、合焦したとみなして、追尾を開始する。これにより、ほぼ合焦に近い状態から追尾を開始させることができる。これにより、利便性を向上できる。
 なお、当該機能をユーザーが任意にオン、オフできる構成としてもよい。すなわち、合焦とみなす機能をユーザーが任意にオン、オフできる機能を備えてもよい。当該機能のオン、オフは、たとえば、メニュー画面で設定する構成とする。
 〈フォーカシング動作が検出された場合に追尾を開始する例〉
 フォーカシング動作が検出された場合に追尾開始する構成としてもよい。この場合、イメージセンサ210の可動範囲が拡大されると同時(ほぼ同時を含む)に追尾が開始される。
 図21は、フォーカシング動作がされた場合に追尾を開始する場合の経時的な処理の概念図である。
 同図において、符号L1は、結像点の移動軌跡を示し、符号L2は、イメージセンサ210の移動軌跡を示している。
 図21には、時刻txでフォーカシング動作が検出された場合の例が示されている。同図に示すように、可動範囲が縮小された状態において、フォーカシング動作が検出されると、可動範囲が拡大される。これと同時に追尾が開始される。この場合、合焦前に追尾が開始されるので、結像点に向けてイメージセンサ210が移動する。すなわち、早期に合焦するように、イメージセンサ210が移動する。合焦後は、可動範囲内でイメージセンサ210が結像点に追従して移動し、合焦状態が維持される。
 このように、フォーカシング動作が検出された場合に追尾を開始することにより、早期に合焦させることができる。また、フォーカシング動作に連動して、追尾が開始されるので、撮影者の意図に沿った制御を行うことができる。
 《追尾機能を自動でオン、オフする例》
 上記実施の形態では、手動で追尾機能のオン、オフを切り替える構成としているが、追尾機能の切り替えを自動化してもよい。たとえば、マニュアルフォーカスが選択された場合に自動で追尾機能をオンする構成としてもよい。この他、カメラ本体100が、交換レンズ10と通信できない場合に自動的に追尾機能をオンする構成にしてもよい。カメラ本体100が交換レンズ10と通信できない場合とは、カメラ制御部250が、レンズ制御部30と通信できない場合であり、交換レンズ10にレンズ制御部30が備えられていない場合などが該当する。カメラ本体100が交換レンズ10と通信できない場合、通常、焦点合わせはマニュアルで行われる。したがって、このような場合に自動的に追尾機能をオンすることにより、撮影者の意図に沿って制御を実現できる。
 《イメージセンサの可動範囲》
 イメージセンサ210の可動範囲は、イメージセンサ移動駆動部220の機械的な作動範囲内で任意に設定される。たとえば、イメージセンサ移動駆動部220が、ピエゾアクチュエータで構成される場合、そのピエゾアクチュエータの機械的な作動範囲内でイメージセンサ210の可動範囲が任意に設定される。可動範囲を広くとるほどAFの作動範囲を広くとれる。
 なお、上記実施の形態のデジタルカメラのように、メインモニタ104又は電子ビューファインダ108を使用して焦点調節する場合、メインモニタ104及び電子ビューファインダ108の解像度を考慮して、拡大した場合の可動範囲(第2の可動範囲)を設定することが好ましい。メインモニタ104及び電子ビューファインダ108の解像度が、イメージセンサ210の解像度に比べて低い場合、メインモニタ104及び電子ビューファインダ108で調整可能な精度には限界がある。したがって、メインモニタ104及び電子ビューファインダ108では、調整できない範囲をイメージセンサ210の移動でカバーできるように、その可動範囲を設定することが好ましい。具体的には、メインモニタ104及び電子ビューファインダ108の画素ピッチ以上の可動範囲を確保することが好ましい。これにより、解像度の低いメインモニタ104又は電子ビューファインダ108を使用して焦点調節する場合であっても、目的とする被写体に精度よく合焦させることができる。
 《イメージセンサの基準位置》
 上記実施の形態では、イメージセンサ210の基準位置を可動範囲の中央に設定しているが、基準位置として設定する位置は、これに限定されるものではない。たとえば、可動範囲の中央よりも被写体側(前側)の位置に基準位置を設定してもよいし、また、像面側(後側)の位置に基準位置を設定してもよい。また、ユーザーが、任意に設定できる構成としてもよい。なお、上記のように、可動範囲の中央に基準位置を設定することにより、追従性を向上できる。
 また、上記実施の形態では、フランジバックの位置に基準位置を設定しているが、フランジバックと異なる位置に設定してもよい。なお、上記のように、フランジバックの位置に基準位置を設定することにより、基準位置で合焦した際に交換レンズ10の光学性能を最大限に発揮させることができる。
 また、基準位置が可変する構成とすることもできる。たとえば、過去の被写体の合焦時のイメージセンサ210の位置情報を参照して、基準位置を適宜切り替える構成とすることができる。また、被写体に応じて、基準位置を適宜切り替える構成とすることもできる。たとえば、被写体の移動方向等に応じて、適宜切り替える構成とすることができる。たとえば、一方向に移動する被写体については、結像点の移動方向と反対方向に基準位置を設定する。
 《焦点検出部》
 上記実施の形態では、イメージセンサ210の撮像面212に備えられた位相差検出画素218の出力に基づいてデフォーカス量を検出する構成としているが、デフォーカス量を検出する手段は、これに限定されるものではない。パッシブ方式、アクティブ方式等の公知の焦点検出手段を使用できる。
 また、上記実施の形態では、位相差検出画素をx方向に沿って一定の間隔で配置しているが、y方向に沿って一定の間隔で配置してもよい。また、x方向及びy方向に沿って一定の間隔で配置してもよい。
 また、上記実施の形態では、画面中央に設定されたAFエリアにのみ位相差検出画素を配置しているが、位相差検出画素を配置する領域は、これに限定されるものではない。画面全体に配置する構成としてもよい。
 《イメージセンサ移動駆動部》
 上記実施の形態では、ピエゾアクチュエータを使用して、イメージセンサ210を光軸Lに沿って移動させる構成としているが、イメージセンサ移動駆動部の構成は、これに限定されるものではない。この他、たとえば、リニアモータ、送りネジ機構等の公知の直動式の駆動機構を採用して、イメージセンサ210を光軸Lに沿って移動させることができる。
 《撮像部》
 上記実施の形態では、本発明を単板式のデジタルカメラに適用した場合を例に説明したが、本発明は多板式のカメラにも適用できる。
 図22は、3板式のデジタルカメラに本発明適用する場合の一例を示す図である。
 同図に示すように、3板式のデジタルカメラは、撮像部に色分解プリズム310、及び、3つのイメージセンサ210R、210G、210Bを備える。
 色分解プリズム310は、入射面310aに入射した光をR(Red)光、G(Green)光及びB(Blue)光の3色の光に分解する。分解された3色の光は、それぞれR光出射面310r、G光出射面310g、B光出射面310bから出射される。
 3つのイメージセンサは、R光を受光するイメージセンサ210Rと、G光を受光するイメージセンサ210Gと、B光を受光するイメージセンサ210Bと、で構成される。
 R光を受光するイメージセンサ210Rは、R光出射面310rに対向して配置され、R光出射面310rから出射されるR光を受光する。
 G光を受光するイメージセンサ210Gは、G光出射面310gに対向して配置され、G光出射面310gから出射されるG光を受光する。
 B光を受光するイメージセンサ210Bは、B光出射面310bに対向して配置され、B光出射面310bから出射されるB光を受光する。
 3つのイメージセンサ210R、210G、210Bは、それぞれ色分解プリズム310の入射面310aからの光路長が同じになる位置に配置される。
 3つのイメージセンサ210R、210G、210Bは、図示しないホルダを介して、色分解プリズム310に一体的に取り付けられる。色分解プリズム310にイメージセンサ210R、210G、210Bが一体化されたユニットを撮像ユニット330とする。イメージセンサ移動駆動部220xは、撮像ユニット330を光軸Lに沿って前後移動させる。また、イメージセンサ位置検出部222xは、基準位置に対する撮像ユニット330の位置を検出する。
 《撮像レンズ》
 上記実施の形態では、フォーカスレンズを光軸に沿って前後移動させて焦点調節しているが、撮像レンズの焦点調節機構は、これに限定されるものではない。この他、液体レンズ、液晶レンズ等をフォーカスレンズとして利用することもできる。液体レンズ及び液晶レンズでは、屈折率変化を利用して、焦点調節する。
 また、上記実施の形態では、フォーカスレンズをリニアモータ等のアクチュエータで駆動する構成としているが、カム機構、ヘリコイドギア等を用いて手動で移動させる構成としてもよい。
 《撮像装置》
 上記実施の形態では、本発明をデジタルカメラに適用した場合を例に説明したが、本発明の適用は、これに限定されるものではない。この他、たとえば、ビデオカメラ、テレビカメラ、シネマカメラ等にも適用でき、更に、撮像機能を備えた電子機器(たとえば、携帯電話、スマートフォン、タブレットパソコン、ノートパソコン等)にも同様に適用できる。
 また、上記実施の形態では、レンズ交換式のデジタルカメラに本発明を適用した場合を例に説明したが、撮像レンズがカメラ本体に一体的に組み込まれたカメラにも同様に適用できる。
 《その他》
 上記実施の形態では、追尾制御部等をマイクロコンピュータで構成しているが、これらの機能を実現するためのハードウェア的な構成は、これに限定されるものではない。各種のプロセッサで構成できる。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理を行う処理部として機能する汎用的なプロセッサであるCPU、FPGA(FPGA:Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるPLD(PLD:Programmable Logic Device)、ASIC(ASIC:Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 一つの処理部は、これら各種のプロセッサのうちの一つで構成されていてもよいし、同種又は異種の二つ以上のプロセッサで構成されていてもよい。たとえば、複数のFPGAで構成されてもよいし、CPU及びFPGAの組み合わせで構成されてもよい。
 また、複数の処理部を一つのプロセッサで構成してもよい。複数の処理部を一つのプロセッサで構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、一つ以上のCPUとソフトウェアとの組合せで一つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(SoC:System On Chip)などに代表されるように、複数の処理部を含むシステム全体の機能を一つのICチップ(IC:Integrated Circuit)で実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを一つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路である。
1 デジタルカメラ
10 交換レンズ
12 鏡筒
14 レンズ操作部
16 フォーカスリング
18 絞りリング
20 フォーカスレンズ
22 フォーカスレンズ駆動部
24 フォーカスレンズ位置検出部
26 絞り
28 絞り駆動部
30 レンズ制御部
30a フォーカスレンズ駆動制御部
30b 絞り駆動制御部
100 カメラ本体
102 マウント
104 メインモニタ
104a LCDドライバ
106 サブモニタ
106a LCDドライバ
108 電子ビューファインダ(EVF)
108a LCDドライバ
110 カメラ操作部
111 感度ダイヤル
112 消去ボタン
113 電源レバー
114 シャッターボタン
115 ドライブボタン
116 サブモニタ照明ボタン
117 シャッタースピードダイヤル
118 再生ボタン
119 フロントコマンドダイヤル
120 リアコマンドダイヤル
121 フォーカスレバー
122 クイックメニューボタン
123 メニュー/OKボタン
124 セレクターボタン
125 表示/BACKボタン
126 第1ファンクションボタン
127 第2ファンクションボタン
128 第3ファンクションボタン
129 第4ファンクションボタン
130 第5ファンクションボタン
210 イメージセンサ
210B イメージセンサ
210G イメージセンサ
210R イメージセンサ
212 撮像面
214 AFエリア
216 通常画素
218 位相差検出画素
218A 第1位相差検出画素
218B 第2位相差検出画素
220 イメージセンサ移動駆動部
220x イメージセンサ移動駆動部
222 イメージセンサ位置検出部
222x イメージセンサ位置検出部
224 イメージセンサ駆動部
226 アナログ信号処理部
228 ADC(アナログデジタル変換器)
230 デジタル信号処理部
232 位相差AF処理部
234 メモリカードインタフェース
236 メモリカード
250 カメラ制御部
250a 追尾制御部
250b フォーカシング動作検出部
250c 可動範囲切替部
310 色分解プリズム
310a 入射面
310b B光出射面
310g G光出射面
310r R光出射面
330 撮像ユニット
A 被写体
E 端部
L 光軸
L1 結像点の移動軌跡
L2 イメージセンサの移動軌跡
R0 イメージセンサの基準位置
W イメージセンサの可動範囲
W1 イメージセンサの第1の可動範囲
W2 イメージセンサの第2の可動範囲
S11~S17 追尾機能がオンされた場合の追尾制御の処理手順
S21~S26 イメージセンサの可動範囲の切替制御の処理手順
S31~S37 追尾制御の処理手順

Claims (25)

  1.  焦点調節機能を備えた撮像レンズと、
     イメージセンサと、
     前記イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、
     デフォーカス量を検出する焦点検出部と、
     前記焦点検出部で検出される前記デフォーカス量に基づいて、前記イメージセンサの移動を可動範囲内で制御し、被写体を追尾する追尾制御部と、
     前記被写体に対する前記撮像レンズのフォーカシング動作を前記焦点検出部で検出した前記デフォーカス量の変化に基づき検出するフォーカシング動作検出部と、
     前記フォーカシング動作検出部で前記フォーカシング動作が検出されると、前記イメージセンサの可動範囲を拡大する可動範囲切替部と、
     を備えた撮像装置。
  2.  前記可動範囲切替部は、前記イメージセンサの可動範囲を拡大した後、前記被写体の追尾が不能になると、前記イメージセンサの可動範囲を元の範囲に縮小する、
     請求項1に記載の撮像装置。
  3.  前記可動範囲切替部は、前記イメージセンサの可動範囲を拡大した後、前記被写体の結像点の位置が前記イメージセンサの可動範囲から一定以上離れると、前記イメージセンサの可動範囲を元の範囲に縮小する、
     請求項1に記載の撮像装置。
  4.  前記可動範囲切替部は、前記フォーカシング動作検出部で前記フォーカシング動作が検出されると、前記イメージセンサの可動範囲を零から一定の範囲に拡大させる、
     請求項1から3のいずれか1項に記載の撮像装置。
  5.  前記フォーカシング動作検出部は、前記被写体に合焦する位置の前後一定の範囲内で前記デフォーカス量の変動速度が閾値以下になったことを検出して、前記フォーカシング動作を検出する、
     請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記追尾制御部は、前記被写体に合焦すると、前記被写体の追尾を開始する、
     請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記追尾制御部は、前記デフォーカス量が、一定時間継続して閾値以下になると、前記被写体の追尾を開始する、
     請求項1から5のいずれか1項に記載の撮像装置。
  8.  前記追尾制御部は、前記デフォーカス量の変動速度が、前記被写体に合焦する位置の前後一定の範囲内で閾値以下になると、前記被写体の追尾を開始する、
     請求項1から5のいずれか1項に記載の撮像装置。
  9.  前記追尾制御部は、前記イメージセンサが可動範囲の端部に到達して、前記被写体の追尾が不能になると、前記イメージセンサを基準位置に復帰させる、
     請求項1から8のいずれか1項に記載の撮像装置。
  10.  前記追尾制御部は、前記デフォーカス量の変化に応じた移動速度で前記イメージセンサを移動させて、前記イメージセンサを前記基準位置に復帰させる、
     請求項9に記載の撮像装置。
  11.  追尾範囲拡大モードのオン、オフを切り替えるモード切替部を更に備え、
     前記追尾範囲拡大モードがオンの場合、前記可動範囲切替部は、前記イメージセンサの可動範囲を一度拡大すると、以後の切り替え動作を停止する、
     請求項1から10のいずれか1項に記載の撮像装置。
  12.  追尾範囲拡大モードのオン、オフを切り替えるモード切替部を更に備え、
     前記追尾範囲拡大モードがオンの場合、前記可動範囲切替部は、前記イメージセンサの可動範囲を一度拡大すると、以後の切り替え動作を停止し、
     前記追尾制御部は、前記イメージセンサの可動範囲が拡大された場合において、前記イメージセンサが前記可動範囲の端部に到達して、前記被写体の追尾が不能になると、前記被写体に再度合焦するまで前記イメージセンサを可動範囲の端部で待機させる、
     請求項1から8のいずれか1項に記載の撮像装置。
  13.  前記イメージセンサの可動範囲の中央に基準位置が設定され、かつ、前記撮像レンズで規定されるフランジバックの位置に前記基準位置が設定される、
     請求項1から12のいずれか1項に記載の撮像装置。
  14.  前記焦点検出部は、前記イメージセンサの撮像面に備えられた複数の位相差検出画素の出力に基づいて前記デフォーカス量を検出する、
     請求項1から13のいずれか1項に記載の撮像装置。
  15.  前記イメージセンサで撮像された画像がリアルタイムに表示されるモニタ又は電子ビューファインダを更に備え、
     前記モニタ及び前記電子ビューファインダが前記イメージセンサよりも低い解像度を有する、
     請求項1から14のいずれか1項に記載の撮像装置。
  16.  焦点調節機能を備えた撮像レンズが着脱自在に装着されるマウントと、
     イメージセンサと、
     前記イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、
     デフォーカス量を検出する焦点検出部と、
     前記焦点検出部で検出される前記デフォーカス量に基づいて、前記イメージセンサの移動を可動範囲内で制御し、被写体を追尾する追尾制御部と、
     前記被写体に対する前記撮像レンズのフォーカシング動作を前記焦点検出部で検出した前記デフォーカス量の変化に基づき検出するフォーカシング動作検出部と、
     前記フォーカシング動作検出部で前記フォーカシング動作が検出されると、前記イメージセンサの可動範囲を拡大する可動範囲切替部と、
     を備えた撮像装置本体。
  17.  前記可動範囲切替部は、前記イメージセンサの可動範囲を拡大した後、前記被写体の追尾が不能になると、前記イメージセンサの可動範囲を元の範囲に縮小する、
     請求項16に記載の撮像装置本体。
  18.  前記可動範囲切替部は、前記イメージセンサの可動範囲を拡大した後、前記被写体の結像点の位置が前記イメージセンサの可動範囲から一定以上離れると、前記イメージセンサの可動範囲を元の範囲に縮小する、
     請求項16に記載の撮像装置本体。
  19.  前記可動範囲切替部は、前記フォーカシング動作検出部で前記フォーカシング動作が検出されると、前記イメージセンサの可動範囲を零から一定の範囲に拡大させる、
     請求項16から18のいずれか1項に記載の撮像装置本体。
  20.  前記フォーカシング動作検出部は、前記被写体に合焦する位置の前後一定の範囲内で前記デフォーカス量の変動速度が閾値以下になったことを検出して、前記フォーカシング動作を検出する、
     請求項16から19のいずれか1項に記載の撮像装置本体。
  21.  焦点調節機能を備えた撮像レンズと、イメージセンサと、前記イメージセンサを光軸に沿って移動させるイメージセンサ移動駆動部と、デフォーカス量を検出する焦点検出部と、前記焦点検出部で検出される前記デフォーカス量に基づいて、前記イメージセンサの移動を可動範囲内で制御し、被写体を追尾する追尾制御部と、を備えた撮像装置の合焦制御方法であって、
     前記焦点検出部で検出した前記デフォーカス量の変化に基づき前記被写体に対する前記撮像レンズのフォーカシング動作を検出するステップと、
     前記フォーカシング動作が検出された場合に、前記イメージセンサの可動範囲を拡大するステップと、
     を含む撮像装置の合焦制御方法。
  22.  前記イメージセンサの可動範囲を拡大した後、前記被写体の追尾が不能になった場合に、前記イメージセンサの可動範囲を元の範囲に縮小するステップを更に含む、
     請求項21に記載の撮像装置の合焦制御方法。
  23.  前記イメージセンサの可動範囲を拡大した後、前記被写体の結像点の位置が前記イメージセンサの可動範囲から一定以上離れた場合に、前記イメージセンサの可動範囲を元の範囲に縮小するステップを更に含む、
     請求項21に記載の撮像装置の合焦制御方法。
  24.  前記フォーカシング動作が検出された場合に、前記イメージセンサの可動範囲を拡大するステップは、前記イメージセンサの可動範囲を零から一定の範囲に拡大させる、
     請求項1から3のいずれか1項に記載の撮像装置の合焦制御方法。
  25.  前記フォーカシング動作を検出するステップでは、前記被写体に合焦する位置の前後一定の範囲内で前記デフォーカス量の変動速度が閾値以下になったことを検出して、前記フォーカシング動作を検出する、
     請求項21から24のいずれか1項に記載の撮像装置の合焦制御方法。
PCT/JP2018/032915 2017-09-20 2018-09-05 撮像装置、撮像装置本体及び撮像装置の合焦制御方法 WO2019058974A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880060186.6A CN111095067B (zh) 2017-09-20 2018-09-05 摄像装置、摄像装置主体及摄像装置的对焦控制方法
JP2019543540A JP6856761B2 (ja) 2017-09-20 2018-09-05 撮像装置、撮像装置本体及び撮像装置の合焦制御方法
US16/824,173 US10764488B2 (en) 2017-09-20 2020-03-19 Imaging device, imaging device main body, and focusing control method of imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-180246 2017-09-20
JP2017180246 2017-09-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/824,173 Continuation US10764488B2 (en) 2017-09-20 2020-03-19 Imaging device, imaging device main body, and focusing control method of imaging device

Publications (1)

Publication Number Publication Date
WO2019058974A1 true WO2019058974A1 (ja) 2019-03-28

Family

ID=65811327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/032915 WO2019058974A1 (ja) 2017-09-20 2018-09-05 撮像装置、撮像装置本体及び撮像装置の合焦制御方法

Country Status (4)

Country Link
US (1) US10764488B2 (ja)
JP (1) JP6856761B2 (ja)
CN (1) CN111095067B (ja)
WO (1) WO2019058974A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256819A1 (ko) * 2020-06-18 2021-12-23 엘지이노텍(주) 카메라 모듈 및 이를 포함하는 광학 기기

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188934A1 (ja) * 2018-03-30 2019-10-03 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
JP7277133B2 (ja) * 2018-12-27 2023-05-18 キヤノン株式会社 フォーカス制御装置、撮像装置、および、プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6393277A (ja) * 1986-10-08 1988-04-23 Canon Inc 自動合焦装置
US6689998B1 (en) * 2000-07-05 2004-02-10 Psc Scanning, Inc. Apparatus for optical distancing autofocus and imaging and method of using the same
JP2006145813A (ja) * 2004-11-19 2006-06-08 Pentax Corp デジタルカメラ
JP2010107866A (ja) * 2008-10-31 2010-05-13 Olympus Imaging Corp デジタルカメラ及び光学機器
JP2014048545A (ja) * 2012-08-31 2014-03-17 Canon Inc 撮像装置
JP2016006940A (ja) * 2014-06-20 2016-01-14 リコーイメージング株式会社 コントラストaf機能を備えたカメラ
JP2016148832A (ja) * 2015-02-06 2016-08-18 パナソニックIpマネジメント株式会社 カメラ本体及び撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4551740B2 (ja) * 2004-11-08 2010-09-29 株式会社東芝 低密度パリティチェック符号復号器及び方法
JP2008276115A (ja) * 2007-05-07 2008-11-13 Olympus Imaging Corp デジタルカメラ及びフォーカス制御プログラム
JP5948492B2 (ja) * 2013-03-29 2016-07-06 富士フイルム株式会社 撮像装置及び合焦制御方法
WO2014196389A1 (ja) * 2013-06-06 2014-12-11 富士フイルム株式会社 オート・フォーカス装置およびその動作制御方法
EP3067727A4 (en) * 2013-10-31 2017-11-22 Olympus Corporation Imaging system and imaging system operation method
JP6028112B2 (ja) * 2014-02-07 2016-11-16 富士フイルム株式会社 撮像装置及び合焦制御方法
JP6381266B2 (ja) * 2014-04-15 2018-08-29 キヤノン株式会社 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
WO2016080153A1 (ja) * 2014-11-18 2016-05-26 富士フイルム株式会社 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
US9918004B2 (en) * 2015-02-06 2018-03-13 Panasonic Intellectual Property Management Co., Ltd. Camera body capable of driving an image sensor along an optical axis in response to a change in an optical state of an object image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6393277A (ja) * 1986-10-08 1988-04-23 Canon Inc 自動合焦装置
US6689998B1 (en) * 2000-07-05 2004-02-10 Psc Scanning, Inc. Apparatus for optical distancing autofocus and imaging and method of using the same
JP2006145813A (ja) * 2004-11-19 2006-06-08 Pentax Corp デジタルカメラ
JP2010107866A (ja) * 2008-10-31 2010-05-13 Olympus Imaging Corp デジタルカメラ及び光学機器
JP2014048545A (ja) * 2012-08-31 2014-03-17 Canon Inc 撮像装置
JP2016006940A (ja) * 2014-06-20 2016-01-14 リコーイメージング株式会社 コントラストaf機能を備えたカメラ
JP2016148832A (ja) * 2015-02-06 2016-08-18 パナソニックIpマネジメント株式会社 カメラ本体及び撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256819A1 (ko) * 2020-06-18 2021-12-23 엘지이노텍(주) 카메라 모듈 및 이를 포함하는 광학 기기

Also Published As

Publication number Publication date
US10764488B2 (en) 2020-09-01
CN111095067B (zh) 2022-03-01
US20200221034A1 (en) 2020-07-09
JPWO2019058974A1 (ja) 2020-11-05
JP6856761B2 (ja) 2021-04-14
CN111095067A (zh) 2020-05-01

Similar Documents

Publication Publication Date Title
US9977217B2 (en) Imaging device
US10931865B2 (en) Focus adjustment function of imaging device, focus adjustment function of imaging device main body, and focus adjustment method of imaging device
US9578231B2 (en) Image capture apparatus and method for controlling the same
JP7012142B2 (ja) 焦点調節操作検出装置、焦点調節操作検出方法及び焦点調節操作検出プログラム、並びに、撮像装置本体及び撮像装置
US10785402B2 (en) Imaging device and focusing control method of imaging device
US11054721B2 (en) Imaging device, focusing assistance method thereof, and focusing assistance program thereof
JP2005221602A (ja) 撮像装置
WO2017090233A1 (ja) 撮像装置
US10764488B2 (en) Imaging device, imaging device main body, and focusing control method of imaging device
JPWO2017154366A1 (ja) ローパスフィルタ制御装置、およびローパスフィルタ制御方法、ならびに撮像装置
US20110032390A1 (en) Digital photographing apparatus and moving picture capturing method performed by the same
WO2017061095A1 (ja) 撮像装置
JPH06205258A (ja) 合焦位置検出装置
JPH04296175A (ja) カメラ装置
JP2020088447A (ja) 撮像装置およびその制御方法
JP2017118213A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18858569

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019543540

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18858569

Country of ref document: EP

Kind code of ref document: A1