WO2014020924A1 - ブレ量検出装置、撮像装置及びブレ量検出方法 - Google Patents

ブレ量検出装置、撮像装置及びブレ量検出方法 Download PDF

Info

Publication number
WO2014020924A1
WO2014020924A1 PCT/JP2013/052907 JP2013052907W WO2014020924A1 WO 2014020924 A1 WO2014020924 A1 WO 2014020924A1 JP 2013052907 W JP2013052907 W JP 2013052907W WO 2014020924 A1 WO2014020924 A1 WO 2014020924A1
Authority
WO
WIPO (PCT)
Prior art keywords
speed
acceleration
angular velocity
calculated
calculating
Prior art date
Application number
PCT/JP2013/052907
Other languages
English (en)
French (fr)
Inventor
仁司 土屋
竹内 寿
田中 潔
芳信 小俣
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201380002516.3A priority Critical patent/CN103718097B/zh
Priority to US14/169,746 priority patent/US9131156B2/en
Publication of WO2014020924A1 publication Critical patent/WO2014020924A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to a shake amount detection device that detects a shake amount that occurs due to camera shake and the like, and an imaging device that includes the shake amount detection device.
  • imaging devices equipped with a camera shake correction function have become commonplace, and in hand-held shooting in which a camera is held by hand without using a tripod or the like, there is no image blurring even without particular attention. You can now take pictures.
  • camera shake correction performance is still not sufficient, especially when shooting for long seconds with long exposure times, camera shake may not be fully corrected. A big influence.
  • the camera shake correction function currently used often does not provide sufficient performance.
  • Camera shake can be divided into so-called angular blur that occurs when the angle of the optical axis of the imaging device changes, and so-called translational blur that occurs when the camera body moves in a direction perpendicular to the optical axis. .
  • Many of the camera shake correction functions currently in use are limited to correcting only the angle shake, and do not correct translational shake. This translation blur is not particularly noticeable when the image magnification is low, but the effect of translation blur on the quality of the captured image increases as the image magnification increases. For this reason, the camera shake correction function currently used cannot provide sufficient performance in the macro region as described above.
  • Patent Document 1 discloses an acceleration detection device that detects acceleration in three axial directions acting on the camera, an angular velocity detection device that detects angular velocity around the three axes acting on the camera, and Attitude detection means for calculating a coordinate transformation matrix between the camera coordinate system and the stationary coordinate system from triaxial acceleration and angular velocity around the three axes, and gravitational acceleration for calculating a gravitational acceleration component in the camera coordinate system from the coordinate matrix
  • An image shake correction camera that includes a component calculation means, calculates the position of translational motion by removing the gravitational acceleration component from the output of the acceleration detection device, and the correction drive amount calculation means 11 calculates an image shake amount based on these positions. Is disclosed.
  • the velocity is calculated by integrating the acceleration obtained by removing the influence of the gravitational acceleration from the vertical and horizontal acceleration detection results with respect to the imaging surface of the camera, and further, the velocity is integrated.
  • the translational movement amount is calculated.
  • an acceleration sensor is sensitive to an impact, and outputs a detection result different from the acceleration applied to the camera body due to the impact of the impact, particularly when the shutter is running. For this reason, when the output from the acceleration sensor is integrated as it is, different speeds are calculated. Therefore, in order to perform appropriate correction, some countermeasure is required for the impact of the movable part.
  • the present invention provides a blur amount detection device, an imaging device, and a blur amount detection method capable of accurately detecting the movement amount by removing the influence on the blur detection result even when the impact by the movable part as described above occurs. With the goal.
  • the shake amount detection device is An angular velocity detector that detects an angular velocity related to the rotational movement of the housing; An acceleration detector for detecting acceleration applied to the housing; A calculation unit that calculates a movement amount of the housing based on the angular velocity and the acceleration; The calculation unit includes: A speed change obtained by time-integrating the acceleration; a turning radius calculation process for calculating a turning radius from the angular velocity; For a predetermined time from the start of exposure, the speed is calculated based on the angular velocity and the radius of rotation calculated before the start of exposure, and after the predetermined time has elapsed, the acceleration is cumulatively added to the speed calculated during the predetermined time. Speed calculation processing for calculating the speed, And a movement amount calculation process for calculating the movement amount by time-integrating the speed calculated in the speed calculation obtaining process.
  • an imaging apparatus includes: The aforementioned blur amount detection device; An optical system for forming light from a subject as a subject image; An image sensor for converting a subject image formed by the optical system into a video signal; And a driving unit that drives at least one of the optical system and the imaging element in a direction to cancel the movement amount calculated by the blur amount detection device.
  • the blur amount detection method includes: Detect the angular velocity related to the rotational movement of the housing, Detecting acceleration applied to the housing; Based on the angular velocity and the acceleration, execute a calculation process for calculating the amount of movement of the housing,
  • the calculation process is as follows: A speed change obtained by time-integrating the acceleration; a turning radius calculation process for calculating a turning radius from the angular velocity; For a predetermined time from the start of exposure, the speed is calculated based on the angular velocity and the radius of rotation calculated before the start of exposure, and after the predetermined time has elapsed, the acceleration is cumulatively added to the speed calculated during the predetermined time.
  • Speed calculation processing for calculating the speed And a movement amount calculation process for calculating the movement amount by time-integrating the speed calculated in the speed calculation obtaining process.
  • the shake amount detection device the imaging device, and the shake amount detection method of the present invention, it is possible to detect an accurate movement amount even when an impact is generated by a movable part such as a shutter.
  • FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to an embodiment of the present invention.
  • 1 is a block diagram showing the configuration of a shake correction microcomputer according to an embodiment of the present invention.
  • the block diagram which shows the structure of the translation blurring correction part which concerns on embodiment of this invention.
  • the flowchart which shows the translation movement amount detection control which concerns on embodiment of this invention.
  • FIG. 1 is a perspective view for explaining the types of rotational motion generated in the imaging apparatus.
  • the imaging device 1 (the imaging device 1 is a device having an imaging function, widely includes various devices such as a digital camera, a video camera, and a mobile phone with a camera function.
  • various devices such as a digital camera, a video camera, and a mobile phone with a camera function.
  • the coordinate system and the rotation direction set for the camera 1 as a representative will be described.
  • the camera 1 includes an optical system 2 that forms light from a subject as a subject image, and the optical axis direction of the optical system 2 is a Z direction.
  • the positive Z direction is a direction from the camera 1 toward the subject.
  • the horizontal direction of camera 1 is the X direction.
  • the positive X direction is the right direction when viewing the camera 1 from the subject side (that is, the left direction when viewing the camera 1 from the photographer).
  • the vertical direction of the camera 1 is defined as the Y direction.
  • the positive Y direction is the upward direction in the standard posture.
  • the origin of the coordinate system is shifted, but the origin of the coordinate system is the position of the image sensor 4 (see FIG. 3). It is the center of the imaging surface, and is generally the point where the imaging surface and the optical axis of the optical system 2 intersect.
  • This coordinate system is a coordinate system fixed to the camera 1, and if the camera 1 moves or rotates, the coordinate system also moves or rotates with respect to the earth.
  • the XY plane is a plane that coincides with the imaging plane.
  • the rotational motion about the Z axis is roll
  • the rotational motion about the X axis is pitch
  • the rotational motion about the Y axis is yaw.
  • the left rotation around the Z axis when viewing the positive Z axis from the origin is the positive rotation of the roll
  • the left rotation around the X axis when viewing the positive X axis from the origin is the pitch. It is assumed that the rotation in the positive direction and the right rotation around the Y axis when the positive direction of the Y axis is viewed from the origin is the positive rotation of the yaw.
  • the angle blur can be described as a rotational motion around the origin. That is, the optical axis is swung left and right by the rotational movement in the yaw direction, the subject range imaged on the image sensor 4 is moved to the left and right, and the optical axis is swung up and down by the rotational movement in the pitch direction. It is well known that the subject range imaged above moves up and down. It is also well known that rotational movement in the roll direction results in a horizontal and vertical position on the screen and an oblique position in between.
  • the translational blur can be described as a rotational motion having a rotational center outside the camera 1 as described above.
  • 2A is a diagram illustrating a state in which the amount of movement in the X direction is generated in the imaging device due to yaw rotation
  • FIG. 2B is a diagram illustrating a state in which the amount of movement in the Y direction is generated in the imaging device due to pitch rotation
  • FIG. 6C is a diagram illustrating a state in which movement amounts in the X direction and the Y direction are generated in the imaging device by roll rotation.
  • FIG. 2A when a rotational movement in the yaw direction having a rotation center Cyaw at a position (rotation radius) Ryaw from the origin outside the camera 1 is generated in the camera 1, the movement amount in the X direction is changed. Arise.
  • FIG. 2B when a rotational motion in the pitch direction having a rotation center Cpitch at a position (rotation radius) Rpitch from the origin outside the camera 1 occurs in the camera 1, the movement in the Y direction is performed. A quantity arises. Furthermore, as shown in FIG.
  • FIG. 3 is a block diagram showing a configuration of the imaging apparatus 1.
  • a camera 1 that is an imaging device includes an optical system 2, a focal plane shutter 3, an imaging device 4, a drive unit 5, a system controller 6, a shake correction microcomputer 7, angular velocity sensors 8a to 8c, and an acceleration sensor. 9, a release switch 10, an EVF (electronic viewfinder) 11, and an internal flash memory 13.
  • the memory card 12 is also illustrated in FIG. 3, the memory card 12 is configured to be detachable from the camera 1, for example, and may not have a configuration unique to the camera 1. .
  • the optical system 2 forms light from the subject on the imaging surface of the imaging device 4 as a subject image.
  • the focal plane shutter 3 is disposed in front of the image sensor 4 (on the optical system 2 side), and controls the exposure time by performing an opening / closing operation. That is, the focal plane shutter 3 is opened to place the image sensor 4 in an exposed state, and closed to place it in a light shielding state.
  • the imaging device 4 converts the subject image formed on the imaging surface into an electrical signal based on an instruction from the system controller 6.
  • the converted electrical signal is read out as a video signal by the system controller 6.
  • the drive unit 5 supports the imaging element 4 so as to be movable in a two-dimensional direction parallel to the imaging plane, and based on an instruction from the blur correction microcomputer 7, the X direction shown in FIG. And the image sensor 4 is driven in the Y direction.
  • the system controller 6 is a control unit that integrally performs various controls related to the functions of the entire camera 1 including reading of the video signal described above. As will be described below, the system controller 6 also controls the blur correction microcomputer 7 to perform blur detection and to perform blur correction based on the blur detection result.
  • the angular velocity sensor 8 (an “angular velocity detection unit” of the present invention) is a sensor configured as an angular velocity detection unit that detects a rotational motion applied to the housing of the imaging apparatus 1 and detects an angular change per unit time as an angular velocity. Output to the blur correction microcomputer 7.
  • the angular velocity sensor 8 includes a yaw angular velocity sensor 8a as a yaw angular velocity detection unit (second angular velocity detection unit) that detects a yaw angular velocity related to a yaw rotational motion around the Y axis (second axis) as shown in FIG.
  • a pitch angular velocity sensor 8b that is a pitch angular velocity detecting unit (first angular velocity detecting unit) that detects a pitch angular velocity related to a pitch rotational movement around the X axis (first axis) as shown in 2B, and as shown in FIG. 2C
  • a roll angular velocity sensor 8c that is a roll angular velocity detection unit (third angular velocity detection unit) that detects a roll angular velocity related to the rotational rotation of the roll around the Z axis (third axis), and detects an angular velocity with three degrees of freedom in the rotation direction. It is configured as follows.
  • the yaw angular velocity sensor 8a, the pitch angular velocity sensor 8b, and the roll angular velocity sensor 8c detect the rotational motion around each axis by using different sensors and using different mounting directions, for example.
  • the acceleration sensor 9 (“acceleration detection unit” of the present invention) is an acceleration detection unit that detects at least X-axis direction acceleration (X acceleration) and Y-axis direction acceleration (Y acceleration) applied to the housing of the imaging apparatus 1. In this embodiment, a sensor that can also detect acceleration in the Z-axis direction (Z acceleration) is employed. Then, the acceleration sensor 9 outputs the detected acceleration in each direction to the shake correction microcomputer 7.
  • the blur correction microcomputer 7 calculates the blur amount of the camera 1 from the output of the angular velocity sensor 8 and the output of the acceleration sensor 9 based on an instruction from the system controller 6. Then, the blur correction microcomputer 7 outputs an instruction for driving the image sensor 4 by the blur amount detected in the direction opposite to the detected blur direction to the drive unit 5. Thereby, since the drive part 5 drives the image pick-up element 4 so that the blur in an imaging surface may be canceled, the blurring which generate
  • the image pickup device 4 is driven to perform blur correction.
  • the optical system 2 may be driven to perform blur correction.
  • a shake amount detection device is configured including the shake correction microcomputer 7, the angular velocity sensor 8, and the acceleration sensor 9, and the shake correction device is configured including the shake amount detection device and the drive unit 5.
  • the release switch 10 is, for example, a two-stage press switch connected to the system controller 6, and AF and AE are performed by the first-stage press (half-press or first release), and the second-stage press (all The exposure is started by pressing or 2nd release.
  • the EVF 11 is a display unit configured to include a liquid crystal panel and the like so that a user can visually recognize a video signal read from the image sensor 4 and converted into a format that can be displayed by the system controller 6 or the like. indicate.
  • the memory card 12 is a non-volatile recording medium that records a video signal read from the image sensor 4 and converted into a format that can be recorded by the system controller 6 or the like. It is configured to be detachable.
  • the internal flash memory 13 is a non-volatile recording medium that records the control program of the camera 1 executed by the system controller 6, various parameters used for the control, and the like.
  • FIG. 4 is a block diagram showing the configuration of the blur correction microcomputer 7.
  • the blur correction microcomputer 7 includes a CPU 70, ADCs (analog / digital converters) 71a to 71c, SIOs (serial input / output) 72a and 72b, and a driver 73.
  • the ADCs 71a to 71c convert the analog signals input from the angular velocity sensors 8a to 8c into digital signals, respectively.
  • the SIOs 72a and 72b are communication units in which the CPU 70 communicates with an external device through a serial interface.
  • the SIO 72a is used by the CPU 70 to read the acceleration value detected by the acceleration sensor 9, and the SIO 72b It is used for communication that exchanges.
  • the driver 73 outputs a signal for driving the drive unit 5 based on the correction amount calculated by the CPU 70.
  • the CPU 70 includes an acceleration acquisition unit 702, an angular shake correction unit 703, a translational shake correction unit 704, a communication unit 705, and an addition unit 706 as functions configured by firmware, for example, an internal program ( However, of course, it may be configured as hardware. Based on the detection results of the angular velocity sensor 8 and the acceleration sensor 9, the correction amount of angular blur and translation blur is calculated.
  • the acceleration acquisition unit 702 reads the acceleration in the three-axis direction independent from the acceleration sensor via the SIO 72a, and divides the acceleration information into the X-axis, Y-axis, and Z-axis directions shown in FIG. . Then, the acceleration acquisition unit 702 outputs the acquired X acceleration and Y acceleration to the translation blur correction unit 704.
  • the angle blur correction unit 703 calculates a blur amount (angle blur) accompanying an angle change based on the yaw rotation motion and the pitch rotation motion. For this angle blur, a known technique can be appropriately used. Details are not given here because they can.
  • the translational blur correction unit 704 calculates the translational movement amount of the camera 1 based on the acceleration and the angular velocity, and converts the calculated movement amount into the blurring amount of the subject image on the imaging surface. Then, it is transmitted to the drive unit 5 as a correction amount.
  • the communication unit 705 communicates with the system controller 6 via the SIO 72b.
  • the addition unit 706 adds the angle blur amount calculated by the angle blur correction unit 703 and the translation blur amount calculated by the translation blur correction unit 704, and outputs the total blur amount to the driver 73.
  • high-pass processing or zero point correction processing is performed on the outputs of the ADCs 71a to 71c and the accelerations in the X to Z directions output from the acceleration acquisition unit 702 in order to remove low-frequency components.
  • low-frequency component to be removed include a frequency component of 1 Hz or less, but are not limited to this band. It has been experimentally confirmed that the frequency based on camera shake is between about 1 Hz and 10 Hz, thereby removing a component of change over time due to sensor movement (for example, drift) due to factors other than camera shake. be able to.
  • FIG. 5 is a diagram showing a timing chart of the imaging apparatus according to the embodiment of the present invention.
  • FIGS. 5A and 5B are a front curtain control signal and a rear curtain control signal, respectively, which are signals for controlling each curtain of the focal plane shutter 3.
  • the front curtain (rear curtain) is attracted by magnetic force when the front curtain (rear curtain) control signal is in a high state.
  • FIG. 5C shows acceleration, which is the output of the acceleration sensor 9, and in the timing chart, impact noise due to the operation of the focal plane shutter 3 is observed.
  • FIG. 5 (d) shows the angular velocity, which is the output of the angular velocity sensor 8, and the influence of the operation of the focal plane shutter 3 can be seen as with the acceleration. However, it is not as affected as acceleration.
  • t 1 to t 5 indicate timings related to the impact generated by the operation of the focal plane shutter 3.
  • FIG. 6 shows the operation of the focal plane shutter 3.
  • the focal plane shutter 3 includes an optical aperture 33, a movable front curtain 31, and a rear curtain 32.
  • the optical aperture 33 is an aperture formed between the optical system 2 and the image sensor 4, and brings the image sensor 4 into an exposed state when it is not shielded by the front curtain 31 and the rear curtain 32.
  • t 1 is a timing substantially corresponding to the input timing of the imaging start instruction.
  • This shooting start instruction is generated based on an operation of a release switch (release SW) of the imaging apparatus 1 by the user.
  • This t 1 substantially coincides with the timing at which the impact due to the suction of the curtain of the focal plane shutter 3 begins.
  • t 1 is an impact generated when the front curtain 31 and the rear curtain 32 move from the state shown in FIG. 5A to the state shown in FIG. 5B.
  • the movement of the front curtain 31 and the rear curtain 32 is performed by a lever (not shown) that moves the front curtain 31 and the rear curtain 32.
  • t 2 is due to an impact generated when the lever that adsorbs the curtain retracts.
  • t 3 is an impact that occurs when the front curtain 31 closes, that is, when the front curtain 31 moves from the state of FIG. 5B to the state of FIG. 5C. Further, as can be seen from FIG. 5C, t 3 corresponds to the exposure start timing at which the optical aperture 33 is released.
  • t 4 is after the elapse of a predetermined time t p1 from t 3 , and indicates the timing at which the influence on the acceleration due to the impact of the front curtain 31 converges.
  • the impact convergence time varies depending on various conditions such as the characteristics of the focal plane shutter 3 and the characteristics of the imaging apparatus 2 itself and the holding state of the imaging apparatus 2 by the user. Is set by the convergence time.
  • the predetermined time t p1 is adjusted based on the state of acceleration. Specifically, the time change of acceleration is monitored, and when it is determined that the impact generated at t 3 has converged, t 4 is set to a predetermined time t p1 of a time length corresponding to the generated impact. It becomes possible to do.
  • t 5 is an impact that occurs when the rear curtain 32 closes, that is, when the rear curtain 31 moves from the state of FIG. 5C to the state of FIG. 5D. Further, as can be seen from FIG. 5D, t 5 corresponds to the exposure end timing at which the optical aperture 33 is shielded. Therefore, the period from t 3 to t 5 is an exposure period in which the optical aperture 33 is in the released state.
  • the speed and the translational blur amount (“movement amount” in the present invention) are calculated.
  • the speed is calculated in the period of t p1 based on the rotation radius and the angular speed calculated immediately before t 1 .
  • the speed is calculated by accumulatively adding acceleration to the speed at time t 4 calculated using the method of the period of t p1 .
  • the translation blur amount is calculated by performing time integration on the speed calculated at each time point.
  • the rotation calculated before the impact is generated (immediately before t 1 in the present embodiment) for a predetermined time from the start of exposure that is greatly affected by the impact of the movable part such as the shutter.
  • the speed is calculated using the radius to suppress the impact.
  • the speed is calculated by accumulating the acceleration at any time to the initial speed at the time t 4 .
  • speed calculation by accumulative addition of acceleration increases errors when performed for a long period of time, but it is limited to the exposure period. It is because there is.
  • the calculation timing is limited, for example, when the roll angular velocity is zero. Therefore, in this embodiment, during the exposure period, after a predetermined time, that accumulates adds an acceleration to the initial velocity at t 4 time, is set to be to improve the accuracy of the velocity calculation.
  • FIG. 5E shows a speed calculated based on the angular speed and the radius calculated immediately before t 1 , and is a value used for calculating the translational blur amount in the period t p1 .
  • FIG. 5F shows the speed change calculated by integrating the acceleration in the period tp2 .
  • the speed for calculating the translational blur amount is calculated in the period tp 2 .
  • FIG. 5G shows a value obtained by adding FIG. 5E and FIG. 5F. This value is the speed used for calculating the translational blur amount in the exposure period (t 3 to t 5 ).
  • FIG. 5 (h) is a value obtained by time-integrating the speed that can be shown in FIG. 5 (g), and is a value corresponding to the translational blur amount.
  • the radius of rotation is calculated until immediately before the start of photographing (immediately before t 1 ), and the impact is relatively in the period (t 3 to t 4 ) from the exposure start timing (t 3 ) to the influence of the shutter impact.
  • the amount of translational blur is calculated based on the detection result of the angular velocity that is not easily affected by the impact, and after the impact has converged (t 4 to t 5 ), the amount of translational blur is calculated based on the acceleration value.
  • the acceleration is cumulatively added to the speed calculated based on the radius of rotation immediately before impact convergence, so that error accumulation due to long-term integration does not occur and shutter impact can be avoided.
  • FIG. 7 is a block diagram showing details of the translational blur correction unit 704.
  • the configuration for detecting the translational blur amount in the X direction with respect to the imaging surface is shown, but the configuration for detecting the Y direction is the same.
  • the configuration for detecting the Y direction differs only in that the input signal is a pitch angular velocity instead of a yaw angular velocity and a Y acceleration instead of an X acceleration. Since the other configuration is the same, the description and drawings are omitted here.
  • the translation blur correction unit 704 includes integration units 7041a to 7041c, a rotation radius calculation unit 7042, a speed calculation unit 7043, an addition unit 7044, a multiplication unit 7045, and a period control unit 7046.
  • the integration unit 7041a calculates the speed for calculating the radius of rotation by time-integrating the input acceleration (X acceleration).
  • the integration unit 7041b also integrates the input acceleration (X acceleration) over time, and the integration here integrates the acceleration during the integration period detected by the period control unit 7046. That is, the acceleration is integrated over time in the period t p2 described with reference to FIG.
  • the integrating unit 7041c integrates the calculated translation speed on the imaging surface to calculate the X-direction translation blur amount. This is an output of the translational blur correction unit 704, which is a value corresponding to FIG.
  • the integration unit 7041c corresponds to the movement amount calculation process in the present invention.
  • the turning radius calculation unit 7042 executes a turning radius calculation process for calculating a turning radius from the input angular velocity (yaw angular velocity, roll angular velocity) and the velocity calculated by the integration unit 7041a.
  • the rotation radius in the yaw direction and the rotation radius in the roll direction are calculated. This is because, as described with reference to FIGS. 2A and 2C, the influence on the X direction is caused by the rotational movement in the yaw direction and the rotational movement in the roll direction.
  • the rotation radius in the Y direction can be obtained from the relationship between the pitch shown in FIGS. 2B and 2C and the roll.
  • the velocity in the X direction is V X
  • the rotation radius (yaw radius) in the yaw direction is R yaw
  • the yaw angular velocity is ⁇ yaw
  • XZ corresponds to the projection radius onto the ZX plane at the rotation radius in the roll direction.
  • V X R yaw ⁇ ⁇ yaw + R rollx ⁇ ⁇ roll (Formula 1) Further, when the velocity in the X direction at two different times is V x1 and V x2 , the yaw angular velocity is ⁇ yaw1 and ⁇ yaw2 , and the roll angular velocity is ⁇ roll1 and ⁇ roll2 , the following relationship holds.
  • V x1 R yaw ⁇ ⁇ yaw1 + R roll ⁇ ⁇ roll1 (Formula 2)
  • V x2 R yaw ⁇ ⁇ yaw2 + R roll ⁇ ⁇ roll2 (Formula 3)
  • the yaw radius R yaw and the XZ roll radius R rollx can be obtained from the following.
  • R yaw (V x2 ⁇ ⁇ roll1 -V x1 ⁇ ⁇ roll2 ) / ( ⁇ roll1 ⁇ ⁇ yaw2 - ⁇ yaw1 ⁇ ⁇ roll2 ) ...
  • V x1 and V x2 use the speed calculated by the integration unit 7041a, and ⁇ yaw1 , ⁇ yaw2 , ⁇ roll1 , and ⁇ roll2 use the yaw angular velocity and roll angular velocity input to the turning radius calculation unit 7042.
  • the velocity V y in the Y direction is the XY roll radius R corresponding to the projection radius on the XY plane at the rotation radius (pitch radius) R pitch in the pitch direction, the pitch angular velocity ⁇ pitch, and the rotation radius in the roll direction. It can be obtained in the same manner from rolly and roll angular velocity ⁇ roll .
  • the speed calculation unit 7043 calculates the speed V x based on the rotation radius calculated by the rotation radius calculation unit 7042. Specifically, the speed calculation unit 7043 calculates the rotation radius (R yaw , By substituting (R rollx ) into (Equation 1), the velocity V x is calculated. However, the period during which the speed calculation is performed is only the period t p1 determined based on the shutter control signal.
  • the adding unit 7044 calculates the translational speed by adding the speed calculated by the speed calculating unit 7043 and the speed change calculated by the integrating unit 7041b. This output corresponds to the output of FIG. In the present embodiment, the speed calculation process is executed by the adder 7044, the integrator 7041b, the speed calculator 7043, and the period controller 7046.
  • the multiplication unit 7045 multiplies the calculated translation speed of the camera body by the image magnification set in the optical system 2 to convert it into the translation speed of the subject image on the imaging surface.
  • the image magnification set in the optical system 2 is notified by communication with the system controller 6 via the communication unit 705.
  • the period control unit 7046 is a period in which the rotation radius calculation unit 7042 calculates the rotation radius, the speed calculation unit 7043 calculates the speed t p1 , and the integration unit 7041b integrates the acceleration over time (speed calculation unit Period control for a period t p2 in which acceleration is cumulatively added to the speed output by 7043 is performed.
  • the period control unit calculates the rotation radius with the rotation radius calculation unit 7042 as a calculation state, but when shooting is started, the rotation radius calculation unit 7042 stops the calculation of the rotation radius at the timing t 1. , Put it in a correction waiting state.
  • the translation blur correction unit 704 has a high-pass process for removing low frequency for at least one of the input yaw angular velocity, roll angular velocity, X acceleration, and outputs of the integration units 7041a to 7041c, or Zero point correction processing may be performed. Similar to the processing for the outputs of the ADCs 71a to 71c and the accelerations in the X to Z directions output from the acceleration acquisition unit 702, the processing here removes the frequency of 1 Hz or less, the temperature of the acceleration sensor 9, etc. The effect of drift due to the effect of is eliminated. The processing in the translation blur correction unit 704 may not be provided if correction can be performed by the processing of the outputs of the ADCs 71a to 71c described above and the accelerations in the X to Z directions output from the acceleration acquisition unit 702. .
  • the rotation radius calculation unit 7043 is caused to calculate the rotation radius (S2), and the outputs of the speed calculation unit 7043 and the integration unit 7041b are set to 0 (reset) (S3).
  • the output of the speed calculation unit 7043 and the integration unit 7041b is zero, so the translation blur amount is not calculated (becomes zero).
  • the correction waiting period refers to a period from the start of photographing t 1 to t 3 when correction is started. In the case of the correction waiting period (S4: Yes), the process proceeds to the translation blur amount calculation S8, but the translation blur amount is not calculated as in the case of passing through S2 and S3.
  • the impact period refers to t p1 .
  • the speed calculation unit 7043 calculates the speed based on the input angular speed and the rotation radius calculated immediately before t 1 (S6).
  • the translation blur amount is calculated by integrating the speed calculated in S6.
  • the correction amount is calculated based on the rotation radius and the angular velocity calculated in advance. Then, when the acceleration becomes effective, that is, after a predetermined time has elapsed since the occurrence of the impact, the acceleration is cumulatively added to the calculated speed to calculate the speed. Therefore, the period during which the fixed turning radius is used does not become excessively long and the acceleration error does not accumulate, and the translation speed with a small error can be calculated.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

【課題】シャッタなどの可動部による衝撃が発生する場合においても正確な移動量を検出する。 【解決手段】本発明に係るブレ量検出装置は、加速度を時間積分した速度変化と、角速度から回転半径を算出する回転半径算出処理と、露光開始から所定時間は、角速度と露光開始以前に算出した回転半径に基づいて速度を算出し、所定時間経過後は、所定時間中に算出した速度に加速度を累積加算して速度を算出する速度算出処理と、速度算出得処理で算出された速度を時間積分して移動量を算出する移動量算出処理と、を実行することを特徴とする。

Description

ブレ量検出装置、撮像装置及びブレ量検出方法
 本発明は、手振れなどで発生するブレ量を検出するブレ量検出装置、及び、ブレ量検出装置を搭載した撮像装置に関する。
 近年手ブレ補正機能を搭載した撮像装置(カメラ)が一般的になり、三脚等を使用せずにカメラを手で持って撮影する手持ち撮影において、特に注意しなくても像ブレの無い良好な画像を撮影できるようになってきた。
 しかしながら、手ブレ補正の性能も未だ十分でなく、特に露光時間が長くなる長秒撮影時には、手ブレを十分に補正しきれない場合があり、撮像装置の手ブレ補正性能が撮影画像の品質に大きく影響する。特に、マクロ領域での長秒撮影を行う場合では、現在用いられている手ブレ補正機能では、十分な性能が得られない場合が多い。
 手ブレは、撮像装置の光軸の角度が変化することで発生する所謂、角度ブレと、カメラ本体が光軸とは垂直方向に移動することで発生する所謂、並進ブレとに分けることができる。現在用いられている手ブレ補正機能の多くが角度ブレのみを補正するに留まるものであり、並進ブレの補正を行っていない。この並進ブレは、像倍率が低い場合には特に気にならないが、像倍率が高くなるにつれて並進ブレが撮影画像の品質に及ぼす影響も大きくなる。このため、現在用いられている手ブレ補正機能では、前述したようにマクロ領域で十分な性能が得られない。
 上記のような問題の解決方法として、特許文献1には、カメラに作用する三軸方向の加速度を検出する加速度検出装置と、カメラに作用する三軸回りの角速度を検出する角速度検出装置と、三軸方向の加速度及び三軸回りの角速度からカメラ座標系と静止座標系との間の座標変換マトリクスを演算する姿勢検出手段と、前記座標マトリクスからカメラ座標系における重力加速度成分を演算する重力加速度成分演算手段を備え、加速度検出装置の出力から前記重力加速度成分を除去して並進運動の位置を算出し、補正駆動量演算手段11は、これらに基づいて像振れ量を算出する像振れ補正カメラが開示されている。
特開平7-225405号公報
 特許文献1の手法においては、カメラの撮像面に対して、縦方向及び、横方向の加速度検出結果から重力加速度の影響を除去した加速度を積分して速度を算出し、さらに、その速度を積分することで並進移動量を算出している。
 一方で、シャッタやクイックターンミラーなどの可動部を持つ一眼レフカメラにおいては、可動部が可動した際の衝撃が問題となる。一般に加速度センサは、衝撃に対して敏感であり、特にシャッタ走行時は、衝撃の影響により、カメラ本体に加わる加速度とは異なる検出結果を出力する。このため、加速度センサからの出力をそのまま積分した場合、異なった速度を算出してしまうため、適正な補正を行うためには、可動部の衝撃に対して何らかの対策が必要となる。
 しかしながら、特許文献1に記載されるカメラでは、この点に関して何ら開示されていない。本件は、前述の様な可動部による衝撃が発生する場合でも、ブレ検出結果への影響を除去し、正確に移動量を検出できるブレ量検出装置、撮像装置、ブレ量検出方法を提供することを目的とする。
 そのため本発明に係るブレ量検出装置は、
 筐体の回転運動に関わる角速度を検出する角速度検出部と、
 前記筐体に加わる加速度を検出する加速度検出部と、
 前記角速度と、前記加速度に基づいて、前記筐体の移動量を算出する算出部を備え、
 前記算出部は、
 前記加速度を時間積分した速度変化と、前記角速度から回転半径を算出する回転半径算出処理と、
 露光開始から所定時間は、前記角速度と露光開始以前に算出した前記回転半径に基づいて速度を算出し、前記所定時間経過後は、前記所定時間中に算出した前記速度に前記加速度を累積加算して前記速度を算出する速度算出処理と、
 前記速度算出得処理で算出された前記速度を時間積分して前記移動量を算出する移動量算出処理と、を実行することを特徴とする
 また本発明に係る撮像装置は、
 前述したブレ量検出装置と、
 被写体からの光を被写体像として結像させる光学系と、
 前記光学系により結像された被写体像を映像信号に変換する撮像素子と、
 前記ブレ量検出装置により算出された前記移動量を打ち消す方向に、前記光学系と前記撮像素子の少なくとも一方を駆動する駆動部と、を備えたことを特徴とする。
 また本発明に係るブレ量検出方法は、
 筐体の回転運動に関わる角速度を検出し、
 前記筐体に加わる加速度を検出し、
 前記角速度と、前記加速度に基づいて、前記筐体の移動量を算出する算出処理を実行し、
 前記算出処理は、
 前記加速度を時間積分した速度変化と、前記角速度から回転半径を算出する回転半径算出処理と、
 露光開始から所定時間は、前記角速度と露光開始以前に算出した前記回転半径に基づいて速度を算出し、前記所定時間経過後は、前記所定時間中に算出した前記速度に前記加速度を累積加算して前記速度を算出する速度算出処理と、
 前記速度算出得処理で算出された前記速度を時間積分して前記移動量を算出する移動量算出処理と、を含むことを特徴とする。
 本発明のブレ量検出装置、撮像装置及びブレ量検出方法によれば、シャッタなどの可動部による衝撃が発生する場合においても正確な移動量を検出することが可能となる。
本発明の実施形態に係る撮像装置に生じる回転運動の種類を説明する図 本発明の実施形態に係る撮像装置においてヨー回転、ピッチ回転、ロール回転が発生したときのX、Y、Z方向への移動量を説明する図 本発明の実施形態に係る撮像装置の構成を示すブロック図 本発明の実施形態に係るブレ量補正マイクロコンピュータの構成を示すブロック図 本発明の実施形態に係る撮像装置のタイミングチャートを示す図 本発明の実施形態に係るフォーカルプレーンシャッタの原理を示す模式図 本発明の実施形態に係る並進ブレ補正部の構成を示すブロック図 本発明の実施形態に係る並進移動量検出制御を示すフロー図
 以下、図面を参照して本発明の実施の形態を説明する。図1から図8は本発明の実施形態を示したものであり、図1は撮像装置に生じる回転運動の種類を説明するための斜視図である。
 まず、図1を参照して、撮像装置1(撮像装置1は、撮像機能を備えた装置であれば、デジタルカメラ、ビデオカメラ、カメラ機能付き携帯電話など各種の装置を広く含むが、以下では、代表して適宜カメラ1などという)に設定する座標系や回転方向について説明する。
 カメラ1は、被写体からの光を被写体像として結像する光学系2を備えており、この光学系2の光軸方向をZ方向とする。ここに、正のZ方向は、カメラ1から被写体に向く方向とする。また、カメラ1の標準姿勢(いわゆる横位置)において、カメラ1の水平方向をX方向とする。ここに、正のX方向は、被写体側からカメラ1を見て右方向(つまり、撮影者からカメラ1を見て左方向)とする。さらに、カメラ1の標準姿勢において、カメラ1の垂直方向をY方向とする。ここに、正のY方向は、標準姿勢における上方向とする。
 なお、図1では、座標系がカメラ1と重複して見難くなるのを防ぐために座標系の原点位置をずらして記載しているが、座標系の原点は撮像素子4(図3参照)の撮像面の中心であり、一般的には、撮像面と光学系2の光軸とが交差する点である。この座標系は、カメラ1に固定した座標系であり、カメラ1が移動または回転すれば、座標系も地球に対して移動または回転することになる。また、この座標系において、X-Y平面は撮像面に一致する面である。
 そして、このような座標系において、Z軸周りの回転運動がロール、X軸周りの回転運動がピッチ、Y軸周りの回転運動がヨーである。さらに、以下では例えば、原点からZ軸正方向を見たときのZ軸周りの左回転がロールの正方向回転、原点からX軸正方向を見たときのX軸周りの左回転がピッチの正方向回転、原点からY軸正方向を見たときのY軸周りの右回転がヨーの正方向回転であるものとする。
 なお、上述した座標軸の正負方向や回転方向の正負は、後述する角速度センサ8や加速度センサ9(図3等参照)の実装方向に依存する便宜上のものであり、理論的には上記に限定されるものではない。
 次に、上述した座標系において、回転中心が原点(あるいは、原点も含めて、回転中心がカメラ1内)にある場合は主に角度ブレをもたらし、回転中心がカメラ1の外部にある場合には角度ブレに加えて並進ブレをもたらす。従って、ブレ補正を行う必要があるような並進ブレが発生するのは、実質的に、回転中心がカメラ1の外部にあるときであると考えても差し支えない。
 まず、角度ブレに関しては、原点周りの回転運動として記述すればよい。すなわち、ヨー方向の回転運動により光軸が左右に振られて撮像素子4上に結像される被写体範囲が左右に移動し、ピッチ方向の回転運動により光軸が上下に振られて撮像素子4上に結像される被写体範囲が上下に移動することはよく知られている通りである。また、ロール方向の回転運動は、画面の横位置や縦位置、およびその中間の斜め位置をもたらすこともよく知られている通りである。
 一方、並進ブレに関しては、上述したように、カメラ1の外部に回転中心がある回転運動として記述することができる。図2(A)はヨー回転により撮像装置にX方向の移動量が生じる様子を示す図、図2(B)はピッチ回転により撮像装置にY方向の移動量が生じる様子を示す図、図2(C)はロール回転により撮像装置にX方向およびY方向の移動量が生じる様子を示す図である。
 図2(A)に示すように、カメラ1の外部の、原点から距離(回転半径)Ryawの位置に回転中心Cyawをもつヨー方向の回転運動がカメラ1に発生すると、X方向の移動量が生じる。また、図2(B)に示すように、カメラ1の外部の、原点から距離(回転半径)Rpitchの位置に回転中心Cpitchをもつピッチ方向の回転運動がカメラ1に発生すると、Y方向の移動量が生じる。さらに、図2(C)に示すように、カメラ1の外部の、原点から距離(回転半径)Rrollの位置に回転中心Crollをもつロール方向の回転運動がカメラ1に発生すると、一般に、X方向への移動量成分、およびY方向への移動量成分を含む移動量が生じる。
 そして、角度ブレと並進ブレとのうち、前者の角度ブレに関しては公知の技術を適宜用いることが可能であるために、本実施形態においては、後者の並進ブレについて主に説明する。
 まず、図3は、撮像装置1の構成を示すブロック図である。撮像装置であるカメラ1は、光学系2と、フォーカルプレーンシャッタ3と、撮像素子4と、駆動部5と、システムコントローラ6と、ブレ補正マイクロコンピュータ7と、角速度センサ8a~8cと、加速度センサ9と、レリーズスイッチ10と、EVF(電子ビューファインダ)11と、内部フラッシュメモリ13と、を備えている。また、図3にはメモリカード12も記載されているが、メモリカード12は例えばカメラ1に対して着脱自在に構成されたものであるために、カメラ1に固有の構成でなくても構わない。
 光学系2は、被写体からの光を、被写体像として撮像素子4の撮像面に結像するものである。
 フォーカルプレーンシャッタ3は、撮像素子4の前面(光学系2側)に配設されていて、開閉動作を行うことにより露光時間を制御するものである。すなわち、フォーカルプレーンシャッタ3は、開くことで撮像素子4を露光状態にし、閉じることで遮光状態にする。
 撮像素子4は、システムコントローラ6の指示に基づいて、撮像面に結像された被写体像を電気信号に変換する。この変換された電気信号は、システムコントローラ6によって映像信号として読み出される。
 駆動部5は、撮像面内に平行な2次元方向に移動可能となるように撮像素子4を支持しており、ブレ補正マイクロコンピュータ7からの指示に基づいて、図1等に示したX方向およびY方向に撮像素子4を駆動する。
 システムコントローラ6は、前述した映像信号の読み出しを含む、カメラ1全体の機能に関わる各種の制御を統合的に行う制御部である。システムコントローラ6は、以下に説明するように、ブレ補正マイクロコンピュータ7にブレ検出を行わせ、ブレ検出結果に基づいてブレ補正を行わせる制御も行う。
 角速度センサ8(本発明の「角速度検出部」)は、撮像装置1の筐体に加わる回転運動を検出する角速度検出部として構成されたセンサであり、単位時間当たりの角度変化を角速度として検出しブレ補正マイクロコンピュータ7へ出力する。角速度センサ8は、図2Aに示したようなY軸(第2軸)周りのヨー回転運動に係るヨー角速度を検出するヨー角速度検出部(第2角速度検出部)たるヨー角速度センサ8aと、図2Bに示したようなX軸(第1軸)周りのピッチ回転運動に係るピッチ角速度を検出するピッチ角速度検出部(第1角速度検出部)たるピッチ角速度センサ8bと、図2Cに示したようなZ軸(第3軸)周りのロール回転運動に係るロール角速度を検出するロール角速度検出部(第3角速度検出部)たるロール角速度センサ8cとを含み、回転方向の3自由度の角速度を検出するように構成されている。
 これらヨー角速度センサ8aと、ピッチ角速度センサ8bと、ロール角速度センサ8cは、例えば、同一機種のセンサを用いて、実装方向を異ならせることにより、各軸周りの回転運動を検出する。
 加速度センサ9(本発明の「加速度検出部」)は、撮像装置1の筐体に加わるX軸方向の加速度(X加速度)とY軸方向の加速度(Y加速度)とを少なくとも検出する加速度検出部であり、本実施形態においてはさらに、Z軸方向の加速度(Z加速度)も検出し得るセンサを採用している。そして、加速度センサ9は、検出した各方向への加速度を、ブレ補正マイクロコンピュータ7へ出力する。
 ブレ補正マイクロコンピュータ7は、システムコントローラ6の指示に基づいて、角速度センサ8の出力と加速度センサ9の出力とからカメラ1のブレ量を算出する。そして、ブレ補正マイクロコンピュータ7は、検出したブレ方向と反対方向に検出したブレ量だけ撮像素子4を駆動する指示を駆動部5に対して出力する。これにより駆動部5が、撮像面におけるブレを打ち消すように撮像素子4を駆動するために、撮影画像に発生するブレを抑制することができる。なお、ここでは撮像素子4を駆動してブレ補正を行っているが、これに代えて、あるいはこれに加えて、光学系2を駆動してブレ補正を行うようにしても構わない。
 そして、ブレ補正マイクロコンピュータ7、角速度センサ8、加速度センサ9を含んでブレ量検出装置が構成され、このブレ量検出装置と駆動部5とを含んでブレ補正装置が構成されている。
 レリーズスイッチ10は、システムコントローラ6と接続された例えば2段式の押圧スイッチでなり、1段目の押圧(半押し、あるいは1stレリーズ)でAFやAEが行われ、2段目の押圧(全押し、あるいは2ndレリーズ)で露光が開始されるようになっている。
 EVF11は、液晶パネル等を含んで構成された表示部であり、撮像素子4から読み出され、システムコントローラ6等において表示可能な形式に変換された映像信号を、ユーザが視認可能となるように表示する。
 メモリカード12は、撮像素子4から読み出され、システムコントローラ6等において記録可能な形式に変換された映像信号を記録する不揮発性の記録媒体であり、上述したように、カメラ1に対して例えば着脱自在に構成されている。
 内部フラッシュメモリ13は、システムコントローラ6が実行するカメラ1の制御プログラムや、制御に用いられる各種パラメータ等を記録する不揮発性の記録媒体である。
 図4は、ブレ補正マイクロコンピュータ7の構成を示すブロック図である。ブレ補正マイクロコンピュータ7は、CPU70と、ADC(アナログ・デジタル・コンバータ)71a~71cと、SIO(Serial Input/Output:シリアル入出力)72a、72bと、ドライバ73と、を備えている。
 ADC71a~71cは、角速度センサ8a~8cから入力されるアナログ信号を、それぞれデジタル信号に変換する。
 SIO72a、72bは、CPU70が外部デバイスとシリアルインタフェースで通信を行う通信部であり、SIO72aは加速度センサ9が検出した加速度の値をCPU70が読み出すために用いられ、SIO72bはCPU70がシステムコントローラ6とコマンドのやり取りを行う通信に用いられる。
 ドライバ73は、CPU70により算出された補正量に基づいて、駆動部5を駆動するための信号を出力する。
 CPU70は、加速度取得部702と、角度ブレ補正部703と、並進ブレ補正部704と、通信部705と、加算部706とを、例えば内部プログラムであるファームウェアにより構成される機能として備えており(ただし、ハードウェアとして構成しても勿論構わない)、角速度センサ8および加速度センサ9の検出結果に基づき、角度ブレおよび並進ブレの補正量を算出する。
 加速度取得部702は、SIO72aを経由して、加速度センサから独立した3軸方向の加速度を読み出して、図2等に示したX軸、Y軸、Z軸の各方向への加速度情報に分割する。そして、加速度取得部702は、取得したX加速度、Y加速度を並進ブレ補正部704へ出力する。
 角度ブレ補正部703は、ヨー回転運動およびピッチ回転運動に基づいて、角度変化に伴うブレ量(角度ブレ)を算出するものであるが、この角度ブレについては公知の技術を適宜利用することができるために、詳細は記載しない。
 並進ブレ補正部704(本発明の「算出部」に相当)は、加速度および角速度に基づいて、カメラ1の並進移動量を算出し、算出した移動量を撮像面における被写体像のブレ量に変換し、補正量として駆動部5へ伝達する。
 通信部705は、SIO72bを経由して、システムコントローラ6と通信する。
 加算部706は、角度ブレ補正部703により算出された角度ブレ量と、並進ブレ補正部704により算出された並進ブレ量とを加算して、トータルのブレ量をドライバ73へ出力する。
 なお、ADC71a~71cの出力、そして、加速度取得部702が出力するX~Z各方向の加速度に対しては、低周波成分を除去するため、ハイパス処理、あるいは、ゼロ点補正処理を行うこととしてもよい。ここで除去する低周波成分は、例えば1Hz以下の周波数成分が挙げられるが、この帯域に限定されるものではない。手ブレに基づく周波数は、1Hzから10Hz程度の間であることが実験で確認されており、これにより、手ブレ以外の要因によるセンサの動き(例えば、ドリフトなど)による経時変化の成分を除去することができる。
 さらに、加速度取得部702にて取得された各方向に関する加速度に対して、重力に関する補正を行うことで、並進ブレ補正部704でのブレ量算出の精度向上を図ることも可能である。
 図5は本発明の実施形態に係る撮像装置のタイミングチャートを示す図である。図5(a)、図5(b)は、それぞれ、先幕制御信号と後幕制御信号であり、フォーカルプレーンシャッタ3の各幕を制御する信号である。先幕(後幕)は、この先幕(後幕)制御信号がHigh状態の時、磁力により吸着される。
 図5(c)は加速度で、加速度センサ9の出力であり、タイミングチャート中にはフォーカルプレーンシャッタ3の動作による衝撃ノイズがみられる。
 図5(d)は角速度で、角速度センサ8の出力であり、加速度と同様、フォーカルプレーンシャッタ3の動作による影響が見受けられる。しかしながら、加速度ほど大きな影響は受けていない。
 図5中のt1からt5は、フォーカルプレーンシャッタ3の動作により発生する衝撃に関わるタイミングを示したものである。図6には、フォーカルプレーンシャッタ3の動作について示されている。フォーカルプレーンシャッタ3は、光学開口33、移動可能な先幕31、後幕32を備えて構成されている。光学開口33は、光学系2と撮像素子4の間に形成される開口であり、先幕31、後幕32にて遮蔽されないときに撮像素子4を露光状態にする。
 タイミングチャート中、t1は、撮影開始指示の入力タイミングに略相当するタイミングである。この撮影開始指示は、ユーザによる撮像装置1のレリーズスイッチ(レリーズSW)の操作等に基づいて発生する。また、このt1は、フォーカルプレーンシャッタ3の幕の吸着による衝撃が始まるタイミングに略一致したものとなる。t1は、ちょうど先幕31と後幕32が、図5(a)の状態から図5(b)の状態に移動するときに発生する衝撃である。この先幕31と後幕32の移動は、先幕31と後幕32を移動させるレバー(図示せず)によって行われる。t2は、幕を吸着させたレバーが退避する際に生じる衝撃によるものである。
 t3は先幕31が閉じる際、すなわち、先幕31が、図5(b)の状態から図5(c)の状態に移動するときに発生する衝撃である。また、図5(c)から見て取れるように、t3は、光学開口33が解放される露光開始タイミングに相当する。
 t4は、t3から所定時間tp1経過した後であり、先幕31の衝撃による加速度への影響が収束するタイミングを示している。衝撃の収束時間はフォーカルプレーンシャッタ3の特性等、撮像装置2自体の特性や、ユーザによる撮像装置2の保持状態等の各種条件によって変化するが、本実施形態では各種条件にて想定される最長の収束時間により設定されている。あるいは、この所定時間tp1は加速度の状態に基づいて調整される形態を採用することも可能である。具体的には、加速度の時間的変化を監視し、t3で生じた衝撃が収束したと判断されたときをt4とすることで、生じた衝撃に応じた時間長の所定時間tp1とすることが可能となる。
 t5は、後幕32が閉じる際、すなわち、後幕31が、図5(c)の状態から図5(d)の状態に移動するときに発生する衝撃である。また、図5(d)から見て取れるように、t5は、光学開口33が遮蔽される露光終了タイミングに相当する。したがって、t3~t5の期間は、光学開口33が解放状態となる露光期間である。
 本実施形態では、図5(c)に示される加速度、図5(d)に示される角速度に基づいて、tp1(t3~t4の期間)で示す露光開始から所定時間、そして、所定時間以降の露光期間において速度、及び、並進ブレ量(本発明における「移動量」)が算出される。本実施形態では、tp1の期間においては、t1の直前で算出された回転半径と角速度に基づいて速度が算出される。また、tp2の期間においては、tp1の期間の手法を用いて算出されたt4時点の速度に対して加速度を累積加算していくことで速度が算出される。各時点で算出された速度に対して、時間積分を行うことで並進ブレ量が算出される。
 このように本実施形態では、露光期間中、シャッタなどの可動部による衝撃の影響が大きい露光開始から所定時間は、衝撃が発生する前(本実施形態ではt1の直前)に算出された回転半径を使用して速度を算出し、衝撃による影響を抑制することとしている。
 一方、衝撃が収まったと考えられる所定時間経過後(t4~t5)は、t4時点での初期速度に加速度を随時、累積加算することで速度を算出している。これは、加速度の累積加算による速度算出は、長期間行うと誤差が増大するが、露光期間に限った、短期間であれば累積に伴う誤差も少なく、比較的正確な速度変化を検出可能であることを理由としている。一方、回転半径を使用した速度算出では、正確な回転半径を算出するには、ロール角速度が0である時など、その算出のタイミングが限定されてしまう。そのため、本実施形態では、露光期間中、所定時間経過後は、t4時点での初期速度に加速度を累積加算していくことで、速度算出の精度向上を図ることとしている。
 図5(e)は、角速度と、t1の直前で算出した半径とに基づいて算出された速度であり、期間tp1において並進ブレ量を算出するために使用される値である。
 図5(f)は、期間tp2において加速度を積分して算出した速度変化である。この速度変化をt4時点での回転半径による速度に加算することで、期間tp2にて並進ブレ量を算出するための速度が算出される。
 図5(g)は、図5(e)と図5(f)を加算した値が示されている。この値が露光期間(t3~t5)において並進ブレ量算出のために使用される速度となる。
 図5(h)は、図5(g)に示されうる速度を時間積分した値であり、並進ブレ量に相当する値である。
 以上説明した様に、撮影開始の直前(t1の直前)まで回転半径を算出し、露光開始タイミング(t3)からシャッタ衝撃の影響がある期間(t3~t4)は、比較的衝撃の影響を受けにくい角速度の検出結果に基づいて並進ブレ量を算出し、衝撃の影響が収束した後(t4~t5)は、加速度の値に基づいて並進ブレ量を算出する。
 こうすることで、回転半径に基づいた補正期間を抑えることができ、回転半径の変化による影響を抑えることが可能となる。また、加速度は、衝撃収束の直前に回転半径を基に算出した速度に対して随時、累積加算するので、長期間積分することによる誤差の蓄積が発生せず、シャッタの衝撃も回避できる。
 図7には、並進ブレ補正部704の詳細を示すブロック図が示されている。ここでは、撮像面に対するX方向の並進ブレ量を検出する構成を示しているが、Y方向の検出に関しても同様に構成されたものとなる。Y方向検出のための構成は、入力信号が、ヨー角速度に代えてピッチ角速度、X加速度に代えてY加速度になることのみ異なる。それ以外の構成は、同様であるため、ここでの説明及び図は割愛する。
 並進ブレ補正部704は、積分部7041a~cと、回転半径算出部7042と、速度算出部7043と、加算部7044と、乗算部7045と、期間制御部7046とで構成されている。
 積分部7041aは、入力された加速度(X加速度)を時間積分して、回転半径を算出するための速度を算出する。
 積分部7041bも、入力された加速度(X加速度)を時間積分するが、ここでの積分は、期間制御部7046で検出された積分期間の加速度を積分する。すなわち、図5(f)で説明した期間tp2において加速度を時間積分する。
 積分部7041cは、算出された撮像面における並進速度を積分してX方向並進ブレ量を算出する。これは、並進ブレ補正部704の出力であり、図5(h)に相当した値である。積分部7041cが本発明における移動量算出処理に相当している。
 回転半径算出部7042は、入力される角速度(ヨー角速度、ロール角速度)と、積分部7041aで算出された速度から回転半径を算出する回転半径算出処理を実行する。ここでは、ヨー方向の回転半径と、ロール方向の回転半径を算出する。これは、図2(A)、(C)で説明したように、X方向に対する影響は、ヨー方向の回転運動と、ロール方向の回転運動が影響することを理由としている。なお、Y方向の回転半径については、図2(B)、(C)に示すピッチと、ロールの関係から求めることができる。
 具体的には、X方向の速度をVX、ヨー方向の回転半径(ヨー半径)をRyaw、ヨー角速度をωyaw、ロール方向の回転半径におけるZ-X平面への射影半径に相当するXZロール半径をRrollx、ロール角速度をωrollとすると、回転半径と角速度により以下関係が成り立つ。
 VX=Ryaw×ωyaw+Rrollx×ωroll      …(式1)
 また、異なる2点の時刻におけるX方向の速度をVx1,Vx2、ヨー角速度をωyaw1,ωyaw2、ロール角速度をωroll1,ωroll2とすると、以下の関係が成り立つ。
 Vx1=Ryaw・ωyaw1+Rroll・ωroll1 …(式2)
 Vx2=Ryaw・ωyaw2+Rroll・ωroll2 …(式3)
(式2)と(式3)より、ヨー半径Ryaw及びXZロール半径Rrollxは以下より求めることができる。
 Ryaw=(Vx2・ωroll1-Vx1・ωroll2)/(ωroll1・ωyaw2-ωyaw1・ωroll2
                             …(式4)
 Rrollx=(Vx2・ωyaw1―Vx1・ωyaw2)/(ωyaw1・ωroll2―ωyaw2・ωroll1
                             …(式5)
 なお、Vx1及びVx2は、積分部7041aで算出した速度を用い、ωyaw1、ωyaw2、ωroll1、ωroll2は、回転半径算出部7042に入力されるヨー角速度及びロール角速度を用いる。
 また、Y方向の速度Vyは、ピッチ方向の回転半径(ピッチ半径)Rpitchと、ピッチ角速度ωpitchと、ロール方向の回転半径におけるX-Y平面への射影半径に相当するXYロール半径Rrollyと、ロール角速度ωrollから、同様にして求めることができる。
 速度算出部7043は、回転半径算出部7042で算出した回転半径に基づいて、速度Vxを算出する具体的には、(式4)及び(式5)で表される回転半径(Ryaw,Rrollx)を(式1)に代入することにより、速度Vxを算出する。しかし、速度算出が行われる期間は、シャッタ制御信号に基づいて判別される期間tp1のみである。
 加算部7044は、速度算出部7043にて算出された速度と、積分部7041bで算出された速度変化を加算して並進速度を算出する。この出力は、図5(g)の出力に相当する。本実施形態では、加算部7044、積分部7041b、速度算出部7043、期間制御部7046によって速度算出処理が実行される。
 乗算部7045は、算出されたカメラ本体の並進速度に対し、光学系2に設定されている像倍率を乗算することで、撮像面上の被写体像の並進速度に変換する。光学系2に設定されている像倍率は、通信部705を経由してシステムコントローラ6との通信により通知される。
 期間制御部7046は、シャッタ制御信号に基づき、回転半径算出部7042において回転半径を算出する期間、速度算出部7043において速度を算出する期間tp1、積分部7041bにおいて加速度を時間積分(速度算出部7043が出力する速度に加速度を累積加算)する期間tp2の期間制御を行う。
 通常時、期間制御部は、回転半径算出部7042を算出状態として回転半径を算出するが、撮影が開始されると、t1のタイミングで、回転半径算出部7042に回転半径の算出を停止させ、補正待ち状態にする。
 次に、露光が開始されるt3のタイミングで速度算出部7043にて、回転半径と角速度から並進速度の算出を開始させる。
 次に、シャッタ衝撃が収束するt4のタイミングで速度算出を停止させ、積分部7041bに対して加速度の時間積分を開始させる。これにより、加算部7044からは、t4のタイミング直前で算出した並進速度に対して、積分部7041bで加速度を積分した速度変化が加算される。すなわち、t4時点の並進速度に対して加速度が累積的に加算されていく。
 期間制御部7046は、露光が終了するt5のタイミングで、積分部7041bに積分を終了さるとともに、積分部7041bの積分結果、速度算出部7043の速度算出結果をクリアし、半径算出部7042に回転半径の算出を再開させる。
 なお、並進ブレ補正部704には、入力されるヨー角速度、ロール角速度、X加速度、また、積分部7041a~cの出力の少なくとも1つに対して、低周波除去するためのハイパス処理、あるいは、ゼロ点補正処理を行うこととしてもよい。前述したADC71a~71cの出力、そして、加速度取得部702が出力するX~Z各方向の加速度に対する処理と同様、ここでの処理は1Hz以下の周波数が除去され、加速度センサ9が持つ、温度などの影響によるドリフトの影響が除去される。この並進ブレ補正部704内での処理は、前述したADC71a~71cの出力、そして、加速度取得部702が出力するX~Z各方向の加速度に対する処理にて補正可能な場合、設けなくても良い。
 次に、図8のフローに基づいて並進ブレ補正部704の制御の流れを説明する。処理が開始されると、まず、入力されるシャッタ制御信号に基づいて、撮影中か否かが判定される(S1)。ここでは、先幕制御信号の立ち上がりから後幕信号の立ち下がりまでの間、つまり図5においてt1からt5までの間を撮影中と判定する。
 撮影中で無いと判定された場合は、回転半径算出部7043に対して回転半径を算出させる(S2)と共に、速度算出部7043、積分部7041bの出力を0(リセット)にする(S3)。S2、S3を経由した、並進ブレ量の算出S8では、速度算出部7043、積分部7041bの出力が0であるため、並進ブレ量は算出されない(0となる)。
 一方、S1で撮影中と判定された場合(S1:Yes)は、補正待ち期間か否かを判定する(S4)。補正待ち期間とは、撮影開始t1から補正が開始されるt3の間のことをいう。補正待ち期間の場合(S4:Yes)は、並進ブレ量の算出S8に移行するが、S2、S3を経由した場合と同様、並進ブレ量は算出されない。
 次に、補正待ち期間で無い場合は衝撃期間中かを判定する(S5)。衝撃期間とはtp1のことをいう。衝撃期間中は、前述したように、速度算出部7043において、入力される角速度と、t1の直前に算出された回転半径に基づいて速度を算出する(S6)。S8においては、S6で算出された速度を積分することで、並進ブレ量が算出される。
 一方、衝撃期間で無い場合は、加算部7044にて、速度算出部7043で算出されたt4時点の速度に対して、積分部7041bの積分値を加算する(加速度を累積加算する)ことで速度が算出される(S7)。S8においては、S7で算出された速度を積分することで、並進ブレ量が算出される。
 以上、述べてきたように、シャッタやミラーなど可動部の動作で発生する衝撃により加速度の値が不正確となる期間は、予め算出した回転半径と、角速度により補正量を算出する。そして、加速度が有効になった時点、すなわち、衝撃発生から所定時間経過後は、算出された速度に加速度を累積加算して速度を算出する。したがって、固定した回転半径を使用する期間が過度に長くなったり、加速度の誤差が累積したりすることがなく、誤差の少ない並進速度が算出可能となる。
 以上、本発明のある態様に係る実施形態について説明したが、本発明はこれらの実施形態のみに限られるものではなく、それぞれの実施形態の構成を適宜組み合わせて構成した実施形態も本発明の範疇となる。
1…カメラ(撮像装置)
2…光学系
3…フォーカルプレーンシャッタ
31…先幕
32…後幕
33…光学開口
4…撮像素子
5…駆動部
6…システムコントローラ
7…ブレ補正マイクロコンピュータ
8…角速度センサ
8a…ヨー角速度センサ
8b…ピッチ角速度センサ
8c…ロール角速度センサ
9…加速度センサ
10…レリーズスイッチ
11…EVF(電子ビューファインダ)
12…メモリカード
13…内部フラッシュメモリ
71a~71c…ADC(アナログ・デジタル・コンバータ)
72a、72b…SIO(シリアル入出力)
73…ドライバ
702…加速度取得部
703…角度ブレ補正部
704…並進ブレ補正部
705…通信部
706…加算部
7041a、7041b、7041c…積分部
7042…回転半径算出部
7043…速度算出部
7044…加算部
7045…乗算部
7046…期間制御部

Claims (7)

  1.  筐体の回転運動に関わる角速度を検出する角速度検出部と、
     前記筐体に加わる加速度を検出する加速度検出部と、
     前記角速度と、前記加速度に基づいて、前記筐体の移動量を算出する算出部を備え、
     前記算出部は、
     前記加速度を時間積分した速度変化と、前記角速度から回転半径を算出する回転半径算出処理と、
     露光開始から所定時間は、前記角速度と前記露光開始以前に算出した前記回転半径に基づいて速度を算出し、前記所定時間経過後は、前記所定時間中に算出した前記速度に前記加速度を累積加算して前記速度を算出する速度算出処理と、
     前記速度算出得処理で算出された前記速度を時間積分して前記移動量を算出する移動量算出処理と、を実行することを特徴とする
     ブレ量検出装置。
  2.  前記速度算出処理にて使用される前記回転半径は、撮像開始指示に基づいて動作する可動部による衝撃発生前に、前記回転半径算出処理で算出されたものであることを特徴とする
     請求項1に記載のブレ量検出装置。
  3.  前記速度算出部は、前記回転半径と、移動量の検出対象方向である第1軸方向に垂直な第2軸周りの角速度と、前記第1軸及び前記第2軸に垂直な第3軸周りの角速度に基づいて、前記第1軸方向の前記速度を算出することを特徴とする
     請求項1または請求項2に記載のブレ量検出装置。
  4.  前記速度算出部は、前記回転半径と、移動量の検出対象方向である第2軸方向に垂直な第1軸周りの角速度と、前記第1軸及び前記第2軸に垂直な第3軸周りの角速度に基づいて、前記第2軸方向の前記速度を算出することを特徴とする
     請求項1から請求項3の何れか1項に記載のブレ量検出装置。
  5.  前記所定時間は、前記加速度検出部で検出された前記加速度に基づいて調整されることを特徴とする
     請求項1から請求項4の何れか1項に記載のブレ量検出装置。
  6.  請求項1から請求項5の何れか1項に記載のブレ量検出装置と、
     被写体からの光を被写体像として結像させる光学系と、
     前記光学系により結像された被写体像を映像信号に変換する撮像素子と、
     前記ブレ量検出装置により算出された前記移動量を打ち消す方向に、前記光学系と前記撮像素子の少なくとも一方を駆動する駆動部と、を備えたことを特徴とする
     撮像装置。
  7.  筐体の回転運動に関わる角速度を検出し、
     前記筐体に加わる加速度を検出し、
     前記角速度と、前記加速度に基づいて、前記筐体の移動量を算出する算出処理を実行し、
     前記算出処理は、
     前記加速度を時間積分した速度変化と、前記角速度から回転半径を算出する回転半径算出処理と、
     露光開始から所定時間は、前記角速度と露光開始以前に算出した前記回転半径に基づいて速度を算出し、前記所定時間経過後は、前記所定時間中に算出した前記速度に前記加速度を累積加算して前記速度を算出する速度算出処理と、
     前記速度算出得処理で算出された前記速度を時間積分して前記移動量を算出する移動量算出処理と、を含むことを特徴とする
     ブレ量検出方法。
PCT/JP2013/052907 2012-07-31 2013-02-07 ブレ量検出装置、撮像装置及びブレ量検出方法 WO2014020924A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380002516.3A CN103718097B (zh) 2012-07-31 2013-02-07 抖动量检测装置、拍摄装置和抖动量检测方法
US14/169,746 US9131156B2 (en) 2012-07-31 2014-01-31 Amount-of-shake sensing apparatus, imaging apparatus, and method for detecting the amount of shake

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012170150A JP5965770B2 (ja) 2012-07-31 2012-07-31 ブレ量検出装置、撮像装置及びブレ量検出方法
JP2012-170150 2012-07-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/169,746 Continuation US9131156B2 (en) 2012-07-31 2014-01-31 Amount-of-shake sensing apparatus, imaging apparatus, and method for detecting the amount of shake

Publications (1)

Publication Number Publication Date
WO2014020924A1 true WO2014020924A1 (ja) 2014-02-06

Family

ID=50027625

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/052907 WO2014020924A1 (ja) 2012-07-31 2013-02-07 ブレ量検出装置、撮像装置及びブレ量検出方法

Country Status (4)

Country Link
US (1) US9131156B2 (ja)
JP (1) JP5965770B2 (ja)
CN (1) CN103718097B (ja)
WO (1) WO2014020924A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016194307A1 (en) * 2015-05-29 2016-12-08 Canon Kabushiki Kaisha Shake correction device, image pickup apparatus, and shake correction method
JP2020184006A (ja) * 2019-05-07 2020-11-12 キヤノン株式会社 防振制御装置及び方法、及び撮像システム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6071545B2 (ja) * 2012-12-27 2017-02-01 キヤノン株式会社 撮像装置、画像処理装置及びその制御方法、プログラム、記憶媒体
JP2014126861A (ja) 2012-12-27 2014-07-07 Canon Inc 撮像装置及びその制御方法、プログラム、記憶媒体
JP6454869B2 (ja) * 2014-03-24 2019-01-23 パナソニックIpマネジメント株式会社 撮像装置
JP6312519B2 (ja) * 2014-05-13 2018-04-18 キヤノン株式会社 撮像装置、その制御方法、及びプログラム
KR102031874B1 (ko) * 2014-06-10 2019-11-27 삼성전자주식회사 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
US10142546B2 (en) * 2016-03-16 2018-11-27 Ricoh Imaging Company, Ltd. Shake-correction device and shake-correction method for photographing apparatus
JP1571316S (ja) * 2016-05-17 2017-03-13
JP1571919S (ja) * 2016-05-17 2017-03-21
CN109844632B (zh) * 2016-10-13 2021-03-12 富士胶片株式会社 抖动校正装置、摄像装置及抖动校正方法
JP6622426B2 (ja) * 2016-11-16 2019-12-18 富士フイルム株式会社 メモリカード及び動画再生装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010025961A (ja) * 2008-07-15 2010-02-04 Canon Inc 防振制御装置及び撮像装置
JP2010091672A (ja) * 2008-10-06 2010-04-22 Canon Inc 光学機器及びその制御方法
JP2012128356A (ja) * 2010-12-17 2012-07-05 Nikon Corp ブレ補正装置及び光学機器

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3513950B2 (ja) 1993-12-14 2004-03-31 株式会社ニコン 像振れ補正カメラ
US5794078A (en) * 1995-09-11 1998-08-11 Nikon Corporation Image movement correction of camera
US5978600A (en) * 1997-09-30 1999-11-02 Nikon Corporation Motion compensation device to compensate for motion of an optical system without using motion sensors
US20060072019A1 (en) * 2004-09-29 2006-04-06 Stavely Donald J System and method for detecting image capture device movement with two dual axis linear accelerometers
JP4994756B2 (ja) * 2006-09-14 2012-08-08 キヤノン株式会社 防振制御装置およびそれを備えた光学機器、撮像装置、また防振制御装置の制御方法
JP5181001B2 (ja) * 2010-08-09 2013-04-10 キヤノン株式会社 像振れ補正装置及びその制御方法、及び、像振れ補正装置を搭載した撮像装置及び光学機器
JP5121911B2 (ja) * 2010-10-19 2013-01-16 キヤノン株式会社 防振制御装置、撮像装置、及び防振制御方法
US9077902B2 (en) * 2012-02-27 2015-07-07 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus having camera shake correction function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010025961A (ja) * 2008-07-15 2010-02-04 Canon Inc 防振制御装置及び撮像装置
JP2010091672A (ja) * 2008-10-06 2010-04-22 Canon Inc 光学機器及びその制御方法
JP2012128356A (ja) * 2010-12-17 2012-07-05 Nikon Corp ブレ補正装置及び光学機器

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016194307A1 (en) * 2015-05-29 2016-12-08 Canon Kabushiki Kaisha Shake correction device, image pickup apparatus, and shake correction method
JP2016224204A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 ブレ補正装置、光学機器、撮像装置、ブレ補正方法
US10222679B2 (en) 2015-05-29 2019-03-05 Canon Kabushiki Kaisha Shake correction device, image pickup apparatus, and shake correction method
JP2020184006A (ja) * 2019-05-07 2020-11-12 キヤノン株式会社 防振制御装置及び方法、及び撮像システム
JP7281957B2 (ja) 2019-05-07 2023-05-26 キヤノン株式会社 防振制御装置及び方法、及び撮像システム

Also Published As

Publication number Publication date
US9131156B2 (en) 2015-09-08
JP5965770B2 (ja) 2016-08-10
CN103718097A (zh) 2014-04-09
JP2014029420A (ja) 2014-02-13
CN103718097B (zh) 2016-06-08
US20140146191A1 (en) 2014-05-29

Similar Documents

Publication Publication Date Title
JP5965770B2 (ja) ブレ量検出装置、撮像装置及びブレ量検出方法
US9591223B2 (en) Image blur correction apparatus and imaging apparatus
US9525820B2 (en) Shake amount detection device and imaging device
US7634178B2 (en) Image stabilizing apparatus and image pickup apparatus
JP5094606B2 (ja) 像振れ補正装置およびそれを備えた光学機器、撮像装置、像振れ補正装置の制御方法
US7634181B2 (en) Image stabilizing system and optical apparatus
US9386225B2 (en) Shaking amount detecting apparatus, image pickup apparatus, and shaking amount detecting method
KR101528860B1 (ko) 디지털 촬영 장치의 흔들림 보정 방법 및 장치
JP5977611B2 (ja) ブレ量検出装置、撮像装置及びブレ量検出方法
JP2010025961A (ja) 防振制御装置及び撮像装置
JP5846927B2 (ja) ブレ量検出装置、撮像装置、ブレ量検出方法
JP2010025963A (ja) 防振制御装置及び撮像装置
JP2012128356A (ja) ブレ補正装置及び光学機器
JP2014016451A (ja) 撮像装置、手振れ補正量算出方法、手振れ補正量算出プログラム
JP6024031B2 (ja) ブレ補正装置及び光学機器
JP2013054193A (ja) ブレ補正装置及び光学機器
JP6268981B2 (ja) ブレ補正装置、交換レンズ及びカメラ
JP2012237884A (ja) ブレ補正装置及び光学機器
JP5959315B2 (ja) ブレ量検出装置、撮像装置、ブレ量検出方法
JP5207861B2 (ja) 像振れ補正装置およびそれを具備する撮像装置、光学機器、ならびに像振れ補正装置の制御方法
JP5420042B2 (ja) 像振れ補正装置及びそれを具備する光学機器、撮像装置、ならびに像振れ補正装置の制御方法
JP2013238647A (ja) ブレ補正装置および光学機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13824870

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13824870

Country of ref document: EP

Kind code of ref document: A1