JP2021089387A - Imaging apparatus and control method for the same - Google Patents

Imaging apparatus and control method for the same Download PDF

Info

Publication number
JP2021089387A
JP2021089387A JP2019220517A JP2019220517A JP2021089387A JP 2021089387 A JP2021089387 A JP 2021089387A JP 2019220517 A JP2019220517 A JP 2019220517A JP 2019220517 A JP2019220517 A JP 2019220517A JP 2021089387 A JP2021089387 A JP 2021089387A
Authority
JP
Japan
Prior art keywords
shooting
image
exposure
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019220517A
Other languages
Japanese (ja)
Other versions
JP7401278B2 (en
Inventor
剛 内藤
Takeshi Naito
剛 内藤
晃一 鷲巣
Koichi Washisu
晃一 鷲巣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019220517A priority Critical patent/JP7401278B2/en
Publication of JP2021089387A publication Critical patent/JP2021089387A/en
Application granted granted Critical
Publication of JP7401278B2 publication Critical patent/JP7401278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

To sufficiently ensure an image shake correction range while preventing variations in viewing angle, in an imaging apparatus that can perform a plurality of times of photographing for acquiring images used for image composition.SOLUTION: An imaging apparatus comprises shake detection units 15, 16, and prevents image shake caused by camera shake with the drive of a correction lens 3a constituting an imaging optical system 3 and/or an image pick-up device 6. A shake correction unit 14 comprises a position detection unit 14a that detects the position of a movable unit including the image pick-up device 6, and drives the movable unit based on a position detection signal. In a photographing mode for performing a plurality of times of photographing in different conditions for acquiring images used for image composition, a camera system control unit 5 determines respective photographing conditions (exposure time, exposure start time and the like) in the plurality of times of photographing in accordance with the characteristics of an operation unit that processes the detection signal from the position detection unit 14a or a vibration detection signal.SELECTED DRAWING: Figure 1

Description

本発明は、画像の像ブレを抑制しつつ画像合成に用いる画像取得のための複数回の撮影を行う技術に関する。 The present invention relates to a technique for performing a plurality of times of photographing for image acquisition used for image composition while suppressing image blurring of an image.

画像信号のダイナミックレンジ拡大処理では、例えば、出力条件の異なる複数の信号を合成してハイダイナミックレンジ(以下、HDRとも記す)の画像信号を生成する。撮像装置において、静止画露光期間の異なる複数の画像を合成する撮影が知られており、以下では、HDR撮影と呼ぶ。HDR撮影では複数回の撮影が行われるので、すべての撮影が終了するまでにかかる時間は1枚の画像の撮影にかかる時間に比べて長くなる。 In the dynamic range expansion process of an image signal, for example, a plurality of signals having different output conditions are combined to generate an image signal having a high dynamic range (hereinafter, also referred to as HDR). In an imaging device, shooting that combines a plurality of images having different still image exposure periods is known, and will be referred to as HDR shooting below. Since HDR shooting is performed a plurality of times, the time required to complete all shooting is longer than the time required to shoot one image.

手ぶれ等による撮像画像の画像ブレを補正する像ブレ補正機能を有する撮像装置にてHDR撮影が行われる場合、像ブレ補正を行いつつHDR撮影が可能である。この場合、長時間の像ブレ補正を行う必要があるので、例えば像ブレ補正用レンズ(以下、補正レンズともいう)に係る補正範囲の限界が問題となる。つまり手ぶれ等の検出信号に基づいて撮像光学系内の補正レンズの駆動制御が行われる場合、補正レンズの可動範囲を超えて像ブレ補正を行うことはできない。よって、像ブレ補正量が可動範囲の限界(補正ストローク限界)に到達すると、それ以上の像ブレ補正効果は得られなくなる。 When HDR shooting is performed by an imaging device having an image blur correction function for correcting image blur of an captured image due to camera shake or the like, HDR shooting can be performed while performing image blur correction. In this case, since it is necessary to perform image blur correction for a long time, the limit of the correction range related to, for example, an image blur correction lens (hereinafter, also referred to as a correction lens) becomes a problem. That is, when the drive control of the correction lens in the imaging optical system is performed based on the detection signal such as camera shake, the image shake correction cannot be performed beyond the movable range of the correction lens. Therefore, when the image blur correction amount reaches the limit of the movable range (correction stroke limit), no further image blur correction effect can be obtained.

特許文献1に開示された撮像装置では、補正レンズの位置が可動範囲の限界に近づいた場合、1枚目の分割露光画像の露光を終了して、補正レンズの位置を可動範囲の中心位置に戻すセンタリング処理が行われる。補正レンズを所定の位置に引き戻す動作(以下、センタリング動作という)を行うことで、手ぶれ補正範囲の不足を防ぐことが可能である。 In the image pickup apparatus disclosed in Patent Document 1, when the position of the correction lens approaches the limit of the movable range, the exposure of the first divided exposure image is terminated and the position of the correction lens is set to the center position of the movable range. The centering process to return is performed. By performing an operation of pulling the correction lens back to a predetermined position (hereinafter referred to as a centering operation), it is possible to prevent a shortage of the image stabilization range.

特開2010−78635号公報Japanese Unexamined Patent Publication No. 2010-78635

しかしながら、HDR撮影中に補正レンズのセンタリング動作が行われると、撮影される各画像の位置(画角)が変化するので、HDR撮影画像を作成する際に各画像の位置合わせが必要である。位置合わせのための画像の移動量が大きくなると、同時期に撮影できる画角が小さくなるので、合成画像(HDR画像)の大きさがHDR撮影中にて各撮影で得られた画像の大きさよりも小さくなってしまう。
本発明は、画像合成に用いる画像取得のための複数回の撮影が可能な撮像装置において、画角変動を抑制しつつ像ブレ補正範囲を十分に確保することを目的とする。
However, if the centering operation of the correction lens is performed during HDR shooting, the position (angle of view) of each image to be shot changes, so it is necessary to align each image when creating the HDR shot image. As the amount of movement of the image for alignment increases, the angle of view that can be taken at the same time becomes smaller, so the size of the composite image (HDR image) is larger than the size of the image obtained in each shooting during HDR shooting. Will also be smaller.
An object of the present invention is to secure a sufficient image blur correction range while suppressing fluctuations in the angle of view in an imaging device capable of taking a plurality of times for image acquisition used for image composition.

本発明の一実施形態の撮像装置は、撮像素子により取得される画像の像ブレ補正を行う補正手段と、振れを検出する第1の検出手段の検出信号および前記補正手段の位置を検出する第2の検出手段の位置検出信号を取得して前記補正手段の制御を行う制御手段と、を備える。前記制御手段は、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記複数回の撮影における各撮影の露光時間を前記位置検出信号により決定する。 The image pickup apparatus according to the embodiment of the present invention has a correction means for correcting image blurring of an image acquired by an image pickup device, a detection signal of a first detection means for detecting shake, and a position of the correction means. The control means for acquiring the position detection signal of the detection means 2 and controlling the correction means is provided. The control means determines the exposure time of each shooting in the plurality of shootings by the position detection signal in a shooting mode in which a plurality of shootings are performed under different conditions for acquiring an image used for image composition.

本発明によれば、画像合成に用いる画像取得のための複数回の撮影が可能な撮像装置において、画角変動を抑制しつつ像ブレ補正範囲を十分に確保することができる。 According to the present invention, in an image pickup apparatus capable of taking a plurality of times for image acquisition used for image composition, it is possible to sufficiently secure an image blur correction range while suppressing fluctuations in the angle of view.

本発明の第1実施例における撮像装置の中央断面図およびブロック図である。It is a central sectional view and a block diagram of the image pickup apparatus in the 1st Example of this invention. 本発明の第1実施例における像ブレ補正部の斜視図および分解斜視図である。It is a perspective view and the exploded perspective view of the image blur correction part in the 1st Example of this invention. 本発明の第1実施例における撮影動作説明図である。It is explanatory drawing operation explanatory drawing in 1st Example of this invention. 本発明の第1実施例における制御フローチャートである。It is a control flowchart in 1st Example of this invention. 本発明の第2実施例における撮影動作説明図である。It is explanatory drawing operation explanatory drawing in 2nd Example of this invention. 本発明の第2実施例における制御フローチャートである。It is a control flowchart in 2nd Example of this invention. 本発明の第3実施例における撮影動作説明図である。It is explanatory drawing operation explanatory drawing in 3rd Example of this invention. 本発明の第3実施例における制御フローチャートである。It is a control flowchart in 3rd Example of this invention. 本発明の第4実施例における撮影動作説明図である。It is explanatory drawing operation explanatory drawing in 4th Example of this invention. 本発明の第4実施例における制御フローチャートである。It is a control flowchart in 4th Example of this invention. 本発明の第5実施例における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup apparatus in 5th Example of this invention. 本発明の第5実施例における撮影動作説明図である。It is explanatory drawing operation explanatory drawing in 5th Example of this invention. 本発明の第5実施例における演算部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the arithmetic part in 5th Example of this invention. 本発明の第5実施例における制御フローチャートである。It is a control flowchart in 5th Example of this invention. 本発明の第6実施例における撮影動作説明図である。It is explanatory drawing operation explanatory drawing in the 6th Example of this invention.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。各実施形態ではデジタルカメラやデジタルビデオ等への適用例を示すが、本発明は撮像機能を有する各種電子機器に適用可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Although application examples to digital cameras, digital videos, and the like are shown in each embodiment, the present invention can be applied to various electronic devices having an imaging function.

[第1実施例]
図1から図4を参照して、本実施例の撮像装置について説明する。図1(A)は撮像装置の中央断面図であり、図1(B)は撮像装置の電気的構成を示すブロック図である。撮像装置1は、その本体部にレンズユニット2を装着可能である。図1にはレンズ交換式の撮像装置を例示するが、レンズユニットが撮像装置1の本体部と一体化された構成の撮像装置への適用が可能である。撮像光学系3は複数のレンズ、絞り等の光学部材を備える。図1には撮像光学系3の光軸4を1点鎖線で示している。以下では被写体側を前側と定義して各部の位置関係を説明する。
[First Example]
The imaging apparatus of this embodiment will be described with reference to FIGS. 1 to 4. FIG. 1A is a central sectional view of the image pickup apparatus, and FIG. 1B is a block diagram showing an electrical configuration of the image pickup apparatus. The lens unit 2 can be attached to the main body of the image pickup apparatus 1. Although FIG. 1 exemplifies an image pickup device with an interchangeable lens, it can be applied to an image pickup device having a configuration in which a lens unit is integrated with a main body of the image pickup device 1. The imaging optical system 3 includes a plurality of optical members such as a lens and an aperture. In FIG. 1, the optical axis 4 of the imaging optical system 3 is shown by a alternate long and short dash line. In the following, the subject side is defined as the front side, and the positional relationship of each part will be described.

撮像装置本体部(以下、単に本体部という)は、撮像素子6、背面表示装置9a、EVF(Electronic View Finder)9bを備える。ぶれ補正部14はぶれ検出部15による手ぶれ等の検出信号に基づいて撮像画像の像ブレ補正を行う。 The image pickup device main body (hereinafter, simply referred to as the main body) includes an image sensor 6, a rear display device 9a, and an EVF (Electronic View Finder) 9b. The blur correction unit 14 corrects the image blur of the captured image based on the detection signal such as camera shake by the blur detection unit 15.

撮像装置1の本体部とレンズユニット2は、電気接点11を介して電気的に接続される。この状態において、本体部内のカメラシステム制御部5とレンズユニット2内のレンズシステム制御部12とは互いに通信可能である。 The main body of the image pickup apparatus 1 and the lens unit 2 are electrically connected via the electrical contacts 11. In this state, the camera system control unit 5 in the main body and the lens system control unit 12 in the lens unit 2 can communicate with each other.

図1(B)に示す撮像システムにおいて撮像部は、撮像光学系3、撮像素子6を備える。画像処理部7は撮像素子6の出力する撮像画像信号を処理する。記録再生部はメモリ部8と表示部9を備え、画像データの記録や再生表示等を行う。表示部9は背面表示装置9aとEVF9bを含み、撮像画像等の表示処理を行う。 In the image pickup system shown in FIG. 1 (B), the image pickup unit includes an image pickup optical system 3 and an image pickup element 6. The image processing unit 7 processes the captured image signal output by the image sensor 6. The recording / reproducing unit includes a memory unit 8 and a display unit 9, and records image data, reproduces and displays the image data, and the like. The display unit 9 includes a rear display device 9a and an EVF9b, and performs display processing such as a captured image.

撮像システムの制御部は、カメラシステム制御部5、操作検出部10、レンズシステム制御部12、レンズ側のぶれ補正部13およびぶれ検出部16、本体部側のぶれ補正部14およびぶれ検出部15を備える。レンズユニット2が備えるぶれ補正部13は、像ブレ補正を行う補正レンズ3aを駆動する。レンズユニット2の撮像光学系は、フォーカスレンズや絞り等を備えており、レンズシステム制御部12は不図示のレンズ駆動部により焦点調節や露出動作等の制御を行う。像ブレ補正はレンズユニット2および本体部にてそれぞれ行うことが可能である。 The control units of the imaging system include the camera system control unit 5, the operation detection unit 10, the lens system control unit 12, the lens side blur correction unit 13 and the blur detection unit 16, the main body side blur correction unit 14, and the blur detection unit 15. To be equipped. The blur correction unit 13 included in the lens unit 2 drives a correction lens 3a that corrects image blur. The imaging optical system of the lens unit 2 includes a focus lens, an aperture, and the like, and the lens system control unit 12 controls focus adjustment, exposure operation, and the like by a lens drive unit (not shown). Image blur correction can be performed by the lens unit 2 and the main body, respectively.

ぶれ検出部15,16はそれぞれ、本体部とレンズユニット2に加わる振れ(光軸4に対する回転)を検出可能であり、ジャイロセンサ(角速度センサ)等が使用される。本体部側のぶれ補正部14は撮像素子6を、光軸4に垂直な平面上で駆動させる機構を備える。レンズ側のぶれ補正部13は補正レンズ3aを、光軸4に垂直な平面上で駆動させる機構を備える。 The blur detection units 15 and 16 can detect the vibration (rotation with respect to the optical axis 4) applied to the main body and the lens unit 2, respectively, and a gyro sensor (angular velocity sensor) or the like is used. The blur correction unit 14 on the main body side includes a mechanism for driving the image sensor 6 on a plane perpendicular to the optical axis 4. The blur correction unit 13 on the lens side includes a mechanism for driving the correction lens 3a on a plane perpendicular to the optical axis 4.

レンズユニット2内のぶれ検出部16はレンズユニット2の振れ量を検出する。レンズシステム制御部12はぶれ検出部16の検出信号を取得して、ぶれ補正部13を介して補正レンズ3aの駆動制御を行う。ぶれ補正部13により補正レンズ3aは光軸4に垂直な平面内で駆動される。ぶれ補正部13は、補正レンズ3aの位置検出を行う位置検出部13aを備え、補正レンズ3aの位置検出信号を取得する。 The blur detection unit 16 in the lens unit 2 detects the amount of deflection of the lens unit 2. The lens system control unit 12 acquires the detection signal of the blur detection unit 16 and controls the drive of the correction lens 3a via the blur correction unit 13. The blur correction unit 13 drives the correction lens 3a in a plane perpendicular to the optical axis 4. The blur correction unit 13 includes a position detection unit 13a that detects the position of the correction lens 3a, and acquires a position detection signal of the correction lens 3a.

また、本体部内のぶれ検出部15は本体部の振れ量を検出する。カメラシステム制御部5はぶれ検出部15の検出信号を取得して、ぶれ補正部14を介して撮像素子6の駆動制御を行う。ぶれ補正部14により撮像素子6は光軸4に垂直な平面内で駆動される。ぶれ補正部14は、撮像素子6を含むぶれ補正ユニット(像ブレ補正ユニット)の位置検出を行う位置検出部14aを備え、ぶれ補正ユニットの位置検出信号を取得する。 In addition, the shake detection unit 15 in the main body detects the amount of runout of the main body. The camera system control unit 5 acquires the detection signal of the blur detection unit 15 and controls the drive of the image sensor 6 via the blur correction unit 14. The image sensor 6 is driven by the blur correction unit 14 in a plane perpendicular to the optical axis 4. The blur correction unit 14 includes a position detection unit 14a that detects the position of the blur correction unit (image blur correction unit) including the image sensor 6, and acquires the position detection signal of the blur correction unit.

図1の撮像システムにて被写体からの光は、撮像光学系3を介して撮像素子6の撮像面に結像する。撮像素子6からの信号に基づいて焦点検出状態の評価量や適切な露光量が取得される。カメラシステム制御部5からの指令により、レンズシステム制御部12は撮像光学系3を調整することで、適切な光量の物体光が撮像素子6に露光される。撮像素子6は結像した被写体像に対して光電変換を行い、電気信号を出力する。 In the image pickup system of FIG. 1, the light from the subject is imaged on the image pickup surface of the image pickup device 6 via the image pickup optical system 3. Based on the signal from the image sensor 6, the evaluation amount of the focus detection state and the appropriate exposure amount are acquired. In response to a command from the camera system control unit 5, the lens system control unit 12 adjusts the image pickup optical system 3, so that an object light having an appropriate amount of light is exposed to the image pickup element 6. The image sensor 6 performs photoelectric conversion on the imaged subject image and outputs an electric signal.

画像処理部7は、その内部にA/D変換器、ホワイトバランス調整回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像データを生成することができる。画像処理部7は色補間処理部を備え、ベイヤ配列の信号から色補間(デモザイキング)処理を施してカラー画像を生成する。また、画像処理部7は、予め定められた方法で画像、動画、音声等のデータ圧縮を行う。画像処理部7は、異なる条件での複数回の撮影により取得された画像の合成処理を行い、ダイナミックレンジの拡大された画像信号を生成する処理を行う。さらには、画像処理部7は撮像素子6により取得された複数の画像間の比較結果に基づいてぶれ検出信号を生成することも可能である。この場合、撮像素子6と画像処理部7とで本体部側のぶれ検出手段を構成することができる。 The image processing unit 7 has an A / D converter, a white balance adjustment circuit, a gamma correction circuit, an interpolation calculation circuit, and the like inside, and can generate image data for recording. The image processing unit 7 includes a color interpolation processing unit, and performs color interpolation (demosizing) processing from the signals of the Bayer array to generate a color image. In addition, the image processing unit 7 compresses data such as images, moving images, and sounds by a predetermined method. The image processing unit 7 performs a process of synthesizing images acquired by a plurality of times of shooting under different conditions, and performs a process of generating an image signal having an expanded dynamic range. Further, the image processing unit 7 can also generate a blur detection signal based on the comparison result between the plurality of images acquired by the image sensor 6. In this case, the image sensor 6 and the image processing unit 7 can form a blur detecting means on the main body side.

メモリ部8は不揮発性メモリを備え、取得された画像データを記憶保持する。カメラシステム制御部5の指令にしたがって、画像処理部7からメモリ部8へ信号が出力され、またメモリ部8から読み出された画像データは表示部9の画面に表示されてユーザに提示される。表示部9はカメラシステム制御部5の指令にしたがって、各種の情報表示を行う表示デバイスを備える。背面表示装置9aがタッチパネルを有する場合、ユーザが画面上で行う操作を検出可能であり、接触検出デバイスは操作検出部10に含まれる。 The memory unit 8 includes a non-volatile memory and stores and holds the acquired image data. A signal is output from the image processing unit 7 to the memory unit 8 according to a command from the camera system control unit 5, and the image data read from the memory unit 8 is displayed on the screen of the display unit 9 and presented to the user. .. The display unit 9 includes a display device that displays various types of information in accordance with a command from the camera system control unit 5. When the rear display device 9a has a touch panel, it is possible to detect an operation performed by the user on the screen, and the contact detection device is included in the operation detection unit 10.

カメラシステム制御部5は撮像の際のタイミング信号等を生成して各部に出力する。カメラシステム制御部5は操作検出部10からの操作信号に応じて撮像系、画像処理系、記録再生系の回路部をそれぞれ制御する。例えば、操作検出部10はシャッタレリーズ釦の押下を検出して、操作検出信号をカメラシステム制御部5に出力する。カメラシステム制御部5は撮像素子6の駆動、画像処理部7の動作、圧縮処理等を制御する。操作検出部10によって検出されるユーザ操作に応じて撮像装置1の各部の動作を制御することで、静止画および動画の撮影が可能である。 The camera system control unit 5 generates a timing signal or the like at the time of imaging and outputs it to each unit. The camera system control unit 5 controls the circuit units of the imaging system, the image processing system, and the recording / playback system in response to the operation signal from the operation detection unit 10. For example, the operation detection unit 10 detects the pressing of the shutter release button and outputs an operation detection signal to the camera system control unit 5. The camera system control unit 5 controls driving of the image sensor 6, operation of the image processing unit 7, compression processing, and the like. By controlling the operation of each part of the image pickup apparatus 1 according to the user operation detected by the operation detection unit 10, it is possible to shoot a still image and a moving image.

次に撮像光学系3の調整動作について説明する。画像処理部7は撮像素子6の出力信号に基づき、適切な焦点位置、絞り値を算出する。カメラシステム制御部5は撮像素子6の信号に基づく測光および測距動作の制御を行い、露出条件(Fナンバーやシャッタスピード等)を決定する。 Next, the adjustment operation of the imaging optical system 3 will be described. The image processing unit 7 calculates an appropriate focal position and aperture value based on the output signal of the image sensor 6. The camera system control unit 5 controls the light measurement and distance measurement operations based on the signal of the image sensor 6, and determines the exposure conditions (F number, shutter speed, etc.).

カメラシステム制御部5は、電気接点11を介してレンズシステム制御部12に指令信号を送信し、レンズシステム制御部12はフォーカスレンズ駆動部および絞り駆動部を適切に制御する。さらに、像ブレ補正を行うモードにおいてカメラシステム制御部5は、本体部側のぶれ検出部15から取得した振れ検出信号に基づいて、ぶれ補正部14を適切に制御する。レンズシステム制御部12はカメラシステム制御部5からの指令信号にしたがい、レンズ側のぶれ検出部16から取得した振れ検出信号に基づいて、ぶれ補正部13を適切に制御する。 The camera system control unit 5 transmits a command signal to the lens system control unit 12 via the electrical contact 11, and the lens system control unit 12 appropriately controls the focus lens drive unit and the aperture drive unit. Further, in the mode of performing image blur correction, the camera system control unit 5 appropriately controls the blur correction unit 14 based on the shake detection signal acquired from the blur detection unit 15 on the main body side. The lens system control unit 12 appropriately controls the blur correction unit 13 based on the shake detection signal acquired from the blur detection unit 16 on the lens side according to the command signal from the camera system control unit 5.

像ブレ補正の具体的な制御方法としては、まずカメラシステム制御部5およびレンズシステム制御部12がそれぞれ、本体部側のぶれ検出部15およびレンズ側のぶれ検出部16によって検出された振れ検出信号を取得する。振れ検出信号に基づいてカメラシステム制御部5およびレンズシステム制御部12はそれぞれ、撮像素子6の駆動量および補正レンズ3aの駆動量を算出する。その後、カメラシステム制御部5およびレンズシステム制御部12は算出した駆動量を示す指令値を、本体部側のぶれ補正部14およびレンズ側のぶれ補正部13へそれぞれ送出する。ぶれ補正部14,13はそれぞれの指令値と、位置検出部14a,13aから取得した位置検出信号に基づき、撮像素子6および補正レンズ3aを駆動する。なお、本実施例では、ぶれ補正部および位置検出部が本体部およびレンズユニット2にそれぞれ設けられた例を説明した。この例では本体部側のぶれ補正とレンズ側のぶれ補正とを連携させる制御と、本体部側のぶれ補正とレンズ側のぶれ補正を独立して行う制御とが可能である。この例に限らず、ぶれ補正部および位置検出部が本体部またはレンズユニット2のいずれかに設けられている場合であっても本発明を適用可能である。 As a specific control method for image blur correction, first, the camera system control unit 5 and the lens system control unit 12 have a shake detection signal detected by a blur detection unit 15 on the main body side and a blur detection unit 16 on the lens side, respectively. To get. The camera system control unit 5 and the lens system control unit 12 calculate the drive amount of the image sensor 6 and the drive amount of the correction lens 3a, respectively, based on the shake detection signal. After that, the camera system control unit 5 and the lens system control unit 12 send command values indicating the calculated drive amount to the blur correction unit 14 on the main body side and the blur correction unit 13 on the lens side, respectively. The blur correction units 14 and 13 drive the image sensor 6 and the correction lens 3a based on the respective command values and the position detection signals acquired from the position detection units 14a and 13a. In this embodiment, an example in which the blur correction unit and the position detection unit are provided on the main body unit and the lens unit 2, respectively, has been described. In this example, it is possible to control to link the blur correction on the main body side and the blur correction on the lens side, and to control the blur correction on the main body side and the blur correction on the lens side independently. Not limited to this example, the present invention can be applied even when the blur correction unit and the position detection unit are provided in either the main body unit or the lens unit 2.

ここでHDR撮影について説明する。HDR撮影の際、まずカメラシステム制御部5は、撮影準備時に撮像素子6により得られる露光量に基づいて、撮影時の適切な撮影条件を決定する。撮影条件としてシャッタスピード、絞り値、ISO感度等を決定する処理が実行される。その後、カメラシステム制御部5はダイナミックレンジ拡大処理を行うために、撮影準備時に取得した被写体の適切な明るさに対して、例えば撮影秒時を長秒時、中秒時、短秒時に変更する制御を行う。なお、長秒時、中秒時、短秒時は相対的な表現であり、例えば、3回の撮影の撮影秒時がいずれも一般的に短秒時と考えられる秒時であっても、3回の撮影の撮影秒時の中で一番長い秒時を長秒時、一番短い秒時を短秒時とする。オーバー露出、適正露出、アンダー露出での3枚の画像の撮影制御が行われる。これらの撮影により得られた3枚の撮影画像に基づいてカメラシステム制御部5は画像合成の制御を行い、ダイナミックレンジの拡大されたHDR画像信号が生成される。 Here, HDR shooting will be described. At the time of HDR shooting, the camera system control unit 5 first determines appropriate shooting conditions at the time of shooting based on the exposure amount obtained by the image sensor 6 at the time of preparation for shooting. Processing for determining shutter speed, aperture value, ISO sensitivity, etc. is executed as shooting conditions. After that, in order to perform the dynamic range expansion processing, the camera system control unit 5 changes, for example, the shooting seconds to the long seconds, the middle seconds, and the short seconds with respect to the appropriate brightness of the subject acquired at the time of preparation for shooting. Take control. It should be noted that long seconds, medium seconds, and short seconds are relative expressions. For example, even if the shooting seconds of the three shootings are all considered to be short seconds. Of the three shooting seconds, the longest second is the long second and the shortest second is the short second. Shooting control of three images with overexposure, proper exposure, and underexposure is performed. The camera system control unit 5 controls image composition based on the three captured images obtained by these imaging, and generates an HDR image signal with an expanded dynamic range.

次に図2を参照して、本体部側のぶれ補正部14について説明する。ぶれ補正部14は、撮像素子6を光軸4に対して垂直な平面内で駆動することで、像ブレ補正を行う。図2(A)はぶれ補正部14の斜視図であり、図2(B)はぶれ補正部14の分解斜視図である。座標軸の設定に関して撮像素子6の長辺方向をx軸方向とし、撮像素子6の短辺方向をy軸方向とし、光軸4と平行な方向をz軸方向として定義する。 Next, with reference to FIG. 2, the blur correction unit 14 on the main body side will be described. The blur correction unit 14 corrects image blur by driving the image sensor 6 in a plane perpendicular to the optical axis 4. FIG. 2A is a perspective view of the blur correction unit 14, and FIG. 2B is an exploded perspective view of the blur correction unit 14. Regarding the setting of the coordinate axes, the long side direction of the image sensor 6 is defined as the x-axis direction, the short side direction of the image sensor 6 is defined as the y-axis direction, and the direction parallel to the optical axis 4 is defined as the z-axis direction.

図2(B)に示すぶれ補正部14は可動部と固定部を有する。可動部材20は可動部を構成し、可動部材20には複数の駆動コイル21が設けられている。本実施例では3つの駆動コイル21a〜cを示す。駆動コイル21aは可動部材20をx軸方向(以下、x方向ともいう)に駆動する、x方向駆動コイルである。駆動コイル21b,21cは可動部材20をy軸方向(以下、y方向ともいう)に駆動する、y方向駆動コイルである。3つの駆動コイル21により可動部材20はxy平面内で平行移動が可能であり、z軸を中心とする回転が可能である。 The blur correction unit 14 shown in FIG. 2B has a movable portion and a fixed portion. The movable member 20 constitutes a movable portion, and the movable member 20 is provided with a plurality of drive coils 21. In this embodiment, three drive coils 21a to 21c are shown. The drive coil 21a is an x-direction drive coil that drives the movable member 20 in the x-axis direction (hereinafter, also referred to as the x-direction). The drive coils 21b and 21c are y-direction drive coils that drive the movable member 20 in the y-axis direction (hereinafter, also referred to as the y-direction). The movable member 20 can be translated in the xy plane by the three drive coils 21 and can rotate about the z-axis.

複数の位置検出素子22は、駆動コイル21の位置を検出する素子であり、像ブレ補正ユニットの位置検出部14aを構成する(図1(B)参照)。複数の位置検出素子22a〜cは、各駆動コイル21a〜cの位置検出を行うために各駆動コイルの内側に設けられている。位置検出素子22aは、x方向駆動コイル21aの位置を検出する。位置検出素子22b,22cはy方向駆動コイル21b,21cの位置をそれぞれ検出する。これらの位置検出素子22にはホール素子が使用され、位置検出素子22は後述するマグネットの発生する磁界内の磁束密度の変化を検出することで、可動部材20の位置を検出する。 The plurality of position detection elements 22 are elements that detect the position of the drive coil 21 and constitute the position detection unit 14a of the image blur correction unit (see FIG. 1B). The plurality of position detecting elements 22a to 22c are provided inside each driving coil in order to detect the position of each driving coil 21a to 21c. The position detection element 22a detects the position of the x-direction drive coil 21a. The position detection elements 22b and 22c detect the positions of the y-direction drive coils 21b and 21c, respectively. A Hall element is used for these position detection elements 22, and the position detection element 22 detects the position of the movable member 20 by detecting a change in the magnetic flux density in a magnetic field generated by a magnet, which will be described later.

フレキシブル基板23には駆動コイル21および位置検出素子22が実装され、フレキシブル基板23は不図示の駆動回路と可動部材20とを電気的に接続する。フレキシブル基板23および、実装された駆動コイル21、位置検出素子22、撮像素子6は可動部材20と一体となって、xy平面上で駆動される。つまり、可動部は可動部材20、駆動コイル21、位置検出素子22、フレキシブル基板23を有する。 A drive coil 21 and a position detection element 22 are mounted on the flexible substrate 23, and the flexible substrate 23 electrically connects a drive circuit (not shown) and a movable member 20. The flexible substrate 23, the mounted drive coil 21, the position detection element 22, and the image pickup element 6 are integrally driven with the movable member 20 on the xy plane. That is, the movable portion includes the movable member 20, the drive coil 21, the position detection element 22, and the flexible substrate 23.

固定部材28はぶれ補正部14の固定部を構成し、複数の駆動マグネット24が取り付けられる。図2(B)にて上側(被写体側)ヨーク25と、下側ヨーク29をそれぞれ示す。本実施例では、下側ヨーク29が2つのヨーク29a,29bにより構成される。第1のヨーク29aはx方向駆動コイル21aに対向するヨークであり、第2のヨーク29bはy方向駆動コイル21b,21cに対向するヨークである。2つのヨークから成る構成は例示であって分割数は任意である。または下側ヨークを1つの部材で構成してもよい。 The fixing member 28 constitutes a fixing portion of the blur correction portion 14, and a plurality of drive magnets 24 are attached to the fixing member 28. FIG. 2B shows an upper (subject side) yoke 25 and a lower yoke 29, respectively. In this embodiment, the lower yoke 29 is composed of two yokes 29a and 29b. The first yoke 29a is a yoke facing the x-direction drive coil 21a, and the second yoke 29b is a yoke facing the y-direction drive coils 21b and 21c. The configuration consisting of two yokes is an example, and the number of divisions is arbitrary. Alternatively, the lower yoke may be composed of one member.

複数のスペーサ27は、固定部材28と上側ヨーク25との間隔を一定に維持しつつ、上側ヨーク25を固定部材28に固定するための部材である。スペーサ27は可動部材20が駆動時に駆動限界領域まで移動する前に突き当たる駆動規制部の役割も果たしている。つまり、駆動コイル22は駆動マグネット24が配置された領域よりも外に出て行くまで移動可能である。 The plurality of spacers 27 are members for fixing the upper yoke 25 to the fixing member 28 while maintaining a constant distance between the fixing member 28 and the upper yoke 25. The spacer 27 also serves as a drive regulating unit that abuts the movable member 20 before moving to the drive limit region during driving. That is, the drive coil 22 can move until it goes out of the area where the drive magnet 24 is arranged.

駆動マグネット24は、上側ヨーク25に固定される上側マグネット24a〜fと、下側ヨーク29に固定される下側マグネット24g〜lの、合計12個の永久磁石である。上側マグネット24a〜fが固定された上側ヨーク25はビス等で複数のスペーサ27に締結されて固定部材28に固定される。下側マグネット24g〜lは、固定部材28に形成された開口部に挿入される。z方向(z軸方向)にて下側から下側ヨーク29が固定されることで、下側マグネット24g〜lが位置決めされる。 The drive magnet 24 is a total of 12 permanent magnets, the upper magnets 24a to 24 fixed to the upper yoke 25 and the lower magnets 24g to l fixed to the lower yoke 29. The upper yoke 25 to which the upper magnets 24a to 24 are fixed is fastened to a plurality of spacers 27 with screws or the like and fixed to the fixing member 28. The lower magnets 24 g to l are inserted into the openings formed in the fixing member 28. By fixing the lower yoke 29 from the lower side in the z direction (z axis direction), the lower magnets 24 g to l are positioned.

複数の転動ボール26は、可動部材20と固定部材28との間に配置される転動部材である。固定部材28に対して可動部材20が移動する際、転動ボール26が転動することで、可動部材20は固定部材28に対して、低摩擦の状態で移動することができる。 The plurality of rolling balls 26 are rolling members arranged between the movable member 20 and the fixing member 28. When the movable member 20 moves with respect to the fixed member 28, the rolling ball 26 rolls so that the movable member 20 can move with respect to the fixed member 28 in a state of low friction.

次に、可動部材20の駆動時における各部の役割について説明する。x方向の駆動の場合、x方向駆動コイル21aおよび、x方向駆動コイル21aに対向している駆動マグネット24a,24b,24g,24hを用いて可動部材20がx方向に移動する。駆動マグネット24a,24b,24g,24hによって形成される磁気回路内に配置されたx方向駆動コイル21aへの通電により、x方向駆動コイル21aがローレンツ力を受けるので、可動部材20はx方向に移動する。 Next, the role of each part when the movable member 20 is driven will be described. In the case of driving in the x direction, the movable member 20 moves in the x direction using the drive coil 21a in the x direction and the drive magnets 24a, 24b, 24g, 24h facing the drive coil 21a in the x direction. Since the x-direction drive coil 21a receives Lorentz force by energizing the x-direction drive coil 21a arranged in the magnetic circuit formed by the drive magnets 24a, 24b, 24g, 24h, the movable member 20 moves in the x-direction. To do.

y方向の駆動の場合、y方向駆動コイル21b,21cおよび、y方向駆動コイル21b,21cに対向している駆動マグネット24c,24d,24e,24f,24i,24j,24k,24lを用いて可動部材20がy方向に移動する。駆動マグネット24c,24d,24i,24jによって形成される磁気回路内に配置されたy方向駆動コイル21bへの通電により、y方向駆動コイル21bはy方向のローレンツ力を受ける。駆動マグネット24e,24f,24k,24lによって形成される磁気回路内に配置されたy方向駆動コイル21cへの通電により、y方向駆動コイル21cはy方向のローレンツ力を受ける。y方向駆動コイル21bおよび21cのそれぞれが同じ方向に力を受けるように通電された場合、可動部材20はy方向に平行移動する。また、y方向駆動コイル21bおよび21cのそれぞれが逆方向に力を受けるように通電された場合、可動部材20はz軸を中心軸として回転する。このように、ぶれ補正部14の可動部は、光軸4に対して垂直な平面(xy平面)内において平行移動が可能であり、z軸を中心軸として回転可能である。 In the case of driving in the y direction, the movable members are driven by using the driving coils 21b, 21c in the y direction and the driving magnets 24c, 24d, 24e, 24f, 24i, 24j, 24k, 24l facing the driving coils 21b, 21c in the y direction. 20 moves in the y direction. The y-direction drive coil 21b receives a Lorentz force in the y-direction by energizing the y-direction drive coil 21b arranged in the magnetic circuit formed by the drive magnets 24c, 24d, 24i, 24j. The y-direction drive coil 21c receives a Lorentz force in the y-direction by energizing the y-direction drive coil 21c arranged in the magnetic circuit formed by the drive magnets 24e, 24f, 24k, and 24l. When the y-direction drive coils 21b and 21c are energized so as to receive a force in the same direction, the movable member 20 moves in parallel in the y-direction. Further, when the y-direction drive coils 21b and 21c are energized so as to receive a force in opposite directions, the movable member 20 rotates about the z-axis as a central axis. As described above, the movable portion of the blur correction unit 14 can be translated in a plane (xy plane) perpendicular to the optical axis 4, and can rotate about the z-axis as a central axis.

次に、可動部材20の駆動時の位置検出について説明する。可動部材20のx方向の駆動の場合、位置検出素子22aは駆動マグネット24a,24b,24g,24hによって形成される磁気回路内の磁束密度の変化を検出する。可動部材20がx方向に動いた位置の検出が行われる。同様に、位置検出素子22b,22cは駆動マグネット24c,24d,24e,24f,24i,24j,24k,24lによって形成される磁気回路内の磁束密度の変化を検出する。可動部材20がy方向に動いた位置の検出が行われる。また、位置検出素子22bの出力と位置検出素子22cの出力との差から、z軸回り方向における可動部材20の回転量を検出可能である。このようにして位置検出素子22a〜cは、ぶれ補正部14において可動部の位置および姿勢を検出する。 Next, the position detection of the movable member 20 at the time of driving will be described. In the case of driving the movable member 20 in the x direction, the position detecting element 22a detects a change in the magnetic flux density in the magnetic circuit formed by the driving magnets 24a, 24b, 24g, 24h. The position where the movable member 20 has moved in the x direction is detected. Similarly, the position detecting elements 22b and 22c detect changes in the magnetic flux density in the magnetic circuit formed by the driving magnets 24c, 24d, 24e, 24f, 24i, 24j, 24k and 24l. The position where the movable member 20 has moved in the y direction is detected. Further, the amount of rotation of the movable member 20 in the z-axis direction can be detected from the difference between the output of the position detecting element 22b and the output of the position detecting element 22c. In this way, the position detection elements 22a to 22c detect the position and orientation of the movable portion in the blur correction unit 14.

本実施例では撮像素子6を光軸4に対して垂直な平面内で駆動することにより像ブレ補正を行う例を説明するが、レンズユニット2に設けられた補正レンズ3aを駆動することにより像ブレ補正を行う補正手段にも本発明を適用可能である。 In this embodiment, an example of performing image blur correction by driving the image sensor 6 in a plane perpendicular to the optical axis 4 will be described, but an image will be obtained by driving the correction lens 3a provided in the lens unit 2. The present invention can also be applied to a correction means for performing blur correction.

図3を参照して、本実施例におけるHDR撮影の動作を説明する。図3(A)〜(D)において横軸は時間軸であり、露光開始時刻を起点とする経過時間を表している。なお、本実施例では基本的に、撮影準備状態での像ブレ補正は、レンズ側のぶれ補正部13により行われ、露光開始時刻から本体部側のぶれ補正部14の駆動が行われる。撮影準備状態は、ユーザが所定の操作(所謂シャッタレリーズ釦の半押し操作であり、以下ではS1操作という)によって開始される。ユーザがさらシャッタレリーズ釦を押し下げる全押し操作(以下ではS2操作という)を行うと撮影動作(画像記録動作)が開始される。 The operation of HDR imaging in this embodiment will be described with reference to FIG. In FIGS. 3A to 3D, the horizontal axis is the time axis and represents the elapsed time starting from the exposure start time. In this embodiment, the image blur correction in the shooting preparation state is basically performed by the blur correction unit 13 on the lens side, and the blur correction unit 14 on the main body side is driven from the exposure start time. The shooting preparation state is started by the user by a predetermined operation (a so-called half-pressing operation of the shutter release button, hereinafter referred to as an S1 operation). When the user further presses the shutter release button down (hereinafter referred to as S2 operation), the shooting operation (image recording operation) is started.

図3(A)は縦軸に示すぶれ補正量の時間変化を表している。ぶれ補正量は、ぶれ検出部15により検出された振れ検出信号に基づいて算出された、ぶれ補正部14で補正すべき量であり、グラフ線31はぶれ補正量の時間変化を表している。 FIG. 3A shows the time change of the blur correction amount shown on the vertical axis. The blur correction amount is an amount to be corrected by the blur correction unit 14 calculated based on the shake detection signal detected by the blur detection unit 15, and the graph line 31 represents the time change of the blur correction amount.

図3(B)は縦軸に示すユニット位置の時間変化を表している。ユニット位置は可動部材20の位置であり、像ブレ補正ユニットの位置検出部14aによって検出される。グラフ線32は、ぶれ補正部14の可動部材20の位置の時間変化を表している。なお、以下では簡略化のため、可動部材20の駆動範囲を1次元で図示して説明する。実際には光軸4に対して垂直な平面内で可動部材20を駆動可能である。図中の33aと33bで示す範囲33は、ぶれ補正部14に係る駆動可能範囲を表している。便宜上、駆動可能範囲33の上限を駆動範囲上側端33aと呼び、駆動可能範囲33の下限を駆動範囲下側端33bと呼ぶ。 FIG. 3B shows the time change of the unit position shown on the vertical axis. The unit position is the position of the movable member 20, and is detected by the position detection unit 14a of the image blur correction unit. The graph line 32 represents the time change of the position of the movable member 20 of the blur correction unit 14. In the following, for the sake of simplicity, the drive range of the movable member 20 will be illustrated and described in one dimension. Actually, the movable member 20 can be driven in a plane perpendicular to the optical axis 4. The range 33 indicated by 33a and 33b in the figure represents the driveable range related to the blur correction unit 14. For convenience, the upper limit of the driveable range 33 is referred to as the drive range upper end 33a, and the lower limit of the driveable range 33 is referred to as the drive range lower end 33b.

位置検出部14aによって検出されたユニット位置(グラフ線32)に応じて、HDR撮影の撮影条件を変更する処理が行われる。本実施例では、撮影準備段階にてレンズ側のぶれ補正部13によって像ブレ補正が行われる。そのため、HDR撮影の露光開始時、本体部側のぶれ補正部14の可動部材20はおおよそ駆動可能範囲33の中央に位置しており、露光開始とともに、算出されたぶれ補正量で駆動が行われるように可動部材20が位置制御される。よって、HDR撮影の露光開始時には可動部の駆動可能な余地が最も大きい状態となっている。基本的にはHDR撮影において最も露光時間の長い、長秒露光から撮影を開始するほうが、可動部材20の駆動可能範囲の観点から有利である。したがって、本実施例においても、HDR撮影は長秒露光から撮影が開始されるものとして説明する。 A process of changing the shooting conditions for HDR shooting is performed according to the unit position (graph line 32) detected by the position detection unit 14a. In this embodiment, image blur correction is performed by the blur correction unit 13 on the lens side at the shooting preparation stage. Therefore, at the start of exposure for HDR shooting, the movable member 20 of the blur correction unit 14 on the main body side is located approximately in the center of the driveable range 33, and is driven by the calculated blur correction amount at the start of exposure. The position of the movable member 20 is controlled as described above. Therefore, at the start of exposure for HDR shooting, the movable portion has the largest room for driving. Basically, it is advantageous to start the shooting from the long exposure, which has the longest exposure time in the HDR shooting, from the viewpoint of the driveable range of the movable member 20. Therefore, also in this embodiment, the HDR shooting will be described assuming that the shooting is started from the long exposure.

図3(B)に示す各撮影条件の推移34は、ユニット位置の時間変化(グラフ線32)の各時刻に対するHDR撮影での露光状態を表している。露光開始後、露光時間が長い画像から順番に、長秒露光、中秒露光、短秒露光の3回の撮影が行われる様子を表している。撮影準備状態において決定された長秒露光の撮影が行われた後のユニット位置が、露光開始前と同じように駆動可能範囲33のおおよそ中央に位置していた場合を表している。そして、HDR撮影における1枚目の撮影の次に露光時間の長い、つまり、駆動範囲に余裕を持たせるのが好ましい中秒露光が行われ、その後に短秒露光が行われるシーケンスとなっている。 The transition 34 of each shooting condition shown in FIG. 3B represents the exposure state in HDR shooting for each time of the time change (graph line 32) of the unit position. After the start of the exposure, the images having the longest exposure time are sequentially photographed, that is, the long-second exposure, the medium-second exposure, and the short-second exposure. This represents a case where the unit position after the long-exposure shooting determined in the shooting preparation state is performed is located approximately in the center of the driveable range 33 as in the case before the start of the exposure. Then, after the first shot in HDR shooting, the exposure time is long, that is, the medium-second exposure is preferably performed with a margin in the drive range, and then the short-second exposure is performed. ..

図3(C)は手ぶれ等が検出された場合の、あるHDR撮影の動作を表した図である。図3(C)に示すグラフ線32は位置検出部14aによって検出された可動部材20の位置の時間変化を表している。駆動可能範囲33、駆動範囲上側端33a、駆動範囲下側端33bについては図3(B)にて説明済みである。また、各撮影条件の推移35は、図3(C)の場合の、ユニット位置の時間変化(グラフ線32)の各時刻に対するHDR撮影での露光状態を表している。露光開始後、長秒露光、短秒露光、中秒露光での撮影が行われる様子を表している。 FIG. 3C is a diagram showing a certain HDR shooting operation when camera shake or the like is detected. The graph line 32 shown in FIG. 3C represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 33, the drive range upper end 33a, and the drive range lower end 33b have already been described with reference to FIG. 3 (B). Further, the transition 35 of each shooting condition represents the exposure state in HDR shooting for each time of the time change (graph line 32) of the unit position in the case of FIG. 3C. It shows how long exposure, short exposure, and medium second exposure are performed after the start of exposure.

図3(C)では、撮影準備状態において決定された長秒露光の撮影が行われた後のユニット位置は、駆動範囲上側端33aに近い位置となっている。この場合、次の露光では、駆動範囲が比較的小さくて済む短秒露光が先に実施される。短秒露光後、ユニット位置は長秒露光が行われた直後よりも、像ブレ補正範囲に余裕のある駆動可能範囲の中心に近い位置である。そのため、短秒露光での撮影後に、駆動範囲に余裕が必要な中秒露光が行われるシーケンスとなっている。従来技術では長秒露光後に、ユニット位置(可動部材20の位置)によってはセンタリング動作が行われるので、画角変動が発生する可能性がある。その際、HDR撮影での画像合成時に画角が狭くなってしまうという弊害があった。そこで本実施例では、位置検出部14aによって検出された可動部材20の位置に応じて、HDR撮影の撮影条件を変更する処理が実行される。これにより、画角変動を抑制しつつ、像ブレ補正手段に係る補正範囲の不足の問題を解決可能である。 In FIG. 3C, the unit position after the long-exposure shooting determined in the shooting preparation state is performed is a position close to the upper end 33a of the drive range. In this case, in the next exposure, the short-second exposure, which requires a relatively small drive range, is performed first. After the short exposure, the unit position is closer to the center of the driveable range with a margin in the image blur correction range than immediately after the long exposure. Therefore, it is a sequence in which medium-second exposure, which requires a margin in the drive range, is performed after shooting with short-second exposure. In the prior art, after a long exposure, the centering operation is performed depending on the unit position (position of the movable member 20), so that the angle of view may fluctuate. At that time, there was an adverse effect that the angle of view was narrowed during image composition in HDR shooting. Therefore, in this embodiment, a process of changing the imaging conditions of HDR imaging is executed according to the position of the movable member 20 detected by the position detecting unit 14a. This makes it possible to solve the problem of insufficient correction range related to the image blur correction means while suppressing the fluctuation of the angle of view.

図3(D)は手ぶれ等が検出された場合の、あるHDR撮影の撮影動作を表した図である。図3(D)の縦軸はユニット位置を表し、グラフ線36は位置検出部14aによって検出された可動部材20の位置の時間変化を表している。図3(D)に示す範囲37は、ぶれ補正部14に係る駆動可能範囲を表し、図3(B)、(C)に示す駆動可能範囲33よりも狭い。例えば本体部側のぶれ補正部14の小型化等に伴って、駆動可能範囲を減少させた像ブレ補正ユニットを採用した場合等が挙げられる。 FIG. 3D is a diagram showing a shooting operation of a certain HDR shooting when camera shake or the like is detected. The vertical axis of FIG. 3D represents the unit position, and the graph line 36 represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The range 37 shown in FIG. 3D represents the driveable range related to the blur correction unit 14, and is narrower than the driveable range 33 shown in FIGS. 3B and 3C. For example, there is a case where an image blur correction unit having a reduced driveable range is adopted due to the miniaturization of the blur correction unit 14 on the main body side.

図3(D)に示すグラフ線36は、位置検出部14aによって検出された可動部材20の位置の時間変化を表している。可動部材20の駆動可能範囲37は、駆動範囲上側端37aと駆動範囲下側端37bとの間の範囲である。また、各撮影条件の推移38は、図3(D)の場合の、ユニット位置の時間変化(グラフ線36)の各時刻に対するHDR撮影での露光状態を表している。露光開始後、長秒露光、中秒露光、短秒露光での撮影が行われる様子を表している。 The graph line 36 shown in FIG. 3D represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 37 of the movable member 20 is a range between the upper end 37a of the drive range and the lower end 37b of the drive range. Further, the transition 38 of each shooting condition represents the exposure state in HDR shooting for each time of the time change (graph line 36) of the unit position in the case of FIG. 3D. It shows how long-second exposure, medium-second exposure, and short-second exposure are taken after the start of exposure.

図3(D)にて、撮影準備状態において決定された長秒露光の撮影が行われた後のユニット位置は、駆動範囲上側端37aにほぼ到達している。つまり、これ以上の駆動余裕がない状態となっている。このような場合、その後に露光を行ったとしても、像ブレ補正を十分に行うことができず、ぶれた画像となってしまう。そこで、センタリング動作により、駆動可能範囲37の中心位置へ可動部材20が移動する。その後、長秒露光の次に駆動余裕が必要となる中秒露光で撮影が行われ、その次に短秒露光で撮影が行われる。この場合、従来技術では中秒露光後にセンタリング動作が実施されると画角変動がさらに起きてしまう可能性がある。一方、本実施例では、短秒露光の露光時間と、可動部材20の位置を考慮して、露光時間に対して駆動範囲に余裕がある場合にはセンタリング動作なしで露光が行われる。よって、画角変動が発生せず、HDR撮影全体での画角変動量を抑制することが可能となる。 In FIG. 3D, the unit position after taking a long-exposure image determined in the image preparation state has almost reached the upper end 37a of the drive range. That is, there is no more drive margin. In such a case, even if the exposure is performed after that, the image blur correction cannot be sufficiently performed, resulting in a blurred image. Therefore, the movable member 20 moves to the center position of the driveable range 37 by the centering operation. After that, the long-second exposure is followed by the medium-second exposure, which requires a drive margin, and then the short-second exposure is used. In this case, in the conventional technique, if the centering operation is performed after the medium-second exposure, the angle of view may further fluctuate. On the other hand, in this embodiment, in consideration of the exposure time of the short exposure and the position of the movable member 20, the exposure is performed without the centering operation when there is a margin in the drive range with respect to the exposure time. Therefore, the angle of view variation does not occur, and it is possible to suppress the amount of angle of view variation in the entire HDR shooting.

本実施例では、3枚の画像合成を行うHDR撮影の動作について説明したが、撮影枚数については任意であり、例えば5枚またはそれ以上の枚数の場合でも同様の動作が可能である。また、図3(D)ではユニット位置が駆動可能範囲の端に到達した場合にセンタリング動作を行うことで、次の撮影でのぶれ補正部14の駆動範囲を十分に確保する例を示した。これに限らず、ユニット位置が駆動可能範囲の端に到達した際、撮影を一時中断しても構わない。その後、ユニット位置が次の撮影条件において十分な駆動範囲を有する位置になったところで、次の撮影が行われる(この方法については後述の第4実施例で説明する)。 In this embodiment, the operation of HDR shooting for synthesizing three images has been described, but the number of shots is arbitrary, and the same operation is possible even when the number of shots is 5, for example, 5 or more. Further, FIG. 3D shows an example in which a centering operation is performed when the unit position reaches the end of the driveable range to sufficiently secure the drive range of the blur correction unit 14 in the next shooting. Not limited to this, when the unit position reaches the end of the driveable range, shooting may be temporarily interrupted. After that, when the unit position reaches a position having a sufficient driving range under the next shooting condition, the next shooting is performed (this method will be described in the fourth embodiment described later).

図4を参照して、本実施例におけるHDR撮影の制御例について説明する。図4は本実施例におけるHDR撮影の制御を説明するフローチャートであり、HDR撮影のための撮影準備指示開始(S1操作)とともに処理が開始する。 An example of controlling HDR imaging in this embodiment will be described with reference to FIG. FIG. 4 is a flowchart for explaining the control of HDR shooting in this embodiment, and the processing starts when the shooting preparation instruction for HDR shooting is started (S1 operation).

S4001でカメラシステム制御部5は、ユーザにより撮影開始指示の操作(S2操作)が行われたか否かを判定する。S2操作が行われたことが判定された場合、S4002へ進む。S2操作が行われたと判定されない場合には待機状態となり、S4001の判定処理が繰り返し実行される。 In S4001, the camera system control unit 5 determines whether or not the operation of the shooting start instruction (S2 operation) has been performed by the user. If it is determined that the S2 operation has been performed, the process proceeds to S4002. If it is not determined that the S2 operation has been performed, the standby state is set, and the determination process of S4001 is repeatedly executed.

S4002でカメラシステム制御部5は、撮影準備状態において取得した測光結果等に基づき、HDR撮影における全撮影の撮影条件を決定し、1枚目の撮影に係る撮影条件を設定する。撮影条件は、基本的には露光時間に対応するシャッタスピード、ISO感度、絞り値等である。 In S4002, the camera system control unit 5 determines the shooting conditions for all shooting in HDR shooting based on the photometric results acquired in the shooting preparation state, and sets the shooting conditions for the first shot. The shooting conditions are basically the shutter speed, ISO sensitivity, aperture value, etc. corresponding to the exposure time.

次にS4003の処理へ進み、カメラシステム制御部5は1枚目の撮影処理を開始する。撮影開始とともに、本体部側のぶれ補正部14が駆動を開始して、S4004の処理へ進む。S4004でカメラシステム制御部5は、1枚目の撮影が終了したか否かを判定する。図3で説明したように長秒露光で撮影が行われ、当該撮影が終了したと判定された場合、S4005の処理へ進む。当該撮影が未終了である場合には待機状態となり、S4004の判定処理が繰り返し実行される。 Next, the process proceeds to S4003, and the camera system control unit 5 starts the first shooting process. At the same time as the start of shooting, the blur correction unit 14 on the main body side starts driving and proceeds to the process of S4004. In S4004, the camera system control unit 5 determines whether or not the first image has been photographed. When shooting is performed with a long exposure as described with reference to FIG. 3 and it is determined that the shooting is completed, the process proceeds to S4005. If the shooting is not completed, the standby state is set and the determination process of S4004 is repeatedly executed.

S4005でカメラシステム制御部5は、センタリング動作が必要であるか否かを判定する。センタリング動作が必要であると判定された場合、S4006の処理へ進み、センタリング動作が必要でないと判定された場合にはS4007の処理へ進む。本実施例においては、基本的にセンタリング動作を行わずに次の撮影に移るが、可動部材20が駆動可能範囲の端に、すでに位置する場合等においては、センタリング動作が必要であると判定される。 In S4005, the camera system control unit 5 determines whether or not a centering operation is required. If it is determined that the centering operation is necessary, the process proceeds to S4006, and if it is determined that the centering operation is not necessary, the process proceeds to S4007. In this embodiment, the next shooting is basically performed without performing the centering operation, but when the movable member 20 is already located at the end of the driveable range, it is determined that the centering operation is necessary. To.

S4006でカメラシステム制御部5はセンタリング動作の制御を行い、S4007の処理へ進む。S4007でカメラシステム制御部5は、位置検出部14aの出力および、未撮影の撮影条件に基づき、次の撮影に係る撮影条件を決定し、その撮影条件を設定してからS4008へ進む。例えば、図3(B)で示すように、ユニット位置が駆動可能範囲の中央位置に近い場合、未撮影の撮影条件のうち、最も露光時間の長い中秒露光が選択される。一方、図3(C)に示すように、ユニット位置が駆動可能範囲の端に近い場合には、未撮影の撮影条件のうち、最も露光時間の短い短秒露光が選択される。 In S4006, the camera system control unit 5 controls the centering operation and proceeds to the process of S4007. In S4007, the camera system control unit 5 determines the shooting conditions for the next shooting based on the output of the position detection unit 14a and the shooting conditions that have not been shot, sets the shooting conditions, and then proceeds to S4008. For example, as shown in FIG. 3B, when the unit position is close to the center position of the driveable range, the medium-second exposure with the longest exposure time is selected among the unphotographed shooting conditions. On the other hand, as shown in FIG. 3C, when the unit position is close to the end of the driveable range, the short-second exposure with the shortest exposure time is selected from the unphotographed shooting conditions.

S4008でカメラシステム制御部5は、S4007にて設定した撮影条件で撮影を開始する。次のS4009でカメラシステム制御部5は、ユーザが設定したHDR撮影の撮影枚数分の撮影が完了したか否かを判定する。必要枚数分の撮影が完了したと判定された場合、S4010の処理へ進む。また必要枚数分の撮影が完了していないと判定された場合にはS4005の処理へ戻る。その場合、S4005で再度、センタリング動作の必要性について判定処理が行われたのち、次の撮影条件の決定処理が実行される。 In S4008, the camera system control unit 5 starts shooting under the shooting conditions set in S4007. In the next S4009, the camera system control unit 5 determines whether or not the shooting for the number of HDR shots set by the user has been completed. When it is determined that the required number of shots have been taken, the process proceeds to S4010. If it is determined that the required number of shots have not been taken, the process returns to S4005. In that case, after the determination process for the necessity of the centering operation is performed again in S4005, the determination process for the next shooting condition is executed.

HDR撮影における必要枚数分(図3の例では3枚分)の撮影動作が行われると、S4010でカメラシステム制御部5は、取得された各撮影画像を用いて画像合成処理を実行する。次のS4011でカメラシステム制御部5はセンタリング動作を行うか否かを判定する。センタリング動作を行うと判定された場合、S4012の処理へ進み、センタリング動作を行わないと判定された場合にはS4013の処理へ進む。センタリング動作では画角変動を伴うので、HDR撮影中(S4006)には実施しないほうが好ましい。その理由は、その後の画像合成時の位置ずれが大きくなる可能性があることによる。一方で1回の撮影の実施後にはセンタリング動作を行い、次の撮影時にぶれ補正部14の駆動範囲を広い状態にしておくほうが好ましい場合もある。ただし、HDR撮影をさらに連続で行う場合等においては、画角変動を回避するためにセンタリング動作を行わずに次の撮影へ移行するほうが好ましい。このように、センタリング動作の実施に関しては、ユーザの意図や次の撮影等によって実施の要否が異なる。そこでS4011においてカメラシステム制御部5は、ユーザの設定等にしたがってセンタリング動作の実施の判定を行う。 When the shooting operation for the required number of images in HDR shooting (three images in the example of FIG. 3) is performed, the camera system control unit 5 executes the image composition process using each of the acquired shot images in S4010. In the next S4011, the camera system control unit 5 determines whether or not to perform the centering operation. If it is determined that the centering operation is performed, the process proceeds to S4012, and if it is determined that the centering operation is not performed, the process proceeds to S4013. Since the centering operation involves fluctuations in the angle of view, it is preferable not to perform the centering operation during HDR imaging (S4006). The reason is that the position shift at the time of subsequent image composition may become large. On the other hand, it may be preferable to perform a centering operation after one shooting and to keep the drive range of the blur correction unit 14 wide at the next shooting. However, when HDR shooting is performed continuously, it is preferable to move to the next shooting without performing the centering operation in order to avoid fluctuations in the angle of view. As described above, the necessity of carrying out the centering operation differs depending on the intention of the user, the next shooting, and the like. Therefore, in S4011, the camera system control unit 5 determines the execution of the centering operation according to the user's setting or the like.

S4012でカメラシステム制御部5はセンタリング動作の制御を行い、S4013の処理へ進む。S4013でカメラシステム制御部5は、ユーザの操作入力等にしたがい、撮影の終了判定を行う。撮影を終了することが判定された場合、一連の処理を終了する。撮影を終了しないことが判定された場合にはS4001の処理へ戻る。 In S4012, the camera system control unit 5 controls the centering operation, and proceeds to the process of S4013. In S4013, the camera system control unit 5 determines the end of shooting according to the user's operation input or the like. When it is determined that the shooting is finished, the series of processes is finished. If it is determined that the shooting is not finished, the process returns to S4001.

本実施例では像ブレ補正手段の位置検出部の出力を用いてカメラシステム制御部5がHDR撮影時の撮影条件を変更する。これにより、複数回の撮影および画像合成を行うHDR撮影において、画角変動を抑制しつつ、像ブレ補正手段の補正範囲の不足を防ぐことが可能である。 In this embodiment, the camera system control unit 5 changes the shooting conditions at the time of HDR shooting by using the output of the position detecting unit of the image blur correction means. This makes it possible to prevent the image blur correction means from being insufficient in the correction range while suppressing the fluctuation of the angle of view in the HDR shooting in which the shooting and the image composition are performed a plurality of times.

[第2実施例]
次に図5および図6を参照して、本発明の第2実施例を説明する。本実施例は、第1実施例に対して、撮影準備状態における本体部側のぶれ補正部14の動作が異なる。撮影準備状態においても、ぶれ補正部14が駆動される構成であり、その他の構成に関しては、基本的には第1実施例と同様である。よって、第1実施例との相違点を主に説明し、第1実施例と同様の事項については既に使用した符号や記号を流用することで、それらの詳細な説明を省略する。このような説明の省略方法は後述の実施例でも同じである。
[Second Example]
Next, a second embodiment of the present invention will be described with reference to FIGS. 5 and 6. In this embodiment, the operation of the blur correction unit 14 on the main body side in the shooting preparation state is different from that in the first embodiment. The blur correction unit 14 is driven even in the shooting preparation state, and the other configurations are basically the same as those in the first embodiment. Therefore, the differences from the first embodiment will be mainly described, and the same items as those in the first embodiment will be omitted by diverting the already used symbols and symbols. The method of omitting such a description is the same in the examples described later.

撮影準備状態においてぶれ補正部14が駆動される場合としては、以下の例がある。
・レンズユニット2が像ブレ補正手段を備えていない場合。
・撮影準備状態においてレンズ側のぶれ補正部13と本体部側のぶれ補正部14とが協調して駆動される場合。
いずれの場合でも、S1操作による撮影準備状態において本体部側のぶれ補正部14が駆動される。カメラシステム制御部5は、HDR撮影開始時の位置検出部14aの出力に応じて、HDR撮影における1枚目の撮影条件を決定し、または変更する。
Examples of cases where the blur correction unit 14 is driven in the shooting preparation state include the following examples.
-When the lens unit 2 does not have an image blur correction means.
-When the blur correction unit 13 on the lens side and the blur correction unit 14 on the main body side are driven in cooperation with each other in the shooting preparation state.
In either case, the blur correction unit 14 on the main body side is driven in the shooting preparation state by the S1 operation. The camera system control unit 5 determines or changes the shooting conditions for the first image in HDR shooting according to the output of the position detection unit 14a at the start of HDR shooting.

図5は、本実施例におけるHDR撮影の動作を説明する図である。図5(A)〜(D)の縦軸の設定については図3(A)〜(D)と同様であるが、横軸はS1操作による撮影準備状態からの経過時刻を表している。図5(A)に示すグラフ線51は、本体部側のぶれ検出部15の検出信号に基づいて算出された、ぶれ補正量の時間変化を表している。図5(B)〜(D)の縦軸は、位置検出部14aによって検出された各時刻における可動部材20の位置(ユニット位置)を表している。 FIG. 5 is a diagram illustrating an operation of HDR photographing in this embodiment. The vertical axis settings of FIGS. 5A to 5D are the same as those of FIGS. 3A to 3D, but the horizontal axis represents the elapsed time from the shooting preparation state by the S1 operation. The graph line 51 shown in FIG. 5A represents the time change of the blur correction amount calculated based on the detection signal of the blur detection unit 15 on the main body side. The vertical axis of FIGS. 5 (B) to 5 (D) represents the position (unit position) of the movable member 20 at each time detected by the position detection unit 14a.

図5(B)に示すグラフ線52は、位置検出部14aによって検出された可動部材20の位置の時間変化を表している。可動部材20の駆動可能範囲53は、駆動範囲上側端53aと駆動範囲下側端53bとの間の範囲である。本実施例においても、位置検出部14aによって検出されたユニット位置に応じてHDR撮影の撮影条件を変更する処理が行われる。 The graph line 52 shown in FIG. 5B represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 53 of the movable member 20 is a range between the upper end 53a of the drive range and the lower end 53b of the drive range. Also in this embodiment, a process of changing the shooting conditions of HDR shooting is performed according to the unit position detected by the position detection unit 14a.

図5(B)に示す各撮影条件の推移54は、ユニット位置の時間変化の各時刻に対する、撮影準備(S1)と、HDR撮影での露光状態を表している。露光開始後、露光時間が長い画像から順番に、長秒露光、中秒露光、短秒露光の3回の撮影が行われる様子を表している。図5(B)では、撮影準備状態において像ブレ補正が行われた後のユニット位置が駆動可能範囲53のおおよそ中央に位置していた場合を表している。この場合、HDR撮影が開始されると、露光時間の長い、つまり、駆動範囲に余裕を持たせるのが好ましい長秒露光から露光が開始され、その後の撮影条件はさらにユニット位置を参照しながら決定される。図5(B)では長秒露光終了後においても、ユニット位置は、駆動可能範囲53のおおよそ中央である。そのため、次の撮影条件として中秒露光が選択され、その後に短秒露光が選択される。 The transition 54 of each shooting condition shown in FIG. 5B represents the shooting preparation (S1) and the exposure state in HDR shooting for each time of the time change of the unit position. After the start of the exposure, the images having the longest exposure time are sequentially photographed, that is, the long-second exposure, the medium-second exposure, and the short-second exposure. FIG. 5B shows a case where the unit position after the image blur correction is performed in the shooting preparation state is located approximately in the center of the driveable range 53. In this case, when HDR shooting is started, the exposure is started from a long exposure time, that is, a long exposure that preferably has a margin in the drive range, and the subsequent shooting conditions are further determined with reference to the unit position. Will be done. In FIG. 5B, the unit position is approximately the center of the driveable range 53 even after the end of long exposure. Therefore, medium-second exposure is selected as the next shooting condition, and then short-second exposure is selected.

図5(C)は手ぶれ等が検出された場合の、あるHDR撮影の撮影動作を表した図である。図5(C)の縦軸はユニット位置を表し、グラフ線52は位置検出部14aによって検出された可動部材20の位置の時間変化を表している。駆動可能範囲53、駆動範囲上側端53a、駆動範囲下側端53bは図5(B)にて説明済みである。 FIG. 5C is a diagram showing a shooting operation of a certain HDR shooting when camera shake or the like is detected. The vertical axis of FIG. 5C represents the unit position, and the graph line 52 represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 53, the drive range upper end 53a, and the drive range lower end 53b have already been described with reference to FIG. 5 (B).

図5(C)に示す各撮影条件の推移55は、ユニット位置の時間変化の各時刻に対する、撮影準備(S1)と、HDR撮影での露光状態を表している。撮影準備(S1)の次に短秒露光が行われ、さらに長秒露光、中秒露光が行われる。撮影準備状態において像ブレ補正が行われた後のユニット位置は、駆動範囲上側端53aに近い位置(駆動可能範囲53の限界近傍)となっている。このような場合、次の露光では、駆動範囲が比較的小さくて済む短秒露光を先に実施することが好ましい。さらに、短秒露光後、ユニット位置は像ブレ補正範囲に余裕のある駆動可能範囲53の中心に近い場所に位置している。そのため、短秒露光での撮影後には駆動範囲に余裕が必要な長秒露光が行われ、その後に中秒露光が行われるシーケンスとなっている。 The transition 55 of each shooting condition shown in FIG. 5C represents the shooting preparation (S1) and the exposure state in HDR shooting for each time of the time change of the unit position. After the shooting preparation (S1), a short-second exposure is performed, and then a long-second exposure and a medium-second exposure are performed. The unit position after the image blur correction is performed in the shooting preparation state is a position close to the upper end 53a of the drive range (near the limit of the driveable range 53). In such a case, in the next exposure, it is preferable to first perform a short-second exposure that requires a relatively small drive range. Further, after the short exposure, the unit position is located near the center of the driveable range 53 having a margin in the image blur correction range. Therefore, after shooting with the short-second exposure, the long-second exposure that requires a margin in the drive range is performed, and then the medium-second exposure is performed.

以上のように、撮影準備状態においてぶれ補正部14を駆動して像ブレ補正を行う場合であっても、可動部材20の位置に応じて撮影条件を変更することで画角変動を抑制しつつ、像ブレ補正手段の補正範囲の不足を防ぐことが可能である。 As described above, even when the blur correction unit 14 is driven to perform image blur correction in the shooting preparation state, the angle of view fluctuation is suppressed by changing the shooting conditions according to the position of the movable member 20. , It is possible to prevent the shortage of the correction range of the image blur correction means.

図5(D)は手ぶれ等が検出された場合の、あるHDR撮影の撮影動作を表した図である。図5(D)の縦軸はユニット位置を表し、グラフ線56は位置検出部14aによって検出された可動部材20の位置の時間変化を表している。図5(D)に示す駆動可能範囲57は図5(B)、(C)に示す駆動可能範囲53よりも狭い。これは図3(D)と同様、ぶれ補正部14の小型化等に伴う駆動可能範囲の減少等を表している。 FIG. 5D is a diagram showing a shooting operation of a certain HDR shooting when camera shake or the like is detected. The vertical axis of FIG. 5D represents the unit position, and the graph line 56 represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 57 shown in FIG. 5 (D) is narrower than the driveable range 53 shown in FIGS. 5 (B) and 5 (C). This represents a decrease in the driveable range due to the miniaturization of the blur correction unit 14 and the like, as in FIG. 3D.

図5(D)のグラフ線56に示すように、ユニット位置は駆動可能範囲57内で変化している。撮影準備(S1)の終わりでユニット位置が駆動範囲上側端57aに到達しており、長秒露光後にユニット位置が駆動範囲下側端57bに到達している例を示す。 As shown in the graph line 56 of FIG. 5D, the unit position changes within the driveable range 57. An example is shown in which the unit position reaches the upper end 57a of the drive range at the end of the shooting preparation (S1), and the unit position reaches the lower end 57b of the drive range after long-time exposure.

図5(D)に示す各撮影条件の推移58は、ユニット位置の時間変化の各時刻に対する、撮影準備(S1)と、HDR撮影での露光状態を表している。撮影準備状態において像ブレ補正が行われた後のユニット位置は駆動範囲上側端57aにほぼ到達しており、これ以上の駆動余裕がない状態となっている。このような場合、その後に露光を行ったとしても、像ブレ補正を十分に行うことができず、ぶれた画像となってしまう。そのため、センタリング動作によって、駆動可能範囲57の中心位置へ可動部材20を移動させる処理が行われる。その後、カメラシステム制御部5は長秒露光からHDR撮影を実施する。図5(D)では長秒露光にて可動部材20が駆動範囲下側端57bに到達した状況を表している。その場合、さらにセンタリング動作が行われ、その後にカメラシステム制御部5は中秒露光から撮影を再開する。中秒露光後には、短秒露光を行う際に十分な駆動範囲があるので、カメラシステム制御部5はセンタリング動作の制御を行わずに短秒露光での撮影処理を直ちに実行する。本実施例においては、中秒露光と短秒露光との間ではセンタリング動作なしに撮影が行われるので、この間での画角変動は発生せず、HDR撮影全体での画角変動量を抑制可能である。 The transition 58 of each shooting condition shown in FIG. 5 (D) represents the shooting preparation (S1) and the exposure state in HDR shooting for each time of the time change of the unit position. The unit position after the image blur correction is performed in the shooting preparation state has almost reached the upper end 57a of the drive range, and there is no more drive margin. In such a case, even if the exposure is performed after that, the image blur correction cannot be sufficiently performed, resulting in a blurred image. Therefore, the centering operation performs a process of moving the movable member 20 to the center position of the driveable range 57. After that, the camera system control unit 5 performs HDR shooting from long-second exposure. FIG. 5D shows a situation in which the movable member 20 reaches the lower end 57b of the drive range by long-time exposure. In that case, a centering operation is further performed, and then the camera system control unit 5 resumes shooting from the medium-second exposure. After the medium-second exposure, since there is a sufficient drive range for the short-second exposure, the camera system control unit 5 immediately executes the shooting process in the short-second exposure without controlling the centering operation. In this embodiment, since the shooting is performed between the medium-second exposure and the short-second exposure without the centering operation, the angle of view does not fluctuate between them, and the amount of the angle of view fluctuation in the entire HDR shooting can be suppressed. Is.

次に図6のフローチャートを参照して、本実施例におけるHDR撮影の制御について説明する。図6に示す処理は図4とは異なり、本体部の電源が投入される度に開始される。以下、図4との相違点であるS6001からS6003を主に説明する。 Next, the control of HDR imaging in this embodiment will be described with reference to the flowchart of FIG. Unlike FIG. 4, the process shown in FIG. 6 is started every time the power of the main body is turned on. Hereinafter, S6001 to S6003, which are differences from FIG. 4, will be mainly described.

S6001でカメラシステム制御部5は、撮影準備開始指示(S1操作)の判定を行い、撮影準備開始指示が行われたと判定された場合、S6002の処理へ進む。撮影準備開始指示が行われない間は一時的に待機し、S6001の判定処理が繰り返される。 In S6001, the camera system control unit 5 determines the shooting preparation start instruction (S1 operation), and if it is determined that the shooting preparation start instruction has been given, the process proceeds to the process of S6002. While the shooting preparation start instruction is not given, a temporary standby is performed, and the determination process of S6001 is repeated.

S6002でカメラシステム制御部5は、測光や測距の制御を行うとともに、本体部側のぶれ補正部14の駆動を開始させて像ブレ補正を行う。次のS4001でカメラシステム制御部5は、撮影開始指示(S2操作)を受け付けると、S6003の処理へ進む。S6003でカメラシステム制御部5はHDR撮影の全撮影条件を決定し、S4005の処理へ進む。以降、S4005〜S4013の処理が実行される。 In S6002, the camera system control unit 5 controls light measurement and distance measurement, and also starts driving the blur correction unit 14 on the main body side to perform image blur correction. When the camera system control unit 5 receives the shooting start instruction (S2 operation) in the next S4001, the process proceeds to the process of S6003. In S6003, the camera system control unit 5 determines all the shooting conditions for HDR shooting, and proceeds to the processing of S4005. After that, the processes of S4005 to S4013 are executed.

第1実施例において図4のS4002では1枚目の撮影条件として、基本的には最も露光時間の長い長秒露光が選択される。一方で本実施例では、撮影準備状態においても像ブレ補正が行われるので、その限りではなく、図6のS4007でカメラシステム制御部5は1枚目の撮影条件の決定および設定も行う。 In the first embodiment, in S4002 of FIG. 4, long exposure with the longest exposure time is basically selected as the shooting condition for the first image. On the other hand, in the present embodiment, the image blur correction is performed even in the shooting preparation state, and thus the image blur correction is not limited to this. In S4007 of FIG.

本実施例では、撮影準備状態において本体部側のぶれ補正部14を用いて像ブレ補正が行われる場合、像ブレ補正手段の検出位置に応じてHDR撮影時の撮影条件を変更する。これにより、画角変動を抑制しつつ、像ブレ補正手段の補正範囲の不足を防ぐことが可能である。 In this embodiment, when image blur correction is performed using the blur correction unit 14 on the main body side in the shooting preparation state, the shooting conditions at the time of HDR shooting are changed according to the detection position of the image blur correction means. As a result, it is possible to prevent a shortage of the correction range of the image blur correction means while suppressing the fluctuation of the angle of view.

[第3実施例]
次に図7および図8を参照して、本発明の第3実施例を説明する。本実施例では、撮影モードが連写モードである撮影動作において、複数回のHDR撮影(合成)画像が連続的に取得される。この場合、各合成画像間の画角変動を抑制するために、可能な限り、センタリング動作を行わずに各撮影が行われる。例えば、2枚目以降のHDR撮影(合成画像として2枚目、撮影としては4枚目)においても、引き続き位置検出部14aの出力に基づいて撮影条件の変更処理が実行される。
[Third Example]
Next, a third embodiment of the present invention will be described with reference to FIGS. 7 and 8. In this embodiment, a plurality of HDR shooting (composite) images are continuously acquired in the shooting operation in which the shooting mode is the continuous shooting mode. In this case, in order to suppress the fluctuation of the angle of view between the composite images, each shooting is performed without performing the centering operation as much as possible. For example, even in the second and subsequent HDR shootings (the second shot as a composite image and the fourth shot as a shot), the change processing of the shooting conditions is continuously executed based on the output of the position detection unit 14a.

図7は本実施例におけるHDR撮影の動作を説明する図である。図7(A)〜(D)の横軸および縦軸の設定については、図3と同様であるので詳細な説明を割愛する。図7(A)に示すグラフ線71は、本体部側のぶれ検出部15の検出信号に基づいて算出された、ぶれ補正部14で補正すべきぶれ補正量の時間変化を表している。 FIG. 7 is a diagram illustrating an operation of HDR photographing in this embodiment. The settings of the horizontal axis and the vertical axis of FIGS. 7A to 7D are the same as those of FIG. 3, and detailed description thereof will be omitted. The graph line 71 shown in FIG. 7A represents the time change of the blur correction amount to be corrected by the blur correction unit 14 calculated based on the detection signal of the blur detection unit 15 on the main body side.

図7(B)に示すグラフ線72は、位置検出部14aによって検出された可動部材20の位置の時間変化を表している。可動部材20の駆動可能範囲73は、駆動範囲上側端73aと駆動範囲下側端73bとの間の範囲である。本実施例においてもユニット位置に応じてHDR撮影の撮影条件が変更される。 The graph line 72 shown in FIG. 7B shows the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 73 of the movable member 20 is a range between the upper end 73a of the drive range and the lower end 73b of the drive range. Also in this embodiment, the shooting conditions for HDR shooting are changed according to the unit position.

図7(B)に示す各撮影条件の推移74は、ユニット位置の時間変化の各時刻に対するHDR撮影での露光状態を表している。連写モードにて2回のHDR撮影が行われる様子を示す。露光開始後、露光時間が長い画像から順番に、長秒露光、中秒露光、短秒露光の3回の撮影が行われる。2枚目のHDR撮影でも同様に長秒露光、中秒露光、短秒露光の3回の撮影が行われる。 The transition 74 of each shooting condition shown in FIG. 7B represents the exposure state in HDR shooting for each time of the time change of the unit position. It shows how HDR shooting is performed twice in the continuous shooting mode. After the start of exposure, three times of long exposure, medium exposure, and short exposure are taken in order from the image having the longest exposure time. Similarly, in the second HDR shooting, three shots of long-second exposure, medium-second exposure, and short-second exposure are performed.

図7(B)では、1枚目のHDR撮影(3回の撮影)が行われた後のユニット位置が、駆動可能範囲73のおおよそ中央である場合を表している。この場合、2枚目のHDR撮影を行う場合に駆動範囲に十分余裕があるので、再び長秒露光から撮影が開始される。その後の撮影に係る撮影条件は、さらにユニット位置を参照しながら決定される。図7(B)では2枚目のHDR撮影にて長秒露光の終了後でもユニット位置は、駆動可能範囲73のおおよそ中央の位置である。そのため、次の撮影条件として中秒露光が選択され、その後に短秒露光が選択される。 FIG. 7B shows a case where the unit position after the first HDR shooting (three shootings) is approximately in the center of the driveable range 73. In this case, since there is a sufficient margin in the drive range when performing the second HDR shooting, the shooting is started again from the long exposure. The shooting conditions for the subsequent shooting are further determined with reference to the unit position. In FIG. 7B, the unit position is approximately the center of the driveable range 73 even after the end of the long exposure in the second HDR shooting. Therefore, medium-second exposure is selected as the next shooting condition, and then short-second exposure is selected.

図7(C)は手ぶれ等が検出された場合の、あるHDR撮影の撮影動作を表した図である。グラフ線72は図7(B)と同様であり、可動部材20の位置の時間変化を表している。可動部材20の駆動可能範囲73、駆動範囲上側端73a、駆動範囲下側端73bは図7(B)と同様である。図7(C)に示す各撮影条件の推移75は、ユニット位置の時間変化の各時刻に対するHDR撮影での露光状態を表している。1枚目のHDR撮影(長秒露光、中秒露光、短秒露光での3回の撮影)の後、2枚目のHDR撮影では短秒露光が行われ、その次に長秒露光が行われる。 FIG. 7C is a diagram showing a shooting operation of a certain HDR shooting when camera shake or the like is detected. The graph line 72 is the same as in FIG. 7B, and represents the time change of the position of the movable member 20. The driveable range 73, the drive range upper end 73a, and the drive range lower end 73b of the movable member 20 are the same as in FIG. 7B. The transition 75 of each shooting condition shown in FIG. 7C represents the exposure state in HDR shooting for each time of the time change of the unit position. After the first HDR shot (three shots with long exposure, medium second exposure, and short exposure), the second HDR shot is short exposure, then long exposure. Be struck.

図7(C)では、1枚目のHDR撮影(3回の撮影)が行われた後のユニット位置は、駆動範囲上側端73aに近い位置となっている。この場合、次のHDR撮影においては、駆動範囲が比較的小さくて済む短秒露光を先に実施することが好ましい。図7(C)ではさらに、短秒露光後、ユニット位置が像ブレ補正範囲に余裕のある駆動可能範囲73の中心に近い位置である。そのため、短秒露光での撮影後に、駆動範囲に余裕が必要な長秒露光が行われる。なお、図7(C)では省略しているが、長秒露光の後、中秒露光が行われる。 In FIG. 7C, the unit position after the first HDR shooting (three shootings) is performed is close to the upper end 73a of the drive range. In this case, in the next HDR shooting, it is preferable to first perform a short-second exposure that requires a relatively small drive range. Further, in FIG. 7C, after a short exposure, the unit position is close to the center of the driveable range 73 having a margin in the image blur correction range. Therefore, after shooting with the short exposure, the long exposure that requires a margin in the drive range is performed. Although omitted in FIG. 7C, medium-second exposure is performed after long-second exposure.

以上のように、HDR撮影の連写モードにおいて、可動部材20の位置に応じて撮影条件を変更することで、画角変動を抑制しつつ、像ブレ補正手段の補正範囲の不足を防ぐことが可能となる。 As described above, in the continuous shooting mode of HDR shooting, by changing the shooting conditions according to the position of the movable member 20, it is possible to prevent the shortage of the correction range of the image blur correction means while suppressing the fluctuation of the angle of view. It will be possible.

図7(D)は手ぶれ等が検出された場合の、あるHDR撮影の撮影動作を表した図である。図7(D)に示すグラフ線76は、位置検出部14aによって検出された可動部材20の位置の時間変化を表している。可動部材20の駆動可能範囲77は、駆動範囲上側端77aと駆動範囲下側端77bとの間の範囲であり、図7(B)、(C)に示す駆動可能範囲73よりも狭い。これは図3(D)と同様、ぶれ補正部14の小型化等に伴う駆動範囲の減少等を表している。図7(D)に示す各撮影条件の推移78は、ユニット位置の時間変化の各時刻に対するHDR撮影での露光状態を表している。1枚目のHDR撮影(長秒露光、中秒露光、短秒露光での3回の撮影)の後、2枚目のHDR撮影では長秒露光が行われ、その次に中秒露光が行われる。 FIG. 7D is a diagram showing a shooting operation of a certain HDR shooting when camera shake or the like is detected. The graph line 76 shown in FIG. 7D represents the time change of the position of the movable member 20 detected by the position detection unit 14a. The driveable range 77 of the movable member 20 is a range between the upper end 77a of the drive range and the lower end 77b of the drive range, and is narrower than the driveable range 73 shown in FIGS. 7B and 7C. This represents a decrease in the drive range due to the miniaturization of the blur correction unit 14 and the like, as in FIG. 3 (D). The transition 78 of each shooting condition shown in FIG. 7 (D) represents the exposure state in HDR shooting for each time of the time change of the unit position. After the first HDR shot (three shots with long exposure, medium second exposure, and short exposure), the second HDR shot is a long exposure, followed by a medium second exposure. Be struck.

図7(D)では、1枚目のHDR撮影(3回の撮影)が行われた後のユニット位置が駆動範囲上側端77aにほぼ到達しており、これ以上の駆動余裕がない状態となっている。この場合、その後に露光を行ったとしても、像ブレ補正を十分に行うことができず、ぶれた画像となってしまう。そのため、センタリング動作により、駆動可能範囲77の中心位置へ可動部材20が移動した後に長秒露光から2枚目のHDR撮影が実施される。この場合、センタリング動作により、1枚目のHDR画像と2枚目のHDR画像との間の画角変動が発生し得るが、各HDR画像用の3枚の撮影画像間においてセンタリング動作は行われない。よって、各HDR画像用の3枚の撮影画像間では画角変動は発生せず、各HDR撮影での画角変動量を抑制可能である。 In FIG. 7D, the unit position after the first HDR shooting (three shootings) has almost reached the upper end 77a of the driving range, and there is no more driving margin. ing. In this case, even if the exposure is performed after that, the image blur correction cannot be sufficiently performed, resulting in a blurred image. Therefore, after the movable member 20 is moved to the center position of the driveable range 77 by the centering operation, the second HDR image from the long exposure is performed. In this case, the centering operation may cause an angle of view variation between the first HDR image and the second HDR image, but the centering operation is performed between the three captured images for each HDR image. Absent. Therefore, the angle of view variation does not occur between the three captured images for each HDR image, and the amount of angle of view variation in each HDR imaging can be suppressed.

次に図8のフローチャートを参照して、連写モードでのHDR撮影の制御について説明する。図8では図4と同様、HDR撮影のための撮影準備指示開始(S1操作)とともに処理が開始する。以下、図4との相違点であるS8001およびS8002を主に説明する。 Next, control of HDR shooting in the continuous shooting mode will be described with reference to the flowchart of FIG. In FIG. 8, as in FIG. 4, the process starts when the shooting preparation instruction for HDR shooting is started (S1 operation). Hereinafter, S8001 and S8002, which are differences from FIG. 4, will be mainly described.

S4001でカメラシステム制御部5は撮影開始指示(S2操作)を受け付けた場合、S8001では、HDR撮影の全撮影条件を決定してからS4005の処理へ進む。S4005からS4010の処理が実行された後、S8002の処理へ進む。S8002でカメラシステム制御部5は、HDR撮影の連写を終了するか否かを判定する。連写を終了すると判定された場合、S4011の処理へ進み、連写を終了しないと判定された場合にはS8001の処理へ戻る。 When the camera system control unit 5 receives the shooting start instruction (S2 operation) in S4001, the camera system control unit 5 determines all the shooting conditions for HDR shooting in S8001 and then proceeds to the process of S4005. After the processes of S4005 to S4010 are executed, the process proceeds to the process of S8002. In S8002, the camera system control unit 5 determines whether or not to end the continuous shooting of HDR shooting. If it is determined that the continuous shooting is finished, the process proceeds to S4011, and if it is determined that the continuous shooting is not finished, the process returns to the process of S8001.

第1実施例における図4のS4002では1枚目の撮影条件として、基本的には最も露光時間の長い長秒露光が選択される。一方で本実施例においては、連写モードである場合に必ずしもHDR撮影の1枚目で長秒露光になるとは限らない。そのため、図8のS4007においてカメラシステム制御部5は、1枚目の撮影条件の決定および設定も行う。 In S4002 of FIG. 4 in the first embodiment, a long exposure with the longest exposure time is basically selected as the shooting condition for the first image. On the other hand, in this embodiment, in the continuous shooting mode, the first shot of HDR shooting does not always have a long exposure. Therefore, in S4007 of FIG. 8, the camera system control unit 5 also determines and sets the shooting conditions for the first image.

本実施例では、連写モードでのHDR撮影の場合、ユニット位置に応じてHDR撮影時の撮影条件を変更することで、画角変動を抑制しつつ、像ブレ補正手段の補正範囲の不足を防ぐことが可能である。 In this embodiment, in the case of HDR shooting in the continuous shooting mode, by changing the shooting conditions at the time of HDR shooting according to the unit position, the angle of view fluctuation is suppressed and the correction range of the image blur correction means is insufficient. It is possible to prevent it.

[第4実施例]
次に図9および図10を参照して、本発明の第4実施例を説明する。本実施例では、ぶれ補正部14の可動部材20の位置が駆動可能範囲の端に到達した時点で露光を一時的に中断し、可動部材20が駆動可能範囲の中央に向けて戻ってくるまで待つ処理が行われる。本実施例は第1実施例に対して、撮影のシーケンスが異なる。
[Fourth Example]
Next, a fourth embodiment of the present invention will be described with reference to FIGS. 9 and 10. In this embodiment, the exposure is temporarily interrupted when the position of the movable member 20 of the blur correction unit 14 reaches the end of the driveable range, until the movable member 20 returns toward the center of the driveable range. The waiting process is performed. In this embodiment, the shooting sequence is different from that in the first embodiment.

図9は本実施例におけるHDR撮影の動作を説明する図である。図8(A)および(B)の横軸および縦軸の設定については、図3と同様であるので詳細な説明を割愛する。図9(A)に示すグラフ線91は、本体部側のぶれ検出部15の検出信号に基づいて算出された、ぶれ補正部14で補正すべきぶれ補正量の時間変化を表している。図9(B)に示すグラフ線92は、位置検出部14aによって検出された可動部材20の位置の時間変化を表しており、可動部材20の駆動可能範囲93内で変化している。駆動可能範囲93は駆動範囲上側端93aと駆動範囲下側端93bとの間の範囲である。本実施例においても、位置検出部14aにより検出されたユニット位置に応じてHDR撮影の撮影条件が変更される。図9(B)に示す各撮影条件の推移94は、ユニット位置の時間変化の各時刻に対するHDR撮影での露光状態を表している。長秒露光の後、待機時間をおいて中秒露光が行われ、次に短秒露光が行われる場合を示す。 FIG. 9 is a diagram illustrating the operation of HDR photographing in this embodiment. The settings of the horizontal axis and the vertical axis of FIGS. 8A and 8B are the same as those of FIG. 3, and detailed description thereof will be omitted. The graph line 91 shown in FIG. 9A represents the time change of the blur correction amount to be corrected by the blur correction unit 14 calculated based on the detection signal of the blur detection unit 15 on the main body side. The graph line 92 shown in FIG. 9B represents the time change of the position of the movable member 20 detected by the position detection unit 14a, and changes within the driveable range 93 of the movable member 20. The driveable range 93 is a range between the upper end 93a of the drive range and the lower end 93b of the drive range. Also in this embodiment, the shooting conditions for HDR shooting are changed according to the unit position detected by the position detection unit 14a. The transition 94 of each shooting condition shown in FIG. 9B represents the exposure state in HDR shooting for each time of the time change of the unit position. The case where the medium-second exposure is performed after the long-second exposure with a waiting time, and then the short-second exposure is performed is shown.

図9(B)では、撮影準備状態において決定された長秒露光の撮影が行われた後のユニット位置が、駆動範囲上側端93aに近い位置となった場合を表している。そのままHDR撮影が継続された場合、駆動可能範囲93を超えて可動部材20が移動しない限り、撮影画像がぶれてしまう可能性がある。そこで本実施例では、ユニット位置(グラフ線92参照)が駆動範囲上側端93a(または駆動範囲下側端93b)に到達した場合、次の撮影条件において十分な駆動範囲が確保されるまで、HDR撮影を一時中断するシーケンスが採用される。つまりHDR撮影においてカメラシステム制御部5は、ユニット位置に応じて次の撮影開始時刻(露光開始時刻)を決定する。可動部材20が駆動可能範囲の中央位置へ向けて戻り、次の撮影条件において十分な駆動範囲が確保されると、次の露光(中秒露光)が開始される。 FIG. 9B shows a case where the unit position after the long-exposure shooting determined in the shooting preparation state is performed is close to the upper end 93a of the drive range. If HDR shooting is continued as it is, the shot image may be blurred unless the movable member 20 moves beyond the driveable range 93. Therefore, in this embodiment, when the unit position (see graph line 92) reaches the upper end 93a of the drive range (or the lower end 93b of the drive range), HDR is maintained until a sufficient drive range is secured under the following shooting conditions. A sequence that suspends shooting is adopted. That is, in HDR shooting, the camera system control unit 5 determines the next shooting start time (exposure start time) according to the unit position. When the movable member 20 returns to the center position of the driveable range and a sufficient drive range is secured under the next shooting condition, the next exposure (medium second exposure) is started.

本実施例では、撮影中断後、比較的露光時間の長い中秒露光から撮影を再開する処理が実行されるが、撮影中断後の撮影条件として短秒露光を選択することで、撮影の中断時間をより短くすることも可能である。中秒露光を行うのに十分な駆動範囲は、短秒露光を行うのに十分な駆動範囲に対して大きい。可動部材20の位置は、より駆動範囲の中心であることが望まれる。したがって、撮影中断後、短秒露光を行う場合に比べて、中秒露光を行う場合の方が、より長く撮影が中断する可能性がある。そのような場合には撮影中断後に短秒露光を選択する処理が実行される。 In this embodiment, after the shooting is interrupted, the process of restarting the shooting from the medium-second exposure with a relatively long exposure time is executed. However, by selecting the short-second exposure as the shooting condition after the shooting is interrupted, the shooting interruption time is executed. Can be made shorter. The drive range sufficient for medium-second exposure is large relative to the drive range sufficient for short-second exposure. The position of the movable member 20 is desired to be more centered in the drive range. Therefore, there is a possibility that the shooting will be interrupted for a longer time when the medium-second exposure is performed than when the short-second exposure is performed after the shooting is interrupted. In such a case, a process of selecting a short exposure is executed after the shooting is interrupted.

次に図10のフローチャートを参照して、本実施例におけるHDR撮影の制御について説明する。図4との相違点であるS1101の処理のみ説明する。S4004の次にS1101に進み、カメラシステム制御部5は連続撮影が可能かどうかを判定する。位置検出部14aの出力および未撮影の撮影条件に基づいて、カメラシステム制御部5は次の撮影を行うのに十分な駆動範囲が確保されているかどうかを判定する。連続する次の撮影が可能であると判定された場合、S4007の処理へ進み、既に説明したS4013までの処理が実行される。またS1101にて、次の撮影が可能でないと判定された場合(NOの場合)には、十分な駆動範囲が確保される位置に可動部材20が来るまで撮影を中断する。つまり、S1101で一時待機処理となり、判定処理が繰り返される。 Next, the control of HDR imaging in this embodiment will be described with reference to the flowchart of FIG. Only the processing of S1101, which is a difference from FIG. 4, will be described. Proceeding to S1101 after S4004, the camera system control unit 5 determines whether continuous shooting is possible. Based on the output of the position detection unit 14a and the unphotographed shooting conditions, the camera system control unit 5 determines whether or not a sufficient drive range is secured for the next shooting. When it is determined that the next continuous shooting is possible, the process proceeds to S4007, and the processes up to S4013 already described are executed. If it is determined in S1101 that the next shooting is not possible (NO), the shooting is interrupted until the movable member 20 comes to a position where a sufficient driving range is secured. That is, in S1101, a temporary standby process is performed, and the determination process is repeated.

本実施例では、位置検出部14aの出力に応じてHDR撮影時の各撮影での露光開始時刻を変更する処理が行われる。複数回の撮影および画像合成を行うHDR撮影にて各画像の画角変動を抑制しつつ、像ブレ補正手段の補正範囲の不足を防ぐことが可能である。 In this embodiment, a process of changing the exposure start time in each shooting during HDR shooting is performed according to the output of the position detection unit 14a. It is possible to prevent the shortage of the correction range of the image blur correction means while suppressing the fluctuation of the angle of view of each image in the HDR shooting in which the shooting and the image composition are performed a plurality of times.

[第5実施例]
次に図11から図14を参照して、本発明の第5実施例について説明する。図11は本実施例の撮像装置111の断面構成と像ブレ補正システムの簡易的な制御ブロックを示す図である。撮像装置111の本体部111aと、本体部111aに着脱可能な交換レンズ111bとで構成される撮像システムの例を示す。
[Fifth Example]
Next, a fifth embodiment of the present invention will be described with reference to FIGS. 11 to 14. FIG. 11 is a diagram showing a cross-sectional configuration of the image pickup apparatus 111 of this embodiment and a simple control block of the image blur correction system. An example of an imaging system including a main body 111a of the imaging device 111 and an interchangeable lens 111b that can be attached to and detached from the main body 111a is shown.

本体部111aはカメラCPU112aを備え、交換レンズ111bはレンズCPU112bを備える。カメラCPU112aは撮影者による撮影指示操作等の信号に応答して撮影動作や像ブレ補正の制御を行う。本体部111aに装着された交換レンズ111bのレンズCPU112bは、カメラCPU112aからの指令信号に応答して交換レンズ111b内のレンズ動作(焦点調節動作等)の制御を行う。例えば撮像光学系におけるレンズの一部は焦点調節部113を構成している。本体部111aからの焦点状態検出信号に基づく指令に応答してフォーカスレンズが移動して焦点調節が行われる。 The main body 111a includes a camera CPU 112a, and the interchangeable lens 111b includes a lens CPU 112b. The camera CPU 112a controls the shooting operation and image blur correction in response to a signal such as a shooting instruction operation by the photographer. The lens CPU 112b of the interchangeable lens 111b mounted on the main body 111a controls the lens operation (focus adjustment operation, etc.) in the interchangeable lens 111b in response to a command signal from the camera CPU 112a. For example, a part of the lens in the imaging optical system constitutes the focus adjusting unit 113. The focus lens moves in response to a command based on the focus state detection signal from the main body 111a to adjust the focus.

図11において撮像光学系の光軸110を1点鎖線で示す。被写体から光は撮像光学系を通して撮像素子114に入射する。撮像素子114は、被写体像に対して光電変換を行って電気信号を出力する。 In FIG. 11, the optical axis 110 of the imaging optical system is shown by a alternate long and short dash line. Light from the subject enters the image sensor 114 through the image pickup optical system. The image sensor 114 performs photoelectric conversion on the subject image and outputs an electric signal.

角速度計115は振動検出手段であり、撮像装置111に加わる振れ(矢印15a参照)の角速度を検出して検出信号を出力する。信号処理部116は角速度計115の検出信号を取得して像ブレ補正に用いるブレ補正目標値を算出する。ブレ補正目標値は駆動部114aに入力され、駆動部114aは撮像素子114を矢印114bの方向に移動させる。これにより撮像面に沿う方向の像ブレ補正が行われる。 The angular velocity meter 115 is a vibration detecting means, detects the angular velocity of the runout (see arrow 15a) applied to the image pickup apparatus 111, and outputs a detection signal. The signal processing unit 116 acquires the detection signal of the angular velocity meter 115 and calculates the blur correction target value used for image blur correction. The blur correction target value is input to the drive unit 114a, and the drive unit 114a moves the image sensor 114 in the direction of the arrow 114b. As a result, image blur correction in the direction along the imaging surface is performed.

本体部111aにおいて撮像素子114と駆動部114aは像ブレ補正手段を構成している。尚、角速度計115は矢印115aとは異なる方向の振れの角速度も検出して検出信号を出力する。その検出信号に対しても信号処理部116は適宜にブレ補正目標値を算出する。そして駆動部114aは算出されたブレ補正目標値に応じて撮像素子114を適した方向に移動させることで、その方向の像ブレ補正が行われる。 In the main body 111a, the image sensor 114 and the driving unit 114a form an image blur correction means. The angular velocity meter 115 also detects the angular velocity of the runout in a direction different from that of the arrow 115a and outputs a detection signal. The signal processing unit 116 also appropriately calculates a blur correction target value for the detected signal. Then, the drive unit 114a moves the image sensor 114 in a suitable direction according to the calculated blur correction target value, so that image blur correction in that direction is performed.

静止画露光部118は、被写体の明るさに応じた露光時間や絞り値、ISO感度等を設定するとともに、露光タイミングの信号をカメラCPU112aに送信する。カメラCPU112aは、特にHDR撮影において被写体の主たる明るさに対して撮影秒時を長秒時、中秒時、短秒時に変更する処理を行う。これにより、オーバー露出、適正露出、アンダー露出での3枚の撮影制御が行われる。露光制御部117は信号処理部116からの後述する時定数情報に基づいてHDR撮影の撮影秒時を設定し、静止画露光部118に出力する。画像処理部119は撮像素子114から露光後の撮像信号を取得して画像処理を行う。 The still image exposure unit 118 sets the exposure time, aperture value, ISO sensitivity, etc. according to the brightness of the subject, and transmits the exposure timing signal to the camera CPU 112a. The camera CPU 112a performs a process of changing the shooting seconds to the long seconds, the middle seconds, and the short seconds with respect to the main brightness of the subject, especially in HDR shooting. As a result, three shooting controls of overexposure, proper exposure, and underexposure are performed. The exposure control unit 117 sets the shooting seconds of HDR shooting based on the time constant information described later from the signal processing unit 116, and outputs the HDR shooting to the still image exposure unit 118. The image processing unit 119 acquires an image pickup signal after exposure from the image pickup element 114 and performs image processing.

図12はHDR撮影における像ブレ補正手段の動きを説明する図である。上側にはHDR撮影における各撮影条件の推移を示す。下側に示すグラフの横軸は時間軸であり、1枚目の撮像に係る露光開始時点から経過時間を表す。縦軸は像ブレ補正量を表す。グラフ線121は像ブレ補正手段の軌跡を表している。 FIG. 12 is a diagram illustrating the movement of the image blur correction means in HDR shooting. The upper side shows the transition of each shooting condition in HDR shooting. The horizontal axis of the graph shown on the lower side is the time axis, and represents the elapsed time from the start of exposure related to the first imaging. The vertical axis represents the image blur correction amount. The graph line 121 represents the locus of the image blur correction means.

図13は、図11における演算部の概略ブロック図である。信号処理部116はハイパスフィルタ(以下、HPFとも記す)116a、積分器116b、調整器116cを備える。角速度計115の出力信号は、HPF116aが取得して処理することにより、低周波成分が減衰する。積分器116bは手ぶれ等の角速度信号を積分して角度信号に変換する。この角度信号は調整器116cにより、交換レンズ111bのレンズ焦点距離等の光学条件に応じて利得調整されてブレ補正目標値に変換される。 FIG. 13 is a schematic block diagram of the calculation unit in FIG. The signal processing unit 116 includes a high-pass filter (hereinafter, also referred to as HPF) 116a, an integrator 116b, and a regulator 116c. The output signal of the angular velocity meter 115 is acquired and processed by the HPF 116a, so that the low frequency component is attenuated. The integrator 116b integrates an angular velocity signal such as camera shake and converts it into an angular signal. This angle signal is gain-adjusted by the adjuster 116c according to optical conditions such as the lens focal length of the interchangeable lens 111b and converted into a blur correction target value.

ハイパスフィルタ116aはその特性を変更可能である。具体的にはHPF116aの時定数が可変である。その時定数により、角速度計115の検出信号に含まれる低周波成分の減衰能力が変更可能である。なお、HPF116aの時定数の変更処理のひとつとして、HPF116aを通さない場合(HPF116aの時定数が無限に大きいことに相当する)があっても構わない。この場合、角速度計115の検出信号は、オフセット成分を減算する処理が実行されたのち、積分器116bが角速度信号を角度信号に変換する。HPF116aを通さない場合には、角速度計115の検出信号に含まれる低周波成分が減衰されることはない。そのため、撮影者によるゆっくりとした手ぶれに対しても像ブレ補正が可能になる。その一方で、角速度計115の検出信号からオフセット成分を正確に差し引くことができないと、低周波ノイズ成分の影響が大きくなる。 The characteristics of the high-pass filter 116a can be changed. Specifically, the time constant of HPF116a is variable. Depending on the time constant, the attenuation capability of the low frequency component included in the detection signal of the angular velocity meter 115 can be changed. As one of the processes for changing the time constant of the HPF116a, there may be a case where the HPF116a is not passed (corresponding to an infinitely large time constant of the HPF116a). In this case, the detection signal of the angular velocity meter 115 is subjected to the process of subtracting the offset component, and then the integrator 116b converts the angular velocity signal into an angular signal. When it does not pass through the HPF116a, the low frequency component contained in the detection signal of the angular velocity meter 115 is not attenuated. Therefore, image shake correction is possible even for slow camera shake caused by the photographer. On the other hand, if the offset component cannot be accurately subtracted from the detection signal of the angular velocity meter 115, the influence of the low frequency noise component becomes large.

ハイパスフィルタ116aの時定数を変化させることのメリットおよびデメリットを、以下に示す。
(1)時定数を大きくすること。
長秒時の撮影でも高い防振(像ブレ補正)精度が得られる。像ブレ補正手段の向心力が弱く、手ぶれの状態や角速度計115の低周波ノイズ等により、像ブレ補正手段がその補正ストローク限界に近づく。
(2)時定数を小さくすること。
像ブレ補正手段の向心力が強く、像ブレ補正手段がその補正中心(補正範囲の中心位置)に近づく。長秒時の撮影では高い防振精度が得られない。
このようなハイパスフィルタ116aの可変特性を活かして、図12にグラフに併記されている様にハイパスフィルタ116aの時定数が設定される。
The advantages and disadvantages of changing the time constant of the high-pass filter 116a are shown below.
(1) Increase the time constant.
High vibration isolation (image blur correction) accuracy can be obtained even when shooting for a long time. The centripetal force of the image shake correction means is weak, and the image shake correction means approaches the correction stroke limit due to a camera shake condition, low frequency noise of the angular velocity meter 115, or the like.
(2) Make the time constant small.
The centripetal force of the image blur correction means is strong, and the image blur correction means approaches the correction center (center position of the correction range). High anti-vibration accuracy cannot be obtained when shooting for a long time.
Taking advantage of such variable characteristics of the high-pass filter 116a, the time constant of the high-pass filter 116a is set as shown in the graph in FIG.

図12において矢印122aで示す期間ではHPF116aの時定数が「大」である。撮像装置の像ブレ補正能力は高いが、グラフ線121は次第に像ブレ補正の補正ストローク限界123(破線参照)に近づいていく。矢印122bで示す期間ではHPF116aの時定数が「中」である。撮像装置の像ブレ補正能力は時定数「大」の場合より低く、グラフ線121が補正ストローク限界123を超えることはない。矢印122cで示す期間ではHPF116aの時定数が「小」である。撮像装置の像ブレ補正能力は時定数「中」の場合より低く、グラフ線121は補正中心(補正範囲の中心位置)に戻っていく。 In FIG. 12, the time constant of HPF116a is “large” during the period indicated by the arrow 122a. Although the image blur correction ability of the image pickup apparatus is high, the graph line 121 gradually approaches the correction stroke limit 123 (see the broken line) for image blur correction. The time constant of HPF116a is "medium" during the period indicated by the arrow 122b. The image blur correction ability of the image pickup apparatus is lower than that in the case of the time constant "large", and the graph line 121 does not exceed the correction stroke limit 123. The time constant of HPF116a is "small" during the period indicated by the arrow 122c. The image blur correction ability of the image pickup apparatus is lower than that in the case of the time constant "medium", and the graph line 121 returns to the correction center (center position of the correction range).

本実施例は図12に示す様に、時定数の「大中小中」をひと組(時定数セット)にして繰り返す構成である。これにより、像ブレ補正量(グラフ線121参照)を像ブレ補正の補正ストローク限界123以内に収めることができる。 As shown in FIG. 12, this embodiment has a configuration in which the time constants "large, medium, small, and medium" are repeated as a set (time constant set). As a result, the image blur correction amount (see graph line 121) can be kept within the correction stroke limit 123 of the image blur correction.

図12に矢印122aで示す期間(時定数「大」)でカメラCPU112aは長秒時の静止画露光(画像124a)の制御を行う。長秒時の撮影の場合、暗い被写体でも少ないノイズで撮影可能である。矢印122bで示す期間(時定数「中」)でカメラCPU112aは中程度の秒時(中秒時)で静止画露光(画像124b)の制御を行う。適正露出の被写体に対して最適な撮影が行われる。また中秒時の静止画撮影時間は、長秒時の静止画露光時間に比べると短いので、像ブレ補正性能の低下は画像には現れにくい。矢印122cで示す期間(時定数「小」)でカメラCPU112aは短秒時で静止画露光(画像124c)の制御を行う。明るい被写体に対して画像信号の飽和なく最適な撮影が行われる。また短秒時の静止画撮影時間は、中秒時の静止画露光時間に比べると短いので、像ブレ補正性能の低下は画像にはさらに現れにくい。 The camera CPU 112a controls the still image exposure (image 124a) for a long time during the period indicated by the arrow 122a in FIG. 12 (time constant “large”). When shooting for a long time, even a dark subject can be shot with less noise. During the period indicated by the arrow 122b (time constant “medium”), the camera CPU 112a controls the still image exposure (image 124b) in medium seconds (medium seconds). Optimal shooting is performed for a subject with proper exposure. Further, since the still image shooting time at medium seconds is shorter than the still image exposure time at long seconds, the deterioration of the image blur correction performance is unlikely to appear in the image. The camera CPU 112a controls the still image exposure (image 124c) in a short time during the period indicated by the arrow 122c (time constant “small”). Optimal shooting is performed for bright subjects without saturation of the image signal. Further, since the still image shooting time at short seconds is shorter than the still image exposure time at medium seconds, the deterioration of the image blur correction performance is less likely to appear in the image.

こうして撮影された3枚の画像は公知の位置合わせ技術で位置合わせが行われてから合成され、ダイナミックレンジの広い画像(HDR画像)が得られる。また像ブレ補正手段の位置は補正ストローク限界内に収まっているので、各撮影において像ブレ補正量の範囲が不足することなく、良好な像ブレ補正を実行可能である。 The three images taken in this way are aligned by a known alignment technique and then combined to obtain an image having a wide dynamic range (HDR image). Further, since the position of the image blur correction means is within the correction stroke limit, good image blur correction can be performed without the range of the image blur correction amount being insufficient in each shooting.

上記3枚の撮影以降においてもHPF116aの時定数に合わせて静止画露光期間が設定される。すなわち、時定数が「大」の期間では長秒露光、時定数が「中」の期間では中秒露光、時定数が「小」の期間では短秒露光が行われる。取得された各画像を互いに重なるように合成することでHDR画像を連続して生成することができる。 Even after the above three shots are taken, the still image exposure period is set according to the time constant of HPF116a. That is, long-second exposure is performed during the period when the time constant is "large", medium-second exposure is performed during the period when the time constant is "medium", and short-second exposure is performed during the period when the time constant is "small". HDR images can be continuously generated by synthesizing the acquired images so as to overlap each other.

図12の画像例により、具体的に説明すると、各画像は以下のとおりである。
・長秒露光での撮影により取得される画像124a,124e,124i。
・中秒露光での撮影により取得される画像124b,124d,124f,124h。
・短秒露光での撮影により取得される画像124c,124g。
画像124a,124b,124cの合成により1枚目のHDR画像が生成され、画像124c,124d,124eの合成により2枚目のHDR画像が生成される。画像124e,124f,124gの合成により3枚目のHDR画像が生成され、画像124g,124h,124iの合成により4枚目のHDR画像が生成される。画像の一部を共有して合成することでHDR画像の高速な連写が可能となる。
More specifically, each image is as follows with reference to the image example of FIG.
-Images 124a, 124e, 124i acquired by shooting with long exposure.
-Images 124b, 124d, 124f, 124h acquired by shooting with medium-second exposure.
-Images 124c and 124g acquired by shooting with short exposure.
The first HDR image is generated by synthesizing the images 124a, 124b, 124c, and the second HDR image is generated by synthesizing the images 124c, 124d, 124e. A third HDR image is generated by synthesizing the images 124e, 124f, and 124g, and a fourth HDR image is generated by synthesizing the images 124g, 124h, and 124i. By sharing and synthesizing a part of the image, high-speed continuous shooting of HDR images becomes possible.

図14のフローチャートを参照して、本実施例におけるHPF116aの時定数と撮影条件との関係について説明する。以下の処理はHDR撮影のための連写の開始とともに開始され、カメラCPU112aが所定のプログラムを実行することにより実現される。 The relationship between the time constant of HPF116a and the shooting conditions in this embodiment will be described with reference to the flowchart of FIG. The following processing is started at the same time as the start of continuous shooting for HDR shooting, and is realized by the camera CPU 112a executing a predetermined program.

S1401でカメラCPU112aは、HPF116aの時定数を「大」に設定する。S1402では長秒時の静止画露光が行われる。S1403でカメラCPU112aは長秒露光での撮影が終了したか否かを判定する。長秒露光での撮影が終了したと判定された場合、S1404の処理に進む。長秒露光での撮影が終了しない間は、S1402に戻って長秒露光が継続する。 In S1401, the camera CPU 112a sets the time constant of the HPF116a to "large". In S1402, a still image exposure for a long time is performed. In S1403, the camera CPU 112a determines whether or not the shooting with the long exposure is completed. When it is determined that the shooting with the long exposure is completed, the process proceeds to S1404. While the shooting with the long exposure is not completed, the process returns to S1402 and the long exposure continues.

S1404では、撮像素子114からの画像信号を画像処理部119に取り込む処理が実行される。S1405では今回撮影された長秒露光時の静止画像と、それ以前に撮影された中秒露光時と短秒露光時の2枚の静止画像との合成処理が実行される。但し、連写の1枚目の撮影では中秒露光時、短秒露光時の各静止画像は取得されていないので、合成処理は行われない。 In S1404, a process of capturing the image signal from the image sensor 114 into the image processing unit 119 is executed. In S1405, the compositing process of the still image at the time of long exposure taken this time and the two still images at the time of medium second exposure and the time of short exposure taken before that is executed. However, in the first continuous shooting, the still images at the time of medium-second exposure and the time of short-second exposure are not acquired, so the compositing process is not performed.

S1406でカメラCPU112aはHPF116aの時定数を「中」に設定する。S1407では中秒時の静止画露光が行われる。S1408でカメラCPU112aは中秒露光での撮影が終了したか否かを判定する。中秒露光での撮影が終了したと判定された場合、S1409の処理に進む。中秒露光での撮影が終了しない間は、S1407に戻って中秒露光が継続する。 In S1406, the camera CPU 112a sets the time constant of the HPF116a to "medium". In S1407, a still image exposure at a medium second time is performed. In S1408, the camera CPU 112a determines whether or not the shooting with the medium-second exposure is completed. When it is determined that the shooting with the medium-second exposure is completed, the process proceeds to S1409. While the shooting with the medium-second exposure is not completed, the process returns to S1407 and the medium-second exposure continues.

S1409では撮像素子114からの画像信号を画像処理部119に取り込む処理が実行される。S1410でカメラCPU112aはHPF116aの時定数を「小」に設定する。S1411では短秒時の静止画露光が行われる。S1412でカメラCPU112aは短秒露光での撮影が終了したか否かを判定する。短秒露光での撮影が終了したと判定された場合、S1413の処理に進む。短秒露光での撮影が終了しない間は、S1411に戻って短秒露光が継続する。 In S1409, a process of capturing the image signal from the image sensor 114 into the image processing unit 119 is executed. In S1410, the camera CPU 112a sets the time constant of the HPF116a to "small". In S1411, still image exposure is performed in a short time. In S1412, the camera CPU 112a determines whether or not the shooting with the short exposure is completed. When it is determined that the shooting with the short exposure is completed, the process proceeds to S1413. While the shooting with the short exposure is not completed, the process returns to S1411 and the short exposure continues.

S1413では撮像素子114からの画像信号を画像処理部119に取り込む処理が実行される。S1414では今回撮影された短秒時の静止画像と、それ以前に撮影された中秒露光時と長秒露光時の2枚の静止画像との合成処理が実行される。 In S1413, a process of capturing the image signal from the image sensor 114 into the image processing unit 119 is executed. In S1414, the compositing process of the short-second still image taken this time and the two still images taken before that, the medium-second exposure and the long-second exposure, is executed.

S1415でカメラCPU112aはHPF116aの時定数を「中」に設定する。S1416では中秒時の静止画露光が行われる。S1417でカメラCPU112aは中秒露光での撮影が終了したか否かを判定する。中秒露光での撮影が終了したと判定された場合、S1418の処理に進む。中秒露光での撮影が終了しない間は、S1416に戻って中秒露光が継続する。S1418では撮像素子114からの画像信号を画像処理部119に取り込む処理が実行される。そしてS1401の処理に戻る。 In S1415, the camera CPU 112a sets the time constant of the HPF116a to "medium". In S1416, a still image exposure at a medium second time is performed. In S1417, the camera CPU 112a determines whether or not the shooting with the medium-second exposure is completed. When it is determined that the shooting with the medium-second exposure is completed, the process proceeds to S1418. While the shooting with the medium-second exposure is not completed, the process returns to S1416 and the medium-second exposure continues. In S1418, a process of capturing the image signal from the image sensor 114 into the image processing unit 119 is executed. Then, the process returns to the process of S1401.

以上の処理を繰り返すことでHDR撮影にて像ブレ補正範囲が不足することなく補正ストロークを有効に使うことができる。また、撮影中に像ブレ補正手段の位置が補正ストローク限界に到達することがないので、各撮影の間に像ブレ補正手段の位置を補正中心に戻す必要がない。よって小型で高速な応答の必要がない像ブレ補正手段を用いて、より精度の高い像ブレ補正を行いつつ、HDR画像を取得できる。 By repeating the above processing, the correction stroke can be effectively used without the image blur correction range being insufficient in HDR shooting. Further, since the position of the image blur correction means does not reach the correction stroke limit during shooting, it is not necessary to return the position of the image blur correction means to the correction center during each shooting. Therefore, it is possible to acquire an HDR image while performing more accurate image blur correction by using a compact image blur correction means that does not require a high-speed response.

本実施例において、ハイパスフィルタ116aの時定数の変更順序として、時定数「大」から徐々に時定数を小さくしていく処理を説明したが、それとは逆に時定数「小」から徐々に時定数を大きくしていく処理であっても構わない。このことは後述の実施例でも同じである。時定数「小」から徐々に時定数を大きくしていく処理の場合、短秒露光から露光が行われるので、像ブレ補正手段が光軸に近い位置において各露光が開始されるようになる。よって、各露光で得られる画像の画質が良くなるという特徴がある。一般に、光軸に近い位置で露光されるときの画像のほうが、光軸から離れた周辺像高で露光されるときの画像に比べて、収差や光量の面で有利であり、画質が良くなることが知られている。よって各露光において光軸に近い位置で露光を開始した画像を取得して合成すること、すなわち時定数を小さい値から大きい値に徐々に変更する順序のほうが、より良質な合成画像が得られる。一方で、長秒露光が比較的後の順番になるので、像ブレ補正ストロークの観点からすると時定数「大」から撮影を開始する場合よりも不利である。しかしながら、各露光において時定数を切り替えることにより、像ブレ補正ストロークについても従来技術での撮影に対しては補正に余裕を持つことが可能となる。 In this embodiment, as the order of changing the time constant of the high-pass filter 116a, the process of gradually reducing the time constant from the time constant "large" has been described, but conversely, the time constant is gradually reduced from the time constant "small". It may be a process of increasing the constant. This also applies to the examples described later. In the case of the process of gradually increasing the time constant from the time constant "small", since the exposure is performed from the short-second exposure, each exposure is started at a position close to the optical axis by the image blur correction means. Therefore, there is a feature that the image quality of the image obtained by each exposure is improved. In general, an image exposed at a position close to the optical axis is more advantageous in terms of aberration and light intensity than an image exposed at a peripheral image height away from the optical axis, and the image quality is improved. It is known. Therefore, a better composite image can be obtained by acquiring and synthesizing the images in which the exposure is started at a position close to the optical axis in each exposure, that is, in the order of gradually changing the time constant from a small value to a large value. On the other hand, since the long exposure is in a relatively later order, it is disadvantageous from the viewpoint of the image blur correction stroke as compared with the case where the shooting is started from the time constant "large". However, by switching the time constant in each exposure, it is possible to have a margin for correction of the image blur correction stroke as compared with the shooting by the conventional technique.

本実施例(図11参照)は、撮像装置111に加わる手ぶれ等の振れを検出する角速度計115と、角速度計115の検出信号を処理して、時定数の変更を一定の周期で繰り返し行う信号処理部116を備える。撮像素子114の駆動部114aは、信号処理部116の出力する信号に基づいて手ぶれ等による撮像画像の像ブレ補正を行い、画像劣化を抑制する。静止画露光部118は異なる静止画露光時間で複数枚の撮影を行う。露光制御部117は、信号処理部116で変更される時定数に基づいて静止画露光部118による各撮影の静止画露光時間を設定する。小型の像ブレ補正手段を用いて、より精度の高い像ブレ補正を行いつつ、HDR画像を取得することができる。 In this embodiment (see FIG. 11), an angular velocity meter 115 that detects camera shake and other shakes applied to the image pickup apparatus 111 and a signal that processes the detection signals of the angular velocity meter 115 to repeatedly change the time constant at regular intervals. A processing unit 116 is provided. The drive unit 114a of the image sensor 114 corrects image blurring of the captured image due to camera shake or the like based on the signal output by the signal processing unit 116, and suppresses image deterioration. The still image exposure unit 118 takes a plurality of images with different still image exposure times. The exposure control unit 117 sets the still image exposure time of each shooting by the still image exposure unit 118 based on the time constant changed by the signal processing unit 116. An HDR image can be acquired while performing more accurate image blur correction using a small image blur correction means.

信号処理部116のハイパスフィルタ116aの時定数が大きい時の静止画露光時間(図12:画像124aの露光時間)は、時定数が小さい時の静止画露光時間(図12:画像124cの露光時間)より長く設定される。信号処理部116は時定数を大きい値から小さい値へ、あるいは、小さい値から大きい値へと順次変更する。 The still image exposure time when the time constant of the high-pass filter 116a of the signal processing unit 116 is large (FIG. 12: exposure time of image 124a) is the still image exposure time when the time constant is small (FIG. 12: exposure time of image 124c). ) Is set longer. The signal processing unit 116 sequentially changes the time constant from a large value to a small value or from a small value to a large value.

連続するHDR撮影において、複数枚の画像(124a,124b,124c)の合成処理が繰り返される過程において、前回の合成で利用した複数の画像の一部(124c)は次回の合成(複数枚の画像124c,124d,124eの合成)で利用される。これによりHDR画像を効率的に生成することが可能となる。 In the process of repeating the compositing process of a plurality of images (124a, 124b, 124c) in continuous HDR shooting, a part (124c) of the plurality of images used in the previous compositing is the next compositing (plurality of images). It is used in the synthesis of 124c, 124d, 124e). This makes it possible to efficiently generate an HDR image.

HDR撮影では複数回の撮影が行われるので、長時間の像ブレ補正に対処するために従来技術では補正範囲を拡大させる必要性が生じ、またセンタリング動作に高速な応答性が求められる結果、像ブレ補正手段の大型化を余儀なくされる。これに対し、本実施例によれば、小型の像ブレ補正手段で、より精度の高い像ブレ補正を行いつつ、HDR撮影を行ってダイナミックレンジの拡大された画像信号を取得することができる。 In HDR shooting, multiple shots are taken, so it is necessary to expand the correction range in the conventional technology in order to deal with image blur correction for a long time, and as a result of the need for high-speed responsiveness in the centering operation, the image The size of the blur correction means must be increased. On the other hand, according to the present embodiment, it is possible to acquire an image signal having an expanded dynamic range by performing HDR shooting while performing more accurate image blur correction with a small image blur correction means.

[第6実施例]
図15を参照して、本発明の第6実施例について説明する。図15は本実施例におけるHDR撮影時の像ブレ補正手段の動作を説明する図である。上側にはHDR撮影における各撮影条件の推移を示す。下側に示すグラフの横軸は時間軸であり、縦軸は像ブレ補正量を表す。グラフ線151は像ブレ補正手段の軌跡を表している。
[Sixth Example]
A sixth embodiment of the present invention will be described with reference to FIG. FIG. 15 is a diagram illustrating the operation of the image blur correction means during HDR shooting in this embodiment. The upper side shows the transition of each shooting condition in HDR shooting. The horizontal axis of the graph shown on the lower side is the time axis, and the vertical axis represents the image blur correction amount. The graph line 151 represents the trajectory of the image blur correction means.

図15に矢印152aで示す期間ではハイパスフィルタ116aの時定数が「大」である。撮像装置の像ブレ補正能力は高いが、グラフ線151は次第に像ブレ補正の補正ストローク限界153(破線参照)に近づいていく。矢印152bで示す期間ではハイパスフィルタ116aの時定数が「中」である。撮像装置の像ブレ補正能力は時定数が「大」の場合より低く、グラフ線151は補正ストローク限界153を超えることはない。矢印152cで示す期間ではハイパスフィルタ116aの時定数が「小」である。撮像装置の像ブレ補正能力は時定数が「中」の場合より低く、グラフ線151は補正中心に戻っていく。 The time constant of the high-pass filter 116a is “large” during the period indicated by the arrow 152a in FIG. Although the image blur correction ability of the image pickup apparatus is high, the graph line 151 gradually approaches the correction stroke limit 153 (see the broken line) for image blur correction. The time constant of the high-pass filter 116a is "medium" during the period indicated by the arrow 152b. The image blur correction ability of the image pickup apparatus is lower than that when the time constant is "large", and the graph line 151 does not exceed the correction stroke limit 153. The time constant of the high-pass filter 116a is "small" during the period indicated by the arrow 152c. The image blur correction ability of the image pickup apparatus is lower than that when the time constant is "medium", and the graph line 151 returns to the correction center.

本実施例においては図15に示す様に、時定数の「大中小」をひと組(時定数セット)にして繰り返す構成とすることで、グラフ線151を補正ストローク限界153内に収めることができる。 In this embodiment, as shown in FIG. 15, the graph line 151 can be kept within the correction stroke limit 153 by forming a set of time constants "large, medium, and small" (time constant set) and repeating the configuration. ..

図15に矢印152aで示す期間(時定数「大」)では長秒時の静止画露光(画像154a)が行われる。長秒時の撮影では暗い被写体でも少ないノイズで撮影可能である。矢印152bで示す期間(時定数「中」)では中秒時の静止画露光(画像154b)が行われ、適正露出の被写体に対して最適な撮影が行われる。中秒時の静止画撮影の時間は、長秒時の静止画露光の時間に比べると短いので、像ブレ補正性能の低下は画像には現れにくい。矢印152cで示す期間(時定数「小」)では短秒時の静止画露光(画像154c)が行われる。明るい被写体に対して画像信号の飽和なく最適な撮影が行われる。短秒時の静止画撮影の時間は、中秒時の静止画露光の時間に比べると短いので、像ブレ補正性能の低下は画像にはさらに現れにくい。 During the period indicated by the arrow 152a in FIG. 15 (time constant “large”), still image exposure (image 154a) is performed for a long time. When shooting for a long time, even a dark subject can be shot with less noise. During the period indicated by the arrow 152b (time constant "medium"), the still image exposure (image 154b) at the middle second is performed, and the optimum shooting is performed for the subject with the appropriate exposure. Since the still image shooting time at medium seconds is shorter than the still image exposure time at long seconds, the deterioration of the image blur correction performance is unlikely to appear in the image. During the period indicated by the arrow 152c (time constant "small"), still image exposure (image 154c) in a short time is performed. Optimal shooting is performed for bright subjects without saturation of the image signal. Since the still image shooting time in the short seconds is shorter than the still image exposure time in the middle seconds, the deterioration of the image blur correction performance is less likely to appear in the image.

撮影された3枚の画像は、位置合わせが行われてから合成されてHDR画像が取得される。また像ブレ補正手段の位置は補正ストローク限界内に収まっているので、各撮影において像ブレ補正に必要な補正範囲が不足することなく、良好な像ブレ補正を実行可能である。 The three captured images are aligned and then combined to obtain an HDR image. Further, since the position of the image blur correction means is within the correction stroke limit, good image blur correction can be performed without insufficient correction range required for image blur correction in each shooting.

連写時には上記3枚の撮影以降もハイパスフィルタ116aの時定数に合わせて静止画露光期間が設定される。すなわち時定数が「大」の期間では長秒露光、時定数が「中」の期間では中秒露光、時定数が「小」の期間では短秒露光が行われる。撮影された各画像を合成してHDR画像を連続して取得することができる。具体的には図15にて、画像154a,154b,154cの合成により1枚目のHDR画像が生成される。画像154d,154e,154fの合成により2枚目のHDR画像が生成され、画像154g,154h,154iの合成により3枚目のHDR画像が生成される。図15では長秒、中秒、短秒の各露光時間でHDR撮影が繰り返される例を示すが、必要に応じてその逆順、つまり短秒、中秒、長秒の各露光時間でHDR撮影が繰り返されてもよい。 During continuous shooting, the still image exposure period is set according to the time constant of the high-pass filter 116a even after the above three shots are taken. That is, long-second exposure is performed during the period when the time constant is "large", medium-second exposure is performed during the period when the time constant is "medium", and short-second exposure is performed during the period when the time constant is "small". HDR images can be continuously acquired by synthesizing the captured images. Specifically, in FIG. 15, the first HDR image is generated by synthesizing the images 154a, 154b, and 154c. A second HDR image is generated by synthesizing the images 154d, 154e, and 154f, and a third HDR image is generated by synthesizing the images 154g, 154h, and 154i. FIG. 15 shows an example in which HDR shooting is repeated at each exposure time of long seconds, medium seconds, and short seconds, but if necessary, HDR shooting is performed in the reverse order, that is, at each exposure time of short seconds, medium seconds, and long seconds. It may be repeated.

本実施例では第5実施例と異なり、1枚目と2枚目の各撮影画像、2枚目と3枚目の各撮影画像で共有される画像が存在しないので、連写コマ数は減ることになるが、互いに独立したHDR画像を取得可能である。 In this embodiment, unlike the fifth embodiment, the number of continuous shooting frames is reduced because there is no image shared by each of the first and second shot images and the second and third shot images. However, it is possible to acquire HDR images that are independent of each other.

[その他の実施形態]
前記実施例では以下の実施形態を説明した。
・像ブレ補正手段の位置に応じて複数回の撮影時の各撮影条件を決定する第1の実施形態(第1乃至第4実施例)。
・信号処理部の特性(例えばHPFの時定数の変更)に応じて複数回の撮影時の各撮影条件を決定する第2の実施形態(第5および第6実施例)。
撮影条件とは、例えばHDR撮影における各露光条件とその順序である。
第1および第2の実施形態を組み合わせて実施することができる。その場合の実施形態としては、像ブレ補正手段の位置に応じて複数回の撮影時の各撮影条件を決定し、撮影条件に対応したHPFの時定数となるように時定数の変更処理が行われる。HDR撮影にて撮影条件(露光時間、露光開始時刻等)を変更して、画角変動を抑制しつつ像ブレ補正範囲を十分に確保することができる。前記実施形態によれば、画像信号のダイナミックレンジ拡大と像ブレ補正性能の向上との両立を実現可能である。
なお、上記のいずれの実施形態でも撮像装置で画像合成を行う例を説明した。これに限らず、撮像装置で画像合成に用いる画像取得のための複数回の撮影を行い、取得された画像に対して、撮影を行った撮像装置とは異なる外部装置で画像合成処理を実行してもよい。ここでの外部装置にはPCやクラウドコンピューティングの利用も含まれる。
[Other Embodiments]
In the above-described embodiment, the following embodiments have been described.
A first embodiment (first to fourth embodiments) in which each shooting condition at the time of a plurality of shootings is determined according to the position of the image blur correction means.
A second embodiment (fifth and sixth embodiments) in which each shooting condition at the time of a plurality of shootings is determined according to the characteristics of the signal processing unit (for example, a change in the time constant of the HPF).
The shooting conditions are, for example, each exposure condition and its order in HDR shooting.
The first and second embodiments can be combined and implemented. In that case, as an embodiment, each shooting condition at the time of a plurality of shootings is determined according to the position of the image blur correction means, and the time constant is changed so as to be the time constant of the HPF corresponding to the shooting conditions. Will be. By changing the shooting conditions (exposure time, exposure start time, etc.) in HDR shooting, it is possible to sufficiently secure the image blur correction range while suppressing fluctuations in the angle of view. According to the above embodiment, it is possible to achieve both the expansion of the dynamic range of the image signal and the improvement of the image blur correction performance.
In any of the above embodiments, an example of performing image composition with an imaging device has been described. Not limited to this, the image pickup device takes multiple shots for image acquisition used for image synthesis, and the acquired image is subjected to image synthesis processing by an external device different from the image pickup device that took the picture. You may. External devices here include the use of PCs and cloud computing.

5:カメラシステム制御部
6:撮像素子
13:レンズ側ぶれ補正部
13a:位置検出部
14:本体部側ぶれ補正部
14a:位置検出部

5: Camera system control unit 6: Image sensor 13: Lens side blur correction unit 13a: Position detection unit 14: Main body side blur correction unit 14a: Position detection unit

Claims (24)

撮像素子により取得される画像の像ブレ補正を行う補正手段と、
振れを検出する第1の検出手段の検出信号および前記補正手段の位置を検出する第2の検出手段の位置検出信号を取得して前記補正手段の制御を行う制御手段と、を備え、
前記制御手段は、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記複数回の撮影における各撮影の露光時間を前記位置検出信号により決定する
ことを特徴とする撮像装置。
A correction means for correcting image blur of an image acquired by an image sensor, and
A control means for acquiring a detection signal of a first detecting means for detecting runout and a position detecting signal of a second detecting means for detecting the position of the correction means and controlling the correction means is provided.
The control means is characterized in that, in a shooting mode in which multiple shootings are performed under different conditions for acquiring an image used for image composition, the exposure time of each shooting in the plurality of shootings is determined by the position detection signal. Imaging device.
前記制御手段は、撮影準備時の前記位置検出信号を取得して前記複数回の撮影の露光時間を決定する
ことを特徴とする請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the control means acquires the position detection signal at the time of preparation for shooting and determines the exposure time of the plurality of shootings.
前記制御手段は、前記複数回の撮影を行う際の各撮影の露光時間の順番を変更する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
The image pickup apparatus according to claim 1 or 2, wherein the control means changes the order of exposure times of each shooting when the plurality of shootings are performed.
前記制御手段は、前記位置検出信号により前記複数回の撮影における各撮影の露光開始時刻を変更する
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 3, wherein the control means changes the exposure start time of each shooting in the plurality of shootings by the position detection signal.
前記制御手段は、前記補正手段の位置が駆動可能範囲の限界に到達した場合、前記補正手段の位置を予め定められた位置に設定する制御を行う
ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
Any of claims 1 to 4, wherein the control means controls to set the position of the correction means to a predetermined position when the position of the correction means reaches the limit of the driveable range. The imaging apparatus according to claim 1.
前記制御手段は、前記複数回の撮影を連続して行う場合、前記補正手段の位置を予め定められた位置に設定する制御を行う
ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The control means according to any one of claims 1 to 5, wherein when the plurality of times of shooting are continuously performed, the control means controls to set the position of the correction means to a predetermined position. The imaging apparatus described.
前記予め定められた位置は、前記補正手段の駆動可能範囲の中央である
ことを特徴とする請求項5または請求項6に記載の撮像装置。
The imaging device according to claim 5 or 6, wherein the predetermined position is in the center of the driveable range of the correction means.
前記制御手段は、前記複数回の撮影において相対的に長秒、中秒、短秒の順もしくはその逆順に、または長秒、短秒、中秒の順に露光時間を決定する
ことを特徴とする請求項3に記載の撮像装置。
The control means is characterized in that the exposure time is relatively determined in the order of long seconds, medium seconds, short seconds or vice versa, or in the order of long seconds, short seconds, medium seconds in the plurality of times of shooting. The imaging device according to claim 3.
前記制御手段は、撮影準備のあとの前記補正手段が駆動可能範囲の限界近傍に位置する場合、短秒の露光時間を決定する
ことを特徴とする請求項8に記載の撮像装置。
The imaging device according to claim 8, wherein the control means determines a short exposure time when the correction means is located near the limit of the driveable range after preparation for shooting.
前記制御手段は、前記補正手段の位置が駆動可能範囲の限界に到達した場合、撮影を一時中断し、前記補正手段の位置が予め定められた位置に戻ったときに撮影を再開させる制御を行う
ことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
The control means controls to suspend shooting when the position of the correction means reaches the limit of the driveable range, and to resume shooting when the position of the correction means returns to a predetermined position. The imaging apparatus according to any one of claims 1 to 9.
撮像素子により取得される画像の像ブレ補正を行う補正手段と、
振れを検出する検出手段の検出信号を取得して処理する信号処理手段と、
前記信号処理手段から信号を取得して前記補正手段の制御を行う制御手段と、を備え、
前記制御手段は、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記信号処理手段の特性を変更するとともに前記複数回の撮影における各撮影の露光時間を決定する
ことを特徴とする撮像装置。
A correction means for correcting image blur of an image acquired by an image sensor, and
A signal processing means that acquires and processes the detection signal of the detection means that detects the runout, and
A control means for acquiring a signal from the signal processing means and controlling the correction means is provided.
The control means changes the characteristics of the signal processing means and sets the exposure time of each shooting in the plurality of shootings in a shooting mode in which shooting is performed a plurality of times under different conditions in order to acquire an image used for image composition. An imaging device characterized by determining.
前記信号処理手段は前記検出信号を処理するフィルタを備え、
前記制御手段は、前記複数回の撮影における前記フィルタの時定数に対応する前記露光時間を決定する
ことを特徴とする請求項11に記載の撮像装置。
The signal processing means includes a filter for processing the detection signal.
The imaging device according to claim 11, wherein the control means determines the exposure time corresponding to the time constant of the filter in the plurality of times of photographing.
前記信号処理手段は、前記複数回の撮影において、一定の周期で変更される時定数の前記フィルタにより信号処理を行い、
前記制御手段は、前記複数回の撮影において、前記時定数に対応する異なる露光時間で前記撮像素子の露光制御を行う
ことを特徴とする請求項12に記載の撮像装置。
The signal processing means performs signal processing by the filter having a time constant that is changed at a constant cycle in the plurality of times of photographing.
The image pickup apparatus according to claim 12, wherein the control means controls the exposure of the image pickup device at different exposure times corresponding to the time constant in the plurality of times of shooting.
前記制御手段は、前記フィルタの時定数が第1の値であるときに第1の露光時間を決定し、前記フィルタの時定数が前記第1の値よりも大きい第2の値であるときに前記第1の露光時間よりも長い第2の露光時間を決定する
ことを特徴とする請求項12または請求項13に記載の撮像装置。
The control means determines the first exposure time when the time constant of the filter is the first value, and when the time constant of the filter is a second value larger than the first value. The imaging apparatus according to claim 12 or 13, wherein a second exposure time longer than the first exposure time is determined.
前記複数回の撮影において前記フィルタの時定数は、大きい値から小さい値へと変更されるか、または、小さい値から大きい値へと変更される
ことを特徴とする請求項12乃至14のいずれか1項に記載の撮像装置。
Any of claims 12 to 14, wherein the time constant of the filter is changed from a large value to a small value or from a small value to a large value in the plurality of times of shooting. The imaging apparatus according to item 1.
前記制御手段は、前記複数回の撮影を連続して行う場合、前回の合成で用いた複数の画像の一部を次回の合成に用いて画像を生成する制御を行う
ことを特徴とする請求項11乃至15のいずれか1項に記載の撮像装置。
The claim is characterized in that, when the plurality of times of shooting are continuously performed, the control means controls to generate an image by using a part of the plurality of images used in the previous composition for the next composition. The imaging apparatus according to any one of 11 to 15.
前記制御手段は前記複数回の撮影における各撮影に対応する複数の露光時間を決定し、
前記複数の画像の一部は、前記複数の露光時間のうち最も短い時間での露光により取得された画像である
ことを特徴とする請求項16に記載の撮像装置。
The control means determines a plurality of exposure times corresponding to each shooting in the plurality of shootings, and determines a plurality of exposure times.
The imaging apparatus according to claim 16, wherein a part of the plurality of images is an image acquired by exposure in the shortest time among the plurality of exposure times.
前記制御手段は、前記複数回の撮影を連続して行う場合、相対的に長秒、中秒、短秒の順もしくはその逆順、または長秒、中秒、短秒、中秒の順に露光時間を決定して撮影動作の制御を行う
ことを特徴とする請求項11に記載の撮像装置。
When the plurality of times of shooting are continuously performed, the control means has an exposure time in the order of relatively long seconds, medium seconds, short seconds or vice versa, or in the order of long seconds, medium seconds, short seconds, and medium seconds. The imaging apparatus according to claim 11, wherein the imaging apparatus is determined and the photographing operation is controlled.
撮像素子により取得される画像の像ブレ補正を行う補正手段と、
振れを検出する第1の検出手段の検出信号を取得して処理する信号処理手段と、
前記信号処理手段の処理した信号および前記補正手段の位置を検出する第2の検出手段の位置検出信号を取得して前記補正手段の制御を行う制御手段と、を備え、
前記制御手段は、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記複数回の撮影における各撮影の露光時間を前記位置検出信号により決定し、前記信号処理手段の特性を前記各撮影の露光時間に対応する特性に変更する
ことを特徴とする撮像装置。
A correction means for correcting image blur of an image acquired by an image sensor, and
A signal processing means that acquires and processes the detection signal of the first detecting means that detects the runout, and
A control means for acquiring a signal processed by the signal processing means and a position detection signal of a second detection means for detecting the position of the correction means and controlling the correction means is provided.
The control means determines the exposure time of each shooting in the plurality of shootings by the position detection signal in a shooting mode in which shooting is performed a plurality of times under different conditions for acquiring an image used for image composition, and the signal. An image pickup apparatus characterized in that the characteristics of the processing means are changed to the characteristics corresponding to the exposure time of each shooting.
前記補正手段は、撮像光学系を構成するレンズまたは前記撮像素子の駆動により、前記像ブレ補正を行う
ことを特徴とする請求項1乃至19のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 1 to 19, wherein the correction means corrects the image blur by driving a lens constituting an image pickup optical system or the image pickup element.
前記撮影モードにて、前記複数回の撮影による複数の画像信号からダイナミックレンジの拡大された画像信号が取得される
ことを特徴とする請求項1乃至20のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 1 to 20, wherein in the shooting mode, an image signal having an expanded dynamic range is acquired from a plurality of image signals obtained by the plurality of shootings.
撮像素子により取得される画像の像ブレ補正を行う補正手段を備える撮像装置にて実行される制御方法であって、
振れを検出する第1の検出手段の検出信号および前記補正手段の位置を検出する第2の検出手段の位置検出信号を取得する取得工程と、
前記補正手段の制御を行う制御工程と、を有し、
前記制御工程では、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記複数回の撮影における各撮影の露光時間を前記位置検出信号により決定する処理が行われる
ことを特徴とする制御方法。
It is a control method executed by an image pickup apparatus provided with a correction means for correcting image blur of an image acquired by an image sensor.
The acquisition step of acquiring the detection signal of the first detecting means for detecting the runout and the position detecting signal of the second detecting means for detecting the position of the correction means, and the acquisition step.
It has a control step for controlling the correction means and
In the control step, in a shooting mode in which multiple shootings are performed under different conditions in order to acquire an image used for image composition, a process of determining the exposure time of each shooting in the plurality of shootings is performed by the position detection signal. A control method characterized by being exposed.
撮像素子により取得される画像の像ブレ補正を行う補正手段を備える撮像装置にて実行される制御方法であって、
信号処理手段が、振れを検出する検出手段の検出信号を取得して処理する信号処理工程と、
前記信号処理手段から信号を取得して前記補正手段の制御を行う制御工程と、を有し、
前記制御工程では、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記信号処理手段の特性を変更するとともに前記複数回の撮影における各撮影の露光時間を決定する処理が行われる
ことを特徴とする制御方法。
It is a control method executed by an image pickup apparatus provided with a correction means for correcting image blur of an image acquired by an image sensor.
A signal processing step in which the signal processing means acquires and processes the detection signal of the detecting means for detecting the runout, and
It has a control step of acquiring a signal from the signal processing means and controlling the correction means.
In the control step, in a shooting mode in which multiple shootings are performed under different conditions in order to acquire an image used for image composition, the characteristics of the signal processing means are changed and the exposure time of each shooting in the plurality of shootings is changed. A control method characterized in that a determination process is performed.
撮像素子により取得される画像の像ブレ補正を行う補正手段を備える撮像装置にて実行される制御方法であって、
信号処理手段が、振れを検出する第1の検出手段の検出信号を取得して処理する信号処理工程と、
前記信号処理手段の処理した信号および前記補正手段の位置を検出する第2の検出手段の位置検出信号を取得して前記補正手段の制御を行う制御工程と、を有し、
前記制御工程では、画像合成に用いる画像の取得のために異なる条件で複数回の撮影を行う撮影モードにおいて、前記複数回の撮影における各撮影の露光時間を前記位置検出信号により決定し、前記信号処理手段の特性を前記各撮影の露光時間に対応する特性に変更する処理が行われる
ことを特徴とする制御方法。

It is a control method executed by an image pickup apparatus provided with a correction means for correcting image blur of an image acquired by an image sensor.
A signal processing step in which the signal processing means acquires and processes the detection signal of the first detecting means for detecting the runout, and
It has a control step of acquiring a signal processed by the signal processing means and a position detection signal of a second detecting means for detecting the position of the correction means and controlling the correction means.
In the control step, in a shooting mode in which multiple shootings are performed under different conditions in order to acquire an image used for image composition, the exposure time of each shooting in the plurality of shootings is determined by the position detection signal, and the signal. A control method characterized in that processing is performed to change the characteristics of the processing means to the characteristics corresponding to the exposure time of each shooting.

JP2019220517A 2019-12-05 2019-12-05 Imaging device and its control method Active JP7401278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220517A JP7401278B2 (en) 2019-12-05 2019-12-05 Imaging device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220517A JP7401278B2 (en) 2019-12-05 2019-12-05 Imaging device and its control method

Publications (2)

Publication Number Publication Date
JP2021089387A true JP2021089387A (en) 2021-06-10
JP7401278B2 JP7401278B2 (en) 2023-12-19

Family

ID=76220149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220517A Active JP7401278B2 (en) 2019-12-05 2019-12-05 Imaging device and its control method

Country Status (1)

Country Link
JP (1) JP7401278B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078635A (en) * 2008-09-24 2010-04-08 Sanyo Electric Co Ltd Blur correcting device and imaging apparatus
JP2017017585A (en) * 2015-07-02 2017-01-19 オリンパス株式会社 Imaging apparatus and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078635A (en) * 2008-09-24 2010-04-08 Sanyo Electric Co Ltd Blur correcting device and imaging apparatus
JP2017017585A (en) * 2015-07-02 2017-01-19 オリンパス株式会社 Imaging apparatus and image processing method

Also Published As

Publication number Publication date
JP7401278B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
JP4968885B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
CN101547315B (en) Pick-up device
JP4974704B2 (en) Imaging device
US7586518B2 (en) Imaging technique performing focusing on plurality of images
CN104683687B (en) Photographic device and image capture method
JPWO2007097287A1 (en) Imaging device and lens barrel
CN104683688B (en) Photographic device and image capture method
WO2011064980A1 (en) Image capturing apparatus and camera main body
JP2009145852A (en) Automatic focusing device, camera, automatic focusing method
JP2007043584A (en) Image pickup device and control method thereof
JP2019109426A (en) Imaging apparatus and its control method
JP2008145662A (en) Imaging apparatus and adjusting method thereof
CN109691085A (en) Photographic device and camera shooting control method
US11218637B2 (en) Image capture apparatus and control method having image stabilization which reduces peripheral light variation
US11445113B2 (en) Stabilization control apparatus, image capture apparatus, and stabilization control method
JP5618765B2 (en) Imaging apparatus and control method thereof
US11330179B2 (en) Imaging device and control method thereof
US11272109B2 (en) Blur correction control apparatus, method, and storage medium
JP7401278B2 (en) Imaging device and its control method
JP2008206021A (en) Imaging device and lens barrel
JP2017219697A (en) Imaging device and control method of imaging device
JP2005173507A (en) Amplification factor initial setting method of blurring detection signal, imaging device
WO2018128098A1 (en) Imaging device and focus adjusting method
JP2020177185A (en) Shake correction device, method, camera body, and lens device
JP7328788B2 (en) Image blur correction device and method, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231207

R151 Written notification of patent or utility model registration

Ref document number: 7401278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151