JP2009273058A - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP2009273058A
JP2009273058A JP2008124006A JP2008124006A JP2009273058A JP 2009273058 A JP2009273058 A JP 2009273058A JP 2008124006 A JP2008124006 A JP 2008124006A JP 2008124006 A JP2008124006 A JP 2008124006A JP 2009273058 A JP2009273058 A JP 2009273058A
Authority
JP
Japan
Prior art keywords
image
time
amount
exposure
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008124006A
Other languages
Japanese (ja)
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008124006A priority Critical patent/JP2009273058A/en
Publication of JP2009273058A publication Critical patent/JP2009273058A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device which electronically corrects a shake and prevents reduction of an S/N ratio of an image through the shake correction, and also to provide an imaging method in the imaging device. <P>SOLUTION: When (Tm-Tm0)/Texp as an index of the level (exposure quantity) of an image signal in the latest time division shooting is smaller than a predetermined quantity k1, the image signal is not read out until Tm is Texp or larger. When (Tm-Tm0)/Texp is not smaller than the predetermined quantity k1, the image signal is read out by controlling an exposure time in such a manner that a shake in an image is not larger than the allowable quantity, the shake in the image is corrected based on the read image signals, and then the image signals are combined. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ぶれが補正された画像を得ることが可能な撮像装置及びこのような撮像方法に関する。   The present invention relates to an imaging apparatus capable of obtaining an image in which blurring is corrected, and such an imaging method.

デジタルカメラ等の撮像装置において、特に長時間の撮影を行う場合に、撮影の間の撮影者の手ぶれや被写体の動きによって、撮像素子上に結像する被写体像にぶれを生じることが広く知られている。   In an imaging device such as a digital camera, it is widely known that, particularly when shooting for a long time, the subject image formed on the imaging device may be shaken due to camera shake or subject movement during shooting. ing.

ぶれを補正する手法の1つとして、複数回の連続した露光時間で時分割的に撮影を行い、それぞれの時分割撮影の結果として得られる複数の画像の相互のぶれを補正してから合成することにより、1枚のぶれが補正された画像を生成する手法が特許文献1や特許文献2等において提案されている。特許文献1では、露光開始からのぶれ量がぶれを許容可能な所定のぶれ量に達するまで露光を行って、撮像素子から画像信号を読み出して合成するという動作を繰り返し行い、これによってぶれの補正された画像を生成するようにしている。また、特許文献2では、ぶれを許容可能な所定の限界露光時間TLimitよりも高速で、かつ露光時間Texpのm(mは整数)分の1の時分割露光時間ΔTexpを演算し、時分割露光時間でm回の時分割撮影を行い、時分割撮像部で撮影された画像をm倍に増幅し、m倍に増幅された複数枚の時分割画像の相互のぶれを補正し、相互のぶれが補正された複数枚の時分割画像を合成するようにしている。
特開2003−32540号公報 特開2007−243774号公報
As one of the methods for correcting blurring, shooting is performed in a time-sharing manner with a plurality of continuous exposure times, and a plurality of images obtained as a result of each time-sharing shooting are corrected and then combined. Thus, methods for generating an image in which one blur is corrected are proposed in Patent Document 1, Patent Document 2, and the like. In Patent Document 1, exposure is performed until the amount of blurring from the start of exposure reaches a predetermined amount of blurring that allows blurring, and an operation of reading out and synthesizing an image signal from the image sensor is repeated, thereby correcting blurring. The generated image is generated. In Patent Document 2, a time-division exposure is performed by calculating a time-division exposure time ΔTexp that is faster than a predetermined limit exposure time TLimit that allows blurring and that is 1 / m (m is an integer) of the exposure time Texp. Takes time-division shooting m times in time, amplifies the image taken by the time-division imaging unit m times, corrects the mutual shake of multiple time-division images amplified m times, and shakes each other A plurality of time-division images corrected in the above are synthesized.
Japanese Patent Laid-Open No. 2003-32540 JP 2007-243774 A

撮影画角が同じ条件のもとで35mmフィルムの撮影レンズの焦点距離に換算したときの撮影レンズの焦点距離f[mm]の逆数の露光時間1/f[s]で撮影を行うと、ぶれが目立たないとされる。露光時間を短くすると画像信号のS/N比が低下するので、複数回の時分割撮影を行い相互のぶれを補正して加算するとS/N比が改善される。上記の特許文献1、2はこの原理を応用したものである。   If shooting is performed with an exposure time 1 / f [s] that is the reciprocal of the focal length f [mm] of the photographic lens when converted into the focal length of a photographic lens of 35 mm film under the same shooting angle of view. Is not conspicuous. If the exposure time is shortened, the S / N ratio of the image signal is lowered. Therefore, the S / N ratio can be improved by performing a plurality of time-division photographings, correcting each other and adding them. The above Patent Documents 1 and 2 apply this principle.

しかしながら、ぶれが目立たないかどうかは、撮影した画像をプリント紙に引き伸ばして観察する場合のプリントサイズ、観察距離、人の視覚の分解能によって定まる許容錯乱円の大きさなどに依存するものである。このため、上記一般的にいわれている露光時間で撮影を行ったとしても十分とはいえない場合がある。   However, whether or not the blurring is noticeable depends on the print size, the observation distance, the size of the permissible circle of confusion determined by the human visual resolution, and the like when the photographed image is stretched and observed on the print paper. For this reason, it may not be sufficient even if shooting is performed with the exposure time generally referred to above.

ぶれ補正の性能を高める目的で露光時間を短くし過ぎると、時分割撮影の回数が多くなり消費電力の増大を招く。また、複数画像を加算すると画像信号のS/N比は改善するが、露光時間を短くし過ぎると、信号処理に伴う誤差が積算され最終的にS/N比の改善効果は期待したほど得られないことになる。この問題は、特許文献1、2等のように、撮像素子から画像信号を読み出してから増幅やA/D変換などの処理を行ってぶれを補正するシステムの場合に特に大きい。   If the exposure time is too short for the purpose of improving the performance of blur correction, the number of time-division shooting increases, resulting in an increase in power consumption. Further, when a plurality of images are added, the S / N ratio of the image signal is improved. However, if the exposure time is shortened too much, errors associated with the signal processing are integrated and the improvement effect of the S / N ratio is finally obtained as expected. It will not be possible. This problem is particularly serious in the case of a system that corrects blurring by performing processing such as amplification and A / D conversion after reading out an image signal from the image sensor as in Patent Documents 1 and 2 and the like.

本発明は、上記の事情に鑑みてなされたものであり、電子的にぶれを補正するとともにぶれ補正によって画像のS/N比が低下するのを防止することが可能な撮像装置及びこのような撮像方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an imaging apparatus capable of correcting blurring electronically and preventing a reduction in the S / N ratio of an image due to blurring correction and such an imaging apparatus. An object is to provide an imaging method.

上記の目的を達成するために、本発明の第1の態様の撮像装置は、時分割撮影を行って得られた複数の画像の相互のぶれを補正した後に合成して、ぶれが低減された画像を生成する撮像装置において、上記時分割撮影における画像のぶれ量を検出するぶれ量検出部と、上記時分割撮影における露光時間と標準露光時間との比である露光量比を所定値と比較する判定部と、上記判定部により上記露光量比が上記所定値より小さいと判定されたときは、上記ぶれ量の大きさに係わらず上記露光量比が上記所定値以上になるように露光時間を制御し、上記判定部により上記露光量比が上記所定値以上と判定されたときは、上記時分割撮影における画像のぶれ量が許容量以下になるように上記露光時間を制御する露光時間制御部と、上記露光時間に従って被写体を時分割撮影して画像信号を生成する撮像部と、上記時分割撮影を複数回行って得られた複数の画像信号のそれぞれによって表される複数の画像の相互のぶれが補正されるように、上記複数の画像信号に対してぶれ補正を行った後に合成処理を行う画像処理部とを具備することを特徴とする。   In order to achieve the above object, the image pickup apparatus according to the first aspect of the present invention reduces blurring by correcting and then synthesizing a plurality of images obtained by performing time-division shooting. In an imaging device that generates an image, a blur amount detection unit that detects a blur amount of an image in the time-division shooting and an exposure amount ratio that is a ratio of an exposure time and a standard exposure time in the time-division shooting are compared with a predetermined value. An exposure time so that the exposure amount ratio is equal to or greater than the predetermined value regardless of the amount of blurring when the determination unit determines that the exposure amount ratio is smaller than the predetermined value. Exposure time control for controlling the exposure time so that the amount of blurring of the image in the time-division shooting is less than or equal to an allowable amount when the determination unit determines that the exposure amount ratio is equal to or greater than the predetermined value. According to the exposure time Mutual blurring of a plurality of images represented by each of an imaging unit that generates an image signal by time-division photographing of the subject and a plurality of image signals obtained by performing the time-division photographing a plurality of times is corrected. As described above, the image processing unit includes an image processing unit that performs composition processing after performing blur correction on the plurality of image signals.

上記の目的を達成するために、本発明の第2の態様の撮像方法は、時分割撮影を行って得られた複数の画像の相互のぶれを補正した後に合成してぶれが低減された画像を生成する撮像方法において、時分割撮影における露光時間と標準露光時間との比である露光量比を判定し、上記露光量比が所定値より小さいと判定されたときは、上記ぶれ量の大きさに係わらず上記露光量比が上記所定値以上になるように上記露光時間を制御し、上記露光量比が上記所定値以上と判定されたときは、上記時分割撮影のそれぞれにおける画像のぶれ量が許容量以下になるように露光時間を制御して時分割撮影を複数回行い、該複数回の時分割撮影で得られた複数の画像の相互のぶれを補正した後に合成することを特徴とする。   In order to achieve the above object, the imaging method according to the second aspect of the present invention is an image in which blurring is reduced by combining after correcting the mutual blurring of a plurality of images obtained by time-division shooting. In the imaging method for generating the exposure amount ratio, the exposure amount ratio that is the ratio of the exposure time and the standard exposure time in time-division shooting is determined, and when the exposure amount ratio is determined to be smaller than a predetermined value, the amount of blur is large. Regardless of this, the exposure time is controlled so that the exposure amount ratio is equal to or greater than the predetermined value, and when it is determined that the exposure amount ratio is equal to or greater than the predetermined value, image blurring in each of the time-division photographing is performed. The exposure time is controlled so that the amount is equal to or less than the allowable amount, and time-division shooting is performed a plurality of times, and the plurality of images obtained by the plurality of time-division shootings are corrected and then combined to be combined. And

本発明によれば、電子的にぶれを補正するとともに、ぶれ補正によって画像のS/N比が低下するのを防止することが可能な撮像装置及びこのような撮像方法を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus and such an imaging method that can electronically correct blur and prevent a reduction in the S / N ratio of an image due to blur correction.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の一実施形態に係わる撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。図1に示すデジタルカメラは、撮影レンズ1と、レンズ駆動系2と、絞り3と、絞り駆動系4と、撮像素子5と、撮像素子ドライバ6と、タイミングジェネレータ(TG)回路7と、相関二重サンプリング(CDS)回路8と、増幅回路9と、アナログ/デジタル(A/D)変換部10と、データバス11と、内蔵メモリ12と、画像処理部13と、AE処理部14と、AF処理部15と、圧縮/伸張部16と、着脱メモリ17と、表示部18と、不揮発性メモリ19と、メインCPU20と、入力部21と、電源部22と、サブCPU23と、A/D変換部24と、角速度センサ25、26とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. A digital camera shown in FIG. 1 includes a photographing lens 1, a lens driving system 2, an aperture 3, an aperture driving system 4, an image sensor 5, an image sensor driver 6, and a timing generator (TG) circuit 7. A double sampling (CDS) circuit 8, an amplifier circuit 9, an analog / digital (A / D) converter 10, a data bus 11, a built-in memory 12, an image processor 13, an AE processor 14, AF processing unit 15, compression / decompression unit 16, removable memory 17, display unit 18, nonvolatile memory 19, main CPU 20, input unit 21, power supply unit 22, sub CPU 23, A / D A conversion unit 24 and angular velocity sensors 25 and 26 are provided.

撮影レンズ1は、被写体の光学像(被写体像)を撮像素子5の撮像面上に結像させるための光学系である。レンズ駆動系2は、撮影レンズ1に含まれるフォーカス調整用のレンズ等を駆動させるための駆動系である。レンズ駆動系2を介してフォーカス調整用のレンズを駆動することによって撮影レンズ1のフォーカス調整を行うことが可能である。また、撮影レンズ1がズームレンズである場合には、レンズ駆動系2によって撮影レンズ1を駆動することによってズーミングを行うことが可能である。   The photographing lens 1 is an optical system for forming an optical image of a subject (subject image) on the imaging surface of the image sensor 5. The lens driving system 2 is a driving system for driving a focus adjustment lens included in the photographing lens 1. It is possible to adjust the focus of the photographing lens 1 by driving a focus adjustment lens via the lens driving system 2. When the photographing lens 1 is a zoom lens, zooming can be performed by driving the photographing lens 1 by the lens driving system 2.

絞り3は、撮影レンズ1を介して撮像素子5に入射する光の量を調整するために設けられている。絞り駆動系4は、絞り3を駆動させるための駆動系である。絞り駆動系4を介して絞り3を開閉することによって、撮像素子5への光の入射量が調整される。これにより、撮像素子5の露光量を制御することが可能である。   The diaphragm 3 is provided to adjust the amount of light incident on the image sensor 5 via the photographing lens 1. The aperture drive system 4 is a drive system for driving the aperture 3. The amount of light incident on the image sensor 5 is adjusted by opening and closing the aperture 3 via the aperture drive system 4. Thereby, the exposure amount of the image sensor 5 can be controlled.

撮像素子5は、複数の画素が二次元状に配列されて構成される撮像面の前面に、異なる複数色の色フィルタセグメントが所定の周期配列(例えば、ベイヤー配列)をなして配置されて構成されている。この撮像素子5は、撮像面上に結像された被写体像を電気信号(画像信号)に変換する。撮像素子ドライバ6は、撮像素子5による撮像動作と撮像素子5の画素からの信号の読み出し動作とを実行させる。TG回路7は、撮像素子5、CDS回路8、A/D変換部10の動作タイミングを決定するためのタイミング信号を撮像素子ドライバ6、CDS回路8及びA/D変換部10に供給する。   The imaging element 5 is configured by disposing a plurality of different color filter segments in a predetermined periodic array (for example, a Bayer array) on the front surface of an imaging surface configured by two-dimensionally arranging a plurality of pixels. Has been. The image sensor 5 converts the subject image formed on the imaging surface into an electric signal (image signal). The image sensor driver 6 performs an image capturing operation by the image sensor 5 and a signal reading operation from a pixel of the image sensor 5. The TG circuit 7 supplies a timing signal for determining the operation timing of the image sensor 5, the CDS circuit 8, and the A / D converter 10 to the image sensor driver 6, the CDS circuit 8, and the A / D converter 10.

CDS回路8は、TG回路7からのタイミング信号に従って、撮像素子5から出力される画像信号のCDS処理を行うことで、画像信号におけるノイズを除去する。増幅回路9は、CDS回路8から出力される画像信号をメインCPU20から指定される所定の増幅率で増幅する。A/D変換部10は、増幅回路9からアナログ信号として出力される画像信号をデジタル信号(画像データ)に変換する。   The CDS circuit 8 removes noise in the image signal by performing CDS processing of the image signal output from the image sensor 5 in accordance with the timing signal from the TG circuit 7. The amplifier circuit 9 amplifies the image signal output from the CDS circuit 8 at a predetermined amplification factor specified by the main CPU 20. The A / D converter 10 converts the image signal output as an analog signal from the amplifier circuit 9 into a digital signal (image data).

データバス11は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。内蔵メモリ12は、A/D変換部10において得られた画像データや、画像処理部13、圧縮/伸張部16において処理された画像データ等の各種データが一時的に記憶される記憶部である。   The data bus 11 is a transfer path for transferring various data generated inside the digital camera to each unit in the digital camera. The built-in memory 12 is a storage unit that temporarily stores various data such as image data obtained by the A / D conversion unit 10 and image data processed by the image processing unit 13 and the compression / decompression unit 16. .

画像処理部13は、同時化処理、ホワイトバランス補正処理、YC分離処理、色変換処理、階調変換処理等の画像処理を施す。また、画像処理部13は、画像合成部13aを有している。画像合成部13aは、後述する時分割撮影時によって得られる複数の画像データの相互のぶれを補正するとともに、ぶれを補正したそれぞれの画像を合成して1枚のぶれのない画像を生成する。   The image processing unit 13 performs image processing such as synchronization processing, white balance correction processing, YC separation processing, color conversion processing, and gradation conversion processing. In addition, the image processing unit 13 includes an image composition unit 13a. The image synthesizing unit 13a corrects the mutual shake of a plurality of image data obtained by time-division photographing, which will be described later, and generates a single image without blur by synthesizing each of the corrected images.

AE処理部14は、被写体の輝度を測定するための測光処理を行う。なお、被写体の輝度は専用のセンサを用いて検出するようにしても良いし、画像データから検出するようにしても良い。AF処理部15は、デジタルカメラから被写体までの距離を測定する。被写体距離は、専用のセンサの出力に基づいて検出するようにしても良いし、フォーカス調整時の撮影レンズ1の繰り出し量から算出するようにしても良い。   The AE processing unit 14 performs a photometric process for measuring the luminance of the subject. Note that the luminance of the subject may be detected using a dedicated sensor, or may be detected from image data. The AF processing unit 15 measures the distance from the digital camera to the subject. The subject distance may be detected based on the output of a dedicated sensor, or may be calculated from the extension amount of the photographing lens 1 at the time of focus adjustment.

圧縮/伸張部16は、画像データの記録時には、画像処理部13で処理された画像データをJPEG圧縮方式等の所定の圧縮方式に従って圧縮する。また、画像データの再生時には、圧縮/伸張部16は、着脱メモリ17に記録された圧縮画像データを読み出して伸張する。   When recording the image data, the compression / decompression unit 16 compresses the image data processed by the image processing unit 13 according to a predetermined compression method such as a JPEG compression method. When reproducing the image data, the compression / decompression unit 16 reads and decompresses the compressed image data recorded in the removable memory 17.

着脱メモリ17は、デジタルカメラ本体に着脱可能なメモリからなる記録媒体であり、圧縮/伸張部16で圧縮された画像データ等が記録される。図1では、着脱メモリ17を圧縮画像データの記録用の記録媒体としているが、必ずしも着脱可能なメモリを記録媒体として用いなくとも良い。   The detachable memory 17 is a recording medium composed of a memory that can be detachably attached to the digital camera body, and stores image data compressed by the compression / decompression unit 16. In FIG. 1, the removable memory 17 is used as a recording medium for recording compressed image data. However, the removable memory may not necessarily be used as a recording medium.

表示部18は、例えば液晶ディスプレイ(LCD)であり、画像処理部13で処理された画像データ等に基づき、各種の画像を表示する。   The display unit 18 is, for example, a liquid crystal display (LCD), and displays various images based on the image data processed by the image processing unit 13.

不揮発性メモリ19は、図1のデジタルカメラの動作に必要な各種パラメータやメインCPU20及びサブCPU23にて実行する各種プログラムを記憶している。メインCPU20は、デジタルカメラ本体の各種シーケンスを統括的に制御する。このメインCPU20は、不揮発性メモリ19に記憶されているプログラムに従い、また不揮発性メモリ19から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。さらに、メインCPU20は、露光時間等を計時するためのタイマカウンタ20aを有している。   The nonvolatile memory 19 stores various parameters necessary for the operation of the digital camera of FIG. 1 and various programs executed by the main CPU 20 and the sub CPU 23. The main CPU 20 comprehensively controls various sequences of the digital camera body. The main CPU 20 reads parameters necessary for various sequences from the nonvolatile memory 19 according to a program stored in the nonvolatile memory 19 and executes each process. Further, the main CPU 20 has a timer counter 20a for measuring the exposure time and the like.

入力部21は、レリーズボタン21a及び画質入力ボタン21b等を含む操作部材である。ユーザによって入力部21の何れかの操作部材が操作されることにより、メインCPU20は、ユーザの操作に応じた各種シーケンスを実行する。レリーズボタン21aは、第1レリーズスイッチと第2レリーズスイッチの2段スイッチを有して構成されている。レリーズボタン21aが半押しされて第1レリーズスイッチが閉じた場合に、メインCPU20は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタン21aが全押しされて第2レリーズスイッチが閉じた場合に、メインCPU20は撮影シーケンスを実行して撮影を行う。画質入力ボタン21bは、例えば十字キー等の操作部材である。この画質入力ボタン21bによって、着脱メモリ17に記録される圧縮画像データの画質(画像サイズ、圧縮率)を設定することが可能である。   The input unit 21 is an operation member including a release button 21a and an image quality input button 21b. When one of the operation members of the input unit 21 is operated by the user, the main CPU 20 executes various sequences according to the user's operation. The release button 21a has a two-stage switch including a first release switch and a second release switch. When the release button 21a is half-pressed and the first release switch is closed, the main CPU 20 performs a shooting preparation sequence such as AE processing and AF processing. Further, when the release button 21a is fully pressed and the second release switch is closed, the main CPU 20 executes the shooting sequence to perform shooting. The image quality input button 21b is an operation member such as a cross key. With this image quality input button 21b, it is possible to set the image quality (image size, compression rate) of the compressed image data recorded in the removable memory 17.

電源部22は、図1に示すデジタルカメラの電源である。メインCPU20は、電源部22より供給される電源を図1に示す各ブロックに供給する。   The power supply unit 22 is a power supply for the digital camera shown in FIG. The main CPU 20 supplies power supplied from the power supply unit 22 to each block shown in FIG.

サブCPU23は、ぶれ補正に関するシーケンスを統括的に制御する。A/D変換部24は、角速度センサ25、26からアナログ信号として出力されるぶれ信号(角速度信号)をデジタル信号に変換してサブCPU23に出力する。角速度センサ25は、図1に示すデジタルカメラのX軸回りの回転角θxの単位時間当たりの変化量である角速度を検出するための角速度センサである。角速度センサ26は、図1に示すデジタルカメラのY軸回りの回転角θyの単位時間当たりの変化量である角速度を検出するためのものである。   The sub CPU 23 comprehensively controls a sequence related to blur correction. The A / D converter 24 converts the shake signal (angular velocity signal) output as an analog signal from the angular velocity sensors 25 and 26 into a digital signal and outputs the digital signal to the sub CPU 23. The angular velocity sensor 25 is an angular velocity sensor for detecting an angular velocity which is a change amount per unit time of the rotation angle θx around the X axis of the digital camera shown in FIG. The angular velocity sensor 26 is for detecting an angular velocity which is a change amount per unit time of the rotation angle θy around the Y axis of the digital camera shown in FIG.

ここで、図2を参照して角速度センサ25、26についてさらに説明する。図2は、デジタルカメラに設定した座標軸と2つの角速度センサ25、26の配置との関係を示す図である。   Here, the angular velocity sensors 25 and 26 will be further described with reference to FIG. FIG. 2 is a diagram illustrating the relationship between the coordinate axes set in the digital camera and the arrangement of the two angular velocity sensors 25 and 26.

図2において、ある時刻における、撮影レンズ1の光軸Oに沿った方向にZ軸を設定する。また、Z軸に垂直な平面上で且つ被写体側からデジタルカメラ100を見たときの左右方向にX軸を設定する。さらに、Z軸とX軸との交点を通り且つ被写体側からデジタルカメラ100を見たときの上下方向にY軸を設定する。なお、Z軸の正方向は被写体側とする。また、X軸の正方向は被写体側からデジタルカメラ100を見たときの右方向とする。さらに、Y軸の正方向は上方向とする。なお、ある時刻においては、図2に示すように、撮影レンズ1の光軸OとZ軸とは一致しているが、別の時刻においてぶれが発生した場合には、撮影レンズ1の光軸Oは一般にZ軸とは一致しない。   In FIG. 2, the Z axis is set in a direction along the optical axis O of the photographing lens 1 at a certain time. Also, the X axis is set in the left-right direction when the digital camera 100 is viewed from the subject side on a plane perpendicular to the Z axis. Further, the Y axis is set in the vertical direction when the digital camera 100 is viewed from the subject side through the intersection of the Z axis and the X axis. The positive direction of the Z axis is the subject side. The positive direction of the X axis is the right direction when the digital camera 100 is viewed from the subject side. Further, the positive direction of the Y axis is the upward direction. Note that, as shown in FIG. 2, the optical axis O and the Z axis of the photographing lens 1 coincide with each other at a certain time, but when the shake occurs at another time, the optical axis of the photographing lens 1 O generally does not coincide with the Z axis.

以上のように設定したX軸、Y軸、Z軸周りの回転角を、それぞれθx、θy、θzとする。図2に示すように、2つの角速度センサ25、26は、X軸、Y軸、Z軸に関連した配置となるように設けられている。   The rotation angles around the X, Y, and Z axes set as described above are θx, θy, and θz, respectively. As shown in FIG. 2, the two angular velocity sensors 25 and 26 are provided so as to be arranged in relation to the X axis, the Y axis, and the Z axis.

以下、図1に示すデジタルカメラの動作について説明する。図3は本実施形態の撮像方法を含むデジタルカメラの撮影動作の流れを示すフローチャートである。   Hereinafter, the operation of the digital camera shown in FIG. 1 will be described. FIG. 3 is a flowchart showing a flow of photographing operation of the digital camera including the imaging method of the present embodiment.

まず、メインCPU20は、レリーズボタン21aが半押しされて第1レリーズスイッチが閉じたか否かを判定する(ステップS101)。ステップS101の判定において、第1レリーズスイッチが閉じるまでメインCPU20は、ステップS101の判定を継続する。一方、ステップS101の判定において、第1レリーズスイッチが閉じていれば、メインCPU20は、AE処理部14による測光処理(被写体輝度の測定)を実行する(ステップS102)。その後、メインCPU20は、AE処理部14における測光結果に基づいて、アペックス演算により露光時間(Texp)を演算する(ステップS103)。ここで、露光時間Texpは、通常撮影における露光時間(以下「標準露光時間」とよぶ)である。この標準露光時間Texpは、後述する複数の時分割撮影の合成露光時間とほぼ等しい。次に、メインCPU20は、AF処理部15の出力に基づいて、撮影レンズ1のフォーカスを調整する(ステップS104)。なお、このときにメインCPU20は、AF処理部15で演算される被写体距離を保持しておく。   First, the main CPU 20 determines whether or not the release button 21a is half-pressed and the first release switch is closed (step S101). In the determination in step S101, the main CPU 20 continues the determination in step S101 until the first release switch is closed. On the other hand, if it is determined in step S101 that the first release switch is closed, the main CPU 20 executes photometric processing (measurement of subject brightness) by the AE processing unit 14 (step S102). Thereafter, the main CPU 20 calculates an exposure time (Texp) by apex calculation based on the photometric result in the AE processing unit 14 (step S103). Here, the exposure time Texp is an exposure time in normal photographing (hereinafter referred to as “standard exposure time”). This standard exposure time Texp is substantially equal to a composite exposure time for a plurality of time-division photographing described later. Next, the main CPU 20 adjusts the focus of the taking lens 1 based on the output of the AF processing unit 15 (step S104). At this time, the main CPU 20 holds the subject distance calculated by the AF processing unit 15.

次に、メインCPU20は、レリーズボタン21aが全押しされて第2レリーズスイッチが閉じたか否かを判定する(ステップS105)。ステップS105の判定において、第2レリーズスイッチが閉じていなければ処理がステップS102に戻る。この場合に、メインCPU20はAE処理部14による測光を再び実行する。一方、ステップS105の判定において、第2レリーズスイッチが閉じていれば、メインCPU20は、TG回路7を介して撮像素子5の露光を開始させる(ステップS106)。これにより、撮像素子5の各画素において被写体像に応じた電荷の蓄積が開始される。   Next, the main CPU 20 determines whether or not the release button 21a is fully pressed and the second release switch is closed (step S105). If it is determined in step S105 that the second release switch is not closed, the process returns to step S102. In this case, the main CPU 20 performs the photometry by the AE processing unit 14 again. On the other hand, if it is determined in step S105 that the second release switch is closed, the main CPU 20 starts exposure of the image sensor 5 via the TG circuit 7 (step S106). Thereby, accumulation of electric charge according to the subject image is started in each pixel of the image sensor 5.

また、第2レリーズスイッチが閉じた後は、図3の処理とは独立にぶれ量の演算が行われる。ステップS106以降の処理においては、ぶれ量演算の処理が大きく係わってくるので、ここでぶれ量の演算について説明する。   Further, after the second release switch is closed, the amount of shake is calculated independently of the processing of FIG. In the processing after step S106, the shake amount calculation processing is greatly involved, and here, the shake amount calculation will be described.

第2レリーズスイッチが閉じた後、サブCPU23は、角速度センサ25、26から各出力される検出信号を、それぞれA/D変換部24によりデジタルデータとして取り込む。また、サブCPU23は、メインCPU20を介して撮影レンズ1の焦点距離fに関する情報を取得する(例えば、撮影レンズ1がズームレンズである場合には、メインCPU20がレンズ駆動系2を介して情報の取得を行い、あるいは、撮影レンズ1が交換式のレンズ鏡筒である場合には通信接点等を介して情報の取得を行う)。さらに、サブCPU23は、被写体距離情報をメインCPU20から取得する。これら、焦点距離fの情報と被写体距離情報とは、後述するX方向のぶれ量の演算及びY方向のぶれ量の演算に用いられる。   After the second release switch is closed, the sub CPU 23 takes in the detection signals output from the angular velocity sensors 25 and 26 as digital data by the A / D converter 24, respectively. Further, the sub CPU 23 acquires information on the focal length f of the photographing lens 1 via the main CPU 20 (for example, when the photographing lens 1 is a zoom lens, the main CPU 20 transmits information on the information via the lens driving system 2). Or when the photographic lens 1 is an interchangeable lens barrel, information is acquired via a communication contact or the like). Further, the sub CPU 23 acquires subject distance information from the main CPU 20. The information on the focal length f and the subject distance information are used for the calculation of the shake amount in the X direction and the calculation of the shake amount in the Y direction, which will be described later.

次に、図4を参照して、ぶれ量とぶれ補正量との関係について説明する。
図4は、デジタルカメラ100が回転角θxだけぶれた場合の、撮像面上における被写体63の像の移動状態を示す図である。
Next, the relationship between the shake amount and the shake correction amount will be described with reference to FIG.
FIG. 4 is a diagram illustrating a moving state of the image of the subject 63 on the imaging surface when the digital camera 100 is shaken by the rotation angle θx.

デジタルカメラ100がぶれ等によって回転角θxだけ回転したとすると、これに伴って撮影レンズ1が参照符号1’に示す位置まで回転して移動するとともに、撮像素子5の撮像面61も角度θxだけ傾いたC−D面の位置に移動する。また、ぶれが発生していないときには参照符号62に示す位置にあった被写体63の像が、回転角θxのぶれが発生した後には、撮像面C−D上の参照符号62’に示す位置に移動する。   Assuming that the digital camera 100 is rotated by the rotation angle θx due to shaking or the like, the photographing lens 1 is rotated and moved to the position indicated by reference numeral 1 ′ along with this, and the imaging surface 61 of the imaging element 5 is also moved by the angle θx. Move to the tilted CD plane position. Further, the image of the subject 63 that was at the position indicated by reference numeral 62 when no blur has occurred is located at the position indicated by reference numeral 62 ′ on the imaging surface CD after the blur of the rotation angle θx occurs. Moving.

ここで、撮影レンズ1の焦点距離をf、ぶれが発生していないときの撮影レンズ1の物空間焦点から被写体63までの距離をL、ぶれが発生していないときの撮影レンズ1の像空間焦点から像位置までの距離をL’、ぶれによる像位置の移動量をΔY、とそれぞれすると、図4に示すような幾何学的位置関係と、次の(式1)に示すニュートン(Newton)の結像公式

Figure 2009273058
Here, the focal length of the photographing lens 1 is f, the distance from the object space focal point of the photographing lens 1 to the subject 63 when there is no blurring is L, and the image space of the photographing lens 1 when there is no blurring. When the distance from the focal point to the image position is L ′ and the amount of movement of the image position due to blur is ΔY, respectively, the geometric positional relationship as shown in FIG. 4 and the Newton shown in the following (Expression 1) Imaging formula
Figure 2009273058

とを用いることにより、移動量ΔYは、次の(式2)に示すように算出される。

Figure 2009273058
Is used to calculate the movement amount ΔY as shown in the following (Equation 2).
Figure 2009273058

ここで、(式2)におけるβは撮影倍率を示し、β=f/Lである。また、(式2)を算出するに当たっては、θxが微小量であるとして、θxの1次のオーダーまでの近似を行っている。また、(式2)における焦点距離fは、上述したように、メインCPU20を介して取得され、撮影レンズ1のレンズ情報としてサブCPU23に入力される。さらに、βを算出するために必要な被写体距離Lは、AF処理部15から取得することができる。さらに、回転角θxは、角速度センサ25からの出力に基づいて算出することができる。   Here, β in (Equation 2) indicates the photographing magnification, and β = f / L. In calculating (Expression 2), it is assumed that θx is a minute amount, and approximation to the first order of θx is performed. Further, as described above, the focal length f in (Expression 2) is acquired via the main CPU 20 and input to the sub CPU 23 as lens information of the photographing lens 1. Furthermore, the subject distance L necessary for calculating β can be acquired from the AF processing unit 15. Further, the rotation angle θx can be calculated based on the output from the angular velocity sensor 25.

(式2)に基づいて得られる移動量ΔYに係る実質的な補正を行うことにより、デジタルカメラにぶれが発生したとしても、撮像素子5を介して出力される画像信号に係る画像にはぶれの影響が生じないようにすることができる。   Even if blurring occurs in the digital camera by performing substantial correction related to the movement amount ΔY obtained based on (Expression 2), the image related to the image signal output via the image sensor 5 is blurred. Can be prevented from occurring.

なお、上述したように、角度θxは微小量であるために、図4に示すように撮像面C−DがX軸周りにY軸に対して角度θxだけ傾いても、撮像面の傾きにより生じる像への影響は、上述した移動量ΔY以外には問題になることはない。   As described above, since the angle θx is a minute amount, even if the imaging surface CD is inclined about the X axis by the angle θx around the X axis as shown in FIG. The effect on the generated image is not a problem other than the movement amount ΔY described above.

また、デジタルカメラ100がY軸回りに回転角θyだけ回転したときの像位置の移動量ΔXも、(式2)と同様に、次の(式3)に示すように求められる。

Figure 2009273058
Further, the amount of movement ΔX of the image position when the digital camera 100 rotates about the Y axis by the rotation angle θy is also obtained as shown in the following (Expression 3), similarly to (Expression 2).
Figure 2009273058

ここで、(式2)の両辺を時間で微分することにより、次の(式4)が得られる。

Figure 2009273058
Here, the following (Expression 4) is obtained by differentiating both sides of (Expression 2) with respect to time.
Figure 2009273058

(式4)の右辺d(θx)/dtは、X軸周りの角速度そのものであるために、角速度センサ25の出力をそのまま用いることが可能である。また、(式4)の左辺d(ΔY)/dtは、d(θx)/dtの角速度が生じた場合のY軸方向の像移動速度Vyとなる。   Since the right side d (θx) / dt of (Expression 4) is the angular velocity itself around the X axis, the output of the angular velocity sensor 25 can be used as it is. Further, the left side d (ΔY) / dt in (Expression 4) is the image movement speed Vy in the Y-axis direction when an angular velocity of d (θx) / dt occurs.

同様に、Y軸回りに回転角θyだけぶれが発生したときのX軸方向の像位置の移動量ΔXに関しても、(式3)の両辺を時間で微分することにより、次の(式5)が得られる。

Figure 2009273058
Similarly, with respect to the movement amount ΔX of the image position in the X-axis direction when a shake occurs around the Y-axis by the rotation angle θy, the following (Expression 5) is obtained by differentiating both sides of (Expression 3) with respect to time. Is obtained.
Figure 2009273058

(式5)の右辺d(θy)/dtは、Y軸周りの角速度そのものであるために、角速度センサ26の出力をそのまま用いることが可能である。また、(式5)の左辺d(ΔX)/dtは、d(θy)/dtの角速度が生じた場合のX軸方向の像移動速度Vxとなる。   Since the right side d (θy) / dt of (Expression 5) is the angular velocity itself around the Y axis, the output of the angular velocity sensor 26 can be used as it is. Further, the left side d (ΔX) / dt of (Expression 5) is the image moving speed Vx in the X-axis direction when an angular velocity of d (θy) / dt occurs.

今、所定時間ΔT(ΔTは、A/D変換部24の出力をデジタル信号に変換するサンプリング間隔である。このΔTは、ぶれ限界露光時間TLimitと同じか、またはそれよりも短い時間であることが望ましい)周期で検出した角速度センサ25の出力d(θx)/dtが、ωx1、ωx2、ωx3、…、ωx(n-1)、ωxnであったとすると、n×ΔTの時間が経過した後のY軸方向の像位置の移動量ΔYは、次の(式6)に示すように与えられる。

Figure 2009273058
Now, the predetermined time ΔT (ΔT is a sampling interval for converting the output of the A / D converter 24 into a digital signal. This ΔT is equal to or shorter than the blur limit exposure time TLimit. If the output d (θx) / dt of the angular velocity sensor 25 detected in the period is ωx1, ωx2, ωx3, ..., ωx (n-1), ωxn, the time of n × ΔT has elapsed. The amount of movement ΔY of the image position in the Y-axis direction is given as shown in the following (Expression 6).
Figure 2009273058

同様に、所定時間ΔT毎に(所定時間ΔT周期で)検出した角速度センサ26の出力d(θy)/dtが、ωy1、ωy2、ωy3、…、ωy(n-1)、ωynであったとすると、n×ΔTの時間が経過した後のX軸方向の像位置の移動量ΔXは、次の(式7)に示すように与えられる。

Figure 2009273058
Similarly, if the output d (θy) / dt of the angular velocity sensor 26 detected at every predetermined time ΔT (in a predetermined time ΔT cycle) is ωy1, ωy2, ωy3,..., Ωy (n−1), ωyn. The amount of movement ΔX of the image position in the X-axis direction after elapse of n × ΔT is given as shown in the following (Expression 7).
Figure 2009273058

以上のように、撮像素子5によって、n×ΔTの時間間隔で露光された複数の画像における像の移動量(即ちぶれ量)は、(式6)及び(式7)により計算することができる。したがって、これらの式により算出されたぶれ量ΔX、ΔYに基づいて、それぞれの画像のぶれを補正するような画素電荷の移動を行ってから加算することにより、ぶれの補正された1つの画像を生成することが可能となる。   As described above, the image movement amount (that is, the blur amount) in a plurality of images exposed by the imaging element 5 at the time interval of n × ΔT can be calculated by (Expression 6) and (Expression 7). . Therefore, based on the blur amounts ΔX and ΔY calculated by these equations, the pixel charges are moved so as to correct the blur of each image, and then added, so that one image with the blur corrected is added. Can be generated.

図5は、サブCPU23により移動量ΔX、ΔY等を算出する処理の流れを示すフローチャートである。上述したように、図5の処理は、レリーズボタン21aの半押しによって第2レリーズスイッチが閉じたときから露光が終了するまでの間、図3に示した処理とは独立な処理として実行されるようになっている。   FIG. 5 is a flowchart showing a flow of processing for calculating the movement amounts ΔX, ΔY and the like by the sub CPU 23. As described above, the process of FIG. 5 is executed as a process independent of the process shown in FIG. 3 from when the second release switch is closed by half-pressing the release button 21a until the exposure is completed. It is like that.

図5の処理において、サブCPU23は、第2レリーズスイッチが閉じたか否かを判定している(ステップS401)。そして、第2レリーズスイッチが閉じるまではステップS401の判定を繰り返し行う。   In the process of FIG. 5, the sub CPU 23 determines whether or not the second release switch is closed (step S401). Then, the determination in step S401 is repeated until the second release switch is closed.

ステップS401の判定において、第2レリーズスイッチが閉じた場合に、サブCPU23は、撮影レンズ1の焦点距離fと被写体距離Lとを取得する(ステップS402)。これらの焦点距離fと被写体距離Lとは、例えば図5に示す処理の中において演算すれば良い。また、より高速なサイクルでぶれ量を演算するために、別途のプロセッサ等を用いて焦点距離fと被写体距離Lとを演算しておき、サブCPU23はこの演算されたデータをステップS402において取得するようにすると良い。これにより、処理の高速化を図るとともに、実際のぶれに対してリアルタイムに追従することが可能となる。   If it is determined in step S401 that the second release switch is closed, the sub CPU 23 acquires the focal length f and the subject distance L of the photographing lens 1 (step S402). These focal distance f and subject distance L may be calculated in the process shown in FIG. Further, in order to calculate the shake amount at a faster cycle, the focal distance f and the subject distance L are calculated using a separate processor or the like, and the sub CPU 23 acquires the calculated data in step S402. It is good to do so. As a result, it is possible to increase the processing speed and to follow the actual shake in real time.

次に、サブCPU23は、A/D変換部24を介して角速度センサ25、26の出力を読み込むことにより、角速度ωx、ωyを取得する(ステップS403)。その後、サブCPU23は、取得した角速度ωx、ωyを、前回取得した値までの角速度の累積加算値に加算することにより、今回検出した値までの角速度の累積加算値を演算する(ステップS404)。   Next, the sub CPU 23 acquires the angular velocities ωx and ωy by reading the outputs of the angular velocity sensors 25 and 26 via the A / D converter 24 (step S403). Thereafter, the sub CPU 23 calculates the cumulative addition value of the angular velocity up to the value detected this time by adding the acquired angular velocity ωx, ωy to the cumulative addition value of the angular velocity up to the previously acquired value (step S404).

その後、サブCPU23は、ステップS404で演算した累積加算値を、(式6)、(式7)にそれぞれ代入することにより、複数の時分割画像の内の最初の時分割画像の撮影終了時点からの像位置の移動量ΔY、ΔXをそれぞれ算出する(ステップS405)。   After that, the sub CPU 23 substitutes the cumulative addition value calculated in step S404 into (Expression 6) and (Expression 7), respectively, so that the first time-division image among the plurality of time-division images is captured. The movement amounts ΔY and ΔX of the image position are respectively calculated (step S405).

次に、サブCPU23は、Px=「ΔX/Lx」と、Py=「ΔY/Ly」と、を演算する(ステップS406)。ここで、Lx、Lyは画素のX方向、Y方向のサイズをそれぞれ表し、「」は小数以下を四捨五入した整数値を意味するものとする。したがって、Px、Pyは、最初の時分割画像の撮影終了時点からの像位置の移動量ΔX、ΔYを画素単位で表したものとなる。   Next, the sub CPU 23 calculates Px = “ΔX / Lx” and Py = “ΔY / Ly” (step S406). Here, Lx and Ly represent the size of the pixel in the X direction and the Y direction, respectively, and “” means an integer value obtained by rounding off fractions. Therefore, Px and Py represent the movement amounts ΔX and ΔY of the image position from the end of photographing of the first time-division image in units of pixels.

続いて、サブCPU23は、Px、Pyを、各対応するメモリ〔Px〕、〔Py〕にそれぞれ記憶させる(ステップS407)。その後、サブCPU23は、標準露光時間Texpの露光が終了しているか否かを判定する(ステップS408)。ステップS408の判定において、露光が終了していない場合には処理がステップ403に戻る。この場合に、サブCPU23は、角速度ωx、ωyの取得以後の処理を繰り返す。一方、ステップS408において、露光が終了した場合に、サブCPU23は、図5に示す処理を終了させる。   Subsequently, the sub CPU 23 stores Px and Py in the corresponding memories [Px] and [Py], respectively (step S407). Thereafter, the sub CPU 23 determines whether or not the exposure for the standard exposure time Texp has been completed (step S408). If it is determined in step S408 that the exposure has not ended, the process returns to step 403. In this case, the sub CPU 23 repeats the processes after obtaining the angular velocities ωx and ωy. On the other hand, when the exposure is completed in step S408, the sub CPU 23 ends the process shown in FIG.

ここで、図3の説明に戻る。ステップS106において、撮像素子5の露光を開始させた後、メインCPU20は、露光時間を計時するためのタイマカウンタ20aのカウントを開始させる(ステップS107)。次に、メインCPU20は、変数の初期設定を行う。ここでは、後述する演算に必要な変数Px0、Py0を記憶するためのメモリ〔Px0〕、〔Py0〕にそれぞれ0を記憶させる。本実施形態においては、最初の時分割撮影の露光開始からの累積ぶれ量を求め、この累積ぶれ量から前回の時分割撮影による画像信号を読み出すまでの累積ぶれ量を減算することにより、それぞれの時分割撮影の露光時間内のぶれ量を求めている。変数Px0、Py0は、前回の時分割撮影による画像信号を読み出すまでのX方向、Y方向の累積ぶれ量である。また、時分割撮影において、前回撮影した画像信号を撮像素子5から読み出すまでの露光時間Tm0を記憶するためのメモリ〔Tm0〕に0を記憶させる。また、時分割撮影の回数nを記憶するためのメモリ〔n〕に0を記憶させる。さらに、増幅回路9の増幅率Aを記憶するためのメモリ〔A〕に1を記憶させる。   Returning to the description of FIG. In step S106, after the exposure of the image sensor 5 is started, the main CPU 20 starts counting of the timer counter 20a for measuring the exposure time (step S107). Next, the main CPU 20 performs initial setting of variables. Here, 0 is stored in each of the memories [Px0] and [Py0] for storing variables Px0 and Py0 necessary for the calculation described later. In the present embodiment, the cumulative blur amount from the start of exposure in the first time-division shooting is obtained, and by subtracting the cumulative blur amount until the image signal by the previous time-division shooting is read out from this cumulative blur amount, The amount of blur within the exposure time for time-division shooting is obtained. Variables Px0 and Py0 are cumulative blur amounts in the X and Y directions until the image signal obtained by the previous time-division shooting is read out. Further, in time-division shooting, 0 is stored in a memory [Tm0] for storing the exposure time Tm0 until the image signal taken last time is read out from the image sensor 5. Further, 0 is stored in a memory [n] for storing the number n of time-division photographing. Further, 1 is stored in the memory [A] for storing the amplification factor A of the amplifier circuit 9.

次に、メインCPU20は、Px−Px0、Py−Py0を演算し、その演算結果をそれぞれメモリ〔Sx〕、〔Sy〕に記憶させる(ステップS109)。   Next, the main CPU 20 calculates Px−Px0 and Py−Py0 and stores the calculation results in the memories [Sx] and [Sy], respectively (step S109).

その後、メインCPU20は、タイマカウンタ20aのカウント値Tm(Tmは、最初の時分割撮影開始時刻(ステップS107の時刻とほぼ同じ)から最新の時分割画像信号の累積露光時間に等しい)から、増幅率設定処理(詳細は後述する)の中で設定した前回の画像信号読み出し前のタイマカウンタ20aの値Tm0(Tm0は最初の時分割撮影開始時刻から前回の時分割画像信号読み出しの時刻までの累積露光時間に等しい)を減算した時間Tm−Tm0(最新の時分割撮影における露光時間に等しい)を、ステップS103で演算した通常撮影における標準露光時間Texpで除算した値(Tm−Tm0)/Texp(以下「露光量比」とよぶ)が、予め不揮発性メモリ19に記憶された定数k1より小さいか否かを判定する(ステップS110)。ここで、露光量比は撮像素子5の光電変換素子に光電荷が標準レベルに対してどれくらい蓄積されたかを示すものであり、この値が小さいほど画像信号のS/N比が低くなる。露光量比がk1よりも小さいときは画像信号のS/N比が許容できないレベルであることを意味する。この場合には、画像信号の読み出しが行われずに、ステップS111に分岐する。そして、メインCPU20は、TmがTexp以上か否かを判定する(ステップS111)。ステップS111の判定において、TmがTexp以上のときは、ステップS116以降の画像信号の読み出し(後述する)を行う。後述することから明らかになるが、ステップS113以降の処理では、ぶれ量が所定量以上にならないと画像信号の読み出しが行われない。しかしながらぶれが発生していない場合にも画像信号の読み出しを行う必要がある。このため、ステップS111の判定を設けておき、ぶれが発生しなくとも、露光時間TmがTexp以上となったら、画像信号を読み出すようにしている。したがって、本実施形態においては、標準露光時間内のぶれ量が許容量以下の場合は通常撮影と同じように撮影が行われることになる。また、ステップS111の判定において、Tm≧Texpでないときには露光量が不足しているのでステップS109に戻って処理が繰り返される。   Thereafter, the main CPU 20 amplifies from the count value Tm of the timer counter 20a (Tm is equal to the cumulative exposure time of the latest time-division image signal from the first time-division photographing start time (substantially the same as the time of step S107)). The value Tm0 of the timer counter 20a before the previous image signal readout set in the rate setting process (details will be described later) (Tm0 is the accumulation from the first time-division imaging start time to the time of the previous time-division image signal readout). (Tm−Tm0) / Texp (Tm−Tm0) obtained by subtracting the time Tm−Tm0 (equal to the exposure time in the latest time-division shooting) divided by the standard exposure time Texp in normal shooting calculated in step S103. Hereinafter, it is determined whether or not the “exposure amount ratio” is smaller than a constant k1 stored in advance in the nonvolatile memory 19 (scanning step). -Up S110). Here, the exposure amount ratio indicates how much photocharge is accumulated in the photoelectric conversion element of the image pickup element 5 with respect to the standard level. The smaller this value, the lower the S / N ratio of the image signal. When the exposure amount ratio is smaller than k1, it means that the S / N ratio of the image signal is at an unacceptable level. In this case, the image signal is not read and the process branches to step S111. Then, the main CPU 20 determines whether or not Tm is equal to or higher than Texp (step S111). If Tm is greater than or equal to Texp in the determination in step S111, image signals are read (described later) after step S116. As will be described later, in the processing from step S113 onward, the image signal is not read unless the blur amount exceeds a predetermined amount. However, it is necessary to read out the image signal even when there is no blurring. For this reason, the determination in step S111 is provided so that the image signal is read when the exposure time Tm is equal to or greater than Texp even if no blurring occurs. Therefore, in this embodiment, when the amount of blur within the standard exposure time is less than the allowable amount, shooting is performed in the same manner as normal shooting. In step S111, if Tm ≧ Texp is not satisfied, the exposure amount is insufficient, so the process returns to step S109 and the process is repeated.

また、ステップS110の判定において、露光量比がk1よりも小さくないときは、露光量が画像信号のS/Nが許容レベルにある。この場合に、メインCPU20は、Sxが許容ぶれ量Sx0より大きいか、又はSyが許容ぶれ量Sy0よりも大きいかを判定する(ステップS112)。   In step S110, if the exposure amount ratio is not smaller than k1, the S / N of the image signal is at an allowable level. In this case, the main CPU 20 determines whether Sx is larger than the allowable shake amount Sx0 or whether Sy is larger than the allowable shake amount Sy0 (step S112).

ここで、ステップS112の許容ぶれ量について説明する。まず、撮像面での長さで表したX方向およびY方向の許容ぶれ量をそれぞれLx0、Ly0とする。そして例えば、24×36[mm]のサイズの撮像素子によって得られた画像を18×24[cm](所謂6切判)のプリント紙に6倍の倍率で引き伸ばして40[cm]の距離から観察したとする。視力1.0の人の視覚の2点識別分解能はおよそ1[分]とされているので、プリント紙に引き伸ばされた画像の許容錯乱円は、40[cm]×1[分]×2π/(360×60[分])=116[μm]となる。したがって、撮像素子の撮像面における許容錯乱円は116[μm]/6=19[μm]となる。本実施形態では、このような許容錯乱円の大きさに基づいて許容ぶれ量Sx0、Sy0を設定する。   Here, the allowable shake amount in step S112 will be described. First, the allowable blur amounts in the X direction and the Y direction represented by the length on the imaging surface are Lx0 and Ly0, respectively. For example, an image obtained by an image sensor having a size of 24 × 36 [mm] is stretched at a magnification of 6 times on a print paper of 18 × 24 [cm] (so-called 6-cut) from a distance of 40 [cm]. Suppose you observe. Since the visual two-point discrimination resolution of a person with a visual acuity of 1.0 is about 1 [min], the allowable circle of confusion of the image stretched on the print paper is 40 [cm] × 1 [min] × 2π / (360 × 60 [min]) = 116 [μm]. Therefore, the allowable circle of confusion on the imaging surface of the imaging device is 116 [μm] / 6 = 19 [μm]. In the present embodiment, the allowable blur amounts Sx0 and Sy0 are set based on the size of the allowable circle of confusion.

なお、本実施形態におけるデジタルカメラの画質モードは、図6に一例として示すように、画像サイズ(ピクセルサイズに対応する)と圧縮率とを選択して選べるようになっている。許容ぶれ量は、画像サイズ、圧縮率、画像の引き伸ばし倍率、及び観察距離等に依存するものである。本実施形態では、例えば、画像サイズ1600画素×1200画素、且つ圧縮率がノーマルのときの許容ぶれ量を上述した許容錯乱円の大きさに等しい19[μm]に設定する。画像サイズ1600画素×1200画素は、許容ぶれ量19[μm]のぶれが発生しても、本来の撮像素子の解像度を損なわないレベルの画像サイズである。他の画像サイズに対してどのような許容ぶれ量を設定するかは、画像の引き伸ばし倍率や観察距離にも依存するが、本実施形態においては、画像サイズに反比例した許容ぶれ量を設定する。これは、画像を画像サイズに比例した引き伸ばし倍率で拡大して観察距離を同じくして観察したとき、画像サイズに拠らず同じレベルのぶれ量を許容することを意味する。また、同じ画像サイズでも圧縮率が高いと画質は低下する。したがって、圧縮率が高いほど、許容ぶれ量を大きくするように設定する。   Note that the image quality mode of the digital camera in this embodiment can be selected by selecting an image size (corresponding to a pixel size) and a compression rate, as shown as an example in FIG. The allowable blur amount depends on the image size, compression ratio, image enlargement magnification, observation distance, and the like. In the present embodiment, for example, the allowable blur amount when the image size is 1600 pixels × 1200 pixels and the compression rate is normal is set to 19 [μm] equal to the size of the allowable circle of confusion described above. The image size of 1600 pixels × 1200 pixels is an image size at a level that does not impair the resolution of the original image sensor even when a blur of an allowable blur amount of 19 [μm] occurs. Although what allowable blur amount is set for other image sizes depends on the enlargement magnification and the observation distance of the image, in this embodiment, the allowable blur amount is set in inverse proportion to the image size. This means that when an image is enlarged at a magnification proportional to the image size and observed at the same observation distance, the same amount of blurring is allowed regardless of the image size. In addition, even if the image size is the same, the image quality deteriorates if the compression rate is high. Therefore, the higher the compression ratio, the larger the allowable blur amount is set.

以上説明した許容ぶれ量を単位画素の水平方向の長さ(Lx)と垂直方向の長さ(Ly)で除算することによって、画素単位で表したX方向、Y方向の許容ぶれ量Sx0、Sy0を計算する。そして、この許容ぶれ量Sx0、Sy0を画像サイズや圧縮率毎に予め不揮発性メモリ19に記憶しておく。   By dividing the allowable blur amount described above by the horizontal length (Lx) of the unit pixel and the vertical length (Ly), the allowable blur amounts Sx0, Sy0 in the X direction and the Y direction expressed in pixel units. Calculate The allowable blur amounts Sx0 and Sy0 are stored in advance in the nonvolatile memory 19 for each image size and compression rate.

ステップS112の判定において、Sxが許容ぶれ量Sx0より大きいか、Syが許容ぶれ量Sy0よりも大きい場合に、メインCPU20は、Sx/Sx0が不揮発性メモリ19に記憶されている定数k2より大きいか、又はSy/Sy0がk2より大きいか否かを判定する(ステップS113)。ステップS113の判定において、Sx/Sx0がk2より大きいか、又はSy/Sy0がk2より大きい場合には、ぶれが許容レベルより大きいとして、メインCPU20は表示部18に警告表示を行う(ステップS114)。なお、警告表示の代わりに警告音であっても構わない。ステップS113の判定処理を設けたのは次の理由による。ぶれを補正可能な限界は、時分割撮影において撮像素子から複数の画像信号を読み出す周期に依存する。読み出し周期が長いと時分割撮影におけるぶれ量が許容量に比べて大きくなりやすい。ぶれ量が許容量に対してどれくらい大きくなったときに警告表示をするかは設計的な問題であるが、たとえばk2=2にするとよい。k2=1では頻繁に警告表示がされて煩わしいし、k2が大きすぎると商品の信頼性が問われるからである。   If it is determined in step S112 that Sx is greater than the allowable shake amount Sx0 or Sy is greater than the allowable shake amount Sy0, the main CPU 20 determines whether Sx / Sx0 is greater than the constant k2 stored in the nonvolatile memory 19 Or whether Sy / Sy0 is larger than k2 (step S113). If it is determined in step S113 that Sx / Sx0 is greater than k2 or Sy / Sy0 is greater than k2, the main CPU 20 displays a warning on the display unit 18 assuming that the shake is greater than the allowable level (step S114). . A warning sound may be used instead of the warning display. The determination process in step S113 is provided for the following reason. The limit at which blurring can be corrected depends on the period in which a plurality of image signals are read from the image sensor in time-division shooting. If the readout cycle is long, the amount of blur in time-division shooting tends to be larger than the allowable amount. It is a design problem whether the warning amount is displayed with respect to the permissible amount, but it is preferable to set k2 = 2, for example. This is because k2 = 1 is troublesome because warnings are frequently displayed, and if k2 is too large, the reliability of the product is questioned.

また、ステップS113の判定において、Sx/Sx0及びSy/Sy0が何れもk2以下のときに、メインCPU20は、増幅回路9の増幅率設定のサブルーチンを実行する(ステップS115)。時分割撮影における露光量は通常撮影における露光量に比べて少ないので、時分割撮影における画像信号を増幅回路9によって増幅する。これにより、時分割撮影時におけるA/D変換部10への入力信号レベルを通常撮影時の入力信号レベルとほぼ等しくし、結果として、A/D変換部10のA/D変換に伴う量子化誤差を小さくすることができる。   In the determination at step S113, when both Sx / Sx0 and Sy / Sy0 are equal to or less than k2, the main CPU 20 executes a subroutine for setting the amplification factor of the amplifier circuit 9 (step S115). Since the exposure amount in the time-division shooting is smaller than the exposure amount in the normal shooting, the image signal in the time-division shooting is amplified by the amplifier circuit 9. Thereby, the input signal level to the A / D conversion unit 10 at the time of the time-division shooting is made substantially equal to the input signal level at the time of normal shooting, and as a result, the quantization accompanying the A / D conversion of the A / D conversion unit 10 The error can be reduced.

ここで、増幅率設定のサブルーチンについてさらに説明する。図7は、増幅率設定のサブルーチンを示すフローチャートである。メインCPU20は、最初の時分割撮影における露光開始からの累積露光時間Tmから、前回の時分割撮影における画像信号を読み出すまでの露光時間Tm0を減算し、この値(この値は、上述したように、最新の時分割撮影における露光時間を示すものとなる)を、変数ΔTexpを記憶するためのメモリ〔ΔTexp〕に記憶させる(ステップS501)。次に、メインCPU20は、Tmを新たな変数Tm0の値としてメモリ〔Tm0〕に記憶させる(ステップS502)。次に、メインCPU20は、Texp/ΔTexpを、増幅率Aを記憶するためのメモリ〔A〕に記憶させる(ステップS502)。その後、メインCPU20は、増幅回路9の増幅率をAに設定する(ステップS504)。このように増幅率を設定しておくことにより、画像信号の読み出し時には、撮像素子5からの画像信号がTexp/ΔTexp倍される。これによりA/D変換部10に入力される画像信号のレベルが通常撮影時のレベルとほぼ等しくなる。   Here, the subroutine for setting the amplification factor will be further described. FIG. 7 is a flowchart showing a subroutine for setting the amplification factor. The main CPU 20 subtracts the exposure time Tm0 from the accumulated exposure time Tm from the start of exposure in the first time-division shooting until the image signal in the previous time-division shooting is read out, and this value (this value is as described above). , Which indicates the exposure time in the latest time-division shooting) is stored in the memory [ΔTexp] for storing the variable ΔTexp (step S501). Next, the main CPU 20 stores Tm in the memory [Tm0] as a value of a new variable Tm0 (step S502). Next, the main CPU 20 stores Texp / ΔTexp in the memory [A] for storing the amplification factor A (step S502). Thereafter, the main CPU 20 sets the amplification factor of the amplifier circuit 9 to A (step S504). By setting the amplification factor in this way, the image signal from the image sensor 5 is multiplied by Texp / ΔTexp when the image signal is read. As a result, the level of the image signal input to the A / D converter 10 becomes substantially equal to the level during normal shooting.

再び図3に戻って説明を続ける。ステップS115の増幅率設定の後、メインCPU20は、前回画像信号を読み出すまでの累積ぶれ量Px0、Py0を記憶するメモリ〔Px0〕、〔Py0〕に露光開始からのぶれ量Px、Pyを記憶させることにより、Px0、Py0を更新する(ステップS116)。次に、メインCPU20は、TG回路7を制御して撮像素子5からの画像信号の読み出しを開始させる(ステップS117)。次に、メインCPU20は、今回読み出された画像信号と、既にぶれが補正されて合成されている画像信号との画像合成を行う(ステップS118)。   Returning to FIG. 3 again, the description will be continued. After setting the amplification factor in step S115, the main CPU 20 stores the blur amounts Px and Py from the start of exposure in the memories [Px0] and [Py0] that store the cumulative blur amounts Px0 and Py0 until the previous image signal is read. As a result, Px0 and Py0 are updated (step S116). Next, the main CPU 20 controls the TG circuit 7 to start reading image signals from the image sensor 5 (step S117). Next, the main CPU 20 performs image synthesis of the image signal read this time and the image signal that has already been corrected and synthesized (step S118).

画像合成のサブルーチンについて図8を参照してさらに説明する。図8は、画像合成のサブルーチンを示すフローチャートである。まず、メインCPU20は、時分割撮影の回数を示す変数nが0か否かを判定する(ステップS601)。ステップS601の判定において、n=0のときは、初回の時分割撮影による画像信号が読み出された場合である。このとき、メインCPU20は、撮像素子5を介して読み出され、A/D変換部10で得られた画像データを内蔵メモリ12に記憶させる(ステップS602)。一方、ステップS601の判定において、n=0でないときは、2回目以降の時分割撮影による画像信号が読み出された場合である。この場合に、メインCPU20は、撮像素子5から新たに読み出された画像信号をデジタル化して得られた画像データのシフトを行う。このシフトは、図3のステップS109にてメモリ〔Sx〕、〔Sy〕に記憶されたX方向、Y方向のぶれ量をそれぞれSx、Syとしたときに、X方向に−Sx、Y方向に−Syだけシフトさせる。画像データのシフト後、メインCPU20は、ぶれを補正した画像データを、既に内蔵メモリ12に記憶されている画像データと合成して、再び内蔵メモリ12に記憶させる(ステップS603)。次に、メインCPU20は、変数nを記憶するためのメモリ〔n〕にn+1を記憶させ、図8の処理からリターンする。   The image composition subroutine will be further described with reference to FIG. FIG. 8 is a flowchart showing an image composition subroutine. First, the main CPU 20 determines whether or not a variable n indicating the number of time-division shooting is 0 (step S601). In the determination in step S601, when n = 0, the image signal is read by the first time-division shooting. At this time, the main CPU 20 stores the image data read out via the image sensor 5 and obtained by the A / D converter 10 in the built-in memory 12 (step S602). On the other hand, if it is not n = 0 in the determination in step S601, it is a case where an image signal is read by time-division shooting after the second time. In this case, the main CPU 20 shifts image data obtained by digitizing the image signal newly read from the image sensor 5. This shift is performed in the −Sx and Y directions in the X direction when the amounts of shake in the X and Y directions stored in the memories [Sx] and [Sy] in step S109 in FIG. 3 are Sx and Sy, respectively. Shift by -Sy. After the shift of the image data, the main CPU 20 combines the image data whose blur is corrected with the image data already stored in the built-in memory 12 and stores it again in the built-in memory 12 (step S603). Next, the main CPU 20 stores n + 1 in the memory [n] for storing the variable n, and returns from the processing of FIG.

なお、ステップS603の処理は、1画素分の整数倍のずれを補正して2つの画像を合成する処理である。しかしながら、単板式のカラー撮像素子、つまり撮像面の前面にモザイク状のカラーフィルタを配置した撮像素子の場合には、さらに、色信号の混合が発生しないように工夫しなければならない。例えば、ベイヤー配列のカラーフィルタでは、2画素×2画素のカラーフィルタを単位とするモザイク状フィルタが繰り返し配列されているために、奇数画素分のぶれを補正して加算すると異なる色の信号が加算されてしまう。このため、正常な色を再現することができなくなる。したがって、このような課題を解決するためには、カラーフィルタの水平方向の最小繰り返し周期および垂直方向の最小繰り返し周期(ベイヤー配列の場合はそれぞれ2画素)を最小単位として画像をシフトすることにより、ぶれを補正すれば良い。ベイヤー配列を例にとると、垂直方向のシフト量を2・「Sy/2」、水平方向のぶれ補正量を2・「Sx/2」、とそれぞれすれば良い。ここに、Sx、Syは、上述したステップS603の値である。   Note that the process of step S603 is a process of correcting two integer multiples of one pixel and synthesizing two images. However, in the case of a single-plate color image pickup device, that is, an image pickup device in which a mosaic color filter is arranged in front of the image pickup surface, it must be further devised so that color signal mixing does not occur. For example, in a Bayer array color filter, a mosaic filter with a 2 × 2 pixel color filter as a unit is repeatedly arranged. Therefore, when a blur of odd pixels is corrected and added, signals of different colors are added. Will be. For this reason, normal colors cannot be reproduced. Therefore, in order to solve such a problem, the image is shifted by setting the minimum repeat period in the horizontal direction and the minimum repeat period in the vertical direction (two pixels in the case of the Bayer array) as the minimum unit. What is necessary is just to correct the blur. Taking the Bayer array as an example, the vertical shift amount may be 2 · “Sy / 2” and the horizontal blur correction amount may be 2 · “Sx / 2”. Here, Sx and Sy are the values in step S603 described above.

再び図3に戻って説明を続ける。ステップS118において画像合成が終了すると、メインCPU20は、タイマカウンタ20aの値Tmが標準露光時間Texp以上か否かを判定する(ステップS119)。ステップS119の判定において、Tm<Texpのときは、処理がステップS109に戻る。そして、メインCPU20は、ステップS109以後の処理を繰り返す。一方、ステップS119の判定において、Tm≧Texpのときに、メインCPU20は図3の処理を終了させて撮影を終了する。   Returning to FIG. 3 again, the description will be continued. When image composition ends in step S118, the main CPU 20 determines whether or not the value Tm of the timer counter 20a is equal to or greater than the standard exposure time Texp (step S119). If it is determined in step S119 that Tm <Texp, the process returns to step S109. Then, the main CPU 20 repeats the processing after step S109. On the other hand, in the determination of step S119, when Tm ≧ Texp, the main CPU 20 ends the processing of FIG.

以上説明したように、本実施形態によれば、ステップS110の判定によって画像信号のS/N比が許容できるか否かの判定を行うようにし、画像信号のS/N比が許容できないレベルの場合には画像信号の読み出しを行わないようにしている。これによって、ぶれ補正によって画像のS/N比が低下するのを防止することが可能である。   As described above, according to the present embodiment, it is determined whether or not the S / N ratio of the image signal is acceptable by the determination in step S110, and the S / N ratio of the image signal is at an unacceptable level. In this case, the image signal is not read out. Thereby, it is possible to prevent the S / N ratio of the image from being lowered due to the blur correction.

以上実施形態に基づいて本発明を説明したが、本発明は上記した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described based on the above embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上述した実施形態では、時分割撮影によって得られるそれぞれの画像におけるぶれの補正を撮像素子5から画像信号を読み出した後で行っているが、撮像素子5内でぶれの補正を行ってから画像信号を読み出すようにしても良い。また、上述した実施形態においては、画像信号を読み出す毎に逐次ぶれを補正して合成を行っているが、すべての時分割画像信号を読み出して内蔵メモリ12に記憶させた後に、各時分割画像の相互のぶれを補正して合成してもよい。   For example, in the above-described embodiment, blur correction in each image obtained by time-division shooting is performed after the image signal is read out from the image sensor 5, but after the blur correction is performed in the image sensor 5. An image signal may be read out. In the above-described embodiment, each time an image signal is read out, the image is sequentially corrected and synthesized. However, after all the time-division image signals are read out and stored in the built-in memory 12, each time-division image is read out. It is also possible to synthesize by correcting each other's shake.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係わる撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. デジタルカメラに設定した座標軸と2つの角速度センサ25、26の配置との関係を示す図である。It is a figure which shows the relationship between the coordinate axis set to the digital camera, and arrangement | positioning of the two angular velocity sensors 25 and 26. FIG. 本発明の一実施形態の撮像方法を含むデジタルカメラの撮影動作の流れを示すフローチャートである。It is a flowchart which shows the flow of imaging | photography operation | movement of a digital camera including the imaging method of one Embodiment of this invention. デジタルカメラが回転角θxだけぶれた場合の、撮像面上における被写体の像の移動状態を示す図である。It is a figure which shows the movement state of the image of a to-be-photographed object on an imaging surface when a digital camera shakes only rotation angle (theta) x. サブCPUにより移動量ΔX、ΔY等を算出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process which calculates movement amount (DELTA) X, (DELTA) Y etc. by sub CPU. デジタルカメラの画質モードを示す図である。It is a figure which shows the image quality mode of a digital camera. 増幅率設定のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of an amplification factor setting. 画像合成のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of an image composition.

符号の説明Explanation of symbols

1…撮影レンズ、2…レンズ駆動系、3…絞り、4…絞り駆動系、5…撮像素子、6…撮像素子ドライバ、7…タイミングジェネレータ(TG)回路、8…相関二重サンプリング(CDS)回路、9…増幅回路、10,24…アナログ/デジタル(A/D)変換部、11…データバス、12…内蔵メモリ、13…画像処理部、14…AE処理部、15…AF処理部、16…圧縮/伸張部、17…着脱メモリ、18…表示部、19…不揮発性メモリ、20…メインCPU、20a…タイマカウンタ、21…入力部、21a…レリーズボタン、22b…画質入力ボタン、23…サブCPU、25,26…角速度センサ   DESCRIPTION OF SYMBOLS 1 ... Shooting lens, 2 ... Lens drive system, 3 ... Diaphragm, 4 ... Diaphragm drive system, 5 ... Image sensor, 6 ... Image sensor driver, 7 ... Timing generator (TG) circuit, 8 ... Correlated double sampling (CDS) Circuit 9, amplification circuit 10, 24, analog / digital (A / D) conversion unit 11 data bus 12 built-in memory 13 image processing unit 14 AE processing unit 15 AF processing unit DESCRIPTION OF SYMBOLS 16 ... Compression / decompression part, 17 ... Detachable memory, 18 ... Display part, 19 ... Nonvolatile memory, 20 ... Main CPU, 20a ... Timer counter, 21 ... Input part, 21a ... Release button, 22b ... Image quality input button, 23 ... Sub CPU, 25, 26 ... Angular velocity sensor

Claims (3)

時分割撮影を行って得られた複数の画像の相互のぶれを補正した後に合成して、ぶれが低減された画像を生成する撮像装置において、
上記時分割撮影における画像のぶれ量を検出するぶれ量検出部と、
上記時分割撮影における露光時間と標準露光時間との比である露光量比を所定値と比較する判定部と、
上記判定部により上記露光量比が上記所定値より小さいと判定されたときは、上記ぶれ量の大きさに係わらず上記露光量比が上記所定値以上になるように露光時間を制御し、上記判定部により上記露光量比が上記所定値以上と判定されたときは、上記時分割撮影における画像のぶれ量が許容量以下になるように上記露光時間を制御する露光時間制御部と、
上記露光時間に従って被写体を時分割撮影して画像信号を生成する撮像部と、
上記時分割撮影を複数回行って得られた複数の画像信号のそれぞれによって表される複数の画像の相互のぶれが補正されるように、上記複数の画像信号に対してぶれ補正を行った後に合成処理を行う画像処理部と、
を具備することを特徴とする撮像装置。
In an imaging device that generates an image with reduced blur by compositing after correcting shakes of a plurality of images obtained by performing time-division shooting,
A blur amount detection unit for detecting the blur amount of the image in the time-division shooting;
A determination unit that compares an exposure amount ratio, which is a ratio between an exposure time and a standard exposure time in the time-division shooting, with a predetermined value;
When the determination unit determines that the exposure amount ratio is smaller than the predetermined value, the exposure time is controlled so that the exposure amount ratio is equal to or greater than the predetermined value regardless of the amount of blur. An exposure time control unit that controls the exposure time so that a blur amount of the image in the time-division shooting is equal to or less than an allowable amount when the determination unit determines that the exposure amount ratio is equal to or greater than the predetermined value;
An imaging unit for time-division imaging of the subject according to the exposure time to generate an image signal;
After performing the shake correction on the plurality of image signals so that the mutual shake of the plurality of images represented by each of the plurality of image signals obtained by performing the time-division photographing a plurality of times is corrected. An image processing unit for performing composition processing;
An imaging apparatus comprising:
上記時分割撮影における画像のぶれ量と上記許容量との比が所定値以上のとき警告表示を行う表示部をさらに具備することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a display unit that displays a warning when a ratio between an image blur amount and the allowable amount in the time-division photographing is equal to or greater than a predetermined value. 時分割撮影を行って得られた複数の画像の相互のぶれを補正した後に合成してぶれが低減された画像を生成する撮像方法において、
時分割撮影における露光時間と標準露光時間との比である露光量比を判定し、上記露光量比が所定値より小さいと判定されたときは、上記ぶれ量の大きさに係わらず上記露光量比が上記所定値以上になるように上記露光時間を制御し、上記露光量比が上記所定値以上と判定されたときは、上記時分割撮影のそれぞれにおける画像のぶれ量が許容量以下になるように露光時間を制御して時分割撮影を複数回行い、該複数回の時分割撮影で得られた複数の画像の相互のぶれを補正した後に合成することを特徴とする撮像方法。
In an imaging method for generating an image in which blur is reduced by combining after correcting the mutual blur of a plurality of images obtained by performing time-division shooting,
The exposure amount ratio, which is the ratio between the exposure time and the standard exposure time in time-division shooting, is determined, and when it is determined that the exposure amount ratio is smaller than a predetermined value, the exposure amount regardless of the amount of blurring. The exposure time is controlled so that the ratio is equal to or greater than the predetermined value, and when the exposure amount ratio is determined to be equal to or greater than the predetermined value, the amount of image blur in each of the time-division shootings is less than the allowable amount. As described above, the image capturing method is characterized in that the exposure time is controlled to perform time-division photographing a plurality of times, and a plurality of images obtained by the plurality of time-division photographing operations are corrected and corrected for mutual blurring.
JP2008124006A 2008-05-09 2008-05-09 Imaging device and imaging method Withdrawn JP2009273058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008124006A JP2009273058A (en) 2008-05-09 2008-05-09 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008124006A JP2009273058A (en) 2008-05-09 2008-05-09 Imaging device and imaging method

Publications (1)

Publication Number Publication Date
JP2009273058A true JP2009273058A (en) 2009-11-19

Family

ID=41439183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008124006A Withdrawn JP2009273058A (en) 2008-05-09 2008-05-09 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP2009273058A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160058195A (en) * 2013-10-11 2016-05-24 페이스북, 인크. Applying video stabilization to a multimedia clip

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160058195A (en) * 2013-10-11 2016-05-24 페이스북, 인크. Applying video stabilization to a multimedia clip
KR101707600B1 (en) 2013-10-11 2017-02-16 페이스북, 인크. Applying video stabilization to a multimedia clip

Similar Documents

Publication Publication Date Title
US8208034B2 (en) Imaging apparatus
JP2009296561A (en) Imaging apparatus and imaging method
CN101594464B (en) Imaging apparatus and imaging method
JP7086571B2 (en) Image pickup device, lens device and control method thereof
TW201004329A (en) Image capture apparatus and program
JP2010103895A (en) Imaging device, compound-eye imaging device and imaging control method
JP2006162991A (en) Stereoscopic image photographing apparatus
US9871964B2 (en) Photographing apparatus, photographing controller, photographing control method, and photographing control program
JP5832353B2 (en) Imaging device
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP2006080844A (en) Electronic camera
JP2007233166A (en) Camera with shake correction function
JP2003101862A (en) Image pickup device and image pickup method
JP6606838B2 (en) Imaging apparatus and imaging method
JP2009017006A (en) Photographic device
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP2009273058A (en) Imaging device and imaging method
JP6833381B2 (en) Imaging equipment, control methods, programs, and storage media
JP6786288B2 (en) Imaging device, lens device, control method, program, and storage medium
JP6800642B2 (en) Accessory device, control device, control method of these
US11653094B2 (en) Imaging apparatus with shaking state information display
JP2013128165A (en) Imaging apparatus
JP2009171327A (en) Photographing apparatus
JP2009171324A (en) Photographing apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110802