JP2008092005A - Electronic camera, imaging control program and imaging control method - Google Patents

Electronic camera, imaging control program and imaging control method Download PDF

Info

Publication number
JP2008092005A
JP2008092005A JP2006267405A JP2006267405A JP2008092005A JP 2008092005 A JP2008092005 A JP 2008092005A JP 2006267405 A JP2006267405 A JP 2006267405A JP 2006267405 A JP2006267405 A JP 2006267405A JP 2008092005 A JP2008092005 A JP 2008092005A
Authority
JP
Japan
Prior art keywords
image
predetermined
shooting
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006267405A
Other languages
Japanese (ja)
Other versions
JP4867554B2 (en
JP2008092005A5 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006267405A priority Critical patent/JP4867554B2/en
Publication of JP2008092005A publication Critical patent/JP2008092005A/en
Publication of JP2008092005A5 publication Critical patent/JP2008092005A5/ja
Application granted granted Critical
Publication of JP4867554B2 publication Critical patent/JP4867554B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform a photographing while appropriately performing a pixel addition. <P>SOLUTION: Whether or not it is a set predetermined photographing condition is determined (S122), and when no, normal still picture photographing is performed in 124. When yes, an imaging element and a DSP part are set in a consecutive photographing and multiplane addition mode (S130), and the number (n) of addition images and an exposure time (T/n) are reset so as to shorten an exposure time T (S131). An exposure/photographing operation is started (S132), and when the exposure time (T/n) finishes, image data obtained by this is read (S134), and position adjustment processing for adjusting the position of the image data to the preceding image is executed (S136). Next, a photographed image is sequentially subjected to multiplane addition composition with the preceding image (S137), and interpolation processing and noise elimination processing are executed (S138). In addition, whether consecutive photographing for the number of addition images is finished is determined (S139), and processing from the S132 is repeated until finishing the consecutive photographing for the number of addition images. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被写体を撮像して静止画で記録する電子カメラ、撮像制御プログラム及び撮像制御方法に関する。   The present invention relates to an electronic camera that captures an image of a subject and records it as a still image, an imaging control program, and an imaging control method.

従来、カメラに採用されている手ブレ補正方式は、光学式手振れ補正と電子式手振れ補正とに大別される。光学式手振れ補正は、アクチュエータを用いて光学系の一部を駆動する方式である。一方、電子式手振れ補正としては、連続する複数の画像を撮影し各画像の対応する画素同士を加算する方式が知られている(特許文献1参照)。
特開2001−230965号公報
Conventionally, camera shake correction methods employed in cameras are roughly classified into optical camera shake correction and electronic camera shake correction. Optical camera shake correction is a method of driving a part of an optical system using an actuator. On the other hand, as electronic camera shake correction, a method is known in which a plurality of continuous images are taken and pixels corresponding to each image are added together (see Patent Document 1).
JP 2001-230965 A

しかしながら、撮影した連続する複数の画像の画素を加算する方式の場合、画像サイズを維持できるメリットはあるものの、撮影条件によっては複数の画像を加算した際にノイズが発生してしまうデメリットが生ずる。したがって、ブレ補正を行う必要がある条件下で撮影を行った場合には、撮影した連続する複数の画像の画素加算による有効なブレ補正手段となる反面、ブレ補正を行う必要がない条件下で撮影を行った場合においても同様の画素加算が行われると、前記デメリットによる無用な画質低下を招いてしまう。   However, in the method of adding pixels of a plurality of consecutive captured images, there is a merit that the image size can be maintained, but depending on the photographing conditions, there is a demerit that noise is generated when a plurality of images are added. Therefore, when shooting is performed under conditions where it is necessary to perform blur correction, it becomes an effective blur correction means by adding pixels of a plurality of consecutive images that have been shot, but under conditions where blur correction is not required. Even when shooting is performed, if the same pixel addition is performed, useless image quality degradation due to the disadvantages is caused.

本発明は、かかる従来の課題に鑑みてなされたものであり、画素加算を適正に行いつつ撮影を行うことのできる電子カメラ、撮像制御プログラム及び撮像制御方法を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object thereof is to provide an electronic camera, an imaging control program, and an imaging control method that can perform imaging while appropriately performing pixel addition.

前記課題を解決するために請求項1記載の発明に係る電子カメラは、複数の画素を有し、露出することにより被写体を撮像して画像データを取得する撮像手段と、操作に応答して前記撮像手段を設定された露出時間で単一回露出させ、前記取得した画像データを出力する第1の撮像処理手段と、操作に応答して前記撮像手段を前記設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行する第2の撮像処理手段と、前記加算処理を実行させるべき所定条件を満たしているか否かを判断する判断手段と、この判断手段により前記所定条件を満たしていないと判断された場合には、前記第1の撮像処理手段を動作させ、満たしていると判断された場合は前記第2の撮像処理手段を動作させる制御手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, an electronic camera according to an embodiment of the present invention includes a plurality of pixels, an imaging unit that captures an image of a subject by exposure and acquires image data, and the electronic camera in response to an operation. A first imaging processing means for exposing the imaging means a single time with a set exposure time and outputting the acquired image data; and an exposure shorter than the set exposure time for the imaging means in response to an operation. Whether or not a second imaging processing means for performing addition processing for performing exposure processing a plurality of times in succession and adding sequentially acquired image data for each exposure and a predetermined condition for executing the addition processing are satisfied A determination means for determining the first imaging processing means is operated when the determination means determines that the predetermined condition is not satisfied, and the second image processing is determined when it is determined that the predetermined condition is satisfied. Imaging process Characterized in that it comprises a control means for operating the means.

また、請求項2記載の発明に係るカメラは、前記第2の撮像処理手段は、前記設定された露出時間内において前記撮像手段を連続して複数回露出させて、前記加算処理を実行することを特徴とする。   In the camera according to the second aspect of the invention, the second imaging processing unit performs the addition processing by exposing the imaging unit continuously a plurality of times within the set exposure time. It is characterized by.

また、請求項3記載の発明に係るカメラは、前記第2の撮像処理手段は、前記露出毎の画像データにおける画像の位置を合致させる位置合わせ手段を備えることを特徴とする。   The camera according to a third aspect of the invention is characterized in that the second imaging processing means includes an alignment means for matching the position of the image in the image data for each exposure.

また、請求項4記載の発明に係るカメラは、前記所定条件を可変的に設定する第1の設定手段を備えることを特徴とする。   According to a fourth aspect of the present invention, there is provided a camera comprising a first setting unit that variably sets the predetermined condition.

また、請求項5記載の発明に係るカメラは、当該電子カメラの撮影条件を設定する第2設定手段を備え、前記所定条件とは、前記第2設定手段により設定された所定の撮影条件を含むものであることを特徴とする。   According to a fifth aspect of the present invention, the camera includes second setting means for setting shooting conditions of the electronic camera, and the predetermined condition includes a predetermined shooting condition set by the second setting means. It is characterized by that.

また、請求項6記載の発明に係るカメラは、前記所定条件とは、当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件を含むものであることを特徴とする。   The camera according to the invention of claim 6 is characterized in that the predetermined condition includes a predetermined camera shake occurrence condition in which camera shake is assumed to occur in the camera.

また、請求項7記載の発明に係るカメラは、前記所定の手ブレ発生条件とは、
(a)当該カメラが有するレンズの焦点距離が所定値よりも大きい場合、
(b)マクロモード又は近接撮影モードが設定されている場合、
(c)当該カメラのブレ量を検出する検出手段により検出されたブレ量が所定ブレ量よりも大きい場合、
の少なくとも一つの条件を含むものであることを特徴とする。
Further, in the camera according to claim 7, the predetermined camera shake occurrence condition is:
(A) When the focal length of the lens of the camera is greater than a predetermined value,
(B) When the macro mode or the close-up mode is set,
(C) When the blur amount detected by the detecting means for detecting the blur amount of the camera is larger than the predetermined blur amount,
It includes at least one of the following conditions.

また、請求項8記載の発明に係るカメラは、前記所定条件とは、当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件を含むものであることを特徴とする。   The camera according to an eighth aspect of the invention is characterized in that the predetermined condition includes a predetermined image blur occurrence condition in which image blur is assumed to occur in a subject imaged by the camera.

また、請求項9記載の発明に係るカメラは、前記所定の像ブレ発生条件とは、
(d)設定された露出時間における被写体移動による像移動量が、所定値より大きい場合、
(e)被写体の輝度が所定値よりも低く、当該カメラが有する発光手段が強制的に停止されている場合、
(f)前記設定された露出時間が、所定の露出時間よりも長い場合、
(g)当該カメラが設定した所定の設定値に基づき、暗い部屋又は電灯照明下の被写体と判断された場合、
の少なくとも一つの条件を含むものであることを特徴とする。
Further, in the camera according to the ninth aspect of the invention, the predetermined image blur occurrence condition is:
(D) When the amount of image movement due to subject movement during the set exposure time is greater than a predetermined value,
(E) When the luminance of the subject is lower than a predetermined value and the light emitting means of the camera is forcibly stopped,
(F) When the set exposure time is longer than the predetermined exposure time,
(G) When it is determined that the subject is a dark room or a subject under electric lighting based on a predetermined set value set by the camera,
It includes at least one of the following conditions.

また、請求項10記載の発明に係るカメラは、複数の撮影シーンの各々対応して設定される撮影条件を記憶した記憶手段と、この記憶手段に記憶されたいずれかの撮影シーンを選択する選択手段とを備え、この選択手段により選択された撮影シーンに対応する撮影条件を設定する第3設定手段とを備え、前記所定条件とは、前記選択手段により選択された撮影シーンの種別を含むものであることを特徴とする。   According to a tenth aspect of the present invention, there is provided a camera having a storage unit that stores shooting conditions set in correspondence with each of a plurality of shooting scenes, and a selection for selecting one of the shooting scenes stored in the storage unit. And a third setting unit for setting a shooting condition corresponding to the shooting scene selected by the selection unit, wherein the predetermined condition includes a type of the shooting scene selected by the selection unit. It is characterized by that.

また、請求項11記載の発明に係るカメラは、光学式手ブレ振れ補正手段を更に備え、   The camera according to an eleventh aspect of the present invention further includes optical camera shake correction means,

前記所定条件は、第1及び第2の所定条件を含み、前記判断手段は、第1及び第2の所定条件を満たしているか否かを判断し、前記制御手段は、前記判断手段により第1の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第1の制御と、前記第2の所定条件を満たしていると判断された場合には、前記位置合わせ手段を動作させつつ前記第2の撮像処理手段を動作させる第2の制御と、前記第1及び第2の所定条件が満たされていないと判断された場合には、前記光学式手ブレ振れ補正手段を停止させて前記第1の撮像処理手段を動作させる第3の制御とを実行することを特徴とする。   The predetermined condition includes first and second predetermined conditions, the determination means determines whether or not the first and second predetermined conditions are satisfied, and the control means performs the first determination by the determination means. When it is determined that the predetermined condition is satisfied, the first control for operating the first imaging processing unit while operating the optical camera shake correction unit and the second predetermined condition are satisfied. If it is determined that the condition is satisfied, the second control for operating the second imaging processing unit while operating the alignment unit and the first and second predetermined conditions are not satisfied. If it is determined, the optical camera shake correction unit is stopped and the third control for operating the first imaging processing unit is executed.

また、請求項12記載の発明に係るカメラは、第1、第2及び第3のモードを選択的に設定するモード設定手段を備え、前記制御手段は、前記モード設定手段により第1のモードが設定されている場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させ、前記第2のモードが設定されている場合には、前記位置合わせ手段の動作を伴って前記第2の撮像処理手段を動作させ、第3のモードが設定されている場合には、前記第1、第2及び第3の制御を実行することを特徴とする。   According to a twelfth aspect of the present invention, there is provided a camera comprising mode setting means for selectively setting the first, second, and third modes, wherein the control means is configured so that the first mode is set by the mode setting means. When set, the first image pickup processing means is operated while operating the optical camera shake correction means, and when the second mode is set, the positioning means The second imaging processing means is operated with operation, and when the third mode is set, the first, second and third controls are executed.

また、請求項13記載の発明に係るカメラは、光学式手ブレ振れ補正手段を更に備え、   The camera according to the invention of claim 13 further includes an optical camera shake correction means,

前記所定条件は、第1及び第2の所定条件を含み、前記判断手段は、第1及び第2の所定条件を満たしているか否かを判断し、前記制御手段は、前記判断手段により第1の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第1の制御と、前記第2の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第2の撮像処理手段を動作させる第2の制御と、前記第1及び第2の所定条件が満たされていないと判断された場合には、前記光学式手ブレ振れ補正手段を停止させて前記第1の撮像処理手段を動作させる第3の制御とを実行することを特徴とする。   The predetermined condition includes first and second predetermined conditions, the determination means determines whether or not the first and second predetermined conditions are satisfied, and the control means performs the first determination by the determination means. When it is determined that the predetermined condition is satisfied, the first control for operating the first imaging processing unit while operating the optical camera shake correction unit and the second predetermined condition are satisfied. If it is determined that the condition is satisfied, the second control for operating the second imaging processing unit while operating the optical camera shake correction unit and the first and second predetermined conditions are satisfied. If it is determined that the optical image stabilization is not performed, the optical camera shake correction unit is stopped, and the third control for operating the first imaging processing unit is executed.

また、請求項14記載の発明に係るカメラは、第1、第2及び第3のモードを選択的に設定するモード設定手段を備え、前記制御手段は、前記モード設定手段により第1のモードが設定されている場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させ、前記第2のモードが設定されている場合には、前記前記光学式手ブレ振れ補正手段を動作させつつ前記第2の撮像処理手段を動作させ、第3のモードが設定されている場合には、前記第1、第2及び第3の制御を実行することを特徴とする。   According to a fourteenth aspect of the present invention, there is provided a camera comprising mode setting means for selectively setting the first, second, and third modes, wherein the control means is configured so that the first mode is set by the mode setting means. When set, the first image pickup processing means is operated while operating the optical camera shake correction means, and when the second mode is set, the optical hand shake correction means is operated. The second imaging processing unit is operated while operating the shake correction unit, and when the third mode is set, the first, second and third controls are executed. To do.

また、請求項15記載の発明に係るカメラは、前記第1の所定条件とは、当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件を含むものであり、前記第2の所定条件とは、当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件を含むものであることを特徴とする。   In the camera according to the fifteenth aspect, the first predetermined condition includes a predetermined camera shake occurrence condition in which camera shake is assumed to occur in the camera. The predetermined condition includes a predetermined image blur occurrence condition in which image blur is assumed to occur in a subject imaged by the camera.

また、請求項16記載の発明に係るカメラは、前記撮像手段の感度を増加させることにより、前記設定された露出時間が可及的に短くなるように再設定する再設定手段を備え、前記所定条件とは、前記再設定手段により再設定された露出時間が所定時間よりも長い場合を含むものであることを特徴とする。   Further, the camera according to the invention of claim 16 includes a resetting unit that resets the set exposure time as short as possible by increasing the sensitivity of the imaging unit, The condition includes a case where the exposure time reset by the resetting means is longer than a predetermined time.

また、請求項17記載の発明に係るカメラは、光学式手ブレ振れ補正手段を更に備え、前記所定条件は、第1、第2及び第3の所定条件を含み、前記判断手段は、前記撮像手段に設定されている感度が所定以上であるか否か、及び第1乃至第3の所定条件を満たしているか否かを判断し、前記制御手段は、前記判断手段により、前記感度が所定以上であり、かつ第1の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第1の制御と、前記感度が所定以上であり、かつ前記第2の所定条件を満たしていると判断された場合には、前記位置合わせ手段を動作させつつ前記第2の撮像処理手段を動作させる第2の制御と、前記感度が所定以上であり、前記第3の所定条件を満たしていると判断された場合には、前記位置合わせ手段を動作させることなく前記第2の撮像処理手段を動作させるか、又は前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第3の制御とを実行することを特徴とする。   The camera according to the invention of claim 17 further includes an optical camera shake correction unit, wherein the predetermined condition includes first, second and third predetermined conditions, and the determination unit includes the imaging unit. It is determined whether or not the sensitivity set in the means is greater than or equal to a predetermined value and whether or not the first to third predetermined conditions are satisfied. And when it is determined that the first predetermined condition is satisfied, the first control for operating the first imaging processing unit while operating the optical camera shake correction unit, A second control for operating the second imaging processing means while operating the positioning means when it is determined that the sensitivity is equal to or higher than a predetermined value and the second predetermined condition is satisfied; The sensitivity is not less than a predetermined value, and the third place If it is determined that the condition is satisfied, the first imaging processing unit is operated without operating the positioning unit, or the first optical shake correction unit is operated. And a third control for operating the imaging processing means.

また、請求項21記載の発明に係るカメラは、前記抽出手段は、前記撮像手段により取得された画像における所定部分の特徴を抽出することを特徴とする。   The camera according to the invention of claim 21 is characterized in that the extraction means extracts a feature of a predetermined portion in an image acquired by the imaging means.

また、請求項22記載の発明に係るカメラは、前記撮像手段により取得された画像データにおける主要被写体又は背景画像の特徴を前記所定部分の特徴として抽出することを特徴とする。   A camera according to a twenty-second aspect is characterized in that a feature of a main subject or a background image in image data acquired by the imaging means is extracted as a feature of the predetermined portion.

また、請求項23記載の発明に係るカメラは、前記位置合わせ手段は、当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件が検出された場合に、前記主要被写体の特徴に基づき、該主要被写体が合致するように位置合わせすることを特徴とする。   Further, the camera according to the invention of claim 23 is characterized in that the positioning means detects the main image when a predetermined image blur occurrence condition that is assumed to cause image blur in a subject imaged by the camera is detected. Based on the characteristics of the subject, alignment is performed so that the main subject matches.

また、請求項24記載の発明に係るカメラは、前記位置合わせ手段は、当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件が検出された場合に、前記前記特徴抽出手段により抽出された背景画像の特徴に基づき、該背景画像が合致するように位置合わせすることを特徴とする。   Further, the camera according to the invention of claim 24 is characterized in that the positioning means is adapted to cause the feature extraction means to detect when a predetermined camera shake occurrence condition that causes camera shake is detected in the camera. Based on the feature of the extracted background image, the background image is aligned so as to match.

また、請求項25記載の発明に係るカメラは、前記第2の撮像処理手段が動作した場合において、前記撮像手段により取得された画像データから、前記選択手段により選択された撮影シーンに応じた画像部分の特徴を抽出する特徴抽出手段を備え、前記位置合わせ手段は、前記特徴抽出手段により抽出された特徴に基づき、前記露出毎の画像データにおける画像の当該特徴抽出部分の位置を合致させることを特徴とする。   According to a twenty-fifth aspect of the present invention, in the camera according to the twenty-fifth aspect, when the second imaging processing unit operates, an image corresponding to a shooting scene selected by the selection unit from the image data acquired by the imaging unit. Feature extraction means for extracting the feature of the part, and the positioning means matches the position of the feature extraction part of the image in the image data for each exposure based on the feature extracted by the feature extraction means. Features.

また、請求項26記載の発明に係るカメラは、記録する画像のサイズ又は印刷する画像のサイズを設定するサイズ設定手段と、このサイズ設定手段により設定されたサイズに応じて許容ブレ量を設定するブレ量設定手段と、当該カメラにおける手ブレ又は当該カメラが撮像する被写体における像ブレの少なくとも一方を検出する検出手段を備え、前記所定条件とは、前記検出手段により検出されたブレ量が前記許容ブレ量を超える場合を含むことを特徴とする。   According to a twenty-sixth aspect of the present invention, there is provided a camera having a size setting means for setting a size of an image to be recorded or a size of an image to be printed, and an allowable blur amount according to the size set by the size setting means A blur amount setting unit; and a detection unit that detects at least one of a camera shake in the camera or an image blur in a subject imaged by the camera, and the predetermined condition is that the blur amount detected by the detection unit is the allowable amount It includes a case where the amount of blur is exceeded.

また、請求項27記載の発明に撮像制御プログラムは、複数の画素を有し、露出することにより被写体を撮像して画像データを取得する撮像手段を備える電子カメラが有するコンピュータを、操作に応答して前記撮像手段を設定された露出時間で単一回露出させ、前記取得した画像データを出力する第1の撮像処理手段と、操作に応答して前記撮像手段を前記設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行する第2の撮像処理手段と、前記加算処理を実行させるべき所定条件を満たしているか否かを判断する判断手段と、この判断手段により前記所定条件を満たしていないと判断された場合には、前記第1の撮像処理手段を動作させ、満たしていると判断された場合は前記第2の撮像処理手段を動作させる制御手段とを備えることを特徴とする。   According to a twenty-seventh aspect of the present invention, an imaging control program responds to an operation by a computer having an electronic camera that has a plurality of pixels and includes an imaging unit that captures an image of a subject by exposure to obtain image data. First imaging processing means for exposing the imaging means once with a set exposure time, and outputting the acquired image data; and in response to an operation, the imaging means is set to be longer than the set exposure time. Whether or not the second imaging processing means for performing addition processing for performing exposure processing multiple times consecutively with a short exposure time and adding image data for each exposure sequentially acquired, and a predetermined condition for executing the addition processing are satisfied Determining means for determining whether or not the predetermined condition is not satisfied by the determining means, the first imaging processing means is operated to determine that the predetermined condition is satisfied. If the characterized in that it comprises a control means for operating the second imaging processing means.

また、請求項28記載の発明に撮像制御方法は、複数の画素を有し、露出することにより被写体を撮像して画像データを取得する撮像手段を備える電子カメラの制御方法であって、操作に応答して前記撮像手段を設定された露出時間で単一回露出させ、前記取得した画像データを出力する第1の撮像処理ステップと、操作に応答して前記撮像手段を前記設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行する第2の撮像処理ステップと、前記加算処理を実行させるべき所定条件を満たしているか否かを判断する判断手ステップと、この判断ステップにより前記所定条件を満たしていないと判断された場合には、前記第1の撮像処理ステップを実行させ、満たしていると判断された場合は前記第2の撮像処理ステップを実行させることを特徴とする。   According to a twenty-eighth aspect of the present invention, there is provided an imaging control method for controlling an electronic camera having an imaging unit that has a plurality of pixels and that captures an image of a subject by exposure to obtain image data. A first imaging processing step of responding to the imaging means for a single exposure with a set exposure time and outputting the acquired image data; and the imaging means in response to an operation for the set exposure time. A second imaging process step of performing an addition process of performing exposure for a plurality of times continuously with a shorter exposure time and adding image data for each exposure acquired sequentially, and satisfying a predetermined condition for executing the addition process A determination step for determining whether or not the predetermined condition is not satisfied by the determination step, the first imaging processing step is executed, and If it is determined that, characterized in that to execute the second imaging processing step.

本発明によれば、加算処理を実行させるべき所定条件を満たしているか否かを判断し、満たしていると判断された場に、設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行することから、必要な場合において加算処理が実行される一方、必然性なく加算処理が実行されることはない。したがって、無用に加算処理が実行されて画像に必然性なくノイズが発生する不都合を回避しつつ、加算処理を適正に行って有効なブレ補正手段とすることができる。   According to the present invention, it is determined whether or not a predetermined condition for performing the addition processing is satisfied, and when it is determined that the predetermined condition is satisfied, the exposure processing is continuously performed a plurality of times with an exposure time shorter than the set exposure time. Since the addition process of performing exposure and adding the sequentially acquired image data for each exposure is executed, the addition process is executed when necessary, but the addition process is not necessarily executed. Therefore, it is possible to effectively perform the addition process and to obtain an effective blur correction unit while avoiding the inconvenience that the addition process is executed unnecessarily and noise is inevitably generated in the image.

以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1は、各実施の形態に共通するデジタルカメラ1の概略的回路構成を示すブロック図である。このデジタルカメラ1は、高速度撮影が可能なカメラであって、撮影制御手段1を備えている。この撮影制御手段1は、撮影条件の設定手段2、撮影モードの設定手段3、シーン別撮影プログラム記憶部4、感度/利得制御手段5、ズーム制御/AF制御部6、露出制御手段7、手ブレ補正制御手段8及び撮影モード制御部9を備えている。そして、操作入力部10からの操作信号は、撮影条件の設定手段2及び撮影モードの設定手段3に入力される。撮影モードの設定手段3は、操作入力部10からの操作信号に従って撮影モードを選択し、撮影条件の設定手段2に出力するとともに、シーン別撮影プログラム記憶部4からは選択されたシーン別撮影プログラムが撮影条件の設定手段2に与えられる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic circuit configuration of a digital camera 1 common to the embodiments. The digital camera 1 is a camera capable of high-speed shooting, and includes a shooting control means 1. The photographing control unit 1 includes a photographing condition setting unit 2, a photographing mode setting unit 3, a scene-specific photographing program storage unit 4, a sensitivity / gain control unit 5, a zoom control / AF control unit 6, an exposure control unit 7, a hand A shake correction control unit 8 and a shooting mode control unit 9 are provided. The operation signal from the operation input unit 10 is input to the photographing condition setting unit 2 and the photographing mode setting unit 3. The shooting mode setting unit 3 selects a shooting mode according to an operation signal from the operation input unit 10 and outputs the selected shooting mode to the shooting condition setting unit 2, and the selected scene-specific shooting program from the scene-specific shooting program storage unit 4. Is given to the photographing condition setting means 2.

撮影条件の設定手段2は、これらの入力情報も基づき撮影条件を設定し、この設定した撮影条件を感度/利得制御手段5、ズーム制御/AF制御部6、露出制御手段7、手ブレ補正制御手段8に出力する。撮影モード制御部9は、感度/利得制御手段5、ズーム制御/AF制御部6、露出制御手段7、手ブレ補正制御手段8が前記撮影条件に基づき生成する制御情報が与えられ、この制御情報に基づき「加算なし(単写)」「加算なし(連写・ブラケティング)」「マルチプレーン加算合成モード(増感)」「マルチプレーン加算+位置合わせモード(ブレ軽減)」の各モードを設定する。   The shooting condition setting means 2 sets shooting conditions based on these input information, and the set shooting conditions are used as sensitivity / gain control means 5, zoom control / AF control section 6, exposure control means 7, camera shake correction control. Output to means 8. The shooting mode control unit 9 is given control information generated by the sensitivity / gain control unit 5, the zoom control / AF control unit 6, the exposure control unit 7, and the camera shake correction control unit 8 based on the shooting conditions. "No addition (single shot)", "No addition (continuous shooting / bracketing)", "Multiplane addition composition mode (sensitization)", "Multiplane addition + alignment mode (blur reduction)" To do.

また、露出制御手段7は、ストロボ11を駆動するストロボ駆動回路12と、撮像レンズ13内に配置された絞り14とシャッタ15とを駆動する絞り/シャッタ駆動部16Rとを制御する。ズーム制御/AF制御部6は、撮像レンズ13を構成するズームレンズとフォーカスレンズとを駆動するズームレンズ/フォーカスレンズ駆動部17を制御する。手ブレ補正制御手段8には、当該デジタルカメラ1の角速度を検出する角速度センサ18からの信号に基づき手ブレを検出する手ブレ検出手段19からの手ブレ検出信号が入力される。手ブレ補正制御手段8は、この入力される手ブレ検出信号に基づき、手ブレ補正駆動装置20を制御し、手ブレ補正駆動装置20は撮像レンズ13内の手ブレ補正用レンズを駆動する。   The exposure control means 7 controls a strobe driving circuit 12 that drives the strobe 11 and a diaphragm / shutter driving unit 16R that drives a diaphragm 14 and a shutter 15 disposed in the imaging lens 13. The zoom control / AF control unit 6 controls the zoom lens / focus lens driving unit 17 that drives the zoom lens and the focus lens that constitute the imaging lens 13. The camera shake correction control means 8 receives a camera shake detection signal from a camera shake detection means 19 that detects a camera shake based on a signal from an angular velocity sensor 18 that detects the angular speed of the digital camera 1. The camera shake correction control unit 8 controls the camera shake correction drive device 20 based on the input camera shake detection signal, and the camera shake correction drive device 20 drives the camera shake correction lens in the imaging lens 13.

一方、撮像レンズ13の光軸上には、イメージセンサ21が配置されており、このイメージセンサ21は並列読み出しなどの高速読み出しが可能な撮像素子である。また、イメージセンサ21から高速で出力される画像信号を処理する信号処理手段22も同様に高速符号化処理可能なDSPである。この信号処理手段(DSP)22は、S/P変換部23、シューディング補正部24、デジタルAGC25、バッファメモリ(A)26、マルチプレーン合成部27、カラー補間部28、階調変換/ガンマ補正部29、マトリクス130、解像度変換部31、各種検出処理部32及び撮像タイミング制御部33を備えている。信号処理手段22は、その全体的な動作を撮影制御手段1により制御され、信号処理手段22が有する前記撮像タイミング制御部33は、イメージセンサ21の動作周期を制御する。   On the other hand, an image sensor 21 is disposed on the optical axis of the imaging lens 13, and the image sensor 21 is an imaging device capable of high-speed reading such as parallel reading. Similarly, the signal processing means 22 for processing the image signal output from the image sensor 21 at high speed is a DSP capable of high-speed encoding processing. The signal processing means (DSP) 22 includes an S / P conversion unit 23, a pseudo correction unit 24, a digital AGC 25, a buffer memory (A) 26, a multi-plane synthesis unit 27, a color interpolation unit 28, a gradation conversion / gamma correction. Unit 29, matrix 130, resolution conversion unit 31, various detection processing units 32, and imaging timing control unit 33. The overall operation of the signal processing unit 22 is controlled by the imaging control unit 1, and the imaging timing control unit 33 included in the signal processing unit 22 controls the operation cycle of the image sensor 21.

また、撮影時における信号処理手段22からのスルー画像データは、表示駆動部34に与えられ、画像表示部35にスルー画像が表示される。そして、操作入力部10が有するシャッタキー(レリーズ釦)が操作された際には、信号処理手段22からの画像データは、バッファメモリ(B)34に格納されて、画像符号化/復号化部35により符号化されて、画像記録/入出力部38によりカードメモリ媒体39に記録される。   Further, the through image data from the signal processing unit 22 at the time of photographing is given to the display driving unit 34, and the through image is displayed on the image display unit 35. When the shutter key (release button) of the operation input unit 10 is operated, the image data from the signal processing means 22 is stored in the buffer memory (B) 34, and the image encoding / decoding unit 35 and is recorded on the card memory medium 39 by the image recording / input / output unit 38.

図2は、デジタルカメラ1の具体的回路構成を示すブロック図である。図に示すように、デジタルカメラ1は、制御回路102を有している。制御回路102には、CPU103とこのCPU103にデータバス104を介して各々接続されたインターフェース105、音声入出力回路106、入力回路107、メモリカード・IF108、USBコントローラ109、入出力インタフェース110、入出力回路111、入出力ポート112、113、HDD・IF114が設けられている。音声入出力回路106には、マイク116がアンプ117及びA/D変換器118を介して接続されているとともに、スピーカ119がアンプ120及びD/A変換器121を介して接続されている。入力回路107には、レリーズ釦(シャッタキー)を含む各種操作キー、スイッチ等が設けられた操作入力部122が接続され、メモリカード・IF108には脱着自在に設けられた画像メモリ媒体125が接続されている。USBコントローラ109はUSB端子126に接続されており、入出力インタフェース110はアンテナ127を有する無線LAN送受信部128に通信コントローラ129を介して接続されている。また、入出力回路111には、外部トリガー端子130がトリガー検出部131を介して接続されている。   FIG. 2 is a block diagram showing a specific circuit configuration of the digital camera 1. As shown in the figure, the digital camera 1 has a control circuit 102. The control circuit 102 includes a CPU 103, an interface 105, an audio input / output circuit 106, an input circuit 107, a memory card / IF 108, a USB controller 109, an input / output interface 110, and an input / output connected to the CPU 103 via the data bus 104. A circuit 111, input / output ports 112 and 113, and an HDD / IF 114 are provided. A microphone 116 is connected to the audio input / output circuit 106 via an amplifier 117 and an A / D converter 118, and a speaker 119 is connected via an amplifier 120 and a D / A converter 121. The input circuit 107 is connected to an operation input unit 122 provided with various operation keys including a release button (shutter key), a switch, and the like, and the memory card / IF 108 is connected to an image memory medium 125 provided detachably. Has been. The USB controller 109 is connected to a USB terminal 126, and the input / output interface 110 is connected to a wireless LAN transmission / reception unit 128 having an antenna 127 via a communication controller 129. Further, an external trigger terminal 130 is connected to the input / output circuit 111 via a trigger detection unit 131.

前記入出力ポート112には、焦点レンズ駆動部132、ズームレンズ駆動部133、ブレ補正駆動部134、絞り駆動部135及びシャッタ駆動部136が接続されているとともに、ストロボ137がストロボ駆動回路138を介して接続され、測光/測距センサ139が検出回路140を介して接続されている。前記入出力ポート113には、当該デジタルカメラ1の上下方向のブレを検出する角速度センサ(Y/Pitch)141と、上下方向のブレを検出する角速度センサ(X/Yaw)143とが各々検出回路142、144を介して接続されている。HDD・IF114には、HDD記憶装置147が接続されている。HDD記憶装置147は、ディスク媒体148を有するとともに、モータ149、モータドライバ150、マイコン部151、VCモータ152、ヘッドアンプ153、リード/ライトチャンネル154、HDD制御部155等を有している。   The input / output port 112 is connected to a focus lens driving unit 132, a zoom lens driving unit 133, a blur correction driving unit 134, an aperture driving unit 135, and a shutter driving unit 136, and a strobe 137 connects the strobe driving circuit 138. The photometry / ranging sensor 139 is connected via the detection circuit 140. In the input / output port 113, an angular velocity sensor (Y / Pitch) 141 for detecting the vertical blur of the digital camera 1 and an angular velocity sensor (X / Yaw) 143 for detecting the vertical blur are respectively detected circuits. 142 and 144 are connected. An HDD storage device 147 is connected to the HDD / IF 114. The HDD storage device 147 includes a disk medium 148 and also includes a motor 149, a motor driver 150, a microcomputer unit 151, a VC motor 152, a head amplifier 153, a read / write channel 154, an HDD control unit 155, and the like.

また、制御回路102には、電池145が電源制御部146を介して接続され、電源制御部146は制御回路102により制御されて各部に電池145からの電力を供給する。さらに、前記データバス104には音声CODEC(符号器/復号器)115、プログラムメモリ123及びデータメモリ124が接続されている。音声CODEC115は、音声信号を符号化するとともに音声データを復号化する。プログラムメモリ123は、後述するフローチャートに示す制御回路102が動作するためのプログラムを格納しており、データメモリ124は各種データが予め格納されているとともに画像データ以外の他のデータを格納する。   In addition, a battery 145 is connected to the control circuit 102 via a power supply control unit 146, and the power supply control unit 146 is controlled by the control circuit 102 to supply power from the battery 145 to each unit. Further, an audio CODEC (encoder / decoder) 115, a program memory 123 and a data memory 124 are connected to the data bus 104. The audio CODEC 115 encodes an audio signal and decodes audio data. The program memory 123 stores a program for operating the control circuit 102 shown in the flowchart described later. The data memory 124 stores various data in advance and stores other data other than image data.

一方、ズームレンズを含む撮像光学系156の後方光軸上には、撮像素子157が配置されているとともに、撮像光学系156中には前記絞り駆動部135により駆動される絞り158、及び前記シャッタ駆動部136により駆動されるシャッタ159が介挿されている。また、前記焦点レンズ駆動部132は、撮像光学系156中の焦点レンズを駆動し、ズームレンズ駆動部133はズームレンズを駆動するように構成されている。前記ブレ補正駆動部134は、撮像光学系156中に揺動可能に支持されたブレ補正用レンズを駆動するものであり、したがって、このデジタルカメラ1は光学的ブレ補正手段を備えている。   On the other hand, an image sensor 157 is disposed on the rear optical axis of the image pickup optical system 156 including a zoom lens. The image pickup optical system 156 includes a stop 158 driven by the stop drive unit 135 and the shutter. A shutter 159 driven by the drive unit 136 is inserted. The focus lens driving unit 132 is configured to drive the focus lens in the imaging optical system 156, and the zoom lens driving unit 133 is configured to drive the zoom lens. The shake correction drive unit 134 drives a shake correction lens supported in a swingable manner in the image pickup optical system 156. Therefore, the digital camera 1 includes an optical shake correction unit.

前記撮像素子157は、並列読み出しなどの高速読み出しが可能なものであり、イメージセンサ部160、水平走査部161、垂直走査部162、P/S変換部163を有している。この撮像素子157には、DSP部164が接続されている。DSP部164には、撮像素子157のP/S変換部163から取り込んだ画像信号を処理するためのS/P変換部165、バッファメモリ(A)166、マルチプレーン加算部167、カラー補間部168、階調変換部169、ガンマ補正部170、マトリクス171、解像度変換部172を備えているとともに、前記垂直走査部162の周期を制御するためのコントローラ173、画像特徴抽出処理画像認識処理部174、測光処理/AF検出/自動WB処理ほか175を備えている。   The image sensor 157 is capable of high-speed reading such as parallel reading, and includes an image sensor unit 160, a horizontal scanning unit 161, a vertical scanning unit 162, and a P / S conversion unit 163. A DSP unit 164 is connected to the image sensor 157. The DSP unit 164 includes an S / P conversion unit 165 for processing the image signal captured from the P / S conversion unit 163 of the image sensor 157, a buffer memory (A) 166, a multiplane addition unit 167, and a color interpolation unit 168. , A tone conversion unit 169, a gamma correction unit 170, a matrix 171, a resolution conversion unit 172, a controller 173 for controlling the period of the vertical scanning unit 162, an image feature extraction process, an image recognition processing unit 174, Photometric processing / AF detection / automatic WB processing and others 175 are provided.

前記解像度変換部172、画像特徴抽出処理画像認識処理部174、測光処理/AF検出/自動WB処理ほかは、画像データバス176を介してバッファメモリ(B)177、画像CODEC(符号器/復号器)178、動画像CODEC(符号器/復号器)179及び表示駆動回路180に接続され、画像データバス176は前記制御回路102のインターフェース1105に接続されている。バッファメモリ(B)177は、画像CODEC178及び動画像CODEC179が符号化及び復号化処理する際の画像データを一時的に格納し、表示駆動回路180は、表示部181を駆動する。   In addition to the resolution conversion unit 172, image feature extraction processing, image recognition processing unit 174, photometry processing / AF detection / automatic WB processing, etc., the buffer memory (B) 177, image CODEC (encoder / decoder) are connected via an image data bus 176. 178, connected to a moving image CODEC (encoder / decoder) 179 and a display driving circuit 180, and an image data bus 176 is connected to an interface 1105 of the control circuit 102. The buffer memory (B) 177 temporarily stores image data when the image CODEC 178 and the moving image CODEC 179 are encoded and decoded, and the display driving circuit 180 drives the display unit 181.

図3及び図4は、本実施の形態の動作及び処理手順を示す一連のフローチャートである。制御回路102はプログラムメモリ123に格納されているプログラムに基づき各部を制御することにより、デジタルカメラ1はフローチャートに示すように動作し、処理を実行する。先ず、ユーザーによる操作入力部122での操作により、撮影モードが設定されているか否かを判断する(ステップS101)。撮影モードが設定されていない場合には、撮影設定モードが設定されたか否かを判断し(図4ステップS102)、撮影モードと撮影設定モードの何れも設定されていない場合には、その他のモード処理に移行する(ステップS103)。   3 and 4 are a series of flowcharts showing the operation and processing procedure of the present embodiment. The control circuit 102 controls each unit based on a program stored in the program memory 123, whereby the digital camera 1 operates as shown in the flowchart and executes processing. First, it is determined whether or not the shooting mode is set by an operation of the operation input unit 122 by the user (step S101). When the shooting mode is not set, it is determined whether or not the shooting setting mode is set (step S102 in FIG. 4). When neither the shooting mode nor the shooting setting mode is set, other modes are set. The process proceeds to step S103.

また、撮影設定モードが設定された場合には、自動切換えの設定が選択されたか否かを判断する(ステップS104)。すなわち、図5に示すように、操作入力部122でMENUキー及びカーソルキー(△▽)を操作して「撮影設定」モードを選択すると(ステップS102;YES)、表示部181に同図(a−1)に示すような撮影設定メニュー画面を表示する。このメニュー画面において、「ブレ軽減撮影」を選択すると、前記自動切換えの設定が選択されたことになり、前記ステップS104がYESとなって、同図(a−2)に示すブレ軽減撮影の設定メニューに移行する。   If the shooting setting mode is set, it is determined whether or not the automatic switching setting is selected (step S104). That is, as shown in FIG. 5, when the “shooting setting” mode is selected by operating the MENU key and the cursor key (Δ ▽) on the operation input unit 122 (step S102; YES), the display unit 181 displays the same figure (a). A shooting setting menu screen as shown in -1) is displayed. When “blur reduction shooting” is selected on this menu screen, the automatic switching setting is selected, and the step S104 becomes YES, and the blur reduction shooting setting shown in FIG. Move to the menu.

そして、自動切換えの設定が選択された場合には、ユーザーによる操作入力部122での操作に応じ、オート撮影モードにおいて、ブレ軽減撮影に自動切り換えするか否か(ON/OFF)の設定を行う(ステップS105)。つまり、図5(a−2)のブレ軽減撮影の設定メニューには、「ON」「OFF」が他の選択肢とともに表示されている。そして、この選択肢の中から「ON」が選択されれば自動切り換えONが設定され、「OFF」が選択されれば自動切り換えOFFが設定される。   When the automatic switching setting is selected, whether to automatically switch to blur reduction shooting (ON / OFF) is set in the auto shooting mode in accordance with the operation of the operation input unit 122 by the user. (Step S105). That is, “ON” and “OFF” are displayed together with other options in the setting menu for blur reduction shooting in FIG. If “ON” is selected from these options, automatic switching ON is set. If “OFF” is selected, automatic switching OFF is set.

また、ステップS104で自動切換えの設定が選択されていないと判断された場合には、切換え条件の設定が選択されたか否かを判断する(ステップS106)。切換え条件の設定が選択された場合には、ユーザーの操作に従って、自動切換えする撮影条件等を選択して設定する(ステップS107)。   If it is determined in step S104 that the automatic switching setting is not selected, it is determined whether or not the switching condition setting is selected (step S106). When setting of the switching condition is selected, the photographing condition to be automatically switched is selected and set according to the user's operation (step S107).

すなわち、ステップS104で自動切換えの設定が選択されていないと判断された場合には、図5(b−1)に示す撮影設定メニューが表示部181に表示されている。このメニュー画面から「ブレ軽減撮影のカスタム設定」を選択すると、切換え条件の設定が選択されことになり、ステップS106がYESとなって、同図(b−2)のブレ軽減撮影のカスタム設定メニューの表示に移行する。このメニュー画面において、「加算処理の切替条件の設定」を選択すると、同図(b−3)のブレ軽減撮影への切り換え条件の設定メニュー画面に遷移する。   That is, if it is determined in step S104 that the automatic switching setting is not selected, the shooting setting menu shown in FIG. 5B-1 is displayed on the display unit 181. When “Custom setting for blur reduction shooting” is selected from this menu screen, the setting of the switching condition is selected, and step S106 becomes YES, and the custom setting menu for blur reduction shooting of FIG. Move to the display. When “setting of addition processing switching condition” is selected on this menu screen, the screen shifts to the setting menu screen of the switching condition to blur reduction shooting shown in FIG.

このブレ軽減撮影への切り換え条件の設定メニュー画面は、「撮影シーンに応じて」「露出時間時応じて」「被写体の輝度に応じて」「被写体の速度に応じて」「焦点距離に応じて」「マクロ撮影の場合」等の選択肢で構成されている。そして、この選択肢からいずれかを選択すると、例えば「撮影シーンに応じて」を選択すると、同図(b−4)の撮影シーンに応じた切り替え設定画面に遷移する。この状態で、「OFF」「オート」・・・等の撮影条件に応じた切り換え条件を選択することにより、前記ステップS107の処理が実行されて、ブレ軽減撮影に自動切換えする撮影条件等を選択して設定されることとなる。   This setting menu screen for switching to blur reduction shooting is based on "according to shooting scene", "according to exposure time", "according to subject brightness", "according to subject speed", "according to focal length" “In the case of macro photography”, and the like. When any one of these options is selected, for example, “according to the shooting scene” is selected, the screen transits to a switching setting screen corresponding to the shooting scene in FIG. In this state, by selecting a switching condition according to the photographing condition such as “OFF”, “auto”,..., The processing in step S107 is executed, and a photographing condition or the like for automatically switching to blur reduction photographing is selected. Will be set.

また、ステップS106で切換え条件の設定が選択されていないと判断された場合には、加算処理の内容の設定が選択されたか否かを判断する(ステップS108)。加算処理の内容の設定が選択されたされた場合には、ユーザーの操作に従って、加算処理の方式や処理を選択して設定する(ステップS109)。なお、ステップS108で加算処理の内容の設定が選択されていないと判断された場合には、その他の設定処理を実行する(ステップS110)。   If it is determined in step S106 that the setting of the switching condition is not selected, it is determined whether or not the setting of the content of the addition process is selected (step S108). When the setting of the content of the addition process is selected, the method and process of the addition process are selected and set according to the user operation (step S109). If it is determined in step S108 that the setting of the content of the addition process has not been selected, other setting processes are executed (step S110).

一方、図3のステップS101で撮影モードが設定されていると判断された場合には、ユーザーによる操作入力部122での操作により入力された撮影条件、オート撮影モード、マニュアル撮影モード、各撮影モードにおけるシャッタ速度等の各種撮影条件、後述するブレ軽減撮影又は増感撮影モード等の撮影条件を設定するとともに、ユーザーによる操作入力部122での操作に基づく用紙サイズ又は画像サイズを選択する(ステップS111)。また、ズーム処理、AF処理を実行し(ステップS112)、被写体像のスルー画像を表示部181に表示させる(ステップS113)。したがって、ユーザはこの表示部181に表示されたスルー画像を見ながら、このデジタルカメラ1の向きを調整する等してシャッタチャンスを伺う。   On the other hand, if it is determined in step S101 in FIG. 3 that the shooting mode has been set, the shooting conditions, auto shooting mode, manual shooting mode, and each shooting mode input by the operation of the operation input unit 122 by the user. In addition to setting various shooting conditions such as shutter speed, shooting conditions such as blur reduction shooting or intensifying shooting mode, which will be described later, a paper size or an image size based on an operation by the user with the operation input unit 122 is selected (step S111). ). Further, zoom processing and AF processing are executed (step S112), and a through image of the subject image is displayed on the display unit 181 (step S113). Therefore, the user asks for a photo opportunity by adjusting the direction of the digital camera 1 while viewing the through image displayed on the display unit 181.

一方、制御回路102は、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS114)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS115)。そして、レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS116)、これにより得られた測光値と前記ステップS109で設定された撮影条件とに応じて、露出条件を設定する(ステップS117)。   On the other hand, the control circuit 102 determines whether or not a shooting instruction has been made by pressing the release button (step S114), and if not, other control corresponding to the key operated by the user on the operation input unit 122 is made. Key processing is executed (step S115). When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S116), and exposure is performed according to the photometric value obtained thereby and the shooting conditions set in step S109. Conditions are set (step S117).

次に、手ブレ補正がOFFであるか否かを判断し(ステップS118)、ONである場合には、手ブレ補正撮影処理を実行する(ステップS119)。つまり、手ブレ補正がONである場合には、検出回路142、144を介して、当該デジタルカメラ1の上下方向のブレを検出する角速度センサ(Y/Pitch)141と、上下方向のブレを検出する角速度センサ(X/Yaw)143から入力される信号に基づき、ブレ補正駆動部134を制御して、ブレ補正用レンズを駆動する光学的ブレ補正手段を動作させつつ、撮影処理を実行する。   Next, it is determined whether or not camera shake correction is OFF (step S118). If it is ON, camera shake correction photographing processing is executed (step S119). That is, when camera shake correction is ON, an angular velocity sensor (Y / Pitch) 141 that detects the vertical blur of the digital camera 1 and the vertical blur are detected via the detection circuits 142 and 144. Based on the signal input from the angular velocity sensor (X / Yaw) 143, the camera shake correction drive unit 134 is controlled to operate the optical camera shake correction means for driving the camera lens for camera shake correction, and the photographing process is executed.

手ブレ補正がOFFである場合には、オート撮影モードが設定されているか否かを判断する(ステップS120)。オート撮影モードが設定されている場合には、さらに自働切り換えがONか否かを判断する(ステップS121)。すなわち、前記ステップS105での処理により、「オート撮影モードでブレ軽減撮影に自動切換えする」が「ON」となっているか否かを判断する。そして、「OFF」となっている場合には、ステップS122の処理を実行することなくステップS123に進む。「ON」となっている場合には、設定された所定の撮影条件か否かを判断する(ステップS122)。つまり、前記ステップS107でユーザーにより設定されたブレ軽減撮影に自動切換えする所定の撮影条件であるか否かを判断する。   If the camera shake correction is OFF, it is determined whether or not the auto shooting mode is set (step S120). If the auto shooting mode is set, it is further determined whether or not automatic switching is ON (step S121). That is, it is determined whether or not “automatic switch to blur reduction shooting in the auto shooting mode” is “ON” by the processing in step S105. If it is “OFF”, the process proceeds to step S123 without executing the process of step S122. If it is “ON”, it is determined whether or not the predetermined photographing condition is set (step S122). That is, it is determined whether or not the predetermined shooting condition for automatically switching to blur reduction shooting set by the user in step S107.

前記所定の設定条件とは、下記のいずれかのような、手振れが生じやすい撮影条件である。
a)撮影レンズの焦点距離が所定値より長い焦点距離の場合、
b)マクロ(近接撮影)モードの場合、
c)手振れ量又は像ブレ量を検出し、検出されたブレ量又は像ブレ量が、所定のブレ量又は像ブレ量より大きくなると判断される場合、
など。
The predetermined setting condition is an imaging condition that is likely to cause camera shake, such as any of the following.
a) When the focal length of the taking lens is longer than a predetermined value,
b) In macro (close-up) mode,
c) When the camera shake amount or the image blur amount is detected, and it is determined that the detected blur amount or the image blur amount is larger than the predetermined blur amount or the image blur amount,
Such.

さらに、被写体の状態が以下のいずれかのような、被写体ブレが生じやすい条件の場合を設定条件としてもよい。、
d)被写体の移動速度、若しくは、被写体像の移動速度を検出して、設定露出時間における被写体像の移動量が所定値又は許容錯乱円径より大きくなると判断される場合、
e)測光センサや撮像信号から検出された測光値や被写体輝度が所定の値より低く、かつ、ストロボ発光が強制OFFに設定されている場合、
f)測光値や被写体輝度に基づき自動露出(AE)制御により設定された露出時間、もしくは、マニュアル設定による露出時間が、所定の露出時間(例えば、1/60秒)より長い場合、
g)ホワイトバランス設定状態、もしくは、自動ホワイトバランス(AWB)の設定状態が、蛍光灯や電球による照明や、それに相当する色温度(2000度〜4500度程度)に設定されているなど、暗い屋内や電灯照明下の被写体と判断される場合、
など。
Furthermore, the setting condition may be a case where the subject is in a condition where subject blur is likely to occur, such as one of the following. ,
d) When the movement speed of the subject or the movement speed of the subject image is detected and it is determined that the movement amount of the subject image during the set exposure time is larger than a predetermined value or an allowable circle of confusion,
e) When the photometric value or subject brightness detected from the photometric sensor or imaging signal is lower than a predetermined value and the strobe light emission is set to forced OFF,
f) When the exposure time set by automatic exposure (AE) control based on the photometric value or subject brightness or the exposure time by manual setting is longer than a predetermined exposure time (for example, 1/60 seconds),
g) The white balance setting state or the automatic white balance (AWB) setting state is set to illumination with a fluorescent lamp or a light bulb or a corresponding color temperature (2000 degrees to 4500 degrees). Or a subject under electric lighting,
Such.

なお、本実施の形態においては、ユーザが任意に選択できるようにしたが、ユーザの選択に拘わらず、制御回路102がこれらの条件の全てあるいは一部の有無を判断するようにしてもよい。   In the present embodiment, the user can arbitrarily select, but the control circuit 102 may determine whether or not all or some of these conditions are present regardless of the user's selection.

そして、ユーザーにより設定されたブレ軽減撮影に自動切換えする撮影条件でない場合には、撮像素子157及びDSP部164を単写撮影モード(加算なし)に設定する(ステップS123)。これと同時に、撮影条件に応じて露出/撮影動作を開始し(ステップS124)、引き続き、シャッタ速度に応じた露出時間が終了したか否かを判断し(ステップS125)、露出時間が終了となった時点で露出/撮影動作を停止させる(ステップS126)。また、この単写により得られた画像データを読み出す(ステップS127)。   If the shooting condition is not automatically switched to the blur reduction shooting set by the user, the image sensor 157 and the DSP unit 164 are set to the single shooting mode (no addition) (step S123). At the same time, the exposure / shooting operation is started according to the shooting conditions (step S124), and it is subsequently determined whether or not the exposure time according to the shutter speed is ended (step S125), and the exposure time is ended. At that time, the exposure / photographing operation is stopped (step S126). Further, the image data obtained by this single shooting is read (step S127).

一方、前記ステップS120での判断の結果、オート撮影モードが設定されておらずマニュアル撮影モード等の他の撮影モードが設定されている場合には、ステップS120からステップS128に進む。そして、前記ステップS105での処理により、ブレ軽減撮影又は増感撮影モードが設定されているか否かを判断し(ステップS128)、ブレ軽減撮影又は増感撮影モードが設定されてない場合には、その他の撮影モード処理に移行する(ステップS129)。   On the other hand, if the result of determination in step S120 is that the auto shooting mode is not set and another shooting mode such as the manual shooting mode is set, the process proceeds from step S120 to step S128. Then, it is determined whether or not blur reduction shooting or intensifying shooting mode is set by the processing in step S105 (step S128), and if blur reduction shooting or intensifying shooting mode is not set, The process proceeds to other shooting mode processing (step S129).

ブレ軽減撮影又は増感撮影モードが設定されている場合(ステップS125;YES)、及び前記ステップS122の判断がYESであって、前記ステップS107でユーザーにより設定されたブレ軽減撮影に自動切換えする撮影条件である場合には、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定する(ステップS130)。引き続き、前記ステップS114の測光処理で得られている測光値と、ステップS111で設定された撮影条件とに応じて、露出時間Tが短くなるように、加算画像数(n)と露出時間(T/n)を再設定する(ステップS131)。つまり、露出時間や絞りなど露出条件を画像の加算数に応じて、例えば、画像加算数(n)が2枚、4枚、8枚、16枚、・・・の場合に露出時間を1/2、1/4、1/8、1/16、・・・と(1/n)に再設定する。   When the blur reduction shooting mode or the intensifying shooting mode is set (step S125; YES), and when the determination at step S122 is YES, the shooting is automatically switched to the blur reduction shooting set by the user at step S107. If the condition is satisfied, the image sensor 157 and the DSP unit 164 are set to the continuous shooting and multi-plane addition mode (step S130). Subsequently, the number of added images (n) and the exposure time (T) so that the exposure time T is shortened according to the photometric value obtained by the photometry processing in step S114 and the photographing condition set in step S111. / N) is reset (step S131). That is, exposure conditions such as exposure time and aperture are set according to the number of added images, for example, when the number of added images (n) is 2, 4, 8, 16,. Reset to 2, 1/4, 1/8, 1/16, ... and (1 / n).

次に、撮影条件に応じて露出/撮影動作を開始し(ステップS132)、露出時間(T/n)が終了したか否かを判断する(ステップS133)。露出時間(T/n)が終了したならば、これにより得られた画像データを読み出し(ステップS134)、ブレ除去の為の画像の位置合わせを行うか否かを判断する(ステップS135)。位置合わせを行わない場合には、ステップS136の処理を行うことなくステップS137に進み、位置合わせを行う場合には、撮影された画像を、主要被写体又は背景の特徴に応じて、前の画像と位置合わせする位置合わせ処理を実行する(ステップS136)。なお、この主要被写体又は背景の特徴に応じて、前の画像と位置合わせする処理の詳細については後述する。次に、撮影された画像を前の画像と順次マルチプレーン加算合成するとともに(ステップS137)、補間処理、ノイズ除去処理を実行する(ステップS138)。また、加算画像数分連写済みか否かを判断し(ステップS139)、加算画像数分連写済みとなるまで、ステップS132からの処理を繰り返す。   Next, an exposure / photographing operation is started according to the photographing conditions (step S132), and it is determined whether or not the exposure time (T / n) has ended (step S133). When the exposure time (T / n) is completed, the image data obtained thereby is read (step S134), and it is determined whether or not to perform image alignment for blur removal (step S135). When the alignment is not performed, the process proceeds to step S137 without performing the process of step S136. When the alignment is performed, the captured image is compared with the previous image according to the main subject or the background characteristics. An alignment process for alignment is executed (step S136). Note that details of the process of aligning with the previous image according to the main subject or background characteristics will be described later. Next, the captured image and multi-plane addition are sequentially combined with the previous image (step S137), and interpolation processing and noise removal processing are executed (step S138). Further, it is determined whether or not continuous shooting has been completed for the number of additional images (step S139), and the processing from step S132 is repeated until continuous shooting has been completed for the number of additional images.

したがって、ステップS132〜S139の処理がT/nの周期でn回繰り返されることとなり、これにより、連写されたn枚の画像が順次マルチプレーン加算合成されて、補間処理及びノイズ除去処理された1枚分の撮影画像データが生成されることとなる。   Therefore, the processes of steps S132 to S139 are repeated n times at a cycle of T / n, and thus, the continuously shot n images are sequentially subjected to multiplane addition synthesis, interpolation processing and noise removal processing. One captured image data is generated.

そして、ステップS139及びS127のいずれかに続くステップS140では、撮影画像を圧縮、符号化し、この圧縮、符号化した撮影画像をメモリ媒体(画像メモリ媒体125又はディスク媒体148)に記録する(ステップS135)。さらに、撮影画像を表示部181にレビュー表示する(ステップS136)。   In step S140 following either one of steps S139 and S127, the captured image is compressed and encoded, and the compressed and encoded captured image is recorded in a memory medium (image memory medium 125 or disk medium 148) (step S135). ). Further, the photographed image is reviewed and displayed on the display unit 181 (step S136).

したがって、本実施の形態によれば、下記のような効果を得ることができる。
(1)手ブレや被写体の動きによる像ブレが生じやすい撮影条件や、被写体の場合には、自動的に1回のレリーズ操作に応じて、複数枚の画像を高速で速写するとともに速写された画像をマルチプレーン加算及び位置合せ合成する、「ブレ軽減速写合成モード」に切り替えて撮影処理し、マルチプレーン加算による増感効果により、適正露出を得るのに必要な露出時間を短縮して撮影できる。また、高速で速写された複数画像における像移動を位置合せ合成して記録できるので、仮に光学式の手ブレ補正装置が搭載されていないカメラであったとしても、手ブレによる像ブレだけでなく、子供やペット、スポーツの撮影など被写体ブレが生じやすい撮影シーンでも、被写体ブレによる像ブレをも効果的に軽減して撮影できる。
(2)また、連写画像のマルチプレーン加算及び位置合せ合成によるブレ軽減撮影や増感撮影に自動的に切り替えるか否か(切り替えのON/OFF)、どのような撮影条件や被写体状態の場合に増感撮影やブレ軽減撮影に切り替えるか(切替え条件)、増感撮影やブレ軽減撮影において、連写画像数(加算枚数)やどのような加算処理を行うか(増感撮影やブレ軽減、加算処理に切替えた際の処理内容)などを、設定モード等でカスタム設定できるようにしたので、以降は、オート撮影するだけで、ユーザーの所望や作画意図に応じて、ブレ軽減撮影や増感撮影が行える。
(3)また、光学式の手ブレ補正装置を設けたカメラの場合も、手ブレ補正がOFF設定になっている場合や、ONに設定し忘れた場合でも、自動的にブレ軽減して撮影できるとともに、ユーザーの意図に大きく反することなく、手ブレや被写体ブレが大きいと判断される場合にのみブレ軽減して撮影できる。
(4)また、高解像度でかつ高速で速写した画像を位置合せして、マルチプレーン加算処理するので、(従来の撮像素子上における画素加算読み出しや撮影後画像の加算処理のように、)加算処理によって画像サイズが小さくなってしまったり、画素補間処理により解像感が落ちてしまったり、異なるタイミングの画像を加算合成して被写体ブレが大きくなったりすることがなく、ユーザーの希望とは違う画像が撮影されてしまうことも防止できる。
Therefore, according to the present embodiment, the following effects can be obtained.
(1) In shooting conditions that are likely to cause image blur due to camera shake or subject movement, or in the case of a subject, a plurality of images were automatically shot at high speed and in response to a single release operation. Switch to “blur reduction rapid shooting composition mode”, which adds multi-plane addition and alignment composition, and shoots, and with the sensitization effect by multi-plane addition, you can shoot with reduced exposure time to obtain proper exposure . In addition, image movement in multiple images taken at high speed can be registered and recorded, so even if the camera is not equipped with an optical camera shake correction device, Even in shooting scenes where subject blur is likely to occur, such as shooting of children, pets, and sports, image blur due to subject blur can be effectively reduced.
(2) Whether to automatically switch to blur reduction shooting or intensification shooting by multi-plane addition and alignment synthesis of continuous shot images (switching ON / OFF), in what shooting conditions and subject state Whether to switch to sensitization shooting or blur reduction shooting (switching conditions), and the number of continuous shots (added number) and what kind of addition processing to be performed in sensitization shooting or blur reduction shooting (sensitization shooting, blur reduction, The processing details when switching to addition processing) can be custom-set in the setting mode, etc., and after that, only auto shooting is required, and blur reduction shooting and sensitization can be performed according to the user's wishes and drawing intentions. Shooting is possible.
(3) In the case of a camera equipped with an optical camera shake correction device, even if camera shake correction is set to OFF or forgotten to set it to ON, shooting is automatically performed with camera shake reduction. In addition, it is possible to shoot with reduced blurring only when it is determined that camera shake or subject blurring is large, without greatly deviating from the user's intention.
(4) In addition, since the images taken at high resolution and at high speed are aligned and subjected to multiplane addition processing, addition (as in conventional pixel addition reading on the image sensor and post-shooting image addition processing) is performed. Processing does not reduce the image size, pixel interpolation processing reduces the resolution, and does not increase subject blurring by adding and synthesizing images at different timings, which is different from the user's wishes. It is also possible to prevent an image from being taken.

(撮像素子)
前記撮像素子157を、例えば、CCDイメージセンサで構成した場合には、入射光によってフォトダイオードに発生した信号電荷を増幅せずにそのまま、垂直と水平のCCD転送路によって順繰りに転送され、出力回路で初めてFD(Floating Diffusion)アンプにより信号電圧に増幅されて出力される。CCDから出力された撮像信号は、CDS回路(相関二重サンプル回路)でノイズ除去及びサンプル&ホールド処理され、AGC(自動利得制御)アンプで増幅され、ADC(A/D変換器)でデジタル撮像信号に変換されて、DSP(信号処理回路)に出力される。
(Image sensor)
When the image pickup device 157 is constituted by, for example, a CCD image sensor, the signal charge generated in the photodiode by incident light is not amplified but is transferred as it is through the vertical and horizontal CCD transfer paths in order. For the first time, the signal voltage is amplified by a FD (Floating Diffusion) amplifier and output. The image pickup signal output from the CCD is subjected to noise removal and sample & hold processing by a CDS circuit (correlated double sample circuit), amplified by an AGC (automatic gain control) amplifier, and digitally imaged by an ADC (A / D converter). It is converted into a signal and output to a DSP (signal processing circuit).

一方、撮像素子をCMOS(相補型金属一酸化膜半導体)イメージセンサで構成する場合には、図2に示したような、一般的なAPS(増幅型画素センサ)型のCMOSセンサでは、フォトダイオードを含む単位画素回路毎に増幅素子(アンプ)が内蔵されており、フォトダイオードで光電変換された信号電荷は画素回路内アンプで一旦増幅され、垂直走査回路からの行アドレス選択信号と水平走査回路からの列選択信号によりXYアドレス方式で選択された画素毎の撮像信号が、出力から順次電圧又は電流として取り出すことができる。CCDのように順番に取り出さなくとも、CMOSセンサでは、任意の画素や領域の撮像信号だけを、任意の順序で取り出しできるので、デジタルズーム処理で所定領域のみを切り出して読出す場合には、高速で読み出せる。   On the other hand, in the case where the image pickup device is constituted by a CMOS (complementary metal monoxide semiconductor) image sensor, a general APS (amplified pixel sensor) type CMOS sensor as shown in FIG. Each unit pixel circuit including a built-in amplifying element (amplifier), the signal charge photoelectrically converted by the photodiode is once amplified by the amplifier in the pixel circuit, the row address selection signal from the vertical scanning circuit and the horizontal scanning circuit The image pickup signal for each pixel selected by the XY address method by the column selection signal from can be sequentially extracted from the output as voltage or current. Even if it is not taken out sequentially like a CCD, the CMOS sensor can take out only the image signals of any pixel or area in any order, so when extracting and reading out only a predetermined area by digital zoom processing, it can be performed at high speed. Can be read.

また、CCDでは、信号電荷をそのまま転送するのでスミアやノイズに弱いが、CMOSセンサでは、画素毎にランダムアクセスで読出せ、各画素回路は電気的に分離しているので伝送ノイズに強く、またCMOS LSI等と同様に、同じ製造プロセスにてイメージセンサ部の周辺に各種のCMOS回路や加算演算回路などデジタル論理回路などを高集積化して比較的容易に一緒に作りこめる利点がある。その反面、CMOSセンサでは、画素毎のアンプの闇値など、個々の素子バラツキによる固定パターンノイズ(FPN)や暗電流、KTC雑音が大きい難点があったが、(CCDと同様に)埋め込みフォトダイオードとFDアンプを用いる構造にして、暗電流とKTC雑音を低減できるようになり、列信号線毎に並列に並んだ列回路に設けたColumn型のCDS/ADC回路等により、フォトダイオードをリセットする前と後の信号を減算して固定パターンノイズを除去できるようになり、列回路毎に積分型や巡回型、逐次型などのAD変換器を組み込んで、デジタル信号での撮像信号出力も容易になった。   In CCD, signal charges are transferred as they are, so they are vulnerable to smear and noise. However, in CMOS sensors, each pixel is read out by random access, and each pixel circuit is electrically separated, so it is resistant to transmission noise. Similar to a CMOS LSI or the like, there is an advantage that digital logic circuits such as various CMOS circuits and addition arithmetic circuits are highly integrated around the image sensor portion in the same manufacturing process and can be relatively easily formed together. On the other hand, in CMOS sensors, fixed pattern noise (FPN), dark current, and KTC noise due to variations in individual elements, such as the dark value of the amplifier for each pixel, were difficult, but embedded photodiodes (similar to CCD) As a result, the dark current and the KTC noise can be reduced, and the photodiode is reset by a column type CDS / ADC circuit provided in a column circuit arranged in parallel for each column signal line. Fixed pattern noise can be removed by subtracting the front and back signals, and integration signals, cyclic types, and sequential type AD converters are built into each column circuit, making it easy to output imaging signals as digital signals. became.

本実施の形態に係る高速度撮影機能を有するデジタルカメラ1に用いる撮像素子では、任意のサイズの画像領域を選択して、領域内の画素の撮像信号を読み出す選択読み出しができるように、図6に示す撮像素子200を用いることが好ましい。すなわち、この撮像素子200は、タイミング発生回路201に接続された垂直走査回路202と水平走査回路203及び列回路部204を備えるとともに、並列直列変換部204、符号器205を有している。列回路部204には、CDS回路206、A/D変換回路207、画素加算回路208を一組とする回路が複数設けられて、各々列信号線209が接続されている。一方、垂直走査回路202には、行選択線(アドレス線)210と転送TC線(行読出し線)211及び行リセット線212とが接続されている。また、イメージセンサ部213には、複数の単位画素回路214が設けられており、各単位画素回路214は、前記列信号線209、行選択線(アドレス線)210、転送TC線(行読出し線)211、行リセット線212に接続されたフォトダイオード215等で構成されている。   In the image sensor used in the digital camera 1 having the high-speed shooting function according to the present embodiment, an image area of an arbitrary size is selected, and selective readout for reading out the imaging signal of the pixels in the area can be performed. It is preferable to use the imaging device 200 shown in FIG. That is, the imaging device 200 includes a vertical scanning circuit 202, a horizontal scanning circuit 203, and a column circuit unit 204 connected to the timing generation circuit 201, and also includes a parallel / serial conversion unit 204 and an encoder 205. The column circuit unit 204 includes a plurality of circuits each including a CDS circuit 206, an A / D conversion circuit 207, and a pixel addition circuit 208, and each column signal line 209 is connected to the column circuit unit 204. On the other hand, to the vertical scanning circuit 202, a row selection line (address line) 210, a transfer TC line (row readout line) 211, and a row reset line 212 are connected. The image sensor unit 213 is provided with a plurality of unit pixel circuits 214, and each unit pixel circuit 214 includes the column signal line 209, a row selection line (address line) 210, a transfer TC line (row readout line). ) 211, a photodiode 215 connected to the row reset line 212, and the like.

したがって、この撮像素子200においては、列回路部204のCDS回路206、A/D変換回路207の後段に隣接する同色(フィルタ)の複数の画素の信号同士をデジタル信号で加算する画素加算回路208を設けることにより、デジタルズーム時には、選択領域内の画素データを任意の行列毎に所定の複数画素分加算された撮像信号を読出しできるように構成し、スルー画像や動画撮影において、高速レートでも、画像データ量の小さい撮像信号に変換して出力できるようにしてある。   Therefore, in this imaging device 200, a pixel addition circuit 208 that adds signals of a plurality of pixels of the same color (filter) adjacent to the subsequent stage of the CDS circuit 206 and the A / D conversion circuit 207 of the column circuit unit 204 as digital signals. By providing a digital zoom, it is possible to read out an imaging signal in which pixel data in a selected area is added for a predetermined number of pixels for each arbitrary matrix. It can be converted into an imaging signal with a small amount of data and output.

なお、選択読出しされた選択領域の撮像信号、さらに画素加算された撮像信号は、列回路部204のCDS回路206、A/D変換回路207から水平走査回路203の列選択信号により選択された列信号が順次出力されるが、このとき、高速クロックに同期させて並列のデジタル信号として出力するか、若しくは、並列のデジタル信号を符号化し、並列/直列変換回路により変換して、直列のデジタル撮像信号として出力して、高解像度の撮像信号を、DSPに高速フレームレートで転送出力することができる。   Note that the image signal of the selected region that has been selectively read and the image signal that has undergone pixel addition are the column selected by the column selection signal of the horizontal scanning circuit 203 from the CDS circuit 206 of the column circuit unit 204 and the A / D conversion circuit 207. Signals are output sequentially, but at this time, they are output as parallel digital signals in synchronization with a high-speed clock, or parallel digital signals are encoded and converted by a parallel / serial converter circuit for serial digital imaging. As a signal, a high-resolution imaging signal can be transferred and output to the DSP at a high frame rate.

(CDS/ADC回路、画素加算回路)   (CDS / ADC circuit, pixel addition circuit)

図7は、CMOSセンサ内の列回路部に設けた画素加算回路の例である。並列に並んだ列回路に設けるCDS/ADC回路には、各種方式が開発されているが、本例では、いわゆる「ColumnADC方式」のCDS/ADC回路を用いて、列毎に並列処理するA/D変換器により、画素の固定パターンノイズ(FPN)を抑圧しながらデジタル信号に変換する。ColumnADC方式のCDS回路では、固定パターンノイズを抑圧するために、荒精度と高精度の2段階のクランプ(Clamp)回路を用いる。クランプは、信号のあるレベルを基準電圧に置き換える動作で、クランプ回路は、例えば、キャパシタとスイッチで構成され、キャパシタの出力側がスイッチにより基準電圧にセットされる。   FIG. 7 is an example of a pixel addition circuit provided in the column circuit portion in the CMOS sensor. Various methods have been developed for CDS / ADC circuits provided in parallel column circuits. In this example, a so-called “Column ADC method” CDS / ADC circuit is used to perform parallel processing for each column. The D converter converts the pixel fixed pattern noise (FPN) into a digital signal while suppressing it. In the Column ADC type CDS circuit, a two-stage clamp circuit with coarse accuracy and high accuracy is used to suppress fixed pattern noise. Clamping is an operation of replacing a certain level of a signal with a reference voltage, and the clamp circuit is composed of, for example, a capacitor and a switch, and the output side of the capacitor is set to the reference voltage by the switch.

図8の動作タイミングチャートにあるように、まず、列回路のA1とA2のクランプスイッチS1、S2を同時に閉じてから、S1を先に開くと、点vinの電位が、A1の闇値電圧にS1スイッチングのバラツキが加算された電圧に荒い精度でクランプされるが、S2は閉じたままなので、その電圧がA2入力の闇値電圧になる。その後、S2を開くと、A2にもスイッチングのバラツキを含む電圧がクランプされ、クランプ動作が完了する。S2スイッチングのバラツキ成分はA2の利得で割った分かVin側のバラツキに還元されるので、Vin側から見るとクランプ精度が向上して、クランプ回路で発生する縦筋状の固定パターンノイズ(FPN)の発生が抑えられる。   As shown in the operation timing chart of FIG. 8, first, when the clamp switches S1 and S2 of the column circuit A1 and A2 are closed at the same time and then S1 is opened first, the potential at the point vin becomes the dark value voltage of A1. The voltage obtained by adding the variation of S1 switching is clamped with rough accuracy, but since S2 remains closed, the voltage becomes the dark value voltage of the A2 input. Thereafter, when S2 is opened, a voltage including the variation in switching is clamped in A2, and the clamping operation is completed. Since the variation component of S2 switching is reduced to the variation on the Vin side divided by the gain of A2, the clamp accuracy is improved when viewed from the Vin side, and the vertical streak fixed pattern noise (FPN) generated in the clamp circuit is improved. ) Is suppressed.

次に、行読出し線(転送ゲート線TG)にパルスが立ち上がると、画素信号が列信号線に現れるので、スイッチS4を閉じてサンプJングする。サンプリング完了後、スイッチS3を開いて、A/D変換用のランプ波形(RAMP波形、順次電圧が上昇する傾斜状の波形)の基準信号をスイッチS4から加えると、ランプ波形に応じてvinの電圧がやがてクランプ回路の闇値を越えてA2の出力が反転し、反転する電圧までの10ビットカウンタの値がデジタルの画素信号値としてラッチに記憶され、A/D変換処理が終了する。   Next, when a pulse rises on the row readout line (transfer gate line TG), a pixel signal appears on the column signal line, so the switch S4 is closed and sampling is performed. After the sampling is completed, the switch S3 is opened, and the reference signal of the ramp waveform for the A / D conversion (RAMP waveform, ramp waveform in which the voltage sequentially increases) is applied from the switch S4. Eventually, the output of A2 is inverted beyond the dark value of the clamp circuit, and the value of the 10-bit counter up to the voltage to be inverted is stored in the latch as a digital pixel signal value, and the A / D conversion process ends.

(画素加算動作)
このようなCDS/ADCを含む列回路の後に、列加算(垂直加算)回路などのデジタル演算回路301を設け、行アドレス選択された画素の信号を列信号線から読出し、CDS/ADC回路でノイズ除去されデジタル変換された並列信号を、タイミング信号でラッチ回路にラッチし、同じく選択された同じ列で異なる行の画素のデジタル並列信号を、同様に別のタイミング信号で別のラッチ回路にラッチして、ラッチ回路の出力同士を列加算回路でデジタル加算する。また、水平信号線からの信号出力部に行加算(水平加算)回路などのデジタル演算回路302を設け、列加算された信号同士をタイミング信号で選択して水平信号線に読出し、ラッチ回路にラッチして、ラッチ回路の出力同士を行加算回路でデジタル加算する。カラー撮像の場合には、例えば、「Bayer配列」等の千鳥状に2画素周期で交互に並んだ各色カラーフィルタに対応する各画素から、列方向に(一つ飛ばしで)隣接する同色フィルタの画素同士を、R画素はR画素同士で、G画素はG画素同士で、B画素はB同素同士で、列方向に複数加算する。また、行方向に(一つ飛ばしで)隣接する同色フィルタの複数の画素を行方向に加算して読み出すことで同色画素の信号同士が複数同素分加算できる。
(Pixel addition operation)
After such a column circuit including CDS / ADC, a digital arithmetic circuit 301 such as a column addition (vertical addition) circuit is provided to read out the pixel signal selected from the row address from the column signal line, and the CDS / ADC circuit generates noise. The parallel signal that has been removed and converted into digital data is latched in a latch circuit by a timing signal, and the digital parallel signal of pixels in the same column selected in different rows is latched in another latch circuit by another timing signal as well. Then, the outputs of the latch circuits are digitally added by the column adder circuit. In addition, a digital operation circuit 302 such as a row addition (horizontal addition) circuit is provided in the signal output section from the horizontal signal line, and the column-added signals are selected by the timing signal, read out to the horizontal signal line, and latched in the latch circuit Then, the outputs of the latch circuits are digitally added by the row addition circuit. In the case of color imaging, for example, from each pixel corresponding to each color filter arranged alternately in a two-pixel cycle in a staggered pattern such as “Bayer arrangement”, the same color filter adjacent in the column direction (one skipped) is used. A plurality of pixels are added in the column direction, the R pixel is the R pixel, the G pixel is the G pixel, the B pixel is the B allotropy. Further, a plurality of pixels of the same color can be added together by reading out a plurality of pixels of the same color filter adjacent in the row direction (by skipping one) in the row direction.

加算された撮像信号のデジタル信号は所定の符号化を行うとともに、並列/直列変換回路で順次シリアル(直列)のデジタル信号に変換されて出力され、DSPに転送される。なお、CDS/ADC回路は、COlumnADC方式で構成したが、より単純なColumn CDS方式や、DDS方式(Double Data Sampling)など、他のCDS/ADC回路や加筧回路で構成してもよい。   The added digital signal of the image pickup signal is subjected to predetermined encoding, is sequentially converted into a serial (serial) digital signal by a parallel / serial conversion circuit, is output, and is transferred to the DSP. Although the CDS / ADC circuit is configured by the COlumn ADC system, it may be configured by another CDS / ADC circuit or an adder circuit such as a simpler Column CDS system or a DDS system (Double Data Sampling).

(撮像信号の高速読出し)
前述のように、加算された撮像信号のデジタル信号は、並列/直列変換回路で順次シリアル(直列)のデジタル信号に変換されて出力されDSPに転送される。高解像度かつ高速フレームで撮像を行うためには、当然ながら、撮像信号を高速でDSPに転送する必要がある。一般のCMOS入出力回路では、入出力信号の振幅は、電源電圧範囲の一杯の範囲で振らせるので、消費電力が大きくなるばかりでなく、転送できる速度も遅くなってしまう。これに対し、例えば、CML系(Current Mode Logic、電流モードロジック)の入出力回路では、トランジスタを不飽和領域で使用して、インピーダンスを低くし、電圧を振らせるというよりは電流をon/offさせる方法で、(vdd−0.4V)の電位を中心に低振幅で動作させる。浮遊容量を充・放電する量が少なくなるので高速動作できる。
(High-speed readout of imaging signals)
As described above, the added digital signal of the imaging signal is sequentially converted into a serial (serial) digital signal by the parallel / serial conversion circuit, and is output and transferred to the DSP. In order to capture an image with a high resolution and a high-speed frame, naturally, it is necessary to transfer the imaging signal to the DSP at a high speed. In a general CMOS input / output circuit, the amplitude of the input / output signal is swung within the full range of the power supply voltage range, so that not only the power consumption increases, but also the transfer speed becomes slow. On the other hand, for example, in an input / output circuit of a CML system (Current Mode Logic), the transistor is used in an unsaturated region to reduce the impedance and to turn the current on / off rather than swing the voltage. In this way, the operation is performed with a low amplitude around the potential of (vdd−0.4V). High speed operation is possible because the amount of charge / discharge of stray capacitance is reduced.

また、LVDS系(Low−voltage Differential Signaling、小振幅差動信号方式)は、2本の信号線を使用して情報を運ぶ差動信号方式で、単一チャネルあたり数百〜数千Mbps(メガビット/秒)の高速度でデータ伝送でき、かつ、mWレベルの低消費電力の差動データ伝送方式として、内部バスの信号線の本数も減らせるため、モニタ表示装置などのデジタル入出力インタフェースとして利用されている。LVDSでは、2本の配線を必要とするが、電流モード・ドライバの採用と、+1.2V電位を中心に0.3Vの上下振幅内で振らせる小振幅によって、コモンモードノイズを除去でき、広い周波数範囲に対して高いノイズ耐性が得られる。このように、CMOS回路でも、高速でシリアル伝送できるCML系やLVDS系など低振幅や作動方式の入出力インタフェースを用いて、また直列信号に変換されたデジタル撮像信号を撮像素子の出力回路(トランシーバー)から出力して、後段のDSPへ高速で伝送し、DSP側の入力回路(レシーバー)では、受信した直列デジタル信号を並列/直列変換回路で並列デジタル信号に復元変換して、デジタル撮像信号として映像信号処理に用いることができる。   The LVDS system (Low-Voltage Differential Signaling) is a differential signal system that carries information using two signal lines and is several hundred to several thousand Mbps (megabits) per single channel. As a differential data transmission system that can transmit data at a high speed (mW level) with low power consumption, the number of signal lines on the internal bus can be reduced, so it can be used as a digital input / output interface for monitor display devices, etc. Has been. LVDS requires two wires, but common mode noise can be eliminated by adopting a current mode driver and a small amplitude that swings within a vertical amplitude of 0.3V centered on a + 1.2V potential. High noise immunity is obtained over the frequency range. As described above, even in a CMOS circuit, a digital image signal converted into a serial signal is converted into an output circuit of an image sensor (transceiver) using an input / output interface of a low amplitude or operating method such as a CML system or an LVDS system capable of serial transmission at high speed. ) And is transmitted to the subsequent DSP at high speed, and the input circuit (receiver) on the DSP side restores and converts the received serial digital signal into a parallel digital signal by a parallel / serial converter circuit, and as a digital imaging signal It can be used for video signal processing.

(DSP(デジタル信号処理回路))
CMOSセンサ内蔵のCDS/ADC回路でデジタル変換され、並列又は直列のデジタル信号で転送された撮像信号を入力すると、DSPでは、まずシェーディング補正や黒レベル補正、欠陥画素補正などを行った後、デジタルAGCで増幅するとともに、ホワイトバランス調整やカラーバランス調整を行った後に、撮像素子の前面に設けられたモザイク状の「Bayer配列」や千鳥配列されたRGBカラーフィルタ配列に従って、画素毎には一つの色成分しか持たないBayerデータ(RAWデータ)から、他の色差成分の画素値も、近隣周辺の画素値等から画素補間(Pixel Signal lnterpolation)して求めて(カラー補間処理)、画素毎にRGB色差成分毎の階調値を持つデジタル画像データに変換される。さらに、階調補正やガンマ補正されたRGB系のデジタル画像信号はバッファメモリ(B)に一時記憶された後、LCDモニタや電子ファインダ(EVF)に再生表示されるか、カラーマトリクス回路でRGB系からYUV系/YCbCr系など所定の色空間の画像信号に変換され、画像CODECにより、JPEG静止画像データやMPEG4やH.264動画像データなどに圧縮/符号化処理される。また、必要に応じて、リサイズ/補間処理回路により、撮像画像サイズを異なる画像サイズに変換する解像度変換処理(Re solution Conversion)を行う。例えば、スルー画像や再生画像をLCD等に表示する為に、videoRAMや表示ドライバ内の表示RAM領域に書込む為に、(VGAサイズなど)所定の画像サイズに変換するリサイズ(Resize)、もしくは、補間処理(lnterpolation)を行う。あるいは、撮影記録時に、所望の設定された画像サイズで記録する為に、縮小/拡大する処理や、リサイズ/補間処理もしくは解像度変換処理を行う。
(DSP (digital signal processing circuit))
When an imaging signal that has been digitally converted by a CDS / ADC circuit with a built-in CMOS sensor and transferred as a parallel or serial digital signal is input, the DSP first performs shading correction, black level correction, defective pixel correction, etc. After amplifying with AGC and performing white balance adjustment and color balance adjustment, one pixel is used for each pixel according to the mosaic “Bayer arrangement” or the staggered RGB color filter arrangement provided on the front surface of the image sensor. From Bayer data (RAW data) having only color components, pixel values of other color difference components are also obtained by pixel interpolation (pixel signal interpolation) from neighboring peripheral pixel values, etc. (color interpolation processing). Converted to digital image data with gradation values for each color difference component . Further, the RGB digital image signal subjected to gradation correction or gamma correction is temporarily stored in the buffer memory (B) and then reproduced and displayed on an LCD monitor or an electronic viewfinder (EVF), or the RGB matrix image is displayed by a color matrix circuit. Is converted into an image signal of a predetermined color space such as a YUV system / YCbCr system, and JPEG still image data, MPEG4, H.264, etc. H.264 moving image data or the like is compressed / encoded. Further, if necessary, the resizing / interpolating circuit performs resolution conversion processing (Re solution conversion) for converting the captured image size to a different image size. For example, in order to display a through image or a reproduced image on an LCD or the like, to rewrite to a video RAM or a display RAM area in a display driver, the image is resized (Resize) to be converted into a predetermined image size (such as a VGA size), or Interpolation processing is performed. Alternatively, at the time of shooting and recording, processing for reduction / enlargement, resizing / interpolation processing, or resolution conversion processing is performed in order to record at a desired set image size.

(マルチプレーン加算処理)
図9に示すように、複数枚の画像を高速速写して、前記のDSP内に取り込み、カラー補間処理を行う前に、Bayer配列データでマルチプレーン加算合成処理を行うことにより、前述したように、増感効果を高めた高感度撮影を行うことができる。ブレ軽減撮影を行う場合には、さらに、マルチプレーン加算する前に、速写された各画像を前の画像との相関度やテンブレートマッチング処理などにより、主要被写体領域の輝度パターンや輪郭、色特徴などが前の画像と同じ位置に重なるように位置合せ処理を行う。
(Multiplane addition processing)
As shown in FIG. 9, as described above, a plurality of images are taken at high speed, captured in the DSP, and subjected to multiplane addition synthesis processing with Bayer array data before performing color interpolation processing. High-sensitivity shooting with enhanced sensitization effect can be performed. In addition, when performing blur reduction shooting, before adding multiplanes, the brightness pattern, contour, and color characteristics of the main subject area are determined by correlating each time-lapsed image with the previous image or by template matching processing. Alignment processing is performed so that and the like overlap at the same position as the previous image.

図9のマルチプレーン加算回路では、各連写画像のBayer配列データのうち、輝度成分や解像感をよく反映するG(緑)画像の相関度を求めて位置合せ合成を行い、またBayer配列データでは欠けている縦、横、斜め画素の補間処理を行いフル画素のGデータを生成する。R(赤)、B(青)データは、G(緑)データの位置合せ結果に準じて位置合せとカラー補間処理を行い、フルサイズのRGBデータに変換する。位置合せ処理では、さらに、回転方向も検出して、アフィン変換などにより座標回転変換して位置合せし、回転位置に応じて補間処理を行うようにしてもよい。あるいは、動く被写体や被写体ブレしやすい撮影条件では、中央や前景の主な被写体の領域画像を抽出して、主要被写体や背景の輪郭形状や特微量が重なる位置に移動して位置合せしてから加算するのが望ましい。   In the multi-plane addition circuit of FIG. 9, among the Bayer array data of each continuous shot image, a correlation degree of a G (green) image that well reflects a luminance component and a sense of resolution is obtained and alignment synthesis is performed. Interpolation of vertical, horizontal, and diagonal pixels that are missing from the data is performed to generate G data for full pixels. R (red) and B (blue) data are converted into full-size RGB data by performing alignment and color interpolation processing according to the alignment result of G (green) data. In the alignment process, it is also possible to detect the rotation direction, perform coordinate rotation conversion by affine transformation or the like, perform alignment, and perform interpolation processing according to the rotation position. Or, for moving subjects or shooting conditions that tend to blur the subject, extract the area image of the main subject in the center or foreground, move it to the position where the main subject or background outline shape and feature amount overlap, and align them. It is desirable to add.

(必要な撮影速度)
高速度撮影機能を有するデジタルカメラ1における撮影速度や速写フレーム速度R(fps)は、設定された撮影倍率(M)や、被写体の移動速度(V)などの設定情報に従って、次式(1)などにより、必要な撮影速度(R)の目安を算出し、設定すればよい。
式(1) 必要な撮影速度R=(MXV)/(dxα)
ただし、R:撮影速度(コマ/秒)、M:撮影倍率=撮像イメージサイズ(Y′)/被写体サイズ(Y)、V:被写体の移動速度(mm/秒)、d:許容錯乱円径、α:シヤッタ係数(α=1〜5など)。
(Required shooting speed)
The shooting speed and rapid shooting frame speed R (fps) in the digital camera 1 having a high-speed shooting function are expressed by the following equation (1) according to setting information such as the set shooting magnification (M) and moving speed (V) of the subject. A guide for the required shooting speed (R) may be calculated and set.
Formula (1) Required shooting speed R = (MXV) / (dxα)
Where R: shooting speed (frame / second), M: shooting magnification = captured image size (Y ′) / subject size (Y), V: moving speed of subject (mm / second), d: allowable circle of confusion, α: Shutter coefficient (α = 1 to 5, etc.).

(必要な露出時間)   (Required exposure time)

また、必要な露出時間(T)は、設定された撮影倍率(M)や被写体の移動速度(V)などの設定情報に従って、次式(2)又は(3)により、必要な露出時間(T)の目安を算出し、それを満たす範囲で、測光値や照明条件に応じて、露出時間(T)を設定すればよい。
式(2) 必要な露出時間T=β×d/(MXV)、又は、
式(3) 必要な露出時間T=β×Y′/(m×M×V)
ただし、T:露出時間(秒)、d:許容錯乱円径(mm)、M:撮影倍率、V:被写体の移動速度(mm/秒)、β:係数(β=0.2〜1.0、など)、Y′: 撮像イメージサイズ(mm)、m:撮像素子の画素数。
Further, the necessary exposure time (T) is calculated by the following equation (2) or (3) according to setting information such as the set photographing magnification (M) and subject moving speed (V). The exposure time (T) may be set in accordance with the photometric value and the illumination conditions within a range that satisfies the above.
Formula (2) Required exposure time T = β × d / (MXV), or
Expression (3) Required exposure time T = β × Y ′ / (m × M × V)
Where T: exposure time (seconds), d: permissible circle of confusion (mm), M: photographing magnification, V: moving speed of subject (mm / second), β: coefficient (β = 0.2 to 1.0) ), Y ′: captured image size (mm), m: number of pixels of the image sensor.

(必要な被写体照度)
また、撮影に必要な光量(被写体照度)Eは、撮影倍率(M)や絞り値(F)、露出時間(T)などに応じて、例えば、次式(4)などにより算出される被写体照度(E)を満足する被写体の明るさやEV値の環境条件で撮影するか、又は、それを満足するように、ISO感度や被写体を照明するストロボ光量を設定して撮影するよう制御すればよい。
式(4) 必要な被写体照度E=γ×(1+M)×F/(T×ISO)
ただし、E:必要な被写体照度(ルクス)、M:撮影倍率、F:撮影レンズ絞り値、T:撮影露出時間(秒)、ISO:ISO相当の撮影感度、γ:定数(例えば、γ=200〜235程度)。
(Required subject illumination)
The light amount (subject illuminance) E required for photographing is subject illuminance calculated by, for example, the following equation (4) according to the photographing magnification (M), aperture value (F), exposure time (T), and the like. It may be controlled to shoot under the environmental conditions of the brightness and EV value of the subject that satisfies (E), or to set the ISO sensitivity and the strobe light amount that illuminates the subject so as to satisfy it.
Formula (4) Necessary subject illuminance E = γ × (1 + M 2 ) × F 2 / (T × ISO)
However, E: Necessary subject illuminance (lux), M: photographing magnification, F: photographing lens aperture value, T: photographing exposure time (second), ISO: photographing sensitivity equivalent to ISO, γ: constant (for example, γ = 200) About 235).

(第2の実施の形態)
図10は、本発明の第2の本実施の形態の動作及び処理手順を示すフローチャートである。先ず、ユーザーによる操作入力部122での操作に応じて撮影モードを選択し(ステップS201)、オート撮影モード又はブレ軽減撮影モードが設定されているか否かを判断する(ステップS202)。オート撮影モード又はブレ軽減撮影モードが設定されていない場合には、その他の撮影モード処理に移行する(ステップS203)。
(Second Embodiment)
FIG. 10 is a flowchart showing the operation and processing procedure of the second embodiment of the present invention. First, a shooting mode is selected in accordance with an operation of the operation input unit 122 by the user (step S201), and it is determined whether or not the auto shooting mode or the blur reduction shooting mode is set (step S202). If the auto shooting mode or the blur reduction shooting mode is not set, the process proceeds to other shooting mode processing (step S203).

また、オート撮影モード又はブレ軽減撮影モードが設定されている場合には、シャッタ速度等の撮影条件を設定し(ステップS204)、ズーム処理、AF処理を実行し、レンズ焦点距離情報(f)を読み込む(ステップS205)。また、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS206)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS207)。そして、レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS208)、これにより得られた測光値と前記ステップS203で設定された撮影条件とに応じて、露出条件を設定する(ステップS209)。また、当該デジタルカメラ1におけるブレ量若しくは像ブレ量を検出する(ステップ210)。   If the auto shooting mode or blur reduction shooting mode is set, shooting conditions such as shutter speed are set (step S204), zoom processing and AF processing are executed, and lens focal length information (f) is obtained. Read (step S205). Further, it is determined whether or not a shooting instruction has been made by pressing the release button (step S206). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed. (Step S207). When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S208), and exposure is performed according to the photometric value obtained thereby and the shooting conditions set in step S203. Conditions are set (step S209). Further, a blur amount or an image blur amount in the digital camera 1 is detected (step 210).

次に、
(1)前記ステップS205で読み込んだ焦点距離(f)が所定以上であるか否か(ステップS211)
(2)マクロ撮影であるか否か(ステップS212)
(3)検出回路142、144で検出されたブレ量が所定値を超えるか否か(ステップS213)
(4)ステップS209で設定された設定露出時間における像ブレ量が所定を超えるか否か(ステップS214)
(5)前記ステップS208で得られた測光値が所定値未満であるか否か(ステップS215)
(6)測光値が所定値未満である場合においてストロボ強制OFFとなっているか否か(ステップS216)
(7)前記ステップS209で設定された設定露出時間(T)が所定時間(例えば、1/60s)を超えるか否か(ステップS217)
(8)前記ステップS208でのWB処理によるWB設定が電球又は蛍光灯(屋内証明)であるか否か(ステップS218)
を判断する。
next,
(1) Whether the focal length (f) read in step S205 is greater than or equal to a predetermined value (step S211)
(2) Whether macro shooting is performed (step S212)
(3) Whether or not the amount of blur detected by the detection circuits 142 and 144 exceeds a predetermined value (step S213)
(4) Whether or not the amount of image blur during the set exposure time set in step S209 exceeds a predetermined value (step S214)
(5) Whether the photometric value obtained in step S208 is less than a predetermined value (step S215)
(6) Whether the strobe is forcibly turned off when the photometric value is less than the predetermined value (step S216)
(7) Whether the set exposure time (T) set in step S209 exceeds a predetermined time (for example, 1/60 s) (step S217)
(8) Whether the WB setting by the WB process in step S208 is a light bulb or a fluorescent lamp (indoor certification) (step S218)
Judging.

そして、これら(1)〜(8)判断がすべてNOであった場合には、撮像素子157及びDSP部164に単写撮影モード(加算なし)を設定し(ステップS219)、設定撮影条件に応じて、単写撮影動作を実行する(ステップS220)。   If all the determinations (1) to (8) are NO, a single shooting mode (no addition) is set in the image sensor 157 and the DSP unit 164 (step S219), and according to the set shooting conditions. Then, the single shooting operation is executed (step S220).

一方、(1)〜(8)判断の少なくとも一つがYESであった場合には、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定する(ステップS221)。そして、前述と同様に、測光値と設定撮影条件に応じて、加算画像数と露出時間を再設定して(ステップS222)、連写撮影動作、及び連写画像のマルチプレーン加算合成処理を実行する(ステップS223)。   On the other hand, if at least one of the determinations (1) to (8) is YES, the image sensor 157 and the DSP unit 164 are set to the continuous shooting and multiplane addition mode (step S221). Then, in the same manner as described above, the number of added images and the exposure time are reset according to the photometric value and the set shooting conditions (step S222), and the continuous shooting operation and the multi-plane addition synthesis processing of the continuous shooting images are executed. (Step S223).

しかして、前述のような被写体の状態や撮影条件では、暗い被写体若しくは被写体の輝度が低くて、適正露出条件における露出時間(シャッタ速度)が長く(遅く)なりやすいので、手ブレとともに被写体ブレも生じやすい。あるいは、露出時間に対して被写体の移動速度が速いため、被写体ブレが生じやすい。このような被写体の動きによる像ブレ(動体ブレ)が生じやすい撮影条件の場合にも、自動的にブレ軽減の為の増感撮影モードに切り替えて、マルチプレーン加算合成による増感処理によって、撮影感度を増感するとともに、手ブレだけでなく被写体ブレ(動体ブレ)による像ブレをも軽減して撮影することができる。   Therefore, in the above-described subject state and shooting conditions, the brightness of the dark subject or the subject is low, and the exposure time (shutter speed) in the appropriate exposure condition tends to be long (slow). Prone to occur. Alternatively, subject movement is fast with respect to the exposure time, and subject blurring tends to occur. Even under shooting conditions that tend to cause image blur due to the movement of the subject (moving motion blur), the camera automatically switches to the sensitized shooting mode for blur reduction and sensitizes by multi-plane additive synthesis. In addition to increasing sensitivity, not only camera shake but also image blur due to subject blur (moving body blur) can be reduced and photographed.

(第3の実施の形態)   (Third embodiment)

図11及び図12は、本発明の第3の実施の形態を示すものである。この実施の形態は、撮影シーン別のプログラム撮影モード、若しくは撮影シーンや撮影方法を説明文と代表例のサンプル画像とを付して表示したメニューから選択できるようにしたモード(BS(ベストショット)モード)において、設定された撮影シーンに応じて、手ブレや被写体ブレが生じやすいと判断されるような所定の撮影シーンが設定されている場合には、ブレーン加算合成によるブレ軽減撮影/増感撮影に自動的に切り替えるように制御するものである。   11 and 12 show a third embodiment of the present invention. In this embodiment, a program shooting mode for each shooting scene, or a mode (BS (best shot) in which shooting scenes and shooting methods can be selected from a menu with explanatory text and representative sample images attached thereto. Mode), if a predetermined shooting scene that is determined to be likely to cause camera shake or subject blur is set according to the set shooting scene, blur reduction shooting / sensitization by brain addition synthesis is performed. It controls to automatically switch to shooting.

すなわち、図11のフローチャートに示すように、ユーザーによる操作入力部122での操作に応じて撮影モードを選択し(ステップS301)、ユーザーによる操作入力部122での操作により、オート撮影モード又は撮影シーン別プログラムモードが設定されているか否かを判断する(ステップS302)。オート撮影モード又は撮影シーン別プログラムモードが設定されていない場合には、その他の撮影モード処理に移行する(ステップS303)。   That is, as shown in the flowchart of FIG. 11, the shooting mode is selected according to the operation of the operation input unit 122 by the user (step S301), and the auto shooting mode or the shooting scene is selected by the operation of the operation input unit 122 by the user. It is determined whether another program mode is set (step S302). If the auto shooting mode or the program mode for each shooting scene is not set, the process proceeds to other shooting mode processing (step S303).

また、オート撮影モード又は撮影シーン別プログラムモードが設定されている場合には、シャッタ速度等の撮影条件を設定するとともに、ユーザーによる操作入力部122での操作に応じて、撮影条件を設定又は撮影シーンを選択する(ステップS304)。つまり、図12(A)〜(F)に示すように、表示部181にユーザーによる操作入力部122での操作に応じて、撮影シーンとその説明文代表例のサンプル画像を切替表示し、いずれかの撮影シーンが選択されたならば、これを設定する。   In addition, when the auto shooting mode or the program mode for each shooting scene is set, shooting conditions such as a shutter speed are set, and shooting conditions are set or shot according to the operation of the operation input unit 122 by the user. A scene is selected (step S304). That is, as shown in FIGS. 12A to 12F, the display unit 181 switches and displays a sample image of a photographed scene and its representative example according to the operation of the operation input unit 122 by the user. If any shooting scene is selected, this is set.

なお、図10(A)〜(F)に好適な撮影シーン別プログラムは、予めプログラムメモリ123に格納されている。また、(A)は子供の撮影、(B)はペットの撮影、(C)はキャンドルライト(屋内)での撮影、(D)はパーティ(屋内)での撮影、(E)はスポーツの撮影、(F)は花などの近接撮影に各々好適な撮影シーン別プログラムに対応する。   10A to 10F are stored in the program memory 123 in advance. Also, (A) is for children, (B) is for pets, (C) is for candlelight (indoor), (D) is for parties (indoors), and (E) is for sports. , (F) corresponds to a shooting scene-specific program suitable for close-up shooting of flowers or the like.

次に、ズーム処理、AF処理を実行し(ステップS305)、レリーズ釦が押されて撮影指示がなされたか否かを判断する(ステップS306)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS307)。そして、レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS308)、これにより得られた測光値と前記ステップS203で設定された撮影条件とに応じて、露出条件を設定する(ステップS309)。   Next, zoom processing and AF processing are executed (step S305), and it is determined whether or not the release button has been pressed to give a shooting instruction (step S306). If not, the operation input unit 122 is operated by the user. Other key processing corresponding to the operated key is executed (step S307). When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S308), and exposure is performed according to the photometric value obtained thereby and the shooting conditions set in step S203. Conditions are set (step S309).

次に、前記ステップS304で選択された撮影シーン(BSモードが)が、
(1)子供、ペットの撮影シーン(ステップS310)
(2)キャンドルライト(屋内)の撮影シーン(ステップS311)
(3)パーティ(屋内)の撮影シーン(ステップS312)
(4)スポーツの撮影シーン(ステップS313)
(5)花、又は近接撮影(ステップS314)
(6)流し撮り撮影(ステップS315)
であるか否かを判断する。
Next, the shooting scene (BS mode) selected in step S304 is
(1) Child / pet photography scene (step S310)
(2) Candlelight (indoor) shooting scene (step S311)
(3) Party (indoor) shooting scene (step S312)
(4) Sports shooting scene (step S313)
(5) Flower or close-up photography (step S314)
(6) Panning shooting (step S315)
It is determined whether or not.

そして、これら(1)〜(6)判断がすべてNOであった場合には、つまり、設定されたシーンが「子供、ペットの撮影シーン」「キャンドルライト(屋内)の撮影シーン」「」パーティ(屋内)の撮影シーン」「スポーツの撮影シーン」「花、又は近接撮影」「流し撮り撮影」のいずれでもなく、他のシーンである場合には、撮像素子157及びDSP部164に単写撮影モード(加算なし)を設定し(ステップS316)、設定された撮影シーンと設定撮影条件に応じて、単写撮影動作を実行する(ステップS317)。   If all of these determinations (1) to (6) are NO, that is, the set scenes are “children and pets shooting scenes” “candlelight (indoor) shooting scenes” “” party ( In the case of other scenes other than “indoor) shooting scene”, “sports shooting scene”, “flower or close-up shooting”, and “panning shot shooting”, the image sensor 157 and the DSP unit 164 have a single shooting mode. (No addition) is set (step S316), and a single shooting operation is executed according to the set shooting scene and set shooting conditions (step S317).

一方、(1)〜(6)判断の少なくとも一つがYESであった場合には、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定する(ステップS318)。そして、前述と同様に、測光値と設定撮影条件に応じて、加算画像数と露出時間を再設定して(ステップS319)、設定された撮影シーンと、設定撮影条件に応じて、連写撮影動作、及び連写画像のマルチプレーン加算合成処理を実行する(ステップS320)。   On the other hand, if at least one of the determinations (1) to (6) is YES, the imaging device 157 and the DSP unit 164 are set to the continuous shooting and multiplane addition mode (step S318). Then, as described above, the number of added images and the exposure time are reset according to the photometric value and the set shooting conditions (step S319), and continuous shooting is set according to the set shooting scene and the set shooting conditions. The operation and multi-plane addition synthesis processing of continuous shot images are executed (step S320).

したがって、本実施の形態によれば、被写体が暗かったり、露出時間が長くなったり、手ブレや動体ブレが生じやすいような撮影シーンや増感処理が必要な撮影シーンの場合には、自動的にマルチプレーン加算合成によるブレ軽減撮影若しくは増感撮影に切り替えて撮影するように制御するので、前述した第1の実施の形態のように、設定モード等で細かく設定したりする必要がなく、ユーザー所望の撮影シーンやユーザーが選択した被写体のシーンに応じて、必要な場合には自動的に、手ブレや同他ブレによる像ブレを軽減したり増感撮影することができる。ユーザーは、撮影シーンを選択するだけで、容易に、また必要な場合にのみ自動的に像ブレを軽減したり増感撮影することができる。   Therefore, according to the present embodiment, in the case of a shooting scene in which the subject is dark, the exposure time is long, a camera shake or a motion blur is likely to occur, or a shooting scene that requires sensitization processing is automatically performed. In addition, since control is performed so that shooting is performed by switching to blur reduction shooting or intensifying shooting by multi-plane addition synthesis, there is no need to make detailed settings in the setting mode or the like as in the first embodiment described above. Depending on the desired shooting scene and the scene of the subject selected by the user, image blur due to camera shake or other blurs can be automatically reduced or intensified shooting can be automatically performed when necessary. The user can easily reduce image blurring or perform intensifying shooting only by selecting a shooting scene and automatically when necessary.

なお、本実施の形態においては、マルチプレーン加算モードで撮像素子を駆動するシーンとして、図12(A)〜(F)を示したが、これに限ることなく、夜景の撮影シーン(暗い被写体だが、遠景なのでストロボ消灯で撮影したいシーン)、夜景の人物と背景の撮影シーン(近景も、ストロボの届かない遠景も、一緒に撮影したい)、花火の撮影シーン(増感したいが、ノイズ発生を押さえたい撮影シーン)など、暗い被写体で露出時間が長くなるので、三脚などで固定して撮影するのが基本だが、撮影感度を上げると増大するノイズの発生も押さえて撮影したいシーンなどでも、(ISO相当感度など)撮影感度をそれほど上げずに、マルチプレーン加算合成により増感撮影に自動的に切り替えて撮影するようにしてもよい。また、ブレ軽減撮影専用や高感度撮影専用の撮影シーンプログラムを設けるようにしてもよい。   In the present embodiment, FIGS. 12A to 12F are shown as scenes for driving the image sensor in the multi-plane addition mode. However, the present invention is not limited to this, and a night scene shooting scene (a dark subject) , A scene that you want to shoot with the flash off because it is a distant view), a scene that captures a person in the night view and a background (you want to shoot a close-up view or a distant view that does not reach the strobe), a fireworks shoot scene (you want to sensitize, but suppress noise generation) Since the exposure time is longer for dark subjects such as shooting scenes), it is basic to shoot with a tripod, etc., but even in scenes where you want to shoot while suppressing the generation of noise that increases when shooting sensitivity is increased (ISO (Equivalent sensitivity etc.) It is also possible to automatically switch to intensifying shooting by multi-plane addition synthesis without increasing the shooting sensitivity so much. Also, a shooting scene program dedicated to blur reduction shooting or high sensitivity shooting may be provided.

また、前記各撮影シーンにおいては、設定された撮影シーン毎の撮影制御プログラムに応じて、露出プログラムの選択や、測光方法、焦点制御方法、ストロボの点灯/消灯/オートなど、その他の撮影条件の設定や、輪郭強調処理やカラーフィルタ処理等を自動的に設定したり、ISO相当感度など撮影感度アップによる増感撮影と組み合わせたりして、マルチプレーン加算合成によるブレ軽減撮影/増感撮影を行ってもよい。また、設定された撮影シーンに応じて、マルチプレーン加算合成による撮影の加算数(加算倍率)やその限度範囲、若しくは、画素補間処理の倍率や限度範囲などを自動的に切り替えるのが好ましい。また、撮影シーンに応じて、撮影感度アップとマルチプレーン加算合成による増感処理との配分比率を切り替えるようにしてもよい。撮影シーンの設定は、ユーザーがモードスイッチやメニュー操作で選択したシーンでも、あるいは、カメラの制御回路においTげ、撮影条件や被写体輝度や色調の分布や、被写体距離、構図配置などからシーン判別する撮影プログラム等により設定されたシーンであってもよい。   In addition, in each shooting scene, other shooting conditions such as exposure program selection, metering method, focus control method, flash on / off / auto, etc., are set according to the set shooting control program for each shooting scene. Automatically set settings, contour enhancement processing, color filter processing, etc., and combine with sensitivity-enhanced shooting by increasing shooting sensitivity such as ISO equivalent sensitivity to perform blur reduction shooting / sensitization shooting by multi-plane addition synthesis May be. Further, it is preferable to automatically switch the number of additions (addition magnification) of multi-plane addition synthesis and its limit range or the magnification and limit range of pixel interpolation processing according to the set shooting scene. Further, the distribution ratio between the shooting sensitivity increase and the sensitization processing by multi-plane addition synthesis may be switched according to the shooting scene. Shooting scenes can be selected from scenes selected by the user using the mode switch or menu operation, or in the camera control circuit, and scene discrimination is made based on shooting conditions, subject brightness and tone distribution, subject distance, composition layout, etc. It may be a scene set by a shooting program or the like.

(第4の実施の形態)   (Fourth embodiment)

図13は、本発明の第4の実施の形態を示すものである。この実施の形態は、設定された所望の印刷用紙の種別又は印刷用紙サイズ(寸法)、若しくは、設定された画像サイズ(縦×横の画素数)に相応する印刷用紙サイズ(寸法)に応じて、所定のブレ量又は像ブレ量など、許容できるブレ量を設定し、検出されたブレ量又は像ブレ量が、所定のブレ量又は像ブレ量より大きい場合には、自動的に画素マルチプレーン加算モードに切り替えて撮像素子を駆動し、マルチプレーン加算合成によるブレ軽減のための増感撮影処理を行い、設定された露出時間を画素加算数に応じて短縮された露出時間に設定して撮影するように制御する。また、撮影画像の画像サイズが設定された画像サイズよりも小さくなる場合には、撮影画像データに画素補間処理を行ってから記録できるように制御するものである。   FIG. 13 shows a fourth embodiment of the present invention. In this embodiment, a desired print paper type or print paper size (dimension) set or a print paper size (dimension) corresponding to the set image size (vertical x horizontal number of pixels) is used. When an allowable blur amount such as a predetermined blur amount or image blur amount is set, and the detected blur amount or image blur amount is larger than the predetermined blur amount or image blur amount, the pixel multi-plane is automatically set. Switch to addition mode, drive the image sensor, perform sensitization shooting processing for blur reduction by multi-plane addition synthesis, and set the exposure time set to a shortened exposure time according to the number of added pixels Control to do. When the image size of the captured image is smaller than the set image size, control is performed so that the captured image data can be recorded after performing pixel interpolation processing.

フローチャートに示すように、ユーザーによる操作入力部122での操作に応じて撮影モードを選択し(ステップS401)、オート撮影モード又はブレ軽減撮影モードが設定されているか否かを判断する(ステップS402)。オート撮影モード又はブレ軽減撮影モードが設定されていない場合には、その他の撮影モード処理に移行する(ステップS403)。また、オート撮影モード又はブレ軽減撮影モードが設定されている場合には、シャッタ速度等の撮影条件を設定するとともに、ユーザーによる操作入力部122での操作に応じて、用紙サイズ又は画像サイズを選択する(ステップS404)。   As shown in the flowchart, the shooting mode is selected according to the operation of the operation input unit 122 by the user (step S401), and it is determined whether the auto shooting mode or the blur reduction shooting mode is set (step S402). . If the auto shooting mode or the blur reduction shooting mode is not set, the process proceeds to other shooting mode processing (step S403). When the auto shooting mode or the blur reduction shooting mode is set, the shooting condition such as the shutter speed is set, and the paper size or the image size is selected according to the operation of the operation input unit 122 by the user. (Step S404).

次に、ズーム処理、AF処理を実行し(ステップS405)、被写体像のスルー画像を表示部181に表示させる(ステップS406)。次いで、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS407)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS408)。そして、レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS409)、これにより得られた測光値と前記ステップS404で設定された撮影条件とに応じて、露出条件を設定する(ステップS410)。   Next, zoom processing and AF processing are executed (step S405), and a through image of the subject image is displayed on the display unit 181 (step S406). Next, it is determined whether or not a shooting instruction has been issued by pressing the release button (step S407). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed. (Step S408). When the release button is pressed and there is a shooting instruction, photometry processing and WB processing are performed (step S409), and exposure is performed according to the photometry value obtained thereby and the shooting conditions set in step S404. Conditions are set (step S410).

さらに、前記選択された印刷用紙又は画像サイズと、前記ステップS410で得られた露出時間に応じて、許容ブレ量、許容ブレ速度等を算出し(ステップS411)、かつ、当該デジタルカメラ1におけるブレ量若しくは像ブレ量を検出する(ステップS412)。次に、ステップS411で算出された許容ブレ量、許容ブレ速度等と、ステップS412で検出されたブレ量若しくは像ブレ量に基づき、
(1)設定露出時間における像ブレ量>所定の像ブレ量(ステップS413)
(2)像移動速度>所定の移動速度(ステップS414)
(3)ブレ量(角度)>所定のブレ量(ステップS415)
(4)ブレ角速度>所定のブレ角度(ステップS416)
であるか否かを判断する。
Further, an allowable blur amount, an allowable blur speed, etc. are calculated according to the selected printing paper or image size and the exposure time obtained in step S410 (step S411), and the blurring in the digital camera 1 is calculated. The amount or image blur amount is detected (step S412). Next, based on the allowable blur amount, allowable blur speed, etc. calculated in step S411 and the blur amount or image blur amount detected in step S412,
(1) Image blur amount at set exposure time> predetermined image blur amount (step S413)
(2) Image moving speed> predetermined moving speed (step S414)
(3) Blur amount (angle)> predetermined blur amount (step S415)
(4) Blur angular velocity> predetermined blur angle (step S416)
It is determined whether or not.

そして、これら(1)〜(4)判断がすべてNOであった場合には、つまり設定露出時間における像ブレ量、像移動速度、ブレ量(角度)、ブレ角速度が全て許容値以下である場合には、撮像素子157及びDSP部164に単写撮影モード(加算なし)を設定し(ステップS417)、設定撮影条件に応じて、単写撮影動作を実行する(ステップS418)。   If all of the determinations (1) to (4) are NO, that is, the image blur amount, the image moving speed, the blur amount (angle), and the blur angular velocity are all within the allowable values during the set exposure time. In this case, a single shooting mode (no addition) is set in the image sensor 157 and the DSP unit 164 (step S417), and a single shooting operation is executed according to the set shooting conditions (step S418).

一方、(1)〜(4)判断のいずれかがYESであった場合には、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定する(ステップS419)。そして、前述と同様に、測光値と設定撮影条件に応じて、加算画像数と露出時間を再設定して(ステップS420)、連写撮影動作、及び連写画像のマルチプレーン加算合成処理を実行する(ステップS421)。   On the other hand, if any of the determinations (1) to (4) is YES, the image sensor 157 and the DSP unit 164 are set to the continuous shooting and multi-plane addition mode (step S419). Then, in the same manner as described above, the number of added images and the exposure time are reset according to the photometric value and the set shooting conditions (step S420), and the continuous shooting operation and the multi-plane addition synthesis processing of the continuous shooting images are executed. (Step S421).

したがって、本実施の形態によれば、ユーザー所望の印刷用紙サイズ(寸法)又は記録画像サイズ(画素数)に応じて、許容像ブレ量や許容ブレ量などを設定して、それに応じて、連写画像マルチプレーン加算による「ブレ軽減速写合成モード」への切替条件を自動的に可変設定するので、鑑賞時のサイズに合わせてブレの目立たない必要+分なブレ軽減撮影が行えるので、画質劣化なども最小限に抑えることができる。   Therefore, according to the present embodiment, an allowable image blur amount, an allowable blur amount, and the like are set in accordance with a user-desired print paper size (dimension) or recorded image size (number of pixels), and the continuous image blur is accordingly performed. Since the switching condition to the “blur reduction rapid shooting composition mode” by adding the image multiplane is automatically variably set, the image quality deteriorates because it is possible to perform blur-reducing shooting that requires less blur and matches the size at the time of viewing. Etc. can be minimized.

なお、本実施の形態においては、ステップS411において、選択された印刷用紙又は画像サイズと露出時間に応じて、許容ブレ量、許容ブレ速度等の許容値を算出するようにしたが、印刷用紙や画像サイズに応じて、一定の許容値を自動的に設定するようにしてもよい。   In this embodiment, in step S411, allowable values such as an allowable blur amount and an allowable blur speed are calculated according to the selected print paper or image size and exposure time. A certain allowable value may be automatically set according to the image size.

また、前述した第1の実施の形態おける切替の所定条件の一つである、
c)検出されたブレ量又は像ブレ量が、所定のブレ量又は像ブレ量より大きい場合、d)設定露出時間における像移動量もしくは像移動速度が所定の像移動量もしくは像移動速度より大きい場合、
などにおける判断基準となる所定の条件を、選択や設定されている所望の印刷用紙サイズや画像サイズに相当する印刷用紙サイズに応じて自動的に算出して設定し、検出されたブレ量又は像ブレ量が、設定された条件と比較して大きいか否かを判断し、連写画像のマルチプレーン加算によるブレ軽減撮影動作に切り替えるように制御してもよい。印刷用紙の種別もしくは印刷用紙サイズ(寸法)を選択すると、プリンタ装置の印刷解像度(dpi)やモニター装置の表示解像度などに応じて、必要な解像度が得られる画像サイズ(横×縦の画素数)は算出して決定できる。
Further, it is one of the predetermined switching conditions in the first embodiment described above.
c) When the detected blur amount or image blur amount is larger than the predetermined blur amount or image blur amount, d) The image movement amount or image movement speed in the set exposure time is larger than the predetermined image movement amount or image movement speed. If
The predetermined blurring condition or image that is automatically calculated and set according to the print paper size that corresponds to the desired print paper size or image size that has been selected or set is used as a judgment criterion in the It may be determined whether or not the blur amount is larger than the set condition, and control is performed so as to switch to a blur reduction photographing operation by multi-plane addition of continuous shot images. When the type of printing paper or the printing paper size (dimension) is selected, the image size (horizontal x vertical number of pixels) that provides the required resolution according to the printing resolution (dpi) of the printer device, the display resolution of the monitor device, etc. Can be calculated and determined.

逆に、画像サイズを選択すると、200dpiや300dpi等、印刷装置の印刷解像度(dpi)に応じて、+分な解像度となる印刷用紙サイズの限度を決定できる。例えば、用紙サイズから必要+分な画像サイズを算出するには、フチ無し印刷の場合には、
式(5) 必要な画像サイズ(横又は縦の画素数)=用紙寸法(横又は縦)(mm)×印刷解像度(dpi)÷25.4(mm/inch)、
などで求めることができる。逆も逆算より求められる。また、許容できる像ブレ量などは、例えば、許容ボケ(許容錯乱円径)の大きさを基準に算出することができる。
On the contrary, when the image size is selected, the limit of the print paper size that can be a resolution of + minute can be determined according to the printing resolution (dpi) of the printing apparatus, such as 200 dpi or 300 dpi. For example, to calculate the required + minute image size from the paper size,
Formula (5) Necessary image size (number of horizontal or vertical pixels) = paper size (horizontal or vertical) (mm) × printing resolution (dpi) /25.4 (mm / inch),
Etc. The reverse is also obtained from the reverse calculation. Further, the allowable image blur amount can be calculated based on, for example, the size of allowable blur (allowable circle of confusion).

一般に、人間の肉眼で細かなものを見分けられる能力は、角度にして1分(1’)程度とされるが、写真など連続して調子が変化している対象では、少しゆる目の角度2〜3分(2’〜3’)程度とされ、これより小さいものはボケていることが分からず、シャープに見えると言われる。これを基準に考えると、
1)肉眼の明視距離約25cm離れた距離から写真や印画紙を観察するとき、0.15〜0.22mm×(250mm×tan(2’)〜250mm×tan(3’))程度のボケまでは人間の眼にはボケていると気付かないことになる。
2)一方、写真はその大きさに応じて、用紙の寸法(例えば、対角寸法)に相当する距離から眺めるのが自然だという考え方もある。これを基準に、対角が27cmと明視距離(25cm)に近い八つ切り判の印画紙では約0.2mmのボケまでは許され、35mm判から八つ切り判への引き伸ばし倍率は6倍だから、0.2÷6=0.033mmが、一般的な35mm判(36×24mm)フィルムの「許容ボケ」(許容錯乱円径、Pemlissible Circle of Confusion)として採用されている。この方法では、逆に、用紙サイズや引き伸ばし倍率に関わらず、撮像素子のイメージサイズに相応して、所定の角度(2’〜3’)以内の許容錯乱円径であればよく、換算には便利であるが、印刷用紙が大きい場合ほど、荒いピントやボケ、ブレでも許されることになる。上記いずれの考え方にせよ、選択された印刷用紙の大きさと、撮像素子の撮像イメージサイズ(1/2型:対角8mm、1/3型:対角6mm、など)に応じて、許容ボケ(許容錯乱円径)δを自動的に算出して、それにあわせて、許容ブレや、許容できる像ブレ量、許容できるブレ角速度(又は、被写体移動の角速度)の目安などを設定することができる。すなわち、
1)印刷用紙によらず用紙サイズ(対角)相当の距離だけ離れて観察するときの許容ボケが所定値(例えば、35mm判の0.033mmに相当する角度=約0°02’40”)以下になるように設定する場合には、
式(6) 撮像面上の許容錯乱円径削:mm]={撮像サイズ(Y)/印刷用紙サイズ(S)}×印刷用紙サイズS[mm]xtan(2’40”)、=撮像サイズ(Y)[対角、mm]xtan(2’40”)、として算出して、許容ブレを設定できる。
2)また、どの用紙サイズの場合も、一定の明視距離(約25cm)から観察する場合には、
式(7)撮像面上の許容錯乱円径δ[mm]={撮像サイズ(Y)/印刷用紙サイズ(S)}×明視距離(250mm)xtan(2’40”)、として算出し、これを基準に許容ブレを設定できる。
3)あるいは、許容錯乱円径δ[mm]をユーザー所望の任意の値に設定してもよい。
In general, the ability to distinguish small objects with the human naked eye is about 1 minute (1 ') in angle, but for subjects that change continuously, such as photographs, the angle 2 is slightly loose. It is said that it is about ˜3 minutes (2 ′ to 3 ′), and smaller ones are not known to be blurred and are said to look sharp. Based on this,
1) When observing a photograph or photographic paper from a distance that is about 25 cm away from the naked eye, a blur of about 0.15 to 0.22 mm × (250 mm × tan (2 ′) to 250 mm × tan (3 ′)) Until then, you will not notice that it is blurred to the human eye.
2) On the other hand, there is a concept that it is natural to view a photograph from a distance corresponding to the size of the paper (for example, a diagonal size) according to the size. On the basis of this, up to about 0.2mm blur is allowed for octupe printing paper with a diagonal of 27cm, which is close to the clear viewing distance (25cm), and the enlargement ratio from 35mm to eight is 6 Therefore, 0.2 ÷ 6 = 0.033 mm is adopted as “allowable blur” (permissible circle of confusion, Pemmissible Circle of Confusion) of a general 35 mm film (36 × 24 mm) film. On the contrary, in this method, the permissible circle of confusion within a predetermined angle (2 ′ to 3 ′) may be used according to the image size of the image sensor regardless of the paper size and the enlargement ratio. Although it is convenient, the larger the printing paper, the better the rough focus, blur, and blur. Regardless of which way of thinking is described above, allowable blurring (depending on the size of the selected printing paper and the image size of the image sensor (1/2 type: diagonal 8 mm, 1/3 type: diagonal 6 mm, etc.) The permissible circle of confusion (δ) can be automatically calculated, and an acceptable blur, an acceptable image blur amount, an acceptable blur angular velocity (or an angular velocity for moving the subject), and the like can be set accordingly. That is,
1) Allowable blur when observing a distance corresponding to the paper size (diagonal) regardless of the printing paper is a predetermined value (for example, an angle corresponding to 0.033 mm in a 35 mm size = about 0 ° 02′40 ″) When setting to be as follows,
Expression (6) Allowable confusion circle on the imaging surface: mm] = {imaging size (Y) / printing paper size (S)} × printing paper size S [mm] xtan (2′40 ″), = imaging size (Y) [Diagonal, mm] xtan (2′40 ″), and the allowable blur can be set.
2) For any paper size, when observing from a certain clear viewing distance (about 25 cm),
Equation (7) Allowable confusion circle diameter δ [mm] on the imaging surface = {imaging size (Y) / printing paper size (S)} × clear vision distance (250 mm) × tan (2′40 ″) Allowable blur can be set based on this.
3) Alternatively, the allowable confusion circle diameter δ [mm] may be set to an arbitrary value desired by the user.

また、許容できる像ブレ量(δB)は上記の許容錯乱円径(δ)に略等しいとすると、許容できる像移動速度(VB)、許容ブレ量(θS)、及び、露出時間(T)における許容ブレ角速度(ωS)は、上記で算出された撮像面上の許容ボケ(δ)[mm]と、撮影レンズの焦点距離(O[mm]、設定露出時間(T)[秒]とから、
式(8) 許容像ブレ量δB≒δ、又は、
許容像移動速度VB=δB/T≒δ/T、
許容ブレ量(又は被写体の見かけ上の移動角度)θS=2×tan−1(δB/2f)、
許容ブレ角速度(又は被写体の見かけ上の移動角速度)ωS=θS/T、
などと算出して、設定することができる。
If the allowable image blur amount (δB) is approximately equal to the allowable circle of confusion (δ), the allowable image moving speed (VB), the allowable blur amount (θS), and the exposure time (T) The allowable blur angular velocity (ωS) is calculated from the allowable blur (δ) [mm] on the imaging surface calculated above, the focal length of the photographing lens (O [mm], and the set exposure time (T) [second].
Expression (8) Allowable image blur amount δB≈δ, or
Allowable image moving speed VB = δB / T≈δ / T,
Allowable blurring amount (or apparent movement angle of the subject) θS = 2 × tan −1 (δB / 2f),
Allowable blur angular velocity (or apparent moving angular velocity of the subject) ωS = θS / T,
Etc. and can be set.

あるいは、マクロ撮影などで、被写体距離Lが分かる場合には、
式(9) 被写体範囲X=撮像サイズYXL/ fとなるので、
式(10)被写体ブレ(又はカメラブレの許容変位)XB=許容像ブレ量δB×L/f 、又は、
許容できる被写体の移動速度VB=XB/T≒δBXL/(fxT)、
等として算出できる。これらを本例の印刷用紙に応じた所定のブレ量もしくは像ブレ量として、もしくは、前述の第1実施例のc)又はd)の所定のブレ量もしくは像ブレ量の条件として設定して、連写画像のマルチプレーン加算による「ブレ軽減速写合成モード」への切替条件の判断を行えばよい。
Alternatively, when the subject distance L is known by macro photography or the like,
Equation (9) Since subject range X = imaging size YXL / f,
Expression (10) Subject blur (or camera shake allowable displacement) XB = allowable image blur amount δB × L / f, or
Allowable subject movement speed VB = XB / T≈δBXL / (fxT),
Etc. These are set as a predetermined blur amount or image blur amount according to the printing paper of this example, or as a predetermined blur amount or image blur amount condition of c) or d) of the first embodiment, It is only necessary to determine the switching condition to the “blur reduction rapid shooting composition mode” by multi-plane addition of continuous shot images.

(第5の実施の形態)   (Fifth embodiment)

図14及び図15は、本発明の第5の実施の形態における動作及び処理の手順を示すフローチャートである。本実施の形態は、ユーザー操作に応じて、手ブレ補正装置による手ブレ補正処理を行う「手ブレ補正モード」と、連写画像のマルチプレーン加算+位置合せ合成によるブレ軽減処理を行う「ブレ軽減速写合成モード」と、「オート撮影モード」とを選択して切替えられるようにするとともに、「オート撮影モード」においては、前記a)〜c)のような手ブレが大きいと判断される第1条件の場合には、「手振れ補正モード」に切り替え、d)〜f)のような被写体ブレが大きいと判断される第2条件の場合には、「ブレ軽減速写合成モード」に自動的に切り替え、その他の場合には、ブレ補正もブレ軽減撮影も行わないよう制御するものである。   FIG. 14 and FIG. 15 are flowcharts showing the procedure of the operation and processing in the fifth embodiment of the present invention. In the present embodiment, a “camera shake correction mode” in which a camera shake correction process is performed by a camera shake correction device and a blur reduction process in which multi-plane addition and alignment synthesis of continuous shot images are performed in accordance with a user operation. The “reduced speed shooting combination mode” and the “auto shooting mode” can be selected and switched, and in the “auto shooting mode”, it is determined that the camera shake as in the above a) to c) is large. In the case of the first condition, the mode is switched to the “camera shake correction mode”, and in the second condition in which the subject blur is determined to be large as in d) to f), the “blur reduction speed shooting composition mode” is automatically set. In other cases, control is performed so that neither blur correction nor blur reduction shooting is performed.

フローチャートに示すように、ユーザーによる操作入力部122での操作に応じて撮影モードを選択し(ステップS501)、シャッタ速度等の撮影条件を設定するとともに、ユーザーによる操作入力部122での操作に応じて、用紙サイズ又は画像サイズを選択する(ステップS502)。次に、ズーム処理、AF処理を実行し(ステップS503)、被写体像のスルー画像を表示部181に表示させる(ステップS504)。次いで、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS505)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS506)。   As shown in the flowchart, the shooting mode is selected in accordance with the operation of the operation input unit 122 by the user (step S501), the shooting conditions such as the shutter speed are set, and the operation of the operation input unit 122 is performed by the user. Then, the paper size or the image size is selected (step S502). Next, zoom processing and AF processing are executed (step S503), and a through image of the subject image is displayed on the display unit 181 (step S504). Next, it is determined whether or not a shooting instruction has been made by pressing the release button (step S505). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed. (Step S506).

レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS507)、これにより得られた測光値と前記ステップS504で設定された撮影条件とに応じて、露出条件を設定する(ステップS508)。次に、撮像素子157から出力される連続撮像信号から被写体の移動量を算出して(ステップS509)、ブレ量を検出し、順次記録する(ステップS510)。また、手ブレ補正撮影モードが設定されているか否かを判断し(ステップS511)、設定されている場合には、ブレ補正撮影を行うべくステップS512に進む。   When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S507), and the exposure condition is set according to the photometric value obtained thereby and the shooting condition set in step S504. Setting is performed (step S508). Next, the movement amount of the subject is calculated from the continuous imaging signal output from the image sensor 157 (step S509), the blur amount is detected, and sequentially recorded (step S510). Further, it is determined whether or not the camera shake correction shooting mode is set (step S511), and if it is set, the process proceeds to step S512 to perform the camera shake correction shooting.

このブレ撮影においては、撮像素子157及びDSP部164を単写撮影モードに設定し(ステップS512)、ブレ量を検出して順次記録する(ステップS513)。そして、この検出ブレ量に応じて、ブレ補正装置(ブレ補正駆動部134)を駆動して、光学的なブレ補正処理を実行するとともに(ステップS514)、設定撮影条件に応じて、露出及び撮影動作を行う(ステップS515)。次に、露出時間が終了したか否かを判断し(ステップS516)、経過するまでステップS513からの処理を繰り返す。   In this blur shooting, the image sensor 157 and the DSP unit 164 are set to the single shooting mode (step S512), and the blur amount is detected and sequentially recorded (step S513). Then, according to the detected blur amount, the blur correction device (blur correction driving unit 134) is driven to execute an optical blur correction process (step S514), and exposure and shooting are performed according to the set shooting conditions. An operation is performed (step S515). Next, it is determined whether or not the exposure time has ended (step S516), and the processing from step S513 is repeated until the exposure time has elapsed.

露出時間が終了したならば、露出及び撮影動作を停止し(ステップS517)、前記露出、撮影動作により得られた撮影画像データを読み出して(ステップS518)、これを圧縮、符号化する(ステップS519)。また、この圧縮、符号化した撮影画像データを前記メモリ媒体に記録するとともに(ステップS520)、表示装置6に撮影画像データに基づく撮影画像をレビュー表示させる(ステップS521)。   When the exposure time is over, the exposure and photographing operation are stopped (step S517), and the photographed image data obtained by the exposure and photographing operation is read (step S518), and this is compressed and encoded (step S519). ). Further, the compressed and encoded photographed image data is recorded in the memory medium (step S520), and the photographed image based on the photographed image data is displayed on the display device 6 for review (step S521).

一方、前記ステップS511の判断がNOであって、手ブレ補正撮影モードが設定されていない場合には、図15のステップS522に進んで、ブレ軽減撮影モードが設定されているか否かを判断する(ステップS522)。ブレ軽減撮影モード設定されている場合には、連写撮像の加算+位置合わせによるブレ軽減撮影を行うべくステップS523に進む。   On the other hand, if the determination in step S511 is NO and the camera shake correction shooting mode is not set, the process proceeds to step S522 in FIG. 15 to determine whether or not the shake reduction shooting mode is set. (Step S522). If the blur reduction shooting mode is set, the flow advances to step S523 to perform blur reduction shooting by adding continuous shooting and positioning.

この連写撮像の加算+位置合わせによるブレ軽減撮影においては、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定し(ステップS523)、前述と同様に、測光値と設定撮影条件に応じて、露出時間Tが短くなるように、加算画像数(n)と露出時間(T/n)を再設定する(ステップS524)。次に、撮影条件に応じて露出/撮影動作を開始し(ステップS525)、露出時間(T/n)が終了したか否かを判断する(ステップS526)。露出時間(T/n)が終了したならば、これにより得られた画像データを読み出し(ステップS527)、撮影された画像を、前の画像と位置合わせする位置合わせ処理を実行する(ステップS528)。次に、撮影された画像を前の画像と順次マルチプレーン加算合成するとともに(ステップS529)、補間処理、ノイズ除去処理を実行する(ステップS530)。また、加算画像数分連写済みか否かを判断し(ステップS531)、加算画像数分連写済みとなるまで、ステップS525からの処理を繰り返す。   In blur reduction shooting by adding and aligning continuous shooting, the image sensor 157 and the DSP unit 164 are set to the continuous shooting and multi-plane addition mode (step S523), and the photometry value and setting shooting are performed as described above. Depending on the conditions, the number of added images (n) and the exposure time (T / n) are reset so that the exposure time T is shortened (step S524). Next, the exposure / shooting operation is started according to the shooting conditions (step S525), and it is determined whether or not the exposure time (T / n) has ended (step S526). When the exposure time (T / n) is completed, the image data obtained thereby is read (step S527), and an alignment process for aligning the photographed image with the previous image is executed (step S528). . Next, the captured image and multi-plane addition are sequentially combined with the previous image (step S529), and interpolation processing and noise removal processing are executed (step S530). Further, it is determined whether or not continuous shooting has been completed for the number of added images (step S531), and the processing from step S525 is repeated until continuous shooting has been completed for the number of additional images.

したがって、ステップS525〜S531の処理がT/nの周期でn回繰り返されることとなり、これにより、連写されたn枚の画像が順次マルチプレーン加算合成されて、補間処理及びノイズ除去処理された1枚分の撮影画像データが生成されることとなる。しかる後に、前述した図14におけるステップS519以降の処理を実行する。   Therefore, the processing in steps S525 to S531 is repeated n times at a cycle of T / n, and thus, the continuously shot n images are sequentially subjected to multiplane addition synthesis, interpolation processing and noise removal processing. One captured image data is generated. Thereafter, the processing after step S519 in FIG. 14 described above is executed.

他方、ステップS522の判断がNOであって、ブレ軽減撮影モードが設定されていない場合には、ステップS522からステップS532に進み、オート撮影モードが設定されているか否かを判断する。オート撮影モードが設定されていない場合には、その他のモード処理に移行する(ステップS533)。オート撮影モードが設定されている場合には、以下の判断を行う。
(1)焦点距離が所定以上であるか否か(ステップS534)
(2)マクロ撮影であるか否か(ステップS535)
(3)検出回路142、144で検出されたブレ量が所定値を超えるか否か(ステップS536)
(4)像の移動量が所定を超えるか否か(ステップS537)
(5)測光値が所定値未満であるか否か(ステップS538)
(6)測光値が所定値未満である場合においてストロボ強制OFFとなっているか否か(ステップS539)
(7)設定露出時間(T)が所定時間(例えば、1/60s)を超えるか否か(ステップS540)。
On the other hand, if the determination in step S522 is NO and the blur reduction shooting mode is not set, the process advances from step S522 to step S532 to determine whether or not the auto shooting mode is set. If the auto shooting mode is not set, the process proceeds to other mode processing (step S533). When the auto shooting mode is set, the following determination is made.
(1) Whether the focal length is greater than or equal to a predetermined value (step S534)
(2) Whether macro shooting is performed (step S535)
(3) Whether the shake amount detected by the detection circuits 142 and 144 exceeds a predetermined value (step S536)
(4) Whether the moving amount of the image exceeds a predetermined value (step S537)
(5) Whether the photometric value is less than the predetermined value (step S538)
(6) Whether the flash is forcibly turned off when the photometric value is less than the predetermined value (step S539)
(7) Whether the set exposure time (T) exceeds a predetermined time (for example, 1/60 s) (step S540).

そして、これら(1)〜(7)判断のうち、(1)〜(3)のいずれか1つでもYESであった場合には、図14のステップS512に進んで、ブレ補正撮影処理に移行する。また、(1)〜(7)のうち、(4)〜(6)のいずれか1つでもYESであった場合には、ステップS523に進んで、連写撮像の加算+位置合わせによるブレ軽減撮影に移行する。さらに、(1)〜(7)判断の全てがNOであった場合には、撮像素子157及びDSP部164を単写撮影モード(加算なし)に設定する(ステップS541)。これと同時に、撮影条件に応じて露出/撮影動作を開始し(ステップS542)、シャッタ速度に応じた露出時間が終了したか否かを判断し(ステップS543)、露出時間が終了となった時点で露出/撮影動作を停止させる(ステップS544)。また、この単写により得られた画像データを読み出して(ステップS545)、図15の519に進む。   If any one of (1) to (7) among the determinations (1) to (7) is YES, the process proceeds to step S512 in FIG. To do. If any one of (4) to (6) among (1) to (7) is YES, the process proceeds to step S523 to reduce blurring by adding continuous shooting and positioning. Move to shooting. Furthermore, when all of the determinations (1) to (7) are NO, the image sensor 157 and the DSP unit 164 are set to the single shooting mode (no addition) (step S541). At the same time, the exposure / shooting operation is started according to the shooting conditions (step S542), it is determined whether or not the exposure time according to the shutter speed is ended (step S543), and the time when the exposure time is ended. In step S544, the exposure / photographing operation is stopped. Further, the image data obtained by the single shooting is read (step S545), and the process proceeds to 519 in FIG.

したがって、本実施の形態によれば、手ブレ補正をOFFしたまま忘れてON操作しなかった場合であっても、手振れや被写体ブレによる像ブレを白動的かつ効果的に軽減して撮影することができる。   Therefore, according to the present embodiment, even when the camera shake correction is turned off and the camera is forgotten to be turned on, the image blur due to the camera shake or the subject shake is vibrated and effectively reduced in the shooting. be able to.

(第6の実施の形態)   (Sixth embodiment)

図16及び図17は、本発明の第6の実施の形態における動作及び処理の手順を示すフローチャートである。レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS601)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS602)。レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS603)、これにより得られた測光値と設定撮影条件とに応じて、露出条件を設定する(ステップS604)。次に、撮像素子157から出力される連続撮像信号から被写体の移動量を算出して(ステップS605)、ブレ量を検出し、順次記録する(ステップS606)。次に、オート撮影モードが設定されているか否かを判断する(ステップS607)。オート撮影モードが設定されていない場合には、その他のモード処理に移行する(ステップS608)。   16 and 17 are flowcharts showing the procedure of the operation and processing in the sixth embodiment of the present invention. It is determined whether the release button has been pressed and a shooting instruction has been issued (step S601). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed (step S601). S602). When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S603), and exposure conditions are set according to the photometric value obtained thereby and the set shooting conditions (step S604). . Next, the movement amount of the subject is calculated from the continuous imaging signal output from the image sensor 157 (step S605), the blur amount is detected, and recorded sequentially (step S606). Next, it is determined whether or not the auto shooting mode is set (step S607). If the auto shooting mode is not set, the process proceeds to other mode processing (step S608).

オート撮影モードが設定されている場合には、
(1)焦点距離が所定以上であるか否か(ステップS609)
(2)マクロ撮影であるか否か(ステップS610)
(3)検出回路142、144で検出されたブレ量が所定値を超えるか否か(ステップS611)
(4)像の移動量が所定を超えるか否か(ステップS612)
(5)測光値が所定値未満であるか否か(ステップS613)
(6)測光値が所定値未満である場合においてストロボ強制OFFとなっているか否か(ステップS614)
(7)設定露出時間(T)が所定時間(例えば、1/60s)を超えるか否か(ステップS615)。
When auto shooting mode is set,
(1) Whether the focal length is greater than or equal to a predetermined value (step S609)
(2) Whether macro shooting is performed (step S610)
(3) Whether or not the shake amount detected by the detection circuits 142 and 144 exceeds a predetermined value (step S611)
(4) Whether the moving amount of the image exceeds a predetermined value (step S612)
(5) Whether the photometric value is less than a predetermined value (step S613)
(6) Whether the flash is forcibly turned off when the photometric value is less than the predetermined value (step S614)
(7) Whether the set exposure time (T) exceeds a predetermined time (for example, 1/60 s) (step S615).

そして、これら(1)〜(7)判断のうち、(1)〜(3)のいずれか1つでもYESであった場合には、後述するステップS616に進む。また、(1)〜(7)のうち、(4)〜(6)のいずれか1つでもYESであった場合には、連写撮像の加算+位置合わせによるブレ軽減撮影を行うべく、前述した図15のステップS523以降の処理を実行する。さらに、(1)〜(7)判断の全てがNOであった場合には、通常撮影を行うべく、図15のステップS541以降の処理を実行する。   If any one of (1) to (3) among these determinations (1) to (7) is YES, the process proceeds to step S616 described later. Also, if any one of (4) to (6) among (1) to (7) is YES, the above-mentioned is performed in order to perform blur reduction shooting by adding continuous shooting and positioning. The process after step S523 in FIG. 15 is executed. Further, when all of the determinations (1) to (7) are NO, the processing after step S541 in FIG. 15 is executed to perform normal shooting.

また、(1)〜(3)のいずれか1つでもYESであってステップS616に進んだ場合には、以下の判断を行う
(5)測光値が所定値未満であるか否か(ステップS616)
(6)測光値が所定値未満である場合においてストロボ強制OFFとなっているか否か(ステップS617)
(7)設定露出時間(T)が所定時間(例えば、1/60s)を超えるか否か(ステップS618)。
(4)像の移動量が所定を超えるか否か(ステップS619)。
If any one of (1) to (3) is YES and the process proceeds to step S616, the following determination is made (5) Whether the photometric value is less than a predetermined value (step S616). )
(6) Whether the flash is forcibly turned off when the photometric value is less than the predetermined value (step S617)
(7) Whether the set exposure time (T) exceeds a predetermined time (for example, 1/60 s) (step S618).
(4) Whether the moving amount of the image exceeds a predetermined value (step S619).

そして、これら(4)〜(7)判断が全てNOであった場合には、ブレ補正撮影を行うべく、前述した図14のステップS515以降の処理を実行する。また、いずれか1つでもYESであった場合には、図17のステップS620に進み、ブレ補正撮影+連写画像加算による増感撮影を実行する。   If all of these determinations (4) to (7) are NO, the processing after step S515 in FIG. 14 described above is executed in order to perform blur correction photographing. If any one of the determinations is YES, the process proceeds to step S620 in FIG. 17 and sensitization shooting by blur correction shooting + continuous shooting image addition is executed.

このブレ補正撮影+連写画像加算による増感撮影においては、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定し(ステップS620)、前述と同様に、測光値と設定撮影条件に応じて、露出時間Tが短くなるように、加算画像数(n)と露出時間(T/n)を再設定する(ステップS621)。次に、ブレ量を検出して順次記録する(ステップS622)。そして、この検出ブレ量に応じて、ブレ補正装置(ブレ補正駆動部134)を駆動して、光学的なブレ補正処理を実行するとともに(ステップS623)、設定撮影条件に応じて、露出及び撮影動作を行う(ステップS624)。次に、露出時間が終了したか否かを判断し(ステップS625)、経過するまでステップS623からの処理を繰り返す。露出時間(T/n)が終了したならば、これにより得られた画像データを読み出し(ステップS626)、撮影された画像を前の画像と順次マルチプレーン加算合成する(ステップS627)。また、加算画像数分連写済みか否かを判断し(ステップS628)、加算画像数分連写済みとなるまで、ステップS622からの処理を繰り返す。   In this intensification shooting by blur correction shooting + continuous shooting image addition, the image sensor 157 and the DSP unit 164 are set to the continuous shooting and multi-plane addition mode (step S620), and the photometry value and setting shooting are performed as described above. Depending on the conditions, the number of added images (n) and the exposure time (T / n) are reset so that the exposure time T is shortened (step S621). Next, the blur amount is detected and recorded sequentially (step S622). Then, according to the detected blur amount, the blur correction device (blur correction driving unit 134) is driven to perform an optical blur correction process (step S623), and exposure and shooting are performed according to the set shooting conditions. An operation is performed (step S624). Next, it is determined whether or not the exposure time has ended (step S625), and the processing from step S623 is repeated until the exposure time has elapsed. When the exposure time (T / n) is completed, the image data obtained thereby is read (step S626), and the captured image is sequentially added and synthesized with the previous image (step S627). Further, it is determined whether or not continuous shooting has been completed for the number of added images (step S628), and the processing from step S622 is repeated until continuous shooting has been completed for the number of additional images.

したがって、ステップS622〜S628の処理がT/nの周期でn回繰り返されることとなり、これにより、連写されたn枚の画像が順次マルチプレーン加算合成されて、1枚分の撮影画像データが生成されることとなる。しかる後に、このマルチプレーン加算合成された1枚分の撮影画像データを圧縮、符号化して(ステップS629)、この圧縮、符号化した撮影画像データを前記メモリ媒体に記録する(ステップS630)。   Accordingly, the processes in steps S622 to S628 are repeated n times at a cycle of T / n, whereby the continuously shot n images are sequentially multi-plane added and synthesized, and one shot of captured image data is obtained. Will be generated. After that, the captured image data for one sheet obtained by the multi-plane addition synthesis is compressed and encoded (step S629), and the compressed and encoded captured image data is recorded in the memory medium (step S630).

すなわち、本実施の形態においては、前述した第5の実施の形態において、さらに、前記a)〜c)のいずれかのような第1の所定条件を満たし、かつ、d)〜f)のいずれかのような第2の所定条件を満たす場合には、ブレ量が大きく、かつ、被写体ブレを生じやすく高感度撮影が必要と判断して、光学式手ブレ補正装置による手ブレ補正処理を行いながら、連写画像のマルチプレーン加算による高感度撮影処理(この場合は位置合せによるブレ補正処理はしなくともよい)を同時に行うように制御する。これにより、手ブレ量が大きい場合にも、手ブレ補正処理とマルチプレーン加算による高感度撮影とを同時に実行してブレを軽減できる。   That is, in this embodiment, in the fifth embodiment described above, the first predetermined condition as in any one of a) to c) is satisfied, and any of d) to f) is satisfied. When the second predetermined condition is satisfied, it is determined that the amount of blur is large and subject blurring is likely to occur and high-sensitivity shooting is necessary, and camera shake correction processing is performed by an optical camera shake correction device. However, control is performed so that high-sensitivity imaging processing by multi-plane addition of continuous shot images (in this case, it is not necessary to perform blur correction processing by alignment) is performed simultaneously. Thereby, even when the amount of camera shake is large, camera shake correction processing and high-sensitivity imaging using multiplane addition can be executed simultaneously to reduce camera shake.

(第7の実施の形態)   (Seventh embodiment)

図18及び図19は、本発明の第7の実施の形態における動作及び処理の手順を示す一連フローチャートである。ユーザによる操作入力部122での操作に応じて、撮影モードを選択するとともに撮影条件を設定する(ステップS701)。また、オート撮影モード、又はブレ軽減撮影モードが設定されたか否かを判断し(ステップS702)、いずれも設定されていない場合には、その他のモード処理に移行する(ステップS703)。オート撮影モード、又はブレ軽減撮影モードが設定されている場合には、ズーム処理、AF処理を実行し(ステップS704)、被写体像のスルー画像を表示部181に表示させる(ステップS705)。次いで、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS706)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS707)。   18 and 19 are a series of flowcharts showing the operation and processing procedures in the seventh embodiment of the present invention. A shooting mode is selected and shooting conditions are set according to the operation of the operation input unit 122 by the user (step S701). Further, it is determined whether or not the auto shooting mode or the blur reduction shooting mode is set (step S702). If neither is set, the process proceeds to other mode processing (step S703). If the auto shooting mode or the blur reduction shooting mode is set, zoom processing and AF processing are executed (step S704), and a through image of the subject image is displayed on the display unit 181 (step S705). Next, it is determined whether or not a shooting instruction has been made by pressing the release button (step S706). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed. (Step S707).

レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS708)、これにより得られた測光値と前記ステップS704で設定された撮影条件とに応じて、露出条件を設定する(ステップS709)。次に、この露出条件により設定された設定露出時間が所定値(例えば1/60s)以下であるか否かを判断し(ステップS710)、所定値以下である場合には、撮像素子157及びDSP部164を単写撮影モード(加算なし)に設定する(ステップS714)。しかる後に、単写撮影動作を行うべく、図15のステップS541以降の処理を実行する。   When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S708), and the exposure condition is set according to the photometric value obtained thereby and the shooting condition set in step S704. Setting is made (step S709). Next, it is determined whether or not the set exposure time set according to this exposure condition is equal to or less than a predetermined value (for example, 1/60 s) (step S710). The unit 164 is set to the single shooting mode (no addition) (step S714). Thereafter, the processing after step S541 in FIG. 15 is executed in order to perform the single shooting operation.

しかし、ステップS710での判断の結果、設定露出時間が所定値を超える場合には、撮影感度値Svを1段上げ、シャッタ速度値Tvも1段上げる(ステップS711)。また、この1段上げた撮影感度が所定感度以上(ノイズが荒くならない程度の感度)であるか否か(ステップS712)、及び1段上げたシャッタ速度値Tvによる設定露出時間が所定時間以下であるか否か(ステップS713)を判断する。そして、1段上げた設定露出時間が所定時間を超える場合には、ステップS711からの処理を繰り返し、設定露出時間が所定時間以下となった時点で前述したステップS714に進んで、単写撮影動作に移行する。しかし、設定露出時間(シャッタ速度値T)が所定時間以下となる前に、1段上げた撮影感度が所定感度以上となった場合には、単写撮影してもノイズが荒くなることから、単写撮影動作に移行することなくステップS712から図19のステップS715に進む。   However, if the result of determination in step S710 is that the set exposure time exceeds a predetermined value, the shooting sensitivity value Sv is increased by one step, and the shutter speed value Tv is also increased by one step (step S711). Further, whether or not the shooting sensitivity increased by one level is equal to or higher than a predetermined sensitivity (sensitivity that does not make the noise rough) (step S712), and the set exposure time by the shutter speed value Tv increased by one level is equal to or shorter than the predetermined time. It is determined whether or not there is (step S713). If the set exposure time increased by one step exceeds the predetermined time, the processing from step S711 is repeated, and when the set exposure time becomes equal to or shorter than the predetermined time, the process proceeds to step S714 described above to perform single shooting operation. Migrate to However, if the shooting sensitivity increased by one step before the set exposure time (shutter speed value T) becomes equal to or less than the predetermined time, the noise becomes rough even after single shooting. The process proceeds from step S712 to step S715 in FIG. 19 without shifting to the single shooting operation.

そして、前述のステップS711で上げた撮影感度値Sv及びシャッタ速度値Tvを元の値に戻す(ステップS715)。しかる後に、連写撮影によるマルチプレーン加算モードに設定し、加算画像数を1〜2段上げるとともに、シャッタ速度値Tvを1〜2段上げる(ステップS716)。また、この1〜2段上げた加算画像数が所定の加算画像数未満であるか否か(ステップS717)、及び1〜2段上げたシャッタ速度値Tvによる設定露出時間が所定時間(例えば1/60s)以下であるか否か(ステップS718)を判断する。そして、1〜2段上げた設定露出時間(シャッタ速度値Tv)が所定時間を超える場合には、ステップS716からの処理を繰り返し、設定露出時間(シャッタ速度値T)が所定時間以下となった時点で、連写画像加算による増感撮影を行うべく、ステップS720に進む。   Then, the photographing sensitivity value Sv and the shutter speed value Tv raised in the above-described step S711 are returned to the original values (step S715). Thereafter, the multi-plane addition mode by continuous shooting is set, the number of added images is increased by one or two steps, and the shutter speed value Tv is increased by one or two steps (step S716). Further, whether or not the number of added images raised by one or two steps is less than the predetermined number of added images (step S717), and the set exposure time based on the shutter speed value Tv raised by one or two steps is a predetermined time (for example, 1). / 60 s) or less (step S718). If the set exposure time (shutter speed value Tv) increased by one or two steps exceeds the predetermined time, the processing from step S716 is repeated, and the set exposure time (shutter speed value T) becomes equal to or less than the predetermined time. At that time, the process proceeds to step S720 in order to perform intensifying shooting by adding continuous shot images.

しかし、設定露出時間(シャッタ速度値Tv)が所定時間以下となる前に、1〜2段上げた加算画像数が所定の加算画像数以上となった場合には、加算画像数及びシャッタ速度値Tvを今回のステップS716の処理が行われた直前の状態に戻して(加算画像数を1〜2段下げ、シャッタ速度値Tvを1〜2段下げる)(ステップS719)、連写画像加算による増感撮影を行うべく、ステップS720に進む。そして、撮像素子157及びDSP部164を連写撮影かつマルチプレーン加算モードに設定し(ステップS720)、前述と同様に、測光値と設定撮影条件に応じて、露出時間Tが短くなるように、加算画像数(n)と露出時間(T/n)を再設定する(ステップS721)。次に、撮影条件に応じて露出/撮影動作を開始し(ステップS722)、露出時間(T/n)が終了したか否かを判断する(ステップS723)。露出時間(T/n)が終了したならば、これにより得られた画像データを読み出し(ステップS724)、撮影された画像を前の画像と順次マルチプレーン加算合成するとともに(ステップS725)。また、加算画像数分連写済みか否かを判断し(ステップS726)、加算画像数分連写済みとなるまで、ステップS723からの処理を繰り返す。   However, if the number of added images increased by one or two steps before the set exposure time (shutter speed value Tv) is equal to or shorter than the predetermined time, the number of added images and the shutter speed value are increased. Tv is returned to the state immediately before the processing in step S716 is performed (the number of added images is reduced by one or two steps, and the shutter speed value Tv is reduced by one or two steps) (step S719), and continuous shot image addition is performed. In order to perform sensitization shooting, the process proceeds to step S720. Then, the image sensor 157 and the DSP unit 164 are set to the continuous shooting and multi-plane addition mode (step S720), and the exposure time T is shortened according to the photometric value and the set shooting conditions, as described above. The number of added images (n) and the exposure time (T / n) are reset (step S721). Next, the exposure / photographing operation is started according to the photographing conditions (step S722), and it is determined whether or not the exposure time (T / n) has ended (step S723). When the exposure time (T / n) is completed, the image data obtained thereby is read (step S724), and the captured image is sequentially added and synthesized with the previous image (step S725). Further, it is determined whether or not continuous shooting has been completed for the number of added images (step S726), and the processing from step S723 is repeated until continuous shooting has been completed for the number of additional images.

したがって、ステップS722〜S726の処理がT/nの周期でn回繰り返されることとなり、これにより、連写されたn枚の画像が順次マルチプレーン加算合成された1枚分の撮影画像データが生成されることとなる。しかる後に、この撮影画像データを圧縮、符号化処理し(ステップS727)、この圧縮、符号化した撮影画像データを前記メモリ媒体に記録するとともに(ステップS728)、表示装置6に撮影画像データに基づく撮影画像をレビュー表示させる(ステップS729)。   Therefore, the processing of steps S722 to S726 is repeated n times at a cycle of T / n, thereby generating one shot image data in which n images continuously shot are sequentially multi-plane added and synthesized. Will be. Thereafter, the captured image data is compressed and encoded (step S727), the compressed and encoded captured image data is recorded in the memory medium (step S728), and the display device 6 is based on the captured image data. The photographed image is displayed as a review (step S729).

つまり、本実施の形態においては、ISO相当撮影感度が予め設定された所定値より低い感度に設定されている場合には、まずISO相当感度をノイズが荒くならない程度に予め設定された所定の感度まで1〜2段程度づつ上げていき、露出条件を再設定して、露出時間(シヤッタ速度秒)が所定の露出時間(1/60秒など)よりも短くなるように設定する。それでも、露出時間が所定時間より長い場合には、1回のレリーズ操作に応じて、連写画像のマルチプレーン加算合成処理(位置合せ処理はしなくともよい)を行う「高感度速写合成モード」に自動的に切り替えて撮影する。また、「高感度速写合成モード」の連写画像のマルチプレーン加算においても、露出時間が所定時間(1/60秒など)より短くなるまで、速写及び加算する画像数を1〜2段づつ徐々に上げて、露出時間(シヤッタ速度秒)を再設定する。したがって、ノイズが荒くならない範囲でISO相当感度の設定による増態と、それを補うように、マルチプレーン加算による増感効果とを組合せて、露出時間を短縮することにより、効率的にブレ軽減しながら高感度撮影を行うことができる。   That is, in the present embodiment, when the ISO equivalent photographing sensitivity is set to a sensitivity lower than a preset predetermined value, the ISO equivalent sensitivity is first set to a preset predetermined sensitivity so that noise does not become rough. The exposure condition is set again so that the exposure time (shutter speed seconds) is shorter than a predetermined exposure time (such as 1/60 seconds). Still, when the exposure time is longer than the predetermined time, the “high-sensitivity rapid-shooting synthesis mode” that performs multi-plane addition synthesis processing (registration processing is not required) of continuous shot images in response to a single release operation. Switch to automatically and shoot. In addition, in multi-plane addition of continuous shot images in the “high-sensitivity rapid shooting composition mode”, the number of images to be shot and added is gradually increased by one or two steps until the exposure time becomes shorter than a predetermined time (such as 1/60 seconds). To reset the exposure time (shutter speed seconds). Therefore, by reducing the exposure time by combining the enhancement by setting the ISO equivalent sensitivity within the range where noise does not become rough and the sensitization effect by multi-plane addition to compensate for it, blurring is effectively reduced. High-sensitivity shooting can be performed.

(第8の実施の形態)   (Eighth embodiment)

図20は、本発明の第8の実施の形態における動作及び処理の手順を示す一連フローチャートである。ユーザーによる操作入力部122での操作に応じて撮影モードを選択し(ステップS801)、シャッタ速度、感度等の撮影条件を設定する(ステップS802)。次に、ズーム処理、AF処理を実行し(ステップS803)、被写体像のスルー画像を表示部181に表示させる(ステップS804)。次いで、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS805)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS806)。   FIG. 20 is a series of flowcharts showing operation and processing procedures in the eighth embodiment of the present invention. A shooting mode is selected according to the operation of the operation input unit 122 by the user (step S801), and shooting conditions such as shutter speed and sensitivity are set (step S802). Next, zoom processing and AF processing are executed (step S803), and a through image of the subject image is displayed on the display unit 181 (step S804). Next, it is determined whether or not a shooting instruction has been made by pressing the release button (step S805). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed. (Step S806).

レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS807)、これにより得られた測光値と前記ステップS804で設定された撮影条件とに応じて、露出条件を設定する(ステップS808)。次に、撮像素子157から出力される連続撮像信号から被写体の移動量を算出して(ステップS809)、ブレ量を検出し、順次記録する(ステップS810)。また、高感度撮影モードが設定されているか否かを判断し(ステップS811)、設定されている場合には、測光値と設定撮影条件に応じて、所定の撮影感度及び露出条件に再設定して(ステップS815)、ステップS816に進む。   When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S807), and the exposure condition is set according to the photometric value obtained thereby and the shooting condition set in step S804. Set (step S808). Next, the movement amount of the subject is calculated from the continuous imaging signal output from the image sensor 157 (step S809), the blur amount is detected, and recorded sequentially (step S810). Further, it is determined whether or not the high-sensitivity shooting mode is set (step S811). If it is set, the predetermined shooting sensitivity and exposure conditions are reset according to the photometric value and the set shooting conditions. (Step S815), the process proceeds to step S816.

高感度撮影モードが設定されていない場合には、オート撮影モードが設定されているか否かを判断し(ステップS812)、オート撮影モードも設定されていない場合には、その他のモード処理に移行する(ステップS813)。また、オート撮影モードが設定されている場合には、前記ステップS802で設定された感度が所定感度以上であるか否かを判断する(ステップS814)。所定感度以上である場合にはその他のモード処理に移行し(ステップS813)、所定感度未満である場合にはステップS816に進む。   If the high-sensitivity shooting mode is not set, it is determined whether or not the auto shooting mode is set (step S812). If the auto shooting mode is not set, the process proceeds to other mode processing. (Step S813). If the auto shooting mode is set, it is determined whether or not the sensitivity set in step S802 is equal to or higher than a predetermined sensitivity (step S814). If the sensitivity is equal to or higher than the predetermined sensitivity, the process proceeds to other mode processing (step S813). If the sensitivity is lower than the predetermined sensitivity, the process proceeds to step S816.

そして、ステップS816〜ステップS824においては、以下の判断を行う。
(1)焦点距離が所定以上であるか否か(ステップS816)
(2)マクロ撮影であるか否か(ステップS817)
(3)ステップS810で検出されたブレ量が所定値を超えるか否か(ステップS818)
(4)ステップS810で順次記録した像の移動量が所定を超えるか否か(ステップS819)
(5)選択されたシーン別撮影プログラムにおける撮影シーン(あるいは認識した被写体)が子供、ペット、スポーツなどをであるか否か(ステップS820)
(6)測光値が所定値未満であるか否か(ステップS821)
(7)測光値が所定値未満である場合においてストロボ強制OFFとなっているか否か(ステップS822)
(8)設定露出時間(T)が所定時間(例えば、1/60s)を超えるか否か(ステップS823)。
(9)前記ステップS807でのWB処理によるWB設定が白熱電球又は蛍光灯であるか否か(ステップS824)。
Then, in steps S816 to S824, the following determination is made.
(1) Whether the focal length is greater than or equal to a predetermined value (step S816)
(2) Whether or not macro shooting is performed (step S817)
(3) Whether the shake amount detected in step S810 exceeds a predetermined value (step S818)
(4) Whether the moving amount of the images sequentially recorded in step S810 exceeds a predetermined value (step S819)
(5) Whether the shooting scene (or the recognized subject) in the selected scene-specific shooting program is a child, a pet, a sport, or the like (step S820)
(6) Whether the photometric value is less than a predetermined value (step S821)
(7) Whether the flash is forcibly turned off when the photometric value is less than the predetermined value (step S822)
(8) Whether the set exposure time (T) exceeds a predetermined time (for example, 1/60 s) (step S823).
(9) Whether or not the WB setting by the WB process in step S807 is an incandescent bulb or a fluorescent lamp (step S824).

これらの(1)〜(9)判断において、(1)〜(3)判断のいずれか一つでもYESであった場合には、高感度撮影+ブレ補正撮影を行うべく、図14の512以降の処理を実行する。(1)〜(3)判断が全てNOであって、(4)(5)のいずれかがYESであった場合には、高感度撮影+連写画像加算+位置合わせによるブレ軽減撮影を行うべく、図15のステップS523以降の処理を実行する。(1)〜(5)判断が全てNOであって、(7)〜(9)判断のいずれか一つでもYESであった場合には、高感度撮影+連写画像加算+連写画像加算による増感撮影を行うべく、図19のステップS721以降の処理を実行する。   In any of these determinations (1) to (9), if any one of the determinations (1) to (3) is YES, 512 or later in FIG. 14 is performed in order to perform high-sensitivity shooting + blur correction shooting. Execute the process. (1) to (3) If all the determinations are NO and any of (4) and (5) is YES, high-sensitivity shooting + continuous shooting image addition + blur reduction shooting is performed. Therefore, the process after step S523 of FIG. 15 is performed. (1) to (5) If all the determinations are NO and any one of the determinations (7) to (9) is YES, high-sensitivity shooting + continuous shooting image addition + continuous shooting image addition In order to perform the sensitization shooting according to, the processing after step S721 in FIG. 19 is executed.

本実施の形態においては、(1)〜(5)判断が全てNOであって、(7)〜(9)判断のいずれか一つでもYESであった場合には、高感度撮影+連写画像加算+連写画像加算による増感撮影を行うべく、図19のステップS721以降の処理を実行するようにしたが、高感度撮影+ブレ補正撮影を行うべく、図14の512以降の処理を実行するようにしてもよい。また、(1)〜(9)判断が全てNOであった場合には、高感度撮影+通常単写撮影を行うべく、図15のステップS514以降の処理を実行する。   In the present embodiment, when all the determinations (1) to (5) are NO and any one of the determinations (7) to (9) is YES, high-sensitivity shooting + continuous shooting is performed. The processing after step S721 in FIG. 19 is executed in order to perform intensifying shooting by image addition + continuous shooting image addition, but the processing in 512 and after in FIG. 14 is executed in order to perform high-sensitivity shooting + blur correction shooting. You may make it perform. Further, when all the determinations (1) to (9) are NO, the processing after step S514 in FIG. 15 is executed to perform high-sensitivity shooting + normal single shooting.

つまり本実施の形態においては、「高感度撮影モード」、又は、ISO感度が所定値より高感度に設定されている場合に、前記a)〜c)のいずれかのような第1の所定条件の場合には、手ブレが大きくなると判断して、高感度撮影とともに、手ブレ補正装置による「手ブレ補正モード」を同時に行う。また、前記d)のような第2の所定条件の場合、もしくは、撮影シーンが「子供」や「ペット」、「スポーツ」などの場合には、被写体ブレが大きくなると判断して、ISO相当感度アップによる高感度撮影とともに、連写画像のマルチプレーン加算+位置合せ合成による「ブレ軽減速写合成モード」に自動的に切替える。また、前記e)、f)、g)のいずれかのような第3の所定条件の場合には、暗い被写体で長い露出時間を要すると判断して、ISO相当感度アップによる高感度撮影とともに、連写画像のマルチプレーン加算合成による増感処理(位置合せ処理はしなくともよい)を行う「高感度速写合成モード」に自働的に切替えて、撮影を行うよう制御する。したがて、本実施の形態によれば、高感度撮影では手振れしにくくなるが、それでも手振れや像ブレが特に大きい場合は、ISO感度アップによる増感とマルチプレーン加算による増感処理やブレ軽減処理、又は、ブレ補正装置による手ブレ補正処理とを組合せて、より効果的にブレを軽減できる。   In other words, in the present embodiment, when the “high-sensitivity shooting mode” or the ISO sensitivity is set higher than a predetermined value, the first predetermined condition as in any one of the above-mentioned a) to c). In this case, it is determined that the camera shake becomes large, and the “camera shake correction mode” by the camera shake correction apparatus is simultaneously performed with high sensitivity shooting. In the case of the second predetermined condition as in d) above, or when the shooting scene is “children”, “pets”, “sports”, etc., it is determined that subject blurring is increased, and ISO equivalent sensitivity is determined. Along with high-sensitivity shooting, the camera automatically switches to the “blur reduction mode” that uses multi-plane addition and alignment for continuous shots. Further, in the case of the third predetermined condition as in any one of e), f), and g), it is determined that a long exposure time is required for a dark subject, and along with high-sensitivity shooting by increasing ISO equivalent sensitivity, Control is performed to automatically switch to the “high-sensitivity rapid-shooting synthesis mode” in which sensitization processing by multi-plane addition synthesis of continuous-shot images (positioning processing is not necessary) is performed. Therefore, according to the present embodiment, camera shake is difficult in high-sensitivity shooting, but when camera shake and image blur are particularly large, sensitization by increasing ISO sensitivity, sensitization processing by multi-plane addition and blur reduction are performed. The blurring can be reduced more effectively by combining the processing or the camera shake correction processing by the shake correction device.

(マルチプレーン加算における相関計算(位置合わせ方法))の切り替え)
図21は、所定の撮影条件に応じて、上述のマルチプレーン加算処理における位置合せ方法を、A)主要被写体の領域画像を基準に位置合せして合成するか、B)(主要被写体を除く)背景領域の画像を基準に位置合せして合成するか、のいずれかに切替えて撮影動作を行うように制御する例を示す。
(Switching of correlation calculation (positioning method) in multiplane addition))
FIG. 21 shows whether the alignment method in the above-described multi-plane addition processing is combined based on the region image of the main subject according to a predetermined shooting condition, or B) (excluding the main subject). An example is shown in which control is performed so that a photographing operation is performed by switching to one of the background region images and combining them based on the reference.

本例では、マルチプレーン加算+位置合せ合成による高感度&ブレ補正処理を行う際に、主要被写体領域の輪郭形状や色特徴などの特徴を抽出する主要被写体の特徴抽出手段と、主要被写体領域の特微量の相関度が最も高くなる移動位置、あるいは、各輪郭形状の共通領域又は重心位置などを求める主要被写体の位置検出手段と、各連写画像から主要被写体を除いた背景画像の色分布もしくはテクスチャー特徴など背景の画像特徴の抽出手段とを設け、
A)主要被写体の領域画像を位置合せする場合に、連写画像の最初の画像の輝度パターンや輪郭形状、色分布など画像の特徴量から中央又は前景の主要被写体の領域(又はその共通領域や重心位置)を抽出するとともに、そのフレーム画像の主要被写体領域の画像特微量と、今回フレーム画像P1の当該領域の画像特微量との相関を計算し、最も相関が高くなる位置、もしくは、特微量の差(距離)が最も低くなる位置を求め、今回フレーム画像P1を求めた一致位置まで移動して、前回フレーム画像P2に順次重ね合せ合成する。
B)一方、背景領域の画像で位置合せする場合には、同様に、連写画像の最初の画像の特微量から中央又は前景の主要被写体の領域を抽出するとともに、そのフレーム画像から抽出された主要被写体領域を除いた背景領域の画像特微量と、今回フレーム画像P1の当該領域の画像特微量との相関を計算し、最も相関が高くなる位置、もしくは、特微量の差(距離)が最も低くなる位置を求め、今回フレーム画像P1を求めた一致位置まで移動して、前回フレーム画像P2に順次重ね合せ合成する。
In this example, when performing high sensitivity & blur correction processing by multi-plane addition + alignment synthesis, a feature extraction unit for extracting a feature of the main subject region, such as a contour shape and a color feature of the main subject region, The position of the main subject for obtaining the moving position where the correlation degree of the trace amount is highest, the common area of each contour shape or the position of the center of gravity, and the color distribution of the background image obtained by removing the main subject from each continuous image or And a background image feature extraction means such as a texture feature,
A) When aligning the main subject area image, the central or foreground main subject area (or its common area or The center of gravity position) is extracted, and the correlation between the image feature of the main subject area of the frame image and the image feature of the area of the current frame image P1 is calculated, and the position or feature having the highest correlation is calculated. The position where the difference (distance) is lowest is obtained, the current frame image P1 is moved to the obtained coincidence position, and the previous frame image P2 is sequentially superimposed and synthesized.
B) On the other hand, when aligning with the image of the background area, similarly, the area of the main subject in the center or foreground is extracted from the feature amount of the first image of the continuous shot image and extracted from the frame image. The correlation between the image feature amount of the background region excluding the main subject region and the image feature amount of the relevant region of the current frame image P1 is calculated, and the position with the highest correlation or the difference (distance) of the feature amount is the largest. The lower position is obtained, the current frame image P1 is moved to the obtained coincidence position, and the previous frame image P2 is sequentially superimposed and synthesized.

また、いずれも、加算枚数分の連写画像の位置合せ及びマルチプレーン加算処理が終了した後、その共通領域の画像を所定のアスペクト比(縦横比)の方形に切り取るトリミング処理を行い、複数枚画像の合成により外郭にずれて凸凹出入りした部分を削除するとともに、トリミング処理により小さくなった画像サイズ(画素数)を、元の記録画像サイズに拡大する処理などを行うのが好ましい。   In both cases, after completion of alignment of the continuous shot image for the added number of sheets and multi-plane addition processing, trimming processing is performed to cut the image of the common area into a square with a predetermined aspect ratio (aspect ratio), and a plurality of images are obtained. It is preferable to perform processing such as deleting the portion that has shifted out of the contour due to the image composition, and expanding the image size (number of pixels) reduced by the trimming processing to the original recorded image size.

(位置合わせ)   (Alignment)

図22に(a)主要被写体領域の画像を基準に位置合せする場合と、(b)背景領域の画像を基準に位置合せする場合の例を示す。
(a)主要被写体の領域画像で位置合せする場合には、連写画像の最初の被写体画像から輝度又は色差信号などに基づいて複数領域に分割し、その中から主要被写体の領域を選択し、その領域画像を2値化し、エッジを検出し、エッジ図形をN辺の等辺多角形などで近似し、輪郭線のP型フーリエ記述子、あるいは、そのフーリエスペクトルやDCT変換の低周波成分からn個の成分(係数)を取り出して、輪郭形状の特徴データとして抽出し、今回画像と重ねて、パターンマッチングなどにより順次移動した各位置において前回画像と今回画像との特徴データを比較して、相関や類似度が最も高い位置を検出して、位置合せを行い、マルチプレーン加算する。
FIGS. 22A and 22B show an example of a case where alignment is performed with reference to the image of the main subject area, and a case where alignment is performed based on the image of (b) the background area.
(A) When aligning with the region image of the main subject, the first subject image of the continuous image is divided into a plurality of regions based on luminance or color difference signals, and the region of the main subject is selected from among the regions. The region image is binarized, the edge is detected, the edge figure is approximated by an N-sided equilateral polygon, etc., and the contour type P-type Fourier descriptor, or the low-frequency component of the Fourier spectrum or DCT transform, n Extract individual components (coefficients), extract them as feature data of the contour shape, compare them with the current image, compare the feature data of the previous image with the current image at each position moved sequentially by pattern matching, etc. The position having the highest similarity is detected, aligned, and multiplane addition is performed.

(b)背景画像で位置合せする場合には、同様に複数領域に分割し、主要被写体の領域を除く背景の領域画像を選択し、その輝度パターン、又は、その代表色や色分布などの色特徴、テクスチャー特徴などを前回画像とパターンマッチングで比較して、相関や類似度が最も高い位置を一致位置として検出して、位置合せを行い、マルチプレーン加算する。   (B) When aligning with a background image, similarly, it is divided into a plurality of regions, a background region image excluding the region of the main subject is selected, and its luminance pattern or color such as its representative color or color distribution Features, texture features, and the like are compared with the previous image by pattern matching, a position having the highest correlation and similarity is detected as a matching position, alignment is performed, and multiplane addition is performed.

(位置合わせ+マルチプレーン加算合成処理)   (Positioning + Multiplane addition synthesis processing)

図23は、位置合わせ+マルチプレーン加算合成処理の処理手順を示すサブルーチンである。被写体の連写画像の最初の画像を取り込み(ステップSA1、図(A))、輝度階調値又は色差信号に基づいて、複数領域に分割する(ステップSA2、図(B))。次に、主要被写体の位置合わせであるか否かを判断し(ステップSA3)、主要被写体の位置合わせである場合には、主要被写体の領域を選択する(ステップSA4、図(C))。引き続き、領域の画像を3値化し(ステップSA5、図(D))、エッジを検出する(ステップSA6、図(E))。このエッジを検出した画像をN辺の等辺多角形等で近似し(ステップSA7)、輪郭線のP型記述子などフーリエ記述子を求める(ステップSA8)。さらに、パワースペクトルを求め(ステップSA9、図(F))、低周波成分からn個の成分を取り出し、データ圧縮して、輪郭線特徴データとし(ステップSA10)、求めた輪郭線の特徴量データをメモリに記憶する(ステップSA11)。   FIG. 23 is a subroutine showing a processing procedure of alignment + multiplane addition synthesis processing. The first image of the continuous image of the subject is captured (step SA1, FIG. (A)), and is divided into a plurality of regions based on the luminance gradation value or the color difference signal (step SA2, FIG. (B)). Next, it is determined whether or not the main subject is aligned (step SA3). If the main subject is aligned, the main subject region is selected (step SA4, FIG. 3C). Subsequently, the region image is ternarized (step SA5, FIG. (D)), and an edge is detected (step SA6, FIG. (E)). The image in which the edge is detected is approximated by an equilateral polygon of N sides (step SA7), and a Fourier descriptor such as a P-type descriptor of the contour is obtained (step SA8). Further, a power spectrum is obtained (step SA9, FIG. (F)), n components are extracted from the low frequency components, and data compression is performed to obtain contour line feature data (step SA10). Is stored in the memory (step SA11).

引き続き、次の連写画像を順次取り込み(ステップSA12)、選択領域画像のテンブレートマッチング処理を行って、今回画像を前回画像上において、順次移動させ、各位置での特徴量の類似度又は距離を求める(ステップSA13、図(G)(J))。最も類似度が高い(又は距離が小さい)位置を一致する位置として出力し(ステップSA14)、今回画像データを一致する位置まで移動(位置合わせ)する(ステップSA15)。移動位置に応じて、縦線、斜めの補間処理を行って(ステップSA16)、補間処理された今回の画像データと前回画像データとを加算合成する(ステップSA17、図(H))。次に、全ての画像を加算したか否かを判断し(ステップSA18)、全ての画像を加算するまでステップSA12からの処理を繰り返す。全ての画像を加算したならば、共通領域の切り出し処理を行って、元のサイズに拡大処理する(ステップSA19)。   Subsequently, the next continuous shot image is sequentially captured (step SA12), the template matching process is performed on the selected area image, the current image is sequentially moved on the previous image, and the similarity or distance of the feature amount at each position is determined. (Step SA13, FIGS. (G) and (J)). The position having the highest similarity (or the shortest distance) is output as a matching position (step SA14), and the current image data is moved (aligned) to the matching position (step SA15). Depending on the movement position, vertical line and diagonal interpolation processing is performed (step SA16), and the current image data subjected to the interpolation processing and the previous image data are added and synthesized (step SA17, FIG. (H)). Next, it is determined whether or not all the images have been added (step SA18), and the processing from step SA12 is repeated until all the images are added. If all the images have been added, the common area is cut out and enlarged to the original size (step SA19).

他方、ステップSA3の判断がNOである場合には、背景領域の位置合わせであるか否かを判断する(ステップSA20)。背景領域の位置合わせである場合には、主要被写体を除く背景領域を選択し(ステップSA21、図(I))、背景領域の位置合わせでない場合には、中央又はフォーカス枠周辺の所定サイズの領域を選択する(ステップSA22)。しかる後に、輝度パターン特徴で位置合わせするか否かを判断し(ステップSA23)、輝度パターン特徴で位置合わせする場合には、選択領域の輝度パターンの特徴量を抽出する(ステップSA25)。輝度パターン特徴で位置合わせしない場合には、代表色又は色分布で位置合わせするか否かを判断する(ステップSA24)。   On the other hand, if the determination in step SA3 is NO, it is determined whether or not the background region is aligned (step SA20). If the background area is aligned, a background area excluding the main subject is selected (step SA21, FIG. (I)). If the background area is not aligned, an area of a predetermined size around the center or the focus frame is selected. Is selected (step SA22). Thereafter, it is determined whether or not to perform alignment with the luminance pattern feature (step SA23). When alignment is performed with the luminance pattern feature, the feature amount of the luminance pattern of the selected region is extracted (step SA25). If the alignment is not performed using the luminance pattern feature, it is determined whether or not the alignment is performed using the representative color or the color distribution (step SA24).

代表色又は色分布で位置合わせする場合には、選択領域の特徴パターンの特徴量を抽出する(ステップSA27)。代表色又は色分布で位置合わせしない場合には、テクスチャー特徴で位置合わせするか否かを判断し(ステップSA26)、する場合には選択領域のテクスチャー特徴量を抽出する(ステップSA28)。そして、ステップSA25、SA27、SA28のいずれかに続くステップSA29においては、これらのステップで抽出された選択領域の特徴データをメモリに記憶した後(ステップSA29)、前述したステップSA12以降の処理を実行する。   When aligning with the representative color or the color distribution, the feature amount of the feature pattern of the selected region is extracted (step SA27). When the registration is not performed with the representative color or the color distribution, it is determined whether or not the alignment is performed with the texture feature (step SA26). When the registration is performed, the texture feature amount of the selected region is extracted (step SA28). In step SA29 following any of steps SA25, SA27, and SA28, the feature data of the selected area extracted in these steps is stored in the memory (step SA29), and then the processing after step SA12 is executed. To do.

(第9の実施の形態)   (Ninth embodiment)

図25は、本発明の第9の実施の形態における動作及び処理の手順を示す一連フローチャートである。ユーザーによる操作入力部122での操作に応じて撮影モードを選択し(ステップS901)、シャッタ速度、感度等の撮影条件を設定する(ステップS902)。次に、ズーム処理、AF処理を実行し(ステップS903)、被写体像のスルー画像を表示部181に表示させる(ステップS904)。次いで、レリーズ釦が押されて撮影指示がなされたか否かを判断し(ステップS905)、押されない場合には、ユーザーにより操作入力部122で操作されたキーに応じたその他のキー処理を実行する(ステップS906)。   FIG. 25 is a series of flowcharts showing operation and processing procedures in the ninth embodiment of the present invention. A shooting mode is selected according to the operation of the operation input unit 122 by the user (step S901), and shooting conditions such as shutter speed and sensitivity are set (step S902). Next, zoom processing and AF processing are executed (step S903), and a through image of the subject image is displayed on the display unit 181 (step S904). Next, it is determined whether or not a shooting instruction has been issued by pressing the release button (step S905). If not, other key processing corresponding to the key operated by the user on the operation input unit 122 is executed. (Step S906).

レリーズ釦が押されて撮影指示があると、測光処理、WB処理を行って(ステップS907)、これにより得られた測光値と前記ステップS904で設定された撮影条件とに応じて、露出条件を設定する(ステップS908)。次に、撮像素子157から出力される連続撮像信号から被写体の移動量を算出して(ステップS909)、ブレ量を検出し、順次記録する(ステップS910)。また、被写体ブレ軽減撮影モードが設定されているか否かを判断し(ステップS911)、設定されている場合には、主被写体を位置合わせするマルチプレーン加算によるブレ軽減撮影を行うべく、ステップS925〜S927の処理を実行する。すなわち、連写撮影において、主被写体の領域を選択し(ステップS925)、主被写体領域の特徴量を抽出して特徴データをメモリに記憶する(ステップS926)。また、主被写体の特徴量に基づいて、図23において説明した位置合わせ+マルチプレーン加算処理を実行する(ステップS927)。   When the release button is pressed and there is a shooting instruction, photometric processing and WB processing are performed (step S907), and the exposure condition is set according to the photometric value obtained thereby and the shooting condition set in step S904. Setting is made (step S908). Next, the movement amount of the subject is calculated from the continuous imaging signal output from the image sensor 157 (step S909), the blur amount is detected, and sequentially recorded (step S910). In addition, it is determined whether or not the subject blur reduction shooting mode is set (step S911). If the subject blur reduction shooting mode is set, step S925 to perform blur reduction shooting by multiplane addition for aligning the main subject is performed. The process of S927 is executed. That is, in continuous shooting, the main subject region is selected (step S925), the feature amount of the main subject region is extracted, and the feature data is stored in the memory (step S926). Further, based on the feature amount of the main subject, the alignment + multiplane addition process described in FIG. 23 is executed (step S927).

また、ステップS911での判断の結果、被写体ブレ軽減撮影モードが設定されていない場合には、手ブレ軽減撮影モードが設定されているか否かを判断する(ステップS912)。手ブレ軽減撮影モードが設定されている場合には、背景を位置合わせするマルチプレーン加算によるブレ軽減撮影を行うべく、ステップS922〜S924の処理を実行する。すなわち、連写撮影において、主被写体を除く背景領域を選択し(ステップS922)、背景領域の特徴量を抽出して特徴データをメモリに記憶する(ステップS923)。また、背景領域の特徴量に基づいて、図23において説明した位置合わせ+マルチプレーン加算処理を実行する(ステップS924)。   If the subject blur reduction shooting mode is not set as a result of the determination in step S911, it is determined whether or not the camera shake reduction shooting mode is set (step S912). When the camera shake reduction shooting mode is set, the processes of steps S922 to S924 are executed in order to perform the camera shake reduction shooting by multi-plane addition for aligning the background. That is, in continuous shooting, a background area excluding the main subject is selected (step S922), the feature amount of the background area is extracted, and the feature data is stored in the memory (step S923). Further, the alignment + multiplane addition process described in FIG. 23 is executed based on the feature amount of the background area (step S924).

他方、 また、ステップS912での判断の結果、手ブレ軽減撮影モードが設定されていない場合には、以下の各判断を行う。
(1)流し撮り撮影モードであるか否か(ステップS913)
(2)選択されたシーン別撮影プログラムにおける撮影シーン(あるいは認識した被写体)が子供、ペット、スポーツなどをであるか否か(ステップS914)
(3)焦点距離が所定以上であるか否か(ステップS915)
(4)マクロ撮影であるか否か(ステップS916)
(5)ステップS910で検出されたブレ量が所定値を超えるか否か(ステップS917)
(6)ステップS910で順次記録した像の移動量が所定を超えるか否か(ステップS918)
(7)測光値が所定値未満であるか否か(ステップS919)
(8)測光値が所定値未満である場合においてストロボ強制OFFとなっているか否か(ステップS920)
(9)設定露出時間(T)が所定時間(例えば、1/60s)を超えるか否か(ステップS921)。
On the other hand, if the result of determination in step S912 is that camera shake reduction shooting mode is not set, the following determinations are made.
(1) Whether it is a panning shooting mode (step S913)
(2) Whether the shooting scene (or the recognized subject) in the selected scene-specific shooting program is a child, a pet, a sport, or the like (step S914)
(3) Whether the focal length is greater than or equal to a predetermined value (step S915)
(4) Whether macro shooting is performed (step S916)
(5) Whether the shake amount detected in step S910 exceeds a predetermined value (step S917)
(6) Whether the moving amount of the images sequentially recorded in step S910 exceeds a predetermined value (step S918)
(7) Whether the photometric value is less than a predetermined value (step S919)
(8) Whether the flash is forcibly turned off when the photometric value is less than the predetermined value (step S920)
(9) Whether the set exposure time (T) exceeds a predetermined time (for example, 1/60 s) (step S921).

これらの(1)〜(9)判断において、(3)(4)(5)判断のいずれか一つでもYESであった場合には、背景を位置合わせするマルチプレーン加算によるブレ軽減撮影を行うべく、前記ステップS922〜S924の処理を実行する。また、(1)(2)(6)(8)(9)判断のいずれか一つでもYESであった場合には、主被写体を位置合わせするマルチプレーン加算によるブレ軽減撮影を行うべく、前記ステップS925〜S927の処理を実行する。また、(1)〜(9)判断が全てNOであった場合には、前述した通常単写撮影を実行する。   In any of these determinations (1) to (9), if any one of the determinations (3), (4), and (5) is YES, blur reduction shooting is performed by multi-plane addition for aligning the background. Therefore, the processing of steps S922 to S924 is executed. If any one of the determinations (1), (2), (6), (8), and (9) is YES, the above-described blur reduction shooting is performed by multi-plane addition for aligning the main subject. Steps S925 to S927 are executed. Further, when all the determinations (1) to (9) are NO, the above-described normal single shooting is executed.

つまり、本実施の形態においては、
1)前述のa)〜c)のように、手ブレが大きくなる撮影条件や撮影シーンなど、第1の所定の条件のときには、1回のレリーズ操作に応じて、高速で複数枚の画像を速写し、複数枚の速写画像の背景領域の画像の特微量を用いて位置合せして、順次速写画像をマルチプレーン加算するブレ軽減撮影処理を行う。
2)一方、前述のd)〜f)のように、被写体ブレが大きくなる撮影条件や撮影シーンなど、第2の所定の条件のときには、1回のレリーズ操作に応じて、高速で速写し、複数枚の速写画像の主要被写体領域の画像の特微量を用いて位置合せして、順次速写画像をマルチプレーン加算するブレ軽減撮影処理を行う。
3)その他の条件のときには、1回のレリーズ操作に応じて、速写やマルチプレーン加算は行わずに、1回の露光で1枚の画像を撮影記録する通常の撮影を行うように制御する。あるいは、さらに、撮影条件やシーンに応じて、位置合せ方法だけでなく、位置合せ時に比較する画像の特徴量などを切り替えるように制御することが好ましい。
In other words, in this embodiment,
1) As described above in a) to c), when a first predetermined condition such as a shooting condition or a shooting scene in which camera shake becomes large, a plurality of images are displayed at a high speed according to one release operation. A low-speed shooting process is performed in which the images are registered using the features of the background region images of a plurality of high-speed images, and the high-speed images are sequentially added to the multiplane.
2) On the other hand, as described above in d) to f), when a second predetermined condition such as a shooting condition or a shooting scene in which subject blurring is large, a high-speed shooting is performed at a high speed according to a single release operation. Position reduction is performed using the features of the images of the main subject area of a plurality of high-speed images, and blur reduction shooting processing is performed in which the high-speed images are sequentially added to the multiplane.
3) Under other conditions, in accordance with one release operation, control is performed so as to perform normal photographing in which one image is photographed and recorded in one exposure without performing rapid shooting or multi-plane addition. Alternatively, it is preferable to perform control so as to switch not only the alignment method but also the feature amount of the image to be compared at the time of alignment according to the shooting conditions and the scene.

(テンブレートマッチング処理)
図26は、テンブレートマッチング処理の手順を示すフローチャートであり、図27はテンブレート画像の説明図である。前画像g(i,j)から、m×nサイズの画像領域t[k,L]を抽出して、テンブレートメモリに記憶する(ステップSB1)。M×Nサイズの今回のフレーム画像f(i,j)を入力し(ステップSB2)、j←0、Rmax←0(又は、dmin←∞)とした後(ステップSB3)、i←0とする(ステップSB4)。予めプログラムメモリ123に記憶してあるテンブレート画像t[k,L]を、今回画像f(i,j)の点(i,j)に重ねる(ステップSB5)。
(Temprate matching process)
FIG. 26 is a flowchart showing the procedure of the template matching process, and FIG. 27 is an explanatory diagram of the template image. An image region t [k, L] of m × n size is extracted from the previous image g (i, j) and stored in the template memory (step SB1). The current frame image f (i, j) of M × N size is input (step SB2), and j ← 0, Rmax ← 0 (or dmin ← ∞) are set (step SB3), and then i ← 0. (Step SB4). The template image t [k, L] stored in advance in the program memory 123 is overlaid on the point (i, j) of the current image f (i, j) (step SB5).

次に、下記例示式を用いて、t[k,L]とf(i,j)の重複部分の類似度R(i,j)又は、距離d(i,j)を計算する(ステップSB6)。
(例)類似度R(i,j)=ΣΣf[i−(m/2)+k,j−(n/2)+L]・t[k,L]、
距離d(i,j)=ΣΣ|f[i−(m/2)+k,j−(n/2)+L]−t[k,L]|
(ただし、上式で、ΣはΣK=0 (m−1)、ΣはΣL=0 (N−1)を表す。)
Next, the similarity R (i, j) or distance d (i, j) of the overlapping portion of t [k, L] and f (i, j) is calculated using the following exemplary formula (step SB6). ).
(Example) Similarity R (i, j) = Σ L Σ K f [i− (m / 2) + k, j− (n / 2) + L] · t [k, L],
The distance d (i, j) = Σ L Σ K | f [i- (m / 2) + k, j- (n / 2) + L] -t [k, L] |
(However, in the above equation, Σ K represents Σ K = 0 (m−1) and Σ L represents Σ L = 0 (N−1) .)

引き続き、類似度R(i,j)>最大値Rmaxとを比較(又は、距離d(i,j)とそれまでの最小値dminとを比較)し(ステップSB7)、類似度R(i,j)>最大値Rmaxであるか否か(又は、距離d(i,j)<最小値dminであるか否か)を判断する(ステップSB8)。この判断がYESである場合には、(i,j)←(i,j)、Rmax←R(i,j)(又は、dmin←d(i,j))として、最大(最小)となる位置座標(i,j)と類似度(又は距離)を更新して記憶する(ステップSB9)。   Subsequently, the similarity R (i, j)> the maximum value Rmax is compared (or the distance d (i, j) is compared with the minimum value dmin so far) (step SB7), and the similarity R (i, j, j)> It is determined whether or not the maximum value Rmax is satisfied (or whether or not the distance d (i, j) <the minimum value dmin) (step SB8). If this determination is YES, (i, j) ← (i, j), Rmax ← R (i, j) (or dmin ← d (i, j)) is the maximum (minimum). The position coordinates (i, j) and the similarity (or distance) are updated and stored (step SB9).

次に、i≧M−1となったか否かを判断し(ステップSB10)、なっていない場合には、i←i+1としてt[k,L]を横移動し(ステップSB11)、ステップSB5からの処理を繰り返す。また、i≧M−1となったならば、i≧N−1となったか否かを判断する(ステップSB12)。なっていなければ、j←j+1としてt[k,L]を縦移動し(ステップSB13)、ステップSB4からの処理を繰り返す。そして、i≧M−1となってステップSB12の判断がYESとなったならば、Rmax(又はdmin)をとる位置座標(i,j)を出力して(ステップSB14)、リターンする。   Next, it is determined whether or not i ≧ M−1 (step SB10). If not, i ← i + 1 is t (k, L) moved laterally (step SB11), and from step SB5. Repeat the process. If i ≧ M−1, it is determined whether i ≧ N−1 (step SB12). If not, j ← j + 1 and t [k, L] are moved vertically (step SB13), and the processing from step SB4 is repeated. If i ≧ M-1 and the determination in step SB12 is YES, the position coordinate (i, j) taking Rmax (or dmin) is output (step SB14), and the process returns.

(輪郭形状の特徴抽出)   (Feature extraction of contour shape)

また、前述した位置合せのために、画像の相関や類似度を求める場合に、比較する画像の特徴量として、主要被写体などの輪郭形状を用いる場合には、図28〜図30に示すように、対象領域の図形の輪郭特徴データを抽出すればよい。画像の類似や探索は、前述のように、領域内の画像からテンブレート画像と類似する画像の位置を順次探索するテンブレート・マッチング等の手法により、類似する画像や図形の探索ができる。また、輪郭形状の識別は、2値化や線図形化したテンブレート画像やその特微量を記憶しておき、それらと入力画像の2値化や線図形化した画像や特徴データとの相関度や類似度などを計算して、形状の識別や類似度の判別ができる。   Further, in the case of obtaining the correlation and similarity of images for the above-described alignment, when the contour shape of the main subject or the like is used as the feature amount of the image to be compared, as shown in FIGS. What is necessary is just to extract the outline feature data of the figure of the target area. As described above, similar images and figures can be searched for by using a technique such as template matching that sequentially searches for the positions of images similar to the template image from the images in the region. In addition, for identifying the contour shape, a binary or line figure template image and its characteristic amount are stored, and the correlation between the binarized input line image, the line figure image, and the feature data is stored. It is possible to identify the shape and determine the similarity by calculating the similarity.

輪郭形状の特徴データの抽出は、例えば、図28に示すように、図形の輪郭線に沿って、始点から順次、偏角θ(s)を求めて、一次元関数(偏角関数)に変換して、輪郭形状の特徴量として利用できる。あるいは、図29に示すように、輪郭線に沿って順次、位置座標x(s),y(s)、又は、z(s)=x(s)刊・y(s)を求めて、一次元の位置座標関数に変換して、輪郭形状の特徴量として利用できる。さらに、前述の偏角関数や位置座標関数などの一次元関数を離散フーリエ変換などを施し、その周波数成分やフーリエ係数を特徴量データとしてもよい。例えば、図30に示すように、偏角関数θ(s)を正規化して、正規化偏角関数θ(s)を求め、
式(13) 正規化偏角関数:θ(s)=θ(s)−θ(O)−2πs/L、
このθ(s)の離散化データφ[i]をフーリエ変換して、次のようなZ(Zahn)形フーリエ記述子を求め、輪郭形状の識別に利用できる。
式(14) θ(s)の離散化データ:φ[i]=θ[i]−θ[0]−2πi/N
式(15) θ(s)の離散フーリエ変換のフーリエ係数(Z型記述子):
For example, as shown in FIG. 28, the feature data of the contour shape is extracted from the starting point along the contour line of the figure to obtain the deflection angle θ (s) and convert it to a one-dimensional function (deflection function). Thus, it can be used as a feature amount of the contour shape. Alternatively, as shown in FIG. 29, position coordinates x (s), y (s), or z (s) = x (s) publication / y (s) are sequentially obtained along the contour line, It can be converted into the original position coordinate function and used as a feature amount of the contour shape. Furthermore, a one-dimensional function such as the aforementioned declination function or position coordinate function may be subjected to discrete Fourier transform, and the frequency component or Fourier coefficient may be used as feature amount data. For example, as shown in FIG. 30, the argument function θ (s) is normalized to obtain a normalized argument function θ (s),
Expression (13) Normalized argument function: θ N (s) = θ (s) −θ (O) −2πs / L,
The discretized data φ [i] of θ N (s) is Fourier-transformed to obtain the following Z (Zahn) type Fourier descriptor, which can be used for contour shape identification.
Expression (14) Discretized data of θ N (s): φ [i] = θ [i] −θ [0] −2πi / N
Formula (15) Fourier coefficient of discrete Fourier transform of θ N (s) (Z-type descriptor):

Cz[k]=(1/N)Σφ[i]exp(−j2πki/N)             Cz [k] = (1 / N) Σφ [i] exp (−j2πki / N)

また、図31に示すように、折れ線近似した偏角θ[i]の指数関数w[i]を求め、w[i]をフーリエ変換した、P(Phase)形記述子を求め、輪郭形状の識別に利用してもよい。
式(16) w[i]=exp(jθ[iD=cosθ[i]+sinθ[i]=(z[i+1]−z[i])/δ、
ただし、線分長δ=|z[i+1]−z[i]|
式(17) w[i]の離散フーリエ変換のフーリエ係数(=P形記述子):
Further, as shown in FIG. 31, an exponential function w [i] of the deflection angle θ [i] approximated by a polygonal line is obtained, a P (Phase) shape descriptor obtained by Fourier transforming w [i] is obtained, and the contour shape is obtained. It may be used for identification.
Expression (16) w [i] = exp (jθ [iD = cos θ [i] + sin θ [i] = (z [i + 1] −z [i]) / δ,
However, the line segment length δ = | z [i + 1] −z [i] |
Formula (17) Fourier coefficient of discrete Fourier transform of w [i] (= P-type descriptor):

Cp[k]=(1/N)Σw[i]exp(−j2πki/N)
また、比較する主要被写体や背景の画像特徴量として、輝度パターンや輪郭形状などの特微量の代りに、領域画像の代表色や色分布などの色特徴情報を用いてもよい。
Cp [k] = (1 / N) Σw [i] exp (−j2πki / N)
Further, as the image feature amount of the main subject or background to be compared, color feature information such as the representative color or color distribution of the region image may be used instead of the feature amount such as the luminance pattern and the contour shape.

(代表色、色分布の抽出)
図32は、選択された領域画像のRGBヒストグラムから代表色やその分布の分散度合いを特徴抽出する処理手順例を示すフローチャートである。対象とする撮影画像を取り込み(ステップSC1)、輝度階調値又は色差信号に基づいて複数の輪郭領域に分割する(ステップSC2)。次に、面積の大きい領域、又は中央のフォーカス枠に近い領域から順に1〜n個の被写体領域を選択し(ステップSC3)、各分割領域毎にRGB別ヒストグラム分布Pr(i)、Pg(i)、Pb(i)を求める(ステップSC4)引き続き、このPr(i)、Pg(i)、Pb(i)をそれぞれ全体が1.0となるように正規化する(ステップSC5)。
(Extraction of representative color and color distribution)
FIG. 32 is a flowchart illustrating an example of a processing procedure for extracting the representative color and the degree of dispersion of the distribution from the RGB histogram of the selected region image. The target captured image is captured (step SC1), and is divided into a plurality of contour regions based on the luminance gradation value or the color difference signal (step SC2). Next, 1 to n subject areas are selected in order from the area having the larger area or the area close to the central focus frame (step SC3), and the histogram distributions Pr (i) and Pg (i) for each divided area are selected. ), Pb (i) is obtained (step SC4). Subsequently, the Pr (i), Pg (i), and Pb (i) are normalized so that the whole becomes 1.0 (step SC5).

そして、下記のようにRGBヒストグラムPr(i)、Pg(i)、Pb(i)の最頻値を求める(ステップSC6)。
μr=Max{Pr(i)},
μg=Max{Pg(i)},
μb=Max{Pb(i)},
また、下記のようにRGBヒストグラムPr(i)、Pg(i)、Pb(i)の平均μを求める(ステップSC7)。
μr=Σi・Pr(i),
μg=Σi・Pg(i),
μb=Σi・Pb(i),
また、下記のようにRGBヒストグラムPr(i)、Pg(i)、Pb(i)の分散σ2を求める(ステップSC8)。
σr2=Σ(i−μr)2・Pr(i),
σg2=Σ(i−μg)2・Pg(i),
σb2=Σ(i−μb)2・Pb(i),
次に、各領域のRGBヒストグラムの最頻値又は平均値を代表色とし、代表色とRGBの分散値を色の特徴データとして記述して出力する(ステップSC9)。
Then, the mode values of the RGB histograms Pr (i), Pg (i), and Pb (i) are obtained as described below (step SC6).
μr = Max {Pr (i)},
μg = Max {Pg (i)},
μb = Max {Pb (i)},
Further, the average μ of the RGB histograms Pr (i), Pg (i), and Pb (i) is obtained as described below (step SC7).
μr = Σi · Pr (i),
μg = Σi · Pg (i),
μb = Σi · Pb (i),
Further, the variance σ2 of the RGB histograms Pr (i), Pg (i), and Pb (i) is obtained as described below (step SC8).
σr2 = Σ (i−μr) 2 · Pr (i),
σg2 = Σ (i−μg) 2 · Pg (i),
σb2 = Σ (i−μb) 2 · Pb (i),
Next, the mode value or average value of the RGB histogram of each region is set as the representative color, and the representative color and the RGB dispersion value are described and output as color feature data (step SC9).

(色分布の抽出)
図33は、領域画像を複数ブロックに分割して、ブロック毎の平均色を求め、そのDCT変換したDCT係数の分布データなど、色分布や配色パターンの特徴を抽出する処理手順例を示すフローチャートである。対象とする撮影画像、又は、領域画像を取り込み(ステップSD1)、領域を縦m×横nの複数ブロック領域に分割する(ステップSD2)。次に、各分割ブロック領域の平均色を算出し(ステップSD3)、各分割ブロック領域の平均色をRGB又はYCbCr空間でDFT変換又はDCT変換で周波数に変換し、各係数を求める(ステップSD4)。そして、DFT又はDCTの低周波成分の係数をジグザグスキャンなどで走査して1次元化し(ステップSD5)、この1次元化した各係数を量子化(デジタル符号化)し(ステップSD6)、このデジタル符号化したDFT又はDCT係数列を、色分布の特徴データとし記述し出力する(ステップSD7)。
(Extraction of color distribution)
FIG. 33 is a flowchart showing an example of a processing procedure for dividing an area image into a plurality of blocks, obtaining an average color for each block, and extracting the characteristics of the color distribution and color arrangement pattern, such as DCT coefficient distribution data obtained by DCT conversion. is there. A target photographed image or region image is captured (step SD1), and the region is divided into a plurality of block regions of length m × width n (step SD2). Next, the average color of each divided block area is calculated (step SD3), and the average color of each divided block area is converted into a frequency by DFT conversion or DCT conversion in the RGB or YCbCr space to obtain each coefficient (step SD4). . Then, the low-frequency component coefficient of DFT or DCT is scanned by zigzag scanning or the like to make it one-dimensional (step SD5), and each one-dimensionalized coefficient is quantized (digitally encoded) (step SD6). The encoded DFT or DCT coefficient string is described and output as color distribution feature data (step SD7).

また、人間の肌色領域の抽出など、特定の色の画像領域や輪郭の抽出を行う場合、人間の肌の分光反射率特性、又は、撮影画像サンプル中の肌色領域のRGB値、もしくはHSV値(色相:Hue、彩度:Saturation、明度:Value of Brightness)などを元に、肌色の領域や人間の肌や顔の領域を抽出できる。例えば、肌色の色相(Hue)と彩度(Saturation)の分布データをとると、肌色の画像データの多くは、彩度は広い範囲で分布するが、色相(Hue)環では、約6°〜38°の範囲に多く分布することが知られている。これらを利用すれば、HSV値から、色相(Hue)が約6°〜38°の範囲の人間の顔の肌色とするなど、特定の色の被写体の領域を適宜抽出することができる。   In addition, when extracting an image area or contour of a specific color, such as extraction of a human skin color area, the spectral reflectance characteristics of human skin, or the RGB value or HSV value of the skin color area in a captured image sample ( Based on hue: Hue, saturation: Saturation, brightness: Value of Brightness), it is possible to extract a skin color area, human skin, and face area. For example, if the distribution data of skin color hue (Hue) and saturation (Saturation) is taken, most of the skin color image data has a wide range of saturation, but in the hue (Hue) ring, about 6 ° to It is known that many distributions are in the range of 38 °. By using these, it is possible to appropriately extract a subject area of a specific color from the HSV value, such as a skin color of a human face whose hue (Hue) is in the range of about 6 ° to 38 °.

(高次局所自己相関関数によるテクスチャー特徴抽出)
図34(a)は、高次局所自己相関関数によるテクスチャー特徴抽出例を示すフローチャートであり、同図(b)はその説明図である。図(a)に示すように、撮影画像を取り込み(ステップSE1)、各画像のRGB成分をYIQ成分に変換し、Y画像、I画像、Q画像を得る(ステップSE2)。次に、設定された特徴に応じて、同図(b)に示すように、(n×n)画素のマスクパターン1〜25(図(b)のNo.1〜25)を作成する(ステップSE3)。さらに、下記に示すように、各画像で、各参照点(i,j)にマスクパターン1〜25の参照点を重ね合わせ、各画素の輝度値f(i,j)tと掛け合わせ(論理積)、特徴ベクトルC1〜25を求める(ステップSE4)。
C1=ΣiΣj{f(i,j)}、
C2=ΣiΣj{f(i,j)f(i+1,j)}、
・・・
C5=ΣiΣj{f(i,j)f(i−1,j+1)}、
C6=ΣiΣj{f(i,j)f(i−1,j)f(i+1,j)}、
・・・
C25=ΣiΣj{f(i,j)f(i−1,j+1)f(i+1,j+1)}。
(Texture feature extraction using higher-order local autocorrelation function)
FIG. 34A is a flowchart showing an example of texture feature extraction by a higher-order local autocorrelation function, and FIG. 34B is an explanatory diagram thereof. As shown in FIG. 1A, a captured image is captured (step SE1), and the RGB component of each image is converted into a YIQ component to obtain a Y image, an I image, and a Q image (step SE2). Next, according to the set feature, mask patterns 1 to 25 (No. 1 to 25 in FIG. 5B) of (n × n) pixels are created as shown in FIG. SE3). Further, as shown below, in each image, the reference points of the mask patterns 1 to 25 are superimposed on each reference point (i, j) and multiplied by the luminance value f (i, j) t of each pixel (logic Product), feature vectors C1 to 25 are obtained (step SE4).
C1 = ΣiΣj {f (i, j)},
C2 = ΣiΣj {f (i, j) f (i + 1, j)},
...
C5 = ΣiΣj {f (i, j) f (i−1, j + 1)},
C6 = ΣiΣj {f (i, j) f (i-1, j) f (i + 1, j)},
...
C25 = ΣiΣj {f (i, j) f (i-1, j + 1) f (i + 1, j + 1)}.

また、C(a1,・・・,aN)=Σr[n√{f(r)f(r+a1)・・・f(r+aN)}]により、上記のC1〜C25を加算(積和)し(ステップSE5)、Ci=Ci/Σj{Cj}(i,j=1〜25)により、各特徴量を特徴ベクトル全体の和Σj{Cj}で除算して、特徴ベクトルの絶対値が1となるように正規化する(ステップSE6)。そして、各YIQ画像毎に求めた局所自己相関による特徴ベクトルC1〜C25、又はその統計量を、テクスチャーの特徴データとして記述し出力する(ステップSE7)。   Also, C1 to C25 are added (product sum) by C (a1,..., AN) = Σr [n√ {f (r) f (r + a1)... F (r + aN)}] ( In step SE5), Ci = Ci / Σj {Cj} (i, j = 1 to 25) is used to divide each feature amount by the sum Σj {Cj} of the entire feature vector, and the absolute value of the feature vector becomes 1. Normalization is performed as follows (step SE6). Then, the feature vectors C1 to C25 by local autocorrelation obtained for each YIQ image, or their statistics are described and output as texture feature data (step SE7).

また、フーリエスペクトルからテクスチャー解析する方法として、離散2次元フーリエ変換(DFT)したフーリエスペクトル
F(u,v)=ΣΣf(x,y)W1xuW2yu(ただし、W1=exp(−j2π/M)を求め、
F(u,v)のパワースペクトルP(u,v)=|F(u,v)|2を算出し、
これを極座標形式のP(r,θ)に変換して、原点を中心としたドーナツ形領域のエネルギーの和p(r)、及び、角度θの扇形領域内のエネルギーの和q(r)を求め、
p(r)=2Σθ=0πP(r,θ)、
q(r)=2Σf=0W/2P(r,θ)。
そのヒストグラム分布のピーク、平均、分散など統計量から、例えばP(r)のピークよりテクスチャーのきめの大きさ、q(θ)のピークよりテクスチャー画素の方向性など、テクスチャーの特徴量を抽出して、特徴データを記述して、出力するようにしてもよい。
Further, as a method of texture analysis from the Fourier spectrum, a discrete two-dimensional Fourier transform (DFT) Fourier spectrum F (u, v) = ΣΣf (x, y) W1xuW2yu (where W1 = exp (−j2π / M) is obtained. ,
F (u, v) power spectrum P (u, v) = | F (u, v) | 2 is calculated,
This is converted into P (r, θ) in the polar coordinate format, and the sum p (r) of energy in the donut-shaped region centered on the origin and the sum q (r) of energy in the sector-shaped region at the angle θ are converted. Seeking
p (r) = 2Σθ = 0πP (r, θ),
q (r) = 2Σf = 0W / 2P (r, θ).
From the statistics such as the peak, average, and variance of the histogram distribution, extract the texture features such as texture size from the P (r) peak and texture pixel directionality from the q (θ) peak. The feature data may be described and output.

8−4)輝度の共起行列によるテクスチャー解析
また、輝度の共起行列を用いてテクスチャーの特徴を抽出してもよい。画像(x,y)において、画素f(x1、y1)から距離d、角度θの位置関係(d,θ)にある画素f(x2,y2)の輝度をd(1,2,・・・)、θ(0度、45度、90度、135度など)を変えて順次求め(ただし、距離d=max(|x1−x2|,|y1−y2|)
、位置関係(d,θ)にある2点の輝度がそれぞれ、f(x1,y1)=i,f(x2,y2)=jの対となる頻度(ヒストグラム)を集計して、輝度共起行列P(i,j;d,θ)を求め、正規化した共起行列p(i,j)=P(i,j)/ΣiΣj(i,j)から、・角2次モーメント(Angular second moment,全体の均一性を表す)f1=ΣΣ{p(i,j)}2、
・コントラスト(Contrast,局所変化を表す)f2=Σ{n2p(i,j)}、
・方向に関する相関(Correlation)f3=ΣΣ{(i,j)p(i,j−μ2)}/σ2、 ただし、μ=Σip(i)=1/g、(g;階調数)
σ=√{Σ{p(i)−μ}/(g−1)}
・平方和(Sum of Squares,局所同調性を表すf4=ΣΣ{(i−μ)2p(i,j)}、
・逆差分モーメント(Inverse difference Moment,複雑さの測度を表す)f5=ΣΣ[p(i,j)/{1+(1−j))}]、
などを求めて、テクスチャーの特徴データとすることができる。
8-4) Texture Analysis Using Luminance Co-occurrence Matrix Also, texture features may be extracted using the luminance co-occurrence matrix. In the image (x, y), the luminance of the pixel f (x2, y2) in the positional relationship (d, θ) at the distance d and the angle θ from the pixel f (x1, y1) is represented by d (1, 2,. ), Θ (0 degrees, 45 degrees, 90 degrees, 135 degrees, etc.) are sequentially obtained (however, the distance d = max (| x1-x2 |, | y1-y2 |))
, And the luminance co-occurrence by summing up the frequency (histogram) at which the luminance of two points in the positional relationship (d, θ) is paired with f (x1, y1) = i and f (x2, y2) = j, respectively. From the normalized co-occurrence matrix p (i, j) = P (i, j) / ΣiΣj (i, j) obtained from the matrix P (i, j; d, θ), the angular second moment (Angular second moment, representing overall uniformity) f1 = ΣΣ {p (i, j)} 2,
Contrast (representing local change) f2 = Σ {n2p (i, j)},
Correlation with respect to direction (Correlation) f3 = ΣΣ {(i, j) p (i, j−μ2)} / σ2, where μ = Σip (i) = 1 / g, (g: number of gradations)
σ = √ {Σ {p (i) −μ} / (g−1)}
Sum of Squares, f4 = ΣΣ {(i−μ) 2p (i, j)} representing local synchrony,
Inverse difference moment (representing a measure of complexity) f5 = ΣΣ [p (i, j) / {1+ (1-j))}],
Etc. can be obtained as texture feature data.

(位置合わせ+マルチプレーン加算合成処理)   (Positioning + Multiplane addition synthesis processing)

図35は、位置合わせ+マルチプレーン加算合成処理の他の処理手順を示すサブルーチンである。各連写画像を取り込み(ステップSF1)、各連写画像の輝度階調値又は色差信号に基づいて、複数領域に分割する(ステップSF2)。次に、オート撮影モードが設定されているか否かを判断し(ステップSF3)、設定されている場合には、選択された画像領域において、顔画像の認識処理を実行する(ステップSF4)。引き続き、対象画像内に顔の領域が検出されたか否かを判断し(ステップSF5)、検出された場合には、顔を含む領域を主要被写体の領域として選択する(ステップSF6)。しかる後に、主要被写体を位置合わせするマルチプレーン加算を行うべく、ステップSF7及びSF8の処理を実行する。すなわち、主要被写体領域の特徴量を抽出して特徴量データをメモリに記憶し(ステップSF7)、主要被写体の特徴量に基づいて、連写画像の位置合わせ+マルチプレーン加算処理を実行する(ステップSF8)。   FIG. 35 is a subroutine showing another processing procedure of alignment + multiplane addition synthesis processing. Each continuous shot image is captured (step SF1), and is divided into a plurality of regions based on the luminance gradation value or color difference signal of each continuous shot image (step SF2). Next, it is determined whether or not the auto shooting mode is set (step SF3). If it is set, face image recognition processing is executed in the selected image area (step SF4). Subsequently, it is determined whether or not a face area is detected in the target image (step SF5). If a face area is detected, the area including the face is selected as the main subject area (step SF6). Thereafter, the processes of steps SF7 and SF8 are executed in order to perform multi-plane addition for aligning the main subject. That is, the feature amount of the main subject region is extracted and the feature amount data is stored in the memory (step SF7), and based on the feature amount of the main subject, continuous image alignment + multiplane addition processing is executed (step S1). SF8).

前記ステップSF3の判断がNOであって、オート撮影モードが設定されていない場合には、ユーザにより選択された撮影シーンが「人物」、「人物+風景」、「子ども」など人物を含むシーンであるか否かを判断し(ステップSF9)、YESである場合には前記ステップSF4に進む。しかし、NOである場合には、さらに選択されたシーンが「ペット」、「オークション」、「花」であるか否を判断する(ステップSF10)。この判断がYESである場合、及び前記ステップSF5の判断がNOである場合には、中央又はフォーカス枠の領域を主要被写体の領域として選択する(ステップSF11)。しかる後に、主要被写体を位置合わせるマルチプレーン加算を行うべく、前記ステップSF7及びSF8の処理を実行する。   If the determination in step SF3 is NO and the auto shooting mode is not set, the shooting scene selected by the user is a scene including a person such as “person”, “person + landscape”, “child”, and the like. It is determined whether or not there is (step SF9). If YES, the process proceeds to step SF4. However, in the case of NO, it is further determined whether or not the selected scene is “pet”, “auction”, or “flower” (step SF10). If this determination is YES and if the determination in step SF5 is NO, the center or the area of the focus frame is selected as the main subject area (step SF11). Thereafter, the processes of steps SF7 and SF8 are performed in order to perform multi-plane addition for aligning the main subject.

また、ステップSF10の判断がNOである場合には、選択された撮影シーンが「風景」、「夜景」「夕日」などの人物を含まないシーンであるか否かを判断する(ステップSF12)。この判断がYESである場合には、中央又はフォーカス枠の被写体を除く背景領域を選択する(ステップSF13)。しかる後に、背景を位置合わせするマルチプレーン加算を行うべく、ステップSF14及びSF15の処理を実行する。すなわち、背景領域の特徴量を抽出して特徴量データをメモリに記憶し(ステップSF14)、背景領域の特徴量に基づいて、連写画像の位置合わせ+マルチプレーン加算処理を実行する(ステップSF15)。   If the determination in step SF10 is NO, it is determined whether or not the selected shooting scene is a scene that does not include a person such as “landscape”, “night view”, and “sunset” (step SF12). If this determination is YES, a background area excluding the subject in the center or focus frame is selected (step SF13). Thereafter, the processes of steps SF14 and SF15 are executed in order to perform multi-plane addition for aligning the background. That is, the feature amount of the background region is extracted and the feature amount data is stored in the memory (step SF14), and the continuous shot image alignment + multiplane addition process is executed based on the feature amount of the background region (step SF15). ).

つまり、この位置合わせ+マルチプレーン加算合成処理においては、
1)撮影シーンが「人物」、「人物+風景」、「子供」、「スポーツ」など、人物が主な被写体と想定されるシーンの場合には、顔画像の認識手段により、人物の顔画像と認識された画像領域を抽出して、抽出された顔画像を含む主要被写体の位置が一致するように位置合せを行ってから、速写画像を順次マルチプレーン加算合成する。
2)領画像が認識されなかった場合、あるいは、撮影シーンが、「ペット」や「オークション」、「花」など、人物を主な被写体として含まないと想定される撮影シーンの場合には、顔画像の認識手段を用いず、輪郭特徴などの特微量により、中央やフォーカス枠の主要被写体の領域を抽出して、抽出された主要被写体の特微量の位置が一致するように位置合せを行ってから速写画像を順次加算合成する。
3)また、「風景」や「夕日」、「夜景」など、前景に明瞭な主要被写体を含まないことも想定される撮影シーンの場合には、各画像から抽出された主要被写体の輪郭の画像領域を除いた、背景領域の色分布やテクスチャーなど、所定の画像特微量の位置が一致するように位置合せを行ってから、速写画像を順次加算合成する。
In other words, in this alignment + multiplane addition synthesis process,
1) When the shooting scene is a scene in which a person is assumed to be the main subject, such as “person”, “person + landscape”, “child”, “sport”, etc., the face image of the person is detected by the face image recognition means. After the image area recognized as is extracted and aligned so that the positions of the main subjects including the extracted face image coincide with each other, the high-speed image is sequentially subjected to multiplane addition synthesis.
2) If the region image is not recognized, or if the shooting scene is a shooting scene that does not include a person as the main subject, such as “pet”, “auction”, “flower”, etc. Extract the area of the main subject in the center and the focus frame using features such as contour features without using image recognition means, and align the extracted features of the main subject to match. Then, the high-speed images are sequentially added and synthesized.
3) In addition, in the case of a shooting scene such as “landscape”, “sunset”, “night view”, etc., in which it is assumed that the clear main subject is not included in the foreground, an outline image of the main subject extracted from each image After aligning so that the positions of predetermined image features such as the color distribution and texture of the background area, excluding the areas, match, the high-speed images are sequentially added and synthesized.

したがって、選択されたシーンに応じて、顔認識処理と位置合せ方法を切替えて、マルチプレーン画像加算+位置合せ合成による高感度&手振れ補正処理(ブレ軽減速写合成モード)を行うように制御する。   Therefore, in accordance with the selected scene, the face recognition process and the alignment method are switched, and control is performed so as to perform a high sensitivity & camera shake correction process (blur reduction rapid shooting synthesis mode) by multi-plane image addition + alignment synthesis.

したがって、本実施の形態においては、撮影シーン、及び、顔認識結果とに応じて、人物の顔が含まれると想定されるシーンの場合には、自動的に顔認識処理を行うとともに、顔が認識された場合には、顔画像が含まれる被写体を主要被写体の領域として、その位置が一致するように位置合する。また、顔が認識されなかった場合、あるいは、人物が含まれないと想定されるシーンでは、中央やフォーカス枠の被写体を基準に位置合せし、あるいは、主要被写体が含まれない場合も想定されるシーンでは、背景画像が一致するように位置合せする。しかる後に、マルチプレーン加算処理するように、自動的に切り替えるので、シーンの画像特性などに応じて、より最適で精密な位置合せ処理ができ、より画像品位の高い像感撮影や効果的なブレ軽減撮影ができる。   Therefore, in the present embodiment, in the case of a scene that is assumed to include a human face according to the shooting scene and the face recognition result, the face recognition process is automatically performed and the face is If recognized, the subject including the face image is used as the main subject region, and the subject is positioned so that the positions coincide with each other. In addition, in the case where a face is not recognized, or in a scene that is assumed not to include a person, it may be possible to align with the subject in the center or the focus frame as a reference, or the main subject may not be included. In the scene, alignment is performed so that the background images match. After that, since it automatically switches to multi-plane addition processing, it is possible to perform more optimal and precise alignment processing according to the image characteristics of the scene, etc., image sensing with higher image quality and effective blurring. Reduced shooting is possible.

(色相の抽出、肌色の抽出)
図36は、所定の色の領域を抽出する例として、人間の肌色領域の抽出例を示す。図(a)は、人間の肌の分光反射率特性の例であり、(b)は、撮影画像サンプル中の肌色領域のRGB値、及びHSV値の例(色相:Hueを0〜360°、彩度:Saturationを0〜255、明度:Value of Brightnessを0〜255として場合)である。また、(c)は、肌色の色相:Hue:0〜360°、彩度:Saturation:0〜1分布の例で、肌色の画像データの多くは、色相環で6°〜38°の範囲に多く分布することが知られている(Skin Colour Analysis(by J.Sherrah and S.Gong)http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPLES/GONGI/cvOnline-skinColourAnalysis.html)。これらを利用すれば、HSV値から、色相で約6°〜38°の範囲の人間の顔の肌色とするなど、特定の色の被写体の領域を適宜抽出することができる。
(Hue extraction, skin color extraction)
FIG. 36 shows an example of human skin color area extraction as an example of extracting a predetermined color area. (A) is an example of spectral reflectance characteristics of human skin, (b) is an example of RGB values and HSV values (hue: Hue of 0 to 360 °) in the skin color region in the photographed image sample. Saturation: Saturation is 0 to 255, and Lightness: Value of Brightness is 0 to 255). (C) is an example of skin color hue: Hue: 0 to 360 °, saturation: Saturation: 0 to 1 distribution, and most of the skin color image data is in the range of 6 ° to 38 ° in the hue circle. Many distributions are known (Skin Color Analysis (by J. Sherrah and S. Gong) http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPLES/GONGI/cvOnline-skinColourAnalysis.html ). By using these, it is possible to appropriately extract a subject area of a specific color from the HSV value, such as a skin color of a human face having a hue in the range of about 6 ° to 38 °.

(顔の認識処理)
前記の特徴抽出において、特定の被写体やシーン別撮影モードなどで注目する被写体別に専用の識別データや認識処理を必要とする場合がある。図37は、例えば「人物撮影シーン」などにおいて、人物の顔の領域における特徴データを抽出する場合の処理手順を子示すフロー説明図である。すなわち、ステップ(a)顔の位置検出では、顔の輪郭画像に様々なグラフを当てはめて、人物の顔部分を検出する。次に、ステップ(b)顔の特徴点の位置検出では、画像の顔部分を切り出し、顔の大きさを正規化して、顔の特徴点の位置を検出する。さらに、ステップ(c)特徴量の検出においては、各特徴点から、ウェーブレット変換等で、周波数成分など個人毎の特徴量を抽出する。
(Face recognition process)
In the feature extraction described above, dedicated identification data or recognition processing may be required for each specific subject or subject to be noticed in a scene-specific shooting mode. FIG. 37 is a flowchart for explaining a processing procedure in the case of extracting feature data in the face area of a person in, for example, “person photographing scene”. That is, in step (a) face position detection, various graphs are applied to the face contour image to detect a human face portion. Next, in step (b) position detection of face feature points, the face portion of the image is cut out, the face size is normalized, and the position of the face feature points is detected. Further, in step (c), feature quantity detection, individual feature quantities such as frequency components are extracted from each feature point by wavelet transform or the like.

図38は、(a)は顔の眼の領域を抽出するためのマスクパターンの例で、これを参照パターンとして、テンブレートマッチング等を用いて検索して、入力画像から眼や顔のある画像領域を検索できる。(b)は、眼を認識するデータの例で、例えば、
眼の細長さ=b/aとして、α≦b/a≦αの条件に合致する、又は、
(眼の面積)S≒π×a×b、(黒眼(瞳)の面積)S=π×r、黒眼(瞳)の比率S/S=r/abとして、β≦r/ab≦βなどの条件に合致する被写体画像の領域を「眼の領域」と識別することができる。また、(c)は、人間の顔と認識するための条件データの設定で、例えば、(眉下〜鼻下までの長さ)h1≒(鼻下〜あごまでの長さ)h2、又は、(右眼の幅)W≒(両眼の間)W≒(左眼の幅)W、などの条件を満たす被写体画像の領域を「顔の領域」であると識別できる。
FIG. 38A is an example of a mask pattern for extracting an eye area of a face. Using this as a reference pattern, a search is performed using template matching or the like, and an image having an eye or face is detected from an input image. You can search for an area. (B) is an example of data for recognizing eyes, for example,
Eye length = b / a, satisfying the condition of α 1 ≦ b / a ≦ α 2 , or
(Eye area) S 1 ≈π × a × b, (black eye (pupil) area) S 2 = π × r 2 , black eye (pupil) ratio S 2 / S 1 = r 2 / ab, An area of the subject image that satisfies a condition such as β 1 ≦ r 2 / ab ≦ β 2 can be identified as an “eye area”. (C) is a setting of condition data for recognizing a human face. For example, (length from below the eyebrows to below the nose) h1≈ (length from below the nose to the chin) h2, or An area of the subject image that satisfies the conditions such as (right eye width) W 1 ≈ (between eyes) W 2 ≈ (left eye width) W 3 can be identified as a “face area”.

図39は、人間の顔の簡易な識別処理手順を示すフローチャートである。先ず、対象となる画像を取り込み(ステップSG1)、輝度もしくは色差データに基づいて輪郭を抽出する(ステップSG2)。次に、前記画像をこの抽出した輪郭を境界とする領域に分割し(ステップSG3)、分割領域の中からいずれかの対象領域を選択する(ステップSG4)。そして、RGB又は色差データに基づいて、選択した領域の平均RGB又は平均色差データを算出し(ステップSG5)、この算出したRGB又は色差値をHSVに変換する(ステップSG6)。   FIG. 39 is a flowchart showing a simple identification process procedure of a human face. First, a target image is captured (step SG1), and a contour is extracted based on luminance or color difference data (step SG2). Next, the image is divided into regions having the extracted contour as a boundary (step SG3), and any target region is selected from the divided regions (step SG4). Based on the RGB or color difference data, average RGB or average color difference data of the selected area is calculated (step SG5), and the calculated RGB or color difference value is converted into HSV (step SG6).

引き続き、この変換したHSVが肌色の領域は否か、つまり、色相(Hue)が6〜38°か否かを判断し(ステップSG7)、この判断がNOである場合には、顔の領域でないと判断する(ステップSG15)。ステップSG7での判断がYESである場合には、顔のマスクパターンを設定し、前記対象領域において眼と瞳の領域を検索する(ステップSG8)。次に、眼の領域は検出できたか否かを判断し(ステップSG9)、検出できない場合には、顔の領域でないと判断する(ステップSG15)。検出できた場合には、眼の縦横比(b/a)、眼と瞳(黒眼)の面積比(r/ab)を算出し(ステップSG10)、眼と瞳の比率は所定範囲内か否か、すなわち前記α≦b/a≦αの条件に合致するか否かを判断する(ステップSG11)。この判断がNOである場合には、顔の領域でないと判断する(ステップSG15)。 Subsequently, it is determined whether or not the converted HSV is a skin color region, that is, whether or not the hue (Hue) is 6 to 38 ° (step SG7). If this determination is NO, the region is not a face region. (Step SG15). If the determination in step SG7 is yes, a face mask pattern is set, and eye and pupil regions are searched in the target region (step SG8). Next, it is determined whether or not the eye region has been detected (step SG9). If it cannot be detected, it is determined that the eye region is not a face region (step SG15). If detected, the aspect ratio (b / a) of the eye and the area ratio (r 2 / ab) of the eye and pupil (black eye) are calculated (step SG10), and the eye-to-pupil ratio is within a predetermined range. It is determined whether or not the condition of α 1 ≦ b / a ≦ α 2 is satisfied (step SG11). If this determination is NO, it is determined that the region is not a face (step SG15).

ステップSG11の判断がYESである場合には、眼と瞳の比率は所定範囲内であるか否か、すなわち前記β≦r/ab≦βの条件に合致するか否かを判断する(ステップSG12)。この判断がNOである場合には、顔の領域でないと判断する(ステップSG15)。ステップSG12の判断がYESである場合には、右眼の幅W、右眼と左眼の間隔W、左眼の幅Wを算出し(ステップSG13)、WとW、Wは等しいか否か、すなわちW−δ≦W≦W+δ、W−δ≦W≦W+δであるか否かを判断する(ステップSG14)。この判断がNOである場合には、顔の領域でないと判断する(ステップSG15)。そして、この判断がYESである場合、つまり、ステップSG7、SG9、SG11、SG12、SG14の判断が全てYESである場合には、前記ステップSG4で選択した領域を、顔の領域として認識する(ステップSG16)。さらに、この認識された顔の領域の位置座標を記憶する(ステップSG17)。次に、今回選択した領域が、当該画像において最後の領域であるか否かを判断し(ステップSG18)、最後の領域でない場合には、ステップSG4に戻って次の領域を選択し、前述した処理を繰り返す。そして、最後の領域まで以上の処理が実行されると、ステップSG18の判断がYESとなり、認識結果、顔と認識された位置座標を出力する(ステップSG19)。 If the determination in step SG11 is YES, it is determined whether or not the ratio of the eyes to the pupil is within a predetermined range, that is, whether or not the condition of β 1 ≦ r 2 / ab ≦ β 2 is satisfied. (Step SG12). If this determination is NO, it is determined that the region is not a face (step SG15). If the determination in step SG12 is YES, the right eye width W 1 , the right and left eye interval W 2 , and the left eye width W 3 are calculated (step SG13), and W 1 and W 2 , W It is determined whether 3 is equal, that is, whether W 1 −δ ≦ W 2 ≦ W 1 + δ and W 1 −δ ≦ W 3 ≦ W 1 + δ (step SG14). If this determination is NO, it is determined that the region is not a face (step SG15). If this determination is YES, that is, if all the determinations in steps SG7, SG9, SG11, SG12, and SG14 are YES, the region selected in step SG4 is recognized as a face region (step SG16). Further, the position coordinates of the recognized face area are stored (step SG17). Next, it is determined whether or not the region selected this time is the last region in the image (step SG18). If it is not the last region, the process returns to step SG4 to select the next region and Repeat the process. And if the above process is performed to the last area | region, determination of step SG18 will become YES and the position coordinate recognized as a recognition result and a face will be output (step SG19).

なお、実施の形態においては、種々判断を行いこれら判断の結果に応じて、主被写体の特徴量を背景領域の特徴量に基づいて、位置合わせ+マルチプレーン加算処理を行うようにしたが、前記種々判断を行うことなく、連写された画像の主被写体の特徴量を背景領域の特徴量に基づいて、位置合わせ+マルチプレーン加算処理を行うようにしてもよい。これにより、背景技術で説明した単に連続する複数の画像を撮影し各画像の対応する画素同士を加算する電子式手振れ補正方式よりも、明瞭な手ブレ補正された画像を得ることができる。よって、本発明は、電子式手振れ補正方式により補正される画像の画質を向上させることを目的とすることもできる。   In the embodiment, various determinations are performed, and the feature amount of the main subject is subjected to the alignment + multiplane addition processing based on the feature amount of the background area according to the results of these determinations. Without making various determinations, the feature amount of the main subject in the continuously shot image may be subjected to alignment + multiplane addition processing based on the feature amount of the background area. This makes it possible to obtain a clear camera shake-corrected image as compared with the electronic camera shake correction method in which a plurality of continuous images described in the background art are simply taken and pixels corresponding to each image are added. Therefore, the present invention can also be aimed at improving the image quality of an image corrected by an electronic camera shake correction method.

本発明の各実施の形態に共通するデジタルカメラ概略的回路構成を示すブロック図である。1 is a block diagram showing a schematic circuit configuration of a digital camera common to each embodiment of the present invention. 同デジタルカメラの具体的回路構成を示すブロック図である。2 is a block diagram showing a specific circuit configuration of the digital camera. FIG. 第1の実施の形態における動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and processing procedure in 1st Embodiment. 図3に続くフローチャートである。It is a flowchart following FIG. 同実施の形態の表示遷移図である。It is a display transition diagram of the same embodiment. 撮像素子の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image pick-up element. CMOSセンサ内の列回路部に設けた画素加算回路の例を示す図である。It is a figure which shows the example of the pixel addition circuit provided in the column circuit part in a CMOS sensor. 同画素加算回路の動作を示すタイミングチャートである。It is a timing chart which shows operation | movement of the pixel addition circuit. DSP内のマルチプレーン加算回路の構成例を示す図である。It is a figure which shows the structural example of the multiplane addition circuit in DSP. 本発明の第2の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and processing procedure of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and processing procedure of the 3rd Embodiment of this invention. 撮影シーン別プログラムの表示データを示す図である。It is a figure which shows the display data of the program according to an imaging | photography scene. 本発明の第4の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and process sequence of the 4th Embodiment of this invention. 本発明の第5の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and processing procedure of the 5th Embodiment of this invention. 図14に続くフローチャートである。It is a flowchart following FIG. 本発明の第6の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and processing procedure of the 6th Embodiment of this invention. 図16に続くフローチャートである。It is a flowchart following FIG. 本発明の第7の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and process sequence of the 7th Embodiment of this invention. 図18に続くフローチャートである。It is a flowchart following FIG. 本発明の第8の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and process sequence of the 8th Embodiment of this invention. マルチプレーン加算合成における相関計算(位置合わせ方法)の切り替えを示す図である。It is a figure which shows the switching of the correlation calculation (positioning method) in multiplane addition composition. マルチプレーン加算合成における位置合わせ処理を示す説明図である。It is explanatory drawing which shows the position alignment process in multiplane addition composition. 位置合わせ+マルチプレーン加算合成処理の処理手順を示すサブルーチンである。It is a subroutine showing a processing procedure of alignment + multiplane addition synthesis processing. 図23の処理に対応する説明図である。It is explanatory drawing corresponding to the process of FIG. 本発明の第9の実施の形態の動作及び処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement and processing procedure of the 9th Embodiment of this invention. テンプレートマッチング処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a template matching process. テンプレート画像を示す説明図である。It is explanatory drawing which shows a template image. 輪郭図形を偏角関数に変換する処理を示す説明図である。It is explanatory drawing which shows the process which converts an outline figure into a declination function. 輪郭図形を位置座標関数に変換する処理を示す説明図である。It is explanatory drawing which shows the process which converts an outline figure into a position coordinate function. 正規化偏角関数とZ型フーリエ記述子を示す説明図である。It is explanatory drawing which shows a normalization declination function and a Z-type Fourier descriptor. 折れ線近似の偏角関数の指数表現とP型フーリエ記述子を示す説明図である。It is explanatory drawing which shows the exponential expression of the argument function of a broken line approximation, and a P type Fourier descriptor. 選択された領域画像のRGBヒストグラムから代表色やその分布の分散度合いを特徴抽出する処理手順例を示すフローチャートである。It is a flowchart which shows the example of a process sequence which carries out characteristic extraction of the dispersion | distribution degree of a representative color and its distribution from the RGB histogram of the selected area | region image. 色の分布の特徴抽出処理手順を示すフローチャートである。It is a flowchart which shows the feature extraction process sequence of a color distribution. (a)は、高次局所自己相関関数によるテクスチャー特徴抽出例を示すフローチャートであり、(b)はその説明図である。(A) is a flowchart which shows the example of the texture feature extraction by a high-order local autocorrelation function, (b) is the explanatory drawing. 位置合わせ+マルチプレーン加算合成処理の他の処理手順を示すサブルーチンである。It is a subroutine which shows the other process sequence of a position alignment + multiplane addition synthetic | combination process. (a)は、人間の肌の分光反射率特性の例を示す図、(b)は、撮影画像サンプル中の肌色領域のRGB値等を示す図、(c)は、肌色の色相の分布の例を示す図である。(A) is a figure which shows the example of the spectral reflectance characteristic of human skin, (b) is a figure which shows the RGB value etc. of the skin color area | region in a picked-up image sample, (c) is a skin color hue distribution. It is a figure which shows an example. 人物の顔の領域における特徴データを抽出する場合の処理手順を子示すフロー説明図である。FIG. 11 is a flowchart illustrating a processing procedure for extracting feature data in a human face region. (a)は、顔の眼の領域を抽出するためのマスクパターンの例、(b)は、眼を認識するデータの例、(c)は、人間の顔と認識するための条件データの設定例を示す図である。(A) is an example of a mask pattern for extracting an eye area of a face, (b) is an example of data for recognizing an eye, and (c) is a condition data setting for recognizing a human face. It is a figure which shows an example. 人間の顔の簡易な識別処理手順を示すフローチャートである。It is a flowchart which shows the simple identification process procedure of a human face.

符号の説明Explanation of symbols

1 デジタルカメラ
102 制御回路
103 CPU
107 入力回路
111 入出力回路
123 プログラムメモリ
124 データメモリ
125 画像メモリ媒体
126 USB端子
132 焦点レンズ駆動部
133 ズームレンズ駆動部
134 ブレ補正駆動部
136 シャッタ駆動部
137 ストロボ
138 ストロボ駆動回路
139 測光/測距センサ
147 HDD記憶装置
148 ディスク媒体
156 撮像光学系
157 撮像素子
160 イメージセンサ部
161 水平走査部
162 垂直走査部
163 P/S変換部
164 DSP部
165 S/P変換部
167 マルチプレーン加算部
168 カラー補間部
169 階調変換部
170 ガンマ補正部
180 表示駆動回路
181 表示部
202 垂直走査回路
207 A/D変換回路
1 Digital Camera 102 Control Circuit 103 CPU
DESCRIPTION OF SYMBOLS 107 Input circuit 111 Input / output circuit 123 Program memory 124 Data memory 125 Image memory medium 126 USB terminal 132 Focus lens drive part 133 Zoom lens drive part 134 Blur correction drive part 136 Shutter drive part 137 Strobe 138 Strobe drive circuit 139 Metering / ranging Sensor 147 HDD storage device 148 Disk medium 156 Imaging optical system 157 Imaging element 160 Image sensor unit 161 Horizontal scanning unit 162 Vertical scanning unit 163 P / S conversion unit 164 DSP unit 165 S / P conversion unit 167 Multiplane addition unit 168 Color interpolation 169 Gradation conversion unit 170 Gamma correction unit 180 Display drive circuit 181 Display unit 202 Vertical scanning circuit 207 A / D conversion circuit

Claims (28)

複数の画素を有し、露出することにより被写体を撮像して画像データを取得する撮像手段と、
操作に応答して前記撮像手段を設定された露出時間で単一回露出させ、前記取得した画像データを出力する第1の撮像処理手段と、
操作に応答して前記撮像手段を前記設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行する第2の撮像処理手段と、
前記加算処理を実行させるべき所定条件を満たしているか否かを判断する判断手段と、
この判断手段により前記所定条件を満たしていないと判断された場合には、前記第1の撮像処理手段を動作させ、満たしていると判断された場合は前記第2の撮像処理手段を動作させる制御手段と
を備えることを特徴とする電子カメラ。
An imaging unit having a plurality of pixels and capturing an image of a subject by exposing the imaging unit;
A first imaging processing means for exposing the imaging means a single time with a set exposure time in response to an operation and outputting the acquired image data;
In response to an operation, a second imaging is performed in which the imaging means is continuously exposed a plurality of times with an exposure time shorter than the set exposure time, and an addition process is performed in which image data for each exposure acquired sequentially is added. Processing means;
Determining means for determining whether or not a predetermined condition for executing the addition process is satisfied;
When the determination means determines that the predetermined condition is not satisfied, the first imaging processing means is operated, and when it is determined that the predetermined condition is satisfied, control is performed to operate the second imaging processing means. And an electronic camera.
前記第2の撮像処理手段は、前記設定された露出時間内において前記撮像手段を連続して複数回露出させて、前記加算処理を実行することを特徴とする請求項1記載の電子カメラ。   2. The electronic camera according to claim 1, wherein the second imaging processing unit performs the adding process by exposing the imaging unit a plurality of times continuously within the set exposure time. 3. 前記第2の撮像処理手段は、前記露出毎の画像データにおける画像の位置を合致させる位置合わせ手段を備えることを特徴とする請求項1又は2記載の電子カメラ。   The electronic camera according to claim 1, wherein the second imaging processing unit includes an alignment unit configured to match an image position in the image data for each exposure. 前記所定条件を可変的に設定する第1の設定手段を備えることを特徴とする請求項1、2又は3記載の電子カメラ。 4. The electronic camera according to claim 1, further comprising first setting means for variably setting the predetermined condition. 当該電子カメラの撮影条件を設定する第2設定手段を備え、
前記所定条件とは、前記第2設定手段により設定された所定の撮影条件を含むものであることを特徴とする請求項1から4にいずれか記載の電子カメラ。
A second setting means for setting shooting conditions of the electronic camera;
5. The electronic camera according to claim 1, wherein the predetermined condition includes a predetermined photographing condition set by the second setting unit.
前記所定条件とは、当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件を含むものであることを特徴とする請求項1から5にいずれか記載の電子カメラ。   The electronic camera according to claim 1, wherein the predetermined condition includes a predetermined camera shake occurrence condition in which camera shake is assumed to occur in the camera. 前記所定の手ブレ発生条件とは、
(a)当該カメラが有するレンズの焦点距離が所定値よりも大きい場合、
(b)マクロモード又は近接撮影モードが設定されている場合、
(c)当該カメラのブレ量を検出する検出手段により検出されたブレ量が所定ブレ量よりも大きい場合、
の少なくとも一つの条件を含むものであることを特徴とする請求項6記載の電子カメラ。
The predetermined camera shake occurrence condition is
(A) When the focal length of the lens of the camera is greater than a predetermined value,
(B) When the macro mode or the close-up mode is set,
(C) When the blur amount detected by the detecting means for detecting the blur amount of the camera is larger than the predetermined blur amount,
The electronic camera according to claim 6, comprising at least one of the following conditions.
前記所定条件とは、当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件を含むものであることを特徴とする請求項1から7にいずれか記載の電子カメラ。   The electronic camera according to claim 1, wherein the predetermined condition includes a predetermined image blur occurrence condition in which image blur is assumed to occur in a subject imaged by the camera. 前記所定の像ブレ発生条件とは、
(d)設定された露出時間における被写体移動による像移動量が、所定値より大きい場合、
(e)被写体の輝度が所定値よりも低く、当該カメラが有する発光手段が強制的に停止されている場合、
(f)前記設定された露出時間が、所定の露出時間よりも長い場合、
(g)当該カメラが設定した所定の設定値に基づき、暗い部屋又は電灯照明下の被写体と判断された場合、
の少なくとも一つの条件を含むものであることを特徴とする請求項8記載の電子カメラ。
The predetermined image blur occurrence condition is
(D) When the amount of image movement due to subject movement during the set exposure time is greater than a predetermined value,
(E) When the luminance of the subject is lower than a predetermined value and the light emitting means of the camera is forcibly stopped,
(F) When the set exposure time is longer than the predetermined exposure time,
(G) When it is determined that the subject is a dark room or a subject under electric lighting based on a predetermined set value set by the camera,
9. The electronic camera according to claim 8, comprising at least one of the following conditions.
複数の撮影シーンの各々対応して設定される撮影条件を記憶した記憶手段と、
この記憶手段に記憶されたいずれかの撮影シーンを選択する選択手段とを備え、
この選択手段により選択された撮影シーンに対応する撮影条件を設定する第3設定手段とを備え、
前記所定条件とは、前記選択手段により選択された撮影シーンの種別を含むものであることを特徴とする請求項1から9にいずれか記載の電子カメラ。
Storage means for storing shooting conditions set corresponding to each of a plurality of shooting scenes;
Selecting means for selecting any shooting scene stored in the storage means,
Third setting means for setting shooting conditions corresponding to the shooting scene selected by the selection means,
The electronic camera according to claim 1, wherein the predetermined condition includes a type of a shooting scene selected by the selection unit.
光学式手ブレ振れ補正手段を更に備え、
前記所定条件は、第1及び第2の所定条件を含み、
前記判断手段は、第1及び第2の所定条件を満たしているか否かを判断し、
前記制御手段は、
前記判断手段により第1の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第1の制御と、
前記第2の所定条件を満たしていると判断された場合には、前記位置合わせ手段を動作させつつ前記第2の撮像処理手段を動作させる第2の制御と、
前記第1及び第2の所定条件が満たされていないと判断された場合には、前記光学式手ブレ振れ補正手段を停止させて前記第1の撮像処理手段を動作させる第3の制御と
を実行することを特徴とする請求項3記載の電子カメラ。
It further comprises optical camera shake correction means,
The predetermined conditions include first and second predetermined conditions,
The determination means determines whether or not the first and second predetermined conditions are satisfied,
The control means includes
A first control for operating the first imaging processing unit while operating the optical camera shake correction unit when the determination unit determines that the first predetermined condition is satisfied;
A second control for operating the second imaging processing means while operating the positioning means when it is determined that the second predetermined condition is satisfied;
When it is determined that the first and second predetermined conditions are not satisfied, a third control for stopping the optical camera shake correction unit and operating the first imaging processing unit is performed. The electronic camera according to claim 3, wherein the electronic camera is executed.
第1、第2及び第3のモードを選択的に設定するモード設定手段を備え、
前記制御手段は、
前記モード設定手段により第1のモードが設定されている場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させ、
前記第2のモードが設定されている場合には、前記位置合わせ手段の動作を伴って前記第2の撮像処理手段を動作させ、
第3のモードが設定されている場合には、前記第1、第2及び第3の制御を実行することを特徴とする請求項11記載の電子カメラ。
Comprising mode setting means for selectively setting the first, second and third modes;
The control means includes
When the first mode is set by the mode setting means, the first imaging processing means is operated while operating the optical camera shake correction means,
When the second mode is set, the second imaging processing unit is operated along with the operation of the positioning unit,
12. The electronic camera according to claim 11, wherein when the third mode is set, the first, second and third controls are executed.
光学式手ブレ振れ補正手段を更に備え、
前記所定条件は、第1及び第2の所定条件を含み、
前記判断手段は、第1及び第2の所定条件を満たしているか否かを判断し、
前記制御手段は、
前記判断手段により第1の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第1の制御と、
前記第2の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第2の撮像処理手段を動作させる第2の制御と、
前記第1及び第2の所定条件が満たされていないと判断された場合には、前記光学式手ブレ振れ補正手段を停止させて前記第1の撮像処理手段を動作させる第3の制御と
を実行することを特徴とする請求項1、2又は3記載の電子カメラ。
It further comprises optical camera shake correction means,
The predetermined conditions include first and second predetermined conditions,
The determination means determines whether or not the first and second predetermined conditions are satisfied,
The control means includes
A first control for operating the first imaging processing unit while operating the optical camera shake correction unit when the determination unit determines that the first predetermined condition is satisfied;
A second control for operating the second imaging processing means while operating the optical camera shake correction means when it is determined that the second predetermined condition is satisfied;
When it is determined that the first and second predetermined conditions are not satisfied, a third control for stopping the optical camera shake correction unit and operating the first imaging processing unit is performed. The electronic camera according to claim 1, wherein the electronic camera is executed.
第1、第2及び第3のモードを選択的に設定するモード設定手段を備え、
前記制御手段は、
前記モード設定手段により第1のモードが設定されている場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させ、
前記第2のモードが設定されている場合には、前記前記光学式手ブレ振れ補正手段を動作させつつ前記第2の撮像処理手段を動作させ、
第3のモードが設定されている場合には、前記第1、第2及び第3の制御を実行することを特徴とする請求項13記載の電子カメラ。
Comprising mode setting means for selectively setting the first, second and third modes;
The control means includes
When the first mode is set by the mode setting means, the first imaging processing means is operated while operating the optical camera shake correction means,
When the second mode is set, the second image pickup processing unit is operated while operating the optical camera shake correction unit,
14. The electronic camera according to claim 13, wherein when the third mode is set, the first, second and third controls are executed.
前記第1の所定条件とは、当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件を含むものであり、
前記第2の所定条件とは、当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件を含むものであることを特徴とする請求項11から14にいずれか記載の電子カメラ。
The first predetermined condition includes a predetermined camera shake occurrence condition in which camera shake is assumed to occur in the camera.
15. The electronic apparatus according to claim 11, wherein the second predetermined condition includes a predetermined image blur occurrence condition in which image blur is assumed to occur in a subject imaged by the camera. camera.
前記撮像手段の感度を増加させることにより、前記設定された露出時間が可及的に短くなるように再設定する再設定手段を備え、
前記所定条件とは、前記再設定手段により再設定された露出時間が所定時間よりも長い場合を含むものであることを特徴とする請求項1から17にいずれか記載の電子カメラ。
Resetting means for resetting the set exposure time as short as possible by increasing the sensitivity of the imaging means,
18. The electronic camera according to claim 1, wherein the predetermined condition includes a case where the exposure time reset by the resetting unit is longer than a predetermined time.
光学式手ブレ振れ補正手段を更に備え、
前記所定条件は、第1、第2及び第3の所定条件を含み、
前記判断手段は、前記撮像手段に設定されている感度が所定以上であるか否か、及び第1乃至第3の所定条件を満たしているか否かを判断し、
前記制御手段は、
前記判断手段により、前記感度が所定以上であり、かつ第1の所定条件を満たしていると判断された場合には、前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第1の制御と、
前記感度が所定以上であり、かつ前記第2の所定条件を満たしていると判断された場合には、前記位置合わせ手段を動作させつつ前記第2の撮像処理手段を動作させる第2の制御と、
前記感度が所定以上であり、前記第3の所定条件を満たしていると判断された場合には、前記位置合わせ手段を動作させることなく前記第2の撮像処理手段を動作させるか、又は前記光学式手ブレ振れ補正手段を動作させつつ前記第1の撮像処理手段を動作させる第3の制御とを実行することを特徴とする請求項3記載の電子カメラ。
It further comprises optical camera shake correction means,
The predetermined conditions include first, second and third predetermined conditions,
The determining means determines whether or not the sensitivity set in the imaging means is equal to or higher than a predetermined value and whether or not the first to third predetermined conditions are satisfied;
The control means includes
When the determination means determines that the sensitivity is equal to or higher than a predetermined value and satisfies a first predetermined condition, the first imaging processing means is operated while operating the optical camera shake correction means. A first control for operating
A second control for operating the second imaging processing means while operating the positioning means when it is determined that the sensitivity is not less than a predetermined value and the second predetermined condition is satisfied; ,
When it is determined that the sensitivity is equal to or higher than a predetermined value and the third predetermined condition is satisfied, the second imaging processing unit is operated without operating the alignment unit, or the optical The electronic camera according to claim 3, wherein a third control for operating the first imaging processing unit is performed while operating the image stabilization method.
前記第1の所定条件とは、当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件を含むものであり、
前記第2の所定条件とは、当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件の一部を含むものであり、
前記第3の所定条件とは、前記第2の所定条件以外の前記像ブレ発生条件を含むものであることを特徴とする請求項17記載の電子カメラ。
The first predetermined condition includes a predetermined camera shake occurrence condition in which camera shake is assumed to occur in the camera.
The second predetermined condition includes a part of a predetermined image blur occurrence condition in which image blur is assumed to occur in a subject imaged by the camera.
The electronic camera according to claim 17, wherein the third predetermined condition includes the image blur generation condition other than the second predetermined condition.
前記所定の手ブレ発生条件とは、
(a)当該カメラが有するレンズの焦点距離が所定値よりも大きい場合、
(b)マクロモード又は近接撮影モードが設定され
ている場合、
(c)当該カメラのブレ量を検出する検出手段により検出されたブレ量が所定ブレ量よりも大きい場合、の少なくとも一つの条件を含むものであり、
前記所定の像ブレ発生条件の一部とは、
(d)設定された露出時間における被写体移動による像移動量が、所定値より大きい場合、を含むものであり、
前記第2の所定条件以外の前記像ブレ発生条件とは、
(e)被写体の輝度が所定値よりも低く、当該カメラが有する発光手段が強制的に停止されている場
(f)設定された露出時間が、所定の露出時間よりも長い場合、
(g)当該カメラが設定した設定値に基づき、暗い部屋又は電灯照明下の被写体と判断された場合、の少なくとも一つの条件を含むものであることを特徴とする請求項18記載の電子カメラ。
The predetermined camera shake occurrence condition is
(A) When the focal length of the lens of the camera is greater than a predetermined value,
(B) When the macro mode or the close-up mode is set,
(C) includes at least one condition in the case where the blur amount detected by the detecting means for detecting the blur amount of the camera is larger than the predetermined blur amount;
Part of the predetermined image blur occurrence condition is
(D) includes a case where the amount of image movement due to subject movement during the set exposure time is greater than a predetermined value;
The image blur occurrence condition other than the second predetermined condition is
(E) When the luminance of the subject is lower than a predetermined value and the light emitting means of the camera is forcibly stopped (f) When the set exposure time is longer than the predetermined exposure time,
19. The electronic camera according to claim 18, wherein the electronic camera includes at least one condition when it is determined that the subject is a dark room or a subject under electric light illumination based on a set value set by the camera.
前記第2の撮像処理手段が動作した場合において、前記撮像手段により取得された画像データにおける画像の特徴を抽出する特徴抽出手段を備え、
前記位置合わせ手段は、前記特徴抽出手段により抽出された特徴に基づき、前記露出毎の画像データにおける画像の位置を合致させることを特徴とする請求項3記載の電子カメラ。
When the second imaging processing unit is operated, the image capturing unit includes a feature extraction unit that extracts a feature of the image in the image data acquired by the imaging unit,
4. The electronic camera according to claim 3, wherein the alignment unit matches the position of the image in the image data for each exposure based on the feature extracted by the feature extraction unit.
前記抽出手段は、前記撮像手段により取得された画像における所定部分の特徴を抽出することを特徴とする請求項20記載の電子カメラ。   21. The electronic camera according to claim 20, wherein the extraction unit extracts a feature of a predetermined portion in the image acquired by the imaging unit. 前記撮像手段により取得された画像データにおける主要被写体又は背景画像の特徴を前記所定部分の特徴として抽出することを特徴とする請求項21記載の電子カメラ。   The electronic camera according to claim 21, wherein the feature of the main subject or the background image in the image data acquired by the imaging means is extracted as the feature of the predetermined portion. 前記位置合わせ手段は、
当該カメラが撮像する被写体において像ブレが生ずることが想定される所定の像ブレ発生条件が検出された場合に、前記主要被写体の特徴に基づき、該主要被写体が合致するように位置合わせすることを特徴とする請求項20、21又は22記載の電子カメラ。
The alignment means includes
When a predetermined image blur occurrence condition that is assumed to cause image blur in the subject imaged by the camera is detected, alignment is performed so that the main subject matches based on the characteristics of the main subject. 23. The electronic camera according to claim 20, 21, or 22.
前記位置合わせ手段は、
当該カメラにおいて手ブレが生ずることが想定される所定の手ブレ発生条件が検出された場合に、前記前記特徴抽出手段により抽出された背景画像の特徴に基づき、該背景画像が合致するように位置合わせすることを特徴とする請求項20〜23にいずれか記載記載の電子カメラ。
The alignment means includes
When a predetermined camera shake occurrence condition that is assumed to cause camera shake in the camera is detected, a position is set so that the background image matches based on the feature of the background image extracted by the feature extraction unit. 24. The electronic camera according to any one of claims 20 to 23, characterized by being combined.
前記第2の撮像処理手段が動作した場合において、前記撮像手段により取得された画像データから、前記選択手段により選択された撮影シーンに応じた画像部分の特徴を抽出する特徴抽出手段を備え、
前記位置合わせ手段は、前記特徴抽出手段により抽出された特徴に基づき、前記露出毎の画像データにおける画像の当該特徴抽出部分の位置を合致させることを特徴とする請求項10記載の電子カメラ。
When the second imaging processing unit is operated, the image processing apparatus includes a feature extraction unit that extracts a feature of an image portion corresponding to a shooting scene selected by the selection unit from the image data acquired by the imaging unit.
The electronic camera according to claim 10, wherein the alignment unit matches the position of the feature extraction portion of the image in the image data for each exposure based on the feature extracted by the feature extraction unit.
記録する画像のサイズ又は印刷する画像のサイズを設定するサイズ設定手段と、
このサイズ設定手段により設定されたサイズに応じて許容ブレ量を設定するブレ量設定手段と、
当該カメラにおける手ブレ又は当該カメラが撮像する被写体における像ブレの少なくとも一方を検出する検出手段を備え、
前記所定条件とは、前記検出手段により検出されたブレ量が前記許容ブレ量を超える場合を含むことを特徴とする請求項1から25にいずれか記載の電子カメラ。
Size setting means for setting the size of the image to be recorded or the size of the image to be printed;
A blur amount setting means for setting an allowable blur amount according to the size set by the size setting means;
A detection means for detecting at least one of camera shake in the camera or image blur in a subject imaged by the camera;
26. The electronic camera according to claim 1, wherein the predetermined condition includes a case where a blur amount detected by the detection unit exceeds the allowable blur amount.
複数の画素を有し、露出することにより被写体を撮像して画像データを取得する撮像手段を備える電子カメラが有するコンピュータを、
操作に応答して前記撮像手段を設定された露出時間で単一回露出させ、前記取得した画像データを出力する第1の撮像処理手段と、
操作に応答して前記撮像手段を前記設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行する第2の撮像処理手段と、
前記加算処理を実行させるべき所定条件を満たしているか否かを判断する判断手段と、
この判断手段により前記所定条件を満たしていないと判断された場合には、前記第1の撮像処理手段を動作させ、満たしていると判断された場合は前記第2の撮像処理手段を動作させる制御手段と
を備えることを特徴とする撮像制御プログラム。
A computer having an electronic camera having an imaging unit that has a plurality of pixels and that captures an image of a subject by exposure to obtain image data,
A first imaging processing means for exposing the imaging means a single time with a set exposure time in response to an operation and outputting the acquired image data;
In response to an operation, a second imaging is performed in which the imaging unit is exposed a plurality of times continuously with an exposure time shorter than the set exposure time, and an addition process is performed in which image data for each exposure acquired sequentially is added. Processing means;
Determining means for determining whether or not a predetermined condition for executing the addition process is satisfied;
When the determination means determines that the predetermined condition is not satisfied, the first imaging processing means is operated, and when it is determined that the predetermined condition is satisfied, control is performed to operate the second imaging processing means. An imaging control program.
複数の画素を有し、露出することにより被写体を撮像して画像データを取得する撮像手段を備える電子カメラの制御方法であって、
操作に応答して前記撮像手段を設定された露出時間で単一回露出させ、前記取得した画像データを出力する第1の撮像処理ステップと、
操作に応答して前記撮像手段を前記設定された露出時間よりも短い露出時間で連続して複数回露出させ、順次取得された露出毎の画像データを加算する加算処理を実行する第2の撮像処理ステップと、
前記加算処理を実行させるべき所定条件を満たしているか否かを判断する判断手ステップと、
この判断ステップにより前記所定条件を満たしていないと判断された場合には、前記第1の撮像処理ステップを実行させ、満たしていると判断された場合は前記第2の撮像処理ステップを実行させることを特徴とする撮像制御方法。
A method for controlling an electronic camera having an imaging unit that has a plurality of pixels and that captures an image of a subject by exposure to obtain image data,
A first imaging processing step of exposing the imaging means in a single exposure in response to an operation for a set exposure time and outputting the acquired image data;
In response to an operation, a second imaging is performed in which the imaging unit is exposed a plurality of times continuously with an exposure time shorter than the set exposure time, and an addition process is performed in which image data for each exposure acquired sequentially is added. Processing steps;
A determination step for determining whether or not a predetermined condition for executing the addition process is satisfied;
When it is determined that the predetermined condition is not satisfied by this determination step, the first imaging process step is executed, and when it is determined that the predetermined condition is satisfied, the second imaging process step is executed. An imaging control method characterized by the above.
JP2006267405A 2006-09-29 2006-09-29 Electronic camera, imaging control program, and imaging control method Expired - Fee Related JP4867554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006267405A JP4867554B2 (en) 2006-09-29 2006-09-29 Electronic camera, imaging control program, and imaging control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006267405A JP4867554B2 (en) 2006-09-29 2006-09-29 Electronic camera, imaging control program, and imaging control method

Publications (3)

Publication Number Publication Date
JP2008092005A true JP2008092005A (en) 2008-04-17
JP2008092005A5 JP2008092005A5 (en) 2009-11-12
JP4867554B2 JP4867554B2 (en) 2012-02-01

Family

ID=39375725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006267405A Expired - Fee Related JP4867554B2 (en) 2006-09-29 2006-09-29 Electronic camera, imaging control program, and imaging control method

Country Status (1)

Country Link
JP (1) JP4867554B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284394A (en) * 2008-05-26 2009-12-03 Olympus Imaging Corp Imaging apparatus and imaging method
WO2010058448A1 (en) * 2008-11-21 2010-05-27 パナソニック株式会社 Imaging processing system and digital camera
JP2010273023A (en) * 2009-05-20 2010-12-02 Hoya Corp Image pickup device
WO2012077464A1 (en) * 2010-12-07 2012-06-14 シャープ株式会社 Image pickup device
CN102685365A (en) * 2011-03-11 2012-09-19 索尼公司 Image synthesizing apparatus, image synthesizing method, and image synthesizing program
US8310553B2 (en) 2009-02-17 2012-11-13 Casio Computer Co., Ltd. Image capturing device, image capturing method, and storage medium having stored therein image capturing program
JP2013088759A (en) * 2011-10-21 2013-05-13 Nikon Corp Imaging device and control program for imaging device
KR101442613B1 (en) 2008-04-04 2014-09-19 삼성전자주식회사 Apparatus for processing digital image and method for controlling thereof
EP2866430A1 (en) * 2013-10-23 2015-04-29 Canon Kabushiki Kaisha Imaging apparatus and its control method and program
US9049372B2 (en) 2011-11-02 2015-06-02 Casio Computer Co., Ltd. Electronic camera, computer readable medium recording imaging control program thereon and imaging control method
JP2015118338A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Image capturing device, control method therefor, program, and storage medium
CN112738365A (en) * 2015-07-16 2021-04-30 索尼公司 Imaging apparatus and information processing system
CN115035529A (en) * 2021-03-03 2022-09-09 重庆云石高科技有限公司 VIN equal-proportion reduction and character recognition method based on image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002107787A (en) * 2000-09-29 2002-04-10 Minolta Co Ltd Camera body of digital camera and computer readable recording medium recorded with program for controlling camera body of digital camera
JP2005136760A (en) * 2003-10-31 2005-05-26 Nikon Corp Digital still camera
JP2005176050A (en) * 2003-12-12 2005-06-30 Nikon Corp Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002107787A (en) * 2000-09-29 2002-04-10 Minolta Co Ltd Camera body of digital camera and computer readable recording medium recorded with program for controlling camera body of digital camera
JP2005136760A (en) * 2003-10-31 2005-05-26 Nikon Corp Digital still camera
JP2005176050A (en) * 2003-12-12 2005-06-30 Nikon Corp Imaging apparatus

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101442613B1 (en) 2008-04-04 2014-09-19 삼성전자주식회사 Apparatus for processing digital image and method for controlling thereof
JP2009284394A (en) * 2008-05-26 2009-12-03 Olympus Imaging Corp Imaging apparatus and imaging method
WO2010058448A1 (en) * 2008-11-21 2010-05-27 パナソニック株式会社 Imaging processing system and digital camera
US8310553B2 (en) 2009-02-17 2012-11-13 Casio Computer Co., Ltd. Image capturing device, image capturing method, and storage medium having stored therein image capturing program
JP2010273023A (en) * 2009-05-20 2010-12-02 Hoya Corp Image pickup device
WO2012077464A1 (en) * 2010-12-07 2012-06-14 シャープ株式会社 Image pickup device
JP2012124622A (en) * 2010-12-07 2012-06-28 Sharp Corp Imaging apparatus
US9456135B2 (en) 2011-03-11 2016-09-27 Sony Corporation Image synthesizing apparatus, image synthesizing method, and image synthesizing program
CN102685365A (en) * 2011-03-11 2012-09-19 索尼公司 Image synthesizing apparatus, image synthesizing method, and image synthesizing program
JP2012191486A (en) * 2011-03-11 2012-10-04 Sony Corp Image composing apparatus, image composing method, and program
JP2013088759A (en) * 2011-10-21 2013-05-13 Nikon Corp Imaging device and control program for imaging device
US9049372B2 (en) 2011-11-02 2015-06-02 Casio Computer Co., Ltd. Electronic camera, computer readable medium recording imaging control program thereon and imaging control method
US9420181B2 (en) 2011-11-02 2016-08-16 Casio Computer Co., Ltd. Electronic camera, computer readable medium recording imaging control program thereon and imaging control method
EP2866430A1 (en) * 2013-10-23 2015-04-29 Canon Kabushiki Kaisha Imaging apparatus and its control method and program
US9554054B2 (en) 2013-10-23 2017-01-24 Canon Kabushiki Kaisha Imaging apparatus and its control method and program
JP2015118338A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Image capturing device, control method therefor, program, and storage medium
CN112738365A (en) * 2015-07-16 2021-04-30 索尼公司 Imaging apparatus and information processing system
CN115035529A (en) * 2021-03-03 2022-09-09 重庆云石高科技有限公司 VIN equal-proportion reduction and character recognition method based on image
CN115035529B (en) * 2021-03-03 2024-04-05 重庆云石高科技有限公司 VIN equal proportion reduction and character recognition method based on image

Also Published As

Publication number Publication date
JP4867554B2 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP4867554B2 (en) Electronic camera, imaging control program, and imaging control method
JP5791336B2 (en) Image processing apparatus and control method thereof
US8395694B2 (en) Apparatus and method for blurring image background in digital image processing device
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US9591231B2 (en) Image processing apparatus capable of properly emphasizing differences in brightness between bright spots, image processing method, and storage medium
JP6659162B2 (en) Imaging device, imaging device control method, and program
JP2009284309A (en) Imaging device, display control program, and display control method
US20110193986A1 (en) Image sensing device
JP2004064676A (en) Image pickup apparatus
JP2007281873A (en) Imaging device
JP2019106045A (en) Image processing device, method, and program
JP5156991B2 (en) Imaging apparatus, imaging method, and imaging program
JP4127521B2 (en) Digital camera and control method thereof
JP2009010616A (en) Imaging device and image output control method
US10897581B2 (en) Image capturing apparatus, image compositing method, and recording medium having recorded therein image compositing program to be executed by computer of image capturing apparatus
JP7110406B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP2008072682A (en) Imaging apparatus
JP2009124644A (en) Image processing device, imaging device, and image reproduction device
JP2003189325A (en) Image processing apparatus and color image photographic apparatus
JP2013062711A (en) Photographing device, photographed image processing method, and program
JP5392336B2 (en) Imaging apparatus, imaging method, and imaging program
JP5223950B2 (en) Imaging apparatus, display control program, and display control method
JP2015041865A (en) Image processing apparatus and image processing method
JP2008172733A (en) Imaging apparatus and control method thereof
JP6433177B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

R150 Certificate of patent or registration of utility model

Ref document number: 4867554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees