JP4930277B2 - Imaging apparatus and computer program therefor - Google Patents

Imaging apparatus and computer program therefor Download PDF

Info

Publication number
JP4930277B2
JP4930277B2 JP2007214964A JP2007214964A JP4930277B2 JP 4930277 B2 JP4930277 B2 JP 4930277B2 JP 2007214964 A JP2007214964 A JP 2007214964A JP 2007214964 A JP2007214964 A JP 2007214964A JP 4930277 B2 JP4930277 B2 JP 4930277B2
Authority
JP
Japan
Prior art keywords
image
coordinate
spread function
point spread
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007214964A
Other languages
Japanese (ja)
Other versions
JP2009049777A (en
Inventor
敬一 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007214964A priority Critical patent/JP4930277B2/en
Publication of JP2009049777A publication Critical patent/JP2009049777A/en
Application granted granted Critical
Publication of JP4930277B2 publication Critical patent/JP4930277B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、逐次合成処理型の電子式手振れ補正動作により手振れ補正画像を生成する撮像装置及びそのコンピュータプログラムに関する。   The present invention relates to an imaging apparatus that generates a camera shake correction image by a sequential synthesis processing type electronic camera shake correction operation, and a computer program thereof.

従来より、撮像装置を利用して暗所を撮影する手法として、逐次合成処理型の電子式手振れ補正方式が知られている。この方式では、手振れの影響が少ない露光時間で被写体を連続的に撮影し、1枚目の撮影画像を基準画像に設定し、2枚目以後の撮影画像に対しては、基準画像に対する撮影画像の動きを算出し、算出された動きに基づいて動き補正を行った後に基準画像(3枚目以後の撮影画像の場合は合成画像)に順次合成する処理を施すことにより、1枚の合成画像を生成する。   Conventionally, as a technique for photographing a dark place using an imaging apparatus, a sequential synthesis processing type electronic image stabilization method is known. In this method, the subject is continuously photographed with an exposure time that is less affected by camera shake, the first photographed image is set as a reference image, and the photographed images relative to the reference image are taken for the second and subsequent photographed images. A combined image is obtained by performing a process of sequentially combining the reference image (a combined image in the case of the third and subsequent captured images) after calculating the movement of the image and performing motion correction based on the calculated movement. Is generated.

逐次合成処理型の電子式手振れ補正方式では、合成が完了した撮影画像を順次破棄又は上書きしながら合成画像を生成するために、全ての撮影画像を記憶するための大容量のメモリを撮像装置に設ける必要性がない。従って、この方式によれば、全ての撮影画像を記憶しておく必要がある一括合成処理型の電子式手振れ補正方式と比較して、撮像装置を安価に構成することができる。   In the electronic image stabilization method of the sequential synthesis process type, a large-capacity memory for storing all the captured images is provided in the imaging device in order to generate a composite image while sequentially discarding or overwriting the captured images that have been combined. There is no need to provide it. Therefore, according to this method, it is possible to configure the imaging device at a lower cost compared to the batch composition processing type electronic shake correction method in which all photographed images need to be stored.

ここで逐次合成処理型の電子式手振れ補正方式による合成画像の生成手順について詳しく説明する。なお本明細書中では、i番目の撮影画像を入力画像P,入力画像Pの座標(x,y)における画素値をP(x,y)と表記する。また合成する撮影画像の総数はN枚、入力画像Pの大きさは(xmax,ymax)とする。また入力画像Pを合成することにより得られる合成画像を合成画像G(i),合成画像G(i)の座標(x,y)における画素値をG(i)(x,y)と表記する。 Here, a procedure for generating a composite image by a sequential synthesis processing type electronic camera shake correction method will be described in detail. In this specification, the i-th captured image is denoted as input image P i , and the pixel value at the coordinates (x, y) of the input image P i is denoted as P i (x, y). The total number of captured images to be synthesized N sheets, the size of the input image P i is set to (xmax, ymax). The input image P i the synthesized composite image obtained by synthesizing images G (i), the coordinates (x, y) of the synthesized image G (i) the pixel value at G (i) (x, y) denoted To do.

この方式では、始めに、入力画像Pの撮影が完了したタイミングで入力画像Pから複数個の特徴点F(1≦k≦M)を抽出する。2枚の画像間の動きは一方の画像中の点と他方の画像中の点の対応関係から予測できる。特徴点Fとはこの対応関係が決定しやすい点のことを意味する。特徴点Fを抽出する手法としては、SUSANコーナ検出法(S.M.Smith and J.M.Brady, "SUSAN a new approach to low level image processing", International Journal of Computer Vision 23(1):45-78 May(1997))やKLT法(C.Thomasi and K.Kaneda, "Detection and tracking of point features", CMU Tech.Rep. CMU-CS-91-132, April 1991)等の手法を例示できる。 In this method, first , a plurality of feature points F k (1 ≦ k ≦ M) are extracted from the input image P 1 at the timing when the photographing of the input image P 1 is completed. The motion between the two images can be predicted from the correspondence between the points in one image and the points in the other image. The feature point F k means a point where this correspondence can be easily determined. As a method for extracting a feature point F k, SUSAN corner detection method (SMSmith and JMBrady, "SUSAN a new approach to low level image processing", International Journal of Computer Vision 23 (1): 45-78 May (1997)) And the KLT method (C. Thomasi and K. Kaneda, “Detection and tracking of point features”, CMU Tech. Rep. CMU-CS-91-132, April 1991).

次に、以下の数式1に示すように入力画像Pを合成画像(基準画像)G(1)に設定する。

Figure 0004930277
Next, the input image P 1 is set as a composite image (reference image) G (1) as shown in the following Equation 1.
Figure 0004930277

その後、入力画像P(2≦i≦N)それぞれの撮影が完了したタイミングで各特徴点Fの入力画像P中における位置を追跡する。特徴点Fの追跡手法としては、勾配法やテンプレートマッチング法等の手法を例示できる。テンプレートマッチング法では、特徴点F近傍の入力画像Pの画像をテンプレートとして用意し、特徴点Fと同じ座標値を中心点とする入力画像P中の探索範囲内の各点におけるテンプレートとの類似度を算出し、探索範囲内で類似度が最も高い点を入力画像P中における特徴点Fの位置とする。 Thereafter, the position of each feature point F k in the input image P i is tracked at the timing when each of the input images P i (2 ≦ i ≦ N) is completed. The tracking method of the feature point F k, can be exemplified a method such as a gradient method or a template matching method. In the template matching method, an image of the input image P 1 in the vicinity of the feature point F k is prepared as a template, and a template at each point in the search range in the input image P i having the same coordinate value as the feature point F k as the center point. And the point having the highest similarity in the search range is set as the position of the feature point F k in the input image P i .

類似度としてはSSD(Sum of Squared Difference)を利用することが多い。特徴点Fの位置を精密に探索する方法としては、小数点以下の位置検出が可能なサブピクセル位置推定手法等の手法(「類似度モデルに基づく画像の高精度2次元サブピクセルマッチング」電子情報通信学会,技術研究報告PRMU2003, vol103, No.151, pp31-38, June 2003)が提案されている。入力画像PからM個の特徴点F(1≦k≦M)を抽出したとすると、この処理により各特徴点Fの入力画像P中における座標(以下“追跡座標”と表記)Ti,kが得られる。 As the similarity, SSD (Sum of Squared Difference) is often used. As a method for precisely search the position of the feature point F k, "precision two-dimensional subpixel matching images based on similarity model" approach (sub-pixel position estimation method or the like capable of following the position detection point electronic information The Communication Society, Technical Research Report PRMU2003, vol103, No.151, pp31-38, June 2003) has been proposed. Input image P 1 from M feature points F k When was extracted (1 ≦ k ≦ M), ( denoted hereinafter "tracking coordinates") coordinates in the input image P i of each feature point F k by the process T i, k is obtained.

次に、特徴点Fの座標と追跡座標Ti,kの対応関係を利用して合成画像G(1)と入力画像P間の動きを表す座標変換パラメータHを算出する。座標変換の手法としてはアフィン変換や射影変換を利用できる。連写撮影時間が長時間で撮像装置の動きが大きくなる場合は射影変換により座標変換を行う必要があるが、短時間で連写撮影する場合にはアフィン変換で十分な場合が多い。そこで以下の説明では座標変換の手法としてアフィン変換を用いる。いま入力画像Pの特徴点Fの座標(x,y)が入力画像P中の座標(x,y)に対応する時、斉次座標表記のアフィン変換では座標(x,y)と座標(x,y)は以下の数式2,3に示す関係式を満たす。

Figure 0004930277
Figure 0004930277
Then, coordinates and tracking coordinates T i of the feature point F k, calculates a coordinate transformation parameter H i representing using a corresponding relationship k composite image G (1) the motion between the input image P i. As the coordinate transformation method, affine transformation or projective transformation can be used. When the continuous shooting time is long and the movement of the image pickup apparatus is large, it is necessary to perform coordinate conversion by projective transformation. However, when continuous shooting is performed in a short time, affine transformation is often sufficient. Therefore, in the following description, affine transformation is used as a coordinate transformation technique. When the coordinates (x 1 , y 1 ) of the feature point F k of the input image P 1 correspond to the coordinates (x 2 , y 2 ) in the input image P i , the coordinates (x 1 , y 1 ) and coordinates (x 2 , y 2 ) satisfy the relational expressions shown in the following equations 2 and 3.
Figure 0004930277
Figure 0004930277

特徴点Fの座標(x,y)と入力画像P中の座標(x,y)の対応関係には誤ったものが含まれている可能性があるので、誤った対応関係を除外して精度の高い座標変換パラメータHを算出するためにRANSAC法(M.A.Fischler, R.C.Bolles, "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", Comm. of the ACM, vol24, pp381-395, 1981)を用いることが望ましい。 The correspondence between the coordinates (x 1 , y 1 ) of the feature point F k and the coordinates (x 2 , y 2 ) in the input image P i may include an incorrect one. RANSAC method in order to calculate the high coordinate conversion parameter H i accurate to exclude the relationship (MAFischler, RCBolles,. "Random Sample Consensus: a Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", Comm of the ACM , vol24, pp381-395, 1981).

次に、算出された座標変換パラメータHを用いて入力画像Pと同じ位置で重なるように入力画像Pを座標変換して変換画像P’を生成する。そして上記数式2に変換画像P’の座標値(x,y)(0≦x≦xmax,0≦y≦ymax)を順次代入することにより座標(x,y)に対応する入力画像Pの座標値(x,y)を算出し、算出された入力画像Pの座標(x,y)における画素値P(x,y)を変換画像P’の座標(x,y)における画素値P’(x,y)として算出する。なおこの処理においては座標(x,y)が必ずしも整数値になるとは限らない。座標(x,y)が整数値でない場合、座標(x,y)における画素値が定まらない。従ってこの場合には、最近傍法やバイリニア法による補間処理により座標(x,y)周辺の画素値から座標(x,y)における画素値を補間する。 Then, the input image P i by performing coordinate conversion so as to overlap at the same position as the input image P 1 generates a transformed image P i 'using the coordinate transformation parameter H i calculated. And the coordinate values of the converted image P i 'to the equation 2 (x 1, y 1) (0 ≦ x 1 ≦ xmax, 0 ≦ y 1 ≦ ymax) coordinates by a sequential assignment (x 1, y 1) The coordinate value (x 2 , y 2 ) of the corresponding input image P i is calculated, and the pixel value P i (x 2 , y 2 ) in the calculated coordinate (x 2 , y 2 ) of the input image P i is converted. The pixel value P i ′ (x 1 , y 1 ) at the coordinates (x 1 , y 1 ) of the image P i ′ is calculated. In this process, the coordinates (x 2 , y 2 ) are not necessarily integer values. When the coordinate (x 2 , y 2 ) is not an integer value, the pixel value at the coordinate (x 2 , y 2 ) is not determined. Therefore, in this case, the pixel value at the coordinate (x 2 , y 2 ) is interpolated from the pixel value around the coordinate (x 2 , y 2 ) by the interpolation process by the nearest neighbor method or the bilinear method.

次に、以下の数式4に示すように、上記の処理により得られた変換画像P’を今までの処理により得られた合成画像G(i−1)に合成することにより合成画像G(i)を生成する。このようにしてN枚の入力画像Pが合成された合成画像G(N)が生成される。このような処理によれば、合成画像G(N)はN枚の入力画像Pを加算したものであるので、1枚の撮影画像のS/N比と比較してノイズを1/√N改善できる。従って、この逐次合成処理型の電子式手振れ補正方式によれば、手振れの少ない高感度な画像を撮影できる。

Figure 0004930277
特開2006−270523号公報 Next, the following as shown in Equation 4, synthesized by synthesizing the above obtained by the conversion processing image P i 'the synthetic image G obtained by the processing so far (i-1) image G ( i) is generated. In this way, a composite image G (N) in which N input images P i are combined is generated. According to such processing, since the composite image G (N) is obtained by summing the N input images P i, the noise as compared with the S / N ratio of 1 photographed images 1 / √N Can improve. Therefore, according to the electronic camera shake correction method of the sequential synthesis processing type, it is possible to capture a highly sensitive image with little camera shake.
Figure 0004930277
JP 2006-270523 A

一般に撮像装置では、光学系が理想的に合焦していたとしても、光学系の点拡がり関数(Point Spread Function)は、様々なレンズの収差によって理想的なデルタ関数にならず、図6に示すようにガウシアン関数に近似される。またCCD等のイメージセンサは画素毎に到達した光を画素領域内で積分するので、撮影画像の高周波成分は抑圧される。さらには、逐次成処理型の電子式手振れ補正方式では、上述の通り変換画像Pi’の画素値Pi’(x,y)を算出する際に補間処理が行われる。 In general, in an imaging apparatus, even if the optical system is ideally focused, the point spread function of the optical system does not become an ideal delta function due to various lens aberrations. As shown, it approximates the Gaussian function. In addition, since an image sensor such as a CCD integrates the light reaching each pixel within the pixel region, the high-frequency component of the captured image is suppressed. Furthermore, in the sequential image processing type electronic camera shake correction method, interpolation processing is performed when calculating the pixel value Pi ′ (x 1 , y 1 ) of the converted image Pi ′ as described above.

このため、従来の逐次成処理型の電子式手振れ補正方式では、撮影画像の各点における点拡がり関数のピーク形状が図7(a)〜(d)に示すように平坦になったり、点拡がり関数のピーク位置が図7(a)〜(d)や図8(a)〜(d)に示すように画像間で変化する。このため、座標変換パラメータHが精度よく算出されていたとしても、ピークが平坦、且つ、ピーク位置が異なる拡がり関数が繰り返し合成されることにより、合成画像の各点における点拡がり関数は図7(e)や図8(e)に示すように劣化する。これにより、従来の逐次成処理型の電子式手振れ補正方式によれば、合成画像にぼけが生じる。 Therefore, in the conventional sequential image processing type electronic image stabilization method, the peak shape of the point spread function at each point of the photographed image becomes flat as shown in FIGS. The peak position of the function changes between images as shown in FIGS. 7A to 7D and FIGS. 8A to 8D. For this reason, even if the coordinate conversion parameter H i is calculated with high accuracy, the point spread function at each point of the composite image is obtained by repeatedly combining the spread functions with different peaks and different peak positions. It deteriorates as shown in (e) and FIG. As a result, according to the conventional sequential processing type electronic camera shake correction method, the synthesized image is blurred.

本発明は、上記課題を解決するためになされたものであり、その目的は、高精細な合成画像を生成可能な撮像装置及びそのコンピュータプログラムを提供することにある。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus capable of generating a high-definition composite image and a computer program therefor.

本発明に係る撮像装置は、複数の撮影画像を連続的に撮像する撮像手段と、1枚目の撮影画像から特徴点を抽出し、2枚目以後の各撮影画像について、撮影画像中における特徴点の位置を追跡座標として抽出する特徴点抽出手段と、特徴点の座標と追跡座標の対応関係を利用して、2枚目以後の各撮影画像について、撮影画像を1枚目の撮影画像に重ね合わせるための座標変換パラメータを順次算出する座標変換パラメータ算出手段と、座標変換パラメータ算出手段により算出された座標変換パラメータを用いて2枚目以後の各撮影画像の座標変換を行い、座標変換された各撮影画像を1枚目の撮影画像に順次合成することにより、複数の撮影画像が合成された合成画像を生成する合成手段と、1枚目の撮影画像及び座標変換された各撮影画像ごとの点拡がり関数の値を加算することで、合成画像の点拡がり関数を演算する点拡がり関数演算手段と、点拡がり関数演算手段により演算された点拡がり関数を利用して合成手段により生成された合成画像を復元する復元手段とを備える。
また、合成手段は、座標変換パラメータを用いて変換された座標にまるめ処理を施し、まるめ処理が施された座標に座標変換された各撮影画像を1枚目の撮影画像に順次合成することにより、複数の撮影画像が合成された合成画像を生成することことが望ましい。
また、点拡がり関数演算手段は、まるめ処理が施された座標及び当該座標のまるめ誤差に応じて2枚目以後の各撮影画像の点拡がり関数を演算するすることが望ましい。
An imaging apparatus according to the present invention extracts an image capturing unit that continuously captures a plurality of captured images and feature points from the first captured image, and features in the captured images for each of the second and subsequent captured images. Using the feature point extracting means for extracting the position of the point as the tracking coordinate and the correspondence between the coordinate of the feature point and the tracking coordinate, the captured image is changed to the first captured image for each of the second and subsequent captured images. The coordinate conversion parameter calculation means for sequentially calculating the coordinate conversion parameters for superimposing, and the coordinate conversion parameters calculated by the coordinate conversion parameter calculation means are used to perform coordinate conversion of each of the second and subsequent captured images, and the coordinates are converted. was by sequentially synthesizing the first captured image of each captured image, and combining means for a plurality of captured images to generate a composite image combined, first photographed image and the coordinate transformed each captured image By adding the value of the point spread function of each, and the function calculating means point spread for calculating a point spread function of the combined image is generated by synthetic means using a point spread function calculated by the point spread function calculating means Restoring means for restoring the synthesized image.
The synthesizing unit performs rounding processing on the coordinate converted using the coordinate conversion parameter, and sequentially synthesizes each captured image coordinate-converted to the coordinate subjected to rounding processing with the first captured image. It is desirable to generate a composite image in which a plurality of captured images are combined.
In addition, it is desirable that the point spread function calculation means calculates a point spread function for each of the second and subsequent captured images according to the rounded coordinate and the rounding error of the coordinate.

本発明に係る撮像装置のコンピュータプログラムは、複数の撮影画像を連続的に撮像する撮像手段を備える撮像装置に内蔵されたコンピュータが実行する撮像装置のコンピュータプログラムであって、1枚目の撮影画像から特徴点を抽出し、2枚目以後の各撮影画像について、撮影画像中における特徴点の位置を追跡座標として抽出する処理と、特徴点の座標と追跡座標の対応関係を利用して、2枚目以後の各撮影画像について、撮影画像を1枚目の撮影画像に重ね合わせるための座標変換パラメータを順次算出する処理と、座標変換パラメータを用いて2枚目以後の各撮影画像の座標変換を行い、座標変換された各撮影画像を1枚目の撮影画像に順次合成することにより、複数の撮影画像が合成された合成画像を生成する処理と、1枚目の撮影画像及び座標変換された各撮影画像ごとの点拡がり関数の値を加算することで、合成画像の点拡がり関数を演算する処理と、点拡がり関数を利用して前記生成された合成画像を復元する処理とをコンピュータに実行させる。 A computer program for an imaging apparatus according to the present invention is a computer program for an imaging apparatus that is executed by a computer built in an imaging apparatus that includes an imaging unit that continuously captures a plurality of captured images. Using the process of extracting the feature points from the second image and extracting the positions of the feature points in the captured images as tracking coordinates for the second and subsequent captured images, and the correspondence between the coordinates of the feature points and the tracking coordinates, 2 For each captured image after the first image, processing for sequentially calculating coordinate conversion parameters for superimposing the captured image on the first captured image, and coordinate conversion of each captured image after the second image using the coordinate conversion parameters was carried out by sequentially synthesizing the photographed image coordinate transformation first shot image, and a processing in which a plurality of captured images to generate a composite image combined, the first sheet By adding the value of the point spread function for each photographed image shadow image and the coordinate transformation, a process of calculating the point spread function of the combined image, before using the point spread function Kisei made composite image And causing the computer to execute the process of restoring the file.

本発明に係る撮像装置及びそのコンピュータプログラムによれば、座標変換パラメータを利用して合成画像の点拡がり関数を演算し、演算された点拡がり関数を利用して合成画像を復元するので、点拡がり関数の劣化によって合成画像が劣化することを抑制し、高精細な合成画像を生成することができる。   According to the imaging apparatus and the computer program thereof according to the present invention, the point spread function of the composite image is calculated using the coordinate conversion parameter, and the composite image is restored using the calculated point spread function. It is possible to suppress the deterioration of the composite image due to the function deterioration and to generate a high-definition composite image.

本発明は、以下に示す復元処理によって、逐次合成処理型の電子式手振れ補正方式により生成された合成画像から高精細な合成画像を生成する。以下、この復元処理の概念について詳しく説明する。   According to the present invention, a high-definition composite image is generated from a composite image generated by an electronic camera shake correction method of a sequential composite processing type by the restoration process described below. Hereinafter, the concept of the restoration process will be described in detail.

〔復元処理〕
一般に、レンズ等の光学系による点拡がり関数はガウシアン関数に近似されることが多い。そこで光学系の点拡がり関数を分散標準偏差σのガウシアン関数に近似すると、光学系の点拡がり関数h(k,l)は以下の数式5のように表される。

Figure 0004930277
[Restore processing]
In general, a point spread function by an optical system such as a lens is often approximated by a Gaussian function. Therefore, when the point spread function of the optical system is approximated to a Gaussian function having a dispersion standard deviation σ, the point spread function h g (k, l) of the optical system is expressed as in the following Expression 5.
Figure 0004930277

またCCD等のイメージセンサは画素毎に到達した光を正方領域内で積分するので、イメージセンサの開口部の大きさを1とすると、イメージセンサ部での点拡がり関数h(k,l)は以下の数式6のように表される。従って入力画像Pの点拡がり関数g(k,l)は、光学系の点拡がり関数h(k,l)とイメージセンサ部での点拡がり関数h(k,l)の畳み込みとなるので、以下の数式7のように表される。

Figure 0004930277
Figure 0004930277
In addition, an image sensor such as a CCD integrates the light reaching each pixel in the square region. Therefore, when the size of the opening of the image sensor is 1, the point spread function h b (k, l) in the image sensor unit is obtained. Is expressed as Equation 6 below. Therefore, the point spread function g 1 (k, l) of the input image P 1 is a convolution of the point spread function h g (k, l) of the optical system and the point spread function h b (k, l) in the image sensor unit. Therefore, it is expressed as the following Expression 7.
Figure 0004930277
Figure 0004930277

次に、変換画像P’の画素値は、数式2を利用して画像変換前の入力画像Pの座標値を求め、その座標値の最近傍の画素値から求めるものとする。この時、座標変換パラメータHによって座標変換前の座標(x,y)が座標変換後の座標(x,y)に対応し、座標(x,y)が整数値(X,Y)にまるめられ、この時のまるめ誤差が(α,β)であるとすると以下の数式8,9に示す関係式が成り立つ。

Figure 0004930277
Figure 0004930277
Next, the pixel value of the converted image P i ′ is obtained from the coordinate value of the input image P i before image conversion using Equation 2 and the pixel value nearest to the coordinate value. At this time, the coordinate (x 2 , y 2 ) before the coordinate conversion corresponds to the coordinate (x 1 , y 1 ) after the coordinate conversion by the coordinate conversion parameter H i , and the coordinate (x 2 , y 2 ) is an integer value ( X 2 , Y 2 ), and assuming that the rounding error at this time is (α, β), the following relational expressions shown in Expressions 8 and 9 hold.
Figure 0004930277
Figure 0004930277

この場合、N枚の入力画像Pが合成された合成画像G(N)の点拡がり関数を図9(a),(b)を用いて説明する。 In this case, the point spread function of the synthesized image G (N) obtained by synthesizing the N input images P i will be described with reference to FIGS. 9A and 9B.

(1)まず、変換画像P’における点拡がり関数を考える。図9(a),(b)に示すように変換画像P’中の座標(x,y)に対応する入力画像Pの座標値は(x,y)である。 (1) First, consider a point spread function in the converted image P i ′. As shown in FIGS. 9A and 9B, the coordinate values of the input image P i corresponding to the coordinates (x 1 , y 1 ) in the converted image P i ′ are (x 2 , y 2 ).

(2)光学系の点拡がり関数は数式5で与えられるh(k,l)であるので、点光源が座標(x,y)にあるときの座標(X,Y)を中心とした光学系の点拡がり関数は数式8との関係から以下の数式10で与えられる。

Figure 0004930277
(2) Since the point spread function of the optical system is a h g given by Equation 5 (k, l), the coordinates (X 2, Y 2) when the point light source is in the coordinates (x 2, y 2) The point spread function of the optical system at the center is given by Equation 10 below in relation to Equation 8.
Figure 0004930277

(3)光学系の点拡がり関数h(k,l)は、狭い領域に限られるので、座標変換によってはその特性は変化しないと近似する。 (3) Since the point spread function h g (k, l) of the optical system is limited to a narrow region, it is approximated that its characteristics do not change depending on coordinate transformation.

(4)この結果、変換画像P’中の座標(x,y)における点拡がり関数g(k,l|(x,y))は、イメージセンサ部での点拡がり関数h(k,l)と数式10に示す光学系の点拡がり関数との畳み込みとなるので、以下の数式11により表される。

Figure 0004930277
(4) As a result, the point spread function g i (k, l | (x 1 , y 1 )) at the coordinates (x 1 , y 1 ) in the converted image P i ′ is the point spread function in the image sensor unit. Since h b (k, l) is convolved with the point spread function of the optical system shown in Expression 10, it is expressed by Expression 11 below.
Figure 0004930277

従って、合成画像G(N)は入力画像Pに2枚目以後の変換画像P’を加算することにより求められるので、合成画像G(N)の点拡がり関数h(k,l|(x,y))は以下の数12に示すように変換画像P’の点拡がり関数g(k,l|(x,y))の和によって表される。従って、合成画像の各点における点拡がり関数は劣化し、合成画像にぼけが生じる。

Figure 0004930277
Accordingly, since the composite image G (N) is obtained by adding the input image P 1 in the second sheet after the converted image P i ', the point spread function h (k synthesized image G (N), l | ( x 1 , y 1 )) is expressed by the sum of the point spread functions g i (k, l | (x 1 , y 1 )) of the converted image P i ′, as shown in the following Expression 12. Therefore, the point spread function at each point of the composite image is degraded, and the composite image is blurred.
Figure 0004930277

上述の通り、変換画像P’の点拡がり関数g(k,l|(x,y))が規定されていれば、光学系の収差や合成時の補間処理による劣化を考慮して、合成画像G(N)の各座標(x,y)における点拡がり関数h(k,l|(x,y))を算出できる。そこで本発明では、座標変換パラメータHの精度が高い場合、ウィーナフィルタ,一般逆フィルタ,射影フィルタ等の手法により、数式12に示す点拡がり関数h(k,l|(x,y))を用いて最終的な合成画像G(N)から高精細な合成画像を生成し、劣化した合成画像G(N)を復元する。 As described above, if the point spread function g i (k, l | (x 1 , y 1 )) of the converted image P i ′ is defined, the aberration of the optical system and the deterioration due to the interpolation processing at the time of synthesis are taken into consideration. Thus, the point spread function h (k, l | (x 1 , y 1 )) at each coordinate (x 1 , y 1 ) of the composite image G (N) can be calculated. Therefore, in the present invention, when the accuracy of the coordinate transformation parameter H i is high, the point spread function h (k, l | (x 1 , y 1 ) shown in Expression 12 is used by a technique such as a Wiener filter, a general inverse filter, or a projection filter. ) Is used to generate a high-definition composite image from the final composite image G (N) , and the deteriorated composite image G (N) is restored.

上述の復元処理では、座標変換パラメータHの精度が高いことを前提していたが、逐次合成処理型の電子式手振れ補正方式では、入力画像P毎に座標変換パラメータHを算出するために、一括合成処理型の電子式手振れ補正方式と比較して座標変換パラメータHの精度が低くなる。そして座標変換パラメータHの精度の精度が低い場合には、前述した画像復元を行っても最終的な合成画像G(N)にぼけが残ってしまう。そこで上述の復元処理を実行する際には、合成画像G(N)が得られた後であっても座標変換パラメータHを再演算し、再演算された座標変換パラメータHを利用して高精細な合成画像を復元することが望ましい。以下、再演算された座標変換パラメータHを利用した合成画像の復元方法について説明する。 In the above restoration processing, it is assumed that the accuracy of the coordinate conversion parameter H i is high. However, in the electronic camera shake correction method of the sequential synthesis processing type, the coordinate conversion parameter H i is calculated for each input image P i. In addition, the accuracy of the coordinate conversion parameter H i is lower than that of the batch synthesis processing type electronic camera shake correction method. And if less precise accuracy of the coordinate transformation parameter H i is leaves a blur in the final composite image G (N) also performs image reconstruction as described above. Therefore, when executing the above-described restoration processing, the coordinate transformation parameter H i is recalculated even after the composite image G (N) is obtained, and the recalculated coordinate transformation parameter H i is used. It is desirable to restore a high definition composite image. Hereinafter, restoration process of the re-calculated coordinate conversion parameter H i composite image using the described.

前述したように、座標変換パラメータHはi番目の入力画像Pと1枚目の入力画像Pとの複数の特徴点の対応付けから求めたものであった。全ての入力画像Pの合成が完了した時点においては、1枚目の入力画像Pから得られたM個の特徴点Fの座標と、(N−1)枚の入力画像それぞれの特徴点の対応座標Ti,k((N−1)×M個)のデータが得られている。そこでこの方法では、これらのデータの全ての対応を利用して高精度な座標変換パラメータH’を推定しなおす。なお座標変換パラメータH’の推定方法は文献(“カメラパラメータ推定による紙面を対象とした超解像ビデオモザイキング”,池谷彰彦,佐藤智和,池田聖,神原誠之,中島昇,横矢直和,電子情報通信学会論文誌(D-II),vol.J88-D-II,No.8,pp.1490-1498,Aug.2005.)に開示されている。 As described above, the coordinate conversion parameter H i is obtained from the association of a plurality of feature points between the i-th input image P i and the first input image P 1 . When the synthesis of all the input images P i is completed, the coordinates of the M feature points F k obtained from the first input image P 1 and the features of each of the (N−1) input images Data of corresponding coordinates T i, k ((N−1) × M pieces) of points is obtained. Therefore, in this method, the coordinate conversion parameter H i ′ with high accuracy is re-estimated using all correspondence of these data. The method of estimating the coordinate transformation parameter H i ′ is described in the literature (“Super-resolution video mosaicing for paper by camera parameter estimation”, Akihiko Ikeya, Tomokazu Sato, Kiyoshi Ikeda, Noriyuki Kanbara, Noboru Nakajima, Naokazu Yokoya, Electronics (Institute of Information and Communication Engineers (D-II), vol.J88-D-II, No.8, pp.1490-1498, Aug.2005.)

いま座標変換パラメータH’によって変換画像P’の座標(x,y)が入力画像Pの座標(x,y)に対応付けられるとすると、以下の数式13が成り立つ。

Figure 0004930277
Assuming that the coordinates (x 1 , y 1 ) of the converted image P i ′ are associated with the coordinates (x 3 , y 3 ) of the input image P i by the coordinate conversion parameter H i ′, the following Expression 13 is established.
Figure 0004930277

前述したように、画像合成では変換画像P’の座標(x,y)と入力画像Pの座標(X,Y)とが重なるように画像合成を行った。この時、図9(b)に示すように、本来重ねるべき座標(x,y)と座標(X,Y)との差分を(α’,β’)とすると以下の数式14に示す関係が成り立つ。この場合、合成画像G(N)の点拡がり関数は以下の(1)〜(4)に示す手順により求めることができる。

Figure 0004930277
As described above, in the image composition, the image composition is performed so that the coordinates (x 1 , y 1 ) of the converted image P i ′ and the coordinates (X 2 , Y 2 ) of the input image P i overlap. At this time, as shown in FIG. 9B, if the difference between the coordinates (x 3 , y 3 ) and the coordinates (X 2 , Y 2 ) that should be superimposed is (α ′, β ′), The relationship shown in is established. In this case, the point spread function of the composite image G (N) can be obtained by the procedures shown in the following (1) to (4).
Figure 0004930277

(1)光学系の点拡がり関数は数式5で与えられるh(k,l)であるので、点光源が座標(x,y)にあるときの座標(X,Y)を中心とした光学系の点拡がり関数は数式14との関係から以下の数式15で与えられる。

Figure 0004930277
(1) Since the point spread function of the optical system is h g (k, l) given by Equation 5, the coordinates (X 2 , Y 2 ) when the point light source is at the coordinates (x 3 , y 3 ) are The point spread function of the centered optical system is given by the following formula 15 in relation to the formula 14.
Figure 0004930277

(2)光学系の点拡がり関数h(k,l)は、狭い領域に限られるので、座標変換によってはその特性は変化しないと近似する。 (2) Since the point spread function h g (k, l) of the optical system is limited to a narrow region, it is approximated that its characteristics do not change depending on coordinate transformation.

(3)この結果、変換画像P’中の座標(x,y)における点拡がり関数g(k,l|(x,y))は、イメージセンサ部での点拡がり関数h(k,l)と数式15に示す光学系の点拡がり関数との畳み込みとなるので、以下の数式16により表される。

Figure 0004930277
(3) As a result, the point spread function g i (k, l | (x 1 , y 1 )) at the coordinates (x 1 , y 1 ) in the converted image P i ′ is the point spread function in the image sensor unit. Since h b (k, l) is convolved with the point spread function of the optical system shown in Expression 15, it is expressed by Expression 16 below.
Figure 0004930277

従って、座標変換パラメータH’を用いた場合、合成画像G(N)の点拡がり関数h(k,l|(x,y))は以下の数17に示すように表される。

Figure 0004930277
Therefore, when the coordinate transformation parameter H i ′ is used, the point spread function h (k, l | (x 1 , y 1 )) of the composite image G (N) is expressed as shown in the following Expression 17.
Figure 0004930277

合成画像G(N)の各座標における点拡がり関数h(k,l|(x,y))を算出する際には、上述の数式12や数式16に示す積分計算を行わなければならないが、この積分処理を以下に示すテーブル参照方式により行うようにしてもよい。このような処理によれば、合成画像G(N)の各座標における点拡がり関数h(k,l|(x,y))の算出処理を高速に行うことができる。 When calculating the point spread function h (k, l | (x 1 , y 1 )) at each coordinate of the composite image G (N), the integral calculation shown in the above-described Expression 12 and Expression 16 must be performed. However, this integration processing may be performed by the table reference method shown below. According to such processing, the calculation processing of the point spread function h (k, l | (x 1 , y 1 )) at each coordinate of the composite image G (N) can be performed at high speed.

いま数式12に対し下記の数式18に示すような座標変換を行うと、数式16は以下の数式19のように表される。

Figure 0004930277
Figure 0004930277
Now, when coordinate transformation as shown in Equation 18 below is performed on Equation 12, Equation 16 is expressed as Equation 19 below.
Figure 0004930277
Figure 0004930277

上記数式19は積分範囲を変数とする関数になる。またh(x,y)は偶関数であり、パラメータx,yの絶対値が共に2.5以上である場合には0に近似できるので、以下の数式20,21を考える。

Figure 0004930277
Figure 0004930277
Equation 19 is a function with the integration range as a variable. Further, h g (x, y) is an even function, and can be approximated to 0 when the absolute values of the parameters x and y are both 2.5 or more, so the following formulas 20 and 21 are considered.
Figure 0004930277
Figure 0004930277

パラメータA,Bを予め取り得る値の範囲内で量子化し、量子化されたパラメータA,Bに対応する関数HG(A,B)の値を算出し、パラメータA,Bを入力とする関数HG(A,B)のテーブルを予め作成しておく。このような処理によれば、合成画像G(N)の各座標における点拡がり関数h(k,l|(x,y))を算出する際、パラメータA,Bの値を算出し、パラメータA,Bに対応する関数HG(A,B)の値をテーブルから読み出すことにより、関数HG(A,B)の値を算出できるので、数式16に示す積分計算を実行する場合と比較して高速に点拡がり関数を算出できる。 A function HG that quantizes the parameters A and B within a range of values that can be taken in advance, calculates the value of the function HG (A, B) corresponding to the quantized parameters A and B, and inputs the parameters A and B A table of (A, B) is created in advance. According to such processing, when calculating the point spread function h (k, l | (x 1 , y 1 )) at each coordinate of the composite image G (N) , the values of the parameters A and B are calculated, Since the value of the function HG (A, B) can be calculated by reading the value of the function HG (A, B) corresponding to the parameters A, B from the table, it is compared with the case where the integral calculation shown in Equation 16 is executed. The point spread function can be calculated at high speed.

以下、上記復元処理により合成画像G(N)から高精細な合成画像を復元する本発明の一実施形態となるデジタルスチルカメラの構成について詳しく説明する。 Hereinafter, the configuration of a digital still camera according to an embodiment of the present invention that restores a high-definition synthesized image from the synthesized image G (N) by the restoration process will be described in detail.

〔全体構成〕
始めに、図1(a),(b)を参照して、本発明の一実施形態となるデジタルスチルカメラ1の全体構成について説明する。
〔overall structure〕
First, an overall configuration of a digital still camera 1 according to an embodiment of the present invention will be described with reference to FIGS. 1 (a) and 1 (b).

本発明の一実施形態となるデジタルスチルカメラ1は、図1(a)に示すように、略矩形形状の薄板状本体(以下、本体と略記)2の前面に撮影レンズ3,セルフタイマランプ4,ファインダ窓5,ストロボ発光部6,及びマイクロホン部7を備える。本体2上面の(使用者にとって)右端側には電源キー8及びシャッタキー9が設けられている。撮影レンズ3は、焦点距離を無段階に変化させるズーム機能及びAF(AutoFocus)機能を有し、電源オフ時及び再生モード時は本体2内部に沈胴する。電源キー8は電源のオン/オフ毎に操作するキーであり、シャッタキー9は撮影モード時に撮影タイミングを指示する。   As shown in FIG. 1A, a digital still camera 1 according to an embodiment of the present invention includes a photographing lens 3 and a self-timer lamp 4 on the front surface of a substantially rectangular thin plate body (hereinafter abbreviated as a body). , Finder window 5, strobe light emitting unit 6, and microphone unit 7. A power key 8 and a shutter key 9 are provided on the right end side (for the user) of the upper surface of the main body 2. The taking lens 3 has a zoom function and an AF (AutoFocus) function for steplessly changing the focal length, and retracts inside the main body 2 when the power is off and in the reproduction mode. The power key 8 is a key that is operated every time the power is turned on / off, and the shutter key 9 instructs the photographing timing in the photographing mode.

本体2の背面には、図1(b)に示すように、撮影モード(R)キー10,再生モード(P)キー11,電子ビューファインダ(EVF)12,スピーカ部13,マクロキー14,ストロボキー15,メニュー(MENU)キー16,リングキー17,セット(SET)キー18,及び液晶表示部19が設けられている。撮影モードキー10は、電源オフの状態から操作することで自動的に電源オンとして静止画の撮影モードに移行する一方、電源オンの状態から繰返し操作することで静止画と動画の撮影モードを循環的に設定する。本実施形態では、静止画の撮影モードには、所定の露光時間で通常の撮影動作を行う一枚撮影モードと、一枚撮影モードよりも短い露光時間で被写体を連続的に撮影し、複数の画像フレームを合成して一枚の画像を生成する連写撮影モードとが含まれる。   As shown in FIG. 1B, on the back of the main body 2, a shooting mode (R) key 10, a playback mode (P) key 11, an electronic viewfinder (EVF) 12, a speaker unit 13, a macro key 14, a strobe A key 15, a menu (MENU) key 16, a ring key 17, a set (SET) key 18, and a liquid crystal display unit 19 are provided. The shooting mode key 10 is automatically turned on by operating from a power-off state to shift to a still image shooting mode, while being repeatedly operated from the power-on state to circulate through still image and moving image shooting modes. To set. In this embodiment, the still image shooting mode includes a single shooting mode in which a normal shooting operation is performed with a predetermined exposure time, and a subject is continuously shot with an exposure time shorter than that in the single shooting mode. A continuous shooting mode in which image frames are combined to generate a single image.

再生モードキー11は、電源オフの状態から操作することで自動的に電源オンとして再生モードに移行する。EVF12は、液晶画面を使用した接眼型のファインダであり、撮影モード時にはスルー画像を液晶画面に表示する一方、再生モード時には選択された画像等を再生表示する。マクロキー14は、静止画の撮影モードで通常撮影とマクロ撮影とを切換える際に操作する。ストロボキー15は、ストロボ発光部6の発光モードを切り換える際に操作する。メニューキー16は、各種メニュー項目等を選択する際に操作する。リングキー17は、上下左右各方向への項目選択用のキーが一体に形成されたものであり、このリングキー17の中央に位置するセットキー18は、その時点で選択されている項目を設定する際に操作する。   When the playback mode key 11 is operated from the power-off state, the playback mode key 11 is automatically turned on to enter the playback mode. The EVF 12 is an eyepiece type finder that uses a liquid crystal screen, and displays a through image on the liquid crystal screen in the photographing mode, and reproduces and displays a selected image and the like in the reproduction mode. The macro key 14 is operated when switching between normal shooting and macro shooting in the still image shooting mode. The strobe key 15 is operated when switching the light emission mode of the strobe light emitting unit 6. The menu key 16 is operated when selecting various menu items. The ring key 17 is integrally formed with item selection keys in the up, down, left, and right directions, and the set key 18 located in the center of the ring key 17 sets the item selected at that time. To operate.

液晶表示部19は、バックライト付きのカラー液晶パネルで構成されるもので、撮影モード時にはスルー画像のモニタ表示を行う一方、再生モード時には選択した画像等を再生表示する。図示しないが、デジタルスチルカメラ1の底面には、記録媒体として用いられるメモリカードを着脱するためのメモリカードスロットや、外部のパーソナルコンピュータ等と接続するためのシリアルインタフェースコネクタとしてUSB(Universal Serial Bus)コネクタ等が設けられている。   The liquid crystal display unit 19 is composed of a color liquid crystal panel with a backlight, and displays a through image on the monitor in the photographing mode, and reproduces and displays the selected image and the like in the reproduction mode. Although not shown, a USB (Universal Serial Bus) is provided on the bottom surface of the digital still camera 1 as a memory card slot for attaching / detaching a memory card used as a recording medium or a serial interface connector for connecting to an external personal computer or the like. Connectors etc. are provided.

〔撮像系及び制御系の構成〕
次に、図2,図3を参照して、本発明の一実施形態となるデジタルスチルカメラ1の撮像系及び制御系の構成について説明する。
[Configuration of imaging system and control system]
Next, with reference to FIGS. 2 and 3, the configuration of the imaging system and the control system of the digital still camera 1 according to an embodiment of the present invention will be described.

本発明の一実施形態となるデジタルスチルカメラ1では、撮影モードの際、モータ(M)31の駆動により合焦位置や絞り位置が移動される、撮影レンズ3を構成するレンズ光学系32の撮影光軸後方に配置された撮像素子であるCCD33が、タイミング発生器(TG)34と垂直ドライバ35によって走査駆動され、一定周期毎に結像した光像に対応する光電変換出力を1画面分出力する。この光電変換出力は、アナログ形態の信号の状態でRGBの各原色成分毎に適宜ゲイン調整された後にサンプルホールド回路(S/H)36でサンプルホールドされ、A/D変換器37でデジタルデータに変換され、カラープロセス回路38で画素補間処理及びγ補正処理を含むカラープロセス処理が行なわれてデジタル値の輝度信号Y及び色差信号Cb,Crが生成され、DMA(Direct Memory Access)コントローラ39に出力される。   In the digital still camera 1 according to an embodiment of the present invention, the photographing of the lens optical system 32 constituting the photographing lens 3 whose focus position and aperture position are moved by driving the motor (M) 31 in the photographing mode. A CCD 33, which is an image sensor disposed behind the optical axis, is scanned and driven by a timing generator (TG) 34 and a vertical driver 35, and outputs a photoelectric conversion output corresponding to an optical image formed at fixed intervals for one screen. To do. This photoelectric conversion output is appropriately gain-adjusted for each primary color component of RGB in the state of an analog signal and then sampled and held by a sample hold circuit (S / H) 36 and converted into digital data by an A / D converter 37. After being converted, the color process circuit 38 performs color process processing including pixel interpolation processing and γ correction processing to generate digital luminance signals Y and color difference signals Cb and Cr, which are output to a DMA (Direct Memory Access) controller 39. Is done.

DMAコントローラ39は、カラープロセス回路38が出力する輝度信号Y及び色差信号Cb,Crを、同じくカラープロセス回路38からの複合同期信号,メモリ書込みイネーブル信号,及びクロック信号を用いて一度DMAコントローラ39内部のバッファに書込み、DRAMインタフェース(I/F)40を介してバッファメモリとして使用されるDRAM41にDMA転送する。制御部42は、CPU,CPUで実行されるコンピュータプログラムを固定的に記憶したROM,及びワークメモリとして使用されるRAM等により構成され、デジタルスチルカメラ1全体の動作を制御する。   The DMA controller 39 once uses the luminance signal Y and the color difference signals Cb, Cr output from the color process circuit 38 by using the composite synchronization signal, memory write enable signal, and clock signal from the color process circuit 38 once. Is transferred to the DRAM 41 and used as a buffer memory via the DRAM interface (I / F) 40. The control unit 42 is configured by a CPU, a ROM in which a computer program executed by the CPU is fixedly stored, a RAM used as a work memory, and the like, and controls the operation of the entire digital still camera 1.

制御部42は、DRAM41への輝度及び色差信号のDMA転送終了後に、この輝度及び色差信号をDRAMインタフェース40を介してDRAM41より読出し、VRAMコントローラ43を介してVRAM44に書込む。デジタルビデオエンコーダ45は、上記輝度及び色差信号をVRAMコントローラ43を介してVRAM44より定期的に読出し、これらのデータを元にビデオ信号を発生してEVF12と液晶表示部19に出力する。EVF12と液晶表示部19は、デジタルビデオエンコーダ45からのビデオ信号に基づいた表示を行なうことで、その時点でVRAMコントローラ43から取込んでいる画像情報に基づく画像をリアルタイムに表示する。   After the DMA transfer of the luminance and color difference signals to the DRAM 41 is completed, the control unit 42 reads the luminance and color difference signals from the DRAM 41 via the DRAM interface 40 and writes them into the VRAM 44 via the VRAM controller 43. The digital video encoder 45 periodically reads the luminance and color difference signals from the VRAM 44 via the VRAM controller 43, generates a video signal based on these data, and outputs the video signal to the EVF 12 and the liquid crystal display unit 19. The EVF 12 and the liquid crystal display unit 19 display based on the video signal from the digital video encoder 45, thereby displaying an image based on the image information fetched from the VRAM controller 43 at that time in real time.

このようにEVF12と液晶表示部19にはその時点での画像がモニタ画像としてリアルタイムに表示される、所謂スルー画像の表示状態で、静止画撮影を行ないたいタイミングでシャッタキー9を操作するとトリガ信号を発生する。制御部42は、このトリガ信号に応じてその時点でCCD33から取込んでいる1画面分の輝度及び色差信号のDRAM41へのDMA転送を取り止め、改めて適正な露出条件に従った絞り値及びシャッタ速度でCCD33を駆動して1画面分の輝度及び色差信号を得てDRAM41へ転送し、その後にこの経路を停止し、記録保存の状態に遷移する。   As described above, the EVF 12 and the liquid crystal display unit 19 display the image at that time in real time as a monitor image. In the so-called through image display state, when the shutter key 9 is operated at the timing at which still image shooting is desired, the trigger signal is displayed. Is generated. In response to this trigger signal, the control unit 42 cancels the DMA transfer of the luminance and color difference signals for one screen currently taken in from the CCD 33 to the DRAM 41, and again determines the aperture value and shutter speed according to the appropriate exposure conditions. Then, the CCD 33 is driven to obtain the luminance and color difference signals for one screen and transfer them to the DRAM 41. Thereafter, this path is stopped, and the recording and storage state is entered.

この記録保存の状態では、制御部42がDRAM41に書込まれている輝度及び色差信号をDRAMインタフェース40を介してY,Cb,Crの各コンポーネント毎に読出して画像処理部47に書込み、この画像処理部47でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換),エントロピ符号化方式であるハフマン符号化等の処理によりデータ圧縮する。そして、得た符号データを画像処理部47から読出し、デジタルスチルカメラ1の記録媒体として着脱自在に装着されるメモリカード48又はデジタルスチルカメラ1に固定的に内蔵される内蔵メモリ(図示せず)のいずれか一方に書込む。そして、輝度及び色差信号の圧縮処理及びメモリカード48又は内蔵メモリへの全圧縮データの書込み終了に伴なって、制御部42はCCD33からDRAM41への経路を再び起動する。   In this recording and storage state, the control unit 42 reads out the luminance and color difference signals written in the DRAM 41 for each of the Y, Cb, and Cr components via the DRAM interface 40 and writes them in the image processing unit 47. The processing unit 47 compresses data by processing such as ADCT (Adaptive Discrete Cosine Transform) and Huffman coding which is an entropy coding method. Then, the obtained code data is read from the image processing unit 47, and a memory card 48 that is detachably mounted as a recording medium of the digital still camera 1 or a built-in memory that is fixedly built in the digital still camera 1 (not shown). Write on either Then, along with the compression processing of the luminance and color difference signals and the completion of writing all the compressed data to the memory card 48 or the built-in memory, the control unit 42 activates the path from the CCD 33 to the DRAM 41 again.

制御部42には、キー入力部49,音声処理部50、及びストロボ駆動部51が接続される。キー入力部49は、上述した電源キー8,シャッタキー9,撮影モードキー10,再生モードキー11,マクロキー14,ストロボキー15,メニューキー16,リングキー17,セットキー18等から構成され、それらのキー操作に伴なう信号は直接制御部42へ送出される。音声処理部50は、PCM音源等の音源回路を備え、音声の録音時にはマイクロホン部7より入力された音声信号をデジタル化し、所定のデータファイル形式、例えばMP3(MPEG-1 audio layer 3)規格にしたがってデータ圧縮して音声データファイルを作成してメモリカード48又は内蔵メモリへ送出する一方、音声の再生時にはメモリカード48又は内蔵メモリから送られてきた音声データファイルの圧縮を解いてアナログ化し、スピーカ部(SP)13を駆動して、拡声放音させる。ストロボ駆動部51は、静止画像撮影時に図示しないストロボ用の大容量コンデンサを充電した上で、制御部42からの制御に基づいてストロボ発光部6を閃光駆動する。   A key input unit 49, an audio processing unit 50, and a strobe driving unit 51 are connected to the control unit 42. The key input unit 49 includes the power key 8, shutter key 9, shooting mode key 10, playback mode key 11, macro key 14, strobe key 15, menu key 16, ring key 17, set key 18 and the like described above. Signals accompanying these key operations are sent directly to the control unit 42. The audio processing unit 50 includes a sound source circuit such as a PCM sound source, and digitizes the audio signal input from the microphone unit 7 at the time of audio recording, and uses a predetermined data file format, for example, MP3 (MPEG-1 audio layer 3) standard Therefore, the audio data file is created by compressing the data and sent to the memory card 48 or the built-in memory, while the audio data file sent from the memory card 48 or the built-in memory is uncompressed and converted into an analog signal when reproducing the sound The unit (SP) 13 is driven to emit loud sounds. The strobe driving unit 51 charges a strobe capacitor (not shown) during still image shooting, and then drives the strobe light emitting unit 6 to flash based on the control from the control unit 42.

内蔵メモリ60は、図3に示すように、後述する連写合成撮影処理の際に入力画像Pが順次記憶される入力画像用メモリ領域61と、連写合成撮影処理により合成された合成画像G(i)が記憶される合成画像用メモリ領域62と、連写合成撮影処理により抽出されたM個の特徴点Fの位置情報,M個の特徴点F近傍の画像(テンプレート)情報,M×(N−1)個の特徴点の追跡座標Ti,k,及び入力画像P毎の(N−1)個の座標変換パラメータHが記憶される情報記憶用メモリ領域63と、作業用メモリ領域64とを備える。 As shown in FIG. 3, the built-in memory 60 includes an input image memory area 61 in which input images Pi are sequentially stored in a later-described continuous shooting composite shooting process, and a composite image combined by the continuous shooting composite shooting process. G (i) is stored in a composite image memory area 62, position information of M feature points F k extracted by continuous shooting composite shooting processing, and image (template) information in the vicinity of M feature points F k. , M × (N-1) tracking the coordinates T i of feature points, k, and the input image P i for each of the (N-1) pieces of information storage memory area 63 by the coordinate transformation parameter H i are stored And a working memory area 64.

〔連写合成撮影処理〕
このような構成を有するデジタルスチルカメラ1は、以下に示す撮影処理を実行することにより合成画像を生成する。以下、図4に示すフローチャートを参照して、この撮影処理を実行する際の制御部42の動作について説明する。
[Continuous shooting composite processing]
The digital still camera 1 having such a configuration generates a composite image by executing the following photographing process. Hereinafter, with reference to the flowchart shown in FIG. 4, the operation of the control unit 42 when executing this photographing process will be described.

図4に示すフローチャートは、デジタルスチルカメラ1の動作モードが静止画の撮影モードに切り替わったタイミングで開始となり、撮影処理はステップS1の処理に進む。なお以下に示すデジタルスチルカメラ1の動作は、制御部42内のCPUがROMに記憶されているコンピュータプログラムをRAMにロードし、RAMにロードされたコンピュータプログラムを実行することにより実現される。   The flowchart shown in FIG. 4 starts at the timing when the operation mode of the digital still camera 1 is switched to the still image shooting mode, and the shooting process proceeds to step S1. The following operation of the digital still camera 1 is realized by the CPU in the control unit 42 loading a computer program stored in the ROM into the RAM and executing the computer program loaded in the RAM.

ステップS1の処理では、制御部42が、撮像系及び制御系を初期状態に設定することにより、撮影処理に関係するシステムの初期化を行う。これにより、ステップS1の処理は完了し、撮影処理はステップS2の処理に進む。   In the process of step S1, the control unit 42 initializes the system related to the imaging process by setting the imaging system and the control system to the initial state. Thereby, the process of step S1 is completed, and the photographing process proceeds to the process of step S2.

ステップS2の処理では、制御部42が、撮影画像の撮影枚数を計数するためのカウンタiの値を“0”に初期化する。これにより、ステップS2の処理は完了し、撮影処理はステップS3の処理に進む。   In the process of step S2, the control unit 42 initializes the value of the counter i for counting the number of captured images to “0”. Thereby, the process of step S2 is completed, and the photographing process proceeds to the process of step S3.

ステップS3の処理では、制御部42が、シャッタキー9が押下されているか否かを判別する。シャッタキー9が押下されていると判別した場合、制御部42は撮影処理をステップS4の処理に進める。一方、シャッタキー9が押下されていないと判別した場合には、制御部42は撮影処理をステップS8の処理に進める。   In the process of step S3, the control unit 42 determines whether or not the shutter key 9 is pressed. If it is determined that the shutter key 9 is pressed, the control unit 42 advances the shooting process to the process of step S4. On the other hand, if it is determined that the shutter key 9 has not been pressed, the control unit 42 advances the shooting process to the process of step S8.

ステップS4の処理では、制御部42が、撮影画像の撮影枚数を計数するためのカウンタiの値を1増数する。これにより、ステップS4の処理は完了し、撮影処理はステップS5の処理に進む。   In the process of step S4, the control unit 42 increments the value of the counter i for counting the number of captured images. Thereby, the process of step S4 is completed, and the photographing process proceeds to the process of step S5.

ステップS5の処理では、制御部42が、撮影画像を撮像し、撮影画像のデータを入力画像用メモリ領域61内に記憶する。なお以下の説明では、入力画像用メモリ領域61内に記憶されたi枚目の撮影画像を入力画像Pと表記する。また入力画像Pを入力画像用メモリ領域61に記憶する際、制御部42は入力画像Pの記憶領域にその時のカウンタiの値をインデックス番号として付与する。これにより、ステップS5の処理は完了し、撮影処理はステップS6の処理に進む。 In the process of step S <b> 5, the control unit 42 captures a captured image and stores the captured image data in the input image memory area 61. In the following description, referred to as input image P i a i-th captured image stored in the input image memory area 61. Also when storing the input image memory area 61 the input image P i, the control unit 42 imparts the value of the counter i at that time in the storage area of the input image P i as an index number. Thereby, the process of step S5 is completed, and the photographing process proceeds to the process of step S6.

ステップS6の処理では、制御部42が、入力画像Pが記憶されている入力画像用メモリ領域61のアドレス値とそのインデックス番号iを引数とする画像合成命令を画像処理部47に出力し、画像処理部47は、画像合成命令を受けて画像合成処理を実行する。なお画像合成処理の詳細については図5に示すフローチャートを参照して後述する。これにより、ステップS6の処理は完了し、撮影処理はステップS7の処理に進む。 In the process of step S6, the control unit 42 outputs an image composition instruction using the address value of the input image memory area 61 in which the input image P i is stored and the index number i as an argument to the image processing unit 47, The image processing unit 47 receives the image composition command and executes image composition processing. Details of the image composition processing will be described later with reference to a flowchart shown in FIG. Thereby, the process of step S6 is completed, and the photographing process proceeds to the process of step S7.

ステップS7の処理では、制御部42が、撮影画像の撮影枚数を計数するためのカウンタiの値が規定値(本実施形態では“16”)であるか否かを判別する。カウンタiの値が規定値でない場合、制御部42は、合成画像を生成するために必要な規定枚数の撮影画像が撮像されていないと判断し、撮影処理をステップS3の処理に戻す。一方、カウンタiの値が規定値である場合には、制御部42は、合成画像を生成するために必要な規定枚数の撮影画像が撮像されたと判断し、撮影処理をステップS9の処理に進める。   In the process of step S7, the control unit 42 determines whether or not the value of the counter i for counting the number of captured images is a specified value (“16” in the present embodiment). When the value of the counter i is not the specified value, the control unit 42 determines that the specified number of captured images necessary for generating the composite image has not been captured, and returns the imaging process to the process of step S3. On the other hand, when the value of the counter i is a specified value, the control unit 42 determines that the specified number of captured images necessary for generating the composite image has been captured, and advances the imaging process to the process of step S9. .

ステップS8の処理では、制御部42が、撮影画像の撮影枚数を計数するためのカウンタiの値が0であるか否かを判定する。カウンタiの値が0である場合、制御部42は撮影処理をステップS3の処理に戻す。カウンタiの値が0でない場合には、制御部42は撮影処理をステップS9の処理に進める。   In the process of step S8, the control unit 42 determines whether or not the value of the counter i for counting the number of captured images is 0. When the value of the counter i is 0, the control unit 42 returns the photographing process to the process of step S3. If the value of the counter i is not 0, the control unit 42 advances the shooting process to the process of step S9.

ステップS9の処理では、画像処理部47が、情報記憶用メモリ領域63から入力画像Pの特徴点Fの座標(x,y)に対応する追跡座標Ti,kのデータを読み出し、特徴点Fの座標(x,y)と追跡座標Ti,kの対応関係を利用して高精度な座標変換パラメータH’を推定する。なお座標変換パラメータH’の推定方法は既述の通りであるので説明を省略する。画像復元性能よりも一連の合成処理時間を短縮したい場合には、この処理を省略し、ステップS6で求めた座標変換パラメータHを高精度な座標変換パラメータH’の代わりに用いてもよい。その場合でも以下の処理にて画像劣化の復元効果が得られる。これにより、ステップS9の処理は完了し、撮影処理はステップS10の処理に進む。 In the process of step S9, the image processing unit 47 reads the data of the tracking coordinates T i, k corresponding to the coordinates (x 1 , y 1 ) of the feature point F k of the input image P 1 from the information storage memory area 63. Then, a highly accurate coordinate transformation parameter H i ′ is estimated using the correspondence relationship between the coordinates (x 1 , y 1 ) of the feature point F k and the tracking coordinates T i, k . Note that the method for estimating the coordinate transformation parameter H i ′ is as described above, and thus the description thereof is omitted. When it is desired to shorten the series of synthesis processing time rather than the image restoration performance, this processing may be omitted, and the coordinate transformation parameter H i obtained in step S6 may be used instead of the high-precision coordinate transformation parameter H i ′. . Even in such a case, the image degradation restoration effect can be obtained by the following processing. Thereby, the process of step S9 is completed, and the photographing process proceeds to the process of step S10.

ステップS10の処理では、画像処理部47が、ステップS9の処理により算出された座標変換パラメータH’(2≦i≦N)と情報記憶用メモリ領域63に記憶されている座標変換パラメータHから合成画像G(N)の点拡がり関数h(k,l|(x,y))を算出する。なおPSFの算出方法については図10に示すフローチャートを参照して後述する。これにより、ステップS10の処理は完了し、撮影処理はステップS11の処理に進む。 In the process of step S10, the image processing unit 47, the calculated coordinate conversion by the processing of step S9 parameter H i '(2 ≦ i ≦ N) and the coordinates stored in the information storage memory area 63 conversion parameter H i From this, the point spread function h (k, l | (x 1 , y 1 )) of the composite image G (N ) is calculated. The PSF calculation method will be described later with reference to the flowchart shown in FIG. Thereby, the process of step S10 is completed, and the imaging process proceeds to the process of step S11.

ステップS11の処理では、画像処理部47が、ウィーナフィルタ,一般逆フィルタ,射影フィルタ等の手法を用いて、ステップS10の処理により算出された合成画像G(N)の点拡がり関数h(k,l|(x,y))を利用して合成画像G(N)から劣化のない高精細な復元画像を生成する。これにより、ステップS11の処理は完了し、撮影処理はステップS12の処理に進む。 In the process of step S11, the image processing unit 47 uses a technique such as a Wiener filter, a general inverse filter, or a projection filter, and the point spread function h (k, K ) of the composite image G (N) calculated by the process of step S10. l | (x 1 , y 1 )) is used to generate a high-definition restored image without deterioration from the synthesized image G (N) . Thereby, the process of step S11 is completed, and the imaging process proceeds to the process of step S12.

ステップS12の処理では、画像処理部47が、ステップS11の処理により生成された合成画像に対しホワイトバランス調整や輝度γ補正等の現像処理を施す。これにより、ステップS12の処理は完了し、撮影処理はステップS13の処理に進む。   In step S12, the image processing unit 47 performs development processing such as white balance adjustment and luminance γ correction on the composite image generated by the processing in step S11. Thereby, the process of step S12 is completed, and the imaging process proceeds to the process of step S13.

ステップS13の処理では、画像処理部47が、ステップS12の処理後の合成画像をJPEG形式に圧縮する。これにより、ステップS13の処理は完了し、撮影処理はステップS14の処理に進む。   In the process of step S13, the image processing unit 47 compresses the composite image after the process of step S12 into the JPEG format. Thereby, the process of step S13 is completed, and the imaging process proceeds to the process of step S14.

ステップS14の処理では、画像処理部47が、ステップS13の処理後の合成画像のデータを合成画像用メモリ領域62に記憶する。これにより、ステップS14の処理は完了し、撮影処理はステップS15の処理に進む。   In the process of step S <b> 14, the image processing unit 47 stores the composite image data after the process of step S <b> 13 in the composite image memory area 62. Thereby, the process of step S14 is completed, and the imaging process proceeds to the process of step S15.

ステップS15の処理では、制御部42が、シャッタキー9が押下されているか否かを判別する。そして制御部42は、シャッタキー9が押下されなくなったタイミングで撮影処理をステップS3の処理に戻す。   In the process of step S15, the control unit 42 determines whether or not the shutter key 9 is pressed. Then, the control unit 42 returns the photographing process to the process of step S3 at the timing when the shutter key 9 is no longer pressed.

〔合成処理〕
次に、図5に示すフローチャートを参照して、上記ステップS6の合成画像生成処理について詳しく説明する。
(Composition process)
Next, the composite image generation process in step S6 will be described in detail with reference to the flowchart shown in FIG.

図5に示すフローチャートは、上記ステップS5の処理が完了したタイミングで開始となり、合成画像生成処理はステップS21の処理に進む。   The flowchart shown in FIG. 5 starts at the timing when the process of step S5 is completed, and the composite image generation process proceeds to the process of step S21.

ステップS21の処理では、画像処理部47が、画像合成命令の引数であるインデックス番号iの値が1であるか否かを判別する。インデックス番号iの値が1である場合、画像処理部47は合成処理をステップS22の処理に進める。一方、インデックス番号iの値が1でない場合には、画像処理部47は合成処理をステップS25の処理に進める。   In the process of step S21, the image processing unit 47 determines whether or not the value of the index number i that is an argument of the image composition instruction is 1. If the value of the index number i is 1, the image processing unit 47 advances the composition process to step S22. On the other hand, if the value of the index number i is not 1, the image processing unit 47 advances the composition process to the process of step S25.

ステップS22の処理では、画像処理部47が、画像合成命令の引数である入力画像用メモリ領域61のアドレス値を参照して、1枚目の撮影画像Pのデータを入力画像メモリ領域61から作業メモリ領域64内に読み出し、KLT法により1枚目の撮影画像PからM個の特徴点F(1≦k≦M)を抽出する。そして画像処理部47は、抽出されたM個の特徴点Fの位置座標を情報記憶用メモリ領域63内に記憶する。なお特徴点Fの個数Mは50以上であることが望ましい。これにより、ステップS22の処理は完了し、合成処理はステップS23の処理に進む。 In the process of step S22, the image processing unit 47 refers to the address value of the input image memory area 61 that is an argument of the image compositing command, and transfers the data of the first photographed image P1 from the input image memory area 61. The data is read into the work memory area 64, and M feature points F k (1 ≦ k ≦ M) are extracted from the first photographed image P 1 by the KLT method. The image processing unit 47 stores the position coordinates of the extracted M feature points F k in the information storage memory area 63. Note the number M of the feature point F k is preferably 50 or more. Thereby, the process of step S22 is completed, and the composition process proceeds to the process of step S23.

ステップS23の処理では、画像処理部47が、各特徴点Fについて、特徴点Fを中心点とするL×Lの大きさの画像を1枚目の撮影画像Pから切り出し、切り出された画像のデータをテンプレート(特徴点近傍画像R)として情報記憶用メモリ領域63内に記憶する。これにより、ステップS23の処理は完了し、合成処理はステップS24の処理に進む。 In the process of step S23, the image processing unit 47, for each feature point F k, cut out size image of the L × L centered point feature point F k from the first captured image P 1, cut The stored image data is stored in the information storage memory area 63 as a template (feature point neighboring image R k ). Thereby, the process of step S23 is completed, and the synthesis process proceeds to the process of step S24.

ステップS24の処理では、画像処理部47が、1枚目の撮影画像Pを1枚目の合成画像G(1)に設定し、合成画像G(1)のデータを合成画像用メモリ領域62に記憶する。なお入力画像Pの1画素あたりのビット数は、CCD33の解像度となり、一般には8〜12ビットである。一方、合成画像G(i)のビット数は、複数枚の撮影画像を合成することにより生成されるので、8〜12ビットより多くなる。従って、合成画像G(i)のデータを合成画像用メモリ領域62にコピーする際は、ビット数を減らしながらコピーすることが望ましい。これにより、ステップS24の処理は完了し、一連の合成処理は終了する。 In the process of step S24, the image processing unit 47 sets the first photographed image P1 as the first composite image G (1) , and the composite image G (1) data is stored in the composite image memory area 62. To remember. Note the number of bits per pixel of the input image P i becomes a resolution of the CCD 33, typically 8 to 12 bits. On the other hand, the number of bits of the composite image G (i) is greater than 8 to 12 bits because it is generated by combining a plurality of captured images. Therefore, when copying the composite image G (i) data to the composite image memory area 62, it is desirable to copy while reducing the number of bits. Thereby, the process of step S24 is completed and a series of composition processes are completed.

ステップS25の処理では、画像処理部47が、各特徴点Fの位置座標とテンプレートの情報を情報記憶用メモリ領域63から読み出し、各特徴点Fについて、特徴点Fを中心とした所定の探索範囲内の各点におけるテンプレートとの類似度を算出する。そして画像処理部47は、類似度が最も高い点の座標を撮影画像Pにおける特徴点Fの座標(追跡座標)Ti,kとし、追跡座標Ti,kの情報を情報記憶用メモリ領域63に記憶する。これにより、ステップS25の処理は完了し、合成処理はステップS26の処理に進む。 In the process at step S25, the image processing unit 47 reads the information of the position coordinates and the template of each feature point F k from the information storage memory area 63, for each feature point F k, around the feature point F k given The similarity with the template at each point in the search range is calculated. The image processing unit 47, and the coordinates of the highest similarity point coordinates of the feature point F k in the captured image P i (trace coordinates) T i, and k, tracking coordinates T i, the memory information of the information storing k Store in area 63. Thereby, the process of step S25 is completed, and the composition process proceeds to the process of step S26.

ステップS26の処理では、画像処理部47が、M個の特徴点Fの座標とそれぞれの追跡座標Ti,kの対応関係から座標変換パラメータHを算出し、算出された座標変換パラメータHを情報記憶用メモリ領域63に記憶する。なおこの対応関係には、誤ったものが含まれている可能性があるので、RANSACによって誤った対応関係を外しながら座標変換パラメータHを算出する。これにより、ステップS26の処理は完了し、合成処理はステップS27の処理に進む。 In step S26, the image processing unit 47 calculates the coordinate conversion parameter H i from the correspondence between the coordinates of the M feature points F k and the respective tracking coordinates T i, k , and the calculated coordinate conversion parameter H i is stored in the memory area 63 for information storage. Since there is a possibility that this correspondence relationship is erroneous, the coordinate conversion parameter H i is calculated while removing the erroneous correspondence relationship by RANSAC. Thereby, the process of step S26 is completed, and the composition process proceeds to the process of step S27.

ステップS27の処理では、画像処理部47が、ステップS26の処理により算出された座標変換パラメータHを利用して撮影画像Pを1枚目の撮影画像Pに座標変換して変換画像(位置補正画像)P’を生成する。そして画像処理部47は、変換画像P’の座標値(x,y)を数式2に順番に代入し、入力画像Pの座標(x,y)における画素値P(x,y)を読み出すことにより、変換画像P’の各画素P’(x,y)の値を算出する。 In the process of step S27, the image processing unit 47 uses the coordinate conversion parameter H i calculated by the process of step S26 to perform coordinate conversion of the captured image P i into the first captured image P 1 and convert the image ( A position-corrected image) P i ′ is generated. The image processing unit 47, converts the image P i coordinate values of '(x 1, y 1) was substituted in order to Equation 2, the input image P i of the coordinates (x 2, y 2) pixel values in the P i ( By reading out x 2 , y 2 ), the value of each pixel P i ′ (x 1 , y 1 ) of the converted image P i ′ is calculated.

なお座標(x,y)は整数値になるとは限らないので、整数値でない場合には、最近傍法による補間処理により座標(x,y)近傍の画素値から座標(x,y)における画素値P(x,y)を算出することが望ましい。また変換画像P’を生成する際は、1画素毎に変換画像P’を生成し、全画面の変換画像P’を一度に生成しないことが望ましい。この場合、具体的には、(1)座標(x,y)を(0,0)に初期化し、(2)数式2に座標(x,y)を代入して座標(x,y)を算出し、(3)座標(x,y)を四捨五入して整数値(X,Y)を算出し、(4)合成画像用メモリ領域62に記憶されている合成画像の座標(x,y)における画素値を更新し、(5)座標(x,y)を次の座標位置に移動させるという処理を全画素について実行するまで繰り返し実行する。これにより、変換画像P’を生成するために必要なメモリ容量を減らすことができる。これにより、ステップS27の処理は完了し、一連の合成処理は終了する。 Note Since the coordinates (x 2, y 2) is not necessarily an integer value, if not an integer value, coordinates by interpolation based on the nearest neighbor method (x 2, y 2) coordinates from pixel values of the neighboring (x 2 , Y 2 ), it is desirable to calculate the pixel value P i (x 2 , y 2 ). The converted image P i 'when generating the converted image P i for each pixel' generates, it is preferable not to generate a transformed image P i 'of the whole screen at a time. In this case, specifically, (1) the coordinates (x 1 , y 1 ) are initialized to (0, 0), and (2) the coordinates (x 1 , y 1 ) are substituted into Equation 2 to obtain the coordinates (x 2, y 2) is calculated, (3) the coordinates (x 2, y 2) integer value by rounding off (X 2, Y 2) is calculated and stored in (4) the composite image memory area 62 The pixel value at the coordinates (x 1 , y 1 ) of the composite image being updated is updated, and (5) the process of moving the coordinates (x 1 , y 1 ) to the next coordinate position is repeated until all the pixels are executed. . Thereby, the memory capacity required to generate the converted image P i ′ can be reduced. Thereby, the process of step S27 is completed, and a series of composition processing is completed.

〔PSFの算出処理〕
次に、図10に示すフローチャートを参照して、上記ステップS10のPSFの算出処理について詳しく説明する。
[PSF calculation process]
Next, the PSF calculation process in step S10 will be described in detail with reference to the flowchart shown in FIG.

図10に示すフローチャートは、上記ステップS9の処理が完了したタイミングで開始となり、合成画像生成処理はステップS31の処理に進む。   The flowchart shown in FIG. 10 starts at the timing when the process of step S9 is completed, and the composite image generation process proceeds to the process of step S31.

ステップS31の処理では、画像処理部47が、点拡がり関数h’(k,l|(x,y))の全要素の値を0に初期化する。これにより、ステップS31の処理は完了し、算出処理はステップS32の処理に進む。 In step S31, the image processing unit 47 initializes the values of all the elements of the point spread function h ′ (k, l | (x 1 , y 1 )) to 0. Thereby, the process of step S31 is completed and the calculation process proceeds to the process of step S32.

ステップS32の処理では、画像処理部47が、座標変換パラメータHのインデックスを示すカウンタの値iを2に初期化する。これにより、ステップS32の処理は完了し、算出処理はステップS33の処理に進む。 In the process of step S32, the image processing unit 47 initializes the 2 values of the counter i indicating the index of the coordinate transformation parameters H i. Thereby, the process of step S32 is completed, and the calculation process proceeds to the process of step S33.

ステップS33の処理では、画像処理部47が、全座標値における点拡がり関数を算出するために座標(x,y)の値を(0,0)に初期化する。これにより、ステップS33の処理は完了し、算出処理はステップS34の処理に進む。 In the process of step S33, the image processing unit 47 initializes the values of the coordinates (x 1 , y 1 ) to (0, 0) in order to calculate a point spread function for all coordinate values. Thereby, the process of step S33 is completed, and the calculation process proceeds to the process of step S34.

ステップS34の処理では、画像処理部47が、座標変換パラメータHと座標(x,y)を用いて数式2から座標(x,y)を算出すると共に、算出された座標(x,y)の小数点以下の値を四捨五入することにより座標(x,y)の整数部の座標(X,Y)を算出する。これにより、ステップS34の処理は完了し、算出処理はステップS35の処理に進む。 In the process of step S34, the image processing unit 47 calculates the coordinates (x 2 , y 2 ) from Equation 2 using the coordinate conversion parameters H i and the coordinates (x 1 , y 1 ), and the calculated coordinates ( x 2, y 2 integer part of the coordinates of the coordinates by rounding off decimal values of) (x 2, y 2) (X 2, Y 2) is calculated. Thereby, the process of step S34 is completed and the calculation process proceeds to the process of step S35.

ステップS35の処理では、画像処理部47が、座標変換パラメータH’と座標(x,y)を用いて数式13から座標(x,y)を算出すると共に数式14から残差(α’,β’)を算出する。これにより、ステップS35の処理は完了し、算出処理はステップS36の処理に進む。 In the process of step S35, the image processing unit 47 calculates the coordinates (x 3 , y 3 ) from the equation 13 using the coordinate conversion parameter H i ′ and the coordinates (x 1 , y 1 ) and the residual from the equation 14. (Α ′, β ′) is calculated. Thereby, the process of step S35 is completed and the calculation process proceeds to the process of step S36.

ステップS36の処理では、画像処理部47が、全座標値における点拡がり関数を算出するために、パラメータ(k、l)の値を初期化する。通常、パラメータk,lの値は−3≦k,l≦3の範囲内にあるので、初期値は例えば(−3,3)が選ばれる。これにより、ステップS36の処理は完了し、算出処理はステップS37の処理に進む。   In the process of step S36, the image processing unit 47 initializes the values of the parameters (k, l) in order to calculate the point spread function at all coordinate values. Usually, since the values of the parameters k and l are in the range of −3 ≦ k and l ≦ 3, for example, (−3, 3) is selected as the initial value. Thereby, the process of step S36 is completed and a calculation process progresses to the process of step S37.

ステップS37の処理では、画像処理部47が、数式21を用いてパラメータA,Bを算出する。これにより、ステップS37の処理は完了し、算出処理はステップS38の処理に進む。   In the process of step S <b> 37, the image processing unit 47 calculates parameters A and B using Equation 21. Thereby, the process of step S37 is completed, and the calculation process proceeds to the process of step S38.

ステップS38の処理では、画像処理部47が、ステップS37の処理により算出されたパラメータA,Bに対応する関数HG(A,B)の値をテーブルから読み出し、変換画像P’の点拡がり関数g(k,l|(x,y))を算出する。さらに画像処理部47は、算出された点拡がり関数の値を合成画像G(N)の点拡がり関数h’(k,l|(x,y))に加算して合成画像G(N)の点拡がり関数h’(k,l|(x,y))を更新する。これにより、ステップS38の処理は完了し、算出処理はステップS39の処理に進む。 In the process of step S38, the image processing unit 47 reads the values of the function HG (A, B) corresponding to the parameters A and B calculated by the process of step S37 from the table, and the point spread function of the converted image P i ′. g i (k, l | (x 1 , y 1 )) is calculated. The image processing unit 47 further includes a point spread function h '(k, l | ( x 1, y 1)) of the calculated point spread value a composite image G functions (N) to be added and synthesized image G (N ) Of the point spread function h ′ (k, l | (x 1 , y 1 )). Thereby, the process of step S38 is completed and the calculation process proceeds to the process of step S39.

ステップS39の処理では、画像処理部47が、パラメータ(k,l)の全ての組み合わせについて算出処理を行ったか否かを判別する。判別の結果、全ての組み合わせについて算出処理を行っていないと判定した場合、画像処理部47は、パラメータ(k,l)の値を次の組み合わせの値に更新した後、算出処理をステップS37の処理に戻す。一方、全ての組み合わせについて算出処理を行ったと判定した場合には、画像処理部47は算出処理をステップS40の処理に進める。   In the process of step S39, the image processing unit 47 determines whether or not the calculation process has been performed for all combinations of the parameters (k, l). If it is determined that the calculation processing has not been performed for all combinations as a result of the determination, the image processing unit 47 updates the value of the parameter (k, l) to the value of the next combination, and then performs the calculation processing in step S37. Return to processing. On the other hand, if it is determined that the calculation process has been performed for all the combinations, the image processing unit 47 advances the calculation process to the process of step S40.

ステップS40の処理では、画像処理部47が、全ての座標(x,y)について算出処理を行ったか否かを判別する。判別の結果、全ての座標(x,y)について算出処理を行っていないと判定した場合、画像処理部47は、座標(x,y)の値を更新した後、算出処理をステップS34の処理に戻す。一方、全ての座標(x,y)について算出処理を行ったと判定した場合には、画像処理部47は算出処理をステップS41の処理に進める。 In step S40, the image processing unit 47 determines whether or not calculation processing has been performed for all coordinates (x 1 , y 1 ). Result of the determination, if it is determined that not performing calculation processing for all the coordinate (x 1, y 1), the image processing unit 47, after updating the value of the coordinates (x 1, y 1), the calculation process The process returns to step S34. On the other hand, if it is determined that the calculation process has been performed for all coordinates (x 1 , y 1 ), the image processing unit 47 advances the calculation process to the process of step S41.

ステップS41の処理では、画像処理部47が、座標変換パラメータHのインデックスを示すカウンタの値iがNであるか否かを判別する。判別の結果、カウンタの値iがNでない場合、画像処理部47はカウンタの値iを1増数した後、算出処理をステップS33の処理に戻す。一方、カウンタの値iがNである場合には、画像処理部47は一連の算出処理を終了する。 In the process of step S41, the image processing unit 47, the value of the counter i indicating the index of the coordinate transformation parameters H i is determined whether or not N. If the counter value i is not N as a result of the determination, the image processing unit 47 increments the counter value i by 1, and then returns the calculation process to the process of step S33. On the other hand, when the value i of the counter is N, the image processing unit 47 ends a series of calculation processes.

以上の算出処理によって最終的に算出される点拡がり関数h’(k,l|(x,y))は数式17を計算したことになるので、合成画像G(N)の点拡がり関数を求めたことになる。 Since the point spread function h ′ (k, l | (x 1 , y 1 )) finally calculated by the above calculation process is obtained by calculating Equation 17, the point spread function of the composite image G (N) is calculated. I asked for.

以上の説明から明らかなように、本発明の実施形態となるデジタルスチルカメラ1では、制御部42が、各入力画像Pの座標変換パラメータHを利用して合成画像G(N)の各座標における点拡がり関数h(k,l|(x,y))を演算し、演算された点拡がり関数h(k,l|(x,y))を利用して合成画像G(N)を復元するので、各入力画像Pの点拡がり関数の劣化によって合成画像G(N)が劣化することを抑制し、高精細な合成画像G(N)を生成することができる。 As is clear from the above description, in the digital still camera 1 according to the embodiment of the present invention, the control unit 42 uses the coordinate conversion parameter H i of each input image P i to display each of the synthesized images G (N) . A point spread function h (k, l | (x 1 , y 1 )) in coordinates is calculated, and the composite image G is calculated using the calculated point spread function h (k, l | (x 1 , y 1 )). Since (N) is restored, deterioration of the composite image G (N) due to deterioration of the point spread function of each input image P i can be suppressed, and a high-definition composite image G (N) can be generated.

また本発明の実施形態となるデジタルスチルカメラ1では、制御部42が、全ての入力画像Pの合成完了後、特徴点Fの座標(x,y)と追跡座標Ti,kの対応関係を利用して座標変換パラメータHを補正し、補正された座標変換パラメータHを利用して合成画像G(N)の各座標における点拡がり関数h(k,l|(x,y))を再演算し、再演算された点拡がり関数h(k,l|(x,y))を利用して合成画像を復元するので、座標変換パラメータHを高精度化することにより、さらに高精細な合成画像G(N)を生成することができる。 In the digital still camera 1 according to the embodiment of the present invention, the control unit 42 completes the synthesis of all the input images P i and then coordinates (x 1 , y 1 ) of the feature point F k and the tracking coordinates T i, k. The coordinate transformation parameter H i is corrected using the corresponding relationship, and the point spread function h (k, l | (x 1 ) at each coordinate of the synthesized image G (N) is corrected using the corrected coordinate transformation parameter H i. , y 1)) was recalculated, re computed point spread function h (k, l | (since x 1, y 1)) by using restores the synthesis image, highly accurate coordinate conversion parameter H i As a result, a higher-definition composite image G (N) can be generated.

以上、本発明者によってなされた発明を適用した実施の形態について説明したが、この実施の形態による本発明の開示の一部をなす論述及び図面により本発明は限定されることはない。すなわち、上記実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれることは勿論であることを付け加えておく。   As mentioned above, although the embodiment to which the invention made by the present inventor is applied has been described, the present invention is not limited by the description and the drawings that form part of the disclosure of the present invention according to this embodiment. That is, it should be added that other embodiments, examples, operation techniques, and the like made by those skilled in the art based on the above embodiments are all included in the scope of the present invention.

本発明は、逐次合成処理型の電子式手振れ補正動作により手振れ補正画像を生成する撮像装置に適用することができる。   The present invention can be applied to an imaging apparatus that generates a camera shake correction image by a sequential synthesis processing type electronic camera shake correction operation.

本発明の一実施形態となるデジタルスチルカメラの構成を示し斜視図であり、(a)は主に前面の構成、(b)は主に背面の構成を示す斜視図である。1 is a perspective view illustrating a configuration of a digital still camera according to an embodiment of the present invention, in which (a) is a front configuration mainly, and (b) is a perspective view mainly illustrating a rear configuration. 図1に示すデジタルスチルカメラの制御系の構成を示すブロック図である。It is a block diagram which shows the structure of the control system of the digital still camera shown in FIG. 図1に示すデジタルスチルカメラの内部メモリの構成を示すブロック図である。It is a block diagram which shows the structure of the internal memory of the digital still camera shown in FIG. 本発明の実施形態となる撮影処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the imaging | photography process used as embodiment of this invention. 図4に示す画像合成処理の流れを示すフローチャート図である。FIG. 5 is a flowchart showing a flow of image composition processing shown in FIG. 4. 光学系の点拡がり関数(Point Spread Function)の一例を示す図である。It is a figure which shows an example of the point spread function (Point Spread Function) of an optical system. 撮影画像の点拡がり関数の劣化に伴い合成画像の点拡がり関数が劣化する様子を説明するための図である。It is a figure for demonstrating a mode that the point spread function of a synthesized image deteriorates with deterioration of the point spread function of a picked-up image. 撮影画像の点拡がり関数の劣化に伴い合成画像の点拡がり関数が劣化する様子を説明するための図である。It is a figure for demonstrating a mode that the point spread function of a synthesized image deteriorates with deterioration of the point spread function of a picked-up image. 変換画像と入力画像の座標値の対応関係を示す図である。It is a figure which shows the correspondence of the coordinate value of a conversion image and an input image. 図4に示すPSF算出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the PSF calculation process shown in FIG.

符号の説明Explanation of symbols

1:デジタルスチルカメラ
2:本体
42:制御部
47:画像処理部
60:内部メモリ
61:入力画像用メモリ領域
62:合成画像用メモリ領域
63:情報記憶用メモリ領域
64:作業メモリ領域
1: Digital still camera 2: Main body 42: Control unit 47: Image processing unit 60: Internal memory 61: Input image memory area 62: Composite image memory area 63: Information storage memory area 64: Work memory area

Claims (4)

複数の撮影画像を連続的に撮像する撮像手段と、
1枚目の撮影画像から特徴点を抽出し、2枚目以後の各撮影画像について、撮影画像中における前記特徴点の位置を追跡座標として抽出する特徴点抽出手段と、
前記特徴点の座標と前記追跡座標の対応関係を利用して、2枚目以後の各撮影画像について、撮影画像を1枚目の撮影画像に重ね合わせるための座標変換パラメータを順次算出する座標変換パラメータ算出手段と、
前記座標変換パラメータ算出手段により算出された座標変換パラメータを用いて2枚目以後の各撮影画像の座標変換を行い、座標変換された各撮影画像を1枚目の撮影画像に順次合成することにより、前記複数の撮影画像が合成された合成画像を生成する合成手段と、
前記1枚目の撮影画像及び前記座標変換された各撮影画像ごとの点拡がり関数の値を加算することで、前記合成画像の点拡がり関数を演算する点拡がり関数演算手段と、
前記点拡がり関数演算手段により演算された点拡がり関数を利用して前記合成手段により生成された合成画像を復元する復元手段と
を備えることを特徴とする撮像装置。
Imaging means for continuously capturing a plurality of captured images;
A feature point extracting means for extracting a feature point from the first photographed image and extracting the position of the feature point in the photographed image as tracking coordinates for each of the second and subsequent photographed images;
Coordinate transformation for sequentially calculating coordinate transformation parameters for superimposing the photographed image on the first photographed image for each of the second and subsequent photographed images using the correspondence relationship between the coordinates of the feature points and the tracking coordinates Parameter calculation means;
By performing coordinate conversion of the second and subsequent captured images using the coordinate conversion parameter calculated by the coordinate conversion parameter calculating means, and sequentially synthesizing the captured images after coordinate conversion with the first captured image. Combining means for generating a combined image obtained by combining the plurality of photographed images;
A point spread function calculation means for calculating a point spread function of the composite image by adding a value of a point spread function for each of the first shot image and each coordinate-converted shot image ;
An image pickup apparatus comprising: a restoration unit that restores a composite image generated by the synthesis unit using the point spread function calculated by the point spread function calculation unit.
請求項1に記載の撮像装置において、The imaging device according to claim 1,
前記合成手段は、The synthesis means includes
前記座標変換パラメータを用いて変換された座標にまるめ処理を施し、前記まるめ処理が施された座標に座標変換された各撮影画像を1枚目の撮影画像に順次合成することにより、前記複数の撮影画像が合成された合成画像を生成することA rounding process is performed on the coordinates converted using the coordinate conversion parameter, and each captured image coordinate-converted to the coordinate subjected to the rounding process is sequentially combined with a first captured image, thereby the plurality of the plurality of captured images. Generate a composite image that is a composite of the captured images
を特徴とする撮像装置。An imaging apparatus characterized by the above.
請求項2に記載の撮像装置において、The imaging device according to claim 2,
前記点拡がり関数演算手段は、The point spread function calculation means includes:
前記まるめ処理が施された座標及び当該座標のまるめ誤差に応じて前記2枚目以後の各撮影画像の点拡がり関数を演算するA point spread function is calculated for each of the second and subsequent captured images in accordance with the rounded coordinate and the rounding error of the coordinate.
を特徴とする撮像装置。An imaging apparatus characterized by the above.
複数の撮影画像を連続的に撮像する撮像手段を備える撮像装置に内蔵されたコンピュータが実行する撮像装置のコンピュータプログラムであって、
1枚目の撮影画像から特徴点を抽出し、2枚目以後の各撮影画像について、撮影画像中における前記特徴点の位置を追跡座標として抽出する処理と、
前記特徴点の座標と前記追跡座標の対応関係を利用して、2枚目以後の各撮影画像について、撮影画像を1枚目の撮影画像に重ね合わせるための座標変換パラメータを順次算出する処理と、
前記座標変換パラメータを用いて2枚目以後の各撮影画像の座標変換を行い、座標変換された各撮影画像を1枚目の撮影画像に順次合成することにより、前記複数の撮影画像が合成された合成画像を生成する処理と、
前記1枚目の撮影画像及び前記座標変換された各撮影画像ごとの点拡がり関数の値を加算することで、前記合成画像の点拡がり関数を演算する処理と、
前記点拡がり関数を利用して前記生成された合成画像を復元する処理と
をコンピュータに実行させることを特徴とする撮像装置のコンピュータプログラム。
A computer program of an imaging apparatus executed by a computer built in an imaging apparatus including an imaging unit that continuously captures a plurality of captured images,
A process of extracting feature points from the first photographed image and extracting the position of the feature point in the photographed image as tracking coordinates for each of the second and subsequent photographed images;
A process of sequentially calculating coordinate conversion parameters for superimposing the photographed image on the first photographed image for each of the second and subsequent photographed images using the correspondence between the coordinates of the feature points and the tracking coordinates; ,
The plurality of captured images are synthesized by performing coordinate conversion of the second and subsequent captured images using the coordinate conversion parameters, and sequentially synthesizing the coordinate-converted captured images with the first captured image. Processing to generate a combined image,
A process of calculating the point spread function of the composite image by adding the value of the point spread function for each of the first shot image and each coordinate-converted shot image ;
Computer program of an imaging apparatus, characterized in that to execute a process of restoring the Kisei made composite image before using the point spread function in the computer.
JP2007214964A 2007-08-21 2007-08-21 Imaging apparatus and computer program therefor Expired - Fee Related JP4930277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007214964A JP4930277B2 (en) 2007-08-21 2007-08-21 Imaging apparatus and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007214964A JP4930277B2 (en) 2007-08-21 2007-08-21 Imaging apparatus and computer program therefor

Publications (2)

Publication Number Publication Date
JP2009049777A JP2009049777A (en) 2009-03-05
JP4930277B2 true JP4930277B2 (en) 2012-05-16

Family

ID=40501543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007214964A Expired - Fee Related JP4930277B2 (en) 2007-08-21 2007-08-21 Imaging apparatus and computer program therefor

Country Status (1)

Country Link
JP (1) JP4930277B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5297325B2 (en) * 2009-10-02 2013-09-25 ダンロップスポーツ株式会社 Image stabilization method when shooting golf swing
JP5482428B2 (en) * 2010-05-14 2014-05-07 カシオ計算機株式会社 Imaging apparatus, camera shake correction method, and program
JP5733949B2 (en) * 2010-10-25 2015-06-10 キヤノン株式会社 Imaging apparatus and control method thereof
US8665334B2 (en) * 2011-08-22 2014-03-04 Raytheon Company Blur-calibration system for electro-optical sensors and method using a moving multi-target constellation
JP5869833B2 (en) * 2011-10-06 2016-02-24 ザインエレクトロニクス株式会社 Camera shake correction processing apparatus and camera shake correction processing method
WO2014074138A1 (en) 2012-11-09 2014-05-15 Nikon Corporation Globally dominant point spread function estimation
US9530079B2 (en) 2012-11-09 2016-12-27 Nikon Corporation Point spread function classification using structural properties
CN108898551B (en) * 2018-06-14 2020-07-31 北京微播视界科技有限公司 Image merging method and device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272866A (en) * 1998-03-23 1999-10-08 Olympus Optical Co Ltd Image restoring method
JP4518979B2 (en) * 2005-03-03 2010-08-04 ライトロン株式会社 Apparatus and method for visualizing fine sample, apparatus and method for visualizing fine lattice disturbance
JP4466430B2 (en) * 2005-03-29 2010-05-26 カシオ計算機株式会社 Electronic camera and imaging control program
JP4469309B2 (en) * 2005-06-22 2010-05-26 株式会社リコー Camera shake correction method, camera shake correction apparatus, and imaging apparatus

Also Published As

Publication number Publication date
JP2009049777A (en) 2009-03-05

Similar Documents

Publication Publication Date Title
JP4930277B2 (en) Imaging apparatus and computer program therefor
JP4569389B2 (en) Imaging apparatus, image processing method, and program
JP3897247B2 (en) Optical distortion correction method and correction apparatus
KR101256326B1 (en) Image capturing apparatus, image capturing method, and storage medium storing program for image capturing
US20030071904A1 (en) Image capturing apparatus, image reproducing apparatus and program product
EP1988705A1 (en) Improvements in or relating to image sensors
KR101109532B1 (en) Image capturing device, image capturing method, and a storage medium recording thereon a image capturing program
JP2004336106A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2009194896A (en) Image processing device and method, and imaging apparatus
TW200304325A (en) Image photographing device and color difference compensation method
JP2008306651A (en) Imaging system and program
US8525913B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
US9609167B2 (en) Imaging device capable of temporarily storing a plurality of image data, and control method for an imaging device
JP4185468B2 (en) Exposure apparatus and method for correcting captured image
US7286701B2 (en) Image synthesis apparatus and image synthesis method
JP2001285698A (en) Electronic camera
JP2018148512A (en) Imaging device, control method of imaging device, and program
US20160012562A1 (en) Image processing apparatus and image processing method
JP5402242B2 (en) Image reproduction apparatus, imaging apparatus, image reproduction method, and image reproduction program
JPH11250240A (en) Digital image pickup device for operating distortion correction by yuv data
WO2008050674A1 (en) Imaging device, image recording method and image recording program
JP2006319541A (en) Imaging device, moving picture processing method, and program
JP2009033385A (en) Image processor, image processing method, image processing program and imaging device
JP2006094031A (en) Imaging apparatus, image processing method, and program
JP4678273B2 (en) Imaging apparatus, moving image storage method, and moving image storage program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

R150 Certificate of patent or registration of utility model

Ref document number: 4930277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees