JP2012231377A - Imaging apparatus and image generation method - Google Patents

Imaging apparatus and image generation method Download PDF

Info

Publication number
JP2012231377A
JP2012231377A JP2011099265A JP2011099265A JP2012231377A JP 2012231377 A JP2012231377 A JP 2012231377A JP 2011099265 A JP2011099265 A JP 2011099265A JP 2011099265 A JP2011099265 A JP 2011099265A JP 2012231377 A JP2012231377 A JP 2012231377A
Authority
JP
Japan
Prior art keywords
image
addition
unit
pixel value
added
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011099265A
Other languages
Japanese (ja)
Inventor
Shinichi Imaide
愼一 今出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011099265A priority Critical patent/JP2012231377A/en
Priority to PCT/JP2012/059977 priority patent/WO2012147523A1/en
Publication of JP2012231377A publication Critical patent/JP2012231377A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus which is capable of capturing a high-resolution image from a low-resolution motion picture through simple processing, and an image generation method or the like.SOLUTION: An imaging apparatus comprises an image capturing section, an added image generating section, a compression processing section, an expansion processing section, an estimate arithmetic section, and an image output section. The added image generating section successively pixel-shifts an addition unit in a captured image fx, and acquires added images Ato Aby weight-adding pixel values included in the addition unit. The compression processing section determines a mean of the added images Ato Aas a mean image M, determines a differential between the mean image M and an added image Aas a differential image D, and compresses the determined mean image M and the differential image D. The expansion processing section expands the compressed mean image M and differential image Dand determines the added images Ato A. The estimate arithmetic section estimates a pixel value vof the captured image fx on the basis of the added images Ato A. The image output section outputs a high-resolution image based on the pixel value v.

Description

本発明は、撮像装置及び画像生成方法等に関する。   The present invention relates to an imaging apparatus, an image generation method, and the like.

昨今のデジタルカメラやビデオカメラには、静止画撮影モードと動画撮影モードを切り替えて使用できるものがある。例えば、動画撮影中にユーザーがボタン操作をすることで、動画よりも高解像の静止画を撮影できるものがある。   Some recent digital cameras and video cameras can be used by switching between a still image shooting mode and a moving image shooting mode. For example, there is one that can shoot a still image with a higher resolution than a moving image by a user operating a button during moving image shooting.

特開2009−124621号公報JP 2009-124621 A 特開2008−243037号公報JP 2008-243037 A

しかしながら、静止画撮影モードと動画撮影モードを切り替える手法では、ユーザーがシャッターチャンスに気付いたときには既に決定的瞬間を逃していることが多いという課題がある。   However, the method of switching between the still image shooting mode and the moving image shooting mode has a problem that when the user notices a photo opportunity, a decisive moment is often already missed.

本発明者は、この決定的瞬間の撮影を実現するために、低解像動画から任意タイミングの高解像静止画を生成することを考えている。例えば、特許文献1、2には、画素シフトにより取得された低解像画像から高解像画像を合成する手法が開示されている。しかしながら、この手法では、画素シフトによる撮像が必要となるためカメラの構成が複雑となってしまう。また、高解像化処理の負荷が大きいことや、画素値の推定が困難な場合があるという課題がある。   The present inventor considers generating a high-resolution still image at an arbitrary timing from a low-resolution moving image in order to realize photographing at this decisive moment. For example, Patent Documents 1 and 2 disclose a technique for synthesizing a high-resolution image from a low-resolution image acquired by pixel shift. However, this method requires imaging by pixel shift, which complicates the camera configuration. In addition, there is a problem that the load of high resolution processing is large and pixel value estimation may be difficult.

本発明の幾つかの態様によれば、簡素な処理で低解像動画から高解像画像を取得できる撮像装置及び画像生成方法等を提供できる。   According to some aspects of the present invention, it is possible to provide an imaging device, an image generation method, and the like that can acquire a high-resolution image from a low-resolution moving image with simple processing.

本発明の一態様は、撮像画像を取得する画像取得部と、加算画素値を取得する単位である加算単位を前記撮像画像の複数の画素毎に設定し、前記加算単位に含まれる画素値を重み付け加算して前記加算画素値を求め、求めた前記加算画素値による加算画像を取得する加算画像生成部と、前記加算画像を圧縮する圧縮処理部と、圧縮された前記加算画像を伸張する伸張処理部と、伸張された前記加算画像に基づいて前記撮像画像の画素値を推定する推定演算部と、前記推定演算部により推定された画素値に基づく高解像画像を出力する画像出力部と、を含み、前記加算画像生成部は、前記加算単位を順次画素シフトさせて第1〜第nの加算画像(nは2以上の自然数)を前記加算画像として取得し、前記圧縮処理部は、前記第1〜第nの加算画像の平均を平均画像として求め、前記平均画像と、前記第1〜第nの加算画像のうちの第mの加算画像(mはn以下の自然数)との差分を、第mの差分画像として求め、求めた前記平均画像と前記第mの差分画像を圧縮し、前記伸張処理部は、圧縮された前記平均画像と前記第mの差分画像を伸張して前記第1〜第nの加算画像を求める撮像装置に関係する。   According to one aspect of the present invention, an image acquisition unit that acquires a captured image, an addition unit that is a unit for acquiring an added pixel value is set for each of a plurality of pixels of the captured image, and a pixel value included in the addition unit is set. An addition image generation unit that obtains the addition pixel value by weighted addition, obtains an addition image based on the obtained addition pixel value, a compression processing unit that compresses the addition image, and a decompression that decompresses the compressed addition image A processing unit; an estimation calculation unit that estimates a pixel value of the captured image based on the expanded added image; and an image output unit that outputs a high-resolution image based on the pixel value estimated by the estimation calculation unit; The addition image generation unit obtains first to nth addition images (n is a natural number equal to or greater than 2) as the addition image by sequentially shifting the addition unit, and the compression processing unit includes: The first to nth addition images Is obtained as an average image, and a difference between the average image and the m-th added image (m is a natural number equal to or less than n) of the first to n-th added images is obtained as an m-th difference image. The obtained average image and the m-th difference image are compressed, and the decompression processing unit decompresses the compressed average image and the m-th difference image to obtain the first to n-th added images. It relates to the desired imaging device.

本発明の一態様によれば、加算単位が順次画素シフトされて第1〜第nの加算画像が取得され、その第1〜第nの加算画像の平均画像が求められる。そして、その平均画像と第mの加算画像の差分である第mの差分画像が求められ、その平均画像と第mの差分画像が圧縮される。そして、それらの圧縮された画像が伸張されて第1〜第nの加算画像が求められ、その第1〜第nの加算画像に基づいて撮像画像が推定される。   According to one aspect of the present invention, the addition units are sequentially pixel-shifted to obtain the first to nth added images, and the average image of the first to nth added images is obtained. Then, an mth difference image that is a difference between the average image and the mth addition image is obtained, and the average image and the mth difference image are compressed. Then, the compressed images are expanded to obtain first to nth added images, and a captured image is estimated based on the first to nth added images.

これにより、例えば後述する推定処理を適用することで、簡素な処理で低解像の加算画像から高解像な撮像画像を復元することが可能になる。動画撮影と静止画撮影を切り換えないため、動画データから任意タイミングの高解像静止画を取得できる。また、差分画像を求めることで、高圧縮率で画像データを圧縮できる。   Accordingly, for example, by applying an estimation process described later, it is possible to restore a high-resolution captured image from a low-resolution added image with a simple process. Since moving image shooting and still image shooting are not switched, a high-resolution still image at an arbitrary timing can be acquired from moving image data. Further, by obtaining the difference image, the image data can be compressed at a high compression rate.

また本発明の一態様では、前記加算画像生成部は、前記加算単位を、水平又は垂直に1画素ずつ順次シフトさせて第1〜第nのポジションに設定し、前記第1〜第nのポジションにおいてそれぞれ前記第1〜第nの加算画像を取得し、前記第1〜第nのポジションのうちの第mのポジションと第m+1のポジションの前記加算単位は、共通の画素を含んでもよい。   In the aspect of the invention, the addition image generation unit may sequentially shift the addition unit horizontally or vertically one pixel at a time to set the first to nth positions, and the first to nth positions. The first to n-th added images may be acquired in step S1, and the addition unit of the m-th position and the (m + 1) -th position among the first to n-th positions may include a common pixel.

このようにすれば、共通の画素を含みながら加算単位を順次画素シフトして加算画素値を求め、その加算画素値により第1〜第nの加算画像を構成できる。   In this way, the addition unit value is obtained by sequentially shifting the addition unit while including the common pixels, and the first to nth addition images can be configured by the addition pixel value.

また本発明の一態様では、前記圧縮処理部は、前記第1〜第nのポジションの前記加算画素値の平均値を、前記平均画像の画素値として求める平均画像生成部と、前記平均画像の画素値と、前記第mのポジションの前記加算画素値の差分値を、前記第mの差分画像の画素値として求める差分画像生成部と、を有してもよい。   In the aspect of the invention, the compression processing unit may obtain an average value of the addition pixel values at the first to n-th positions as a pixel value of the average image, A difference image generation unit that obtains a difference value between the pixel value and the added pixel value at the m-th position as a pixel value of the m-th difference image.

このようにすれば、第1〜第nの加算画像の画素値を平均することで、平均画像の画素値を求めることができる。また、平均画像の画素値と、第mの加算画像の画素値の差分値により、第mの差分画像の画素値を求めることができる。   In this way, the pixel value of the average image can be obtained by averaging the pixel values of the first to nth added images. Further, the pixel value of the mth difference image can be obtained from the difference value between the pixel value of the average image and the pixel value of the mth addition image.

また本発明の一態様では、低解像動画を生成する低解像動画生成部を含み、前記撮像画像がRGBベイヤー配列の画像であり、前記加算単位が、隣接する4画素である場合に、前記加算画像生成部は、第1〜第4のポジション(n=4)において、前記重み付け加算によりRGBが混色された第1〜第4の加算画像を取得し、前記低解像動画生成部は、前記第1〜第4の加算画像のうちの第1〜第3の加算画像に基づいて、前記低解像動画のRGBの画素値を推定により求めてもよい。   In one aspect of the present invention, a low-resolution moving image generation unit that generates a low-resolution moving image is included, the captured image is an image of an RGB Bayer array, and the addition unit is four adjacent pixels. The addition image generation unit acquires first to fourth addition images in which RGB is mixed by the weighted addition at the first to fourth positions (n = 4), and the low-resolution moving image generation unit The RGB pixel values of the low-resolution moving image may be obtained by estimation based on the first to third addition images among the first to fourth addition images.

このようにすれば、RGBが加算により混色されている加算画像から、RGBのカラー画像を生成することができる。これにより、撮像画像を復元することなく簡易的にカラー動画を得ることができる。   In this way, an RGB color image can be generated from an added image in which RGB is mixed by addition. Thereby, it is possible to easily obtain a color moving image without restoring the captured image.

また本発明の一態様では、前記圧縮処理部は、前記第mの差分画像をエントロピー符号化により可逆圧縮してもよい。   In the aspect of the invention, the compression processing unit may reversibly compress the m-th difference image by entropy coding.

差分画像は、平均画像と加算画像の差分であるため画素値のエントロピーを撮像画像よりも小さくできる。そのため、差分画像をエントロピー符号化することで高圧縮率で圧縮できる。   Since the difference image is a difference between the average image and the added image, the entropy of the pixel value can be made smaller than that of the captured image. Therefore, the difference image can be compressed at a high compression rate by entropy encoding.

また本発明の一態様では、前記撮像画像がRGBベイヤー配列の画像である場合に、前記推定演算部は、前記撮像画像の前記RGBベイヤー配列の画素値を推定により求め、前記画像出力部は、推定された前記RGBベイヤー配列の画素値をデモザイキング処理した画像に基づいて高解像動画を出力してもよい。   In one aspect of the present invention, when the captured image is an image of an RGB Bayer array, the estimation calculation unit obtains a pixel value of the RGB Bayer array of the captured image by estimation, and the image output unit includes: A high-resolution moving image may be output based on an image obtained by demosaicing the estimated pixel values of the RGB Bayer array.

このようにすれば、高圧縮率で圧縮された画像データから、撮像画像に相当する解像度の高解像動画を復元することができる。これにより、動画データの高圧縮率と高画質を両立することが可能になる。   In this way, a high-resolution moving image having a resolution corresponding to the captured image can be restored from the image data compressed at a high compression rate. This makes it possible to achieve both a high compression rate and high image quality for moving image data.

また本発明の一態様では、画素値の変化幅に応じて適応的に移動平均の範囲を調整する適応的ノイズ低減処理を、前記第mの差分画像に対して行うノイズ低減処理部を含んでもよい。   In one aspect of the present invention, the image processing apparatus may further include a noise reduction processing unit that performs adaptive noise reduction processing that adaptively adjusts the moving average range according to the change width of the pixel value with respect to the mth difference image. Good.

差分画像は、平均画像と加算画像の差分であるため撮像画像よりも画素値の振幅が小さい。そのため、差分画像に適応的ノイズ低減処理を行うことで、効果的にノイズ低減を行うことができる。   Since the difference image is a difference between the average image and the added image, the amplitude of the pixel value is smaller than that of the captured image. Therefore, noise can be effectively reduced by performing adaptive noise reduction processing on the difference image.

また本発明の一態様では、前記画像取得部は、第1フレームの撮像画像を基準撮像画像として取得し、前記第1フレームの前又は後の第2フレームの撮像画像と前記基準撮像画像の差分を差分撮像画像として取得し、前記加算画像生成部は、前記基準撮像画像に基づく前記第1〜第nの加算画像と、前記差分撮像画像に基づく前記第1〜第nの加算画像を取得してもよい。   In one aspect of the present invention, the image acquisition unit acquires a captured image of the first frame as a reference captured image, and a difference between the captured image of the second frame before or after the first frame and the reference captured image. And the addition image generation unit acquires the first to nth addition images based on the reference captured image and the first to nth addition images based on the difference captured image. May be.

このようにすれば、フレーム間差分画像は、類似性が高い加算画像の差分となる。これにより、フレーム間差分画像から生成した平均画像の圧縮率を、通常の加算画像から生成した平均画像よりも向上可能である。   In this way, the inter-frame difference image becomes a difference between the added images having high similarity. Thereby, the compression rate of the average image produced | generated from the difference image between frames can be improved rather than the average image produced | generated from the normal addition image.

また本発明の一態様では、第1のポジションに設定された前記加算単位と、前記第1のポジションの次の第2のポジションに設定された前記加算単位が重畳する場合に、前記推定演算部は、前記第1のポジションの加算画素値と、前記第2のポジションの加算画素値の差分値を求め、前記第1のポジションの加算単位から重畳領域を除いた第1の領域の加算画素値である第1の中間画素値と、前記第2のポジションの加算単位から前記重畳領域を除いた第2の領域の加算画素値である第2の中間画素値との関係式を、前記差分値を用いて表し、前記関係式を用いて前記第1、第2の中間画素値を推定し、推定した前記第1の中間画素値を用いて前記加算単位に含まれる各画素の画素値を求めてもよい。   In the aspect of the invention, when the addition unit set in the first position and the addition unit set in the second position next to the first position overlap, the estimation calculation unit Is a difference value between the added pixel value of the first position and the added pixel value of the second position, and the added pixel value of the first area excluding the overlapping area from the addition unit of the first position. A relational expression between the first intermediate pixel value that is and the second intermediate pixel value that is the addition pixel value of the second region excluding the overlap region from the addition unit of the second position, and the difference value The first intermediate pixel value is estimated using the relational expression, and the pixel value of each pixel included in the addition unit is obtained using the estimated first intermediate pixel value. May be.

このようにすれば、加算単位が重畳しながら順次画素シフトされた第1〜第nの加算画像から中間画素値を推定し、推定した中間画素値から最終的な推定画素値を求めることができる。これにより、簡素な処理で撮像画像を推定できる。   In this way, it is possible to estimate the intermediate pixel value from the first to n-th added images that are sequentially pixel-shifted while the addition unit is superimposed, and obtain the final estimated pixel value from the estimated intermediate pixel value. . Thereby, a captured image can be estimated by simple processing.

また本発明の一態様では、前記推定演算部は、前記第1、第2の中間画素値を含む連続する中間画素値を中間画素値パターンとする場合に、前記中間画素値パターンに含まれる中間画素値間の関係式を前記加算画素値を用いて表し、前記中間画素値間の関係式で表された前記中間画素値パターンと前記加算画素値とを比較して類似性を評価し、前記類似性の評価結果に基づいて、前記類似性が最も高くなるように、前記中間画素値パターンに含まれる中間画素値を決定してもよい。   In the aspect of the invention, the estimation calculation unit may include an intermediate included in the intermediate pixel value pattern when successive intermediate pixel values including the first and second intermediate pixel values are used as an intermediate pixel value pattern. A relational expression between pixel values is represented using the addition pixel value, the intermediate pixel value pattern represented by the relational expression between the intermediate pixel values is compared with the addition pixel value, and similarity is evaluated, Based on the similarity evaluation result, an intermediate pixel value included in the intermediate pixel value pattern may be determined so that the similarity is the highest.

このようにすれば、加算単位が重畳されながら画素シフトされることで取得された複数の加算画素値に基づいて、中間画素値を推定により求めることができる。   In this way, an intermediate pixel value can be obtained by estimation based on a plurality of added pixel values acquired by pixel shifting while the addition unit is superimposed.

また、本発明の他の態様は、撮像画像を取得し、加算画素値を取得する単位である加算単位を前記撮像画像の複数の画素毎に設定し、前記加算単位に含まれる画素値を重み付け加算して前記加算画素値を求め、求めた前記加算画素値による加算画像を取得し、前記加算画像を圧縮し、圧縮された前記加算画像を伸張し、伸張された前記加算画像に基づいて前記撮像画像の画素値を推定するとともに、前記推定された画素値に基づく高解像画像を出力する場合に、前記加算単位を順次画素シフトさせて第1〜第nの加算画像(nは2以上の自然数)を前記加算画像として取得し、前記第1〜第nの加算画像の平均を平均画像として求め、前記平均画像と、前記第1〜第nの加算画像のうちの第mの加算画像(iはn以下の自然数)との差分を、第mの差分画像として求め、求めた前記平均画像と前記第mの差分画像を圧縮し、圧縮された前記平均画像と前記第mの差分画像を伸張して前記第1〜第nの加算画像を求める画像生成方法に関係する。   In another aspect of the present invention, a captured image is acquired, an addition unit, which is a unit for acquiring an added pixel value, is set for each of a plurality of pixels of the captured image, and a pixel value included in the added unit is weighted. Adding to obtain the added pixel value, obtaining an added image based on the obtained added pixel value, compressing the added image, decompressing the compressed added image, and based on the decompressed added image When estimating the pixel value of the captured image and outputting a high-resolution image based on the estimated pixel value, the addition units are sequentially pixel-shifted to obtain first to nth added images (n is 2 or more). (Natural number) is obtained as the added image, the average of the first to n-th added images is obtained as an average image, and the average image and the m-th added image among the first to n-th added images (I is a natural number less than or equal to n) The difference image of m is obtained, the obtained average image and the mth difference image are compressed, the compressed average image and the mth difference image are expanded, and the first to nth added images are obtained. It relates to the desired image generation method.

第1のデータ圧縮手法についての説明図。Explanatory drawing about the 1st data compression method. ハフマン符号テーブルの例。An example of a Huffman code table. 撮像装置の第1の構成例。1 is a first configuration example of an imaging apparatus. 融合画像データの第1の符号割り当て例。The 1st code allocation example of fusion image data. 融合画像データの第2の符号割り当て例。The 2nd example of code allocation of fusion image data. 撮像装置の第2の構成例。2 shows a second configuration example of an imaging apparatus. 撮像装置の第2の構成例における融合画像データの符号割り当て例。Fig. 7 shows an example of code assignment of fusion image data in the second configuration example of the imaging apparatus. 撮像装置の変形構成例。The modification structural example of an imaging device. 低解像動画の生成手法についての説明図。Explanatory drawing about the production method of a low resolution animation. 低解像動画の生成手法についての説明図。Explanatory drawing about the production method of a low resolution animation. 低解像動画の生成手法についての説明図。Explanatory drawing about the production method of a low resolution animation. 撮像装置の第3の構成例。3rd structural example of an imaging device. 高解像静止画と低解像静止画を同時に取得する撮像処理例。An example of an imaging process for simultaneously acquiring a high-resolution still image and a low-resolution still image. 高解像静止画と低解像静止画を同時に取得する撮像処理のシーケンス例。The sequence example of the imaging process which acquires a high-resolution still image and a low-resolution still image simultaneously. データ圧縮前のデータ再構成例。An example of data reconstruction before data compression. データ再構成において設定するデータ単位の例。An example of a data unit set in data reconstruction. 再構成データ単位の重畳シフト加算値の例。The example of the superimposition shift addition value of a reconstruction data unit. 同色の4画素を加算する場合の撮像部の構成例。The structural example of the imaging part in the case of adding 4 pixels of the same color. 適応的ノイズ低減処理についての説明図。Explanatory drawing about adaptive noise reduction processing. 図20(A)、図20(B)は、適応的ノイズ低減処理についての説明図。FIG. 20A and FIG. 20B are explanatory diagrams of adaptive noise reduction processing. 適応的ノイズ低減処理についての説明図。Explanatory drawing about adaptive noise reduction processing. 適応的ノイズ低減処理についての説明図。Explanatory drawing about adaptive noise reduction processing. 適応的ノイズ低減処理についての説明図。Explanatory drawing about adaptive noise reduction processing. 撮像装置の第4の構成例。4 shows a fourth configuration example of an imaging apparatus. 撮像装置の第4の構成例が行う処理の模式図。The schematic diagram of the process which the 4th structural example of an imaging device performs. 撮像装置の第4の構成例における撮像部の変形構成例。The modification structural example of the imaging part in the 4th structural example of an imaging device. 図27(A)、図27(B)は、推定画素値と中間画素値の説明図。27A and 27B are explanatory diagrams of estimated pixel values and intermediate pixel values. 復元推定処理についての説明図。Explanatory drawing about a restoration estimation process. 復元推定処理についての説明図。Explanatory drawing about a restoration estimation process. 復元推定処理についての説明図。Explanatory drawing about a restoration estimation process.

以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。   Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unduly limit the contents of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as means for solving the present invention. Not necessarily.

1.本実施形態の概要
デジタルカメラやビデオカメラの製品には、静止画撮影を主とするデジタルカメラに動画撮影機能をもたせたものや、動画撮影を主とするビデオカメラに静止画撮影機能をもたせたものがある。このような機器を使えば、静止画と動画の撮影を一つの機器でまかなえるという利便さがある。
1. Outline of this embodiment Digital camera and video camera products have a digital camera that mainly shoots still images with a video shooting function, or a video camera that mainly shoots video with a still image shooting function. There is something. If such a device is used, there is the convenience that a still image and a moving image can be shot with a single device.

しかしながら、この手法では、多くの人が求めるシャッターチャンスを逃さず高品位な静止画を得ることが難しいという課題がある。例えば、動画撮影中に高品位静止画を撮影するモードに瞬時に切り替える方法では、動画が途切れたり、ユーザーが気づいたときには既に決定的瞬間を逃していたりするという課題がある。   However, with this method, there is a problem that it is difficult to obtain a high-quality still image without missing the shutter chance that many people demand. For example, in a method of instantaneously switching to a mode for shooting a high-quality still image during moving image shooting, there is a problem that the moving image is interrupted or a decisive moment is already missed when the user notices.

決定的瞬間の静止画を得るために、高フレームレートの高解像動画を取得し、その高解像動画から任意タイミングの静止画を抜き出す手法が考えられる。しかしながら、この手法では、高解像動画を撮影するためデータ量が増大するという課題がある。   In order to obtain a still image at a decisive moment, a method of acquiring a high-resolution moving image with a high frame rate and extracting a still image at an arbitrary timing from the high-resolution moving image can be considered. However, this method has a problem that the amount of data increases in order to capture a high-resolution moving image.

そこで本実施形態では、図1に示すように、撮像画像を画素加算して複数の低解像画像A〜Aを取得し、その複数の低解像画像A〜Aの平均画像Mを求める。そして、その平均画像Mと低解像画像A〜Aの差分画像D〜Dを求め、その差分画像D〜Dを例えばエントロピー符号化により圧縮する。差分画像D〜Dでは画素値がゼロ付近に偏在していると考えられるため、圧縮率を向上できる。 In this embodiment, as shown in FIG. 1, the captured image by pixel addition to obtain a plurality of low-resolution images A 1 to A 4, the average image of the plurality of low-resolution images A 1 to A 4 Find M. Then, the difference image D 1 to D 4 of the average image M and the low-resolution image A 1 to A 4 asked, compressing the difference image D 1 to D 4, for example, by entropy coding. In the difference images D 1 to D 4 , since the pixel values are considered to be unevenly distributed near zero, the compression rate can be improved.

さて、低解像画像から高解像画像を得る手法として、画素シフトにより撮影した低解像画像に対していわゆる超解像処理を行う手法が考えられる。例えば、この手法では、順次位置ずらししながら加算読み出しを行い、その複数の位置ずれ画像に基づいて高精細化画像を一旦仮定する。そして、仮定した画像を劣化させて低解像画像を生成し、元の低解像画像と比較し、その差異が最小になるように高精細画像を推定する。この超解像処理として、ML(Maximum-Likelihood)法、MAP(Maximum A Posterior)法、POCS(Projection Onto Convex Set)法、IBP(Iterative Back Projection)法等が知られている。   As a technique for obtaining a high-resolution image from a low-resolution image, a technique for performing so-called super-resolution processing on a low-resolution image captured by pixel shift is conceivable. For example, in this method, addition reading is performed while sequentially shifting the position, and a high-definition image is temporarily assumed based on the plurality of position-shifted images. Then, the assumed image is degraded to generate a low resolution image, which is compared with the original low resolution image, and the high definition image is estimated so that the difference is minimized. As this super-resolution processing, an ML (Maximum-Likelihood) method, a MAP (Maximum A Postterior) method, a POCS (Projection Onto Convex Set) method, an IBP (Iterative Back Projection) method, and the like are known.

例えば上述の特許文献1には、動画撮影時に画素シフトさせた低解像画像を時系列的に順次撮影し、その複数の低解像画像を合成することにより高解像画像を仮定し、その高解像画像に対して上記の超解像処理を施し、尤度の高い高解像画像を推定する手法が開示されている。   For example, in Patent Document 1 described above, low-resolution images that have been pixel-shifted during moving image shooting are sequentially captured in time series, and a plurality of low-resolution images are combined to assume a high-resolution image. A technique for performing the above-described super-resolution processing on a high-resolution image and estimating a high-resolution image with high likelihood is disclosed.

しかしながら、この手法では、2次元フィルターを多用する繰り返し演算により推定精度を上げていく一般的な超解像処理を用いている。そのため、非常に処理の規模が大きくなったり、処理時間が増大したりしてしまい、例えばデジタルカメラのような処理能力やコストの制限がある機器への適用は困難であるという課題がある。   However, this technique uses a general super-resolution process in which the estimation accuracy is increased by iterative calculations that frequently use a two-dimensional filter. For this reason, the scale of processing becomes very large and the processing time increases, and there is a problem that it is difficult to apply to a device such as a digital camera with processing capacity and cost restrictions.

また上述の特許文献2には、画素シフトさせた複数の低解像画像を撮像し、求めたい高解像画像を構成する仮の画素を副画素とおき、その副画素の平均値が、撮影された低解像画像の画素値と一致するように副画素の画素値を推定する手法が開示されている。この手法では、複数の副画素の初期値を設定し、算出したい副画素を除く副画素の画素値を低解像画像の画素値から差し引いて画素値を求め、それを順次隣接する画素に対して適用する。   In Patent Document 2 described above, a plurality of pixel-shifted low-resolution images are captured, and temporary pixels constituting the high-resolution image to be obtained are set as sub-pixels. A technique for estimating the pixel value of the sub-pixel so as to match the pixel value of the low-resolution image that has been made is disclosed. In this method, initial values of a plurality of sub-pixels are set, pixel values of sub-pixels excluding sub-pixels to be calculated are subtracted from pixel values of the low-resolution image, and pixel values are sequentially obtained for adjacent pixels. Apply.

しかしながら、この手法では、初期値の特定が上手くいかないと推定誤差が非常に大きくなるという課題がある。この手法では、初期値を設定するために、所定の条件を満たす領域を画像から見つけ出している。そのため、適当な領域が撮影画像から見つけられないと、初期値の推定が困難になってしまう。また、初期値の設定に適当な領域を探索する処理が必要になってしまう。   However, with this method, there is a problem that the estimation error becomes very large unless the initial value is specified. In this method, an area satisfying a predetermined condition is found from an image in order to set an initial value. Therefore, if an appropriate area cannot be found from the captured image, it is difficult to estimate the initial value. In addition, it is necessary to search for an appropriate area for setting the initial value.

この点、本実施形態では、図1で後述するように、平均画像Mと差分画像D〜Dから低解像画像A〜Aを再生し、その低解像画像A〜Aから撮像画像を推定により復元する。この低解像画像A〜Aの加算画素値a(1) 00〜a(4) 01は、重畳画素シフトされたものであり、隣接する加算画素値は共通の画素を含んでいる。図27(A)〜図30で後述するように、この重畳画素シフトされた加算画素値を用いることで、高解像画像を推定する処理を簡素化できる。 In this regard, in the present embodiment, as described later in FIG. 1, and reproduces the low-resolution image A 1 to A 4 from the average image M and the difference image D 1 to D 4, the low-resolution image A 1 to A 4 , the captured image is restored by estimation. The added pixel values a (1) 00 to a (4) 01 of the low-resolution images A 1 to A 4 are shifted by overlapping pixels, and adjacent added pixel values include common pixels. As will be described later with reference to FIGS. 27A to 30, the process of estimating a high-resolution image can be simplified by using the added pixel value that is shifted by the superimposed pixel.

2.第1のデータ圧縮手法
次に、本実施形態について詳細に説明する。まず、撮像画像データの圧縮手法について説明する。なお以下では撮像素子がRGBベイヤー配列である場合を例に説明するが、本実施形態はこれに限定されず、例えば補色フィルターの撮像素子等であってもよい。また以下では4画素加算を行う場合を例に説明するが、本実施形態はこれに限定されず、他の画素数の加算を行ってもよい。また以下ではフレームfxの撮像画像を例に説明するが、他のフレームにおいても同様である。
2. First Data Compression Method Next, this embodiment will be described in detail. First, a method for compressing captured image data will be described. In the following description, the case where the image sensor is an RGB Bayer array will be described as an example. However, the present embodiment is not limited to this, and may be, for example, an image sensor of a complementary color filter. In the following, a case where 4-pixel addition is performed will be described as an example. However, the present embodiment is not limited to this, and another pixel number may be added. Hereinafter, a captured image of the frame fx will be described as an example, but the same applies to other frames.

ここで、フレームとは、例えば撮像素子により画像が撮像されるタイミングや、画像処理において1つの撮像画像が処理されるタイミングである。あるいは、画像データにおける1つの画像も適宜フレームと呼ぶ。   Here, the frame is, for example, a timing at which an image is captured by an image sensor or a timing at which one captured image is processed in image processing. Alternatively, one image in the image data is also referred to as a frame as appropriate.

図1に示すように、フレームfxにおいて全画素読み出しによりRGBベイヤー配列の撮像画像(以下、「高精細フレーム画像fx」と呼ぶ)を取得する。高精細フレーム画像fxに、4画素で構成される加算単位(加算される画素群)を設定し、その加算単位の画素値に対して重み付けを行って加算する。このとき、加算単位を1画素分重畳させながら水平又は垂直にシフトさせ、4枚の画素加算画像A〜Aを生成する。 As shown in FIG. 1, a captured image of an RGB Bayer array (hereinafter referred to as “high-definition frame image fx”) is acquired by reading all pixels in a frame fx. An addition unit (a pixel group to be added) composed of four pixels is set in the high-definition frame image fx, and the pixel values of the addition unit are weighted and added. At this time, the addition unit is shifted horizontally or vertically while superimposing one pixel, and four pixel addition images A 1 to A 4 are generated.

4画素加算値aijは下式(1)で表わされ、画素加算画像A〜Aを構成する加算画素値はそれぞれ{aij、a(i+1)j、a(i+1)(j+1)、ai(j+1)}である。
ij=vij+(1/r)v(i+1)j
(1/r)vi(j+1)+(1/r)v(i+1)(j+1) (1)
The 4-pixel addition value a ij is expressed by the following expression (1), and the addition pixel values constituting the pixel addition images A 1 to A 4 are {a ij , a (i + 1) j , a (i + 1) (j + 1), respectively. , A i (j + 1) }.
a ij = v ij + (1 / r) v (i + 1) j +
(1 / r) v i (j + 1) + (1 / r 2 ) v (i + 1) (j + 1) (1)

ここで、rは重み付けのパラメータであり、1≦rである。またvijは高精細フレーム画像におけるアドレス(i,j)の画素値である。 Here, r is a weighting parameter, and 1 ≦ r. V ij is the pixel value of the address (i, j) in the high-definition frame image.

次に、生成した画素加算画像A〜Aの加算位置の整合を行い、4枚の画素加算画像を重ね合わせた上で同一位置の値の加算平均をとることにより平均画像Mを生成する。即ち、画素加算画像A〜Aの4画素加算値をそれぞれ{a(1) ij,a(2) (i+1)j,a(3) (i+1)(j+1),a(4) i(j+1)}とすると、平均画像Mの画素値a ijは下式(2)で表される。
ij=[a(1) ij+a(2) (i+1)j
(3) i(j+1)+a(4) (i+1)(j+1)]/4 (2)
Next, the addition positions of the generated pixel addition images A 1 to A 4 are matched, and an average image M is generated by superimposing the four pixel addition images and taking the addition average of the values at the same position. . That is, the 4-pixel addition values of the pixel addition images A 1 to A 4 are respectively represented by {a (1) ij , a (2) (i + 1) j , a (3) (i + 1) (j + 1) , a (4) i ( j + 1) }, the pixel value a M ij of the average image M is expressed by the following equation (2).
a M ij = [a (1) ij + a (2) (i + 1) j +
a (3) i (j + 1) + a (4) (i + 1) (j + 1) ] / 4 (2)

生成した平均画像Mを基準とし、その平均画像Mと画素加算画像A〜Aとの差分(方向ベクトル(1,−1)への射影)をそれぞれ差分画像D〜Dとする。差分画像D〜Dと平均画像Mを合わせて融合画像データF(M,D〜D)とする。差分画像D〜Dを構成する4画素加算差分値を{aD1 ij,aD2 ij,aD3 ij,aD4 ij}とすれば、下式(3)のように表わせる。
D1 ij=a ij−a(1) ij
D2 ij=a ij−a(2) (i+1)j
D3 ij=a ij−a(3) (i+1)(j+1)
D4 ij=a ij−a(4) i(j+1) (3)
Using the generated average image M as a reference, the difference (projection to the direction vector (1, −1)) between the average image M and the pixel addition images A 1 to A 4 is set as difference images D 1 to D 4 , respectively. The difference images D 1 to D 4 and the average image M are combined to obtain fused image data F (M, D 1 to D 4 ). If the 4-pixel addition difference values constituting the difference images D 1 to D 4 are represented as {a D1 ij , a D2 ij , a D3 ij , a D4 ij }, they can be expressed as the following expression (3).
a D1 ij = a M ij −a (1) ij ,
a D2 ij = a M ij −a (2) (i + 1) j ,
a D3 ij = a M ij −a (3) (i + 1) (j + 1) ,
a D4 ij = a M ij −a (4) i (j + 1) (3)

このようにして、静止画と動画を融合させた融合画像データF(M,D〜D)を生成し、それを記録しておき、その記録されたF(M,D〜D)を後段において解凍処理することにより、「高精細静止画データ」又は「動画データ」を適宜生成することが可能となる。 In this way, the still image fusion is fused to the moving image data F (M, D 1 ~D 4 ) generates, may be recorded it, the recorded F (M, D 1 ~D 4 ) In the subsequent stage, "high-definition still image data" or "moving image data" can be appropriately generated.

なお、この例では差分(即ち方向ベクトル(1,−1)への射影)をとったが、本実施形態はこれに限定されない。例えば、平均画像Mの画素値と画素加算画像A〜Aの画素値の相関分布に応じて、その主成分軸(分散が最も大きくなる直線)を求め、主成分軸に直交する軸に対して射影した値を用いた方が、より一層データの圧縮が可能となることは言うまでもない。 In this example, the difference (that is, projection onto the direction vector (1, −1)) is taken, but the present embodiment is not limited to this. For example, in accordance with the correlation distribution between the pixel values of the average image M and the pixel values of the pixel addition images A 1 to A 4 , the principal component axis (straight line with the largest variance) is obtained, and the axis orthogonal to the principal component axis is obtained. It goes without saying that the data can be further compressed by using the projected value.

3.エントロピー符号化
次に、上述した平均画像Mと差分画像D〜Dを圧縮する手法について説明する。
3. Entropy Coding Next, a method for compressing the above-described average image M and difference images D 1 to D 4 will be described.

平均画像M及び差分画像D〜Dの画素値データは、発生頻度分布の偏りが顕著になるため、エントロピー符号化(例えばハフマン符号,LZH等)がデータ圧縮として効果的である。エントロピー符号化とは、画素値の発生確率を求め、発生確率の高いものから短い符号長を割当てる圧縮手法である。 In the pixel value data of the average image M and the difference images D 1 to D 4 , the bias of the occurrence frequency distribution becomes remarkable, so that entropy coding (for example, Huffman code, LZH, etc.) is effective as data compression. Entropy coding is a compression technique in which the occurrence probability of a pixel value is obtained and a short code length is assigned from the one with the highest occurrence probability.

例えば、平均画像Mの画素値データの平均値に対して最も短い符号長を割り当て、その平均値から離れる値ほど符号長を長くしていく符号化が適当である。即ち、差分画像D〜Dの画素値データは各々の平均がゼロであり、ゼロの発生確率をピークとして分布しているので、ゼロ値に最も短い符号を割当てるようにすればよい。また、平均画像M及び差分画像D〜Dの画素値データは、確率密度に応じて非線形量子化を行うことも有効である。 For example, encoding in which the shortest code length is assigned to the average value of the pixel value data of the average image M and the code length is increased as the value is farther from the average value is appropriate. That is, since the pixel value data of the difference images D 1 to D 4 has an average of zero and is distributed with the occurrence probability of zero as a peak, the shortest code may be assigned to the zero value. It is also effective to perform nonlinear quantization on the pixel value data of the average image M and the difference images D 1 to D 4 according to the probability density.

一方、平均画像Mでは、確かに加算平均した画素値データなので発生頻度分布の偏りは顕著になるが、画素加算値の取りうる範囲は、差分画像D〜Dの画素値データと比較すると、かなり大きくなる。そのため、一般的に高圧縮率が期待できる非可逆圧縮法(JPEG,MPEG等)の適用がデータの圧縮としては効果的である。 On the other hand, in the average image M, the deviation of the occurrence frequency distribution becomes remarkable because the pixel value data is certainly the average of the addition, but the range that the pixel addition value can take is compared with the pixel value data of the difference images D 1 to D 4. , Get pretty big. For this reason, application of an irreversible compression method (JPEG, MPEG, etc.) that can generally be expected to have a high compression rate is effective as data compression.

従って、平均画像Mにおいては画素数を削減して非可逆高圧縮を適用し、差分画像D〜Dにおいては、同様な発生分布の偏りを呈する特性を利用した高速エントロピー符号化を適用することが考えられる。 Therefore, in the average image M, the number of pixels is reduced and irreversible high compression is applied, and in the difference images D 1 to D 4 , high-speed entropy coding using a characteristic exhibiting a similar occurrence distribution bias is applied. It is possible.

次に、最も単純なハフマン符号を適用する場合の例を示す。多数の画像の画素値分布に基づいて一つのハフマン符号テーブルを生成すると、適用範囲が広くなり、圧縮効果は画像依存になってしまう。しかしながら、画像毎又は画像範囲毎にハフマンテーブルを毎回生成するのは効果的ではない。   Next, an example of applying the simplest Huffman code is shown. If one Huffman code table is generated based on the pixel value distribution of a large number of images, the application range becomes wide and the compression effect becomes image-dependent. However, it is not effective to generate the Huffman table for each image or image range every time.

そこで、上記の平均画像Mに適用する場合、所定の画像領域毎に平均値α ijを下式(4)により求め、その平均値α ijと各加算平均値{a ij}の差分値{a’ ij}を下式(5)により求める。そして、その差分値{a’ ij}を改めて平均画像Mのデータとし、ハフマン符号化を適用すればよい。このことにより、差分値{a’ ij}は、普遍的にゼロを中心とした値の生起分布を形成できる。融合画像データF(M,D〜D)の中のMは、M={α ij,a’ ij}に置き換えて考えられる。

Figure 2012231377
a’ ij=a ij−α ij (5) Therefore, when applied to the above average image M, the average value α M ij is obtained for each predetermined image area by the following equation (4), and the difference between the average value α M ij and each added average value {a M ij }. The value {a ′ M ij } is obtained by the following equation (5). Then, the difference value {a ′ M ij } is used as the data of the average image M again, and Huffman coding may be applied. Thus, the difference value {a ′ M ij } can form an occurrence distribution of values universally centered on zero. M in the fusion image data F (M, D 1 to D 4 ) is considered to be replaced with M = {α M ij , a ′ M ij }.
Figure 2012231377
a ′ M ij = a M ij −α M ij (5)

ここで、(h0,v0)は、平均値α ijを算出する領域の始点であり、(h,v)は、平均値α ijを算出する領域の終点である。例えば、平均値α ijを算出する領域は、平均画像Mの全体である。平均値α ijを算出する領域や、平均値α ijの算出に用いる平均値a ijの数は、データの圧縮率とのバランスを評価して決めればよい。 Here, (h0, v0) is the start point of the area where the average value α M ij is calculated, and (h, v) is the end point of the area where the average value α M ij is calculated. For example, the area for calculating the average value α M ij is the entire average image M. The area for calculating the average value α M ij and the number of average values a M ij used for calculating the average value α M ij may be determined by evaluating the balance with the data compression rate.

上記の差分値{a’ ij}と4画素加算差分値{aD1 ij,aD2 ij,aD3 ij,aD4 ij}は、それら自体が平均ゼロの値から成っているので、図2に示す符号割り当てが考えられる。このようにすれば、ハフマン符号テーブルは固定的な一種類で済ますことができる。 Since the difference value {a ′ M ij } and the 4-pixel addition difference value {a D1 ij , a D2 ij , a D3 ij , a D4 ij } are themselves composed of a value of average zero, FIG. The code assignment shown in FIG. In this way, the Huffman code table can be a fixed type.

なお、上述の平均値α ijとして、下式(6)に示す固定値mAVRを適用し、変動データとして扱わずに先見情報として扱ってもよい。この場合、平均値mAVRはデータとして記録する必要はない。融合画像データF(M,D〜D)の中のMは、M={mAVR,a’ ij}と置き換えて考えられる。下式(6)は、上式(1)で定義される重み付け4画素加算値の場合への適用であり、加算画素数や重み付けの掛け方によって適宜適正な値が設定されることに注意が必要である。
AVR=vmax・{1+(1/r)+(1/r)+(1/r)}/2 (6)
Note that, as the above-described average value α M ij , the fixed value m AVR shown in the following equation (6) may be applied, and may be handled as look-ahead information without being treated as fluctuation data. In this case, the average value m AVR need not be recorded as data. M in the fusion image data F (M, D 1 to D 4 ) is considered to be replaced with M = {m AVR , a ′ M ij }. The following expression (6) is applied to the case of the weighted 4-pixel addition value defined by the above expression (1), and it should be noted that an appropriate value is appropriately set depending on the number of added pixels and the weighting method. is necessary.
m AVR = v max · {1+ (1 / r) + (1 / r) + (1 / r 2 )} / 2 (6)

ここで、rは重み付けのパラメータであり、1≦rである。vmaxは、画素値を規定する最大値である。 Here, r is a weighting parameter, and 1 ≦ r. v max is a maximum value that defines the pixel value.

4.第2のデータ圧縮手法
次に、上述した差分画像D〜Dのデータ量を更に削減する第2のデータ圧縮手法について説明する。
4). Second Data Compression Method Next, a second data compression method for further reducing the data amount of the difference images D 1 to D 4 described above will be described.

差分画像{D,D}の組み合わせと差分画像{D,D}の組み合わせにおいて、相互に負の相関性がある。即ち、{aD1 ij,aD3 ij}はR画素又はB画素の重み付けがr=1のパターン同士であり、{aD2 ij,aD4 ij}はGr画素又はGb画素の重み付けがr=1のパターン同士である。これらの画素値は、平均値と加算画素値の差分値であるため、相互に負の相関性をもつことになる。 There is a negative correlation between the combination of the difference image {D 1 , D 3 } and the combination of the difference image {D 2 , D 4 }. That is, {a D1 ij , a D3 ij } is a pattern in which the weight of R pixel or B pixel is r = 1, and {a D2 ij , a D4 ij } is weight of Gr pixel or Gb pixel is r = 1. Are the patterns. Since these pixel values are the difference values between the average value and the added pixel value, they have a negative correlation with each other.

そのため、4画素加算差分値{aD1 ij,aD3 ij},{aD2 ij,aD4 ij}の発生が規定される2次元座標空間において、生起分布の分散が最も小さくなる適切な軸を求め、その軸に差分値を射影した値を求めれば、更にデータの圧縮が可能である。生起分布の分散が最も小さくなる軸は、例えば、負の相関をもつ生起分布に沿った軸(1,−1)に直交する軸(1,1)である。 Therefore, in the two-dimensional coordinate space in which the generation of the 4-pixel addition difference values {a D1 ij , a D3 ij }, {a D2 ij , a D4 ij } is defined, an appropriate axis that minimizes the occurrence distribution variance is selected. If the value obtained by projecting the difference value on the axis is obtained, the data can be further compressed. The axis with the smallest variance of the occurrence distribution is, for example, the axis (1, 1) orthogonal to the axis (1, -1) along the occurrence distribution having a negative correlation.

ここでは、単純に上述の2組の4画素加算差分値を加算する例を示す。即ち、下式(7)に示すように、方向ベクトル(1,1)の軸への射影を行ってデータの圧縮を実現する。
φ=(aD1 ij+aD3 ij)/2,
φ=(aD2 ij+aD4 ij)/2 (7)
Here, an example in which the above two sets of 4-pixel addition difference values are simply added is shown. That is, as shown in the following equation (7), the data is compressed by projecting the direction vector (1, 1) onto the axis.
φ 1 = (a D1 ij + a D3 ij ) / 2
φ 2 = (a D2 ij + a D4 ij ) / 2 (7)

この場合、記録データは、4画素加算差分値{aD3 ij,aD4 ij}に代えて差分加算値{φ,φ}とすればよい。差分加算値{φ,φ}で構成される画像データを{Φ,Φ}と表わせば、最終的に記録する融合画像データはF(M,aD1 ij,aD2 ij,Φ,Φ)と表わされる。 In this case, the recording data may be the difference addition value {φ 1 , φ 2 } instead of the 4-pixel addition difference value {a D3 ij , a D4 ij }. If the image data composed of the difference addition values {φ 1 , φ 2 } is expressed as {Φ 1 , Φ 2 }, the fusion image data to be finally recorded is F (M, a D1 ij , a D2 ij , Φ 1 , Φ 2 ).

5.高精細静止画の再生手法
上述の第1のデータ圧縮手法では、融合画像データF(M,D〜D)が得られる。このF(M,D〜D)から高精細静止画(図1のフレーム画像fx)を復元推定する手法について説明する。
5. In the high-definition still picture playback method first data compression techniques described above, the fusion image data F (M, D 1 ~D 4 ) is obtained. A technique for restoring and estimating a high-definition still image (frame image fx in FIG. 1) from F (M, D 1 to D 4 ) will be described.

上式(3)を変形すると、下式(8)が得られる。下式(8)に示すように、平均画像Mを構成する4画素加算値{a ij}と、差分画像D〜Dを構成する4画素加算値{aD1 ij,aD2 ij,aD3 ij,aD4 ij}から、画素加算画像A〜Aのそれぞれの4画素加算値{a(1) ij,a(2) (i+1)j,a(3) (i+1)(j+1),a(4) i(j+1)}が得られる。
(1) ij=a ij−aD1 ij
(2) (i+1)j=a ij−aD2 ij
(3) (i+1)(j+1)=a ij−aD3 ij
(4) i(j+1)=a ij−aD4 ij (8)
When the above equation (3) is transformed, the following equation (8) is obtained. As shown in the following equation (8), the 4-pixel addition value {a M ij } constituting the average image M and the 4-pixel addition values {a D1 ij , a D2 ij , constituting the difference images D 1 to D 4 , From the a D3 ij , a D4 ij }, the 4-pixel addition values {a (1) ij , a (2) (i + 1) j , a (3) (i + 1) (j + 1) of the pixel addition images A 1 to A 4 ), a (4) i ( j + 1)} is obtained.
a (1) ij = a M ij −a D1 ij ,
a (2) (i + 1) j = a M ij −a D2 ij ,
a (3) (i + 1) (j + 1) = a M ij −a D3 ij ,
a (4) i (j + 1) = a M ij −a D4 ij (8)

求められた4画素加算値{a(1) ij,a(2) (i+1)j,a(3) (i+1)(j+1),a(4) i(j+1)}は、1枚の高精細画像を水平又は垂直に1画素ずつ重畳シフトした4画素加算値により構成されている画像データである。この4画素加算値を、図27(A)〜図30で後述する復元推定処理に適用することにより、元の高精細フレーム画像fxの画素値が求められる。 The obtained 4-pixel addition value {a (1) ij , a (2) (i + 1) j , a (3) (i + 1) (j + 1) , a (4) i (j + 1) } is one high definition This is image data composed of an added value of four pixels obtained by superimposing and shifting an image horizontally or vertically one pixel at a time. The pixel value of the original high-definition frame image fx is obtained by applying this 4-pixel addition value to the restoration estimation process described later with reference to FIGS.

上述の第2のデータ圧縮手法では、融合画像データF(M,aD1 ij,aD2 ij,Φ,Φ)が得られる。このF(M,aD1 ij,aD2 ij,Φ,Φ)から高精細静止画を復元推定する手法について説明する。 In the second data compression method described above, the fused image data F (M, a D1 ij , a D2 ij , Φ 1 , Φ 2 ) is obtained. A method for restoring and estimating a high-definition still image from F (M, a D1 ij , a D2 ij , Φ 1 , Φ 2 ) will be described.

上式(7)を変形すると、下式(9)が得られる。下式(9)より、差分画像D〜Dが得られる。差分画像D〜Dが得られれば、上記と同様に処理することにより、最終的な高精細フレーム画像fxが復元される。
D3 ij=aD1 ij−2φ
D4 ij=aD2 ij−2φ (9)
When the above equation (7) is transformed, the following equation (9) is obtained. Difference images D 1 to D 4 are obtained from the following equation (9). If the difference images D 1 to D 4 are obtained, the final high-definition frame image fx is restored by performing the same processing as described above.
a D3 ij = a D1 ij -2φ 1 ,
a D4 ij = a D2 ij -2φ 2 (9)

なお、以上の実施形態では図1に示すように加算単位を4回シフトさせて加算画像A〜Aを取得し、平均画像Mと差分画像D〜Dを求めたが、本実施形態はこれに限定されない。例えば、加算単位を9回シフトさせて加算画像A〜Aを取得し、平均画像Mと差分画像D〜Dを求めてもよい。 In the above embodiment, as shown in FIG. 1, the addition unit is shifted four times to obtain the addition images A 1 to A 4 and the average image M and the difference images D 1 to D 4 are obtained. The form is not limited to this. For example, the addition unit may be shifted nine times to obtain the added images A 1 to A 9 and the average image M and the difference images D 1 to D 9 may be obtained.

6.撮像装置
図3に、上述のデータ圧縮処理と、高精細フレーム画像fxの復元処理を行う撮像装置の構成例を示す。
6). Imaging Device FIG. 3 shows a configuration example of an imaging device that performs the above-described data compression processing and high-definition frame image fx restoration processing.

撮像装置は、撮像とデータ圧縮処理を行う撮像部10と、高精細画像の復元処理を行う画像処理部20を含む。画像処理部20は、カメラ本体に内蔵されてもよいし、PC等の外部の情報処理装置により構成されてもよい。   The imaging apparatus includes an imaging unit 10 that performs imaging and data compression processing, and an image processing unit 20 that performs restoration processing of a high-definition image. The image processing unit 20 may be built in the camera body or may be configured by an external information processing apparatus such as a PC.

具体的には、撮像部10は、レンズ110、撮像素子120(撮像センサー)、加算画像生成部130(重畳シフト重み付け加算画像生成部)、圧縮処理部140、圧縮データ記録部150(融合圧縮データ記録部)、低解像動画生成部160(標準動画生成部)、動画データ圧縮部170、動画データ記録部180、モニター表示部190を含む。   Specifically, the imaging unit 10 includes a lens 110, an imaging element 120 (imaging sensor), an addition image generation unit 130 (superimposition shift weighted addition image generation unit), a compression processing unit 140, and a compressed data recording unit 150 (fusion compression data). Recording unit), a low-resolution moving image generation unit 160 (standard moving image generation unit), a moving image data compression unit 170, a moving image data recording unit 180, and a monitor display unit 190.

レンズ110は、被写体100を結像させる。撮像素子120は、結像された被写体像を撮像する。撮像により得られたアナログ信号は、図示しないA/D変換部によりデジタル信号に変換される。   The lens 110 forms an image of the subject 100. The image sensor 120 captures the formed subject image. An analog signal obtained by imaging is converted into a digital signal by an A / D converter (not shown).

加算画像生成部130は、上述のように、画素シフトさせつつ撮像画像の画素値を加算し、撮像画像から画素加算画像A〜Aを生成する。 As described above, the addition image generation unit 130 adds the pixel values of the captured image while shifting the pixels, and generates pixel addition images A 1 to A 4 from the captured image.

圧縮処理部140は、画素加算画像A〜Aから平均画像Mと差分画像D〜Dを生成し、その平均画像Mと差分画像D1〜D4を圧縮する処理を行う。具体的には圧縮処理部140は、差分画像生成部141、平均画像生成部142、エントロピー符号化部143、データ圧縮部144を含む。 The compression processing unit 140 generates an average image M and difference images D 1 to D 4 from the pixel addition images A 1 to A 4, and performs a process of compressing the average image M and the difference images D 1 to D 4 . Specifically, the compression processing unit 140 includes a difference image generation unit 141, an average image generation unit 142, an entropy encoding unit 143, and a data compression unit 144.

平均画像生成部142は、画素加算画像A〜Aから平均画像Mを生成する。差分画像生成部141は、画素加算画像A〜Aと平均画像Mから差分画像D〜Dを生成する。エントロピー符号化部143は、上述のエントロピー符号化等の可逆圧縮により差分画像D〜Dを圧縮する。データ圧縮部144は、例えばM−JPEGやJPEG−XR等の非可逆圧縮により平均画像Mを圧縮する。 The average image generation unit 142 generates an average image M from the pixel addition images A 1 to A 4 . The difference image generation unit 141 generates difference images D 1 to D 4 from the pixel addition images A 1 to A 4 and the average image M. The entropy encoding unit 143 compresses the difference images D 1 to D 4 by lossless compression such as the above-described entropy encoding. The data compression unit 144 compresses the average image M by irreversible compression such as M-JPEG or JPEG-XR.

圧縮データ記録部150は、圧縮された画像データを記録する。具体的には圧縮データ記録部150は、圧縮された差分画像D〜Dを記録する差分データ記録部151と、圧縮された平均画像Mを記録する平均画像データ記録部152を含む。 The compressed data recording unit 150 records the compressed image data. Specifically, the compressed data recording unit 150 includes a difference data recording unit 151 that records the compressed difference images D 1 to D 4 and an average image data recording unit 152 that records the compressed average image M.

低解像動画生成部160は、図9等で後述する処理によりリアルタイムの低解像動画を生成する。動画データ圧縮部170は、例えばAVCHD(H.264)やM−JPEG、JPEG−XR等により低解像動画を圧縮する。動画データ記録部180は、圧縮された低解像動画を記録する。モニター表示部190は、リアルタイムの又は再生された低解像動画を表示する。   The low-resolution moving image generation unit 160 generates a real-time low-resolution moving image by processing described later with reference to FIG. The moving image data compression unit 170 compresses a low resolution moving image by using, for example, AVCHD (H.264), M-JPEG, JPEG-XR, or the like. The moving image data recording unit 180 records a compressed low resolution moving image. The monitor display unit 190 displays a real-time or reproduced low-resolution moving image.

画像処理部20は、伸張処理部205、加算画像ノイズ低減処理部220、推定演算部230(高精細画像復元推定部)、高精細静止画生成部240、高精細動画生成部250、高画質標準動画生成部260、動画圧縮データ伸張部270、標準動画生成部280、画像出力部290、画像選択部295を含む。   The image processing unit 20 includes an expansion processing unit 205, an added image noise reduction processing unit 220, an estimation calculation unit 230 (high-definition image restoration estimation unit), a high-definition still image generation unit 240, a high-definition moving image generation unit 250, and a high-quality standard. A moving image generation unit 260, a moving image compressed data decompression unit 270, a standard moving image generation unit 280, an image output unit 290, and an image selection unit 295 are included.

伸張処理部205は、圧縮データを伸張して加算画像A〜Aを再生する。具体的には、伸張処理部205は、圧縮データ伸張部200、加算画像再生部210(重み付け加算画像再生部)を含む。 The decompression processing unit 205 decompresses the compressed data and reproduces the added images A 1 to A 4 . Specifically, the expansion processing unit 205 includes a compressed data expansion unit 200 and an addition image reproduction unit 210 (weighted addition image reproduction unit).

圧縮データ伸張部200は、圧縮された平均画像Mと差分画像D〜Dを伸張する処理を行う。加算画像再生部210は、平均画像Mと差分画像D〜Dから加算画像A〜Aを再生する処理を行う。加算画像ノイズ低減処理部220は、図19等で後述する適応的ノイズ低減処理を、加算画像A〜Aに対して行う。 The compressed data decompression unit 200 performs a process of decompressing the compressed average image M and the difference images D 1 to D 4 . The addition image reproduction unit 210 performs a process of reproducing the addition images A 1 to A 4 from the average image M and the difference images D 1 to D 4 . The added image noise reduction processing unit 220 performs adaptive noise reduction processing, which will be described later with reference to FIG. 19 and the like, on the added images A 1 to A 4 .

推定演算部230は、加算画像A〜Aに基づいて高精細フレーム画像fxを推定により復元する。復元された画像は、ベイヤー配列のRAW画像である。この推定演算については、図27(A)等において後述する。 The estimation calculation unit 230 restores the high-definition frame image fx by estimation based on the added images A 1 to A 4 . The restored image is a Bayer array RAW image. This estimation calculation will be described later with reference to FIG.

高精細静止画生成部240は、ベイヤー配列の復元画像をデモザイキング処理し、その画像に対して例えば階調補正処理等の画像処理を行い、高精細静止画を生成する。このとき、画像選択部295により選択されたタイミングの静止画が生成される。タイミングは、ユーザーの指示により選択される。ユーザーは、モニター表示部190の表示動画を見てタイミングを選択してもよいし、画像出力部290の出力動画を見てタイミングを選択してもよい。   The high-definition still image generation unit 240 performs demosaicing processing on the restored image with the Bayer arrangement, and performs image processing such as gradation correction processing on the image to generate a high-definition still image. At this time, a still image at the timing selected by the image selection unit 295 is generated. The timing is selected by a user instruction. The user may select the timing by viewing the moving image displayed on the monitor display unit 190, or may select the timing by viewing the moving image output by the image output unit 290.

高精細動画生成部250は、ベイヤー配列の復元動画画像をデモザイキング処理し、その動画画像に対して例えば階調補正処理等の画像処理を行い、高精細動画を生成する。高画質標準動画生成部260は、高精細動画をダウンサンプリングし、例えばハイビジョン画素数の動画を高画質標準動画として生成する。   The high-definition moving image generation unit 250 performs demosaicing processing on the restored moving image having the Bayer arrangement, performs image processing such as gradation correction processing on the moving image, and generates a high-definition moving image. The high-quality standard video generation unit 260 downsamples the high-definition video and generates, for example, a video with the number of high-definition pixels as a high-quality standard video.

標準動画生成部280は、加算画像再生部210により再生された加算画像A〜Aを用いて、図9等で後述する処理により低解像動画を生成し、その低解像動画を標準動画として出力する。標準動画は、例えばハイビジョン画素数の動画である。また、動画圧縮データ伸張部270が、動画データ記録部180からの圧縮低解像動画を伸張し、標準動画生成部280が、その伸張された低解像動画を標準動画として出力してもよい。 The standard moving image generation unit 280 generates a low resolution moving image by processing described later with reference to FIG. 9 and the like using the addition images A 1 to A 4 reproduced by the addition image reproduction unit 210, and the low resolution moving image is standardized. Output as a movie. The standard moving image is, for example, a moving image having a high-definition pixel number. Further, the moving image compression data expansion unit 270 may expand the compressed low resolution moving image from the moving image data recording unit 180, and the standard moving image generation unit 280 may output the expanded low resolution moving image as a standard moving image. .

画像出力部290は、高精細静止画、高精細動画、高画質標準動画、標準動画を、例えば表示装置やプリンターに出力する。   The image output unit 290 outputs a high-definition still image, a high-definition moving image, a high-quality standard moving image, and a standard moving image, for example, to a display device or a printer.

7.融合画像データの符号割り当て例   7). Code assignment example of fusion image data

上述の圧縮処理部140が融合画像データF(M,D〜D)を圧縮する場合の符号割り当てについて説明する。 The code assignment when the above-described compression processing unit 140 compresses the fused image data F (M, D 1 to D 4 ) will be described.

図4に第1の符号割り当て例を示す。図4に示すように、融合画像データF(M,D〜D)の座標(i,j)の画素値に24ビットを割り当てる。具体的には、平均画像Mの画素値a ijに8ビットを割り当て、差分画像D〜Dの画素値aD1 ij〜aD4 ijにそれぞれ4ビットを割り当てる。例えば撮像画像(原画像)の画素数をN画素とし、画素値データを12ビットとすると、圧縮データのデータ量は撮像画像のデータ量の1/2=(N/4画素×24ビット)/(N画素×12ビット)となる。そして、この符号割り当て後のデータに対して可逆又は非可逆の圧縮を行う。 FIG. 4 shows a first code allocation example. As shown in FIG. 4, 24 bits are assigned to the pixel value of the coordinates (i, j) of the fused image data F (M, D 1 to D 4 ). Specifically, 8 bits are assigned to the pixel value a M ij of the average image M, and 4 bits are assigned to the pixel values a D1 ij to a D4 ij of the difference images D 1 to D 4 , respectively. For example, if the number of pixels of the captured image (original image) is N pixels and the pixel value data is 12 bits, the data amount of the compressed data is 1/2 of the data amount of the captured image = (N / 4 pixels × 24 bits) / (N pixels × 12 bits). Then, lossless or lossy compression is performed on the data after the code assignment.

図5に第2の符号割り当て例を示す。図5に示すように、平均画像Mの各画素値に8ビットを割り当て、そのデータを非可逆圧縮する。また、差分画像D〜Dの各画素値に4ビットを割り当て、そのデータを可逆圧縮する。図5では、差分画像Dの符号割り当てを示すが、他の差分画像D〜Dの符号割り当てについても同様である。また図5において、dij=aD1 ijである。 FIG. 5 shows a second code allocation example. As shown in FIG. 5, 8 bits are assigned to each pixel value of the average image M, and the data is irreversibly compressed. Also, 4 bits are assigned to each pixel value of the difference images D 1 to D 4 and the data is reversibly compressed. In Figure 5 shows a code assignment of the difference image D 1, it is the same for code assignment of the other of the difference image D 2 to D 4. In FIG. 5, d ij = a D1 ij .

この例では、再びデータ伸張したときに平均画像が多少劣化することが考えられるが、上式(3)に示すように、差分画素値{aD1 ij,aD2 ij,aD3 ij,aD4 ij}は、共通の平均値a ijをもつ。後述する復元推定処理では、隣接画素値の差分値(例えばa(2) (i+1)j−a(1) ij=aD2 ij−aD1 ij)を用いて推定を行う。このとき、平均値a ijがキャンセルされるため、平均画像が劣化していても隣接画素値の差分値は完全に復元できる。このように、隣接加算値の差分値により元の画素値関係を特定し推定する方法は、本方式の圧縮の仕方に非常に好都合な復元推定処理であると言える。 In this example, it is conceivable that the average image is somewhat degraded when the data is expanded again, but as shown in the above equation (3), the difference pixel values {a D1 ij , a D2 ij , a D3 ij , a D4 ij } has a common average value a M ij . In the restoration estimation process described later, estimation is performed using a difference value between adjacent pixel values (for example, a (2) (i + 1) j −a (1) ij = a D2 ij −a D1 ij ). At this time, since the average value a M ij is canceled, the difference value between adjacent pixel values can be completely restored even if the average image is degraded. Thus, it can be said that the method of specifying and estimating the original pixel value relationship based on the difference value of the adjacent addition values is a restoration estimation process that is very convenient for the compression method of the present method.

8.撮像装置の第2の構成例
図6に、上式(6)で説明した平均値mAVRを用いて可逆圧縮を行う場合の構成例として、撮像装置の第2の構成例を示す。この撮像装置は、撮像部10、画像処理部20を含む。なお以下では、図3等で上述した構成要素と同一の構成要件については同一の符号を付し、適宜説明を省略する。
8). Second Configuration Example of Imaging Device FIG. 6 shows a second configuration example of the imaging device as a configuration example in the case of performing reversible compression using the average value m AVR described in the above equation (6). The imaging device includes an imaging unit 10 and an image processing unit 20. In the following description, the same components as those described above with reference to FIG. 3 and the like are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

撮像部10は、レンズ110、撮像素子120、加算画像生成部130、差分画像生成部141、平均画像生成部142、平均値算出部145、減算部146、可逆圧縮符号化部147、圧縮データ記録部150、低解像動画生成部160、動画データ圧縮部170、動画データ記録部180、モニター表示部190を含む。画像処理部20の構成要素は、図3の画像処理部20と同様である。   The imaging unit 10 includes a lens 110, an image sensor 120, an addition image generation unit 130, a difference image generation unit 141, an average image generation unit 142, an average value calculation unit 145, a subtraction unit 146, a lossless compression encoding unit 147, and compressed data recording. Unit 150, low-resolution moving image generation unit 160, moving image data compression unit 170, moving image data recording unit 180, and monitor display unit 190. The components of the image processing unit 20 are the same as those of the image processing unit 20 in FIG.

平均値算出部145は、上式(6)で説明した平均値mAVRを、平均画像Mに基づいて算出する。減算部146は、平均画像Mの画素値a ijから平均値mAVRを減算し、減算後の画素値mdijを出力する。可逆圧縮符号化部147は、差分画像D〜Dのデータと、画素値mdijのデータを可逆圧縮する。圧縮データ記録部150は、圧縮されたデータと平均値mAVRを記録する。 The average value calculation unit 145 calculates the average value m AVR described in the above equation (6) based on the average image M. The subtracting unit 146 subtracts the average value m AVR from the pixel value a M ij of the average image M, and outputs the pixel value md ij after the subtraction. The lossless compression encoding unit 147 performs lossless compression on the data of the difference images D 1 to D 4 and the data of the pixel value md ij . The compressed data recording unit 150 records the compressed data and the average value m AVR .

圧縮データ伸張部200は、差分画像D〜Dと画素値mdijと平均値mAVRを、圧縮されたデータから伸張する。加算画像再生部210は、画素値mdijと平均値mAVRから平均画像Mを再生し、その平均画像Mと差分画像D〜Dから加算画像A〜Aを再生する。 The compressed data decompression unit 200 decompresses the difference images D 1 to D 4 , the pixel value md ij, and the average value m AVR from the compressed data. The addition image reproduction unit 210 reproduces the average image M from the pixel value md ij and the average value m AVR, and reproduces the addition images A 1 to A 4 from the average image M and the difference images D 1 to D 4 .

図7に、上記第2の構成例における融合画像データF(M,D〜D)の符号割り当て例を示す。図7に示すように、画素値mdijの先頭に平均値mAVRが配列され、画素値mdijと平均値mAVRにはそれぞれ8ビットが割り当てられる。また、差分画像D〜Dの画素値dijにそれぞれ4ビットが割り当てられる。これらのデータは可逆圧縮される。 FIG. 7 shows an example of code assignment of the fused image data F (M, D 1 to D 4 ) in the second configuration example. As shown in FIG. 7, the average value m AVR is arranged at the head of the pixel values md ij, 8 bits each are assigned to the mean value m AVR and pixel values md ij. Also, 4 bits are assigned to each of the pixel values d ij of the difference images D 1 to D 4 . These data are reversibly compressed.

上記第2の構成例によれば、平均画像Mの画素値mdijの発生分布確率に偏りがない場合でも、4画素異色加算画像に変換することにより偏りを作り出すことができるのでエントロピーを低減でき、可逆圧縮における圧縮効果が期待できる。また、平均値mAVRと画素値mdijの差分をデータとして採用することにより、発生確率分布の位置(平均値)に大きく依存することなく安定したデータ値を得ることができ、圧縮効果が期待できる。また、全て可逆圧縮なので復元推定前のデータ劣化は存在しない。 According to the second configuration example, even when the occurrence distribution probability of the pixel value md ij of the average image M is not biased, it is possible to reduce the entropy because the bias can be created by converting to the 4-pixel different color addition image. A compression effect in lossless compression can be expected. Further, by adopting the difference between the average value m AVR and the pixel value md ij as data, a stable data value can be obtained without greatly depending on the position (average value) of the occurrence probability distribution, and a compression effect is expected. it can. Also, since all are lossless compression, there is no data degradation before restoration estimation.

9.撮像装置の変形構成例
上記の実施形態では融合画像データF(M,D〜D)を圧縮する場合を例に説明したが、本実施形態はこれに限定されず、加算画像A〜Aを圧縮してもよい。図8に、加算画像A〜Aを圧縮する場合の撮像装置の変形構成例を示す。この撮像装置は、撮像部10、画像処理部20を含む。
9. Modified Configuration Example of Imaging Device In the above embodiment, the case where the fusion image data F (M, D 1 to D 4 ) is compressed has been described as an example. However, the present embodiment is not limited to this, and the added image A 1 to A 1 to it may be compressed the a 4. FIG. 8 shows a modified configuration example of the imaging device when the added images A 1 to A 4 are compressed. The imaging device includes an imaging unit 10 and an image processing unit 20.

撮像部10は、レンズ110、撮像素子120、加算画像生成部130、データ圧縮部148、データ記録部155、低解像動画生成部160、動画データ圧縮部170、モニター表示部190を含む。画像処理部20の構成要素は、図3の画像処理部20と同様である。   The imaging unit 10 includes a lens 110, an imaging element 120, an added image generation unit 130, a data compression unit 148, a data recording unit 155, a low resolution moving image generation unit 160, a moving image data compression unit 170, and a monitor display unit 190. The components of the image processing unit 20 are the same as those of the image processing unit 20 in FIG.

データ圧縮部148は、例えばM−JPEGやJPEG−XR等の非可逆圧縮により加算画像A〜Aを圧縮する。データ記録部155は、データ圧縮部148により圧縮された加算画像A〜Aと、動画データ圧縮部170により圧縮された低解像動画を記録する。 The data compression unit 148 compresses the added images A 1 to A 4 by irreversible compression such as M-JPEG or JPEG-XR. The data recording unit 155 records the added images A 1 to A 4 compressed by the data compression unit 148 and the low resolution moving image compressed by the moving image data compression unit 170.

この変形構成例によれば、重畳シフト重み付け加算による加算画像A〜Aを圧縮することで、通常のデモザイキング処理やYCbCr変換を行わずにダイレクトにベイヤー画像を圧縮可能である。 According to this modified configuration example, by compressing the added images A 1 to A 4 by superposition shift weighted addition, it is possible to directly compress the Bayer image without performing normal demosaicing processing or YCbCr conversion.

以上の実施形態によれば、図3に示すように、撮像装置は、画像取得部(例えば撮像素子120)と加算画像生成部130と圧縮処理部140と伸張処理部205と推定演算部230と画像出力部290を含む。   According to the above embodiment, as illustrated in FIG. 3, the imaging apparatus includes an image acquisition unit (for example, the imaging device 120), the addition image generation unit 130, the compression processing unit 140, the expansion processing unit 205, and the estimation calculation unit 230. An image output unit 290 is included.

図1に示すように、画像取得部は撮像画像fx(高精細フレーム画像)を取得する。加算画像生成部130は、加算画素値(例えばa(1) ij)を取得する単位である加算単位を撮像画像の複数の画素毎(例えば4画素毎)に設定し、その加算単位に含まれる画素値を重み付け加算(上式(1))して加算画素値を求め、求めた加算画素値による加算画像A〜Aを取得する。圧縮処理部140は、その加算画像A〜Aを圧縮する。伸張処理部205は、圧縮された加算画像A〜Aを伸張する。推定演算部230は、伸張された加算画像A〜Aに基づいて撮像画像fxの画素値vijを推定する。画像出力部290は、推定された画素値vijに基づく高解像画像を出力する。 As illustrated in FIG. 1, the image acquisition unit acquires a captured image fx (high-definition frame image). The addition image generation unit 130 sets an addition unit, which is a unit for acquiring an addition pixel value (for example, a (1) ij ), for each of a plurality of pixels (for example, every four pixels) of the captured image, and is included in the addition unit. The pixel values are weighted and added (the above formula (1)) to obtain the added pixel value, and the added images A 1 to A 4 based on the obtained added pixel value are obtained. The compression processing unit 140 compresses the added images A 1 to A 4 . The decompression processing unit 205 decompresses the compressed addition images A 1 to A 4 . The estimation calculation unit 230 estimates the pixel value v ij of the captured image fx based on the expanded added images A 1 to A 4 . The image output unit 290 outputs a high resolution image based on the estimated pixel value v ij .

この場合に、加算画像生成部130は、加算単位を順次画素シフトさせて第1〜第4(広義には第1〜第n)の加算画像A〜Aを取得する。圧縮処理部140は、第1〜第4の加算画像A〜Aの平均を平均画像Mとして求め(上式(2))、その平均画像Mと、第mの加算画像A(mはn以下の自然数)の差分を第mの差分画像Dとして求め(上式(3))、求めた平均画像Mと差分画像Dを圧縮する。伸張処理部205は、圧縮された平均画像Mと差分画像Dを伸張して加算画像A〜Aを求める。 In this case, the addition image generation unit 130 sequentially shifts the addition unit by pixels to obtain first to fourth (first to nth in a broad sense) addition images A 1 to A 4 . The compression processing unit 140 obtains the average of the first to fourth addition images A 1 to A 4 as the average image M (the above expression (2)), and the average image M and the m-th addition image A m (m Is a natural number equal to or less than n) as the m-th difference image D m (the above equation (3)), and the obtained average image M and difference image D m are compressed. Decompression processing unit 205 decompresses the compressed average image M and the difference image D m by determining the added image A 1 to A 4.

このようにすれば、撮像画像fxを効率よく圧縮することが可能になる。即ち、撮像画像fxと4枚の加算画像A〜Aは画素数としては同一になるが、上述のように差分画像Dの画素値のエントロピーを撮像画像fxよりも小さくできるため、圧縮率を向上できる。これにより、高圧縮率の画像データから撮像画像fxを復元して任意タイミングの高精細静止画を取り出すことが可能になる。また、加算画像A〜Aを1枚の撮像画像fxから生成するため、動体でもブレが少ない時間分解能が高い復元画像を得られる。 In this way, the captured image fx can be efficiently compressed. That is, although the captured image fx and the four added images A 1 to A 4 have the same number of pixels, the entropy of the pixel value of the difference image D m can be made smaller than that of the captured image fx as described above. The rate can be improved. As a result, the captured image fx can be restored from the high-compression-rate image data to extract a high-definition still image at an arbitrary timing. Further, since the added images A 1 to A 4 are generated from one captured image fx, a restored image with a high temporal resolution with little blur can be obtained even with moving objects.

また、センサー直後に高速に低解像化できることによるデータの縮小が可能であるため、後段でのデータ処理の負荷の低減が図られ、高速データ処理を伴わずに高精細画像の高速撮影処理システムが構築できる。また既存システムへの適用を容易とする技術の提供が可能となる。   In addition, since the data can be reduced by being able to reduce the resolution at high speed immediately after the sensor, the data processing load in the subsequent stage can be reduced, and a high-speed image processing system for high-definition images without high-speed data processing. Can be built. In addition, it is possible to provide a technology that can be easily applied to existing systems.

また本実施形態によれば、簡素な処理で圧縮データから撮像画像fxを再生可能である。即ち、加算画像A〜Aは、重畳シフト加算により得られた画像データであり、後述する復元推定処理を適用可能である。この復元推定処理は、低解像画像から高解像画像を推定する処理を、上述の特許文献1、2に比べて簡素化することができる。 Further, according to the present embodiment, the captured image fx can be reproduced from the compressed data with a simple process. That is, the addition images A 1 to A 4 are image data obtained by superposition shift addition, and a restoration estimation process described later can be applied. This restoration estimation process can simplify the process of estimating a high-resolution image from a low-resolution image as compared with Patent Documents 1 and 2 described above.

また本実施形態では、図1に示すように、加算画像生成部130は、加算単位を、水平又は垂直(i軸方向又はj軸方向)に1画素ずつ順次シフトさせて第1〜第4のポジション(例えば座標(0,0)、(1,0)、(1,1)、(0,1))に設定し、その第1〜第4のポジションにおいてそれぞれ加算画像A〜Aを取得する。第mのポジションと第m+1のポジション(例えば(0,0)、(1,0))の加算単位は、共通の画素(v10、v11)を含む。 In this embodiment, as shown in FIG. 1, the addition image generation unit 130 sequentially shifts the addition unit one pixel at a time horizontally or vertically (i-axis direction or j-axis direction). The position (for example, coordinates (0,0), (1,0), (1,1), (0,1)) is set, and the added images A 1 to A 4 are respectively displayed at the first to fourth positions. get. The addition unit of the m-th position and the m + 1-th position (for example, (0, 0), (1, 0)) includes a common pixel (v 10 , v 11 ).

また本実施形態では、図3に示すように、圧縮処理部140は平均画像生成部142と差分画像生成部141を有する。上式(2)に示すように、平均画像生成部142は、第1〜第4のポジションの加算画素値の平均値a ijを、平均画像の画素値として求める。差分画像生成部141は、平均画像の画素値a ijと、第mのポジションの加算画素値(例えばa(1) ij)の差分値(aD1 ij)を、第mの差分画像の画素値として求める。 In the present embodiment, as illustrated in FIG. 3, the compression processing unit 140 includes an average image generation unit 142 and a difference image generation unit 141. As shown in the above equation (2), the average image generation unit 142 obtains the average value a M ij of the added pixel values at the first to fourth positions as the pixel value of the average image. The difference image generation unit 141 uses the pixel value a M ij of the average image and the difference value (a D1 ij ) of the added pixel value (for example, a (1) ij ) of the m-th position as the pixel of the m-th difference image. Calculate as a value.

これらのようにすれば、共通の画素を含みながら加算単位を順次画素シフトして加算画素値を求める重畳シフト加算を行うことができる。また、加算画像A〜Aの加算画素値を平均することで、平均画像Mの画素値を求めることができる。また、平均画像の画素値と、加算画像A〜Aの加算画素値の差分値により、差分画像D〜Dの画素値を求めることができる。 By doing so, it is possible to perform superposition shift addition for obtaining an added pixel value by sequentially shifting the addition unit while including a common pixel. Further, by averaging the added pixel value of the added image A 1 to A 4, may be obtained pixel values of the average image M. Further, the pixel values of the difference images D 1 to D 4 can be obtained from the difference value between the pixel value of the average image and the addition pixel values of the addition images A 1 to A 4 .

また本実施形態では、図3等で説明したように、圧縮処理部140は、第mの差分画像Dをエントロピー符号化により可逆圧縮する。 In this embodiment, as described with reference to FIG. 3 and the like, the compression processing unit 140 losslessly compresses the mth difference image Dm by entropy coding.

このようにすれば、上述のようにエントロピーが小さくなった差分画像Dを高圧縮率で圧縮することができるため、画像データの圧縮率を向上できる。これにより、圧縮データを記録するストレージの容量を削減したり、データ通信における通信負荷を軽減できる。 In this way, it is possible to compress the difference image D m entropy is reduced as described above at a high compression ratio, it is possible to improve the compression ratio of the image data. Thereby, the capacity of the storage for recording the compressed data can be reduced, and the communication load in data communication can be reduced.

また本実施形態では、撮像画像fxはRGBベイヤー配列の画像である。この場合に、推定演算部230は、撮像画像fxのRGBベイヤー配列の画素値vijを推定により求める。画像出力部290は、推定されたRGBベイヤー配列の画素値vijをデモザイキング処理した画像に基づいて高解像動画を出力する。 In the present embodiment, the captured image fx is an RGB Bayer array image. In this case, the estimation calculation unit 230 obtains the pixel value v ij of the RGB Bayer array of the captured image fx by estimation. The image output unit 290 outputs a high-resolution moving image based on an image obtained by demosaicing the estimated RGB Bayer array pixel values v ij .

例えば本実施形態では、図3で説明したように、高精細動画生成部250がデモザイキング処理を行い、その画像に対して階調変換等の画像処理を行って高解像動画を生成し、画像出力部290がその高解像動画を表示装置等に出力する。例えば高解像動画は、撮像画像の画素数と同じ画素数の動画である。   For example, in the present embodiment, as described with reference to FIG. 3, the high-definition moving image generation unit 250 performs demosaicing processing, performs image processing such as gradation conversion on the image, generates a high-resolution moving image, The image output unit 290 outputs the high resolution moving image to a display device or the like. For example, a high-resolution moving image is a moving image having the same number of pixels as the number of pixels of the captured image.

このようにすれば、高圧縮率で圧縮された画像データから、撮像画像fxに相当する解像度の高解像動画を復元することができる。これにより、動画データの高圧縮率と高画質を両立することが可能になる。   In this way, a high-resolution moving image having a resolution corresponding to the captured image fx can be restored from image data compressed at a high compression rate. This makes it possible to achieve both a high compression rate and high image quality for moving image data.

10.低解像動画の生成手法
図3で上述のように、低解像動画生成部160や標準動画生成部280は、加算画像A〜Aから簡易的に低解像動画を生成する。この低解像動画の生成手法について詳細に説明する。
10. Method for Generating Low-Resolution Video As described above with reference to FIG. 3, the low-resolution video generation unit 160 and the standard video generation unit 280 simply generate a low-resolution video from the added images A 1 to A 4 . A method for generating this low-resolution moving image will be described in detail.

この手法では、加算画像A〜Aのうち3つの加算画像A〜Aを用いて、低解像動画データを生成する。まず、図9に示すように、加算画像Aの4加算画素値{a(1) 22}を用いて、加算画像Aにおいて未検出の4画素加算値{a(1) 12}を{G12+G23}の関係式として算出する。 In this method, low-resolution moving image data is generated using three addition images A 1 to A 3 among the addition images A 1 to A 4 . First, as shown in FIG. 9, using 4 addition pixel value of the added image A 1 {a (1) 22 }, 4 -pixel sum values undetected in addition image A 1 and {a (1) 12} { It is calculated as a relational expression of G 12 + G 23 }.

具体的には、加算画像Aにおいて、配色と重み付けの関係が未検出値a(1) 12と一致する周辺の4画素加算値を用いて、未検出値a(1) 12の推定値の近似計算を行う。この推定値a(1) 12は、R色画素の重み付けが基準の‘1’に設定されているものとして4画素加算値を求めている。 Specifically, the added image A 1, color relationship of weighted using four pixel sum value near that matches the non-detection value a (1) 12, the estimated value of the undetected value a (1) 12 Perform approximate calculation. This estimated value a (1) 12 is obtained as a 4-pixel addition value on the assumption that the weight of the R color pixel is set to the reference “1”.

未検出値{a(1) 12}を構成する画素値を、色と対応させて{R22,G12,G23,B13}と表すと、未検出値{a(1) 12}は下式(10)で表される。
(1) 12=1・R22+(1/r)・G12
(1/r)・G23+(1/r)・B13 (10)
The pixel values constituting the non-detection value {a (1) 12}, expressed as in correspondence with colors {R 22, G 12, G 23, B 13}, non-detection value {a (1) 12} is It is represented by the following formula (10).
a (1) 12 = 1 · R 22 + (1 / r) · G 12 +
(1 / r) · G 23 + (1 / r 2 ) · B 13 (10)

未検出値{a(1) 12}の右に隣接する4画素加算値{a(1) 22}も同様に、下式(11)で表される。
(1) 22=1・R22+(1/r)・G32
(1/r)・G23+(1/r)・B33 (11)
Similarly, the 4-pixel addition value {a (1) 22 } adjacent to the right of the undetected value {a (1) 12 } is expressed by the following expression (11).
a (1) 22 = 1 · R 22 + (1 / r) · G 32 +
(1 / r) · G 23 + (1 / r 2 ) · B 33 (11)

未検出値{a(1) 12}では、{R22}成分と{G23}成分の重み付けが強く支配的であることから、近似的にa(1) 12≒a(1) 22と考え、下式(12)と仮定する。
(1) 12=1・R22+(1/r)・G12
(1/r)・G23+(1/r)・B13
=a(1) 22 (12)
In the undetected value {a (1) 12 }, since the weighting of the {R 22 } component and the {G 23 } component is strongly dominant, a (1) 12 ≈ a (1) 22 is considered approximately. Assume that the following equation (12) is satisfied.
a (1) 12 = 1 · R 22 + (1 / r) · G 12 +
(1 / r) · G 23 + (1 / r 2 ) · B 13
= A (1) 22 (12)

なお、a(1) 12の左右に隣接するa(1) 02とa(1) 22の補間値(平均等)として、a(1) 12を求めてもよいし、左右に限らず配色と重み付けが同等な周囲画素加算値から補間によりa(1) 12を求めても構わない。 It should be noted that a (1) 12 may be obtained as an interpolated value (average, etc.) of a (1) 02 and a (1) 22 adjacent to the left and right of a (1) 12 , A (1) 12 may be obtained by interpolation from the surrounding pixel addition values having the same weighting.

次に、図10に示すように、加算画像Aの4加算画素値{a(3) 13}を用いて、加算画像Aにおいて未検出の4画素加算値{a(3) 12}を{G12+G23}の関係式として算出する。 Next, as shown in FIG. 10, using 4 addition pixel value of the added image A 3 {a (3) 13 }, the 4-pixel addition value of the undetected in addition image A 3 {a (3) 12 } Calculated as a relational expression of {G 12 + G 23 }.

具体的には、加算画像Aにおいて、配色と重み付けの関係が未検出値a(3) 12と一致する周辺の4画素加算値を用いて、未検出値a(3) 12の推定値の近似計算を行う。この推定値a(3) 12は、B色画素の重み付けが基準の‘1’に設定されているものとして4画素加算値を求めている。 Specifically, in addition image A 3, using 4-pixel sum values near the color relationship of the weighting to match the non-detection value a (3) 12, estimate undetected value a (3) 12 Perform approximate calculation. The estimated value a (3) 12 is obtained as a 4-pixel addition value on the assumption that the weight of the B color pixel is set to the reference “1”.

未検出値{a(3) 12}を構成する画素値を{R22,G12,G23,B13}と表すと、未検出値{a(3) 12}は下式(13)で表される。
(3) 12=(1/r)・R22+(1/r)・G12
(1/r)・G23+1・B13 (13)
When the pixel values constituting the undetected value {a (3) 12 } are expressed as {R 22 , G 12 , G 23 , B 13 }, the undetected value {a (3) 12 } is expressed by the following equation (13). expressed.
a (3) 12 = (1 / r 2 ) · R 22 + (1 / r) · G 12 +
(1 / r) · G 23 + 1 · B 13 (13)

未検出値{a(3) 12}の下に隣接する4画素加算値{a(3) 13}も同様に、下式(14)で表される。
(3) 13=(1/r)・R24+(1/r)・G14
(1/r)・G23+1・B13 (14)
Similarly, the 4-pixel addition value {a (3) 13 } adjacent to the lower side of the undetected value {a (3) 12 } is expressed by the following expression (14).
a (3) 13 = (1 / r 2 ) · R 24 + (1 / r) · G 14 +
(1 / r) · G 23 + 1 · B 13 (14)

未検出値{a(3) 12}に対し、{B13}成分と{G23}成分が重み付けが強く支配的であることから、近似的にa(3) 12≒a(3) 13と考え、下式(15)と仮定する。
(3) 12=(1/r)・R22+(1/r)・G12
(1/r)・G23+1・B13
=a(3) 13 (15)
Since the {B 13 } component and the {G 23 } component are strongly dominant with respect to the undetected value {a (3) 12 }, a (3) 12 ≈ a (3) 13 Consider the following equation (15).
a (3) 12 = (1 / r 2 ) · R 22 + (1 / r) · G 12 +
(1 / r) · G 23 + 1 · B 13
= A (3) 13 (15)

なお、a(3) 12の上下に隣接するa(3) 11とa(3) 13の補間値(平均等)として、a(3) 12を求めてもよいし、上下に限らず配色と重み付けが同等な周囲画素加算値から補間によりa(3) 12を求めても構わない。 It should be noted that a (3) 12 may be obtained as an interpolated value (average, etc.) of a (3) 11 and a (3) 13 adjacent to the upper and lower sides of a (3) 12. It is also possible to obtain a (3) 12 by interpolation from surrounding pixel addition values with equal weighting.

さて、a(1) 12とa(3) 12におけるG12とG23は同一画素であり近接画素であるので、下式(16)に示すように、その平均値G12/23と等しいと近似して扱う。
12≒G23≒G12/23=(G12+G23)/2 (16)
Now, since G 12 and G 23 in a (1) 12 and a (3) 12 are the same pixel and are adjacent pixels, as shown in the following equation (16), if it is equal to the average value G 12/23 Handle with approximation.
G 12 ≒ G 23 ≒ G 12/23 = (G 12 + G 23) / 2 (16)

上式(16)を上式(12)、(15)に適用すると、下式(17)が得られる。
(1) 12=R22+(1/r)・2G12/23+(1/r)・B13
(3) 12=(1/r)・R22+(1/r)・2G12/23+B13 (17)
When the above equation (16) is applied to the above equations (12) and (15), the following equation (17) is obtained.
a (1) 12 = R 22 + (1 / r) · 2G 12/23 + (1 / r 2 ) · B 13 ,
a (3) 12 = (1 / r 2 ) · R 22 + (1 / r) · 2G 12 / G 23 + B 13 (17)

上式(17)を解いて、下式(18)に示すように、R22,B13とG12/23の関係式を求める。このようにして、未検出値a(1) 12又はa(3) 12を構成するR22,B13がG12/23により求められることが分かる。

Figure 2012231377
The above equation (17) is solved to obtain a relational expression between R 22 , B 13 and G 12/23 as shown in the following equation (18). In this way, it can be seen that R 22 and B 13 constituting the undetected value a (1) 12 or a (3) 12 are obtained by G 12/23 .
Figure 2012231377

次に、図11に示すように、加算画像Aにおいて検出されている4画素加算値{a(2) 12}を用いて、上記のR22,B13,G12/23を求める。 Next, as shown in FIG. 11, the above R 22 , B 13 , and G 12/23 are obtained by using the 4-pixel addition value {a (2) 12 } detected in the addition image A 2 .

具体的には、4画素加算値{a(2) 12}は、上式(16)を用いて下式(19)で表される。
(2) 12=(1/r)・R22+1・G12
(1/r)・G23+(1/r)・B13
≒(1/r)・R22+[1+(1/r)]・G12/23
(1/r)・B13 (19)
Specifically, the 4-pixel addition value {a (2) 12 } is expressed by the following equation (19) using the above equation (16).
a (2) 12 = (1 / r) · R 22 + 1 · G 12 +
(1 / r 2 ) · G 23 + (1 / r) · B 13
≒ (1 / r) · R 22 + [1 + (1 / r 2 )] · G 12/23 +
(1 / r) ・ B 13 (19)

上式(18)のR22,B13を上式(19)に代入すると、下式(20)に示すようにG12/23が導出される。下式(20)により導出されたG12/23を上式(18)に代入すれば、R22,B13が得られる。このようにして求めたR22、G12/23、B13を同一座標の画素値として、低解像動画のフレーム画像を構成する。

Figure 2012231377
Substituting R 22 and B 13 in the above equation (18) into the above equation (19), G 12/23 is derived as shown in the following equation (20). By substituting G 12/23 derived by the following equation (20) into the above equation (18), R 22 and B 13 are obtained. A frame image of a low-resolution moving image is configured with R 22 , G 12/23 and B 13 obtained in this way as pixel values having the same coordinates.
Figure 2012231377

上記と同様にして4画素加算値{a(2) ij}を構成する各々の{R,G,B}の値を求めれば、図11に示すように、元の高精細画像fxを1/4の画素数に低解像度化したRGB3原色画像を得ることができる。 When the values of each {R, G, B} constituting the 4-pixel addition value {a (2) ij } are obtained in the same manner as described above, the original high-definition image fx is 1 / as shown in FIG. It is possible to obtain an RGB three-primary color image with a resolution reduced to 4 pixels.

以上に説明した手法によれば、簡単な演算処理により低解像3板化カラー画像を得ることができるので、リアルタイム処理を必要とする動画像生成処理として有効である。また、この手法では、従来の同色4画素加算方式に比べ、ベイヤー化したときのG色の重心位置のズレが発生せず、より高い画質を得ることができる。   According to the method described above, a low-resolution three-plate color image can be obtained by simple arithmetic processing, which is effective as a moving image generation process that requires real-time processing. Further, in this method, as compared with the conventional four-pixel addition method of the same color, a shift in the center of gravity position of the G color when the Bayer is formed does not occur, and higher image quality can be obtained.

上記の実施形態によれば、図3に示すように、撮像装置は、低解像動画を生成する低解像動画生成部160を含む。図1に示すように、撮像画像fxはRGBベイヤー配列の画像であり、加算単位は、隣接する4画素(例えばR、Gr、Gb、Bの4画素)である。この場合に、加算画像生成部130は、第1〜第4のポジションにおいて、重み付け加算によりRGBが混色された第1〜第4の加算画像A〜Aを取得する。図9〜図11で説明したように、低解像動画生成部160は、第1〜第3A〜Aの加算画像に基づいて、低解像動画のRGBの画素値(例えば図11のR22、G12/23、B13)を推定により求める。 According to the above embodiment, as illustrated in FIG. 3, the imaging apparatus includes the low-resolution moving image generation unit 160 that generates a low-resolution moving image. As illustrated in FIG. 1, the captured image fx is an RGB Bayer array image, and the addition unit is four adjacent pixels (for example, four pixels of R, Gr, Gb, and B). In this case, the addition image generation unit 130 acquires first to fourth addition images A 1 to A 4 in which RGB is mixed by weighted addition at the first to fourth positions. As described with reference to FIGS. 9 to 11, the low-resolution moving image generation unit 160 uses the RGB pixel values (for example, FIG. 11) of the low-resolution moving image based on the added images of the first to third A 1 to A 3 . R 22 , G 12/23 , B 13 ) are obtained by estimation.

このようにすれば、簡素な演算処理により低解像3板化カラー画像を得ることができるため、例えばライブビュー等のリアルタイム処理を必要とする動画像生成処理として有効である。また、同一位置(例えばa12)におけるRGB画素値を推定するため、従来の同色4画素加算方式に比べて、ベイヤー化したときのG色の重心位置のズレが発生せず、より高い画質を得ることができる。 In this way, a low-resolution three-plate color image can be obtained by simple arithmetic processing, which is effective as a moving image generation process that requires real-time processing such as live view, for example. In addition, since the RGB pixel value at the same position (for example, a 12 ) is estimated, the center of gravity of G color does not shift when the Bayer method is used, and higher image quality can be obtained as compared with the conventional 4-pixel addition method of the same color. Can be obtained.

11.撮像装置の第3の構成例
上記の実施形態では、融合画像データF(M,D〜D)を圧縮したが、本実施形態では、差分画像D〜Dをエントロピー符号化した後にデータ再構成を行い、再構成されたデータを圧縮してもよい。
11. Third Configuration Example of Imaging Device In the above embodiment, the fusion image data F (M, D 1 to D 4 ) is compressed, but in this embodiment, after the difference images D 1 to D 4 are entropy-encoded. Data reconstruction may be performed and the reconstructed data may be compressed.

図12に、データ再構成を行う場合の構成例として、撮像装置の第3の構成例を示す。この撮像装置は、撮像部10、画像処理部20を含む。なお以下では、図3等で上述した構成要素と同一の構成要件については同一の符号を付し、適宜説明を省略する。   FIG. 12 shows a third configuration example of the imaging apparatus as a configuration example when data reconstruction is performed. The imaging device includes an imaging unit 10 and an image processing unit 20. In the following description, the same components as those described above with reference to FIG. 3 and the like are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

撮像部10は、レンズ110、撮像素子120、低解像画像生成部125(動画用低解像ベイヤー画像生成部)、第1の加算画像生成部130、第2の加算画像生成部135、差分画像生成部141、平均画像生成部142、エントロピー符号化部143、圧縮データ記録部150、低解像動画生成部160、画素データ再構成部165、第3の加算画像生成部175、データ圧縮部185(融合データ圧縮部)、モニター表示部190を含む。   The imaging unit 10 includes a lens 110, an image sensor 120, a low resolution image generation unit 125 (a moving image low resolution Bayer image generation unit), a first addition image generation unit 130, a second addition image generation unit 135, and a difference. Image generation unit 141, average image generation unit 142, entropy encoding unit 143, compressed data recording unit 150, low-resolution moving image generation unit 160, pixel data reconstruction unit 165, third addition image generation unit 175, data compression unit 185 (fusion data compression unit) and monitor display unit 190.

画像処理部20は、圧縮データ伸張部200、加算画像再生部210、低解像画像推定演算部215(動画用低解像ベイヤー画像生成部)、推定演算部230、高精細静止画生成部240、高精細動画生成部250、高画質標準動画生成部260、標準動画生成部280、画像出力部290、画像選択部295を含む。   The image processing unit 20 includes a compressed data decompression unit 200, an addition image reproduction unit 210, a low resolution image estimation calculation unit 215 (a low resolution Bayer image generation unit for moving images), an estimation calculation unit 230, and a high-definition still image generation unit 240. , A high-definition video generation unit 250, a high-quality standard video generation unit 260, a standard video generation unit 280, an image output unit 290, and an image selection unit 295.

低解像画像生成部125は、例えば一般的な近接同色4画素加算等により、1/4の画素数のベイヤー配列の低解像画像を改めて生成する。第2の加算画像生成部135は、低解像画像に対して、図1で説明した加算処理を行って加算画像B〜Bを生成する。 The low-resolution image generation unit 125 newly generates a low-resolution image having a Bayer array with a ¼ pixel number, for example, by adding four pixels of the same proximity and the same color. The second addition image generation unit 135 performs addition processing described with reference to FIG. 1 on the low resolution image to generate addition images B 1 to B 4 .

平均画像生成部142は、加算画像A〜Aの平均画像と、加算画像B〜Bの平均画像を生成する。差分画像生成部141は、加算画像A〜Aとその平均画像の差分画像、及び加算画像B〜Bとその平均画像の差分画像を生成する。エントロピー符号化部143は、差分画像生成部141からの差分画像に対してエントロピー符号化を行う。 The average image generation unit 142 generates an average image of the addition images A 1 to A 4 and an average image of the addition images B 1 to B 4 . The difference image generation unit 141 generates a difference image between the addition images A 1 to A 4 and the average image, and a difference image between the addition images B 1 to B 4 and the average image. The entropy encoding unit 143 performs entropy encoding on the difference image from the difference image generation unit 141.

画素データ再構成部165は、平均画像の画素データと、エントロピー符号化された差分画像の画素データを、図16で後述する手法により再構成し、再構成データuijを出力する。第3の加算画像生成部175は、再構成された画素データに対して、図17で後述する加算処理を行って加算値ξijを生成する。データ圧縮部185は、例えばM−JPEGやJPEG−XR等の非可逆圧縮により加算値ξijを圧縮する。 The pixel data reconstruction unit 165 reconstructs the pixel data of the average image and the pixel data of the difference image subjected to entropy coding by a method described later with reference to FIG. 16, and outputs reconstruction data u ij . The third addition image generation unit 175 generates an addition value ξ ij by performing addition processing described later with reference to FIG. 17 on the reconstructed pixel data. The data compression unit 185 compresses the addition value ξ ij by irreversible compression such as M-JPEG or JPEG-XR.

圧縮データ伸張部200は、圧縮データから加算値ξijを伸張する。加算画像再生部210は、伸張された加算値ξijから再構成データuijを再生し、その再構成データuijから加算画像A〜A、B〜Bを再生する。低解像画像推定演算部215は、図27(A)〜図30で後述する推定処理を加算画像B〜Bに対して行い、ベイヤー配列の低解像画像を復元する。標準動画生成部280は、ベイヤー配列の低解像画像をデモザイキングし、低解像動画(標準動画)を生成する。 The compressed data decompression unit 200 decompresses the added value ξ ij from the compressed data. Adding image reproduction unit 210 reproduces the reconstructed data u ij from the extended summation value xi] ij, to reproduce the added image A 1 ~A 4, B 1 ~B 4 from the reconstructed data u ij. The low-resolution image estimation calculation unit 215 performs estimation processing, which will be described later with reference to FIGS. 27A to 30, on the added images B 1 to B 4 to restore a Bayer-array low-resolution image. The standard moving image generation unit 280 performs demosaicing on the Bayer array low resolution image to generate a low resolution moving image (standard moving image).

12.第3の構成例の動作、処理
次に、上記撮像装置の第3の構成例が行う動作や処理について説明する。
12 Operation and Processing of Third Configuration Example Next, operations and processing performed by the third configuration example of the imaging apparatus will be described.

図13に、高解像静止画と低解像静止画を同時に取得する撮像処理例を概念的に示す。なお以下では、撮像素子からの撮像フレームは高解像(例えば、12メガピクセル)であり、フレームレートは高速(例えば、60fps)であるとする。   FIG. 13 conceptually shows an example of an imaging process for simultaneously acquiring a high resolution still image and a low resolution still image. In the following, it is assumed that the imaging frame from the imaging device is high resolution (for example, 12 megapixels) and the frame rate is high speed (for example, 60 fps).

偶数フレームf、f、・・・は、図1で説明した加算処理により、12メガピクセルのベイヤー画像から4枚の3メガピクセルの加算画像に変換される。奇数フレームf、f、・・・は、例えば一般的な近接同色4画素加算等により、3メガピクセルのベイヤー配列画像に変換される。その変換された画像は、図1で説明した加算処理により、4枚の0.75メガピクセルの加算画像に変換される。 The even frames f 0 , f 2 ,... Are converted from a 12-megapixel Bayer image into four 3-megapixel addition images by the addition processing described with reference to FIG. The odd-numbered frames f 1 , f 3 ,... Are converted into a 3 megapixel Bayer array image by, for example, general addition of four pixels of similar colors. The converted image is converted into four 0.75 megapixel added images by the addition processing described in FIG.

これらの変換画像から平均画像と差分画像が生成され、差分画像はエントロピー符号化によりデータを圧縮される。圧縮された差分画像は、平均画像と合わせて画素ビットの再構成が行われる。再構成された画素データに対して画素加算が施され、その加算後のデータに対して通常の画像データ圧縮処理が行われる。   An average image and a difference image are generated from these converted images, and data of the difference image is compressed by entropy coding. The compressed difference image is subjected to pixel bit reconstruction together with the average image. Pixel addition is performed on the reconstructed pixel data, and normal image data compression processing is performed on the data after the addition.

ここで、再構成された画素データに対して画素加算を行うのは以下の理由による。即ち、図12で上述のように、加算画像A〜A、B〜Bから平均画像と差分画像が生成され、その差分画像がエントロピー符号化される。この平均画像のデータと、符号化された差分画像のデータは、もはや画像の性質を有した画素値集合ではなくなっており、ランダム性の高い単なるビットの配列でしかない。そのため、特定の符号に偏りをもつデータとしては認識できないものである。即ち、エントロピーが高い状態であると考えた方が無難である。また、この差分画像のデータと平均画像のデータを画素データ再構成部165により一つに統合したデータ群も、同様なことが言える。 Here, pixel addition is performed on the reconstructed pixel data for the following reason. That is, as described above with reference to FIG. 12, an average image and a difference image are generated from the added images A 1 to A 4 and B 1 to B 4 , and the difference image is entropy-coded. The average image data and the encoded difference image data are no longer pixel value sets having image characteristics, and are merely an array of bits with high randomness. Therefore, it cannot be recognized as data having a bias in a specific code. That is, it is safer to consider that the entropy is high. The same applies to the data group obtained by integrating the difference image data and the average image data into one by the pixel data reconstruction unit 165.

従って、一旦エントロピーが高くなったデータ群を再びエントロピーが低いデータに書き換える必要があり、そのために第3の加算画像生成部175における加算効果を使ってエントロピーを低減している。このようにして再構成データのエントロピーを低減することで、後段のデータ圧縮の効果を高めている。   Therefore, it is necessary to rewrite the data group once having increased entropy to data having lower entropy. For this purpose, the entropy is reduced by using the addition effect in the third addition image generation unit 175. By reducing the entropy of reconstructed data in this way, the effect of subsequent data compression is enhanced.

図14に、上記撮像処理のシーケンス例を示す。図14に示すように、まず期間Tにおいて偶数フレームfの高解像画像の露光と読み出しを行い、期間T+Tにおいてプリエンコード処理(PE0)と通常画像データ圧縮処理(圧縮0)を行う。このプリエンコード処理と通常画像データ圧縮処理に並行して、期間Tにおいて奇数フレームfの高解像画像の露光と読み出しを行い、期間T+T/2において低解像化処理とプリエンコード処理(PE1)と通常画像データ圧縮処理(圧縮1)を行う。この処理シーケンスでは、連続する偶数フレームfと奇数フレームfの通常画像データ圧縮処理(圧縮0、圧縮1)は、シリアルに期間2T以内で処理される。 FIG. 14 shows a sequence example of the imaging process. As shown in FIG. 14, first, the high-resolution image of the even frame f 0 is exposed and read in the period T 0 , and the pre-encoding process (PE 0) and the normal image data compression process (compression 0) are performed in the period T 1 + T 2 . I do. In parallel with this pre-encoding processing and the normal image data compression processing, exposure and read-out of the high resolution image of the odd-numbered frames f 1 in the period T 1, the low-resolution process in the period T 2 + T 3/2 and the pre Encoding processing (PE1) and normal image data compression processing (compression 1) are performed. In this processing sequence, the normal image data compression processing of the even frame f 0 and odd frames f 1 consecutive (compression 0, compression 1) is processed within the period 2T serially.

次に、画素値データの再構成について説明する。図15にデータ圧縮前のデータ再構成例を示す。この例は、データ圧縮前のデータが画素当り12ビットで形成される場合でありながらデータ圧縮処理が画素当り8ビットでしか処理できない場合のデータ再構成例である。   Next, the reconstruction of the pixel value data will be described. FIG. 15 shows an example of data reconstruction before data compression. This example is a data reconstruction example in the case where the data before data compression is formed with 12 bits per pixel, but the data compression process can be processed only with 8 bits per pixel.

図15に示すように、平均画像の画素値ビット列をm10〜m16、m20〜m26で表し、エントロピー符号化後の差分画像の画素値ビット列をd10〜d14、d20〜d24で表す。この12ビットの配列データを8ビットの配列データに再構成するとき、ビット列d10〜d14、d20〜d24を再構成データの上位ビットに配列し、ビット列m10〜m16、m20〜m26の中の上位ビットをなるべく再構成データの上位ビットに配列する。これは、エントロピー符号化後の画素値と平均画像の画素値が、データ圧縮復号による劣化をなるべく受けないようにするためである。 As shown in FIG. 15, the pixel value bit string of the average image is represented by m 10 to m 16 and m 20 to m 26 , and the pixel value bit string of the difference image after entropy coding is represented by d 10 to d 14 and d 20 to d. 24 . When reconstructing the sequence data of the 12-bit to 8-bit array data, arranged in the upper bits of the reconstructed data bit stream d 10 ~d 14, d 20 ~d 24, the bit string m 10 ~m 16, m 20 The upper bits in .about.m 26 are arranged in the upper bits of the reconstructed data as much as possible. This is to prevent the pixel value after entropy coding and the pixel value of the average image from being deteriorated by data compression decoding as much as possible.

図16に、データ再構成において設定するデータ単位の例を示す。図16に示すように、平均画像の画素値データ{a ij}(固定ビット幅)に対して、エントロピー符号化後の差分画像の差分値データ{d}を上乗せ合成してデータを再構成する。即ち、エントロピー符号化後の差分値データと平均画像の画素値データのペア{a ij}+{d}を、改めて仮想的画素値と見なしてデータ単位{uij}として再構成する。 FIG. 16 shows an example of a data unit set in data reconstruction. As shown in FIG. 16, the difference value data {d k } of the difference image after entropy coding is added to the pixel value data {a M ij } (fixed bit width) of the average image, and the data is re-synthesized. Configure. That is, the pair {a M ij } + {d k } of the difference value data after entropy encoding and the pixel value data of the average image is reconstructed as a data unit {u ij } by regarding it as a virtual pixel value.

このデータ単位{uij}では、下位ビット側に平均画像画素値{a ij}が配列され、上位ビット側に差分値データ{d}が配列される。このようにすると、この再構成データをJPEG等の非可逆圧縮伸張したときに、データ単位{uij}の復号誤差が固定ビット幅の平均画像画素値に影響を及ぼすようにできる。即ち、差分値データに対して復号誤差の影響を極力与えないようにできる。このようにするのは、差分値データがエントロピー符号化データなので、復号誤差があると大きな誤りをもった値として再生されてしまうため、それを避けるためである。 In this data unit {u ij }, the average image pixel value {a M ij } is arranged on the lower bit side, and the difference value data {d k } is arranged on the upper bit side. In this way, when the reconstructed data is subjected to lossy compression / decompression such as JPEG, the decoding error of the data unit {u ij } can affect the average image pixel value having a fixed bit width. That is, it is possible to minimize the influence of the decoding error on the difference value data. This is because the difference value data is entropy-encoded data, so that if there is a decoding error, it is reproduced as a value with a large error, so that it is avoided.

なお、再構成データ単位{uij}は符号ビット長Nとして固定長で扱われるので、エントロピー符号化後のデータ{d}は、符号ビット長Nから平均画像の画素値{a ij}の符号ビット長nM0を差し引いた符号ビット長[N−nM0]を満たすように、適切に連結構成すればよい。よって、データ{d}は、複数の再構成単位{uij}に跨って分割構成される場合もあり得る。 Since the reconstructed data unit {u ij } is treated as a fixed length as the code bit length N, the data {d k } after the entropy encoding is calculated from the code bit length N to the pixel value {a M ij } of the average image. The code bit length n M0 is subtracted from the code bit length [N−N M0 ] so as to be appropriately connected. Therefore, the data {d k } may be divided and formed across a plurality of reconstruction units {u ij }.

図17に、上記再構成データ単位{uij}の重畳シフト加算値の例を示す。仮想的画素である{uij}は、平均画像ビット加算で且つ任意にビット分離された結果の値なので、発生分布の偏りや近傍画素間の高い相関性は期待できない。そこで、図17に示すように、再構成データ{uij}に対して再び重畳シフト重み付け加算処理を行い、加算値{ξij}を生成する。加算値{ξij}は下式(21)により求められる。 FIG. 17 shows an example of the superimposed shift addition value of the reconstruction data unit {u ij }. Since {u ij }, which is a virtual pixel, is a value obtained as a result of the average image bit addition and arbitrarily bit-separated, it is not possible to expect bias in the distribution of distribution or high correlation between neighboring pixels. Therefore, as shown in FIG. 17, again performs superimposition shift weighted addition processing on the reconstructed data {u ij}, to generate a sum value {ξ ij}. The added value {ξ ij } is obtained by the following equation (21).

ξij=[uij+(1/r)u(i+1)j
(1/r)ui(j+1)+(1/r)u(i+1)(j+1)]/4
(21)
ξ ij = [u ij + (1 / r) u (i + 1) j +
(1 / r) u i (j + 1) + (1 / r 2 ) u (i + 1) (j + 1) ] / 4
(21)

このようにして、加算値{ξij}の発生分布の偏りを強くし、また近傍画素間の相関性を高める(エントロピーを低減する)ことができる。これにより、後段の画像データ圧縮における圧縮効果を高めることができる。 In this way, it is possible to increase the bias of the generation distribution of the added value {ξ ij } and increase the correlation between neighboring pixels (reducing entropy). As a result, the compression effect in the subsequent image data compression can be enhanced.

13.同色加算
上記の実施形態では、ベイヤー配列の異色の隣接4画素を加算する場合を説明したが、本実施形態では、ベイヤー配列の同色の4画素を加算してもよい。図18に、同色の4画素を加算する場合の撮像部の構成例を示す。
13. Same Color Addition In the above embodiment, the case where four adjacent pixels of different colors in the Bayer array are added has been described, but in the present embodiment, four pixels of the same color in the Bayer array may be added. FIG. 18 shows a configuration example of the imaging unit when adding four pixels of the same color.

図18に示す撮像部は、レンズ110、撮像素子120、加算画像生成部301〜304、差分画像生成部311〜314、平均画像生成部321〜324、エントロピー符号化部331〜334、ベイヤー画像生成部340、動画データ圧縮部350、圧縮データ記録部150を含む。なお以下では、図3等で上述した構成要素と同一の構成要件については同一の符号を付し、適宜説明を省略する。   The imaging unit illustrated in FIG. 18 includes a lens 110, an imaging element 120, addition image generation units 301 to 304, difference image generation units 311 to 314, average image generation units 321 to 324, entropy encoding units 331 to 334, and Bayer image generation. Section 340, moving image data compression section 350, and compressed data recording section 150. In the following description, the same components as those described above with reference to FIG. 3 and the like are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

加算画像生成部301〜304は、ベイヤー配列の撮像画像の中のそれぞれR画素、Gr画素、Gb画素、B画素の画素シフト加算を行う。R加算画像AR1〜AR4の加算画素値{aR1 00,aR2 20,aR3 22,aR4 02}を例にとると、下式(22)で表される。
R1 00=R00+R20+R22+R02
R2 20=R20+R40+R42+R22
R3 22=R22+R42+R44+R24
R4 02=R02+R22+R24+R04 (22)
The added image generation units 301 to 304 perform pixel shift addition of R pixels, Gr pixels, Gb pixels, and B pixels, respectively, in the Bayer array captured image. Taking the added pixel values {a R1 00 , a R2 20 , a R3 22 , a R4 02 } of the R added images A R1 to A R4 as an example, they are represented by the following expression (22).
a R1 00 = R 00 + R 20 + R 22 + R 02 ,
a R2 20 = R 20 + R 40 + R 42 + R 22 ,
a R3 22 = R 22 + R 42 + R 44 + R 24 ,
a R4 02 = R 02 + R 22 + R 24 + R 04 (22)

平均画像生成部321〜324は、それぞれ各色の加算画像に基づいて平均画像を生成する。差分画像生成部311〜314は、それぞれ各色の平均画像と加算画像の差分画像を生成する。エントロピー符号化部331〜334は、各色の差分画像のエントロピー符号化を行う。   The average image generation units 321 to 324 generate average images based on the added images of the respective colors. The difference image generation units 311 to 314 generate difference images between the average image of each color and the added image, respectively. The entropy encoding units 331 to 334 perform entropy encoding of the difference images for each color.

ベイヤー画像生成部340は、4色の平均画像の画素値をベイヤー配列に配列して、1枚のベイヤー配列画像を生成する。動画データ圧縮部350は、そのベイヤー配列画像による動画データを、例えばAVCHD(H.246)やM−JPEG、JPEG−XR等により非可逆圧縮する。   The Bayer image generation unit 340 arranges the pixel values of the average image of the four colors in the Bayer array, and generates one Bayer array image. The moving image data compression unit 350 irreversibly compresses moving image data based on the Bayer array image using, for example, AVCHD (H.246), M-JPEG, JPEG-XR, or the like.

14.適応的ノイズ低減処理
図3で上述の加算画像ノイズ低減処理部220が行う適応的ノイズ低減処理について詳細に説明する。
14 Adaptive Noise Reduction Processing The adaptive noise reduction processing performed by the above-described added image noise reduction processing unit 220 will be described in detail with reference to FIG.

本実施形態では、4画素加算値に対してアダプティブ・ノイズ・リダクション(以下、ANRと略す)を適用する。ANRとは、空間軸に沿って適応的に対象範囲を異ならせながら画素値平均を行う適応的移動平均フィルターリングのことを言う。ANRでは、対象範囲内のサンプリング値の変化の幅が小さい場合、移動平均の範囲を広くとり、対象範囲内のサンプリング値の変化の幅が大きい場合、移動平均の範囲を狭くする。これを実現するためには、処理位置(着目位置)の画素値を中心とした所定の画素値幅に含まれるサンプリング値の平均を計算し、改めて処理位置の画素値とする。   In this embodiment, adaptive noise reduction (hereinafter abbreviated as ANR) is applied to the 4-pixel addition value. ANR refers to adaptive moving average filtering that performs pixel value averaging while adaptively varying the target range along the spatial axis. In ANR, when the range of change of the sampling value within the target range is small, the range of the moving average is widened, and when the range of change of the sampling value within the target range is large, the range of the moving average is narrowed. In order to realize this, the average of the sampling values included in a predetermined pixel value width centered on the pixel value at the processing position (target position) is calculated, and is set as the pixel value at the processing position again.

サンプリング値の変化の幅が小さい範囲では、その変化が高周波成分の場合であっても、振幅としては小さいので丸めても影響が少ないと考えられる。また低周波成分の場合は、移動平均を取っても情報は維持される。この場合は、移動平均の範囲を広くとるため、より多くのサンプリング値の平均を取ることになり、加算効果によるノイズ低減効果が大きい。   In the range where the change in the sampling value is small, even if the change is a high-frequency component, the amplitude is small, so rounding is considered to have little effect. In the case of a low-frequency component, information is maintained even if a moving average is taken. In this case, since the moving average range is wide, more sampling values are averaged, and the noise reduction effect due to the addition effect is large.

一方、サンプリング値の変化の幅が大きい範囲では、その変化が高周波成分の場合でも低周波成分の場合でも、移動平均の範囲を狭くするため情報はほぼ維持される。この場合は、少ないサンプリング値の平均を取ることになるので、加算効果によるノイズ低減効果は小さい。   On the other hand, in the range where the change range of the sampling value is large, information is almost maintained to narrow the moving average range regardless of whether the change is a high-frequency component or a low-frequency component. In this case, since the average of a small number of sampling values is taken, the noise reduction effect due to the addition effect is small.

よって、この方法を適用するケースとして効果が大きいのは、サンプリング値の振幅の変化幅が小さくなる状態のときである。図19に示すように、平均画像の画素値a ijと加算画像の画素値(例えばa(1) ij)は、画素値の相関性が高い。これらの差分値aD1 ijはベクトル(1,−1)への射影であるため、差分値aD1 ijの生起確率は狭い範囲に分布し、元の撮像画像よりも差分画像のサンプリング値の振幅変化を小さくできる。そのため、この差分画像にANRを適用すれば、効果的に差分画像のノイズ低減が可能になると考えられる。 Therefore, the case where this method is applied has a large effect when the amplitude change width of the sampling value is small. As illustrated in FIG. 19, the pixel value a M ij of the average image and the pixel value (for example, a (1) ij ) of the added image have high pixel value correlation. Since these difference values a D1 ij are projections onto the vector (1, −1), the occurrence probabilities of the difference values a D1 ij are distributed in a narrow range, and the amplitude of the sampling value of the difference image than the original captured image Change can be reduced. Therefore, if ANR is applied to this difference image, it is considered that noise in the difference image can be effectively reduced.

次に、ANRの適用手法や演算手法について説明する。図20(A)に示すように、処理する4画素加算値(サンプリング値)をaとすると、aを中心として幅±Δ/2の範囲に入る近傍の4画素加算値を特定する。例えば、図20(A)の場合、幅±Δ/2の範囲に入る4画素加算値は存在しない。この場合、下式(23)に示すように、d1=d2=0として移動平均値a’を求める。

Figure 2012231377
Next, an ANR application method and a calculation method will be described. As shown in FIG. 20 (A), assuming that the 4-pixel addition value (sampling value) to be processed is a k , the 4-pixel addition value in the vicinity that falls within the range of width ± Δ / 2 around a k is specified. For example, in the case of FIG. 20A, there is no 4-pixel addition value that falls within the range of width ± Δ / 2. In this case, as shown in the following equation (23), the moving average value a k ′ is obtained with d1 = d2 = 0.
Figure 2012231377

また、図20(B)の場合、幅±Δ/2の範囲に入る4画素加算値はak−2、ak−1、ak+1である。この場合、上式(23)においてd1=2,d2=1とする。なお、d1は、処理する4画素加算値aの左方向(k軸の負方向)の移動平均を取る4画素加算値の範囲を表わす。d2は、処理する4画素加算値aの右方向(k軸の正方向)の移動平均を取る4画素加算値の範囲を表わしている。d1、d2は、下式(24)に示す条件を満足しているものとする。
−Δ/2≦ak−d1、かつak+d2≦a+Δ/2
を満たすd1、d2のうち、d1+d2が最大となるもの,
d1、d2は0以上の整数,
0<Δ (24)
In the case of FIG. 20B, the 4-pixel addition values that fall within the range of the width ± Δ / 2 are a k−2 , a k−1 , and a k + 1 . In this case, d1 = 2 and d2 = 1 in the above equation (23). Note that d1 represents a range of 4-pixel addition values that take a moving average in the left direction (negative direction of the k-axis) of the 4-pixel addition values ak to be processed. d2 represents the range of the 4-pixel addition value that takes a moving average in the right direction (the positive direction of the k-axis) of the 4-pixel addition value ak to be processed. It is assumed that d1 and d2 satisfy the condition shown in the following formula (24).
a k −Δ / 2 ≦ a k−d1 and a k + d2 ≦ a k + Δ / 2
Among d1 and d2 that satisfy d1, d1 + d2 is the maximum,
d1 and d2 are integers of 0 or more,
0 <Δ (24)

次に、図3で上述の差分画像D〜Dを例にとり、上記ANRの適用例について説明する。図21に示すように、差分画像D〜Dは、それぞれ2次元配列のデータである。演算を簡単にするために、上記ANRを水平方向と垂直方向に別々に適用する。 Next, taking the above-described difference images D 1 to D 4 as examples in FIG. 3, an application example of the ANR will be described. As shown in FIG. 21, the difference images D 1 to D 4 are each two-dimensional array data. In order to simplify the calculation, the ANR is applied separately in the horizontal direction and the vertical direction.

具体的には、図21に示すように、4画素加算値aijに対して水平方向(i軸方向)に順次ANRを適用すると、水平方向の移動平均値a ijが得られる。また図22に示すように、4画素加算値aijに対して垂直方向(j軸方向)に順次ANRを適用すると、水平方向の移動平均値a ijが得られる。図23に示すように、移動平均値a ijとa ijの平均値aij’(例えばaij’=(a ij+a ij)/2)を計算し、その平均値aij’を最終な移動平均値とする。 Specifically, as shown in FIG. 21, when the ANR is sequentially applied to the 4-pixel addition value a ij in the horizontal direction (i-axis direction), the horizontal moving average value a h ij is obtained. As shown in FIG. 22, when the ANR is sequentially applied in the vertical direction (j-axis direction) to the 4-pixel addition value a ij , the moving average value a v ij in the horizontal direction is obtained. As shown in FIG. 23, an average value a ij ′ (for example, a ij ′ = (a h ij + a v ij ) / 2) of the moving average values a h ij and a v ij is calculated, and the average value a ij ′ is calculated. Is the final moving average value.

上記の実施形態によれば、図3に示すように、撮像装置は、ノイズ低減処理部(加算画像ノイズ低減処理部220)を含む。図20(A)等で説明したように、ノイズ低減処理部は、画素値の変化幅に応じて適応的に移動平均の範囲d1+d2を調整する適応的ノイズ低減処理を、第mの差分画像Dに対して行う。 According to the above embodiment, as illustrated in FIG. 3, the imaging device includes a noise reduction processing unit (added image noise reduction processing unit 220). As described with reference to FIG. 20A and the like, the noise reduction processing unit performs adaptive noise reduction processing for adaptively adjusting the moving average range d1 + d2 according to the change width of the pixel value, and performs the m-th difference image D. to m .

例えば本実施形態では、処理対象の画素値aから幅±Δ/2の範囲に入る画素値の数に応じて範囲d1+d2を調整し、その範囲d1+d2内の画素値の平均値を、画素値aとして再設定する。 For example, in the present embodiment, the range d1 + d2 is adjusted according to the number of pixel values that fall within the range of width ± Δ / 2 from the pixel value ak to be processed, and the average value of the pixel values in the range d1 + d2 is determined as the pixel value. a Reset as k .

このようにすれば、上述のように画素値の生起分布が狭く、画素値の振幅が小さい差分画像のノイズを効果的に低減できる。即ち、適応的ノイズ低減処理では、画素値の振幅が小さい場合には移動平均の範囲d1+d2が広くなるため、その範囲よりも高周波数のノイズ成分が効果的に低減される。   In this way, as described above, it is possible to effectively reduce the noise of the difference image in which the occurrence distribution of the pixel value is narrow and the amplitude of the pixel value is small. That is, in the adaptive noise reduction processing, when the amplitude of the pixel value is small, the moving average range d1 + d2 is widened, so that a noise component having a higher frequency than that range is effectively reduced.

15.フレーム間差分画像を用いたデータ圧縮手法
上記の実施形態では、平均画像と差分画像を撮像画像から直接に生成したが、本実施形態では、フレーム間で撮像画像の差分を求め、そのフレーム間差分画像から平均画像と差分画像を生成してもよい。
15. Data compression method using inter-frame difference image In the above embodiment, the average image and the difference image are generated directly from the captured image. However, in this embodiment, the difference between the captured images is obtained between frames, and the inter-frame difference is obtained. An average image and a difference image may be generated from the images.

図24に、フレーム間差分画像から平均画像と差分画像を生成する場合の構成例として、撮像装置の第4の構成例を示す。この撮像装置は、撮像部10と、画像処理部20を含む。なお以下では、図3等で上述した構成要素と同一の構成要件については同一の符号を付し、適宜説明を省略する。   FIG. 24 shows a fourth configuration example of the imaging apparatus as a configuration example when generating an average image and a difference image from the inter-frame difference image. This imaging apparatus includes an imaging unit 10 and an image processing unit 20. In the following description, the same components as those described above with reference to FIG. 3 and the like are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

撮像部10は、レンズ110、減算部115、撮像素子120、加算画像生成部130、差分画像生成部141、平均画像生成部142、平均値算出部145、減算部146、可逆圧縮符号化部147、圧縮データ記録部150、低解像動画生成部160、動画データ圧縮部170、動画データ記録部180、モニター表示部190を含む。画像処理部20の構成要素は、図3の画像処理部20と同様である。   The imaging unit 10 includes a lens 110, a subtraction unit 115, an imaging element 120, an addition image generation unit 130, a difference image generation unit 141, an average image generation unit 142, an average value calculation unit 145, a subtraction unit 146, and a lossless compression encoding unit 147. , A compressed data recording unit 150, a low resolution moving image generating unit 160, a moving image data compressing unit 170, a moving image data recording unit 180, and a monitor display unit 190. The components of the image processing unit 20 are the same as those of the image processing unit 20 in FIG.

撮像素子120が、フレームfx−1、fx、fx+1において撮像画像Vt−1、V、Vt+1を撮像するものとする。減算部115は、撮像画像Vを基準画像とし、その基準画像と他の撮像画像の差分画像V’t−1=V−Vt−1、V’t+1=V−Vt+1を求める。加算画像生成部130は、基準画像Vと差分画像V’t−1、V’t+1からそれぞれ加算画像を求める。以降の処理は、図6で上述の処理と同様である。 Assume that the image sensor 120 captures captured images V t−1 , V t , and V t + 1 in frames fx−1, fx, and fx + 1. The subtractor 115 uses the captured image V t as a reference image, and obtains a difference image V ′ t−1 = V t −V t−1 and V ′ t + 1 = V t −V t + 1 between the reference image and another captured image. . The added image generation unit 130 obtains an added image from the reference image V t and the difference images V ′ t−1 and V ′ t + 1 . The subsequent processing is the same as the processing described above with reference to FIG.

推定演算部230が元の撮像画像を復元する際には、まず加算画像から基準画像Vと差分画像V’t−1、V’t+1を復元し、それらの画像から撮像画像Vt−1=V−V’t−1、Vt+1=V−V’t+1を求める。 Estimation when calculating unit 230 restores the original captured image, restores the reference image V t and the difference image V 't-1, V' t + 1 from the first addition image, captured image V t-1 from the images = determine the V t -V 't-1, V t + 1 = V t -V' t + 1.

図25に、上記撮像装置が行う処理を模式的に示す。図25に示すように、所定時間間隔(例えば1/60sec.)で撮影されるフレームf、f、・・・のRAW画像データを、それぞれV、V、・・・と表わす。基準フレームf3k+1の撮像画像をV3k+1とし、差分フレームf3k、f3k+2を生成するための撮像画像をV3k、V3k+2とする。ここで、kは0以上の整数である。 FIG. 25 schematically shows processing performed by the imaging apparatus. As shown in FIG. 25, RAW image data of frames f 0 , f 1 ,... Taken at a predetermined time interval (for example, 1/60 sec.) Are represented as V 0 , V 1 ,. The captured image of the reference frame f 3k + 1 is V 3k + 1, and the captured images for generating the difference frames f 3k and f 3k + 2 are V 3k and V 3k + 2 . Here, k is an integer of 0 or more.

基準撮像画像V3k+1は高精細RAW画像データそのものであり、V3k+1に対して重畳シフト重み付け加算を行って4枚の4画素加算画像A(3k+1) 〜A(3k+1) を生成する。また、基準画像の前後フレームの画像V3k、V3k+2と、基準画像V3k+1の対応画素値の差分を取り、差分フレーム画像V’3k、V’3k+2を生成する。これらの差分フレーム画像V’3k、V’3k+2に対して、それぞれ重畳シフト重み付け加算を行って、それぞれ4枚の4画素加算画像A(3k) 〜A(3k) 、A(3k+2) 〜A(3k+2) を生成する。 The reference captured image V 3k + 1 is high-definition RAW image data itself, and superimposition shift weighted addition is performed on V 3k + 1 to generate four four-pixel added images A (3k + 1) 1 to A (3k + 1) 4 . Also, the difference between corresponding pixel values of the images V 3k and V 3k + 2 in the frames before and after the reference image and the reference image V 3k + 1 is calculated , and difference frame images V ′ 3k and V ′ 3k + 2 are generated. These difference frame images V ′ 3k and V ′ 3k + 2 are respectively subjected to superposition shift weighted addition, and four 4-pixel addition images A (3k) 1 to A (3k) 4 , A (3k + 2) 1, respectively. ~ A (3k + 2) 4 is generated.

次に、図1で上述の手法と同様にして、4画素加算画像から平均画像と差分画像を生成し、その平均画像と差分画像に対して圧縮処理(特に可逆圧縮処理)を行い、そのデータを融合画像データとして記録する。   Next, in the same manner as in the method described above with reference to FIG. 1, an average image and a difference image are generated from the four-pixel addition image, and the average image and the difference image are subjected to compression processing (particularly lossless compression processing). Is recorded as fused image data.

以上の実施形態によれば、一般的に近接フレームは類似画像なので、フレーム間差分を利用すると、図1で上述の手法に比べて動画データとしての圧縮効果を大きくできる。なお、単純なRAWデータの差分では、類似しない部分のエントロピー低減は期待できないので、可逆圧縮を考えると後段の処理が活きてくる。   According to the above embodiment, since the close frame is generally a similar image, if the inter-frame difference is used, the compression effect as moving image data can be increased as compared with the method described above with reference to FIG. Note that entropy reduction in dissimilar portions cannot be expected with simple RAW data differences, and therefore, subsequent processing becomes effective when lossless compression is considered.

図26に、上記第4の構成例における撮像部の変形構成例を示す。この撮像部は、レンズ110、減算部116、撮像素子120、加算画像生成部130、差分画像生成部141、平均画像生成部142、平均値算出部145、減算部146、可逆圧縮符号化部147、圧縮データ記録部150、低解像動画生成部160、動画データ圧縮部170、動画データ記録部180、モニター表示部190を含む。なお以下では、図3等で上述した構成要素と同一の構成要件については同一の符号を付し、適宜説明を省略する。   FIG. 26 shows a modified configuration example of the imaging unit in the fourth configuration example. The imaging unit includes a lens 110, a subtraction unit 116, an imaging element 120, an addition image generation unit 130, a difference image generation unit 141, an average image generation unit 142, an average value calculation unit 145, a subtraction unit 146, and a lossless compression encoding unit 147. , A compressed data recording unit 150, a low resolution moving image generating unit 160, a moving image data compressing unit 170, a moving image data recording unit 180, and a monitor display unit 190. In the following description, the same components as those described above with reference to FIG. 3 and the like are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

この変形構成例では、撮像画像のフレーム間差分画像ではなく、加算画像のフレーム間差分画像を求める。具体的には、加算画像生成部130は、撮像画像V3k、V3k+1、V3k+2に対して重畳シフト重み付け加算を行い、加算画像A(3k) 〜A(3k) 、A(3k+1) 〜A(3k+1) 、A(3k+2) 〜A(3k+2) を生成する。減算部116は、基準フレームの加算画像A(3k+1) 〜A(3k+1) と、その前後フレームの加算画像A(3k) 〜A(3k) 、A(3k+2) 〜A(3k+2) の差分を求め、差分フレームの加算画像として出力する。そして、図1で上述の手法と同様にして、基準フレームの加算画像と差分フレームの加算画像から、平均画像と差分画像を生成し、その平均画像と差分画像に対して可逆圧縮処理を行い、そのデータを融合画像データとして記録する。 In this modified configuration example, the inter-frame difference image of the added image is obtained instead of the inter-frame difference image of the captured image. Specifically, the added image generation unit 130 performs superposition shift weighted addition on the captured images V 3k , V 3k + 1 , and V 3k + 2 , and adds the added images A (3k) 1 to A (3k) 4 , A (3k + 1). 1 to A (3k + 1) 4 and A (3k + 2) 1 to A (3k + 2) 4 are generated. The subtracting unit 116 adds the reference image addition images A (3k + 1) 1 to A (3k + 1) 4 and the addition images A (3k) 1 to A (3k) 4 and A (3k + 2) 1 to A (3k + 2). 4 ) Find the difference of 4 and output it as an added image of the difference frame. Then, in the same manner as in the above-described method in FIG. 1, an average image and a difference image are generated from the addition image of the reference frame and the addition image of the difference frame, and a reversible compression process is performed on the average image and the difference image. The data is recorded as fused image data.

上記の実施形態によれば、図25に示すように、画像取得部(例えば撮像素子120)は、第1フレームf3k+1の撮像画像V3k+1を基準撮像画像として取得し、第1フレームf3k+1の前又は後の第2フレーム(例えば前のフレームf3k)の撮像画像V3kと基準撮像画像V3k+1の差分を差分撮像画像V’3kとして取得する。加算画像生成部130は、基準撮像画像V3k+1に基づく第1〜第4(広義には第1〜第n)の加算画像A(3k+1) 〜A(3k+1) と、差分撮像画像V’3kに基づく第1〜第nの加算画像A(3k) 〜A(3k) を取得する。 According to the above embodiment, as shown in FIG. 25, the image acquisition unit (e.g., image sensor 120), the captured image V 3k + 1 of the first frame f 3k + 1 obtained as a reference photographed image, the first frame f 3k + 1 The difference between the captured image V 3k of the previous or subsequent second frame (for example, the previous frame f 3k ) and the reference captured image V 3k + 1 is acquired as the differential captured image V ′ 3k . The addition image generation unit 130 includes first to fourth (first to nth in a broad sense) addition images A (3k + 1) 1 to A (3k + 1) 4 based on the reference captured image V 3k + 1 , and the difference captured image V ′. obtaining first to n-th addition image a (3k) 1 ~A (3k ) 4 based on 3k.

なお、第2フレームは、第1フレームf3k+1の後のフレームf3k+2であってもよい。この場合、差分撮像画像V’3k+2、第1〜第nの加算画像A(3k+2) 〜A(3k+2) を取得する。また、第1フレームf3k+1の前後両方のフレームを用いて、それぞれ差分画像、加算画像を求めてもよい。 The second frame may be a frame f 3k + 2 after the first frame f 3k + 1 . In this case, the differential captured image V ′ 3k + 2 and the first to nth added images A (3k + 2) 1 to A (3k + 2) 4 are acquired. Alternatively, the difference image and the added image may be obtained using both the frames before and after the first frame f 3k + 1 .

このようにすれば、フレーム内での画素加算によりフレーム内の画素間相関が大きくなり、更にその加算画像同士の引き算によりフレーム間差分画像を求めることができる。これにより、類似性がより高い画像同士の引き算とすることができ、差分効果が期待できる。例えば、フレーム間差分画像から生成した平均画像は、通常の加算画像から生成した平均画像よりもエントロピーが低いと考えられる。そのため、平均画像のエントロピー符号化等による圧縮率を向上できると考えられる。   In this way, the inter-pixel correlation in the frame is increased by the pixel addition in the frame, and the inter-frame difference image can be obtained by subtraction of the added images. Thereby, it can be set as the subtraction of images with higher similarity, and the difference effect can be expected. For example, an average image generated from an inter-frame difference image is considered to have lower entropy than an average image generated from a normal addition image. Therefore, it is considered that the compression rate by entropy coding of the average image can be improved.

16.復元推定処理
次に、図3等で上述の推定演算部230が行う推定処理について詳細に説明する。なお以下では、加算画素値{a00、a10、a11、a01}を例に説明する(i,jは0以上の整数)が、他の加算画素値についても同様である。また、加算単位が2×2画素毎に設定される場合を例に説明するが、これに限定されず、例えば3×3画素毎であってもよい。
16. Next, the estimation process performed by the above-described estimation calculation unit 230 will be described in detail with reference to FIG. In the following, the addition pixel values {a 00 , a 10 , a 11 , a 01 } will be described as an example (i and j are integers of 0 or more), but the same applies to other addition pixel values. Further, the case where the addition unit is set for every 2 × 2 pixels will be described as an example, but the present invention is not limited to this, and may be, for example, every 3 × 3 pixels.

図27(A)、図27(B)に、推定画素値と中間画素値の説明図を示す。図27(A)に示す加算画素値{a00、a10、a11、a01}は、図1で説明した加算画像A〜Aの加算画素値{a(1) 00,a(2) 10,a(3) 11,a(4) 01}に対応する。推定処理では、この加算画素値を用いて、最終的な推定画素値v00〜v22を推定する。推定画素値vijは、図1で説明した撮像画像fxの画素値に対応する。 27A and 27B are explanatory diagrams of the estimated pixel value and the intermediate pixel value. Summing the pixel values shown in FIG. 27 (A) {a 00, a 10, a 11, a 01} is added pixel value of the added image A 1 to A 4 described in FIG. 1 {a (1) 00, a ( 2) Corresponds to 10 , a (3) 11 , a (4) 01 }. In the estimation process, final estimated pixel values v 00 to v 22 are estimated using the added pixel values. The estimated pixel value v ij corresponds to the pixel value of the captured image fx described in FIG.

図27(B)に示すように、まず加算画素値a00〜a11から中間画素値b00〜b21(中間推定画素値)を推定する。中間画素値は2画素加算値に対応し、例えばb00は画素値v00とv01の加算値に対応する。これらの中間画素値b00〜b21から最終的な画素値v00〜v22を推定する。 As shown in FIG. 27B, first, intermediate pixel values b 00 to b 21 (intermediate estimated pixel values) are estimated from the added pixel values a 00 to a 11 . Intermediate pixel value corresponds to 2-pixel sum values, for example, b 00 corresponds to the sum of the pixel values v 00 and v 01. The final pixel values v 00 to v 22 are estimated from these intermediate pixel values b 00 to b 21 .

まず中間画素値を推定する処理について説明する。以下では、水平方向の最初の行の中間画素値b00〜b20を推定する場合を例に説明する。次の行の中間画素値b01〜b21についても同様の手法により推定される。 First, a process for estimating the intermediate pixel value will be described. Hereinafter, a case where the intermediate pixel values b 00 to b 20 of the first row in the horizontal direction are estimated will be described as an example. The intermediate pixel values b 01 to b 21 in the next row are estimated by the same method.

図28に示すように、中間画素値b00〜b20は、水平方向の最初の行の加算画素値a00、a10に基づいて推定される。説明を簡単にするために、例えば重み係数r=2とすると、加算画素値a00、a10は下式(25)で表される。
00=v00+(1/2)v01+(1/2)v10+(1/4)v11
10=v10+(1/2)v11+(1/2)v20+(1/4)v21
(25)
As shown in FIG. 28, the intermediate pixel values b 00 to b 20 are estimated based on the added pixel values a 00 and a 10 in the first row in the horizontal direction. For the sake of simplicity, for example, assuming that the weighting factor r = 2, the addition pixel values a 00 and a 10 are expressed by the following expression (25).
a 00 = v 00 + (1/2) v 01 + (1/2) v 10 + (1/4) v 11 ,
a 10 = v 10 + (1/2 ) v 11 + (1/2) v 20 + (1/4) v 21
(25)

下式(26)に示すようにb00、b10、b20を定義する。
00=v00+(1/r)v01=v00+(1/2)v01
10=v10+(1/r)v11=v10+(1/2)v11
20=v20+(1/r)v21=v20+(1/2)v21 (26)
B 00 , b 10 , and b 20 are defined as shown in the following formula (26).
b 00 = v 00 + (1 / r) v 01 = v 00 + (1/2) v 01 ,
b 10 = v 10 + (1 / r) v 11 = v 10 + (1/2) v 11 ,
b 20 = v 20 + (1 / r) v 21 = v 20 + (1/2) v 21 (26)

次に、上式(26)を用いて上式(25)を変形すると、下式(27)が成り立つ。
00=b00+(1/2)b10
10=b10+(1/2)b20 (27)
Next, when the above equation (25) is transformed using the above equation (26), the following equation (27) is established.
a 00 = b 00 + (1/2) b 10 ,
a 10 = b 10 + (1/2) b 20 (27)

上式(27)において、a00、a10に所定の重み係数を掛けて差分δiを取り、上式(26)を使って変形すると、下式(28)が成り立つ。
δi=a10−2a00
=(1/2)b20−2b00 (28)
In the above equation (27), a difference δi 0 is obtained by multiplying a 00 , a 10 by a predetermined weighting factor, and transformed using the above equation (26), the following equation (28) is established.
δi 0 = a 10 -2a 00
= (1/2) b 20 -2b 00 (28)

00を未知数(初期変数)とすると、下式(29)に示すように、中間画素値b10、b20をb00の関数として求めることができる。このようにして、b00を未知数として高精細な中間画素値{b00,b10,b20}の組合せパターンが求められる。
00=(未知数),
10=2(a00−b00),
20=4b00+2δi=4b00+2(a10−2a00) (29)
If b 00 is an unknown number (initial variable), intermediate pixel values b 10 and b 20 can be obtained as a function of b 00 as shown in the following equation (29). In this way, a high-definition combination pattern of intermediate pixel values {b 00 , b 10 , b 20 } is obtained with b 00 as an unknown.
b 00 = (unknown number),
b 10 = 2 (a 00 −b 00 ),
b 20 = 4b 00 + 2δi 0 = 4b 00 +2 (a 10 −2a 00 ) (29)

次に、未知数b00を求める手法について説明する。図29に示すように、加算画素値のパターン{a00,a10}と中間画素値のパターン{b00,b10,b20}を比較する。そして、その誤差Eが最小になる未知数b00を導出し、中間画素値b00として設定する。 Next, a description will be given of a method of obtaining the unknown b 00. As shown in FIG. 29, the pattern {a 00 , a 10 } of the added pixel value is compared with the pattern {b 00 , b 10 , b 20 } of the intermediate pixel value. Then, an unknown number b 00 that minimizes the error E is derived and set as the intermediate pixel value b 00 .

具体的には、加算画素値{aij}と中間画素値{bij,b(i+1)j}には、下式(30)の関係が成り立つ。この下式(30)による重み付けを考慮すると、下式(31)に示す評価関数Ejが求められる。そして、この評価関数Ejにより、パターン{a00,a10}とパターン{b00,b10,b20}の類似性評価を行う。
ij=bij+(1/2)b(i+1)j (30)

Figure 2012231377
Specifically, the relationship of the following expression (30) is established between the added pixel value {a ij } and the intermediate pixel value {b ij , b (i + 1) j }. Considering the weighting by the following equation (30), the evaluation function Ej shown in the following equation (31) is obtained. Then, with this evaluation function Ej, similarity evaluation between the pattern {a 00 , a 10 } and the pattern {b 00 , b 10 , b 20 } is performed.
a ij = b ij + (1/2) b (i + 1) j (30)
Figure 2012231377

図30に示すように、Ejを最小にする未知数b00(=α)を求め、b00の値を決定できる。そして、推定したb00の値を上式(29)に代入し、b10,b20が求められる。 As shown in FIG. 30, an unknown b 00 (= α) that minimizes Ej is obtained, and the value of b 00 can be determined. Then, the estimated value of b 00 is substituted into the above equation (29) to obtain b 10 and b 20 .

次に、求めた中間画素値bijを用いて最終推定画素値vijを求める手法について説明する。以下では、左端垂直列(i=0列)を例に説明する。最終推定画素値vijは、中間画素値bijを求めた手法と同様に求められる。即ち、上式(27)を下式(32)に置き換えれば、以降の処理は同様である。
00=v00+(1/2)v01
01=v01+(1/2)v02 (32)
Next, a method for obtaining the final estimated pixel value v ij using the obtained intermediate pixel value b ij will be described. In the following, description will be given taking the leftmost vertical column (i = 0 column) as an example. The final estimated pixel value v ij is obtained in the same manner as the method for obtaining the intermediate pixel value b ij . That is, if the above equation (27) is replaced with the following equation (32), the subsequent processing is the same.
b 00 = v 00 + (1/2) v 01 ,
b 01 = v 01 + (1/2) v 02 (32)

以上の実施形態によれば、図27(A)に示すように、第1のポジションに設定された加算単位(例えばa00)と、第1のポジションの次の第2のポジションに設定された加算単位(例えばa10)は重畳する。上式(28)に示すように、推定演算部230は、第1、第2のポジションの加算画素値a00、a10の差分値δiを求める。図27(B)に示すように、第1の中間画素値b00は、加算単位a00から重畳領域(v10、v11)を除いた第1の領域(v00、v01)の加算画素値である。第2の中間画素値b20は、加算単位a10から重畳領域(v10、v11)を除いた第2の領域(v20、v21)の加算画素値である。上式(29)に示すように、第1、第2の中間画素値b00、b20の関係式を、差分値δiを用いて表す。図29等に示すように、その関係式を用いて第1、第2の中間画素値b00、b20を推定する。推定した第1の中間画素値b00を用いて加算単位に含まれる各画素の画素値(v00、v10、v11、v01)を求める。 According to the above embodiment, as shown in FIG. 27A, the addition unit (for example, a 00 ) set to the first position and the second position subsequent to the first position are set. The addition unit (for example, a 10 ) is overlapped. As shown in the above equation (28), the estimation calculation unit 230 obtains a difference value δi 0 between the added pixel values a 00 and a 10 at the first and second positions. As shown in FIG. 27B, the first intermediate pixel value b 00 is the addition of the first area (v 00 , v 01 ) obtained by removing the overlapping area (v 10 , v 11 ) from the addition unit a 00. It is a pixel value. The second intermediate pixel value b 20 is an addition pixel value of the second region (v 20 , v 21 ) obtained by removing the overlap region (v 10 , v 11 ) from the addition unit a 10 . As shown in the above equation (29), a relational expression between the first and second intermediate pixel values b 00 and b 20 is expressed using a difference value δi 0 . As shown in FIG. 29 and the like, the first and second intermediate pixel values b 00 and b 20 are estimated using the relational expression. Using the estimated first intermediate pixel value b 00 , pixel values (v 00 , v 10 , v 11 , v 01 ) of each pixel included in the addition unit are obtained.

このようにすれば、重畳シフトされた加算画素値から中間画素値を一旦推定し、その重畳シフトされた中間画素値から推定画素値を求めることで、高解像画像の推定処理を簡素化できる。例えば、2次元フィルターの繰り返し演算(特許文献1)や、初期値の設定に適当な部分を探索(特許文献2)する等の複雑な処理が不要となる。   In this way, it is possible to simplify the estimation process of the high-resolution image by once estimating the intermediate pixel value from the addition pixel value subjected to the superposition shift and obtaining the estimation pixel value from the intermediate pixel value subjected to the superposition shift. . For example, complicated processing such as iterative calculation of a two-dimensional filter (Patent Document 1) and searching for a part suitable for setting an initial value (Patent Document 2) becomes unnecessary.

ここで、重畳するとは、加算単位と加算単位が重なった領域を有することであり、例えば図27(A)に示すように、加算単位a00と加算単位a10が、2つの推定画素v10、v11を共有することである。 Here, superimposing means having an area where the addition unit and the addition unit overlap. For example, as shown in FIG. 27A, the addition unit a 00 and the addition unit a 10 are two estimated pixels v 10. is to share the v 11.

また、加算単位のポジションとは、撮像画像における加算単位の位置や座標のことであり、あるいは、推定処理における推定画素値データ(画像データ)上での加算単位の位置や座標のことである。また、次のポジションとは、元のポジションから画素シフトされたポジションであり、元のポジションと位置や座標が一致しないポジションのことである。   Further, the position of the addition unit is the position and coordinates of the addition unit in the captured image, or the position and coordinates of the addition unit on the estimated pixel value data (image data) in the estimation process. The next position is a position shifted from the original position by a pixel, and is a position where the position and coordinates do not coincide with the original position.

また本実施形態では、第1、第2の中間画素値(例えばb00、b20)を含む連続する中間画素値を中間画素値パターン({b00、b10、b20})とする。上式(29)に示すように、推定演算部230は、中間画素値パターンに含まれる中間画素値の間の関係式を加算画素値a00、a10を用いて表す。図29に示すように、中間画素値の間の関係式で表された中間画素値パターンと加算画素値とを比較して類似性を評価する。その類似性の評価結果に基づいて、類似性が最も高くなるように中間画素値パターンに含まれる中間画素値b00、b10、b20を決定する。 In this embodiment, continuous intermediate pixel values including the first and second intermediate pixel values (for example, b 00 , b 20 ) are defined as intermediate pixel value patterns ({b 00 , b 10 , b 20 }). As shown in the above equation (29), the estimation calculation unit 230 represents the relational expression between the intermediate pixel values included in the intermediate pixel value pattern using the added pixel values a 00 and a 10 . As shown in FIG. 29, the similarity is evaluated by comparing the intermediate pixel value pattern represented by the relational expression between the intermediate pixel values with the added pixel value. Based on the similarity evaluation result, the intermediate pixel values b 00 , b 10 , and b 20 included in the intermediate pixel value pattern are determined so that the similarity is the highest.

このようにすれば、加算単位が重畳されながら画素シフトされることで取得された複数の加算画素値に基づいて、中間画素値を推定できる。   In this way, the intermediate pixel value can be estimated based on a plurality of added pixel values acquired by pixel shifting while the addition unit is superimposed.

ここで、中間画素値パターンとは、推定処理に用いられる範囲の中間画素値のデータ列(データの組み)である。また、加算画素値パターンとは、推定処理に用いられる範囲の加算画素値のデータ列である。   Here, the intermediate pixel value pattern is a data string (a set of data) of intermediate pixel values in a range used for estimation processing. The addition pixel value pattern is a data string of addition pixel values in a range used for the estimation process.

また本実施形態では、上式(31)に示すように、推定演算部230は、中間画素値の間の関係式で表された中間画素値パターン({b00、b10、b20})と加算画素値(a00、a10)との誤差を表す評価関数Ejを求める。評価関数Ejの値が最小となるように中間画素値パターンに含まれる中間画素値b00、b10、b20を決定する。 Further, in the present embodiment, as shown in the above equation (31), the estimation calculation unit 230 has an intermediate pixel value pattern ({b 00 , b 10 , b 20 }) represented by a relational expression between intermediate pixel values. And an evaluation function Ej representing an error between the pixel value (a 00 and a 10 ). The intermediate pixel values b 00 , b 10 and b 20 included in the intermediate pixel value pattern are determined so that the value of the evaluation function Ej is minimized.

このようにすれば、誤差を評価関数で表し、その評価関数の極小値に対応する中間画素値を求めることで、中間画素値の値を推定できる。例えば、上述のように最小二乗法を用いて未知数を求めることで、簡素な処理で中間画素推定の初期値を設定できる。例えば、初期値設定に適当な画像部分の探索(特許文献2)が不要である。   In this way, the value of the intermediate pixel value can be estimated by expressing the error by the evaluation function and obtaining the intermediate pixel value corresponding to the minimum value of the evaluation function. For example, as described above, the initial value of the intermediate pixel estimation can be set with a simple process by obtaining the unknown using the least square method. For example, searching for an image portion suitable for initial value setting (Patent Document 2) is unnecessary.

また本実施形態では、上式(25)に示すように、加算単位の各画素値(例えば、v00、v10、v01、v11)が重み付け加算された加算画素値(a00)を取得する。取得された加算単位の加算画素値(a00、a10)に基づいて、加算単位の各画素の画素値(v00、v10、v01、v11)を推定する。 In the present embodiment, as shown in the above equation (25), each pixel value (for example, v 00 , v 10 , v 01 , v 11 ) of the addition unit is weighted and added to the added pixel value (a 00 ). get. Based on the obtained addition pixel value (a 00 , a 10 ) of the addition unit, the pixel value (v 00 , v 10 , v 01 , v 11 ) of each pixel of the addition unit is estimated.

このようにすれば、加算単位の各画素値を重み付け加算して加算画像を取得し、取得した加算画像から高解像画像の画素値を推定できる。これにより、推定処理において、被写体の持つ高周波成分の再現性を向上できる。すなわち、加算単位の画素値を単純加算した場合には、矩形の窓関数を結像にコンボリューションすることになる。一方、加算単位の画素値を重み付け加算した場合には、矩形よりも高周波成分を多く含む窓関数を結像にコンボリューションすることになる。そのため、被写体の持つ高周波成分をより多く含む加算画像を取得でき、推定画像での高周波成分の再現性を向上できる。   If it does in this way, each pixel value of an addition unit will carry out weighted addition, an addition image will be acquired, and the pixel value of a high-resolution image can be estimated from the acquired addition image. Thereby, in the estimation process, the reproducibility of the high-frequency component of the subject can be improved. That is, when the pixel values of the addition unit are simply added, a rectangular window function is convoluted for imaging. On the other hand, when the pixel value of the addition unit is weighted and added, a window function containing more high frequency components than the rectangle is convoluted for imaging. Therefore, it is possible to acquire an added image that includes more high-frequency components of the subject, and to improve the reproducibility of the high-frequency components in the estimated image.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また撮像部、画像処理部、撮像装置等の構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configurations and operations of the imaging unit, the image processing unit, the imaging device, and the like are not limited to those described in the present embodiment, and various modifications can be made.

10 撮像部、20 画像処理部、100 被写体、110 レンズ、
115,116 減算部、120 撮像素子、125 低解像画像生成部、
130,135 加算画像生成部、140 圧縮処理部、
141 差分画像生成部、142 平均画像生成部、
143 エントロピー符号化部、144 データ圧縮部、145 平均値算出部、
146 減算部、147 可逆圧縮符号化部、148 データ圧縮部、
150 圧縮データ記録部、151 差分データ記録部、
152 平均画像データ記録部、155 データ記録部、
160 低解像動画生成部、165 画素データ再構成部、
170 動画データ圧縮部、175 加算画像生成部、
180 動画データ記録部、185 データ圧縮部、190 モニター表示部、
200 圧縮データ伸張部、205 伸張処理部、210 加算画像再生部、
215 低解像画像推定演算部、220 加算画像ノイズ低減処理部、
230 推定演算部、240 高精細静止画生成部、250 高精細動画生成部、
260 高画質標準動画生成部、270 動画圧縮データ伸張部、
280 標準動画生成部、290 画像出力部、295 画像選択部、
301〜304 加算画像生成部、311〜314 差分画像生成部、
321〜324 平均画像生成部、331〜334 エントロピー符号化部、
340 ベイヤー画像生成部、350 動画データ圧縮部、
〜A 加算画像、D〜D 差分画像、M 平均画像、T〜T 期間、
3k+1 基準撮像画像、V3k,V3k+2 差分撮像画像、
(1) 00,a(2) 10,a(3) 11,a(4) 01 加算画素値、
D1 ij〜aD4 ij 差分画像の画素値、a ij 平均画像の画素値、
ij,a ij,a’ij 移動平均値、b00-b20 中間画素値、
d1,d2 範囲、fx 撮像画像、mAVR 平均値、r 重み付け係数、
ij 再構成データ、v00-v22 推定画素値、α ij 平均値、
δi 差分値、ξij 再構成データの加算値
10 imaging unit, 20 image processing unit, 100 subject, 110 lens,
115, 116 subtraction unit, 120 image sensor, 125 low-resolution image generation unit,
130, 135 addition image generation unit, 140 compression processing unit,
141 difference image generation unit, 142 average image generation unit,
143 Entropy encoding unit, 144 data compression unit, 145 average value calculation unit,
146 subtraction unit, 147 lossless compression encoding unit, 148 data compression unit,
150 compressed data recording unit, 151 differential data recording unit,
152 average image data recording unit, 155 data recording unit,
160 low-resolution video generation unit, 165 pixel data reconstruction unit,
170 video data compression unit, 175 addition image generation unit,
180 video data recording unit, 185 data compression unit, 190 monitor display unit,
200 compressed data decompression unit, 205 decompression processing unit, 210 addition image reproduction unit,
215 low-resolution image estimation calculation unit, 220 addition image noise reduction processing unit,
230 estimation calculation unit, 240 high definition still image generation unit, 250 high definition video generation unit,
260 high-quality standard video generation unit, 270 video compression data decompression unit,
280 standard video generation unit, 290 image output unit, 295 image selection unit,
301 to 304 addition image generation unit, 311 to 314 difference image generation unit,
321 to 324 average image generation unit, 331 to 334 entropy encoding unit,
340 Bayer image generation unit, 350 video data compression unit,
A 1 to A 4 adds the image, D 1 to D 4 differential image, M average image, T 0 through T 2 period,
V 3k + 1 reference captured image, V 3k , V 3k + 2 differential captured image,
a (1) 00 , a (2) 10 , a (3) 11 , a (4) 01 addition pixel value,
a pixel value of a D1 ij to a D4 ij difference image, pixel value of a M ij average image,
a h ij , a v ij , a ′ ij moving average value, b 00 -b 20 intermediate pixel value,
d1, d2 range, fx captured image, m AVR average value, r weighting coefficient,
u ij reconstruction data, v 00 -v 22 estimated pixel value, α M ij average value,
δi 0 difference value, addition value of ξ ij reconstruction data

Claims (11)

撮像画像を取得する画像取得部と、
加算画素値を取得する単位である加算単位を前記撮像画像の複数の画素毎に設定し、前記加算単位に含まれる画素値を重み付け加算して前記加算画素値を求め、求めた前記加算画素値による加算画像を取得する加算画像生成部と、
前記加算画像を圧縮する圧縮処理部と、
圧縮された前記加算画像を伸張する伸張処理部と、
伸張された前記加算画像に基づいて前記撮像画像の画素値を推定する推定演算部と、
前記推定演算部により推定された画素値に基づく高解像画像を出力する画像出力部と、
を含み、
前記加算画像生成部は、
前記加算単位を順次画素シフトさせて第1〜第nの加算画像(nは2以上の自然数)を前記加算画像として取得し、
前記圧縮処理部は、
前記第1〜第nの加算画像の平均を平均画像として求め、前記平均画像と、前記第1〜第nの加算画像のうちの第mの加算画像(mはn以下の自然数)との差分を、第mの差分画像として求め、求めた前記平均画像と前記第mの差分画像を圧縮し、
前記伸張処理部は、
圧縮された前記平均画像と前記第mの差分画像を伸張して前記第1〜第nの加算画像を求めることを特徴とする撮像装置。
An image acquisition unit for acquiring a captured image;
An addition unit, which is a unit for obtaining an addition pixel value, is set for each of a plurality of pixels of the captured image, and the addition pixel value is obtained by weighted addition of pixel values included in the addition unit, and the obtained addition pixel value An addition image generation unit for acquiring an addition image by;
A compression processing unit for compressing the added image;
A decompression processing unit for decompressing the compressed added image;
An estimation calculator that estimates a pixel value of the captured image based on the expanded added image;
An image output unit that outputs a high-resolution image based on the pixel value estimated by the estimation calculation unit;
Including
The addition image generation unit
The first to nth added images (n is a natural number greater than or equal to 2) are obtained as the added images by sequentially shifting the addition units.
The compression processing unit
An average of the first to n-th added images is obtained as an average image, and a difference between the average image and the m-th added image (m is a natural number equal to or less than n) of the first to n-th added images. , As the m-th difference image, compress the obtained average image and the m-th difference image,
The decompression processing unit
An imaging apparatus, wherein the compressed average image and the m-th difference image are expanded to obtain the first to n-th added images.
請求項1において、
前記加算画像生成部は、
前記加算単位を、水平又は垂直に1画素ずつ順次シフトさせて第1〜第nのポジションに設定し、前記第1〜第nのポジションにおいてそれぞれ前記第1〜第nの加算画像を取得し、
前記第1〜第nのポジションのうちの第mのポジションと第m+1のポジションの前記加算単位は、共通の画素を含むことを特徴とする撮像装置。
In claim 1,
The addition image generation unit
The addition unit is sequentially shifted one pixel at a time horizontally or vertically to set the first to n-th positions, and the first to n-th added images are obtained at the first to n-th positions, respectively.
The imaging apparatus, wherein the addition unit of the m-th position and the (m + 1) -th position among the first to n-th positions includes a common pixel.
請求項2において、
前記圧縮処理部は、
前記第1〜第nのポジションの前記加算画素値の平均値を、前記平均画像の画素値として求める平均画像生成部と、
前記平均画像の画素値と、前記第mのポジションの前記加算画素値の差分値を、前記第mの差分画像の画素値として求める差分画像生成部と、
を有することを特徴とする撮像装置。
In claim 2,
The compression processing unit
An average image generation unit for obtaining an average value of the addition pixel values of the first to n-th positions as a pixel value of the average image;
A difference image generation unit for obtaining a difference value between the pixel value of the average image and the addition pixel value of the m-th position as a pixel value of the m-th difference image;
An imaging device comprising:
請求項2又は3において、
低解像動画を生成する低解像動画生成部を含み、
前記撮像画像がRGBベイヤー配列の画像であり、前記加算単位が、隣接する4画素である場合に、
前記加算画像生成部は、
第1〜第4のポジション(n=4)において、前記重み付け加算によりRGBが混色された第1〜第4の加算画像を取得し、
前記低解像動画生成部は、
前記第1〜第4の加算画像のうちの第1〜第3の加算画像に基づいて、前記低解像動画のRGBの画素値を推定により求めることを特徴とする撮像装置。
In claim 2 or 3,
Including a low-resolution video generation unit for generating a low-resolution video,
When the captured image is an image of an RGB Bayer array and the addition unit is four adjacent pixels,
The addition image generation unit
In the first to fourth positions (n = 4), the first to fourth added images in which RGB are mixed by the weighted addition are acquired,
The low-resolution video generation unit
An image pickup apparatus that obtains RGB pixel values of the low-resolution moving image by estimation based on first to third addition images of the first to fourth addition images.
請求項1乃至4のいずれかにおいて、
前記圧縮処理部は、
前記第mの差分画像をエントロピー符号化により可逆圧縮することを特徴とする撮像装置。
In any one of Claims 1 thru | or 4,
The compression processing unit
An imaging apparatus, wherein the m-th difference image is reversibly compressed by entropy coding.
請求項1乃至5のいずれかにおいて、
前記撮像画像がRGBベイヤー配列の画像である場合に、
前記推定演算部は、
前記撮像画像の前記RGBベイヤー配列の画素値を推定により求め、
前記画像出力部は、
推定された前記RGBベイヤー配列の画素値をデモザイキング処理した画像に基づいて高解像動画を出力することを特徴とする撮像装置。
In any one of Claims 1 thru | or 5,
When the captured image is an RGB Bayer array image,
The estimation calculation unit includes:
Obtain the pixel value of the RGB Bayer array of the captured image by estimation,
The image output unit includes:
A high-resolution moving image is output based on an image obtained by demosaicing the estimated pixel values of the RGB Bayer array.
請求項1乃至6のいずれかにおいて、
画素値の変化幅に応じて適応的に移動平均の範囲を調整する適応的ノイズ低減処理を、前記第mの差分画像に対して行うノイズ低減処理部を含むことを特徴とする撮像装置。
In any one of Claims 1 thru | or 6.
An image pickup apparatus comprising: a noise reduction processing unit that performs adaptive noise reduction processing for adaptively adjusting a moving average range according to a change width of a pixel value for the m-th difference image.
請求項1乃至7のいずれかにおいて、
前記画像取得部は、
第1フレームの撮像画像を基準撮像画像として取得し、前記第1フレームの前又は後の第2フレームの撮像画像と前記基準撮像画像の差分を差分撮像画像として取得し、
前記加算画像生成部は、
前記基準撮像画像に基づく前記第1〜第nの加算画像と、前記差分撮像画像に基づく前記第1〜第nの加算画像を取得することを特徴とする撮像装置。
In any one of Claims 1 thru | or 7,
The image acquisition unit
Acquiring a captured image of the first frame as a reference captured image, obtaining a difference between the captured image of the second frame before or after the first frame and the reference captured image as a differential captured image;
The addition image generation unit
An imaging apparatus, wherein the first to nth added images based on the reference captured image and the first to nth added images based on the differential captured image are acquired.
請求項1乃至8のいずれかにおいて、
第1のポジションに設定された前記加算単位と、前記第1のポジションの次の第2のポジションに設定された前記加算単位が重畳する場合に、
前記推定演算部は、
前記第1のポジションの加算画素値と、前記第2のポジションの加算画素値の差分値を求め、
前記第1のポジションの加算単位から重畳領域を除いた第1の領域の加算画素値である第1の中間画素値と、前記第2のポジションの加算単位から前記重畳領域を除いた第2の領域の加算画素値である第2の中間画素値との関係式を、前記差分値を用いて表し、
前記関係式を用いて前記第1、第2の中間画素値を推定し、推定した前記第1の中間画素値を用いて前記加算単位に含まれる各画素の画素値を求めることを特徴とする撮像装置。
In any one of Claims 1 thru | or 8.
When the addition unit set in the first position and the addition unit set in the second position next to the first position overlap,
The estimation calculation unit includes:
A difference value between the added pixel value of the first position and the added pixel value of the second position;
A first intermediate pixel value that is an addition pixel value of the first area obtained by removing the overlap area from the addition unit of the first position, and a second that is obtained by removing the overlap area from the addition unit of the second position. A relational expression with the second intermediate pixel value that is the added pixel value of the region is expressed using the difference value,
The first and second intermediate pixel values are estimated using the relational expression, and the pixel value of each pixel included in the addition unit is obtained using the estimated first intermediate pixel value. Imaging device.
請求項9において、
前記推定演算部は、
前記第1、第2の中間画素値を含む連続する中間画素値を中間画素値パターンとする場合に、前記中間画素値パターンに含まれる中間画素値間の関係式を前記加算画素値を用いて表し、
前記中間画素値間の関係式で表された前記中間画素値パターンと前記加算画素値とを比較して類似性を評価し、
前記類似性の評価結果に基づいて、前記類似性が最も高くなるように、前記中間画素値パターンに含まれる中間画素値を決定することを特徴とする撮像装置。
In claim 9,
The estimation calculation unit includes:
When successive intermediate pixel values including the first and second intermediate pixel values are used as an intermediate pixel value pattern, a relational expression between intermediate pixel values included in the intermediate pixel value pattern is obtained using the added pixel value. Represent,
Comparing the intermediate pixel value pattern represented by the relational expression between the intermediate pixel values and the added pixel value to evaluate similarity;
An image pickup apparatus, comprising: determining an intermediate pixel value included in the intermediate pixel value pattern based on the similarity evaluation result so that the similarity becomes the highest.
撮像画像を取得し、
加算画素値を取得する単位である加算単位を前記撮像画像の複数の画素毎に設定し、前記加算単位に含まれる画素値を重み付け加算して前記加算画素値を求め、求めた前記加算画素値による加算画像を取得し、
前記加算画像を圧縮し、
圧縮された前記加算画像を伸張し、
伸張された前記加算画像に基づいて前記撮像画像の画素値を推定するとともに、
前記推定された画素値に基づく高解像画像を出力する場合に、
前記加算単位を順次画素シフトさせて第1〜第nの加算画像(nは2以上の自然数)を前記加算画像として取得し、
前記第1〜第nの加算画像の平均を平均画像として求め、前記平均画像と、前記第1〜第nの加算画像のうちの第mの加算画像(iはn以下の自然数)との差分を、第mの差分画像として求め、求めた前記平均画像と前記第mの差分画像を圧縮し、
圧縮された前記平均画像と前記第mの差分画像を伸張して前記第1〜第nの加算画像を求めることを特徴とする画像生成方法。
Acquire the captured image,
An addition unit, which is a unit for obtaining an addition pixel value, is set for each of a plurality of pixels of the captured image, and the addition pixel value is obtained by weighted addition of pixel values included in the addition unit, and the obtained addition pixel value Acquire the addition image by
Compress the added image;
Decompressing the compressed added image,
Estimating the pixel value of the captured image based on the expanded added image,
When outputting a high-resolution image based on the estimated pixel value,
The first to nth added images (n is a natural number greater than or equal to 2) are obtained as the added images by sequentially shifting the addition units.
An average of the first to nth addition images is obtained as an average image, and a difference between the average image and the mth addition image (i is a natural number equal to or less than n) of the first to nth addition images. , As the m-th difference image, compress the obtained average image and the m-th difference image,
A method of generating an image, comprising: decompressing the compressed average image and the m-th difference image to obtain the first to n-th added images.
JP2011099265A 2011-04-27 2011-04-27 Imaging apparatus and image generation method Withdrawn JP2012231377A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011099265A JP2012231377A (en) 2011-04-27 2011-04-27 Imaging apparatus and image generation method
PCT/JP2012/059977 WO2012147523A1 (en) 2011-04-27 2012-04-12 Imaging device and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011099265A JP2012231377A (en) 2011-04-27 2011-04-27 Imaging apparatus and image generation method

Publications (1)

Publication Number Publication Date
JP2012231377A true JP2012231377A (en) 2012-11-22

Family

ID=47072045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011099265A Withdrawn JP2012231377A (en) 2011-04-27 2011-04-27 Imaging apparatus and image generation method

Country Status (2)

Country Link
JP (1) JP2012231377A (en)
WO (1) WO2012147523A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159745A1 (en) 2014-04-17 2015-10-22 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
JP2017060111A (en) * 2015-09-18 2017-03-23 日本電信電話株式会社 Image encoder, image decoder, image encoding method and image decoding method
JP6214841B1 (en) * 2016-06-20 2017-10-18 オリンパス株式会社 In-subject introduction apparatus, transmission method, and program
WO2017221468A1 (en) * 2016-06-20 2017-12-28 オリンパス株式会社 Subject introduction device, transmission method, and program
JP2018182621A (en) * 2017-04-18 2018-11-15 キヤノン株式会社 Imaging apparatus, and control method, program and recording medium thereof
US11627250B2 (en) 2020-04-29 2023-04-11 Samsung Electronics Co., Ltd. Image compression method, encoder, and camera module including the encoder

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2503656B (en) * 2012-06-28 2014-10-15 Canon Kk Method and apparatus for compressing or decompressing light field images
JPWO2021200191A1 (en) 2020-03-31 2021-10-07

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5263753B2 (en) * 2007-11-19 2013-08-14 株式会社ザクティ Super-resolution processing apparatus and method, and imaging apparatus
JP5159461B2 (en) * 2008-06-20 2013-03-06 三洋電機株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP5220777B2 (en) * 2010-01-21 2013-06-26 オリンパス株式会社 Image processing apparatus, imaging apparatus, program, and image processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159745A1 (en) 2014-04-17 2015-10-22 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
JP2015207831A (en) * 2014-04-17 2015-11-19 キヤノン株式会社 Image encoding device and control method thereof
EP3132609A4 (en) * 2014-04-17 2018-05-16 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
US10122988B2 (en) 2014-04-17 2018-11-06 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
JP2017060111A (en) * 2015-09-18 2017-03-23 日本電信電話株式会社 Image encoder, image decoder, image encoding method and image decoding method
JP6214841B1 (en) * 2016-06-20 2017-10-18 オリンパス株式会社 In-subject introduction apparatus, transmission method, and program
WO2017221468A1 (en) * 2016-06-20 2017-12-28 オリンパス株式会社 Subject introduction device, transmission method, and program
US11259691B2 (en) 2016-06-20 2022-03-01 Olympus Corporation Body-insertable apparatus, transmission method, and non-transitory computer readable medium
JP2018182621A (en) * 2017-04-18 2018-11-15 キヤノン株式会社 Imaging apparatus, and control method, program and recording medium thereof
US11627250B2 (en) 2020-04-29 2023-04-11 Samsung Electronics Co., Ltd. Image compression method, encoder, and camera module including the encoder

Also Published As

Publication number Publication date
WO2012147523A1 (en) 2012-11-01

Similar Documents

Publication Publication Date Title
WO2012147523A1 (en) Imaging device and image generation method
US8315481B2 (en) Image transmitting apparatus, image receiving apparatus, image transmitting and receiving system, recording medium recording image transmitting program, and recording medium recording image receiving program
JP4849130B2 (en) Image processing apparatus, image processing method, and program
US8698906B2 (en) Image processing device, imaging device, information storage medium, and image processing method
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
WO2009145201A1 (en) Image processing device, image processing method, and imaging device
US7466451B2 (en) Method and apparatus for converting motion image data, and method and apparatus for reproducing motion image data
US20130083220A1 (en) Image processing device, imaging device, information storage device, and image processing method
JP4483483B2 (en) Imaging device
JP2007122232A (en) Image processor and program
JP2006345446A (en) Moving picture conversion apparatus and moving picture conversion method, and computer program
JP2012085214A (en) Data compression method and data compression device
JP4942563B2 (en) Image processing method, image processing apparatus, and electronic apparatus including the image processing apparatus
JP6284047B2 (en) Imaging apparatus and imaging method
JP5159461B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US20130155272A1 (en) Image processing device, imaging device, and image processing method
WO2012147630A1 (en) Imaging device and image generation method
JP5167229B2 (en) Imaging device
JP2009273072A (en) High-definition image processing device, high-definition image processing method, and program
WO2012147631A1 (en) Imaging device and image generation method
JP2012142676A (en) Imaging device and image generation method
JP2013125999A (en) Image processing device, imaging apparatus, and image processing method
JP5968149B2 (en) Vertical line detector
JP2012099870A (en) Image pickup device and image pickup method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701