JP2019106741A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2019106741A
JP2019106741A JP2019073763A JP2019073763A JP2019106741A JP 2019106741 A JP2019106741 A JP 2019106741A JP 2019073763 A JP2019073763 A JP 2019073763A JP 2019073763 A JP2019073763 A JP 2019073763A JP 2019106741 A JP2019106741 A JP 2019106741A
Authority
JP
Japan
Prior art keywords
image
unit
encoding
exposure
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019073763A
Other languages
Japanese (ja)
Inventor
安藤 一郎
Ichiro Ando
一郎 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019073763A priority Critical patent/JP2019106741A/en
Publication of JP2019106741A publication Critical patent/JP2019106741A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To encode images with different exposure values while cancelling mismatching of lightness.SOLUTION: An image encoding device includes: first encoding means for generating a first encoded image by performing intra-image encoding on a first encoding target image among a plurality of encoding target images with different exposure values; second encoding means for generating a second encoded image by performing inter-image encoding on a second encoding target image among the plurality of encoding target images by using a local decode image of the first encoding target image as a first reference image; and correction means which performs correction for substantially matching one of an exposure value of the second encoding target image and an exposure value of the first reference image with the other exposure value. The second encoding means performs the inter-image encoding on the second encoding target image which has been corrected by the correction means, or by using the first reference image which has been corrected by the correction means.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

従来から、異なる露光時間で連続的に順次撮影することにより取得された露光値の異なる複数の画像を合成することにより、広ダイナミックレンジ画像を生成する撮像装置が知られている(たとえば特許文献1)。   2. Description of the Related Art Conventionally, there is known an imaging device that generates a wide dynamic range image by combining a plurality of images with different exposure values acquired by sequentially capturing images sequentially with different exposure times (for example, Patent Document 1) ).

特開平5−7336号公報Japanese Patent Application Laid-Open No. 5-7336

しかしながら、異なる露光時間で撮影された複数の画像を画像間処理にてデータ圧縮した場合、それぞれの画像の露出値が異なるため画像間の相関性が低く、データ量を大幅に削減することができないという問題がある。   However, when a plurality of images taken with different exposure times are compressed by inter-image processing, the exposure value of each image is different, the correlation between the images is low, and the data amount can not be significantly reduced. There is a problem of

第1の態様の画像処理装置は、露出値が異なる複数の画像のうちの第1の画像に符号化を行い第1の符号化画像を生成する第1符号化部と、前記複数の画像のうちの第2の画像に、前記第1の符号化画像の一部を復号化した画像を第1の参照画像として用いて画像間符号化を行い第2の符号化画像を生成する第2符号化部と、前記第2の画像の露出値と、前記第1の参照画像の露出値とのうちの一方を他方にほぼ一致させる補正を行う補正部と、を備え、前記第2符号化部は、前記補正部による補正が行われた前記第2の画像、または前記補正部による補正が行われた前記第1の参照画像を用いて前記画像間符号化を行う。
第2の態様の画像処理装置は、露出値が異なる複数の画像のうちの第1の画像に、第1の参照画像を用いて画像間符号化を行い、第1の符号化画像を生成する第1符号化部と、前記複数の画像のうちの第2の画像に、前記第1の符号化画像の一部を復号化した画像を第2の参照画像として用いて前記画像間符号化を行い、第2の符号化画像を生成する第2符号化部と、前記第2の画像の露出値と、前記第2の参照画像の露出値とのうちの一方を他方にほぼ一致させる補正を行う補正部と、を備え、前記第2符号化部は、前記補正部による補正が行われた前記第2の画像、または前記補正部による補正が行われた前記第2の参照画像を用いて前記画像間符号化を行う。
The image processing apparatus according to the first aspect encodes a first image of a plurality of images having different exposure values to generate a first encoded image, and a first encoding unit for the plurality of images. A second code for inter-picture encoding of a second image of the images using an image obtained by decoding a part of the first encoded image as a first reference image to generate a second encoded image A second encoding unit, and a correction unit that performs correction to substantially match one of the exposure value of the second image and the exposure value of the first reference image to the other; The inter-image encoding is performed using the second image corrected by the correction unit or the first reference image corrected by the correction unit.
An image processing apparatus according to a second aspect performs inter-image encoding on a first image of a plurality of images having different exposure values using a first reference image to generate a first encoded image. In the first encoding unit, the second image of the plurality of images is subjected to the inter-image encoding using an image obtained by decoding a part of the first encoded image as a second reference image. Correction that substantially matches one of the second encoding unit that generates a second encoded image, the exposure value of the second image, and the exposure value of the second reference image to the other And the second encoding unit uses the second image corrected by the correction unit or the second reference image corrected by the correction unit. The inter-picture encoding is performed.

本発明によれば、露出値の異なる画像に対して、明るさの不一致を解消して効率よく符号化および復号を行うことができる。   According to the present invention, it is possible to efficiently perform encoding and decoding on an image with different exposure values without resolving the brightness mismatch.

本発明の第1の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by the 1st Embodiment of this invention, and the data produced | generated by each structure. 第1の実施の形態による符号化装置が有する露出補正部の機能を示すブロック図Block diagram showing the function of the exposure correction unit of the encoding device according to the first embodiment 第1の実施の形態による符号化装置により生成される符号化データと、符号化される前の画像との関係を模式的に示す図A diagram schematically showing a relationship between encoded data generated by the encoding apparatus according to the first embodiment and an image before encoding. 第1〜第5の実施の形態による符号化装置の動作を説明するフローチャートFlow chart for explaining the operation of the coding apparatus according to the first to fifth embodiments 第1の実施の形態による復号装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the decoding apparatus by 1st Embodiment, and the data produced | generated by each structure 第1〜第5の実施の形態による復号装置の動作を説明するフローチャートFlow chart for explaining the operation of the decoding apparatus according to the first to fifth embodiments 変形例における露出補正部の機能を示すブロック図Block diagram showing the function of the exposure correction unit in the modification 変形例における露出補正部の機能を示すブロック図Block diagram showing the function of the exposure correction unit in the modification 第2の実施の形態による符号化装置により生成される符号化データと、符号化される前の画像との関係を模式的に示す図The figure which shows typically the relationship between the coding data produced | generated by the encoding apparatus by 2nd Embodiment, and the image before being encoded. 第2の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by 2nd Embodiment, and the data produced | generated by each structure 第3の実施の形態による符号化装置により生成される符号化データと、符号化される前の画像との関係を模式的に示す図The figure which shows typically the relationship between the coding data produced | generated by the encoding apparatus by 3rd Embodiment, and the image before being encoded. 第3の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by 3rd Embodiment, and the data produced | generated by each structure 第4の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by 4th Embodiment, and the data produced | generated by each structure 第4の実施の形態による復号装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the decoding apparatus by 4th Embodiment, and the data produced | generated by each structure 第5の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by 5th Embodiment, and the data produced | generated by each structure 第5の実施の形態による復号装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the decoding apparatus by 5th Embodiment, and the data produced | generated by each structure 第4および第6の実施の形態により生成される符号化データと、符号化される前の画像との関係を模式的に示す図The figure which shows typically the relationship between the coding data produced | generated by 4th and 6th embodiment, and the image before being coded. 第4および第6の実施の形態の変形例により生成される符号化データと、符号化される前の画像との関係を模式的に示す図The figure which shows typically the relationship between the coding data produced | generated by the modification of 4th and 6th embodiment, and the image before being encoded. 第4の実施の形態の変形例、第5、第6および第7の実施の形態により生成される符号化データと、符号化される前の画像との関係を模式的に示す図The figure which shows typically the relationship between the coding data produced | generated by the modification of 4th Embodiment, 5th, 6th, and 7th embodiment, and the image before being encoded. 第6の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by 6th Embodiment, and the data produced | generated by each structure 第6の実施の形態による復号装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the decoding apparatus by 6th Embodiment, and the data produced | generated by each structure 第7の実施の形態による符号化装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the encoding apparatus by 7th Embodiment, and the data produced | generated by each structure 第7の実施の形態による復号装置の構成と、各構成にて生成されるデータとを示す図The figure which shows the structure of the decoding apparatus by 7th Embodiment, and the data produced | generated by each structure

−第1の実施の形態−
図面を参照しながら、本発明の実施の形態による符号化装置および復号化装置について説明する。
−−符号化装置−−
図1は本実施の形態による符号化装置1の構成を示すブロック図である。符号化装置1は、制御部100と、第1蓄積部101と、減算部102と、直交変換部103と、量子化部104と、可変長符号化部105と、逆量子化部106と、逆直交変換部107と、加算部108と、第2蓄積部109と、補正値算出部110と、露出補正部111と、予測制御情報生成部112と、画像間予測部113とを備える。制御部100はCPUやその周辺回路等から構成されており、不図示の記憶媒体(たとえばフラッシュメモリ等)に予め記憶されている制御プログラムを読み込んで実行することにより、符号化装置1の各部を制御する。なお、図示の都合上、制御部100から各部への信号入出力を省略して示す。また、図1においては、符号化装置1の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。
-First Embodiment-
An encoding apparatus and a decoding apparatus according to an embodiment of the present invention will be described with reference to the drawings.
--Encoding device--
FIG. 1 is a block diagram showing the configuration of a coding apparatus 1 according to the present embodiment. The encoding apparatus 1 includes a control unit 100, a first accumulation unit 101, a subtraction unit 102, an orthogonal transformation unit 103, a quantization unit 104, a variable length encoding unit 105, and an inverse quantization unit 106. The inverse orthogonal transform unit 107, the addition unit 108, the second accumulation unit 109, the correction value calculation unit 110, the exposure correction unit 111, the prediction control information generation unit 112, and the inter-image prediction unit 113. The control unit 100 includes a CPU and peripheral circuits thereof, and reads and executes a control program stored in advance in a storage medium (for example, a flash memory etc.) (not shown) to execute each part of the encoding apparatus 1. Control. Note that signal input / output from the control unit 100 to each unit is omitted for convenience of illustration. Also, in FIG. 1, data generated as described later in each configuration of the encoding device 1 is schematically shown together.

第1蓄積部101は、異なる露出値で連続的に撮影された複数の画像を順次入力して、一時的に格納する。なお、各画像を撮影した際の露出値は、画像データのヘッダ等にEXIFデータとして記録される。本実施の形態においては、第1蓄積部101に格納された複数の画像のそれぞれが符号化対象画像であり、符号化対象画像のうち、画像内符号化により符号化を行う画像を特定画像、画像間符号化により符号化を行う画像を非特定画像とする。減算部102は、第1蓄積部101に格納された複数の画像のうちの特定画像に対しては処理を行わず、非特定画像に対して、後述する画像間予測部113から出力される予測画像を減算することによって予測誤差画像を生成して出力する。   The first accumulation unit 101 sequentially inputs a plurality of images continuously photographed at different exposure values and temporarily stores the images. In addition, the exposure value at the time of imaging each image is recorded as EXIF data in the header etc. of image data. In the present embodiment, each of the plurality of images stored in the first storage unit 101 is an encoding target image, and among the encoding target images, an image to be encoded by intra-image encoding is a specific image, An image to be encoded by inter-image encoding is a non-specific image. The subtraction unit 102 does not perform processing on a specific image among the plurality of images stored in the first accumulation unit 101, and performs prediction on the non-specific image, which is output from an inter-image prediction unit 113 described later. A prediction error image is generated and output by subtracting the image.

直交変換部103は、減算部102から出力された特定画像または予測誤差画像を直交変換して直交変換係数を出力する。量子化部104は、直交変換部103から出力された直交変換係数を量子化して量子化係数、すなわち符号化済画像を出力する。可変長符号化105は、量子化部104から出力された量子化係数、後述する予測制御情報生成部112から出力される動きベクトル等の予測制御情報、補正値算出部110から出力される露出補正値等を可変長符号化することにより、符号化データを出力する。   The orthogonal transformation unit 103 orthogonally transforms the specific image or the prediction error image output from the subtraction unit 102 and outputs an orthogonal transformation coefficient. The quantization unit 104 quantizes the orthogonal transformation coefficient output from the orthogonal transformation unit 103 and outputs a quantization coefficient, that is, an encoded image. The variable-length coding 105 is a quantization coefficient output from the quantization unit 104, prediction control information such as a motion vector output from the prediction control information generation unit 112 described later, and an exposure correction output from the correction value calculation unit 110. The encoded data is output by performing variable-length encoding on values and the like.

逆量子化部106は、量子化部104で算出された量子化係数を逆量子化して逆量子化係数を出力する。逆直交変換部107は、逆量子化部106から出力された逆量子化係数を逆直交変換することにより、特定画像の復号画像(以後、復号特定画像と呼ぶ)または予測誤差画像の復号画像(以後、復号予測誤差画像と呼ぶ)を生成する。加算部108は、符号化対象画像に対して画像間符号化を行う場合には、逆直交変換部107からの復号予測誤差画像と、後述する画像間予測部113からの予測画像とを加算して、符号化対象画像の復号画像(以後、復号予測画像と呼ぶ)を生成して出力する。符号化対象画像に対して画像内符号化を行う場合には、加算部108は、逆直交変換部107からの復号特定画像をそのまま出力する。第2蓄積部109は、加算部108から出力された復号予測画像または復号特定画像、すなわち逆量子化部106および逆直交変換部107によって符号化対象画像の一部が復号された局部復号画像を、参照画像として一時的に格納する。   The inverse quantization unit 106 inversely quantizes the quantization coefficient calculated by the quantization unit 104 and outputs the inverse quantization coefficient. The inverse orthogonal transformation unit 107 performs inverse orthogonal transformation on the inverse quantization coefficient output from the inverse quantization unit 106 to obtain a decoded image of a specific image (hereinafter referred to as a decoded specific image) or a decoded image of a prediction error image ( Hereinafter, the decoded prediction error image is generated). The addition unit 108 adds the decoded prediction error image from the inverse orthogonal transformation unit 107 and the prediction image from the inter-image prediction unit 113 described later, when performing inter-image encoding on the encoding target image. And generates and outputs a decoded image of the image to be encoded (hereinafter referred to as a decoded predicted image). When intra-image encoding is performed on the image to be encoded, the addition unit 108 outputs the decoded specific image from the inverse orthogonal transform unit 107 as it is. The second storage unit 109 uses the decoded predicted image or the decoded specific image output from the addition unit 108, that is, the local decoded image obtained by decoding part of the image to be encoded by the inverse quantization unit 106 and the inverse orthogonal transformation unit 107 , Temporarily stored as a reference image.

補正値算出部110は、符号化対象画像が非特定画像の場合には、第1蓄積部101に格納された符号化対象画像の露出値から、第2蓄積部109に格納された参照画像の露出値を減算して、参照画像の露出補正値を算出する。なお、補正値算出部110は、画像データのヘッダ等の記録されたEXIFデータを参照することにより補正値の減算を行う。露出補正部111は、補正値算出部110により算出された露出補正値を用いて参照画像の露出を補正して、露出補正参照画像を生成し、出力する。この場合、露出補正部111は、参照画像の各画素値に露出補正値に応じた値を乗じることにより露出補正参照画像を生成する。すなわち、露出補正部111は、符号化対象画像の露出値と一致した露出値を有する露出補正参照画像を生成する。なお、符号化対象画像の露出値と実質的に位置する露出値を有する露出補正参照画像を生成するものについても本発明の一態様に含まれる。この場合、後述する符号化に際して、露出値が異なる複数の画像間で生じる明るさの不一致による影響が解消可能な範囲で露出値が補正されればよい。なお、露出補正部111による処理については、詳細を後述して説明する。   When the encoding target image is a non-specific image, the correction value calculating unit 110 calculates the exposure value of the encoding target image stored in the first storage unit 101 based on the reference image stored in the second storage unit 109. The exposure value is subtracted to calculate the exposure correction value of the reference image. The correction value calculation unit 110 subtracts the correction value by referring to the recorded EXIF data such as the header of the image data. The exposure correction unit 111 corrects the exposure of the reference image using the exposure correction value calculated by the correction value calculation unit 110, and generates and outputs an exposure correction reference image. In this case, the exposure correction unit 111 generates an exposure correction reference image by multiplying each pixel value of the reference image by a value corresponding to the exposure correction value. That is, the exposure correction unit 111 generates an exposure correction reference image having an exposure value that matches the exposure value of the image to be encoded. An aspect of the present invention also includes one that generates an exposure correction reference image having an exposure value substantially positioned with the exposure value of the image to be encoded. In this case, at the time of encoding to be described later, the exposure value may be corrected within a range in which the influence of the mismatch of the brightness occurring among a plurality of images having different exposure values can be eliminated. The processing by the exposure correction unit 111 will be described later in detail.

予測制御情報生成部112は、露出補正参照画像を用いて、参照画像に対する符号化対象画像の差異を予測するための、たとえば動きベクトル等の予測情報を生成する。画像間予測部113は、予測制御情報生成部112により生成された予測情報と、露出補正部111により生成された露出補正参照画像とに基づいて、減算部102が符号化対象画像から減算する際に用いる予測画像を出力する。すなわち、画像間予測部113は、符号化対象画像とは露出値が異なる参照画像に基づいて、符号化対象画像と露出値が一致するように補正された予測画像を出力する。   The prediction control information generation unit 112 generates prediction information such as, for example, a motion vector, for predicting a difference between the encoding target image and the reference image, using the exposure correction reference image. When the subtraction unit 102 subtracts the image to be encoded based on the prediction information generated by the prediction control information generation unit 112 and the exposure correction reference image generated by the exposure correction unit 111, the inter-image prediction unit 113 Output the predicted image used for That is, the inter-image prediction unit 113 outputs a predicted image corrected so that the encoding target image and the exposure value match, based on a reference image having an exposure value different from that of the encoding target image.

図2は、露出補正部111の機能を示すブロック図である。なお、以下の説明では、ガンマ補正適用RGB形式の画像を符号化する場合を例としている。露出補正部111は、機能として、RGBガンマ補正逆変換部1111と、RGBレベル補正部1112と、RGBガンマ補正変換部1113とを備える。RGBガンマ補正逆変換部1111は、第2蓄積部109に格納された参照画像のRGB成分に対してガンマ補正逆変換を行い、リニアRGB参照画像を生成する。この場合、RGBガンマ補正逆変換部1111は、たとえばγ=2.2に対応するガンマ補正カーブが適用されている参照画像に対しては、サンプル値(画素値)をγ=1/2.2に対応するガンマ補正カーブを適用することでリニアRGB参照画像を生成する。   FIG. 2 is a block diagram showing the function of the exposure correction unit 111. As shown in FIG. In the following description, the case of encoding an image in the gamma correction application RGB format is taken as an example. The exposure correction unit 111 includes an RGB gamma correction inverse conversion unit 1111, an RGB level correction unit 1112 and an RGB gamma correction conversion unit 1113 as functions. The RGB gamma correction inverse conversion unit 1111 performs gamma correction inverse conversion on the RGB components of the reference image stored in the second storage unit 109 to generate a linear RGB reference image. In this case, for the reference image to which the gamma correction curve corresponding to, for example, γ = 2.2 is applied, the RGB gamma correction inverse conversion unit 1111 sets the sample value (pixel value) to γ = 1 / 2.2. A linear RGB reference image is generated by applying a gamma correction curve corresponding to.

RGBレベル補正部1112は、RGBガンマ補正逆変換部1111により生成されたリニアRGB参照画像の露出値を、上述した補正値算出部110にて算出された露出補正値に基づいて補正し、露出補正リニアRGB参照画像を生成する。この場合、RGBレベル補正部1112は、たとえば露出補正値がnEVであれば、リニアRGB参照画像のサンプル値(画素値)を2−n倍することにより露出補正リニアRGB参照画像を生成する。RGBガンマ補正変換部1113は、RGBレベル補正部1112により生成された露出補正リニアRGB参照画像に対してガンマ変換を施して、露出補正参照画像を生成する。この場合、RGBガンマ補正変換部1113は、たとえばγ=2.2のガンマ補正カーブが適用されている参照画像に対しては、露出補正リニアRGB参照画像のサンプル値(画素値)をγ=2.2に対応するガンマ補正カーブを適用することで露出補正参照画像を生成する。この結果、符号化対象画像がガンマ補正適用RGB形式の場合であっても、符号化対象画像および参照画像の露出値に応じて、画像間符号化に適した露出補正参照画像を生成することが可能となる。 The RGB level correction unit 1112 corrects the exposure value of the linear RGB reference image generated by the RGB gamma correction inverse conversion unit 1111 based on the exposure correction value calculated by the correction value calculation unit 110 described above, and performs exposure correction Generate a linear RGB reference image. In this case, if the exposure correction value is nEV, for example, the RGB level correction unit 1112 generates an exposure correction linear RGB reference image by multiplying the sample value (pixel value) of the linear RGB reference image by 2 to n . The RGB gamma correction conversion unit 1113 performs gamma conversion on the exposure correction linear RGB reference image generated by the RGB level correction unit 1112 to generate an exposure correction reference image. In this case, the RGB gamma correction conversion unit 1113 sets the sample value (pixel value) of the exposure correction linear RGB reference image to γ = 2 for the reference image to which the gamma correction curve of γ = 2.2 is applied, for example. An exposure correction reference image is generated by applying a gamma correction curve corresponding to .2. As a result, even when the encoding target image is in the gamma correction application RGB format, an exposure correction reference image suitable for inter-image encoding can be generated according to the exposure values of the encoding target image and the reference image. It becomes possible.

図1および図3を参照しながら符号化装置1により生成される符号化データについて説明する。図3(a)は、自動露出により露出値EVrefを基準として、±2EVの範囲で1EVずつ露出値を変化させながら、撮影間隔a秒にて連続撮影された画像F1〜F5を模式的に示した例である。図に示すように、画像F3が露出値EVrefにて撮影された画像であり、画像F1が最も明るく白とびを多く含み黒つぶれの少ない画像であり、画像F5が最も暗く黒つぶれを多く含み白とびの少ない画像である。なお、露出値を1EV増加させるためには、たとえば露光時間を1/2倍にしてもよいし、絞り値を21/2倍にしてもよい。また、画像F1〜F5を連続撮影する際の撮影間隔はa秒で一定のものに限定されず、一定の撮影間隔ではないものについても本発明の一態様に含まれる。 The encoded data generated by the encoding device 1 will be described with reference to FIGS. 1 and 3. FIG. 3A schematically shows images F1 to F5 captured continuously at shooting intervals a seconds while changing the exposure value by 1 EV in the range of ± 2 EV with reference to the exposure value EVref by automatic exposure. Example. As shown in the figure, the image F3 is an image taken at the exposure value EVref, the image F1 is the brightest image with many overexposures and less blackouts, and the image F5 has the most dark and blackouts and white It is an image with few jumps. In order to increase the exposure value by 1 EV, for example, the exposure time may be halved , or the aperture value may be halved . Moreover, the imaging | photography interval at the time of image | photographing the images F1-F5 continuously is not limited to a fixed thing by a second, What is not a fixed imaging | photography interval is also contained in 1 aspect of this invention.

本実施の形態では、図3(b)に示すように、画像F1に対して画像内符号化を行い、画像F2〜F5に対して画像間符号化を行うことにより、符号化データI1、P2〜P5が生成される。すなわち、第1蓄積部101に格納された複数の画像F1〜F5のうち、画像F1が他の画像F2〜F5に先行して可変長符号化部105により画像内符号化される。この場合、上述したように、減算部102は特定画像である画像F1をそのまま出力し(図1のa)、直交変換部103、量子化部104および可変長符号化部105により画像内符号化されて符号化データI1として出力される(図1のb)。また、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施された特定画像は、加算部108による処理を施されることなく、第2蓄積部109に復号特定画像F1aとして格納される(図1のc)。   In the present embodiment, as shown in FIG. 3B, encoded data I1 and P2 are obtained by performing intra-image encoding on image F1 and performing inter-image encoding on images F2 to F5. .About.P5 are generated. That is, of the plurality of images F1 to F5 stored in the first accumulation unit 101, the image F1 is intra-image encoded by the variable-length coding unit 105 prior to the other images F2 to F5. In this case, as described above, the subtracting unit 102 outputs the image F1 which is a specific image as it is (a in FIG. 1), and the in-picture coding is performed by the orthogonal transformation unit 103, the quantization unit 104, and the variable length coding unit 105. And output as encoded data I1 (b in FIG. 1). Further, the specific image which has been subjected to the processing by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107 is not subjected to the processing by the addition unit 108. Is stored as the decoded specific image F1a (c in FIG. 1).

図3(b)に示すように、画像F2は画像F1との間で画像間符号化が行われる。この場合、画像F2は、画像F2の露出値と一致するように露出値が補正された画像F1との間で、画像間符号化が行われる。画像F2に対して画像間符号化を行う際には、第1蓄積部101に格納されている画像F2が符号化対象画像、第2蓄積部109に格納されている、画像F1から生成された復号特定画像F1aが参照画像となる。   As shown in FIG. 3B, the image F2 is inter-image encoded with the image F1. In this case, in the image F2, inter-image coding is performed between the image F1 and the image F1 whose exposure value has been corrected to match the exposure value of the image F2. When performing inter-image encoding on the image F2, the image F2 stored in the first storage unit 101 is generated from the image F1 stored in the encoding target image and the second storage unit 109. The decoded specific image F1a is a reference image.

まず、補正値算出部110は、参照画像である復号特定画像F1a、すなわち画像F1の露出値EV1(=EVref−2)と、符号化対象画像である画像F2の露出値EV2(=EVref−1)とを用いて、参照画像の露出補正値ΔEVF1(=EV2−EV1=1)を算出する。露出補正部111は、第2蓄積部109に格納されている参照画像(すなわち復号特定画像F1a)を露出補正値ΔEVF1を用いて補正して、露出補正参照画像F1bを生成する(図1のd)。画像間予測部113は、予測制御情報生成部112により生成された予測情報を用いて、露出補正参照画像F1b上の動きが符号化対象画像である画像F2に適合された予測画像F1cを生成する(図1のe)。 First, the correction value calculation unit 110 outputs the decoded specific image F1a which is the reference image, that is, the exposure value EV1 (= EVref-2) of the image F1 and the exposure value EV2 of the image F2 which is the encoding target image (= EVref-1). The exposure correction value ΔEV F1 (= EV2−EV1 = 1) of the reference image is calculated using The exposure correction unit 111 corrects the reference image (that is, the decoded specific image F1a) stored in the second storage unit 109 using the exposure correction value ΔEV F1 to generate an exposure correction reference image F1b (see FIG. 1). d). The inter-image prediction unit 113 uses the prediction information generated by the prediction control information generation unit 112 to generate a predicted image F1 c whose motion on the exposure correction reference image F1 b is adapted to the image F2 which is the image to be encoded. (E in FIG. 1).

減算部102は、符号化対象画像(すなわち画像F2)から画像間予測部113により生成された予測画像F1cを減算して、予測誤差画像F2aを生成する(図1のf)。すなわち、減算部102は、画像F2の露出値EV2と露出値が適合するように補正された露出補正参照画像F1bから生成された予測画像F1cとの差分に相当する画像を予測誤差画像F2aとして生成する。予測誤差画像F2aは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP2として出力される(図1のg)。また、予測誤差画像F2aは、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施され、復号予測誤差画像F2bとして加算部108に出力される(図1のh)。加算部108は、復号予測誤差画像F2bと、画像間予測部113にて生成された予測画像F1cとを加算して、復号予測画像F2cを生成し、第2蓄積部109に格納する(図1のi)。   The subtraction unit 102 subtracts the predicted image F1c generated by the inter-image prediction unit 113 from the image to be encoded (that is, the image F2) to generate a prediction error image F2a (f in FIG. 1). That is, the subtraction unit 102 generates, as a prediction error image F2a, an image corresponding to the difference between the exposure value EV2 of the image F2 and the predicted image F1c generated from the exposure correction reference image F1b corrected to match the exposure value. Do. The prediction error image F2a is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P2 (g in FIG. 1). Further, the prediction error image F2a is processed by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107, and is output to the addition unit 108 as a decoded prediction error image F2b (see FIG. 1) h). The addition unit 108 adds the decoded prediction error image F2b and the prediction image F1c generated by the inter-image prediction unit 113 to generate a decoded prediction image F2c, and stores the decoded prediction image F2c in the second storage unit 109 (FIG. 1) I).

図3(b)に示すように、画像F3は画像F2との間で画像間符号化が行われる。この場合、画像F3は、画像F3の露出値と一致するように露出値が補正された画像F2との間で、画像間符号化が行われる。画像F3に対して画像間符号化を行う際には、第1蓄積部101内の画像F3が符号化対象画像、第2蓄積部109内の復号予測画像F2cが参照画像となる。補正値算出部110は、復号予測画像F2c、すなわち画像F2の露出値EV2(=EVref−1)と、画像F3の露出値EV3(=EVref)とを用いて、露出補正値ΔEVF2(=EV3−EV2=1)を算出する。露出補正部111は、第2蓄積部109内の復号予測画像F2cを露出補正値ΔEVF2を用いて補正して、露出補正参照画像F2dを生成する(図1のj)。画像間予測部113は、予測情報を用いて、露出補正参照画像F2dから予測画像F2eを生成する(図1のk)。 As shown in FIG. 3B, the image F3 is inter-image encoded with the image F2. In this case, in the image F3, inter-image encoding is performed between the image F2 and the image F2 whose exposure value has been corrected to match the exposure value of the image F3. When inter-image encoding is performed on the image F3, the image F3 in the first storage unit 101 is the image to be encoded, and the decoded predicted image F2c in the second storage unit 109 is the reference image. The correction value calculation unit 110 uses the decoded predicted image F2c, that is, the exposure value EV2 (= EVref-1) of the image F2 and the exposure value EV3 (= EVref) of the image F3 to obtain an exposure correction value ΔEV F2 (= EV3). Calculate EV2 = 1). The exposure correction unit 111 corrects the decoded predicted image F2c in the second storage unit 109 using the exposure correction value ΔEV F2 to generate an exposure correction reference image F2d (j in FIG. 1). The inter-image prediction unit 113 generates a predicted image F2e from the exposure correction reference image F2d using the prediction information (k in FIG. 1).

減算部102は、符号化対象画像(すなわち画像F3)から予測画像F2eを減算して、予測誤差画像F3aを生成する(図1のl)。予測誤差画像F3aは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP3として出力される(図1のm)。また、予測誤差画像F3aは、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施され、復号予測誤差画像F3bとして加算部108に出力される(図1のn)。加算部108は、復号予測誤差画像F3bと予測画像F2eとを加算して復号予測画像F3cを生成し、第2蓄積部109に格納する(図1のo)。   The subtraction unit 102 subtracts the prediction image F2e from the image to be encoded (that is, the image F3) to generate a prediction error image F3a (l in FIG. 1). The prediction error image F3a is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P3 (m in FIG. 1). Further, the prediction error image F3a is processed by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107, and is output to the addition unit 108 as a decoded prediction error image F3b (see FIG. 1 n). The addition unit 108 adds the decoded prediction error image F3b and the prediction image F2e to generate a decoded prediction image F3c, and stores the decoded prediction image F3c in the second storage unit 109 (o in FIG. 1).

以後、上記の処理を繰り返し行うことにより、符号化データP4、P5を生成する。すなわち、図3(b)に示すように、画像F4は、画像F3を参照画像とし、画像F4の露出値と一致するように露出値が補正された画像F3との間で、画像間符号化が行われる。画像F5は、画像F4を参照画像とし、画像F5の露出値と一致するように露出値が補正された画像F4との間で、画像間符号化が行われる。この結果、図3(b)に示すように、画像F2〜F5については、露出値が+1EVだけ補正された直前の画像との間で画像間符号化が行われて、符号化データP2〜P5が出力される。   Thereafter, the above process is repeated to generate the encoded data P4 and P5. That is, as shown in FIG. 3B, the image F4 uses the image F3 as a reference image, and performs inter-image encoding with the image F3 whose exposure value has been corrected to match the exposure value of the image F4. Is done. The image F5 uses the image F4 as a reference image, and inter-image coding is performed between the image F4 and the image F4 whose exposure value has been corrected to match the exposure value of the image F5. As a result, as shown in FIG. 3B, for the images F2 to F5, inter-image coding is performed with the image immediately before the exposure value is corrected by +1 EV, and the coded data P2 to P5 is obtained. Is output.

図4に示すフローチャートを参照しながら、符号化装置1の処理について説明する。図4に示す処理は制御部100でプログラムを実行して行われる。このプログラムは、メモリ(不図示)に格納されており、制御部100により起動され、実行される。
ステップS101では、連続撮影された露出値が互いに異なる複数の画像のうち、特定画像について画像内符号化により符号化データを出力させてステップS102へ進む。ステップS102においては、符号化対象画像の露出値と参照画像の露出値とに基づいて、参照画像の露出補正値を算出させてステップS103へ進む。ステップS103では、ステップS102で算出された露出補正値を用いて参照画像の露出値を補正して露出補正参照画像を生成してステップS104へ進む。
The process of the encoding device 1 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 4 is performed by executing a program in the control unit 100. The program is stored in a memory (not shown), activated by the control unit 100, and executed.
In step S101, the encoded data is output by intra-image encoding for a specific image among a plurality of images whose exposure values are different from each other and the process proceeds to step S102. In step S102, the exposure correction value of the reference image is calculated based on the exposure value of the image to be encoded and the exposure value of the reference image, and the process proceeds to step S103. In step S103, the exposure correction value of the reference image is corrected using the exposure correction value calculated in step S102 to generate an exposure correction reference image, and the process proceeds to step S104.

ステップS104では、符号化対象画像と露出補正参照画像とを用いて予測画像を生成させ、予測画像を用いて符号化対象画像に対して画像間符号化を行わせ、符号化データを生成させてステップS105へ進む。ステップS105では、全ての画像に対して符号化データが生成されたか否かを判定する。全ての画像から符号化データが生成された場合には、ステップS105が肯定判定されて処理を終了する。未処理の画像が存在する場合には、ステップS105が否定判定されてステップS102へ戻る。   In step S104, a prediction image is generated using the coding target image and the exposure correction reference image, and inter-picture coding is performed on the coding target image using the prediction image to generate coded data. The process proceeds to step S105. In step S105, it is determined whether or not encoded data has been generated for all images. When the encoded data is generated from all the images, an affirmative determination is made in step S105, and the process ends. If there is an unprocessed image, the negative determination is made in step S105, and the process returns to step S102.

−−復号装置−−
次に、上述した符号化装置1により出力された符号化データを復号して、画像を出力する復号装置2について説明する。
図5は、本実施の形態による復号装置2の構成を示すブロック図である。復号装置2は、制御部200と、可変長符号復号部201と、逆量子化部202と、逆直交変換部203と、加算部204と、第1蓄積部205と、第2蓄積部206と、露出補正部207と、予測部208とを備える。制御部200はCPUやその周辺回路等から構成されており、不図示の記憶媒体(たとえばフラッシュメモリ等)に予め記憶されている制御プログラムを読み込んで実行することにより、復号装置2の各部を制御する。なお、図示の都合上、制御部200から各部への信号出力を省略して示す。また、図2においては、復号装置2の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。
-Decoding device--
Next, the decoding device 2 that decodes the encoded data output by the above-described encoding device 1 and outputs an image will be described.
FIG. 5 is a block diagram showing a configuration of decoding apparatus 2 according to the present embodiment. Decoding apparatus 2 includes control unit 200, variable length code decoding unit 201, inverse quantization unit 202, inverse orthogonal transformation unit 203, addition unit 204, first accumulation unit 205, and second accumulation unit 206. , An exposure correction unit 207, and a prediction unit 208. The control unit 200 includes a CPU and its peripheral circuits, and controls each unit of the decoding apparatus 2 by reading and executing a control program stored in advance in a storage medium (for example, a flash memory etc.) (not shown). Do. Note that signal output from the control unit 200 to each unit is omitted for convenience of illustration. Also, in FIG. 2, data generated as described later in each configuration of the decoding device 2 is schematically shown together.

可変長符号復号部201は、符号化装置1から出力された、連続撮影された露出値が異なる複数の画像のそれぞれに対応する符号化データを入力し、符号化データのそれぞれに含まれる量子化係数や、動きベクトル等の予測情報、露出補正値等を出力する。逆量子化部202は、可変長符号復号部201から出力された量子化係数を逆量子化して、逆量子化係数を算出する。逆直交変換部203は、逆量子化部202により算出された逆量子化係数を逆直交変換することにより、特定画像に対応する符号化データの復号画像(以後、復号特定画像と呼ぶ)または予測誤差画像に対応する符号化データの復号画像(以後、復号予測誤差画像と呼ぶ)を生成し、出力する。   The variable-length code decoding unit 201 receives the encoded data corresponding to each of a plurality of continuously captured images having different exposure values output from the encoding device 1 and quantizes the encoded data included in each of the encoded data. It outputs coefficients, prediction information such as motion vectors, exposure correction values, and the like. The inverse quantization unit 202 inversely quantizes the quantization coefficient output from the variable-length code decoding unit 201 to calculate an inverse quantization coefficient. The inverse orthogonal transformation unit 203 performs inverse orthogonal transformation on the inverse quantization coefficient calculated by the inverse quantization unit 202 to obtain a decoded image of encoded data corresponding to a specific image (hereinafter referred to as a decoded specific image) or a prediction A decoded image of coded data corresponding to an error image (hereinafter referred to as a decoded prediction error image) is generated and output.

加算部204は、復号対象画像を画像間復号する際には、逆直交変換部203から出力された復号予測誤差画像と、後述する予測部208から出力された予測画像とを加算して、復号対象画像を復号する。復号対象画像を画像内復号する際には、加算部204は逆直交変換部203から出力された復号特定画像をそのまま出力する。第1蓄積部205は、加算部204から出力された復号画像を一時的に格納し、たとえば撮影画像の撮影順序に従って復号画像を出力する。第2蓄積部206は、加算部204によって出力された復号画像を一時的に格納する。第2蓄積部206に格納された復号画像は、以後の復号対象画像を復号する際に参照画像として使用される。   The addition unit 204 adds the decoded prediction error image output from the inverse orthogonal transformation unit 203 and the prediction image output from the prediction unit 208, which will be described later, in the inter-image decoding of the image to be decoded. Decode the target image. When intra-image decoding is performed on the decoding target image, the adding unit 204 outputs the decoded specific image output from the inverse orthogonal transform unit 203 as it is. The first accumulation unit 205 temporarily stores the decoded image output from the adding unit 204, and outputs the decoded image according to, for example, the photographing order of the photographed image. The second accumulation unit 206 temporarily stores the decoded image output by the addition unit 204. The decoded image stored in the second storage unit 206 is used as a reference image when decoding the subsequent decoding target image.

露出補正部207は、可変長符号復号部201から出力された露出補正値に基づいて、図1の露出補正部111と同様の動作で、第2蓄積部206に格納された参照画像の露出値を補正した露出補正参照画像を生成する。予測部208は、可変長符号復号部201から出力された予測情報と、露出補正部207により生成された露出補正参照画像とを用いて、画像間復号を行うための予測画像を生成する。   The exposure correction unit 207 performs the same operation as the exposure correction unit 111 in FIG. 1 on the basis of the exposure correction value output from the variable-length code decoding unit 201, and the exposure value of the reference image stored in the second storage unit 206. To generate an exposure correction reference image corrected for. The prediction unit 208 uses the prediction information output from the variable-length code decoding unit 201 and the exposure correction reference image generated by the exposure correction unit 207 to generate a prediction image for inter-image decoding.

図5を参照しながら復号装置2により復号され、生成される復号画像について説明する。なお、図5においては、上述した符号化装置1により出力された符号化データI1、P2〜P5が順次入力される場合を例として示す。本実施の形態では、符号化データI1に対して画像内復号を行い、符号化データP2〜P5に対して画像間復号を行うことにより、復号画像FD1〜FD5が生成される。上述したように符号化データI1は、特定画像が符号化装置1により符号化されているので、符号化データI1は逆量子化部202および逆直交変換部203により復号され、復号特定画像FD1として加算部204による処理が施されず、第1蓄積部205に格納される(図5のa)。さらに、復号特定画像FD1は第2蓄積部206にも格納される(図5のb)。   The decoded image which is decoded and generated by the decoding device 2 will be described with reference to FIG. In addition, in FIG. 5, the case where the coding data I1 and P2-P5 which were output by the encoding apparatus 1 mentioned above are sequentially input is shown as an example. In the present embodiment, the decoded images FD1 to FD5 are generated by performing intra-image decoding on the coded data I1 and performing inter-image decoding on the coded data P2 to P5. As described above, since the specific image of the encoded data I1 is encoded by the encoding apparatus 1, the encoded data I1 is decoded by the inverse quantization unit 202 and the inverse orthogonal transformation unit 203, and is decoded as the decoded specific image FD1. The processing by the adding unit 204 is not performed, and is stored in the first storage unit 205 (a in FIG. 5). Furthermore, the decoded specific image FD1 is also stored in the second storage unit 206 (b in FIG. 5).

符号化データP2に対して画像間復号を行う際には、復号対象画像である符号化データP2に対して、第2蓄積部206に格納されている復号特定画像FD1を参照画像として復号が行われる。まず、露出補正部207は、可変長復号部201により復号された露出補正値、すなわち符号化装置1により符号化データP2が生成される際に用いられた露出補正値ΔEVF1に基づいて、参照画像である復号特定画像FD1の露出値を補正して、露出補正参照画像FD1Aを生成する(図5のc)。予測部208は、可変長符号復号部201から出力された予測情報、すなわち符号化装置1により符号化データP2が生成される際に用いられた予測情報を用いて、露出補正参照画像FD1Aから予測画像FD1Bを生成する(図5のd)。 When performing inter-picture decoding on the encoded data P2, the decoded specific image FD1 stored in the second storage unit 206 is decoded using the decoded specific image FD1 stored in the second storage unit 206 as a reference image. It will be. First, the exposure correction unit 207 refers to the exposure correction value decoded by the variable-length decoding unit 201, that is, based on the exposure correction value ΔEV F1 used when the coding data P2 is generated by the coding device 1. The exposure correction reference image FD1A is generated by correcting the exposure value of the decoded specific image FD1 which is an image (c in FIG. 5). The prediction unit 208 performs prediction from the exposure correction reference image FD1A using the prediction information output from the variable-length code decoding unit 201, that is, the prediction information used when the coding data P2 is generated by the coding device 1. An image FD1B is generated (d in FIG. 5).

上述したように符号化データP2は、符号化装置1によって予測誤差画像F2a(図1参照)が符号化されることにより生成されている。したがって、符号化データP2は、可変長復号部201、逆量子化部202および逆直交変換部203の処理により、予測誤差画像F2aが復号された復号予測誤差画像FD2aが生成されて、加算部204に入力される(図5のe)。加算部204は、復号予測誤差画像FD2aと、露出補正部207により生成された予測画像FD1Bとを加算して、復号画像FD2を生成する。生成された復号画像FD2は、第1蓄積部205に格納されるとともに(図5のf)、第2蓄積部206に格納される(図5のg)。   As described above, the encoded data P2 is generated by encoding the prediction error image F2a (see FIG. 1) by the encoding device 1. Therefore, the encoded data P2 is processed by the variable-length decoding unit 201, the inverse quantization unit 202, and the inverse orthogonal transformation unit 203 to generate a decoded prediction error image FD2a in which the prediction error image F2a is decoded. Is input (e in FIG. 5). The addition unit 204 adds the decoded predicted error image FD2a and the predicted image FD1B generated by the exposure correction unit 207 to generate a decoded image FD2. The generated decoded image FD2 is stored in the first storage unit 205 (f in FIG. 5) and is stored in the second storage unit 206 (g in FIG. 5).

符号化データP3を復号対象画像として画像間復号を行う際には、第2蓄積部206に格納されている復号画像FD2が参照画像となる。露出補正部207は、可変長復号部201から出力された露出補正値ΔEVF2を用いて復号画像FD2の露出値を補正して、露出補正参照画像FD2Aを生成する(図5のh)。予測部208は、可変長符号復号部201から出力された符号化データP3に関する予測情報を用いて、露出補正参照画像FD2Aから予測画像FD2Bを生成する(図5のi)。 When performing inter-image decoding with the encoded data P3 as the image to be decoded, the decoded image FD2 stored in the second storage unit 206 is a reference image. The exposure correction unit 207 corrects the exposure value of the decoded image FD2 using the exposure correction value ΔEV F2 output from the variable length decoding unit 201, and generates an exposure correction reference image FD2A (h in FIG. 5). The prediction unit 208 generates a prediction image FD2B from the exposure correction reference image FD2A using the prediction information on the encoded data P3 output from the variable-length code decoding unit 201 (i in FIG. 5).

上述したように符号化データP3は、符号化装置1によって予測誤差画像F3a(図1参照)が符号化されて生成されている。このため、符号化データP3は可変長復号部201、逆量子化部202および逆直交変換部203の処理により、予測誤差画像F3aが復号された復号予測誤差画像FD3aが出力されて、加算部204に入力される(図5のj)。加算部204は、復号予測誤差画像FD3aと、露出補正部207により生成された予測画像FD2Bとを加算して、復号画像FD3を生成する。生成された復号画像FD3は、第1蓄積部205に格納されるとともに(図5のk)、第2蓄積部206に格納される(図5のl)。以後、上記の処理を繰り返し行うことにより、復号画像FD3を用いて復号画像FD4が生成され、復号画像FD4を用いてFD5が生成される。   As described above, the encoded data P3 is generated by encoding the prediction error image F3a (see FIG. 1) by the encoding device 1. Therefore, the encoded data P3 is processed by the variable length decoding unit 201, the inverse quantization unit 202, and the inverse orthogonal transformation unit 203 to output the decoded prediction error image FD3a obtained by decoding the prediction error image F3a, and the addition unit 204. Is input to (j in FIG. 5). The addition unit 204 adds the decoded prediction error image FD3a and the predicted image FD2B generated by the exposure correction unit 207 to generate a decoded image FD3. The generated decoded image FD3 is stored in the first storage unit 205 (k in FIG. 5) and is stored in the second storage unit 206 (l in FIG. 5). Thereafter, the above process is repeatedly performed to generate the decoded image FD4 using the decoded image FD3 and to generate FD5 using the decoded image FD4.

図6に示すフローチャートを参照しながら、復号装置2の処理について説明する。図6に示す処理は制御部200でプログラムを実行して行われる。このプログラムは、メモリ(不図示)に格納されており、制御部200により起動され、実行される。
ステップS201においては、複数の符号化データのうち特定画像に対応する符号化データを画像内復号により復号させてステップS202へ進む。ステップS202では、復号対象画像の補正値と、参照画像の補正値とを用いて、参照画像の露出補正値を算出させてステップS203へ進む。
The process of the decoding device 2 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 6 is performed by executing a program in the control unit 200. The program is stored in a memory (not shown), activated by the control unit 200, and executed.
In step S201, the encoded data corresponding to the specific image among the plurality of encoded data is decoded by intra-image decoding, and the process proceeds to step S202. In step S202, the exposure correction value of the reference image is calculated using the correction value of the decoding target image and the correction value of the reference image, and the process proceeds to step S203.

ステップS203においては、算出された露出補正値を用いて参照画像の露出値を補正して露出補正参照画像を生成させてステップS204へ進む。ステップS204では、復号対象画像を、露出補正参照画像を用いて画像間復号を行わせることにより復号画像を生成させてステップS205へ進む。ステップS205においては、全ての符号化データに対して復号画像が生成されたか否かを判定する。全ての符号化データから復号画像が生成された場合には、ステップS205が肯定判定されて処理を終了する。未処理の符号化データが存在する場合には、ステップS205が否定判定されてステップS202へ戻る。   In step S203, the exposure value of the reference image is corrected using the calculated exposure correction value to generate an exposure correction reference image, and the process proceeds to step S204. In step S204, the decoding target image is subjected to inter-image decoding using the exposure correction reference image to generate a decoded image, and the process proceeds to step S205. In step S205, it is determined whether a decoded image has been generated for all of the encoded data. When a decoded image is generated from all the encoded data, an affirmative determination is made in step S205, and the process ends. If there is unprocessed encoded data, the determination in step S205 is negative, and the process returns to step S202.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)符号化装置1は、連続撮影により露出値が異なる複数の符号化対象画像のうちの特定画像に対して画像内符号化を行う直交変換部103および量子化部104と、符号化対象画像と参照画像との間で画像間符号化を行う減算部102、直交変換部103および量子化部104と、参照画像の露出値を補正して符号化対象画像の露出値と一致させる露出補正部111とを備える。露出補正部111は、画像間符号化に先だって、参照画像の露出値を補正する。そして、画像間符号化は、特定画像とは異なる符号化対象画像に対して、特定画像を参照画像として用いて、または画像間符号化された画像の局部復号画像を参照画像として用いて行われる。したがって、露出値が異なる複数の画像間で生じる明るさの不一致を解消して符号化を行うので、符号化により生じるデータ量を減少させ効率よく画像間符号化を行うことができる。
According to the first embodiment described above, the following effects can be obtained.
(1) The encoding device 1 performs the intra-image encoding on a specific image among a plurality of encoding target images having different exposure values due to continuous shooting, an encoding target, and an encoding target A subtraction unit 102 that performs inter-image coding between an image and a reference image, an orthogonal transformation unit 103, and a quantization unit 104, and an exposure correction that corrects the exposure value of the reference image to match the exposure value of the image to be encoded And a unit 111. The exposure correction unit 111 corrects the exposure value of the reference image prior to inter-image coding. Then, inter-image encoding is performed on an image to be encoded different from the specific image, using the specific image as a reference image, or using a locally decoded image of the inter-image coded image as a reference image. . Therefore, since the encoding is performed while eliminating the inconsistencies in brightness occurring among a plurality of images having different exposure values, the amount of data resulting from the encoding can be reduced and the inter-image encoding can be performed efficiently.

(2)可変長符号化部105は、参照画像の露出補正値に関する情報を符号化する。したがって、復号装置2が復号を行う際に、参照画像の露出補正値に関する情報を参照することによって、露出値が正しく復号された復号画像を生成することができる。 (2) The variable-length coding unit 105 codes information on the exposure correction value of the reference image. Therefore, when the decoding apparatus 2 performs decoding, a decoded image in which the exposure value is correctly decoded can be generated by referring to the information on the exposure correction value of the reference image.

(3)復号装置2は、連続撮影により露出値が異なる複数の画像のそれぞれに対応する複数の符号化データのうち、特定画像が符号化された符号化データに対して画像内復号を行う逆量子化部202および逆直交変換部203と、符号化データと参照画像との間で画像間復号を行う逆量子化部202、逆直交変換部203および加算部204と、参照画像の露出値を補正して符号化データの露出値と一致させる露出補正部207とを備える。露出補正部207は、画像間復号に先だって、参照画像の露出値を補正する。そして、画像間復号は、特定画像が符号化された符号化データとは異なる符号化データに対して、特定画像が復号された特定復号画像を参照画像として用いて、または画像間復号により復号された画像を参照画像として用いて行われる。したがって、露出値が補正されて符号化された符号化データを参照画像とする場合であっても、復号画像の露出値を正しく再現することができる。 (3) The decoding device 2 performs in-image decoding on encoded data obtained by encoding a specific image out of a plurality of encoded data corresponding to each of a plurality of images having different exposure values due to continuous imaging The quantization unit 202 and the inverse orthogonal transformation unit 203, the inverse quantization unit 202 that performs inter-picture decoding between the encoded data and the reference image, the inverse orthogonal transformation unit 203 and the addition unit 204, the exposure value of the reference image And an exposure correction unit (207) for correcting and matching the exposure value of the encoded data. The exposure correction unit 207 corrects the exposure value of the reference image prior to the inter-image decoding. Then, in the inter-picture decoding, the encoded data different from the encoded data in which the specific image is encoded is decoded using the specific decoded image obtained by decoding the specific image as a reference image, or The image is used as a reference image. Therefore, even in the case where encoded data in which the exposure value is corrected and encoded is used as a reference image, the exposure value of the decoded image can be correctly reproduced.

上述した実施の形態においては、露出補正部111は、ガンマ補正適用RGB形式の参照画像を符号化する場合を一例として説明したが、他の形式の参照画像を符号化する場合についても本発明の一態様に含まれる。
図7は、ガンマ補正適用YUV形式の参照画像を補正する場合における露出補正部111の機能を示すブロック図である。露出補正部111は、YUV/RGB変換部1114と、RGB露出補正部1115と、RGB/YUV変換部1116とを機能として備える。YUV/RGB変換部1114は、第2蓄積部109から入力した参照画像のYUV成分をRGB成分に変換して、RGB形式の参照画像を生成する。
In the above-described embodiment, the exposure correction unit 111 has been described by way of example in which the reference image in the gamma correction application RGB format is encoded. However, the present invention is not limited to the case in which reference images in other formats are encoded. Included in one aspect.
FIG. 7 is a block diagram showing the function of the exposure correction unit 111 in the case of correcting a reference image in the gamma correction applied YUV format. The exposure correction unit 111 has a YUV / RGB conversion unit 1114, an RGB exposure correction unit 1115, and an RGB / YUV conversion unit 1116 as functions. The YUV / RGB conversion unit 1114 converts the YUV component of the reference image input from the second storage unit 109 into an RGB component to generate a reference image in RGB format.

RGB露出補正部1115は、図2に示す露出補正部111が有する機能である、RGBガンマ補正逆変換部1111とRGBレベル補正部1112とRGBガンマ補正変換部1113とを有する。RGB露出補正部1115は、YUV/RGB変換部1114から入力したRGB形式の参照画像に対して、図2を用いて説明した処理と同様の処理を行うことにより、RGB形式の露出補正参照画像を生成する。RGB/YUV変換部1116は、RGB露出補正部1115により生成されたRGB形式の露出補正参照画像のRGB成分をYUV成分に変換して、YUV形式の参照画像を生成する。この結果、符号化対象画像がガンマ補正適用YUV形式の場合であっても、符号化対象画像および参照画像の露出値に応じて、画像間符号化に適した露出補正参照画像を生成することが可能となる。   The RGB exposure correction unit 1115 has an RGB gamma correction inverse conversion unit 1111, an RGB level correction unit 1112 and an RGB gamma correction conversion unit 1113, which are functions of the exposure correction unit 111 shown in FIG. The RGB exposure correction unit 1115 performs processing similar to that described with reference to FIG. 2 on the reference image in RGB format input from the YUV / RGB conversion unit 1114 to obtain an exposure correction reference image in RGB format. Generate The RGB / YUV conversion unit 1116 converts the RGB component of the exposure correction reference image of RGB format generated by the RGB exposure correction unit 1115 into a YUV component to generate a reference image of YUV format. As a result, even when the encoding target image is in the gamma correction applied YUV format, an exposure correction reference image suitable for inter-image encoding can be generated according to the exposure values of the encoding target image and the reference image. It becomes possible.

さらに、露出補正部111がガンマ補正適用YUV形式の参照画像の輝度成分のみに補正を行う場合についても本発明の一態様に含まれる。
図8は、ガンマ補正適用YUV形式の参照画像の輝度成分のみを補正する場合における露出補正部111の機能を示すブロック図である。露出補正部111は、輝度ガンマ補正逆変換部1117と、輝度レベル補正部1118と、輝度ガンマ補正変換部1119とを機能として備える。輝度ガンマ補正逆変換部1117は、第2蓄積部109に格納された参照画像の輝度成分についてガンマ補正逆変換して、輝度成分のみがリニアに変換された参照画像を生成する。この場合、輝度ガンマ補正逆変換部1117は、たとえばγ=2.2に対応するガンマ補正カーブが適用されている参照画像に対しては、輝度成分のサンプル値(画素値)をγ=1/2.2に対応するガンマ補正カーブを適用することで輝度成分のみがリニアに変換された参照画像を生成する。
Furthermore, the case where the exposure correction unit 111 corrects only the luminance component of the reference image of the gamma correction applied YUV format is also included in an aspect of the present invention.
FIG. 8 is a block diagram showing the function of the exposure correction unit 111 in the case of correcting only the luminance component of the reference image of the gamma correction applied YUV format. The exposure correction unit 111 has a luminance gamma correction inverse conversion unit 1117, a luminance level correction unit 1118, and a luminance gamma correction conversion unit 1119 as functions. The luminance gamma correction inverse conversion unit 1117 performs gamma correction inverse conversion on the luminance component of the reference image stored in the second storage unit 109, and generates a reference image in which only the luminance component is linearly converted. In this case, for the reference image to which the gamma correction curve corresponding to, for example, γ = 2.2 is applied, the luminance gamma correction inverse conversion unit 1117 converts the sample value (pixel value) of the luminance component to γ = 1/1. By applying a gamma correction curve corresponding to 2.2, a reference image in which only the luminance component is linearly converted is generated.

輝度レベル補正部1118は、輝度ガンマ補正逆変換部1117により生成された輝度成分のみがリニアな参照画像に対して、上述した補正値算出部110にて算出された露出補正値に基づいて輝度成分のみ補正し、輝度成分のみが補正された露出補正リニア参照画像を生成する。この場合、輝度ベル補正部1118は、たとえば露出補正値がnEVであれば、輝度成分のみがリニアな参照画像の輝度成分のサンプル値(画素値)を2-n倍することにより、輝度成分のみが補正された露出補正リニア参照画像を生成する。輝度ガンマ補正変換部1119は、輝度レベル補正部1118により生成された輝度成分のみが補正された露出補正リニア参照画像に対してガンマ補正変換を施して、露出補正参照画像を生成する。この場合、輝度ガンマ補正変換部1119は、たとえばγ=2.2のガンマカーブが適用されている参照画像に対しては、輝度成分のみが補正された露出補正リニア参照画像の輝度成分のサンプル値(画素値)をγ=2.2に対応するガンマ補正カーブを適用することで露出補正参照画像を生成する。この結果、符号化対象画像がガンマ補正適用YUV形式の場合であっても、符号化対象画像および参照画像の露出値に応じて、画像間符号化に適した露出補正参照画像を生成することが可能となるとともに、図7に示す構成と比べて、RGB形式とYUV形式との間で変換を行う際の演算を削減して、処理負荷を低減させることができる。 The luminance level correction unit 1118 is a luminance component based on the exposure correction value calculated by the correction value calculation unit 110 described above for a reference image in which only the luminance component generated by the luminance gamma correction inverse conversion unit 1117 is linear. Only the luminance component is corrected to generate an exposure-corrected linear reference image. In this case, the luminance level correction unit 1118, for example, if the exposure correction value is NEV, by multiplying 2 -n sample values (pixel values) of the luminance component of only the luminance component is linear reference image, only the luminance component To generate an exposure-compensated linear reference image. The luminance gamma correction conversion unit 1119 performs gamma correction conversion on the exposure correction linear reference image in which only the luminance component generated by the luminance level correction unit 1118 is corrected to generate an exposure correction reference image. In this case, for the reference image to which a gamma curve of, for example, γ = 2.2 is applied, the luminance gamma correction conversion unit 1119 samples values of luminance components of the exposure-corrected linear reference image in which only the luminance component is corrected. An exposure correction reference image is generated by applying a gamma correction curve corresponding to (pixel value) γ = 2.2. As a result, even when the encoding target image is in the gamma correction applied YUV format, an exposure correction reference image suitable for inter-image encoding can be generated according to the exposure values of the encoding target image and the reference image. As compared with the configuration shown in FIG. 7, the processing load can be reduced by reducing the calculation when converting between the RGB format and the YUV format.

−第2の実施の形態−
本発明の第2の実施の形態による符号化装置について説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、符号化の際の参照画像を直前に符号化された画像を常に用いるものではない点が第1の実施の形態とは異なる。
-Second embodiment-
A coding apparatus according to a second embodiment of the present invention will be described. In the following description, the same components as in the first embodiment will be assigned the same reference numerals and differences will be mainly described. The points that are not particularly described are the same as in the first embodiment. The present embodiment is different from the first embodiment in that the image encoded immediately before the reference image in encoding is not always used.

図9および図10を参照しながら符号化装置1により生成される符号化データについて説明する。図9(a)は、図3(a)と同様に、自動露出により露出値EVrefを基準として、±2EVの範囲で1EVずつ露出値を変化させながら、撮影間隔a秒にて連続撮影された画像F1〜F5を模式的に示した例である。図9(b)は画像F1〜F5を符号化することにより生成される符号化データを模式的に示した例である。符号化データI3は、画像F3を特定画像として画像内符号化することにより生成される。符号化データP2、P4は、画像F3を参照画像としてそれぞれ画像間符号化される。符号化データP1、P5は、画像F2、F4との間でそれぞれ画像間符号化することにより生成される。   The encoded data generated by the encoding device 1 will be described with reference to FIGS. 9 and 10. In FIG. 9 (a), as in FIG. 3 (a), continuous exposure was performed at an imaging interval of a second while changing the exposure value by 1 EV in the range of ± 2 EV based on the exposure value EVref by automatic exposure. It is the example which showed the images F1-F5 typically. FIG. 9B is an example schematically showing encoded data generated by encoding the images F1 to F5. The encoded data I3 is generated by intra-image encoding the image F3 as a specific image. The encoded data P2 and P4 are inter-image encoded using the image F3 as a reference image. The encoded data P1 and P5 are generated by inter-image encoding between the images F2 and F4, respectively.

図10は、本実施の形態による符号化装置1の要部構成と、符号化の際に生成される各種の画像との関係を模式的に示す図である。なお、本実施の形態による符号化装置1の要部構成は、第1の実施の形態による符号化装置1の要部構成と同一である。また、図10においても、符号化装置1の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。   FIG. 10 is a diagram schematically showing the relationship between the main configuration of the coding apparatus 1 according to the present embodiment and various images generated at the time of coding. The main part configuration of the encoding device 1 according to the present embodiment is the same as the main portion configuration of the encoding device 1 according to the first embodiment. Also in FIG. 10, data generated as described later in each configuration of the encoding device 1 are schematically shown together.

本実施の形態においては、特定画像である画像F3の画像内符号化が他の画像F1、F2、F4、F5の画像間符号化に先行して行われる。この場合、第1蓄積部101に格納された画像F1〜F5の中から、減算部102は画像F3をそのまま出力し(図10のa)、直交変換部103、量子化部104および可変長符号化部105により画像内符号化されて符号化データI3が出力される(図10のb)。また、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施された特定画像は、復号特定画像F3aとして加算部108による処理を施されることなく、第2蓄積部109に格納される(図10のc)。   In the present embodiment, intra-image encoding of an image F3 which is a specific image is performed prior to inter-image encoding of other images F1, F2, F4, and F5. In this case, the subtraction unit 102 outputs the image F3 as it is from the images F1 to F5 stored in the first accumulation unit 101 (a in FIG. 10), and the orthogonal transformation unit 103, the quantization unit 104, and the variable length code The intra-image encoding is performed by the encoding unit 105 and the encoded data I3 is output (b of FIG. 10). Further, the specific image subjected to the processing by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107 is not subjected to the processing by the addition unit 108 as the decoded specific image F3a. It is stored in the second storage unit 109 (c in FIG. 10).

図9(b)に示すように、画像F2は、画像F3を参照画像として画像間符号化が行われる。この場合、画像F2は、画像F2の露出値と一致するように露出値が補正された画像F3との間で、画像間符号化が行われる。画像F2に対して画像間符号化を行う際には、第1蓄積部101内の画像F2が符号化対象画像、第2蓄積部109内の復号特定画像F3aが参照画像となる。まず、補正値算出部110は、復号特定画像F3a、すなわち画像F3の露出値EV3(=EVref)と、画像F2の露出値EV2(=EVref−1)とを用いて、露出補正値ΔEVF3(=EV2−EV3=−1)を算出する。露出補正部111は、復号特定画像F3aの露出値を、補正値算出部110により算出された露出補正値ΔEVF3を用いて補正して露出補正参照画像F3bを生成する(図10のd)。画像間予測部113は、予測制御情報生成部112により生成された予測情報を用いて、露出補正参照画像F3b上の動きを符号化対象画像である画像F2に適合させた予測画像F3cを生成する(図10のe)。 As shown in FIG. 9B, the image F2 is inter-image encoded using the image F3 as a reference image. In this case, in the image F2, inter-image coding is performed between the image F3 and the image F3 whose exposure value has been corrected so as to match the exposure value of the image F2. When performing inter-image encoding on the image F2, the image F2 in the first storage unit 101 is the image to be encoded, and the decoded specific image F3a in the second storage unit 109 is the reference image. First, the correction value calculation unit 110 uses the decoded specific image F3a, that is, the exposure value EV3 (= EVref) of the image F3 and the exposure value EV2 (= EVref-1) of the image F2 to obtain the exposure correction value ΔEV F3 ( = EV2-EV3 = -1) is calculated. The exposure correction unit 111 corrects the exposure value of the decoded specific image F3a using the exposure correction value ΔEV F3 calculated by the correction value calculation unit 110 to generate an exposure correction reference image F3b (d in FIG. 10). The inter-image prediction unit 113 uses the prediction information generated by the prediction control information generation unit 112 to generate a predicted image F3c in which the motion on the exposure correction reference image F3b is adapted to the image F2 that is the image to be encoded. (E in FIG. 10).

減算部102は、符号化対象画像(すなわち画像F2)から画像間予測部113により生成された予測画像F3cを減算して、予測誤差画像F2aを生成する(図10のf)。予測誤差画像F2aは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP2として出力される(図10のg)。また、予測誤差画像F2aは、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施され、復号予測誤差画像F2bとして加算部108に出力される(図10のh)。加算部108は、復号予測誤差画像F2bと、予測画像F3cとを加算して復号予測画像F2cを生成し、第2蓄積部109に格納する(図10のi)。この場合、第2蓄積部109に既に格納されている復号特定画像F3aは、そのまま格納され続ける。なお、復号特定画像F3aを第2蓄積部109から削除する場合についても本発明の一態様に含まれる。   The subtraction unit 102 subtracts the predicted image F3c generated by the inter-image prediction unit 113 from the image to be encoded (that is, the image F2) to generate a prediction error image F2a (f in FIG. 10). The prediction error image F2a is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P2 (g in FIG. 10). Further, the prediction error image F2a is processed by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107, and is output to the addition unit 108 as a decoded prediction error image F2b (see FIG. 10 h). The addition unit 108 adds the decoded prediction error image F2b and the prediction image F3c to generate a decoded prediction image F2c, and stores the decoded prediction image F2c in the second storage unit 109 (i in FIG. 10). In this case, the decoded specific image F3a already stored in the second storage unit 109 continues to be stored as it is. The case of deleting the decoded specific image F3a from the second storage unit 109 is also included in an aspect of the present invention.

図9(b)に示すように、画像F1は画像F2との間で画像間符号化が行われる。この場合、画像F1は、画像F1の露出値と一致するように露出値が補正された画像F2との間で画像間符号化が行われる。画像F1に対して画像間符号化を行う際には、第1蓄積部101内の画像F1が符号化対象画像、第2蓄積部109内の復号予測画像F2cが参照画像となる。補正値算出部110は、復号予測誤差画像F2c、すなわち画像F2の露出値EV2(=EVref−1)と、画像F1の露出値EV1(=EVref−2)とを用いて、露出補正値ΔEVF2(=EV1−EV2=−1)を算出する。露出補正部111は、復号予測画像F2cの露出値を、露出補正値ΔEVF1を用いて補正して露出補正参照画像F2dを生成する(図10のj)。画像間予測部113は、予測制御情報生成部112により生成された予測情報を用いて、露出補正参照画像F2d上の動きを画像F1に適合させた予測画像F2eを生成する(図10のk)。減算部102は、符号化対象画像(すなわち画像F1)から予測画像F2eを減算して、予測誤差画像F1aを生成する(図10のl)。予測誤差画像F1aは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP1として出力される(図10のm)。 As shown in FIG. 9B, the image F1 is inter-image encoded with the image F2. In this case, the image F1 is inter-image encoded with the image F2 whose exposure value has been corrected to match the exposure value of the image F1. When inter-image encoding is performed on the image F1, the image F1 in the first accumulation unit 101 is the image to be encoded, and the decoded predicted image F2c in the second accumulation unit 109 is the reference image. The correction value calculation unit 110 uses the decoded prediction error image F2c, that is, the exposure value EV2 (= EVref-1) of the image F2 and the exposure value EV1 (= EVref-2) of the image F1 to obtain an exposure correction value ΔEV F2 Calculate (= EV1−EV2 = −1). The exposure correction unit 111 corrects the exposure value of the decoded predicted image F2c using the exposure correction value ΔEV F1 to generate an exposure correction reference image F2d (j in FIG. 10). The inter-image prediction unit 113 uses the prediction information generated by the prediction control information generation unit 112 to generate a predicted image F2e in which the motion on the exposure correction reference image F2d is adapted to the image F1 (k in FIG. 10). . The subtraction unit 102 subtracts the prediction image F2e from the image to be encoded (that is, the image F1) to generate a prediction error image F1a (l in FIG. 10). The prediction error image F1a is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105 and output as encoded data P1 (m in FIG. 10).

図9(b)に示すように、画像F4は画像F3との間で画像間符号化が行われる。この場合、画像F4は、画像F4の露出値と一致する露出値となるように補正された画像F3との間で、画像間符号化が行われる。画像F4に対して画像間符号化を行う際には、第1蓄積部101内の画像F4が符号化対象画像、第2蓄積部109内の復号特定画像F3aが参照画像となる。なお、復号予測誤差画像F2cが第2蓄積部109に格納される時点で復号特定画像F3aが削除された場合には、画像F3に対して画像内符号化を行った場合と同様の処理を行って復号特定画像F3aを再度生成して、第2蓄積部109に格納すればよい。   As shown in FIG. 9B, the image F4 is inter-image encoded with the image F3. In this case, inter-image coding is performed on the image F4 with the image F3 corrected to have an exposure value that matches the exposure value of the image F4. When performing inter-image encoding on the image F4, the image F4 in the first storage unit 101 is the image to be encoded, and the decoded specific image F3a in the second storage unit 109 is the reference image. If decoded specific image F3a is deleted at the time when decoded predicted error image F2c is stored in second storage unit 109, the same processing as in the case of performing intra-image coding on image F3 is performed. The decoded specific image F3a may be generated again and stored in the second storage unit 109.

画像F4に対しては、画像F2に対して画像間符号化を行った場合と同様にして、参照画像(すなわち画像F3)との間で画像間符号化を行う。この場合、補正値算出部110は、復号特定画像F3aの露出値EV3(=EVref)と、画像F4の露出値EV4(=EVref+1)とを用いて、復号特定画像F3aの露出補正値ΔEVF3(=EV4−EV3=1)を算出する。以後、画像F2に対して画像F3を参照画像として画像間符号化を行った場合と同様の処理を行うことにより、符号化データP4を生成して出力するとともに、第2蓄積部109に格納する。 The image F4 is inter-image encoded with the reference image (that is, the image F3) in the same manner as in the case where the image F2 is inter-image encoded. In this case, the correction value calculation unit 110 uses the exposure value EV3 (= EVref) of the decoded specific image F3a and the exposure value EV4 (= EVref + 1) of the image F4 to obtain the exposure correction value ΔEV F3 of the decoded specific image F3a. = EV4-EV3 = 1) is calculated. Thereafter, the encoded data P4 is generated and output by performing the same processing as in the case of performing the inter-image encoding on the image F2 using the image F3 as a reference image, and stores the data in the second accumulation unit 109. .

画像F5に対しては、画像F1に対して画像間符号化を行った場合と同様にして、参照画像である画像F4との間で画像間符号化を行う。補正値算出部110は、画像F4の露出値EV4(=EVref+1)と、画像F5の露出値EV5(=EVref+2)とを用いて、露出補正値ΔEVF4(=EV5−EV4=1)を算出する。以後、画像F1に対して画像F2を参照画像として画像間符号化を行った場合と同様の処理を行うことにより、符号化データP5を生成して出力する。 The image F5 is inter-image encoded with the image F4, which is a reference image, as in the case of performing the inter-image encoding on the image F1. Correction value calculation unit 110 calculates exposure correction value ΔEV F4 (= EV5−EV4 = 1) using exposure value EV4 (= EVref + 1) of image F4 and exposure value EV5 (= EVref + 2) of image F5. . Thereafter, the same processing as in the case where inter-image encoding is performed on the image F1 using the image F2 as a reference image is performed to generate and output encoded data P5.

上述した第2の実施の形態による符号化装置によれば、第1の実施の形態により得られた作用効果と同様の作用効果が得られる。
なお、第2の実施の形態による符号化装置1により生成された符号化データを復号する場合であっても、復号装置2は第1の実施の形態の場合と同様の処理を行うことにより復号画像を生成することができる。
According to the coding apparatus according to the second embodiment described above, the same effects as the effects obtained by the first embodiment can be obtained.
Even in the case of decoding the encoded data generated by the encoding device 1 according to the second embodiment, the decoding device 2 performs the same processing as in the case of the first embodiment. Images can be generated.

−第3の実施の形態−
本発明の第3の実施の形態による符号化装置について説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、特定画像のみを符号化の際の参照画像として用いる点が第1の実施の形態とは異なる。
-Third embodiment-
A coding apparatus according to a third embodiment of the present invention will be described. In the following description, the same components as in the first embodiment will be assigned the same reference numerals and differences will be mainly described. The points that are not particularly described are the same as in the first embodiment. The present embodiment differs from the first embodiment in that only a specific image is used as a reference image for encoding.

図11および図12を参照しながら符号化装置1により生成される符号化データについて説明する。図11(a)は、図3(a)と同様に、自動露出により露出値EVrefを基準として、±2EVの範囲で1EVずつ露出値を変化させながら、撮影間隔a秒にて連続撮影された画像F1〜F5を模式的に示した例である。図11(b)は画像F1〜F5を符号化することにより生成される符号化データを模式的に示した例である。符号化データI3は、特定画像である画像F3を画像内符号化することにより生成される。符号化データP1、P2、P4、P5は、画像F3を参照画像として画像F1、F2、F4、F5をそれぞれ画像間符号化することにより生成される。   The encoded data generated by the encoding device 1 will be described with reference to FIGS. 11 and 12. In FIG. 11 (a), as in FIG. 3 (a), continuous exposure was performed at an imaging interval of a second while changing the exposure value by 1 EV in the range of ± 2 EV based on the exposure value EVref by automatic exposure. It is the example which showed the images F1-F5 typically. FIG. 11 (b) is an example schematically showing encoded data generated by encoding the images F1 to F5. The encoded data I3 is generated by intra-image encoding of the image F3, which is a specific image. The encoded data P1, P2, P4, and P5 are generated by inter-image encoding the images F1, F2, F4, and F5 using the image F3 as a reference image.

図12は、本実施の形態による符号化装置1の要部構成と、符号化の際に生成される各種の画像との関係を模式的に示す図である。なお、本実施の形態による符号化装置1の要部構成は、第1の実施の形態による符号化装置1の要部構成と同一である。なお、図示の都合上、制御部100から各部への信号出力を省略して示す。また、図12においては、符号化装置1の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。   FIG. 12 is a diagram schematically showing the relationship between the main configuration of the coding apparatus 1 according to the present embodiment and various images generated at the time of coding. The main part configuration of the encoding device 1 according to the present embodiment is the same as the main portion configuration of the encoding device 1 according to the first embodiment. Note that signal output from the control unit 100 to each unit is omitted for convenience of illustration. Further, in FIG. 12, data generated as described later in each configuration of the encoding device 1 is schematically shown together.

本実施の形態においては、画像F3の画像内符号化が他の画像F1、F2、F4、F5の画像間符号化に先行して行われる。第1蓄積部101に格納された画像F1〜F5の中から、減算部102は特定画像である画像F3をそのまま出力し(図12のa)、直交変換部103、量子化部104および可変長符号化部105により画像内符号化されて符号化データI3として出力される(図12のb)。また、画像F3は、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施されて復号特定画像F3aが生成され、加算部108による処理を施されることなく、第2蓄積部109に格納される(図12のc)。   In the present embodiment, intra-image encoding of the image F3 is performed prior to inter-image encoding of the other images F1, F2, F4, and F5. Among the images F1 to F5 stored in the first storage unit 101, the subtraction unit 102 outputs the image F3 which is a specific image as it is (a in FIG. 12), the orthogonal transformation unit 103, the quantization unit 104, and the variable length The data is encoded in the image by the encoding unit 105 and output as encoded data I3 (b in FIG. 12). Further, the image F3 is processed by the orthogonal transformation unit 103, the quantization unit 104, the dequantization unit 106, and the inverse orthogonal transformation unit 107 to generate a decoded specific image F3a, and the processing by the addition unit 108 is performed. Instead, they are stored in the second storage unit 109 (c in FIG. 12).

図11(b)に示すように、画像F1は画像F3との間で画像間符号化が行われる。画像F1は、画像F1の露出値と一致するように露出値が補正された画像F3との間で画像間符号化が行われる。この場合、第1蓄積部101に格納されている画像F1が符号化対象画像、第2蓄積部109に格納されている復号特定画像F3aが参照画像となる。まず、補正値算出部110は、復号特定画像F3aの露出値EV3(=EVref)と、画像F1の露出値EV1(=EVref−2)とを用いて、復号特定画像F3aの露出補正値ΔEVF3(=EV1−EV3=−2)を算出する。露出補正部111は、第2蓄積部109内の復号特定画像F3aの露出値を露出補正値ΔEVF3を用いて補正して、露出補正参照画像F3bを生成する(図12のd)。画像間予測部113は、予測情報を用いて、露出補正参照画像F3b上の動きを画像F1に適合させた予測画像F3cを生成する(図12のe)。減算部102は、符号化対象画像(すなわち画像F1)から予測画像F3cを減算して予測誤差画像F1aを生成する(図12のf)。予測誤差画像F1aは直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP1として出力される(図12のg)。 As shown in FIG. 11B, the image F1 is inter-image encoded with the image F3. The image F1 is inter-image encoded with the image F3 whose exposure value has been corrected to match the exposure value of the image F1. In this case, the image F1 stored in the first storage unit 101 is the image to be encoded, and the decoded specific image F3a stored in the second storage unit 109 is the reference image. First, the correction value calculation unit 110 uses the exposure value EV3 (= EVref) of the decoded specific image F3a and the exposure value EV1 (= EVref-2) of the image F1 to obtain the exposure correction value ΔEV F3 of the decoded specific image F3a. Calculate (= EV1−EV3 = −2). The exposure correction unit 111 corrects the exposure value of the decoded specific image F3a in the second storage unit 109 using the exposure correction value ΔEV F3 to generate an exposure correction reference image F3b (d in FIG. 12). The inter-image prediction unit 113 generates a predicted image F3c in which the movement on the exposure correction reference image F3b is adapted to the image F1 using the prediction information (e in FIG. 12). The subtraction unit 102 subtracts the prediction image F3c from the image to be encoded (that is, the image F1) to generate a prediction error image F1a (f in FIG. 12). The prediction error image F1a is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105 and output as encoded data P1 (g in FIG. 12).

図11(b)に示すように、画像F2は画像F3との間で画像間符号化が行われる。画像F2は、画像F2の露出値と一致するように露出値が補正された画像F3との間で、画像間符号化が行われる。この場合、第1蓄積部101内の画像F2が符号化対象画像、第2蓄積部109内の復号特定画像F3a(図12のc)が参照画像となる。補正値算出部110は、復号特定画像F3aの露出値EV3(=EVref)と、画像F2の露出値EV2(=EVref−1)とを用いて、露出補正値ΔEVF3(=EV2−EV3=−1)を算出する。露出補正部111は、第2蓄積部109内の復号特定画F3aの露出値を露出補正値ΔEVF3を用いて補正して、露出補正参照画像F3dを生成する(図12のh)。画像間予測部113は、予測制御情報生成部112により生成された予測情報を用いて、露出補正参照画像F3d上の動きを符号化対象画像である画像F2に適合させた予測画像F3eを生成する(図12のi)。減算部102は、符号化対象画像(すなわち画像F2)から予測画像F3eを減算して、予測誤差画像F2aを生成する(図12のj)。予測誤差画像F2aは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP2として出力される(図12のk)。 As shown in FIG. 11B, the image F2 is inter-image encoded with the image F3. The image F2 is inter-image encoded with the image F3 whose exposure value has been corrected to match the exposure value of the image F2. In this case, the image F2 in the first storage unit 101 is the image to be encoded, and the decoded specific image F3a (c in FIG. 12) in the second storage unit 109 is the reference image. The correction value calculation unit 110 uses the exposure value EV3 (= EVref) of the decoded specific image F3a and the exposure value EV2 (= EVref-1) of the image F2 to obtain an exposure correction value ΔEV F3 (= EV2-EV3 = −). 1) Calculate. The exposure correction unit 111 corrects the exposure value of the decoded specific image F3a in the second storage unit 109 using the exposure correction value ΔEV F3 to generate an exposure correction reference image F3d (h in FIG. 12). The inter-image prediction unit 113 uses the prediction information generated by the prediction control information generation unit 112 to generate a predicted image F3e in which the motion on the exposure correction reference image F3d is adapted to the image F2 that is the image to be encoded. (I in FIG. 12). The subtraction unit 102 subtracts the prediction image F3e from the image to be encoded (that is, the image F2) to generate a prediction error image F2a (j in FIG. 12). The prediction error image F2a is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P2 (k in FIG. 12).

以後、同様の処理を行うことにより、符号化データP4、P5を生成する。すなわち、図11(b)に示すように、画像F4は画像F3を参照画像として、画像F4の露出値と一致するように露出値が補正された画像F3との間で画像間符号化が行われる。画像F5は、画像F3を参照画像として、画像F5の露出値と一致するように露出値が補正された画像F3との間で画像間符号化が行われる。この結果、図11(b)に示すように、画像F2〜F5については、露出値が−2EV〜+2EVの間で順次補正された画像F3との間で画像間符号化が行われて、符号化データP2〜P5が出力される。   Thereafter, the same process is performed to generate the encoded data P4 and P5. That is, as shown in FIG. 11B, with the image F3 as a reference image, inter-image coding is performed between the image F3 and the image F3 whose exposure value has been corrected to match the exposure value of the image F4. It will be. The image F5 is inter-image coded between the image F3 and the image F3 whose exposure value has been corrected to match the exposure value of the image F5, using the image F3 as a reference image. As a result, as shown in FIG. 11B, for the images F2 to F5, inter-image coding is performed with the image F3 whose exposure value is sequentially corrected between -2EV and + 2EV, The conversion data P2 to P5 are output.

上述した第3の実施の形態による符号化装置によれば、第1の実施の形態により得られた作用効果と同様の作用効果が得られる。
なお、第3の実施の形態による符号化装置1により生成された符号化データを復号する場合であっても、復号装置2は第1の実施の形態の場合と同様の処理を行うことにより復号画像を生成することができる。
According to the coding apparatus of the third embodiment described above, the same effects as the effects obtained by the first embodiment can be obtained.
Even in the case of decoding the encoded data generated by the encoding device 1 according to the third embodiment, the decoding device 2 performs the same processing as in the first embodiment to perform decoding. Images can be generated.

−第4の実施の形態−
本発明の第4の実施の形態による符号化装置および復号装置について説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、符号化装置は、符号化対象画像の露出値を補正した後、参照画像との間で画像間符号化を行う点が第1の実施の形態とは異なる。このため、符号化装置により生成された符号化データを復号する復号装置の構成についても第1の実施の形態と異なる。
-Fourth Embodiment-
A coding apparatus and a decoding apparatus according to a fourth embodiment of the present invention will be described. In the following description, the same components as in the first embodiment will be assigned the same reference numerals and differences will be mainly described. The points that are not particularly described are the same as in the first embodiment. The present embodiment is different from the first embodiment in that the encoding apparatus performs inter-image encoding with a reference image after correcting the exposure value of the image to be encoded. For this reason, the configuration of a decoding apparatus that decodes encoded data generated by the encoding apparatus is also different from that of the first embodiment.

−−符号化装置−−
図13は、第4の実施の形態における符号化装置4の構成を示すブロック図である。符号化装置4は、第1の実施の形態による符号化装置1が備える構成に加えて、露出補正逆変換部115を備える。なお、図示の都合上、制御部100から各部への信号出力を省略して示すとともに、符号化装置4の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。
--Encoding device--
FIG. 13 is a block diagram showing the configuration of the coding apparatus 4 in the fourth embodiment. The encoding device 4 includes an exposure correction inverse conversion unit 115 in addition to the configuration of the encoding device 1 according to the first embodiment. Note that, for convenience of illustration, signal output from the control unit 100 to each unit is omitted and shown, and data generated as described later in each configuration of the encoding device 4 is schematically shown together.

露出補正部111は、補正値算出部110により算出された露出補正値を用いて符号化対象画像の露出を補正して、露出補正符号化対象画像を生成し、出力する。この場合、露出補正部111は、符号化対象画像の各画素値に露出補正値に応じた値を乗じることにより露出補正符号化対象画像を生成する。なお、特定画像に対して画像内符号化を行う場合には、露出補正部111は、露出値を補正することなくそのまま出力する。また、補正値算出部110は、第1の実施の形態と同様にして露出補正値を算出する。   The exposure correction unit 111 corrects the exposure of the image to be encoded using the exposure correction value calculated by the correction value calculation unit 110, and generates and outputs an exposure correction coding target image. In this case, the exposure correction unit 111 generates an exposure correction encoding target image by multiplying each pixel value of the encoding target image by a value corresponding to the exposure correction value. When intra-image encoding is performed on a specific image, the exposure correction unit 111 outputs the exposure value as it is without correcting it. Further, the correction value calculation unit 110 calculates the exposure correction value in the same manner as in the first embodiment.

減算部102は、露出補正部111により生成された露出補正符号化対象画像に対して画像間符号化を行う場合に、画像間予測部113から出力される予測画像を露出補正符号化対象画像から減算して予測誤差画像を生成する。なお、減算部102は、特定画像に対しては処理を施さず、そのまま出力する。加算部108は、第1の実施の形態の場合と同様にして、符号化対象画像に対して画像間符号化を行う場合には復号予測画像を生成し、画像内符号化を行う場合には復号特定画像をそのまま出力する。   When the subtraction unit 102 performs inter-image encoding on the exposure correction encoding target image generated by the exposure correction unit 111, the prediction image output from the inter-image prediction unit 113 is extracted from the exposure correction encoding target image. Subtract to generate a prediction error image. Note that the subtraction unit 102 does not perform processing on the specific image and outputs it as it is. The adding unit 108 generates a decoded predicted image when performing inter-image encoding on an image to be encoded, and performs intra-image encoding, as in the first embodiment. The decoded specific image is output as it is.

露出補正逆変換部115は、露出値算出部110により算出された露出補正値を用いて、加算部108から出力された復号予測画像の露出値を補正して、露出変換復号予測画像を生成する。すなわち、露出補正逆変換部115は、露出補正部111による補正が施された復号予測画像の露出値を、復号予測画像に対応する符号化対象画像が露出補正部111による補正を受ける前の露出値に戻す逆変換処理を行う。たとえば、露出補正部111により符号化対象画像の露出値が+1EV補正された場合には、露出補正逆変換部115は、対応する復号予測画像の露出値を−1EV補正する。露出値に逆変換処理が施された復号予測画像は、参照画像として第2蓄積部109に一時的に格納される。予測制御情報生成部112は、参照画像を用いて、参照画像に対する露出補正符号化対象画像の差異を予測するための、たとえば動きベクトル等の予測情報を生成する。他の構成については、第1の実施の形態と同様の処理を行う。   The exposure correction inverse conversion unit 115 corrects the exposure value of the decoded predicted image output from the adding unit 108 using the exposure correction value calculated by the exposure value calculation unit 110 to generate an exposure conversion decoded predicted image. . That is, the exposure correction inverse conversion unit 115 performs the exposure before the encoding target image corresponding to the decoded predicted image is corrected by the exposure correction unit 111, for the exposure value of the decoded predicted image corrected by the exposure correction unit 111. Perform reverse conversion process to return to value. For example, when the exposure correction unit 111 corrects the exposure value of the image to be encoded by +1 EV, the exposure correction inverse conversion unit 115 corrects the exposure value of the corresponding decoded predicted image by −1 EV. The decoded predicted image in which the exposure value is inversely transformed is temporarily stored in the second accumulation unit 109 as a reference image. The prediction control information generation unit 112 generates, for example, prediction information such as a motion vector for predicting a difference between the exposure correction encoding target image with respect to the reference image using the reference image. About the other structure, the process similar to 1st Embodiment is performed.

図13および図17を参照しながら符号化装置4により生成される符号化データについて説明する。なお、本実施の形態においても、第1の実施の形態の場合と同様に、図17(a)に示す符号化対象画像である画像F1〜F5のうち、画像F1を特定画像として画像内符号化を行い、画像F2〜F5に対して画像間符号化を行うことにより、図17(b)に示すように符号化データI1、P2〜P5が生成される場合を一例として説明する。   The encoded data generated by the encoding device 4 will be described with reference to FIGS. 13 and 17. Also in the present embodiment, as in the case of the first embodiment, of the images F1 to F5 which are encoding target images shown in FIG. The case where coded data I1 and P2 to P5 are generated as shown in FIG. 17B by performing inter-image coding on the images F2 to F5 will be described as an example.

第1蓄積部101内の複数の画像F1〜F5のうち、特定画像である画像F1が他の画像F2〜F5に先行して可変長符号化部105により画像内符号化される。この場合、上述したように、露出補正部111および減算部102は画像F1に処理を施すことなく、そのまま出力し(図13のa)、直交変換部103、量子化部104および可変長符号化部105により画像内符号化されて符号化データI1として出力される(図13のb)。また、画像F1は、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施されて復号特定画像F1aが生成され、加算部108および露出補正逆変換部115による処理を施されることなく、第2蓄積部109に格納される(図13のc)。   Of the plurality of images F1 to F5 in the first accumulation unit 101, an image F1 which is a specific image is intra-image encoded by the variable-length coding unit 105 prior to other images F2 to F5. In this case, as described above, the exposure correction unit 111 and the subtraction unit 102 output the image F1 as it is without processing (a in FIG. 13), the orthogonal transformation unit 103, the quantization unit 104, and variable length coding Intra-image encoding is performed by the unit 105 and output as encoded data I1 (b in FIG. 13). Further, the image F1 is processed by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107 to generate the decoded specific image F1a, and the addition unit 108 and the exposure correction inverse transformation unit It is stored in the second storage unit 109 without being subjected to the processing of 115 (c in FIG. 13).

図17(b)に示す画像F2は画像F1との間で画像間符号化が行われる。画像F2は、画像F1の露出値と一致するように露出値が補正された後、画像間符号化が行われる。この場合、第1蓄積部101内の画像F2が符号化対象画像、第2蓄積部109内の復号特定画像F1aが参照画像となる。補正値算出部110は、復号特定画像F1aの露出値EV1(=EVref−2)と、画像F2の露出値EV2(=EVref−1)とを用いて、画像F2の露出補正値ΔEVF2(=EV1−EV2=−1)を算出する。露出補正部111は、画像F2の露出値を露出補正値ΔEVF2を用いて補正して、露出補正符号化対象画像F2aを生成する(図13のd)。画像間予測部113は、予測情報を用いて、画像F1a上の動きを露出補正符号化対象画像F2aに適合させた予測画像F1bを生成する(図13のe)。 The image F2 shown in FIG. 17B is subjected to inter-image coding with the image F1. The image F2 is inter-image encoded after the exposure value is corrected to match the exposure value of the image F1. In this case, the image F2 in the first storage unit 101 is the image to be encoded, and the decoded specific image F1a in the second storage unit 109 is the reference image. Correction value calculation unit 110 uses exposure value EV1 (= EVref-2) of decoded specific image F1a and exposure value EV2 (= EVref-1) of image F2 to obtain exposure correction value ΔEV F2 (== image of image F2). EV1-EV2 = -1) is calculated. The exposure correction unit 111 corrects the exposure value of the image F2 using the exposure correction value ΔEV F2 to generate an exposure correction encoding target image F2a (d in FIG. 13). The inter-image prediction unit 113 uses the prediction information to generate a predicted image F1b in which the motion on the image F1a is adapted to the exposure correction encoding target image F2a (e in FIG. 13).

減算部102は、露出補正符号化対象画像F2aから予測画像F1bを減算して、予測誤差画像F2bを生成する(図13のf)。予測誤差画像F2bは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP2として出力される(図13のg)。また、予測誤差画像F2bは、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施されて、復号予測誤差画像F2cとして加算部108に出力される(図13のh)。加算部108は、復号予測誤差画像F2cと、画像間予測部113により生成された予測画像F1bとを加算して、復号予測画像F2dを生成する(図13のi)。露出補正逆変換部115は、復号予測画像F2dの露出値に対して上述した逆変換処理を施して露出変換復号予測画像F2eを生成し、参照画像として第2蓄積部109に格納する(図13のj)。   The subtraction unit 102 subtracts the prediction image F1b from the exposure correction encoding target image F2a to generate a prediction error image F2b (f in FIG. 13). The prediction error image F2b is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P2 (g in FIG. 13). Further, the prediction error image F2b is processed by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107, and is output to the addition unit 108 as a decoded prediction error image F2c (see FIG. H) in FIG. The addition unit 108 adds the decoded prediction error image F2c and the prediction image F1b generated by the inter-image prediction unit 113 to generate a decoded prediction image F2d (i in FIG. 13). The exposure correction inverse conversion unit 115 performs the above-described inverse conversion process on the exposure value of the decoded predicted image F2d to generate an exposure conversion decoded predicted image F2e, and stores it as a reference image in the second storage unit 109 (FIG. 13). J).

図17(b)に示すように、画像F3は画像F2との間で画像間符号化が行われる。画像F3は、画像F2の露出値と一致するように露出値が補正された後、画像間符号化が行われる。この場合、第1蓄積部101内の画像F3が符号化対象画像、第2蓄積部109内の露出変換復号予測誤差画像F2eが参照画像となる。補正値算出部110は、露出変換復号予測誤差画像F2eの露出値EV2(=EVref−1)と、画像F3の露出値EV3(=EVref)とを用いて、露出補正値ΔEVF3(=EV2−EV3=−1)を算出する。露出補正部111は、画像F3の露出値を露出補正値ΔEVF3を用いて補正して、露出補正符号化対象画像F3aを生成する(図13のk)。画像間予測部113は、予測情報を用いて、参照画像上の動きを露出補正符号化対象画像F3aに適合させた予測画像F2fを生成する(図13のl)。 As shown in FIG. 17B, the image F3 is inter-image encoded with the image F2. The image F3 is inter-image encoded after the exposure value is corrected to match the exposure value of the image F2. In this case, the image F3 in the first storage unit 101 is the image to be encoded, and the exposure conversion decoding prediction error image F2e in the second storage unit 109 is the reference image. The correction value calculation unit 110 uses the exposure value EV2 (= EVref-1) of the exposure conversion decoded prediction error image F2e and the exposure value EV3 (= EVref) of the image F3 to obtain an exposure correction value ΔEV F3 (= EV2−). Calculate EV3 = -1). The exposure correction unit 111 corrects the exposure value of the image F3 using the exposure correction value ΔEV F3 to generate an exposure correction encoding target image F3a (k in FIG. 13). The inter-image prediction unit 113 uses the prediction information to generate a predicted image F2f in which the motion on the reference image is adapted to the exposure correction encoding target image F3a (l in FIG. 13).

減算部102は、露出補正符号化対象画像F3aから予測画像F2fを減算して、予測誤差画像F3bを生成する(図13のm)。予測誤差画像F3bは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP3として出力される(図13のn)。また、予測誤差画像F3bには直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施されて復号予測誤差画像F3cが生成され、加算部108に出力される(図13のo)。加算部108は、復号予測誤差画像F3cと予測画像F2fとを加算して、復号予測画像F3dを生成する(図13のp)。露出補正逆変換部115は、復号予測画像F3dの露出値に対して上述した逆変換処理を施した露出変換復号予測画像F3eを生成し、第2蓄積部109に格納する(図13のq)。   The subtraction unit 102 subtracts the prediction image F2f from the exposure correction encoding target image F3a to generate a prediction error image F3b (m in FIG. 13). The prediction error image F3b is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P3 (n in FIG. 13). Further, the prediction error image F3 b is processed by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107 to generate a decoded prediction error image F3 c, which is output to the addition unit 108. (O in FIG. 13). The addition unit 108 adds the decoded prediction error image F3c and the prediction image F2f to generate a decoded prediction image F3d (p in FIG. 13). The exposure correction inverse conversion unit 115 generates an exposure conversion decoded predicted image F3e obtained by performing the above-described inverse conversion processing on the exposure value of the decoded predicted image F3d, and stores the generated result in the second storage unit 109 (q in FIG. 13). .

以後、上記の処理を繰り返し行うことにより、符号化データP4、P5を生成する。すなわち、図17(b)に示すように、画像F4は、画像F3を参照画像とし、画像F4の露出値を補正して画像F3の露出値と一致させた後、画像F3との間で、画像間符号化が行われる。画像F5は画像F4を参照画像とし、画像F4の露出値を補正して画像F4の露出値と一致させた後、画像間符号化が行われる。この結果、図17(b)に示すように、画像F2〜F5については、露出値が−1EVだけ補正された後、直前の画像との間で画像間符号化が行われて、符号化データP2〜P5が出力される。   Thereafter, the above process is repeated to generate the encoded data P4 and P5. That is, as shown in FIG. 17B, the image F4 uses the image F3 as a reference image, corrects the exposure value of the image F4 to match the exposure value of the image F3, and then makes a comparison with the image F3 Inter-picture coding is performed. The image F5 uses the image F4 as a reference image, and after correcting the exposure value of the image F4 to match the exposure value of the image F4, inter-image coding is performed. As a result, as shown in FIG. 17B, for the images F2 to F5, after the exposure value is corrected by −1 EV, inter-image encoding is performed with the immediately preceding image, and encoded data is obtained. P2 to P5 are output.

−−復号装置−−
次に、上述した符号化装置4により出力された符号化データを復号して、画像を出力する復号装置5について説明する。
図14は、本実施の形態による復号装置5の構成を示すブロック図である。復号装置5は、第1の実施の形態における復号装置2が備える露出補正部207に代えて、露出補正逆変換部210を備える。なお、図示の都合上、制御部200から各部への信号出力を省略して示すとともに、復号装置5の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。
-Decoding device--
Next, the decoding device 5 that decodes the encoded data output by the above-described encoding device 4 and outputs an image will be described.
FIG. 14 is a block diagram showing a configuration of decoding apparatus 5 according to the present embodiment. The decoding device 5 includes an exposure correction inverse conversion unit 210 instead of the exposure correction unit 207 included in the decoding device 2 according to the first embodiment. Note that, for convenience of illustration, signal output from the control unit 200 to each unit is omitted and shown, and data generated as described later in each configuration of the decoding device 5 is schematically shown together.

可変長符号復号部201は、各符号化データに含まれる露出補正値については、露出補正逆変換部210に出力する。加算部204は、復号対象画像を画像間復号する際には、逆直交変換部203によって復号された復号予測誤差画像と、予測部208から出力された予測画像とを加算して、露出変換前復号画像を生成する。復号対象画像を画像内復号する際には、加算部204は逆直交変換部203から出力された復号特定画像をそのまま出力する。   The variable-length code decoding unit 201 outputs the exposure correction value included in each piece of encoded data to the exposure correction inverse conversion unit 210. The addition unit 204 adds the decoded prediction error image decoded by the inverse orthogonal transformation unit 203 and the prediction image output from the prediction unit 208 before inter-image decoding when decoding the image to be decoded. Generate a decoded image. When intra-image decoding is performed on the decoding target image, the adding unit 204 outputs the decoded specific image output from the inverse orthogonal transform unit 203 as it is.

露出補正逆変換部210は、可変長符号復号部201から出力された露出補正値を用いて、加算部204によって生成された露出変換前復号画像の露出値を補正する。露出補正逆変換部210は、符号化装置4の露出補正部111によって符号化対象画像の露出値が補正を受ける前の露出値に戻す逆変換処理を行って、復号画像として第1蓄積部205および第2蓄積部206へ出力する。たとえば、露出補正部111により符号化対象画像の露出値が+1EV補正された場合には、露出補正逆変換部210は、対応する露出変換前復号画像の露出値を−1EV補正する。なお、露出補正逆変換部210は、復号特定画像に対しては露出値の逆変換処理を行わずに、第1蓄積部205および第2蓄積部206へ出力する。他の構成については、第1の実施の形態と同様の処理を行う。   The exposure correction inverse conversion unit 210 corrects the exposure value of the pre-exposure conversion decoded image generated by the addition unit 204 using the exposure correction value output from the variable-length code decoding unit 201. The exposure correction inverse conversion unit 210 performs an inverse conversion process to return the exposure value of the image to be encoded to the exposure value before the correction by the exposure correction unit 111 of the encoding device 4 to obtain a first storage unit 205 as a decoded image. And the second storage unit 206. For example, when the exposure correction unit 111 corrects the exposure value of the image to be encoded by +1 EV, the exposure correction inverse conversion unit 210 corrects the exposure value of the corresponding pre-exposure conversion decoded image by −1 EV. The exposure correction inverse conversion unit 210 outputs the decoded specific image to the first accumulation unit 205 and the second accumulation unit 206 without performing the inverse conversion process of the exposure value. About the other structure, the process similar to 1st Embodiment is performed.

図14を参照しながら復号装置5により復号され、生成される復号画像について説明する。なお、図14においては、上述した符号化装置4により図17に示す形態にて出力された符号化データI1、P2〜P5が順次入力される場合を例として示す。本実施の形態では、符号化データI1に対して画像内復号を行い、符号化データP2〜P5に対して画像間復号を行うことにより、復号画像FD1〜FD5が生成される。上述したように符号化データI1は、特定画像が符号化装置1により符号化されているので、符号化データI1は逆量子化部202および逆直交変換部203により復号され、復号特定画像FD1として加算部204および露出補正逆変換部210による処理が施されず、第1蓄積部205に格納される(図14のa)。さらに、復号特定画像FD1は第2蓄積部206にも格納される(図14のb)。   The decoded image which is decoded and generated by the decoding device 5 will be described with reference to FIG. In FIG. 14, an example is shown in which the encoded data I1 and P2 to P5 output in the form shown in FIG. 17 by the encoding device 4 described above are sequentially input. In the present embodiment, the decoded images FD1 to FD5 are generated by performing intra-image decoding on the coded data I1 and performing inter-image decoding on the coded data P2 to P5. As described above, since the specific image of the encoded data I1 is encoded by the encoding apparatus 1, the encoded data I1 is decoded by the inverse quantization unit 202 and the inverse orthogonal transformation unit 203, and is decoded as the decoded specific image FD1. The processing by the addition unit 204 and the exposure correction inverse conversion unit 210 is not performed, and is stored in the first storage unit 205 (a in FIG. 14). Furthermore, the decoded specific image FD1 is also stored in the second storage unit 206 (b in FIG. 14).

復号対象画像が符号化データP2の場合には、第2蓄積部206内の復号特定画像FD1を参照画像として、画像間復号が行われる。予測部208は、可変長符号復号部201から出力された符号化データP2に関する予測情報を用いて、復号特定画像FD1から予測画像FD1aを生成する(図14のc)。符号化データP2は、符号化装置4によって予測誤差画像F2a(図13参照)が符号化されて生成されているので、逆量子化部202および逆直交変換部203により復号されて復号予測誤差画像FD2aが生成され、加算部204に入力される(図14のd)。加算部204は、復号予測誤差画像FD2aと画像間予測部113により生成された予測画像FD1aとを加算して、露出変換前復号画像FD2bを生成する(図14のe)。   When the image to be decoded is the coded data P2, inter-image decoding is performed using the decoded specific image FD1 in the second storage unit 206 as a reference image. The prediction unit 208 generates a predicted image FD1a from the decoded specific image FD1 using the prediction information on the encoded data P2 output from the variable-length code decoding unit 201 (c in FIG. 14). Since the encoded data P2 is generated by encoding the prediction error image F2a (see FIG. 13) by the encoding device 4, the encoded data P2 is decoded by the inverse quantization unit 202 and the inverse orthogonal transformation unit 203 and a decoded prediction error image The FD 2a is generated and input to the adding unit 204 (d in FIG. 14). The addition unit 204 adds the decoded prediction error image FD2a and the prediction image FD1a generated by the inter-image prediction unit 113 to generate a pre-exposure conversion decoded image FD2b (e in FIG. 14).

露出補正逆変換部210は、可変長符号復号部201から出力された露出補正値を用いて、露出変換前復号画像FD2bの露出値を画像F2の露出値EV2となるように逆変換処理を行って、復号画像FD2を生成する。生成された復号画像FD2は第1蓄積部205に格納される(図14のf)とともに、第2蓄積部206に格納される(図14のg)。   The exposure correction inverse conversion unit 210 performs inverse conversion processing so that the exposure value of the pre-exposure conversion image FD2b becomes the exposure value EV2 of the image F2 using the exposure correction value output from the variable-length code decoding unit 201 The decoded image FD2 is generated. The generated decoded image FD2 is stored in the first storage unit 205 (f in FIG. 14) and is stored in the second storage unit 206 (g in FIG. 14).

復号対象画像が符号化データP3の場合には、符号化データP3は、第2蓄積部206内の復号画像FD2を参照画像として、画像間復号が行われる。予測部208は、符号化データP3に関する予測情報を用いて復号画像FD2から予測画像FD2cを生成する(図14のh)。符号化データP3は逆量子化部202および逆直交変換部203により復号されて復号予測誤差画像FD3aが生成され、加算部204に入力される(図14のi)。加算部204は、復号予測誤差画像FD3aと予測画像FD2cとを加算して、露出変換前復号画像FD3bを生成する(図14のj)。   When the image to be decoded is the coded data P3, the coded data P3 is decoded between the images using the decoded image FD2 in the second storage unit 206 as a reference image. The prediction unit 208 generates a predicted image FD2c from the decoded image FD2 using the prediction information related to the encoded data P3 (h in FIG. 14). The encoded data P3 is decoded by the inverse quantization unit 202 and the inverse orthogonal transformation unit 203 to generate a decoded prediction error image FD3a, which is input to the addition unit 204 (i in FIG. 14). The addition unit 204 adds the decoded prediction error image FD3a and the prediction image FD2c to generate a pre-exposure conversion decoded image FD3b (j in FIG. 14).

露出補正逆変換部210は、可変長符号復号部201から出力された露出補正値を参照して、露出変換前復号画像FD3bの露出値を画像F3の露出値EV3となるように逆変換処理を行って、復号画像FD3を生成する。生成された復号画像FD3は第1蓄積部205に格納される(図14のk)とともに、第2蓄積部206に格納される(図14のl)。以後、上記の処理を繰り返し行うことにより、復号画像FD4、FD5を生成して、第1蓄積部205に格納する。   The exposure correction inverse conversion unit 210 performs inverse conversion processing so that the exposure value of the pre-exposure conversion decoded image FD3b becomes the exposure value EV3 of the image F3 with reference to the exposure correction value output from the variable-length code decoding unit 201 To generate a decoded image FD3. The generated decoded image FD3 is stored in the first storage unit 205 (k in FIG. 14) and is stored in the second storage unit 206 (l in FIG. 14). Thereafter, the above process is repeatedly performed to generate the decoded images FD4 and FD5, and the decoded images FD4 and FD5 are stored in the first storage unit 205.

上述した第4の実施の形態による符号化装置4および復号装置5によれば、第1の実施の形態により得られた作用効果と同様の作用効果が得られる。すなわち、参照画像の露出値と符号化対象画像の露出値とが異なる場合には、符号化対象画像の露出値を補正した後、画像間符号化することにより、異なる露出値の画像間で生じる明るさの不一致を解消し、符号化データのデータ量を抑制することができる。   According to the encoding device 4 and the decoding device 5 according to the above-described fourth embodiment, the same effects as the effects obtained by the first embodiment can be obtained. That is, when the exposure value of the reference image and the exposure value of the image to be encoded are different, the exposure value of the image to be encoded is corrected and then inter-image encoding is performed to generate images of different exposure values. Inconsistencies in brightness can be eliminated, and the amount of encoded data can be suppressed.

なお、符号化装置4による符号化データの生成は上述した内容による方法を用いるものに限定されず、第2の実施の形態における符号化装置1が行う符号化データの生成方法や、第3の実施の形態にける符号化装置1が行う符号化データの生成方法を用いるものについても、本発明の一態様に含まれる。図18に、第2の実施の形態における符号化装置1が行う符号化データの生成方法を用いる場合に生成される符号化データと、符号化される前の画像との関係を模式的に示す。すなわち、画像F3が特定画像として画像内符号化、画像F2と画像F4が画像F3を参照画像として画像間符号化、画像F1が画像F2を参照画像として、また画像F5が画像F4を参照画像として画像間符号化される。この場合、図18に示すように、符号化対象画像の露出値を補正により参照画像に一致させた後、符号化が行われる。図19に、第3の実施の形態における符号化装置1が行う符号化データの生成方法を用いる場合に生成される符号化データと、符号化される前の画像との関係を模式的に示す。すなわち、画像F3が特定画像として画像内符号化、画像F1、画像F2、画像F4および画像F5が画像F3を参照画像として画像間符号化される。図19に示すように、符号化対象画像の露値を補正した参照画像の補正値と一致させた後、符号化が行われる。   Note that the generation of encoded data by the encoding device 4 is not limited to the method using the method described above, and a method of generating encoded data performed by the encoding device 1 in the second embodiment, and a third method The use of the method of generating coded data performed by the coding apparatus 1 according to the embodiment is also included in an aspect of the present invention. FIG. 18 schematically shows a relationship between encoded data generated when the method of generating encoded data performed by the encoding device 1 according to the second embodiment is used and an image before encoding. . That is, image F3 is intra-image encoded as a specific image, image F2 and image F4 are inter-image encoded using image F3 as a reference image, image F1 is image F2 as a reference image, and image F5 is image F4 as a reference image It is inter-image coded. In this case, as shown in FIG. 18, after the exposure value of the image to be encoded matches the reference image by correction, the encoding is performed. FIG. 19 schematically shows a relationship between encoded data generated when the method of generating encoded data performed by the encoding device 1 according to the third embodiment is used and an image before encoding. . That is, the image F3 is intra-image encoded as a specific image, the image F1, the image F2, the image F4, and the image F5 are inter-image encoded using the image F3 as a reference image. As shown in FIG. 19, encoding is performed after matching the dew value of the encoding target image with the correction value of the reference image.

−第5の実施の形態−
本発明の第5の実施の形態による符号化装置および復号装置について説明する。以下の説明では、第3の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第3の実施の形態と同じである。本実施の形態では、符号化装置は、特定画像を他の全ての符号化対象画像を符号化する際の参照画像として用い、符号化対象画像の露出値を補正した後、参照画像との間で画像間符号化を行う点が第3の実施の形態とは異なる。このため、符号化装置により生成された符号化データを復号する復号装置の構成についても第3の実施の形態と異なる。
-Fifth Embodiment-
An encoding apparatus and a decoding apparatus according to the fifth embodiment of the present invention will be described. In the following description, the same components as in the third embodiment will be assigned the same reference numerals and differences will be mainly described. Points that are not particularly described are the same as in the third embodiment. In the present embodiment, the encoding apparatus uses the specific image as a reference image when encoding all other encoding target images, corrects the exposure value of the encoding target image, and then performs correction with the reference image. Is different from the third embodiment in that inter-image coding is performed. Therefore, the configuration of a decoding apparatus that decodes the encoded data generated by the encoding apparatus is also different from that of the third embodiment.

−−符号化装置−−
図15は、第5の実施の形態における符号化装置6の構成を示すブロック図である。符号化装置6は、第1の実施の形態による符号化装置1が備える構成に加えて第3蓄積部116をさらに備える。なお、図示の都合上、制御部100から各部への信号出力を省略して示すとともに、符号化装置6の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。
--Encoding device--
FIG. 15 is a block diagram showing the configuration of the coding apparatus 6 in the fifth embodiment. The encoding device 6 further includes a third storage unit 116 in addition to the configuration of the encoding device 1 according to the first embodiment. Note that, for convenience of illustration, signal output from the control unit 100 to each part is omitted and shown, and data generated as described later in each configuration of the encoding device 6 is schematically shown together.

露出補正部111は、第4の実施の形態と同様に、符号化対象画像の符号化に先だって、補正値算出部110により算出された露出補正値を用いて符号化対象画像の露出を補正して、露出補正符号化対象画像を生成する。なお、露出補正部111は、特定画像に対しては露出値を補正しない。補正値算出部110は、特定画像の露出値と他の複数の符号化対象画像の露出値とを用いて、各符号化対象画像の露出値を補正するための補正値をそれぞれ算出する。露出補正部111により生成された露出補正符号化対象画像は、第3蓄積部116に一時的に格納される。他の構成については、第1の実施の形態と同様の処理を行う。   The exposure correction unit 111 corrects the exposure of the image to be encoded using the exposure correction value calculated by the correction value calculation unit 110 prior to the encoding of the image to be encoded, as in the fourth embodiment. The exposure correction encoding target image is generated. Note that the exposure correction unit 111 does not correct the exposure value for a specific image. The correction value calculation unit 110 calculates a correction value for correcting the exposure value of each encoding target image, using the exposure value of the specific image and the exposure values of the plurality of other encoding target images. The exposure correction encoding target image generated by the exposure correction unit 111 is temporarily stored in the third accumulation unit 116. About the other structure, the process similar to 1st Embodiment is performed.

図15および図19を参照しながら符号化装置6により生成される符号化データについて説明する。本実施の形態においては、第3の実施の形態の場合と同様に、図19(a)に示す符号化対象画像である画像F1〜F5から、図19(b)に示すように、特定画像である画像F3に対して画像内符号化を行い、非特定画像である画像F1、F2、F4、F5に対して画像間符号化を行うことにより、符号化データI3、P1、P2、P4、P5が生成される。   The encoded data generated by the encoding device 6 will be described with reference to FIGS. 15 and 19. In the present embodiment, as in the case of the third embodiment, as shown in FIG. 19 (b) from the images F1 to F5 which are encoding target images shown in FIG. 19 (a), The intra-image encoding is performed on the image F3 which is the inter-image encoding for the non-specific images F1, F2, F4, and F5, and the encoded data I3, P1, P2, P4, and P5 is generated.

まず、補正値算出部110は、非特定画像である画像F1、F2、F4、F5のそれぞれの露出値と、特定画像である画像F3の露出値との間で、露出補正値ΔEVF31(=EV3−EV1=2)、ΔEVF32(=EV3−EV2=1)、ΔEVF34(=EV3−EV4=−1)、ΔEVF35(=EV3−EV5=−2)を算出する。露出補正部110は、画像F1、F2、F4、F5の露出値を、補正値算出部110にて算出された露出補正値ΔEVF31、ΔEVF32、ΔEVF34、ΔEVF35を用いてそれぞれ補正して、露出補正画像F1a、F2a、F4a、F5aを生成する。第3蓄積部116には、露出補正符号化対象画像F1a、F2a、F4a、F5aと、特定画像である画像F3とが格納される(図15のa)。 First, the correction value calculation unit 110 sets the exposure correction value ΔEV F31 (==) between the exposure value of each of the images F1, F2, F4 and F5 which are nonspecific images and the exposure value of the image F3 which is specific image. EV3-EV1 = 2), .DELTA.EV F32 (= EV3-EV2 = 1), .DELTA.EV F34 (= EV3-EV4 = -1), .DELTA.EV F35 (= EV3-EV5 = -2) are calculated. The exposure correction unit 110 corrects the exposure values of the images F1, F2, F4, and F5 using the exposure correction values ΔEV F31 , ΔEV F32 , ΔEV F34 , and ΔEV F35 calculated by the correction value calculation unit 110. The exposure corrected images F1a, F2a, F4a, and F5a are generated. The third storage unit 116 stores exposure correction encoding target images F1a, F2a, F4a, and F5a, and an image F3 which is a specific image (a in FIG. 15).

第3蓄積部116から、画像F3が出力され、減算部102による処理が行われることなく、直交変換部103、量子化部104および可変長符号化部105により画像内符号化されて符号化データI3が出力される(図15のb)。また、直交変換部103、量子化部104、逆量子化部106および逆直交変換部107による処理が施された復号特定画像F3aは、加算部108による処理を施されることなく、第2蓄積部109に格納される(図15のc)。   Image F 3 is output from third storage unit 116 and subjected to intra-image encoding by orthogonal transform unit 103, quantization unit 104, and variable-length encoding unit 105 without processing by subtraction unit 102. I3 is output (b of FIG. 15). Further, the decoded specific image F3a subjected to the processing by the orthogonal transformation unit 103, the quantization unit 104, the inverse quantization unit 106, and the inverse orthogonal transformation unit 107 is not subjected to the processing by the addition unit 108, and the second accumulation is performed. It is stored in the unit 109 (c in FIG. 15).

図19(b)に示す画像F1は、画像F3を参照画像として画像間符号化が行われる。この場合、第3蓄積部116内の符号化対象画像である露出補正符号化対象画像F1aに対して、第2蓄積部109内の復号特定画像F3aが参照画像として用いられる。画像間予測部113は、予測情報を用いて復号特定画像F3a上の動きを露出補正符号化対象画像F1aに適合させた予測画像F3bを生成する(図15のd)。減算部102は、露出補正符号化対象画像F1aから予測画像F3bを減算して、予測誤差画像F1bを生成する(図15のe)。予測誤差画像F1bは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP1として出力される(図15のf)。   In the image F1 shown in FIG. 19B, inter-image encoding is performed using the image F3 as a reference image. In this case, the decoded specific image F3a in the second storage unit 109 is used as a reference image with respect to the exposure correction encoding target image F1a that is the image to be encoded in the third storage unit 116. The inter-image prediction unit 113 generates a predicted image F3b in which the motion on the decoded specific image F3a is adapted to the exposure correction encoding target image F1a using the prediction information (d in FIG. 15). The subtraction unit 102 subtracts the prediction image F3b from the exposure correction encoding target image F1a to generate a prediction error image F1b (e in FIG. 15). The prediction error image F1b is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P1 (f in FIG. 15).

図19(b)に示す画像F2は、画像F3を参照画像として画像間符号化が行われる。この場合、第3蓄積部116内の符号化対象画像である露出補正符号化対象画像F2aに対して、第2蓄積部109内の復号特定画像F3aが参照画像として用いられる。画像F1に対する画像間符号化の場合と同様に、画像間予測部113は、予測情報を用いて、復号特定画像F3a上の動きを露出補正符号化対象画像F2aに適合させて予測画像F3cを生成する(図15のg)。減算部102は、露出補正符号化対象画像F2aから予測画像F3cを減算して、予測誤差画像F2bを生成する(図15のh)。予測誤差画像F2bは、直交変換部103、量子化部104および可変長符号化部105により符号化されて符号化データP2として出力される(図15のi)。   In the image F2 shown in FIG. 19B, inter-image coding is performed using the image F3 as a reference image. In this case, the decoded specific image F3a in the second storage unit 109 is used as a reference image for the exposure correction encoding target image F2a that is the image to be encoded in the third storage unit 116. As in the case of inter-image encoding for the image F1, the inter-image prediction unit 113 matches the motion on the decoded specific image F3a with the exposure correction encoding target image F2a using the prediction information to generate a predicted image F3c (G in FIG. 15). The subtraction unit 102 subtracts the prediction image F3c from the exposure correction encoding target image F2a to generate a prediction error image F2b (h in FIG. 15). The prediction error image F2b is encoded by the orthogonal transformation unit 103, the quantization unit 104, and the variable length encoding unit 105, and is output as the encoded data P2 (i in FIG. 15).

以後、上記の処理を繰り返し行うことにより、符号化データP4、P5を生成する。すなわち、画像F4は、画像F4の露出値を画像F4の露出値に一致するように補正された後、画像F3を参照画像として画像間符号化が行われる。画像F5は、画像F5の露出値を画像F3の露出値に一致するように正された後、画像F3を参照画像として画像間符号化が行われる。この結果、図15に示すような従来構造を有する符号化装置6を用いて符号化を行う場合であっても、図19(b)に示すように、画像F2〜F5については、露出値が−2EV〜+2EVの間で順次補正された画像F3との間で画像間符号化が行われて、第3の実施の形態により得られる符号化データと同様の符号化データP2〜P5が出力される。   Thereafter, the above process is repeated to generate the encoded data P4 and P5. That is, after the image F4 is corrected so that the exposure value of the image F4 matches the exposure value of the image F4, inter-image coding is performed using the image F3 as a reference image. After the image F5 is corrected so that the exposure value of the image F5 matches the exposure value of the image F3, inter-image coding is performed using the image F3 as a reference image. As a result, even when encoding is performed using the encoding device 6 having the conventional structure as shown in FIG. 15, as shown in FIG. 19 (b), the exposure values for the images F2 to F5 are Inter-picture encoding is performed between the image F3 sequentially corrected between -2EV and + 2EV, and encoded data P2 to P5 similar to the encoded data obtained according to the third embodiment are output. Ru.

−−復号装置−−
次に、上述した符号化装置6により出力された符号化データを復号して、画像を出力する復号装置7について説明する。
図16は、本実施の形態による復号装置7の構成を示すブロック図である。復号装置7は、第1の実施の形態による復号装置2が備える露出補正部207に代えて露出補正逆変換部210を備え、さらに第3蓄積部211を備える。なお、図示の都合上、制御部200から各部への信号出力を省略して示すとともに、図16においては、復号装置7の各構成にて後述するようにして生成されるデータを合わせて模式的に示す。
-Decoding device--
Next, the decoding device 7 that decodes the encoded data output by the above-described encoding device 6 and outputs an image will be described.
FIG. 16 is a block diagram showing a configuration of decoding apparatus 7 according to the present embodiment. The decoding device 7 includes an exposure correction inverse conversion unit 210 instead of the exposure correction unit 207 included in the decoding device 2 according to the first embodiment, and further includes a third storage unit 211. Here, for convenience of illustration, signal output from the control unit 200 to each unit is omitted and shown, and in FIG. 16, data generated as described later in each configuration of the decoding device 7 are combined and shown schematically. Shown in.

本実施の形態の復号装置7は、符号化装置6により生成された符号化データP1、P2、I3、P4、P5に対して画像間復号または画像内復号により復号した後、画像間復号された復号画像の露出値を補正して、符号化前の画像の露出値と一致させる。すなわち、加算部204によって復号予測誤差画像と予測部208から出力された予測画像とが加算されることにより、画像間復号されて生成された画像(露出補正前復号画像)の露出値が、露出補正逆変換部210によって補正される。この場合、露出補正逆変換部210は、可変長符号復号部201から出力された露出補正値を用いて、符号化装置6の露出補正部111による補正を受ける前の露出値に戻す逆変換処理を行う。たとえば、露出補正部111により符号化対象画像の露出値が+1EV補正された場合には、露出補正逆変換部210は、対応する露出変換前復号対象画像の露出値を−1EV補正する。なお、露出補正逆変換部210は、復号特定画像に対しては露出値の逆変換処理を行わずに第1蓄積部205へ出力する。   The decoding device 7 according to the present embodiment decodes the encoded data P 1, P 2, I 3, P 4 and P 5 generated by the encoding device 6 by inter-image decoding or intra-image decoding and then performs inter-image decoding. The exposure value of the decoded image is corrected to match the exposure value of the image before encoding. That is, the addition prediction unit 204 adds the decoded prediction error image and the prediction image output from the prediction unit 208 by the addition unit 204, so that the exposure value of the image generated by the inter-image decoding (the pre-exposure correction decoded image) is exposed. It is corrected by the correction inverse conversion unit 210. In this case, using the exposure correction value output from the variable-length code decoding unit 201, the exposure correction inverse conversion unit 210 reversely converts the exposure value before the correction by the exposure correction unit 111 of the encoding device 6 I do. For example, when the exposure correction unit 111 corrects the exposure value of the encoding target image by +1 EV, the exposure correction inverse conversion unit 210 corrects the exposure value of the corresponding pre-exposure conversion decoding target image by −1 EV. The exposure correction inverse conversion unit 210 outputs the decoded specific image to the first accumulation unit 205 without performing the inverse conversion process of the exposure value.

なお、復号対象画像を画像内復号する際には、加算部204は逆直交変換部203から出力された復号特定画像をそのまま第2蓄積部206および第3蓄積部211に出力し、一時的に格納する。第3蓄積部211に格納された復号特定画像は、画像間復号を行う復号対象画像の参照画像として用いられる。すなわち、予測部208は、可変長符号復号部201から出力された予測情報と、第3蓄積部211に格納された復号特定画像とを用いて、画像間復号を行う復号対象画像の予測画像を生成する。   When intra-image decoding is performed on the decoding target image, the adding unit 204 outputs the decoded specific image output from the inverse orthogonal transform unit 203 as it is to the second storage unit 206 and the third storage unit 211, temporarily. Store. The decoded specific image stored in the third storage unit 211 is used as a reference image of a decoding target image to be subjected to inter-image decoding. That is, the prediction unit 208 uses the prediction information output from the variable-length code decoding unit 201 and the decoding specific image stored in the third storage unit 211 to perform prediction of the decoding target image to be subjected to inter-picture decoding. Generate

図16を参照しながら復号装置7により復号され、生成される復号画像について説明する。なお、図16においては、上述した符号化装置6により図19に示す形態にて出力された符号化データI3、P1、P2、P4、P5が順次入力される場合を例として示す。本実施の形態では、符号化データI3に対して画像内復号を行い、符号化データP1、P2、P4、P5に対して画像間復号を行うことにより、復号画像FD1〜FD5が生成される。符号化データI3は、特定画像が符号化装置6により符号化されているので、符号化データI3は逆量子化部202および逆直交変換部203により復号され、復号特定画像FD3として加算部204および露出補正逆変換部210による処理が施されることなく、第1蓄積部205に格納される(図16のa)。さらに、復号特定画像FD3は第3蓄積部211にも格納される(図16のb)。   The decoded image which is decoded and generated by the decoding device 7 will be described with reference to FIG. Note that FIG. 16 shows an example in which the coded data I3, P1, P2, P4 and P5 output in the form shown in FIG. 19 by the coding device 6 described above are sequentially input. In this embodiment, decoded images FD1 to FD5 are generated by performing intra-image decoding on the encoded data I3 and performing inter-image decoding on the encoded data P1, P2, P4, and P5. Since the specific image is encoded by the encoding device 6, the encoded data I3 is decoded by the inverse quantization unit 202 and the inverse orthogonal transformation unit 203, and the addition unit 204 and the decoded specific image FD3 are added. The image data is stored in the first storage unit 205 without being subjected to the processing by the exposure correction inverse conversion unit 210 (a in FIG. 16). Furthermore, the decoded specific image FD3 is also stored in the third storage unit 211 (b in FIG. 16).

復号対象画像が符号化データP1の場合には、符号化データP1に対して、第3蓄積部211内の復号特定画像FD3が参照画像として用いられて画像間復号が行われる。予測部208は、符号化データP1に関する予測情報を用いて、復号特定画像FD3から予測画像FD3aを生成する(図16のc)。符号化データP1は、符号化装置6によって予測誤差画像F1a(図15参照)が符号化されて生成されているので、逆量子化部202および逆直交変換部203により復号予測誤差画像FD1aが生成され、加算部204に入力される(図16のd)。加算部204は、復号予測誤差画像FD1aと予測画像FD3aとを加算して、露出変換前復号画像FD1bを生成する(図16のe)。   When the image to be decoded is the coded data P1, inter-image decoding is performed on the coded data P1 using the decoded specific image FD3 in the third storage unit 211 as a reference image. The prediction unit 208 generates a predicted image FD3a from the decoded specific image FD3 using the prediction information on the encoded data P1 (c in FIG. 16). Since the encoded data P1 is generated by encoding the prediction error image F1a (see FIG. 15) by the encoding device 6, the inverse quantization unit 202 and the inverse orthogonal transformation unit 203 generate a decoded prediction error image FD1a. And is input to the adding unit 204 (d in FIG. 16). The addition unit 204 adds the decoded prediction error image FD1a and the prediction image FD3a to generate a pre-exposure conversion decoded image FD1b (e in FIG. 16).

露出補正逆変換部210は、可変長符号復号部201から出力された露出補正値を参照して、露出変換前復号画像FD1bの露出値を、対応する画像F1の露出値EV1となるように逆変換処理を行う。逆変換処理が施された画像は復号画像FD1として第1蓄積部205に格納される(図16のf)。   The exposure correction inverse conversion unit 210 refers to the exposure correction value output from the variable-length code decoding unit 201 and inverts the exposure value of the pre-exposure conversion decoded image FD1b to the exposure value EV1 of the corresponding image F1. Perform conversion processing. The image subjected to the inverse transformation process is stored in the first accumulation unit 205 as a decoded image FD1 (f in FIG. 16).

復号対象画像が符号化データP2の場合には、符号化データP2に対して、第3蓄積部211内の復号画像FD3が参照画像として用いられて画像間復号が行われる。予測部208は、符号化データP2に関する予測情報を用いて、復号画像FD3から予測画像FD3bを生成する(図16のg)。符号化データP2は、符号化装置6によって予測誤差画像F2a(図15参照)が符号化されて生成されているので、逆量子化部202および逆直交変換部203により復号予測誤差画像FD2aが生成され、加算部204に入力される(図16のh)。加算部204は、復号予測誤差画像FD3bと、画像間予測部113により生成された予測画像FD2aとを加算して、露出変換前復号画像FD2bを生成する(図16のi)。   When the image to be decoded is the coded data P2, inter-image decoding is performed on the coded data P2 using the decoded image FD3 in the third accumulation unit 211 as a reference image. The prediction unit 208 generates a predicted image FD3b from the decoded image FD3 using the prediction information on the encoded data P2 (g in FIG. 16). Since the encoded data P2 is generated by encoding the prediction error image F2a (see FIG. 15) by the encoding device 6, the dequantization unit 202 and the inverse orthogonal transformation unit 203 generate the decoded prediction error image FD2a. And input to the adding unit 204 (h in FIG. 16). The addition unit 204 adds the decoded prediction error image FD3b and the prediction image FD2a generated by the inter-image prediction unit 113 to generate a pre-exposure conversion decoded image FD2b (i in FIG. 16).

露出補正逆変換部210は、符号化データP2に関する露出補正値を参照して、露出変換前復号画像FD2bの露出値を、対応する画像F2の露出値EV2となるように逆変換処理を行う。逆変換処理が施された画像は、復号画像FD2として第1蓄積部205に格納される(図14のj)。以後、上記の処理を繰り返し行うことにより、復号画像FD4、FD5を生成して、第1蓄積部205に格納する。   The exposure correction inverse conversion unit 210 performs inverse conversion processing so that the exposure value of the pre-exposure conversion image FD2b becomes the exposure value EV2 of the corresponding image F2 with reference to the exposure correction value related to the encoded data P2. The image subjected to the inverse transformation process is stored in the first accumulation unit 205 as a decoded image FD2 (j in FIG. 14). Thereafter, the above process is repeatedly performed to generate the decoded images FD4 and FD5, and the decoded images FD4 and FD5 are stored in the first storage unit 205.

上述した第5の実施の形態による符号化装置6および復号装置7によれば、第1の実施の形態により得られた作用効果と同様の作用効果が得られる。すなわち、参照画像の露出値と符号化対象画像の露出値とが異なる場合には、符号化対象画像の露出値を補正した後画像間符号化することにより、異なる露出値の画像間で生じる明るさの不一致を解消し、符号化データのデータ量を抑制することができる。さらに、画像間符号化と露出補正とを独立して、すなわち並列的に処理することができるので、従来の符号化方式を用いて符号化を行う符号化装置を用いて、本実施の形態による符号化方法により符号化データを生成することができる。   According to the encoding device 6 and the decoding device 7 according to the fifth embodiment described above, the same effects as the effects obtained by the first embodiment can be obtained. That is, when the exposure value of the reference image and the exposure value of the encoding target image are different, the brightness occurring between images of different exposure values by correcting the exposure value of the encoding target image and then performing inter-image encoding. Can be eliminated, and the amount of encoded data can be reduced. Furthermore, since inter-image coding and exposure correction can be processed independently, that is, in parallel, according to the present embodiment, a coding apparatus that performs coding using a conventional coding method is used. Encoded data can be generated by the encoding method.

−第6の実施の形態−
本発明の第6の実施の形態による符号化装置および復号装置について説明する。以下の説明では、第4の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第4の実施の形態と同じである。本実施の形態では、符号化装置は、入力画像を最大露出補正値に応じたゲインでゲイン補正する点が第4の実施の形態とは異なる。このため、符号化装置により生成された符号化データを復号する復号装置は、画像出力時に最大露出補正値に応じたゲインでゲイン逆補正する点が第4の実施の形態と異なる。また、符号化処理と復号処理の内部演算で扱える画像のビット深度を、符号化装置の入力画像や復号装置の出力画像のビット深度に対して、少なくとも露出補正範囲幅に相当するビット数以上拡張する点が第4の実施の形態と異なる。
-Sixth Embodiment-
An encoder and a decoder according to the sixth embodiment of the present invention will be described. In the following description, the same components as in the fourth embodiment will be assigned the same reference numerals and differences will be mainly described. The points that are not particularly described are the same as in the fourth embodiment. The present embodiment is different from the fourth embodiment in that the encoding apparatus performs gain correction on the input image with a gain corresponding to the maximum exposure correction value. Therefore, the decoding apparatus for decoding the encoded data generated by the encoding apparatus is different from the fourth embodiment in that the gain inverse correction is performed with the gain according to the maximum exposure correction value at the time of image output. In addition, the bit depth of the image that can be handled by the internal operation of the encoding process and the decoding process is expanded by at least the number of bits equivalent to the exposure correction range width to the bit depth of the input image of the encoding device Is different from the fourth embodiment.

−−符号化装置−−
図20は、第6の実施の形態における符号化装置8の構成を示すブロック図である。符号化装置8は、第4の実施の形態による符号化装置4が備える構成に加えて、ゲイン補正部117を備える。また、符号化装置8は、入力画像のビット深度に対して少なくとも露出補正範囲幅に応じたビット数分だけ対応ビット深度を拡張する。例えば、入力画像のビット深度が8bit、露出補正範囲幅に応じたビット数分が4bitならば、少なくとも12bitの画像を符号化できるように、符号化装置8の対応ビット深度を拡張する。なお、図示の都合上、制御部100から各部への信号出力を省略して示すとともに、符号化装置8の各構成にて生成されるデータを合わせて模式的に示す。
--Encoding device--
FIG. 20 is a block diagram showing the configuration of the coding device 8 in the sixth embodiment. The encoding device 8 includes a gain correction unit 117 in addition to the configuration of the encoding device 4 according to the fourth embodiment. Further, the encoding device 8 extends the corresponding bit depth by the number of bits according to at least the exposure correction range width with respect to the bit depth of the input image. For example, if the bit depth of the input image is 8 bits and the bit number corresponding to the exposure correction range width is 4 bits, the corresponding bit depth of the encoding device 8 is extended so that an image of at least 12 bits can be encoded. Note that, for convenience of illustration, signal output from the control unit 100 to each unit is omitted and shown, and data generated by each configuration of the encoding device 8 is schematically shown together.

ゲイン補正部117は、入力画像の各サンプル値に、外部から入力する一連の符号化における最大露出補正値に応じたゲイン補正係数値を乗じて、入力画像をゲイン補正して出力する。最大露出補正値ΔEVmaxが零、もしくは、負ならゲイン補正係数値は1、最大露出補正値ΔEVmaxが正ならゲイン補正係数値は2ΔEVである。例えば、最大露出補正値ΔEVmax=2ならゲイン補正係数値は2=4であり、入力画像の各サンプル値に、ゲイン補正係数値4を乗じて出力する。 The gain correction unit 117 multiplies each sample value of the input image by a gain correction coefficient value corresponding to the maximum exposure correction value in the series of encoding input from the outside, and performs gain correction on the input image and outputs the result. If the maximum exposure correction value ΔEVmax is zero or negative, the gain correction coefficient value is 1, and if the maximum exposure correction value ΔEVmax is positive, the gain correction coefficient value is 2 ΔEV . For example, if the maximum exposure correction value ΔEVmax = 2, the gain correction coefficient value is 2 2 = 4, and each sample value of the input image is multiplied by the gain correction coefficient value 4 and output.

なお、可変長符号化部105は、第1の実施の形態のように、量子化部104から出力された量子化係数、予測制御情報生成部112から出力される動きベクトル等の予測制御情報、補正値算出部110から出力される露出補正値等に加えて、ゲイン補正値、復号処理の内部演算で必要なビット深度を可変長符号化することにより、符号化データを出力する。他の構成については、第4の実施の形態と同様の処理を行う。すなわち、ゲイン補正部117によってゲイン補正が施された画像に対して符号化データが生成される。その結果、図17(b)に示すように、画像F2〜F3については、露出値が−1EVだけ補正された後、直前の画像との間で画像間符号化が行われて、符号化データP2〜P5が出力される。   Note that, as in the first embodiment, the variable-length coding unit 105 is prediction control information such as the quantization coefficient output from the quantization unit 104, the motion vector output from the prediction control information generation unit 112, In addition to the exposure correction value and the like output from the correction value calculation unit 110, the encoded data is output by subjecting the gain correction value and the bit depth necessary for the internal calculation of the decoding process to variable length coding. About the other structure, the process similar to 4th Embodiment is performed. That is, encoded data is generated for the image subjected to gain correction by the gain correction unit 117. As a result, as shown in FIG. 17B, for the images F2 to F3, after the exposure value is corrected by −1 EV, inter-image encoding is performed with the immediately preceding image, and encoded data is generated. P2 to P5 are output.

前述したように、符号化装置8は、少なくとも露出補正範囲幅に応じたビット数分だけ対応ビット深度を拡張する。図17の場合は、露出補正範囲幅は1(=−1〜0)なので、拡張ビット数は1ビットである。例えば、入力画像のビット深度が8bitならば、符号化装置8は、内部演算で少なくとも9bitの画像を符号化できるようにする。これにより、符号化対象画像を明るくするような露出補正することで白とびした画像を符号化してしまうことを防ぐことができる。   As described above, the encoding device 8 extends the corresponding bit depth by at least the number of bits corresponding to the exposure correction range width. In the case of FIG. 17, since the exposure correction range width is 1 (= −1 to 0), the number of extension bits is 1 bit. For example, if the bit depth of the input image is 8 bits, the encoding device 8 enables an internal operation to encode an image of at least 9 bits. In this way, it is possible to prevent encoding of the overexposed image by performing exposure correction to brighten the encoding target image.

なお、第2の実施の形態の符号化装置1と同様の方法により符号化処理を行うものについても本発明の一態様に含まれる。すなわち、図18に示すように、画像F3を特定画像として画像内符号化、画像F2と画像F4は画像F3を参照画像に画像間符号化、画像F1と画像F5はそれぞれ画像F2と画像F4を参照画像として画像間符号化する。図18の場合は、露出補正範囲幅は2(=−1〜1)なので、拡張ビット数は2ビットである。例えば、入力画像のビット深度が8bitならば、符号化装置4は、内部演算で少なくとも10bitの画像を符号化できるようにする。これにより、符号化対象画像を明るくするような露出補正することで白とびした画像を符号化してしまう、また、符号化対象画像を暗くするような露出補正することで黒つぶれした画像を符号化してしまう、ことを防ぐことができる。   An aspect of the present invention also includes one that performs encoding processing by the same method as the encoding device 1 of the second embodiment. That is, as shown in FIG. 18, intra-image encoding is performed with the image F3 as a specific image, and the images F2 and F4 are inter-image encoded with the image F3 as a reference image, and the images F1 and F5 are the images F2 and F4, respectively. Inter-image encoding as a reference image. In the case of FIG. 18, since the exposure correction range width is 2 (= −1 to 1), the number of extension bits is 2 bits. For example, if the bit depth of the input image is 8 bits, the encoding device 4 enables an internal operation to encode an image of at least 10 bits. As a result, the overexposed image is encoded by performing the exposure correction to brighten the encoding target image, and the blackout image is encoded by performing the exposure correction to darken the encoding target image Can be prevented.

また、第3の実施の形態の符号化装置1と同様の方法により符号化処理を行うものについても本発明の一態様に含まれる。すなわち、図19に示すように、画像F3を特定画像として画像内符号化、画像F1、画像F2、画像F4、画像F5は画像F3を参照画像として画像間符号化する。図19の場合は、露出補正範囲幅は4(=−2〜2)なので、拡張ビット数は4ビットである。例えば、入力画像のビット深度が8bitならば、符号化装置4は、内部演算で少なくとも12bitの画像を符号化できるようにする。これにより、符号化対象画像を明るくするような露出補正することで白とびした画像を符号化してしまう、また、符号化対象画像を暗くするような露出補正することで黒つぶれした画像を符号化してしまう、ことを防ぐことができる。   Further, an aspect of the present invention also includes one that performs encoding processing by the same method as the encoding device 1 of the third embodiment. That is, as shown in FIG. 19, intra-image encoding is performed with the image F3 as a specific image, and inter-image encoding is performed with the image F1, the image F2, the image F4, and the image F5 using the image F3 as a reference image. In the case of FIG. 19, since the exposure correction range width is 4 (= 2 to 2), the number of extension bits is 4 bits. For example, if the bit depth of the input image is 8 bits, the encoding device 4 can encode an image of at least 12 bits by an internal operation. As a result, the overexposed image is encoded by performing the exposure correction to brighten the encoding target image, and the blackout image is encoded by performing the exposure correction to darken the encoding target image Can be prevented.

−−復号装置−−
次に、上述した符号化装置4により出力された符号化データを復号して、画像を出力する復号装置5について説明する。
図21は、本実施の形態による復号装置9の構成を示すブロック図である。復号装置5は、第4の実施の形態における復号装置5が備える構成に加えて、ゲイン逆補正部212を備える。また、復号装置5は、符号化装置4からの符号化データに含まれる、復号処理の内部演算で必要なビット深度に応じて内部演算できるようを設定する。なお、図示の都合上、制御部200から各部への信号出力を省略して示すとともに、復号装置9の各構成にて生成されるデータを合わせて模式的に示す。
-Decoding device--
Next, the decoding device 5 that decodes the encoded data output by the above-described encoding device 4 and outputs an image will be described.
FIG. 21 is a block diagram showing a configuration of decoding apparatus 9 according to the present embodiment. The decoding device 5 includes a gain decompensation unit 212 in addition to the configuration of the decoding device 5 in the fourth embodiment. In addition, the decoding device 5 is configured to be able to perform internal calculation in accordance with the bit depth required in the internal calculation of the decoding process, which is included in the encoded data from the encoding device 4. Note that, for convenience of illustration, signal output from the control unit 200 to each unit is omitted and shown, and data generated in each configuration of the decoding device 9 is schematically shown together.

可変長復号部201は、第1の実施の形態のように、符号化装置8から出力された、連続撮影された露出値が異なる複数の画像のそれぞれに対応する符号化データを入力し、符号化データのそれぞれに含まれる量子化係数や、動きベクトル等の予測情報、露出補正値等に加えて、ゲイン補正値、復号処理の内部演算で必要なビット深度を出力する。ゲイン逆補正部212は、第1蓄積部205からの画像の各サンプル値を、可変長復号部201からのゲイン補正で除算して、ゲイン逆補正して出力する。他の構成については、第4の実施の形態と同様の処理を行う。すなわち、符号化装置8のゲイン補正部117によってゲイン補正が施された画像に対して符号化処理により生成された符号化データに対して、復号を行った後ゲイン逆補正することによって、符号化および復号の際に白とびや黒つぶれの発生を抑制することができる。   As in the first embodiment, the variable-length decoding unit 201 receives encoded data corresponding to each of a plurality of continuously captured images having different exposure values, which are output from the encoding device 8, and In addition to the quantization coefficient included in each of the quantization data, prediction information such as a motion vector, an exposure correction value, etc., a gain correction value and a bit depth necessary for internal calculation of decoding processing are output. The inverse gain correction unit 212 divides each sample value of the image from the first storage unit 205 by the gain correction from the variable length decoding unit 201, and performs inverse gain correction for output. About the other structure, the process similar to 4th Embodiment is performed. That is, encoding is performed by performing gain inverse correction on the encoded data generated by the encoding processing on the image on which gain correction has been performed by the gain correction unit 117 of the encoding device 8. In addition, the occurrence of overexposure and underexposure can be suppressed during decoding.

上述した第6の実施の形態による符号化装置8および復号装置9によれば、第4の実施の形態により得られた作用効果に加えて、次の作用効果が得られる。すなわち、符号化装置8は、符号化対象画像の最大露出補正値に応じて符号化対象画像のゲイン(増幅率)を補正するゲイン補正部117をさらに備え、露出補正部111はゲイン補正後の符号化対象画像の露出値を補正するようにした。したがって、これにより、符号化対象画像を明るくするような露出補正をする場合や、号化対象画像を暗くするような露出補正をする場合に、白とびした画像を符号化したり黒つぶれした画像を符号化したりすることを防ぐことができる。さらに、復号装置9は、第1蓄積部205からの画像についてゲイン逆補正を施すゲイン逆補正部212を備える。したがって、符号化装置8によってゲイン補正が施された符号化データを復号した後にゲイン逆補正をすることにより、符号化および復号の際に白とびや黒つぶれの発生を抑制することができる。   According to the encoding device 8 and the decoding device 9 according to the sixth embodiment described above, the following effects can be obtained in addition to the effects obtained by the fourth embodiment. That is, the encoding apparatus 8 further includes a gain correction unit 117 that corrects the gain (amplification factor) of the encoding target image according to the maximum exposure correction value of the encoding target image, and the exposure correction unit 111 performs gain correction. The exposure value of the image to be encoded is corrected. Accordingly, when performing exposure correction to lighten the encoding target image or performing exposure correction to darken the encoding target image, the image in which the overexposure has been encoded or the blackout is thus displayed. Encoding can be prevented. Furthermore, the decoding device 9 includes a gain decompensation unit 212 that performs gain decompensation on the image from the first accumulation unit 205. Therefore, by performing gain reverse correction after decoding encoded data to which gain correction has been performed by the encoding device 8, it is possible to suppress the occurrence of overexposure and underexposure at the time of encoding and decoding.

−第7の実施の形態−
本発明の第7の実施の形態による符号化装置および復号装置について説明する。以下の説明では、第5の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第5の実施の形態と同じである。本実施の形態では、符号化装置は、入力画像を最大露出補正値に応じたゲインでゲイン補正する点が第51の実施の形態とは異なる。このため、符号化装置により生成された符号化データを復号する復号装置の構成についても第5の実施の形態と異なる。符号化装置により生成された符号化データを復号する復号装置は、参照画像との間で画像間復号後、復号対象画像の露出値を逆補正する点、画像出力時に最大露出補正値に応じたゲインでゲイン逆補正する点が第3の実施の形態と異なる。また、符号化処理と復号処理の内部演算で扱える画像のビット深度を、符号化装置の入力画像や復号装置の出力画像のビット深度に対して、少なくとも露出補正範囲幅に相当するビット数以上拡張する点が第5の実施の形態と異なる。
-Seventh Embodiment-
A coding apparatus and a decoding apparatus according to a seventh embodiment of the present invention will be described. In the following description, the same components as in the fifth embodiment will be assigned the same reference numerals and differences will be mainly described. The points that are not particularly described are the same as in the fifth embodiment. The present embodiment is different from the 51st embodiment in that the encoding apparatus performs gain correction of the input image with a gain corresponding to the maximum exposure correction value. Therefore, the configuration of a decoding device that decodes the encoded data generated by the encoding device is also different from that of the fifth embodiment. The decoding device for decoding the encoded data generated by the encoding device reversely corrects the exposure value of the image to be decoded after the inter-image decoding with the reference image, and according to the maximum exposure correction value at the time of image output This embodiment differs from the third embodiment in that the gain is inversely corrected by the gain. In addition, the bit depth of the image that can be handled by the internal operation of the encoding process and the decoding process is expanded by at least the number of bits equivalent to the exposure correction range width to the bit depth of the input image of the encoding device and the output image of the decoding device Is different from the fifth embodiment.

−−符号化装置−−
図22は、第7の実施の形態における符号化装置10の構成を示すブロック図である。符号化装置10は、第5の実施の形態による符号化装置6が備える構成に加えて、第6の実施の形態の符号化装置8が有するゲイン補正部117をさらに備える。また、符号化装置10は、入力画像のビット深度に対して少なくとも露出補正範囲幅に応じたビット数分だけ対応ビット深度を拡張する。例えば、入力画像のビット深度が8bit、露出補正範囲幅に応じたビット数分が4bitならば、少なくとも12bitの画像を符号化できるように、符号化装置6の対応ビット深度を拡張する。なお、図示の都合上、制御部100から各部への信号出力を省略して示すとともに、符号化装置10の各構成にて生成されるデータを合わせて模式的に示す。
--Encoding device--
FIG. 22 is a block diagram showing the configuration of the coding apparatus 10 in the seventh embodiment. In addition to the configuration of the encoding device 6 according to the fifth embodiment, the encoding device 10 further includes a gain correction unit 117 of the encoding device 8 of the sixth embodiment. In addition, the encoding device 10 extends the corresponding bit depth by the number of bits according to at least the exposure correction range width with respect to the bit depth of the input image. For example, if the bit depth of the input image is 8 bits and the number of bits corresponding to the exposure correction range width is 4 bits, the corresponding bit depth of the encoding device 6 is extended so that an image of at least 12 bits can be encoded. Note that, for convenience of illustration, signal output from the control unit 100 to each unit is omitted and shown, and data generated by each configuration of the encoding device 10 is schematically shown together.

ゲイン補正部117は、第6の実施の形態にて説明したように、入力画像の各サンプル値に、外部から入力する一連の符号化における最大露出補正値に応じたゲイン補正係数値を乗じて、入力画像をゲイン補正して出力する。最大露出補正値ΔEVmaxが零、もしくは、負ならゲイン補正係数値は1、最大露出補正値ΔEVmaxが正ならゲイン補正係数値は2ΔEVである。例えば、最大露出補正値ΔEVmax=2ならゲイン補正係数値は22=4であり、入力画像の各サンプル値に、ゲイン補正係数値4を乗じて出力する。なお、可変長符号化部105は、第3の実施の形態のように、量子化部104から出力された量子化係数、予測制御情報生成部111から出力される動きベクトル等の予測制御情報、補正値算出部110から出力される露出補正値等に加えて、ゲイン補正値、復号処理の内部演算で必要なビット深度を可変長符号化することにより、符号化データを出力する。   As described in the sixth embodiment, the gain correction unit 117 multiplies each sample value of the input image by a gain correction coefficient value according to the maximum exposure correction value in a series of encoding input from the outside. , Gain correction of the input image and output. If the maximum exposure correction value ΔEVmax is zero or negative, the gain correction coefficient value is 1, and if the maximum exposure correction value ΔEVmax is positive, the gain correction coefficient value is 2ΔEV. For example, if the maximum exposure correction value ΔEVmax = 2, the gain correction coefficient value is 22 = 4, and each sample value of the input image is multiplied by the gain correction coefficient value 4 and output. Note that, as in the third embodiment, the variable-length coding unit 105 predicts control information such as the quantization coefficient output from the quantization unit 104, the motion vector output from the prediction control information generation unit 111, In addition to the exposure correction value and the like output from the correction value calculation unit 110, the encoded data is output by subjecting the gain correction value and the bit depth necessary for the internal calculation of the decoding process to variable length coding.

他の構成については、第5の実施の形態と同様の処理を行う。すなわち、ゲイン補正部117によってゲイン補正が施された画像に対して符号化データが生成される。すなわち、図19に示すように、画像F3を特定画像として画像内符号化、画像F1、画像F2、画像F4、画像F5は画像F3を参照画像として画像間符号化する。図19の場合は、露出補正範囲幅は4(=−2〜2)なので、拡張ビット数は4ビットである。例えば、入力画像のビット深度が8bitならば、符号化装置4は、内部演算で少なくとも12bitの画像を符号化できるようにする。これにより、符号化対象画像を明るくするような露出補正することで白とびした画像を符号化してしまう、また、符号化対象画像を暗くするような露出補正することで黒つぶれした画像を符号化してしまう、ことを防ぐことができる。   The other processes are performed in the same manner as in the fifth embodiment. That is, encoded data is generated for the image subjected to gain correction by the gain correction unit 117. That is, as shown in FIG. 19, intra-image encoding is performed with the image F3 as a specific image, and inter-image encoding is performed with the image F1, the image F2, the image F4, and the image F5 using the image F3 as a reference image. In the case of FIG. 19, since the exposure correction range width is 4 (= 2 to 2), the number of extension bits is 4 bits. For example, if the bit depth of the input image is 8 bits, the encoding device 4 can encode an image of at least 12 bits by an internal operation. As a result, the overexposed image is encoded by performing the exposure correction to brighten the encoding target image, and the blackout image is encoded by performing the exposure correction to darken the encoding target image Can be prevented.

−−復号装置−−
次に、上述した符号化装置10により出力された符号化データを復号して、画像を出力する復号装置11について説明する。
図23は、本実施の形態による復号装置11の構成を示すブロック図である。復号装置7は、第5の実施の形態による復号装置7が備える構成に加えて、第6の実施の形態による復号装置9が有するゲイン逆補正部212を備える。また、復号装置11は、符号化装置10からの符号化データに含まれる、復号処理の内部演算で必要なビット深度に応じて内部演算できるようを設定する。なお、図示の都合上、制御部200から各部への信号出力を省略して示すとともに、図23においては、復号装置11の各構成にて生成されるデータを合わせて模式的に示す。
-Decoding device--
Next, the decoding device 11 that decodes the encoded data output by the above-described encoding device 10 and outputs an image will be described.
FIG. 23 is a block diagram showing a configuration of decoding apparatus 11 according to the present embodiment. The decoding device 7 includes a gain decompensation unit 212 of the decoding device 9 according to the sixth embodiment, in addition to the configuration of the decoding device 7 according to the fifth embodiment. In addition, the decoding device 11 is configured to be able to perform internal calculation according to the bit depth required for internal calculation of the decoding process, which is included in the encoded data from the encoding device 10. Note that, for convenience of illustration, signal output from the control unit 200 to each unit is omitted and shown, and in FIG. 23, data generated by each configuration of the decoding device 11 is schematically shown together.

可変長復号部201は、第1の実施の形態のように、符号化装置6から出力された、連続撮影された露出値が異なる複数の画像のそれぞれに対応する符号化データを入力し、符号化データのそれぞれに含まれる量子化係数や、動きベクトル等の予測情報、露出補正値等に加えて、ゲイン補正値、復号処理の内部演算で必要なビット深度を出力する。ゲイン逆補正部212は、第一蓄積部205からの画像の各サンプル値を、可変長復号部201からのゲイン補正で除算して、ゲイン逆補正して出力する。他の構成については、第5の実施の形態と同様の処理を行う。すなわち、符号化装置10のゲイン補正部117によってゲイン補正が施された画像に対して符号化処理により生成された符号化データに対して、復号を行った後ゲイン逆補正することによって、符号化および復号の際に白とびや黒つぶれの発生を抑制することができる。   As in the first embodiment, the variable-length decoding unit 201 receives encoded data corresponding to each of a plurality of continuously captured images having different exposure values output from the encoding device 6, and In addition to the quantization coefficient included in each of the quantization data, prediction information such as a motion vector, an exposure correction value, etc., a gain correction value and a bit depth necessary for internal calculation of decoding processing are output. The gain decompensation unit 212 divides each sample value of the image from the first accumulation unit 205 by the gain compensation from the variable length decoding unit 201, performs gain inverse compensation, and outputs the result. The other processes are performed in the same manner as in the fifth embodiment. That is, encoding is performed by performing inverse gain correction on encoded data generated by the encoding processing on an image on which gain correction has been performed by the gain correction unit 117 of the encoding device 10. In addition, the occurrence of overexposure and underexposure can be suppressed during decoding.

上述した第7の実施の形態による符号化装置10および復号装置11によれば、第5の実施の形態により得られた作用効果に加えて、次の作用効果が得られる。すなわち、符号化装置10は、符号化対象画像の最大露出補正値に応じて符号化対象画像のゲイン(増幅率)を補正するゲイン補正部117をさらに備え、露出補正部111はゲイン補正後の符号化対象画像の露出値を補正するようにした。したがって、これにより、符号化対象画像を明るくするような露出補正をする場合や、号化対象画像を暗くするような露出補正をする場合に、白とびした画像を符号化したり黒つぶれした画像を符号化したりすることを防ぐことができる。さらに、復号装置11は、第1蓄積部205からの画像についてゲイン逆補正を施すゲイン逆補正部212を備える。したがって、符号化装置10によってゲイン補正が施された符号化データを復号した後にゲイン逆補正をすることにより、符号化および復号の際に白とびや黒つぶれの発生を抑制することができる。   According to the coding apparatus 10 and the decoding apparatus 11 according to the seventh embodiment described above, the following operation and effect can be obtained in addition to the operation and effect obtained by the fifth embodiment. That is, the encoding apparatus 10 further includes a gain correction unit 117 that corrects the gain (amplification factor) of the encoding target image according to the maximum exposure correction value of the encoding target image, and the exposure correction unit 111 performs gain correction. The exposure value of the image to be encoded is corrected. Accordingly, when performing exposure correction to lighten the encoding target image or performing exposure correction to darken the encoding target image, the image in which the overexposure has been encoded or the blackout is thus displayed. Encoding can be prevented. Furthermore, the decoding device 11 includes a gain decompensation unit 212 that performs gain decompensation on the image from the first accumulation unit 205. Therefore, it is possible to suppress the occurrence of overexposure and underexposure at the time of encoding and decoding by performing gain reverse correction after decoding encoded data for which gain correction has been performed by the encoding device 10.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(1)ガンマ補正適用RGB形式やガンマ補正適用YUV形式の画像を符号化対象画像とするものに限定されず、たとえばXYZ形式や他の形式の画像を符号化対象画像とするものについても本発明の一態様に含まれる。特に、第3の実施の形態にて説明した輝度成分のみについて露出補正を行う場合には、NISC方式におけるYIQ形式、HSV形式、HLS形式等の輝度や明るさを表す成分と色を表す成分からなる形式の画像を符号化対象画像としてもよい。たとえばYIQ形式の場合にはY成分、HSV形式の場合にはV成分、HLS形式の場合にはL成分を補正すれば良い。
さらには、単板の撮像素子を備える撮像装置から出力されるCFA形式、たとえばBayer形式の画像を符号化対象画像としてもよい。この場合、たとえば2×2画素のPGGB成分を成分ごとに分離して符号化することができる。
The following modifications are also within the scope of the present invention, and one or more of the modifications can be combined with the above-described embodiment.
(1) The present invention is not limited to the case where an image of gamma correction application RGB format or gamma correction application YUV format is to be an encoding target image, for example, an image of XYZ format or other format is to be an encoding target image. It is included in one aspect. In particular, when the exposure correction is performed only for the luminance component described in the third embodiment, components representing luminance and brightness such as YIQ format, HSV format, and HLS format in the NISC system and components representing color are used. An image of the following format may be used as a coding target image. For example, the Y component in the case of the YIQ format, the V component in the case of the HSV format, and the L component in the case of the HLS format may be corrected.
Furthermore, an image of a CFA format, for example, a Bayer format output from an imaging apparatus including a single-plate imaging device may be used as a coding target image. In this case, for example, PGGB components of 2 × 2 pixels can be separated and encoded for each component.

(2)可変長符号化部105は、参照画像の露出補正値を符号化するものに代えて、各画像の撮影時の露出値を符号化してもよいし、各画像の撮影露光時間、撮影絞り値、撮影露出補正値(以後、撮影条件情報と呼ぶ)を符号化してもよい。この場合、撮影条件情報は、各画像に付加されるヘッダ情報や補助情報、たとえば、MPEG−2ビデオ(ISO/IEC13818−2)に従う符号化データ形式ならばピクチャ層ヘッダ領域のユーザデータとして符号化すればよく、AVC(ISO/IEC14496−10)に従う符号化データ形式ならばピクチャ層に付随するSEIメッセージとして符号化すればよい。
各画像の撮影条件情報を符号化した場合には、復号装置はこれらの撮影条件情報を用いて、各画像の露出値や参照画像の露出補正値を算出することができる。
(2) The variable-length coding unit 105 may encode the exposure value at the time of shooting of each image instead of coding the exposure correction value of the reference image, or the shooting exposure time of each image, shooting The aperture value and the shooting exposure correction value (hereinafter referred to as shooting condition information) may be encoded. In this case, the shooting condition information is encoded as header information or auxiliary information added to each image, for example, as user data of a picture layer header area in the case of encoded data format according to MPEG-2 video (ISO / IEC 13818-2) What is necessary is to encode the data format according to AVC (ISO / IEC 14496-10) as an SEI message attached to the picture layer.
When the photographing condition information of each image is encoded, the decoding apparatus can calculate the exposure value of each image and the exposure correction value of the reference image using the photographing condition information.

(3)本発明の態様は、連続的に撮影された複数の露出値の異なる画像に対する符号化および復号に限定されず、連続的に撮影された複数のISO感度の異なる画像に対する符号化および復号についても含まれる。この場合、ISO感度に基づいて露出補正値の算出を行えばよい。 (3) The aspect of the present invention is not limited to encoding and decoding for images with different exposure values captured continuously, but encoding and decoding for images with different ISO sensitivity captured continuously. Is also included. In this case, the exposure correction value may be calculated based on the ISO sensitivity.

(4)本発明の態様は、連続的に撮影された複数の露出地の異なる画像に対する符号化および複合に限定されず、たとえば特開平7−131704号公報に記載の、複数の撮像素子を用いて異なる露出値で同時に撮影した露出値の異なる複数の画像、に対する符号化および復号についても含まれる。 (4) The aspect of the present invention is not limited to encoding and combining for a plurality of continuously exposed images of different exposed locations, and uses, for example, a plurality of imaging devices described in JP-A-7-131704. It also includes encoding and decoding for multiple images of different exposure values, taken simultaneously at different exposure values.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   The present invention is not limited to the above embodiment as long as the features of the present invention are not impaired, and other embodiments considered within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1、4、6、8、10…符号化装置、2、5、7、9、11…復号装置、
102…減算部、103…直交変換部、104…量子化部、
105…可変長符号化部、110…補正値算出部、111…露出補正部、
115…露出補正逆変換部、117…ゲイン補正部、201…可変長復号部、
202…逆量子化部、203…逆直交変換部、207…露出補正部、
210…露出補正逆変換部、212…ゲイン逆補正部
1, 4, 6, 8, 10: Encoding device, 2, 5, 7, 9, 11 ... Decoding device,
102 ... subtraction unit, 103 ... orthogonal transformation unit, 104 ... quantization unit,
105: variable length coding unit, 110: correction value calculation unit, 111: exposure correction unit,
115: exposure correction inverse conversion unit, 117: gain correction unit, 201: variable length decoding unit,
202 ... inverse quantization unit, 203 ... inverse orthogonal transformation unit, 207 ... exposure correction unit,
210: Exposure correction inverse conversion unit, 212: Gain inverse correction unit

Claims (9)

露出値が異なる複数の画像のうちの第1の画像に符号化を行い第1の符号化画像を生成する第1符号化部と、
前記複数の画像のうちの第2の画像に、前記第1の符号化画像の一部を復号化した画像を第1の参照画像として用いて画像間符号化を行い第2の符号化画像を生成する第2符号化部と、
前記第2の画像の露出値と、前記第1の参照画像の露出値とのうちの一方を他方にほぼ一致させる補正を行う補正部と、を備え、
前記第2符号化部は、前記補正部による補正が行われた前記第2の画像、または前記補正部による補正が行われた前記第1の参照画像を用いて前記画像間符号化を行う画像処理装置。
A first encoding unit that encodes a first image of a plurality of images having different exposure values to generate a first encoded image;
Inter-picture encoding is performed on a second image of the plurality of images using an image obtained by decoding a part of the first encoded image as a first reference image. A second encoding unit to generate;
And a correction unit that performs correction so that one of the exposure value of the second image and the exposure value of the first reference image substantially matches the other.
The second encoding unit performs the inter-image encoding using the second image corrected by the correction unit or the first reference image corrected by the correction unit. Processing unit.
請求項1に記載の画像処理装置において、
前記第2符号化部は、前記複数の画像のうちの第3の画像に、前記第2の符号化画像の一部を復号化した画像を第2の参照画像として用いて前記画像間符号化を行い第3の符号化画像を生成し、
前記補正部は、前記第3の画像の露出値と、前記第2の参照画像の露出値とのうちの一方を他方にほぼ一致させる補正を行い、
前記第2符号化部は、前記補正部による補正が行われた前記第3の画像、または前記補正部による補正が行われた前記第2の参照画像を用いて前記画像間符号化を行う画像処理装置。
In the image processing apparatus according to claim 1,
The second encoding unit performs the inter-picture encoding using, as a second reference image, an image obtained by decoding a part of the second encoded image into a third image of the plurality of images. To generate a third encoded image,
The correction unit performs correction so that one of the exposure value of the third image and the exposure value of the second reference image substantially matches the other.
The second encoding unit performs the inter-image encoding using the third image corrected by the correction unit or the second reference image corrected by the correction unit Processing unit.
請求項1または2に記載の画像処理装置において、
前記補正部は、前記複数の画像のうちの全ての画像の露出値を補正して、前記第1の参照画像の露出値とほぼ一致させる画像処理装置。
The image processing apparatus according to claim 1 or 2
The image processing apparatus according to claim 1, wherein the correction unit corrects the exposure value of all the images among the plurality of images so as to substantially match the exposure value of the first reference image.
露出値が異なる複数の画像のうちの第1の画像に、第1の参照画像を用いて画像間符号化を行い、第1の符号化画像を生成する第1符号化部と、
前記複数の画像のうちの第2の画像に、前記第1の符号化画像の一部を復号化した画像を第2の参照画像として用いて前記画像間符号化を行い、第2の符号化画像を生成する第2符号化部と、
前記第2の画像の露出値と、前記第2の参照画像の露出値とのうちの一方を他方にほぼ一致させる補正を行う補正部と、を備え、
前記第2符号化部は、前記補正部による補正が行われた前記第2の画像、または前記補正部による補正が行われた前記第2の参照画像を用いて前記画像間符号化を行う画像処理装置。
A first encoding unit that performs inter-image encoding on a first image of a plurality of images having different exposure values using the first reference image to generate a first encoded image;
The second image of the plurality of images is subjected to the inter-picture encoding using an image obtained by decoding a part of the first encoded image as a second reference image, and the second encoding A second encoding unit that generates an image;
And a correction unit that performs correction so that one of the exposure value of the second image and the exposure value of the second reference image substantially matches the other.
The second encoding unit performs the inter-image encoding using the second image corrected by the correction unit or the second reference image corrected by the correction unit Processing unit.
請求項4に記載の画像処理装置において、
前記補正部は、前記複数の画像のうちの全ての画像の露出値を補正して、前記第2の参照画像の露出値とほぼ一致させる画像処理装置。
In the image processing apparatus according to claim 4,
The image processing apparatus according to claim 1, wherein the correction unit corrects the exposure values of all the images among the plurality of images so as to substantially match the exposure values of the second reference image.
請求項1から5のいずれか1項に記載の画像処理装置において、
前記画像の増幅率を補正する増幅率補正部をさらに備え、
前記補正部は、前記増幅率補正部によって補正された画像の露出値を補正する画像処理装置。
The image processing apparatus according to any one of claims 1 to 5.
The image processing apparatus further comprises an amplification factor correction unit that corrects the amplification factor of the image.
The image processing apparatus, wherein the correction unit corrects an exposure value of the image corrected by the amplification factor correction unit.
請求項1から6のいずれか1項に記載の画像処理装置において、
前記補正部は、前記画像が輝度成分に露出補正を行う画像処理装置。
The image processing apparatus according to any one of claims 1 to 6.
The correction unit is an image processing apparatus that performs exposure correction on the luminance component of the image.
請求項1から7のいずれか1項に記載の画像処理装置において、
前記補正部による露出値の補正に関する情報を符号化する第3符号化部を備える画像処理装置。
The image processing apparatus according to any one of claims 1 to 7.
An image processing apparatus comprising: a third encoding unit that encodes information related to the correction of the exposure value by the correction unit.
請求項1から8のいずれか1項に記載の画像処理装置において、
前記補正部による露出値の補正に関する情報と前記画像とを関連付けて記憶する記憶部を備える画像処理装置。
The image processing apparatus according to any one of claims 1 to 8.
An image processing apparatus, comprising: a storage unit that stores information related to the correction of the exposure value by the correction unit and the image.
JP2019073763A 2019-04-08 2019-04-08 Image processing device Pending JP2019106741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019073763A JP2019106741A (en) 2019-04-08 2019-04-08 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019073763A JP2019106741A (en) 2019-04-08 2019-04-08 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014126450A Division JP2016005244A (en) 2014-06-19 2014-06-19 Image encoding device, image decoding device, image encoding method and image decoding method

Publications (1)

Publication Number Publication Date
JP2019106741A true JP2019106741A (en) 2019-06-27

Family

ID=67061553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019073763A Pending JP2019106741A (en) 2019-04-08 2019-04-08 Image processing device

Country Status (1)

Country Link
JP (1) JP2019106741A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220078321A1 (en) * 2020-09-09 2022-03-10 Canon Kabushiki Kaisha Image capturing control apparatus, method for controlling image capturing apparatus, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007114368A1 (en) * 2006-03-30 2007-10-11 Kabushiki Kaisha Toshiba Image coding apparatus and method, and image decoding apparatus and method
JP2012515493A (en) * 2009-01-19 2012-07-05 シャープ株式会社 Method and system for extended dynamic range images and video from multiple exposures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007114368A1 (en) * 2006-03-30 2007-10-11 Kabushiki Kaisha Toshiba Image coding apparatus and method, and image decoding apparatus and method
JP2012515493A (en) * 2009-01-19 2012-07-05 シャープ株式会社 Method and system for extended dynamic range images and video from multiple exposures

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220078321A1 (en) * 2020-09-09 2022-03-10 Canon Kabushiki Kaisha Image capturing control apparatus, method for controlling image capturing apparatus, and storage medium
US11711619B2 (en) * 2020-09-09 2023-07-25 Canon Kabushiki Kaisha Controlling exposure based on inverse gamma characteristic

Similar Documents

Publication Publication Date Title
RU2512130C2 (en) Device and method for high-resolution imaging at built-in device
EP2612499B1 (en) Method and system for illumination compensation and transition for video coding and processing
JP5372911B2 (en) Per-pixel weighting for intra-frame coding
JP6584501B2 (en) Decoding method, encoding method, decoding apparatus, encoding method, program
US8000389B2 (en) Method and device for coding a video picture in inter or intra mode
US8457439B2 (en) System and method for reducing artifacts in images
JP5352448B2 (en) Inverse quantization circuit, inverse quantization method, and image reproduction apparatus
JP2009290498A (en) Image encoder and image encoding method
JP5133290B2 (en) Video encoding apparatus and decoding apparatus
JP2005159419A (en) Apparatus and method of processing image, computer program and computer-readable storage medium
JP2019106741A (en) Image processing device
JP2016005244A (en) Image encoding device, image decoding device, image encoding method and image decoding method
JP2023162410A (en) Intra prediction device, image encoding device, image decoding device and program
JP2008219100A (en) Predictive image generating device, method and program, and image encoding device, method and program
JP6564315B2 (en) Encoding device, decoding device, and program
KR20170046136A (en) Method for choosing a compression algorithm depending on the image type
JP2011130192A (en) Encoder and image converting apparatus
US9866841B2 (en) Image coding method and image coding apparatus
JP2014131136A (en) Video compression apparatus, video decoder and program
US20170280154A1 (en) Signal processing apparatus, imaging apparatus, and signal processing method
US20230007311A1 (en) Image encoding device, image encoding method and storage medium, image decoding device, and image decoding method and storage medium
JP4160513B2 (en) Moving image luminance change parameter estimation method, moving image luminance change parameter estimation program and recording medium thereof, and moving image encoding apparatus, moving image encoding method, moving image encoding program and recording medium thereof
JP2019036992A (en) Compressor, decoder, and program
JP2020057842A (en) Image coding apparatus, control method thereof, and program
JP2014107611A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302