JP5909149B2 - COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF - Google Patents

COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF Download PDF

Info

Publication number
JP5909149B2
JP5909149B2 JP2012111867A JP2012111867A JP5909149B2 JP 5909149 B2 JP5909149 B2 JP 5909149B2 JP 2012111867 A JP2012111867 A JP 2012111867A JP 2012111867 A JP2012111867 A JP 2012111867A JP 5909149 B2 JP5909149 B2 JP 5909149B2
Authority
JP
Japan
Prior art keywords
color
image
conversion
unit
inverse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012111867A
Other languages
Japanese (ja)
Other versions
JP2013239923A (en
Inventor
俊枝 三須
俊枝 三須
俊輔 岩村
俊輔 岩村
中須 英輔
英輔 中須
康孝 松尾
康孝 松尾
井口 和久
和久 井口
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012111867A priority Critical patent/JP5909149B2/en
Publication of JP2013239923A publication Critical patent/JP2013239923A/en
Application granted granted Critical
Publication of JP5909149B2 publication Critical patent/JP5909149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、カラー画像を符号化する際の前処理に関し、とくにカラー画像の色成分を、異なる色空間の色成分に変換する技術に関する。   The present invention relates to preprocessing for encoding a color image, and more particularly to a technique for converting a color component of a color image into a color component of a different color space.

画像符号化においては、カラー画像を扱う際に、輝度1成分と色差2成分とに変換することが行われている。例えば、赤、青および緑の3成分を、輝度1成分と色差2成分とに変換する際には、ITU−R BT.601規格に定める色変換行列や、ITU−R BT.709規格に定める色変換行列が用いられている。輝度の方が色差よりも視覚的に目立ちやすいため、前記したような色変換行列は、符号化による色差よりも輝度の画質劣化が少なくなるように設定されることが多い。例えば、輝度画像の画素数は変化させずに、色差画像のみについて画素数を1/2または1/4に間引くことがよく行われている。この間引き操作は、カラーサブサンプリングと呼ばれている。   In image coding, when a color image is handled, conversion into a luminance 1 component and a color difference 2 component is performed. For example, when converting three components of red, blue, and green into a luminance 1 component and a color difference 2 component, ITU-R BT. 601 standard color conversion matrix, ITU-R BT. A color conversion matrix defined in the 709 standard is used. Since the luminance is more visually noticeable than the color difference, the color conversion matrix as described above is often set so that the image quality degradation of the luminance is less than the color difference due to encoding. For example, without changing the number of pixels of the luminance image, the number of pixels is often thinned out to 1/2 or 1/4 for only the color difference image. This thinning operation is called color subsampling.

カラーサブサンプリングの手法において、色差画像の画素数を水平方向のみに1/2に間引いた信号は4:2:2フォーマットと呼ばれており、色差画像の画素数を水平方向および垂直方向にそれぞれ1/2に間引いた信号は4:2:0フォーマットと呼ばれている。一方、輝度および色差がすべて同一の水平および垂直画素数からなる信号は4:4:4フォーマットと呼ばれている。
また、ディジタルカメラやビデオにおいては、色味が所望のものとなるようホワイトバランスの調整が行われている。従来、ホワイトバランスの調整を自動化する技術が種々提案されている(特許文献1,2参照)。
In the method of color subsampling, a signal obtained by thinning the number of pixels of the color difference image by 1/2 in only the horizontal direction is called 4: 2: 2 format, and the number of pixels of the color difference image is set in the horizontal direction and the vertical direction, respectively. The signal thinned by 1/2 is called 4: 2: 0 format. On the other hand, a signal composed of the same number of horizontal and vertical pixels having the same luminance and color difference is called a 4: 4: 4 format.
Also, in digital cameras and videos, white balance is adjusted so that the desired color tone is obtained. Conventionally, various techniques for automating white balance adjustment have been proposed (see Patent Documents 1 and 2).

特許第4764163号公報Japanese Patent No. 4764163 特許第4815267号公報Japanese Patent No. 4815267

しかしながら、前記した従来の規格では、入力画像によらず常に同じ色変換行列が用いられる。このため、例えば、色相の異なる色で構成された細かいテクスチャ(細かいストライプなど)は、色差画像上にも細かいテクスチャとして現れる。これをカラーサブサンプリングすると、このテクスチャがつぶれてしまったりモアレを生じてしまったりした結果、著しい画質劣化を招いてしまう。また、入力画像の色味が標準的な色味から偏っている場合(例えば、夕日の色味での撮影など色温度が符号化手法の想定と異なる場合や、色かぶりを生じている場合)にも、色差画像のパワーが想定以上に大きくなり、カラーサブサンプリングの悪影響が目立ちやすくなる。   However, in the conventional standard described above, the same color conversion matrix is always used regardless of the input image. For this reason, for example, a fine texture (such as a fine stripe) composed of colors having different hues appears as a fine texture on the color difference image. When this color sub-sampling is performed, this texture is crushed or moire is generated, resulting in significant image quality degradation. Also, when the color of the input image is deviated from the standard color (for example, when the color temperature is different from the encoding method assumption such as shooting in the color of the sunset, or when color cast occurs) In addition, the power of the color difference image becomes larger than expected, and the adverse effect of color sub-sampling becomes conspicuous.

また、特許文献1,2に示したようなホワイトバランスの調整を自動化する技術によれば、被写体の色味を所定の色味に補正できるため、特に色温度の差異や色かぶりの影響を除くことができるものの、被写体のテクスチャの細かさなどは考慮されないため、カラーサブサンプリング後の画質劣化を防止することはできない。また、演出上の意図によってカラーバランスを敢えて崩した場合には、色差成分が符号化装置の想定される値を逸してしまい、符号化効率の低下を招くことがある。   Further, according to the technology for automating white balance adjustment as shown in Patent Documents 1 and 2, since the color of the subject can be corrected to a predetermined color, particularly the influence of color temperature difference and color cast is excluded. However, since the fineness of the texture of the subject is not taken into consideration, image quality deterioration after color subsampling cannot be prevented. In addition, when the color balance is intentionally lost due to the effect of the production, the color difference component may deviate from the value assumed by the encoding device, leading to a decrease in encoding efficiency.

そこで、本発明は、カラー画像の色成分ごとの符号化劣化成分の発生の度合いを考慮して符号化劣化成分の発生を抑制するような色変換を行うことで、符号化時の画質劣化を抑制する技術を提供することを課題とする。   In view of this, the present invention reduces the image quality deterioration during encoding by performing color conversion that suppresses the generation of encoding deterioration components in consideration of the degree of generation of encoding deterioration components for each color component of a color image. It is an object of the present invention to provide a technology for suppressing the problem.

本発明は、前記課題を解決するために創案されたものであり、まず、請求項1に記載の色変換装置は、カラー画像を構成する各色成分を、符号化時の画質劣化が少なくなるような新たな色成分にそれぞれ変換する色変換装置であって、劣化推定手段と、主成分分析手段と、色空間変換手段と、を備えることを特徴とする。   The present invention has been made to solve the above-mentioned problems. First, the color conversion apparatus according to claim 1 is configured so that image quality deterioration during encoding of each color component constituting a color image is reduced. A color conversion device that converts each new color component, and includes a deterioration estimation unit, a principal component analysis unit, and a color space conversion unit.

かかる構成によれば、色変換装置は、色成分ごとの画像をそれぞれ入力し、この入力画像の符号化時に付加される符号化劣化成分を画素ごとにそれぞれ推定することで、想定される画像符号化方式で用いられる符号化処理を模擬する処理を行い、カラー画像の符号化時に付加される符号化劣化成分を画素ごと色ごとに特定することができる。   According to such a configuration, the color conversion apparatus inputs an image for each color component, and estimates an image deterioration component added at the time of encoding the input image for each pixel, thereby assuming an assumed image code. Processing for simulating the encoding processing used in the encoding method can be performed, and the encoding deterioration component added at the time of encoding the color image can be specified for each pixel and for each color.

また、色変換装置は、主成分分析手段によって、劣化推定手段によって推定された符号化劣化成分を主成分分析して、カラー画像の符号化時に劣化しやすい色成分を順位付けすることができる。   In addition, the color conversion apparatus can perform principal component analysis on the encoded deterioration component estimated by the deterioration estimation unit by the principal component analysis unit, and can rank the color components that are likely to be deteriorated when the color image is encoded.

さらに、色変換装置は、色空間変換手段によって、主成分分析手段による主成分分析によって得られた結合係数に基づく色変換行列を各入力画像にそれぞれ乗算して、各色成分を、当該各色成分の色空間とは異なる色空間の新たな色成分にそれぞれ変換する。ここで、主成分分析手段による主成分分析によって得られた色変換行列は、固有値(各主成分の重み)に基づいて生成されるものであり、固有値が大きいほどその主成分が画質劣化成分に占める割合が多く、固有値が小さいほどその主成分がその主成分が画質劣化成分に占める割合が少ないことを示している。したがって、固有値が大きいほど、その色成分が劣化しやすく、固有値が小さいほどその色成分が劣化しにくいといえる。   Further, the color conversion device multiplies each input image by a color conversion matrix based on the coupling coefficient obtained by the principal component analysis by the principal component analysis unit by the color space conversion unit, and converts each color component to each color component. Each is converted to a new color component in a color space different from the color space. Here, the color conversion matrix obtained by the principal component analysis by the principal component analysis means is generated based on the eigenvalue (the weight of each principal component), and the larger the eigenvalue, the more the principal component becomes the image quality degradation component. It shows that the larger the proportion and the smaller the eigenvalue, the smaller the proportion of the principal component in the image quality degradation component. Therefore, it can be said that the larger the eigenvalue, the easier the color component deteriorates, and the smaller the eigenvalue, the harder the color component deteriorates.

このようなカラー画像の符号化時の各色成分の劣化しやすさを表す色変換行列を入力画像ごとに乗算することで、劣化しやすい色成分の色空間を劣化しにくい色空間の色成分へと変換することができる。この新たな色空間は、その各軸が画像を符号化したときに損失の最も大きくなる軸から順次直交基底を張るため、符号化劣化成分を受けやすい色成分から影響を受けにくい色成分へと順位付けのなされた色分解が可能となる。   By multiplying each input image by a color conversion matrix that represents the ease of deterioration of each color component at the time of encoding such a color image, the color space of a color component that is easily deteriorated is changed to a color component of a color space that is difficult to deteriorate. And can be converted. In this new color space, each axis has an orthogonal basis in order from the axis with the largest loss when the image is encoded, so that the color component that is susceptible to the encoding degradation component is changed to the color component that is not easily affected. Color separation with priorities can be performed.

また、請求項2に記載の色変換装置は、請求項1に記載の色変換装置において、劣化推定手段が、変換手段と、量子化手段と、逆変換手段と、減算手段と、を備えることとした。   According to a second aspect of the present invention, in the color conversion device according to the first aspect, the deterioration estimation unit includes a conversion unit, a quantization unit, an inverse conversion unit, and a subtraction unit. It was.

かかる構成によれば、色変換装置は、変換手段によって、入力画像に対し周波数変換を行い、周波数係数からなる変換係数列を生成する。これによって、入力画像の信号が空間領域のデータから空間周波数領域の数値データへと変換される。例えば、色変換装置は、変換手段によって、入力画像を複数のブロックに分けてそれぞれのブロックに対し離散コサイン変換のような線形直交変換を行う。   According to such a configuration, the color conversion apparatus performs frequency conversion on the input image by the conversion unit, and generates a conversion coefficient sequence including frequency coefficients. As a result, the signal of the input image is converted from data in the spatial domain to numerical data in the spatial frequency domain. For example, the color conversion apparatus divides the input image into a plurality of blocks by the conversion unit, and performs linear orthogonal transformation such as discrete cosine transformation on each block.

また、色変換装置は、量子化手段によって、変換手段により求められた変換係数列の複数の周波数係数の中から高周波成分を所定量削減した量子化データを生成する。これによって、入力画像に対し、想定される画像符号化方式で量子化を行ったときの情報の損失を模擬することができる。   In addition, the color conversion apparatus generates quantized data in which the high-frequency component is reduced by a predetermined amount from the plurality of frequency coefficients of the conversion coefficient sequence obtained by the conversion means by the quantization means. Thereby, it is possible to simulate the loss of information when the input image is quantized using the assumed image encoding method.

さらに、色変換装置は、逆変換手段によって、量子化手段によって生成された量子化データに対し、変換手段による周波数変換の逆変換を行う。例えば、変換手段によって、入力画像に対し離散コサイン変換を行った場合、逆変換手段によって、量子化データに対し逆離散コサイン変換を行って空間周波数領域の数値データから空間領域の画像データを再構築し、劣化模擬画像を生成する。この劣化模擬画像は、変換手段と量子化手段とを経ることによって、元の入力画像に対し高周波成分が削減されているので、元の入力画像よりも劣化した画像となる。   Further, the color conversion apparatus performs inverse conversion of frequency conversion by the conversion unit on the quantized data generated by the quantization unit by the inverse conversion unit. For example, when discrete cosine transform is performed on the input image by the transform means, inverse discrete cosine transform is performed on the quantized data by the inverse transform means to reconstruct the spatial domain image data from numerical data in the spatial frequency domain Then, a deterioration simulation image is generated. This deterioration simulation image is an image deteriorated from the original input image because the high-frequency component is reduced with respect to the original input image by passing through the conversion means and the quantization means.

次に、色変換装置は、減算手段によって、入力画像と、逆変換手段によって生成された劣化模擬画像との差分をとり、符号化劣化成分として、入力画像と劣化模擬画像との差分画像を生成する。前記したように、これにより、想定される画像符号化方式による入力画像の符号化時に損失する情報を推定することができる。   Next, the color conversion apparatus takes the difference between the input image and the deterioration simulation image generated by the inverse conversion means by the subtracting means, and generates a difference image between the input image and the deterioration simulation image as an encoded deterioration component. To do. As described above, this makes it possible to estimate information that is lost when an input image is encoded by an assumed image encoding method.

請求項2に記載の色変換装置は、請求項1に記載の色変換装置において、劣化推定手段が、変換手段と、量子化手段と、逆量子化手段と、逆変換手段と、減算手段と、を備えることとした。   According to a second aspect of the present invention, in the color conversion device according to the first aspect, the deterioration estimation unit includes a conversion unit, a quantization unit, an inverse quantization unit, an inverse conversion unit, and a subtraction unit. It was decided to provide.

かかる構成によれば、色変換装置は、変換手段によって、入力画像に対し周波数変換を行い、周波数係数からなる変換係数列を生成する。これによって、入力画像の信号が空間領域のデータから空間周波数領域の数値データへと変換される。例えば、色変換装置は、変換手段によって、入力画像を複数のブロックに分けてそれぞれのブロックに対し離散コサイン変換のような線形直交変換を行う。   According to such a configuration, the color conversion apparatus performs frequency conversion on the input image by the conversion unit, and generates a conversion coefficient sequence including frequency coefficients. As a result, the signal of the input image is converted from data in the spatial domain to numerical data in the spatial frequency domain. For example, the color conversion apparatus divides the input image into a plurality of blocks by the conversion unit, and performs linear orthogonal transformation such as discrete cosine transformation on each block.

また、色変換装置は、量子化手段によって、各周波数係数を量子化テーブルの量子化ステップで除算して量子化データを生成する。これによって、入力画像に対し、想定される画像符号化方式で量子化を行ったときの情報の損失を模擬することができる。
さらに、色変換装置は、逆量子化手段によって、量子化手段により生成された量子化データに対し、前記量子化ステップを乗算して逆量子化データを生成する。これにより、空間周波数領域の数値データを再構築することができる。
Also, the color conversion device generates quantized data by dividing each frequency coefficient by the quantization step of the quantization table by the quantization means. Thereby, it is possible to simulate the loss of information when the input image is quantized using the assumed image encoding method.
Further, the color conversion device generates inversely quantized data by multiplying the quantized data generated by the quantizing means by the quantization step by the inverse quantizing means. Thereby, numerical data in the spatial frequency domain can be reconstructed.

続いて、色変換装置は、逆変換手段によって、逆量子化手段によって生成された逆量子化データに対し、変換手段による周波数変換の逆変換を行う。例えば、変換手段によって、入力画像に対し離散コサイン変換を行った場合、逆変換手段によって、逆量子化データに対し逆離散コサイン変換を行って空間周波数領域の数値データから空間領域の画像データを再構築し、劣化模擬画像を生成する。この劣化模擬画像は、変換手段と量子化手段とを経ることによって、元の入力画像に対し高周波成分が削減されているので、元の入力画像よりも劣化した画像となる。   Subsequently, the color conversion apparatus performs inverse conversion of frequency conversion by the conversion unit on the inversely quantized data generated by the inverse quantization unit by the inverse conversion unit. For example, when a discrete cosine transform is performed on the input image by the transform unit, the inverse discrete cosine transform is performed on the inverse quantized data by the inverse transform unit, and the spatial domain image data is regenerated from the spatial frequency domain numerical data. Build and generate simulated degradation images. This deterioration simulation image is an image deteriorated from the original input image because the high-frequency component is reduced with respect to the original input image by passing through the conversion means and the quantization means.

そして、色変換装置は、減算手段によって、入力画像と、逆変換手段によって生成された劣化模擬画像との差分をとり、符号化劣化成分として、入力画像と劣化模擬画像との差分画像を生成する。前記したように、これにより、想定される画像符号化方式による入力画像の符号化時に損失する情報を推定することができる。   Then, the color conversion apparatus takes the difference between the input image and the deterioration simulation image generated by the inverse conversion means by the subtracting means, and generates a difference image between the input image and the deterioration simulation image as an encoded deterioration component. . As described above, this makes it possible to estimate information that is lost when an input image is encoded by an assumed image encoding method.

請求項3に記載の色変換装置は、請求項1に記載の色変換装置において、劣化推定手段が、予測残差推定手段と、変換手段と、量子化手段と、逆変換手段と、減算手段と、を備えることとした。   According to a third aspect of the present invention, in the color conversion device according to the first aspect, the deterioration estimation unit includes a prediction residual estimation unit, a conversion unit, a quantization unit, an inverse conversion unit, and a subtraction unit. And so on.

請求項3に記載の色変換装置は、請求項2に記載の色変換装置に対し、動画像の動き補償を模擬するための予測残差推定手段をさらに設けた点が相違する。
かかる構成によれば、色変換装置は、予測残差推定手段によって、入力画像に対し、想定される動画像の画像符号化方式で行われる動き補償と同等の処理を行う。これにより、想定される動画像の画像符号化方式で動き補償を行ったのと同等の結果が得られる。その他の構成については、前記した請求項2に記載の発明の説明のとおりであるので、ここでは説明を省略する。
The color conversion apparatus according to claim 3 is different from the color conversion apparatus according to claim 2 in that a prediction residual estimation unit for simulating motion compensation of a moving image is further provided.
According to such a configuration, the color conversion apparatus performs a process equivalent to the motion compensation performed in the assumed moving image coding method on the input image by the prediction residual estimation unit. As a result, a result equivalent to that obtained by performing motion compensation using the assumed video encoding method of moving images can be obtained. Other configurations are the same as those described in the second aspect of the present invention, and the description thereof is omitted here.

請求項4に記載の符号化器は、カラー画像を符号化する符号化器であって、請求項2に記載の色変換装置と、符号化装置と、を備えることとした。
かかる構成によれば、色変換装置は、入力画像の各色成分を新たな色成分にそれぞれ変換し、新たな各色成分からなる画像を生成する。色変換装置の作用は、前記した通りであるので、ここでは詳細な説明は省略する。
符号化装置は、色変換装置で生成された新たな各色成分でなる画像に対し、色変換装置の変換手段と同じ変換を行うとともに、色変換装置の量子化手段と同じ量子化を行う。
このように、符号化器は、色変換装置が、符号化装置による変換、および、量子化と同じ処理を行う変換手段、および、量子化手段を備えるので、色変換装置によって、符号化時の劣化を正確に模擬することができる。
An encoder according to a fourth aspect is an encoder that encodes a color image, and includes the color conversion device according to the second aspect and the encoding device.
According to such a configuration, the color conversion device converts each color component of the input image to a new color component, and generates an image composed of the new color component. Since the operation of the color conversion device is as described above, detailed description thereof is omitted here.
The encoding device performs the same conversion as the conversion unit of the color conversion device, and the same quantization as the quantization unit of the color conversion device, on the image including the new color components generated by the color conversion device.
Thus, the encoder includes a conversion unit that performs the same processing as the conversion and quantization performed by the color conversion device, and a quantization unit. Degradation can be accurately simulated.

請求項5に記載の符号化器は、カラー画像を符号化する符号化器であって、請求項3に記載の色変換装置と、符号化装置と、を備えることとした。
かかる構成によれば、色変換装置は、入力画像の各色成分を新たな色成分にそれぞれ変換し、新たな各色成分からなる画像を生成する。色変換装置の作用は、前記した通りであるので、ここでは詳細な説明は省略する。
符号化装置は、色変換装置で生成された前記新たな各色成分でなる画像に対し、色変換装置の予測残差推定手段と同じ予測残差推定処理を行い、色変換装置の変換手段と同じ変換処理を行い、さらに、色変換装置の量子化手段と同じ量子化を行う。
このように、符号化器は、色変換装置が、符号化装置による予測残差推定処理、変換処理、および、量子化処理と同じ処理を行う予測残差推定手段、変換手段、および、量子化手段を備えるので、色変換装置によって、符号化時の劣化を正確に模擬することができる。
The encoder according to claim 5 is an encoder that encodes a color image, and includes the color conversion device according to claim 3 and the encoding device.
According to such a configuration, the color conversion device converts each color component of the input image to a new color component, and generates an image composed of the new color component. Since the operation of the color conversion device is as described above, detailed description thereof is omitted here.
The encoding device performs the same prediction residual estimation processing as the prediction residual estimation unit of the color conversion device on the image including the new color components generated by the color conversion device, and is the same as the conversion unit of the color conversion device Conversion processing is performed, and further, the same quantization as the quantization means of the color conversion device is performed.
As described above, the encoder includes the prediction residual estimation unit, the conversion unit, and the quantization in which the color conversion device performs the same processes as the prediction residual estimation process, the conversion process, and the quantization process performed by the encoding apparatus. Since the means is provided, the color conversion device can accurately simulate the deterioration during encoding.

請求項6に記載の復号器は、請求項4または請求項5に記載の符号化器で生成されたデータを復号する復号器であって、符号化データ復号手段と第2逆量子化手段と第2逆変換手段と第2逆変換手段とを有する復号装置と、色空間復元手段を備える色復元装置と、を備えることとした。   A decoder according to claim 6 is a decoder for decoding data generated by the encoder according to claim 4 or claim 5, wherein the encoded data decoding means, the second inverse quantization means, The decoding apparatus having the second inverse conversion means and the second inverse conversion means and the color restoration apparatus having the color space restoration means are provided.

かかる構成によれば、復号器は、復号装置の符号化データ復号手段によって、符号化器で生成された新たな各色成分でなる画像の符号化データを入力し、符号化データから量子化データを復号する。
また、復号器は、復号装置の第2逆量子化手段によって、符号化データ復号手段で復号された量子化データに対し、符号化器における第2量子化手段とは逆の逆量子化を行って、複数の周波数係数からなる変換係数列を生成する。
さらに、復号器は、復号装置の第2逆変換手段によって、第2逆量子化手段で生成された変換係数列に対し、符号化器における第2変換手段とは逆の逆変換を行って、新たな各色成分でなる画像を生成する。
According to such a configuration, the decoder inputs the encoded data of the image composed of each new color component generated by the encoder by the encoded data decoding means of the decoding device, and converts the quantized data from the encoded data. Decrypt.
The decoder performs inverse quantization opposite to the second quantization means in the encoder on the quantized data decoded by the encoded data decoding means by the second inverse quantization means of the decoding device. Thus, a conversion coefficient sequence including a plurality of frequency coefficients is generated.
Furthermore, the decoder performs inverse transformation opposite to the second transformation means in the encoder on the transform coefficient sequence generated by the second inverse quantization means by the second inverse transformation means of the decoding device, An image composed of new color components is generated.

そして、復号器は、色復元装置の色空間復元手段によって、復号装置で生成された新たな各色成分でなる画像を入力し、この新たな各色成分からなる画像に、色変換装置で生成された色変換行列の逆行列をそれぞれ乗算して、各色成分からなる画像を復元する。
このように、復号器は、色変換装置が、復号装置による逆変換、および、逆量子化と同じ処理を行う逆変換手段、および、逆量子化手段を備えるので、復号装置によって、色変換装置で生成された新たな各色成分からなる画像から、正確にカラー画像の各色成分からなる画像を復元できる。
Then, the decoder inputs an image made up of each new color component generated by the decoding device by the color space restoration means of the color restoration device, and an image made up of this new color component is generated by the color conversion device. An image composed of each color component is restored by multiplying the inverse matrix of the color conversion matrix.
As described above, the decoder includes the inverse conversion unit and the inverse quantization unit that perform the same processes as the inverse transformation and the inverse quantization by the decoding device. An image composed of each color component of the color image can be accurately restored from the image composed of each new color component generated in (1).

請求項7に記載の色変換プログラムは、カラー画像を構成する複数の色成分を、新たな色成分にそれぞれ変換するために、コンピュータを、劣化推定手段、主成分分析手段、色空間変換手段、として機能させることとした。   The color conversion program according to claim 7, in order to convert a plurality of color components constituting a color image into new color components, respectively, a computer, a deterioration estimation unit, a principal component analysis unit, a color space conversion unit, It was decided to function as.

かかる構成によれば、色変換プログラムは、劣化推定手段によって、色成分ごとの画像をそれぞれ入力し、この入力画像の符号化時に付加される符号化劣化成分画素ごとに推定する。次に、色変換プログラムは、主成分分析手段によって、劣化推定手段によって推定された符号化劣化成分を主成分分析する。そして、色変換プログラムは、色空間変換手段によって、主成分分析手段による主成分分析によって得られた結合係数に基づく色変換行列を各入力画像に乗算して、各色成分を、当該各色成分の色空間とは異なる色空間の新たな色成分にそれぞれ変換する。   According to such a configuration, the color conversion program inputs an image for each color component by the deterioration estimation unit, and estimates each encoded deterioration component pixel added when the input image is encoded. Next, the color conversion program performs principal component analysis on the encoded degradation component estimated by the degradation estimation unit by the principal component analysis unit. Then, the color conversion program multiplies each input image by the color conversion matrix based on the coupling coefficient obtained by the principal component analysis by the principal component analysis unit by the color space conversion unit, and converts each color component to the color of each color component. Each is converted to a new color component in a color space different from the space.

請求項8に記載の符号化プログラムは、請求項4または請求項5に記載の符号化器として、コンピュータを機能させる。   An encoding program according to claim 8 causes a computer to function as the encoder according to claim 4 or claim 5.

請求項9に記載の復号プログラムは、請求項6に記載の復号器として、コンピュータを機能させる。   A decoding program according to claim 9 causes a computer to function as the decoder according to claim 6.

請求項1,7に記載の発明によれば、入力画像の各色成分を、符号化時の画質劣化が抑制されるような新たな色成分へとそれぞれ変換することができる。   According to the first and seventh aspects of the present invention, each color component of the input image can be converted into a new color component that suppresses deterioration in image quality during encoding.

請求項2に記載の発明によれば、入力画像に対して、想定される画像符号化方式を適用したときに生じる情報の損失を予め推定することができる。そして、この推定結果を利用することで、入力画像の各色成分を、符号化時の画質劣化が効果的に抑制されるような色成分へとそれぞれ変換することが可能となる。   According to the second aspect of the present invention, it is possible to estimate in advance the loss of information that occurs when an assumed image coding method is applied to an input image. Then, by using this estimation result, it is possible to convert each color component of the input image into a color component that effectively suppresses image quality deterioration during encoding.

請求項3に記載の発明によれば、入力画像に対して、動き補償を有する動画像符号化方式を適用したときに生じる情報の損失を予め推定することができる。そして、この推定結果を利用することで、入力画像の各色成分を、符号化時の画質劣化がより効果的に抑制されるような色成分へとそれぞれ変換することが可能となる。   According to the third aspect of the present invention, it is possible to estimate in advance the loss of information that occurs when a moving image coding method having motion compensation is applied to an input image. Then, by using this estimation result, it is possible to convert each color component of the input image into a color component that can more effectively suppress image quality degradation during encoding.

請求項4,5および8に記載の発明によれば、符号化時の劣化を正確に模擬することができる。   According to the fourth, fifth and eighth aspects of the present invention, it is possible to accurately simulate the deterioration during encoding.

請求項6および9に記載の発明によれば、劣化の少ない画質の良好なカラー画像を得ることができる。   According to the sixth and ninth aspects of the invention, it is possible to obtain a good color image with little deterioration and image quality.

本発明の第一、第二実施形態に係る符号化器を含む画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing system containing the encoder which concerns on 1st, 2nd embodiment of this invention. 本発明の第一実施形態に係る符号化器の色変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the color conversion apparatus of the encoder which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る符号化器の符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the encoding apparatus of the encoder which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る符号化器の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the encoder which concerns on 1st embodiment of this invention. 本発明の第二実施形態に係る符号化器の色変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the color conversion apparatus of the encoder which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る符号化器の色変換装置において、予測残差推定手段の構成例を示すブロック図である。It is a block diagram which shows the structural example of a prediction residual estimation means in the color conversion apparatus of the encoder which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る符号化器の符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the encoding apparatus of the encoder which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る符号化器の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the encoder based on 2nd embodiment of this invention. 本発明の第二実施形態に係る符号化器の動作において、予測残差推定手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a prediction residual estimation means in operation | movement of the encoder which concerns on 2nd embodiment of this invention. 本発明の第一または第二実施形態に係る符号化器で符号化された符号化データを復号する復号器の構成を示すブロック図である。It is a block diagram which shows the structure of the decoder which decodes the encoding data encoded with the encoder concerning 1st or 2nd embodiment of this invention. 図10に示した復号器の動作を示すフローチャートである。11 is a flowchart showing an operation of the decoder shown in FIG. 10.

本発明の第一実施形態に係る色変換装置は、カラー画像の各色成分からなる画像に対し、符号化時の劣化を模擬し、模擬した結果から、カラー画像の各色成分を符号化時の劣化が少ない新たな色成分にそれぞれ変換し、新たな各色成分からなる画像を生成するものである。   The color conversion device according to the first embodiment of the present invention simulates deterioration at the time of encoding for an image made up of each color component of a color image, and based on the simulation results, deteriorates at the time of encoding each color component of the color image. Are converted into new color components with a small amount, and an image composed of the new color components is generated.

[画像処理システムの概要]
ここで、本発明の第一実施形態に係る色変換装置の詳細な説明に先立ち、本発明の第一実施形態に係る色変換装置を含む画像処理システムの概要について説明する。
図1に示すように、画像処理システムSyは、カラー画像を処理するものであって、色変換装置1(1A)と符号化装置40(40A)とを備える符号化器Cm(Cm1)と、復号装置50と色復元装置60とを備える復号器Dと、を備えている。符号化器Cm(Cm1)の色変換装置1(1A)の構成は後記する。
[Outline of image processing system]
Here, prior to detailed description of the color conversion apparatus according to the first embodiment of the present invention, an outline of an image processing system including the color conversion apparatus according to the first embodiment of the present invention will be described.
As shown in FIG. 1, the image processing system Sy processes a color image, and includes an encoder Cm (Cm1) including a color conversion device 1 (1A) and an encoding device 40 (40A), And a decoder D including a decoding device 50 and a color restoration device 60. The configuration of the color conversion device 1 (1A) of the encoder Cm (Cm1) will be described later.

本発明の符号化器Cmの符号化装置40(40A)は、色変換装置1で生成された新たな各色成分からなる画像を符号化するものである。符号化装置40(40A)は、後記する本発明の色変換装置1によって行われる、符号化時の画質の劣化を模擬する処理(符号化模擬処理)と同じ処理を行う手段を備える。詳しくは、後記する。つまり、色変換装置1(1A)は、符号化装置40(40A)の符号化処理の際の画質の劣化を模擬するものであるため、色変換装置1(1A)の符号化模擬処理と、符号化装置40(40A)による実際の符号化処理とが、同じである必要がある。符号化装置40による画像符号化方式としては、例えば、静止画像の符号化方式であるJPEGなどが挙げられ、符号化装置40Aによる画像符号化方式としては、例えば、動画像の符号化方式であるMPEG−1、MPEG−2、MPEG−4またはAVC./H.264などが挙げられる。   The encoding device 40 (40A) of the encoder Cm of the present invention encodes an image composed of new color components generated by the color conversion device 1. The encoding device 40 (40A) includes means for performing the same processing as the processing (encoding simulation processing) for simulating image quality deterioration during encoding, which is performed by the color conversion device 1 of the present invention described later. Details will be described later. That is, since the color conversion apparatus 1 (1A) simulates the deterioration of image quality during the encoding process of the encoding apparatus 40 (40A), the encoding conversion process of the color conversion apparatus 1 (1A) The actual encoding process by the encoding device 40 (40A) needs to be the same. Examples of the image encoding method by the encoding device 40 include JPEG, which is a still image encoding method, and the image encoding method by the encoding device 40A is, for example, a moving image encoding method. MPEG-1, MPEG-2, MPEG-4 or AVC. / H. H.264 or the like.

本発明の復号器Dmの復号装置50は、符号化器Cmの符号化装置40(40A)で生成された符号化データを復号するものである。復号装置50は、後記する色変換装置1(1A)によって行われる、符号化模擬処理後のデータを画像形式のデータに復号する処理(復号処理)と同じ処理を行う手段を備える。詳しくは、後記する。   The decoding device 50 of the decoder Dm of the present invention decodes the encoded data generated by the encoding device 40 (40A) of the encoder Cm. The decoding device 50 includes means for performing the same processing as the processing (decoding processing) performed by the color conversion device 1 (1A) described later for decoding the data after the encoding simulation processing into image format data. Details will be described later.

本発明の復号器Dmの色復元装置60は、復号装置50で復号された画像形式のデータに対し、色変換装置1(1A)による色変換の逆変換を行って、入力画像の各色成分からなる画像を復元するものであり、色空間復元手段61を備えている。
以上が、画像処理システムSyの概要である。次に、図2を参照して、本発明の第一実施形態に係る符号化器Cmの構成について、色変換装置の構成を主に説明する。
The color restoration device 60 of the decoder Dm of the present invention performs reverse conversion of color conversion by the color conversion device 1 (1A) on the data in the image format decoded by the decoding device 50, and from each color component of the input image. A color space restoring means 61 is provided.
The above is the outline of the image processing system Sy. Next, with reference to FIG. 2, the configuration of the color conversion apparatus will be mainly described with respect to the configuration of the encoder Cm according to the first embodiment of the present invention.

<第一実施形態に係る符号化器>
本発明の第一実施形態に係る符号化器Cmは、色変換装置1と符号化装置40(図1参照)とを備える。
[色変換装置の構成]
図2に示すように、色変換装置1は、劣化推定手段10と、主成分分析手段20と、色空間変換手段30と、を備えている。なお、色変換装置1は、ここでは、図2に示すように、カラー画像(図示せず)を構成する3つの色成分A,BおよびCからなる画像A,BおよびCを入力し、この入力画像A,BおよびCの各画素の色を変換して3つの色成分X,YおよびZからなる出力画像X,YおよびZを出力するものである。
<Encoder according to First Embodiment>
The encoder Cm according to the first embodiment of the present invention includes a color conversion device 1 and an encoding device 40 (see FIG. 1).
[Configuration of color conversion device]
As shown in FIG. 2, the color conversion apparatus 1 includes a deterioration estimation unit 10, a principal component analysis unit 20, and a color space conversion unit 30. Here, as shown in FIG. 2, the color conversion apparatus 1 inputs images A, B and C composed of three color components A, B and C constituting a color image (not shown). The color of each pixel of the input images A, B, and C is converted, and output images X, Y, and Z composed of three color components X, Y, and Z are output.

劣化推定手段10は、入力画像に対し、符号化装置40(図1参照)で用いられる符号化方式で符号化を行った場合に付加される符号化劣化成分を画素ごと色成分ごとに生成するものであって、変換手段11と、量子化手段12と、逆量子化手段13と、逆変換手段14と、減算手段15とを色成分ごとに備える。以下では、色成分により変換手段11と、量子化手段12と、逆量子化手段13と、逆変換手段14と、減算手段15とを区別する場合には、各手段に付される数字の後に、入力画像を表す記号(A,BまたはC)を付して区別するものとする。また、以下では、入力画像Aの処理を行う変換手段11、量子化手段12、逆量子化手段13と、逆変換手段14と、減算手段15を例にとって説明する。なお、符号化装置40(図1参照)における輝度と色差とでの変換方法の違いに呼応して、変換手段11Aと、変換手段11Bや変換手段11Cとで、変換ブロックサイズや変換基底を異ならせてもよい。   The degradation estimation means 10 generates, for each color component for each pixel, a coded degradation component added when the input image is encoded by the encoding method used in the encoding device 40 (see FIG. 1). In other words, a conversion unit 11, a quantization unit 12, an inverse quantization unit 13, an inverse conversion unit 14, and a subtraction unit 15 are provided for each color component. In the following, when the transforming unit 11, the quantizing unit 12, the inverse quantizing unit 13, the inverse transforming unit 14, and the subtracting unit 15 are distinguished by color components, the numbers given to the respective units are followed by numbers. In addition, a symbol (A, B, or C) representing an input image is attached for distinction. In the following description, the transform unit 11, the quantization unit 12, the inverse quantization unit 13, the inverse transform unit 14, and the subtraction unit 15 that perform processing of the input image A will be described as an example. Incidentally, in response to the difference in the conversion method between the luminance and the color difference in the encoding device 40 (see FIG. 1), the conversion block size and the conversion base are different between the conversion unit 11A, the conversion unit 11B, and the conversion unit 11C. It may be allowed.

変換手段11(11A)は、入力画像Aを入力し、この入力画像Aを周波数変換して、周波数係数からなる変換係数列を生成するものである。
具体的には、変換手段11は、符号化装置40(図1参照)による変換処理で用いられる変換方式、例えば、入力画像Aを複数の所定の大きさのブロック(例えば、8×8ないし32×32のブロック)に分割し、このブロック単位で離散コサイン変換(DCT;Discrete Cosine Transform)などの直交変換や、その整数近似(例えば、AVC./H.264符号化方式における整数変換)、または、ウェーブレット変換など、画像または動画像の符号化に用いられる変換またはその近似を行って、画素の数だけ周波数係数を生成する。この変換手段11によって、空間領域の画像データが空間周波数領域の数値データに変換される。
The conversion means 11 (11A) receives the input image A, converts the frequency of the input image A, and generates a conversion coefficient sequence including frequency coefficients.
Specifically, the conversion unit 11 converts a conversion method used in the conversion process by the encoding device 40 (see FIG. 1), for example, an input image A into a plurality of blocks having a predetermined size (for example, 8 × 8 to 32). × 32 blocks), and orthogonal transform such as discrete cosine transform (DCT) or integer approximation thereof (for example, integer transform in the AVC./H.264 encoding method) or A frequency coefficient corresponding to the number of pixels is generated by performing a transform used for encoding an image or a moving image, such as a wavelet transform, or an approximation thereof. The conversion means 11 converts the image data in the spatial domain into numerical data in the spatial frequency domain.

なお、一般に、画像は、周波数成分の重み付けの総和で表現できることから、変換手段11が、DCT変換を行って、入力画像Aを空間領域から空間周波数領域に変換することによって、複数の基本的な図柄(基底パターン)の成分の割合を重み付けしてその周波数係数を数値化した変換係数列を得ることができる。なお、入力画像AをDCT変換した場合、相関性が高い場合は、空間周波数で見たときに低周波領域に周波数係数が大きく偏り、一方、高周波領域では周波数係数がゼロに近い値となる。このようにして、変換手段11により求められた変換係数列は、量子化手段12に出力される。   In general, since an image can be expressed by a sum of weights of frequency components, the transforming unit 11 performs DCT transform to transform the input image A from the spatial domain to the spatial frequency domain, thereby providing a plurality of basic functions. It is possible to obtain a conversion coefficient string in which the frequency coefficient is digitized by weighting the proportion of the design (base pattern) components. When the input image A is DCT-transformed, if the correlation is high, the frequency coefficient is greatly biased to the low frequency region when viewed in the spatial frequency, while the frequency coefficient is close to zero in the high frequency region. In this way, the transform coefficient sequence obtained by the transform unit 11 is output to the quantization unit 12.

量子化手段12は、変換手段11により求められた変換係数列の各周波数係数を量子化処理するものである。
量子化手段12は、符号化装置40(図1参照)による量子化処理で用いられる量子化テーブルを予め記憶しておき、この量子化テーブルで規定される量子化ステップで変換係数列の各周波数係数を除算して結果を整数に丸めた量子化データを生成する。これにより、情報量(ビット数)が削減される。このようにして生成された量子化データは、逆量子化手段13に出力される。
The quantizing unit 12 quantizes each frequency coefficient of the transform coefficient sequence obtained by the transform unit 11.
The quantization means 12 stores in advance a quantization table used in the quantization process by the encoding device 40 (see FIG. 1), and each frequency of the transform coefficient sequence in a quantization step defined by the quantization table. Quantized data is generated by dividing the coefficient and rounding the result to an integer. Thereby, the amount of information (number of bits) is reduced. The quantized data generated in this way is output to the inverse quantization means 13.

なお、量子化手段12による量子化において、変換係数列の各周波数係数の中から高周波成分が所定量削減される場合もある。
例えば、変換係数列の各周波数係数のうち、符号化装置40(図1参照)による量子化処理で用いられる量子化テーブルにより量子化したと仮定した場合にゼロになってしまうような周波数係数をゼロに置換し、それ以外の周波数係数についてはそのまま何もしない場合や、また例えば、変換係数列の各周波数係数のうち、符号化装置40(図1参照)による量子化処理で用いられる量子化テーブルの量子化ステップの幅が大きい(所定の値を超える)周波数係数をゼロに置換し、それ以外の周波数係数についてはそのまま何もしない場合が考えられる。
このようにして生成された量子化データは、逆量子化手段13に出力される。
In addition, in the quantization by the quantization means 12, the high frequency component may be reduced by a predetermined amount from each frequency coefficient of the transform coefficient sequence.
For example, among the frequency coefficients of the transform coefficient sequence, a frequency coefficient that becomes zero when it is assumed that the quantization is performed by the quantization table used in the quantization process by the encoding device 40 (see FIG. 1). Quantization used in the quantization process by the encoding device 40 (see FIG. 1) in the case where the frequency coefficient is replaced with zero and the other frequency coefficients are not processed as they are or, for example, among the frequency coefficients of the transform coefficient sequence It is conceivable that a frequency coefficient having a large quantization step width (exceeding a predetermined value) is replaced with zero and nothing is performed for the other frequency coefficients.
The quantized data generated in this way is output to the inverse quantization means 13.

なお、色変換装置1の変換手段11による変換処理および量子化手段12による量子化処理は、前記した「符号化模擬処理」に相当する。つまり、図1で説明した符号化器Cmの符号化装置40は、変換手段11と同じ変換処理を行い変換係数列を生成する手段(第2変換手段)と、量子化手段12と同じ量子化処理を行い量子化データを生成する手段(第2量子化手段)とを少なくとも備える。   The conversion process by the conversion unit 11 and the quantization process by the quantization unit 12 of the color conversion apparatus 1 correspond to the “encoding simulation process” described above. That is, the encoding device 40 of the encoder Cm described in FIG. 1 performs the same conversion process as the conversion unit 11 and generates a conversion coefficient sequence (second conversion unit), and the same quantization as the quantization unit 12. Means (second quantization means) for performing processing to generate quantized data.

逆量子化手段13は、量子化手段12において、符号化装置40(図1参照)による量子化処理で用いられる量子化テーブルで規定される量子化ステップで変換係数列の各周波数係数を量子化することで生成された量子化データを逆量子化して、逆量子化データを生成するものである。
具体的には、逆量子化手段13は、量子化手段12で変換係数列の各周波数係数を除算した量子化ステップを量子化データに乗算することで逆量子化して空間周波数領域のデータを再構築する。ここで、量子化手段12において丸め処理を行っているので、逆量子化手段13で逆量子化した後の各周波数係数の値と、量子化手段12によって量子化される前の各周波数係数の値とは一致しない。
逆量子化手段13で生成された逆量子化データは、逆変換手段14に出力される。
The inverse quantization unit 13 quantizes each frequency coefficient of the transform coefficient sequence in the quantization unit 12 in the quantization step defined by the quantization table used in the quantization process by the encoding device 40 (see FIG. 1). By dequantizing the quantized data generated in this way, dequantized data is generated.
Specifically, the inverse quantizing unit 13 performs inverse quantization by multiplying the quantized data by a quantization step obtained by dividing the frequency coefficients of the transform coefficient sequence by the quantizing unit 12 to regenerate the spatial frequency domain data. To construct. Here, since rounding processing is performed in the quantization means 12, the value of each frequency coefficient after inverse quantization by the inverse quantization means 13 and each frequency coefficient before being quantized by the quantization means 12 are calculated. Does not match the value.
The inversely quantized data generated by the inverse quantization unit 13 is output to the inverse transformation unit 14.

逆変換手段14は、量子化手段12で生成された逆量子化手段13で生成された逆量子化データに対し、変換手段11で行った変換処理の逆変換処理を行うことで、逆量子化データから空間領域の画像データを再構築し、劣化模擬画像A’を生成するものである。逆変換手段14は、例えば、変換手段11で入力画像Aに対し離散コサイン変換を行った場合、この逆変換である逆離散コサイン変換(IDCT;Inverse Discrete Cosine Transform)を量子化データに対して行うことで、各周波数係数から空間領域の画像データを再構築する。このようにして復元された空間領域の画像データは、減算手段15に出力される。この劣化模擬画像は、入力画像Aに対し変換手段11、量子化手段12によって符号化時の情報損失を模擬した結果を画像データとして復元したものであるので、入力画像Aよりも劣化した画像となる。   The inverse transform unit 14 performs inverse transform processing of the transform processing performed by the transform unit 11 on the inversely quantized data generated by the inverse quantizer 13 generated by the quantization unit 12, thereby performing inverse quantization. The image data of the spatial domain is reconstructed from the data, and the degradation simulation image A ′ is generated. For example, when the transform unit 11 performs a discrete cosine transform on the input image A, the inverse transform unit 14 performs an inverse discrete cosine transform (IDCT; Inverse Discrete Cosine Transform) on the quantized data. Thus, the image data in the spatial domain is reconstructed from each frequency coefficient. The image data of the spatial area restored in this way is output to the subtracting means 15. This deterioration simulation image is obtained by restoring the result of simulating information loss during encoding by the conversion means 11 and the quantization means 12 with respect to the input image A as image data. Become.

なお、色変換装置1の逆量子化手段13による逆量子化処理および逆変換手段14による逆変換処理が、前記した「復号処理」に相当する。   The inverse quantization process by the inverse quantization unit 13 and the inverse transform process by the inverse transform unit 14 of the color conversion apparatus 1 correspond to the above-described “decoding process”.

以上説明した、変換手段11、量子化手段12、逆量子化手段13および逆変換手段14による処理は、一般的な画像符号化方式でそれぞれ規定される処理をそのまま適用することができる。このようにして変換手段11および量子化手段12によって符号化模擬処理を行うことで、符号化器Cmの符号化装置40(図1参照)で行われる画像符号化方式における非可逆的な情報圧縮を模擬することができ、逆量子化手段13および逆変換手段14によって復号処理を行うことにより、復号器Dmの復号装置50(図1参照)で符号化模擬処理後のデータがどのように復元されるのかがわかる。そのため、一般的な画像符号化方式における符号化時に入力画像Aの画質がどのように劣化し、どのような画像として復元されるのかを予め推定することができる。   The processes defined by the general image coding method can be applied as they are to the processes by the transform unit 11, the quantizer 12, the inverse quantizer 13, and the inverse transform unit 14 described above. By performing the encoding simulation process by the transform unit 11 and the quantization unit 12 in this way, irreversible information compression in the image encoding method performed by the encoding device 40 (see FIG. 1) of the encoder Cm. By performing the decoding process by the inverse quantization unit 13 and the inverse transform unit 14, how the data after the encoding simulation process is restored by the decoding device 50 (see FIG. 1) of the decoder Dm. You can see what will be done. Therefore, it is possible to estimate in advance how the image quality of the input image A deteriorates and what kind of image is restored at the time of encoding in a general image encoding system.

ただし、変換手段11、量子化手段12による処理は、符号化器Cmの符号化装置40(図1参照)の処理と一致していれば、一般的な画像符号化方式でそれぞれ規定される処理と完全に一致している必要はなく、これと近似した処理としてもよい。また、逆量子化手段13、逆変換手段14による復号処理は、復号器Dmの復号装置50(図1参照)の処理と一致していれば、一般的な画像復号化方式でそれぞれ規定される処理と完全に一致している必要はなく、これと近似した処理としてもよい。   However, if the processing by the transforming unit 11 and the quantizing unit 12 is consistent with the processing of the encoding device 40 (see FIG. 1) of the encoder Cm, the processing specified by a general image encoding method, respectively. It is not necessary to completely coincide with the above, and processing close to this may be used. In addition, if the decoding processing by the inverse quantization means 13 and the inverse transformation means 14 is consistent with the processing of the decoding device 50 (see FIG. 1) of the decoder Dm, each is defined by a general image decoding method. It is not necessary to completely match the processing, and processing similar to this may be used.

減算手段15は、逆変換手段14で求められた劣化模擬画像A’と入力画像Aとの差分をとることにより、一般的な画像符号化方式における入力画像Aの符号化時に付加される符号化劣化成分を画像形式で検出するものである。
例えば、減算手段15は、次の式(1)により、符号化劣化成分Dとして差分画像Dを生成する。
The subtracting means 15 takes the difference between the deterioration simulated image A ′ obtained by the inverse converting means 14 and the input image A, thereby adding the encoding added when the input image A is encoded in a general image encoding method. The deterioration component is detected in an image format.
For example, the subtracting unit 15 generates the difference image D as the encoding degradation component D by the following equation (1).

Figure 0005909149
式(1)において、D(x,y)は、符号化劣化成分Dの画像座標(x,y)に関する劣化成分である。同様に、入力画像BまたはCの符号化時に付加される符号化劣化成分を符号化劣化成分EまたはFとし、符号化劣化成分EまたはFの画像座標(x,y)に関する劣化成分をE(x,y)またはF(x,y)とおく。
減算手段15(15A)によって検出された符号化劣化成分Dは、主成分分析手段20に出力される。同様にして、減算手段15B,15Cによってそれぞれ検出された符号化劣化成分E,Fは、主成分分析手段20にそれぞれ出力される。
Figure 0005909149
In Expression (1), D (x, y) is a degradation component related to the image coordinates (x, y) of the coding degradation component D. Similarly, the encoding deterioration component added at the time of encoding the input image B or C is the encoding deterioration component E or F, and the deterioration component relating to the image coordinates (x, y) of the encoding deterioration component E or F is E ( x, y) or F (x, y).
The encoded deterioration component D detected by the subtracting means 15 (15A) is output to the principal component analyzing means 20. Similarly, the coded deterioration components E and F detected by the subtracting means 15B and 15C are output to the principal component analyzing means 20, respectively.

主成分分析手段20は、減算手段15(15A,15Bおよび15C)でそれぞれ検出された符号化劣化成分D,EおよびFを入力し、式(2)に示すような、符号化劣化成分D,EおよびFの各画素位置におけるベクトルG(x,y)について画面内における主成分分析を行い、固有ベクトル(結合係数ベクトル)vkを生成するものである。 The principal component analysis means 20 inputs the coding deterioration components D, E and F detected by the subtraction means 15 (15A, 15B and 15C), respectively, and the coding deterioration components D, The principal component analysis in the screen is performed on the vector G (x, y) at each pixel position of E and F, and an eigenvector (coupling coefficient vector) v k is generated.

Figure 0005909149
Figure 0005909149

例えば、主成分分析手段20は、まず次の式(3),(4)により、画面内における分散・共分散行列Sを生成する。   For example, the principal component analysis means 20 first generates a variance / covariance matrix S in the screen by the following equations (3) and (4).

Figure 0005909149
Figure 0005909149

式(3)において、Tはベクトルまたは行列の転置を表す。
主成分分析手段20は、続いて、分散・共分散行列Sで色成分の数だけ固有ベクトルvkを生成する。この固有ベクトルvkは、第k主成分(kは自然数)に対する固有ベクトルである。そして、この固有ベクトルvkを固有値(各色成分の重み)の大きい方から順に、固有ベクトルv1,v2,v3とおく。なお、この固有ベクトルv1,v2,v3は、それぞれ列ベクトルであるものとする。つまり、固有ベクトルv1は、最も固有値が大きい色成分、言い換えれば、最もその画素における寄与率が高く、符号化時に最も劣化しやすい色成分であり、v2は、2番目に固有値が大きい色成分を表し、v3は、最も固有値が小さい色成分、言い換えれば、最もその画素における寄与率が低く、符号化時に最も劣化しにくい色成分を表している。
In Equation (3), T represents transposition of a vector or matrix.
Subsequently, the principal component analyzing means 20 generates eigenvectors v k by the number of color components in the variance / covariance matrix S. This eigenvector v k is an eigenvector for the k-th principal component (k is a natural number). The eigenvectors v k are set as eigenvectors v 1 , v 2 , and v 3 in order from the largest eigenvalue (weight of each color component). The eigenvectors v 1 , v 2 , and v 3 are column vectors. That is, the eigenvector v 1 is the color component having the largest eigenvalue, in other words, the color component having the highest contribution rate in the pixel and most likely to deteriorate during encoding, and v 2 is the color component having the second largest eigenvalue. the stands, v 3 is the most eigenvalue small color component, in other words, represents the lowest contribution ratio at the pixel, the most does not easily deteriorate color component in the encoding.

なお、主成分分析手段20による主成分分析は、1画像フレームを1単位として行ってもよいし、1画像フレームを区分した部分領域を1単位として行ってもよいし、複数画像フレームをまとめて1単位として行ってもよい。   The principal component analysis by the principal component analysis means 20 may be performed with one image frame as one unit, a partial area obtained by dividing one image frame may be performed as one unit, or a plurality of image frames may be combined. You may carry out as 1 unit.

主成分分析手段20は、さらに、例えば、前記したいずれかの単位ごとに主成分分析を行うことによって得られた固有ベクトルv1,v2,v3に基づき、次の式(5)に示す色変換行列Mを生成する。 The principal component analysis means 20 further uses, for example, the color shown in the following equation (5) based on the eigenvectors v 1 , v 2 , v 3 obtained by performing the principal component analysis for each of the units described above. A transformation matrix M is generated.

Figure 0005909149
Figure 0005909149

このようにして算出された色変換行列Mは、色空間変換手段30および色変換装置1の外部に出力される。   The color conversion matrix M calculated in this way is output to the outside of the color space conversion means 30 and the color conversion device 1.

色空間変換手段30は、色成分A,BおよびCからなる入力画像A,BおよびCのそれぞれの画素ごとに色変換行列Mを乗算することで、新たな色成分X,YおよびZに変換した出力画像X,YおよびZを生成するものである。すなわち、色空間変換手段30は、次の式(6)に示すような演算を実行し、入力画像A,BおよびCの色成分A、BおよびCを線形変換して色成分X,YおよびZとする。なお、色空間変換手段30は、入力画像A,BおよびCを所定のサイズのブロックに分割し、このブロックごとに前記した色変換処理を行う。ブロックサイズは、例えば、想定される画像符号化方式における代表的なブロックサイズと同等程度とすることができる。例えば、符号化装置40において、8×8ないし32×32のブロックサイズ単位で符号化処理が行われる場合、色空間変換手段30は、例えば16×16のブロックサイズで色変換処理を行うことができる。このようにすることで、符号化装置40において、様々なブロックサイズで符号化処理を行う場合であってもこれに適応させることができる。   The color space conversion means 30 multiplies the color conversion matrix M for each pixel of the input images A, B, and C composed of the color components A, B, and C, thereby converting them into new color components X, Y, and Z. The generated output images X, Y and Z are generated. That is, the color space conversion means 30 performs an operation as shown in the following equation (6), and linearly converts the color components A, B, and C of the input images A, B, and C to perform color components X, Y, and Let it be Z. The color space conversion means 30 divides the input images A, B, and C into blocks of a predetermined size, and performs the color conversion process described above for each block. The block size can be, for example, about the same as a typical block size in an assumed image encoding method. For example, when encoding processing is performed in the block size unit of 8 × 8 to 32 × 32 in the encoding device 40, the color space conversion unit 30 may perform color conversion processing with a block size of 16 × 16, for example. it can. By doing in this way, even if it is a case where the encoding apparatus 40 performs an encoding process with various block sizes, it can adapt to this.

Figure 0005909149
Figure 0005909149

[符号化装置の構成]
次に、符号化装置40の構成について図3を参照して説明する。
図3に示すように、符号化装置40は、一般的な静止画用の符号化装置と同様に、変換手段41(第2変換手段)と、量子化手段42(第2量子化手段)と、符号化手段43とを備える。
[Configuration of Encoding Device]
Next, the configuration of the encoding device 40 will be described with reference to FIG.
As shown in FIG. 3, the encoding device 40 includes a transforming unit 41 (second transforming unit), a quantizing unit 42 (second quantizing unit), and a general still image coding device. The encoding means 43 is provided.

変換手段41は、色変換装置1から出力された画像X,YおよびZを周波数変換して、周波数係数からなる変換係数列を生成するものである。変換手段41は、色変換装置1の変換手段11と同じ手順を行うことで、変換係数列を生成する。変換手段41は、例えば、画像X,YおよびZを8×8ないし32×32のブロックに分割し、このブロック単位で周波数変換を行う。ここで生成された変換係数列は、量子化手段42に出力される。   The conversion unit 41 performs frequency conversion on the images X, Y, and Z output from the color conversion apparatus 1 to generate a conversion coefficient sequence including frequency coefficients. The conversion unit 41 generates a conversion coefficient sequence by performing the same procedure as the conversion unit 11 of the color conversion device 1. For example, the conversion unit 41 divides the images X, Y, and Z into 8 × 8 to 32 × 32 blocks, and performs frequency conversion in units of the blocks. The transform coefficient sequence generated here is output to the quantization means 42.

量子化手段42は、変換手段11により求められた変換係数列の各周波数係数を量子化処理し、量子化データを生成するものである。量子化手段42は、色変換装置1の量子化手段12と同一の量子化テーブルを保持し、同一の量子化テーブルにより変換係数列の各周波数係数を量子化して量子化データを生成する。ここで生成された量子化データは、符号化手段43に出力される。
なお、符号化装置40の変換手段41による変換処理および量子化手段42による量子化処理は、色変換装置1の変換手段41による変換処理および量子化手段42による量子化処理と同じである。そのため、符号化装置40の変換手段41による変換処理および量子化手段42による量子化処理と逆の処理が、前記した「復号処理」に相当するといえる。つまり、図1で説明した復号器Dmの復号装置50は、符号化装置40の量子化手段42と逆の逆量子化処理を行う手段(第2逆量子化手段)と、符号化装置40の変換手段41と逆の逆変換処理を行う手段(第2逆変換手段)とを備える。
The quantizing unit 42 quantizes each frequency coefficient of the transform coefficient sequence obtained by the transform unit 11 to generate quantized data. The quantization means 42 holds the same quantization table as that of the quantization means 12 of the color conversion apparatus 1, and generates quantized data by quantizing each frequency coefficient of the conversion coefficient sequence using the same quantization table. The quantized data generated here is output to the encoding means 43.
Note that the conversion processing by the conversion means 41 of the encoding device 40 and the quantization processing by the quantization means 42 are the same as the conversion processing by the conversion means 41 of the color conversion device 1 and the quantization processing by the quantization means 42. Therefore, it can be said that the conversion process by the conversion unit 41 of the encoding apparatus 40 and the reverse process of the quantization process by the quantization unit 42 correspond to the above-described “decoding process”. That is, the decoding device 50 of the decoder Dm described in FIG. 1 includes a unit (second inverse quantization unit) that performs inverse quantization processing opposite to the quantization unit 42 of the encoding device 40, and the encoding device 40. Means (second inverse transformation means) for performing an inverse transformation process opposite to the conversion means 41 are provided.

符号化手段43は、量子化手段42で生成された量子化データをエントロピ符号化し、色変換装置1で生成された色変換行列Mをヘッダ情報やサイド情報として付加してこれらを多重化することで符号化データを生成する。ここで生成された符号化データは、復号器Dmの復号装置50に通知される。   The encoding unit 43 entropy-encodes the quantized data generated by the quantizing unit 42, adds the color conversion matrix M generated by the color conversion device 1 as header information or side information, and multiplexes them. To generate encoded data. The encoded data generated here is notified to the decoding device 50 of the decoder Dm.

[符号化器の動作]
次に、本発明の第一実施形態に係る色変換装置1と符号化装置40とを備える符号化器Cmの動作について図4および適宜図1〜3を参照して説明する。
[Encoder operation]
Next, the operation of the encoder Cm including the color conversion device 1 and the encoding device 40 according to the first embodiment of the present invention will be described with reference to FIG. 4 and FIGS.

図4に示すように、符号化器Cmは、色変換装置1の劣化推定手段10の変換手段11(11A,11B,11C)によって、外部から、色成分Aで構成された入力画像A、色成分Bで構成された入力画像B、または、色成分Cで構成された入力画像Cをそれぞれ入力する。符号化器Cmは、色変換装置1の変換手段11によって、入力画像A,BまたはCに対し、符号化装置40(図1参照)による変換処理と同等の変換処理を行い、空間領域の画像データから空間周波数領域の数値データに変換して周波数係数からなる変換係数列を生成する(ステップS101)。符号化器Cmは、色変換装置1の変換手段11によって、入力画像A,BまたはCからそれぞれ生成した変換係数列を量子化手段12(12A,12B,12C)に出力する。   As shown in FIG. 4, the encoder Cm receives the input image A composed of the color component A, the color by the conversion unit 11 (11A, 11B, 11C) of the deterioration estimation unit 10 of the color conversion device 1 from the outside. The input image B composed of the component B or the input image C composed of the color component C is input. The encoder Cm performs conversion processing equivalent to the conversion processing by the encoding device 40 (see FIG. 1) on the input image A, B, or C by the conversion means 11 of the color conversion device 1 to obtain a spatial domain image. Data is converted into numerical data in the spatial frequency domain to generate a conversion coefficient sequence including frequency coefficients (step S101). The encoder Cm outputs transform coefficient sequences generated respectively from the input images A, B, or C by the conversion unit 11 of the color conversion device 1 to the quantization unit 12 (12A, 12B, 12C).

続いて、符号化器Cmは、色変換装置1の量子化手段12(12A,12B,12C)によって、変換手段11で生成された変換係数列を入力して、変換係数列の各周波数係数を、符号化装置40による量子化処理で用いられる量子化テーブルで規定される量子化ステップにより量子化し、量子化データを生成する(ステップS102)。符号化器Cmは、色変換装置1の量子化手段12によって、生成した量子化データを逆量子化手段13に出力する。そして、符号化器Cmは、色変換装置1の逆量子化手段13によって、量子化手段12で生成した量子化データを逆量子化して空間周波数領域のデータ(逆量子化データ)を再構築する(ステップS103)。符号化器Cmは、色変換装置1の逆量子化手段13で生成した逆量子化データを逆変換手段14に出力する。   Subsequently, the encoder Cm inputs the conversion coefficient sequence generated by the conversion unit 11 by the quantization unit 12 (12A, 12B, 12C) of the color conversion device 1, and calculates each frequency coefficient of the conversion coefficient sequence. Then, quantization is performed by the quantization step defined by the quantization table used in the quantization process by the encoding device 40 to generate quantized data (step S102). The encoder Cm outputs the generated quantized data to the inverse quantization unit 13 by the quantization unit 12 of the color conversion device 1. Then, the encoder Cm uses the inverse quantization unit 13 of the color conversion device 1 to inversely quantize the quantized data generated by the quantization unit 12 to reconstruct spatial frequency domain data (inversely quantized data). (Step S103). The encoder Cm outputs the inversely quantized data generated by the inverse quantization unit 13 of the color conversion device 1 to the inverse conversion unit 14.

次に、符号化器Cmは、色変換装置1の逆変換手段14(14A,14B,14C)によって、量子化手段12で生成された量子化データまたは逆量子化手段13で生成された逆量子化データを入力し、この量子化データまたは逆量子化データに対し、変換手段11による変換処理の逆変換処理を行って、空間領域の画像データを再構築して劣化模擬画像A’,B’およびC’を生成する(ステップS104)。符号化器Cmは、色変換装置1の逆変換手段14によって、生成した劣化模擬画像A’,B’およびC’を減算手段15(15A,15B,15C)に出力する。   Next, the encoder Cm uses the inverse conversion unit 14 (14A, 14B, 14C) of the color conversion apparatus 1 to generate the quantized data generated by the quantization unit 12 or the inverse quantum generated by the inverse quantization unit 13. When the quantized data is input, the inverse transform process of the transform process by the transform unit 11 is performed on the quantized data or the inverse quantized data, and the spatial domain image data is reconstructed to generate the degradation simulated images A ′ and B ′. And C ′ are generated (step S104). The encoder Cm outputs the degradation simulation images A ′, B ′ and C ′ generated by the inverse conversion means 14 of the color conversion apparatus 1 to the subtraction means 15 (15A, 15B, 15C).

続いて、符号化器Cmは、色変換装置1の減算手段15(15A,15B,15C)によって、逆変換手段14で生成された劣化模擬画像A’,B’およびC’を入力するとともに、外部から入力画像A,BおよびCを入力して、入力画像A,BおよびCと劣化模擬画像A’,B’およびC’との間で差分をとり、符号化劣化成分D,EおよびFを検出する(ステップS105)。符号化器Cmは、色変換装置1の減算手段15によって、検出した符号化劣化成分D,EおよびFを主成分分析手段20に出力する。   Subsequently, the encoder Cm inputs the deterioration simulation images A ′, B ′ and C ′ generated by the inverse conversion unit 14 by the subtraction unit 15 (15A, 15B, 15C) of the color conversion device 1, and Input images A, B, and C are input from the outside, and differences between the input images A, B, and C and the deterioration simulation images A ′, B ′, and C ′ are obtained, and encoded deterioration components D, E, and F are detected. Is detected (step S105). The encoder Cm outputs the detected encoded deterioration components D, E, and F to the principal component analyzing unit 20 by the subtracting unit 15 of the color conversion device 1.

さらに、符号化器Cmは、色変換装置1の主成分分析手段20によって、減算手段15によって検出された符号化劣化成分D,EおよびFを入力し、画像座標(x,y)における色成分A,BおよびCの符号化劣化成分をまとめたベクトルG(x,y)について画面内における主成分分析を行い、固有ベクトルv1,v2およびv3を生成する(ステップS106)。 Further, the encoder Cm receives the encoded deterioration components D, E, and F detected by the subtracting means 15 by the principal component analyzing means 20 of the color conversion device 1, and the color components at the image coordinates (x, y). Principal component analysis in the screen is performed on the vector G (x, y) in which the coding degradation components of A, B, and C are collected, and eigenvectors v 1 , v 2, and v 3 are generated (step S106).

そして、符号化器Cmは、色変換装置1の主成分分析手段20によって、固有ベクトルv1,v2およびv3を用いて色変換行列Mを生成する(ステップS107)。符号化器Cmは、色変換装置1の主成分分析手段20によって、生成した色変換行列Mを色空間変換手段30および色変換装置1の外部に出力する。 Then, the encoder Cm generates a color conversion matrix M using the eigenvectors v 1 , v 2 and v 3 by the principal component analysis means 20 of the color conversion device 1 (step S107). The encoder Cm outputs the generated color conversion matrix M to the outside of the color space conversion unit 30 and the color conversion device 1 by the principal component analysis unit 20 of the color conversion device 1.

そして、符号化器Cmは、色変換装置1の色空間変換手段30によって、主成分分析手段20から色変換行列Mを入力するとともに、外部から入力画像A,BおよびCを入力し、入力画像A,BおよびCに対し色変換行列Mをそれぞれ乗算して、新たな色成分X,YおよびZからなる出力画像X,YおよびZを生成する(ステップS108)。符号化器Cmは、色変換装置1の色空間変換手段30によって、生成した出力画像X,YおよびZを符号化装置40に出力する(ステップS109)。   The encoder Cm receives the color conversion matrix M from the principal component analysis unit 20 and the input images A, B, and C from the outside by the color space conversion unit 30 of the color conversion device 1, and inputs the input image. A, B, and C are respectively multiplied by the color conversion matrix M to generate output images X, Y, and Z comprising new color components X, Y, and Z (step S108). The encoder Cm outputs the generated output images X, Y, and Z to the encoding device 40 by the color space conversion means 30 of the color conversion device 1 (step S109).

続いて、符号化器Cmは、符号化装置40の変換手段41によって、色変換装置1で生成された出力画像X,Y,Zを入力する(ステップS110)。
続いて、符号化器Cmは、符号化装置40の変換手段41によって、色変換装置1で生成された出力画像X,Y,Zに対し、色変換装置1の変換手段11と同じ変換処理を行い、変換係数列を生成する(ステップS111)。
さらに、符号化器Cmは、符号化装置40の量子化手段42によって、変換係数列に対し、色変換装置1の量子化手段12と同じ量子化処理を行い、量子化データを生成する(ステップS112)。
そして、符号化器Cmは、符号化装置40の符号化手段43によって、量子化手段42で生成された量子化データをエントロピ符号化し、さらに、色変換装置1の色空間変換手段30で生成された色変換行列Mをヘッダ情報やサイド情報として付加し、これらを多重化して符号化データを生成する(ステップS113)。
Subsequently, the encoder Cm receives the output images X, Y, and Z generated by the color conversion device 1 by the conversion means 41 of the encoding device 40 (step S110).
Subsequently, the encoder Cm performs the same conversion process as the conversion unit 11 of the color conversion device 1 on the output image X, Y, Z generated by the color conversion device 1 by the conversion unit 41 of the encoding device 40. The conversion coefficient sequence is generated (step S111).
Further, the encoder Cm performs the same quantization process as that of the quantization unit 12 of the color conversion device 1 on the transform coefficient sequence by the quantization unit 42 of the encoding device 40 to generate quantized data (step). S112).
The encoder Cm entropy-encodes the quantized data generated by the quantizing means 42 by the encoding means 43 of the encoding device 40, and is further generated by the color space converting means 30 of the color conversion device 1. The color conversion matrix M is added as header information or side information, and these are multiplexed to generate encoded data (step S113).

以上説明した本発明の第一実施形態に係る符号化器Cmによれば、次のような作用効果を奏する。
本発明の第一実施形態に係る符号化器Cmによれば、色変換装置1が、入力画像の各色成分から直接、色変換行列を生成するのではなく、画像符号化方式による符号化の前に、入力画像の各色成分に対し符号化を模擬した処理を行うことで、符号化により損失される色成分を画素ごとに抽出し、この損失を考慮して、損失しにくい色成分となるような色変換行列を生成することができる。そして、この色変換行列を入力画像の色成分に乗算することで、符号化時に損失しにくい新たな色空間の色成分からなる画像を生成することが可能となる。
この新たな色空間は、その各軸が、カラー画像の符号化時において損失の最も大きくなる軸から順次直交基底を張るため、符号化劣化成分を受けやすい色成分から符号化劣化成分を受けにくい色成分へと順位付けのなされた色分解が可能となる。
The encoder Cm according to the first embodiment of the present invention described above has the following operational effects.
According to the encoder Cm according to the first embodiment of the present invention, the color conversion apparatus 1 does not directly generate a color conversion matrix from each color component of the input image, but before encoding by the image encoding method. In addition, by performing a process that simulates the encoding for each color component of the input image, the color component lost by the encoding is extracted for each pixel, and this loss is taken into consideration so that the color component is not easily lost. A color conversion matrix can be generated. Then, by multiplying the color component of the input image by this color conversion matrix, it is possible to generate an image made up of color components in a new color space that is less likely to be lost during encoding.
In this new color space, each axis has an orthogonal basis sequentially from the axis with the largest loss at the time of encoding a color image. Color separation that is prioritized into color components becomes possible.

また、符号化器Cmによれば、色変換装置1が、入力画像A,BおよびCに対し符号化装置40の符号化処理と同じ処理を行うことで、符号化時に付加される符号化劣化成分を予め推定することができる。また、符号化器Cmによれば、色変換装置1が、復号器Dmの復号装置50(図1参照)の復号処理と同じ処理を行うことで、復号装置50(図1参照)によってどのように画像が復号されるかがわかる。
そして、符号化器Cmによれば、色変換装置1が、符号化劣化成分の推定結果を反映した色変換行列を生成して入力画像A,BおよびCに乗算することで、入力画像A,BおよびCの色成分を、符号化装置40による実際の符号化時における画質劣化が最も少なくなるような新たな色空間の色成分に変換することができる。したがって、新たな色空間の色成分の出力画像X,YおよびZに対する符号化装置40による実際の符号化時における画質劣化を効果的に抑制することができる。
そのため、復号器Dm(図1参照)で復号されたカラー画像の画質が、入力画像A,BおよびCの元となるカラー画像の画質に対し劣化するのを効果的に抑制することができる。
Further, according to the encoder Cm, the color conversion device 1 performs the same processing as the encoding processing of the encoding device 40 on the input images A, B, and C, so that the encoding deterioration added at the time of encoding is performed. Components can be estimated in advance. Further, according to the encoder Cm, the color conversion device 1 performs the same process as the decoding process of the decoding device 50 (see FIG. 1) of the decoder Dm, so that the decoding device 50 (see FIG. 1) It can be seen whether the image is decoded.
Then, according to the encoder Cm, the color conversion device 1 generates a color conversion matrix reflecting the estimation result of the encoded deterioration component, and multiplies the input images A, B, and C, whereby the input images A, The B and C color components can be converted into color components in a new color space that minimizes image quality degradation during actual encoding by the encoding device 40. Therefore, it is possible to effectively suppress deterioration in image quality at the time of actual encoding by the encoding device 40 for the output images X, Y, and Z of the color components in the new color space.
Therefore, it is possible to effectively suppress degradation of the image quality of the color image decoded by the decoder Dm (see FIG. 1) relative to the image quality of the color image that is the source of the input images A, B, and C.

<第二実施形態に係る符号化器>
図1に示すように、本発明の第二実施形態に係る符号化器Cm1は、色変換装置1Aと符号化装置40A(図1,7参照)とを備える。以下、色変換装置1Aの構成について、図5,6を参照して説明する。
<Encoder according to Second Embodiment>
As shown in FIG. 1, an encoder Cm1 according to the second embodiment of the present invention includes a color conversion device 1A and an encoding device 40A (see FIGS. 1 and 7). Hereinafter, the configuration of the color conversion apparatus 1A will be described with reference to FIGS.

[色変換装置の構成]
図5に示すように、色変換装置1Aは、劣化推定手段10Aと、主成分分析手段20と、色空間変換手段30と、を備えている。
[Configuration of color conversion device]
As shown in FIG. 5, the color conversion device 1 </ b> A includes a deterioration estimation unit 10 </ b> A, a principal component analysis unit 20, and a color space conversion unit 30.

色変換装置1Aは、色変換装置1に対し、劣化推定手段10Aの構成が異なる点で相違する。具体的には、色変換装置1Aは、動き補償を有する動画像の画像符号化方式における動き補償を模擬することを可能とするために、劣化推定手段10Aが、色変換装置1の劣化推定手段10の各構成要素に加えて、予測残差推定手段16をさらに備える点で、色変換装置1と相違する。このため、その他の同一の構成要素については同一の符号を付し、重複する説明を省略する。なお、ここでは、3つの色成分A,BおよびCが色変換装置1Aに入力されるものとする。また、色変換装置1Aは、予測残差推定手段16によって、符号化装置40Aの予測残差推定手段44(第2予測残差推定手段)で行われるフレーム間予測、イントラ予測、あるいは、フレーム間予測+イントラ予測を模擬することができるが、ここでは、予測残差推定手段16によって、フレーム間予測を行う場合を例にとって説明する。   The color conversion device 1A is different from the color conversion device 1 in that the configuration of the deterioration estimation unit 10A is different. Specifically, in order to enable the color conversion device 1A to simulate motion compensation in an image coding system for moving images having motion compensation, the deterioration estimation unit 10A is configured to use the deterioration estimation unit of the color conversion device 1. It differs from the color conversion apparatus 1 in that the prediction residual estimation means 16 is further provided in addition to the ten components. For this reason, other identical components are denoted by the same reference numerals, and redundant description is omitted. Here, it is assumed that three color components A, B, and C are input to the color conversion apparatus 1A. Further, the color conversion device 1A uses the prediction residual estimation unit 16 to perform interframe prediction, intra prediction, or interframe prediction performed by the prediction residual estimation unit 44 (second prediction residual estimation unit) of the encoding device 40A. Although prediction + intra prediction can be simulated, here, a case where interframe prediction is performed by the prediction residual estimation means 16 will be described as an example.

図5に示すように、劣化推定手段10Aは、入力画像に対し、符号化装置40A(図1,7参照)で符号化を行った場合に付加される符号化劣化成分を画素ごと色成分ごとに生成するものであって、変換手段11と、量子化手段12と、逆量子化手段13と、逆変換手段14と、減算手段15と、予測残差推定手段16とを色成分ごとに備える。以下では、色成分により変換手段11と、量子化手段12と、逆量子化手段13と、逆変換手段14と、減算手段15と、予測残差推定手段16とを区別する場合には、各手段に付される数字の後に、入力画像を表す記号(A,BまたはC)を付して区別するものとする。また、以下では、入力画像Aの処理を行う変換手段11と、量子化手段12と、逆量子化手段13と、逆変換手段14と、減算手段15と、予測残差推定手段16とを例にとって説明する。   As shown in FIG. 5, the degradation estimation means 10 </ b> A determines the coding degradation component added when the coding apparatus 40 </ b> A (see FIGS. 1 and 7) codes the input image for each pixel and color component. The conversion means 11, the quantization means 12, the inverse quantization means 13, the inverse transformation means 14, the subtraction means 15, and the prediction residual estimation means 16 are provided for each color component. . In the following, when the transforming unit 11, the quantizing unit 12, the inverse quantizing unit 13, the inverse transforming unit 14, the subtracting unit 15, and the prediction residual estimating unit 16 are distinguished by color components, A number (A, B, or C) representing the input image is added after the number given to the means for distinction. In the following, the transforming unit 11, the quantizing unit 12, the inverse quantizing unit 13, the inverse transforming unit 14, the subtracting unit 15, and the prediction residual estimating unit 16 that perform processing of the input image A will be exemplified. I will explain to you.

図6に示すように、予測残差推定手段16(16A)は、参照画像蓄積手段16aと、動き推定手段16bと、動き補償手段16cと、残差画像生成手段16dと、を備える。   As shown in FIG. 6, the prediction residual estimation unit 16 (16A) includes a reference image storage unit 16a, a motion estimation unit 16b, a motion compensation unit 16c, and a residual image generation unit 16d.

参照画像蓄積手段16a(16Aa)は、動き補償手段で動き補償を行う際に参照される画像を蓄積するものである。参照画像蓄積手段16aは、外部から色成分Aでなる入力画像Aを入力して一時的に記憶し、この入力画像Aを例えば1フレーム分遅延して動き推定手段16bおよび動き補償手段16cに出力するものである。例えば、動画像の1フレーム目の色成分Aの集合である入力画像を入力画像A1とし、動画像の2フレーム目の色成分Aの集合である入力画像を入力画像A2とする。この場合、参照画像蓄積手段16aは、まず、入力画像A1(An-1)を入力して記憶する。そして、参照画像蓄積手段16aは、入力画像A2(An)が入力されると、すでに記憶した入力画像A1を動き推定手段16bおよび動き補償手段16cに出力するとともに、入力画像A1を入力画像A2に書き換えて記憶する。この記憶手段は、例えば、RAM(Random Access Memory)、ハードディスク等によって実現される。 The reference image accumulating unit 16a (16Aa) accumulates an image that is referred to when motion compensation is performed by the motion compensating unit. The reference image storage means 16a receives an input image A composed of the color component A from the outside and temporarily stores it, and outputs the input image A to the motion estimation means 16b and the motion compensation means 16c with a delay of, for example, one frame. To do. For example, an input image that is a set of color components A in the first frame of the moving image is an input image A 1, and an input image that is a set of color components A in the second frame of the moving image is an input image A 2 . In this case, the reference image storage means 16a first inputs and stores the input image A 1 (A n-1 ). When the input image A 2 (A n ) is input, the reference image storage unit 16a outputs the already stored input image A 1 to the motion estimation unit 16b and the motion compensation unit 16c, and the input image A 1 is output. The input image A 2 is rewritten and stored. This storage means is realized by, for example, a RAM (Random Access Memory), a hard disk, or the like.

動き推定手段16b(16Ab)は、時間的に1つ前のフレーム(前フレーム)の画像An-1と現フレームの画像Anとを比較して画像動き(動きベクトルtn)を生成するものである。
前記した例の場合、動き推定手段16bは、外部から入力画像A2を入力し、この入力画像A2と、参照画像蓄積手段16aから遅延して出力された入力画像A1とを比較して、画像動きを生成するものである。なお、参照画像蓄積手段16aと動き推定手段16bには同じタイミングで入力画像A2が入力される。また、動き推定手段16bは、比較対象となるフレームが存在しない場合、つまり、参照画像蓄積手段16aからの出力がない場合、処理を行わない。
Motion estimation means 16b (16Ab) generates a temporally preceding frame image A n-1 and compared to the image motion and image A n of the current frame (preceding frame) (motion vector t n) Is.
For example described above, the motion estimation unit 16b inputs the input image A 2 from the outside, this input image A 2, the reference image storage unit 16a compares the input image A 1 output with a delay from The image motion is generated. Note that the input image A 2 is input to the reference image storage unit 16a and the motion estimation unit 16b at the same timing. The motion estimation unit 16b does not perform processing when there is no frame to be compared, that is, when there is no output from the reference image storage unit 16a.

動き推定手段16bは、例えば、入力画像A2を複数のブロックに分割し、各ブロック内の画素値列と類似する領域を入力画像A1内から探索する(ブロックマッチングする)ことによって、当該ブロックの場所における動きベクトルt2(入力画像A1からみた入力画像A2の動きの大きさと方向)を生成する。なお、類似性は、例えば、画素値列間の相互相関の最大化や、画素値列の誤差和(二乗誤差和や絶対値誤差和)の最小化によって評価することができる。また、各ブロックの大きさは、符号化装置40A(図1参照)で用いられる符号化方式に応じて適宜決定されるが、例えば、符号化装置40A(図1参照)で符号化方式としてMPEG−2方式を想定する場合、16×16画素のマクロブロックに分割する。このようにして求められた動きベクトルt2は、動き補償手段16cに出力される。 For example, the motion estimation unit 16b divides the input image A 2 into a plurality of blocks, and searches for a region similar to the pixel value sequence in each block from the input image A 1 (block matching). The motion vector t 2 (the magnitude and direction of the motion of the input image A 2 viewed from the input image A 1 ) is generated. Note that the similarity can be evaluated by, for example, maximizing the cross-correlation between the pixel value sequences and minimizing the error sum (square error sum or absolute value error sum) of the pixel value sequences. The size of each block is appropriately determined according to the encoding method used in the encoding device 40A (see FIG. 1). For example, the encoding device 40A (see FIG. 1) uses MPEG as the encoding method. -2 scheme is divided into 16 × 16 pixel macroblocks. The motion vector t 2 obtained in this way is output to the motion compensation means 16c.

動き補償手段16c(16Ac)は、動き推定手段16bから動きベクトルを入力するとともに、参照画像蓄積手段16aから遅延して出力された前フレームの画像An-1を入力し、動きベクトルに基づいて前フレームの画像An-1から現フレームの画像Anを予測した予測画像Lnを生成するものである。前記した例の場合、動き補償手段16cは、参照画像蓄積手段16aから入力画像A1を入力し、動き推定手段16bから入力された動きベクトルt2に基づいて入力画像A1をブロックごとに移動させて動き補償して、入力画像A1が動きベクトル分動いた動き補償画像を、入力画像A1から入力画像A2を予測した予測画像L2として生成する。 The motion compensator 16c (16Ac) receives the motion vector from the motion estimator 16b and also receives the previous frame image An-1 output from the reference image accumulator 16a, based on the motion vector. and it generates a prediction image L n from the image a n-1 of the previous frame predicted image a n of the current frame. For example and the moved, the motion compensation unit 16c inputs the input image A 1 from the reference image storage unit 16a, an input image A 1 for each block based on the motion vector t 2 input from the motion estimation means 16b Thus, motion compensation is performed, and a motion compensated image in which the input image A 1 is moved by a motion vector is generated as a predicted image L 2 obtained by predicting the input image A 2 from the input image A 1 .

残差画像生成手段16d(16Ad)は、動き補償手段16cで生成された予測画像Lnと、外部から入力された現フレームの画像Anとの間で差分をとり、予測誤差を残差画像Pnとして生成するものである。前記した例の場合、残差画像生成手段16dは、動き補償手段16cで生成された予測画像L2を入力し、外部から入力された入力画像A2との差分をとり、残差画像P2を生成する。このようにして生成された残差画像P2は、変換手段11および減算手段15に出力される。 Residual image generating means 16d (16Ad) takes the predicted image L n generated by the motion compensation unit 16c, a difference between the image A n of the current frame input from the outside, the residual image prediction error It is generated as P n . For example mentioned above, residual image generating means 16d inputs the predicted image L 2 which is generated by the motion compensation unit 16c, calculates the difference between the input image A 2 input from the outside, the residual image P 2 Is generated. The residual image P 2 generated in this way is output to the conversion means 11 and the subtraction means 15.

これと同様にして、予測残差推定手段16B,16Cは、動き推定手段16Bb,16Cbによって動きベクトルtnを求め、動き補償手段16Bc,16Ccによって予測画像Mn,Nnを生成し、残差画像生成手段16Bd,16Cdによって残差画像Qn,Rnを生成する。 Similarly, the prediction residual estimation means 16B and 16C obtain the motion vector t n by the motion estimation means 16Bb and 16Cb, generate the prediction images M n and N n by the motion compensation means 16Bc and 16Cc, and the residuals. Residual images Q n and R n are generated by the image generating means 16Bd and 16Cd.

なお、色変換装置1Aの予測残差推定手段16による予測残差推定処理、変換手段11Aによる変換処理および量子化手段12Aによる量子化処理は、前記した「符号化模擬処理」に相当する。   Note that the prediction residual estimation process by the prediction residual estimation unit 16 of the color conversion apparatus 1A, the conversion process by the conversion unit 11A, and the quantization process by the quantization unit 12A correspond to the “encoding simulation process” described above.

次に、符号化装置40Aの構成について、図7を参照して説明する。
図7に示すように、符号化装置40Aは、一般的な動画像の符号化装置と同様に、変換手段41と、量子化手段42と、符号化手段43と、予測残差推定手段44(第2予測残差推定手段)と、逆量子化手段45と、逆変換手段46と、加算手段47とを備えている。ここで、変換手段41と、量子化手段42と、符号化手段43とは、前記した符号化装置40において説明したのと同様であるので、ここでは詳細な説明を省略する。
Next, the configuration of the encoding device 40A will be described with reference to FIG.
As shown in FIG. 7, the encoding device 40A, like a general moving image encoding device, is a transforming means 41, a quantizing means 42, an encoding means 43, and a prediction residual estimation means 44 ( Second prediction residual estimation means), inverse quantization means 45, inverse transform means 46, and addition means 47. Here, since the conversion means 41, the quantization means 42, and the encoding means 43 are the same as those described in the encoding apparatus 40, detailed description is omitted here.

予測残差推定手段44(第2予測残差推定手段)は、参照画像蓄積手段44aと、動き推定手段44bと、動き補償手段44cと、残差画像生成手段44dとを備えている。予測残差推定手段44は、色変換装置1の予測残差推定手段16と同様の手順で残差画像を生成するものである。すなわち、予測残差推定手段44は、フレーム間予測、イントラ予測、あるいは、フレーム間予測+イントラ予測のいずれを行うものとしてもよいが、ここでは、フレーム間予測を行うものとする。   The prediction residual estimation unit 44 (second prediction residual estimation unit) includes a reference image storage unit 44a, a motion estimation unit 44b, a motion compensation unit 44c, and a residual image generation unit 44d. The prediction residual estimation unit 44 generates a residual image in the same procedure as the prediction residual estimation unit 16 of the color conversion device 1. That is, the prediction residual estimation means 44 may perform any of interframe prediction, intra prediction, or interframe prediction + intra prediction, but here it is assumed that interframe prediction is performed.

参照画像蓄積手段44aは、予測残差推定手段16の参照画像蓄積手段16aと同様の手順で、加算手段47で生成された画像X,YおよびZの時間的に1つ前のフレーム(前フレーム)の画像を、次に入力されるフレーム(現フレーム)の予測画像を生成する際の参照画像として蓄積しておくものである。ここでは、参照画像蓄積手段44aは、加算手段47で劣化模擬画像と予測画像とを加算して生成された時間的に1つ前のフレームの画像を参照画像として蓄積する。   The reference image accumulating unit 44a is the same frame as the reference image accumulating unit 16a of the prediction residual estimating unit 16 in the same time frame (previous frame) of the images X, Y and Z generated by the adding unit 47. ) Is stored as a reference image when a predicted image of the next input frame (current frame) is generated. Here, the reference image accumulating unit 44a accumulates the image of the previous frame generated by adding the deterioration simulated image and the predicted image by the adding unit 47 as a reference image.

動き推定手段44bは、予測残差推定手段16の動き推定手段16bと同様の手順で、参照画像蓄積手段44aに蓄積された前フレームの画像(参照画像)と現フレームの画像とを比較して画像動き(動きベクトル)を生成するものである。ここで生成された動きベクトルは、動き補償手段44cおよび符号化手段43に出力される。   The motion estimation unit 44b compares the previous frame image (reference image) stored in the reference image storage unit 44a with the current frame image in the same procedure as the motion estimation unit 16b of the prediction residual estimation unit 16. It generates image motion (motion vector). The motion vector generated here is output to the motion compensation unit 44 c and the encoding unit 43.

動き補償手段44cは、予測残差推定手段16の動き補償手段16cと同様の手順で、動き推定手段44bで生成された動きベクトルに基づいて、参照画像蓄積手段44aに蓄積された前フレームの画像(参照画像)から現フレームの画像を予測した予測画像を生成するものである。ここで生成された予測画像は、残差画像生成手段44dに出力される。   The motion compensation unit 44c is an image of the previous frame stored in the reference image storage unit 44a based on the motion vector generated by the motion estimation unit 44b in the same procedure as the motion compensation unit 16c of the prediction residual estimation unit 16. A predicted image obtained by predicting an image of the current frame from (reference image) is generated. The predicted image generated here is output to the residual image generating unit 44d.

残差画像生成手段44dは、予測残差推定手段16の残差画像生成手段16dと同様の手順で、色変換装置1Aから出力された現フレームの画像と動き補償手段44cで生成された予測画像との差分をとった残差画像をそれぞれ生成するものである。この残差画像は、符号化対象画像(現フレームの画像)と、その動きを予測した予測画像(動き補償画像)との予測誤差を示すものである。ここで生成された残差画像は、変換手段41に出力される。   The residual image generation unit 44d is a procedure similar to the residual image generation unit 16d of the prediction residual estimation unit 16, and the current frame image output from the color conversion device 1A and the prediction image generated by the motion compensation unit 44c. The difference images are taken to generate residual images. This residual image indicates a prediction error between an encoding target image (current frame image) and a predicted image (motion compensated image) whose motion is predicted. The residual image generated here is output to the conversion means 41.

逆量子化手段45は、量子化手段42で生成された量子化データに対して、逆量子化を行うことで、量子化データを逆量子化データに変換するものである。逆量子化手段45は、色変換装置1Aの逆量子化手段13と同じ手順で逆量子化を行い、逆量子化データを生成する。ここで変換された逆量子化データは、逆変換手段46に出力される。   The inverse quantization means 45 converts the quantized data into inverse quantized data by performing inverse quantization on the quantized data generated by the quantizing means 42. The inverse quantization means 45 performs inverse quantization in the same procedure as the inverse quantization means 13 of the color conversion device 1A, and generates inverse quantization data. The inversely quantized data converted here is output to the inverse conversion means 46.

逆変換手段46は、逆量子化手段45で変換された逆量子化データに対して、変換手段41で行った変換の逆変換を行うものである。逆変換手段46は、色変換装置1Aの逆変換手段14と同じ手順で逆変換を行い、逆量子化データから空間領域の画像データを再構築し、残差復号画像(符号化劣化後の残差画像を復号した画像)を生成する。この逆変換手段46で逆変換によって生成された残差復号画像は、加算手段47に出力される。   The inverse transform means 46 performs inverse transform of the transform performed by the transform means 41 on the inversely quantized data transformed by the inverse quantizer 45. The inverse transform means 46 performs inverse transform in the same procedure as the inverse transform means 14 of the color conversion device 1A, reconstructs the spatial domain image data from the inversely quantized data, and generates a residual decoded image (residual image after the deterioration of encoding) An image obtained by decoding the difference image is generated. The residual decoded image generated by the inverse transform in the inverse transform means 46 is output to the addition means 47.

加算手段47は、逆変換手段46から出力される残差復号画像と、予測残差推定手段44の動き補償手段44cから出力される予測画像とを加算して、復号画像を生成するものである。ここで生成された復号画像は、次に入力されるフレームの予測画像を生成する際の参照画像の候補として予測残差推定手段44の参照画像蓄積手段44aに蓄積される。   The adding unit 47 adds the residual decoded image output from the inverse transform unit 46 and the prediction image output from the motion compensation unit 44c of the prediction residual estimation unit 44 to generate a decoded image. . The decoded image generated here is stored in the reference image storage unit 44a of the prediction residual estimation unit 44 as a reference image candidate when generating a predicted image of the next input frame.

符号化装置40Aにおいて、符号化手段43は、量子化手段42で生成された量子化データと、予測残差推定手段44の動き推定手段44bで生成された動きベクトルをエントロピ符号化し、色変換装置1Aで生成された色変換行列Mをヘッダ情報やサイド情報として付加してこれらを多重化することで符号化データを生成する。   In the encoding device 40A, the encoding unit 43 entropy-encodes the quantized data generated by the quantization unit 42 and the motion vector generated by the motion estimation unit 44b of the prediction residual estimation unit 44, and a color conversion device. The color conversion matrix M generated in 1A is added as header information or side information, and these are multiplexed to generate encoded data.

<符号化器Cm1の動作>
次に、第二実施形態に係る符号化器Cm1の動作について、図8,9を参照して説明する。
図8に示すように、符号化器Cm1は、色変換装置1Aの予測残差推定手段16(16A,16Bおよび16C)によって、外部から入力画像An,BnおよびCnを入力しフレーム間残差予測推定処理を行う(ステップS121)。このステップS121は、図9に示すように、ステップS141〜ステップS146を含むものである。図9に示すように、符号化器Cm1は、色変換装置1AのステップS121において、予測残差推定手段16の参照画像蓄積手段16a(16Aa,16Baおよび16Ca)によって、動画像の1フレーム目の色成分A,BおよびCの集合である入力画像A1,B1およびC1(An-1,Bn-1およびCn-1)をそれぞれ入力し記憶する(ステップS141)。
<Operation of Encoder Cm1>
Next, the operation of the encoder Cm1 according to the second embodiment will be described with reference to FIGS.
As shown in FIG. 8, the encoder Cm1 is the prediction residual estimation means 16 of the color conversion device 1A (16A, 16B and 16C), between inputs an input image A n, B n and C n from the outer frame Residual prediction estimation processing is performed (step S121). This step S121 includes steps S141 to S146 as shown in FIG. As shown in FIG. 9, the encoder Cm1 uses the reference image storage means 16a (16Aa, 16Ba, and 16Ca) of the prediction residual estimation means 16 in step S121 of the color conversion apparatus 1A to execute the first frame of the moving picture. Input images A 1 , B 1 and C 1 (A n−1 , B n−1 and C n−1 ), which are sets of color components A, B and C, are input and stored (step S141).

次に、符号化器Cm1は、色変換装置1AのステップS121において、予測残差推定手段16の参照画像蓄積手段16aによって、動画像の2フレーム目の色成分A,BおよびCの集合である入力画像A2,B2およびC2(An,BnおよびCn)を入力し、すでに記憶した入力画像A1,B1およびC1を動き推定手段16b(16Ab,16Bbおよび16Cb)および動き補償手段16c(16Ac,16Bcおよび16Cc)に出力するとともに、入力画像A1,B1およびC1を入力画像A2,B2およびC2に書き換えて記憶する(ステップS142)。 Next, the encoder Cm1 is a set of color components A, B, and C of the second frame of the moving image by the reference image storage unit 16a of the prediction residual estimation unit 16 in step S121 of the color conversion apparatus 1A. Input images A 2 , B 2 and C 2 (A n , B n and C n ) are input, and the already stored input images A 1 , B 1 and C 1 are used as motion estimation means 16b (16Ab, 16Bb and 16Cb) and In addition to outputting to the motion compensation means 16c (16Ac, 16Bc and 16Cc), the input images A 1 , B 1 and C 1 are rewritten and stored as input images A 2 , B 2 and C 2 (step S142).

続いて、符号化器Cm1は、色変換装置1AのステップS121において、動き推定手段16bによって、参照画像蓄積手段16aから入力画像A1,B1およびC1をそれぞれ入力するとともに、外部から入力画像A2,B2およびC2をそれぞれ入力し、入力画像A1,B1およびC1と入力画像A2,B2およびC2とをそれぞれ比較して、動きベクトルt2をそれぞれ検出する(ステップS143)。 Subsequently, in step S121 of the color conversion device 1A, the encoder Cm1 inputs the input images A 1 , B 1, and C 1 from the reference image storage unit 16a by the motion estimation unit 16b and inputs the input image from the outside. A 2 , B 2, and C 2 are input, respectively, and the input images A 1 , B 1, and C 1 are compared with the input images A 2 , B 2, and C 2 , respectively, and a motion vector t 2 is detected ( Step S143).

符号化器Cm1は、色変換装置1AのステップS121において、動き推定手段16bによって、検出した動きベクトルt2を動き補償手段16cに出力する。続いて、色変換装置1Aは、動き補償手段16cによって、動き推定手段16bから動きベクトルt2を入力すると、この動きベクトルt2に基づき、外部から入力された入力画像A2,B2およびC2を予め定めたブロックごとに移動させて動き補償し、入力画像A1,B1およびC1から入力画像A2,B2およびC2をそれぞれ予測した予測画像L2,M2,N2をそれぞれ生成する(ステップS144)。 Encoder Cm1 in step S121 in the color conversion device 1A, by the motion estimation unit 16b, and outputs the detected motion vector t 2 to the motion compensation unit 16c. Subsequently, the color conversion device 1A, the motion compensation unit 16c, when inputting the motion vector t 2 from the motion estimation unit 16b, based on the motion vector t 2, the input image input from the outside A 2, B 2 and C move every predetermined block 2 and motion compensation, the input image a 1, B 1 and the predicted image L 2 to the input image a 2 from C 1, B 2 and C 2 were predicted respectively, M 2, N 2 Are respectively generated (step S144).

符号化器Cm1は、色変換装置1AのステップS121において、動き補償手段16cによって、生成した予測画像L2,M2,N2を残差画像生成手段16d(16Ad,16Bdおよび16Cd)に出力する。そして、色変換装置1Aは、ステップS121において、残差画像生成手段16dによって、動き補償手段16cから予測画像L2,M2,N2を入力すると、この予測画像L2,M2,N2と、外部から入力された入力画像A2,B2およびC2との間で差分をとり、残差画像P2,Q2,R2を生成することによって、予測画像L2,M2,N2と入力画像A2,B2,C2との間の画素値の差を画素位置ごとに生成する(ステップS145)。これによって、時間的に前のフレームである入力画像A1,B1およびC1からの動きと方向を現フレームである入力画像A2,B2およびC2から予測するとともに、予測結果と現フレームとの誤差を生成することができる。 In step S121 of the color conversion device 1A, the encoder Cm1 outputs the prediction images L 2 , M 2 , and N 2 generated by the motion compensation unit 16c to the residual image generation unit 16d (16Ad, 16Bd, and 16Cd). . The color conversion apparatus 1A, in step S121, the residual image generating unit 16d, when entering a prediction image L 2, M 2, N 2 from the motion compensation unit 16c, the predicted image L 2, M 2, N 2 And the input images A 2 , B 2, and C 2 input from the outside, and generating residual images P 2 , Q 2 , R 2 , the predicted images L 2 , M 2 , Differences in pixel values between N 2 and the input images A 2 , B 2 , C 2 are generated for each pixel position (step S145). As a result, the motion and direction from the input images A 1 , B 1 and C 1 which are temporally previous frames are predicted from the input images A 2 , B 2 and C 2 which are the current frames, and the prediction result and the current An error with the frame can be generated.

そして、色変換装置1Aは、ステップS121において、残差画像生成手段16dによって、生成した残差画像P2,Q2,R2(P,Q,R)を変換手段11(11A,11Bおよび11C)、および、減算手段15(15A,15Bおよび15C)にそれぞれ出力する(ステップS146)。予測残差推定手段16は、動画像の各フレームが時系列に沿って順次入力される間、ステップS141〜S146を繰り返す。 In step S121, the color conversion apparatus 1A converts the residual images P 2 , Q 2 , R 2 (P, Q, R) generated by the residual image generation unit 16d into conversion units 11 (11A, 11B, and 11C). ) And the subtracting means 15 (15A, 15B and 15C), respectively (step S146). The prediction residual estimation unit 16 repeats steps S141 to S146 while each frame of the moving image is sequentially input in time series.

続いて、符号化器Cm1は色変換装置1Aによって、図8に示す各S122〜S129のステップを実行する。
さらに続いて、符号化器Cm1は符号化装置40Aによって、図8に示す各S130〜S134のステップを実行する。
Subsequently, the encoder Cm1 executes steps S122 to S129 shown in FIG. 8 by the color conversion apparatus 1A.
Subsequently, the encoder Cm1 executes steps S130 to S134 shown in FIG. 8 by the encoder 40A.

なお、図8に示す符号化器Cm1のステップS122〜S129の動作と前記した第一実施形態に係る符号化器CmのステップS102〜S109(図4参照)の動作は、前者の入力が残差画像P,QおよびRであり、後者の入力が入力画像A,BおよびCである点では相違するが、実質的な動作の内容は同様であるので、前記した第一実施形態に係る符号化器CmのステップS102〜S109(図4参照)の説明を参照することとし、ここでは詳細な説明を省略する。   The operations of steps S122 to S129 of the encoder Cm1 and the operations of steps S102 to S109 (see FIG. 4) of the encoder Cm according to the first embodiment shown in FIG. Although the images P, Q, and R are different in that the latter input is the input images A, B, and C, the content of the substantial operation is the same, so that the encoding according to the first embodiment described above is performed. Reference is made to the description of steps S102 to S109 (see FIG. 4) of the container Cm, and detailed description thereof is omitted here.

図8に示すように、符号化器Cm1は、符号化装置40Aの予測残差推定手段44によって、色変換装置1Aで生成された出力画像Xn,Yn,Znを入力する(ステップS130)。 As shown in FIG. 8, the encoder Cm1 receives the output images X n , Y n and Z n generated by the color conversion device 1A by the prediction residual estimation means 44 of the encoding device 40A (step S130). ).

続いて、符号化器Cm1は、符号化装置40Aの予測残差推定手段44によって、色変換装置1Aで生成された出力画像Xn,YnおよびZnに対し、色変換装置1Aの予測残差推定手段16と同じ予測残差推定処理(ここでは、フレーム間予測残差推定処理)を行い、残差画像Pn,QnおよびRnを生成する(ステップS131)。符号化器Cm1は、符号化装置40Aの予測残差推定手段44によって、残差画像Pn,QnおよびRnを変換手段41に出力する。 Subsequently, the encoder Cm1 performs the prediction residual of the color conversion device 1A on the output images X n , Y n, and Z n generated by the color conversion device 1A by the prediction residual estimation unit 44 of the encoding device 40A. The same prediction residual estimation processing (here, interframe prediction residual estimation processing) as that of the difference estimation means 16 is performed to generate residual images P n , Q n and R n (step S131). The encoder Cm1 outputs the residual images P n , Q n, and R n to the conversion unit 41 by the prediction residual estimation unit 44 of the encoding device 40A.

さらに、符号化器Cm1は、符号化装置40Aの変換手段41によって、予測残差推定手段44で生成された残差画像Pn,QnおよびRnを入力し、この残差画像Pn,QnおよびRnに対し、色変換装置1Aの変換手段11と同じ変換処理を行い、変換係数列を生成する(ステップS132)。符号化器Cm1は、符号化装置40Aの変換手段41によって、生成した変換係数列を量子化手段42に出力する。 Further, the encoder Cm1 inputs the residual images P n , Q n and R n generated by the prediction residual estimation unit 44 by the conversion unit 41 of the encoding device 40A, and the residual images P n , The same conversion process as that of the conversion unit 11 of the color conversion apparatus 1A is performed on Q n and R n to generate a conversion coefficient string (step S132). The encoder Cm1 outputs the generated transform coefficient sequence to the quantization unit 42 by the conversion unit 41 of the encoding device 40A.

さらに、符号化器Cm1は、符号化装置40Aの量子化手段42によって、変換手段41で生成された変換係数列を入力し、変換係数列に対し、色変換装置1Aの量子化手段12と同じ量子化処理を行い、量子化データを生成する(ステップS133)。符号化器Cm1は、符号化装置40Aの量子化手段42によって、生成した量子化データを符号化手段43に出力する。   Further, the encoder Cm1 receives the transform coefficient sequence generated by the transform unit 41 by the quantization unit 42 of the encoder 40A, and the same as the quantizer 12 of the color transform device 1A for the transform coefficient sequence. Quantization processing is performed to generate quantized data (step S133). The encoder Cm1 outputs the generated quantized data to the encoding unit 43 by the quantization unit 42 of the encoding device 40A.

そして、符号化器Cm1は、符号化装置40Aの符号化手段43によって、量子化手段42で生成された量子化データと予測残差推定手段44の動き推定手段44bで生成された動きベクトルとをエントロピ符号化し、さらに、色変換装置1Aで生成された色変換行列Mをヘッダ情報やサイド情報として付加してこれらを多重化し、符号化データを生成する(ステップS134)。
符号化器Cm1は、以上のように動作する。
Then, the encoder Cm1 outputs the quantized data generated by the quantizing unit 42 and the motion vector generated by the motion estimating unit 44b of the prediction residual estimating unit 44 by the encoding unit 43 of the encoding device 40A. Entropy encoding is performed, and the color conversion matrix M generated by the color conversion apparatus 1A is added as header information and side information to multiplex them to generate encoded data (step S134).
The encoder Cm1 operates as described above.

第二実施形態に係る符号化器Cm1によれば、色変換装置1Aの劣化推定手段10Aの予測残差推定手段16によって、入力画像A,BおよびCに対して符号化装置40Aで行われる動画像符号化の動き補償を模擬することができるので、動き補償を有する動画像符号化方式における動画像の各フレームの画質劣化をより厳密に考慮することができ、これによって、動画像の色変換をより適切かつ効果的に行うことができる。   According to the encoder Cm1 according to the second embodiment, the moving image performed by the encoding device 40A on the input images A, B, and C by the prediction residual estimation unit 16 of the deterioration estimation unit 10A of the color conversion device 1A. Since motion compensation of image coding can be simulated, image quality degradation of each frame of a moving image in a moving image coding method having motion compensation can be more strictly taken into account, and thereby color conversion of moving image Can be performed more appropriately and effectively.

[復号器]
以下、図10および図1〜3,5〜7を適宜参照して、本発明の復号器Dmについて簡単に説明する。復号器Dmは、以上説明したような符号化器CmまたはCm1で生成されたデータを画像形式のデータに復号するものである。
[Decoder]
Hereinafter, the decoder Dm of the present invention will be briefly described with reference to FIG. 10 and FIGS. The decoder Dm decodes the data generated by the encoder Cm or Cm1 as described above into image format data.

図1に示すように、復号器Dmは、復号装置50と、色復元装置60とを備える。ここで、復号装置50について、図10を参照して説明する。
復号装置50は、符号化器CmまたはCm1(図1参照)の色変換装置1または1A(図2または図5参照)で新たな色空間に変換されたカラー画像X,YおよびZを、符号化装置40または40A(図3または図7参照)で符号化した符号化データからカラー画像X,YおよびZを復号するものである。図10に示すように、復号装置50は、一般的な復号装置と同様に、符号化データ復号手段51と、逆量子化手段52(第2逆量子化手段)と、逆変換手段53(第2逆変換手段)と、加算手段54と、動き補償手段55と、参照画像蓄積手段56とを備えている。
As shown in FIG. 1, the decoder Dm includes a decoding device 50 and a color restoration device 60. Here, the decoding device 50 will be described with reference to FIG.
The decoding device 50 encodes the color images X, Y, and Z converted into a new color space by the color conversion device 1 or 1A (see FIG. 2 or 5) of the encoder Cm or Cm1 (see FIG. 1). The color images X, Y and Z are decoded from the encoded data encoded by the encoding device 40 or 40A (see FIG. 3 or FIG. 7). As shown in FIG. 10, the decoding device 50 is similar to a general decoding device in that it includes an encoded data decoding unit 51, an inverse quantization unit 52 (second inverse quantization unit), and an inverse transform unit 53 (first transform unit). 2 inverse conversion means), addition means 54, motion compensation means 55, and reference image storage means 56.

符号化データ復号手段51は、符号化器CmまたはCm1(図1参照)で生成された符号化データを復号するものである。なお、この符号化データ復号手段51は、符号化装置40(40A)の符号化手段43(43A)とは逆の手順を行うことで、符号化データから、量子化データと、動きベクトル(動き情報)とを復号する。また、符号化データ復号手段51は、符号化データに多重化された色変換行列Mを分離する。ここで復号された量子化データは、逆量子化手段52に出力される。また、動きベクトルは、動き補償手段55に出力される。また、ここで分離された色変換行列Mは、色復元装置60に出力される。   The encoded data decoding means 51 decodes the encoded data generated by the encoder Cm or Cm1 (see FIG. 1). The encoded data decoding means 51 performs the reverse procedure of the encoding means 43 (43A) of the encoding device 40 (40A), thereby converting the quantized data and the motion vector (motion) from the encoded data. Information). The encoded data decoding means 51 separates the color conversion matrix M multiplexed on the encoded data. The quantized data decoded here is output to the inverse quantization means 52. The motion vector is output to the motion compensation unit 55. Further, the color conversion matrix M separated here is output to the color restoration device 60.

逆量子化手段52(第2逆量子化手段)は、符号化データ復号手段51で復号された量子化データを逆量子化することで、変換係数列を生成するものである。なお、逆量子化手段52は、色変換装置1(1A)の逆量子化手段13と同じ手順を行うことで、言い換えれば、符号化装置40(40A)の量子化手段42による量子化処理とは逆の逆量子化処理を行うことで、変換係数列を生成する。なお、この逆量子化手段52には、色変換装置1(1A)の逆量子化手段13と同一の量子化テーブルを保持し、量子化時と同じ量子化テーブルが参照される。ここで生成された変換係数列は、逆変換手段53に出力される。   The inverse quantization means 52 (second inverse quantization means) generates a transform coefficient sequence by inversely quantizing the quantized data decoded by the encoded data decoding means 51. The inverse quantization means 52 performs the same procedure as the inverse quantization means 13 of the color conversion device 1 (1A), in other words, the quantization processing by the quantization means 42 of the encoding device 40 (40A). Performs a reverse inverse quantization process to generate a transform coefficient sequence. The inverse quantization means 52 holds the same quantization table as that of the inverse quantization means 13 of the color conversion device 1 (1A), and the same quantization table as that at the time of quantization is referred to. The transform coefficient sequence generated here is output to the inverse transform means 53.

逆変換手段53(第2逆変換手段)は、逆量子化手段52で生成された変換係数列に対して、色変換装置1(1A)の逆変換手段14と同じ手順を行うことで、言い換えれば、符号化装置40(40A)の変換手段41による変換処理とは逆の逆変換化処理を行うことで、差分画像を再構築するものである。ここで生成された差分画像は、加算手段54に出力される。   In other words, the inverse transform unit 53 (second inverse transform unit) performs the same procedure as the inverse transform unit 14 of the color conversion device 1 (1A) on the transform coefficient sequence generated by the inverse quantization unit 52. For example, the difference image is reconstructed by performing an inverse conversion process opposite to the conversion process by the conversion means 41 of the encoding device 40 (40A). The difference image generated here is output to the adding means 54.

加算手段54は、逆変換手段53で生成された差分画像と、後記する動き補償手段55で生成された予測画像(動き補償画像)とを加算することで、復号データ(カラー画像X,YおよびZ)を生成するものである。ここで生成された復号データ(カラー画像X,YおよびZ)は、復号装置50における復号結果として色復元装置60に出力されるとともに、参照画像蓄積手段56に蓄積される。   The adding unit 54 adds the difference image generated by the inverse conversion unit 53 and the predicted image (motion compensated image) generated by the motion compensation unit 55 described later, thereby obtaining decoded data (color images X, Y and Z). The decoded data (color images X, Y and Z) generated here is output to the color restoration device 60 as a decoding result in the decoding device 50 and is also stored in the reference image storage means 56.

動き補償手段55は、符号化データ復号手段51で復号された動きベクトルと、参照画像蓄積手段56に蓄積された参照画像とに基づいて、参照画像が動きベクトル分動いた画像(動き補償画像)を予測画像として生成するものである。ここで生成された予測画像は、加算手段54に出力される。   The motion compensation unit 55 is an image (motion compensated image) obtained by moving the reference image by the motion vector based on the motion vector decoded by the encoded data decoding unit 51 and the reference image stored in the reference image storage unit 56. Is generated as a predicted image. The predicted image generated here is output to the adding means 54.

参照画像蓄積手段56は、加算手段54で生成された復号データを参照画像(フレーム)として蓄積するものである。なお、動画像の1フレーム目は、動きベクトルが0なので、加算手段54で生成された復号データは、逆変換手段53で生成された空間領域の画像データと同じものとなる。   The reference image storage unit 56 stores the decoded data generated by the addition unit 54 as a reference image (frame). Note that since the motion vector of the first frame of the moving image is 0, the decoded data generated by the adding unit 54 is the same as the spatial region image data generated by the inverse converting unit 53.

なお、復号器Dmは、符号化器Cm(図1参照)で符号化された符号化データを復号する場合、符号化データ復号手段51と逆量子化手段52と逆変換手段53とを経て復号データを生成する。このようにして生成された復号データは、色復元装置60に出力される。   The decoder Dm decodes the encoded data encoded by the encoder Cm (see FIG. 1) through the encoded data decoding means 51, the inverse quantization means 52, and the inverse transform means 53. Generate data. The decoded data generated in this way is output to the color restoration device 60.

次に、色復元装置60について、図1を参照して説明する。
色復元装置60は、図1に示すように、復号装置50で復号された復号データ(カラー画像X,YおよびZ)の色成分X,YおよびZを、元の色成分A,BおよびCに変換してカラー画像A,BおよびCを復元するための色空間復元手段61を備える。
Next, the color restoration device 60 will be described with reference to FIG.
As shown in FIG. 1, the color restoration device 60 converts the color components X, Y, and Z of the decoded data (color images X, Y, and Z) decoded by the decoding device 50 into the original color components A, B, and C. And a color space restoring means 61 for restoring the color images A, B and C into the color images.

色復元装置60は、色空間復元手段61によって、復号装置50から色変換行列Mまたは色変換行列Mの逆行列M-1を入力する。色復元装置60は、色空間復元手段61によって、復号装置50から色変換行列Mを入力した場合、この色変換行列Mから逆行列M-1を生成する。
色復元装置60は、色空間復元手段61によって、復号装置50で復号された画像データX,YおよびZのそれぞれの色成分からなる色ベクトル[X,Y,Z]に対して、左側から色変換行列Mの逆行列M-1を乗算する。これにより、色復元装置60は、画像データX,YおよびZを、符号化器CmまたはCm1の色変換装置1または1Aによる処理前の元の色空間の色成分A,BおよびCからなる画像データA,BおよびCに戻すことができる。
The color restoration device 60 receives the color conversion matrix M or the inverse matrix M −1 of the color conversion matrix M from the decoding device 50 by the color space restoration means 61. When the color space restoration means 61 inputs the color conversion matrix M from the decoding device 50, the color restoration device 60 generates an inverse matrix M −1 from the color conversion matrix M.
The color restoration device 60 applies color from the left to the color vector [X, Y, Z] composed of the respective color components of the image data X, Y, and Z decoded by the decoding device 50 by the color space restoration means 61. Multiply the inverse matrix M −1 of the transformation matrix M. As a result, the color restoration device 60 converts the image data X, Y, and Z into images of color components A, B, and C in the original color space before being processed by the color conversion device 1 or 1A of the encoder Cm or Cm1. Data A, B and C can be returned.

<復号器Dmの動作>
次に、復号器Dmの動作について、図11を参照して説明する。なお、ここでは、復号器Dmが前記した符号化器Cm1(図1,3)で生成された符号化データを復号する場合について説明する。
<Operation of Decoder Dm>
Next, the operation of the decoder Dm will be described with reference to FIG. Here, a case where the decoder Dm decodes the encoded data generated by the encoder Cm1 (FIGS. 1 and 3) will be described.

図11に示すように、復号器Dmは、復号装置50の符号化データ復号手段51によって、符号化器Cm1で生成された符号化データを入力して量子化データと、動きベクトル(動き情報)とを復号するとともに、符号化データに多重化された色変換行列Mを分離する。復号器Dmは、復号装置50の符号化データ復号手段51によって、復号した量子化データを、逆量子化手段52に出力し、動きベクトルを、動き補償手段55に出力し、分離した色変換行列Mを、色復元装置60に出力する(ステップS151)。   As shown in FIG. 11, the decoder Dm receives the encoded data generated by the encoder Cm1 by the encoded data decoding means 51 of the decoding device 50, inputs the quantized data, and the motion vector (motion information). And the color conversion matrix M multiplexed on the encoded data is separated. The decoder Dm outputs the quantized data decoded by the encoded data decoding unit 51 of the decoding device 50 to the inverse quantization unit 52, outputs the motion vector to the motion compensation unit 55, and separates the color conversion matrix. M is output to the color restoration device 60 (step S151).

次に、復号器Dmは、復号装置50の逆量子化手段52によって、符号化データ復号手段51で復号された量子化データを入力し、この量子化データに対し、色変換装置(1A)の逆量子化手段13と同じ手順を行うことで、変換係数列を生成する(ステップS152)。復号器Dmは、復号装置50の逆量子化手段52によって、生成した変換係数列を逆変換手段53に出力する。   Next, the decoder Dm receives the quantized data decoded by the encoded data decoding unit 51 by the inverse quantization unit 52 of the decoding device 50, and receives the quantized data from the color conversion device (1A). A transform coefficient sequence is generated by performing the same procedure as that of the inverse quantization means 13 (step S152). The decoder Dm outputs the generated transform coefficient sequence to the inverse transform unit 53 by the inverse quantization unit 52 of the decoding device 50.

さらに、復号器Dmは、復号装置50の逆変換手段53によって、逆量子化手段52で生成された変換係数列を入力し、この変換係数列に対して、色変換装置1(1A)の逆変換手段14と同じ手順を行うことで、残差画像Pn,QnおよびRnを再構築する(ステップS153)。復号器Dmは、復号装置50の逆変換手段53によって、生成した残差画像Pn,QnおよびRnを、加算手段54に出力する。 Further, the decoder Dm receives the transform coefficient sequence generated by the inverse quantization unit 52 by the inverse transform unit 53 of the decoding device 50, and the inverse of the color transform device 1 (1A) is input to this transform coefficient sequence. Residual images P n , Q n, and R n are reconstructed by performing the same procedure as the conversion unit 14 (step S153). The decoder Dm outputs the generated residual images P n , Q n and R n to the adding means 54 by the inverse transform means 53 of the decoding device 50.

続いて、復号器Dmは、復号装置50の動き補償手段55によって、符号化データ復号手段51で復号された動きベクトルを入力し、この動きベクトルと、参照画像蓄積手段56に蓄積された参照画像Xn-1,Yn-1およびZn-1とに基づいて、参照画像Xn-1,Yn-1およびZn-1が動きベクトル分動いた画像(動き補償画像)を予測画像Ln,MnおよびNnとして生成する(ステップS154)。復号器Dmは、復号装置50の動き補償手段55によって、生成した予測画像Ln,MnおよびNnを加算手段54に出力する。 Subsequently, the decoder Dm inputs the motion vector decoded by the encoded data decoding unit 51 by the motion compensation unit 55 of the decoding device 50, and the reference image stored in the reference image storage unit 56. Based on X n−1 , Y n−1, and Z n−1 , a reference image X n−1 , Y n−1, and Z n−1 moved by a motion vector (motion compensated image) is predicted as an image L n, to generate a M n and n n (step S154). The decoder Dm outputs the generated predicted images L n , M n and N n to the adding unit 54 by the motion compensation unit 55 of the decoding device 50.

続いて、復号器Dmは、復号装置50の加算手段54によって、逆変換手段53で生成された残差画像Pn,QnおよびRnを入力するとともに、動き補償手段55で生成された予測画像Ln,MnおよびNnを入力し、残差画像Pn,QnおよびRnと予測画像Ln,MnおよびNnとを加算することで、復号データXn,YnおよびZn(カラー画像X,YおよびZ)を生成する(ステップS155)。復号器Dmは、復号装置50の加算手段54によって、生成した復号データXn,Yn,Znを、色復元装置60に出力するとともに、参照画像蓄積手段56に蓄積する(ステップS156)。 Subsequently, the decoder Dm inputs the residual images P n , Q n, and R n generated by the inverse transform unit 53 by the adding unit 54 of the decoding device 50 and also the prediction generated by the motion compensation unit 55. inputting image L n, M n and n n, by adding the residual image P n, Q n and R n and the prediction image L n, and M n and n n, decoded data X n, Y n and Z n (color images X, Y, and Z) is generated (step S155). The decoder Dm outputs the decoded data X n , Y n , Z n generated by the adding unit 54 of the decoding device 50 to the color restoration device 60 and stores it in the reference image storage unit 56 (step S156).

そして、復号器Dmは、色復元装置60の色空間復元手段61によって、復号装置50で生成された復号データXn,YnおよびZnを入力する(ステップS157)。そして、復号器Dmは、色復元装置60の色空間復元手段61によって、復号データXn,YnおよびZnに、復号装置50の符号化データ復号手段51から予め入力された色変換行列Mの逆行列M-1を生成して復号データXn,YnおよびZnに乗算し、カラー画像An,BnおよびCnを復元する(ステップS158)。なお、復号器Dmは、色復元装置60の色空間復元手段61によって、復号装置50の符号化データ復号手段51で復号された逆行列M-1を入力した場合、ステップS158において、逆行列M-1をそのまま復号データXn,YnおよびZnに乗算する。
復号器Dmは、以上のように動作する。
Then, the decoder Dm inputs the decoded data X n , Y n and Z n generated by the decoding device 50 by the color space restoring means 61 of the color restoration device 60 (step S157). The decoder Dm receives the color conversion matrix M previously input from the encoded data decoding unit 51 of the decoding device 50 into the decoded data X n , Y n and Z n by the color space restoring unit 61 of the color restoration device 60. decoded data X n to generate the inverse matrix M -1 of the multiply to Y n and Z n, restores the color image a n, the B n and C n (step S158). Note that when the inverse matrix M −1 decoded by the encoded data decoding unit 51 of the decoding device 50 is input to the decoder Dm by the color space restoration unit 61 of the color restoration device 60, in step S158, the inverse matrix M as decoded data X n -1, it is multiplied by Y n and Z n.
The decoder Dm operates as described above.

なお、復号器Dmは、符号化器Cm(図1参照)で符号化された符号化データを復号する場合、復号装置50によって、図11に示すステップS141〜S143を実行して復号データX,YおよびZを生成する。そして、復号器Dmは、復号装置50によって、ステップS147を実行し、色復元装置60の色空間復元手段61によって、図11に示すステップS148を実行して復号データX,YおよびZからカラー画像A,BおよびCを復元する。なお、この場合、符号化器Cm(図1参照)で符号化された符号化データに動きベクトルは含まれていない。   When decoding the encoded data encoded by the encoder Cm (see FIG. 1), the decoder Dm executes steps S141 to S143 shown in FIG. Y and Z are generated. Then, the decoder Dm executes step S147 by the decoding device 50, and executes step S148 shown in FIG. 11 by the color space restoration means 61 of the color restoration device 60 to obtain a color image from the decoded data X, Y, and Z. Restore A, B and C. In this case, the motion vector is not included in the encoded data encoded by the encoder Cm (see FIG. 1).

以上説明した復号器Dmは、復号装置50によって、符号化器CmまたはCm1で生成された符号化データから新たな色空間の各色成分の画像データを復号し、色復元装置60によって、例えば、色成分A,BおよびC(例えば、R,GおよびB)からなる三原色に逆変換したり、表示デバイスの表色系に合致した色表現に変換したりすることが可能となる。   The decoder Dm described above decodes the image data of each color component of the new color space from the encoded data generated by the encoder Cm or Cm1 by the decoding device 50, and the color restoration device 60, for example, the color It is possible to reversely convert to the three primary colors composed of components A, B and C (for example, R, G and B), or to convert the color representation to match the color system of the display device.

以上、本発明の実施形態に係る符号化器Cm,Cm1および復号器Dmについて説明したが、本発明は、前記した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
例えば、符号化器Cm,Cm1の色変換装置1,1Aは、前記した実施形態では、色成分A,BおよびCでなる画像A,BおよびCの色変換を行うこととしているが、これに替えて、輝度成分Yと色差成分CB,CRからなる画像の輝度・色差成分の変換を行うこととしてもよい。
また例えば、前記した実施形態では、符号化器Cm,Cm1の色変換装置1,1Aは、主成分分析手段20によって、分散・共分散行列Sを生成することで主成分分析を行っているが、これに替えて、その他の一般的な主成分分析の手法を用いてもよいことはもちろんである。
The encoders Cm and Cm1 and the decoder Dm according to the embodiment of the present invention have been described above. However, the present invention is not limited to the above-described embodiment, and may be appropriately selected without departing from the spirit of the present invention. It can be changed.
For example, the color conversion devices 1 and 1A of the encoders Cm and Cm1 perform color conversion of the images A, B, and C including the color components A, B, and C in the above-described embodiment. Alternatively, the luminance / color difference component of the image composed of the luminance component Y and the color difference components C B and C R may be converted.
Further, for example, in the above-described embodiment, the color conversion devices 1 and 1A of the encoders Cm and Cm1 perform the principal component analysis by generating the variance / covariance matrix S by the principal component analysis unit 20. Of course, other general principal component analysis methods may be used instead.

また、前記した実施形態では、符号化器Cm,Cm1の色変換装置1,1Aは、色空間変換手段30によって、色変換行列Mを符号化装置40,40Aに出力していたが、色変換行列Mから逆行列M-1を生成し、この逆行列M-1を符号化装置40,40Aに出力してもよい。 In the above-described embodiment, the color conversion devices 1 and 1A of the encoders Cm and Cm1 output the color conversion matrix M to the encoding devices 40 and 40A by the color space conversion unit 30, but the color conversion is performed. generating an inverse matrix M -1 of the matrix M, may output the inverse matrix M -1 to the encoding device 40, 40A.

なお、前記した符号化器Cm,Cm1、色変換装置1,1Aまたは復号器Dmは、それぞれ、コンピュータにおいて各手段における処理を実行可能に記述したプログラム(符号化プログラム、色変換プログラムまたは復号プログラム)とすることも可能である。この場合、各プログラムは、対応する装置と同様の効果を奏する。   Each of the encoders Cm and Cm1, the color conversion devices 1 and 1A, and the decoder Dm described above is a program (encoding program, color conversion program, or decoding program) in which processing in each unit can be executed in a computer. It is also possible. In this case, each program has the same effect as the corresponding device.

1,1A 色変換装置
10,10A 劣化推定手段
11(11A,11B,11C) 変換手段
12(12A,12B,12C) 量子化手段
13(13A,13B,13C) 逆量子化手段
14(14A,14B,14C) 逆変換手段
15(15A,15B,15C) 減算手段
16(16A,16B,16C) 予測残差推定手段
16a(16Aa,16Ba,16Ca) 参照画像蓄積手段
16b(16Ab,16Bb,16Cb) 動き推定手段
16c(16Ac,16Bc,16Cc) 動き補償手段
16d(16Ad,16Bd,16Cd) 残差画像生成手段
20 主成分分析手段
30 色空間変換手段
40,40A 符号化装置
41 変換手段(第2変換手段)
42 量子化手段(第2量子化手段)
43 符号化手段
44 予測残差推定手段(第2予測残差推定手段)
44a 参照画像蓄積手段
44b 動き推定手段
44c 動き補償手段
44d 残差画像生成手段
45 逆量子化手段
46 逆変換手段
47 加算手段
50 復号装置
51 符号化データ復号手段
52 逆量子化手段(第2逆量子化手段)
53 逆変換手段(第2逆変換手段)
54 加算手段
55 動き補償手段
56 参照画像蓄積手段
60 色復元装置
Cm,Cm1 符号化器
Dm 復号器
S 画像処理システム
1, 1A color conversion device 10, 10A degradation estimation means 11 (11A, 11B, 11C) conversion means 12 (12A, 12B, 12C) quantization means 13 (13A, 13B, 13C) inverse quantization means 14 (14A, 14B) 14C) Inverse conversion means 15 (15A, 15B, 15C) Subtraction means 16 (16A, 16B, 16C) Prediction residual estimation means 16a (16Aa, 16Ba, 16Ca) Reference image storage means 16b (16Ab, 16Bb, 16Cb) Motion Estimation means 16c (16Ac, 16Bc, 16Cc) Motion compensation means 16d (16Ad, 16Bd, 16Cd) Residual image generation means 20 Principal component analysis means 30 Color space conversion means 40, 40A Encoding device 41 Conversion means (second conversion means) )
42 Quantization means (second quantization means)
43 Coding means 44 Prediction residual estimation means (second prediction residual estimation means)
44a Reference image storage means 44b Motion estimation means 44c Motion compensation means 44d Residual image generation means 45 Inverse quantization means 46 Inverse transformation means 47 Addition means 50 Decoding device 51 Encoded data decoding means 52 Inverse quantization means (second inverse quantization means) Means)
53 Inverse conversion means (second inverse conversion means)
54 Adder 55 Motion Compensator 56 Reference Image Storage 60 Color Restoration Device Cm, Cm1 Encoder Dm Decoder S Image Processing System

Claims (9)

カラー画像を構成する各色成分を、符号化時の画質劣化が少なくなるような新たな色成分にそれぞれ変換する色変換装置であって、
前記色成分ごとの画像をそれぞれ入力し、この入力画像の符号化時に付加される符号化劣化成分を画素ごとにそれぞれ推定する劣化推定手段と、
前記劣化推定手段によって推定された前記符号化劣化成分を主成分分析する主成分分析手段と、
前記主成分分析手段による主成分分析によって得られた結合係数に基づく色変換行列を各前記入力画像に乗算して、前記各色成分を、当該各色成分の色空間とは異なる色空間の前記新たな色成分にそれぞれ変換し、新たな各色成分からなる画像をそれぞれ生成する色空間変換手段と、を備えることを特徴とする色変換装置。
A color conversion device that converts each color component constituting a color image into a new color component that reduces image quality degradation during encoding,
Degradation estimating means for inputting an image for each color component and estimating an encoding degradation component added at the time of encoding of the input image for each pixel;
Principal component analysis means for principal component analysis of the encoded deterioration component estimated by the deterioration estimation means;
Each input image is multiplied by a color conversion matrix based on a coupling coefficient obtained by principal component analysis by the principal component analysis means, and each color component is changed to the new color space different from the color space of the color component. A color conversion device comprising: color space conversion means for converting each color component to generate an image composed of each new color component.
前記劣化推定手段が、
前記入力画像に対し周波数変換を行い複数の周波数係数からなる変換係数列を生成する変換手段と、
前記変換手段により求められた変換係数列の各周波数係数を量子化テーブルの量子化ステップで除算して量子化データを生成する量子化手段と、
前記量子化手段により生成された前記量子化データに対し、前記量子化ステップを乗算して逆量子化データを生成する逆量子化手段と、
前記逆量子化手段により生成された逆量子化データに対して、前記変換手段による周波数変換の逆変換を行い、劣化模擬画像を生成する逆変換手段と、
前記逆変換手段で生成された前記劣化模擬画像と前記入力画像との差分をとり、前記符号化劣化成分である差分画像を生成する減算手段と、を備えることを特徴とする請求項1に記載の色変換装置。
The deterioration estimating means is
Conversion means for performing frequency conversion on the input image to generate a conversion coefficient sequence composed of a plurality of frequency coefficients;
Quantization means for generating quantized data by dividing each frequency coefficient of the transform coefficient sequence obtained by the transform means by a quantization step of a quantization table;
Dequantizing means for multiplying the quantized data generated by the quantizing means by multiplying the quantization step to generate dequantized data;
Inverse transform means for performing inverse transform of frequency transform by the transform means on the inverse quantized data generated by the inverse quantizer, and generating a degradation simulation image;
The subtracting means for taking a difference between the deterioration simulated image generated by the inverse conversion means and the input image and generating a difference image which is the encoded deterioration component. Color conversion device.
前記劣化推定手段が、
前記入力画像に対し動き補償による予測残差を推定し、予測残差を示す残差画像を生成する予測残差推定手段と、
前記予測残差推定手段で生成された前記残差画像に対し周波数変換を行い複数の周波数係数からなる変換係数列を生成する変換手段と、
前記変換手段により求められた変換係数列の各周波数係数を量子化テーブルの量子化ステップで除算して情報量を削減する量子化手段と、
前記量子化手段により量子化された前記各周波数係数に対し、前記量子化ステップを乗算して逆量子化データを生成する逆量子化手段と、
前記逆量子化手段により生成された逆量子化データに対して、前記変換手段による周波数変換の逆変換を行い、劣化模擬画像を生成する逆変換手段と、
前記逆変換手段で生成された前記劣化模擬画像と前記残差画像との差分をとり、前記符号化劣化成分である差分画像を生成する減算手段と、を備えることを特徴とする請求項1に記載の色変換装置。
The deterioration estimating means is
A prediction residual estimation means for estimating a prediction residual by motion compensation for the input image and generating a residual image indicating the prediction residual;
Conversion means for performing frequency conversion on the residual image generated by the prediction residual estimation means and generating a conversion coefficient sequence composed of a plurality of frequency coefficients;
Quantization means for reducing the amount of information by dividing each frequency coefficient of the transform coefficient sequence obtained by the transform means by a quantization step of a quantization table;
Inverse quantization means for generating inverse quantization data by multiplying each frequency coefficient quantized by the quantization means by the quantization step;
Inverse transform means for performing inverse transform of frequency transform by the transform means on the inverse quantized data generated by the inverse quantizer, and generating a degradation simulation image;
2. A subtracting unit that takes a difference between the degradation simulation image generated by the inverse conversion unit and the residual image, and generates a difference image that is the encoded degradation component. The color conversion device described.
カラー画像を符号化する符号化器であって、
請求項2に記載の色変換装置と、
前記色変換装置で生成された前記新たな各色成分でなる画像を入力し、前記新たな各色成分でなる画像に対し、前記色変換装置の変換手段と同じ変換を行って変換係数列を生成する第2変換手段と、
前記第2変換手段で生成された変換係数列に対し、前記色変換装置の量子化手段と同じ量子化を行って量子化データを生成する第2量子化手段と、
前記第2量子化手段で生成された量子化データおよび前記色変換行列のデータを符号化する符号化手段と、
を備えることを特徴とする符号化器。
An encoder for encoding a color image,
A color conversion device according to claim 2;
An image composed of the new color components generated by the color conversion device is input, and a conversion coefficient sequence is generated by performing the same conversion as the conversion means of the color conversion device on the image composed of the new color components. A second conversion means;
Second quantizing means for generating quantized data by performing the same quantization as the quantizing means of the color conversion device on the transform coefficient sequence generated by the second converting means;
Encoding means for encoding the quantized data generated by the second quantization means and the data of the color conversion matrix;
An encoder comprising:
カラー画像を符号化する符号化器であって、
請求項3に記載の色変換装置と、
前記色変換装置で生成された前記新たな各色成分でなる画像を入力し、前記色変換装置の予測残差推定手段と同じ推定処理を行って、残差画像を生成する第2予測残差推定手段と、
前記第2予測残差推定手段で生成された残差画像に対し、前記色変換装置の変換手段と同じ変換を行って変換係数列を生成する第2変換手段と、
前記第2変換手段で生成された変換係数列に対し、前記色変換装置の量子化手段と同じ量子化を行って量子化データを生成する第2量子化手段と、
前記第2量子化手段で生成された量子化データおよび前記色変換行列のデータを符号化する符号化手段と、
を備えることを特徴とする符号化器。
An encoder for encoding a color image,
A color conversion device according to claim 3;
Second prediction residual estimation for generating a residual image by inputting an image composed of the new color components generated by the color conversion device and performing the same estimation process as the prediction residual estimation means of the color conversion device Means,
Second conversion means for generating a conversion coefficient string by performing the same conversion as the conversion means of the color conversion apparatus on the residual image generated by the second prediction residual estimation means;
Second quantizing means for generating quantized data by performing the same quantization as the quantizing means of the color conversion device on the transform coefficient sequence generated by the second converting means;
Encoding means for encoding the quantized data generated by the second quantization means and the data of the color conversion matrix;
An encoder comprising:
請求項4または請求項5に記載の符号化器で生成されたデータを復号する復号器であって、
前記符号化器からのデータを復号して量子化データおよび前記色変換行列のデータを生成する符号化データ復号手段と、
前記符号化データ復号手段で生成された量子化データに対し、前記符号化器における第2量子化手段とは逆の逆量子化を行って、複数の周波数係数からなる変換係数列を生成する第2逆量子化手段と、
前記第2逆量子化手段で生成された変換係数列に対し、前記符号化器における第2変換手段とは逆の逆変換を行って、前記新たな各色成分でなる画像を生成する第2逆変換手段と、を有する復号装置と、
前記復号装置で生成された前記新たな各色成分でなる画像を入力し、この新たな各色成分からなる画像に、前記色変換装置で生成された前記色変換行列の逆行列をそれぞれ乗算して、前記各色成分からなる画像を復元する色空間復元手段を備える色復元装置と、
を備えることを特徴とする復号器。
A decoder for decoding the data generated by the encoder according to claim 4 or 5, comprising:
Encoded data decoding means for decoding the data from the encoder to generate quantized data and color conversion matrix data;
The quantized data generated by the encoded data decoding means is subjected to inverse quantization opposite to the second quantizing means in the encoder to generate a transform coefficient sequence consisting of a plurality of frequency coefficients. 2 inverse quantization means;
A second inverse that generates an image composed of the new color components by performing an inverse transform on the transform coefficient sequence generated by the second inverse quantization means, which is reverse to the second transform means in the encoder. A decoding device having conversion means;
Input an image composed of the new color components generated by the decoding device, multiply the image composed of the new color components by an inverse matrix of the color conversion matrix generated by the color conversion device, respectively. A color restoration device comprising color space restoration means for restoring the image composed of each color component;
A decoder comprising:
カラー画像を構成する複数の色成分を、新たな色成分にそれぞれ変換するために、コンピュータを、
前記色成分ごとの画像をそれぞれ入力し、この入力画像の符号化時に付加される符号化劣化成分を画素ごとにそれぞれ推定する劣化推定手段、
前記劣化推定手段によって推定された前記符号化劣化成分を主成分分析する主成分分析手段、
前記主成分分析手段による主成分分析によって得られた結合係数に基づく色変換行列を各前記入力画像に乗算して、前記各色成分を、当該各色成分の色空間とは異なる色空間の前記新たな色成分にそれぞれ変換し、新たな各色成分からなる画像をそれぞれ生成する色空間変換手段、として機能させるための色変換プログラム。
In order to convert a plurality of color components constituting a color image into new color components,
Degradation estimation means for inputting an image for each color component and estimating for each pixel a coding deterioration component added when the input image is encoded,
Principal component analysis means for principal component analysis of the encoded degradation component estimated by the degradation estimation means;
Each input image is multiplied by a color conversion matrix based on a coupling coefficient obtained by principal component analysis by the principal component analysis means, and each color component is changed to the new color space different from the color space of the color component. A color conversion program for functioning as color space conversion means for converting each color component and generating an image composed of each new color component.
請求項4または請求項5に記載の符号化器として、コンピュータを機能させるための符号化プログラム。   An encoding program for causing a computer to function as the encoder according to claim 4 or 5. 請求項6に記載の復号器として、コンピュータを機能させるための復号プログラム。   A decoding program for causing a computer to function as the decoder according to claim 6.
JP2012111867A 2012-05-15 2012-05-15 COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF Active JP5909149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012111867A JP5909149B2 (en) 2012-05-15 2012-05-15 COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012111867A JP5909149B2 (en) 2012-05-15 2012-05-15 COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF

Publications (2)

Publication Number Publication Date
JP2013239923A JP2013239923A (en) 2013-11-28
JP5909149B2 true JP5909149B2 (en) 2016-04-26

Family

ID=49764594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012111867A Active JP5909149B2 (en) 2012-05-15 2012-05-15 COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF

Country Status (1)

Country Link
JP (1) JP5909149B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6030989B2 (en) * 2013-04-05 2016-11-24 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, program thereof, and recording medium recording the program
BR122022001646B1 (en) 2014-03-04 2023-03-07 Microsoft Technology Licensing, Llc COMPUTER READABLE MEMORY OR STORAGE DEVICE, METHOD AND COMPUTER SYSTEM
WO2015131330A1 (en) 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Encoding strategies for adaptive switching of color spaces, color sampling rates and/or bit depths
CN105432077B (en) 2014-03-27 2017-12-29 微软技术许可有限责任公司 Adjust quantization/scaling and re-quantization/scaling when switching color space
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
CN110267038B (en) * 2019-06-28 2022-07-29 广东中星微电子有限公司 Encoding method and device, and decoding method and device
CN114449241B (en) * 2022-02-18 2024-04-02 复旦大学 Color space conversion algorithm suitable for image compression

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005099249A1 (en) * 2004-04-09 2005-10-20 Olympus Corporation Compression device, color conversion device, methods therefor, program, look-up table and recording medium
JP5227987B2 (en) * 2010-03-10 2013-07-03 日本放送協会 Encoding device, decoding device, and program

Also Published As

Publication number Publication date
JP2013239923A (en) 2013-11-28

Similar Documents

Publication Publication Date Title
US8111914B2 (en) Method and apparatus for encoding and decoding image by using inter color compensation
JP5909149B2 (en) COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF
CN101507277B (en) Image encoding/decoding method and apparatus
KR101261526B1 (en) An video encoding/decoding method and apparatus
US8553768B2 (en) Image encoding/decoding method and apparatus
US8625916B2 (en) Method and apparatus for image encoding and image decoding
US7925107B2 (en) Adaptive variable block transform system, medium, and method
EP1509045A2 (en) Lossless image encoding/decoding method and apparatus using intercolor plane prediction
US9794556B2 (en) Method and device for simplifying encoding and decoding of ultra-high definition images
JP5421757B2 (en) Image encoding device
WO2007108642A1 (en) Image encoding/decoding method and apparatus
JP2006246474A (en) Prediction image generation method and apparatus using single coding mode for all color components, and image and video encoding and decoding methods and apparatuses using the same
CN105850124B (en) Method and apparatus for encoding and decoding video signal using additional control of quantization error
MX2014015293A (en) Encoding device, decoding device, and program.
US20190089955A1 (en) Image encoding method, and image encoder and image decoder using same
US9549205B2 (en) Method and device for encoding video
JP5455229B2 (en) Image encoding apparatus and image decoding apparatus
WO2006084419A1 (en) Method for reducing bit rate requirements for encoding multimedia data
JP5667269B2 (en) Image encoding device, image decoding device, image encoding / decoding device, image encoding / decoding method, and image encoding / decoding program
US10051268B2 (en) Method for encoding, decoding video signal and device therefor
JP2000513914A (en) Method and apparatus for encoding and decoding digital images
JP2014222936A (en) Image decoding device, image decoding method, image encoding/decoding method and image decoding program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160325

R150 Certificate of patent or registration of utility model

Ref document number: 5909149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250