JP2020068462A - Image bit gradation extension filter device, image encoder and image decoder - Google Patents

Image bit gradation extension filter device, image encoder and image decoder Download PDF

Info

Publication number
JP2020068462A
JP2020068462A JP2018200190A JP2018200190A JP2020068462A JP 2020068462 A JP2020068462 A JP 2020068462A JP 2018200190 A JP2018200190 A JP 2018200190A JP 2018200190 A JP2018200190 A JP 2018200190A JP 2020068462 A JP2020068462 A JP 2020068462A
Authority
JP
Japan
Prior art keywords
image
unit
processing
filter device
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018200190A
Other languages
Japanese (ja)
Inventor
伊藤 典男
Norio Ito
典男 伊藤
知宏 猪飼
Tomohiro Igai
知宏 猪飼
中條 健
Takeshi Nakajo
健 中條
知典 橋本
Tomonori Hashimoto
知典 橋本
渡辺 裕
Yutaka Watanabe
裕 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018200190A priority Critical patent/JP2020068462A/en
Publication of JP2020068462A publication Critical patent/JP2020068462A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To provide an image bit gradation extension filter device, image encoder and image decoder, capable of concurrently executing super-resolution processing and dynamic range conversion.SOLUTION: An image filter device 400 includes; one or a plurality of gradation conversion sections 40211-40222 which execute gradation conversion processing on at least any of a plurality of processing paths using an input image as a target and in which conversions working on a luminance value of an input image are different from each other; a plurality of super-resolution sections 404 executing super-resolution processing at each of a plurality of processing paths; and a synthesis section 406 for synthesizing a plurality of input images, referring to an image map generated by an image map creating section 408.SELECTED DRAWING: Figure 8

Description

本発明の実施形態は、画像ビット階調拡張フィルタ装置、画像符号化装置、及び画像復号装置に関する。   Embodiments of the present invention relate to an image bit gradation expansion filter device, an image encoding device, and an image decoding device.

動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置が用いられている。   In order to efficiently transmit or record a moving image, a moving image encoding device that generates encoded data by encoding the moving image, and a moving image that generates a decoded image by decoding the encoded data An image decoding device is used.

具体的な動画像符号化方式としては、例えば、H.264/AVCやHEVC(High-Efficiency Video Coding)にて提案されている方式などが挙げられる。   As a specific moving image coding method, for example, a method proposed in H.264 / AVC or HEVC (High-Efficiency Video Coding) can be cited.

このような動画像符号化方式においては、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化ツリーユニット(CTU:Coding Tree Unit)、符号化ツリーユニットを分割することで得られる符号化単位(符号化ユニット(Coding Unit:CU)と呼ばれることもある)、及び、符号化単位を分割することより得られる変換ユニット(TU:Transform Unit)からなる階層構造により管理され、CU毎に符号化/復号される。   In such a moving image coding method, an image (picture) that constitutes a moving image is a slice obtained by dividing the image, and a coding tree unit (CTU: Coding Tree Unit) obtained by dividing the slice. ), A coding unit obtained by dividing the coding tree unit (sometimes called a coding unit (CU)), and a transform unit (TU: obtained by dividing the coding unit). CU is encoded / decoded for each CU.

また、このような動画像符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測誤差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。   Further, in such a moving image coding method, a predicted image is usually generated based on a locally decoded image obtained by coding / decoding an input image, and the predicted image is generated from the input image (original image). The prediction error obtained by the subtraction (sometimes referred to as "difference image" or "residual image") is encoded. As a method of generating a predicted image, inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction) are included.

また、近年の動画像符号化及び復号の技術として非特許文献1が挙げられる。   In addition, Non-Patent Document 1 is cited as a technique of recent video encoding and decoding.

"Algorithm Description of Joint Exploration Test Model 7", JVET-G1001, Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 2017-08-19"Algorithm Description of Joint Exploration Test Model 7", JVET-G1001, Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO / IEC JTC 1 / SC 29 / WG 11, 2017-08-19

上述のような従来技術においては、超解像処理とダイナミックレンジ変換処理とを行う場合、各処理を別々に行っていたが、その手順については変更する余地がある。   In the conventional technology as described above, when the super-resolution processing and the dynamic range conversion processing are performed, each processing is performed separately, but there is room for changing the procedure.

本発明は、上記の課題に鑑みてなされたものであり、超解像処理とダイナミックレンジ変換とを併せて実行可能な画像フィルタ装置を実現することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to realize an image filter device capable of executing both super-resolution processing and dynamic range conversion.

上記の課題を解決するために、本発明の一態様に係る画像フィルタ装置は、入力画像に作用する画像フィルタ装置であって、前記入力画像を対象とする複数の処理経路の少なくとも何れかにおいて階調変換処理を施す1又は複数の階調変換部と、前記複数の処理経路においてそれぞれ超解像処理を施す複数の超解像部と、前記超解像処理が施された複数の前記入力画像を合成する合成部と、を備える。   In order to solve the above problems, an image filter device according to an aspect of the present invention is an image filter device that operates on an input image, and is a floor in at least one of a plurality of processing paths targeting the input image. One or a plurality of gradation conversion units that perform a tone conversion process, a plurality of super-resolution units that perform a super-resolution process in each of the plurality of processing paths, and the plurality of input images that have undergone the super-resolution process And a synthesizing unit for synthesizing.

本発明の一態様によれば、超解像処理とダイナミックレンジ変換とを併せて実行可能な画像フィルタ装置を実現できる。   According to one aspect of the present invention, it is possible to realize an image filter device capable of executing both super-resolution processing and dynamic range conversion.

本実施形態に係る画像伝送システムの構成を示す概略図である。It is a schematic diagram showing composition of an image transmission system concerning this embodiment. 本実施形態に係る動画像符号化装置を搭載した送信装置、および、動画像復号装置を搭載した受信装置の構成について示した図である。(a)は動画像符号化装置を搭載した送信装置を示しており、(b)は動画像復号装置を搭載した受信装置を示している。It is the figure which showed the structure of the transmission apparatus which mounts the moving image encoding apparatus which concerns on this embodiment, and the receiving apparatus which mounts the moving image decoding apparatus. (a) shows a transmitter equipped with a moving picture coding device, and (b) shows a receiver equipped with a moving picture decoding device. 本実施形態に係る動画像符号化装置を搭載した記録装置、および、動画像復号装置を搭載した再生装置の構成について示した図である。(a)は動画像符号化装置を搭載した記録装置を示しており、(b)は動画像復号装置を搭載した再生装置を示している。It is the figure which showed the structure of the recording device which mounts the moving image encoding apparatus which concerns on this embodiment, and the reproducing | regenerating apparatus which mounts a moving image decoding device. (a) shows a recording device equipped with a moving image encoding device, and (b) shows a reproducing device equipped with a moving image decoding device. 符号化ストリームのデータの階層構造を示す図である。It is a figure which shows the hierarchical structure of the data of an encoding stream. CTUの分割例を示す図である。It is a figure which shows the example of division of CTU. 動画像復号装置の構成を示す概略図である。It is a schematic diagram showing the composition of a moving picture decoding device. 動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of a moving image encoding device. 本実施形態に係る画像フィルタ装置の機能ブロック図である。It is a functional block diagram of the image filter device concerning this embodiment. 入力画像の輝度値に対する変換処理の一例を示す図である。It is a figure which shows an example of the conversion process with respect to the brightness value of an input image. 本実施形態に係る画像フィルタ装置の機能ブロック図である。It is a functional block diagram of the image filter device concerning this embodiment. 本実施形態に係る画像フィルタ装置の機能ブロック図である。It is a functional block diagram of the image filter device concerning this embodiment. 本実施形態に係る画像フィルタ装置の機能ブロック図である。It is a functional block diagram of the image filter device concerning this embodiment. 本実施形態に係る画像フィルタ装置の機能ブロック図である。It is a functional block diagram of the image filter device concerning this embodiment. 本実施形態に係る画像フィルタ装置の機能ブロック図である。It is a functional block diagram of the image filter device concerning this embodiment. CNNフィルタの入出力の一例を示す概念図である。It is a conceptual diagram which shows an example of the input / output of a CNN filter. CNNフィルタの構成の一例を示す概略図である。It is a schematic diagram showing an example of composition of a CNN filter. 画像フィルタ装置の構成の変形例を示す概略図である。It is a schematic diagram showing a modification of composition of an image filter device. 本実施形態に係る動画像復号装置の機能ブロック図である。It is a functional block diagram of the moving image decoding apparatus which concerns on this embodiment. 本実施形態に係る動画像符号化装置の機能ブロック図である。It is a functional block diagram of the moving picture coding device concerning this embodiment. 本実施形態に係るビット階調拡張超解像逆変換部の機能ブロック図である。It is a functional block diagram of the bit gradation expansion super-resolution inverse conversion part which concerns on this embodiment. 本実施形態に係る動画像復号装置の機能ブロック図である。It is a functional block diagram of the moving image decoding apparatus which concerns on this embodiment. 本実施形態に係る動画像符号化装置の機能ブロック図である。It is a functional block diagram of the moving picture coding device concerning this embodiment.

(実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
(Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る画像伝送システム1の構成を示す概略図である。   FIG. 1 is a schematic diagram showing the configuration of an image transmission system 1 according to this embodiment.

画像伝送システム1は、符号化対象画像を符号化した符号化ストリームを伝送し、伝送された符号化ストリームを復号し画像を表示するシステムである。画像伝送システム1は、動画像符号化装置(画像符号化装置)11、ネットワーク21、動画像復号装置(画像復号装置)31、及び動画像表示装置(画像表示装置)41を含んで構成される。   The image transmission system 1 is a system that transmits an encoded stream obtained by encoding an encoding target image, decodes the transmitted encoded stream, and displays an image. The image transmission system 1 is configured to include a moving image encoding device (image encoding device) 11, a network 21, a moving image decoding device (image decoding device) 31, and a moving image display device (image display device) 41. .

動画像符号化装置11には画像Tが入力される。   The image T is input to the moving image encoding device 11.

ネットワーク21は、動画像符号化装置11が生成した符号化ストリームTeを動画像復号装置31に伝送する。ネットワーク21は、インターネット(Internet)、広域ネットワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)またはこれらの組み合わせである。ネットワーク21は、必ずしも双方向の通信網に限らず、地上デジタル放送、衛星放送等の放送波を伝送する一方向の通信網であっても良い。また、ネットワーク21は、DVD(Digital Versatile Disc:登録商標)、BD(Blue-ray Disc:登録商標)等の符号化ストリームTeを記録した記憶媒体で代替されても良い。   The network 21 transmits the encoded stream Te generated by the moving image encoding device 11 to the moving image decoding device 31. The network 21 is the Internet, a wide area network (WAN: Wide Area Network), a small network (LAN: Local Area Network), or a combination thereof. The network 21 is not necessarily a bidirectional communication network, but may be a unidirectional communication network that transmits broadcast waves such as terrestrial digital broadcasting and satellite broadcasting. Further, the network 21 may be replaced with a storage medium such as a DVD (Digital Versatile Disc: registered trademark) or a BD (Blue-ray Disc: registered trademark) that records the encoded stream Te.

動画像復号装置31は、ネットワーク21が伝送した符号化ストリームTeのそれぞれを復号し、復号した1または複数の復号画像Tdを生成する。   The moving image decoding device 31 decodes each of the coded streams Te transmitted by the network 21 and generates one or a plurality of decoded images Td.

動画像表示装置41は、動画像復号装置31が生成した1または複数の復号画像Tdの全部または一部を表示する。動画像表示装置41は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。ディスプレイの形態としては、据え置き、モバイル、HMD等が挙げられる。また、動画像復号装置31が高い処理能力を有する場合には、画質の高い画像を表示し、より低い処理能力しか有しない場合には、高い処理能力、表示能力を必要としない画像を表示する。   The moving image display device 41 displays all or part of one or a plurality of decoded images Td generated by the moving image decoding device 31. The moving image display device 41 includes a display device such as a liquid crystal display or an organic EL (Electro-luminescence) display. The form of the display includes stationary, mobile, HMD and the like. Further, when the video decoding device 31 has high processing capability, it displays an image with high image quality, and when it has only lower processing capability, it displays an image that does not require high processing capability or display capability. .

<演算子>
本明細書で用いる演算子を以下に記載する。
<Operator>
The operators used in this specification are described below.

>>は右ビットシフト、<<は左ビットシフト、&はビットワイズAND、|はビットワイズOR、|=はOR代入演算子であり、||は論理和を示す。   >> is right bit shift, << is left bit shift, & is bitwise AND, | is bitwise OR, | = is an OR assignment operator, and || is a logical sum.

x?y:zは、xが真(0以外)の場合にy、xが偽(0)の場合にzをとる3項演算子である。   x? y: z is a ternary operator that takes y when x is true (other than 0) and z when x is false (0).

Clip3(a,b,c) は、cをa以上b以下の値にクリップする関数であり、c<aの場合にはaを返し、c>bの場合にはbを返し、その他の場合にはcを返す関数である(ただし、a<=b)。   Clip3 (a, b, c) is a function that clips c to a value greater than or equal to a and less than or equal to b. If c <a, returns a. If c> b, returns b. Is a function that returns c (however, a <= b).

abs(a)はaの絶対値を返す関数である。   abs (a) is a function that returns the absolute value of a.

Int(a)はaの整数値を返す関数である。   Int (a) is a function that returns the integer value of a.

floor(a)はa以下の最大の整数を返す関数である。   floor (a) is a function that returns the largest integer less than or equal to a.

ceil(a)はa以上の最大の整数を返す関数である。   ceil (a) is a function that returns the largest integer greater than or equal to a.

a/dはdによるaの除算(小数点以下切り捨て)を表す。   a / d represents division of a by d (rounding down after the decimal point).

<符号化ストリームTeの構造>
本実施形態に係る動画像符号化装置11および動画像復号装置31の詳細な説明に先立って、動画像符号化装置11によって生成され、動画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。
<Structure of encoded stream Te>
Prior to a detailed description of the moving picture coding apparatus 11 and the moving picture decoding apparatus 31 according to the present embodiment, data of a coded stream Te generated by the moving picture coding apparatus 11 and decoded by the moving picture decoding apparatus 31. The structure will be described.

図4は、符号化ストリームTeにおけるデータの階層構造を示す図である。符号化ストリームTeは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。図4の(a)〜(f)は、それぞれ、シーケンスSEQを既定する符号化ビデオシーケンス、ピクチャPICTを規定する符号化ピクチャ、スライスSを規定する符号化スライス、スライスデータを規定する符号化スライスデータ、符号化スライスデータに含まれる符号化ツリーユニット、符号化ツリーユニットに含まれる符号化ユニットを示す図である。   FIG. 4 is a diagram showing a hierarchical structure of data in the encoded stream Te. The coded stream Te illustratively includes a sequence and a plurality of pictures forming the sequence. 4A to 4F respectively show a coded video sequence defining a sequence SEQ, a coded picture defining a picture PICT, a coded slice defining a slice S, and a coded slice defining slice data. It is a figure which shows the data, the coding tree unit contained in coding slice data, and the coding unit contained in a coding tree unit.

(符号化ビデオシーケンス)
符号化ビデオシーケンスでは、処理対象のシーケンスSEQを復号するために動画像復号装置31が参照するデータの集合が規定されている。シーケンスSEQは、図4(a)に示すように、ビデオパラメータセット(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
(Encoded video sequence)
In the encoded video sequence, a set of data referred to by the moving picture decoding apparatus 31 in order to decode the sequence SEQ to be processed is defined. As shown in FIG. 4 (a), the sequence SEQ includes a video parameter set (Video Parameter Set), a sequence parameter set SPS (Sequence Parameter Set), a picture parameter set PPS (Picture Parameter Set), a picture PICT, and additional extension. Information SEI (Supplemental Enhancement Information) is included.

ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。   The video parameter set VPS is a set of coding parameters common to a plurality of moving pictures in a moving picture composed of a plurality of layers and a plurality of layers included in the moving picture and coding parameters related to individual layers. Sets are defined.

シーケンスパラメータセットSPSでは、対象シーケンスを復号するために動画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。なお、SPSは複数存在してもよい。その場合、PPSから複数のSPSの何れかを選択する。   The sequence parameter set SPS defines a set of coding parameters that the moving image decoding apparatus 31 refers to in order to decode the target sequence. For example, the width and height of the picture are specified. There may be a plurality of SPSs. In that case, one of the plurality of SPSs is selected from the PPS.

ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために動画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)や重み付き予測の適用を示すフラグ(weighted_pred_flag)が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。   The picture parameter set PPS defines a set of coding parameters that the moving picture decoding apparatus 31 refers to in order to decode each picture in the target sequence. For example, a quantization width reference value (pic_init_qp_minus26) used for decoding a picture and a flag (weighted_pred_flag) indicating application of weighted prediction are included. There may be a plurality of PPSs. In that case, one of the plurality of PPSs is selected from each picture in the target sequence.

(符号化ピクチャ)
符号化ピクチャでは、処理対象のピクチャPICTを復号するために動画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図4(b)に示すように、スライス0〜スライスNS-1を含む(NSはピクチャPICTに含まれるスライスの総数)。
(Encoded picture)
In the coded picture, a set of data referred to by the video decoding device 31 in order to decode the picture PICT to be processed is defined. As shown in FIG. 4B, the picture PICT includes slice 0 to slice NS-1 (NS is the total number of slices included in the picture PICT).

なお、以下、スライス0〜スライスNS-1のそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する符号化ストリームTeに含まれるデータであって、添え字を付している他のデータについても同様である。   In addition, hereinafter, when it is not necessary to distinguish each of the slice 0 to the slice NS-1, the suffix of the reference numeral may be omitted. The same applies to other data that is included in the coded stream Te described below and has a subscript.

(符号化スライス)
符号化スライスでは、処理対象のスライスSを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスは、図4(c)に示すように、スライスヘッダ、および、スライスデータを含んでいる。
(Encoding slice)
In the encoded slice, a set of data referred to by the video decoding device 31 in order to decode the slice S to be processed is defined. As shown in FIG. 4 (c), the slice includes a slice header and slice data.

スライスヘッダには、対象スライスの復号方法を決定するために動画像復号装置31が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダに含まれる符号化パラメータの一例である。   The slice header includes a coding parameter group referred to by the video decoding device 31 in order to determine the decoding method of the target slice. The slice type designation information (slice_type) that designates the slice type is an example of an encoding parameter included in the slice header.

スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、または、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、または、イントラ予測を用いるBスライスなどが挙げられる。なお、インター予測は、単予測、双予測に限定されず、より多くの参照ピクチャを用いて予測画像を生成してもよい。以下、P、Bスライスと呼ぶ場合には、インター予測を用いることができるブロックを含むスライスを指す。   The slice types that can be designated by the slice type designation information include (1) an I slice that uses only intra prediction during encoding, (2) a unidirectional prediction that uses encoding during prediction, or a P slice that uses intra prediction. (3) B slices using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding can be given. Note that inter prediction is not limited to uni-prediction and bi-prediction, and a larger number of reference pictures may be used to generate a prediction image. Hereinafter, when referred to as P and B slices, they refer to slices including blocks that can use inter prediction.

なお、スライスヘッダは、ピクチャパラメータセットPPSへの参照(pic_parameter_set_id)を含んでいても良い。   The slice header may include a reference (pic_parameter_set_id) to the picture parameter set PPS.

(符号化スライスデータ)
符号化スライスデータでは、処理対象のスライスデータを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスデータは、図4(d)に示すように、CTUを含んでいる。CTUは、スライスを構成する固定サイズ(例えば64x64)のブロックであり、最大符号化単位(LCU:Largest Coding Unit)と呼ぶこともある。
(Encoded slice data)
In the encoded slice data, a set of data referred to by the moving image decoding apparatus 31 in order to decode the slice data to be processed is defined. The slice data includes a CTU, as shown in FIG. 4 (d). A CTU is a fixed-size (eg, 64x64) block that constitutes a slice, and is sometimes referred to as a maximum coding unit (LCU).

(符号化ツリーユニット)
図4(e)には、処理対象のCTUを復号するために動画像復号装置31が参照するデータの集合が規定されている。CTUは、再帰的な4分木分割(QT(Quad Tree)分割)、2分木分割(BT(Binary Tree)分割)あるいは3分木分割(TT(Ternary Tree)分割)により符号化処理の基本的な単位である符号化ユニットCUに分割される。BT分割とTT分割を合わせてマルチツリー分割(MT(Multi Tree)分割)と呼ぶ。再帰的な4分木分割により得られる木構造のノードのことを符号化ノード(Coding Node)と称する。4分木、2分木、及び3分木の中間ノードは、符号化ノードであり、CTU自身も最上位の符号化ノードとして規定される。
(Encoding tree unit)
In FIG. 4 (e), a set of data referred to by the video decoding device 31 in order to decode the CTU to be processed is defined. CTU is a basic coding process by recursive quadtree partitioning (QT (Quad Tree) partitioning), binary tree partitioning (BT (Binary Tree) partitioning) or ternary tree partitioning (TT (Ternary Tree) partitioning) It is divided into coding units CU, which are basic units. The BT partition and the TT partition are collectively called a multi-tree partition (MT (Multi Tree) partition). A tree-structured node obtained by recursive quadtree partitioning is called a coding node (Coding Node). Intermediate nodes of the quadtree, the binary tree, and the ternary tree are coding nodes, and the CTU itself is also defined as the uppermost coding node.

CTは、CT情報として、QT分割を行うか否かを示すQT分割フラグ(cu_split_flag)、MT分割の有無を示すMT分割フラグ(split_mt_flag)、MT分割の分割方向を示すMT分割方向(split_mt_dir)、MT分割の分割タイプを示すMT分割タイプ(split_mt_type)を含む。cu_split_flag、split_mt_flag、split_mt_dir、split_mt_type は符号化ノード毎に伝送される。   CT, as CT information, QT split flag (cu_split_flag) indicating whether to perform QT split, MT split flag (split_mt_flag) indicating the presence or absence of MT split, MT split direction (split_mt_dir) indicating the split direction of MT split, The MT split type (split_mt_type) indicating the split type of MT split is included. cu_split_flag, split_mt_flag, split_mt_dir, split_mt_type are transmitted for each coding node.

cu_split_flagが1の場合、符号化ノードは4つの符号化ノードに分割される(図5(b))。   When cu_split_flag is 1, the coding node is divided into four coding nodes (FIG. 5 (b)).

cu_split_flagが0の時、split_mt_flagが0の場合に符号化ノードは分割されず1つのCUをノードとして持つ(図5(a))。CUは符号化ノードの末端ノードであり、これ以上分割されない。CUは、符号化処理の基本的な単位となる。   When cu_split_flag is 0 and the split_mt_flag is 0, the coding node is not split and has one CU as a node (FIG. 5 (a)). The CU is the end node of the coding node and is not further divided. The CU is a basic unit of encoding processing.

split_mt_flagが1の場合に符号化ノードは以下のようにMT分割される。split_mt_typeが0の時、split_mt_dirが1の場合に符号化ノードは2つの符号化ノードに水平分割され(図5(d))、split_mt_dirが0の場合に符号化ノードは2つの符号化ノードに垂直分割される(図5(c))。また、split_mt_typeが1の時、split_mt_dirが1の場合に符号化ノードは3つの符号化ノードに水平分割され(図5(f))、split_mt_dirが0の場合に符号化ノードは3つの符号化ノードに垂直分割される(図5(e))。これらを図5(g)に示す。   When split_mt_flag is 1, the coding node is MT-divided as follows. When split_mt_type is 0 and split_mt_dir is 1, the coding node is horizontally split into two coding nodes (Fig. 5 (d)), and when split_mt_dir is 0, the coding node is perpendicular to the two coding nodes. It is divided (Fig. 5 (c)). In addition, when split_mt_type is 1, when split_mt_dir is 1, the coding node is horizontally divided into three coding nodes (Fig. 5 (f)), and when split_mt_dir is 0, the coding node is three coding nodes. Is vertically divided into two parts (Fig. 5 (e)). These are shown in FIG. 5 (g).

また、CTUのサイズが64x64画素の場合には、CUのサイズは、64x64画素、64x32画素、32x64画素、32x32画素、64x16画素、16x64画素、32x16画素、16x32画素、16x16画素、64x8画素、8x64画素、32x8画素、8x32画素、16x8画素、8x16画素、8x8画素、64x4画素、4x64画素、32x4画素、4x32画素、16x4画素、4x16画素、8x4画素、4x8画素、及び、4x4画素の何れかをとり得る。   When the CTU size is 64x64 pixels, the CU size is 64x64 pixels, 64x32 pixels, 32x64 pixels, 32x32 pixels, 64x16 pixels, 16x64 pixels, 32x16 pixels, 16x32 pixels, 16x16 pixels, 64x8 pixels, 8x64 pixels. , 32x8 pixels, 8x32 pixels, 16x8 pixels, 8x16 pixels, 8x8 pixels, 64x4 pixels, 4x64 pixels, 32x4 pixels, 4x32 pixels, 16x4 pixels, 4x16 pixels, 8x4 pixels, 4x8 pixels, and 4x4 pixels .

(符号化ユニット)
図4(f)に示すように、処理対象の符号化ユニットを復号するために動画像復号装置31が参照するデータの集合が規定されている。具体的には、CUは、CUヘッダCUH、予測パラメータ、変換パラメータ、量子化変換係数等から構成される。CUヘッダでは予測モード等が規定される。
(Encoding unit)
As shown in FIG. 4 (f), a set of data referred to by the video decoding device 31 for decoding the encoding unit to be processed is defined. Specifically, the CU includes a CU header CUH, a prediction parameter, a conversion parameter, a quantized conversion coefficient, and the like. The prediction mode etc. are specified in the CU header.

予測処理は、CU単位で行われる場合と、CUをさらに分割したサブCU単位で行われる場合がある。CUとサブCUのサイズが等しい場合には、CU中のサブCUは1つである。CUがサブCUのサイズよりも大きい場合、CUは、サブCUに分割される。たとえばCUが8x8、サブCUが4x4の場合、CUは水平2分割、垂直2分割からなる、4つのサブCUに分割される。   The prediction process may be performed in units of CU or may be performed in units of sub CUs obtained by further dividing the CU. When the CU and the sub CU have the same size, there is one sub CU in the CU. If the CU is larger than the size of the sub-CU, the CU is divided into sub-CUs. For example, if the CU is 8x8 and the sub-CU is 4x4, the CU is divided into four sub-CUs, which are divided into two horizontally and vertically.

予測の種類(予測モード)は、イントラ予測と、インター予測の2つがある。イントラ予測は、同一ピクチャ内の予測であり、インター予測は、互いに異なるピクチャ間(例えば、表示時刻間、レイヤ画像間)で行われる予測処理を指す。   There are two types of prediction (prediction mode): intra prediction and inter prediction. Intra-prediction is prediction within the same picture, and inter-prediction refers to prediction processing performed between different pictures (for example, between display times and between layer images).

変換・量子化処理はCU単位で行われるが、量子化変換係数は4x4等のサブブロック単位でエントロピー符号化してもよい。   The transform / quantization process is performed in CU units, but the quantized transform coefficients may be entropy coded in subblock units such as 4 × 4.

(予測パラメータ)
予測画像は、ブロックに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測とインター予測の予測パラメータがある。
(Prediction parameter)
The predicted image is derived from the prediction parameters associated with the block. The prediction parameters include intra prediction and inter prediction parameters.

(動画像復号装置の構成例1)
本実施形態に係る動画像復号装置31(図6)の構成について説明する。
(Structure example 1 of video decoding device)
The configuration of the moving picture decoding device 31 (FIG. 6) according to the present embodiment will be described.

動画像復号装置31は、エントロピー復号部301、パラメータ復号部(予測画像復号装置)302、ループフィルタ305、参照ピクチャメモリ306、予測パラメータメモリ307、予測画像生成部(予測画像生成装置)308、逆量子化・逆変換部311、及び加算部312を含んで構成される。なお、後述の動画像符号化装置11に合わせ、動画像復号装置31にループフィルタ305が含まれない構成もある。   The moving image decoding device 31 includes an entropy decoding unit 301, a parameter decoding unit (prediction image decoding device) 302, a loop filter 305, a reference picture memory 306, a prediction parameter memory 307, a prediction image generation unit (prediction image generation device) 308, and an inverse. The quantization / inverse conversion unit 311 and the addition unit 312 are included. It should be noted that there is a configuration in which the loop filter 305 is not included in the moving image decoding device 31 in accordance with the moving image encoding device 11 described later.

また、パラメータ復号部302は、図示しないインター予測パラメータ復号部303及びイントラ予測パラメータ復号部304を含んで構成される。予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を含んで構成される。   Further, the parameter decoding unit 302 is configured to include an inter prediction parameter decoding unit 303 and an intra prediction parameter decoding unit 304 (not shown). The predicted image generation unit 308 includes an inter predicted image generation unit 309 and an intra predicted image generation unit 310.

また、以降では処理の単位としてCTU、CUを使用した例を記載するが、この例に限らず、サブCU単位で処理をしてもよい。あるいはCTU、CU、をブロック、サブCUをサブブロックと読み替え、ブロックあるいはサブブロック単位の処理としてもよい。   Further, although an example in which CTU and CU are used as a processing unit is described below, the processing is not limited to this example, and processing may be performed in sub CU units. Alternatively, the CTU and CU may be read as a block and the sub CU as a sub block, and the processing may be performed in block or sub block units.

エントロピー復号部301は、外部から入力された符号化ストリームTeに対してエントロピー復号を行って、個々の符号(シンタックス要素)を分離し復号する。エントロピー符号化には、シンタックス要素の種類や周囲の状況に応じて適応的に選択したコンテキスト(確率モデル)を用いてシンタックス要素を可変長符号化する方式と、あらかじめ定められた表、あるいは計算式を用いてシンタックス要素を可変長符号化する方式がある。前者のCABAC(Context Adaptive Binary Arithmetic Coding)は、符号化あるいは復号したピクチャ(スライス)毎に更新した確率モデルをメモリに格納する。そして、Pピクチャ、あるいはBピクチャのコンテキストの初期状態として、メモリに格納された確率モデルの中から、同じスライスタイプ、同じスライスレベルの量子化パラメータを使用したピクチャの確率モデルを設定する。この初期状態を符号化、復号処理に使用する。分離された符号には、予測画像を生成するための予測情報および、差分画像を生成するための予測誤差などがある。   The entropy decoding unit 301 performs entropy decoding on the coded stream Te input from the outside to separate and decode individual codes (syntax elements). Entropy coding uses a variable-length coding method for syntax elements using a context (stochastic model) that is adaptively selected according to the type of syntax element and the surrounding situation, and a predetermined table or There is a method of variable length coding syntax elements using a calculation formula. In the former CABAC (Context Adaptive Binary Arithmetic Coding), a stochastic model updated for each coded or decoded picture (slice) is stored in a memory. Then, as the initial state of the context of the P picture or the B picture, the probability model of the picture using the quantization parameter of the same slice type and the same slice level is set from the probability models stored in the memory. This initial state is used for encoding and decoding processing. The separated codes include prediction information for generating a prediction image and prediction error for generating a difference image.

エントロピー復号部301は、分離した符号をパラメータ復号部302に出力する。分離した符号とは、例えば、予測モードpredMode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX等である。どの符号を復号するかの制御は、パラメータ復号部302の指示に基づいて行われる。   The entropy decoding unit 301 outputs the separated code to the parameter decoding unit 302. The separated codes are, for example, the prediction mode predMode, merge flag merge_flag, merge index merge_idx, inter prediction identifier inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX and the like. Control of which code is decoded is performed based on an instruction from the parameter decoding unit 302.

ループフィルタ305は、符号化ループ内に設けたフィルタで、ブロック歪やリンギング歪を除去し、画質を改善するフィルタである。ループフィルタ305は、加算部312が生成したCUの復号画像に対し、デブロッキングフィルタ、サンプル適応オフセット(SAO)、適応ループフィルタ(ALF)等のフィルタを施す。   The loop filter 305 is a filter provided in the coding loop and removes block distortion and ringing distortion to improve image quality. The loop filter 305 applies filters such as a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the decoded image of the CU generated by the addition unit 312.

参照ピクチャメモリ306は、加算部312が生成したCUの復号画像を、対象ピクチャ及び対象CU毎に予め定めた位置に記憶する。   The reference picture memory 306 stores the decoded image of the CU generated by the adding unit 312 at a predetermined position for each target picture and each target CU.

予測パラメータメモリ307は、復号対象のCTUあるいはCU毎に予め定めた位置に予測パラメータを記憶する。具体的には、予測パラメータメモリ307は、パラメータ復号部302が復号したパラメータ及びエントロピー復号部301が分離した予測モードpredMode等を記憶する。   The prediction parameter memory 307 stores the prediction parameter in a predetermined position for each CTU or CU to be decoded. Specifically, the prediction parameter memory 307 stores the parameters decoded by the parameter decoding unit 302, the prediction mode predMode separated by the entropy decoding unit 301, and the like.

予測画像生成部308には、予測モードpredMode、予測パラメータ等が入力される。また、予測画像生成部308は、参照ピクチャメモリ306から参照ピクチャを読み出す。予測画像生成部308は、予測モードpredModeが示す予測モードで、予測パラメータと読み出した参照ピクチャ(参照ピクチャブロック)を用いてブロックもしくはサブブロックの予測画像を生成する。ここで、参照ピクチャブロックとは、参照ピクチャ上の画素の集合(通常矩形であるのでブロックと呼ぶ)であり、予測画像を生成するために参照する領域である。   A prediction mode predMode, a prediction parameter, and the like are input to the prediction image generation unit 308. Further, the predicted image generation unit 308 reads the reference picture from the reference picture memory 306. The predicted image generation unit 308 generates a predicted image of a block or sub-block using the prediction parameter and the read reference picture (reference picture block) in the prediction mode indicated by the prediction mode predMode. Here, the reference picture block is a set of pixels on the reference picture (which is usually called a block because it is a rectangle), and is an area referred to for generating a predicted image.

逆量子化・逆変換部311は、エントロピー復号部301から入力された量子化変換係数を逆量子化して変換係数を求める。この量子化変換係数は、符号化処理において、予測誤差に対してDCT(Discrete Cosine Transform、離散コサイン変換)、DST(Discrete Sine Transform、離散サイン変換)、KLT(Karyhnen Loeve Transform、カルーネンレーベ変換)等の周波数変換を行い量子化して得られる係数である。逆量子化・逆変換部311は、求めた変換係数について逆DCT、逆DST、逆KLT等の逆周波数変換を行い、予測誤差を算出する。逆量子化・逆変換部311は予測誤差を加算部312に出力する。   The inverse quantization / inverse transform unit 311 dequantizes the quantized transform coefficient input from the entropy decoding unit 301 to obtain a transform coefficient. These quantized transform coefficients are DCT (Discrete Cosine Transform, Discrete Cosine Transform), DST (Discrete Sine Transform, Discrete Sine Transform), KLT (Karyhnen Loeve Transform, Karhunen-Loeve Transform) for the prediction error in the encoding process. Is a coefficient obtained by performing frequency conversion and quantizing. The inverse quantization / inverse transform unit 311 performs inverse frequency transform such as inverse DCT, inverse DST, and inverse KLT on the obtained transform coefficient to calculate a prediction error. The inverse quantization / inverse transformation unit 311 outputs the prediction error to the addition unit 312.

加算部312は、予測画像生成部308から入力されたブロックの予測画像と逆量子化・逆変換部311から入力された予測誤差を画素毎に加算して、ブロックの復号画像を生成する。加算部312はブロックの復号画像を参照ピクチャメモリ306に記憶し、また、ループフィルタ305に出力する。   The addition unit 312 adds the prediction image of the block input from the prediction image generation unit 308 and the prediction error input from the inverse quantization / inverse conversion unit 311 for each pixel to generate a decoded image of the block. The addition unit 312 stores the decoded image of the block in the reference picture memory 306, and also outputs it to the loop filter 305.

(動画像符号化装置の構成例1)
次に、本実施形態に係る動画像符号化装置11の構成について説明する。図7は、本実施形態に係る動画像符号化装置11の構成を示すブロック図である。動画像符号化装置11は、予測画像生成部101、減算部102、変換・量子化部103、逆量子化・逆変換部105、加算部106、ループフィルタ107、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、およびパラメータ符号化部111を含んで構成される。
(Structural Example 1 of Video Coding Device)
Next, the configuration of the moving picture coding device 11 according to the present embodiment will be described. FIG. 7 is a block diagram showing the configuration of the moving picture coding device 11 according to the present embodiment. The moving image coding device 11 includes a predicted image generation unit 101, a subtraction unit 102, a conversion / quantization unit 103, an inverse quantization / inverse conversion unit 105, an addition unit 106, a loop filter 107, a prediction parameter memory (prediction parameter storage unit). , A frame memory) 108, a reference picture memory (reference image storage unit, frame memory) 109, a coding parameter determination unit 110, and a parameter coding unit 111.

予測画像生成部101は画像Tの各ピクチャを分割した領域であるCU毎に予測画像を生成する。予測画像生成部101は既に説明した予測画像生成部308と同じ動作であり、説明を省略する。   The predicted image generation unit 101 generates a predicted image for each CU that is an area obtained by dividing each picture of the image T. The predicted image generation unit 101 has the same operation as the predicted image generation unit 308 described above, and thus the description thereof will be omitted.

減算部102は、予測画像生成部101から入力されたブロックの予測画像の画素値を、画像Tの画素値から減算して予測誤差を生成する。減算部102は予測誤差を変換・量子化部103に出力する。   The subtraction unit 102 subtracts the pixel value of the predicted image of the block input from the predicted image generation unit 101 from the pixel value of the image T to generate a prediction error. The subtraction unit 102 outputs the prediction error to the conversion / quantization unit 103.

変換・量子化部103は、減算部102から入力された予測誤差に対し、周波数変換によって変換係数を算出し、量子化によって量子化変換係数を導出する。変換・量子化部103は、量子化変換係数をエントロピー符号化部104及び逆量子化・逆変換部105に出力する。   The transform / quantization unit 103 calculates a transform coefficient by frequency transform for the prediction error input from the subtraction unit 102, and derives a quantized transform coefficient by quantization. The transform / quantization unit 103 outputs the quantized transform coefficient to the entropy coding unit 104 and the inverse quantization / inverse transform unit 105.

逆量子化・逆変換部105は、動画像復号装置31における逆量子化・逆変換部311(図6)と同じであり、説明を省略する。算出した予測誤差は加算部106に出力される。   The inverse quantizing / inverse transforming unit 105 is the same as the inverse quantizing / inverse transforming unit 311 (FIG. 6) in the moving picture decoding device 31, and the description thereof is omitted. The calculated prediction error is output to the addition unit 106.

エントロピー符号化部104には、変換・量子化部103から量子化変換係数が入力され、パラメータ符号化部111から符号化パラメータが入力される。符号化パラメータには、例えば、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX、予測モードpredMode、及びマージインデックスmerge_idx等の符号がある。   The entropy coding unit 104 receives the quantized transform coefficient from the transform / quantization unit 103 and the coding parameter from the parameter coding unit 111. The encoding parameters include, for example, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX, prediction mode predMode, and merge index merge_idx.

エントロピー符号化部104は、分割情報、予測パラメータ、量子化変換係数等をエントロピー符号化して符号化ストリームTeを生成し、出力する。   The entropy encoding unit 104 entropy-encodes the division information, the prediction parameter, the quantized transform coefficient, and the like to generate and output an encoded stream Te.

パラメータ符号化部111は、図示しないヘッダ符号化部1110、CT情報符号化部1111、CU符号化部1112(予測モード符号化部)、および図インター予測パラメータ符号化部112とイントラ予測パラメータ符号化部113を備えている。CU符号化部1112はさらにTU符号化部1114を備えている。   The parameter coding unit 111 includes a header coding unit 1110, a CT information coding unit 1111, a CU coding unit 1112 (prediction mode coding unit), a figure inter prediction parameter coding unit 112, and an intra prediction parameter coding (not shown). The unit 113 is provided. The CU coding unit 1112 further includes a TU coding unit 1114.

加算部106は、予測画像生成部101から入力されたブロックの予測画像の画素値と逆量子化・逆変換部105から入力された予測誤差を画素毎に加算して復号画像を生成する。加算部106は生成した復号画像を参照ピクチャメモリ109に記憶する。   The addition unit 106 adds the pixel value of the prediction image of the block input from the prediction image generation unit 101 and the prediction error input from the inverse quantization / inverse conversion unit 105 for each pixel to generate a decoded image. The addition unit 106 stores the generated decoded image in the reference picture memory 109.

ループフィルタ107は加算部106が生成した復号画像に対し、デブロッキングフィルタ、SAO、ALFを施す。なお、ループフィルタ107は、必ずしも上記3種類のフィルタを含まなくてもよく、例えばデブロッキングフィルタのみの構成であってもよい。   The loop filter 107 applies a deblocking filter, SAO, and ALF to the decoded image generated by the addition unit 106. Note that the loop filter 107 does not necessarily have to include the above three types of filters, and may be configured with only a deblocking filter, for example.

予測パラメータメモリ108は、符号化パラメータ決定部110が生成した予測パラメータを、対象ピクチャ及びCU毎に予め定めた位置に記憶する。   The prediction parameter memory 108 stores the prediction parameter generated by the coding parameter determination unit 110 in a predetermined position for each target picture and CU.

参照ピクチャメモリ109は、ループフィルタ107が生成した復号画像を対象ピクチャ及びCU毎に予め定めた位置に記憶する。   The reference picture memory 109 stores the decoded image generated by the loop filter 107 at a predetermined position for each target picture and CU.

符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセットを選択する。符号化パラメータとは、上述したQT、BTあるいはTT分割情報、予測パラメータ、あるいはこれらに関連して生成される符号化の対象となるパラメータである。予測画像生成部101は、これらの符号化パラメータを用いて予測画像を生成する。   The coding parameter determination unit 110 selects one set from among a plurality of sets of coding parameters. The coding parameter is the above-mentioned QT, BT or TT partition information, a prediction parameter, or a parameter to be coded generated in association with these. The predicted image generation unit 101 generates a predicted image using these coding parameters.

符号化パラメータ決定部110は、複数のセットの各々について情報量の大きさと符号化誤差を示すRDコスト値を算出する。RDコスト値は、例えば、符号量と二乗誤差に係数λを乗じた値との和である。符号量は、量子化誤差と符号化パラメータをエントロピー符号化して得られる符号化ストリームTeの情報量である。二乗誤差は、減算部102において算出された予測誤差の二乗和である。係数λは、予め設定されたゼロよりも大きい実数である。符号化パラメータ決定部110は、算出したコスト値が最小となる符号化パラメータのセットを選択する。これにより、エントロピー符号化部104は、選択した符号化パラメータのセットを符号化ストリームTeとして出力する。符号化パラメータ決定部110は決定した符号化パラメータを予測パラメータメモリ108に記憶する。   The coding parameter determination unit 110 calculates the RD cost value indicating the size of the information amount and the coding error for each of the plurality of sets. The RD cost value is, for example, the sum of the code amount and the squared error multiplied by the coefficient λ. The code amount is the information amount of the coded stream Te obtained by entropy coding the quantization error and the coding parameter. The squared error is the sum of squares of the prediction errors calculated by the subtraction unit 102. The coefficient λ is a real number larger than zero that is set in advance. The coding parameter determination unit 110 selects the set of coding parameters that minimizes the calculated cost value. As a result, the entropy coding unit 104 outputs the selected set of coding parameters as the coded stream Te. The coding parameter determination unit 110 stores the determined coding parameter in the prediction parameter memory 108.

なお、上述した実施形態における動画像符号化装置11、動画像復号装置31の一部、例えば、エントロピー復号部301、パラメータ復号部302、ループフィルタ305、予測画像生成部308、逆量子化・逆変換部311、加算部312、予測画像生成部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆量子化・逆変換部105、ループフィルタ107、符号化パラメータ決定部110、パラメータ符号化部111をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、動画像符号化装置11、動画像復号装置31のいずれかに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   Note that the moving picture coding device 11 and a part of the moving picture decoding device 31 in the above-described embodiment, for example, the entropy decoding unit 301, the parameter decoding unit 302, the loop filter 305, the predicted image generation unit 308, the inverse quantization / inverse. The conversion unit 311, the addition unit 312, the predicted image generation unit 101, the subtraction unit 102, the conversion / quantization unit 103, the entropy coding unit 104, the dequantization / inverse conversion unit 105, the loop filter 107, the coding parameter determination unit 110. The parameter coding unit 111 may be realized by a computer. In that case, the program for realizing the control function may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be read by a computer system and executed. It should be noted that the “computer system” mentioned here is a computer system built in either the moving picture coding apparatus 11 or the moving picture decoding apparatus 31, and includes an OS and hardware such as peripheral devices. Further, the “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. Further, "computer-readable recording medium" means a program that dynamically holds a program for a short time, such as a communication line when transmitting the program through a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside the computer system that serves as a server or a client that holds the program for a certain period of time may be included. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

(画像フィルタ装置の構成例1)
本実施形態に係る画像フィルタ装置の構成例について説明する。なお、以下の各例においては、既に説明した事項についての重複する説明を繰り返さない。図8は、本例に係る画像フィルタ装置400の機能ブロック図である。画像フィルタ装置400は、入力画像に超解像処理と、ダイナミックレンジ変換とを施す装置であって、図8に示すように、複数の低輝度用階調変換部40211、40212、高輝度用階調変換部40221、40222および超解像部404、合成部406、並びに画像マップ作成部408を備えている。ここで、ダイナミックレンジ変換とは、例えば、標準ダイナミックレンジ(SDR)からハイダイナミックレンジ(HDR)に変換することを意味する。具体的には、標準ダイナミックレンジのITU-R BT.709の8ビット階調の画像から、ハイダイナミックレンジのITU-R BT.2100の10ビット階調の画像に変換する場合を指す。
(Structure Example 1 of Image Filter Device)
A configuration example of the image filter device according to the present embodiment will be described. In each of the following examples, repeated description of the items already described will not be repeated. FIG. 8 is a functional block diagram of the image filter device 400 according to this example. The image filter device 400 is a device that performs super-resolution processing and dynamic range conversion on an input image. As shown in FIG. 8, the image filter device 400 includes a plurality of low-luminance gradation conversion units 40211 and 40212 and a high-luminance floor. The tone conversion units 40221 and 40222, the super-resolution unit 404, the synthesis unit 406, and the image map creation unit 408 are provided. Here, the dynamic range conversion means, for example, conversion from a standard dynamic range (SDR) to a high dynamic range (HDR). Specifically, it refers to the case where an image with 8-bit gradation of ITU-R BT.709 of standard dynamic range is converted to an image of 10-bit gradation of ITU-R BT.2100 with high dynamic range.

低輝度用階調変換部40211および高輝度用階調変換部40221は、入力画像に対してビット深度を変更する処理と、輝度値に対する変換を施す処理とを行う。また、低輝度用階調変換部40212および高輝度用階調変換部40222は、入力画像に対して輝度値に対する変換を施す処理を行う。   The low-luminance gradation conversion unit 40211 and the high-luminance gradation conversion unit 40221 perform a process of changing the bit depth of the input image and a process of converting the brightness value. Further, the low-luminance gradation converting unit 40212 and the high-luminance gradation converting unit 40222 perform processing for converting the brightness value of the input image.

図9は、入力画像の輝度値に対する変換処理の一例を示す図である。図9の各図において、横軸は低輝度用階調変換部40211等の各部材に入力される画像の各画素における輝度値を、縦軸は、各部材による変換が施された画像の当該各画素における輝度値を示している。ここで、図9(A)は、低輝度用階調変換部40211による輝度値の変換を示す図である。また、図9(B)は、低輝度用階調変換部40212による輝度値の変換を示す図である。また、図9(C)は、高輝度用階調変換部40221による輝度値の変換処理を示す図である。また、図9(D)は、高輝度用階調変換部40222による輝度値の変換処理を示す図である。   FIG. 9 is a diagram showing an example of a conversion process for the brightness value of the input image. In each drawing of FIG. 9, the horizontal axis represents the luminance value at each pixel of the image input to each member such as the low-brightness gradation conversion unit 40211, and the vertical axis represents the image of the image converted by each member. The brightness value in each pixel is shown. Here, FIG. 9A is a diagram showing the conversion of the brightness value by the low brightness gradation conversion unit 40211. Further, FIG. 9B is a diagram showing conversion of brightness values by the low brightness gradation conversion unit 40212. Further, FIG. 9C is a diagram showing the conversion processing of the brightness value by the high brightness gradation conversion unit 40221. Further, FIG. 9D is a diagram showing a luminance value conversion process by the high-luminance gradation conversion unit 40222.

低輝度用階調変換部40211は、入力画像の輝度値を全体的に高くして、他の箇所よりも暗い箇所の階調を鮮明にする補正を施す。低輝度用階調変換部40212は、低輝度用階調変換部40211によって補正された輝度値を元に戻す方向に補正する。高輝度用階調変換部40221は、入力画像の輝度値を全体的に低くして、他の箇所よりも明るい箇所の階調を鮮明にする補正を施す。高輝度用階調変換部40222は、高輝度用階調変換部40221によって補正された輝度値を元に戻す方向に補正する。   The low-brightness gradation conversion unit 40211 performs a correction to raise the brightness value of the input image as a whole and to make the gradation of a darker portion clearer than other portions. The low-luminance gradation converting unit 40212 corrects the luminance value corrected by the low-luminance gradation converting unit 40211 in the direction of returning it to the original value. The high-brightness gradation conversion unit 40221 lowers the brightness value of the input image as a whole, and performs a correction to make the gradation of a brighter part clearer than other parts. The high-luminance gradation conversion unit 40222 corrects the luminance value corrected by the high-luminance gradation conversion unit 40221 in the direction of returning it to the original value.

また、図9(A)および図9(C)に示す処理においては、各部材から出力される画像のビット深度は、各部材に入力される画像のビット深度と同じであるかそれよりも大きい。換言すると、低輝度用階調変換部40211および高輝度用階調変換部40221は、入力された画像よりも大きいビット深度を有する画像を出力する。図8に示す例においては、各部材に入力される画像のビット深度は、xビットであり、当該各部材から出力される画像のビット深度は、yビット(x、yは1以上の整数であって、x≦y)である。   Further, in the processing shown in FIGS. 9A and 9C, the bit depth of the image output from each member is the same as or larger than the bit depth of the image input to each member. . In other words, the low-luminance gradation converting unit 40211 and the high-luminance gradation converting unit 40221 output an image having a bit depth larger than that of the input image. In the example shown in FIG. 8, the bit depth of the image input to each member is x bit, and the bit depth of the image output from each member is y bit (x and y are integers of 1 or more). Therefore, x ≦ y).

超解像部404は、入力された画像に対して超解像処理を施し、元の画像よりも高い解像度の画像を出力する。超解像部404は、例えばSR-CNN(Super-Resolutino Convolutional Neural Network)フィルタを有している。SR-CNNとは、CNNの一種であって、画像を適用した場合に、解像度が適用前よりも大きくできる特徴がある。また、等倍の場合は、画像復元処理とみなすことができる。なお、CNNの詳細については後述する。   The super-resolution unit 404 performs super-resolution processing on the input image and outputs an image having a higher resolution than the original image. The super-resolution unit 404 has, for example, an SR-CNN (Super-Resolutino Convolutional Neural Network) filter. SR-CNN is a kind of CNN, and has a feature that the resolution can be made larger when an image is applied than before the application. Further, in the case of the same size, it can be regarded as an image restoration process. The details of CNN will be described later.

画像マップ作成部408は、各処理経路、図8の例においては、低輝度用階調変換部40211を経由する処理経路と、高輝度用階調変換部40212を経由する処理経路との何れを経由した入力画像の画素値を、合成部406の出力画像の何れの画素に設定するかを、例えば画素値によって規定した画素マップを生成する。   The image map creation unit 408 selects each processing route, in the example of FIG. 8, either the processing route passing through the low-luminance gradation converting unit 40211 or the high-luminance gradation converting unit 40212. For example, a pixel map is generated that defines which pixel of the output image of the combining unit 406 should be set to the pixel value of the input image that has passed through the pixel map.

例えば画素マップは、画像フィルタ装置400に入力された画像内において、所定の値以上の輝度値を有する画素については、高輝度用階調変換部40221を経由した画像の画素を、合成部406の出力画像の対応する画素に設定し、所定の値未満の輝度値を有する画素については、低輝度用階調変換部40211を経由した画像の画素を、合成部406の出力画像の対応する画素に設定するように規定されてもよい。   For example, in the pixel map, in the image input to the image filter device 400, for pixels having a luminance value equal to or higher than a predetermined value, the pixels of the image passed through the high-luminance gradation conversion unit 40221 are converted into the pixels of the synthesis unit 406. For a pixel having a brightness value less than a predetermined value set to a corresponding pixel of the output image, a pixel of the image passed through the low-brightness gradation converting unit 40211 is set as a corresponding pixel of the output image of the combining unit 406. It may be prescribed to set.

合成部406は、画像マップ作成部408が作成した画素マップを参照して、各処理経路を経由して入力される入力画像、図8の例においては、低輝度用階調変換部40221から出力される画像と、高輝度用階調変換部40222から出力される画像とを合成する。これにより、画像マップが反映された画像が合成可能となる。   The synthesizing unit 406 refers to the pixel map created by the image map creating unit 408, and outputs from the input image that is input via each processing path, in the example of FIG. 8, the low-luminance gradation converting unit 40221. And the image output from the high-luminance gradation converting unit 40222 are combined. As a result, it is possible to synthesize an image in which the image map is reflected.

また、暗い箇所の階調が鮮明になった画像と、明るい箇所の階調が鮮明になった画像とが合成されるので、合成部406から出力される画像、即ち画像フィルタ装置400から出力される画像は、画像フィルタ装置400に対する元の入力画像よりも広いダイナミックレンジを有している。また、超解像処理が施されることにより、入力画像よりも出力画像の方が大きい解像度を有している。   Further, since the image in which the gradation in the dark part is clear and the image in which the gradation in the bright part is clear are combined, the image output from the combining unit 406, that is, the image filter device 400 outputs. The resulting image has a wider dynamic range than the original input image to the image filter device 400. Further, since the super-resolution processing is performed, the output image has a larger resolution than the input image.

なお、全ての処理経路において階調変換処理が施されることは必須ではない。図10は、別の態様における画像フィルタ装置400aの機能ブロック図である。図10に示すように、画像フィルタ装置400aは、一方の処理経路においては階調変換部を経由せず、また、画像マップ作成部408を備えない構成である。なお、階調変換部4021は、入力画像に対してビット深度を変更する処理と、輝度値に対する変換を施す処理とを行う。また、階調変換部4022は、入力画像に対して輝度値に対する変換を施す処理を行う。また、超解像部404は、超解像処理に加え、ダイナミックレンジ変換を行ってもよい。   Note that it is not essential that gradation conversion processing be performed on all processing paths. FIG. 10 is a functional block diagram of an image filter device 400a in another mode. As shown in FIG. 10, the image filter device 400a has a configuration in which one of the processing paths does not pass through the gradation conversion unit and the image map creation unit 408 is not provided. The gradation converting unit 4021 performs a process of changing the bit depth of the input image and a process of converting the brightness value. Further, the gradation converting unit 4022 performs a process of converting the brightness value of the input image. Further, the super-resolution unit 404 may perform dynamic range conversion in addition to the super-resolution processing.

また、合成部406は、入力される画像の各画素の輝度値に応じて、何れの処理経路を経由した入力画像の画素値を、合成部406からの出力画像の対応する画素に設定するかを決定してもよい。   Also, which processing path should the pixel value of the input image pass through, depending on the luminance value of each pixel of the input image, the combining unit 406 sets the pixel value of the output image from the combining unit 406 to the corresponding pixel. May be determined.

また、入力画像に対する処理経路は2つであることに限定されない。図11は、入力画像に対する3以上の処理経路を有する画像フィルタ装置400bの機能ブロック図である。ここで、画像フィルタ装置400bが備える複数の階調変換部4021の特性、例えば輝度値に作用させる変換は互いに異なり、階調変換部4022についても同様である。これにより、階調変換部4021、4022の互いに異なる特性が反映された画像を出力可能な画像フィルタ装置400bが実現できる。   Further, the number of processing paths for the input image is not limited to two. FIG. 11 is a functional block diagram of an image filter device 400b having three or more processing paths for an input image. Here, the characteristics of the plurality of gradation conversion units 4021 included in the image filter device 400b, for example, the conversion applied to the brightness value, are different from each other, and the same applies to the gradation conversion unit 4022. As a result, it is possible to realize the image filter device 400b capable of outputting an image in which different characteristics of the gradation conversion units 4021 and 4022 are reflected.

また、各超解像部404の特性、例えば超解像処理に用いるパラメータ等も互いに異なっていてもよいし、当該特性の差異が、ニューラルネットワークの学習に由来するものであってもよい。   Further, the characteristics of each super-resolution unit 404, for example, the parameters used for the super-resolution processing may be different from each other, and the difference in the characteristics may be derived from the learning of the neural network.

上述したように、本例に係る画像フィルタ装置400は、入力画像に作用する画像フィルタ装置400であって、前記入力画像を対象とする複数の処理経路の少なくとも何れかにおいて階調変換処理を施す1又は複数の階調変換部と、前記複数の処理経路においてそれぞれ超解像処理を施す複数の超解像部404と、前記超解像処理が施された複数の前記入力画像を合成する合成部406と、を備えている。上記の構成によれば、超解像処理とダイナミックレンジ変換とを併せて実行可能な画像フィルタ装置400を実現できる。   As described above, the image filter device 400 according to the present example is an image filter device 400 that operates on an input image, and performs gradation conversion processing on at least one of a plurality of processing paths targeting the input image. One or a plurality of gradation conversion units, a plurality of super-resolution units 404 that respectively perform super-resolution processing in the plurality of processing paths, and a composition that combines the plurality of input images that have been subjected to the super-resolution processing. And a section 406. According to the above configuration, it is possible to realize the image filter device 400 capable of executing both super-resolution processing and dynamic range conversion.

また、画像フィルタ装置400bは、画像フィルタ装置400と同様に、何れの処理経路を経由した入力画像の画素値を、合成部406の出力画像の何れの画素に設定するかを規定した画素マップを生成する画像マップ作成部408を備えていてもよい。また、図10の構成と同様に、画像フィルタ装置400bは、入力画像に対する何れかの処理経路において、階調変換部を経由しなくともよい。   Further, the image filter device 400b, like the image filter device 400, creates a pixel map that defines which pixel of the output image of the combining unit 406 should be set to the pixel value of the input image that has passed through which processing path. The image map creation unit 408 for creating may be provided. Further, similarly to the configuration of FIG. 10, the image filter device 400b does not need to go through the gradation conversion unit in any processing path for the input image.

(画像フィルタ装置の構成例2)
超解像部404による処理に相当する工程においては、フィルタ処理の結果、必ずしも解像度が増加していなくてもよい。図12は、超解像部404に代わって画像復元部410を備える画像フィルタ装置401の機能ブロック図である。
(Structure example 2 of image filter device)
In the process corresponding to the process by the super-resolution unit 404, the resolution may not necessarily be increased as a result of the filter process. FIG. 12 is a functional block diagram of the image filter device 401 including an image restoration unit 410 instead of the super-resolution unit 404.

画像復元部410は、入力画像に対して、自身が有するCNN(Convolutional Neural Network)によるフィルタ処理を施す。ただし、超解像部404とは異なり、画像復元部410に入力される画像の解像度と、画像復元部410から入力される画像の解像度とは同じである。   The image restoration unit 410 performs a filtering process on the input image using its own CNN (Convolutional Neural Network). However, unlike the super-resolution unit 404, the resolution of the image input to the image restoration unit 410 and the resolution of the image input from the image restoration unit 410 are the same.

また、画像フィルタ装置401等が画像復元部410を備える構成においても、図13の画像フィルタ装置401aに例示するように、何れかの処理経路においては階調変換部を経由しなくともよく、また、画像マップ作成部408を備えていなくともよい。また、入力画像に対する処理経路は2つであることに限定されず、図14に例示する画像フィルタ装置401bのように、3以上の処理経路を有していてもよい。また、各画像復元部410の特性、例えばフィルタ処理に用いるパラメータ等も互いに異なっていてもよいし、当該特性の差異が、ニューラルネットワークの学習に由来するものであってもよい。   Further, even in the configuration in which the image filter device 401 or the like includes the image restoration unit 410, as illustrated in the image filter device 401a of FIG. 13, it is not necessary to go through the gradation conversion unit in any processing path, and The image map creation unit 408 may not be provided. Further, the number of processing paths for the input image is not limited to two, and three or more processing paths may be provided as in the image filter device 401b illustrated in FIG. Further, the characteristics of each image restoration unit 410, for example, the parameters used for the filter processing may be different from each other, and the difference in the characteristics may be derived from the learning of the neural network.

上述したように、本例に係る画像フィルタ装置401は、入力画像に作用する画像フィルタ装置であって、前記入力画像を対象とする複数の処理経路の少なくとも何れかにおいて階調変換処理を施す1又は複数の階調変換部と、前記複数の処理経路においてそれぞれ画像復元処理を施す複数の画像復元部と、前記画像復元処理が施された複数の前記入力画像を合成する合成部と、を備えている。   As described above, the image filter device 401 according to the present example is an image filter device that acts on an input image, and performs a gradation conversion process on at least one of a plurality of processing paths targeting the input image. Or a plurality of gradation conversion units, a plurality of image restoration units that respectively perform image restoration processing in the plurality of processing paths, and a synthesis unit that synthesizes the plurality of input images that have been subjected to the image restoration processing. ing.

上記の構成によれば、フィルタ処理とダイナミックレンジ変換とを併せて実行可能な画像フィルタ装置401を実現できる。   According to the above configuration, it is possible to realize the image filter device 401 capable of executing both filter processing and dynamic range conversion.

(CNNフィルタについて)
CNNとは、コンボリューション層(積和演算における重み係数及びバイアス/オフセットがピクチャ内の位置に依存しない層)を少なくとも有するニューラルネットワークの総称である。重み係数をカーネルとも呼ぶ。CNNフィルタは、コンボリューシ ョン層の他、フルコネクション層(FCN)と呼ばれる、重み計算がピクチャ内の位置に依 存する層を含むことができる。CNNフィルタにおいて、コンボリューション層への 入力サイズと、出力サイズとは異なってもよい。すなわち、CNNフィルタは、コン ボリューションフィルタを適用する位置を移動させる場合の移動量(ステップサイズ)を1より大きくすることで、出力サイズが入力サイズよりも小さくなる層を含むことができる。また、出力サイズが入力サイズよりも大きくなるデコンボリューション層(Deconvolution)も含むことができる。デコンボリューション層は、トランスポーズコンボリューシ ョン(TransposeConvolution)とよばれる場合もある。また、CNNフィルタは、プー リング層(Pooling)、ドロップアウト(DropOut)層等を含むことができる。プーリング層は、大きな画像を小さなウィンドウに区切り、区切ったそれぞれのウィンドウに応じて最大値や平均値等の代表値を得る層であり、ドロップアウト層は、確率に応じて出力を固定値(例えば0)にすることでランダム性を追加する層である。
(About CNN filter)
CNN is a general term for neural networks having at least a convolution layer (a layer in which weighting factors and bias / offset in the product-sum calculation do not depend on the position in a picture). The weight coefficient is also called a kernel. In addition to the convolution layer, the CNN filter can include a layer called a full connection layer (FCN) whose weight calculation depends on the position in the picture. In the CNN filter, the input size to the convolution layer and the output size may be different. That is, the CNN filter can include a layer in which the output size is smaller than the input size by increasing the movement amount (step size) when moving the position to which the convolution filter is applied, to be larger than 1. Also, a deconvolution layer in which the output size becomes larger than the input size can be included. The deconvolution layer is sometimes called Transpose Convolution. Further, the CNN filter may include a pooling layer (Pooling), a dropout (DropOut) layer, and the like. The pooling layer is a layer that divides a large image into small windows, and obtains a representative value such as a maximum value or an average value according to each of the divided windows, and a dropout layer outputs a fixed value (for example, a fixed value) according to probability. It is a layer that adds randomness by setting it to 0).

図15は、本実施形態における超解像部404、もしくは画像復元部410に適用するCNNフィルタの入出力の一例を示す概念図である。図15に示す一例において、フィルタ前画像は、輝度(Y)のチャネル、第1の色差(Cb)のチャネル、および
第2の色差(Cr)のチャネルを含む3つの画像のチャネル、ならびに量子化パラメータ(QP)のチャネルを含む1つの符号化パラメータ(参照パラメータ)のチャネルを含む。また、フィルタ後画像は、処理が施された輝度(Y')のチャネル、処理が施された色差(Cb')のチャネル、および処理が施された色差(Cr')のチャネルを含む3つの画像のチャネルを含む。
FIG. 15 is a conceptual diagram showing an example of input / output of the CNN filter applied to the super-resolution unit 404 or the image restoration unit 410 in this embodiment. In the example shown in FIG. 15, the unfiltered image has three image channels including a luminance (Y) channel, a first chrominance (Cb) channel, and a second chrominance (Cr) channel, and a quantized image. It includes one coding parameter (reference parameter) channel including the parameter (QP) channel. The filtered image also includes three channels including a processed luminance (Y ') channel, a processed color difference (Cb') channel, and a processed color difference (Cr ') channel. Contains the image channel.

図16は、CNNフィルタの構成の一例を示す概略図である。CNNフィルタは、複数のconvX層を含んでいる。   FIG. 16 is a schematic diagram showing an example of the configuration of the CNN filter. The CNN filter includes multiple convX layers.

ここで、本例において、convX層は、下記の構成の少なくとも何れかを含むこと
ができる。
Here, in the present example, the convX layer can include at least one of the following configurations.

(1)conv(x):フィルタをかける処理(convolution)を実施する構成
(2)act(conv(x)):convolutionの後にactivation(非線形関数、例えば、sigmoid, tanh, relu, elu、seluなど)を実施する構成
(3)batch_norm(act(conv(x))):convolutionとactivationの後にバッチノーマライゼーション(入力のレンジの正規化)を実施する構成
(4)act(batch_norm(conv(x))):convolutionとactivationの間にバッチノーマライゼーション(入力のレンジの正規化)を実施する構成
(5)pooling:conv層間で情報の圧縮、ダウンサイジングを実施する構成
図16に示す例においては、CNNフィルタは、3つのconvX層(conv1,conv2,conv3)とadd層とを含む。入力されるフィルタ前画像は、(N1+N2)xH1xW1のサイズを有する。ここで、N1は画像のチャネル数を示す。例えば、フィルタ前画像が輝度(Y)のチャネルのみを含む場合は、N1は「1」である。Y、Cb、Crのチャネルを含む場合にはN1は「3」である。R, G, Bのチャネルを含む場合にはN1は「3」である。W1はピクチャの幅パッチサイズであり、H1はピクチャの高さパッチサイズである。N2は符号化パラメータのチャネル数を示す。例えば、符号化パラメータが量子化パラメータ(QP)のチャネルのみを含む場合は、N2は「1」である。add層を備える構成は、フィルタ後画像とフィルタ前画像の差分(residual)をCNNフィルタで予測する構成であり、特に、CNN層が深くなる構成で有効であることが知られている。なお、residualを導出する層を複数重ねるResNetと呼ばれる構成が知られているように、add層は1つに限定されず複数のadd層があっても良い。
(1) conv (x): a configuration for performing a filtering process (convolution) (2) act (conv (x)): activation (non-linear function such as sigmoid, tanh, relu, elu, selu after convolution) ) Is implemented (3) batch_norm (act (conv (x))): Configuration in which batch normalization (normalization of input range) is performed after convolution and activation (4) act (batch_norm (conv (x))) ): Configuration for performing batch normalization (normalization of input range) between convolution and activation (5) Pooling: configuration for performing information compression and downsizing between conv layers In the example shown in FIG. 16, the CNN filter is used. Includes three convX layers (conv1, conv2, conv3) and an add layer. The input unfiltered image has a size of (N1 + N2) xH1xW1. Here, N1 indicates the number of channels of the image. For example, if the unfiltered image contains only luminance (Y) channels, N1 is "1". N1 is "3" when it includes Y, Cb, and Cr channels. If R, G, B channels are included, N1 is "3". W1 is the picture width patch size, and H1 is the picture height patch size. N2 indicates the number of channels of the coding parameter. For example, N2 is “1” when the encoding parameter includes only the channel of the quantization parameter (QP). The configuration including the add layer is a configuration in which the difference (residual) between the filtered image and the unfiltered image is predicted by the CNN filter, and it is known that the configuration is particularly effective when the CNN layer is deep. Note that the number of add layers is not limited to one, and a plurality of add layers may be provided, as is known in a configuration called ResNet in which a plurality of layers for deriving residuals are stacked.

また、後述のようにネットワークは分岐を含んでいてもよく、また分岐した入力や出力を束ね合わせるConcatenate層を備えていても良い。例えばN1xH1xW1のデータとN2xH1xW1のデータをConcatenateすると、(N1+N2)xH1xW1のデータになる。   Further, as will be described later, the network may include branches, and may have a Concatenate layer that bundles the branched inputs and outputs. For example, when data of N1xH1xW1 and data of N2xH1xW1 are Concatenate, it becomes data of (N1 + N2) xH1xW1.

CNNフィルタの1つ目のconv層であるconv1は、(N1+N2)xH1xW1のデータが入力され、Nconv1xH1xW1のデータを出力する。CNNフィルタの2つ目のconv層であるconv2は、Nconv1xH1xW1のデータが入力され、Nconv2xH1xW1のデータを出力する。CNNフィルタの3つ目のconv層であるconv3は、Nconv2xH1xW1のデータが入力され、N1xH1xW1のデータを出力する。add層であるaddは、conv層の出力であるN1xH1xW1のデータとN1xH1xW1のフィルタ前画像とが画素ごとに加算され、N1xH1xW1のデータを出力する。   The first conv layer of the CNN filter, conv1, receives (N1 + N2) xH1xW1 data and outputs Nconv1xH1xW1 data. Conv2, which is the second conv layer of the CNN filter, receives Nconv1xH1xW1 data and outputs Nconv2xH1xW1 data. Conv3, which is the third conv layer of the CNN filter, receives Nconv2xH1xW1 data and outputs N1xH1xW1 data. In add, which is the add layer, the N1xH1xW1 data that is the output of the conv layer and the N1xH1xW1 unfiltered image are added for each pixel, and the N1xH1xW1 data is output.

図16に示すように、ピクチャのチャネル数は、CNNフィルタにより処理が施されることで、N1+N2からN1に減少する。なお、本例においてCNNフィルタは、チャネルファースト(チャネル×高さ×幅)のデータ形式で処理をするが、チャネルラスト(高さ×幅×チャネル)のデータ形式で処理をしてもよい。   As shown in FIG. 16, the number of channels of the picture is reduced from N1 + N2 to N1 by being processed by the CNN filter. In this example, the CNN filter processes in a channel first (channel × height × width) data format, but may process in a channel last (height × width × channel) data format.

なお、CNNフィルタは、コンボリューション層により出力サイズを減少させた後、デコンボリューション層により出力サイズを大きくし、元に戻すようなオートエンコーダ層を設けることもできる。複数のコンボリューション層から構成される深いネットワークは、DNN(Deep Neural Network)と呼ばれることもある。画像フィルタ装置は、ネットワークの出力の一部を再度ネットワークに入力させるようなRNN(Recurrent Neural Network)を有することもできる。RNNにおいて、再入力する情報はそのネットワークの内部状態と考えることができる。   The CNN filter may be provided with an auto encoder layer that reduces the output size by the convolution layer and then increases the output size by the deconvolution layer and restores the output size. A deep network composed of multiple convolution layers is sometimes called a DNN (Deep Neural Network). The image filter device may also have an RNN (Recurrent Neural Network) that causes a part of the output of the network to be input to the network again. In RNN, the information to be re-entered can be considered as the internal state of the network.

画像フィルタ装置は、再入力情報(内部状態)の更新や伝達を制御するために、さらにニューラルネットワークのサブネットワークを利用するLSTM(Long Short-Term Memory)やGRU(Gated Recurrent Unit)を構成要素として複数組み合わせることができる。   The image filter device uses LSTM (Long Short-Term Memory) and GRU (Gated Recurrent Unit), which use a sub-network of the neural network, in order to control the update and transmission of re-input information (internal state). You can combine multiple.

フィルタ前画像の符号化パラメータのチャネルとして、量子化パラメータ(QP)のチャネルに加え、分割情報(PartDepth)のチャネル、予測モード情報(PredMode)のチャネルを追加することができる。   As the channel of the encoding parameter of the pre-filter image, in addition to the channel of the quantization parameter (QP), the channel of division information (PartDepth) and the channel of prediction mode information (PredMode) can be added.

ここで、量子化パラメータ(QP)は、画像の圧縮率と画質とを制御するパラメータである。本例において量子化パラメータ(QP)は、値が大きいほど画質が低くなり符号量が減少する特性、および値が小さいほど画質が高くなり符号量が増加する特性を有する。量子化パラメータ(QP)として、例えば、予測残差の量子化幅を導出するパラメータを用いることができる。   Here, the quantization parameter (QP) is a parameter that controls the compression rate and image quality of an image. In this example, the quantization parameter (QP) has a characteristic that the higher the value, the lower the image quality and the code amount, and the smaller the value, the higher the image quality and the code amount. As the quantization parameter (QP), for example, a parameter for deriving the quantization width of the prediction residual can be used.

ピクチャ単位の量子化パラメータ(QP)としては、処理対象フレームの代表的な1個の量子化パラメータ(QP)を入力することができる。例えば、量子化パラメータ(QP)は、対象ピクチャに適用されるパラメータセットにより指定されることができる。また、量子化パラメータ(QP)は、ピクチャの構成要素に適用される量子化パラメータ(QP)に基づいて算出されることができる。具体的には、スライスに適用される量子化パラメータ(QP)の平均値に基づいて、量子化パラメータ(QP)を算出することができる。   As the quantization parameter (QP) for each picture, one representative quantization parameter (QP) of the processing target frame can be input. For example, the quantization parameter (QP) can be specified by the parameter set applied to the current picture. Also, the quantization parameter (QP) can be calculated based on the quantization parameter (QP) applied to the constituent elements of the picture. Specifically, the quantization parameter (QP) can be calculated based on the average value of the quantization parameter (QP) applied to the slice.

また、ピクチャを分割した単位の量子化パラメータ(QP)としては、所定の基準でピクチャを分割した単位毎の量子化パラメータ(QP)を入力することができる。例えば、量子化パラメータ(QP)を、スライス毎に適用することができる。また、量子化パラメータ(QP)を、スライス内のブロックに適用することができる。また、量子化パラメータ(QP)を、既存の符号化単位から独立した領域単位(例えば、ピクチャを16x9個に分割して得られる各領域)で指定することができる。この場合、量子化パラメータ(QP)が、スライス数や変換ユニット数に依存するため、領域に対応する量子化パラメータ(QP)の値が不定になり、CNNフィルタが構成できないため、領域内の量子化パラメータ(QP)の平均値を用いる方法が考えられる。   Further, as the quantization parameter (QP) for each unit obtained by dividing a picture, a quantization parameter (QP) for each unit obtained by dividing a picture according to a predetermined criterion can be input. For example, the quantization parameter (QP) can be applied for each slice. Also, the quantization parameter (QP) can be applied to blocks within a slice. In addition, the quantization parameter (QP) can be specified in an area unit independent of an existing coding unit (for example, each area obtained by dividing a picture into 16x9). In this case, since the quantization parameter (QP) depends on the number of slices and the number of transform units, the value of the quantization parameter (QP) corresponding to the area becomes indefinite, and the CNN filter cannot be configured. A method using the average value of the parameterization parameter (QP) can be considered.

また、特定の個数の量子化パラメータ(QP)を入力する場合としては、量子化パラメータ(QP)の個数が一定になるように、量子化パラメータ(QP)のリストを生成してCNNフィルタへ入力してもよい。例えば、スライス毎の量子化パラメータ(QP)のリストを作成し、最大値、最小値、中央値の3個の量子化パラメータ(QP)のリストを作成して入力する方法が考えられる。   Also, when inputting a specific number of quantization parameters (QP), generate a list of quantization parameters (QP) and input it to the CNN filter so that the number of quantization parameters (QP) is constant. You may. For example, a method of creating a list of quantization parameters (QP) for each slice, creating a list of three quantization parameters (QP) of the maximum value, the minimum value, and the median value and inputting the list can be considered.

また、コンポーネント単位の量子化パラメータ(QP)としては、処理対象のコンポーネントに適用する量子化パラメータ(QP)を入力することができる。この量子化パラメータ(QP)の例として、輝度量子化パラメータ(QP)、色差量子化パラメータ(QP)を挙げることができる。   As the quantization parameter (QP) for each component, the quantization parameter (QP) applied to the processing target component can be input. Examples of this quantization parameter (QP) include a luminance quantization parameter (QP) and a color difference quantization parameter (QP).

また、ブロック単位でCNNフィルタを適用する場合、周辺量子化パラメータ(QP)として、対象ブロックの量子化パラメータ(QP)とブロック周辺の量子化パラメータ(QP)をを入力してもよい。   When applying the CNN filter on a block-by-block basis, the quantization parameter (QP) of the target block and the quantization parameter (QP) around the block may be input as the peripheral quantization parameter (QP).

CNNフィルタを、ピクチャ、および符号化パラメータに応じて設計することができる。すなわち、CNNフィルタを、方向性、アクティビティ等の画像データから導出可能なピクチャ特性だけでなく、符号化パラメータに応じて設計することができるので、CNNフィルタは、符号化パラメータ毎に異なる強度のフィルタを実現することができる。したがって、本例はCNNフィルタを備えるので、符号化パラメータ
毎に異なるネットワークを導入することなく、符号化パラメータに応じた処理をすることができる。
The CNN filter can be designed depending on the picture and the coding parameters. That is, since the CNN filter can be designed according to not only the picture characteristics such as directionality and activity that can be derived from the image data but also the coding parameter, the CNN filter is a filter having a strength different for each coding parameter. Can be realized. Therefore, since this example includes the CNN filter, it is possible to perform processing according to the coding parameter without introducing a different network for each coding parameter.

図17は、CNNフィルタの構成の変形例を示す概略図である。図17に示すように、CNNフィルタは、add層を含まず、convX層のみを含んでいてもよい。add層を含まない本変形例においても、CNNフィルタは、N1*H1*W1のデータを出力する。   FIG. 17 is a schematic diagram showing a modified example of the configuration of the CNN filter. As shown in FIG. 17, the CNN filter may not include the add layer but may include only the convX layer. Also in the present modification that does not include the add layer, the CNN filter outputs N1 * H1 * W1 data.

なお、本実施形態では、超解像部404、又は画像復元部410でCNNフィルタを適用する例を示したが、超解像部404では、アップサンプリングフィルタを適用してもよく、また、画像復元部410では、Wiener filterに基づくフィルタ処理や、ループフィルタ部305やループフィルタ107を用いてもよい。   In the present embodiment, an example in which the CNN filter is applied in the super-resolution unit 404 or the image restoration unit 410 is shown, but in the super-resolution unit 404, an upsampling filter may be applied, and the image The restoration unit 410 may use the filtering process based on the Wiener filter, or the loop filter unit 305 or the loop filter 107.

(動画像復号装置の構成例2)
上述した画像フィルタ装置400を備える動画像復号装置の一例について説明する。図18は、本例に係る動画像復号装置31aの機能ブロック図である。図18に示すように、動画像復号装置31aは、復号部350、切り替え部352、ダイナミックレンジ変換部354、及び画像フィルタ装置400を備える。なお、動画像復号装置31aは、画像フィルタ装置400に代わって、画像フィルタ装置400a又は画像フィルタ装置400bを備えていてもよい。
(Structure example 2 of video decoding device)
An example of a moving picture decoding device including the above-described image filter device 400 will be described. FIG. 18 is a functional block diagram of the moving picture decoding apparatus 31a according to this example. As shown in FIG. 18, the moving image decoding device 31a includes a decoding unit 350, a switching unit 352, a dynamic range conversion unit 354, and an image filter device 400. The moving picture decoding device 31a may include an image filter device 400a or an image filter device 400b instead of the image filter device 400.

復号部350は、符号化ストリームTeから画像を復号する部材であって、図6に示す動画像復号装置31が備える各部材に相当する。また、復号部350は、符号化ストリームTeに含まれる、復号された画像に画像フィルタ装置400およびダイナミックレンジ変換部354の何れの処理を施すかを示す情報を復号する。   The decoding unit 350 is a member that decodes an image from the encoded stream Te, and corresponds to each member included in the moving image decoding device 31 illustrated in FIG. 6. In addition, the decoding unit 350 decodes information included in the encoded stream Te, which indicates which process of the image filter device 400 and the dynamic range conversion unit 354 is to be performed on the decoded image.

切り替え部352は、当該情報を参照して、復号部350の出力先を、画像フィルタ装置400またはダイナミックレンジ変換部354の何れかに切り替える処理を行う。ダイナミックレンジ変換部354は、入力された画像に対してダイナミックレンジ変換と、ビット深度を大きくする処理、図18の例においてはxビットからyビットにする処理とを施す。   The switching unit 352 refers to the information and performs a process of switching the output destination of the decoding unit 350 to either the image filter device 400 or the dynamic range conversion unit 354. The dynamic range conversion unit 354 performs the dynamic range conversion and the process of increasing the bit depth on the input image, that is, the process of changing from x bits to y bits in the example of FIG. 18.

上記の構成によれば、復号画像に対してダイナミックレンジ変換及びビット深度を大きくする処理を施し、要求に応じて超解像処理を行う動画像復号装置31aが実現できる。   According to the above configuration, it is possible to realize the moving image decoding device 31a which performs the dynamic range conversion and the process of increasing the bit depth on the decoded image, and performs the super-resolution process according to the request.

(動画像符号化装置の構成例2)
上述した動画像復号装置31aが処理対象とする符号化ストリームを生成する動画像符号化装置の一例について説明する。図19は、本例に係る動画像符号化装置11aの機能ブロック図である。図19に示すように、動画像符号化装置11aは、符号化部360、ダイナミックレンジ逆変換部362、ビット階調拡張超解像逆変換部364、切り替え部366、および切り替え制御部368を備えている。
(Structural Example 2 of Video Coding Device)
An example of the moving picture coding apparatus that generates the coded stream to be processed by the moving picture decoding apparatus 31a described above will be described. FIG. 19 is a functional block diagram of the moving picture coding device 11a according to the present example. As shown in FIG. 19, the moving image encoding device 11 a includes an encoding unit 360, a dynamic range inverse conversion unit 362, a bit gradation extension super-resolution inverse conversion unit 364, a switching unit 366, and a switching control unit 368. ing.

符号化部360は、入力画像から符号化ストリームTeを生成する部材であって、図7に示す動画像符号化装置が備える各部材に相当する。また、符号化部360は、切り替え制御部368が行う制御の内容、つまり入力される画像データに、ダイナミックレンジ逆変換部362またはビット階調拡張超解像逆変換部364の何れの処理が施されたかを示す切り替え情報が含まれる符号化ストリームTeを生成してもよい。   The encoding unit 360 is a member that generates an encoded stream Te from an input image, and corresponds to each member included in the moving image encoding device illustrated in FIG. 7. In addition, the encoding unit 360 performs either processing of the dynamic range inverse conversion unit 362 or the bit gradation extension super-resolution inverse conversion unit 364 on the content of the control performed by the switching control unit 368, that is, the input image data. It is also possible to generate the encoded stream Te that includes the switching information indicating whether or not it has been performed.

ダイナミックレンジ逆変換部362は、入力された画像に対してダイナミックレンジ変換を行う。ここで、ダイナミックレンジ逆変換部362が施すダイナミックレンジ変換は、動画像復号装置31が備えるダイナミックレンジ変換部354が施す変換の逆変換に相当する。つまり、入力画像を、ダイナミックレンジ変換部354と、ダイナミックレンジ逆変換部362とに適用させると、元の入力した入力画像となる。   The dynamic range inverse conversion unit 362 performs dynamic range conversion on the input image. Here, the dynamic range conversion performed by the dynamic range inverse conversion unit 362 corresponds to the inverse conversion of the conversion performed by the dynamic range conversion unit 354 included in the video decoding device 31. That is, when the input image is applied to the dynamic range conversion unit 354 and the dynamic range inverse conversion unit 362, the original input input image is obtained.

ビット階調拡張超解像逆変換部364は、画像フィルタ装置400(又は画像フィルタ装置400a若しくは画像フィルタ装置400b)が施す変換の逆変換を行う。具体的には、図20に示すように画像縮小部370による画像縮小処理と、ダイナミックレンジ逆変換部362によるダイナミック逆変換処理とを行う。ダイナミック逆変換処理は、例えば、ハイダイナミックレンジ(HDR)から標準ダイナミックレンジ(SDR)に変換することを意味する。具体的には、ハイダイナミックレンジのITU-R BT.2100の10ビット階調の画像から、標準ダイナミックレンジのITU-R BT.709の8ビット階調の画像に変換する場合を指す。   The bit gradation extended super-resolution inverse conversion unit 364 performs the inverse conversion of the conversion performed by the image filter device 400 (or the image filter device 400a or the image filter device 400b). Specifically, as shown in FIG. 20, image reduction processing by the image reduction unit 370 and dynamic inverse conversion processing by the dynamic range inverse conversion unit 362 are performed. The dynamic reverse conversion process means, for example, conversion from a high dynamic range (HDR) to a standard dynamic range (SDR). Specifically, it refers to the case of converting an image with high dynamic range ITU-R BT.2100 10-bit gradation to an image with standard dynamic range ITU-R BT.709 8-bit gradation.

切り替え制御部368は、動画像符号化装置11aに入力された画像の出力先を、ビット階調拡張超解像逆変換部364およびダイナミックレンジ逆変換部362の何れかに切り替える制御を行う。切り替え部366は、切り替え制御部368からの要求、例えば制御信号に従って、画像の出力先を切り替える。   The switching control unit 368 performs control to switch the output destination of the image input to the moving image encoding device 11a to either the bit gradation extension super-resolution inverse conversion unit 364 or the dynamic range inverse conversion unit 362. The switching unit 366 switches the image output destination according to a request from the switching control unit 368, for example, a control signal.

上記の構成によれば、ダイナミックレンジ逆変換部362を経由した入力画像よりも、ビット階調拡張超解像逆変換部364を経由した入力画像の方が、解像度が低くデータ量が少ない。これにより、符号化ストリームTeのデータ量を必要に応じて変更可能な動画像復号装置31aが実現できる。   According to the above configuration, the input image that has passed through the bit gradation extension super-resolution inverse conversion unit 364 has a lower resolution and a smaller amount of data than the input image that has passed through the dynamic range inverse conversion unit 362. As a result, it is possible to realize the moving image decoding device 31a that can change the data amount of the encoded stream Te as necessary.

(動画像復号装置の構成例3)
上述した画像フィルタ装置401を備える動画像復号装置の一例について説明する。図21は、本例に係る動画像復号装置31bの機能ブロック図である。図21に示すように、動画像復号装置31bは、図6に示す動画像復号装置31からループフィルタに代わって画像フィルタ装置401を備え、ビット階調縮退部320を更に備える構成である。なお、動画像復号装置31bは、画像フィルタ装置401に代わって、画像フィルタ装置401a又は画像フィルタ装置401bを備えていてもよい。
(Structure example 3 of video decoding device)
An example of a moving picture decoding apparatus including the above-described image filter apparatus 401 will be described. FIG. 21 is a functional block diagram of the moving picture decoding apparatus 31b according to this example. As shown in FIG. 21, the moving picture decoding device 31b is configured to include an image filter device 401 in place of the loop filter from the moving picture decoding device 31 shown in FIG. 6, and further include a bit gradation degeneracy unit 320. The video decoding device 31b may include an image filter device 401a or an image filter device 401b instead of the image filter device 401.

ビット階調縮退部320は、入力された画像のビット深度を減少させる処理を行う。図21に示す例においては、ビット階調縮退部320は、入力される予測画像のビット深度を、yビットからxビットに減少させる。   The bit gradation reduction unit 320 performs a process of reducing the bit depth of the input image. In the example illustrated in FIG. 21, the bit gradation degeneracy unit 320 reduces the bit depth of the input predicted image from y bits to x bits.

また、動画像復号装置に入力される符号化ストリームには、ビット階調拡張画像復元情報が符号化された情報が含まれていてもよい。また、エントロピー復号部301は、当該符号化ストリームから、ビット階調拡張画像復元情報を復号してもよい。   In addition, the encoded stream input to the moving image decoding apparatus may include information obtained by encoding the bit gradation extended image restoration information. Further, the entropy decoding unit 301 may decode the bit gradation extended image restoration information from the coded stream.

ここで、ビット階調拡張画像復元情報とは、画像フィルタ装置401及びビット階調縮退部320による動作を規定する情報であって、例えば、入力と出力の色空間の情報やダイナミックレンジの方式の情報、画像復元のためのフィルタ情報を規定した情報である。。上記の構成によれば、動画像復号装置31が復号する画像よりも広いダイナミックレンジを有する画像を復号可能な動画像復号装置31bを実現できる。   Here, the bit gradation expanded image restoration information is information that defines the operation of the image filter device 401 and the bit gradation degeneracy unit 320, and is, for example, information of the input and output color spaces and the dynamic range method. This is information that defines information and filter information for image restoration. . According to the above configuration, it is possible to realize the moving image decoding device 31b capable of decoding an image having a wider dynamic range than the image decoded by the moving image decoding device 31.

(動画像符号化装置例3)
上述した画像フィルタ装置401を備える動画像符号化装置の一例について説明する。図22は、本例に係る動画像符号化装置11bの構成を示す図である。
(Motion Picture Encoding Device Example 3)
An example of the moving picture coding apparatus including the above-described image filtering apparatus 401 will be described. FIG. 22 is a diagram showing the configuration of the moving picture coding device 11b according to the present example.

動画像符号化装置11bは、ループフィルタに代わって画像フィルタ装置401を備え、ビット階調拡張画像復元変換設定部130を更に備える構成である。なお、画像符号化装置11bは、画像フィルタ装置401に代わって、画像フィルタ装置401a又は画像フィルタ装置401bを備えていてもよい。   The moving image coding device 11b is configured to include an image filter device 401 in place of the loop filter, and further include a bit gradation extended image restoration conversion setting unit 130. The image encoding device 11b may include an image filter device 401a or an image filter device 401b instead of the image filter device 401.

ビット階調拡張画像復元変換設定部130は、動画像符号化装置に入力された画像と、加算部106が生成した復号画像とを参照して、上述したビット階調拡張画像復元情報を生成する。   The bit gradation extended image restoration conversion setting unit 130 refers to the image input to the moving image encoding device and the decoded image generated by the addition unit 106 to generate the above-described bit gradation extended image restoration information. .

動画像符号化装置11bが備えるエントロピー符号化部104は、当該ビット階調拡張画像復元情報が符号化された情報を含む符号化ストリームをTe生成する。   The entropy coding unit 104 included in the moving picture coding apparatus 11b generates Te as a coded stream including information in which the bit gradation extended image restoration information is coded.

上記の構成によれば、画像フィルタ装置401を備え、ビット階調拡張画像復元情報が符号化された情報を含む符号化ストリームを生成可能な動画像符号化装置11bを実現できる。   According to the above configuration, it is possible to realize the moving image encoding device 11b including the image filter device 401 and capable of generating the encoded stream including the information in which the bit gradation extended image restoration information is encoded.

また、上述した実施形態における動画像符号化装置11、11a又は11b(以下単に動画像符号化装置11と呼称する。)、動画像復号装置31、31a、又は31b(以下単に動画像復号装置31と呼称する。)の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。動画像符号化装置11、動画像復号装置31の各機能ブロックは個別にプロセッサ化しても良いし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。   In addition, the moving picture coding device 11, 11a or 11b (hereinafter simply referred to as the moving picture coding device 11), the moving picture decoding device 31, 31a, or 31b (hereinafter simply the moving picture decoding device 31) in the above-described embodiment. May be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the moving picture coding device 11 and the moving picture decoding device 31 may be individually made into a processor, or a part or all of them may be integrated and made into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when a technique for forming an integrated circuit that replaces LSI appears due to the progress of semiconductor technology, an integrated circuit according to the technique may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   Although one embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like without departing from the scope of the present invention. It is possible to

〔応用例〕
上述した動画像符号化装置11及び動画像復号装置31は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
[Application example]
The moving image encoding device 11 and the moving image decoding device 31 described above can be mounted and used in various devices that perform transmission, reception, recording, and reproduction of moving images. The moving image may be a natural moving image captured by a camera or the like, or an artificial moving image (including CG and GUI) generated by a computer or the like.

まず、上述した動画像符号化装置11及び動画像復号装置31を、動画像の送信及び受信に利用できることを、図2を参照して説明する。   First, it will be described with reference to FIG. 2 that the moving image encoding device 11 and the moving image decoding device 31 described above can be used for transmitting and receiving a moving image.

図2(a)は、動画像符号化装置11を搭載した送信装置PROD_Aの構成を示したブロック図である。図に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置11は、この符号化部PROD_A1として利用される。   FIG. 2 (a) is a block diagram showing a configuration of a transmission device PROD_A equipped with the moving image encoding device 11. As shown in the figure, the transmission device PROD_A is a coding unit PROD_A1 that obtains coded data by coding a moving image, and a modulated signal by modulating a carrier wave with the coded data obtained by the coding unit PROD_A1. It includes a modulator PROD_A2 for obtaining and a transmitter PROD_A3 for transmitting the modulated signal obtained by the modulator PROD_A2. The moving picture coding device 11 described above is used as the coding unit PROD_A1.

送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。   The transmitter PROD_A, as a source of the moving image input to the encoding unit PROD_A1, a camera PROD_A4 that captures the moving image, a recording medium PROD_A5 that records the moving image, an input terminal PROD_A6 for inputting the moving image from the outside, and An image processing unit A7 for generating or processing an image may be further provided. In the drawing, the configuration in which all of them are included in the transmission device PROD_A is illustrated, but some of them may be omitted.

なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。   The recording medium PROD_A5 may be a non-encoded moving image recorded, or a moving image encoded by a recording encoding method different from the transmission encoding method may be recorded. It may be one. In the latter case, a decoding unit (not shown) that decodes the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.

図2(b)は、動画像復号装置31を搭載した受信装置PROD_Bの構成を示したブロック図である。図に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置31は、この復号部PROD_B3として利用される。   FIG. 2B is a block diagram showing the configuration of the receiving device PROD_B equipped with the moving image decoding device 31. As shown in the figure, the receiving device PROD_B is a receiving unit PROD_B1 that receives a modulated signal, a demodulating unit PROD_B2 that obtains encoded data by demodulating the modulated signal that the receiving unit PROD_B1 received, and a demodulating unit PROD_B2 And a decoding unit PROD_B3 that obtains a moving image by decoding encoded data. The moving picture decoding device 31 described above is used as this decoding unit PROD_B3.

受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。   The receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. PROD_B6 may be further provided. In the drawing, the configuration in which the receiving device PROD_B is provided with all of them is illustrated, but a part thereof may be omitted.

なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。   It should be noted that the recording medium PROD_B5 may be one for recording a non-encoded moving image, or may be one encoded by a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) that encodes the moving image acquired from the decoding unit PROD_B3 according to the encoding method for recording may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.

なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。   The transmission medium that transmits the modulated signal may be wireless or wired. Further, the transmission mode of transmitting the modulated signal may be broadcast (here, it means a transmission mode in which the transmission destination is not specified in advance), or communication (here, transmission in which the transmission destination is specified in advance). Embodiment). That is, the transmission of the modulated signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.

例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。   For example, a terrestrial digital broadcasting broadcasting station (broadcasting equipment or the like) / receiving station (television receiver or the like) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives modulated signals by wireless broadcasting. Also, a broadcasting station (broadcasting facility etc.) / Receiving station (television receiver etc.) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B which transmits / receives a modulated signal by cable broadcasting.

また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線または有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。   A server (workstation, etc.) / Client (TV receiver, personal computer, smartphone, etc.) for VOD (Video On Demand) services and video sharing services using the Internet is a transmission device that transmits and receives modulated signals by communication. This is an example of PROD_A / reception device PROD_B (generally, either wireless or wired is used as a transmission medium in LAN, and wired is used as a transmission medium in WAN). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multifunctional mobile phone terminal.

なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。   The client of the moving image sharing service has a function of decoding the encoded data downloaded from the server and displaying it on the display, as well as a function of encoding the moving image captured by the camera and uploading it to the server. That is, the client of the moving image sharing service functions as both the transmission device PROD_A and the reception device PROD_B.

次に、上述した動画像符号化装置11及び動画像復号装置31を、動画像の記録及び再生に利用できることを、図3を参照して説明する。   Next, it will be described with reference to FIG. 3 that the moving image encoding device 11 and the moving image decoding device 31 described above can be used for recording and reproducing a moving image.

図3(a)は、上述した動画像符号化装置11を搭載した記録装置PROD_Cの構成を示したブロック図である。図に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置11は、この符号化部PROD_C1として利用される。   FIG. 3 (a) is a block diagram showing a configuration of a recording device PROD_C equipped with the above-described moving image encoding device 11. As shown in the figure, the recording device PROD_C includes a coding unit PROD_C1 that obtains coded data by coding a moving image, and a writing unit PROD_C2 that writes the coded data obtained by the coding unit PROD_C1 to a recording medium PROD_M. And are equipped with. The moving picture coding device 11 described above is used as this coding unit PROD_C1.

なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc:登録商標)やBD(Blu-ray Disc:登録商標)などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   Note that the recording medium PROD_M may be (1) a type such as an HDD (Hard Disk Drive) or SSD (Solid State Drive) built in the recording device PROD_C, or (2) SD memory. It may be of a type that is connected to the recording device PROD_C, such as a card or a USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc: registered trademark) or BD (Blu-ray). For example, a disc (registered trademark) or the like may be loaded in a drive device (not shown) incorporated in the recording device PROD_C.

また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部PROD_C6を更に備えていてもよい。図においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。   Further, the recording device PROD_C has a camera PROD_C3 for capturing a moving image, an input terminal PROD_C4 for externally inputting the moving image, and a receiving unit for receiving the moving image as a source of the moving image input to the encoding unit PROD_C1. The unit PROD_C5 and the image processing unit PROD_C6 for generating or processing an image may be further provided. In the drawing, the configuration in which the recording device PROD_C is provided with all of them is illustrated, but a part thereof may be omitted.

なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。   Note that the receiving unit PROD_C5 may receive an uncoded moving image, or may receive encoded data encoded by a transmission encoding method different from the recording encoding method. It may be one that does. In the latter case, a transmission decoding unit (not shown) that decodes the encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.

このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HDD(Hard Disk Drive)レコーダなどが挙げられる(この場合、入力端子PROD_C4または受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5または画像処理部C6が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3または受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。   Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, an HDD (Hard Disk Drive) recorder, and the like (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is the main supply source of the moving image). . In addition, a camcorder (in this case, the camera PROD_C3 is the main source of moving images), a personal computer (in this case, the receiving unit PROD_C5 or the image processing unit C6 is the main source of moving images), a smartphone (this In this case, the camera PROD_C3 or the receiving unit PROD_C5 is the main supply source of the moving image), and the like is also an example of such a recording device PROD_C.

図3(b)は、上述した動画像復号装置31を搭載した再生装置PROD_Dの構成を示したブロックである。図に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置31は、この復号部PROD_D2として利用される。   FIG. 3B is a block showing the configuration of the playback device PROD_D equipped with the moving image decoding device 31 described above. As shown in the figure, the reproducing apparatus PROD_D includes a reading unit PROD_D1 that reads the encoded data written in the recording medium PROD_M, and a decoding unit PROD_D2 that obtains a moving image by decoding the encoded data read by the reading unit PROD_D1. , Are provided. The moving picture decoding device 31 described above is used as this decoding unit PROD_D2.

なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   It should be noted that the recording medium PROD_M may be (1) of a type built into the playback device PROD_D, such as an HDD or SSD, or (2) such as an SD memory card or a USB flash memory. It may be of a type that is connected to the playback device PROD_D, or (3) loaded into a drive device (not shown) built in the playback device PROD_D, such as a DVD or BD. Good.

また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。   Also, the playback device PROD_D is a display PROD_D3 that displays a moving image, an output terminal PROD_D4 for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_D2, and a transmitting unit that transmits the moving image. PROD_D5 may be further provided. In the drawing, the configuration in which the playback device PROD_D is provided with all of them is illustrated, but a part thereof may be omitted.

なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。   The transmission unit PROD_D5 may be one that transmits an unencoded moving image, or transmits encoded data that has been encoded by a transmission encoding method different from the recording encoding method. It may be one that does. In the latter case, an encoding unit (not shown) that encodes a moving image by an encoding method for transmission may be interposed between the decoding unit PROD_D2 and the transmission unit PROD_D5.

このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3または送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4または送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型またはタブレット型PC(この場合、ディスプレイPROD_D3または送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3または送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。   Examples of such a playback device PROD_D include a DVD player, a BD player, an HDD player, etc. (in this case, the output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of the moving image). . In addition, a television receiver (in this case, the display PROD_D3 is the main supply destination of the moving image), digital signage (also called an electronic signboard or electronic bulletin board, etc.), the display PROD_D3 or the transmission unit PROD_D5 is the main supply of the moving image. Desktop PC (in this case, the output terminal PROD_D4 or transmitter PROD_D5 is the main destination of the moving image), laptop or tablet PC (in this case, the display PROD_D3 or transmitter PROD_D5 is a moving image) An example of such a reproducing apparatus PROD_D is also a smartphone (in which the display PROD_D3 or the transmission unit PROD_D5 is the main destination of the moving image), and the like.

(ハードウェア的実現およびソフトウェア的実現)
また、上述した動画像復号装置31および動画像符号化装置11の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Realization of hardware and software)
Further, each block of the moving picture decoding device 31 and the moving picture coding device 11 described above may be realized by hardware by a logic circuit formed on an integrated circuit (IC chip), or by a CPU (Central Processing). Unit), and may be realized by software.

後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の実施形態の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, each device has a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types of devices. A storage device (recording medium) such as a memory for storing data is provided. The object of the embodiment of the present invention is to record the program code (execution format program, intermediate code program, source program) of the control program of each device, which is software for realizing the above-described functions, in a computer-readable manner. This can also be achieved by supplying a medium to each of the above devices and causing the computer (or CPU or MPU) to read and execute the program code recorded in the recording medium.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM(Compact Disc Read-Only Memory)/MOディスク(Magneto-Optical disc)/MD(Mini Disc)/DVD(Digital Versatile Disc:登録商標)/CD-R(CD Recordable)/ブルーレイディスク(Blu-ray Disc:登録商標)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-Only Memory)/EEPROM(Electrically Erasable and Programmable Read-Only Memory:登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and CD-ROMs (Compact Disc Read-Only Memory) / MO disks (Magneto-Optical discs). ) / MD (Mini Disc) / DVD (Digital Versatile Disc: registered trademark) / CD-R (CD Recordable) / Blu-ray Disc (registered trademark) and other optical discs, IC cards (memory cards) Card) such as optical card, mask ROM / EPROM (Erasable Programmable Read-Only Memory) / EEPROM (Electrically Erasable and Programmable Read-Only Memory: registered trademark) / semiconductor memory such as flash ROM, or PLD ( Logic circuits such as Programmable logic device) and FPGA (Field Programmable Gate Array) can be used.

また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna television/Cable Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、BlueTooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance:登録商標)、携帯電話網、衛星回線、地上デジタル放送網等の無線でも利用可能である。なお、本発明の実施形態は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, Internet, intranet, extranet, LAN (Local Area Network), ISDN (Integrated Services Digital Network), VAN (Value-Added Network), CATV (Community Antenna television / Cable Television) communication network, virtual private network (Virtual Private Network) Network), telephone network, mobile communication network, satellite communication network, etc. can be used. Further, the transmission medium that constitutes this communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even if wired such as IEEE (Institute of Electrical and Electronic Engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA (Infrared Data Association) and remote control , BlueTooth (registered trademark), IEEE802.11 wireless, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance: registered trademark), mobile phone network, satellite line, terrestrial digital broadcasting network, etc. It is also available wirelessly. The embodiment of the present invention can also be realized in the form of a computer data signal embedded in a carrier wave, in which the program code is embodied by electronic transmission.

本発明の実施形態は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims. That is, the technical scope of the present invention also includes embodiments obtained by combining technical means appropriately modified within the scope of the claims.

本発明の実施形態は、画像データが符号化された符号化データを復号する動画像復号装置、および、画像データが符号化された符号化データを生成する動画像符号化装置に好適に適用することができる。また、動画像符号化装置によって生成され、動画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。   The embodiments of the present invention are preferably applied to a moving image decoding device that decodes encoded data in which image data is encoded, and a moving image encoding device that generates encoded data in which image data is encoded. be able to. Further, it can be suitably applied to the data structure of encoded data generated by the moving image encoding device and referred to by the moving image decoding device.

31,31a,31b 画像復号装置(動画像復号装置)
301 エントロピー復号部
302 パラメータ復号部
303 インター予測パラメータ復号部
304 イントラ予測パラメータ復号部
308 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
311 逆量子化・逆変換部
312 加算部
11,11a,11b 画像符号化装置(動画像符号化装置)
101 予測画像生成部
102 減算部
103 変換・量子化部
104 エントロピー符号化部
105 逆量子化・逆変換部
107 ループフィルタ
110 符号化パラメータ決定部
111 パラメータ符号化部
112 インター予測パラメータ符号化部
113 イントラ予測パラメータ符号化部
350 復号部
352,366 切り替え部
354 ダイナミックレンジ変換部
360 符号化部
362 ダイナミックレンジ逆変換部
364 ビット階調拡張超解像変換部
368 切り替え制御部
400,400a,400b,401,401a,401b 画像フィルタ装置(画像ビット階調拡張フィルタ装置)
40211,40212 低輝度用階調変換部(階調変換部)
40221,40222 高輝度用階調変換部(階調変換部)
4021,4022 階調変換部
404 超解像部
406 合成部
408 画像マップ作成部
410 画像復元部
31,31a, 31b Image decoding device (moving image decoding device)
301 Entropy decoding unit
302 Parameter decoding unit
303 Inter prediction parameter decoding unit
304 Intra prediction parameter decoding unit
308 Prediction image generator
309 Inter prediction image generator
310 Intra prediction image generator
311 Inverse quantization / inverse transform section
312 Adder
11,11a, 11b Image coding device (moving image coding device)
101 Prediction image generator
102 Subtractor
103 Transform / Quantization unit
104 Entropy encoder
105 Inverse quantization / inverse transform section
107 loop filter
110 Coding parameter determination unit
111 Parameter coding unit
112 Inter prediction parameter coding unit
113 Intra prediction parameter coding unit
350 decryption unit
352,366 Switch
354 Dynamic range converter
360 encoder
362 Dynamic range inverse converter
364-bit gradation extension super-resolution converter
368 Switching control unit
400,400a, 400b, 401,401a, 401b Image filter device (image bit gradation expansion filter device)
40211, 40212 Low brightness gradation conversion unit (gradation conversion unit)
40221, 40222 High brightness gradation converter (gradation converter)
4021,4022 Gradation converter
404 Super-resolution section
406 Synthesis Department
408 Image map creation section
410 Image restoration unit

Claims (10)

入力画像に作用する画像フィルタ装置であって、
前記入力画像を対象とする複数の処理経路の少なくとも何れかにおいて階調変換処理を施す1又は複数の階調変換部と、
前記複数の処理経路においてそれぞれ超解像処理を施す複数の超解像部と、
前記超解像処理が施された複数の前記入力画像を合成する合成部と、
を備えることを特徴とする画像フィルタ装置。
An image filter device which operates on an input image,
One or a plurality of gradation conversion units that perform gradation conversion processing on at least one of a plurality of processing paths for the input image;
A plurality of super-resolution units that respectively perform super-resolution processing in the plurality of processing paths,
A combining unit that combines the plurality of input images that have been subjected to the super-resolution processing,
An image filter device comprising:
入力画像に作用する画像フィルタ装置であって、
前記入力画像を対象とする複数の処理経路の少なくとも何れかにおいて階調変換処理を施す1又は複数の階調変換部と、
前記複数の処理経路においてそれぞれ画像復元処理を施す複数の画像復元部と、
前記画像復元処理が施された複数の前記入力画像を合成する合成部と、
を備えることを特徴とする画像フィルタ装置。
An image filter device which operates on an input image,
One or a plurality of gradation conversion units that perform gradation conversion processing on at least one of a plurality of processing paths for the input image;
A plurality of image restoration units that respectively perform image restoration processing in the plurality of processing paths;
A combining unit that combines the plurality of input images that have been subjected to the image restoration processing,
An image filter device comprising:
当該画像フィルタ装置は、複数の階調変換部を備え、
前記複数の階調変換部は、
前記入力画像の輝度値に作用させる変換が互いに異なる
ことを特徴とする請求項1又は2に記載の画像フィルタ装置。
The image filter device includes a plurality of gradation conversion units,
The plurality of gradation conversion units,
3. The image filter device according to claim 1, wherein the transformations that act on the luminance value of the input image are different from each other.
前記入力画像の各画素について、前記処理経路の何れを経由した前記入力画像の画素値を前記合成部の出力画像の何れの画素に設定するかを規定した画像マップを生成する画像マップ作成部を更に備え、
前記合成部は、
前記画像マップ作成部が生成した画像マップを参照して、複数の前記入力画像を合成する
ことを特徴とする請求項1から3までの何れか1項に記載の画像フィルタ装置。
For each pixel of the input image, an image map creation unit that generates an image map that defines which pixel of the output image of the combining unit the pixel value of the input image through which of the processing paths should be set to. Further preparation,
The synthesizing unit,
The image filter device according to any one of claims 1 to 3, wherein a plurality of the input images are combined with reference to the image map generated by the image map creation unit.
請求項1に記載の画像フィルタ装置と、
入力画像のダイナミックレンジを変換するダイナミックレンジ変換部と、
符号化ストリームから入力画像を復号する復号部と、
前記復号部の出力先を、前記画像フィルタ装置またはダイナミックレンジ変換部の何れかに切り替える切り替え部と、
を備えることを特徴とする復号装置。
The image filter device according to claim 1,
A dynamic range converter that converts the dynamic range of the input image,
A decoding unit that decodes the input image from the encoded stream,
A switching unit that switches the output destination of the decoding unit to either the image filter device or the dynamic range conversion unit,
A decoding device comprising:
前記復号部は、
前記符号化ストリームから、復号された当該入力画像に前記画像フィルタ装置及び前記ダイナミックレンジ変換部の何れの処理を施すかを示す情報を更に復号し、
前記切り替え部は、
当該情報を参照して、前記復号部の出力先を切り替える
ことを特徴とする請求項5に記載の復号装置。
The decryption unit is
From the encoded stream, further decodes information indicating which of the image filter device and the dynamic range conversion unit is to be applied to the decoded input image,
The switching unit,
The decoding device according to claim 5, wherein the output destination of the decoding unit is switched with reference to the information.
請求項1に記載の画像フィルタ装置が施す変換の逆変換に相当する処理を施す第1の処理経路であって、画像縮小処理を行う画像縮小部、及びダイナミックレンジを逆変換するダイナミックレンジ逆変換部による処理を施す第1の処理経路と、
前記ダイナミックレンジ逆変換部による処理を施す第2の処理経路と、
入力画像を、前記第1の処理経路と前記第2の処理経路との何れに入力するかの制御を行う切り替え制御部と、
前記第1の処理経路または前記第2の処理経路における処理が施された入力画像を参照して符号化ストリームを生成する符号化部と、
を備えることを特徴とする符号化装置。
A first processing path for performing a process corresponding to the inverse conversion of the conversion performed by the image filter device according to claim 1, the image reducing unit performing the image reducing process, and the dynamic range inverse transform for inverse transforming the dynamic range. A first processing path for performing processing by a section,
A second processing path for performing processing by the dynamic range inverse conversion unit;
A switching control unit that controls which of the first processing path and the second processing path the input image is input to,
An encoding unit that generates an encoded stream by referring to an input image that has been processed in the first processing path or the second processing path,
An encoding device comprising:
前記符号化部は、
前記切り替え制御部が行う制御の内容を示す切り替え情報が含まれる符号化ストリームを生成する
ことを特徴とする請求項7に記載の符号化装置。
The encoding unit,
The encoding device according to claim 7, wherein the encoding device generates an encoded stream including switching information indicating the content of control performed by the switching control unit.
請求項2に記載の画像フィルタ装置を備えることを特徴とする復号装置。   A decoding device comprising the image filter device according to claim 2. 請求項2に記載の画像フィルタ装置を備えることを特徴とする符号化装置。   An encoding device comprising the image filter device according to claim 2.
JP2018200190A 2018-10-24 2018-10-24 Image bit gradation extension filter device, image encoder and image decoder Pending JP2020068462A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018200190A JP2020068462A (en) 2018-10-24 2018-10-24 Image bit gradation extension filter device, image encoder and image decoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200190A JP2020068462A (en) 2018-10-24 2018-10-24 Image bit gradation extension filter device, image encoder and image decoder

Publications (1)

Publication Number Publication Date
JP2020068462A true JP2020068462A (en) 2020-04-30

Family

ID=70388681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200190A Pending JP2020068462A (en) 2018-10-24 2018-10-24 Image bit gradation extension filter device, image encoder and image decoder

Country Status (1)

Country Link
JP (1) JP2020068462A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640061A (en) * 2020-05-12 2020-09-08 哈尔滨工业大学 Self-adaptive image super-resolution system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640061A (en) * 2020-05-12 2020-09-08 哈尔滨工业大学 Self-adaptive image super-resolution system

Similar Documents

Publication Publication Date Title
JP7260472B2 (en) image filter device
JP7402016B2 (en) Image decoding device and image encoding device
JP7139144B2 (en) image filter device
WO2019182159A1 (en) Image filtering device, image decoding device, and image encoding device
JP7368145B2 (en) Image encoding device and image decoding device
CN111698519B (en) Image decoding device and image encoding device
JP2021002780A (en) Video decoding device and video coding device
WO2019087905A1 (en) Image filter device, image decoding device, and image coding device
JP2021136460A (en) Image decoding device and image coding device
JP7073186B2 (en) Image filter device
JP2022024208A (en) Moving image decoding device and moving image encoding device
TW202114417A (en) (無)
JPWO2020241858A5 (en)
WO2020184366A1 (en) Image decoding device
WO2020067440A1 (en) Moving image coding device and moving image decoding device
JP2021150703A (en) Image decoding device and image encoding device
JP2020141285A (en) Image decoder
WO2021246284A1 (en) Moving image decoding device and moving image encoding device
JP2020068462A (en) Image bit gradation extension filter device, image encoder and image decoder
JP7444570B2 (en) Video decoding device, video encoding device, video decoding method, and video encoding method
JP7425568B2 (en) Video decoding device, video encoding device, video decoding method, and video encoding method
JP2021061501A (en) Moving image conversion device and method
JP7332753B2 (en) image filter device
JP2023085638A (en) Dynamic image decoder and dynamic image encoder
JP2023046435A (en) Moving image decoder and moving image encoder