JP2017005749A - Receiver - Google Patents

Receiver Download PDF

Info

Publication number
JP2017005749A
JP2017005749A JP2016163462A JP2016163462A JP2017005749A JP 2017005749 A JP2017005749 A JP 2017005749A JP 2016163462 A JP2016163462 A JP 2016163462A JP 2016163462 A JP2016163462 A JP 2016163462A JP 2017005749 A JP2017005749 A JP 2017005749A
Authority
JP
Japan
Prior art keywords
prediction
motion information
block
unit
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016163462A
Other languages
Japanese (ja)
Other versions
JP6226044B2 (en
Inventor
上田 基晴
Motoharu Ueda
基晴 上田
福島 茂
Shigeru Fukushima
茂 福島
英樹 竹原
Hideki Takehara
英樹 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of JP2017005749A publication Critical patent/JP2017005749A/en
Application granted granted Critical
Publication of JP6226044B2 publication Critical patent/JP6226044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance coding efficiency, while limiting the memory access amount of a reference picture when performing motion compensation prediction.SOLUTION: A prediction mode/block structure decoding unit 1108 decodes information for use in motion compensation prediction from an encoded stream, and obtains from the information for use in motion compensation prediction thus coded, first control parameters specifying whether or not the motion compensation prediction in a first prediction block size is permitted, and second control parameters specifying a second size, for prohibiting bi-predictive motion compensation in a prediction block size of second size or less. A motion compensation prediction unit 1114 generates a prediction signal of a decoding object prediction block using the information for use in the motion compensation prediction. The motion compensation prediction unit 1114 performs motion compensation prediction on the basis of the first and second control parameters.SELECTED DRAWING: Figure 11

Description

本発明は、動画像信号の復号技術に関し、特に動き補償予測に利用する動画像復号技術
に関する。
The present invention relates to a moving picture signal decoding technique, and more particularly to a moving picture decoding technique used for motion compensation prediction.

MPEG−4 AVC/H.264(以後、AVC)等に代表される動画像符号化では
、時間方向の相関を利用した情報圧縮として、符号化対象となる画像信号である符号化対
象ピクチャに対して、既に符号化され復号された局部復号信号を参照ピクチャとして用い
、所定の符号化処理単位(以後、符号化対象ブロック)で、対象ピクチャと参照ピクチャ
との間での動き量(以後、動きベクトル)を検出し、予測信号を生成する動き補償予測が
用いられる。
MPEG-4 AVC / H. In moving picture coding represented by H.264 (hereinafter referred to as AVC) and the like, as information compression using correlation in the time direction, a picture to be coded which is a picture signal to be coded is already coded and decoded. The detected local decoded signal is used as a reference picture, and a motion amount (hereinafter referred to as a motion vector) between the target picture and the reference picture is detected and predicted in a predetermined encoding processing unit (hereinafter referred to as an encoding target block). Motion compensated prediction that generates a signal is used.

AVCでは、動き補償予測において1つの参照ピクチャから1本の動きベクトルを利用
して単一方向に予測信号を生成する単予測と、2つの参照ピクチャから2本の動きベクト
ルを利用して予測信号を生成する双予測が用いられる。これらを、符号化対象ブロックと
なる16×16画素の2次元ブロック内で、予測処理対象となっているブロック(以後、
予測対象ブロック)の大きさ(以後、予測ブロックサイズ)を可変にする手法や、複数の
参照ピクチャの中から予測に用いる参照ピクチャを選択する手法に適用すること、また動
きベクトルの精度を1/4画素精度で表現することで、予測信号の精度を向上し、伝送す
る差分(以後、予測誤差)の情報量を削減している。符号化側では、予測モード情報や参
照画像を指定する情報を選択して動きベクトル情報と共に伝送し、復号側では、伝送され
た予測モード情報や参照画像を指定する情報と復号された動きベクトル情報に従って動き
補償予測処理が施される。
In AVC, single prediction for generating a prediction signal in a single direction using one motion vector from one reference picture in motion compensation prediction, and a prediction signal using two motion vectors from two reference pictures Bi-prediction is used to generate These are converted into blocks (hereinafter referred to as prediction processing targets) within a 16 × 16 pixel two-dimensional block to be encoded.
This method is applied to a method of changing the size of the prediction target block (hereinafter referred to as a prediction block size), a method of selecting a reference picture used for prediction from a plurality of reference pictures, and the accuracy of the motion vector is reduced to 1 / By expressing with 4-pixel accuracy, the accuracy of the prediction signal is improved, and the amount of information of the difference to be transmitted (hereinafter, prediction error) is reduced. On the encoding side, information specifying the prediction mode information and the reference image is selected and transmitted together with the motion vector information. On the decoding side, the information specifying the transmitted prediction mode information and the reference image and the decoded motion vector information are transmitted. In accordance with the motion compensation prediction process.

動きベクトルの伝送については、処理対象ブロックに隣接する符号化済みのブロックの
動きベクトルを予測動きベクトル(以降、予測ベクトル)とし、処理対象ブロックの動き
ベクトルと予測ベクトルとの差分を求め、差分ベクトルを符号化ベクトルとして伝送する
ことで圧縮効率を向上させている。
For motion vector transmission, a motion vector of an encoded block adjacent to the processing target block is set as a prediction motion vector (hereinafter referred to as a prediction vector), and a difference between the motion vector of the processing target block and the prediction vector is obtained. Is transmitted as an encoded vector to improve the compression efficiency.

しかしながら、AVCにおいては、予測ブロックサイズを小さくした場合に、符号化対
象ブロックの画素に対して、符号化する際に必要となる動きベクトルの数が増大し、予測
誤差を符号化した際に要する符号量に対して、動きベクトルの符号化に要する符号量が増
大し、予測誤差を十分な精度で符号化出来ず、符号化された画像信号の品質が低下する課
題があった。
However, in AVC, when the prediction block size is reduced, the number of motion vectors required for encoding increases with respect to the pixels of the encoding target block, which is required when encoding a prediction error. There is a problem that the amount of code required for coding a motion vector increases with respect to the amount of code, the prediction error cannot be coded with sufficient accuracy, and the quality of the coded image signal is lowered.

動きベクトルの符号化に要する符号量が増大する課題を解決するために、AVCでは予
測対象ブロックと同一位置にある参照ピクチャのブロックの符号化に用いられた動きベク
トルを利用して、符号化ベクトルを伝送することなく動き補償予測を実現するダイレクト
動き補償予測を用いることが可能になっている。
In order to solve the problem of increasing the amount of code required for coding a motion vector, AVC uses a motion vector used for coding a block of a reference picture at the same position as a prediction target block, It is possible to use direct motion compensated prediction that realizes motion compensated prediction without transmitting.

また、他の解決手段としては、特許文献1のように、符号化装置において予測ブロック
サイズが小さい場合に、双予測を禁止し単予測のみを用いることで、符号化する動きベク
トル数を少なくして、動きベクトルの符号量増大を防ぐ手法が知られている。
Another solution is to reduce the number of motion vectors to be encoded by prohibiting bi-prediction and using only uni-prediction when the prediction block size is small in the encoding device as in Patent Document 1. Thus, a technique for preventing an increase in the code amount of a motion vector is known.

WO2006/082690号公報WO2006 / 082690

上述したダイレクト動き補償予測は、予測対象ブロックと同一位置にある参照ピクチャ
のブロックにおける時間方向の動きの連続性に着目し、他のブロックの動き情報をそのま
ま利用する。これにより、差分ベクトルを符号化ベクトルとして符号化せずに動き補償予
測処理を行う。
In the direct motion compensated prediction described above, attention is paid to temporal motion continuity in a block of a reference picture at the same position as the prediction target block, and motion information of other blocks is used as it is. Thus, the motion compensation prediction process is performed without encoding the difference vector as an encoded vector.

しかしながら、動きの連続性が十分保たれていない場合や、他ブロックの動き情報にお
ける動きベクトルが正確な動きを示していない場合などに、他のブロックの動き情報をそ
のまま利用する方式を用いた際には、ずれの生じた動き情報を用いた予測画像が生成され
る。その場合、精度良い動き補償予測画像を生成できず、符号化効率が向上しないという
難しい面がある。
However, when the continuity of motion is not sufficiently maintained or when the motion vector in the motion information of other blocks does not indicate an accurate motion, etc. In this case, a predicted image using the motion information in which the shift has occurred is generated. In that case, there is a difficult aspect that a motion compensated prediction image with high accuracy cannot be generated and the encoding efficiency is not improved.

更に、1/4画素の動きベクトル精度で表現された動きベクトルより、予測信号を生成
する際に、隣接する複数画素を用いた補間フィルタを用いて、動きベクトルにより指定さ
れた1/4画素精度の位置に対する予測画素を生成する為に、動き補償予測時に予測信号
を生成するために、予測ブロックサイズに対して水平・垂直それぞれに補間フィルタのタ
ップ数に相当する画素分の領域の参照ピクチャの画像信号を取得する必要があり、特に予
測ブロックサイズを小さくした場合に、参照ピクチャのメモリアクセス量が増大する課題
があり、ダイレクト動き補償予測を用いた際にも同様の課題が残る。
Furthermore, when generating a prediction signal from a motion vector expressed with a motion vector accuracy of 1/4 pixel, an interpolation filter using a plurality of adjacent pixels is used to generate a 1/4 pixel accuracy specified by the motion vector. In order to generate a prediction pixel for the position of the image, in order to generate a prediction signal at the time of motion compensation prediction, a reference picture of an area corresponding to the number of pixels corresponding to the number of taps of the interpolation filter horizontally and vertically with respect to the prediction block size It is necessary to acquire an image signal. In particular, when the prediction block size is reduced, there is a problem that the memory access amount of the reference picture increases, and the same problem remains when direct motion compensation prediction is used.

特許文献1の手法によれば、単予測に予測手法を制限することにより、動きベクトルの
数と共に、符号化装置における参照ピクチャのメモリアクセス量に関しては削減できるが
、復号装置においては、符号化される動きベクトルの数に対する制限を認識できないため
、実時間の復号処理を実現するためには、双予測が施される場合を想定した復号処理能力
が必要となる。また、ダイレクト動き補償予測などの、符号化ベクトルを伝送しない予測
手法を用いた場合に、暗黙で双予測が用いられる条件の場合には、双予測の予測信号生成
が必要となり、復号装置に要求される最大メモリアクセス量を削減する事が出来ず、課題
は解決しない。
According to the method of Patent Literature 1, by limiting the prediction method to single prediction, the memory access amount of the reference picture in the encoding device can be reduced together with the number of motion vectors, but in the decoding device, it is encoded. Since the restriction on the number of motion vectors to be recognized cannot be recognized, a decoding processing capability assuming a case where bi-prediction is performed is necessary to realize a real-time decoding process. In addition, when a prediction method that does not transmit an encoded vector, such as direct motion compensation prediction, is used under conditions where implicit bi-prediction is used, bi-prediction prediction signal generation is required, which is required by the decoding device. The maximum memory access amount cannot be reduced, and the problem is not solved.

本発明はこうした状況に鑑みてなされたものであり、その目的は、動き補償予測を使用
する際の参照ピクチャのメモリアクセス量を所定量以下に制限しつつ、符号化効率を向上
させる技術を提供することにある。
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for improving the coding efficiency while limiting the memory access amount of a reference picture to a predetermined amount or less when using motion compensated prediction. There is to do.

ピクチャが複数のブロックに段階的に分割されたブロックから予測ブロックを特定し、
その特定された予測ブロック単位で、動画像が符号化された符号化ストリームを受信して
復号する受信装置であって、前記符号化ストリームがパケット化された符号化データを受
信する受信部と、受信された前記符号化ストリームをパケット処理して元の符号化ストリ
ームを復元する復元部と、復元された前記符号化ストリームから、復号対象となる前記予
測ブロックの動き情報を指定したインデックス情報を復号する復号部と、前記復号対象と
なる予測ブロックに空間的に近接するブロック及び時間的に近接するブロックの少なくと
も何れかから動き情報を導出し、前記復号対象となる予測ブロックの動き情報候補として
、その導出された動き情報の中から所定の動き情報を登録して動き情報候補リストを構築
する候補リスト構築部と、前記導出された動き情報を組み合わせることで新たな動き情報
候補を生成し、生成された前記動き情報候補を前記動き情報候補リストに追加する候補リ
スト追加部と、前記動き情報候補を変換する動き情報変換部と、前記動き情報候補のうち
の前記インデックス情報により指定された動き情報に基づいて、単予測又は双予測の何れ
かにより動き補償予測を行い前記復号対象となる予測ブロックの予測信号を生成する動き
補償予測部とを備え、前記新たな動き情報候補の予測種別情報は前記双予測であり、前記
動き情報変換部は、前記動き情報候補のうち、前記双予測により前記動き補償予測を行う
ことを示す予測種別情報を、前記候補リスト追加部が前記動き情報候補リストに動き情報
候補を追加した後に、前記単予測により前記動き補償予測を行うことを示す予測種別情報
に変換する予測変換を行い、前記動き補償予測部は、前記復号対象となる予測ブロックの
ブロックサイズが所定の第1サイズの場合であり、かつ前記指定された動き情報の前記予
測種別情報が前記双予測により前記動き補償予測を行うことを示す場合に、前記予測変換
により変換された前記予測種別情報により前記動き補償予測を行い、前記予測変換はL1
予測情報を無効にすることでL0予測への前記単予測に変換することを特徴とする受信装
置を提供する。
Identify the prediction block from the block where the picture is divided into multiple blocks,
A reception device that receives and decodes an encoded stream in which a moving image is encoded in the specified prediction block unit, and a reception unit that receives encoded data in which the encoded stream is packetized; The received encoded stream is packet-processed to restore the original encoded stream, and the index information specifying the motion information of the prediction block to be decoded is decoded from the restored encoded stream. Motion information is derived from at least one of a block that is spatially close to the prediction block to be decoded and a block that is temporally close to the prediction block to be decoded, and as motion information candidates of the prediction block to be decoded, A candidate list construction unit for registering predetermined motion information from the derived motion information and constructing a motion information candidate list; A candidate list adding unit that generates a new motion information candidate by combining the derived motion information, adds the generated motion information candidate to the motion information candidate list, and motion information conversion that converts the motion information candidate Based on the motion information specified by the index information among the motion information candidates, and performing motion compensation prediction by either uni-prediction or bi-prediction to generate a prediction signal of the prediction block to be decoded A prediction type information of the new motion information candidate is the bi-prediction, and the motion information conversion unit performs the motion compensation prediction by the bi-prediction among the motion information candidates. After the candidate list adding unit adds motion information candidates to the motion information candidate list, the motion compensated prediction is performed by the single prediction. Predictive conversion is performed to convert into prediction type information indicating that the motion compensation prediction unit is a case where a block size of the prediction block to be decoded is a predetermined first size, and the designated motion information When the prediction type information indicates that the motion compensation prediction is performed by the bi-prediction, the motion compensation prediction is performed by the prediction type information converted by the prediction conversion, and the prediction conversion is L1.
Disclosed is a receiving device characterized by converting prediction into the single prediction into L0 prediction by invalidating prediction information.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記
録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有
効である。
It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、参照ピクチャのメモリアクセス量を所定量以下に制限しつつ、符号化
効率を向上させることができる。
According to the present invention, it is possible to improve the coding efficiency while limiting the memory access amount of the reference picture to a predetermined amount or less.

本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder which concerns on Embodiment 1 of this invention. 符号化対象画像の分割構造の一例を示す図である。It is a figure which shows an example of the division | segmentation structure of an encoding object image. CU/予測ブロックサイズの詳細な定義を示す図である。It is a figure which shows the detailed definition of CU / prediction block size. 図4(a)〜(d)は、動き補償予測の予測種別について説明するための図である。4A to 4D are diagrams for explaining the prediction type of motion compensation prediction. 本発明の実施の形態1に係る動画像符号化装置における符号化ブロック単位の符号化処理の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of an operation | movement of the encoding process per encoding block in the moving image encoder which concerns on Embodiment 1 of this invention. 図5のステップS503におけるCU予測モード/予測信号生成処理の詳細動作を説明するためのフローチャートである。6 is a flowchart for explaining a detailed operation of a CU prediction mode / prediction signal generation process in step S503 of FIG. 図6のステップS608における動き補償予測ブロック(PU)サイズ選択/予測信号生成処理の詳細動作を説明するためのフローチャートである。7 is a flowchart for explaining detailed operation of motion compensated prediction block (PU) size selection / prediction signal generation processing in step S608 of FIG. 6. 図8(a)(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための2つの予測モードを説明するための図である。FIGS. 8A and 8B are diagrams for explaining two prediction modes for encoding motion information used in motion compensated prediction according to Embodiment 1 of the present invention. 動き補償予測に水平・垂直7タップフィルタを用いた場合の動き補償予測に必要な参照画像メモリ量の概算値を示す図である。It is a figure which shows the rough value of the reference image memory amount required for motion compensation prediction at the time of using a horizontal and vertical 7 tap filter for motion compensation prediction. 本発明の実施の形態1に係る、動き補償予測のブロックサイズ及び予測処理を制御する制御パラメータを説明するための図である。It is a figure for demonstrating the control parameter which controls the block size and prediction process of motion compensation prediction based on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置における符号化ブロック単位の復号処理の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the decoding process of the encoding block unit in the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 図12のステップS1202におけるCU単位復号処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the CU unit decoding process in step S1202 of FIG. 図13のステップS1310におけるCU単位動き補償予測復号処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the CU unit motion compensation prediction decoding process in step S1310 of FIG. 本発明の実施の形態1の動画像符号化装置における動き補償予測ブロック構造選択部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the motion compensation prediction block structure selection part in the moving image encoder of Embodiment 1 of this invention. 結合動き情報算出部の構成を示す図である。It is a figure which shows the structure of a joint motion information calculation part. 図15の動き補償予測ブロック構造選択部を介して動作する、図7のステップS701、S702、S703、S705である動き補償予測モード/予測信号生成の動作について説明するためのフローチャートである。16 is a flowchart for explaining an operation of motion compensation prediction mode / prediction signal generation, which is steps S701, S702, S703, and S705 of FIG. 7, which operates via the motion compensation prediction block structure selection unit of FIG. 15. 図17のステップS1701における結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of combined motion information candidate list production | generation in step S1701 of FIG. 空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。It is a figure which shows the space candidate block group used for a space joint motion information candidate list generation. 図18のステップS1800における空間結合動き情報候補リスト生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the space joint motion information candidate list production | generation process in step S1800 of FIG. 図18のステップS1801における結合動き情報候補削除処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the combined motion information candidate deletion process in step S1801 of FIG. 結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す図である。It is a figure which shows the comparison relationship of the candidate in the list | wrist in the case of four combined motion information candidates. 図23(a)(b)は、結合動き情報候補の比較内容の一例を示す図である。FIGS. 23A and 23B are diagrams illustrating an example of comparison contents of combined motion information candidates. 時間結合動き情報候補リスト生成に用いる時間候補ブロック群を示す図である。It is a figure which shows the time candidate block group used for a time joint movement information candidate list generation. 図18のステップS1802における時間結合動き情報候補リスト生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the time combination motion information candidate list production | generation process in FIG.18 S1802. 時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明するための図である。It is a figure for demonstrating the calculation method of the motion vector value mvL0t and mvL1t registered with respect to the reference | standard motion vector value ColMv with respect to time coupling | bonding motion information with respect to L0 prediction and L1 prediction. 図18のステップS1803における第1結合動き情報候補リスト追加処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the 1st joint motion information candidate list addition process in step S1803 of FIG. 第1結合動き情報候補リスト追加処理における、組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明するための図であるIt is a figure for demonstrating the relationship between the frequency | count of combination inspection, the combined motion information candidate M, and the combined motion information candidate N in the 1st combined motion information candidate list addition process. 図18のステップS1804における第2結合動き情報候補リスト追加処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the 2nd joint motion information candidate list addition process in step S1804 of FIG. 図17のステップS1703における結合動き情報候補単予測変換処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the joint motion information candidate single prediction conversion process in step S1703 of FIG. 図17のステップS1704における結合予測モード評価値生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the joint prediction mode evaluation value production | generation process in step S1704 of FIG. 結合動き情報候補数が5の場合のTruncated Unary符号列を示す図である。It is a figure which shows the Truncated Unary code sequence when the number of combined motion information candidates is 5. 図17のステップS1705における予測モード評価値生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the prediction mode evaluation value production | generation process in step S1705 of FIG. 予測ブロックの動き情報に関するシンタックスである。It is the syntax regarding the motion information of a prediction block. 予測ブロックサイズによる双予測及び予測処理の制限を制御するパラメータに関するシンタックスである。It is the syntax regarding the parameter which controls the restriction | limiting of the bi-prediction by prediction block size, and a prediction process. 本発明の実施の形態1の動画像復号装置における動き情報復号部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the motion information decoding part in the moving image decoding apparatus of Embodiment 1 of this invention. 図14のステップS1402、S1406、S1408、S1410における予測ブロック単位復号処理の詳細動作を説明するためのフローチャートである。15 is a flowchart for explaining detailed operations of prediction block unit decoding processing in steps S1402, S1406, S1408, and S1410 of FIG. 図37のステップS3702における動き情報復号処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the motion information decoding process in step S3702 of FIG. 図38のステップS3801における結合予測動き情報復号処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the joint prediction motion information decoding process in FIG.38 S3801. 図38のステップS3805における予測動き情報復号処理の詳細動作を説明するためのフローチャートである。FIG. 39 is a flowchart for explaining detailed operations of a predicted motion information decoding process in step S3805 of FIG. 38. FIG. レベルと連動した予測ブロックサイズ制御パラメータの制限を示す一例である。It is an example which shows the restriction | limiting of the prediction block size control parameter linked | linked with the level. 本発明の実施の形態1の別構成における、予測ブロックサイズの分割構造を示す図である。It is a figure which shows the division | segmentation structure of the prediction block size in another structure of Embodiment 1 of this invention. 本発明の実施の形態1の別構成における、動き補償予測のブロックサイズ及び予測処理を制御する制御パラメータを説明するための図である。It is a figure for demonstrating the control parameter which controls the block size and prediction process of motion compensation prediction in another structure of Embodiment 1 of this invention. 本発明の実施の形態1において、動き補償予測のブロックサイズ及び予測処理を制御する2つの制御パラメータを1つの符号化伝送パラメータとして統合した一例である。In Embodiment 1 of this invention, it is an example which integrated two control parameters which control the block size of a motion compensation prediction, and a prediction process as one encoding transmission parameter. 本発明の実施の形態2に係る、動き補償予測のブロックサイズ及び予測処理を制御する制御パラメータを説明するための図であるIt is a figure for demonstrating the control parameter which controls the block size and prediction process of motion compensation prediction based on Embodiment 2 of this invention. 本発明の実施の形態2に係る、双予測を制御する制御パラメータと予測ブロックサイズの関係を示す図であるIt is a figure which shows the relationship between the control parameter which controls bi-prediction, and prediction block size based on Embodiment 2 of this invention. 本発明の実施の形態2における、予測ブロックサイズによる双予測及び予測処理の制限を制御するパラメータに関するシンタックスの一例である。It is an example of the syntax regarding the parameter which controls the restriction | limiting of the bi-prediction by prediction block size and prediction processing in Embodiment 2 of this invention. 本発明の実施の形態3における、結合動き情報候補生成における空間周辺予測ブロックの定義の一例を示す図である。It is a figure which shows an example of the definition of a space periphery prediction block in combined motion information candidate generation in Embodiment 3 of this invention. 本発明の実施の形態3における、動き補償予測ブロック(PU)サイズ選択/予測信号生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the motion compensation prediction block (PU) size selection / prediction signal generation process in Embodiment 3 of this invention. 本発明の実施の形態3における、動き補償予測モード/予測信号生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the motion compensation prediction mode / prediction signal generation process in Embodiment 3 of this invention. 本発明の実施の形態3における、結合予測動き情報復号処理の一例の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of an example of a joint prediction motion information decoding process in Embodiment 3 of this invention. 本発明の実施の形態4における、動き補償予測ブロック生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the motion compensation prediction block generation process in Embodiment 4 of this invention. 本発明の実施の形態5における、結合動き情報候補リスト生成処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the joint motion information candidate list production | generation process in Embodiment 5 of this invention. 本発明の実施の形態5における、結合動き情報候補単予測変換処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the joint motion information candidate single prediction conversion process in Embodiment 5 of this invention. 本発明の実施の形態6における、結合動き情報候補単予測変換処理の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the joint motion information candidate single prediction conversion process in Embodiment 6 of this invention.

以下、図面とともに本発明の実施の形態に係る動画像符号化装置、動画像符号化方法、
動画像符号化プログラム、並びに動画像復号装置、動画像復号方法、動画像復号プログラ
ムの好適な実施の形態について詳細に説明する。なお、図面の説明には同一要素には同一
符号を付与して重複する説明を省略する。
Hereinafter, a moving picture coding apparatus, a moving picture coding method according to an embodiment of the present invention together with the drawings,
Preferred embodiments of a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program will be described in detail. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(実施の形態1)
[動画像符号化装置全体構成]
図1は、本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。以下、
各部の動作について説明する。実施の形態1に係る動画像符号化装置は、入力端子100
、入力画像メモリ101、符号化ブロック取得部102、減算部103、直交変換・量子
化部104、予測誤差符号化部105、逆量子化・逆変換部106、加算部107、フレ
ーム内復号画像バッファ108、ループフィルタ部109、復号画像メモリ110、動き
ベクトル検出部111、動き補償予測部112、動き補償予測ブロック構造選択部113
、イントラ予測部114、イントラ予測ブロック構造選択部115、予測モード選択部1
16、符号化ブロック構造選択部117、ブロック構造/予測モード情報付加情報符号化
部118、予測モード情報メモリ119、多重化部120、出力端子121、及び符号化
ブロック制御パラメータ生成部122を備える。
(Embodiment 1)
[Overall configuration of video encoding apparatus]
FIG. 1 is a diagram showing a configuration of a moving picture coding apparatus according to Embodiment 1 of the present invention. Less than,
The operation of each part will be described. The video encoding apparatus according to Embodiment 1 includes an input terminal 100.
, Input image memory 101, coding block acquisition unit 102, subtraction unit 103, orthogonal transform / quantization unit 104, prediction error coding unit 105, inverse quantization / inverse transform unit 106, addition unit 107, intra-frame decoded image buffer 108, loop filter unit 109, decoded image memory 110, motion vector detection unit 111, motion compensation prediction unit 112, motion compensation prediction block structure selection unit 113
, Intra prediction unit 114, intra prediction block structure selection unit 115, prediction mode selection unit 1
16, a coding block structure selection unit 117, a block structure / prediction mode information additional information coding unit 118, a prediction mode information memory 119, a multiplexing unit 120, an output terminal 121, and a coding block control parameter generation unit 122.

入力端子100より入力される画像信号は、入力画像メモリ101に格納され、入力画
像メモリ101より、符号化対象ピクチャに対する処理対象の画像信号が、符号化ブロッ
ク取得部102に入力される。符号化ブロック取得部102により符号化対象ブロックの
位置情報に基づいて切り出された符号化対象ブロックの画像信号は、減算部103、動き
ベクトル検出部111、動き補償予測部112、及びイントラ予測部114に供給される
The image signal input from the input terminal 100 is stored in the input image memory 101, and the image signal to be processed for the encoding target picture is input from the input image memory 101 to the encoding block acquisition unit 102. The image signal of the encoding target block extracted based on the position information of the encoding target block by the encoding block acquisition unit 102 is a subtraction unit 103, a motion vector detection unit 111, a motion compensation prediction unit 112, and an intra prediction unit 114. To be supplied.

図2は、符号化対象画像の一例を示す図である。実施の形態1に係る予測ブロックサイ
ズに関しては、図2に示すように符号化対象画像が64×64画素の符号化ブロック単位
で符号化処理され、予測ブロックは符号化ブロックを基準に構成される。最大予測ブロッ
クサイズは符号化ブロックと同じ64×64画素で、最小予測ブロックサイズは4×4画
素である。CUの予測ブロックへの分割構成は、非分割(2N×2N)、水平・垂直への
分割(N×N)、水平方向のみへの分割(2N×N)、垂直方向のみへの分割(N×2N
)が可能である。水平・垂直への分割の場合は、更に水平・垂直に分割された予測ブロッ
クを符号化ブロック(CU)として階層的に予測ブロックに分割でき、その階層をCU分
割数で表現する。4分割されたCUの上位階層CUから見た分割領域をここでは分割1、
分割2、分割3、分割4と定義する。
FIG. 2 is a diagram illustrating an example of an encoding target image. Regarding the prediction block size according to the first embodiment, as shown in FIG. 2, the encoding target image is encoded in units of 64 × 64 pixel encoding blocks, and the prediction block is configured based on the encoding block. . The maximum prediction block size is 64 × 64 pixels, which is the same as the encoded block, and the minimum prediction block size is 4 × 4 pixels. The division configuration of a CU into prediction blocks includes non-division (2N × 2N), horizontal / vertical division (N × N), horizontal division only (2N × N), and vertical division only (N × 2N
Is possible. In the case of horizontal / vertical division, the prediction block further divided horizontally and vertically can be hierarchically divided into prediction blocks as coding blocks (CU), and the hierarchy is expressed by the number of CU divisions. Here, the divided area viewed from the upper hierarchy CU of the four divided CUs is divided into 1,
It is defined as division 2, division 3, and division 4.

図3は、予測ブロックサイズの詳細な定義の一例を示す図である。CUのブロックサイ
ズ(CUサイズ)は、CU分割数(CU_Depth)が0である64画素×64画素か
ら、CU分割数が3である8×8画素まで定義され、最大の予測ブロックサイズはCU_
Depth=0で非分割(2N×2N)の64画素×64画素、最小の予測ブロックサイ
ズはCU_Depth=3で水平・垂直への分割(N×N)の4画素×4画素までの予測
ブロックサイズが存在することになる。
FIG. 3 is a diagram illustrating an example of a detailed definition of the prediction block size. The block size (CU size) of the CU is defined from 64 pixels × 64 pixels in which the CU division number (CU_Depth) is 0 to 8 × 8 pixels in which the CU division number is 3, and the maximum predicted block size is CU_
Depth = 0 and non-divided (2N × 2N) 64 pixels × 64 pixels, minimum predicted block size is CU_Depth = 3 and horizontal / vertical divided (N × N) 4 pixels × 4 pixels predicted block size Will exist.

画面間の相関を用いて予測を行う、動き補償予測を行う場合の予測ブロックサイズは、
CUの予測ブロックへの分割構成に対して、水平方向のみへの分割(2N×N)、垂直方
向のみへの分割(N×2N)を可能としており、計13種類の予測ブロックサイズが定義
可能であるが、画面内の相関を用いて予測を行うイントラ予測の場合の予測ブロックサイ
ズは、水平方向のみへの分割(2N×N)、垂直方向のみへの分割(N×2N)を可能と
しないため、計5種類の予測ブロックサイズが定義される。
Prediction block size in the case of performing motion compensation prediction that performs prediction using correlation between screens,
The division configuration into prediction blocks of a CU allows division only in the horizontal direction (2N × N) and division only in the vertical direction (N × 2N), and a total of 13 types of prediction block sizes can be defined. However, the prediction block size in the case of intra prediction in which prediction is performed using correlation within the screen can be divided only in the horizontal direction (2N × N), or divided only in the vertical direction (N × 2N). Therefore, a total of five types of prediction block sizes are defined.

本発明の実施の形態1に係る予測ブロックの分割構成に関して、この組み合わせに限定
されない。定義できる符号化ブロックサイズは、図3に示すMaximum_cu_sizeやMinimum_c
u_sizeなどの制御パラメータを用いて最大CUサイズや最小CUサイズを設定し、これら
の制御パラメータを符号化・復号することで、変化させることが可能である。
Regarding the division | segmentation structure of the prediction block which concerns on Embodiment 1 of this invention, it is not limited to this combination. The encoding block sizes that can be defined are Maximum_cu_size and Minimum_c shown in FIG.
The maximum CU size and the minimum CU size are set using control parameters such as u_size, and these control parameters can be changed by encoding and decoding.

図1に戻り、減算部103は、符号化ブロック取得部102より供給される画像信号と
符号化ブロック構造選択部117より供給される予測信号を減算して予測誤差信号を算出
し、予測誤差信号を直交変換・量子化部104に供給する。
Returning to FIG. 1, the subtraction unit 103 calculates a prediction error signal by subtracting the image signal supplied from the coding block acquisition unit 102 and the prediction signal supplied from the coding block structure selection unit 117, and outputs a prediction error signal. Is supplied to the orthogonal transform / quantization unit 104.

直交変換・量子化部104は、減算部103より供給される予測誤差信号に直交変換及
び量子化を施し、量子化された予測誤差信号を予測誤差符号化部105及び逆量子化・逆
変換部106に供給する。
The orthogonal transform / quantization unit 104 performs orthogonal transform and quantization on the prediction error signal supplied from the subtraction unit 103, and the quantized prediction error signal is subjected to a prediction error encoding unit 105 and an inverse quantization / inverse conversion unit. 106.

予測誤差符号化部105は、直交変換・量子化部104より供給される量子化された予
測誤差信号をエントロピー符号化して、予測誤差信号に対する符号列を生成して、多重化
部120に供給する。
The prediction error encoding unit 105 entropy-encodes the quantized prediction error signal supplied from the orthogonal transform / quantization unit 104, generates a code string for the prediction error signal, and supplies the code sequence to the multiplexing unit 120. .

逆量子化・逆変換部106は、直交変換・量子化部104より供給される量子化された
予測誤差信号に対して、逆量子化や逆直交変換などの処理を行い、復号予測誤差信号を生
成し加算部107に供給する。
The inverse quantization / inverse transform unit 106 performs a process such as inverse quantization or inverse orthogonal transform on the quantized prediction error signal supplied from the orthogonal transform / quantization unit 104 to generate a decoded prediction error signal. Generated and supplied to the adder 107.

加算部107は、逆量子化・逆変換部106より供給される復号予測誤差信号と、符号
化ブロック構造選択部117より供給される予測信号を加算して、復号画像信号を生成し
、復号画像信号をフレーム内復号画像バッファ108及びループフィルタ部109に供給
する。
The addition unit 107 adds the decoded prediction error signal supplied from the inverse quantization / inverse conversion unit 106 and the prediction signal supplied from the coding block structure selection unit 117 to generate a decoded image signal, and generates a decoded image signal. The signal is supplied to the intra-frame decoded image buffer 108 and the loop filter unit 109.

フレーム内復号画像バッファ108は、符号化対象ブロックに隣接した領域の同一フレ
ーム内の復号画像をイントラ予測部114に供給すると共に、加算部107より供給され
る復号画像信号を格納する。
The intra-frame decoded image buffer 108 supplies the decoded image in the same frame in the region adjacent to the encoding target block to the intra prediction unit 114 and stores the decoded image signal supplied from the addition unit 107.

ループフィルタ部109は、加算部107より供給される復号画像信号に対して、符号
化によって生じる歪の除去や符号化前画像に近づける復元処理を、フィルタを施すことに
より行い、フィルタ処理を行った結果の復号画像を復号画像メモリ110に供給する。
The loop filter unit 109 performs a filtering process on the decoded image signal supplied from the adding unit 107 by applying a filter to remove distortion caused by encoding and to restore the image to a pre-encoded image. The resulting decoded image is supplied to the decoded image memory 110.

復号画像メモリ110は、ループフィルタ部109より供給されるフィルタ処理を行っ
た復号画像信号を格納する。また、画像全体の復号が完了した復号画像については参照画
像として1以上の所定画像数記憶し、参照画像信号を動きベクトル検出部111と動き補
償予測部112に供給する。
The decoded image memory 110 stores the decoded image signal subjected to the filter processing supplied from the loop filter unit 109. In addition, a decoded image for which decoding of the entire image has been completed is stored as a reference image by a predetermined number of one or more, and the reference image signal is supplied to the motion vector detection unit 111 and the motion compensation prediction unit 112.

動きベクトル検出部111は、符号化ブロック取得部102より供給される符号化対象
ブロックの画像信号と、復号画像メモリ110に記憶された参照画像信号の入力を受けて
、各参照画像に対する動きベクトルを検出し、動きベクトル値を動き補償予測部112及
び動き補償予測ブロック構造選択部113に供給する。
The motion vector detection unit 111 receives the input of the image signal of the encoding target block supplied from the encoding block acquisition unit 102 and the reference image signal stored in the decoded image memory 110, and obtains a motion vector for each reference image. The motion vector value is detected and supplied to the motion compensation prediction unit 112 and the motion compensation prediction block structure selection unit 113.

一般的な動きベクトルの検出方法は、画像信号と同一位置より所定の移動量だけ移動さ
せた参照画像に相当する画像信号について誤差評価値を算出し、誤差評価値が最小となる
移動量を動きベクトルとする。誤差評価値としては、画素毎の差分絶対値の総和SAD(
Sum of Absolute Difference)や、画素毎の二乗誤差値の総
和SSE(Sum of Square Error)等を利用する。さらに、動きベク
トルの符号化に関わる符号量も誤差評価値に含めることも可能である。
A general motion vector detection method calculates an error evaluation value for an image signal corresponding to a reference image moved by a predetermined movement amount from the same position as the image signal, and moves the movement amount that minimizes the error evaluation value. Let it be a vector. As the error evaluation value, the sum of the absolute differences SAD for each pixel SAD (
Sum of Absolute Difference), the sum of square error values SSE (Sum of Square Error) for each pixel, and the like are used. Furthermore, the code amount related to the coding of the motion vector can also be included in the error evaluation value.

動き補償予測部112は、動き補償予測ブロック構造選択部113より指定される予測
ブロック構造を指定する情報及び参照画像指定情報と、動きベクトル検出部111より入
力される動きベクトル値に従って、復号画像メモリ110内の参照画像指定情報で示され
る参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位
置の画像信号を取得して予測信号を生成する。
The motion compensated prediction unit 112 is configured to decode the decoded image memory according to the information specifying the prediction block structure specified by the motion compensated prediction block structure selecting unit 113, the reference image specifying information, and the motion vector value input from the motion vector detecting unit 111. A prediction signal is generated by acquiring an image signal at a position obtained by moving the reference image indicated by the reference image designation information in 110 from the same position as the image signal of the prediction block by a motion vector value.

動き補償予測ブロック構造選択部113より指定される予測モードが単一の参照画像か
らの予測の場合には、1つの参照画像から取得した予測信号を動き補償予測信号とし、予
測モードが2つの参照画像からの予測の場合には、2つの参照画像から取得した予測信号
を重みづけ平均したものを動き補償予測信号とし、動き補償予測信号を予測モード選択部
116に供給する。ここでは双予測の重みづけ平均の比率を1:1とする。
When the prediction mode specified by the motion compensated prediction block structure selection unit 113 is prediction from a single reference image, a prediction signal acquired from one reference image is used as a motion compensation prediction signal, and two prediction modes are referenced. In the case of prediction from an image, a weighted average of prediction signals acquired from two reference images is used as a motion compensation prediction signal, and the motion compensation prediction signal is supplied to the prediction mode selection unit 116. Here, the ratio of the weighted average of bi-prediction is set to 1: 1.

図4(a)〜(d)は、動き補償予測の予測種別について説明するための図である。単
一の参照画像からの予測を行う処理を単予測と定義し、単予測の場合はL0予測またはL
1予測という、参照画像管理リストに登録された2つの参照画像のいずれか一方を利用し
た予測を行う。
4A to 4D are diagrams for explaining the prediction type of motion compensation prediction. A process for performing prediction from a single reference image is defined as single prediction. In the case of single prediction, L0 prediction or L
The prediction using one of the two reference images registered in the reference image management list is performed as one prediction.

図4(a)は単予測であってL0予測の参照画像(RefL0Pic)が符号化対象画
像(CurPic)より前の時刻にある場合を示している。図4(b)は単予測であって
L0予測の参照画像が符号化対象画像より後の時刻にある場合を示している。同様に、図
4(a)および図4(b)のL0予測の参照画像をL1予測の参照画像(RefL1Pi
c)に置き換えて単予測を行うこともできる。
FIG. 4A shows a case of single prediction and the reference image (RefL0Pic) for L0 prediction is at a time before the encoding target image (CurPic). FIG. 4B shows a case in which the prediction image is a single prediction and the reference image of the L0 prediction is at a time after the encoding target image. Similarly, the L0 prediction reference image of FIG. 4A and FIG. 4B is replaced with the L1 prediction reference image (RefL1Pi).
It can replace with c) and can perform single prediction.

2つの参照画像からの予測を行う処理を双予測と定義し、双予測の場合はL0予測とL
1予測の双方を利用してBI予測と表現する。図4(c)は双予測であってL0予測の参
照画像が符号化対象画像より前の時刻にあって、L1予測の参照画像が符号化対象画像よ
り後の時刻にある場合を示している。図4(d)は双予測であってL0予測の参照画像と
L1予測の参照画像が符号化対象画像より前の時刻にある場合を示している。このように
、L0/L1の予測種別と時間の関係は、L0が過去方向、L1が未来方向とは限定され
ずに用いることが可能である。また双予測の場合に、同一の参照ピクチャを用いてL0予
測及びL1予測のそれぞれを行ってもよい。なお、動き補償予測を単予測で行うか双予測
で行うかの判断は、例えばL0予測を利用するか否か及びL1予測を利用するか否かを示
す情報(例えば、フラグ)に基づき判断される。
The process of performing prediction from two reference images is defined as bi-prediction, and in the case of bi-prediction, L0 prediction and L
This is expressed as BI prediction by using both of one prediction. FIG. 4C illustrates a case where bi-prediction is performed, and the reference image for L0 prediction is at a time before the encoding target image and the reference image for L1 prediction is at a time after the encoding target image. . FIG. 4D shows a case of bi-prediction, where the reference image for L0 prediction and the reference image for L1 prediction are at a time before the encoding target image. As described above, the relationship between the prediction type of L0 / L1 and time can be used without being limited to L0 being the past direction and L1 being the future direction. In the case of bi-prediction, each of L0 prediction and L1 prediction may be performed using the same reference picture. Note that whether to perform motion compensation prediction by single prediction or bi-prediction is determined based on, for example, information (for example, a flag) indicating whether to use L0 prediction and whether to use L1 prediction. The

双予測は2つの参照画像メモリへの画像情報アクセスが必要となるため、単予測と比較
して2倍以上のメモリ帯域を必要とする場合がある。ハードウェアを構成する場合、動き
補償予測の予測ブロックサイズが小さい場合の双予測がメモリ帯域のボトルネックとなり
、本発明の実施の形態ではメモリ帯域のボトルネックを抑制する。
Bi-prediction requires access to image information to two reference image memories, and therefore may require a memory bandwidth that is twice or more that of single prediction. When hardware is configured, bi-prediction when the prediction block size of motion compensation prediction is small becomes a bottleneck of the memory band, and the bottleneck of the memory band is suppressed in the embodiment of the present invention.

図1に戻り、動き補償予測ブロック構造選択部113は、動きベクトル検出部111よ
り入力される各参照画像に対して検出された動きベクトル値と、予測モード情報メモリ1
19に格納された動き情報(予測種別、動きベクトル値、及び参照画像指定情報)をもと
に、符号化ブロック制御パラメータ生成部122で生成された、実施の形態1において定
義した予測ブロックサイズ及び動き補償予測モードに関する制御パラメータが入力され、
制御パラメータに基づいて決められた、予測ブロックサイズ及び動き補償予測モードのそ
れぞれに対して用いられる、参照画像指定情報と動きベクトル値を動き補償予測部112
に設定する。設定した値によって、動き補償予測部112から供給される動き補償予測信
号と、符号化ブロック取得部102より供給される符号化対象ブロックの画像信号を用い
て、最適な予測ブロックサイズと動き補償予測モードを決定する。
Returning to FIG. 1, the motion compensation prediction block structure selection unit 113 detects the motion vector value detected for each reference image input from the motion vector detection unit 111 and the prediction mode information memory 1.
19 based on the motion information (prediction type, motion vector value, and reference image designation information) stored in 19, the prediction block size defined in the first embodiment generated by the encoding block control parameter generation unit 122, and Control parameters related to motion compensation prediction mode are input,
The reference image designation information and the motion vector value used for each of the prediction block size and the motion compensation prediction mode determined based on the control parameter are used as the motion compensation prediction unit 112.
Set to. Depending on the set value, the motion compensation prediction signal supplied from the motion compensation prediction unit 112 and the image signal of the target block to be encoded supplied from the coding block acquisition unit 102 are used to optimize the prediction block size and motion compensation prediction. Determine the mode.

動き補償予測ブロック構造選択部113は、決定した予測ブロックサイズ、動き補償予
測モード、予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定す
る情報を、動き補償予測信号及び予測誤差に対する誤差評価値と共に予測モード選択部1
16に供給する。
The motion compensated prediction block structure selection unit 113 uses the determined prediction block size, motion compensation prediction mode, prediction type corresponding to the prediction mode, motion vector, and information specifying the reference image designation information as a motion compensation prediction signal and a prediction error. A prediction mode selection unit 1 together with an error evaluation value for
16 is supplied.

イントラ予測部114は、イントラ予測ブロック構造選択部115より指定される予測
ブロック構造を指定する情報と定義されたイントラ予測モードに従って、フレーム内復号
画像バッファ108より供給される符号化対象ブロックに隣接した同一フレーム内の復号
画像を用いて、イントラ予測信号を生成しイントラ予測ブロック構造選択部115に供給
する。
The intra prediction unit 114 is adjacent to the encoding target block supplied from the intra-frame decoded image buffer 108 according to the intra prediction mode defined as the information specifying the prediction block structure specified by the intra prediction block structure selection unit 115. An intra prediction signal is generated using the decoded image in the same frame, and is supplied to the intra prediction block structure selection unit 115.

イントラ予測ブロック構造選択部115は、予測モード情報メモリ119に格納された
イントラ予測モード情報と複数の定義されたイントラ予測モードに従って、符号化ブロッ
ク制御パラメータ生成部122で生成された、実施の形態1において定義した予測ブロッ
クサイズに関する制御パラメータが入力され、制御パラメータに基づいて決められた予測
ブロックサイズのそれぞれに対して用いられるイントラ予測モードをイントラ予測部11
4に設定する。設定した値によって、イントラ予測部114から供給されるイントラ予測
信号と、符号化ブロック取得部102より供給される符号化対象ブロックの画像信号を用
いて、最適な予測ブロックサイズとイントラ予測モードを決定する。
Embodiment 1 Intra prediction block structure selection section 115 is generated by coding block control parameter generation section 122 according to intra prediction mode information stored in prediction mode information memory 119 and a plurality of defined intra prediction modes. The control parameter related to the prediction block size defined in step S3 is input, and the intra prediction mode used for each prediction block size determined based on the control parameter is set as the intra prediction unit 11.
Set to 4. Based on the set value, the optimal prediction block size and intra prediction mode are determined using the intra prediction signal supplied from the intra prediction unit 114 and the image signal of the encoding target block supplied from the coding block acquisition unit 102. To do.

また、イントラ予測ブロック構造選択部115は、決定した予測ブロックサイズ、イン
トラ予測モードを特定する情報を、イントラ予測信号及び予測誤差に対する誤差評価値と
共に予測モード選択部116に供給する。
In addition, the intra prediction block structure selection unit 115 supplies information specifying the determined prediction block size and intra prediction mode to the prediction mode selection unit 116 together with the intra prediction signal and the error evaluation value for the prediction error.

予測モード選択部116は、動き補償予測ブロック構造選択部113より供給される、
決定した予測ブロックサイズ、動き補償予測モード、予測モードに応じた予測種別、動き
ベクトル、参照画像指定情報を特定する情報、及び予測誤差に対する誤差評価値と、イン
トラ予測ブロック構造選択部115より供給される、決定した予測ブロックサイズ、イン
トラ予測モード、及び予測誤差に対する誤差評価値より、階層的に構成されるCUサイズ
単位の最適な予測モードを、誤差評価値を比較し選択する。
The prediction mode selection unit 116 is supplied from the motion compensation prediction block structure selection unit 113.
The determined prediction block size, motion compensation prediction mode, prediction type according to the prediction mode, motion vector, information specifying the reference image designation information, error evaluation value for prediction error, and the intra prediction block structure selection unit 115 are supplied. From the determined prediction block size, the intra prediction mode, and the error evaluation value for the prediction error, an optimum prediction mode in a CU size unit configured hierarchically is compared and selected.

予測モード選択部116により選択された、CUサイズ単位の最適な予測モード情報と
して、予測ブロックサイズ、予測信号、誤差評価値のCUサイズ単位の総和と共に、動き
補償予測が選択された場合には、動き補償予測モード、予測モードに応じた予測種別、動
きベクトル、参照画像指定情報を特定する情報、及び動き補償予測信号が、イントラ予測
が選択された場合には、イントラ予測モード、及びイントラ予測信号が、符号化ブロック
構造選択部117に供給される。
When motion compensation prediction is selected as the optimal prediction mode information in units of CU size selected by the prediction mode selection unit 116 together with the sum of the prediction block size, the prediction signal, and the error evaluation value in units of CU size, When the intra prediction is selected as the motion compensation prediction mode, the prediction type corresponding to the prediction mode, the motion vector, the information specifying the reference image designation information, and the motion compensation prediction signal, the intra prediction mode and the intra prediction signal are selected. Is supplied to the coding block structure selection unit 117.

符号化ブロック構造選択部117は、予測モード選択部116より供給されたCUサイ
ズ単位の最適な予測モード情報を元に、符号化ブロック制御パラメータ生成部122で生
成された、実施の形態1において定義した符号化ブロックサイズに関する制御パラメータ
が入力され、制御パラメータに基づいて決められた符号化ブロックサイズ構成において最
適なCU_Depth構成を選択し、CU分割構成を指定する情報と、指定された分割構
成毎のCUサイズにおける最適な予測モード情報と予測モードに関連する付加情報(動き
情報、イントラ予測モード)を、ブロック構造/予測モード情報付加情報符号化部118
に供給すると共に、選択した予測信号を減算部103及び加算部107に供給する。
The coding block structure selection unit 117 is defined in Embodiment 1 generated by the coding block control parameter generation unit 122 based on the optimal prediction mode information in CU size units supplied from the prediction mode selection unit 116. The control parameter related to the encoded block size is input, the optimum CU_Depth configuration is selected in the encoded block size configuration determined based on the control parameter, the information for specifying the CU partition configuration, and the specified partition configuration The block structure / prediction mode information additional information encoding unit 118 obtains optimal prediction mode information in the CU size and additional information related to the prediction mode (motion information, intra prediction mode).
And the selected prediction signal is supplied to the subtracting unit 103 and the adding unit 107.

ブロック構造/予測モード情報付加情報符号化部118は、符号化ブロック構造選択部
117より供給された、CU分割構成を指定する情報と、指定した分割構成毎のCUサイ
ズにおける最適な予測モード情報と予測モードに関連する付加情報と、符号化ブロック制
御パラメータ生成部122より供給された、符号化ブロック及び予測ブロック構造に関す
る制御パラメータを、所定のシンタックス構造に従って符号化することで、符号化ブロッ
ク単位のCU分割構成と予測に用いられたモード情報を符号化し、多重化部120に供給
すると共に、これらの情報を予測モード情報メモリ119に格納する。
The block structure / prediction mode information additional information encoding unit 118 is supplied from the encoding block structure selection unit 117, and specifies the CU partition configuration, and the optimal prediction mode information for the specified CU size for each partition configuration. By coding the additional information related to the prediction mode and the control parameters related to the coding block and the prediction block structure supplied from the coding block control parameter generation unit 122 according to a predetermined syntax structure, the coding block unit The CU partition configuration and mode information used for prediction are encoded and supplied to the multiplexing unit 120, and the information is stored in the prediction mode information memory 119.

予測モード情報メモリ119は、ブロック構造/予測モード情報付加情報符号化部11
8より供給される符号化ブロック単位のCU分割構成と予測に用いられたモード情報を、
最小予測ブロックサイズ単位を基準として所定画像分記憶する。実施の形態1は画面間の
予測である動き補償予測に注目したものであるため、モード情報における動き補償予測に
関連する情報である動き情報(予測種別、動きベクトル、及び参照画像インデックス)に
対して、説明を加える。
The prediction mode information memory 119 is a block structure / prediction mode information additional information encoding unit 11.
8 and the mode information used for prediction and the CU partitioning configuration in units of coding blocks supplied from FIG.
A predetermined number of images are stored on the basis of the minimum predicted block size unit. Since the first embodiment focuses on motion compensation prediction that is prediction between screens, motion information (prediction type, motion vector, and reference image index) that is information related to motion compensation prediction in mode information is used. And add a description.

動き補償予測の処理対象である予測ブロックの隣接ブロックの動き情報を空間候補ブロ
ック群とし、処理対象の予測ブロックと同一位置にあるColPic上のブロックとその
周辺ブロックの動き情報を時間候補ブロック群とする。
The motion information of the adjacent block of the prediction block that is the processing target of motion compensation prediction is set as a spatial candidate block group, and the motion information of the block on ColPic and the surrounding blocks that are at the same position as the processing target prediction block is the time candidate block group. To do.

ColPicとは、処理対象の予測ブロックとは別の復号済みの画像であって、復号画
像メモリ110に参照画像として記憶されている。実施の形態1では、ColPicは直
前に復号した参照画像とする。なお、実施の形態1では、ColPicは直前に復号した
参照画像としたが、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号化
ストリーム中に、ColPicに用いる参照画像を直接指定することも可能である。
ColPic is a decoded image different from the prediction block to be processed, and is stored in the decoded image memory 110 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before. In the first embodiment, ColPic is the reference image decoded immediately before, but the reference image immediately before in display order or the reference image immediately after in display order may be used, and the reference image used for ColPic is included in the encoded stream. Direct specification is also possible.

予測モード情報メモリ119は、空間候補ブロック群と時間候補ブロック群の動き情報
を、候補ブロック群の動き情報として動き補償予測ブロック構造選択部113に供給する
と共に、イントラ予測ブロックの隣接ブロックのイントラ予測モード情報をイントラ予測
ブロック構造選択部115に供給する。
The prediction mode information memory 119 supplies the motion information of the spatial candidate block group and the temporal candidate block group to the motion compensated prediction block structure selection unit 113 as motion information of the candidate block group, and intra prediction of adjacent blocks of the intra prediction block. The mode information is supplied to the intra prediction block structure selection unit 115.

多重化部120は、予測誤差符号化部105から供給される予測誤差の符号化列と、ブ
ロック構造/予測モード情報付加情報符号化部118から供給される符号化ブロック単位
のCU分割構成と予測に用いられたモード情報及び付加情報の符号化列を多重化すること
で符号化ビットストリームを生成し、出力端子121経由で、記録媒体・伝送路等に当該
符号化ビットストリームを出力する。
The multiplexing unit 120 includes a prediction error encoding sequence supplied from the prediction error encoding unit 105, a CU partitioning configuration in units of encoded blocks supplied from the block structure / prediction mode information additional information encoding unit 118, and prediction. The encoded bit stream is generated by multiplexing the encoded sequence of the mode information and the additional information used in the above, and the encoded bit stream is output to the recording medium / transmission path via the output terminal 121.

符号化ブロック制御パラメータ生成部122は、実施の形態1における、符号化ブロッ
ク構造を定義するパラメータである、図3に示すMaximum_cu_sizeやMinimum_cu_size等の
制御パラメータや、動き補償予測のブロックサイズ及び予測処理を制限する制御パラメー
タ等の、符号化ブロック構造や予測ブロック構造を定義するためのパラメータを生成し、
動き補償予測ブロック構造選択部113、イントラ予測ブロック構造選択部115、符号
化ブロック構造選択部117、及びブロック構造/予測モード情報付加情報符号化部11
8に供給する。動き補償予測のブロックサイズ及び予測処理を制限する制御パラメータに
関する詳細については後述する。
The coding block control parameter generation unit 122 performs control parameters such as Maximum_cu_size and Minimum_cu_size shown in FIG. 3, which are parameters defining the coding block structure, and the block size and prediction processing of motion compensation prediction in the first embodiment. Generate parameters to define the coding block structure and prediction block structure, such as control parameters to be restricted,
Motion compensated prediction block structure selection unit 113, intra prediction block structure selection unit 115, coding block structure selection unit 117, and block structure / prediction mode information additional information coding unit 11
8 is supplied. Details regarding the block size of motion compensation prediction and control parameters for limiting the prediction process will be described later.

図1に示した動画像符号化装置の構成は、CPU(Central Processi
ng Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置等のハー
ドウェアによっても実現可能である。
The configuration of the moving image encoding apparatus shown in FIG. 1 is a CPU (Central Processi
ng Unit), a frame memory, a hard disk, and the like.

図5は、本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流
れを示すフローチャートである。符号化ブロック単位毎に、CU分割の制御パラメータで
あるCU_Depthを0に初期化(S500)し、符号化ブロック取得部102より符
号化処理対象ブロック画像を取得する(S501)。動きベクトル検出部111は、符号
化対象ブロック画像よりCU分割に応じた予測対象のブロック画像と復号画像メモリ11
0に格納された複数の参照画像より、CU分割に応じた参照画像毎の動きベクトル値を算
出する(S502)。
FIG. 5 is a flowchart showing the flow of the encoding process in the video encoding apparatus according to Embodiment 1 of the present invention. For each coding block unit, CU_Depth, which is a control parameter for CU partitioning, is initialized to 0 (S500), and a coding process target block image is obtained from the coding block acquisition unit 102 (S501). The motion vector detection unit 111 includes a block image to be predicted according to CU partitioning from the block image to be encoded, and the decoded image memory 11.
A motion vector value for each reference image corresponding to the CU division is calculated from the plurality of reference images stored in 0 (S502).

続いて、動き補償予測ブロック構造選択部113は、動きベクトル検出部111より供
給される動きベクトルと、予測モード情報メモリ119に格納された動き情報及びイント
ラ予測モード情報を用いて、実施の形態1において定義した予測ブロックサイズ、動き補
償予測モードのそれぞれに対する予測信号を、動き補償予測部112を用いて取得し、最
適なCU単位の予測ブロックサイズ及び予測モードを選択した結果を出力する。また、イ
ントラ予測ブロック構造選択部115は、予測ブロックサイズ、イントラ予測モードのそ
れぞれに対する予測信号を、イントラ予測部114を用いて取得し、最適なCU単位の予
測ブロックサイズ及び予測モードを選択した結果を出力する。符号化ブロック構造選択部
117は、これらの結果を用いて最適な符号化ブロック構造における予測モードと予測信
号を生成する(S503)。ステップS503の処理の詳細については後述する。
Subsequently, the motion compensation prediction block structure selection unit 113 uses the motion vector supplied from the motion vector detection unit 111, the motion information and the intra prediction mode information stored in the prediction mode information memory 119, and performs the first embodiment. The prediction signal for each of the prediction block size and the motion compensation prediction mode defined in (1) is acquired using the motion compensation prediction unit 112, and the result of selecting the optimal prediction block size and prediction mode in CU units is output. In addition, the intra prediction block structure selection unit 115 acquires prediction signals for each of the prediction block size and the intra prediction mode using the intra prediction unit 114, and selects the optimal prediction block size and prediction mode in CU units. Is output. The coding block structure selection unit 117 generates a prediction mode and a prediction signal in the optimum coding block structure using these results (S503). Details of the processing in step S503 will be described later.

続いて、減算部103は、符号化ブロック取得部102より供給された符号化処理ブロ
ック画像と、符号化ブロック構造選択部117より供給された予測信号との差分を予測誤
差信号として算出する(S504)。ブロック構造/予測モード情報付加情報符号化部1
18は、符号化ブロック構造選択部117より供給される符号化構造、予測モード、動き
補償予測の場合の予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を
特定する情報、イントラ予測の場合のイントラ予測モード情報を、所定のシンタックス構
造に従って符号化し、符号化構造と予測モード情報に関連する付加情報の符号化データを
生成する(S505)。
Subsequently, the subtraction unit 103 calculates a difference between the encoded block image supplied from the encoded block acquisition unit 102 and the prediction signal supplied from the encoded block structure selection unit 117 as a prediction error signal (S504). ). Block structure / prediction mode information additional information encoding unit 1
18 is information that specifies the coding type, the prediction mode, the prediction type according to the prediction mode in the case of motion compensated prediction, and reference image designation information supplied from the coding block structure selection unit 117, and intra prediction. In this case, the intra prediction mode information is encoded according to a predetermined syntax structure to generate encoded data of additional information related to the encoding structure and the prediction mode information (S505).

続いて、予測誤差符号化部105は、直交変換・量子化部104で生成された量子化さ
れた予測誤差信号をエントロピー符号化して、予測誤差の符号化データを生成する(S5
06)。多重化部120は、ブロック構造/予測モード情報付加情報符号化部118から
供給される符号化構造と予測モード情報に関連する付加情報の符号化データと、予測誤差
符号化部105から供給される予測誤差の符号化データを多重化し、符号化ビットストリ
ームを生成する(S507)。
Subsequently, the prediction error encoding unit 105 entropy-encodes the quantized prediction error signal generated by the orthogonal transform / quantization unit 104 to generate encoded data of the prediction error (S5).
06). The multiplexing unit 120 is supplied from the coding structure supplied from the block structure / prediction mode information additional information encoding unit 118, encoded data of additional information related to the prediction mode information, and the prediction error encoding unit 105. The encoded data of the prediction error is multiplexed to generate an encoded bit stream (S507).

加算部107は、逆量子化・逆変換部106より供給される復号予測誤差信号と、符号
化ブロック構造選択部117より供給される予測信号を加算して、復号画像信号を生成す
る(S508)。予測モード情報メモリ119は、ブロック構造/予測モード情報付加情
報符号化部118より供給される符号化構造と予測モード情報に関連する付加情報として
、動き補償予測が用いられた場合の動き情報(予測種別、動きベクトル、及び参照画像指
定情報)と、イントラ予測が用いられた場合のイントラ予測モード情報を、最小の予測ブ
ロックサイズ単位で格納する(S509)。
The addition unit 107 adds the decoded prediction error signal supplied from the inverse quantization / inverse conversion unit 106 and the prediction signal supplied from the coding block structure selection unit 117 to generate a decoded image signal (S508). . The prediction mode information memory 119 includes motion information (prediction when motion compensation prediction is used as additional information related to the coding structure and prediction mode information supplied from the block structure / prediction mode information additional information encoding unit 118. Type, motion vector, and reference image designation information) and intra prediction mode information when intra prediction is used are stored in units of the smallest prediction block size (S509).

加算部107によって、生成された復号画像信号はフレーム内復号画像バッファ108
に格納されると共に、ループフィルタ部109において、歪除去のためのループフィルタ
処理が施され(S510)、フィルタを施された復号画像信号が復号画像メモリ110に
供給、格納され、以降に符号化する符号化画像の動き補償予測処理に用いられる(S51
1)。
The decoded image signal generated by the adding unit 107 is converted into an intra-frame decoded image buffer 108.
And the loop filter unit 109 performs loop filter processing for distortion removal (S510). The filtered decoded image signal is supplied to and stored in the decoded image memory 110 for subsequent encoding. Used for motion compensated prediction processing of an encoded image (S51).
1).

[CU単位の予測モード/予測信号生成処理の詳細]
次に、図5のフローチャートにおけるステップS503であるCU単位の予測モード/
予測信号生成処理の詳細について、図6のフローチャートを用いて説明する。
[Details of prediction mode / prediction signal generation processing per CU]
Next, the prediction mode / unit of CU which is step S503 in the flowchart of FIG.
Details of the prediction signal generation processing will be described with reference to the flowchart of FIG.

最初に、設定された最大CUサイズと最小CUサイズの間の階層数を示す値をMax_
CU_Depthとして、対象CUのCU_DepthがMax_CU_Depthより
小さいか否かを判定する(S600)。実施の形態1においては、図3に示すCU分割構
成を取るものとし、Max_CU_Depth=3とする。
First, a value indicating the number of hierarchies between the set maximum CU size and minimum CU size is set to Max_
As CU_Depth, it is determined whether or not the CU_Depth of the target CU is smaller than Max_CU_Depth (S600). In the first embodiment, the CU division configuration shown in FIG. 3 is assumed, and Max_CU_Depth = 3.

CU_DepthがMax_CU_Depthより小さい場合には(S600:YES
)、CU_Depthを1加算して(S601)、現在の対象CUを4分割した一階層下
のCUに対する、CU単位の予測モード/予測信号生成処理を行う(S602−S605
)。図2で示したCUの分割領域に対して、分割1領域の処理(S602)、分割2領域
の処理(S603)、分割3領域の処理(S604)、分割4領域の処理(S605)の
順で、再帰的に図6のフローチャートで説明されるCU単位の予測モード/予測信号生成
処理が行われる。
When CU_Depth is smaller than Max_CU_Depth (S600: YES)
), CU_Depth is incremented by 1 (S601), and prediction mode / prediction signal generation processing in units of CUs is performed for the CU one layer below the current target CU (S602 to S605).
). In the order of the division 1 area processing (S602), the division 2 area processing (S603), the division 3 area processing (S604), and the division 4 area processing (S605) with respect to the CU division area shown in FIG. Thus, the prediction mode / prediction signal generation processing for each CU described recursively in the flowchart of FIG. 6 is performed.

各CU分割領域の予測モード算出結果の内、誤差評価値が積算され、4つの分割CUの
誤差評価値総和が算出される(S606)。
Of the prediction mode calculation results of each CU divided region, the error evaluation values are integrated, and the total error evaluation value of the four divided CUs is calculated (S606).

一方、CU_DepthがMax_CU_Depth以上の場合(S600:NO)に
は、図1のイントラ予測ブロック構造選択部115及びイントラ予測部114において、
イントラ予測モードの算出と予測信号の生成が行われ(S607)、対象CUにおけるイ
ントラ予測のモード情報、予測信号と誤差評価値が算出される。
On the other hand, when CU_Depth is greater than or equal to Max_CU_Depth (S600: NO), in intra prediction block structure selection unit 115 and intra prediction unit 114 in FIG.
Intra prediction mode calculation and prediction signal generation are performed (S607), and intra prediction mode information, a prediction signal, and an error evaluation value in the target CU are calculated.

続いて、動き補償予測ブロック構造選択部113及び動き補償予測部112において、
動き補償予測ブロックサイズの選択と、選択された予測ブロック単位の動き補償予測モー
ド及び予測信号生成が行われ(S608)、対象CUにおける動き補償予測の予測ブロッ
クサイズ、モード情報、動き情報、予測信号と誤差評価値が算出される。ステップS60
8の詳細に関しては、後述する。
Subsequently, in the motion compensation prediction block structure selection unit 113 and the motion compensation prediction unit 112,
The selection of the motion compensation prediction block size, the motion compensation prediction mode and the prediction signal generation for the selected prediction block unit are performed (S608), and the prediction block size, mode information, motion information, and prediction signal of motion compensation prediction in the target CU are performed. And an error evaluation value are calculated. Step S60
Details of 8 will be described later.

続いて、符号化ブロック構造選択部117は、対象CUにおけるイントラ予測の誤差評
価値と、動き補償予測の誤差評価値を比較して、誤差の少ない予測手法を選択しイントラ
/インター(動き補償予測)の判定を行う(S609)。
Subsequently, the coding block structure selecting unit 117 compares the error evaluation value of the intra prediction in the target CU with the error evaluation value of the motion compensated prediction, selects a prediction method with a small error, and selects intra / inter (motion compensated prediction). ) Is determined (S609).

次に、再帰的に施された図6のフローチャートの処理(図6のS602−S605)と
誤差評価値の総和算出(S606)によって生成された、対象CUよりも下位階層の(C
U_Depthが大きい)CUに対する誤差評価値と、対象CUの誤差評価値を比較し、
予測に適用するCU_Depthの判定を行う(S610)。
Next, the recursively executed processing in the flowchart of FIG. 6 (S602 to S605 in FIG. 6) and the sum calculation of error evaluation values (S606) (C
Compare the error evaluation value for the CU with the error evaluation value of the target CU (the U_Depth is large)
Determination of CU_Depth applied to prediction is performed (S610).

再帰的に図6のフローチャートで示される処理が呼び出されるために、最も下位(CU
_Depth=Max_CU_Depth)のCUから上位のCUに対して、順次比較が
行われ、CUの分割領域毎の最適なCU_Depthと予測モードが選択できる。
Since the processing shown in the flowchart of FIG. 6 is recursively called, the lowest order (CU
_Depth = Max_CU_Depth) CUs are sequentially compared with higher-order CUs, and the optimum CU_Depth and prediction mode can be selected for each divided region of the CU.

最後に、選択された、対象CUと対象CUより下位のCUの間での最適CU_Dept
h、予測モード及び、選択されたイントラ予測または動き補償予測に関する付加情報と、
誤差評価値及び予測信号が格納され(S611)、対象CUにおける予測モード/予測信
号生成処理が終了する。
Finally, the optimum CU_Dept between the selected target CU and a CU below the target CU
h, additional information about the prediction mode and the selected intra prediction or motion compensated prediction;
The error evaluation value and the prediction signal are stored (S611), and the prediction mode / prediction signal generation process in the target CU ends.

[動き補償予測ブロックサイズ選択/予測信号生成処理の詳細]
次に、図6のフローチャートにおけるステップS608である対象CUにおける動き補
償予測ブロックサイズ選択及び、予測ブロック単位の動き補償予測モード/予測信号生成
処理の詳細について、図7のフローチャートを用いて説明する。
[Details of motion compensation prediction block size selection / prediction signal generation processing]
Next, details of the motion compensated prediction block size selection in step 608 in the flowchart of FIG. 6 and the motion compensation prediction mode / prediction signal generation processing for each prediction block will be described with reference to the flowchart of FIG.

最初に、対象CUに対して予測対象となる符号化ブロック画像を取得する(S700)
。次に、図3に示した構成により、CU内分割モード毎の動き補償予測モード/予測信号
生成処理を行う(S701〜S705)。
First, an encoded block image to be predicted is acquired for the target CU (S700).
. Next, the motion compensation prediction mode / prediction signal generation processing for each intra-CU division mode is performed with the configuration shown in FIG. 3 (S701 to S705).

先ず、CU内分割モードが2N×2Nの場合の動き補償予測モード/予測信号生成処理
を、分割数を示す値であるNumPartを1に設定して行う(S701)。続いて、N
umPartを2に設定して、2N×Nの場合(S702)、N×2Nの場合(S703
)の動き補償予測モード/予測信号生成処理を行う。
First, motion compensated prediction mode / prediction signal generation processing when the intra-CU division mode is 2N × 2N is performed by setting NumPart, which is a value indicating the number of divisions, to 1 (S701). Followed by N
When umPart is set to 2, 2N × N (S702), N × 2N (S703)
) Motion compensation prediction mode / prediction signal generation processing.

次に、CU_DepthがMax_CU_Depthと等しく且つ、対象CUサイズが
8×8で、後述するinter_4x4_enableフラグが1である場合(S704:YES)、Nu
mPartを4に設定して、N×Nの場合の動き補償予測モード/予測信号生成処理を行
う(S705)。ステップS701、S702、S703、S705で施される、動き補
償予測モード/予測信号生成処理の詳細は後述する。ステップS704の条件を満たさな
い場合(S704:NO)には、ステップS705をスキップし後続するステップが施さ
れる。
Next, when CU_Depth is equal to Max_CU_Depth, the target CU size is 8 × 8, and an inter_4x4_enable flag described later is 1 (S704: YES), Nu
The mPart is set to 4, and the motion compensated prediction mode / prediction signal generation process in the case of N × N is performed (S705). Details of the motion compensation prediction mode / prediction signal generation processing performed in steps S701, S702, S703, and S705 will be described later. If the condition of step S704 is not satisfied (S704: NO), step S705 is skipped and the subsequent step is performed.

実施の形態1においては、2N×2N(S701)、2N×N(S702)、N×2N
(S703)、及びN×N(S705)の順で、CU内分割における動き補償予測/予測
信号生成を行っているが、上記CU分割それぞれのステップの処理順に関しては、順序が
変更されても構わず、また並列処理を可能とするCPU等で処理を施す場合に、S701
、S702、S703及びS705を並列に行うことも可能である。
In the first embodiment, 2N × 2N (S701), 2N × N (S702), N × 2N
(S703) and N × N (S705) are motion compensated prediction / prediction signal generation in the intra-CU division, but the processing order of the steps of each of the CU divisions may be changed. Of course, when processing is performed by a CPU or the like that enables parallel processing, S701 is performed.
, S702, S703, and S705 can be performed in parallel.

続いて、動き補償予測モード/予測信号生成を行った、CU内分割モード毎の誤差評価
値を比較し、最適なCU内分割モードである最適予測ブロックサイズ(PU)を選択する
(S706)。選択されたPUに対する予測モード情報/誤差評価値/予測信号が格納さ
れ(S707)、図6のフローチャートにおけるステップS608の処理が終了する。
Subsequently, the error evaluation values for each intra-CU division mode for which motion compensation prediction mode / prediction signal generation has been performed are compared, and the optimum prediction block size (PU) that is the optimum intra-CU division mode is selected (S706). Prediction mode information / error evaluation value / prediction signal for the selected PU is stored (S707), and the process of step S608 in the flowchart of FIG. 6 ends.

[実施の形態1における動き補償予測モードの定義]
図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用され
る動き情報を符号化するための2つの予測モードを説明するための図である。
[Definition of Motion Compensation Prediction Mode in Embodiment 1]
FIGS. 8A and 8B are diagrams for explaining two prediction modes for encoding motion information used in motion compensated prediction according to Embodiment 1 of the present invention.

第一の予測モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブ
ロックにおける時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自
身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号
化に使用する手法であり、結合予測モード(マージモード)と呼ぶ。
In the first prediction mode, the prediction target block directly encodes its own motion information using the continuity of motion in the temporal direction and the spatial direction in the prediction target block and the encoded block adjacent to the prediction target block. In this method, the motion information of spatially and temporally adjacent blocks is used for encoding, which is called a joint prediction mode (merge mode).

ここで、空間的に隣接するブロックとは予測対象ブロックと同じ画像に属する符号化済
みブロックの中で、予測対象ブロックに隣接するブロックを指す。ここで、時間的に隣接
するブロックとは予測対象ブロックとは別の符号化済みの画像に属するブロックの中で、
予測対象ブロックと同一空間位置及びその周辺にあるブロックを指す。
Here, spatially adjacent blocks indicate blocks adjacent to the prediction target block among the encoded blocks belonging to the same image as the prediction target block. Here, temporally adjacent blocks are blocks that belong to an encoded image different from the prediction target block.
A block in the same spatial position as the prediction target block and its surroundings.

結合予測モードの場合には、複数の隣接ブロック候補より選択的に結合する動き情報が
定義でき、動き情報は使用する隣接ブロックを指定する情報(結合動き情報インデックス
)を符号化することで、指定情報をもとに取得した動き情報をそのまま動き補償予測に用
いる。更に、結合予測モードにおいては、予測差分情報を符号化伝送せずに、結合予測モ
ードで予測された予測信号を復号ピクチャとするSkipモードを定義し、結合した動き
情報のみの少ない情報で復号画像が再生できる構成を有する。SkipモードはCU内分
割モードが2N×2Nの場合に用いることが可能であり、Skipモードにおいて伝送す
る動き情報は、結合予測モードと同様に隣接ブロックを定義する指定情報となる。
In the combined prediction mode, motion information that can be selectively combined from a plurality of adjacent block candidates can be defined, and the motion information is specified by encoding information (joined motion information index) that specifies the adjacent block to be used. The motion information acquired based on the information is used as it is for motion compensation prediction. Further, in the joint prediction mode, a Skip mode is defined in which the prediction signal predicted in the joint prediction mode is a decoded picture without encoding prediction transmission of the prediction difference information, and a decoded image is obtained with information having only the combined motion information. Can be reproduced. The Skip mode can be used when the intra-CU division mode is 2N × 2N, and the motion information transmitted in the Skip mode is the designation information that defines the adjacent block as in the combined prediction mode.

第二の予測モードは、動き情報の構成要素を個別にすべて符号化し、予測ブロックに対
して予測誤差の少ない動き情報を伝送する手法であり、動き検出予測モードと呼ぶ。動き
検出予測モードは、従来の動き補償予測の動き情報の符号化と同様に、双予測であるか単
予測であるかを示す予測種別、参照画像を特定するための情報(参照画像インデックス)
と、動きベクトルを特定するための情報が別々に符号化される。
The second prediction mode is a technique for individually coding all the components of motion information and transmitting motion information with little prediction error to the prediction block, and is called a motion detection prediction mode. The motion detection prediction mode is a prediction type indicating whether the prediction is bi-prediction or uni-prediction, and information for specifying a reference image (reference image index), similarly to the encoding of motion information in conventional motion compensation prediction.
And information for specifying the motion vector are encoded separately.

動き検出予測モードには、単予測と双予測のどちらを使用するか予測モードで指示し、
単予測単予測の場合には1つの参照画像に対する参照画像を特定する情報と、動きベクト
ルの予測ベクトルとの差分ベクトルを符号化する。双予測の場合には2つの参照画像に対
する参照画像を特定する情報と、動きベクトルがそれぞれ個別に符号化される。動きベク
トルに対する予測ベクトルは、AVCと同様に隣接ブロックの動き情報から生成されるが
、結合予測モードと同様に、複数の隣接ブロック候補より予測ベクトルに用いる動きベク
トルを選択でき、動きベクトルは予測ベクトルに使用する隣接ブロックを指定する情報(
予測ベクトルインデックス)と差分ベクトルの2つを符号化することで伝送される。
The motion detection prediction mode indicates whether to use single prediction or bi-prediction in the prediction mode,
In the case of single prediction / single prediction, a difference vector between information specifying a reference image for one reference image and a motion vector prediction vector is encoded. In the case of bi-prediction, information for specifying reference images for two reference images and a motion vector are individually encoded. The prediction vector for the motion vector is generated from the motion information of the adjacent block similarly to the AVC. However, similarly to the combined prediction mode, the motion vector used for the prediction vector can be selected from a plurality of adjacent block candidates, and the motion vector is the prediction vector. Information that specifies the adjacent block used for (
A prediction vector index) and a difference vector are encoded and transmitted.

[実施の形態1における、動き補償予測のブロックサイズ及び予測処理を制限する手法
に関する説明]
次に、動き補償予測における予測時に必要な参照画像メモリ量に関する概算値を図9に
示し、実施の形態1における予測ブロックサイズと予測処理の制限手法の説明を行う。動
き補償予測においては、動きの精度を細かくすることで予測精度を向上させており、AV
Cを例にとると、1/4画素精度で動きベクトルを検出・伝送することが可能となってい
る。
[Explanation Regarding Block Size of Motion Compensated Prediction and Method for Limiting Prediction Processing in Embodiment 1]
Next, an approximate value related to the reference image memory amount required at the time of prediction in motion compensation prediction is shown in FIG. 9, and the prediction block size and the prediction processing restriction method in Embodiment 1 will be described. In motion compensated prediction, the accuracy of motion is refined to improve the prediction accuracy.
Taking C as an example, it is possible to detect and transmit a motion vector with 1/4 pixel accuracy.

実施の形態1においても、1/4画素精度で動きベクトルを検出・伝送する構成を取り
、1/4画素精度の動きに対する動き補償予測信号を生成する際には、参照画像に存在す
る整数動き位置の画素を複数画素用いて、補間フィルタにより1/4画素精度の動き位置
の参照画像の画素を算出する。実施の形態1における動画像符号化装置、動画像復号装置
においては、補間フィルタとして7タップのFIRフィルタを用いる。
Also in the first embodiment, when a motion vector is detected and transmitted with ¼ pixel accuracy and a motion compensated prediction signal for a ¼ pixel accuracy motion is generated, an integer motion existing in the reference image is generated. Using a plurality of pixels at the position, a pixel of the reference image at the motion position with a 1/4 pixel accuracy is calculated by an interpolation filter. In the moving picture encoding apparatus and moving picture decoding apparatus according to Embodiment 1, a 7-tap FIR filter is used as an interpolation filter.

7タップのフィルタを施す為には、対象となる位置に最も近い水平・垂直の整数動き位
置の画素に対して、水平および垂直にプラスマイナス6画素の画素を取得する必要がある
。予測ブロックの右境界部分において3/4画素離れた動き位置の予測画像を取得する際
には、対象となる位置に最も近い整数動き位置の画素が、予測ブロックの1画素外に属す
る画素となるため、更に1画素取得する画素が増加し、予測ブロックサイズに対して、水
平および垂直にタップ数と同じ7画素分のフィルタ処理に必要な参照画像取得が必要とな
る。
In order to apply a 7-tap filter, it is necessary to acquire 6 pixels in the horizontal and vertical directions for the pixel at the horizontal / vertical integer motion position closest to the target position. When a predicted image at a motion position that is 3/4 pixels away from the right boundary portion of the prediction block is acquired, a pixel at an integer motion position that is closest to the target position is a pixel that is outside one pixel of the prediction block. Therefore, the number of pixels to be acquired further increases, and it is necessary to acquire a reference image necessary for filtering processing for the same 7 pixels as the number of taps horizontally and vertically with respect to the predicted block size.

図9は、7タップフィルタを施す場合の、実施の形態1における図3で示した動き補償
予測の定義可能なそれぞれの予測ブロックサイズにおいて、単予測及び双予測を行う際に
メモリ帯域として確保が必要な、参照画像のメモリアクセス量を示す。符号化装置及び復
号装置の参照画像メモリの構成によっては、メモリアクセスが水平4画素単位で可能な構
成や、水平・垂直2×2画素単位で可能な構成など、様々な構成を取ることができるが、
上記メモリアクセス量は、参照画像メモリの構成に関わらず最小限取得が必要なメモリア
クセス量の最大値を示している。
FIG. 9 shows a case where a 7-tap filter is applied and a memory band is secured when performing uni-prediction and bi-prediction in each of the predictable block sizes definable for motion compensated prediction shown in FIG. 3 in the first embodiment. Indicates the required memory access amount of the reference image. Depending on the configuration of the reference image memory of the encoding device and the decoding device, various configurations such as a configuration in which memory access is possible in units of horizontal 4 pixels and a configuration in which units of horizontal and vertical 2 × 2 pixels are possible can be taken. But,
The memory access amount indicates the maximum value of the memory access amount that needs to be obtained at the minimum regardless of the configuration of the reference image memory.

予測ブロックサイズの大きさに関わらず、フィルタ処理の為に追加で取得が必要となる
水平・垂直のサイズは変わらないため、4×4画素サイズの場合が最も符号化ブロックサ
イズ(LCU)単位でのメモリアクセス量は大きくなり、64×64画素サイズの6倍近
くのアクセスが必要となる。また、双予測の動き補償予測の場合には、異なる位置の参照
画像から2つの予測信号を取得するため、単予測の2倍のメモリアクセスが必要となる。
Regardless of the size of the predicted block size, the horizontal and vertical sizes that need to be additionally acquired for the filtering process do not change, so the 4 × 4 pixel size is the most encoded block size (LCU) unit. The memory access amount becomes larger, and access of nearly 6 times the size of 64 × 64 pixels is required. In addition, in the case of bi-predictive motion compensated prediction, two prediction signals are acquired from reference images at different positions, so that twice as many memory accesses as in single prediction are required.

動き補償予測のブロックサイズが小さい場合や、双予測の動き補償の場合に確保する必
要があるメモリ帯域は、特に符号化する画像サイズが大きくなりハイビジョン以上の高精
細画像になる場合に大きくなり、符号化装置及び復号装置の実現性が困難になる課題があ
る。本発明においては、メモリ帯域を制限するための、参照画像のメモリアクセス最大量
が段階的に制御できる、動き補償予測の制限手法と制限するための制御パラメータの定義
及び設定手法を提供し、高精細画像における動画像符号化装置の実現性と符号化効率を両
立することを可能とする。
The memory bandwidth that needs to be secured when the block size for motion compensation prediction is small or when motion compensation for bi-prediction is large, especially when the image size to be encoded becomes high definition images that are higher than HD. There is a problem that the feasibility of the encoding device and the decoding device becomes difficult. In the present invention, there are provided a motion compensation prediction limiting method and a control parameter definition and setting method for limiting, in which the memory access maximum amount of the reference image can be controlled step by step to limit the memory bandwidth, It is possible to achieve both the feasibility and encoding efficiency of a moving image encoding apparatus for fine images.

続いて、図10に本発明の実施の形態1における、図1の符号化ブロック制御パラメー
タ生成部122において生成する、動き補償予測のブロックサイズ及び予測処理を制限す
る制御パラメータの一例を示し、説明する。
Next, FIG. 10 shows an example of the motion compensation prediction block size and control parameters for limiting the prediction processing, which are generated by the coding block control parameter generation unit 122 of FIG. 1 according to Embodiment 1 of the present invention. To do.

制御パラメータは、最も小さな動き補償予測ブロックサイズである4×4画素の動き補
償予測の有効・無効を制御するパラメータである、inter_4x4_enableと、動き補償予測の
内、双予測が施される予測処理のみを禁止するブロックサイズを定義する、inter_bipred
_restriction_idcの2つのパラメータで構成される。
The control parameters are inter_4x4_enable, which is a parameter for controlling the validity / invalidity of motion compensated prediction of 4 × 4 pixels, which is the smallest motion compensated prediction block size, and only prediction processing for which bi-prediction is performed among motion compensated predictions Defines the block size that prohibits inter_bipred
Consists of two parameters, _restriction_idc.

図9の必要な参照画像メモリ量を比較すると、最もアクセス量が大きな条件から、4×
4双予測、4×8/8×4双予測、4×4単予測、8×8双予測、8×16/16×8双
予測、4×8/8×4単予測、16×16双予測の順となっており、単予測に関しては、
4×4画素の最小予測ブロックサイズ以外は比較的アクセス量が少ない。
Comparing the necessary reference image memory amounts in FIG. 9, 4 ×
4 bi-prediction, 4 × 8/8 × 4 bi-prediction, 4 × 4 mono-prediction, 8 × 8 bi-prediction, 8 × 16/16 × 8 bi-prediction, 4 × 8/8 × 4 mono-prediction, 16 × 16 bi-prediction The order of prediction is as follows.
The access amount is relatively small except for the minimum predicted block size of 4 × 4 pixels.

そのため、最小予測ブロックサイズに関しては、動き補償予測処理そのものを禁止する
制御パラメータであるinter_4x4_enableを用意し、各ブロックサイズに関して、更に双予
測に対する制限を加えるinter_bipred_restriction_idcを制御パラメータとして用意する
ことで、段階的なメモリアクセス量の制御を明示的に実現できる。
Therefore, with regard to the minimum prediction block size, inter_4x4_enable, which is a control parameter for prohibiting the motion compensation prediction process itself, is prepared, and inter_bipred_restriction_idc that further restricts bi-prediction is prepared as a control parameter for each block size. Can control memory access amount explicitly.

ちなみに、4×8/8×4単予測に関しては、16×16双予測よりはメモリアクセス
量が多くなるが、4×8/8×4単予測に対して制限を加える場合には、それよりもメモ
リアクセス量の大きな4×4及び4×8/8×4双予測にも制限をかける必要があり、そ
の場合には最小CUサイズを16×16に設定することで、CU内分割モードがN×Nで
ある8×8ブロックより小さな予測ブロックサイズの動き補償予測全体を禁止できるため
、動き補償予測処理そのものを禁止に関しては、固定的な最小予測ブロックサイズに対す
る制限を有する構成で、段階的なメモリアクセス量の制御が可能である。
By the way, for 4 × 8/8 × 4 single prediction, the amount of memory access is larger than that of 16 × 16 bi-prediction. However, it is also necessary to limit 4 × 4 and 4 × 8/8 × 4 bi-prediction with a large memory access amount. In this case, by setting the minimum CU size to 16 × 16, the intra-CU partitioning mode is Since the entire motion compensated prediction with a prediction block size smaller than an N × N 8 × 8 block can be prohibited, the motion compensated prediction process itself is prohibited in a configuration having a restriction on a fixed minimum prediction block size. It is possible to control the memory access amount.

上記制御を行う場合には、inter_4x4_enableとinter_bipred_restriction_idcに加えて
、最小CUサイズ値を組合せて、メモリアクセス量の制御を行う構成となる。
When the above control is performed, the memory access amount is controlled by combining the minimum CU size value in addition to inter_4x4_enable and inter_bipred_restriction_idc.

実施の形態1においてinter_bipred_restriction_idcは、図10に示すように0から5
までの値を定義し、双予測に対する制限なしの状態から、16×16ブロック以下のサイ
ズの双予測を制限する状態までを、制御可能としているが、定義の範囲は一例であり、こ
の値よりも少なくまたは多くの制御値を定義することも、本発明の実施の形態の別構成と
して実現できる。
In Embodiment 1, inter_bipred_restriction_idc is 0 to 5 as shown in FIG.
It is possible to control from a state where there is no restriction on bi-prediction to a state where bi-prediction with a size of 16 × 16 blocks or less is limited, but the range of the definition is an example. It is also possible to define as few or many control values as another configuration of the embodiment of the present invention.

所定サイズの動き補償予測全体の無効化を制御するパラメータと、所定サイズ以下の動
き補償予測の双予測を制限する制御パラメータを組合せて、メモリアクセス量の最大値が
所定範囲内に収まるように制御する手法が、本発明の実施の形態1における構成である。
Control that disables the entire motion compensated prediction of a given size and a control parameter that restricts bi-prediction of motion compensated prediction of less than a given size, and controls the maximum memory access amount to be within the prescribed range This technique is the configuration in the first embodiment of the present invention.

[動画像復号装置全体構成]
図11は、本発明の実施の形態1に係る動画像復号装置の構成を示す図である。以下、
各部の動作について説明する。実施の形態1に係る動画像復号装置は、入力端子1100
、多重分離部1101、予測差分情報復号部1102、逆量子化・逆変換部1103、加
算部1104、フレーム内復号画像バッファ1105、ループフィルタ部1106、復号
画像メモリ1107、予測モード/ブロック構造復号部1108、予測モード/ブロック
構造選択部1109、イントラ予測情報復号部1110、動き情報復号部1111、予測
モード情報メモリ1112、イントラ予測部1113、動き補償予測部1114、及び出
力端子1115を備える。
[Overall configuration of video decoding apparatus]
FIG. 11 is a diagram showing a configuration of the moving picture decoding apparatus according to Embodiment 1 of the present invention. Less than,
The operation of each part will be described. The moving picture decoding apparatus according to Embodiment 1 includes an input terminal 1100.
, Demultiplexer 1101, prediction difference information decoder 1102, inverse quantization / inverse transformer 1103, adder 1104, intraframe decoded image buffer 1105, loop filter unit 1106, decoded image memory 1107, prediction mode / block structure decoder 1108, a prediction mode / block structure selection unit 1109, an intra prediction information decoding unit 1110, a motion information decoding unit 1111, a prediction mode information memory 1112, an intra prediction unit 1113, a motion compensation prediction unit 1114, and an output terminal 1115.

入力端子1100より符号化ビットストリームが多重分離部1101に供給される。多
重分離部1101は、供給された符号化ビットストリームの符号列を予測誤差情報の符号
化列と、符号化ブロック及び予測ブロック構造に関する制御パラメータ、符号化ブロック
単位のCU分割構成と予測に用いられたモード情報である、予測モード、動き補償予測の
場合の予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情
報である動き情報、イントラ予測の場合のイントラ予測モード情報で構成される符号化列
に分離する。当該予測誤差情報の符号化列を予測差分情報復号部1102に供給し、制御
パラメータ、及び当該符号化ブロック単位のCU分割構成と予測に用いられたモード情報
の符号化列を予測モード/ブロック構造復号部1108に供給する。
The encoded bit stream is supplied from the input terminal 1100 to the demultiplexing unit 1101. The demultiplexing unit 1101 is used for the code string of the supplied coded bitstream, the coded string of prediction error information, the control parameters related to the coding block and the prediction block structure, the CU partition configuration and coding block unit, and the prediction. Mode information, prediction mode according to the prediction mode in the case of motion compensated prediction, motion vector that is information specifying the motion vector, and reference image designation information, and intra prediction mode information in the case of intra prediction. Separate into coded sequences to be constructed. The coding sequence of the prediction error information is supplied to the prediction difference information decoding unit 1102, and the control parameter, the CU partition configuration of the coding block unit, and the coding sequence of the mode information used for prediction are predicted mode / block structure It supplies to the decoding part 1108.

予測差分情報復号部1102は、多重分離部1101より供給された予測誤差情報の符
号化列を復号し、量子化された予測誤差信号を生成する。予測差分情報復号部1102は
、生成した量子化された予測誤差信号を逆量子化・逆変換部1103に供給する。
The prediction difference information decoding unit 1102 decodes the encoded sequence of the prediction error information supplied from the demultiplexing unit 1101, and generates a quantized prediction error signal. The prediction difference information decoding unit 1102 supplies the generated quantized prediction error signal to the inverse quantization / inverse transform unit 1103.

逆量子化・逆変換部1103は、予測差分情報復号部1102より供給される、量子化
された予測誤差信号を、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し
、復号予測誤差信号を加算部1104に供給する。
The inverse quantization / inverse transform unit 1103 performs a process such as inverse quantization or inverse orthogonal transform on the quantized prediction error signal supplied from the prediction difference information decoding unit 1102 to generate a prediction error signal, The decoded prediction error signal is supplied to the adding unit 1104.

加算部1104は、逆量子化・逆変換部1103より供給される復号予測誤差信号と、
予測モード/ブロック構造選択部1109より供給される予測信号を加算して復号画像信
号を生成し、復号画像信号をフレーム内復号画像バッファ1105及びループフィルタ部
1106に供給する。
The adding unit 1104 includes a decoded prediction error signal supplied from the inverse quantization / inverse transform unit 1103,
The prediction signals supplied from the prediction mode / block structure selection unit 1109 are added to generate a decoded image signal, and the decoded image signal is supplied to the intra-frame decoded image buffer 1105 and the loop filter unit 1106.

フレーム内復号画像バッファ1105は、図1の動画像符号化装置におけるフレーム内
復号画像バッファ108と同じ機能を有し、イントラ予測の参照画像としてイントラ予測
部1113に同一フレーム内の復号画像信号を供給すると共に、加算部1104から供給
された復号画像信号を格納する。
The intra-frame decoded image buffer 1105 has the same function as the intra-frame decoded image buffer 108 in the moving picture encoding apparatus in FIG. 1, and supplies a decoded image signal in the same frame to the intra prediction unit 1113 as a reference image for intra prediction. At the same time, the decoded image signal supplied from the adding unit 1104 is stored.

ループフィルタ部1106は、図1の動画像符号化装置におけるループフィルタ部10
9と同じ機能を有し、加算部1104より供給される復号画像信号に対して、歪除去のフ
ィルタを施し、フィルタ処理を行った結果の復号画像を復号画像メモリ1107に供給す
る。
The loop filter unit 1106 is the loop filter unit 10 in the moving image encoding apparatus of FIG.
9, a distortion removal filter is applied to the decoded image signal supplied from the adder 1104, and a decoded image obtained as a result of the filtering process is supplied to the decoded image memory 1107.

復号画像メモリ1107は、図1の動画像符号化装置における復号画像メモリ110と
同じ機能を有し、ループフィルタ部1106から供給された復号画像信号を格納し、参照
画像信号を動き補償予測部1114に供給する。また、復号画像メモリ1107は、格納
された復号画像信号を再生時刻に合わせて、画像の表示順序に従い出力端子1115に供
給する。
The decoded image memory 1107 has the same function as the decoded image memory 110 in the moving image encoding apparatus in FIG. 1, stores the decoded image signal supplied from the loop filter unit 1106, and uses the reference image signal as the motion compensation prediction unit 1114. To supply. The decoded image memory 1107 supplies the stored decoded image signal to the output terminal 1115 in accordance with the display order of images in accordance with the reproduction time.

予測モード/ブロック構造復号部1108は、多重分離部1101より供給される、符
号化ブロック及び予測ブロック構造に関する制御パラメータより、図3で示されるCU構
造を定義する制御パラメータや、図10で示されるような動き補償予測のブロック構成及
び予測処理を制限する制御パラメータを生成する。
The prediction mode / block structure decoding unit 1108 is a control parameter that defines the CU structure shown in FIG. 3 based on the control parameters related to the coding block and the prediction block structure supplied from the demultiplexing unit 1101, and the control parameter shown in FIG. Such a motion compensation prediction block configuration and control parameters for limiting the prediction process are generated.

また、予測モード/ブロック構造復号部1108は、多重分離部1101より供給され
る、当該符号化ブロック単位のCU分割構成と予測に用いられたモード情報の符号化列よ
り、符号化ブロック単位のCU分割構成と予測に用いられたモード情報を復号し、予測ブ
ロックサイズ及び予測モードを生成すると共に、動き補償予測の場合の予測モードに応じ
た予測種別、動きベクトル、及び参照画像指定情報を特定する情報である動き情報、イン
トラ予測の場合のイントラ予測モード情報を分離し、当該符号化ブロック単位のCU分割
構成と、予測モード情報を予測モード/ブロック構造選択部1109に供給する。
Also, the prediction mode / block structure decoding unit 1108 uses the CU division configuration for each coding block unit supplied from the demultiplexing unit 1101 and the coding sequence of the mode information used for prediction to determine the CU for each coding block unit. The mode information used for the division configuration and prediction is decoded to generate a prediction block size and a prediction mode, and the prediction type, motion vector, and reference image designation information corresponding to the prediction mode in the case of motion compensated prediction are specified. The motion information, which is information, and the intra prediction mode information in the case of intra prediction are separated, and the CU partition configuration and the prediction mode information for each coding block are supplied to the prediction mode / block structure selection unit 1109.

予測モード/ブロック構造復号部1108は、予測ブロックにイントラ予測が用いられ
ている場合には、イントラ予測情報復号部1110に予測ブロックサイズと共に、イント
ラ予測モード情報を供給し、動き補償予測が用いられている場合には、動き情報復号部1
111に予測ブロックサイズと共に、動き補償予測モード、並びに予測モードに応じた予
測種別、動きベクトル、及び参照画像指定情報を特定する情報を供給する。
When intra prediction is used for the prediction block, the prediction mode / block structure decoding unit 1108 supplies intra prediction mode information to the intra prediction information decoding unit 1110 together with the prediction block size, and motion compensated prediction is used. If so, the motion information decoding unit 1
Information for specifying the motion compensation prediction mode, the prediction type according to the prediction mode, the motion vector, and the reference image designation information is supplied to 111 along with the prediction block size.

イントラ予測情報復号部1110は、予測モード/ブロック構造復号部1108より供
給された予測ブロックサイズ、イントラ予測モード情報を復号し、符号化対象ブロックに
対する予測ブロック構造と各予測ブロックにおけるイントラ予測モードを再生する。イン
トラ予測情報復号部1110は、再生したイントラ予測モードをイントラ予測部1113
に供給すると共に、予測モード情報メモリ1112に対しても供給する。
The intra prediction information decoding unit 1110 decodes the prediction block size and intra prediction mode information supplied from the prediction mode / block structure decoding unit 1108, and reproduces the prediction block structure for the encoding target block and the intra prediction mode in each prediction block. To do. The intra prediction information decoding unit 1110 sets the reproduced intra prediction mode to the intra prediction unit 1113.
And also to the prediction mode information memory 1112.

動き情報復号部1111は、予測モード/ブロック構造復号部1108より供給された
、予測ブロックサイズ、動き補償予測モード、並びに予測モードに応じた予測種別、動き
ベクトル、及び参照画像指定情報を特定する情報を動き情報として復号し、復号した動き
情報と、予測モード情報メモリ1112より供給される候補ブロック群の動き情報より、
動き補償予測に用いる予測種別、動きベクトル及び参照画像指定情報を再生し、動き補償
予測部1114に供給する。また、動き情報復号部1111は再生した動き情報を、予測
モード情報メモリ1112に対しても供給する。動き情報復号部1111の詳細な構成に
ついては後述する。
The motion information decoding unit 1111 is supplied from the prediction mode / block structure decoding unit 1108 and specifies the prediction block size, the motion compensation prediction mode, and the prediction type, motion vector, and reference image designation information corresponding to the prediction mode. From the decoded motion information and the motion information of the candidate block group supplied from the prediction mode information memory 1112,
The prediction type, motion vector, and reference image designation information used for motion compensation prediction are reproduced and supplied to the motion compensation prediction unit 1114. The motion information decoding unit 1111 also supplies the reproduced motion information to the prediction mode information memory 1112. A detailed configuration of the motion information decoding unit 1111 will be described later.

予測モード情報メモリ1112は、図1の動画像符号化装置における予測モード情報メ
モリ119と同じ機能を持ち、動き情報復号部1111より供給される再生した動き情報
、及びイントラ予測情報復号部1110から供給されるイントラ予測モードを、最小予測
ブロックサイズ単位を基準として所定画像分記憶する。また、予測モード情報メモリ11
12は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き
情報として動き情報復号部1111に供給すると共に、同一フレーム内の復号済隣接ブロ
ックのイントラ予測モード情報を、対象予測ブロックのモード情報の予測候補として、イ
ントラ予測情報復号部1110に供給する。
The prediction mode information memory 1112 has the same function as the prediction mode information memory 119 in the moving picture encoding apparatus in FIG. 1 and is supplied from the reproduced motion information supplied from the motion information decoding unit 1111 and the intra prediction information decoding unit 1110. The intra prediction mode to be performed is stored for a predetermined image on the basis of the minimum prediction block size unit. The prediction mode information memory 11
12 supplies the motion information of the spatial candidate block group and the temporal candidate block group to the motion information decoding unit 1111 as the motion information of the candidate block group, and the intra prediction mode information of the decoded adjacent block in the same frame The prediction block mode information is supplied to the intra prediction information decoding unit 1110 as a prediction candidate of the prediction block mode information.

イントラ予測部1113は、図1の動画像符号化装置におけるイントラ予測部114と
同じ機能を持ち、イントラ予測情報復号部1110より供給されるイントラ予測モードに
従って、フレーム内復号画像バッファ1105よりイントラ予測の参照画像を入力し、イ
ントラ予測信号を生成して、予測モード/ブロック構造選択部1109に供給する。
The intra prediction unit 1113 has the same function as the intra prediction unit 114 in the moving picture coding apparatus in FIG. 1, and performs intra prediction from the intra-frame decoded image buffer 1105 according to the intra prediction mode supplied from the intra prediction information decoding unit 1110. A reference image is input, an intra prediction signal is generated, and supplied to the prediction mode / block structure selection unit 1109.

動き補償予測部1114は、図1の動画像符号化装置における動き補償予測部112と
同じ機能を持ち、動き情報復号部1111より供給される動き情報に基づいて、復号画像
メモリ1107内の参照画像指定情報が示す参照画像を、動きベクトル値だけ予測ブロッ
クの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。
動き補償予測の予測種別が双予測であれば、各予測種別の予測信号を平均したものを予測
信号として生成し、予測信号を予測モード/ブロック構造選択部1109に供給する。
The motion compensation prediction unit 1114 has the same function as the motion compensation prediction unit 112 in the video encoding device of FIG. 1, and based on the motion information supplied from the motion information decoding unit 1111, the reference image in the decoded image memory 1107. A prediction signal is generated by acquiring an image signal at a position obtained by moving the reference image indicated by the designation information from the same position as the image signal of the prediction block by the motion vector value.
If the prediction type of motion compensation prediction is bi-prediction, an average of the prediction signals of each prediction type is generated as a prediction signal, and the prediction signal is supplied to the prediction mode / block structure selection unit 1109.

予測モード/ブロック構造選択部1109は、予測モード/ブロック構造復号部110
8より供給された、当該符号化ブロック単位のCU分割構成と、予測モード情報を元に、
CU分割を行い、再生された予測ブロック構造単位の予測モードによって、動き補償予測
の場合には、動き補償予測部1114より動き補償予測信号を入力し、イントラ予測の場
合には、イントラ予測部1113よりイントラ予測信号を入力し、再生された予測信号を
加算部1104に供給する。
The prediction mode / block structure selection unit 1109 is provided with a prediction mode / block structure decoding unit 110.
8 based on the CU partitioning configuration of the coding block unit and prediction mode information supplied from FIG.
In the case of motion compensated prediction, a motion compensated prediction signal is input from the motion compensated prediction unit 1114 according to the prediction mode of the prediction block structure unit that has been CU-divided and reproduced, and in the case of intra prediction, the intra prediction unit 1113 is input. Further, an intra prediction signal is input, and the reproduced prediction signal is supplied to the adding unit 1104.

出力端子1115は、復号画像メモリ1107より供給された復号画像信号を、ディス
プレイなどの表示媒体に出力することで、復号画像信号が再生される。
The output terminal 1115 outputs the decoded image signal supplied from the decoded image memory 1107 to a display medium such as a display, thereby reproducing the decoded image signal.

図11に示した動画像復号装置の構成も、図1に示した動画像符号化装置の構成と同様
に、CPU、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェ
アによっても実現可能である。
The configuration of the video decoding device shown in FIG. 11 can also be realized by hardware such as an information processing device including a CPU, a frame memory, a hard disk, and the like, similarly to the configuration of the video encoding device shown in FIG. is there.

図12は、本発明の実施の形態1に係る動画像復号装置における復号処理の符号化ブロ
ック単位の動作の流れを示すフローチャートである。最初にCU分割の制御パラメータで
あるCU_Depthを0に初期化(S1200)し、多重分離部1101は、入力端子
1100より供給された符号化ビットストリームを予測誤差情報の符号化列と、当該符号
化ブロック単位のCU分割構成と予測に用いられたモード情報の符号化列に分離する(S
1201)。分離された符号化ブロック単位の予測誤差情報の符号化列と、当該符号化ブ
ロック単位のCU分割構成と予測に用いられたモード情報の符号化列が予測差分情報復号
部1102及び、予測モード/ブロック構造復号部1108に供給され、CU分割構造を
元にしたCU単位の復号処理が施される(S1202)。ステップS1202の詳細動作
に関しては、後述する。
FIG. 12 is a flowchart showing a flow of operation in units of coding blocks of decoding processing in the video decoding apparatus according to Embodiment 1 of the present invention. First, CU_Depth, which is a control parameter for CU partitioning, is initialized to 0 (S1200), and the demultiplexing unit 1101 converts the coded bitstream supplied from the input terminal 1100 into the coded sequence of prediction error information and the coded data. A block-by-block CU partitioning configuration and mode information coding sequences used for prediction are separated (S
1201). The encoded sequence of prediction error information in units of encoded blocks, the CU partition configuration in units of the encoded blocks, and the encoded sequence of mode information used for prediction are the prediction difference information decoding unit 1102, the prediction mode / It is supplied to the block structure decoding unit 1108 and subjected to decoding processing in units of CUs based on the CU partition structure (S1202). The detailed operation of step S1202 will be described later.

続いて、当該符号化ブロック単位のCU分割構成は、ステップS1202で予測モード
/ブロック構造復号部1108において復号され、復号された符号化構造情報が予測モー
ド情報メモリ1112に格納される(S1203)。
Subsequently, the coding block unit CU partitioning configuration is decoded by the prediction mode / block structure decoding unit 1108 in step S1202, and the decoded coding structure information is stored in the prediction mode information memory 1112 (S1203).

CU単位の復号処理(S1202)により復号された復号画像信号は、ループフィルタ
部1106においてループフィルタ処理が施され(S1204)、復号画像メモリ110
7に格納され(S1205)、符号化ブロック単位の復号処理が終了する。実施の形態1
において、符号化ブロック単位の処理でループフィルタを施しているが、ループフィルタ
を施した復号画像信号は、同一フレームの復号処理には参照されず、後続するフレームの
動き補償予測において参照されるため、符号化ブロック単位の処理を行わずに、フレーム
全体の復号処理完了後に、フレーム全体に対して施すことも可能である。
The decoded image signal decoded by the CU unit decoding process (S1202) is subjected to loop filter processing in the loop filter unit 1106 (S1204), and the decoded image memory 110 is processed.
7 (S1205), and the decoding process for each coding block is completed. Embodiment 1
However, the decoded image signal subjected to the loop filter is not referred to in the decoding process of the same frame, but is referred to in the motion compensation prediction of the subsequent frame. It is also possible to perform the process on the entire frame after the decoding process for the entire frame is completed without performing the process for each coding block.

[CU単位の復号処理の詳細]
続いて、図12のフローチャートにおけるステップS1202であるCU単位の復号処
理の詳細について、図13のフローチャートを用いて説明する。
[Details of decryption processing in CU units]
Next, details of the decoding process in units of CUs, which is step S1202 in the flowchart of FIG. 12, will be described using the flowchart of FIG.

最初に、設定された最大CUサイズと最小CUサイズの間の階層数を示す値Max_C
U_Depthに対して、対象CUのCU_Depthが小さいか否かを判定する(S1
300)。図3における最大CUサイズ及び最小CUサイズに関する制御パラメータが符
号化・伝送されるため、復号処理において制御パラメータを復号することで、符号化時の
Max_CU_Depthは復号される。Max_CU_Depthを定義する符号化情
報の一例に関しては後述する。
First, a value Max_C indicating the number of layers between the set maximum CU size and minimum CU size.
It is determined whether or not the CU_Depth of the target CU is smaller than U_Depth (S1).
300). Since the control parameters relating to the maximum CU size and the minimum CU size in FIG. 3 are encoded and transmitted, Max_CU_Depth at the time of encoding is decoded by decoding the control parameters in the decoding process. An example of the encoding information that defines Max_CU_Depth will be described later.

CU_DepthがMax_CU_Depthより小さい場合には(S1300:YE
S)、CU分割情報を取得する(S1301)。一例としては、1ビットのフラグ情報(
cu_split_flag)が、CUを分割するか否かの選択に合わせて、符号化・伝送され、この
フラグ情報を復号することで、CUが分割されているか否かを認識する。
When CU_Depth is smaller than Max_CU_Depth (S1300: YE
S) and CU partition information is acquired (S1301). As an example, 1-bit flag information (
cu_split_flag) is encoded and transmitted in accordance with the selection of whether or not to divide the CU, and by decoding this flag information, it is recognized whether or not the CU is divided.

CUが分割されている場合(S1302:YES)には、CUを分割して復号するため
、CU分割CU_Depthを1加算して(S1303)一階層下のCUに対するCU単
位の復号処理を行う(S1304−S1307)、CUの分割領域に対して分割1領域の
処理(S1304)、分割2領域の処理(S1305)、分割3領域の処理(S1306
)、分割4領域の処理(S1307)の順で再帰的に図13のフローチャートで説明され
る処理が行われる。
When the CU is divided (S1302: YES), in order to divide and decode the CU, 1 is added to the CU division CU_Depth (S1303), and the CU unit decoding process is performed on the CU one layer below (S1304). -S1307), division 1 area processing (S1304), division 2 area processing (S1305), division 3 area processing (S1306)
), The processing described in the flowchart of FIG. 13 is recursively performed in the order of the processing of the divided four regions (S1307).

CU_DepthがMax_CU_Depth以上の場合(S1300:NO)及び、
CUが分割されていない場合(S1302:NO)には、復号対象となるCUの大きさが
確定し、確定したCU内の予測モードに応じた復号処理が施される。
When CU_Depth is greater than or equal to Max_CU_Depth (S1300: NO),
When the CU is not divided (S1302: NO), the size of the CU to be decoded is determined, and a decoding process is performed according to the prediction mode in the determined CU.

最初に、CU内の予測にイントラ予測が用いられているか、動き補償予測が用いられて
いるかを示す情報を取得する。(S1308)。実施の形態1においては、CU単位でs
kipモードであるか否かを示すskipフラグ情報(skip_flag)、また当該CUがs
kipモードで無い場合にイントラ予測であるか動き補償予測であるかを示す予測モード
フラグ情報(pred_mode_flag)が符号化時にCU単位の予測モード情報として符号化され
ており、これらを復号する事により、イントラ予測であるか、動き補償予測(skipモ
ードを含む)であるかの情報が取得できる。
First, information indicating whether intra prediction or motion compensation prediction is used for prediction within a CU is acquired. (S1308). In the first embodiment, s in CU units
skip flag information (skip_flag) indicating whether or not the mode is the skip mode, and the CU is s
Prediction mode flag information (pred_mode_flag) indicating whether it is intra prediction or motion compensation prediction when not in the kip mode is encoded as prediction mode information in CU units at the time of encoding, and by decoding these, Information about whether the prediction is intra prediction or motion compensation prediction (including skip mode) can be acquired.

続いて、当該CUがイントラ予測である場合には(S1309:YES)、CU単位の
イントラ予測復号処理が、図11のイントラ予測情報復号部1110及びイントラ予測部
1113で行われ(S1311)、対象CUにおけるイントラ予測信号を生成し、復号誤
差信号と加算されることにより、復号画像信号を生成し(S1312)、CU単位の復号
処理を終了する。
Subsequently, when the CU is intra prediction (S1309: YES), intra prediction decoding processing for each CU is performed by the intra prediction information decoding unit 1110 and the intra prediction unit 1113 in FIG. 11 (S1311), and the target An intra prediction signal in the CU is generated and added to the decoding error signal to generate a decoded image signal (S1312), and the decoding process in units of CUs is completed.

当該CUがイントラ予測でない場合には(S1309:NO)、CU単位の動き補償予
測復号処理が、図11の動き情報復号部1111及び動き補償予測部1114で行われ(
S1310)、対象CUにおける動き補償予測信号を生成し、復号誤差信号と加算される
ことにより、復号画像信号を生成し(S1312)、CU単位の復号処理を終了する。ス
テップS1310の動作の詳細に関しては後述する。
When the CU is not intra prediction (S1309: NO), motion compensation prediction decoding processing for each CU is performed by the motion information decoding unit 1111 and the motion compensation prediction unit 1114 in FIG.
In step S1310, a motion compensated prediction signal in the target CU is generated and added to the decoding error signal to generate a decoded image signal (S1312), and the decoding process for each CU is terminated. Details of the operation in step S1310 will be described later.

続いて、図13のフローチャートにおけるステップS1310である対象CUにおける
動き補償予測復号処理の詳細について、図14のフローチャートを用いて説明する。最初
に、CU単位の予測モードを示す情報として復号したskipフラグを取得し(S140
0)、skipフラグが1である、すなわちskipモードである場合(S1401:Y
ES)には、CU内の予測ブロック分割モードは2N×2Nとなり、NumPartが1
に設定され2N×2N予測ブロックの予測ブロック単位復号が施される(S1402)。
Next, details of the motion compensated prediction decoding process in the target CU, which is Step S1310 in the flowchart of FIG. 13, will be described using the flowchart of FIG. First, a skip flag decoded as information indicating a prediction mode in CU units is acquired (S140).
0), when the skip flag is 1, that is, in the skip mode (S1401: Y)
ES), the prediction block division mode in the CU is 2N × 2N, and NumPart is 1.
And 2N × 2N prediction block prediction block decoding is performed (S1402).

skip_flagが0である、すなわちskipモードでない場合(S1401:N
O)には、CU分割(PU)モードとして、符号化時に当該CUで選択した動き補償予測
ブロックサイズの種別であるCU内分割モード値を、予測モード情報より取得し(S14
03)、PUモードが2N×2Nの場合(S1404:YES)には、NumPartが
1に設定され2N×2N予測ブロックの予測ブロック単位復号が施される(S1402)
When skip_flag is 0, that is, when the skip mode is not set (S1401: N)
O), as the CU partition (PU) mode, an intra-CU partition mode value that is the type of the motion compensated prediction block size selected by the CU at the time of encoding is acquired from the prediction mode information (S14).
03) When the PU mode is 2N × 2N (S1404: YES), NumPart is set to 1 and prediction block unit decoding of the 2N × 2N prediction block is performed (S1402).
.

PUモードが2N×2Nでない場合(S1404:NO)、PUモードが2N×Nの場
合(S1405:YES)には、NumPartが2に設定され2N×N予測ブロックの
予測ブロック単位復号が施される(S1406)。
When the PU mode is not 2N × 2N (S1404: NO) and when the PU mode is 2N × N (S1405: YES), NumPart is set to 2 and prediction block unit decoding of 2N × N prediction blocks is performed. (S1406).

続いて、CU_DepthがMax_CU_Depthと等しく且つ、対象CUサイズ
が8×8で、後述するinter_4x4_enableフラグが1である場合(S1407:YES)に
は、更にPUモードがN×2Nであるか否かを判定し(S1409)、PUモードがN×
2Nである場合(S1409:YES)には、NumPartが2に設定され、N×2N
予測ブロックの予測ブロック単位復号が施される(S1408)。
Subsequently, when CU_Depth is equal to Max_CU_Depth, the target CU size is 8 × 8, and an inter_4x4_enable flag described later is 1 (S1407: YES), it is further determined whether or not the PU mode is N × 2N. (S1409) and PU mode is N ×
In the case of 2N (S1409: YES), NumPart is set to 2 and N × 2N
Prediction block unit decoding of the prediction block is performed (S1408).

PUモードがN×2Nでない場合(S1409:NO)には、PUモードはN×Nとな
り、NumPartを4に設定して、N×N予測ブロックの予測ブロック単位復号が施さ
れる(S1410)。
When the PU mode is not N × 2N (S1409: NO), the PU mode is N × N, NumPart is set to 4, and prediction block unit decoding of the N × N prediction block is performed (S1410).

ステップS1407の条件を満たさない場合(S1407:NO)には、当該CUにお
いてN×N予測ブロックは適用されないため、NumPartが2に設定され、N×2N
予測ブロックの予測ブロック単位復号が施される(S1408)。ステップS1402、
S1406、S1408、S1410で施される、PUモード毎の予測ブロック単位復号
処理の詳細は後述する。
When the condition of step S1407 is not satisfied (S1407: NO), since the N × N prediction block is not applied in the CU, NumPart is set to 2 and N × 2N
Prediction block unit decoding of the prediction block is performed (S1408). Step S1402,
Details of the prediction block unit decoding process for each PU mode performed in S1406, S1408, and S1410 will be described later.

実施の形態1においては、復号したPUモードに対する予測ブロック単位の復号処理を
選択するための条件判断に関しては、図14のフローチャートに示すように、ステップS
1404からS1409までに示した順番で処理を行っているが、復号したPUモードに
従って、予測ブロック単位の復号処理が施される構成であれば、条件分岐の順番に関して
は異なる構成でも実現可能である。
In the first embodiment, regarding the condition determination for selecting the decoding process in units of prediction blocks for the decoded PU mode, as shown in the flowchart of FIG.
The processing is performed in the order shown from 1404 to S1409. However, as long as the decoding process is performed in units of prediction blocks according to the decoded PU mode, it is possible to realize a different configuration regarding the order of conditional branches. .

PUモード毎の予測ブロック単位復号処理が施された後、PUモード及び予測ブロック
単位の動き情報等のモード情報が、図11における予測モード情報メモリ1112に格納
され(S1411)、当該CUに対する動き補償予測復号処理が終了する。
After the prediction block unit decoding process for each PU mode is performed, mode information such as the PU mode and motion information for each prediction block is stored in the prediction mode information memory 1112 in FIG. 11 (S1411), and motion compensation for the CU is performed. The predictive decoding process ends.

[実施の形態1の詳細機能説明]
続いて、本発明の実施の形態1に係る動画像符号化装置の動き補償予測ブロック構造選
択部113の動作、図7のフローチャートにおけるステップS701、S702、S70
3、S705の処理の詳細動作を、以下説明する。
[Detailed Function Description of Embodiment 1]
Subsequently, the operation of the motion compensated prediction block structure selection unit 113 of the video encoding apparatus according to Embodiment 1 of the present invention, steps S701, S702, and S70 in the flowchart of FIG.
3. Detailed operation of the processing of S705 will be described below.

[実施の形態1における動画像符号化装置における動き補償予測ブロック構造選択部の
詳細動作説明]
図15は、実施の形態1の動画像符号化装置における動き補償予測ブロック構造選択部
113の詳細な構成を示す図である。動き補償予測ブロック構造選択部113は、最適な
動き補償予測モード及び予測ブロック構造を決定する機能を有する。
[Detailed Operation Explanation of Motion Compensated Prediction Block Structure Selection Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 15 is a diagram illustrating a detailed configuration of the motion compensated prediction block structure selection unit 113 in the video encoding device according to the first embodiment. The motion compensation prediction block structure selection unit 113 has a function of determining an optimal motion compensation prediction mode and a prediction block structure.

動き補償予測ブロック構造選択部113は、動き補償予測生成部1500、予測誤差算
出部1501、予測ベクトル算出部1502、差分ベクトル算出部1503、動き情報符
号量算出部1504、予測モード/ブロック構造評価部1505、結合動き情報算出部1
506、結合動き情報単予測変換部1507、及び結合動き補償予測生成部1508を含
む。
The motion compensation prediction block structure selection unit 113 includes a motion compensation prediction generation unit 1500, a prediction error calculation unit 1501, a prediction vector calculation unit 1502, a difference vector calculation unit 1503, a motion information code amount calculation unit 1504, and a prediction mode / block structure evaluation unit. 1505, combined motion information calculation unit 1
506, a combined motion information single prediction conversion unit 1507, and a combined motion compensation prediction generation unit 1508 are included.

図1における動き補償予測ブロック構造選択部113に対して、動きベクトル検出部1
11より入力された動きベクトル値が、動き補償予測生成部1500に供給され、予測モ
ード情報メモリ119より入力された動き情報が、予測ベクトル算出部1502、及び結
合動き情報算出部1506に供給される。
For the motion compensated prediction block structure selection unit 113 in FIG.
11 is supplied to the motion compensation prediction generation unit 1500, and the motion information input from the prediction mode information memory 119 is supplied to the prediction vector calculation unit 1502 and the combined motion information calculation unit 1506. .

また、動き補償予測部112に対して、動き補償予測生成部1500、及び結合動き補
償予測生成部1508から、動き補償予測に用いる参照画像指定情報と動きベクトルが出
力され、動き補償予測部112より、生成された動き補償予測画像が予測誤差算出部15
01に供給される。予測誤差算出部1501には更に、符号化ブロック取得部102より
符号化対象となる予測ブロックの画像信号が供給される。
In addition, reference image designation information and motion vectors used for motion compensation prediction are output from the motion compensation prediction generation unit 1500 and the combined motion compensation prediction generation unit 1508 to the motion compensation prediction unit 112. The generated motion compensated prediction image is the prediction error calculation unit 15.
01 is supplied. The prediction error calculation unit 1501 is further supplied with an image signal of a prediction block to be encoded from the encoding block acquisition unit 102.

また、予測モード/ブロック構造評価部1505から、予測モード選択部116に対し
て、予測ブロック構造、符号化する動き情報と確定した予測モード情報、及び動き補償予
測信号を供給する。
Also, the prediction mode / block structure evaluation unit 1505 supplies the prediction block structure, the motion information to be encoded and the determined prediction mode information, and the motion compensated prediction signal to the prediction mode selection unit 116.

動き補償予測生成部1500は、各予測ブロック構造において、予測に使用可能な各参
照画像に対して算出された動きベクトル値を受信し、図10で示される双予測制限情報に
従って動き補償予測を行い、参照画像指定情報を予測ベクトル算出部1502に供給し、
参照画像指定情報と動きベクトルを出力する。
The motion compensation prediction generation unit 1500 receives the motion vector value calculated for each reference image usable for prediction in each prediction block structure, and performs motion compensation prediction according to the bi-prediction restriction information shown in FIG. , Supply the reference image designation information to the prediction vector calculation unit 1502,
Reference image designation information and motion vectors are output.

予測誤差算出部1501は、入力された動き補償予測画像と処理対象の予測ブロック画
像より、予測誤差評価値を算出する。誤差評価値を算出するための演算としては、動きベ
クトル検出における誤差評価値と同様に、画素毎の差分絶対値の総和SADや、画素毎の
二乗誤差値の総和SSE等を使用できる。更に、予測残差の符号化を行う際に施される、
直交変換・量子化を行うことによって復号画像に生じる歪成分の量を加味することで、よ
り正確な誤差評価値が算出可能である。この場合には、予測誤差算出部1501内に、図
1における減算部103、直交変換・量子化部104、逆量子化・逆変換部106、加算
部107の機能を有することで実現できる。
The prediction error calculation unit 1501 calculates a prediction error evaluation value from the input motion compensated prediction image and the prediction block image to be processed. As the calculation for calculating the error evaluation value, the sum SAD of the absolute difference value for each pixel, the sum SSE of the square error value for each pixel, and the like can be used as in the error evaluation value in motion vector detection. Furthermore, it is performed when encoding the prediction residual.
A more accurate error evaluation value can be calculated by taking into account the amount of distortion components generated in the decoded image by performing orthogonal transformation and quantization. In this case, the prediction error calculation unit 1501 can be realized by having the functions of the subtraction unit 103, the orthogonal transformation / quantization unit 104, the inverse quantization / inverse transformation unit 106, and the addition unit 107 in FIG.

予測誤差算出部1501は、各予測モード及び各予測ブロック構造において算出された
予測誤差評価値と、動き補償予測信号を予測モード/ブロック構造評価部1505に供給
する。
The prediction error calculation unit 1501 supplies the prediction error evaluation value calculated in each prediction mode and each prediction block structure and the motion compensation prediction signal to the prediction mode / block structure evaluation unit 1505.

予測ベクトル算出部1502は、動き補償予測生成部1500より参照画像指定情報を
供給され、予測モード情報メモリ119から供給される隣接ブロックの動き情報における
候補ブロック群より、指定された参照画像に対する動きベクトル値を入力し、複数の予測
ベクトルを予測ベクトル候補リストと共に生成し、差分ベクトル算出部1503に、参照
画像指定情報と共に供給する。予測ベクトル算出部1502は、予測ベクトルの候補を作
成し、予測ベクトル候補として登録する。
The prediction vector calculation unit 1502 is supplied with the reference image designation information from the motion compensation prediction generation unit 1500, and the motion vector for the designated reference image from the candidate block group in the adjacent block motion information supplied from the prediction mode information memory 119. A value is input, a plurality of prediction vectors are generated together with a prediction vector candidate list, and supplied to the difference vector calculation unit 1503 together with reference image designation information. The prediction vector calculation unit 1502 creates prediction vector candidates and registers them as prediction vector candidates.

差分ベクトル算出部1503は、予測ベクトル算出部1502より供給された、予測ベ
クトル候補のそれぞれに対して、動き補償予測生成部1500から供給される動きベクト
ル値との差分を計算し、差分ベクトル値を算出する。算出された差分ベクトル値と予測ベ
クトル候補に対する指定情報である予測ベクトルインデックスを符号化した際、符号量が
最も少ない。差分ベクトル算出部1503は、最も少ない情報量である予測ベクトルに対
する予測ベクトルインデックスと差分ベクトル値を参照画像指定情報と共に、動き情報符
号量算出部1504に供給する。
The difference vector calculation unit 1503 calculates the difference between each of the prediction vector candidates supplied from the prediction vector calculation unit 1502 and the motion vector value supplied from the motion compensated prediction generation unit 1500, and calculates the difference vector value. calculate. When the prediction vector index which is the designation information for the calculated difference vector value and the prediction vector candidate is encoded, the code amount is the smallest. The difference vector calculation unit 1503 supplies the prediction vector index and the difference vector value for the prediction vector having the smallest information amount, together with the reference image designation information, to the motion information code amount calculation unit 1504.

動き情報符号量算出部1504は、差分ベクトル算出部1503より供給される、差分
ベクトル値、参照画像指定情報、予測ベクトルインデックス、および予測モードより、各
予測ブロック構造及び各予測モードにおける動き情報に要する符号量を算出する。また、
動き情報符号量算出部1504は、結合動き補償予測生成部1508より、結合予測モー
ドにおいて伝送する必要がある、結合動き情報インデックスと予測モードを示すための情
報を受け取り、結合予測モードにおける動き情報に要する符号量を算出する。
The motion information code amount calculation unit 1504 requires motion information in each prediction block structure and each prediction mode from the difference vector value, reference image designation information, prediction vector index, and prediction mode supplied from the difference vector calculation unit 1503. The code amount is calculated. Also,
The motion information code amount calculation unit 1504 receives from the joint motion compensation prediction generation unit 1508 information indicating the joint motion information index and the prediction mode that need to be transmitted in the joint prediction mode, and converts the information into motion information in the joint prediction mode. The required code amount is calculated.

動き情報符号量算出部1504は、各予測ブロック構造及び各予測モードにおいて算出
された動き情報及び動き情報に要する符号量を予測モード/ブロック構造評価部1505
に供給する。
The motion information code amount calculation unit 1504 calculates the motion information calculated in each prediction block structure and each prediction mode and the code amount required for the motion information, as a prediction mode / block structure evaluation unit 1505.
To supply.

予測モード/ブロック構造評価部1505は、予測誤差算出部1501より供給された
各予測モードの予測誤差評価値と、動き情報符号量算出部1504から供給された各予測
モードの動き情報符号量を用いて、各予測モードの総合動き補償予測誤差評価値を算出し
、最も少ない評価値である予測モード及び予測ブロックサイズを選択し、選択した予測モ
ード、予測ブロックサイズと選択した予測モードに対する動き情報を、予測モード選択部
116に出力する。また、予測モード/ブロック構造評価部1505は同様に、予測誤差
算出部1501より供給された動き補償予測信号に対して、選択した予測モード、予測ブ
ロックサイズにおける予測信号を選択して予測モード選択部116に出力する。
The prediction mode / block structure evaluation unit 1505 uses the prediction error evaluation value of each prediction mode supplied from the prediction error calculation unit 1501 and the motion information code amount of each prediction mode supplied from the motion information code amount calculation unit 1504. Calculating a total motion compensation prediction error evaluation value of each prediction mode, selecting a prediction mode and a prediction block size which are the smallest evaluation values, and selecting a prediction mode, a prediction block size and motion information for the selected prediction mode. To the prediction mode selection unit 116. Similarly, the prediction mode / block structure evaluation unit 1505 selects a prediction signal in the selected prediction mode and prediction block size with respect to the motion compensation prediction signal supplied from the prediction error calculation unit 1501, and selects a prediction mode selection unit. To 116.

結合動き情報算出部1506は、予測モード情報メモリ119より供給される隣接ブロ
ックの動き情報における候補ブロック群を用いて、単予測であるか双予測であるかを示す
予測種別、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き
情報を結合動き情報候補リストと共に生成し、結合動き情報単予測変換部1507に供給
する。
The combined motion information calculation unit 1506 uses the candidate block group in the motion information of the adjacent blocks supplied from the prediction mode information memory 119, a prediction type indicating whether the prediction is uni-prediction or bi-prediction, reference image designation information, A plurality of pieces of motion information are generated together with a combined motion information candidate list as motion information composed of motion vector values, and supplied to the combined motion information single prediction conversion unit 1507.

図16は、結合動き情報算出部1506の構成を示す図である。結合動き情報算出部1
506は、空間結合動き情報候補リスト生成部1600、結合動き情報候補リスト削除部
1601、時間結合動き情報候補リスト生成部1602、第1結合動き情報候補リスト追
加部1603および第2結合動き情報候補リスト追加部1604を含む。結合動き情報算
出部1506は、空間的に隣接する候補ブロック群より所定の順番で動き情報の候補を作
成し、その中から、同一の動き情報を持つ候補を削除したのち、時間的に隣接する候補ブ
ロック群より作成した動き情報の候補を追加することで、有効な動き情報のみを結合動き
情報候補として登録する。この時間結合動き情報候補リスト生成部を結合動き情報候補リ
スト削除部より後段に配置した点が、本実施の形態の特徴的な構成であり、時間結合動き
情報候補を同一の動き情報を削除する処理の対象からはずすことにより、符号化効率を落
とすことなく演算量を削減することが可能である。結合動き情報算出部1506の詳細動
作に関しては、後述する。
FIG. 16 is a diagram illustrating a configuration of the combined motion information calculation unit 1506. Combined motion information calculation unit 1
Reference numeral 506 denotes a spatially combined motion information candidate list generating unit 1600, a combined motion information candidate list deleting unit 1601, a temporally combined motion information candidate list generating unit 1602, a first combined motion information candidate list adding unit 1603, and a second combined motion information candidate list. An adding unit 1604 is included. The combined motion information calculation unit 1506 creates motion information candidates in a predetermined order from spatially adjacent candidate block groups, deletes candidates having the same motion information from the candidates, and then temporally adjacent. By adding motion information candidates created from the candidate block group, only valid motion information is registered as combined motion information candidates. The point that this temporally combined motion information candidate list generation unit is arranged after the combined motion information candidate list deletion unit is a characteristic configuration of the present embodiment, and deletes the same motion information from temporally combined motion information candidates. By eliminating the processing target, it is possible to reduce the amount of calculation without reducing the encoding efficiency. The detailed operation of the combined motion information calculation unit 1506 will be described later.

図15に戻り、結合動き情報単予測変換部1507は、結合動き情報算出部1506よ
り供給される結合動き情報候補リスト及び、候補リストに登録される動き情報に対して、
図10で示される双予測制限情報に従って、予測種別が双予測である動き情報を単予測の
動き情報に変換し、結合動き補償予測生成部1508に供給する。
Returning to FIG. 15, the combined motion information single prediction conversion unit 1507 performs the combined motion information candidate list supplied from the combined motion information calculation unit 1506 and the motion information registered in the candidate list.
According to the bi-prediction restriction information shown in FIG. 10, motion information whose prediction type is bi-prediction is converted into uni-prediction motion information and supplied to the combined motion compensation prediction generation unit 1508.

結合動き補償予測生成部1508は、結合動き情報単予測変換部1507より供給され
た結合動き情報候補リストより、登録された結合動き情報候補のそれぞれに対して、動き
情報より、予測種別に応じて1つの参照画像(単予測)もしくは異なる2つの参照画像(
双予測)の参照画像指定情報と動きベクトル値を動き補償予測部112に指定して、動き
補償予測画像を生成すると共に、それぞれの結合動き情報インデックスを動き情報符号量
算出部1504に供給する。
The combined motion compensated prediction generation unit 1508 corresponds to each registered combined motion information candidate from the combined motion information candidate list supplied from the combined motion information single prediction conversion unit 1507 according to the prediction type based on the motion information. One reference image (single prediction) or two different reference images (
Bi-prediction reference image designation information and motion vector values are designated to the motion compensation prediction unit 112 to generate a motion compensation prediction image, and each combined motion information index is supplied to the motion information code amount calculation unit 1504.

図15の構成では、それぞれの結合動き情報インデックスにおける予測モード評価は、
予測モード/ブロック構造評価部1505で施されるが、予測誤差評価値及び動き情報符
号量を予測誤差算出部1501及び動き情報符号量算出部1504より受け取り、結合動
き補償予測生成部1508内で、最適な結合動き補償予測の結合動きインデックスを確定
させた後に、他の予測モードを含めた最適予測モードの評価を行う構成を取ることも可能
である。
In the configuration of FIG. 15, the prediction mode evaluation in each combined motion information index is
The prediction mode / block structure evaluation unit 1505 receives the prediction error evaluation value and the motion information code amount from the prediction error calculation unit 1501 and the motion information code amount calculation unit 1504, and in the combined motion compensation prediction generation unit 1508, It is also possible to adopt a configuration in which the optimal prediction mode including other prediction modes is evaluated after the combined motion index of the optimal combined motion compensation prediction is determined.

図17は、図7のフローチャートにおけるステップS701、S702、S703、S
705ステップの動き補償予測モード/予測信号生成処理の詳細動作を説明するためのフ
ローチャートである。この動作は、図15の動き補償予測ブロック構造選択部113にお
ける詳細動作を示している。
FIG. 17 shows steps S701, S702, S703, and S in the flowchart of FIG.
It is a flowchart for demonstrating the detailed operation | movement of the motion compensation prediction mode / prediction signal production | generation process of 705 step. This operation represents a detailed operation in the motion compensated prediction block structure selection unit 113 in FIG.

最初に、定義されたCU内の予測ブロックサイズ分割モード(PU)に従って設定され
たNumPartに基づき、対象CU内をPU分割した予測ブロックサイズ毎に(S17
00)、ステップS1701からステップS1708までのステップが実行される(S1
709)。先ず、結合動き情報候補リスト生成を行う(S1701)。
First, based on the NumPart set according to the predicted block size division mode (PU) in the defined CU, for each prediction block size obtained by performing PU division on the target CU (S17).
00), steps from step S1701 to step S1708 are executed (S1).
709). First, a combined motion information candidate list is generated (S1701).

続いて、予測ブロックサイズが、図10に示した双予測を制限する制御パラメータinte
r_bipred_restriction_idcにより設定される双予測を制限する予測ブロックサイズである
bipred_restriction_size以下である場合(S1702:YES)には、生成された結合
動き情報候補リスト内の各候補における双予測の動き情報を単予測の動き情報に置き換え
る、結合動き情報候補単予測変換を行う(S1703)。予測ブロックサイズが、bipred
_restriction_size以下でない場合(S1702:NO)には、続くステップS1704
に進む。
Subsequently, the prediction block size is a control parameter inte that limits the bi-prediction shown in FIG.
Prediction block size that restricts bi-prediction set by r_bipred_restriction_idc
If it is equal to or less than bipred_restriction_size (S1702: YES), combined motion information candidate uni-prediction conversion is performed in which bi-prediction motion information in each candidate in the generated combined motion information candidate list is replaced with uni-prediction motion information ( S1703). Predicted block size is bipred
If it is not less than _restriction_size (S1702: NO), the following step S1704
Proceed to

次に、生成または置き換えられた結合動き情報候補リストの動き情報を元に、結合予測
モード評価値を生成する(S1704)。続いて、予測モード評価値を生成し(S170
5)、生成した評価値を比較することで最適な予測モードを選択する(S1706)。た
だし、ステップS1704及びS1705の評価値生成の順序はこれに限らない。
Next, a combined prediction mode evaluation value is generated based on the motion information in the combined motion information candidate list generated or replaced (S1704). Subsequently, a prediction mode evaluation value is generated (S170).
5) The optimum prediction mode is selected by comparing the generated evaluation values (S1706). However, the order of evaluation value generation in steps S1704 and S1705 is not limited to this.

選択された予測モードに従い予測信号を出力し(S1707)、選択された予測モード
に従い動き情報を出力する(S1708)ことで、予測ブロック単位の動き補償予測モー
ド/予測信号生成処理が終了する。ステップS1701、S1703、S1704及びS
1705の詳細動作に関しては後述する。
The prediction signal is output according to the selected prediction mode (S1707), and the motion information is output according to the selected prediction mode (S1708), thereby completing the motion compensation prediction mode / prediction signal generation processing for each prediction block. Steps S1701, S1703, S1704 and S
The detailed operation 1705 will be described later.

図18は、図17のステップS1701の結合動き情報候補リスト生成の詳細動作を説
明するためのフローチャートである。この動作は、図15の結合動き情報算出部1506
における構成の詳細動作を示している。
FIG. 18 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1701 of FIG. This operation is performed by the combined motion information calculation unit 1506 in FIG.
The detailed operation of the configuration is shown.

図16の空間結合動き情報候補リスト生成部1600は、予測モード情報メモリ119
より供給される空間候補ブロック群から領域外である候補ブロックや、イントラモードで
ある候補ブロックを除いた候補ブロックから空間結合動き情報候補リストを生成する(S
1800)。空間結合動き情報候補リスト生成の詳細な動作は後述する。
The spatially coupled motion information candidate list generation unit 1600 in FIG.
A spatial combination motion information candidate list is generated from candidate blocks excluding candidate blocks that are out of the region or candidate blocks that are in the intra mode from the spatial candidate block group that is supplied more (S
1800). Detailed operations for generating the spatially coupled motion information candidate list will be described later.

続いて、結合動き情報候補リスト削除部1601において、生成された空間結合動き情
報候補リストより、同一の動き情報を持つ結合動き情報候補を削除して動き情報候補リス
トを更新する(S1801)。結合動き情報候補削除の詳細な動作は後述する。
Subsequently, the combined motion information candidate list deletion unit 1601 deletes the combined motion information candidates having the same motion information from the generated spatial combined motion information candidate list and updates the motion information candidate list (S1801). Detailed operation of the combined motion information candidate deletion will be described later.

時間結合動き情報候補リスト生成部1602は、続いて予測モード情報メモリ119よ
り供給される時間候補ブロック群から領域外である候補ブロックや、イントラモードであ
る候補ブロックを除いた候補ブロックから時間結合動き情報候補リストを生成し(S18
02)、時間結合動き情報候補リストと結合して結合動き情報候補リストとする。時間結
合動き情報候補リスト生成の詳細な動作は後述する。
The temporally combined motion information candidate list generation unit 1602 subsequently performs temporally combined motion from candidate blocks excluding candidate blocks outside the region or candidate blocks in the intra mode from the temporal candidate block group supplied from the prediction mode information memory 119. An information candidate list is generated (S18
02) Combined with the temporally combined motion information candidate list to form a combined motion information candidate list. Detailed operation of the time combination motion information candidate list generation will be described later.

次に、第1結合動き情報候補リスト追加部1603は、時間結合動き情報候補リスト生
成部1602で生成された結合動き情報候補リストに登録された結合動き情報候補から0
個から2個の第1結合動き情報候補を生成して結合動き情報候補リストに追加し(S18
03)、当該結合動き情報候補リストを第2結合動き情報候補リスト追加部1604に供
給する。第1結合動き情報候補リスト追加の詳細な動作は後述する。
Next, the first combined motion information candidate list adding unit 1603 adds 0 to the combined motion information candidates registered in the combined motion information candidate list generated by the temporal combined motion information candidate list generating unit 1602.
First to second combined motion information candidates are generated and added to the combined motion information candidate list (S18).
03), the combined motion information candidate list is supplied to the second combined motion information candidate list adding unit 1604. The detailed operation of adding the first combined motion information candidate list will be described later.

次に、第2結合動き情報候補リスト追加部1604は、第1結合動き情報候補リスト追
加部1603より供給される結合動き情報候補リストに依存しない0個から4個の第2結
合動き情報候補を生成して第1結合動き情報候補リスト追加部1603より供給される結
合動き情報候補リストに追加し(S1804)、処理を終了する。第2結合動き情報候補
リスト追加の詳細な動作は後述する。
Next, the second combined motion information candidate list adding unit 1604 selects 0 to 4 second combined motion information candidates that do not depend on the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1603. Generated and added to the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1603 (S1804), and the process ends. Detailed operations for adding the second combined motion information candidate list will be described later.

予測モード情報メモリ119より、結合動き情報算出部1506に供給される動き情報
の候補ブロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。まず、空
間結合動き情報候補リスト生成について説明する。
The candidate block group of motion information supplied from the prediction mode information memory 119 to the combined motion information calculation unit 1506 includes a spatial candidate block group and a temporal candidate block group. First, generation of a spatially coupled motion information candidate list will be described.

図19は、空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図であ
る。空間候補ブロック群は、符号化対象画像の予測対象ブロックに隣接している同一画像
のブロックを示す。ブロック群は、その管理が最小予測ブロックサイズ単位で行われ、候
補ブロックの位置は、最小予測ブロックサイズの単位で管理されるが、隣接ブロックの予
測ブロックサイズが最小予測ブロックサイズよりも大きな場合には、予測ブロックサイズ
内の全ての候補ブロックに同一の動き情報が格納される。実施の形態1においては、隣接
するブロック群の内、図19に示すようなブロックA0、ブロックA1、ブロックB0、
ブロックB1、ブロックB2の5ブロックを空間候補ブロック群とする。
FIG. 19 is a diagram illustrating a spatial candidate block group used for generating a spatially coupled motion information candidate list. The spatial candidate block group indicates a block of the same image adjacent to the prediction target block of the encoding target image. The block group is managed in units of the minimum prediction block size, and the position of the candidate block is managed in units of the minimum prediction block size, but when the prediction block size of the adjacent block is larger than the minimum prediction block size The same motion information is stored in all candidate blocks within the predicted block size. In the first embodiment, among adjacent block groups, block A0, block A1, block B0, as shown in FIG.
Five blocks of block B1 and block B2 are set as a space candidate block group.

図20は、空間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャー
トである。空間候補ブロック群に含まれる5つの候補ブロックのうち、ブロックA0、ブ
ロックA1、ブロックB0、ブロックB1、ブロックB2について、ブロックA1、ブロ
ックB1、ブロックB0、ブロックA0の順序で以下の処理を繰り返し行う(S2000
〜S2003)。
FIG. 20 is a flowchart for explaining the detailed operation of generating the spatially coupled motion information candidate list. Of the five candidate blocks included in the spatial candidate block group, the following processing is repeated for block A0, block A1, block B0, block B1, and block B2 in the order of block A1, block B1, block B0, and block A0. (S2000
~ S2003).

最初に候補ブロックの有効性を検査する(S2001)。候補ブロックが領域外でなく
イントラモードでない場合、候補ブロックは有効となる。候補ブロックが有効であれば(
S2001:YES)、候補ブロックの動き情報を空間結合動き情報候補リストに追加す
る(S2002)。
First, the validity of the candidate block is checked (S2001). If the candidate block is not out of the region and not in the intra mode, the candidate block is valid. If the candidate block is valid (
(S2001: YES), the motion information of the candidate block is added to the spatially coupled motion information candidate list (S2002).

ステップS2000からS2003までの繰り返し処理に続いて、空間結合動き情報候
補リストに追加された候補数が4未満だった場合(S2004:YES)、候補ブロック
B2の有効性を検査する(S2005)。ブロックB2が領域外でなくイントラモードで
ない場合(S2005:YES)、ブロックB2の動き情報を空間結合動き情報候補リス
トに追加する(S2006)。
Following the iterative processing from step S2000 to S2003, when the number of candidates added to the spatially coupled motion information candidate list is less than 4 (S2004: YES), the validity of the candidate block B2 is checked (S2005). When the block B2 is not out of the region and is not in the intra mode (S2005: YES), the motion information of the block B2 is added to the spatially coupled motion information candidate list (S2006).

ここでは、空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれ
るとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以
上の処理済みのブロックであり、候補ブロックの有効性によって空間結合動き情報候補リ
ストの数が変動すればよく、これに限定されない。
Here, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks, but the spatial candidate block group is at least one or more processed blocks adjacent to the prediction block to be processed. The number of spatially coupled motion information candidate lists may be changed depending on the effectiveness of the candidate block, and the present invention is not limited to this.

図21は、結合動き情報候補削除の詳細動作を説明するためのフローチャートである。
空間結合動き情報候補リスト作成処理により、生成される結合動き情報候補の最大数をM
axSpatialCandとすると、i=MaxSpatialCand−1からi>
0までの結合動き情報候補(候補(i))に対して以下の処理を繰り返し行う(S210
0〜S2106)。
FIG. 21 is a flowchart for explaining the detailed operation of combined motion information candidate deletion.
The maximum number of combined motion information candidates generated by the spatial combined motion information candidate list creation process is M
If axSpatialCand, then i = MaxSpatialCand-1 to i>
The following processing is repeated for the combined motion information candidates up to 0 (candidate (i)) (S210).
0-S2106).

候補(i)が存在していれば(S2101のYES)、ii=i−1からii>=0ま
での結合動き情報候補(候補(ii))に対して以下の処理を繰り返し行い(S2102
〜S2105)、候補(i)が存在しない場合(S2101のNO)はステップS210
2からS2105までの候補(ii)についての繰り返し処理をスキップする。
If the candidate (i) exists (YES in S2101), the following processing is repeated for the combined motion information candidates (candidate (ii)) from ii = i−1 to ii> = 0 (S2102).
To S2105), when there is no candidate (i) (NO in S2101), step S210.
The iterative process for the candidate (ii) from 2 to S2105 is skipped.

まず、候補(i)の動き情報(動き情報(i))と候補(ii)の動き情報(動き情報
(ii))が同一であるか検査し(S2103)、同じである場合(S2103のYES
)、候補(i)を結合動き情報候補リストから削除し(S2104)、候補(ii)につ
いての繰り返し処理を終了する。
First, whether the motion information (motion information (i)) of the candidate (i) and the motion information (motion information (ii)) of the candidate (ii) are the same is checked (S2103), and if they are the same (YES in S2103)
), Candidate (i) is deleted from the combined motion information candidate list (S2104), and the iterative process for candidate (ii) ends.

動き情報(i)と動き情報(ii)が同一でない場合(S2103のNO)、iiから
1を減算し、候補(ii)についての処理を繰り返す(S2102〜S2105)。
When the motion information (i) and the motion information (ii) are not the same (NO in S2103), 1 is subtracted from ii, and the process for the candidate (ii) is repeated (S2102 to S2105).

ステップS2100からS2105までの繰り返し処理に続いて、iから1を減算し、
候補(i)についての処理を繰り返す(S2100〜S2106)。
Subsequent to the iterative process from step S2100 to S2105, 1 is subtracted from i,
The process for candidate (i) is repeated (S2100 to S2106).

図22に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち
時間結合動き情報候補を含まない4つの空間結合動き情報候補について総当たりで比較し
て同一性を判定し、重複する候補を削除する。
FIG. 22 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, four spatially combined motion information candidates that do not include temporally combined motion information candidates are compared by brute force to determine identity, and duplicate candidates are deleted.

ここで、結合予測モードは時間方向や空間方向の動きの連続性を用いて、予測対象ブロ
ックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情
報を符号化に使用する手法であるが、空間結合動き情報候補が空間方向の連続性を基づい
ているのに対し、時間結合動き情報候補は時間方向の連続性に基づいて後述する方法で生
成されており、これらの性質は異なるものである。よって時間結合動き情報候補と空間結
合動き情報候補に同一の動き情報が含まれることは稀であり、同一の動き情報を削除する
ための結合動き情報候補削除処理の対象から時間結合動き情報候補を除いても、最終的に
得られる結合動き情報候補リストに同一の動き情報が含まれることは稀である。
Here, the joint prediction mode uses temporal and spatial continuity of motion, and the prediction target block encodes motion information of spatially and temporally adjacent blocks without directly encoding its own motion information. Although the spatially coupled motion information candidate is based on continuity in the spatial direction, the temporally coupled motion information candidate is generated by the method described later based on the temporal direction continuity. These properties are different. Therefore, it is rare that the same motion information is included in the temporally combined motion information candidate and the spatially combined motion information candidate, and the temporally combined motion information candidate is removed from the target of the combined motion information candidate deletion process for deleting the same motion information. Even if they are excluded, it is rare that the same motion information is included in the finally obtained combined motion information candidate list.

また、後述するように時間結合動き情報候補ブロックは最小予測ブロックよりも大きな
サイズである最小時間予測ブロック単位で管理されるため、時間的に隣接する予測ブロッ
クの大きさが最小時間予測ブロックよりも小さな場合には、本来の位置とはずれた位置の
動き情報が用いられることとなり、その結果、動き情報に誤差を含む場合が多い。そのた
め、空間結合動き情報候補の動き情報とは異なる動き情報となることが多く、同一の動き
情報を削除するための結合動き情報候補削除処理の対象から除いても影響が少ない。
Also, as will be described later, temporally combined motion information candidate blocks are managed in units of minimum time prediction blocks that are larger in size than the minimum prediction block, so that the size of prediction blocks that are temporally adjacent are larger than the minimum time prediction block. If it is small, motion information at a position deviating from the original position is used, and as a result, the motion information often includes an error. Therefore, the motion information is often different from the motion information of the spatially coupled motion information candidate, and there is little influence even if the motion information is excluded from the target of the combined motion information candidate deletion process for deleting the same motion information.

図23は、空間結合動き情報候補の最大数が4である場合の結合動き情報候補削除にお
ける候補の比較内容の一例である。図23(a)は空間結合動き情報候補のみを結合動き
情報候補削除処理の対象とした場合の比較内容であり、図23(b)は空間結合動き情報
候補と時間結合動き情報を処理の対象とした場合の比較内容である。空間結合動き情報候
補のみを結合動き情報候補削除処理の対象とすることにより、動き情報を比較の回数が1
0回から6回に減少している。
FIG. 23 is an example of comparison contents of candidates in combined motion information candidate deletion when the maximum number of spatially combined motion information candidates is four. FIG. 23A shows the comparison contents when only the spatially coupled motion information candidate is the target of the coupled motion information candidate deletion process, and FIG. 23B is the target of processing the spatially coupled motion information candidate and the temporally coupled motion information. It is a comparison content in the case of. Since only the spatially combined motion information candidate is the target of the combined motion information candidate deletion process, the number of comparisons of motion information is 1.
Decrease from 0 to 6 times.

このように、時間結合動き情報候補を結合動き情報候補削除処理の対象にしないことに
より、同一の動き情報を適切に削除しながら、動き情報の比較の回数を10回から6回に
削減することが可能である。
Thus, by not deleting the temporally combined motion information candidate as the target of the combined motion information candidate deletion process, the number of motion information comparisons is reduced from 10 to 6 while appropriately deleting the same motion information. Is possible.

また、すべての空間予測候補の同一を比較せず、空間的な位置が近い候補間同士の比較
のみ行うことで 結合動き情報候補削除処理の回数を削減することも可能である。具体的
には、図19のB1位置から算出された結合動き情報はA1位置の結合動き情報と比較し
、B0位置から算出された結合動き情報はB1位置の結合動き情報のみと比較し、A0位
置から算出された結合動き情報はA1のみと比較し、B2位置から算出された結合動き情
報はA1、B1のみと比較することで、動き情報の比較回数を最大5回に制限できる。
It is also possible to reduce the number of combined motion information candidate deletion processes by comparing only candidates that are close in spatial position without comparing the same of all spatial prediction candidates. Specifically, the combined motion information calculated from the B1 position in FIG. 19 is compared with the combined motion information at the A1 position, the combined motion information calculated from the B0 position is compared with only the combined motion information at the B1 position, and A0 By comparing the combined motion information calculated from the position with only A1 and the combined motion information calculated from the B2 position with only A1 and B1, the number of motion information comparisons can be limited to a maximum of five.

上記のように特定の空間予測候補のみ結合動き情報の同一比較を行う場合、空間結合動
き情報候補リスト生成中に(S1800)、結合動き情報候補削減処理(S1801)を
行った方が、同一結合動き情報が残存してしまうことによる符号化効率低下の影響が少な
い。つまり、空間結合動き情報候補リスト生成時に結合動き情報の同一比較を行うことで
、不要な結合動き情報を追加せずにすむため、図20のステップS2004の最大空間予
測候補数を4つに制限する場合に、B2位置から算出される結合動き情報が追加できる可
能性が高まるためである。
When the same comparison of combined motion information is performed only for a specific spatial prediction candidate as described above, it is better to perform the combined motion information candidate reduction process (S1801) during the generation of the spatial combined motion information candidate list (S1800). There is little influence of a decrease in coding efficiency due to motion information remaining. That is, by performing the same comparison of the combined motion information when generating the spatially combined motion information candidate list, it is possible to avoid adding unnecessary combined motion information, so the maximum number of spatial prediction candidates in step S2004 in FIG. 20 is limited to four. This is because the possibility that the combined motion information calculated from the B2 position can be added increases.

続いて、時間結合動き情報候補リスト生成について説明する。図24は、時間結合動き
情報候補リスト生成に用いる時間方向周辺予測ブロックの定義を説明する図である。時間
候補ブロック群は、予測対象ブロックが属する画像とは別の復号済みの画像ColPic
に属するブロックの中で、予測対象ブロックと同位置及びその周辺にあるブロックを示す
。ブロック群は、その管理が最小時間予測ブロックサイズ単位で行われ、候補ブロックの
位置は、最小時間予測ブロックサイズの単位で管理される。本発明の実施の形態1におい
ては、最小時間予測ブロックサイズは最小予測ブロックサイズを垂直方向、水平方向にそ
れぞれ2倍した大きさとする。時間的に隣接するブロックの予測ブロックのサイズが最小
時間予測ブロックサイズよりも大きな場合には、予測ブロックサイズ内のすべての候補ブ
ロックに同一の動きの情報が格納される。一方、予測ブロックのサイズが最小時間予測ブ
ロックサイズよりも小さな場合には、時間方向周辺予測ブロックの左上に位置する予測ブ
ロックの動きの情報を時間方向周辺予測ブロックの情報とする。図24(b)に予測ブロ
ックサイズが最小時間予測ブロックサイズより小さい場合の時間方向周辺予測ブロックの
動き情報を示す。
Subsequently, generation of a time combination motion information candidate list will be described. FIG. 24 is a diagram illustrating the definition of the temporal direction peripheral prediction block used for generating the temporally combined motion information candidate list. The temporal candidate block group is a decoded image ColPic different from the image to which the prediction target block belongs.
Among the blocks belonging to, blocks at the same position as the prediction target block and in the vicinity thereof are shown. The block group is managed in units of minimum time prediction block size, and the positions of candidate blocks are managed in units of minimum time prediction block size. In Embodiment 1 of the present invention, the minimum temporal prediction block size is set to a size obtained by doubling the minimum prediction block size in the vertical and horizontal directions. When the size of the prediction block of temporally adjacent blocks is larger than the minimum temporal prediction block size, the same motion information is stored in all candidate blocks within the prediction block size. On the other hand, when the size of the prediction block is smaller than the minimum temporal prediction block size, the motion information of the prediction block located at the upper left of the temporal direction peripheral prediction block is used as the temporal direction peripheral prediction block information. FIG. 24B shows motion information of the temporal direction neighboring prediction block when the prediction block size is smaller than the minimum temporal prediction block size.

図24(a)におけるA1〜A4、B1〜B4、C、D、E、F1〜F4、G1〜G4
、H、I1〜I16の位置のブロックが、時間的に隣接するブロック群となる。実施の形
態1においては、これら時間的に隣接するブロック群の内、時間候補ブロック群をブロッ
クHとブロックI6の2ブロックとする。
A1-A4, B1-B4, C, D, E, F1-F4, G1-G4 in FIG.
, H, and I1 to I16 are blocks adjacent in time. In the first embodiment, among these temporally adjacent block groups, the temporal candidate block group is assumed to be two blocks, block H and block I6.

図25は、時間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャー
トである。時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロッ
クI11について(S2500、S2505)、ブロックH、ブロックI11の順序で候
補ブロックの有効性を検査する(S2501)。候補ブロックが有効である場合(S25
01:YES)、ステップS2502〜ステップS2504の処理が行われ、生成された
動き情報が時間結合動き情報候補リストに登録され、処理が終了する。候補ブロックが画
面領域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合(S25
01:NO)、候補ブロックが有効でなく、次の候補ブロックの有効/無効判定が行われ
る。
FIG. 25 is a flowchart for explaining the detailed operation of generating the time combination motion information candidate list. Regarding the block H and the block I11 that are two candidate blocks included in the time candidate block group (S2500, S2505), the validity of the candidate block is checked in the order of the block H and the block I11 (S2501). If the candidate block is valid (S25)
01: YES), the processing from step S2502 to step S2504 is performed, the generated motion information is registered in the temporally combined motion information candidate list, and the processing ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block (S25)
01: NO), the candidate block is not valid, and valid / invalid determination of the next candidate block is performed.

候補ブロックが有効である場合(S2501:YES)、候補ブロックの動き情報をも
とに結合動き情報候補に登録する参照画像選択候補を確定する(S2502)。実施の形
態1ではL0予測の参照画像を、L0予測の参照画像のうち処理対象画像に最も近い距離
にある参照画像とし、L1予測の参照画像を、L1予測の参照画像のうち処理対象画像に
最も近い距離にある参照画像とする。
If the candidate block is valid (S2501: YES), the reference image selection candidate to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S2502). In the first embodiment, the L0 prediction reference image is the reference image that is the closest to the processing target image among the L0 prediction reference images, and the L1 prediction reference image is the processing target image among the L1 prediction reference images. The reference image is the closest distance.

ここでの参照画像選択候補の確定手法は、L0予測の参照画像とL1予測の参照画像が
決定できればよく、これに限定されない。符号化処理と復号処理で同一の手法で参照画像
を確定することで、符号化時に意図した参照画像を確定できる。他の確定手法としては、
例えばL0予測の参照画像及びL1予測の参照画像の参照画像インデックスが0である参
照画像を選択する手法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画
像を選択する手法や、符号化ストリーム中で各予測種別の参照画像を指定する手法を用い
ることが可能である。
The determination method of the reference image selection candidate here is not limited to this as long as the reference image for L0 prediction and the reference image for L1 prediction can be determined. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. Other deterministic methods include
For example, a method for selecting a reference image for which the reference image index of the reference image for L0 prediction and the reference image for L1 prediction is 0, a method for selecting the L0 reference image and the L1 reference image used by spatial adjacent blocks, It is possible to use a technique for designating a reference image of each prediction type in a stream.

次に、候補ブロックの動き情報をもとに結合動き情報候補に登録する動きベクトル値を
確定する(S2503)。実施の形態1における、時間結合動き情報は、候補ブロックの
動き情報で有効な予測種別である動きベクトル値をもとに、双予測の動き情報を算出する
。候補ブロックの予測種別がL0予測もしくはL1予測の単予測の場合には、予測に用い
られている予測種別(L0予測或いはL1予測)の動き情報を選択し、その参照画像指定
情報と動きベクトル値を双予測動き情報生成の基準値とする。
Next, the motion vector value to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S2503). In the first embodiment, the temporally coupled motion information calculates bi-prediction motion information based on motion vector values that are effective prediction types in motion information of candidate blocks. When the prediction type of the candidate block is L0 prediction or L1 prediction single prediction, motion information of the prediction type (L0 prediction or L1 prediction) used for prediction is selected, and its reference image designation information and motion vector value are selected. Is a reference value for generating bi-predictive motion information.

候補ブロックの予測種別が双予測である場合には、L0予測或いはL1予測のどちらか
一方の動き情報を基準値として選択する。基準値の選択方法は、例えばColPicと同
じ予測種別に存在する動き情報を選択する、候補ブロックのL0予測、L1予測のそれぞ
れの参照画像でColPicとの画像間距離が近い方を選択する、符号化側で選択してシ
ンタックスで明示的に伝送する等が挙げられる。
If the prediction type of the candidate block is bi-prediction, motion information of either L0 prediction or L1 prediction is selected as a reference value. The reference value selection method selects, for example, motion information existing in the same prediction type as ColPic, and selects a reference image having a shorter inter-image distance from ColPic in each of L0 prediction and L1 prediction of a candidate block. For example, it is possible to select the transmission side and explicitly transmit the syntax.

双予測動き情報生成の基準とする動きベクトル値が確定したら、結合動き情報候補に登
録する動きベクトル値を算出する。
When the motion vector value used as a reference for bi-predictive motion information generation is determined, a motion vector value to be registered in the combined motion information candidate is calculated.

図26は、時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予
測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明
するための図である。
FIG. 26 is a diagram for explaining a calculation method of motion vector values mvL0t and mvL1t registered for the L0 prediction and the L1 prediction with respect to the reference motion vector value ColMv for the temporally combined motion information.

基準動きベクトル値ColMvに対するColPicと候補ブロックの基準とする動き
ベクトルの対象となる参照画像との画像間距離をColDistとする。L0予測、L1
予測の各参照画像と処理対象画像との画像間距離をCurrL0Dist、CurrL1
Distとする。ColMvを、ColDistとCurrL0Dist、CurrL1
Distの距離比率でスケーリングした動きベクトルを、それぞれに登録する動きベクト
ルとする。具体的には、登録する動きベクトル値mvL0t、mvL1tは、下記式1、
2で算出される。
mvL0t=mvCol×CurrL0Dist/ColDist・・・(式1)
mvL1t=mvCol×CurrL1Dist/ColDist・・・(式2)
となる。
The distance between images between ColPic for the reference motion vector value ColMv and the reference image that is the target of the motion vector used as a reference for the candidate block is defined as ColDist. L0 prediction, L1
The inter-image distance between each prediction reference image and the processing target image is set to CurrL0Dist, CurrL1.
Let it be Dist. ColMv, ColDist, CurrL0Dist, CurrL1
The motion vector scaled by the distance ratio of Dist is set as a motion vector to be registered for each. Specifically, the motion vector values mvL0t and mvL1t to be registered are expressed by the following formula 1,
2 is calculated.
mvL0t = mvCol × CurrL0Dist / ColDist (Formula 1)
mvL1t = mvCol × CurrL1Dist / ColDist (Formula 2)
It becomes.

図25に戻り、このようにして生成された、双予測の参照画像選択情報(インデックス
)と、動きベクトル値を結合動き情報候補に追加し(S2504)、時間結合動き情報候
補リスト作成処理が終了する。
Returning to FIG. 25, the bi-predicted reference image selection information (index) and the motion vector value generated in this way are added to the combined motion information candidates (S2504), and the temporal combined motion information candidate list creation process ends. To do.

続いて、第1結合動き情報候補リスト追加部1603の詳細な動作について説明する。
図27は、第1結合動き情報候補リスト追加部1603の動作を説明するためのフローチ
ャートである。最初に、時間結合動き情報候補リスト生成部1602より供給される結合
動き情報候補リストに登録された結合動き情報候補の数(NumCandList)と結
合動き情報候補最大数(MaxNumMergeCand)から、第1追加結合動き情報
候補を生成する最大数であるMaxNumGenCandを式3より算出する(S270
0)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (NumCandList>1)
MaxNumGenCand=0; (NumCandList<=1) (式3)
Next, a detailed operation of the first combined motion information candidate list adding unit 1603 will be described.
FIG. 27 is a flowchart for explaining the operation of the first combined motion information candidate list adding unit 1603. First, based on the number of combined motion information candidates (NumCandList) and the maximum number of combined motion information candidates (MaxNumMergeCand) registered in the combined motion information candidate list supplied from the temporally combined motion information candidate list generation unit 1602, the first additional combination is performed. MaxNumGenCand, which is the maximum number for generating motion information candidates, is calculated from Equation 3 (S270).
0).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (NumCandList> 1)
MaxNumGenCand = 0; (NumCandList <= 1) (Formula 3)

次に、MaxNumGenCandが0より大きいか検査する(S2701)。Max
NumGenCandが0より大きくなければ(S2701:NO)、処理を終了する。
MaxNumGenCandが0より大きければ(S2701:YES)、以下の処理を
行う。まず、組み合わせ検査回数であるloopTimesを決定する。loopTim
esはNumCandList×NumCandListに設定する。ただし、loop
Timesが8を超える場合にはloopTimesは8に制限する(S2702)。こ
こで、loopTimesは0から7までの整数となる。loopTimesだけ以下の
処理を繰り返し行う(S2702からS2708)。
Next, it is inspected whether MaxNumGenCand is larger than 0 (S2701). Max
If NumGenCand is not greater than 0 (S2701: NO), the process ends.
If MaxNumGenCand is greater than 0 (S2701: YES), the following processing is performed. First, loopTimes that is the number of combination inspections is determined. loopTim
es is set to NumCandList × NumCandList. However, loop
If Times exceeds 8, loopTimes is limited to 8 (S2702). Here, loopTimes is an integer from 0 to 7. The following processing is repeatedly performed for loopTimes (S2702 to S2708).

結合動き情報候補Mと結合動き情報候補Nの組み合わせを決定する(S2703)。こ
こで、組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係について説
明する。
A combination of the combined motion information candidate M and the combined motion information candidate N is determined (S2703). Here, the relationship between the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N will be described.

図28は組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明
するための図である。図28のようにMとNは異なる値であって、まずMを0に固定して
Nの値を1〜4(最大値はNumCandList)に変化させ、その後、Nの値を0に固定してM
の値を1〜4(最大値はNumCandList)に変化させる。このような組み合わせ定義は、最
も選択される確率の高い動き情報である結合動き情報候補リスト内で最初の動き情報を有
効に活用しつつ、実際には組み合わせテーブルを持たずに計算で組み合わせパターンを算
出できる効果がある。
FIG. 28 is a diagram for explaining the relationship between the number of combination tests, the combined motion information candidate M, and the combined motion information candidate N. As shown in FIG. 28, M and N are different values. First, M is fixed to 0, the value of N is changed to 1 to 4 (the maximum value is NumCandList), and then the value of N is fixed to 0. M
Is changed to 1 to 4 (the maximum value is NumCandList). Such a combination definition makes effective use of the first motion information in the combined motion information candidate list, which is the motion information with the highest probability of being selected, and actually calculates the combination pattern without having a combination table. There is an effect that can be calculated.

結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であ
るか検査する(S2704)。結合動き情報候補MのL0予測が有効で且つ結合動き情報
候補NのL1予測が有効であれば(S2704:YES)、結合動き情報候補MのL0予
測の動きベクトルと参照画像を結合動き情報候補NのL1予測の動きベクトルと参照画像
と組み合わせて双結合動き情報候補を生成する(S2705)。結合動き情報候補MのL
0予測が有効で且つ結合動き情報候補NのL1予測が有効でなければ(S2704:NO
)、次の組み合わせを処理する。ここで、第1追加結合動き情報候補として、L0予測の
動き情報とL1予測が同一である場合があり、動き補償を双予測で行ってもL0予測もし
くはL1予測の単予測と同じ結果が得られるため、L0予測の動き情報とL1予測の動き
情報が同一である追加結合動き情報候補生成は、動き補償予測の演算量を増加させる要因
となる。そのため、通常は、L0予測の動き情報とL1予測の動き情報が同一であるかど
うか比較し、同一でない場合にのみ、第1追加結合動き情報候補とする。
It is checked whether the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (S2704). If the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (S2704: YES), the combined motion information candidate uses the motion vector of the L0 prediction of the combined motion information candidate M and the reference image. A combined motion information candidate is generated by combining the motion vector of N L1 predictions and the reference image (S2705). L of combined motion information candidate M
If 0 prediction is not valid and L1 prediction of the combined motion information candidate N is not valid (S2704: NO)
), Process the next combination. Here, as the first additional combined motion information candidate, the motion information of the L0 prediction and the L1 prediction may be the same, and even if motion compensation is performed by bi-prediction, the same result as the single prediction of the L0 prediction or the L1 prediction is obtained. Therefore, the additional combined motion information candidate generation in which the motion information of the L0 prediction and the motion information of the L1 prediction are the same is a factor that increases the amount of calculation of the motion compensation prediction. For this reason, normally, whether or not the motion information of the L0 prediction and the motion information of the L1 prediction are the same is compared, and only when the motion information is not the same, it is determined as the first additional combined motion information candidate.

ステップS2705に続いて、双結合動き情報候補を結合動き情報候補リストに追加す
る(S2706)。ステップS2706に続いて、生成した双結合動き情報の数がMax
NumGenCandであるか検査する(S2707)。生成された双結合動き情報の数
がMaxNumGenCandであれば(S2707のYES)、処理を終了する。生成
された双結合動き情報の数がMaxNumGenCandでなければ(S2707のNO
)、次の組み合わせを処理する。
Subsequent to step S2705, a double-coupled motion information candidate is added to the combined motion information candidate list (S2706). Subsequent to step S2706, the number of generated double coupled motion information is Max.
It is inspected whether it is NumGenCand (S2707). If the number of generated double coupled motion information is MaxNumGenCand (YES in S2707), the process ends. If the number of generated double coupled motion information is not MaxNumGenCand (NO in S2707)
), Process the next combination.

ここで、第1追加結合動き情報候補は、結合動き情報候補リストに登録された結合動き
情報候補の動き情報と処理対象の動き情報候補の動きに微妙にずれがある場合に、結合動
き情報候補リストに登録された結合動き情報候補の動き情報を修正して有効な結合動き情
報候補を生成することで、符号化効率を高めることができる。
Here, the first additional combined motion information candidate is a combined motion information candidate when there is a slight difference between the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed. Coding efficiency can be improved by correcting the motion information of the combined motion information candidates registered in the list to generate effective combined motion information candidates.

続いて、第2結合動き情報候補リスト追加部1604の詳細な動作について説明する。
図29は、第2結合動き情報候補リスト追加部1604の動作を説明するためのフローチ
ャートである。最初に、第1結合動き情報候補リスト追加部1603より供給される結合
動き情報候補リストに登録された結合動き情報候補の数(NumCandList)と結
合動き情報候補最大数(MaxNumMergeCand)から、第1追加結合動き情報
候補を生成する最大数であるMaxNumGenCandを式4より算出する(S290
0)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (式4)
Next, the detailed operation of the second combined motion information candidate list adding unit 1604 will be described.
FIG. 29 is a flowchart for explaining the operation of the second combined motion information candidate list adding unit 1604. First, the first addition is performed based on the number of combined motion information candidates (NumCandList) and the maximum number of combined motion information candidates (MaxNumMergeCand) registered in the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1603. MaxNumGenCand, which is the maximum number for generating combined motion information candidates, is calculated from Equation 4 (S290).
0).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (Formula 4)

次に、以下の処理をiについてMaxNumGenCand回繰り返し行う(S290
1からS2905)。ここで、iは0からMaxNumGenCand−1の整数となる
。L0予測の動きベクトルが(0,0)、参照インデックスがiであって、L1予測の動
きベクトルが(0,0)、参照インデックスがiである予測種別が双予測である第2追加
結合動き情報候補を生成する(S2902)。第2追加結合動き情報候補を結合動き情報
候補リストに追加する(S2903)。次のiについて処理する(S2904)。
Next, the following process is repeated MaxNumCand times for i (S290).
1 to S2905). Here, i is an integer from 0 to MaxNumGenCand-1. The second additional combined motion in which the motion vector for L0 prediction is (0,0), the reference index is i, the motion vector for L1 prediction is (0,0), and the prediction type is i for the reference index is bi-prediction. Information candidates are generated (S2902). The second additional combined motion information candidate is added to the combined motion information candidate list (S2903). The next i is processed (S2904).

ここでは、第2追加結合動き情報候補を、L0予測の動きベクトルが(0,0)、参照
インデックスがiであって、L1予測の動きベクトルが(0,0)、参照インデックスが
iである予測種別が双予測である結合動き情報候補とした。これは、一般的な動画像にお
いて、L0予測の動きベクトルとL1予測の動きベクトルが(0,0)である結合動き情
報候補の発生頻度が統計的に高いためである。結合動き情報候補リストに登録された結合
動き情報候補の動き情報に依存せず、統計的に利用頻度が高い結合動き情報候補であれば
、これに限定されない。例えば、L0予測やL1予測の動きベクトルはそれぞれ(0,0
)以外のベクトル値でもよく、L0予測とL1予測の参照インデックスが異なるように設
定してもよい。また、第2追加結合動き情報候補を符号化済みの画像や符号化済みの画像
の一部の発生頻度の高い動き情報とし、符号化ストリームに符号化して伝送して設定する
こともできる。なお、ここではBピクチャ(Bスライス)について説明したが、Pピクチ
ャ(Pスライス)の場合は、L0予測の動きベクトルが(0,0)で、予測種別がL0予
測である第2追加結合動き情報候補を生成する。
Here, the second additional combined motion information candidate has a motion vector for L0 prediction of (0, 0), a reference index of i, a motion vector of L1 prediction of (0, 0), and a reference index of i. The combined motion information candidate whose prediction type is bi-prediction was used. This is because, in a general moving image, the frequency of occurrence of combined motion information candidates in which the motion vector for L0 prediction and the motion vector for L1 prediction are (0, 0) is statistically high. The present invention is not limited to this as long as it is a combined motion information candidate that is statistically frequently used without depending on the motion information of the combined motion information candidate registered in the combined motion information candidate list. For example, the motion vectors of L0 prediction and L1 prediction are (0, 0
) Vector values other than () may be used, and the L0 prediction and the L1 prediction may have different reference indices. Alternatively, the second additional combined motion information candidate can be set as an encoded image or motion information with a high occurrence frequency of a part of the encoded image, encoded in an encoded stream, and transmitted. Although the B picture (B slice) has been described here, in the case of the P picture (P slice), the second additional combined motion in which the motion vector for L0 prediction is (0, 0) and the prediction type is L0 prediction. Generate information candidates.

ここで、第2追加結合動き情報候補として、L0予測の参照画像とL1予測の参照画像
が同一である場合、第1追加結合動き情報候補リスト生成部と同様に、動き補償を双予測
で行ってもL0予測もしくはL1予測の単予測と同じ結果が得られため、L0予測の参照
画像とL1予測の参照画像が同一である追加結合動き情報候補生成は、動き補償予測の演
算量を増加させる要因となる。しかし、本発明の実施の形態では後述する動き補償部で一
括して双予測を単予測に変換する処理を行うため、第2追加結合動き情報候補リスト追加
部でのL0予測の動き情報とL1予測の動き情報の同一性判断を行う必要はなく演算量が
削減できる。
Here, when the reference image for L0 prediction and the reference image for L1 prediction are the same as the second additional combined motion information candidate, motion compensation is performed by bi-prediction in the same manner as the first additional combined motion information candidate list generation unit. However, since the same result as the single prediction of the L0 prediction or the L1 prediction is obtained, the additional combined motion information candidate generation in which the reference image of the L0 prediction and the reference image of the L1 prediction are the same increases the calculation amount of the motion compensation prediction. It becomes a factor. However, in the embodiment of the present invention, the motion compensation unit to be described later performs a process of collectively converting bi-prediction into single prediction, so that the motion information and L1 of the L0 prediction in the second additional combined motion information candidate list adding unit It is not necessary to determine the identity of predicted motion information, and the amount of calculation can be reduced.

ここで、第2追加結合動き情報候補として結合動き情報候補リストに登録された結合動
き情報候補に依存しない結合動き情報候補を設定することで、結合動き情報候補リストに
登録された結合動き情報候補が0個である場合に、結合予測モードを利用することを可能
とし、符号化効率を向上させることができる。また、結合動き情報候補リストに登録され
た結合動き情報候補の動き情報と処理対象の動き情報候補の動きが異なる場合に、新たな
結合動き情報候補を生成して選択肢の幅を広げることで、符号化効率を向上させることが
できる。
Here, by setting a combined motion information candidate that does not depend on the combined motion information candidate registered in the combined motion information candidate list as the second additional combined motion information candidate, the combined motion information candidate registered in the combined motion information candidate list When the number is zero, it is possible to use the joint prediction mode and improve the encoding efficiency. In addition, when the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed are different, by generating a new combined motion information candidate and expanding the range of options, Encoding efficiency can be improved.

図30は、図17のステップS1703における結合動き情報候補単予測変換処理の詳
細動作を説明するためのフローチャートである。最初に、結合動き情報候補リスト生成処
理により、生成された結合動き情報候補リストの数をnum_of_indexとすると
、i=0からnum_of_index−1までの結合動き情報候補について以下の処理
を繰り返し行う(S3000からS3005)。
FIG. 30 is a flowchart for explaining detailed operation of the combined motion information candidate single prediction conversion process in step S1703 of FIG. First, if the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the following processing is repeated for combined motion information candidates from i = 0 to num_of_index-1 (from S3000). S3005).

先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(
S3001)。続いて、動き情報の予測種別が単予測である場合(S3002:YES)
、そのままインデックスiに格納された動き情報に対しての処理を終了し、次のインデッ
クスに進む(S3005)。
First, the motion information stored in the index i is acquired from the combined motion information candidate list (
S3001). Subsequently, when the prediction type of motion information is simple prediction (S3002: YES)
Then, the process for the motion information stored in the index i is finished as it is, and the process proceeds to the next index (S3005).

動き情報が単予測でない場合、つまり動き情報が双予測である場合(S3002:NO
)には、双予測の動き情報を単予測に変換するために、インデックスiに格納された動き
情報のL1情報を無効にする(S3003)。実施の形態1においては、このようにL1
情報を無効にすることで双予測の動き情報をL0予測の単予測に変換させているが、逆に
L0情報を無効にして、双予測の動き情報をL1予測の単予測に変換させることも可能で
あり、暗黙に単予測に変換する際の無効にする予測種別を定義することで実現できる。
When the motion information is not uni-prediction, that is, when the motion information is bi-prediction (S3002: NO)
), The L1 information of the motion information stored in the index i is invalidated in order to convert the motion information of bi-prediction into single prediction (S3003). In the first embodiment, L1 is thus obtained.
The motion information of bi-prediction is converted to single prediction of L0 prediction by invalidating the information, but conversely, the motion information of bi-prediction may be converted to single prediction of L1 prediction by invalidating L0 information. This is possible and can be realized by defining a prediction type to be invalidated when implicitly converted to single prediction.

次に、単予測に変換したインデックスiの動き情報を格納し(S3004)、次のイン
デックスに進む(S3005)。i=0からnum_of_index−1までの結合動
き情報候補について処理を行い、結合動き情報候補単予測変換処理が終了する。
Next, the motion information of index i converted to single prediction is stored (S3004), and the process proceeds to the next index (S3005). The combined motion information candidates from i = 0 to num_of_index-1 are processed, and the combined motion information candidate single prediction conversion process is completed.

実施の形態1において、予測ブロックサイズによる結合動き情報の双予測制限は、結合
動き情報候補リストを一旦生成した後に、図30のフローチャートに示す結合動き情報候
補の単予測変換処理を行っている。結合動き情報の単予測変換処理に関しては、結合動き
情報候補生成処理である図18のフローチャートで示される処理の内部で、候補生成毎に
判断を加えて、単予測の結合動き情報候補リストを生成することも可能であるが、その場
合には、予測ブロックサイズによる条件判断が各処理に入ることになり、処理が複雑にな
り、リスト構築処理の負荷が増大する。実施の形態1では、一旦リストを構築した後に単
予測への動き情報の変換処理を施すことで、リスト構築処理の負荷増大を防いだ、双予測
の制限処理を実現できる効果を有する。
In the first embodiment, the combined motion information bi-prediction restriction based on the prediction block size is performed after the combined motion information candidate list is generated once and then the combined motion information candidate single prediction conversion process shown in the flowchart of FIG. 30 is performed. With regard to the combined motion information single prediction conversion process, a determination is made for each candidate generation within the process shown in the flowchart of FIG. 18 which is a combined motion information candidate generation process, and a combined motion information candidate list for single prediction is generated. However, in this case, the condition judgment based on the predicted block size enters each process, which complicates the process and increases the load of the list construction process. The first embodiment has an effect of realizing a bi-prediction restriction process that prevents an increase in the load of the list building process by performing a process of converting motion information into a single prediction after building a list once.

図31は、図11のステップS1702における結合予測モード評価値生成処理の詳細
動作を説明するためのフローチャートである。この動作は、図15の結合動き補償予測生
成部1508を用いた構成の詳細動作を示している。
FIG. 31 is a flowchart for explaining the detailed operation of the combined prediction mode evaluation value generation process in step S1702 of FIG. This operation shows a detailed operation of the configuration using the combined motion compensation prediction generation unit 1508 of FIG.

最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インデッ
クスを初期化(例えば、−1などのリスト外の値)する(S3100)。結合動き情報候
補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_in
dexとすると、i=0からnum_of_index−1までの結合動き情報候補につ
いて以下の処理を繰り返し行う(S3101からS3109)。
First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S3100). The number of combined motion information candidate lists generated by the combined motion information candidate list generation process is set to num_of_in.
If dex is assumed, the following processing is repeatedly performed for the combined motion information candidates from i = 0 to num_of_index-1 (S3101 to S3109).

先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(
S3102)。続いて動き情報符号量を算出する(S3103)。結合予測モードにおい
ては、結合動き情報インデックスのみが符号化されるので、結合動き情報インデックスの
みが動き情報符号量となる。
First, the motion information stored in the index i is acquired from the combined motion information candidate list (
S3102). Subsequently, a motion information code amount is calculated (S3103). In the joint prediction mode, since only the joint motion information index is encoded, only the joint motion information index becomes the motion information code amount.

結合動き情報インデックスの符号列としては、実施の形態1では、Truncated
Unary符号列を用いる。図32は、結合動き情報候補数が5の場合のTrunca
ted Unary符号列を示す図である。Truncated Unary符号列を用
いて結合動き情報インデックスの値を符号化する場合には、結合動き情報インデックスが
小さいほど、結合動き情報インデックスに割り当てられる符号ビットが小さくなる。例え
ば、結合動き情報候補数が5個である場合、結合動き情報インデックスが1であれば'1
0'の2ビットで表現されるが、結合動き情報インデックスが3であれば'1110'の4
ビットで表現される。なお、ここでは上記のように結合動き情報インデックスの符号化に
Truncated Unary符号列を利用しているが、他の符号列生成手法を用いる
ことも可能であり、これに限定されない。
In the first embodiment, the code sequence of the combined motion information index is Truncated.
An Unary code string is used. FIG. 32 shows the trunk when the number of combined motion information candidates is 5
It is a figure which shows a ted Unary code sequence. When the value of the combined motion information index is encoded using the Truncated Unary code string, the smaller the combined motion information index, the smaller the code bit assigned to the combined motion information index. For example, when the number of combined motion information candidates is 5, if the combined motion information index is 1, '1
It is expressed by 2 bits of 0, but if the combined motion information index is 3, 4 of '1110'
Expressed in bits. Here, as described above, the Truncated Unary code string is used for encoding the combined motion information index, but other code string generation methods can be used, and the present invention is not limited to this.

続いて、動き情報の予測種別が単予測である場合(S3104:YES)、1つの参照
画像に対する参照画像指定情報と動きベクトルを、図1における動き補償予測部112に
設定して、動き補償単予測ブロックを生成する(S3105)。動き情報が単予測でない
場合、つまり動き情報が双予測である場合(S3104:NO)には、2つの参照画像に
対する参照画像指定情報と動きベクトルを動き補償予測部112に設定して、動き補償双
予測ブロックを生成する(S3105)。
Subsequently, when the motion information prediction type is single prediction (S3104: YES), the reference image designation information and the motion vector for one reference image are set in the motion compensation prediction unit 112 in FIG. A prediction block is generated (S3105). When the motion information is not uni-prediction, that is, when the motion information is bi-prediction (S3104: NO), reference image designation information and motion vectors for two reference images are set in the motion compensation prediction unit 112, and motion compensation is performed. A bi-prediction block is generated (S3105).

続いて、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、
予測誤差評価値を算出し(S3107)、予測誤差評価値が最小値である場合には評価値
を更新すると共に、予測誤差最小インデックスを更新する(S3108)。
Subsequently, from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block,
A prediction error evaluation value is calculated (S3107). When the prediction error evaluation value is the minimum value, the evaluation value is updated and the prediction error minimum index is updated (S3108).

全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測
誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予
測誤差最小値、動き補償予測ブロックと共に出力し(S3109)、結合予測モード評価
値生成処理を終了する。
As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S3109), the combined prediction mode evaluation value generation process is terminated.

図33は、図17のステップS1703の予測モード評価値生成処理の詳細動作を説明
するためのフローチャートである。
FIG. 33 is a flowchart for explaining detailed operation of the prediction mode evaluation value generation processing in step S1703 of FIG.

最初に、予測モードが単予測であるか否かを判別する(S3300)。図34に予測ブ
ロックの動き情報に関するシンタックスを示す。図34中のmerge_flagは結合予測モード
であるかどうかを示し、merge_flagが0の場合が動き検出予測モードを示す。動き検出予
測モードである場合で双予測を用いることが可能なBスライスの場合、予測種別が単予測
であるか双予測であるかを示すフラグinter_pred_flagを伝送する。ここで、予測ブロッ
クのサイズが双予測制限ブロックサイズ以下である場合にも双予測を禁止せずinter_pred
_flagを伝送する。これは、予測ブロックのサイズが双予測制限ブロックサイズ以下であ
るかどうかに応じてinter_pred_flagを伝送するかどうかを切り替えると、エントロピー
符号化・復号化に条件分岐が必要になるため、処理が複雑になるのを防止するためである
First, it is determined whether or not the prediction mode is single prediction (S3300). FIG. 34 shows a syntax regarding motion information of a prediction block. In FIG. 34, merge_flag indicates whether or not the mode is a joint prediction mode, and when merge_flag is 0, the motion detection prediction mode is indicated. In the case of a B slice in which bi-prediction can be used in the motion detection prediction mode, a flag inter_pred_flag indicating whether the prediction type is uni-prediction or bi-prediction is transmitted. Here, bi_prediction is not prohibited even when the size of the prediction block is less than or equal to the bi-prediction restricted block size.
_flag is transmitted. This is because the conditional branch is necessary for entropy coding / decoding when switching whether to transmit inter_pred_flag depending on whether the size of the prediction block is less than or equal to the bi-prediction restricted block size. This is to prevent this from happening.

図33のフローチャートに戻り、単予測であれば(S3300:YES)、処理対象と
する参照画像リスト(LX)を予測に用いている参照画像リストに設定する(S3301
)。単予測でなければ、双予測であるから、この場合はLXをL0とする(S3302)
Returning to the flowchart of FIG. 33, if it is single prediction (S3300: YES), the reference image list (LX) to be processed is set as the reference image list used for prediction (S3301).
). If it is not uni-prediction, it is bi-prediction. In this case, LX is set to L0 (S3302).
.

次に、LX予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得す
る(S3303)。続いて、予測ベクトル候補リストを生成し(S3304)、予測ベク
トルの中から最適予測ベクトルを選択し、差分ベクトルを生成する(S3305)。最適
予測ベクトルの選択手法は、予測ベクトルと伝送する動きベクトルの差分ベクトルを実際
に符号化する際の符号量が最も少ないものを選択することが望ましいが、単純に差分ベク
トルの水平・垂直成分の絶対値の総和が小さいものを選択するなどの手法で、簡易的に算
出してもよい。
Next, reference image designation information (index) and motion vector values for LX prediction are acquired (S3303). Subsequently, a prediction vector candidate list is generated (S3304), an optimal prediction vector is selected from the prediction vectors, and a difference vector is generated (S3305). It is desirable to select the optimal prediction vector with the least amount of code when the difference vector between the prediction vector and the motion vector to be transmitted is actually encoded. However, the horizontal and vertical components of the difference vector are simply selected. The calculation may be simplified by a method such as selecting one having a small absolute sum.

続いて、再度予測モードが単予測である否かを判別し(S3306)、予測モードが単
予測であればステップS3311に進む。単予測でない、すなわち、双予測であれば、処
理対象の参照リストLXがL1か否かを判定する(S3307)。参照リストLXがL1
であれば、ステップS3311に進み、L1でない、すなわちL0の場合には、予測ブロ
ックサイズがbipred_restriction_size以下である場合(S3308:YES)には、L
1予測に対する情報を算出せず、予測モードを単予測に変換し(S3310)、ステップ
S3311に進む。
Subsequently, it is determined again whether or not the prediction mode is single prediction (S3306). If the prediction mode is single prediction, the process proceeds to step S3311. If it is not uni-prediction, that is, if it is bi-prediction, it is determined whether or not the reference list LX to be processed is L1 (S3307). Reference list LX is L1
If so, the process proceeds to step S3311, and if it is not L1, that is, if it is L0, if the predicted block size is equal to or smaller than bipred_restriction_size (S3308: YES), L
Without calculating information for one prediction, the prediction mode is converted to single prediction (S3310), and the process proceeds to step S3311.

予測ブロックサイズがbipred_restriction_sizeより大きい場合(S3308:NO)
には、LXをL1として(S3309)、ステップS3303からステップS3306ま
での処理と同じ処理が行われる。
When the predicted block size is larger than bipred_restriction_size (S3308: NO)
In this case, LX is set to L1 (S3309), and the same processing as the processing from step S3303 to step S3306 is performed.

実施の形態1においては、復号装置において、図34に示された予測ブロックの動き情
報に関するシンタックスに従い復号を行った場合に、予測ブロックサイズに対する双予測
制限時に対象となる予測ブロックサイズで双予測の動き情報が復号されないように、ステ
ップS3308及びステップS3310の処理を用いて、予測モード評価値生成処理で双
予測を制限する構成を取っている。
In the first embodiment, when decoding is performed according to the syntax related to motion information of the prediction block shown in FIG. 34 in the decoding apparatus, bi-prediction is performed with the target prediction block size when bi-prediction restriction is performed on the prediction block size. In order to prevent the motion information from being decoded, the process of steps S3308 and S3310 is used to limit the bi-prediction in the prediction mode evaluation value generation process.

動きベクトル検出時に、双予測を想定した動きベクトル検出を行った場合には、単予測
で用いられる動きベクトル情報と、上記ステップにおいて双予測を制限することで生成さ
れた単予測の動きベクトル情報が異なる場合があるため、単予測の新たな動き情報候補が
登録されることで、単純に双予測の動き情報を使用しないように制限した場合よりも、符
号化効率を向上させることができる。
When motion vector detection assuming bi-prediction is performed at the time of motion vector detection, motion vector information used in single prediction and motion vector information of single prediction generated by restricting bi-prediction in the above step are Since there may be different cases, by registering a new motion information candidate for uni-prediction, it is possible to improve the encoding efficiency as compared with the case where the motion information for bi-prediction is simply not used.

続いて、動き情報符号量を算出する(S3311)。単予測モードの場合に、符号化す
る動き情報としては、1つの参照画像に対する、参照画像指定情報、差分ベクトル値、及
び予測ベクトルインデックスの3要素、双予測モードの場合には、L0とL1の2つの参
照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの
計6要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。本
実施の形態における予測ベクトルインデックスの符号列生成手法としては、結合動き情報
インデックスの符号列と同様にTruncated Unary符号列を用いるものとす
る。
Subsequently, a motion information code amount is calculated (S3311). In the case of the uni-prediction mode, the motion information to be encoded includes three elements of reference image designation information, a difference vector value, and a prediction vector index for one reference image. In the case of the bi-prediction mode, L0 and L1 The reference image designation information, the difference vector value, and the prediction vector index for the two reference images are a total of six elements, and the total amount of the encoded amount is calculated as the motion information code amount. As a prediction vector index code string generation method according to the present embodiment, a Trunked Unary code string is used in the same manner as the combined motion information index code string.

続いて、参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予
測部112に設定して、動き補償予測ブロックを生成する(S3312)。
Subsequently, the reference image designation information and the motion vector for the reference image are set in the motion compensated prediction unit 112 in FIG. 1 to generate a motion compensated prediction block (S3312).

さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、
予測誤差評価値を算出し(S3313)、予測誤差評価値と、参照画像に対する動き情報
である、参照画像指定情報と差分ベクトル値と予測ベクトルインデックスを動き補償予測
ブロックと共に出力し(S3314)、予測モード評価値生成処理を終了する。
Furthermore, from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block,
The prediction error evaluation value is calculated (S3313), the prediction error evaluation value, the reference image designation information, the difference vector value, and the prediction vector index, which are motion information for the reference image, are output together with the motion compensated prediction block (S3314). The mode evaluation value generation process is terminated.

以上の処理が、実施の形態1における動画像符号化装置における動き補償予測ブロック
構造選択部113の詳細動作となる。
The above process is the detailed operation of the motion compensated prediction block structure selection unit 113 in the video encoding apparatus in the first embodiment.

本発明の実施の形態1において、動き補償予測におけるメモリアクセス量を制限するた
めの制御パラメータである、図10に示した、inter_4x4_enable及びinter_bipred_restr
iction_idcを、復号装置で認識するために伝送するシンタックスの一例を図35に示す。
In Embodiment 1 of the present invention, inter_4x4_enable and inter_bipred_restr shown in FIG. 10 which are control parameters for limiting the memory access amount in motion compensation prediction
An example of the syntax for transmitting iction_idc for recognition by the decoding apparatus is shown in FIG.

図35においては、図10に示した制御パラメータ値をそのまま、シーケンスや画像単
位で設定するヘッダ情報の一部として伝送する構成を取っている。一例では、シーケンス
単位のパラメータを伝送するseq_parameter_set_rbsp()の内部
において伝送され、図3に示す最小CUサイズに対する情報がlog2_min_coding_block_si
ze_minus3で8を基準とした(8×8を示す)2のべき乗値で定義され、最大CUサイズ
(実施の形態1における符号化ブロックサイズ)が最大CU分割数(Max_CU_Depth)を示
す値となるlog2_diff_max_min_coding_block_sizeとして、伝送される。
In FIG. 35, the control parameter values shown in FIG. 10 are transmitted as they are as part of the header information set for each sequence or image. In one example, it is transmitted inside seq_parameter_set_rbsp () that transmits parameters in sequence units, and information on the minimum CU size shown in FIG. 3 is log2_min_coding_block_si.
log2_diff_max_min_coding_block_size defined as a power of 2 with ze_minus3 as a reference (indicating 8 × 8), and the maximum CU size (coding block size in the first embodiment) is a value indicating the maximum number of CU divisions (Max_CU_Depth) As transmitted.

inter_4x4_enableは、inter_4x4_enable_flagとして、log2_min_coding_block_size_mi
nus3が0すなわち最小CUサイズが8×8の場合にのみ伝送されることで、inter_4x4_en
ableによる制御が有効な条件の時にのみ制御パラメータを送ることで、無効な制御情報の
伝送を防ぐことができる。一方、inter_bipred_restriction_idcに関しては、最小CUサ
イズが16×16の場合においても制御に必要となるため、常に伝送される構成を取る。
inter_4x4_enable is a log2_min_coding_block_size_mi as inter_4x4_enable_flag
By transmitting only when nus3 is 0, that is, when the minimum CU size is 8 × 8, inter_4x4_en
By transmitting the control parameter only when the control by able is valid, it is possible to prevent transmission of invalid control information. On the other hand, since inter_bipred_restriction_idc is necessary for control even when the minimum CU size is 16 × 16, a configuration in which it is always transmitted is adopted.

実施の形態1においては、これらの制御パラメータ値をシーケンス単位のパラメータで
符号化伝送する構成を示したが、フレーム単位等の所定符号化ブロック単位以上の間隔で
設定を変更させることも可能であり、シーケンス単位での制御パラメータ構成に制限され
ることはなく、所定単位に制御パラメータを復号装置が取得できることが、実施の形態1
における構成の特徴である。
In the first embodiment, a configuration is shown in which these control parameter values are encoded and transmitted using parameters in sequence units. However, it is also possible to change the setting at intervals of a predetermined encoded block unit or more such as a frame unit. Embodiment 1 is not limited to the configuration of control parameters in sequence units, and the decoding apparatus can acquire control parameters in predetermined units.
It is the characteristic of the structure in.

[実施の形態1における動画像復号装置における動き情報復号部の詳細動作説明]
図36は、図11に示した実施の形態1の動画像復号装置における動き情報復号部11
11の詳細な構成を示す図である。動き情報復号部1111は、動き情報ビットストリー
ム復号部3600、予測ベクトル算出部3601、ベクトル加算部3602、動き補償予
測復号部3603、結合動き情報算出部3604、結合動き情報単予測変換部3605、
及び結合動き補償予測復号部3606を含む。
[Detailed Operation Description of Motion Information Decoding Unit in Moving Picture Decoding Device in Embodiment 1]
FIG. 36 shows the motion information decoding unit 11 in the video decoding device in the first embodiment shown in FIG.
11 is a diagram showing a detailed configuration of 11. FIG. The motion information decoding unit 1111 includes a motion information bitstream decoding unit 3600, a prediction vector calculation unit 3601, a vector addition unit 3602, a motion compensation prediction decoding unit 3603, a combined motion information calculation unit 3604, a combined motion information single prediction conversion unit 3605,
And a joint motion compensated prediction decoding unit 3606.

図11における動き情報復号部1111に対して、予測モード/ブロック構造復号部1
108より入力された動き情報に関するビットストリームが、動き情報ビットストリーム
復号部3600に供給され、予測モード情報メモリ1112より入力された動き情報が、
予測ベクトル算出部3601、及び結合動き情報算出部3604に供給される。
In contrast to the motion information decoding unit 1111 in FIG. 11, the prediction mode / block structure decoding unit 1
The bit stream regarding the motion information input from 108 is supplied to the motion information bit stream decoding unit 3600, and the motion information input from the prediction mode information memory 1112 is
The prediction vector calculation unit 3601 and the combined motion information calculation unit 3604 are supplied.

また、動き情報復号部1111に対して、動き補償予測復号部3603、及び結合動き
補償予測復号部3606から、動き補償予測に用いる参照画像指定情報と動きベクトルが
出力され、予測種別を示す情報を含めた復号された動き情報が、動き補償予測部1114
及び予測モード情報メモリ1112に供給される。
Also, reference image designation information and motion vectors used for motion compensation prediction are output from the motion compensation prediction decoding unit 3603 and the joint motion compensation prediction decoding unit 3606 to the motion information decoding unit 1111 and information indicating the prediction type is output. The included decoded motion information is the motion compensation prediction unit 1114.
And supplied to the prediction mode information memory 1112.

動き情報ビットストリーム復号部3600は、入力された動き情報ビットストリームを
符号化シンタックスに従って復号していくことで、伝送された予測モードと、予測モード
に応じた動き情報を生成する。生成した動き情報の中で、結合動き情報インデックスは、
結合動き補償予測復号部3606に供給され、参照画像指定情報が予測ベクトル算出部3
601に供給され、予測ベクトルインデックスがベクトル加算部3602に供給され、差
分ベクトル値がベクトル加算部3602に供給される。
The motion information bitstream decoding unit 3600 generates the motion information corresponding to the transmitted prediction mode and the prediction mode by decoding the input motion information bitstream according to the encoding syntax. Among the generated motion information, the combined motion information index is
This is supplied to the joint motion compensation prediction decoding unit 3606, and the reference image designation information is the prediction vector calculation unit 3
601, the prediction vector index is supplied to the vector addition unit 3602, and the difference vector value is supplied to the vector addition unit 3602.

予測ベクトル算出部3601は、予測モード情報メモリ1112より供給された隣接ブ
ロックの動き情報と、動き情報ビットストリーム復号部3600より供給された参照画像
指定情報から、動き補償予測の対象となる参照画像に対する予測ベクトル候補リストを生
成し、参照画像指定情報と共にベクトル加算部3602に供給する。予測ベクトル算出部
3601の動作に関しては、動画像符号化装置における図15の予測ベクトル算出部15
02と同一の動作が行われ、符号化時の予測ベクトル候補リストと同一の候補リストが生
成される。
The prediction vector calculation unit 3601 applies a motion compensation prediction reference image to a reference image that is subject to motion compensation prediction based on the motion information of the adjacent block supplied from the prediction mode information memory 1112 and the reference image designation information supplied from the motion information bitstream decoding unit 3600. A prediction vector candidate list is generated and supplied to the vector addition unit 3602 together with the reference image designation information. Regarding the operation of the prediction vector calculation unit 3601, the prediction vector calculation unit 15 of FIG.
The same operation as 02 is performed, and a candidate list identical to the prediction vector candidate list at the time of encoding is generated.

ベクトル加算部3602は、予測ベクトル算出部3601より供給された予測ベクトル
候補リスト及び参照画像指定情報と、動き情報ビットストリーム復号部3600から供給
された予測ベクトルインデックス及び差分ベクトルより、予測ベクトルインデックスで示
された位置に登録された予測ベクトル値と差分ベクトル値を加算することで、動き補償予
測対象となる参照画像に対しての動きベクトル値が再生される。再生された動きベクトル
値は、参照画像指定情報と共に、動き補償予測復号部3603に供給される。
The vector addition unit 3602 indicates a prediction vector index from the prediction vector candidate list and reference image designation information supplied from the prediction vector calculation unit 3601, and the prediction vector index and difference vector supplied from the motion information bitstream decoding unit 3600. By adding the prediction vector value and the difference vector value registered at the set position, the motion vector value for the reference image to be motion compensated prediction is reproduced. The reproduced motion vector value is supplied to the motion compensated prediction decoding unit 3603 together with the reference image designation information.

動き補償予測復号部3603は、ベクトル加算部2602より参照画像に対する、再生
された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情
報を動き補償予測部1114に設定することで、動き補償予測信号を生成する。
The motion compensation prediction decoding unit 3603 is supplied with the reproduced motion vector value and reference image designation information for the reference image from the vector addition unit 2602, and sets the motion vector value and the reference image designation information in the motion compensation prediction unit 1114. Thus, a motion compensated prediction signal is generated.

結合動き情報算出部3604は、予測モード情報メモリ1112から供給される隣接ブ
ロックの動き情報より、結合動き情報候補リストを生成し、結合動き情報候補リストとリ
スト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値を、結合
動き情報単予測変換部3605に供給する。
The combined motion information calculation unit 3604 generates a combined motion information candidate list from the motion information of adjacent blocks supplied from the prediction mode information memory 1112 and combines the combined motion information candidate list and the combined motion information candidate that is a component in the list. The reference image designation information and the motion vector value are supplied to the combined motion information single prediction conversion unit 3605.

結合動き情報算出部3604の動作に関しては、動画像符号化装置における図15の結
合動き情報算出部1506と同一の動作が行われ、符号化時の結合動き情報候補リストと
同一の候補リストが生成される。
Regarding the operation of the combined motion information calculation unit 3604, the same operation as the combined motion information calculation unit 1506 in FIG. 15 in the moving image encoding apparatus is performed, and the same candidate list as the combined motion information candidate list at the time of encoding is generated. Is done.

結合動き情報単予測変換部3605では、動画像符号化装置における図15の結合動き
情報単予測変換部1507と同一の動作が行われ、結合動き情報算出部3604より供給
される結合動き情報候補リスト及び、候補リストに登録される動き情報に対して、図10
で示される双予測制限情報に従って、予測種別が双予測である動き情報を単予測の動き情
報に変換し、結合動き補償予測復号部3606に供給する。
The combined motion information single prediction conversion unit 3605 performs the same operation as the combined motion information single prediction conversion unit 1507 of FIG. 15 in the moving image encoding device, and is supplied from the combined motion information calculation unit 3604. For the motion information registered in the candidate list, FIG.
The motion information whose prediction type is bi-prediction is converted into motion information of single prediction in accordance with

結合動き補償予測復号部3606は、結合動き情報単予測変換部3605より供給され
る結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定
情報と動きベクトル値と、動き情報ビットストリーム復号部3600より供給される結合
動き情報インデックスより、結合動き情報インデックスで示された結合動き情報候補リス
トにおける参照画像指定情報と動きベクトル値を再生し、動き補償予測部1114に設定
することで、動き補償予測信号を生成する。
The combined motion compensated prediction decoding unit 3606 includes a combined motion information candidate list supplied from the combined motion information single prediction conversion unit 3605, reference image designation information of a combined motion information candidate that is a component in the list, a motion vector value, and motion. Based on the combined motion information index supplied from the information bitstream decoding unit 3600, the reference image designation information and the motion vector value in the combined motion information candidate list indicated by the combined motion information index are reproduced and set in the motion compensation prediction unit 1114. Thus, a motion compensated prediction signal is generated.

図37は、図14のステップS1402、S1405、S1408、S1410の予測
ブロック単位復号処理の詳細動作を説明するためのフローチャートである。最初に、CU
単位の符号化ストリームを取得し(S3700)、CU内の予測ブロックサイズ分割モー
ド(PU)に従って設定されたNumPartに基づき、対象CU内をPU分割した予測
ブロックサイズ毎に(S3701)、ステップS3702からステップS3706までの
ステップが実行される(S3707)。
FIG. 37 is a flowchart for explaining detailed operations of the prediction block unit decoding processing in steps S1402, S1405, S1408, and S1410 of FIG. First, CU
A unit encoded stream is acquired (S3700), and for each predicted block size obtained by performing PU partitioning on the target CU based on NumPart set according to the predicted block size partitioning mode (PU) in the CU (S3701), from step S3702 Steps up to step S3706 are executed (S3707).

CU単位の符号化ストリームより分離された動き情報の符号化列は、図11の予測モー
ド/ブロック構造復号部1108より動き情報復号部1111に供給され、予測モード情
報メモリ1112より供給される候補ブロック群の動き情報を用いて、復号対象ブロック
の動き情報を復号する(S3702)。ステップS3702の処理の詳細については後述
する。
The encoded sequence of motion information separated from the encoded stream of the CU unit is supplied to the motion information decoding unit 1111 from the prediction mode / block structure decoding unit 1108 of FIG. 11 and is supplied from the prediction mode information memory 1112. The motion information of the decoding target block is decoded using the group motion information (S3702). Details of the processing in step S3702 will be described later.

分離された予測誤差情報の符号化列は、予測差分情報復号部1102に供給され、量子
化された予測誤差信号として復号され、逆量子化・逆変換部1103で逆量子化や逆直交
変換などの処理を施されることで、復号予測誤差信号が生成される(S3703)。
The separated coded sequence of prediction error information is supplied to the prediction difference information decoding unit 1102 and decoded as a quantized prediction error signal, and the inverse quantization / inverse transformation unit 1103 performs inverse quantization, inverse orthogonal transform, etc. By performing the above process, a decoded prediction error signal is generated (S3703).

動き情報復号部1111より、復号対象ブロックの動き情報が動き補償予測部1114
に供給され、動き補償予測部1114は動き情報にしたがって動き補償予測を行い、予測
信号を算出する(S3704)。加算部1104は、逆量子化・逆変換部1103から供
給された復号予測誤差信号と、動き補償予測部1114から予測モード/ブロック構造選
択部1109に供給され、更に予測モードで動き補償予測が選択されることで加算部11
04に供給された予測信号とを加算し、復号画像信号を生成する(S3705)。
From the motion information decoding unit 1111, the motion information of the decoding target block is converted into the motion compensation prediction unit 1114.
The motion compensation prediction unit 1114 performs motion compensation prediction according to the motion information, and calculates a prediction signal (S3704). The adder 1104 supplies the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 1103 and the motion compensation prediction unit 1114 to the prediction mode / block structure selection unit 1109, and further selects motion compensation prediction in the prediction mode. As a result, the adder 11
The prediction signal supplied to 04 is added to generate a decoded image signal (S3705).

加算部1104より供給された復号画像信号は、フレーム内復号画像バッファ1105
に格納されると共に、ループフィルタ部1106に供給される。また、動き情報復号部1
111より供給された復号対象ブロックの動き情報が予測モード情報メモリ1112に格
納される(S3706)。これが、対象CU内のすべての予測ブロックに対して施される
ことにより、予測ブロック単位の復号処理が終了する。
The decoded image signal supplied from the adding unit 1104 is the intra-frame decoded image buffer 1105.
And is supplied to the loop filter unit 1106. The motion information decoding unit 1
The motion information of the decoding target block supplied from 111 is stored in the prediction mode information memory 1112 (S3706). This is applied to all the prediction blocks in the target CU, thereby completing the decoding process for each prediction block.

図38は、図37のステップS3702の動き情報復号処理の詳細動作を説明するため
のフローチャートである。動き情報ビットストリーム復号部3600と予測ベクトル算出
部3601、及び結合動き情報算出部3604により、図37のステップS3702の動
き情報復号処理が行われる。
FIG. 38 is a flowchart for explaining the detailed operation of the motion information decoding process in step S3702 of FIG. The motion information decoding process of step S3702 of FIG. 37 is performed by the motion information bitstream decoding unit 3600, the prediction vector calculation unit 3601, and the combined motion information calculation unit 3604.

動き情報復号処理は、特定のシンタックス構造で符号化された符号化ビットストリーム
より動き情報を復号する処理である。最初に符号化ブロックのCU単位で復号されたSk
ipフラグがSkipモードを示している場合(S3800:YES)、結合予測動き情
報復号を行う(S3801)。ステップS3801の詳細処理については、後述する。
The motion information decoding process is a process of decoding motion information from an encoded bit stream encoded with a specific syntax structure. Sk decoded first in CU unit of coding block
When the ip flag indicates the Skip mode (S3800: YES), joint prediction motion information decoding is performed (S3801). Detailed processing in step S3801 will be described later.

一方、Skipモードでない場合には(S3800:NO)、マージフラグを復号する
(S3802)。マージフラグが1を示している場合(S3803:YES)には、ステ
ップS3801の結合予測動き情報復号に進む。
On the other hand, when the mode is not the Skip mode (S3800: NO), the merge flag is decoded (S3802). When the merge flag indicates 1 (S3803: YES), the process proceeds to joint prediction motion information decoding in step S3801.

マージフラグが1でない場合(S3803:NO)、動き予測フラグを復号し(S38
04)、予測動き情報復号を行い(S3805)、処理を終了する。ステップS3805
の詳細動作については、後述する。
If the merge flag is not 1 (S3803: NO), the motion prediction flag is decoded (S38).
04), predictive motion information decoding is performed (S3805), and the process is terminated. Step S3805
The detailed operation will be described later.

図39は、図38のステップS3801の結合予測動き情報復号処理の詳細動作を説明
するためのフローチャートである。
FIG. 39 is a flowchart for explaining detailed operation of the joint prediction motion information decoding process in step S3801 of FIG.

最初に予測モードに結合予測モードを設定し(S3900)、結合動き情報候補リスト
を生成する(S3901)。ステップS3901の処理は、動画像符号化装置における図
17のステップS1701の結合動き情報候補リスト生成処理と同一の処理である。
First, the combined prediction mode is set as the prediction mode (S3900), and a combined motion information candidate list is generated (S3901). The process of step S3901 is the same process as the combined motion information candidate list generation process of step S1701 of FIG. 17 in the video encoding device.

続いて、予測ブロックサイズが、図10に示した双予測を制限する制御パラメータinte
r_bipred_restriction_idcにより設定される双予測を制限する予測ブロックサイズである
bipred_restriction_size以下である場合(S3902:YES)には、格納された結合
動き情報候補リスト内の各候補における双予測の動き情報を単予測の動き情報に置き換え
る、結合動き情報候補単予測変換を行う(S3903)。この処理では、図30のフロー
チャートで示した符号化装置における結合動き情報単予測変換処理と同じ処理が施される
。予測ブロックサイズが、bipred_restriction_size以下でない場合(S3902:NO
)には、ステップS3904に進む。
Subsequently, the prediction block size is a control parameter inte that limits the bi-prediction shown in FIG.
Prediction block size that restricts bi-prediction set by r_bipred_restriction_idc
If it is equal to or less than bipred_restriction_size (S3902: YES), combined motion information candidate uni-prediction conversion is performed in which the motion information of bi-prediction in each candidate in the stored combined motion information candidate list is replaced with motion information of uni-prediction ( S3903). In this process, the same process as the combined motion information single prediction conversion process in the encoding apparatus shown in the flowchart of FIG. 30 is performed. When the predicted block size is not less than or equal to bipred_restriction_size (S3902: NO)
), The process proceeds to step S3904.

つぎに、結合動き情報インデックスを復号し(S3904)、続いて、結合動き情報候
補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得す
る(S3905)。取得する動き情報としては、単予測/双予測を示す予測種別、参照画
像指定情報、動きベクトル値となる。
Next, the combined motion information index is decoded (S3904), and then the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S3905). The motion information to be acquired includes a prediction type indicating single prediction / bi-prediction, reference image designation information, and a motion vector value.

実施の形態1においては、結合動き情報の双予測から単予測への変換処理は、結合動き
情報のインデックスの値を変更することがないため、復号装置においては復号に必要なイ
ンデックスの結合動き情報にのみ変換処理を行うことも可能であり、その場合には図39
のステップS3904及びステップS3905を行った後に、予測ブロックサイズによる
双予測の制限を行うステップS3902及びステップS3903が行われる。
In Embodiment 1, since the conversion process from the bi-prediction to the single prediction of the combined motion information does not change the index value of the combined motion information, the combined motion information of the index necessary for decoding in the decoding device It is also possible to perform the conversion process only in the case of FIG.
After performing Steps S3904 and S3905, Steps S3902 and S3903 for restricting bi-prediction based on the prediction block size are performed.

生成された動き情報は、結合予測モードの動き情報として格納され(S3906)、結
合動き補償予測復号部3606に供給される。
The generated motion information is stored as motion information in the joint prediction mode (S3906), and is supplied to the joint motion compensation prediction decoding unit 3606.

図40は、図38のステップS3805の予測動き情報復号処理の詳細動作を説明する
ためのフローチャートである。
FIG. 40 is a flowchart for explaining the detailed operation of the prediction motion information decoding process in step S3805 of FIG.

最初に、予測種別が単予測であるか否かを判別する(S4000)。単予測であれば、
処理対象とする参照画像リスト(LX)を予測に用いている参照画像リストに設定する(
S4001)。単予測でなければ、双予測であるから、この場合はLXをL0とする(S
4002)。
First, it is determined whether or not the prediction type is single prediction (S4000). If it is simple prediction,
A reference image list (LX) to be processed is set as a reference image list used for prediction (
S4001). If it is not uni-prediction, it is bi-prediction. In this case, LX is set to L0 (S
4002).

次に、参照画像指定情報を復号し(S4003)、差分ベクトル値を復号する(S40
04)。次に、予測ベクトル候補リストを生成し(S4005)、予測ベクトル候補リス
トが1より大きな場合(S4006:YES)、予測ベクトルインデックスを復号し(S
4007)、予測ベクトル候補リストが1の場合(S4006:NO)、予測ベクトルイ
ンデックスに0を設定する(S4008)。
Next, the reference image designation information is decoded (S4003), and the difference vector value is decoded (S40).
04). Next, a prediction vector candidate list is generated (S4005). When the prediction vector candidate list is larger than 1 (S4006: YES), the prediction vector index is decoded (S400).
4007), when the prediction vector candidate list is 1 (S4006: NO), 0 is set to the prediction vector index (S4008).

ここで、ステップS4005では、動画像符号化装置における図33のフローチャート
のステップS3304と同様の処理が行われる。
Here, in step S4005, processing similar to that in step S3304 in the flowchart of FIG. 33 in the video encoding device is performed.

次に、予測ベクトル候補リストより、予測ベクトルインデックスで示す位置に格納され
ている動きベクトル値を取得する(S4009)。復号した差分ベクトル値と動きベクト
ル値を加算することで動きベクトルを再生する(S4010)。
Next, the motion vector value stored at the position indicated by the prediction vector index is acquired from the prediction vector candidate list (S4009). A motion vector is reproduced by adding the decoded difference vector value and motion vector value (S4010).

続いて、再度予測種別が単予測である否かを判別し(S4011)、予測種別が単予測
であればステップS4014に進む。単予測でない、すなわち、双予測であれば、処理対
象の参照リストLXがL1か否かを判定する(S4012)。参照リストLXがL1であ
れば、ステップS4014に進み、L1でない、すなわち、L0であれば予測ブロックサ
イズがbipred_restrcition_size以下である場合には(S4013:YES)、ステップ
S4016に進み、予測ブロックサイズがbipred_restriction_sizeより大きい場合には
(S4013:NO)、LXをL1として(S4015)、ステップS4003からステ
ップS4011までの処理と同じ処理が行われる。
Subsequently, it is determined again whether or not the prediction type is single prediction (S4011). If the prediction type is single prediction, the process proceeds to step S4014. If it is not uni-prediction, that is, if it is bi-prediction, it is determined whether or not the reference list LX to be processed is L1 (S4012). If the reference list LX is L1, the process proceeds to step S4014. If it is not L1, that is, if it is L0, the predicted block size is equal to or less than bipred_restrcition_size (S4013: YES), the process proceeds to step S4016, and the predicted block size is bipred_restriction_size. If larger (S4013: NO), LX is set to L1 (S4015), and the same processing as the processing from step S4003 to step S4011 is performed.

予測ブロックサイズがbipred_restrcition_size以下である場合には、双予測の動き補
償が禁止されるため、復号装置におけるメモリアクセス量の制限を確実にするために、伝
送された動き情報を単予測に変換して(S4016)、ステップS4014に進む。
When the prediction block size is less than or equal to bipred_restrcition_size, bi-prediction motion compensation is prohibited, so the transmitted motion information is converted to single prediction to ensure the memory access amount limit in the decoding device. (S4016), the process proceeds to step S4014.

続いて、生成された動き情報として、単予測の場合には、1つの参照画像に対する参照
画像指定情報と動きベクトル値が、双予測の場合には、2つの参照画像に対する参照画像
指定情報と動きベクトル値が、動き情報として格納され(S4014)、動き補償予測復
号部3603に供給される。
Subsequently, as the generated motion information, in the case of single prediction, reference image designation information and motion vector values for one reference image, and in the case of bi-prediction, reference image designation information and motion for two reference images. The vector value is stored as motion information (S4014) and supplied to the motion compensated prediction decoding unit 3603.

実施の形態1における、予測動き情報復号処理においては、符号化時に伝送された動き
情報に対してシンタックスに従って復号を行うため、動画像符号化装置における、図33
の予測モード評価値生成処理において施しているような、メモリアクセス量の制限を確実
にするために双予測制限に関する条件分岐を行う、ステップS4013の条件判断及びス
テップS4016の処理を省略する形態においても実現可能であるが、実施の形態1にお
いては、メモリ帯域の制限を復号装置においても確実にする構成として、図40のフロー
チャートによる予測動き情報復号処理をとる。
In the prediction motion information decoding process according to the first embodiment, the motion information transmitted at the time of encoding is decoded according to the syntax.
As in the prediction mode evaluation value generation process, the conditional branching regarding the bi-prediction restriction is performed in order to ensure the restriction of the memory access amount, and the condition determination in step S4013 and the process in step S4016 are omitted. Although it is feasible, in Embodiment 1, the prediction motion information decoding process according to the flowchart of FIG. 40 is adopted as a configuration that ensures the limitation of the memory band even in the decoding apparatus.

図41は、図35に示したような、シーケンス単位のパラメータを伝送するseq_p
arameter_set_rbsp()等で、符号化処理/復号処理の最大画像サイズ
もしくは所定時間単位の最大処理画素数を定義するlevel_idcが伝送される場合に、参照
画像のメモリアクセス量の負荷は、最大処理画素数に比例して増大するため、使用可能な
最大処理画素数に連動させて、動き補償予測の予測ブロックサイズと双予測の制限を加え
る構成の一例である。符号化装置で定義され伝送されるlevel_idcに応じて、inter_4x4_e
nable及びinter_bipred_restriction_idcの取り得る値に制限を加えることで、符号化装
置・復号装置の想定される画像サイズに応じたメモリアクセスの制限をかけることが可能
となり、符号化装置及び復号装置の用途に応じて、必要なメモリ帯域を確保できる、処理
負荷及び装置の規模を削減しつつ符号化効率を維持できる符号化装置及び復号装置が実現
できる。
FIG. 41 shows seq_p that transmits parameters in sequence units as shown in FIG.
When level_idc that defines the maximum image size of the encoding / decoding process or the maximum number of processing pixels in a predetermined time unit is transmitted with the parameter_set_rbsp () or the like, the load of the memory access amount of the reference image is the maximum number of processing pixels This is an example of a configuration in which the prediction block size for motion compensation prediction and the restriction for bi-prediction are added in conjunction with the maximum number of usable processing pixels. Depending on the level_idc defined and transmitted by the encoder, inter_4x4_e
By limiting the possible values of nable and inter_bipred_restriction_idc, it is possible to limit the memory access according to the assumed image size of the encoding device / decoding device, depending on the use of the encoding device and decoding device Thus, it is possible to realize an encoding device and a decoding device that can secure the necessary memory bandwidth and can maintain the encoding efficiency while reducing the processing load and the scale of the device.

図41は、一例としてlevel_idcが6段階に設定されている場合に、少ない画素数の符
号化を想定した条件の場合には、inter_4x4_enableは制約なく(0と1のどちらも設定可
能)、inter_bipred_restriction_idcに対しても定義された値のすべてを設定可能として
いるが、level_idcの増加に伴い、図9で示したメモリアクセス量の大きな予測処理から
段階的に予測ブロックサイズ及び双予測の制限を加えることで、inter_4x4_enable(常に
0のみにする)及びinter_bipred_restriction_idc(取り得る値の最小値を大きくする)
を、最大画像サイズや最大処理画素数と連動して制御することができる。
In FIG. 41, as an example, when level_idc is set to 6 levels, inter_4x4_enable is not restricted (in the case of 0 and 1 can be set) under the condition that encoding with a small number of pixels is assumed, inter_bipred_restriction_idc All of the defined values can be set, but with the increase of level_idc, the prediction block size and bi-prediction restrictions are added step by step from the prediction process with a large memory access amount shown in FIG. , Inter_4x4_enable (always set to 0 only) and inter_bipred_restriction_idc (increase the minimum possible value)
Can be controlled in conjunction with the maximum image size and the maximum number of processed pixels.

また、図41のように、level_idcを基準に最大画像サイズや最大処理画素数と連動し
てinter_4x4_enableやinter_bipred_restriction_idcの値を、伝送せずに暗黙で制限下の
固定値に設定し、符号化装置・復号装置にて、設定された制限による動き補償予測及び双
予測の制限をおこなうことも可能であり、その場合にはlevel_idcが伝送されることで、
対応したinter_4x4_enableやinter_bipred_restriction_idcの値が復号できる構成になる
Further, as shown in FIG. 41, the value of inter_4x4_enable and inter_bipred_restriction_idc is implicitly set to a fixed value under restriction without being transmitted in conjunction with the maximum image size and the maximum number of processed pixels with reference to level_idc. In the decoding device, it is also possible to restrict motion compensation prediction and bi-prediction by the set restriction, in which case level_idc is transmitted,
The corresponding inter_4x4_enable and inter_bipred_restriction_idc values can be decoded.

実施の形態1においては、inter_4x4_enableという4×4予測ブロックサイズの動き補
償予測を禁止する制御パラメータを用いているが、動き補償予測の予測ブロック制限に関
しても、inter_bipred_restriction_idcと同様に、指定された予測ブロックサイズ以下の
ブロックサイズの動き補償予測を禁止する制御パラメータを用いることも可能であり、よ
りメモリアクセス量を細かく制御することを可能にする。
In Embodiment 1, the control parameter prohibiting motion compensated prediction of 4 × 4 prediction block size called inter_4x4_enable is used, but the prediction block restriction of motion compensated prediction is the same as the inter_bipred_restriction_idc specified prediction block. It is also possible to use a control parameter that prohibits motion compensation prediction of a block size equal to or smaller than the size, which makes it possible to control the memory access amount more finely.

実施の形態1において、4×8画素と8×4画素のように、予測ブロックサイズの面積
は同一で水平・垂直の画素数が異なる場合の双予測の制限を、同一基準で行っているが、
一般的に参照画像メモリのアクセス単位が水平方向に4画素や8画素などの複数画素で構
成される場合が多いことを想定し、水平方向の画素数が少ない4×8画素を、よりメモリ
アクセス量が多い予測ブロックサイズであると定義して、動き補償予測や双予測の制限を
加えることも可能であり、より復号装置の構成に適したメモリアクセス量の制御が可能と
なる。
In the first embodiment, bi-prediction restriction is performed on the same basis when the area of the prediction block size is the same and the number of horizontal and vertical pixels is different, such as 4 × 8 pixels and 8 × 4 pixels. ,
Assuming that the access unit of the reference image memory is generally composed of a plurality of pixels such as 4 pixels or 8 pixels in the horizontal direction, 4 × 8 pixels with a small number of pixels in the horizontal direction are more memory accessed. It is possible to define motion block prediction and bi-prediction by defining a large prediction block size, and it is possible to control the memory access amount more suitable for the configuration of the decoding device.

また、実施の形態1において、動き補償予測の効率を向上させるために、図42に示す
ように、CU内の分割を更に細かくて左右や上下が非対称の予測ブロックを定義する場合
においても、非対称のブロックに対する、予測ブロックサイズの制限を加えることにより
、段階的なメモリアクセス量の制御が可能である。
Further, in the first embodiment, in order to improve the efficiency of motion compensation prediction, as shown in FIG. 42, even when a prediction block having a more detailed division within the CU and asymmetric left and right and up and down is defined. By adding a restriction on the predicted block size for these blocks, it is possible to control the memory access amount in stages.

図42に示す、実施の形態1の別構成における、CUの予測ブロックへの分割構成は、
非分割(2N×2N)、水平・垂直への分割(N×N)、水平方向のみへの分割(2N×
N)、垂直方向のみへの分割(N×2N)に加えて、水平方向のみへの上1/4、下3/
4の非対称分割(2N×nU)、水平方向のみへの上3/4、下1/4の非対称分割(2
N×nD)、垂直方向のみへの左1/4、右3/4の非対称分割(nL×2N)、垂直方
向のみへの左3/4、右1/4の非対称分割(nR×2N)となっており、水平4画素、
垂直4画素未満の予測ブロックサイズを適用しないように、CUサイズが16×16以上
のCUにのみ、非対称分割の分割構成が適用可能になっている。
In the different configuration of the first embodiment shown in FIG.
Non-division (2N × 2N), horizontal / vertical division (N × N), horizontal division only (2N ×
N) In addition to the division only in the vertical direction (N × 2N), the upper 1/4, the lower 3 /
4 asymmetric divisions (2N × nU), upper 3/4 horizontal only, lower 1/4 asymmetric division (2
N × nD), left 1/4 in the vertical direction only, right 3/4 asymmetric division (nL × 2N), left in the vertical direction only 3/4, right 1/4 asymmetric division (nR × 2N) 4 pixels horizontally,
In order not to apply a prediction block size of less than 4 vertical pixels, the asymmetric division configuration can be applied only to a CU having a CU size of 16 × 16 or more.

続いて、図43に図42の予測ブロック構成における、動き補償予測のブロックサイズ
及び予測処理を制限する制御パラメータの一例を示し、説明する。制御パラメータは、最
も小さなCUサイズである8×8ブロックを分割する構成である、4×4、4×8及び8
×4予測ブロックの動き補償予測の有効・無効を制御するパラメータである、inter_pred
_enable_idcと、動き補償予測の内、双予測が施される予測処理のみを禁止するブロック
サイズを定義する、inter_bipred_restriction_idcの2つのパラメータで構成される。
Next, FIG. 43 shows an example of the block size of motion compensation prediction and control parameters for limiting the prediction processing in the prediction block configuration of FIG. The control parameter is configured to divide the 8 × 8 block which is the smallest CU size, 4 × 4, 4 × 8 and 8
Inter_pred is a parameter that controls the validity / invalidity of motion compensated prediction of × 4 prediction block
_enable_idc and inter_bipred_restriction_idc that defines a block size that prohibits only prediction processing for which bi-prediction is performed among motion compensation predictions.

図43の制御パラメータの構成では、inter_bipred_restriction_idcに対して、水平・
垂直の画素数のメモリアクセスに与える影響を加味した、16×16画素以下の予測ブロ
ックサイズの大きさの順番を小さい方から、4×4、4×8、8×4、8×8、4×16
/12×16(nL×2N/nR×2N)、8×16、16×12/16×4(2N×n
U/2N×nD)、16×8、16×16と定義し、双予測を制限する予測ブロックサイ
ズの値を設定する。これにより、動き補償予測の効率を向上させた非対称構成の予測ブロ
ックに対しても、図10で示した制御パラメータを用いた構成と同様に、細かい単位での
メモリアクセス量の制御を行うことが可能となり、動き補償予測の効率を向上させたうえ
で、許容されるメモリ帯域に応じた、メモリアクセス量の制御を可能とする。
In the configuration of the control parameters in FIG. 43, the horizontal and the inter_bipred_restriction_idc
In consideration of the influence of the number of vertical pixels on memory access, the order of the size of the predicted block size of 16 × 16 pixels or less is from 4 × 4, 4 × 8, 8 × 4, 8 × 8, 4 × 16
/ 12 × 16 (nL × 2N / nR × 2N), 8 × 16, 16 × 12/16 × 4 (2N × n
U / 2N × nD), 16 × 8, 16 × 16, and sets a prediction block size value that restricts bi-prediction. As a result, the memory access amount can be controlled in a fine unit even for a prediction block having an asymmetric configuration in which the efficiency of motion compensation prediction is improved, as in the configuration using the control parameters shown in FIG. Thus, the efficiency of motion compensation prediction is improved, and the memory access amount can be controlled according to the allowable memory bandwidth.

実施の形態1においては、inter_bipred_restriction_idcで定義された予測ブロックサ
イズを基準に、定義されたサイズ以下の予測ブロックに双予測の制限を加えているが、値
による制限を、定義されたサイズ未満の予測ブロックに双予測の制限を加えるようにする
ことも、双予測の制限を加える予測ブロックサイズ未満の予測ブロックサイズにおいて動
き補償予測を行わない場合に、定義されたサイズの予測ブロックに双予測の制限を加える
ようにすることも、本発明を実現する構成として可能である。定義されたサイズ未満の予
測ブロックに双予測の制限を加えるようにする場合には、実施の形態1の符号化装置にお
ける、図17のフローチャートで示すステップS1702、図33のフローチャートで示
すステップS3308、実施の形態1の復号装置における、図39のフローチャートで示
すステップS3902、図40のフローチャートで示すステップS4013における条件
判断が、bipred_restriction_size未満で有るか否かになると共に、inter_bipred_restri
ction_idcで定義する予測ブロックサイズの値が1つ大きい予測ブロックサイズとして設
定されることで、実現される。
In Embodiment 1, bi-prediction restriction is applied to a prediction block having a size equal to or smaller than the defined size on the basis of the prediction block size defined by inter_bipred_restriction_idc. Limiting bi-prediction to a block is also possible, and bi-prediction is limited to a prediction block of a defined size if motion compensated prediction is not performed at a prediction block size that is smaller than the prediction block size to which bi-prediction restriction is applied. It is also possible to add the above as a configuration for realizing the present invention. When the restriction of bi-prediction is added to a prediction block having a size smaller than the defined size, step S1702 shown in the flowchart of FIG. 17 and step S3308 shown in the flowchart of FIG. 33 in the encoding apparatus of the first embodiment. In the decoding apparatus of the first embodiment, whether or not the condition judgment in step S3902 shown in the flowchart of FIG. 39 and step S4013 shown in the flowchart of FIG. 40 is less than bipred_restriction_size, and inter_bipred_restri
This is realized by setting the prediction block size value defined by ction_idc as one larger prediction block size.

実施の形態1においては、図35に示したように、動き補償予測におけるメモリアクセ
ス量を制限するための制御パラメータである、inter_4x4_enable及びinter_bipred_restr
iction_idcを、それぞれ個別のパラメータとして符号化伝送する構成を一例として示した
が、これらの制御パラメータ情報が、動画像符号化装置及び動画像復号装置のメモリアク
セス量制限を制御するパラメータとして伝送できる構成であれば、図44に示すようなin
ter_4x4_enableとinter_bipred_restriction_idcの組合せで定義する情報(inter_mc_res
trcution_idc)を符号化伝送する構成も可能であり、所定もしくは所定以下の予測ブロッ
クサイズでの動き補償予測処理を行わないように制御する情報と、所定以下の予測ブロッ
クサイズでの双予測を行わないように制御する情報により、更に動き補償予測及び結合動
き情報候補の単予測制限を行う処理を1つの指示情報に統合して符号化伝送及び復号でき
る効果が生じる。
In the first embodiment, as shown in FIG. 35, inter_4x4_enable and inter_bipred_restr, which are control parameters for limiting the memory access amount in motion compensation prediction.
The configuration in which iction_idc is encoded and transmitted as an individual parameter has been shown as an example. However, the configuration in which these control parameter information can be transmitted as a parameter for controlling the memory access amount limit of the video encoding device and the video decoding device. Then, in as shown in FIG.
Information defined by the combination of ter_4x4_enable and inter_bipred_restriction_idc (inter_mc_res
trcution_idc) can be encoded and transmitted, and information for controlling not to perform motion compensation prediction processing with a prediction block size of a predetermined or less than a predetermined value and bi-prediction with a prediction block size of a predetermined value or less are not performed. The information that is controlled in this way has the effect of further integrating the processing for performing motion compensation prediction and single prediction restriction of combined motion information candidates into one piece of instruction information for encoding transmission and decoding.

また、実施の形態1においては、動き補償予測に対してメモリアクセス量を制限するた
めの、結合動き補償予測に用いられる双予測を禁止する手段として、結合動き情報候補イ
ンデックスに格納された後の動き情報を、条件に応じて双予測の動き情報から単予測の動
き情報に変換し格納し、予測処理に使用するため、双予測の結合動き情報候補を禁止する
のでなく、単予測の動き情報として用いることが可能となり、双予測を禁止する条件の予
測ブロックサイズにおける動き補償予測の予測精度が向上し、符号化効率が向上する効果
を有する。
Further, in the first embodiment, as a means for prohibiting bi-prediction used for joint motion compensation prediction to limit the memory access amount with respect to motion compensation prediction, after being stored in the joint motion information candidate index Motion information is converted from bi-prediction motion information to uni-prediction motion information according to conditions, stored, and used for prediction processing. As a result, the prediction accuracy of motion compensated prediction in the prediction block size under the condition prohibiting bi-prediction is improved, and the coding efficiency is improved.

(実施の形態2)
続いて、本発明の実施の形態2に係る動画像符号化装置及び動画像復号装置の説明を行
う。実施の形態2においては、実施の形態1と同様に、予測ブロックサイズによる動き補
償予測の制限と、予測ブロックサイズ以下の双予測の制限の組合せで、最大メモリアクセ
ス量を制限する構成は同一であるが、双予測の制限を定義するパラメータを制限する予測
ブロックサイズを示す情報ではなく、最小CUサイズにおけるCU分割構造に対する双予
測の制限を加える構造を取る。
(Embodiment 2)
Next, the video encoding device and video decoding device according to Embodiment 2 of the present invention will be described. In the second embodiment, as in the first embodiment, the configuration for limiting the maximum memory access amount is the same by combining the motion compensation prediction limitation based on the prediction block size and the bi-prediction limitation equal to or less than the prediction block size. There is a structure that adds a restriction of bi-prediction to a CU partition structure at the minimum CU size, not information indicating a prediction block size that restricts a parameter that defines a restriction of bi-prediction.

図45に本発明の実施の形態2における、動き補償予測のブロックサイズ及び予測処理
を制限する制御パラメータの一例を示し、説明する。
FIG. 45 shows an example of the motion-compensated prediction block size and control parameters for limiting the prediction processing in Embodiment 2 of the present invention.

制御パラメータは、最も小さな動き補償予測ブロックサイズである4×4画素の動き補
償予測の有効・無効を制御するパラメータである、inter_4x4_enableと、動き補償予測の
内、双予測が施される予測処理のみを禁止する最小CUサイズにおけるCU分割構造を定
義する、inter_bipred_restriction_for_mincb_idcの2つのパラメータで構成される。
The control parameters are inter_4x4_enable, which is a parameter for controlling the validity / invalidity of motion compensated prediction of 4 × 4 pixels, which is the smallest motion compensated prediction block size, and only prediction processing for which bi-prediction is performed among motion compensated predictions It consists of two parameters of inter_bipred_restriction_for_mincb_idc that define the CU partition structure in the minimum CU size that prohibits.

inter_bipred_restriction_for_mincb_idcは、4つの値を定義し、制限なし、N×N制
限、N×2N/2N×N以下制限、CU内すべての分割(PU)で制限の4つの状態を制
御する。最小CUサイズは、実施の形態1における、図35のシンタックスで示されるよ
うにlog2_min_coding_block_size_minus3で8を基準とした(8×8を示す)2のべき乗
値で定義され、inter_bipred_restriction_for_mincb_idcの値と最小CUサイズの連動に
より、双予測を制限するブロックサイズbipred_restriction_sizeが設定される。
inter_bipred_restriction_for_mincb_idc defines four values and controls four states of no restriction, N × N restriction, N × 2N / 2N × N or less restriction, and all divisions (PUs) in the CU. The minimum CU size is defined as a power of 2 based on 8 in log2_min_coding_block_size_minus3 (indicating 8 × 8) as shown in the syntax of FIG. 35 in Embodiment 1, and the value of inter_bipred_restriction_for_mincb_idc and the minimum CU size As a result, the block size bipred_restriction_size for limiting bi-prediction is set.

実施の形態2における、符号化装置及び復号装置の構成は、実施の形態1と同様の構成
をとることができ、実施の形態1におけるbipred_restriction_sizeが、上記log2_min_co
ding_block_size_minus3とinter_bipred_restriction_for_mincb_idcの組合せで定義され
る点が、異なる構成となっている。具体的なbipred_restriction_sizeの定義を図46に
示す。
The configuration of the encoding device and the decoding device in the second embodiment can be the same as in the first embodiment, and bipred_restriction_size in the first embodiment is equal to the log2_min_co
The point of being defined by the combination of ding_block_size_minus3 and inter_bipred_restriction_for_mincb_idc is a different configuration. A specific definition of bipred_restriction_size is shown in FIG.

inter_bipred_restriction_for_mincb_idcは、図47に示すシンタックスの一例に示さ
れるように、実施の形態1における図35のシンタックスと同様に構成され、シーケンス
単位のパラメータとしてseq_parameter_set_rbsp()で伝送され
、inter_bipred_restriction_idcに代わってinter_bipred_restriction_for_mincb_idcが
伝送する値となる。
As shown in an example of the syntax shown in FIG. 47, inter_bipred_restriction_for_mincb_idc is configured in the same way as the syntax of FIG. 35 in Embodiment 1, and is transmitted as a sequence unit parameter by seq_parameter_set_rbsp (), and instead of inter_bipred_restriction_idc Is the value to be transmitted.

メモリアクセス量が大きくなり、メモリ帯域の制限が必要になる状態は、符号化時の最
小CUサイズに対して生じるため、最小CUサイズと連動して双予測の制限を加える構成
は、管理・伝送するパラメータの無駄が少なく、なお且つ符号化装置においてメモリアク
セス量の制限を加えたい場合に、より大きなサイズでの双予測制限を少ない制御パラメー
タ値で定義できる効果を有する。
Since the memory access amount becomes large and the state where the memory bandwidth needs to be limited occurs with respect to the minimum CU size at the time of encoding, the configuration for limiting the bi-prediction in conjunction with the minimum CU size is managed and transmitted. When there is little wasted parameter, and it is desired to limit the memory access amount in the encoding apparatus, the bi-prediction limitation at a larger size can be defined with a small control parameter value.

さらに、実施の形態2においては、CU内の分割を更に細かくて左右や上下が非対称の
予測ブロックを定義して、動き補償予測効率を向上させる場合においても、ブロックサイ
ズ毎のサイズ制限を各CU階層で追加しなくても、最小CUサイズにおける定義のみを追
加すれば良いため、拡張性も高いと共に、ハイビジョンを終える超高精細画像の符号化・
復号処理を行う際に、予測ブロックサイズの大きさや双予測の制限を明示的に行うことが
容易に実現できる効果を有する。
Furthermore, in the second embodiment, even when the prediction within the CU is further finely divided and the left and right and up and down asymmetric prediction blocks are defined to improve the motion compensation prediction efficiency, the size restriction for each block size is set for each CU. Even if it is not added in the hierarchy, it is only necessary to add the definition in the minimum CU size, so it has high expandability and encoding of ultra-high definition images that finish high-definition.
When performing the decoding process, it is possible to easily realize explicitly limiting the prediction block size and bi-prediction.

(実施の形態3)
続いて、本発明の実施の形態3に係る動画像符号化装置及び動画像復号装置の説明を行
う。実施の形態3においては、メモリアクセス量を制限する為の動き補償予測や双予測の
制限に加えて、予測ブロックサイズが小さくなった際の結合動き予測候補生成処理の動作
回数を制限することで、結合動き予測候補生成に要する処理負荷を軽減させる構成を取る
(Embodiment 3)
Next, the video encoding device and video decoding device according to Embodiment 3 of the present invention will be described. In Embodiment 3, in addition to motion compensation prediction and bi-prediction limitations for limiting the memory access amount, by limiting the number of operations of combined motion prediction candidate generation processing when the prediction block size is reduced, The configuration is such that the processing load required for generating the combined motion prediction candidate is reduced.

具体的には、所定のCUサイズ以下予測ブロックサイズにおける、各予測ブロックにお
いて、同一の隣接ブロックの動き情報を用いて同一の結合動き情報候補生成処理を行う構
成となる。実施の形態3では、最小CUサイズである8×8CUサイズの予測ブロックに
対して、上記構成を取る構成を取り、実施の形態3の8×8CUサイズの結合動き情報候
補生成における空間周辺予測ブロックの位置を、図48を用いて説明する。
Specifically, the same combined motion information candidate generation process is performed using the motion information of the same adjacent block in each prediction block in a prediction block size equal to or smaller than a predetermined CU size. In Embodiment 3, the configuration having the above configuration is adopted for the prediction block of 8 × 8 CU size that is the minimum CU size, and the spatial peripheral prediction block in the combined motion information candidate generation of 8 × 8 CU size of Embodiment 3 Will be described with reference to FIG.

8×8CUにおいて、8×8画素の予測ブロック(2N×2N)に対する空間候補ブロ
ック群のブロックA0、ブロックA1、ブロックB0、ブロックB1、ブロックB2の5
ブロックの位置は、図48(a)に示すように、図19に示した、実施の形態1における
空間候補ブロック群の定義と同一の位置を示す。
In the 8 × 8 CU, 5 of the block A0, the block A1, the block B0, the block B1, and the block B2 of the spatial candidate block group for the prediction block (2N × 2N) of 8 × 8 pixels.
As shown in FIG. 48 (a), the block position indicates the same position as the definition of the space candidate block group in the first embodiment shown in FIG.

これに対して、4×8画素の予測ブロック(N×2N)、8×4画素の予測ブロック(
2N×N)、4×4画素の予測ブロック(N×N)に対する空間候補ブロック群の位置に
関しては、図48(b)、(c)、(d)に示すように、図19に示した、実施の形態1
における空間候補ブロック群の定義で示される、対象予測ブロックの隣接位置のブロック
ではなく、8×8画素に対する空間候補ブロック群と同じ位置が、すべての予測ブロック
に対して用いられる。時間候補ブロック群の位置に関しても同様に、8×8画素の予測ブ
ロックと同一の位置が、4×8画素、8×4画素、4×4画素すべての予測ブロックに対
して用いられる。
In contrast, a prediction block of 4 × 8 pixels (N × 2N), a prediction block of 8 × 4 pixels (
2N × N), the position of the spatial candidate block group for the 4 × 4 pixel prediction block (N × N) is shown in FIG. 19 as shown in FIGS. 48 (b), (c), and (d). Embodiment 1
The same position as the space candidate block group for 8 × 8 pixels is used for all prediction blocks, not the block at the adjacent position of the target prediction block shown in the definition of the space candidate block group in FIG. Similarly, regarding the position of the temporal candidate block group, the same position as the prediction block of 8 × 8 pixels is used for all prediction blocks of 4 × 8 pixels, 8 × 4 pixels, and 4 × 4 pixels.

すなわち、対象となる8×8CUに対して、構成されるすべての予測ブロック構造にお
いて、同一の結合動き情報候補が用いられることになり、符号化装置及び復号装置におけ
る結合動き情報生成処理は1回の生成処理で実現できる。
That is, for the target 8 × 8 CU, the same combined motion information candidate is used in all configured prediction block structures, and the combined motion information generation process in the encoding device and the decoding device is performed once. It can be realized by the generation process.

続いて、実施の形態3における、動画像符号化装置の符号化ブロック単位の符号化処理
の説明を行う。実施の形態1における符号化ブロック単位の符号化処理に対して、図7の
フローチャートで示される動き補償予測ブロックサイズ選択/予測信号生成処理と、図1
7のフローチャートで示される動き補償予測モード/予測信号生成処理のみが異なるため
、これらの処理に関して説明する。
Subsequently, an encoding process for each encoding block of the moving image encoding apparatus according to the third embodiment will be described. In contrast to the coding block unit coding process in the first embodiment, the motion compensated prediction block size selection / prediction signal generation process shown in the flowchart of FIG.
Since only the motion compensation prediction mode / prediction signal generation process shown in the flowchart of FIG. 7 is different, these processes will be described.

図49に実施の形態3における動き補償予測ブロックサイズ選択/予測信号生成処理の
フローチャートを示す。実施の形態1の図7のフローチャートと同一のステップに関して
は、同一番号をつけ異なる部分にのみ新しいステップ番号をつけている。
FIG. 49 shows a flowchart of motion compensation prediction block size selection / prediction signal generation processing in the third embodiment. Regarding the same steps as those in the flowchart of FIG. 7 of the first embodiment, the same numbers are assigned and new step numbers are assigned only to different portions.

最初に、対象CUに対して予測対象となる符号化ブロック画像を取得する(S700)
。次に、対象CUのCUサイズが8×8であるか否かを判定する(S4908)。対象C
UのCUサイズが8×8である場合(S4908:YES)には、結合動き情報候補リス
ト生成処理が行われる(S4909)。対象CUのCUサイズが8×8でない場合(S4
908:NO)には、ステップS701に進む。ステップS4909の詳細に関しては、
実施の形態1における図18の結合動き情報候補リスト生成処理と同一の処理が行われる
First, an encoded block image to be predicted is acquired for the target CU (S700).
. Next, it is determined whether or not the CU size of the target CU is 8 × 8 (S4908). Target C
When the CU size of U is 8 × 8 (S4908: YES), combined motion information candidate list generation processing is performed (S4909). When the CU size of the target CU is not 8 × 8 (S4
(908: NO), the process proceeds to step S701. Regarding details of step S4909,
The same process as the combined motion information candidate list generation process of FIG. 18 in the first embodiment is performed.

ステップS4909を行った後、対象CU内の最小予測ブロックサイズがbipred_restr
iction_size以下である場合(S4910:YES)、結合動き情報候補単予測変換処理
が行われる(S4911)。対象CU内の最小予測ブロックサイズがbipred_restriction
_size以下でない場合には(S4910:NO)、ステップS701に進む。ステップS
4911の詳細に関しては、実施の形態1における図30の結合動き情報候補単予測変換
処理と同一の処理が行われる。
After performing step S4909, the minimum prediction block size in the target CU is bipred_restr.
When it is less than or equal to iction_size (S4910: YES), combined motion information candidate single prediction conversion processing is performed (S4911). The minimum predicted block size in the target CU is bipred_restriction
If it is not less than _size (S4910: NO), the process proceeds to step S701. Step S
Regarding the details of 4911, the same processing as the combined motion information candidate single prediction conversion processing of FIG. 30 in Embodiment 1 is performed.

実施の形態3においては、双予測を制限する予測ブロックサイズであるbipred_restric
tion_sizeにおける結合動き情報候補生成処理が、対象となるCUにおいて用いられる予
測ブロックサイズである場合(inter_4x4_enableが1の場合には、4×4/4×8/8×
4/8×8の予測ブロック、inter_4x4_enableが0の場合には、4×8/8×4/8×8
の予測ブロック)には、対象CUに対して同一に生成する結合動き情報候補リストに対し
て双予測の動き情報を単予測に変換する処理を行う。つまり、bipred_restriction_size
が3(8×8以下制限)に拡張された処理が行われることになる。
In the third embodiment, bipred_restric which is a prediction block size for limiting bi-prediction
When the combined motion information candidate generation process in the option_size is the predicted block size used in the target CU (when inter_4x4_enable is 1, 4 × 4/4 × 8/8 ×
4/8 × 8 prediction block, if inter_4x4_enable is 0, 4 × 8/8 × 4/8 × 8
(Prediction block) is a process for converting bi-prediction motion information into single prediction for the combined motion information candidate list generated identically for the target CU. That is, bipred_restriction_size
Is expanded to 3 (8 × 8 or less limit).

図49の説明に戻り、ステップS4911の結合動き情報候補単予測変換処理を行った
後、ステップS701に進む。ステップS701以降、ステップS707までの処理に関
しては、実施の形態1における図7のフローチャートにおけるステップS701からステ
ップS707までの処理と同一の処理が行われる。
Returning to the description of FIG. 49, after performing the combined motion information candidate single prediction conversion process of step S4911, the process proceeds to step S701. The processing from step S701 to step S707 is the same as the processing from step S701 to step S707 in the flowchart of FIG. 7 in the first embodiment.

実施の形態3においては、8×8CUサイズに対する、結合動き情報候補リスト生成処
理と結合動き情報候補単予測変換処理が同一の動作で行われ、符号化装置においては1回
の生成処理によって、8×8CUサイズ内のすべての結合動き情報候補を生成することが
可能となる効果を有する。また、実施の形態3において、図49のフローチャートのステ
ップS4910の処理を行わない構成においては、8×8CUサイズに対して結合動き情
報候補リスト生成処理が同一の動作で行われ、且つbipred_restriction_sizeを拡張しな
い状態での結合動き情報候補単予測変換処理を可能とする効果を有するが、符号化装置に
おいては8×8CUサイズ内の予測ブロックサイズ毎の結合動き情報候補単予測変換処理
が必要となる。
In the third embodiment, the combined motion information candidate list generation process and the combined motion information candidate uni-prediction conversion process for the 8 × 8 CU size are performed by the same operation, and the encoding device performs 8 generations by one generation process. There is an effect that it becomes possible to generate all combined motion information candidates within the × 8 CU size. In Embodiment 3, in the configuration in which the process of step S4910 in the flowchart of FIG. 49 is not performed, the combined motion information candidate list generation process is performed with the same operation for the 8 × 8 CU size, and bipred_restriction_size is expanded. The combined motion information candidate uni-prediction conversion process in a state where the prediction is not performed can be performed, but the encoding apparatus needs the combined motion information candidate uni-prediction conversion process for each prediction block size within the 8 × 8 CU size.

次に、図50に実施の形態3における動き補償予測モード/予測信号生成処理のフロー
チャートを示し説明する。実施の形態1の図17のフローチャートと同一のステップに関
しては、同一番号をつけ異なる部分にのみ新しいステップ番号をつけている。
Next, FIG. 50 shows a flowchart of motion compensation prediction mode / prediction signal generation processing in the third embodiment. With respect to the same steps as those in the flowchart of FIG. 17 of the first embodiment, the same numbers are assigned and new step numbers are assigned only to different portions.

定義されたCU内の予測ブロックサイズ分割モード(PU)に従って設定されたNum
Partに基づき、対象CU内をPU分割した予測ブロックサイズ毎に(S1700)、
対象CUサイズが8×8でない場合(S5010:NO)には、ステップS1701から
ステップS1708までのステップが実行される(S1709)。ステップS1701か
らステップS1708までの処理に関しては、実施の形態1における図17のフローチャ
ートと同一の処理が行われる。
Num set according to the predicted block size partition mode (PU) in the defined CU
Based on the Part, for each predicted block size obtained by performing PU division on the target CU (S1700),
If the target CU size is not 8 × 8 (S5010: NO), steps from step S1701 to step S1708 are executed (S1709). Regarding the processing from step S1701 to step S1708, the same processing as the flowchart of FIG. 17 in the first embodiment is performed.

対象CUサイズが8×8である場合(S5010:YES)には、ステップS1701
からステップS1703までの処理を行わずに、ステップS1704に進む。すなわち、
対象CUサイズが8×8である、予測ブロックサイズの場合には、図49で示した動き補
償予測ブロックサイズ選択/予測信号生成処理のフローチャート内の処理で生成された結
合動き情報候補をそのまま使用して、結合予測モードの動き補償予測を行う構成となって
いる。
If the target CU size is 8 × 8 (S5010: YES), step S1701 is performed.
The process proceeds to step S1704 without performing the processing from step S1703 to step S1703. That is,
When the target CU size is 8 × 8 and the prediction block size is used, the combined motion information candidate generated by the process in the flowchart of the motion compensated prediction block size selection / prediction signal generation process shown in FIG. 49 is used as it is. Thus, the motion compensation prediction in the combined prediction mode is performed.

続いて、実施の形態3における、動画像復号装置の符号化ブロック単位の復号処理は実
施の形態1と同一の処理を行い、結合動き予測における結合動き情報候補リスト生成のた
めに用いる候補ブロックの位置のみを対象となるCUが8×8の場合に、図48で示した
ようにすべての予測ブロックで同一位置の候補ブロックを取得し、図39のフローチャー
トで示された結合動き情報復号処理におけるステップS3902の判断条件として、CU
サイズが8×8の場合には、CU内で定義可能な最小予測ブロックサイズがbipred_restr
iction_size以下であるか否かの条件に置き換わる構成で実現できる。
Subsequently, the decoding process in units of coding blocks of the video decoding device in the third embodiment performs the same process as in the first embodiment, and the candidate blocks used for generating the combined motion information candidate list in the combined motion prediction. In the case where the CU targeted for only the position is 8 × 8, candidate blocks at the same position are obtained in all the prediction blocks as shown in FIG. 48, and in the combined motion information decoding process shown in the flowchart of FIG. As a judgment condition of step S3902, CU
When the size is 8 × 8, the minimum prediction block size that can be defined in the CU is bipred_restr.
It can be realized with a configuration that replaces the condition of whether or not it is less than or equal to iction_size.

なお、実施の形態3において、図39のフローチャートで示された結合動き情報復号処
理におけるステップS3902の判断条件を変更しない構成で実現した場合には、8×8
CUサイズに対して結合動き情報候補リスト生成処理を同一の動作で行い、且つbipred_r
estriction_sizeを拡張しない状態での結合動き情報候補単予測変換処理を可能とする効
果を有する。復号装置においては、符号化ストリームを復号することで、復号対象ブロッ
クに対する予測ブロックサイズは特定されるため、特定された予測ブロックサイズに対す
る単一の結合動き情報候補単予測変換処理が行われる。
In the third embodiment, when the configuration in which the determination condition in step S3902 in the combined motion information decoding process shown in the flowchart of FIG.
The combined motion information candidate list generation process is performed with the same operation for the CU size, and bipred_r
This has the effect of enabling combined motion information candidate single prediction conversion processing in a state where estriction_size is not expanded. In the decoding apparatus, since the prediction block size for the decoding target block is specified by decoding the encoded stream, a single combined motion information candidate single prediction conversion process is performed for the specified prediction block size.

また、実施の形態3における、動画像復号装置において、更に結合動き情報候補生成処
理を少ない処理で実現できる構成として、実施の形態1における符号化ブロック単位の復
号処理に対して、図39の結合動き情報復号処理を図51で示すフローチャートの処理に
置き換える構成をとることが可能であり、その動作を説明する。図39のフローチャート
と同一のステップに関しては、同一番号をつけ異なる部分にのみ新しいステップ番号をつ
けている。
In addition, in the moving picture decoding apparatus according to the third embodiment, the combined motion information candidate generation process can be realized with fewer processes. It is possible to replace the motion information decoding process with the process of the flowchart shown in FIG. 51, and the operation will be described. With respect to the same steps as those in the flowchart of FIG. 39, the same numbers are assigned and new step numbers are assigned only to different portions.

予測モードに結合予測モードを設定した後(S3900)、対象となっている予測ブロ
ックのCUサイズが8×8であるか否かを判断する(S5107)。CUサイズが8×8
でない場合(S5107:NO)には、ステップS3901に進み、実施の形態1と同様
の結合予測動き情報復号処理が行われる。
After the combined prediction mode is set as the prediction mode (S3900), it is determined whether or not the CU size of the target prediction block is 8 × 8 (S5107). CU size is 8x8
If not (S5107: NO), the process proceeds to step S3901, and the joint prediction motion information decoding process similar to that of the first embodiment is performed.

一方、CUサイズが8×8である場合には(S5107:YES)、対象となっている
予測ブロックが対象CU内の最初の結合予測モードであるか否かを判断する(S5108
)。最初の結合予測モードである場合には(S5108:YES)、結合動き情報候補リ
スト生成処理が行われる(S5109)。ステップS5109においては、図48で示し
たように、CU内の全予測ブロックで同一位置の候補ブロックを取得する構成で、ステッ
プS3901と同じ処理が行われる。
On the other hand, when the CU size is 8 × 8 (S5107: YES), it is determined whether or not the target prediction block is the first combined prediction mode in the target CU (S5108).
). If it is the first combined prediction mode (S5108: YES), combined motion information candidate list generation processing is performed (S5109). In step S5109, as shown in FIG. 48, the same processing as that in step S3901 is performed with a configuration in which candidate blocks at the same position are acquired for all prediction blocks in the CU.

最初の結合予測モードでない場合には(S5108:NO)、既に対象CUで同一に生
成される結合動き情報候補リストが生成済であるため、結合動き情報候補リスト生成処理
を行わず、ステップS3904に進む。対象CUにおいて一度の結合動き情報候補リスト
生成で復号処理が可能となるため、8×8CU内に複数の結合予測モードが存在する場合
の結合動き情報候補リスト生成処理が削減される。
If it is not the first combined prediction mode (S5108: NO), since the combined motion information candidate list generated in the same way in the target CU has already been generated, the combined motion information candidate list generation processing is not performed, and the process proceeds to step S3904. move on. Since decoding processing can be performed by generating a combined motion information candidate list once in the target CU, combined motion information candidate list generation processing when a plurality of combined prediction modes exist in the 8 × 8 CU is reduced.

ステップS5109を行った後、CU内で定義可能な最小予測ブロックサイズがbipred
_restriction_size以下であるか否かの判断を行い(S5110)、最小予測ブロックサ
イズがbipred_restriction_size以下である場合(S5110:YES)には、結合動き
情報候補単予測変換処理を行い(S3903)、最小予測ブロックサイズがbipred_restr
iction_sizeより大きい場合(S5110:NO)には、ステップS3904に進む。
After performing step S5109, the minimum prediction block size that can be defined in the CU is bipred.
It is determined whether or not it is equal to or smaller than _restriction_size (S5110). If the minimum predicted block size is equal to or smaller than bipred_restriction_size (S5110: YES), combined motion information candidate single prediction conversion processing is performed (S3903), and the minimum predicted block is determined. Size is bipred_restr
If larger than iction_size (S5110: NO), the process proceeds to step S3904.

ステップS3904からステップS3906の処理に関しては、実施の形態1における
図39のフローチャートの処理と同一の処理が行われ、結合予測モードの動き情報が復号
され格納される。
Regarding the processing from step S3904 to step S3906, the same processing as the processing in the flowchart of FIG. 39 in the first embodiment is performed, and the motion information in the joint prediction mode is decoded and stored.

実施の形態3における動画像符号化装置及び動画像復号装置によれば、メモリアクセス
量を制限する為の動き補償予測や双予測の制限と予測ブロックサイズが小さくなった際の
結合動き予測候補生成処理の処理削減を、それぞれの制限に対して整合がとれた構成で実
現可能とし、メモリ帯域の制限及び結合動き情報候補生成処理削減を両立しつつ符号化効
率を向上させることができる。
According to the moving picture coding apparatus and the moving picture decoding apparatus in the third embodiment, combined motion prediction candidate generation when the motion compensation prediction for limiting the memory access amount, the restriction of bi-prediction, and the prediction block size are reduced It is possible to realize processing reduction with a configuration that is consistent with each restriction, and to improve the coding efficiency while simultaneously reducing the memory bandwidth and reducing the combined motion information candidate generation process.

実施の形態3における同一結合動き情報候補リストを構成する単位は、8×8サイズと
して説明を行ったが、8×8サイズに限定される必要はなく、ピクチャ単位やシーケンス
単位などの所定単位で、同一リストを生成する最大予測ブロックサイズを定義するパラメ
ータ情報を伝送することで、その単位を変化されることが可能である。パラメータとして
は、例えばlog2_parallel_merge_level_minus2として、同一リストを生成する予測ブロッ
クサイズの水平・垂直サイズの基準となる、2のべき乗値に対応する値が定義できる。
The unit constituting the same combined motion information candidate list in Embodiment 3 has been described as an 8 × 8 size, but is not limited to the 8 × 8 size, and is a predetermined unit such as a picture unit or a sequence unit. The unit can be changed by transmitting parameter information defining the maximum predicted block size for generating the same list. As a parameter, for example, log2_parallel_merge_level_minus2 can be defined as a value corresponding to a power of 2 that serves as a reference for the horizontal / vertical size of the predicted block size for generating the same list.

(実施の形態4)
続いて、本発明の実施の形態4に係る動画像符号化装置及び動画像復号装置の説明を行
う。実施の形態4においては、実施の形態3と同様に、メモリアクセス量を制限する為の
動き補償予測や双予測の制限に加えて、予測ブロックサイズが小さくなった際の結合動き
予測候補生成処理の動作回数を制限することで、結合動き予測候補生成に要する処理負荷
を軽減させる構成を取る。
(Embodiment 4)
Next, the video encoding device and video decoding device according to Embodiment 4 of the present invention will be described. In the fourth embodiment, as in the third embodiment, in addition to motion compensation prediction and bi-prediction restriction for restricting the memory access amount, combined motion prediction candidate generation processing when the prediction block size is reduced By limiting the number of operations, the processing load required for generating the combined motion prediction candidate is reduced.

実施の形態4における、動画像符号化装置においては、実施の形態1に示した動画像符
号化装置に対して、図15に示す、動き補償予測ブロック構造選択部113において、結
合動き情報単予測変換部1507が無くなり、結合動き情報算出部1506より出力され
た、動きベクトル、参照画像指定情報、結合動き情報候補リストが直接、結合動き補償予
測生成部1508に供給される構成を取る。
In the moving picture coding apparatus according to the fourth embodiment, the combined motion information single prediction is performed in the motion compensated prediction block structure selection unit 113 shown in FIG. 15 in contrast to the moving picture coding apparatus shown in the first embodiment. The conversion unit 1507 is eliminated, and the motion vector, the reference image designation information, and the combined motion information candidate list output from the combined motion information calculation unit 1506 are directly supplied to the combined motion compensation prediction generation unit 1508.

また、実施の形態4における、動画像復号装置においては、実施の形態1に示した動画
像復号装置に対して、図36に示す、動き情報復号部1111において、結合動き情報単
予測変換部3605が無くなり、結合動き情報算出部3604より出力された、動きベク
トル、参照画像指定情報、結合動き情報候補リストが直接、結合動き補償予測復号部36
06に供給される構成を取る。
In addition, in the video decoding device in the fourth embodiment, the combined motion information single prediction conversion unit 3605 in the motion information decoding unit 1111 shown in FIG. 36 is compared with the video decoding device shown in the first embodiment. The motion vector, the reference image designation information, and the combined motion information candidate list output from the combined motion information calculation unit 3604 are directly connected to the combined motion compensation prediction decoding unit 36.
The configuration supplied to 06 is taken.

実施の形態4においては、結合動き情報単予測変換部で行われていた動き情報の双予測
から単予測への変換処理の変わりに、動き補償予測時に予測ブロックサイズがbipred_res
triction_size以下の場合に双予測の動き情報のL0予測もしくはL1予測の一方の動き
情報のみを用いた単予測の動き補償を行うことで、メモリアクセス量に制限を加えた動き
補償予測をおこなう構造を取る。
In the fourth embodiment, instead of the motion information bi-prediction to uni-prediction conversion processing performed in the combined motion information uni-prediction conversion unit, the prediction block size is bipred_res during motion compensation prediction.
A structure that performs motion compensation prediction with a limited memory access amount by performing motion compensation of single prediction using only one of the motion information of L0 prediction or L1 prediction of bi-prediction motion information when triction_size or less. take.

具体的には、実施の形態4における符号化処理では、実施の形態1における、図17の
フローチャートで示される動き補償予測モード/予測信号生成処理において、ステップS
1702及びステップS1703の処理が無くなり、図31のフローチャートで示される
結合予測モード評価値生成処理におけるステップS3105及びステップS3106で行
われる、動き補償(単/双)予測ブロック生成処理の内部、及び図33のフローチャート
で示される予測モード評価値生成処理のステップS3312で行われる動き補償予測ブロ
ック生成処理の内部で、単予測への制限処理が行われる。
Specifically, in the encoding process in the fourth embodiment, in the motion compensated prediction mode / predicted signal generation process shown in the flowchart of FIG.
The processing of 1702 and step S1703 is eliminated, the inside of the motion compensation (mono / bi) prediction block generation processing performed in step S3105 and step S3106 in the combined prediction mode evaluation value generation processing shown in the flowchart of FIG. 31, and FIG. Within the motion compensated prediction block generation process performed in step S3312 of the prediction mode evaluation value generation process shown in the flowchart of FIG.

実施の形態4において、図31のフローチャートのステップS3105、ステップS3
106及び、図33のフローチャートのステップS3312で施される動き補償予測ブロ
ック生成の動作を、図52のフローチャートに示し、説明する。図52のフローチャート
は実施の形態4において、図1に示す動画像符号化装置における動き補償予測部112の
詳細動作となり、以下の動作を行う。
In the fourth embodiment, step S3105 and step S3 in the flowchart of FIG.
106 and the motion compensated prediction block generation operation performed in step S3312 of the flowchart of FIG. 33 are described with reference to the flowchart of FIG. The flowchart of FIG. 52 is the detailed operation of the motion compensation prediction unit 112 in the moving picture encoding apparatus shown in FIG. 1 in the fourth embodiment, and performs the following operation.

供給された動き情報の予測種別が単予測である場合(S5200:YES)、1つの参
照画像に対する参照画像指定情報と動きベクトルを用いて動き補償単予測ブロックを生成
する(S5203)。
When the prediction type of the supplied motion information is single prediction (S5200: YES), a motion compensated single prediction block is generated using reference image designation information and a motion vector for one reference image (S5203).

供給された動き情報が単予測でない場合、つまり動き情報が双予測である場合(S52
00:NO)、L0予測の動き情報とL1予測の動き情報(参照画像情報及び動きベクト
ル)が同一であるかどうか判定し、L0予測の動き情報とL1予測の動き情報が同一であ
る場合(S5201:YES)、L0予測の動き情報のみを用いてL0単予測動き補償予
測を行う(S5204)。ただし、双予測の動き情報は維持しL1予測の動き情報は変更
しない。
When the supplied motion information is not uni-prediction, that is, when the motion information is bi-prediction (S52
00: NO), it is determined whether the motion information for L0 prediction and the motion information for L1 prediction (reference image information and motion vector) are the same, and the motion information for L0 prediction and the motion information for L1 prediction are the same ( S5201: YES), L0 single prediction motion compensation prediction is performed using only the motion information of L0 prediction (S5204). However, the motion information of bi-prediction is maintained and the motion information of L1 prediction is not changed.

供給されたL0予測の動き情報とL1予測の動き情報が同一でない場合(S5201:
NO)、予測ブロックサイズがbipred_restriction_size以下であるかどうかを判定し、
予測ブロックサイズがbipred_restriction_size以下である場合(S5202:YES)
、L0予測の動き情報とL1予測の動き情報が同一である場合(S5201:YES)と
同様に、L0予測の動き情報のみを用いてL0単予測動き補償予測を行う(S5204)
。ただし、双予測の動き情報は維持しL1予測の動き情報は変更しない。双予測制限は双
予測を単予測に制限することで動き補償予測のメモリ帯域を抑制することが目的であるた
め、双予測制限によって制限される予測リスト(L0/L1)は、L1単予測にしても良
い。
When the supplied motion information of the L0 prediction and the motion information of the L1 prediction are not the same (S5201:
NO), determine if the predicted block size is less than or equal to bipred_restriction_size,
When the predicted block size is equal to or smaller than bipred_restriction_size (S5202: YES)
Similarly, when the motion information of the L0 prediction and the motion information of the L1 prediction are the same (S5201: YES), the L0 single prediction motion compensation prediction is performed using only the motion information of the L0 prediction (S5204).
. However, the motion information of bi-prediction is maintained and the motion information of L1 prediction is not changed. The purpose of the bi-prediction restriction is to limit the memory band of motion compensation prediction by restricting the bi-prediction to the single prediction. Therefore, the prediction list (L0 / L1) restricted by the bi-prediction restriction is set to the L1 single prediction. May be.

供給された予測ブロックサイズがbipred_restriction_sizeより大きい場合(S520
2:NO)、2つの参照画像に対する参照画像指定情報と動きベクトルを用いて動き補償
双予測ブロックを生成する(S5205)。
When the supplied prediction block size is larger than bipred_restriction_size (S520)
2: NO) A motion compensated bi-prediction block is generated using reference image designation information and motion vectors for two reference images (S5205).

また、実施の形態4における復号処理では、実施の形態1における、図39のフローチ
ャートで示される結合予測動き情報復号処理において、ステップS3902及びステップ
S3903の処理が無くなり、図37のフローチャートで示される予測ブロック単位復号
処理におけるステップS3704で行われる、動き補償予測信号算出処理の内部で、単予
測への制限処理が、符号化処理と同様に、図52のフローチャートで示した処理で行われ
る。
Further, in the decoding process in the fourth embodiment, in the joint prediction motion information decoding process shown in the flowchart of FIG. 39 in the first embodiment, the processes in steps S3902 and S3903 are eliminated, and the prediction shown in the flowchart of FIG. Within the motion compensated prediction signal calculation process performed in step S3704 in the block unit decoding process, the process for limiting to single prediction is performed by the process shown in the flowchart of FIG. 52, similarly to the encoding process.

実施の形態4においては、双予測の制限処理を結合動き情報候補リストを単予測に変換
する構成を用いずに、動き補償予測時に双予測の動き情報のうち、L0予測もしくはL1
予測の一方の動き情報のみを用いて、単予測の動き補償予測を行う構成を用いることで、
メモリアクセス量の制限を実現する。
In the fourth embodiment, L0 prediction or L1 out of bi-prediction motion information at the time of motion compensation prediction without using a configuration in which the combined motion information candidate list is converted into single prediction in the bi-prediction restriction process.
By using a configuration that performs motion compensation prediction of single prediction using only one motion information of prediction,
Realize limited memory access.

また、双予測の制限処理において、予測信号としては単予測と同一でありながら、動き
情報は双予測となる結合動き情報候補を維持することができる。これにより、bipred_res
triction_size以下の予測ブロックであっても、L0予測、L1予測ともに動き情報が保
存されるため、以降に符号化・復号される予測ブロックの隣接参照動き情報として双予測
の情報がそのまま利用でき、以降に符号化・復号される予測ブロックの動き予測処理の予
測効率を向上させることができる。
Further, in the bi-prediction restriction process, the prediction information is the same as the single prediction, but the motion information can maintain a combined motion information candidate that becomes bi-prediction. This makes bipred_res
Even for a prediction block of triction_size or less, since motion information is stored for both L0 prediction and L1 prediction, bi-prediction information can be directly used as adjacent reference motion information of a prediction block to be encoded / decoded thereafter. Thus, it is possible to improve the prediction efficiency of the motion prediction process of the prediction block encoded and decoded.

また、結合動き情報候補リストとしては同じ動き情報を用いる、異なる大きさの予測ブ
ロックサイズにおいて、動き補償予測時の双予測制限で、メモリアクセス量の制限を可能
とするため、予測ブロックサイズが小さくなった際に、同一の結合動き予測候補リスト生
成を行う場合に、同一リストを構成する基準の予測ブロックサイズとbipred_restriction
_sizeが異なる場合でも、実施の形態4の構成をとることにより、結合動き情報候補リス
ト生成時に同一リスト構成と双予測制限の両方を加味した条件判断を加える必要がなく、
動き補償予測時の双予測制限だけで機能を実現できる効果を有すると共に、メモリアクセ
スの制限を行うために制御するbipred_restriction_sizeより大きな予測ブロックサイズ
において、結合動き情報に双予測の制限を加える必要がなくなるため、符号化効率を向上
させる効果を有する。
In addition, the same motion information is used as the combined motion information candidate list, and the prediction block size is small because the memory access amount can be limited by the bi-prediction restriction at the time of motion compensation prediction in the prediction block sizes of different sizes. When the same combined motion prediction candidate list is generated, the reference prediction block size and bipred_restriction constituting the same list are generated.
Even when _size is different, by adopting the configuration of the fourth embodiment, it is not necessary to add a condition judgment that considers both the same list configuration and the bi-prediction restriction when generating the combined motion information candidate list,
It has the effect that functions can be realized only by bi-prediction restriction at the time of motion compensation prediction, and there is no need to add bi-prediction restriction to combined motion information in a prediction block size larger than bipred_restriction_size that is controlled to restrict memory access Therefore, it has the effect of improving the encoding efficiency.

また、動き補償予測時に双予測制限する構成では、動き情報を符号化するための2つの
予測モード(結合予測モード、動き検出予測モード)の双方の双予測制限を一括して対応
可能であるため、最小の構成で双予測制限を実現できる。
In addition, in the configuration in which bi-prediction restriction is performed at the time of motion compensation prediction, both the bi-prediction restrictions of two prediction modes (joint prediction mode and motion detection prediction mode) for encoding motion information can be handled in a lump. The bi-prediction restriction can be realized with the minimum configuration.

(実施の形態5)
続いて、本発明の実施の形態5に係る動画像符号化装置及び動画像復号装置の説明を行
う。実施の形態5においては、実施の形態1と同様に、メモリアクセス量の制限を行うた
めの、予測ブロックサイズによる動き補償予測制限と、双予測動き補償の制限を行うが、
双予測の制限を行うための、結合動き情報候補リストの動き情報に対する双予測から単予
測への変換手法が異なる構成を取る。
(Embodiment 5)
Next, the video encoding device and video decoding device according to Embodiment 5 of the present invention will be described. In the fifth embodiment, as in the first embodiment, the motion compensation prediction limitation based on the prediction block size and the bi-prediction motion compensation limitation are performed to limit the memory access amount.
The bi-prediction to uni-prediction conversion method is different for motion information in the combined motion information candidate list to restrict bi-prediction.

実施の形態5においては、実施の形態1と同様の構成及び処理を行うが、実施の形態1
における、図18のフローチャートで示される、結合動き情報候補リスト生成処理、及び
図30のフローチャートで示される、結合動き情報候補単予測変換処理が異なる構成を取
る。
In the fifth embodiment, the same configuration and processing as in the first embodiment are performed.
The combined motion information candidate list generation process shown in the flowchart of FIG. 18 and the combined motion information candidate single prediction conversion process shown in the flowchart of FIG. 30 are different.

図51のフローチャートで、実施の形態5における結合動き情報候補リスト生成処理の
説明を行う。実施の形態5においては、符号化処理に対する図17のフローチャートにお
けるステップS1701及び、復号処理に対する図39のフローチャートにおけるステッ
プS3901において、図53に示される処理が施される。実施の形態1の図18のフロ
ーチャートと同一のステップに関しては、同一番号をつけ異なる部分にのみ新しいステッ
プ番号をつけている。
The combined motion information candidate list generation process in the fifth embodiment will be described with reference to the flowchart of FIG. In the fifth embodiment, the process shown in FIG. 53 is performed in step S1701 in the flowchart of FIG. 17 for the encoding process and in step S3901 in the flowchart of FIG. 39 for the decoding process. With respect to the same steps as those in the flowchart of FIG. 18 of the first embodiment, the same numbers are assigned and new step numbers are assigned only to different portions.

ステップS1800からステップS1802までの処理によって、結合動き情報の候補
となる、空間候補ブロック群から同一の情報を削除した形での空間結合動き情報候補と、
時間結合動き情報候補が算出され、候補ブロックの動き情報から算出された結合動き情報
が生成される。次に、ステップS1802までに生成された結合動き情報の数である、nu
m_list_before_combined_mergeを格納する(S5305)。この値は、後述する結合動き
情報候補単予測変換処理において用いられる。
By the processing from step S1800 to step S1802, a candidate for combined motion information, a spatially combined motion information candidate in a form in which the same information is deleted from the spatial candidate block group,
Temporal combined motion information candidates are calculated, and combined motion information calculated from the motion information of candidate blocks is generated. Next, nu, which is the number of combined motion information generated up to step S1802.
m_list_before_combined_merge is stored (S5305). This value is used in the combined motion information candidate single prediction conversion process described later.

続いて、ステップS1803からステップS1804までの処理によって、結合動き情
報候補リストに登録された複数の結合動き情報候補の動き情報を組合せて生成した、第1
結合動き情報候補と、結合動き情報候補リストに登録された動き情報に依存せずに生成し
た、第2結合動き情報候補が必要に応じて追加され、結合動き情報候補リスト生成処理を
終了する。
Subsequently, by the processing from step S1803 to step S1804, the motion information of a plurality of combined motion information candidates registered in the combined motion information candidate list is generated in combination.
The combined motion information candidate and the second combined motion information candidate generated without depending on the motion information registered in the combined motion information candidate list are added as necessary, and the combined motion information candidate list generation process is terminated.

実施の形態5における、結合動き情報候補リスト生成処理においての実施の形態1と異
なる処理は、num_list_before_combined_mergeの格納処理であり、隣接ブロックより定義
される候補ブロック群の動き情報を登録した結合動き情報と、候補ブロック群の動き情報
の組合せや、候補ブロックの動き情報に依存しない動き情報を登録した結合動き情報の、
境界のリスト番号を保存している。
The processing different from the first embodiment in the combined motion information candidate list generation processing in the fifth embodiment is a storage process of num_list_before_combined_merge, and the combined motion information in which the motion information of a candidate block group defined by adjacent blocks is registered. , A combination of motion information of candidate block groups, and combined motion information in which motion information that does not depend on motion information of candidate blocks is registered,
Stores the list number of the boundary.

続いて、図54のフローチャートで、実施の形態5における結合動き情報候補単予測変
換処理の説明を行う。実施の形態5においては、符号化処理に対する図17のフローチャ
ートにおけるステップS1703及び、復号処理に対する図39のフローチャートにおけ
るステップS3903において、図54に示される処理が施される。実施の形態1の図3
0のフローチャートと同一のステップに関しては、同一番号をつけ異なる部分にのみ新し
いステップ番号をつけている。
Subsequently, the combined motion information candidate single prediction conversion process in Embodiment 5 will be described with reference to the flowchart of FIG. In the fifth embodiment, the processing shown in FIG. 54 is performed in step S1703 in the flowchart of FIG. 17 for the encoding process and in step S3903 in the flowchart of FIG. 39 for the decoding process. FIG. 3 of the first embodiment
The same steps as those in the flowchart of 0 are given the same numbers, and new steps are assigned only to different parts.

図52のフローチャートで示す結合動き情報候補単予測変換処理は、図30のフローチ
ャートに対して、動き情報が単予測でない場合(S3002:NO)の処理が異なり、結
合動き情報候補リストのインデックスiがnum_list_before_combined_mergeより小さい場
合(S5407:YES)には、双予測の動き情報を単予測に変換するために、インデッ
クスiに格納された動き情報のL1情報を無効にする(S3003)。
The combined motion information candidate single prediction conversion process shown in the flowchart of FIG. 52 differs from the flowchart of FIG. 30 in the case where the motion information is not a single prediction (S3002: NO), and the index i of the combined motion information candidate list is If smaller than num_list_before_combined_merge (S5407: YES), the L1 information of the motion information stored in the index i is invalidated in order to convert the motion information of bi-prediction into single prediction (S3003).

一方、インデックスiがnum_list_before_combined_merge以上である場合(S5407
:NO)には、双予測の動き情報を単予測に変換するために、インデックスiに格納され
た動き情報のL0情報を無効にする(S5408)。
On the other hand, if the index i is greater than or equal to num_list_before_combined_merge (S5407)
: NO), the L0 information of the motion information stored in the index i is invalidated in order to convert the motion information of bi-prediction into single prediction (S5408).

ステップS3003及びステップS5408で、単予測に変換されたインデックスiの
動き情報が結合動き情報候補リストに格納され(S3004)、次のインデックスに進む
(S3005)。
In step S3003 and step S5408, the motion information of index i converted to single prediction is stored in the combined motion information candidate list (S3004), and the process proceeds to the next index (S3005).

実施の形態5における、結合動き情報候補単予測変換においては、結合動き情報候補リ
スト内の候補動き情報を、隣接する候補ブロックの動き情報から算出された動き情報と、
登録された複数の動き情報の組合せや、候補ブロックの動き情報に依存せずに生成した動
き情報に対して、単予測変換時に無効にする動き情報を予測種別(L0予測/L1予測)
で切り替える。これにより、特に第1結合動き情報候補リスト追加部で追加された動き情
報に対して、単予測変換時に無効にされた予測種別の動き情報を残して、単予測変換時に
有効にされた予測種別の動き情報を無効にすることができ、結合動き情報として有効な動
き情報を多く残すことが可能となり、符号化効率を向上させることができる。
In the combined motion information candidate single prediction conversion in Embodiment 5, the candidate motion information in the combined motion information candidate list is the motion information calculated from the motion information of adjacent candidate blocks,
For motion information generated without depending on a combination of a plurality of registered motion information or motion information of candidate blocks, motion information to be invalidated at the time of single prediction conversion is predicted (L0 prediction / L1 prediction).
Switch with. Thereby, especially with respect to the motion information added by the first combined motion information candidate list adding unit, the motion information of the prediction type disabled during the single prediction conversion is left, and the prediction type enabled during the single prediction conversion Motion information can be invalidated, and it is possible to leave a lot of valid motion information as combined motion information, thereby improving the coding efficiency.

また、双予測が制限された予測ブロックサイズにおいて、L0予測とL1予測が偏らず
に候補として用いられるため、符号化・復号時に用いられた動き情報として保存される動
き情報においてもL0予測とL1予測の偏りが少なくなる。そのため、後続する予測ブロ
ックの結合動き情報候補生成時に、第1結合動き情報候補リスト追加部で生成できる双予
測の動き情報の精度が向上し、符号化効率を向上させることができる。
In addition, in the prediction block size in which bi-prediction is limited, L0 prediction and L1 prediction are used as candidates without being biased. Therefore, even in motion information stored as motion information used at the time of encoding / decoding, L0 prediction and L1 Forecast bias is reduced. Therefore, the accuracy of the bi-prediction motion information that can be generated by the first combined motion information candidate list adding unit at the time of generating the combined motion information candidate of the subsequent prediction block can be improved, and the encoding efficiency can be improved.

実施の形態5においては、インデックスiがnum_list_before_combined_mergeより小さ
い時にL1情報を無効にし、インデックスiがnum_list_before_combined_merge以上の場
合にL0情報を無効にしたが、num_list_before_combined_mergeを基準に無効にする予測
種別を切り替えることが、この実施の形態における特徴であり、インデックスiがnum_li
st_before_combined_mergeより小さい時にL0情報を無効にし、インデックスiがnum_li
st_before_combined_merge以上の場合にL1情報を無効にする構成を取ることも可能であ
る。
In the fifth embodiment, the L1 information is invalidated when the index i is smaller than num_list_before_combined_merge, and the L0 information is invalidated when the index i is equal to or larger than num_list_before_combined_merge. A feature of this embodiment is that index i is num_li
L0 information is invalidated when it is smaller than st_before_combined_merge, and index i is num_li
It is also possible to adopt a configuration in which the L1 information is invalidated in the case of st_before_combined_merge or more.

(実施の形態6)
続いて、本発明の実施の形態6に係る動画像符号化装置及び動画像復号装置の説明を行
う。実施の形態6においては、実施の形態5と同様の構成をとり、結合動き情報候補単予
測変換における無効にする予測種別(L0予測/L1予測)を切り替える点が特徴である
が、インデックスの固定位置を基準に切り替える構成を取る。
(Embodiment 6)
Next, the video encoding device and video decoding device according to Embodiment 6 of the present invention will be described. The feature of the sixth embodiment is that it has the same configuration as that of the fifth embodiment, and switches the prediction type (L0 prediction / L1 prediction) to be invalidated in the combined motion information candidate single prediction transform, but the index is fixed. It takes a configuration that switches based on the position.

実施の形態6においては、実施の形態5と同様の構成及び処理を行うが、実施の形態5
における、図53のフローチャートで示される、結合動き情報候補リスト生成処理は行わ
ず、実施の形態1と同一の、図18のフローチャートで示される、結合動き情報候補リス
ト生成処理が行われる。
In the sixth embodiment, the same configuration and processing as in the fifth embodiment are performed.
In FIG. 53, the combined motion information candidate list generation process shown in the flowchart of FIG. 18 which is the same as that of the first embodiment is performed without performing the combined motion information candidate list generation process shown in the flowchart of FIG.

また、実施の形態6においては、実施の形態5における、図54のフローチャートで示
される、結合動き情報候補単予測変換処理が、図55のフローチャートで示される処理に
置き換わる構成を取る。実施の形態6においては、符号化処理に対する図17のフローチ
ャートにおけるステップS1703及び、復号処理に対する図39のフローチャートにお
けるステップS3903において、図55に示される処理が施される。
In Embodiment 6, the combined motion information candidate single prediction conversion process shown in the flowchart of FIG. 54 in Embodiment 5 is replaced with the process shown in the flowchart of FIG. In the sixth embodiment, the process shown in FIG. 55 is performed in step S1703 in the flowchart of FIG. 17 for the encoding process and in step S3903 in the flowchart of FIG. 39 for the decoding process.

以下、図55のフローチャートの説明を行う。図54のフローチャートと同一のステッ
プに関しては、同一番号をつけ異なる部分にのみ新しいステップ番号をつけている。
Hereinafter, the flowchart of FIG. 55 will be described. The same steps as those in the flowchart of FIG. 54 are given the same numbers, and new step numbers are given only to different parts.

図55のフローチャートで示す結合動き情報候補単予測変換処理は、図54のフローチ
ャートに対して、動き情報が単予測でない場合(S3002:NO)の処理が異なり、結
合動き情報候補リストのインデックスiが2より小さい場合(S5507:YES)には
、双予測の動き情報を単予測に変換するために、インデックスiに格納された動き情報の
L1情報を無効にする(S3003)。
The combined motion information candidate single prediction conversion process shown in the flowchart of FIG. 55 is different from the flowchart of FIG. 54 in the case where the motion information is not a single prediction (S3002: NO), and the index i of the combined motion information candidate list is If it is smaller than 2 (S5507: YES), the L1 information of the motion information stored in the index i is invalidated in order to convert the motion information of bi-prediction into single prediction (S3003).

一方、インデックスiが2以上である場合(S5507:NO)には、双予測の動き情
報を単予測に変換するために、インデックスiに格納された動き情報のL0情報を無効に
する(S5408)。
On the other hand, when the index i is 2 or more (S5507: NO), the L0 information of the motion information stored in the index i is invalidated in order to convert the motion information of bi-prediction into single prediction (S5408). .

ステップS3003及びステップS5408で、単予測に変換されたインデックスiの動
き情報が結合動き情報候補リストに格納され(S3004)、次のインデックスに進む(
S3005)。
In step S3003 and step S5408, the motion information of index i converted to single prediction is stored in the combined motion information candidate list (S3004), and proceeds to the next index (step S3004).
S3005).

実施の形態6における、結合動き情報候補単予測変換においては、結合動き情報候補リ
スト内の候補動き情報を、隣接する候補ブロックの動き情報から算出された動き情報によ
って第1結合動き情報候補リスト追加部で、双予測の追加動き情報を生成するために必要
な最小限の動き情報である2つの動き情報と、リストの後半で登録される第1結合動き情
報候補リスト追加部及び第2結合動き情報候補リスト追加部で追加された動き情報に対し
て、インデックスの位置で固定的に単予測変換時に無効にする動き情報を予測種別(L0
予測/L1予測)を切り替える構成を取る。
In combined motion information candidate single prediction conversion in Embodiment 6, the candidate motion information in the combined motion information candidate list is added to the first combined motion information candidate list by motion information calculated from the motion information of adjacent candidate blocks. Two motion information, which are the minimum motion information necessary for generating additional motion information for bi-prediction, and a first combined motion information candidate list adding unit and a second combined motion registered in the latter half of the list For the motion information added by the information candidate list adding unit, the motion information to be invalidated at the time of the single prediction conversion fixedly at the index position is set as the prediction type (L0).
Prediction / L1 prediction) is switched.

実施の形態6における、結合動き情報候補単予測変換においては、実施の形態5に対し
て、隣接ブロックより定義される候補ブロック群の動き情報を登録した結合動き情報と、
候補ブロック群の動き情報の組合せや、候補ブロックの動き情報に依存しない動き情報を
登録した結合動き情報の、境界のリスト番号を保存する処理を無くすことができるため、
処理負荷が軽減できると共に、実施の形態5と同様に、第1結合動き情報候補リスト追加
部で追加された動き情報に対して、単予測変換時に無効にされた予測種別の動き情報を残
して、単予測変換時に有効にされた予測種別の動き情報を無効にすることができ、結合動
き情報として有効な動き情報を多く残すことが可能となり、符号化効率を向上させること
ができる。
In the combined motion information candidate single prediction conversion in the sixth embodiment, the combined motion information in which the motion information of the candidate block group defined by the adjacent blocks is registered with respect to the fifth embodiment,
Since it is possible to eliminate the process of storing the boundary list number of the combined motion information in which the motion information not depending on the motion information of the candidate block group and the motion information of the candidate block is registered,
The processing load can be reduced and, similarly to the fifth embodiment, the motion information of the prediction type invalidated at the time of the single prediction conversion is left for the motion information added by the first combined motion information candidate list adding unit. Therefore, it is possible to invalidate the motion information of the prediction type that is enabled at the time of the single prediction conversion, and it is possible to leave a lot of effective motion information as the combined motion information, thereby improving the encoding efficiency.

また、実施の形態6では、第1結合動き情報候補、第2結合動き情報候補だけでなく、
空間予測候補や時間予測候補に対しても無効にする予測種別を切り替えることができるた
め、予測種別が双予測で同一の動き情報が登録されている場合に、結合動き情報としてL
0単予測、L1単予測の動き情報をそれぞれ利用可能になるため、符号化効率を向上させ
ることができる。
In the sixth embodiment, not only the first combined motion information candidate and the second combined motion information candidate,
Since the prediction type to be invalidated for the spatial prediction candidate and the temporal prediction candidate can be switched, when the prediction type is bi-prediction and the same motion information is registered, L is used as the combined motion information.
Since motion information of 0 single prediction and L1 single prediction can be used, encoding efficiency can be improved.

実施の形態6における、結合動き情報候補単予測変換において、無効にする予測種別(
L0予測/L1予測)を切り替えるインデックスの位置を2に固定しているが、固定のイ
ンデックスで予測種別を切り替えることが実施の形態6における特徴であり、空間結合動
き情報候補、時間結合動き情報候補、第1結合動き情報候補、第2結合動き情報候補とし
て登録可能な動き情報の数と、最大で登録可能な結合動き情報候補の数に応じて、固定に
する切り替え位置のインデックスの値を設定することも可能である。
The prediction type (invalidated in combined motion information candidate single prediction conversion in Embodiment 6)
The position of the index for switching (L0 prediction / L1 prediction) is fixed to 2, but switching the prediction type with a fixed index is a feature in Embodiment 6, and is a spatially coupled motion information candidate and a temporally coupled motion information candidate. The index value of the switching position to be fixed is set according to the number of motion information that can be registered as the first combined motion information candidate and the second combined motion information candidate and the maximum number of combined motion information candidates that can be registered. It is also possible to do.

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実
施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォ
ーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータ
フォーマットの符号化ストリームを復号することができる。
The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有
線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に
適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符
号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネット
ワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ス
トリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。
When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモ
リと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化デ
ータをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化さ
れた符号化データをネットワークを介して受信する受信部と、受信された符号化データを
バッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動
画像復号装置に提供するパケット処理部とを含む。
The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

また、以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信
装置として実現することができるのは勿論のこと、ROM(Read Only Mem
ory)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソ
フトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウ
ェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、
有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛
星ディジタル放送のデータ放送として提供することも可能である。
Further, the above-described processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, as well as a ROM (Read Only Mem).
ory), firmware stored in a flash memory or the like, or software such as a computer. Recording the firmware program and software program in a computer-readable recording medium and providing the same
It can be provided from a server through a wired or wireless network, or can be provided as terrestrial or satellite digital broadcast data broadcast.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構
成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変
形例も本発明の範囲にあることは当業者に理解されるところである。
The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 入力端子、 101 入力画像メモリ、 102 符号化ブロック取得部、
103 減算部、 104 直交変換・量子化部、 105 予測誤差符号化部、 10
6 逆量子化・逆変換部、 107 加算部、 108 フレーム内復号画像バッファ、
109 ループフィルタ部、 110 復号画像メモリ、 111 動きベクトル検出
部、 112 動き補償予測部、 113 動き補償予測ブロック構造選択部、 114
イントラ予測部、 115 イントラ予測ブロック構造選択部、 116 予測モード
選択部、 117 符号化ブロック構造選択部、 118 ブロック構造/予測モード情
報付加情報符号化部、 119 予測モード情報メモリ、 120 多重化部、 121
出力端子、 122 符号化ブロック制御パラメータ生成部、 1100 入力端子、
1101 多重分離部、 1102 予測差分情報復号部、 1103 逆量子化・逆
変換部、 1104 加算部、 1105 フレーム内復号画像バッファ、 1106
ループフィルタ部、 1107 復号画像メモリ、 1108 予測モード/ブロック構
造復号部、 1109 予測モード/ブロック構造選択部、 1110 イントラ予測情
報復号部、 1111 動き情報復号部、 1112 予測モード情報メモリ、 111
3 イントラ予測部、 1114 動き補償予測部、 1115 出力端子、 1500
動き補償予測生成部、 1501 予測誤差算出部、 1502 予測ベクトル算出部
、 1503 差分ベクトル算出部、 1504 動き情報符号量算出部、 1505
予測モード/ブロック構造評価部、 1506 結合動き情報算出部、 1507 結合
動き情報単予測変換部、 1508 結合動き補償予測生成部、 1600 空間結合動
き情報候補リスト生成部、 1601 結合動き情報候補リスト削除部、 1602 時
間結合動き情報候補リスト生成部、 1603 第1結合動き情報候補リスト追加部、
1604 第2結合動き情報候補リスト追加部、 3600 動き情報ビットストリーム
復号部、 3601 予測ベクトル算出部、 3602 ベクトル加算部、 3603
動き補償予測復号部、 3604 結合動き情報算出部、 3605 結合動き情報単予
測変換部、 3606 結合動き補償予測復号部。
100 input terminals, 101 input image memory, 102 encoded block acquisition unit,
103 subtraction unit, 104 orthogonal transform / quantization unit, 105 prediction error encoding unit, 10
6 inverse quantization / inverse transform unit, 107 addition unit, 108 intra-frame decoded image buffer,
109 loop filter unit, 110 decoded image memory, 111 motion vector detection unit, 112 motion compensation prediction unit, 113 motion compensation prediction block structure selection unit, 114
Intra prediction unit, 115 Intra prediction block structure selection unit, 116 Prediction mode selection unit, 117 Coding block structure selection unit, 118 Block structure / prediction mode information additional information coding unit, 119 Prediction mode information memory, 120 Multiplexing unit, 121
Output terminal, 122 encoding block control parameter generation unit, 1100 input terminal,
1101 Demultiplexer, 1102 Prediction difference information decoder, 1103 Inverse quantization / inverse transformer, 1104 Adder, 1105 Intraframe decoded image buffer, 1106
Loop filter unit, 1107 decoded image memory, 1108 prediction mode / block structure decoding unit, 1109 prediction mode / block structure selection unit, 1110 intra prediction information decoding unit, 1111 motion information decoding unit, 1112 prediction mode information memory, 111
3 Intra prediction unit, 1114 motion compensation prediction unit, 1115 output terminal, 1500
Motion compensation prediction generation unit 1501 prediction error calculation unit 1502 prediction vector calculation unit 1503 difference vector calculation unit 1504 motion information code amount calculation unit 1505
Prediction mode / block structure evaluation unit, 1506 combined motion information calculation unit, 1507 combined motion information single prediction conversion unit, 1508 combined motion compensation prediction generation unit, 1600 spatial combined motion information candidate list generation unit, 1601 combined motion information candidate list deletion unit 1602 time combination motion information candidate list generation unit, 1603 first combination motion information candidate list addition unit,
1604 second combined motion information candidate list addition unit, 3600 motion information bitstream decoding unit, 3601 prediction vector calculation unit, 3602 vector addition unit, 3603
A motion compensation prediction decoding unit; 3604 a combined motion information calculation unit; 3605 a combined motion information single prediction conversion unit; and 3606 a combined motion compensation prediction decoding unit.

Claims (1)

ピクチャが複数のブロックに段階的に分割されたブロックから予測ブロックを特定し、その特定された予測ブロック単位で、動画像が符号化された符号化ストリームを受信して復号する受信装置であって、
前記符号化ストリームがパケット化された符号化データを受信する受信部と、
受信された前記符号化ストリームをパケット処理して元の符号化ストリームを復元する復元部と、
復元された前記符号化ストリームから、復号対象となる前記予測ブロックの動き情報を指定したインデックス情報を復号する復号部と、
前記復号対象となる予測ブロックに空間的に近接するブロック及び時間的に近接するブロックの少なくとも何れかから動き情報を導出し、前記復号対象となる予測ブロックの動き情報候補として、その導出された動き情報の中から所定の動き情報を登録して動き情報候補リストを構築する候補リスト構築部と、
前記導出された動き情報を組み合わせることで新たな動き情報候補を生成し、生成された前記動き情報候補を前記動き情報候補リストに追加する候補リスト追加部と、
前記動き情報候補を変換する動き情報変換部と、
前記動き情報候補のうちの前記インデックス情報により指定された動き情報に基づいて、単予測又は双予測の何れかにより動き補償予測を行い前記復号対象となる予測ブロックの予測信号を生成する動き補償予測部とを備え、
前記新たな動き情報候補の予測種別情報は前記双予測であり、
前記動き情報変換部は、前記動き情報候補のうち、前記双予測により前記動き補償予測を行うことを示す予測種別情報を、前記候補リスト追加部が前記動き情報候補リストに動き情報候補を追加した後に、前記単予測により前記動き補償予測を行うことを示す予測種別情報に変換する予測変換を行い、
前記動き補償予測部は、前記復号対象となる予測ブロックのブロックサイズが所定の第1サイズの場合であり、かつ前記指定された動き情報の前記予測種別情報が前記双予測により前記動き補償予測を行うことを示す場合に、前記予測変換により変換された前記予測種別情報により前記動き補償予測を行い、
前記予測変換はL1予測情報を無効にすることでL0予測への前記単予測に変換することを特徴とする受信装置。
A receiving device that identifies a prediction block from a block in which a picture is divided into a plurality of blocks in stages, and receives and decodes an encoded stream in which a moving image is encoded in the specified prediction block unit. ,
A receiving unit that receives encoded data in which the encoded stream is packetized;
A restoration unit that packet-processes the received encoded stream to restore the original encoded stream;
A decoding unit that decodes index information that specifies motion information of the prediction block to be decoded from the restored encoded stream;
Motion information is derived from at least one of a block spatially adjacent to the prediction block to be decoded and a block temporally adjacent to the prediction block, and the derived motion is used as a motion information candidate of the prediction block to be decoded. A candidate list construction unit for registering predetermined motion information from the information and constructing a motion information candidate list;
A candidate list adding unit that generates a new motion information candidate by combining the derived motion information, and adds the generated motion information candidate to the motion information candidate list;
A motion information conversion unit for converting the motion information candidates;
Motion compensated prediction based on the motion information specified by the index information of the motion information candidates, and performing motion compensation prediction by either uni-prediction or bi-prediction to generate a prediction signal of the prediction block to be decoded With
The prediction type information of the new motion information candidate is the bi-prediction,
The motion information conversion unit adds prediction type information indicating that the motion compensated prediction is performed by the bi-prediction among the motion information candidates, and the candidate list addition unit adds a motion information candidate to the motion information candidate list. Later, performing prediction conversion to convert into prediction type information indicating that the motion compensation prediction is performed by the single prediction,
The motion compensation prediction unit is a case where the block size of the prediction block to be decoded is a predetermined first size, and the prediction type information of the designated motion information is the motion compensated prediction by the bi-prediction. When indicating to perform the motion compensation prediction by the prediction type information converted by the prediction conversion,
The said prediction conversion converts into the said single prediction to L0 prediction by invalidating L1 prediction information, The receiver characterized by the above-mentioned.
JP2016163462A 2012-04-16 2016-08-24 Receiver Active JP6226044B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012093092 2012-04-16
JP2012093092 2012-04-16

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016142778A Division JP6004134B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Publications (2)

Publication Number Publication Date
JP2017005749A true JP2017005749A (en) 2017-01-05
JP6226044B2 JP6226044B2 (en) 2017-11-08

Family

ID=49764680

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2013085473A Active JP5987767B2 (en) 2012-04-16 2013-04-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142780A Active JP6004136B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142781A Active JP6004137B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142778A Active JP6004134B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142779A Active JP6004135B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016163462A Active JP6226044B2 (en) 2012-04-16 2016-08-24 Receiver

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2013085473A Active JP5987767B2 (en) 2012-04-16 2013-04-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142780A Active JP6004136B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142781A Active JP6004137B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142778A Active JP6004134B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016142779A Active JP6004135B1 (en) 2012-04-16 2016-07-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Country Status (1)

Country Link
JP (6) JP5987767B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
EP3857879A4 (en) 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. Simplification of combined inter-intra prediction
KR20210091161A (en) 2018-11-20 2021-07-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Difference calculation based on partial location
KR102635518B1 (en) 2019-03-06 2024-02-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Use of converted single prediction candidates

Also Published As

Publication number Publication date
JP2013240046A (en) 2013-11-28
JP6004134B1 (en) 2016-10-05
JP6226044B2 (en) 2017-11-08
JP2016197902A (en) 2016-11-24
JP2016197903A (en) 2016-11-24
JP2016197900A (en) 2016-11-24
JP2016197901A (en) 2016-11-24
JP6004137B1 (en) 2016-10-05
JP6004135B1 (en) 2016-10-05
JP5987767B2 (en) 2016-09-07
JP6004136B1 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
WO2013157251A1 (en) Video encoding device, video encoding method, video encoding program, transmission device, transmission method, transmission program, video decoding device, video decoding method, video decoding program, reception device, reception method, and reception program
JP6226044B2 (en) Receiver
JP6428869B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP5786498B2 (en) Image coding apparatus, image coding method, and image coding program
JP5786499B2 (en) Image decoding apparatus, image decoding method, and image decoding program
JP6172326B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP6172324B2 (en) Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program
JP6172325B2 (en) Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program
TWI657696B (en) Motion image encoding device, motion image encoding method, and recording medium for recording motion image encoding program
JP6172327B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP6172328B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP2016167856A (en) Image decoder, image decoding method, image decoding program, receiver, receiving method and receiving program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6226044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150