JP2013009164A - Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method - Google Patents

Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method Download PDF

Info

Publication number
JP2013009164A
JP2013009164A JP2011140608A JP2011140608A JP2013009164A JP 2013009164 A JP2013009164 A JP 2013009164A JP 2011140608 A JP2011140608 A JP 2011140608A JP 2011140608 A JP2011140608 A JP 2011140608A JP 2013009164 A JP2013009164 A JP 2013009164A
Authority
JP
Japan
Prior art keywords
motion vector
block
motion
prediction
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011140608A
Other languages
Japanese (ja)
Inventor
Yusuke Itani
裕介 伊谷
Kazuo Sugimoto
和夫 杉本
Shunichi Sekiguchi
俊一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011140608A priority Critical patent/JP2013009164A/en
Publication of JP2013009164A publication Critical patent/JP2013009164A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a motion vector accurately even when an object in a coded block is moved to a block present at a spatially apart position.SOLUTION: When a motion compensation prediction unit 5 of a moving image coding device generates a prediction image, if a motion vector corresponding to a coded block divided by a block division unit 2 is read from a motion vector buffer 5a, a motion vector corresponding to the coded block is stored in the motion vector buffer 5a as the motion vector corresponding to the block at a position pointed by the motion vector.

Description

この発明は、画像圧縮符号化技術や圧縮画像データ伝送技術などに用いられる動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法に関するものである。   The present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding method, and a moving image decoding method used for image compression encoding technology, compressed image data transmission technology, and the like.

例えば、MPEG(Moving Picture Experts Group)や「ITU−T H.26x」などの国際標準映像符号化方式では、輝度信号16×16画素と、その輝度信号16×16画素に対応する色差信号8×8画素とをまとめたブロックデータ(以下、「マクロブロック」と称する)を一単位として、動き補償技術や直交変換/変換係数量子化技術に基づいて圧縮する方法が採用されている。
動画像符号化装置及び動画像復号装置における動き補償処理では、前方または後方のピクチャを参照して、マクロブロック単位で動きベクトルの検出や予測画像の生成を行う。
このとき、1枚のピクチャのみを参照して、画面間予測符号化を行うものをPピクチャと称し、同時に2枚のピクチャを参照して、画面間予測符号化を行うものをBピクチャと称する。
For example, in an international standard video encoding method such as MPEG (Moving Picture Experts Group) or “ITU-T H.26x”, a luminance signal 16 × 16 pixels and a color difference signal 8 × corresponding to the luminance signal 16 × 16 pixels are used. A method is adopted in which block data (hereinafter referred to as “macroblock”) including eight pixels is used as a unit for compression based on a motion compensation technique or an orthogonal transform / transform coefficient quantization technique.
In the motion compensation processing in the moving image encoding device and the moving image decoding device, a motion vector is detected and a predicted image is generated in units of macroblocks with reference to a front or rear picture.
At this time, a picture that performs inter-frame prediction encoding with reference to only one picture is referred to as a P picture, and a picture that performs inter-frame prediction encoding with reference to two pictures at the same time is referred to as a B picture. .

国際標準方式であるAVC/H.264(ISO/IEC 14496−10|ITU−T H.264)では、Bピクチャを符号化する際に、動き情報を符号化せず符号化済みのデータから予測するダイレクトモードと呼ばれる符号化モードを選択することができる(例えば、非特許文献1を参照)。
即ち、符号化対象のマクロブロックには、動きベクトルの符号化データを持たず、符号化済みの他のピクチャのマクロブロックの動きベクトルや、周囲のマクロブロックの動きベクトルを用いる所定の演算処理で、符号化対象のマクロブロックの動きベクトルを生成する符号化モードを選択することができる。
AVC / H. Is an international standard system. In H.264 (ISO / IEC 14496-10 | ITU-T H.264), when encoding a B picture, a coding mode called a direct mode for predicting from encoded data without encoding motion information is used. (For example, refer nonpatent literature 1).
That is, the macroblock to be encoded does not have motion vector encoded data, and is a predetermined calculation process using a motion vector of a macroblock of another encoded picture or a motion vector of a surrounding macroblock. The encoding mode for generating the motion vector of the macroblock to be encoded can be selected.

このダイレクトモードには、時間ダイレクトモードと空間ダイレクトモードの2種類が存在する。
時間ダイレクトモードでは、符号化済みの他ピクチャの動きベクトルを参照し、符号化済みピクチャと符号化対象のピクチャとの時間差に応じて動きベクトルのスケーリング処理を行うことで、符号化対象のマクロブロックの動きベクトルを生成する。
空間ダイレクトモードでは、符号化対象のマクロブロックの周囲に位置している少なくとも1つ以上の符号化済みマクロブロックの動きベクトルを参照し、それらの動きベクトルから符号化対象のマクロブロックの動きベクトルを生成する。
このダイレクトモードでは、スライスヘッダに設けられたフラグである“direct_spatial_mv_pred_flag”を用いることにより、スライス単位で、時間ダイレクトモード又は空間ダイレクトモードのいずれか一方を選択することが可能である。
ただし、ダイレクトモードの中で、変換係数を符号化しないモードをスキップモードと称する。以下、ダイレクトモードと記載するときは、スキップモードも含まれるものとする。
There are two types of direct mode: temporal direct mode and spatial direct mode.
In the temporal direct mode, the motion vector scaling process is performed according to the time difference between the coded picture and the picture to be coded by referring to the motion vector of the other picture that has been coded. Generate a motion vector of.
In the spatial direct mode, the motion vector of at least one encoded macroblock located around the macroblock to be encoded is referenced, and the motion vector of the macroblock to be encoded is determined from those motion vectors. Generate.
In this direct mode, by using “direct_spatial_mv_pred_flag” which is a flag provided in the slice header, it is possible to select either the temporal direct mode or the spatial direct mode in units of slices.
However, a mode in which transform coefficients are not encoded in the direct mode is referred to as a skip mode. Hereinafter, when the direct mode is described, the skip mode is also included.

ここで、図17は時間ダイレクトモードで動きベクトルを生成する方法を示す模式図である。
図17において、「P」はPピクチャを表し、「B」はBピクチャを表している。
また、数字0−3はピクチャの表示順を示し、時間T0,T1,T2,T3の表示画像であることを表している。
ピクチャの符号化処理は、P0,P3,B1,B2の順番で行われているものとする。
Here, FIG. 17 is a schematic diagram showing a method of generating a motion vector in the temporal direct mode.
In FIG. 17, “P” represents a P picture, and “B” represents a B picture.
Numbers 0 to 3 indicate the display order of pictures and indicate that the images are displayed at times T0, T1, T2 and T3.
It is assumed that the picture encoding process is performed in the order of P0, P3, B1, and B2.

例えば、ピクチャB2の中のマクロブロックMB1を時間ダイレクトモードで符号化する場合を想定する。
この場合、ピクチャB2の時間軸上後方にある符号化済みピクチャのうち、ピクチャB2に一番近いピクチャP3の動きベクトルであって、マクロブロックMB1と空間的に同じ位置にあるマクロブロックMB2の動きベクトルMVを用いる。
この動きベクトルMVはピクチャP0を参照しており、マクロブロックMB1を符号化する際に用いる動きベクトルMVL0,MVL1は、以下の式(1)で求められる。

Figure 2013009164
For example, it is assumed that the macroblock MB1 in the picture B2 is encoded in the temporal direct mode.
In this case, the motion of the macroblock MB2 which is the motion vector of the picture P3 closest to the picture B2 among the encoded pictures located on the rear side of the picture B2 on the time axis, and is in the same spatial position as the macroblock MB1. Vector MV is used.
The motion vector MV refers to the picture P0, and the motion vectors MVL0 and MVL1 used when encoding the macroblock MB1 are obtained by the following equation (1).

Figure 2013009164

なお、予測画像の生成に用いる参照画像は、参照に用いるベクトル毎に、参照画像リストして管理されており、2つのベクトルを用いる場合、各参照画像リストはリスト0、リスト1と称される。
参照画像リストに対して時間的に近いものから順番に格納され、通常はリスト0が前方向の参照画像を示し、リスト1が後方向の参照画像を示している。ただし、リスト1が前方向の参照画像を示し、リスト0が後方向の参照画像を示していてもよいし、リスト0とリスト1の双方が、前方向と後方向の参照画像を示していてもよい。また、並び順も時間的に近いものから並べる必要はない。
例えば、以下の非特許文献1には、参照画像リストをスライス毎に並び替えることが可能であることが記載されている。
Note that the reference images used for generating the predicted image are managed as a reference image list for each vector used for reference. When two vectors are used, the reference image lists are referred to as list 0 and list 1, respectively. .
The reference images are stored in order from the closest to the reference image list, and normally, list 0 indicates a forward reference image and list 1 indicates a backward reference image. However, list 1 may indicate a forward reference image, list 0 may indicate a backward reference image, and both list 0 and list 1 indicate forward and backward reference images. Also good. Also, it is not necessary to arrange the items in order of time.
For example, the following Non-Patent Document 1 describes that the reference image list can be rearranged for each slice.

MPEG−4 AVC(ISO/IEC 14496−10)/ITU−T H.264規格MPEG-4 AVC (ISO / IEC 14496-10) / ITU-TH H.264 standard

従来の動画像符号化装置は以上のように構成されているので、あるピクチャB2内のマクロブロックMV1の動きベクトルを時間ダイレクトモードで生成する場合、ピクチャB2の時間軸上後方にある符号化済みピクチャのうち、ピクチャB2に一番近いピクチャP3の動きベクトルであって、符号化対象のマクロブロックMB1と空間的に同じ位置にあるマクロブロックMB2の動きベクトルが用いられる。このため、符号化対象のマクロブロックMB1内の物体が空間的にほとんど移動しておらず、その物体がマクロブロックMB2内に存在していれば、高精度に動きベクトルを生成することができるが、符号化対象のマクロブロックMB1内の物体が空間的に大きく移動しており、その物体がマクロブロックMB2内に存在していなければ、動きベクトルの生成精度が劣化してしまう課題があった。   Since the conventional moving image coding apparatus is configured as described above, when the motion vector of the macroblock MV1 in a certain picture B2 is generated in the temporal direct mode, the coded data on the time axis rearward of the picture B2 is already coded. Among the pictures, the motion vector of the picture P3 closest to the picture B2 and the motion vector of the macroblock MB2 located in the same spatial position as the encoding target macroblock MB1 is used. For this reason, if the object in the macroblock MB1 to be encoded is hardly moved spatially and the object exists in the macroblock MB2, a motion vector can be generated with high accuracy. If the object in the macroblock MB1 to be encoded has moved greatly in space, and the object does not exist in the macroblock MB2, there is a problem that the generation accuracy of the motion vector deteriorates.

この発明は上記のような課題を解決するためになされたもので、符号化ブロック内の物体が、空間的に異なる位置にあるブロックに移動していても、高精度に動きベクトルを生成することができる動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法を得ることを目的とする。   The present invention has been made to solve the above-described problems, and generates a motion vector with high accuracy even when an object in a coding block moves to a block at a spatially different position. It is an object of the present invention to obtain a moving image encoding device, a moving image decoding device, a moving image encoding method, and a moving image decoding method.

この発明に係る動画像符号化装置は、予測処理が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定し、利用可能な1以上の符号化モードの中から、階層的に分割される各々の符号化ブロックに対応する符号化モードを選択する符号化制御手段と、入力画像を符号化制御手段により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御手段により決定された上限の階層数に至るまで、上記符号化ブロックを階層的に分割するブロック分割手段と、符号化制御手段により選択された符号化モードがインター符号化モードである場合、各々のブロックに対応する動きベクトルを格納している動きベクトルバッファの中から、ブロック分割手段により分割された符号化ブロックに対応する動きベクトルを読み出し、その動きベクトルを用いて、その符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するとともに、その動きベクトルが格納されているブロックを示すインデックス情報を出力する動き補償予測手段と、ブロック分割手段により分割された符号化ブロックと動き補償予測手段により生成された予測画像との差分画像を生成する差分画像生成手段と、差分画像生成手段により生成された差分画像を圧縮し、その差分画像の圧縮データを出力する画像圧縮手段と、画像圧縮手段から出力された圧縮データ、符号化制御手段により選択された符号化モード及び動き補償予測手段から出力されたインデックス情報を可変長符号化して、その圧縮データ、符号化モード及びインデックス情報の符号化データが多重化されているビットストリームを生成する可変長符号化手段とを備え、動き補償予測手段が予測画像を生成する際、ブロック分割手段により分割された符号化ブロックに対応する動きベクトルを読み出すと、その動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、その符号化ブロックに対応する動きベクトルを動きベクトルバッファに格納するようにしたものである。   The moving picture coding apparatus according to the present invention determines the maximum size of a coding block that is a processing unit when the prediction process is performed, and sets an upper limit when the coding block of the maximum size is hierarchically divided. And encoding control means for selecting an encoding mode corresponding to each encoding block divided hierarchically from among one or more available encoding modes, and encoding an input image A block dividing unit that divides the encoded block hierarchically until the maximum number of layers determined by the encoding control unit is reached, If the encoding mode selected by the encoding control means is the inter encoding mode, whether the motion vector buffer stores the motion vector corresponding to each block. Then, a motion vector corresponding to the encoded block divided by the block dividing unit is read, and using the motion vector, a motion compensation prediction process is performed on the encoded block to generate a predicted image, and the motion vector is Motion compensation prediction means for outputting index information indicating stored blocks, and difference image generation means for generating a difference image between the encoded block divided by the block division means and the prediction image generated by the motion compensation prediction means And an image compression unit that compresses the difference image generated by the difference image generation unit and outputs compressed data of the difference image, the compressed data output from the image compression unit, and the encoding selected by the encoding control unit The index information output from the mode and motion compensation prediction means is variable length encoded, Variable length encoding means for generating a bit stream in which the encoded data of the compressed data, encoding mode, and index information is multiplexed. When the motion compensated prediction means generates a predicted image, it is divided by the block dividing means. When the motion vector corresponding to the encoded block is read, the motion vector corresponding to the block indicated by the motion vector is stored in the motion vector buffer as the motion vector corresponding to the block at the position indicated by the motion vector. is there.

この発明によれば、動き補償予測手段が予測画像を生成する際、ブロック分割手段により分割された符号化ブロックに対応する動きベクトルを読み出すと、その動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、その符号化ブロックに対応する動きベクトルを動きベクトルバッファに格納するように構成したので、符号化ブロック内の物体が、空間的に異なる位置にあるブロックに移動していても、高精度に動きベクトルを生成することができる効果がある。   According to the present invention, when the motion compensation prediction unit generates a prediction image, when a motion vector corresponding to the encoded block divided by the block division unit is read, the motion vector corresponding to the block at the position indicated by the motion vector Since the motion vector corresponding to the coding block is stored in the motion vector buffer, even if an object in the coding block moves to a block at a spatially different position, it is highly accurate. There is an effect that a motion vector can be generated.

この発明の実施の形態1による動画像符号化装置を示す構成図である。It is a block diagram which shows the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1による動画像符号化装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1による動画像復号装置を示す構成図である。It is a block diagram which shows the moving image decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による動画像復号装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the moving image decoding apparatus by Embodiment 1 of this invention. 最大サイズの符号化ブロックが階層的に複数の符号化ブロックに分割される様子を示す説明図である。It is explanatory drawing which shows a mode that the encoding block of the largest size is divided | segmented into a some encoding block hierarchically. (a)は分割後のパーティションの分布を示し、(b)は階層分割後のパーティションに符号化モードm(B)が割り当てられる状況を4分木グラフで示す説明図である。(A) shows the distribution of the partitions after the division, and (b) is an explanatory diagram showing a situation in which the encoding mode m (B n ) is assigned to the partition after the hierarchy division as a quadtree graph. 各々のブロックに対応する動きベクトルを格納している動きベクトルバッファ5aと符号化ブロックBを示す説明図である。It is explanatory drawing which shows the motion vector buffer 5a which stores the motion vector corresponding to each block, and encoding block Bn . 符号化ブロックBのサイズがL=kMである例を示す説明図である。The size of the coding block B n is an explanatory diagram showing an example where L n = kM n. (Ln+1,Mn+1)=(L/2,M/2)のように分割する例を示す説明図である。 (L n + 1, M n + 1) = is an explanatory diagram showing an example of dividing as (L n / 2, M n / 2). 図8又は図9のいずれかの分割を選択できる例を示す説明図である。It is explanatory drawing which shows the example which can select either division | segmentation of FIG. 8 or FIG. 変換ブロックサイズ単位が階層構造になっている例を示す説明図である。It is explanatory drawing which shows the example in which the conversion block size unit has a hierarchical structure. この発明の実施の形態2における時間ベクトルの格納方法を示す説明図である。It is explanatory drawing which shows the storage method of the time vector in Embodiment 2 of this invention. 時間方向の動きベクトルを圧縮して保持する際、対象となるブロックに含まれる動きベクトルの左上のベクトルを保持する例を示す説明図である。It is explanatory drawing which shows the example which hold | maintains the upper left vector of the motion vector contained in the block used as object, when compressing and holding the motion vector of a time direction. 時間方向の動きベクトルを圧縮して保持する際、ブロックの中央に位置するベクトルを候補とする例を示す説明図である。It is explanatory drawing which shows the example which makes the vector located in the center of a block a candidate when compressing and holding the motion vector of a time direction. 動きベクトルの探索順序例を示す説明図である。It is explanatory drawing which shows the example of a search order of a motion vector. 参照ブロックの空間的に隣接したブロックの時間ベクトルを探索する例を示す説明図である。It is explanatory drawing which shows the example which searches the time vector of the block spatially adjacent to a reference block. 時間ダイレクトモードで動きベクトルを生成する方法を示す模式図である。It is a schematic diagram which shows the method of producing | generating a motion vector in time direct mode.

実施の形態1.
この実施の形態1では、映像の各フレーム画像を入力し、近接フレーム間で動き補償予測を実施することで得られる予測差分信号に対して直交変換や量子化による圧縮処理を実施した後に可変長符号化を行ってビットストリームを生成する動画像符号化装置と、その動画像符号化装置から出力されたビットストリームを復号する動画像復号装置について説明する。
Embodiment 1 FIG.
In the first embodiment, each frame image of a video is input, and after performing compression processing by orthogonal transformation or quantization on a prediction difference signal obtained by performing motion compensation prediction between adjacent frames, the variable length is obtained. A video encoding device that performs encoding to generate a bitstream and a video decoding device that decodes a bitstream output from the video encoding device will be described.

この実施の形態1の動画像符号化装置は、映像信号の空間・時間方向の局所的な変化に適応して、映像信号を多様なサイズの領域に分割してフレーム内・フレーム間適応符号化を行うことを特徴としている。
一般的に映像信号は、空間・時間的に信号の複雑さが局所的に変化する特性を有している。空間的に見ると、ある特定の映像フレーム上では、空や壁などのような比較的広い画像領域中で均一な信号特性を持つ絵柄もあれば、人物や細かいテクスチャを持った絵画など小さい画像領域内で複雑なテクスチャパターンを持つ絵柄も混在することがある。
時間的に見ても、空や壁は局所的に時間方向の絵柄の変化が小さいが、動く人物や物体はその輪郭が時間的に剛体・非剛体の運動をするため、時間的な変化が大きい。
The moving picture coding apparatus according to the first embodiment adapts to local changes in the spatial and temporal directions of a video signal, divides the video signal into regions of various sizes, and performs intraframe / interframe adaptive coding. It is characterized by performing.
In general, a video signal has a characteristic that the complexity of the signal changes locally in space and time. When viewed spatially, on a particular video frame, there are patterns with uniform signal characteristics in a relatively large image area such as the sky and walls, and small images such as people and paintings with fine textures. A pattern having a complicated texture pattern may be mixed in the region.
Even when viewed temporally, the sky and the wall have small changes in the pattern in the time direction locally, but the moving person or object has a rigid or non-rigid motion in time, so the temporal change does not occur. large.

符号化処理は、時間・空間的な予測によって信号電力やエントロピーの小さい予測差分差信号を生成することで、全体の符号量を削減するが、予測のためのパラメータをできるだけ大きな画像信号領域に均一に適用できれば、当該パラメータの符号量を小さくすることができる。
一方、時間的・空間的に変化の大きい画像信号パターンに対して、同一の予測パラメータを適用すると、予測の誤りが増えるため、予測差分信号の符号量を削減することができない。
そこで、時間的・空間的に変化の大きい画像信号パターンに対しては、予測対象の領域を小さくして、予測のためのパラメータのデータ量を増やしても予測差分信号の電力・エントロピーを低減するほうが望ましい。
このような映像信号の一般的な性質に適応した符号化を行うため、この実施の形態1の動画像符号化装置では、所定の最大ブロックサイズから階層的に映像信号の領域を分割して、分割領域毎に予測処理や、予測差分の符号化処理を実施するようにしている。
The encoding process generates a prediction difference difference signal with low signal power and entropy by temporal and spatial prediction, thereby reducing the overall code amount, but the parameters for prediction are made uniform in as large an image signal region as possible. If applicable, the code amount of the parameter can be reduced.
On the other hand, if the same prediction parameter is applied to an image signal pattern having a large temporal and spatial change, the number of prediction differential signals cannot be reduced because prediction errors increase.
Therefore, for image signal patterns with large temporal and spatial changes, the prediction target signal power / entropy is reduced even if the prediction target area is reduced and the amount of parameter data for prediction is increased. Is preferable.
In order to perform coding adapted to the general properties of such a video signal, the moving picture coding apparatus of the first embodiment divides the video signal area hierarchically from a predetermined maximum block size, Prediction processing and prediction difference encoding processing are performed for each divided region.

この実施の形態1の動画像符号化装置が処理対象とする映像信号は、輝度信号と2つの色差信号からなるYUV信号や、ディジタル撮像素子から出力されるRGB信号等の任意の色空間のカラー映像信号のほか、モノクロ画像信号や赤外線画像信号など、映像フレームが水平・垂直2次元のディジタルサンプル(画素)列から構成される任意の映像信号である。
各画素の諧調は8ビットでもよいし、10ビット、12ビットなどの諧調であってもよい。
ただし、以下の説明においては、特に断らない限り、入力される映像信号がYUV信号であるものとする。また、2つの色差成分U,Vが輝度成分Yに対して、サブサンプルされた4:2:0フォーマットの信号であるものとする。
なお、映像の各フレームに対応する処理データ単位を「ピクチャ」と称し、この実施の形態1では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレームの信号として説明を行う。ただし、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
The video signal to be processed by the moving image coding apparatus according to the first embodiment is a color in an arbitrary color space such as a YUV signal composed of a luminance signal and two color difference signals, or an RGB signal output from a digital image sensor. In addition to the video signal, the video frame is an arbitrary video signal such as a monochrome image signal or an infrared image signal, in which the video frame is composed of a horizontal and vertical two-dimensional digital sample (pixel) sequence.
The gradation of each pixel may be 8 bits, or may be gradation such as 10 bits or 12 bits.
However, in the following description, it is assumed that the input video signal is a YUV signal unless otherwise specified. In addition, it is assumed that the two color difference components U and V are subsampled 4: 2: 0 format signals with respect to the luminance component Y.
The processing data unit corresponding to each frame of the video is referred to as “picture”. In the first embodiment, “picture” is described as a signal of a video frame that has been sequentially scanned (progressive scan). However, when the video signal is an interlace signal, the “picture” may be a field image signal which is a unit constituting a video frame.

図1はこの発明の実施の形態1による動画像符号化装置を示す構成図である。
図1において、符号化制御部1は動き補償予測処理(フレーム間予測処理)又はイントラ予測処理(フレーム内予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する処理を実施する。
また、符号化制御部1は利用可能な1以上の符号化モード(1以上のイントラ符号化モード、1以上のインター符号化モード(動き情報を符号化しないインター符号化を含む))の中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択する処理を実施する。なお、符号化制御部1は符号化制御手段を構成している。
1 is a block diagram showing a moving picture coding apparatus according to Embodiment 1 of the present invention.
In FIG. 1, an encoding control unit 1 determines the maximum size of an encoding block that is a processing unit when a motion compensation prediction process (interframe prediction process) or an intra prediction process (intraframe prediction process) is performed. Then, a process of determining the upper limit number of layers when the encoding block of the maximum size is hierarchically divided is performed.
Also, the encoding control unit 1 can use one or more available encoding modes (one or more intra encoding modes, one or more inter encoding modes (including inter encoding that does not encode motion information)). A process of selecting a coding mode suitable for each coding block divided hierarchically is performed. The encoding control unit 1 constitutes an encoding control unit.

ブロック分割部2は入力画像を示す映像信号を入力すると、その映像信号が示す入力画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割する処理を実施する。なお、ブロック分割部2はブロック分割手段を構成している。   When the video signal indicating the input image is input, the block dividing unit 2 divides the input image indicated by the video signal into encoded blocks of the maximum size determined by the encoding control unit 1 and determined by the encoding control unit 1. The process of dividing the encoded block hierarchically is performed until the upper limit number of hierarchies is reached. The block dividing unit 2 constitutes block dividing means.

切替スイッチ3は符号化制御部1により選択された符号化モードがイントラ符号化モードであれば、ブロック分割部2により分割された符号化ブロックをイントラ予測部4に出力し、符号化制御部1により選択された符号化モードがインター符号化モードであれば、ブロック分割部2により分割された符号化ブロックを動き補償予測部5に出力する処理を実施する。
イントラ予測部4は切替スイッチ3からブロック分割部2により分割された符号化ブロックを受けると、符号化制御部1から出力されたイントラ予測パラメータを用いて、その符号化ブロックに対するイントラ予測処理を実施して予測画像を生成する処理を実施する。
If the coding mode selected by the coding control unit 1 is the intra coding mode, the changeover switch 3 outputs the coding block divided by the block dividing unit 2 to the intra prediction unit 4, and the coding control unit 1 If the coding mode selected by (2) is the inter coding mode, a process of outputting the coding block divided by the block dividing unit 2 to the motion compensation prediction unit 5 is performed.
When the intra prediction unit 4 receives the encoded block divided by the block dividing unit 2 from the changeover switch 3, the intra prediction unit 4 performs an intra prediction process on the encoded block using the intra prediction parameter output from the encoding control unit 1. Then, a process for generating a predicted image is performed.

動き補償予測部5は各々のブロックに対応する動きベクトルを格納している動きベクトルバッファ5aを内蔵しており、符号化制御部1により選択された符号化モードがインター符号化モードである場合、動きベクトルバッファ5aの中から、ブロック分割部2により分割された符号化ブロックに対応する動きベクトルを読み出し、その動きベクトルと符号化制御部1から出力されたインター予測パラメータを用いて、ブロック分割部2により分割された符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するとともに、そのインター予測パラメータ(当該動きベクトルが格納されているブロックを示すインデックス情報を含む)を可変長符号化部13に出力する処理を実施する。
また、動き補償予測部5は予測画像を生成する際、ブロック分割部2により分割された符号化ブロックに対応する動きベクトルを読み出すと、次フレームの動き補償予測処理に備えるため、その動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、その符号化ブロックに対応する動きベクトルを動きベクトルバッファ5aに格納する処理を実施する。なお、動き補償予測部5は動き補償予測手段を構成している。
図1の例では、動きベクトルバッファ5aが動き補償予測部5に内蔵されているものを示しているが、動きベクトルバッファ5aは、動き補償予測部5の外部に設けられていてもよい。
When the motion compensation prediction unit 5 has a built-in motion vector buffer 5a that stores a motion vector corresponding to each block, and the coding mode selected by the coding control unit 1 is an inter coding mode, A motion vector corresponding to the encoded block divided by the block dividing unit 2 is read from the motion vector buffer 5a, and the block dividing unit is used by using the motion vector and the inter prediction parameter output from the encoding control unit 1. A motion compensated prediction process is performed on the encoded block divided by 2 to generate a predicted image, and the inter prediction parameters (including index information indicating the block in which the motion vector is stored) are variable-length encoded. Processing to be output to the unit 13 is performed.
Further, when the motion compensated prediction unit 5 generates a predicted image, when the motion vector corresponding to the encoded block divided by the block dividing unit 2 is read, the motion vector is prepared for the motion compensation prediction process of the next frame. As a motion vector corresponding to the block at the indicated position, a motion vector corresponding to the encoded block is stored in the motion vector buffer 5a. The motion compensation prediction unit 5 constitutes motion compensation prediction means.
In the example of FIG. 1, the motion vector buffer 5 a is incorporated in the motion compensation prediction unit 5, but the motion vector buffer 5 a may be provided outside the motion compensation prediction unit 5.

減算部6はブロック分割部2により分割された符号化ブロックから、イントラ予測部4又は動き補償予測部5により生成された予測画像を減算することで、差分画像(=符号化ブロック−予測画像)を生成する処理を実施する。なお、減算部6は差分画像生成手段を構成している。
変換・量子化部7は符号化制御部1から出力された予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、減算部6により生成された差分画像の変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施するとともに、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の変換係数を量子化することで、量子化後の変換係数を差分画像の圧縮データとして出力する処理を実施する。なお、変換・量子化部7は画像圧縮手段を構成している。
The subtracting unit 6 subtracts the prediction image generated by the intra prediction unit 4 or the motion compensation prediction unit 5 from the encoded block divided by the block dividing unit 2, thereby obtaining a difference image (= encoded block−predicted image). The process to generate is performed. The subtracting unit 6 constitutes a difference image generating unit.
The transform / quantization unit 7 performs transform processing (for example, DCT (discrete) of the difference image generated by the subtraction unit 6 in units of transform block size included in the prediction difference encoding parameter output from the encoding control unit 1. Cosine transformation) and orthogonal transformation processing such as KL transformation in which a base design is made in advance for a specific learning sequence) and using the quantization parameter included in the prediction differential encoding parameter, By quantizing the transform coefficient of the difference image, a process of outputting the quantized transform coefficient as compressed data of the difference image is performed. The transform / quantization unit 7 constitutes an image compression unit.

逆量子化・逆変換部8は符号化制御部1から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、変換・量子化部7から出力された圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを局所復号予測差分信号として出力する処理を実施する。   The inverse quantization / inverse transform unit 8 performs inverse quantization on the compressed data output from the transform / quantization unit 7 using the quantization parameter included in the prediction difference encoding parameter output from the encoding control unit 1. And inverse transform processing of the compressed data after inverse quantization (for example, inverse DCT (Inverse Discrete Cosine Transform), inverse transform such as inverse KL transform) in the transform block size unit included in the prediction differential encoding parameter By performing (Process), the process which outputs the compression data after an inverse transformation process as a local decoding prediction difference signal is implemented.

加算部9は逆量子化・逆変換部8から出力された局所復号予測差分信号とイントラ予測部4又は動き補償予測部5により生成された予測画像を示す予測信号を加算することで、局所復号画像を示す局所復号画像信号を生成する処理を実施する。
イントラ予測用メモリ10はイントラ予測部4により次回のイントラ予測処理で用いられる画像として、加算部9により生成された局所復号画像信号が示す局所復号画像を格納するRAMなどの記録媒体である。
The adding unit 9 adds the local decoded prediction difference signal output from the inverse quantization / inverse transform unit 8 and the prediction signal indicating the prediction image generated by the intra prediction unit 4 or the motion compensation prediction unit 5 to thereby perform local decoding. A process of generating a locally decoded image signal indicating an image is performed.
The intra prediction memory 10 is a recording medium such as a RAM that stores a local decoded image indicated by the local decoded image signal generated by the adding unit 9 as an image used in the next intra prediction process by the intra prediction unit 4.

ループフィルタ部11は加算部9により生成された局所復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の局所復号画像信号が示す局所復号画像を参照画像として動き補償予測フレームメモリ12に出力する処理を実施する。
動き補償予測フレームメモリ12は動き補償予測部5により次回の動き補償予測処理で用いられる参照画像として、ループフィルタ部11によるフィルタリング処理後の局所復号画像を格納するRAMなどの記録媒体である。
The loop filter unit 11 compensates for the coding distortion included in the locally decoded image signal generated by the adding unit 9, and performs motion compensation prediction using the locally decoded image indicated by the locally decoded image signal after the coding distortion compensation as a reference image. A process of outputting to the frame memory 12 is performed.
The motion compensated prediction frame memory 12 is a recording medium such as a RAM that stores a locally decoded image after the filtering process by the loop filter unit 11 as a reference image used in the next motion compensated prediction process by the motion compensated prediction unit 5.

可変長符号化部13は変換・量子化部7から出力された圧縮データと、符号化制御部1から出力された符号化モード及び予測差分符号化パラメータと、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータ(インデックス情報を含む)を可変長符号化して、その圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータの符号化データが多重化されているビットストリームを生成する処理を実施する。なお、可変長符号化部13は可変長符号化手段を構成している。   The variable length encoding unit 13 includes the compressed data output from the transform / quantization unit 7, the encoding mode and prediction differential encoding parameter output from the encoding control unit 1, and the intra output from the intra prediction unit 4. The prediction parameter or the inter prediction parameter (including index information) output from the motion compensated prediction unit 5 is subjected to variable length coding, and the compressed data, coding mode, prediction difference coding parameter, intra prediction parameter / inter prediction parameter A process of generating a bit stream in which encoded data is multiplexed is performed. The variable length encoding unit 13 constitutes variable length encoding means.

図1では、動画像符号化装置の構成要素である符号化制御部1、ブロック分割部2、切替スイッチ3、イントラ予測部4、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、ループフィルタ部11及び可変長符号化部13のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、動画像符号化装置がコンピュータで構成される場合、符号化制御部1、ブロック分割部2、切替スイッチ3、イントラ予測部4、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、ループフィルタ部11及び可変長符号化部13の処理内容を記述しているプログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図2はこの発明の実施の形態1による動画像符号化装置の処理内容を示すフローチャートである。
In FIG. 1, a coding control unit 1, a block division unit 2, a changeover switch 3, an intra prediction unit 4, a motion compensation prediction unit 5, a subtraction unit 6, and a transform / quantization unit 7, which are components of the moving image coding apparatus. , The inverse quantization / inverse transform unit 8, the adder unit 9, the loop filter unit 11 and the variable length coding unit 13 each have dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer) However, when the moving image encoding apparatus is configured by a computer, the encoding control unit 1, the block division unit 2, the changeover switch 3, the intra prediction unit 4, the motion compensation A program describing the processing contents of the prediction unit 5, subtraction unit 6, transformation / quantization unit 7, inverse quantization / inverse transformation unit 8, addition unit 9, loop filter unit 11, and variable length coding unit 13 Computer Stored in the memory, CPU of the computer may execute a program stored in the memory.
FIG. 2 is a flowchart showing the processing contents of the moving picture coding apparatus according to Embodiment 1 of the present invention.

図3はこの発明の実施の形態1による動画像復号装置を示す構成図である。
図3において、可変長復号部21はビットストリームに多重化されている符号化データから階層的に分割されている各々の符号化ブロックに係る圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ(インデックス情報を含む)を可変長復号して、その圧縮データ及び予測差分符号化パラメータを逆量子化・逆変換部25に出力するとともに、その符号化モード及びイントラ予測パラメータ/インター予測パラメータを切替スイッチ22に出力する処理を実施する。なお、可変長復号部21は可変長復号手段を構成している。
FIG. 3 is a block diagram showing a moving picture decoding apparatus according to Embodiment 1 of the present invention.
In FIG. 3, the variable length decoding unit 21 compresses data, coding mode, prediction differential coding parameter, intra, and the like related to each coding block hierarchically divided from the coded data multiplexed in the bitstream. The prediction parameter / inter prediction parameter (including index information) is subjected to variable length decoding, and the compressed data and the prediction differential encoding parameter are output to the inverse quantization / inverse transform unit 25, and the encoding mode and the intra prediction parameter are output. The process which outputs the inter prediction parameter to the changeover switch 22 is implemented. The variable length decoding unit 21 constitutes variable length decoding means.

切替スイッチ22は可変長復号部21から出力された符号化ブロックに係る符号化モードがイントラ符号化モードである場合、可変長復号部21から出力されたイントラ予測パラメータをイントラ予測部23に出力し、その符号化モードがインター符号化モードである場合、可変長復号部21から出力されたインター予測パラメータを動き補償予測部24に出力する処理を実施する。
イントラ予測部23は切替スイッチ22から出力されたイントラ予測パラメータを用いて、当該符号化ブロックに対するイントラ予測処理を実施して予測画像を生成する処理を実施する。
The changeover switch 22 outputs the intra prediction parameter output from the variable length decoding unit 21 to the intra prediction unit 23 when the encoding mode related to the encoding block output from the variable length decoding unit 21 is the intra encoding mode. When the coding mode is the inter coding mode, a process of outputting the inter prediction parameter output from the variable length decoding unit 21 to the motion compensation prediction unit 24 is performed.
The intra prediction unit 23 uses the intra prediction parameter output from the changeover switch 22 to perform a process of generating a predicted image by performing an intra prediction process on the encoded block.

動き補償予測部24は各々のブロックに対応する動きベクトルを格納している動きベクトルバッファ24aを内蔵しており、切替スイッチ22から出力された符号化ブロックに係る符号化モードがインター符号化モードである場合、動きベクトルバッファ24aの中から、可変長復号部21により可変長復号された符号化ブロックに係るインデックス情報が示すブロックに対応する動きベクトルを読み出し、その動きベクトルと切替スイッチ22から出力されたインター予測パラメータを用いて、当該符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する処理を実施する。
また、動き補償予測部24は予測画像を生成する際、インデックス情報が示すブロックに対応する動きベクトルを読み出すと、次フレームの動き補償予測処理に備えるため、その動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、そのインデックス情報が示すブロックに対応する動きベクトルを動きベクトルバッファ24aに格納する処理を実施する。なお、動き補償予測部24は動き補償予測手段を構成している。
図3の例では、動きベクトルバッファ24aが動き補償予測部24に内蔵されているものを示しているが、動きベクトルバッファ24aは、動き補償予測部24の外部に設けられていてもよい。
The motion compensation prediction unit 24 has a built-in motion vector buffer 24a storing a motion vector corresponding to each block, and the coding mode related to the coding block output from the changeover switch 22 is an inter coding mode. In some cases, the motion vector corresponding to the block indicated by the index information related to the encoded block variable-length decoded by the variable-length decoding unit 21 is read from the motion vector buffer 24 a and output from the motion vector and the changeover switch 22. Using the inter-prediction parameter, a process for generating a predicted image by performing a motion compensation prediction process on the coding block is performed.
In addition, when the motion compensation prediction unit 24 generates a predicted image, when the motion vector corresponding to the block indicated by the index information is read, the motion compensation prediction unit 24 prepares for the motion compensation prediction processing of the next frame, so The motion vector corresponding to the block indicated by the index information is stored as the motion vector to be stored in the motion vector buffer 24a. The motion compensation prediction unit 24 constitutes motion compensation prediction means.
In the example of FIG. 3, the motion vector buffer 24 a is incorporated in the motion compensation prediction unit 24, but the motion vector buffer 24 a may be provided outside the motion compensation prediction unit 24.

逆量子化・逆変換部25は可変長復号部21から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、可変長復号部21から出力された符号化ブロックに係る圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを復号予測差分信号(圧縮前の差分画像を示す信号)として出力する処理を実施する。なお、逆量子化・逆変換部25は差分画像生成手段を構成している。   The inverse quantization / inverse transform unit 25 uses the quantization parameter included in the prediction difference encoding parameter output from the variable length decoding unit 21 to compress the encoded block output from the variable length decoding unit 21 Data is inversely quantized, and inverse transform processing (for example, inverse DCT (Inverse Discrete Cosine Transform) or inverse KL transform) is performed on the compressed data after inverse quantization in units of transform block sizes included in the prediction differential encoding parameter. By performing the inverse transform process, etc., a process of outputting the compressed data after the inverse transform process as a decoded prediction difference signal (a signal indicating a difference image before compression) is performed. The inverse quantization / inverse transform unit 25 constitutes a difference image generation unit.

加算部26は逆量子化・逆変換部25から出力された復号予測差分信号とイントラ予測部23又は動き補償予測部24により生成された予測画像を示す予測信号を加算することで、復号画像を示す復号画像信号を生成する処理を実施する。なお、加算部26は復号画像生成手段を構成している。
イントラ予測用メモリ27はイントラ予測部23により次回のイントラ予測処理で用いられる画像として、加算部26により生成された復号画像信号が示す復号画像を格納するRAMなどの記録媒体である。
The addition unit 26 adds the decoded prediction difference signal output from the inverse quantization / inverse conversion unit 25 and the prediction signal indicating the prediction image generated by the intra prediction unit 23 or the motion compensation prediction unit 24 to thereby add the decoded image. The process which produces | generates the decoded image signal shown is implemented. The adding unit 26 constitutes a decoded image generating unit.
The intra prediction memory 27 is a recording medium such as a RAM that stores a decoded image indicated by the decoded image signal generated by the adding unit 26 as an image used in the next intra prediction process by the intra prediction unit 23.

ループフィルタ部28は加算部26により生成された復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の復号画像信号が示す復号画像を参照画像として動き補償予測フレームメモリ29に出力する処理を実施する。
動き補償予測フレームメモリ29は動き補償予測部24により次回の動き補償予測処理で用いられる参照画像として、ループフィルタ部28によるフィルタリング処理後の復号画像を格納するRAMなどの記録媒体である。
The loop filter unit 28 compensates for the coding distortion included in the decoded image signal generated by the adding unit 26, and uses the decoded image indicated by the decoded image signal after the coding distortion compensation as a reference image as a motion compensated prediction frame memory 29. Execute the process to output to.
The motion compensated prediction frame memory 29 is a recording medium such as a RAM that stores a decoded image after the filtering process by the loop filter unit 28 as a reference image to be used by the motion compensation prediction unit 24 in the next motion compensation prediction process.

図3では、動画像復号装置の構成要素である可変長復号部21、切替スイッチ22、イントラ予測部23、動き補償予測部24、逆量子化・逆変換部25、加算部26及びループフィルタ部28のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、動画像復号装置がコンピュータで構成される場合、可変長復号部21、切替スイッチ22、イントラ予測部23、動き補償予測部24、逆量子化・逆変換部25、加算部26及びループフィルタ部28の処理内容を記述しているプログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図4はこの発明の実施の形態1による動画像復号装置の処理内容を示すフローチャートである。
In FIG. 3, a variable length decoding unit 21, a changeover switch 22, an intra prediction unit 23, a motion compensation prediction unit 24, an inverse quantization / inverse conversion unit 25, an addition unit 26, and a loop filter unit, which are components of the video decoding device 28 is assumed to be configured by dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer), the moving picture decoding apparatus is configured by a computer. A program describing the processing contents of the variable length decoding unit 21, the changeover switch 22, the intra prediction unit 23, the motion compensation prediction unit 24, the inverse quantization / inverse conversion unit 25, the addition unit 26, and the loop filter unit 28. May be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 4 is a flowchart showing the processing contents of the video decoding apparatus according to Embodiment 1 of the present invention.

次に動作について説明する。
最初に、図1の動画像符号化装置の処理内容を説明する。
まず、符号化制御部1は、動き補償予測処理(フレーム間予測処理)又はイントラ予測処理(フレーム内予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する(図2のステップST1)。
Next, the operation will be described.
First, the processing contents of the moving picture encoding apparatus in FIG. 1 will be described.
First, the encoding control unit 1 determines the maximum size of an encoding block that is a processing unit when the motion compensation prediction process (interframe prediction process) or the intra prediction process (intraframe prediction process) is performed, The upper limit number of hierarchies when the coding block of the maximum size is divided hierarchically is determined (step ST1 in FIG. 2).

符号化ブロックの最大サイズの決め方として、例えば、全てのピクチャに対して、入力画像の解像度に応じたサイズに決定する方法が考えられる。
また、入力画像の局所的な動きの複雑さの違いをパラメータとして定量化しておき、動きの激しいピクチャでは最大サイズを小さな値に決定し、動きが少ないピクチャでは最大サイズを大きな値に決定する方法などが考えられる。
上限の階層数については、例えば、入力画像の動きが激しい程、階層数を深くして、より細かい動きが検出できるように設定し、入力画像の動きが少なければ、階層数を抑えるように設定する方法が考えられる。
As a method of determining the maximum size of the encoded block, for example, a method of determining a size corresponding to the resolution of the input image for all the pictures can be considered.
In addition, the difference in complexity of local motion of the input image is quantified as a parameter, and the maximum size is determined to be a small value for pictures with intense motion, and the maximum size is determined to be a large value for pictures with little motion. And so on.
The upper limit of the number of hierarchies is set so that, for example, the more the input image moves, the deeper the number of hierarchies, so that finer motion can be detected. A way to do this is conceivable.

また、符号化制御部1は、利用可能な1以上の符号化モード(M種類のイントラ符号化モード、N種類のインター符号化モード(動き情報を符号化しないインター符号化を含む))の中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択する(ステップST2)。
符号化制御部1による符号化モードの選択方法は公知の技術であるため詳細な説明を省略するが、例えば、利用可能な任意の符号化モードを用いて、符号化ブロックに対する符号化処理を実施して符号化効率を検証し、利用可能な複数の符号化モードの中で、最も符号化効率がよい符号化モードを選択する方法などがある。
In addition, the encoding control unit 1 includes one or more available encoding modes (M types of intra encoding modes and N types of inter encoding modes (including inter encoding that does not encode motion information)). Then, a coding mode suitable for each coding block divided hierarchically is selected (step ST2).
Since the encoding mode selection method by the encoding control unit 1 is a known technique, detailed description thereof is omitted. For example, encoding processing is performed on the encoding block using any available encoding mode. Then, there is a method of verifying the encoding efficiency and selecting an encoding mode having the highest encoding efficiency among a plurality of available encoding modes.

ブロック分割部2は、入力画像を示す映像信号を入力すると、その映像信号が示す入力画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割する。
ここで、図5は最大サイズの符号化ブロックが階層的に複数の符号化ブロックに分割される様子を示す説明図である。
図5の例では、最大サイズの符号化ブロックは、第0階層の符号化ブロックBであり、輝度成分で(L,M)のサイズを有している。
また、図5の例では、最大サイズの符号化ブロックBを出発点として、4分木構造で、別途定める所定の深さまで階層的に分割を行うことによって、符号化ブロックBを得ている。
When a video signal indicating an input image is input, the block dividing unit 2 divides the input image indicated by the video signal into encoded blocks of the maximum size determined by the encoding control unit 1, and the encoding control unit 1 The encoded block is hierarchically divided until the determined upper limit number of layers is reached.
Here, FIG. 5 is an explanatory diagram showing a state in which a coding block of the maximum size is hierarchically divided into a plurality of coding blocks.
In the example of FIG. 5, the coding block of the maximum size is the coding block B 0 of the 0th layer, and has a size of (L 0 , M 0 ) as a luminance component.
Further, in the example of FIG. 5, the encoding block B n is obtained by performing hierarchical division to a predetermined depth determined separately in a quadtree structure with the encoding block B 0 having the maximum size as a starting point. Yes.

深さnにおいては、符号化ブロックBはサイズ(L,M)の画像領域である。
ただし、LとMは同じであってもよいし異なっていてもよいが、図5の例ではL=Mのケースを示している。
以降、符号化ブロックBのサイズは、符号化ブロックBの輝度成分におけるサイズ(L,M)と定義する。
At the depth n, the coding block B n is an image area of size (L n , M n ).
However, L n and M n may be the same or different, but the example of FIG. 5 shows the case of L n = M n .
Later, the size of the encoded block B n is defined as the size of the luminance component of the encoded block B n (L n, M n ).

ブロック分割部2は、4分木分割を行うため、常に(Ln+1,Mn+1)=(L/2,M/2)が成立する。
ただし、RGB信号などのように、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(L,M)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックのサイズは(L/2,M/2)である。
以降、第n階層の符号化ブロックBで選択しうる符号化モードをm(B)と記する。
Since the block division unit 2 performs quadtree division, (L n + 1 , M n + 1 ) = (L n / 2, M n / 2) always holds.
However, in a color video signal (4: 4: 4 format) in which all color components have the same number of samples, such as RGB signals, the size of all color components is (L n , M n ). When the 4: 2: 0 format is handled, the size of the corresponding color difference component coding block is (L n / 2, M n / 2).
Hereinafter, a coding mode that can be selected in the coding block B n of the n-th layer is described as m (B n ).

複数の色成分からなるカラー映像信号の場合、符号化モードm(B)は、各色成分ごとに、それぞれ個別のモードを用いるように構成されてもよいが、以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードのことを指すものとして説明を行う。
符号化モードm(B)には、1つないし複数のイントラ符号化モード(総称して「INTRA」)、1つないし複数のインター符号化モード(総称して「INTER」)があり、符号化制御部1は、上述したように、当該ピクチャで利用可能な全ての符号化モードないしは、そのサブセットの中から、符号化ブロックBに対して最も符号化効率がよい符号化モードを選択する。
In the case of a color video signal composed of a plurality of color components, the encoding mode m (B n ) may be configured to use an individual mode for each color component, but hereinafter, unless otherwise specified, YUV The description will be made on the assumption that it indicates the coding mode for the luminance component of the coding block of the signal 4: 2: 0 format.
The coding mode m (B n ) includes one or more intra coding modes (collectively “INTRA”), one or more inter coding modes (collectively “INTER”), As described above, the encoding control unit 1 selects an encoding mode having the highest encoding efficiency for the encoding block B n from all the encoding modes available for the picture or a subset thereof. .

符号化ブロックBは、図5に示すように、更に1つないし複数の予測処理単位(パーティション)に分割される。
以降、符号化ブロックBに属するパーティションをP (i: 第n階層におけるパーティション番号)と表記する。
符号化ブロックBに属するパーティションP の分割がどのようになされているかは符号化モードm(B)の中に情報として含まれる。
パーティションP は、すべて符号化モードm(B)に従って予測処理が行われるが、パーティションP 毎に、個別の予測パラメータを選択することができる。
As shown in FIG. 5, the coding block B n is further divided into one or more prediction processing units (partitions).
Hereinafter, the partition belonging to the coding block B n is denoted as P i n (i: the partition number in the nth layer).
How the partition P i n belonging to the coding block B n is divided is included as information in the coding mode m (B n ).
All partitions P i n are subjected to prediction processing according to the coding mode m (B n ), but individual prediction parameters can be selected for each partition P i n .

符号化制御部1は、最大サイズの符号化ブロックに対して、例えば、図6に示すようなブロック分割状態を生成して、符号化ブロックBを特定する。
図6(a)の網がけ部分は分割後のパーティションの分布を示し、また、図6(b)は階層分割後のパーティションに符号化モードm(B)が割り当てられる状況を4分木グラフで示している。
図6(b)において、□で囲まれているノードが、符号化モードm(B)が割り当てられたノード(符号化ブロックB)を示している。
For example, the encoding control unit 1 generates a block division state as shown in FIG. 6 for the encoding block of the maximum size, and specifies the encoding block Bn .
6A shows the distribution of the partitions after the division, and FIG. 6B shows a situation where the encoding mode m (B n ) is assigned to the partition after the hierarchy division in the quadtree graph. Is shown.
In FIG. 6B, nodes surrounded by squares indicate nodes (encoded blocks B n ) to which the encoding mode m (B n ) is assigned.

切替スイッチ3は、符号化制御部1が各々の符号化ブロックBのパーティションP に対して最適な符号化モードm(B)を選択すると、その符号化モードm(B)がイントラ符号化モードであれば(ステップST3)、ブロック分割部2により分割された符号化ブロックBのパーティションP をイントラ予測部4に出力する。
一方、その符号化モードm(B)がインター符号化モードであれば(ステップST3)、ブロック分割部2により分割された符号化ブロックBのパーティションP を動き補償予測部5に出力する。
Changeover switch 3, the encoding control unit 1 selects the optimal coding mode m (B n) for the partition P i n in each of the coding blocks B n, the encoding mode m (B n) is If it is the intra coding mode (step ST3), the partition P i n of the coding block B n divided by the block dividing unit 2 is output to the intra prediction unit 4.
On the other hand, if the coding mode m (B n ) is the inter coding mode (step ST 3), the partition P i n of the coding block B n divided by the block dividing unit 2 is output to the motion compensation prediction unit 5. To do.

イントラ予測部4は、切替スイッチ3から符号化ブロックBのパーティションP を受けると、符号化制御部1により選択された符号化モードm(B)に対応するイントラ予測パラメータを用いて、その符号化ブロックBのパーティションP に対するイントラ予測処理を実施して、イントラ予測画像P を生成する(ステップST4)。
イントラ予測部4は、イントラ予測画像P を生成すると、そのイントラ予測画像P を減算部6及び加算部9に出力するが、図3の動画像復号装置でも同じイントラ予測画像P を生成できるようにするため、そのイントラ予測パラメータを可変長符号化部13に出力する。
なお、イントラ予測部4のイントラ予測処理は、例えば、AVC/H.264規格(ISO/IEC 14496−10)に定められているアルゴリズムに従うが、このアルゴリズムに限定されるものではない。
When receiving the partition P i n of the coding block B n from the changeover switch 3, the intra prediction unit 4 uses the intra prediction parameter corresponding to the coding mode m (B n ) selected by the coding control unit 1. , and out the intra prediction process for partition P i n in the coded blocks B n, it generates an intra prediction image P i n (step ST4).
Intra prediction unit 4, when generating an intra prediction image P i n, that the intra prediction image P i n outputs to the subtraction unit 6 and the addition unit 9, but video decoding same intra prediction image P i in the apparatus of FIG 3 In order to be able to generate n , the intra prediction parameter is output to the variable length coding unit 13.
Note that the intra prediction process of the intra prediction unit 4 is, for example, AVC / H. The algorithm is defined in the H.264 standard (ISO / IEC 14496-10), but is not limited to this algorithm.

動き補償予測部5は、切替スイッチ3から符号化ブロックBのパーティションP を受けると、各々のブロックに対応する動きベクトルを格納している動きベクトルバッファ5aの中から、そのパーティションP に対応する動きベクトルの読み出しを行う。
ここで、図7は各々のブロックに対応する動きベクトルを格納している動きベクトルバッファ5aと符号化ブロックBを示す説明図である。
動きベクトルバッファ5aにおける各々のブロックは、符号化ブロックB内のパーティションP と対応しており、例えば、図中斜線が施されているパーティションP に対するイントラ予測処理を実施する場合、そのパーティションP と空間的に同じ位置にある動きベクトルバッファ5a内のブロック(図中、網掛けが施されているブロック)に格納されている動きベクトルの読み出しを行う。
The motion compensation prediction unit 5 receives the partition P i n coded blocks B n from the changeover switch 3, from the motion vector buffer 5a that stores a motion vector corresponding to each block, the partition P i A motion vector corresponding to n is read out.
Here, FIG. 7 is an explanatory diagram showing a motion vector buffer 5a storing a motion vector corresponding to each block and a coding block Bn .
Each block in the motion vector buffer 5a, corresponds with the partition P i n the coded block B n, for example, when performing intra prediction processing for the partition P i n that hatched is applied, performing the block partitions in P i n spatially motion vector buffer 5a in the same position to read the motion vectors stored in (in the figure, shaded blocks are subjected).

動き補償予測部5は、動きベクトルバッファ5aの中から、パーティションP に対応する動きベクトルを含む動き情報を読み出すと、その動き情報と符号化制御部1から出力されたインター予測パラメータを用いて、そのパーティションP に対する動き補償予測処理を実施して、インター予測画像P を生成する(ステップST5)。
ここでは、パーティションP と空間的に同じ位置にある動きベクトルバッファ5a内のブロックに格納されている動き情報を用いる例(時間予測を用いる例)を示しているが、その動きベクトルを用いるよりも、そのパーティションP と同じピクチャに属する動きベクトルであって、そのパーティションP の周辺に位置しているブロックの動き情報を用いる方(空間予測を用いる方)が、符号化効率が高くなる場合には、その動き情報を用いて、インター予測画像P を生成する。
The motion compensation prediction unit 5, using among the motion vector buffer 5a, reading the motion information including a motion vector corresponding to the partition P i n, the inter prediction parameter outputted from the motion information and the coding control unit 1 Te, and performs motion compensation prediction processing for the partition P i n, generates an inter prediction image P i n (step ST5).
Here, an example is shown of using the motion information stored in the block in the motion vector buffer 5a in a partition P i n spatially same position (example using temporal prediction), using the motion vector than a motion vector that belongs to the same picture as the partition P i n, better to use the motion information of blocks located around the partition P i n is (better to use spatial prediction) coding efficiency If the higher, using the motion information, generates an inter prediction image P i n.

動き補償予測部5は、インター予測画像P を生成すると、そのインター予測画像P を減算部6及び加算部9に出力するが、図3の動画像復号装置でも同じインター予測画像P を生成できるようにするため、そのインター予測パラメータを可変長符号化部13に出力する。
なお、インター予測パラメータには、下記の情報が含まれている。
(1)符号化ブロックB内のパーティションP の分割状況を記述しているモード情報
(2)パーティションP の動きベクトル
(3)動き補償予測フレームメモリ12により複数の参照画像が格納されている場合、いずれの参照画像を用いて、動き補償予測処理を実施するかを示す参照画像の指示インデックス情報
(4)複数の動きベクトルの予測値候補がある場合(例えば、パーティションP と空間的に同じ位置にある動きベクトルバッファ5a内のブロックに格納されている動きベクトル、パーティションP と同じピクチャに属する動きベクトル)、いずれのブロックの動きベクトルを選択して使用するかを示すインデックス情報
(5)複数の動き補償内挿フィルタがある場合、いずれのフィルタを選択して使用するかを示すインデックス情報
(6)パーティションP の動きベクトルが複数の画素精度(半画素、1/4画素、1/8画素など)を示すことが可能な場合、いずれの画素精度を使用するかを示す選択情報
The motion compensation prediction unit 5 and generates an inter prediction image P i n, but outputs the inter prediction image P i n to the subtraction unit 6 and the addition unit 9, same inter prediction in a video decoding apparatus of FIG. 3 the image P In order to be able to generate in, the inter prediction parameter is output to the variable length coding unit 13.
The inter prediction parameter includes the following information.
(1) partition P i n a plurality of reference images by division condition mode information describing the (2) partition P i n motion vector (3) of the motion compensated prediction frame memory 12 of the coding block B n is stored If there is a plurality of motion vector prediction value candidates (for example, partition P i n ) (4) Reference index indication index information indicating which reference image is used to perform motion compensation prediction processing spatially motion vector stored in the block in the motion vector buffer 5a in the same position, the motion vectors belonging to the same picture as the partition P i n), should be used to select the motion vector of any block Index information to indicate (5) If there are multiple motion compensation interpolation filters, select which filter to use Index information (6) partition P i n motion vectors are multiple pixel precision indicating the Luca (half pixel, 1/4-pixel, 1/8-pixel, etc.) capable of exhibiting, use one of the pixel accuracy Selection information indicating whether to

また、動き補償予測部5は、インター予測画像P を生成すると、次フレームの動き補償予測処理に備えるため、インター予測画像P の生成に用いた動き情報(パーティションP に対応する動きベクトル、参照ピクチャインデックス)を動きベクトルバッファ5aに格納する。
次フレームでは、パーティションP 内の物体が、インター予測画像P の生成に用いた動きベクトルが指し示す位置のブロックに移動している可能性が高い。
一方、時間予測モードでは、次フレームの動き補償予測処理においても、パーティションP と空間的に同じ位置にある動きベクトルバッファ5a内のブロックに格納されている動きベクトルが読み出される。
そこで、動き補償予測部5は、パーティションP 内の物体が、空間的に異なる位置にあるブロックに移動していても、高精度な動きベクトルを用いることができるようにするため、インター予測画像P の生成に用いた動きベクトルを、指し示す位置のブロックに対応する動きベクトルとして、インター予測画像P の生成に用いた動きベクトルを動きベクトルバッファ5aに格納する。
In addition, when the inter prediction image P i n is generated, the motion compensation prediction unit 5 prepares for motion compensation prediction processing of the next frame, and therefore motion information (corresponding to the partition P i n corresponding to the generation of the inter prediction image P i n ). (Motion vector to be performed, reference picture index) is stored in the motion vector buffer 5a.
In the next frame, there is a high possibility that the object in the partition P i n has moved to the block at the position indicated by the motion vector used to generate the inter-predicted image P i n .
On the other hand, in the temporal prediction mode, the motion compensation prediction processing in the next frame, the motion vector stored in the block in the motion vector buffer 5a in a partition P i n spatially same position is read.
Therefore, the motion compensation prediction unit 5 uses the inter prediction so that a highly accurate motion vector can be used even if an object in the partition P i n has moved to a block at a spatially different position. the motion vector used to generate the image P i n, as a motion vector corresponding to the block of the position indicated, is stored in the vector buffer 5a motion a motion vector used for generating the inter prediction image P i n.

例えば、インター予測画像P の生成に用いた動きベクトルが、図7の太枠で示されるブロックの動きベクトルである場合、この動きベクトルは右上のブロック(図中斜線が施されているブロック)を指し示しているので、この動きベクトルは、右上のブロックの動きベクトルとして動きベクトルバッファ5aに格納される。
具体的には、パーティションP に対応する動きベクトルが(MVx,MVy)で表され、パーティションP の空間的な位置が(x,y)で表される場合、その動きベクトルを格納するブロックの空間的な位置(X,Y)は、下記の式(2)に示されるようになる。
(X,Y)=(x,y)+(MVx,MVy) (2)
これにより、パーティションP の動きを考慮して、動き情報を格納することができるため、その後のフレームを符号化する際に時間ベクトルを使用する場合、符号化対象のブロックの動きに近い動きベクトルを予測に用いることができるようになり、符号化効率の向上に寄与することができる。
For example, a motion vector used for generating the inter prediction image P i n is, when a motion vector of a block indicated by a thick frame in FIG. 7, the motion vector is the upper right of the block (in the drawing hatching is applied block This motion vector is stored in the motion vector buffer 5a as the motion vector of the upper right block.
Specifically, if the motion vector corresponding to the partition P i n is (MVx, MVy) is represented by the spatial position of the partition P i n is represented by (x, y), stores the motion vector The spatial position (X, Y) of the block to be performed is as shown in the following equation (2).
(X, Y) = (x, y) + (MVx, MVy) (2)
Thus, taking into account the movement of the partition P i n, it is possible to store the motion information, followed in the case of using a time vector in encoding the frame, the motion close to the motion of the block to be coded Vectors can be used for prediction, which can contribute to improvement of coding efficiency.

減算部6は、イントラ予測部4又は動き補償予測部5が予測画像(イントラ予測画像P 、インター予測画像P )を生成すると、ブロック分割部2により分割された符号化ブロックBのパーティションP から、イントラ予測部4又は動き補償予測部5により生成された予測画像(イントラ予測画像P 、インター予測画像P )を減算することで差分画像を生成し、その差分画像を示す予測差分信号e を変換・量子化部7に出力する(ステップST6)。 When the intra prediction unit 4 or the motion compensation prediction unit 5 generates a prediction image (intra prediction image P i n , inter prediction image P i n ), the subtraction unit 6 encodes the encoded block B n divided by the block division unit 2. A difference image is generated by subtracting a prediction image (intra prediction image P i n , inter prediction image P i n ) generated by the intra prediction unit 4 or the motion compensated prediction unit 5 from the partition P i n of the prediction difference signal e i n representing a difference image is output to the transform and quantization unit 7 (step ST6).

変換・量子化部7は、減算部6から差分画像を示す予測差分信号e を受けると、符号化制御部1から出力された予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、その差分画像の変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施するとともに、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の変換係数を量子化することで、量子化後の変換係数を差分画像の圧縮データとして逆量子化・逆変換部8及び可変長符号化部13に出力する(ステップST7)。 Transform and quantization unit 7 receives the prediction difference signal e i n that indicates a difference image from the subtraction unit 6, conversion block size contained in the predictive differential coding parameter output from the coding controller 1 The differential image conversion process (for example, DCT (Discrete Cosine Transform) or orthogonal transform process such as KL transform in which a base design is made in advance for a specific learning sequence) is performed, and the prediction differential encoding is performed. The quantization coefficient included in the parameter is used to quantize the transform coefficient of the difference image, so that the quantized transform coefficient is converted into the compressed data of the difference image and the inverse quantization / inverse transform unit 8 and the variable length It outputs to the encoding part 13 (step ST7).

逆量子化・逆変換部8は、変換・量子化部7から差分画像の圧縮データを受けると、符号化制御部1から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを局所復号予測差分信号として加算部9に出力する(ステップST8)。   When the inverse quantization / inverse transform unit 8 receives the compressed data of the difference image from the transform / quantization unit 7, the inverse quantization / inverse transform unit 8 uses the quantization parameter included in the prediction difference encoding parameter output from the encoding control unit 1. Then, the compressed data of the difference image is inversely quantized, and the inverse transform process (for example, inverse DCT (inverse discrete cosine) of the compressed data after inverse quantization is performed in the transform block size unit included in the prediction difference encoding parameter. Conversion) and inverse transformation processing such as inverse KL transformation), the compressed data after the inverse transformation processing is output to the adding unit 9 as a local decoded prediction difference signal (step ST8).

加算部9は、逆量子化・逆変換部8から局所復号予測差分信号を受けると、その局所復号予測差分信号と、イントラ予測部4又は動き補償予測部5により生成された予測画像(イントラ予測画像P 、インター予測画像P )を示す予測信号を加算することで、局所復号パーティション画像、ないしは、その集まりとしての局所復号符号化ブロック画像である局所復号画像を生成する(ステップST9)。
加算部9は、局所復号画像を生成すると、その局所復号画像を示す局所復号画像信号をイントラ予測用メモリ10に格納するとともに、その局所復号画像信号をループフィルタ部11に出力する。
Upon receiving the local decoded prediction difference signal from the inverse quantization / inverse transform unit 8, the adder 9 receives the local decoded prediction difference signal and a prediction image (intra prediction predicted) generated by the intra prediction unit 4 or the motion compensation prediction unit 5. By adding the prediction signals indicating the image P i n and the inter prediction image P i n ), a local decoded partition image or a local decoded image that is a local decoding coded block image as a collection thereof is generated (step ST9). ).
When generating the locally decoded image, the adding unit 9 stores the locally decoded image signal indicating the locally decoded image in the intra prediction memory 10 and outputs the locally decoded image signal to the loop filter unit 11.

ステップST3〜ST9の処理は、階層的に分割された全ての符号化ブロックBに対する処理が完了するまで繰り返し実施され、全ての符号化ブロックBに対する処理が完了するとステップST12の処理に移行する(ステップST10,ST11)。 Processing in step ST3~ST9 is repeated until processing of all the coding blocks B n which are hierarchically split is completed, the process proceeds when the processing of all the coding blocks B n completion process in step ST12 (Steps ST10 and ST11).

可変長符号化部13は、変換・量子化部7から出力された圧縮データと、符号化制御部1から出力された符号化モード(符号化ブロックの分割状態を示す情報を含む)及び予測差分符号化パラメータと、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータ(インデックス情報を含む)をエントロピー符号化する。
可変長符号化部13は、エントロピー符号化の符号化結果である圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータの符号化データを多重化してビットストリームを生成する(ステップST12)。
The variable length encoding unit 13 includes the compressed data output from the transform / quantization unit 7, the encoding mode output from the encoding control unit 1 (including information indicating the division state of the encoded block), and the prediction difference The encoding parameter and the intra prediction parameter output from the intra prediction unit 4 or the inter prediction parameter (including index information) output from the motion compensation prediction unit 5 are entropy encoded.
The variable length encoding unit 13 multiplexes the compressed data, the encoding mode, the prediction differential encoding parameter, and the intra prediction parameter / inter prediction parameter encoded data, which are the entropy encoding results, to generate a bitstream. (Step ST12).

ループフィルタ部11は、加算部9から局所復号画像信号を受けると、その局所復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の局所復号画像信号が示す局所復号画像を参照画像として動き補償予測フレームメモリ12に格納する(ステップST13)。
ループフィルタ部11によるフィルタリング処理は、加算部9から出力される局所復号画像信号の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する局所復号画像信号が出力された後に1画面分まとめて行ってもよい。
When the loop filter unit 11 receives the local decoded image signal from the adder unit 9, the loop filter unit 11 compensates for the encoding distortion included in the local decoded image signal, and the local decoded image indicated by the local decoded image signal after the encoding distortion compensation Is stored in the motion compensated prediction frame memory 12 as a reference image (step ST13).
The filtering process by the loop filter unit 11 may be performed in units of maximum encoded blocks or individual encoded blocks of the locally decoded image signal output from the adder unit 9, or local decoding corresponding to a macroblock for one screen. After the image signal is output, it may be performed for one screen.

次に、図3の動画像復号装置の処理内容を説明する。
可変長復号部21は、図1の動画像符号化装置から出力されたビットストリームを入力すると、そのビットストリームに対する可変長復号処理を実施して、1フレーム以上のピクチャから構成されるシーケンス単位あるいはピクチャ単位にフレームサイズを復号する(図4のステップST21)。
Next, processing contents of the moving picture decoding apparatus in FIG. 3 will be described.
When the variable length decoding unit 21 receives the bit stream output from the moving picture encoding apparatus in FIG. 1, the variable length decoding unit 21 performs a variable length decoding process on the bit stream and performs a sequence unit composed of pictures of one frame or more. The frame size is decoded for each picture (step ST21 in FIG. 4).

可変長復号部21は、図1の符号化制御部1と同様の手順で、動き補償予測処理(フレーム間予測処理)又はイントラ予測処理(フレーム内予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する(ステップST22)。
例えば、画像符号化装置において、符号化ブロックの最大サイズが、入力画像の解像度に応じて決定されている場合、先に復号しているフレームサイズに基づいて符号化ブロックの最大サイズを決定する。
なお、符号化ブロックの最大サイズ及び上限の階層数を示す情報がビットストリームに多重化されている場合には、そのビットストリームから復号した情報を参照する。
The variable length decoding unit 21 is a processing unit when the motion compensation prediction process (interframe prediction process) or the intra prediction process (intraframe prediction process) is performed in the same procedure as the encoding control unit 1 of FIG. Is determined, and the upper limit number of layers when the maximum size encoded block is hierarchically divided is determined (step ST22).
For example, in the image encoding apparatus, when the maximum size of the encoded block is determined according to the resolution of the input image, the maximum size of the encoded block is determined based on the frame size that has been decoded first.
When information indicating the maximum size of the encoded block and the upper limit number of layers is multiplexed in the bit stream, the information decoded from the bit stream is referred to.

ビットストリームに多重化されている最大サイズの符号化ブロックBの符号化モードm(B)には、最大サイズの符号化ブロックBの分割状態を示す情報が含まれているので、可変長復号部21は、ビットストリームに多重化されている最大サイズの符号化ブロックBの符号化モードm(B)を復号して、階層的に分割されている各々の符号化ブロックBを特定する(ステップST23)。
可変長復号部21は、各々の符号化ブロックBを特定すると、その符号化ブロックBの符号化モードm(B)を復号し、その符号化モードm(B)に属しているパーティションP の情報に基づいて、符号化ブロックBに属しているパーティションP を特定する。
可変長復号部21は、符号化ブロックBに属しているパーティションP を特定すると、パーティションP 毎に、圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ(インデックス情報を含む)を復号する(ステップST24)。
Since the coding mode m of the coded blocks B 0 maximum size that is multiplexed (B 0) in the bit stream includes information representing the split state of the encoded block B 0 of the maximum size, variable The long decoding unit 21 decodes the encoding mode m (B 0 ) of the maximum size encoding block B 0 multiplexed in the bitstream, and each encoding block B n divided hierarchically. Is specified (step ST23).
When the variable length decoding unit 21 identifies each coding block B n , the variable length decoding unit 21 decodes the coding mode m (B n ) of the coding block B n and belongs to the coding mode m (B n ). based on the information of the partition P i n, identifies the partition P i n that belong to coded blocks B n.
When the variable length decoding unit 21 specifies the partition P i n belonging to the coding block B n , the variable length decoding unit 21 compresses the compressed data, the coding mode, the prediction difference coding parameter, the intra prediction parameter / inter prediction for each partition P i n. The parameters (including index information) are decoded (step ST24).

切替スイッチ22は、可変長復号部21から出力された符号化ブロックBに属しているパーティションP の符号化モードm(B)がイントラ符号化モードである場合(ステップST25)、可変長復号部21から出力されたイントラ予測パラメータをイントラ予測部23に出力する。
一方、パーティションP の符号化モードm(B)がインター符号化モードである場合(ステップST25)、可変長復号部21から出力されたインター予測パラメータを動き補償予測部24に出力する。
イントラ予測部23は、切替スイッチ22からイントラ予測パラメータを受けると、そのイントラ予測パラメータを用いて、その符号化ブロックBのパーティションP に対するイントラ予測処理を実施して、イントラ予測画像P を生成する(ステップST26)。
The changeover switch 22 is variable when the coding mode m (B n ) of the partition P i n belonging to the coding block B n output from the variable length decoding unit 21 is the intra coding mode (step ST25). The intra prediction parameter output from the long decoding unit 21 is output to the intra prediction unit 23.
On the other hand, when the coding mode m (B n ) of the partition P i n is the inter coding mode (step ST25), the inter prediction parameter output from the variable length decoding unit 21 is output to the motion compensation prediction unit 24.
When the intra prediction unit 23 receives the intra prediction parameter from the changeover switch 22, the intra prediction unit 23 performs an intra prediction process on the partition P i n of the coding block B n using the intra prediction parameter, and performs the intra prediction image P i. n is generated (step ST26).

動き補償予測部24は、切替スイッチ22からインター予測パラメータを受けると、動きベクトルバッファ24aの中から、そのインター予測パラメータに含まれているインデックス情報が示すブロックに対応する動きベクトルの読み出しを行う。
図1の動き補償予測部5内の動きベクトルバッファ5aと、動き補償予測部24内の動きベクトルバッファ24aには同じ動きベクトルが格納されているので、動き補償予測部24がインデックス情報を参照して、動きベクトルの読み出し処理を行うことで、図1の動き補償予測部5がインター予測画像P を生成する際に用いている動きベクトルと同じ動きベクトルを読み出すことができる。
When the motion compensation prediction unit 24 receives the inter prediction parameter from the changeover switch 22, the motion compensation prediction unit 24 reads the motion vector corresponding to the block indicated by the index information included in the inter prediction parameter from the motion vector buffer 24a.
Since the same motion vector is stored in the motion vector buffer 5a in the motion compensation prediction unit 5 in FIG. 1 and the motion vector buffer 24a in the motion compensation prediction unit 24, the motion compensation prediction unit 24 refers to the index information. Te, by performing the reading processing of the motion vector, it is possible to read the same motion vector as the motion vector is used in motion compensation prediction unit 5 of FIG. 1 to generate an inter prediction image P i n.

動き補償予測部24は、動きベクトルバッファ24aの中から、パーティションP に対応する動きベクトルを読み出すと、その動きベクトルと切替スイッチ22から出力されたインター予測パラメータを用いて、符号化ブロックBのパーティションP に対する動き補償予測処理を実施して、インター予測画像P を生成する(ステップST27)。
また、動き補償予測部24は、インター予測画像P を生成すると、次フレームの動き補償予測処理に備えるため、図1の動き補償予測部5と同様に、インター予測画像P の生成に用いた動き情報(パーティションP に対応する動きベクトル、参照画像インデックス)を動きベクトルバッファ24aに格納する。
即ち、動き補償予測部24は、パーティションP 内の物体が、空間的に異なる位置にあるブロックに移動していても、高精度な動きベクトルを用いることができるようにするため、インター予測画像P の生成に用いた動きベクトルが指し示す位置のブロックに対応する動き情報として、インター予測画像P の生成に用いた動き情報を動きベクトルバッファ24aに格納する。
Motion compensation prediction unit 24, from the motion vector buffer 24a, by reading the motion vector corresponding to the partition P i n, using inter prediction parameter outputted from the motion vector and the change-over switch 22, the coding block B and performing motion compensation prediction process for n partitions P i n, generates an inter prediction image P i n (step ST27).
The motion compensation prediction unit 24, when generating the inter prediction image P i n, to prepare for the motion compensation prediction processing in the next frame, as in motion compensation prediction unit 5 of FIG. 1, generates the inter prediction image P i n storing the motion information (partition P i n corresponding motion vector, the reference image index) of the motion vector buffer 24a used for.
That is, the motion compensation prediction unit 24 uses inter prediction so that a high-precision motion vector can be used even if an object in the partition P i n moves to a block at a spatially different position. as the motion information corresponding to the block position where the motion vector is indicated used to generate the image P i n, stored in the vector buffer 24a motion motion information used for generating the inter prediction image P i n.

例えば、インター予測画像P の生成に用いた動き情報が、図7の太枠で示されるブロックの動きベクトルである場合、この動きベクトルは右上のブロック(図中斜線が施されているブロック)を指し示しているので、この動き情報は、右上のブロックの動き情報として動きベクトルバッファ24aに格納される。
具体的には、パーティションP に対応する動きベクトルが(MVx,MVy)で表され、パーティションP の空間的な位置が(x,y)で表される場合、その動きベクトルを格納するブロックの空間的な位置(X,Y)は、下記の式(3)に示されるようになる。
(X,Y)=(x,y)+(MVx,MVy) (3)
For example, the motion information used for generating the inter prediction image P i n is, when a motion vector of a block indicated by a thick frame in FIG. 7, the motion vector is the upper right of the block (in the drawing hatching is applied block This motion information is stored in the motion vector buffer 24a as motion information of the upper right block.
Specifically, if the motion vector corresponding to the partition P i n is (MVx, MVy) is represented by the spatial position of the partition P i n is represented by (x, y), stores the motion vector The spatial position (X, Y) of the block to be performed is as shown in the following equation (3).
(X, Y) = (x, y) + (MVx, MVy) (3)

逆量子化・逆変換部25は、可変長復号部21から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、可変長復号部21から出力された符号化ブロックに係る圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを復号予測差分信号(圧縮前の差分画像を示す信号)として加算部26に出力する(ステップST28)。   The inverse quantization / inverse transform unit 25 uses the quantization parameter included in the prediction difference encoding parameter output from the variable length decoding unit 21 to relate to the encoded block output from the variable length decoding unit 21 The compressed data is inversely quantized, and the inverse transform processing (for example, inverse DCT (Inverse Discrete Cosine Transform) or inverse KL) is performed on the compressed data after inverse quantization in units of transform block size included in the prediction differential encoding parameter. By performing reverse conversion processing such as conversion, the compressed data after the reverse conversion processing is output to the adding unit 26 as a decoded prediction differential signal (a signal indicating a differential image before compression) (step ST28).

加算部26は、逆量子化・逆変換部25から復号予測差分信号を受けると、その復号予測差分信号とイントラ予測部23又は動き補償予測部24により生成された予測画像を示す予測信号を加算することで復号画像を生成して、その復号画像を示す復号画像信号をイントラ予測用メモリ27に格納するとともに、その復号画像信号をループフィルタ部28に出力する(ステップST29)。   When the addition unit 26 receives the decoded prediction difference signal from the inverse quantization / inverse conversion unit 25, the addition unit 26 adds the decoded prediction difference signal and a prediction signal indicating the prediction image generated by the intra prediction unit 23 or the motion compensation prediction unit 24. Thus, a decoded image is generated, and a decoded image signal indicating the decoded image is stored in the intra prediction memory 27, and the decoded image signal is output to the loop filter unit 28 (step ST29).

ステップST23〜ST29の処理は、階層的に分割された全ての符号化ブロックBに対する処理が完了するまで繰り返し実施される(ステップST30)。
ループフィルタ部28は、加算部26から復号画像信号を受けると、その復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の復号画像信号が示す復号画像を参照画像として動き補償予測フレームメモリ29に格納する(ステップST31)。
ループフィルタ部28によるフィルタリング処理は、加算部26から出力される復号画像信号の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する復号画像信号が出力された後に1画面分まとめて行ってもよい。
The processes in steps ST23 to ST29 are repeatedly performed until the processes for all the hierarchically divided coding blocks Bn are completed (step ST30).
When the loop filter unit 28 receives the decoded image signal from the adder unit 26, the loop filter unit 28 compensates for the encoding distortion included in the decoded image signal, and uses the decoded image indicated by the decoded image signal after the encoding distortion compensation as a reference image. It stores in the motion compensation prediction frame memory 29 (step ST31).
The filtering process by the loop filter unit 28 may be performed in units of maximum encoded blocks or individual encoded blocks of the decoded image signal output from the adding unit 26, or a decoded image signal corresponding to a macroblock for one screen. May be performed for one screen at a time after is output.

以上で明らかなように、この実施の形態1によれば、動きベクトルが指し示す位置のブロックに対応する動き情報として、その符号化ブロックに対応する動き情報を動きベクトルバッファ5aに格納するように構成したので、動画像符号化装置の動き補償予測部5が予測画像を生成する際、動きベクトルバッファ5aの中から、ブロック分割部2により分割された符号化ブロックに対応する動き情報を読み出すと、符号化ブロック内の物体が、空間的に異なる位置にあるブロックに移動していても、高精度に動きベクトルを生成することができる効果を奏する。   As apparent from the above, according to the first embodiment, the motion information corresponding to the encoded block is stored in the motion vector buffer 5a as the motion information corresponding to the block at the position indicated by the motion vector. Therefore, when the motion compensation predicting unit 5 of the video encoding device generates a predicted image, when motion information corresponding to the encoded block divided by the block dividing unit 2 is read from the motion vector buffer 5a, Even if the object in the coding block moves to a block at a spatially different position, there is an effect that a motion vector can be generated with high accuracy.

また、この実施の形態1によれば、動きベクトルが指し示す位置のブロックに対応する動き情報として、そのインデックス情報が示すブロックに対応する動き情報を動きベクトルバッファ24aに格納するように構成したので、動画像復号装置の動き補償予測部24が予測画像を生成する際、動きベクトルバッファ24aの中から、可変長復号部21により可変長復号された符号化ブロックに係るインデックス情報が示すブロックに対応する動きベクトルを読み出すと、符号化ブロック内の物体が、空間的に異なる位置にあるブロックに移動していても、高精度に動きベクトルを生成することができる効果を奏する。   Further, according to the first embodiment, as the motion information corresponding to the block at the position indicated by the motion vector, the motion information corresponding to the block indicated by the index information is stored in the motion vector buffer 24a. When the motion compensated prediction unit 24 of the video decoding device generates a predicted image, the motion vector buffer 24a corresponds to the block indicated by the index information related to the encoded block variable length decoded by the variable length decoding unit 21. When the motion vector is read, there is an effect that the motion vector can be generated with high accuracy even if the object in the coding block has moved to a block at a spatially different position.

なお、この実施の形態1では、動きベクトルを動きベクトルバッファ5a,24aに格納するものを示したが、動きベクトルの格納は、ブロック単位で保持することが考えられる。この場合、例えば、最小の動き予測単位である4×4単位で保持することが考えられる。   In the first embodiment, the motion vector is stored in the motion vector buffers 5a and 24a. However, the motion vector may be stored in units of blocks. In this case, for example, it is conceivable to hold 4 × 4 units which are the minimum motion prediction units.

この実施の形態1では、動きベクトル(MVx,MVy)が指し示す位置のブロックに動きベクトルを格納するものを示したが、この場合、異なるパーティションを基点とする複数の動きベクトルが、同じ位置のブロックを指し示すことがある。
この場合、当該ブロックの動きベクトルとして、動きベクトルを上書きするようにしてもよいし、信頼性の高い方の動きベクトルを残すようにしてもよい。動きベクトルの信頼性は、例えば、差分ベクトル(Δx,Δy)の大きさで測ることができる。
なお、動きベクトルを上書きすることで、処理量を増やさずに、この実施の形態1を適用することができる。一方、動きベクトルの信頼性を考慮することで、処理量が増えるが、更なる性能改善に寄与することができる。
In the first embodiment, the motion vector is stored in the block at the position indicated by the motion vector (MVx, MVy). In this case, however, a plurality of motion vectors based on different partitions are the blocks at the same position. May be pointed to.
In this case, the motion vector may be overwritten as the motion vector of the block, or the motion vector with higher reliability may be left. The reliability of the motion vector can be measured by the magnitude of the difference vector (Δx, Δy), for example.
Note that the first embodiment can be applied without overwriting the motion vector without increasing the processing amount. On the other hand, considering the reliability of the motion vector, the amount of processing increases, but it can contribute to further performance improvement.

この実施の形態1では、動きベクトル(MVx,MVy)が指し示す位置のブロックに動きベクトルを格納するようにしているため、どの動きベクトルも指し示さない位置のブロックが存在することが考えられる。
この場合、当該ブロックは0ベクトルとしてもよいし、動きベクトルが存在しないため、利用禁止にしてもよい。
In the first embodiment, since the motion vector is stored in the block at the position indicated by the motion vector (MVx, MVy), there may be a block at the position where no motion vector is indicated.
In this case, the block may be a zero vector or may be prohibited from use because there is no motion vector.

この実施の形態1では、動き情報を符号化しないモードのベクトル候補をスライスで決定するようにしてもよい。
どのベクトルを候補とするかはスライスヘッダに多重する。例えば、時間ベクトルに関しては、パンするような映像では時間ベクトルの効果が低いため、選択候補から外すようにする。逆にカメラが固定な映像では空間ベクトルの効果が大きいため、候補に加えるなどといった方法が考えられる。
In the first embodiment, vector candidates in a mode in which motion information is not encoded may be determined by slices.
Which vector is a candidate is multiplexed in the slice header. For example, regarding the time vector, since the effect of the time vector is low in the panning video, it is excluded from the selection candidates. On the other hand, since the effect of the space vector is large in a video with a fixed camera, a method such as adding to a candidate can be considered.

候補となるベクトルが大きい方が、より原画像に近い予測画像を生成することができるが、動画像符号化装置の処理量が増大するため、効果がないベクトルは予め候補から外しておくなど、映像の局所性を考慮して決定することにより、処理量と符号化効率のバランスを図ることができる。
候補となるベクトルの切り替えは、例えば、ベクトル毎にon/offのフラグを設け、そのフラグがonのベクトルのみを候補とする方法が考えられる。
A larger candidate vector can generate a predicted image that is closer to the original image, but the processing amount of the video encoding device increases, so that an ineffective vector is excluded from the candidates in advance. By determining in consideration of the locality of the video, it is possible to balance the processing amount and the encoding efficiency.
For example, a candidate vector may be switched by providing an on / off flag for each vector and selecting only a vector having the flag on as a candidate.

選択候補となる動きベクトルは、スライスヘッダで切り替えてもよいし、シーケンスヘッダやピクチャヘッダなど、上位レイヤで切り替えるようにしてもよい。
また、選択候補となるセットを一つ以上用意し、その候補セットのインデックスを符号化するようにしてもよい。
また、マクロブロックや符号化ブロックごとに切り替えてもよい。マクロブロックや符号化ブロックごとに切り替えることで、局所性を持たせることができ、符号化効率の改善を図ることができる。
The motion vector to be a selection candidate may be switched by a slice header, or may be switched by an upper layer such as a sequence header or a picture header.
Further, one or more sets as selection candidates may be prepared, and the index of the candidate set may be encoded.
Moreover, you may switch for every macroblock or encoding block. By switching for each macro block or coding block, locality can be provided and coding efficiency can be improved.

また、選択候補はパーティションブロックサイズ毎に一意に決定しておいてもよい。一般的に、ブロックサイズが大きくなると空間的な相関が弱くなるため、メディアン予測で決定されるベクトルの予測精度が悪くなると考えられる。
そのため、例えば、メディアン予測で決定される動きベクトルを候補から外すことで、符号化効率を落とさずに処理量を減らすことができる。
The selection candidate may be uniquely determined for each partition block size. In general, when the block size is increased, the spatial correlation is weakened, so that the vector prediction accuracy determined by the median prediction is considered to be deteriorated.
Therefore, for example, by removing a motion vector determined by median prediction from candidates, the processing amount can be reduced without reducing the encoding efficiency.

この実施の形態1では、動き情報を符号化しないモードの動きベクトルを生成するものを示したが、これは通常の動きベクトルの符号化に使用する予測ベクトルに使用してもよい。予測ベクトルに使用することで、処理量は増加するが、予測の精度が上がるため、符号化効率を向上させることができる。
また、この実施の形態1の動き情報を符号化しないモードでは、2本のベクトルを用いた予測を想定したが、ベクトルの本数は3本以上であってもよい。一般的に、予測画像に用いる参照画像が多いほど性能が向上することが知られている。そのため、処理量は増えるが、符号化効率の向上に寄与する。
In the first embodiment, although a motion vector in a mode in which motion information is not encoded is generated, this may be used as a prediction vector used for encoding a normal motion vector. By using the prediction vector, the amount of processing increases, but the accuracy of prediction increases, so that the coding efficiency can be improved.
Further, in the mode in which the motion information is not encoded according to the first embodiment, prediction using two vectors is assumed, but the number of vectors may be three or more. In general, it is known that performance increases as the number of reference images used for a predicted image increases. Therefore, although the processing amount increases, it contributes to the improvement of coding efficiency.

この実施の形態1では、図5に示すように、符号化ブロックBのサイズがL=Mであるものを示したが、符号化ブロックBのサイズがL≠Mであってもよい。
例えば、図8に示すように、符号化ブロックBのサイズがL=kMとなる場合が考えられる。
次の分割では、(Ln+1,Mn+1)=(L,M)となり、以降の分割は、図5と同様の分割を行ってもよいし、(Ln+1,Mn+1)=(L/2,M/2)のように分割を行ってもよい(図9を参照)。
In the first embodiment, as shown in FIG. 5, the coding block B n has a size of L n = M n , but the coding block B n has a size of L n ≠ M n. May be.
For example, as shown in FIG. 8, a case where the size of the encoding block B n is L n = kM n can be considered.
In the next division, (L n + 1 , M n + 1 ) = (L n , M n ), and subsequent divisions may be performed in the same manner as in FIG. 5, or (L n + 1 , M n + 1 ) = (L n / 2, Mn / 2) may be performed (see FIG. 9).

また、図10に示すように、図8と図9の分割のどちらかを選択できるようにしてもよい。選択できるようにした場合は、どちらの分割を選択したかを示すフラグを符号化する。このケースは、例えば、非特許文献1のH.264のような16×16を1つのブロックとするものを横に連結するだけで可能であるため、既存方式との互換性を維持することができる。
上記では、符号化ブロックBのサイズがL=kMとなる場合を示したが、kL=Mのように縦に連結したものであっても、同様の考えで分割が可能であることは言うまでもない。
Moreover, as shown in FIG. 10, you may enable it to select either the division | segmentation of FIG. 8 and FIG. When the selection is enabled, a flag indicating which division is selected is encoded. This case is described in, for example, H.P. Since it is possible to connect 16 × 16 blocks such as H.264 as one block, it is possible to maintain compatibility with existing systems.
In the above, the case where the size of the coding block B n is L n = kM n has been shown. However, even if the coding block B n is vertically connected as kL n = M n , it can be divided in the same way. Needless to say.

上記実施の形態1では、量子化・変換部7、逆量子化・逆変換部8,25が予測差分符号化パラメータに含まれている変換ブロックサイズ単位で変換処理(逆変換処理)を実施するものを示したが、変換ブロックサイズ単位は、変換処理単位によって一意に決定してもよいし、図11に示すように階層構造にしてもよい。この場合、各階層では分割するか否かを示すフラグを符号化する。
上記分割は、パーティション単位で行ってもよいし、符号化ブロック単位で行ってもよい。
上記変換は、正方形での変換を仮定しているが、長方形など、他の矩形での変換であってもよい。
In the first embodiment, the quantization / transformation unit 7 and the inverse quantization / inverse transform units 8 and 25 perform the transform process (inverse transform process) in units of transform block sizes included in the prediction difference encoding parameters. Although shown, the conversion block size unit may be uniquely determined by the conversion processing unit, or may be a hierarchical structure as shown in FIG. In this case, a flag indicating whether to divide each layer is encoded.
The division may be performed in units of partitions or may be performed in units of encoded blocks.
The above conversion assumes a square conversion, but may be a conversion using another rectangle such as a rectangle.

実施の形態2.
上記実施の形態1では、動き補償予測部5,24が、動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、符号化ブロックに対応する動きベクトルを動きベクトルバッファ5a,24aに格納するものを示したが、この実施の形態2では、符号化ブロックに対応する動きベクトルの大きさが所定の閾値より大きい場合、その動きベクトルを動きベクトルバッファ5a,24aに格納しないようにすることで、時間ベクトルの信頼性を考慮する方法について述べる。その他の構成は、上記実施の形態1と同様である。
Embodiment 2. FIG.
In the first embodiment, the motion compensation prediction units 5 and 24 store the motion vector corresponding to the encoded block in the motion vector buffers 5a and 24a as the motion vector corresponding to the block at the position indicated by the motion vector. Although shown in this Embodiment 2, when the magnitude | size of the motion vector corresponding to an encoding block is larger than a predetermined | prescribed threshold value, by not storing the motion vector in motion vector buffer 5a, 24a, time is shown. A method for considering the reliability of vectors will be described. Other configurations are the same as those of the first embodiment.

図12はこの発明の実施の形態2における時間ベクトルの格納方法を示す説明図である。
動き補償予測部5,24は、インター予測画像P を生成すると、上述したように、次フレームの動き補償予測処理に備えるため、インター予測画像P の生成に用いた動きベクトル(パーティションP に対応する動きベクトル)を動きベクトルバッファ5a,24aに格納する。
その際、パーティションP に対応する動きベクトル(MVx,MVy)の大きさ|(MVx,MVy)|に対する閾値Thを設け、その動きベクトル(MVx,MVy)の大きさ|(MVx,MVy)|が閾値Thより小さければ(下記の式(4)が成立する場合)、上記実施の形態1と同様に、その動きベクトル(MVx,MVy)を動きベクトルバッファ5a,24aに格納するが、その動きベクトル(MVx,MVy)の大きさ|(MVx,MVy)|が閾値Th以上であれば(下記の式(4)が成立しない場合)、その動きベクトル(MVx,MVy)を動きベクトルバッファ5a,24aに格納しないようにする。
Th < |(MVx,MVy)| (4)
FIG. 12 is an explanatory diagram showing a time vector storage method according to Embodiment 2 of the present invention.
Motion compensated prediction unit 5 and 24, when generating the inter prediction image P i n, as described above, to prepare for the motion compensation prediction processing in the next frame, the motion vector (partition used for generating the inter prediction image P i n motion vector) of the motion vector buffer 5a corresponding to P i n, stored in 24a.
At that time, the motion vector (MVx, MVy) of a size corresponding to the partition P i n | (MVx, MVy ) | the threshold Th is provided for, the motion vector (MVx, MVy) of magnitude | (MVx, MVy) If | is smaller than the threshold Th (when the following expression (4) is satisfied), the motion vector (MVx, MVy) is stored in the motion vector buffers 5a and 24a as in the first embodiment. If the magnitude | (MVx, MVy) | of the motion vector (MVx, MVy) is equal to or larger than the threshold Th (when the following expression (4) is not satisfied), the motion vector (MVx, MVy) is used as the motion vector buffer 5a. , 24a.
Th <| (MVx, MVy) | (4)

なお、閾値Thは、例えば、下記の式(5)のように、ブロックサイズのα倍とすることが考えられる。
Th=|(block_width,block_height)|×α (5)
ただし、block_widthはブロックサイズの横の長さを示し、block_heightはブロックサイズの縦の長さを示している。
Note that the threshold Th may be set to α times the block size, for example, as in the following equation (5).
Th = | (block_width, block_height) | × α (5)
However, block_width indicates the horizontal length of the block size, and block_height indicates the vertical length of the block size.

大きな動きベクトルが発生している場合、その動きベクトルを時間ベクトルとして用いるフレームでは、空間的な位置がずれてしまうため、信頼性の低いベクトルとなる。
そのため、予め、大きな動きベクトルを排除することで、信頼性の低いベクトルが予測ベクトル候補に含まれることを避けることができ、インデックスの符号量を減らせるため、符号化効率の向上に寄与することができる。
When a large motion vector is generated, a frame using the motion vector as a time vector is a low-reliability vector because the spatial position is shifted.
Therefore, by eliminating large motion vectors in advance, it is possible to avoid including low-reliability vectors in the prediction vector candidates, and the amount of code of the index can be reduced, which contributes to the improvement of coding efficiency. Can do.

この実施の形態2では、閾値Thより小さい動きベクトルを動きベクトルバッファ5a,24aに格納するものを示したが、閾値Thより小さいか否かの判定は、動きベクトルを動きベクトルバッファ5a,24aに格納する時点ではなく、予測ベクトル候補を作成する時点であってもよい。
この場合、時間ベクトルのスケーリングを行った後で判定することになるため処理量は増えるが、フレームレートや符号化方式の違いを吸収することができ、符号化効率の向上に寄与することができる。
In the second embodiment, the motion vector smaller than the threshold Th is stored in the motion vector buffers 5a and 24a. However, whether or not the motion vector is smaller than the threshold Th is determined in the motion vector buffers 5a and 24a. It may be not the time of storing but the time of creating a prediction vector candidate.
In this case, the amount of processing increases because the determination is performed after scaling of the time vector, but the difference in the frame rate and the coding method can be absorbed, and the coding efficiency can be improved. .

この実施の形態2では、動きベクトルの大きさ|(MVx,MVy)|と閾値Thを比較するものを示したが、動きベクトルの成分毎に、各成分の閾値Thx,Thyと比較し、動きベクトルのx成分|MVx|が閾値Thxより小さく、かつ、動きベクトルのy成分|MVy|が閾値Thyより小さい場合に、動きベクトルを動きベクトルバッファ5a,24aに格納するようにしてもよい。

Figure 2013009164
In the second embodiment, the magnitude | (MVx, MVy) | of the motion vector is compared with the threshold value Th. However, for each component of the motion vector, the motion vector is compared with the threshold values Thx and Thy of the respective components. When the x component | MVx | of the vector is smaller than the threshold Thx and the y component | MVy | of the motion vector is smaller than the threshold Thy, the motion vector may be stored in the motion vector buffers 5a and 24a.

Figure 2013009164

実施の形態1,2では、時間方向の動き情報を動きベクトルバッファ5a,24aに格納するものを示したが、動きベクトルバッファ5a,24aのメモリ量を削減するために、動きベクトルバッファ5a,24aに格納する動きベクトルのデータサイズを圧縮するようにしてもよい。
例えば、最小ブロックサイズが4×4である場合、時間方向の動きベクトルは4×4単位で保持するのが通常であるが、これを16×16単位で保持することが考えられる。
In the first and second embodiments, the time direction motion information is stored in the motion vector buffers 5a and 24a. However, in order to reduce the memory amount of the motion vector buffers 5a and 24a, the motion vector buffers 5a and 24a are used. The data size of the motion vector stored in may be compressed.
For example, when the minimum block size is 4 × 4, it is normal to hold the motion vector in the time direction in units of 4 × 4, but it is conceivable to hold this in units of 16 × 16.

上記のように、時間方向の動きベクトルを圧縮して保持する場合、保持する単位よりも小さいブロックサイズで処理を行う際に、参照する位置が正しい位置を示さなくなるという問題がある。
そのため、保持する単位よりも小さいブロックの場合の時間方向の動きベクトルを使用しないという処理を行ってもよい。精度の低いベクトルを候補から外すことで、処理量の削減とインデックス符号量の削減という効果がある。
As described above, when compressing and holding a motion vector in the time direction, there is a problem in that a reference position does not indicate a correct position when processing is performed with a block size smaller than the unit to be held.
Therefore, a process of not using a motion vector in the time direction in the case of a block smaller than the unit to be held may be performed. By removing the low-accuracy vector from the candidates, there is an effect of reducing the processing amount and the index code amount.

また、上記のように、時間方向の動きベクトルを圧縮して保持する場合には、図13に示すように、対象となるブロックに含まれる動き情報のうち、左上の動き情報を保持してもよいし、図14に示すように、ブロックの中央に位置する動き情報を候補としてもよい。
あるいは、図15に示すように、あらかじめA〜Dのような探索の順番を決めておき、その順番で利用可能な動き情報を探索し、最初に見つけた利用可能な動き情報を保持するようにしてもよい。
Further, as described above, when the motion vector in the time direction is compressed and held, as shown in FIG. 13, the upper left motion information among the motion information included in the target block may be held. Alternatively, as shown in FIG. 14, motion information located at the center of the block may be used as a candidate.
Alternatively, as shown in FIG. 15, the search order such as A to D is determined in advance, the available motion information is searched in that order, and the available motion information found first is held. May be.

実施の形態1,2のように、格納された動き情報を用いて、時間ベクトルを生成して符号化を行う場合、参照先のブロックには、動き情報が存在しない場合が考えられる。
この場合、時間ベクトルは存在しないとして候補から削除してもよいし、図16に示すように、参照ブロックの空間的に隣接したブロックの時間ベクトルを探索するようにしてもよい。
この場合、処理量は増えるが、候補ベクトルの数が増えるので、符号化効率の改善に寄与する。また、必ず時間ベクトルを候補に加えることで、途中からの再生時やパケットロスなどで参照画像がなくなってしまった場合に対してもベクトルの候補数を減らすことなく、復号できるため、エラー耐性が向上する効果もある。
When encoding is performed by using the stored motion information to generate a time vector as in the first and second embodiments, there may be a case in which there is no motion information in the reference block.
In this case, the time vector may not be present and may be deleted from the candidates, or the time vector of a spatially adjacent block of the reference block may be searched as shown in FIG.
In this case, although the amount of processing increases, the number of candidate vectors increases, which contributes to improvement in coding efficiency. In addition, by always adding a time vector to a candidate, it is possible to perform decoding without reducing the number of vector candidates even when a reference image is lost due to playback from the middle or due to packet loss. There is also an improvement effect.

実施の形態1、2では、動きベクトル符号化時の予測ベクトルに用いる動きベクトルについて述べたが、これは、スキップモードなど、他のモードを選択した際にも同様の方法で格納した時間ベクトルを使用できることは言うまでもない。   In the first and second embodiments, the motion vector used for the prediction vector at the time of encoding the motion vector has been described. However, this also applies to the time vector stored in the same manner when another mode such as the skip mode is selected. It goes without saying that it can be used.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 符号化制御部(符号化制御手段)、2 ブロック分割部(ブロック分割手段)、3 切替スイッチ、4 イントラ予測部、5 動き補償予測部(動き補償予測手段)、5a 動きベクトルバッファ、6 減算部(差分画像生成手段)、7 変換・量子化部(画像圧縮手段)、8 逆量子化・逆変換部、9 加算部、10 イントラ予測用メモリ、11 ループフィルタ部、12 動き補償予測フレームメモリ、13 可変長符号化部(可変長符号化手段)、21 可変長復号部(可変長復号手段)、22 切替スイッチ、23 イントラ予測部、24 動き補償予測部(動き補償予測手段)、24a 動きベクトルバッファ、25 逆量子化・逆変換部(差分画像生成手段)、26 加算部(復号画像生成手段)、27 イントラ予測用メモリ、28 ループフィルタ部、29 動き補償予測フレームメモリ。   DESCRIPTION OF SYMBOLS 1 Coding control part (coding control means), 2 Block division part (Block division means), 3 Changeover switch, 4 Intra prediction part, 5 Motion compensation prediction part (Motion compensation prediction means), 5a Motion vector buffer, 6 Subtraction Unit (difference image generation unit), 7 transform / quantization unit (image compression unit), 8 inverse quantization / inverse transform unit, 9 addition unit, 10 intra prediction memory, 11 loop filter unit, 12 motion compensated prediction frame memory , 13 Variable length coding unit (variable length coding unit), 21 Variable length decoding unit (variable length decoding unit), 22 changeover switch, 23 intra prediction unit, 24 motion compensation prediction unit (motion compensation prediction unit), 24a motion Vector buffer, 25 inverse quantization / inverse transform unit (difference image generation means), 26 addition unit (decoded image generation means), 27 intra prediction memory, 28 liters Loop filter unit, 29 motion compensation prediction frame memory.

Claims (6)

予測処理が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定し、利用可能な1以上の符号化モードの中から、階層的に分割される各々の符号化ブロックに対応する符号化モードを選択する符号化制御手段と、入力画像を上記符号化制御手段により決定された最大サイズの符号化ブロックに分割するとともに、上記符号化制御手段により決定された上限の階層数に至るまで、上記符号化ブロックを階層的に分割するブロック分割手段と、上記符号化制御手段により選択された符号化モードがインター符号化モードである場合、各々のブロックに対応する動きベクトルを格納している動きベクトルバッファの中から、上記ブロック分割手段により分割された符号化ブロックに対応する動きベクトルを読み出し、上記動きベクトルを用いて、上記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するとともに、上記動きベクトルが格納されているブロックを示すインデックス情報を出力する動き補償予測手段と、上記ブロック分割手段により分割された符号化ブロックと上記動き補償予測手段により生成された予測画像との差分画像を生成する差分画像生成手段と、上記差分画像生成手段により生成された差分画像を圧縮し、上記差分画像の圧縮データを出力する画像圧縮手段と、上記画像圧縮手段から出力された圧縮データ、上記符号化制御手段により選択された符号化モード及び上記動き補償予測手段から出力されたインデックス情報を可変長符号化して、上記圧縮データ、上記符号化モード及び上記インデックス情報の符号化データが多重化されているビットストリームを生成する可変長符号化手段とを備え、
上記動き補償予測手段は予測画像を生成する際、上記ブロック分割手段により分割された符号化ブロックに対応する動きベクトルを読み出すと、上記動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、その読み出した動きベクトルを上記動きベクトルバッファに格納することを特徴とする動画像符号化装置。
The maximum size of the coding block that is a processing unit when the prediction process is performed is determined, and the upper limit number of layers when the coding block of the maximum size is hierarchically divided is determined to be usable 1 A coding control means for selecting a coding mode corresponding to each coding block divided hierarchically from the above coding modes, and an input image having a maximum size determined by the coding control means. A block dividing means for dividing the encoded block hierarchically until the upper limit number of layers determined by the encoding control means is reached, and a code selected by the encoding control means When the coding mode is the inter coding mode, the block division method is selected from the motion vector buffer storing the motion vector corresponding to each block. The motion vector corresponding to the coding block divided by the above is read, the motion compensation prediction process is performed on the coding block using the motion vector to generate a prediction image, and the motion vector is stored Motion compensation prediction means for outputting index information indicating blocks, difference image generation means for generating a difference image between the encoded block divided by the block division means and the prediction image generated by the motion compensation prediction means, An image compression unit that compresses the difference image generated by the difference image generation unit and outputs compressed data of the difference image; a compressed data output from the image compression unit; and a code selected by the encoding control unit Index information output from the motion compensation mode and the motion compensation prediction means is variable-length encoded. And a variable length coding means for producing a bitstream in which the compressed data, encoded data of the encoding mode and the index information are multiplexed,
When the motion compensation predicting unit reads a motion vector corresponding to the encoded block divided by the block dividing unit when generating a predicted image, the motion compensation prediction unit reads the motion vector as a motion vector corresponding to the block at the position indicated by the motion vector. And a motion vector buffer which stores the motion vector in the motion vector buffer.
動き補償予測手段は、ブロック分割手段により分割された符号化ブロックに対応する動きベクトルの大きさが所定の閾値より小さければ、上記動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、上記符号化ブロックに対応する動きベクトルを上記動きベクトルバッファに格納するが、上記符号化ブロックに対応する動きベクトルの大きさが所定の閾値より大きい場合、上記動きベクトルを上記動きベクトルバッファに格納しないことを特徴とする請求項1記載の動画像符号化装置。   If the magnitude of the motion vector corresponding to the encoded block divided by the block dividing means is smaller than a predetermined threshold, the motion compensated prediction means determines that the encoding is performed as a motion vector corresponding to the block at the position indicated by the motion vector. The motion vector corresponding to the block is stored in the motion vector buffer, but the motion vector is not stored in the motion vector buffer when the size of the motion vector corresponding to the encoded block is larger than a predetermined threshold. The moving picture encoding apparatus according to claim 1. ビットストリームに多重化されている符号化データから階層的に分割されている各々の符号化ブロックに係る圧縮データ、符号化モード及びインデックス情報を可変長復号する可変長復号手段と、上記可変長復号手段により可変長復号された符号化ブロックに係る符号化モードがインター符号化モードである場合、各々のブロックに対応する動きベクトルを格納している動きベクトルバッファの中から、上記可変長復号手段により可変長復号された符号化ブロックに係るインデックス情報が示すブロックに対応する動きベクトルを読み出し、上記動きベクトルを用いて、上記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測手段と、上記可変長復号手段により可変長復号された符号化ブロックに係る圧縮データから圧縮前の差分画像を生成する差分画像生成手段と、上記差分画像生成手段により生成された差分画像と上記動き補償予測手段により生成された予測画像とを加算して復号画像を生成する復号画像生成手段とを備え、
上記動き補償予測手段は予測画像を生成する際、上記インデックス情報が示すブロックに対応する動きベクトルを読み出すと、上記動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、上記インデックス情報が示すブロックに対応する動きベクトルを上記動きベクトルバッファに格納することを特徴とする動画像復号装置。
Variable length decoding means for variable length decoding compressed data, coding mode and index information related to each coding block hierarchically divided from coded data multiplexed in the bitstream, and the variable length decoding When the coding mode related to the coding block subjected to variable length decoding by the means is the inter coding mode, the variable length decoding means stores the motion vector corresponding to each block from the motion vector buffer. Motion compensation that reads a motion vector corresponding to a block indicated by index information related to a variable-length-decoded encoded block and performs a motion-compensated prediction process on the encoded block using the motion vector to generate a predicted image Compression relating to a prediction block and a coding block variable-length decoded by the variable-length decoding unit A difference image generation means for generating a difference image before compression from the data, a difference image generated by the difference image generation means and a prediction image generated by the motion compensation prediction means to generate a decoded image A decoded image generating means,
When the motion compensation prediction unit generates a predicted image, when the motion vector corresponding to the block indicated by the index information is read, the motion vector corresponding to the block at the position indicated by the motion vector is converted into the block indicated by the index information. A moving picture decoding apparatus, wherein a corresponding motion vector is stored in the motion vector buffer.
動き補償予測手段は、インデックス情報が示すブロックに対応する動きベクトルの大きさが所定の閾値より小さければ、上記動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、上記インデックス情報が示すブロックに対応する動きベクトルを上記動きベクトルバッファに格納するが、上記インデックス情報が示すブロックに対応する動きベクトルの大きさが所定の閾値より大きい場合、上記動きベクトルを上記動きベクトルバッファに格納しないことを特徴とする請求項3記載の動画像復号装置。   If the magnitude of the motion vector corresponding to the block indicated by the index information is smaller than a predetermined threshold, the motion compensation predicting means corresponds to the block indicated by the index information as a motion vector corresponding to the block at the position indicated by the motion vector. The motion vector is stored in the motion vector buffer, but the motion vector is not stored in the motion vector buffer when the motion vector corresponding to the block indicated by the index information is larger than a predetermined threshold. The moving picture decoding apparatus according to claim 3. 符号化制御手段が、予測処理が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定し、利用可能な1以上の符号化モードの中から、階層的に分割される各々の符号化ブロックに対応する符号化モードを選択する符号化制御処理ステップと、ブロック分割手段が、入力画像を上記符号化制御処理ステップで決定された最大サイズの符号化ブロックに分割するとともに、上記符号化制御処理ステップで決定された上限の階層数に至るまで、上記符号化ブロックを階層的に分割するブロック分割処理ステップと、動き補償予測手段が、上記符号化制御処理ステップで選択された符号化モードがインター符号化モードである場合、各々のブロックに対応する動きベクトルを格納している動きベクトルバッファの中から、上記ブロック分割処理ステップで分割された符号化ブロックに対応する動きベクトルを読み出し、上記動きベクトルを用いて、上記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成するとともに、上記動きベクトルが格納されているブロックを示すインデックス情報を出力する動き補償予測処理ステップと、差分画像生成手段が、上記ブロック分割処理ステップで分割された符号化ブロックと上記動き補償予測処理ステップで生成された予測画像との差分画像を生成する差分画像生成処理ステップと、画像圧縮手段が、上記差分画像生成処理ステップで生成された差分画像を圧縮し、上記差分画像の圧縮データを出力する画像圧縮処理ステップと、可変長符号化手段が、上記画像圧縮処理ステップで出力された圧縮データ、上記符号化制御処理ステップで選択された符号化モード及び上記動き補償予測処理ステップで出力されたインデックス情報を可変長符号化して、上記圧縮データ、上記符号化モード及び上記インデックス情報の符号化データが多重化されているビットストリームを生成する可変長符号化処理ステップとを備え、
上記動き補償予測処理ステップでは予測画像を生成する際、上記ブロック分割処理ステップで分割された符号化ブロックに対応する動きベクトルを読み出すと、上記動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、上記符号化ブロックに対応する動きベクトルを上記動きベクトルバッファに格納することを特徴とする動画像符号化方法。
The encoding control means determines the maximum size of the encoding block that is a processing unit when the prediction process is performed, and determines the upper limit number of layers when the encoding block of the maximum size is hierarchically divided. An encoding control processing step for selecting an encoding mode corresponding to each encoding block divided hierarchically from one or more of the available encoding modes, and a block dividing means, A block that divides the encoded block hierarchically until it reaches the upper limit number of layers determined in the encoding control processing step and is divided into encoding blocks of the maximum size determined in the encoding control processing step. When the coding mode selected by the division processing step and the motion compensation prediction means in the coding control processing step is the inter coding mode, each block A motion vector corresponding to the coding block divided in the block division processing step is read out from the motion vector buffer storing the motion vector corresponding to, and the motion for the coding block is read using the motion vector. A motion compensation prediction processing step for generating a prediction image by performing compensation prediction processing and outputting index information indicating a block in which the motion vector is stored, and a difference image generation means are divided in the block division processing step. A difference image generation processing step for generating a difference image between the encoded block and the prediction image generated in the motion compensation prediction processing step; and an image compression means that calculates the difference image generated in the difference image generation processing step. An image compression processing step for compressing and outputting compressed data of the difference image; The variable length encoding means variable length encodes the compressed data output in the image compression processing step, the encoding mode selected in the encoding control processing step, and the index information output in the motion compensation prediction processing step. A variable-length encoding processing step for generating a bit stream in which the encoded data of the compressed data, the encoding mode, and the index information is multiplexed,
When generating a predicted image in the motion compensation prediction processing step, when a motion vector corresponding to the encoded block divided in the block division processing step is read, as a motion vector corresponding to the block at the position indicated by the motion vector, A moving picture coding method, wherein a motion vector corresponding to the coded block is stored in the motion vector buffer.
可変長復号手段が、ビットストリームに多重化されている符号化データから階層的に分割されている各々の符号化ブロックに係る圧縮データ、符号化モード及びインデックス情報を可変長復号する可変長復号処理ステップと、動き補償予測手段が、上記可変長復号処理ステップで可変長復号された符号化ブロックに係る符号化モードがインター符号化モードである場合、各々のブロックに対応する動きベクトルを格納している動きベクトルバッファの中から、上記可変長復号処理ステップで可変長復号された符号化ブロックに係るインデックス情報が示すブロックに対応する動きベクトルを読み出し、上記動きベクトルを用いて、上記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測処理ステップと、差分画像生成手段が、上記可変長復号処理ステップで可変長復号された符号化ブロックに係る圧縮データから圧縮前の差分画像を生成する差分画像生成処理ステップと、復号画像生成手段が、上記差分画像生成処理ステップで生成された差分画像と上記動き補償予測処理ステップで生成された予測画像とを加算して復号画像を生成する復号画像生成処理ステップとを備え、
上記動き補償予測処理ステップでは予測画像を生成する際、上記インデックス情報が示すブロックに対応する動きベクトルを読み出すと、上記動きベクトルが指し示す位置のブロックに対応する動きベクトルとして、上記インデックス情報が示すブロックに対応する動きベクトルを上記動きベクトルバッファに格納することを特徴とする動画像復号方法。
Variable length decoding means for variable length decoding, wherein variable length decoding means variable length decodes compressed data, coding mode and index information related to each coding block hierarchically divided from coded data multiplexed in a bitstream And the motion compensation prediction means stores the motion vector corresponding to each block when the coding mode related to the coding block variable-length decoded in the variable-length decoding processing step is the inter-coding mode. The motion vector corresponding to the block indicated by the index information related to the encoded block that has been variable-length decoded in the variable-length decoding processing step is read out from the existing motion vector buffer, and the motion vector is used to A motion-compensated prediction processing step for generating a predicted image by performing motion-compensated prediction processing; A difference image generation step in which the image generation means generates a difference image before compression from the compressed data relating to the encoded block that has been variable length decoded in the variable length decoding step; and a decoded image generation means includes the difference image generation A decoded image generation processing step of generating a decoded image by adding the difference image generated in the processing step and the prediction image generated in the motion compensation prediction processing step;
In the motion compensation prediction processing step, when generating a predicted image, if a motion vector corresponding to the block indicated by the index information is read, the block indicated by the index information is a motion vector corresponding to the block at the position indicated by the motion vector. A motion vector decoding method characterized by storing a motion vector corresponding to a motion vector in the motion vector buffer.
JP2011140608A 2011-06-24 2011-06-24 Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method Withdrawn JP2013009164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011140608A JP2013009164A (en) 2011-06-24 2011-06-24 Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011140608A JP2013009164A (en) 2011-06-24 2011-06-24 Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method

Publications (1)

Publication Number Publication Date
JP2013009164A true JP2013009164A (en) 2013-01-10

Family

ID=47676162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011140608A Withdrawn JP2013009164A (en) 2011-06-24 2011-06-24 Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method

Country Status (1)

Country Link
JP (1) JP2013009164A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111989923A (en) * 2018-01-30 2020-11-24 松下电器(美国)知识产权公司 Encoding device, decoding device, encoding method, and decoding method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111989923A (en) * 2018-01-30 2020-11-24 松下电器(美国)知识产权公司 Encoding device, decoding device, encoding method, and decoding method

Similar Documents

Publication Publication Date Title
JP6312787B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture encoding apparatus, moving picture encoding method, moving picture encoded data, and recording medium
JP6261660B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP5984911B2 (en) Video encoding / decoding device and method
JPWO2013065402A1 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, and moving picture decoding method
WO2014051081A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP2013098711A (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP2013009164A (en) Moving image coding device, moving image decoding device, moving image coding method, and moving image decoding method
JP2012186762A (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP2013098713A (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP2014135552A (en) Dynamic image encoder, dynamic image decoder, dynamic image encoding method, and dynamic image decoding method
JP2012080210A (en) Moving image encoder, moving image decoder, moving image encoding method, and moving image decoding method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902