JP2012060208A - Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof - Google Patents

Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof Download PDF

Info

Publication number
JP2012060208A
JP2012060208A JP2010198552A JP2010198552A JP2012060208A JP 2012060208 A JP2012060208 A JP 2012060208A JP 2010198552 A JP2010198552 A JP 2010198552A JP 2010198552 A JP2010198552 A JP 2010198552A JP 2012060208 A JP2012060208 A JP 2012060208A
Authority
JP
Japan
Prior art keywords
coefficient
reference frame
aif
frame
interpolation filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010198552A
Other languages
Japanese (ja)
Inventor
Yukihiro Bando
幸浩 坂東
Shohei Matsuo
翔平 松尾
Masayuki Takamura
誠之 高村
Atsushi Shimizu
淳 清水
Hirohisa Jozawa
裕尚 如澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010198552A priority Critical patent/JP2012060208A/en
Publication of JP2012060208A publication Critical patent/JP2012060208A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve encoding efficiency in combining an adaptive interpolation filter (AIF) with a plurality of reference frames (MRF), in accordance with the local characteristics of an image.SOLUTION: Additional information called control information r[i] is introduced to each reference frame and added to the syntax of an encoded stream, thereby adapting AIF coefficient calculation to the reference frame or a group of reference frames. The AIF control information r[i] is information for notifying a decoding side whether to calculate individual AIF coefficient, with respect to an i-th reference frame, to calculate an AIF coefficient common to the group of frames including the other reference frames, or to use a predetermined fixed AIF coefficient, for example, and is inserted into the encoded stream.

Description

本発明は,高能率動画像符号化,復号技術に関し,特に小数画素精度に対応した動き補償フレーム間予測を行う動画像符号化方法,動画像復号方法に関する。   The present invention relates to a high-efficiency moving image encoding and decoding technique, and more particularly to a moving image encoding method and a moving image decoding method for performing motion compensation interframe prediction corresponding to decimal pixel accuracy.

動画像符号化における重要な要素技術の一つに,動き補償フレーム間予測がある。H.264/AVCでは,最大1/4画素単位での小数画素位置の参照も可能である。なお,このような小数画素位置を参照するためには,小数画素位置における画素値を生成する必要があり,線形フィルタを用いた補間画像生成の方法が規定されている。   One of the important elemental technologies in video coding is motion compensation interframe prediction. H. In H.264 / AVC, it is possible to refer to decimal pixel positions in units of a maximum of 1/4 pixel. In order to refer to such decimal pixel positions, it is necessary to generate pixel values at the decimal pixel positions, and an interpolation image generation method using a linear filter is defined.

H.264が規定しているのは,フィルタ係数が固定の線形フィルタであった。詳細は,非特許文献1等に記載されている。   H. H.264 defines a linear filter with a fixed filter coefficient. Details are described in Non-Patent Document 1 and the like.

この小数画素位置の補間画像生成の改良として,フィルタ係数を入力映像の特徴に応じて適応的に制御する適応補間フィルタ(AIF)と呼ばれる技術が検討されている(非特許文献2参照)。   As an improvement in the generation of the interpolated image at the decimal pixel position, a technique called an adaptive interpolation filter (AIF) that adaptively controls the filter coefficient according to the characteristics of the input video has been studied (see Non-Patent Document 2).

また,H.264/AVCでは,動き補償フレーム間予測の拡張として,複数枚の参照フレームに対応した複数参照フレーム(MRF)動き補償フレーム間予測が導入されている。MRFにおいて,M枚のフレームを参照する場合,M枚の参照フレームは,参照フレームインデックスref_idx[i]により指定される(i=0,…,M−1)。例えば,M=2, ref_idx[0]=10,ref_idx[1]=9であれば,最大2枚のフレームを参照し,第10フレームおよび第9フレームを参照フレームとして用いる(詳細は,非特許文献1参照)。   H. In H.264 / AVC, multiple reference frame (MRF) motion compensated interframe prediction corresponding to multiple reference frames is introduced as an extension of motion compensated interframe prediction. When referring to M frames in the MRF, the M reference frames are specified by the reference frame index ref_idx [i] (i = 0,..., M−1). For example, if M = 2, ref_idx [0] = 10, and ref_idx [1] = 9, a maximum of two frames are referenced, and the tenth and ninth frames are used as reference frames (details are non-patent) Reference 1).

大久保榮監修,インプレス標準教科書シリーズ,改定三版H.264/AVC教科書,株式会社インプレスR&D,2009年1月1日発行Supervised by Satoshi Okubo, Impress Standard Textbook Series, revised third edition H.264 / AVC textbook, Impress R & D Inc., issued January 1, 2009 Y.Vatis, B.Edler, D.T.Nguyen, and J.Ostermann. Two-dimensional non-separable adaptive wiener interpolation filter for H.264/AVC. In ITU-T Q.6/SG16 VCEG, VCEG-Z17r1, Apr. 2005Y.Vatis, B.Edler, DTNguyen, and J.Ostermann.Two-dimensional non-separable adaptive wiener interpolation filter for H.264 / AVC.In ITU-T Q.6 / SG16 VCEG, VCEG-Z17r1, Apr. 2005

しかし,AIFをMRFへ対応させるための手法については,明確に記載されていない。AIFをMRFへ対応させるための手法として考えられるのは,例えば,全ての参照フレームに対してAIF係数を共有する方法である。図15では,4枚の参照フレームに対して,共通のフィルタ係数が設定された例を示している。ここで,Aはフィルタ係数を格納したベクトル変数であり,フィルタがLタップの場合,AはA[k](k=0,…,L−1)からなるL個の係数を含む。   However, the method for making AIF correspond to MRF is not clearly described. A possible method for making AIF correspond to MRF is, for example, a method of sharing AIF coefficients for all reference frames. FIG. 15 shows an example in which common filter coefficients are set for four reference frames. Here, A is a vector variable storing filter coefficients, and when the filter is L taps, A includes L coefficients consisting of A [k] (k = 0,..., L−1).

参照フレームごとに,予測に及ぼす影響が異なることが考えられる。例えば,ピクチャタイプが異なる場合,あるいは,同一ピクチャタイプであっても,量子化幅,符号化モードが異なる場合は,その代表例である。しかし,前述のアプローチでは,こうした参照フレーム間の特性の違いを吸収できない。   The effect on the prediction may be different for each reference frame. For example, when the picture types are different, or even when the picture types are the same, the quantization width and the coding mode are different. However, the above approach cannot absorb the difference in characteristics between the reference frames.

一方,AIFをMRFへ対応させるための手法として,図16に示すように,4枚の参照フレームに個別にAIF係数a0,a1,a2,a3を設定する方法も考えられる。しかし,単純に,このような方法をとると,フィルタ係数を表現するための付加情報が増加するため,必ずしも符号化効率向上に繋がる保証はない。このため,AIFをMRFと併用した場合の予測誤差の低減に改良の余地を残す。   On the other hand, as a method for making AIF correspond to MRF, as shown in FIG. 16, a method of individually setting AIF coefficients a0, a1, a2, and a3 in four reference frames can be considered. However, simply adopting such a method increases the additional information for expressing the filter coefficients, so there is no guarantee that the encoding efficiency will be improved. For this reason, there is room for improvement in reducing prediction errors when AIF is used in combination with MRF.

本発明はかかる事情に鑑みてなされたものであって,画像の局所的な性質に応じて,AIFをMRFと併用する場合のフィルタ係数算出および設定に関する適応処理を確立することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to establish adaptive processing related to filter coefficient calculation and setting in the case of using AIF together with MRF in accordance with local characteristics of an image.

上記課題を解決するため,本発明は,参照フレームごとにフィルタ制御情報と呼ぶ付加情報を導入し,符号化ストリームのシンタックスに加えることにより,参照フレームまたは参照フレーム群に対するAIF係数算出の適応処理化を図る。   In order to solve the above-described problems, the present invention introduces additional information called filter control information for each reference frame and adds it to the syntax of the encoded stream, thereby adaptive processing for calculating AIF coefficients for the reference frame or reference frame group. Plan

図1は,本発明の概要を説明する図である。本発明では,複数の参照フレーム(図1の例では4枚)に対して,フィルタ制御情報r[i](i=0,…,3)を付与する。このフィルタ制御情報r[i]の意味は,例えば以下のとおりである。
・r[i]=1であれば,当該参照フレームごとに個別のAIF係数を算出する。
・r[i]=01であれば,r[j]=01である他の参照フレームを含むフレーム群に対して共通のAIF係数を算出する。
・r[i]=00であれば,予め定められた固定のフィルタ係数を使用する。この場合,フィルタ係数は復号側へ送信する必要はない。
FIG. 1 is a diagram for explaining the outline of the present invention. In the present invention, filter control information r [i] (i = 0,..., 3) is assigned to a plurality of reference frames (four frames in the example of FIG. 1). The meaning of the filter control information r [i] is, for example, as follows.
If r [i] = 1, an individual AIF coefficient is calculated for each reference frame.
If r [i] = 01, a common AIF coefficient is calculated for a frame group including other reference frames with r [j] = 01.
If r [i] = 00, a predetermined fixed filter coefficient is used. In this case, the filter coefficient need not be transmitted to the decoding side.

この例では,フィルタ制御情報の値が3種類の例を示したが,このうち2種類だけを用いてもよい。   In this example, there are three examples of filter control information values, but only two of them may be used.

すなわち,本発明では,複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を備えた動画像符号化方式において,参照フレームに応じて小数画素位置の画素値を生成するために用いる補間フィルタの係数を適応的に設定し,前記補間フィルタの係数が,少なくとも個々の参照フレームに対して個別に設定された係数であるか否かを示すフィルタ制御情報を,各参照フレームごとに付加情報として符号化ストリーム中に加える。   That is, in the present invention, in order to generate a pixel value at a decimal pixel position in accordance with a reference frame in a moving picture coding system with motion compensated interframe prediction corresponding to decimal pixel accuracy by referring to a plurality of decoded frames. The coefficient of the interpolation filter used in the above is adaptively set, and filter control information indicating whether or not the coefficient of the interpolation filter is a coefficient set individually for at least each reference frame is set for each reference frame. To the encoded stream as additional information.

また,本発明は,複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を備えた動画像符号化方式が出力する符号化ストリームを復号する動画像復号方式において,復号画像を生成する際,符号化ストリーム中に付与されたフィルタ制御情報に基づき,参照フレームに応じて小数画素位置の画素値生成に用いる補間フィルタの係数を適応的に設定する。   Further, the present invention relates to a decoded image in which a decoded image is decoded by referring to a plurality of decoded frames and decoding an encoded stream output by a moving image encoding method having motion compensated interframe prediction corresponding to decimal pixel accuracy. Is generated, the coefficient of the interpolation filter used for generating the pixel value at the decimal pixel position is adaptively set according to the reference frame based on the filter control information given in the encoded stream.

選択可能な各フィルタ制御情報に対応するフィルタ係数を求め,そのフィルタ係数を用いた場合の符号量・歪みコストを最小化するフィルタ制御情報を,符号化対象フレーム(またはスライス)に対するフィルタ制御情報として符号化ストリーム内に設定するため,符号化効率を向上させることができるようになる。   The filter coefficient corresponding to each selectable filter control information is obtained, and the filter control information that minimizes the code amount / distortion cost when using the filter coefficient is used as the filter control information for the encoding target frame (or slice). Since it is set in the encoded stream, the encoding efficiency can be improved.

本発明により,適応補間フィルタ(AIF)を複数参照フレーム(MRF)の条件下で用いる場合,AIFによる予測誤差低減効果とその付加情報に対するトレードオフを解決し,符号化効率向上を実現できる。例えば,参照フレームのピクチャタイプの違いを考慮したAIF係数の設計を可能にするための符号化ストリームの構造を提供できることから,符号化効率向上に繋がる。   According to the present invention, when the adaptive interpolation filter (AIF) is used under the condition of a plurality of reference frames (MRF), the prediction error reduction effect by AIF and the trade-off for the additional information can be solved, and the encoding efficiency can be improved. For example, it is possible to provide an encoded stream structure that enables the design of an AIF coefficient in consideration of the difference in picture type of the reference frame, which leads to improved encoding efficiency.

本発明の概要を説明する図である。It is a figure explaining the outline | summary of this invention. AIF制御情報の設定例を示す図である。It is a figure which shows the example of a setting of AIF control information. AIF制御情報の設定例を示す図である。It is a figure which shows the example of a setting of AIF control information. AIF制御情報の設定例を示す図である。It is a figure which shows the example of a setting of AIF control information. 本発明の一実施形態に係る動画像符号化装置の構成例を示す図である。It is a figure which shows the structural example of the moving image encoder which concerns on one Embodiment of this invention. 符号化時の参照フレーム生成処理フローチャート(その1)である。It is a reference frame generation process flowchart (the 1) at the time of an encoding. 符号化時の参照フレーム生成処理フローチャート(その2)である。It is a reference frame generation process flowchart (the 2) at the time of an encoding. 符号化時の参照フレーム生成処理フローチャート(その3)である。It is a reference frame generation process flowchart (the 3) at the time of an encoding. 個別フィルタ係数の算出処理フローチャートである。It is a calculation processing flowchart of an individual filter coefficient. 共通フィルタ係数の算出処理フローチャートである。It is a calculation process flowchart of a common filter coefficient. 本発明の一実施形態に係る動画像復号装置の構成例を示す図である。It is a figure which shows the structural example of the moving image decoding apparatus which concerns on one Embodiment of this invention. 復号時の参照フレーム生成処理フローチャート(その1)である。It is a reference frame generation process flowchart (the 1) at the time of decoding. 復号時の参照フレーム生成処理フローチャート(その2)である。It is a reference frame generation process flowchart (the 2) at the time of decoding. 復号時の参照フレーム生成処理フローチャート(その3)である。It is a reference frame generation process flowchart (the 3) at the time of decoding. 本発明の課題を説明する図である。It is a figure explaining the subject of this invention. 本発明の課題を説明する図である。It is a figure explaining the subject of this invention.

本発明では,参照フレームごとにフィルタ制御情報(以下,AIF制御情報)と呼ぶ付加情報を導入し,AIF係数算出の適応処理化を図る。まず,フィルタ制御情報(以下,AIF制御情報という)の具体例を示す。   In the present invention, additional information called filter control information (hereinafter referred to as AIF control information) is introduced for each reference frame to achieve adaptive processing for AIF coefficient calculation. First, a specific example of filter control information (hereinafter referred to as AIF control information) is shown.

〔AIF制御情報の例(その1)〕
参照フレームインデックスref_idx[i](i=0,…,M−1)により指定される参照フレームに対して,AIF制御情報r[i]を付与する。r[i]は0または1をとる。各値の意味は以下のとおりである。
1.r[i]=1の場合:第i参照フレームに対してAIF係数を算出する。ここで,求まる係数を個別AIF係数と呼ぶ。
2.r[i]=0の場合:r[i]=0を付与された参照フレーム群に対して,共通のAIF係数を算出する。ここで,求まる係数を共通AIF係数と呼ぶ。
[Example of AIF control information (part 1)]
AIF control information r [i] is assigned to the reference frame specified by the reference frame index ref_idx [i] (i = 0,..., M−1). r [i] takes 0 or 1. The meaning of each value is as follows.
1. When r [i] = 1: AIF coefficient is calculated for the i-th reference frame. Here, the obtained coefficient is called an individual AIF coefficient.
2. When r [i] = 0: A common AIF coefficient is calculated for the reference frame group assigned with r [i] = 0. Here, the obtained coefficient is called a common AIF coefficient.

図2に,M=4において,r[0]=1,r[1]=1,r[2]=0,r[3]=0とした場合の例を示す。1番目と2番目の参照フレームに対し,それぞれ個別AIF係数a0,a1による補間フィルタにより補間処理が行われるのに対し,3番目と4番目の参照フレームには,共通AIF係数a2による補間フィルタを用いて補間処理が行われる。   FIG. 2 shows an example in which r [0] = 1, r [1] = 1, r [2] = 0, r [3] = 0 at M = 4. The first and second reference frames are interpolated by interpolation filters using individual AIF coefficients a0 and a1, respectively, whereas the third and fourth reference frames are interpolated by a common AIF coefficient a2. Interpolation processing is performed using this.

図3に,M=4において,r[0]=1,r[1]=0,r[2]=0,r[3]=0とした場合の例を示す。この場合には,2番目と3番目と4番目の参照フレームに対し,共通AIF係数a1を用いた補間フィルタが適用される。   FIG. 3 shows an example where M [4], r [0] = 1, r [1] = 0, r [2] = 0, r [3] = 0. In this case, an interpolation filter using the common AIF coefficient a1 is applied to the second, third, and fourth reference frames.

図4に,M=4において,r[0]=0,r[1]=0,r[2]=0,r[3]=0とした場合の例を示す。この場合,全ての参照フレームに対して共通AIF係数a0を用いた補間フィルタが適用される。この例から,本手法は,従来法の表現法を包含した一般化した表現が可能であることが分かる。   FIG. 4 shows an example in which r [0] = 0, r [1] = 0, r [2] = 0, r [3] = 0 at M = 4. In this case, an interpolation filter using the common AIF coefficient a0 is applied to all reference frames. From this example, it can be seen that the present method is capable of generalized expression including the conventional expression method.

〔AIF制御情報の例(その2)〕
参照フレームインデックスref_idx[i](i=0,…,M−1)により指定される参照フレームに対して,AIF制御情報r[i]を付与する。r[i]は0または1をとる。各値の意味は以下のとおりである。
1.r[i]=1の場合:第i参照フレームに対してAIF係数を算出する。ここで,求まる係数を個別AIF係数と呼ぶ。
2.r[i]=0 の場合:r[i]=0を付与された参照フレーム群に対して,あらかじめ定められたフィルタ係数をAIF係数として用いる。ここで,使用される係数を固定AIF係数と呼ぶ。なお,r[i]=0の場合に用いるフィルタ係数は符号化器・復号器で共有しており,符号化情報として伝送する必要はない。
[Example of AIF control information (part 2)]
AIF control information r [i] is assigned to the reference frame specified by the reference frame index ref_idx [i] (i = 0,..., M−1). r [i] takes 0 or 1. The meaning of each value is as follows.
1. When r [i] = 1: AIF coefficient is calculated for the i-th reference frame. Here, the obtained coefficient is called an individual AIF coefficient.
2. When r [i] = 0: A predetermined filter coefficient is used as the AIF coefficient for the reference frame group assigned with r [i] = 0. Here, the coefficient used is called a fixed AIF coefficient. Note that the filter coefficient used when r [i] = 0 is shared by the encoder / decoder and does not need to be transmitted as encoded information.

〔AIF制御情報の例(その3)〕
参照フレームインデックスref_idx[i](i=0,…,M−1)により指定される参照フレームに対して,AIF制御情報r[i]を付与する。r[i]は,1,01,00のいずれかの値をとる。各値の意味は以下のとおりである。
1.r[i]=1の場合:第i参照フレームに対してAIF係数を算出する。ここで,求まる係数を個別AIF係数と呼ぶ。
2.r[i]=01の場合:r[i]=01を付与された参照フレーム群に対して,共通のAIF係数を算出する。ここで,求まる係数を共通AIF係数と呼ぶ。
3.r[i]=00の場合:r[i]=00を付与された参照フレーム群に対して,あらかじめ定められたフィルタ係数をAIF係数として用いる。ここで,使用される係数を固定AIF係数と呼ぶ。なお,r[i]=00の場合に用いるフィルタ係数は符号化器・復号器で共有しており,符号化情報として伝送する必要はない。
[Example of AIF control information (part 3)]
AIF control information r [i] is assigned to the reference frame specified by the reference frame index ref_idx [i] (i = 0,..., M−1). r [i] takes any value of 1,01,00. The meaning of each value is as follows.
1. When r [i] = 1: AIF coefficient is calculated for the i-th reference frame. Here, the obtained coefficient is called an individual AIF coefficient.
2. When r [i] = 01: A common AIF coefficient is calculated for the reference frame group assigned with r [i] = 01. Here, the obtained coefficient is called a common AIF coefficient.
3. When r [i] = 00: A predetermined filter coefficient is used as the AIF coefficient for the reference frame group assigned with r [i] = 00. Here, the coefficient used is called a fixed AIF coefficient. Note that the filter coefficients used when r [i] = 00 are shared by the encoder / decoder, and need not be transmitted as encoded information.

〔AIF制御情報の設定方法〕
AIF制御情報の設定方法を説明する。符号化器におけるAIFの設定単位は,フレームもしくはスライス(フレーム内を分割した部分領域)である。この設定単位は,外部から与えられるものとする。
[AIF control information setting method]
A method for setting AIF control information will be described. The setting unit of AIF in the encoder is a frame or a slice (a partial area obtained by dividing the frame). This setting unit shall be given from the outside.

参照フレーム枚数をM枚として,AIF制御情報の取り得る値の種類をN種類とする。前述のAIF制御情報の例(その1),AIF制御情報の例(その2)の場合,N=2であり,AIF制御情報の例(その3)の場合,N=3である。つまり,全参照フレームに対するAIF制御情報の取り得る値の組み合わせは,最大でもNM 通りである。なお,AIF制御情報の例(その1)において,r[i]=0となる参照フレームが1枚となる場合には,全参照フレームがr[i]=1となる場合と等価なため,AIF制御情報の候補として考慮する必要はない。これは,AIF制御情報の例(その3)も同様であり,r[i]=01となる参照フレームが1枚で,残りの全参照フレームがr[i]=1となる場合には,全参照フレームがr[i]=1となる場合と等価なため,AIF制御情報の候補として考慮する必要はない。 The number of reference frames is M, and the types of values that the AIF control information can take are N. In the example of the AIF control information (part 1) and the example of the AIF control information (part 2), N = 2, and in the example of the AIF control information (part 3), N = 3. In other words, the combination of values of the AIF control information for all the reference frames is N M as at most. In the example of AIF control information (part 1), when one reference frame with r [i] = 0 is equivalent to the case with all reference frames r [i] = 1, There is no need to consider it as a candidate for AIF control information. This is the same for the AIF control information example (part 3). When one reference frame is r [i] = 01 and all the remaining reference frames are r [i] = 1, Since this is equivalent to the case where all reference frames are r [i] = 1, there is no need to consider them as candidates for AIF control information.

以下,AIFの設定単位としてフレームが設定された場合を例に説明する。AIFの設定単位としてスライスが設定された場合も同様である。選択可能な各AIF制御情報に対応するAIF係数を求め,同AIF係数を用いた場合の符号量・歪みコストを算出し,同コストを最小化するAIF制御情報を当該フレームに対するAIF制御情報として設定する。ここで,符号量・歪みコストとは,符号化歪み(二乗誤差和,もしくは絶対値誤差和)と発生符号量(もしくは,その推定値)の加重和である。   Hereinafter, a case where a frame is set as an AIF setting unit will be described as an example. The same applies when a slice is set as an AIF setting unit. AIF coefficient corresponding to each selectable AIF control information is obtained, code amount / distortion cost is calculated when the AIF coefficient is used, and AIF control information for minimizing the cost is set as AIF control information for the frame. To do. Here, the code amount / distortion cost is a weighted sum of encoding distortion (square error sum or absolute value error sum) and generated code amount (or an estimated value thereof).

以下,本発明の実施の形態について,図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔動画像符号化装置の構成例〕
図5は,本発明の一実施形態に係る動画像符号化装置の構成例を示す図である。動画像符号化装置10は,複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を用いて,入力映像信号を符号化する装置である。
[Configuration example of moving image encoding apparatus]
FIG. 5 is a diagram illustrating a configuration example of a moving image encoding apparatus according to an embodiment of the present invention. The moving image encoding device 10 is a device that encodes an input video signal by referring to a plurality of decoded frames and using motion compensation interframe prediction corresponding to decimal pixel accuracy.

動画像符号化装置10において,予測残差信号算出部101は,入力した映像信号とフレーム間予測信号との差分を算出し,予測残差信号を出力する。変換・量子化処理部102は,予測残差信号についてDCT変換等の直交変換を行い,その変換係数を量子化する。量子化された変換係数は,エントロピー符号化処理部103でエントロピー符号化され,符号化ストリームとして出力される。   In the moving picture coding apparatus 10, the prediction residual signal calculation unit 101 calculates a difference between the input video signal and the inter-frame prediction signal, and outputs a prediction residual signal. The transform / quantization processing unit 102 performs orthogonal transform such as DCT transform on the prediction residual signal, and quantizes the transform coefficient. The quantized transform coefficient is entropy encoded by the entropy encoding processing unit 103 and output as an encoded stream.

一方,量子化された変換係数は,逆変換・逆量子化処理部104で逆量子化および逆変換が行われる。復号信号算出部105は,逆変換・逆量子化処理部104の出力に,フレーム間予測信号生成部113の出力するフレーム間予測信号を加算し,復号信号を生成する。生成された復号信号は,デブロッキングフィルタ処理部106にてフィルタ処理され,後のフレーム間予測のために参照フレームバッファ107に格納される。   On the other hand, the quantized transform coefficient is subjected to inverse quantization and inverse transform in the inverse transform / inverse quantization processing unit 104. The decoded signal calculation unit 105 adds the inter-frame prediction signal output from the inter-frame prediction signal generation unit 113 to the output of the inverse transform / inverse quantization processing unit 104 to generate a decoded signal. The generated decoded signal is filtered by the deblocking filter processing unit 106 and stored in the reference frame buffer 107 for later inter-frame prediction.

フレームバッファ選択処理部108は,複数の参照フレームを用いてフレーム間予測を行うにあたって,参照フレームバッファ107に格納されている参照フレームを順番に選択する。   The frame buffer selection processing unit 108 sequentially selects reference frames stored in the reference frame buffer 107 when performing inter-frame prediction using a plurality of reference frames.

参照フレーム生成処理部109は,フレームバッファ選択処理部108が選択した参照フレームに対して,適応補間フィルタ(AIF)を用いて補間する画素値を算出することにより小数画素精度の参照フレームを生成する。フレーム間予測信号生成部113は,参照フレーム生成処理部109が生成した参照フレームを用いて,小数画素精度に対応した動き補償フレーム間予測を行い,フレーム間予測信号を生成する。   The reference frame generation processing unit 109 generates a reference frame with decimal pixel accuracy by calculating pixel values to be interpolated using an adaptive interpolation filter (AIF) for the reference frame selected by the frame buffer selection processing unit 108. . The inter-frame prediction signal generation unit 113 performs motion compensation inter-frame prediction corresponding to decimal pixel accuracy using the reference frame generated by the reference frame generation processing unit 109, and generates an inter-frame prediction signal.

本装置は,参照フレーム生成処理部109の部分が従来の符号化装置と異なる。参照フレーム生成処理部109では,参照フレームごとにAIF制御情報と呼ぶ付加情報を導入し,AIF係数算出の適応処理化を図る。そのため,参照フレーム生成処理部109は,固定AIF記憶部110,個別AIF係数算出処理部111,共有AIF係数算出処理部112を有している。AIF制御情報は,符号化ストリーム中に挿入されて出力される。   This apparatus is different from the conventional encoding apparatus in the reference frame generation processing unit 109. The reference frame generation processing unit 109 introduces additional information called AIF control information for each reference frame to achieve adaptive processing for AIF coefficient calculation. Therefore, the reference frame generation processing unit 109 has a fixed AIF storage unit 110, an individual AIF coefficient calculation processing unit 111, and a shared AIF coefficient calculation processing unit 112. AIF control information is inserted into the encoded stream and output.

以下,図5に示す参照フレーム生成処理部109の詳細な処理フローを,AIF制御情報のタイプに応じて説明する。   Hereinafter, a detailed processing flow of the reference frame generation processing unit 109 illustrated in FIG. 5 will be described according to the type of AIF control information.

〔符号化時の参照フレーム生成処理フロー(その1)〕
図6は,前述した〔AIF制御情報の例(その1)〕に対応する動画像符号化装置10における参照フレーム生成処理部109の処理フローチャートである。参照フレーム生成処理部109は,以下に示す処理によって参照フレームの補間画像を生成する。
[ステップS101]:参照フレーム数Mを読み込む。
[ステップS102]:参照フレームとして用いるフレームを設定し,参照フレームインデックスref_idx[i](i=0,1,…,M−1)を設定する。
[ステップS103]:共通AIF係数の初期値を読み込み,共通AIF係数の格納バッファに書き出す。
[ステップS104]:ループインデックスiを,i=0,1,…,M−1として,ステップS104からS114までの処理を繰り返し行う。
[ステップS105]:参照フレームインデックスref_idx[i]が指す参照フレームに対する個別AIF係数を算出する。この処理の詳細については,後に図9を用いて説明する。
[ステップS106]:参照フレームインデックスref_idx[i]が指す参照フレームに対して個別AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。
[ステップS107]:参照フレームインデックスref_idx[i]が指す参照フレームに対する共通AIF係数として,共通AIF係数の初期値を設定する。
[ステップS108]:参照フレームインデックスref_idx[i]が指す参照フレームに対して共通AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。なお,ステップS105,S106と,ステップS107,S108とは,パラレルに実行してもシリアルに実行してもどちらでもよい。
[ステップS109]:次に,個別AIF係数を用いた場合と共通AIF係数を用いた場合のRDコストを比較する。個別AIF係数を用いた場合のRDコストのほうが小さい場合,ステップS110へ進み,そうでない場合,ステップS111へ進む。
[ステップS110]:個別AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(1ビット)として,r[i]に“1”を格納する。その後,ステップS113へ進む。
[ステップS111]:共通AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(1ビット)として,r[i]に“0”を格納する。
[ステップS112]:r[i]=0が設定された参照フレーム群に対して,共通AIF係数を算出する。この処理の詳細については,後に図10を用いて説明する。
[ステップS113]:選択されたAIF係数を用いて,ref_idx[i]が指す参照フレームから小数画素精度に対応した動き補償フレーム間予測のための補間画像(参照フレーム)を生成する。
[ステップS114]:ループインデックスiについて,1からM−1までの処理が終えたならば処理を終了する。そうでなけれは,iを1増やして,ステップS104以降を繰り返す。
[Reference frame generation processing flow during encoding (part 1)]
FIG. 6 is a process flowchart of the reference frame generation processing unit 109 in the moving image encoding apparatus 10 corresponding to [Example of AIF control information (part 1)]. The reference frame generation processing unit 109 generates an interpolated image of the reference frame by the following process.
[Step S101]: The reference frame number M is read.
[Step S102]: A frame to be used as a reference frame is set, and a reference frame index ref_idx [i] (i = 0, 1,..., M−1) is set.
[Step S103]: The initial value of the common AIF coefficient is read and written to the common AIF coefficient storage buffer.
[Step S104]: The loop index i is set to i = 0, 1,..., M−1, and the processes from Step S104 to S114 are repeated.
[Step S105]: The individual AIF coefficient for the reference frame indicated by the reference frame index ref_idx [i] is calculated. Details of this processing will be described later with reference to FIG.
[Step S106]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when the individual AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i].
[Step S107]: The initial value of the common AIF coefficient is set as the common AIF coefficient for the reference frame indicated by the reference frame index ref_idx [i].
[Step S108]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when the common AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i]. Note that steps S105 and S106 and steps S107 and S108 may be executed in parallel or serially.
[Step S109]: Next, the RD costs when the individual AIF coefficients are used and when the common AIF coefficients are used are compared. If the RD cost when the individual AIF coefficient is used is smaller, the process proceeds to step S110, and if not, the process proceeds to step S111.
[Step S110]: An individual AIF coefficient is selected as an AIF coefficient used for generating an interpolated image, and “1” is stored in r [i] as information (1 bit) corresponding to the AIF control information in the encoded stream. . Thereafter, the process proceeds to step S113.
[Step S111]: A common AIF coefficient is selected as an AIF coefficient used for generating an interpolated image, and “0” is stored in r [i] as information (1 bit) corresponding to the AIF control information in the encoded stream. .
[Step S112]: A common AIF coefficient is calculated for the reference frame group in which r [i] = 0 is set. Details of this processing will be described later with reference to FIG.
[Step S113]: Using the selected AIF coefficient, an interpolated image (reference frame) for motion compensation inter-frame prediction corresponding to decimal pixel accuracy is generated from the reference frame indicated by ref_idx [i].
[Step S114]: When the process from 1 to M-1 is completed for the loop index i, the process is terminated. Otherwise, i is incremented by 1, and step S104 and subsequent steps are repeated.

〔符号化時の参照フレーム生成処理フロー(その2)〕
図7は,前述した〔AIF制御情報の例(その2)〕に対応する動画像符号化装置10における参照フレーム生成処理部109の処理フローチャートである。参照フレーム生成処理部109は,以下に示す処理によって参照フレームの補間画像を生成する。
[ステップS121]:参照フレーム数Mを読み込む。
[ステップS122]:参照フレームとして用いるフレームを設定し,参照フレームインデックスref_idx[i](i=0,1,…,M−1)を設定する。
[ステップS123]:固定AIF係数の初期値を読み込み,係数の格納バッファに書き出す。
[ステップS124]:ループインデックスiを,i=0,1,…,M−1として,ステップS124からS132までの処理を繰り返し行う。
[ステップS125]:参照フレームインデックスref_idx[i]が指す参照フレームに対する個別AIF係数を算出する。この処理の詳細については,後に図9を用いて説明する。
[ステップS126]:参照フレームインデックスref_idx[i]が指す参照フレームに対して個別AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。
[ステップS127]:参照フレームインデックスref_idx[i]が指す参照フレームに対して固定AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。なお,ステップS125,S126と,ステップS127とは,パラレルに実行してもシリアルに実行してもどちらでもよい。
[ステップS128]:次に,個別AIF係数を用いた場合と固定AIF係数を用いた場合のRDコストを比較する。個別AIF係数を用いた場合のRDコストのほうが小さい場合,ステップS129へ進み,そうでない場合,ステップS130へ進む。
[ステップS129]:個別AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(1ビット)として,r[i]に“1”を格納する。その後,ステップS131へ進む。
[ステップS130]:固定AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(1ビット)として,r[i]に“0”を格納する。
[ステップS131]:選択されたAIF係数を用いて,ref_idx[i]が指す参照フレームから小数画素精度に対応した動き補償フレーム間予測のための補間画像(参照フレーム)を生成する。
[ステップS132]:ループインデックスiについて,1からM−1までの処理が終えたならば処理を終了する。そうでなけれは,iを1増やして,ステップS124以降を繰り返す。
[Reference frame generation processing flow during encoding (part 2)]
FIG. 7 is a process flowchart of the reference frame generation processing unit 109 in the moving image encoding apparatus 10 corresponding to [Example of AIF control information (part 2)] described above. The reference frame generation processing unit 109 generates an interpolated image of the reference frame by the following process.
[Step S121]: The reference frame number M is read.
[Step S122]: A frame to be used as a reference frame is set, and a reference frame index ref_idx [i] (i = 0, 1,..., M−1) is set.
[Step S123]: The initial value of the fixed AIF coefficient is read and written to the coefficient storage buffer.
[Step S124]: The loop index i is set to i = 0, 1,..., M−1, and the processes from Step S124 to S132 are repeated.
[Step S125]: An individual AIF coefficient for the reference frame indicated by the reference frame index ref_idx [i] is calculated. Details of this processing will be described later with reference to FIG.
[Step S126]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when the individual AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i].
[Step S127]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when a fixed AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i]. Note that steps S125 and S126 and step S127 may be executed in parallel or serially.
[Step S128]: Next, the RD costs when the individual AIF coefficients are used and when the fixed AIF coefficients are used are compared. If the RD cost when the individual AIF coefficient is used is smaller, the process proceeds to step S129, and if not, the process proceeds to step S130.
[Step S129]: The individual AIF coefficient is selected as the AIF coefficient used for generating the interpolated image, and “1” is stored in r [i] as information (1 bit) corresponding to the AIF control information in the encoded stream. . Thereafter, the process proceeds to step S131.
[Step S130]: A fixed AIF coefficient is selected as an AIF coefficient used for generating an interpolated image, and “0” is stored in r [i] as information (1 bit) corresponding to the AIF control information in the encoded stream. .
[Step S131]: Using the selected AIF coefficient, an interpolated image (reference frame) for motion compensation inter-frame prediction corresponding to decimal pixel accuracy is generated from the reference frame indicated by ref_idx [i].
[Step S132]: When the process from 1 to M-1 is completed for the loop index i, the process is terminated. Otherwise, i is incremented by 1, and step S124 and subsequent steps are repeated.

〔符号化時の参照フレーム生成処理フロー(その3)〕
図8は,前述した〔AIF制御情報の例(その3)〕に対応する動画像符号化装置10における参照フレーム生成処理部109の処理フローチャートである。参照フレーム生成処理部109は,以下に示す処理によって参照フレームの補間画像を生成する。
[ステップS141]:参照フレーム数Mを読み込む。
[ステップS142]:参照フレームとして用いるフレームを設定し,参照フレームインデックスref_idx[i](i=0,1,…,M−1)を設定する。
[ステップS143]:共通AIF係数の初期値を読み込み,共通AIF係数の格納バッファに書き出す。
[ステップS144]:ループインデックスiを,i=0,1,…,M−1として,ステップS144からS157までの処理を繰り返し行う。
[ステップS145]:参照フレームインデックスref_idx[i]が指す参照フレームに対する個別AIF係数を算出する。この処理の詳細については,後に図9を用いて説明する。
[ステップS146]:参照フレームインデックスref_idx[i]が指す参照フレームに対して個別AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。
[ステップS147]:参照フレームインデックスref_idx[i]が指す参照フレームに対する共通AIF係数として,共通AIF係数の初期値を設定する。
[ステップS148]:参照フレームインデックスref_idx[i]が指す参照フレームに対して共通AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。
[ステップS149]:参照フレームインデックスref_idx[i]が指す参照フレームに対して固定AIF係数を用いた場合のRDコスト(符号化歪みと発生符号量の加重和)を算出する。なお,ステップS145,S146と,ステップS147,S148と,ステップS149とは,パラレルに実行してもシリアルに実行してもどちらでもよい。
[ステップS150]:次に,個別AIF係数を用いた場合のRDコストが最小かどうかを判定する。個別AIF係数を用いた場合のRDコストが最小の場合,ステップS151へ進み,そうでない場合,ステップS152へ進む。
[ステップS151]:個別AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(1ビット)として,r[i]に“1”を格納する。その後,ステップS156へ進む。
[ステップS152]:次に,共通AIF係数を用いた場合のRDコストと固定AIF係数を用いた場合のRDコストを比較し,共通AIF係数を用いた場合のRDコストのほうが小さい場合,ステップS153へ進み,そうでない場合,ステップS155へ進む。
[ステップS153]:共通AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(2ビット)として,r[i]に“01”を格納する。
[ステップS154]:r[i]=01が設定された参照フレーム群に対して,共通AIF係数を算出する。この処理の詳細については,後に図10を用いて説明する。その後,ステップS156へ進む。
[ステップS155]:固定AIF係数を補間画像の生成に用いるAIF係数として選択し,符号化ストリーム内のAIF制御情報に対応する情報(2ビット)として,r[i]に“00”を格納する。
[ステップS156]:選択されたAIF係数を用いて,ref_idx[i]が指す参照フレームから小数画素精度に対応した動き補償フレーム間予測のための補間画像(参照フレーム)を生成する。
[ステップS157]:ループインデックスiについて,1からM−1までの処理が終えたならば処理を終了する。そうでなけれは,iを1増やして,ステップS144以降を繰り返す。
[Reference frame generation processing flow during encoding (part 3)]
FIG. 8 is a process flowchart of the reference frame generation processing unit 109 in the moving image encoding apparatus 10 corresponding to [Example of AIF control information (part 3)]. The reference frame generation processing unit 109 generates an interpolated image of the reference frame by the following process.
[Step S141]: The reference frame number M is read.
[Step S142]: A frame to be used as a reference frame is set, and a reference frame index ref_idx [i] (i = 0, 1,..., M−1) is set.
[Step S143]: The initial value of the common AIF coefficient is read and written to the common AIF coefficient storage buffer.
[Step S144]: The loop index i is set to i = 0, 1,..., M−1, and the processing from steps S144 to S157 is repeated.
[Step S145]: The individual AIF coefficient for the reference frame indicated by the reference frame index ref_idx [i] is calculated. Details of this processing will be described later with reference to FIG.
[Step S146]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when the individual AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i].
[Step S147]: An initial value of the common AIF coefficient is set as the common AIF coefficient for the reference frame indicated by the reference frame index ref_idx [i].
[Step S148]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when the common AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i].
[Step S149]: RD cost (weighted sum of coding distortion and generated code amount) is calculated when a fixed AIF coefficient is used for the reference frame indicated by the reference frame index ref_idx [i]. Note that steps S145 and S146, steps S147 and S148, and step S149 may be executed in parallel or serially.
[Step S150]: Next, it is determined whether or not the RD cost when the individual AIF coefficient is used is minimum. If the RD cost when the individual AIF coefficient is used is the minimum, the process proceeds to step S151. If not, the process proceeds to step S152.
[Step S151]: The individual AIF coefficient is selected as the AIF coefficient used for generating the interpolated image, and “1” is stored in r [i] as information (1 bit) corresponding to the AIF control information in the encoded stream. . Thereafter, the process proceeds to step S156.
[Step S152]: Next, the RD cost when the common AIF coefficient is used is compared with the RD cost when the fixed AIF coefficient is used, and if the RD cost when the common AIF coefficient is used is smaller, step S153 is performed. If not, the process proceeds to step S155.
[Step S153]: The common AIF coefficient is selected as an AIF coefficient used for generating an interpolated image, and “01” is stored in r [i] as information (2 bits) corresponding to the AIF control information in the encoded stream. .
[Step S154]: A common AIF coefficient is calculated for the reference frame group in which r [i] = 01 is set. Details of this processing will be described later with reference to FIG. Thereafter, the process proceeds to step S156.
[Step S155]: A fixed AIF coefficient is selected as an AIF coefficient used for generating an interpolated image, and “00” is stored in r [i] as information (2 bits) corresponding to the AIF control information in the encoded stream. .
[Step S156]: Using the selected AIF coefficient, an interpolated image (reference frame) for motion compensation inter-frame prediction corresponding to decimal pixel accuracy is generated from the reference frame indicated by ref_idx [i].
[Step S157]: When the process from 1 to M-1 is completed for the loop index i, the process is terminated. Otherwise, i is incremented by 1, and step S144 and subsequent steps are repeated.

〔個別フィルタ係数の算出処理〕
図9は,参照フレーム生成処理部109が実行する個別フィルタ係数の算出処理フローチャートである。参照フレーム生成処理部109は,予測対象フレームと参照フレームとから,以下の処理によって個別AIF係数を算出する。
[ステップS161]:予測対象フレームと参照フレームとを読み込む。
[ステップS162]:予測対象フレームを重複のない部分領域に分割する。
[ステップS163]:個別AIF係数を予め定められた初期値に設定する。
[ステップS164]:設定された個別AIF係数を用いて,参照フレームに対して補間フィルタを適用し,小数画素位置の補間画素値を生成する。
[ステップS165]:生成された小数画素位置の補間画素値を含む参照フレームを用い,予測対象の各部分領域に対して動き補償フレーム間予測を行い,各部分領域に対する動きベクトルを算出する。
[ステップS166]:算出された動きベクトルを用いて参照フレームを参照する場合に,予測残差電力を最小化するフィルタ係数を算出し,個別AIF係数として設定する。
[Individual filter coefficient calculation processing]
FIG. 9 is a flowchart of individual filter coefficient calculation processing executed by the reference frame generation processing unit 109. The reference frame generation processing unit 109 calculates an individual AIF coefficient from the prediction target frame and the reference frame by the following process.
[Step S161]: A prediction target frame and a reference frame are read.
[Step S162]: The prediction target frame is divided into non-overlapping partial regions.
[Step S163]: The individual AIF coefficient is set to a predetermined initial value.
[Step S164]: Using the set individual AIF coefficient, an interpolation filter is applied to the reference frame to generate an interpolation pixel value at the decimal pixel position.
[Step S165]: Using the generated reference frame including the interpolated pixel value at the decimal pixel position, motion compensation inter-frame prediction is performed for each partial region to be predicted, and a motion vector for each partial region is calculated.
[Step S166]: When referring to the reference frame using the calculated motion vector, a filter coefficient that minimizes the prediction residual power is calculated and set as an individual AIF coefficient.

〔共通フィルタ係数の算出処理〕
図10は,参照フレーム生成処理部109が実行する共通フィルタ係数の算出処理フローチャートである。参照フレーム生成処理部109は,予測対象フレームと参照フレームとから,以下の処理によって共通AIF係数を算出する。
[ステップS171]:予測対象フレームと,共通AIF係数を使用する参照フレームとを読み込む。
[ステップS172]:予測対象フレームを重複のない部分領域に分割する。
[ステップS173]:共通AIF係数を予め定められた初期値に設定する。
[ステップS174]:設定された共通AIF係数を用いて,ステップS171で読み込まれた全参照フレームに対して補間フィルタを適用し,小数画素位置の補間画素値を生成する。
[ステップS175]:生成された小数画素位置の補間画素値を含む参照フレームを用い,予測対象の各部分領域に対して動き補償フレーム間予測を行い,各部分領域に対する動きベクトルを算出する。
[ステップS176]:算出された動きベクトルを用いて参照フレームを参照する場合に,予測残差電力を最小化するフィルタ係数を算出し,共通AIF係数として設定する。
[Common filter coefficient calculation processing]
FIG. 10 is a flowchart of the common filter coefficient calculation process executed by the reference frame generation processing unit 109. The reference frame generation processing unit 109 calculates a common AIF coefficient from the prediction target frame and the reference frame by the following process.
[Step S171]: A prediction target frame and a reference frame using a common AIF coefficient are read.
[Step S172]: The prediction target frame is divided into non-overlapping partial regions.
[Step S173]: The common AIF coefficient is set to a predetermined initial value.
[Step S174]: Using the set common AIF coefficient, an interpolation filter is applied to all the reference frames read in step S171 to generate an interpolation pixel value at the decimal pixel position.
[Step S175]: Using the generated reference frame including the interpolated pixel value at the decimal pixel position, motion compensation inter-frame prediction is performed for each partial region to be predicted, and a motion vector for each partial region is calculated.
[Step S176]: When referring to a reference frame using the calculated motion vector, a filter coefficient that minimizes the prediction residual power is calculated and set as a common AIF coefficient.

〔動画像復号装置の構成例〕
図11は,本発明の一実施形態に係る動画像復号装置の構成例を示す図である。動画像復号装置20は,複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を用いて符号化された動画像の符号化ストリームを復号する装置である。
[Configuration example of video decoding device]
FIG. 11 is a diagram illustrating a configuration example of a video decoding device according to an embodiment of the present invention. The moving picture decoding apparatus 20 is an apparatus that refers to a plurality of decoded frames and decodes an encoded stream of a moving picture that has been encoded using motion compensation interframe prediction corresponding to decimal pixel accuracy.

動画像復号装置20において,エントロピー復号部201は,入力した符号化ストリームをエントロピー復号する。逆量子化部202は,エントロピー復号された復号信号を逆量子化し,逆DCT演算部203は,逆量子化によって得られた変換係数に逆DCT変換を施し,予測残差信号を算出する。   In the video decoding device 20, the entropy decoding unit 201 performs entropy decoding on the input encoded stream. The inverse quantization unit 202 inversely quantizes the entropy-decoded decoded signal, and the inverse DCT operation unit 203 performs inverse DCT transform on the transform coefficient obtained by the inverse quantization to calculate a prediction residual signal.

一方,フレームバッファ選択処理部204は,符号化ストリームを復号することによって得られた参照フレームインデックスref_idx[i]を入力し,参照フレームインデックスref_idx[i]によって指定されたフレームバッファ205中の復号済みフレームを選択する。   On the other hand, the frame buffer selection processing unit 204 receives the reference frame index ref_idx [i] obtained by decoding the encoded stream, and has decoded the frame buffer 205 specified by the reference frame index ref_idx [i]. Select a frame.

参照フレーム生成処理部206は,符号化ストリームを復号することによって得られた参照フレームインデックスref_idx[i]に対応するAIF制御情報r[i]に従って,予め固定AIF係数記憶部207に記憶されている固定AIF係数,または符号化ストリームを復号することによって得られた個別AIF係数記憶部208に記憶されている個別AIF係数,または共通AIF係数記憶部209に記憶されている共通AIF係数によって規定される補間フィルタを,フレームバッファ205から読み出した復号済みフレームに適用して小数画素精度に対応した参照フレームを生成し,生成した参照フレームを参照フレームバッファ210に書き出す。   The reference frame generation processing unit 206 is stored in advance in the fixed AIF coefficient storage unit 207 according to the AIF control information r [i] corresponding to the reference frame index ref_idx [i] obtained by decoding the encoded stream. Defined by fixed AIF coefficients, or individual AIF coefficients stored in the individual AIF coefficient storage unit 208 obtained by decoding the encoded stream, or common AIF coefficients stored in the common AIF coefficient storage unit 209 The interpolation filter is applied to the decoded frame read from the frame buffer 205 to generate a reference frame corresponding to decimal pixel accuracy, and the generated reference frame is written to the reference frame buffer 210.

復号信号生成部211は,符号化ストリームを復号して得られた動きベクトル情報に従って参照フレームバッファ210から読み出した参照フレームの予測信号と,逆DCT演算部203の出力である予測残差信号とを加算して復号信号を生成し,復号画像として出力する。この復号信号は,後続するフレームの復号のためにフレームバッファ選択処理部204を介してフレームバッファ205に格納する。   The decoded signal generation unit 211 obtains the prediction signal of the reference frame read from the reference frame buffer 210 according to the motion vector information obtained by decoding the encoded stream, and the prediction residual signal that is the output of the inverse DCT calculation unit 203. Addition generates a decoded signal and outputs it as a decoded image. This decoded signal is stored in the frame buffer 205 via the frame buffer selection processing unit 204 for decoding subsequent frames.

図11に示す参照フレーム生成処理部206の詳細な処理フローを,AIF制御情報のタイプに応じて,図12〜図14に従って説明する。   A detailed processing flow of the reference frame generation processing unit 206 shown in FIG. 11 will be described according to FIGS. 12 to 14 according to the type of AIF control information.

〔復号時の参照フレーム生成処理フロー(その1)〕
図12は,前述した〔AIF制御情報の例(その1)〕に対応する動画像復号装置20における参照フレーム生成処理部206の処理フローチャートである。参照フレーム生成処理部206は,以下に示す処理によって参照フレームの補間画像を生成する。
[ステップS210]:符号化ストリームを入力として,復号処理を行い,参照フレーム数Mを書き出す。
[ステップS211]:符号化ストリームを入力として,復号処理を行い,参照フレームインデックスref_idx[i](i=0,1,…,M−1)を書き出す。
[ステップS212]:ループインデックスiを,i=0,1,…,M−1として,ステップS212からS2120までの処理を繰り返し行う。
[ステップS213]:符号化ストリームを入力として,符号化ストリーム内のAIF制御情報に対応する箇所(1ビットの情報)を抽出し,r[i]に格納する。
[ステップS214]:r[i]=1か否かを判定する。r[i]=1の場合,ステップS215へ進み,r[i]=0の場合,ステップS216へ進む。
[ステップS215]:ref_idx[i],符号化ストリームを入力として,符号化ストリーム内の個別AIF係数に対応する箇所を復号し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。その後,ステップS219へ進む。
[ステップS216]:共通AIF係数の格納バッファが空かどうか判定し,空であれば,ステップS217を実行し,空でなければ,ステップS217をスキップする。
[ステップS217]:符号化ストリームを入力として,符号化ストリーム内のAIF係数に対応する箇所を復号し,共通AIF係数の格納バッファへ書き出す。
[ステップS218]:ref_idx[i],共通AIF係数の格納バッファ内のAIF係数を読み出し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。
[ステップS219]:ref_idx[i]が指す参照フレームに対するAIF係数,ref_idx[i]が指す参照フレームに対する復号画像を入力として,同信号に対する補間画像を生成し,格納する。
[ステップS2120]:ループインデックスiについて,1からM−1までの処理が終えたならば処理を終了する。そうでなけれは,iを1増やして,ステップS212以降を繰り返す。
[Reference Frame Generation Processing Flow at Decoding (Part 1)]
FIG. 12 is a process flowchart of the reference frame generation processing unit 206 in the video decoding device 20 corresponding to [Example of AIF control information (part 1)] described above. The reference frame generation processing unit 206 generates an interpolated image of the reference frame by the following process.
[Step S210]: The encoded stream is input, decoding is performed, and the reference frame number M is written.
[Step S211]: The encoded stream is input, decoding is performed, and a reference frame index ref_idx [i] (i = 0, 1,..., M−1) is written.
[Step S212]: The loop index i is set to i = 0, 1,..., M−1, and the processes from Step S212 to S2120 are repeated.
[Step S213]: Using the encoded stream as an input, a portion (1-bit information) corresponding to the AIF control information in the encoded stream is extracted and stored in r [i].
[Step S214]: It is determined whether r [i] = 1. If r [i] = 1, the process proceeds to step S215. If r [i] = 0, the process proceeds to step S216.
[Step S215]: ref_idx [i], the encoded stream is input, a portion corresponding to the individual AIF coefficient in the encoded stream is decoded, and stored as an AIF coefficient for the reference frame indicated by ref_idx [i]. Thereafter, the process proceeds to step S219.
[Step S216]: It is determined whether or not the common AIF coefficient storage buffer is empty. If it is empty, step S217 is executed. If it is not empty, step S217 is skipped.
[Step S217]: Using the encoded stream as an input, a portion corresponding to the AIF coefficient in the encoded stream is decoded and written to the common AIF coefficient storage buffer.
[Step S218]: ref_idx [i], the AIF coefficient in the common AIF coefficient storage buffer is read and stored as the AIF coefficient for the reference frame pointed to by ref_idx [i].
[Step S219]: An AIF coefficient for the reference frame pointed to by ref_idx [i] and a decoded image for the reference frame pointed to by ref_idx [i] are input, and an interpolated image for the signal is generated and stored.
[Step S2120]: When the process from 1 to M-1 is completed for the loop index i, the process ends. Otherwise, i is incremented by 1, and step S212 and subsequent steps are repeated.

〔復号時の参照フレーム生成処理フロー(その2)〕
図13は,前述した〔AIF制御情報の例(その2)〕に対応する参照フレーム生成処理部の処理フローチャートである。
[ステップS220]:符号化ストリームを入力として,復号処理を行い,参照フレーム数Mを書き出す。
[ステップS221]:符号化ストリームを入力として,復号処理を行い,参照フレームインデックスref_idx[i]を書き出す。
[ステップS222]:ループインデックスiを,i=0,1,…,M−1として,ステップS222からS2220までの処理を繰り返し行う。
[ステップS223]:符号化ストリームを入力として,符号化ストリーム内のAIF制御情報に対応する箇所(1ビットの情報)を抽出し,r[i]に格納する。
[ステップS224]:r[i]=1か否かを判定する。r[i]=1の場合,ステップS225へ進み,r[i]=0の場合,ステップS226へ進む。
[ステップS225]:ref_idx[i],符号化ストリームを入力として,符号化ストリーム内の個別AIF係数に対応する箇所を復号し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。その後,ステップS227へ進む。
[ステップS226]:固定AIF係数の格納バッファ内の係数を読み出し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。
[ステップS227]:ref_idx[i]が指す参照フレームに対するAIF係数,ref_idx[i]が指す参照フレームに対する復号画像を入力として,同信号に対する補間画像を生成し,格納する。
[ステップS2220]:ループインデックスiについて,1からM−1までの処理が終えたならば処理を終了する。そうでなけれは,iを1増やして,ステップS222以降を繰り返す。
[Reference Frame Generation Processing Flow at Decoding (Part 2)]
FIG. 13 is a process flowchart of the reference frame generation processing unit corresponding to [Example of AIF control information (part 2)] described above.
[Step S220]: The encoded stream is input, decoding is performed, and the reference frame number M is written.
[Step S221]: The encoded stream is input, a decoding process is performed, and a reference frame index ref_idx [i] is written.
[Step S222]: The loop index i is set to i = 0, 1,..., M−1, and the processing from steps S222 to S2220 is repeated.
[Step S223]: Using the encoded stream as an input, a portion (1-bit information) corresponding to the AIF control information in the encoded stream is extracted and stored in r [i].
[Step S224]: It is determined whether r [i] = 1. When r [i] = 1, the process proceeds to step S225. When r [i] = 0, the process proceeds to step S226.
[Step S225]: ref_idx [i], the encoded stream is input, a portion corresponding to the individual AIF coefficient in the encoded stream is decoded, and stored as an AIF coefficient for the reference frame indicated by ref_idx [i]. Thereafter, the process proceeds to step S227.
[Step S226]: The coefficient in the fixed AIF coefficient storage buffer is read and stored as the AIF coefficient for the reference frame indicated by ref_idx [i].
[Step S227]: Using the AIF coefficient for the reference frame pointed to by ref_idx [i] and the decoded image for the reference frame pointed to by ref_idx [i] as input, an interpolated image for the signal is generated and stored.
[Step S2220]: When the process from 1 to M-1 is completed for the loop index i, the process is terminated. Otherwise, i is incremented by 1, and step S222 and subsequent steps are repeated.

〔復号時の参照フレーム生成処理フロー(その3)〕
図14は,前述した〔AIF制御情報の例(その3)〕に対応する参照フレーム生成処理部の処理フローチャートである。
[ステップS230]:符号化ストリームを入力として,復号処理を行い,参照フレーム数Mを書き出す。
[ステップS231]:符号化ストリームを入力として,復号処理を行い,参照フレームインデックスref_idx[i]を書き出す。
[ステップS232]:ループインデックスiを,i=0,1,…,M−1として,ステップS232からS2320までの処理を繰り返し行う。
[ステップS233]:符号化ストリームを入力として,符号化ストリーム内のAIF制御情報に対応する箇所を抽出し,r[i]に格納する。当該箇所の先頭ビットが“1”の場合には,そのビットをr[i]に格納し,そうでなければ,後続の1ビットを加えた2ビットをr[i]に格納する。
[ステップS234]:r[i]=1か否かを判定する。r[i]=1の場合,ステップS235へ進み,そうでなければ,ステップS236へ進む。
[ステップS235]:ref_idx[i],符号化ストリームを入力として,符号化ストリーム内の個別AIF係数に対応する箇所を復号し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。その後,ステップS241へ進む。
[ステップS236]:r[i]=01か否かを判定する。r[i]=01の場合,ステップS237へ進み,r[i]=00の場合,ステップS240へ進む。
[ステップS237]:共通AIF係数の格納バッファが空かどうか判定し,空であれば,ステップS238を実行し,空でなければ,ステップS238をスキップする。
[ステップS238]:符号化ストリームを入力として,符号化ストリーム内の共通AIF係数に対応する箇所を復号し,共通AIF係数の格納バッファへ書き出す。
[ステップS239]:ref_idx[i],共通AIF係数の格納バッファ内のAIF係数を読み出し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。その後,ステップS241へ進む。
[ステップS240]:ref_idx[i],固定AIF係数の格納バッファ内のAIF係数を読み出し,ref_idx[i]が指す参照フレームに対するAIF係数として格納する。
[ステップS241]:ref_idx[i]が指す参照フレームに対するAIF係数,ref_idx[i]が指す参照フレームに対する復号画像を入力として,同信号に対する補間画像を生成し,格納する。
[ステップS2320]:ループインデックスiについて,1からM−1までの処理が終えたならば処理を終了する。そうでなけれは,iを1増やして,ステップS232以降を繰り返す。
[Reference Frame Generation Processing Flow at Decoding (Part 3)]
FIG. 14 is a process flowchart of the reference frame generation processing unit corresponding to [Example of AIF control information (part 3)].
[Step S230]: The encoded stream is input, a decoding process is performed, and the reference frame number M is written.
[Step S231]: The encoded stream is input, a decoding process is performed, and a reference frame index ref_idx [i] is written.
[Step S232]: The loop index i is set to i = 0, 1,..., M−1, and the processes from Step S232 to S2320 are repeated.
[Step S233]: Using the encoded stream as an input, a portion corresponding to the AIF control information in the encoded stream is extracted and stored in r [i]. If the first bit of the location is “1”, the bit is stored in r [i]. Otherwise, 2 bits including the subsequent 1 bit are stored in r [i].
[Step S234]: It is determined whether r [i] = 1. If r [i] = 1, the process proceeds to step S235; otherwise, the process proceeds to step S236.
[Step S235]: ref_idx [i], with the encoded stream as an input, a portion corresponding to the individual AIF coefficient in the encoded stream is decoded and stored as an AIF coefficient for the reference frame indicated by ref_idx [i]. Thereafter, the process proceeds to step S241.
[Step S236]: It is determined whether r [i] = 01. When r [i] = 01, the process proceeds to step S237, and when r [i] = 00, the process proceeds to step S240.
[Step S237]: It is determined whether or not the common AIF coefficient storage buffer is empty. If it is empty, step S238 is executed. If not, step S238 is skipped.
[Step S238]: Using the encoded stream as an input, the portion corresponding to the common AIF coefficient in the encoded stream is decoded and written to the common AIF coefficient storage buffer.
[Step S239]: ref_idx [i], the AIF coefficient in the common AIF coefficient storage buffer is read and stored as the AIF coefficient for the reference frame pointed to by ref_idx [i]. Thereafter, the process proceeds to step S241.
[Step S240]: ref_idx [i], the AIF coefficient in the fixed AIF coefficient storage buffer is read and stored as the AIF coefficient for the reference frame pointed to by ref_idx [i].
[Step S241]: An AIF coefficient for the reference frame pointed to by ref_idx [i] and a decoded image for the reference frame pointed to by ref_idx [i] are input, and an interpolated image for the signal is generated and stored.
[Step S2320]: When the processing from 1 to M-1 is completed for the loop index i, the processing is terminated. Otherwise, i is incremented by 1, and step S232 and subsequent steps are repeated.

以上の動画像符号化,復号の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。   The above moving image encoding and decoding processes can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network.

10 動画像符号化装置
101 予測残差信号算出部
102 変換・量子化処理部
103 エントロピー符号化処理部
104 逆変換・逆量子化処理部
105 復号信号算出部
106 デブロッキングフィルタ処理部
107 参照フレームバッファ
108 フレームバッファ選択処理部
109 参照フレーム生成処理部
110 固定AIF記憶部
111 個別AIF係数算出処理部
112 共有AIF係数算出処理部
113 フレーム間予測信号生成部
20 動画像復号装置
201 エントロピー復号部
202 逆量子化部
203 逆DCT演算部
204 フレームバッファ選択処理部
205 フレームバッファ
206 参照フレーム生成処理部
207 固定AIF係数記憶部
208 個別AIF係数記憶部
209 共通AIF係数記憶部
210 参照フレームバッファ
211 復号信号生成部
DESCRIPTION OF SYMBOLS 10 Moving image encoder 101 Prediction residual signal calculation part 102 Transformation / quantization processing part 103 Entropy encoding processing part 104 Inverse transformation / inverse quantization process part 105 Decoded signal calculation part 106 Deblocking filter processing part 107 Reference frame buffer 108 Frame Buffer Selection Processing Unit 109 Reference Frame Generation Processing Unit 110 Fixed AIF Storage Unit 111 Individual AIF Coefficient Calculation Processing Unit 112 Shared AIF Coefficient Calculation Processing Unit 113 Interframe Prediction Signal Generation Unit 20 Video Decoding Device 201 Entropy Decoding Unit 202 Inverse Quantum Conversion unit 203 inverse DCT operation unit 204 frame buffer selection processing unit 205 frame buffer 206 reference frame generation processing unit 207 fixed AIF coefficient storage unit 208 individual AIF coefficient storage unit 209 common AIF coefficient storage unit 210 reference frame Buffer 211 Decoded signal generator

Claims (10)

複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を用いて動画像を符号化する動画像符号化方法において,
前記動き補償フレーム間予測に用いる参照フレームに応じて小数画素位置の画素値を生成するために用いる補間フィルタの係数を適応的に設定する過程と,
前記補間フィルタの係数が,少なくとも個々の参照フレームに対して個別に設定された係数であるか否かを示すフィルタ制御情報を,前記各参照フレームごとに付加情報として符号化ストリーム中に加える過程と,
前記適応的に設定された係数を有する補間フィルタを用いて参照フレームの小数画素精度補間画像を生成し,小数画素精度に対応した動き補償フレーム間予測により符号化対象画像を符号化し,符号化ストリームを出力する過程とを有する
ことを特徴とする動画像符号化方法。
In a moving image encoding method for referring to a plurality of decoded frames and encoding a moving image using motion compensated interframe prediction corresponding to decimal pixel accuracy,
Adaptively setting a coefficient of an interpolation filter used for generating a pixel value of a decimal pixel position according to a reference frame used for the motion compensation inter-frame prediction;
Adding filter control information indicating whether or not the coefficient of the interpolation filter is a coefficient individually set for at least each reference frame into the encoded stream as additional information for each reference frame; ,
An encoded stream is generated by generating a sub-pixel accuracy interpolated image of a reference frame using an interpolation filter having an adaptively set coefficient, encoding an encoding target image by motion compensation inter-frame prediction corresponding to the sub-pixel accuracy. And a process of outputting the video.
請求項1記載の動画像符号化方法において,
前記フィルタ制御情報は,参照フレームがM枚(M≧2)存在する場合に,第i番目(i=0,1,…,M−1)の参照フレームに対する補間フィルタの係数が,
当該参照フレームに対して個別に設定された係数であるか,複数の参照フレームに対して共通に設定された係数であるかを示す情報,
または,当該参照フレームに対して個別に設定された係数であるか,予め定められた固定の係数であるかを示す情報,
または,当該参照フレームに対して個別に設定された係数であるか,複数の参照フレームに対して共通に設定された係数であるか,予め定められた固定の係数であるかを示す情報の,いずれかの情報である
ことを特徴とする動画像符号化方法。
The moving image encoding method according to claim 1,
In the filter control information, when there are M reference frames (M ≧ 2), the coefficient of the interpolation filter for the i-th (i = 0, 1,..., M−1) reference frame is
Information indicating whether the coefficient is individually set for the reference frame or commonly set for a plurality of reference frames;
Or information indicating whether the coefficient is individually set for the reference frame or a predetermined fixed coefficient,
Or a coefficient that is individually set for the reference frame, a coefficient that is commonly set for a plurality of reference frames, or a predetermined fixed coefficient, A moving picture encoding method, characterized by being either piece of information.
請求項1または請求項2記載の動画像符号化方法において,
前記補間フィルタの係数の設定単位は,符号化対象フレームまたは符号化対象フレームを分割した部分領域であるスライスであり,
前記補間フィルタの係数を適応的に設定する過程では,符号量・歪みコストを最小化する補間フィルタの係数を定めるフィルタ制御情報を設定する
ことを特徴とする動画像符号化方法。
In the moving image encoding method according to claim 1 or 2,
The setting unit of the coefficient of the interpolation filter is a slice that is an encoding target frame or a partial region obtained by dividing the encoding target frame,
In the process of adaptively setting the coefficient of the interpolation filter, filter control information for determining the coefficient of the interpolation filter that minimizes the code amount / distortion cost is set.
複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を用いて動画像を符号化する動画像符号化装置において,
前記動き補償フレーム間予測に用いる参照フレームに応じて小数画素位置の画素値を生成するために用いる補間フィルタの係数を適応的に設定する手段と,
前記補間フィルタの係数が,少なくとも個々の参照フレームに対して個別に設定された係数であるか否かを示すフィルタ制御情報を,前記各参照フレームごとに付加情報として符号化ストリーム中に加える手段と,
前記適応的に設定された係数を有する補間フィルタを用いて参照フレームの小数画素精度補間画像を生成し,小数画素精度に対応した動き補償フレーム間予測により符号化対象画像を符号化し,符号化ストリームを出力する手段とを備える
ことを特徴とする動画像符号化装置。
In a video encoding apparatus that references a plurality of decoded frames and encodes a video using motion compensated interframe prediction corresponding to decimal pixel accuracy,
Means for adaptively setting a coefficient of an interpolation filter used for generating a pixel value at a decimal pixel position according to a reference frame used for the motion compensation inter-frame prediction;
Means for adding filter control information indicating whether or not the coefficient of the interpolation filter is a coefficient set individually for at least each reference frame into the encoded stream as additional information for each reference frame; ,
An encoded stream is generated by generating a sub-pixel accuracy interpolated image of a reference frame using an interpolation filter having an adaptively set coefficient, encoding an encoding target image by motion compensation inter-frame prediction corresponding to the sub-pixel accuracy. A moving image encoding apparatus.
複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を用いて符号化された動画像の符号化ストリームを復号する動画像復号方法において,
動き補償フレーム間予測に用いる参照フレームに応じて小数画素位置の画素値を生成するために用いる補間フィルタの係数が,少なくとも個々の参照フレームに対して個別に設定された係数であるか否かを示すフィルタ制御情報を,符号化ストリームから抽出する過程と,
前記抽出したフィルタ制御情報に基づき,参照フレームに応じて小数画素位置の画素値生成に用いる補間フィルタの係数を適応的に設定する過程と,
前記適応的に設定された係数を有する補間フィルタを用いて参照フレームの小数画素精度補間画像を生成し,小数画素精度に対応した動き補償フレーム間予測により,符号化ストリーム中の復号対象画像を復号する過程とを有する
ことを特徴とする動画像復号方法。
In a moving picture decoding method for decoding a coded stream of a moving picture that is encoded using motion compensated interframe prediction corresponding to decimal pixel accuracy with reference to a plurality of decoded frames,
Whether or not the coefficient of the interpolation filter used for generating the pixel value at the decimal pixel position according to the reference frame used for the motion compensation inter-frame prediction is a coefficient set individually for at least each reference frame. Extracting the indicated filter control information from the encoded stream;
A process of adaptively setting a coefficient of an interpolation filter used for generating a pixel value at a decimal pixel position according to a reference frame based on the extracted filter control information;
The interpolation filter having the adaptively set coefficient is used to generate a decimal pixel accuracy interpolated image of the reference frame, and the decoding target image in the encoded stream is decoded by motion compensation interframe prediction corresponding to the decimal pixel accuracy. A moving picture decoding method.
請求項5記載の動画像復号方法において,
前記フィルタ制御情報は,参照フレームがM枚(M≧2)存在する場合に,第i番目(i=0,1,…,M−1)の参照フレームに対する補間フィルタの係数が,
当該参照フレームに対して個別に設定された係数であるか,複数の参照フレームに対して共通に設定された係数であるかを示す情報,
または,当該参照フレームに対して個別に設定された係数であるか,予め定められた固定の係数であるかを示す情報,
または,当該参照フレームに対して個別に設定された係数であるか,複数の参照フレームに対して共通に設定された係数であるか,予め定められた固定の係数であるかを示す情報の,いずれかの情報である
ことを特徴とする動画像復号方法。
The moving picture decoding method according to claim 5,
In the filter control information, when there are M reference frames (M ≧ 2), the coefficient of the interpolation filter for the i-th (i = 0, 1,..., M−1) reference frame is
Information indicating whether the coefficient is individually set for the reference frame or commonly set for a plurality of reference frames;
Or information indicating whether the coefficient is individually set for the reference frame or a predetermined fixed coefficient,
Or a coefficient that is individually set for the reference frame, a coefficient that is commonly set for a plurality of reference frames, or a predetermined fixed coefficient, A moving picture decoding method characterized in that the information is any one of the information.
請求項5または請求項6記載の動画像復号方法において,
前記補間フィルタの係数の設定単位は,復号対象フレームまたは復号対象フレームを分割した部分領域であるスライスである
ことを特徴とする動画像復号方法。
In the moving image decoding method according to claim 5 or 6,
The moving picture decoding method, wherein the coefficient setting unit of the interpolation filter is a decoding target frame or a slice that is a partial area obtained by dividing the decoding target frame.
複数の復号フレームを参照し,小数画素精度に対応した動き補償フレーム間予測を用いて符号化された動画像の符号化ストリームを復号する動画像復号装置において,
動き補償フレーム間予測に用いる参照フレームに応じて小数画素位置の画素値を生成するために用いる補間フィルタの係数が,少なくとも個々の参照フレームに対して個別に設定された係数であるか否かを示すフィルタ制御情報を,符号化ストリームから抽出する手段と,
前記抽出したフィルタ制御情報に基づき,参照フレームに応じて小数画素位置の画素値生成に用いる補間フィルタの係数を適応的に設定する手段と,
前記適応的に設定された係数を有する補間フィルタを用いて参照フレームの小数画素精度補間画像を生成し,小数画素精度に対応した動き補償フレーム間予測により,符号化ストリーム中の復号対象画像を復号する手段とを備える
ことを特徴とする動画像復号装置。
In a moving picture decoding apparatus that refers to a plurality of decoded frames and decodes an encoded stream of a moving picture that has been encoded using motion compensated inter-frame prediction corresponding to decimal pixel accuracy,
Whether or not the coefficient of the interpolation filter used for generating the pixel value at the decimal pixel position according to the reference frame used for the motion compensation inter-frame prediction is a coefficient set individually for at least each reference frame. Means for extracting the indicated filter control information from the encoded stream;
Means for adaptively setting a coefficient of an interpolation filter used for generating a pixel value at a decimal pixel position according to a reference frame based on the extracted filter control information;
The interpolation filter having the adaptively set coefficient is used to generate a decimal pixel accuracy interpolated image of the reference frame, and the decoding target image in the encoded stream is decoded by motion compensation interframe prediction corresponding to the decimal pixel accuracy. A moving picture decoding apparatus.
請求項1,請求項2または請求項3記載の動画像符号化方法を,コンピュータに実行させるための動画像符号化プログラム。   A moving picture coding program for causing a computer to execute the moving picture coding method according to claim 1, claim 2 or claim 3. 請求項5,請求項6または請求項7記載の動画像復号方法を,コンピュータに実行させるための動画像復号プログラム。   A moving picture decoding program for causing a computer to execute the moving picture decoding method according to claim 5, 6 or 7.
JP2010198552A 2010-09-06 2010-09-06 Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof Pending JP2012060208A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010198552A JP2012060208A (en) 2010-09-06 2010-09-06 Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010198552A JP2012060208A (en) 2010-09-06 2010-09-06 Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof

Publications (1)

Publication Number Publication Date
JP2012060208A true JP2012060208A (en) 2012-03-22

Family

ID=46056827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010198552A Pending JP2012060208A (en) 2010-09-06 2010-09-06 Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof

Country Status (1)

Country Link
JP (1) JP2012060208A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020156525A1 (en) * 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Multiple syntax elements for adaptive motion vector resolution
US11265573B2 (en) 2018-09-19 2022-03-01 Beijing Bytedance Network Technology Co., Ltd. Syntax reuse for affine mode with adaptive motion vector resolution
US11330289B2 (en) 2019-01-31 2022-05-10 Beijing Bytedance Network Technology Co., Ltd. Context for coding affine mode adaptive motion vector resolution
US11477458B2 (en) 2018-06-19 2022-10-18 Beijing Bytedance Network Technology Co., Ltd. Mode dependent motion vector difference precision set

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080175322A1 (en) * 2007-01-22 2008-07-24 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using adaptive interpolation filter
JP2008536414A (en) * 2005-04-13 2008-09-04 ゴットフリート・ヴィルヘルム・ライプニッツ・ウニヴェルジテート・ハノーヴァー Video extended encoding method and apparatus
WO2009047917A1 (en) * 2007-10-11 2009-04-16 Panasonic Corporation Video coding method and video decoding method
WO2009126911A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Prediction techniques for interpolation in video coding
WO2009126921A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Advanced interpolation techniques for motion compensation in video coding
WO2009126924A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Interpolation filter support for sub-pixel resolution in video coding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536414A (en) * 2005-04-13 2008-09-04 ゴットフリート・ヴィルヘルム・ライプニッツ・ウニヴェルジテート・ハノーヴァー Video extended encoding method and apparatus
US20080175322A1 (en) * 2007-01-22 2008-07-24 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using adaptive interpolation filter
WO2009047917A1 (en) * 2007-10-11 2009-04-16 Panasonic Corporation Video coding method and video decoding method
WO2009126911A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Prediction techniques for interpolation in video coding
WO2009126921A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Advanced interpolation techniques for motion compensation in video coding
WO2009126924A1 (en) * 2008-04-10 2009-10-15 Qualcomm Incorporated Interpolation filter support for sub-pixel resolution in video coding

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11477458B2 (en) 2018-06-19 2022-10-18 Beijing Bytedance Network Technology Co., Ltd. Mode dependent motion vector difference precision set
US11265573B2 (en) 2018-09-19 2022-03-01 Beijing Bytedance Network Technology Co., Ltd. Syntax reuse for affine mode with adaptive motion vector resolution
US11653020B2 (en) 2018-09-19 2023-05-16 Beijing Bytedance Network Technology Co., Ltd Fast algorithms for adaptive motion vector resolution in affine mode
US11330289B2 (en) 2019-01-31 2022-05-10 Beijing Bytedance Network Technology Co., Ltd. Context for coding affine mode adaptive motion vector resolution
WO2020156525A1 (en) * 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Multiple syntax elements for adaptive motion vector resolution

Similar Documents

Publication Publication Date Title
JP6702406B2 (en) Logical Intra Mode Naming in HEVC Video Coding
JP6097415B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding / decoding system, moving picture encoding method, and moving picture decoding method
JP7261275B2 (en) Method and apparatus for encoding or decoding video data in FRUC mode with reduced memory access
CN101553988B (en) Video encoding method, video encoding device, and video encoding program
JP2017184266A (en) Video decoder with enhanced cabac decoding
JP4987086B2 (en) Image encoding method and decoding method, apparatus thereof, program thereof, and recording medium recording the program
KR20140062448A (en) Flexible band offset mode in sample adaptive offset in hevc
JP6961115B2 (en) Image decoding device, image decoding method and program
WO2014087861A1 (en) Image processing device, image processing method, and program
TW202131681A (en) Determining a parametrization for context-adaptive binary arithmetic coding
JP2022539937A (en) Image component prediction method, encoder, decoder, and storage medium
JP2012060208A (en) Moving image encoding method, moving image encoding apparatus, moving image decoding method, moving image decoding apparatus, and program thereof
JP2015515812A (en) Apparatus and method for providing quantized coefficients for video coding
TWI555380B (en) Video encoding and decoding using reference pictures
EP2938076B1 (en) Motion video predict coding method, motion video predict coding device, motion video predict coding program, motion video predict decoding method, motion video predict decoding device and motion video predict decoding program
JP2012147291A (en) Image coding apparatus, image coding method, program, image decoding apparatus, image decoding method, and program
CN103688542A (en) Image coding method, image decoding method, image coding device, image decoding device, image coding program, and image decoding program
JPWO2018135520A1 (en) Quantization apparatus, quantization method and program
JP7034363B2 (en) Image decoder, image decoding method and program
JP6495834B2 (en) Video encoding method, video encoding apparatus, and video encoding program
JP2022079469A (en) Image decoder, image decoding method, and program
WO2016129185A1 (en) Moving image coding device, moving image decoding device, moving image processing system, moving image coding method, moving image decoding method, and program
Louw et al. A Symbol Based Distributed Video Coding System Using Multiple Hypotheses
JP2020150312A (en) Image decoder, image decoding method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015