JP2012089987A - Moving image encoder - Google Patents

Moving image encoder Download PDF

Info

Publication number
JP2012089987A
JP2012089987A JP2010233505A JP2010233505A JP2012089987A JP 2012089987 A JP2012089987 A JP 2012089987A JP 2010233505 A JP2010233505 A JP 2010233505A JP 2010233505 A JP2010233505 A JP 2010233505A JP 2012089987 A JP2012089987 A JP 2012089987A
Authority
JP
Japan
Prior art keywords
block
image
intra
target block
encoding target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010233505A
Other languages
Japanese (ja)
Other versions
JP5645589B2 (en
Inventor
Akimasa Osawa
淳真 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010233505A priority Critical patent/JP5645589B2/en
Publication of JP2012089987A publication Critical patent/JP2012089987A/en
Application granted granted Critical
Publication of JP5645589B2 publication Critical patent/JP5645589B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a moving image encoder capable of performing the improvement of encoded image quality and also the improvement of encoding efficiency.SOLUTION: An input block control part 3 reads an encoding object block and the images of its peripheral blocks from a frame memory 1 and outputs them. A correlation calculation part 5 outputs a block, as a succeeding encoding object block, with highest correlation between in-picture prediction images of the peripheral blocks based on the encoding object block and the original images of the peripheral blocks. An in-picture prediction mode determination part 6 determines an in-picture prediction mode with respect to the encoding object block. An in-picture prediction image generation part 11 generates the prediction image of the encoding object block in the determined in-picture prediction mode.

Description

本発明は、動画像を符号化する動画像符号化装置に関し、特に、画面内予測画像の生成に関するものである。   The present invention relates to a moving image encoding apparatus that encodes a moving image, and more particularly to generation of an intra prediction image.

従来の動画像符号化装置は、左上から順次横方向(ラスタ順)に符号化することを主として考えられているため、その画面内予測ではラスタ順に符号化した際に再生画像が存在する上および左方向からの予測をしている(例えば、非特許文献1参照)。また、符号化対象ブロックを符号化する時点で存在する再生画像で画面内予測してから対象ブロックの1回目の符号化をして再生画像を得てから、その再生画像を元に続くブロックの再生画像を得て最初の符号化対象ブロックの周辺再生画像を増やし、最初の符号化対象ブロックの周辺再生画像を増やしてから2回目の符号化をすることにより、上および左方向以外の画面内予測をする方法も提案されている(例えば、特許文献1参照)。   Since the conventional moving image encoding apparatus is mainly considered to sequentially encode in the horizontal direction (raster order) from the upper left, in the intra prediction, there is a reproduced image when encoded in raster order and The prediction is performed from the left direction (see, for example, Non-Patent Document 1). In addition, after predicting in-screen with a playback image existing at the time of encoding the block to be encoded, the first encoding of the target block is performed to obtain a playback image, and then the block of the block following the playback image By obtaining the playback image, increasing the peripheral playback image of the first encoding target block, increasing the peripheral playback image of the first encoding target block, and then performing the second encoding, so that the screen is not in the upper or left direction A prediction method has also been proposed (see, for example, Patent Document 1).

特開2009−272972号公報JP 2009-272972 A

ISO/IEC 14496-10 | ITU-T Recommendation H.264ISO / IEC 14496-10 | ITU-T Recommendation H.264

しかしながら、従来の動画像符号化装置は、符号化対象ブロックを現在存在する再生画像で画面内予測して符号化してからその再生画像を得て、その再生画像を元に続くブロックの再生画像を得て最初の符号化対象ブロックの周辺再生画像を増やし、最初の符号化対象ブロックの周辺再生画像を増やしてから最初の符号化対象ブロックの符号化をしている。そのため、繰り返し同じブロックの符号化を行うこととなり、処理時間が増えるという問題があった。   However, the conventional moving image encoding apparatus obtains a reproduction image after predicting and encoding the block to be encoded with the currently existing reproduction image and encoding the reproduction image of the block following the reproduction image. As a result, the number of peripheral reproduction images of the first encoding target block is increased, and the number of peripheral reproduction images of the first encoding target block is increased, and then the first encoding target block is encoded. For this reason, the same block is repeatedly encoded, which increases the processing time.

この発明は上記のような課題を解決するためになされたもので、符号化画質の向上と共に符号化効率を向上させることのできる動画像符号化装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to obtain a moving picture coding apparatus capable of improving coding efficiency as well as coding picture quality.

この発明に係る動画像符号化装置は、動画像をフレーム単位で保持するフレームメモリと、フレームメモリから符号化対象ブロックと、符号化対象ブロックの周辺ブロックの画像を読み出して出力する入力ブロック制御部と、符号化対象ブロックと周辺ブロックの原画像とを入力し、符号化対象ブロックに基づく周辺ブロックの画面内予測画像と、周辺ブロックの原画像との相関が最も高いブロックを次の符号化対象ブロックとして出力する相関演算部と、符号化対象ブロックに対する画面内予測モードを決定する画面内予測モード決定部と、画面内予測モード決定部で決定された画面内予測モードで、局部復号画像を用いて符号化対象ブロックの予測画像を生成する画面内予測画生成部と、符号化対象ブロックと、画面内予測画生成部から出力された予測画像との差分を出力する減算器と、減算器の出力を周波数変換および量子化する周波数変換量子化部と、周波数変換量子化部の出力をエントロピー符号化し、符号化信号として出力するエントロピー符号化部と、周波数変換量子化部の出力を逆量子化および逆周波数変換する逆量子化逆周波数変換部と、逆量子化逆周波数変換部の出力と、画面内予測画生成部で生成された予測画像とを加算する加算器と、加算器から出力された信号を局部復号画像として保持する局部復号画像メモリとを備え、相関演算部から出力される次の符号化対象ブロックを入力ブロック制御部が次に出力する符号化対象ブロックとするようにしたものである。   A moving image encoding apparatus according to the present invention includes a frame memory that holds a moving image in units of frames, an input block control unit that reads out and outputs an encoding target block from the frame memory and images of peripheral blocks of the encoding target block And the encoding target block and the original image of the peripheral block are input, and the block with the highest correlation between the predicted image in the peripheral block based on the encoding target block and the original image of the peripheral block is input to the next encoding target. Using a locally decoded image in a correlation calculation unit that outputs as a block, an intra prediction mode determination unit that determines an intra prediction mode for an encoding target block, and an intra prediction mode determined by an intra prediction mode determination unit From the intra-screen prediction image generation unit that generates the prediction image of the encoding target block, the encoding target block, and the intra-screen prediction image generation unit A subtractor that outputs the difference from the predicted image that has been input, a frequency transform quantizer that performs frequency transform and quantization on the output of the subtractor, and entropy-encode the output of the frequency transform quantizer and output it as an encoded signal An entropy encoding unit, an inverse quantization inverse frequency transform unit that inverse quantizes and inverse frequency transforms an output of the frequency transform quantization unit, an output of the inverse quantization inverse frequency transform unit, and an in-screen prediction image generation unit An adder that adds the generated predicted image and a local decoded image memory that holds the signal output from the adder as a local decoded image, and inputs the next encoding target block output from the correlation calculation unit The block control unit outputs the next block to be encoded.

この発明の動画像符号化装置は、符号化対象ブロックに基づく周辺ブロックの画面内予測画像と、周辺ブロックの原画像との相関が最も高いブロックを次の符号化対象ブロックとして出力するようにしたので、符号化画質を向上することができると共に、符号化効率を向上させることができる。   The moving picture coding apparatus according to the present invention outputs a block having the highest correlation between the intra-screen prediction image of the peripheral block based on the coding target block and the original image of the peripheral block as the next coding target block. Therefore, the encoded image quality can be improved and the encoding efficiency can be improved.

この発明の実施の形態1による動画像符号化装置を示す構成図である。It is a block diagram which shows the moving image encoder by Embodiment 1 of this invention. H.264/AVCの画面内予測における予測モードの説明図である。H. It is explanatory drawing of the prediction mode in the prediction in a screen of H.264 / AVC. この発明の実施の形態1による動画像符号化装置における予測モードの説明図である。It is explanatory drawing of the prediction mode in the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1による動画像符号化装置のN×N画素ブロックの座標を示す説明図である。It is explanatory drawing which shows the coordinate of the NxN pixel block of the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1による動画像符号化装置の動作タイミングを示す説明図である。It is explanatory drawing which shows the operation | movement timing of the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態2による動画像符号化装置を示す構成図である。It is a block diagram which shows the moving image encoder by Embodiment 2 of this invention. この発明の実施の形態2による動画像符号化装置の動作タイミングを示す説明図である。It is explanatory drawing which shows the operation | movement timing of the moving image encoder by Embodiment 2 of this invention.

実施の形態1.
図1は、この発明の実施の形態1による動画像符号化装置を示す構成図である。
図1に示す動画像符号化装置は、フレームメモリ1、符号化制御部2、入力ブロック制御部3、符号化済ブロック記憶部4、相関演算部5、画面内予測モード決定部6、減算器7、周波数変換量子化部8、逆量子化逆周波数変換部9、加算器10、画面内予測画生成部11、局部復号画像メモリ12、エントロピー符号化部13を備えている。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a moving picture coding apparatus according to Embodiment 1 of the present invention.
1 includes a frame memory 1, an encoding control unit 2, an input block control unit 3, an encoded block storage unit 4, a correlation calculation unit 5, an intra-screen prediction mode determination unit 6, and a subtractor. 7, a frequency transform quantization unit 8, an inverse quantization inverse frequency transform unit 9, an adder 10, an intra-screen prediction image generation unit 11, a locally decoded image memory 12, and an entropy coding unit 13.

フレームメモリ1は、入力した動画像をフレーム単位で保持するメモリである。符号化制御部2は、動画像符号化装置における符号化処理全体の制御を司る制御部であり、例えば、入力ブロック制御部3やエントロピー符号化部13に対して符号化対象ブロックの位置の指定を行う。入力ブロック制御部3は、符号化制御部2からフレーム内のどの位置から符号化を始めるかを示す始点情報を入力し、フレームメモリ1から矩形状に符号化対象ブロックと次の符号化対象候補となる符号化対象ブロックの周辺ブロックの原画像を読み出して、相関演算部5と画面内予測モード決定部6に符号化対象ブロックと次の符号化対象候補となる符号化対象ブロックの周辺ブロックの原画を出力すると共に、減算器7に符号化対象ブロックの原画を出力する回路である。符号化済ブロック記憶部4は、フレーム内でどの位置のブロックを符号化したかを記憶するメモリである。   The frame memory 1 is a memory that holds an input moving image in units of frames. The encoding control unit 2 is a control unit that controls the entire encoding process in the moving image encoding apparatus. For example, the position of the encoding target block is specified to the input block control unit 3 and the entropy encoding unit 13. I do. The input block control unit 3 inputs start point information indicating from which position in the frame to start encoding from the encoding control unit 2, and the encoding target block and the next encoding target candidate in a rectangular shape from the frame memory 1. The original image of the peripheral block of the encoding target block to be read is read out, and the correlation calculation unit 5 and the intra prediction mode determination unit 6 read the encoding target block and the peripheral block of the encoding target block as the next encoding target candidate. This is a circuit for outputting the original picture and outputting the original picture of the encoding target block to the subtracter 7. The encoded block storage unit 4 is a memory for storing which block in the frame is encoded.

相関演算部5は、入力ブロック制御部3から、符号化対象ブロックと次の符号化対象候補となる符号化対象ブロックの周辺ブロックの原画像を入力し、符号化対象ブロックに基づいて各周辺ブロックの予測画像を生成し、この予測画像と各周辺ブロックの原画像との相関を演算、比較し、相関の最も高いブロックの位置を次の符号化対象ブロックとして、入力ブロック制御部3と画面内予測モード決定部6とに出力する回路である。画面内予測モード決定部6は、入力ブロック制御部3から入力した符号化済ブロックの位置の情報に基づいて、符号化対象ブロックに対して360度からなる画面内予測モードの中から使用可能な予測モードの画面内予測画像を符号化対象ブロックの原画像から生成して、符号化対象ブロックの原画像との間で差分絶対値和演算を行い、最小値をとるものを予測モードとして選択して画面内予測画生成部11に出力する回路である。減算器7は、入力ブロック制御部3から符号化対象ブロックの原画像と画面内予測画生成部11から符号化対象ブロックの予測画像を入力し、減算して周波数変換量子化部8に出力する回路である。   The correlation calculation unit 5 inputs the original image of the peripheral block of the encoding target block and the encoding target block that is the next encoding target candidate from the input block control unit 3, and each peripheral block based on the encoding target block The predicted image is generated, and the correlation between the predicted image and the original image of each peripheral block is calculated and compared, and the position of the block having the highest correlation is set as the next encoding target block and the input block control unit 3 It is a circuit that outputs to the prediction mode determination unit 6. The intra-screen prediction mode determination unit 6 can be used from among the intra-screen prediction modes of 360 degrees with respect to the encoding target block based on the information on the position of the encoded block input from the input block control unit 3. The prediction mode intra-screen prediction image is generated from the original image of the encoding target block, the difference absolute value sum operation is performed with the original image of the encoding target block, and the one that takes the minimum value is selected as the prediction mode This is a circuit that outputs the predicted image generation unit 11 in the screen. The subtracter 7 receives the original image of the encoding target block from the input block control unit 3 and the prediction image of the encoding target block from the intra prediction image generation unit 11, subtracts it, and outputs it to the frequency transform quantization unit 8. Circuit.

周波数変換量子化部8は、減算器7から入力した符号化対象ブロック原画像と予測画像の差分を入力し、周波数変換および量子化を行って、量子化後の係数をエントロピー符号化部13および逆量子化逆周波数変換部9に出力する回路である。逆量子化逆周波数変換部9は、周波数変換量子化部8から、符号化対象ブロックの原画像と予測画像の差分画像を周波数変換した係数の量子化後の係数を入力し、逆量子化および逆周波数変換を行って加算器10に出力する回路である。加算器10は、逆量子化逆周波数変換部9から、逆量子化および逆周波数変換した量子化後係数と画面内予測画生成部11から符号化対象ブロックの予測画像を入力し、加算して局部復号画像メモリ12に出力する回路である。画面内予測画生成部11は、局部復号画像メモリ12から符号化対象ブロックの周辺画素を読み出し、画面内予測モード決定部6で決定した最適な画面内予測モードの画面内予測画像を生成する回路である。局部復号画像メモリ12は、加算器10から出力した局部復号画像を蓄積するメモリである。エントロピー符号化部13は、周波数変換量子化部8から入力した原画像と予測画像の差分画像に対して周波数変換および量子化した係数に対して符号化制御部2の指示を元にエントロピー符号化しストリームを出力する回路である。   The frequency transform quantization unit 8 inputs the difference between the encoding target block original image and the prediction image input from the subtractor 7, performs frequency conversion and quantization, and converts the quantized coefficients into the entropy encoding unit 13 and It is a circuit that outputs to the inverse quantization inverse frequency converter 9. The inverse quantization inverse frequency transform unit 9 receives from the frequency transform quantization unit 8 the quantized coefficient of the coefficient obtained by frequency transforming the difference image between the original image and the prediction image of the encoding target block, and performs inverse quantization and This circuit performs inverse frequency conversion and outputs the result to the adder 10. The adder 10 inputs the quantized coefficient obtained by inverse quantization and inverse frequency conversion from the inverse quantization inverse frequency transform unit 9 and the prediction image of the encoding target block from the intra prediction image generation unit 11 and adds them. This is a circuit for outputting to the locally decoded image memory 12. The intra-screen prediction image generation unit 11 reads out peripheral pixels of the encoding target block from the local decoded image memory 12, and generates a prediction image within the screen in the optimal intra-screen prediction mode determined by the intra-screen prediction mode determination unit 6. It is. The local decoded image memory 12 is a memory for storing the local decoded image output from the adder 10. The entropy encoding unit 13 performs entropy encoding on the difference image between the original image and the prediction image input from the frequency conversion quantization unit 8 based on the instruction of the encoding control unit 2 for the frequency converted and quantized coefficients. This circuit outputs a stream.

次に、実施の形態1の動画像符号化装置の動作について説明する。
ところで、既知の通り、H.264/AVCの画面内予測では4×4画素ブロック、8×8画素ブロックの場合に図2に示す方向およびDC予測の9種類の予測モードがある。本発明の動画像符号化装置では、N×N画素ブロックの画面内予測において図3に示すように、H.264/AVCの9種の予測に加え、a、b、c、d、e、f、g、hの8種の方向の予測モードを追加する。例えば、対象のN×N画素ブロックの座標を図4のように規定した場合、図3の予測モードの予測画生成式を以下とする。また、N=2とし、mは自然数である。
Next, the operation of the moving picture coding apparatus according to Embodiment 1 will be described.
By the way, as known, In the intra-frame prediction of H.264 / AVC, in the case of a 4 × 4 pixel block and an 8 × 8 pixel block, there are nine types of prediction modes of direction and DC prediction shown in FIG. In the moving picture coding apparatus according to the present invention, as shown in FIG. In addition to the nine types of prediction of H.264 / AVC, prediction modes of eight types of a, b, c, d, e, f, g, and h are added. For example, when the coordinates of the target N × N pixel block are defined as shown in FIG. 4, the prediction image generation formula in the prediction mode of FIG. N = 2 m , where m is a natural number.

対象ブロックの周辺画素をp[x,y]で示す。p[x,y]の画素はフィルタリングしたものを用いても良い。また“>>”は右シフトを示す。
<予測モード0>
p[x,-1] x=0..N-1の画素が存在するとき
predN×N[x,y]=p[x,-1] x,y=0..N-1
The peripheral pixel of the target block is indicated by p [x, y]. A filtered pixel may be used for the pixel of p [x, y]. “>>” indicates a right shift.
<Prediction mode 0>
p [x, -1] When x = 0..N-1 pixel exists
predN × N [x, y] = p [x, -1] x, y = 0..N-1

<予測モード1>
p[-1,y] x=0..N-1の画素が存在するとき
predN×N[x,y]=p[-1,y] x,y=0..N-1
<Prediction mode 1>
p [-1, y] x = 0..N-1 pixel exists
predN × N [x, y] = p [-1, y] x, y = 0..N-1

<予測モード2>
p[x,-1] x=0..N-1とp[-1,y] y=0..N-1が存在するとき、x,y=0..N-1の式は以下に示す通りである。

Figure 2012089987
p[x,-1] x=0..N-1が存在せず、p[-1,y] y=0..N-1が存在するとき、x,y=0..N-1の式は以下に示す通りである。
Figure 2012089987
p[-1,y] y=0..N-1が存在せず、p[x,-1] x=0..N-1が存在するとき、x,y=0..N-1の式は以下に示す通りである。
Figure 2012089987
上記以外
predN×N[x,y]=(1<<(BitDepthy-1)) BitDepthy=8..14 <Prediction mode 2>
When p [x, -1] x = 0..N-1 and p [-1, y] y = 0..N-1 exist, the equation for x, y = 0..N-1 is As shown in
Figure 2012089987
When p [x, -1] x = 0..N-1 does not exist and p [-1, y] y = 0..N-1 exists, x, y = 0..N-1 The formula of is as follows.
Figure 2012089987
When p [-1, y] y = 0..N-1 does not exist and p [x, -1] x = 0..N-1 exists, x, y = 0..N-1 The formula of is as follows.
Figure 2012089987
Other than those above
predN × N [x, y] = (1 << (BitDepthy-1)) BitDepthy = 8..14

<予測モード3>
p[x,-1] x=0..2N-1の画素が存在するとき、x,y=0..N-1の式は以下の通りである。
x=N-1かつy=N-1のとき
predN×N[x,y]=(p[2N-2,-1]+3*p[2N-1,-1]+2)>>2
上記以外
predN×N[x,y]=(p[x+y,-1]+2*p[x+y+1,-1]+p[x+y+2,-1]+2)>>2
<Prediction mode 3>
When there is a pixel of p [x, -1] x = 0..2N-1, the expression of x, y = 0..N-1 is as follows.
When x = N-1 and y = N-1
predN × N [x, y] = (p [2N-2, -1] + 3 * p [2N-1, -1] +2) >> 2
Other than those above
predN × N [x, y] = (p [x + y, -1] + 2 * p [x + y + 1, -1] + p [x + y + 2, -1] +2) >> 2

<予測モード4>
p[x,-1] x=0..N-1とp[-1,y]=y=-1..N-1が存在するとき、x,y=0..N-1の式は以下の通りである。
x>yのとき
predN×N[x,y]=(p[x-y-2,-1]+2*p[x-y-1,-1]+p[x-y,-1]+2)>>2
x<yのとき
predN×N[x,y]=(p[-1,y-x-2]+2*p[-1,y-x-1]+p[-1,y-x]+2)>>2
x=yのとき
predN×N[x,y]=(p[0,-1]+2*p[-1,-1]+p[-1,0]+2]>>2
<Prediction mode 4>
When p [x, -1] x = 0..N-1 and p [-1, y] = y = -1..N-1 exist, the expression x, y = 0..N-1 Is as follows.
When x> y
predN × N [x, y] = (p [xy-2, -1] + 2 * p [xy-1, -1] + p [xy, -1] +2) >> 2
when x <y
predN × N [x, y] = (p [-1, yx-2] + 2 * p [-1, yx-1] + p [-1, yx] +2) >> 2
When x = y
predN × N [x, y] = (p [0, -1] + 2 * p [-1, -1] + p [-1,0] +2] >> 2

<予測モード5>
p[x,-1] x=0..N-1とp[-1,y]=y=-1..N-1が存在するとき
zVR=2x-yとしてx,y=0..N-1の式は以下の通りである。
zVR=0..2(N-1)の偶数のとき
predN×N[x,y]=(p[x-(y>>1)-1,-1]+p[x-(y>>1),-1]+1)>>1
zVR=1..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[x-(y>>1)-2,-1]+2*p[x-(y>>1)-1,-1]+p[x-(y>>1),-1]+2)>>2
zVR=-1のとき
predN×N[x,y]=(p[-1,0]+2*p[-1,-1]+p[0,-1]+2)>>2
上記以外
predN×N[x,y]=(p[-1,y-2*x-1]+2*p[-1,y-2*x-2]+p[-1,y-2*x-3]+2)>>2
<Prediction mode 5>
When p [x, -1] x = 0..N-1 and p [-1, y] = y = -1..N-1 exist
When zVR = 2x-y, the equation of x, y = 0..N-1 is as follows.
When zVR = 0..2 (N-1) is an even number
predN × N [x, y] = (p [x- (y >> 1) -1, -1] + p [x- (y >> 1),-1] +1) >> 1
When zVR = 1..2 (N-1) -1 is an odd number
predN × N [x, y] = (p [x- (y >> 1) -2, -1] + 2 * p [x- (y >> 1) -1, -1] + p [x- (y >> 1),-1] +2) >> 2
When zVR = -1
predN × N [x, y] = (p [-1,0] + 2 * p [-1, -1] + p [0, -1] +2) >> 2
Other than those above
predN × N [x, y] = (p [-1, y-2 * x-1] + 2 * p [-1, y-2 * x-2] + p [-1, y-2 * x -3] +2) >> 2

<予測モード6>
p[x,-1] x=0..N-1とp[-1,y]=y=-1..N-1が存在するとき
zHD=2y-xとしてx,y=0..N-1の式は以下の通りである。
zHD=0..2(N-1)の偶数のとき
predN×N[x,y]=(p[-1,y-(x>>1)-1]+p[-1,y-(x>>1)]+1)>>1
zHD=1..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[-1,y-(x>>1)-2]+2*p[-1,y-(x>>1)-1]+p[-1,y-(x>>1)]+2)>>2
zHD=-1のとき
predN×N[x,y]=(p[-1,0]+2*p[-1,-1]+p[0,-1]+2)>>2
上記以外
predN×N[x,y]=(p[x-2*y-1,-1]+2*p[x-2*y-2,-1]+p[x-2*y-3,-1]+2)>>2
<Prediction mode 6>
When p [x, -1] x = 0..N-1 and p [-1, y] = y = -1..N-1 exist
The formula of x, y = 0..N-1 when zHD = 2y-x is as follows.
When zHD = 0..2 (N-1) is an even number
predN × N [x, y] = (p [-1, y- (x >> 1) -1] + p [-1, y- (x >> 1)] + 1) >> 1
When zHD = 1..2 (N-1) -1 is an odd number
predN × N [x, y] = (p [-1, y- (x >> 1) -2] + 2 * p [-1, y- (x >> 1) -1] + p [-1 , y- (x >> 1)] + 2) >> 2
When zHD = -1
predN × N [x, y] = (p [-1,0] + 2 * p [-1, -1] + p [0, -1] +2) >> 2
Other than those above
predN × N [x, y] = (p [x-2 * y-1, -1] + 2 * p [x-2 * y-2, -1] + p [x-2 * y-3, -1] +2) >> 2

<予測モード7>
p[x,-1] x=0..2N-1の画素が存在するとき、x,y=0..N-1の式は以下の通りである。
y=0..N-2の偶数のとき
predN×N[x,y]=(p[x+(y>>1),-1]+p[x+(y>>1)+1,-1]+1)>>1
y=1..N-1の奇数のとき
predN×N[x,y]=(p[x+(y>>1),-1]+2*p[x+(y>>1)+1,-1]+p[x+(y>>1)+2,-1]+2)>>2
<Prediction mode 7>
When there is a pixel of p [x, -1] x = 0..2N-1, the expression of x, y = 0..N-1 is as follows.
When y = 0..N-2 is even
predN × N [x, y] = (p [x + (y >> 1),-1] + p [x + (y >> 1) + 1, -1] +1) >> 1
When y = 1..N-1 is odd
predN × N [x, y] = (p [x + (y >> 1),-1] + 2 * p [x + (y >> 1) + 1, -1] + p [x + (y >> 1 ) + 2, -1] +2) >> 2

<予測モード8>
p[-1,y]=y=-1..N-1が存在するとき
zHU=x+2yとしてx,y=0..N-1の式は以下の通りである。
zHU=0..2(N-1)-2の偶数のとき
predN×N[x,y]=(p[-1,y+(x>>1)]+p[-1,y+(x>>1)+1]+1)>>1
zHU=1..2(N-1)-3の奇数のとき
predN×N[x,y]=(p[-1,y+(x>>1)]+2*p[-1,y+(x>>1)+1]+p[-1,y+(x>>1)+2]+2)>>2
zHU=2(N-1)-1のとき
predN×N[x,y]=(p[-1,N-2]+3*p[-1,N-1]+2)>>2
上記以外のとき
predN×N[x,y]=p[-1,N-1]
<Prediction mode 8>
When p [-1, y] = y = -1..N-1 exists
When zHU = x + 2y, the formula of x, y = 0..N-1 is as follows.
When zHU = 0..2 (N-1) -2 is even
predN × N [x, y] = (p [-1, y + (x >> 1)] + p [-1, y + (x >> 1) +1] +1) >> 1
When zHU = 1..2 (N-1) -3 is an odd number
predN × N [x, y] = (p [-1, y + (x >> 1)] + 2 * p [-1, y + (x >> 1) +1] + p [-1, y + (x >> 1) +2] +2) >> 2
When zHU = 2 (N-1) -1
predN × N [x, y] = (p [-1, N-2] + 3 * p [-1, N-1] +2) >> 2
Other than the above
predN × N [x, y] = p [-1, N-1]

<予測方向a>
p[N,y] y=0..N-1の画素が存在するとき
predN×N[x,y]=p[N,y] x,y=0..N-1
<予測方向b>
p[x,N] x=0..N-1の画素が存在するとき
predN×N[x,y]=p[x,N] x,y=0..N-1
<Predicted direction a>
p [N, y] when y = 0..N-1 pixel exists
predN × N [x, y] = p [N, y] x, y = 0..N-1
<Predicted direction b>
p [x, N] When there is a pixel with x = 0..N-1
predN × N [x, y] = p [x, N] x, y = 0..N-1

<予測方向c>
p[x,N] x=0..N-1とp[-1,y] y=0..Nの画素が存在するとき、x,y=0..N-1の式は以下の通りである。
x+y>N-1のとき
predN×N[x,y]=(p[x+y-(N-1)-2,N]+2*p[x+y-(N-1)-1,N]+p[x+y-(N-1),N]+2)>>2
x+y<N-1のとき
predN×N[x,y]=(p[-1,N-1-(x+y)+2]+2*p[-1,N-1-(x+y)+1]+p[-1,N-1-(x+y)]+2)>>2
x+y=N-1のとき
predN×N[x,y]=(p[0,N]+2*p[-1,N]+p[-1,N-1]+2)>>2
<Predicted direction c>
When there are pixels of p [x, N] x = 0..N-1 and p [-1, y] y = 0..N, the equation of x, y = 0..N-1 is Street.
When x + y> N-1
predN × N [x, y] = (p [x + y- (N-1) -2, N] + 2 * p [x + y- (N-1) -1, N] + p [x + y- (N-1), N] +2) >> 2
When x + y <N-1
predN × N [x, y] = (p [-1, N-1- (x + y) +2] + 2 * p [-1, N-1- (x + y) +1] + p [ -1, N-1- (x + y)] + 2) >> 2
When x + y = N-1
predN × N [x, y] = (p [0, N] + 2 * p [-1, N] + p [-1, N-1] +2) >> 2

<予測方向d>
p[x,N] x=0..N-1とp[N,y] y=0..Nの画素が存在するとき、x,y=0..N-1の式は以下の通りである。
x>yのとき
predN×N[x,y]=(p[N,x-y+N-2]+2*p[N,x-y+N-1]+p[N,x-y+N]+2)>>2
x<yのとき
predN×N[x,y]=(p[y-x+N-2,N]+2*p[y-x+N-1,N]+p[y-x+N,N]+2)>>2
x=yのとき
predN×N[x,y]=(p[N-1,N]+2*p[N,N]+p[N,N-1]+2)>>2
<Predicted direction d>
When there are pixels with p [x, N] x = 0..N-1 and p [N, y] y = 0..N, the equation for x, y = 0..N-1 is It is.
When x> y
predN × N [x, y] = (p [N, x-y + N-2] + 2 * p [N, x-y + N-1] + p [N, x-y + N] +2 ) >> 2
when x <y
predN × N [x, y] = (p [y-x + N-2, N] + 2 * p [y-x + N-1, N] + p [y-x + N, N] +2 ) >> 2
When x = y
predN × N [x, y] = (p [N-1, N] + 2 * p [N, N] + p [N, N-1] +2) >> 2

<予測方向e>
p[x,N] x=0..N-1とp[N,y] y=0..Nの画素が存在するとき
zVUL=-2x+y+(N-1)としてx,y=0..N-1の式は以下の通りである。
zVUL=0,2,4,6..2(N-1)の偶数のとき
predN×N[x,y]=(p[(N-1)-{-2x+y+(N-1)}>>1,N]+p[(N-1)-{-2x+y+(N-1)}>>1+1,N]+1)>>1
zVUL=1,3,5..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[(N-1)-{-2x+y+(N-1)}>>1-1,N]+2*p[(N-1)-{-2x+y+(N-1)}>>1,N]+p[(N-1)-{-2x+y+(N-1)}>>1+1,N]+2)>>2
zVUL=-1のとき
predN×N[x,y]=(p[N-1,N]+2*p[N,N]+p[N,N-1]+2)>>2
zVUL<-1
predN×N[x,y]=(p[N,-2x+y+2(N-1)+1]+2*p[N,-2x+y+2(N-1)+2]+p[N,-2x+y+2(N-1)+3]+2)>>2
<Predicted direction e>
When there are pixels of p [x, N] x = 0..N-1 and p [N, y] y = 0..N
The formula of x, y = 0..N-1 is as follows, where zVUL = -2x + y + (N-1).
When zVUL = 0,2,4,6..2 (N-1) is an even number
predN × N [x, y] = (p [(N-1)-{-2x + y + (N-1)} >> 1, N] + p [(N-1)-{-2x + y + ( N-1)} >> 1 + 1, N] +1) >> 1
When zVUL = 1,3,5..2 (N-1) -1 is odd
predN × N [x, y] = (p [(N-1)-{-2x + y + (N-1)} >> 1-1, N] + 2 * p [(N-1)-{- 2x + y + (N-1)} >> 1, N] + p [(N-1)-{-2x + y + (N-1)} >> 1 + 1, N] +2) >> 2
When zVUL = -1
predN × N [x, y] = (p [N-1, N] + 2 * p [N, N] + p [N, N-1] +2) >> 2
zVUL <-1
predN × N [x, y] = (p [N, -2x + y + 2 (N-1) +1] + 2 * p [N, -2x + y + 2 (N-1) +2] + p [N, -2x + y + 2 (N-1) +3] +2) >> 2

<予測方向f>
p[x,N] x=0..N-1とp[N,y] y=0..Nの画素が存在するとき
zHLU=-2y+x+(N-1)としてx,y=0..N-1の式は以下の通りである。
zHLU=0,2,4,6..2(N-1)の偶数のとき
predN×N[x,y]=(p[N,(N-1)-{-2y+x+(N-1)}>>1]+p[N,(N-1)-{-2y+x+(N-1)}>>1+1]+1)>>1
zHLU=1,3,5..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[N,(N-1)-{-2y+x+(N-1)}>>1-1]+2*p[N,(N-1)-{-2y+x+(N-1)}>>1]+p[N,(N-1)-{-2y+x+(N-1)}>>1+1]+2)>>2
zHLU=-1のとき
predN×N[x,y]=(p[N-1,N]+2*p[N,N]+p[N,N-1]+2)>>2
zHLU<-1のとき
predN×N[x,y]=(p[-2y+x+2(N-1)+1,N]+2*p[-2y+x+2(N-1)+2,N]+p[-2y+x+2(N-1)+3,N]+2)>>2
<Predicted direction f>
When there are pixels of p [x, N] x = 0..N-1 and p [N, y] y = 0..N
The formula of x, y = 0..N-1 is as follows, where zHLU = -2y + x + (N-1).
When zHLU = 0,2,4,6..2 (N-1) is an even number
predN × N [x, y] = (p [N, (N-1)-{-2y + x + (N-1)} >> 1] + p [N, (N-1)-{-2y + x + (N-1)} >> 1 + 1] +1) >> 1
When zHLU = 1,3,5..2 (N-1) -1 is odd
predN × N [x, y] = (p [N, (N-1)-{-2y + x + (N-1)} >> 1-1] + 2 * p [N, (N-1)- {-2y + x + (N-1)} >> 1] + p [N, (N-1)-{-2y + x + (N-1)} >> 1 + 1] +2) >> 2
When zHLU = -1
predN × N [x, y] = (p [N-1, N] + 2 * p [N, N] + p [N, N-1] +2) >> 2
When zHLU <-1
predN × N [x, y] = (p [-2y + x + 2 (N-1) + 1, N] + 2 * p [-2y + x + 2 (N-1) + 2, N] + p [-2y + x + 2 (N-1) + 3, N] +2) >> 2

<予測方向g>
p[x,N] x=0..N-1とp[-1,y] y=0..Nの画素が存在するとき
zVUR=2x+y-(N-1)として、x,y=0..N-1の式は以下の通りである。
zVUR=0,2,4,6..2(N-1)の偶数のとき
predN×N[x,y]=(p[{2x+y-(N-1)}>>1-1,N]+p[{2x+y-(N-1)}>>1>>2,N]+1)>>1
zVUR=1,3,5..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[{2x+y-(N-1)}>>1-1,N]+2*p[{2x+y-(N-1)}>>1,N]+p[{2x+y-(N-1)}>>1+1,N]+2)>>2
zVUR=-1のとき
predN×N[x,y]=(p[-1,N-1]+2*p[-1,N]+p[0,N]+2)>>2
zVUR<-1のとき
predN×N[x,y]=(p[-1,2x+y+1]+2*p[-1,2x+y+2]+p[-1,2x+y+3]+2)>>2
<Predicted direction g>
When there are pixels of p [x, N] x = 0..N-1 and p [-1, y] y = 0..N
As zVUR = 2x + y- (N-1), the equation of x, y = 0..N-1 is as follows.
When zVUR = 0,2,4,6..2 (N-1) is an even number
predN × N [x, y] = (p [{2x + y- (N-1)} >> 1-1, N] + p [{2x + y- (N-1)} >> 1 >> 2, N] +1) >> 1
When zVUR = 1,3,5..2 (N-1) -1 is odd
predN × N [x, y] = (p [{2x + y- (N-1)} >> 1-1, N] + 2 * p [{2x + y- (N-1)} >> 1 , N] + p [{2x + y- (N-1)} >> 1 + 1, N] +2) >> 2
When zVUR = -1
predN × N [x, y] = (p [-1, N-1] + 2 * p [-1, N] + p [0, N] +2) >> 2
When zVUR <-1
predN × N [x, y] = (p [-1,2x + y + 1] + 2 * p [-1,2x + y + 2] + p [-1,2x + y + 3] +2) >> 2

<予測方向h>
p[x,N] x=0..N-1とp[N,y] y=0..Nの画素が存在するとき
zHLD=2y+x-(N-1)として、x,y=0..N-1の式は以下の通りである。
zHLD=0,2,4,6..2(N-1)の偶数のとき
predN×N[x,y]=(p[N,{2y+x-(N-1)}>>1-1]+p[N,{2y+x-(N-1)}>>1]+1)>>1
zHLD=1,3,5..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[N,{2y+x-(N-1)}>>1-1]+2*p[N,{2y+x-(N-1)}>>1]+p[N,{2y+x-(N-1)}>>1+1]+2)>>2
zHLD=-1のとき
predN×N[x,y]=(p[N-1,-1]+2*p[N,-1]+p[N,0]+2)>>2
zHLD<-1のとき
predN×N[x,y]=(p[2y+x+1,-1]+2*p[2y+x+2,-1]+p[2y+x+3,-1]+2)>>2
<Predicted direction h>
When there are pixels of p [x, N] x = 0..N-1 and p [N, y] y = 0..N
Assuming zHLD = 2y + x- (N-1), the equation of x, y = 0..N-1 is as follows.
When zHLD = 0,2,4,6..2 (N-1) is an even number
predN × N [x, y] = (p [N, {2y + x- (N-1)} >> 1-1] + p [N, {2y + x- (N-1)} >> 1 ] +1) >> 1
When zHLD = 1,3,5..2 (N-1) -1 is odd
predN × N [x, y] = (p [N, {2y + x- (N-1)} >> 1-1] + 2 * p [N, {2y + x- (N-1)}>> 1] + p [N, {2y + x- (N-1)} >> 1 + 1] +2) >> 2
When zHLD = -1
predN × N [x, y] = (p [N-1, -1] + 2 * p [N, -1] + p [N, 0] +2) >> 2
When zHLD <-1
predN × N [x, y] = (p [2y + x + 1, -1] + 2 * p [2y + x + 2, -1] + p [2y + x + 3, -1] +2) >> 2

また、予測モード3、7、8については、本発明の動画像符号化装置では以下のようなものを用いることも出来る。
<予測方向3>
p[x,-1] x=0..N-1とp[N,y] y=0..Nの画素が存在するとき、x,y=0..N-1の式は以下の通りである。
x+y>N-1のとき
predN×N[x,y]=(p[N,x+y-(N-1)]+2*p[N,x+y-(N-1)-1]+p[N,x+y-(N-1)-2]+2)>>2
x+y<N-1のとき
predN×N[x,y]=(p[x+y,-1]+2*p[x+y+1,-1]+p[x+y+2,-1]+2)>>2
x+y=N-1のとき
predN×N[x,y]=(p[N-1,-1]+2*p[N,-1]+p[N,0]+2)>>2
As for the prediction modes 3, 7, and 8, the following can be used in the moving picture encoding apparatus of the present invention.
<Predicted direction 3>
When there are pixels with p [x, -1] x = 0..N-1 and p [N, y] y = 0..N, the equation for x, y = 0..N-1 is Street.
When x + y> N-1
predN × N [x, y] = (p [N, x + y- (N-1)] + 2 * p [N, x + y- (N-1) -1] + p [N, x + y- (N-1) -2] +2) >> 2
When x + y <N-1
predN × N [x, y] = (p [x + y, -1] + 2 * p [x + y + 1, -1] + p [x + y + 2, -1] +2) >> 2
When x + y = N-1
predN × N [x, y] = (p [N-1, -1] + 2 * p [N, -1] + p [N, 0] +2) >> 2

<予測方向7>
p[x,-1] x=0..N-1とp[N,y] y=0..Nの画素が存在するとき
zVDL=-2x-y+2(N-1)としてx,y=0..N-1の式は以下の通りである。
zVDL=0,2,4,6..2(N-1)の偶数のとき
predN×N[x,y]=(p[(N-1)-{-2x+2(N-1)-y}>>1,-1]+p[(N-1)-{-2x+2(N-1)-y}>>1+1,-1]+1)>>1
zVDL=1,3,5..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[(N-1)-{-2x+2(N-1)-y}>>1-1,-1]+2*p[(N-1)-{-2x+2(N-1)-y}>>1,-1]+p[(N-1)-{-2x+2(N-1)-y}>>1+1,-1]+2)>>2
zVDL=-1のとき
predN×N[x,y]=(p[N-1,-1]+2*p[N,-1]+p[N,0]+2)>>2
zVDL<-1のとき
predN×N[x,y]=(p[N,2x+y-2(N-1)-1]+2*p[N,2x+y-2(N-1)-2]+p[N,2x+y-2(N-1)-3]+2)>>2
<Predicted direction 7>
When there are pixels of p [x, -1] x = 0..N-1 and p [N, y] y = 0..N
The formula of x, y = 0..N-1 is as follows, where zVDL = -2x-y + 2 (N-1).
When zVDL = 0,2,4,6..2 (N-1) is an even number
predN × N [x, y] = (p [(N-1)-{-2x + 2 (N-1) -y} >> 1, -1] + p [(N-1)-{-2x +2 (N-1) -y} >> 1 + 1, -1] +1) >> 1
When zVDL = 1,3,5..2 (N-1) -1 is odd
predN × N [x, y] = (p [(N-1)-{-2x + 2 (N-1) -y} >> 1-1, -1] + 2 * p [(N-1) -{-2x + 2 (N-1) -y} >> 1, -1] + p [(N-1)-{-2x + 2 (N-1) -y} >> 1 + 1,- 1] +2) >> 2
When zVDL = -1
predN × N [x, y] = (p [N-1, -1] + 2 * p [N, -1] + p [N, 0] +2) >> 2
When zVDL <-1
predN × N [x, y] = (p [N, 2x + y-2 (N-1) -1] + 2 * p [N, 2x + y-2 (N-1) -2] + p [ N, 2x + y-2 (N-1) -3] +2) >> 2

<予測方向8>
p[x,N] x=0..N-1 p[-1,y] y=0..Nの画素が存在するとき
zHUL=-x-2y+2(N-1)としてx,y=0..N-1の式は以下の通りである。
zHUL=0,2,4,6..2(N-1)の偶数のとき
predN×N[x,y]=(p[-1,(N-1)-{-x-2y+2(N-1)}>>1]+p[-1,(N-1)-{-x-2y+2(N-1)}>>1+1]+1)>>1
zHUL=1,3,5,7..2(N-1)-1の奇数のとき
predN×N[x,y]=(p[-1,(N-1)-{-x-2y+2(N-1)}>>1-1]+2*p[-1,(N-1)-{-x-2y+2(N-1)}>>1]+p[-1,(N-1)-{-x-2y+2(N-1)}>>1+1] +1)>>1
zHUL=-1のとき
predN×N[x,y]=(p[-1,N-1]+2*p[-1,N]+p[0,N]+2)>>2
zHUL<-1のとき
predN×N[x,y]=(p[x+2y-2(N-1)-1,N]+2*p[x+2y-2(N-1)-2,N]+p[x+2y-2(N-1)-3,N]+2)>>2
<Predicted direction 8>
p [x, N] x = 0..N-1 p [-1, y] y = 0..N
The formula of x, y = 0..N-1 is as follows, where zHUL = -x-2y + 2 (N-1).
When zHUL = 0,2,4,6..2 (N-1) is an even number
predN × N [x, y] = (p [-1, (N-1)-{-x-2y + 2 (N-1)} >> 1] + p [-1, (N-1)- {-x-2y + 2 (N-1)} >> 1 + 1] +1) >> 1
When zHUL = 1,3,5,7..2 (N-1) -1 is odd
predN × N [x, y] = (p [-1, (N-1)-{-x-2y + 2 (N-1)} >> 1-1] + 2 * p [-1, (N -1)-{-x-2y + 2 (N-1)} >> 1] + p [-1, (N-1)-{-x-2y + 2 (N-1)} >> 1+ 1] +1) >> 1
When zHUL = -1
predN × N [x, y] = (p [-1, N-1] + 2 * p [-1, N] + p [0, N] +2) >> 2
When zHUL <-1
predN × N [x, y] = (p [x + 2y-2 (N-1) -1, N] + 2 * p [x + 2y-2 (N-1) -2, N] + p [ x + 2y-2 (N-1) -3, N] +2) >> 2

本発明の動画像符号化装置では以上の式を用いて、各予測モードに対応した画面内予測画を生成する。
図5に図1の符号化装置のタイミングチャート概略を示す。以下の説明は図5に沿うものである。
動画像符号化装置に入力する動画像はフレームメモリ1にフレーム単位で保持する。
先ず、期間1について説明する。
入力ブロック制御部3は、符号化制御部2指示の最初の符号化対象ブロックと次の符号化対象候補となる符号化対象ブロックの周辺の上下左右4ブロックを読み出し、符号化済ブロック記憶部4より入力した位置情報を元に生成した入力ブロックの周辺画素符号化済ブロック有無情報と最初の符号化対象ブロックを画面内予測モード決定部6へ、最初の符号化対象ブロックと次の符号化対象ブロックとなる上下左右の4ブロックを相関演算部5へ、最初の符号化対象ブロックを減算器7へ出力する。
また、最初の符号化対象ブロックを符号化済として符号化済ブロック記憶部4に出力し、符号化済ブロック記憶部4はそのブロック位置を記憶する。
The moving image encoding apparatus of the present invention generates an intra-screen prediction image corresponding to each prediction mode using the above formula.
FIG. 5 shows a schematic timing chart of the encoding apparatus of FIG. The following description follows FIG.
The moving image input to the moving image encoding apparatus is held in the frame memory 1 in units of frames.
First, the period 1 is described.
The input block control unit 3 reads the first block to be coded specified by the coding control unit 2 and the upper, lower, left, and right four blocks around the next block to be coded, and the coded block storage unit 4 Neighboring pixel encoded block presence / absence information of the input block generated based on the input position information and the first encoding target block to the intra prediction mode determination unit 6, the first encoding target block and the next encoding target The upper, lower, left, and right 4 blocks that are blocks are output to the correlation calculation unit 5 and the first block to be encoded is output to the subtractor 7.
Also, the first block to be encoded is encoded and output to the encoded block storage unit 4, and the encoded block storage unit 4 stores the block position.

画面内予測モード決定部6は、最初に符号化するブロックでは周辺に符号化済ブロックは存在せず再生画像がないことから周辺画素が存在せずとも予測画像を生成することが出来る予測モード2のDC予測モードに決定し、予測モードを画面内予測画生成部11へ出力する。
画面内予測画生成部11は画面内予測モード決定部6で決定した予測モード2の最初の符号化対象ブロックの画面内予測画像を生成し、減算器7および加算器10へ出力する。
The intra-screen prediction mode determination unit 6 can generate a prediction image even when there are no peripheral pixels since there are no encoded blocks in the vicinity and no reproduced image in the block to be encoded first. The DC prediction mode is determined, and the prediction mode is output to the intra-screen prediction image generation unit 11.
The intra-screen prediction image generation unit 11 generates an intra-screen prediction image of the first encoding target block in the prediction mode 2 determined by the intra-screen prediction mode determination unit 6, and outputs it to the subtracter 7 and the adder 10.

相関演算部5は、入力ブロック制御部3から最初の符号化ブロックおよび次の符号化ブロック候補である隣接4ブロックの原画像を入力する。先ず原画像の最初の符号化対象ブロック画素から隣接4ブロックの生成可能な予測画像を生成する。例えば、上隣接ブロックに対しては図3の予測モードaの画面内予測画像を生成、左隣接ブロックに対しては図3の予測モードbの画面内予測画像を生成、下隣接ブロックに対しては図3の予測モード0の画面内予測画像を生成、右隣接ブロックに対しては図3の予測モード1の画面内予測画像を生成する。次に、生成した上下左右各隣接ブロックの画面内予測画像と各隣接ブロックの差分絶対値和を演算し、最小値をとる隣接ブロックを選択する。最小値をとる隣接ブロックの位置を次の符号化対象ブロックとして入力ブロック制御部3に出力する。   The correlation calculation unit 5 inputs the original image of the first coding block and the adjacent four blocks that are the next coding block candidates from the input block control unit 3. First, a predicted image that can generate four adjacent blocks is generated from the first encoding target block pixel of the original image. For example, the intra prediction image of prediction mode a in FIG. 3 is generated for the upper adjacent block, the intra prediction image of prediction mode b of FIG. 3 is generated for the left adjacent block, and the lower adjacent block is generated. Generates an intra prediction image in prediction mode 0 in FIG. 3, and generates an intra prediction image in prediction mode 1 in FIG. 3 for the right adjacent block. Next, the prediction image in the screen of each of the generated upper, lower, left, and right adjacent blocks and the sum of absolute differences of the adjacent blocks are calculated, and the adjacent block having the minimum value is selected. The position of the adjacent block having the minimum value is output to the input block control unit 3 as the next encoding target block.

減算器7では最初の符号化対象ブロックの原画とその画面内予測画像の差分値を演算して周波数変換量子化部8に出力する。周波数変換量子化部8で最初の符号化対象ブロックの量子化後周波数変換係数を得てエントロピー符号化部13は符号化制御部2から得た位置情報も含む情報を元に符号化し、ストリームとして動画像符号化装置から出力する。   The subtractor 7 calculates the difference value between the original image of the first block to be encoded and the predicted image in the screen and outputs it to the frequency transform quantization unit 8. The frequency transform quantizing unit 8 obtains the quantized frequency transform coefficient of the first encoding target block, and the entropy coding unit 13 performs coding based on the information including the position information obtained from the coding control unit 2 as a stream. Output from the video encoding device.

さらに加算器10は、量子化後周波数変換係数に対して逆量子化逆周波数変換部9で逆量子化、逆周波数変換した係数と、画面内予測画生成部11から最初の符号化ブロック対象の予測画を入力し加算することで局部復号画像を出力する。局部復号画像メモリ12は、加算器10から出力された最初の符号化対象ブロックの局部復号画像を蓄積する。
以上が期間1の動作であり、最初の符号化対象ブロックの位置情報を含む符号化ストリームを出力し、局部復号画像を得て、次にどの隣接ブロックを符号化するかを決定した。
Further, the adder 10 performs inverse quantization and inverse frequency conversion on the quantized frequency conversion coefficient by the inverse quantization inverse frequency conversion unit 9 and the first encoded block target from the intra-screen prediction image generation unit 11. A locally decoded image is output by inputting and adding a prediction image. The local decoded image memory 12 stores the local decoded image of the first encoding target block output from the adder 10.
The operation in period 1 is as described above. An encoded stream including position information of the first encoding target block is output, a locally decoded image is obtained, and which adjacent block is to be encoded next is determined.

続く期間についての説明をする。
次に続く期間では、入力ブロック制御部3は、期間1で決定した期間2で符号化するブロックの位置情報、符号化済ブロック記憶部4から符号化済ブロックの位置情報を元に該当ブロックと、このブロックに隣接するブロックで符号化済でないブロックを読み出し、符号化済ブロック記憶部4より入力した位置情報を元に生成した入力ブロックの周辺画素符号化済ブロック有無情報と期間2の符号化対象ブロックを画面内予測モード決定部6へ、期間2の符号化対象ブロックと隣接ブロックのうち符号化済でないブロックを相関演算部5へ、期間2の符号化対象ブロックを減算器7へ出力する。また、期間2の符号化対象ブロックを符号化済ブロックとして符号化済ブロック記憶部4に出力し、符号化済ブロック記憶部4はそのブロック位置を記憶する。
The following period will be described.
In the following period, the input block control unit 3 determines the corresponding block based on the position information of the block to be encoded in the period 2 determined in the period 1 and the position information of the encoded block from the encoded block storage unit 4. The non-encoded block is read in the block adjacent to this block, and the peripheral pixel encoded block presence / absence information of the input block generated based on the position information input from the encoded block storage unit 4 and the encoding of period 2 The target block is output to the intra prediction mode determination unit 6, the non-encoded block among the encoding target block and adjacent blocks in period 2 is output to the correlation calculation unit 5, and the encoding target block in period 2 is output to the subtractor 7. . The encoding target block in period 2 is output as an encoded block to the encoded block storage unit 4, and the encoded block storage unit 4 stores the block position.

画面内予測モード決定部6は、周辺画素符号化済みブロック有無情報を元に期間2の符号化対象ブロックに対して使用可能な図3の予測モード1から8、aからhの予測モードの画面内予測画像を原画像から生成し、符号化対象ブロックの原画像との間で差分絶対値和演算をして、最小値をとるものを予測モードとして決定し、その予測モードを画面内予測画生成部11へ出力する。画面内予測画生成部11は局部復号画像メモリ12から期間2の符号化対象ブロックの周辺局部復号画像を読み出し、画面内予測モード決定部6で決定した図3の予測モード1から8、aからhの予測モードの画面内予測画像を生成し、減算器7および加算器10へ出力する。   The in-screen prediction mode determination unit 6 is a screen of the prediction modes 1 to 8 and a to h in FIG. 3 that can be used for the encoding target block in period 2 based on the neighboring pixel encoded block presence / absence information. An inner prediction image is generated from the original image, and the difference absolute value sum operation is performed with the original image of the encoding target block, and the one that takes the minimum value is determined as the prediction mode, and the prediction mode is determined as the intra prediction image. Output to the generation unit 11. The in-screen prediction image generation unit 11 reads the peripheral local decoded image of the block to be encoded in the period 2 from the local decoded image memory 12, and the prediction modes 1 to 8 and a in FIG. An intra-screen prediction image in the prediction mode h is generated and output to the subtracter 7 and the adder 10.

相関演算部5は、期間2の符号化対象ブロックおよび次の符号化ブロック候補である隣接ブロックの原画像を入力する。先ず原画像の期間2の符号化対象ブロック画素から隣接ブロックの生成可能な予測画像を生成する。次に、生成した各隣接ブロックの画面内予測画像と各隣接ブロックの差分絶対値和を演算し、最小値をとる隣接ブロックを選択する。最小値をとる隣接ブロックの位置を次の符号化対象ブロックとして入力ブロック制御部3に出力する。
減算器7では、期間2の符号化対象ブロックの原画像とその画面内予測画像の差分値を演算し周波数変換量子化部8に出力する。周波数変換量子化部8で期間2の符号化対象ブロックの量子化後周波数変換係数を得てエントロピー符号化部13は、符号化制御部2から得た位置情報も含む情報を元に符号化し、ストリームとして動画像符号化装置から出力する。
さらに加算器10は、量子化後周波数変換係数に対して逆量子化逆周波数変換部9で逆量子化、逆周波数変換した係数と、画面内予測画生成部11から期間2の符号化ブロック対象の予測画を入力し加算することで期間2の符号化対象ブロックの局部復号画像を出力する。局部復号画像メモリ12は、加算器10から出力された期間2の符号化対象ブロックの局部復号画像を蓄積する。
The correlation calculation unit 5 inputs an original image of an encoding target block in period 2 and an adjacent block that is a next encoding block candidate. First, a prediction image capable of generating an adjacent block is generated from an encoding target block pixel in period 2 of the original image. Next, the sum of absolute differences between the generated intra prediction image of each adjacent block and each adjacent block is calculated, and the adjacent block taking the minimum value is selected. The position of the adjacent block having the minimum value is output to the input block control unit 3 as the next encoding target block.
In the subtractor 7, the difference value between the original image of the encoding target block in period 2 and the predicted image in the screen is calculated and output to the frequency transform quantization unit 8. The frequency transform quantizing unit 8 obtains the quantized frequency transform coefficient of the encoding target block in the period 2 and the entropy coding unit 13 performs coding based on the information including the position information obtained from the coding control unit 2, Output as a stream from the video encoding device.
Furthermore, the adder 10 performs inverse quantization and inverse frequency conversion on the quantized frequency conversion coefficient by the inverse quantization and inverse frequency conversion unit 9 and the encoded block target in period 2 from the intra-screen prediction image generation unit 11 Are input and added to output a locally decoded image of the encoding target block in period 2. The local decoded image memory 12 stores the local decoded image of the encoding target block in period 2 output from the adder 10.

以上が期間2の動作であり、期間2の符号化対象ブロックの位置情報を含む符号化ストリームを出力し、局部復号画像を得て、次にどの隣接ブロックを符号化するかを決定した。
次以降に続く期間についても同様に動作し、この動作をフレーム内のブロック数の全てを処理するまで繰り返す。なお、隣接するブロックが全て符号化済ブロックの場合は一番座標位置の近いブロックを次ブロックとして選択する。
The operation in period 2 is as described above. An encoded stream including position information of the encoding target block in period 2 is output, a locally decoded image is obtained, and which adjacent block is to be encoded next is determined.
The same operation is performed for the following and subsequent periods, and this operation is repeated until all the blocks in the frame are processed. If all adjacent blocks are encoded blocks, the block having the closest coordinate position is selected as the next block.

以上説明したように、実施の形態1の動画像符号化装置によれば、動画像をフレーム単位で保持するフレームメモリと、フレームメモリから符号化対象ブロックと、符号化対象ブロックの周辺ブロックの画像を読み出して出力する入力ブロック制御部と、符号化対象ブロックと周辺ブロックの原画像とを入力し、符号化対象ブロックに基づく周辺ブロックの画面内予測画像と、周辺ブロックの原画像との相関が最も高いブロックを次の符号化対象ブロックとして出力する相関演算部と、符号化対象ブロックに対する画面内予測モードを決定する画面内予測モード決定部と、画面内予測モード決定部で決定された画面内予測モードで、局部復号画像を用いて符号化対象ブロックの予測画像を生成する画面内予測画生成部と、符号化対象ブロックと、画面内予測画生成部から出力された予測画像との差分を出力する減算器と、減算器の出力を周波数変換および量子化する周波数変換量子化部と、周波数変換量子化部の出力をエントロピー符号化し、符号化信号として出力するエントロピー符号化部と、周波数変換量子化部の出力を逆量子化および逆周波数変換する逆量子化逆周波数変換部と、逆量子化逆周波数変換部の出力と、画面内予測画生成部で生成された予測画像とを加算する加算器と、加算器から出力された信号を局部復号画像として保持する局部復号画像メモリとを備え、相関演算部から出力される次の符号化対象ブロックを入力ブロック制御部が次に出力する符号化対象ブロックとするようにしたので、符号化画質を向上することができると共に、符号化効率を向上させることができる。また、相関演算部は、符号化対象ブロックの原画像を用いて周辺ブロックの画面内予測画像を生成しているため、演算時間や演算量を抑えながら次の符号化対象ブロックを求めることができる。   As described above, according to the moving picture coding apparatus of the first embodiment, the frame memory that holds the moving picture in units of frames, the coding target block from the frame memory, and the images of the peripheral blocks of the coding target block The input block control unit that reads out and outputs, and the encoding target block and the original image of the peripheral block are input, and the correlation between the predicted image of the peripheral block based on the encoding target block and the original image of the peripheral block is The correlation calculation unit that outputs the highest block as the next encoding target block, the intra prediction mode determination unit that determines the intra prediction mode for the encoding target block, and the intra screen determined by the intra prediction mode determination unit In a prediction mode, an intra-screen prediction image generation unit that generates a prediction image of a coding target block using a locally decoded image, and a coding target block A subtractor that outputs a difference from the predicted image output from the intra-screen prediction image generation unit, a frequency conversion quantization unit that performs frequency conversion and quantization on the output of the subtractor, and an entropy output from the frequency conversion quantization unit. An entropy encoding unit that encodes and outputs as an encoded signal, an inverse quantization inverse frequency transform unit that performs inverse quantization and inverse frequency transform on an output of the frequency transform quantization unit, and an output of the inverse quantization inverse frequency transform unit An adder that adds the prediction image generated by the intra prediction image generation unit, and a local decoded image memory that holds a signal output from the adder as a local decoded image, and is output from the correlation calculation unit Since the next encoding target block is set as the encoding target block to be output next by the input block control unit, the encoding image quality can be improved and the encoding efficiency can be improved. Door can be. Further, since the correlation calculation unit generates the intra prediction image of the peripheral block using the original image of the encoding target block, the next encoding target block can be obtained while reducing the calculation time and the calculation amount. .

また、実施の形態1の動画像符号化装置によれば、フレーム内でどの位置のブロックを符号化したかを記憶する符号化済ブロック記憶部を備え、入力ブロック制御部は、符号化対象ブロックの情報を出力した場合は、符号化対象ブロックを符号化済ブロックとしてその位置を符号化済ブロック記憶部に記憶させると共に、相関演算部に対して、符号化対象ブロックの情報と共に、符号化済ブロック記憶部に記憶されている符号化済ブロックの位置の情報を出力し、相関演算部は、符号化済ブロックを除いて相関を演算するようにしたので、相関演算部における演算量を削減することができ、さらに符号化効率を向上させることができる。   In addition, according to the moving picture encoding apparatus of the first embodiment, the encoded block storage unit that stores the position of the block encoded in the frame is provided, and the input block control unit includes the encoding target block. Is output, the encoding target block is stored as an encoded block in the encoded block storage unit, and the correlation calculation unit is encoded together with the information of the encoding target block. Since the information of the position of the encoded block stored in the block storage unit is output and the correlation calculation unit calculates the correlation excluding the encoded block, the calculation amount in the correlation calculation unit is reduced. Encoding efficiency can be further improved.

また、実施の形態1の動画像符号化装置によれば、画面内予測モード決定部は、入力ブロック制御部から入力した符号化済ブロックの位置の情報に基づいて、符号化対象ブロックに対して360度からなる画面内予測モードの中から使用可能な予測モードの画面内予測画像を符号化対象ブロックの原画像から生成して、符号化対象ブロックの原画像との間で差分絶対値和演算を行い、最小値をとるものを予測モードとして選択するようにしたので、画面内予測モード決定部における演算量を削減することができ、さらに符号化効率を向上させることができる。   Further, according to the moving picture encoding apparatus of Embodiment 1, the intra prediction mode determination unit performs the encoding on the encoding target block based on the information on the position of the encoded block input from the input block control unit. An intra-screen prediction image in a prediction mode that can be used from 360-degree intra-screen prediction modes is generated from the original image of the encoding target block, and an absolute difference sum operation is performed with the original image of the encoding target block Thus, the one that takes the minimum value is selected as the prediction mode, so that the amount of calculation in the in-screen prediction mode determination unit can be reduced and the encoding efficiency can be further improved.

また、実施の形態1の動画像符号化装置によれば、画面内予測画生成部は、局部復号画像メモリから符号化対象ブロックの周辺画素を読み出し、画面内予測モード決定部で決定した最適な画面内予測モードの画面内予測画像を生成するようにしたので、精度の高い画面内予測画像を生成することができる。   Further, according to the moving picture encoding apparatus of the first embodiment, the intra-screen prediction image generation unit reads the peripheral pixels of the block to be encoded from the local decoded image memory, and is determined by the intra-screen prediction mode determination unit. Since the intra-screen prediction image in the intra-screen prediction mode is generated, an intra-screen prediction image with high accuracy can be generated.

実施の形態2.
図6はこの発明の実施の形態2の動画像符号化装置を示す構成図である。
実施の形態2の動画像符号化装置は、フレームメモリ1、符号化制御部2、入力ブロック制御部3、符号化済ブロック記憶部4、相関演算部5a、画面内予測モード決定部6、減算器7、周波数変換量子化部8、逆量子化逆周波数変換部9、加算器10、画面内予測画生成部11、局部復号画像メモリ12、エントロピー符号化部13からなり、基本的な構成は実施の形態1と同様であるが、相関演算部5aの構成が異なっている。
Embodiment 2. FIG.
FIG. 6 is a block diagram showing a moving picture coding apparatus according to Embodiment 2 of the present invention.
The moving picture encoding apparatus according to the second embodiment includes a frame memory 1, an encoding control unit 2, an input block control unit 3, an encoded block storage unit 4, a correlation calculation unit 5a, an in-screen prediction mode determination unit 6, and a subtraction. Unit 7, frequency transform quantization unit 8, inverse quantization inverse frequency transform unit 9, adder 10, intra-screen prediction image generation unit 11, local decoded image memory 12, entropy encoding unit 13, and the basic configuration is Although it is the same as that of Embodiment 1, the structure of the correlation calculating part 5a differs.

実施の形態2における相関演算部5aは、局部復号画像メモリ12から符号化対象ブロックの局部復号画像を入力すると共に、入力ブロック制御部3から次の符号化対象候補となる符号化対象ブロックの周辺ブロックの原画像を入力し、符号化対象ブロックの局部復号画像に基づく各周辺ブロックの予測画像と各周辺ブロックの原画像との相関を演算、比較し、相関が最も高い周辺ブロックを次の符号化対象ブロックとして入力ブロック制御部3と画面内予測モード決定部6とに出力する回路である。その他の構成は、実施の形態1と同様であるため、ここでの説明は省略する。   The correlation calculation unit 5a according to the second embodiment inputs the local decoded image of the block to be encoded from the local decoded image memory 12, and the surroundings of the block to be encoded as the next encoding target candidate from the input block control unit 3. Input the original image of the block, calculate and compare the correlation between the predicted image of each peripheral block and the original image of each peripheral block based on the local decoded image of the block to be encoded, and the peripheral block with the highest correlation is the next code This is a circuit that outputs to the input block control unit 3 and the in-screen prediction mode determination unit 6 as a conversion target block. Since other configurations are the same as those of the first embodiment, description thereof is omitted here.

次に、実施の形態2の動画像符号化装置の動作について説明する。
図7に実施の形態2の動画像符号化装置のタイミングチャートの概略を示す。以下の説明は図7に沿うものである。
動画像符号化装置に入力する動画像はフレームメモリ1にフレーム単位で保持する。
先ず期間1について説明する。
入力ブロック制御部3は、符号化制御部2指示の最初の符号化対象ブロックと次の符号化対象候補となる符号化対象ブロックの周辺の上下左右4ブロックをフレームメモリ1から読み出し、符号化済ブロック記憶部4より入力した位置情報を元に生成した入力ブロックの周辺画素符号化済ブロック有無情報と最初の符号化対象ブロックを画面内予測モード決定部6へ、最初の符号化対象ブロックと次の符号化対象ブロックとなる上下左右の4ブロックを相関演算部5aへ、最初の符号化対象ブロックを減算器7へ出力する。
また、最初の符号化対象ブロックを符号化済として符号化済ブロック記憶部4に出力し、符号化済ブロック記憶部4はそのブロック位置を記憶する。
Next, the operation of the moving picture coding apparatus according to the second embodiment will be described.
FIG. 7 shows an outline of a timing chart of the moving picture coding apparatus according to the second embodiment. The following description follows FIG.
The moving image input to the moving image encoding apparatus is held in the frame memory 1 in units of frames.
First, the period 1 will be described.
The input block control unit 3 reads from the frame memory 1 the upper, lower, left, and right 4 blocks around the first encoding target block specified by the encoding control unit 2 and the next encoding target block to be encoded. Neighboring pixel encoded block presence / absence information of the input block generated based on the position information input from the block storage unit 4 and the first encoding target block are sent to the intra prediction mode determination unit 6 and the first encoding target block and the next encoding target block are The upper, lower, left, and right 4 blocks that are the encoding target blocks are output to the correlation calculation unit 5a, and the first encoding target block is output to the subtractor 7.
Also, the first block to be encoded is encoded and output to the encoded block storage unit 4, and the encoded block storage unit 4 stores the block position.

画面内予測モード決定部6は、最初に符号化するブロックでは周辺に符号化済ブロックは存在せず再生画像がないことから周辺画素が存在せずとも予測画像を生成することが出来る予測モード2のDC予測モードに決定し、予測モードを画面内予測画生成部11へ出力する。画面内予測画生成部11は、画面内予測モード決定部6で決定した予測モード2の最初の符号化対象ブロックの画面内予測画像を生成し、減算器7および加算器10へ出力する。   The intra-screen prediction mode determination unit 6 can generate a prediction image even when there are no peripheral pixels since there are no encoded blocks in the vicinity and no reproduced image in the block to be encoded first. The DC prediction mode is determined, and the prediction mode is output to the intra-screen prediction image generation unit 11. The intra-screen prediction image generation unit 11 generates an intra-screen prediction image of the first encoding target block in the prediction mode 2 determined by the intra-screen prediction mode determination unit 6 and outputs the generated intra-screen prediction image to the subtracter 7 and the adder 10.

相関演算部5aは、入力ブロック制御部3から次の符号化ブロック候補である隣接4ブロックの原画像、局部復号画像メモリ12から符号化対象ブロックの局部復号画像を入力する。先ず局部復号画像の最初の符号化対象ブロック画素から隣接4ブロックの生成可能な予測画像を生成する。例えば、上隣接ブロックに対しては図3の予測モードaの画面内予測画像を生成、左隣接ブロックに対しては図3の予測モードbの画面内予測画を生成、下隣接ブロックに対しては図3の予測モード0の画面内予測画像を生成、右隣接ブロックに対しては図3の予測モード1の画面内予測画像を生成する。次に、生成した上下左右各隣接ブロックの画面内予測画像と各隣接ブロックの差分絶対値和を演算し、最小値をとる隣接ブロックを選択する。最小値をとる隣接ブロックの位置を次の符号化対象ブロックとして入力ブロック制御部3に出力する。   The correlation calculation unit 5 a inputs the original image of the adjacent four blocks that are the next coding block candidates from the input block control unit 3 and the local decoded image of the coding target block from the local decoded image memory 12. First, a prediction image that can generate four adjacent blocks is generated from the first encoding target block pixel of the locally decoded image. For example, for the upper adjacent block, an intra prediction image of prediction mode a in FIG. 3 is generated, for the left adjacent block, an intra prediction image of prediction mode b in FIG. 3 is generated, and for the lower adjacent block Generates an intra prediction image in prediction mode 0 in FIG. 3, and generates an intra prediction image in prediction mode 1 in FIG. 3 for the right adjacent block. Next, the prediction image in the screen of each of the generated upper, lower, left, and right adjacent blocks and the sum of absolute differences of the adjacent blocks are calculated, and the adjacent block having the minimum value is selected. The position of the adjacent block having the minimum value is output to the input block control unit 3 as the next encoding target block.

減算器7では最初の符号化対象ブロックの原画とその画面内予測画像の差分値を演算し周波数変換量子化部8に出力する。周波数変換量子化部8で最初の符号化対象ブロックの量子化後周波数変換係数を得てエントロピー符号化部13は符号化制御部2から得た位置情報も含む情報を元に符号化し、ストリームとして動画像符号化装置から出力する。
さらに加算器10は、量子化後周波数変換係数に対して逆量子化逆周波数変換部9で逆量子化、逆周波数変換した係数と、画面内予測画生成部11から最初の符号化ブロック対象の予測画像を入力し加算することで局部復号画像を出力する。局部復号画像メモリ12は加算器10から出力された最初の符号化対象ブロックの局部復号画像を蓄積する。
以上が期間1の動作であり、最初の符号化対象ブロックの位置情報を含む符号化ストリームを出力し、局部復号画像を得て、次にどの隣接ブロックを符号化するかを決定した。
The subtractor 7 calculates the difference value between the original image of the first block to be encoded and the predicted image in the screen and outputs it to the frequency transform quantization unit 8. The frequency transform quantizing unit 8 obtains the quantized frequency transform coefficient of the first encoding target block, and the entropy coding unit 13 performs coding based on the information including the position information obtained from the coding control unit 2 as a stream. Output from the video encoding device.
Further, the adder 10 performs inverse quantization and inverse frequency conversion on the quantized frequency conversion coefficient by the inverse quantization inverse frequency conversion unit 9 and the first encoded block target from the intra-screen prediction image generation unit 11. A local decoded image is output by inputting and adding a prediction image. The local decoded image memory 12 stores the local decoded image of the first encoding target block output from the adder 10.
The operation in period 1 is as described above. An encoded stream including position information of the first encoding target block is output, a locally decoded image is obtained, and which adjacent block is to be encoded next is determined.

続く期間についての説明をする。
次に続く期間では、入力ブロック制御部3は、期間1で決定した期間2で符号化するブロックの位置情報、符号化済ブロック記憶部4から符号化済ブロックの位置情報を元に該当ブロックと、このブロックに隣接するブロックで符号化済でないブロックを読み出し、符号化済ブロック記憶部4より入力した位置情報を元に生成した入力ブロックの周辺画素符号化済ブロック有無情報と期間2の符号化対象ブロックを画面内予測モード決定部6へ、期間2の符号化対象ブロックと隣接ブロックのうち符号化済でないブロックを相関演算部5aへ、期間2の符号化対象ブロックを減算器7へ出力する。また、期間2の符号化対象ブロックを符号化済ブロックとして符号化済ブロック記憶部4に出力し、符号化済ブロック記憶部4はそのブロック位置を記憶する。
The following period will be described.
In the following period, the input block control unit 3 determines the corresponding block based on the position information of the block to be encoded in the period 2 determined in the period 1 and the position information of the encoded block from the encoded block storage unit 4. The non-encoded block is read in the block adjacent to this block, and the peripheral pixel encoded block presence / absence information of the input block generated based on the position information input from the encoded block storage unit 4 and the encoding of period 2 The target block is output to the intra prediction mode determination unit 6, the non-encoded block among the encoding target block and adjacent blocks in period 2 is output to the correlation calculation unit 5 a, and the encoding target block in period 2 is output to the subtractor 7. . The encoding target block in period 2 is output as an encoded block to the encoded block storage unit 4, and the encoded block storage unit 4 stores the block position.

画面内予測モード決定部6は、周辺画素符号化済みブロック有無情報を元に期間2の符号化対象ブロックに対して使用可能な図3の予測モード1から8、aからhの予測モードの画面内予測画像を原画像から生成し、符号化対象ブロックの原画像との間で差分絶対値和演算をして、最小値をとるものを予測モードとして決定し、その予測モードを画面内予測画生成部11へ出力する。画面内予測画生成部11は、局部復号画像メモリ12から期間2の符号化対象ブロックの周辺局部復号画像を読み出し、画面内予測モード決定部6で決定した図3の予測モード1から8、aからhの予測モードの画面内予測画像を生成し、減算器7および加算器10へ出力する。   The in-screen prediction mode determination unit 6 is a screen of the prediction modes 1 to 8 and a to h in FIG. 3 that can be used for the encoding target block in period 2 based on the neighboring pixel encoded block presence / absence information. An inner prediction image is generated from the original image, and the difference absolute value sum operation is performed with the original image of the encoding target block, and the one that takes the minimum value is determined as the prediction mode, and the prediction mode is determined as the intra prediction image. Output to the generation unit 11. The intra-screen prediction image generation unit 11 reads the peripheral local decoded image of the block to be encoded in the period 2 from the local decoded image memory 12, and the prediction modes 1 to 8 in FIG. To h predictive image in the prediction mode is generated and output to the subtracter 7 and the adder 10.

相関演算部5aは、期間2の符号化対象ブロックの局部復号画像と次の符号化ブロック候補である隣接ブロックの原画を入力する。先ず局部復号画像の期間2の符号化対象ブロック画素から隣接ブロックの生成可能な予測画を生成する。次に、生成した各隣接ブロックの画面内予測画像と各隣接ブロックの差分絶対値和を演算し、最小値をとる隣接ブロックを選択する。最小値をとる隣接ブロックの位置を次の符号化対象ブロックとして入力ブロック制御部3に出力する。   The correlation calculation unit 5a inputs the locally decoded image of the encoding target block in period 2 and the original image of the adjacent block that is the next encoding block candidate. First, a prediction image capable of generating an adjacent block is generated from the encoding target block pixel in period 2 of the locally decoded image. Next, the sum of absolute differences between the generated intra prediction image of each adjacent block and each adjacent block is calculated, and the adjacent block taking the minimum value is selected. The position of the adjacent block having the minimum value is output to the input block control unit 3 as the next encoding target block.

減算器7では期間2の符号化対象ブロックの原画とその画面内予測画像の差分値を演算して周波数変換量子化部8に出力する。周波数変換量子化部8で期間2の符号化対象ブロックの量子化後周波数変換係数を得てエントロピー符号化部13は符号化制御部2から得た位置情報も含む情報を元に符号化し、ストリームとして動画像符号化装置から出力する。
さらに加算器10は、量子化後周波数変換係数に対して逆量子化逆周波数変換部9で逆量子化、逆周波数変換した係数と、画面内予測画生成部11から期間2の符号化ブロック対象の予測画を入力し加算することで期間2の符号化対象ブロックの局部復号画像を出力する。局部復号画像メモリ12は、加算器10から出力された期間2の符号化対象ブロックの局部復号画像を蓄積する。
The subtractor 7 calculates the difference value between the original image of the encoding target block in period 2 and the predicted image in the screen and outputs it to the frequency transform quantization unit 8. The frequency transform quantizing unit 8 obtains the quantized frequency transform coefficient of the encoding target block in the period 2, and the entropy coding unit 13 performs coding based on the information including the position information obtained from the coding control unit 2, Is output from the video encoding device.
Furthermore, the adder 10 performs inverse quantization and inverse frequency conversion on the quantized frequency conversion coefficient by the inverse quantization and inverse frequency conversion unit 9 and the encoded block target in period 2 from the intra-screen prediction image generation unit 11 Are input and added to output a locally decoded image of the encoding target block in period 2. The local decoded image memory 12 stores the local decoded image of the encoding target block in period 2 output from the adder 10.

以上が期間2の動作であり、期間2の符号化対象ブロックの位置情報を含む符号化ストリームを出力し、局部復号画像を得て、次にどの隣接ブロックを符号化するかを決定した。
次以降に続く期間についても同様に動作し、この動作をフレーム内のブロック数の全てを処理するまで繰り返す。なお、隣接するブロックが全て符号化済ブロックの場合は一番座標位置の近いブロックを次ブロックとして選択する。
The operation in period 2 is as described above. An encoded stream including position information of the encoding target block in period 2 is output, a locally decoded image is obtained, and which adjacent block is to be encoded next is determined.
The same operation is performed for the following and subsequent periods, and this operation is repeated until all the blocks in the frame are processed. If all adjacent blocks are encoded blocks, the block having the closest coordinate position is selected as the next block.

以上説明したように、実施の形態2の動画像符号化装置によれば、動画像をフレーム単位で保持するフレームメモリと、フレームメモリから符号化対象ブロックと、符号化対象ブロックの周辺ブロックの画像を読み出して出力する入力ブロック制御部と、符号化対象ブロックの局部復号画像と周辺ブロックの原画像を入力し、符号化対象ブロックの局部復号画像に基づく周辺ブロックの画面内予測画像と、周辺ブロックの原画像との相関が最も高いブロックを次の符号化対象ブロックとして出力する相関演算部と、符号化対象ブロックに対する画面内予測モードを決定する画面内予測モード決定部と、画面内予測モード決定部で決定された画面内予測モードで、局部復号画像を用いて符号化対象ブロックの予測画像を生成する画面内予測画生成部と、符号化対象ブロックと、画面内予測画生成部から出力された予測画像との差分を出力する減算器と、減算器の出力を周波数変換および量子化する周波数変換量子化部と、周波数変換量子化部の出力をエントロピー符号化し、符号化信号として出力するエントロピー符号化部と、周波数変換量子化部の出力を逆量子化および逆周波数変換する逆量子化逆周波数変換部と、逆量子化逆周波数変換部の出力と、画面内予測画生成部で生成された予測画像とを加算する加算器と、加算器から出力された信号を局部復号画像として保持する局部復号画像メモリとを備え、相関演算部から出力される次の符号化対象ブロックを入力ブロック制御部が次に出力する符号化対象ブロックとするようにしたので、符号化画質を向上することができると共に、符号化効率を向上させることができる。また、相関演算部は、符号化対象ブロックの局部復号画像を用いて周辺ブロックの画面内予測画像を生成しているため、より相関の高い画像を次の符号化対象ブロックとして選択でき、精度の高い予測を行うことができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
As described above, according to the moving picture coding apparatus of the second embodiment, the frame memory that holds the moving picture in units of frames, the coding target block from the frame memory, and the images of the peripheral blocks of the coding target block An input block control unit for reading out and outputting, a local decoded image of the encoding target block and an original image of the peripheral block, an intra-screen prediction image of the peripheral block based on the local decoded image of the encoding target block, and the peripheral block A correlation calculation unit that outputs a block having the highest correlation with the original image as the next encoding target block, an intra prediction mode determination unit that determines an intra prediction mode for the encoding target block, and determination of an intra prediction mode In-screen prediction image generator that generates a prediction image of a block to be encoded using a locally decoded image in an in-screen prediction mode determined by A subtractor that outputs a difference between the block, the encoding target block, and the prediction image output from the intra-screen prediction image generation unit, a frequency conversion quantization unit that performs frequency conversion and quantization on the output of the subtractor, and a frequency An entropy encoding unit that entropy-codes the output of the transform quantization unit and outputs the encoded signal, an inverse quantization inverse frequency conversion unit that performs inverse quantization and inverse frequency conversion on the output of the frequency conversion quantization unit, and an inverse quantum An adder that adds the output of the generalized inverse frequency conversion unit and the prediction image generated by the intra-screen prediction image generation unit, and a local decoded image memory that holds the signal output from the adder as a local decoded image Since the next encoding target block output from the correlation calculation unit is set as the encoding target block to be output next by the input block control unit, the encoding image quality can be improved. , It is possible to improve the coding efficiency. In addition, since the correlation calculation unit generates the intra-screen prediction image of the peripheral block using the local decoded image of the encoding target block, it is possible to select an image with higher correlation as the next encoding target block, and with high accuracy. High predictions can be made.
In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 フレームメモリ、2 符号化制御部、3 入力ブロック制御部、4 符号化済ブロック記憶部、5,5a 相関演算部、6 画面内予測モード決定部、7 減算器、8 周波数変換量子化部、9 逆量子化逆周波数変換部、10 加算器、11 画面内予測画生成部、12 局部復号画像メモリ、13 エントロピー符号化部。   1 frame memory, 2 encoding control unit, 3 input block control unit, 4 encoded block storage unit, 5, 5a correlation calculation unit, 6 intra prediction mode determination unit, 7 subtractor, 8 frequency transform quantization unit, 9 Inverse quantization inverse frequency conversion unit, 10 adder, 11 intra-screen prediction image generation unit, 12 local decoded image memory, 13 entropy encoding unit.

Claims (5)

動画像をフレーム単位で保持するフレームメモリと、
前記フレームメモリから符号化対象ブロックと、当該符号化対象ブロックの周辺ブロックの画像を読み出して出力する入力ブロック制御部と、
前記符号化対象ブロックと前記周辺ブロックの原画像とを入力し、前記符号化対象ブロックに基づく前記周辺ブロックの画面内予測画像と、当該周辺ブロックの原画像との相関が最も高いブロックを次の符号化対象ブロックとして出力する相関演算部と、
前記符号化対象ブロックに対する画面内予測モードを決定する画面内予測モード決定部と、
前記画面内予測モード決定部で決定された画面内予測モードで、局部復号画像を用いて前記符号化対象ブロックの予測画像を生成する画面内予測画生成部と、
前記符号化対象ブロックと、前記画面内予測画生成部から出力された予測画像との差分を出力する減算器と、
前記減算器の出力を周波数変換および量子化する周波数変換量子化部と、
前記周波数変換量子化部の出力をエントロピー符号化し、符号化信号として出力するエントロピー符号化部と、
前記周波数変換量子化部の出力を逆量子化および逆周波数変換する逆量子化逆周波数変換部と、
前記逆量子化逆周波数変換部の出力と、前記画面内予測画生成部で生成された予測画像とを加算する加算器と、
前記加算器から出力された信号を前記局部復号画像として保持する局部復号画像メモリとを備え、
前記相関演算部から出力される次の符号化対象ブロックを前記入力ブロック制御部が次に出力する符号化対象ブロックとすることを特徴とする動画像符号化装置。
A frame memory for storing moving images in units of frames;
An input block control unit that reads out and outputs an encoding target block from the frame memory and an image of a peripheral block of the encoding target block;
The encoding target block and the original image of the peripheral block are input, and the block with the highest correlation between the intra-screen prediction image of the peripheral block based on the encoding target block and the original image of the peripheral block is A correlation calculation unit that outputs as an encoding target block;
An intra-screen prediction mode determination unit that determines an intra-screen prediction mode for the encoding target block;
An intra-screen prediction image generation unit that generates a prediction image of the encoding target block using a locally decoded image in the intra-screen prediction mode determined by the intra-screen prediction mode determination unit;
A subtractor that outputs a difference between the encoding target block and the prediction image output from the intra-screen prediction image generation unit;
A frequency transform quantizer for frequency transforming and quantizing the output of the subtractor;
An entropy encoding unit that entropy encodes the output of the frequency transform quantization unit and outputs the encoded signal, and
An inverse quantization inverse frequency transform unit that inverse quantizes and inverse frequency transforms the output of the frequency transform quantizer;
An adder for adding the output of the inverse quantization inverse frequency transform unit and the prediction image generated by the intra prediction image generation unit;
A locally decoded image memory that holds the signal output from the adder as the locally decoded image;
The moving picture coding apparatus, wherein the next coding target block output from the correlation calculation unit is a coding target block to be output next by the input block control unit.
動画像をフレーム単位で保持するフレームメモリと、
前記フレームメモリから符号化対象ブロックと、当該符号化対象ブロックの周辺ブロックの画像を読み出して出力する入力ブロック制御部と、
符号化対象ブロックの局部復号画像と前記周辺ブロックの原画像を入力し、前記符号化対象ブロックの局部復号画像に基づく前記周辺ブロックの画面内予測画像と、当該周辺ブロックの原画像との相関が最も高いブロックを次の符号化対象ブロックとして出力する相関演算部と、
前記符号化対象ブロックに対する画面内予測モードを決定する画面内予測モード決定部と、
前記画面内予測モード決定部で決定された画面内予測モードで、局部復号画像を用いて前記符号化対象ブロックの予測画像を生成する画面内予測画生成部と、
前記符号化対象ブロックと、前記画面内予測画生成部から出力された予測画像との差分を出力する減算器と、
前記減算器の出力を周波数変換および量子化する周波数変換量子化部と、
前記周波数変換量子化部の出力をエントロピー符号化し、符号化信号として出力するエントロピー符号化部と、
前記周波数変換量子化部の出力を逆量子化および逆周波数変換する逆量子化逆周波数変換部と、
前記逆量子化逆周波数変換部の出力と、前記画面内予測画生成部で生成された予測画像とを加算する加算器と、
前記加算器から出力された信号を前記局部復号画像として保持する局部復号画像メモリとを備え、
前記相関演算部から出力される次の符号化対象ブロックを前記入力ブロック制御部が次に出力する符号化対象ブロックとすることを特徴とする動画像符号化装置。
A frame memory for storing moving images in units of frames;
An input block control unit that reads out and outputs an encoding target block from the frame memory and an image of a peripheral block of the encoding target block;
The local decoded image of the encoding target block and the original image of the peripheral block are input, and the correlation between the intra-screen prediction image of the peripheral block based on the local decoded image of the encoding target block and the original image of the peripheral block is A correlation calculation unit that outputs the highest block as the next encoding target block;
An intra-screen prediction mode determination unit that determines an intra-screen prediction mode for the encoding target block;
An intra-screen prediction image generation unit that generates a prediction image of the encoding target block using a locally decoded image in the intra-screen prediction mode determined by the intra-screen prediction mode determination unit;
A subtractor that outputs a difference between the encoding target block and the prediction image output from the intra-screen prediction image generation unit;
A frequency transform quantizer for frequency transforming and quantizing the output of the subtractor;
An entropy encoding unit that entropy encodes the output of the frequency transform quantization unit and outputs the encoded signal, and
An inverse quantization inverse frequency transform unit that inverse quantizes and inverse frequency transforms the output of the frequency transform quantizer;
An adder for adding the output of the inverse quantization inverse frequency transform unit and the prediction image generated by the intra prediction image generation unit;
A locally decoded image memory that holds the signal output from the adder as the locally decoded image;
The moving picture coding apparatus, wherein the next coding target block output from the correlation calculation unit is a coding target block to be output next by the input block control unit.
フレーム内でどの位置のブロックを符号化したかを記憶する符号化済ブロック記憶部を備え、
入力ブロック制御部は、符号化対象ブロックの情報を出力した場合は、当該符号化対象ブロックを符号化済ブロックとしてその位置を前記符号化済ブロック記憶部に記憶させると共に、相関演算部に対して、前記符号化対象ブロックの情報と共に、前記符号化済ブロック記憶部に記憶されている符号化済ブロックの位置の情報を出力し、
前記相関演算部は、前記符号化済ブロックを除いて相関を演算することを特徴とする請求項1または請求項2記載の動画像符号化装置。
An encoded block storage unit for storing which block in the frame is encoded;
When the input block control unit outputs information about the encoding target block, the input block control unit stores the encoding target block as an encoded block and stores the position in the encoded block storage unit. , Along with the information of the encoding target block, to output the information of the position of the encoded block stored in the encoded block storage unit,
The moving image encoding apparatus according to claim 1, wherein the correlation calculation unit calculates a correlation excluding the encoded block.
画面内予測モード決定部は、入力ブロック制御部から入力した符号化済ブロックの位置の情報に基づいて、符号化対象ブロックに対して360度からなる画面内予測モードの中から使用可能な予測モードの画面内予測画像を前記符号化対象ブロックの原画像から生成して、当該符号化対象ブロックの原画像との間で差分絶対値和演算を行い、最小値をとるものを予測モードとして選択することを特徴とする請求項1から請求項3のうちのいずれか1項記載の動画像符号化装置。   The intra-screen prediction mode determination unit is a prediction mode that can be used from among the intra-screen prediction modes of 360 degrees with respect to the encoding target block based on the information on the position of the encoded block input from the input block control unit. Is generated from the original image of the encoding target block, the difference absolute value sum operation is performed with the original image of the encoding target block, and the one that takes the minimum value is selected as the prediction mode The moving picture coding apparatus according to any one of claims 1 to 3, wherein the moving picture coding apparatus is characterized in that: 画面内予測画生成部は、局部復号画像メモリから符号化対象ブロックの周辺画素を読み出し、画面内予測モード決定部で決定した最適な画面内予測モードの画面内予測画像を生成する請求項1から請求項4のうちのいずれか1項記載の動画像符号化装置。   The intra-screen prediction image generation unit reads peripheral pixels of the encoding target block from the locally decoded image memory, and generates an intra-screen prediction image of the optimal intra-screen prediction mode determined by the intra-screen prediction mode determination unit. The moving image encoding apparatus according to claim 4.
JP2010233505A 2010-10-18 2010-10-18 Video encoding device Expired - Fee Related JP5645589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010233505A JP5645589B2 (en) 2010-10-18 2010-10-18 Video encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010233505A JP5645589B2 (en) 2010-10-18 2010-10-18 Video encoding device

Publications (2)

Publication Number Publication Date
JP2012089987A true JP2012089987A (en) 2012-05-10
JP5645589B2 JP5645589B2 (en) 2014-12-24

Family

ID=46261158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010233505A Expired - Fee Related JP5645589B2 (en) 2010-10-18 2010-10-18 Video encoding device

Country Status (1)

Country Link
JP (1) JP5645589B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004253826A (en) * 2002-10-03 2004-09-09 Matsushita Electric Ind Co Ltd Adaptive macroblock scanning method for video and image compression
JP2005086834A (en) * 2003-09-09 2005-03-31 Mitsubishi Electric Information Technology Centre Europa Bv Method for encoding frame sequence, method for decoding frame sequence, apparatus for implementing the method, computer program for implementing the method and recording medium for storing the computer program
EP1601208A2 (en) * 2004-05-25 2005-11-30 Industry Academic Cooperation Foundation Kyunghee University Method, apparatus and computer readable medium for prediction encoding/decoding
JP2006054857A (en) * 2004-07-02 2006-02-23 Mitsubishi Electric Information Technology Centre Europa Bv Method of encoding and decoding frame sequence using 3d decomposition, usage, device and computer program
JP2006513635A (en) * 2003-01-10 2006-04-20 トムソン ライセンシング Defining an interpolation filter for error concealment in coded images
JP2006165699A (en) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd Image encoder and image encoding method
JP2007096679A (en) * 2005-09-28 2007-04-12 Kddi R & D Laboratories Inc Method of encoding and decoding moving picture
WO2007055158A1 (en) * 2005-11-08 2007-05-18 Matsushita Electric Industrial Co., Ltd. Dynamic image encoding method, dynamic image decoding method, and device
JP2008252756A (en) * 2007-03-30 2008-10-16 Fujitsu Ltd Image processing method, encoder, and decoder
JP2009001793A (en) * 2008-06-06 2009-01-08 Kaneka Corp Adhesive
JP2010041191A (en) * 2008-08-01 2010-02-18 Victor Co Of Japan Ltd Image encoding method and image encoding device
EP2211552A1 (en) * 2009-01-22 2010-07-28 Thomson Licensing Method and device for video coding using macroblock groups

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004253826A (en) * 2002-10-03 2004-09-09 Matsushita Electric Ind Co Ltd Adaptive macroblock scanning method for video and image compression
JP2006513635A (en) * 2003-01-10 2006-04-20 トムソン ライセンシング Defining an interpolation filter for error concealment in coded images
JP2005086834A (en) * 2003-09-09 2005-03-31 Mitsubishi Electric Information Technology Centre Europa Bv Method for encoding frame sequence, method for decoding frame sequence, apparatus for implementing the method, computer program for implementing the method and recording medium for storing the computer program
EP1601208A2 (en) * 2004-05-25 2005-11-30 Industry Academic Cooperation Foundation Kyunghee University Method, apparatus and computer readable medium for prediction encoding/decoding
JP2006054857A (en) * 2004-07-02 2006-02-23 Mitsubishi Electric Information Technology Centre Europa Bv Method of encoding and decoding frame sequence using 3d decomposition, usage, device and computer program
JP2006165699A (en) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd Image encoder and image encoding method
JP2007096679A (en) * 2005-09-28 2007-04-12 Kddi R & D Laboratories Inc Method of encoding and decoding moving picture
WO2007055158A1 (en) * 2005-11-08 2007-05-18 Matsushita Electric Industrial Co., Ltd. Dynamic image encoding method, dynamic image decoding method, and device
JP2008252756A (en) * 2007-03-30 2008-10-16 Fujitsu Ltd Image processing method, encoder, and decoder
JP2009001793A (en) * 2008-06-06 2009-01-08 Kaneka Corp Adhesive
JP2010041191A (en) * 2008-08-01 2010-02-18 Victor Co Of Japan Ltd Image encoding method and image encoding device
EP2211552A1 (en) * 2009-01-22 2010-07-28 Thomson Licensing Method and device for video coding using macroblock groups

Also Published As

Publication number Publication date
JP5645589B2 (en) 2014-12-24

Similar Documents

Publication Publication Date Title
US11876979B2 (en) Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
JP6887550B2 (en) Image prediction decoding method
JP2005318497A (en) Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program
KR20110081304A (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
KR20090097689A (en) Method and apparatus of encoding/decoding image based on intra prediction
KR20080103907A (en) Efficient encoding/decoding of a sequence of data frames
JP5441803B2 (en) Motion vector determination device, motion vector determination method, and computer program
TW201813397A (en) Dynamic image prediction decoding device and method
JP2007214641A (en) Coder, decoder, image processing apparatus, and program for allowing computer to execute image processing method
JP2013115583A (en) Moving image encoder, control method of the same, and program
WO2017010073A1 (en) Motion picture encoding device, motion picture encoding method, and storage medium storing motion picture encoding program
JP2014007469A (en) Image coding device and image coding method
KR20100044333A (en) Video encoding apparatus, and apparatus and method of 2 dimensional ordering transform for image signal, and recording medium therefor
JP5645589B2 (en) Video encoding device
JP2019054489A (en) Information processor, information processing method and information processing program
JP5812011B2 (en) Video encoding apparatus, video decoding apparatus, video encoding method, video decoding method, and program
JP2020058075A (en) Moving image prediction encoding device, moving image prediction decoding device, moving image prediction encoding method, moving image prediction decoding method, and recording medium
JP4451759B2 (en) Lossless video encoding device, lossless video encoding method, lossless video decoding device, lossless video decoding method, lossless video encoding program, lossless video decoding program, and recording medium for those programs
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP4561701B2 (en) Video encoding device
JP6646125B2 (en) Video prediction decoding method and video prediction decoding device
JP5235813B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program
JP2011182167A (en) Image encoding device
JP2008153802A (en) Moving picture encoding device and moving picture encoding program
JP2008092137A (en) Image coding apparatus and image coding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141104

R150 Certificate of patent or registration of utility model

Ref document number: 5645589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees