WO2011061880A1 - 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 - Google Patents

画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 Download PDF

Info

Publication number
WO2011061880A1
WO2011061880A1 PCT/JP2010/005148 JP2010005148W WO2011061880A1 WO 2011061880 A1 WO2011061880 A1 WO 2011061880A1 JP 2010005148 W JP2010005148 W JP 2010005148W WO 2011061880 A1 WO2011061880 A1 WO 2011061880A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
vector
unit
block
motion
Prior art date
Application number
PCT/JP2010/005148
Other languages
English (en)
French (fr)
Inventor
裕介 伊谷
優一 出原
杉本 和夫
関口 俊一
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2011541788A priority Critical patent/JPWO2011061880A1/ja
Publication of WO2011061880A1 publication Critical patent/WO2011061880A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/93Run-length coding

Definitions

  • the present invention relates to an image encoding apparatus and method for predictively encoding each frame of a moving image signal in units of macroblocks using motion prediction, and an image decoding apparatus for decoding and reproducing encoded moving image encoded data. It relates to that method.
  • MPEG and ITU-T H.264 In an international standard video encoding scheme such as 26x, a method of compressing based on a motion compensation technique and an orthogonal transform / transform coefficient quantization technique using a macroblock obtained by dividing a screen as a unit of encoding processing is adopted. .
  • Motion compensation technology is a technology that reduces the redundancy of signals in the time direction for each macroblock by using a high correlation existing between video frames.
  • An image encoding device using this technique accumulates a previously encoded image in a memory as a reference image, and the current encoding target for motion compensation prediction within a predetermined search range in the reference image.
  • a block area having the smallest difference power from the macro block is searched, and a shift between the spatial position of the current macro block and the spatial position of the block of the search result is encoded as a motion vector.
  • the motion vector MV generated by the motion compensation technique is encoded using a vector obtained by predicting the motion vector of the block to be encoded from the motion vector of the encoded block.
  • the image encoding apparatus performs variable-length encoding on a difference between a predicted vector (hereinafter referred to as a prediction vector) PMV and a motion vector MV of an encoding target block (hereinafter referred to as a differential motion vector MVD) as in the following equation (1).
  • a prediction vector a motion vector MV of an encoding target block
  • the prediction vector PMV is a vector similar to the motion vector MV of the encoding target block, the value of MVD becomes small, and the amount of code can be reduced.
  • FIG. 13 shows a method for generating a spatial prediction vector according to Non-Patent Document 1.
  • the target macroblock for which the prediction vector PMV is calculated is a current macroblock as shown in FIG. 13 (current MB in FIG. 13)
  • the macroblock is located on the left side, top, and top right of the current macroblock, respectively.
  • the prediction vector PMV of the current macro block is calculated.
  • the image encoding device substitutes the motion vectors MV a , MV b , and MV c of the encoded macroblocks A, B, and C into the following equation (2) to obtain the motion vectors MV a , MV b , and MV.
  • the median (median) of c is calculated, and this median is set as the prediction vector PMV.
  • PMV median (MV a , MV b , MV c ) (2)
  • median (x, y, z) is a function for calculating the median of x, y, z.
  • FIG. 14 shows a motion vector estimation method in the temporal direct mode of Non-Patent Document 1.
  • P represents a unidirectional prediction picture
  • B represents a bidirectional prediction picture.
  • the numbers 0 to 3 following P or B indicate the display order, and indicate that the display images are at times T0, T1, T2, and T3.
  • the encoding process is performed in the order of P0, P3, B1, and B2.
  • the motion vector MV of the macroblock MB2 located spatially at the same position as the macroblock MB1 on the nearest picture P3 among the encoded pictures located on the rear side of the picture B2 on the time axis is used.
  • This motion vector MV refers to the picture P0.
  • motion vectors MVL0 and MVL1 used when encoding the macroblock MB1 are obtained from the following equation (3).
  • Non-Patent Document 1 Since the conventional image encoding apparatus is configured as described above, in the prediction vector generation method of Non-Patent Document 1, is a motion vector in an adjacent encoded block appropriate as a prediction vector in an encoding target block? Therefore, there is a problem that the coding efficiency is deteriorated when the accuracy of the generated prediction vector is remarkably lowered.
  • the present invention has been made to solve the above-described problems, and reduces the amount of motion vector codes by improving the accuracy of prediction vectors predicted from space and vectors predicted from the time direction. For the purpose.
  • the image encoding apparatus uses the information of the encoded block and its peripheral blocks in the reference frame at the same position as the processing target block, and each motion of the encoded block at the same position and its peripheral blocks.
  • a prediction vector generation unit that calculates a vector reliability and weights and adds each motion vector according to the reliability to generate a prediction vector of the processing target block.
  • the variable length encoding unit performs motion on the processing target block.
  • a difference vector between the motion vector searched by the compensation prediction unit and the prediction vector generated by the prediction vector generation unit is generated, and the difference vector is encoded together with the prediction residual signal generated by the prediction residual generation unit.
  • An image decoding apparatus includes a prediction vector generation unit that generates a prediction vector of a processing target block using an encoded symbol of a reference frame restored by a decoding unit, and the decoding unit includes a code extracted by an analysis unit The compressed video signal is restored by using the prediction vector generated by the prediction vector generation unit together with the conversion symbol and the reference frame.
  • the image encoding method uses the information of the encoded block and its peripheral blocks in the reference frame at the same position as the processing target block, and each motion of the encoded block at the same position and its peripheral blocks.
  • a prediction vector generation step of calculating a vector reliability and weighting and adding each motion vector according to the reliability to generate a prediction vector of the processing target block; and the variable length encoding step A difference vector between the motion vector searched in the compensation prediction step and the prediction vector generated in the prediction vector generation step is generated, and the difference vector is encoded together with the prediction residual signal generated in the prediction residual generation step.
  • the image decoding method includes a prediction vector generation step that generates a prediction vector of a processing target block using the encoded symbol of the reference frame restored in the decoding step, and the decoding step includes the code extracted in the analysis step
  • the compressed video signal is reconstructed using the prediction vector generated in the prediction vector generation step together with the conversion symbol and the reference frame.
  • the reliability of the motion vectors of the encoded block at the same position and its peripheral blocks Since the motion vector is calculated by weighting and adding each motion vector according to the reliability, it is possible to generate a highly accurate prediction vector close to the motion vector of the processing target block. As a result, it is possible to increase the efficiency of variable length coding for the difference vector and reduce the amount of codes.
  • FIG. 3 It is a figure which shows the example of the index table which concerns on Embodiment 3 of this invention. It is a block diagram which shows the internal structure of the prediction vector determination part 231 shown in FIG. It is a figure explaining the production
  • FIG. 1 is a block diagram showing a configuration of an image encoding device according to Embodiment 1 of the present invention
  • FIG. 2 is a block diagram showing a configuration of an image decoding device.
  • an image encoding apparatus that performs encoding in units of equal division of a video frame into 16 ⁇ 16 pixel rectangular areas (hereinafter referred to as macroblocks), and an image decoding apparatus that performs the decoding are exemplified. It explains using. Since this image encoding apparatus is based on the encoding method described in Non-Patent Document 1 described earlier, the description of the same configuration is simplified.
  • Image Encoding Device First, the image encoding device shown in FIG. 1 will be described. The processing methods performed by the motion compensation prediction unit 101, the subtractor 102, the coding mode determination unit 103, the compression unit 104, the local decoding unit 105, the adder 106, the loop filter 107, and the frame memory 108 described below are described in advance. MPEG-4 AVC (ISO / IEC 14496-10) / ITU-T H. It is based on the encoding method adopted in the H.264 standard.
  • the moving image signal 114 to be encoded is input to the motion compensation prediction unit 101 and the subtracter 102, respectively.
  • the motion compensation prediction unit 101 selects a reference image signal (reference frame) 115 of one frame from the reference images for motion compensation prediction stored in the frame memory 108 for the moving image signal 114, and the 16 ⁇
  • the motion compensation prediction process is performed in units of macroblocks of 16 pixels or in subblock units obtained by dividing the macroblock into a plurality of blocks, and the identification number of the reference image and the motion vector selected for each block subjected to the motion compensation prediction process get information.
  • the motion compensation prediction unit 101 performs motion compensation prediction processing of the moving image signal 114 using all motion vectors in a predetermined search range of all block sizes or sub block sizes and one or more selectable reference images.
  • 1 prediction image (prediction image signal, prediction signal) 116 is obtained.
  • the predicted image signal 116 is output to the subtractor 102 and the adder 106, and information on the motion vector 117 is output to the variable length encoding unit 110 and the motion vector storage memory 112.
  • the subtracter 102 performs a difference process between the prediction image signal 116 and the moving image signal 114 input from the motion compensation prediction unit 101 to obtain a prediction residual signal 118.
  • the prediction residual signal 118 is output to the coding mode determination unit 103.
  • the subtractor 102 constitutes a prediction residual generation unit.
  • the encoding mode determination unit 103 evaluates the prediction efficiency of the prediction residual signal 118 input from the subtracter 102, and the optimal prediction efficiency is obtained for the block on which the motion compensation prediction process executed by the subtractor 102 is performed.
  • the obtained macro block type or sub macro block type (encoding mode), motion vector, and reference image identification number are selected. These macroblock type or sub-macroblock type (encoding mode), motion vector, and reference image identification number are output to the variable-length encoding unit 110 and the encoding mode storage memory 113 as a prediction image generation parameter 119.
  • the coding mode determination unit 103 outputs the prediction residual signal 120 (that is, the prediction residual signal 118) obtained by motion compensation prediction based on the selected type, motion vector, and reference image to the compression unit 104.
  • the compression unit 104 performs DCT (Discrete Cosine Transform) processing on the prediction residual signal 120 input from the coding mode determination unit 103 to calculate a DCT coefficient, quantizes the DCT coefficient, Compressed data 121 that is a DCT coefficient after quantization is generated. This compressed data 121 is output to local decoding section 105 and variable length coding section 110.
  • DCT Discrete Cosine Transform
  • the local decoding unit 105 calculates a decoded prediction residual signal 122 by performing an inverse quantization process and an inverse DCT process on the compressed data 121 input from the compression unit 104.
  • the decoded prediction residual signal 122 is output to the adder 106, and the absolute value sum of the decoded prediction residual signal 122 is output to the prediction residual absolute value sum storage memory 111.
  • the decoded prediction residual signal 122 corresponds to the prediction residual signal 120 output from the coding mode determination unit 103.
  • the adder 106 adds the decoded prediction residual signal 122 input from the local decoding unit 105 and the predicted image signal 116 input from the motion compensated prediction unit 101 to generate a local decoded image signal 123.
  • This locally decoded image signal 123 is output to the loop filter 107.
  • the loop filter 107 compensates the coding distortion superimposed on the local decoded image signal 123 for the local decoded image signal 123 input from the adder 106, and generates a loop filter image signal 124.
  • the loop filter image signal 124 is output to the frame memory 108 as a reference image.
  • the prediction vector generation unit 109 estimates the motion vector of the encoding target block and generates a prediction vector.
  • FIG. 3 is a diagram for explaining a prediction vector generation method of the prediction vector generation unit 109.
  • a frame t is a frame to be encoded
  • a block to be encoded in the frame t is x
  • a prediction vector for the block to be encoded x is d f (x, t).
  • the frame t + 1 is an encoded frame, and an area including eight blocks around the block at the same position in the screen space as the encoding target block x is R.
  • the prediction vector generation unit 109 calculates the prediction residual absolute value sum from the prediction residual absolute value sum storage memory 111 for the encoding target block and its neighboring eight blocks as indicated by the region R in the frame t + 1 shown in FIG.
  • the motion vector 117 is acquired from the motion vector storage memory 112, and the encoding mode 119a is acquired from the encoding mode storage memory 113, respectively.
  • the prediction vector generating unit 109 By performing the calculation of (6), the prediction vector d f (x, t) in the frame t for the encoding target block x is calculated.
  • the subscript i indicates a macroblock position, the upper left is 0, and numbers are assigned in the raster scan order.
  • the weight ⁇ i is represented by the following equation (7), and the denominator of the equation (7) represents the sum of absolute values of the prediction residuals in the motion vector v i .
  • the prediction vector 125 (d f (x, t)) of the block x estimated by the prediction vector generation unit 109 is output from the prediction vector generation unit 109 to the variable length encoding unit 110.
  • the variable length coding unit 110 calculates a difference between the motion vector 117 input from the motion compensated prediction unit 101 and the prediction vector 125 input from the prediction vector generation unit 109, and calculates the obtained difference motion vector.
  • Variable length coding entropy coding
  • the variable-length encoding unit 110 includes the macroblock type (or sub-macroblock type) in the prediction image generation parameter 119, the compressed data 121 input from the compression unit 104, and the quantization processing of the compression unit 104.
  • the quantization step parameter and the orthogonal transform coefficient of the DCT process are also subjected to variable length coding processing to generate a bit stream 126 indicating the coding result.
  • the moving image compression signal 200 to be decoded is input to the variable length decoding unit 201.
  • This moving image compression signal 200 is a bit stream 126 generated by the above-described image encoding device.
  • the variable length decoding unit 201 performs entropy decoding processing on the moving image compression signal 200, and performs orthogonal transform coefficient 212, quantization step parameter 213, encoding mode 214, differential motion vector 215, and the like encoded in the signal. To restore.
  • the orthogonal transform coefficient 212 and the quantization step parameter 213 are output to the inverse quantization unit 202 and the inverse orthogonal transform unit 203.
  • the encoding mode 214 is output to the motion compensation unit 204 and the encoding mode storage memory 207.
  • the difference motion vector 215 is output to the motion compensation unit 204.
  • the inverse quantization unit 202 decodes the quantization step parameter 213, and the inverse orthogonal transform unit 203 decodes the orthogonal transform coefficient 212.
  • the variable length decoding unit 201, the inverse quantization unit 202, and the inverse orthogonal transform unit 203 constitute an analysis unit, and information such as an orthogonal transform coefficient 212, a quantization step parameter 213, an encoding mode 214, and a differential motion vector 215 are stored. Configure encoded symbols.
  • the motion compensation unit 204 When the encoding mode 214 input from the variable length decoding unit 201 is the inter mode, the motion compensation unit 204 is input from the differential motion vector 215 and the prediction vector generation unit 205 (described later) that are also input from the variable length decoding unit 201. The sum of the predicted vectors 216 to be used is a motion vector 217. In addition, the motion compensation unit 204 generates a predicted image signal 218 from the reference image signal in the frame memory 211 based on the motion vector 217 and the encoding mode 214. On the other hand, when the encoding mode 214 input from the variable length decoding unit 201 is the intra mode, the motion compensation unit 204 generates “0” as the predicted image signal 218. The motion vector 217 is output to the motion vector storage memory 206, and the predicted image signal 218 is output to the adder 209.
  • the output 219 of the inverse orthogonal transform unit 203 is a prediction residual signal 120 as a result of motion compensation prediction in the above-described image encoding device. Therefore, the motion compensation unit 204 uses the motion vector 217 to generate a predicted image signal 218 that is the same as the predicted image signal 116 generated by the image coding apparatus, and the adder 209 outputs the output 219 of the inverse orthogonal transform unit 203 and the predicted image. The decoded image signal 220 is reproduced by adding the signal 218.
  • the motion compensation unit 204 outputs 0 as the predicted image signal 218.
  • the decoded image signal 220 output from the adder 209 is input to the loop filter 210.
  • the loop filter 210 corrects the encoding distortion of the decoded image signal 220 and outputs it as a moving image signal 221.
  • the moving image signal 221 is stored in the frame memory 211 because it is used to generate a predicted image of the subsequent frames. Note that the motion compensation unit 204, the adder 209, and the loop filter 210 constitute a decoding unit.
  • the motion vector 217 is held by the coding mode storage memory 207, the coding mode 214 is held by the coding mode storage memory 207, and the absolute value of the output (prediction residual signal) 219 of the inverse orthogonal transform unit 203.
  • the sum value is held in the prediction residual absolute value sum storage memory 208 to prepare for generation of the prediction vector 216 by the prediction vector generation unit 205.
  • the prediction vector generation unit 205 includes a motion vector 217 input from the motion vector storage memory 206, an encoding mode 214 input from the encoding mode storage memory 207, and a prediction residual absolute value sum storage memory 208. Using the input prediction residual absolute value sum 219a, a prediction vector 216 is generated by the same processing as the prediction vector generation unit 109 of the above-described image encoding device.
  • the size of the motion prediction unit block is adaptively determined for each frame of the moving image signal 114, the block is divided into motion vector allocation regions, and the motion vector of each region is determined.
  • a motion compensated prediction unit 101 that generates a predicted image signal 116 from the reference image signal 115 held in the frame memory 108 based on the search result, and a prediction residual signal 118 between the predicted image signal 116 and the block.
  • the subtractor 102 to be generated, the compression unit 104 that compresses the prediction residual signal 118 generated by the subtractor 102, the prediction image generation parameter 119 such as the motion vector searched by the motion compensation prediction unit 101, and the compression unit 104 are generated.
  • the encoded block at the same position is used.
  • a predictive vector generation unit 109 that calculates the reliability of each motion vector of the surrounding block and weights and adds each motion vector according to the reliability to generate the prediction vector 125 of the processing target block, and includes variable length encoding
  • the unit 110 generates a difference vector between the motion vector 117 searched by the motion compensation prediction unit 101 and the prediction vector 125 generated by the prediction vector generation unit 109 for the processing target block, and the difference vector is compressed data 121 and a prediction image.
  • a bitstream 126 is generated by encoding together with the generation parameter 119. Sea urchin was constructed. For this reason, the accuracy of the prediction vector predicted from the time direction can be improved as compared with the conventional case where the motion vector at the same spatial position of the reference image signal is simply used as the prediction vector. As a result, the amount of motion vector codes can be reduced.
  • the variable length decoding unit 201 that analyzes a moving image compression signal 200 obtained by compressing and encoding a moving image signal for each motion prediction unit block and extracts an encoded symbol for each block. And a motion compensation unit 204 that restores the moving image compression signal 200 to the moving image signal 221 using the encoded symbol extracted by the variable length decoding unit 201.
  • a prediction vector generation unit 205 that generates a prediction vector of the processing target block using the encoded symbol of the reference image signal held in the frame memory 211, and the motion compensation unit 204 includes the code extracted by the variable length decoding unit 201.
  • the prediction vector generation unit 109 and the prediction vector generation unit 205 generate the prediction vector from the motion vector by the method shown in FIG. 3, but the present invention is not limited to this method, and the difference motion vector is not limited to this method.
  • generates a prediction vector from MVD may be sufficient.
  • FIG. 4 shows a prediction vector generation method of the prediction vector generation unit 109 when the difference motion vector MVD is used.
  • the equation (6) is used as the equation for obtaining the prediction vector d f (x, t) as in the first embodiment, but the following equation (7A) is used as the weight ⁇ i instead of the equation (7).
  • the denominator of Expression (7A) indicates the prediction residual absolute value sum as in the first embodiment.
  • p (x) is a non-linear function that depends on x ⁇ 1
  • k i is the magnitude of the vector of the differential motion vector MVD. Therefore, p (k i ) is expressed by the following equation (8) As shown in FIG. 4, the overall function is a function representing the reciprocal of the magnitude of the differential motion vector MVD. Further, the subscript i indicates the macroblock position, the upper right is 0, and numbers are assigned in the raster scan order.
  • the magnitude of the difference motion vector MVD represents the isolation degree of the vector, and the greater the difference motion vector MVD, the higher the possibility of the isolation degree.
  • the isolated vector is estimated to have a high probability of low reliability. Therefore, by incorporating the reciprocal of the differential motion vector MVD into the calculation formula for the weight ⁇ i , the weight of an isolated vector with low reliability can be reduced. Therefore, the prediction vector estimation accuracy can be improved by reducing the weight of the isolated vector.
  • FIG. 5 shows a prediction vector generation method of the prediction vector generation unit 109 when motion vector dispersion is used.
  • ⁇ i (m) and ⁇ i (n) are each represented by the following equation (9), and g i (m) and g i (n) are each represented by the following equation (10).
  • h (x) is a non-linear function that depends on x ⁇ 1 in the first embodiment, and g i (m) and g i (n) have the meaning of reciprocal of variance.
  • ⁇ d (m) and ⁇ d (n) indicate each component of dispersion in the region R shown in FIG.
  • the weight of a certain prediction residual absolute value sum in the region R is too large than necessary, and such a prediction residual absolute value sum is too large. Since the vector in a block with a small value is almost zero, as a result, there are cases where a block having a zero vector as an estimation result occurs more frequently than necessary.
  • the calculation amount of the prediction vector generation unit 109 and the prediction vector generation unit 205 increases, but since the amount of motion is small, a fine vector field with small variance is zero more than necessary. A prediction vector reflecting a fine vector field can be generated without dropping the vector.
  • the motion compensation prediction unit 101 of the first embodiment generates separate motion vectors for the luminance signal and the color difference signal
  • the prediction vector generation unit 109 and the prediction vector generation unit 205 convert the prediction vector of the color difference signal to the luminance signal.
  • the configuration may be such that the prediction vector is obtained by the same method as that for obtaining the prediction vector, or the prediction vector of the color difference signal may be separately obtained from the motion vector of the luminance signal.
  • FIG. 6 is a diagram illustrating a configuration for separately obtaining a prediction vector (chroma vector) of a color difference signal from a motion vector of a luminance signal.
  • the luminance vector estimation results of the respective macroblocks indicated by diagonal lines obtained by the motion compensation prediction unit 101 are luminance vectors d f1 to d f4 .
  • the prediction vector generation unit 109 and the prediction vector generation unit 205 use these luminance vectors to calculate the macro block color difference vector d fc indicated by diagonal lines as shown in the following equation (12).
  • the prediction vector generation method in the prediction vector generation unit 109 is described. However, this method may be used as a vector generation method used in the direct mode or the skip mode.
  • the prediction vector generation method of the first embodiment in the direct mode or the skip mode the direct mode or the skip mode can be easily selected, and the coding efficiency is improved.
  • Embodiment 2 a method different from that of the first embodiment will be described for the prediction vector generation processing of the prediction vector generation unit 109 and the prediction vector generation unit 205.
  • the image coding apparatus and the image decoding apparatus according to the second embodiment have the same configuration as the image coding apparatus and the image decoding apparatus shown in FIG.
  • the components other than the prediction vector generation unit 109 and the prediction vector generation unit 205 are the same as those in the first embodiment, and thus the description thereof is omitted.
  • FIG. 7 is a diagram for explaining a prediction vector generation method of the prediction vector generation unit 109 according to the second embodiment.
  • the prediction vector generation unit 109 converts the motion vector 117 from the motion vector storage memory 112 and the encoding mode storage memory 113 for the encoding target block and its four neighboring blocks as indicated by the region R in the frame t in FIG. To obtain the encoding mode 119a. As shown in FIG.
  • a prediction vector generation unit 109 calculates the prediction vector d f (x, t) in the encoding target block x by performing the calculation of the following expression (6A).
  • the weight ⁇ i in the equation (6A) is the same as the above equation (7) in the first embodiment, and the prediction residual absolute value sum in the motion vector d (x + v i , t) is also the same.
  • the motion vector does not exist in the block whose coding mode is the intra mode, and is excluded from the calculation by the above equation (6A).
  • the prediction vector generation unit 109 outputs the prediction vector d f (x, t) generated by the above-described prediction vector generation method as the prediction vector 125 to the variable length encoding unit 110.
  • the prediction vector generation unit 205 of the image decoding apparatus also generates a prediction vector 216 by the same prediction vector generation method as described above, and outputs the prediction vector 216 to the motion compensation unit 204.
  • the prediction vector generation unit 109 uses the information of the prediction residual absolute value sum 122a, the motion vector 117, and the encoding mode 119a of the adjacent block adjacent to the processing target block.
  • the reliability of each motion vector of the adjacent block is calculated, and the motion vector is weighted and added according to the reliability to generate the prediction vector 125. For this reason, it is possible to improve the accuracy of the prediction vector obtained by spatial prediction by weighting with the prediction residual absolute value sum, compared to the case where the median of the motion vector of the adjacent block is used as the prediction vector as in the prior art. it can. For this reason, the code amount of the motion vector included in the bit stream 126 can be reduced.
  • the prediction vector generation unit 109 and the prediction vector generation unit 205 generate a prediction vector from a motion vector by the method shown in FIG. 7, but the present invention is not limited to this method.
  • generates a prediction vector from MVD may be sufficient.
  • the estimation vector estimation accuracy can be improved by reducing the weight of the isolated vector.
  • a configuration using motion vector dispersion may be added when the prediction vector generation unit 109 and the prediction vector generation unit 205 of the second embodiment generate prediction vectors.
  • the details of the configuration have been described above with reference to FIG. 5, the calculation amount of the prediction vector generation unit 109 and the prediction vector generation unit 205 is increased in this configuration, but the amount of motion is small, so that the small amount of dispersion is small.
  • a predictive vector reflecting a fine vector field can be generated without dropping a simple vector field to a zero vector more than necessary.
  • the motion compensation prediction unit 101 of the second embodiment generates separate motion vectors for the luminance signal and the color difference signal
  • the prediction vector generation unit 109 and the prediction vector generation unit 205 convert the prediction vector of the color difference signal to the luminance signal.
  • the configuration may be such that the prediction vector is obtained by the same method as that for obtaining the prediction vector, or the prediction vector of the color difference signal may be separately obtained from the motion vector of the luminance signal. Details of this configuration have been described above with reference to FIG.
  • the prediction vector generation method in the prediction vector generation unit 109 is described.
  • this method may be used as a vector generation method used in the direct mode or the skip mode.
  • the prediction vector generation method of the second embodiment in the direct mode or the skip mode, the direct mode or the skip mode can be easily selected, and the coding efficiency is improved.
  • Embodiment 3 a method for selecting a prediction vector from a vector generated based on the prediction vector generation method described in the first embodiment or the second embodiment and a vector generated by an existing method will be described. .
  • FIG. 8 is a block diagram showing a configuration of an image encoding device according to Embodiment 3 of the present invention
  • FIG. 9 is a block diagram showing a configuration of the image decoding device. 8 and 9, the same or corresponding parts as those in FIGS. 1 and 2 are denoted by the same reference numerals and description thereof is omitted.
  • FIG. 10 is a block diagram showing an internal configuration of prediction vector determination unit 130 shown in FIG.
  • the prediction vector determination unit 130 includes a prediction vector generation unit 109 and a prediction vector selection unit 131. Since the prediction vector generation unit 109 is the same as the prediction vector generation unit 109 according to the first embodiment or the second embodiment, description thereof is omitted.
  • the prediction vector selection unit 131 calculates a vector that minimizes the cost obtained from the motion vector code amount of the block and the index code amount of the prediction vector selected from one or more prediction vector candidates by the following equation (13).
  • R represents the cost of a motion vector
  • ⁇ mv represents a differential motion vector
  • i represents a prediction vector index
  • represents a Lagrange multiplier.
  • the prediction vector candidates used by the prediction vector selection unit 131 for the prediction vector selection process are the motion vector 122a of the encoded block and the prediction vector 125 generated by the prediction vector generation unit 109. Then, the prediction vector selection unit 131 outputs the prediction vector 133 selected by the above equation (13) and the prediction vector index 134 to the variable length encoding unit 132.
  • the image encoding device and the image decoding device hold a common index table, and the prediction vector selection unit 131 stores the prediction vector 133 from the index table.
  • MV_A to MV_C in FIG. 11 are the encoded blocks A to C shown in FIG. 13, and the temporal prediction vector is a vector generated in the first embodiment.
  • the index table is a motion vector other than that shown in FIG.
  • a vector or the like used in the H.264 temporal direct mode may be a candidate, or may be a smaller number than shown in FIG. It is possible to increase the accuracy of the prediction vector by increasing the number of candidates, and there is an effect of reducing the load on the image coding device by carefully selecting the number.
  • the index table may be created in advance and set in the image encoding device and the image decoding device, or the image encoding device encodes the image by including it in a sequence header or a picture header. May be notified.
  • the coding amount of the header increases, but a prediction vector candidate can be set according to the sequence or picture to be encoded. Accuracy can be improved. And since the precision of a prediction vector goes up, code amount can be reduced per sequence or a picture unit.
  • variable length coding unit 132 performs variable length coding (entropy coding) processing on the prediction vector index 134 input from the prediction vector determination unit 130. Similarly, the variable length coding unit 132 calculates a difference between the motion vector 117 input from the motion compensation prediction unit 101 and the prediction vector 133 input from the prediction vector determination unit 130, and obtains the difference motion obtained. Variable length coding processing is performed on the vector. Further, the variable length encoding unit 132 includes the macroblock type (or sub macroblock type) in the prediction image generation parameter 119, the compressed data 121 input from the compression unit 104, and the quantization processing quantization of the compression unit 104. The encoding step parameter and the orthogonal transform coefficient of the DCT processing are also subjected to variable length encoding processing to generate a bit stream 126 indicating the encoding result.
  • variable length coding entropy coding
  • the variable length decoding unit 230 performs entropy decoding processing on the moving image compression signal 220, and performs orthogonal transform coefficient 212, quantization step parameter 213, encoding mode 214, differential motion vector 215, and the like encoded in the signal. To restore.
  • the orthogonal transform coefficient 212 and the quantization step parameter 213 are output to the inverse quantization unit 202 and the inverse orthogonal transform unit 203.
  • the encoding mode 214 is output to the motion compensation unit 204 and the encoding mode storage memory 207.
  • the difference motion vector 215 is output to the motion compensation unit 204.
  • the variable length decoding unit 230 restores the prediction vector index 233 encoded in the moving image compression signal 220 and outputs the restored index to the prediction vector determination unit 231.
  • FIG. 12 is a block diagram showing an internal configuration of the prediction vector determination unit 231 shown in FIG.
  • the prediction vector determination unit 231 includes a prediction vector generation unit 205 and a prediction vector selection unit 232.
  • the prediction vector selection unit 232 selects a prediction vector based on the prediction vector index 233 input from the variable length decoding unit 230 and the index table.
  • the prediction vector selection unit 232 outputs the prediction vector type 234 to the prediction vector generation unit 205. .
  • the image encoding device and the image decoding device hold a common index table, and the prediction vector selection unit 232 determines a prediction vector from the index table.
  • the variable length decoding unit 230 of the image decoding device performs the moving image compression signal.
  • the index table is restored from 200 and output to the prediction vector selection unit 232.
  • the prediction vector generation unit 205 is the same as the prediction vector generation unit 205 according to the first embodiment or the second embodiment. Based on the prediction vector type 234 input from the prediction vector selection unit 232, the motion vector 217 in the reference image input from the motion vector storage memory 206 or the motion vector 217 of the block adjacent to the decoding target block; Using the encoding mode 214 input from the encoding mode storage memory 207 and the prediction residual absolute value sum 219a input from the prediction residual absolute value sum storage memory 208, the first embodiment or the implementation described above. The prediction vector 216 is generated by the same method as that of the prediction vector generation unit 205 of the form 2 and is output to the motion compensation unit 204.
  • the prediction vector 125 generated by the prediction vector generation unit 109 and the motion vector 117 searched by the motion compensated prediction unit 101 for the processing target block are set as prediction vector candidates.
  • a prediction vector selection unit 131 that selects a vector that satisfies a predetermined condition as the prediction vector 133 and converts the vector according to a predetermined rule to generate a prediction vector index 134 is provided.
  • the variable length encoding unit 132 performs motion compensation on the processing target block.
  • a difference vector between the motion vector 117 searched by the prediction unit 101 and the prediction vector 133 selected by the prediction vector selection unit 131 is generated, and the difference vector and the index 134 of the prediction vector converted by the prediction vector selection unit 131 are compressed data.
  • prediction vector determination part 130 can employ
  • the prediction vector generation unit 109 of the first embodiment or the second embodiment generates a prediction vector by weighting a motion vector with a weight ⁇ i, but uses a motion vector that is not weighted locally. It is also conceivable that the prediction accuracy is higher than that when the prediction vector is generated.
  • the optimal vector is selected from the prediction vector generated by the prediction vector generation method and the motion vector of the encoded block in the prediction vector determination unit 130 according to the third embodiment, as described above. Even in such a case, encoding can be performed without reducing the prediction accuracy. Therefore, the code amount can be reduced.
  • variable length decoding unit 201 extracts the prediction vector index 233 from the compressed moving image 200, and the prediction vector selection unit 232 converts the prediction vector index 233 according to a predetermined rule.
  • the prediction vector type 234 is specified, and the prediction vector generation unit 205 is configured to generate the prediction vector 216 according to the prediction vector type 234.
  • the prediction vector determining unit 231 only selects a prediction vector according to the prediction vector index 233, so that a prediction vector is generated without increasing the processing amount as compared with the conventional image decoding apparatus. can do.
  • the prediction vector generation method in the prediction vector generation unit 109 is described.
  • this method may be used as a vector generation method used in the direct mode or the skip mode.
  • the prediction vector generating method of the third embodiment in the direct mode or the skip mode, the direct mode or the skip mode can be easily selected, and the coding efficiency is improved.
  • the image encoding device, the image decoding device, the image encoding method, and the image decoding method according to the present invention can generate a highly accurate prediction vector that is close to the motion vector of the processing target block. Since it is possible to increase the efficiency of long encoding and reduce the amount of code, an image encoding apparatus and method for predictively encoding each frame of a moving image signal in units of macroblocks using motion prediction, and encoding It is suitable for use in an image decoding apparatus and method for decoding and reproducing moving image encoded data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 予測ベクトル生成部109が、符号化対象ブロックの動きベクトルの推定を行って予測ベクトル125を生成し、可変長符号化部110が動きベクトル117と予測ベクトル125の差分ベクトルを符号化する。予測ベクトル生成部109での予測ベクトル推定の際、予測残差絶対値和122aの小さいブロックにおける信頼性の高い動きベクトル117に対して強い重みを与えて、予測ベクトルの推定精度を向上させる。

Description

画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
 この発明は、動画像信号の各フレームを動き予測を用いてマクロブロック単位に予測符号化する画像符号化装置とその方法、並びに符号化した動画像符号化データを復号及び再生する画像復号装置とその方法に関するものである。
 従来、MPEGやITU-T H.26x等の国際標準映像符号化方式では、画面を分割したマクロブロックを1つの符号化処理の単位とし、動き補償技術及び直交変換/変換係数量子化技術に基づいて圧縮する方法が採用されている。
 動き補償技術とは、ビデオフレーム間に存在する高い相関を利用して、マクロブロック毎に時間方向の信号の冗長度を削減する技術である。この技術を用いる画像符号化装置は、過去に符号化済みの画像を参照画像としてメモリ内に蓄積しておき、参照画像中の所定の探索範囲内で、動き補償予測の対象となっている現マクロブロックと最も差分電力の小さいブロック領域を探索して、現マクロブロックの空間位置と探索結果のブロックの空間位置とのずれを動きベクトルとして符号化する。
 動き補償技術により生成された動きベクトルMVは、符号化済みブロックの動きベクトルから符号化対象ブロックの動きベクトルを予測したベクトルを用いて符号化される。画像符号化装置は、下式(1)のように予測されたベクトル(以下、予測ベクトル)PMVと符号化対象ブロックの動きベクトルMVの差分(以下、差分動きベクトルMVD)を可変長符号化する。

  MVD=MV-PMV   (1)
 そのため、予測ベクトルPMVが符号化対象ブロックの動きベクトルMVに似たベクトルであればMVDの値は小さくなり、符号量を削減できることになる。
 空間予測ベクトルの生成方法としては、例えば非特許文献1に記載された方法がある。図13に、非特許文献1に係る空間予測ベクトルの生成方法を示す。予測ベクトルPMVを算出する対象のマクロブロックが、図13に示すようなカレントマクロブロック(図13中のcurrent MB)である場合、そのカレントマクロブロックの左横、上、右上にそれぞれ位置している符号化済みマクロブロックA,B,Cの動きベクトルMVa,MVb,MVcを用いて、そのカレントマクロブロックの予測ベクトルPMVを算出する。
 即ち、画像符号化装置は、符号化済みマクロブロックA,B,Cの動きベクトルMVa,MVb,MVcを、下式(2)に代入して、動きベクトルMVa,MVb,MVcのメディアン(中央値)を算出し、このメディアンを予測ベクトルPMVとする。

  PMV=median(MVa,MVb,MVc)   (2)

 ここで、median(x,y,z)は、x,y,zのメディアンを算出する関数である。
 また、時間方向でのベクトル推定については、例えば非特許文献1に記載されたBピクチャの時間ダイレクトモードを用いる方法がある。図14に、非特許文献1の時間ダイレクトモードにおける動きベクトルの推定方法を示す。図14において、Pは片方向予測ピクチャを表し、Bは双方向予測ピクチャを表す。また、P又はBに続く数字0~3は表示順を示し、時間T0,T1,T2,T3における表示画像であることを表す。ここで、符号化処理はP0,P3,B1,B2の順に行ったものとする。
 図14のピクチャB2のうち、マクロブロックMB1を時間ダイレクトモードで符号化することを考える。ここで、ピクチャB2の時間軸上後方にある符号化済みピクチャのうち、一番近いピクチャP3上の、マクロブロックMB1と空間的に同じ位置にあるマクロブロックMB2の動きベクトルMVを用いる。この動きベクトルMVは、ピクチャP0を参照している。このとき、マクロブロックMB1を符号化する際に用いる動きベクトルMVL0,MVL1は、下式(3)より求められる。

Figure JPOXMLDOC01-appb-I000001
MPEG-4 AVC(ISO/IEC 14496-10)/ITU-T H.264規格
 従来の画像符号化装置は以上のように構成されているので、非特許文献1の予測ベクトル生成方法では、隣接する符号化済みブロックにおける動きベクトルが符号化対象ブロックにおける予測ベクトルとして適切であるかどうかの評価をしておらず、従って生成した予測ベクトルの精度が著しく低下したときに符号化効率が悪化するという課題があった。
 また、符号化対象ブロックと隣接する空間位置にあるブロックの動きベクトルのみから予測ベクトルを算出するため、生成した予測ベクトルが局所的な動きベクトルの変化に影響されてしまうという課題がある。さらに、時間方向の予測は、参照画像の空間的に同じ位置にあるブロックの動きベクトルのみを用いるため、局所的な動きに対して弱いという課題がある。
 この発明は、上記のような課題を解決するためになされたもので、空間から予測される予測ベクトル及び時間方向から予測されるベクトルの精度を向上させることで、動きベクトルの符号量を削減することを目的とする。
 この発明に係る画像符号化装置は、処理対象ブロックと同一位置の参照フレーム中の符号化済ブロック及びその周辺ブロックの情報を用いて、当該同一位置の符号化済ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、信頼度に応じて各動きベクトルを重み付け加算して処理対象ブロックの予測ベクトルを生成する予測ベクトル生成部を備え、可変長符号化部は、処理対象ブロックについて、動き補償予測部が探索した動きベクトルと予測ベクトル生成部が生成した予測ベクトルとの差分ベクトルを生成し、当該差分ベクトルを予測残差生成部が生成した予測残差信号と共に符号化するものである。
 この発明に係る画像復号装置は、復号部が復元した参照フレームの符号化シンボルを用いて、処理対象ブロックの予測ベクトルを生成する予測ベクトル生成部を備え、復号部は、解析部が抽出した符号化シンボル及び参照フレームと共に予測ベクトル生成部が生成した予測ベクトルを用いて、動画像圧縮信号を復元するものである。
 この発明に係る画像符号化方法は、処理対象ブロックと同一位置の参照フレーム中の符号化済ブロック及びその周辺ブロックの情報を用いて、当該同一位置の符号化済ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、信頼度に応じて各動きベクトルを重み付け加算して処理対象ブロックの予測ベクトルを生成する予測ベクトル生成ステップを備え、可変長符号化ステップは、処理対象ブロックについて、動き補償予測ステップで探索した動きベクトルと予測ベクトル生成ステップで生成した予測ベクトルとの差分ベクトルを生成し、当該差分ベクトルを予測残差生成ステップで生成した予測残差信号と共に符号化するものである。
 この発明に係る画像復号方法は、復号ステップで復元した参照フレームの符号化シンボルを用いて、処理対象ブロックの予測ベクトルを生成する予測ベクトル生成ステップを備え、復号ステップは、解析ステップで抽出した符号化シンボル及び参照フレームと共に予測ベクトル生成ステップで生成した予測ベクトルを用いて、動画像圧縮信号を復元するものである。
 この発明によれば、処理対象ブロックと同一位置の参照フレーム中の符号化済ブロック及びその周辺ブロックの情報を用いて、当該同一位置の符号化済ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、信頼度に応じて各動きベクトルを重み付け加算して処理対象ブロックの予測ベクトルを生成するようにしたので、処理対象ブロックの動きベクトルに近い高精度な予測ベクトルを生成することができ、この結果、差分ベクトルに対する可変長符号化の効率を高めて符号量を削減することができる。
この発明の実施の形態1に係る画像符号化装置の構成を示すブロック図である。 この発明の実施の形態1に係る画像復号装置の構成を示すブロック図である。 図1に示す予測ベクトル生成部109の予測ベクトル生成方法を説明する図である。 図1に示す予測ベクトル生成部109の予測ベクトル生成方法を説明する図であり、差分動きベクトルMVDを用いた場合を示す。 図1に示す予測ベクトル生成部109の予測ベクトル生成方法を説明する図であり、動きベクトルの分散を用いた場合を示す。 図1に示す予測ベクトル生成部109の予測ベクトル生成方法を説明する図であり、輝度信号の動きベクトルから色差信号の予測ベクトルを別途求める場合を示す。 この発明の実施の形態2に係る画像符号化装置における予測ベクトル生成部109の予測ベクトル生成方法を説明する図である。 この発明の実施の形態3に係る画像符号化装置の構成を示すブロック図である。 この発明の実施の形態3に係る画像復号装置の構成を示すブロック図である。 図8に示す予測ベクトル決定部130の内部構成を示すブロック図である。 この発明の実施の形態3に係るインデックステーブルの例を示す図である。 図9に示す予測ベクトル決定部231の内部構成を示すブロック図である。 従来の空間予測ベクトルの生成方法を説明する図である。 従来の時間ダイレクトモードにおける動きベクトルの推定方法を説明する図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る画像符号化装置の構成を示すブロック図であり、図2は画像復号装置の構成を示すブロック図である。
 なお、本実施の形態1では、映像フレームを16×16画素の矩形領域(以下、マクロブロック)に均等分割した単位で符号化を行う画像符号化装置、及びその復号を行う画像復号装置を例に用いて説明する。なお、この画像符号化装置は、先立って説明した非特許文献1に記載された符号化方式をベースとしているため、同様の構成については説明を簡略化する。
1.画像符号化装置
 先ず、図1に示す画像符号化装置を説明する。以下に説明する動き補償予測部101、減算器102、符号化モード判定部103、圧縮部104、局部復号部105、加算器106、ループフィルタ107及びフレームメモリ108の各部が行う処理方法は、先立って説明した非特許文献1であるMPEG-4 AVC(ISO/IEC 14496-10)/ITU-T H.264規格で採用される符号化方式をベースとする。
 先ず、符号化対象となる動画像信号114が、動き補償予測部101及び減算器102にそれぞれ入力される。
 動き補償予測部101は、動画像信号114に対して、フレームメモリ108に格納されている動き補償予測用の参照画像の中から1フレームの参照画像信号(参照フレーム)115を選択し、16×16画素のマクロブロック単位で、又はマクロブロックを複数のブロックに分割したサブブロック単位で動き補償予測処理を行い、動き補償予測処理を行ったブロック毎に選択した参照画像の識別番号と動きベクトルの情報を得る。また、動き補償予測部101は、全ブロックサイズ又はサブブロックサイズの所定の探索範囲の全ての動きベクトル、及び選択可能な1枚以上の参照画像を用いて動画像信号114の動き補償予測処理を行い、1枚の予測画像(予測画像信号、予測信号)116を得る。
 予測画像信号116は、減算器102及び加算器106へ出力され、動きベクトル117の情報は可変長符号化部110及び動きベクトル保存用メモリ112に出力される。
 減算器102は、動き補償予測部101から入力される予測画像信号116と動画像信号114の差分処理を行い、予測残差信号118を得る。この予測残差信号118は符号化モード判定部103へ出力される。なお、減算器102は予測残差生成部を構成する。
 符号化モード判定部103は、減算器102から入力される予測残差信号118の予測効率を評価し、減算器102が実行した動き補償予測処理を行ったブロックに対して、最適な予測効率が得られるマクロブロックタイプ又はサブマクロブロックタイプ(符号化モード)、動きベクトル、及び参照画像の識別番号を選択する。これらマクロブロックタイプ又はサブマクロブロックタイプ(符号化モード)、動きベクトル、及び参照画像の識別番号は、予測画像生成用パラメータ119として可変長符号化部110及び符号化モード保存用メモリ113へ出力される。また、符号化モード判定部103は、選定されたタイプ、動きベクトル、及び参照画像に基づく動き補償予測によって得られる予測残差信号120(即ち予測残差信号118)を圧縮部104へ出力する。
 圧縮部104は、符号化モード判定部103から入力される予測残差信号120に対してDCT(離散コサイン変換)処理を実施することでDCT係数を算出すると共に、そのDCT係数を量子化して、量子化後のDCT係数である圧縮データ121を生成する。この圧縮データ121は、局部復号部105及び可変長符号化部110へ出力される。
 局部復号部105は、圧縮部104から入力される圧縮データ121に対して逆量子化処理及び逆DCT処理を実施することで、復号予測残差信号122を算出する。この復号予測残差信号122は加算器106へ出力されると共に、復号予測残差信号122の絶対値和が予測残差絶対値和保存用メモリ111へ出力される。なお、この復号予測残差信号122は、符号化モード判定部103から出力される予測残差信号120に相当する。
 加算器106は、局部復号部105から入力される復号予測残差信号122と、動き補償予測部101から入力される予測画像信号116を加算することで、局部復号画像信号123を生成する。この局所復号画像信号123はループフィルタ107へ出力される。
 ループフィルタ107は、加算器106から入力される局部復号画像信号123に対して、局所復号画像信号123に重畳されている符号化歪みを補償し、ループフィルタ画像信号124を生成する。このループフィルタ画像信号124は、参照画像としてフレームメモリ108に出力される。
 予測ベクトル生成部109は、符号化対象ブロックの動きベクトルの推定を行って予測ベクトルを生成する。図3は、予測ベクトル生成部109の予測ベクトル生成方法を説明する図である。図3において、フレームtは符号化対象のフレームであり、フレームtのうちの符号化対象のブロックをx、符号化対象ブロックxに対する予測ベクトルをdf(x,t)とする。また、フレームt+1は符号化済みのフレームであり、符号化対象ブロックxと画面空間上で同じ位置となるブロックを中心に周囲8つのブロックを含む領域をRとする。
 予測ベクトル生成部109は、図3に示すフレームt+1における領域Rで示すような、符号化対象ブロック及びその近傍8ブロックに関して、予測残差絶対値和保存用メモリ111から予測残差絶対値和を、動きベクトル保存用メモリ112から動きベクトル117を、符号化モード保存用メモリ113から符号化モード119aをそれぞれ取得する。図3のように、9つの動きベクトル(符号化ベクトル)を下式(4)とし、予測残差(符号化残差)を下式(5)としたとき、予測ベクトル生成部109が下式(6)の演算を行うことにより、符号化対象ブロックxに対するフレームtにおける予測ベクトルdf(x,t)を算出する。

Figure JPOXMLDOC01-appb-I000002

Figure JPOXMLDOC01-appb-I000003

Figure JPOXMLDOC01-appb-I000004
 ここで、添え字iはマクロブロック位置を示し、左上を0とし、ラスタスキャン順に番号が割り振られているものとする。また、このとき、重みφiは下式(7)であり、式(7)の分母は動きベクトルviにおける予測残差絶対値和を示している。

Figure JPOXMLDOC01-appb-I000005
 予測残差絶対値和が小さいほど動きベクトル自体の信頼性が高く、予測残差の絶対値和が大きいほど動きベクトル自体の信頼性が低いという性質がある。そこで、この性質に基づいて、重みφiで動きベクトルd(x+vi,t+1)を重み付けすることにより、予測残差絶対値和の小さいブロックにおける信頼性の高い動きベクトルに対して強い重みを与えることができる。従って、予測残差絶対値和の小さいブロックの動きベクトルの重みを大きくすることにより予測ベクトルの推定精度を向上させることができる。
 ただし、図3の領域Rで示す9つのブロックのうち、符号化モードがイントラモードのブロックには動きベクトルが存在しないため、上式(6)による演算から除外する。
 また、符号化モードがスキップモードのブロックの場合には、画像復号装置において予測ベクトルを用いた動き補償結果を復号画像として用いるため、画像符号化装置では予測残差を符号化しない。そのため、予測ベクトル生成部109は予測残差絶対値和として固定値Aを用いて上式(6)による演算を実施する。
 また、符号化モードがインターモードのブロックでもDCT係数が符号化されておらず予測残差絶対値和が0になる場合には、予測ベクトル生成部109が予測残差絶対値和として固定値Bを用いて上式(6)による演算を実施する。
 また、領域Rで示す9つのブロック全てがイントラモードのブロックである場合には、例外的にdf(x,t)=(0,0)とする。
 上記のように予測ベクトル生成部109で推定されたブロックxの予測ベクトル125(df(x,t))は、予測ベクトル生成部109から可変長符号化部110に出力される。
 可変長符号化部110は、動き補償予測部101から入力される動きベクトル117について、予測ベクトル生成部109から入力される予測ベクトル125との間で差分をとり、得られた差分動きベクトルに対して可変長符号化(エントロピー符号化)処理を行う。同様に、可変長符号化部110は、予測画像生成用パラメータ119のうちのマクロブロックタイプ(又はサブマクロブロックタイプ)、圧縮部104から入力される圧縮データ121、圧縮部104の量子化処理の量子化ステップパラメータ及びDCT処理の直交変換係数も可変長符号化処理して、符号化結果を示すビットストリーム126を生成する。
2.画像復号装置
 次に、図2に示す画像復号装置を説明する。先ず、復号対象となる動画像圧縮信号200が、可変長復号部201に入力される。この動画像圧縮信号200は、上述した画像符号化装置が生成したビットストリーム126である。
 可変長復号部201は、動画像圧縮信号200に対してエントロピー復号処理を行い、信号中に符号化されていた直交変換係数212、量子化ステップパラメータ213、符号化モード214、差分動きベクトル215等を復元する。直交変換係数212及び量子化ステップパラメータ213は、逆量子化部202及び逆直交変換部203へ出力される。符号化モード214は、動き補償部204及び符号化モード保存用メモリ207に出力される。差分動きベクトル215は、動き補償部204に出力される。
 逆量子化部202は、量子化ステップパラメータ213を復号し、逆直交変換部203は、直交変換係数212を復号する。なお、可変長復号部201、逆量子化部202及び逆直交変換部203は解析部を構成し、直交変換係数212、量子化ステップパラメータ213、符号化モード214、差分動きベクトル215等の情報が符号化シンボルを構成する。
 動き補償部204は、可変長復号部201から入力される符号化モード214がインターモードの場合、同じく可変長復号部201から入力される差分動きベクトル215と予測ベクトル生成部205(後述)から入力される予測ベクトル216の和を動きベクトル217とする。また、動き補償部204は、この動きベクトル217と符号化モード214とに基づいて、フレームメモリ211の参照画像信号から予測画像信号218を生成する。
 一方、可変長復号部201から入力される符号化モード214がイントラモードの場合、動き補償部204は予測画像信号218として「0」を生成する。
 動きベクトル217は動きベクトル保存用メモリ206に出力され、予測画像信号218は加算器209に出力される。
 符号化モード214がインターモードの場合、逆直交変換部203の出力219は、上述した画像符号化装置における動き補償予測の結果の予測残差信号120である。従って、動き補償部204は動きベクトル217を用いて、画像符号化装置で生成した予測画像信号116と同じ予測画像信号218を生成し、加算器209において逆直交変換部203の出力219と予測画像信号218とを加算することによって復号画像信号220が再現される。
 一方、イントラモードの場合、画像符号化装置では参照画像を全く利用せずにフレーム内符号化するので、逆直交変換部203の出力219がそのまま復号画像信号220となる。そのため、動き補償部204は予測画像信号218として0を出力している。
 加算器209から出力される復号画像信号220は、ループフィルタ210に入力される。ループフィルタ210は、復号画像信号220の符号化歪みを補正して、動画像信号221として出力される。また、この動画像信号221は、これ以降のフレームの予測画像生成に用いられるため、フレームメモリ211に格納される。なお、動き補償部204、加算器209及びループフィルタ210は、復号部を構成している。
 また、動きベクトル217は符号化モード保存用メモリ207によって保持され、符号化モード214は符号化モード保存用メモリ207によって保持され、逆直交変換部203の出力(予測残差信号)219の絶対値和の値は予測残差絶対値和保存用メモリ208によって保持されて、予測ベクトル生成部205による予測ベクトル216の生成に備える。
 予測ベクトル生成部205は、動きベクトル保存用メモリ206から入力される動きベクトル217と、符号化モード保存用メモリ207から入力される符号化モード214と、予測残差絶対値和保存用メモリ208から入力される予測残差絶対値和219aを用いて、上述の画像符号化装置の予測ベクトル生成部109と同様の処理によって予測ベクトル216を生成する。
 以上より、実施の形態1によれば、動画像信号114の各フレームについて、動き予測単位ブロックのサイズを適応的に決定し、当該ブロックを動きベクトル割り当て領域に分割して各領域それぞれの動きベクトルを探索して、検索結果に基づきフレームメモリ108に保持された参照画像信号115から予測画像信号116を生成する動き補償予測部101と、予測画像信号116と当該ブロックとの予測残差信号118を生成する減算器102と、減算器102が生成した予測残差信号118を圧縮する圧縮部104と、動き補償予測部101が探索した動きベクトル等の予測画像生成用パラメータ119及び圧縮部104が生成した圧縮データ121を符号化する可変長符号化部110とを備える画像符号化装置において、処理対象ブロックと同一位置の参照画像信号115中の符号化済ブロック及びその周辺ブロックの予測残差絶対値和122a、動きベクトル117及び符号化モード119aの情報を用いて、当該同一位置の符号化済ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、信頼度に応じて各動きベクトルを重み付け加算して処理対象ブロックの予測ベクトル125を生成する予測ベクトル生成部109を備え、可変長符号化部110は、処理対象ブロックについて、動き補償予測部101が探索した動きベクトル117と予測ベクトル生成部109が生成した予測ベクトル125との差分ベクトルを生成し、当該差分ベクトルを圧縮データ121及び予測画像生成用パラメータ119と共に符号化してビットストリーム126を生成するように構成した。このため、従来のように参照画像信号の空間的に同じ位置にある動きベクトルを単に予測ベクトルとして利用する場合に比べ、時間方向から予測する予測ベクトルの精度を向上させることができる。その結果、動きベクトルの符号量を削減することができる。
 また、実施の形態1によれば、動画像信号が動き予測単位ブロック毎に圧縮符号化されてなる動画像圧縮信号200を解析して当該ブロック毎の符号化シンボルを抽出する可変長復号部201と、可変長復号部201が抽出した符号化シンボルを用いて、動画像圧縮信号200を動画像信号221に復元する動き補償部204とを備える画像復号装置において、動き補償部204が復元してフレームメモリ211に保持される参照画像信号の符号化シンボルを用いて、処理対象ブロックの予測ベクトルを生成する予測ベクトル生成部205を備え、動き補償部204は、可変長復号部201が抽出した符号化シンボル及び参照画像信号と共に予測ベクトル生成部205が生成した予測ベクトル216を用いて、動画像圧縮信号200を復元して動画像信号221を生成するように構成した。このため、画像復号装置側では予測ベクトル生成のために必要な情報を動画像圧縮信号200から取り出すことが可能であり、追加の情報が不要である。
 なお、上記実施の形態1では、予測ベクトル生成部109及び予測ベクトル生成部205が図3に示す方法により動きベクトルから予測ベクトルを生成したが、この方法に限定されるものではなく、差分動きベクトルMVDから予測ベクトルを生成する構成であってもよい。図4に、差分動きベクトルMVDを用いた場合の予測ベクトル生成部109の予測ベクトル生成方法を示す。予測ベクトルdf(x,t)を求める式は、上記実施の形態1と同様に上式(6)を用いるが、重みφiは上式(7)に代えて下式(7A)を用いる。

Figure JPOXMLDOC01-appb-I000006
 式(7A)の分母は、上記実施の形態1と同様に予測残差絶対値和を示す。また、p(x)はx-1に依存するようなある非線形関数であり、kiは差分動きベクトルMVDのベクトルの大きさである、よって、p(ki)は、下式(8)に示すように、全体としては差分動きベクトルMVDの大きさの逆数を表す関数である。また、添え字iはマクロブロック位置を示し、右上を0とし、ラスタスキャン順に番号が割り振られているものとする。

Figure JPOXMLDOC01-appb-I000007
 差分動きベクトルMVDの大きさはベクトルの孤立度を表し、差分動きベクトルMVDが大きいほど孤立度が大きい可能性が高い。そして、孤立したベクトルは信頼性が低い確率が高いと推定される。そこで、重みφiの計算式に差分動きベクトルMVDの逆数を取り入れることにより、信頼性の低い孤立したベクトルの重みを小さくすることができる。従って、孤立したベクトルの重みを小さくすることにより予測ベクトルの推定精度を向上させることができる。
 また、上記実施の形態1の予測ベクトル生成部109及び予測ベクトル生成部205による予測ベクトル生成の際に、動きベクトルの分散を用いる構成を追加してもよい。図5に、動きベクトルの分散を用いた場合の予測ベクトル生成部109の予測ベクトル生成方法を示す。
 このとき、φi(m),φi(n)はそれぞれ下式(9)で表され、gi(m),gi(n)はそれぞれ下式(10)で表される。

Figure JPOXMLDOC01-appb-I000008

Figure JPOXMLDOC01-appb-I000009

 ここで、h(x)は、本実施の形態1ではx-1に依存する非線形関数とし、gi(m),gi(n)は分散の逆数の意味を持つ。
 このとき、σd(m),σd(n)は、図5に示す領域Rの分散の各成分を示しており、下式(11)となる。

Figure JPOXMLDOC01-appb-I000010
 実施の形態1では、領域Rのベクトルが全体的に小さい場合、領域Rのある特定の予測残差絶対値和が小さなブロックに対する重みが必要以上に大きすぎ、そのような予測残差絶対値和が小さいブロックにおけるベクトルはほとんどの場合ゼロであるため、結果として必要以上に推定結果としてゼロベクトルとなるブロックが多発する場合がある。
 これに対して、図5に示す構成の場合、予測ベクトル生成部109及び予測ベクトル生成部205の演算量は増えるが、動き量が少ないために分散の小さな微細なベクトル場を、必要以上にゼロベクトルに落とすことなく、微細なベクトル場を反映した予測ベクトルを生成することができる。
 また、上記実施の形態1の動き補償予測部101が輝度信号と色差信号で別々の動きベクトルを生成し、予測ベクトル生成部109及び予測ベクトル生成部205が、色差信号の予測ベクトルを輝度信号の予測ベクトルを求める場合と同様の方法で求める構成にしてもよいし、又は、輝度信号の動きベクトルから色差信号の予測ベクトルを別途求める構成にしてもよい。
 図6は、輝度信号の動きベクトルから色差信号の予測ベクトル(クロマベクトル)を別途求める構成を説明する図である。動き補償予測部101により得られる、斜線で示すあるマクロブロックにおける各ブロックの輝度ベクトルの推定結果をそれぞれ輝度ベクトルdf1~df4とする。予測ベクトル生成部109及び予測ベクトル生成部205は、これらの輝度ベクトルを用いて、斜線で示すマクロブロックの色差ベクトルdfcを下式(12)のように計算する。

Figure JPOXMLDOC01-appb-I000011
 また、上記実施の形態1では、予測ベクトル生成部109における予測ベクトル生成方法について記したが、この方法を、前述のダイレクトモードやスキップモードに用いるベクトルの生成方法として利用してもよい。ダイレクトモードやスキップモードで上記実施の形態1の予測ベクトル生成方法を用いることにより、ダイレクトモードやスキップモードが選ばれやすくなり、符号化効率が向上するという効果がある。
実施の形態2.
 本実施の形態2では、予測ベクトル生成部109及び予測ベクトル生成部205の予測ベクトル生成処理について、上記実施の形態1とは異なる方法を説明する。なお、本実施の形態2に係る画像符号化装置及び画像復号装置は、図1に示す画像符号化装置及び図2に示す画像復号装置と図面上では同様の構成であるため以下では図1及び図2を援用し、予測ベクトル生成部109及び予測ベクトル生成部205以外の各部については上記実施の形態1と同様のため説明を省略する。
 図7は、実施の形態2に係る予測ベクトル生成部109の予測ベクトル生成方法を説明する図である。ここでは、予測ベクトル生成処理に際して、空間的に隣接した符号化済みブロックの動きベクトルを用いることを前提とする。
 予測ベクトル生成部109は、図7のフレームtにおける領域Rで示すような、符号化対象ブロック及びその近傍4ブロックに関して、動きベクトル保存用メモリ112から動きベクトル117を、符号化モード保存用メモリ113から符号化モード119aをそれぞれ取得する。図7のように、符号化済みのブロックの動きベクトル(符号化ベクトル)を下式(4A)とし、予測残差(符号化残差)を下式(5A)としたとき、予測ベクトル生成部109が下式(6A)の演算を行うことにより、符号化対象ブロックxにおける予測ベクトルdf(x,t)を算出する。

Figure JPOXMLDOC01-appb-I000012

Figure JPOXMLDOC01-appb-I000013

Figure JPOXMLDOC01-appb-I000014
 なお、式(6A)中の重みφiは上記実施の形態1の上式(7)と同じであり、動きベクトルd(x+vi,t)における予測残差絶対値和も同じである。
 上記実施の形態1と同様に、本実施の形態2の式(6A)を用いても、予測残差絶対値和が小さいほど動きベクトル自体の信頼性が高く、予測絶対値和が大きいほど動きベクトル自体の信頼性が低いという性質に基づいて、予測残差絶対値和の小さいブロックの動きベクトルの重みを大きくすることにより予測ベクトルの推定精度を向上させることができる。
 なお、図7の領域Rで示す9つのブロックのうち、符号化モードがイントラモードのブロックには動きベクトルが存在しないため、上式(6A)による演算から除外する。
 また、符号化モードがスキップモードのブロックの場合には、画像復号装置において予測ベクトルを用いた動き補償結果を復号画像として用いるため、画像符号化装置では予測残差を符号化しない。そのため、予測ベクトル生成部109は予測残差絶対値和として固定値Aを用いて上式(6A)による演算を実施する。
 また、符号化モードがインターモードのブロックでもDCT係数が符号化されておらず予測残差絶対値和が0になる場合には、予測ベクトル生成部109が予測残差絶対値和として固定値Bを用いて上式(6A)による演算を実施する。
 また、領域Rで示す9つのブロック全てがイントラモードのブロックである場合には、例外的にdf(x,t)=(0,0)とする。
 予測ベクトル生成部109は、上述の予測ベクトル生成方法によって生成した予測ベクトルdf(x,t)を、予測ベクトル125として可変長符号化部110へ出力する。
 なお、画像復号装置の予測ベクトル生成部205も、上記同様の予測ベクトル生成方法によって予測ベクトル216を生成して、動き補償部204へ出力する。
 以上より、実施の形態2によれば、予測ベクトル生成部109は、処理対象ブロックに隣接する隣接ブロックの予測残差絶対値和122a、動きベクトル117及び符号化モード119aの情報を用いて、当該隣接ブロックの各動きベクトルの信頼度を算出し、信頼度に応じて各動きベクトルを重み付け加算して予測ベクトル125を生成するように構成した。このため、従来のように隣接するブロックの動きベクトルのメディアンを予測ベクトルとして利用する場合に比べ、予測残差絶対値和で重み付けを行うことによって空間予測により求める予測ベクトルの精度を向上させることができる。そのため、ビットストリーム126に含まれる動きベクトルの符号量を削減することができる。
 なお、上記実施の形態2では、予測ベクトル生成部109及び予測ベクトル生成部205が図7に示す方法により動きベクトルから予測ベクトルを生成したが、この方法に限定されるものではなく、差分動きベクトルMVDから予測ベクトルを生成する構成であってもよい。その構成の詳細は図4を用いて上述したので省略するが、孤立したベクトルの重みを小さくすることにより予測ベクトルの推定精度を向上させることができる。
 また、上記実施の形態2の予測ベクトル生成部109及び予測ベクトル生成部205による予測ベクトル生成の際に、動きベクトルの分散を用いる構成を追加してもよい。その構成の詳細は図5を用いて上述したので省略するが、この構成の場合、予測ベクトル生成部109及び予測ベクトル生成部205の演算量は増えるが、動き量が少ないために分散の小さな微細なベクトル場を、必要以上にゼロベクトルに落とすことなく、微細なベクトル場を反映した予測ベクトルを生成することができる。
 また、上記実施の形態2の動き補償予測部101が輝度信号と色差信号で別々の動きベクトルを生成し、予測ベクトル生成部109及び予測ベクトル生成部205が、色差信号の予測ベクトルを輝度信号の予測ベクトルを求める場合と同様の方法で求める構成にしてもよいし、又は、輝度信号の動きベクトルから色差信号の予測ベクトルを別途求める構成にしてもよい。この構成の詳細は図6を用いて上述したので省略する。
 また、上記実施の形態2では、予測ベクトル生成部109における予測ベクトル生成方法について記したが、この方法を、前述のダイレクトモードやスキップモードに用いるベクトルの生成方法として利用してもよい。ダイレクトモードやスキップモードで上記実施の形態2の予測ベクトル生成方法を用いることにより、ダイレクトモードやスキップモードが選ばれやすくなり、符号化効率が向上するという効果がある。
実施の形態3.
 本実施の形態3では、上記実施の形態1又は上記実施の形態2で説明した予測ベクトル生成方法に基づいて生成したベクトル、及び既存の方法で生成したベクトルから予測ベクトルを選択する方法を説明する。
 図8は、この発明の実施の形態3に係る画像符号化装置の構成を示すブロック図であり、図9は、画像復号装置の構成を示すブロック図である。図8及び図9において、図1及び図2と同一又は相当の部分については同一の符号を付し説明を省略する。
1.画像符号化装置
 先ず、図8に示す画像符号化装置を説明する。
 図10は、図8に示す予測ベクトル決定部130の内部構成を示すブロック図である。予測ベクトル決定部130は、予測ベクトル生成部109と予測ベクトル選択部131とから構成される。この予測ベクトル生成部109は、上記実施の形態1又は実施の形態2に係る予測ベクトル生成部109と同一のため、説明を省略する。
 予測ベクトル選択部131は、下式(13)により、ブロックの動きベクトル符号量と、1つ以上の予測ベクトル候補から選んだ予測ベクトルのインデックス符号量から得られるコストが最小となるベクトルを予測ベクトルとする。

Figure JPOXMLDOC01-appb-I000015

Figure JPOXMLDOC01-appb-I000016
 また、式(13)中、Rは動きベクトルのコスト、εmvは差分動きベクトル、iは予測ベクトルインデックス、λはラグランジュ乗数を表す。
 なお、予測ベクトル選択部131が予測ベクトル選択処理に用いる予測ベクトル候補は、符号化済みブロックの動きベクトル122a及び予測ベクトル生成部109で生成した予測ベクトル125である。
 そして、予測ベクトル選択部131は、上式(13)により選択した予測ベクトル133と、その予測ベクトルのインデックス134とを可変長符号化部132に出力する。
 予測ベクトルのインデックス134は、例えば図11に示すような、画像符号化装置と画像復号装置とが共通のインデックステーブルを保持しておき、予測ベクトル選択部131は、そのインデックステーブルから予測ベクトル133に対応するインデックスを選択する。図11におけるMV_A~MV_Cは図13に示す符号化済みブロックA~C、時間予測ベクトルは実施の形態1で生成するベクトルとする。また、インデックステーブルは図11に示す以外の動きベクトル、例えばH.264の時間ダイレクトモードで用いるベクトル等を候補としてもよいし、図11に示すよりも少ない数であってもよい。候補を増やすことで予測ベクトルの精度を高めることが可能であるし、数を厳選することで画像符号化装置の負荷を低減する効果がある。なお、このインデックステーブルは、事前に作成して画像符号化装置及び画像復号装置に設定しておいてもよいし、画像符号化装置がシーケンスヘッダ又はピクチャヘッダ等に含めて符号化して画像復号装置へ通知してもよい。インデックステーブルをヘッダ等に含めて符号化する構成の場合には、ヘッダの符号量は増えるが、符号化対象となるシーケンス又はピクチャにあわせた予測ベクトル候補を設定することができるため、予測ベクトルの精度を向上させることができる。そして、予測ベクトルの精度が上がるため、シーケンス又はピクチャ単位では符号量を削減できる。
 可変長符号化部132は、予測ベクトル決定部130から入力される予測ベクトルのインデックス134に対して可変長符号化(エントロピー符号化)処理を行う。同様に、可変長符号化部132は、動き補償予測部101から入力される動きベクトル117について、予測ベクトル決定部130から入力される予測ベクトル133との間で差分をとり、得られた差分動きベクトルに対して可変長符号化処理を行う。さらに、可変長符号化部132は、予測画像生成用パラメータ119のうちのマクロブロックタイプ(又はサブマクロブロックタイプ)、圧縮部104から入力される圧縮データ121、圧縮部104の量子化処理の量子化ステップパラメータ及びDCT処理の直交変換係数も可変長符号化処理して、符号化結果を示すビットストリーム126を生成する。
2.画像復号装置
 次に、図9に示す画像復号装置を説明する。
 可変長復号部230は、動画像圧縮信号220に対してエントロピー復号処理を行い、信号中に符号化されていた直交変換係数212、量子化ステップパラメータ213、符号化モード214、差分動きベクトル215等を復元する。直交変換係数212及び量子化ステップパラメータ213は、逆量子化部202及び逆直交変換部203へ出力される。符号化モード214は、動き補償部204及び符号化モード保存用メモリ207に出力される。差分動きベクトル215は、動き補償部204に出力される。
 さらに、可変長復号部230は、動画像圧縮信号220中に符号化されていた予測ベクトルのインデックス233を復元し、予測ベクトル決定部231に出力する。
 図12は、図9に示す予測ベクトル決定部231の内部構成を示すブロック図である。予測ベクトル決定部231は、予測ベクトル生成部205と予測ベクトル選択部232とから構成される。
 予測ベクトル選択部232は、可変長復号部230から入力される予測ベクトルのインデックス233と、インデックステーブルをもとにして予測ベクトルを選択する。選択した予測ベクトルが、上記実施の形態1又は実施の形態2のように生成する予測ベクトルであった場合には、予測ベクトル選択部232が予測ベクトルの種類234を予測ベクトル生成部205へ出力する。
 なお、上述したように画像符号化装置と画像復号装置とが共通のインデックステーブルを保持しておき、予測ベクトル選択部232がそのインデックステーブルから予測ベクトルを決定する。あるいは、画像符号化装置がシーケンスヘッダ又はピクチャヘッダ等に含めて符号化してビットストリーム126(即ち動画像圧縮信号)を生成した場合には、画像復号装置の可変長復号部230が動画像圧縮信号200からインデックステーブルを復元して、予測ベクトル選択部232へ出力する。
 予測ベクトル生成部205は、上記実施の形態1又は実施の形態2に係る予測ベクトル生成部205と同一である。予測ベクトル選択部232から入力される予測ベクトルの種類234をもとに、動きベクトル保存用メモリ206から入力される参照画像内の動きベクトル217又は復号対象ブロックに隣接するブロックの動きベクトル217と、符号化モード保存用メモリ207から入力される符号化モード214と、予測残差絶対値和保存用メモリ208から入力される予測残差絶対値和219aとを用いて、上記実施の形態1又は実施の形態2の予測ベクトル生成部205と同じ方法によって予測ベクトル216を生成し、動き補償部204へ出力する。
 以上より、実施の形態3によれば、処理対象ブロックについて、予測ベクトル生成部109が生成した予測ベクトル125及び動き補償予測部101が探索した動きベクトル117を予測ベクトル候補とし、当該予測ベクトル候補から所定条件に合うベクトルを予測ベクトル133として選択して所定規則に従って変換して予測ベクトルのインデックス134を生成する予測ベクトル選択部131を備え、可変長符号化部132は、処理対象ブロックについて、動き補償予測部101が探索した動きベクトル117と前記予測ベクトル選択部131が選択した予測ベクトル133との差分ベクトルを生成し、当該差分ベクトル及び予測ベクトル選択部131が変換した予測ベクトルのインデックス134を圧縮データ121及び予測画像生成用パラメータ119と共に符号化してビットストリーム126を生成するように構成した。このため、予測ベクトル決定部130が画像の局所性に応じた最適なベクトルを予測ベクトルとして採用することができるため、符号量を削減することができる。
 また、上記実施の形態1又は実施の形態2の予測ベクトル生成部109では動きベクトルに重みφiによる重み付けを行って予測ベクトルを生成するが、局所的には重み付けを行わない動きベクトルを使用した方が予測ベクトルを生成するよりも予測精度が高い場合も考えられる。これに対して、本実施の形態3の予測ベクトル決定部130では予測ベクトル生成方法により生成した予測ベクトルと符号化済みブロックの動きベクトルとから最適なベクトルを選択するようにしたので、上記のような場合にも予測精度を落とすことなく符号化することができる。従って、符号量を削減することができる。
 また、実施の形態3によれば、可変長復号部201は、動画像圧縮信号200から予測ベクトルのインデックス233を抽出し、予測ベクトル選択部232は、予測ベクトルのインデックス233を所定規則に従って変換して予測ベクトルの種類234を特定し、予測ベクトル生成部205が予測ベクトルの種類234に応じて予測ベクトル216を生成するように構成した。このため、画像復号装置においては、予測ベクトル決定部231が予測ベクトルのインデックス233に従って予測ベクトルを選択するだけであるため、従来のような画像復号装置に比べ処理量を増やすことなく予測ベクトルを生成することができる。
 また、上記実施の形態3では、予測ベクトル生成部109における予測ベクトル生成方法について記したが、この方法を、前述のダイレクトモードやスキップモードに用いるベクトルの生成方法として利用してもよい。ダイレクトモードやスキップモードで上記実施の形態3の予測ベクトル生成方法を用いることにより、ダイレクトモードやスキップモードが選ばれやすくなり、符号化効率が向上するという効果がある。
 この発明に係る画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法は、処理対象ブロックの動きベクトルに近い高精度な予測ベクトルを生成することができ、この結果、差分ベクトルに対する可変長符号化の効率を高めて符号量を削減することができるため、動画像信号の各フレームを動き予測を用いてマクロブロック単位に予測符号化する画像符号化装置とその方法、並びに符号化した動画像符号化データを復号及び再生する画像復号装置とその方法に用いるのに適している。

Claims (10)

  1.  動画像信号の各フレームについて、当該フレームを複数のブロックに分割しブロック毎に動きベクトルを探索して、検索結果に基づき前記動画像信号の参照フレームから予測信号を生成する動き補償予測部と、
     前記予測信号と前記ブロックとの予測残差信号を生成する予測残差生成部と、
     前記動き補償予測部が探索した動きベクトル及び前記予測残差生成部が生成した予測残差信号を符号化する可変長符号化部とを備える画像符号化装置であって、
     処理対象ブロックと同一位置の前記参照フレーム中の符号化済ブロック及びその周辺ブロックの情報を用いて、当該同一位置の符号化済ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、前記信頼度に応じて前記各動きベクトルを重み付け加算して前記処理対象ブロックの予測ベクトルを生成する予測ベクトル生成部を備え、
     前記可変長符号化部は、前記処理対象ブロックについて、前記動き補償予測部が探索した動きベクトルと前記予測ベクトル生成部が生成した予測ベクトルとの差分ベクトルを生成し、当該差分ベクトルを前記予測残差生成部が生成した予測残差信号と共に符号化することを特徴とする画像符号化装置。
  2.  予測ベクトル生成部は、処理対象ブロックに隣接する隣接ブロックの情報を用いて、当該隣接ブロックの各動きベクトルの信頼度を算出し、前記信頼度に応じて前記各動きベクトルを重み付け加算して予測ベクトルを生成することを特徴とする請求項1記載の画像符号化装置。
  3.  処理対象ブロックについて、予測ベクトル生成部が生成した予測ベクトル及び動き補償予測部が探索した動きベクトルを予測ベクトル候補とし、当該予測ベクトル候補から所定条件に合うベクトルを予測ベクトルとして選択して所定規則に従って変換して予測ベクトル情報を生成する予測ベクトル選択部を備え、
     可変長符号化部は、前記処理対象ブロックについて、動き補償予測部が探索した動きベクトルと前記予測ベクトル選択部が選択した予測ベクトルとの差分ベクトルを生成し、当該差分ベクトル及び前記予測ベクトル選択部が変換した予測ベクトル情報を予測残差生成部が生成した予測残差信号と共に符号化することを特徴とする請求項1記載の画像符号化装置。
  4.  動画像信号が動き予測単位ブロック毎に圧縮符号化されてなる動画像圧縮信号を解析して当該ブロック毎の符号化シンボルを抽出する解析部と、
     前記解析部が抽出した符号化シンボルを用いて、前記動画像圧縮信号を前記動画像信号に復元する復号部とを備える画像復号装置であって、
     前記復号部が復元した参照フレームの符号化シンボルを用いて、処理対象ブロックの予測ベクトルを生成する予測ベクトル生成部を備え、
     前記復号部は、前記解析部が抽出した符号化シンボル及び前記参照フレームと共に前記予測ベクトル生成部が生成した予測ベクトルを用いて、前記動画像圧縮信号を復元することを特徴とする画像復号装置。
  5.  解析部は、動き予測単位ブロックの動きベクトルを動画像圧縮信号から抽出し、
     予測ベクトル生成部は、処理対象ブロック及びその周辺ブロックの符号化シンボルを用いて、当該処理対象ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、前記信頼度に応じて前記各動きベクトルを重み付け加算して前記処理対象ブロックの予測ベクトルを生成することを特徴とする請求項4記載の画像復号装置。
  6.  解析部は、動き予測単位ブロックの動きベクトルを動画像圧縮信号から抽出し、
     予測ベクトル生成部は、処理対象ブロック及び隣接する隣接ブロックの符号化シンボルを用いて、当該隣接ブロックの前記各動きベクトルの信頼度を算出し、前記信頼度に応じて前記各動きベクトルを重み付け加算して前記処理対象ブロックの予測ベクトルを生成することを特徴とする請求項4記載の画像復号装置。
  7.  解析部は、予測ベクトルが所定規則に従って変換された予測ベクトル情報を動画像圧縮信号から抽出し、
     予測ベクトル生成部は、前記解析部が抽出した予測ベクトル情報を前記所定規則に従って予測ベクトルに変換することを特徴とする請求項4記載の画像復号装置。
  8.  予測ベクトル生成部は、予測ベクトル情報を所定規則に従って変換して、予測ベクトルを生成する動き予測単位ブロックを決定し、当該ブロックの符号化シンボルを用いて動きベクトルの信頼度を算出し、前記信頼度に応じて前記動きベクトルを重み付け加算して予測ベクトルを生成することを特徴とする請求項7記載の画像復号装置。
  9.  動画像信号の各フレームについて、当該フレームを複数のブロックに分割しブロック毎に動きベクトルを探索して、検索結果に基づき前記動画像信号の参照フレームから予測信号を生成する動き補償予測ステップと、
     前記予測信号と前記ブロックとの予測残差信号を生成する予測残差生成ステップと、
     前記動き補償予測ステップで探索した動きベクトル及び前記予測残差生成ステップで生成した予測残差信号を符号化する可変長符号化ステップとを備える画像符号化方法であって、
     処理対象ブロックと同一位置の前記参照フレーム中の符号化済ブロック及びその周辺ブロックの情報を用いて、当該同一位置の符号化済ブロック及びその周辺ブロックの各動きベクトルの信頼度を算出し、前記信頼度に応じて前記各動きベクトルを重み付け加算して前記処理対象ブロックの予測ベクトルを生成する予測ベクトル生成ステップを備え、
     前記可変長符号化ステップは、前記処理対象ブロックについて、前記動き補償予測ステップで探索した動きベクトルと前記予測ベクトル生成ステップで生成した予測ベクトルとの差分ベクトルを生成し、当該差分ベクトルを前記予測残差生成ステップで生成した予測残差信号と共に符号化することを特徴とする画像符号化方法。
  10.  動画像信号が動き予測単位ブロック毎に圧縮符号化されてなる動画像圧縮信号を解析して当該ブロック毎の符号化シンボルを抽出する解析ステップと、
     前記解析ステップで抽出した符号化シンボルを用いて、前記動画像圧縮信号を前記動画像信号に復元する復号ステップとを備える画像復号方法であって、
     前記復号ステップで復元した参照フレームの符号化シンボルを用いて、処理対象ブロックの予測ベクトルを生成する予測ベクトル生成ステップを備え、
     前記復号ステップは、前記解析ステップで抽出した符号化シンボル及び前記参照フレームと共に前記予測ベクトル生成ステップで生成した予測ベクトルを用いて、前記動画像圧縮信号を復元することを特徴とする画像復号方法。
PCT/JP2010/005148 2009-11-19 2010-08-20 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 WO2011061880A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011541788A JPWO2011061880A1 (ja) 2009-11-19 2010-08-20 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009263796 2009-11-19
JP2009-263796 2009-11-19

Publications (1)

Publication Number Publication Date
WO2011061880A1 true WO2011061880A1 (ja) 2011-05-26

Family

ID=44059368

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005148 WO2011061880A1 (ja) 2009-11-19 2010-08-20 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法

Country Status (2)

Country Link
JP (1) JPWO2011061880A1 (ja)
WO (1) WO2011061880A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013016935A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
JP2013016934A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2013058873A (ja) * 2011-09-07 2013-03-28 Nippon Hoso Kyokai <Nhk> 動きベクトル予測装置、符号化装置、復号装置、及びこれらのプログラム
JP2013514714A (ja) * 2009-12-16 2013-04-25 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 適応的映像符号化装置及び方法
JP2015062312A (ja) * 2011-06-30 2015-04-02 三菱電機株式会社 画像符号化装置、画像符号化方法および画像復号装置
JP2015518340A (ja) * 2012-04-26 2015-06-25 ソニー株式会社 ビデオ符号化、復号化におけるクロミナンス処理方法及び処理装置
JP2016026440A (ja) * 2010-04-01 2016-02-12 ソニー株式会社 画像処理装置および方法
JP2017184281A (ja) * 2017-06-12 2017-10-05 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム
JP2017200209A (ja) * 2017-06-12 2017-11-02 株式会社Jvcケンウッド 画像復号装置、画像復号方法、画像復号プログラム
JP2019033529A (ja) * 2011-05-31 2019-02-28 サン パテント トラスト 動画像復号化方法、および動画像復号化装置
JP2019036993A (ja) * 2011-05-27 2019-03-07 サン パテント トラスト 動画像復号化方法、および動画像復号化装置
US10536712B2 (en) 2011-04-12 2020-01-14 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10595023B2 (en) 2011-05-27 2020-03-17 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10887585B2 (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US11553202B2 (en) 2011-08-03 2023-01-10 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US11647208B2 (en) 2011-10-19 2023-05-09 Sun Patent Trust Picture coding method, picture coding apparatus, picture decoding method, and picture decoding apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
JP2009049519A (ja) * 2007-08-14 2009-03-05 Kddi Corp 動画像符号化装置の予測動きベクトル生成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
JP2009049519A (ja) * 2007-08-14 2009-03-05 Kddi Corp 動画像符号化装置の予測動きベクトル生成装置

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11659159B2 (en) 2009-12-16 2023-05-23 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US11805243B2 (en) 2009-12-16 2023-10-31 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US10708580B2 (en) 2009-12-16 2020-07-07 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
JP2013514714A (ja) * 2009-12-16 2013-04-25 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 適応的映像符号化装置及び方法
US10419752B2 (en) 2009-12-16 2019-09-17 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US11812012B2 (en) 2009-12-16 2023-11-07 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US10728541B2 (en) 2009-12-16 2020-07-28 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
JP2016026440A (ja) * 2010-04-01 2016-02-12 ソニー株式会社 画像処理装置および方法
US10609387B2 (en) 2010-04-01 2020-03-31 Sony Corporation Image processing device and method
US10917649B2 (en) 2010-04-01 2021-02-09 Sony Corporation Image processing device and method
US10362316B2 (en) 2010-04-01 2019-07-23 Sony Corporation Image processing device and method
US11917186B2 (en) 2011-04-12 2024-02-27 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11012705B2 (en) 2011-04-12 2021-05-18 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11356694B2 (en) 2011-04-12 2022-06-07 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10609406B2 (en) 2011-04-12 2020-03-31 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10536712B2 (en) 2011-04-12 2020-01-14 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
JP7065354B2 (ja) 2011-05-27 2022-05-12 サン パテント トラスト 動画像復号化方法、および動画像復号化装置
US11115664B2 (en) 2011-05-27 2021-09-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10595023B2 (en) 2011-05-27 2020-03-17 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
JP2019036993A (ja) * 2011-05-27 2019-03-07 サン パテント トラスト 動画像復号化方法、および動画像復号化装置
US11570444B2 (en) 2011-05-27 2023-01-31 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US11076170B2 (en) 2011-05-27 2021-07-27 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US11575930B2 (en) 2011-05-27 2023-02-07 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US11895324B2 (en) 2011-05-27 2024-02-06 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10708598B2 (en) 2011-05-27 2020-07-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10721474B2 (en) 2011-05-27 2020-07-21 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US11979582B2 (en) 2011-05-27 2024-05-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
JP2019033529A (ja) * 2011-05-31 2019-02-28 サン パテント トラスト 動画像復号化方法、および動画像復号化装置
US10645413B2 (en) 2011-05-31 2020-05-05 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US11917192B2 (en) 2011-05-31 2024-02-27 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US11509928B2 (en) 2011-05-31 2022-11-22 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US10652573B2 (en) 2011-05-31 2020-05-12 Sun Patent Trust Video encoding method, video encoding device, video decoding method, video decoding device, and video encoding/decoding device
US11057639B2 (en) 2011-05-31 2021-07-06 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US11575906B2 (en) 2011-06-30 2023-02-07 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
US9210426B2 (en) 2011-06-30 2015-12-08 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
JP2013016935A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
US9906795B2 (en) 2011-06-30 2018-02-27 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
JP2013016934A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
US10334251B2 (en) 2011-06-30 2019-06-25 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
US10887585B2 (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US10863180B2 (en) 2011-06-30 2020-12-08 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
JP2015062312A (ja) * 2011-06-30 2015-04-02 三菱電機株式会社 画像符号化装置、画像符号化方法および画像復号装置
US11831881B2 (en) 2011-06-30 2023-11-28 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
US9654773B2 (en) 2011-06-30 2017-05-16 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
US11553202B2 (en) 2011-08-03 2023-01-10 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US11979598B2 (en) 2011-08-03 2024-05-07 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
JP2013058873A (ja) * 2011-09-07 2013-03-28 Nippon Hoso Kyokai <Nhk> 動きベクトル予測装置、符号化装置、復号装置、及びこれらのプログラム
US11647208B2 (en) 2011-10-19 2023-05-09 Sun Patent Trust Picture coding method, picture coding apparatus, picture decoding method, and picture decoding apparatus
JP2015518340A (ja) * 2012-04-26 2015-06-25 ソニー株式会社 ビデオ符号化、復号化におけるクロミナンス処理方法及び処理装置
US10827169B2 (en) 2012-04-26 2020-11-03 Sony Corporation Method and apparatus for chrominance processing in video coding and decoding
JP2017184281A (ja) * 2017-06-12 2017-10-05 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム
JP2017200209A (ja) * 2017-06-12 2017-11-02 株式会社Jvcケンウッド 画像復号装置、画像復号方法、画像復号プログラム

Also Published As

Publication number Publication date
JPWO2011061880A1 (ja) 2013-04-04

Similar Documents

Publication Publication Date Title
WO2011061880A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
RU2720702C1 (ru) Устройство прогнозирующего декодирования изображений, способ прогнозирующего декодирования изображений
US9900612B2 (en) Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
JP5485969B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2018186569A (ja) 画像復号装置
US11758179B2 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
US20140105295A1 (en) Moving image encoding method and apparatus, and moving image decoding method and apparatus
JP2005318497A (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
WO2011121894A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
KR20080064355A (ko) 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
US7903306B2 (en) Sensor image encoding and/or decoding system, medium, and method
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
KR20150034699A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR101866440B1 (ko) 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법, 및 화상 예측 복호 프로그램
KR20110048004A (ko) 움직임 벡터 해상도 제한을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011099242A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
KR101673026B1 (ko) 경쟁 기반 인터리브드 움직임 벡터코딩 방법 및 장치와 이를 이용한 영상 부호화/복호화 방법 및 장치
JP2013077865A (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
KR20180041833A (ko) 화면 내 예측에 대한 참조 모드 리스트를 사용하는 비디오 코딩 방법 및 장치
US20130215966A1 (en) Image encoding method, image decoding method, image encoding device, image decoding device
JP2015156704A (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5736083B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5642305B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JPWO2011083520A1 (ja) 動画像符号化装置および動画像復号装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10831280

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011541788

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10831280

Country of ref document: EP

Kind code of ref document: A1