WO2011142221A1 - Encoding device and decoding device - Google Patents

Encoding device and decoding device Download PDF

Info

Publication number
WO2011142221A1
WO2011142221A1 PCT/JP2011/059643 JP2011059643W WO2011142221A1 WO 2011142221 A1 WO2011142221 A1 WO 2011142221A1 JP 2011059643 W JP2011059643 W JP 2011059643W WO 2011142221 A1 WO2011142221 A1 WO 2011142221A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
parameter
unit
prediction unit
derived
Prior art date
Application number
PCT/JP2011/059643
Other languages
French (fr)
Japanese (ja)
Inventor
山本 智幸
知宏 猪飼
将伸 八杉
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2011142221A1 publication Critical patent/WO2011142221A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Definitions

  • the present invention relates to an encoding device that encodes a moving image and generates encoded data.
  • the present invention also relates to a decoding apparatus that decodes encoded data generated using such an encoding apparatus.
  • a moving image encoding device that generates encoded data by encoding the moving image, and decoding by decoding the encoded data
  • a video decoding device (decoding device) that generates an image
  • a specific moving picture encoding method for example, H.264 is used.
  • KTA software which is a codec for joint development in AVC (Non-patent Document 1) and VCEG (Video Coding Expert Group).
  • an image (picture) constituting a moving image is obtained by dividing a slice obtained by dividing an image, a macroblock obtained by dividing the slice, and a macroblock. It is managed by a hierarchical structure consisting of blocks to be encoded, and is usually encoded for each block.
  • a predicted image is usually generated based on a local decoded image obtained by encoding / decoding an input image, and difference data between the predicted image and the input image is encoded. It becomes.
  • methods for generating a predicted image methods called inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction) are known.
  • intra prediction predicted images in a corresponding frame are sequentially generated based on a locally decoded image in the same frame.
  • one prediction direction is selected from prediction directions included in a predetermined prediction direction (prediction mode) group for each prediction unit (for example, block), and A prediction pixel value on the prediction target region is generated by extrapolating the pixel value of the reference pixel in the locally decoded image in the selected prediction direction.
  • prediction mode prediction direction
  • a prediction pixel value on the prediction target region is generated by extrapolating the pixel value of the reference pixel in the locally decoded image in the selected prediction direction.
  • inter prediction motion compensation using a motion vector is applied to a reference image in a reference frame in which the entire frame is decoded, so that a predicted image in a prediction target frame is obtained for each prediction unit (for example, block). Generated.
  • the prediction image is generally generated based on a prediction parameter such as a motion vector or a prediction mode.
  • the motion vector for the prediction target block is derived by adding the difference motion vector and the predicted motion vector in the moving image decoding apparatus.
  • H. H.264 / MPEG-4 In the inter prediction in the AVC standard, a prediction method called a skip mode or a direct mode can also be selected. For a block for which the prediction method is selected, no motion vector is encoded, and spatial direct prediction or temporal direct prediction is performed. Is used to derive a motion vector for the block.
  • the median value of motion vectors derived for adjacent blocks adjacent to the block is set as the motion vector for the block, and in temporal direct prediction, it is a block on the reference image.
  • the motion vector derived for the collocated block which is a block occupying the same position as the block, is set as the motion vector for the block.
  • Non-Patent Document 2 discloses a method of deriving a motion vector for a block for which the skip mode or direct mode is selected using motion detection using reference frames before and after the frame including the block.
  • Non-Patent Document 2 a more accurate motion vector can be derived for a block for which the skip mode or the direct mode is selected. H.264 / MPEG-4. Compared with the AVC standard, the encoding efficiency can be improved.
  • Non-Patent Document 2 derives a motion vector by referring to pixel values in a plurality of reference frames, when an error occurs in the pixel value, that is, decoding processing is performed. If the pixel value is different from the original value due to the error caused by the transmission error and / or the influence of the transmission error caused by external disturbance when the encoded data is transmitted, it is derived. An error is also propagated to the motion vector. Furthermore, the error is also propagated to a predicted motion vector derived by referring to the motion vector in which the error is propagated.
  • Non-Patent Document 2 when the motion vector for the block for which the skip mode or the direct mode is selected is derived by the method disclosed in Non-Patent Document 2, an error is propagated as described above, thereby reducing the coding efficiency. This causes problems such as image corruption of the decoded image.
  • the same problem can occur when there is a block for deriving a prediction parameter based on data transmitted by a transmission method with low error tolerance.
  • the present invention has been made in view of the above-described problems, and the object of the present invention is to transmit data when there is a block that refers to a pixel value in order to derive a prediction parameter or when a transmission method with low error tolerance is used. Even if there is a block for deriving a prediction parameter based on the above, it is to realize an encoding device and a decoding device that can suppress error propagation.
  • the decoding apparatus encodes residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • the prediction device used for decoding is restored.
  • the derivation method designation information included in the encoded data includes any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method.
  • the first derivation method is performed by the derivation method determination unit.
  • the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit.
  • Parameter derivation means The parameter derivation means derives the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. It is characterized by.
  • the decoding apparatus configured as described above has the target prediction unit when the first derivation method that does not refer to the decoded pixel value is specified for the target prediction unit to be processed.
  • the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction without referring to the parameter derived by the second derivation method that refers to the decoded pixel value
  • the decoded pixel values include the effects of errors in the decoding process and / or transmission errors caused by external disturbances when the encoded data is transmitted. Even in such a case, it is possible to prevent such an error from propagating to the parameter derived by the parameter deriving means. That.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit that is the starting point, or may be another prediction unit, and the decoding order of the prediction unit Accordingly, a prediction unit at an appropriate relative position may be used.
  • the prediction unit is, for example, H.264. H.264 / MPEG-4.
  • the AVC standard corresponds to the block described above.
  • the decoding device according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or It may be a unit composed of a plurality of blocks (for example, a unit corresponding to the macroblock described above) or a unit smaller than the block.
  • the encoding apparatus encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image.
  • Derivation method for setting parameter derivation method for each prediction unit in an encoding device including prediction image generation means for generating the prediction image using a parameter derived for each prediction unit
  • Method setting means a first derivation method that does not refer to pixel values of a decoded image obtained by encoding and decoding an original image, or a second derivation method that refers to pixel values of the decoded image
  • the target Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the measurement unit, and the parameter deriv
  • the encoding apparatus configured as described above is configured so that the first derivation method that does not refer to the pixel value of the decoded image is set for the target prediction unit to be processed.
  • the parameter derived by the second derivation method referring to the pixel value of the decoded image among the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit.
  • the pixel value of the decoded image includes an influence of an error occurring in the encoding process and the decoding process, such an error is Propagation to parameters derived by the deriving means can be prevented.
  • the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit serving as a starting point, or may be another prediction unit.
  • a prediction unit at an appropriate relative position may be used in accordance with the decoding order.
  • the prediction unit is, for example, H.264. H.264 / MPEG-4.
  • the AVC standard corresponds to the block described above.
  • the encoding apparatus according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or A unit composed of a plurality of blocks (for example, a unit corresponding to the above-described macroblock) or a unit smaller than the block may be used.
  • the encoding apparatus provides a temporary parameter derivation unit that derives a temporary parameter by the first derivation method for a prediction unit in which the second derivation method is set among the reference prediction units.
  • the parameter derivation means refers to the parameter derived by the first derivation method for the prediction unit for which the first derivation method is set among the reference prediction units, and For the prediction unit for which the derivation method of 2 is set, it is preferable to derive the parameter for the target prediction unit with reference to the temporary parameter derived by the temporary parameter deriving means.
  • the temporary parameter deriving means derives a temporary parameter for the prediction unit in which the second deriving method is specified by the first deriving method
  • the parameter deriving means includes the above
  • the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
  • the prediction unit in which the second derivation method that refers to the pixel value of the decoded image is designated is derived by the first derivation method that does not refer to the pixel value of the decoded image. Since the parameter for the target prediction unit is derived with reference to the provisional parameter, even if the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process , Such an error can be prevented from propagating to the parameter derived by the parameter deriving means.
  • the parameter for the target prediction unit is derived with reference to the temporary parameter, so that the prediction accuracy when generating the predicted image is improved. There is a further effect of being able to.
  • the temporary parameter deriving unit derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. It is preferable to derive with reference to the parameter or the formal parameter.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban distance from the prediction unit that is the starting point is equal to or less than a predetermined distance, and is the starting point.
  • the prediction unit adjacent to the prediction unit and the prediction unit sharing the apex with the prediction unit serving as a starting point may be used, or other prediction units may be used.
  • a prediction unit at an appropriate relative position may be used according to the order.
  • the temporary parameter deriving unit is configured to select a temporary parameter for a prediction unit for which the second derivation method is set among the reference prediction units, a parameter derived for a prediction unit adjacent to the prediction unit, or a temporary parameter. It is preferable to derive with reference to the parameters.
  • requires the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units about the prediction unit adjacent to the said prediction unit. Since it is derived with reference to the derived parameter or temporary parameter, the prediction accuracy of the parameter derived for the target prediction unit with reference to the derived temporary parameter is improved.
  • the parameter deriving unit is configured to calculate a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting unit for the target prediction unit. It is preferable to refer to and derive a parameter for the target prediction unit.
  • the prediction of the parameter derived for the target prediction unit is performed. Accuracy is improved.
  • the predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image, and the parameter is predicted by intra prediction. Preferably, it is referred to for generating an image.
  • intra prediction refers to a prediction mode that is a parameter for designating a prediction direction in intra prediction.
  • the encoding apparatus configured as described above generates a predicted image by intra prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed.
  • a second unit that refers to the pixel value of the decoded image among prediction modes derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified. Since the prediction mode for the target prediction unit is derived without referring to the prediction mode derived by the derivation method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the prediction mode derived by the parameter deriving unit.
  • the parameter deriving unit derives a parameter for a prediction unit for which the second deriving method is set with reference to a pixel value in the locally decoded image.
  • the second derivation method is A parameter with high prediction accuracy is derived for the specified prediction unit.
  • the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
  • the predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image, and the parameters are predicted images by inter-screen prediction. It is preferable that it is what is referred in order to produce
  • inter prediction refers to a motion vector used when motion compensation is performed in inter prediction.
  • the encoding apparatus configured as described above generates a prediction image by inter prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed.
  • a second derivation that refers to the pixel value of the decoded image from among the motion vectors derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified Since the motion vector for the target prediction unit is derived without referring to the motion vector derived by the method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the motion vector derived by the parameter deriving means. That.
  • the parameter derivation unit derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the decoded image.
  • the second derivation method since the parameter for the prediction unit for which the second derivation method is designated is derived with reference to the pixel value in the decoded image, the second derivation method is designated. A parameter with high prediction accuracy is derived for the prediction unit. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
  • the decoding device encodes residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • a decoding apparatus that decodes encoded data, and includes a prediction image restoration unit that restores a prediction image used for decoding using a parameter derived for each prediction unit, and is included in the encoded data
  • the derivation method designation information is, as a parameter derivation method, (1) a first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; (2) A derivation method discriminating means for discriminating for each prediction unit which of the second derivation methods referring to the second parameter is specified, and a pair of processing target prediction units When it is determined by the derivation method determination means that the first derivation method is designated for a prediction unit, a reference prediction unit that is a prediction unit located at a predetermined relative position is derived from the target prediction unit.
  • Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter, wherein the parameter deriving means includes the second of the parameters derived for the reference prediction unit.
  • the parameter for the target prediction unit is derived without referring to the parameter derived by the derivation method.
  • the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
  • the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
  • an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
  • First parameter reference image index
  • second parameter predicted image (the predicted image is derived from a reference image specified by the reference image index and a motion vector).
  • the encoding apparatus is an encoding apparatus that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image.
  • the derivation method setting means for setting the parameter derivation method for each prediction unit, (1 ) A first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; and (2) a second that refers to the second parameter.
  • Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit.
  • the parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit. It is said.
  • the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
  • the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
  • an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
  • the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
  • examples of the first parameter and the second parameter include combinations such as a to e described above.
  • the decoding apparatus generates residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the prediction image.
  • a decoding device that decodes encoded data having a syntax obtained by encoding each parameter used for decoding, and reconstructs a prediction image used for decoding using a parameter derived for each prediction unit
  • the decoding apparatus including the predicted image restoration means, importance level information acquisition means for acquiring importance level information indicating the importance level associated with each of the decoded syntaxes, and derivation included in the encoded data
  • the method specification information uses a reference value decoded from syntax associated with an importance lower than a predetermined importance as a parameter derivation method.
  • a derivation method discrimination unit that discriminates for each prediction unit, and a target prediction unit that is a prediction unit to be processed, when the derivation method discrimination unit determines that the first derivation method is designated,
  • Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit, and the parameter derivation means comprises: Without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit, Deriving parameters for serial target prediction unit, and characterized in that.
  • the syntax associated with the importance greater than or equal to the predetermined importance is transmitted by a transmission method having a higher error resistance than the syntax associated with the importance lower than the predetermined importance. It is preferable that
  • the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level.
  • a parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax.
  • the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance.
  • the encoding apparatus encodes the residual data between the original image and the predicted image and the parameters used to generate the predicted image, by encoding each prediction unit.
  • An encoding apparatus for generating encoded data comprising a syntax, wherein the encoding apparatus includes predicted image generation means for generating the predicted image using the parameter, and associates importance with each of the syntaxes Importance level setting means and derivation method setting means for setting a parameter derivation method for each prediction unit, wherein the decoding is performed from a syntax associated with an importance level lower than a predetermined importance level.
  • the first derivation method that does not refer to the reference value, or is associated with an importance lower than the predetermined importance in the syntax.
  • the derivation method setting means for setting any one of the second derivation methods that refer to the reference value decoded from the syntax to be processed, and the target prediction unit that is the prediction unit to be processed are processed by the derivation method setting means by the first derivation method setting means.
  • the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit.
  • the parameter derivation means and the syntax associated with the importance greater than or equal to the predetermined importance are transmitted by a transmission method having a higher error tolerance than the syntax associated with the importance lower than the predetermined importance. Transmitting means, wherein the parameter deriving means is a parameter derived from the parameters derived for the reference prediction unit. Without reference to parameters derived by the second method of deriving derives the parameters for the target prediction unit, and characterized in that.
  • the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level.
  • a parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax.
  • the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance.
  • the parameter for the target prediction unit can be derived without referring to the syntax to be performed.
  • the decoding device having a configuration corresponding to the above configuration, it is possible to generate a decoded image while suppressing the influence of a transmission error.
  • the decoding apparatus obtains by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • a decoding apparatus for decoding the encoded data wherein the encoded data is a decoding apparatus provided with prediction image restoration means for restoring a prediction image used for decoding using a parameter derived for each prediction unit.
  • the derivation method designation information included in the parameter specifies any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method.
  • the first derivation method is designated by the derivation method discrimination means for determining whether or not each prediction unit and the target prediction unit that is the processing target prediction unit by the derivation method discrimination means. If it is determined, with reference to the parameters derived for the reference prediction unit is a prediction unit located from the target prediction unit in a predetermined relative position, and the parameter deriving means for deriving the parameters for the target prediction unit, And the parameter deriving means derives the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. is there.
  • the encoding apparatus is an encoding apparatus that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image.
  • a coding apparatus including a predicted image generation unit that generates the predicted image using a parameter derived for each unit, a derivation method setting unit that sets a parameter derivation method for each prediction unit, the original image
  • the derivation method setting for setting either the first derivation method that does not refer to the pixel value of the decoded image obtained by encoding and decoding the image or the second derivation method that refers to the pixel value of the decoded image
  • the target prediction unit is moved to a predetermined relative position.
  • Parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit to be placed, wherein the parameter deriving means is derived for the reference prediction unit Among the parameters, the parameter for the target prediction unit is derived without referring to the parameter derived by the second derivation method.
  • the decoding device and the encoding device configured as described above are based on the case where there is a block that refers to a pixel value in order to derive a prediction parameter, or based on data transmitted by a transmission method with low error resistance. Even if there is a block from which a prediction parameter is derived, error propagation can be suppressed.
  • FIG. 6 is a timing chart schematically showing processing time when motion vectors are derived in parallel.
  • FIG. 4 is a diagram illustrating a configuration of a slice layer included in a picture layer
  • FIG. 4 is a diagram illustrating a configuration of a macroblock layer included in the slice layer
  • (d) is a block layer included in the macroblock layer
  • FIG. 5 is a diagram illustrating a configuration of a block layer for a block in which inter prediction is used
  • (e) is a block layer included in a macroblock layer, and is a block layer for a block in which intra prediction is used.
  • FIG. 10 is a diagram illustrating an example of parameters decoded by the video decoding device according to the second embodiment. H.264 / MPEG-4.
  • FIG. 1 It is a figure which shows the prediction mode used for the intra prediction in AVC standard, and the prediction mode index attached
  • FIG. 1 It is a block diagram which shows the structure of the prediction mode decoding part in the MB decoding part with which the moving image decoding apparatus which concerns on 2nd Embodiment is provided.
  • FIG. 1 It is a block diagram which shows the structure of the moving image encoder which concerns on 2nd Embodiment. It is a block diagram which shows the structure of the MB encoding part with which the moving image encoder which concerns on 2nd Embodiment is provided. It is a figure for demonstrating the production
  • FIG. It is a figure for demonstrating the derivation
  • Embodiment 1 Hereinafter, a first embodiment of the present invention will be described.
  • FIG. 9A is a diagram illustrating a configuration of a picture layer PL (bit stream for one picture) of encoded data # 1 generated by the video encoding device 2 and decoded by the video decoding device 1. is there.
  • a picture is composed of one or a plurality of slices.
  • the picture layer PL includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slices included in the picture). Is included.
  • the picture header PH is header information about a picture. For example, (1) a flag indicating whether or not to transmit information related to POC (Picture Order Count) that specifies the display order of pictures, and (2) variable length A flag indicating an encoding mode is included.
  • POC Picture Order Count
  • FIG. 9B is a diagram showing the configuration of the slice layer Sn (1 ⁇ n ⁇ Ns).
  • a slice is generally composed of a plurality of macroblocks, and as shown in FIG. 9B, the slice layer includes a slice header SH and macroblock layers MB1 to MBNm (Nm is a macroblock included in the slice). Total number).
  • the slice header SH is header information about a slice, and includes, for example, (1) information specifying a slice type, (2) information regarding POC, and (3) a weighting coefficient when performing inter prediction by weighted prediction.
  • the slice type includes, for example, (1) I slice using only intra prediction, (2) P slice using intra prediction referring to one reference image, or (3) There are B slices in which intra prediction or inter prediction that refers to one or two reference images is used.
  • Macro block layers MB1 to MBNm are information on each macro block included in the slice.
  • a macroblock is usually composed of a plurality of blocks.
  • the macroblock layer includes a macroblock header MBH and block layers B1 to BNb (Nb is a block included in the macroblock). Total number).
  • the macroblock header MBH is header information about a macroblock. For example, (1) information specifying a macroblock type, (2) whether the macroblock is a macroblock in which inter prediction is used, or intra prediction. Includes prediction method selection information indicating whether or not a macroblock is used, and (3) a difference value of a quantization parameter.
  • the macroblock type is defined by, for example, the size of the macroblock.
  • the macroblock type for the macroblock for which inter prediction is used is the prediction direction for the macroblock, that is, whether the macroblock is a unidirectionally predicted macroblock or bidirectionally predicted. Whether it is a macroblock or not.
  • the macroblock header MBH includes block division information including the number of blocks constituting the macroblock and information indicating the position of each block in the macroblock.
  • Block layers B1 to BNb are information about each block included in the macroblock.
  • the block layer for a block in which inter prediction is used includes (1) a block header BH, (2) a quantized prediction residual QD, and (3) a motion vector residual. MVD etc. are included.
  • the quantized prediction residual QD is a quantization for a frequency component obtained by performing DCT transform (Discrete Cosine Transform) on the residual between the original image and the predicted image for the block. It is data obtained by performing.
  • the quantization step value that defines the roughness of quantization is designated for each macroblock as a quantization parameter having a one-to-one correspondence with the quantization step value, and the quantization parameter for the macroblock is specified.
  • the difference value between the quantization parameter for the macroblock encoded immediately before the macroblock is included in the macroblock header MBH as described above.
  • the motion vector residual MVD is residual data between a motion vector used for motion compensation prediction and a predicted motion vector that is a predicted value of the motion vector.
  • a reference image index RI for designating a reference image to be referred to in inter prediction
  • Skip mode information SMI indicating whether or not is included.
  • the skip mode refers to a prediction parameter (for example, a motion vector residual in a block in which inter prediction is used, and a prediction mode in a block in which intra prediction is used) for the block. ) Is a mode in which encoding is not performed. Therefore, the prediction parameter used for generating the predicted image is not encoded for the block to which the skip mode is applied.
  • a prediction parameter for example, a motion vector residual in a block in which inter prediction is used, and a prediction mode in a block in which intra prediction is used
  • the header BH includes inter prediction type designation information IPI (derivation method designation information) that is referred to in order to designate any of the plurality of methods.
  • the block information regarding the block for which intra prediction is used includes (1) a block header BH ′, a quantized prediction residual QD, and the like.
  • the block header BH ′ in the block information for the block in which intra prediction is used includes (1) prediction mode information PMI that is information related to a prediction mode that specifies the prediction direction of intra prediction, and (2) skip mode information SMI. Is included.
  • the prediction mode information PMI includes a prediction mode flag PMF indicating whether or not the prediction mode for the block is the same as the estimated prediction mode estimated for the block.
  • the prediction mode flag PMF indicates that the prediction mode for the block is different from the estimated prediction mode estimated for the block
  • the prediction mode for the block is designated in the prediction mode information PMI.
  • Prediction mode data PMD to be included.
  • the block header BH ′ includes intra prediction type designation information IPI ′ (derivation method designation information) referred to for designating any one of the plurality of methods.
  • the encoded data # 1 when the derivation of the prediction parameter for each block is performed in parallel, the encoded data # 1 includes the parallel processing control information PPI referred to for controlling the parallel processing. included.
  • the encoded data # 1 has a hierarchical configuration including a syntax (data string) indicating each of the various types of information described above.
  • the moving picture decoding apparatus 1 includes H.264 as a part thereof. This is a moving picture decoding apparatus using a technique adopted in the H.264 / MPEG-4 AVC standard.
  • the video decoding device 1 generates a prediction image for each prediction unit, generates a decoded image # 2 by adding the generated prediction image and a prediction residual decoded from the encoded data # 1, The generated decoded image # 2 is output to the outside.
  • the generation of the predicted image is performed with reference to the code parameter obtained by decoding the encoded data # 1.
  • the encoding parameter is a parameter referred to in order to generate a prediction image, and in addition to a prediction parameter such as a motion vector referred to in inter-screen prediction and a prediction mode referred to in intra-screen prediction.
  • a prediction parameter such as a motion vector referred to in inter-screen prediction and a prediction mode referred to in intra-screen prediction.
  • residual data between the original image and the predicted image, a pixel value of a reference image referred to for generating the predicted image, and the like are included.
  • the prediction unit is a block constituting a macroblock
  • the present embodiment is not limited to this, and the prediction unit is a unit larger than the block.
  • the present invention can be applied to a case where the prediction unit is smaller than a block.
  • a frame, a slice, a macroblock, and a block to be decoded are referred to as a target frame, a target slice, a target macroblock, and a target block, respectively.
  • the size of the macroblock is, for example, 16 ⁇ 16 pixels, and the size of the block is, for example, 4 ⁇ 4 pixels.
  • these sizes are not limited to the present embodiment, and the size of the macroblock is 16 ⁇ 32 pixels, 32 ⁇ 16 pixels, 32 ⁇ 32 pixels, 32 ⁇ 64 pixels, 64 ⁇ 32 pixels, 64 pixels ⁇ 64 pixels, and the like, and the block size may be 4 ⁇ 8 pixels, 8 ⁇ 4 pixels. Or 8 ⁇ 8 pixels or the like.
  • FIG. 1 is a block diagram showing a configuration of the moving picture decoding apparatus 1.
  • the moving picture decoding apparatus 1 includes a variable length code demultiplexing unit 11, a header information decoding unit 12, an MB setting unit 13, an MB decoding unit 14, and a frame memory 15.
  • the encoded data # 1 input to the video decoding device 1 is input to the variable length code demultiplexing unit 11.
  • the variable-length code demultiplexing unit 11 demultiplexes the input encoded data # 1, thereby converting the encoded data # 1 into header encoded data # 11a that is encoded data related to header information, and a slice.
  • the encoded data # 11a is output to the header information decoding unit 12 and the encoded data # 11b is output to the MB setting unit 13, respectively.
  • the header information decoding unit 12 decodes the header information # 12 from the encoded header data # 11a.
  • the header information # 12 is information including the size of the input image.
  • the MB setting unit 13 separates the encoded data # 11b into encoded data # 13 corresponding to each macroblock based on the input header information # 12 and sequentially outputs the encoded data # 11b to the MB decoding unit 14.
  • the MB decoding unit 14 generates and outputs a decoded image # 2 corresponding to each macroblock by sequentially decoding the encoded data # 13 corresponding to each input macroblock.
  • the decoded image # 2 is stored in the frame memory 15. The configuration of the MB decoding unit 14 will be described later and will not be described here.
  • the decoded image # 2 is recorded in the frame memory 15.
  • the frame memory 15 stores all macroblocks decoded prior to the target macroblock (for example, all macroblocks preceding in the raster scan order and the target frame).
  • the decoded image corresponding to the macro block included in the decoded frame is recorded.
  • FIG. 2 is a block diagram showing a configuration of the MB decoding unit 14. As illustrated in FIG. 2, the MB decoding unit 14 includes a prediction residual decoding unit 141, a prediction image generation unit 142, and an adder 143.
  • the prediction residual decoding unit 141 applies variable length code decoding to the encoded data of each block included in the macroblock (target macroblock) corresponding to the input encoded data # 13, thereby converting the block. Generate coefficients. Moreover, the prediction residual decoding part 141 produces
  • DCT Discrete Cosine Transform
  • the predicted image generation unit 142 generates a predicted image # 142 by inter-screen prediction (inter prediction) for each block included in the target macroblock.
  • the predicted image # 142 generated by the predicted image generation unit 142 is supplied to the adder 143. A specific configuration of the predicted image generation unit 142 will be described later.
  • the adder 143 generates a decoded image # 2 by adding (1) the prediction residual # 141 and the prediction image # 142, (2) outputs the generated decoded image # 2 to the outside, and (3) The generated decoded image # 2 is stored in the frame memory 15.
  • the predicted image generation unit 142 includes a parallel processing control unit 41, a switch unit 42, an mv decoding unit 43, a motion compensation prediction unit 44, an mv decoding unit 45, a motion compensation prediction unit 46, and an mv buffer. 47 is provided.
  • the mv decoding unit 43 and the motion compensation prediction unit 44 constitute a first processor P1
  • the mv decoding unit 45 and the motion compensation prediction unit 46 constitute a second processor P2. That is, the mv decoding unit 43 and the motion compensation prediction unit 44 operate on a different processor from the mv decoding unit 45 and the motion compensation prediction unit 46.
  • the parallel processing control unit 41 Based on the parallel processing control information PPI obtained by decoding the encoded data # 13, the parallel processing control unit 41 selects a prediction image for the target macroblock from either the first processor P1 or the second processor P2. It is discriminated whether the data should be generated using this processor, and discrimination information # 41 indicating the discrimination result is output to the switch unit 42.
  • the switch unit 42 Based on the discrimination information # 41, the switch unit 42 sends the encoded data # 13 to either the mv decoding unit 43 provided in the first processor P1 or the mv decoding unit 45 provided in the second processor P2. introduce.
  • the mv decoding unit 43 refers to the decoded motion vector # 47 stored in the mv buffer 47, the encoded data # 13, and the decoded image # 15 recorded in the frame memory 15, and sets the target macroblock.
  • the motion vector # 43 for each included block is decoded.
  • the motion vector # 43 is output to the motion compensation prediction unit 44 and stored in the mv buffer 47. Since the specific configuration of the mv decoding unit 43 will be described later, the description thereof is omitted here.
  • the motion compensation prediction unit 44 performs motion compensation on the decoded image # 15 recorded in the frame memory 15 based on the motion vector # 43, thereby predicting the prediction image # 44 for each block included in the target macroblock. Is generated.
  • the mv decoding unit 45 generates a motion vector # 45 by performing the same operation as the mv decoding unit 43.
  • the motion vector # 45 is output to the motion compensation prediction unit 46 and is stored in the mv buffer 47.
  • the motion compensation prediction unit 46 performs the same operation as the motion compensation prediction unit 44 to generate and output a predicted image # 46.
  • prediction image # 44 and the prediction image # 46 are collectively referred to as a prediction image # 142.
  • FIG. 3 is a block diagram showing a configuration of the mv decoding unit 43.
  • the mv decoding unit 43 includes an inter prediction type decoding unit 431, a switch unit 432, an mv deriving unit HE433, an mv deriving unit LE434, an mv residual decoding unit 435, an mv deriving unit N436, and an adder. 437.
  • the mv derivation unit HE433 and the mv derivation unit LE434 constitute a first derivation unit D1
  • the mv residual decoding unit 435, the mv derivation unit N436, and the adder 437 constitute a second derivation unit D2. ing.
  • the configuration of the mv decoding unit 45 is the same as the configuration of the mv decoding unit 43, and thus description thereof is omitted.
  • the mv decoding unit 43 receives the encoded data # 13 and outputs either a motion vector # 433 (described later) or a motion vector # 437 (described later) as a motion vector # 43 for each block.
  • the inter prediction type decoding unit 431 decodes the inter prediction type designation information # 431 from the encoded data # 13.
  • the inter prediction type designation information # 431 is information corresponding to the inter prediction type designation information IPI included in the encoded data # 1.
  • the inter prediction type designation information # 431 is information for designating whether the target block is a block corresponding to any prediction type of the inter prediction type HE or the inter prediction type N. .
  • the switch unit 432 transmits the encoded data # 13 to either the first derivation unit D1 or the second derivation unit D2 based on the inter prediction type designation information # 431.
  • the switch unit 432 supplies the encoded data # 13 to the first derivation unit D1, and
  • the prediction type designation information # 431 indicates the inter prediction type N, the encoded data # 13 is supplied to the second derivation unit D2.
  • the block corresponding to the inter prediction type HE has a larger processing amount for deriving the motion vector than the block corresponding to the inter prediction type N. That is, the time required for deriving the motion vector for the block corresponding to the inter prediction type HE is longer than the time required for deriving the motion vector for the block corresponding to the inter prediction type N.
  • the mv deriving unit HE433 derives a motion vector for the target block with reference to predetermined two reference images (reference frames) among the decoded images # 15 recorded in the frame memory 15.
  • the predetermined two reference images are, for example, reference images specified by a reference image index obtained by decoding encoded data # 1. Further, the reference image whose display order is closest to the target frame among the reference frames whose display order is slower than the target frame, and the reference image whose display order is closest to the target frame among the reference frames whose display order is earlier than the target frame. Also good.
  • FIG. 4 is a diagram for explaining the motion vector derivation processing by the mv derivation unit HE433, and is a diagram illustrating the target frame OF, the target block OB in the target frame OF, the reference frame RF1, and the reference frame RF2. .
  • FIG. 5 is a flowchart showing the flow of motion vector derivation processing by the mv derivation unit HE433.
  • Step S101 First, the mv deriving unit HE433 sets the periphery of the collocated block CB1, which is a block in the reference frame RF1 and occupies the same position as the target block OB, as the search range SR1.
  • Search range SR1 is set to include a plurality of blocks.
  • the mv deriving unit HE433 sets any block among the plurality of blocks included in the search range SR1 as the reference block RB1. Also, the mv deriving unit HE433 sets a block in the reference frame RF2 that is in a point relationship with the reference block RB1 for the target block OB as the reference block RB2. As shown in FIG. 4, when the reference frame RF1, the target frame OF, and the reference frame RF2 are arranged on space-time coordinates with the display time as the horizontal axis, the reference block RB1 and the target block OB are arranged. It can also be expressed that a block located on a straight line passing through is set as the reference block RB2.
  • the mv derivation unit HE433 evaluates the degree of similarity indicating how similar the image in the reference block RB1 and the image in the reference block RB2.
  • the similarity is evaluated by using the sum of (difference absolute values).
  • Step S104 the mv deriving unit HE433 determines whether or not there is a block whose similarity is not evaluated in the search range SR1.
  • step S102 and step S103 are repeated.
  • Step S105 After the similarity evaluation is completed for all the blocks included in the search range SR1, the mv deriving unit HE433 determines the reference block RB1 and the reference block RB2 that are most similar to each other, and the target block OB of the reference block RB1 Or a vector indicating the displacement of the reference block RB2 from the target block is set in the motion vector # 433.
  • the mv deriving unit HE433 derives the motion vector # 433 by performing the above operation.
  • the derived motion vector # 433 is also supplied to the mv buffer 47.
  • the mv deriving unit LE434 refers to a derived motion vector allocated to a block adjacent to the target block in the same frame or a block that shares a vertex with the target block, and is temporarily allocated to the target block.
  • a motion vector # 434 is derived.
  • the derivation of the temporary motion vector # 434 by the mv derivation unit LE434 is preferably performed prior to the derivation of the motion vector # 433 by the mv derivation unit HE433.
  • the mv derivation unit LE434 is preferably configured so that the derivation process of the temporary motion vector # 434 is completed before the derivation process of the motion vector # 433 by the mv derivation unit HE433 is completed.
  • the time when the mv deriving unit LE434 completes the derivation of the temporary motion vector # 434 assigned to the target block is before the time when the mv deriving unit HE433 completes the derivation of the motion vector # 433 assigned to the target block.
  • the time when the mv deriving unit LE434 completes the derivation of the temporary motion vector # 434 assigned to the target block is before the time when the mv deriving unit HE433 completes the derivation of the motion vector # 433 assigned to the target block.
  • FIG. 6 is a diagram showing reference blocks RB1 'to RB4' that are blocks adjacent to the target block OB, and reference blocks RB5 'to RB8' that are blocks that share vertices with the target block OB.
  • the mv deriving unit LE434 generates a temporary motion vector for the target block by referring to any one of the reference blocks RB1 ′ to RB8 ′ illustrated in FIG. 6 or a motion vector derived for a plurality of predetermined reference blocks. To do.
  • the mv deriving unit LE434 refers to the derived motion vectors mv1, mv2, and mv8 allocated to each of the reference block RB1 ′, the reference block RB2 ′, and the reference block RB8 ′, A temporary motion vector tmvo for the block is calculated.
  • median indicates that the median value of the elements in parentheses is taken, and tmvox and tmvoy indicate the x component and the y component of the temporary motion vector tmvo, respectively (mv1, mv2, The same applies to mv8).
  • the derived motion vectors mv1, mv2, and mv8 are the motion vector # 437 derived by the second deriving unit D2 for the reference block RB1 ′, the reference block RB2 ′, and the reference block RB8 ′, respectively. It corresponds.
  • the mv deriving unit LE434 may calculate a temporary motion vector tmvo for the target block by the following equation.
  • tmvox ave (mv1x, mv2x, mv8x) (2a)
  • tmvoy ave (mv1y, mv2y, mv8y) (2b)
  • ave Indicates that an average value of elements in parentheses is taken.
  • the mv deriving unit LE434 calculates a temporary motion vector for the target block with reference to the temporary motion vector instead of the motion vector for the block corresponding to the inter prediction type HE among the predetermined reference blocks. .
  • the temporary motion vector tmvo for the target block is calculated.
  • the temporary motion vector tmv8 corresponds to the temporary motion vector # 434 derived by the mv deriving unit LE434 for the reference block RB8 '.
  • the mv deriving unit LE434 refers to the temporary motion without referring to any of the motion vector and the temporary motion vector assigned to the block for which the motion vector has not been derived among the predetermined reference blocks.
  • the vector tmvo may be calculated.
  • the mv deriving unit LE434 refers to the motion vectors (or provisional motion vectors) for the reference block RB1 ′, the reference block RB2 ′, and the reference block RB8 ′, and calculates the provisional motion vector tmvo for the target block. Although the case where it does is demonstrated concretely, this embodiment is not limited to this.
  • the mv deriving unit LE434 refers to the motion vectors (or temporary motion vectors) for the reference block RB1 ′, the reference block RB2 ′, the reference block RB5 ′, and the reference block RB8 ′, and refers to the temporary motion vector tmvo for the target block.
  • the motion vectors for the reference block RB3 ′, the reference block RB4 ′, the reference block RB6 ′, and the reference block RB7 ′ may be calculated.
  • the temporary motion vector tmvo for the target block may be calculated based on a reference block of a combination different from the above example.
  • a predetermined combination of reference blocks that the mv deriving unit LE434 refers to in order to calculate the temporary motion vector tmvo for the target block may be a predetermined combination, or a plurality of different predetermined combinations. A combination selected from among the combinations may be used.
  • the inter prediction type designation information # 431 includes designation information that designates a combination of reference blocks used for calculating the temporary motion vector tmvo
  • the mv deriving unit LE434 includes the inter prediction type designation information # 431.
  • a combination specified by 431 may be used.
  • the calculation process specification information specifying whether to use the median value or the average value is used as inter prediction type specification information #
  • the mv deriving unit LE434 may perform the calculation process specified by the inter prediction type designation information # 431.
  • the mv deriving unit LE434 stores the temporary motion vector tmvo calculated by the above processing in the mv buffer 47 as the temporary motion vector # 434.
  • the mv deriving unit LE434 is a block in a decoded frame, and is allocated to a motion vector allocated to a collocated block that is a block occupying the same position as the target block, or to a block around the collocated block.
  • the temporary motion vector may be derived with reference to the motion vector.
  • the mv deriving unit HE433 derives the motion vector # 433 by referring to the pixel values in each of the two reference images (the reference frame RF1 and the reference frame RF2 in FIG. 4). Therefore, when an error has occurred in one of the pixel values of the two reference images, that is, any one of the pixel values of the two reference images is affected by a transmission error or an error generated in the decoding process. When the pixel value is different from the original pixel value, the error directly affects the motion vector # 433 derived with reference to the pixel values of the two reference images. Will cause an error.
  • the mv deriving unit LE434 derives a temporary motion vector # 434 with reference to a motion vector or a temporary motion vector derived for a block adjacent to the target block or a block sharing a vertex with the target block. That is, the mv deriving unit LE434 derives the temporary motion vector # 434 without referring to the pixel value. For this reason, temporary motion vector # 434 is not directly affected by an error that occurs in the pixel value.
  • the mv deriving unit LE434 can derive the temporary motion vector # 434 by a process that is less likely to cause errors than the mv deriving unit HE433.
  • the mv deriving unit LE434 can derive the temporary motion vector # 434 in a shorter processing time than the time required for the mv deriving unit HE433 to derive the motion vector # 433 by performing the above-described operation.
  • the mv deriving unit LE434 may be configured to derive a temporary motion vector by substantially the same process as the motion vector deriving process by the mv deriving unit HE433 described above.
  • the search region SR1 ′′ set by the mv derivation unit LE434 is narrower than the search region SR1 set by the mv derivation unit HE433. That is, it is assumed that the number of blocks included in the search area SR1 ′′ is smaller than the number of blocks included in the search area SR1.
  • the total number of pixel values referred to by the mv derivation unit LE434 is the mv derivation unit. This is smaller than the total number of pixel values referenced by HE 433. Therefore, the provisional motion vector # 434 derived by the mv deriving unit LE434 is less likely to cause an error than the motion vector # 433 derived by the mv deriving unit HE433.
  • the mv deriving unit LE434 thus sets the search region SR1 ′′ to be narrower than the search region SR1, and thus processing time shorter than the time required for deriving the motion vector # 433 by the mv deriving unit HE433.
  • provisional motion vector # 434 can be derived.
  • the mv residual decoding unit generates a differential motion vector # 435 for the target block by decoding the motion vector total residual MVD included in the encoded data # 13.
  • the mv deriving unit N436 refers to a motion vector that has already been derived for a block adjacent to the target block in the same frame or a block that shares a vertex with the target block, and a predicted motion that is a predicted value of the motion vector for the target block A vector (hereinafter also referred to as “prediction vector”) # 436 is derived.
  • the derivation of the predicted motion vector by the mv derivation unit N436 can be performed by the same processing as the derivation of the temporary motion vector by the mv derivation unit LE434.
  • the mv deriving unit N436 replaces the mathematical expressions (1a) to (5b) used for deriving the temporary motion vector tmvo by the mv deriving part LE434 with the following mathematical expressions (1a ′) to (5b ′), respectively.
  • the prediction motion vector pmvo can be derived.
  • the mv deriving unit N436 outputs the predicted motion vector pmvo calculated by the above processing as the predicted motion vector # 436.
  • the adder 437 generates a motion vector # 437 by adding the difference motion vector # 435 and the predicted motion vector # 436, and outputs the motion vector # 437.
  • the motion vector # 437 is stored in the mv buffer 47.
  • the mv deriving unit N436 that performs the above processing refers to the provisional motion vector for the reference block.
  • the predicted motion vector # 436 is derived.
  • a temporary motion vector derived without referring to a pixel value has a lower error rate than a motion vector derived with reference to a pixel value. Therefore, the possibility that an error will occur in the predicted motion vector # 436 derived by referring to such a temporary motion vector with a low error occurrence rate is lower than in the case of referring to the motion vector for the reference block.
  • the mv deriving unit LE434 derives a provisional motion vector # 434 for the target block by referring to the motion vectors already derived for the block adjacent to the target block in the same frame or the block sharing the vertex with the target block. Then, the mv deriving unit HE433 sets a neighborhood region NSR that is a neighborhood region of the target block, refers to the motion vector already derived for the block included in the neighborhood region NSR, and motion vector # 433 for the target block It is good also as a structure which derives.
  • the neighborhood area NSR includes a block adjacent to the target block and a block sharing a vertex with the target block.
  • FIG. 23 is a diagram illustrating an example of the neighborhood region NSR set by the mv derivation unit HE433 in the derivation example.
  • the neighborhood region NSR may be composed of, for example, sub-blocks around the target block, and blocks whose distance from the target block is within 1 to 3 city distances in units of blocks. it can.
  • the urban area distance is a distance defined by the sum of absolute values of differences between coordinates with respect to coordinates between two points.
  • the neighborhood region NSR may generally include a block belonging to a macroblock other than the macroblock to which the target block belongs.
  • the mv deriving unit HE433 refers to the temporary motion vector for the reference block for which the motion vector has not been derived for the block included in the neighboring region NSR, but the motion vector has already been generated. It is good also as a structure which calculates the temporary motion vector with respect to.
  • the mv deriving unit HE433 calculates a temporary motion vector tmvo without referring to any of the motion vector and the temporary motion vector for a block in which the motion vector has not been derived among the blocks included in the neighboring region NSR. It is good.
  • the neighborhood region NSR may be a region that is predetermined for each target block, or may be a region that is defined by the neighborhood region designation information included in the inter prediction type designation information # 431.
  • the number of blocks to which the mv derivation unit LE434 refers to calculate the temporary motion vector # 434 is greater than the number of blocks to which the mv derivation unit HE433 refers to calculate the motion vector # 433. Therefore, the mv deriving unit LE434 can derive the temporary motion vector # 434 in a shorter processing time than the time required for deriving the motion vector # 433 by the mv deriving unit HE433.
  • the second derivation unit D2 is a case where the target block is designated as the inter prediction type N by the inter prediction type designation information # 431, and is obtained by decoding the encoded data # 1.
  • the mode information SMI specifies the block to which the skip mode is applied, a motion vector mvo may be derived and output instead of the prediction motion vector pmvo.
  • the derivation of the motion vector mvo by the second derivation unit D2 is performed by the same process as the derivation of the temporary motion vector tmvo by the mv derivation unit LE434 described above and the derivation of the predicted motion vector pmvo by the mv derivation unit N436 described above. Can do.
  • the second deriving unit D2 converts mathematical expressions (1a) to (5b) used for deriving the temporary motion vector tmvo by the mv deriving unit LE434 to the following mathematical expressions (1a ′′) to (5b ′′), respectively. By replacing, it can be set as the structure which derives
  • the second deriving unit D2 outputs the motion vector mvo calculated by the above processing as it is as the motion vector # 437.
  • FIG. 8 is a diagram showing blocks B1 to B4 which are examples of blocks in which the motion vector or the temporary motion vector is derived in parallel by the first processor P1 and the second processor P2.
  • the block B1 and the block B3 are blocks that are specified to be processed by the first processor P1 according to the discrimination information # 41 output from the parallel processing control unit 41, and the block B2 and the block B4 are parallel processing control.
  • This is a block that is specified to be processed by the second processor P2 by the discrimination information # 41 output from the unit 41.
  • block B1 and the block B4 are blocks designated as the inter prediction type HE by the inter prediction type designation information # 431, and the block B2 and the block B3 are designated by the inter prediction type designation information # 431.
  • N is a block designated.
  • FIG. 8 shows that the first processor P1 according to the present embodiment and the second processor P2 according to the present embodiment, for each block shown in FIG.
  • the timing chart schematically showing the processing time when the derivation is performed in parallel, and the first processor P1 ′ according to the comparative example and the second processor according to the comparative example for each block shown in FIG. P2 ′ is a timing chart schematically showing processing time when motion vectors are derived in parallel.
  • the first processor P1 derives the temporary motion vector # 434 for the block B1 by the mv deriving unit LE434 included in the first deriving unit D1.
  • the first processor P1 derives the motion vector # 433 for the block B1 by the mv deriving unit HE433 included in the first deriving unit D1.
  • the processing amount for deriving the motion vector # 433 by the mv deriving unit HE433 performed by the above-described operation is the processing amount for deriving the temporary motion vector # 434 by the mv deriving unit LE434 performed by the above-described operation. Therefore, the period from time t2 to time t6 is longer than the period from time t1 to time t2.
  • the first processor P1 derives the motion vector # 437 for the block B3 by the second derivation unit D2.
  • the derivation of the motion vector # 437 for the block B3 is performed with reference to the motion vector derived for the block B2.
  • the second processor P2 derives the motion vector # 437 for the block B2 by the second deriving unit D2.
  • the derivation of the motion vector # 437 for the block B2 is performed with reference to the temporary motion vector # 434 generated for the block B1.
  • the second processor P2 derives the temporary motion vector # 434 for the block B4 by the mv deriving unit LE434 included in the first deriving unit D1.
  • the second processor P2 derives the motion vector # 433 for the block B4 by the mv deriving unit LE434 included in the first deriving unit D1.
  • the processing amount for deriving the motion vector # 433 by the mv deriving unit HE433 performed by the above-described operation is the processing amount for deriving the temporary motion vector # 434 by the mv deriving unit LE434 performed by the above-described operation. Therefore, the period from time t4 to time t8 is longer than the period from time t3 to time t4.
  • the first processor P1 and the second processor P2 derive the motion vector or the temporary motion vector for each of the blocks B1 to B4.
  • the time required for the above processing corresponds to the length of the period from time t1 to time t8.
  • the motion vector for the block B2 is performed with reference to the temporary motion vector derived for the block B1. Further, since the temporary motion vector derived for the block B1 is derived without referring to the pixel value of the reference image, it is not affected by an error that may occur in the pixel value on the reference image.
  • the motion vector for the block B2 derived in the present embodiment is less likely to cause an error than when the motion vector derived for the block B1 is referred to by referring to the pixel value of the reference image. .
  • the time required for the temporary motion vector generation process for block B1 that is, the length of the period from time t1 to time t2 is T
  • the time required for the motion vector derivation process for block B2 That is, the length of the period from time t2 to time t3 is T
  • the time required for the temporary motion vector generation process for block B4 that is, the length of the period from time t3 to time t4 is T.
  • r is the provisional motion vector # 434 by the mv deriving unit LE434 provided in the first deriving unit D1 during the processing time required for deriving the motion vector # 433 by the mv deriving unit HE433 provided in the first deriving unit D1.
  • Mv deriving unit HE433 is about 1/10 to 1/1000 of the processing time required for deriving motion vector # 433 with reference to the pixel value of the reference image. Therefore, a typical value of r is about 10 to 1000.
  • the processing time required to derive the temporary motion vector # 434 is about 1/1000 of the processing time required to derive the motion vector # 433.
  • the first processor P1 ′ according to the comparative example performs substantially the same processing as the first processor P1 according to the present embodiment, but unlike the first processor P1 according to the present embodiment, Does not generate motion vectors.
  • the second processor P2 ′ according to the comparative example performs substantially the same processing as the second processor P2 according to the present embodiment, but unlike the second processor P2 according to the present embodiment, the temporary motion Do not generate vectors.
  • the first derivation unit D1 'included in the first processor P1' according to the comparative example and the second processor P2 'according to the comparative example does not include means corresponding to the mv derivation unit LE434.
  • first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example are respectively related to the present embodiment except that the temporary motion vector is not generated.
  • the first processor P1 and the second processor P2 according to this embodiment have the same processing capability.
  • block B1 and block B3 are blocks designated to be processed by the first processor P1 ′ according to the comparative example
  • block B2 and block B4 are the second block according to the comparative example. The description will be made assuming that the block is designated to be processed by the processor P2 ′.
  • the block B1 and the block B4 are processed by the first derivation unit D1 ′ included in the first processor P1 ′ according to the comparative example or the second processor P2 ′ according to the comparative example.
  • the block B2 and the block B3 are specified to be processed by the second derivation unit D2 ′ included in the first processor P1 ′ according to the comparative example or the second processor P2 ′ according to the comparative example.
  • the description will be made on the assumption that the block is a block.
  • the first processor P1 ' according to the comparative example derives a motion vector for the block B1 by means corresponding to the mv deriving unit HE433 during a period from time t1 to time t5.
  • the second processor P2 ' according to the comparative example derives the motion vector for the block B2 by the second deriving unit D2' during the period from the time t5 to the time t6.
  • the derivation of the motion vector for the block B2 is performed with reference to the motion vector derived for the block B1. Therefore, the second processor P2 ′ according to the comparative example cannot start the motion vector derivation process for the block B2 before the time t5 when the derivation of the motion vector for the block B1 ends. .
  • the second processor P2 ' according to the comparative example derives a motion vector for the block B4 by means corresponding to the mv deriving unit HE433 during a period from time t6 to time t9.
  • the first processor P1 ' according to the comparative example derives a motion vector for the block B3 by the second deriving unit D2' during the period from time t6 to time t7.
  • the motion vector for the block B3 is derived with reference to the motion vector derived for the block B2.
  • the first processor P1 ' according to the comparative example and the second processor P2' according to the comparative example derive the motion vector for each of the blocks B1 to B4.
  • the time required for the above processing corresponds to the length of the period from time t1 to time t9.
  • the motion vector for the block B2 is performed with reference to the motion vector derived for the block B1.
  • the motion vector derived for the block B1 is derived by referring to the pixel value of the reference image, it is directly affected by an error that may occur in the pixel value on the reference image.
  • the motion vector for the block B2 derived in the comparative example is more likely to cause an error than the motion vector for the block B2 derived in the above-described embodiment.
  • the time required for the motion vector derivation process for block B1 that is, the length of the period from time t1 to time t5 is r ⁇ T, similar to the motion vector derivation process for block B4.
  • the first processor P1 according to the present embodiment and the second processor P2 according to the present embodiment have the first processor according to the comparative example when r satisfies r> 2.
  • the processing time required to derive the motion vector can be reduced.
  • the value of r is about 10 to 1000.
  • the first processor P1 and the second processor P2 according to the present embodiment derive motion vectors compared to the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example. The processing time required to do so can be reduced.
  • the ratio T1 / T2 (r + 3) / (2 ⁇ r + 1) of the processing time T1 to the processing time T2. Becomes closer to 1/2 as r increases. Therefore, as described above, when the value of r is about 10 to 1000, parallel processing is performed by the first processor P1 according to the present embodiment and the second processor P2 according to the present embodiment. As a result, the processing time required for the derivation of the motion vector is reduced by almost half compared to the parallel processing by the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example.
  • the video decoding device 1 that performs the above-described operation, not only the error occurrence rate when generating a predicted image can be reduced, but also the processing time for deriving a motion vector can be reduced. There is also an effect of being able to.
  • the derivation of the motion vector or the temporary motion vector is performed in parallel by the first processor P1 and the second processor P2 has been described as an example.
  • the form is not limited, and the derivation of the motion vector or the provisional motion vector may be performed by either the first processor P1 or the second processor P2.
  • the mv deriving unit LE434 may be configured to derive the temporary motion vector # 434 by substantially the same processing as the mv deriving unit HE433 described above. In this case, however, the mv deriving unit LE434 refers only to a reference image generated by intra prediction. In other words, both the reference image RF1 and the reference image RF2 (see FIG. 4) referred to by the mv deriving unit LE434 are reference images generated by intra prediction (see FIG. 7A).
  • the mv deriving unit HE433 derives the motion vector # 433 by a process substantially similar to the process described above, and the reference image referred to at this time includes a reference image generated by inter prediction. To do. That is, it is assumed that at least one of the reference image RF1 and the reference image RF2 referred to by the mv deriving unit HE433 is a reference image generated by inter prediction ((b) in FIG. 7).
  • inter prediction when a frame other than the prediction target frame is used as a reference image and a predicted image is generated by performing motion compensation on the reference image using a motion vector, an error occurs in the motion vector. An error also occurs in the predicted image due to the influence of the error.
  • a prediction image in a prediction target region on the prediction target frame is generated by extrapolating a pixel value of a reference image on the prediction target frame. Therefore, in intra prediction, since a prediction image is generated without referring to a motion vector, the possibility that an error occurs in the prediction image is lower than in inter prediction.
  • the temporary motion vector # 434 derived by the mv deriving unit LE434 with reference to only the reference image generated by the intra prediction is referred to by the mv deriving unit HE433 by referring to the reference image generated by the inter prediction.
  • the possibility of an error is lower than that of the derived motion vector # 433.
  • the configuration of the video decoding device according to the present embodiment is not limited to the configuration described above.
  • the moving picture decoding apparatus according to the present embodiment may be configured not to include the mv deriving unit LE434.
  • the mv deriving unit N436 does not refer to the motion vector # 433 derived by the mv deriving unit HE433, and the reference block adjacent to the target block or the reference block sharing the vertex with the target block Referring to the motion vector # 437 derived by the second deriving unit D2, the predicted motion vector # 436 for the target block may be derived.
  • Other configurations can be the same as the configurations already described.
  • the moving picture decoding apparatus configured as described above derives the predicted motion vector # 436 for the target block without referring to the motion vector # 433 that is highly likely to cause an error, and thus an error occurs in the predicted motion vector # 436. The possibility of occurring can be reduced.
  • the moving picture decoding apparatus configured as described above derives the motion vector # 437 for the target block without referring to the motion vector # 433 derived by the derivation method having a large processing amount. Can be reduced and the processing efficiency can be improved.
  • Moving picture encoding apparatus 2 (Moving picture encoding device 2)
  • the moving picture encoding apparatus (encoding apparatus) 2 according to the present embodiment will be described with reference to FIGS.
  • FIG. 10 is a block diagram showing a configuration of the moving picture coding apparatus 2.
  • the moving picture encoding apparatus 2 includes a header information determination unit 21, a header information encoding unit 22, an MB setting unit 23, an MB encoding unit 24, a variable length code multiplexing unit 25, and an MB decoding unit. 26 and a frame memory 27.
  • the video encoding device 2 is a device that generates and outputs encoded data # 1 by encoding the input image # 100, in brief.
  • the moving image encoding apparatus 2 includes, as part thereof, H.264. H.264 / MPEG-4 A moving picture coding apparatus using the technology adopted in the AVC standard.
  • the header information determination unit 21 determines header information based on the input image # 100. The determined header information is output as header information # 21.
  • the header information # 21 includes the image size of the input image # 100.
  • the header information # 21 is input to the MB setting unit 23 and supplied to the header information encoding unit 22.
  • the header information encoding unit 22 encodes header information # 21 and outputs encoded header information # 22.
  • the encoded header information # 22 is supplied to the variable length code multiplexer 25.
  • the MB setting unit 23 divides the input image # 100 into a plurality of macro blocks based on the header information # 21, and outputs a macro block image # 23 related to each macro block.
  • the macro block image # 23 is sequentially supplied to the MB encoding unit 24.
  • the MB encoding unit 24 encodes sequentially input macroblock images # 23 to generate MB encoded data # 24.
  • the generated MB encoded data # 24 is supplied to the variable length code multiplexer 25 and the MB decoder 26. Since the configuration of the MB encoding unit 24 will be described later, the description thereof is omitted here.
  • variable length code multiplexer 25 generates encoded data # 1 by multiplexing the encoded header information # 22 and the MB encoded data # 24, and outputs the encoded data # 1.
  • the MB decoding unit 26 generates and outputs a decoded image # 26 corresponding to each macroblock by sequentially decoding the MB encoded data # 24 corresponding to each input macroblock.
  • the decoded image # 26 is supplied to the frame memory 27.
  • the input decoded image # 26 is recorded in the frame memory 27.
  • decoded images corresponding to all macroblocks preceding the target macroblock in the raster scan order are recorded in the frame memory 27.
  • the decoded image recorded in the frame memory is called decoded image # 27. That is, the decoded image # 27 corresponds to the decoded image # 26 recorded in the frame memory 27.
  • FIG. 11 is a block diagram showing a configuration of the MB encoding unit 24.
  • the MB encoding unit 24 includes an inter prediction type determination unit 241, a switch unit 242, an mv derivation unit HE243, an mv derivation unit LE244, a motion search unit 245, an mv derivation unit N246, a subtractor 247, mv.
  • a residual encoding unit 248, a subtractor 249, an mv buffer 250, a motion compensation prediction unit 251, a prediction residual encoding unit 252, and an MB encoded data generation unit 253 are provided.
  • the mv derivation unit HE243 and the mv derivation unit LE244 constitute a first derivation unit D21
  • the motion search unit 245 and the mv derivation unit N246 constitute a second derivation unit D22.
  • Inter prediction type determination unit 241 The inter prediction type determination unit 241 is activated when the macroblock image # 23 is input, and determines a motion vector derivation method used for generating a prediction image in each block belonging to the target macroblock based on a predetermined algorithm. Determine for each block.
  • the inter prediction type determination unit 241 determines which prediction type should be classified among the inter prediction type HE or the inter prediction type N for each block.
  • a block corresponding to the inter prediction type HE has a larger processing amount for deriving a motion vector than a block corresponding to the inter prediction type N.
  • inter prediction type determination unit 241 outputs inter prediction type designation information # 241 that is information indicating which prediction type each block is classified into inter prediction type HE or inter prediction type N.
  • each block is classified into one of the prediction types of inter prediction type HE or inter prediction type N.
  • Prediction type that generates prediction images for all 2 n combinations obtained and optimizes encoding efficiency when encoding residual data between the generated prediction images and macroblock image # 23 It is sufficient to use an algorithm for determining the combination of.
  • rate distortion cost can be used as an index for evaluating the coding efficiency.
  • switch unit 242 Based on the inter prediction type designation information # 241, the switch unit 242 transmits the macroblock image # 23 to one of the first derivation unit D21 and the second derivation unit D22 in units of blocks. More specifically, the switch unit 242, when the inter prediction type designation information # 241 indicates that the target block is classified into the inter prediction type HE, the target block in the macroblock image # 23. When the inter prediction type designation information # 241 indicates that the target block is classified into the inter prediction type N, the image regarding the macro block image # 23 is transmitted. An image related to the target block is transmitted to the second deriving unit D22.
  • the mv deriving unit HE243 derives a motion vector # 243 for the target block with reference to two reference images (reference frames) among the decoded images # 27 recorded in the frame memory 27.
  • the mv deriving unit HE243 outputs a reference image index, which is information for designating the reference image, to the MB encoded data generation unit 253, and the MB encoded data generation unit 253 encodes the reference image index. Turn into.
  • the derivation of the motion vector # 243 by the mv derivation unit HE243 can be performed by the same process as the derivation of the motion vector # 433 by the mv derivation unit HE433 provided in the video decoding device 1.
  • the derived motion vector # 243 is output to the motion compensation prediction unit 251.
  • the mv deriving unit LE244 refers to the motion vector # 245 derived by the motion search unit 245 for a block adjacent to the target block in the same frame or a block sharing a vertex with the target block, A provisional motion vector # 244 that is provisionally set is generated.
  • the derivation of the temporary motion vector # 244 by the mv derivation unit LE244 can be performed by the same process as the derivation of the temporary motion vector # 434 by the mv derivation unit LE434 provided in the video decoding device 1.
  • “inter prediction type designation information # 431” is read as “inter prediction type designation information # 241” (the same applies to the moving picture coding apparatus 2).
  • the motion search unit 245 generates a motion vector # 245 by performing a motion search with reference to the decoded image # 27 and the macroblock image # 23 stored in the frame memory 27.
  • the generated motion vector # 245 is stored in the mv buffer 250 and is output to the subtracter 247 and the motion compensation prediction unit 251.
  • the mv deriving unit N246 refers to the motion vector # 245 derived by the motion search unit 245 for a block adjacent to the target block in the same frame or a block sharing a vertex with the target block, and a motion vector for the target block A predicted motion vector # 246 that is a predicted value of is derived.
  • the derived predicted motion vector # 246 is output to the subtracter 247.
  • the derivation of the predicted motion vector # 246 by the mv derivation unit N246 can be performed by the same processing as the derivation of the predicted motion vector # 246 by the mv derivation unit N436 included in the video decoding device 1.
  • the subtractor 247 generates and outputs a difference motion vector # 247 by taking the difference between the motion vector # 245 and the predicted motion vector # 246.
  • the mv residual encoding unit 248 encodes the differential motion vector # 247 and outputs the encoded differential motion vector # 248 to the MB encoded data generation unit 253.
  • the motion compensation prediction unit 251 generates and outputs a predicted image # 251 by performing motion compensation on the decoded image # 27 stored in the frame memory 27 based on the motion vector # 243 or the motion vector # 245. .
  • the subtractor 249 generates and outputs a prediction residual # 249 by taking the difference between the macroblock image # 23 and the prediction image # 251.
  • the prediction residual encoding unit 252 encodes the prediction residual # 249, and outputs the encoded prediction image # 252 to the MB encoded data generation unit 253.
  • the MB encoded data generation unit 253 generates MB encoded data # 24 by multiplexing the encoded predicted image # 252, differential motion vector # 248, and inter prediction type designation information # 241, Output.
  • the mv buffer 250 stores temporary motion vector # 244, motion vector # 243, and motion vector # 245.
  • the moving image encoding apparatus 2 configured as described above does not refer to the motion vector # 243 that is likely to cause an error, but refers to the temporary motion vector # 244 that is less likely to cause an error. Therefore, it is possible to reduce the possibility that an error occurs in the predicted motion vector # 246.
  • the moving image encoding apparatus 2 configured as described above does not refer to the motion vector # 243 derived by the derivation method having a large processing amount, but the temporary motion vector # derived by the derivation method having a small processing amount. Since the prediction motion vector # 246 for the target block is derived with reference to 244, the delay time can be reduced and the processing efficiency can be improved. In addition, the moving image encoding device 2 can generate encoded data that can be decoded with a small delay time in a corresponding moving image decoding device (for example, the moving image decoding device 1).
  • the configuration of the moving image encoding apparatus according to the present embodiment is not limited to the configuration described above.
  • the moving image encoding apparatus according to the present embodiment may be configured not to include the mv deriving unit LE244.
  • the mv deriving unit N246 does not refer to the motion vector # 243 derived by the mv deriving unit HE243, and the reference block adjacent to the target block or the reference block sharing the vertex with the target block
  • the motion vector # 245 derived by the motion search unit 245 may be referenced to derive the predicted motion vector # 246 for the target block.
  • Other configurations can be the same as the configurations already described.
  • the moving picture decoding apparatus configured in this way derives the predicted motion vector # 246 for the target block without referring to the motion vector # 243 that is highly likely to cause an error, so that an error occurs in the predicted motion vector # 246. The possibility of occurring can be reduced.
  • the video encoding device 2 can generate encoded data that is less likely to cause an error when being decoded by a corresponding video decoding device (for example, the video decoding device 1).
  • the moving picture coding apparatus configured in this manner derives the predicted motion vector # 246 for the target block without referring to the motion vector # 243 derived by the derivation method having a large processing amount, so that the delay Time can be reduced and processing efficiency can be improved.
  • the description has been given by taking, as an example, a motion vector used for generating a predicted image by inter-screen prediction as an encoding parameter, but the present invention is not limited to this.
  • Encoded data # 3 The configuration of the encoded data # 3 is the same as the configuration of the encoded data # 1 described in the first embodiment.
  • the moving image decoding apparatus 3 includes H.264 as a part thereof. This is a moving picture decoding apparatus using a technique adopted in the H.264 / MPEG-4 AVC standard.
  • the video decoding device 3 generates a predicted image for each prediction unit, generates a decoded image # 4 by adding the generated predicted image and the prediction residual decoded from the encoded data # 3, Output.
  • the prediction unit is a block constituting a macroblock
  • the present embodiment is not limited to this, and the prediction unit is a unit larger than the block. It can also be applied to the case where the prediction unit is a unit smaller than the block.
  • a frame, a slice, a macroblock, and a block to be decoded are referred to as a target frame, a target slice, a target macroblock, and a target block, respectively.
  • the size of the macroblock is, for example, 16 ⁇ 16 pixels, and the size of the block is, for example, 4 ⁇ 4 pixels.
  • these sizes are not limited to the present embodiment, and the size of the macroblock is 16 ⁇ 32 pixels, 32 ⁇ 16 pixels, 32 ⁇ 32 pixels, 32 ⁇ 64 pixels, 64 ⁇ 32 pixels, 64 pixels ⁇ 64 pixels, and the like, and the block size may be 4 ⁇ 8 pixels, 8 ⁇ 4 pixels. Or 8 ⁇ 8 pixels or the like.
  • FIG. 12 is a block diagram showing a configuration of the video decoding device 3.
  • the video decoding device 3 includes a variable length code demultiplexing unit 11, a header information decoding unit 12, an MB setting unit 13, an MB decoding unit 34, and a frame memory 15. That is, the video decoding device 3 includes an MB decoding unit 34 instead of the MB decoding unit 14 included in the video decoding device 1.
  • Other configurations of the video decoding device 3 are the same as those of the video decoding device 1.
  • FIG. 13 is a block diagram showing a configuration of the MB decoding unit 34.
  • the MB decoding unit 34 includes a prediction residual decoding unit 141, a predicted image generation unit 342, and an adder 343.
  • the prediction residual decoding unit 141 applies variable length code decoding to the encoded data of each block included in the macroblock (target macroblock) corresponding to the input encoded data # 13, thereby converting the block. Generate coefficients. Also, the prediction residual decoding unit 341 generates a prediction residual # 141 by applying a reverse transform of DCT (Discrete Cosine Transform) to the generated transform coefficient. The generated prediction residual # 141 is supplied to the adder 343.
  • DCT Discrete Cosine Transform
  • the predicted image generation unit 342 generates a predicted image # 342 by intra prediction (intra prediction) for each block included in the target macroblock.
  • the predicted image # 142 generated by the predicted image generation unit 342 is supplied to the adder 143. A specific configuration of the predicted image generation unit 342 will be described later.
  • the adder 343 generates a decoded image # 4 by adding (1) the prediction residual # 141 and the prediction image # 342, (2) outputs the generated decoded image # 4 to the outside, and (3) The generated decoded image # 4 is stored in the frame memory 15.
  • the predicted image generation unit 342 includes a parallel processing control unit 51, a switch unit 52, a prediction mode decoding unit 53, an intra prediction unit 54, a prediction mode decoding unit 55, an intra prediction unit 56, and a prediction mode.
  • a buffer 57 is provided.
  • the prediction mode decoding part 53 and the intra prediction part 54 comprise the 1st processor P31
  • the prediction mode decoding part 55 and the intra prediction part 56 comprise the 2nd processor P32. That is, the prediction mode decoding unit 53 and the intra prediction unit 54 operate on a different processor from the prediction mode decoding unit 55 and the intra prediction unit 56.
  • the parallel processing control unit 51 Based on the parallel processing control information PPI obtained by decoding the encoded data # 13, the parallel processing control unit 51 generates a predicted image for the target macroblock from either the first processor P31 or the second processor P32. It is discriminated whether the data should be generated using this processor, and discrimination information # 51 indicating the discrimination result is output to the switch unit 52.
  • the switch unit 52 converts the encoded data # 13 to either the prediction mode decoding unit 53 provided in the first processor P31 or the prediction mode decoding unit 55 provided in the second processor P32. Communicate to one side.
  • the prediction mode decoding unit 53 performs the decoding of the prediction mode # 57 stored in the prediction mode buffer and each block included in the same frame as the target block among the decoded image # 15 recorded in the frame memory 15. Referring to the decoded image # 15 ′, the prediction mode # 53 for the target block included in the encoded data # 13 is decoded. The decoded prediction mode # 53 is supplied to the intra prediction unit 54 and stored in the prediction mode buffer 57.
  • the prediction mode is a parameter used when generating a predicted image by intra-screen prediction. Since the specific configuration of the prediction mode decoding unit 53 will be described later, description thereof is omitted here.
  • the intra prediction unit 54 generates and outputs a predicted image # 54 by performing intra-screen prediction based on the prediction mode # 53 for the decoded image # 15 '.
  • the generation of the predicted image # 54 by the intra prediction unit 54 can be performed by the same process as the generation of the predicted image # 648 by the intra prediction unit 648 included in the moving image encoding device 4 described later.
  • the prediction mode decoding unit 55 decodes the prediction mode # 55 by performing the same operation as the prediction mode decoding unit 53.
  • the decoded prediction mode # 55 is supplied to the intra prediction unit 56 and stored in the prediction mode buffer 57.
  • the intra prediction unit 56 generates and outputs a predicted image # 56 by performing intra prediction based on the prediction mode # 55 for the decoded image # 15 '.
  • predicted image # 54 and the predicted image # 56 are collectively referred to as a predicted image # 342.
  • Prediction mode and prediction mode index Prior to the description of the prediction mode decoding unit 53, as an example of a set of prediction modes handled in this embodiment, H.264 A set of prediction modes used for intra prediction in the H.264 / MPEG-4 AVC standard will be described.
  • FIG. 2 is a diagram illustrating a prediction mode used for intra prediction in the H.264 / MPEG-4 AVC standard and a prediction mode index assigned to each prediction mode.
  • FIG. Each prediction mode represents a prediction direction used for intra prediction, and as shown in FIG.
  • eight-direction prediction modes corresponding to prediction mode indexes 0, 1, 3 to 8
  • DC prediction modes corresponding to prediction mode index 2
  • the prediction mode specified by the prediction mode index I is represented as the prediction mode I.
  • this embodiment is H.264. It is not limited to the case where a set of prediction modes in the H.264 / MPEG-4 AVC standard is used. For example, when a vertical edge exists in a macroblock, the prediction direction is more finely defined in the vertical direction. A set of prediction modes that can be specified may be used, and when there is an edge in the horizontal direction in the macroblock, a set of prediction modes that can specify the prediction direction more finely in the horizontal direction. May be used.
  • Prediction mode decoding unit 53 (Prediction mode decoding unit 53)
  • the configuration of the prediction mode decoding unit 53 will be described with reference to FIGS. 15 to 18.
  • FIG. 15 is a block diagram showing a configuration of the prediction mode decoding unit 53.
  • the prediction mode decoding unit 53 includes an intra prediction type decoding unit 531, a switch unit 532, a prediction mode deriving unit HE533, a prediction mode deriving unit LE534, a prediction mode residual decoding unit 535, and a prediction mode estimating unit N536. , And a prediction mode deriving unit 537.
  • the prediction mode deriving unit HE533 and the prediction mode deriving unit LE534 constitute a first deriving unit D31, and the prediction mode residual decoding unit 535, the prediction mode estimating unit N536, and the prediction mode deriving unit 537
  • leading-out part D32 is comprised.
  • the configuration of the prediction mode decoding unit 55 is the same as the configuration of the prediction mode decoding unit 53, and thus description thereof is omitted.
  • the prediction mode decoding unit 53 receives the encoded data # 13, and outputs any one of a prediction mode # 533 described later or a prediction mode # 537 described later as the prediction mode # 53.
  • the intra prediction type decoding unit 531 decodes the intra prediction type designation information # 531 from the encoded data # 13.
  • the intra prediction type designation information # 531 is information corresponding to the intra prediction type designation information IPI ′ included in the encoded data # 1.
  • the intra prediction type designation information # 531 is information that designates whether the target block is a block corresponding to any prediction type of the intra prediction type HE or the intra prediction type N. .
  • the switch unit 532 transmits the encoded data # 13 to either the first derivation unit D31 or the second derivation unit D32 based on the intra prediction type designation information # 531.
  • the switch unit 532 transmits the encoded data # 13 to the first derivation unit D31, so that the intra prediction type designation information # 531 indicates the intra prediction type HE.
  • the prediction type designation information # 531 indicates the intra prediction type N
  • the encoded data # 13 is transmitted to the second derivation unit D32.
  • the block corresponding to the intra prediction type HE has a larger processing amount for deriving the prediction mode than the block corresponding to the intra prediction type N. That is, the time required for deriving the prediction mode for the block corresponding to the intra prediction type HE is longer than the time required for deriving the prediction mode for the block corresponding to the intra prediction type N.
  • the prediction mode deriving unit HE533 refers to the decoded image # 15 ′ for each block included in the same frame as the target block among the decoded images # 15 recorded in the frame memory 15, and derives the prediction mode for the target block. To do.
  • FIG. 16 is a figure for demonstrating the prediction mode derivation
  • FIG. 16B is a flowchart showing the flow of prediction mode derivation processing by the prediction mode derivation unit HE533.
  • Step S201 the prediction mode deriving unit HE533 determines whether or not an edge exists in the decoded image on the reference block RB1 ′ adjacent to the upper side of the target block OB among the decoded images # 15 recorded in the frame memory 15. To do.
  • the determination of the presence or absence of an edge in the decoded image is performed by, for example, applying a primary or secondary differential filter to the decoded image and evaluating the gradient of the image after the differential filter is applied. It can be carried out.
  • the direction of the edge can be estimated by evaluating the direction of the gradient. In this step, for example, edge detection using the Canny method may be performed.
  • Step S202 When it is determined that there is an edge in the decoded image on the reference block RB1 ′ (Yes in step S201), the prediction mode deriving unit HE533 selects the prediction mode corresponding to the direction having the smallest angle with the direction of the edge. It selects as prediction mode # 533 with respect to object block OB.
  • Step S203 On the other hand, when it is determined that there is no edge in the decoded image on the reference block RB1 ′ (No in step S201), the prediction mode deriving unit HE533 changes the DC prediction mode (prediction mode 2) to the target block OB. Select as prediction mode # 533.
  • the prediction mode deriving unit HE533 derives the prediction mode # 533 by performing the above operation.
  • the derived prediction mode # 533 is also output to the prediction mode buffer 57.
  • the prediction mode deriving unit HE533 determines whether or not there is an edge in the decoded image on the reference block adjacent to the left side of the target block OB. If there is an edge, the angle formed with the direction of the edge The prediction mode having the smallest value may be selected, and when there is no edge, the DC prediction mode may be selected.
  • the prediction mode deriving unit HE533 performs edge detection for both the reference block adjacent to the left side of the target block OB and the reference block adjacent to the upper side of the target block OB, and refers to the result of the edge detection,
  • the prediction mode for the target block OB may be derived.
  • the prediction mode deriving unit LE534 refers to the derived prediction mode assigned to each of the reference block RB1 ′ adjacent to the upper side of the target block OB and the reference block RB2 ′ adjacent to the left side of the target block OB.
  • a temporary prediction mode # 534 that is provisionally allocated to OB is derived.
  • the derivation of the temporary prediction mode # 534 by the prediction mode deriving unit LE534 is performed prior to the derivation of the prediction mode # 533 by the prediction mode deriving unit HE533.
  • the prediction mode deriving unit LE534 is preferably configured so that the derivation process of the temporary prediction mode # 534 is completed before the derivation process of the prediction mode # 533 by the prediction mode deriving unit HE533 is completed. . That is, when the prediction mode deriving unit LE534 completes the derivation of the temporary prediction mode # 534 assigned to the target block, the prediction mode deriving unit HE533 completes the derivation of the prediction mode # 533 assigned to the target block. It is preferable that it is before.
  • FIG. 17 is a diagram for explaining the prediction mode derivation processing by the prediction mode deriving unit LE534, and the target block OB, the reference block RB1 ′ adjacent to the upper side of the target block OB, and the left side of the target block OB. It is a figure which shows adjacent reference block RB2 '.
  • the prediction mode deriving unit LE534 targets a prediction mode having a smaller prediction mode index among the prediction modes derived by the prediction mode deriving unit 537 for the reference block RB1 ′ and the prediction modes derived for the reference block RB2 ′. Set to temporary prediction mode for block.
  • the prediction mode deriving unit LE534 uses the prediction mode index.
  • the prediction mode 1 which is a small prediction mode is set to the temporary prediction mode for the target block OB.
  • the temporary prediction mode derived by the prediction mode deriving unit LE534 is output as temporary prediction mode # 534 and stored in the prediction mode buffer 57.
  • the prediction mode for the target block OB is derived with reference to the temporary prediction mode calculated by the prediction mode deriving unit LE534. To do.
  • both the prediction mode and the temporary prediction mode are referred to for the block for which the prediction mode has not been derived. Instead, the provisional prediction mode may be calculated.
  • the prediction mode deriving unit LE534 has derived the prediction mode (or the provisional mode) derived for the reference block RB1 ′ adjacent to the upper side of the target block OB and the reference block RB2 ′ adjacent to the left side of the target block OB.
  • the case of deriving the temporary prediction mode for the target block OB has been described with reference to the prediction mode), but the present embodiment is not limited to this.
  • the prediction mode deriving unit LE534 is derived for the reference block RB1 ′ adjacent to the upper side of the target block OB, the reference block RB2 ′ adjacent to the left side of the target block OB, and the reference block RB5 ′ at the upper left of the target block OB. It is good also as a structure which refers to prediction mode (or temporary prediction mode), derive
  • the combination of reference blocks referred to in order to derive the temporary prediction mode for the target block OB may be a predetermined combination or a combination specified by the intra prediction type designation information # 531. May be.
  • the prediction mode deriving unit LE534 can derive the temporary prediction mode # 534 in a shorter processing time than the time required for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 by performing the above-described operation.
  • the prediction mode deriving unit HE533 performs edge detection on the decoded image on the reference block adjacent to the upper side of the target block, and derives the prediction mode # 533 for the target block based on the result.
  • the edge detection is performed with reference to the pixel value of the decoded image, when an error has occurred in the pixel value of the decoded image, that is, the pixel value of the decoded image has a transmission error or a decoding process.
  • an error also occurs in the prediction mode # 533 due to the direct influence of the error.
  • the prediction mode deriving unit LE534 refers to the prediction block or the temporary prediction mode derived for the reference block adjacent to the upper side of the target block and the reference block adjacent to the left side of the target block, for example.
  • Mode # 534 is derived. That is, the prediction mode deriving unit LE534 derives the temporary prediction mode # 534 without referring to the pixel value. For this reason, temporary prediction mode # 534 is not directly affected by errors that occur in the pixel values of the decoded image.
  • the possibility that an error occurs in the temporary prediction mode # 534 derived by the prediction mode deriving unit LE534 is lower than the possibility that an error occurs in the prediction mode # 533 derived by the prediction mode deriving unit HE533.
  • the prediction mode deriving unit LE534 can derive the temporary prediction mode # 534 by a process that is less likely to cause errors than the prediction mode deriving unit HE533.
  • the prediction mode residual decoding unit 535 decodes the prediction mode information PMI included in the encoded data # 13, so that the prediction mode for the target block is the same as the estimated prediction mode estimated for the target block.
  • a prediction mode flag PMF indicating the prediction mode and prediction mode data PMD for specifying a prediction mode for the target block are acquired.
  • the prediction mode flag PMF and the prediction mode data PMD are supplied to the prediction mode deriving unit 537 as prediction mode information # 535.
  • the prediction mode estimation unit N536 refers to the prediction mode that has been derived for the block adjacent to the target block, derives an estimated prediction mode # 536 that is an estimation value of the prediction mode for the target block, and sends the prediction mode derivation unit 537 Supply.
  • the derivation of the estimated prediction mode # 536 by the prediction mode estimation unit N536 can be performed by the same process as the derivation of the temporary prediction mode # 534 by the prediction mode derivation unit LE534.
  • the prediction mode deriving unit 537 derives the prediction mode # 537 for the target block with reference to the prediction mode information # 535 and the estimated prediction mode # 536.
  • FIG. 18 is a flowchart showing the flow of the derivation process of the prediction mode # 537 by the prediction mode derivation unit 537.
  • the prediction mode deriving unit 537 refers to the prediction mode flag PMF and determines whether or not the prediction mode flag PMF is 1.
  • the prediction mode flag PMF being 1 indicates that the prediction mode for the target block is equal to the estimated prediction mode, and that the prediction mode flag is not 1 indicates that the prediction mode for the target block is It is assumed that it is not equal to the estimated prediction mode.
  • Step S302 When the prediction mode flag PMF is 1 (Yes in Step S301), the prediction mode deriving unit 537 sets the estimated prediction mode # 536 to the prediction mode # 537 for the target block.
  • Step S303 When the prediction mode flag PMF is not 1 (No in Step S301), the prediction mode deriving unit 537 sets the prediction mode indicated by the prediction mode data PMD to the prediction mode # 537 for the target block.
  • the prediction mode deriving unit 537 derives and outputs the prediction mode # 537 for the target block by performing the above processing.
  • the derived prediction mode # 537 is stored in the prediction mode buffer 57.
  • the prediction mode estimation unit N536 that performs the above-described process refers to the provisional prediction mode # 534 for the reference block and the target block.
  • the estimated prediction mode # 536 is derived.
  • an error occurs in the temporary prediction mode # 534 derived without referring to the pixel value, rather than the prediction mode # 533 derived with reference to the pixel value.
  • the rate is low. Therefore, the possibility that an error will occur in the estimated prediction mode # 536 derived by referring to the temporary prediction mode # 534 having such a low error occurrence rate is lower than that in the case of referring to the prediction mode for the reference block. .
  • the possibility of an error occurring in the prediction image # 54 generated by the intra prediction unit 54 using the prediction mode # 537 generated based on the estimated prediction mode # 536 is determined using the temporary prediction mode. Low compared to when not.
  • the prediction mode deriving unit HE533 derives a statistical index such as an average of pixel values or a variance of pixel values in a decoded image on the reference block RB1 ′ adjacent to the upper side of the target block OB, and the derived index Based on the above, the prediction mode for the target block OB may be derived.
  • the prediction mode deriving unit HE533 may derive a prediction mode for the target block OB by referring to the transform coefficient (frequency component) decoded for the reference block RB1 ′ adjacent to the upper side of the target block OB. Good.
  • the reference block referred to by the prediction mode deriving unit HE533 may be a block adjacent to the left side of the target block OB, or may be another block.
  • the second deriving unit D32 skips when the target block is designated as the intra prediction type N by the intra prediction type designation information # 531, and is obtained by decoding the encoded data # 3.
  • the mode information SMI specifies a block to which the skip mode is applied, instead of deriving the estimated prediction mode # 536, the prediction mode pm may be derived and output.
  • Derivation of the prediction mode pm by the second deriving unit D32 is performed by the same process as the derivation of the temporary prediction mode by the prediction mode deriving unit LE534 described above and the derivation of the estimated prediction mode by the prediction mode estimating unit N536 described above. Can do.
  • the second deriving unit D32 outputs the prediction mode pm calculated by the above processing as it is as the prediction mode # 537.
  • the first processor P31 and the second processor P32 included in the video decoding device 3 are the same as the motion vector or provisional motion vector derivation processing performed by the first processor P1 and the second processor P2 included in the video decoding device 1.
  • a prediction mode or a temporary prediction mode can be derived.
  • FIG. 19 is a diagram showing blocks B1 'to B4' in which the prediction mode or the temporary prediction mode is derived in parallel by the first processor P31 and the second processor P32.
  • the block B1 ′ and the block B3 ′ are blocks that are specified to be processed by the first processor P31 by the discrimination information # 51 output from the parallel processing control unit 51.
  • the block B2 ′ and the block B4 ′ are The block specified by the second processor P32 by the discrimination information # 51 output from the parallel processing control unit 51.
  • the block B1 ′ and the block B4 ′ are blocks designated as the intra prediction type HE by the intra prediction type designation information # 531, and the block B2 ′ and the block B3 ′ are designated by the intra prediction type designation information # 531. These are blocks designated as intra prediction type N.
  • the first processor P31 and the second processor P32 derive the prediction mode or the temporary prediction mode in parallel for each block shown in FIG.
  • a timing chart schematically showing the processing time when performing the prediction, the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example predict The timing chart which shows typically the processing time in the case of deriving a mode in parallel is shown.
  • the first processor P31 derives the temporary prediction mode # 534 for the block B1 ′ by the prediction mode deriving unit LE534 included in the first deriving unit D31. .
  • the first processor P31 derives the prediction mode # 533 for the block B1 ′ by the prediction mode deriving unit HE533 included in the first deriving unit D31. .
  • the processing amount for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 is larger than the processing amount for deriving the temporary prediction mode # 534 by the prediction mode deriving unit LE534, from time t2 ′.
  • the period from time t6 ′ is longer than the period from time t1 ′ to time t2 ′.
  • the first processor P31 derives the prediction mode # 537 for the block B3 'by the second deriving unit D32 during the period from the time t6' to the time t7 '.
  • the prediction mode # 537 for the block B3 ' is derived with reference to the prediction mode derived for the block B2'.
  • the second processor P32 derives the prediction mode # 537 for the block B2 'by the second deriving unit D32.
  • the prediction mode # 537 for the block B2 ' is derived with reference to the temporary prediction mode # 534 derived for the block B1'.
  • the second processor P32 derives the temporary prediction mode # 534 for the block B4 ′ by the prediction mode deriving unit LE534 included in the first deriving unit D31. Do.
  • the second processor P32 derives the prediction mode # 533 for the block B4 ′ by the prediction mode deriving unit LE534 included in the first deriving unit D31. .
  • the processing amount for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 is larger than the processing amount for deriving the temporary prediction mode # 534 by the prediction mode deriving unit LE534, from time t4 ′.
  • the period from time t8 ′ is longer than the period from time t3 ′ to time t4 ′.
  • the first processor P31 and the second processor P32 derive the prediction mode or the temporary prediction mode for each of the blocks B1 'to B4'.
  • the time required for the above processing corresponds to the length of the period from time t1 'to time t8'.
  • the prediction mode for the block B2 ' is performed with reference to the temporary prediction mode derived for the block B1'. Further, since the temporary prediction mode derived for the block B1 'is derived without referring to the pixel value of the reference image, it is not affected by an error that may occur in the pixel value on the reference image.
  • the prediction mode for the block B2 ′ derived in the present embodiment may cause an error compared to the case where the prediction mode derived for the block B1 ′ is referred to by referring to the pixel value of the reference image. Is low.
  • the time required for the process of generating the temporary prediction mode for the block B1 ′ that is, the length of the period from the time t1 ′ to the time t2 ′ is T ′, and the prediction mode is derived for the block B2 ′.
  • the time required for processing ie, the length of the period from time t2 ′ to time t3 ′ is T ′
  • the time required for the temporary prediction mode generation processing for block B4 ′ ie, time from time t3 ′ to time
  • the length of the period until t4 ′ is T ′
  • the time required for the prediction mode derivation process for the block B4 ′ that is, the length of the period from time t4 ′ to time t8 ′ is r ′ ⁇ T ′.
  • r is the provisional prediction mode # by the prediction mode deriving unit LE534 provided in the first deriving unit D31 for the processing time required for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 provided in the first deriving unit D31. It represents the ratio of the processing time required to derive 534 or the processing time required to derive prediction mode # 537 by the deriving unit D32.
  • the processing time required for deriving the temporary prediction mode # 534 and the prediction mode # 537 without referring to the pixel values of the reference image by the prediction mode deriving unit LE534 and the second deriving unit D32 is the prediction mode.
  • the processing time required for deriving the prediction mode # 533 by referring to the pixel value of the reference image by the deriving unit HE533 is about 1/10 to 1/1000. Therefore, a typical value of r is about 10 to 1000.
  • the first processor P31 ′ according to the comparative example performs substantially the same processing as the first processor P31 according to the present embodiment, but unlike the first processor P31 according to the present embodiment, The prediction mode is not derived.
  • the second processor P32 ′ according to the comparative example performs substantially the same processing as the second processor P32 according to the present embodiment, but unlike the second processor P32 according to the present embodiment, provisional prediction is performed. Does not generate mode.
  • the first derivation unit D1 'included in the first processor P31' according to the comparative example and the second processor P32 'according to the comparative example does not include means corresponding to the prediction mode derivation unit LE534.
  • the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example are respectively related to the present embodiment except that the temporary prediction mode is not generated.
  • the first processor P31 has a processing capability equivalent to that of the second processor P32 according to the present embodiment.
  • P31 ′ and P32 ′ shown in (b) of FIG. 19 indicate that the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example for each block shown in (a) of FIG. It is a timing chart which shows typically processing time when deriving prediction mode in parallel.
  • block B1 ′ and block B3 ′ are blocks designated to be processed by the first processor P31 ′ according to the comparative example
  • block B2 ′ and block B4 ′ are the comparative example. The description will be made assuming that the block is designated to be processed by the second processor P32 ′.
  • the block B1 ′ and the block B4 ′ are processed by the first derivation unit D31 ′ included in the first processor P31 ′ according to the comparative example or the second processor P32 ′ according to the comparative example.
  • the blocks B2 ′ and B3 ′ that are designated are processed by the second derivation unit D32 ′ included in the first processor P31 ′ according to the comparative example or the second processor P32 ′ according to the comparative example.
  • it is assumed that the block is designated as a block.
  • the first processor P31 ' accordinging to the comparative example derives a prediction mode for the block B1' by means corresponding to the prediction mode deriving unit HE533 during a period from time t1 'to time t5'.
  • the second processor P32 ' according to the comparative example derives a prediction mode for the block B2' by the second deriving unit D32 'during the period from the time t5' to the time t6 '.
  • the prediction mode for the block B2 ' is derived with reference to the prediction mode derived for the block B1'. Therefore, the second processor P32 ′ according to the comparative example starts the prediction mode derivation process for the block B2 ′ at a time point before the time t5 ′ when the derivation of the prediction mode for the block B1 ′ ends. I can't.
  • the second processor P32 ' according to the comparative example derives a prediction mode for the block B4' by means corresponding to the prediction mode deriving unit HE533 during a period from time t6 'to time t9'.
  • the first processor P31 ' accordinging to the comparative example derives the prediction mode for the block B3' by the second deriving unit D32 'during the period from the time t6' to the time t7 '.
  • the prediction mode for the block B3 ' is derived with reference to the prediction mode derived for the block B2'.
  • the first processor P31 'according to the comparative example and the second processor P32' according to the comparative example derive the prediction mode for each of the blocks B1 'to B4'.
  • the time required for the above processing corresponds to the length of the period from time t1 'to time t9'.
  • the prediction mode for the block B2 ' is performed with reference to the prediction mode derived for the block B1'.
  • led-out by referring the pixel value of a reference image it is directly received by the influence of the error which can arise in the pixel value on a reference image.
  • the prediction mode for the block B2 'derived in the comparative example is more likely to cause an error than the prediction mode for the block B2' derived in the present embodiment described above.
  • the time required for the prediction mode derivation process for the block B1 ′ that is, the length of the period from the time t1 ′ to the time t5 ′ is r ′ ⁇ as in the prediction mode derivation process for the block B4 ′.
  • T ′ the prediction mode is derived for each of the blocks B1 ′ to B4 ′ by the parallel processing by the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example.
  • the first processor P31 according to the present embodiment and the second processor P32 according to the present embodiment are related to the comparative example when r ′ satisfies r ′> 2. Compared to the first processor P31 ′ and the second processor P32 ′ according to the comparative example, the processing time required to derive the prediction mode can be reduced.
  • the first processor P31 according to the present embodiment and the second processor P32 according to the present embodiment are Compared to the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example, the processing time required to derive the prediction mode can be reduced.
  • the ratio T1 ′ / T2 ′ (r ′ + 3) / (2 ⁇ r ′ + 1) of the processing time T1 ′ to the processing time T2 ′. Becomes closer to 1 ⁇ 2 as r ′ increases.
  • the value of r ′ is about 10 to 1000, by performing parallel processing by the first processor P31 according to this embodiment and the second processor P32 according to this embodiment, Compared with the parallel processing by the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example, the processing time required for deriving the prediction mode is reduced by almost half.
  • the moving image decoding apparatus 3 not only the error occurrence rate when generating a predicted image can be reduced, but also the processing time for deriving the prediction mode can be reduced. Also play.
  • the prediction mode or the temporary prediction mode is derived in parallel by the first processor P31 and the second processor P32 has been described as an example.
  • the form is not limited, and the derivation of the prediction mode or the temporary prediction mode may be performed by either the first processor P31 or the second processor P32.
  • the configuration of the video decoding device according to the present embodiment is not limited to the configuration described above.
  • the video decoding device according to the present embodiment may be configured not to include the prediction mode deriving unit LE534.
  • the prediction mode estimation unit N536 shares the vertex with the reference block adjacent to the target block or the target block without referring to the prediction mode # 533 derived by the prediction mode deriving unit HE533.
  • the configuration may be such that the estimated prediction mode # 536 for the target block is derived with reference to the prediction mode # 537 derived by the second deriving unit D32 for the reference block.
  • Other configurations can be the same as the configurations already described.
  • the moving picture decoding apparatus configured in this way derives the estimated prediction mode # 536 for the target block without referring to the prediction mode # 533 that is highly likely to cause an error, an error occurs in the estimated prediction mode # 536. The possibility of occurring can be reduced.
  • the moving picture decoding apparatus configured as described above derives the prediction mode # 537 for the target block without referring to the prediction mode # 533 derived by the derivation method having a large processing amount, so that the delay time is reduced. Can be reduced and the processing efficiency can be improved.
  • Moving picture encoding apparatus 4 (Moving picture encoding device 4)
  • the moving picture encoding apparatus (encoding apparatus) 4 according to the present embodiment will be described with reference to FIGS.
  • the moving image encoding device 4 is a device that generates and outputs encoded data # 3 by encoding the input image # 100, in brief.
  • the moving image encoding device 4 includes H.264 as a part thereof.
  • H.264 / MPEG-4 A moving picture coding apparatus using the technology adopted in the AVC standard.
  • FIG. 20 is a block diagram illustrating a configuration of the moving image encoding device 4.
  • the moving image encoding device 4 includes a header information determination unit 21, a header information encoding unit 22, an MB setting unit 23, an MB encoding unit 64, a variable length code multiplexing unit 25, and an MB decoding unit. 66, and a frame memory 27.
  • the moving image encoding device 4 includes an MB encoding unit 64 and an MB decoding unit 66, respectively, instead of the MB encoding unit 24 and the MB decoding unit 26 included in the moving image encoding device 2 in the first embodiment. ing.
  • Other configurations of the moving image encoding device 4 are the same as those of the moving image encoding device 2.
  • the MB encoding unit 64 encodes sequentially input macro block images # 23 to generate MB encoded data # 64.
  • the generated MB encoded data # 64 is supplied to the variable length code multiplexing unit 25 and the MB decoding unit 66. Since the configuration of the MB encoding unit 64 will be described later, description thereof is omitted here.
  • variable length code multiplexing unit 25 generates encoded data # 3 by multiplexing encoded header information # 22 and MB encoded data # 64 and outputs the encoded data # 3.
  • the MB decoding unit 66 generates and outputs a decoded image # 66 corresponding to each macroblock by sequentially decoding the MB encoded data # 64 corresponding to each input macroblock.
  • the decoded image # 66 is supplied to the frame memory 27.
  • FIG. 21 is a block diagram showing a configuration of the MB encoding unit 64.
  • the MB encoding unit 64 includes an intra prediction type determination unit 641, a switch unit 642, a prediction mode derivation unit HE643, a prediction mode derivation unit LE644, a prediction mode determination unit 645, a prediction mode estimation unit N646, and a prediction.
  • a mode encoding unit 647, an intra prediction unit 648, a subtracter 649, a prediction residual encoding unit 650, and an MB encoded data generation unit 651 are provided.
  • the prediction mode deriving unit HE643 and the prediction mode deriving unit LE644 constitute a first deriving unit D41
  • the prediction mode determining unit 645 and the prediction mode estimating unit N646 constitute a second deriving unit D42.
  • the intra prediction type determination unit 641 is activated when the macroblock image # 23 is input, and a prediction mode derivation method used for generating a prediction image in each block belonging to the target macroblock is determined based on a predetermined algorithm. Determine for each block.
  • the intra prediction type determination unit 641 determines which prediction type should be classified into the intra prediction type HE or the intra prediction type N for each block.
  • the block corresponding to the intra prediction type HE has a larger processing amount for deriving the prediction mode than the block corresponding to the intra prediction type N.
  • the intra prediction type determination unit 641 outputs intra prediction type designation information # 641 that is information indicating which prediction type each block is classified into the intra prediction type HE or the intra prediction type N.
  • each block is classified into one of intra prediction type HE or intra prediction type N.
  • Prediction type that generates prediction images for all 2 n combinations obtained and optimizes encoding efficiency when encoding residual data between the generated prediction images and macroblock image # 23 It is sufficient to use an algorithm for determining the combination of.
  • rate distortion cost can be used as an index for evaluating the coding efficiency.
  • switch unit 642 Based on the intra prediction type designation information # 641, the switch unit 642 transmits the macroblock image # 23 to one of the first deriving unit D41 and the second deriving unit D42 in units of blocks. More specifically, the switch unit 642, when the intra prediction type designation information # 641 indicates that the target block is classified into the intra prediction type HE, the target block of the macroblock image # 23. When the intra prediction type designation information # 641 indicates that the target block is classified into the intra prediction type N, the image regarding the macro block image # 23 is transmitted. An image related to the target block is transmitted to the second deriving unit D42.
  • the prediction mode deriving unit HE643 refers to the decoded image # 27 ′ for each block included in the same frame as the target block among the decoded images # 27 recorded in the frame memory 27, and predicts the prediction mode # for the target block. 643 is derived.
  • the derivation of the prediction mode # 643 by the prediction mode derivation unit HE643 can be performed by the same process as the derivation of the prediction mode # 533 by the prediction mode derivation unit HE533 included in the video decoding device 3.
  • the derived prediction mode # 643 is output to the intra prediction unit 648.
  • the prediction mode deriving unit LE644 refers to the prediction mode # 645 determined by the prediction mode determining unit 645 for each of the reference block RB1 ′ adjacent to the upper side of the target block OB and the reference block RB2 ′ adjacent to the left side of the target block OB. Then, provisional prediction mode # 644 that is provisionally set for the target block OB is derived.
  • the derivation of the temporary prediction mode # 644 by the prediction mode deriving unit LE644 can be performed by the same process as the derivation of the temporary prediction mode # 534 by the prediction mode deriving unit LE534 included in the video decoding device 3.
  • “intra prediction type designation information # 531” is read as “intra prediction type designation information # 641” (the same applies to the video encoding device 4 below).
  • the derived temporary prediction mode # 644 is stored in the prediction mode buffer 652.
  • the prediction mode determination unit 645 determines a prediction mode # 645 used for generating a predicted image in the target block by intra prediction by a predetermined algorithm.
  • the determined prediction mode # 645 is output to the prediction mode encoding unit 647 and the prediction mode buffer 652.
  • the encoding efficiency when encoding the residual data between the prediction image in the target block and the image in the target block of the macroblock image # 23 is as follows. An algorithm that determines a prediction mode to be optimized may be used. As an index for evaluating the coding efficiency, rate distortion cost can be used.
  • the prediction mode estimation unit N646 refers to the prediction mode # 645 determined by the prediction mode determination unit 645 for a block adjacent to the target block, and calculates an estimated prediction mode # 646 that is an estimated value of the prediction mode for the target block. Derived and supplied to the prediction mode encoding unit 647.
  • the derivation of the estimated prediction mode # 646 by the prediction mode estimation unit N646 can be performed by the same process as the derivation of the estimated prediction mode # 536 by the prediction mode estimation unit N536 included in the video decoding device 3.
  • the prediction mode encoding unit 647 generates the encoded prediction mode # 647 by referring to the prediction mode # 645 and the estimated prediction mode # 646.
  • the prediction mode encoding unit 647 compares the prediction mode # 645 and the estimated prediction mode # 646, and if they are equal, sets the value of the prediction mode flag PMF to 1 and performs the prediction
  • the encoded prediction mode # 647 is generated by encoding the mode flag PMF.
  • the prediction mode encoding unit 647 sets the value of the prediction mode flag PMF to 0, and the prediction mode flag PMF and the prediction mode # The encoded prediction mode # 647 is generated by encoding 645 together.
  • the generated prediction mode # 647 is output to the MB encoded data generation unit 651.
  • the intra prediction unit 648 performs the prediction mode # 643 or the prediction mode # on the decoded image # 27 ′ of each block included in the same frame as the target block among the decoded images # 27 stored in the frame memory 27.
  • Prediction image # 648 is generated by performing in-screen prediction based on 645 and output.
  • FIG. 22 is a diagram illustrating each pixel (prediction target pixel) of the target block that is 4 ⁇ 4 pixels and pixels (reference pixels) around the target block.
  • the prediction target pixels are denoted by reference signs a to p
  • the reference pixels are denoted by reference signs A to M
  • the pixel value of the pixel X (X is any one of a to p and A to M) is set to X. It will be expressed as Further, it is assumed that the reference pixels A to M have all been decoded.
  • ave Indicates that an element included in parentheses is averaged.
  • represents a left shift operation
  • the value of a ⁇ b is equal to the value of a ⁇ (2 to the power of b).
  • >> represents a right shift operation, and the value of a >> b is equal to a value obtained by rounding down the decimal part of a ⁇ (2 to the power of b).
  • the intra prediction unit 648 can calculate the pixel values a to p by a similar method for prediction modes other than the above prediction modes.
  • the intra prediction unit 648 can generate a predicted image # 648 in each block.
  • the subtractor 649 generates and outputs a prediction residual # 649 by taking the difference between the macroblock image # 23 and the prediction image # 648.
  • the prediction residual encoding unit 650 encodes the prediction residual # 649 and outputs the encoded prediction image # 650 to the MB encoded data generation unit 651.
  • the MB encoded data generation unit 651 multiplexes the encoded predicted image # 650, the encoded prediction mode # 647, and the intra prediction type designation information # 641 to thereby convert the MB encoded data # 64. Generate and output.
  • the prediction mode buffer 652 stores temporary prediction mode # 644, prediction mode # 643, and prediction mode # 645.
  • the moving image encoding device 4 configured as described above does not refer to the prediction mode # 643 where the possibility of an error is high, but refers to the temporary prediction mode # 644 where the possibility of an error is low. Since the estimated prediction mode # 646 is derived, the possibility that an error occurs in the estimated prediction mode # 646 can be reduced.
  • the moving image encoding device 4 configured as described above does not refer to the prediction mode # 643 derived by the derivation method having a large processing amount, but the temporary prediction mode # derived by the derivation method having a small processing amount. Since the estimated prediction mode # 646 for the target block is derived with reference to 644, the delay time can be reduced and the processing efficiency can be improved. In addition, the moving image encoding device 4 can generate encoded data that can be decoded with a small delay time in a corresponding moving image decoding device (for example, the moving image decoding device 3).
  • the configuration of the moving image encoding apparatus according to the present embodiment is not limited to the configuration described above.
  • the video encoding apparatus according to the present embodiment may be configured not to include the prediction mode deriving unit LE644.
  • the prediction mode estimation unit N646 shares the vertex with the reference block adjacent to the target block or the target block without referring to the prediction mode # 643 derived by the prediction mode deriving unit HE643.
  • the prediction mode # 645 derived by the prediction mode determination unit 645 may be referred to derive the estimated prediction mode # 646 for the target block.
  • Other configurations can be the same as the configurations already described.
  • the moving picture coding apparatus configured as described above derives the estimated prediction mode # 646 for the target block without referring to the prediction mode # 643 that is highly likely to cause an error. It is possible to reduce the possibility of occurrence.
  • the moving image encoding device 4 can generate encoded data that is less likely to cause an error when being decoded by a corresponding moving image decoding device (for example, the moving image decoding device 3).
  • the moving picture coding apparatus configured as described above derives the estimated prediction mode # 646 for the target block without referring to the prediction mode # 643 derived by the derivation method having a large processing amount. Time can be reduced and processing efficiency can be improved.
  • a method of referring to a decoded image as a prediction method with a high possibility of occurrence of an error, and a possibility of occurrence of an error as compared with a decoded image as a prediction method with a low possibility of occurrence of an error is presented.
  • the prediction method with a high possibility of an error and the prediction method with a low possibility of an error in the present invention are not limited to the above example.
  • PLE an arbitrary coding parameter
  • PHE a conversion parameter
  • PLE motion vector
  • PHE decoded image
  • a decoded image is derived by adding a decoded prediction residual to a predicted image derived based on a motion vector
  • PLE Intra prediction mode
  • PHE Decoded image
  • the decoded image is derived by adding a decoded prediction residual to a predicted image derived based on the prediction mode.
  • PLE motion vector residual
  • PHE motion vector
  • PLE decoded prediction residual
  • PHE decoded image (the decoded image is derived by adding the predicted image to the decoded prediction residual) e.
  • the decoded prediction residual is, for example, the prediction residual # 141 decoded by the prediction residual decoding unit 141 included in the video decoding device 1 and the subtracter 249 included in the video encoding device 2. This corresponds to the prediction residual # 249 to be output.
  • the decoded image is the final output in the moving image decoding apparatus, there is a higher possibility that an error will occur than any other encoding parameter. Therefore, even when a method that refers to a decoded image is used as a prediction method that is highly likely to cause an error and a method that does not refer to a decoded image is used as a prediction method that is unlikely to cause an error, an error may occur. Can be reduced.
  • a prediction method with a high possibility of an error is generated by using a method of referring to PX N times as a prediction method with a low possibility of an error. Even when a method of referring to PX M times (however, M> N) is used as a method, the possibility of an error occurring can be reduced.
  • a method of deriving a motion vector by setting a predetermined search range and referring to a decoded image By using a method of deriving a motion vector by setting a search range wider than the search range and referring to the decoded image, the possibility of an error can be reduced.
  • a transmission error may occur due to disturbance from the outside world. More specifically, the syntax (data string) included in the encoded data may cause a bit error or a bit loss during transmission.
  • the encoded data including the syntax in which such a transmission error occurs causes a decoding error in the moving picture decoding apparatus that decodes the encoded data.
  • the various syntaxes included in the encoded data are classified according to the degree of image quality degradation of the decoded image when an error occurs, and the influence on the image quality degradation of the decoded image when an error occurs. It is preferable that a larger syntax is transmitted by a transmission method with higher error tolerance, and a syntax with less influence on image quality degradation is transmitted by a transmission method with relatively low error tolerance.
  • various kinds of thin vectors such as the motion vector residual MVD, the prediction mode information PMI, and the quantized prediction residual QD that is residual data between the prediction image and the original image are included in the encoded data # 1.
  • Each of the syntaxes is associated with an importance indicating the magnitude of the effect of image degradation due to a decoding error or a transmission error, and the syntax with the higher importance is transmitted by a transmission method with higher error tolerance, and the importance is relative. It is preferable to transmit a low syntax by a transmission method having a relatively low error resistance. The same applies to the second embodiment.
  • the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 may be configured to include importance level information acquisition means for acquiring importance level information indicating the importance level associated with each syntax.
  • the moving picture coding apparatus 2 and the moving picture coding apparatus 4 may be configured to include importance setting means for associating importance with each syntax.
  • the moving picture coding apparatus 2 and the moving picture coding apparatus 4 may be configured to include a transmission unit that transmits a syntax associated with a higher importance by a transmission method with higher error tolerance.
  • the degree of importance is expressed using I
  • the degree of importance is expressed as importance I
  • the degree of importance increases as I increases
  • the motion vector residual which is a syntax having a large influence on the motion vector, and the prediction mode and the like are associated with the importance level 2
  • the quantization prediction residual is a syntax having a relatively small influence on image degradation due to a decoding error or a transmission error. And so on are associated with importance 1.
  • the syntax associated with importance 2 is transmitted by a transmission scheme with high error tolerance
  • the syntax associated with importance 1 is transmitted by a transmission scheme with relatively low error tolerance.
  • the transmission method with high error tolerance is, for example, a method of repeatedly encoding and transmitting a syntax that has a larger effect on the decoded image and a syntax that has a larger effect on the decoded image. This includes a method of transmitting via a transmission line that is less susceptible to errors.
  • the video decoding device 1, the video encoding device 2, the video decoding device 3, and the video encoding device 2 may be stored in the respective memories.
  • the parameters obtained by decoding the syntax are associated with the same importance as the syntax, and the video decoding device 1, the video encoding device 2, the video decoding device 3, and the video The encoding device 2 may be configured to be able to identify the importance level.
  • the motion vector obtained by decoding the motion vector residual and the prediction mode information, respectively, and the prediction mode are associated with importance 2, and the quantized prediction residual is decoded.
  • the prediction residual, the frequency component of the pixel value, and the pixel value obtained by are associated with importance 1.
  • the importance level may be a predetermined value that is commonly used in the video encoding device and the video decoding device for each syntax. For example, H.M. H.264 / MPEG-4. In the AVC standard, such importance is defined in a mechanism called a data partition. Also, the importance level corresponding to each syntax is determined by the video encoding device, and the information is included in the header information in the encoded data, so that the correspondence relationship between the same syntax and the importance level is also used in the video decoding device. You may be made to be able to refer to.
  • the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 that respectively decode the encoded data # 1 and the encoded data # 3 including various syntaxes associated with the importance are expressed as follows: You can also
  • the residual data between the original image and the prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the parameters used to generate the prediction image are encoded.
  • a decoding device that decodes encoded data having a syntax obtained by converting to a prediction image used for decoding, using a parameter derived for each prediction unit.
  • importance level information acquisition means for acquiring importance level information indicating the level of importance associated with each of the decoded syntaxes, and derivation method designation information included in the encoded data include parameter derivation.
  • a second derivation method that refers to a reference value decoded from a syntax associated with an importance level lower than the predetermined importance level is determined for each prediction unit.
  • the first derivation method is specified by the derivation method determination unit for the derivation method determination unit (the inter prediction type decoding unit 431 or the intra prediction type decoding unit 531) and the target prediction unit that is the processing target prediction unit.
  • the parameter deriving means includes the reference prediction unit Of derived with parameters, without reference to parameters derived by the second method of deriving derives the parameters for the target prediction unit, it can also be expressed as those.
  • the video encoding device 2 and the video encoding device 4 that generate the encoded data # 1 and the encoded data # 3, respectively, by encoding various parameters associated with the importance can also be expressed as follows.
  • An encoding apparatus comprising an estimated image generating means for generating the predicted image using the parameter, an importance setting means for associating importance with each of the syntaxes, and parameter derivation
  • a derivation method setting means for setting a method for each prediction unit, wherein the reference value decoded from a syntax associated with an importance lower than a predetermined importance among the syntaxes is not referred to Restore from the derivation method or the syntax associated with an importance lower than the predetermined importance in the syntax.
  • a derivation method setting unit (inter prediction type determination unit 241 or intra prediction type determination unit 641) for setting any one of the second derivation methods that refer to the reference values that have been processed, and a target prediction unit that is a processing target prediction unit
  • the derivation method setting means referring to the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit, Parameter deriving means (mv deriving unit N246 or prediction mode estimating unit N646) for deriving a parameter for the target prediction unit, and syntax associated with an importance level equal to or higher than the predetermined importance level are set as the predetermined importance level.
  • the parameter deriving unit calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. It can also be expressed as derived.
  • the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 can be expressed as follows.
  • the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 encode residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • the decoding apparatus includes prediction image restoration means that restores a prediction image used for decoding using a parameter derived for each prediction unit.
  • the derivation method designation information included in the digitized data includes, as parameter derivation methods, a first derivation method that does not refer to the first reference value (pixel value), and a second derivation that refers to the first reference value.
  • a derivation method discriminating unit (inter prediction type decoding unit 431 or intra prediction type decoding unit 531) for discriminating which method is designated for each prediction unit, and a prediction unit to be processed.
  • a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when it is determined that the first derivation method is specified by the derivation method determination unit.
  • Parameter deriving means (mv deriving unit N436 or prediction mode estimating unit N536) for deriving a parameter for the target prediction unit with reference to the parameter derived for the target prediction unit, and the second deriving method among the reference prediction units Referring to the second reference value for which a decoding error and a transmission error are less likely to occur than the first reference value, a temporary parameter deriving means (mv deriving unit LE434 or A prediction mode deriving unit LE534), wherein the parameter deriving means includes the reference prediction unit of the above For the prediction unit in which one derivation method is designated, the parameter derived by the first derivation method is referred to, and for the prediction unit in which the second derivation method is designated, the provisional parameter derivation means The parameter for the target prediction unit is derived with reference to the temporary parameter derived by the above.
  • the moving picture coding apparatus 2 and the moving picture coding apparatus 4 can be expressed as follows.
  • the moving image encoding device 2 and the moving image encoding device 4 encode the residual data between the original image and the predicted image for each of a plurality of prediction units obtained by dividing the original image.
  • a derivation method setting unit that sets a parameter derivation method for each prediction unit in an encoding apparatus including a prediction image generation unit that generates the prediction image using a parameter derived for each prediction unit.
  • derivation method setting means for setting either the first derivation method that does not refer to the first reference value (pixel value) or the second derivation method that refers to the first reference value.
  • the first derivation method is set by the derivation method setting means for the prediction type determination unit 241 or the intra prediction type determination unit 641) and the target prediction unit that is the processing target prediction unit.
  • Parameter deriving means mv deriving unit
  • mv deriving unit for deriving a parameter for the target prediction unit with reference to a parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit N246 or the prediction mode estimation unit N646) and the second of the reference prediction units in which the second derivation method is set, the decoding error and the transmission error are less likely to occur than the first reference value.
  • a temporary parameter deriving unit (mv deriving unit LE244 or prediction mode deriving unit LE644) for deriving a temporary parameter with reference to the reference value, wherein the parameter deriving unit includes the first prediction unit of the reference prediction unit.
  • the prediction unit for which the derivation method is set refer to the parameters derived by the first derivation method.
  • the prediction unit for which the second derivation method is set is expressed by referring to the temporary parameter derived by the temporary parameter deriving means to derive the parameter for the target prediction unit. You can also.
  • the macroblock in the above embodiment is H.264.
  • Macroblocks and blocks are stored in HEVC CU (Coding Unit; sometimes called coding unit leaf), PU (Prediction Unit; prediction unit), or TU (Transformation Unit). It is equivalent.
  • the video encoding device 4 and the video decoding device 3 according to the present invention can be applied when executing the following processing.
  • ⁇ a> Processing for determining the scan direction of the transform coefficient in the target prediction unit according to the value of the prediction mode applied to the same prediction unit.
  • ⁇ B> Processing for determining the type of filter applied to reference pixels in intra prediction within the target prediction unit according to the value of the prediction mode applied to the same prediction unit.
  • ⁇ C> Processing for determining the variable length coding method of the chroma prediction mode in the target prediction unit according to the value of the (luminance) prediction mode applied to the same prediction unit.
  • ⁇ D> Process for determining the variable-length encoding method of the prediction mode in the target prediction unit according to the prediction value of the prediction mode in the same prediction unit.
  • the temporary prediction mode may be derived by the following methods ⁇ 1> to ⁇ 4>.
  • the DC mode is derived as the temporary prediction mode.
  • the prediction mode of the upper adjacent prediction unit is derived as the temporary prediction mode. To do.
  • the prediction mode of the left adjacent prediction unit is set as the temporary prediction mode.
  • the estimated prediction mode is derived as the temporary prediction mode.
  • the estimated prediction mode refers to a prediction mode with a smaller prediction mode index among the prediction mode of the upper adjacent prediction unit and the prediction mode of the left adjacent prediction unit.
  • the conversion coefficient scanning method ⁇ a>, the reference pixel filtering method ⁇ b>, and the chroma prediction mode ⁇ c> By selecting this variable length coding method, it is possible to increase the possibility of selecting a method according to image characteristics (edge direction) while preventing errors from propagating.
  • the decoding apparatus obtains by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • a decoding apparatus for decoding the encoded data wherein the encoded data is a decoding apparatus provided with prediction image restoration means for restoring a prediction image used for decoding using a parameter derived for each prediction unit.
  • the derivation method designation information included in the parameter specifies any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method.
  • the first derivation method is designated by the derivation method discrimination means for determining whether or not each prediction unit and the target prediction unit that is the processing target prediction unit by the derivation method discrimination means. If it is determined, with reference to the parameters derived for the reference prediction unit is a prediction unit located from the target prediction unit in a predetermined relative position, and the parameter deriving means for deriving the parameters for the target prediction unit, The parameter derivation means derives the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. It is characterized by.
  • the decoding apparatus configured as described above has the target prediction unit when the first derivation method that does not refer to the decoded pixel value is specified for the target prediction unit to be processed.
  • the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction without referring to the parameter derived by the second derivation method that refers to the decoded pixel value
  • the decoded pixel values include the effects of errors in the decoding process and / or transmission errors caused by external disturbances when the encoded data is transmitted. Even in such a case, it is possible to prevent such an error from propagating to the parameter derived by the parameter deriving means. That.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit that is the starting point, or may be another prediction unit, and the decoding order of the prediction unit Accordingly, a prediction unit at an appropriate relative position may be used.
  • the prediction unit is, for example, H.264. H.264 / MPEG-4.
  • the AVC standard corresponds to the block described above.
  • the decoding device according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or It may be a unit composed of a plurality of blocks (for example, a unit corresponding to the macroblock described above) or a unit smaller than the block.
  • the decoding apparatus further includes provisional parameter derivation means for deriving a provisional parameter by the first derivation method for a prediction unit in which the second derivation method is specified among the reference prediction units.
  • the parameter deriving unit further refers to the parameter derived by the first derivation method for the prediction unit in which the first derivation method is specified among the reference prediction units, and the second For the prediction unit for which the derivation method is designated, it is preferable to derive the parameter for the target prediction unit with reference to the temporary parameter derived by the temporary parameter deriving means.
  • the temporary parameter deriving means derives a temporary parameter for the prediction unit in which the second deriving method is specified by the first deriving method
  • the parameter deriving means includes the above
  • the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
  • the prediction unit in which the second derivation method that refers to the decoded pixel value is designated is derived by the first derivation method that does not refer to the decoded pixel value. Since the parameter for the target prediction unit is derived with reference to the temporary parameter, an error occurring in the decoding process and / or external disturbance when the encoded data is transmitted to the decoded pixel value Even when the effect of the transmission error that occurs is included, such an error can be prevented from propagating to the parameter derived by the parameter deriving means.
  • the parameter for the target prediction unit is derived with reference to the temporary parameter, so that the prediction accuracy when generating the predicted image is improved. There is a further effect of being able to.
  • the temporary parameter deriving means derives a temporary parameter for a prediction unit for which the second derivation method is specified, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. It is preferable to derive with reference to the parameter or the formal parameter.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban distance from the prediction unit that is the starting point is equal to or less than a predetermined distance, and is the starting point.
  • the prediction unit adjacent to the prediction unit, and the prediction unit that shares a vertex with the prediction unit serving as a starting point may be used, or may be another prediction unit, and depending on the decoding order of the prediction unit, A prediction unit at an appropriate relative position may be used.
  • the temporary parameter deriving unit is configured to set a temporary parameter for a prediction unit for which the second derivation method is designated, among the reference prediction units, a parameter derived for a prediction unit adjacent to the prediction unit, or a temporary parameter. It is preferable to derive with reference to the parameters.
  • requires the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units about the prediction unit adjacent to the said prediction unit. Since it is derived with reference to the derived parameter or temporary parameter, the prediction accuracy of the parameter derived for the target prediction unit with reference to the derived temporary parameter is improved.
  • the encoding device having a configuration corresponding to the above configuration it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
  • the parameter deriving unit derives a reference prediction unit adjacent to the target prediction unit when the first deriving method is determined by the deriving method determining unit for the target prediction unit. It is preferable to derive a parameter for the target prediction unit with reference to the obtained parameter.
  • the prediction of the parameter derived for the target prediction unit is performed. Accuracy is improved.
  • the encoding device having a configuration corresponding to the above configuration it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
  • the predicted image restoration means generates a predicted image by intra prediction and the parameter is referred to for generating a predicted image by intra prediction.
  • intra prediction refers to a prediction mode that is a parameter for designating a prediction direction in intra prediction.
  • the decoding apparatus configured as described above generates a predicted image by intra prediction, and the first derivation method that does not refer to the decoded pixel value is the target prediction unit to be processed.
  • a prediction mode derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when specified
  • a second derivation method that refers to a decoded pixel value Since the prediction mode for the target prediction unit is derived without referring to the derived prediction mode, an error generated in the decoding process and / or encoded data is transmitted to the decoded pixel value. Even if the effects of transmission errors caused by external disturbances are included, such errors are Be propagated to the prediction mode issued can be prevented.
  • the parameter deriving unit derives a parameter for a prediction unit for which the second derivation method is designated with reference to a decoded pixel value in a predicted image including the prediction unit.
  • the second unit A parameter with high prediction accuracy is derived for a prediction unit for which a derivation method is specified.
  • the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
  • the encoding device having a configuration corresponding to the above configuration it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
  • the predicted image restoration means generates a predicted image by inter-screen prediction, and the parameter is referred to for generating a predicted image by inter-screen prediction.
  • inter prediction refers to a motion vector used when motion compensation is performed in inter prediction.
  • the decoding apparatus configured as described above generates a prediction image by inter prediction, and the first derivation method that does not refer to the decoded pixel value is the target prediction unit to be processed. Derived by a second derivation method that refers to a decoded pixel value out of motion vectors derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when specified. Since the motion vector for the target prediction unit is derived without referring to the motion vector to be decoded, an error that occurs in the decoding process and / or the encoded data is transmitted to the decoded pixel value. Even if the effects of transmission errors caused by disturbances from are included, such errors are caused by the parameter deriving means. Propagate the motion vectors derived Te can be prevented.
  • the parameter deriving unit refers to a parameter for a prediction unit for which the second derivation method is designated, and a pixel value in a decoded image referred to for generating a predicted image including the prediction unit. It is preferable to derive as follows.
  • generate the parameter about the prediction unit in which the said 2nd derivation method is designated in order to produce
  • the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
  • the encoding device having a configuration corresponding to the above configuration it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
  • the encoding apparatus encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image.
  • a derivation method setting unit that sets a parameter derivation method for each prediction unit is provided. Any of the first derivation method that does not refer to the pixel value of the decoded image obtained by encoding and decoding the original image, or the second derivation method that refers to the pixel value of the decoded image.
  • Parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a relative position of the reference prediction unit, wherein the parameter deriving means includes the reference prediction unit Of the parameters derived for the unit, the parameter for the target prediction unit is derived without referring to the parameter derived by the second derivation method.
  • the encoding apparatus configured as described above is configured so that the first derivation method that does not refer to the pixel value of the decoded image is set for the target prediction unit to be processed.
  • the parameter derived by the second derivation method referring to the pixel value of the decoded image among the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit.
  • the pixel value of the decoded image includes an influence of an error occurring in the encoding process and the decoding process, such an error is Propagation to parameters derived by the deriving means can be prevented.
  • the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit serving as a starting point, or may be another prediction unit.
  • a prediction unit at an appropriate relative position may be used in accordance with the decoding order.
  • the prediction unit is, for example, H.264. H.264 / MPEG-4.
  • the AVC standard corresponds to the block described above.
  • the encoding apparatus according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or A unit composed of a plurality of blocks (for example, a unit corresponding to the above-described macroblock) or a unit smaller than the block may be used.
  • the encoding apparatus provides a temporary parameter derivation unit that derives a temporary parameter by the first derivation method for a prediction unit in which the second derivation method is set among the reference prediction units.
  • the parameter derivation means refers to the parameter derived by the first derivation method for the prediction unit for which the first derivation method is set among the reference prediction units, and For the prediction unit for which the derivation method of 2 is set, it is preferable to derive the parameter for the target prediction unit with reference to the temporary parameter derived by the temporary parameter deriving means.
  • the temporary parameter deriving means derives a temporary parameter for the prediction unit in which the second deriving method is specified by the first deriving method
  • the parameter deriving means includes the above
  • the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
  • the prediction unit in which the second derivation method that refers to the pixel value of the decoded image is designated is derived by the first derivation method that does not refer to the pixel value of the decoded image. Since the parameter for the target prediction unit is derived with reference to the provisional parameter, even if the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process , Such an error can be prevented from propagating to the parameter derived by the parameter deriving means.
  • the parameter for the target prediction unit is derived with reference to the temporary parameter, so that the prediction accuracy when generating the predicted image is improved. There is a further effect of being able to.
  • the temporary parameter deriving unit derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. It is preferable to derive with reference to the parameter or the formal parameter.
  • the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban distance from the prediction unit that is the starting point is equal to or less than a predetermined distance, and is the starting point.
  • the prediction unit adjacent to the prediction unit and the prediction unit sharing the apex with the prediction unit serving as a starting point may be used, or other prediction units may be used.
  • a prediction unit at an appropriate relative position may be used according to the order.
  • the temporary parameter deriving unit is configured to select a temporary parameter for a prediction unit for which the second derivation method is set among the reference prediction units, a parameter derived for a prediction unit adjacent to the prediction unit, or a temporary parameter. It is preferable to derive with reference to the parameters.
  • requires the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units about the prediction unit adjacent to the said prediction unit. Since it is derived with reference to the derived parameter or temporary parameter, the prediction accuracy of the parameter derived for the target prediction unit with reference to the derived temporary parameter is improved.
  • the parameter deriving unit is configured to calculate a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting unit for the target prediction unit. It is preferable to refer to and derive a parameter for the target prediction unit.
  • the prediction of the parameter derived for the target prediction unit is performed. Accuracy is improved.
  • the predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image, and the parameter is predicted by intra prediction. Preferably, it is referred to for generating an image.
  • intra prediction refers to a prediction mode that is a parameter for designating a prediction direction in intra prediction.
  • the encoding apparatus configured as described above generates a predicted image by intra prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed.
  • a second unit that refers to the pixel value of the decoded image among prediction modes derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified. Since the prediction mode for the target prediction unit is derived without referring to the prediction mode derived by the derivation method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the prediction mode derived by the parameter deriving unit.
  • the parameter deriving unit derives a parameter for a prediction unit for which the second deriving method is set with reference to a pixel value in the locally decoded image.
  • the second derivation method is A parameter with high prediction accuracy is derived for the specified prediction unit.
  • the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
  • the predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image, and the parameters are predicted images by inter-screen prediction. It is preferable that it is what is referred in order to produce
  • inter prediction refers to a motion vector used when motion compensation is performed in inter prediction.
  • the encoding apparatus configured as described above generates a prediction image by inter prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed.
  • a second derivation that refers to the pixel value of the decoded image from among the motion vectors derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified Since the motion vector for the target prediction unit is derived without referring to the motion vector derived by the method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the motion vector derived by the parameter deriving means. That.
  • the parameter derivation unit derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the decoded image.
  • the second derivation method since the parameter for the prediction unit for which the second derivation method is designated is derived with reference to the pixel value in the decoded image, the second derivation method is designated. A parameter with high prediction accuracy is derived for the prediction unit. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
  • the decoding device encodes residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • a decoding apparatus that decodes encoded data, and includes a prediction image restoration unit that restores a prediction image used for decoding using a parameter derived for each prediction unit, and is included in the encoded data
  • the derivation method designation information is, as a parameter derivation method, (1) a first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; (2) A derivation method discriminating means for discriminating for each prediction unit which of the second derivation methods referring to the second parameter is specified, and a pair of processing target prediction units When it is determined by the derivation method determination means that the first derivation method is designated for a prediction unit, a reference prediction unit that is a prediction unit located at a predetermined relative position is derived from the target prediction unit.
  • Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter, wherein the parameter deriving means includes the second of the parameters derived for the reference prediction unit.
  • the parameter for the target prediction unit is derived without referring to the parameter derived by the derivation method.
  • the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
  • the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
  • an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
  • First parameter reference image index
  • second parameter predicted image (the predicted image is derived from a reference image specified by the reference image index and a motion vector).
  • the encoding apparatus is an encoding apparatus that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image.
  • the derivation method setting means for setting the parameter derivation method for each prediction unit, (1 ) A first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; and (2) a second that refers to the second parameter.
  • Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit.
  • the parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit. It is said.
  • the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
  • the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
  • an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
  • the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
  • examples of the first parameter and the second parameter include combinations such as a to e described above.
  • the decoding apparatus generates residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the prediction image.
  • a decoding device that decodes encoded data having a syntax obtained by encoding each parameter used for decoding, and reconstructs a prediction image used for decoding using a parameter derived for each prediction unit
  • the decoding apparatus including the predicted image restoration means, importance level information acquisition means for acquiring importance level information indicating the importance level associated with each of the decoded syntaxes, and derivation included in the encoded data
  • the method specification information uses a reference value decoded from syntax associated with an importance lower than a predetermined importance as a parameter derivation method.
  • a derivation method discrimination unit that discriminates for each prediction unit, and a target prediction unit that is a prediction unit to be processed, when the derivation method discrimination unit determines that the first derivation method is designated,
  • Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit, and the parameter derivation means comprises: Without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit, Deriving parameters for serial target prediction unit, and characterized in that.
  • the syntax associated with the importance greater than or equal to the predetermined importance is transmitted by a transmission method having a higher error resistance than the syntax associated with the importance lower than the predetermined importance. It is preferable that
  • the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level.
  • a parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax.
  • the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance.
  • the encoding apparatus encodes the residual data between the original image and the predicted image and the parameters used to generate the predicted image, by encoding each prediction unit.
  • An encoding apparatus for generating encoded data comprising a syntax, wherein the encoding apparatus includes predicted image generation means for generating the predicted image using the parameter, and associates importance with each of the syntaxes Importance level setting means and derivation method setting means for setting a parameter derivation method for each prediction unit, wherein the decoding is performed from a syntax associated with an importance level lower than a predetermined importance level.
  • the first derivation method that does not refer to the reference value, or is associated with an importance lower than the predetermined importance in the syntax.
  • the derivation method setting means for setting any one of the second derivation methods that refer to the reference value decoded from the syntax to be processed, and the target prediction unit that is the prediction unit to be processed are processed by the derivation method setting means by the first derivation method setting means.
  • the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit.
  • the parameter derivation means and the syntax associated with the importance greater than or equal to the predetermined importance are transmitted by a transmission method having a higher error tolerance than the syntax associated with the importance lower than the predetermined importance. Transmitting means, wherein the parameter deriving means is a parameter derived from the parameters derived for the reference prediction unit. Without reference to parameters derived by the second method of deriving derives the parameters for the target prediction unit, and characterized in that.
  • the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level.
  • a parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax.
  • the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance.
  • the parameter for the target prediction unit can be derived without referring to the syntax to be performed.
  • the decoding device having a configuration corresponding to the above configuration, it is possible to generate a decoded image while suppressing the influence of a transmission error.
  • the present invention can also be configured as follows.
  • a decoding device that decodes encoded data obtained by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image.
  • the derivation method designation information included in the encoded data is a parameter derivation method.
  • a derivation method discrimination means for discriminating, for each prediction unit, which one of a first derivation method that refers to a derived parameter and a second derivation method that does not refer to a derived parameter is specified; For a target prediction unit that is a processing target prediction unit, when the first derivation method is determined by the derivation method determination unit, the target prediction unit is determined.
  • Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the unit, and the parameter derivation means comprises: Deriving a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit; A decoding device characterized by the above.
  • the prediction unit for which the second derivation method is designated further includes temporary parameter derivation means for deriving temporary parameters by the first derivation method
  • the parameter derivation means includes: Among the reference prediction units, for the prediction unit for which the first derivation method is designated, the prediction unit for which the second derivation method is designated by referring to the parameter derived by the first derivation method The decoding apparatus according to 1 above, wherein the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving unit.
  • the temporary parameter derivation means derives a temporary parameter for a prediction unit for which the second derivation method is specified among the reference prediction units for a prediction unit located at a predetermined relative position from the prediction unit. 3.
  • the temporary parameter derivation means includes a temporary parameter for a prediction unit for which the second derivation method is designated, among a reference prediction unit, a parameter or a temporary parameter derived for a prediction unit adjacent to the prediction unit. Derived by reference, 3.
  • the decoding device as described in 2 above.
  • the parameter deriving unit is derived for a reference prediction unit adjacent to the target prediction unit when the first deriving method is determined by the deriving method determining unit for the target prediction unit. With reference to the parameter, the parameter for the target prediction unit is derived. 5. The decoding device according to any one of 1 to 4 above, wherein
  • the predicted image restoration means generates a predicted image by intra-screen prediction, and the parameter is referred to for generating a predicted image by intra-screen prediction.
  • the decoding device according to any one of 5.
  • the parameter derivation means derives a parameter for a prediction unit for which the second derivation method is designated by referring to a decoded pixel value in a prediction image including the prediction unit. 6.
  • the decoding device according to 6.
  • the predicted image restoration means generates a predicted image by inter-screen prediction, and the parameter is referred to for generating a predicted image by inter-screen prediction.
  • the decoding device according to any one of 5.
  • the parameter derivation means refers to a parameter for a prediction unit for which the second derivation method is designated, with reference to a pixel value in a decoded image referred to for generating a prediction image for the prediction unit.
  • An encoding device that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image, using the parameters derived for each prediction unit
  • a coding apparatus including a predicted image generation unit that generates a predicted image, a derivation method setting unit that sets a parameter derivation method for each prediction unit, the first derivation method referring to a derived parameter, Alternatively, a derivation method setting unit that sets any one of the second derivation methods that do not refer to a derived parameter, and a target prediction unit that is a processing target prediction unit, the first derivation method is performed by the derivation method setting unit.
  • Parameter deriving means for deriving a parameter for an elephant prediction unit, wherein the parameter deriving means refers to a parameter derived by the second derivation method among parameters derived for the reference prediction unit And a parameter for the target prediction unit is derived.
  • the prediction unit for which the second derivation method is set further includes temporary parameter derivation means for deriving temporary parameters by the first derivation method
  • the parameter derivation means includes the above Among the reference prediction units, for the prediction unit for which the first derivation method is set, the prediction unit for which the second derivation method is set with reference to the parameter derived by the first derivation method 11.
  • the encoding apparatus according to 10 wherein the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving unit.
  • the temporary parameter deriving means derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. 12.
  • the temporary parameter deriving means includes a temporary parameter for a prediction unit for which the second derivation method is set among the reference prediction units, and a parameter or a temporary parameter derived for a prediction unit adjacent to the prediction unit. 12.
  • the parameter derivation means refers to a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting means for the target prediction unit.
  • the encoding device according to any one of 10 to 13, wherein a parameter for the target prediction unit is derived.
  • the predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image, and the parameter is obtained by predicting the predicted image by intra prediction.
  • the predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image, and the parameter generates a predicted image by inter-screen prediction.
  • the encoding device according to any one of the above items 10 to 14, wherein the encoding device is referred to for
  • the present invention can be suitably applied to an encoding device that encodes a moving image and generates encoded data, and a decoding device that decodes encoded data generated using such an encoding device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The disclosed video decoding device (1), which decodes encoded data (#1), is provided with: motion compensation prediction units (44, 46) that restore a predicted image using parameters derived for each prediction unit; an inter-prediction decoding unit (431) that references derivation method designating information included in encoded data (#1) and sets each prediction unit to an inter-prediction type N that does not refer to decoded pixel values, or an inter-prediction type HE that does refer to decoded pixel values; and an mv derivation unit N (436) that derives parameters of a prediction unit—to which a first derivation method is set—referring to parameters derived for each of the plurality of neighboring prediction units that are neighboring to said prediction unit. The mv derivation unit N (436) derives parameters of a target prediction unit without referring to parameters derived by means of a second derivation method among the parameters derived for each of the abovementioned plurality of neighboring prediction units.

Description

符号化装置、および、復号装置Encoding device and decoding device
本発明は、動画像を符号化し符号化データを生成する符号化装置に関する。また、そのような符号化装置を用いて生成された符号化データを復号する復号装置に関する。 The present invention relates to an encoding device that encodes a moving image and generates encoded data. The present invention also relates to a decoding apparatus that decodes encoded data generated using such an encoding apparatus.
 動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置(符号化装置)、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置(復号装置)が用いられている。具体的な動画像符号化方式としては、例えば、H.264/MPEG-4.AVC(非特許文献1)、および、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている方式などが挙げられる。 In order to efficiently transmit or record a moving image, a moving image encoding device (encoding device) that generates encoded data by encoding the moving image, and decoding by decoding the encoded data A video decoding device (decoding device) that generates an image is used. As a specific moving picture encoding method, for example, H.264 is used. H.264 / MPEG-4. Examples include a method employed in KTA software, which is a codec for joint development in AVC (Non-patent Document 1) and VCEG (Video Coding Expert Group).
 このような符号化方式において、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られるマクロブロック、及び、マクロブロックを分割することより得られるブロックからなる階層構造により管理され、普通、ブロックごとに符号化される。 In such an encoding method, an image (picture) constituting a moving image is obtained by dividing a slice obtained by dividing an image, a macroblock obtained by dividing the slice, and a macroblock. It is managed by a hierarchical structure consisting of blocks to be encoded, and is usually encoded for each block.
 また、このような符号化方式においては、通常、入力画像を符号化/復号化することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像と入力画像との差分データが符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)と呼ばれる方法が知られている。 In such an encoding method, a predicted image is usually generated based on a local decoded image obtained by encoding / decoding an input image, and difference data between the predicted image and the input image is encoded. It becomes. As methods for generating a predicted image, methods called inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction) are known.
 イントラ予測においては、同一フレーム内の局所復号画像に基づいて、当該フレームにおける予測画像が順次生成される。具体的には、イントラ予測においては、通常、予測単位(例えば、ブロック)毎に、予め定められた予測方向(予測モード)群に含まれる予測方向から何れかの予測方向が選択されると共に、局所復号画像における参照画素の画素値を、選択された予測方向に外挿することによって、予測対象領域上の予測画素値が生成される。 In intra prediction, predicted images in a corresponding frame are sequentially generated based on a locally decoded image in the same frame. Specifically, in intra prediction, usually, one prediction direction is selected from prediction directions included in a predetermined prediction direction (prediction mode) group for each prediction unit (for example, block), and A prediction pixel value on the prediction target region is generated by extrapolating the pixel value of the reference pixel in the locally decoded image in the selected prediction direction.
 インター予測においては、フレーム全体が復号された参照フレーム内の参照画像に対し、動きベクトルを用いた動き補償を適用することによって、予測対象フレーム内の予測画像が予測単位(例えば、ブロック)毎に生成される。 In inter prediction, motion compensation using a motion vector is applied to a reference image in a reference frame in which the entire frame is decoded, so that a predicted image in a prediction target frame is obtained for each prediction unit (for example, block). Generated.
 このように、予測画像は、一般に、動きベクトル、または、予測モード等の予測パラメータに基づいて生成される。 As described above, the prediction image is generally generated based on a prediction parameter such as a motion vector or a prediction mode.
 また、H.264/MPEG-4.AVC規格におけるインター予測においては、動画像符号化装置において、予測対象ブロックについての動きベクトルと、予測対象ブロックに隣接するブロックについての動きベクトルを参照して導出される予測値(予測動きベクトル)との差分である差分動きベクトルが符号化され、動画像復号装置において、当該差分動きベクトルと予測動きベクトルとを加算することによって、当該予測対象ブロックについての動きベクトルが導出される。 H. H.264 / MPEG-4. In inter prediction in the AVC standard, in a video encoding device, a motion vector for a prediction target block and a prediction value (prediction motion vector) derived by referring to a motion vector for a block adjacent to the prediction target block; The motion vector for the prediction target block is derived by adding the difference motion vector and the predicted motion vector in the moving image decoding apparatus.
 一方で、H.264/MPEG-4.AVC規格におけるインター予測においては、スキップモードまたはダイレクトモードと呼ばれる予測方法も選択可能であり、当該予測方法が選択されたブロックについては、動きベクトルの符号化が行われず、空間ダイレクト予測または時間ダイレクト予測と呼ばれる方法によって、当該ブロックについての動きベクトルが導出される。 On the other hand, H. H.264 / MPEG-4. In the inter prediction in the AVC standard, a prediction method called a skip mode or a direct mode can also be selected. For a block for which the prediction method is selected, no motion vector is encoded, and spatial direct prediction or temporal direct prediction is performed. Is used to derive a motion vector for the block.
 ここで、空間ダイレクト予測においては、当該ブロックに隣接する隣接ブロックについて導出された動きベクトルの中央値が、当該ブロックについての動きベクトルに設定され、時間ダイレクト予測においては、参照画像上のブロックであって、当該ブロックと同じ位置を占めるブロックであるコロケートブロックについて導出された動きベクトルが、当該ブロックについての動きベクトルに設定される。 Here, in spatial direct prediction, the median value of motion vectors derived for adjacent blocks adjacent to the block is set as the motion vector for the block, and in temporal direct prediction, it is a block on the reference image. Thus, the motion vector derived for the collocated block, which is a block occupying the same position as the block, is set as the motion vector for the block.
 非特許文献2には、スキップモードまたはダイレクトモードが選択されたブロックについての動きベクトルを、当該ブロックを含むフレームの前後の参照フレームを用いた動き検出を用いて導出する方法が開示されている。 Non-Patent Document 2 discloses a method of deriving a motion vector for a block for which the skip mode or direct mode is selected using motion detection using reference frames before and after the frame including the block.
 非特許文献2に開示された方法によれば、スキップモードまたはダイレクトモードが選択されたブロックについて、より正確な動きベクトルを導出することができるため、H.264/MPEG-4.AVC規格に比べて、符号化効率の向上を図ることができる。 According to the method disclosed in Non-Patent Document 2, a more accurate motion vector can be derived for a block for which the skip mode or the direct mode is selected. H.264 / MPEG-4. Compared with the AVC standard, the encoding efficiency can be improved.
 しかしながら、非特許文献2に開示された方法は、複数の参照フレームにおける画素値を参照することによって、動きベクトルを導出するものであるため、画素値にエラーが生じている場合、すなわち、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーの影響によって、画素値が本来とるべき値とは異なった値をとっている場合には、導出された動きベクトルにも、エラーが伝播してしまう。さらに、エラーが伝播した動きベクトルを参照して導出される予測動きベクトルにも、上記エラーが伝播してしまうという問題を招来する。 However, since the method disclosed in Non-Patent Document 2 derives a motion vector by referring to pixel values in a plurality of reference frames, when an error occurs in the pixel value, that is, decoding processing is performed. If the pixel value is different from the original value due to the error caused by the transmission error and / or the influence of the transmission error caused by external disturbance when the encoded data is transmitted, it is derived. An error is also propagated to the motion vector. Furthermore, the error is also propagated to a predicted motion vector derived by referring to the motion vector in which the error is propagated.
 したがって、スキップモードまたはダイレクトモードが選択されたブロックについての動きベクトルを非特許文献2に開示された方法によって導出する場合には、上記のようにエラーが伝播することによって、符号化効率の低下や復号画像の画像破綻などの問題を招来する。 Therefore, when the motion vector for the block for which the skip mode or the direct mode is selected is derived by the method disclosed in Non-Patent Document 2, an error is propagated as described above, thereby reducing the coding efficiency. This causes problems such as image corruption of the decoded image.
 また、同様の問題は、エラー耐性の低い伝送方式によって伝送されるデータに基づいて、予測パラメータを導出するブロックが存在する場合にも生じ得る。 Also, the same problem can occur when there is a block for deriving a prediction parameter based on data transmitted by a transmission method with low error tolerance.
 本発明は、上記の問題に鑑みてなされたものであり、その目的は、予測パラメータを導出するために画素値を参照するブロックが存在する場合や、エラー耐性の低い伝送方式によって伝送されるデータに基づいて予測パラメータを導出するブロックが存在する場合であっても、エラーの伝播を抑制することのできる符号化装置、および、復号装置を実現することにある。 The present invention has been made in view of the above-described problems, and the object of the present invention is to transmit data when there is a block that refers to a pixel value in order to derive a prediction parameter or when a transmission method with low error tolerance is used. Even if there is a block for deriving a prediction parameter based on the above, it is to realize an encoding device and a decoding device that can suppress error propagation.
 上記の問題を解決するために、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、復号済みの画素値を参照しない第1の導出方法、および、復号済みの画素値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。
In order to solve the above problem, the decoding apparatus according to the present invention encodes residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. In the decoding device that decodes the encoded data obtained by performing the prediction image restoration using the parameter derived for each prediction unit, the prediction device used for decoding is restored. The derivation method designation information included in the encoded data includes any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method. For each prediction unit, and for the target prediction unit that is the processing target prediction unit, the first derivation method is performed by the derivation method determination unit. When it is determined that the target prediction unit is determined, the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit. Parameter derivation means;
The parameter derivation means derives the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. It is characterized by.
 上記のように構成された本発明に係る復号装置は、復号済みの画素値を参照しない上記第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されるパラメータのうち、復号済みの画素値を参照する第2の導出方法によって導出されるパラメータを参照することなく、当該対象予測単位についてのパラメータを導出するため、復号済みの画素値に、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 The decoding apparatus according to the present invention configured as described above has the target prediction unit when the first derivation method that does not refer to the decoded pixel value is specified for the target prediction unit to be processed. Among the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction without referring to the parameter derived by the second derivation method that refers to the decoded pixel value In order to derive the parameters for the units, the decoded pixel values include the effects of errors in the decoding process and / or transmission errors caused by external disturbances when the encoded data is transmitted. Even in such a case, it is possible to prevent such an error from propagating to the parameter derived by the parameter deriving means. That.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、復号画像の画像破綻を防ぐことができる。 In addition, according to the above configuration, it is possible to prevent an image failure of a decoded image by preventing propagation of an error.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記対象予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記対象予測単位に隣接する予測単位、および、起点となる上記対象予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の復号順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit that is the starting point, or may be another prediction unit, and the decoding order of the prediction unit Accordingly, a prediction unit at an appropriate relative position may be used.
 また、上記予測単位は、例えば、H.264/MPEG-4.AVC規格においては、上述したブロックに対応するものである。ただし、本発明に係る上記の復号装置は、特定の規格を前提とするものではなく、上記予測単位は、上述したブロックに対応する単位であってもよいし、ブロックよりも大きな単位、または、複数のブロックから構成される単位(例えば、上述したマクロブロックに対応する単位)であってもよいし、ブロックよりも小さな単位であってもよい。 Also, the prediction unit is, for example, H.264. H.264 / MPEG-4. The AVC standard corresponds to the block described above. However, the decoding device according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or It may be a unit composed of a plurality of blocks (for example, a unit corresponding to the macroblock described above) or a unit smaller than the block.
 また、上記の問題を解決するために、本発明に係る符号化装置は、原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、原画像を符号化および復号化することによって得られる復号画像の画素値を参照しない第1の導出方法、または、該復号画像の画素値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 In order to solve the above problem, the encoding apparatus according to the present invention encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image. Derivation method for setting parameter derivation method for each prediction unit in an encoding device including prediction image generation means for generating the prediction image using a parameter derived for each prediction unit Method setting means, a first derivation method that does not refer to pixel values of a decoded image obtained by encoding and decoding an original image, or a second derivation method that refers to pixel values of the decoded image When the first derivation method is set by the derivation method setting means with respect to the derivation method setting means for setting any of the above and the target prediction unit that is the prediction unit to be processed, the target Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the measurement unit, and the parameter derivation means comprises: Of the parameters derived for the reference prediction unit, the parameter for the target prediction unit is derived without referring to the parameter derived by the second derivation method.
 上記のように構成された本発明に係る符号化装置は、上記復号画像の画素値を参照しない上記第1の導出方法が、処理対象となる対象予測単位について設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されるパラメータのうち、上記復号画像の画素値を参照する第2の導出方法によって導出されるパラメータを参照することなく、当該対象予測単位についてのパラメータを導出するため、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 The encoding apparatus according to the present invention configured as described above is configured so that the first derivation method that does not refer to the pixel value of the decoded image is set for the target prediction unit to be processed. Without referring to the parameter derived by the second derivation method referring to the pixel value of the decoded image among the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit, In order to derive a parameter for the target prediction unit, even if the pixel value of the decoded image includes an influence of an error occurring in the encoding process and the decoding process, such an error is Propagation to parameters derived by the deriving means can be prevented.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、予測精度が低減することを防ぎ、符号化効率の低下を防ぐことができる。また、本符号化装置により生成された符号化データは、伝送時に外部からの擾乱による伝送エラーの影響を受け、復号時に復号画像の画素値にエラーが発生する場合であっても、そのようなエラーが復号時に導出されるパラメータに伝播することを防ぐことができる。すなわち、本符号化装置は、外部からの擾乱の影響を受け難い符号化データを生成できる。 Further, according to the above configuration, by preventing error propagation, it is possible to prevent the prediction accuracy from being reduced and to prevent the encoding efficiency from being lowered. In addition, the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記対象予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記対象予測単位に隣接する予測単位、および、起点となる上記対象予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の符号化および復号化の順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit serving as a starting point, or may be another prediction unit. A prediction unit at an appropriate relative position may be used in accordance with the decoding order.
 また、上記予測単位は、例えば、H.264/MPEG-4.AVC規格においては、上述したブロックに対応するものである。ただし、本発明に係る上記の符号化装置は、特定の規格を前提とするものではなく、上記予測単位は、上述したブロックに対応する単位であってもよいし、ブロックよりも大きな単位、または、複数のブロックから構成される単位(例えば、上述したマクロブロックに対応する単位)であってもよいし、ブロックよりも小さな単位であってもよい。 Also, the prediction unit is, for example, H.264. H.264 / MPEG-4. The AVC standard corresponds to the block described above. However, the encoding apparatus according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or A unit composed of a plurality of blocks (for example, a unit corresponding to the above-described macroblock) or a unit smaller than the block may be used.
 また、本発明に係る符号化装置は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が設定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が設定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ことが好ましい。 In addition, the encoding apparatus according to the present invention provides a temporary parameter derivation unit that derives a temporary parameter by the first derivation method for a prediction unit in which the second derivation method is set among the reference prediction units. The parameter derivation means refers to the parameter derived by the first derivation method for the prediction unit for which the first derivation method is set among the reference prediction units, and For the prediction unit for which the derivation method of 2 is set, it is preferable to derive the parameter for the target prediction unit with reference to the temporary parameter derived by the temporary parameter deriving means.
 上記の構成によれば、上記仮パラメータ導出手段が、上記第2の導出方法が指定されている予測単位について、上記第1の導出方法により、仮パラメータを導出し、上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する。 According to the above configuration, the temporary parameter deriving means derives a temporary parameter for the prediction unit in which the second deriving method is specified by the first deriving method, and the parameter deriving means includes the above For the prediction unit for which the second derivation method is designated, the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
 したがって、上記の構成によれば、上記復号画像の画素値を参照する上記第2の導出方法が指定されている予測単位について、上記復号画像の画素値を参照しない上記第1の導出方法により導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出するので、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the above configuration, the prediction unit in which the second derivation method that refers to the pixel value of the decoded image is designated is derived by the first derivation method that does not refer to the pixel value of the decoded image. Since the parameter for the target prediction unit is derived with reference to the provisional parameter, even if the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process , Such an error can be prevented from propagating to the parameter derived by the parameter deriving means.
 また、上記第2の導出方法が指定されている予測単位については、仮パラメータを参照して、上記対象予測単位についてのパラメータを導出するため、予測画像を生成する際の予測精度を向上させることができるという更なる効果を奏する。 In addition, with respect to the prediction unit in which the second derivation method is specified, the parameter for the target prediction unit is derived with reference to the temporary parameter, so that the prediction accuracy when generating the predicted image is improved. There is a further effect of being able to.
 また、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことが好ましい。 The temporary parameter deriving unit derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. It is preferable to derive with reference to the parameter or the formal parameter.
 上記の構成によれば、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出するので、上記第2の導出方法が指定されている予測単位についての仮パラメータを導出するための処理量の削減を図りつつ、エラーの伝播を防ぐことができるという更なる効果を奏する。 According to said structure, the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units was derived | led-out about the prediction unit located in a predetermined relative position from the said prediction unit Since the parameter is derived with reference to the parameter or the temporary parameter, it is possible to prevent the propagation of errors while reducing the amount of processing for deriving the temporary parameter for the prediction unit for which the second derivation method is specified. There is a further effect.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記予測単位に隣接する予測単位、および、起点となる上記予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の符号化および復号化の順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban distance from the prediction unit that is the starting point is equal to or less than a predetermined distance, and is the starting point. The prediction unit adjacent to the prediction unit and the prediction unit sharing the apex with the prediction unit serving as a starting point may be used, or other prediction units may be used. A prediction unit at an appropriate relative position may be used according to the order.
 また、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことが好ましい。 Further, the temporary parameter deriving unit is configured to select a temporary parameter for a prediction unit for which the second derivation method is set among the reference prediction units, a parameter derived for a prediction unit adjacent to the prediction unit, or a temporary parameter. It is preferable to derive with reference to the parameters.
 上記の構成によれば、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出するので、導出された仮パラメータを参照して上記対象予測単位について導出されるパラメータの予測精度が向上する。 According to said structure, the said temporary parameter derivation | leading-out means derives | requires the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units about the prediction unit adjacent to the said prediction unit. Since it is derived with reference to the derived parameter or temporary parameter, the prediction accuracy of the parameter derived for the target prediction unit with reference to the derived temporary parameter is improved.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、上記パラメータ導出手段は、上記対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、ことが好ましい。 Further, the parameter deriving unit is configured to calculate a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting unit for the target prediction unit. It is preferable to refer to and derive a parameter for the target prediction unit.
 上記の構成によれば、上記対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するので、当該対象予測単位について導出されるパラメータの予測精度が向上する。 According to the above configuration, since the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit adjacent to the target prediction unit, the prediction of the parameter derived for the target prediction unit is performed. Accuracy is improved.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、上記予測画像生成手段は、原画像を符号化および復号化することによって得られる局所復号画像を用いた画面内予測により予測画像を生成するものであり、上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、ことが好ましい。 The predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image, and the parameter is predicted by intra prediction. Preferably, it is referred to for generating an image.
 ここで、画面内予測(イントラ予測)により予測画像を生成するために参照される上記のパラメータは、イントラ予測において、予測方向を指定するためのパラメータである予測モードのことを指す。 Here, the above-mentioned parameter referred to generate a predicted image by intra-screen prediction (intra prediction) refers to a prediction mode that is a parameter for designating a prediction direction in intra prediction.
 上記のように構成された本発明に係る符号化装置は、イントラ予測によって予測画像を生成するものであり、上記復号画像の画素値を参照しない第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位をから所定の相対位置に位置する予測単位である参照予測単位について導出される予測モードのうち、上記復号画像の画素値を参照する第2の導出方法によって導出される予測モードを参照することなく、当該対象予測単位についての予測モードを導出するので、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出される予測モードに伝播することを防ぐことができる。 The encoding apparatus according to the present invention configured as described above generates a predicted image by intra prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed. A second unit that refers to the pixel value of the decoded image among prediction modes derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified. Since the prediction mode for the target prediction unit is derived without referring to the prediction mode derived by the derivation method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the prediction mode derived by the parameter deriving unit.
 また、上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記局所復号画像における画素値を参照して導出する、ことが好ましい。 Further, it is preferable that the parameter deriving unit derives a parameter for a prediction unit for which the second deriving method is set with reference to a pixel value in the locally decoded image.
 上記の構成によれば、上記第2の導出方法が指定されている予測単位についてのパラメータを、上記局所復号画像における復号済みの画素値を参照して導出するので、上記第2の導出方法が指定されている予測単位について予測精度の高いパラメータが導出される。また、上記予測画像復元手段は、このように導出された予測精度の高いパラメータを用いて予測画像を復元するので、予測精度の高い予測画像を復元することができる。 According to the above configuration, since the parameter for the prediction unit for which the second derivation method is specified is derived with reference to the decoded pixel value in the local decoded image, the second derivation method is A parameter with high prediction accuracy is derived for the specified prediction unit. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、上記予測画像生成手段は、原画像を符号化および復号化することによって得られる復号画像を用いた画面間予測により予測画像を生成するものであり、上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、ことが好ましい。 The predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image, and the parameters are predicted images by inter-screen prediction. It is preferable that it is what is referred in order to produce | generate.
 ここで、画面間予測(インター予測)により予測画像を生成するために参照される上記のパラメータは、インター予測において、動き補償を行う際に用いられる動きベクトルのことを指す。 Here, the parameters referred to in order to generate a prediction image by inter-screen prediction (inter prediction) refer to a motion vector used when motion compensation is performed in inter prediction.
 上記のように構成された本発明に係る符号化装置は、インター予測によって予測画像を生成するものであり、上記復号画像の画素値を参照しない第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出される動きベクトルのうち、上記復号画像の画素値を参照する第2の導出方法によって導出される動きベクトルを参照することなく、当該対象予測単位についての動きベクトルを導出するので、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出される動きベクトルに伝播することを防ぐことができる。 The encoding apparatus according to the present invention configured as described above generates a prediction image by inter prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed. A second derivation that refers to the pixel value of the decoded image from among the motion vectors derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified Since the motion vector for the target prediction unit is derived without referring to the motion vector derived by the method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the motion vector derived by the parameter deriving means. That.
 また、上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記復号画像における画素値を参照して導出する、ことが好ましい。 Further, it is preferable that the parameter derivation unit derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the decoded image.
 上記の構成によれば、上記第2の導出方法が指定されている予測単位についてのパラメータを、上記復号画像における画素値を参照して導出するので、上記第2の導出方法が指定されている予測単位について予測精度の高いパラメータが導出される。また、上記予測画像復元手段は、このように導出された予測精度の高いパラメータを用いて予測画像を復元するので、予測精度の高い予測画像を復元することができる。 According to the above configuration, since the parameter for the prediction unit for which the second derivation method is designated is derived with reference to the pixel value in the decoded image, the second derivation method is designated. A parameter with high prediction accuracy is derived for the prediction unit. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、(1)第1のパラメータを参照し、かつ、当該第1のパラメータに基づいて導出される第2のパラメータを参照しない第1の導出方法、および、(2)当該第2のパラメータを参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出された上記第1のパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 In addition, the decoding device according to the present invention encodes residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. A decoding apparatus that decodes encoded data, and includes a prediction image restoration unit that restores a prediction image used for decoding using a parameter derived for each prediction unit, and is included in the encoded data The derivation method designation information is, as a parameter derivation method, (1) a first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; (2) A derivation method discriminating means for discriminating for each prediction unit which of the second derivation methods referring to the second parameter is specified, and a pair of processing target prediction units When it is determined by the derivation method determination means that the first derivation method is designated for a prediction unit, a reference prediction unit that is a prediction unit located at a predetermined relative position is derived from the target prediction unit. Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter, wherein the parameter deriving means includes the second of the parameters derived for the reference prediction unit. The parameter for the target prediction unit is derived without referring to the parameter derived by the derivation method.
 ここで、上記第2の導出方法は、上記第1のパラメータに基づいて導出される上記第2のパラメータを参照して、対象予測単位についてのパラメータを導出する方法であるので、上記第2のパラメータを参照せずに、上記第1のパラメータを参照して対象予測単位についてのパラメータを導出する上記第1の導出方法に比べて、エラーが発生する可能性が高い導出方法である。 Here, the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出するので、エラーが発生する可能性の高い導出方法によって導出されたパラメータを参照することなく、対象予測単位についてのパラメータを導出することができる。 According to the above configuration, the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
 したがって、上記のように構成された復号装置によれば、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the decoding device configured as described above, an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
 なお、上記第1のパラメータおよび上記第2のパラメータとしては、例えば、以下のような組み合わせが挙げられる。 Note that examples of the first parameter and the second parameter include the following combinations.
 a.第1のパラメータ:動きベクトル、第2のパラメータ:復号画像(復号画像は、動きベクトルに基づき導出される予測画像に復号予測残差を加えることで導出される。)
 b.第1のパラメータ:イントラ予測における予測モード、第2のパラメータ:復号画像(復号画像は、予測モードに基づき導出される予測画像に復号予測残差を加えることで導出される。)
 c.第1のパラメータ:動きベクトル残差、第2のパラメータ:動きベクトル(動きベクトルは、動きベクトル残差に予測動きベクトルを加えることで導出される。)
 d.第1のパラメータ:復号予測残差、第2のパラメータ:復号画像(復号画像は、復号予測残差に予測画像を加えることで導出される。)
 e.第1のパラメータ:参照画像インデックス、第2のパラメータ:予測画像(予測画像は、参照画像インデックスにより指定される参照画像、および、動きベクトルにより導出される。)
 また、復号画像は動画像復号装置における最終出力であるため、他のあらゆるパラメータよりもエラーが発生する可能性が高い。従って、復号画像を参照する方法を上記第2の予測方法とし、復号画像を参照しない方法を上記第1の予測方法としてもよい。
a. First parameter: motion vector, second parameter: decoded image (the decoded image is derived by adding a decoded prediction residual to a predicted image derived based on the motion vector)
b. First parameter: prediction mode in intra prediction, second parameter: decoded image (the decoded image is derived by adding a decoded prediction residual to a predicted image derived based on the prediction mode)
c. First parameter: motion vector residual, second parameter: motion vector (the motion vector is derived by adding the predicted motion vector to the motion vector residual)
d. First parameter: decoded prediction residual, second parameter: decoded image (the decoded image is derived by adding the prediction image to the decoded prediction residual)
e. First parameter: reference image index, second parameter: predicted image (the predicted image is derived from a reference image specified by the reference image index and a motion vector).
Further, since the decoded image is the final output in the moving image decoding apparatus, there is a higher possibility that an error will occur than any other parameter. Therefore, the method of referring to the decoded image may be the second prediction method, and the method of not referring to the decoded image may be the first prediction method.
 また、本発明に係る符号化装置は、原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、(1)第1のパラメータを参照し、かつ、当該第1のパラメータに基づいて導出される第2のパラメータを参照しない第1の導出方法、および、(2)当該第2のパラメータを参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出された上記第1のパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 The encoding apparatus according to the present invention is an encoding apparatus that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image. In the encoding apparatus provided with the prediction image generation means for generating the prediction image using the parameter derived for each unit, the derivation method setting means for setting the parameter derivation method for each prediction unit, (1 ) A first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; and (2) a second that refers to the second parameter. When the first derivation method is set by the derivation method setting means for the derivation method setting means for setting any one of the derivation methods and the target prediction unit that is the prediction unit to be processed, Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit. The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit. It is said.
 ここで、上記第2の導出方法は、上記第1のパラメータに基づいて導出される上記第2のパラメータを参照して、対象予測単位についてのパラメータを導出する方法であるので、上記第2のパラメータを参照せずに、上記第1のパラメータを参照して対象予測単位についてのパラメータを導出する上記第1の導出方法に比べて、エラーが発生する可能性が高い導出方法である。 Here, the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出するので、エラーが発生する可能性の高い導出方法によって導出されたパラメータを参照することなく、対象予測単位についてのパラメータを導出することができる。 According to the above configuration, the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
 したがって、上記のように構成された復号装置によれば、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the decoding device configured as described above, an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、予測精度が低減することを防ぎ、符号化効率の低下を防ぐことができる。また、本符号化装置により生成された符号化データは、伝送時に外部からの擾乱による伝送エラーの影響を受け、復号時に復号画像の画素値にエラーが発生する場合であっても、そのようなエラーが復号時に導出されるパラメータに伝播することを防ぐことができる。すなわち、本符号化装置は、外部からの擾乱の影響を受け難い符号化データを生成できる。 Further, according to the above configuration, by preventing error propagation, it is possible to prevent the prediction accuracy from being reduced and to prevent the encoding efficiency from being lowered. In addition, the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
 なお、上記第1のパラメータおよび上記第2のパラメータとしては、例えば、上述したa~eのような組み合わせが挙げられる。 Note that examples of the first parameter and the second parameter include combinations such as a to e described above.
 また、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータをそれぞれ符号化することによって得られたシンタックスよりなる符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、復号した上記シンタックスの各々に関連付けられている重要度を示す重要度情報を取得する重要度情報取得手段と、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、および、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 The decoding apparatus according to the present invention generates residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the prediction image. A decoding device that decodes encoded data having a syntax obtained by encoding each parameter used for decoding, and reconstructs a prediction image used for decoding using a parameter derived for each prediction unit In the decoding apparatus including the predicted image restoration means, importance level information acquisition means for acquiring importance level information indicating the importance level associated with each of the decoded syntaxes, and derivation included in the encoded data The method specification information uses a reference value decoded from syntax associated with an importance lower than a predetermined importance as a parameter derivation method. Which one of the first derivation method that does not illuminate and the second derivation method that refers to the reference value decoded from the syntax associated with the importance lower than the predetermined importance is specified. A derivation method discrimination unit that discriminates for each prediction unit, and a target prediction unit that is a prediction unit to be processed, when the derivation method discrimination unit determines that the first derivation method is designated, Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit, and the parameter derivation means comprises: Without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit, Deriving parameters for serial target prediction unit, and characterized in that.
 なお、上記所定の重要度以上の重要度に関連付けられているシンタックスは、上記所定の重要度よりも低い重要度に関連付けられているシンタックスよりもエラー耐性の高い伝送方式によって伝送されたものであることが好ましい。 It should be noted that the syntax associated with the importance greater than or equal to the predetermined importance is transmitted by a transmission method having a higher error resistance than the syntax associated with the importance lower than the predetermined importance. It is preferable that
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータ、すなわち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する。また、上記所定の重要度よりも低い重要度に関連付けられているシンタックスは、より低いエラー耐性の伝送方式によって伝送されるので、上記の構成によれば、より低いエラー耐性の伝送方式によって伝送されるシンタックスを参照することなく上記対象予測単位についてのパラメータを導出することにより、伝送エラーの影響を抑制しつつ、復号画像を生成することができる。 According to the above configuration, the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level. A parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax. In addition, the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance. By deriving the parameter for the target prediction unit without referring to the syntax to be decoded, it is possible to generate a decoded image while suppressing the influence of transmission errors.
 また、本発明に係る符号化装置は、原画像と予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータを予測単位毎にそれぞれ符号化することにより得られるシンタックスよりなる符号化データを生成する符号化装置であって、当該パラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、上記シンタックスの各々に重要度を関連付ける重要度設定手段と、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、上記シンタックスのうち、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、または、上記シンタックスのうち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、上記所定の重要度以上の重要度に関連付けられているシンタックスを、上記所定の重要度よりも低い重要度に関連付けられているシンタックスよりもエラー耐性の高い伝送方式によって伝送する伝送手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 In addition, the encoding apparatus according to the present invention encodes the residual data between the original image and the predicted image and the parameters used to generate the predicted image, by encoding each prediction unit. An encoding apparatus for generating encoded data comprising a syntax, wherein the encoding apparatus includes predicted image generation means for generating the predicted image using the parameter, and associates importance with each of the syntaxes Importance level setting means and derivation method setting means for setting a parameter derivation method for each prediction unit, wherein the decoding is performed from a syntax associated with an importance level lower than a predetermined importance level. The first derivation method that does not refer to the reference value, or is associated with an importance lower than the predetermined importance in the syntax. The derivation method setting means for setting any one of the second derivation methods that refer to the reference value decoded from the syntax to be processed, and the target prediction unit that is the prediction unit to be processed are processed by the derivation method setting means by the first derivation method setting means. When the derivation method is set, the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit. The parameter derivation means and the syntax associated with the importance greater than or equal to the predetermined importance are transmitted by a transmission method having a higher error tolerance than the syntax associated with the importance lower than the predetermined importance. Transmitting means, wherein the parameter deriving means is a parameter derived from the parameters derived for the reference prediction unit. Without reference to parameters derived by the second method of deriving derives the parameters for the target prediction unit, and characterized in that.
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータ、すなわち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する。また、上記所定の重要度よりも低い重要度に関連付けられているシンタックスは、より低いエラー耐性の伝送方式によって伝送されるので、上記の構成によれば、より低いエラー耐性の伝送方式によって伝送されるシンタックスを参照することなく上記対象予測単位についてのパラメータを導出することができる。 According to the above configuration, the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level. A parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax. In addition, the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance. The parameter for the target prediction unit can be derived without referring to the syntax to be performed.
 また、上記の構成に対応する構成を有する復号装置によれば、伝送エラーの影響を抑制しつつ、復号画像を生成することができる。 Further, according to the decoding device having a configuration corresponding to the above configuration, it is possible to generate a decoded image while suppressing the influence of a transmission error.
 以上のように、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、復号済みの画素値を参照しない第1の導出方法、および、復号済みの画素値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する構成である。
As described above, the decoding apparatus according to the present invention obtains by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. A decoding apparatus for decoding the encoded data, wherein the encoded data is a decoding apparatus provided with prediction image restoration means for restoring a prediction image used for decoding using a parameter derived for each prediction unit. The derivation method designation information included in the parameter specifies any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method. The first derivation method is designated by the derivation method discrimination means for determining whether or not each prediction unit and the target prediction unit that is the processing target prediction unit by the derivation method discrimination means. If it is determined, with reference to the parameters derived for the reference prediction unit is a prediction unit located from the target prediction unit in a predetermined relative position, and the parameter deriving means for deriving the parameters for the target prediction unit,
And the parameter deriving means derives the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. is there.
 また、本発明に係る符号化装置は、原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、原画像を符号化および復号化することによって得られる復号画像の画素値を参照しない第1の導出方法、または、該復号画像の画素値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する構成である。 The encoding apparatus according to the present invention is an encoding apparatus that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image. In a coding apparatus including a predicted image generation unit that generates the predicted image using a parameter derived for each unit, a derivation method setting unit that sets a parameter derivation method for each prediction unit, the original image The derivation method setting for setting either the first derivation method that does not refer to the pixel value of the decoded image obtained by encoding and decoding the image or the second derivation method that refers to the pixel value of the decoded image And when the first derivation method is set by the derivation method setting means with respect to the target prediction unit which is a processing target prediction unit, the target prediction unit is moved to a predetermined relative position. Parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit to be placed, wherein the parameter deriving means is derived for the reference prediction unit Among the parameters, the parameter for the target prediction unit is derived without referring to the parameter derived by the second derivation method.
 上記のように構成された復号装置、および、符号化装置は、予測パラメータを導出するために画素値を参照するブロックが存在する場合や、エラー耐性の低い伝送方式によって伝送されるデータに基づいて予測パラメータを導出するブロックが存在する場合であっても、エラーの伝播を抑制することができる。 The decoding device and the encoding device configured as described above are based on the case where there is a block that refers to a pixel value in order to derive a prediction parameter, or based on data transmitted by a transmission method with low error resistance. Even if there is a block from which a prediction parameter is derived, error propagation can be suppressed.
本発明の第1の実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on the 1st Embodiment of this invention. 第1の実施形態に係る動画像復号装置の備えるMB復号部の構成を示すブロック図である。It is a block diagram which shows the structure of the MB decoding part with which the moving image decoding apparatus which concerns on 1st Embodiment is provided. 第1の実施形態に係る動画像復号装置の備えるMB復号部におけるmv復号部の構成を示すブロック図である。It is a block diagram which shows the structure of the mv decoding part in the MB decoding part with which the moving image decoding apparatus which concerns on 1st Embodiment is provided. mv復号部による動きベクトルの導出処理を説明するための図であって、対象フレーム、対象ブロック、および参照フレームを示す図である。It is a figure for demonstrating the derivation | leading-out process of the motion vector by an mv decoding part, Comprising: It is a figure which shows an object frame, an object block, and a reference frame. mv復号部による動きベクトルの導出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the derivation | leading-out process of the motion vector by an mv decoding part. mv復号部による動きベクトルの導出処理を説明するための図であって、対象ブロックに隣接する参照ブロック、および、対象ブロックと頂点を共有する参照ブロックを示す図である。It is a figure for demonstrating the derivation | leading-out process of the motion vector by a mv decoding part, Comprising: It is a figure which shows the reference block which adjoins a target block, and the reference block which shares a vertex with a target block. mv復号部による動きベクトルの導出処理の他の例を説明するための図であって、(a)は、2枚の参照画像の双方がイントラ予測画像である場合を示す表であり、(b)は、2枚の参照画像の少なくとも一方がインター予測画像である場合を示す表である。It is a figure for demonstrating the other example of the derivation | leading-out process of the motion vector by an mv decoding part, Comprising: (a) is a table | surface which shows the case where both of two reference images are intra prediction images, (b ) Is a table showing a case where at least one of the two reference images is an inter prediction image. 第1の実施形態に係る動画像復号装置が備える第1のプロセッサおよび第2のプロセッサによって並列的に行われる、動きベクトルまたは仮動きベクトルの導出処理を説明するための図であって、(a)は、第1の実施形態に係る第1のプロセッサおよび第2のプロセッサによって、動きベクトルまたは仮動きベクトルの導出が並列的に行われるブロックの例を示すものであり、(b)は、第1の実施形態に係る第1のプロセッサおよび第2のプロセッサが、動きベクトルまたは仮動きベクトルの導出を並列的に行う場合の処理時間と、比較例に係る第1のプロセッサおよび第2のプロセッサが、動きベクトルの導出を並列的に行う場合の処理時間とを模式的に示すタイミングチャートである。It is a figure for demonstrating the derivation | leading-out process of a motion vector or a temporary motion vector performed in parallel by the 1st processor and 2nd processor with which the moving image decoding apparatus which concerns on 1st Embodiment is equipped, (a ) Shows an example of a block in which motion vectors or provisional motion vectors are derived in parallel by the first processor and the second processor according to the first embodiment, and (b) The processing time when the first processor and the second processor according to one embodiment perform the derivation of the motion vector or the provisional motion vector in parallel, and the first processor and the second processor according to the comparative example include FIG. 6 is a timing chart schematically showing processing time when motion vectors are derived in parallel. 第1の実施形態に係る動画像復号装置によって復号される符号化データの構成を示す図であって、(a)は、符号化データのピクチャレイヤの構成を示す図であり、(b)は、ピクチャレイヤに含まれるスライスレイヤの構成を示す図であり、(c)は、スライスレイヤに含まれるマクロブロックレイヤの構成を示す図であり、(d)は、マクロブロックレイヤに含まれるブロックレイヤであって、インター予測が用いられるブロックについてのブロックレイヤの構成を示す図であり、(e)は、マクロブロックレイヤに含まれるブロックレイヤであって、イントラ予測が用いられるブロックについてのブロックレイヤの構成を示す図である。It is a figure which shows the structure of the coding data decoded by the moving image decoding apparatus which concerns on 1st Embodiment, Comprising: (a) is a figure which shows the structure of the picture layer of coding data, (b) FIG. 4 is a diagram illustrating a configuration of a slice layer included in a picture layer, (c) is a diagram illustrating a configuration of a macroblock layer included in the slice layer, and (d) is a block layer included in the macroblock layer. FIG. 5 is a diagram illustrating a configuration of a block layer for a block in which inter prediction is used, and (e) is a block layer included in a macroblock layer, and is a block layer for a block in which intra prediction is used. It is a figure which shows a structure. 第1の実施形態に係る動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder which concerns on 1st Embodiment. 第1の実施形態に係る動画像符号化装置の備えるMB符号化部の構成を示すブロック図である。It is a block diagram which shows the structure of the MB encoding part with which the moving image encoder which concerns on 1st Embodiment is provided. 本発明の第2の実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る動画像復号装置の備えるMB復号部の構成を示すブロック図である。It is a block diagram which shows the structure of the MB decoding part with which the moving image decoding apparatus which concerns on 2nd Embodiment is provided. 第2の実施形態に係る動画像復号装置によって復号されるパラメータの例を示す図であって、H.264/MPEG-4.AVC規格におけるイントラ予測に用いられる予測モード、および、各予測モードに付された予測モードインデックスを示す図である。FIG. 10 is a diagram illustrating an example of parameters decoded by the video decoding device according to the second embodiment. H.264 / MPEG-4. It is a figure which shows the prediction mode used for the intra prediction in AVC standard, and the prediction mode index attached | subjected to each prediction mode. 第2の実施形態に係る動画像復号装置の備えるMB復号部における予測モード復号部の構成を示すブロック図である。It is a block diagram which shows the structure of the prediction mode decoding part in the MB decoding part with which the moving image decoding apparatus which concerns on 2nd Embodiment is provided. 予測モード復号部による予測モードの導出処理を説明するための図であって、(a)は、対象ブロックおよび、対象ブロックの上辺に隣接する参照ブロックを示すものであり、(b)は、予測モード復号部による予測モードの導出処理の流れを示すフローチャートである。It is a figure for demonstrating the derivation | leading-out process of the prediction mode by a prediction mode decoding part, Comprising: (a) shows the reference block adjacent to the upper side of an object block and an object block, (b) is prediction. It is a flowchart which shows the flow of the derivation | leading-out process of the prediction mode by a mode decoding part. 予測モード復号部による予測モードの導出処理を説明するための図であって、対象ブロック、対象ブロックの上辺に隣接する参照ブロック、および、対象ブロックの左辺に隣接する参照ブロックを示す図である。It is a figure for demonstrating the derivation | leading-out process of the prediction mode by a prediction mode decoding part, Comprising: It is a figure which shows the reference block adjacent to the target block, the reference block adjacent to the upper side of a target block, and the left side of a target block. 予測モード復号部による予測モードの導出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the derivation | leading-out process of the prediction mode by a prediction mode decoding part. 第2の実施形態に係る動画像復号装置が備える第1のプロセッサおよび第2のプロセッサによって並列的に行われる、予測モードまたは仮予測モードの導出処理を説明するための図であって、(a)は、第2の実施形態に係る第1のプロセッサおよび第2のプロセッサによって、予測モードまたは仮予測モードの導出が並列的に行われるブロックの例を示すものであり、(b)は、第2の実施形態に係る第1のプロセッサおよび第2のプロセッサが、予測モードまたは仮予測モードの導出を並列的に行う場合の処理時間と、比較例に係る第1のプロセッサおよび第2のプロセッサが、予測モードの導出を並列的に行う場合の処理時間とを模式的に示すタイミングチャートである。It is a figure for demonstrating the derivation | leading-out process of prediction mode or temporary prediction mode performed in parallel by the 1st processor and 2nd processor with which the moving image decoding apparatus which concerns on 2nd Embodiment is equipped, (a ) Shows an example of a block in which the prediction mode or the temporary prediction mode is derived in parallel by the first processor and the second processor according to the second embodiment, and (b) The processing time when the first processor and the second processor according to the second embodiment perform the derivation of the prediction mode or the temporary prediction mode in parallel, and the first processor and the second processor according to the comparative example It is a timing chart which shows typically processing time in the case of deriving prediction mode in parallel. 第2の実施形態に係る動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder which concerns on 2nd Embodiment. 第2の実施形態に係る動画像符号化装置の備えるMB符号化部の構成を示すブロック図である。It is a block diagram which shows the structure of the MB encoding part with which the moving image encoder which concerns on 2nd Embodiment is provided. 第2の実施形態に係る動画像符号化装置による予測画像の生成処理を説明するための図であって、4×4画素である対象ブロックの各画素と、当該対象ブロックの周辺の画素とを示す図である。It is a figure for demonstrating the production | generation process of the estimated image by the moving image encoder which concerns on 2nd Embodiment, Comprising: Each pixel of the target block which is 4x4 pixel, and the surrounding pixel of the said target block are shown. FIG. mv復号部による動きベクトルの導出処理を説明するための図であって、対象ブロックの周辺に設定される近傍領域の例を示す図である。It is a figure for demonstrating the derivation | leading-out process of the motion vector by an mv decoding part, Comprising: It is a figure which shows the example of the vicinity area | region set around the target block.
 〔実施形態1〕
 以下では、本発明の第1の実施形態について説明する。
Embodiment 1
Hereinafter, a first embodiment of the present invention will be described.
 (符号化データ#1の構成)
 本実施形態に係る動画像復号装置1の説明に先立ち、本実施形態に係る動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成について、図9の(a)~(e)を参照して説明する。
(Configuration of encoded data # 1)
Prior to the description of the moving picture decoding apparatus 1 according to the present embodiment, the configuration of the encoded data # 1 generated by the moving picture encoding apparatus 2 according to the present embodiment and decoded by the moving picture decoding apparatus 1 will be described with reference to FIG. This will be described with reference to (a) to (e).
 図9の(a)は、動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1のピクチャレイヤPL(1ピクチャ分のビットストリーム)の構成を示す図である。ピクチャは、1または複数のスライスから構成され、図9の(a)に示すように、ピクチャレイヤPLは、ピクチャヘッダPH、および、スライスレイヤS1~SNs(Nsはピクチャに含まれるスライスの総数)を含んでいる。 FIG. 9A is a diagram illustrating a configuration of a picture layer PL (bit stream for one picture) of encoded data # 1 generated by the video encoding device 2 and decoded by the video decoding device 1. is there. A picture is composed of one or a plurality of slices. As shown in FIG. 9A, the picture layer PL includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slices included in the picture). Is included.
 ピクチャヘッダPHは、ピクチャについてのヘッダ情報であり、例えば、(1)ピクチャの表示順序を指定するPOC(Picture Order Count)に関する情報を伝送するか否かを示すフラグ、および、(2)可変長符号化のモードを示すフラグなどが含まれる。 The picture header PH is header information about a picture. For example, (1) a flag indicating whether or not to transmit information related to POC (Picture Order Count) that specifies the display order of pictures, and (2) variable length A flag indicating an encoding mode is included.
 スライスレイヤS1~SNsは、ピクチャに含まれる各スライスについての情報である。図9の(b)は、スライスレイヤSn(1≦n≦Ns)の構成を示す図である。スライスは、通常、複数のマクロブロックから構成され、図9の(b)に示すように、スライスレイヤは、スライスヘッダSH、および、マクロブロックレイヤMB1~MBNm(Nmはスライスに含まれるマクロブロックの総数)を含んでいる。 The slice layers S1 to SNs are information about each slice included in the picture. FIG. 9B is a diagram showing the configuration of the slice layer Sn (1 ≦ n ≦ Ns). A slice is generally composed of a plurality of macroblocks, and as shown in FIG. 9B, the slice layer includes a slice header SH and macroblock layers MB1 to MBNm (Nm is a macroblock included in the slice). Total number).
 スライスヘッダSHは、スライスについてのヘッダ情報であり、例えば、(1)スライスタイプを指定する情報、(2)POCに関する情報、(3)重み付け予測によってインター予測を行う場合の重み係数などが含まれる。ここで、スライスタイプには、例えば、(1)イントラ予測のみが用いられるIスライス、(2)イントラ予測、または、1枚の参照画像を参照するインター予測が用いられるPスライス、および、(3)イントラ予測、または、1枚または2枚の参照画像を参照するインター予測が用いられるBスライスなどがある。 The slice header SH is header information about a slice, and includes, for example, (1) information specifying a slice type, (2) information regarding POC, and (3) a weighting coefficient when performing inter prediction by weighted prediction. . Here, the slice type includes, for example, (1) I slice using only intra prediction, (2) P slice using intra prediction referring to one reference image, or (3) There are B slices in which intra prediction or inter prediction that refers to one or two reference images is used.
 マクロブロックレイヤMB1~MBNmは、スライスに含まれる各マクロブロックについての情報である。図9の(c)は、マクロブロックレイヤMBn(1≦n≦Nm)の構成を示す図である。マクロブロックは、通常、複数のブロックから構成され、図9の(c)に示すように、マクロブロックレイヤは、マクロブロックヘッダMBH、および、ブロックレイヤB1~BNb(Nbはマクロブロックに含まれるブロックの総数)を含んでいる。 Macro block layers MB1 to MBNm are information on each macro block included in the slice. (C) of FIG. 9 is a figure which shows the structure of macroblock layer MBn (1 <= n <= Nm). A macroblock is usually composed of a plurality of blocks. As shown in FIG. 9C, the macroblock layer includes a macroblock header MBH and block layers B1 to BNb (Nb is a block included in the macroblock). Total number).
 マクロブロックヘッダMBHは、マクロブロックについてのヘッダ情報であり、例えば、(1)マクロブロックタイプを指定する情報、(2)当該マクロブロックがインター予測が用いられるマクロブロックであるのか、または、イントラ予測が用いられるマクロブロックであるのかを示す予測方法選択情報、および、(3)量子化パラメータの差分値などが含まれる。ここで、マクロブロックタイプは、例えば、マクロブロックのサイズによって規定される。また、当該マクロブロックが、インター予測が用いられるマクロブロックについてのマクロブロックタイプは、当該マクロブロックについての予測方向、すなわち、当該マクロブロックが単方向予測されたマクロブロックであるか、双方向予測されたマクロブロックであるか、などによっても規定される。また、マクロブロックヘッダMBHには、マクロブロックを構成するブロックの数、および、マクロブロック内における各ブロックの位置を示す情報などを含むブロック分割情報が含まれる。 The macroblock header MBH is header information about a macroblock. For example, (1) information specifying a macroblock type, (2) whether the macroblock is a macroblock in which inter prediction is used, or intra prediction. Includes prediction method selection information indicating whether or not a macroblock is used, and (3) a difference value of a quantization parameter. Here, the macroblock type is defined by, for example, the size of the macroblock. Also, the macroblock type for the macroblock for which inter prediction is used is the prediction direction for the macroblock, that is, whether the macroblock is a unidirectionally predicted macroblock or bidirectionally predicted. Whether it is a macroblock or not. The macroblock header MBH includes block division information including the number of blocks constituting the macroblock and information indicating the position of each block in the macroblock.
 ブロックレイヤB1~BNbは、マクロブロックに含まれる各ブロックについての情報である。 Block layers B1 to BNb are information about each block included in the macroblock.
 図9の(d)は、インター予測が用いられるブロックについてのブロックレイヤBn(1≦n≦Nb)の構成を示す図である。図9の(d)に示すように、インター予測が用いられるブロックについてのブロックレイヤには、(1)ブロックヘッダBH、(2)量子化予測残差QD、および、(3)動きベクトル残差MVDなどが含まれる。 (D) of FIG. 9 is a figure which shows the structure of block layer Bn (1 <= n <= Nb) about the block where inter prediction is used. As shown in (d) of FIG. 9, the block layer for a block in which inter prediction is used includes (1) a block header BH, (2) a quantized prediction residual QD, and (3) a motion vector residual. MVD etc. are included.
 ここで、量子化予測残差QDとは、当該ブロックについての原画像と予測画像との残差に対してDCT変換(Discrete Cosine Transform)を行うことによって得られる周波数成分に対して、量子化を行うことによって得られるデータである。また、量子化の粗さを規定する量子化ステップの値は、当該量子化ステップの値と1対1の対応を有する量子化パラメータとしてマクロブロック毎に指定され、当該マクロブロックについての量子化パラメータと、当該マクロブロックの直前に符号化されたマクロブロックについての量子化パラメータとの差分値が、上述したように、マクロブロックヘッダMBHに含まれる。 Here, the quantized prediction residual QD is a quantization for a frequency component obtained by performing DCT transform (Discrete Cosine Transform) on the residual between the original image and the predicted image for the block. It is data obtained by performing. The quantization step value that defines the roughness of quantization is designated for each macroblock as a quantization parameter having a one-to-one correspondence with the quantization step value, and the quantization parameter for the macroblock is specified. And the difference value between the quantization parameter for the macroblock encoded immediately before the macroblock is included in the macroblock header MBH as described above.
 また、動きベクトル残差MVDとは、動き補償予測に用いられる動きベクトルと当該動きベクトルの予測値である予測動きベクトルとの残差データである。 Also, the motion vector residual MVD is residual data between a motion vector used for motion compensation prediction and a predicted motion vector that is a predicted value of the motion vector.
 インター予測が用いられるブロックについてのブロックレイヤにおけるブロックヘッダBHには、(1)インター予測において参照する参照画像を指定する参照画像インデックスRI、および、(2)当該ブロックにスキップモードが適用されているか否かを示すスキップモード情報SMIなどが含まれる。 In the block header BH in the block layer for a block for which inter prediction is used, (1) a reference image index RI for designating a reference image to be referred to in inter prediction, and (2) whether the skip mode is applied to the block. Skip mode information SMI indicating whether or not is included.
 ここで、上記スキップモードとは、当該ブロックについて、予測画像の生成のために用いられる予測パラメータ(例えば、インター予測が用いられるブロックにおける動きベクトル残差、および、イントラ予測が用いられるブロックにおける予測モード)の符号化が行われないモードのことである。したがって、スキップモードが適用されているブロックについては、予測画像の生成のために用いられる予測パラメータが符号化されていない。 Here, the skip mode refers to a prediction parameter (for example, a motion vector residual in a block in which inter prediction is used, and a prediction mode in a block in which intra prediction is used) for the block. ) Is a mode in which encoding is not performed. Therefore, the prediction parameter used for generating the predicted image is not encoded for the block to which the skip mode is applied.
 また、各ブロックについて、動きベクトルを導出するための方法が複数存在し、動画像復号装置1において、それら複数の方法のうち何れかの方法がブロック毎に選択的に用いられる場合には、ブロックヘッダBHには、上記複数の方法の何れかを指定するために参照されるインター予測タイプ指定情報IPI(導出方法指定情報)が含まれる。 In addition, there are a plurality of methods for deriving a motion vector for each block, and in the video decoding device 1, when any one of the plurality of methods is selectively used for each block, the block The header BH includes inter prediction type designation information IPI (derivation method designation information) that is referred to in order to designate any of the plurality of methods.
 図9の(e)は、イントラ予測が用いられるブロックについてのブロック情報Bn’(1≦n≦Nb)の構成を示す図である。図9の(e)に示すように、イントラ予測が用いられるブロックについてのブロック情報には、(1)ブロックヘッダBH’、および、量子化予測残差QDなどが含まれる。 (E) of FIG. 9 is a figure which shows the structure of the block information Bn '(1 <= n <= Nb) about the block where intra prediction is used. As shown in (e) of FIG. 9, the block information regarding the block for which intra prediction is used includes (1) a block header BH ′, a quantized prediction residual QD, and the like.
 イントラ予測が用いられるブロックについてのブロック情報におけるブロックヘッダBH’には、(1)イントラ予測の予測方向を指定する予測モードに関する情報である予測モード情報PMI、および、(2)スキップモード情報SMIなどが含まれる。 The block header BH ′ in the block information for the block in which intra prediction is used includes (1) prediction mode information PMI that is information related to a prediction mode that specifies the prediction direction of intra prediction, and (2) skip mode information SMI. Is included.
 また、予測モード情報PMIには、当該ブロックについての予測モードが、当該ブロックについて推定された推定予測モードと同じであるか否かを示す予測モードフラグPMFが含まれる。また、予測モードフラグPMFが、当該ブロックについての予測モードが当該ブロックについて推定された推定予測モードと異なることを示している場合には、予測モード情報PMIには、当該ブロックについての予測モードを指定する予測モードデータPMDが含まれる。 Further, the prediction mode information PMI includes a prediction mode flag PMF indicating whether or not the prediction mode for the block is the same as the estimated prediction mode estimated for the block. When the prediction mode flag PMF indicates that the prediction mode for the block is different from the estimated prediction mode estimated for the block, the prediction mode for the block is designated in the prediction mode information PMI. Prediction mode data PMD to be included.
 また、画面内予測を行う際に参照される予測モードを導出(復号)するための方法が複数存在し、動画像復号装置1において、それら複数の方法のうち何れかの方法が、ブロック毎に選択的に用いられる場合には、ブロックヘッダBH’には、上記複数の方法の何れかを指定するために参照されるイントラ予測タイプ指定情報IPI’(導出方法指定情報)が含まれる。 In addition, there are a plurality of methods for deriving (decoding) a prediction mode referred to when performing intra prediction, and in the video decoding device 1, any one of the plurality of methods is performed for each block. When selectively used, the block header BH ′ includes intra prediction type designation information IPI ′ (derivation method designation information) referred to for designating any one of the plurality of methods.
 また、動画像復号装置1において、各ブロックに対する予測パラメータの導出が並列的に行われる場合には、符号化データ#1には、並列処理を制御するために参照される並列処理制御情報PPIが含まれる。 Further, in the video decoding device 1, when the derivation of the prediction parameter for each block is performed in parallel, the encoded data # 1 includes the parallel processing control information PPI referred to for controlling the parallel processing. included.
 以上のように、符号化データ#1は、上述した各種の情報の各々を示すシンタックス(データ列)からなる階層的な構成を有している。 As described above, the encoded data # 1 has a hierarchical configuration including a syntax (data string) indicating each of the various types of information described above.
 (動画像復号装置1)
 以下では、本実施形態に係る動画像復号装置(復号装置)1の構成について、図1~図8を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4 AVC規格に採用されている技術を用いている動画像復号装置である。
(Moving picture decoding apparatus 1)
Hereinafter, the configuration of the video decoding device (decoding device) 1 according to the present embodiment will be described with reference to FIGS. The moving picture decoding apparatus 1 includes H.264 as a part thereof. This is a moving picture decoding apparatus using a technique adopted in the H.264 / MPEG-4 AVC standard.
 動画像復号装置1は、予測単位毎に予測画像を生成し、生成された予測画像と、符号化データ#1から復号された予測残差とを加算することによって復号画像#2を生成し、生成された復号画像#2を外部に出力する。 The video decoding device 1 generates a prediction image for each prediction unit, generates a decoded image # 2 by adding the generated prediction image and a prediction residual decoded from the encoded data # 1, The generated decoded image # 2 is output to the outside.
 また、予測画像の生成は、符号化データ#1を復号することによって得られる符号パラメータを参照して行われる。ここで、符号化パラメータとは、予測画像を生成するために参照されるパラメータのことであり、画面間予測において参照される動きベクトルや画面内予測において参照される予測モードなどの予測パラメータに加えて、原画像と予測画像との残差データや、予測画像を生成するために参照される参照画像の画素値などが含まれる。 Further, the generation of the predicted image is performed with reference to the code parameter obtained by decoding the encoded data # 1. Here, the encoding parameter is a parameter referred to in order to generate a prediction image, and in addition to a prediction parameter such as a motion vector referred to in inter-screen prediction and a prediction mode referred to in intra-screen prediction. Thus, residual data between the original image and the predicted image, a pixel value of a reference image referred to for generating the predicted image, and the like are included.
 また、以下では、上記予測単位が、マクロブロックを構成するブロックである場合を例に挙げ説明を行うが、本実施形態はこれに限定されるものではなく、予測単位がブロックよりも大きい単位である場合、および、予測単位がブロックよりも小さい単位である場合に対しても適用することができる。 In the following description, the case where the prediction unit is a block constituting a macroblock will be described as an example. However, the present embodiment is not limited to this, and the prediction unit is a unit larger than the block. The present invention can be applied to a case where the prediction unit is smaller than a block.
 また、以下では、復号の対象となるフレーム、スライス、マクロブロック、および、ブロックをそれぞれ、対象フレーム、対象スライス、対象マクロブロック、対象ブロックと呼ぶことにする。 In the following, a frame, a slice, a macroblock, and a block to be decoded are referred to as a target frame, a target slice, a target macroblock, and a target block, respectively.
 なお、マクロブロックのサイズは、例えば16×16画素であり、ブロックのサイズは、例えば4×4画素であるが、これらのサイズは本実施形態を限定するものではなく、マクロブロックのサイズを16×32画素、32×16画素、32×32画素、32×64画素、64×32画素、および、64画素×64画素などとしてもよいし、ブロックのサイズを4×8画素、8×4画素、または、8×8画素などとしてもよい。 The size of the macroblock is, for example, 16 × 16 pixels, and the size of the block is, for example, 4 × 4 pixels. However, these sizes are not limited to the present embodiment, and the size of the macroblock is 16 × 32 pixels, 32 × 16 pixels, 32 × 32 pixels, 32 × 64 pixels, 64 × 32 pixels, 64 pixels × 64 pixels, and the like, and the block size may be 4 × 8 pixels, 8 × 4 pixels. Or 8 × 8 pixels or the like.
 図1は、動画像復号装置1の構成を示すブロック図である。図1に示すように、動画像復号装置1は、可変長符号逆多重化部11、ヘッダ情報復号部12、MB設定部13、MB復号部14、および、フレームメモリ15を備えている。 FIG. 1 is a block diagram showing a configuration of the moving picture decoding apparatus 1. As shown in FIG. 1, the moving picture decoding apparatus 1 includes a variable length code demultiplexing unit 11, a header information decoding unit 12, an MB setting unit 13, an MB decoding unit 14, and a frame memory 15.
 動画像復号装置1に入力された符号化データ#1は可変長符号逆多重化部11へ入力される。可変長符号逆多重化部11は、入力された符号化データ#1を逆多重化することによって、符号化データ#1を、ヘッダ情報に関する符号化データであるヘッダ符号化データ#11aと、スライスに関する符号化データである符号化データ#11bとに分離し、ヘッダ符号化データ#11aをヘッダ情報復号部12に、符号化データ#11bをMB設定部13にそれぞれ出力する。 The encoded data # 1 input to the video decoding device 1 is input to the variable length code demultiplexing unit 11. The variable-length code demultiplexing unit 11 demultiplexes the input encoded data # 1, thereby converting the encoded data # 1 into header encoded data # 11a that is encoded data related to header information, and a slice. And the encoded data # 11a is output to the header information decoding unit 12 and the encoded data # 11b is output to the MB setting unit 13, respectively.
 ヘッダ情報復号部12では、ヘッダ符号化データ#11aからヘッダ情報#12を復号する。ここで、ヘッダ情報#12は、入力画像のサイズを含む情報である。 The header information decoding unit 12 decodes the header information # 12 from the encoded header data # 11a. Here, the header information # 12 is information including the size of the input image.
 MB設定部13では、入力されたヘッダ情報#12に基づいて、符号化データ#11bを個々のマクロブロックに対応する符号化データ#13に分離し、MB復号部14に対して順次出力する。 The MB setting unit 13 separates the encoded data # 11b into encoded data # 13 corresponding to each macroblock based on the input header information # 12 and sequentially outputs the encoded data # 11b to the MB decoding unit 14.
 MB復号部14は、入力された個々のマクロブロックに対応する符号化データ#13を順次復号することにより、個々のマクロブロックに対応する復号画像#2を生成し、出力する。また、復号画像#2は、フレームメモリ15に格納される。MB復号部14の構成については、後述するためここでは説明を省略する。 The MB decoding unit 14 generates and outputs a decoded image # 2 corresponding to each macroblock by sequentially decoding the encoded data # 13 corresponding to each input macroblock. The decoded image # 2 is stored in the frame memory 15. The configuration of the MB decoding unit 14 will be described later and will not be described here.
 フレームメモリ15には、復号画像#2が記録される。フレームメモリ15には、対象マクロブロックを復号する時点において、当該対象マクロブロックよりも先に復号された全てのマクロブロック(例えば、ラスタスキャン順で先行する全てのマクロブロック、および、対象フレームより先に復号されたフレームに含まれるマクロブロック)に対応する復号画像が記録されている。 The decoded image # 2 is recorded in the frame memory 15. At the time of decoding the target macroblock, the frame memory 15 stores all macroblocks decoded prior to the target macroblock (for example, all macroblocks preceding in the raster scan order and the target frame). The decoded image corresponding to the macro block included in the decoded frame is recorded.
 画像内の全てのマクロブロックに対して、MB復号部14によるマクロブロック単位の復号画像生成処理が終わった時点で、動画像復号装置1に入力された1フレーム分の符号化データに対応する復号画像#2の生成処理が完了する。 Decoding corresponding to one frame of encoded data input to the video decoding device 1 at the time when the decoded image generation processing in units of macroblocks by the MB decoding unit 14 is completed for all macroblocks in the image The generation process of the image # 2 is completed.
 (MB復号部14)
 以下では、MB復号部14について、参照する図面を替えてより具体的に説明する。
(MB decoding unit 14)
Hereinafter, the MB decoding unit 14 will be described more specifically with reference to different drawings.
 図2は、MB復号部14の構成を示すブロック図である。図2に示すように、MB復号部14は、予測残差復号部141、予測画像生成部142、および、加算器143を備えている。 FIG. 2 is a block diagram showing a configuration of the MB decoding unit 14. As illustrated in FIG. 2, the MB decoding unit 14 includes a prediction residual decoding unit 141, a prediction image generation unit 142, and an adder 143.
 予測残差復号部141は、入力された符号化データ#13に対応するマクロブロック(対象マクロブロック)に含まれる各ブロックの符号化データに対し可変長符号復号を適用することによって、ブロックに対する変換係数を生成する。また、予測残差復号部141は、生成した変換係数に対して、DCT(Discrete Cosine Transform)の逆変換を適用することによって予測残差#141を生成する。また、生成された予測残差#141は、加算器143に供給される。 The prediction residual decoding unit 141 applies variable length code decoding to the encoded data of each block included in the macroblock (target macroblock) corresponding to the input encoded data # 13, thereby converting the block. Generate coefficients. Moreover, the prediction residual decoding part 141 produces | generates prediction residual # 141 by applying the inverse transformation of DCT (Discrete Cosine Transform) with respect to the produced | generated conversion coefficient. The generated prediction residual # 141 is supplied to the adder 143.
 予測画像生成部142は、対象マクロブロックに含まれる各ブロックについて、画面間予測(インター予測)によって、予測画像#142を生成する。予測画像生成部142によって生成された予測画像#142は、加算器143に供給される。なお、予測画像生成部142の具体的な構成については、後述する。 The predicted image generation unit 142 generates a predicted image # 142 by inter-screen prediction (inter prediction) for each block included in the target macroblock. The predicted image # 142 generated by the predicted image generation unit 142 is supplied to the adder 143. A specific configuration of the predicted image generation unit 142 will be described later.
 加算器143は、(1)予測残差#141と予測画像#142とを加算することによって復号画像#2を生成し、(2)生成した復号画像#2を外部に出力し、(3)生成した復号画像#2をフレームメモリ15に格納する。 The adder 143 generates a decoded image # 2 by adding (1) the prediction residual # 141 and the prediction image # 142, (2) outputs the generated decoded image # 2 to the outside, and (3) The generated decoded image # 2 is stored in the frame memory 15.
 (予測画像生成部142)
 図2に示すように、予測画像生成部142は、並列処理制御部41、スイッチ部42、mv復号部43、動き補償予測部44、mv復号部45、動き補償予測部46、および、mvバッファ47を備えている。また、mv復号部43および動き補償予測部44は、第1のプロセッサP1を構成し、mv復号部45および動き補償予測部46は、第2のプロセッサP2を構成する。すなわち、mv復号部43および動き補償予測部44は、mv復号部45および動き補償予測部46とは異なるプロセッサ上で動作する。
(Predicted image generation unit 142)
As illustrated in FIG. 2, the predicted image generation unit 142 includes a parallel processing control unit 41, a switch unit 42, an mv decoding unit 43, a motion compensation prediction unit 44, an mv decoding unit 45, a motion compensation prediction unit 46, and an mv buffer. 47 is provided. In addition, the mv decoding unit 43 and the motion compensation prediction unit 44 constitute a first processor P1, and the mv decoding unit 45 and the motion compensation prediction unit 46 constitute a second processor P2. That is, the mv decoding unit 43 and the motion compensation prediction unit 44 operate on a different processor from the mv decoding unit 45 and the motion compensation prediction unit 46.
 並列処理制御部41は、符号化データ#13を復号することによって得られる並列処理制御情報PPIに基づいて、対象マクロブロックについての予測画像を、第1のプロセッサP1または第2のプロセッサP2の何れのプロセッサを用いて生成すべきかを判別し、判別した結果を示す判別情報#41を、スイッチ部42に対して出力する。 Based on the parallel processing control information PPI obtained by decoding the encoded data # 13, the parallel processing control unit 41 selects a prediction image for the target macroblock from either the first processor P1 or the second processor P2. It is discriminated whether the data should be generated using this processor, and discrimination information # 41 indicating the discrimination result is output to the switch unit 42.
 スイッチ部42は、判別情報#41に基づいて、符号化データ#13を、第1のプロセッサP1の備えるmv復号部43、または、第2のプロセッサP2の備えるmv復号部45の何れか一方に伝達する。 Based on the discrimination information # 41, the switch unit 42 sends the encoded data # 13 to either the mv decoding unit 43 provided in the first processor P1 or the mv decoding unit 45 provided in the second processor P2. introduce.
 mv復号部43は、mvバッファ47に格納されている復号済みの動きベクトル#47、符号化データ#13、および、フレームメモリ15に記録されている復号画像#15を参照し、対象マクロブロックに含まれる各ブロックについての動きベクトル#43を復号する。動きベクトル#43は、動き補償予測部44に対して出力されると共に、mvバッファ47に格納される。mv復号部43の具体的な構成については、後述するため、ここでは説明を省略する。 The mv decoding unit 43 refers to the decoded motion vector # 47 stored in the mv buffer 47, the encoded data # 13, and the decoded image # 15 recorded in the frame memory 15, and sets the target macroblock. The motion vector # 43 for each included block is decoded. The motion vector # 43 is output to the motion compensation prediction unit 44 and stored in the mv buffer 47. Since the specific configuration of the mv decoding unit 43 will be described later, the description thereof is omitted here.
 動き補償予測部44は、フレームメモリ15に記録されている復号画像#15に対して、動きベクトル#43に基づいた動き補償を行うことによって対象マクロブロックに含まれる各ブロックについての予測画像#44を生成する。 The motion compensation prediction unit 44 performs motion compensation on the decoded image # 15 recorded in the frame memory 15 based on the motion vector # 43, thereby predicting the prediction image # 44 for each block included in the target macroblock. Is generated.
 mv復号部45は、mv復号部43と同様の動作を行うことによって、動きベクトル#45を生成する。また、動きベクトル#45は、動き補償予測部46に対して出力されると共に、mvバッファ47に格納される。 The mv decoding unit 45 generates a motion vector # 45 by performing the same operation as the mv decoding unit 43. The motion vector # 45 is output to the motion compensation prediction unit 46 and is stored in the mv buffer 47.
 動き補償予測部46は、動き補償予測部44と同様の動作を行うことによって、予測画像#46を生成し、出力する。 The motion compensation prediction unit 46 performs the same operation as the motion compensation prediction unit 44 to generate and output a predicted image # 46.
 なお、予測画像#44および予測画像#46を総称して予測画像#142と呼ぶ。 Note that the prediction image # 44 and the prediction image # 46 are collectively referred to as a prediction image # 142.
 (mv復号部43)
 以下では、図3~図6を参照して、mv復号部43の構成について説明する。
(Mv decoding unit 43)
Hereinafter, the configuration of the mv decoding unit 43 will be described with reference to FIGS.
 図3は、mv復号部43の構成を示すブロック図である。図3に示すように、mv復号部43は、インター予測タイプ復号部431、スイッチ部432、mv導出部HE433、mv導出部LE434、mv残差復号部435、mv導出部N436、および、加算器437を備えている。また、mv導出部HE433およびmv導出部LE434は、第1の導出部D1を構成し、mv残差復号部435、mv導出部N436、および加算器437は、第2の導出部D2を構成している。 FIG. 3 is a block diagram showing a configuration of the mv decoding unit 43. As shown in FIG. 3, the mv decoding unit 43 includes an inter prediction type decoding unit 431, a switch unit 432, an mv deriving unit HE433, an mv deriving unit LE434, an mv residual decoding unit 435, an mv deriving unit N436, and an adder. 437. Further, the mv derivation unit HE433 and the mv derivation unit LE434 constitute a first derivation unit D1, and the mv residual decoding unit 435, the mv derivation unit N436, and the adder 437 constitute a second derivation unit D2. ing.
 なお、mv復号部45の構成は、mv復号部43の構成と同様であるため、説明を省略する。 Note that the configuration of the mv decoding unit 45 is the same as the configuration of the mv decoding unit 43, and thus description thereof is omitted.
 mv復号部43は、符号化データ#13を受け、ブロック毎に、後述する動きベクトル#433または後述する動きベクトル#437の何れか一方を動きベクトル#43として出力する。 The mv decoding unit 43 receives the encoded data # 13 and outputs either a motion vector # 433 (described later) or a motion vector # 437 (described later) as a motion vector # 43 for each block.
 インター予測タイプ復号部431は、符号化データ#13からインター予測タイプ指定情報#431を復号する。ここで、インター予測タイプ指定情報#431は、符号化データ#1に含まれるインター予測タイプ指定情報IPIに対応する情報である。 The inter prediction type decoding unit 431 decodes the inter prediction type designation information # 431 from the encoded data # 13. Here, the inter prediction type designation information # 431 is information corresponding to the inter prediction type designation information IPI included in the encoded data # 1.
 インター予測タイプ指定情報#431は、具体的には、対象ブロックが、インター予測タイプHE、または、インター予測タイプNのうち、何れかの予測タイプに対応するブロックであるかを指定する情報である。 Specifically, the inter prediction type designation information # 431 is information for designating whether the target block is a block corresponding to any prediction type of the inter prediction type HE or the inter prediction type N. .
 スイッチ部432は、インター予測タイプ指定情報#431に基づき、符号化データ#13を、第1の導出部D1または、第2の導出部D2の何れか一方に伝達する。 The switch unit 432 transmits the encoded data # 13 to either the first derivation unit D1 or the second derivation unit D2 based on the inter prediction type designation information # 431.
 より具体的には、スイッチ部432は、インター予測タイプ指定情報#431が、インター予測タイプHEを示している場合には、符号化データ#13を、第1の導出部D1に供給し、インター予測タイプ指定情報#431が、インター予測タイプNを示している場合には、符号化データ#13を第2の導出部D2に供給する。 More specifically, when the inter prediction type designation information # 431 indicates the inter prediction type HE, the switch unit 432 supplies the encoded data # 13 to the first derivation unit D1, and When the prediction type designation information # 431 indicates the inter prediction type N, the encoded data # 13 is supplied to the second derivation unit D2.
 なお、後述するように、インター予測タイプHEに対応するブロックは、インター予測タイプNに対応するブロックに比べて、動きベクトルを導出するための処理量が大きい。すなわち、インター予測タイプHEに対応するブロックについての動きベクトルの導出に要する時間は、インター予測タイプNに対応するブロックについての動きベクトルの導出に要する時間に比べて長い。 As will be described later, the block corresponding to the inter prediction type HE has a larger processing amount for deriving the motion vector than the block corresponding to the inter prediction type N. That is, the time required for deriving the motion vector for the block corresponding to the inter prediction type HE is longer than the time required for deriving the motion vector for the block corresponding to the inter prediction type N.
 (mv導出部HE433)
 mv導出部HE433は、フレームメモリ15に記録されている復号画像#15のうち、所定の2枚の参照画像(参照フレーム)を参照して、対象ブロックに対する動きベクトルを導出する。所定の2枚の参照画像とは、例えば、符号化データ#1を復号することによって得られる参照画像インデックスによって指定される参照画像である。また、対象フレームより表示順が遅い参照フレームのうち対象フレームに表示順が最も近い参照画像、および、対象フレームより表示順が早い参照フレームのうち対象フレームに表示順が最も近い参照画像であってもよい。
(Mv derivation unit HE433)
The mv deriving unit HE433 derives a motion vector for the target block with reference to predetermined two reference images (reference frames) among the decoded images # 15 recorded in the frame memory 15. The predetermined two reference images are, for example, reference images specified by a reference image index obtained by decoding encoded data # 1. Further, the reference image whose display order is closest to the target frame among the reference frames whose display order is slower than the target frame, and the reference image whose display order is closest to the target frame among the reference frames whose display order is earlier than the target frame. Also good.
 以下では、mv導出部HE433による動きベクトルの導出処理の例について説明する。 Hereinafter, an example of motion vector derivation processing by the mv derivation unit HE433 will be described.
 図4は、mv導出部HE433による動きベクトルの導出処理を説明するための図であって、対象フレームOF、対象フレームOFにおける対象ブロックOB、参照フレームRF1、および、参照フレームRF2を示す図である。 FIG. 4 is a diagram for explaining the motion vector derivation processing by the mv derivation unit HE433, and is a diagram illustrating the target frame OF, the target block OB in the target frame OF, the reference frame RF1, and the reference frame RF2. .
 図5は、mv導出部HE433による動きベクトルの導出処理の流れを示すフローチャートである。 FIG. 5 is a flowchart showing the flow of motion vector derivation processing by the mv derivation unit HE433.
 (ステップS101)
 まず、mv導出部HE433は、参照フレームRF1におけるブロックであって、対象ブロックOBと同じ位置を占めるブロックであるコロケートブロックCB1の周辺を探索範囲SR1に設定する。探索範囲SR1は、複数のブロックを含むように設定される。
(Step S101)
First, the mv deriving unit HE433 sets the periphery of the collocated block CB1, which is a block in the reference frame RF1 and occupies the same position as the target block OB, as the search range SR1. Search range SR1 is set to include a plurality of blocks.
 (ステップS102)
 続いて、mv導出部HE433は、探索範囲SR1に含まれる複数のブロックのうち、何れかのブロックを参照ブロックRB1に設定する。また、mv導出部HE433は、参照フレームRF2におけるブロックであって、対象ブロックOBについて参照ブロックRB1と点対象の位置関係にあるブロックを、参照ブロックRB2に設定する。これは、図4に示すように、参照フレームRF1、対象フレームOF、および、参照フレームRF2を、表示時刻を横軸とする時空座標上に配置した場合に、参照ブロックRB1と対象ブロックOBとを通る直線上に位置するブロックを参照ブロックRB2に設定する、と表現することもできる。
(Step S102)
Subsequently, the mv deriving unit HE433 sets any block among the plurality of blocks included in the search range SR1 as the reference block RB1. Also, the mv deriving unit HE433 sets a block in the reference frame RF2 that is in a point relationship with the reference block RB1 for the target block OB as the reference block RB2. As shown in FIG. 4, when the reference frame RF1, the target frame OF, and the reference frame RF2 are arranged on space-time coordinates with the display time as the horizontal axis, the reference block RB1 and the target block OB are arranged. It can also be expressed that a block located on a straight line passing through is set as the reference block RB2.
 (ステップS103)
 続いて、mv導出部HE433は、参照ブロックRB1における画像と参照ブロックRB2における画像とがどの程度類似しているかを示す類似度の評価を行う。mv導出部HE433は、例えば、参照ブロックRB1上の画像に含まれる各画素の画素値と、参照ブロックRB2上の画像に含まれる、上記各画素に対応する画素の画素値との差の絶対値(差分絶対値)の総和を用いることによって、上記類似度の評価を行う。
(Step S103)
Subsequently, the mv derivation unit HE433 evaluates the degree of similarity indicating how similar the image in the reference block RB1 and the image in the reference block RB2. The mv deriving unit HE433, for example, the absolute value of the difference between the pixel value of each pixel included in the image on the reference block RB1 and the pixel value of the pixel corresponding to each pixel included in the image on the reference block RB2. The similarity is evaluated by using the sum of (difference absolute values).
 (ステップS104)
 続いて、mv導出部HE433は、探索範囲SR1において、類似度を評価していないブロックが存在するか否かを判定する。
(Step S104)
Subsequently, the mv deriving unit HE433 determines whether or not there is a block whose similarity is not evaluated in the search range SR1.
 探索範囲SR1において、類似度を評価していないブロックが存在する場合、当該類似度を評価していないブロックを参照ブロックRB1に設定し、ステップS102およびステップS103の処理を繰り返す。 In the search range SR1, if there is a block whose similarity is not evaluated, the block whose similarity is not evaluated is set as the reference block RB1, and the processes of step S102 and step S103 are repeated.
 (ステップS105)
 探索範囲SR1に含まれる全てのブロックについて、類似度の評価が終了した後、mv導出部HE433は、互いに最も類似している参照ブロックRB1と参照ブロックRB2を決定し、参照ブロックRB1の対象ブロックOBからの変位、または、参照ブロックRB2の対象ブロックからの変位を示すベクトルを動きベクトル#433に設定する。
(Step S105)
After the similarity evaluation is completed for all the blocks included in the search range SR1, the mv deriving unit HE433 determines the reference block RB1 and the reference block RB2 that are most similar to each other, and the target block OB of the reference block RB1 Or a vector indicating the displacement of the reference block RB2 from the target block is set in the motion vector # 433.
 mv導出部HE433は、以上の動作を行うことによって、動きベクトル#433を導出する。また、導出された動きベクトル#433は、mvバッファ47にも供給される。 The mv deriving unit HE433 derives the motion vector # 433 by performing the above operation. The derived motion vector # 433 is also supplied to the mv buffer 47.
 (mv導出部LE434)
 mv導出部LE434は、同一フレームにおいて対象ブロックに隣接するブロック、または、対象ブロックと頂点を共有するブロックに割り付けられた導出済みの動きベクトルを参照して、当該対象ブロックに暫定的に割り付けられる仮動きベクトル#434を導出する。
(Mv derivation unit LE434)
The mv deriving unit LE434 refers to a derived motion vector allocated to a block adjacent to the target block in the same frame or a block that shares a vertex with the target block, and is temporarily allocated to the target block. A motion vector # 434 is derived.
 なお、mv導出部LE434による仮動きベクトル#434の導出は、mv導出部HE433による動きベクトル#433の導出に先立って行われることが好ましい。換言すれば、mv導出部LE434は、仮動きベクトル#434の導出処理が、mv導出部HE433による動きベクトル#433の導出処理が完了する前に完了するように構成されていることが好ましい。すなわち、mv導出部LE434が、対象ブロックに割り付ける仮動きベクトル#434の導出を完了する時点は、mv導出部HE433が、当該対象ブロックに割り付ける動きベクトル#433の導出を完了する時点よりも前であることが好ましい。 It should be noted that the derivation of the temporary motion vector # 434 by the mv derivation unit LE434 is preferably performed prior to the derivation of the motion vector # 433 by the mv derivation unit HE433. In other words, the mv derivation unit LE434 is preferably configured so that the derivation process of the temporary motion vector # 434 is completed before the derivation process of the motion vector # 433 by the mv derivation unit HE433 is completed. That is, the time when the mv deriving unit LE434 completes the derivation of the temporary motion vector # 434 assigned to the target block is before the time when the mv deriving unit HE433 completes the derivation of the motion vector # 433 assigned to the target block. Preferably there is.
 以下では、mv導出部LE434による仮動きベクトルの導出処理の例について図6を参照して説明する。 Hereinafter, an example of a tentative motion vector derivation process by the mv derivation unit LE434 will be described with reference to FIG.
 図6は、対象ブロックOBに隣接するブロックである参照ブロックRB1’~RB4’、および、対象ブロックOBと頂点を共有するブロックである参照ブロックRB5’~RB8’を示す図である。 FIG. 6 is a diagram showing reference blocks RB1 'to RB4' that are blocks adjacent to the target block OB, and reference blocks RB5 'to RB8' that are blocks that share vertices with the target block OB.
 mv導出部LE434は、図6に示す参照ブロックRB1’~RB8’のうち何れか1つ、または複数の所定の参照ブロックについて導出済みの動きベクトルを参照して、対象ブロックに対する仮動きベクトルを生成する。 The mv deriving unit LE434 generates a temporary motion vector for the target block by referring to any one of the reference blocks RB1 ′ to RB8 ′ illustrated in FIG. 6 or a motion vector derived for a plurality of predetermined reference blocks. To do.
 例えば、mv導出部LE434は、参照ブロックRB1’、参照ブロックRB2’、および参照ブロックRB8’の各々に割り付けられた導出済みの動きベクトルmv1、mv2、およびmv8を参照し、以下の式によって、対象ブロックに対する仮動きベクトルtmvoを算出する。 For example, the mv deriving unit LE434 refers to the derived motion vectors mv1, mv2, and mv8 allocated to each of the reference block RB1 ′, the reference block RB2 ′, and the reference block RB8 ′, A temporary motion vector tmvo for the block is calculated.
 tmvox=median(mv1x、mv2x、mv8x)   …(1a)
 tmvoy=median(mv1y、mv2y、mv8y)   …(1b)
ここで、median(…)は、括弧内の要素の中央値をとることを示しており、tmvoxおよびtmvoyは、それぞれ、仮動きベクトルtmvoのx成分およびy成分を示している(mv1、mv2、mv8についても同様)。
tmvox = median (mv1x, mv2x, mv8x) (1a)
tmvoy = median (mv1y, mv2y, mv8y) (1b)
Here, median (...) indicates that the median value of the elements in parentheses is taken, and tmvox and tmvoy indicate the x component and the y component of the temporary motion vector tmvo, respectively (mv1, mv2, The same applies to mv8).
 また、上記導出済みの動きベクトルmv1、mv2、およびmv8は、それぞれ、参照ブロックRB1’、参照ブロックRB2’、および参照ブロックRB8’について、第2の導出部D2によって導出された動きベクトル#437に対応している。 Further, the derived motion vectors mv1, mv2, and mv8 are the motion vector # 437 derived by the second deriving unit D2 for the reference block RB1 ′, the reference block RB2 ′, and the reference block RB8 ′, respectively. It corresponds.
 また、mv導出部LE434は、以下の式によって、対象ブロックに対する仮動きベクトルtmvoを算出してもよい。 Further, the mv deriving unit LE434 may calculate a temporary motion vector tmvo for the target block by the following equation.
 tmvox=ave(mv1x、mv2x、mv8x)   …(2a)
 tmvoy=ave(mv1y、mv2y、mv8y)   …(2b)
ここで、ave(…)は、括弧内の要素の平均値をとることを示している。
tmvox = ave (mv1x, mv2x, mv8x) (2a)
tmvoy = ave (mv1y, mv2y, mv8y) (2b)
Here, ave (...) Indicates that an average value of elements in parentheses is taken.
 また、mv導出部LE434は、上記所定の参照ブロックのうち、インター予測タイプHEに対応するブロックについては、動きベクトルではなく、仮動きベクトルを参照して、対象ブロックについての仮動きベクトルを算出する。 Also, the mv deriving unit LE434 calculates a temporary motion vector for the target block with reference to the temporary motion vector instead of the motion vector for the block corresponding to the inter prediction type HE among the predetermined reference blocks. .
 例えば、上記所定の参照ブロックのうち、参照ブロックRB8’が、インター予測タイプHEに対応するブロックである場合には、mv導出部LE434は、
 tmvox=median(mv1x、mv2x、tmv8x)   …(3a)
 tmvoy=median(mv1y、mv2y、tmv8y)   …(3b)
または、
 tmvox=ave(mv1x、mv2x、tmv8x)   …(4a)
 tmvoy=ave(mv1y、mv2y、tmv8y)   …(4b)
によって、対象ブロックに対する仮動きベクトルtmvoを算出する。
For example, when the reference block RB8 ′ is a block corresponding to the inter prediction type HE among the predetermined reference blocks, the mv deriving unit LE434
tmvox = median (mv1x, mv2x, tmv8x) (3a)
tmvoy = median (mv1y, mv2y, tmv8y) (3b)
Or
tmvox = ave (mv1x, mv2x, tmv8x) (4a)
tmvoy = ave (mv1y, mv2y, tmv8y) (4b)
Thus, the temporary motion vector tmvo for the target block is calculated.
 ここで、仮動きベクトルtmv8は、参照ブロックRB8’について、mv導出部LE434によって導出される仮動きベクトル#434に対応している。 Here, the temporary motion vector tmv8 corresponds to the temporary motion vector # 434 derived by the mv deriving unit LE434 for the reference block RB8 '.
 また、mv導出部LE434は、仮動きベクトルtmv8を参照することなく、
 tmvox=ave(mv1x、mv2x)   …(5a)
 tmvoy=ave(mv1y、mv2y)   …(5b)
によって、対象ブロックに対する仮動きベクトルtmvoを算出してもよい。
Further, the mv deriving unit LE434 does not refer to the temporary motion vector tmv8,
tmvox = ave (mv1x, mv2x) (5a)
tmvoy = ave (mv1y, mv2y) (5b)
Thus, the temporary motion vector tmvo for the target block may be calculated.
 換言すれば、mv導出部LE434は、上記所定の参照ブロックのうち、動きベクトルが導出済みでないブロックについては、当該ブロックに割り付けられた動きベクトルおよび仮動きベクトルの何れも参照することなく、仮動きベクトルtmvoを算出してもよい。 In other words, the mv deriving unit LE434 refers to the temporary motion without referring to any of the motion vector and the temporary motion vector assigned to the block for which the motion vector has not been derived among the predetermined reference blocks. The vector tmvo may be calculated.
 上記の説明では、mv導出部LE434が、参照ブロックRB1’、参照ブロックRB2’、および参照ブロックRB8’についての動きベクトル(または仮動きベクトル)を参照して、対象ブロックに対する仮動きベクトルtmvoを算出する場合について具体的に説明したが、本実施形態はこれに限定されるものではない。 In the above description, the mv deriving unit LE434 refers to the motion vectors (or provisional motion vectors) for the reference block RB1 ′, the reference block RB2 ′, and the reference block RB8 ′, and calculates the provisional motion vector tmvo for the target block. Although the case where it does is demonstrated concretely, this embodiment is not limited to this.
 例えば、mv導出部LE434は、参照ブロックRB1’、参照ブロックRB2’、参照ブロックRB5’、および参照ブロックRB8’についての動きベクトル(または仮動きベクトル)を参照して、対象ブロックに対する仮動きベクトルtmvoを算出してもよいし、フレームの復号がフレームの右下から順次行われるような場合には、参照ブロックRB3’、参照ブロックRB4’、参照ブロックRB6’、および参照ブロックRB7’についての動きベクトル(または仮動きベクトル)を参照して、対象ブロックに対する仮動きベクトルtmvoを算出してもよい。また、上記の例とは異なる組み合わせの参照ブロックに基づいて対象ブロックに対する仮動きベクトルtmvoを算出してもよい。 For example, the mv deriving unit LE434 refers to the motion vectors (or temporary motion vectors) for the reference block RB1 ′, the reference block RB2 ′, the reference block RB5 ′, and the reference block RB8 ′, and refers to the temporary motion vector tmvo for the target block. Or when the frame is decoded sequentially from the lower right of the frame, the motion vectors for the reference block RB3 ′, the reference block RB4 ′, the reference block RB6 ′, and the reference block RB7 ′ Referring to (or provisional motion vector), provisional motion vector tmvo for the target block may be calculated. Further, the temporary motion vector tmvo for the target block may be calculated based on a reference block of a combination different from the above example.
 なお、mv導出部LE434が、対象ブロックに対する仮動きベクトルtmvoを算出するために参照する所定の参照ブロックの組み合わせは、予め定められた組み合わせを用いてもよいし、予め定められた相異なる複数の組み合わせのうちから選択された組み合わせを用いてもよい。後者の場合には、仮動きベクトルtmvoを算出するために用いる参照ブロックの組み合わせを指定する指定情報をインター予測タイプ指定情報#431に含めておき、mv導出部LE434は、インター予測タイプ指定情報#431によって指定される組み合わせを用いればよい。 Note that a predetermined combination of reference blocks that the mv deriving unit LE434 refers to in order to calculate the temporary motion vector tmvo for the target block may be a predetermined combination, or a plurality of different predetermined combinations. A combination selected from among the combinations may be used. In the latter case, the inter prediction type designation information # 431 includes designation information that designates a combination of reference blocks used for calculating the temporary motion vector tmvo, and the mv deriving unit LE434 includes the inter prediction type designation information # 431. A combination specified by 431 may be used.
 また、中央値を用いる算出処理と平均値を用いる算出処理とが選択的に行われる場合には、中央値を用いるか平均値を用いるかを指定する算出処理指定情報をインター予測タイプ指定情報#413に含めておき、mv導出部LE434は、インター予測タイプ指定情報#431によって指定される方の算出処理を行えばよい。 In addition, when the calculation process using the median and the calculation process using the average value are selectively performed, the calculation process specification information specifying whether to use the median value or the average value is used as inter prediction type specification information # The mv deriving unit LE434 may perform the calculation process specified by the inter prediction type designation information # 431.
 mv導出部LE434は、上記の処理によって算出した仮動きベクトルtmvoを、仮動きベクトル#434としてmvバッファ47に格納する。 The mv deriving unit LE434 stores the temporary motion vector tmvo calculated by the above processing in the mv buffer 47 as the temporary motion vector # 434.
 また、参照ブロックにおいて、動きベクトルが導出済みでない場合に、当該参照ブロックについての仮動きベクトルを参照するか否かの選択は、インター予測タイプ指定情報#431を参照して行うことができる。 In addition, when a motion vector has not been derived in the reference block, whether or not to refer to the temporary motion vector for the reference block can be selected with reference to the inter prediction type designation information # 431.
 また、mv導出部LE434は、復号済みのフレームにおけるブロックであって、対象ブロックと同じ位置を占めるブロックであるコロケートブロックに割り付けられた動きベクトル、または、当該コロケートブロックの周辺のブロックに割り付けられた動きベクトルを参照して、仮動きベクトルを導出する構成としてもよい。 In addition, the mv deriving unit LE434 is a block in a decoded frame, and is allocated to a motion vector allocated to a collocated block that is a block occupying the same position as the target block, or to a block around the collocated block. The temporary motion vector may be derived with reference to the motion vector.
 (動きベクトル#433および仮動きベクトル#434におけるエラー発生率)
 以下では、mv導出部HE433が上述した処理を行うことによって導出する動きベクトル#433にエラーが生じる可能性と、mv導出部LE434が上述した処理を行うことによって導出する仮動きベクトル#434にエラーが生じる可能性とについて、両者を比較して説明する。
(Error occurrence rate in motion vector # 433 and temporary motion vector # 434)
In the following, there is a possibility that an error will occur in the motion vector # 433 derived by the mv deriving unit HE433 performing the above-described processing, and an error in the temporary motion vector # 434 derived by the mv deriving unit LE434 performing the above-described processing. The possibility of occurrence will be described by comparing the two.
 上述のように、mv導出部HE433は、2枚の参照画像(図4における参照フレームRF1および参照フレームRF2)の各々における画素値を参照することによって、動きベクトル#433を導出する。したがって、上記2枚の参照画像の何れかの画素値にエラーが生じている場合、すなわち、上記2枚の参照画像の何れかの画素値が、伝送エラーまたは復号処理において生じるエラー等の影響により本来の画素値とは異なった画素値となっている場合には、上記2枚の参照画像の画素値を参照して導出される動きベクトル#433についても、上記エラーが直接的に影響することによってエラーが生じることになる。 As described above, the mv deriving unit HE433 derives the motion vector # 433 by referring to the pixel values in each of the two reference images (the reference frame RF1 and the reference frame RF2 in FIG. 4). Therefore, when an error has occurred in one of the pixel values of the two reference images, that is, any one of the pixel values of the two reference images is affected by a transmission error or an error generated in the decoding process. When the pixel value is different from the original pixel value, the error directly affects the motion vector # 433 derived with reference to the pixel values of the two reference images. Will cause an error.
 一方で、mv導出部LE434は、対象ブロックに隣接するブロック、または、対象ブロックと頂点を共有するブロックについて導出された動きベクトルまたは仮動きベクトルを参照して、仮動きベクトル#434を導出する。すなわち、mv導出部LE434は、画素値を参照することなく、仮動きベクトル#434を導出する。このため、仮動きベクトル#434は、画素値に生じるエラーの影響を直接的に受けることがない。 On the other hand, the mv deriving unit LE434 derives a temporary motion vector # 434 with reference to a motion vector or a temporary motion vector derived for a block adjacent to the target block or a block sharing a vertex with the target block. That is, the mv deriving unit LE434 derives the temporary motion vector # 434 without referring to the pixel value. For this reason, temporary motion vector # 434 is not directly affected by an error that occurs in the pixel value.
 したがって、mv導出部LE434が導出する仮動きベクトル#434にエラーが生じる可能性は、mv導出部HE433が導出する動きベクトル#433にエラーが生じる可能性に比べて低い。 Therefore, the possibility that an error occurs in the temporary motion vector # 434 derived by the mv deriving unit LE434 is lower than the possibility that an error occurs in the motion vector # 433 derived by the mv deriving unit HE433.
 換言すれば、mv導出部LE434は、mv導出部HE433に比べて、エラーの生じにくい処理によって、仮動きベクトル#434を導出することができる。 In other words, the mv deriving unit LE434 can derive the temporary motion vector # 434 by a process that is less likely to cause errors than the mv deriving unit HE433.
 また、mv導出部LE434は、上述した動作を行うことによって、mv導出部HE433による動きベクトル#433の導出に要する時間よりも短い処理時間で、仮動きベクトル#434を導出することができる。 Also, the mv deriving unit LE434 can derive the temporary motion vector # 434 in a shorter processing time than the time required for the mv deriving unit HE433 to derive the motion vector # 433 by performing the above-described operation.
 また、mv導出部LE434は、上述したmv導出部HE433による動きベクトルの導出処理とほぼ同様の処理によって、仮動きベクトルを導出する構成としてもよい。ただし、mv導出部LE434によって設定される探索領域SR1’’は、mv導出部HE433によって設定される探索領域SR1よりも狭いものとする。すなわち、探索領域SR1’’に含まれるブロックの数は、探索領域SR1に含まれるブロックの数よりも少ないものとする。 Also, the mv deriving unit LE434 may be configured to derive a temporary motion vector by substantially the same process as the motion vector deriving process by the mv deriving unit HE433 described above. However, the search region SR1 ″ set by the mv derivation unit LE434 is narrower than the search region SR1 set by the mv derivation unit HE433. That is, it is assumed that the number of blocks included in the search area SR1 ″ is smaller than the number of blocks included in the search area SR1.
 このように、mv導出部LE434が参照する参照ブロックの数は、mv導出部HE433が参照する参照ブロックの数に比べて少ないため、mv導出部LE434が参照する画素値の総数は、mv導出部HE433が参照する画素値の総数に比べて少ない。したがって、mv導出部LE434が導出する仮動きベクトル#434は、mv導出部HE433が導出する動きベクトル#433に比べて、エラーが生じる可能性が低い。 Thus, since the number of reference blocks referred to by the mv derivation unit LE434 is smaller than the number of reference blocks referred to by the mv derivation unit HE433, the total number of pixel values referred to by the mv derivation unit LE434 is the mv derivation unit. This is smaller than the total number of pixel values referenced by HE 433. Therefore, the provisional motion vector # 434 derived by the mv deriving unit LE434 is less likely to cause an error than the motion vector # 433 derived by the mv deriving unit HE433.
 また、mv導出部LE434は、このように、探索領域SR1’’を、探索領域SR1に比べて狭く設定することによって、mv導出部HE433による動きベクトル#433の導出に要する時間よりも短い処理時間で、仮動きベクトル#434を導出することができる。 In addition, the mv deriving unit LE434 thus sets the search region SR1 ″ to be narrower than the search region SR1, and thus processing time shorter than the time required for deriving the motion vector # 433 by the mv deriving unit HE433. Thus, provisional motion vector # 434 can be derived.
 (mv残差復号部435)
 mv残差復号部は、符号化データ#13に含まれる動きベクトル全残差MVDを復号することによって対象ブロックに対する差分動きベクトル#435を生成する。
(Mv residual decoding unit 435)
The mv residual decoding unit generates a differential motion vector # 435 for the target block by decoding the motion vector total residual MVD included in the encoded data # 13.
 (mv導出部N436)
 mv導出部N436は、同一フレームにおいて対象ブロックに隣接するブロック、または、対象ブロックと頂点を共有するブロックについて導出済みの動きベクトルを参照して、当該対象ブロックに対する動きベクトルの予測値である予測動きベクトル(以下、「予測ベクトル」とも呼ぶ)#436を導出する。
(Mv derivation unit N436)
The mv deriving unit N436 refers to a motion vector that has already been derived for a block adjacent to the target block in the same frame or a block that shares a vertex with the target block, and a predicted motion that is a predicted value of the motion vector for the target block A vector (hereinafter also referred to as “prediction vector”) # 436 is derived.
 mv導出部N436による予測動きベクトルの導出は、mv導出部LE434による仮動きベクトルの導出と同様の処理によって行うことができる。 The derivation of the predicted motion vector by the mv derivation unit N436 can be performed by the same processing as the derivation of the temporary motion vector by the mv derivation unit LE434.
 例えば、mv導出部N436は、mv導出部LE434による仮動きベクトルtmvoの導出に用いられる数式(1a)~(5b)をそれぞれ、以下の数式(1a’)~(5b’)に置き換えることによって、予測動きベクトルpmvoの導出を行う構成とすることができる。 For example, the mv deriving unit N436 replaces the mathematical expressions (1a) to (5b) used for deriving the temporary motion vector tmvo by the mv deriving part LE434 with the following mathematical expressions (1a ′) to (5b ′), respectively. The prediction motion vector pmvo can be derived.
 pmvox=median(mv1x、mv2x、mv8x)   …(1a’)
 pmvoy=median(mv1y、mv2y、mv8y)   …(1b’)
 pmvox=ave(mv1x、mv2x、mv8x)   …(2a’)
 pmvoy=ave(mv1y、mv2y、mv8y)   …(2b’)
 pmvox=median(mv1x、mv2x、tmv8x)   …(3a’)
 pmvoy=median(mv1y、mv2y、tmv8y)   …(3b’)
 pmvox=ave(mv1x、mv2x、tmv8x)   …(4a’)
 pmvoy=ave(mv1y、mv2y、tmv8y)   …(4b’)
 pmvox=ave(mv1x、mv2x)   …(5a’)
 pmvoy=ave(mv1y、mv2y)   …(5b’)
 ここで、pmvoxおよびpmvoyは、それぞれ、予測動きベクトルpmvoのx成分およびy成分を示している。
pmvox = median (mv1x, mv2x, mv8x) (1a ′)
pmvoy = median (mv1y, mv2y, mv8y) (1b ′)
pmvox = ave (mv1x, mv2x, mv8x) (2a ′)
pmvoy = ave (mv1y, mv2y, mv8y) (2b ′)
pmvox = median (mv1x, mv2x, tmv8x) (3a ′)
pmvoy = median (mv1y, mv2y, tmv8y) (3b ′)
pmvox = ave (mv1x, mv2x, tmv8x) (4a ′)
pmvoy = ave (mv1y, mv2y, tmv8y) (4b ′)
pmvox = ave (mv1x, mv2x) (5a ′)
pmvoy = ave (mv1y, mv2y) (5b ′)
Here, pmvox and pmvoy indicate the x component and the y component of the predicted motion vector pmvo, respectively.
 mv導出部N436は、上記の処理によって算出した予測動きベクトルpmvoを、予測動きベクトル#436として出力する。 The mv deriving unit N436 outputs the predicted motion vector pmvo calculated by the above processing as the predicted motion vector # 436.
 (加算器437)
 加算器437は、差分動きベクトル#435と、予測動きベクトル#436とを加算することによって、動きベクトル#437を生成し、出力する。動きベクトル#437は、mvバッファ47に格納される。
(Adder 437)
The adder 437 generates a motion vector # 437 by adding the difference motion vector # 435 and the predicted motion vector # 436, and outputs the motion vector # 437. The motion vector # 437 is stored in the mv buffer 47.
 上述のように、上記の処理を行うmv導出部N436は、参照ブロックがインター予測タイプHEに対応するブロックである場合には、当該参照ブロックについては、仮動きベクトルを参照して、対象ブロックについての予測動きベクトル#436を導出する。また、インター予測タイプHEに対応するブロックについては、画素値を参照して導出される動きベクトルよりも、画素値を参照することなく導出される仮動きベクトルの方が、エラー発生率が低い。したがって、そのようなエラー発生率の低い仮動きベクトルを参照して導出される予測動きベクトル#436にエラーが生じる可能性は、上記参照ブロックについての動きベクトルを参照する場合に比べて低い。 As described above, when the reference block is a block corresponding to the inter prediction type HE, the mv deriving unit N436 that performs the above processing refers to the provisional motion vector for the reference block. The predicted motion vector # 436 is derived. For blocks corresponding to the inter prediction type HE, a temporary motion vector derived without referring to a pixel value has a lower error rate than a motion vector derived with reference to a pixel value. Therefore, the possibility that an error will occur in the predicted motion vector # 436 derived by referring to such a temporary motion vector with a low error occurrence rate is lower than in the case of referring to the motion vector for the reference block.
 したがって、そのような予測動きベクトル#436に基づいて生成される動きベクトル#437を用いて、動き補償予測部44により生成される予測画像#44にエラーが生じる可能性は、上記仮動きベクトルを用いない場合に比べて低い。 Therefore, the possibility that an error occurs in the predicted image # 44 generated by the motion compensated prediction unit 44 using the motion vector # 437 generated based on such a predicted motion vector # 436 is determined by using the temporary motion vector. Low compared to when not used.
 <他の導出例1>
 mv導出部HE433による動きベクトルの導出処理、および、mv導出部LE434による仮動きベクトルの導出処理の組み合わせは、上述した例に限定されるものではない。
<Other derivation example 1>
The combination of the motion vector derivation process by the mv derivation unit HE433 and the provisional motion vector derivation process by the mv derivation unit LE434 is not limited to the above-described example.
 例えば、mv導出部LE434が、同一フレームにおいて対象ブロックに隣接するブロック、または、対象ブロックと頂点を共有するブロックについて導出済みの動きベクトルを参照して、当該対象ブロックに対する仮動きベクトル#434を導出し、mv導出部HE433が、対象ブロックの近傍の領域である近傍領域NSRを設定し、当該近傍領域NSRに含まれるブロックについて導出済みの動きベクトルを参照して、当該対象ブロックに対する動きベクトル#433を導出する構成としてもよい。 For example, the mv deriving unit LE434 derives a provisional motion vector # 434 for the target block by referring to the motion vectors already derived for the block adjacent to the target block in the same frame or the block sharing the vertex with the target block. Then, the mv deriving unit HE433 sets a neighborhood region NSR that is a neighborhood region of the target block, refers to the motion vector already derived for the block included in the neighborhood region NSR, and motion vector # 433 for the target block It is good also as a structure which derives.
 ここで、近傍領域NSRには、対象ブロックに隣接するブロック、および、対象ブロックと頂点を共有するブロックが含まれる。 Here, the neighborhood area NSR includes a block adjacent to the target block and a block sharing a vertex with the target block.
 図23は、本導出例において、mv導出部HE433が設定する近傍領域NSRの例を示す図である。図23に示すように、近傍領域NSRは、例えば、対象ブロックの周辺のサブブロックであって、対象ブロックからの距離が、ブロックを単位として1~3市街地距離以内であるブロックから構成することができる。ここで、市街地距離とは、2点間の座標に対して、各座標の差の絶対値の和によって定義される距離のことである。 FIG. 23 is a diagram illustrating an example of the neighborhood region NSR set by the mv derivation unit HE433 in the derivation example. As shown in FIG. 23, the neighborhood region NSR may be composed of, for example, sub-blocks around the target block, and blocks whose distance from the target block is within 1 to 3 city distances in units of blocks. it can. Here, the urban area distance is a distance defined by the sum of absolute values of differences between coordinates with respect to coordinates between two points.
 なお、図23に示すように、近傍領域NSRは、一般に、対象ブロックが属するマクロブロック以外のマクロブロックに属するブロックを含んでいてもよい。 Note that, as shown in FIG. 23, the neighborhood region NSR may generally include a block belonging to a macroblock other than the macroblock to which the target block belongs.
 また、mv導出部HE433は、近傍領域NSRに含まれるブロックについて、動きベクトルが導出済みではないが、仮動きベクトルが生成済みである参照ブロックについては、当該仮動きベクトルを参照して、対象ブロックに対する仮動きベクトルを算出する構成としてもよい。 In addition, the mv deriving unit HE433 refers to the temporary motion vector for the reference block for which the motion vector has not been derived for the block included in the neighboring region NSR, but the motion vector has already been generated. It is good also as a structure which calculates the temporary motion vector with respect to.
 また、mv導出部HE433は、近傍領域NSRに含まれるブロックのうち、動きベクトルが導出済みでないブロックについては、動きベクトルおよび仮動きベクトルの何れも参照することなく、仮動きベクトルtmvoを算出する構成としてもよい。 Further, the mv deriving unit HE433 calculates a temporary motion vector tmvo without referring to any of the motion vector and the temporary motion vector for a block in which the motion vector has not been derived among the blocks included in the neighboring region NSR. It is good.
 また、近傍領域NSRは、対象ブロック毎に予め定められた領域であってもよいし、インター予測タイプ指定情報#431に含まれる近傍領域指定情報によって定められる領域であってもよい。 Also, the neighborhood region NSR may be a region that is predetermined for each target block, or may be a region that is defined by the neighborhood region designation information included in the inter prediction type designation information # 431.
 本導出例においては、mv導出部LE434が、仮動きベクトル#434を算出するために参照するブロックの数が、mv導出部HE433が動きベクトル#433を算出するために参照するブロックの数よりも少ないため、mv導出部LE434は、mv導出部HE433による動きベクトル#433の導出に要する時間よりも短い処理時間で、仮動きベクトル#434を導出することができる。 In this derivation example, the number of blocks to which the mv derivation unit LE434 refers to calculate the temporary motion vector # 434 is greater than the number of blocks to which the mv derivation unit HE433 refers to calculate the motion vector # 433. Therefore, the mv deriving unit LE434 can derive the temporary motion vector # 434 in a shorter processing time than the time required for deriving the motion vector # 433 by the mv deriving unit HE433.
 <他の導出例2>
 なお、第2の導出部D2は、対象ブロックが、インター予測タイプ指定情報#431により、インター予測タイプNに指定されている場合であって、符号化データ#1を復号することによって得られるスキップモード情報SMIにより、スキップモードが適用されるブロックに指定されている場合には、予測動きベクトルpmvoの導出に代えて、動きベクトルmvoを導出し、出力する構成としてもよい。
<Other derivation example 2>
Note that the second derivation unit D2 is a case where the target block is designated as the inter prediction type N by the inter prediction type designation information # 431, and is obtained by decoding the encoded data # 1. When the mode information SMI specifies the block to which the skip mode is applied, a motion vector mvo may be derived and output instead of the prediction motion vector pmvo.
 第2の導出部D2による動きベクトルmvoの導出は、上述したmv導出部LE434による仮動きベクトルtmvoの導出、および、上述したmv導出部N436による予測動きベクトルpmvoの導出と同様の処理によって行うことができる。 The derivation of the motion vector mvo by the second derivation unit D2 is performed by the same process as the derivation of the temporary motion vector tmvo by the mv derivation unit LE434 described above and the derivation of the predicted motion vector pmvo by the mv derivation unit N436 described above. Can do.
 例えば、第2の導出部D2は、mv導出部LE434による仮動きベクトルtmvoの導出に用いられる数式(1a)~(5b)をそれぞれ、以下の数式(1a’’)~(5b’’)に置き換えることによって、動きベクトルmvoの導出を行う構成とすることができる。 For example, the second deriving unit D2 converts mathematical expressions (1a) to (5b) used for deriving the temporary motion vector tmvo by the mv deriving unit LE434 to the following mathematical expressions (1a ″) to (5b ″), respectively. By replacing, it can be set as the structure which derives | leads-out the motion vector mvo.
 mvox=median(mv1x、mv2x、mv8x)   …(1a’’)
 mvoy=median(mv1y、mv2y、mv8y)   …(1b’’)
 mvox=ave(mv1x、mv2x、mv8x)   …(2a’’)
 mvoy=ave(mv1y、mv2y、mv8y)   …(2b’’)
 mvox=median(mv1x、mv2x、tmv8x)   …(3a’’)
 mvoy=median(mv1y、mv2y、tmv8y)   …(3b’’)
 mvox=ave(mv1x、mv2x、tmv8x)   …(4a’’)
 mvoy=ave(mv1y、mv2y、tmv8y)   …(4b’’)
 mvox=ave(mv1x、mv2x)   …(5a’’)
 mvoy=ave(mv1y、mv2y)   …(5b’’)
 ここで、mvoxおよびmvoyは、それぞれ、動きベクトルmvoのx成分およびy成分を示している。
mvox = median (mv1x, mv2x, mv8x) (1a ″)
mvoy = median (mv1y, mv2y, mv8y) (1b ″)
mvox = ave (mv1x, mv2x, mv8x) (2a ″)
mvoy = ave (mv1y, mv2y, mv8y) (2b ″)
mvox = median (mv1x, mv2x, tmv8x) (3a ″)
mvoy = median (mv1y, mv2y, tmv8y) (3b ″)
mvox = ave (mv1x, mv2x, tmv8x) (4a ″)
mvoy = ave (mv1y, mv2y, tmv8y) (4b ″)
mvox = ave (mv1x, mv2x) (5a ″)
mvoy = ave (mv1y, mv2y) (5b ″)
Here, mvox and mvoy indicate the x component and the y component of the motion vector mvo, respectively.
 第2の導出部D2は、上記の処理によって算出した動きベクトルmvoを、そのまま、動きベクトル#437として出力する。 The second deriving unit D2 outputs the motion vector mvo calculated by the above processing as it is as the motion vector # 437.
 (第1のプロセッサP1および第2のプロセッサP2による並列処理)
 以下では、動画像復号装置1の備える第1のプロセッサP1および第2のプロセッサP2によって並列的に行われる、動きベクトルまたは仮動きベクトルの導出処理について図8の(a)~(b)を参照して説明する。
(Parallel processing by the first processor P1 and the second processor P2)
Hereinafter, the motion vector or provisional motion vector derivation processing performed in parallel by the first processor P1 and the second processor P2 included in the video decoding device 1 will be described with reference to FIGS. To explain.
 図8の(a)は、第1のプロセッサP1および第2のプロセッサP2によって、動きベクトルまたは仮動きベクトルの導出が並列的に行われるブロックの例であるブロックB1~B4を示す図である。 (A) of FIG. 8 is a diagram showing blocks B1 to B4 which are examples of blocks in which the motion vector or the temporary motion vector is derived in parallel by the first processor P1 and the second processor P2.
 ブロックB1およびブロックB3は、並列処理制御部41の出力する判別情報#41により、第1のプロセッサP1によって処理されることが指定されているブロックであり、ブロックB2およびブロックB4は、並列処理制御部41の出力する判別情報#41により、第2のプロセッサP2によって処理されることが指定されているブロックである。 The block B1 and the block B3 are blocks that are specified to be processed by the first processor P1 according to the discrimination information # 41 output from the parallel processing control unit 41, and the block B2 and the block B4 are parallel processing control. This is a block that is specified to be processed by the second processor P2 by the discrimination information # 41 output from the unit 41.
 また、ブロックB1およびブロックB4は、インター予測タイプ指定情報#431により、インター予測タイプHEに指定されているブロックであり、ブロックB2およびブロックB3は、インター予測タイプ指定情報#431により、インター予測タイプNに指定されているブロックである。 Further, the block B1 and the block B4 are blocks designated as the inter prediction type HE by the inter prediction type designation information # 431, and the block B2 and the block B3 are designated by the inter prediction type designation information # 431. N is a block designated.
 図8の(b)は、図8の(a)に示す各ブロックについて、本実施形態に係る第1のプロセッサP1および本実施形態に係る第2のプロセッサP2が、動きベクトルまたは仮動きベクトルの導出を並列的に行う場合の処理時間を模式的に示すタイミングチャートと、図8の(a)に示す各ブロックについて、比較例に係る第1のプロセッサP1’および比較例に係る第2のプロセッサP2’が、動きベクトルの導出を並列的に行う場合の処理時間を模式的に示すタイミングチャートとを示している。 (B) of FIG. 8 shows that the first processor P1 according to the present embodiment and the second processor P2 according to the present embodiment, for each block shown in FIG. The timing chart schematically showing the processing time when the derivation is performed in parallel, and the first processor P1 ′ according to the comparative example and the second processor according to the comparative example for each block shown in FIG. P2 ′ is a timing chart schematically showing processing time when motion vectors are derived in parallel.
 まず、第1のプロセッサP1は、時刻t1から時刻t2までの期間において、第1の導出部D1の備えるmv導出部LE434により、ブロックB1についての仮動きベクトル#434の導出を行う。 First, in the period from time t1 to time t2, the first processor P1 derives the temporary motion vector # 434 for the block B1 by the mv deriving unit LE434 included in the first deriving unit D1.
 続いて、第1のプロセッサP1は、時刻t2から時刻t6までの期間において、第1の導出部D1の備えるmv導出部HE433により、ブロックB1についての動きベクトル#433の導出を行う。ここで、上述した動作によって行われるmv導出部HE433による動きベクトル#433の導出のための処理量は、上述した動作によって行われるmv導出部LE434による仮動きベクトル#434の導出のための処理量に比べて大きいため、時刻t2から時刻t6までの期間は、時刻t1から時刻t2までの期間よりも長い。 Subsequently, in the period from time t2 to time t6, the first processor P1 derives the motion vector # 433 for the block B1 by the mv deriving unit HE433 included in the first deriving unit D1. Here, the processing amount for deriving the motion vector # 433 by the mv deriving unit HE433 performed by the above-described operation is the processing amount for deriving the temporary motion vector # 434 by the mv deriving unit LE434 performed by the above-described operation. Therefore, the period from time t2 to time t6 is longer than the period from time t1 to time t2.
 続いて、第1のプロセッサP1は、時刻t6から時刻t7までの期間において、第2の導出部D2により、ブロックB3についての動きベクトル#437を導出する。ここで、ブロックB3についての動きベクトル#437の導出は、ブロックB2について導出された動きベクトルを参照して行われる。 Subsequently, in the period from time t6 to time t7, the first processor P1 derives the motion vector # 437 for the block B3 by the second derivation unit D2. Here, the derivation of the motion vector # 437 for the block B3 is performed with reference to the motion vector derived for the block B2.
 一方で、第2のプロセッサP2は、時刻t2から時刻t3までの期間において、第2の導出部D2により、ブロックB2についての動きベクトル#437の導出を行う。ここで、ブロックB2についての動きベクトル#437の導出は、ブロックB1について生成された仮動きベクトル#434を参照して行われる。 On the other hand, in the period from time t2 to time t3, the second processor P2 derives the motion vector # 437 for the block B2 by the second deriving unit D2. Here, the derivation of the motion vector # 437 for the block B2 is performed with reference to the temporary motion vector # 434 generated for the block B1.
 続いて、第2のプロセッサP2は、時刻t3から時刻t4までの期間において、第1の導出部D1の備えるmv導出部LE434により、ブロックB4についての仮動きベクトル#434の導出を行う。 Subsequently, in the period from time t3 to time t4, the second processor P2 derives the temporary motion vector # 434 for the block B4 by the mv deriving unit LE434 included in the first deriving unit D1.
 続いて、第2のプロセッサP2は、時刻t4から時刻t8までの期間において、第1の導出部D1の備えるmv導出部LE434により、ブロックB4についての動きベクトル#433の導出を行う。ここで、上述した動作によって行われるmv導出部HE433による動きベクトル#433の導出のための処理量は、上述した動作によって行われるmv導出部LE434による仮動きベクトル#434の導出のための処理量に比べて大きいため、時刻t4から時刻t8までの期間は、時刻t3から時刻t4までの期間よりも長い。 Subsequently, in the period from time t4 to time t8, the second processor P2 derives the motion vector # 433 for the block B4 by the mv deriving unit LE434 included in the first deriving unit D1. Here, the processing amount for deriving the motion vector # 433 by the mv deriving unit HE433 performed by the above-described operation is the processing amount for deriving the temporary motion vector # 434 by the mv deriving unit LE434 performed by the above-described operation. Therefore, the period from time t4 to time t8 is longer than the period from time t3 to time t4.
 以上の処理によって、第1のプロセッサP1および第2のプロセッサP2は、ブロックB1~B4の各々について、動きベクトルまたは仮動きベクトルの導出を行う。なお、以上の処理に必要な時間は、時刻t1から時刻t8までの期間の長さに対応する。 Through the above processing, the first processor P1 and the second processor P2 derive the motion vector or the temporary motion vector for each of the blocks B1 to B4. The time required for the above processing corresponds to the length of the period from time t1 to time t8.
 上記のように、ブロックB2についての動きベクトルは、ブロックB1について導出された仮動きベクトルを参照して行われる。また、ブロックB1について導出される仮動きベクトルは、参照画像の画素値を参照することなく導出されるため、参照画像上の画素値に生じ得るエラーの影響を受けることがない。 As described above, the motion vector for the block B2 is performed with reference to the temporary motion vector derived for the block B1. Further, since the temporary motion vector derived for the block B1 is derived without referring to the pixel value of the reference image, it is not affected by an error that may occur in the pixel value on the reference image.
 したがって、本実施形態において導出されたブロックB2についての動きベクトルは、参照画像の画素値を参照することによってブロックB1について導出された動きベクトルを参照する場合に比べて、エラーが生じる可能性が低い。 Therefore, the motion vector for the block B2 derived in the present embodiment is less likely to cause an error than when the motion vector derived for the block B1 is referred to by referring to the pixel value of the reference image. .
 なお、例えば、ブロックB1についての仮動きベクトルの生成処理に必要な時間、すなわち、時刻t1から時刻t2までの期間の長さがTであり、ブロックB2についての動きベクトルの導出処理に必要な時間、すなわち、時刻t2から時刻t3までの期間の長さがTであり、ブロックB4についての仮動きベクトルの生成処理に必要な時間、すなわち、時刻t3から時刻t4までの期間の長さがTであり、ブロックB4についての動きベクトルの導出処理に必要な時間、すなわち、時刻t4から時刻t8までの期間の長さがr×Tであるとすると、第1のプロセッサP1および第2のプロセッサP2による並列処理によって、ブロックB1~B4の各々について、動きベクトルを導出するために必要な処理時間T1は、
 T1=3×T+r×T=(r+3)×T
と表すことができる。ここで、上記rは、第1の導出部D1の備えるmv導出部HE433による動きベクトル#433の導出に要する処理時間の、第1の導出部D1の備えるmv導出部LE434による仮動きベクトル#434の導出に要する処理時間、または第2の導出部D2による動きベクトル#437の導出に要する処理時間に対する比を表している。
For example, the time required for the temporary motion vector generation process for block B1, that is, the length of the period from time t1 to time t2 is T, and the time required for the motion vector derivation process for block B2 That is, the length of the period from time t2 to time t3 is T, and the time required for the temporary motion vector generation process for block B4, that is, the length of the period from time t3 to time t4 is T. Yes, assuming that the time required for the motion vector derivation process for the block B4, that is, the length of the period from time t4 to time t8 is r × T, the first processor P1 and the second processor P2 The processing time T1 required for deriving the motion vector for each of the blocks B1 to B4 by parallel processing is:
T1 = 3 × T + r × T = (r + 3) × T
It can be expressed as. Here, r is the provisional motion vector # 434 by the mv deriving unit LE434 provided in the first deriving unit D1 during the processing time required for deriving the motion vector # 433 by the mv deriving unit HE433 provided in the first deriving unit D1. Represents the ratio of the processing time required for deriving or the processing time required for deriving motion vector # 437 by the second deriving unit D2.
 なお、上述した動作によってmv導出部LE434および第2の導出部D2により、参照画像の画素値を参照することなく、仮動きベクトル#434および動きベクトル#437をそれぞれ導出するために要する処理時間は、mv導出部HE433により、参照画像の画素値を参照して動きベクトル#433を導出するために要する処理時間の、1/10から1/1000程度である。したがって、上記rの典型的な値は、10から1000程度である。例えば、仮動きベクトル#434の導出を前述の式(2a)および(2b)に示す方法で行う場合、平均値の導出に加算4回、除算2回の計6回の演算が必要となる。一方、動きベクトル#433の導出に要する演算の回数は以下の通り見積もることができる。ブロックサイズを4×4画素、図4に示した探索範囲SR1の大きさを16×16画素とすると、RB1を設定する候補点の数は13×13=169となる。また、類似度の導出に絶対差分和を用いる場合、4×4画素から成るブロック間の類似度の算出には31回の加減算が必要となる。すなわち、全候補点で類似度を算出するために、169×31=5239回の演算が必要となる。さらに、類似度の比較や動きベクトルのスケーリングに演算が必要となる。したがって、上記例において、仮動きベクトル#434を導出するために要する処理時間は動きベクトル#433を導出するために要する処理時間の1/1000程度となっている。 Note that the processing time required for deriving the temporary motion vector # 434 and the motion vector # 437 by the mv deriving unit LE434 and the second deriving unit D2 by referring to the pixel value of the reference image by the above-described operation is as follows. , Mv deriving unit HE433 is about 1/10 to 1/1000 of the processing time required for deriving motion vector # 433 with reference to the pixel value of the reference image. Therefore, a typical value of r is about 10 to 1000. For example, when derivation of the temporary motion vector # 434 is performed by the method shown in the above-described equations (2a) and (2b), a total of six operations are required for derivation of the average value, that is, four additions and two divisions. On the other hand, the number of operations required to derive the motion vector # 433 can be estimated as follows. If the block size is 4 × 4 pixels and the search range SR1 shown in FIG. 4 is 16 × 16 pixels, the number of candidate points for setting RB1 is 13 × 13 = 169. In addition, when the absolute difference sum is used to derive the similarity, 31 additions / subtractions are required to calculate the similarity between the blocks of 4 × 4 pixels. In other words, 169 × 31 = 5239 operations are required to calculate the similarity at all candidate points. Furthermore, computation is necessary for comparison of similarity and scaling of motion vectors. Therefore, in the above example, the processing time required to derive the temporary motion vector # 434 is about 1/1000 of the processing time required to derive the motion vector # 433.
 (比較例に係る並列処理との比較)
 続いて、比較例に係る第1のプロセッサP1’、および、比較例に係る第2のプロセッサP2’による並列処理について、図8の(b)を参照して説明を行う。ここで、当該比較例に係る第1のプロセッサP1’は、本実施形態に係る第1のプロセッサP1とほぼ同様の処理を行うが、本実施形態に係る第1のプロセッサP1とは異なり、仮動きベクトルの生成を行わない。また、当該比較例に係る第2のプロセッサP2’は、本実施形態に係る第2のプロセッサP2とほぼ同様の処理を行うが、本実施形態に係る第2のプロセッサP2とは異なり、仮動きベクトルの生成を行わない。
(Comparison with parallel processing according to comparative example)
Next, parallel processing by the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example will be described with reference to FIG. Here, the first processor P1 ′ according to the comparative example performs substantially the same processing as the first processor P1 according to the present embodiment, but unlike the first processor P1 according to the present embodiment, Does not generate motion vectors. In addition, the second processor P2 ′ according to the comparative example performs substantially the same processing as the second processor P2 according to the present embodiment, but unlike the second processor P2 according to the present embodiment, the temporary motion Do not generate vectors.
 すなわち、比較例に係る第1のプロセッサP1’および比較例に係る第2のプロセッサP2’の備える第1の導出部D1’は、mv導出部LE434に対応する手段を備えていない。 That is, the first derivation unit D1 'included in the first processor P1' according to the comparative example and the second processor P2 'according to the comparative example does not include means corresponding to the mv derivation unit LE434.
 また、当該比較例に係る第1のプロセッサP1’、および、当該比較例に係る第2のプロセッサP2’は、仮動きベクトルの生成を行わない点を除いては、それぞれ、本実施形態に係る第1のプロセッサP1、および、本実施形態に係る第2のプロセッサP2と同等の処理能力を有する。 In addition, the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example are respectively related to the present embodiment except that the temporary motion vector is not generated. The first processor P1 and the second processor P2 according to this embodiment have the same processing capability.
 なお、以下では、ブロックB1およびブロックB3が、比較例に係る第1のプロセッサP1’によって処理されることが指定されているブロックであり、ブロックB2およびブロックB4が、比較例に係る第2のプロセッサP2’によって処理されることが指定されているブロックであるものとして説明を行う。 In the following, block B1 and block B3 are blocks designated to be processed by the first processor P1 ′ according to the comparative example, and block B2 and block B4 are the second block according to the comparative example. The description will be made assuming that the block is designated to be processed by the processor P2 ′.
 また、以下では、ブロックB1およびブロックB4が、比較例に係る第1のプロセッサP1’または比較例に係る第2のプロセッサP2’の備える第1の導出部D1’によって処理されることが指定されているブロックであり、ブロックB2およびブロックB3は、比較例に係る第1のプロセッサP1’または比較例に係る第2のプロセッサP2’の備える第2の導出部D2’によって処理されることが指定されているブロックであるものとして説明を行う。 In the following, it is specified that the block B1 and the block B4 are processed by the first derivation unit D1 ′ included in the first processor P1 ′ according to the comparative example or the second processor P2 ′ according to the comparative example. The block B2 and the block B3 are specified to be processed by the second derivation unit D2 ′ included in the first processor P1 ′ according to the comparative example or the second processor P2 ′ according to the comparative example. The description will be made on the assumption that the block is a block.
 まず、比較例に係る第1のプロセッサP1’は、時刻t1から時刻t5までの期間において、mv導出部HE433に対応する手段によって、ブロックB1についての動きベクトルの導出を行う。 First, the first processor P1 'according to the comparative example derives a motion vector for the block B1 by means corresponding to the mv deriving unit HE433 during a period from time t1 to time t5.
 続いて、比較例に係る第2のプロセッサP2’は、時刻t5から時刻t6までの期間において、第2の導出部D2’によって、ブロックB2についての動きベクトルの導出を行う。ここで、ブロックB2についての動きベクトルの導出は、ブロックB1について導出された動きベクトルを参照して行われる。したがって、比較例に係る第2のプロセッサP2’は、ブロックB1についての動きベクトルの導出が終了する時刻t5よりも前の時点においては、ブロックB2についての動きベクトルの導出処理を開始することができない。 Subsequently, the second processor P2 'according to the comparative example derives the motion vector for the block B2 by the second deriving unit D2' during the period from the time t5 to the time t6. Here, the derivation of the motion vector for the block B2 is performed with reference to the motion vector derived for the block B1. Therefore, the second processor P2 ′ according to the comparative example cannot start the motion vector derivation process for the block B2 before the time t5 when the derivation of the motion vector for the block B1 ends. .
 続いて、比較例に係る第2のプロセッサP2’は、時刻t6から時刻t9までの期間において、mv導出部HE433に対応する手段によって、ブロックB4についての動きベクトルの導出を行う。 Subsequently, the second processor P2 'according to the comparative example derives a motion vector for the block B4 by means corresponding to the mv deriving unit HE433 during a period from time t6 to time t9.
 一方で、比較例に係る第1のプロセッサP1’は、時刻t6から時刻t7までの期間において、第2の導出部D2’によって、ブロックB3についての動きベクトルの導出を行う。ここで、ブロックB3についての動きベクトルの導出は、ブロックB2について導出された動きベクトルを参照して行われる。 On the other hand, the first processor P1 'according to the comparative example derives a motion vector for the block B3 by the second deriving unit D2' during the period from time t6 to time t7. Here, the motion vector for the block B3 is derived with reference to the motion vector derived for the block B2.
 以上の処理によって、比較例に係る第1のプロセッサP1’、および、比較例に係る第2のプロセッサP2’は、ブロックB1~B4の各々について、動きベクトルの導出を行う。なお、以上の処理に必要な時間は、時刻t1から時刻t9までの期間の長さに対応する。 Through the above processing, the first processor P1 'according to the comparative example and the second processor P2' according to the comparative example derive the motion vector for each of the blocks B1 to B4. The time required for the above processing corresponds to the length of the period from time t1 to time t9.
 上記のように、ブロックB2についての動きベクトルは、ブロックB1について導出された動きベクトルを参照して行われる。ここで、ブロックB1について導出される動きベクトルは、参照画像の画素値を参照することによって導出されるため、参照画像上の画素値に生じ得るエラーの影響を直接的に受ける。 As described above, the motion vector for the block B2 is performed with reference to the motion vector derived for the block B1. Here, since the motion vector derived for the block B1 is derived by referring to the pixel value of the reference image, it is directly affected by an error that may occur in the pixel value on the reference image.
 したがって、当該比較例において導出されたブロックB2についての動きベクトルは、上述した本実施形態において導出されたブロックB2についての動きベクトルに比べて、エラーが生じる可能性が高い。 Therefore, the motion vector for the block B2 derived in the comparative example is more likely to cause an error than the motion vector for the block B2 derived in the above-described embodiment.
 なお、ブロックB1についての動きベクトルの導出処理に必要な時間、すなわち、時刻t1から時刻t5までの期間の長さが、ブロックB4についての動きベクトルの導出処理と同じく、r×Tであるとすると、比較例に係る第1のプロセッサP1’、および、比較例に係る第2のプロセッサP2’による並列処理によって、ブロックB1~B4の各々について、動きベクトルを導出するために必要な処理時間T2は、
 T2=2×r×T+T=(2×r+1)×T
と表すことができる。
It is assumed that the time required for the motion vector derivation process for block B1, that is, the length of the period from time t1 to time t5 is r × T, similar to the motion vector derivation process for block B4. The processing time T2 required to derive the motion vector for each of the blocks B1 to B4 by the parallel processing by the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example is ,
T2 = 2 * r * T + T = (2 * r + 1) * T
It can be expressed as.
 したがって、上記の例においては、本実施形態に係る第1のプロセッサP1および、本実施形態に係る第2のプロセッサP2は、上記rが、r>2を満たす場合に、比較例に係る第1のプロセッサP1’、および比較例に係る第2のプロセッサP2’に比べて、動きベクトルを導出するために必要な処理時間を削減することができる。 Therefore, in the above example, the first processor P1 according to the present embodiment and the second processor P2 according to the present embodiment have the first processor according to the comparative example when r satisfies r> 2. Compared with the second processor P1 ′ and the second processor P2 ′ according to the comparative example, the processing time required to derive the motion vector can be reduced.
 上述のように、mv導出部HE433、mv導出部LE434、および、第2の導出部D2が、上述した動作を行う場合、上記rの値は、10から1000程度であるため、本実施形態に係る第1のプロセッサP1および、本実施形態に係る第2のプロセッサP2は、比較例に係る第1のプロセッサP1’、および比較例に係る第2のプロセッサP2’に比べて、動きベクトルを導出するために必要な処理時間を削減することができる。 As described above, when the mv deriving unit HE433, the mv deriving unit LE434, and the second deriving unit D2 perform the above-described operation, the value of r is about 10 to 1000. The first processor P1 and the second processor P2 according to the present embodiment derive motion vectors compared to the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example. The processing time required to do so can be reduced.
 また、処理時間T2に対する処理時間T1の比
T1/T2=(r+3)/(2×r+1)
は、rが大きくなる程、1/2に近づく。したがって、上述のように、上記rの値が10から1000程度である場合には、本実施形態に係る第1のプロセッサP1および、本実施形態に係る第2のプロセッサP2による並列処理を行うことによって、比較例に係る第1のプロセッサP1’および、比較例に係る第2のプロセッサP2’による並列処理に比べて、動きベクトルの導出に必要な処理時間が略半分に削減される。
Further, the ratio T1 / T2 = (r + 3) / (2 × r + 1) of the processing time T1 to the processing time T2.
Becomes closer to 1/2 as r increases. Therefore, as described above, when the value of r is about 10 to 1000, parallel processing is performed by the first processor P1 according to the present embodiment and the second processor P2 according to the present embodiment. As a result, the processing time required for the derivation of the motion vector is reduced by almost half compared to the parallel processing by the first processor P1 ′ according to the comparative example and the second processor P2 ′ according to the comparative example.
 このように、上述した動作を行う動画像復号装置1によれば、予測画像を生成する際のエラー発生率を低減させることができるのみならず、動きベクトルを導出するための処理時間を削減することができるという効果も奏する。 As described above, according to the video decoding device 1 that performs the above-described operation, not only the error occurrence rate when generating a predicted image can be reduced, but also the processing time for deriving a motion vector can be reduced. There is also an effect of being able to.
 なお、以上の説明では、第1のプロセッサP1および第2のプロセッサP2によって、動きベクトルまたは仮動きベクトルの導出が並列的に行われる場合を例に挙げ、説明を行ったが、これは本実施形態を限定するものではなく、動きベクトルまたは仮動きベクトルの導出は、第1のプロセッサP1または第2のプロセッサP2の何れか一方によって行ってもよい。 In the above description, the case where the derivation of the motion vector or the temporary motion vector is performed in parallel by the first processor P1 and the second processor P2 has been described as an example. The form is not limited, and the derivation of the motion vector or the provisional motion vector may be performed by either the first processor P1 or the second processor P2.
 <付記事項>
 mv導出部HE433による動きベクトルの導出処理、および、mv導出部LE434による仮動きベクトルの導出処理の組み合わせは、上述した例に限定されるものではない。
<Additional notes>
The combination of the motion vector derivation process by the mv derivation unit HE433 and the provisional motion vector derivation process by the mv derivation unit LE434 is not limited to the above-described example.
 例えば、mv導出部LE434は、上述したmv導出部HE433とほぼ同様の処理によって、仮動きベクトル#434を導出する構成としてもよい。ただし、その場合、mv導出部LE434は、イントラ予測によって生成された参照画像のみを参照するものとする。すなわち、mv導出部LE434によって参照される参照画像RF1および参照画像RF2(図4参照)は、何れも、イントラ予測によって生成された参照画像であるものとする(図7の(a)参照)。 For example, the mv deriving unit LE434 may be configured to derive the temporary motion vector # 434 by substantially the same processing as the mv deriving unit HE433 described above. In this case, however, the mv deriving unit LE434 refers only to a reference image generated by intra prediction. In other words, both the reference image RF1 and the reference image RF2 (see FIG. 4) referred to by the mv deriving unit LE434 are reference images generated by intra prediction (see FIG. 7A).
 一方で、mv導出部HE433は、上述した処理とほぼ同様の処理によって動きベクトル#433を導出するが、その際に参照する参照画像には、インター予測によって生成された参照画像が含まれるものとする。すなわち、mv導出部HE433によって参照される参照画像RF1および参照画像RF2のうち、少なくとも一方は、インター予測によって生成された参照画像であるものとする(図7の(b))。 On the other hand, the mv deriving unit HE433 derives the motion vector # 433 by a process substantially similar to the process described above, and the reference image referred to at this time includes a reference image generated by inter prediction. To do. That is, it is assumed that at least one of the reference image RF1 and the reference image RF2 referred to by the mv deriving unit HE433 is a reference image generated by inter prediction ((b) in FIG. 7).
 一般に、インター予測においては、予測対象フレーム以外のフレームを参照画像とし、参照画像に対して、動きベクトルを用いた動き補償を行うことによって予測画像を生成するため、動きベクトルにエラーが生じた場合、当該エラーの影響により、予測画像にもエラーが生じる。 In general, in inter prediction, when a frame other than the prediction target frame is used as a reference image and a predicted image is generated by performing motion compensation on the reference image using a motion vector, an error occurs in the motion vector. An error also occurs in the predicted image due to the influence of the error.
 一方で、イントラ予測においては、予測対象フレーム上の参照画像の画素値を外挿することによって、当該予測対象フレーム上の予測対象領域における予測画像を生成する。したがって、イントラ予測においては、動きベクトルを参照することなく、予測画像を生成するため、インター予測に比べて、予測画像にエラーが生じる可能性が低い。 On the other hand, in intra prediction, a prediction image in a prediction target region on the prediction target frame is generated by extrapolating a pixel value of a reference image on the prediction target frame. Therefore, in intra prediction, since a prediction image is generated without referring to a motion vector, the possibility that an error occurs in the prediction image is lower than in inter prediction.
 このように、イントラ予測によって生成された参照画像のみを参照してmv導出部LE434により導出された仮動きベクトル#434には、インター予測によって生成された参照画像を参照してmv導出部HE433により導出された動きベクトル#433よりも、エラーが生じる可能性が低い。 Thus, the temporary motion vector # 434 derived by the mv deriving unit LE434 with reference to only the reference image generated by the intra prediction is referred to by the mv deriving unit HE433 by referring to the reference image generated by the inter prediction. The possibility of an error is lower than that of the derived motion vector # 433.
 <本実施形態に係る動画像復号装置の他の構成例>
 本実施形態に係る動画像復号装置の構成は、上述した構成に限られるものではない。本実施形態に係る動画像復号装置は、mv導出部LE434を備えない構成としてもよい。このような構成の場合、mv導出部N436は、mv導出部HE433によって導出される動きベクトル#433を参照することなく、対象ブロックに隣接する参照ブロック、または、対象ブロックと頂点を共有する参照ブロックについて第2の導出部D2によって導出された動きベクトル#437を参照して、当該対象ブロックについての予測動きベクトル#436を導出する構成とすればよい。それ以外の構成は、すでに述べた構成と同様の構成とすることができる。
<Another configuration example of the video decoding device according to the present embodiment>
The configuration of the video decoding device according to the present embodiment is not limited to the configuration described above. The moving picture decoding apparatus according to the present embodiment may be configured not to include the mv deriving unit LE434. In such a configuration, the mv deriving unit N436 does not refer to the motion vector # 433 derived by the mv deriving unit HE433, and the reference block adjacent to the target block or the reference block sharing the vertex with the target block Referring to the motion vector # 437 derived by the second deriving unit D2, the predicted motion vector # 436 for the target block may be derived. Other configurations can be the same as the configurations already described.
 このように構成された動画像復号装置は、エラーの生じる可能性の高い動きベクトル#433を参照することなく対象ブロックについての予測動きベクトル#436を導出するので、予測動きベクトル#436にエラーが生じる可能性を低減することができる。 The moving picture decoding apparatus configured as described above derives the predicted motion vector # 436 for the target block without referring to the motion vector # 433 that is highly likely to cause an error, and thus an error occurs in the predicted motion vector # 436. The possibility of occurring can be reduced.
 したがって、そのような予測動きベクトル#436に基づいて生成される動きベクトル#437を用いて、動き補償予測部44により生成される予測画像#44にエラーが生じる可能性を低減することができる。 Therefore, by using the motion vector # 437 generated based on such a predicted motion vector # 436, it is possible to reduce the possibility of an error occurring in the predicted image # 44 generated by the motion compensation prediction unit 44.
 また、このように構成された動画像復号装置は、処理量の大きい導出方法によって導出される動きベクトル#433を参照することなく、対象ブロックについての動きベクトル#437を導出するので、遅延時間を削減し、処理効率を向上させることができる。 In addition, the moving picture decoding apparatus configured as described above derives the motion vector # 437 for the target block without referring to the motion vector # 433 derived by the derivation method having a large processing amount. Can be reduced and the processing efficiency can be improved.
 (動画像符号化装置2)
 以下では、本実施形態に係る動画像符号化装置(符号化装置)2について、図10~図11を参照して説明する。
(Moving picture encoding device 2)
Hereinafter, the moving picture encoding apparatus (encoding apparatus) 2 according to the present embodiment will be described with reference to FIGS.
 図10は、動画像符号化装置2の構成を示すブロック図である。図10に示すように、動画像符号化装置2は、ヘッダ情報決定部21、ヘッダ情報符号化部22、MB設定部23、MB符号化部24、可変長符号多重化部25、MB復号部26、および、フレームメモリ27を備えている。 FIG. 10 is a block diagram showing a configuration of the moving picture coding apparatus 2. As shown in FIG. 10, the moving picture encoding apparatus 2 includes a header information determination unit 21, a header information encoding unit 22, an MB setting unit 23, an MB encoding unit 24, a variable length code multiplexing unit 25, and an MB decoding unit. 26 and a frame memory 27.
 動画像符号化装置2は、概略的に言えば、入力画像#100を符号化することによって符号化データ#1を生成し、出力する装置である。また、動画像符号化装置2は、その一部に、H.264/MPEG-4 AVC規格に採用されている技術を用いている動画像符号化装置である。 The video encoding device 2 is a device that generates and outputs encoded data # 1 by encoding the input image # 100, in brief. In addition, the moving image encoding apparatus 2 includes, as part thereof, H.264. H.264 / MPEG-4 A moving picture coding apparatus using the technology adopted in the AVC standard.
 ヘッダ情報決定部21は、入力画像#100に基づいて、ヘッダ情報を決定する。決定されたヘッダ情報はヘッダ情報#21として出力される。ヘッダ情報#21には、入力画像#100の画像サイズが含まれる。ヘッダ情報#21は、MB設定部23に入力されると共に、ヘッダ情報符号化部22に供給される。 The header information determination unit 21 determines header information based on the input image # 100. The determined header information is output as header information # 21. The header information # 21 includes the image size of the input image # 100. The header information # 21 is input to the MB setting unit 23 and supplied to the header information encoding unit 22.
 ヘッダ情報符号化部22は、ヘッダ情報#21を符号化し、符号化済ヘッダ情報#22を出力する。符号化済ヘッダ情報#22は、可変長符号多重化部25に供給される。 The header information encoding unit 22 encodes header information # 21 and outputs encoded header information # 22. The encoded header information # 22 is supplied to the variable length code multiplexer 25.
 MB設定部23は、ヘッダ情報#21に基づいて、入力画像#100を複数のマクロブロックに分割し、各マクロブロックに関するマクロブロック画像#23を出力する。マクロブロック画像#23は、MB符号化部24に順次供給される。 The MB setting unit 23 divides the input image # 100 into a plurality of macro blocks based on the header information # 21, and outputs a macro block image # 23 related to each macro block. The macro block image # 23 is sequentially supplied to the MB encoding unit 24.
 MB符号化部24は、順次入力されるマクロブロック画像#23を符号化し、MB符号化データ#24を生成する。生成されたMB符号化データ#24は、可変長符号多重化部25、およびMB復号部26に供給される。MB符号化部24の構成については、後述するため、ここでは説明を省略する。 The MB encoding unit 24 encodes sequentially input macroblock images # 23 to generate MB encoded data # 24. The generated MB encoded data # 24 is supplied to the variable length code multiplexer 25 and the MB decoder 26. Since the configuration of the MB encoding unit 24 will be described later, the description thereof is omitted here.
 可変長符号多重化部25は、符号化済ヘッダ情報#22と、MB符号化データ#24とを多重化することによって符号化データ#1を生成し、出力する。 The variable length code multiplexer 25 generates encoded data # 1 by multiplexing the encoded header information # 22 and the MB encoded data # 24, and outputs the encoded data # 1.
 MB復号部26は、入力された個々のマクロブロックに対応するMB符号化データ#24を順次復号することにより、個々のマクロブロックに対応する復号画像#26を生成し、出力する。復号画像#26は、フレームメモリ27に供給される。 The MB decoding unit 26 generates and outputs a decoded image # 26 corresponding to each macroblock by sequentially decoding the MB encoded data # 24 corresponding to each input macroblock. The decoded image # 26 is supplied to the frame memory 27.
 フレームメモリ27には、入力された復号画像#26が記録される。対象マクロブロックを符号化する時点では、当該対象マクロブロックよりもラスタスキャン順で先行する全てのマクロブロックに対応する復号画像がフレームメモリ27に記録されている。なお、フレームメモリに記録された復号画像を復号画像#27と呼ぶ。すなわち、復号画像#27は、フレームメモリ27に記録された復号画像#26に対応している。 The input decoded image # 26 is recorded in the frame memory 27. At the time of encoding the target macroblock, decoded images corresponding to all macroblocks preceding the target macroblock in the raster scan order are recorded in the frame memory 27. The decoded image recorded in the frame memory is called decoded image # 27. That is, the decoded image # 27 corresponds to the decoded image # 26 recorded in the frame memory 27.
 (MB符号化部24)
 以下では、MB符号化部24の構成について、図11を参照して説明する。
(MB encoding unit 24)
Below, the structure of the MB encoding part 24 is demonstrated with reference to FIG.
 図11は、MB符号化部24の構成を示すブロック図である。図11に示すように、MB符号化部24は、インター予測タイプ決定部241、スイッチ部242、mv導出部HE243、mv導出部LE244、動き探索部245、mv導出部N246、減算器247、mv残差符号化部248、減算器249、mvバッファ250、動き補償予測部251、予測残差符号化部252、および、MB符号化データ生成部253を備えている。 FIG. 11 is a block diagram showing a configuration of the MB encoding unit 24. As illustrated in FIG. 11, the MB encoding unit 24 includes an inter prediction type determination unit 241, a switch unit 242, an mv derivation unit HE243, an mv derivation unit LE244, a motion search unit 245, an mv derivation unit N246, a subtractor 247, mv. A residual encoding unit 248, a subtractor 249, an mv buffer 250, a motion compensation prediction unit 251, a prediction residual encoding unit 252, and an MB encoded data generation unit 253 are provided.
 また、mv導出部HE243およびmv導出部LE244は、第1の導出部D21を構成し、動き探索部245およびmv導出部N246は、第2の導出部D22を構成する。 Also, the mv derivation unit HE243 and the mv derivation unit LE244 constitute a first derivation unit D21, and the motion search unit 245 and the mv derivation unit N246 constitute a second derivation unit D22.
 (インター予測タイプ決定部241)
 インター予測タイプ決定部241は、マクロブロック画像#23が入力された時点で起動し、対象マクロブロックに属する各ブロックにおける予測画像の生成に用いられる動きベクトルの導出方法を、所定のアルゴリズムに基づいて、ブロック毎に決定する。
(Inter prediction type determination unit 241)
The inter prediction type determination unit 241 is activated when the macroblock image # 23 is input, and determines a motion vector derivation method used for generating a prediction image in each block belonging to the target macroblock based on a predetermined algorithm. Determine for each block.
 より具体的には、インター予測タイプ決定部241は、各ブロックについて、インター予測タイプHEまたはインター予測タイプNのうち何れの予測タイプに分類すべきかを決定する。ここで、動画像復号装置1の説明において述べたように、インター予測タイプHEに対応するブロックは、インター予測タイプNに対応するブロックに比べて、動きベクトルを導出するための処理量が大きいという傾向がある。 More specifically, the inter prediction type determination unit 241 determines which prediction type should be classified among the inter prediction type HE or the inter prediction type N for each block. Here, as described in the description of the video decoding device 1, a block corresponding to the inter prediction type HE has a larger processing amount for deriving a motion vector than a block corresponding to the inter prediction type N. Tend.
 また、インター予測タイプ決定部241は、各ブロックが、インター予測タイプHEまたはインター予測タイプNのうち何れの予測タイプに分類されるのかを示す情報であるインター予測タイプ指定情報#241を出力する。 Also, the inter prediction type determination unit 241 outputs inter prediction type designation information # 241 that is information indicating which prediction type each block is classified into inter prediction type HE or inter prediction type N.
 なお、上記所定のアルゴリズムとしては、例えば、対象マクロブロックを構成するブロックがn個である場合に、各ブロックをインター予測タイプHEまたはインター予測タイプNのうち何れかの予測タイプに分類することによって得られる2n通りの組み合わせ全てについて、予測画像の生成を行い、生成された予測画像とマクロブロック画像#23との残差データを符号化する場合の符号化効率を最適化するような予測タイプの組み合わせを決定するアルゴリズムを用いればよい。また、上記符号化効率を評価する指標としては、レート歪みコストを用いることができる。 As the predetermined algorithm, for example, when there are n blocks constituting the target macroblock, each block is classified into one of the prediction types of inter prediction type HE or inter prediction type N. Prediction type that generates prediction images for all 2 n combinations obtained and optimizes encoding efficiency when encoding residual data between the generated prediction images and macroblock image # 23 It is sufficient to use an algorithm for determining the combination of. As an index for evaluating the coding efficiency, rate distortion cost can be used.
 (スイッチ部242)
 スイッチ部242は、インター予測タイプ指定情報#241に基づいて、マクロブロック画像#23を、ブロック単位で、第1の導出部D21および第2の導出部D22の何れか一方に伝達する。より具体的には、スイッチ部242は、インター予測タイプ指定情報#241が、対象ブロックがインター予測タイプHEに分類されていることを示している場合には、マクロブロック画像#23のうち対象ブロックに関する画像を第1の導出部D21に伝達し、インター予測タイプ指定情報#241が、対象ブロックがインター予測タイプNに分類されていることを示している場合には、マクロブロック画像#23のうち対象ブロックに関する画像を第2の導出部D22に伝達する。
(Switch unit 242)
Based on the inter prediction type designation information # 241, the switch unit 242 transmits the macroblock image # 23 to one of the first derivation unit D21 and the second derivation unit D22 in units of blocks. More specifically, the switch unit 242, when the inter prediction type designation information # 241 indicates that the target block is classified into the inter prediction type HE, the target block in the macroblock image # 23. When the inter prediction type designation information # 241 indicates that the target block is classified into the inter prediction type N, the image regarding the macro block image # 23 is transmitted. An image related to the target block is transmitted to the second deriving unit D22.
 (mv導出部HE243)
 mv導出部HE243は、フレームメモリ27に記録されている復号画像#27のうち、2枚の参照画像(参照フレーム)を参照して、対象ブロックに対する動きベクトル#243を導出する。
(Mv derivation unit HE243)
The mv deriving unit HE243 derives a motion vector # 243 for the target block with reference to two reference images (reference frames) among the decoded images # 27 recorded in the frame memory 27.
 また、mv導出部HE243は、上記参照画像を指定する情報である参照画像インデックスを、MB符号化データ生成部253に対して出力し、MB符号化データ生成部253は、当該参照画像インデックスを符号化する。 Further, the mv deriving unit HE243 outputs a reference image index, which is information for designating the reference image, to the MB encoded data generation unit 253, and the MB encoded data generation unit 253 encodes the reference image index. Turn into.
 mv導出部HE243による動きベクトル#243の導出は、動画像復号装置1の備えるmv導出部HE433による動きベクトル#433の導出と同様の処理によって行うことができる。 The derivation of the motion vector # 243 by the mv derivation unit HE243 can be performed by the same process as the derivation of the motion vector # 433 by the mv derivation unit HE433 provided in the video decoding device 1.
 また、導出された動きベクトル#243は、動き補償予測部251に対して出力される。 Further, the derived motion vector # 243 is output to the motion compensation prediction unit 251.
 (mv導出部LE244)
 mv導出部LE244は、同一フレームにおいて対象ブロックに隣接するブロック、または、対象ブロックと頂点を共有するブロックについて動き探索部245によって導出された動きベクトル#245を参照して、当該対象ブロックに対して暫定的に設定される仮動きベクトル#244を生成する。
(Mv derivation unit LE244)
The mv deriving unit LE244 refers to the motion vector # 245 derived by the motion search unit 245 for a block adjacent to the target block in the same frame or a block sharing a vertex with the target block, A provisional motion vector # 244 that is provisionally set is generated.
 mv導出部LE244による仮動きベクトル#244の導出は、動画像復号装置1の備えるmv導出部LE434による仮動きベクトル#434の導出と同様の処理によって行うことができる。ただし、ここでは、「インター予測タイプ指定情報#431」を「インター予測タイプ指定情報#241」と読み替えるものとする(動画像符号化装置2において以下同様)。 The derivation of the temporary motion vector # 244 by the mv derivation unit LE244 can be performed by the same process as the derivation of the temporary motion vector # 434 by the mv derivation unit LE434 provided in the video decoding device 1. However, here, “inter prediction type designation information # 431” is read as “inter prediction type designation information # 241” (the same applies to the moving picture coding apparatus 2).
 (動き探索部245)
 動き探索部245は、フレームメモリ27に格納されている復号画像#27およびマクロブロック画像#23を参照し、動き探索を行うことによって、動きベクトル#245を生成する。生成された動きベクトル#245は、mvバッファ250に格納されると共に、減算器247および動き補償予測部251に対して出力される。
(Motion search unit 245)
The motion search unit 245 generates a motion vector # 245 by performing a motion search with reference to the decoded image # 27 and the macroblock image # 23 stored in the frame memory 27. The generated motion vector # 245 is stored in the mv buffer 250 and is output to the subtracter 247 and the motion compensation prediction unit 251.
 (mv導出部N246)
 mv導出部N246は、同一フレームにおいて対象ブロックに隣接するブロック、または、対象ブロックと頂点を共有するブロックについて動き探索部245によって導出された動きベクトル#245を参照して、当該対象ブロックに対する動きベクトルの予測値である予測動きベクトル#246を導出する。導出された予測動きベクトル#246は、減算器247に対して出力される。
(Mv derivation unit N246)
The mv deriving unit N246 refers to the motion vector # 245 derived by the motion search unit 245 for a block adjacent to the target block in the same frame or a block sharing a vertex with the target block, and a motion vector for the target block A predicted motion vector # 246 that is a predicted value of is derived. The derived predicted motion vector # 246 is output to the subtracter 247.
 mv導出部N246による予測動きベクトル#246の導出は、動画像復号装置1の備えるmv導出部N436による予測動きベクトル#246の導出と同様の処理によって行うことができる。 The derivation of the predicted motion vector # 246 by the mv derivation unit N246 can be performed by the same processing as the derivation of the predicted motion vector # 246 by the mv derivation unit N436 included in the video decoding device 1.
 減算器247は、動きベクトル#245と予測動きベクトル#246との差分をとることによって差分動きベクトル#247を生成し、出力する。 The subtractor 247 generates and outputs a difference motion vector # 247 by taking the difference between the motion vector # 245 and the predicted motion vector # 246.
 mv残差符号化部248は、差分動きベクトル#247を符号化し、符号化された差分動きベクトル#248をMB符号化データ生成部253に対して出力する。 The mv residual encoding unit 248 encodes the differential motion vector # 247 and outputs the encoded differential motion vector # 248 to the MB encoded data generation unit 253.
 動き補償予測部251は、フレームメモリ27に格納された復号画像#27に対して、動きベクトル#243または動きベクトル#245に基づいた動き補償を行うことによって予測画像#251を生成し、出力する。 The motion compensation prediction unit 251 generates and outputs a predicted image # 251 by performing motion compensation on the decoded image # 27 stored in the frame memory 27 based on the motion vector # 243 or the motion vector # 245. .
 減算器249は、マクロブロック画像#23と予測画像#251との差分をとることによって予測残差#249を生成し、出力する。 The subtractor 249 generates and outputs a prediction residual # 249 by taking the difference between the macroblock image # 23 and the prediction image # 251.
 予測残差符号化部252は、予測残差#249を符号化し、符号化された予測画像#252をMB符号化データ生成部253に対して出力する。 The prediction residual encoding unit 252 encodes the prediction residual # 249, and outputs the encoded prediction image # 252 to the MB encoded data generation unit 253.
 MB符号化データ生成部253は、符号化された予測画像#252、差分動きベクトル#248、および、インター予測タイプ指定情報#241を多重化することによって、MB符号化データ#24を生成し、出力する。 The MB encoded data generation unit 253 generates MB encoded data # 24 by multiplexing the encoded predicted image # 252, differential motion vector # 248, and inter prediction type designation information # 241, Output.
 mvバッファ250には、仮動きベクトル#244、動きベクトル#243、および、動きベクトル#245が格納される。 The mv buffer 250 stores temporary motion vector # 244, motion vector # 243, and motion vector # 245.
 以上のように構成された動画像符号化装置2は、エラーの生じる可能性の高い動きベクトル#243参照せず、エラーの生じる可能性の低い仮動きベクトル#244を参照して、対象ブロックについての予測動きベクトル#246を導出するので、予測動きベクトル#246にエラーが生じる可能性を低減することができる。 The moving image encoding apparatus 2 configured as described above does not refer to the motion vector # 243 that is likely to cause an error, but refers to the temporary motion vector # 244 that is less likely to cause an error. Therefore, it is possible to reduce the possibility that an error occurs in the predicted motion vector # 246.
 また、以上のように構成された動画像符号化装置2は、処理量の大きい導出方法によって導出される動きベクトル#243を参照せず、処理量の小さい導出方法によって導出された仮動きベクトル#244を参照して、対象ブロックについての予測動きベクトル#246を導出するので、遅延時間を削減し、処理効率を向上させることができる。また、動画像符号化装置2は、対応する動画像復号装置(例えば動画像復号装置1)において、少ない遅延時間で復号可能である符号化データを生成できる。 In addition, the moving image encoding apparatus 2 configured as described above does not refer to the motion vector # 243 derived by the derivation method having a large processing amount, but the temporary motion vector # derived by the derivation method having a small processing amount. Since the prediction motion vector # 246 for the target block is derived with reference to 244, the delay time can be reduced and the processing efficiency can be improved. In addition, the moving image encoding device 2 can generate encoded data that can be decoded with a small delay time in a corresponding moving image decoding device (for example, the moving image decoding device 1).
 <本実施形態に係る動画像符号化装置の他の構成例>
 本実施形態に係る動画像符号化装置の構成は、上述した構成に限られるものではない。本実施形態に係る動画像符号化装置は、mv導出部LE244を備えない構成としてもよい。このような構成の場合、mv導出部N246は、mv導出部HE243によって導出される動きベクトル#243を参照することなく、対象ブロックに隣接する参照ブロック、または、対象ブロックと頂点を共有する参照ブロックについて、動き探索部245により導出された動きベクトル#245を参照して、当該対象ブロックについての予測動きベクトル#246を導出する構成とすればよい。それ以外の構成は、すでに述べた構成と同様の構成とすることができる。
<Another Configuration Example of Video Encoding Device According to this Embodiment>
The configuration of the moving image encoding apparatus according to the present embodiment is not limited to the configuration described above. The moving image encoding apparatus according to the present embodiment may be configured not to include the mv deriving unit LE244. In such a configuration, the mv deriving unit N246 does not refer to the motion vector # 243 derived by the mv deriving unit HE243, and the reference block adjacent to the target block or the reference block sharing the vertex with the target block For the above, the motion vector # 245 derived by the motion search unit 245 may be referenced to derive the predicted motion vector # 246 for the target block. Other configurations can be the same as the configurations already described.
 このように構成された動画像復号装置は、エラーの生じる可能性の高い動きベクトル#243を参照することなく対象ブロックについての予測動きベクトル#246を導出するので、予測動きベクトル#246にエラーが生じる可能性を低減することができる。また、動画像符号化装置2は、対応する動画像復号装置(例えば動画像復号装置1)において復号する際にエラーが発生する可能性の低い符号化データを生成できる。 The moving picture decoding apparatus configured in this way derives the predicted motion vector # 246 for the target block without referring to the motion vector # 243 that is highly likely to cause an error, so that an error occurs in the predicted motion vector # 246. The possibility of occurring can be reduced. In addition, the video encoding device 2 can generate encoded data that is less likely to cause an error when being decoded by a corresponding video decoding device (for example, the video decoding device 1).
 また、このように構成された動画像符号化装置は、処理量の大きい導出方法によって導出される動きベクトル#243を参照することなく、対象ブロックについての予測動きベクトル#246を導出するので、遅延時間を削減し、処理効率を向上させることができる。 Also, the moving picture coding apparatus configured in this manner derives the predicted motion vector # 246 for the target block without referring to the motion vector # 243 derived by the derivation method having a large processing amount, so that the delay Time can be reduced and processing efficiency can be improved.
 〔実施形態2〕
 以下では、本発明の第2の実施形態について、図1222を参照して説明する。
[Embodiment 2]
Hereinafter, a second embodiment of the present invention will be described with reference to FIG.
 実施形態1においては、符号化パラメータとして、画面間予測による予測画像の生成に用いられる動きベクトルを例に挙げ説明を行ったが、本発明はこれに限定されるものではない。 In the first embodiment, the description has been given by taking, as an example, a motion vector used for generating a predicted image by inter-screen prediction as an encoding parameter, but the present invention is not limited to this.
 以下では、符号化パラメータとして、画面内予測(イントラ予測)による予測画像の生成に用いられる予測モードを例に挙げ説明を行う。 Hereinafter, a description will be given by taking, as an example, a prediction mode used for generating a predicted image by intra prediction (intra prediction) as an encoding parameter.
 (符号化データ#3)
 符号化データ#3の構成は、実施形態1において説明した符号化データ#1の構成と同様である。
(Encoded data # 3)
The configuration of the encoded data # 3 is the same as the configuration of the encoded data # 1 described in the first embodiment.
 (動画像復号装置3)
 以下では、本実施形態に係る動画像復号装置(復号装置)3の構成について、図12~図19を参照して説明する。動画像復号装置3は、その一部に、H.264/MPEG-4 AVC規格に採用されている技術を用いている動画像復号装置である。
(Moving picture decoding apparatus 3)
Hereinafter, the configuration of the video decoding device (decoding device) 3 according to the present embodiment will be described with reference to FIGS. The moving image decoding apparatus 3 includes H.264 as a part thereof. This is a moving picture decoding apparatus using a technique adopted in the H.264 / MPEG-4 AVC standard.
 動画像復号装置3は、予測単位毎に予測画像を生成し、生成された予測画像と、符号化データ#3から復号された予測残差とを加算することによって復号画像#4を生成し、出力する。以下では、上記予測単位が、マクロブロックを構成するブロックである場合を例に挙げ説明を行うが、本実施形態はこれに限定されるものではなく、予測単位がブロックよりも大きい単位である場合、および、予測単位がブロックよりも小さい単位である場合に対しても適用することができる。 The video decoding device 3 generates a predicted image for each prediction unit, generates a decoded image # 4 by adding the generated predicted image and the prediction residual decoded from the encoded data # 3, Output. In the following, the case where the prediction unit is a block constituting a macroblock will be described as an example. However, the present embodiment is not limited to this, and the prediction unit is a unit larger than the block. It can also be applied to the case where the prediction unit is a unit smaller than the block.
 また、以下では、復号の対象となるフレーム、スライス、マクロブロック、および、ブロックをそれぞれ、対象フレーム、対象スライス、対象マクロブロック、対象ブロックと呼ぶことにする。 In the following, a frame, a slice, a macroblock, and a block to be decoded are referred to as a target frame, a target slice, a target macroblock, and a target block, respectively.
 なお、マクロブロックのサイズは、例えば16×16画素であり、ブロックのサイズは、例えば4×4画素であるが、これらのサイズは本実施形態を限定するものではなく、マクロブロックのサイズを16×32画素、32×16画素、32×32画素、32×64画素、64×32画素、および、64画素×64画素などとしてもよいし、ブロックのサイズを4×8画素、8×4画素、または、8×8画素などとしてもよい。 The size of the macroblock is, for example, 16 × 16 pixels, and the size of the block is, for example, 4 × 4 pixels. However, these sizes are not limited to the present embodiment, and the size of the macroblock is 16 × 32 pixels, 32 × 16 pixels, 32 × 32 pixels, 32 × 64 pixels, 64 × 32 pixels, 64 pixels × 64 pixels, and the like, and the block size may be 4 × 8 pixels, 8 × 4 pixels. Or 8 × 8 pixels or the like.
 また、以下では、実施形態1において既に説明した部分には、同じ符号を付し、その説明を省略する。 In the following description, the same reference numerals are given to the parts already described in the first embodiment, and the description thereof is omitted.
 図12は、動画像復号装置3の構成を示すブロック図である。図12に示すように、動画像復号装置3は、可変長符号逆多重化部11、ヘッダ情報復号部12、MB設定部13、MB復号部34、および、フレームメモリ15を備えている。すなわち、動画像復号装置3は、動画像復号装置1の備えるMB復号部14に代えて、MB復号部34を備えている。動画像復号装置3のその他の構成は、動画像復号装置1の構成と同様である。 FIG. 12 is a block diagram showing a configuration of the video decoding device 3. As shown in FIG. 12, the video decoding device 3 includes a variable length code demultiplexing unit 11, a header information decoding unit 12, an MB setting unit 13, an MB decoding unit 34, and a frame memory 15. That is, the video decoding device 3 includes an MB decoding unit 34 instead of the MB decoding unit 14 included in the video decoding device 1. Other configurations of the video decoding device 3 are the same as those of the video decoding device 1.
 (MB復号部34)
 以下では、MB復号部34について、図13を参照して説明する。
(MB decoding unit 34)
Hereinafter, the MB decoding unit 34 will be described with reference to FIG.
 図13は、MB復号部34の構成を示すブロック図である。図13に示すように、MB復号部34は、予測残差復号部141、予測画像生成部342、および、加算器343を備えている。 FIG. 13 is a block diagram showing a configuration of the MB decoding unit 34. As illustrated in FIG. 13, the MB decoding unit 34 includes a prediction residual decoding unit 141, a predicted image generation unit 342, and an adder 343.
 予測残差復号部141は、入力された符号化データ#13に対応するマクロブロック(対象マクロブロック)に含まれる各ブロックの符号化データに対し可変長符号復号を適用することによって、ブロックに対する変換係数を生成する。また、予測残差復号部341は、生成した変換係数に対して、DCT(Discrete Cosine Transform)の逆変換を適用することによって予測残差#141を生成する。また、生成された予測残差#141は、加算器343に供給される。 The prediction residual decoding unit 141 applies variable length code decoding to the encoded data of each block included in the macroblock (target macroblock) corresponding to the input encoded data # 13, thereby converting the block. Generate coefficients. Also, the prediction residual decoding unit 341 generates a prediction residual # 141 by applying a reverse transform of DCT (Discrete Cosine Transform) to the generated transform coefficient. The generated prediction residual # 141 is supplied to the adder 343.
 予測画像生成部342は、対象マクロブロックに含まれる各ブロックについて、画面内予測(イントラ予測)によって、予測画像#342を生成する。予測画像生成部342によって生成された予測画像#142は、加算器143に供給される。なお、予測画像生成部342の具体的な構成については、後述する。 The predicted image generation unit 342 generates a predicted image # 342 by intra prediction (intra prediction) for each block included in the target macroblock. The predicted image # 142 generated by the predicted image generation unit 342 is supplied to the adder 143. A specific configuration of the predicted image generation unit 342 will be described later.
 加算器343は、(1)予測残差#141と予測画像#342とを加算することによって復号画像#4を生成し、(2)生成した復号画像#4を外部に出力し、(3)生成した復号画像#4をフレームメモリ15に格納する。 The adder 343 generates a decoded image # 4 by adding (1) the prediction residual # 141 and the prediction image # 342, (2) outputs the generated decoded image # 4 to the outside, and (3) The generated decoded image # 4 is stored in the frame memory 15.
 (予測画像生成部342)
 図13に示すように、予測画像生成部342は、並列処理制御部51、スイッチ部52、予測モード復号部53、イントラ予測部54、予測モード復号部55、イントラ予測部56、および、予測モードバッファ57を備えている。また、予測モード復号部53およびイントラ予測部54は、第1のプロセッサP31を構成し、予測モード復号部55およびイントラ予測部56は、第2のプロセッサP32を構成する。すなわち、予測モード復号部53およびイントラ予測部54は、予測モード復号部55およびイントラ予測部56とは異なるプロセッサ上で動作する。
(Predicted image generation unit 342)
As illustrated in FIG. 13, the predicted image generation unit 342 includes a parallel processing control unit 51, a switch unit 52, a prediction mode decoding unit 53, an intra prediction unit 54, a prediction mode decoding unit 55, an intra prediction unit 56, and a prediction mode. A buffer 57 is provided. Moreover, the prediction mode decoding part 53 and the intra prediction part 54 comprise the 1st processor P31, and the prediction mode decoding part 55 and the intra prediction part 56 comprise the 2nd processor P32. That is, the prediction mode decoding unit 53 and the intra prediction unit 54 operate on a different processor from the prediction mode decoding unit 55 and the intra prediction unit 56.
 並列処理制御部51は、符号化データ#13を復号することによって得られる並列処理制御情報PPIに基づいて、対象マクロブロックについての予測画像を、第1のプロセッサP31または第2のプロセッサP32の何れのプロセッサを用いて生成すべきかを判別し、判別した結果を示す判別情報#51を、スイッチ部52に対して出力する。 Based on the parallel processing control information PPI obtained by decoding the encoded data # 13, the parallel processing control unit 51 generates a predicted image for the target macroblock from either the first processor P31 or the second processor P32. It is discriminated whether the data should be generated using this processor, and discrimination information # 51 indicating the discrimination result is output to the switch unit 52.
 スイッチ部52は、判別情報#51に基づいて、符号化データ#13を、第1のプロセッサP31の備える予測モード復号部53、または、第2のプロセッサP32の備える予測モード復号部55の何れか一方に伝達する。 Based on the discrimination information # 51, the switch unit 52 converts the encoded data # 13 to either the prediction mode decoding unit 53 provided in the first processor P31 or the prediction mode decoding unit 55 provided in the second processor P32. Communicate to one side.
 予測モード復号部53は、予測モードバッファに格納されている復号済みの予測モード#57、および、フレームメモリ15に記録されている復号画像#15のうち対象ブロックと同じフレームに含まれる各ブロックについての復号画像#15’を参照し、符号化データ#13に含まれる、対象ブロックについての予測モード#53を復号する。復号された予測モード#53は、イントラ予測部54に供給されると共に、予測モードバッファ57に格納される。なお、予測モードとは、画面内予測により予測画像を生成する際に用いられるパラメータである。予測モード復号部53の具体的な構成については、後述するため、ここでは説明を省略する。 The prediction mode decoding unit 53 performs the decoding of the prediction mode # 57 stored in the prediction mode buffer and each block included in the same frame as the target block among the decoded image # 15 recorded in the frame memory 15. Referring to the decoded image # 15 ′, the prediction mode # 53 for the target block included in the encoded data # 13 is decoded. The decoded prediction mode # 53 is supplied to the intra prediction unit 54 and stored in the prediction mode buffer 57. The prediction mode is a parameter used when generating a predicted image by intra-screen prediction. Since the specific configuration of the prediction mode decoding unit 53 will be described later, description thereof is omitted here.
 イントラ予測部54は、復号画像#15’に対して、予測モード#53に基づいた画面内予測を行うことによって予測画像#54を生成し、出力する。イントラ予測部54による予測画像#54の生成は、後述する動画像符号化装置4の備えるイントラ予測部648による予測画像#648の生成と同様の処理によって行うことができる。 The intra prediction unit 54 generates and outputs a predicted image # 54 by performing intra-screen prediction based on the prediction mode # 53 for the decoded image # 15 '. The generation of the predicted image # 54 by the intra prediction unit 54 can be performed by the same process as the generation of the predicted image # 648 by the intra prediction unit 648 included in the moving image encoding device 4 described later.
 予測モード復号部55は、予測モード復号部53と同様の動作を行うことによって、予測モード#55を復号する。復号された予測モード#55は、イントラ予測部56に供給されると共に、予測モードバッファ57に格納される。 The prediction mode decoding unit 55 decodes the prediction mode # 55 by performing the same operation as the prediction mode decoding unit 53. The decoded prediction mode # 55 is supplied to the intra prediction unit 56 and stored in the prediction mode buffer 57.
 イントラ予測部56は、復号画像#15’に対して、予測モード#55に基づいた画面内予測を行うことによって予測画像#56を生成し、出力する。 The intra prediction unit 56 generates and outputs a predicted image # 56 by performing intra prediction based on the prediction mode # 55 for the decoded image # 15 '.
 なお、予測画像#54および予測画像#56を総称して予測画像#342と呼ぶ。 Note that the predicted image # 54 and the predicted image # 56 are collectively referred to as a predicted image # 342.
 (予測モードおよび予測モードインデックス)
 予測モード復号部53の説明に先立ち、本実施形態において取り扱う予測モードのセットの一例として、H.264/MPEG-4 AVC規格におけるイントラ予測に用いられる予測モードのセットについて説明する。
(Prediction mode and prediction mode index)
Prior to the description of the prediction mode decoding unit 53, as an example of a set of prediction modes handled in this embodiment, H.264 A set of prediction modes used for intra prediction in the H.264 / MPEG-4 AVC standard will be described.
 図14は、H.264/MPEG-4 AVC規格におけるイントラ予測に用いられる予測モード、および、各予測モードに付された予測モードインデックスを示す図である。各予測モードは、イントラ予測に用いられる予測方向を表しており、図14に示すように、H.264/MPEG-4 AVC規格においては、8方向の予測モード(予測モードインデックス0,1,3~8に対応)、および、DC予測モード(予測モードインデックス2に対応)が用いられる。以下の説明においては、予測モードインデックスIによって指定される予測モードを予測モードIと表すことにする。 FIG. 2 is a diagram illustrating a prediction mode used for intra prediction in the H.264 / MPEG-4 AVC standard and a prediction mode index assigned to each prediction mode. FIG. Each prediction mode represents a prediction direction used for intra prediction, and as shown in FIG. In the H.264 / MPEG-4 AVC standard, eight-direction prediction modes (corresponding to prediction mode indexes 0, 1, 3 to 8) and DC prediction modes (corresponding to prediction mode index 2) are used. In the following description, the prediction mode specified by the prediction mode index I is represented as the prediction mode I.
 なお、本実施形態は、H.264/MPEG-4 AVC規格における予測モードのセットを用いる場合に限定されるものではなく、例えば、マクロブロック内に縦方向のエッジが存在するような場合には、縦方向についてより細かく予測方向を指定することのできる予測モードのセットを用いてもよいし、マクロブロック内に横方向のエッジが存在するような場合には、横方向についてより細かく予測方向を指定することのできる予測モードのセットを用いてもよい。 In addition, this embodiment is H.264. It is not limited to the case where a set of prediction modes in the H.264 / MPEG-4 AVC standard is used. For example, when a vertical edge exists in a macroblock, the prediction direction is more finely defined in the vertical direction. A set of prediction modes that can be specified may be used, and when there is an edge in the horizontal direction in the macroblock, a set of prediction modes that can specify the prediction direction more finely in the horizontal direction. May be used.
 (予測モード復号部53)
 以下では、図15~図18を参照して、予測モード復号部53の構成について説明する。
(Prediction mode decoding unit 53)
Hereinafter, the configuration of the prediction mode decoding unit 53 will be described with reference to FIGS. 15 to 18.
 図15は、予測モード復号部53の構成を示すブロック図である。図15に示すように、予測モード復号部53は、イントラ予測タイプ復号部531、スイッチ部532、予測モード導出部HE533、予測モード導出部LE534、予測モード残差復号部535、予測モード推定部N536、および、予測モード導出部537を備えている。また、予測モード導出部HE533および予測モード導出部LE534は、第1の導出部D31を構成し、予測モード残差復号部535、予測モード推定部N536、および、予測モード導出部537は、第2の導出部D32を構成している。 FIG. 15 is a block diagram showing a configuration of the prediction mode decoding unit 53. As shown in FIG. As illustrated in FIG. 15, the prediction mode decoding unit 53 includes an intra prediction type decoding unit 531, a switch unit 532, a prediction mode deriving unit HE533, a prediction mode deriving unit LE534, a prediction mode residual decoding unit 535, and a prediction mode estimating unit N536. , And a prediction mode deriving unit 537. In addition, the prediction mode deriving unit HE533 and the prediction mode deriving unit LE534 constitute a first deriving unit D31, and the prediction mode residual decoding unit 535, the prediction mode estimating unit N536, and the prediction mode deriving unit 537 The derivation | leading-out part D32 is comprised.
 なお、予測モード復号部55の構成は、予測モード復号部53の構成と同様であるため、説明を省略する。 Note that the configuration of the prediction mode decoding unit 55 is the same as the configuration of the prediction mode decoding unit 53, and thus description thereof is omitted.
 予測モード復号部53は、符号化データ#13を受け、後述する予測モード#533または後述する予測モード#537の何れか一方を予測モード#53として出力する。 The prediction mode decoding unit 53 receives the encoded data # 13, and outputs any one of a prediction mode # 533 described later or a prediction mode # 537 described later as the prediction mode # 53.
 イントラ予測タイプ復号部531は、符号化データ#13からイントラ予測タイプ指定情報#531を復号する。ここで、イントラ予測タイプ指定情報#531は、符号化データ#1に含まれるイントラ予測タイプ指定情報IPI’に対応する情報である。 The intra prediction type decoding unit 531 decodes the intra prediction type designation information # 531 from the encoded data # 13. Here, the intra prediction type designation information # 531 is information corresponding to the intra prediction type designation information IPI ′ included in the encoded data # 1.
 イントラ予測タイプ指定情報#531は、具体的には、対象ブロックが、イントラ予測タイプHE、または、イントラ予測タイプNのうち、何れかの予測タイプに対応するブロックであるかを指定する情報である。 Specifically, the intra prediction type designation information # 531 is information that designates whether the target block is a block corresponding to any prediction type of the intra prediction type HE or the intra prediction type N. .
 スイッチ部532は、イントラ予測タイプ指定情報#531に基づき、符号化データ#13を、第1の導出部D31または、第2の導出部D32の何れか一方に伝達する。 The switch unit 532 transmits the encoded data # 13 to either the first derivation unit D31 or the second derivation unit D32 based on the intra prediction type designation information # 531.
 より具体的には、スイッチ部532は、イントラ予測タイプ指定情報#531が、イントラ予測タイプHEを示している場合には、符号化データ#13を、第1の導出部D31に伝達し、イントラ予測タイプ指定情報#531が、イントラ予測タイプNを示している場合には、符号化データ#13を第2の導出部D32に伝達する。 More specifically, when the intra prediction type designation information # 531 indicates the intra prediction type HE, the switch unit 532 transmits the encoded data # 13 to the first derivation unit D31, so that the intra prediction type designation information # 531 indicates the intra prediction type HE. When the prediction type designation information # 531 indicates the intra prediction type N, the encoded data # 13 is transmitted to the second derivation unit D32.
 なお、イントラ予測タイプHEに対応するブロックは、イントラ予測タイプNに対応するブロックに比べて、予測モードを導出するための処理量が大きい。すなわち、イントラ予測タイプHEに対応するブロックについての予測モードの導出に要する時間は、イントラ予測タイプNに対応するブロックについての予測モードの導出に要する時間に比べて長い。 Note that the block corresponding to the intra prediction type HE has a larger processing amount for deriving the prediction mode than the block corresponding to the intra prediction type N. That is, the time required for deriving the prediction mode for the block corresponding to the intra prediction type HE is longer than the time required for deriving the prediction mode for the block corresponding to the intra prediction type N.
 (予測モード導出部HE533)
 予測モード導出部HE533は、フレームメモリ15に記録されている復号画像#15のうち対象ブロックと同じフレームに含まれる各ブロックについての復号画像#15’を参照し、対象ブロックについての予測モードを導出する。
(Prediction mode deriving unit HE533)
The prediction mode deriving unit HE533 refers to the decoded image # 15 ′ for each block included in the same frame as the target block among the decoded images # 15 recorded in the frame memory 15, and derives the prediction mode for the target block. To do.
 以下では、予測モード導出部HE533による予測モードの導出処理の例について説明する。 Hereinafter, an example of prediction mode derivation processing by the prediction mode derivation unit HE533 will be described.
 図16の(a)は、予測モード導出部HE533による予測モードの導出処理を説明するための図であって、対象ブロックOBおよび、対象ブロックOBの上辺に隣接する参照ブロックRB1’を示す図である。 (A) of FIG. 16 is a figure for demonstrating the prediction mode derivation | leading-out process by the prediction mode derivation | leading-out part HE533, Comprising: It is a figure which shows reference block RB1 'adjacent to the upper side of object block OB and object block OB. is there.
 図16の(b)は、予測モード導出部HE533による予測モードの導出処理の流れを示すフローチャートである。 FIG. 16B is a flowchart showing the flow of prediction mode derivation processing by the prediction mode derivation unit HE533.
 (ステップS201)
 まず、予測モード導出部HE533は、フレームメモリ15に記録されている復号画像#15のうち、対象ブロックOBの上辺に隣接する参照ブロックRB1’上の復号画像にエッジが存在するか否かを判定する。
(Step S201)
First, the prediction mode deriving unit HE533 determines whether or not an edge exists in the decoded image on the reference block RB1 ′ adjacent to the upper side of the target block OB among the decoded images # 15 recorded in the frame memory 15. To do.
 ここで、復号画像におけるエッジの有無の判定は、例えば、復号画像に対して、1次または2次の微分フィルタを作用させ、当該微分フィルタを作用された後の画像の勾配を評価することによって行うことができる。また、上記勾配の方向を評価することによって、上記エッジの方向を見積もることができる。また、本ステップにおいては、例えば、キャニー法を用いたエッジ検出を行ってもよい。 Here, the determination of the presence or absence of an edge in the decoded image is performed by, for example, applying a primary or secondary differential filter to the decoded image and evaluating the gradient of the image after the differential filter is applied. It can be carried out. In addition, the direction of the edge can be estimated by evaluating the direction of the gradient. In this step, for example, edge detection using the Canny method may be performed.
 (ステップS202)
 参照ブロックRB1’上の復号画像にエッジが存在すると判定した場合(ステップS201でYes)には、予測モード導出部HE533は、当該エッジの方向となす角が最も小さい方向に対応する予測モードを、対象ブロックOBに対する予測モード#533として選択する。
(Step S202)
When it is determined that there is an edge in the decoded image on the reference block RB1 ′ (Yes in step S201), the prediction mode deriving unit HE533 selects the prediction mode corresponding to the direction having the smallest angle with the direction of the edge. It selects as prediction mode # 533 with respect to object block OB.
 (ステップS203)
 一方で、参照ブロックRB1’上の復号画像にエッジが存在しないと判定した場合(ステップS201でNo)には、予測モード導出部HE533は、DC予測モード(予測モード2)を、対象ブロックOBに対する予測モード#533として選択する。
(Step S203)
On the other hand, when it is determined that there is no edge in the decoded image on the reference block RB1 ′ (No in step S201), the prediction mode deriving unit HE533 changes the DC prediction mode (prediction mode 2) to the target block OB. Select as prediction mode # 533.
 予測モード導出部HE533は、以上の動作を行うことによって、予測モード#533を導出する。また、導出された予測モード#533は、予測モードバッファ57に対しても出力される。 The prediction mode deriving unit HE533 derives the prediction mode # 533 by performing the above operation. The derived prediction mode # 533 is also output to the prediction mode buffer 57.
 なお、予測モード導出部HE533は、対象ブロックOBの左辺に隣接する参照ブロック上の復号画像にエッジが存在するか否かを判定し、エッジが存在する場合には、当該エッジの方向となす角が最も小さい予測モードを選択し、エッジが存在しない場合には、DC予測モードを選択するような構成としてもよい。 Note that the prediction mode deriving unit HE533 determines whether or not there is an edge in the decoded image on the reference block adjacent to the left side of the target block OB. If there is an edge, the angle formed with the direction of the edge The prediction mode having the smallest value may be selected, and when there is no edge, the DC prediction mode may be selected.
 また、予測モード導出部HE533は、対象ブロックOBの左辺に隣接する参照ブロック、および、対象ブロックOBの上辺に隣接する参照ブロックの双方についてエッジ検出を行い、当該エッジ検出の結果を参照して、対象ブロックOBに対する予測モードを導出するような構成としてもよい。 Further, the prediction mode deriving unit HE533 performs edge detection for both the reference block adjacent to the left side of the target block OB and the reference block adjacent to the upper side of the target block OB, and refers to the result of the edge detection, The prediction mode for the target block OB may be derived.
 (予測モード導出部LE534)
 予測モード導出部LE534は、対象ブロックOBの上辺に隣接する参照ブロックRB1’、対象ブロックOBの左辺に隣接する参照ブロックRB2’の各々に割り付けられた導出済みの予測モードを参照して、対象ブロックOBに対して暫定的に割り付ける仮予測モード#534を導出する。
(Prediction mode deriving unit LE534)
The prediction mode deriving unit LE534 refers to the derived prediction mode assigned to each of the reference block RB1 ′ adjacent to the upper side of the target block OB and the reference block RB2 ′ adjacent to the left side of the target block OB. A temporary prediction mode # 534 that is provisionally allocated to OB is derived.
 なお、予測モード導出部LE534による仮予測モード#534の導出は、予測モード導出部HE533による予測モード#533の導出に先立って行われることが好ましい。換言すれば、予測モード導出部LE534は、仮予測モード#534の導出処理が、予測モード導出部HE533による予測モード#533の導出処理が完了する前に完了するように構成されていることが好ましい。すなわち、予測モード導出部LE534が、対象ブロックに割り付ける仮予測モード#534の導出を完了する時点は、予測モード導出部HE533が、当該対象ブロックに割り付ける予測モード#533の導出を完了する時点よりも前であることが好ましい。 In addition, it is preferable that the derivation of the temporary prediction mode # 534 by the prediction mode deriving unit LE534 is performed prior to the derivation of the prediction mode # 533 by the prediction mode deriving unit HE533. In other words, the prediction mode deriving unit LE534 is preferably configured so that the derivation process of the temporary prediction mode # 534 is completed before the derivation process of the prediction mode # 533 by the prediction mode deriving unit HE533 is completed. . That is, when the prediction mode deriving unit LE534 completes the derivation of the temporary prediction mode # 534 assigned to the target block, the prediction mode deriving unit HE533 completes the derivation of the prediction mode # 533 assigned to the target block. It is preferable that it is before.
 以下では、予測モード導出部LE534による予測モードの導出処理の例について説明する。 Hereinafter, an example of prediction mode derivation processing by the prediction mode derivation unit LE534 will be described.
 図17は、予測モード導出部LE534による予測モードの導出処理を説明するための図であって、対象ブロックOB、対象ブロックOBの上辺に隣接する参照ブロックRB1’、および、対象ブロックOBの左辺に隣接する参照ブロックRB2’を示す図である。 FIG. 17 is a diagram for explaining the prediction mode derivation processing by the prediction mode deriving unit LE534, and the target block OB, the reference block RB1 ′ adjacent to the upper side of the target block OB, and the left side of the target block OB. It is a figure which shows adjacent reference block RB2 '.
 予測モード導出部LE534は、予測モード導出部537により、参照ブロックRB1’について導出された予測モード、および、参照ブロックRB2’について導出された予測モードのうち、予測モードインデックスのより小さい予測モードを対象ブロックに対する仮予測モードに設定する。 The prediction mode deriving unit LE534 targets a prediction mode having a smaller prediction mode index among the prediction modes derived by the prediction mode deriving unit 537 for the reference block RB1 ′ and the prediction modes derived for the reference block RB2 ′. Set to temporary prediction mode for block.
 例えば、図17に示すように、参照ブロックRB1’について予測モード6が導出され、参照ブロックRB2’について予測モード1が導出されている場合には、予測モード導出部LE534は、予測モードインデックスのより小さい予測モードである予測モード1を、対象ブロックOBに対する仮予測モードに設定する。 For example, as illustrated in FIG. 17, when the prediction mode 6 is derived for the reference block RB1 ′ and the prediction mode 1 is derived for the reference block RB2 ′, the prediction mode deriving unit LE534 uses the prediction mode index. The prediction mode 1 which is a small prediction mode is set to the temporary prediction mode for the target block OB.
 以上の処理によって、予測モード導出部LE534により導出された仮予測モードは、仮予測モード#534として出力され、予測モードバッファ57に格納される。 Through the above processing, the temporary prediction mode derived by the prediction mode deriving unit LE534 is output as temporary prediction mode # 534 and stored in the prediction mode buffer 57.
 なお、参照ブロックRB1’および参照ブロックRB2’のうち、イントラ予測タイプHEに対応するブロックについては、予測モード導出部LE534によって算出された仮予測モードを参照して、対象ブロックOBに対する予測モードを導出する。 Of the reference block RB1 ′ and the reference block RB2 ′, for the block corresponding to the intra prediction type HE, the prediction mode for the target block OB is derived with reference to the temporary prediction mode calculated by the prediction mode deriving unit LE534. To do.
 また、参照ブロックRB1’または参照ブロックRB2’のうち、何れか一方について予測モードが導出済みでない場合には、当該予測モードが導出済みでないブロックについては、予測モードおよび仮予測モードの何れも参照することなく、仮予測モードを算出する構成としてもよい。 In addition, when the prediction mode has not been derived for any one of the reference block RB1 ′ or the reference block RB2 ′, both the prediction mode and the temporary prediction mode are referred to for the block for which the prediction mode has not been derived. Instead, the provisional prediction mode may be calculated.
 また、上記の説明では、予測モード導出部LE534が、対象ブロックOBの上辺に隣接する参照ブロックRB1’、および、対象ブロックOBの左辺に隣接する参照ブロックRB2’について導出された予測モード(または仮予測モード)を参照して、対象ブロックOBについての仮予測モードを導出する場合について説明したが、本実施形態はこれに限定されるものではない。 In the above description, the prediction mode deriving unit LE534 has derived the prediction mode (or the provisional mode) derived for the reference block RB1 ′ adjacent to the upper side of the target block OB and the reference block RB2 ′ adjacent to the left side of the target block OB. The case of deriving the temporary prediction mode for the target block OB has been described with reference to the prediction mode), but the present embodiment is not limited to this.
 例えば、予測モード導出部LE534は、対象ブロックOBの上辺に隣接する参照ブロックRB1’、対象ブロックOBの左辺に隣接する参照ブロックRB2’、および、対象ブロックの左上の参照ブロックRB5’について導出された予測モード(または仮予測モード)を参照して、対象ブロックOBについての仮予測モードを導出する構成としてもよいし、対象ブロックOBに隣接するか、または、対象ブロックOBと頂点を共有するその他の参照ブロックについて導出された予測モードを参照することによって、対象ブロックOBについての仮予測モードを導出する構成としてもよい。 For example, the prediction mode deriving unit LE534 is derived for the reference block RB1 ′ adjacent to the upper side of the target block OB, the reference block RB2 ′ adjacent to the left side of the target block OB, and the reference block RB5 ′ at the upper left of the target block OB. It is good also as a structure which refers to prediction mode (or temporary prediction mode), derive | leads-out the temporary prediction mode about object block OB, and is adjacent to object block OB, or the other which shares a vertex with object block OB A configuration may be adopted in which the temporary prediction mode for the target block OB is derived by referring to the prediction mode derived for the reference block.
 また、対象ブロックOBについての仮予測モードを導出するために参照される参照ブロックの組み合わせは、予め定められた組み合わせであってもよいし、イントラ予測タイプ指定情報#531によって指定される組み合わせであってもよい。 Further, the combination of reference blocks referred to in order to derive the temporary prediction mode for the target block OB may be a predetermined combination or a combination specified by the intra prediction type designation information # 531. May be.
 予測モード導出部LE534は、上述した動作を行うことによって、予測モード導出部HE533による予測モード#533の導出に要する時間よりも短い処理時間で、仮予測モード#534を導出することができる。 The prediction mode deriving unit LE534 can derive the temporary prediction mode # 534 in a shorter processing time than the time required for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 by performing the above-described operation.
 (予測モード#533および仮予測モード#534におけるエラー発生率)
 以下では、予測モード導出部HE533が上述した処理を行うことによって導出する予測モード#533にエラーが生じる可能性と、予測モード導出部LE534が上述した処理を行うことによって導出する仮予測モード#534にエラーが生じる可能性とについて、両者を比較して説明する。
(Error occurrence rate in prediction mode # 533 and temporary prediction mode # 534)
In the following, there is a possibility that an error occurs in the prediction mode # 533 derived by the prediction mode deriving unit HE533 performing the above-described processing, and the provisional prediction mode # 534 derived by the prediction mode deriving unit LE534 performing the above-described processing. The possibility that an error will occur will be described by comparing the two.
 上述のように、予測モード導出部HE533は、例えば、対象ブロックの上辺に隣接する参照ブロック上の復号画像についてエッジ検出を行い、その結果に基づいて、対象ブロックについての予測モード#533を導出する。ここで、エッジ検出は、復号画像の画素値を参照して行われるため、当該復号画像の画素値にエラーが生じている場合、すなわち、当該復号画像の画素値が、伝送エラーまたは復号処理において生じるエラー等の影響により本来の画素値とは異なった画素値となっている場合には、予測モード#533についても、上記エラーが直接的に影響することによってエラーが生じることになる。 As described above, for example, the prediction mode deriving unit HE533 performs edge detection on the decoded image on the reference block adjacent to the upper side of the target block, and derives the prediction mode # 533 for the target block based on the result. . Here, since the edge detection is performed with reference to the pixel value of the decoded image, when an error has occurred in the pixel value of the decoded image, that is, the pixel value of the decoded image has a transmission error or a decoding process. In the case where the pixel value is different from the original pixel value due to the influence of the error or the like that occurs, an error also occurs in the prediction mode # 533 due to the direct influence of the error.
 一方で、予測モード導出部LE534は、例えば、対象ブロックの上辺に隣接する参照ブロック、および、対象ブロックの左辺に隣接する参照ブロックについて導出された予測モードまたは仮予測モードを参照して、仮予測モード#534を導出する。すなわち、予測モード導出部LE534は、画素値を参照することなく、仮予測モード#534を導出する。このため、仮予測モード#534は、復号画像の画素値に生じるエラーの影響を直接的に受けることがない。 On the other hand, the prediction mode deriving unit LE534 refers to the prediction block or the temporary prediction mode derived for the reference block adjacent to the upper side of the target block and the reference block adjacent to the left side of the target block, for example. Mode # 534 is derived. That is, the prediction mode deriving unit LE534 derives the temporary prediction mode # 534 without referring to the pixel value. For this reason, temporary prediction mode # 534 is not directly affected by errors that occur in the pixel values of the decoded image.
 したがって、予測モード導出部LE534が導出する仮予測モード#534にエラーが生じる可能性は、予測モード導出部HE533が導出する予測モード#533にエラーが生じる可能性に比べて低い。 Therefore, the possibility that an error occurs in the temporary prediction mode # 534 derived by the prediction mode deriving unit LE534 is lower than the possibility that an error occurs in the prediction mode # 533 derived by the prediction mode deriving unit HE533.
 換言すれば、予測モード導出部LE534は、予測モード導出部HE533に比べて、エラーの生じにくい処理によって、仮予測モード#534を導出することができる。 In other words, the prediction mode deriving unit LE534 can derive the temporary prediction mode # 534 by a process that is less likely to cause errors than the prediction mode deriving unit HE533.
 (予測モード残差復号部535)
 予測モード残差復号部535は、符号化データ#13に含まれる予測モード情報PMIを復号することによって、対象ブロックについての予測モードが、対象ブロックについて推定された推定予測モードと同じであるか否かを示す予測モードフラグPMF、および、対象ブロックについての予測モードを指定する予測モードデータPMDを取得する。
(Prediction mode residual decoding unit 535)
The prediction mode residual decoding unit 535 decodes the prediction mode information PMI included in the encoded data # 13, so that the prediction mode for the target block is the same as the estimated prediction mode estimated for the target block. A prediction mode flag PMF indicating the prediction mode and prediction mode data PMD for specifying a prediction mode for the target block are acquired.
 予測モードフラグPMFおよび予測モードデータPMDは、予測モード情報#535として、予測モード導出部537に供給される。 The prediction mode flag PMF and the prediction mode data PMD are supplied to the prediction mode deriving unit 537 as prediction mode information # 535.
 (予測モード推定部N536)
 予測モード推定部N536は、対象ブロックに隣接するブロックについて導出済みの予測モードを参照して、対象ブロックについての予測モードの推定値である推定予測モード#536を導出し、予測モード導出部537に供給する。
(Prediction mode estimation unit N536)
The prediction mode estimation unit N536 refers to the prediction mode that has been derived for the block adjacent to the target block, derives an estimated prediction mode # 536 that is an estimation value of the prediction mode for the target block, and sends the prediction mode derivation unit 537 Supply.
 予測モード推定部N536による、推定予測モード#536の導出は予測モード導出部LE534による仮予測モード#534の導出と同様の処理によって行うことができる。 The derivation of the estimated prediction mode # 536 by the prediction mode estimation unit N536 can be performed by the same process as the derivation of the temporary prediction mode # 534 by the prediction mode derivation unit LE534.
 (予測モード導出部537)
 予測モード導出部537は、予測モード情報#535、および、推定予測モード#536を参照して、対象ブロックについての予測モード#537を導出する。
(Prediction mode deriving unit 537)
The prediction mode deriving unit 537 derives the prediction mode # 537 for the target block with reference to the prediction mode information # 535 and the estimated prediction mode # 536.
 図18は、予測モード導出部537による予測モード#537の導出処理の流れを示すフローチャートである。 FIG. 18 is a flowchart showing the flow of the derivation process of the prediction mode # 537 by the prediction mode derivation unit 537.
 (ステップS301)
 まず、予測モード導出部537は、予測モードフラグPMFを参照し、予測モードフラグPMFが1であるか否かを判定する。
(Step S301)
First, the prediction mode deriving unit 537 refers to the prediction mode flag PMF and determines whether or not the prediction mode flag PMF is 1.
 ここで、予測モードフラグPMFが1であることは、対象ブロックについての予測モードが、推定予測モードと等しいことを示しており、予測モードフラグが1でないことは、対象ブロックについての予測モードが、推定予測モードと等しくないことを示しているものとする。 Here, the prediction mode flag PMF being 1 indicates that the prediction mode for the target block is equal to the estimated prediction mode, and that the prediction mode flag is not 1 indicates that the prediction mode for the target block is It is assumed that it is not equal to the estimated prediction mode.
 (ステップS302)
 予測モードフラグPMFが1である場合(ステップS301でYes)には、予測モード導出部537は、推定予測モード#536を、対象ブロックについての予測モード#537に設定する。
(Step S302)
When the prediction mode flag PMF is 1 (Yes in Step S301), the prediction mode deriving unit 537 sets the estimated prediction mode # 536 to the prediction mode # 537 for the target block.
 (ステップS303)
 予測モードフラグPMFが1でない場合(ステップS301でNo)には、予測モード導出部537は、予測モードデータPMDの示す予測モードを、対象ブロックについての予測モード#537に設定する。
(Step S303)
When the prediction mode flag PMF is not 1 (No in Step S301), the prediction mode deriving unit 537 sets the prediction mode indicated by the prediction mode data PMD to the prediction mode # 537 for the target block.
 予測モード導出部537は、以上の処理を行うことによって対象ブロックについての予測モード#537を導出し、出力する。また、導出された予測モード#537は、予測モードバッファ57に格納される。 The prediction mode deriving unit 537 derives and outputs the prediction mode # 537 for the target block by performing the above processing. The derived prediction mode # 537 is stored in the prediction mode buffer 57.
 なお、上述の処理を行う予測モード推定部N536は、参照ブロックがイントラ予測タイプHEに対応するブロックである場合には、当該参照ブロックについては、仮予測モード#534を参照して、対象ブロックについての推定予測モード#536を導出する。また、イントラ予測タイプHEに対応するブロックについては、画素値を参照して導出される予測モード#533よりも、画素値を参照することなく導出される仮予測モード#534の方が、エラー発生率が低い。したがって、そのようなエラー発生率の低い仮予測モード#534を参照して導出される推定予測モード#536にエラーが生じる可能性は、上記参照ブロックについての予測モードを参照する場合に比べて低い。 In addition, when the reference block is a block corresponding to the intra prediction type HE, the prediction mode estimation unit N536 that performs the above-described process refers to the provisional prediction mode # 534 for the reference block and the target block. The estimated prediction mode # 536 is derived. For blocks corresponding to the intra prediction type HE, an error occurs in the temporary prediction mode # 534 derived without referring to the pixel value, rather than the prediction mode # 533 derived with reference to the pixel value. The rate is low. Therefore, the possibility that an error will occur in the estimated prediction mode # 536 derived by referring to the temporary prediction mode # 534 having such a low error occurrence rate is lower than that in the case of referring to the prediction mode for the reference block. .
 したがって、そのような推定予測モード#536に基づいて生成される予測モード#537を用いて、イントラ予測部54により生成される予測画像#54にエラーが生じる可能性は、上記仮予測モードを用いない場合に比べて低い。 Therefore, the possibility of an error occurring in the prediction image # 54 generated by the intra prediction unit 54 using the prediction mode # 537 generated based on the estimated prediction mode # 536 is determined using the temporary prediction mode. Low compared to when not.
 <他の導出例1’>
 予測モード導出部HE533による予測モード#533の導出処理は、上記の例に限定されるものではない。
<Other derivation example 1 '>
The derivation process of the prediction mode # 533 by the prediction mode derivation unit HE533 is not limited to the above example.
 例えば、予測モード導出部HE533は、対象ブロックOBの上辺に隣接する参照ブロックRB1’上の復号画像における画素値の平均または画素値の分散などの、統計的な指標を導出し、導出された指標に基づいて、対象ブロックOBについての予測モードを導出する構成としてもよい。 For example, the prediction mode deriving unit HE533 derives a statistical index such as an average of pixel values or a variance of pixel values in a decoded image on the reference block RB1 ′ adjacent to the upper side of the target block OB, and the derived index Based on the above, the prediction mode for the target block OB may be derived.
 また、予測モード導出部HE533は、対象ブロックOBの上辺に隣接する参照ブロックRB1’について復号された変換係数(周波数成分)を参照することによって、対象ブロックOBについての予測モードを導出する構成としてもよい。 Further, the prediction mode deriving unit HE533 may derive a prediction mode for the target block OB by referring to the transform coefficient (frequency component) decoded for the reference block RB1 ′ adjacent to the upper side of the target block OB. Good.
 また、予測モード導出部HE533が参照する参照ブロックは、対象ブロックOBの左辺に隣接するブロックであってもよいし、その他のブロックであってもよい。 In addition, the reference block referred to by the prediction mode deriving unit HE533 may be a block adjacent to the left side of the target block OB, or may be another block.
 <他の導出例2’>
 また、第2の導出部D32は、対象ブロックが、イントラ予測タイプ指定情報#531により、イントラ予測タイプNに指定されている場合であって、符号化データ#3を復号することによって得られるスキップモード情報SMIにより、スキップモードが適用されるブロックに指定されている場合には、推定予測モード#536の導出に代えて、予測モードpmを導出し、出力する構成としてもよい。
<Other derivation example 2 '>
Further, the second deriving unit D32 skips when the target block is designated as the intra prediction type N by the intra prediction type designation information # 531, and is obtained by decoding the encoded data # 3. When the mode information SMI specifies a block to which the skip mode is applied, instead of deriving the estimated prediction mode # 536, the prediction mode pm may be derived and output.
 第2の導出部D32による予測モードpmの導出は、上述した予測モード導出部LE534による仮予測モードの導出、および、上述した予測モード推定部N536による推定予測モードの導出と同様の処理によって行うことができる。 Derivation of the prediction mode pm by the second deriving unit D32 is performed by the same process as the derivation of the temporary prediction mode by the prediction mode deriving unit LE534 described above and the derivation of the estimated prediction mode by the prediction mode estimating unit N536 described above. Can do.
 第2の導出部D32は、上記の処理によって算出した予測モードpmを、そのまま、予測モード#537として出力する。 The second deriving unit D32 outputs the prediction mode pm calculated by the above processing as it is as the prediction mode # 537.
 (第1のプロセッサP31および第2のプロセッサP32による並列処理)
 動画像復号装置3の備える第1のプロセッサP31および第2のプロセッサP32は、動画像復号装置1の備える第1のプロセッサP1および第2のプロセッサP2による動きベクトルまたは仮動きベクトルの導出処理と同様に、予測モードまたは仮予測モードを導出することができる。
(Parallel processing by the first processor P31 and the second processor P32)
The first processor P31 and the second processor P32 included in the video decoding device 3 are the same as the motion vector or provisional motion vector derivation processing performed by the first processor P1 and the second processor P2 included in the video decoding device 1. In addition, a prediction mode or a temporary prediction mode can be derived.
 以下では、動画像復号装置3の備える第1のプロセッサP31および第2のプロセッサP32によって並列的に行われる、予測モードまたは仮予測モードの導出処理について図19の(a)~(b)を参照して説明する。 Hereinafter, the prediction mode or the temporary prediction mode derivation processing performed in parallel by the first processor P31 and the second processor P32 included in the video decoding device 3 will be described with reference to FIGS. To explain.
 図19の(a)は、第1のプロセッサP31および第2のプロセッサP32によって、予測モードまたは仮予測モードの導出が並列的に行われるブロックB1’~B4’を示す図である。 (A) of FIG. 19 is a diagram showing blocks B1 'to B4' in which the prediction mode or the temporary prediction mode is derived in parallel by the first processor P31 and the second processor P32.
 ブロックB1’およびブロックB3’は、並列処理制御部51の出力する判別情報#51により、第1のプロセッサP31によって処理されることが指定されているブロックであり、ブロックB2’およびブロックB4’は、並列処理制御部51の出力する判別情報#51により、第2のプロセッサP32によって処理されることが指定されているブロックである。 The block B1 ′ and the block B3 ′ are blocks that are specified to be processed by the first processor P31 by the discrimination information # 51 output from the parallel processing control unit 51. The block B2 ′ and the block B4 ′ are The block specified by the second processor P32 by the discrimination information # 51 output from the parallel processing control unit 51.
 また、ブロックB1’およびブロックB4’は、イントラ予測タイプ指定情報#531により、イントラ予測タイプHEに指定されているブロックであり、ブロックB2’およびブロックB3’は、イントラ予測タイプ指定情報#531により、イントラ予測タイプNに指定されているブロックである。 The block B1 ′ and the block B4 ′ are blocks designated as the intra prediction type HE by the intra prediction type designation information # 531, and the block B2 ′ and the block B3 ′ are designated by the intra prediction type designation information # 531. These are blocks designated as intra prediction type N.
 図19の(b)に示すP31およびP32は、図19の(a)に示す各ブロックについて、第1のプロセッサP31および第2のプロセッサP32が、予測モードまたは仮予測モードの導出を並列的に行う場合の処理時間を模式的に示すタイミングチャートと、図19の(a)に示す各ブロックについて、比較例に係る第1のプロセッサP31’および比較例に係る第2のプロセッサP32’が、予測モードの導出を並列的に行う場合の処理時間を模式的に示すタイミングチャートとを示している。 In P31 and P32 shown in FIG. 19B, the first processor P31 and the second processor P32 derive the prediction mode or the temporary prediction mode in parallel for each block shown in FIG. For each block shown in FIG. 19A, a timing chart schematically showing the processing time when performing the prediction, the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example predict The timing chart which shows typically the processing time in the case of deriving a mode in parallel is shown.
 まず、第1のプロセッサP31は、時刻t1’から時刻t2’までの期間において、第1の導出部D31の備える予測モード導出部LE534により、ブロックB1’についての仮予測モード#534の導出を行う。 First, in the period from time t1 ′ to time t2 ′, the first processor P31 derives the temporary prediction mode # 534 for the block B1 ′ by the prediction mode deriving unit LE534 included in the first deriving unit D31. .
 続いて、第1のプロセッサP31は、時刻t2’から時刻t6’までの期間において、第1の導出部D31の備える予測モード導出部HE533により、ブロックB1’についての予測モード#533の導出を行う。ここで、予測モード導出部HE533による予測モード#533の導出のための処理量は、予測モード導出部LE534による仮予測モード#534の導出のための処理量に比べて大きいため、時刻t2’から時刻t6’までの期間は、時刻t1’から時刻t2’までの期間よりも長い。 Subsequently, in the period from time t2 ′ to time t6 ′, the first processor P31 derives the prediction mode # 533 for the block B1 ′ by the prediction mode deriving unit HE533 included in the first deriving unit D31. . Here, since the processing amount for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 is larger than the processing amount for deriving the temporary prediction mode # 534 by the prediction mode deriving unit LE534, from time t2 ′. The period from time t6 ′ is longer than the period from time t1 ′ to time t2 ′.
 続いて、第1のプロセッサP31は、時刻t6’から時刻t7’までの期間において、第2の導出部D32により、ブロックB3’についての予測モード#537を導出する。ここで、ブロックB3’についての予測モード#537の導出は、ブロックB2’について導出された予測モードを参照して行われる。 Subsequently, the first processor P31 derives the prediction mode # 537 for the block B3 'by the second deriving unit D32 during the period from the time t6' to the time t7 '. Here, the prediction mode # 537 for the block B3 'is derived with reference to the prediction mode derived for the block B2'.
 一方で、第2のプロセッサP32は、時刻t2’から時刻t3’までの期間において、第2の導出部D32により、ブロックB2’についての予測モード#537の導出を行う。ここで、ブロックB2’についての予測モード#537の導出は、ブロックB1’について導出された仮予測モード#534を参照して行われる。 On the other hand, in the period from time t2 'to time t3', the second processor P32 derives the prediction mode # 537 for the block B2 'by the second deriving unit D32. Here, the prediction mode # 537 for the block B2 'is derived with reference to the temporary prediction mode # 534 derived for the block B1'.
 続いて、第2のプロセッサP32は、時刻t3’から時刻t4’までの期間において、第1の導出部D31の備える予測モード導出部LE534により、ブロックB4’についての仮予測モード#534の導出を行う。 Subsequently, in the period from time t3 ′ to time t4 ′, the second processor P32 derives the temporary prediction mode # 534 for the block B4 ′ by the prediction mode deriving unit LE534 included in the first deriving unit D31. Do.
 続いて、第2のプロセッサP32は、時刻t4’から時刻t8’までの期間において、第1の導出部D31の備える予測モード導出部LE534により、ブロックB4’についての予測モード#533の導出を行う。ここで、予測モード導出部HE533による予測モード#533の導出のための処理量は、予測モード導出部LE534による仮予測モード#534の導出のための処理量に比べて大きいため、時刻t4’から時刻t8’までの期間は、時刻t3’から時刻t4’までの期間よりも長い。 Subsequently, in the period from time t4 ′ to time t8 ′, the second processor P32 derives the prediction mode # 533 for the block B4 ′ by the prediction mode deriving unit LE534 included in the first deriving unit D31. . Here, since the processing amount for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 is larger than the processing amount for deriving the temporary prediction mode # 534 by the prediction mode deriving unit LE534, from time t4 ′. The period from time t8 ′ is longer than the period from time t3 ′ to time t4 ′.
 以上の処理によって、第1のプロセッサP31および第2のプロセッサP32は、ブロックB1’~B4’の各々について、予測モードまたは仮予測モードの導出を行う。また、以上の処理に必要な時間は、時刻t1’から時刻t8’までの期間の長さに対応する。 Through the above processing, the first processor P31 and the second processor P32 derive the prediction mode or the temporary prediction mode for each of the blocks B1 'to B4'. The time required for the above processing corresponds to the length of the period from time t1 'to time t8'.
 上記のように、ブロックB2’についての予測モードは、ブロックB1’について導出された仮予測モードを参照して行われる。また、ブロックB1’について導出される仮予測モードは、参照画像の画素値を参照することなく導出されるため、参照画像上の画素値に生じ得るエラーの影響を受けることがない。 As described above, the prediction mode for the block B2 'is performed with reference to the temporary prediction mode derived for the block B1'. Further, since the temporary prediction mode derived for the block B1 'is derived without referring to the pixel value of the reference image, it is not affected by an error that may occur in the pixel value on the reference image.
 したがって、本実施形態において導出されたブロックB2’についての予測モードは、参照画像の画素値を参照することによってブロックB1’について導出された予測モードを参照する場合に比べて、エラーが生じる可能性が低い。 Therefore, the prediction mode for the block B2 ′ derived in the present embodiment may cause an error compared to the case where the prediction mode derived for the block B1 ′ is referred to by referring to the pixel value of the reference image. Is low.
 なお、例えば、ブロックB1’についての仮予測モードの生成処理に必要な時間、すなわち、時刻t1’から時刻t2’までの期間の長さがT’であり、ブロックB2’についての予測モードの導出処理に必要な時間、すなわち、時刻t2’から時刻t3’までの期間の長さがT’であり、ブロックB4’についての仮予測モードの生成処理に必要な時間、すなわち、時刻t3’から時刻t4’までの期間の長さがT’であり、ブロックB4’についての予測モードの導出処理に必要な時間、すなわち、時刻t4’から時刻t8’までの期間の長さがr’×T’であるとすると、第1のプロセッサP31および第2のプロセッサP32による並列処理によって、ブロックB1’~B4’の各々について、予測モードを導出するために必要な処理時間T1’は、
 T1’=3×T’+r’×T’=(r’+3)×T’
と表すことができる。なお、上記rは、第1の導出部D31の備える予測モード導出部HE533による予測モード#533の導出に要する処理時間の、第1の導出部D31の備える予測モード導出部LE534による仮予測モード#534の導出に要する処理時間、または導出部D32による予測モード#537の導出に要する処理時間に対する比を表している。
For example, the time required for the process of generating the temporary prediction mode for the block B1 ′, that is, the length of the period from the time t1 ′ to the time t2 ′ is T ′, and the prediction mode is derived for the block B2 ′. The time required for processing, ie, the length of the period from time t2 ′ to time t3 ′ is T ′, and the time required for the temporary prediction mode generation processing for block B4 ′, ie, time from time t3 ′ to time The length of the period until t4 ′ is T ′, and the time required for the prediction mode derivation process for the block B4 ′, that is, the length of the period from time t4 ′ to time t8 ′ is r ′ × T ′. , The processing time T1 ′ necessary for deriving the prediction mode for each of the blocks B1 ′ to B4 ′ by the parallel processing by the first processor P31 and the second processor P32 is:
T1 ′ = 3 × T ′ + r ′ × T ′ = (r ′ + 3) × T ′
It can be expressed as. Note that r is the provisional prediction mode # by the prediction mode deriving unit LE534 provided in the first deriving unit D31 for the processing time required for deriving the prediction mode # 533 by the prediction mode deriving unit HE533 provided in the first deriving unit D31. It represents the ratio of the processing time required to derive 534 or the processing time required to derive prediction mode # 537 by the deriving unit D32.
 なお、予測モード導出部LE534および第2の導出部D32により、参照画像の画素値を参照することなく、仮予測モード#534および予測モード#537をそれぞれ導出するために要する処理時間は、予測モード導出部HE533により、参照画像の画素値を参照して予測モード#533を導出するために要する処理時間の、1/10から1/1000程度である。したがって、上記rの典型的な値は、10から1000程度である。 The processing time required for deriving the temporary prediction mode # 534 and the prediction mode # 537 without referring to the pixel values of the reference image by the prediction mode deriving unit LE534 and the second deriving unit D32 is the prediction mode. The processing time required for deriving the prediction mode # 533 by referring to the pixel value of the reference image by the deriving unit HE533 is about 1/10 to 1/1000. Therefore, a typical value of r is about 10 to 1000.
 (比較例に係る並列処理との比較)
 続いて、比較例に係る第1のプロセッサP31’、および、比較例に係る第2のプロセッサP32’による並列処理について、図19の(b)を参照して説明を行う。ここで、当該比較例に係る第1のプロセッサP31’は、本実施形態に係る第1のプロセッサP31とほぼ同様の処理を行うが、本実施形態に係る第1のプロセッサP31とは異なり、仮予測モードの導出を行わない。また、当該比較例に係る第2のプロセッサP32’は、本実施形態に係る第2のプロセッサP32とほぼ同様の処理を行うが、本実施形態に係る第2のプロセッサP32とは異なり、仮予測モードの生成を行わない。
(Comparison with parallel processing according to comparative example)
Next, parallel processing by the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example will be described with reference to FIG. Here, the first processor P31 ′ according to the comparative example performs substantially the same processing as the first processor P31 according to the present embodiment, but unlike the first processor P31 according to the present embodiment, The prediction mode is not derived. In addition, the second processor P32 ′ according to the comparative example performs substantially the same processing as the second processor P32 according to the present embodiment, but unlike the second processor P32 according to the present embodiment, provisional prediction is performed. Does not generate mode.
 すなわち、比較例に係る第1のプロセッサP31’および比較例に係る第2のプロセッサP32’の備える第1の導出部D1’は、予測モード導出部LE534に対応する手段を備えていない。 That is, the first derivation unit D1 'included in the first processor P31' according to the comparative example and the second processor P32 'according to the comparative example does not include means corresponding to the prediction mode derivation unit LE534.
 また、当該比較例に係る第1のプロセッサP31’、および、当該比較例に係る第2のプロセッサP32’は、仮予測モードの生成を行わない点を除いては、それぞれ、本実施形態に係る第1のプロセッサP31、および、本実施形態に係る第2のプロセッサP32と同等の処理能力を有する。 In addition, the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example are respectively related to the present embodiment except that the temporary prediction mode is not generated. The first processor P31 has a processing capability equivalent to that of the second processor P32 according to the present embodiment.
 図19の(b)に示すP31’およびP32’は、図19の(a)に示す各ブロックについて、比較例に係る第1のプロセッサP31’および比較例に係る第2のプロセッサP32’が、予測モードの導出を並列的に行う場合の処理時間を模式的に示すタイミングチャートである。 P31 ′ and P32 ′ shown in (b) of FIG. 19 indicate that the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example for each block shown in (a) of FIG. It is a timing chart which shows typically processing time when deriving prediction mode in parallel.
 なお、以下では、ブロックB1’およびブロックB3’が、比較例に係る第1のプロセッサP31’によって処理されることが指定されているブロックであり、ブロックB2’およびブロックB4’が、比較例に係る第2のプロセッサP32’によって処理されることが指定されているブロックであるものとして説明を行う。 In the following, block B1 ′ and block B3 ′ are blocks designated to be processed by the first processor P31 ′ according to the comparative example, and block B2 ′ and block B4 ′ are the comparative example. The description will be made assuming that the block is designated to be processed by the second processor P32 ′.
 また、以下では、ブロックB1’およびブロックB4’が、比較例に係る第1のプロセッサP31’または比較例に係る第2のプロセッサP32’の備える第1の導出部D31’によって処理されることが指定されているブロックであり、ブロックB2’およびブロックB3’は、比較例に係る第1のプロセッサP31’または比較例に係る第2のプロセッサP32’の備える第2の導出部D32’によって処理されることが指定されているブロックであるものとして説明を行う。 In the following description, the block B1 ′ and the block B4 ′ are processed by the first derivation unit D31 ′ included in the first processor P31 ′ according to the comparative example or the second processor P32 ′ according to the comparative example. The blocks B2 ′ and B3 ′ that are designated are processed by the second derivation unit D32 ′ included in the first processor P31 ′ according to the comparative example or the second processor P32 ′ according to the comparative example. In the following description, it is assumed that the block is designated as a block.
 まず、比較例に係る第1のプロセッサP31’は、時刻t1’から時刻t5’までの期間において、予測モード導出部HE533に対応する手段によって、ブロックB1’についての予測モードの導出を行う。 First, the first processor P31 'according to the comparative example derives a prediction mode for the block B1' by means corresponding to the prediction mode deriving unit HE533 during a period from time t1 'to time t5'.
 続いて、比較例に係る第2のプロセッサP32’は、時刻t5’から時刻t6’までの期間において、第2の導出部D32’によって、ブロックB2’についての予測モードの導出を行う。ここで、ブロックB2’についての予測モードの導出は、ブロックB1’について導出された予測モードを参照して行われる。したがって、比較例に係る第2のプロセッサP32’は、ブロックB1’についての予測モードの導出が終了する時刻t5’よりも前の時点においては、ブロックB2’についての予測モードの導出処理を開始することができない。 Subsequently, the second processor P32 'according to the comparative example derives a prediction mode for the block B2' by the second deriving unit D32 'during the period from the time t5' to the time t6 '. Here, the prediction mode for the block B2 'is derived with reference to the prediction mode derived for the block B1'. Therefore, the second processor P32 ′ according to the comparative example starts the prediction mode derivation process for the block B2 ′ at a time point before the time t5 ′ when the derivation of the prediction mode for the block B1 ′ ends. I can't.
 続いて、比較例に係る第2のプロセッサP32’は、時刻t6’から時刻t9’までの期間において、予測モード導出部HE533に対応する手段によって、ブロックB4’についての予測モードの導出を行う。 Subsequently, the second processor P32 'according to the comparative example derives a prediction mode for the block B4' by means corresponding to the prediction mode deriving unit HE533 during a period from time t6 'to time t9'.
 一方で、比較例に係る第1のプロセッサP31’は、時刻t6’から時刻t7’までの期間において、第2の導出部D32’によって、ブロックB3’についての予測モードの導出を行う。ここで、ブロックB3’についての予測モードの導出は、ブロックB2’について導出された予測モードを参照して行われる。 Meanwhile, the first processor P31 'according to the comparative example derives the prediction mode for the block B3' by the second deriving unit D32 'during the period from the time t6' to the time t7 '. Here, the prediction mode for the block B3 'is derived with reference to the prediction mode derived for the block B2'.
 以上の処理によって、比較例に係る第1のプロセッサP31’、および、比較例に係る第2のプロセッサP32’は、ブロックB1’~B4’の各々について、予測モードの導出を行う。また、以上の処理に必要な時間は、時刻t1’から時刻t9’までの期間の長さに対応する。 Through the above processing, the first processor P31 'according to the comparative example and the second processor P32' according to the comparative example derive the prediction mode for each of the blocks B1 'to B4'. The time required for the above processing corresponds to the length of the period from time t1 'to time t9'.
 上記のように、ブロックB2’についての予測モードは、ブロックB1’について導出された予測モードを参照して行われる。ここで、ブロックB1’について導出される予測モードは、参照画像の画素値を参照することによって導出されるため、参照画像上の画素値に生じ得るエラーの影響を直接的に受ける。 As described above, the prediction mode for the block B2 'is performed with reference to the prediction mode derived for the block B1'. Here, since the prediction mode derived | led-out about block B1 'is derived | led-out by referring the pixel value of a reference image, it is directly received by the influence of the error which can arise in the pixel value on a reference image.
 したがって、当該比較例において導出されたブロックB2’についての予測モードは、上述した本実施形態において導出されたブロックB2’についての予測モードに比べて、エラーが生じる可能性が高い。 Therefore, the prediction mode for the block B2 'derived in the comparative example is more likely to cause an error than the prediction mode for the block B2' derived in the present embodiment described above.
 なお、ブロックB1’についての予測モードの導出処理に必要な時間、すなわち、時刻t1’から時刻t5’までの期間の長さが、ブロックB4’についての予測モードの導出処理と同じく、r’×T’であるとすると、比較例に係る第1のプロセッサP31’、および、比較例に係る第2のプロセッサP32’による並列処理によって、ブロックB1’~B4’の各々について、予測モードを導出するために必要な処理時間T2’は、
 T2’=2×r’×T’+T’=(2×r’+1)×T’
と表すことができる。
Note that the time required for the prediction mode derivation process for the block B1 ′, that is, the length of the period from the time t1 ′ to the time t5 ′ is r ′ × as in the prediction mode derivation process for the block B4 ′. If T ′, the prediction mode is derived for each of the blocks B1 ′ to B4 ′ by the parallel processing by the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example. The processing time T2 ′ required for
T2 ′ = 2 × r ′ × T ′ + T ′ = (2 × r ′ + 1) × T ′
It can be expressed as.
 したがって、上記の例においては、本実施形態に係る第1のプロセッサP31および、本実施形態に係る第2のプロセッサP32は、上記r’が、r’>2を満たす場合に、比較例に係る第1のプロセッサP31’、および比較例に係る第2のプロセッサP32’に比べて、予測モードを導出するために必要な処理時間を削減することができる。 Therefore, in the above example, the first processor P31 according to the present embodiment and the second processor P32 according to the present embodiment are related to the comparative example when r ′ satisfies r ′> 2. Compared to the first processor P31 ′ and the second processor P32 ′ according to the comparative example, the processing time required to derive the prediction mode can be reduced.
 上述のように、本実施形態においては、上記r’の値は、10から1000程度であるため、本実施形態に係る第1のプロセッサP31および、本実施形態に係る第2のプロセッサP32は、比較例に係る第1のプロセッサP31’、および比較例に係る第2のプロセッサP32’に比べて、予測モードを導出するために必要な処理時間を削減することができる。 As described above, in the present embodiment, since the value of r ′ is about 10 to 1000, the first processor P31 according to the present embodiment and the second processor P32 according to the present embodiment are Compared to the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example, the processing time required to derive the prediction mode can be reduced.
 また、処理時間T2’に対する処理時間T1’の比
T1’/T2’=(r’+3)/(2×r’+1)
は、r’が大きくなる程、1/2に近づく。本実施形態においては、上記r’の値が10から1000程度であるので、本実施形態に係る第1のプロセッサP31および、本実施形態に係る第2のプロセッサP32による並列処理を行うことによって、比較例に係る第1のプロセッサP31’および、比較例に係る第2のプロセッサP32’による並列処理に比べて、予測モードの導出に必要な処理時間が略半分に削減される。
Further, the ratio T1 ′ / T2 ′ = (r ′ + 3) / (2 × r ′ + 1) of the processing time T1 ′ to the processing time T2 ′.
Becomes closer to ½ as r ′ increases. In this embodiment, since the value of r ′ is about 10 to 1000, by performing parallel processing by the first processor P31 according to this embodiment and the second processor P32 according to this embodiment, Compared with the parallel processing by the first processor P31 ′ according to the comparative example and the second processor P32 ′ according to the comparative example, the processing time required for deriving the prediction mode is reduced by almost half.
 このように、動画像復号装置3によれば、予測画像を生成する際のエラー発生率を低減させることができるのみならず、予測モードを導出するための処理時間を削減することができるという効果も奏する。 Thus, according to the moving image decoding apparatus 3, not only the error occurrence rate when generating a predicted image can be reduced, but also the processing time for deriving the prediction mode can be reduced. Also play.
 なお、上記の説明では、第1のプロセッサP31および第2のプロセッサP32によって、予測モードまたは仮予測モードの導出が並列的に行われる場合を例に挙げ、説明を行ったが、これは本実施形態を限定するものではなく、予測モードまたは仮予測モードの導出は、第1のプロセッサP31または第2のプロセッサP32の何れか一方によって行ってもよい。 In the above description, the case where the prediction mode or the temporary prediction mode is derived in parallel by the first processor P31 and the second processor P32 has been described as an example. The form is not limited, and the derivation of the prediction mode or the temporary prediction mode may be performed by either the first processor P31 or the second processor P32.
 <本実施形態に係る動画像復号装置の他の構成例>
 本実施形態に係る動画像復号装置の構成は、上述した構成に限られるものではない。本実施形態に係る動画像復号装置は、予測モード導出部LE534を備えない構成としてもよい。このような構成の場合、予測モード推定部N536は、予測モード導出部HE533によって導出される予測モード#533を参照することなく、対象ブロックに隣接する参照ブロック、または、対象ブロックと頂点を共有する参照ブロックについて第2の導出部D32によって導出された予測モード#537を参照して、当該対象ブロックについての推定予測モード#536を導出する構成とすればよい。それ以外の構成は、すでに述べた構成と同様の構成とすることができる。
<Another configuration example of the video decoding device according to the present embodiment>
The configuration of the video decoding device according to the present embodiment is not limited to the configuration described above. The video decoding device according to the present embodiment may be configured not to include the prediction mode deriving unit LE534. In the case of such a configuration, the prediction mode estimation unit N536 shares the vertex with the reference block adjacent to the target block or the target block without referring to the prediction mode # 533 derived by the prediction mode deriving unit HE533. The configuration may be such that the estimated prediction mode # 536 for the target block is derived with reference to the prediction mode # 537 derived by the second deriving unit D32 for the reference block. Other configurations can be the same as the configurations already described.
 このように構成された動画像復号装置は、エラーの生じる可能性の高い予測モード#533を参照することなく対象ブロックについての推定予測モード#536を導出するので、推定予測モード#536にエラーが生じる可能性を低減することができる。 Since the moving picture decoding apparatus configured in this way derives the estimated prediction mode # 536 for the target block without referring to the prediction mode # 533 that is highly likely to cause an error, an error occurs in the estimated prediction mode # 536. The possibility of occurring can be reduced.
 また、このように構成された動画像復号装置は、処理量の大きい導出方法によって導出される予測モード#533を参照することなく、対象ブロックについての予測モード#537を導出するので、遅延時間を削減し、処理効率を向上させることができる。 Further, the moving picture decoding apparatus configured as described above derives the prediction mode # 537 for the target block without referring to the prediction mode # 533 derived by the derivation method having a large processing amount, so that the delay time is reduced. Can be reduced and the processing efficiency can be improved.
 (動画像符号化装置4)
 以下では、本実施形態に係る動画像符号化装置(符号化装置)4について、図20~図22を参照して説明する。
(Moving picture encoding device 4)
Hereinafter, the moving picture encoding apparatus (encoding apparatus) 4 according to the present embodiment will be described with reference to FIGS.
 動画像符号化装置4は、概略的に言えば、入力画像#100を符号化することによって符号化データ#3を生成し、出力する装置である。また、動画像符号化装置4は、その一部に、H.264/MPEG-4 AVC規格に採用されている技術を用いている動画像符号化装置である。 The moving image encoding device 4 is a device that generates and outputs encoded data # 3 by encoding the input image # 100, in brief. In addition, the moving image encoding device 4 includes H.264 as a part thereof. H.264 / MPEG-4 A moving picture coding apparatus using the technology adopted in the AVC standard.
 なお、以下では、既に説明した部分については、同じ符号を付し、その説明を省略する。 In the following description, the same reference numerals are given to the parts already described, and the description thereof is omitted.
 図20は、動画像符号化装置4の構成を示すブロック図である。図20に示すように、動画像符号化装置4は、ヘッダ情報決定部21、ヘッダ情報符号化部22、MB設定部23、MB符号化部64、可変長符号多重化部25、MB復号部66、および、フレームメモリ27を備えている。 FIG. 20 is a block diagram illustrating a configuration of the moving image encoding device 4. As illustrated in FIG. 20, the moving image encoding device 4 includes a header information determination unit 21, a header information encoding unit 22, an MB setting unit 23, an MB encoding unit 64, a variable length code multiplexing unit 25, and an MB decoding unit. 66, and a frame memory 27.
 すなわち、動画像符号化装置4は、実施形態1における動画像符号化装置2の備えるMB符号化部24およびMB復号部26に代えて、それぞれ、MB符号化部64およびMB復号部66を備えている。動画像符号化装置4のその他の構成は、動画像符号化装置2と同様である。 That is, the moving image encoding device 4 includes an MB encoding unit 64 and an MB decoding unit 66, respectively, instead of the MB encoding unit 24 and the MB decoding unit 26 included in the moving image encoding device 2 in the first embodiment. ing. Other configurations of the moving image encoding device 4 are the same as those of the moving image encoding device 2.
 MB符号化部64は、順次入力されるマクロブロック画像#23を符号化し、MB符号化データ#64を生成する。生成されたMB符号化データ#64は、可変長符号多重化部25、およびMB復号部66に供給される。MB符号化部64の構成については、後述するため、ここでは説明を省略する。 The MB encoding unit 64 encodes sequentially input macro block images # 23 to generate MB encoded data # 64. The generated MB encoded data # 64 is supplied to the variable length code multiplexing unit 25 and the MB decoding unit 66. Since the configuration of the MB encoding unit 64 will be described later, description thereof is omitted here.
 可変長符号多重化部25は、符号化済ヘッダ情報#22と、MB符号化データ#64とを多重化することによって符号化データ#3を生成し、出力する。 The variable length code multiplexing unit 25 generates encoded data # 3 by multiplexing encoded header information # 22 and MB encoded data # 64 and outputs the encoded data # 3.
 MB復号部66は、入力された個々のマクロブロックに対応するMB符号化データ#64を順次復号することにより、個々のマクロブロックに対応する復号画像#66を生成し、出力する。復号画像#66は、フレームメモリ27に供給される。 The MB decoding unit 66 generates and outputs a decoded image # 66 corresponding to each macroblock by sequentially decoding the MB encoded data # 64 corresponding to each input macroblock. The decoded image # 66 is supplied to the frame memory 27.
 (MB符号化部64)
 以下では、MB符号化部64の構成について図21を参照して説明する。
(MB encoding unit 64)
Below, the structure of the MB encoding part 64 is demonstrated with reference to FIG.
 図21は、MB符号化部64の構成を示すブロック図である。図21に示すように、MB符号化部64は、イントラ予測タイプ決定部641、スイッチ部642、予測モード導出部HE643、予測モード導出部LE644、予測モード決定部645、予測モード推定部N646、予測モード符号化部647、イントラ予測部648、減算器649、予測残差符号化部650、および、MB符号化データ生成部651を備えている。また、予測モード導出部HE643および予測モード導出部LE644は、第1の導出部D41を構成し、予測モード決定部645および予測モード推定部N646は、第2の導出部D42を構成している。 FIG. 21 is a block diagram showing a configuration of the MB encoding unit 64. As illustrated in FIG. 21, the MB encoding unit 64 includes an intra prediction type determination unit 641, a switch unit 642, a prediction mode derivation unit HE643, a prediction mode derivation unit LE644, a prediction mode determination unit 645, a prediction mode estimation unit N646, and a prediction. A mode encoding unit 647, an intra prediction unit 648, a subtracter 649, a prediction residual encoding unit 650, and an MB encoded data generation unit 651 are provided. Also, the prediction mode deriving unit HE643 and the prediction mode deriving unit LE644 constitute a first deriving unit D41, and the prediction mode determining unit 645 and the prediction mode estimating unit N646 constitute a second deriving unit D42.
 (イントラ予測タイプ決定部641)
 イントラ予測タイプ決定部641は、マクロブロック画像#23が入力された時点で起動し、対象マクロブロックに属する各ブロックにおける予測画像の生成に用いられる予測モードの導出方法を、所定のアルゴリズムに基づいて、ブロック毎に決定する。
(Intra prediction type determination unit 641)
The intra prediction type determination unit 641 is activated when the macroblock image # 23 is input, and a prediction mode derivation method used for generating a prediction image in each block belonging to the target macroblock is determined based on a predetermined algorithm. Determine for each block.
 より具体的には、イントラ予測タイプ決定部641は、各ブロックについて、イントラ予測タイプHEまたはイントラ予測タイプNのうち何れの予測タイプに分類すべきかを決定する。ここで、動画像復号装置3の説明において述べたように、イントラ予測タイプHEに対応するブロックは、イントラ予測タイプNに対応するブロックに比べて、予測モードを導出するための処理量が大きい。 More specifically, the intra prediction type determination unit 641 determines which prediction type should be classified into the intra prediction type HE or the intra prediction type N for each block. Here, as described in the description of the video decoding device 3, the block corresponding to the intra prediction type HE has a larger processing amount for deriving the prediction mode than the block corresponding to the intra prediction type N.
 また、イントラ予測タイプ決定部641は、各ブロックが、イントラ予測タイプHEまたはイントラ予測タイプNのうち何れの予測タイプに分類されるのかを示す情報であるイントラ予測タイプ指定情報#641を出力する。 Also, the intra prediction type determination unit 641 outputs intra prediction type designation information # 641 that is information indicating which prediction type each block is classified into the intra prediction type HE or the intra prediction type N.
 なお、上記所定のアルゴリズムとしては、例えば、対象マクロブロックを構成するブロックがn個である場合に、各ブロックをイントラ予測タイプHEまたはイントラ予測タイプNのうち何れかの予測タイプに分類することによって得られる2n通りの組み合わせ全てについて、予測画像の生成を行い、生成された予測画像とマクロブロック画像#23との残差データを符号化する場合の符号化効率を最適化するような予測タイプの組み合わせを決定するアルゴリズムを用いればよい。また、上記符号化効率を評価する指標としては、レート歪みコストを用いることができる。 As the predetermined algorithm, for example, when there are n blocks constituting the target macroblock, each block is classified into one of intra prediction type HE or intra prediction type N. Prediction type that generates prediction images for all 2 n combinations obtained and optimizes encoding efficiency when encoding residual data between the generated prediction images and macroblock image # 23 It is sufficient to use an algorithm for determining the combination of. As an index for evaluating the coding efficiency, rate distortion cost can be used.
 (スイッチ部642)
 スイッチ部642は、イントラ予測タイプ指定情報#641に基づいて、マクロブロック画像#23を、ブロック単位で、第1の導出部D41および第2の導出部D42の何れか一方に伝達する。より具体的には、スイッチ部642は、イントラ予測タイプ指定情報#641が、対象ブロックがイントラ予測タイプHEに分類されていることを示している場合には、マクロブロック画像#23のうち対象ブロックに関する画像を第1の導出部D41に伝達し、イントラ予測タイプ指定情報#641が、対象ブロックがイントラ予測タイプNに分類されていることを示している場合には、マクロブロック画像#23のうち対象ブロックに関する画像を第2の導出部D42に伝達する。
(Switch unit 642)
Based on the intra prediction type designation information # 641, the switch unit 642 transmits the macroblock image # 23 to one of the first deriving unit D41 and the second deriving unit D42 in units of blocks. More specifically, the switch unit 642, when the intra prediction type designation information # 641 indicates that the target block is classified into the intra prediction type HE, the target block of the macroblock image # 23. When the intra prediction type designation information # 641 indicates that the target block is classified into the intra prediction type N, the image regarding the macro block image # 23 is transmitted. An image related to the target block is transmitted to the second deriving unit D42.
 (予測モード導出部HE643)
 予測モード導出部HE643は、フレームメモリ27に記録されている復号画像#27のうち、対象ブロックと同じフレームに含まれる各ブロックについての復号画像#27’を参照し、対象ブロックについての予測モード#643を導出する。
(Prediction mode deriving unit HE643)
The prediction mode deriving unit HE643 refers to the decoded image # 27 ′ for each block included in the same frame as the target block among the decoded images # 27 recorded in the frame memory 27, and predicts the prediction mode # for the target block. 643 is derived.
 予測モード導出部HE643による予測モード#643の導出は、動画像復号装置3の備える予測モード導出部HE533による予測モード#533の導出と同様の処理によって行うことができる。 The derivation of the prediction mode # 643 by the prediction mode derivation unit HE643 can be performed by the same process as the derivation of the prediction mode # 533 by the prediction mode derivation unit HE533 included in the video decoding device 3.
 また、導出された予測モード#643は、イントラ予測部648に対して出力される。 Further, the derived prediction mode # 643 is output to the intra prediction unit 648.
 (予測モード導出部LE644)
 予測モード導出部LE644は、対象ブロックOBの上辺に隣接する参照ブロックRB1’、対象ブロックOBの左辺に隣接する参照ブロックRB2’の各々について予測モード決定部645によって決定された予測モード#645を参照して、対象ブロックOBに対して暫定的に設定される仮予測モード#644を導出する。
(Prediction mode deriving unit LE644)
The prediction mode deriving unit LE644 refers to the prediction mode # 645 determined by the prediction mode determining unit 645 for each of the reference block RB1 ′ adjacent to the upper side of the target block OB and the reference block RB2 ′ adjacent to the left side of the target block OB. Then, provisional prediction mode # 644 that is provisionally set for the target block OB is derived.
 予測モード導出部LE644による仮予測モード#644の導出は、動画像復号装置3の備える予測モード導出部LE534による仮予測モード#534の導出と同様の処理によって行うことができる。ただし、ここでは、「イントラ予測タイプ指定情報#531」を「イントラ予測タイプ指定情報#641」と読み替えるものとする(動画像符号化装置4において以下同様)。 The derivation of the temporary prediction mode # 644 by the prediction mode deriving unit LE644 can be performed by the same process as the derivation of the temporary prediction mode # 534 by the prediction mode deriving unit LE534 included in the video decoding device 3. However, here, “intra prediction type designation information # 531” is read as “intra prediction type designation information # 641” (the same applies to the video encoding device 4 below).
 また、導出された仮予測モード#644は、予測モードバッファ652に格納される。 The derived temporary prediction mode # 644 is stored in the prediction mode buffer 652.
 (予測モード決定部645)
 予測モード決定部645は、所定のアルゴリズムによって、画面内予測による対象ブロックにおける予測画像の生成に用いられる予測モード#645を決定する。決定された予測モード#645は、予測モード符号化部647および予測モードバッファ652に対して出力される。
(Prediction mode determination unit 645)
The prediction mode determination unit 645 determines a prediction mode # 645 used for generating a predicted image in the target block by intra prediction by a predetermined algorithm. The determined prediction mode # 645 is output to the prediction mode encoding unit 647 and the prediction mode buffer 652.
 なお、上記所定のアルゴリズムとしては、例えば、対象ブロックに対して、当該対象ブロックにおける予測画像と、マクロブロック画像#23の対象ブロックにおける画像との残差データを符号化する場合の符号化効率を最適化するような予測モードを決定するアルゴリズムを用いればよい。また、上記符号化効率を評価する指標としては、レート歪みコストを用いることができる。 Note that, as the predetermined algorithm, for example, for the target block, the encoding efficiency when encoding the residual data between the prediction image in the target block and the image in the target block of the macroblock image # 23 is as follows. An algorithm that determines a prediction mode to be optimized may be used. As an index for evaluating the coding efficiency, rate distortion cost can be used.
 (予測モード推定部N646)
 予測モード推定部N646は、対象ブロックに隣接するブロックについて、予測モード決定部645によって決定された予測モード#645を参照して、対象ブロックについての予測モードの推定値である推定予測モード#646を導出し、予測モード符号化部647に供給する。
(Prediction mode estimation unit N646)
The prediction mode estimation unit N646 refers to the prediction mode # 645 determined by the prediction mode determination unit 645 for a block adjacent to the target block, and calculates an estimated prediction mode # 646 that is an estimated value of the prediction mode for the target block. Derived and supplied to the prediction mode encoding unit 647.
 予測モード推定部N646による推定予測モード#646の導出は、動画像復号装置3の備える予測モード推定部N536による推定予測モード#536の導出と同様の処理によって行うことができる。 The derivation of the estimated prediction mode # 646 by the prediction mode estimation unit N646 can be performed by the same process as the derivation of the estimated prediction mode # 536 by the prediction mode estimation unit N536 included in the video decoding device 3.
 (予測モード符号化部647)
 予測モード符号化部647は、予測モード#645および推定予測モード#646を参照することによって、符号化された予測モード#647を生成する。
(Prediction mode encoding unit 647)
The prediction mode encoding unit 647 generates the encoded prediction mode # 647 by referring to the prediction mode # 645 and the estimated prediction mode # 646.
 より具体的には、予測モード符号化部647は、予測モード#645と推定予測モード#646とを比較し、両者が等しい場合には、予測モードフラグPMFの値を1に設定し、当該予測モードフラグPMFを符号化することによって、符号化された予測モード#647を生成する。 More specifically, the prediction mode encoding unit 647 compares the prediction mode # 645 and the estimated prediction mode # 646, and if they are equal, sets the value of the prediction mode flag PMF to 1 and performs the prediction The encoded prediction mode # 647 is generated by encoding the mode flag PMF.
 一方で、予測モード符号化部647は、予測モード#645と推定予測モード#646とが互いに異なる場合には、予測モードフラグPMFの値を0に設定し、当該予測モードフラグPMFと予測モード#645とを共に符号化することによって、符号化された予測モード#647を生成する。 On the other hand, when the prediction mode # 645 and the estimated prediction mode # 646 are different from each other, the prediction mode encoding unit 647 sets the value of the prediction mode flag PMF to 0, and the prediction mode flag PMF and the prediction mode # The encoded prediction mode # 647 is generated by encoding 645 together.
 生成された予測モード#647は、MB符号化データ生成部651に対して出力される。 The generated prediction mode # 647 is output to the MB encoded data generation unit 651.
 (イントラ予測部648)
 イントラ予測部648は、フレームメモリ27に格納されている復号画像#27のうち、対象ブロックと同じフレームに含まれる各ブロックについての復号画像#27’に対して、予測モード#643または予測モード#645に基づいた画面内予測を行うことによって予測画像#648を生成し、出力する。
(Intra prediction unit 648)
The intra prediction unit 648 performs the prediction mode # 643 or the prediction mode # on the decoded image # 27 ′ of each block included in the same frame as the target block among the decoded images # 27 stored in the frame memory 27. Prediction image # 648 is generated by performing in-screen prediction based on 645 and output.
 以下では、イントラ予測部648による予測画像#648の生成処理の具体例について、対象サブブロックが4×4画素である場合を例にとり、図22を参照して説明する。 Hereinafter, a specific example of the generation process of the predicted image # 648 by the intra prediction unit 648 will be described with reference to FIG. 22 by taking a case where the target sub-block is 4 × 4 pixels as an example.
 図22は、4×4画素である対象ブロックの各画素(予測対象画素)と、当該対象ブロックの周辺の画素(参照画素)とを示す図である。図22に示すように、予測対象画素には符号a~p、参照画素には符号A~Mを付し、画素X(Xはa~p、A~Mの何れか)の画素値をXと表すことにする。また、参照画素A~Mは、何れも復号済みであるとする。 FIG. 22 is a diagram illustrating each pixel (prediction target pixel) of the target block that is 4 × 4 pixels and pixels (reference pixels) around the target block. As shown in FIG. 22, the prediction target pixels are denoted by reference signs a to p, the reference pixels are denoted by reference signs A to M, and the pixel value of the pixel X (X is any one of a to p and A to M) is set to X. It will be expressed as Further, it is assumed that the reference pixels A to M have all been decoded.
 (予測モード0)
 対象ブロックについての予測モードが予測モード0である場合、イントラ予測部648は、画素値a~pを、以下の式
 a,e,i,m=A,
 b,f,j,n=B,
 c,g,k,o=C,
 d,h,l,p=D
によって生成する。
(Prediction mode 0)
When the prediction mode for the target block is the prediction mode 0, the intra prediction unit 648 converts the pixel values a to p into the following expressions a, e, i, m = A,
b, f, j, n = B,
c, g, k, o = C,
d, h, l, p = D
Generate by.
 (予測モード2)
 対象ブロックについての予測モードが予測モード2(DC予測)である場合、イントラ予測部648は、画素値a~pを以下の式
 a~p=ave(A,B,C,D,I,J,K,L)
によって生成する。ここで、ave(…)は、括弧内に含まれる要素の平均をとることを示している。
(Prediction mode 2)
When the prediction mode for the target block is prediction mode 2 (DC prediction), the intra prediction unit 648 converts the pixel values a to p into the following expressions: a to p = ave (A, B, C, D, I, J , K, L)
Generate by. Here, ave (...) Indicates that an element included in parentheses is averaged.
 (予測モード4)
 対象ブロックについての予測モードが予測モード4である場合、イントラ予測部648は、画素値a~pを以下の式
 d=(B+(C<<1)+D+2)>>2,
 c,h=(A+(B<<1)+C+2)>>2,
 b,g,l=(M+(A<<1)+B+2)>>2,
 a,f,k,p=(I+(M<<1)+A+2)>>2,
 e,j,o=(J+(I<<1)+M+2)>>2,
 i,n=(K+(J<<1)+I+2)>>2,
 m=(L+(K<<1)+J+2)>>2
によって生成する。ここで、<<は左シフト演算を表し、a<<bの値はa×(2のb乗)の値に等しい。また、>>は右シフト演算を表し、a>>bの値はa÷(2のb乗)の値の小数部分を切り捨てた値に等しい。
(Prediction mode 4)
When the prediction mode for the target block is the prediction mode 4, the intra prediction unit 648 converts the pixel values a to p into the following expression d = (B + (C << 1) + D + 2) >> 2,
c, h = (A + (B << 1) + C + 2) >> 2,
b, g, l = (M + (A << 1) + B + 2) >> 2,
a, f, k, p = (I + (M << 1) + A + 2) >> 2,
e, j, o = (J + (I << 1) + M + 2) >> 2,
i, n = (K + (J << 1) + I + 2) >> 2,
m = (L + (K << 1) + J + 2) >> 2
Generate by. Here, << represents a left shift operation, and the value of a << b is equal to the value of a × (2 to the power of b). >> represents a right shift operation, and the value of a >> b is equal to a value obtained by rounding down the decimal part of a ÷ (2 to the power of b).
 また、イントラ予測部648は、上記の予測モード以外の予測モードに対しても、同様の方法によって画素値a~pを算出することができる。 Also, the intra prediction unit 648 can calculate the pixel values a to p by a similar method for prediction modes other than the above prediction modes.
 以上のような処理を行うことによって、イントラ予測部648は、各ブロックにおける予測画像#648を生成することができる。 By performing the above processing, the intra prediction unit 648 can generate a predicted image # 648 in each block.
 減算器649は、マクロブロック画像#23と予測画像#648との差分をとることによって予測残差#649を生成し、出力する。 The subtractor 649 generates and outputs a prediction residual # 649 by taking the difference between the macroblock image # 23 and the prediction image # 648.
 予測残差符号化部650は、予測残差#649を符号化し、符号化された予測画像#650をMB符号化データ生成部651に対して出力する。 The prediction residual encoding unit 650 encodes the prediction residual # 649 and outputs the encoded prediction image # 650 to the MB encoded data generation unit 651.
 MB符号化データ生成部651は、符号化された予測画像#650、符号化された予測モード#647、および、イントラ予測タイプ指定情報#641を多重化することによって、MB符号化データ#64を生成し、出力する。 The MB encoded data generation unit 651 multiplexes the encoded predicted image # 650, the encoded prediction mode # 647, and the intra prediction type designation information # 641 to thereby convert the MB encoded data # 64. Generate and output.
 予測モードバッファ652には、仮予測モード#644、予測モード#643、および、予測モード#645が格納される。 The prediction mode buffer 652 stores temporary prediction mode # 644, prediction mode # 643, and prediction mode # 645.
 以上のように構成された動画像符号化装置4は、エラーの生じる可能性の高い予測モード#643参照せず、エラーの生じる可能性の低い仮予測モード#644を参照して、対象ブロックについての推定予測モード#646を導出するので、推定予測モード#646にエラーが生じる可能性を低減することができる。 The moving image encoding device 4 configured as described above does not refer to the prediction mode # 643 where the possibility of an error is high, but refers to the temporary prediction mode # 644 where the possibility of an error is low. Since the estimated prediction mode # 646 is derived, the possibility that an error occurs in the estimated prediction mode # 646 can be reduced.
 また、以上のように構成された動画像符号化装置4は、処理量の大きい導出方法によって導出される予測モード#643を参照せず、処理量の小さい導出方法によって導出される仮予測モード#644を参照して、対象ブロックについての推定予測モード#646を導出するので、遅延時間を削減し、処理効率を向上させることができる。また、動画像符号化装置4は、対応する動画像復号装置(例えば動画像復号装置3)において、少ない遅延時間で復号可能である符号化データを生成できる。 In addition, the moving image encoding device 4 configured as described above does not refer to the prediction mode # 643 derived by the derivation method having a large processing amount, but the temporary prediction mode # derived by the derivation method having a small processing amount. Since the estimated prediction mode # 646 for the target block is derived with reference to 644, the delay time can be reduced and the processing efficiency can be improved. In addition, the moving image encoding device 4 can generate encoded data that can be decoded with a small delay time in a corresponding moving image decoding device (for example, the moving image decoding device 3).
 <本実施形態に係る動画像符号化装置の他の構成例>
 本実施形態に係る動画像符号化装置の構成は、上述した構成に限られるものではない。本実施形態に係る動画像符号化装置は、予測モード導出部LE644を備えない構成としてもよい。このような構成の場合、予測モード推定部N646は、予測モード導出部HE643によって導出される予測モード#643を参照することなく、対象ブロックに隣接する参照ブロック、または、対象ブロックと頂点を共有する参照ブロックについて、予測モード決定部645により導出された予測モード#645を参照して、当該対象ブロックについての推定予測モード#646を導出する構成とすればよい。それ以外の構成は、すでに述べた構成と同様の構成とすることができる。
<Another Configuration Example of Video Encoding Device According to this Embodiment>
The configuration of the moving image encoding apparatus according to the present embodiment is not limited to the configuration described above. The video encoding apparatus according to the present embodiment may be configured not to include the prediction mode deriving unit LE644. In the case of such a configuration, the prediction mode estimation unit N646 shares the vertex with the reference block adjacent to the target block or the target block without referring to the prediction mode # 643 derived by the prediction mode deriving unit HE643. For the reference block, the prediction mode # 645 derived by the prediction mode determination unit 645 may be referred to derive the estimated prediction mode # 646 for the target block. Other configurations can be the same as the configurations already described.
 このように構成された動画像符号化装置は、エラーの生じる可能性の高い予測モード#643を参照することなく対象ブロックについての推定予測モード#646を導出するので、推定予測モード#646にエラーが生じる可能性を低減することができる。また、動画像符号化装置4は、対応する動画像復号装置(例えば動画像復号装置3)において復号する際にエラーが発生する可能性の低い符号化データを生成できる。 The moving picture coding apparatus configured as described above derives the estimated prediction mode # 646 for the target block without referring to the prediction mode # 643 that is highly likely to cause an error. It is possible to reduce the possibility of occurrence. In addition, the moving image encoding device 4 can generate encoded data that is less likely to cause an error when being decoded by a corresponding moving image decoding device (for example, the moving image decoding device 3).
 また、このように構成された動画像符号化装置は、処理量の大きい導出方法によって導出される予測モード#643を参照することなく、対象ブロックについての推定予測モード#646を導出するので、遅延時間を削減し、処理効率を向上させることができる。 In addition, the moving picture coding apparatus configured as described above derives the estimated prediction mode # 646 for the target block without referring to the prediction mode # 643 derived by the derivation method having a large processing amount. Time can be reduced and processing efficiency can be improved.
 <実施形態1および実施形態2についての付記事項1>
 上述の実施形態1に係る記載では、エラーの生じる可能性の高い予測方法として復号画像を参照する方法、エラーの生じる可能性の低い予測方法として、復号画像に較べてエラーの生じる可能性の低い符号化パラメータである動きベクトルを参照する方法を示した。また、上述の実施形態2に係る記載では、エラーの生じる可能性の高い予測方法として復号画像を参照する方法、エラーの生じる可能性の低い予測方法として、復号画像に較べてエラーの生じる可能性の低い符号化パラメータであるイントラ予測モードを参照する方法を示した。しかしながら、本発明におけるエラーの生じる可能性の高い予測方法とエラーの生じる可能性の低い予測方法は上記の例に限定されない。例えば、任意の符号化パラメータ(以下、PLE)に対して、エラーの生じる可能性の低い予測方法としてPLEを参照する方法、エラーの生じる可能性の高い予測方法として、PLEに基づき導出される符号化パラメータ(以下、PHE)を参照する方法を適用する場合にも、実施形態1および実施形態2と同様にエラーが発生する可能性を低減する効果が得られる。なぜならば、PHEはPLEに基づいて導出されるので、PHEにエラーが発生する可能性はPLEにエラーが発生する可能性より高くなるためである。具体的なPLEとPHEの組み合わせの例をいくつか示す。
a.PLE:動きベクトル、PHE:復号画像(復号画像は、動きベクトルに基づき導出される予測画像に復号予測残差を加えることで導出される。)
b.PLE:イントラ予測モード、PHE:復号画像(復号画像は、予測モードに基づき導出される予測画像に復号予測残差を加えることで導出される。)
c.PLE:動きベクトル残差、PHE:動きベクトル(動きベクトルは、動きベクトル残差に予測動きベクトルを加えることで導出される。)
d.PLE:復号予測残差、PHE:復号画像(復号画像は、復号予測残差に予測画像を加えることで導出される。)
e.PLE:参照画像インデックス、PHE:予測画像(予測画像は、参照画像インデックスにより指定される参照画像、および、動きベクトルにより導出される。)
 なお、上記の復号予測残差とは、例えば、動画像復号装置1の備える予測残差復号部141によって復号される予測残差#141、および、動画像符号化装置2の備える減算器249が出力する予測残差#249に対応するものである。
<Additional remark 1 about Embodiment 1 and Embodiment 2>
In the description according to the first embodiment described above, a method for referring to a decoded image as a prediction method with a high possibility of occurrence of an error, and a prediction method with a low possibility of occurrence of an error as a prediction method with a low possibility of occurrence of an error are less likely to cause an error. A method for referring to a motion vector as an encoding parameter is shown. Further, in the description according to the second embodiment described above, a method of referring to a decoded image as a prediction method with a high possibility of occurrence of an error, and a possibility of occurrence of an error as compared with a decoded image as a prediction method with a low possibility of occurrence of an error. A method for referring to the intra prediction mode, which is a low coding parameter, is presented. However, the prediction method with a high possibility of an error and the prediction method with a low possibility of an error in the present invention are not limited to the above example. For example, with respect to an arbitrary coding parameter (hereinafter referred to as PLE), a method of referring to PLE as a prediction method with a low possibility of error occurrence, and a code derived based on PLE as a prediction method with a high possibility of error occurrence Even in the case of applying a method for referring to a conversion parameter (hereinafter referred to as PHE), an effect of reducing the possibility of occurrence of an error is obtained as in the first and second embodiments. This is because the PHE is derived based on the PLE, so that the possibility that an error occurs in the PHE is higher than the possibility that an error occurs in the PLE. Some specific combinations of PLE and PHE are shown below.
a. PLE: motion vector, PHE: decoded image (a decoded image is derived by adding a decoded prediction residual to a predicted image derived based on a motion vector)
b. PLE: Intra prediction mode, PHE: Decoded image (The decoded image is derived by adding a decoded prediction residual to a predicted image derived based on the prediction mode.)
c. PLE: motion vector residual, PHE: motion vector (a motion vector is derived by adding a motion vector residual to a motion vector residual)
d. PLE: decoded prediction residual, PHE: decoded image (the decoded image is derived by adding the predicted image to the decoded prediction residual)
e. PLE: reference image index, PHE: predicted image (the predicted image is derived from a reference image specified by the reference image index and a motion vector).
Note that the decoded prediction residual is, for example, the prediction residual # 141 decoded by the prediction residual decoding unit 141 included in the video decoding device 1 and the subtracter 249 included in the video encoding device 2. This corresponds to the prediction residual # 249 to be output.
 また、復号画像は動画像復号装置における最終出力であるため、他のあらゆる符号化パラメータよりもエラーが発生する可能性が高い。従って、復号画像を参照する方法をエラーの生じる可能性の高い予測方法として用い、復号画像を参照しない方法をエラーの生じる可能性の低い予測方法として用いた場合にも、エラーが発生する可能性を低減できる。 Also, since the decoded image is the final output in the moving image decoding apparatus, there is a higher possibility that an error will occur than any other encoding parameter. Therefore, even when a method that refers to a decoded image is used as a prediction method that is highly likely to cause an error and a method that does not refer to a decoded image is used as a prediction method that is unlikely to cause an error, an error may occur. Can be reduced.
 また、別の例として、任意の符号化パラメータ(以下、PX)に対して、エラーの生じる可能性の低い予測方法として、PXをN回参照する方法を用い、エラーの生じる可能性の高い予測方法として、PXをM回(ただし、M>N)参照する方法を用いる場合にも、エラーが発生する可能性を低減できる。より具体的には、エラーの生じる可能性の低い方法として、所定の探索範囲を設定して復号画像を参照することで動きベクトルを導出する方法を用い、エラーの生じる可能性の高い方法として、前記探索範囲よりも広い探索範囲を設定して復号画像を参照することで動きベクトルを導出する方法を用いることでもエラーの生じる可能性を低減できる。 As another example, for a given encoding parameter (hereinafter referred to as PX), a prediction method with a high possibility of an error is generated by using a method of referring to PX N times as a prediction method with a low possibility of an error. Even when a method of referring to PX M times (however, M> N) is used as a method, the possibility of an error occurring can be reduced. More specifically, as a method with a low possibility of causing an error, a method of deriving a motion vector by setting a predetermined search range and referring to a decoded image, By using a method of deriving a motion vector by setting a search range wider than the search range and referring to the decoded image, the possibility of an error can be reduced.
 <実施形態1および実施形態2についての付記事項2>
 一般に、符号化データは、伝送中に、外界からの擾乱により伝送エラーが生じることがある。より具体的には、符号化データに含まれるシンタックス(データ列)には、伝送中に、ビット誤りが生じたり、ビット欠損が生じることがある。
<Additional remark 2 about Embodiment 1 and Embodiment 2>
In general, during transmission of encoded data, a transmission error may occur due to disturbance from the outside world. More specifically, the syntax (data string) included in the encoded data may cause a bit error or a bit loss during transmission.
 このような伝送エラーが生じたシンタックスを含む符号化データは、当該符号化データを復号する動画像復号装置において、復号エラーを招来する。 The encoded data including the syntax in which such a transmission error occurs causes a decoding error in the moving picture decoding apparatus that decodes the encoded data.
 したがって、符号化データに含まれる各種のシンタックスを、エラーが生じた場合の復号画像の画質劣化の大きさに応じてクラス分けし、エラーが生じた場合の復号画像の画質劣化への影響がより大きいシンタックスを、エラー耐性のより高い伝送方法によって伝送し、画質劣化への影響がより小さいシンタックスを、エラー耐性が相対的に低い伝送方法によって伝送することが好ましい。 Therefore, the various syntaxes included in the encoded data are classified according to the degree of image quality degradation of the decoded image when an error occurs, and the influence on the image quality degradation of the decoded image when an error occurs. It is preferable that a larger syntax is transmitted by a transmission method with higher error tolerance, and a syntax with less influence on image quality degradation is transmitted by a transmission method with relatively low error tolerance.
 したがって、実施形態1においては、符号化データ#1に含まれる動きベクトル残差MVD、予測モード情報PMI、予測画像と原画像との残差データである量子化予測残差QDなどの各種のシンタックスの各々を、復号エラーまたは伝送エラーによる画像劣化の影響の大きさを示す重要度に関連付け、当該重要度が高いシンタックスを、エラー耐性のより高い伝送方法によって伝送し、当該重要度が相対的に低いシンタックスを、エラー耐性が相対的に低い伝送方法によって伝送することが好ましい。また、実施形態2においても同様である。 Therefore, in the first embodiment, various kinds of thin vectors such as the motion vector residual MVD, the prediction mode information PMI, and the quantized prediction residual QD that is residual data between the prediction image and the original image are included in the encoded data # 1. Each of the syntaxes is associated with an importance indicating the magnitude of the effect of image degradation due to a decoding error or a transmission error, and the syntax with the higher importance is transmitted by a transmission method with higher error tolerance, and the importance is relative. It is preferable to transmit a low syntax by a transmission method having a relatively low error resistance. The same applies to the second embodiment.
 また、動画像復号装置1および動画像復号装置3は、各シンタックスに関連付けられている重要度を示す重要度情報を取得する重要度情報取得手段と備える構成とすればよい。 Further, the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 may be configured to include importance level information acquisition means for acquiring importance level information indicating the importance level associated with each syntax.
 また、動画像符号化装置2および動画像符号化装置4は、各シンタックスに重要度を関連付ける重要度設定手段を備える構成とすればよい。 Also, the moving picture coding apparatus 2 and the moving picture coding apparatus 4 may be configured to include importance setting means for associating importance with each syntax.
 また、動画像符号化装置2および動画像符号化装置4は、より高い重要度に関連付けられたシンタックスをよりエラー耐性の高い伝送方式によって伝送する伝送手段を備える構成とすればよい。 Also, the moving picture coding apparatus 2 and the moving picture coding apparatus 4 may be configured to include a transmission unit that transmits a syntax associated with a higher importance by a transmission method with higher error tolerance.
 例えば、重要度の大きさをIを用いて表し、重要度がIであるものを重要度Iと表すことにし、Iが大きいほど重要度が大きいものとすると、復号エラーまたは伝送エラーによる画像劣化の影響が大きいシンタックスである動きベクトル残差、および、予測モードなどは、重要度2に関連付けられ、復号エラーまたは伝送エラーによる画像劣化の影響が比較的小さいシンタックスである量子化予測残差などは、重要度1に関連付けられる。また、重要度2に関連付けられたシンタックスは、エラー耐性の高い伝送方式によって伝送され、重要度1に関連付けられたシンタックスは、エラー耐性が相対的に低い伝送方式によって伝送される。 For example, if the degree of importance is expressed using I, and the degree of importance is I is expressed as importance I, and the degree of importance increases as I increases, image degradation due to decoding error or transmission error The motion vector residual, which is a syntax having a large influence on the motion vector, and the prediction mode and the like are associated with the importance level 2, and the quantization prediction residual is a syntax having a relatively small influence on image degradation due to a decoding error or a transmission error. And so on are associated with importance 1. Also, the syntax associated with importance 2 is transmitted by a transmission scheme with high error tolerance, and the syntax associated with importance 1 is transmitted by a transmission scheme with relatively low error tolerance.
 ここで、エラー耐性の高い伝送方法とは、例えば、復号画像に対する伝送エラーの影響がより大きいシンタックスを繰り返し符号化して伝送する方法や、復号画像に対する伝送エラーの影響がより大きいシンタックスを、エラーの影響をより受けにくい伝送路によって伝送する方法などが含まれる。 Here, the transmission method with high error tolerance is, for example, a method of repeatedly encoding and transmitting a syntax that has a larger effect on the decoded image and a syntax that has a larger effect on the decoded image. This includes a method of transmitting via a transmission line that is less susceptible to errors.
 このように伝送される符号化データ#1および符号化データ#3において、重要度2に関連付けられているシンタックス(動きベクトル残差、および、予測モード情報など)には、伝送エラーが生じにくいため、復号エラーも生じにくい。一方で、重要度1に関連付けられているシンタックス(量子化予測残差など)には、伝送エラーが生じやすいため、復号エラーも生じやすい。 In the encoded data # 1 and the encoded data # 3 transmitted in this way, a transmission error hardly occurs in the syntax (such as motion vector residual and prediction mode information) associated with the importance level 2. Therefore, it is difficult for a decoding error to occur. On the other hand, since the syntax (quantized prediction residual, etc.) associated with the importance 1 is likely to cause a transmission error, a decoding error is also likely to occur.
 なお、上記各種のシンタックスのうち、何れのシンタックスが、何れの重要度に関連付けられているのかを示す情報を、符号化データ#1、および、符号化データ#3に含める構成としてもよいし、動画像復号装置1、動画像符号化装置2、動画像復号装置3、および、動画像符号化装置2がそれぞれ備えるメモリに格納される構成としてもよい。 In addition, it is good also as a structure which includes the information which shows which syntax is associated with which importance among the various said syntax in encoding data # 1 and encoding data # 3. The video decoding device 1, the video encoding device 2, the video decoding device 3, and the video encoding device 2 may be stored in the respective memories.
 また、上記シンタックスを復号することによって得られるパラメータにも、当該シンタックスと同じ重要度が関連付けられ、動画像復号装置1、動画像符号化装置2、動画像復号装置3、および、動画像符号化装置2が、当該重要度を識別することができるような構成としてもよい。 Also, the parameters obtained by decoding the syntax are associated with the same importance as the syntax, and the video decoding device 1, the video encoding device 2, the video decoding device 3, and the video The encoding device 2 may be configured to be able to identify the importance level.
 この場合、例えば、動きベクトル残差、および、予測モード情報をそれぞれ復号することによって得られる動きベクトル、および、予測モードは、重要度2に関連付けられており、量子化予測残差を復号することによって得られる予測残差、画素値の周波数成分、および、画素値は、重要度1に関連付けられる。 In this case, for example, the motion vector obtained by decoding the motion vector residual and the prediction mode information, respectively, and the prediction mode are associated with importance 2, and the quantized prediction residual is decoded. The prediction residual, the frequency component of the pixel value, and the pixel value obtained by are associated with importance 1.
 なお、上記重要度は、シンタックス毎に動画像符号化装置と動画像復号装置において共通で用いられる規定の値を定めてもよい。例えば、H.264/MPEG-4.AVC規格では、データパーティションと呼ばれる仕組みにおいて、そのような重要度が規定されている。また、各シンタックスに対応する重要度を動画像符号化装置で決定し、その情報を符号化データ中のヘッダ情報に含むことで、動画像復号装置においても同じシンタックスと重要度の対応関係を参照できるようにしても構わない。 It should be noted that the importance level may be a predetermined value that is commonly used in the video encoding device and the video decoding device for each syntax. For example, H.M. H.264 / MPEG-4. In the AVC standard, such importance is defined in a mechanism called a data partition. Also, the importance level corresponding to each syntax is determined by the video encoding device, and the information is included in the header information in the encoded data, so that the correspondence relationship between the same syntax and the importance level is also used in the video decoding device. You may be made to be able to refer to.
 以上のように、重要度に関連付けられた各種のシンタックスを含む符号化データ#1および符号化データ#3をそれぞれ復号する動画像復号装置1および動画像復号装置3は、以下のように表現することもできる。 As described above, the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 that respectively decode the encoded data # 1 and the encoded data # 3 including various syntaxes associated with the importance are expressed as follows: You can also
 すなわち、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータをそれぞれ符号化することによって得られたシンタックスよりなる符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、復号した上記シンタックスの各々に関連付けられている重要度を示す重要度情報を取得する重要度情報取得手段と、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、および、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段(インター予測タイプ復号部431またはイントラ予測タイプ復号部531)と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段(mv導出部N436または予測モード推定部N536)と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ものであると表現することもできる。 That is, the residual data between the original image and the prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the parameters used to generate the prediction image are encoded. A decoding device that decodes encoded data having a syntax obtained by converting to a prediction image used for decoding, using a parameter derived for each prediction unit. In the decoding apparatus, importance level information acquisition means for acquiring importance level information indicating the level of importance associated with each of the decoded syntaxes, and derivation method designation information included in the encoded data include parameter derivation. As a method, a first derivation that does not reference a reference value decoded from syntax associated with an importance less than a predetermined importance And a second derivation method that refers to a reference value decoded from a syntax associated with an importance level lower than the predetermined importance level is determined for each prediction unit. The first derivation method is specified by the derivation method determination unit for the derivation method determination unit (the inter prediction type decoding unit 431 or the intra prediction type decoding unit 531) and the target prediction unit that is the processing target prediction unit. Parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for the reference prediction unit, which is a prediction unit located at a predetermined relative position from the target prediction unit. mv deriving unit N436 or prediction mode estimating unit N536), and the parameter deriving means includes the reference prediction unit Of derived with parameters, without reference to parameters derived by the second method of deriving derives the parameters for the target prediction unit, it can also be expressed as those.
 また、重要度に関連付けられた各種のパラメータを符号化することによって、符号化データ#1および符号化データ#3をそれぞれ生成する動画像符号化装置2および動画像符号化装置4は、以下のように表現することもできる。 In addition, the video encoding device 2 and the video encoding device 4 that generate the encoded data # 1 and the encoded data # 3, respectively, by encoding various parameters associated with the importance, It can also be expressed as follows.
 すなわち、原画像と予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータを予測単位毎にそれぞれ符号化することにより得られるシンタックスよりなる符号化データを生成する符号化装置であって、当該パラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、上記シンタックスの各々に重要度を関連付ける重要度設定手段と、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、上記シンタックスのうち、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、または、上記シンタックスのうち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れかを設定する導出方法設定手段(インター予測タイプ決定部241またはイントラ予測タイプ決定部641)と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段(mv導出部N246または予測モード推定部N646)と、上記所定の重要度以上の重要度に関連付けられているシンタックスを、上記所定の重要度よりも低い重要度に関連付けられているシンタックスよりもエラー耐性の高い伝送方式によって伝送する伝送手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ものであると表現することもできる。 In other words, residual data between the original image and the predicted image, and encoded data having a syntax obtained by encoding the parameters used for generating the predicted image for each prediction unit are generated. An encoding apparatus, comprising an estimated image generating means for generating the predicted image using the parameter, an importance setting means for associating importance with each of the syntaxes, and parameter derivation A derivation method setting means for setting a method for each prediction unit, wherein the reference value decoded from a syntax associated with an importance lower than a predetermined importance among the syntaxes is not referred to Restore from the derivation method or the syntax associated with an importance lower than the predetermined importance in the syntax. A derivation method setting unit (inter prediction type determination unit 241 or intra prediction type determination unit 641) for setting any one of the second derivation methods that refer to the reference values that have been processed, and a target prediction unit that is a processing target prediction unit When the first derivation method is set by the derivation method setting means, referring to the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit, Parameter deriving means (mv deriving unit N246 or prediction mode estimating unit N646) for deriving a parameter for the target prediction unit, and syntax associated with an importance level equal to or higher than the predetermined importance level are set as the predetermined importance level. Transmit with a transmission scheme that is more error-tolerant than the syntax associated with a lower importance And the parameter deriving unit calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. It can also be expressed as derived.
 また、動画像復号装置1および動画像復号装置3は、以下のように表現することもできる。 Also, the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 can be expressed as follows.
 すなわち、動画像復号装置1および動画像復号装置3は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、第1の参照値(画素値)を参照しない第1の導出方法、および、当該第1の参照値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段(インター予測タイプ復号部431またはイントラ予測タイプ復号部531)と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段(mv導出部N436または予測モード推定部N536)と、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位について、上記第1の参照値よりも復号エラーおよび伝送エラーが生じにくい第2の参照値を参照して、仮パラメータを導出する仮パラメータ導出手段(mv導出部LE434または予測モード導出部LE534)と、を備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が指定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ものであると表現することもできる。 That is, the moving picture decoding apparatus 1 and the moving picture decoding apparatus 3 encode residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. In the decoding apparatus that decodes the encoded data obtained by the above-described method, the decoding apparatus includes prediction image restoration means that restores a prediction image used for decoding using a parameter derived for each prediction unit. The derivation method designation information included in the digitized data includes, as parameter derivation methods, a first derivation method that does not refer to the first reference value (pixel value), and a second derivation that refers to the first reference value. A derivation method discriminating unit (inter prediction type decoding unit 431 or intra prediction type decoding unit 531) for discriminating which method is designated for each prediction unit, and a prediction unit to be processed. A reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when it is determined that the first derivation method is specified by the derivation method determination unit. Parameter deriving means (mv deriving unit N436 or prediction mode estimating unit N536) for deriving a parameter for the target prediction unit with reference to the parameter derived for the target prediction unit, and the second deriving method among the reference prediction units Referring to the second reference value for which a decoding error and a transmission error are less likely to occur than the first reference value, a temporary parameter deriving means (mv deriving unit LE434 or A prediction mode deriving unit LE534), wherein the parameter deriving means includes the reference prediction unit of the above For the prediction unit in which one derivation method is designated, the parameter derived by the first derivation method is referred to, and for the prediction unit in which the second derivation method is designated, the provisional parameter derivation means The parameter for the target prediction unit is derived with reference to the temporary parameter derived by the above.
 また、動画像符号化装置2および動画像符号化装置4は、以下のように表現することもできる。 Also, the moving picture coding apparatus 2 and the moving picture coding apparatus 4 can be expressed as follows.
 すなわち、動画像符号化装置2および動画像符号化装置4は、原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、第1の参照値(画素値)を参照しない第1の導出方法、または、当該第1の参照値を参照する第2の導出方法の何れかを設定する導出方法設定手段(インター予測タイプ決定部241またはイントラ予測タイプ決定部641)と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段(mv導出部N246または予測モード推定部N646)と、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位について、上記第1の参照値よりも復号エラーおよび伝送エラーが生じにくい第2の参照値を参照して、仮パラメータを導出する仮パラメータ導出手段(mv導出部LE244または予測モード導出部LE644)と、を備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が設定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が設定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ものであると表現することもできる。 That is, the moving image encoding device 2 and the moving image encoding device 4 encode the residual data between the original image and the predicted image for each of a plurality of prediction units obtained by dividing the original image. A derivation method setting unit that sets a parameter derivation method for each prediction unit in an encoding apparatus including a prediction image generation unit that generates the prediction image using a parameter derived for each prediction unit. In this case, derivation method setting means for setting either the first derivation method that does not refer to the first reference value (pixel value) or the second derivation method that refers to the first reference value. The first derivation method is set by the derivation method setting means for the prediction type determination unit 241 or the intra prediction type determination unit 641) and the target prediction unit that is the processing target prediction unit. Parameter deriving means (mv deriving unit) for deriving a parameter for the target prediction unit with reference to a parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit N246 or the prediction mode estimation unit N646) and the second of the reference prediction units in which the second derivation method is set, the decoding error and the transmission error are less likely to occur than the first reference value. A temporary parameter deriving unit (mv deriving unit LE244 or prediction mode deriving unit LE644) for deriving a temporary parameter with reference to the reference value, wherein the parameter deriving unit includes the first prediction unit of the reference prediction unit. For the prediction unit for which the derivation method is set, refer to the parameters derived by the first derivation method. The prediction unit for which the second derivation method is set is expressed by referring to the temporary parameter derived by the temporary parameter deriving means to derive the parameter for the target prediction unit. You can also.
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
 (補足事項)
 なお、上記実施形態における、マクロブロックは、H.264/MPEG-4 AVCの後継規格として提案されているHEVC(High Efficiency Video Coding)のLCU(最大コーディングユニット:Largest Coding Unit、コーディングツリー(Coding Tree)のrootと呼ばれることもある)に相当し、マクロブロックおよびブロックは、HEVCのCU(コーディングユニット:Coding Unit;符号化単位、コーディングツリーのleafと呼ばれることもある)、PU(Prediction Unit;予測単位)、またはTU(Transformation Unit;変換単位)に相当するものである。
(Supplementary information)
The macroblock in the above embodiment is H.264. This corresponds to HEVC (High Efficiency Video Coding) LCU (maximum coding unit: sometimes called the root of a coding tree) proposed as a successor to H.264 / MPEG-4 AVC. Macroblocks and blocks are stored in HEVC CU (Coding Unit; sometimes called coding unit leaf), PU (Prediction Unit; prediction unit), or TU (Transformation Unit). It is equivalent.
 (実施例)
 本発明の具体的な実施例について示すと以下のとおりである。なお、以下では、周辺の復号画素値に基づき導出したエッジ方向に従って方向予測を行う方式のことを、『エッジベース予測方式』と称する。
(Example)
Specific examples of the present invention are as follows. Hereinafter, a method for performing direction prediction according to the edge direction derived based on the surrounding decoded pixel values is referred to as an “edge-based prediction method”.
 [1] HM(Hevc TestModel)2.0において、エッジベース予測方式を組み込む場合、本発明に係る動画像符号化装置2,4および動画像復号置1,3により予測モードの推定値を導出することができる。 [1] In the case of incorporating an edge-based prediction method in HM (HevcModelTestModel) 2.0, an estimation value of a prediction mode is derived by the video encoding devices 2 and 4 and the video decoding devices 1 and 3 according to the present invention. be able to.
 [2]本発明に係る動画像符号化装置4および動画像復号装置3は、以下の処理を実行するときに適用することが可能である。 [2] The video encoding device 4 and the video decoding device 3 according to the present invention can be applied when executing the following processing.
 <a> 対象予測単位内の変換係数のスキャン方向を、同一予測単位に適用される予測モードの値に応じて決定する処理。 <a> Processing for determining the scan direction of the transform coefficient in the target prediction unit according to the value of the prediction mode applied to the same prediction unit.
 <b> 対象予測単位内においてイントラ予測における参照画素に適用されるフィルタの種類を、同一予測単位に適用される予測モードの値に応じて決定する処理。 <B> Processing for determining the type of filter applied to reference pixels in intra prediction within the target prediction unit according to the value of the prediction mode applied to the same prediction unit.
 <c> 対象予測単位におけるクロマ予測モードの可変長符号化方法を、同一予測単位に適用される(輝度)予測モードの値に応じて決定する処理。 <C> Processing for determining the variable length coding method of the chroma prediction mode in the target prediction unit according to the value of the (luminance) prediction mode applied to the same prediction unit.
 <d> 対象予測単位における予測モードの可変長符号化方法を、同一予測単位における予測モードの推定値に応じて決定する処理。 <D> Process for determining the variable-length encoding method of the prediction mode in the target prediction unit according to the prediction value of the prediction mode in the same prediction unit.
 なお、上記<a>~<c>については、対象予測単位にエッジベース予測方式が適用される場合、復号画素値に生じた誤りが伝播する可能性がある。 For <a> to <c> above, when an edge-based prediction method is applied to the target prediction unit, there is a possibility that an error occurring in the decoded pixel value is propagated.
 上記誤りの伝播を防ぐために、対象ブロックでエッジベース予測方式が適用される場合に、予測モードの代わりに仮予測モードを導出するとよい。 In order to prevent the above error propagation, it is preferable to derive a temporary prediction mode instead of the prediction mode when the edge-based prediction method is applied to the target block.
 また、仮予測モードは、以下の<1>~<4>の手法により導出してもよい。 Further, the temporary prediction mode may be derived by the following methods <1> to <4>.
 <1> 上および左の隣接予測単位において共にエッジベース予測方式が適用されている場合、DCモードを仮予測モードとして導出する。 <1> When the edge-based prediction method is applied to both the upper and left adjacent prediction units, the DC mode is derived as the temporary prediction mode.
 <2> 左の隣接予測単位でエッジベース予測方式が適用されており、上の隣接予測単位においてエッジベース予測方式が適用されていない場合、上の隣接予測単位の予測モードを仮予測モードとして導出する。 <2> When the edge-based prediction method is applied to the left adjacent prediction unit and the edge-based prediction method is not applied to the upper adjacent prediction unit, the prediction mode of the upper adjacent prediction unit is derived as the temporary prediction mode. To do.
 <3> 左の隣接予測単位でエッジベース予測方式が適用されておらず、上の隣接予測単位においてエッジベース予測方式が適用されている場合、左の隣接予測単位の予測モードを仮予測モードとして導出する。 <3> When the edge-based prediction method is not applied to the left adjacent prediction unit and the edge-based prediction method is applied to the upper adjacent prediction unit, the prediction mode of the left adjacent prediction unit is set as the temporary prediction mode. To derive.
 <4> 上および左の隣接予測単位において共にエッジベース予測方式が適用されていない場合、推定予測モードを仮予測モードとして導出する。なお、推定予測モードとは、上の隣接予測単位の予測モードと、左の隣接予測単位の予測モードとのうち、予測モードのインデックスがより小さいほうの予測モードのことをいう。 <4> When the edge-based prediction method is not applied to the upper and left adjacent prediction units, the estimated prediction mode is derived as the temporary prediction mode. The estimated prediction mode refers to a prediction mode with a smaller prediction mode index among the prediction mode of the upper adjacent prediction unit and the prediction mode of the left adjacent prediction unit.
 上記<1>~<4>の手法により導出した仮予測モードに基づいて、上記<a>の変換係数のスキャン方法、上記<b>の参照画素のフィルタ方法、上記<c>のクロマ予測モードの可変長符号化方法を選択することで、誤りが伝播することを防いだうえで、画像の特性(エッジ方向)に応じた方法を選択できる可能性を高めることができる。 Based on the provisional prediction mode derived by the above methods <1> to <4>, the conversion coefficient scanning method <a>, the reference pixel filtering method <b>, and the chroma prediction mode <c> By selecting this variable length coding method, it is possible to increase the possibility of selecting a method according to image characteristics (edge direction) while preventing errors from propagating.
 また、上記<d>では、推定予測モードの導出に用いられる参照予測単位でエッジベース予測方式が適用される場合に誤りが伝播する可能性がある。 Also, in the above <d>, there is a possibility that an error is propagated when the edge-based prediction method is applied in the reference prediction unit used for deriving the estimated prediction mode.
 この場合も、上記仮予測モードに基づき予測モードの可変長符号化方法を切り替えることで、エラーの伝播を防いだ上で、画像の特性(エッジ方向)に応じた方法を選択できる可能性を高めることができる。 Also in this case, by switching the prediction mode variable-length encoding method based on the temporary prediction mode, it is possible to select a method according to the characteristics (edge direction) of the image while preventing error propagation. be able to.
 (その他)
 以上のように、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、復号済みの画素値を参照しない第1の導出方法、および、復号済みの画素値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。
(Other)
As described above, the decoding apparatus according to the present invention obtains by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. A decoding apparatus for decoding the encoded data, wherein the encoded data is a decoding apparatus provided with prediction image restoration means for restoring a prediction image used for decoding using a parameter derived for each prediction unit. The derivation method designation information included in the parameter specifies any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method. The first derivation method is designated by the derivation method discrimination means for determining whether or not each prediction unit and the target prediction unit that is the processing target prediction unit by the derivation method discrimination means. If it is determined, with reference to the parameters derived for the reference prediction unit is a prediction unit located from the target prediction unit in a predetermined relative position, and the parameter deriving means for deriving the parameters for the target prediction unit,
The parameter derivation means derives the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. It is characterized by.
 上記のように構成された本発明に係る復号装置は、復号済みの画素値を参照しない上記第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されるパラメータのうち、復号済みの画素値を参照する第2の導出方法によって導出されるパラメータを参照することなく、当該対象予測単位についてのパラメータを導出するため、復号済みの画素値に、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 The decoding apparatus according to the present invention configured as described above has the target prediction unit when the first derivation method that does not refer to the decoded pixel value is specified for the target prediction unit to be processed. Among the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction without referring to the parameter derived by the second derivation method that refers to the decoded pixel value In order to derive the parameters for the units, the decoded pixel values include the effects of errors in the decoding process and / or transmission errors caused by external disturbances when the encoded data is transmitted. Even in such a case, it is possible to prevent such an error from propagating to the parameter derived by the parameter deriving means. That.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、復号画像の画像破綻を防ぐことができる。 In addition, according to the above configuration, it is possible to prevent an image failure of a decoded image by preventing propagation of an error.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記対象予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記対象予測単位に隣接する予測単位、および、起点となる上記対象予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の復号順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit that is the starting point, or may be another prediction unit, and the decoding order of the prediction unit Accordingly, a prediction unit at an appropriate relative position may be used.
 また、上記予測単位は、例えば、H.264/MPEG-4.AVC規格においては、上述したブロックに対応するものである。ただし、本発明に係る上記の復号装置は、特定の規格を前提とするものではなく、上記予測単位は、上述したブロックに対応する単位であってもよいし、ブロックよりも大きな単位、または、複数のブロックから構成される単位(例えば、上述したマクロブロックに対応する単位)であってもよいし、ブロックよりも小さな単位であってもよい。 Also, the prediction unit is, for example, H.264. H.264 / MPEG-4. The AVC standard corresponds to the block described above. However, the decoding device according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or It may be a unit composed of a plurality of blocks (for example, a unit corresponding to the macroblock described above) or a unit smaller than the block.
 また、本発明に係る復号装置は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が指定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ことが好ましい。 The decoding apparatus according to the present invention further includes provisional parameter derivation means for deriving a provisional parameter by the first derivation method for a prediction unit in which the second derivation method is specified among the reference prediction units. The parameter deriving unit further refers to the parameter derived by the first derivation method for the prediction unit in which the first derivation method is specified among the reference prediction units, and the second For the prediction unit for which the derivation method is designated, it is preferable to derive the parameter for the target prediction unit with reference to the temporary parameter derived by the temporary parameter deriving means.
 上記の構成によれば、上記仮パラメータ導出手段が、上記第2の導出方法が指定されている予測単位について、上記第1の導出方法により、仮パラメータを導出し、上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する。 According to the above configuration, the temporary parameter deriving means derives a temporary parameter for the prediction unit in which the second deriving method is specified by the first deriving method, and the parameter deriving means includes the above For the prediction unit for which the second derivation method is designated, the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
 したがって、上記の構成によれば、復号済みの画素値を参照する上記第2の導出方法が指定されている予測単位について、復号済みの画素値を参照しない上記第1の導出方法により導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出するので、復号済みの画素値に、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the above configuration, the prediction unit in which the second derivation method that refers to the decoded pixel value is designated is derived by the first derivation method that does not refer to the decoded pixel value. Since the parameter for the target prediction unit is derived with reference to the temporary parameter, an error occurring in the decoding process and / or external disturbance when the encoded data is transmitted to the decoded pixel value Even when the effect of the transmission error that occurs is included, such an error can be prevented from propagating to the parameter derived by the parameter deriving means.
 また、上記第2の導出方法が指定されている予測単位については、仮パラメータを参照して、上記対象予測単位についてのパラメータを導出するため、予測画像を生成する際の予測精度を向上させることができるという更なる効果を奏する。 In addition, with respect to the prediction unit in which the second derivation method is specified, the parameter for the target prediction unit is derived with reference to the temporary parameter, so that the prediction accuracy when generating the predicted image is improved. There is a further effect of being able to.
 また、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことが好ましい。 The temporary parameter deriving means derives a temporary parameter for a prediction unit for which the second derivation method is specified, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. It is preferable to derive with reference to the parameter or the formal parameter.
 上記の構成によれば、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出するので、上記第2の導出方法が指定されている予測単位についての仮パラメータを導出するための処理量の削減を図りつつ、エラーの伝播を防ぐことができるという更なる効果を奏する。 According to said structure, the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units was derived | led-out about the prediction unit located in a predetermined relative position from the said prediction unit Since the parameter is derived with reference to the parameter or the temporary parameter, it is possible to prevent the propagation of errors while reducing the amount of processing for deriving the temporary parameter for the prediction unit for which the second derivation method is specified. There is a further effect.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記予測単位に隣接する予測単位、および、起点となる上記予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の復号順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban distance from the prediction unit that is the starting point is equal to or less than a predetermined distance, and is the starting point. The prediction unit adjacent to the prediction unit, and the prediction unit that shares a vertex with the prediction unit serving as a starting point may be used, or may be another prediction unit, and depending on the decoding order of the prediction unit, A prediction unit at an appropriate relative position may be used.
 また、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことが好ましい。 Further, the temporary parameter deriving unit is configured to set a temporary parameter for a prediction unit for which the second derivation method is designated, among the reference prediction units, a parameter derived for a prediction unit adjacent to the prediction unit, or a temporary parameter. It is preferable to derive with reference to the parameters.
 上記の構成によれば、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出するので、導出された仮パラメータを参照して上記対象予測単位について導出されるパラメータの予測精度が向上する。 According to said structure, the said temporary parameter derivation | leading-out means derives | requires the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units about the prediction unit adjacent to the said prediction unit. Since it is derived with reference to the derived parameter or temporary parameter, the prediction accuracy of the parameter derived for the target prediction unit with reference to the derived temporary parameter is improved.
 したがって、上記の構成に対応する構成を有する符号化装置によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができる。また、上記の構成を有する復号装置によれば、そのような符号化効率の高い符号化データを、エラーの伝播を防ぎつつ復号することができるという更なる効果を奏する。 Therefore, according to the encoding device having a configuration corresponding to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
 また、上記パラメータ導出手段は、上記対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、ことが好ましい。 The parameter deriving unit derives a reference prediction unit adjacent to the target prediction unit when the first deriving method is determined by the deriving method determining unit for the target prediction unit. It is preferable to derive a parameter for the target prediction unit with reference to the obtained parameter.
 上記の構成によれば、上記対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するので、当該対象予測単位について導出されるパラメータの予測精度が向上する。 According to the above configuration, since the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit adjacent to the target prediction unit, the prediction of the parameter derived for the target prediction unit is performed. Accuracy is improved.
 したがって、上記の構成に対応する構成を有する符号化装置によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができる。また、上記の構成を有する復号装置によれば、そのような符号化効率の高い符号化データを、エラーの伝播を防ぎつつ復号することができるという更なる効果を奏する。 Therefore, according to the encoding device having a configuration corresponding to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
 また、上記予測画像復元手段は、画面内予測により予測画像を生成するものであり、上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、ことが好ましい。 Further, it is preferable that the predicted image restoration means generates a predicted image by intra prediction and the parameter is referred to for generating a predicted image by intra prediction.
 ここで、画面内予測(イントラ予測)により予測画像を生成するために参照される上記のパラメータは、イントラ予測において、予測方向を指定するためのパラメータである予測モードのことを指す。 Here, the above-mentioned parameter referred to generate a predicted image by intra-screen prediction (intra prediction) refers to a prediction mode that is a parameter for designating a prediction direction in intra prediction.
 上記のように構成された本発明に係る復号装置は、イントラ予測によって予測画像を生成するものであり、復号済みの画素値を参照しない第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位をから所定の相対位置に位置する予測単位である参照予測単位について導出される予測モードのうち、復号済みの画素値を参照する第2の導出方法によって導出される予測モードを参照することなく、当該対象予測単位についての予測モードを導出するので、復号済みの画素値に、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出される予測モードに伝播することを防ぐことができる。 The decoding apparatus according to the present invention configured as described above generates a predicted image by intra prediction, and the first derivation method that does not refer to the decoded pixel value is the target prediction unit to be processed. In a prediction mode derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when specified, by a second derivation method that refers to a decoded pixel value Since the prediction mode for the target prediction unit is derived without referring to the derived prediction mode, an error generated in the decoding process and / or encoded data is transmitted to the decoded pixel value. Even if the effects of transmission errors caused by external disturbances are included, such errors are Be propagated to the prediction mode issued can be prevented.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、イントラ予測を用いて復号された復号画像の画像破綻を防ぐことができる。 Also, according to the above configuration, it is possible to prevent image failure of a decoded image decoded using intra prediction by preventing error propagation.
 また、上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位を含む予測画像における復号済みの画素値を参照して導出する、ことが好ましい。 Further, it is preferable that the parameter deriving unit derives a parameter for a prediction unit for which the second derivation method is designated with reference to a decoded pixel value in a predicted image including the prediction unit.
 上記の構成によれば、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位を含む予測画像における復号済みの画素値を参照して導出するので、上記第2の導出方法が指定されている予測単位について予測精度の高いパラメータが導出される。また、上記予測画像復元手段は、このように導出された予測精度の高いパラメータを用いて予測画像を復元するので、予測精度の高い予測画像を復元することができる。 According to the above configuration, since the parameter for the prediction unit for which the second derivation method is specified is derived with reference to the decoded pixel value in the prediction image including the prediction unit, the second unit A parameter with high prediction accuracy is derived for a prediction unit for which a derivation method is specified. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
 したがって、上記の構成に対応する構成を有する符号化装置によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができる。また、上記の構成を有する復号装置によれば、そのような符号化効率の高い符号化データを、エラーの伝播を防ぎつつ復号することができるという更なる効果を奏する。 Therefore, according to the encoding device having a configuration corresponding to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
 また、上記予測画像復元手段は、画面間予測により予測画像を生成するものであり、上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、ことが好ましい。 Further, it is preferable that the predicted image restoration means generates a predicted image by inter-screen prediction, and the parameter is referred to for generating a predicted image by inter-screen prediction.
 ここで、画面間予測(インター予測)により予測画像を生成するために参照される上記のパラメータは、インター予測において、動き補償を行う際に用いられる動きベクトルのことを指す。 Here, the parameters referred to in order to generate a prediction image by inter-screen prediction (inter prediction) refer to a motion vector used when motion compensation is performed in inter prediction.
 上記のように構成された本発明に係る復号装置は、インター予測によって予測画像を生成するものであり、復号済みの画素値を参照しない第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出される動きベクトルのうち、復号済みの画素値を参照する第2の導出方法によって導出される動きベクトルを参照することなく、当該対象予測単位についての動きベクトルを導出するので、復号済みの画素値に、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出される動きベクトルに伝播することを防ぐことができる。 The decoding apparatus according to the present invention configured as described above generates a prediction image by inter prediction, and the first derivation method that does not refer to the decoded pixel value is the target prediction unit to be processed. Derived by a second derivation method that refers to a decoded pixel value out of motion vectors derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when specified. Since the motion vector for the target prediction unit is derived without referring to the motion vector to be decoded, an error that occurs in the decoding process and / or the encoded data is transmitted to the decoded pixel value. Even if the effects of transmission errors caused by disturbances from are included, such errors are caused by the parameter deriving means. Propagate the motion vectors derived Te can be prevented.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、インター予測を用いて復号された復号画像の画像破綻を防ぐことができる。 Also, according to the above configuration, it is possible to prevent image failure of a decoded image decoded using inter prediction by preventing error propagation.
 また、上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位を含む予測画像を生成するために参照される復号済みの画像における画素値を参照して導出する、ことが好ましい。 The parameter deriving unit refers to a parameter for a prediction unit for which the second derivation method is designated, and a pixel value in a decoded image referred to for generating a predicted image including the prediction unit. It is preferable to derive as follows.
 上記の構成によれば、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位についての予測画像を生成するために参照される復号済みの画像(参照画像)における画素値を参照して導出するので、上記第2の導出方法が指定されている予測単位について予測精度の高いパラメータが導出される。また、上記予測画像復元手段は、このように導出された予測精度の高いパラメータを用いて予測画像を復元するので、予測精度の高い予測画像を復元することができる。 According to said structure, the pixel in the decoded image (reference image) referred in order to produce | generate the parameter about the prediction unit in which the said 2nd derivation method is designated in order to produce | generate the prediction image about the said prediction unit Since it is derived with reference to the value, a parameter with high prediction accuracy is derived for the prediction unit for which the second derivation method is specified. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
 したがって、上記の構成に対応する構成を有する符号化装置によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができる。また、上記の構成を有する復号装置によれば、そのような符号化効率の高い符号化データを、エラーの伝播を防ぎつつ復号することができるという更なる効果を奏する。 Therefore, according to the encoding device having a configuration corresponding to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy. Moreover, according to the decoding apparatus having the above configuration, it is possible to decode such encoded data with high encoding efficiency while preventing error propagation.
 また、以上のように、本発明に係る符号化装置は、原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、原画像を符号化および復号化することによって得られる復号画像の画素値を参照しない第1の導出方法、または、該復号画像の画素値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 Further, as described above, the encoding apparatus according to the present invention encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image. In a coding apparatus including a predicted image generation unit that generates the predicted image using a parameter derived for each prediction unit, a derivation method setting unit that sets a parameter derivation method for each prediction unit is provided. Any of the first derivation method that does not refer to the pixel value of the decoded image obtained by encoding and decoding the original image, or the second derivation method that refers to the pixel value of the decoded image. When the first derivation method is set by the derivation method setting means and the target prediction unit that is a prediction unit to be processed, Parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a relative position of the reference prediction unit, wherein the parameter deriving means includes the reference prediction unit Of the parameters derived for the unit, the parameter for the target prediction unit is derived without referring to the parameter derived by the second derivation method.
 上記のように構成された本発明に係る符号化装置は、上記復号画像の画素値を参照しない上記第1の導出方法が、処理対象となる対象予測単位について設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されるパラメータのうち、上記復号画像の画素値を参照する第2の導出方法によって導出されるパラメータを参照することなく、当該対象予測単位についてのパラメータを導出するため、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 The encoding apparatus according to the present invention configured as described above is configured so that the first derivation method that does not refer to the pixel value of the decoded image is set for the target prediction unit to be processed. Without referring to the parameter derived by the second derivation method referring to the pixel value of the decoded image among the parameters derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit, In order to derive a parameter for the target prediction unit, even if the pixel value of the decoded image includes an influence of an error occurring in the encoding process and the decoding process, such an error is Propagation to parameters derived by the deriving means can be prevented.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、予測精度が低減することを防ぎ、符号化効率の低下を防ぐことができる。また、本符号化装置により生成された符号化データは、伝送時に外部からの擾乱による伝送エラーの影響を受け、復号時に復号画像の画素値にエラーが発生する場合であっても、そのようなエラーが復号時に導出されるパラメータに伝播することを防ぐことができる。すなわち、本符号化装置は、外部からの擾乱の影響を受け難い符号化データを生成できる。 Further, according to the above configuration, by preventing error propagation, it is possible to prevent the prediction accuracy from being reduced and to prevent the encoding efficiency from being lowered. In addition, the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記対象予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記対象予測単位に隣接する予測単位、および、起点となる上記対象予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の符号化および復号化の順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban area distance from the target prediction unit as a starting point is equal to or less than a predetermined distance, A prediction unit adjacent to the target prediction unit, and a prediction unit that shares a vertex with the target prediction unit serving as a starting point, or may be another prediction unit. A prediction unit at an appropriate relative position may be used in accordance with the decoding order.
 また、上記予測単位は、例えば、H.264/MPEG-4.AVC規格においては、上述したブロックに対応するものである。ただし、本発明に係る上記の符号化装置は、特定の規格を前提とするものではなく、上記予測単位は、上述したブロックに対応する単位であってもよいし、ブロックよりも大きな単位、または、複数のブロックから構成される単位(例えば、上述したマクロブロックに対応する単位)であってもよいし、ブロックよりも小さな単位であってもよい。 Also, the prediction unit is, for example, H.264. H.264 / MPEG-4. The AVC standard corresponds to the block described above. However, the encoding apparatus according to the present invention is not based on a specific standard, and the prediction unit may be a unit corresponding to the block described above, a unit larger than the block, or A unit composed of a plurality of blocks (for example, a unit corresponding to the above-described macroblock) or a unit smaller than the block may be used.
 また、本発明に係る符号化装置は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が設定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が設定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ことが好ましい。 In addition, the encoding apparatus according to the present invention provides a temporary parameter derivation unit that derives a temporary parameter by the first derivation method for a prediction unit in which the second derivation method is set among the reference prediction units. The parameter derivation means refers to the parameter derived by the first derivation method for the prediction unit for which the first derivation method is set among the reference prediction units, and For the prediction unit for which the derivation method of 2 is set, it is preferable to derive the parameter for the target prediction unit with reference to the temporary parameter derived by the temporary parameter deriving means.
 上記の構成によれば、上記仮パラメータ導出手段が、上記第2の導出方法が指定されている予測単位について、上記第1の導出方法により、仮パラメータを導出し、上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する。 According to the above configuration, the temporary parameter deriving means derives a temporary parameter for the prediction unit in which the second deriving method is specified by the first deriving method, and the parameter deriving means includes the above For the prediction unit for which the second derivation method is designated, the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
 したがって、上記の構成によれば、上記復号画像の画素値を参照する上記第2の導出方法が指定されている予測単位について、上記復号画像の画素値を参照しない上記第1の導出方法により導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出するので、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the above configuration, the prediction unit in which the second derivation method that refers to the pixel value of the decoded image is designated is derived by the first derivation method that does not refer to the pixel value of the decoded image. Since the parameter for the target prediction unit is derived with reference to the provisional parameter, even if the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process , Such an error can be prevented from propagating to the parameter derived by the parameter deriving means.
 また、上記第2の導出方法が指定されている予測単位については、仮パラメータを参照して、上記対象予測単位についてのパラメータを導出するため、予測画像を生成する際の予測精度を向上させることができるという更なる効果を奏する。 In addition, with respect to the prediction unit in which the second derivation method is specified, the parameter for the target prediction unit is derived with reference to the temporary parameter, so that the prediction accuracy when generating the predicted image is improved. There is a further effect of being able to.
 また、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことが好ましい。 The temporary parameter deriving unit derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. It is preferable to derive with reference to the parameter or the formal parameter.
 上記の構成によれば、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出するので、上記第2の導出方法が指定されている予測単位についての仮パラメータを導出するための処理量の削減を図りつつ、エラーの伝播を防ぐことができるという更なる効果を奏する。 According to said structure, the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units was derived | led-out about the prediction unit located in a predetermined relative position from the said prediction unit Since the parameter is derived with reference to the parameter or the temporary parameter, it is possible to prevent the propagation of errors while reducing the amount of processing for deriving the temporary parameter for the prediction unit for which the second derivation method is specified. There is a further effect.
 なお、上記所定の相対位置に位置する予測単位とは、例えば、起点となる上記予測単位からの市街地距離が所定の距離以下である1または複数の予測単位であってもよいし、起点となる上記予測単位に隣接する予測単位、および、起点となる上記予測単位と頂点を共有する予測単位であってもよいし、その他の予測単位であってもよく、予測単位の符号化および復号化の順序に応じて、適切な相対位置における予測単位を用いればよい。 Note that the prediction unit located at the predetermined relative position may be, for example, one or a plurality of prediction units whose urban distance from the prediction unit that is the starting point is equal to or less than a predetermined distance, and is the starting point. The prediction unit adjacent to the prediction unit and the prediction unit sharing the apex with the prediction unit serving as a starting point may be used, or other prediction units may be used. A prediction unit at an appropriate relative position may be used according to the order.
 また、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことが好ましい。 Further, the temporary parameter deriving unit is configured to select a temporary parameter for a prediction unit for which the second derivation method is set among the reference prediction units, a parameter derived for a prediction unit adjacent to the prediction unit, or a temporary parameter. It is preferable to derive with reference to the parameters.
 上記の構成によれば、上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出するので、導出された仮パラメータを参照して上記対象予測単位について導出されるパラメータの予測精度が向上する。 According to said structure, the said temporary parameter derivation | leading-out means derives | requires the temporary parameter about the prediction unit in which the said 2nd derivation method is designated among the said reference prediction units about the prediction unit adjacent to the said prediction unit. Since it is derived with reference to the derived parameter or temporary parameter, the prediction accuracy of the parameter derived for the target prediction unit with reference to the derived temporary parameter is improved.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、上記パラメータ導出手段は、上記対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、ことが好ましい。 Further, the parameter deriving unit is configured to calculate a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting unit for the target prediction unit. It is preferable to refer to and derive a parameter for the target prediction unit.
 上記の構成によれば、上記対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するので、当該対象予測単位について導出されるパラメータの予測精度が向上する。 According to the above configuration, since the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit adjacent to the target prediction unit, the prediction of the parameter derived for the target prediction unit is performed. Accuracy is improved.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、上記予測画像生成手段は、原画像を符号化および復号化することによって得られる局所復号画像を用いた画面内予測により予測画像を生成するものであり、上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、ことが好ましい。 The predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image, and the parameter is predicted by intra prediction. Preferably, it is referred to for generating an image.
 ここで、画面内予測(イントラ予測)により予測画像を生成するために参照される上記のパラメータは、イントラ予測において、予測方向を指定するためのパラメータである予測モードのことを指す。 Here, the above-mentioned parameter referred to generate a predicted image by intra-screen prediction (intra prediction) refers to a prediction mode that is a parameter for designating a prediction direction in intra prediction.
 上記のように構成された本発明に係る符号化装置は、イントラ予測によって予測画像を生成するものであり、上記復号画像の画素値を参照しない第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位をから所定の相対位置に位置する予測単位である参照予測単位について導出される予測モードのうち、上記復号画像の画素値を参照する第2の導出方法によって導出される予測モードを参照することなく、当該対象予測単位についての予測モードを導出するので、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出される予測モードに伝播することを防ぐことができる。 The encoding apparatus according to the present invention configured as described above generates a predicted image by intra prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed. A second unit that refers to the pixel value of the decoded image among prediction modes derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified. Since the prediction mode for the target prediction unit is derived without referring to the prediction mode derived by the derivation method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the prediction mode derived by the parameter deriving unit.
 また、上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記局所復号画像における画素値を参照して導出する、ことが好ましい。 Further, it is preferable that the parameter deriving unit derives a parameter for a prediction unit for which the second deriving method is set with reference to a pixel value in the locally decoded image.
 上記の構成によれば、上記第2の導出方法が指定されている予測単位についてのパラメータを、上記局所復号画像における復号済みの画素値を参照して導出するので、上記第2の導出方法が指定されている予測単位について予測精度の高いパラメータが導出される。また、上記予測画像復元手段は、このように導出された予測精度の高いパラメータを用いて予測画像を復元するので、予測精度の高い予測画像を復元することができる。 According to the above configuration, since the parameter for the prediction unit for which the second derivation method is specified is derived with reference to the decoded pixel value in the local decoded image, the second derivation method is A parameter with high prediction accuracy is derived for the specified prediction unit. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、上記予測画像生成手段は、原画像を符号化および復号化することによって得られる復号画像を用いた画面間予測により予測画像を生成するものであり、上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、ことが好ましい。 The predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image, and the parameters are predicted images by inter-screen prediction. It is preferable that it is what is referred in order to produce | generate.
 ここで、画面間予測(インター予測)により予測画像を生成するために参照される上記のパラメータは、インター予測において、動き補償を行う際に用いられる動きベクトルのことを指す。 Here, the parameters referred to in order to generate a prediction image by inter-screen prediction (inter prediction) refer to a motion vector used when motion compensation is performed in inter prediction.
 上記のように構成された本発明に係る符号化装置は、インター予測によって予測画像を生成するものであり、上記復号画像の画素値を参照しない第1の導出方法が、処理対象となる対象予測単位について指定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出される動きベクトルのうち、上記復号画像の画素値を参照する第2の導出方法によって導出される動きベクトルを参照することなく、当該対象予測単位についての動きベクトルを導出するので、上記復号画像の画素値に、符号化処理および復号処理において生じるエラーの影響が含まれている場合であっても、そのようなエラーが、上記パラメータ導出手段によって導出される動きベクトルに伝播することを防ぐことができる。 The encoding apparatus according to the present invention configured as described above generates a prediction image by inter prediction, and the first derivation method that does not refer to the pixel value of the decoded image is a target prediction to be processed. A second derivation that refers to the pixel value of the decoded image from among the motion vectors derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit when the unit is specified Since the motion vector for the target prediction unit is derived without referring to the motion vector derived by the method, the pixel value of the decoded image includes the influence of errors occurring in the encoding process and the decoding process. Even in such a case, it is possible to prevent such an error from propagating to the motion vector derived by the parameter deriving means. That.
 また、上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記復号画像における画素値を参照して導出する、ことが好ましい。 Further, it is preferable that the parameter derivation unit derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the decoded image.
 上記の構成によれば、上記第2の導出方法が指定されている予測単位についてのパラメータを、上記復号画像における画素値を参照して導出するので、上記第2の導出方法が指定されている予測単位について予測精度の高いパラメータが導出される。また、上記予測画像復元手段は、このように導出された予測精度の高いパラメータを用いて予測画像を復元するので、予測精度の高い予測画像を復元することができる。 According to the above configuration, since the parameter for the prediction unit for which the second derivation method is designated is derived with reference to the pixel value in the decoded image, the second derivation method is designated. A parameter with high prediction accuracy is derived for the prediction unit. In addition, since the predicted image restoration unit restores the predicted image using the parameter with high prediction accuracy derived as described above, the predicted image with high prediction accuracy can be restored.
 したがって、上記の構成によれば、予測精度が向上することにより、符号化効率の高い符号化データを生成することができるという更なる効果を奏する。 Therefore, according to the above configuration, it is possible to generate encoded data with high encoding efficiency by improving the prediction accuracy.
 また、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、(1)第1のパラメータを参照し、かつ、当該第1のパラメータに基づいて導出される第2のパラメータを参照しない第1の導出方法、および、(2)当該第2のパラメータを参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出された上記第1のパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 In addition, the decoding device according to the present invention encodes residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. A decoding apparatus that decodes encoded data, and includes a prediction image restoration unit that restores a prediction image used for decoding using a parameter derived for each prediction unit, and is included in the encoded data The derivation method designation information is, as a parameter derivation method, (1) a first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; (2) A derivation method discriminating means for discriminating for each prediction unit which of the second derivation methods referring to the second parameter is specified, and a pair of processing target prediction units When it is determined by the derivation method determination means that the first derivation method is designated for a prediction unit, a reference prediction unit that is a prediction unit located at a predetermined relative position is derived from the target prediction unit. Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter, wherein the parameter deriving means includes the second of the parameters derived for the reference prediction unit. The parameter for the target prediction unit is derived without referring to the parameter derived by the derivation method.
 ここで、上記第2の導出方法は、上記第1のパラメータに基づいて導出される上記第2のパラメータを参照して、対象予測単位についてのパラメータを導出する方法であるので、上記第2のパラメータを参照せずに、上記第1のパラメータを参照して対象予測単位についてのパラメータを導出する上記第1の導出方法に比べて、エラーが発生する可能性が高い導出方法である。 Here, the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出するので、エラーが発生する可能性の高い導出方法によって導出されたパラメータを参照することなく、対象予測単位についてのパラメータを導出することができる。 According to the above configuration, the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
 したがって、上記のように構成された復号装置によれば、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the decoding device configured as described above, an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
 なお、上記第1のパラメータおよび上記第2のパラメータとしては、例えば、以下のような組み合わせが挙げられる。 Note that examples of the first parameter and the second parameter include the following combinations.
 a.第1のパラメータ:動きベクトル、第2のパラメータ:復号画像(復号画像は、動きベクトルに基づき導出される予測画像に復号予測残差を加えることで導出される。)
 b.第1のパラメータ:イントラ予測における予測モード、第2のパラメータ:復号画像(復号画像は、予測モードに基づき導出される予測画像に復号予測残差を加えることで導出される。)
 c.第1のパラメータ:動きベクトル残差、第2のパラメータ:動きベクトル(動きベクトルは、動きベクトル残差に予測動きベクトルを加えることで導出される。)
 d.第1のパラメータ:復号予測残差、第2のパラメータ:復号画像(復号画像は、復号予測残差に予測画像を加えることで導出される。)
 e.第1のパラメータ:参照画像インデックス、第2のパラメータ:予測画像(予測画像は、参照画像インデックスにより指定される参照画像、および、動きベクトルにより導出される。)
 また、復号画像は動画像復号装置における最終出力であるため、他のあらゆるパラメータよりもエラーが発生する可能性が高い。従って、復号画像を参照する方法を上記第2の予測方法とし、復号画像を参照しない方法を上記第1の予測方法としてもよい。
a. First parameter: motion vector, second parameter: decoded image (the decoded image is derived by adding a decoded prediction residual to a predicted image derived based on the motion vector)
b. First parameter: prediction mode in intra prediction, second parameter: decoded image (the decoded image is derived by adding a decoded prediction residual to a predicted image derived based on the prediction mode)
c. First parameter: motion vector residual, second parameter: motion vector (the motion vector is derived by adding the predicted motion vector to the motion vector residual)
d. First parameter: decoded prediction residual, second parameter: decoded image (the decoded image is derived by adding the prediction image to the decoded prediction residual)
e. First parameter: reference image index, second parameter: predicted image (the predicted image is derived from a reference image specified by the reference image index and a motion vector).
Further, since the decoded image is the final output in the moving image decoding apparatus, there is a higher possibility that an error will occur than any other parameter. Therefore, the method of referring to the decoded image may be the second prediction method, and the method of not referring to the decoded image may be the first prediction method.
 また、本発明に係る符号化装置は、原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、(1)第1のパラメータを参照し、かつ、当該第1のパラメータに基づいて導出される第2のパラメータを参照しない第1の導出方法、および、(2)当該第2のパラメータを参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出された上記第1のパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 The encoding apparatus according to the present invention is an encoding apparatus that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image. In the encoding apparatus provided with the prediction image generation means for generating the prediction image using the parameter derived for each unit, the derivation method setting means for setting the parameter derivation method for each prediction unit, (1 ) A first derivation method that refers to the first parameter and does not refer to the second parameter derived based on the first parameter; and (2) a second that refers to the second parameter. When the first derivation method is set by the derivation method setting means for the derivation method setting means for setting any one of the derivation methods and the target prediction unit that is the prediction unit to be processed, Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit. The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit. It is said.
 ここで、上記第2の導出方法は、上記第1のパラメータに基づいて導出される上記第2のパラメータを参照して、対象予測単位についてのパラメータを導出する方法であるので、上記第2のパラメータを参照せずに、上記第1のパラメータを参照して対象予測単位についてのパラメータを導出する上記第1の導出方法に比べて、エラーが発生する可能性が高い導出方法である。 Here, the second derivation method is a method of deriving a parameter for the target prediction unit with reference to the second parameter derived based on the first parameter. This is a derivation method that is more likely to cause an error than the first derivation method that derives the parameter for the target prediction unit by referring to the first parameter without referring to the parameter.
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出するので、エラーが発生する可能性の高い導出方法によって導出されたパラメータを参照することなく、対象予測単位についてのパラメータを導出することができる。 According to the above configuration, the parameter deriving means calculates the parameter for the target prediction unit without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit. Since it is derived, it is possible to derive the parameter for the target prediction unit without referring to the parameter derived by the derivation method that is highly likely to cause an error.
 したがって、上記のように構成された復号装置によれば、復号処理において生じるエラー、および/または、符号化データが伝送される際に外部からの擾乱によって生じる伝送エラーが、上記パラメータ導出手段によって導出されるパラメータに伝播することを防ぐことができる。 Therefore, according to the decoding device configured as described above, an error that occurs in the decoding process and / or a transmission error that occurs due to external disturbance when the encoded data is transmitted is derived by the parameter deriving unit. Can be prevented from propagating to parameters.
 また、上記の構成によれば、エラーの伝播を防ぐことにより、予測精度が低減することを防ぎ、符号化効率の低下を防ぐことができる。また、本符号化装置により生成された符号化データは、伝送時に外部からの擾乱による伝送エラーの影響を受け、復号時に復号画像の画素値にエラーが発生する場合であっても、そのようなエラーが復号時に導出されるパラメータに伝播することを防ぐことができる。すなわち、本符号化装置は、外部からの擾乱の影響を受け難い符号化データを生成できる。 Further, according to the above configuration, by preventing error propagation, it is possible to prevent the prediction accuracy from being reduced and to prevent the encoding efficiency from being lowered. In addition, the encoded data generated by the present encoding device is affected by a transmission error due to external disturbance during transmission, and even if an error occurs in the pixel value of the decoded image during decoding. An error can be prevented from propagating to a parameter derived at the time of decoding. That is, the present encoding device can generate encoded data that is not easily affected by external disturbances.
 なお、上記第1のパラメータおよび上記第2のパラメータとしては、例えば、上述したa~eのような組み合わせが挙げられる。 Note that examples of the first parameter and the second parameter include combinations such as a to e described above.
 また、本発明に係る復号装置は、原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータをそれぞれ符号化することによって得られたシンタックスよりなる符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、復号した上記シンタックスの各々に関連付けられている重要度を示す重要度情報を取得する重要度情報取得手段と、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、および、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 The decoding apparatus according to the present invention generates residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the prediction image. A decoding device that decodes encoded data having a syntax obtained by encoding each parameter used for decoding, and reconstructs a prediction image used for decoding using a parameter derived for each prediction unit In the decoding apparatus including the predicted image restoration means, importance level information acquisition means for acquiring importance level information indicating the importance level associated with each of the decoded syntaxes, and derivation included in the encoded data The method specification information uses a reference value decoded from syntax associated with an importance lower than a predetermined importance as a parameter derivation method. Which one of the first derivation method that does not illuminate and the second derivation method that refers to the reference value decoded from the syntax associated with the importance lower than the predetermined importance is specified. A derivation method discrimination unit that discriminates for each prediction unit, and a target prediction unit that is a prediction unit to be processed, when the derivation method discrimination unit determines that the first derivation method is designated, Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the prediction unit, and the parameter derivation means comprises: Without referring to the parameter derived by the second derivation method among the parameters derived for the reference prediction unit, Deriving parameters for serial target prediction unit, and characterized in that.
 なお、上記所定の重要度以上の重要度に関連付けられているシンタックスは、上記所定の重要度よりも低い重要度に関連付けられているシンタックスよりもエラー耐性の高い伝送方式によって伝送されたものであることが好ましい。 It should be noted that the syntax associated with the importance greater than or equal to the predetermined importance is transmitted by a transmission method having a higher error resistance than the syntax associated with the importance lower than the predetermined importance. It is preferable that
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータ、すなわち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する。また、上記所定の重要度よりも低い重要度に関連付けられているシンタックスは、より低いエラー耐性の伝送方式によって伝送されるので、上記の構成によれば、より低いエラー耐性の伝送方式によって伝送されるシンタックスを参照することなく上記対象予測単位についてのパラメータを導出することにより、伝送エラーの影響を抑制しつつ、復号画像を生成することができる。 According to the above configuration, the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level. A parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax. In addition, the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance. By deriving the parameter for the target prediction unit without referring to the syntax to be decoded, it is possible to generate a decoded image while suppressing the influence of transmission errors.
 また、本発明に係る符号化装置は、原画像と予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータを予測単位毎にそれぞれ符号化することにより得られるシンタックスよりなる符号化データを生成する符号化装置であって、当該パラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、上記シンタックスの各々に重要度を関連付ける重要度設定手段と、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、上記シンタックスのうち、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、または、上記シンタックスのうち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、上記所定の重要度以上の重要度に関連付けられているシンタックスを、上記所定の重要度よりも低い重要度に関連付けられているシンタックスよりもエラー耐性の高い伝送方式によって伝送する伝送手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴としている。 In addition, the encoding apparatus according to the present invention encodes the residual data between the original image and the predicted image and the parameters used to generate the predicted image, by encoding each prediction unit. An encoding apparatus for generating encoded data comprising a syntax, wherein the encoding apparatus includes predicted image generation means for generating the predicted image using the parameter, and associates importance with each of the syntaxes Importance level setting means and derivation method setting means for setting a parameter derivation method for each prediction unit, wherein the decoding is performed from a syntax associated with an importance level lower than a predetermined importance level. The first derivation method that does not refer to the reference value, or is associated with an importance lower than the predetermined importance in the syntax. The derivation method setting means for setting any one of the second derivation methods that refer to the reference value decoded from the syntax to be processed, and the target prediction unit that is the prediction unit to be processed are processed by the derivation method setting means by the first derivation method setting means. When the derivation method is set, the parameter for the target prediction unit is derived with reference to the parameter derived for the reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit. The parameter derivation means and the syntax associated with the importance greater than or equal to the predetermined importance are transmitted by a transmission method having a higher error tolerance than the syntax associated with the importance lower than the predetermined importance. Transmitting means, wherein the parameter deriving means is a parameter derived from the parameters derived for the reference prediction unit. Without reference to parameters derived by the second method of deriving derives the parameters for the target prediction unit, and characterized in that.
 上記の構成によれば、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータ、すなわち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する。また、上記所定の重要度よりも低い重要度に関連付けられているシンタックスは、より低いエラー耐性の伝送方式によって伝送されるので、上記の構成によれば、より低いエラー耐性の伝送方式によって伝送されるシンタックスを参照することなく上記対象予測単位についてのパラメータを導出することができる。 According to the above configuration, the parameter deriving means sets a parameter derived by the second derivation method among parameters derived for the reference prediction unit, that is, an importance level lower than the predetermined importance level. A parameter for the target prediction unit is derived without referring to a parameter derived by a derivation method that refers to a reference value decoded from an associated syntax. In addition, the syntax associated with the importance level lower than the predetermined importance level is transmitted by a transmission method with a lower error resistance. Therefore, according to the above configuration, the syntax is transmitted by a transmission method with a lower error resistance. The parameter for the target prediction unit can be derived without referring to the syntax to be performed.
 また、上記の構成に対応する構成を有する復号装置によれば、伝送エラーの影響を抑制しつつ、復号画像を生成することができる。 Further, according to the decoding device having a configuration corresponding to the above configuration, it is possible to generate a decoded image while suppressing the influence of a transmission error.
 また、本発明は、以下のように構成することもできる。 The present invention can also be configured as follows.
 1.原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、導出済みのパラメータを参照する第1の導出方法、および、導出済みのパラメータを参照しない第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
ことを特徴とする復号装置。
1. A decoding device that decodes encoded data obtained by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. In the decoding apparatus including a predicted image restoration unit that restores a predicted image used for decoding using a parameter derived for each prediction unit, the derivation method designation information included in the encoded data is a parameter derivation method. A derivation method discrimination means for discriminating, for each prediction unit, which one of a first derivation method that refers to a derived parameter and a second derivation method that does not refer to a derived parameter is specified; For a target prediction unit that is a processing target prediction unit, when the first derivation method is determined by the derivation method determination unit, the target prediction unit is determined. Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the unit, and the parameter derivation means comprises: Deriving a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit;
A decoding device characterized by the above.
 2.上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が指定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ことを特徴とする上記1に記載の復号装置。 2. Among the reference prediction units, the prediction unit for which the second derivation method is designated further includes temporary parameter derivation means for deriving temporary parameters by the first derivation method, and the parameter derivation means includes: Among the reference prediction units, for the prediction unit for which the first derivation method is designated, the prediction unit for which the second derivation method is designated by referring to the parameter derived by the first derivation method The decoding apparatus according to 1 above, wherein the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving unit.
 3.上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことを特徴とする上記2に記載の復号装置。 3. The temporary parameter derivation means derives a temporary parameter for a prediction unit for which the second derivation method is specified among the reference prediction units for a prediction unit located at a predetermined relative position from the prediction unit. 3. The decoding device according to 2 above, wherein the decoding device is derived with reference to a parameter or a temporary parameter.
 4.上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、
ことを特徴とする上記2に記載の復号装置。
4). The temporary parameter derivation means includes a temporary parameter for a prediction unit for which the second derivation method is designated, among a reference prediction unit, a parameter or a temporary parameter derived for a prediction unit adjacent to the prediction unit. Derived by reference,
3. The decoding device as described in 2 above.
 5.上記パラメータ導出手段は、上記対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、
ことを特徴とする上記1から4の何れか1つに記載の復号装置。
5. The parameter deriving unit is derived for a reference prediction unit adjacent to the target prediction unit when the first deriving method is determined by the deriving method determining unit for the target prediction unit. With reference to the parameter, the parameter for the target prediction unit is derived.
5. The decoding device according to any one of 1 to 4 above, wherein
 6.上記予測画像復元手段は、画面内予測により予測画像を生成するものであり、上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、ことを特徴とする上記1から5の何れか1つに記載の復号装置。 6. The predicted image restoration means generates a predicted image by intra-screen prediction, and the parameter is referred to for generating a predicted image by intra-screen prediction. The decoding device according to any one of 5.
 7.上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位を含む予測画像における復号済みの画素値を参照して導出する、ことを特徴とする上記6に記載の復号装置。 7. The parameter derivation means derives a parameter for a prediction unit for which the second derivation method is designated by referring to a decoded pixel value in a prediction image including the prediction unit. 6. The decoding device according to 6.
 8.上記予測画像復元手段は、画面間予測により予測画像を生成するものであり、上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、ことを特徴とする上記1から5の何れか1つに記載の復号装置。 8. The predicted image restoration means generates a predicted image by inter-screen prediction, and the parameter is referred to for generating a predicted image by inter-screen prediction. The decoding device according to any one of 5.
 9.上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位についての予測画像を生成するために参照される復号済みの画像における画素値を参照して導出する、ことを特徴とする上記8に記載の復号装置。 9. The parameter derivation means refers to a parameter for a prediction unit for which the second derivation method is designated, with reference to a pixel value in a decoded image referred to for generating a prediction image for the prediction unit. 9. The decoding device according to 8 above, wherein the decoding device is derived.
 10.原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、導出済みのパラメータを参照する第1の導出方法、または、導出済みのパラメータを参照しない第2の導出方法の何れかを設定する導出方法設定手段と、処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、を備え、上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、ことを特徴とする符号化装置。 10. An encoding device that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image, using the parameters derived for each prediction unit In a coding apparatus including a predicted image generation unit that generates a predicted image, a derivation method setting unit that sets a parameter derivation method for each prediction unit, the first derivation method referring to a derived parameter, Alternatively, a derivation method setting unit that sets any one of the second derivation methods that do not refer to a derived parameter, and a target prediction unit that is a processing target prediction unit, the first derivation method is performed by the derivation method setting unit. Is set with reference to a parameter derived for a reference prediction unit that is a prediction unit located at a predetermined relative position from the target prediction unit, Parameter deriving means for deriving a parameter for an elephant prediction unit, wherein the parameter deriving means refers to a parameter derived by the second derivation method among parameters derived for the reference prediction unit And a parameter for the target prediction unit is derived.
 11.上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が設定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が設定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、ことを特徴とする上記10に記載の符号化装置。 11. Among the reference prediction units, the prediction unit for which the second derivation method is set further includes temporary parameter derivation means for deriving temporary parameters by the first derivation method, and the parameter derivation means includes the above Among the reference prediction units, for the prediction unit for which the first derivation method is set, the prediction unit for which the second derivation method is set with reference to the parameter derived by the first derivation method 11. The encoding apparatus according to 10, wherein the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving unit.
 12.上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことを特徴とする上記11に記載の符号化装置。 12. The temporary parameter deriving means derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. 12. The encoding apparatus according to 11 above, wherein the encoding apparatus is derived with reference to a parameter or a temporary parameter.
 13.上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、ことを特徴とする上記11に記載の符号化装置。 13. The temporary parameter deriving means includes a temporary parameter for a prediction unit for which the second derivation method is set among the reference prediction units, and a parameter or a temporary parameter derived for a prediction unit adjacent to the prediction unit. 12. The encoding device according to 11, wherein the encoding device is derived by reference.
 14.上記パラメータ導出手段は、上記対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、ことを特徴とする上記10から13の何れか1つに記載の符号化装置。 14. The parameter derivation means refers to a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting means for the target prediction unit. The encoding device according to any one of 10 to 13, wherein a parameter for the target prediction unit is derived.
 15.上記予測画像生成手段は、原画像を符号化および復号化することによって得られる局所復号画像を用いた画面内予測により予測画像を生成するものであり、上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、ことを特徴とする上記10から14の何れか1つに記載の符号化装置。 15. The predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image, and the parameter is obtained by predicting the predicted image by intra prediction. 15. The encoding device according to any one of 10 to 14, wherein the encoding device is referred to for generation.
 16.上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記局所復号画像における画素値を参照して導出する、ことを特徴とする上記15に記載の符号化装置。 16. The encoding according to item 15, wherein the parameter deriving unit derives a parameter for a prediction unit for which the second deriving method is set with reference to a pixel value in the local decoded image. apparatus.
 17.上記予測画像生成手段は、原画像を符号化および復号化することによって得られる復号画像を用いた画面間予測により予測画像を生成するものであり、上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、ことを特徴とする上記10から14の何れか1つに記載の符号化装置。 17. The predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image, and the parameter generates a predicted image by inter-screen prediction. The encoding device according to any one of the above items 10 to 14, wherein the encoding device is referred to for
 18.上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記復号画像における画素値を参照して導出する、ことを特徴とする上記17に記載の符号化装置。 18. 18. The encoding apparatus according to 17, wherein the parameter deriving unit derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the decoded image. .
 尚、発明の詳細な説明の項においてなされた具体的な実施形態または実施例は、あくまでも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の精神と次に記載する請求の範囲内において、いろいろと変更して実施することができるものである。 It should be noted that the specific embodiments or examples made in the section of the detailed description of the invention are merely to clarify the technical contents of the present invention, and are limited to such specific examples in a narrow sense. It should not be construed, and various modifications can be made within the spirit of the present invention and the scope of the following claims.
 本発明は、動画像を符号化し符号化データを生成する符号化装置、そのような符号化装置を用いて生成された符号化データを復号する復号装置に好適に適用することができる。 The present invention can be suitably applied to an encoding device that encodes a moving image and generates encoded data, and a decoding device that decodes encoded data generated using such an encoding device.
1         動画像復号装置(復号装置)
14          MB復号部
41        並列処理制御部
43,45       mv復号部
44,46     動き補償予測部(予測画像復元手段)
431  インター予測タイプ復号部(導出方法判別手段)
433        mv導出部HE(パラメータ導出手段)
434        mv導出部LE(仮パラメータ導出手段)
436        mv導出部N(パラメータ導出手段)
2        動画像符号化装置(符号化装置)
24         MB符号化部
241  インター予測タイプ決定部(導出方法設定手段)
243        mv導出部HE(パラメータ導出手段)
244        mv導出部LE(仮パラメータ導出手段)
246        mv導出部N(パラメータ導出手段)
251       動き補償予測部(予測画像生成手段)
3         動画像復号装置(復号装置)
34          MB復号部
51        並列処理制御部
53,55    予測モード復号部
54,56     イントラ予測部(予測画像復元手段)
531  イントラ予測タイプ復号部(導出方法判別手段)
533     予測モード導出部HE(パラメータ導出手段)
534     予測モード導出部LE(仮パラメータ導出手段)
536     予測モード推定部N(パラメータ導出手段)
4        動画像符号化装置(符号化装置)
64         MB符号化部
641  イントラ予測タイプ決定部(導出方法設定手段)
643     予測モード導出部HE(パラメータ導出手段)
644     予測モード導出部LE(仮パラメータ導出手段)
646     予測モード推定部N(パラメータ導出手段)
648       イントラ予測部(予測画像生成手段)
1 Video decoding device (decoding device)
14 MB decoding unit 41 Parallel processing control unit 43, 45 mv decoding unit 44, 46 Motion compensation prediction unit (predicted image restoration means)
431 Inter prediction type decoding unit (derivation method discrimination means)
433 mv deriving unit HE (parameter deriving means)
434 mv deriving unit LE (provisional parameter deriving means)
436 mv deriving unit N (parameter deriving means)
2 Video encoding device (encoding device)
24 MB encoding unit 241 inter prediction type determining unit (derivation method setting means)
243 mv deriving unit HE (parameter deriving means)
244 mv deriving unit LE (provisional parameter deriving means)
246 mv deriving unit N (parameter deriving means)
251 Motion compensation prediction unit (predicted image generation means)
3 Video decoding device (decoding device)
34 MB decoding unit 51 Parallel processing control unit 53, 55 Prediction mode decoding unit 54, 56 Intra prediction unit (predicted image restoration means)
531 Intra Prediction Type Decoding Unit (Derivation Method Discriminating Unit)
533 Prediction mode deriving unit HE (parameter deriving means)
534 Prediction mode deriving unit LE (provisional parameter deriving means)
536 Prediction mode estimation unit N (parameter derivation means)
4 Video encoding device (encoding device)
64 MB encoding unit 641 Intra prediction type determining unit (derivation method setting means)
643 Prediction mode deriving unit HE (parameter deriving means)
644 Prediction mode deriving unit LE (provisional parameter deriving means)
646 Prediction mode estimation unit N (parameter derivation means)
648 Intra Prediction Unit (Predicted Image Generation Unit)

Claims (22)

  1.  原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、
     上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、復号済みの画素値を参照しない第1の導出方法、および、復号済みの画素値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、
     処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
    を備え、
     上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする復号装置。
    A decoding device that decodes encoded data obtained by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. In a decoding apparatus including a predicted image restoration unit that restores a predicted image used for decoding using a parameter derived for each prediction unit,
    The derivation method designation information included in the encoded data includes any one of a first derivation method that does not refer to a decoded pixel value and a second derivation method that refers to a decoded pixel value as a parameter derivation method. Derivation method discriminating means for discriminating for each prediction unit,
    A prediction unit that is located at a predetermined relative position from the target prediction unit when the first derivation method is determined by the derivation method determination unit for the target prediction unit that is a processing target prediction unit Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for the reference prediction unit,
    With
    The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit.
    A decoding device characterized by the above.
  2.  上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、
     上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が指定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が指定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする請求項1に記載の復号装置。
    Temporary parameter deriving means for deriving a temporary parameter by the first derivation method for the prediction unit in which the second derivation method is specified among the reference prediction units,
    The parameter derivation means refers to the parameter derived by the first derivation method for the prediction unit in which the first derivation method is specified among the reference prediction units, and the second derivation method For the prediction unit in which is specified, the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
    The decoding device according to claim 1.
  3.  上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、
    ことを特徴とする請求項2に記載の復号装置。
    The temporary parameter derivation means derives a temporary parameter for a prediction unit for which the second derivation method is specified among the reference prediction units for a prediction unit located at a predetermined relative position from the prediction unit. Derived with reference to parameters or formal parameters,
    The decoding device according to claim 2, wherein:
  4.  上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が指定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、
    ことを特徴とする請求項2に記載の復号装置。
    The temporary parameter derivation means includes a temporary parameter for a prediction unit for which the second derivation method is designated, among a reference prediction unit, a parameter or a temporary parameter derived for a prediction unit adjacent to the prediction unit. Derived by reference,
    The decoding device according to claim 2, wherein:
  5.  上記パラメータ導出手段は、上記対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、
    ことを特徴とする請求項1から4の何れか1項に記載の復号装置。
    The parameter deriving unit is derived for a reference prediction unit adjacent to the target prediction unit when the first deriving method is determined by the deriving method determining unit for the target prediction unit. With reference to the parameter, the parameter for the target prediction unit is derived.
    The decoding device according to any one of claims 1 to 4, wherein:
  6.  上記予測画像復元手段は、画面内予測により予測画像を生成するものであり、
     上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、
    ことを特徴とする請求項1から5の何れか1項に記載の復号装置。
    The predicted image restoration means is for generating a predicted image by intra prediction,
    The above parameters are referred to generate a predicted image by intra prediction.
    The decoding device according to claim 1, wherein
  7.  上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位を含む予測画像における復号済みの画素値を参照して導出する、
    ことを特徴とする請求項6に記載の復号装置。
    The parameter derivation means derives a parameter for a prediction unit for which the second derivation method is designated with reference to a decoded pixel value in a prediction image including the prediction unit.
    The decoding apparatus according to claim 6.
  8.  上記予測画像復元手段は、画面間予測により予測画像を生成するものであり、
     上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、
    ことを特徴とする請求項1から5の何れか1項に記載の復号装置。
    The predicted image restoration means generates a predicted image by inter-screen prediction,
    The above parameters are referred to generate a predicted image by inter-screen prediction.
    The decoding device according to claim 1, wherein
  9.  上記パラメータ導出手段は、上記第2の導出方法が指定されている予測単位についてのパラメータを、当該予測単位を含む予測画像を生成するために参照される復号済みの画像における画素値を参照して導出する、
    ことを特徴とする請求項8に記載の復号装置。
    The parameter derivation means refers to a parameter for a prediction unit for which the second derivation method is specified, with reference to a pixel value in a decoded image referred to for generating a prediction image including the prediction unit. To derive,
    The decoding device according to claim 8.
  10.  原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、
     パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、原画像を符号化および復号化することによって得られる復号画像の画素値を参照しない第1の導出方法、または、該復号画像の画素値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、
     処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
    を備え、
     上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする符号化装置。
    An encoding device that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image, using the parameters derived for each prediction unit In an encoding apparatus provided with a predicted image generation means for generating a predicted image,
    A derivation method setting means for setting a parameter derivation method for each prediction unit, the first derivation method not referring to a pixel value of a decoded image obtained by encoding and decoding an original image, or the decoding Derivation method setting means for setting any one of the second derivation methods referring to pixel values of an image;
    When the first derivation method is set by the derivation method setting unit for a target prediction unit that is a processing target prediction unit, a reference prediction that is a prediction unit located at a predetermined relative position from the target prediction unit A parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for the unit;
    With
    The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit.
    An encoding apparatus characterized by that.
  11.  上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位について、上記第1の導出方法により、仮パラメータを導出する仮パラメータ導出手段をさらに備え、
     上記パラメータ導出手段は、上記参照予測単位のうち、上記第1の導出方法が設定されている予測単位については、上記第1の導出方法により導出されたパラメータを参照し、上記第2の導出方法が設定されている予測単位については、上記仮パラメータ導出手段によって導出された仮パラメータを参照して、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする請求項10に記載の符号化装置。
    Temporary parameter deriving means for deriving a temporary parameter by the first derivation method for the prediction unit for which the second derivation method is set among the reference prediction units,
    The parameter derivation means refers to the parameter derived by the first derivation method for the prediction unit for which the first derivation method is set among the reference prediction units, and the second derivation method For the prediction unit for which is set, the parameter for the target prediction unit is derived with reference to the temporary parameter derived by the temporary parameter deriving means.
    The encoding apparatus according to claim 10.
  12.  上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位から所定の相対位置に位置する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、
    ことを特徴とする請求項11に記載の符号化装置。
    The temporary parameter deriving means derives a temporary parameter for a prediction unit for which the second derivation method is set, among the reference prediction units, for a prediction unit located at a predetermined relative position from the prediction unit. Derived with reference to parameters or formal parameters,
    The encoding apparatus according to claim 11.
  13.  上記仮パラメータ導出手段は、上記参照予測単位のうち、上記第2の導出方法が設定されている予測単位についての仮パラメータを、当該予測単位に隣接する予測単位について導出されたパラメータまたは仮パラメータを参照して導出する、
    ことを特徴とする請求項11に記載の符号化装置。
    The temporary parameter deriving means includes, among the reference prediction units, a temporary parameter for a prediction unit for which the second derivation method is set, a parameter or a temporary parameter derived for a prediction unit adjacent to the prediction unit. Derived by reference,
    The encoding apparatus according to claim 11.
  14.  上記パラメータ導出手段は、上記対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位に隣接する参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出する、
    ことを特徴とする請求項10から13の何れか1項に記載の符号化装置。
    The parameter derivation unit refers to a parameter derived for a reference prediction unit adjacent to the target prediction unit when the first derivation method is set by the derivation method setting unit for the target prediction unit. Deriving parameters for the target prediction unit,
    The encoding apparatus according to any one of claims 10 to 13, wherein the encoding apparatus is any one of the above.
  15.  上記予測画像生成手段は、原画像を符号化および復号化することによって得られる局所復号画像を用いた画面内予測により予測画像を生成するものであり、
     上記パラメータは、画面内予測により予測画像を生成するために参照されるものである、
    ことを特徴とする請求項10から14の何れか1項に記載の符号化装置。
    The predicted image generation means generates a predicted image by intra prediction using a locally decoded image obtained by encoding and decoding an original image,
    The above parameters are referred to generate a predicted image by intra prediction.
    15. The encoding apparatus according to claim 10, wherein the encoding apparatus is any one of claims 10 to 14.
  16.  上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記局所復号画像における画素値を参照して導出する、
    ことを特徴とする請求項15に記載の符号化装置。
    The parameter derivation means derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the local decoded image.
    The encoding apparatus according to claim 15.
  17.  上記予測画像生成手段は、原画像を符号化および復号化することによって得られる復号画像を用いた画面間予測により予測画像を生成するものであり、
     上記パラメータは、画面間予測により予測画像を生成するために参照されるものである、
    ことを特徴とする請求項10から14の何れか1項に記載の符号化装置。
    The predicted image generation means generates a predicted image by inter-screen prediction using a decoded image obtained by encoding and decoding an original image,
    The above parameters are referred to generate a predicted image by inter-screen prediction.
    15. The encoding apparatus according to claim 10, wherein the encoding apparatus is any one of claims 10 to 14.
  18.  上記パラメータ導出手段は、上記第2の導出方法が設定されている予測単位についてのパラメータを、上記復号画像における画素値を参照して導出する、
    ことを特徴とする請求項17に記載の符号化装置。
    The parameter derivation means derives a parameter for a prediction unit for which the second derivation method is set with reference to a pixel value in the decoded image.
    The encoding apparatus according to claim 17.
  19.  原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データを符号化することによって得られた符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、
     上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、(1)第1のパラメータを参照し、かつ、当該第1のパラメータに基づいて導出される第2のパラメータを参照しない第1の導出方法、および、(2)当該第2のパラメータを参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、
     処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出された上記第1のパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
    を備え、
     上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする復号装置。
    A decoding device that decodes encoded data obtained by encoding residual data between an original image and a prediction image generated for each of a plurality of prediction units obtained by dividing the original image. In a decoding apparatus including a predicted image restoration unit that restores a predicted image used for decoding using a parameter derived for each prediction unit,
    The derivation method designation information included in the encoded data, as a parameter derivation method, (1) refers to the first parameter and does not refer to the second parameter derived based on the first parameter. A first derivation method, and (2) a derivation method discrimination means for discriminating, for each prediction unit, which of the second derivation methods referring to the second parameter is designated,
    A prediction unit that is located at a predetermined relative position from the target prediction unit when the first derivation method is determined by the derivation method determination unit for the target prediction unit that is a processing target prediction unit Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter derived for the reference prediction unit,
    With
    The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit.
    A decoding device characterized by the above.
  20.  原画像と予測画像との残差データを、当該原画像を分割して得られる複数の予測単位の各々について符号化する符号化装置であって、予測単位毎に導出されるパラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、
     パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、(1)第1のパラメータを参照し、かつ、当該第1のパラメータに基づいて導出される第2のパラメータを参照しない第1の導出方法、および、(2)当該第2のパラメータを参照する第2の導出方法の何れかを設定する導出方法設定手段と、
     処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出された上記第1のパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
    を備え、
     上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする符号化装置。
    An encoding device that encodes residual data between an original image and a predicted image for each of a plurality of prediction units obtained by dividing the original image, using the parameters derived for each prediction unit In an encoding apparatus provided with a predicted image generation means for generating a predicted image,
    Derivation method setting means for setting a parameter derivation method for each prediction unit, (1) refers to the first parameter and does not refer to the second parameter derived based on the first parameter A first derivation method, and (2) derivation method setting means for setting any one of the second derivation methods referring to the second parameter;
    When the first derivation method is set by the derivation method setting unit for a target prediction unit that is a processing target prediction unit, a reference prediction that is a prediction unit located at a predetermined relative position from the target prediction unit Parameter deriving means for deriving a parameter for the target prediction unit with reference to the first parameter derived for the unit;
    With
    The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit.
    An encoding apparatus characterized by that.
  21.  原画像と、当該原画像を分割して得られる複数の予測単位の各々について生成された予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータをそれぞれ符号化することによって得られたシンタックスよりなる符号化データを復号する復号装置であって、復号に用いる予測画像を、予測単位毎に導出されるパラメータを用いて復元する予測画像復元手段を備えている復号装置において、
     復号した上記シンタックスの各々に関連付けられている重要度を示す重要度情報を取得する重要度情報取得手段と、
     上記符号化データに含まれる導出方法指定情報が、パラメータの導出方法として、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、および、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れを指定しているかを、予測単位毎に判別する導出方法判別手段と、
     処理対象の予測単位である対象予測単位について、上記導出方法判別手段によって上記第1の導出方法が指定されていると判別された場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
    を備え、
     上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする復号装置。
    Residual data between the original image and the prediction image generated for each of a plurality of prediction units obtained by dividing the original image, and the parameters used to generate the prediction image are encoded. A decoding apparatus that decodes encoded data having a syntax obtained by decoding, and includes a prediction image restoration unit that restores a prediction image used for decoding using a parameter derived for each prediction unit In the device
    Importance level information acquisition means for acquiring importance level information indicating the importance level associated with each of the decoded syntaxes;
    A first derivation method in which the derivation method designation information included in the encoded data does not refer to a reference value decoded from a syntax associated with an importance lower than a predetermined importance as a parameter derivation method; And a derivation method for discriminating, for each prediction unit, which of the second derivation methods for referring to the reference value decoded from the syntax associated with the importance lower than the predetermined importance is specified. Discrimination means;
    A prediction unit that is located at a predetermined relative position from the target prediction unit when the first derivation method is determined by the derivation method determination unit for the target prediction unit that is a processing target prediction unit Parameter derivation means for deriving a parameter for the target prediction unit with reference to a parameter derived for the reference prediction unit,
    With
    The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit.
    A decoding device characterized by the above.
  22.  原画像と予測画像との残差データ、および、当該予測画像を生成するために用いられたパラメータを予測単位毎にそれぞれ符号化することにより得られるシンタックスよりなる符号化データを生成する符号化装置であって、当該パラメータを用いて上記予測画像を生成する予測画像生成手段を備えている符号化装置において、
     上記シンタックスの各々に重要度を関連付ける重要度設定手段と、
     パラメータの導出方法を予測単位毎に設定する導出方法設定手段であって、上記シンタックスのうち、所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照しない第1の導出方法、または、上記シンタックスのうち、上記所定の重要度よりも低い重要度に関連付けられているシンタックスから復号された参照値を参照する第2の導出方法の何れかを設定する導出方法設定手段と、
     処理対象の予測単位である対象予測単位について、上記導出方法設定手段によって上記第1の導出方法が設定されている場合に、当該対象予測単位から所定の相対位置に位置する予測単位である参照予測単位について導出されたパラメータを参照して、当該対象予測単位についてのパラメータを導出するパラメータ導出手段と、
     上記所定の重要度以上の重要度に関連付けられているシンタックスを、上記所定の重要度よりも低い重要度に関連付けられているシンタックスよりもエラー耐性の高い伝送方式によって伝送する伝送手段と、
    を備え、
     上記パラメータ導出手段は、上記参照予測単位について導出されるパラメータのうち、上記第2の導出方法によって導出されるパラメータを参照することなく、上記対象予測単位についてのパラメータを導出する、
    ことを特徴とする符号化装置。
    Encoding that generates encoded data composed of syntax obtained by encoding the residual data between the original image and the predicted image and the parameters used to generate the predicted image for each prediction unit. In an encoding device comprising prediction image generation means for generating the prediction image using the parameter,
    Importance setting means for associating importance with each of the above syntaxes;
    A derivation method setting means for setting a parameter derivation method for each prediction unit, and does not refer to a reference value decoded from a syntax associated with an importance lower than a predetermined importance among the above syntaxes Either a first derivation method or a second derivation method that refers to a reference value decoded from a syntax associated with an importance lower than the predetermined importance among the syntaxes is set. Derivation method setting means to
    When the first derivation method is set by the derivation method setting unit for a target prediction unit that is a processing target prediction unit, a reference prediction that is a prediction unit located at a predetermined relative position from the target prediction unit A parameter deriving means for deriving a parameter for the target prediction unit with reference to a parameter derived for the unit;
    A transmission means for transmitting a syntax associated with an importance greater than or equal to the predetermined importance by a transmission method having a higher error resistance than a syntax associated with an importance lower than the predetermined importance;
    With
    The parameter derivation means derives a parameter for the target prediction unit without referring to a parameter derived by the second derivation method among parameters derived for the reference prediction unit.
    An encoding apparatus characterized by that.
PCT/JP2011/059643 2010-05-11 2011-04-19 Encoding device and decoding device WO2011142221A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010109340 2010-05-11
JP2010-109340 2010-05-11
JP2010-110312 2010-05-12
JP2010110312 2010-05-12

Publications (1)

Publication Number Publication Date
WO2011142221A1 true WO2011142221A1 (en) 2011-11-17

Family

ID=44914277

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/059643 WO2011142221A1 (en) 2010-05-11 2011-04-19 Encoding device and decoding device

Country Status (1)

Country Link
WO (1) WO2011142221A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002457A (en) * 2015-06-05 2022-09-02 杜比实验室特许公司 Image encoding and decoding method and image decoding apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239353A (en) * 1998-02-23 1999-08-31 Sharp Corp Video coder, video decoder, video coding method and video decoding method
JP2000102018A (en) * 1998-09-25 2000-04-07 Oki Electric Ind Co Ltd Moving image decoding method and device
JP2008135980A (en) * 2006-11-28 2008-06-12 Toshiba Corp Interpolation frame generating method and interpolation frame generating apparatus
JP2010154490A (en) * 2008-11-26 2010-07-08 Hitachi Ltd Video decoding method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239353A (en) * 1998-02-23 1999-08-31 Sharp Corp Video coder, video decoder, video coding method and video decoding method
JP2000102018A (en) * 1998-09-25 2000-04-07 Oki Electric Ind Co Ltd Moving image decoding method and device
JP2008135980A (en) * 2006-11-28 2008-06-12 Toshiba Corp Interpolation frame generating method and interpolation frame generating apparatus
JP2010154490A (en) * 2008-11-26 2010-07-08 Hitachi Ltd Video decoding method

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
DA LIU ET AL.: "Direct Mode Coding for B Pictures Using Virtual Reference Picture", IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, 2007, 2 July 2007 (2007-07-02), pages 1363 - 1366, XP031123887 *
HIDEAKI KIMATA ET AL.: "Spatial Temporal Adaptive Direct Mode Coding on Bi-directional Motion Compensation Prediction", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J86-D-II, no. 11, November 2003 (2003-11-01), pages 1597 - 1605, XP008030308 *
SHOHEI SAITO ET AL.: "Sansho Gazo-kan no Ugoki Yosoku o Riyo shita Fugoka Koritsu Kaizen Hoshiki", THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS 2009 NEN NENJI TAIKAI KOEN YOKOSHU 3-11, 26 August 2009 (2009-08-26) *
SVEN KLOMP ET AL.: "Decoder-Side Block Motion Estimation for H.264/MPEG-4 AVC Based Video Coding", IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS, 2009. ISCAS 2009., 24 May 2009 (2009-05-24), pages 1641 - 1644, XP031479529 *
TOMOKAZU MURAKAMI ET AL.: "Advanced B Skip Mode with Decoder-side Motion Estimation", ITU-TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 QUESTION 6 VIDEO CODING EXPERTS GROUP (VCEG) 37TH MEETING, 15 April 2009 (2009-04-15), YOKOHAMA, JAPAN, pages 1 - 4 *
XIANGYANG JI ET AL.: "Enhanced Direct Mode Coding for Bi-Predictive Pictures", PROCEEDINGS OF THE 2004 INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS, 2004. ISCAS '04, vol. 3, 23 May 2004 (2004-05-23), pages III-785 - III-788 *
YUTO KOMATSU ET AL.: "Enhancement of Residual Coding Efficiency Using Motion Estimation between Reference Frames", PROCEEDINGS OF THE 2010 IEICE GENERAL CONFERENCE JOHO - SYSTEM 2 D-11-3, 2 March 2010 (2010-03-02), pages 3 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002457A (en) * 2015-06-05 2022-09-02 杜比实验室特许公司 Image encoding and decoding method and image decoding apparatus

Similar Documents

Publication Publication Date Title
US20220159244A1 (en) Method and apparatus for setting reference picture index of temporal merging candidate
KR102046520B1 (en) Methods of decoding using skip mode and apparatuses for using the same
JP5061179B2 (en) Illumination change compensation motion prediction encoding and decoding method and apparatus
RU2683495C1 (en) Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
JP5277257B2 (en) Video decoding method and video encoding method
JP4908180B2 (en) Video encoding device
KR20190092358A (en) Method and apparatus for scalable video coding using inter prediction mode
KR20190089836A (en) Method and apparatus for video encoding/decoding using error compensation
JP2008259174A (en) Computer-implemented method for mapping motion vectors, transcoder for mapping motion vectors and decoder for mapping motion vectors
WO2020184348A1 (en) Image decoding device, image decoding method, and program
JP7311635B2 (en) Codec method, device and equipment therefor
WO2011142221A1 (en) Encoding device and decoding device
JP7034363B2 (en) Image decoder, image decoding method and program
JP7083971B1 (en) Image decoder, image decoding method and program
JP7061737B1 (en) Image decoder, image decoding method and program
WO2020184262A1 (en) Image decoding device, image decoding method, and program
JP2012175155A (en) Moving image encoding apparatus
KR101802304B1 (en) Methods of encoding using hadamard transform and apparatuses using the same
TW202420819A (en) Prediction generation with out-of-boundary check in video coding
WO2012141500A2 (en) Image encoding method using a skip mode, and a device using the method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11780478

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11780478

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP