WO2007114368A1 - 画像符号化装置及び方法並びに画像復号化装置及び方法 - Google Patents

画像符号化装置及び方法並びに画像復号化装置及び方法 Download PDF

Info

Publication number
WO2007114368A1
WO2007114368A1 PCT/JP2007/057197 JP2007057197W WO2007114368A1 WO 2007114368 A1 WO2007114368 A1 WO 2007114368A1 JP 2007057197 W JP2007057197 W JP 2007057197W WO 2007114368 A1 WO2007114368 A1 WO 2007114368A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
bit
pixel
accuracy
information
Prior art date
Application number
PCT/JP2007/057197
Other languages
English (en)
French (fr)
Inventor
Reiko Noda
Takeshi Chujoh
Original Assignee
Kabushiki Kaisha Toshiba
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/JP2006/320876 external-priority patent/WO2007116551A1/ja
Priority to BRPI0709853-7A priority Critical patent/BRPI0709853A2/pt
Priority to JP2008508675A priority patent/JP5254004B2/ja
Priority to EP20070740633 priority patent/EP2003897A4/en
Priority to CN2007800112005A priority patent/CN101411202B/zh
Priority to MX2008012516A priority patent/MX2008012516A/es
Application filed by Kabushiki Kaisha Toshiba filed Critical Kabushiki Kaisha Toshiba
Priority to AU2007232828A priority patent/AU2007232828B2/en
Priority to CA 2645931 priority patent/CA2645931A1/en
Publication of WO2007114368A1 publication Critical patent/WO2007114368A1/ja
Priority to US12/242,181 priority patent/US8606028B2/en
Priority to NO20084509A priority patent/NO20084509L/no
Priority to HR20080553A priority patent/HRP20080553A2/xx

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • Image encoding apparatus and method and image decoding apparatus and method
  • the present invention relates to an image encoding apparatus and method for moving images or still images, and an image decoding apparatus and method.
  • H. 264 which is a typical moving image coding standard method, is a discrete code for a prediction error signal between an input image signal and a prediction image signal created by performing intra prediction or motion compensation.
  • orthogonal transform such as sine transform (DCT) is performed, and after such transformation on the frequency axis is performed, compression processing by quantization and coding is performed on the transform coefficient to obtain an encoded image.
  • DCT sine transform
  • This is a lossy compression method.
  • an interpolation filter for in-screen prediction and motion compensation adds a filter coefficient to a plurality of pixels and then rounds them to the same precision as the pixel bit length of the input image. Is going.
  • an encoder and a decoder are applied to a digital camera provided integrally, and the encoder is also matched to the DCT calculation accuracy shared by the decoder.
  • a technique for shifting the bit length of an input image is disclosed. In this method, the encoder and the decoder are provided separately, and if the DCT operation accuracy is different, the bits are shifted in accordance with the calculation accuracy. H is generated.
  • the present invention relates to an image encoding device, an image encoding method, an image decoding device, and an image decoding method for improving encoding efficiency by sufficiently increasing the accuracy of intra prediction and motion compensation.
  • the purpose is to provide.
  • a converted input image with different bit precision is generated by converting the bit precision of each pixel of the input image, and bit conversion information representing the number of bits changed by the conversion is generated.
  • an image encoding device Provided is an image encoding device.
  • the second aspect of the present invention is a pixel bit accuracy for converting the bit accuracy of each pixel of an input image composed of a plurality of pixels each having N bit accuracy to M bits large (N + M) bit accuracy
  • a prediction image generator that generates a prediction image of (N + M) bit accuracy for the input image of (N + M) bit accuracy from a reference image of (N + M) bit accuracy; (+ M) a subtractor that obtains a difference signal between the input image with bit accuracy and the predicted image with (N + M) bit accuracy, and an encoder that encodes the difference signal and outputs image coding information.
  • a decoding controller that outputs a decoded differential image based on the image encoding information, and adds the (N + M) bit-accurate prediction image and the decoded differential image to obtain (N + M) bit accuracy
  • An adder that outputs a decoded image of (N + M) bit accuracy and the decoded image of (N + M) bit accuracy as the reference image
  • an image encoding device including a reference image storage memory to be stored.
  • a demultiplexer that inputs image information obtained by multiplexing bit conversion information and image code information and separates it into bit conversion information and image encoded information;
  • An image decoder that decodes the image encoding information and outputs a decoded image, and a pixel bit accuracy converter that converts the value of each pixel of the decoded image to bit accuracy with different bit accuracy based on the bit conversion information
  • an image decoding apparatus is a decoder for decoding input encoded image information into a (N + M) bit-accuracy decoded differential image, and using the encoded image information, (N + M) bit accuracy.
  • a prediction image generator that creates a (N + M) bit-accurate predicted image from the reference image, and an addition that obtains a (N + M) bit-accurate decoded image by adding the decoded differential image and the predicted image
  • a reference image storage memory for storing the decoded image with (N + M) bit accuracy as the reference image, and (N + M) each pixel of the decoded image with bit accuracy is converted to N bit accuracy N
  • An image decoding apparatus including a pixel bit accuracy converter that outputs a decoded image with bit accuracy is provided.
  • FIG. 1A is a block diagram showing a configuration example of an image encoding device according to a first embodiment of the present invention.
  • FIG. 1B is a flowchart showing the operation of the 1A image encoding device.
  • FIG. 2 is a block diagram showing a configuration of a pixel bit length expander.
  • FIG. 3 is a diagram showing an example of a syntax structure used in the embodiment.
  • FIG. 4 is a diagram showing a structure of sequence parameter set syntax used in the same embodiment.
  • FIG. 5 is a diagram showing the structure of supplemental syntax used in the same embodiment.
  • FIG. 6 is a diagram showing the structure of supplemental syntax used in the same embodiment.
  • FIG. 7A is a block diagram showing a configuration example of an image decoding apparatus according to the embodiment.
  • FIG. 7B is a flowchart showing an operation of the image decoding apparatus in FIG. 7A.
  • FIG. 8 is a block diagram showing a configuration of the pixel bit length reducer of FIG.
  • FIG. 9A is a block diagram showing a configuration example of an image encoding device according to the second embodiment of the present invention.
  • FIG. 9B is a flowchart showing the operation of the image decoding apparatus in FIG. 9A.
  • FIG. 10A is a block diagram showing a configuration example of an image decoding device according to the embodiment.
  • FIG. 10B is a flowchart showing the operation of the image decoding apparatus in FIG. 10A.
  • FIG. 11A is a block diagram showing a configuration example of the image encoding device according to the third embodiment.
  • FIG. 11B is a flowchart showing an operation of the image encoding device in FIG. 11A.
  • FIG. 11C is a diagram showing an outline of the operation of the pixel bit length converter of FIG. 11A.
  • FIG. 11D is a block diagram showing an example of the configuration of the pixel bit length converter of FIG. 11A.
  • FIG. 11E is a block diagram showing an example of the configuration of the pixel bit length converter of FIG. 11A
  • FIG. 11F is a block diagram showing an example of the configuration of the frame memory in FIG. 11A.
  • FIG. 12 is a block diagram showing a configuration of the pixel bit length converter of FIG. 11.
  • FIG. 13 is a diagram showing the structure of sequence parameter set syntax used in the embodiment.
  • FIG. 14 shows the structure of the picture parameter set syntax used in the embodiment.
  • FIG. 15 is a diagram showing a structure of slice level syntax used in the embodiment.
  • FIG. 16 is a diagram showing a structure of macroblock level syntax used in the embodiment.
  • FIG. 17A is a block diagram showing a configuration example of the image decoding apparatus according to the embodiment.
  • FIG. 17B is a flowchart showing the operation of the image decoding apparatus in FIG. 17A.
  • FIG. 18A is a block diagram showing a configuration example of an image encoding device according to the fourth embodiment of the present invention.
  • FIG. 18B is a flowchart showing an operation of the image encoding device in FIG. 18A.
  • FIG. 19A is a block diagram showing a configuration example of the image decoding apparatus according to the embodiment.
  • FIG. 19B is a flowchart showing the operation of the image decoding apparatus in FIG. 19A.
  • FIG. 20A is a block diagram showing a configuration example of the image encoding device according to the fifth embodiment.
  • FIG. 20B is a flowchart showing an operation of the image encoding device in FIG. 20A.
  • 21A is a block diagram showing a configuration example of the image decoding apparatus according to the embodiment.
  • FIG. 21B is a flowchart showing the operation of the image decoding apparatus in FIG. 21A.
  • FIG. 22 is a block diagram of a predicted image creator on the encoder side.
  • FIG. 23 is a block diagram of a prediction image creator on the decoder side.
  • FIG. 24 is a block diagram showing a configuration of an inter-frame predictor.
  • FIG. 25 is a block diagram showing another configuration of the inter-frame predictor.
  • FIG. 26 is a block diagram showing another configuration of the inter-frame predictor.
  • FIG. 27 is a block diagram showing a configuration of a loop filter on the encoder side.
  • FIG. 28 is a block diagram showing a configuration of a decoding-side loop filter.
  • FIG. 29 is a block diagram showing another configuration of the pixel bit length expander.
  • FIG. 30 is a block diagram of a filter processing unit.
  • FIG. 31 is a flowchart of the operation of the filter processing unit.
  • FIG. 32 is a block diagram of a pixel bit length reducer.
  • FIG. 33A is a block diagram of an image coding apparatus according to the sixth embodiment.
  • FIG. 33B is a flowchart showing the operation of the image encoding device in FIG. 33A.
  • FIG. 34A is a block diagram of an image decoding apparatus according to the sixth embodiment.
  • FIG. 34B is a flowchart showing an operation of the image decoding apparatus in FIG. 34A.
  • 35A is a block diagram of an image coding apparatus according to the seventh embodiment.
  • FIG. 35B is a flowchart showing an operation of the image encoding device in FIG. 35A.
  • FIG. 36 is a diagram showing sequence parameter set syntax.
  • FIG. 37 is a diagram showing sequence parameter set syntax.
  • FIG. 38 is a diagram showing a setting example of control flags used in the processing of the image encoding device.
  • FIG. 39A is a block diagram showing a configuration of an image decoding apparatus according to the seventh embodiment.
  • FIG. 39B is a flowchart showing the operation of the image decoding apparatus in FIG. 39A.
  • FIG. 40 is a diagram showing setting of control flags included in bit conversion information.
  • FIG. 41 is a diagram for explaining a difference in rounding error caused by the presence or absence of bit precision extension.
  • FIG. 42 is a diagram showing predicted pixel values with half-pixel accuracy.
  • FIG. 43 is a diagram showing conversion characteristics in pixel bit length extension and pixel bit length reduction according to the embodiment of the present invention.
  • This image encoding apparatus is supplied with an input image signal 100, and a pixel bit length extender (that is, a pixel bit precision converter that converts pixel bit precision) 1001 that extends the pixel bit length and the image bit length extension.
  • a pixel bit length extender that is, a pixel bit precision converter that converts pixel bit precision
  • An image encoder 10 connected to the output of the encoder 1001, a multiplexer 12 connected to the output of the image encoder 10, and another output of the image bit length extender 1 001,
  • a bit length conversion controller 1002 for supplying the bit extension information to the multiplexing unit 12.
  • a moving image signal is input to the image encoding device in units of frames as the input image signal 100 (Sl l).
  • the pixel bit length expander 1001 performs a process of converting each pixel of the input N-bit precision image signal 100 to a precision of (N + M) bits larger than N bits by M bits. That is, in the pixel bit length extender 1001 shown in FIG. 2, whether to extend the bit length of each pixel of the input N-bit precision image signal 100 is selected by the switch E0 based on the bit length extension information 1003. (S12). Connect switch E0 to the ON side for expansion, and OFF for no expansion.
  • the image signal is input to the pixel bit length extension converter (pixel bit precision converter) E01, and the pixel bit length conversion described later is performed (S13).
  • the image signal is output as it is without being converted to pixel bit length. For example, if the value of a pixel in the input image signal is K, the pixel value K ′ after extending the pixel value K by M bits is calculated as shown in the following formula (1). It is calculated.
  • the pixel value K ′ is calculated as shown in the following equation (1_1).
  • K ' INT [[ ⁇ (K-Min) / (Max-Min) ⁇ ⁇ X ((1 ⁇ ⁇ ) _ 1)] + offset]
  • INT indicates processing for rounding to an integer.
  • the offset in the formulas (1_1) and (1_2) indicates the offset when rounding and is an arbitrary value between 0 and 1.
  • the input image is a color image signal composed of a plurality of components such as RGB
  • the bit length of each pixel of each component is expanded to a bit accuracy of M bits, and then each component is changed to a different color.
  • each pixel R, G, B force of each component of the N-bit input image is converted to Y, Co, Cg after extending the value of each pixel to a bit precision larger by M bits.
  • Round (A) is the process of rounding A to an integer.
  • the number of bits M to be expanded is set to 2 or more, it is possible to perform color conversion without causing a rounding error in the rounding process.
  • the color conversion shown here is merely an example, and any process may be performed as long as it is a process for performing color conversion.
  • the above example is an example of the conversion performed by the pixel bit length expander 1001, and the process of extending the value of each pixel to a bit precision larger by M bits is not limited to the above example. Any processing that can be expanded is possible.
  • bit extended input image signal 1009 that has been bit extended as described above is guided to the image encoder 10.
  • bit conversion information 1010 such as the number of bits M to be expanded, the bit length N of the input image signal, and the gamma value, pixel maximum value, minimum value, histogram, etc. necessary for the conversion is generated (S14).
  • the conversion controller (bit precision conversion controller) 1002 guides it to the multiplexing unit 12 as bit extension information 1003.
  • the image encoder 10 encodes the input bit-extended input image signal 1009, and outputs it to the multiplexing unit 12 as image encoded data 11 (S15).
  • the multiplexing unit 12 multiplexes the encoded image data 11 and the bit extension information 1003 (S16), and sends them to the transmission system or storage system (not shown) as the encoded data 117 (S17).
  • FIG. 3 shows an example of the syntax structure used in the present embodiment.
  • the high-level syntax (401) is filled with syntax information of an upper layer higher than a slice.
  • the slice level syntax (402) information required for each slice is specified, and in the macroblock level syntax (403), the quantization parameter change value and mode information required for each macroblock are specified. Is clearly stated.
  • Each syntax includes a more detailed syntax.
  • the high level syntax (401) is composed of sequences such as sequence parameter set syntax (404) and picture parameter set syntax (405), and picture level syntax power.
  • slice level syntax (402) slice header syntax (406), slice It consists of data syntax (407) and so on.
  • macro block level syntax (403) is composed of a macro block header syntax (408), a macro block data syntax (409), and the like.
  • syntax described above is an indispensable component at the time of decoding, and if the syntax information is missing, data cannot be correctly restored at the time of decoding.
  • sub-subscript syntax (410) as auxiliary syntax for multiplexing information that is not necessarily required at the time of decoding.
  • Supplemental syntax is prepared to send information indicating instructions for processing that can be executed independently on the decoding side.
  • ex_seq_bit_extention_flag shown in the sequence parameter set syntax of Fig. 4 is a flag indicating whether or not to perform bit extension.
  • the flag power is STRUE, whether or not to perform bit extension is determined in sequence units. It is possible to switch. If the flag is FALSE, no bit expansion is performed in the sequence.
  • ex_seq_bit_extention_flag is TRUE, ex_seq_shift_bits indicating how many more bits to extend is transmitted. For example, ON / OFF of the switch E0 in the pixel bit length extender 1001 shown in FIG. 2 is determined by TRUE / FALSE of the flag.
  • the sequence parameter set syntax also includes an ex-bit-transform-type that indicates what kind of transformation has been performed; ex— bit— transform— type ⁇ , f column; J number A value BIT_EXT_TRANS indicating the simple bit extension conversion indicated by equation (1) and GAMMA_TRANS indicating that the ⁇ conversion indicated by equation (1 1) has been performed.
  • DR_TRANS, etc. indicating that the dynamic range conversion indicated by Equation (1_2) has been performed is stored.
  • ex_bit_transform_type is GAMMA_TRANS
  • gamma_value indicating what kind of gamma value is used for conversion is transmitted.
  • ex_bit_transform_type is DR_TRANS
  • the max_value and min_value indicating the maximum and minimum values of the pixels of the input image signal are also used.
  • the data multiplexed in the supplemental syntax (410) It is possible to use.
  • Figure 5 shows an example of transmitting the bit accuracy of the output image signal on the decoding side using supplemental syntax.
  • the ex_se bit_extention_flag shown in the supplemental syntax is a flag indicating whether or not the bit accuracy of the output image signal is to be changed. When the flag is TRUE, it indicates that the bit accuracy of the output image signal is to be changed. When the flag is FALSE, the bit precision of the output image signal is not changed. When the flag power is STRUE, bit_d mark th_of_decoded_image is further transmitted.
  • the bit_d mark th_of_decoded_image is a value indicating the bit accuracy of the output image signal.
  • bit_depth_of_decoded_image is not necessarily used. It is also possible to output the decoded bit accuracy without the need to output the decoded image.
  • ex_color_transform_flag indicated in the supplemental syntax is a flag indicating whether or not to transform the color space of the output image signal.
  • the flag When the flag is TRUE, the color space of each component of the output image signal is changed. It shows that. On the other hand, when the flag is FALSE, it indicates that the color space of each component of the output image signal is not changed. If the flag is TRUE, color_space_of_decoded_image is also sent.
  • color_space_of_decoded_image is a value indicating the color space of the output image signal, and has a capability of decoding by performing bit expansion or reduction on the decoding side described later.
  • each component of the output image signal is converted to the color space specified by the color_space_of_decoded_image value.
  • bit_d mark th_of_decoded_image It is possible to output the decoded image with the bit accuracy indicated by bit_depth_of_decoded_image by enlarging or reducing the bit accuracy of the decoded image.
  • the image decoding apparatus includes a demultiplexing unit 21 to which encoded data is input, an image decoding unit 20 connected to the output of the demultiplexing unit 21, and an image decoding unit.
  • Bit length conversion controller (bit precision conversion controller) 2002 bit precision conversion controller
  • the encoded data 117 encoded by the image encoding device of FIG. 1A is input to the demultiplexer 21 (S21).
  • the encoded data 117 is separated into the bit extension information 2004 and the image encoded data 11 (S22).
  • the bit extension information 2004 is input to the bit length conversion controller 2002, and the image encoded data 11 is input to the image decoding device 20.
  • the encoded image data 11 is decoded by a procedure reverse to the encoding performed by the image encoder 10 to be a bit extended decoded image signal 203 (S23).
  • the bit extended decoded image signal 203 is input to the pixel bit length reducer 2001.
  • bit extension information 2004 is input to bit length conversion controller 2002
  • bit length conversion controller 2002 outputs bit conversion information 2003 indicating how many bits the decoded image is extended and information necessary for the conversion. To do.
  • the input N-bit precision In the image signal 100 whether or not to reduce the bit length of each pixel is selected by the switch E2 based on the bit conversion information 2003 (S24).
  • Switch E2 is connected to the ON side when performing reduction, and to the OFF side when not expanding.
  • the image signal is input to the pixel bit length reduction converter E02, and pixel bit length conversion described later is performed (S25).
  • switch E2 is OFF, the image signal is output as it is without pixel bit length conversion. For example, if the ex_seq_bit_extention_flag force is TRUE and the bit length of each pixel is extended, the switch is set to the ON side, and if it is FALSE, the switch is set to the OFF side.
  • bit conversion information 2003 is M bit extended by ex_seq_shift_bits, for example, and BIT_EXT_TRANS indicating that the transformation represented by Equation (1) is performed by ex_bit_transform_type
  • the pixel bit length The bit extended decoded image signal 203 input to the reducer 2001 reduces the value of each pixel by M bits. For example, when the value of a certain pixel in the bit extended decoded image signal 203 is K, the pixel value K ′ after being reduced by M bits is calculated as follows.
  • the reduction conversion method here is, for example, that the offset is set to an arbitrary value from 0 to (: ⁇ ⁇ ) Any conversion method may be used as long as the bit length is reduced.
  • Bit conversion information 2003 is expanded by M bits by ex_seq_shift_bits, for example, and GAMMA_TRANS indicating that gamma transformation represented by, for example, Equation (11) has been performed by ex_bit_transform_type.
  • the bit extended decoded image signal 203 input to the pixel bit length reducer 2001 reduces the value of each pixel by ⁇ bits. For example, if the value of a certain pixel in the bit extended decoded image signal 203 is ⁇ , the pixel value K ′ after ⁇ bit reduction is calculated as follows.
  • ⁇ , ⁇ [[ ⁇ / ((1 ⁇ ⁇ ) _ 1) ⁇ 1 / ⁇ X ((l «N)-l)] + offset]
  • Bit conversion information 2003 is extended by M bits by ex_seq_shift_bits, for example, and dex_bit_transform_type indicates DR_TRANS indicating that dynamic range conversion indicated by, for example, equation (1-2) has been performed, min.value, If maxvalue indicates that the minimum and maximum values of the pixels of the input image are Max and Min, respectively, the bit extended decoded image signal 203 input to the pixel bit length reducer 2001 is Reduce the pixel value by M bits. For example, when the value of a certain pixel in the bit extended decoded image signal 203 is K, the pixel value K ′ after being reduced by M bits is calculated as follows.
  • K, INT [[ ⁇ (K- (Min «M)) / ((Max -Min) « M) ⁇ y X ((1 «N) _ 1)] + offset]
  • INT indicates processing for rounding to an integer.
  • the offset in the formulas (2_1) and (2_2) indicates the offset when rounding, and is an arbitrary value between 0 and 1.
  • Bit conversion information 2003 is expanded by M bits by ex_seq_shift_bits, for example, and the color space of the decoded image signal is different from the color space specified by color_space_of_decoded_image specified in the supplemental syntax shown in FIG. 5, for example. If it is a color space, after converting each pixel of each component of the decoded image into the color space specified by color_space_of_decoded_image, the bit length is reduced by M bits.
  • RGB force YCoCg and encoded if the input image is converted to RGB force YCoCg and encoded, and RGB is specified in color_space_of_decode d_image, for each pixel Y, Co, Cg of each component of the decoded image, Bit reduction and color space conversion are performed according to the following formula (2-3), and each pixel of each component is converted to R, G, and B, respectively.
  • R ' Cliply (B' + (Co- (l «(N + M-1))))
  • Cliply (A) outputs A as it is when A satisfies 0 ⁇ A (K (N + M)), 0 when A is 0,
  • a ⁇ (1 ⁇ ( N + M)) represents the process of outputting (1 (N + M)) — 1.
  • the reduction conversion method here is, for example, to set offset to any value from 0 to (1 ⁇ M) Any conversion method may be used as long as it is a method of reducing bits.
  • the color S of the decoded image signal is specified in supplemental syntax.
  • the force S is an example specified in collor_space_of_decoded_image. If there is no such specification, the high-level syntax 401 is supplemented. Even if the color space of the decoded image signal is specified as in the example shown in the mental syntax, if color conversion processing is performed in the process of outputting the decoded image, the pixel conversion is performed after the color conversion processing is performed. You can reduce the value to a bit length smaller by M bits.
  • the color conversion shown here is only an example, and any process that performs color conversion can be performed.
  • the decoded image 202 having the same N-bit accuracy as the input image input to the image encoding device is output from the pixel bit length reducer 2001 (S25).
  • image encoding and image decoding can be performed with a bit accuracy that is M bits larger than the bit accuracy of the input image, and encoding efficiency can be improved.
  • this image encoding device has a pixel bit length extender (pixel bit precision converter) 1001, a bit length conversion controller (bit precision conversion controller) 1002, a subtractor 101, and an orthogonal transform. 104, quantizer 106, inverse quantizer 109, inverse orthogonal transformer 110, adder 111, norep finalizer 113, frame memory 114, predictive image creator 115, and ent-py code encoder 108 ing.
  • pixel bit length extender pixel bit precision converter
  • bit length conversion controller bit precision conversion controller
  • the output of the pixel bit length extender 1001 that receives the input image signal is connected to the entropy encoder 108 via the subtractor 101, the orthogonal transformer 104, and the quantizer 106.
  • the output of the quantizer 106 is an inverse quantizer 109, an inverse orthogonal transformer 1 10, the adder 111, the loop filter 113, and the frame memory 114 are connected to the predicted image creator 115.
  • the predicted image signal from the predicted image generator 115 is input to the subtractor 101 and the calorie calculator 111.
  • the motion vector / prediction mode information from the prediction image generator 115 is input to the entropy encoder 108.
  • the bit length conversion controller 1002 inputs the bit conversion information to the pixel bit length extender 1001 and inputs the bit extension information to the entropy code encoder 108.
  • the pixel bit length expander 1001 When a moving image signal, for example, in units of frames is input as an input image signal 100 to the image encoding device (S31), the pixel bit length expander 1001 outputs each pixel of the input N-bit precision image signal 100. Processing is performed to expand the value to bit precision (N + M) that is M bits larger than N bits (S32). For example, if the value of a pixel in the input image signal is K, the pixel value K ′ after M-bit expansion can be expressed by, for example, Equation (1), Equation (1 _ 1), (1-2), (1 It is calculated by _3).
  • Conversion information such as the number of bits M to be extended is guided to the entropy encoder 108 by the bit length conversion controller 1002 as the bit extension information 1003 (S33).
  • the bit extension information 1003 S33
  • the configuration of the pixel bit length expander 1 001 the configuration of FIG. 2 may be used, and processing for controlling whether to extend the bit length of each pixel with a flag may be performed as in the first embodiment. .
  • a difference from the predicted image signal 102 created with (N + M) bit accuracy is taken, and a prediction error signal 103 with (N + M) bit accuracy is generated (S34).
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by the orthogonal transformer 104 (S35).
  • orthogonal transform coefficient information 105 for example, DCT coefficient information
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is input to the entropy code encoder 108 and the inverse quantizer 109.
  • Quantization Orthogonal transform coefficient information 107 is subjected to a process reverse to the process of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110, that is, locally decoded, and is predicted error signal. Is converted into a signal similar to the above, that is, a local decoding error signal.
  • This local decoding error signal is added by the adder 111 to the predicted image signal 102 with (N + M) bit accuracy.
  • a locally decoded image signal 112 with (N + M) bit accuracy is generated. That is, the quantized orthogonal transform coefficient information 107 is locally decoded (S36).
  • the locally decoded image signal 112 is stored in the frame memory 114 after being filtered by the loop filter 113 as necessary.
  • the prediction image generator 115 includes the input image signal 100 in which the bit length is extended to (N + M) bit accuracy and the (N + M) bit accuracy local decoded image signal 1 12 stored in the frame memory 114. Then, a prediction image signal with (N + M) bit accuracy based on certain prediction mode information is generated. At this time, the locally decoded image signal 112 with (N + M) bit accuracy from the adder 111 is temporarily stored in the frame memory 114. Matching between (N + M) bit precision input image signal 100 and (N + M) bit precision local decoded image signal 112 stored in frame memory 114 for each block in the frame (eg, block matching) Thus, a motion vector is detected (S37).
  • a predicted image signal of (N + M) bit accuracy is created using the local image signal of (N + M) bit accuracy compensated by this motion vector (S38).
  • the predicted image signal 102 with (N + M) bit accuracy generated here is output from the predicted image generator 115 together with the motion vector information / prediction mode information 116 of the selected predicted image signal.
  • the quantized orthogonal transform coefficient information 107, the motion vector information / prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S39), and the code signal generated thereby is encoded.
  • Data 117 is sent to a transmission system or storage system (not shown).
  • This image decoding apparatus includes an entropy decoder 200, an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, a loop filter 113, a frame memory 114, a prediction image creator 115, a pixel bit length reducer ( Pixel bit precision converter (2001) and bit length conversion controller (bit precision conversion controller) 2002.
  • the coefficient information output of the entropy decoder 200 receiving the encoded data is an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, a loop field
  • the pixel bit length reducer 2001 is connected via the filter 113.
  • the output of the loop filter 113 is connected to one input of the prediction image generator 115 via the frame memory 114.
  • the other input of the prediction image generator 115 receives motion vector / prediction mode information from the prediction image generator 115.
  • the output of the predicted image creator 115 is connected to the adder 111.
  • the bit extension information output of the entropy decoder 200 is connected to the field bit length reducer 2001 via the bit length conversion controller 2002.
  • the operation of the image decoding apparatus will be described with reference to FIG. 10B.
  • the entropy decoder 200 converts the code key data 117 into the entropy code key.
  • the data is decoded according to the reverse procedure (S42), and quantized orthogonal transform coefficient information 107, motion vector Z prediction mode information 116, and bit extension information 2004 are obtained.
  • Quantized orthogonal transform coefficient information 107 is sequentially processed by the inverse quantizer 109 and the inverse orthogonal transformer 110 in the reverse order of the processing of the quantizer 106 and the orthogonal transformer 104 (N + M) bits. It is converted into an accuracy residual signal 201 (S43).
  • the motion vector / prediction mode information 116 is input to the prediction image generator 115 and is based on the motion vector / prediction mode information 116 from the (N + M) bit-accurate bit extended decoded image signal 203 stored in the frame memory 114 ( The predicted image signal 102 with N + M) bit accuracy is generated (S44).
  • the (N + M) bit precision residual signal 201 and the (N + M) bit precision prediction image signal 102 are added by an adder 111 to generate a decoded image signal (S45).
  • the decoded image signal is subjected to filter processing as necessary by the loop filter 113, output as a bit extended decoded image signal 203 with (N + M) bit precision, and stored in the frame memory 114.
  • Entropy decoder 200 When the output bit extension information 2004 is input to the bit length conversion controller 2002, bit conversion information 2003 indicating how many bits the decoded image has been extended from the bit length conversion controller 2002 2003 Is output.
  • the bit extended decoded image signal 203 input to the pixel bit length reducer 2001 is based on the bit conversion information 2003, for example, Equation (2), Equation (2-1), (2-2), (2 — The same processing as in the first embodiment is performed based on 3), and the value of each pixel is reduced by M bits (S46).
  • the pixel bit length reducer 2001 has the configuration shown in FIG. 8 and each image as in the first embodiment. Control may be performed to switch with a flag whether or not to reduce the prime bit length.
  • a decoded image signal 202 having the same N-bit accuracy as the input image input to the image encoding device is output from the pixel bit length reducer 2001 (S47).
  • the predicted image signal is generated with an accuracy that is M bits larger than the input image signal, it is possible to improve the accuracy of motion compensation filters, loop filters, intra prediction, and the like. As a result, the prediction error signal can be reduced, so that the coding efficiency can be improved.
  • FIG. 11A shows the configuration of an image encoding device for video encoding according to the third embodiment of the present invention.
  • This image encoding device has substantially the same configuration as the configuration example shown in the second embodiment (FIG. 9), but includes a pixel bit length converter 1005 in the previous stage of the frame memory 114 and the subsequent stage of the frame memory 114. Is provided with a pixel bit length converter (pixel bit precision converter) 1006.
  • a moving image signal is input to the image encoding apparatus in units of frames as the image signal 100 (S51).
  • the pixel bit length extender (pixel bit precision converter) 1001 performs the same processing as that of the second embodiment, so that the value of each pixel of the input N-bit precision image signal 100 is N bits.
  • the extended bit number M is guided to the entropy encoder 108 as bit extension information 1003 by the bit length conversion controller 1002.
  • the pixel bit length expander 1001 may be configured as shown in FIG. 2, and may perform a process of controlling the pixel bit length by switching with a flag whether to extend the bit length of each pixel, as in the first embodiment.
  • a difference from the predicted image signal 102 created with (N + M) bit accuracy is taken, and a prediction error signal 103 with (N + M) bit accuracy is generated (S53).
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by an orthogonal transformer 104.
  • orthogonal transform coefficient information 105 for example, DCT coefficient information
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106. That is, the prediction error signal 103 Are orthogonally transformed and quantized (S54).
  • the quantized orthogonal transform coefficient information 107 is guided to an entropy encoder 108 and an inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is converted into a local decoded error signal by the inverse quantizer 109 and the inverse orthogonal transformer 110, which are sequentially subjected to processing reverse to that of the quantizer 106 and orthogonal transformer 104. Then, the adder 111 adds the predicted image signal 102 with (N + M) bit accuracy. As a result, a locally decoded image signal 112 with (N + M) bit accuracy is generated. That is, the quantized orthogonal transform coefficient information 107 is locally encoded (S55).
  • the local decoded image signal 112 with (N + M) bit accuracy is filtered by the loop filter 113 as necessary, and then input to the pixel bit length converter 1005, where the value of each pixel is set to L bits. Reduce conversion to a smaller value, or enlarge and convert each pixel value to a value larger by L bits (S56). For example, when the value of a certain pixel in the locally decoded image signal 112 with (N + M) bit accuracy is K, the pixel value K ′ after being reduced by L bits is calculated as follows.
  • the number of bits L to be reduced is an integer satisfying 0 ⁇ L ⁇ M.
  • the bit length of each pixel of the locally decoded image signal 112 is (N + M ⁇ L) bits.
  • the reduction conversion method here may be any conversion method as long as the bit length is reduced, for example, by setting offset to an arbitrary value from 0 to (: K ⁇ L).
  • FIG. 11C shows a pixel value histogram (left side) and a histogram after bit precision conversion (right side) of the encoded unit image.
  • the local decoded image 112 extended to 12 bits can be changed to an arbitrary unit such as a macroblock unit.
  • the dynamic range D (mb_max-mb_min) is calculated from the maximum pixel value mbjnax and the minimum value mbjnin for each encoding unit.
  • the block is converted to 8 bits and output to the frame memory 114.
  • the representative value determined using the maximum value mbjnax and / or the minimum value mbjnin of the pixel value of this block is also output to the frame memory 114.
  • the dynamic range D is a value that cannot be expressed in 8 bits
  • the block is divided by shifting 2 bits to the right. Is converted to 8 bits.
  • the pixel bit length converter 1005 has a configuration as shown in FIG. 1 1D, for example.
  • the shift amount / representative value calculation unit 10052 calculates the shift amount Q_bit according to the dynamic range D using, for example, the (3-la) equation.
  • mb_min is set as a representative value.
  • the pixel bit precision converter 10053 when the value of a certain pixel of the bit extended decoded image signal is K, the pixel value K ′ after being reduced by L bits (L> 0) is calculated as follows, for example.
  • the converted local decoded image signal 112 is output to the frame memory 114 with the representative value mbjnin and the shift amount Q_bit (representative value / shift amount 10054).
  • Offset (l «(Q_bit-D)
  • K ' (K-mb_min + Oifset) »Q_bit... (3 _ lb)
  • the frame memory 1 14 is converted to the memory 1 14a for storing the reference image as shown in FIG. 1 1F, and how the bit precision is converted for each code unit (macroblock unit) of each reference image.
  • the sub memory 114b holds the representative value mbjnin and the shift amount Q_bit.
  • Equation (2) is used when a decoded image signal is obtained by converting a bit extended decoded image signal obtained with N + M bit accuracy to N bit accuracy on the decoding side.
  • 3 The (N + M- L) bit-accurate local decoded image signal converted using equation (-1) is stored in the frame memory, and the bit accuracy is N + M from the frame memory by reversing the equation (3-1).
  • the local decoded image signal expanded to bits is read out, the local decoded image signal before conversion to N + ML bits is converted directly using equation (2). It is possible that a different value is calculated.
  • the conversion formula taking this into consideration is the following formula (3_2) _ (3-6).
  • the dynamic range calculation unit 10051 for each arbitrary encoding unit such as a macroblock unit, the maximum pixel value mbjnax, the maximum / J, and the value mbjnin in the local decoded image signal 112 are obtained,
  • the dynamic range D (mb_max-mb_min) is obtained.
  • Equation (3_2) the offset value Offset used when performing the shift operation with the temporary bit numbers Q_bit and Q_bit to be reduced in accordance with the dynamic range D is expressed by Equation (3_2). Calculate using.
  • Offset (1 (Q_bit-1)... (3 _4)
  • Q_bit is 0 or L
  • Q_bit and Offset in (3-2) are used as they are.
  • the pixel bit precision converter 10053 when the value of a certain pixel of the bit extended decoded image signal is K, the pixel value K ′ after being reduced by L bits (L> 0) is, for example,
  • the locally decoded image signal 112 calculated and converted as described above is output as a representative value mbjnin and a shift amount Q_bit (representative value / shift amount 10054) to the frame memory. [0073].
  • Q_bit is 0 or L
  • K ' (K-(min_mb «L) + Offset)» Q— bit-(3 -5)
  • the frame memory 114 stores each code of each frame. It has a sub memory for storing information indicating how the bit precision is converted for each conversion unit, and holds, for example, a representative value mbjnin and a shift amount Q_bit.
  • each pixel value is set to L using the equations (3_1) and (3_2) to (3_6) in consideration of the dynamic range of each pixel for each encoding unit such as a macroblock.
  • the conversion is reduced to a bit-small value, the rounding error caused by the shift operation at the time of reduction can be suppressed as compared with the case where the conversion is simply reduced to a small value of L bits as shown in Equation (3). It is possible to store the signal in the frame memory with higher accuracy.
  • the force S with the representative value as the minimum pixel value mbjnin may be a value determined by the maximum value mb_max and the minimum value mbjnin of other pixel values. ,.
  • the number L of bits to be expanded is an integer satisfying 0 (one L).
  • the bit length of each pixel of the locally decoded image signal 112 is (N + M ⁇ L) bits.
  • Figure 12 shows a configuration example of the pixel bit length converter 1005.
  • the input N-bit precision image signal 100 is selected by the switch E3 based on the bit length extension information 1003 as to whether or not to extend the bit length of each pixel.
  • Switch E3 is connected to the “N” side when expanding, and to the OFF side when not expanding.
  • the image signal input to the pixel bit length converter 1005 is input to the pixel bit length expansion / reduction converter E03, and is converted to the pixel bit length.
  • the image signal is output as is without undergoing pixel bit length conversion.
  • the locally decoded image signal 112 with the bit length reduced or expanded is stored in the frame memory 114 (S57).
  • frame memory 114 N + M—L
  • the bit decoded local decoded image signal 112 is input to the pixel bit length converter 1006 before being input to the prediction image generator 115, and when L> 0, the bit length of each pixel Is extended and converted to a bit precision larger than L bits (S58).
  • the pixel value K ′ after L-bit expansion is calculated as follows, for example.
  • the shift amount Z representative value reading unit 10061 reads out the representative value mbjni n and the shift amount Q_bit (representative value / shift amount 10054) of the coding unit from the sub memory 114b in the frame memory 114, and outputs the pixel bit.
  • the accuracy conversion unit 10062 for example, the pixel value K ′ after the bit accuracy is extended by L bits using the following formula is calculated.
  • K ' (K «Q_bit) + mb.min ⁇ ' ⁇ (5— 1)
  • the shift amount / representative value reading unit 10061 stores in the frame memory 114.
  • the mbjnin and Q_bit of the coding unit are read from the sub memory, and the pixel bit accuracy conversion unit 10062 calculates the pixel value K ′ after extending the bit accuracy by L bits using, for example, the following equation.
  • K ' (K «Q_bit) + (mbjninoku L)
  • K, (K «Q_bit) + (mb_min« L)-(l «(Q_bit-1))
  • the reduction conversion method here may be any conversion method as long as the bit length is reduced, for example, by setting the offset to an arbitrary value from 0 to (: 1 (_L)).
  • the pixel bit length converter 1006 may have the configuration shown in FIG. 12 similar to that of the pixel bit length converter 1005, and may perform control to switch processing of whether or not to convert the bit length of each pixel with a flag. By performing such conversion, the bit accuracy of the locally decoded image signal 112 output to the predicted image generator 115 becomes (N + M) bit accuracy.
  • the bit length L reduced / expanded before and after the frame memory 114 is an integer satisfying L ⁇ M, and the number of bits reduced / expanded before and after the frame memory 114 only needs to be equal.
  • the prediction image creator 115 is an input image signal whose bit length is extended to (N + M) bit precision.
  • a prediction image signal with (N + M) bit accuracy based on certain prediction mode information is generated from the local decoded image signal 112 with 100 and (N + M) bit accuracy.
  • a motion vector is detected (for example, block matching) (S59).
  • a predicted image signal with (N + M) bit accuracy is created (S60).
  • the predicted image signal 102 with (N + M) bit accuracy generated here is output from the predicted image generator 115 together with the motion vector information / prediction mode information 116 of the selected predicted image signal.
  • quantized orthogonal transform coefficient information 107 quantized orthogonal transform coefficient information 107
  • motion vector information The / prediction mode information 116 and the bit extension information 1003 are entropy encoded (S61), and the generated code data 117 is sent to a transmission system or storage system (not shown).
  • the number of bits to be expanded is included in the sequence parameter set syntax (404), the picture one parameter set syntax (405), the slice level syntax (402), and the macro block level syntax (403) for transmission. It is possible. Each syntax is described below.
  • ex_seq_bit_extention_flag shown in the sequence parameter set syntax of Fig. 13 is a flag indicating whether or not to perform bit extension. When the flag is TRUE, whether or not to perform bit extension is switched in sequence units. It is possible. On the other hand, if the flag is SFALSE, no bit expansion is performed in the sequence.
  • ex_seq_bit_ext When ention_flag is TRUE, ex_seq_shift_bits indicating how many more bits to extend may be sent.
  • ex_framemem_bitdepth indicating the bit precision when stored in the frame memory 114 may be transmitted.
  • N + M-L force x_framemem_bitdepth is stored and transmitted.
  • the number of bits to be extended can be further included in the picture parameter set syntax (405), slice level syntax (402), and macroblock level syntax (403) for transmission.
  • ex_pi bit_extention_flag shown in the picture parameter set syntax of Fig. 14 is a flag indicating whether or not to change bit extension for each picture.
  • this flag is TRUE, it is possible to switch whether to perform bit expansion on a picture-by-picture basis.
  • the flag is FALSE, it is not possible to change whether or not to perform bit expansion for each picture.
  • ex_pic_bit_extention_flag is TRUE, ex_pic_shift_bits indicating how many more bits to extend is transmitted.
  • ex_seq_shift_bits can be given priority as the number of bits to be extended, and ex_seq_shift_bits has priority as the number of bits to be extended. You can use ex_seq_shift_bits + ex_pic _shift_bits as the number of bits to extend. It is preferable to decide in advance which will be given priority.
  • ex_bit_extention_in_slice_flag and ex_bit_extention_in_mb_flag may be present. Each of these flags indicates whether there is a flag for changing whether or not to perform bit extension at the slice level and the macroblock level.
  • ex_slice_shift_bits is transmitted, and it is possible to switch and transmit the number of bits to be expanded in units of slices.
  • S may be given priority as the number of bits to be extended, or ex_slice_shift_bits is given priority as the number of bits to be extended. Or you can give priority to the number of bits to extend S + ex_slice_shift_bits. It is preferable to decide in advance which is to be prioritized.
  • ex_bit_extention_in_slice_flag is FALSE, ex_slice_shift_bits is not transmitted.
  • ex_bit_extention_in_mb_flag when ex_bit_extention_in_mb_flag is TRUE, ex_mb_shift_bits is transmitted, and it is possible to switch and transmit the number of bits to be expanded in macroblock units.
  • S may be given priority as the number of bits to be expanded. You may give priority to ex_mb_shift_bits as the number of bits to extend, or you may give priority to S + ex_mb_shift_bits as the number of bits to extend. It is preferable to decide in advance which should be given priority.
  • ex_bit_extention_in_mb_flag when ex_bit_extention_in_mb_flag is FALSE, ex_slice_shift.bits is not transmitted.
  • This image decoding apparatus replaces the pixel bit length reducer 2001 after the force adder 111 (and the loop filter 113), which has almost the same configuration as the configuration example shown in the second embodiment (FIG. 10A).
  • a difference is that a pixel bit length converter 2008 is connected to the subsequent stage of the memory 114.
  • the operation of the image decoding apparatus will be described with reference to the flowchart in FIG. 17B.
  • the entropy decoder 200 converts the encoded data 117 to the reverse of entropy encoding. Decoded by the procedure, quantized orthogonal transform coefficient information 107, motion vector / prediction mode information 116, and bit extension information 2004 are obtained (S72).
  • Quantized orthogonal transform coefficient information 107 is subjected to processing reverse to the processing of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110 in order (N + M) bits. It is converted into an accuracy residual signal 201 (S73) (S74).
  • bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002, the number of bits M indicating how many bits the decoded image has been extended, and the frame memory Bit conversion information 2003 indicating the number of bits L to be reduced when stored is output from the bit length conversion controller 2002.
  • the pixel bit length converter 2008 uses, for example, L based on the bit conversion information 2003 on the decoded image signal 202 with (N + M ⁇ L) bit precision stored in the frame memory 114 in the procedure described later. If> 0, the pixel bit length is extended by L bits by performing processing equivalent to Equation (5) (5-1) (5-2), etc. (S75) If L ⁇ 0, the pixel bit length is reduced by (-L) bits by performing the same processing as in Equation (6). Conversion processing is performed, and the bit extended reference image signal 204 with (N + M) bit precision is output (S75). Note that when the same processing as (5-1) and (5-2) is performed, the configuration of the pixel bit length converter 2008 may be the same as that in FIG. 11D.
  • the frame memory 114 may have the same configuration as that shown in FIG. 11F, for example.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, and based on the motion vector Z prediction mode information 11 6 from the bit extended reference image signal 204 with (N + M) bit accuracy (N + M).
  • the predicted image signal 102 with bit accuracy is generated (S77).
  • the adder 111 adds the (N + M) bit precision residual signal 201 and the (N + M) bit precision predicted image signal 102.
  • the added signal is subjected to filter processing as necessary by the loop filter 113, and a bit extended decoded image signal 203 with (N + M) bit precision is output (S78).
  • the bit extended decoded image signal 203 is input to the pixel bit length converter 2007, and based on the bit conversion information 2003, the image decoding of the first embodiment such as Equation (2) is performed on the value of each pixel.
  • the pixel bit length is reduced and converted to a smaller value of M bits (S79), and the same as the input image input to the image encoding device N
  • a bit-accurate decoded image 202 is obtained (S80).
  • the pixel bit length converter 2007 may be configured as shown in FIG. 12, and may perform control to switch the force with a flag to reduce the bit length of each pixel.
  • the decoded image signal 202 with N-bit accuracy is stored in the frame memory 114 as it is.
  • the expression (3) (3-1) (3-2) to (3) is applied to the bit extended decoded image signal 203 with (N + M) bit precision.
  • a decoded image with (N + M ⁇ L) -bit precision with a bit length reduced by L bits is created and stored in the frame memory 114.
  • the bit length is reduced by (-L) bits by performing the same processing as Equation (4) for each pixel (N + M -L).
  • the decoded image is created and stored in the frame memory 114. Note that when the same processing as (3-1) and (3-2) to (3-6) is performed, the configuration of the pixel bit length converter 2007 may be the same as that in FIG. 11D.
  • the predicted image signal has an accuracy that is M bits larger than the input image signal. Therefore, it is possible to improve the accuracy of motion compensation filters, loop filters, intra prediction, etc., and as a result, the prediction error signal can be reduced, so that the coding efficiency can be improved.
  • the reference image signal stored in the frame memory is converted to a bit smaller than the input image signal or the predicted image signal whose bit length is extended. It can be stored long, and the amount of frame memory used can be reduced while maintaining the effect of improving accuracy, such as motion compensation filters, loop filters, and intra prediction.
  • this image encoding device does not include a pixel bit length expander that expands the pixel bit length of the input image, and the frame memory 114 (and A pixel bit length extender (pixel bit precision extension converter) 1001 is provided before the loop filter 113), and a pixel bit length reducer (pixel bit precision reduction converter) 1004 is provided after the prediction image generator 115. Is different.
  • a moving image signal with an accuracy of each pixel for example, an N-bit accuracy is input as an input image signal 100 to the image encoding apparatus (S81).
  • the subtracter 101 calculates the difference between the input image signal 100 and the predicted image signal 102 with N-bit accuracy, and generates a prediction error signal 103 with N-bit accuracy (S82).
  • a method of generating the predicted image signal 102 with N-bit accuracy will be described later.
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by an orthogonal transformer 104, and the orthogonal transformer 104 performs orthogonal transform coefficient information 105 (for example, DCT coefficient information). ) Is obtained (S83).
  • orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entry port code encoder 108 and the inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is converted into a local decoded error signal by the inverse quantizer 109 and the inverse orthogonal transformer 110, which are sequentially subjected to the reverse processing of the quantizer 106 and the orthogonal transformer 104. Is done.
  • This local decoding error signal is added to the predicted image signal 102 with N-bit accuracy by the adder 111, thereby generating a local decoded image signal 112 with N-bit accuracy (S84).
  • the locally decoded image signal 112 is input to the pixel bit length expander 1001 after being filtered by the loop filter 113 as necessary, and the value of each pixel is extended and converted to a value larger by M bits (S85). ). For example, in the case of the value strength of a certain pixel of the bit extended decoded image signal, the pixel value K ′ after being reduced by M bits is calculated in the same manner as the equation (1) of the first embodiment.
  • the locally decoded image signal 112 whose bit precision is expanded to (N + M) bits is stored in the frame memory 114 (S86).
  • the locally decoded image signal 112 with (N + M) bit accuracy stored in the frame memory 114 is input to the predicted image generator 115.
  • the pixel bit length expander 1001 may be configured as shown in FIG. 2, and may perform a process of controlling the bit length by switching with a flag whether or not to extend the bit length of each pixel, as in the first embodiment.
  • the predicted image generator 115 generates a predicted image signal with (N + M) bit accuracy based on certain prediction mode information from the local decoded image signal 112 with (N + M) bit accuracy.
  • an image signal obtained by extending each pixel of the input image signal 100 to (N + M) bit accuracy for each block in the frame, and a locally decoded image signal 112 expanded to (N + M) bit accuracy Matching is performed to detect a motion vector (S87).
  • an extended prediction image signal 117 with (N + M) bit accuracy is created (S89).
  • the (N + M) bit accuracy extended prediction image signal 117 generated here is output from the prediction image generator 115 together with the motion vector information / prediction mode information 116 of the selected prediction image signal.
  • the extended predicted image signal 117 with (N + M) bit accuracy is input to the pixel bit length reducer 1004, and is converted into an image signal in which the bit length of each pixel is reduced by M bits (S90).
  • This conversion is performed, for example, by the same processing as the formula (2) shown in the first embodiment.
  • the number of bits M to be reduced and the number of bits M to be enlarged by the pixel bit length extender 1001 are the same value, and the bit length conversion controller 1002 obtains the bit extension information 1003.
  • the pixel bit length reducer 1004 is configured as shown in FIG. 8 and, similarly to the first embodiment, performs a process of controlling the bit length by switching whether to extend the bit length of each pixel with a flag. .
  • the quantized orthogonal transform coefficient information 107 the motion vector information / prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S91).
  • Data 117 is sent to a transmission system or storage system (not shown).
  • the encoding method for the number of bits M to be extended is the same as in the first embodiment. Further, in the present embodiment, it is possible to use data multiplexed in the supplemental syntax as in the first embodiment.
  • this image decoding apparatus includes a pixel bit length expander 2005 in the previous stage of the frame memory 114 (and the loop filter 113), so that the predicted image
  • a pixel bit length reducer (pixel bit precision converter) 2006 is provided after the generator 115.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, the motion vector / prediction mode information 116 is converted from the bit extended decoded image signal 203 stored in the frame memory 114 by the procedure described later. Based on (N + M) bit accuracy extended prediction image signal 205 is generated (S105).
  • the pixel bit length reducer 2006 performs the image restoration of the first embodiment such as Expression (2) on the basis of the bit conversion information 2003 for the extended predicted image signal 205 with (N + M) bit accuracy. By performing the same processing as the pixel bit reduction converter in the encoding device, the pixel bit length is reduced by M bits (S106), and the predicted image signal 102 with N-bit accuracy is output.
  • the pixel bit length reducer 2006 may be configured as shown in FIG. 8, and may perform processing for controlling the bit length by switching with a flag whether or not to extend the bit length of each pixel, as in the first embodiment.
  • the N-bit accuracy residual signal 201 and the N-bit accuracy prediction image signal 102 are added by the adder 111 to generate a reduced decoded image signal (S107).
  • the pixel bit length expander 2005 performs image coding according to the first embodiment such as Equation (1) based on the bit conversion information 2003.
  • a process for extending the pixel bit length by M bits is performed by performing a process equivalent to the process performed by the pixel bit length expander in the apparatus (S108).
  • the signal output from the pixel bit length expander 2005 is subjected to filter processing by the loop filter 113 as necessary, and an extended decoded image signal 203 with bit (N + M) bit accuracy is output (S109), and the frame memory 114 Stored in.
  • the pixel bit length expander 2005 may be configured as shown in FIG. 2, and may perform a process of controlling the bit length by switching whether to extend the bit length of each pixel with a flag, as in the first embodiment. Les.
  • bit extended decoded image signal 203 with (N + M) bit accuracy is input to the pixel bit length reducer 2001, and based on the bit conversion information 2003, the value of each pixel is expressed by, for example, Equation (2).
  • a decoded image 202 having the same N-bit accuracy as the input image input to the image encoding apparatus is obtained (S110). ) (Sl ll).
  • the prediction error signal is Signal and residual signal conversion ⁇ Quantization processing can be performed with an accuracy corresponding to the bit accuracy of the input image, while maintaining the effect of improving accuracy such as motion compensation filters, loop filters, and in-screen prediction. It is possible to reduce the bit precision of conversion and quantization and reduce the operation scale.
  • this image encoding device does not include a pixel bit length expander that expands the pixel bit length of the input image, and the predicted image generator 115
  • a pixel bit length extender (pixel bit precision extension converter) 10 01 is provided in the previous stage and a pixel bit length reducer (pixel bit precision reduction converter) 1004 is provided in the subsequent stage of the predictive image creator 115.
  • a moving image signal in which the accuracy of each pixel is, for example, an N-bit accuracy is input as an input image signal 100 to the image encoding device (S121).
  • the subtracter 101 calculates the difference between the input image signal 100 and the predicted image signal 102 with N-bit accuracy, and generates a prediction error signal 103 with N-bit accuracy (S122).
  • a method for generating the predicted image signal 102 with N-bit accuracy will be described later.
  • the generated prediction error signal 103 is subjected to orthogonal transform, for example, discrete cosine transform (DCT) by an orthogonal transformer 104, and the orthogonal transformer 104 obtains orthogonal transform coefficient information 105, for example, DCT coefficient information.
  • orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entropy encoder 108 and the inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is converted into a local decoded error signal by the inverse quantizer 109 and the inverse orthogonal transformer 110, which are sequentially subjected to processing reverse to that of the quantizer 106 and orthogonal transformer 104. Is done.
  • This local decoding error signal is added to the predicted image signal 102 with N-bit accuracy by the adder 111, thereby generating a local decoded image signal 112 with N-bit accuracy (S124).
  • the locally decoded image signal 112 with N-bit accuracy is filtered by the loop filter 113 as necessary, and then stored in the frame memory 114 (S125).
  • Frame memory The locally decoded image signal 112 with N-bit accuracy stored in 114 is input to the pixel bit length expander 1001, and the value of each pixel is extended and converted to a value larger by M bits (S126). For example, in the case of a value value of a certain pixel of the bit extended decoded image signal, the pixel value K ′ after being reduced by M bits is calculated in the same manner as Expression (1) of the first embodiment.
  • the locally decoded image signal 112 with the bit accuracy extended to (N + M) bits is input to the predicted image generator 115.
  • the pixel bit length expander 1001 may be configured as shown in FIG. 2, and may perform a process of controlling the bit length by switching with a flag whether to extend the bit length of each pixel, as in the first embodiment. .
  • the prediction image generator 115 generates a prediction image signal with (N + M) bit accuracy based on certain prediction mode information from the (N + M) bit accuracy local decoded image signal 112.
  • each pixel of the input image signal 100 is expanded to (N + M) bit accuracy for each block in the frame, and the locally decoded image signal 112 expanded to (N + M) bit accuracy.
  • Matching for example, block matching
  • S127 a motion vector is detected
  • an extended prediction image signal 117 with (N + M) bit accuracy is created (S128).
  • the (N + M) bit-accuracy extended prediction image signal 117 generated here is output from the prediction image generator 115 together with the motion vector information / prediction mode information 116 of the selected prediction image signal.
  • the extended predicted image signal 117 is input to the pixel bit length reducer 1004 and converted so that the bit length of each pixel is reduced to M bits (S129). This conversion is performed, for example, by performing processing similar to Equation (2) shown in the image decoder of the first embodiment.
  • the bit number M to be reduced and the bit number M to be enlarged in the pixel bit length extender 1001 are both the same value, and the bit length conversion controller 1002 uses the entropy encoder 108 as the bit extension information 1003. Led to.
  • the pixel bit length reducer 1004 may be configured as shown in FIG. 8, and may perform a process of controlling whether to extend the bit length of each pixel with a flag, as in the first embodiment.
  • the quantized orthogonal transform coefficient information 107, the motion vector information / prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S130), and the code signal generated thereby is encoded.
  • Data 117 is sent to a transmission system or storage system (not shown).
  • the encoding method for the number of bits M to be extended is the same as in the first embodiment. In the present embodiment, it is possible to use data multiplexed in the supplemental syntax as in the first embodiment.
  • this image decoding apparatus does not include a pixel bit reducer in the subsequent stage of the adder 1 11 (and the norep filter 113).
  • the decoded image signal 202 is output from the device 111 (and the norep filter 113), and a predictive image generator 115 is equipped with a pixel bit length extender (pixel bit precision extended converter) 2005 before the predictive image generator 115.
  • the pixel 115 is provided with a pixel bit length reducer (pixel bit precision reduction converter) 2001 in the subsequent stage.
  • Quantized orthogonal transform Coefficient information 107 is converted into an N-bit residual signal 201 by sequentially receiving the inverse processing of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110. (S143).
  • bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002, the bit conversion information 2003 indicating how many bits the decoded image has been extended is converted into the bit length conversion controller 2002. Is output (S144).
  • the pixel bit length expander 2005 performs, for example, a first equation such as Equation (1) on the decoded image signal 202 with N-bit accuracy stored in the frame memory 114 in the procedure described later, based on the bit conversion information 2003.
  • a process equivalent to the process performed by the pixel bit length extender is performed to perform an extension conversion of the pixel bit length to M bits, (N + M) bit accuracy
  • the bit extended reference image signal 204 is output.
  • the pixel bit length extender 2005 may be configured as shown in FIG. 2, and may perform a process of switching whether or not to extend the bit length of each pixel with a flag as in the first embodiment.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, and the above (N + M) An extended prediction image signal 205 with (N + M) bit accuracy based on the motion vector / prediction mode information 116 is generated from the bit extended reference image signal 204 with bit accuracy (S145).
  • the pixel bit length reducer 2001 applies the image decoding apparatus of the first embodiment such as Formula (2) based on the bit conversion information 2003 to the extended prediction image signal 205 with (N + M) bit accuracy.
  • the pixel bit length is converted to M bits by performing processing equivalent to that of the pixel bit reduction converter in FIG. 1, and the N-bit predicted image signal 102 is output (S146).
  • the pixel bit length reducer 2001 may be configured as shown in FIG. 8, and may perform a process of switching whether or not to extend the bit length of each pixel with a flag as in the first embodiment.
  • the N-bit precision residual signal 201 and the N-bit precision prediction image signal 102 are added by an adder 111.
  • the added signal is subjected to filter processing as necessary by the loop filter 113, and an N-bit precision decoded image signal 202 is output (S147) and stored in the frame memory 114.
  • the decoded image signal 202 obtained here has the same N-bit accuracy as the input image input to the image encoding device.
  • the predicted image signal is generated with an accuracy of M bits larger than that of the input image signal. Therefore, it is possible to improve the accuracy of motion compensation filters, loop filters, and intra prediction. it can. Therefore, since the prediction error signal can be reduced as a result, the coding efficiency can be improved.
  • the predicted image creator 115 can be configured as shown in FIG.
  • the intra-frame predictor B101 performs intra-frame prediction from the locally decoded image signal 112 in the area already encoded in the frame in the frame memory 114. Create a predicted image signal based on it.
  • the inter-frame predictor B103 performs motion compensation on the locally decoded image signal 112 in the frame memory 114 based on the motion vector detected by the motion vector detector B102.
  • the adaptive filter information generation unit B 104 generates a predicted image signal 102 based on inter-frame prediction using adaptive filter information generated from the input image signal 101, the locally decoded image signal 112, and the motion vector.
  • the intra-frame predictor B101 has M (M is plural) intra-frame prediction modes, and the inter-frame predictor B103 has N (N is plural) inter-frame prediction modes.
  • a mode determiner B105 is connected to the outputs of the inter-frame predictor B103 and the intra-frame predictor B101.
  • the mode determiner B105 is a prediction image signal based on one prediction mode selected from N inter-frame prediction modes or a prediction image signal based on one prediction mode selected from M intra-frame prediction modes.
  • 102 is output.
  • the motion vector Z prediction mode information / adaptive filter information 116 that is, the motion vector output from the motion vector detector B102 and the prediction mode information indicating the prediction mode selected by the mode determiner and the adaptive filter information 116 are Then, it is sent to the entropy encoder 117 and included in the encoded data 117 and sent to the decoding side.
  • the motion vector and adaptive filter information are output from the motion vector detector B102 only when the inter-frame prediction mode is selected.
  • the switch B201 selects a predictor based on the prediction mode information 116.
  • the intra-frame predictor B202 creates a predicted image signal 102 based on intra-frame prediction from the decoded image signal 203 of the area already encoded in the frame in the frame memory 114.
  • the inter-frame predictor B203 performs motion compensation on the decoded image signal 203 in the frame memory 114 based on the motion vector, and performs prediction based on inter-frame prediction using the adaptive filter information 116. Create image signal 102.
  • Fig. 24 illustrates a configuration example of the inter-frame predictor B103.
  • the inter-frame predictor B103 generates an inter-frame predicted image signal 102 from the motion vector, the locally decoded image signal, and adaptive filter coefficient information.
  • Integer pixel weight Z offset correction unit B301 A process for performing so-called weighted prediction of values is performed. As a specific example, the following formula (7
  • a predicted image signal 102 of integer pixels is created.
  • W is a weight coefficient
  • L is a shift coefficient
  • O is an offset coefficient, which are included in the adaptive filter coefficient information.
  • Formula (8) is an example of the weight Z offset processing when bi-directional prediction is performed.
  • the weighting factor for pixel value X is W
  • the offset factor is O
  • Weighting factor is W, offset factor is ⁇ , L is a shift factor and is included in the adaptive filter coefficient information.
  • luminance correction and color correction can be performed.
  • switch B301 is switched to create a decimal pixel adaptive interpolation image.
  • the bit length of the encoding / decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the weight / offset correction process can be ensured, and the higher weight / Offset correction can be performed.
  • the interpolation of the decimal point pixel position is performed from the integer pixel value using the interpolation filter coefficient in the adaptive filter information. Pixel values are generated, and a predicted image signal 102 is generated.
  • the bit length of the encoding / decoding processing is set longer than the pixel bit length of the input image signal, the calculation accuracy of the interpolation filter processing can be ensured, and a better decimal point can be secured. Pixel values can be obtained.
  • FIG. 25 shows another configuration example of the inter-frame predictor B103.
  • the inter-frame predictor generates an inter-frame prediction image signal 102 from the motion vector, the locally decoded image signal, and adaptive filter coefficient information.
  • the decimal pixel adaptive interpolation image creation unit B401 when the motion vector indicates the decimal point pixel position, the interpolation filter in the adaptive filter information is displayed. Using the filter coefficient, an interpolated pixel value at the decimal point pixel position is generated from the integer pixel value, and a predicted image signal 102 is generated.
  • the bit length of the encoding / decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the interpolation filter process can be ensured and a better decimal pixel value can be obtained. It becomes possible.
  • the weight / offset correction unit B403 performs processing for so-called weighted prediction of the pixel value of the predicted image signal.
  • the predicted image signal 102 is created according to the above formula (7) or formula (8).
  • the bit length of the encoding / decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the weight / offset correction process can be ensured, and the accuracy can be improved. High weight / offset correction can be performed.
  • FIG. 26 shows another configuration example of the inter-frame predictor.
  • This inter-frame predictor generates an inter-frame prediction image signal from the motion vector, the reconstructed image signal, and adaptive filter coefficient information.
  • the switch B501 when the motion beta is indicating the decimal point pixel position, the switch B501 is connected to the decimal pixel adaptive interpolation / offset correction image creation unit B502, and the reproduced image signal is created as the fractional pixel adaptive interpolation / offset correction image creation. Processed by part B502.
  • the switch B501 is connected to the integer pixel weight / offset corrected image creating unit B503, and the reproduced image signal is processed by the integer pixel weight / offset corrected image creating unit B503.
  • the fractional pixel adaptive interpolation / offset correction image creation unit B502 when the motion vector force indicates the fractional pixel position, an integer is calculated using the interpolation filter coefficient and the offset correction coefficient in the adaptive filter information. An interpolated pixel value at the decimal point pixel position is generated from the pixel value, and a predicted image signal is generated.
  • Equation (9) is used when performing the following one-way prediction
  • Equation (10) is used when performing bidirectional prediction.
  • Wi force interpolation filter coefficient for the reproduced image signal Xi, j, ⁇ is the offset coefficient, Y Is the predicted image signal.
  • W (Q) i, j for the reproduced image signal X (Q) i, j is the interpolation filter coefficient
  • O (0) is the offset coefficient
  • 0 (1) is the offset coefficient
  • Y is the predicted image signal.
  • the integer pixel weight / offset correction unit B503 performs processing for performing so-called weighted prediction of the pixel value of the predicted image signal.
  • a predicted image signal is created according to the above formula (7) or formula (8).
  • the offset correction coefficient at this time a coefficient with an accuracy equal to or greater than the input pixel bit length is used.
  • the loop filter 113 can be configured as shown in FIG.
  • FIG. 27 shows the configuration of the loop filter 113 on the encoder side.
  • the filter coefficient determination unit C101 receives the input image signal 101 and the local decoded image signal 112 as input signals, and when the local decoded image signal 112 is subjected to filter processing, for example, the least square error with the input image signal 101 is the largest.
  • a filter coefficient that is small is calculated, and the calculated filter coefficient is output to the filter processing unit C102, and also output to the entropy encoding unit 108 as filter coefficient information C103.
  • the method for determining the filter coefficient here is not limited to this example. For example, a plurality of filters such as a deblocking filter and a deringing filter are prepared in advance and are switched adaptively.
  • Select the selected filter It is possible to apply various modes that may be output as filter coefficient information C103 or may be subjected to processing such as whether to apply each filter adaptively.
  • As the input image signal 101 to be input a signal having the same pixel bit length as that of the local image decoded signal 112 input to the loop filter is used according to each embodiment.
  • the filter coefficients input from the filter coefficient determination unit C101 are used to filter each pixel of the locally decoded image signal, and then output to the frame memory 114 and the like. .
  • the filter coefficient information 103 output to the entropy encoding unit 108 is entropy encoded by the entropy encoding unit 108, included in the code key data 117, and transmitted.
  • FIG. 28 shows a configuration example of the loop filter 113 on the decoding side.
  • the filter processing unit C102 Based on the filter coefficient information C103 output from the entropy decoding unit 200, the filter processing unit C102 performs filter processing on each pixel of the decoded image signal.
  • the decoded image signal subjected to the filtering process is output to the frame memory 114 or the pixel bit length reducer as it is or as a decoded image signal according to each embodiment.
  • the pixel bit length expander 1001 for converting the pixel bit length of the input image signal 101 may be configured as shown in FIG.
  • the input image signal input to the pixel bit length expander 1001 is expanded to a bit accuracy (N + M) that is M bits larger than N bits by the same procedure as in the first embodiment.
  • the signal is guided to the filter processing unit 7000, and the filter processing is performed on each pixel.
  • the filtering process performed here uses, for example, a spatial filter that adds up after adding a filter coefficient to adjacent pixels in a frame.
  • FIG. 30 shows a filter processing unit 7000 using, for example, an epsilon filter as a spatial filter.
  • this filter processing unit 7000 when the input pixel value is P [t] and the output pixel value is Q [t], t indicates the pixel position.
  • the input image The prime value P [t] and the previous output pixel value Q [t— 1] stored in the temporary memory A04 are input to the adder AO 1 to obtain the difference d.
  • Lookup table A02 is subtracted from this difference d to determine F (d).
  • This value F (d) is input to the adder A03 and subtracted from the input pixel value P [t]. This operation is expressed as follows.
  • the contents of the lookup table A02 should be stored in advance as a table with the value calculated by the function F. For example, if the pixel value is 3 ⁇ 4 bit, the value of d is _ 2 n + l to + 2 n _ 1, and the lookup table should have 2 n + 1 _ l arrays .
  • u is a parameter of the filter. The larger u is, the stronger the filter is applied. The computational amount of this filter is only two additions to the filter processing for one pixel.
  • FIG. 31 is a specific flowchart of the filter processing unit 7000 using the filter of FIG.
  • This filter processing unit 7000 performs filtering from the four directions of the frame. First, post-filter processing (S101) of the right force of the frame and the left is performed. Next, post-filter processing (S102) from left to right in the opposite direction is performed. Similarly, this time, top-to-bottom post-filter processing (S103) is performed, and then top-to-bottom post-filter processing in the opposite direction is performed. This process is performed for each YCb Cr signal. By performing the filter processing from opposite directions in this way, it is possible to cancel the phase shift, which is a drawback of the cyclic filter.
  • a time filter may be used in which the corresponding pixels of a plurality of frames are multiplied by a filter coefficient and then added.
  • a time filter with motion compensation may be applied.
  • the time filter with motion compensation for example, a method described in Japanese Patent Application No. 2006-3620 6 is used.
  • the filtering process in this configuration is not limited to the filtering process described here, and any filtering process may be performed.
  • the input image signal 101 is encoded without converting the pixel bit length, but the input image signal 101 is directly subjected to the prefiltering described here. Encoding from May be.
  • the pixel bit length reducers 2001 and 2007 can be configured as shown in FIG.
  • the bit extended decoded image signal 2003 input to the pixel bit length expanders 2001 and 2007 is input to the filter processing unit 7001, and after the filter processing is performed on each pixel, the first implementation is performed.
  • the bit length of each pixel is reduced to N bits precision smaller than (N + M) bits by the same procedure as in form 1, and output as an N-bit decoded image signal.
  • a spatial filter may be used in which adjacent pixels in the frame are multiplied by the filter coefficient and then added, or the corresponding pixels of a plurality of frames are multiplied by the filter coefficient. You may use a time filter that adds up and down.
  • the pixel bit length expander 1001 is combined with the filter processing configuration, and the inverse filter processing of the filter processing performed by the filter processing unit 7000 in the pixel bit length expander 1001 is performed. It is also possible to use the filter processing unit in 2001. For example, in the filter processing unit 7000, when two pixel values corresponding to two frames as input pixel values are X and y, respectively, and corresponding output pixel values are a and b, Expression (14) shows Apply processing.
  • the processing of Formula (14) is the power of performing division processing by 2-bit right shift. For example, when pixel bit extension by 2-bit left shift is performed in the pixel bit length expander 1001, the filter expressed by Formula A4 The processing does not cause rounding errors and does not lose the input image information.
  • the filter processing unit 7001 on the decoding side the pixel values of two points corresponding to two frames of the decoded image signal as input pixels are a ′, and the corresponding output pixel values are ⁇ ′, y ′.
  • the processing shown in Equation (15) is performed.
  • Equation (15) is the power of performing division processing by 3-bit right shift. For example, when pixel bit extension by 2-bit left shift is performed in the pixel bit length extender 1001, it is expressed by Equation (14). Rounding error does not occur as in the filtering process. That is, assuming that the quantization error caused by the encoding and decoding processes is 0, the filter and the inverse filter according to Equation (14) and Equation (15) are reversible filters. Equation (14) performs the process of bringing the corresponding two pixel values between two frames closer to each other, so that motion compensation makes prediction more quickly and the prediction residual becomes smaller. Therefore, the code amount can be reduced. Furthermore, by performing pixel bit expansion, it is possible to perform a filtering process for returning to the original input image on the decoding side, except for quantization errors, so that encoding efficiency can be improved.
  • the filter used in the filter processing units 7000 and 7001 is not limited to the example described here, and any filter may be used. Of course, it is needless to say that the accuracy of prediction and the like can be further improved by using a reversible filter corresponding to the number M of bits expanded in the pixel bit expansion unit 1001. Also, in the example described here, the power for filtering the two points corresponding to each other between two frames is not limited to this example. For example, pixels of two or more frames may be used. It is also possible to filter two or more adjacent pixels within one frame. Furthermore, it is possible to use various forms of filtering, such as two pixel values corresponding to the top field and bottom field in the interlaced image.
  • the coefficients of the lossless filter used in the filter processing units 7000 and 7001 can be output to the entropy encoding unit 108 and included in the code key data 117. In this way, it is possible to perform encoding by selecting a filter coefficient that has a high effect of improving accuracy such as prediction for each frame.
  • This image encoding apparatus has substantially the same configuration as that of the configuration example shown in the second embodiment (Fig. 9). However, a permeability information storage unit 3000 is provided after the pixel bit length extender 1001. It is different in that it is equipped with.
  • a moving image signal is input to the image encoding device in units of frames as the image signal 100 (S151).
  • the pixel bit length extender (pixel bit precision converter) 1001 performs the same processing as in the second embodiment, so that the value of each pixel of the input N-bit precision image signal 100 is greater than N bits.
  • a process of expanding to bit precision (N + M) bit precision is performed (S152).
  • the expanded bit number M is guided to the entropy encoder 108 as bit extension information 1003 by a bit length conversion controller (bit precision conversion controller) 1002.
  • the input image signal 100 with an extended bit length is input to the permeability data packer 3000, a data sequence generated based on parameters set in advance is generated for each pixel of the input image signal 100. For example, it is carried in the lower bits (S153).
  • the generated data string has a word length of M bits or less, which is the extended bit length.
  • the subtracter 101 and the input image signal 100 with the bit length extended to (N + M) bit precision are (N + M)
  • the difference from the predicted image signal 102 generated with bit accuracy is obtained.
  • a prediction error signal 103 with (N + M) bit accuracy is generated (S154).
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by the orthogonal transformer 104, and the orthogonal transformer 104 performs orthogonal transform coefficient information 105 (for example, DCT coefficient information). Is obtained (S155).
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entropy code encoder 108 and the inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is subjected to processing reverse to the processing of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110, in the same manner as the prediction error signal.
  • a signal ie a local decoding error signal, is generated.
  • This local decoding error signal is added to the predicted image signal 102 with (N + M) bit accuracy by the adder 111, thereby generating a local decoded image signal 112 with (N + M) bit accuracy (S 156). (N + M) bit precision
  • the locally decoded image signal 112 is stored in the frame memory 114 after being filtered by the loop filter 113 as necessary.
  • the local decoded image signal 112 stored in the frame memory 114 is input to the predicted image generator 115.
  • the prediction image generator 115 is based on prediction mode information from the input image signal 100 in which the bit length is extended to (N + M) bit accuracy and the local decoded image signal 112 having (N + M) bit accuracy.
  • a prediction image signal with (N + M) bit accuracy is generated.
  • a motion vector is detected by taking (for example, block matching) (S157).
  • a predicted image signal with (N + M) bit accuracy is created using the local image signal with (N + M) bit accuracy compensated by this motion vector (S157).
  • the (N + M) bit-accurate predicted image signal 102 generated here is output from the predicted image creator 115 together with the motion vector information Z prediction mode information 116 of the selected predicted image signal.
  • the quantized orthogonal transform coefficient information 107, the motion vector information / prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S159), and the code signal generated thereby is encoded.
  • Data 117 is sent to a transmission system or storage system (not shown).
  • This image decoding apparatus has substantially the same configuration as the configuration example shown in the second embodiment (FIG. 10), but between the loop filter 113 and the pixel bit length reducer 2001 (pixel bit precision converter). The difference is that the permeability detector 3002 is connected.
  • the operation of the image decoding apparatus will be described with reference to the flowchart in Fig. 34B.
  • the entropy decoder 200 converts the code data 117 into the entropy encoding.
  • Quantized orthogonal transform coefficient information 107, motion vector / prediction mode information 116, and bit extension information 2004 are obtained (S162).
  • the quantized orthogonal transform coefficient information 107 is sequentially processed by the inverse quantizer 109 and the inverse orthogonal transformer 110 (N + M) bits by sequentially receiving the reverse processing of the quantizer 106 and the orthogonal transformer 104.
  • the bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002 and then the bit conversion information 2003 indicating the number of bits M indicating the number of bits extended in the decoded image. Output.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, and is based on the motion vector Z prediction mode information 11 6 from the bit extended reference image signal 204 with (N + M) bit accuracy (N + M ) A predicted image signal 102 with bit accuracy is generated (S164).
  • the adder 11 1 adds the (N + M) bit accuracy residual signal 201 and the (N + M) bit accuracy prediction image signal 102.
  • the added signal is subjected to a finisher process as necessary by the loop filter 113, and a bit extended decoded image signal 203 with (N + M) bit precision is output (S165).
  • Bit extended decoded image signal 203 is stored in frame memory 114 and input to watermark detection unit 3002.
  • the force detection unit 3002 determines whether or not, for example, the lower-order bits of each pixel of the bit extended decoded image 203 are embedded watermark data, and detects whether or not the data includes transparency data. Is output (S166). Whether the data is watermark data is determined by, for example, calculating a correlation coefficient of a known permeation pattern in advance and, for example, the lower M bits of the bit-enhanced decoded image 203, and the value is above a certain threshold. In such a case, the method is used to determine that the data is transparent.
  • the bit extended decoded image signal 203 is input to the pixel bit length converter 2007, and based on the bit conversion information 2003, the image complex of the first embodiment such as Equation (2) is applied to the value of each pixel.
  • the pixel bit length is reduced and converted to a smaller value of M bits (S167), which is the same as the input image input to the image encoding device
  • S168 A decoded image 202 with N-bit precision is obtained (S168).
  • the predicted image signal is generated with an accuracy that is M bits larger than the input image signal, it is possible to improve the accuracy of motion compensation filters, loop filters, intra prediction, and the like. . As a result, the prediction error signal can be reduced, so that the coding efficiency can be improved. Also, using the extended lower bits, embedding information and transparency As a result, it is possible to embed information with transparency without changing the input image signal.
  • the number of bits M to be expanded or reduced is entropy-coded as bit expansion information and included in the encoded data.
  • the image encoding device and the image decoding device When the bit length is expanded or reduced by a predetermined number in (1), it is not always necessary to include the number of bits M in the encoded data.
  • the bit length is expanded or reduced by a predetermined number, it is possible to include only a flag indicating the power to perform extension or reduction in the encoded data.
  • the flag when the flag is TRUE, the switch is connected to the ON side in the pixel bit length expander 1001, the pixel bit length reducer 2001, or the pixel bit length converter 2007 in the second to sixth embodiments.
  • the flag when the flag is FALSE, the switch is connected to the OFF side.
  • Extending the pixel bit length of the input image, the locally decoded image signal, and the decoded image is equivalent to improving the arithmetic accuracy of the integer operation in the encoding / decoding process. It is also possible to vary the calculation accuracy at any point in the processing process and include a flag or information indicating the calculation accuracy in the encoded data.
  • the second to fifth embodiments are combined, and in the process of encoding / decoding, a flag indicating whether or not the pixel bit accuracy stored in the frame memory is expanded, and orthogonal transformation / quantization are used.
  • a flag indicating whether or not to extend the pixel bit length of the input prediction residual, that is, whether or not to extend the operation accuracy of orthogonal transformation / quantization, is included in the sign data. Whether or not to extend the pixel bit accuracy stored in the frame memory by the encoder / decoder and the prediction residual input to the orthogonal transform Z quantization according to ⁇ N / OFF of these flags. It may be switched whether to extend the pixel bit length. Furthermore, when these flags are ON, data indicating how many bits are expanded / reduced may be included in the code data. In addition, whether to increase the calculation accuracy of one process of these encoding 'decoding processes?
  • the flag indicating whether or not the data indicating the number of bits to be expanded is not limited to the frame memory or the orthogonal transformation / quantization shown here.
  • the flag for the loop filter and the data indicating the number of expansion bits are added. May be. If the process is part of the encoding / decoding process, the flag or extension bit indicates whether the process or multiple processes are combined into one, and the accuracy of the operation is extended for each. Data indicating the number may be set and included in the encoded data.
  • FIG. 35A The configuration of the image encoding device according to the seventh embodiment will be described with reference to FIG. 35A.
  • This embodiment basically has the same configuration as that of the embodiment of FIG. 11, except that a pixel bit length reducer (pixel bit precision reduction converter) 1004 is provided between the predicted image creation unit 115 and the subtractor 101.
  • a pixel bit length extender (pixel bit precision extension converter) 1007 is provided between the adder 111 and the loop filter 112.
  • a moving image signal is input to the image encoding device in units of frames as the image signal 100 (S171).
  • the pixel bit length extender 1001 is configured as shown in FIG. 2, and the value of each pixel of the input N-bit precision image signal 100 based on a control flag F1001 based on syntax information described later included in the bit conversion information 1010. It is determined whether or not to extend the bit accuracy to (N + M) bits larger than N bits (S172).
  • the switch E0 in the pixel bit length extender 1001 is set to ON, and the bit length of each pixel of the local decoded image signal 112 is set to the pixel bit in the first embodiment. Extension is performed by the same processing as that performed by the length converter 1001 (S173). For example, if the value of a pixel in the input image signal is K, the pixel value K ′ after M-bit expansion is expressed by, for example, Equation (1), Equation (1—1), (1-2), (1 — Calculated by processing such as 3).
  • the subtracter 101 calculates the difference between the input image signal 100 and the predicted image signal 102, and performs prediction.
  • a residual signal 103 is generated (S174).
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by the orthogonal transformer 104.
  • the orthogonal transformer 104 performs orthogonal transform coefficient information 105 (for example, DCT coefficient information). Is obtained (S175).
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entropy code encoder 108 and the inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is subjected to processing reverse to the processing of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110 in order, and is similar to the prediction error signal.
  • Signal ie, a local decoding error signal.
  • This local decoding error signal is added to the predicted image signal 102 by the adder 111, thereby generating a local decoded image signal 112 (S176).
  • the local decoded image signal 112 is input to the pixel bit length extender 1007, and based on a control flag F1007 based on syntax information described later included in the bit conversion information 1010, each pixel of the local decoded image signal 112 is displayed.
  • the local decoded image signal 112 output from the pixel bit length expander 1007 is subjected to filter processing by the loop filter 113 as necessary, and then input to the pixel bit length converter 1005.
  • the pixel bit length converter 1005 determines whether or not to convert the bit length of each pixel of the locally decoded image signal 112 based on a control flag F1005 based on syntax information described later included in the bit conversion information 1010 ( S 179).
  • the control flag F1005 is 0 N
  • the switch E3 in the pixel bit length expander 1005 is set to ON, and the bit length of each pixel of the local decoded image signal 112 is set to the pixel in the third embodiment.
  • the bit length converter 1005 is expanded by the same processing as that performed by the bit length converter 1005 (S180). When the control flag F100 5 is OFF, the process of converting the bit length of the pixel is not performed.
  • the local image signal 112 output from the pixel bit length converter 1005 is stored in the frame memory 114 (S18 1). 0
  • the local image signal stored in the frame memory 114 is further converted into a pixel bit length converter 1 Input to 006.
  • the pixel bit length converter 1006 determines whether or not to convert the bit length of each pixel of the locally decoded image signal 112 based on a control flag F1006 that is included in the bit conversion information 1010 and is based on syntax information described later. Determine (S182).
  • the switch E3 in the pixel bit length expander 1006 is set to ⁇ N, and the bit length of each pixel of the locally decoded image signal 112 is set in the third embodiment.
  • the pixel bit length converter 1006 is expanded by the same processing as that performed by the pixel bit length converter 1006 (S183).
  • the control flag F1006 is OFF, the process of converting the bit length of the pixel is not performed.
  • the local decoded image signal 112 output from the pixel bit length converter 1006 is input to the predicted image generator 115.
  • the predicted image generator 115 generates a predicted image signal based on certain prediction mode information from the input image signal 100 and the locally decoded image signal 112 stored in the frame memory 114 (S184). At this time, the locally decoded image signal 112 from the adder 111 is temporarily stored in the frame memory 114, and matching between the input image signal 100 and the locally decoded image signal 112 stored in the frame memory 114 is performed for each block in the frame. (For example, block matching) is performed, a motion vector is detected, and a predicted image signal is created using a local image signal compensated by the motion vector. The predicted image signal 102 generated here is output from the predicted image generator 115 together with the motion vector information / prediction mode information 116 of the selected predicted image signal.
  • the predicted image signal 102 output from the predicted image signal generator 115 is input to the pixel bit length reducer 1004.
  • the pixel bit length reducer 1004 determines whether or not to convert the bit length of each pixel of the predicted image signal 102 based on a control flag F1004 based on syntax information described later included in the bit conversion information 1010 (S185). ).
  • the control flag F1004 is 0N
  • the switch E2 in the pixel bit length expander 1004 is set to ON, and the bit length of each pixel of the predicted image signal 102 is reduced by the same process as in the fourth embodiment. (S186).
  • the control flag F1004 is OFF, the process of converting the bit length of the pixel is not performed.
  • the entropy encoder 108 entropy-encodes the quantized orthogonal transform coefficient information 107, the motion vector information / prediction mode information 116, and the bit extension information 1003 (S187).
  • the code key data 117 thus generated is sent to a transmission system or storage system (not shown).
  • ex_seq_all_bit_extention_flag shown in the sequence parameter set syntax of Fig. 36 is a flag indicating whether or not to perform bit extension.
  • this flag is TRUE, the internal data path of encoding and decoding All indicate that encoding and decoding are performed using data in which the bit length of each pixel is extended.
  • the flag is FALSE, this flag indicates whether encoding / decoding is performed using an image signal in which the bit length of each pixel is extended in all of the internal data paths of the encoding and decoding keys. Only in some data paths, it is shown that encoding / decoding is performed using an image signal in which the bit length of each pixel is extended.
  • ex_seq_bit_extention_flag If the power is STRUE, ex_seq_shift_bits indicating how many more bits to extend can be sent.
  • ex_seq_all_bit_extention_flag FALSE
  • a flag ee X _seq_partial_bit_extention_flag indicating whether or not to extend the pixel bit length of the image signal input to the prediction image creation unit in the encoding and decoding is further transmitted Good.
  • the flag When the flag is TRUE, it indicates that an image signal in which the bit length of each pixel is extended at the time of prediction image creation in encoding / decoding internal processing is used.
  • the flag is FALSE, this flag indicates that the image signal in which the bit length of each pixel is extended is used in all the data paths inside the code and decoding keys. Show.
  • ex_seq_partial_bit_extention_flag When the power is STRUE, further, ex_se q_partial_shift_bits is sent to indicate how many bits the pixel bit length of the image signal input to the predicted image creation unit 112 is to be expanded compared to the pixel bit length of the input image signal.
  • ex_seq_partial_bit_extention_flag force When TRUE, indicates the power to use an image signal in which the bit length of each pixel is extended in a certain part of the data path inside the encoding and decoding. You can send a flag. In the example shown in FIG. 36, a flag ex_seq_framemem_bit_extent ion_flag indicating whether or not to extend the pixel bit length of the reference image signal stored in the frame memory 114, and an orthogonal transform unit and a quantization unit (orthogonal transformer 104, quantizer 106).
  • a puffer ex_seq_trans_and_quant_bit_extention_flag indicating the force that stretches the pixel bit length of the prediction residual signal input to or output from the inverse quantizer 109 and the inverse orthogonal transformer 110) by 5 ⁇ m is transmitted.
  • ex_seq_framemem_bit_extention_flag When ex_seq_framemem_bit_extention_flag is TRUE, this flag indicates that the pixel bit length of the reference image signal stored in the frame memory is extended. When the flag is FALSE, it indicates that the pixel bit length of the reference image signal stored in the frame memory is the same as the input image. If ex_seq_framemem_bit_extention_flag is TRUE, ex_seq_framemem_shift_bits indicating how many bits the pixel bit length of the image signal stored in the frame memory is extended compared to the pixel bit length of the input image signal may be transmitted .
  • this flag is used for the orthogonal transform unit and the quantization unit (orthogonal transform unit).
  • the prediction residual signal input or output is the difference signal between the prediction image signal having the same bit accuracy as the input image signal and the input image signal. Indicates that there is.
  • Fig. 38 shows an example of setting the control flags F1001, F1007, F1005, F1006, and F1004 used in the processing of the image encoding device shown in Fig. 35. .
  • the all column indicates the value of ex_seq_all_bit_extention_flag.
  • the part [fm], t / q, and [J will not deviate the 3 ⁇ 4_ of ex_seq_partial_bit_extention_flag, ex_seq_framemem_bit_extension_flag, ex_seq_trans_ana_quant_bit_extention_flag.
  • control flags FlOOl, F1007, F1005, F1006, and F1004 indicate the value of the control flag that is set based on the value of the respective syntax. 1 indicates ON and 0 indicates OFF. For example, in the case of ex_seq_all_bit_extention_flag force STRUE, only the control flag F1001 is ON and the remaining flags are OFF.
  • Fig. 40 shows a set column of control flags F2001, F2005, F2006, F2007, and F2008 used in the processing of the image decoding apparatus described later.
  • the values are the same as in FIG.
  • this image decoding apparatus includes an entropy decoder 200, an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, a norep filter 113, a frame memory 114, and a prediction image creator.
  • pixel bit length reducer pixel bit precision reduction converter 2001, 2006, pixel bit length extender (pixel bit precision extension converter) 2005, pixel bit length converter (pixel bit precision converter) 2007, 2008, bit length conversion controller 2002 is provided.
  • the coefficient information output of the entropy decoder 200 is connected to the adder 111 via the inverse quantizer 109 and the inverse orthogonal transformer 110.
  • the motion vector / prediction mode information output of the entropy decoder 200 is connected to the prediction image generator 115, and its bit spread information output is connected to the bit length conversion controller 2002.
  • the output of the predicted image generator 115 is connected to the other input of the adder 111 via a pixel bit length reducer.
  • the output of adder 111 is pixel bit length It is connected to the frame memory 114 via an expander 2005, a norpe finalizer 113, and a pixel bit length converter 2007.
  • the other output of the loop filter 113 is connected to the input of the pixel bit length reducer 2001.
  • the output of the frame memory 114 is connected to the pixel bit length converter 2008 together with the output to the bit length conversion controller 2002.
  • the output of the pixel bit length converter 2008 is connected to the other input of the prediction image generator 115.
  • the output of the bit length conversion controller 2002 is the other input of the pixel bit length reducer 2001, the pixel bit length extender 2005, the pixel bit length reducer 2006, the pixel bit length converter 2007, and the pixel bit length converter 2008. Connected to.
  • Bit conversion information 2003 including a control flag indicating whether or not to perform pixel bit length conversion and information indicating the bit length to be expanded or reduced is output.
  • the control flags included in the bit conversion information are set as shown in FIG. 40 based on the status value (FIG. 36) multiplexed as bit extension information 2004 in the encoded data 117, for example. Included in Information 2003.
  • the quantized orthogonal transform coefficient information 107 is converted into a residual signal 201 by the inverse quantizer 109 and the inverse orthogonal transformer 110, which are sequentially subjected to processing reverse to that of the quantizer 106 and the orthogonal transformer 104.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, stored in the frame memory 114, and motion is generated from the decoded image signal 203 in which the bit length of each pixel is converted by the pixel bit length converter 2008 as necessary.
  • a predicted image signal 102 based on the vector Z prediction mode information 116 is generated (S204).
  • the predicted image signal 102 is input to the pixel bit length reducer 2006, and based on the control flag F2006 included in the bit conversion information 2003, whether or not to convert the bit length of each pixel of the predicted image signal 102 is determined. Determination is made (S205). When control flag F2006 is ON, The switch E2 in the elementary bit length extender 2006 is set to ON, and the bit length of each pixel of the prediction image signal 102 is processed by the same process as the process performed by the pixel bit length extender 2006 in the fourth embodiment. Reduce (S206). When the control flag F2006 is OFF, the process of converting the bit length of the pixel is not performed.
  • Predictive image signal 102 and residual signal 201 output from pixel bit length reducer 2006 are added by adder 111 to generate a decoded image signal (S207).
  • the decoded image signal 203 is input to the pixel bit length expander 2005.
  • the pixel bit length converter 2005 determines whether to extend the bit length of each pixel of the decoded image signal 203 based on the control flag F2005 included in the bit conversion information 2003 (S208).
  • the control flag F2005 is ⁇ N
  • the switch E1 in the pixel bit length expander 2005 is set to ⁇ N, and the bit length of each pixel of the decoded image signal 203 is converted to the pixel bit length conversion in the fourth embodiment.
  • the processing is expanded by the same processing as that performed in the device 2005 (S209).
  • the control flag F2005 is OFF, the process of converting the pixel bit length is not performed.
  • the decoded image signal 203 output from the pixel bit length expander 2005 is output after being filtered by the loop filter 113 as necessary.
  • the pixel bit length reducer 2001 and the pixel bit length converter 2007 are output. Is output.
  • the pixel bit length converter 2007 When the decoded image signal 203 is input to the pixel bit length converter 2007, the pixel bit length converter 2007 outputs the decoded image signal 203 based on the control flag F2007 included in the bit conversion information 2003. It is determined whether the bit length of each pixel is to be converted (S210). When the control flag F2007 is ON, the switch E3 in the pixel bit length extender 2007 is set to ON, and the bit length of each pixel of the decoded image signal 203 is the pixel bit length in the third embodiment. Conversion is performed by the same processing as that performed by the converter 2007 (S211). When the control flag F2007 is OFF, the process of converting the pixel bit length is not performed.
  • the decoded image signal 203 output from the pixel bit length converter 2007 is stored in the frame memory 114 (S212).
  • the pixel bit length converter 2008 decodes based on the control flag F2008 included in the bit conversion information 2003. It is determined whether or not the bit length of each pixel of the image signal 203 is to be converted (S213).
  • control flag F2008 is ON, The switch E3 in the elementary bit length extender 2008 is set to ON, and the bit length of each pixel of the decoded image signal 203 is processed by the same processing as that performed by the pixel bit length converter 2008 in the third embodiment. Conversion is performed (S214).
  • the control flag F2008 is OFF, the process of converting the pixel bit length is not performed.
  • the image signal output from the pixel bit length converter 2008 is input to the predicted image generator 115 (S215).
  • the decoded image signal 203 is filtered by the loop filter 113 as necessary, and is output to the pixel bit length reducer 2001.
  • the pixel bit length reducer 2001 converts each pixel of the decoded image signal 203 based on the control flag F2001 included in the bit conversion information 2003.
  • the power to convert the bit length is determined (S216).
  • the control flag F2001 is ⁇ N
  • the switch E2 in the pixel bit length extender 2001 is set to ON, and the bit length of each pixel of the decoded image signal 203 is set to the pixel bit length reducer in the first embodiment. Reduction is performed by the same processing as in 2001 (S217).
  • the control flag F2001 is OFF, the process of converting the pixel bit length is not performed, and the decoded image signal 202 is output as it is.
  • the decoded image 202 having the same N-bit accuracy as the input image input to the image encoding device is output from the pixel bit length reducer 2001 (S218).
  • the pixel bit length extender, the pixel bit length reducer, and the pixel bit length converter are partially omitted, and the configuration shown in the second to fifth embodiments is used, and the pixel bit length extension is performed. Whether the bit length conversion is performed in the imager, the pixel bit length reducer, and the pixel bit length converter is determined according to the value specified by ex_seq_all_bit_extention_flag in the syntax shown in FIG.
  • the quantization / inverse quantization in the second and third embodiments is calculated by the following formula considering that the accuracy of the residual is expanded to (N + M) bits when the bit precision is expanded to M bits. Qst mark 'may be used.
  • FIG. 41 is a table showing the predicted pixel value of 8-bit accuracy according to H.264 and the predicted pixel value of 12-bit accuracy according to the present embodiment for the input pixel value (8 bits) at each pixel position. Is a graph of this (the interpolation filter for half-pixel position is 6 types ⁇ 1/32, —5/32, 20/32, 20/32, —5/32, 1/32 ⁇ ).
  • the predicted image signal is created with the same 8 bits as the input image signal (Fig. 42 (represented by a rhombus plot), the pixel value of the pixel interpolated at the half-pixel position has a rounding error.
  • bit expansion as described in the present embodiment is performed to create a 12-bit predicted image (represented by a circular plot in FIG. 42)
  • the half-pixel position is set. The rounding error of the pixel value of the interpolated pixel is reduced.
  • bit extension is performed, the bit accuracy of the residual is expanded to 12 bits compared to before bit extension.
  • a bit larger than the bit accuracy of the input image by M bits Since the predicted image signal is created with an accuracy that is M bits larger than the input image signal, the accuracy of motion compensation filters, loop filters, and in-screen prediction can be improved. Since the prediction error signal can be made smaller, the coding efficiency can be improved.
  • the present invention is not limited to the above-described embodiments as they are, but can be embodied by modifying the constituent elements without departing from the spirit of the invention in the implementation stage.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
  • the present invention it is possible to improve the coding efficiency by sufficiently increasing the accuracy of intra prediction and motion compensation.
  • the configuration of the present invention by making the bit accuracy of the reference image input to the prediction image creator larger than the bit accuracy of the input image, for example, intra-screen prediction applied to H.264, etc.
  • the prediction error signal can be reduced, and the coding efficiency can be improved.
  • the bit accuracy related to the calculation accuracy of integer pixels can be kept high as well as the bit accuracy related to the calculation accuracy of decimal pixels described above can be kept high.
  • a reference image is stored with a bit accuracy higher than the bit accuracy of an input image and used for prediction, and a prediction image is created by a prediction image creator. In this case, it is possible to improve the calculation accuracy and improve the coding efficiency.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 画像符号化装置は、入力画像の各画素のビット精度を変換することによって変換入力画像を出力すると共に変換により変更されたビット数を表すビット変換情報を出力する画素ビット長拡張変換器(1001)と、入変換力画像を符号化し画像符号化情報を出力する画像符号化器(10)と、ビット変換情報と画像符号化情報とを多重化する多重化器(12)とを具備する。

Description

明 細 書
画像符号化装置及び方法並びに画像復号化装置及び方法
技術分野
[0001] 本発明は、動画像又は静止画像のための画像符号化装置及び方法並びに画像 複号化装置及び方法に関する。
背景技術
[0002] 代表的な動画像符号化標準方式である H. 264は、入力画像信号と、画面内予測 や動き補償を行うことで作成された予測画像信号との予測誤差信号に対して離散コ サイン変換 (DCT)等の直交変換を行レ、、このような周波軸上への変換を行った後、 変換係数に対して量子化及び符号化による圧縮処理を行って符号化画像を得ると レ、う非可逆圧縮方式である。予測画像信号を作成する際には、画面内予測や動き補 償の補間フィルタにおいて、複数画素にフィルタ係数をかけて足し合わせた後、入力 画像の画素ビット長と同じ精度に丸めを行う処理を行っている。
[0003] 特開 2003— 283872号公報では、入力画像の 1フレーム毎に各色信号のダイナミ ックレンジを拡大した画像を入力として符号ィ匕し、復号後に元のダイナミックレンジに 復元することにより、表示装置の補正による符号化歪の強調を抑制する手法が示さ れている。
[0004] H. 264では、予測信号を作成する際の丸め処理の過程において丸め誤差が発生 するため、画面内予測や動き補償の補間フィルタにおいて十分な精度で処理を行う ことができず、予測誤差信号の増大を招き、結果的に符号ィ匕効率が低下する。これ に対し、特開 2003— 283872号公報では、入力画像のダイナミックレンジを拡大す ることにより、前述の丸め誤差を若干少なくすることが可能である。しかし、特開 2003 _ 283872号公報におけるダイナミックレンジの拡大は、入力画像のビット精度の範 囲内で行われるだけであり、また、ダイナミックレンジの拡大の際にも丸め誤差が発生 することから、十分に計算精度を向上させることはできない。
[0005] 特開平 4— 32667号公報では、エンコーダもデコーダも一体的に設けられたデジタ ルカメラに適用され、エンコーダもデコーダに共有される DCTの演算精度に合わせて 入力画像のビット長をビットシフトする手法を開示している。この手法では、ェンコ一 ダとデコーダが別々に設けられ、それぞれの DCTの演算精度が異なっていれば、そ れぞれに合わせてビットシフトされるので違うビット数でシフトすることになり、ミスマツ チが生じる。
[0006] 本発明は、画面内予測や動き補償の精度を十分高めることによって符号化効率を 向上させるための画像符号化装置及び画像符号化方法並びに画像複号化装置及 び画像複号化方法を提供することを目的とする。
発明の開示
[0007] 本発明の第 1の形態は、入力画像の各画素のビット精度を変換することによって異 なるビット精度の変換入力画像を生成し、変換により変更されたビット数を表すビット 変換情報を出力する画素ビット長変換器と、前記入変換力画像を符号化し画像符号 化情報を出力する画像符号化器と、前記ビット変換情報と前記画像符号化情報とを 多重化する多重化器とを備えた画像符号化装置を提供する。
[0008] 本発明の第 2の形態は、 Nビット精度をそれぞれ持つ複数の画素により構成される 入力画像の各画素のビット精度を Mビット大きな(N + M)ビット精度に変換する画素 ビット精度変換器と、 (N + M)ビット精度の前記入力画像に対する(N + M)ビット精 度の予測画像を、(N + M)ビット精度の参照画像から作成する予測画像作成器と、 ( N + M)ビット精度の前記入力画像と (N + M)ビット精度の前記予測画像との差分信 号を求める減算器と、前記差分信号を符号化して画像符号化情報を出力する符号 化器と、前記画像符号化情報に基づいて復号差分画像を出力する復号ィヒ器と、(N + M)ビット精度の前記予測画像と前記復号差分画像とを加算して (N + M)ビット精 度の復号画像を出力する加算器と、(N + M)ビット精度の前記復号画像を前記参照 画像として保存する参照画像格納メモリとを備えた画像符号化装置を提供する。
[0009] 本発明の第 3の形態は、ビット変換情報と画像符号ィ匕情報とが多重化された画像 情報を入力してビット変換情報と画像符号化情報に分離する逆多重化器と、前記画 像符号化情報を復号化し復号画像を出力する画像復号化器と、前記ビット変換情報 に基づいて前記復号画像の各画素の値をビット精度が異なるビット精度に変換する 画素ビット精度変換器と、を備えた画像復号化装置を提供する。 本発明の第 4の形態は、入力符号化画像情報を (N + M)ビット精度の復号差分画 像に復号する復号化器と、前記符号化画像情報を用いて (N + M)ビット精度の参照 画像から (N + M)ビット精度の予測画像を作成する予測画像作成器と、前記復号差 分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を得る加算器と、 (N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納メ モリと、 (N + M)ビット精度の前記復号画像の各画素を Nビット精度に変換し Nビット 精度の復号画像を出力する画素ビット精度変換器と、を備えた画像復号化装置を提 供する。
図面の簡単な説明
[図 1A]図 1Aは本発明の第 1の実施形態に係る画像符号化装置の構成例を示すプロ ック図である。
[図 1B]図 1Bは 1Aの画像符号ィ匕装置の動作を示すフローチャートである。
[図 2]図 2は画素ビット長拡張器の構成を示すブロック図である。
[図 3]図 3は同実施形態で用いるシンタクスの構造の一例を示す図である。
[図 4]図 4は同実施形態で用いるシーケンスパラメータセットシンタクスの構造を示す 図である。
[図 5]図 5は同実施形態で用いるサプリメンタルシンタクスの構造を示す図である。
[図 6]図 6は同実施形態で用いるサプリメンタルシンタクスの構造を示す図である。
[図 7A]図 7Aは同実施形態に係る画像複号化装置の構成例を示すブロック図である
[図 7B]図 7Bは図 7Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 8]図 8は図 7の画素ビット長縮小器の構成を示すブロック図である。
[図 9A]図 9Aは本発明の第 2の実施形態に係る画像符号化装置の構成例を示すブ ロック図である。
[図 9B]図 9Bは図 9Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 10A]図 10Aは同実施形態に係る画像復号化装置の構成例を示すブロック図であ る。
[図 10B]図 10Bは図 10Aの画像復号化装置の動作を示すフローチャートである。 園 11A]図 11Aは第 3の実施形態に係る画像符号ィ匕装置の構成例を示すブロック図 である。
[図 11B]図 11Bは図 11Aの画像符号化装置の動作を示すフローチャートである。
[図 11C]図 11Cは図 11Aの画素ビット長変換器の動作の概要を示す図である。
[図 11D]図 11Dは図 11Aの画素ビット長変換器の構成の一例を示すブロック図であ る。
[図 11E]図 11Eは図 11Aの画素ビット長変換器の構成の一例を示すブロック図である
[図 11F]図 11Fは図 11Aのフレームメモリの構成の一例を示すブロック図である。
[図 12]図 12は図 11の画素ビット長変換器の構成を示すブロック図である。
園 13]図 13は同実施形態で用いるシーケンスパラメータセットシンタクスの構造を示 す図である。
園 14]図 14は同実施形態で用いるピクチャーパラメータセットシンタクスの構造を示 す図である。
[図 15]図 15は同実施形態で用いるスライスレベルシンタクスの構造を示す図である。
[図 16]図 16は同実施形態で用いるマクロブロックレベルシンタクスの構造を示す図で ある。
園 17A]図 17Aは同実施形態に係る画像復号化装置の構成例を示すブロック図であ る。
園 17B]図 17Bは図 17Aの画像復号化装置の動作を示すフローチャートである。 園 18A]図 18Aは本発明の第 4の実施形態に係る画像符号化装置の構成例を示す ブロック図である。
[図 18B]図 18Bは図 18Aの画像符号化装置の動作を示すフローチャートである。 園 19A]図 19Aは同実施形態に係る画像複号化装置の構成例を示すブロック図であ る。
[図 19B]図 19Bは図 19Aの画像複号化装置の動作を示すフローチャートである。 園 20A]図 20Aは第 5の実施形態に係る画像符号ィ匕装置の構成例を示すブロック図 である。 [図 20B]図 20Bは図 20Aの画像符号化装置の動作を示すフローチャートである。 園 21A]図 21Aは同実施形態に係る画像復号化装置の構成例を示すブロック図であ る。
[図 21B]図 21Bは図 21Aの画像複号化装置の動作を示すフローチャートである。
[図 22]図 22はエンコーダ側の予測画像作成器のブロック図である。
[図 23]図 23はデコーダ側の予測画像作成器のブロック図である。
[図 24]図 24はフレーム間予測器の構成を示すブロック図である。
園 25]図 25はフレーム間予測器の別の構成を示すブロック図である。
[図 26]図 26はフレーム間予測器の別の構成を示すブロック図である。
[図 27]図 27はエンコーダ側のループフィルタの構成を示すブロック図である。
[図 28]図 28は復号側のループフィルタの構成を示すブロック図である。
[図 29]図 29は画素ビット長拡張器の他の構成を示すブロック図である。
[図 30]図 30はフィルタ処理部のブロック図である。
[図 31]図 31はフィルタ処理部の動作の流れ図である。
園 32]図 32は画素ビット長縮小器のブロック図である。
園 33A]図 33Aは第 6の実施形態に係る画像符号ィ匕装置のブロック図である。
[図 33B]図 33Bは図 33Aの画像符号化装置の動作を示すフローチャートである。 園 34A]図 34Aは第 6の実施形態に係る画像復号ィ匕装置のブロック図である。
[図 34B]図 34Bは図 34Aの画像復号化装置の動作を示すフローチャートである。 園 35A]図 35Aは第 7の実施形態に係る画像符号ィ匕装置のブロック図である。
[図 35B]図 35Bは図 35Aの画像符号化装置の動作を示すフローチャートである。
[図 36]図 36はシーケンスパラメータセットシンタクスを示す図である。
[図 37]図 37はシーケンスパラメータセットシンタクスを示す図である。
園 38]図 38は画像符号ィ匕装置の処理において使用される制御フラグの設定例を示 す図である。
園 39A]図 39Aは第 7の実施形態に係る画像復号ィ匕装置の構成を示すブロック図で ある。
[図 39B]図 39Bは図 39Aの画像複号化装置の動作を示すフローチャートである。 [図 40]図 40はビット変換情報に含まれる制御フラグの設定を示す図である。
[図 41]図 41はビット精度の拡張の有無によって生じる丸め誤差の相違について説明 するための図である。
[図 42]図 42は半画素精度の予測画素値を示す図である。
[図 43]図 43は本発明の実施の形態の画素ビット長拡張および画素ビット長縮小にお ける変換特性を示す図である。
発明を実施するための最良の形態
[0011] 以下、図面を参照しながら本発明の実施形態について説明する。
[0012] (第 1の実施形態)
図 1Aを参照して第 1の実施形態に係る動画像符号化のための画像符号化装置の 構成を説明する。この画像符号化装置は、入力画像信号 100が供給され、画素ビッ ト長を拡張する画素ビット長拡張器 (即ち、画素ビット精度を変換する画素ビット精度 変換器) 1001と、この画像ビット長拡張器 1001の出力に接続される画像符号ィ匕器 1 0と、この画像符号化器 10の出力に接続される多重化器 12と、画像ビット長拡張器 1 001の他の出力に接続され、ビット拡張情報を多重化部 12に供給するビット長変換 制御器 1002とを備えている。
[0013] 図 1Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像符 号化装置には、入力画像信号 100として例えばフレーム単位で動画像信号が入力さ れる(Sl l)。画素ビット長拡張器 1001は、入力された Nビット精度の画像信号 100 の各画素を Nビットより Mビット大きな(N + M)ビット精度に変換する処理を行う。即ち 、図 2に示される画素ビット長拡張器 1001において、入力された Nビット精度の画像 信号 100の各画素のビット長を拡張するかどうかがビット長拡張情報 1003に基づい てスィッチ E0によって選択される(S12)。拡張を行う場合は、スィッチ E0を ON側に、 拡張を行わない場合は OFF側に接続する。スィッチ E0を ONとした場合は、画像信号 は画素ビット長拡張変換器 (画素ビット精度変換器) E01に入力され、後述の画素ビッ ト長変換が行われる(S 13)。スィッチ E0が OFFの場合は、画像信号は画素ビット長変 換されず、そのまま出力される。例えば、入力画像信号のある画素の値が Kであった 場合、その画素値 Kを Mビット拡張した後の画素値 K'は、以下の数式(1)のように計 算される。
K,=Kくく M
また、例えば、表示装置の特性に合わせて、画素をガンマ変換することも可能であ る。拡張するビット数を M、ガンマ値を γとすると、以下の数式(1_1)のように画素値 K'が計算される。
Κ,=ΙΝΤ〔〔{Κ/((1 « Ν)-1)}Ύ X((l « M)-l)] + offset] …(: 1— 1) また、以下の数式(1一 2)のように、さらに入力画像の画素の最小値 Min、最大値 Maxを求め、ダイナミックレンジを広げつつ Mビット大きなビット精度に画素を拡張す ることも可肯である。
K ' = INT [ [{ (K - Min) / (Max - Min)} γ X (( 1くく Μ)_ 1)〕 +offset〕
-(1-2)
INTは整数に丸めを行う処理を示す。数式(1_1), (1_ 2)での offsetは、丸めを 行うときのオフセットを示し、 0〜1の任意の値である。
[0014] さらには、上記のような拡張を行った入力画像の系列に対し、ヒストグラム平滑化を 行ったり、時空間にフィルタを施したりすることも可能である。
[0015] 入力画像が例えば RGBなどの複数のコンポーネントからなるカラー画像信号であ る場合には、各コンポーネントの各画素のビット長を Mビット大きなビット精度に拡張 した後に、各コンポーネントを別の色空間のコンポーネント信号に変換してもよい。例 えば、 RGBから YCoCgに変換する場合には以下の数式(1 3)で変換する。この例 では、 Nビットの入力画像の各コンポーネントの各画素 R, G, B力 各画素の値を M ビット大きなビット精度に拡張した後、 Y, Co, Cgに変換される。
R, = (Rくく M)
G, = (G « M)
B' = (Bくく M)
Y=Round(0.5*G' +0.25* (R, +B'))
Co = Round(0.5*G'—0.25* (R, +B')) + (1 « (N + M—l))
Cg = Round(0.5* (R,_B + (1 « (N + M—l))
3) ここで、 Round (A)は Aを四捨五入して整数に丸める処理である。数式(1— 3)によ る変換例では、拡張するビット数 Mを 2以上にすれば、丸め処理において丸め誤差 が発生することなく色変換することが可能である。なお、ここで示した色変換は一例で あり、色変換を行う処理であればどのような処理を行ってもよい。
[0016] 以上の例は画素ビット長拡張器 1001が行う変換の一例であり、各画素の値を Mビ ット大きなビット精度に拡張する処理は、上記の例に限るものではなぐビット長を拡 大する処理であればどのような処理を行ってもょレ、。
[0017] 上記のようにしてビット拡張が行われたビット拡張入力画像信号 1009は、画像符号 化器 10に導かれる。また、拡張されるビット数 M、入力画像信号のビット長 Nおよびそ の他変換に必要なガンマ値、画素最大値、最小値、ヒストグラムなどのビット変換情報 1010が生成され (S14)、ビット長変換制御器 (ビット精度変換制御器) 1002によりビ ット拡張情報 1003として多重化部 12に導かれる。
[0018] 画像符号化器 10は、入力されたビット拡張入力画像信号 1009を符号化し、画像 符号化データ 11として多重化部 12に出力する(S15)。多重化部 12は、画像符号化 データ 11およびビット拡張情報 1003を多重化し(S16)、符号ィ匕データ 117として図 示しない伝送系または蓄積系へ送出する(S 17)。
[0019] 次に、拡張するビット数 Mなどの変換に必要なビット拡張情報 1003の多重化方法 について説明する。
[0020] 図 3に、本実施形態で用いられるシンタクスの構造の例を示す。
[0021] このシンタクス構造例において、ハイレベルシンタクス(401)には、スライス以上の 上位レイヤのシンタクス情報が詰め込まれてレ、る。スライスレベルシンタクス(402)で は、スライス毎に必要な情報が明記されており、マクロブロックレべノレシンタクス (403 )では、マクロブロック毎に必要とされる量子化パラメータの変更値やモード情報など が明記されている。
[0022] 各シンタクスは、さらに詳細なシンタクスで構成されている。ハイレベルシンタクス(4 01)では、シーケンスパラメータセットシンタクス(404)とピクチャーパラメータセットシ ンタクス(405)などのシーケンスおよびピクチヤレベルのシンタクス力、ら構成されてレヽ る。スライスレベルシンタクス(402)では、スライスヘッダーシンタクス(406)、スライス データシンタクス (407)などから構成されている。さらに、マクロブロックレベルシンタ タス(403)は、マクロブロックヘッダーシンタクス(408)、マクロブロックデータシンタク ス(409)などから構成されてレ、る。
[0023] 上述したシンタクスは復号ィヒ時に必要不可欠な構成要素であり、これらのシンタク ス情報が欠けると複号化時に正しくデータを復元できなくなる。一方、復号化時に必 ずしも必要とされない情報を多重化するための補助的なシンタクスとしてサブリメンタ ルシンタクス (410)が存在する。サプリメンタルシンタクスは、復号側で独立に実行可 能な処理に対する指示を示す情報を送る役割として用意されている。
[0024] 本実施形態では、拡張するビット数をシーケンスパラメータセットシンタクス (404)に 含めてこのシンタクスを送信することが可能である。それぞれのシンタクスを以下で説 明する。
[0025] 図 4のシーケンスパラメータセットシンタクス内に示される ex_seq_bit_extention_flagは 、ビット拡張を行うかどうかを示すフラグであり、当該フラグ力 STRUEであるときは、ビッ ト拡張を行うか否かをシーケンス単位で切り替えることが可能である。フラグが FALSE であるときは、シーケンス内ではビット拡張は行われない。 ex_seq_bit_extention_flagが TRUEのときは更に何ビット拡張を行うかを示す ex_seq_shift_bitsが送信される。当該フ ラグの TRUE/FALSEによって例えば図 2で示される画素ビット長拡張器 1001内の スィッチ E0の ON/OFFが決定される。
[0026] シーケンスパラメータセットシンタクス内には、さらに、どのような変換を行つたかを示 す ex— bit— transform— type 含めて;^ ¾してもょレヽ。 ex— bit— transform— type ί 、 f列; J 数 式(1)で示される単純なビット拡張変換を示す値 BIT_EXT_TRANSや、数式(1 1)で 示される γ変換が行われたことを示す GAMMA_TRANS、数式(1 _ 2)で示されるダイ ナミックレンジ変換が行われたことを示す DR_TRANSなどが格納されてレ、る。 ex_bit_tr ansform_typeが GAMMA_TRANSである場合には、さらにどのようなガンマ値で変換を 行つたかを示す gamma_valueが送信される。 ex_bit_transform_typeが DR_TRANSである 場合には、さらにそれぞれ入力画像信号の画素の最大値と最小値を示す max_value , min_valueか 目される。
[0027] 本実施形態においては、サプリメンタルシンタクス (410)に多重化されたデータを 利用することが可能である。図 5にサプリメンタルシンタクスを用いて復号側の出力画 像信号のビット精度を送信する例を示す。サプリメンタルシンタクス内に示される ex_se し bit_extention_flagは、出力画像信号のビット精度を変更するかどうかを示すフラグで あり、当該フラグが TRUEのときは、出力画像信号のビット精度を変更することを示す。 フラグが FALSEであるときは、出力画像信号のビット精度の変更を行わないことを示 す。当該フラグ力 STRUEであるときは、さらに bit_d印 th_of_decoded_imageが送信される 。 bit_d印 th_of_decoded_imageは、出力画像信号のビット精度を示す値であり、後述の 復号側でビット拡張あるいは縮小を行って復号化する能力のある復号ィ匕器で画像信 号を復号化する場合は、 bit_d印 th_of_decoded_imageの値に従って、復号画像のビット 精度を拡大あるいは縮小して bit_d印 th_of_decoded_imageで示されたビット精度の復 号画像を出力することが可能である。
[0028] ただし、ビット拡張あるいは縮小を行って復号化する能力がない復号ィ匕器で画像信 号を復号化する場合や、あるいは能力があつたとしても必ずしも bit_depth_of_decoded _imageで示されたビット精度の復号画像を出力する必要はなぐ復号されたビット精 度のまま出力することも可能である。
[0029] また、図 6に、サプリメンタルシンタクス 410を用いて復号側の出力画像信号の色空 「, 送 1§する 1列を不す。 ex— sei— bit— extention— flag, bit— deptn— of— decoded— imageこつレヽ ては前述の図 4の例と同様である。
[0030] サプリメンタルシンタクス内に示される ex_color_transform_flagは、出力画像信号の色 空間を変換するかどうかを示すフラグであり、当該フラグが TRUEのときは、出力画像 信号の各コンポーネントの色空間を変更することを示す。一方、フラグが FALSEで あるときは、出力画像信号の各コンポーネントの色空間の変更を行わないことを示す 。当該フラグが TRUEであるときは、さらに color_space_of_decoded_imageが送信される 。 color_space_of_decoded_imageは、出力画像信号の色空間を示す値であり、後述の 復号側でビット拡張あるいは縮小を行って復号化する能力がある。 color_space_of dec odedjmageの値で指定される色空間に変換する能力のある複号化器で画像信号を 復号化する場合は、出力画像信号の各コンポーネントを color_space_of_decoded_imag eの値で指定される色空間に変換した後、 bit_d印 th_of_decoded_imageの値に従って、 復号画像のビット精度を拡大あるいは縮小して bit_depth_of_decoded_imageで示され たビット精度の復号画像を出力することが可能である。
[0031] ただし、 color_space_of_decoded_imageの値で指定される色空間に出力画像信号の 各コンポーネントを変換する能力がない複号化器で復号する場合や、あるいは能力 があったとしても、必ずしも color_space_of_decoded_imageの値で指定される色空間に 変換した復号画像を出力する必要はない。復号された色空間のまま復号画像を出力 した後に、 bit_d印 th_of_decoded_imageで示されたビット精度にコンポーネントを変換す ることも可能である。また、ビット拡張あるいは縮小を行って復号化する能力がない復 号化器で画像信号を復号化する場合や、あるいは能力があつたとしても必ずしも bit_ d印 th_of_decoded_imageで示されたビット精度の復号画像を出力する必要はなぐ復 号されたビット精度のまま出力することも可能である。
[0032] 次に、図 7A、図 7Bを参照して本実施形態に係る画像復号化装置を説明する。図 7 Aに示すように、この画像復号化装置は、符号化データが入力される逆多重化部 21 と、逆多重化部 21の出力に接続される画像復号ィ匕器 20と、画像復号化器 20の出力 に接続される画素ビット長縮小器 (画素ビット精度縮小変換器) 2001と、逆多重化部 21からビット拡張情報を受け、ビット変換情報を画素ビット長縮小器 2001に入力す るビット長変換制御器 (ビット精度変換制御器) 2002とを備えている。
[0033] 図 7Bのフローチャートに示すように、まず、図 1Aの画像符号化装置によって符号 化された符号化データ 117が逆多重化部 21に入力される(S21)。逆多重化部 21に おいて、符号化データ 117がビット拡張情報 2004および画像符号化データ 11に分 離される(S22)。ビット拡張情報 2004はビット長変換制御器 2002に入力され、画像 符号化データ 11は画像復号ィ匕器 20に入力される。画像符号化データ 11は、画像 符号化器 10で行われた符号化と逆の手順で復号化され、ビット拡張復号画像信号 2 03とされる(S23)。ビット拡張復号画像信号 203は画素ビット長縮小器 2001に入力 される。ビット拡張情報 2004が、ビット長変換制御器 2002に入力されると、ビット長 変換制御器 2002は復号画像が何ビット拡張されているか、および変換に必要な情 報を示すビット変換情報 2003を出力する。
[0034] 図 8に示すように画素ビット長縮小器 2001においては、入力された Nビット精度の 画像信号 100はビット変換情報 2003に基づいてスィッチ E2によって、各画素のビッ ト長を縮小するかどうかが選択される(S24)。スィッチ E2は縮小を行う場合は、 ON側 に、拡張を行わない場合は OFF側に接続する。スィッチ E2を ONとした場合は、画像 信号は画素ビット長縮小変換器 E02に入力され、後述の画素ビット長変換が行われる (S25)。スィッチ E2が OFFの場合は、画像信号は画素ビット長変換されず、そのまま 出力される。例えば、 ex_seq_bit_extention_flag力 TRUEであり、各画素のビット長が拡 張されていることを示している場合はスィッチを ON側に、 FALSEの場合は OFF側に する。
[0035] ビット変換情報 2003が、例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 e x_bit_transform_typeによって例えば数式(1)で示される変換が行われたことを示す BI T_EXT_TRANSを示していた場合、画素ビット長縮小器 2001に入力されたビット拡張 復号画像信号 203は、各画素の値を Mビット縮小する。例えば、ビット拡張復号画像 信号 203のある画素の値が Kであった場合、 Mビット縮小した後の画素値 K'は以下 のように計算される。
K' = (K + offset) » M
oifset= (1« (M- 1) ) · ' · (2)
これは四捨五入を用いて、画素値を Μビット小さいビット長に縮小する方法の一例 であり、ここでの縮小変換方法は、例えば、 offsetを 0〜(: Κく Μ)の任意の値にするな ど、ビット長を小さくする方法であれば、どのような変換方法でもよい。
[0036] ビット変換情報 2003が、例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 e x_bit_transform_typeによって例えば数式(1 1)で示されるガンマ変換が行われたこ とを示す GAMMA_TRANSを示している。 gamma_valueによってガンマ値が γであること が示されている場合には、画素ビット長縮小器 2001に入力されたビット拡張復号画 像信号 203は、各画素の値を Μビット縮小する。例えば、ビット拡張復号画像信号 20 3のある画素の値が Κであった場合、 Μビット縮小した後の画素値 K'は以下のように 計算される。
Κ,=ΙΝΤ〔〔{Κ/ ((1くく Μ)_ 1)}1/ γ X ((l « N)- l)] + offset]
… 一 1) ビット変換情報 2003が、例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 e x_bit_transform_typeによって例えば数式(1— 2)で示されるダイナミックレンジ変換が 行われたことを示す DR_TRANSを示しており、 min.value, maxvalueによって入力画像 の画素の最小値と最大値がそれぞれ Max, Minであることが示されてレ、る場合には 、画素ビット長縮小器 2001に入力されたビット拡張復号画像信号 203は、各画素の 値を Mビット縮小する。例えば、ビット拡張復号画像信号 203のある画素の値が Kであ つた場合、 Mビット縮小した後の画素値 K'は以下のように計算される。
K, = INT〔〔{ (K-(Min «M)) / ((Max -Min) «M)} y X ((1 « N)_ 1)〕 + offset]
-(2-2)
INTは整数に丸めを行う処理を示す。数式(2_1), (2_2)での offsetは、丸めを行 うときのオフセットを示し、 0〜1の任意の値である。
ビット変換情報 2003が、例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 復号画像信号のカラースペースが例えば図 5に示すサプリメンタルシンタクス内で指 定されている color_space_of_decoded_imageで指定されている色空間とは異なる色空 間であった場合には復号画像の各コンポーネントの各画素を color_space_of_decoded_ imageで指定されている色空間に変換した後、ビット長を Mビット縮小する。例えば、 入力画像が RGB力 YCoCgに変換されて符号化されており、 color_space_of_ decode d_imageに RGBが指定されてレ、る場合には、復号画像の各コンポーネントの各画素 Y , Co, Cgに対し、以下の数式(2— 3)によりビット縮小と色空間変換が行われ、各コ ンポーネントの各画素がそれぞれ R, G, Bに変換される。
t=(Y-((Cg-(l « (N + M-1))) » 1))
G' =Cliply(t+ (Cg-(l « (N + M-1))))
B' =Cliply(t-((Co- (l « (Ν + Μ-1)))» 1))
R'=Cliply(B' + (Co-(l « (N + M-1))))
offset = (1«(M-1))
R= (R, + offset) » M
G= (G, + offset)〉〉 M
B= (B, + offset)》 M … 3)
ここで、 Cliply (A)は Aが 0<Aく(Kく(N + M) )を満たす場合には Aをそのまま出 力し、 Aく 0ならば 0を、 A≥ (1<< (N + M) )なら(1くく(N + M) )— 1を出力する処理 を表している。これは四捨五入を用いて、画素値を Mビット小さいビット長に縮小する 方法の一例であり、ここでの縮小変換方法は、例えば、 offsetを 0〜(1 < < M)の任意 の値にするなど、ビット小さくする方法であれば、どのような変換方法でもよい。
[0038] ここでは復号画像信号の色空間がサプリメンタルシンタクス内で指定されている colo r_space_of_decoded_imageで指定されている例を示した力 S、このような指定がない場合 や、ハイレベルシンタクス 401にサプリメンタルシンタクスで示した例と同様に復号画 像信号の色空間を指定している場合でも、復号画像を出力する過程で色変換処理 が行われる場合には、色変換処理を行った後、画素値を Mビット小さいビット長に縮 小してもよレ、。また、ここで示した色変換は一例であり、色変換を行う処理であればど のような処理を行ってもよレ、。
[0039] 以上に示した縮小変換は一例であり、ビット長を小さくする方法であれば、どのよう な変換方法でもよい。
[0040] 以上のようにして、画像符号化装置に入力された入力画像と同じ Nビット精度の復 号画像 202が画素ビット長縮小器 2001より出力される(S25)。
[0041] 以上の構成によれば、画像符号化および画像復号化が、入力画像のビット精度より も Mビット大きなビット精度で行うことができ、符号化効率を向上させることができる。
[0042] (第 2の実施形態)
図 9Aを参照して第 2の実施形態に係る動画像符号化のための画像符号化装置の 構成を説明する。図 9に示すように、この画像符号化装置は、画素ビット長拡張器 (画 素ビット精度変換器) 1001、ビット長変換制御器 (ビット精度変換制御器) 1002、減 算器 101、直交変換器 104、量子化器 106、逆量子化器 109、逆直交変換器 110、 加算器 111、ノレープフィノレタ 113、フレームメモリ 114、予測画像作成器 115、ェント 口ピー符号ィ匕器 108を備えている。入力画像信号を受ける画素ビット長拡張器 1001 の出力は減算器 101、直交変換器 104および量子化器 106を介してエントロピー符 号化器 108に接続される。量子化器 106の出力は逆量子化器 109,逆直交変換器 1 10,加算器 111,ループフィルタ 113、フレームメモリ 114を介して予測画像作成器 1 15に接続される。予測画像作成器 115からの予測画像信号は減算器 101およびカロ 算器 111に入力される。予測画像作成器 115からの動きべ外ル /予測モード情報 はエントロピー符号ィ匕器 108に入力される。ビット長変換制御器 1002はビット変換情 報を画素ビット長拡張器 1001に入力し、ビット拡張情報をエントロピー符号ィ匕器 108 に入力する。
[0043] 上記構成の画像符号ィ匕装置の動作を図 9Bのフローチャートを参照して説明する。
画像符号化装置に、入力画像信号 100として例えばフレーム単位で動画像信号が 入力されると(S31)、画素ビット長拡張器 1001は、入力された Nビット精度の画像信 号 100の各画素の値を Nビットより Mビット大きな(N + M)ビット精度に拡張する処理 を行う(S32)。例えば、入力画像信号のある画素の値が Kであった場合、 Mビット拡 張した後の画素値 K'は例えば数式(1)や数式(1 _ 1) , (1 - 2) , (1 _ 3)などによつ て計算される。
[0044] 拡張されるビット数 Mなどの変換情報は、ビット長変換制御器 1002によりビット拡張 情報 1003としてエントロピー符号化器 108に導かれる(S33)。画素ビット長拡張器 1 001の構成例として、図 2の構成をとり、第 1の実施形態と同様に各画素のビット長を 拡張するかどうかをフラグで切り替えて制御する処理を行ってもよい。
[0045] 減算器 101により、(N + M)ビット精度にビット長が拡張された入力画像信号 100と
(N + M)ビット精度で作成された予測画像信号 102との差分がとられ、(N + M)ビッ ト精度の予測誤差信号 103が生成される(S34)。生成された予測誤差信号 103は、 直交変換器 104により直交変換 (例えば、離散コサイン変換 (DCT) )される(S35)。 直交変換器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得られる 。直交変換係数情報 105は、量子化器 106により量子化され、量子化直交変換係数 情報 107はエントロピー符号ィ匕器 108および逆量子化器 109に入力される。量子化 直交変換係数情報 107は逆量子化器 109及び逆直交変換器 110により、量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて、即ち局部復号化されて 予測誤差信号と同様の信号、即ち局部復号誤差信号に変換される。この局部復号 誤差信号は加算器 111で (N + M)ビット精度の予測画像信号 102と加算されること により、 (N + M)ビット精度の局部復号画像信号 112が生成される。即ち、量子化直 交変換係数情報 107が局部復号化される(S36)。局部復号画像信号 112は、必要 に応じてループフィルタ 113によりフィルタ処理がなされた後、フレームメモリ 114に 格納される。
[0046] 予測画像作成器 115は、 (N + M)ビット精度にビット長が拡張された入力画像信号 100及びフレームメモリ 114に格納された (N + M)ビット精度の局部復号画像信号 1 12から、ある予測モード情報に基づく(N + M)ビット精度の予測画像信号を生成す る。この際、加算器 111からの(N + M)ビット精度の局部復号画像信号 112はフレー ムメモリ 114に一旦蓄えられる。フレーム内のブロック毎に(N + M)ビット精度の入力 画像信号 100とフレームメモリ 114に蓄えられた(N + M)ビット精度の局部復号画像 信号 112との間のマッチング(例えば、ブロックマッチング)により、動きベクトルが検 出される(S37)。この動きベクトルで補償された (N + M)ビット精度の局部画像信号 を用いて (N + M)ビット精度の予測画像信号を作成する(S38)。ここで生成された( N + M)ビット精度の予測画像信号 102は、選択された予測画像信号の動きベクトル 情報/予測モード情報 116とともに予測画像作成器 115より出力される。
[0047] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され(S39) 、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0048] なお、拡張するビット数 Mの符号化方法については、第 1の実施形態と同様である 。また、本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに 多重化されたデータを利用することが可能である。
[0049] 次に、図 10Aを参照して、本実施形態に係る画像複号化装置の構成を説明する。
この画像複号化装置は、エントロピー復号化器 200、逆量子化器 109、逆直交変換 器 110、加算器 111、ループフィルタ 113、フレームメモリ 114、予測画像作成器 115 、画素ビット長縮小器 (画素ビット精度変換器) 2001、ビット長変換制御器 (ビット精 度変換制御器) 2002を備えている。符号化データを受けるエントロピー復号ィ匕器 20 0の係数情報出力は逆量子化器 109、逆直交変換器 110、加算器 111、ループフィ ルタ 113を介して画素ビット長縮小器 2001に接続される。ループフィルタ 113の出 力はフレームメモリ 114を介して予測画像作成器 115の一方入力に接続される。予 測画像作成器 115の他方入力は予測画像作成器 115から動きベクトル/予測モー ド情報を受けている。予測画像作成器 115の出力は加算器 111に接続される。ェン トロピー復号ィ匕器 200のビット拡張情報出力はビット長変換制御器 2002を介して場 素ビット長縮小器 2001に接続される。
[0050] 図 10Bを参照して画像復号化装置の動作を説明する。画像復号化装置に図 9Aの 画像符号化装置によって符号化された符号ィ匕データ 117が入力されると(S41)、ェ ントロピー複号化器 200において、符号ィ匕データ 117がエントロピー符号ィ匕の逆の手 順に従って複号化され (S42)、量子化直交変換係数情報 107、動きベクトル Z予測 モード情報 116、ビット拡張情報 2004が得られる。
[0051] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて(N + M)ビット 精度の残差信号 201に変換される(S43)。動きベクトル/予測モード情報 116は予 測画像作成器 115に入力され、フレームメモリ 114に格納された(N + M)ビット精度 のビット拡張復号画像信号 203から動きベクトル/予測モード情報 116に基づく(N + M)ビット精度の予測画像信号 102が生成される(S44)。 (N + M)ビット精度の残 差信号 201と(N + M)ビット精度の予測画像信号 102は、加算器 111によって加算 され、復号画像信号が生成される(S45)。この復号画像信号はループフィルタ 113 で必要に応じてフィルタ処理がなされ、(N + M)ビット精度のビット拡張復号画像信 号 203として出力され、フレームメモリ 114に格納される。エントロピー復号ィ匕器 200 力 出力されたビット拡張情報 2004は、ビット長変換制御器 2002に入力されると、 ビット長変換制御器 2002から復号画像が何ビット拡張されているかを示すビット変換 情報 2003が出力される。
[0052] 画素ビット長縮小器 2001に入力されたビット拡張復号画像信号 203は、ビット変換 情報 2003に基づいて、例えば数式(2)や数式(2— 1), (2- 2) , (2— 3)などに基 づいて第 1の実施形態と同様の処理を受け、各画素の値を Mビット縮小する(S46)。 画素ビット長縮小器 2001は、図 8に示される構成とし、第 1の実施形態と同様に各画 素のビット長を縮小するかどうかをフラグで切り替える制御が行われてもよい。
[0053] 以上のようにして、画像符号化装置に入力された入力画像と同じ Nビット精度の復 号画像信号 202が画素ビット長縮小器 2001より出力される(S47)。
[0054] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができ、結果的に予測誤差信号を小さくすることができるため、符号化効率を 向上させることができる。
[0055] (第 3の実施形態)
図 11Aに、本発明の第 3の実施形態に係る動画像符号化のための画像符号化装 置の構成を示す。この画像符号化装置は、第 2の実施形態で示した構成例(図 9)と ほぼ同様の構成であるが、フレームメモリ 114の前段に画素ビット長変換器 1005を 備え、フレームメモリ 114の後段に画素ビット長変換器 (画素ビット精度変換器) 1006 を備える点が異なっている。
[0056] 図 11Bを参照してこの画像符号化装置の動作を説明する。この画像符号化装置に は、画像信号 100として例えばフレーム単位で動画像信号が入力される(S51)。画 素ビット長拡張器 (画素ビット精度変換器) 1001は、第 2の実施形態と同様の処理を 行うことにより、入力された Nビット精度の画像信号 100の各画素の値について、 Nビ ットより Mビット大きな(N + M)ビット精度に拡張する処理を行う(S52)。拡張されたビ ット数 Mは、ビット長変換制御器 1002によりビット拡張情報 1003としてエントロピー 符号化器 108に導かれる。画素ビット長拡張器 1001は、図 2の構成とし、第 1の実施 形態と同様に各画素のビット長を拡張するかどうかをフラグで切り替えて画素ビット長 を制御する処理を行ってもよい。
[0057] 減算器 101により、(N + M)ビット精度にビット長が拡張された入力画像信号 100と
(N + M)ビット精度で作成された予測画像信号 102との差分がとられ、(N + M)ビッ ト精度の予測誤差信号 103が生成される(S53)。生成された予測誤差信号 103は、 直交変換器 104により直交変換 (例えば、離散コサイン変換 (DCT) )される。直交変 換器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得られる。直交 変換係数情報 105は、量子化器 106により量子化される。即ち、予測誤差信号 103 は直交変換され、量子化される(S54)。量子化直交変換係数情報 107はエントロピ 一符号化器 108および逆量子化器 109に導かれる。
[0058] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて局部復号誤差 信号に変換され、加算器 111で (N + M)ビット精度の予測画像信号 102と加算され る。これにより、(N + M)ビット精度の局部復号画像信号 112が生成される。即ち、量 子化直交変換係数情報 107は、局部符号化される(S55)。
[0059] (N + M)ビット精度の局部復号画像信号 112は、必要に応じてループフィルタ 113 によりフィルタ処理がなされた後、画素ビット長変換器 1005に入力され、各画素の値 を Lビット小さな値に縮小変換し、または各画素の値を Lビット大きな値に拡大変換す る(S56)。例えば、(N + M)ビット精度の局部復号画像信号 112のある画素の値が Kであった場合、 Lビット縮小した後の画素値 K'は以下のように計算される。
K' = (K + offset) » L
oifset= (1« (L- 1) ) · ' · (3)
ここで、縮小するビット数 Lは、 0< L≤Mを満たす整数である。ビット長を縮小した結 果、局部復号画像信号 112の各画素のビット長は (N + M— L)ビットとなる。 ここでの 縮小変換方法は、例えば、 offsetを 0〜(: Kく L)の任意の値にするなど、ビット長を小 さくする方法であれば、どのような変換方法でもよい。
[0060] 変換方法の他の手法を説明する。図 11Cには、符号化単位画像の画素値のヒスト グラム (左側)とビット精度変換後のヒストグラム (右側)が示されている。図 11Cに示す ように、例えば 12ビットに拡張された局部復号画像 112を 8ビット長の画像に縮小す る場合、 12ビット長に拡張された局部復号画像 112を例えばマクロブロック単位など の任意の符号化単位ごとに画素値の最大値 mbjnaxと最小値 mbjninからダイナミック レンジ D=(mb_max-mb_min)を算出する。このダイナミックレンジ Dが 8ビットで表される 範囲、即ち 0〜255であれば、そのブロックは 8ビットに変換されてフレームメモリ 114 に出力される。このとき、このブロックの画素値の最大値 mbjnax及び/又は最小値 m bjninを用いて決められる代表値もフレームメモリ 114に出力される。ダイナミックレン ジ Dが 8ビットで表現できない値であると、ブロックは 2ビット右へのシフトによる除算処 理されてから 8ビットに変換される。このときには、シフト量 Q_bit = 2及び代表値ととも にブロックがフレームメモリ 1 14に出力される。ダイナミックレンジが更に大きい場合は 、図 1 1 Cに示されるように 8ビット変換ブロックがシフト量 Q_bit = 4と代表値とともにフ レームメモリ 1 14に出力される。
[0061] 上記の手法をより詳しく説明すると、図 1 1 Cに示すように、例えばマクロブロック単位 などの任意の符号化単位ごとに、局部復号画像信号 1 12内の画素値の最大値 mbjn axと最小値 mb_minを求め、そのダイナミックレンジ D=(mb_max_mb_min)に応じて縮小 するビット数 Q_bitを (3-1)式を用いて変更される。
[0062] この場合、画素ビット長変換器 1005は例えば図 1 1Dのような構成となっており、ま ず、ダイナミックレンジ算出部 10051で局部復号画像信号 1 12内の画素値の最大値 mbjnaxと取/」ヽィ直 mb_min¾r求め、そのタイナミックレンン D=(mb_max-mb_min)を求める
[0063] 次にシフト量/代表値算出部 10052において、ダイナミックレンジ Dに応じてシフト 量 Q_bitを例えば(3— la)式を用いて算出する。また例えば mb_minを代表値として設 定する。
[0064] Q— bit = log2(D) —(N+M-L- 1) - - - (3 - l a)
さらに、画素ビット精度変換器 10053において、ビット拡張復号画像信号のある画素 の値が Kであった場合、 Lビット(L〉0)縮小した後の画素値 K'は例えば以下のように 計算され、変換された局部復号画像信号 1 12が、代表値 mbjnin,シフト量 Q_bit (代表 値/シフト量 10054)がフレームメモリ 1 14に出力される。
[0065] Offset = (l«(Q_bit-D)
K' = (K-mb_min + Oifset)»Q_bit …(3 _ lb)
このとき、例えばフレームメモリ 1 14を図 1 1 Fのように参照画像を格納するメモリ 1 14a と各参照画像の各符号ィ匕単位(マクロブロック単位)ごとにどのようにビット精度を変 換したかを示す情報を格納するサブメモリ 1 14bとで構成し、サブメモリ 1 14bには例 えば代表値 mbjninとシフト量 Q_bitを保持しておく。
[0066] また、復号側で N+Mビット精度で得られるビット拡張復号画像信号を Nビット精度に 変換して復号画像信号を得る際に例えば (2)式を用いた場合を考える。このとき、 (3 -1)式を用いて変換した (N + M— L)ビット精度の局部復号画像信号をフレームメモリ に格納し、(3-1)式の逆の手順でフレームメモリからビット精度が N+Mビットに拡張され た局部復号画像信号を読み出すと、得られる N+Mビット精度の局部復号画像信号が N+M-Lビットに変換される前の局部復号画像信号を直接(2)式で変換した場合と異 なる値が算出される場合がありうる。このことを考慮した変換式が以下の (3_2)_(3-6) 式となる。
[0067] まず、ダイナミックレンジ算出部 10051部において、例えばマクロブロック単位など の任意の符号化単位ごとに、局部復号画像信号 112内の画素値の最大値 mbjnaxと 最 /J、値 mbjninを求め、そのダイナミックレンジ D=(mb_max-mb_min)を求める。
[0068] 次に、シフト量 Z代表値算出部 10052において、ダイナミックレンジ Dに応じて縮 小する仮のビット数 Q_bitと Q_bitでシフト演算を行う際に用いるオフセット値 Offsetを(3 _ 2)式を用いて算出する。
[0069] mb.min = INT(mb_min»L)
D = mb— max_(mb— mm《L)
Q— bit = log2(D) - (N+M-L- 1)
Offset = (Kく (Q— bit-l》 …(3— 2)
次に、 Q_bitの値が 0か Lでない場合に、以下の条件式(3— 3)を満たすかどうかを判 定する。
[0070] D + Offset > (1《N+M- L+Q— bit) - 1 - Offset ) …(3— 3)
ここで、(3— 3)の不等式を満たさない場合は、 (3— 4)式に示すとおり、 Q_bitを 1加算 し、改めてオフセット値 Offsetの再計算を行う。
[0071] Q_bit = Q_bit+1
Offset = (1くく (Q_bit-1》 …(3 _4)
なお、 Q_bitの値が 0か Lの場合は(3— 2)式の Q_bitと Offsetをそのまま用いる。
[0072] 最後に、画素ビット精度変換器 10053において、ビット拡張復号画像信号のある画 素の値が Kであった場合、 Lビット(L〉0)縮小した後の画素値 K'は例えば以下のよう に計算され、変換された局部復号画像信号 112が、代表値 mbjnin,シフト量 Q_bit (代 表値/シフト量 10054)がフレームメモリに出力される。 [0073] . Q_bitが 0か Lの場合
K' = (K - (min_mb«L) + Offset) » Q— bit - (3 -5)
•Q_bitが 0か Lでない場合
K' = (K - (min_mb«L) + 2*Offset) » Q_bit … 一 6) このとき、 (3— 1)式を用いた場合と同様に、フレームメモリ 114は、各フレームの各符 号化単位ごとにどのようにビット精度を変換したかを示す情報を記憶するサブメモリ持 ち、ここに例えば代表値 mbjninとシフト量 Q_bitを保持しておく。
[0074] 以上のように(3_ 1)や(3_ 2)〜(3 _6)式を用いてマクロブロックなどの符号化単 位ごとの各画素のダイナミックレンジを考慮して、各画素値を Lビット小さな値に縮小 変換した場合、 (3)式のように単純に Lビット小さな値に縮小変換した場合と比較して 、縮小時のシフト演算によって生じる丸め誤差を小さく抑えることができ、参照画像信 号をより精度を保った状態でフレームメモリに保存することが可能となる。
[0075] 上記実施形態では、代表値を画素値の最小値 mbjninとした力 S、他の値であっても よぐ画素値の最大値 mb_maxと最小値 mbjninによって決まる値であってもよレ、。
[0076] 逆に、各画素の値を(— L)ビット大きな値に拡大変換する場合には、例えば、ビット 拡張復号画像信号のある画素の値が Kであった場合、(一 L)ビット拡張した後の画素 値 K'は例えば以下のように計算される。
K' =Kくく (一 L) …(
ここで、拡大するビット数 Lは 0く(一 L)を満たす整数である。ビット長を拡大した結 果、局部復号画像信号 112の各画素のビット長は (N + M— L)ビットとなる。 図 12に 画素ビット長変換器 1005の構成例を示す。入力された Nビット精度の画像信号 100 はビット長拡張情報 1003に基づいてスィッチ E3によって、各画素のビット長を拡張 するかどうかを選択される。スィッチ E3は拡張を行う場合は、〇N側に、拡張を行わな い場合は OFF側に接続する。スィッチ E3を ONとした場合、画素ビット長変換器 100 5に入力された画像信号は、画素ビット長拡張/縮小変換器 E03に入力され、画素ビ ット長変換される。スィッチ E3が OFFの場合は、画像信号は画素ビット長変換されず、 そのまま出力される。このように、ビット長を縮小あるいは拡大された局部復号画像信 号 112は、フレームメモリ 114に格納される(S57)。フレームメモリ 114に格納された( N + M— L)ビット精度の局部復号画像信号 112は、予測画像作成器 115に入力され る前に、画素ビット長変換器 1006に導かれ、 L >0の場合には各画素のビット長を L ビット大きなビット精度に拡張変換する(S58)。例えば、(N + M— L)ビット精度の局部 復号画像信号 112のある画素の値が Kであった場合、 Lビット拡張した後の画素値 K' は例えば以下のように計算される。
K,=Kくく L - - - (5)
また、変換方法の他の手法として、図 11Cに示すように、例えばマクロブロックなど の任意の符号化単位ごとに、局部復号画像信号 112内の画素値の最大値 mbjnaxと 最小値 mbjninを求め、そのダイナミックレンジ D=(mb_max-mb_min)に応じて縮小する ビット数 Q_bitを (3-1)式に示す式を用いて変更した場合には、画素ビット精度変換器 1006は例えば図 11Eのような構成を用いて、シフト量 Z代表値読み出し部 10061 においてフレームメモリ 114内のサブメモリ 114bから、該符号化単位の代表値 mbjni nとシフト量 Q_bit (代表値/シフト量 10054)を読み出し、画素ビット精度変換部 100 62において、例えば以下の式を用いてビット精度を Lビット拡張した後の画素値 K'を 計算する。
K' = (K«Q_bit) + mb.min · ' · (5— 1)
また、変換方法のさらに別の手法として、(3— 2)〜(3— 6)式に示す式を用いて変 更した場合には、シフト量/代表値読み出し部 10061においてフレームメモリ 114内 のサブメモリから、該符号化単位の mbjninと Q_bitを読み出し、画素ビット精度変換部 10062において、例えば以下の式を用いてビット精度を Lビット拡張した後の画素値 K'を計算する。
Q_bitが 0か Lの場合
K' = (K «Q_bit ) + (mbjninくく L)
Q_bitが 0か Lでない場合
K, = (K«Q_bit) + (mb_min«L) - (l«(Q_bit - 1))
- (5 - 2)
一方、 Lく 0の場合には、各画素のビット長を(-L)ビット小さなビット精度に縮小変 換する。例えば、ビット拡張復号画像信号のある画素の値が Kであった場合、(_U ビット縮小した後の画素値 K'は例えば以下のように計算される。
K' = (K + offset) » (-L)
oifset= (1« (-L- 1) ) · ' · (6)
ここでの縮小変換方法は、例えば、 offsetを 0〜(: 1くく(_L) )の任意の値にするなど 、ビット長を小さくする方法であれば、どのような変換方法でもよい。画素ビット長変換 器 1006は、画素ビット長変換器 1005と同様の図 12に示す構成とし、各画素のビット 長を変換するかどうかの処理をフラグで切り替える制御を行ってもよい。このような変 換を行うことによって、予測画像作成器 115に出力される局部復号画像信号 112の ビット精度は、(N + M)ビット精度となる。
[0078] フレームメモリ 114の前後で縮小/拡大されるビット長 Lは、 L≤Mを満たす整数で あり、かつフレームメモリ 114の前後で縮小/拡大されるビット数が等しければよい。
L = 0の場合は、フレームメモリ 114に格納する際あるいはフレームメモリ 114から出 力する際のビット拡張/ビット縮小は行われない。画素ビット長変換器 1005および画 素ビット長変換器 1006で行われる変換は、前述の数式(3)〜(6)に限るものではな ぐ指定のビット長だけ拡大/縮小が行われる変換であれば、どのような変換を行つ てもよレ、。このビット数 Lについても、ビット長変換制御器 1002によりビット拡張情報 1 003としてエントロピー符号化器 108に導かれる。
[0079] 予測画像作成器 115は、 (N + M)ビット精度にビット長が拡張された入力画像信号
100及び (N + M)ビット精度の局部復号画像信号 112からある予測モード情報に基 づく(N + M)ビット精度の予測画像信号を生成する。この際、フレーム内のブロック 毎に(N + M)ビット精度の入力画像信号 100と画素ビット長変換器 1005によって (N + M)ビット精度に拡大された局部復号画像信号 112との間のマッチング (例えば、 ブロックマッチング)をとり、動きベクトルを検出する(S59)。この動きベクトルで補償さ れた(N + M)ビット精度の局部画像信号を用いて (N + M)ビット精度の予測画像信 号を作成する(S60)。ここで生成された(N + M)ビット精度の予測画像信号 102は、 選択された予測画像信号の動きべ外ル情報/予測モード情報 116とともに予測画 像作成器 115より出力される。
[0080] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され(S61 ) 、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0081] 次に、拡張するビット数 Mおよび Lの符号化方法について説明する。本実施形態で 使用されるシンタクスの構造の例は、第 1の実施形態で用いた図 3と同様である。本 実施形態では、拡張するビット数をシーケンスパラメータセットシンタクス (404)、ピク チヤ一パラメータセットシンタクス(405)、スライスレベルシンタクス(402)、および、マ クロブロックレベルシンタクス(403)に含めて送信することが可能である。それぞれの シンタクスを以下で説明する。
[0082] 図 13のシーケンスパラメータセットシンタクス内に示される ex_seq_bit_extention_flag は、ビット拡張を行うかどうかを示すフラグであり、当該フラグが TRUEであるときは、 ビット拡張を行うか否かをシーケンス単位で切り替えることが可能である。一方、フラ グカ SFALSEであるときは、シーケンス内ではビット拡張は行われない。 ex_seq_bit_ext ention_flagが TRUEのときは更に何ビット拡張を行うかを示す ex_seq_shift_bitsを送信 してもよい。
[0083] ex_seq_bit_extention_flagが TRUEのときは更にフレームメモリ 114に格納される際の ビット精度を示す ex_framemem_bitdepthを送信してもよい。本実施形態では、例えば N + M— L力 x_framemem_bitdepthに格納されて送信されることになる。
[0084] 本実施形態では、任意の符号化単位でビット拡張を行うか否かを切り替えたり、拡 張するビット数を切り替えたりすることも可能である。この場合には、拡張するビット数 をさらにピクチャーパラメータセットシンタクス(405)、スライスレベルシンタクス(402) 、および、マクロブロックレベルシンタクス(403)に含めて送信することが可能である。
[0085] 図 14のピクチャーパラメータセットシンタクス内に示される ex_pi bit_extention_flagは 、ピクチャ毎にビット拡張を行うかどうかを変更するかどうかを示すフラグである。当該 フラグが TRUEであるときは、ピクチャ単位でビット拡張を行うどうかを切り替えること が可能である。一方、フラグが FALSEであるときは、ピクチャ毎にピクチャ単位でビッ ト拡張を行うどうかを変更することが出来なレ、。 ex_pic_bit_extention_flagが TRUEのと きは更に何ビット拡張を行うかを示す ex_pic_shift_bitsが送信される。ここで、シーケン スパラメータシンタクス内の ex_seq_shift_bitsでシーケンスレベルで拡張するビット数が 指定されてレ、た場合には、 ex_pic_shift_bitsを拡張するビット数として優先してもよレ、し 、 ex_seq_shift_bitsを拡張するビット数として優先してもよレ、し、 ex_seq_shift_bits + ex_pic _shift_bitsを拡張するビット数としてもよレ、。いずれを優先するかは、予め取り決めてお くのが好ましい。
[0086] ピクチャーパラメータセットシンタクス内には、 ex_bit_extention_in_slice_flag、 ex_bit_ex tention_in_mb_flagとレ、うフラグが存在していてもよレ、。これらのフラグはそれぞれ、スラ イスレベル、マクロブロックレベルでビット拡張を行うかどうかを変更するフラグが存在 するかどうかを示すフラグである。
[0087] 図 15に示すとおり、スライスレベルシンタクス内では、 ex_bit_extention_in_slice_flagが TRUEのときは、 ex_slice_shift_bitsが送信され、スライス単位で拡張するビット数を切 り替えて送信することが可能である。ここで、すでにシーケンスパラメータセットシンタ タス、ピクチャパラメータシンタクスによって拡張するビット数 Sが指定されている場合 には、 Sを拡張するビット数として優先してもよいし、 ex_slice_shift_bitsを拡張するビット 数として優先してもよいし、 S+ ex_slice_shift_bitsを拡張するビット数として優先してもよ レヽ。なお、いずれを優先するかは、予め取り決めておくのが好ましい。一方、 ex_bit_ex tention_in_slice_flagが FALSEの場合には、 ex_slice_shift_bitsは送信されない。
[0088] 図 16に示すとおり、マクロブロックレベルシンタクス内では、 ex_bit_extention_in_mb_fl agが TRUEのときは、 ex_mb_shift_bitsが送信され、マクロブロック単位で拡張するビッ ト数を切り替えて送信することが可能である。ここで、すでにシーケンスパラメータセッ トシンタクス、ピクチャパラメータシンタクス、スライスレベルシンタクスによって拡張す るビット数 Sが指定されてレ、る場合には、 Sを拡張するビット数として優先してもよレ、し、 ex_mb_shift_bitsを拡張するビット数として優先してもよいし、 S+ ex_mb_ shift_bitsを拡張 するビット数として優先してもよレ、。いずれを優先するかは、予め取り決めておくのが 好ましレヽ。一方、 ex_bit_extention_in_mb_flagが FALSEの場合には、 ex_slice_ shift.bit sは送信されない。
[0089] 上述のように、任意の符号ィ匕単位でビット拡張を行うか否力 ^切り替える場合、ある レ、は、拡張するビット数を切り替える場合には、フレームメモリ 114に格納される局部 復号画像信号のビット精度がシーケンスパラメータセットシンタクス内に示される ex_fra memem_bitdepthになるように Lが定められる。
[0090] 本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに多重 化されたデータを利用することが可能である。
[0091] 次に、図 17Aを参照して本実施形態に係る画像復号化装置の構成を説明する。こ の画像復号化装置は、第 2の実施形態で示した構成例(図 10A)とほぼ同様の構成 である力 加算器 111 (及びループフィルタ 113)の後段に画素ビット長縮小器 2001 の代わりに画素ビット長変換器 (画素ビット精度変換器) 2007を備え、フレームメモリ 114は加算器 111 (及びループフィルタ 113)の後段ではなぐ画素ビット長変換器 2 007の後段に接続され、さらに、フレームメモリ 114の後段に画素ビット長変換器 200 8が接続されてレ、る点が異なる。
[0092] 図 17Bのフローチャートを参照して画像復号化装置の動作を説明する。画像復号 化装置に図 11 Aの画像符号化装置によって符号化された符号化データ 117が入力 されると(S71)、エントロピー復号化器 200において、符号化データ 117がエントロピ 一符号化の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル/ 予測モード情報 116、ビット拡張情報 2004が得られる(S72)。
[0093] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて(N + M)ビット 精度の残差信号 201に変換される(S73) (S74)。
[0094] エントロピー復号化器 200から出力されたビット拡張情報 2004は、ビット長変換制 御器 2002に入力されると、復号画像が何ビット拡張されているかを示すビット数 Mと 、フレームメモリに格納される際に縮小するビット数 Lを示すビット変換情報 2003をビ ット長変換制御器 2002から出力する。
[0095] 画素ビット長変換器 2008は、後述の手順でフレームメモリ 114に格納された(N + M— L)ビット精度の復号画像信号 202に対し、ビット変換情報 2003に基づいて、例 えば L > 0の場合には、数式(5) (5- 1) (5— 2)などと同等の処理を施すことによつ て画素ビット長を Lビット大きく拡張変換する処理を行い(S75)、 L< 0の場合には、 数式 (6)などと同等の処理を施すことによって画素ビット長を(-L)ビット小さく縮小 変換する処理を行い、(N + M)ビット精度のビット拡張参照画像信号 204を出力する (S75)。なお、 (5— 1)や(5— 2)と同様の処理を施す場合、画素ビット長変換器 200 8の構成を図 11Dと同様の構成としてもよい。またフレームメモリ 114を例えば図 11F と同様の構成としてもよい。
[0096] 動きベクトル Z予測モード情報 116は予測画像作成器 115に入力され、上記 (N + M)ビット精度のビット拡張参照画像信号 204から動きベクトル Z予測モード情報 11 6に基づく(N + M)ビット精度の予測画像信号 102が生成される(S77)。 (N + M)ビ ット精度の残差信号 201と (N + M)ビット精度の予測画像信号 102は、加算器 111 によって加算される。加算された信号は、ループフィルタ 113で必要に応じてフィルタ 処理がなされ、(N + M)ビット精度のビット拡張復号画像信号 203が出力される(S7 8)。
[0097] ビット拡張復号画像信号 203は、画素ビット長変換器 2007に入力され、ビット変換 情報 2003に基づいて各画素の値に対し例えば数式(2)などの第 1の実施形態の画 像復号化装置における画素ビット長縮小器と同等の処理を施されることにより、 Mビッ ト小さな値に画素ビット長が縮小変換され (S79)、画像符号化装置に入力された入 力画像と同じ Nビット精度の復号画像 202を得る(S80)。
[0098] 画素ビット長変換器 2007は、図 12の構成とし、各画素のビット長を縮小するかどう 力をフラグで切り替える制御を行ってもよい。
[0099] M = Lの場合には、 Nビット精度の復号画像信号 202はそのままフレームメモリ 114 に格納される。 M≠Lであり、 L >0の場合には、(N + M)ビット精度のビット拡張復号 画像信号 203に対して、例えば数式(3) (3 - 1) (3— 2)〜(3— 6)と同様の処理を各 画素毎に行うことで、 Lビットだけビット長が縮小された (N + M— L)ビット精度の復号 画像を作成し、フレームメモリ 114に格納する。逆に Lく 0の場合には、数式 (4)と同 様の処理を各画素に対して行うことで、 (-L)ビットだけビット長が縮小された(N + M —L)ビット精度の復号画像を作成し、フレームメモリ 114に格納する。なお、(3— 1) や(3— 2)〜(3— 6)と同様の処理を施す場合、画素ビット長変換器 2007の構成を 図 11Dと同様の構成としてもよい。
[0100] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができ、結果的に予測誤差信号を小さくすることができるため、符号化効率を 向上させることができる。また、第 1、第 2の実施形態と異なり、 0<L≤Mの場合には 、フレームメモリに格納される参照画像信号を、ビット長が拡張された入力画像信号 や予測画像信号より小さなビット長で格納することができ、動き補償のフィルタやルー プフィルタ、画面内予測など精度を高める効果を保ったまま、フレームメモリの使用量 を削減することが可能となる。
[0101] 以上の構成によれば、任意の符号化単位でビット拡張を行うか否かを切り替えたり 、拡張するビット数を切り替えたりすることができ、任意の符号化単位ごとに最も符号 化効率のよい拡張ビット数を選択して符号ィ匕することができるため、さらに符号化効 率を高めることも可能である。
[0102] (第 4の実施形態)
図 18Aを参照して第 4の実施形態に係る動画像符号化のための画像符号化装置 の構成を説明する。この画像符号化装置は、第 2の実施形態で示した構成例(図 9) と比較して、入力画像に対し画素ビット長を拡大する画素ビット長拡張器を備えず、 フレームメモリ 114 (及びループフィルタ 113)の前段に画素ビット長拡張器(画素ビッ ト精度拡張変換器) 1001を備え、予測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度縮小変換器) 1004を備える点が異なっている。
[0103] 図 18Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、入力画像信号 100として例えばフレーム単位で各画素の精度が 例えば Nビット精度の動画像信号が入力される(S81)。減算器 101により入力画像 信号 100と Nビット精度の予測画像信号 102との差分がとられ、 Nビット精度の予測 誤差信号 103が生成される(S82)。 Nビット精度の予測画像信号 102の生成方法に ついては後述する。生成された予測誤差信号 103に対して、直交変換器 104により 直交変換 (例えば、離散コサイン変換 (DCT) )が施され、直交変換器 104では、直 交変換係数情報 105 (例えば、 DCT係数情報)が得られる(S83)。直交変換係数情 報 105は、量子化器 106により量子化され、量子化直交変換係数情報 107はェント 口ピー符号ィ匕器 108および逆量子化器 109に導かれる。 [0104] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて局部復号誤差 信号に変換される。この局部復号誤差信号は加算器 111で Nビット精度の予測画像 信号 102と加算されることにより、 Nビット精度の局部復号画像信号 112が生成される (S84)。
[0105] 局部復号画像信号 112は、必要に応じてループフィルタ 113によりフィルタ処理が なされた後、画素ビット長拡張器 1001に入力され、各画素の値を Mビット大きな値に 拡張変換する(S85)。例えば、ビット拡張復号画像信号のある画素の値力 であつ た場合、 Mビット縮小した後の画素値 K'は第 1の実施形態の数式(1)と同様に計算 される。ビット精度が(N + M)ビットに拡大された局部復号画像信号 112は、フレーム メモリ 114に格納される(S86)。フレームメモリ 114に格納された(N + M)ビット精度 の局部復号画像信号 112は、予測画像作成器 115に入力される。画素ビット長拡張 器 1001は、図 2の構成とし、第 1の実施形態と同様に各画素のビット長を拡張するか どうかをフラグで切り替えてビット長を制御する処理を行ってもよい。
[0106] 予測画像作成器 115は、 (N + M)ビット精度の局部復号画像信号 112からある予 測モード情報に基づく(N + M)ビット精度の予測画像信号を生成する。この際、フレ ーム内のブロック毎に入力画像信号 100の各画素を (N + M)ビット精度に拡張した 画像信号と、(N + M)ビット精度に拡大された局部復号画像信号 112との間のマツ チング(例えば、ブロックマッチング)をとり、動きベクトルを検出する(S87)。この動き ベクトルで補償された (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精 度の拡張予測画像信号 117を作成する(S89)。ここで生成された (N + M)ビット精 度の拡張予測画像信号 117は、選択された予測画像信号の動きべ外ル情報/予 測モード情報 116とともに予測画像作成器 115より出力される。
[0107] (N + M)ビット精度の拡張予測画像信号 117は、画素ビット長縮小器 1004に入力 され、各画素のビット長が Mビット小さくなる画像信号に変換される(S90)。この変換 は、例えば第 1の実施形態で示した数式(2)と同様の処理により行われる。ここで、縮 小されるビット数 M、および画素ビット長拡張器 1001において拡大されるビット数 M は、ともに同じ値であり、ビット長変換制御器 1002によりビット拡張情報 1003としてェ ントロピー符号化器 108に導かれる。画素ビット長縮小器 1004は、図 8の構成とし、 実施の形態 1と同様に各画素のビット長を拡張するかどうかをフラグで切り替えてビッ ト長を制御する処理を行ってもょレ、。
[0108] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S91) 、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0109] 拡張するビット数 Mの符号化方法は、第 1の実施形態と同様である。また、本実施 形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに多重化された データを利用することが可能である。
[0110] 次に、図 19Aを参照して本実施形態に係る画像復号化装置の構成を説明する。こ の画像復号化装置は、第 2の実施形態で示した構成(図 10A)と比較して、フレーム メモリ 114 (及びループフィルタ 113)の前段に画素ビット長拡張器 2005を備え、予 測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度変換器) 2006を備 える点が異なっている。
[0111] 図 19Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。画像復号 化装置に図 18Aの画像符号化装置によって符号化された符号化データ 117が入力 されると(S101)、エントロピー復号化器 200において、符号化データ 117がェントロ ピー符号化の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル /予測モード情報 116、ビット拡張情報 2004が得られる(S102)。量子化直交変換 係数情報 107は逆量子化器 109及び逆直交変換器 110により、量子化器 106及び 直交変換器 104の処理と逆の処理を順次受けて Nビット精度の残差信号 201に変換 される(S103)。エントロピー複号化器 200から出力されたビット拡張情報 2004は、 ビット長変換制御器 2002に入力されると、復号画像が何ビット拡張されているかを示 すビット変換情報 2003をビット長変換制御器 2002から出力する(S104)。
[0112] 動きベクトル Z予測モード情報 116が予測画像作成器 115に入力されると、後述の 手順でフレームメモリ 114に格納されたビット拡張復号画像信号 203から動きべタト ル/予測モード情報 116に基づく(N + M)ビット精度の拡張予測画像信号 205が生 成される(S105)。
[0113] 画素ビット長縮小器 2006は、(N + M)ビット精度の拡張予測画像信号 205に対し 、ビット変換情報 2003に基づいて、例えば数式(2)などの第 1の実施形態の画像復 号化装置における画素ビット縮小変換器と同等の処理を施すことによって画素ビット 長を Mビット縮小変換する処理を行い(S106)、 Nビット精度の予測画像信号 102を 出力する。画素ビット長縮小器 2006は、図 8の構成とし、実施の形態 1と同様に各画 素のビット長を拡張するかどうかをフラグで切り替えてビット長を制御する処理を行つ てもよい。
[0114] Nビット精度の残差信号 201と Nビット精度の予測画像信号 102は加算器 111によ つて加算され、縮小復号画像信号が生成される(S107)。縮小復号画像信号は画素 ビット長拡張器 2005に入力されると、画素ビット長拡張器 2005は、ビット変換情報 2 003に基づいて、例えば数式(1)などの第 1の実施形態の画像符号化装置における 画素ビット長拡張器で行われる処理と同等の処理を施すことによって画素ビット長を Mビット拡張する処理を行う(S108)。画素ビット長拡張器 2005から出力された信号 は、ループフィルタ 113で必要に応じてフィルタ処理がなされ、ビット(N + M)ビット 精度の拡張復号画像信号 203が出力され (S109)、フレームメモリ 114に格納される 。画素ビット長拡張器 2005は、図 2の構成とし、第 1の実施形態と同様に各画素のビ ット長を拡張するかどうかをフラグで切り替えてビット長を制御する処理を行ってもよ レ、。
[0115] (N + M)ビット精度のビット拡張復号画像信号 203は、画素ビット長縮小器 2001に 入力され、ビット変換情報 2003に基づいて各画素の値に対し例えば数式(2)などの 第 1の実施形態の画像複号化装置における画素ビット縮小変換器と同等の処理を施 されることにより、画像符号化装置に入力された入力画像と同じ Nビット精度の復号 画像 202を得る(S110) (Sl l l)。
[0116] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができる。従って、結果的に予測誤差信号を小さくすることができるため、符 号化効率を向上させることができる。また、第 1〜3の実施形態と異なり、予測誤差信 号および残差信号の変換 ·量子化の処理を入力画像のビット精度に対応した精度で 行うことが可能となり、動き補償のフィルタやループフィルタ、画面内予測など精度を 高める効果を保ったまま、変換 ·量子化のビット精度を削減し、演算規模を小さくする ことが可能となる。
[0117] (第 5の実施形態)
図 20Aを参照して第 5の実施形態に係る動画像符号化のための画像符号化装置 の構成を説明する。この画像符号化装置は、第 2の実施形態で示した構成例(図 9) と比較して、入力画像に対し画素ビット長を拡大する画素ビット長拡張器を備えず、 予測画像作成器 115の前段に画素ビット長拡張器 (画素ビット精度拡張変換器) 10 01を備え、予測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度縮小 変換器) 1004を備える点が異なっている。
[0118] 図 20Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、入力画像信号 100として例えばフレーム単位で各画素の精度が 例えば Nビット精度の動画像信号が入力される(S121)。減算器 101により入力画像 信号 100と Nビット精度の予測画像信号 102との差分がとられ、 Nビット精度の予測 誤差信号 103が生成される(S122)。 Nビット精度の予測画像信号 102の生成方法 については後述する。生成された予測誤差信号 103に対して、直交変換器 104によ り直交変換、例えば離散コサイン変換 (DCT)が施され、直交変換器 104では直交 変換係数情報 105、例えば DCT係数情報が得られる(S123)。直交変換係数情報 105は量子化器 106により量子化され、量子化直交変換係数情報 107は、ェントロ ピー符号化器 108および逆量子化器 109に導かれる。
[0119] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて局部復号誤差 信号に変換される。この局部復号誤差信号は加算器 111で Nビット精度の予測画像 信号 102と加算されることにより、 Nビット精度の局部復号画像信号 112が生成される (S124)。
[0120] Nビット精度の局部復号画像信号 112は、必要に応じてループフィルタ 113により フィルタ処理がなされた後、フレームメモリ 114に格糸内される(S125)。フレームメモリ 114に格納された Nビット精度の局部復号画像信号 112は、画素ビット長拡張器 100 1に入力され、各画素の値を Mビット大きな値に拡張変換する(S126)。例えば、ビッ ト拡張復号画像信号のある画素の値カ¾であった場合、 Mビット縮小した後の画素 値 K'は第 1の実施形態の数式(1)と同様に計算される。ビット精度が (N + M)ビット に拡張された局部復号画像信号 112は、予測画像作成器 115に入力される。画素ビ ット長拡張器 1001は、図 2の構成とし、実施の形態 1と同様に各画素のビット長を拡 張するかどうかをフラグで切り替えてビット長を制御する処理を行ってもよい。
[0121] 予測画像作成器 115は、 (N + M)ビット精度の局部復号画像信号 112からある予 測モード情報に基づく(N + M)ビット精度の予測画像信号を生成する。この際、フレ ーム内のブロック毎に入力画像信号 100の各画素を (N + M)ビット精度に拡張した ものと、(N + M)ビット精度に拡大された局部復号画像信号 112との間のマッチング (例えば、ブロックマッチング)をとり、動きベクトルを検出する(S127)。この動きべタト ルで補償された (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精度の 拡張予測画像信号 117を作成する(S 128)。ここで生成された(N + M)ビット精度の 拡張予測画像信号 117は、選択された予測画像信号の動きべ外ル情報/予測モ ード情報 116とともに予測画像作成器 115より出力される。
[0122] 拡張予測画像信号 117は、画素ビット長縮小器 1004に入力され、各画素のビット 長が Mビット小さくなるよう変換が施される(S129)。この変換は、例えば第 1の実施 形態の画像復号化器で示した数式 (2)と同様の処理を施すことで行われる。ここで、 縮小されるビット数 M、および画素ビット長拡張器 1001において拡大されるビット数 Mは、ともに同じ値であり、ビット長変換制御器 1002によりビット拡張情報 1003とし てエントロピー符号化器 108に導かれる。画素ビット長縮小器 1004は、図 8の構成と し、実施の形態 1と同様に各画素のビット長を拡張するかどうかをフラグで切り替えて 制御する処理を行ってもよい。
[0123] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S130 )、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。 [0124] 拡張するビット数 Mの符号化方法は、第 1の実施形態と同様である。本実施形態に おいては、第 1の実施形態と同様にサプリメンタルシンタクスに多重化されたデータを 利用することが可能である。
[0125] 次に、図 21Aを参照して本実施形態に係る画像復号化装置の構成を説明する。こ の画像復号化装置は、第 2の実施形態で示した構成例(図 10)と比較して、加算器 1 11 (及びノレープフィルタ 113)の後段に画素ビット縮小器を備えず、加算器 111 (及 びノレープフィルタ 113)から復号画像信号 202が出力されるとともに、予測画像作成 器 115の前段に画素ビット長拡張器 (画素ビット精度拡張変換器) 2005を備え、予 測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度縮小変換器) 2001 を備える点が異なっている。
[0126] 図 21Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。画像復号 化装置に図 20Aの画像符号化装置によって符号化された符号ィ匕データ 117が入力 されると(S141)、エントロピー復号化器 200において、符号化データ 117がェントロ ピー符号化の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル /予測モード情報 116、ビット拡張情報 2004が得られる(S142)。量子化直交変換 係数情報 107は逆量子化器 109及び逆直交変換器 110により、量子化器 106及び 直交変換器 104の処理と逆の処理を順次受けて Nビット精度の残差信号 201に変換 される(S143)。エントロピー復号化器 200から出力されたビット拡張情報 2004が、 ビット長変換制御器 2002に入力されると、復号画像が何ビット拡張されているかを示 すビット変換情報 2003をビット長変換制御器 2002から出力する(S144)。
[0127] 画素ビット長拡張器 2005は、後述の手順でフレームメモリ 114に格納された Nビッ ト精度の復号画像信号 202に対し、ビット変換情報 2003に基づいて、例えば数式(1 )などの第 1の実施形態の画像符号ィ匕装置における画素ビット長拡張器で行われる 処理と同等の処理を施すことによって画素ビット長を Mビット拡張変換する処理を行 レ、、 (N + M)ビット精度のビット拡張参照画像信号 204を出力する。画素ビット長拡 張器 2005は、図 2の構成とし、実施の形態 1と同様に各画素のビット長を拡張するか どうかをフラグで切り替えて制御する処理を行ってもよい。
[0128] 動きベクトル Z予測モード情報 116は予測画像作成器 115に入力され、上記 (N + M)ビット精度のビット拡張参照画像信号 204から動きベクトル/予測モード情報 11 6に基づく(N + M)ビット精度の拡張予測画像信号 205が生成される(S 145)。画素 ビット長縮小器 2001は、(N + M)ビット精度の拡張予測画像信号 205に対し、ビット 変換情報 2003に基づいて、例えば数式(2)などの第 1の実施形態の画像複号化装 置における画素ビット縮小変換器と同等の処理を施すことによって画素ビット長を M ビット縮小変換する処理を行い、 Nビット精度の予測画像信号 102を出力する(S146 )。画素ビット長縮小器 2001は、図 8の構成とし、実施の形態 1と同様に各画素のビッ ト長を拡張するかどうかをフラグで切り替えて制御する処理を行ってもよい。
[0129] Nビット精度の残差信号 201と Nビット精度の予測画像信号 102は加算器 111によ つて加算される。加算された信号は、ループフィルタ 113で必要に応じてフィルタ処 理がなされ、 Nビット精度の復号画像信号 202が出力され(S147)、フレームメモリ 1 14に格納される。ここで得られる復号画像信号 202は、画像符号化装置に入力され た入力画像と同じ Nビット精度となる。
[0130] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めること力 Sできる。従って、結果的に予測誤差信号を小さくすることができるため、符 号化効率を向上させることができる。また、フレームメモリに格納される参照画像信号 を、ビット長が拡張された入力画像信号や予測画像信号より小さなビット長で格納す ること力 Sできる。故に、動き補償のフィルタやループフィルタ、画面内予測など精度を 高める効果を保ったまま、フレームメモリの使用量を削減することが可能となる。さら に、予測誤差信号および残差信号の変換'量子化の処理を入力画像のビット精度に 対応した精度で行うことが可能となる。これにより、動き補償のフィルタやループフィル タ、画面内予測など精度を高める効果を保ったまま、変換'量子化のビット精度を削 減し、演算規模を小さくすることが可能となる。
[0131] 第 2から第 5の実施形態においては、予測画像作成器 115を図 22のような構成とす ることも可能である。図 22に示すエンコーダ側の予測画像作成器 115によると、フレ ーム内予測器 B101は、フレームメモリ 114内のフレーム内で既に符号ィ匕された領域 の局部復号画像信号 112からフレーム内予測に基づく予測画像信号を作成する。 一方、フレーム間予測器 B103は、動きベクトル検出器 B102で検出された動きべタト ルに基づいてフレームメモリ 114内の局部復号画像信号 112に対して動き補償を施 す。適応フィルタ情報生成部 B 104で入力画像信号 101と局部復号画像信号 112と 動きベクトルから生成された適応フィルタ情報を用いたフレーム間予測に基づく予測 画像信号 102を作成する。
[0132] フレーム内予測器 B101は M個(Mは複数)のフレーム内予測モードを有し、フレー ム間予測器 B103は N個(Nは複数)のフレーム間予測モードを有する。フレーム間 予測器 B103及びフレーム内予測器 B101の出力に、モード判定器 B105が接続さ れる。モード判定器 B105は、 N個のフレーム間予測モードから選択された一つの予 測モードに基づく予測画像信号、あるいは M個のフレーム内予測モードから選択さ れた一つの予測モードに基づく予測画像信号 102を出力する。
[0133] 動きベクトル Z予測モード情報/適応フィルタ情報 116、すなわち動きベクトル検 出器 B102から出力される動きベクトルとモード判定器によって選択された予測モー ドを示す予測モード情報と適応フィルタ情報 116は、エントロピー符号化器 117に送 られ、符号化データ 117に含めて復号側に送信される。動きベクトルと適応フィルタ 情報は、フレーム間予測モードが選択された場合にのみ動きベクトル検出器 B102か ら出力される。
[0134] 図 23を参照してデコーダ側の予測画像作成器 115を説明する。この予測画像作 成器 115によると、切り替え器 B201は、予測モード情報 116に基づき予測器を選択 する。フレーム内予測器 B202は、選択された場合、フレームメモリ 114内のフレーム 内で既に符号化された領域の復号画像信号 203からフレーム内予測に基づく予測 画像信号 102を作成する。一方、フレーム間予測器 B203は、選択された場合、動き ベクトルに基づいてフレームメモリ 114内の復号画像信号 203に対して動き補償を施 し、適応フィルタ情報 116を用いたフレーム間予測に基づく予測画像信号 102を作 成する。
[0135] 図 24は、フレーム間予測器 B103の構成例を示している。フレーム間予測器 B103 では、動きベクトルと局部復号画像信号と適応フィルタ係数情報からフレーム間予測 画像信号 102を生成する。整数画素重み Zオフセット補正部 B301では、整数画素 値のいわゆる重みつき予測を行うための処理を行う。具体例としては、以下の数式(7
)にしたがって、整数画素の予測画像信号 102を作成する。
[0136] Y= (W X X+ (1 < < (L- 1) ) > >L) + 0 (7)
ここで、 Wが重み係数、 Lはシフト係数、 Oはオフセット係数で、適応フィルタ係数情 報に含まれるものである。画素値 Xに対して数式(7)に基づく処理を行レ、 Yの値に変 換することにより、輝度の補正や色の補正が可能となる。
[0137] 数式(8)は、双方向予測を行う場合の重み Zオフセット処理の例である。
[0138] Y= (W X X +W X X + (1 < < (L_ l) ) > >L) + ( (〇 +0 ) > > 1)
1 1 2 2 1 2
(8)
ここで、画素値 Xに対する重み係数が W、オフセット係数が O、画素値 Xに対する
1 1 1 2 重み係数が W、オフセット係数が〇、 Lはシフト係数で、適応フィルタ係数情報に含
2 2
まれるものである。画素値 X、 Xに対して数式 B2の処理を行い Yの値に変換するこ
1 2
とにより、輝度の補正や色の補正が可能となる。
[0139] 適応フィルタ情報 116により、重み/オフセット補正処理を行う必要がない場合は、 スィッチ B301を切り替えて、小数点画素適応補間画像を作成する。
[0140] 本発明では、入力画像信号の画素ビット長よりも符号化/復号化処理のビット長が 長く設定されるため、重み/オフセット補正処理の計算精度が確保でき、より精度の 高い重み/オフセット補正を行うことが可能となる。
[0141] 小数画素適応補間画像作成部 B303では、動きベクトルが、小数点画素位置を示 していた場合、適応フィルタ情報の中の補間フィルタ係数を用いて、整数画素値から 、小数点画素位置の補間画素値を生成し、予測画像信号 102を生成する。この処理 に関しても、本発明では、入力画像信号の画素ビット長よりも符号化/複号化処理の ビット長が長く設定されるため、補間フィルタ処理の計算精度が確保でき、より良い小 数点画素値を得ることが可能となる。
[0142] 図 25は、フレーム間予測器 B103の別の構成例を示している。同様にこのフレーム 間予測器では、動きベクトルと局部復号画像信号と適応フィルタ係数情報からフレー ム間予測画像信号 102を生成する。小数画素適応補間画像作成部 B401では、動 きベクトルが、小数点画素位置を示していた場合、適応フィルタ情報の中の補間フィ ルタ係数を用いて、整数画素値から、小数点画素位置の補間画素値を生成し、予測 画像信号 102を生成する。
[0143] 本実施形態では、入力画像信号の画素ビット長よりも符号化/復号化処理のビット 長が長く設定されるため、補間フィルタ処理の計算精度が確保でき、より良い小数点 画素値を得ることが可能となる。
[0144] 重み/オフセット補正部 B403では、予測画像信号の画素値のいわゆる重みつき 予測を行うための処理を行う。具体的な例としては、上記の数式(7)あるいは数式(8 )にしたがって、予測画像信号 102を作成する。
[0145] 本実施形態では、入力画像信号の画素ビット長よりも符号化/複号化処理のビット 長が長く設定されるため、重み/オフセット補正処理の計算精度が確保でき、より精 度の高い重み/オフセット補正を行うことが可能となる。
[0146] 図 26は、フレーム間予測器の別の構成例を示している。このフレーム間予測器で は、動きベクトルと再生画像信号と適応フィルタ係数情報からフレーム間予測画像信 号を生成する。これによると、動きべタトノレが小数点画素位置を示していた場合、スィ ツチ B501は小数画素適応補間/オフセット補正画像作成部 B502に接続され、再 生画像信号は小数画素適応補間/オフセット補正画像作成部 B502によって処理さ れる。整数画素を示していた場合、スィッチ B501は整数画素重み/オフセット補正 画像作成部 B503に接続され、再生画像信号は整数画素重み/オフセット補正画像 作成部 B503によって処理される。
[0147] 小数画素適応補間/オフセット補正画像作成部 B502では、動きベクトル力 小数 点画素位置を示してレ、た場合、適応フィルタ情報の中の補間フィルタ係数とオフセッ ト補正係数を用いて、整数画素値から、小数点画素位置の補間画素値を生成し、予 測画像信号を生成する。具体的な例として、下記の片方予測を行う場合は、数式 (9) 、双方向予測を行う場合は、数式(10)を用いる。
[数 1]
Figure imgf000041_0001
[0148] ここで、再生画像信号 Xi,jに対する Wi,j力 補間フィルタ係数、〇がオフセット係数、 Y が予測画像信号である。
[数 2]
Figure imgf000042_0001
[0149] ここで、再生画像信号 X(Q)i,jに対する W(Q)i,jは、補間フィルタ係数、 O(0)がオフセット 係数、再生画像信号 X(1)i,jに対するの は、補間フィルタ係数、 0(1)がオフセット係 数、 Yが予測画像信号である。
[0150] 整数画素重み/オフセット補正部 B503では、予測画像信号の画素値のいわゆる重 みつき予測を行うための処理を行う。具体的な例としては、上記の数式(7)あるいは 数式(8)にしたがって、予測画像信号を作成する。この時のオフセット補正係数は、 入力画素ビット長以上の精度の係数を用いる。
[0151] 本実施形態では、入力画像信号の画素ビット長よりも符号化/複号化処理の演算 ビット長が長く設定されるため、補間フィルタ処理の計算精度が確保でき、より良い予 測画素値を得ることが可能となる。
[0152] 本実施形態では、入力画像信号の画素ビット長よりも符号化/複号化処理のビット 長が長く設定されるため、重み/オフセット補正処理の計算精度が確保でき、より精 度の高い重み/オフセット補正を行うことが可能となる。
[0153] (適応ループフィルタ)
第 2から第 5の実施形態においては、ループフィルタ 113を図 27のような構成とする ことも可能である。
[0154] 図 27はエンコーダ側のループフィルタ 113の構成を示している。フィルタ係数決定 部 C101は、入力画像信号 101および局部復号画像信号 112を入力信号とし、局部 復号画像信号 112に対してフィルタ処理を施した際に例えば入力画像信号 101と最 小 2乗誤差が最も小さくなるようなフィルタ係数を算出し、算出されたフィルタ係数をフ ィルタ処理部 C102に出力するとともに、フィルタ係数情報 C103としてエントロピー符 号化部 108に出力する。ここでのフィルタ係数の決定方法については、この例に限る ものではなぐ例えばデブロッキングフィルタとデリンギングフィルタなどの複数のフィ ルタをあら力、じめ用意しておき、それらを適応的に切り替え、選択されたフィルタをフ ィルタ係数情報 C103として出力してもよぐあるいは各フィルタを適用するかどうかを 適応的に判定するなどの処理を行ってもよぐ様々な態様を適用することが可能であ る。入力される入力画像信号 101は、各実施の形態に応じて、ループフィルタに入力 される局部画像復号信号 112と同じ画素ビット長とした信号を用いる。
[0155] フィルタ処理部 C102では、フィルタ係数決定部 C101より入力されたフィルタ係数 を用レ、て局部復号画像信号の各画素に対してフィルタ処理を施した後、フレームメモ リ 114等に出力する。
[0156] エントロピー符号化部 108に出力されたフィルタ係数情報 103はエントロピー符号 化部 108にてエントロピー符号化され、符号ィ匕データ 117に含められて送信される。
[0157] 図 28は復号側のループフィルタ 113の構成例を示している。エントロピー復号ィ匕部 200より出力されたフィルタ係数情報 C103を基にフィルタ処理部 C102において復号 画像信号の各画素に対してフィルタ処理を施す。フィルタ処理が行われた復号画像 信号は各々の実施の形態に応じて、フレームメモリ 114や画素ビット長縮小器に出力 されるカ あるいは復号画像信号としてそのまま出力される。
[0158] 以上の構成によれば、入力画像信号の画素ビット長よりも符号化/復号化処理の ビット長が長く設定されるため、ループフィルタ 113内で行われるフィルタ処理の計算 精度が確保でき、より精度の高いループフィルタ処理を行うことが可能となる。
[0159] (プレフィルタを含む構成)
第 1から第 3の実施形態において、入力画像信号 101の画素ビット長を変換する画 素ビット長拡張器 1001を図 29のような構成とすることも可能である。この構成では、 画素ビット長拡張器 1001に入力された入力画像信号は、第 1の実施形態と同様の 手順で各画素のビット長を Nビットより Mビット大きな(N + M)ビット精度に拡張する処 理を行った後、フィルタ処理部 7000に導かれ、各画素に対してフィルタ処理が行わ れる。ここで行われるフィルタ処理は、例えばフレーム内の隣接画素にフィルタ係数 を掛けた後足し合わせるような空間フィルタを用いる。空間フィルタとして、例えばィ プシロンフィルタを用いたフィルタ処理部 7000が図 30に示されている。
[0160] このフィルタ処理部 7000によると、入力画素値を P [t],出力画素値を Q [t]とすると , tを画素の位置を示している。 tの位置の画素にフィルタをかける場合には,入力画 素値 P[t]と一時メモリ A04に蓄えてあったその一つ手前の出力画素値 Q [t— 1]とを 加算器 AO 1に入力し,差分 dが求められる。この差分 dでルックアップテーブル A02 を引き, F (d)が決定される。この値 F (d)を加算器 A03に入力して,入力画素値 P[t ]から引く。この動作を数式で示すと次のようになる。
[0161] Q[t] = P[t] - F (P[t] - Q[t-1]) (11)
関数 Fは式(12)によって表され, (int)は, 0方向への整数化処理とする。
[0162] F (d) = (int)(d/ (d X d/ (u X u) + 1. 0) (12)
d= P[t] - Q[t-1] (13)
ルックアップテーブル A02の中身は,関数 Fで計算される値が予めテーブルとして 記憶しておけばよい。例えば,画素値力 ¾ビットならば, dの値は, _ 2n+ l〜 + 2n_ 1となって,ルックアップテーブルは, 2n+ 1 _ l個の配列を用意しておけばよい。ここで , uはフィルタのパラメータで, uが大きいほど強くフィルタがかかる。このフィルタの演 算量は, 1画素のフィルタ処理に加算 2回のみである。
[0163] 図 31は,図 30のフィルタを使ったフィルタ処理部 7000の具体的な流れ図である。
このフィルタ処理部 7000では,フレームの 4方向からフィルタ処理を行う。まず,フレ 一ムの右力 左のポストフィルタ処理(S101)を行う。次は,反対方向の左から右のポ ストフィルタ処理(S102)を行う。同様に今度は,上から下のポストフィルタ処理(S10 3)を行い,次に反対方向の下からの上のポストフィルタ処理を行う。この処理を YCb Crそれぞれの信号に対して行う。このように互いに反対方向からフィルタ処理を行う ことによって,巡回型フィルタの欠点である位相のずれを打ち消すことができる。
[0164] また、フィルタ処理として、複数のフレームの対応する画素に対してフィルタ係数を 掛けた後足し合わせるような時間フィルタを用いてもよい。また、動き補償を伴う時間 フィルタを施してもよい。動き補償を伴う時間フィルタは、例えば、特願 2006— 3620 6などに記載されてレ、る方法を用いる。
[0165] 本構成におけるフィルタ処理はここで述べたフィルタ処理に限るわけではなぐフィ ルタ処理であればどのような処理を行ってもよい。また、第 4および第 5実施の形態に ついては、入力画像信号 101は画素ビット長が変換されずに符号化が行われるが、 入力画像信号 101に直接、ここで述べたプレフィルタ処理を施してから符号化を行つ てもよい。
[0166] (ポストフィルタを含む構成)
第 1から第 5の実施形態において、画素ビット長縮小器 2001および 2007を図 32 のような構成とすることも可能である。この構成では、画素ビット長拡張器 2001および 2007に入力されたビット拡張復号画像信号 2003は、フィルタ処理部 7001に入力さ れ、各画素に対してフィルタ処理が行われた後、第 1の実施形態 1と同様の手順で各 画素のビット長を (N + M)ビットより Mビット小さな Nビット精度に縮小処理が行われ、 N ビットの復号画像信号として出力される。ここで行われるフィルタ処理は、例えばフレ ーム内の隣接画素にフィルタ係数を掛けた後足し合わせるような空間フィルタを用い てもよいし、複数のフレームの対応する画素に対してフィルタ係数を掛けた後足し合 わせるような時間フィルタを用いてもよい。
[0167] (可逆フィルタの構成)
本構成では、上記の画素ビット長拡張器 1001をフィルタ処理を行う構成と組み合 わせ、画素ビット長拡張器 1001内のフィルタ処理部 7000で行われるフィルタ処理の 逆フィルタ処理を画素ビット長縮小器 2001内のフィルタ処理部で行うことも可能であ る。例えば、フィルタ処理部 7000において、入力画素値として 2フレーム間で対応す る 2点の画素値をそれぞれ X, yとして、対応する出力画素値を a, bとした場合に数式( 14)に示す処理を施す。
[0168] a = (3x+y+2)»2
b = (x+3y+2)»2 (14)
数式(14)の処理は 2ビットの右シフトによる除算処理を行っている力 例えば画素ビ ット長拡張器 1001において 2ビット左シフトによる画素ビット拡張を行っている場合、 数式 A4で示されるフィルタ処理では丸め誤差が生じず、入力画像の情報を失わずに すむ。
[0169] 一方、復号側のフィルタ処理部 7001において、入力画素として復号画像信号の 2 フレーム間で対応する 2点の画素値を a', とし、対応する出力画素値を χ' , y'とした 場合に数式(15)に示す処理を施す。
[0170] x' = (3a ' -b' +4)»3 y' = (3b' -a" +4)»3 (15)
数式(15)の処理は 3ビットの右シフトによる除算処理を行っている力 例えば画素ビ ット長拡張器 1001において 2ビット左シフトによる画素ビット拡張を行っている場合、 数式(14)で示されるフィルタ処理と同様に丸め誤差が発生しない。即ち、符号化と 複号化の処理によって生じる量子化誤差が 0と仮定すると、数式(14)および数式(1 5)によるフィルタと逆フィルタは、可逆なフィルタとなる。数式(14)は 2フレーム間の 対応する 2点の画素値をそれぞれ近づける処理を行うため、動き補償が予測をよりあ たりやすぐ予測残差が小さくなる。従って符号量を削減することが可能となる。さらに 、画素ビット拡張をおこなっていることにより、量子化誤差を除けば復号側で元の入 力画像に戻すフィルタ処理を行うことが可能となるため、符号化効率を高めることが 可能である。
[0171] フィルタ処理部 7000および 7001において用いるフィルタはここで述べた例に限定 されるものではなぐどのようなフィルタを用いてもよい。もちろん、画素ビット拡張部 1 001において拡張されるビット数 Mに応じた可逆フィルタを用いることでさらに予測な どの精度を高めることが可能であることは言うまでもない。また、ここで述べた例では 2 フレーム間で対応する 2点をフィルタ処理の対象とした力 この例に限定されるもので はなぐ例えば 2フレーム以上のフレームの画素を用いてもよレ、。また、 1フレーム内の 隣接する 2点や 2点以上の複数の点の画素をフィルタ処理の対象としてもよレ、。更に、 インタレース画像においてトップフィールドとボトムフィールドの対応する 2点の画素値 をフィルタ処理の対象とするなど、様々な形態のフィルタ処理を用いることが可能であ る。
[0172] フィルタ処理部 7000および 7001において用いた可逆フィルタの係数をエントロピ 一符号化部 108に出力し、符号ィ匕データ 117に含めることも可能である。このように することで、フレームごとに予測などの精度を高める効果が高いフィルタ係数を選択 して符号化を行うことができる。
[0173] (第 6の実施形態)
図 33Aを参照して第 6の実施形態に係る動画像符号化のための画像符号化装置 の構成を説明する。 [0174] この画像符号化装置は、第 2の実施形態で示した構成例(図 9)とほぼ同様の構成 であるが、画素ビット長拡張器 1001の後段に透力 情報坦め込み器 3000を備える 点が異なっている。
[0175] 図 33Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、画像信号 100として例えばフレーム単位で動画像信号が入力され る(S151)。画素ビット長拡張器 (画素ビット精度変換器) 1001は、第 2の実施形態と 同様の処理を行うことにより、入力された Nビット精度の画像信号 100の各画素の値 について、 Nビットより Mビット大きな(N + M)ビット精度に拡張する処理を行う(S15 2)。拡張されたビット数 Mは、ビット長変換制御器 (ビット精度変換制御器) 1002によ りビット拡張情報 1003としてエントロピー符号化器 108に導かれる。
[0176] ビット長が拡張された入力画像信号 100は透力 データ坦め込み器 3000に入力さ れると、あらかじめ設定されたパラメータに基づいて生成されたデータ列が入力画像 信号 100の各画素の例えば下位ビットに坦め込まれる(S153)。ここで、生成された データ列は拡張されたビット長である Mビット以下の語長とする。
[0177] データ列が坦め込まれた入力画像 100は減算器 101に導かれると、減算器 101に より、(N + M)ビット精度にビット長が拡張された入力画像信号 100と(N + M)ビット 精度で作成された予測画像信号 102との差分が求められる。これにより、 (N + M)ビ ット精度の予測誤差信号 103が生成される(S154)。生成された予測誤差信号 103 に対して、直交変換器 104により直交変換 (例えば、離散コサイン変換 (DCT) )が施 され、直交変換器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得 られる(S155)。直交変換係数情報 105は、量子化器 106により量子化され、量子化 直交変換係数情報 107が、エントロピー符号ィ匕器 108および逆量子化器 109に導か れる。
[0178] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて予測誤差信号と 同様の信号、即ち局部復号誤差信号が生成される。この局部復号誤差信号が、加 算器 111で (N + M)ビット精度の予測画像信号 102と加算されることにより、 (N + M )ビット精度の局部復号画像信号 112が生成される(S 156)。 (N + M)ビット精度の 局部復号画像信号 112は、必要に応じてループフィルタ 113によりフィルタ処理がな された後、フレームメモリ 114に格納される。フレームメモリ 114に格納された局部復 号画像信号 112は、予測画像作成器 115に入力される。
[0179] 予測画像作成器 115は、 (N + M)ビット精度にビット長が拡張された入力画像信号 100及び (N + M)ビット精度の局部復号画像信号 112からある予測モード情報に基 づく(N + M)ビット精度の予測画像信号を生成する。この際、フレーム内のブロック 毎に(N + M)ビット精度の入力画像信号 100と画素ビット長変換器 1005によって (N + M)ビット精度に拡大された局部復号画像信号 112との間のマッチング (例えば、 ブロックマッチング)をとり、動きベクトルを検出する(S 157)。この動きベクトルで補償 された (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精度の予測画像 信号を作成する(S157)。ここで生成された (N + M)ビット精度の予測画像信号 102 は、選択された予測画像信号の動きベクトル情報 Z予測モード情報 116とともに予測 画像作成器 115より出力される。
[0180] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され(S159 )、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0181] 本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに多重 化されたデータを利用することが可能である。
[0182] 次に、図 34Aを参照して、本実施形態に係る画像復号化装置の構成を説明する。
この画像復号化装置は、第 2の実施形態で示した構成例(図 10)とほぼ同様の構成 であるが、ループフィルタ 113と画素ビット長縮小器 2001 (画素ビット精度変換器)の 間に透力 検出器 3002が接続されている点が異なる。
[0183] 図 34Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。画像復号 化装置に図 11 Aの画像符号化装置によって符号化された符号ィ匕データ 117が入力 されると(S161)、エントロピー複号化器 200において、符号ィ匕データ 117がェントロ ピー符号化の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル /予測モード情報 116、ビット拡張情報 2004が得られる(S162)。 [0184] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて(N + M)ビット 精度の残差信号 201に変換される(S163)。エントロピー復号化器 200から出力され たビット拡張情報 2004は、ビット長変換制御器 2002に入力された後、復号画像が 何ビット拡張されている力、を示すビット数 Mを示すビット変換情報 2003を出力する。
[0185] 動きベクトル Z予測モード情報 116は予測画像作成器 115に入力され、上記 (N + M)ビット精度のビット拡張参照画像信号 204から動きベクトル Z予測モード情報 11 6に基づく(N + M)ビット精度の予測画像信号 102が生成される(S 164)。 (N + M) ビット精度の残差信号 201と(N + M)ビット精度の予測画像信号 102は、加算器 11 1によって加算される。加算された信号は、ループフィルタ 113で必要に応じてフィノレ タ処理がなされ、(N + M)ビット精度のビット拡張復号画像信号 203が出力される(S 165)。
[0186] ビット拡張復号画像信号 203は、フレームメモリ 114に格納されるとともに、すかし検 出部 3002に入力される。す力 検出部 3002では、ビット拡張復号画像 203の各画 素の例えば下位ビットが埋め込まれた透かしデータであるかどうかの判定を行い、透 力 データを含むかどうかを示す透力し検出情報 3003を出力する(S166)。透かし データであるかどうかの判定は、例えばあらかじめ既知の透力しパターンと、ビット拡 張復号画像 203の例えば下位 Mビットの相関係数を計算し、その値が一定の閾値以 上であった場合は透力しデータであると判定するなどの方法を用いて行う。
[0187] ビット拡張復号画像信号 203は、画素ビット長変換器 2007に入力され、ビット変換 情報 2003に基づいて各画素の値に対し例えば数式(2)などの第 1の実施形態の画 像複号化装置における画素ビット長縮小器と同等の処理を施されることにより、 Mビッ ト小さな値に画素ビット長が縮小変換され (S167)、画像符号化装置に入力された入 力画像と同じ Nビット精度の復号画像 202を得る(S168)。
[0188] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができる。結果的に予測誤差信号を小さくすることができるため、符号化効率 を向上させることができる。また、拡張した下位ビットを利用して透力、し情報を埋め込 むことで、入力画像信号を変化させずに透力し情報を埋め込むことが可能となる。
[0189] 第 2〜6の実施形態において、拡張あるいは縮小を行うビット数 Mはビット拡張情報 としてエントロピー符号化されて符号化データに含められているが、画像符号化装置 と画像複号化装置であらかじめ決まった数だけビット長を拡張あるいは縮小する場合 には、必ずしもビット数 Mを符号化データに含める必要はない。また、あら力 め決ま つた数だけビット長を拡張あるいは縮小する場合には、拡張あるいは縮小を行うかど う力、を示すフラグだけを符号化データに含めることも可能である。この場合、フラグが TRUEの場合には、第 2〜第 6の実施形態内の画素ビット長拡張器 1001あるいは画 素ビット長縮小器 2001あるいは画素ビット長変換器 2007においてスィッチが ON側 に接続される。一方、フラグが FALSEの場合には、スィッチが OFF側に接続される。
[0190] 第 2、第 3の実施形態において局部復号画像信号をフレームメモリに格納する際に 縮小するビット数 Lについては、 Mと同じ値である場合は必ずしも Lを符号化データに 含める必要はない。また、 M、 Lが同じ値であっても異なる値であっても、あらかじめ 決まった数である場合には、必ずしもビット数 M、 Lを符号化データに含める必要は ない。
[0191] 入力画像や局部復号画像信号および復号画像の画素ビット長を拡張するということ は、符号化'復号化の処理過程の整数演算の演算精度を向上させていることに等し レ、。処理過程の任意の箇所の演算精度を可変とし、それらの演算精度を示すフラグ あるいは情報を符号化データに含めることも可能である。例えば、第 2〜第 5の実施 形態を組み合わせ、符号化'復号ィ匕の処理過程において、フレームメモリに格納され る画素ビット精度を拡張するか否かを示すフラグと、直交変換/量子化に入力される 予測残差の画素ビット長を拡張するかどうか、すなわち直交変換/量子化の演算精 度を拡張するか否力 ^示すフラグを符号ィ匕データに含めておく。これらのフラグの〇N /OFFに応じて,符号ィ匕装置および復号装置でフレームメモリに格納される画素ビッ ト精度を拡張するか否かや、直交変換 Z量子化に入力される予測残差の画素ビット 長を拡張するかどうかを切り替えてもよい。さらには、これらのフラグが ONとなってい る場合には、何ビット拡張/あるいは縮小するかを示すデータを符号ィ匕データに含 めてもよレ、。また、これらの符号化 '複号化の処理の一過程の演算精度を拡張するか どうかを示すフラグや拡張するビット数を示すデータは、ここで示したフレームメモリや 直交変換 ·量子化だけを対象とするものではなぐ例えばループフィルタに対するフ ラグや拡張ビット数を示すデータを追加してもよい。処理が符号化'復号化の処理過 程の一部であれば、その処理、あるいは複数の処理を 1つにまとめて、それぞれに対 して演算精度を拡張するかどうかを示すフラグや拡張ビット数を示すデータを設定し て符号化データに含めてもよい。
[0192] (第 7の実施形態)
図 35Aを参照して第 7の実施形態の画像符号化装置の構成を説明する。この実施 形態は基本的には図 11の実施形態と同様な構成を持つが、予測画像作成部 115と 減算器 101との間に画素ビット長縮小器 (画素ビット精度縮小変換器) 1004が設けら れ、加算器 111とループフィルタ 112との間に画素ビット長拡張器 (画素ビット精度拡 張変換器) 1007が設けられている点が図 11の実施形態と異なっている。
[0193] 図 35Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、画像信号 100として例えばフレーム単位で動画像信号が入力され る(S171)。画素ビット長拡張器 1001は図 2の構成とし、ビット変換情報 1010に含ま れている後述のシンタクス情報に基づく制御フラグ F1001に基づいて、入力された N ビット精度の画像信号 100の各画素の値が、 Nビットより Mビット大きな(N + M)ビット 精度に拡張するかどうかを判定する(S172)。ここで、制御フラグ F1001が ONの場 合は、画素ビット長拡張器 1001内のスィッチ E0を ONに設定し、局部復号画像信号 112の各画素のビット長を、第 1の実施形態における画素ビット長変換器 1001で行 われる処理と同様の処理によって拡張する(S173)。例えば、入力画像信号のある 画素の値が Kであった場合、 Mビット拡張した後の画素値 K'は例えば数式(1)や数 式(1— 1) , (1 - 2) , (1— 3)などの処理によって計算される。
[0194] 制御フラグ F1001が OFFの場合には、スィッチ E0が OFF側に接続され、各画素 のビット長を拡張する処理は行わなレ、。拡張されるビット数 Mなどの変換情報は、ビッ ト長変換制御器 1002によりビット拡張情報 1003としてエントロピー符号化器 108に 尋カ、れる。
[0195] 減算器 101により、入力画像信号 100と予測画像信号 102との差分がとられ、予測 残差信号 103が生成される(S174)。生成された予測誤差信号 103に対して、直交 変換器 104により直交変換 (例えば、離散コサイン変換 (DCT) )が施され、直交変換 器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得られる(S175)。 直交変換係数情報 105は、量子化器 106により量子化され、量子化直交変換係数 情報 107は、エントロピー符号ィ匕器 108および逆量子化器 109に導かれる。
[0196] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて予測誤差信号と 同様の信号、即ち局部復号誤差信号に変換される。この局部復号誤差信号は加算 器 111で予測画像信号 102と加算されることにより、局部復号画像信号 112が生成さ れる(S176)。局部復号画像信号 112は、画素ビット長拡張器 1007に入力され、ビ ット変換情報 1010に含まれている後述のシンタクス情報に基づく制御フラグ F1007 に基づいて、局部復号画像信号 112の各画素のビット長を拡張するかどうかを判定 する(S177)。制御フラグ F1007が ONの場合には、画素ビット長拡張器 1007内の スィッチ E0を ONに設定し、局部復号画像信号 112の各画素のビット長を、第 4の実 施形態における画素ビット長変換器 1007で行われる処理と同様の処理によって拡 張する(S178)。制御フラグ F1007が OFFの場合には画素のビット長を拡張する処 理は行わない。
[0197] 画素ビット長拡張器 1007から出力された局部復号画像信号 112は必要に応じて ループフィルタ 113によりフィルタ処理がなされた後、画素ビット長変換器 1005に入 力される。画素ビット長変換器 1005では、ビット変換情報 1010に含まれている後述 のシンタクス情報に基づく制御フラグ F1005に基づいて、局部復号画像信号 112の 各画素のビット長を変換するかどうかを判定する(S 179)。ここで、制御フラグ F1005 力〇Nの場合には、画素ビット長拡張器 1005内のスィッチ E3を ONに設定し、局部 復号画像信号 112の各画素のビット長を、第 3の実施形態における画素ビット長変換 器 1005で行われる処理と同様の処理によって拡張する(S180)。制御フラグ F100 5が OFFの場合には画素のビット長を変換する処理は行わなレ、。画素ビット長変換 器 1005から出力された局部画像信号 112は、フレームメモリ 114に格納される(S18 1) 0フレームメモリ 114に格納された局部画像信号は、さらに、画素ビット長変換器 1 006に入力される。画素ビット長変換器 1006では、ビット変換情報 1010に含まれて レ、る後述のシンタクス情報に基づく制御フラグ F1006に基づいて、局部復号画像信 号 112の各画素のビット長を変換するかどうかを判定する(S182)。ここで、制御フラ グ F1006が ONの場合には、画素ビット長拡張器 1006内のスィッチ E3を〇Nに設定 し、局部復号画像信号 112の各画素のビット長を、第 3の実施形態における画素ビッ ト長変換器 1006で行われる処理と同様の処理によって拡張する(S183)。制御フラ グ F1006が OFFの場合には画素のビット長を変換する処理は行わなレ、。画素ビット 長変換器 1006から出力される局部復号画像信号 112は、予測画像作成器 115に 入力される。
[0198] 予測画像作成器 115は、入力画像信号 100及びフレームメモリ 114に格納された 局部復号画像信号 112から、ある予測モード情報に基づく予測画像信号を生成する (S184)。この際、加算器 111からの局部復号画像信号 112はフレームメモリ 114に 一旦蓄えられ、フレーム内のブロック毎に入力画像信号 100とフレームメモリ 114に 蓄えられた局部復号画像信号 112との間のマッチング(例えば、ブロックマッチング) をとり、動きベクトルを検出し、この動きベクトルで補償された局部画像信号を用いて 予測画像信号を作成する。ここで生成された予測画像信号 102は、選択された予測 画像信号の動きベクトル情報/予測モード情報 116とともに予測画像作成器 115よ り出力される。
[0199] 予測画像信号作成器 115から出力された予測画像信号 102は画素ビット長縮小器 1004に入力される。画素ビット長縮小器 1004では、ビット変換情報 1010に含まれ ている後述のシンタクス情報に基づく制御フラグ F1004に基づいて、予測画像信号 102の各画素のビット長を変換するかどうかを判定する(S185)。制御フラグ F1004 力〇Nの場合には、画素ビット長拡張器 1004内のスィッチ E2を ONに設定し、予測 画像信号 102の各画素のビット長を、第 4の実施形態と同様の処理によって縮小する (S186)。制御フラグ F1004が OFFの場合には画素のビット長を変換する処理は行 わない。
[0200] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S187 )、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0201] 次に、ビット長の拡張 ·縮小'変換を行うかどうかを制御する制御フラグの符号化方 法について説明する。
[0202] 本実施形態では、ビット長の拡張 ·縮小'変換を行うかどうかを制御する制御フラグ や拡張するビット数をシーケンスパラメータセットシンタクス (404)に含めて送信する ことが可能である。それぞれのシンタクスを以下で説明する。
[0203] 図 36のシーケンスパラメータセットシンタクス内に示される ex_seq_all_bit_extention_fl agは、ビット拡張を行うかどうかを示すフラグであり、当該フラグが TRUEであるときは、 符号化および複号化の内部のデータパスすべてにおいて、各画素のビット長が拡張 されたデータを用いて符号化および複号化を行うことを示す。フラグが FALSEである ときは、このフラグは、符号ィ匕および復号ィ匕の内部のデータパスのすべてにおいて各 画素のビット長が拡張された画像信号を用いて符号化 ·復号化を行わないか、一部 のデータパスでのみ、各画素のビット長が拡張された画像信号を用いて符号化 ·復 号化が行われることをしめす。 ex_seq_bit_extention_flag力 STRUEのときは、更に何ビット 拡張を行うかを示す ex_seq_shift_bitsをさらに送信してもよレ、。
[0204] ex_seq_all_bit_extention_flagが FALSEのときには、さらに符号化および復号化内部に おける、予測画像作成部に入力される画像信号の画素ビット長を拡張するかどうかを 示すフラグ eeX_seq_partial_bit_extention_flagをさらに送信してもよい。当該フラグが TR UEの場合は、符号化'復号化内部処理における、予測画像作成時に各画素のビット 長が拡張された画像信号を用いることを示す。一方、フラグが FALSEであるときは、こ のフラグは、符号ィ匕および復号ィ匕の内部のデータパスのすべてにおいて各画素のビ ット長が拡張された画像信号を用いなレ、ことを示す。 ex_seq_partial_bit_extention_flag 力 STRUEのときには、さらに、予測画像作成部 112に入力される画像信号の画素ビッ ト長を、入力画像信号の画素ビット長と比較して何ビット大きく拡張するかを示す ex_se q_partial_shift_bits 送 1 してもよレヽ。
[0205] ex_seq_partial_bit_extention_flag力 TRUEのときには、さらに符号化'復号化内部のデ ータパスのある一部分で各画素のビット長が拡張された画像信号を用いる力、を示す フラグを送信してもよレ、。図 36に示した例では、フレームメモリ 114に格納する参照 画像信号の画素ビット長を拡張するかどうかを示すフラグ ex_seq_framemem_bit_extent ion_flag、および直交変換部と量子化部(直交変換器 104、量子化器 106、逆量子化 器 109および逆直交変換器 110)に入力あるいは出力される予測残差信号の画素ビ ット長を 5ム張する力どつ力を示すフフグ ex_seq_trans_and_quant_bit_extention_flagを送 信している。
[0206] ex_seq_framemem_bit_extention_flagが TRUEの場合には、このフラグはフレームメモリ に格納する参照画像信号の画素ビット長を拡張することを示す。フラグが FALSEの場 合には、それはフレームメモリに格納する参照画像信号の画素ビット長を入力画像と 同じ画素ビット長とすることを示す。 ex_seq_framemem_bit_extention_flagが TRUEの場 合にはさらに、フレームメモリに格納される画像信号の画素ビット長を、入力画像信号 の画素ビット長と比較して何ビット大きく拡張するかを示す ex_seq_framemem_shift_bits を送信してもよい。
[0207] ex_seq_trans_and_quant_bit_extention_flagが TRUEの場合には、このフラグは直交変 換部と量子化部(直交変換器 104、量子化器 106、逆量子化器 109および逆直交変 換器 110)に入力あるいは出力される予測残差信号の画素ビット長が拡張されている ことを示す。すなわち、入力画像信号と予測画像信号の各画素のビット長が拡張され ており、予測残差信号は、各画素のビット長が拡張された入力画像信号と予測画像 信号の差分信号であることを示してレ、る。
[0208] 当該フラグが FALSEの場合には、このフラグは直交変換部と量子化部(直交変換器
104、量子化器 106、逆量子化器 109および逆直交変換器 110)に入力あるいは出 力される予測残差信号が入力画像信号と同じビット精度の予測画像信号と入力画像 信号の差分信号であることを示す。
[0209] ex_seq_trans_and_quant_bit_extention_flagが TRUEの場合にはさらに、直交変換部と 量子化部(直交変換器 104、量子化器 106、逆量子化器 109および逆直交変換器 1 10)に入力あるいは出力される予測残差信号の生成時における、入力画像信号と予 測画像信号の画素ビット長が、入力画像信号の画素ビット長と比較して何ビット大きく
5ム 5¾する力を不 1 ex_seq_trans_and_quant_shift_Dits¾r¾f¾してもよレヽ。 [0210] 符号化側と復号化側において、各フラグ力 STRUEであった場合に、何ビット拡張ある いは縮小するかをあらかじめ設定されたビット数で行う場合には、図 37に示すとおり 、画像信号の画素ビット長を変換するかどうかを示すフラグのみを送信してもよレ、。
[0211] これらのシンタクスの値を元に、図 35で示した画像符号ィ匕装置の処理において使 用される制 ί卸フラグ F1001、 F1007、 F1005、 F1006、 F1004の設定例を図 38に 示す。図 38において、 allの列は ex_seq_all_bit_extention_flagの値を示している。同様 に、 part、 fm、 t/q、の歹 [Jは ex_seq_partial_bit_extention_flag、 ex_seq_framemem_bit_exte ntion_flag、 ex_seq_trans_ana_quant_bit_extention_flagのィ¾_をそれてれ不し飞レヽる。 0は FALSEを、 1は TRUEを示し、一はシンタクスが存在しないことを示している。制御フ ラグの FlOOl , F1007, F1005, F1006, F1004は歹はそれぞれのシンタクスの値 に基づレ、て設定される制御フラグの値を示してレ、る。 1は ONを 0は OFFを示してレ、る 。例えば、 ex_seq_all_bit_extention_flag力 STRUEの場合には、制御フラグ F1001のみ O Nとし、残りのフラグは OFFとすることを示している。
[0212] 図 40は後述の画像復号化装置の処理において用いる制御フラグ F2001、 F2005 、 F2006、 F2007、 F2008の設定 ί列を示してレヽる。それぞれ、図 38と同様の値を示 している。本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクス に多重化されたデータを利用することが可能である。
[0213] 図 39Αを参照して本実施形態に係る画像復号化装置の構成を説明する。図 39Α に示すように、この画像復号化装置は、エントロピー復号化器 200、逆量子化器 109 、逆直交変換器 110、加算器 111、ノレープフィルタ 113、フレームメモリ 114、予測画 像作成器 115、画素ビット長縮小器 (画素ビット精度縮小変換器) 2001、 2006、画 素ビット長拡張器 (画素ビット精度拡張変換器) 2005、画素ビット長変換器 (画素ビッ ト精度変換器) 2007、 2008、ビット長変換制御器 2002を備えている。即ち、ェントロ ピー複号化器 200の係数情報出力は逆量子化器 109および逆直交変換器 110を 介して加算器 111に接続される。エントロピー複号化器 200の動きベクトル/予測モ ード情報出力は予測画像作成器 115に接続され、そのビット拡散情報出力はビット 長変換制御器 2002に接続される。予測画像作成器 115の出力は画素ビット長縮小 器を介して加算器 111の他の入力に接続される。加算器 111の出力は画素ビット長 拡張器 2005, ノレープフイノレタ 113,画素ビット長変換器 2007を介してフレームメモリ 114に接続される。ループフィルタ 113の他の出力は画素ビット長縮小器 2001の入 力に接続される。フレームメモリ 114の出力はビット長変換制御器 2002に出力と共に 画素ビット長変換器 2008に接続される。画素ビット長変換器 2008の出力は予測画 像作成器 115の他の入力に接続される。ビット長変換制御器 2002の出力は画素ビ ット長縮小器 2001 ,画素ビット長拡張器 2005、画素ビット長縮小器 2006,画素ビッ ト長変換器 2007および画素ビット長変換器 2008の他の入力に接続される。
[0214] 図 39Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。図 9の画像 符号化装置によって符号化された符号化データ 117が画像復号化装置に入力され ると(S201)、エントロピー復号ィ匕器 200によってエントロピー符号化の逆の手順に従 つて復号化され、量子化直交変換係数情報 107、動きべ外ル Z予測モード情報 11 6、ビット拡張情報 2004が生成される(S202)。ビット拡張情報 2004がビット長変換 制御器 2002に入力されると、ビット長変換制御器 2002は画素ビット長縮小器 2001 , 2006、画素ビット長拡張器 2005、画素ビット長変換器 2007、 2008での画素ビッ ト長変換を行うかどうかの制御フラグや、拡張あるいは縮小するビット長を示す情報な どを含むビット変換情報 2003を出力する。このビット変換情報に含まれる制御フラグ は、たとえば符号化データ 117にビット拡張情報 2004として多重化されているシンタ タス(図 36)の値に基づいて、図 40のようにそれぞれ設定され、ビット変換情報 2003 に含められる。
[0215] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて残差信号 201に 変換される(S203)。動きベクトル Z予測モード情報 116は予測画像作成器 115に 入力され、フレームメモリ 114に格納され、画素ビット長変換器 2008によって必要に 応じて各画素のビット長が変換された復号画像信号 203から動きベクトル Z予測モ ード情報 116に基づく予測画像信号 102が生成される(S204)。
[0216] 予測画像信号 102は画素ビット長縮小器 2006に入力され、ビット変換情報 2003 に含まれている制御フラグ F2006に基づいて、予測画像信号 102の各画素のビット 長を変換するかどうかを判定する(S205)。制御フラグ F2006が ONの場合には、画 素ビット長拡張器 2006内のスィッチ E2を ONに設定し、予測画像信号 102の各画 素のビット長を、第 4の実施形態における画素ビット長拡張器 2006で行われる処理と 同様の処理によって縮小する(S206)。制御フラグ F2006が OFFの場合には画素 のビット長を変換する処理は行わなレ、。
[0217] 画素ビット長縮小器 2006から出力された予測画像信号 102と残差信号 201は、加 算器 111によって加算され、復号画像信号が生成される (S207)。復号画像信号 20 3は画素ビット長拡張器 2005に入力される。画素ビット長変換器 2005では、ビット変 換情報 2003に含まれている制御フラグ F2005に基づいて、復号画像信号 203の各 画素のビット長を拡張するかどうかを判定する(S208)。制御フラグ F2005が〇Nの 場合には、画素ビット長拡張器 2005内のスィッチ E1を〇Nに設定し、復号画像信号 203の各画素のビット長を、第 4の実施形態における画素ビット長変換器 2005で行 われる処理と同様の処理によって拡張する(S209)。制御フラグ F2005が OFFの場 合には画素のビット長を変換する処理は行わない。
[0218] 画素ビット長拡張器 2005から出力された復号画像信号 203はループフィルタ 113 で必要に応じてフィルタ処理がなされた後出力され、画素ビット長縮小器 2001およ び画素ビット長変換器 2007に出力される。
[0219] 画素ビット長変換器 2007に復号画像信号 203が入力されると、画素ビット長変換 器 2007は、ビット変換情報 2003に含まれている制御フラグ F2007に基づいて、復 号画像信号 203の各画素のビット長を変換するかどうかを判定する(S210)。制御フ ラグ F2007が ONの場合には、画素ビット長拡張器 2007内のスィッチ E3が ONに設 定され、復号画像信号 203の各画素のビット長が、第 3の実施形態における画素ビッ ト長変換器 2007で行われる処理と同様の処理によって変換される(S211)。制御フ ラグ F2007が OFFの場合には画素のビット長を変換する処理は行わない。
[0220] 画素ビット長変換器 2007から出力された復号画像信号 203はフレームメモリ 114 に格納される(S212)。フレームメモリ 114に格納された復号画像信号 203が画素ビ ット長変換器 2008に入力されると、画素ビット長変換器 2008はビット変換情報 2003 に含まれている制御フラグ F2008に基づいて、復号画像信号 203の各画素のビット 長を変換するかどうかを判定する(S213)。制御フラグ F2008が ONの場合には、画 素ビット長拡張器 2008内のスィッチ E3を ONに設定し、復号画像信号 203の各画 素のビット長を、第 3の実施形態における画素ビット長変換器 2008で行われる処理と 同様の処理によって変換する(S214)。制御フラグ F2008が OFFの場合には画素 のビット長を変換する処理は行わない。画素ビット長変換器 2008から出力された画 像信号は予測画像作成器 115に入力される(S215)。
[0221] 復号画像信号 203はループフィルタ 113で必要に応じてフィルタ処理され、画素ビ ット長縮小器 2001に出力される。画素ビット長縮小器 2001に復号画像信号 203が 入力されると、画素ビット長縮小器 2001は、ビット変換情報 2003に含まれている制 御フラグ F2001に基づいて、復号画像信号 203の各画素のビット長を変換するかど う力、を判定する(S216)。制御フラグ F2001が〇Nの場合には、画素ビット長拡張器 2001内のスィッチ E2を ONに設定し、復号画像信号 203の各画素のビット長を、第 1の実施形態における画素ビット長縮小器 2001と同様の処理によって縮小する(S2 17)。制御フラグ F2001が OFFの場合には画素のビット長を変換する処理は行わず 、そのまま復号画像信号 202として出力される。
[0222] 以上のようにして、画像符号化装置に入力された入力画像と同じ Nビット精度の復 号画像 202が画素ビット長縮小器 2001より出力される(S218)。
[0223] 以上のような図 35、 39のような構成においては、符号化データに含まれるシンタク ス情報に基づいて、フレームメモリ、直交変換および量子化の演算精度をフラグによ つてそれぞれ切り替えることができ、符号化器側、あるいは復号ィ匕器側の演算コスト の制約に応じて、適切な演算精度で符号化を行うことが可能となる。この構成におい ては、いずれかの制御フラグが ONとなっていれば、予測画像作成器に入力される画 像信号の画素ビット長は、入力画像信号 100より大きな精度で入力されるため、予測 画像作成の演算精度を高めることができ、符号ィ匕効率を向上させることができる。
[0224] 図 35、 39において画素ビット長拡張器、画素ビット長縮小器、画素ビット長変換器 の一部を省略し、第 2〜第 5の実施形態で示した構成とし、画素ビット長拡張器、画 素ビット長縮小器、画素ビット長変換器において、ビット長の変換を行うかどうかを例 えば図 36で示したシンタクスにおける ex_seq_all_bit_extention_flagで指定されている 値に従って決定する。 ex_seq_all_bit_extention_flag力 STRUEならば、各構成における画 素ビット長拡張器、画素ビット長縮小器、画素ビット長変換器において各画素のビット 長を変換する処理を行い、 FALSEなら変換処理を行わないような制御を行うことも可 能である。
[0225] 量子化/逆量子化を行う際、入力画像が Nビット相当の場合に量子化する量子化 ステップ幅を Qst印とした場合、第 2、第 3の実施形態における量子化/逆量子化で 用いる量子化ステップ幅 Qst印'は、ビット精度を Mビット拡大 '縮小すると、残差の精 度が(N + M)ビットに拡大されていることを考慮し、以下の式で計算される Qst印'を 用いてもよい。
Qst印, = Qst印 « M ■·■ (16)
これによつて、 Nビット同等の入力画像をそのまま符号化した場合とほぼ同等の符 号量の符号化データを得ることができる。このように、量子化ステップ幅を拡張するビ ット長に応じて変化させた場合に、符号化効率が向上する理由を図 41 , 42を用いて 説明する。図 41は各画素位置での、入力画素値(8bit)に対する、 H. 264による 8bi t精度の予測画素値と、本実施形態による 12bit精度の予測画素値とを示すテープ ルであり、図 42はこれをグラフにしたものである(半画素位置の補間フィルタは、 6タツ プ { 1/32, —5/32, 20/32, 20/32, —5/32, 1/32}とする)。
[0226] 前述のとおり、入力画像信号が 8ビットであった場合(図 42では正方形のプロットで 表わされている)に、予測画像信号を入力画像信号と同じ 8ビットで作成した場合(図 42ではひし形のプロットで表されている)には、半画素位置に補間される画素の画素 値は丸め誤差が生じる。これに対して、例えば本実施形態で述べたようなビット拡張 を行い、例えば 12ビットの予測画像を作成した場合(図 42では円形のプロットで表さ れている)には、半画素位置に補間される画素の画素値の丸め誤差は小さくなる。ビ ット拡張を行った場合には、ビット拡張を行う前と比較して残差のビット精度が 12ビッ トに拡大するため、ビット拡張を行わずに 8ビットで残差を求めた場合と比較して残差 の絶対値は大きくなる力 丸め誤差が小さくなつているため、数式(16)で示した量子 化ステップ幅で量子化し、ほぼ同じ符号量とした際の誤差が小さくなり、結果として符 号化効率を向上させることが可能となる。
[0227] 本実施形態では、図 43に示すように、入力画像のビット精度よりも Mビット大きなビ ット精度で行うことができ、予測画像信号が入力画像信号より Mビット大きな精度をも つて作成されるため、動き補償のフィルタやループフィルタ、画面内予測などの精度 を高めることができ、結果的に予測誤差信号を小さくすることができるため、符号化効 率を向上させることができる。
[0228] なお、本発明は上記実施形態そのままに限定されるものではなぐ実施段階ではそ の要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態 に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成で きる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても よい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
[0229] 本発明によれば、画面内予測や動き補償の精度を十分高めることによって符号ィ匕 効率を向上させことが可能になる。本発明の構成によれば、予測画像作成器に入力 される参照画像のビット精度を入力画像のビット精度よりも大きくすることで、例えば H . 264などに適用されている画面内予測や、単方向動き補償予測、双方向動き補償 予測、および重みつき動き補償予測の演算時に発生する丸め誤差を小さく抑えるこ とで、予測誤差信号を小さくし、符号化効率を向上させることができる。すなわち、上 記で述べた小数画素の演算精度にかかわるビット精度を高く保つことが可能となるだ けではなぐ整数画素の演算精度にかかわるビット精度を高く保つことが可能となる。 また、本発明のレ、くつかの構成によれば、入力画像のビット精度よりも高いビット精度 で参照画像を保存し、予測に用いることで、さらに予測画像作成器で予測画像を作 成する際の演算精度を高めることが可能となり、符号ィヒ効率を向上させることができ る。

Claims

請求の範囲
[1] Nビット精度をそれぞれ持つ複数の画素により構成される入力画像の各画素のビッ ト精度を Mビット大きな (N + M)ビット精度に変換する画素ビット精度変換器と、
(N + M)ビット精度の前記入力画像に対する (N + M)ビット精度の予測画像を、 ( N + M)ビット精度の参照画像から作成する予測画像作成器と、
(N + M)ビット精度の前記入力画像と (N + M)ビット精度の前記予測画像との差分 信号を求める減算器と、
前記差分信号を符号化して画像符号化情報を出力する符号化器と、
前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、
(N + M)ビット精度の前記予測画像と前記復号差分画像とを加算して (N + M)ビ ット精度の復号画像を出力する加算器と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリとを備えた画像符号化装置。
[2] 変換により変更されたビット数を表すビット変換情報と前記画像符号化情報とを多 重化する多重化器とを備えた請求項 1に記載の画像符号化装置。
[3] 前記画像符号化装置は、前記参照画像格納メモリの前段に、(N + M)ビット精度 の前記復号画像の各画素を (N + M— L) (ただし、 Lは L≤Mを満たす整数)ビット精 度に変換する第 1の画素ビット精度変換器を更に備え、
前記参照画像格納メモリは、 (N + M -L)ビット精度の前記復号画像を前記参照 画像として保存し、
前記画像符号化装置は、前記参照画像格納メモリの後段に、(N + M— L)ビット精 度の前記参照画像の各画素を (N + M)ビット精度に変換する第 2の画素ビット精度 変換器を更に備えた請求項 1に記載の画像符号化装置。
[4] 前記第 1の画素ビット精度変換器は、符号化単位ごとに (N + M)ビット精度の前記 復号画像の符号化単位画像内に含まれる画素値の最大値と最小値力 代表値を算 出する手段と、前記符号化単位画像内の各画素の値と代表値との差を Qビット右シフ トした値が(N+M-L)ビット精度のダイナミックレンジに収まるようなシフト量 Q (0≤Q≤ L)を算出する手段と、前記符号化単位画像内の各画素値を各画素の値と代表値の 差を Qビット右シフトして (N + M— L)精度の値に変換することで、(N + M)ビット精度 の前記復号画像を (N + M— L)ビット精度の復号画像に変換する手段とを含み、 前記参照画像格納メモリは (N + M— L)ビット精度の前記復号画像を前記参照画 像として保存するとともに前記 Qおよび代表値を任意の符号化単位画像ごとに保存し 前記第 2の画素ビット精度変換器は、前記符号化単位ごとに前記参照画像と前記 シフト量 Qおよび前記代表値を前記参照画像格納メモリから読み出して前記参照画 像の各画素の(N + M— L)ビット精度の画素値を Qビット右シフトして前記代表値に 加算して (N+M)ビット精度の画素値に変換することを特徴とする請求項 3に記載の画 像符号化装置。
[5] Nビット精度の入力画像に対し、(N + M)ビット精度の予測画像を (N + M)ビット精 度の参照画像から作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度に縮小変換する画素 ビット長縮小変換器と、
Nビット精度の前記入力画像と Nビット精度に変換された前記予測画像との差分信 号を求める減算器と、
前記差分信号を符号化して画像符号化情報を出力する符号化器と、
前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、
Nビット精度に変換された前記予測画像と前記復号差分画像とを加算して Nビット 精度の復号画像を出力する加算器と、
Nビット精度の前記復号画像の各画素の値を Mビット大きな(N + M)ビット精度に 変換する画素ビット精度変換器と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリとを備えた画像符号化装置。
[6] Nビット精度の入力画像に対し、(N + M)ビット精度の予測画像を (N + M)ビット精 度の参照画像から作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度の画素に変換する画 素ビット精度変換器と、 Nビット精度の前記入力画像と Nビット精度の前記予測画像との差分信号を求める 減算器と、
前記差分信号を符号化して画像符号化情報を出力する符号化器と、
前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、 Nビット精度の前記予測画像と前記復号差分画像とを加算して Nビット精度の復号 画像を出力する加算器と、
Nビット精度の前記復号画像を前記参照画像として保存する参照画像格納メモリと 前記参照画像格納メモリに格納された Nビット精度の前記参照画像の各画素を M ビット大きな(N + M)ビット精度に拡張変換する画素ビット精度変換器と、を備えた画 像符号化装置。
[7] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、拡張する ビット数 Mを示すデータを含む、請求項 1ないし 6のいずれか 1項に記載の画像符号 化装置。
[8] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、前記参 照画像格納メモリのビット精度(N + M— L)を示すデータを含む、請求項 3に記載の 画像符号化装置。
[9] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、復号画 像を出力する際のビット精度 Nを示すデータを含む、請求項 1ないし 6のいずれか 1 項に記載の画像符号化装置。
[10] 前記画素ビット精度変換器は、前記入力画像の各画素の値をビット精度が異なる 値に変換した後に、該入力画像の各コンポーネントを異なる色空間に変換する、請 求項 1に記載の画像符号化装置。
[11] 前記画素ビット精度変換器は、 Nビット精度の前記画像の各画素の値を Mビット大 きな(N + M)ビット精度に変換した後に、該画像の各コンポーネントを異なる色空間 に変換する、請求項 1ないし 6のいずれ力、 1項に記載の画像符号ィ匕装置。
[12] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、拡張する ビット数 Mを示すデータと前記復号画像を出力する際の色空間を示すデータを含む 、請求項 10または 11に記載の画像符号化装置。
[13] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、前記復 号画像を出力する際のビット精度 Nと前記復号画像を出力する際の色空間を示すデ ータを含む、請求項 10または 11に記載の画像符号化装置。
[14] 前記予測画像作成器は、適応補間フィルタ情報に基づいて予測画像を生成し、前 記画像符号化情報は、前記適応補間フィルタ情報を含む、請求項 1ないし 6のいず れか 1項に記載の画像符号化装置。
[15] 前記画像符号化装置は、前記復号画像に対し、フィルタ処理情報に基づレ、てフィ ルタ処理を行うフィルタを参照画像メモリの前段にさらに備え、前記画像符号化情報 は、前記フィルタ処理情報を含む、請求項 1ないし 6のいずれか 1項に記載の画像符 号化装置。
[16] 前記画素ビット精度変換器は、各画素のビット精度が Nビットの入力画像の各画素 を Mビット大きな(N + M)ビット精度に変換した後に、前記入力画像にフィルタ処理 情報に基づいたフィルタ処理を行うフィルタをさらに備える、請求項 1ないし 3のいず れか 1項に記載の画像符号化装置。
[17] 前記画素ビット精度変換器は、 Nビット精度の入力画像の各画素を Mビット大きな( N + M)ビット精度の画素に変換した後に、前記入力画像にフィルタ処理情報に基づ いたフィルタ処理を行うフィルタをさらに備え、前記画像符号化情報は、前記フィルタ 処理情報を含む、請求項 1ないし 3のいずれか 1項に記載の画像符号化装置。
[18] 前記画素ビット精度変換器は、 Nビット精度の入力画像の各画素を Mビット大きな( N + M)ビット精度の画素に変換した後に、前記入力画像に Mビット以下の語調の透 力、し情報を付加する透力 情報埋込器をさらに備える、請求項 15に記載の画像符号 化装置。
[19] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、画像信 号の各画素のビット精度を Mビット拡張するかどうかのフラグを含む、請求項 1ないし 6 のレ、ずれか 1項に記載の画像符号化装置。
[20] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、画像信 号の各画素のビット精度を Mビット拡張するかどうかのフラグを含み、さらに拡張する ビット数 Mを示すデータを含む、請求項 1ないし 6のいずれか 1項に記載の画像符号 化装置。
[21] ビット変換情報と画像符号化情報とが多重化された画像情報を入力してビット変換 情報と画像符号化情報に分離する逆多重化器と、
前記画像符号化情報を複号化し復号画像を出力する画像複号化器と、 前記ビット変換情報に基づいて前記復号画像の各画素の値をビット精度が異なる ビット精度に変換する画素ビット精度変換器と、を備えた画像復号化装置。
[22] 入力符号化画像情報を (N + M)ビット精度の復号差分画像に復号する復号化器と 前記符号化画像情報を用いて (N + M)ビット精度の参照画像から(N + M)ビット 精度の予測画像を作成する予測画像作成器と、
前記復号差分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を 得る加算器と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリと、
(N + M)ビット精度の前記復号画像の各画素を Nビット精度に変換し Nビット精度 の復号画像を出力する画素ビット精度変換器と、を備えた画像復号化装置。
[23] 符号化画像情報を入力して (N + M)ビット精度の復号差分画像を出力する復号化 器と、
(N + M— L)ビット精度の参照画像の各画素を (N + M)ビット精度の画素に変換し (N + M)ビット精度の復号画像を出力する画素ビット精度拡張変換器と、 前記符号化画像情報を用いて (N + M)ビット精度の参照画像から(N + M)ビット 精度の予測画像を作成する予測画像作成器と、
前記復号差分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を 得る加算器と、
(N + M)ビット精度の前記復号画像の各画素を (N + M— L)ビット精度の画素に 変換し (N + M— L)ビット精度の復号画像を出力するとともに、(N + M)ビット精度の 前記復号画像の各画素を Nビット精度の画素に変換し、 Nビット精度の復号画像を 出力する画素ビット精度縮小変換器と、
(N + M— L)ビット精度の前記復号画像を前記参照画像として保存する参照画像 格納メモリと、を備えた画像復号化装置。
[24] 符号化画像情報を入力して Nビット精度の復号差分画像を出力する複号化器と、 前記符号化画像情報を用いて (N + M)ビット精度の参照画像から(N + M)ビット 精度の予測画像を作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度の画素に変換し Nビッ ト精度の予測画像を出力する画素ビット精度変換器と、
前記復号差分画像と前記予測画像とを加算して Nビット精度の復号画像を得る加 算器と、
Nビット精度の前記復号画像の各画素を (N + M)ビット精度の画素に変換し (N + M)ビット精度の復号画像を出力する画素ビット長拡張変換器と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリと、を備えた画像復号化装置。
[25] 前記画素ビット精度変換器は、復号化単位ごとに前記参照画像の符号化単位画像 内に含まれる画素値の最大値と最小値から代表値を算出する手段と、前記符号化単 位画像内の各画素の値と代表値との差を Qビット右シフトした値が(N+M-L)ビット精 度のダイナミックレンジに収まるシフト量 Q (0≤ Q≤ L)を算出する手段と、前記符号化 単位画像内の各画素値を各画素の値と前記代表値との差を Qビット右シフトして (N + M— L)精度の値に変換する手段とを含む第 1の画素ビット精度変換器を有し、 前記参照画像格納メモリは (N + M— L)ビット精度の前記復号画像を前記参照画 像として保存するとともに前記シフト量 Qおよび前記代表値を前記符号化単位ごとに 保存し、
前記第画素ビット精度変換器は複号化単位ごとに前記参照画像と前記シフト量 Q および前記代表値を前記参照画像格納メモリから読み出して前記参照画像の各画 素の(N + M— L)ビット精度の画素値を Qビット右シフトして前記代表値に加算して( N+M)ビット精度に変換する手段を含む第 2の画素ビット精度変換器を有することを特 徴とする請求項 24に記載の画像復号化装置。
[26] 符号化画像情報を入力して Nビット精度の復号差分画像を出力する復号化器と、
Nビット精度の参照画像の各画素を (N + M)ビット精度の画素に変換し (N + M)ビ ット精度の参照画像を出力する画素ビット精度変換器と、
前記符号化された画像情報を用いて (N + M)ビット精度の前記参照画像から (N + M)ビット精度の予測画像を作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度の画素に変換し Nビッ ト精度の予測画像を出力する画素ビット精度変換器と
前記復号差分画像と前記予測画像とを加算して Nビット精度の復号画像を得る加 算器と、
Nビット精度の前記復号画像を前記参照画像として保存する参照画像格納メモリと を備えた、画像複号化装置。
[27] 前記符号化画像情報は、ビット変換情報として、任意の符号化単位毎に、拡張する ビット数 Mを示すビット変換情報を含み、
前記変換器は、前記ビット変換情報に基づいて、前記画像の各画素のビット精度の 拡張又は縮小を行う、請求項 21ないし 26のいずれ力 1項に記載の画像復号ィ匕装置
[28] 前記符号化画像情報は、ビット変換情報として、任意の符号化単位毎に、前記参 照画像格納メモリのビット精度(N + M— L)を示すデータを含み、
前記画素ビット精度拡張変換器及び前記画素ビット精度縮小変換器は、前記ビット 変換情報に基づいて前記拡張変換及び前記縮小変換を行い、(N + M— L)ビット精 度の前記参照画像として参照画像格納メモリに格納する、請求項 23に記載の画像 複号化装置。
[29] 前記符号化された画像情報は、ビット変換情報として、任意の符号化単位毎に、復 号画像を出力する際のビット精度 Nを示すビット変換情報を含み、
前記ビット変換情報に基づいて、前記復号画像のビット精度を、前記復号画像を出 力する際のビット精度 Nと同じ精度を持つものに変換する、請求項 21ないし 26のい ずれか 1項に記載の画像復号化装置。
[30] 前記画素ビット精度変換器は、前記復号画像の各コンポーネントを異なる色空間に 変換した後に、該復号画像の各コンポーネントの各画素を異なるビット精度に変換す る、請求項 21に記載の画像復号化装置。
[31] 前記画素ビット精度縮小変換器は、(N + M)ビット精度の前記画像の各コンポーネ ントを異なる色空間に変換した後に、該画像の各コンポーネントの各画素を Nビット精 度の画素に変換する、請求項 22ないし 26のいずれか 1項に記載の画像複号化装置
[32] 前記符号化された画像情報は、ビット変換情報として、任意の符号化単位毎に、拡 張するビット数 Mを示すビット変換情報と復号画像を出力する際の色空間を示すデー タを含み、
前記変換器は、前記ビット変換情報に基づいて、前記復号画像を、前記復号画像 を出力する際の色空間を示すデータに色変換した後に、該色変換された復号画像 の各画素のビット長の拡張及び縮小を行うことを特徴とする請求項 30または 31に記 載の画像復号化装置。
[33] 前記符号化画像情報は、ビット変換情報として、任意の符号化単位毎に、復号画 像を出力する際の入力画像のビット精度 Nを示すビット変換情報と復号画像を出力 する際の色空間を示すデータを含み、
前記ビット変換情報に基づいて、前記復号画像を、前記復号画像を出力する際の 色空間を示すデータに色変換した後に、該色変換された復号画像を、前記復号画 像を出力する際のビット精度 Nと同じ精度を持つ画素に変換する、請求項 30または 3
1に記載の画像復号化装置。
[34] 前記符号化画像情報は、適応補間フィルタ情報を含み、前記予測画像作成器は、 前記適応補間フィルタ情報に基づいて、予測画像を作成する、請求項 21ないし 26 のいずれか 1項に記載の画像復号化装置。
[35] 前記符号化された画像情報は、フィルタ処理情報を含み、前記画像復号化装置は
、前記復号画像に対し、前記フィルタ処理情報に基づいてフィルタ処理を行うフィル タをさらに備える、請求項 21ないし 26のいずれ力、 1項に記載の画像複号化装置。
[36] 前記画素ビット精度変換器は、前記復号画像に対しフィルタ処理を行うフィルタをさ らに備え、前記フィルタが前記復号画像に対しフィルタ処理を行った後に、 (N + M) ビット精度の前記復号画像の各画素を Nビット精度の画素に変換し Nビット精度の復 号画像を出力する、請求項 21ないし 26のいずれ力 1項に記載の画像復号ィ匕装置。
[37] 前記符号化画像情報は、フィルタ処理情報を含み、前記画素ビット精度変換器は、 前記復号画像に対し前記フィルタ処理情報に基づいてフィルタ処理を行うフィルタを さらに備え、前記フィルタが前記復号画像に対しフィルタ処理を行った後に、 (N + M )ビット精度の前記復号画像の各画素を Nビット精度の画素に変換し Nビット精度の 復号画像を出力する、請求項 21ないし 26のいずれ力 4項に記載の画像復号ィ匕装置
[38] 前記画像複号化装置は、前記加算器の後段に復号画像に坦め込まれた透かレ晴 報を検出する透力、し検出器をさらに備える、請求項 22に記載の画像複号化装置。
[39] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、 Mビット 拡張するかどうかのフラグを含み、前記フラグが FALSEの場合には前記変換器は変 換を行わず、前記フラグが TRUEの場合には、前記変換器は、前記ビット変換情報に 基づいて、前記画像の各画素のビット精度の拡張又は縮小を行う、請求項 21ないし 26のレ、ずれか 1項に記載の画像復号化装置。
[40] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、 Mビット 拡張するかどうかのフラグと、拡張するビット数 Mを示すデータを含み、前記フラグが FALSEの場合には前記変換器は変換を行わず、前記フラグ力 STRUEの場合には、前 記変換器は、前記ビット変換情報に基づいて、前記画像の各画素のビット精度の拡 張又は縮小を行う、請求項 21ないし 26のいずれ力 1項に記載の画像復号ィ匕装置。
[41] 入力画像の各画素のビット精度を変換することによって異なるビット精度の変換入 力画像を生成するステップと、
変換により変更されたビット数を表すビット変換情報を出力するステップと、 前記入変換力画像を符号化し画像符号化情報を出力するステップと、 前記ビット変換情報と前記画像符号化情報とを多重化するステップと、を有する画 像符号化方法。
[42] Nビット精度をそれぞれ持つ複数の画素により構成される入力画像の各画素のビッ ト精度を Mビット大きな(N + M)ビット精度に変換するステップと、 (N + M)ビット精度の前記入力画像に対する(N + M)ビット精度の予測画像を、 (
N + M)ビット精度の参照画像から作成するステップと、
(N + M)ビット精度の前記入力画像と(N + M)ビット精度の前記予測画像との差分 信号を求めるステップと、
前記差分信号を符号化して画像符号ィヒ情報を出力するステップと、
前記画像符号化情報に基づいて復号差分画像を出力するステップと、 (N + M)ビット精度の前記予測画像と前記復号差分画像とを加算して (N + M)ビ ット精度の復号画像を出力するステップと、
(N + M)ビット精度の前記復号画像を前記参照画像として参照画像格納メモリに 保存するステップと、を含む画像符号化方法。
[43] ビット変換情報と画像符号化情報とが多重化された入力画像情報をビット変換情報 と画像符号化情報に分離するステップと、
前記画像符号化情報を復号化し復号画像を生成するステップと、
前記ビット変換情報に基づいて前記復号画像の各画素をビット精度が異なる画素 に変換するステップと、を有する画像復号化方法。
[44] 入力符号化画像情報を (N + M)ビット精度の復号差分画像に復号するステップと 前記入力符号化画像情報を用いて (N + M)ビット精度の参照画像から(N + M)ビ ット精度の予測画像を生成するステップと、
前記復号差分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を 生成するステップと、
(N + M)ビット精度の前記復号画像を前記参照画像として保存するステップと、
(N + M)ビット精度の前記復号画像の各画素の値を Nビット精度に変換し Nビット 精度の復号画像を生成するステップとを有する、画像復号化方法。
PCT/JP2007/057197 2006-03-30 2007-03-30 画像符号化装置及び方法並びに画像復号化装置及び方法 WO2007114368A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
CA 2645931 CA2645931A1 (en) 2006-03-30 2007-03-30 Image encoding apparatus and method and image decoding apparatus and method
JP2008508675A JP5254004B2 (ja) 2006-03-30 2007-03-30 画像符号化装置及び方法
EP20070740633 EP2003897A4 (en) 2006-03-30 2007-03-30 IMAGE ENCODING APPARATUS AND METHOD, AND IMAGE DECODING APPARATUS AND METHOD
CN2007800112005A CN101411202B (zh) 2006-03-30 2007-03-30 图像编码装置和方法以及图像解码装置和方法
MX2008012516A MX2008012516A (es) 2006-03-30 2007-03-30 Aparato y metodo de codificacion de imagen y aparato y metodo de descodificacion de imagen.
BRPI0709853-7A BRPI0709853A2 (pt) 2006-03-30 2007-03-30 aparelho e mÉtodo de codificaÇço de imagem e aparelho e mÉtodo de decodificaÇço de imagem
AU2007232828A AU2007232828B2 (en) 2006-03-30 2007-03-30 Image coding apparatus and method, and image decoding apparatus and method
US12/242,181 US8606028B2 (en) 2006-03-30 2008-09-30 Pixel bit depth conversion in image encoding and decoding
NO20084509A NO20084509L (no) 2006-03-30 2008-10-27 Bildekoding og bildedekoding
HR20080553A HRP20080553A2 (en) 2006-03-30 2008-10-29 Image coding apparatus and method, and image decoding apparatus and method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006095597 2006-03-30
JP2006-095597 2006-03-30
PCT/JP2006/320876 WO2007116551A1 (ja) 2006-03-30 2006-10-19 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
JPPCT/JP2006/320876 2006-10-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/242,181 Continuation US8606028B2 (en) 2006-03-30 2008-09-30 Pixel bit depth conversion in image encoding and decoding

Publications (1)

Publication Number Publication Date
WO2007114368A1 true WO2007114368A1 (ja) 2007-10-11

Family

ID=38563636

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/057197 WO2007114368A1 (ja) 2006-03-30 2007-03-30 画像符号化装置及び方法並びに画像復号化装置及び方法

Country Status (1)

Country Link
WO (1) WO2007114368A1 (ja)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009130931A (ja) * 2007-11-19 2009-06-11 Samsung Electronics Co Ltd 映像の解像度の調整を通じて動画を効率的に符号化/復号化する方法及び装置
WO2010038587A1 (ja) * 2008-10-01 2010-04-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
WO2011086836A1 (ja) * 2010-01-12 2011-07-21 シャープ株式会社 符号化装置、復号装置、および、データ構造
WO2011086672A1 (ja) * 2010-01-13 2011-07-21 株式会社 東芝 動画像符号化装置および復号装置
WO2011121716A1 (ja) * 2010-03-30 2011-10-06 株式会社 東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
JP2011233972A (ja) * 2010-04-23 2011-11-17 Toshiba Corp 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
WO2012001818A1 (ja) * 2010-07-02 2012-01-05 株式会社 東芝 動画像符号化装置及び動画像復号化装置
WO2012001833A1 (ja) * 2010-07-02 2012-01-05 株式会社 東芝 動画像符号化装置、動画像復号化装置及び方法
WO2012042645A1 (ja) * 2010-09-30 2012-04-05 株式会社 東芝 動画像符号化装置及び復号化装置
JPWO2010064675A1 (ja) * 2008-12-03 2012-05-10 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2012195959A (ja) * 2012-06-15 2012-10-11 Toshiba Corp 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
JP2013509763A (ja) * 2009-10-29 2013-03-14 シコラ,トマス ビデオ・シーケンスを処理する方法及び装置
WO2013065678A1 (ja) * 2011-10-31 2013-05-10 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP5323211B2 (ja) * 2010-01-13 2013-10-23 株式会社東芝 動画像符号化装置および復号装置
JP2013232974A (ja) * 2010-01-13 2013-11-14 Toshiba Corp 動画像符号化装置および復号装置
JP2014506442A (ja) * 2011-01-12 2014-03-13 シーメンス アクチエンゲゼルシヤフト ビデオコーダにおける参照イメージの圧縮及び伸長方法
JP2014060744A (ja) * 2010-01-13 2014-04-03 Toshiba Corp 動画像符号化装置および復号装置
JP2014131172A (ja) * 2012-12-28 2014-07-10 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2014517631A (ja) * 2011-06-09 2014-07-17 クゥアルコム・インコーポレイテッド ビデオコーディングにおける内部ビット深度増加
JP2014520488A (ja) * 2011-06-24 2014-08-21 株式会社Nttドコモ 動き補償予測のための方法及び装置
JP2014520416A (ja) * 2011-08-31 2014-08-21 メディアテック インコーポレイテッド 制約付きフィルタ係数を有する適応ループフィルタの方法及び装置
JP2014521257A (ja) * 2011-07-01 2014-08-25 クゥアルコム・インコーポレイテッド 低減解像度ピクセル補間
KR101446771B1 (ko) 2008-01-30 2014-10-06 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
US9172956B2 (en) 2010-11-23 2015-10-27 Lg Electronics Inc. Encoding and decoding images using inter-prediction
JP2016005244A (ja) * 2014-06-19 2016-01-12 株式会社ニコン 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
RU2613728C1 (ru) * 2011-01-12 2017-03-21 Нтт Докомо, Инк. Способ кодирования изображения с предсказанием, устройство кодирования изображения с предсказанием, программа кодирования изображения с предсказанием, способ декодирования изображения с предсказанием, устройство декодирования изображения с предсказанием и программа декодирования изображения с предсказанием
JP2017200191A (ja) * 2017-05-25 2017-11-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
CN108370444A (zh) * 2015-12-21 2018-08-03 汤姆逊许可公司 组合自适应分辨率和内部比特深度增加编码的方法和装置
JP2018142969A (ja) * 2018-04-11 2018-09-13 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2019106741A (ja) * 2019-04-08 2019-06-27 株式会社ニコン 画像処理装置
JP2019126077A (ja) * 2011-06-23 2019-07-25 華為技術有限公司Huawei Technologies Co.,Ltd. 画像フィルタ装置、フィルタ方法および動画像復号装置
WO2019159696A1 (ja) * 2018-02-14 2019-08-22 ソニー株式会社 画像処理装置および方法
WO2019159697A1 (ja) * 2018-02-14 2019-08-22 ソニー株式会社 画像処理装置および方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326667A (ja) * 1991-04-26 1992-11-16 Konica Corp 画像データの圧縮伸張装置
JPH06311506A (ja) * 1992-12-25 1994-11-04 Mitsubishi Electric Corp フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
JPH09205647A (ja) * 1996-01-24 1997-08-05 Fuji Xerox Co Ltd 画像符号化装置、画像復号化装置および画像処理装置
JPH1127673A (ja) * 1997-06-27 1999-01-29 Victor Co Of Japan Ltd ディジタル画像信号圧縮装置及びディジタル画像信号記録装置
JP2003333603A (ja) * 2002-04-10 2003-11-21 Microsoft Corp コンピュータ実施される方法、システムおよびコンピュータ可読媒体
JP2005503734A (ja) * 2001-09-17 2005-02-03 ノキア コーポレイション サブピクセル値補間方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326667A (ja) * 1991-04-26 1992-11-16 Konica Corp 画像データの圧縮伸張装置
JPH06311506A (ja) * 1992-12-25 1994-11-04 Mitsubishi Electric Corp フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
JPH09205647A (ja) * 1996-01-24 1997-08-05 Fuji Xerox Co Ltd 画像符号化装置、画像復号化装置および画像処理装置
JPH1127673A (ja) * 1997-06-27 1999-01-29 Victor Co Of Japan Ltd ディジタル画像信号圧縮装置及びディジタル画像信号記録装置
JP2005503734A (ja) * 2001-09-17 2005-02-03 ノキア コーポレイション サブピクセル値補間方法
JP2003333603A (ja) * 2002-04-10 2003-11-21 Microsoft Corp コンピュータ実施される方法、システムおよびコンピュータ可読媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2003897A4 *

Cited By (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101365444B1 (ko) 2007-11-19 2014-02-21 삼성전자주식회사 영상의 해상도의 조정을 통하여 동영상을 효율적으로부호화/복호화하는 방법 및 장치
JP2009130931A (ja) * 2007-11-19 2009-06-11 Samsung Electronics Co Ltd 映像の解像度の調整を通じて動画を効率的に符号化/復号化する方法及び装置
KR101446771B1 (ko) 2008-01-30 2014-10-06 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
WO2010038587A1 (ja) * 2008-10-01 2010-04-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
JP2010087984A (ja) * 2008-10-01 2010-04-15 Ntt Docomo Inc 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
US8879627B2 (en) 2008-10-01 2014-11-04 Ntt Docomo, Inc. Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, moving image encoding program, moving image decoding program, and moving image encoding/ decoding system
CN104135665A (zh) * 2008-10-01 2014-11-05 株式会社Ntt都科摩 动态图像编码装置及方法、动态图像解码装置及方法
CN102172029A (zh) * 2008-10-01 2011-08-31 株式会社Ntt都科摩 动态图像编码装置、动态图像解码装置、动态图像编码方法、动态图像解码方法、动态图像编码程序、动态图像解码程序、以及动态图像编码解码***
JPWO2010064675A1 (ja) * 2008-12-03 2012-05-10 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9445119B2 (en) 2009-10-29 2016-09-13 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and device for processing a video sequence
JP2013509763A (ja) * 2009-10-29 2013-03-14 シコラ,トマス ビデオ・シーケンスを処理する方法及び装置
WO2011086836A1 (ja) * 2010-01-12 2011-07-21 シャープ株式会社 符号化装置、復号装置、および、データ構造
JPWO2011086836A1 (ja) * 2010-01-12 2013-05-16 シャープ株式会社 符号化装置、復号装置、および、データ構造
WO2011086777A1 (ja) * 2010-01-13 2011-07-21 株式会社 東芝 動画像符号化装置および復号装置
JP5323211B2 (ja) * 2010-01-13 2013-10-23 株式会社東芝 動画像符号化装置および復号装置
JP2013232974A (ja) * 2010-01-13 2013-11-14 Toshiba Corp 動画像符号化装置および復号装置
JP2014060744A (ja) * 2010-01-13 2014-04-03 Toshiba Corp 動画像符号化装置および復号装置
WO2011086672A1 (ja) * 2010-01-13 2011-07-21 株式会社 東芝 動画像符号化装置および復号装置
WO2011121716A1 (ja) * 2010-03-30 2011-10-06 株式会社 東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
JP5323252B2 (ja) * 2010-03-30 2013-10-23 株式会社東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
US9100650B2 (en) 2010-03-30 2015-08-04 Kabushiki Kaisha Toshiba Video encoding method, decoding method, and apparatus
JP2011233972A (ja) * 2010-04-23 2011-11-17 Toshiba Corp 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
US8559734B2 (en) 2010-04-23 2013-10-15 Kabushiki Kaisha Toshiba Image encoding apparatus and method for the same and image decoding apparatus and method for the same
WO2012001818A1 (ja) * 2010-07-02 2012-01-05 株式会社 東芝 動画像符号化装置及び動画像復号化装置
WO2012001833A1 (ja) * 2010-07-02 2012-01-05 株式会社 東芝 動画像符号化装置、動画像復号化装置及び方法
WO2012042645A1 (ja) * 2010-09-30 2012-04-05 株式会社 東芝 動画像符号化装置及び復号化装置
US9369729B2 (en) 2010-11-23 2016-06-14 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US11234013B2 (en) 2010-11-23 2022-01-25 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US11627332B2 (en) 2010-11-23 2023-04-11 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US10440381B2 (en) 2010-11-23 2019-10-08 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US10148975B2 (en) 2010-11-23 2018-12-04 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US10757436B2 (en) 2010-11-23 2020-08-25 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US9800888B2 (en) 2010-11-23 2017-10-24 Lg Electronics Inc. Method for encoding and decoding images, and device using same
US9172956B2 (en) 2010-11-23 2015-10-27 Lg Electronics Inc. Encoding and decoding images using inter-prediction
US9621911B2 (en) 2010-11-23 2017-04-11 Lg Electronics Inc. Method for encoding and decoding images, and device using same
RU2676411C1 (ru) * 2011-01-12 2018-12-28 Нтт Докомо, Инк. Способ кодирования изображения с предсказанием, устройство кодирования изображения с предсказанием, программа кодирования изображения с предсказанием, способ декодирования изображения с предсказанием, устройство декодирования изображения с предсказанием и программа декодирования изображения с предсказанием
RU2650027C1 (ru) * 2011-01-12 2018-04-06 Нтт Докомо, Инк. Способ кодирования изображения с предсказанием, устройство кодирования изображения с предсказанием, программа кодирования изображения с предсказанием, способ декодирования изображения с предсказанием, устройство декодирования изображения с предсказанием и программа декодирования изображения с предсказанием
JP2014506442A (ja) * 2011-01-12 2014-03-13 シーメンス アクチエンゲゼルシヤフト ビデオコーダにおける参照イメージの圧縮及び伸長方法
RU2613728C1 (ru) * 2011-01-12 2017-03-21 Нтт Докомо, Инк. Способ кодирования изображения с предсказанием, устройство кодирования изображения с предсказанием, программа кодирования изображения с предсказанием, способ декодирования изображения с предсказанием, устройство декодирования изображения с предсказанием и программа декодирования изображения с предсказанием
US9723318B2 (en) 2011-01-12 2017-08-01 Siemens Aktiengesellschaft Compression and decompression of reference images in a video encoder
JP2014517631A (ja) * 2011-06-09 2014-07-17 クゥアルコム・インコーポレイテッド ビデオコーディングにおける内部ビット深度増加
US9521434B2 (en) 2011-06-09 2016-12-13 Qualcomm Incorporated Internal bit depth increase in video coding
JP7200320B2 (ja) 2011-06-23 2023-01-06 華為技術有限公司 画像フィルタ装置、フィルタ方法および動画像復号装置
JP2019126077A (ja) * 2011-06-23 2019-07-25 華為技術有限公司Huawei Technologies Co.,Ltd. 画像フィルタ装置、フィルタ方法および動画像復号装置
US11765350B2 (en) 2011-06-23 2023-09-19 Huawei Technologies Co., Ltd. Offset decoding device, offset coding device, image filtering device
JP2021005904A (ja) * 2011-06-23 2021-01-14 華為技術有限公司Huawei Technologies Co.,Ltd. 画像フィルタ装置、フィルタ方法および動画像復号装置
JP2022017267A (ja) * 2011-06-23 2022-01-25 華為技術有限公司 画像フィルタ装置、フィルタ方法および動画像復号装置
US9860532B2 (en) 2011-06-24 2018-01-02 Ntt Docomo, Inc. Method and apparatus for motion compensation prediction
JP2014520488A (ja) * 2011-06-24 2014-08-21 株式会社Nttドコモ 動き補償予測のための方法及び装置
US10171816B2 (en) 2011-06-24 2019-01-01 Ntt Docomo, Inc. Method and apparatus for motion compensation prediction
US10735746B2 (en) 2011-06-24 2020-08-04 Ntt Docomo, Inc. Method and apparatus for motion compensation prediction
US10721481B2 (en) 2011-06-24 2020-07-21 Ntt Docomo, Inc. Method and apparatus for motion compensation prediction
JP2014521257A (ja) * 2011-07-01 2014-08-25 クゥアルコム・インコーポレイテッド 低減解像度ピクセル補間
JP2014520416A (ja) * 2011-08-31 2014-08-21 メディアテック インコーポレイテッド 制約付きフィルタ係数を有する適応ループフィルタの方法及び装置
WO2013065678A1 (ja) * 2011-10-31 2013-05-10 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2012195959A (ja) * 2012-06-15 2012-10-11 Toshiba Corp 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
US10743017B2 (en) 2012-12-28 2020-08-11 Canon Kabushiki Kaisha Encoding including transform and quantization, or decoding including inverse-transform and inverse-quantization
JP2014131172A (ja) * 2012-12-28 2014-07-10 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2016005244A (ja) * 2014-06-19 2016-01-12 株式会社ニコン 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
JP7340333B2 (ja) 2015-12-21 2023-09-07 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 複合型の適応的解像度及び内部ビット深度増加コーディングのための方法及び機器
JP2019505110A (ja) * 2015-12-21 2019-02-21 トムソン ライセンシングThomson Licensing 複合型の適応的解像度及び内部ビット深度増加コーディングのための方法及び機器
CN108370444B (zh) * 2015-12-21 2024-03-26 交互数字Vc控股公司 组合自适应分辨率和内部比特深度增加编码的方法和装置
CN108370444A (zh) * 2015-12-21 2018-08-03 汤姆逊许可公司 组合自适应分辨率和内部比特深度增加编码的方法和装置
US11297323B2 (en) 2015-12-21 2022-04-05 Interdigital Vc Holdings, Inc. Method and apparatus for combined adaptive resolution and internal bit-depth increase coding
JP2017200191A (ja) * 2017-05-25 2017-11-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
US11109046B2 (en) 2018-02-14 2021-08-31 Sony Corporation Image processing apparatus and image processing method
JPWO2019159697A1 (ja) * 2018-02-14 2021-01-28 ソニー株式会社 画像処理装置および方法
US11356701B2 (en) 2018-02-14 2022-06-07 Sony Corporation Image processing apparatus and image processing method
JPWO2019159696A1 (ja) * 2018-02-14 2021-01-28 ソニー株式会社 画像処理装置および方法
JP7235030B2 (ja) 2018-02-14 2023-03-08 ソニーグループ株式会社 画像処理装置および方法
JP7235031B2 (ja) 2018-02-14 2023-03-08 ソニーグループ株式会社 画像処理装置および方法
WO2019159697A1 (ja) * 2018-02-14 2019-08-22 ソニー株式会社 画像処理装置および方法
WO2019159696A1 (ja) * 2018-02-14 2019-08-22 ソニー株式会社 画像処理装置および方法
JP2018142969A (ja) * 2018-04-11 2018-09-13 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2019106741A (ja) * 2019-04-08 2019-06-27 株式会社ニコン 画像処理装置

Similar Documents

Publication Publication Date Title
WO2007114368A1 (ja) 画像符号化装置及び方法並びに画像復号化装置及び方法
JP5254004B2 (ja) 画像符号化装置及び方法
JP6626295B2 (ja) 画像符号化装置、画像処理装置、画像符号化方法
US8260069B2 (en) Color image encoding and decoding method and apparatus using a correlation between chrominance components
JP6532467B2 (ja) ビデオ符号化および復号におけるシンタックス要素符号化方法および装置
US20070217703A1 (en) Image encoding apparatus, image decoding apparatus and control method therefor
JP2009260977A (ja) 不可逆圧縮及び可逆圧縮を組み合わせて用いたビデオデータ圧縮
CN113810694A (zh) 编码装置、解码装置、编码方法和解码方法
JP4360416B2 (ja) 画像圧縮方法、画像圧縮装置およびプログラム
KR102238058B1 (ko) 인코더, 디코더 및 방법
US8290041B2 (en) Communication terminal
JP4574444B2 (ja) 画像復号装置及び方法、画像符号化装置及び方法、コンピュータプログラム及び記憶媒体
JP6502739B2 (ja) 画像符号化装置、画像処理装置、画像符号化方法
JP4284265B2 (ja) 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法
US7197078B2 (en) Video coding/decoding buffering apparatus and buffering method thereof
CN102215384B (zh) 图像压缩方法和***
JP2005142898A (ja) 電子透かし埋め込み方式およびドリフト補償方式
JP2010045598A (ja) 可変長復号装置、及び、符号化装置
JP4521835B2 (ja) 画像処理装置
JPH08242446A (ja) 画像処理方法及び画像処理装置
JP4262144B2 (ja) 画像符号化装置及び方法
JP4133678B2 (ja) 画像符号化装置
JP2009095066A (ja) 動画像復号化装置、動画像復号化方法、動画像符号化装置、および動画像符号化方法
JP2009004878A (ja) 画像処理装置、画像処理方法および画像処理プログラム、並びに撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07740633

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008508675

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007232828

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2645931

Country of ref document: CA

Ref document number: 7799/DELNP/2008

Country of ref document: IN

REEP Request for entry into the european phase

Ref document number: 2007740633

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12008502090

Country of ref document: PH

Ref document number: 2007740633

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087023440

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200780011200.5

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2008138706

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2007232828

Country of ref document: AU

Date of ref document: 20070330

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: P20080553A

Country of ref document: HR

WWE Wipo information: entry into national phase

Ref document number: 1020117001539

Country of ref document: KR

ENP Entry into the national phase

Ref document number: PI0709853

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20080929