WO2010052833A1 - 画像符号化装置及び画像復号装置 - Google Patents

画像符号化装置及び画像復号装置 Download PDF

Info

Publication number
WO2010052833A1
WO2010052833A1 PCT/JP2009/005417 JP2009005417W WO2010052833A1 WO 2010052833 A1 WO2010052833 A1 WO 2010052833A1 JP 2009005417 W JP2009005417 W JP 2009005417W WO 2010052833 A1 WO2010052833 A1 WO 2010052833A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
block
signal
region
prediction
Prior art date
Application number
PCT/JP2009/005417
Other languages
English (en)
French (fr)
Inventor
山田悦久
守屋芳美
関口俊一
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN2009801443894A priority Critical patent/CN102210151A/zh
Priority to JP2010536644A priority patent/JPWO2010052833A1/ja
Priority to RU2011122801/08A priority patent/RU2011122801A/ru
Priority to CA2742239A priority patent/CA2742239A1/en
Priority to US13/128,146 priority patent/US20110211636A1/en
Priority to BRPI0922120A priority patent/BRPI0922120A2/pt
Priority to MX2011004850A priority patent/MX2011004850A/es
Priority to EP09824534A priority patent/EP2348734A1/en
Publication of WO2010052833A1 publication Critical patent/WO2010052833A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/42Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code using table look-up for the coding or decoding process, e.g. using read-only memory
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the variable length encoding unit 5 is a processing unit that performs variable length encoding processing on the quantized coefficient calculated by the quantization unit 4 and generates compressed data (processing unit that performs part of the encoding processing). Yes, the variable length encoding unit 5 performs variable length encoding processing using a Huffman codeword table (variable length codeword table) corresponding to the type of region indicated by the region determination result signal output from the preprocessing unit 1 To do.
  • the variable length encoding unit 5 encodes the region determination result signal output from the preprocessing unit 1, includes the encoded data of the region determination result signal in the compressed data, and outputs the compressed data to an image decoding device or the like.
  • the signal conversion unit 2 When the signal conversion unit 2 receives the macroblock signal and the region determination result signal from the preprocessing unit 1, the signal conversion unit 2 has the size corresponding to the type of region indicated by the region determination result signal for the macroblock divided by the preprocessing unit 1. And dividing each block signal from a spatial domain signal to a frequency domain signal.
  • the block size corresponding to the type of region will be described.
  • the wavelet transform has a feature that it can be transformed without generating a block boundary of the encoded image.
  • Slant conversion is a linear gradient component such as V-shaped or W-shaped, and it has the feature that it can be converted with a small coefficient for signals whose brightness and hue change smoothly. is there.
  • the conversion method may be switched according to the purpose and application of encoding. As a result, it is possible to increase the compression efficiency of encoding and to increase the subjective image quality of the decoded image.
  • a specific conversion method is assigned one-to-one to the determined area. For example, in the “flat area”, Hadamard transform, DCT, wavelet transform, and “complex area” are used. , DCT, wavelet transform, Hadamard transform, etc., the priority of the transform method used for each region is set, and data indicating which transform method is selected is added for each region or block. You may enable it to select a conversion system for every. As a result, the encoding process can be performed using the most suitable conversion method, so that high encoding efficiency can be obtained.
  • the quantization process In the AC coefficient prediction process, a technique combined with the subsequent AC coefficient quantization process can be considered.
  • the quantization process when the quantization parameter is large, many AC coefficients are quantized to zero, and a large quantization error occurs.
  • the quantization parameter when the quantization parameter is small, many AC coefficients are quantized to non-zero, and the quantization error can be suppressed small. Therefore, when the quantization parameter is large, almost no prediction effect on the AC coefficient is obtained, so that the AC prediction process is not always performed. Thereby, the data indicating whether or not to perform the AC prediction process can be made unnecessary.
  • the quantization unit 4 When the quantization unit 4 receives the prediction residual transform coefficient from the transform coefficient prediction processing unit 3, the quantization unit 4 displays the quantization parameter and the quantization table corresponding to the type of region indicated by the region determination result signal output from the preprocessing unit 1.
  • the quantization coefficient is calculated by performing a quantization process on the prediction residual transform coefficient.
  • the quantization parameter and the quantization table used in the quantization unit 4 are set according to the target code amount given to the image coding apparatus and the code amount generated so far.
  • the first embodiment is configured such that a value is set according to the type of area indicated by the area determination result signal output from the preprocessing unit 1.
  • the quantization parameter and the quantization table corresponding to the region type will be described.
  • a weight is assigned to each frequency domain of the prediction residual transform coefficient. Can be set.
  • JPEG and MPEG recommended values and initial values for setting smaller values for the (0, 1) and (1, 0) components in FIG. 4 and larger values for the (7, 7) components are standard. It is written in the book.
  • FIG. 5 is an explanatory diagram showing an example of the quantization table.
  • the “flat region”, as shown in FIG. 5A all the values in the quantization table are reduced so that an image that is slightly changed can be expressed.
  • the “complex area”, as shown in FIG. 5C by increasing the value of the quantization table in the higher frequency area, the low frequency component can be expressed even with a small code amount. I have to.
  • the value of the quantization table is increased as the region has a higher frequency.
  • FIG. 5B the quantization table in the “complex region”. A value smaller than the value of is set.
  • the quantization table value may be set as a standard, and the same value may be set for each of the image encoding device and the image decoding device. Alternatively, only the initial value may be determined, The quantization device may include the value of the quantization table in the compressed data and transmit it to the image decoding device so that the value of the quantization table is updated as needed. Alternatively, a plurality of quantization tables may be prepared for each region so that the quantization table can be selected, and data indicating which quantization table is selected may be separately encoded.
  • the compression rate is high, the code amount can be reduced by using a quantization table having a large value.
  • the compression rate is low, the image quality can be improved by using a small quantization table.
  • variable length encoding unit 5 When the variable length encoding unit 5 receives the quantization coefficient from the quantization unit 4, the variable length encoding unit 5 uses the Huffman codeword table corresponding to the type of region indicated by the region determination result signal output from the preprocessing unit 1, and A variable length encoding process is performed on the quantization coefficient to generate compressed data.
  • a predetermined Huffman codeword table and an arithmetic encoding method are used, and the same variable length encoding process is performed for all regions in the screen.
  • variable-length coding with higher efficiency can be performed by switching the Huffman codeword table and the arithmetic coding method according to the type of region indicated by the region determination result signal output from the preprocessing unit 1. Processing can be performed.
  • FIG. 6 is an explanatory diagram showing an example of the Huffman codeword table.
  • the efficiency of the variable-length encoding process can be improved by using a Huffman codeword table that is optimized for a state in which many small values are generated.
  • the conversion coefficient values vary from large to small. Therefore, as shown in FIG. 6 (b), the state is optimized to such a state.
  • the efficiency of the variable length encoding process can be increased.
  • variable length coding unit 5 switches the Huffman codeword table.
  • the zigzag that rearranges the 8 ⁇ 8 two-dimensional block data used in JPEG or MPEG into 64 one-dimensional data. Processing called scan may be switched according to the type of area. For example, in a flat region or a complex region, as shown in FIG. 4, since the conversion coefficient decreases uniformly from the low frequency region to the high frequency region, a conventional zigzag scan may be used. In this case, for example, in a macroblock including a horizontal edge, the coefficient in the high frequency region in the horizontal direction has only a small power, but the coefficient in the high frequency region in the vertical direction has a large power. On the contrary, in the macroblock including the vertical edge, the horizontal direction is switched to be preferentially scanned.
  • variable length encoding unit 5 When the variable length encoding unit 5 generates the compressed data as described above, the variable length encoding unit 5 encodes the region determination result signal output from the preprocessing unit 1, and converts the encoded data of the region determination result signal into the compressed data. Including them and transmitting them to the image decoding apparatus.
  • the preprocessing unit 1 that divides the image signal into two-dimensional blocks of a predetermined size and determines the type of the region to which the block belongs for each divided block.
  • the encoding process corresponding to the type of area determined by the preprocessing unit 1 is performed to generate compressed data. Encoding processing suitable for the region can be performed, and as a result, the encoding efficiency can be improved.
  • all of the signal conversion unit 2, the transform coefficient prediction processing unit 3, the quantization unit 4, and the variable length coding unit 5 are internal depending on the type of region determined by the preprocessing unit 1. However, not all of the processes need to be switched, and even if only a part of the processes is switched, it is possible to improve the encoding efficiency.
  • the preprocessing unit 1 determines the type of the region and classifies the region into three areas of “flat region”, “edge region”, and “complex region”. For example, the type of the region may be determined, and for example, the region may be classified into “region requiring high gradation” and “region not requiring high gradation”. Specific examples will be described below.
  • the gradation of a digital image signal is determined by the number of bits of each pixel. For example, in the case of an 8-bit pixel, 256 gradations from 0 to 255 can be expressed, and in the case of a 12-bit pixel, 2048 gradations from 0 to 2047 can be expressed. The greater the number of gradations, the richer the expressive power of the image signal and the higher the quality, but the greater the amount of data results in inconvenience in handling.
  • the pre-processing unit 1 defines the types of regions as “regions that require high gradation” such as empty regions and “regions that do not require high gradation” such as trees regions. Is determined.
  • the signal conversion unit 2 converts the macroblock signal output from the preprocessing unit 1 from a spatial domain signal to a frequency domain signal
  • the macroblock signal conversion process of the “region requiring high gradation” is performed.
  • the length of the bit to be processed is increased to increase the accuracy of the conversion process, and the process with less error is performed.
  • the processing load is reduced even if the bit length to be processed is shortened and the accuracy of the conversion processing is reduced. To do.
  • the transform coefficient prediction processing unit 3 performs the prediction process and generates the prediction residual transform coefficient
  • the macroblock to be encoded is an “area requiring high gradation”, the same as in the first embodiment.
  • a prediction process with few errors is performed using the transform coefficient of the adjacent macroblock.
  • the macroblock to be encoded is an “area that does not require high gradation”, for example, the bit length to be processed is shortened so that the processing load is reduced instead of the accuracy of the prediction process being lowered.
  • the quantization unit 4 When the quantization unit 4 performs the quantization process on the prediction residual transform coefficient output from the transform coefficient prediction processing unit 3, a small value is obtained when the macroblock to be encoded is an “area requiring high gradation”. Quantization processing with a small quantization error is performed using the quantization parameters. Alternatively, a quantization process with little quantization error is performed using a quantization table with no weighting in the frequency domain or a quantization table with a small weighting. For example, when a 12-bit prediction residual transform coefficient is quantized, if a small value such as 1 to 4 is used as a quantization parameter, the quantization coefficient output from the quantization unit 4 becomes 12 to 10 bits. However, as shown in FIG. 4 (a), since many of the transform coefficient values are originally small, many of the output quantization coefficients are large.
  • the quantization error may be large, so a large quantization parameter or a quantization table with a large weight in the frequency domain Is used to perform the quantization process.
  • a large quantization parameter or a quantization table with a large weight in the frequency domain Is used to perform the quantization process For example, when a 12-bit prediction residual transform coefficient is quantized, if a large value such as 32 to 128 is used as a quantization parameter, the quantization coefficient output from the quantization unit 4 becomes 7 to 5 bits. At the same time, many quantization coefficients become zero.
  • variable length coding unit 5 When the variable length coding unit 5 performs the variable length coding process on the quantized coefficient output from the quantization unit 4, if the macroblock to be coded is an “area requiring high gradation”, the value is Since there are many small quantization coefficients, the variable length coding process is performed by using a Huffman codeword table optimized for a state in which many small values are generated (see FIG. 6A). On the other hand, if the macroblock to be encoded is an “area that does not require high gradation,” there are many quantization coefficients with zero values, so the Huffman codeword table optimized for the situation where many zero values occur is used. By doing so, a variable length encoding process is implemented.
  • region requiring high gradation and “region not requiring high gradation” are determined, and the encoding process corresponding to the determination result is performed.
  • the encoding efficiency can be improved.
  • Embodiment 3 The first embodiment has been described with reference to an encoding system that performs prediction processing on transform coefficients such as MPEG-2 and MPEG-4.
  • ISO / IEC 14496-10 (commonly known as AVC (ITU -Same system as T.H.264): It may be applied to a coding system that performs prediction processing of an image signal in a spatial region adopted in Non-Patent Document 3).
  • AVC ITU -Same system as T.H.264
  • Non-Patent Document 3 ISO / IEC 14496-10 “Information technology-Coding of audio-visual objects-Part 10: Advanced video coding”
  • FIG. 7 is a block diagram showing an image encoding apparatus according to Embodiment 3 of the present invention.
  • the image signal prediction processing unit 6 divides the macroblock divided by the preprocessing unit 1 into blocks of a predetermined size, and performs prediction processing between the block signal to be encoded and the adjacent block signal.
  • a processing unit that generates a prediction residual signal (a processing unit that performs a part of the encoding process), and the image signal prediction processing unit 6 is the type of region indicated by the region determination result signal output from the preprocessing unit 1
  • Predictive processing is performed using a predictive processing method corresponding to
  • the image signal prediction processing unit 6 generates a prediction signal using the adjacent block signal, performs a prediction process between the prediction signal and the block signal to be encoded, and generates a prediction residual signal. At this time, the closer the prediction signal generated from the adjacent block signal is to the block signal to be encoded, the closer the value of the prediction residual signal is to zero, so that the signal conversion unit 2, the quantization unit 4, and the variable length in the subsequent stage High encoding efficiency can be obtained by the processing of the encoding unit 5.
  • prediction signal generation methods for example, when prediction is performed on luminance signals in units of 4 ⁇ 4 blocks and 8 ⁇ 8 blocks, nine prediction methods are defined in AVC as standards. In addition, when prediction is performed in units of 16 ⁇ 16 blocks, four prediction methods are defined as AVC standards.
  • FIG. FIG. 8 is a block diagram showing an image decoding apparatus according to Embodiment 4 of the present invention.
  • the image decoding apparatus in FIG. 8 corresponds to the image encoding apparatus in FIG. 1, and employs a decoding method that performs prediction processing on conversion coefficients such as MPEG-2 and MPEG-4.
  • the variable length decoding unit 11 when the variable length decoding unit 11 receives the compressed data transmitted from the image encoding device, the variable length decoding unit 11 performs variable length decoding processing (for example, Huffman decoding, arithmetic decoding) on the compressed data, and converts the compressed data into the compressed data. A process of decoding the included region determination result signal and quantization coefficient is performed.
  • variable length decoding processing for example, Huffman decoding, arithmetic decoding
  • variable length decoding unit 11 uses the Huffman codeword table (variable length codeword table) corresponding to the type of the region indicated by the previously decoded region determination result signal to change the length. Perform the decryption process.
  • the variable length decoding unit 11 constitutes a region determination result signal extraction unit.
  • the inverse quantization unit 12 When the inverse quantization unit 12 receives the quantization coefficient from the variable length decoding unit 11, the inverse quantization unit 12 uses a quantization parameter and a quantization table corresponding to the type of region indicated by the region determination result signal output from the variable length decoding unit 11. Then, the inverse quantization process is performed on the quantized coefficient to decode the prediction residual transform coefficient (coefficient corresponding to the prediction residual transform coefficient output from the transform coefficient prediction processing unit 3 in FIG. 1). Note that the quantization parameter and the quantization table corresponding to the type of region are the same as those in the first embodiment, and a description thereof will be omitted.
  • the transform coefficient prediction processing unit 13 When the transform coefficient prediction processing unit 13 receives the prediction residual transform coefficient from the inverse quantization unit 12, the transform coefficient prediction processing unit 13 generates a predictive transform coefficient using the decoded transform coefficient of the adjacent block. As a method of generating the predicted transform coefficient, the same method as the method of generating the predicted signal by the transform coefficient prediction processing unit 3 in FIG. 1 is used. When the transform coefficient prediction processing unit 13 generates a prediction signal, the region determination result output from the variable length decoding unit 11 between the predicted transform coefficient and the prediction residual transform coefficient decoded by the inverse quantization unit 12. Prediction processing is performed by a prediction processing method corresponding to the type of region indicated by the signal, and a prediction residual signal (a signal corresponding to a frequency domain signal converted by the signal conversion unit 2 in FIG. 1) is decoded. Note that the prediction processing method corresponding to the type of region is the same as that in the first embodiment, and a description thereof will be omitted.
  • an area determination result signal indicating the type of area to which the macroblock belongs is extracted from the compressed data of the two-dimensional macroblock divided into a predetermined size, Since the decoding process corresponding to the type of region indicated by the region determination result signal is performed and the image signal is decoded from the compressed data of the two-dimensional macroblock, the image is encoded by the image encoding device of FIG. There is an effect that the processed image signal can be decoded.
  • all of the inverse quantization unit 12, the transform coefficient prediction processing unit 13, and the inverse transform unit 14 switch internal processes in accordance with the region determination result signal decoded by the variable length decoding unit 11. However, it is not always necessary to switch all of them. When inputting compressed data in which only a part of processing is switched by the image encoding device, if only a part of the corresponding processing is switched, Good.
  • a decoded image signal of an adjacent block to perform a prediction process to decode the image signal (a processing unit that performs a part of the decoding process), and the image signal prediction processing unit 15 has a variable length Prediction processing is performed using a prediction processing method corresponding to the type of region indicated by the region determination result signal output from the decoding unit 11.
  • the image signal prediction processing unit 15 receives the prediction residual signal of the block to be decoded, which is a spatial domain signal, from the inverse transform unit 14, the image signal prediction processing unit 15 uses the same method as the image signal prediction processing unit 6 of FIG. A prediction signal is generated from the decoded image signal. The image signal prediction processing unit 15 then predicts between the prediction signal and the prediction residual signal of the decoding target block, corresponding to the type of region indicated by the region determination result signal output from the variable length decoding unit 11. A prediction process is performed by the processing method to decode the image signal. According to the fifth embodiment, the image signal encoded by the image encoding device in FIG. 7 can be decoded.
  • the signal in the block is almost uniform as shown in FIG.
  • the signal in the block gradually changes in a specific direction.
  • extrapolation processing using pixels A to I located around the encoding target block is performed, so that a signal as shown in FIG.
  • high prediction efficiency can be obtained, in the case of a signal as shown in FIG. 10B, for pixels far from the pixels A to I, such as pixels h, k, n, l, o, and p.
  • sufficient prediction efficiency cannot be obtained.
  • a prediction image is generated by interpolation processing using the pixel p thus obtained and the surrounding pixels A to I.
  • an interpolation calculation method for example, linear interpolation using two pixels and weighting according to the distance (for example, a predicted value of the pixel m is obtained by (3 ⁇ E + p) / 4), or four pixels Is used to perform a conventionally known interpolation process such as bilinear interpolation (for example, a predicted value of pixel k is obtained by (A + 2 ⁇ E + 2 ⁇ I + 3 ⁇ p) / 8).
  • the encoded data representing the value of the pixel p (the value of the pixel p itself or the difference value from the average value of the surrounding pixels) may be encoded as the value itself. For example, only the upper 6 bits of the value
  • the encoding may be performed after performing quantization such as using. Since the range of values is narrowed by quantization, the code amount of encoded data can be reduced.
  • the prediction processing method is switched according to the determined type of region.
  • the signal in the block is substantially uniform and is determined to be a “flat region”
  • extrapolation prediction in the spatial domain the signal in the block is moderate in a specific direction.
  • the interpolation prediction in the spatial domain, the DC / AC coefficient prediction process for the transform coefficient for the “edge region”, and the DC for the transform coefficient for the “complex region” are performed. It is also possible to perform encoding processing while switching various prediction processing methods, such as coefficient prediction processing.
  • the area determination result is performed by the number of signal components by performing the area type determination process for each component. It is also possible to obtain a signal and switch the signal conversion / quantization / variable length encoding process for each component using the region determination result signal. In this case, encoding processing using the difference between the respective signal components is possible, and higher encoding efficiency can be obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

 画像信号を所定サイズの2次元ブロックに分割し、分割したブロック毎に、当該ブロックが属する領域の種類を判定する前処理部1を設け、前処理部1により分割されたブロック毎に、前処理部1により判定された領域の種類に対応する符号化処理を実施して圧縮データを生成する。これにより、画面内の各領域に適する符号化処理を実施することができるようになり、その結果、符号化の効率を高めることができる画像符号化装置が得られる。

Description

画像符号化装置及び画像復号装置
 この発明は、画像信号を可変長符号化する画像符号化装置と、画像符号化装置により可変長符号化された画像信号を復号する画像復号装置とに関するものである。
 フレーム内符号化(イントラ符号化)を行う従来の画像符号化装置として、以下、国際標準方式を採用している画像符号化装置を説明する。
 従来の画像符号化装置は、例えば、ISO/IEC10918(通称JPEG:非特許文献1を参照)や、ISO/IEC14496-2(通称MPEG-4visual:非特許文献2を参照)のように、画面を8画素×8ラインのブロックに分割し、分割したブロック毎に、2次元の離散コサイン変換(DCT)を用いて、空間領域から周波数領域に変換する。
 そして、符号化対象のブロックの変換係数(空間領域から周波数領域への変換係数)と、そのブロックに隣接するブロックの変換係数との差分による予測処理を実施して予測残差変換係数を求める。
 そして、その予測残差変換係数に対する所定の量子化処理を実施して量子化係数を求め、その量子化係数を可変長符号化(ハフマン符号化)する。
 ここで、図2は画面の一例を示す説明図である。
 図2に示すように、画面内には一般的に様々な被写体が含まれている。
 このため、画像信号がほとんど変化しない平坦な領域(例えば、背景の空の部分)や、一様な変化が連続している領域(例えば、前景の草原の部分)や、画像信号が激しく変化する複雑な領域(例えば、中央の木々の部分)などがある。
 各領域の境界となるエッジなどにおいては、局所的な変化が非常に大きな画像信号となる。
 図3は図2の画面に類似する画面における2つの領域(空の領域、木々の領域)の画像信号の特性を示す説明図である。
 8ビットの画像信号の場合、0~255までの256階調を有するが、空の領域では、60~110辺りの非常に狭い範囲に画像信号が分布していることが分かる。一方、木々の領域では、0~255までの全域に亘って、ほぼ均等に画像信号が分布していることが分かる。
 2つの領域に対して、8×8サイズの2次元DCTを実施して、2次元DCTの変換係数の電力を測定すると、図4に示すように、空の領域では、ほとんどの成分が弱い電力しか有していないが、木々の領域では、多くのAC(交流成分)係数に対して、かなり大きな電力を有していることが分かる。
 特に木々の領域では、DC(直流)成分である(0,0)成分に近い(0,1)や(1,0)などの低周波数のAC成分には大きな電力が現われていることが分かる(図4では、見易くするために、直流成分の電力値を0としている。図4では、正の値しかとらない電力を用いて表しているが、実際の変換係数は正・負の両方の値をとる)。
ISO/IEC 10918-1「Information technology --Digital compression and coding of continuous-tone still images -- Part 1: Requirements and guidelines」 ISO/IEC 14496-2「Information technology -- Coding of audio-visual objects -- Part 2: Visual」
 従来の画像符号化装置は以上のように構成されているので、通常画面内には画像信号が大きく変化する領域と、あまり変化しない領域とが存在するが、画面内の全ての画像信号に対して、同一の符号化処理を実施して、画像信号を符号化している。このため、その符号化処理が、画像信号があまり変化しない領域に適する処理であれば、画像信号が大きく変化する領域には適さず、逆に、画像信号が大きく変化する領域に適する処理であれば、画像信号があまり変化しない領域には適さなくなり、符号化の効率が劣化してしまうことがあるなどの課題があった。
 この発明は上記のような課題を解決するためになされたもので、画面内の各領域に適する符号化処理を実施して、符号化の効率を高めることができる画像符号化装置を得ることを目的とする。
 また、この発明は、上記の画像符号化装置により符号化された画像信号を復号することができる画像復号装置を得ることを目的とする。
 この発明に係る画像符号化装置は、画像信号を所定サイズの2次元ブロックに分割するブロック分割手段と、ブロック分割手段により分割されたブロック毎に、当該ブロックが属する領域の種類を判定する領域種類判定手段とを設け、符号化手段がブロック分割手段により分割されたブロック毎に、領域種類判定手段により判定された領域の種類に対応する符号化処理を実施して圧縮データを生成するようにしたものである。
 この発明によれば、画像信号を所定サイズの2次元ブロックに分割するブロック分割手段と、ブロック分割手段により分割されたブロック毎に、当該ブロックが属する領域の種類を判定する領域種類判定手段とを設け、符号化手段がブロック分割手段により分割されたブロック毎に、領域種類判定手段により判定された領域の種類に対応する符号化処理を実施して圧縮データを生成するように構成したので、画面内の各領域に適する符号化処理を実施することができるようになり、その結果、符号化の効率を高めることができる効果がある。
この発明の実施の形態1による画像符号化装置を示す構成図である。 画面の一例を示す説明図である。 図2の画面に類似する画面における2つの領域(空の領域、木々の領域)の画像信号の特性を示す説明図である。 図2の画面に類似する画面における2つの領域(空の領域、木々の領域)における各AC係数の電力を示す説明図である。 量子化テーブルの一例を示す説明図である。 ハフマン符号語テーブルの一例を示す説明図である。 この発明の実施の形態3による画像符号化装置を示す構成図である。 この発明の実施の形態4による画像復号装置を示す構成図である。 この発明の実施の形態5による画像復号装置を示す構成図である。 符号化対象ブロックの画素等を示す説明図である。 符号化対象ブロックの画素等を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1はこの発明の実施の形態1による画像符号化装置を示す構成図である。
 図1において、前処理部1は画像信号を入力すると、その画像信号を所定サイズの2次元ブロック(以下、このブロックをMPEGの規格に従って「マクロブロック」と称する)に分割して、各マクロブロックの画像信号(以下、「マクロブロック信号」と称する)を信号変換部2に出力する処理を実施する。
 また、前処理部1は各マクロブロックが属する領域の種類(例えば、平坦領域、エッジ領域、複雑領域)を判定し、その領域の種類を示す領域判定結果信号を信号変換部2、変換係数予測処理部3、量子化部4及び可変長符号化部5に出力する処理を実施する。
 なお、前処理部1はブロック分割手段及び領域種類判定手段を構成している。
 信号変換部2、変換係数予測処理部3、量子化部4及び可変長符号化部5から、前処理部1により分割されたマクロブロック毎に、領域判定結果信号が示す領域の種類に対応する符号化処理を実施して、圧縮データを生成する符号化手段が構成されている。
 信号変換部2は前処理部1から出力されたマクロブロック信号である空間領域の信号を所定サイズのブロックに分割してブロックごとに周波数領域の信号に変換し、その変換係数を出力する処理部(符号化処理の一部を実施する処理部)であり、信号変換部2は入力されたマクロブロック信号に対して、変換処理を施すブロックのサイズを前処理部1から出力された領域判定結果信号が示す領域の種類に対応するサイズで分割し、分割後の個々のブロック信号を空間領域の信号から周波数領域の信号に変換する。
 変換係数予測処理部3は、符号化対象のブロックの変換係数と、符号化対象のブロックに隣接しているブロックの変換係数との間で予測処理を実施して、予測残差変換係数を生成する処理部(符号化処理の一部を実施する処理部)であり、変換係数予測処理部3は前処理部1から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施する。
 量子化部4は変換係数予測処理部3により生成された予測残差変換係数に対する量子化処理を実施して、量子化係数を算出する処理部(符号化処理の一部を実施する処理部)であり、量子化部4は前処理部1から出力された領域判定結果信号が示す領域の種類に対応する量子化パラメータ及び量子化テーブルを用いて量子化処理を実施する。
 ここで、「量子化テーブル」は、周波数に対する重み付け値を格納しているテーブルであり、「量子化パラメータ」は、量子化テーブルに対する重み付け値である。
 可変長符号化部5は量子化部4により算出された量子化係数に対する可変長符号化処理を実施して、圧縮データを生成する処理部(符号化処理の一部を実施する処理部)であり、可変長符号化部5は前処理部1から出力された領域判定結果信号が示す領域の種類に対応するハフマン符号語テーブル(可変長符号語テーブル)を用いて可変長符号化処理を実施する。
 また、可変長符号化部5は前処理部1から出力された領域判定結果信号を符号化し、その領域判定結果信号の符号化データを圧縮データに含めて画像復号装置等に出力する。
 次に動作について説明する。
 前処理部1は、画像信号を入力すると、その画像信号を所定サイズの2次元ブロックであるマクロブロックに分割して、各マクロブロックの画像信号として、マクロブロック信号を信号変換部2に出力する。
 また、前処理部1は、各マクロブロックが属する領域の種類を判定し、その領域の種類を示す領域判定結果信号を信号変換部2、変換係数予測処理部3、量子化部4及び可変長符号化部5に出力する。
 この実施の形態1では、領域の種類として、画像信号の変化が乏しい「平坦領域」、領域の境界を含むために画像信号が急峻に変化する「エッジ領域」、画像信号の変化が激しい「複雑領域」の3種類を例として説明する。
 以下、前処理部1における領域の種類の判定方法を具体的に説明する。
 前処理部1は、例えば、図3に示すような画像信号の頻度分布をマクロブロック単位に測定する。
 前処理部1は、画像信号の頻度分布をマクロブロック単位に測定すると、一つの狭い範囲を設定し、画像信号の頻度分布が一つの狭い範囲に集中する領域を「平坦領域」と判定する。
 また、前処理部1は、画像信号の頻度分布が二つの狭い範囲に集中する領域を「エッジ領域」と判定する。
 さらに、前処理部1は、画像信号の頻度分布が広い範囲に亘る領域を「複雑領域」と判定する。
 その他の判定方法としては、次のようなものが考えられる。
 例えば、図4のような結果が得られるように、画像信号をブロック単位に周波数領域の信号に変換し、その変換係数の直流成分(DC成分)を除いた総電力量の大きさを2つの閾値を用いて、3段階に分けることにより、3つの領域(平坦領域、エッジ領域、複雑領域)に分類する方法が挙げられる。
 類似の手法として、例えば、図4に示される(水平、垂直)が(0,1)の成分の電力と、(1,0)の成分の電力とを測定し、2つの成分の電力の和や平均を2つの閾値を用いて3段階に分ける方法や、(0,1~7)の成分の電力と(1~7,0)の成分の電力の和及び比を測定して、その測定結果を2つの閾値を用いて3段階に分ける方法が考えられる。
 画面の水平方向にエッジがある場合、水平方向の1~7の成分には係数が発生せずに、垂直方向の1~7の成分に大きな係数が発生することになるため、水平方向と垂直方向を分けて測定することにより、エッジの有無をより高精度に検出することができる。
 信号変換部2は、前処理部1からマクロブロック信号と領域判定結果信号を受けると、前処理部1により分割されたマクロブロックに対して、領域判定結果信号が示す領域の種類に対応するサイズで分割し、分割後の個々のブロック信号を空間領域の信号から周波数領域の信号に変換する。
 以下、領域の種類に対応するブロックのサイズについて説明する。
 「平坦領域」では、マクロブロック内の信号の変化が小さく、図4(a)のように、変換係数のAC成分のほとんどの値が小さいため、例えば、ブロックのサイズを“16×16”というように大きくしても、やはりブロック内の変換係数のAC成分のほとんどの値は小さくなる。
 そこで、「平坦領域」と判定された場合には、大きなブロックサイズを選択する。このようにすることによって、周波数領域に変換した際の変換効率が高められる。
 逆に、「複雑領域」の場合、大きなブロックでは、複数のテクスチャが含まれており、周波数変換の効率が得られないため、例えば、ブロックのサイズを“4×4”というように小さくすることによって、周波数変換の効率を高める(ブロックのサイズが小さくなると、テクスチャが単一になるように処理されるため、周波数変換の効率が高まる)。
 ただし、目標とするビットレートや符号化画質などに関する画像符号化の目的によっては、例えば平坦な領域の微妙な変化を画質として表現したいという目的がある場合には「平坦領域」を小さなブロックで、画質を犠牲にして非常に低いビットレートで圧縮する必要がある場合には「複雑領域」を大きなブロックで、それぞれ変換処理を実施した方が、符号化の効率を高められる場合もある。
 ここでは、信号変換部2はブロックの分割サイズを変更するものについて示したが、領域判定結果信号が示す領域の種類に応じて、信号の変換方式を切り替えるようにしてもよい。
 信号変換部2は、信号の変換方式として、一般的にはDCT(離散コサイン変換)を使用するが、例えば、ウェーブレット変換、ハール変換、アダマール変換、スラント変換などの変換方式を使用してもよい。
 これらの変換方式は、それぞれ特長があり、例えば、ハール変換とアダマール変換は、“+1”と“-1”の2つの変換係数のみで構成されているため、加算・減算処理だけで変換することが可能であり、少ない演算量で、かつ、浮動小数点演算のようにプロセッサによる演算誤差が発生しないという特長がある。
 また、ウェーブレット変換は、符号化画像のブロック境界を発生することなく変換することができるという特長がある。
 スラント変換は、V字型やW字型のように直線的な傾斜成分に変換するものであり、明るさや色あいが滑らかに変化する信号に対して、少ない係数で変換することができるという特長がある。
 「平坦領域」では、ブロック境界が発生すると目立ち易いので、ブロック境界が発生しないウェーブレット変換を選択し、あるいは、演算誤差が発生すると目立ち易いので、演算誤差が発生しないハール変換もしくはアダマール変換を選択するなどが考えられる。
 また、「平坦領域」では、前述のようにAC成分があまり発生しないので、変換効率の差が得られ難い。そこで、DCTのように演算処理は多いが、変換効率の高いものを使用する代わりに、変換効率はDCTよりも劣るが、演算処理量が少ないハール変換もしくはアダマール変換を選択するという手法が考えられる。あるいは、平坦ではあっても一様に緩やかに変化するグラデーションのかかった成分を含むような場合には、傾斜成分を利用できるスラント変換を選択するという手法が考えられる。
 「複雑領域」では、ブロック境界が目立ち難いので、DCTを選択するなどが考えられる。あるいは、多くのAC成分の変換係数が発生するので、より変換効率が高いDCTを選択するなどが考えられる。
 「エッジ領域」では、水平方向や垂直方向のエッジ成分の場合、急峻なエッジを表現可能なハール変換やアダマール変換を選択するという手法が考えられ、また、斜め方向のエッジ成分の場合、多くのAC成分が必要となるため、変換効率の高いDCTを選択するという手法が考えられる。
 あるいは、大きなブロックサイズが選択されたときには、多くの信号を扱うために、演算に必要とするビット数が多くなるが、小さなブロックサイズが選択されたときには、少ない信号しか扱わないので、例えば演算に使用できるビット数が制限されているプロセッサを使用する場合には、大きなブロックサイズが選択されたときにはハール変換やアダマール変換のように少ない演算量で構成できるものを選択し、小さなブロックサイズが選択されたときにはDCTやウェーブレット変換のように多くの演算量を必要とするものを選択する手法が考えられる。
 このように、符号化の目的や用途に応じて、変換方式を切り替えるようにすればよい。
 これにより、符号化の圧縮効率を高めたり、復号画像の主観的な画質を高めたりすることが可能となる。
 なお、上記説明では、判定された領域に対して、特定の変換方式を1対1で割り当てるものを示したが、例えば「平坦領域」では、アダマール変換、DCT、ウェーブレット変換、「複雑領域」では、DCT、ウェーブレット変換、アダマール変換というように、領域毎に使用する変換方式の優先順位を設けておいて、どの変換方式を選択したかを示すデータを追加し、それぞれの領域毎、あるいは、ブロック毎に変換方式を選択できるようにしてもよい。
 これにより、最も適した変換方式を使用して、符号化処理を行うことができるようになるため、高い符号化効率を得ることができる。
 変換係数予測処理部3は、信号変換部2から符号化対象のマクロブロックの変換係数を受けると、符号化対象のブロックの変換係数と、符号化対象のブロックに隣接しているブロック(以下、「隣接ブロック」と称する)の変換係数との間で予測処理を実施して、予測残差変換係数を生成する。
 ただし、変換係数予測処理部3は、予測処理を実施して、予測残差変換係数を生成する際、前処理部1から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施する。
 以下、領域の種類に対応する予測処理方式について説明する。
 「平坦領域」では、図4(a)のように、変換係数の値が非常に小さいため、AC係数の予測処理の効果がほとんど得られない。
 そこで、変換係数予測処理部3は、平坦領域と判定されたマクロブロックに対しては、AC係数の予測処理を一切行わないようにする。
 MPEG-4の場合、マクロブロック毎に、AC係数の予測処理を行うか否かを示す“ac_pred_flag”という1ビットのフラグを圧縮データに必ず含める方式となっているが、平坦領域と判定された場合には、AC予測を行わないので、“ac_pred_flag”を含まないことにすることができる。
 このようにすることによって、1つのマクロブロックで、1ビットのデータを削減することが可能となる。
 「エッジ領域」の場合、例えば、水平方向のエッジを含むブロックでは、(水平、垂直)が(1~7,0)の成分に大きな値の変換係数が発生し、垂直方向のエッジを含むブロックでは(0,1~7)の成分に大きな値の変換係数が発生する。
 このエッジ成分が複数のブロックを跨って連続している場合には、隣接ブロックと同じような変換係数が発生するため、変換係数の予測処理を行うことによって、予測残差変換係数の多くがゼロに近くなる。そのため、後段の量子化処理・可変長符号化処理によって、符号化効率を大いに高まることが期待される。
 そこで、変換係数予測処理部3は、エッジ領域と判定されたマクロブロックに対しては必ずAC係数の予測処理を行うようにする。
 MPEG-4の場合、上記の平坦領域と同様に、“ac_pred_flag”の1ビットのデータを削減することが可能となる。
 「複雑領域」では、図4(b)のように、多くの変換係数が発生するとともに、その変換係数の値も大きなものとなる。
 また、複雑な信号であるため、必ずしも隣接ブロックと同じような変換係数が発生するとは限らない。
 そこで、AC係数の予測処理については、従来のMPEG-4の“ac_pred_flag”と同様に、AC予測処理を行うか否かを示すデータを生成して、圧縮データに加えることにより、符号化効率が高められる処理を選択できるようにする。
 AC係数の予測処理においては、後段のAC係数の量子化処理と組み合わせる手法が考えられる。
 量子化処理において、量子化パラメータが大きい場合には、多くのAC係数がゼロに量子化されることになり、大きな量子化誤差が発生する。
 一方、量子化パラメータが小さい場合には、多くのAC係数が非ゼロに量子化されることになり、量子化誤差が小さく抑えられる。
 そこで、量子化パラメータが大きい場合には、AC係数に対する予測効果がほとんど得られないので、常にAC予測処理を行わないようにする。これにより、AC予測処理を行うか否かを示すデータを不要とすることができる。
 一方、量子化パラメータが小さい場合には、AC係数に対する予測効果が、周辺の画像信号の状態に応じて得られる場合と得られない場合があるため、AC予測処理を行うか否かを示すデータを生成して、AC予測を行ったり行わなかったりする。これにより、AC予測処理によって符号化効率が高められる。
 AC係数の予測処理としては、信号変換部2から出力された符号化対象のブロックの変換係数と、隣接ブロックの変換係数との7つのAC係数に対して、単純に差分を求める従来のMPEG-4の方式を使用するだけではなく、例えば、差分を求める際、隣接ブロックの変換係数を半分の値や2倍の値にする所定の重み付け処理を実施してから、上記の差分を求める方法を使用するようにしてもよい。
 また、DC係数に近い3つのAC係数だけを対象にして予測処理を実施したり、63個のAC係数の全てを対象にして予測処理を実施したりするなど、予測する対象のAC係数の個数を切り替えることによって、符号可能効率を高める手法を使用してもよい。
 このように、重み付け処理を実施する場合や、予測する変換係数の個数を切り替える場合には、重み付けの値や予測する対象のAC係数の個数などを示すパラメータを、別途、後述する可変長符号化部5から出力される圧縮データに含めるようにする。
 あるいは、「エッジ領域」では、前述のように水平方向または垂直方向の7個のAC係数だけを対象とし、「複雑領域」では、63個のAC係数の全てを対象とするというように、領域に応じて予測するAC係数の個数を切り替える手法も考えられる。これにより、領域の信号状態に適した予測処理が可能となる。
 なお、重み付けの値は、一つのブロックに対して固定の値ではなく、63個のAC係数のそれぞれの成分毎に個別の値を使用することも可能である。この場合には、63個の重み付けの値を圧縮データに含めることになる。
 量子化部4は、変換係数予測処理部3から予測残差変換係数を受けると、前処理部1から出力された領域判定結果信号が示す領域の種類に対応する量子化パラメータ及び量子化テーブルを用いて、その予測残差変換係数に対する量子化処理を実施して、量子化係数を算出する。
 通常、量子化部4に用いられる量子化パラメータと量子化テーブルは、画像符号化装置に与えられる目標符号量の大小や、それまでに発生している符号量の大小に応じて値が設定されるが、この実施の形態1では、前処理部1から出力される領域判定結果信号が示す領域の種類に応じて値が設定されるように構成されている。
 以下、領域の種類に対応する量子化パラメータと量子化テーブルについて説明する。
 「平坦領域」では、画像信号の変化が乏しく、図4(a)のように、ほとんどの変換係数は小さな値しかとらないため、予測残差変換係数も小さな値をとる。
 逆に「複雑領域」では、画像信号の変化が大きく、図4(b)のように、多くの変換係数が大きな値をとるため、予測残差変換係数も大きな値をとる傾向になる。
 「エッジ領域」では、エッジの方向成分に合わせて、特定の変換係数が大きな値をとるため、AC予測がうまく効いたときには、予測誤差変換係数は小さな値となるが、AC予測がうまく効かなかったときには、予測誤差変換係数は大きな値をとる。
 そこで、圧縮率の低い高画質な符号化処理を行う場合、「平坦領域」では、量子化パラメータを小さくすることにより、平坦ながらも微小に変化している画像を表現することができるようにする。
 一方、高い圧縮率で画質の低い符号化処理を行う場合、「平坦領域」では、量子化パラメータを大きくすることにより、ほとんどの量子化係数をゼロにして、符号化効率を格段に高めることができるようにする。
 「複雑領域」では、量子化パラメータを大きくすることにより、符号量の発生を抑制するようにする。
 「エッジ領域」については、エッジ周辺に発生しやすい符号化雑音を抑制するために、小さめの量子化パラメータを使用する。
 このように領域の種類に応じて量子化パラメータを設定することによって、符号化効率を高めることが可能となる。
 量子化テーブルについても、値の大小を設定することで、量子化パラメータと同様の効果を得ることが可能となるが、量子化テーブルの場合には、予測残差変換係数の周波数領域毎に重みを付けて設定することができる。
 例えば、JPEGやMPEGでは、図4の(0,1)や(1,0)の成分には小さめの値、(7,7)成分には大きめの値を設定する推奨値や初期値が標準書に記されている。
 従来の符号化方式では、画面内で全て同じ値の量子化テーブルを使用するようにしているが、この実施の形態1では、領域単位に異なる値の量子化テーブルを使用するようにしている。
 図5は量子化テーブルの一例を示す説明図である。
 「平坦領域」では、図5(a)に示すように、量子化テーブルの全ての値を小さくすることによって、微小に変化している画像を表現できるようにしている。
 「複雑領域」では、図5(c)に示すように、量子化テーブルの値を周波数が高い領域程、大きくすることによって、低周波成分については、少ない符号量であっても表現ができるようにしている。
 「エッジ領域」でも、「複雑領域」と同様に、量子化テーブルの値を周波数が高い領域程、大きくしているが、図5(b)に示すように、「複雑領域」における量子化テーブルの値より小さな値に設定している。
 なお、量子化テーブルの値については、規格として値を定めて、画像符号化装置及び画像復号装置にそれぞれ同じ値を設定するようにしてもよいし、初期値のみを定めておいて、画像符号化装置が量子化テーブルの値を圧縮データに含めて画像復号装置に送信することで、量子化テーブルの値を随時更新するようにしてもよい。
 あるいは、それぞれの領域毎に、複数の量子化テーブルを用意して、量子化テーブルを選択できるようにして、どの量子化テーブルを選択したかのデータを別途符号化してもよい。圧縮率が高いときには、大きな値の量子化テーブルを使用することにより、符号量を減らすことができる。圧縮率が低いときには、小さな値の量子化テーブルを使用することにより、画質を高めることができる。
 可変長符号化部5は、量子化部4から量子化係数を受けると、前処理部1から出力された領域判定結果信号が示す領域の種類に対応するハフマン符号語テーブルを用いて、その量子化係数に対する可変長符号化処理を実施して、圧縮データを生成する。
 従来の符号化方式では、予め定められているハフマン符号語テーブルや算術符号化方式を使用しており、画面内の全ての領域に対して同じ可変長符号化処理を行うようにしているが、この実施の形態1では、前処理部1から出力される領域判定結果信号が示す領域の種類に応じて、ハフマン符号語テーブルや算術符号化方式を切り替えることにより、より効率の高い可変長符号化処理を実施できるようにしている。
 図6はハフマン符号語テーブルの一例を示す説明図である。
 「平坦領域」では、図4(a)のように、変換係数の値が小さいため、多くの量子化係数が小さな値になる。
 そこで、図6(a)に示すように、小さな値が多く発生する状態に最適化しているハフマン符号語テーブルを使用することによって、可変長符号化処理の効率を高めることができるようにしている。
 「複雑領域」では、図4(b)のように、変換係数の値が大きなものから小さなものまで色々と発生するため、図6(b)に示すように、このような状態に最適化しているハフマン符号語テーブルを使用することによって、可変長符号化処理の効率を高めることができるようにしている。
 ここでは、可変長符号化部5がハフマン符号語テーブルを切り替えるものについて示したが、JPEGやMPEGで採用されている8×8の2次元のブロックデータを64個の1次元データに並べ替えるジグザグスキャンと呼ばれる処理についても、領域の種類に応じて切り替えるようにしてもよい。
 例えば、平坦領域や複雑領域では、図4に示すように、低周波領域から高周波領域に向かって変換係数が一様に小さくなっていくので、従来のジグザグスキャンを使用すればよいが、エッジ領域の場合、例えば、水平方向のエッジを含むマクロブロックでは、水平方向の高周波領域の係数は小さい電力しか持たないが、垂直方向の高周波領域の係数は大きな電力を持つため、垂直方向を優先的にスキャンし、逆に垂直方向のエッジを含むマクロブロックでは、水平方向を優先的にスキャンするように切り替える。
 可変長符号化部5は、上記のようにして、圧縮データを生成すると、前処理部1から出力された領域判定結果信号を符号化し、その領域判定結果信号の符号化データを上記圧縮データに含めて画像復号装置に送信する。
 以上で明らかなように、この実施の形態1によれば、画像信号を所定サイズの2次元ブロックに分割し、分割したブロック毎に、当該ブロックが属する領域の種類を判定する前処理部1を設け、前処理部1により分割されたブロック毎に、前処理部1により判定された領域の種類に対応する符号化処理を実施して圧縮データを生成するように構成したので、画面内の各領域に適する符号化処理を実施することができるようになり、その結果、符号化の効率を高めることができる効果を奏する。
 なお、この実施の形態1では、前処理部1により判定された領域の種類に応じて信号変換部2、変換係数予測処理部3、量子化部4、可変長符号化部5の全てが内部の処理を切り替えるものとして説明したが、必ずしも全てが切り替える必要はなく、一部の処理だけが切り替えるものであっても、符号化の効率を高めることは可能である。
実施の形態2.
 上記実施の形態1では、前処理部1が領域の種類を判定して、「平坦領域」と「エッジ領域」と「複雑領域」の3つに分類するものについて示したが、前処理部1が領域の種類を判定して、例えば、「高階調が必要な領域」と「高階調が不要な領域」の2つに分類するようにしてもよい。
 以下、具体例を説明する。
 ディジタルの画像信号は、各々の画素が持つビット数で階調が決められる。
 例えば、8ビットの画素の場合、0~255の256階調を表現することができ、12ビットの画素の場合、0~2047の2048階調を表現することができる。
 階調数が大きい程、画像信号の表現力が豊かになり、高品質化が可能になるが、データ量が大きくなるため、取り扱いの不便さが発生する。
 一般の画像信号の場合、画面の全体に対して、必ずしも高階調である必要はなく、大抵の場合、画面の一部分だけが高階調であれば十分である。
 図2を例にとって説明すると、木々の領域は、画像信号の変化が激しいため、例え細かな信号表現が行えても人間の目には感知できない。また、符号化処理を実施すると、多くの符号化雑音が発生してしまうため、高階調の効果がほとんど得られない。
 一方、空の領域は、微妙な陰影や地平に向かって、段々と青が薄くなるようなグラデーションが含まれる場合、画像信号の変化が小さいため、階調数が少ないと表現力がなくなる。そのため、微妙な変化が全てなくなって一色で表されたり、徐々に変化していくグラデーションが階段状に変化してしまって、自然な感じが失われてしまったりすることがある。
 そこで、この実施の形態2では、前処理部1が領域の種類として、空の領域のような「高階調が必要な領域」と、木々の領域のような「高階調が不要な領域」とを判別するようにしている。
 信号変換部2は、前処理部1から出力されたマクロブロック信号を空間領域の信号から周波数領域の信号に変換する際、「高階調が必要な領域」のマクロブロック信号の変換処理の実施については、例えば、処理するビット長を長くして変換処理の精度を高め、誤差の少ない処理を行うようにする。
 一方、「高階調が不要な領域」のマクロブロック信号の変換処理の実施については、例えば、処理するビット長を短くして、変換処理の精度が低くなっても、処理負荷が軽くなるようにする。
 変換係数予測処理部3は、予測処理を実施して、予測残差変換係数を生成する際、符号化対象のマクロブロックが「高階調が必要な領域」の場合、上記実施の形態1と同様に、隣接マクロブロックの変換係数を用いて、誤差が少ない予測処理を実施する。
 一方、符号化対象のマクロブロックが「高階調が不要な領域」の場合、例えば、処理するビット長を短くし、予測処理の精度が低くなる代わりに処理負荷が軽くなるようにする。
 量子化部4は、変換係数予測処理部3から出力された予測残差変換係数に対する量子化処理を実施する際、符号化対象のマクロブロックが「高階調が必要な領域」の場合、小さな値の量子化パラメータを使用して、量子化誤差が少ない量子化処理を実施するようにする。
 あるいは、周波数領域上で重み付けがない量子化テーブルや、重み付けが小さい量子化テーブルを使用して、量子化誤差が少ない量子化処理を実施するようにする。
 例えば、12ビットの予測残差変換係数を量子化する場合、量子化パラメータとして、1~4などの小さな値を使用すると、量子化部4から出力される量子化係数は12~10ビットになるが、図4(a)のように、元々、変換係数の値として小さなものが多いため、出力される量子化係数も小さなものが多くなる。
 一方、符号化対象のマクロブロックが「高階調が不要な領域」の場合、量子化誤差が大きくなっても構わないので、大きな値の量子化パラメータや、周波数領域上で重み付けが大きい量子化テーブルを使用して、量子化処理を実施する。
 例えば、12ビットの予測残差変換係数を量子化する場合、量子化パラメータとして、32~128などの大きな値を使用すると、量子化部4から出力される量子化係数は7~5ビットとなり、同時に多くの量子化係数はゼロになる。
 可変長符号化部5は、量子化部4から出力された量子化係数に対する可変長符号化処理を実施する際、符号化対象のマクロブロックが「高階調が必要な領域」の場合、値が小さな量子化係数が多いので、小さな値が多く発生する状態に最適化しているハフマン符号語テーブルを使用することによって(図6(a)を参照)、可変長符号化処理を実施する。
 一方、符号化対象のマクロブロックが「高階調が不要な領域」の場合、値がゼロの量子化係数が多いので、ゼロの値が多く発生する状態に最適化しているハフマン符号語テーブルを使用することによって、可変長符号化処理を実施する。
 以上で明らかなように、この実施の形態2によれば、「高階調が必要な領域」と「高階調が不要な領域」を判定し、その判定結果に対応する符号化処理を実施するように構成したので、上記実施の形態1と同様に、符号化の効率を高めることができる効果を奏する。
実施の形態3.
 上記実施の形態1では、MPEG-2やMPEG-4などの変換係数に対して予測処理を実施する符号化方式に適用するものについて示したが、例えば、ISO/IEC14496-10(通称AVC(ITU-T H.264と同じ方式):非特許文献3)で採用されている空間領域において、画像信号の予測処理を実施する符号化方式に適用するようにしてもよい。
  [非特許文献3]
 ISO/IEC 14496-10「Information technology -- Coding of audio-visual objects -- Part 10: Advanced video coding」
 図7はこの発明の実施の形態3による画像符号化装置を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
 画像信号予測処理部6は前処理部1により分割されたマクロブロックに対して所定のサイズのブロックに分割し、符号化対象のブロック信号と、隣接ブロック信号との間で予測処理を実施して、予測残差信号を生成する処理部(符号化処理の一部を実施する処理部)であり、画像信号予測処理部6は前処理部1から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施する。
 以下、画像信号予測処理部6の処理内容を具体的に説明する。
 画像信号予測処理部6は、隣接ブロック信号を用いて予測信号を生成し、その予測信号と符号化対象のブロック信号との間で予測処理を実施して、予測残差信号を生成する。
 このとき、隣接ブロック信号から生成する予測信号が、符号化対象のブロック信号と近い程、予測残差信号の値がゼロに近くなるため、後段の信号変換部2、量子化部4及び可変長符号化部5の処理によって、高い符号化効率を得ることができる。
 予測信号の生成方法として、例えば、輝度信号に対して、4×4ブロック単位と8×8ブロック単位で予測を行う場合には、9つの予測方法が規格としてAVCに定められている。
 また、16×16ブロック単位で予測を行う場合には、4つの予測方法が規格としてAVCに定められている。
 例えば、画像信号が平坦領域の場合、どのような予測処理を実施しても、ほぼ同じ予測効率しか得られないため、予測モードを多く用意する意味がない。
 そこで、領域判定結果信号が示す領域の種類が平坦領域である場合、予測モードとして、予め定めている1つ、もしくは、2~4通りの予測方法のみの使用に制限する。
 このような制限を行うことで、予測モードを特定する符号量を削減することが可能になる。
 例えば、固定ビット長で予測モードを特定する場合で考えると、9通りの予測方法を使用する場合には、9通りの予測方法を区別するために4ビットの符号長が必要となるが、予測モードが1つだけであれば、予測モードを特定する符号が不要となり、4通りの予測方法のみの使用に制限すれば、4通りの予測方法を区別するための符号長が2ビットで足りるようになる。
 また、平坦領域であれば、16個の4×4ブロックのそれぞれに対して予測処理を実施しても、1個の16×16ブロックに対して予測処理を実施しても、ほぼ同じ予測効率しか得られない。
 そこで、平坦領域の場合には、16×16ブロック単位の予測のみを行うことにして、どのブロックサイズを単位にして、予測処理を行ったかを示すモード情報を不要にする。
 画像信号が複雑領域の場合にも、エッジのような強い特徴が画像信号になければ、どのような予測処理を行っても、あまり大差がでないが、8×8ブロックや16×16ブロックよりは、4×4ブロックの方が局所的な画像信号の変化に追従が可能となるため、符号化性能が一般には高められる。
 そこで、複雑領域の場合には、4×4ブロック単位の予測のみを行うことにして、どのブロックサイズを単位にして予測処理を行ったかを示すモード情報を不要にする。
実施の形態4.
 図8はこの発明の実施の形態4による画像復号装置を示す構成図である。
 図8の画像復号装置は、図1の画像符号化装置に対応しており、MPEG-2やMPEG-4などの変換係数に対して予測処理を行う復号方式を採用している。
 図8において、可変長復号部11は画像符号化装置から送信された圧縮データを受信すると、その圧縮データに対する可変長復号処理(例えば、ハフマン復号、算術復号)を実施して、その圧縮データに含まれている領域判定結果信号と量子化係数を復号する処理を実施する。
 ただし、可変長復号部11は量子化係数を復号する際、先に復号している領域判定結果信号が示す領域の種類に対応するハフマン符号語テーブル(可変長符号語テーブル)を用いて可変長復号処理を実施する。
 なお、可変長復号部11は領域判定結果信号取出手段を構成している。
 可変長復号部11、逆量子化部12、変換係数予測処理部13及び逆変換部14から、上記の領域判定結果信号が示す領域の種類に対応する復号処理を実施して、所定サイズに分割されている2次元ブロックの圧縮データから画像信号を復号する復号手段が構成されている。
 逆量子化部12は可変長復号部11により復号された量子化係数に対する逆量子化処理を実施して、予測残差変換係数を復号する処理部(復号処理の一部を実施する処理部)であり、逆量子化部12は可変長復号部11により復号された領域判定結果信号が示す領域の種類に対応する量子化パラメータ及び量子化テーブルを用いて、逆量子化処理を実施する。
 変換係数予測処理部13は隣接ブロックの復号変換係数を用いて予測変換係数を生成し、その予測変換係数と逆量子化部12により復号されたブロックの予測残差変換係数との間で予測処理を実施して、予測残差信号を復号する処理部(復号処理の一部を実施する処理部)であり、変換係数予測処理部13は可変長復号部11により復号された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施する。
 逆変換部14は変換係数予測処理部13により復号された予測残差信号である周波数領域の信号を空間領域の信号に変換する処理部(復号処理の一部を実施する処理部)であり、逆変換部14はブロックのサイズを可変長復号部11により復号された領域判定結果信号が示す領域の種類に対応するサイズを単位にして予測残差信号を周波数領域の信号から空間領域の信号に変換する。
 次に動作について説明する。
 可変長復号部11は、画像符号化装置から送信された圧縮データを受信すると、例えば、ハフマン復号や算術復号などの可変長復号処理を実施して、その圧縮データに含まれている領域判定結果信号を復号し、その領域判定結果信号を逆量子化部12、変換係数予測処理部13及び逆変換部14に出力する。
 また、可変長復号部11は、先に復号している領域判定結果信号が示す領域の種類に対応するハフマン符号語テーブルを用いて、その圧縮データに対する可変長復号処理を実施することで、その圧縮データに含まれている量子化係数(図1の量子化部4から出力される量子化係数に対応する係数)を復号する。
 なお、領域の種類に対応するハフマン符号語テーブルについては、上記実施の形態1と同様であるため説明を省略する。
 逆量子化部12は、可変長復号部11から量子化係数を受けると、可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応する量子化パラメータ及び量子化テーブルを用いて、その量子化係数に対する逆量子化処理を実施して、予測残差変換係数(図1の変換係数予測処理部3から出力される予測残差変換係数に対応する係数)を復号する。
 なお、領域の種類に対応する量子化パラメータ及び量子化テーブルについては、上記実施の形態1と同様であるため説明を省略する。
 変換係数予測処理部13は、逆量子化部12から予測残差変換係数を受けると、隣接ブロックの復号変換係数を用いて予測変換係数を生成する。予測変換係数を生成する方法としては、図1の変換係数予測処理部3が予測信号を生成する方法と同じ方法を用いる。
 変換係数予測処理部13は、予測信号を生成すると、その予測変換係数と逆量子化部12により復号された予測残差変換係数との間で、可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施して、予測残差信号(図1の信号変換部2により変換された周波数領域の信号に対応する信号)を復号する。
 なお、領域の種類に対応する予測処理方式については、上記実施の形態1と同様であるため説明を省略する。
 逆変換部14は、変換係数予測処理部13からブロックの予測残差信号を受けると、可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応するブロックサイズを単位にして予測残差信号を周波数領域の信号から空間領域の信号(画像信号)に変換する。
 なお、領域の種類に対応するブロックのサイズについては、上記実施の形態1と同様であるため説明を省略する。
 以上で明らかなように、この実施の形態4によれば、所定サイズに分割されている2次元のマクロブロックの圧縮データから、当該マクロブロックが属する領域の種類を示す領域判定結果信号を取り出し、その領域判定結果信号が示す領域の種類に対応する復号処理を実施して、2次元のマクロブロックの圧縮データから画像信号を復号するように構成したので、図1の画像符号化装置により符号化された画像信号を復号することができる効果を奏する。なお、本実施の形態4では、可変長復号部11により復号された領域判定結果信号に応じて逆量子化部12、変換係数予測処理部13、逆変換部14の全てが内部の処理を切り替えるものとして説明したが、必ずしも全てが切り替える必要はなく、画像符号化装置により一部の処理だけが切り替えられた圧縮データを入力する場合には、対応する一部の処理だけを切り替える構成とすればよい。
実施の形態5.
 図9はこの発明の実施の形態5による画像復号装置を示す構成図であり、図において、図8と同一符号は同一又は相当部分を示すので説明を省略する。
 図9の画像復号装置は、図7の画像符号化装置に対応しており、AVCなどの空間領域に対して予測処理を行う復号方式を採用している。
 図9において、画像信号予測処理部15は図7の画像信号予測処理部6に対応しており、復号対象のブロックの予測残差信号(逆変換部14により逆変換された空間領域の信号)と、隣接ブロックの復号画像信号との間で予測処理を実施して、画像信号を復号する処理部(復号処理の一部を実施する処理部)であり、画像信号予測処理部15は可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施する。
 次に動作について説明する。
 画像信号予測処理部15は、逆変換部14から空間領域の信号である復号対象のブロックの予測残差信号を受けると、図7の画像信号予測処理部6と同様の方法で、隣接ブロックの復号画像信号から予測信号を生成する。
 そして、画像信号予測処理部15は、その予測信号と復号対象のブロックの予測残差信号との間で、可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施して、画像信号を復号する。
 この実施の形態5によれば、図7の画像符号化装置により符号化された画像信号を復号することができる。
 なお、上記実施の形態4および実施の形態5では、領域結果判定信号の値に応じて、逆量子化部・係数変換予測処理部・逆変換部が動作を切り替えるものとして説明したが、上記実施の形態1で説明したように、ブロック毎に、どの変換方式を選択したかを示すデータを用いる場合には(段落[0023]を参照)、そのデータに応じた変換方式を使用して、複合処理を行うようにする。複数の量子化テーブルを用意して、どの量子化テーブルを選択したかを示すデータを用いる場合には(段落[0034]を参照)、そのデータに応じた量子化テーブルを使用して、復号処理を行うようにする。
実施の形態6.
 この実施の形態6では、例えば、図7の画像信号予測処理部6が、前処理部1から出力されたマクロブロック信号(符号化対象のブロックの画像信号)と隣接マクロブロックのマクロブロック信号との間で予測処理を実施して予測残差信号を生成する際、前処理部1から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施するものについて説明する。
 上記実施の形態3では、AVCで用いられている画像信号の予測処理方式を用いてブロックサイズを切り替える手法について説明したが、前処理部1により判定された領域の種類に応じて、画像信号の予測処理方式を切り替えることも可能である。
 以下、「平坦領域」に適する予測処理方式について説明する。
 図10は符号化対象ブロックの画素を示す説明図である。
 四画の枠内が符号化対象ブロックの画素であり、図10の例では、符号化対象ブロックが4×4サイズのブロックである。また、枠外は予測処理に用いる画素である。
 数字は画素値を示しており、図10の例では、「平坦領域」を想定している。
 「平坦領域」に属する信号の場合、図10(a)に示すように、ブロック内の信号はほぼ一様である。あるいは、図10(b)に示すように、ブロック内の信号が特定方向に緩やかに変化することが考えられる。
 AVCの予測処理では、図11に示すように、符号化対象ブロックの周囲に位置するA~Iの画素を用いた外挿処理を行うため、図10(a)のような信号に対しては高い予測効率が得られるが、図10(b)のような信号の場合には、画素h,k,n,l,o,pのように、A~Iの画素から距離の遠い画素に対しては十分な予測効率が得られない。
 そこで、図11における画素pの値を符号化データに含め、画素pの値を用いた内挿処理を実施して、予測画像を生成することで予測の効果を高める。
 画素pの値の符号化方法としては、画素pの値自体を符号化するようにすればよい(図10(b)の場合、“38”の値を符号化する)。この場合、画素pの値を得るために余計な演算処理を行う必要がない。
 また、画素pの値の符号化方法として、符号化対象ブロックの周囲に位置するA~Iの画素の中で、画素pに最も近い2つの画素E及び画素Iの平均値を求め、その平均値と画素pの値との差分値を符号化するようにしてもよい(図10(b)の場合、平均値が“34”になり、差分値が“+4”になる)。この場合、平坦領域であれば、差分値はゼロに近い値になるので、画素pの値自体を符号化するよりも符号化の効率を高めることが可能となる。
 また、画素pの値の符号化方法として、符号化対象ブロックの周囲に位置するA~Iの全ての画素の平均値を求め、その平均値と画素pの値との差分値を符号化するようにしてもよい(図10(b)の場合、平均値が“32.22”になり、差分値が“+5.78”になる)。この場合、符号化対象ブロックの周囲の画素の中に雑音が含まれていても、多くの画素を用いて平均値を求めているので、雑音の影響を弱めることができる。
 ここに挙げた3種類の符号化方式のいずれか一つを用いることにしてもよいし、符号化ブロックのサイズに応じて切り替えるようにしてもよい。
 例えば、ブロックサイズが16×16サイズの場合には、ブロック内右下の画素である画素pと、周囲の画素との距離が遠いので、画素pの値自体を使用するようにする。一方、4×4サイズの場合には、画素pと周囲の画素との距離が近いので、画素Eと画素Iの平均値を求め、その平均値と画素pの値との差分値を使用するようにする手法などが考えられる。
 このようにして得られた画素pと周囲の画素A~Iを用いた内挿処理によって予測画像を生成する。
 内挿の計算方法としては、例えば、2つの画素を用いて、距離に応じて重みを付けるリニア補間(例えば、画素mの予測値を(3×E+p)/4で得る)や、4つの画素を用いて、距離に応じて重みを付けるバイリニア補間(例えば、画素kの予測値を(A+2×E+2×I+3×p)/8で得る)などの従来から知られている補間処理を行う。
 なお、画素pの値を表す符号化データ(画素pの値自体、あるいは、周辺画素の平均値からの差分値)は、値そのものを符号化してもよいが、例えば、値の上位6ビットだけを使用するというような量子化を実施してから符号化するようにしてもよい。量子化により値の範囲が狭められるため、符号化データの符号量を削減することができる。
 この実施の形態6では、このような内挿予測手法を含めて、判定された領域の種類に応じて予測処理方式を切り替えるようにする。
 これにより、ブロック内の信号がほぼ一様であり、「平坦領域」と判定される図10(a)のような場合には、空間領域における外挿予測、ブロック内の信号が特定方向に緩やかに変化する図10(b)のような場合には、空間領域における内挿予測、「エッジ領域」については、変換係数に対するDC・AC係数予測処理、「複雑領域」については、変換係数に対するDC係数予測処理というように、様々な予測処理方式を切り替えながら符号化処理を行うことも可能である。
 即ち、一様な「平坦領域」の場合には、あえて内挿予測を行っても、予測の効率は変わらないので、画素pを符号化する必要のない外挿予測を選択し、緩やかに変化する「平坦領域」の場合には、上述のように内挿予測によって高い予測効率を得るようにする。
 「エッジ領域」のうち、特に水平エッジもしくは垂直エッジの場合には、AC係数の予測効率が高いので、変換係数に対するDC係数とAC係数に対する予測処理を行うことによって、空間領域での内挿・外挿処理を行うことなく、高い符号化効率を得るようにする。
 「複雑領域」では、予測の効率があまり得られないので、DC係数の予測処理だけを行うことによって、無用な演算処理を削減するようにする。
 上記の例では、判定された領域の種類に応じて、一意に予測処理方式が決定されるものであるため、予測処理方式に関する情報は不要であるが、各種の予測処理方式を実施して、最も高い予測効率が得られる予測処理方式を選択するようにしてもよい。
 この場合、どの予測処理方式を選択したかを示す選択情報が必要となるが、選択された領域毎に、予測処理方式の優先度を付けておくことによって、予測処理方式の選択情報の符号量を削減することができる。
 例えば、一様な「平坦領域」の場合には、内挿予測、外挿予測、DC予測、DC・AC係数予測の順番、緩やかに変化する「平坦領域」の場合には、外挿予測、内挿予測、DC予測、DC・AC係数予測の順番、「複雑領域」の場合には、予測なし、DC予測、内挿予測の順番というように、予測処理方式が選ばれやすい順番に合わせて、予め優先度を付けておくことによって、より多く選ばれる予測処理方式に対して、より少ない符号量で選択情報を符号化することができる。
 次に、上記実施の形態で処理された符号化データを復号処理する画像復号装置の画像信号予測処理について説明する。
 例えば、図9の画像信号予測処理部15は、可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式を用いて、画像信号予測処理を行う。
 具体的には、判定された領域に応じて、予測処理方式が一意に決定される画像符号化装置に対応する画像復号装置であれば、画像信号予測処理部15が、可変長復号部11から出力された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施する。
 即ち、画像信号予測処理部15は、領域の種類が一様な「平坦領域」であれば、外挿予測によって画像信号を予測し、領域の種類が緩やかに変化する「平坦領域」であれば、内挿予測によって画像信号を予測し、領域の種類が「エッジ領域」であれば、DC・AC係数予測処理によって画像信号を予測する。また、領域の種類が「複雑領域」であれば、DC係数予測処理によって画像信号を予測する。
 一方、予測処理方式の選択情報を符号化する画像符号化装置に対応する画像復号装置であれば、可変長復号部11が符号化されている予測処理方式の選択情報を復号し、画像信号予測処理部15が可変長復号部11により復号された選択情報から予測処理方式を特定し、その予測処理方式によって画像信号の予測を行う。
 上記実施の形態1~6では、画像信号を可変長符号化するものについて示したが、画像信号がカラー画像信号の場合、赤・青・緑、もしくは、輝度信号と2つの色差信号といった形式で、3つの成分、もしくは、それ以上の成分で構成されている。
 輝度信号や緑成分には、高周波数成分が多く含まれるが、2つの色差信号や赤・青成分には、高周波数成分が含まれ難いというような信号成分の違いが知られている。
 このようなカラー画像信号を符号化する場合、同じ空間位置に属する複数の信号成分をまとめて一つのマクロブロックとして符号化する手法が、非特許文献1~3に開示されており、あるマクロブロックに属する成分すべての信号を一つの領域に属するものとして符号化処理を行うことも可能であるが、それぞれの成分毎に、領域種類判定処理を実施することで、信号成分の数だけ領域判定結果信号を得て、それぞれの成分毎に、領域判定結果信号を用いて、信号変換・量子化・可変長符号化の処理を切り替えるという方法をとることも可能である。
 この場合、それぞれの信号成分の違いを利用した符号化処理が可能となり、より高い符号化効率を得ることができる。
 この発明は、画面内の各領域に適する符号化処理を実施して、符号化の効率を高める必要がある画像符号化装置に適している。

Claims (14)

  1.  画像信号を所定サイズの2次元ブロックに分割するブロック分割手段と、上記ブロック分割手段により分割されたブロック毎に、当該ブロックが属する領域の種類を判定する領域種類判定手段と、上記ブロック分割手段により分割されたブロック毎に、上記領域種類判定手段により判定された領域の種類に対応する符号化処理を実施して圧縮データを生成する符号化手段とを備えた画像符号化装置。
  2.  符号化手段は、符号化処理の一部を実施する処理部として、ブロック分割手段により分割されたブロックの信号である空間領域の信号を周波数領域の信号に変換して、その変換係数を出力する信号変換部を備え、上記信号変換部が上記ブロックのサイズを領域種類判定手段により判定された領域の種類に対応するサイズに変更し、サイズ変更後のブロックの信号を空間領域の信号から周波数領域の信号に変換することを特徴とする請求項1記載の画像符号化装置。
  3.  符号化手段は、符号化処理の一部を実施する処理部として、ブロック分割手段により分割されたブロックのうち、符号化対象のブロックの変換係数と上記ブロックに隣接しているブロックの変換係数との間で予測処理を実施して予測残差変換係数を生成する予測処理部を備え、上記予測処理部が領域種類判定手段により判定された領域の種類に対応する予測処理方式で予測処理を実施することを特徴とする請求項1記載の画像符号化装置。
  4.  符号化手段は、符号化処理の一部を実施する処理部として、ブロック分割手段により分割されたブロックの予測残差変換係数に対する量子化処理を実施して量子化係数を算出する量子化部を備え、上記量子化部が領域種類判定手段により判定された領域の種類に対応する量子化パラメータ及び量子化テーブルを用いて量子化処理を実施することを特徴とする請求項1記載の画像符号化装置。
  5.  符号化手段は、符号化処理の一部を実施する処理部として、ブロック分割手段により分割されたブロックの量子化係数に対する可変長符号化処理を実施して圧縮データを生成する可変長符号化部を備え、上記可変長符号化部が領域種類判定手段により判定された領域の種類に対応する可変長符号語テーブルを用いて可変長符号化処理を実施することを特徴とする請求項1記載の画像符号化装置。
  6.  符号化手段は、領域種類判定手段により判定された領域の種類を示す領域判定結果信号を符号化して、上記領域判定結果信号の符号化データを圧縮データに含めることを特徴とする請求項1記載の画像符号化装置。
  7.  符号化手段は、符号化処理の一部を実施する処理部として、ブロック分割手段により分割されたブロックのうち、符号化対象のブロックの画像信号と上記ブロックに隣接しているブロックの画像信号との間で予測処理を実施して予測残差信号を生成する予測処理部を備え、上記予測処理部が領域種類判定手段により判定された領域の種類に対応する予測処理方式で予測処理を実施することを特徴とする請求項1記載の画像符号化装置。
  8.  所定サイズに分割されている2次元ブロックの圧縮データから、当該ブロックが属する領域の種類を示す領域判定結果信号を取り出す領域判定結果信号取出手段と、上記領域判定結果信号取出手段により取り出された領域判定結果信号が示す領域の種類に対応する復号処理を実施して、上記2次元ブロックの圧縮データから画像信号を復号する復号手段とを備えた画像復号装置。
  9.  復号手段は、復号処理の一部を実施する処理部として、2次元ブロックの圧縮データに対する可変長復号処理を実施して量子化係数を復号する可変長復号部を備え、上記可変長復号部が領域判定結果信号取出手段により取り出された領域判定結果信号が示す領域の種類に対応する可変長符号語テーブルを用いて可変長復号処理を実施することを特徴とする請求項8記載の画像復号装置。
  10.  復号手段は、復号処理の一部を実施する処理部として、2次元ブロックの量子化係数に対する逆量子化処理を実施して予測残差変換係数を復号する逆量子化部を備え、上記逆量子化部が領域判定結果信号取出手段により取り出された領域判定結果信号が示す領域の種類に対応する量子化パラメータ及び量子化テーブルを用いて逆量子化処理を実施することを特徴とする請求項8記載の画像復号装置。
  11.  復号手段は、復号処理の一部を実施する処理部として、所定サイズに分割されている2次元ブロックのうち、復号対象のブロックの予測残差変換係数と上記ブロックに隣接しているブロックの予測残差変換係数との間で予測処理を実施して予測残差信号を復号する予測処理部を備え、上記予測処理部が領域判定結果信号取出手段により取り出された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施することを特徴とする請求項8記載の画像復号装置。
  12.  復号手段は、復号処理の一部を実施する処理部として、2次元ブロックの予測残差信号である周波数領域の信号を空間領域の信号に変換する逆変換部を備え、上記逆変換部が上記2次元ブロックのサイズを領域判定結果信号取出手段により取り出された領域判定結果信号が示す領域の種類に対応するサイズに変更し、サイズ変更後の2次元ブロックの予測残差信号を周波数領域の信号から空間領域の信号に変換することを特徴とする請求項8記載の画像復号装置。
  13.  復号手段は、復号処理の一部を実施する処理部として、所定サイズに分割されている2次元ブロックのうち、復号対象のブロックの予測残差信号と上記ブロックに隣接しているブロックの予測残差信号との間で予測処理を実施して画像信号を復号する予測処理部を備え、上記予測処理部が領域判定結果信号取出手段により取り出された領域判定結果信号が示す領域の種類に対応する予測処理方式で予測処理を実施することを特徴とする請求項8記載の画像復号装置。
  14.  復号手段は、復号処理の一部を実施する処理部として、所定サイズに分割されている2次元ブロックのうち、復号対象のブロックの予測残差信号と上記ブロックに隣接しているブロックの予測残差信号との間で予測処理を実施して画像信号を復号する予測処理部を備え、上記予測処理部が画像符号化装置から送信された選択情報から予測処理方式を特定し、上記予測処理方式で予測処理を実施することを特徴とする請求項8記載の画像復号装置。
PCT/JP2009/005417 2008-11-07 2009-10-16 画像符号化装置及び画像復号装置 WO2010052833A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN2009801443894A CN102210151A (zh) 2008-11-07 2009-10-16 图像编码装置以及图像解码装置
JP2010536644A JPWO2010052833A1 (ja) 2008-11-07 2009-10-16 画像符号化装置及び画像復号装置
RU2011122801/08A RU2011122801A (ru) 2008-11-07 2009-10-16 Кодер изображения и декодер изображения
CA2742239A CA2742239A1 (en) 2008-11-07 2009-10-16 Image encoder and image decoder
US13/128,146 US20110211636A1 (en) 2008-11-07 2009-10-16 Image encoder and image decoder
BRPI0922120A BRPI0922120A2 (pt) 2008-11-07 2009-10-16 codificador de imagem, e, decodificador de imagem.
MX2011004850A MX2011004850A (es) 2008-11-07 2009-10-16 Codificador de imagenes y decodificador de imagenes.
EP09824534A EP2348734A1 (en) 2008-11-07 2009-10-16 Image encoding device and image decoding device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-286499 2008-11-07
JP2008286499 2008-11-07

Publications (1)

Publication Number Publication Date
WO2010052833A1 true WO2010052833A1 (ja) 2010-05-14

Family

ID=42152647

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/005417 WO2010052833A1 (ja) 2008-11-07 2009-10-16 画像符号化装置及び画像復号装置

Country Status (10)

Country Link
US (1) US20110211636A1 (ja)
EP (1) EP2348734A1 (ja)
JP (1) JPWO2010052833A1 (ja)
KR (1) KR20110091000A (ja)
CN (1) CN102210151A (ja)
BR (1) BRPI0922120A2 (ja)
CA (1) CA2742239A1 (ja)
MX (1) MX2011004850A (ja)
RU (1) RU2011122801A (ja)
WO (1) WO2010052833A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013011608A1 (ja) * 2011-07-19 2013-01-24 パナソニック株式会社 画像符号化装置とその集積回路、および画像符号化方法
JP2014502827A (ja) * 2011-01-14 2014-02-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン エントロピー符号化および復号化スキーム
JP2015170932A (ja) * 2014-03-05 2015-09-28 株式会社リコー 画像圧縮装置及び画像圧縮方法
US10542287B2 (en) 2010-07-20 2020-01-21 Ntt Docomo, Inc. Image prediction encoding/decoding system

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101219309B1 (ko) * 2010-09-29 2013-01-08 전북대학교산학협력단 신호 처리 소자 및 이미지 처리 소자
US9490839B2 (en) 2011-01-03 2016-11-08 Qualcomm Incorporated Variable length coding of video block coefficients
US9516316B2 (en) 2011-06-29 2016-12-06 Qualcomm Incorporated VLC coefficient coding for large chroma block
US9338456B2 (en) 2011-07-11 2016-05-10 Qualcomm Incorporated Coding syntax elements using VLC codewords
WO2013046586A1 (ja) 2011-09-28 2013-04-04 パナソニック株式会社 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置及び画像符号化復号化装置
CN108712652A (zh) * 2012-06-29 2018-10-26 韩国电子通信研究院 视频编码方法和计算机可读介质
US9826229B2 (en) * 2012-09-29 2017-11-21 Google Technology Holdings LLC Scan pattern determination from base layer pixel information for scalable extension
JP6190103B2 (ja) * 2012-10-29 2017-08-30 キヤノン株式会社 動画像符号化装置、動画像符号化方法およびプログラム
US20140286413A1 (en) * 2013-03-25 2014-09-25 Qualcomm Incorporated Disabling sign data hiding in video coding
JP6226578B2 (ja) * 2013-06-13 2017-11-08 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム
CN103533351B (zh) * 2013-09-26 2016-08-17 西安空间无线电技术研究所 一种多量化表的图像压缩方法
KR102211592B1 (ko) * 2014-03-19 2021-02-04 삼성전자주식회사 전자 장치 및 이의 영상 처리 방법
US10284849B2 (en) 2015-04-13 2019-05-07 Qualcomm Incorporated Quantization parameter (QP) calculation for display stream compression (DSC) based on complexity measure
US9936203B2 (en) 2015-04-13 2018-04-03 Qualcomm Incorporated Complex region detection for display stream compression
US10356428B2 (en) * 2015-04-13 2019-07-16 Qualcomm Incorporated Quantization parameter (QP) update classification for display stream compression (DSC)
US10244255B2 (en) 2015-04-13 2019-03-26 Qualcomm Incorporated Rate-constrained fallback mode for display stream compression
US10225561B2 (en) * 2015-10-08 2019-03-05 Mediatek Inc. Method and apparatus for syntax signaling in image and video compression
US10574988B2 (en) * 2015-11-19 2020-02-25 Qualcomm Incorporated System and methods for reducing slice boundary visual artifacts in display stream compression (DSC)
JP2017163390A (ja) * 2016-03-10 2017-09-14 富士通株式会社 情報処理装置、データ圧縮方法、及び、データ圧縮プログラム
CN107888917B (zh) * 2017-11-28 2021-06-22 北京奇艺世纪科技有限公司 一种图像编解码方法及装置
US10728557B2 (en) 2018-10-24 2020-07-28 Sony Corporation Embedded codec circuitry for sub-block based entropy coding of quantized-transformed residual levels
US11831872B2 (en) * 2018-11-01 2023-11-28 Interdigital Madison Patent Holdings, Sas Video encoding and decoding using multiple transform selection
KR20230154085A (ko) * 2018-12-17 2023-11-07 엘지전자 주식회사 고주파 제로잉을 기반으로 변환 계수 스캔 순서를 결정하는 방법 및 장치
US10939107B2 (en) 2019-03-01 2021-03-02 Sony Corporation Embedded codec circuitry for sub-block based allocation of refinement bits
JP2020150516A (ja) * 2019-03-15 2020-09-17 シャープ株式会社 画像復号装置及び画像符号化装置
CN114079772B (zh) * 2020-08-21 2023-04-07 腾讯科技(深圳)有限公司 视频解码方法、装置、计算机可读介质及电子设备
CN113824957B (zh) * 2020-09-27 2022-10-28 腾讯科技(深圳)有限公司 视频编解码方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046789A (ja) * 2001-08-02 2003-02-14 Canon Inc 画像符号化装置及び画像復号化装置
JP2007201558A (ja) * 2006-01-23 2007-08-09 Matsushita Electric Ind Co Ltd 動画像符号化装置および動画像符号化方法
JP2008219205A (ja) * 2007-02-28 2008-09-18 Sony Corp 画像情報符号化装置及び画像情報符号化方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5493513A (en) * 1993-11-24 1996-02-20 Intel Corporation Process, apparatus and system for encoding video signals using motion estimation
JP3967405B2 (ja) * 1996-10-09 2007-08-29 テキサス インスツルメンツ インコーポレイテツド 画像信号の符号化方法
KR100487989B1 (ko) * 1997-10-23 2005-05-09 미쓰비시덴키 가부시키가이샤 화상 복호화 장치 및 화상 부호화 장치
FI117533B (fi) * 2000-01-20 2006-11-15 Nokia Corp Menetelmä digitaalisten videokuvien suodattamiseksi
US20030031371A1 (en) * 2001-08-02 2003-02-13 Shinichi Kato Image encoding apparatus and image decoding apparatus
EP1322121A3 (en) * 2001-12-19 2003-07-16 Matsushita Electric Industrial Co., Ltd. Video encoder and decoder with improved motion detection precision
US8126062B2 (en) * 2007-01-16 2012-02-28 Cisco Technology, Inc. Per multi-block partition breakpoint determining for hybrid variable length coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046789A (ja) * 2001-08-02 2003-02-14 Canon Inc 画像符号化装置及び画像復号化装置
JP2007201558A (ja) * 2006-01-23 2007-08-09 Matsushita Electric Ind Co Ltd 動画像符号化装置および動画像符号化方法
JP2008219205A (ja) * 2007-02-28 2008-09-18 Sony Corp 画像情報符号化装置及び画像情報符号化方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10542287B2 (en) 2010-07-20 2020-01-21 Ntt Docomo, Inc. Image prediction encoding/decoding system
US10419017B2 (en) 2011-01-14 2019-09-17 Ge Video Compression, Llc Entropy encoding and decoding scheme
US10581454B2 (en) 2011-01-14 2020-03-03 Ge Video Compression, Llc Entropy encoding and decoding scheme
US20190013822A1 (en) 2011-01-14 2019-01-10 Ge Video Compression, Llc Entropy encoding and decoding scheme
US9083374B2 (en) 2011-01-14 2015-07-14 Ge Video Compression, Llc Entropy encoding and decoding scheme using VLC coding and pipe or entropy coding for high compression efficiency
US10090856B2 (en) 2011-01-14 2018-10-02 Ge Video Compression, Llc Entropy encoding and decoding scheme
US9473169B2 (en) 2011-01-14 2016-10-18 Ge Video Compression Llc Entropy encoding and decoding scheme
US9647683B2 (en) 2011-01-14 2017-05-09 Ge Video Compression, Llc Entropy encoding and decoding scheme
US9698818B2 (en) 2011-01-14 2017-07-04 Ge Video Compression, Llc Entropy encoding and decoding scheme
US10224953B2 (en) 2011-01-14 2019-03-05 Ge Video Compression, Llc Entropy encoding and decoding scheme
US9806738B2 (en) 2011-01-14 2017-10-31 Ge Video Compression, Llc Entropy encoding and decoding scheme
US11405050B2 (en) 2011-01-14 2022-08-02 Ge Video Compression, Llc Entropy encoding and decoding scheme
CN107196662B (zh) * 2011-01-14 2021-07-30 Ge视频压缩有限责任公司 熵编码设备和方法、熵解码设备和方法、及存储介质
CN107196662A (zh) * 2011-01-14 2017-09-22 Ge视频压缩有限责任公司 熵编码设备和方法、熵解码设备和方法、及存储介质
US10404272B2 (en) 2011-01-14 2019-09-03 Ge Video Compression, Llc Entropy encoding and decoding scheme
US10855309B2 (en) 2011-01-14 2020-12-01 Ge Video Compression, Llc Entropy encoding and decoding scheme
JP2014502827A (ja) * 2011-01-14 2014-02-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン エントロピー符号化および復号化スキーム
US10826524B2 (en) 2011-01-14 2020-11-03 Ge Video Compression, Llc Entropy encoding and decoding scheme
US10644719B2 (en) 2011-01-14 2020-05-05 Ge Video Compression, Llc Entropy encoding and decoding scheme
JPWO2013011608A1 (ja) * 2011-07-19 2015-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化装置とその集積回路、および画像符号化方法
WO2013011608A1 (ja) * 2011-07-19 2013-01-24 パナソニック株式会社 画像符号化装置とその集積回路、および画像符号化方法
US9076267B2 (en) 2011-07-19 2015-07-07 Panasonic Intellectual Property Corporation Of America Image coding device, integrated circuit thereof, and image coding method
JP2015170932A (ja) * 2014-03-05 2015-09-28 株式会社リコー 画像圧縮装置及び画像圧縮方法

Also Published As

Publication number Publication date
MX2011004850A (es) 2011-05-30
US20110211636A1 (en) 2011-09-01
BRPI0922120A2 (pt) 2016-01-05
CA2742239A1 (en) 2010-05-14
EP2348734A1 (en) 2011-07-27
RU2011122801A (ru) 2012-12-20
KR20110091000A (ko) 2011-08-10
CN102210151A (zh) 2011-10-05
JPWO2010052833A1 (ja) 2012-03-29

Similar Documents

Publication Publication Date Title
WO2010052833A1 (ja) 画像符号化装置及び画像復号装置
JP4800571B2 (ja) 損失の無い方法でディジタル画像を符号化するための装置および方法
KR100788220B1 (ko) 품질기반 영상압축
JP6005087B2 (ja) 画像復号装置、画像復号方法、画像符号化装置、画像符号化方法及び符号化データのデータ構造
CN104041035B (zh) 用于复合视频的无损编码及相关信号表示方法
KR100932412B1 (ko) 구성가능한 패턴 옵티마이저
US11418786B2 (en) Image encoding and decoding apparatus, and image encoding and decoding method
JP2017118572A (ja) 符号化データ
JP5545783B2 (ja) 画像シーケンスを表す符号化されたデータのストリームを復号する方法および画像シーケンスを符号化する方法
US9774872B2 (en) Color image encoding device, color image decoding device, color image encoding method, and color image decoding method
JP6469048B2 (ja) 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、動画像符号化データ及び記録媒体
JP2012199963A (ja) 分散に基づいた適応性ブロックサイズdct画像圧縮
WO2013108684A1 (ja) 動画像復号装置、動画像符号化装置、動画像復号方法及び動画像符号化方法
JP2014530557A (ja) 映像復号化装置
WO2010146772A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
US20240089438A1 (en) Image encoding and decoding apparatus, and image encoding and decoding method
JP2012186763A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP2022105654A (ja) 符号化装置、復号装置、及びプログラム
JPWO2013001720A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP7118604B2 (ja) 映像符号化装置、映像復号装置及びプログラム
JP7388900B2 (ja) 符号化装置、復号装置、及びプログラム
CN115486070A (zh) 熵编码的变换系数排序

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980144389.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09824534

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010536644

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2742239

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 13128146

Country of ref document: US

Ref document number: MX/A/2011/004850

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2009824534

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 3443/CHENP/2011

Country of ref document: IN

ENP Entry into the national phase

Ref document number: 20117012818

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011122801

Country of ref document: RU

ENP Entry into the national phase

Ref document number: PI0922120

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20110506