WO2012148139A2 - 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치 - Google Patents

참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치 Download PDF

Info

Publication number
WO2012148139A2
WO2012148139A2 PCT/KR2012/003094 KR2012003094W WO2012148139A2 WO 2012148139 A2 WO2012148139 A2 WO 2012148139A2 KR 2012003094 W KR2012003094 W KR 2012003094W WO 2012148139 A2 WO2012148139 A2 WO 2012148139A2
Authority
WO
WIPO (PCT)
Prior art keywords
picture
pictures
reference picture
short
term reference
Prior art date
Application number
PCT/KR2012/003094
Other languages
English (en)
French (fr)
Other versions
WO2012148139A3 (ko
Inventor
임재현
박승욱
김정선
박준영
최영희
전병문
전용준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CN201280030271.0A priority Critical patent/CN103621091A/zh
Priority to KR1020137030938A priority patent/KR101581100B1/ko
Priority to KR1020177019514A priority patent/KR101794199B1/ko
Priority to JP2014508284A priority patent/JP5918354B2/ja
Priority to US14/114,012 priority patent/US20140050270A1/en
Priority to KR1020187011343A priority patent/KR101911012B1/ko
Priority to KR1020157033454A priority patent/KR101759672B1/ko
Priority to GB1319020.2A priority patent/GB2505344B/en
Priority to ES201390089A priority patent/ES2489816B2/es
Priority to DE112012001635.1T priority patent/DE112012001635T5/de
Priority to KR1020177031629A priority patent/KR101852789B1/ko
Publication of WO2012148139A2 publication Critical patent/WO2012148139A2/ko
Publication of WO2012148139A3 publication Critical patent/WO2012148139A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation

Definitions

  • the present invention relates to a method and an apparatus for decoding an image, and more particularly, to a method for managing a reference picture list and an apparatus using the method.
  • High efficiency image compression techniques can be used to solve these problems caused by high resolution and high quality image data.
  • An inter-screen prediction technique for predicting pixel values included in the current picture from a picture before or after the current picture using an image compression technique an intra prediction technique for predicting pixel values included in a current picture using pixel information in the current picture
  • An object of the present invention relates to a reference picture list management method for increasing image encoding and decoding efficiency.
  • Another object of the present invention is to provide an apparatus for performing a reference picture list management method for increasing image encoding and decoding efficiency.
  • the number of the short-term reference pictures stored in the DPB including the decoded next higher temporal layer pictures and the sum of the pictures added on the basis of the long-term reference pictures have the same value as Max (max_num_ref_frame, 1) and the short-term reference picture.
  • the method may further include determining whether the number is greater than zero.
  • the image decoding method may further include calculating a number of the short-term reference picture and the long-term reference picture.
  • the image decoding method when the number of pictures stored in the DPB is equal to Max (max_num_ref_frame, 1) and the number of short-term reference pictures is greater than zero, the short-term reference picture having the smallest POC among the short-term reference pictures present in the DPB is determined.
  • the method may further include removing from the DPB.
  • the hierarchical picture structure may be a GOP hierarchical picture structure having five temporal hierarchical pictures and including eight pictures.
  • the next higher temporal layer picture may be a picture existing in a third temporal layer, and the highest temporal layer picture may be a picture existing in a fourth temporal layer.
  • the number of pictures added on the basis of a short-term reference picture and a long-term reference picture stored in a DPB including a decoded next higher temporal layer picture is increased.
  • the method may include determining whether the value has the same value as Max (max_num_ref_frame, 1) and determining whether the number of short-term reference pictures is greater than zero.
  • the image decoding method may further include calculating a number of the short-term reference picture and the long-term reference picture.
  • the short-term reference picture having the smallest POC among the short-term reference pictures present in the DPB is determined.
  • the method may further include removing from the DPB.
  • an apparatus for decoding an image decodes one picture of a next higher temporal hierarchical picture in a hierarchical picture structure and decodes a picture order count (POC) of the next higher temporal hierarchical picture.
  • a picture information determiner for determining picture information so as to decode the highest temporal layer picture existing in the POC order, and the next higher temporal layer picture decoded based on the picture information determined by the picture information determiner.
  • the image decoding apparatus may include a decoded next higher temporal layer picture, and the number of pictures that are summed based on the short-term reference pictures and the long-term reference pictures stored in the reference picture storage unit may be Max.
  • the apparatus may further include a reference picture information updater configured to determine whether the size is larger.
  • the reference picture information updater may be a reference picture information updater that calculates the number of the short-term reference picture and the long-term reference picture. If the number of short-term reference pictures and long-term reference pictures stored in the reference picture storage unit is equal to Max (max_num_ref_frame, 1), and the number of short-term reference pictures is greater than 0, the reference picture update unit may exist in the reference picture storage unit.
  • the reference picture information updating unit may remove the short-term reference picture having the smallest POC among the reference pictures from the reference picture storage.
  • the hierarchical picture structure may be a GOP hierarchical picture structure having five temporal hierarchical pictures and including eight pictures.
  • the next higher temporal layer picture may be a picture existing in a third temporal layer, and the highest temporal layer picture may be a picture existing in a fourth temporal layer.
  • an apparatus for decoding an image includes a decoded next higher temporal layer picture and is summed based on a short-term reference picture and a long-term reference picture stored in a reference picture storage unit.
  • the reference picture information updater and the information generated by the reference picture information updater determine whether the number of? Has the same value as Max (max_num_ref_frame, 1) and determines whether the number of the short-term reference pictures is greater than zero. It may include a reference picture storage unit for updating the reference picture by.
  • the reference picture information updater may be a reference picture information updater that calculates a sum of the number of the short-term reference pictures and the number of the long-term reference pictures.
  • the reference picture information updater is the short-term having the smallest POC among the short-term reference pictures present in the DPB.
  • the reference picture information updating unit may update the reference picture to remove the reference picture from the reference picture storage unit.
  • the optimal reference picture is changed by changing the order of decoding the reference picture and changing the method of removing the reference picture applied to the DPB. It is possible to reduce the number of cases where it is not available, thereby increasing the image encoding and decoding efficiency.
  • FIG. 1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an image decoder according to an embodiment of the present invention.
  • FIG. 3 is a conceptual diagram illustrating a hierarchical coding structure according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a decoding order determining method in a hierarchical picture structure according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a sliding window method according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a reference picture management method according to an embodiment of the present invention.
  • FIG. 7 is a conceptual diagram illustrating an image decoding apparatus according to an embodiment of the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus 100 may include a picture splitter 105, a predictor 110, a transformer 115, a quantizer 120, a realigner 125, and an entropy encoder 130. , An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150.
  • each of the components shown in FIG. 1 is independently shown to represent different characteristic functions in the image encoding apparatus, and does not mean that each of the components is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • the integrated and separated embodiments of the components are also included in the scope of the present invention, without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • the picture dividing unit 105 may divide the input picture into at least one processing unit.
  • the processing unit may be a prediction unit (PU), a transform unit (TU), or a coding unit (CU).
  • the picture division unit 105 divides one picture into a combination of a plurality of coding units, prediction units, and transformation units, and combines one coding unit, prediction unit, and transformation unit on a predetermined basis (for example, a cost function). You can select to encode the picture.
  • one picture may be divided into a plurality of coding units.
  • a recursive tree structure such as a quad tree structure may be used.
  • a coding unit that is split into another coding unit based on one image or a maximum size coding unit as a root may be divided. It can be split with as many child nodes as there are units. Coding units that are no longer split according to certain restrictions become leaf nodes. That is, when it is assumed that only square division is possible for one coding unit, one coding unit may be split into at most four other coding units.
  • a coding unit may be used not only as a coding unit but also as a decoding unit.
  • the prediction unit is divided in the form of at least one square or rectangle of the same size in one coding unit, or the shape of one prediction unit among the prediction units split in one coding unit is different from that of another prediction unit. It can be divided into forms.
  • the intra prediction may be performed without splitting the prediction unit into a plurality of prediction units NxN.
  • the prediction unit 110 may include an inter prediction unit for performing inter prediction and an intra prediction unit for performing intra prediction. Whether to use inter prediction or intra prediction may be determined for the prediction unit, and specific information (eg, intra prediction mode, motion vector, reference picture, etc.) according to each prediction method may be determined. In this case, the processing unit in which the prediction is performed may differ from the processing unit in which the prediction method and the details are determined. For example, the method of prediction and the prediction mode may be determined in the prediction unit, and the prediction may be performed in the transform unit. The residual value (residual block) between the generated prediction block and the original block may be input to the transformer 115.
  • specific information eg, intra prediction mode, motion vector, reference picture, etc.
  • prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 130 along with the residual value and transmitted to the decoder.
  • the original block may be encoded as it is and transmitted to the decoder without generating the prediction block through the prediction unit 110.
  • the inter prediction unit may predict the prediction unit based on the information of at least one of the previous picture or the subsequent picture of the current picture.
  • the inter prediction unit may include a reference picture interpolator, a motion predictor, and a motion compensator.
  • the reference picture interpolator may receive reference picture information from the memory 150 and generate pixel information of an integer pixel or less in the reference picture.
  • a DCT based 8-tap interpolation filter having different filter coefficients may be used to generate pixel information of integer pixels or less in units of 1/4 pixels.
  • a DCT-based interpolation filter having different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.
  • the motion predictor may perform motion prediction based on the reference picture interpolated by the reference picture interpolator.
  • various methods such as a full search-based block matching algorithm (FBMA), a three step search (TSS), and a new three-step search algorithm (NTS) may be used.
  • the motion vector may have a motion vector value in units of 1/2 or 1/4 pixels based on the interpolated pixels.
  • the motion prediction unit may predict the current prediction unit by using a different motion prediction method.
  • various methods such as a skip method, a merge method, and an advanced motion vector prediction (AMVP) method, may be used.
  • AMVP advanced motion vector prediction
  • an embodiment of the present invention discloses a method for constructing a candidate predicted motion vector list when performing inter prediction using an AMVP method.
  • the intra prediction unit may generate a prediction unit based on reference pixel information around a current block that is pixel information in a current picture. If the neighboring block of the current prediction unit is a block for which inter prediction is performed, and the reference pixel is a pixel for which inter prediction is performed, the intra-prediction of a reference pixel included in the block for performing inter prediction is performed. It can be used in place of the reference pixel information of the block. That is, when the reference pixel is not available, the unavailable reference pixel information may be replaced with at least one reference pixel among the available reference pixels.
  • a prediction mode may have a directional prediction mode using reference pixel information according to a prediction direction, and a non-directional mode using no directional information when performing prediction.
  • the mode for predicting the luminance information and the mode for predicting the color difference information may be different, and the intra prediction mode information or the predicted luminance signal information predicting the luminance information may be used to predict the color difference information.
  • the intra prediction screen is based on the pixels on the left side of the prediction unit, the pixels on the upper left side, and the pixels on the top side.
  • the intra prediction may be performed using a reference pixel based on the transform unit.
  • intra prediction using NxN division may be used only for a minimum coding unit.
  • the intra prediction method may generate a prediction block after applying a mode dependent intra smoothing (MDIS) filter to a reference pixel according to a prediction mode.
  • MDIS mode dependent intra smoothing
  • the intra prediction mode of the current prediction unit may be predicted from the intra prediction mode of the prediction unit existing around the current prediction unit.
  • the prediction mode of the current prediction unit is predicted by using the mode information predicted from the neighboring prediction unit
  • the prediction mode of the screen of the current prediction unit and the neighboring prediction unit is the same
  • the current prediction unit is determined by using predetermined flag information.
  • Information that the prediction modes of the neighboring prediction units are the same may be transmitted. If the prediction modes of the current prediction unit and the neighboring prediction unit are different, entropy encoding may be performed to encode the prediction mode information of the current block.
  • a residual block may include a prediction unit that performs prediction based on the prediction unit generated by the prediction unit 110, and a residual block that includes residual information that is a difference from an original block of the prediction unit.
  • the generated residual block may be input to the converter 115.
  • the transform unit 115 converts the residual block including residual information of the original block and the prediction unit generated by the prediction unit 110 such as a discrete cosine transform (DCT) or a discrete sine transform (DST). Can be converted using Whether to apply DCT or DST to transform the residual block may be determined based on intra prediction mode information of the prediction unit used to generate the residual block.
  • DCT discrete cosine transform
  • DST discrete sine transform
  • the quantization unit 120 may quantize the values converted by the transformer 115 into the frequency domain.
  • the quantization coefficient may change depending on the block or the importance of the image.
  • the value calculated by the quantization unit 120 may be provided to the inverse quantization unit 135 and the reordering unit 125.
  • the reordering unit 125 may reorder coefficient values with respect to the quantized residual value.
  • the reordering unit 125 may change the two-dimensional block shape coefficients into a one-dimensional vector form through a coefficient scanning method. For example, the reordering unit 125 may scan from a DC coefficient to a coefficient of a high frequency region by using a Zig-Zag Scan method and change it into a one-dimensional vector form.
  • a vertical scan method for scanning two-dimensional block shape coefficients in a column direction, not a zig zag scan method, and a horizontal scan method for scanning two-dimensional block shape coefficients in a row direction will be used. Can be. That is, according to the size of the transform unit and the intra prediction mode, it is possible to determine which scan method among zigzag scan, vertical scan and horizontal scan is used.
  • the entropy encoder 130 may perform entropy encoding based on the values calculated by the reordering unit 125.
  • Entropy coding may use various coding methods such as Exponential Golomb, Variable Length Coding (VLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • VLC Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy encoder 130 receives residual coefficient coefficient information, block type information, prediction mode information, partition unit information, prediction unit information, transmission unit information, and motion vector information of the coding unit from the reordering unit 125 and the prediction unit 110.
  • Various information such as reference frame information, interpolation information of a block, and filtering information may be encoded.
  • the entropy encoder 130 may entropy encode a coefficient value of a coding unit input from the reordering unit 125.
  • the inverse quantizer 135 and the inverse transformer 140 inverse quantize the quantized values in the quantizer 120 and inversely transform the transformed values in the transformer 115.
  • the residual value generated by the inverse quantizer 135 and the inverse transformer 140 is combined with the prediction unit predicted by the motion estimator, the motion compensator, and the intra predictor included in the predictor 110 to restore the block. Create a Reconstructed Block).
  • the filter unit 145 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
  • ALF adaptive loop filter
  • the deblocking filter 145 may remove block distortion caused by boundaries between blocks in the reconstructed picture. In order to determine whether to perform deblocking, it may be determined whether to apply a deblocking filter to the current block based on the pixels included in several columns or rows included in the block. When the deblocking filter is applied to the block, a strong filter or a weak filter may be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be performed in parallel when vertical filtering and horizontal filtering are performed.
  • the offset correction unit may correct the offset with respect to the original image on a pixel-by-pixel basis for the deblocking image.
  • the pixels included in the image are divided into a predetermined number of areas, and then, an area to be offset is determined, an offset is applied to the corresponding area, or offset considering the edge information of each pixel. You can use this method.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the filtered reconstructed image with the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the group may be determined and filtering may be performed for each group. For information on whether to apply the ALF, the luminance signal may be transmitted for each coding unit (CU), and the size and coefficient of the ALF to be applied may vary according to each block.
  • the ALF may have various forms, and the number of coefficients included in the filter may also vary.
  • Such filtering related information filter coefficient information, ALF On / Off information, filter type information
  • Such filtering related information filter coefficient information, ALF On / Off information, filter type information
  • Such filtering related information filter coefficient information, ALF On / Off information, filter type information
  • the memory 150 may store the reconstructed block or picture calculated by the filter unit 145, and the stored reconstructed block or picture may be provided to the predictor 110 when performing inter prediction.
  • FIG. 2 is a block diagram illustrating an image decoder according to an embodiment of the present invention.
  • the image decoder 200 includes an entropy decoder 2110, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, and a filter unit 235.
  • the memory 240 may be included.
  • the input bitstream may be decoded by a procedure opposite to that of the image encoder.
  • the entropy decoder 210 may perform entropy decoding in a procedure opposite to that of the entropy encoder in the image encoder, and the residual value obtained by entropy decoding in the entropy decoder is input to the reordering unit 215. Can be.
  • the entropy decoder 210 may decode information related to intra prediction and inter prediction performed by the encoder. As described above, when there is a predetermined constraint in performing the intra prediction and the inter prediction in the image encoder, entropy decoding is performed based on the constraint to provide information related to the intra prediction and the inter prediction for the current block. I can receive it.
  • the reordering unit 215 may reorder the entropy decoded bitstream by the entropy decoding unit 210 based on a method of rearranging the bitstream. Coefficients expressed in the form of a one-dimensional vector may be reconstructed by reconstructing the coefficients in a two-dimensional block form.
  • the reordering unit may be realigned by receiving information related to coefficient scanning performed by the encoder and performing reverse scanning based on the scanning order performed by the encoder.
  • the inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoder and the coefficient values of the rearranged block.
  • the inverse transformer 225 may perform inverse DCT and inverse DST on the DCT and the DST performed by the transformer with respect to the quantization result performed by the image encoder. Inverse transformation may be performed based on a transmission unit determined by the image encoder.
  • the DCT and the DST may be selectively performed by the transform unit of the image encoder according to a plurality of pieces of information, such as a prediction method, a size and a prediction direction of the current block, and the inverse transform unit 225 of the image decoder may be performed by the transform unit of the image encoder.
  • the inverse transformation may be performed based on the converted transformation information.
  • the transformation may be performed based on the coding unit rather than the transformation unit.
  • the prediction unit 230 may generate the prediction block based on the prediction block generation related information provided by the entropy decoder 210 and previously decoded block or picture information provided by the memory 240.
  • the prediction unit 230 may include a prediction unit determiner, an inter prediction unit, and an intra prediction unit.
  • the prediction unit determination unit receives various information such as prediction unit information input from the entropy decoder, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and distinguishes the prediction unit from the current coding unit. It is possible to determine whether to perform inter prediction or intra prediction.
  • the inter prediction unit uses information required for inter prediction of the current prediction unit provided by the image encoder to determine the current prediction unit based on information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction unit. Inter prediction can be performed.
  • Whether the motion prediction method of the prediction unit included in the coding unit based on the coding unit to perform inter prediction is skip mode, merge mode, or AMVP mode. Can be determined.
  • an embodiment of the present invention discloses a method for constructing a candidate predicted motion vector list when performing inter prediction using an AMVP method.
  • the intra prediction unit may generate a prediction block based on pixel information in the current picture.
  • the intra prediction may be performed based on the intra prediction mode information of the prediction unit provided by the image encoder.
  • the intra prediction unit may include an MDIS filter, a reference pixel interpolator, and a DC filter.
  • the MDIS filter is a part of filtering the reference pixel of the current block, and may determine and apply the filter according to the prediction mode of the current prediction unit.
  • MDIS filtering may be performed on the reference pixel of the current block by using the prediction mode and the MDIS filter information of the prediction unit provided by the image encoder. If the prediction mode of the current block is a mode that does not perform MDIS filtering, the MDIS filter may not be applied.
  • the reference pixel interpolator may generate a reference pixel having an integer value or less by interpolating the reference pixel. If the prediction mode of the current prediction unit is a prediction mode for generating a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated.
  • the DC filter may generate the prediction block through filtering when the prediction mode of the current block is the DC mode.
  • the reconstructed block or picture may be provided to the filter unit 235.
  • the filter unit 235 may include a deblocking filter, an offset correction unit, and an ALF.
  • Information about whether a deblocking filter is applied to a corresponding block or picture, and when the deblocking filter is applied to the corresponding block or picture, may be provided with information about whether a strong filter or a weak filter is applied.
  • the deblocking filter related information provided by the image encoder may be provided and the deblocking filtering of the corresponding block may be performed in the image decoder.
  • vertical deblocking filtering and horizontal deblocking filtering may be performed, but at least one of vertical deblocking and horizontal deblocking may be performed in an overlapping portion.
  • Vertical deblocking filtering or horizontal deblocking filtering which has not been previously performed, may be performed at a portion where vertical deblocking filtering and horizontal deblocking filtering overlap. Through this deblocking filtering process, parallel processing of deblocking filtering is possible.
  • the offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.
  • the ALF may perform filtering based on a value obtained by comparing the restored image with the original image after performing the filtering.
  • the ALF may be applied to the coding unit based on the ALF application information, the ALF coefficient information, etc. provided from the encoder. Such ALF information may be provided included in a specific parameter set.
  • the memory 240 may store the reconstructed picture or block to use as a reference picture or reference block, and may provide the reconstructed picture to the output unit.
  • a coding unit is used as a coding unit for convenience of description, but may also be a unit for performing decoding as well as encoding.
  • the image encoding method and the image decoding method which will be described later in an embodiment of the present invention may be performed by each component included in the image encoder and the image decoder described above with reference to FIGS. 1 and 2.
  • the meaning of the component not only means that the hardware can be configured, but also may include a software processing unit that can be performed through an algorithm.
  • the inter prediction unit may perform inter prediction for predicting pixel values of a prediction target block by using information of other reconstructed frames instead of the current frame.
  • picture, or reference frame, reference picture may also be used in the same sense).
  • the inter prediction information used to predict the block to be predicted may be reference picture index information indicating which reference picture is used and motion vector information indicating a vector between the block of the reference picture and the block to be predicted. have.
  • a reference picture list may be configured of images used for inter prediction of a block to be predicted.
  • two reference image lists are required to perform prediction.
  • each of two reference picture lists may be referred to as a first reference picture list (List 0) and a second reference picture list (List 1), and a first reference picture list among B slices may be referred to.
  • a slice that is identical to the reference list 0 and the second reference image list reference list 1 may be referred to as a GPB slice.
  • Table 1 below shows syntax elements related to reference picture information included in a higher level syntax.
  • the syntax element and the high level syntax (SPS) including the syntax element used in the embodiment of the present invention are arbitrary, and the syntax element has the same meaning and may be defined differently.
  • the higher level syntax including the syntax element may also be included in another higher level syntax (eg, a syntax or PPS separated only from reference picture information).
  • embodiments of the present invention will be described assuming a specific case, but the syntax structure of the syntax element expression form and syntax elements may vary, and these embodiments are included in the scope of the present invention.
  • a high level syntax such as a sequence parameter set (SPS) may include information related to a reference picture used for inter prediction.
  • SPS sequence parameter set
  • max_num_ref_frames represents the maximum number of reference pictures that can be stored in a DPB (Decoded Picture Buffer). If the number of reference pictures stored in the current DPB is the same as the number of reference pictures set in max_num_ref_frames, there is no space for storing additional reference pictures in the DPB, so if additional reference pictures are to be stored, one of the reference pictures stored in the DPB One reference picture must be removed from the DPB.
  • DPB Decoded Picture Buffer
  • a syntax element such as adaptive_ref_pic_marking_mode_flag included in a slice header may be referred to.
  • the adaptive_ref_pic_marking_mode_flag is information for determining a reference picture to be removed from the DPB, and when adaptive_ref_pic_marking_mode_flag is 1, additional information on which picture to remove may be transmitted to remove a specific reference picture from the DPB.
  • adaptive_ref_pic_marking_mode_flag is 0, for example, by using a sliding window method, a reference picture of one of the reference pictures in the DPB may be removed from the DPB according to the order in which the picture is decoded and stored in the DPB.
  • a reference picture removal method using a sliding window may use the following method.
  • numShortTerm is defined as the total number of reference frames marked as “short-term reference pictures” and numLongTerm is defined as the total number of reference frames marked as "long-term reference pictures”.
  • the reference picture decoded first among the short-term reference pictures stored in the DPB may be removed.
  • the remaining pictures except for the picture having the highest temporal level may be used as reference pictures.
  • a block included in the B slice may generate a prediction value of the block through at least one reference picture list among the L0 list and the L1 list, and may be included in the L0 list and the L1 list and used as a reference picture.
  • the number of reference pictures that can be limited may be due to memory bandwidth issues.
  • max_num_ref_frames which is a syntax element indicating the maximum number of reference frames that can be stored in the DPB
  • many reference pictures are stored in the DPB, so most of the reference pictures for generating a prediction target block are available.
  • the amount of memory increases, which causes a limitation in max_num_ref_frames, and the necessary reference picture is removed from the DPB. Since the picture to be used as the reference image is not stored in the DPB, the reference picture May not be available for inter prediction. If the reference picture is not stored in the DPB, the prediction accuracy of the prediction block may be lowered and the coding efficiency may be lowered due to this problem.
  • the reference picture referenced by the prediction target block is available when performing inter prediction. Discuss how to do this.
  • an embodiment of the present invention describes a case in which an optimal reference picture does not exist in the DPB as an unavailable reference picture. Includes cases used for inter prediction.
  • max_num_ref_frames indicating the maximum number of reference images allowed in the DPB is 4, and the maximum number of reference images (num_ref_idx_l0_active_minus1) that can be included in the L0 list is 1 and the maximum that can be included in the L1 list It is assumed that the number of reference pictures (num_ref_idx_l1_active_minus1) is set to 1 and num_ref_idx_lc_active_minus1 is set to 3.
  • the maximum number of reference pictures allowed in the DPB is four
  • the maximum number of reference pictures that can be included in the L0 list is two
  • the maximum number of reference pictures that can be included in the L1 list is two
  • the number is included in the LC list.
  • the maximum number of reference pictures that can be used is four.
  • the LC list represents a combination list and represents a reference picture list generated by combining the L1 list and the L0 list.
  • the LC list is a list that can be used when the prediction target block performs inter prediction through a unidirectional prediction method.
  • ref_pic_list_combination_flag 1 when ref_pic_list_combination_flag is 1, it indicates that LC list is used, and when ref_ic_list_combination_flag is 0, it may indicate GPB (Generalized B).
  • the GPB represents a picture in which the reference picture constituting the L0 list and the L1 list, which are reference picture lists for performing prediction, are the same.
  • FIG. 3 is a conceptual diagram illustrating a hierarchical picture structure according to an embodiment of the present invention.
  • a picture order count (POC) of pictures included in a GOP represents an order of display
  • FrameNum represents an order of decoding and decoding of pictures.
  • POC picture order count
  • the hierarchical coding structure except for the case where the POC having the highest temporal level is 1,3,5,7,9,11,13,15, images existing in the remaining temporal layers may be used as reference pictures.
  • the order of decoding and decoding of pictures in the hierarchical picture structure may be changed to reduce the number of unavailable reference pictures to make available reference pictures as possible.
  • the hierarchical picture structure may be defined based on the temporal layer of the picture.
  • any picture refers to a particular picture, any picture may be included in a higher temporal layer than the picture it refers to.
  • the 0 temporal layer is POC (0)
  • the first temporal layer is POC (8)
  • the second temporal layer is POC (4), POC (12)
  • the third temporal layer is POC (2), POC (6), POC (10), POC (14)
  • fourth temporal layer is POC (1), POC (3), POC (5), POC (7), POC (9) ), POC 11, POC 13, and POC 15.
  • the fourth temporal layer (POC (1), POC (3), POC (5), POC (7), POC (9), POC (11), POC (13) which is the highest temporal level.
  • the reference picture having the picture existing in the POC 15) and the temporal level (POC (2), POC (6), POC (10), POC (14)) present in the third temporal layer that is the next higher layer.
  • the decoding order FraeNum
  • the decoding order of the hierarchical picture structure may be changed by decoding the highest temporal layer picture around the decoded next higher temporal layer picture before the picture existing in the remaining second higher temporal layer having a larger POC than the decoded next higher temporal layer picture. Can be.
  • one picture of a third temporal layer picture is first decoded and then based on a picture order count (POC) of the third temporal layer picture
  • POC picture order count
  • the pictures existing in the fourth temporal layer existing in the front and rear in the POC order may be decoded prior to other third temporal measurement pictures.
  • the POC (1) picture and the POC (3) picture are sequentially decoded among the fourth temporal layer pictures that exist around the picture that is POC (2).
  • Table 2 below is a table showing pictures stored in a DPB based on the POC and hierarchical picture structure of reference pictures to be used in L0, L1, and LC based on the POC of each picture disclosed in FIG. 3.
  • the DPB at least one picture of the reference pictures included in the DPB may be removed using the above-described sliding window method.
  • the reference picture required for the LO list, the reference picture required for the L1 list, and the reference picture required for the LC list are all stored in the DPB. Since it is a reference picture, all reference pictures are available when performing inter prediction on pictures of the corresponding POC.
  • the L0 list preferentially contains POC (0), which is present on the left side of POC (1), but whose temporal layer is lower than POC (1), and then right of POC (1).
  • POC (2) which is present at and lower in temporal layer than POC (1), may be included.
  • the L1 list preferentially contains POC (2), which is first on the right side of POC (1) and has a lower temporal layer than POC (1), and then on the right side of POC (1), POC (1). May include a POC 4 having a lower temporal layer.
  • the DPB contains POC (0), POC (8), POC (2), and POC (4), so all reference pictures for predicting POC (1) are POC (0), POC (2), and POC (4). ) Are included so that all reference pictures for predicting the POC 1 are available.
  • FIG. 4 is a flowchart illustrating a decoding order determining method in a hierarchical picture structure according to an embodiment of the present invention.
  • step S400 one picture of a picture of a next higher layer is decoded.
  • the highest layer picture having a POC smaller than the POC order of the picture of the next higher layer and the highest layer picture having one larger POC are decoded (step S410).
  • the next highest picture referring to the next higher layer among reference pictures existing in the highest layer is decoded. That is, after an arbitrary higher layer picture is decoded, a higher layer picture that refers to the higher layer picture is decoded, and a next higher layer picture having a POC larger than the higher layer picture is decoded.
  • the highest reference picture to be decoded next may be POC (n-1) and POC (n + 1).
  • the availability of the reference picture can be enhanced by applying a different sliding window method for the reference picture existing in the DPB in the hierarchical coding structure.
  • the new sliding window method can be applied in the following way.
  • numShortTerm is defined as the total number of reference frames marked as “short-term reference pictures” and numLongtTerm is defined as the total number of reference frames marked as "long-term reference pictures”.
  • the reference picture stored in the DPB may be managed by using a sliding window method of removing the picture having the smallest POC value from the DPB among the pictures that may be stored in the DPB.
  • FIG. 5 is a flowchart illustrating a sliding window method according to an embodiment of the present invention.
  • the number of short-term reference images and the number of long-term reference images are calculated (step S500).
  • the number of reference frames marked as the short term reference image may be calculated and the number of reference frames marked as the long term reference image may be calculated.
  • Max (max_num_ref_frame, 1) and numShortTerm is greater than 0 based on the picture stored in the DPB (step S510).
  • step S510 (1) whether the number of the summed pictures based on the short term reference picture and the long term reference picture stored in the DPB including the decoded picture has the same value as Max (max_num_ref_frame, 1), and (2) numShortTerm is Two judgments, such as whether greater than zero, may be made with each judgment procedure or one judgment procedure.
  • Max (max_num_ref_frame, 1) and numShortTerm is greater than 0 based on the picture stored in the DPB. If Max (max_num_ref_frame, 1) and numShortTerm is greater than 0, it means that there is more than the maximum number of pictures already allowed in the current DPB. If numShortTerm is greater than 0, it means that there is at least one short term reference picture. it means.
  • Table 3 below shows the availability of reference pictures for each POC when using the new sliding window method according to the embodiment of the present invention.
  • the DPB may include (POC (8), POC (4), POC (2), POC (6)) by removing the POC (0) corresponding to the smallest POC from the DPB.
  • the reference picture having the smallest POC number among the POCs is removed from the DPB.
  • FIGS. 4 and 5 described above may be used together.
  • the method of rearranging FrameNum in the hierarchical picture structure shown in FIG. 4 and the new sliding window method shown in FIG. 5 may be simultaneously applied.
  • FIG. 6 is a flowchart illustrating a reference picture management method according to an embodiment of the present invention.
  • FIG. 6 a case where the situations of FIGS. 4 and 5 are applied together will be described.
  • step S600 One picture of the picture of the next higher layer is decoded.
  • step S610 It is determined whether the number of the summed pictures based on the short-term reference picture and the long-term reference picture including the decoded picture has the same value as Max (max_num_ref_frame, 1) and numShortTerm is greater than 0 (step S610).
  • step S610 (1) whether the number of the summed pictures based on the short term reference picture and the long term reference picture stored in the DPB including the decoded picture has the same value as Max (max_num_ref_frame, 1), and (2 ) Two determination methods, such as whether numShortTerm is greater than zero, may be made for each determination procedure.
  • Step S620 If the number of pictures stored in the DPB is equal to Max (max_num_ref_frame, 1) and numShortTerm is greater than 0, the short-term reference picture with the smallest PicOrderCnt (entryShortTerm) among the short-term reference pictures present in the DPB, that is, the smallest POC, is removed from the DPB. (Step S620).
  • the upper layer picture having one POC smaller than the POC order of the picture of the next higher layer and the upper layer picture having one larger POC are decoded (step S630).
  • a procedure for managing a reference picture stored in the DPB may not be performed.
  • Table 4 below shows the availability of reference pictures and the availability of pictures included in the L0 list and the L1 list in the DPB when the method of FIG. 3 and the method disclosed in Table 3 are applied together.
  • the unavailability of the prediction using the L0 list is generated one time and the prediction using the LC list is generated one time, thereby reducing the unavailability of the reference picture compared with the existing hierarchical picture structure. .
  • FIG. 7 is a conceptual diagram illustrating an image decoding apparatus according to an embodiment of the present invention.
  • a DPB of an image decoding apparatus may include a reference picture storage unit 700, a reference picture information determiner 720, and a reference picture manager 740.
  • Each component is included as a list of components for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function. Separate examples are also included within the scope of the present invention, unless departed from the essence of the invention.
  • the components may not be essential components for performing essential functions of the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • the reference picture storage unit 700, the picture information determination unit 720, and the reference picture information update unit 740 are described separately, but the reference picture storage unit 700 and the picture information are described. What includes at least one component of the determiner 720 and the reference picture information updater 740 may be expressed in terms of DPB or memory.
  • the reference picture storage unit 700 may store short-term reference pictures and long-term reference pictures.
  • the short-term reference picture and the long-term reference picture may be different in a manner of being stored and removed in the reference picture storage.
  • the short-term reference picture and the long-term reference picture may be stored in a memory and managed differently.
  • a short-term reference picture may be operated in the same manner as a FIFO (First in First out) in memory and a reference picture that is not suitable for opening a long-term reference picture to a FIFO may be marked and used as a long-term reference picture.
  • FIFO First in First out
  • the picture information determiner 720 may include picture information, such as POC and FrameNum, to be referred to by reference to picture information such as POC and FrameNum, and sequential picture information to be decoded in a hierarchical picture structure.
  • the picture information determiner 720 decodes one picture of the next higher temporal hierarchical picture based on the hierarchical picture structure, and then, based on the Picture Order Count (POC) of the next higher temporal hierarchical picture, the highest order present in front and rear of the POC order.
  • Picture information may be determined and stored in the reference picture storage unit 700 so as to perform decoding on the temporal layer picture.
  • POC Picture Order Count
  • the reference picture information updater 740 may also determine hierarchical picture structure information, GOP structure information, and the like and decode the picture information to be stored in the reference picture storage 700.
  • the reference picture information updater 740 includes a decoded next higher temporal layer picture, and whether the number of the short-term reference pictures stored in the DPB and the sum of the pictures added based on the long-term reference pictures has the same value as Max (max_num_ref_frame, 1). You can determine whether or not numShortTerm is greater than zero. On the basis of the determination result, when the number of pictures stored in the reference picture storage unit 700 is equal to Max (max_num_ref_frame, 1) and numShortTerm is greater than 0, the short-term reference picture having the smallest POC among the short-term reference pictures present in the DPB. Can be removed from the reference picture storage.
  • the image encoding and image decoding method described above may be implemented in each component of each of the image encoder and the image decoder apparatus described above with reference to FIGS. 1 and 2.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치가 개시되어 있다. 영상 복호화 방법은 계층적 픽쳐 구조에서 차상위 시간적 계층 픽쳐 중 하나의 픽쳐를 복호화하는 단계와 차상위 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 POC 순서상 앞 뒤에 존재하는 최상위 시간적 계층 픽쳐를 복호화 하는 단계를 포함할 수 있다. 따라서 가용한 참조 픽쳐를 DPB에 존재하도록 함으로서 영상 부호화 효율을 높일 수 있다.

Description

참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
본 발명은 영상 복호화 방법 및 장치에 관한 것으로 더욱 상세하게는 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품록을 받으질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 고효율의 영상 압축 기술들이 활용될 수 있다.
영상 압축 기술로 현재 픽쳐의 이전 또는 이후 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 화면 내 예측 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.
본 발명의 목적은 영상 부복호화 효율을 증가시키기 위한 참조 픽쳐 리스트 관리 방법에 관한 것이다.
또한, 본 발명의 다른 목적은 영상 부복호화 효율을 증가시키기 위한 참조 픽쳐 리스트 관리 방법을 수행하는 장치에 관한 것이다.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 복호화 방법은 계층적 픽쳐 구조에서 차상위 시간적 계층 픽쳐 중 하나의 픽쳐를 복호화하는 단계와 상기 차상위 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 상기 POC 순서상 앞 뒤에 존재하는 최상위 시간적 계층 픽쳐를 복호화 하는 단계를 포함할 수 있다. 상기 영상 복호화 방법은 상기 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지고 단기간 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 단계를 더 포함할 수 있다. 상기 영상 복호화 방법은 상기 단기간 참조 픽쳐 및 상기 장기간 참조 픽쳐의 개수를 산출하는 단계를 더 포함할 수 있다. 상기 영상 복호화 방법은 상기 DPB에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기간 참조 픽쳐의 개수가 0보다 큰 경우 상기 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 DPB에서 제거하는 단계를 더 포함할 수 있다. 상기 계층적 픽쳐 구조는 5개의 시간적 계층 픽쳐를 가지고 8개의 픽쳐를 포함한 GOP 계층적 픽쳐 구조일 수 있다. 상기 차상위 시간적 계층 픽쳐는 제3 시간적 계층에 존재하는 픽쳐이고, 상기 최상위 시간적 계층 픽쳐는 제4 시간적 계층에 존재하는 픽쳐일 수 있다.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 복호화 방법은 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는지 여부를 판단하는 단계와 단기 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 단계를 포함할 수 있다. 상기 영상 복호화 방법은 상기 단기간 참조 픽쳐 및 상기 장기간 참조 픽쳐의 개수를 산출하는 단계를 더 포함할 수 있다. 상기 영상 복호화 방법은 상기 DPB에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기간 참조 픽쳐의 개수가 0보다 큰 경우 상기 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 DPB에서 제거하는 단계를 더 포함할 수 있다 .
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 복호화 장치는 계층적 픽쳐 구조에서 차상위 시간적 계층 픽쳐 중 하나의 픽쳐를 복호화하고 상기 차상위 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 상기 POC 순서상 앞 뒤에 존재하는 최상위 시간적 계층 픽쳐를 복호화하도록 픽쳐 정보를 판단하는 픽쳐 정보 판단부와 상기 픽쳐 정보 판단부에 의해 판단된 픽쳐 정보에 기초하여 복호화된 상기 차상위 시간적 계층 픽쳐를 저장하는 참조 픽쳐 저장부를 포함할 수 있다 .상기 영상 복호화 장치는 상기 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 상기 참조 픽쳐 저장부에 저장된 단기 참조 픽쳐 및 장기 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지고 단기간 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 참조 픽쳐 정보 갱신부를 더 포함할 수 있다 . 상기 참조 픽쳐 정보 갱신부는 상기 단기 참조 픽쳐 및 상기 장기 참조 픽쳐의 개수를 산출하는 참조 픽쳐 정보 갱신부일 수 있다. 상기 참조 픽쳐 갱신부는 상기 참조 픽쳐 저장부에 저장된 단기 참조 픽쳐와 장기 참조 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기 참조 픽쳐의 개수가 0보다 큰 경우 상기 참조 픽쳐 저장부에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 참조 픽쳐 저장부에서 제거하는 참조 픽쳐 정보 갱신부일 수 있다. 상기 계층적 픽쳐 구조는 5개의 시간적 계층 픽쳐를 가지고 8개의 픽쳐를 포함한 GOP 계층적 픽쳐 구조일 수 있다. 상기 차상위 시간적 계층 픽쳐는 제3 시간적 계층에 존재하는 픽쳐이고, 상기 최상위 시간적 계층 픽쳐는 제4 시간적 계층에 존재하는 픽쳐일 수 있다.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 복호화 장치는 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 참조 픽쳐 저장부에 저장된 단기 참조 픽쳐 및 장기 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는지 여부를 판단하고 단기 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 참조 픽쳐 정보 갱신부와 상기 참조 픽쳐 정보 갱신부에 의해 생성된 정보에 의해 참조 픽쳐를 갱신하는 참조 픽쳐 저장부를 포함할 수 있다. 상기 참조 픽쳐 정보 갱신부는 상기 단기 참조 픽쳐 개수 및 상기 장기 참조 픽쳐의 개수의 합을 산출하는 참조 픽쳐 정보 갱신부일 수 있다. 상기 참조 픽쳐 정보 갱신부는 상기 참조 픽쳐 저장부에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기 참조 픽쳐의 개수가 0보다 큰 경우 상기 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 참조 픽쳐 저장부에서 제거하도록 참조 픽쳐를 갱신하는 참조 픽쳐 정보 갱신부일 수 있다.
상술한 바와 같이 본 발명의 실시예에 따른 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치에 따르면, 참조 픽쳐를 복호화하는 순서를 변경하고 DPB에 적용되는 참조 픽쳐 제거 방법을 변화시킴으로서 최적의 참조 픽쳐가 가용하지 않은 경우를 줄여 영상의 부복호화 효율을 높일 수 있다.
도 1은 본 발명의 실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 영상 복호화기를 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 계층적 부호화 구조를 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 계층적 픽쳐 구조에서 복호화 순서 결정 방법을 나타낸 순서도이다.
도 5는 본 발명의 실시예에 따른 슬라이딩 윈도우 방법을 나타낸 순서도이다.
도 6은 본 발명의 실시예에 따른 참조 픽쳐 관리 방법을 나타낸 순서도이다.
도 7은 본 발명의 실시예에 따른 영상 복호화 장치를 나타낸 개념도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.

도 1은 본 발명의 실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 1을 참조하면, 영상 부호화 장치(100)는 픽쳐 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 부호화부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 포함할 수 있다.
도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성 단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벋어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
픽쳐 분할부(105)는 입력된 픽쳐를 적어도 하나의 처리 단위로 분할할 수 있다. 이때, 처리 단위는 예측 단위(Prediction Unit: PU)일 수도 있고, 변환 단위(Transform Unit: TU)일 수도 있으며, 부호화 단위(Coding Unit: CU)일 수도 있다. 픽쳐 분할부(105)에서는 하나의 픽쳐에 대해 복수의 부호화 단위, 예측 단위 및 변환 단위의 조합으로 분할하고 소정의 기준(예를 들어, 비용 함수)으로 하나의 부호화 단위, 예측 단위 및 변환 단위 조합을 선택하여 픽쳐를 부호화 할 수 있다.
예를 들어, 하나의 픽쳐는 복수개의 부호화 단위로 분할될 수 있다. 픽쳐에서 부호화 단위를 분할하기 위해서는 쿼드 트리 구조(Quad Tree Structure)와 같은 재귀적인 트리 구조를 사용할 수 있는데 하나의 영상 또는 최대 크기 부호화 단위를 루트로 하여 다른 부호화 단위로 분할되는 부호화 유닛은 분할된 부호화 단위의 개수만큼의 자식 노드를 가지고 분할될 수 있다. 일정한 제한에 따라 더이상 분할되지 않는 부호화 단위는 리프 노드가 된다. 즉, 하나의 코딩 유닛에 대하여 정방형 분할만이 가능하다고 가정하는 경우, 하나의 부호화 단위는 최대 4개의 다른 부호화 단위로 분할될 수 있다.
이하, 본 발명의 실시예에서는 부호화 단위의 의미를 부호화를 하는 단위라는 의미뿐만 아니라 복호화를 하는 단위의 의미로 사용할 수 있다.
예측 단위는 하나의 부호화 단위 내에서 동일한 크기의 적어도 하나의 정사각형 또는 직사각형 등의 형태를 가지고 분할되거나 하나의 부호화 단위 내에서 분할된 예측 단위 중 하나의 예측 단위의 형태가 다른 예측 단위의 형태와 다른 형태를 가지고 분할될 수 있다.
부호화 단위를 기초로 화면 내 예측을 수행하는 예측 단위를 생성시 최소 부호화 단위가 아닌 경우, 복수의 예측 단위(NxN)으로 분할하지 않고 화면 내 예측을 수행할 수 있다.
예측부(110)는 화면 간 예측을 수행하는 화면 간 예측부와 화면 내 예측을 수행하는 화면 내 예측부를 포함할 수 있다. 예측 단위에 대해 화면 간 예측을 사용할 것인지 또는 화면 내 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 화면 내 예측 모드, 움직임 벡터, 참조 픽쳐 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 단위로 결정되고, 예측의 수행은 변환 단위로 수행될 수도 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(115)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(130)에서 부호화되어 복호화기에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(110)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다
화면 간 예측부는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 단위를 예측할 수 있다. 화면 간 예측부는 참조 픽쳐 보간부, 움직임 예측부, 움직임 보상부가 포함할 수 있다.
참조 픽쳐 보간부에서는 메모리(150)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.
움직임 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 움직임 예측을 수행할 수 있다. 움직임 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 움직임 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 움직임 벡터값을 가질 수 있다. 움직임 예측부에서는 움직임 예측 방법을 다르게 하여 현재 예측 단위를 예측할 수 있다. 움직임 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction)방법 등 다양한 방법이 사용될 수 있다.
이하, 본 발명의 실시예에서는 AMVP 방법을 사용하여 화면 간 예측을 수행시 후보 예측 움직임 벡터 리스트를 구성하는 방법에 대해 개시한다.
화면 내 예측부는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀정보를 기초로 예측 단위를 생성할 수 있다. 현재 예측 단위의 주변 블록이 화면 간 예측을 수행한 블록이어서, 참조 픽셀이 화면 간 예측을 수행한 픽셀일 경우, 화면 간 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 화면 내 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.
화면 내 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행시 방향성 정보을 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측한 화면 내 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.
화면 내 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 동일할 경우, 예측 단위의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 단위에 대한 화면 내 예측을 수행하지만, 화면 내 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 상이할 경우, 변환 단위를 기초로 한 참조 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 최소 부호화 단위에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.
화면 내 예측 방법은 예측 모드에 따라 참조 화소에 MDIS(Mode Dependent Intra Smoothing) 필터를 적용한 후 예측 블록을 생성할 수 있다. 참조 화소에 적용되는 MDIS 필터의 종류는 상이할 수 있다. 화면 내 예측 방법을 수행하기 위해 현재 예측 단위의 화면 내 예측 모드는 현재 예측 단위의 주변에 존재하는 예측 단위의 화면 내 예측 모드로부터 예측할 수 있다. 주변 예측 단위로부터 예측된 모드 정보를 이용하여 현재 예측 단위의 예측 모드를 예측하는 경우, 현재 예측 단위와 주변 예측 단위의 화면 내 예측 모드가 동일할 경우, 소정의 플래그 정보를 이용하여 현재 예측 단위와 주변 예측 단위의 예측 모드가 동일하다는 정보를 전송할 수 있고, 만약, 현재 예측 단위와 주변 예측 단위의 예측 모드가 상이할 경우, 엔트로피 부호화를 수행하여 현재 블록의 예측 모드 정보를 부호화할 수 있다.
또한, 예측부(110)에서 생성된 예측 단위을 기초로 예측을 수행한 예측 단위와 예측 단위의 원본 블록과 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(115)로 입력될 수 있다. 변환부(115)에서는 원본 블록과 예측부(110)를 통해 생성된 예측 단위의 잔차값(residual) 정보를 포함한 잔차 블록을 DCT(Discrete Cosine Transform) 또는 DST(Discrete Sine Transform)와 같은 변환 방법을 사용하여 변환시킬 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지 DST를 적용할지는 잔차 블록을 생성하기 위해 사용된 예측 단위의 화면 내 예측 모드 정보를 기초로 결정할 수 있다.
양자화부(120)는 변환부(115)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공될 수 있다.
재정렬부(125)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.
재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(125)에서는 지그재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 단위의 크기 및 화면 내 예측 모드에 따라 지그 재그 스캔 방법이 아닌 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔 방법, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔 방법이 사용될 수 있다. 즉, 변환 단위의 크기 및 화면 내 예측 모드에 따라 지그재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.
엔트로피 부호화부(130)는 재정렬부(125)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), VLC(Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.
엔트로피 부호화부(130)는 재정렬부(125) 및 예측부(110)로부터 부호화 단위의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보 및 전송 단위 정보, 움직임 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다.
엔트로피 부호화부(130)에서는 재정렬부(125)에서 입력된 부호화 단위의 계수값을 엔트로피 부호화할 수 있다.
역양자화부(135) 및 역변환부(140)에서는 양자화부(120)에서 양자화된 값들을 역양자화하고 변환부(115)에서 변환된 값들을 역변환한다. 역양자화부(135) 및 역변환부(140)에서 생성된 잔차값(Residual)은 예측부(110)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.
필터부(145)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.
디블록킹 필터(145)는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링을 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.
오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.
ALF (Adaptive Loop Filter)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF의 크기 및 계수는 달라질 수 있다. ALF는 다양한 형태를 가질 수 있으며, 필터에 그에 따라 포함되는 계수의 갯수도 달라질 수 있다. 이러한 ALF의 필터링 관련 정보(필터 계수 정보, ALF On/Off 정보, 필터 형태 정보)는 비트스트림에서 소정의 파라메터 셋에 포함되어 전송될 수 있다.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 화면 간 예측을 수행 시 예측부(110)에 제공될 수 있다.

도 2는 본 발명의 실시예에 따른 영상 복호화기를 나타낸 블록도이다.
도 2를 참조하면, 영상 복호화기(200)는 엔트로피 복호화부(2110), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235), 메모리(240)가 포함될 수 있다.
영상 부호화기에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 영상 부호화기와 반대의 절차로 복호화될 수 있다.
엔트로피 복호화부(210)는 영상 부호화기의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있고 엔트로피 복호화부에서 엔트로피 복호화를 수행한 잔차값은 재정렬부(215)로 입력될 수 있다.
엔트로피 복호화부(210)에서는 부호화기에서 수행된 화면 내 예측 및 화면 간 예측에 관련된 정보를 복호화할 수 있다. 전술한 바와 같이 영상 부호화기에서 화면 내 예측 및 화면 간 예측을 수행시 소정의 제약이 있는 경우, 이러한 제약을 기초로 한 엔트로피 복호화를 수행해 현재 블록에 대한 화면 내 예측 및 화면 간 예측에 관련된 정보를 제공받을 수 있다.
재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부에서는 부호화부에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 해당 부호화부에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다.
역양자화부(220)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다.
역변환부(225)는 영상 부호화기에서 수행한 양자화 결과에 대해 변환부에서 수행한 DCT 및 DST에 대해 역DCT 및 역 DST를 수행할 수 있다. 역변환은 영상 부호화기에서 결정된 전송 단위를 기초로 수행될 수 있다. 영상 부호화기의 변환부에서는 DCT와 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 영상 복호화기의 역변환부(225)에서는 영상 부호화기의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.
변환을 수행시 변환 단위가 아닌 부호화 단위를 기준으로 변환을 수행할 수 있다.
예측부(230)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(240)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다.
전술한 바와 같이 영상 부호화기에서의 동작과 동일하게 화면 내 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 동일할 경우, 예측 단위의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 단위에 대한 화면 내 예측을 수행하지만, 화면 내 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 상이할 경우, 변환 단위를 기초로 한 참조 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 최소 부호화 단위에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.
예측부(230)는 예측 단위 판별부, 화면 간 예측부 및 화면 내 예측부를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부에서 입력되는 예측 단위 정보, 화면 내 예측 방법의 예측 모드 정보, 화면 간 예측 방법의 움직임 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 화면 간 예측을 수행하는지 아니면 화면 내 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부는 영상 부호화기에서 제공된 현재 예측 단위의 화면 간 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 화면 간 예측을 수행할 수 있다.
화면 간 예측을 수행하기 위해 부호화 단위를 기준으로 해당 부호화 단위에 포함된 예측 단위의 움직임 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다.
이하, 본 발명의 실시예에서는 AMVP 방법을 사용하여 화면 간 예측을 수행시 후보 예측 움직임 벡터 리스트를 구성하는 방법에 대해 개시한다.
화면 내 예측부는 현재 픽쳐 내의 화소 정보를 기초로 예측 블록을 생성할 수 있다. 예측 단위가 화면 내 예측을 수행한 예측 단위인 경우, 영상 부호화기에서 제공된 예측 단위의 화면 내 예측 모드 정보를 기초로 화면 내 예측을 수행할 수 있다. 화면 내 예측부에는 MDIS 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. MDIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 영상 부호화기에서 제공된 예측 단위의 예측 모드 및 MDIS 필터 정보를 이용하여 현재 블록의 참조 화소에 MDIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 MDIS 필터링을 수행하지 않는 모드일 경우, MDIS 필터는 적용되지 않을 수 있다.
참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 화면 내 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소을 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
복원된 블록 또는 픽쳐는 필터부(235)로 제공될 수 있다. 필터부(235)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.
영상 부호화기로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화기의 디블록킹 필터에서는 영상 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. 영상 부호화기에서와 마찬가지로 우선 수직 디블록킹 필터링 및 수평 디블록킹 필터링을 수행하되, 겹치는 부분에 있어서는 수직 디블록킹 및 수평 디블록킹 중 적어도 하나를 수행할 수 있다. 수직 디블록킹 필터링 및 수평 디블록킹 필터링이 겹치는 부분에서 이전에 수행되지 못한 수직 디블록킹 필터링 또는 수평 디블록킹 필터링이 수행될 수 있다. 이러한 디블록킹 필터링 과정을 통해서 디블록킹 필터링의 병행 처리(Parallel Processing)이 가능하다.
오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.
ALF는 필터링을 수행 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 ALF를 적용할 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.
메모리(240)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.
전술한 바와 같이 이하, 본 발명의 실시예에서는 설명의 편의상 코딩 유닛(Coding Unit)을 부호화 단위라는 용어로 사용하지만, 부호화 뿐만 아니라 복호화를 수행하는 단위가 될 수도 있다.
또한, 이하, 본 발명의 실시예에서 후술할 영상 부호화 방법 및 영상 복호화 방법은 도 1 및 도 2에서 전술한 영상 부호화기 및 영상 복호화기에 포함된 각 구성부에서 수행될 수 있다. 구성부의 의미는 하드웨어로 구성될 수 있는 것을 의미할 뿐만 아니라 알고리즘을 통해 수행될 수 있는 소프트웨어적인 처리 단위도 포함할 수 있다.

화면 간 예측부에서는 현재 프레임이 아닌 복원된 다른 프레임들의 정보를 이용하여 예측 대상 블록의 픽셀값을 예측하는 화면 간 예측(Inter prediction)을 수행할 수 있는데, 예측에 이용되는 영상을 참조 영상(Reference picture, 또는 참조 프레임, 참조 픽쳐도 동일한 의미로 사용될 수 있음)이라고 한다. 예측 대상 블록을 예측하는데 이용하는 화면 간 예측 정보는 어떠한 참조 영상을 사용하는지를 나타낼 수 있는 참조 픽쳐 인덱스 정보 및 참조 영상의 블록과 예측 대상 블록 사이의 벡터를 나타내는 모션 벡터(motion vector) 정보 등이 될 수 있다.
예측 대상 블록의 화면 간 예측을 위하여 사용되는 영상들로 참조 영상 리스트를 구성할 수 있다. B slice의 경우에는 예측을 수행하기 위해 두 개의 참조 영상 리스트가 필요하다. 이하의 본 발명의 실시예에서는 두 개의 참조 영상 리스트 각각을 제1 참조 영상 리스트(List 0), 제2 참조 영상 리스트(List 1)라는 용어로 지칭할 수 있고 또한 B slice 중 제1 참조 영상 리스트(reference list 0)와 제2 참조 영상 리스트(reference list 1)가 동일한 slice를 GPB slice라고 지칭할 수 있다.
아래의 표 1은 상위 레벨 신텍스에 포함된 참조 픽쳐 정보와 관련된 구문 요소를 나타낸 것이다. 이하, 본 발명의 실시예에서 사용되는 구문 요소 및 구문 요소가 포함되는 상위 레벨 신택스(SPS)는 임의적인 것이며 구문 요소는 동일한 의미를 가지고 다르게 정의될 수 있다. 해당 구문 요소가 포함되는 상위 레벨 신택스도 다른 상위 레벨 신택스(예를 들어, 참조 픽쳐 정보만을 따로 분리한 신택스 또는 PPS)에 포함될 수 있다. 이하, 본 발명의 실시예에서는 특정한 경우를 가정하여 개시하나 구문 요소의 표현 형태 및 구문 요소가 포함된 신택스 구조는 다양할 수 있으며 이러한 실시예들은 본 발명의 권리 범위에 포함된다.
<표 1>
Figure PCTKR2012003094-appb-I000001
표 1을 참조하면, SPS(Sequence Parameter Set)와 같은 상위 레벨 신택스에는 화면 간 예측에 사용되는 참조 픽쳐와 관련된 정보가 포함될 수 있다.
max_num_ref_frames는 DPB(Decoded Picture Buffer)에 저장될 수 있는 최대 참조 픽쳐의 개수를 나타낸다. 만약 현재 DPB에 저장되어 있는 참조 픽쳐의 개수가 max_num_ref_frames에서 설정된 참조 픽쳐의 개수와 동일하다면 DPB에는 추가의 참조 픽쳐를 저장할 수 있는 공간이 없으므로 추가의 참조 픽쳐가 저장되어야 할 경우 DPB에 저장된 참조 픽쳐 중 하나의 참조 픽쳐를 DPB에서 제거해야 한다.
DPB에서 어떠한 참조 픽쳐가 제거되어야 할지 여부를 결정하기 위하여 slice header에 포함된 adaptive_ref_pic_marking_mode_flag와 같은 구문 요소를 참조할 수 있다.
adaptive_ref_pic_marking_mode_flag는 DPB에서 제거할 참조 영상을 결정하기 위한 정보로서 adaptive_ref_pic_marking_mode_flag가 1인 경우 어떠한 픽쳐를 제거할지에 대한 추가 정보를 전송하여 DPB에서 특정한 참조 픽쳐를 제거할 수 있다. adaptive_ref_pic_marking_mode_flag가 0인 경우 sliding window 방법에 의해 예를 들어, 픽쳐가 디코딩되어 DPB에 저장된 순서에 따라 DPB에 있는 참조 영상 중 하나의 참조 영상을 DPB에서 제거할 수 있다. 슬라이딩 윈도우에 의한 참조 픽쳐 제거 방법은 아래와 같은 방법을 사용할 수 있다.
(1) numShortTerm을 “단기간 참조 영상”으로 마킹된 참조 프레임의 전체 개수라고 하고 numLongTerm을 “장기간 참조 영상”으로 마킹된 참조 프레임의 전체 개수라고 정의한다.
(2) 단기간 참조 영상의 개수(numShortTerm)와 장기간 참조 영상의 개수(numLongTerm)를 더한 값이 Max(max_num_ref_frames, 1)인 경우, 단기간 참조 영상이 0보다 크다는 조건이 만족되면 FrameNumWrap이 가장 작은 값을 가진 단기간 참조 픽쳐를 “참조 픽쳐로 사용되지 않음”이라고 표시한다.
즉, 위와 같은 슬라이딩 윈도우 방법에서는 DPB에 저장된 단기간 참조 픽쳐 중 가장 먼저 디코딩된 참조 픽쳐가 제거될 수 있다.
본 발명의 실시예에 따르면, 픽쳐들이 계층적 픽쳐 구조를 가지고 부호화 및 복호화되는 경우 가장 높은 Temporal level(시간적 레벨)을 가지는 픽쳐를 제외한 나머지 영상들이 참조 픽쳐로서 사용될 수 있다. 만약 픽쳐가 B 슬라이스를 포함하는 경우 B 슬라이스에 포함된 블록은 L0 리스트 및 L1 리스트 중 적어도 하나의 참조 픽쳐 리스트를 통해서 블록의 예측값을 생성할 수 있고 L0 리스트 및 L1 리스트에 포함되어 참조 픽쳐로 사용될 수 있는 참조 픽쳐의 개수는 메모리 대역폭의 문제로 인해 제한될 수 있다.
DPB에 저장될 수 있는 최대한의 참조 프레임의 개수를 나타내는 구문 요소인 max_num_ref_frames에서 설정된 최대 참조 프레임의 개수가 충분히 큰 경우 DPB에 저장된 참조 영상이 많아지므로 예측 대상 블록을 생성하기 위한 참조 픽쳐의 대부분이 가용하지만, 영상의 해상도가 커지게 되면서 메모리의 필요량이 증가함에 따라 max_num_ref_frames에 제한이 생기게 되고 필요한 참조 픽쳐가 DPB에서 제거되는 경우가 발생되고 DPB에 참조 영상으로 사용되어야 할 픽쳐가 저장되어있지 않아 참조 픽쳐를 화면 간 예측에 사용할 수 없을 수 있다. 참조 픽쳐가 DPB에 저장되어 있지 않은 경우 예측 블록의 예측 정확도가 떨어질 수 있고 이러한 문제로 인해 부호화 효율이 떨어질 수 있다. 본 발명의 실시예에 따른 참조 픽쳐 관리 방법에서는 DPB에 참조 픽쳐가 저장이 되어있지 않아 가용하지 않은 경우(unavailable)를 줄여 화면 간 예측을 수행시 예측 대상 블록이 참조하는 참조 픽쳐가 가용(available)할 수 있도록 설정하는 방법에 대해 개시한다.
계층적 픽쳐 구조에서 참조 픽쳐로 사용되어야할 최적의 참조 픽쳐가 DPB에 저장되어 있지 않은 경우, 부호화 효율은 감소하나 다른 픽쳐를 참조 픽쳐로서 사용할 수도 있다. 이하, 본 발명의 실시예에서는 설명의 편의상 최적의 참조 픽쳐가 DPB에 존재하지 않는 경우를 참조 픽쳐가 가용하지 않은 경우(unavailable)라고 설명하며 이는 최적의 참조 픽쳐가 가용하지 않아 차선의 참조 픽쳐를 화면 간 예측에 사용하는 경우를 포함한다.

이하, 본 발명의 실시예에서는 설명의 편의상 DPB에서 허용되는 최대 참조 영상의 개수를 나타내는 max_num_ref_frames을 4, L0 리스트에 포함될 수 있는 최대 참조 영상의 개수(num_ref_idx_l0_active_minus1)를 1, L1 리스트에 포함될 수 있는 최대 참조 영상의 개수(num_ref_idx_l1_active_minus1)를 1, num_ref_idx_lc_active_minus1을 3으로 설정한다고 가정한다. 즉, DPB에서 허용되는 최대 참조 영상의 개수는 4개가 되고, L0 리스트에 포함될 수 있는 최대 참조 영상의 개수는 2개, L1 리스트에 포함될 수 있는 최대 참조 영상의 개수는 2개, LC 리스트에 포함될 수 있는 최대 참조 영상의 개수는 4개가 된다.
LC 리스트는 combination list를 나타내는 것으로서 L1 리스트와 L0 리스트를 조합하여 생성되는 참조 픽쳐 리스트를 나타낸다. LC 리스트는 예측 대상 블록이 unidirectional prediction 방법을 통해 화면 간 예측을 수행할 때 사용될 수 있는 리스트이다. ref_pic_list_combination_flag를 ref_pic_list_combination_flag가 1인 경우 LC 리스트를 사용함을 나타내고 ref_ic_list_combination_flag가 0인 경우 GPB(Generalized B)임을 나타낼 수 있다. GPB는 전술한 바와 같이 예측을 수행하기 위한 참조 픽쳐 리스트인 L0 리스트와 L1 리스트를 구성하는 참조 픽쳐가 동일한 픽쳐를 나타낸다.
본 발명의 실시예에서는 GOP(Group of Pictures) 구조가 8인 경우를 가정하여 설명하나 GOP를 구성하는 픽쳐의 개수는 변할 수 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.

도 3은 본 발명의 실시예에 따른 계층적 픽쳐 구조를 나타낸 개념도이다.
도 3을 참조하면, GOP에 포함되는 픽쳐들의 POC(Picture Order Count)는 디스플레이의 순서, FrameNum은 픽쳐들의 부복호화의 순서를 나타낸다. 계층적 부호화 구조에서는 가장 높은 Temporal Level을 가지는 POC가 1,3,5,7,9,11,13,15인 경우를 제외한 나머지 시간적 계층에 존재하는 영상들이 참조 영상으로 사용될 수 있다.
본 발명의 실시예에 따르면 계층적 픽쳐 구조에서 픽쳐들의 부복호화 순서를 변화시켜서 unavailable한 참조 픽쳐의 개수를 줄여서 가능한 available한 참조 픽쳐가 되도록 할 수 있다.
계층적 픽쳐 구조는 픽쳐의 시간적 계층을 기준으로 정의될 수 있다.
임의의 픽쳐가 특정한 픽쳐를 참조하는 경우, 임의의 픽쳐는 자신이 참조하는 픽쳐보다 더 높은 시간적 계층에 포함될 수 있다.
도 3에서는 POC를 기준으로 제0 시간적 계층은 POC(0), 제1 시간적 계층은 POC(8), POC(16), 제2 시간적 계층은 POC(4), POC(12), 제3 시간적 계층은 POC(2), POC(6), POC(10), POC(14), 제4 시간적 계층은 POC(1), POC(3), POC(5), POC(7), POC(9), POC(11), POC(13), POC(15)에 해당할 수 있다.
본 발명의 실시예에 따르면, 최상위 시간적 레벨인 제4 시간적 계층(POC(1), POC(3), POC(5), POC(7), POC(9), POC(11), POC(13), POC(15))에 존재하는 픽쳐와 차상위 계층인 제3 시간적 계층에 존재하는 시간적 레벨(POC(2), POC(6), POC(10), POC(14))을 가진 참조 픽쳐의 복호화 순서(FrameNum)을 새롭게 설정함으로서 가용한 참조 영상이 기존의 계층적 픽쳐 구조보다 더 많이 존재하도록 변화시킬 수 있다.
복호화 순서(FrameNum)를 변화시킴에 있어 계층적 픽쳐 구조에서 차상위 시간적 계층의 하나의 픽쳐를 복호화한 후 차상위 계층의 POC를 기준으로 POC 순서상 앞과 뒤에 존재하는 최상위 시간적 계층에 존재하는 픽쳐를 순차적으로 복호할 수 있다. 즉, 복호화된 차상위 시간적 계층 픽쳐 주변에 존재하는 최상위 시간적 계층 픽쳐를 복호화된 차상위 시간적 계층 픽쳐보다 POC가 더 큰 나머지 차상위 시간적 계층에 존재하는 픽쳐보다 먼저 복호화함으로서 계층적 픽쳐 구조의 복호화 순서를 변화시킬 수 있다.
도 3을 참조하면, 제0 시간적 계층 내지 제4 시간적 계층으로 이루어진 계층적 픽쳐 구조에서는 제3 시간적 계층 픽쳐 중 하나의 픽쳐를 우선 복호화한 후 제3 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 POC 순서상 앞 뒤에 존재하는 제4 시간적 계층에 존재하는 픽쳐를 다른 제3 시간적 계측 픽쳐보다 우선적으로 복호화할 수 있다. 예를 들어, POC(2)인 제3 시간적 계층 픽쳐를 복호한 후 POC(2)인 픽쳐의 주변에 존재하는 제4 시간적 계층 픽쳐 중 POC(1) 픽쳐와 POC(3) 픽쳐를 순차적으로 복호화하는 방법을 통해 최상위 시간적 계층에 존재하는 참조 픽쳐의 복호화 단계와 차상위 시간적 계층에 존재하는 참조 픽쳐를 복호화하는 단계의 순서를 바꿈으로서 DPB에 존재하는 픽쳐가 가용한 참조 픽쳐가 되는 경우를 증가시킬 수 있다.

아래의 표 2는 도 3에서 개시된 각 픽쳐의 POC를 기준으로 L0, L1, LC에서 사용되어야 할 참조 픽쳐들의 POC와 계층적 픽쳐 구조를 기초로 DPB에 저장된 픽쳐를 나타낸 표이다. DPB에서는 전술한 슬라이딩 윈도우 방법을 사용하여 DPB에 포함된 참조 픽쳐 중 적어도 하나의 픽쳐를 제거할 수 있다.
<표 2>
Figure PCTKR2012003094-appb-I000002
표 2를 참조하면, POC가 0번 내지 16번인 경우와 POC가 11번 내지 15번인 경우 LO 리스트에 필요한 참조 픽쳐와 L1 리스트에 필요한 참조 픽쳐, LC 리스트에 필요한 참조 픽쳐가 모두 DPB에 저장되어 있는 참조 픽쳐이기 때문에 해당 POC의 픽쳐에 대하여 화면 간 예측을 수행 시 참조 픽쳐가 모두 가용하다.
예를 들면, POC(1)인 경우 L0 리스트는 우선적으로 POC(1)의 좌측에 존재하면서 POC(1)보다 시간적 계층이 낮은 POC(0)을 우선적으로 포함하고 다음으로 POC(1)의 우측에 존재하면서 POC(1)보다 시간적 계층이 낮은 POC(2)을 포함시킬 수 있다. L1 리스트는 우선적으로 POC(1)의 첫번째로 우측에 존재하면서 POC(1)보다 시간적 계층이 낮은 POC(2)을 우선적으로 포함하고 다음으로 POC(1)의 두번째로 우측에 존재하면서 POC(1)보다 시간적 계층이 낮은 POC(4)을 포함시킬 수 있다.
DPB에는 POC(0), POC(8), POC(2), POC(4)가 포함되어 있으므로 POC(1)을 예측하기 위한 모든 참조 픽쳐인 POC(0), POC(2), POC(4)가 모두 포함되어 있으므로 POC(1)을 예측하기 위한 모든 참조 픽쳐는 가용하다.
도 3의 경우에도, POC(12), POC(10), POC(9), POC(11)에서는 L0 예측에 대하여 4번, L1 예측에 대하여 1번 LC 예측에 대해 4번의 참조 영상이 unavailable 한 경우가 존재하나 기존의 계층적 픽쳐 구조에서 사용된 FrameNum 할당 방법과 비교하여 참조 영상에 대한 unavailable이 발생하는 횟수가 줄어들어 영상의 부복호화 효율을 높일 수 있다.

도 4는 본 발명의 실시예에 따른 계층적 픽쳐 구조에서 복호화 순서 결정 방법을 나타낸 순서도이다.
도 4를 참조하면, 차상위 계층의 픽쳐 중 하나의 픽쳐를 복호화한다(단계 S400).
차상위 계층의 픽쳐의 POC 순서보다 하나 작은 POC를 가진 최상위 계층 픽쳐 및 하나 큰 POC를 가진 최상위 계층 픽쳐를 복호화한다(단계 S410).
본 발명의 실시예에 따르면 차상위 계층의 픽쳐가 복호화되어 DPB에 저장된 후 다음으로 최상위 계층에 존재하는 참조 픽쳐 중 차상위 계층을 참조하는 최상위 픽쳐를 복호한다. 즉, 임의의 차상위 계층 픽쳐가 복호화된 후 상기 임의의 차상위 계층 픽쳐를 참조하는 최상위 계층 픽쳐가 복호화되고 다음으로 상기 임의의 차상위 계층 픽쳐보다 POC가 큰 차상위 계층 픽쳐가 복호화된다.
차상위 계층의 픽쳐가 POC(n)이라고 할 경우 다음으로 복호화되는 최상위 참조 픽쳐는 POC(n-1) 및 POC(n+1)가 될 수 있다.

본 발명의 또 다른 실시예에 따르면 계층적 부호화 구조에서 DPB에서 존재하는 참조 픽쳐에 대한 Sliding Window 방법을 다르게 적용하여 참조 픽쳐의 가용성을 높일 수 있다.
새로운 Sliding Window 방법은 아래와 같은 방식으로 적용될 수 있다.
(1) numShortTerm을 “단기간 참조 영상”으로 마킹된 참조 프레임의 전체 개수라고 하고 numLongtTerm을 “장기간 참조 영상”으로 마킹된 참조 프레임의 전체 개수라고 정의한다.
(2) numShortTerm과 numLongTerm을 더한 값이 Max(max_num_ref_frame, 1)이고 numShortTerm이 0보다 크면, PicOrderCnt(entryShortTerm)이 가장 작은 값을 가진 단기간 참조 영상을 “참조 영상으로 사용되지 않음”으로 마킹한다.
즉, 본 발명의 실시예에 따르면 DPB에 저장될 수 있는 픽쳐 중 가장 작은 POC값을 가진 픽쳐를 DPB에서 제거하는 슬라이딩 윈도우 방법을 사용하여 DPB에 저장된 참조 픽쳐를 관리할 수 있다.

도 5는 본 발명의 실시예에 따른 슬라이딩 윈도우 방법을 나타낸 순서도이다.
도 5를 참조하면, 단기간 참조 영상의 개수와 장기간 참조 영상의 개수를 산출한다(단계 S500).
DPB에 저장되어 있는 전체 참조 영상의 개수를 산출하기 위해 단기간 참조 영상으로 마킹되어 있는 참조 프레임의 개수를 산출하고 장기간 참조 영상으로 마킹되어 있는 참조 프레임의 개수를 산출할 수 있다.
DPB에 저장된 픽쳐를 기준으로 Max(max_num_ref_frame, 1)이고 numShortTerm이 0보다 큰지 여부를 판단한다(단계 S510).
단계 S510에서는 (1) 복호화된 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는지 여부와 (2) numShortTerm이 0보다 큰지 여부와 같은 두 개의 판단이 각각의 판단 절차 또는 하나의 판단 절차로 이루어질 수 있다.
DPB에 저장된 픽쳐를 기준으로 Max(max_num_ref_frame, 1)이고 numShortTerm이 0보다 큰지 여부를 판단하여 DPB에서 픽쳐를 제거할지 여부를 결정할 수 있다. Max(max_num_ref_frame, 1)이고 numShortTerm이 0보다 큰 경우는 현재 DPB에 이미 허용될 수 있는 최대 참조 픽쳐의 개수 이상의 픽쳐가 존재한다는 것을 의미하고 numShortTerm이 0보다 크다는 것은 단기간 참조 픽쳐가 적어도 하나 존재한다는 것을 의미한다.
Max(max_num_ref_frame, 1)이고 numShortTerm이 0보다 큰 경우 DPB에 존재하는 단기 참조 픽쳐 중 PicOrderCnt(entryShortTerm)가 가장 작은, 즉, POC가 가장 작은 단기 참조 픽쳐가 DPB에서 제거된다(단계 S520).
DPB에 저장된 픽쳐를 기준으로 Max(max_num_ref_frame, 1)이 아니고 numShortTerm이 0보다 크지 않은 경우 DPB에서 픽쳐는 제거되지 않는다.
아래의 표 3은 본 발명의 실시예에 따른 새로운 슬라이딩 윈도우 방법을 사용한 경우 POC 별 참조 픽쳐 가용성을 나타낸 것이다.
<표 3>
Figure PCTKR2012003094-appb-I000003
표 3을 참조하면, POC(6)인 경우 DPB에 존재하는 픽쳐가 4 개(POC(0), POC(8), POC(4), POC(2))이고 추가적으로 POC(6)이 복호화된 경우, 가장 작은 POC에 해당하는 POC(0)을 DPB에서 제거함으로서 DPB에는 (POC(8), POC(4), POC(2), POC(6))가 포함될 수 있다.
즉, 본 발명의 실시예에서는 DPB에 존재하는 참조 픽쳐가 max_num_ref_frames에 해당하는 수의 프레임으로 모두 채워진 경우 POC 중 가장 작은 POC 넘버를 가진 참조 픽쳐가 DPB에서 제거된다.
표 3을 참조하면, 이러한 DPB 관리 방법을 사용함으로서 POC(1), POC(3), POC(9), POC(11)에서 L0 리스트가 가용하지 않은 경우 4번, L1 리스트가 가용하지 않은 경우가 4번이 발생하게 되어 기존의 계층적 픽쳐 구조를 사용할 경우와 비교하여 참조 픽쳐가 가용하지 않은 경우가 줄게 된다.

본 발명의 또 다른 실시예에 따르면 전술한 도 4 및 도 5에서 개시한 방법이 함께 사용될 수 있다.
즉, 본 발명의 실시예에 따르면 도 4에서 개시한 계층적 픽쳐 구조에서 FrameNum를 재배열하는 방법과 도 5에서 개시한 새로운 슬라이딩 윈도우 방법을 동시에 적용할 수 있다.

도 6은 본 발명의 실시예에 따른 참조 픽쳐 관리 방법을 나타낸 순서도이다.
도 6에서는 도 4 및 도 5의 상황이 함께 적용되는 경우에 대해 설명한다.
차상위 계층의 픽쳐 중 하나의 픽쳐를 복호화한다(단계 S600).
복호화된 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지고 numShortTerm이 0보다 큰지 여부를 판단한다(단계 S610).
단계 S610의 판단 단계에서는 (1) 복호화된 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는 지 여부와 (2) numShortTerm이 0보다 큰지 여부와 같은 두 개의 판단 방법이 각각의 판단 절차로 이루어질 수도 있다.
DPB에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 numShortTerm이 0보다 큰 경우 DPB에 존재하는 단기 참조 픽쳐 중 PicOrderCnt(entryShortTerm)가 가장 작은, 즉, POC가 가장 작은 단기 참조 픽쳐가 DPB에서 제거된다(단계 S620).
DPB에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)이 아니거나 numShortTerm이 0보다 크지 않은 경우 DPB에 저장된 픽쳐를 제거하지 않는다.
차상위 계층의 픽쳐의 POC 순서보다 하나 작은 POC를 가진 상위 계층 픽쳐 및 하나 큰 POC를 가진 상위 계층 픽쳐를 복호화한다(단계 S630).
최상위 계층 픽쳐의 경우, 참조 픽쳐로 저장되지 않기 때문에 DPB에 저장된 참조 픽쳐를 관리하는 절차를 수행하지 않을 수 있다.
아래의 표 4는 도 3의 방법과 표 3에서 개시한 방법이 함께 적용된 경우 DPB에서 참조 픽쳐의 가용성과 L0 리스트 및 L1 리스트에 포함된 픽쳐의 가용성에 대하여 나타낸 것이다.
<표 4>
Figure PCTKR2012003094-appb-I000004
표 4를 참조하면, POC(9)에서 L0 리스트를 이용한 예측에 대하여 1번, LC 리스트를 이용한 예측에 대하여 1번의 unavailability가 발생함으로서 기존의 계층적 픽쳐 구조와 비교하여 참조 픽쳐의 unavailability가 줄게 된다.

도 7은 본 발명의 실시예에 따른 영상 복호화 장치를 나타낸 개념도이다.
도 7을 참조하면, 영상 복호화 장치의 DPB는 참조 픽쳐 저장부(700), 참조 픽쳐 정보 판단부(720), 참조 픽쳐 관리부(740)를 포함할 수 있다.
각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합 및 분리된 실시예의 경우도 본 발명의 본질에서 벋어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성부는 아니고 단지 성능을 향상 시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
예를 들어, 이하 본 발명의 실시예에서는 참조 픽쳐 저장부(700), 픽쳐 정보 판단부(720), 참조 픽쳐 정보 갱신부(740)를 구분하여 설명하지만 참조 픽쳐 저장부(700), 픽쳐 정보 판단부(720), 참조 픽쳐 정보 갱신부(740) 중 적어도 하나의 구성부를 포함한 것을 DPB 또는 메모리라는 용어로 표현될 수 있다.
참조 픽쳐 저장부(700)에는 단기 참조 픽쳐와 장기 참조 픽쳐가 저장되어 있을 수 있다. 단기 참조 픽쳐와 장기 참조 픽쳐는 참조 픽쳐 저장부에서 저장되고 제거되는 방식이 상이할 수 있다. 예를 들어, 단기 참조 픽쳐와 장기 참조 픽쳐는 메모리에 저장되어 관리되는 방식이 다를 수 있다. 예를 들어, 단기 참조 픽쳐는 메모리 내에서 FIFO(First in First out)과 같은 방식으로 운영될 수 있고 장기 참조 픽쳐는 FIFO로 개방되기에 부적합한 참조 픽쳐는 장기 참조 픽쳐로서 마킹되어 사용될 수 있다.
픽쳐 정보 판단부(720)는 계층적 픽쳐 구조에서 픽쳐의 정보 예를 들어 POC, FrameNum과 같은 픽쳐 정보를 판단하여 참조해야 할 픽쳐 정보, 복호화를 수행할 순차적 픽쳐 정보 등을 포함할 수 있다.
픽쳐 정보 판단부(720)에서는 계층적 픽쳐 구조를 기초로 차상위 시간적 계층 픽쳐 중 하나의 픽쳐를 복호화한 후 차상위 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 상기 POC 순서상 앞 뒤에 존재하는 최상위 시간적 계층 픽쳐에 대하여 복호화를 수행할 수 있도록 픽쳐 정보를 판단 후 참조 픽쳐 저장부(700)에 저장시킬 수 있다.
참조 픽쳐 정보 갱신부(740)에서는 또한, 계층적 픽쳐 구조 정보, GOP 구조 정보 등도 판단하여 복호화를 수행하여 참조 픽쳐 저장부(700)에 저장될 픽쳐 정보를 판단할 수 있다.
참조 픽쳐 정보 갱신부(740)에서는 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는지 여부를 판단할 수 있고 또한 numShortTerm이 0보다 큰지 여부를 판단할 수 있다. 이와 같은 판단 결과를 기초로 참조 픽쳐 저장부(700)에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 numShortTerm이 0보다 큰 경우 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 참조 픽쳐 저장부에서 제거할 수 있다.

이상에서 설명한 영상 부호화 및 영상 복호화 방법은 도 1 및 도 2에서 전술한 각 영상 부호화기 및 영상 복호화기 장치의 각 구성부에서 구현될 수 있다.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (18)

  1. 계층적 픽쳐 구조에서 차상위 시간적 계층 픽쳐 중 하나의 픽쳐를 복호화하는 단계; 및
    상기 차상위 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 상기 POC 순서상 앞 뒤에 존재하는 최상위 시간적 계층 픽쳐를 복호화 하는 단계를 포함하는 영상 복호화 방법.
  2. 제1항에 있어서,
    상기 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지고 단기간 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 단계를 더 포함하는 영상 복호화 방법.
  3. 제2항에 있어서,
    상기 단기간 참조 픽쳐 및 상기 장기간 참조 픽쳐의 개수를 산출하는 단계를 더 포함하는 영상 복호화 방법.
  4. 제2항에 있어서,
    상기 DPB에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기간 참조 픽쳐의 개수가 0보다 큰 경우 상기 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 DPB에서 제거하는 단계를 더 포함하는 영상 복호화 방법.
  5. 제1항에 있어서, 상기 계층적 픽쳐 구조는,
    5개의 시간적 계층 픽쳐를 가지고 8개의 픽쳐를 포함한 GOP 계층적 픽쳐 구조인 영상 복호화 방법.
  6. 제1항에 있어서,
    상기 차상위 시간적 계층 픽쳐는 제3 시간적 계층에 존재하는 픽쳐이고, 상기 최상위 시간적 계층 픽쳐는 제4 시간적 계층에 존재하는 픽쳐인 영상 복호화 방법.
  7. 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 DPB에 저장된 단기간 참조 픽쳐 및 장기간 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는지 여부를 판단하는 단계; 및
    단기 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 단계를 포함하는 영상 복호화 방법.
  8. 제7항에 있어서,
    상기 단기간 참조 픽쳐 및 상기 장기간 참조 픽쳐의 개수를 산출하는 단계를 더 포함하는 영상 복호화 방법.
  9. 제7항에 있어서, 상기 영상 복호화 방법은,
    상기 DPB에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기간 참조 픽쳐의 개수가 0보다 큰 경우 상기 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 DPB에서 제거하는 단계를 더 포함하는 영상 복호화 방법.
  10. 계층적 픽쳐 구조에서 차상위 시간적 계층 픽쳐 중 하나의 픽쳐를 복호화하고 상기 차상위 시간적 계층 픽쳐의 POC(Picture Order Count)를 기준으로 상기 POC 순서상 앞 뒤에 존재하는 최상위 시간적 계층 픽쳐를 복호화하도록 픽쳐 정보를 판단하는 픽쳐 정보 판단부; 및
    상기 픽쳐 정보 판단부에 의해 판단된 픽쳐 정보에 기초하여 복호화된 상기 차상위 시간적 계층 픽쳐를 저장하는 참조 픽쳐 저장부를 포함하는 영상 복호화 장치.
  11. 제10항에 있어서,
    상기 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 상기 참조 픽쳐 저장부에 저장된 단기 참조 픽쳐 및 장기 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지고 단기간 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 참조 픽쳐 정보 갱신부를 더 포함하는 영상 복호화 장치.
  12. 제11항에 있어서, 상기 참조 픽쳐 정보 갱신부는,
    상기 단기 참조 픽쳐 및 상기 장기 참조 픽쳐의 개수를 산출하는 참조 픽쳐 정보 갱신부인 영상 복호화 장치.
  13. 제11항에 있어서, 상기 참조 픽쳐 갱신부는,
    상기 참조 픽쳐 저장부에 저장된 단기 참조 픽쳐와 장기 참조 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기 참조 픽쳐의 개수가 0보다 큰 경우 상기 참조 픽쳐 저장부에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 참조 픽쳐 저장부에서 제거하는 참조 픽쳐 정보 갱신부인 영상 복호화 장치.
  14. 제10항에 있어서, 상기 계층적 픽쳐 구조는,
    5개의 시간적 계층 픽쳐를 가지고 8개의 픽쳐를 포함한 GOP 계층적 픽쳐 구조인 영상 복호화 장치.
  15. 제10항에 있어서,
    상기 차상위 시간적 계층 픽쳐는 제3 시간적 계층에 존재하는 픽쳐이고, 상기 최상위 시간적 계층 픽쳐는 제4 시간적 계층에 존재하는 픽쳐인 영상 복호화 장치.
  16. 복호화된 차상위 시간적 계층의 픽쳐를 포함하여 참조 픽쳐 저장부에 저장된 단기 참조 픽쳐 및 장기 참조 픽쳐를 기준으로 합산된 픽쳐의 개수가 Max(max_num_ref_frame, 1)과 동일한 값을 가지는지 여부를 판단하고 단기 참조 픽쳐의 개수가 0보다 큰지 여부를 판단하는 참조 픽쳐 정보 갱신부; 및
    상기 참조 픽쳐 정보 갱신부에 의해 생성된 정보에 의해 참조 픽쳐를 갱신하는 참조 픽쳐 저장부를 포함하는 영상 복호화 장치.
  17. 제16항에 있어서, 상기 참조 픽쳐 정보 갱신부는,
    상기 단기 참조 픽쳐 개수 및 상기 장기 참조 픽쳐의 개수의 합을 산출하는 참조 픽쳐 정보 갱신부인 영상 복호화 장치.
  18. 제16항에 있어서, 상기 참조 픽쳐 정보 갱신부는,
    상기 참조 픽쳐 저장부에 저장된 픽쳐의 수가 Max(max_num_ref_frame, 1)와 동일하고 단기 참조 픽쳐의 개수가 0보다 큰 경우 상기 DPB에 존재하는 상기 단기 참조 픽쳐 중 POC가 가장 작은 단기 참조 픽쳐를 상기 참조 픽쳐 저장부에서 제거하도록 참조 픽쳐를 갱신하는 참조 픽쳐 정보 갱신부인 영상 복호화 장치.
PCT/KR2012/003094 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치 WO2012148139A2 (ko)

Priority Applications (11)

Application Number Priority Date Filing Date Title
CN201280030271.0A CN103621091A (zh) 2011-04-26 2012-04-20 管理参考图片列表的方法及使用该方法的装置
KR1020137030938A KR101581100B1 (ko) 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
KR1020177019514A KR101794199B1 (ko) 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
JP2014508284A JP5918354B2 (ja) 2011-04-26 2012-04-20 参照ピクチャリスト管理方法及びその方法を使用する装置
US14/114,012 US20140050270A1 (en) 2011-04-26 2012-04-20 Method for managing a reference picture list, and apparatus using same
KR1020187011343A KR101911012B1 (ko) 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
KR1020157033454A KR101759672B1 (ko) 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
GB1319020.2A GB2505344B (en) 2011-04-26 2012-04-20 Method for managing a reference picture list, and apparatus using same
ES201390089A ES2489816B2 (es) 2011-04-26 2012-04-20 Método para gestionar una lista de imágenes de referencia, y aparato que lo usa
DE112012001635.1T DE112012001635T5 (de) 2011-04-26 2012-04-20 Verfahren zur Verwaltung einer Referenzbildliste und Vorrichtung zu dessen Ausführung
KR1020177031629A KR101852789B1 (ko) 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161479369P 2011-04-26 2011-04-26
US61/479,369 2011-04-26

Publications (2)

Publication Number Publication Date
WO2012148139A2 true WO2012148139A2 (ko) 2012-11-01
WO2012148139A3 WO2012148139A3 (ko) 2013-03-21

Family

ID=47072877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/003094 WO2012148139A2 (ko) 2011-04-26 2012-04-20 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치

Country Status (8)

Country Link
US (1) US20140050270A1 (ko)
JP (4) JP5918354B2 (ko)
KR (5) KR101911012B1 (ko)
CN (1) CN103621091A (ko)
DE (1) DE112012001635T5 (ko)
ES (1) ES2489816B2 (ko)
GB (2) GB2505344B (ko)
WO (1) WO2012148139A2 (ko)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150008337A (ko) * 2013-07-09 2015-01-22 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
WO2015009009A1 (ko) * 2013-07-15 2015-01-22 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015009022A1 (ko) * 2013-07-15 2015-01-22 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015099400A1 (ko) * 2013-12-24 2015-07-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015102271A1 (ko) * 2014-01-02 2015-07-09 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
CN104919803A (zh) * 2013-01-15 2015-09-16 夏普株式会社 具有信令的视频解码器
JP2016503971A (ja) * 2012-12-07 2016-02-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブルなマルチビュービデオコーディングにおける高度な残差予測
CN106105213A (zh) * 2014-03-24 2016-11-09 株式会社Kt 多层视频信号编码/解码方法和装置
US9967571B2 (en) 2014-01-02 2018-05-08 Electronics And Telecommunications Research Institute Method for decoding image and apparatus using same
US10390031B2 (en) 2013-07-15 2019-08-20 Kt Corporation Method and apparatus for encoding/decoding scalable video signal
US11212526B2 (en) 2013-07-09 2021-12-28 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014163452A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 멀티 레이어 비디오의 복호화 방법 및 장치, 멀티 레이어 비디오의 부호화 방법 및 장치
US9807407B2 (en) * 2013-12-02 2017-10-31 Qualcomm Incorporated Reference picture selection
US9788007B2 (en) * 2014-06-20 2017-10-10 Qualcomm Incorporated Profile, tier, level for the 0-th output layer set in video coding
EP3197163A4 (en) * 2014-10-07 2017-09-13 Samsung Electronics Co., Ltd. Method and device for encoding or decoding multi-layer image, using inter-layer prediction
CN107925769B (zh) * 2015-09-08 2020-11-27 联发科技股份有限公司 管理已解码图像缓存器的方法及视频编码器或视频解码器
WO2017049518A1 (en) * 2015-09-24 2017-03-30 Intel Corporation Techniques for video playback decoding surface prediction
KR102476207B1 (ko) * 2015-11-12 2022-12-08 삼성전자주식회사 반도체 장치의 동작 방법 및 반도체 시스템
US11595652B2 (en) 2019-01-28 2023-02-28 Op Solutions, Llc Explicit signaling of extended long term reference picture retention
CN106937168B (zh) * 2015-12-30 2020-05-12 掌赢信息科技(上海)有限公司 一种利用长期参考帧的视频编码方法、电子设备及***
CN106488227B (zh) * 2016-10-12 2019-03-15 广东中星电子有限公司 一种视频参考帧管理方法和***
KR20180057563A (ko) * 2016-11-22 2018-05-30 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US20200267385A1 (en) * 2017-07-06 2020-08-20 Kaonmedia Co., Ltd. Method for processing synchronised image, and apparatus therefor
JP6992351B2 (ja) 2017-09-19 2022-01-13 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2019139309A1 (ko) 2018-01-15 2019-07-18 삼성전자 주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
KR20230169440A (ko) 2018-08-17 2023-12-15 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 코딩에서의 참조 화상 관리
CN113170108A (zh) * 2018-11-27 2021-07-23 Op方案有限责任公司 使用显式和隐式信令对不可用参考帧进行自适应块更新
US11196988B2 (en) * 2018-12-17 2021-12-07 Apple Inc. Reference picture management and list construction
CN113597768A (zh) * 2019-01-28 2021-11-02 Op方案有限责任公司 扩展长期参考图片保留的在线和离线选择
CN114205615B (zh) * 2021-12-03 2024-02-06 北京达佳互联信息技术有限公司 解码图像缓存区的管理方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070111968A (ko) * 2006-05-19 2007-11-22 엘지전자 주식회사 비디오 신호의 디코딩 방법 및 장치
KR20080066784A (ko) * 2005-10-11 2008-07-16 노키아 코포레이션 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리
KR20090117863A (ko) * 2008-05-10 2009-11-13 삼성전자주식회사 계층적 영상 부호화를 위한 참조 프레임 관리 장치 및 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4405272B2 (ja) * 2003-02-19 2010-01-27 パナソニック株式会社 動画像復号化方法、動画像復号化装置及びプログラム
US20060013318A1 (en) * 2004-06-22 2006-01-19 Jennifer Webb Video error detection, recovery, and concealment
US20060083298A1 (en) 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
EP1827023A1 (en) * 2006-02-27 2007-08-29 THOMSON Licensing Method and apparatus for packet loss detection and virtual packet generation at SVC decoders
EP2087741B1 (en) * 2006-10-16 2014-06-04 Nokia Corporation System and method for implementing efficient decoded buffer management in multi-view video coding
JP5023739B2 (ja) * 2007-02-28 2012-09-12 ソニー株式会社 画像情報符号化装置及び符号化方法
KR101132386B1 (ko) * 2007-04-13 2012-07-16 노키아 코포레이션 비디오 코더
US20080253467A1 (en) * 2007-04-13 2008-10-16 Nokia Corporation System and method for using redundant pictures for inter-layer prediction in scalable video coding
US8855199B2 (en) * 2008-04-21 2014-10-07 Nokia Corporation Method and device for video coding and decoding
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
JP2009296078A (ja) * 2008-06-03 2009-12-17 Victor Co Of Japan Ltd 符号化データ再生装置、符号化データ再生方法、および符号化データ再生プログラム
US8660174B2 (en) * 2010-06-15 2014-02-25 Mediatek Inc. Apparatus and method of adaptive offset for video coding
US20120230409A1 (en) * 2011-03-07 2012-09-13 Qualcomm Incorporated Decoded picture buffer management

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080066784A (ko) * 2005-10-11 2008-07-16 노키아 코포레이션 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리
KR20070111968A (ko) * 2006-05-19 2007-11-22 엘지전자 주식회사 비디오 신호의 디코딩 방법 및 장치
KR20090117863A (ko) * 2008-05-10 2009-11-13 삼성전자주식회사 계층적 영상 부호화를 위한 참조 프레임 관리 장치 및 방법

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016503971A (ja) * 2012-12-07 2016-02-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブルなマルチビュービデオコーディングにおける高度な残差予測
US10334259B2 (en) 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9948939B2 (en) 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
CN104919803A (zh) * 2013-01-15 2015-09-16 夏普株式会社 具有信令的视频解码器
US9674524B2 (en) 2013-01-15 2017-06-06 Huawei Technologies Co., Ltd. Video decoder with signaling
US10230979B2 (en) 2013-01-15 2019-03-12 Huawei Technologies Co., Ltd. Video decoder with signaling
CN104919803B (zh) * 2013-01-15 2017-09-12 华为技术有限公司 一种用于解码视频比特流的方法
KR20150008337A (ko) * 2013-07-09 2015-01-22 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
KR20210120948A (ko) * 2013-07-09 2021-10-07 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
KR102222311B1 (ko) 2013-07-09 2021-03-04 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
KR20210025553A (ko) * 2013-07-09 2021-03-09 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
US11212526B2 (en) 2013-07-09 2021-12-28 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same
KR102307406B1 (ko) 2013-07-09 2021-09-30 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
KR102400485B1 (ko) 2013-07-09 2022-05-20 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
US11843773B2 (en) 2013-07-09 2023-12-12 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same
US10491910B2 (en) 2013-07-15 2019-11-26 Kt Corporation Scalable video signal encoding/decoding method and device
WO2015009009A1 (ko) * 2013-07-15 2015-01-22 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
US10057588B2 (en) 2013-07-15 2018-08-21 Kt Corporation Scalable video signal encoding/decoding method and device
US10390031B2 (en) 2013-07-15 2019-08-20 Kt Corporation Method and apparatus for encoding/decoding scalable video signal
WO2015009022A1 (ko) * 2013-07-15 2015-01-22 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
US10187641B2 (en) 2013-12-24 2019-01-22 Kt Corporation Method and apparatus for encoding/decoding multilayer video signal
US10178392B2 (en) 2013-12-24 2019-01-08 Kt Corporation Method and apparatus for encoding/decoding multilayer video signal
WO2015099400A1 (ko) * 2013-12-24 2015-07-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
US10291920B2 (en) 2014-01-02 2019-05-14 Electronics And Telecommunications Research Institute Method for decoding image and apparatus using same
US10397584B2 (en) 2014-01-02 2019-08-27 Electronics And Telecommunications Research Institute Method for decoding image and apparatus using same
US10375400B2 (en) 2014-01-02 2019-08-06 Electronics And Telecommunications Research Institute Method for decoding image and apparatus using same
US10326997B2 (en) 2014-01-02 2019-06-18 Electronics And Telecommunications Research Institute Method for decoding image and apparatus using same
US9967571B2 (en) 2014-01-02 2018-05-08 Electronics And Telecommunications Research Institute Method for decoding image and apparatus using same
WO2015102271A1 (ko) * 2014-01-02 2015-07-09 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
US10602161B2 (en) 2014-03-24 2020-03-24 Kt Corporation Multilayer video signal encoding/decoding method and device
US10708606B2 (en) 2014-03-24 2020-07-07 Kt Corporation Multilayer video signal encoding/decoding method and device
CN106105213B (zh) * 2014-03-24 2019-09-10 株式会社Kt 多层视频信号编码/解码方法和装置
CN106105213A (zh) * 2014-03-24 2016-11-09 株式会社Kt 多层视频信号编码/解码方法和装置

Also Published As

Publication number Publication date
JP5918354B2 (ja) 2016-05-18
ES2489816R1 (es) 2014-12-09
KR101794199B1 (ko) 2017-11-07
DE112012001635T5 (de) 2014-02-27
GB2548739B (en) 2018-01-10
GB2505344B (en) 2017-11-15
JP2014519223A (ja) 2014-08-07
GB201319020D0 (en) 2013-12-11
KR20140029459A (ko) 2014-03-10
US20140050270A1 (en) 2014-02-20
GB201709457D0 (en) 2017-07-26
JP2018057049A (ja) 2018-04-05
JP6867450B2 (ja) 2021-04-28
KR20180049130A (ko) 2018-05-10
KR101759672B1 (ko) 2017-07-31
GB2548739A (en) 2017-09-27
JP2016146667A (ja) 2016-08-12
GB2505344A (en) 2014-02-26
JP2019208268A (ja) 2019-12-05
KR20170085612A (ko) 2017-07-24
CN103621091A (zh) 2014-03-05
KR101581100B1 (ko) 2015-12-29
KR20170125122A (ko) 2017-11-13
ES2489816A2 (es) 2014-09-02
ES2489816B2 (es) 2015-10-08
JP6568242B2 (ja) 2019-08-28
JP6276319B2 (ja) 2018-02-07
KR101852789B1 (ko) 2018-06-04
KR101911012B1 (ko) 2018-12-19
KR20150140849A (ko) 2015-12-16
WO2012148139A3 (ko) 2013-03-21

Similar Documents

Publication Publication Date Title
JP6568242B2 (ja) 参照ピクチャリスト管理方法及びその方法を使用する装置
US11729420B2 (en) Intra-prediction method using filtering, and apparatus using the method
US10523950B2 (en) Method and apparatus for processing video signal
KR102064154B1 (ko) 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
WO2012087034A2 (ko) 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
US20140126643A1 (en) Method for setting motion vector list and apparatus using same
US11259043B2 (en) Image signal encoding/decoding method, and apparatus therefor based on deriving merge candidates
KR102422484B1 (ko) 비디오 신호 처리 방법 및 장치
KR102422485B1 (ko) 비디오 신호 처리 방법 및 장치
WO2013051794A1 (ko) 두 개의 후보 인트라 예측 모드를 이용한 화면 내 예측 모드의 부/복호화 방법 및 이러한 방법을 사용하는 장치
US9788000B2 (en) Method and apparatus for inter color component prediction
KR20210119916A (ko) 비디오 신호 처리 방법 및 장치
KR102038818B1 (ko) 화면 내 예측 방법 및 이러한 방법을 사용하는 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12776897

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 14114012

Country of ref document: US

ENP Entry into the national phase

Ref document number: 1319020

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20120420

Ref document number: 2014508284

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1319020.2

Country of ref document: GB

Ref document number: 1120120016351

Country of ref document: DE

Ref document number: 112012001635

Country of ref document: DE

Ref document number: P201390089

Country of ref document: ES

ENP Entry into the national phase

Ref document number: 20137030938

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 12776897

Country of ref document: EP

Kind code of ref document: A2