WO2020242145A1 - 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치 - Google Patents

적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
WO2020242145A1
WO2020242145A1 PCT/KR2020/006704 KR2020006704W WO2020242145A1 WO 2020242145 A1 WO2020242145 A1 WO 2020242145A1 KR 2020006704 W KR2020006704 W KR 2020006704W WO 2020242145 A1 WO2020242145 A1 WO 2020242145A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
parameter set
aps
quantization
unit
Prior art date
Application number
PCT/KR2020/006704
Other languages
English (en)
French (fr)
Inventor
안용조
Original Assignee
디지털인사이트주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디지털인사이트주식회사 filed Critical 디지털인사이트주식회사
Priority to BR112021023469A priority Critical patent/BR112021023469A2/pt
Priority to MX2021014277A priority patent/MX2021014277A/es
Priority to CA3141350A priority patent/CA3141350A1/en
Priority to CN202080038371.2A priority patent/CN113875240A/zh
Priority to KR1020217042387A priority patent/KR20220003124A/ko
Publication of WO2020242145A1 publication Critical patent/WO2020242145A1/ko
Priority to US17/357,753 priority patent/US11190769B2/en
Priority to US17/511,399 priority patent/US11575898B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks

Definitions

  • the present invention relates to a video signal processing method and apparatus.
  • a block splitting structure means a unit that performs encoding and decoding, and a unit to which major encoding and decoding techniques such as prediction and transformation are applied.
  • major encoding and decoding techniques such as prediction and transformation are applied.
  • video encoding and decoding are performed using unit blocks that are subdivided according to a quadtree-type block splitting structure and a role for prediction and transformation.
  • various types of block division such as QTBT (QuadTree plus Binary Tree) in the form of combining a quad tree and a binary-tree, and MTT (Multi-Type-Tree) in which a triple-tree is combined. Structures have been proposed to improve video coding efficiency.
  • QTBT QuadTree plus Binary Tree
  • MTT Multi-Type-Tree
  • the present disclosure is to improve the coding efficiency of a video signal.
  • An object of the present disclosure is to provide a method and apparatus for efficiently defining/managing various parameters applied in units of pictures or slices.
  • the present disclosure is to provide a method and apparatus for obtaining a scaling list for quantization/dequantization.
  • the present invention provides a video coding method and apparatus using an adaptive parameter set.
  • a transform coefficient of a current block is obtained by decoding a bitstream, and inverse quantization is performed on the obtained transform coefficient based on a quantization-related parameter included in the bitstream.
  • a quantized transform coefficient may be obtained, and a residual block of the current block may be reconstructed based on the inverse quantized transform coefficient.
  • the quantization-related parameter may be obtained from an adaptive parameter set (APS) of the bitstream.
  • the obtaining of the dequantized transform coefficient comprises: obtaining a scaling list for inverse quantization based on the quantization related parameter, the scaling list and a predetermined Based on the weight, deriving a scaling factor and applying the derived scaling factor to the transform coefficient may be included.
  • the quantization-related parameter may include at least one of a copy mode flag, a prediction mode flag, a delta identifier, or difference coefficient information.
  • the weight may be obtained from a weight candidate list pre-defined in the decoding apparatus.
  • the number of weight candidate lists pre-defined in the decoding apparatus is two or more, and any one of the plurality of weight candidate lists based on an encoding parameter of the current block Can be used selectively.
  • the adaptive parameter set is a syntax structure including a parameter set used in a predetermined video unit, and the parameter set is an adaptive loop filter (ALF) related parameter, It may include at least one of a mapping model-related parameter for luma mapping with chroma scaling or the quantization-related parameter.
  • ALF adaptive loop filter
  • the adaptive parameter set may further include at least one of an identifier for the adaptive parameter set or adaptive parameter set type information.
  • the same identifier is allocated to different adaptive parameter set types, but the adaptive parameter set may be managed using different lists for each adaptive parameter set type. have.
  • a transform coefficient of a current block is obtained, inverse quantization is performed on the transform coefficient based on a predetermined quantization-related parameter to obtain an inverse quantized transform coefficient, and the inverse quantization Based on the converted coefficient, the residual block of the current block may be restored.
  • the quantization-related parameter may be included in the adaptive parameter set (APS) of the bitstream and transmitted.
  • the video decoding method comprises: decoding the bitstream to obtain transform coefficients of a current block, the bitstream Performing inverse quantization on the obtained transform coefficients based on included quantization-related parameters, obtaining inverse quantized transform coefficients, and restoring a residual block of the current block based on the inverse quantized transform coefficient It may include.
  • the quantization-related parameter may be obtained from an adaptive parameter set (APS) of the bitstream.
  • video signal coding efficiency may be improved by using an adaptive parameter set.
  • FIG. 1 is a block diagram showing an image encoding apparatus according to the present invention.
  • FIG. 2 is a block diagram showing an image decoding apparatus according to the present invention.
  • FIG 3 shows an embodiment of a syntax table of an adaptation parameter set (APS).
  • FIG. 4 shows an embodiment of a syntax table for transmission and parsing of quantization-related parameters.
  • FIG. 5 illustrates an embodiment of a method for reconstructing a residual block based on a quantization-related parameter.
  • FIG. 6 is a diagram illustrating an embodiment of an APS syntax table to which an APS type for weight prediction is added.
  • FIG. 7 is a diagram illustrating another embodiment of an APS syntax table to which an APS type for weight prediction is added.
  • FIG. 8 is a diagram illustrating another embodiment of an APS syntax table to which an APS type for weight prediction is added.
  • FIG. 9 is a diagram illustrating an embodiment of a syntax table for transmitting and parsing parameters for weight prediction.
  • FIG. 10 is a diagram illustrating an embodiment of an APS syntax table to which an APS type for a block division structure is added.
  • 11 and 12 illustrate embodiments of a syntax table for additionally signaled or parsed block structure parameters when the current APS type is a parameter for a block structure.
  • FIG. 13 is a diagram illustrating a part of a syntax table for a slice header in order to show an embodiment of APS signaling or parsing for a block division structure in a slice header.
  • FIG. 14 is a diagram showing the concept of managing APS by using different lists according to APS types.
  • the present invention provides a video coding method and apparatus using an adaptive parameter set.
  • a transform coefficient of a current block is obtained by decoding a bitstream, and inverse quantization is performed on the obtained transform coefficient based on a quantization-related parameter included in the bitstream.
  • a quantized transform coefficient may be obtained, and a residual block of the current block may be reconstructed based on the inverse quantized transform coefficient.
  • the quantization-related parameter may be obtained from an adaptive parameter set (APS) of the bitstream.
  • the obtaining of the dequantized transform coefficient comprises: obtaining a scaling list for inverse quantization based on the quantization related parameter, the scaling list and a predetermined Based on the weight, deriving a scaling factor and applying the derived scaling factor to the transform coefficient may be included.
  • the quantization-related parameter may include at least one of a copy mode flag, a prediction mode flag, a delta identifier, or difference coefficient information.
  • the weight may be obtained from a weight candidate list pre-defined in the decoding apparatus.
  • the number of weight candidate lists pre-defined in the decoding apparatus is two or more, and any one of the plurality of weight candidate lists based on an encoding parameter of the current block Can be used selectively.
  • the adaptive parameter set is a syntax structure including a parameter set used in a predetermined video unit, and the parameter set is an adaptive loop filter (ALF) related parameter, It may include at least one of a mapping model-related parameter for luma mapping with chroma scaling or the quantization-related parameter.
  • ALF adaptive loop filter
  • the adaptive parameter set may further include at least one of an identifier for the adaptive parameter set or adaptive parameter set type information.
  • the same identifier is allocated to different adaptive parameter set types, but the adaptive parameter set may be managed using different lists for each adaptive parameter set type. have.
  • a video encoding method and apparatus obtains a transform coefficient of a current block, performs inverse quantization on the transform coefficient based on a predetermined quantization-related parameter to obtain an inverse quantized transform coefficient, and the inverse quantization Based on the converted coefficient, the residual block of the current block may be restored.
  • the quantization-related parameter may be included in the adaptive parameter set (APS) of the bitstream and transmitted.
  • the video decoding method comprises: decoding the bitstream to obtain transform coefficients of a current block, the bitstream Performing inverse quantization on the obtained transform coefficients based on included quantization-related parameters, obtaining inverse quantized transform coefficients, and restoring a residual block of the current block based on the inverse quantized transform coefficient It may include.
  • the quantization-related parameter may be obtained from an adaptive parameter set (APS) of the bitstream.
  • ⁇ (to) or the step of does not mean a step for.
  • terms such as first and second may be used to describe various elements, but the elements should not be limited to the terms. These terms are used only for the purpose of distinguishing one component from another component.
  • components shown in the embodiments of the present invention are independently shown to represent different characteristic functions, and it does not mean that each component is formed of separate hardware or a single software component. That is, each constituent unit is described by being listed as a respective constituent unit for convenience of description, and at least two constituent units of each constituent unit are combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. An integrated embodiment and a separate embodiment of each of these components are also included in the scope of the present invention unless departing from the essence of the present invention.
  • ⁇ unit ⁇ group”, “ ⁇ unit”, “ ⁇ module”, “ ⁇ block” are used to process at least one function or operation. It means a unit, which can be implemented in hardware or software, or a combination of hardware and software.
  • a coding block refers to a processing unit of a set of target pixels on which encoding and decoding are currently performed, and may be used interchangeably as a coding block and a coding unit.
  • the coding unit refers to a CU (Coding Unit) and may be generically referred to including a CB (Coding Block).
  • quadtree splitting refers to one block being divided into four independent coding units
  • binary splitting refers to one block being divided into two independent coding units
  • ternary division refers to that one block is divided into three independent coding units in a 1:2:1 ratio.
  • FIG. 1 is a block diagram showing an image encoding apparatus according to the present invention.
  • the image encoding apparatus 100 includes a picture splitter 110, a prediction unit 120, 125, a transform unit 130, a quantization unit 135, a rearrangement unit 160, and an entropy encoder ( 165, an inverse quantization unit 140, an inverse transform unit 145, a filter unit 150, and a memory 155 may be included.
  • the picture dividing unit 110 may divide the input picture into at least one processing unit.
  • the processing unit may be a prediction unit (PU), a transform unit (TU), or a coding unit (CU).
  • a coding unit may be used as a unit that performs encoding or a unit that performs decoding.
  • the prediction unit may be split in a shape such as at least one square or rectangle of the same size within one coding unit, or one prediction unit among prediction units split within one coding unit is another prediction. It may be divided to have a shape and/or size different from the unit.
  • intra prediction may be performed without dividing into a plurality of prediction units NxN.
  • the prediction units 120 and 125 may include an inter prediction unit 120 that performs inter prediction or inter prediction, and an intra prediction unit 125 that performs intra prediction or intra prediction. It is possible to determine whether to use inter prediction or to perform intra prediction for the prediction unit, and determine specific information (eg, intra prediction mode, motion vector, reference picture, etc.) according to each prediction method.
  • a residual value (residual block) between the generated prediction block and the original block may be input to the transform unit 130.
  • prediction mode information, motion vector information, etc. used for prediction may be encoded by the entropy encoder 165 together with a residual value and transmitted to a decoder.
  • the encoder since the encoder does not generate the prediction mode information and motion vector information, the corresponding information is not transmitted to the decoder.
  • the encoder it is possible for the encoder to signal and transmit information indicating that motion information is derived and used from the side of the decoder and information on a technique used for inducing the motion information.
  • the inter prediction unit 120 may predict a prediction unit based on information of at least one picture of a previous picture or a subsequent picture of the current picture. In some cases, the prediction unit may be predicted based on information of a partial region in the current picture that has been encoded. You can also predict units.
  • various methods such as a merge mode, an advanced motion vector prediction (AMVP) mode, an affine mode, a current picture referencing mode, and a combined prediction mode may be used.
  • AMVP advanced motion vector prediction
  • affine mode affine mode
  • a current picture referencing mode a combined prediction mode
  • the merge mode at least one motion vector among spatial/temporal merge candidates may be set as a motion vector of a current block, and inter prediction may be performed using the motion vector.
  • the pre-set motion vector may be corrected by adding an additional motion vector difference value (MVD) to the pre-set motion vector.
  • the corrected motion vector may be used as the final motion vector of the current block, which will be described in detail with reference to FIG. 15.
  • the Rane mode is a method of dividing a current block into a predetermined sub-block unit and performing inter prediction using a motion vector derived in each sub-block unit.
  • the sub-block unit is represented by NxM, and N and M may be integers of 4, 8, 16 or more, respectively.
  • the shape of the sub-block may be square or non-square.
  • the sub-block unit may be a fixed one pre-committed to the encoding apparatus, or may be variably determined in consideration of the size/shape of the current block, and the component type.
  • the current picture reference mode is an inter prediction method using a pre-restored region in the current picture to which the current block belongs and a predetermined block vector, which will be described in detail with reference to FIGS. 9 to 14.
  • a first prediction block through inter prediction and a second prediction block through intra prediction are generated for one current block, respectively, and a predetermined weight is applied to the first and second prediction blocks. This is a method of generating the final prediction block.
  • inter prediction may be performed using any one of the aforementioned inter prediction modes.
  • the intra prediction may be performed by fixedly using only an intra prediction mode (eg, any one of a planar mode, a DC mode, a vertical/horizontal mode, and a diagonal mode) pre-set in the encoding apparatus.
  • the intra prediction mode for intra prediction may be derived based on an intra prediction mode of a neighboring block (eg, at least one of left, upper, upper left, upper right, and lower right) adjacent to the current block.
  • the number of neighboring blocks used may be fixed to one or two, or may be three or more. Even if all of the aforementioned neighboring blocks are available, only one of the left neighboring blocks or the upper neighboring blocks may be limited to be used, or only the left and upper neighboring blocks may be restricted.
  • the weight may be determined in consideration of whether the aforementioned neighboring block is a block encoded in an intra mode. It is assumed that the weight w1 is applied to the first prediction block and the weight w2 is applied to the second prediction block.
  • w1 may be a natural number smaller than w2. For example, the ratio of w1 and w2 (raito) may be [1:3].
  • w1 may be a natural number greater than w2.
  • the ratio of w1 and w2 (raito) may be [3:1].
  • w1 may be set equal to w2.
  • the inter prediction unit 120 may include a reference picture interpolation unit, a motion prediction unit, and a motion compensation unit.
  • the reference picture interpolation unit may receive reference picture information from the memory 155 and generate pixel information of an integer number of pixels or less from the reference picture.
  • a DCT-based interpolation filter with different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/4 pixels.
  • a DCT-based interpolation filter with different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.
  • the motion prediction unit may perform motion prediction based on the reference picture interpolated by the reference picture interpolation unit.
  • Various methods such as a full search-based block matching algorithm (FBMA), three step search (TSS), and a new three-step search algorithm (NTS), can be used as a method for calculating a motion vector.
  • FBMA full search-based block matching algorithm
  • TSS three step search
  • NTS new three-step search algorithm
  • the motion vector may have a motion vector value in units of 1/2 or 1/4 pixels based on the interpolated pixels.
  • the motion prediction unit may predict the current prediction unit by differently predicting the motion.
  • the intra predictor 125 may generate a prediction unit based on reference pixel information around a current block, which is pixel information in the current picture.
  • the neighboring block of the current prediction unit is a block that has performed inter prediction and the reference pixel is a pixel that has performed inter prediction
  • the reference pixel included in the block that has performed inter prediction is a reference pixel of the block that has performed intra prediction Can be used in place of information. That is, when the reference pixel is not available, information on the reference pixel that is not available may be replaced with at least one reference pixel among the available reference pixels.
  • a residual block including a prediction unit that performs prediction based on a prediction unit generated by the prediction units 120 and 125 and residual information that is a difference value from the original block of the prediction unit may be generated.
  • the generated residual block may be input to the transform unit 130.
  • the original block and the residual block including residual information of the prediction unit generated through the prediction units 120 and 125 are converted to DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), and KLT. You can convert it using the same conversion method. Whether to apply DCT, DST, or KLT to transform the residual block may be determined based on intra prediction mode information of a prediction unit used to generate the residual block.
  • DCT Discrete Cosine Transform
  • DST Discrete Sine Transform
  • KLT Discrete Sine Transform
  • the quantization unit 135 may quantize values converted into the frequency domain by the transform unit 130. Quantization coefficients may vary depending on the block or the importance of the image. The value calculated by the quantization unit 135 may be provided to the inverse quantization unit 140 and the rearrangement unit 160.
  • the rearrangement unit 160 may rearrange coefficient values on the quantized residual values.
  • the rearrangement unit 160 may change the two-dimensional block shape coefficients into a one-dimensional vector shape through a coefficient scanning method. For example, the rearrangement unit 160 may scan from a DC coefficient to a coefficient in a high frequency region using a Zig-Zag Scan method, and change it into a one-dimensional vector form.
  • a vertical scan that scans a two-dimensional block shape coefficient in a column direction and a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used. That is, according to the size of the transformation unit and the intra prediction mode, it is possible to determine which of the zig-zag scan, vertical direction scan, and horizontal direction scan method is used.
  • the entropy encoding unit 165 may perform entropy encoding based on values calculated by the rearrangement unit 160. Entropy coding may use various coding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC). In relation to this, the entropy encoder 165 may encode residual value coefficient information of a coding unit from the rearrangement unit 160 and the prediction units 120 and 125. In addition, according to the present invention, it is possible to signal and transmit information indicating that motion information is derived from the side of a decoder and used, and information on a technique used for inducing motion information.
  • CAVLC Context-Adaptive Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the inverse quantization unit 140 and the inverse transform unit 145 inverse quantize values quantized by the quantization unit 135 and inverse transform the values transformed by the transform unit 130.
  • the residual value generated by the inverse quantization unit 140 and the inverse transform unit 145 is reconstructed by being combined with the prediction units predicted through the motion estimation unit, motion compensation unit, and intra prediction unit included in the prediction units 120 and 125 Blocks (Reconstructed Block) can be created.
  • the filter unit 150 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
  • the deblocking filter can remove block distortion caused by the boundary between blocks in the reconstructed picture, which will be described with reference to FIGS. 3 to 8.
  • the offset correction unit may correct an offset from the original image in pixel units of the deblocking image. In order to perform offset correction for a specific picture, the pixels included in the image are divided into a certain number of areas, and then the area to be offset is determined and the offset is applied to the area, or offset by considering the edge information of each pixel. You can use the method to apply.
  • Adaptive Loop Filtering ALF
  • ALF Adaptive Loop Filtering
  • the memory 155 may store the reconstructed block or picture calculated through the filter unit 150, and the stored reconstructed block or picture may be provided to the prediction units 120 and 125 when performing inter prediction.
  • FIG. 2 is a block diagram showing an image decoding apparatus according to the present invention.
  • the image decoder 200 includes an entropy decoder 210, a rearrangement unit 215, an inverse quantization unit 220, an inverse transform unit 225, prediction units 230 and 235, and a filter unit. 240) and a memory 245 may be included.
  • the input bitstream may be decoded in a procedure opposite to that of the image encoder.
  • the entropy decoder 210 may perform entropy decoding in a procedure opposite to that of performing entropy encoding in the entropy encoder of the image encoder. For example, various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied in response to the method performed by the image encoder.
  • various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied in response to the method performed by the image encoder.
  • the entropy decoder 210 may decode information related to intra prediction and inter prediction performed by the encoder.
  • the rearrangement unit 215 may perform rearrangement based on a method in which the entropy-decoded bitstream by the entropy decoder 210 is rearranged by the encoder.
  • the coefficients expressed in the form of a one-dimensional vector may be reconstructed into coefficients in the form of a two-dimensional block and rearranged.
  • the inverse quantization unit 220 may perform inverse quantization based on a quantization parameter provided by an encoder and a coefficient value of a rearranged block.
  • the inverse transform unit 225 may perform an inverse transform, that is, an inverse DCT, an inverse DST, and an inverse KLT, for transforms, that is, DCT, DST, and KLT, performed by the transform unit on the quantization result performed by the image encoder. Inverse transformation may be performed based on a transmission unit determined by the image encoder.
  • the inverse transform unit 225 of the image decoder may selectively perform a transformation technique (eg, DCT, DST, KLT) according to a plurality of pieces of information such as a prediction method, a size of a current block, and a prediction direction.
  • a transformation technique eg, DCT, DST, KLT
  • the prediction units 230 and 235 may generate a prediction block based on information related to generation of a prediction block provided from the entropy decoder 210 and information on a previously decoded block or picture provided from the memory 245.
  • Intra prediction for the prediction unit is performed based on the pixel existing at the top, but when the size of the prediction unit and the size of the transformation unit are different when performing intra prediction, the intra prediction is performed using a reference pixel based on the transformation unit. You can make predictions.
  • intra prediction using NxN splitting for only the smallest coding unit may be used.
  • the prediction units 230 and 235 may include a prediction unit determining unit, an inter prediction unit, and an intra prediction unit.
  • the prediction unit discrimination unit receives various information such as prediction unit information input from the entropy decoder 210, prediction mode information of the intra prediction method, motion prediction related information of the inter prediction method, and divides the prediction unit from the current coding unit, and predicts It can be determined whether the unit performs inter prediction or intra prediction.
  • the encoder 100 does not transmit motion prediction-related information for the inter prediction, instead, information indicating that motion information is derived from the side of the decoder and used, and information about a technique used for deriving motion information are transmitted. In this case, the prediction unit determination unit determines the prediction performance of the inter prediction unit 23 based on the information transmitted from the encoder 100.
  • the inter prediction unit 230 uses information necessary for inter prediction of the current prediction unit provided by the video encoder to predict the current based on information included in at least one picture of a previous picture or a subsequent picture of the current picture containing the current prediction unit. Inter prediction for a unit can be performed. In order to perform inter prediction, an inter prediction mode of a prediction unit included in a corresponding coding unit may be determined based on a coding unit. Regarding the inter prediction mode, the above-described merge mode, AMVP mode, affine mode, current picture reference mode, combined prediction mode, and the like may also be used in the decoding apparatus, and detailed descriptions thereof will be omitted. The inter prediction unit 230 may determine an inter prediction mode of the current prediction unit with a predetermined priority, which will be described with reference to FIGS. 16 to 18.
  • the intra prediction unit 235 may generate a prediction block based on pixel information in the current picture.
  • intra prediction may be performed based on intra prediction mode information of a prediction unit provided from an image encoder.
  • the intra prediction unit 235 may include an AIS (Adaptive Intra Smoothing) filter, a reference pixel interpolation unit, and a DC filter.
  • the AIS filter is a part that performs filtering on a reference pixel of the current block, and may determine whether to apply the filter according to the prediction mode of the current prediction unit and apply it.
  • AIS filtering may be performed on a reference pixel of a current block by using the prediction mode and AIS filter information of the prediction unit provided by the image encoder. When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter may not be applied.
  • the reference pixel interpolator may interpolate the reference pixel to generate a reference pixel of a pixel unit having an integer value or less.
  • the prediction mode of the current prediction unit is a prediction mode that generates a prediction block without interpolating a reference pixel
  • the reference pixel may not be interpolated.
  • the DC filter may generate a prediction block through filtering when the prediction mode of the current block is the DC mode.
  • the reconstructed block or picture may be provided to the filter unit 240.
  • the filter unit 240 may include a deblocking filter, an offset correction unit, and an ALF.
  • the deblocking filter of the image decoder information related to the deblocking filter provided by the image encoder is provided, and the image decoder can perform deblocking filtering on the corresponding block, which will be described with reference to FIGS. 3 to 8.
  • the offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction applied to the image during encoding and information on the offset value.
  • the ALF may be applied to a coding unit based on information on whether to apply ALF and ALF coefficient information provided from an encoder. Such ALF information may be provided by being included in a specific parameter set.
  • the memory 245 can store the reconstructed picture or block so that it can be used as a reference picture or a reference block, and can provide the reconstructed picture to an output unit.
  • the present disclosure relates to a method and apparatus for signaling various parameters that can be applied for each picture or slice, such as adaptive loop filter, reshaper, quantization, and weighted prediction among video coding technologies, in one parameter set.
  • a parameter applied in a predetermined image unit may be transmitted to the encoding/decoding apparatus by using one pre-defined parameter set.
  • the image unit may be at least one of a video sequence, a picture, a slice, a tile, or a brick.
  • parameters that can be applied for each picture or slice such as an adaptive loop filter and a resharper, may be transmitted using one predefined parameter set.
  • one parameter set is used, but an additional signaling method for the type of the parameter set may be used. Since different types are signaled using one parameter set, a parameter set identifier (ID) or a list managing parameter sets can be shared even though the types of parameter sets are different.
  • ID parameter set identifier
  • a list managing parameter sets can be shared even though the types of parameter sets are different.
  • a method and apparatus for sharing a parameter set identifier and a list or independently managing them are proposed.
  • FIG 3 shows an embodiment of a syntax table of an adaptation parameter set (APS).
  • the adaptive parameter set defines/manages parameters for each APS type in an integrated manner, but is a parameter set for using/managing parameters by signaling only the identifier (ID) of the parameter set used in the video unit in the header of the video unit. That is, by using an adaptive parameter set, various parameters applied to a predetermined video unit (eg, one or more pictures, one or more slices) are defined as separate parameter sets, Signaling may not be performed in units of images.
  • a predetermined video unit eg, one or more pictures, one or more slices
  • ALF adaptive loop filter
  • LMCS luma mapping with chroma scaling
  • parameters related to weights for weighted prediction and parameters for block structure may also be included.
  • a picture (or slice, tile, etc.) partition-related parameter, a reference picture set or reference structure-related parameter, a quantization-related parameter, a transform-related parameter, and other in-loop filter-related parameters may be included.
  • Quantization-related parameters, APS types for them, weight-related parameters for weighted prediction, APS types for them, parameters for block structure, and APS types for them will be described in detail later in the present disclosure. .
  • adaptation_parameter_set_id 301 which is an identifier for the adaptive parameter set, may be signaled.
  • the signaling of the adaptive parameter set identifier 301 may mean giving a unique specific value (number) to each of one or more adaptive parameter sets transmitted through one video stream.
  • the adaptive parameter set identifier 301 may mean information for specifying any one of a plurality of adaptive parameter sets pre-defined in the encoding/decoding apparatus.
  • the adaptive parameter set identifier may be expressed as a value from 0 to 2 N -1, and may be transmitted using bits of a fixed length as N bits.
  • N may be one of 2, 3, 4, 5, and 6.
  • N is 3 is shown.
  • the adaptive parameter set identifier 301 may use one number sequence even though the adaptive parameter set type 302 to be described later is different from the adaptive parameter set type without dependency.
  • the adaptive parameter set identifier 301 may be defined with dependence on the adaptive parameter set type 302.
  • the adaptive parameter set identifier 301 for the ALF adaptive parameter set type is from 0 to 7 It can have any one value.
  • the adaptive parameter set identifier 301 for the LMCS adaptive parameter set type may have a value from 0 to 3.
  • the adaptive parameter set identifier 301 for the quantization adaptive parameter set type may have any one value from 0 to 7.
  • parameter sets having different adaptive parameter set types 302 may use the same value.
  • the adaptive parameter set identifier (ALF_APS_ID) for ALF and the adaptive parameter set identifier (LMCS_APS_ID) for LMCS may use the same value.
  • the adaptive parameter set identifier (ALF_APS_ID) for ALF and the adaptive parameter set identifier (SCALING_APS_ID) for quantization may use the same value.
  • aps_params_type 302 which is information on an APS type specifying the type of a parameter included in the corresponding APS, may be signaled.
  • an ALF APS type indicating a parameter for ALF an LMCS APS type indicating a parameter for LMCS, and the like may be defined.
  • a SCALING APS type indicating a quantization related parameter may be additionally defined.
  • parameters included in a corresponding APS may be different according to an APS type, and an additional parameter-related syntax parsing process for a corresponding APS type may be performed according to the APS type.
  • alf_data() 303 can be called to perform ALF-related parameter parsing
  • LMCS_APS when the current APS type is LMCS_APS, lmcs_data() (304) You can parse the parameters related to LMCS by calling. If the current APS type is SCALING_APS, a quantization-related parameter can be parsed by calling scaling_list_data( ).
  • an ALF-related parameter may be extracted by calling alf_data() function. Extraction of the parameter may be performed based on the above-described identifier 301. To this end, in the alf_data() function, an ALF related parameter is defined for each identifier 310, and an ALF related parameter corresponding to the corresponding identifier 310 may be extracted. Alternatively, the extraction of the parameter may be performed without dependence on the above-described identifier 301. Likewise, if the current APS type is LMCS_APS, LMCS-related parameters can be extracted by calling the lmcs_data() function.
  • parameters related to LMCS may be defined for each identifier 310.
  • an LMCS-related parameter corresponding to the identifier 301 may be extracted.
  • the parameter extraction may be performed without dependence on the above-described identifier 301.
  • quantization-related parameters can be extracted by calling the scaling_list_data() function.
  • a quantization-related parameter may be defined for each identifier 310.
  • a quantization related parameter corresponding to the identifier 301 may be extracted.
  • the parameter extraction may be performed without dependence on the above-described identifier 301.
  • an ALF-related parameter may be extracted with dependence on the identifier 301 and the rest may be extracted without dependency on the identifier 301.
  • ALF, LMCS, and quantization-related parameters may all be extracted with dependence on the identifier 301, or all may be extracted without dependency on the identifier 301.
  • Whether to depend on the identifier 301 may be selectively determined according to the APS type.
  • the selection may be a pre-committed to the encoding/decoding device, or may be determined based on a value of the identifier 301 or activation or not. This can be applied in the same/similar manner to various APS types described below.
  • an APS type for weighted prediction, block structure, and the like may be defined.
  • An embodiment of an APS syntax table in which APS types for weight prediction and block structure are defined will be described in detail later.
  • FIG. 4 shows an embodiment of a syntax table for transmission and parsing of quantization-related parameters.
  • a copy mode flag (scaling_list_copy_mode_flag) may be signaled.
  • the copy mode flag may indicate whether the scaling list is obtained based on the copy mode. For example, when the copy mode flag is the first value, the copy mode may be used, otherwise, the copy mode may not be used.
  • the copy mode flag may be parsed based on the identifier (id).
  • the identifier id is information derived based on the encoding parameter of the current block, which will be described in detail later with reference to FIG. 5.
  • a prediction mode flag (scaling_list_pred_mode_flag) may be signaled.
  • the prediction mode flag may indicate whether the scaling list is obtained based on the prediction mode. For example, when the prediction mode flag is the first value, the prediction mode is used, otherwise, the prediction mode may not be used.
  • the prediction mode flag may be parsed based on the copy mode flag. That is, it can be parsed only when the copy mode is not used according to the copy mode flag.
  • a delta identifier (scaling_list_pred_id_delta) may be signaled.
  • the delta identifier may be information for specifying a reference scaling list used to obtain the scaling list.
  • the delta identifier may be signaled only when a copy mode is used according to the above-described copy mode flag or a prediction mode is used according to the prediction mode flag.
  • the delta identifier is signaled in consideration of the above-described identifier (id), for example, as shown in FIG. 4, the identifier (id) is a value (0, 2, 8) pre-defined in the decoding device It can be signaled only if it does not correspond to.
  • the delta identifier may not be signaled when the maximum value of the width and height of the current block is 4 or 8, the component type of the current block is the luminance component, and the prediction mode of the current block is the intra mode.
  • difference coefficient information (scaling_list_delta_coef) may be signaled.
  • the difference coefficient information may mean information encoded to specify a difference between a current coefficient and a previous coefficient of the scaling list.
  • the difference coefficient information may be signaled only when the copy mode is not used in the copy mode flag. That is, the difference coefficient information may be used in a prediction mode and a transmission mode to be described later, respectively.
  • FIG. 5 illustrates an embodiment of a method of reconstructing a residual block based on a quantization-related parameter.
  • a transform coefficient of a current block may be obtained by decoding a bitstream (S500).
  • the transform coefficient may mean a coefficient obtained by performing transform and quantization on a residual sample in an encoding apparatus.
  • the transform coefficient may mean a coefficient obtained by skipping the transform of the residual sample and performing only quantization.
  • Transform coefficients may be variously expressed as coefficients, residual coefficients, and transform coefficient levels.
  • inverse quantization may be performed on the obtained transform coefficient to obtain an inverse quantized transform coefficient (S510).
  • the dequantized transform coefficient may be derived by applying a predetermined scaling factor (hereinafter, referred to as a final scaling factor) to the transform coefficient.
  • a predetermined scaling factor hereinafter, referred to as a final scaling factor
  • the final scaling factor may be derived by applying a predetermined weight to the initial scaling factor.
  • the initial scaling factor may be determined based on a scaling list corresponding to an identifier of the current block (hereinafter, referred to as a first identifier).
  • the decoding apparatus may derive the first identifier based on the encoding parameter of the current block.
  • the encoding parameter may include at least one of a prediction mode, a component type, a size, a shape, a transformation type, or whether a transformation is skipped.
  • the size of the current block may be expressed as a width, height, sum of width and height, product of width and height, or maximum/minimum value of width and height.
  • the first identifier may be derived as shown in Table 1.
  • the first identifier may have a value of 0 to 27.
  • the first identifier may be adaptively derived according to a maximum value among the width (nTbW) and height (nTbH) of the current block, a prediction mode (predMode), and a component type (cIdx).
  • the scaling list according to the present disclosure has a form of an M x N matrix, and M and N may be the same or different.
  • Each component of the matrix may be referred to as a coefficient or a matrix coefficient.
  • the size of the matrix may be variably determined based on the first identifier of the current block. Specifically, when the first identifier is smaller than the first threshold size, at least one of M and N is determined as 2, and when the first identifier is greater than or equal to the first threshold size and smaller than the second threshold size, M and At least one of N may be determined as 4. When the first identifier is larger than the second threshold size, at least one of M and N may be determined as 8.
  • the first threshold size may be an integer of 2, 3, 4, 5 or higher
  • the second threshold size may be an integer of 8, 9, 10, 11 or higher.
  • a scaling list for inverse quantization of the current block may be derived based on a quantization related parameter.
  • the quantization-related parameter may include at least one of a copy mode flag, a prediction mode flag, a delta identifier, or difference coefficient information.
  • Quantization-related parameters may be signaled in an adaptive parameter set (APS).
  • the adaptive parameter set may mean a syntax structure including parameters applied to a picture and/or slice.
  • one adaptive parameter set may be signaled through a bitstream, or a plurality of adaptive parameter sets may be signaled.
  • the plurality of adaptive parameter sets may be identified by the adaptive parameter set identifier 301.
  • Each adaptive parameter set may have different adaptive parameter set identifiers 301 from each other.
  • the quantization-related parameter for the scaling list of the current block may be signaled from an adaptive parameter set specified by a predetermined identifier (hereinafter referred to as a second identifier) among a plurality of adaptive parameter sets.
  • the second identifier is information encoded to specify any one of a plurality of adaptive parameter sets, and may be signaled in a predetermined image unit (picture, slice, tile, or block).
  • a second identifier is signaled in the header of the corresponding image unit, and the corresponding image unit may obtain a scaling list by using a quantization related parameter extracted from an adaptive parameter set corresponding to the second identifier.
  • a method of obtaining a scaling list based on a quantization-related parameter will be described.
  • the scaling list of the current block may be set to be the same as the scaling list (ie, reference scaling list) corresponding to the reference identifier.
  • the reference identifier may be derived based on the first identifier of the current block and a predetermined delta identifier.
  • the delta identifier may be information that is encoded and signaled by an encoding device to identify the reference scaling list.
  • the reference identifier may be set as a difference value between the first identifier of the current block and the delta identifier.
  • the scaling list of the current block may be set to be the same as the default scaling list.
  • the default scaling list is pre-defined in the decoding apparatus, and each coefficient of the default scaling list may have a predetermined constant value (e.g., 2, 4, 8, 16).
  • the copy mode may be used based on a copy mode flag indicating whether or not the copy mode is used. For example, when the copy mode flag is the first value, the copy mode is used, otherwise, the copy mode may not be used.
  • the scaling list of the current block may be determined based on the prediction scaling list and the differential scaling list.
  • the prediction scaling list may be derived based on the aforementioned reference scaling list. That is, the reference scaling list specified by the first identifier and the delta identifier of the current block may be set as the prediction scaling list.
  • the prediction scaling list may be determined based on the default scaling list.
  • the differential scaling list likewise has the form of an M x N matrix, and each coefficient of the matrix can be derived based on differential coefficient information signaled from the bitstream. For example, difference coefficient information, which is a difference between a previous coefficient and a current coefficient, is signaled, and the current coefficient may be obtained by using the previous coefficient and the signaled difference coefficient information.
  • difference coefficient information which is a difference between a previous coefficient and a current coefficient
  • the scaling list of the current block may be determined by adding the prediction scaling list and the differential scaling list.
  • the prediction mode may be used based on a prediction mode flag indicating whether the prediction mode is used. For example, if the prediction mode flag is the first value, the prediction mode is used, otherwise, the prediction mode may not be used.
  • At least one coefficient of the scaling list of the current block may be derived based on difference coefficient information signaled by the encoding apparatus.
  • the signaled difference coefficient information may be used to determine a difference coefficient that is a difference between the previous coefficient and the current coefficient. That is, the current coefficient of the scaling list may be derived using the previous coefficient and signaled difference coefficient information, and through this process, the scaling list of the current block may be obtained.
  • a predetermined offset may be applied to at least one coefficient included in the obtained scaling list.
  • the offset may be a fixed constant value (e.g., 2, 4, 8, 16) pre-committed to the decoding device.
  • a final scaling list for inverse quantization may be obtained.
  • the transmission mode may be used only when the above-described copy mode and prediction mode are not used according to the copy mode flag and the prediction mode flag.
  • the above-described weight may be obtained from a weight candidate list pre-defined in the decoding apparatus.
  • the weight candidate list may include one or more weight candidates. Any one of the weight candidates included in the weight candidate list may be set as the weight.
  • the weight candidate list may be composed of six weight candidates.
  • the weight candidate list may be defined as ⁇ 40, 45, 51, 57, 64, 72 ⁇ or ⁇ 57, 64, 72, 80, 90, 102 ⁇ .
  • the present invention is not limited thereto, and the number of weight candidates may be 2, 3, 4, 5, 7 or more.
  • the weight candidate list may include a weight candidate of a value less than 40 or a weight candidate of a value greater than 102.
  • the number of pre-defined weight candidate lists may be one or two or more.
  • any one weight candidate list may be selectively used. In this case, the selection may be performed in consideration of the encoding parameter of the current block.
  • the encoding parameters are the same as described above, and redundant descriptions will be omitted.
  • the pre-defined weight candidate list is ⁇ 40, 45, 51, 57, 64, 72 ⁇ (hereinafter referred to as the first list) and ⁇ 57, 64, 72, 80, 90, 102 ⁇ (hereinafter, (Referred to as the second list).
  • the first list may be used, otherwise, the second list may be used.
  • the shape of the current block is a square, the first list may be used, otherwise, the second list may be used.
  • the first list is used, and if not, the first list or the second list may be selectively used according to the shape of the current block as described above.
  • a residual block of a current block may be restored based on an inverse quantized transform coefficient (S520).
  • the residual block When the transform skip is not applied, the residual block may be restored by performing inverse transform on the inverse quantized transform coefficient. On the other hand, when the transform skip is applied, the residual block may be restored by setting the inverse quantized transform coefficient as a residual sample.
  • the above-described residual block reconstruction process may be performed in the same or similar manner in the encoding apparatus, and redundant descriptions will be omitted.
  • FIG. 6 is a diagram illustrating an embodiment of an APS syntax table to which an APS type for weight prediction is added.
  • parameters for weight prediction may be signaled and parsed using APS.
  • an APS type for transmitting a parameter for weight prediction may be defined, which may be mapped to one of 0 to 2 N -1.
  • N may be one of 2, 3, 4, and 5, and in the embodiment shown in FIG. 6, a case where N is 3 is illustrated as an example.
  • a step 600 of signaling or parsing a parameter for weight prediction may be added.
  • a weight prediction-related parameter may be extracted by calling the pred_weight_table() function.
  • the pred_weight_table() function may define only parameters related to unidirectional weight prediction or may define only parameters related to bidirectional weight prediction. Alternatively, the pred_weight_table() function may define parameters for unidirectional and bidirectional weight prediction, respectively.
  • the pred_weight_table() function may define at least one of a parameter related to implicit weight prediction or a parameter related to explicit weight prediction.
  • the extraction of the parameter may be performed based on the above-described identifier 301.
  • a weight prediction related parameter is defined for each identifier, and a weight prediction related parameter corresponding to the corresponding identifier 301 may be extracted.
  • the extraction of the parameter may be performed without dependence on the above-described identifier 301.
  • FIG. 7 is a diagram illustrating another embodiment of an APS syntax table to which an APS type for weight prediction is added.
  • parameters for weight prediction may be signaled and parsed using APS.
  • an APS type for transmitting a parameter for unidirectional weight prediction may be defined, and an APS type for transmitting a parameter for bidirectional weight prediction may be separately defined.
  • the APS type for unidirectional weight prediction and the APS type for bidirectional weight prediction may be mapped to one number from 0 to 2 N -1, respectively.
  • N may be one of 2, 3, 4, and 5, and in the example illustrated in FIG. 7, a case where N is 3 is illustrated as an example.
  • an operation 700 or 701 of signaling or parsing a parameter for weight prediction may be added.
  • a pred_weight_table() function for unidirectional weight prediction and a bipred_weight_table() function for bi-directional weight prediction may be defined, respectively.
  • the pred_weight_table() function is called to extract parameters related to unidirectional weight prediction
  • bipred_weight_table() function is called to extract parameters related to bi-directional weight prediction. Extraction of the parameter may be performed based on the above-described identifier 301.
  • pred_weight_table() and bipred_weight_table() may define a weight prediction related parameter for each identifier, and a weight prediction related parameter corresponding to the corresponding identifier 301 may be extracted. Alternatively, the extraction of the parameter may be performed without dependence on the above-described identifier 301.
  • FIG. 8 is a diagram illustrating another embodiment of an APS syntax table to which an APS type for weight prediction is added.
  • parameters for weight prediction may be signaled and parsed using APS.
  • an APS type for transmitting a parameter for unidirectional weight prediction may be defined, and an APS type for transmitting a parameter for bidirectional weight prediction may be separately defined.
  • the APS type for unidirectional weight prediction and the APS type for bidirectional weight prediction may be mapped to one number from 0 to 2 N -1, respectively.
  • N may be one of 2, 3, 4, and 5, and in the exemplary embodiment illustrated in FIGS. 7 and 8, a case where N is 3 is illustrated as an example.
  • an operation 800 or 801 of signaling or parsing a parameter for weight prediction may be added.
  • an APS type for unidirectional or bidirectional prediction may be used as an input to a step of signaling or parsing a parameter for weight prediction, and signaling or parsing accordingly may be performed.
  • the pred_weight_table() function may define a parameter for unidirectional weight prediction and a parameter for bidirectional weight prediction, respectively.
  • a parameter for weight prediction corresponding to the aforementioned APS type 302 may be extracted.
  • a parameter for bidirectional weight prediction may be derived from a parameter for one-way weight prediction.
  • pred_weight_table() may define a weight prediction related parameter for each identifier, and a weight prediction related parameter corresponding to the corresponding identifier 301 may be extracted.
  • the extraction of the parameter may be performed without dependence on the above-described identifier 301.
  • FIG. 9 is a diagram illustrating an embodiment of a syntax table for transmitting and parsing parameters for weight prediction.
  • FIG. 8 A diagram showing an embodiment of an additional step (800, 801) of signaling or parsing a parameter for weight prediction shown in FIG. 8, aps_param_type corresponding to an APS type in a step of signaling or parsing a parameter for weight prediction This can be used as input.
  • aps_param_type means bidirectional prediction according to the aps_param_type (901)
  • an additional weight prediction parameter signaling or parsing step 920 for bidirectional prediction may be added.
  • values such as the number of reference pictures can use a predefined fixed value, or can be used by referring to a parameter for a reference picture structure transmitted in advance. .
  • FIG. 10 is a diagram illustrating an embodiment of an APS syntax table to which an APS type for a block division structure is added.
  • aps_params_type 302 which is information about the APS type specifying the type of parameter included in the APS, may be signaled.
  • an ALF APS type indicating a parameter for ALF an LMCS APS type indicating a parameter for LMCS, and the like may be defined.
  • an APS type for transmitting parameters for a block division structure may be defined, and parameter transmission and parsing may be performed.
  • parameters included in the corresponding APS may be different, and an additional parameter related syntax parsing process for the corresponding APS type may be performed according to the APS type.
  • a step 1001 of signaling or parsing a parameter for a block partition structure may be additionally performed.
  • parameters for weight prediction may be signaled and parsed using APS.
  • an APS type for transmitting a parameter for weight prediction may be defined, which may be mapped to one of 0 to 2 N -1.
  • N may be one of 2, 3, 4, and 5, and in the embodiment illustrated in FIG. 10, a case where N is 3 is illustrated as an example.
  • 11 and 12 illustrate examples of a syntax table for parameters for a block structure that is additionally signaled or parsed when the current APS type is a parameter for a block partition structure.
  • parameters for a block division structure that can be applied to an image unit are signaled with parameters 1110 for a luma tree and parameters 1120 for a chroma tree when a specific condition is satisfied in one parameter set.
  • An example syntax table is shown.
  • APS IDs for parameters for the block division structure may be signaled or parsed.
  • FIG. 13 The embodiment is illustrated in FIG. 13.
  • FIG. 13 is a diagram illustrating a part of a syntax table for a slice header in order to show an embodiment of APS signaling or parsing for a block division structure in a slice header.
  • the current slice type or chroma separate tree (CST) technique is used in signaling or parsing the block division structure in a slice header, etc.
  • CST chroma separate tree
  • the block partitioning structure parameter corresponding to the APS ID parsed by slice_mtt_aps_id (1300) is set to luma tree and chroma The same applies to the tree.
  • the block partitioning structure parameter corresponding to the APS ID parsed in slice_mtt_aps_id (1300) is applied to the luma tree
  • slice_mtt_chroma_aps_id 1310
  • the block division structure parameter corresponding to the parsed APS ID is applied to the chroma tree.
  • FIG. 13 shows an embodiment of transmitting a block division structure in a slice header, but signaling or a sequence parameter set (SPS) or a picture parameter set (PPS) for the block division structure
  • SPS sequence parameter set
  • PPS picture parameter set
  • signaling or parsing may be performed as in the example of the slice.
  • FIG. 14 is a diagram showing the concept of managing APS by using different lists according to APS types.
  • the parameter set identifier 301 can be defined.
  • the adaptive parameter set identifier 301 for the ALF adaptive parameter set type is selected from 0 to 7 It can have any one value.
  • the adaptive parameter set identifier 301 for the LMCS adaptive parameter set type may have a value from 0 to 3.
  • the adaptive parameter set identifier 301 for the quantization adaptive parameter set type may have any one value from 0 to 7.
  • parameter sets having different adaptive parameter set types 302 may use the same value.
  • the adaptive parameter set identifier (ALF_APS_ID) for ALF and the adaptive parameter set identifier (LMCS_APS_ID) for LMCS may use the same value.
  • the adaptive parameter set identifier (ALF_APS_ID) for ALF and the adaptive parameter set identifier (SCALING_APS_ID) for quantization may use the same value.
  • the same APS_ID is allocated for different APS types, but different lists for each APS type can be used for management. Allocating the same APS_ID means that the intervals of the identifier 301 value defined for each APS type may be the same or overlap with each other. That is, as in the above-described example, ALF_APS_ID and SCALING_APS_ID may have any one of 0 to 7, and LMCS_APS_ID may have any one of 0 to 3. In this case, the same APS_ID may be allocated even if they have different APS types. As shown in Fig. 14, for each APS type, a list for ALF_APS, a list for LMCS_APS, a list for SCALING_APS, etc. are each defined/used, and each list has one or more adaptive ones having a different identifier (APS_ID). A set of parameters can be defined. Here, the list may be interpreted to mean a separate area or space.
  • Different APS_IDs may be allocated according to the APS type, and adaptive parameter sets may be managed using different lists.
  • a different APS_ID may be allocated for each APS type and managed using a single list.
  • the same APS_ID may be allocated for different APS types, and the same list may be used for APS types having the same APS_ID to manage them.
  • various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • one or more ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.
  • the scope of the present disclosure is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that allow an operation according to a method of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer.
  • a non-transitory computer-readable medium non-transitory computer-readable medium
  • the present invention can be used to encode/decode video signals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시에 따른 비디오 복호화/복호화 방법 및 장치는, 현재 블록의 변환 계수를 획득하고, 적응적 파라미터 셋의 양자화 관련 파라미터를 기반으로 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하며, 역양자화된 변환 계수를 기반으로 현재 블록의 잔차 블록을 복원할 수 있다.

Description

적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치
본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다.
최근 고해상도, 고화질 비디오에 대한 요구가 증가함에 따라 차세대 비디오 서비스를 위한 고효율 비디오 압축 기술에 대한 필요성이 대두되었다. 이러한 필요성에 기반하여 H.264/AVC, HEVC 비디오 압축 표준을 공동으로 표준화한 ISO/IEC MPEG 과 ITU-T VCEG은 JVET (Joint Video Exploration Team)을 구성하여 2015년 10월부터 새로운 비디오 압축 표준을 제정하기 위한 연구 및 탐색을 진행하였으며, 2018년 4월 새로운 비디오 압축 표준의 CfP (Call for Proposal)에 대한 응답들에 대한 평가와 함께 새로운 비디오 압축 표준화를 시작하였다.
비디오 압축 기술에서 블록 분할 구조는 부호화 및 복호화를 수행하는 단위 및 예측, 변환 등의 부호화 및 복호화 주요 기술이 적용되는 단위를 의미한다. 비디오 압축 기술이 발전함에 따라 부호화 및 복호화를 위한 블록의 크기는 점차 증가하고 있으며, 블록의 분할 형태는 보다 다양한 분할 형태를 지원하고 있다. 또한, 부호화 및 복호화를 위한 단위 뿐만 아니라 블록의 역할에 따라 세분화된 단위를 사용하여 비디오 압축을 수행한다.
HEVC 표준에서는 쿼드트리 형태의 블록 분할 구조와 예측 및 변환을 위한 역할에 따라 세분화된 단위 블록을 사용하여 비디오 부호화 및 복호화를 수행한다. 쿼드-트리 형태의 블록 분할 구조와 더불어, 쿼드트리와 바이너리-트리를 결합한 형태의 QTBT (QuadTree plus Binary Tree)와 이에 트리플-트리를 결합한 MTT (Multi-Type-Tree) 등의 다양한 형태의 블록 분할 구조들이 비디오 부호화 효율 향상을 위하여 제안되고 있다. 이러한 다양한 블록 크기와 다양한 형태의 블록 분할 구조의 지원을 통하여 하나의 픽쳐는 다수의 블록들로 분할되어 각 블록에 해당하는 부호화 모드, 모션 정보, 화면 내 예측 방향 정보 등의 부호화 유닛 단위 정보가 다양하게 표현됨에 따라 이를 표현하는 비트의 수가 크게 증가하고 있다.
본 개시는 비디오 신호의 코딩 효율을 향상시키고자 함에 있다.
본 개시는 픽쳐 또는 슬라이스 단위로 적용되는 다양한 파라미터를 효율적으로 정의/관리하는 방법 및 장치를 제공하고자 한다.
본 개시는 양자화/역양자화를 위한 스케일링 리스트를 획득하는 방법 및 장치를 제공하고자 한다.
상기 과제를 해결하기 위하여 본 발명은 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치를 제공한다.
본 개시에 따른 비디오 복호화 방법 및 장치는, 비트스트림을 복호화하여 현재 블록의 변환 계수를 획득하고, 상기 비트스트림에 포함된 양자화 관련 파라미터를 기반으로 상기 획득된 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하며, 상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원할 수 있다. 여기서, 상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)으로부터 획득될 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 역양자화된 변환 계수를 획득하는 단계는, 상기 양자화 관련 파라미터를 기반으로, 상기 역양자화를 위한 스케일링 리스트를 획득하는 단계, 상기 스케일링 리스트와 소정의 가중치를 기반으로, 스케일링 팩터를 유도하는 단계 및 상기 유도된 스케일링 팩터를 상기 변환 계수에 적용하는 단계를 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 양자화 관련 파라미터는, 복사 모드 플래그, 예측 모드 플래그, 델타 식별자 또는 차분 계수 정보 중 적어도 하나를 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 가중치는, 복호화 장치에 기-정의된 가중치 후보 리스트로부터 획득될 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 복호화 장치에 기-정의된 가중치 후보 리스트의 개수는 2개 이상이고, 상기 현재 블록의 부호화 파라미터에 기초하여, 상기 복수의 가중치 후보 리스트 중 어느 하나가 선택적으로 이용될 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 적응적 파라미터 셋은, 소정의 영상 단위에서 사용되는 파라미터 셋을 포함하는 신택스 구조이고, 상기 파라미터 셋은, 적응적 루프 필터(ALF) 관련 파라미터, 리쉐이퍼(luma mapping with chroma scaling)에 대한 매핑 모델 관련 파라미터 또는 상기 양자화 관련 파라미터 중 적어도 하나를 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 적응적 파라미터 셋은, 적응적 파라미터 셋에 대한 식별자 또는 적응적 파라미터 셋 타입 정보 중 적어도 하나를 더 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 서로 다른 적응적 파라미터 셋 타입에 대해서 동일한 식별자를 할당하되, 상기 적응적 파라미터 세트는, 상기 적응적 파라미터 셋 타입 별로 서로 다른 리스트를 이용하여 관리될 수 있다.
본 개시에 따른 비디오 부호화 방법 및 장치는, 현재 블록의 변환 계수를 획득하고, 소정의 양자화 관련 파라미터를 기반으로 상기 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하며, 상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원할 수 있다. 여기서, 상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)에 포함되어 전송될 수 있다.
본 개시에 따른 비디오 복호화 방법에 의해 복호화되는 비트스트림을 저장하는 컴퓨터로 판독가능한 기록 매체에 있어서, 상기 비디오 복호화 방법은, 비트스트림을 복호화하여 현재 블록의 변환 계수를 획득하는 단계, 상기 비트스트림에 포함된 양자화 관련 파라미터를 기반으로 상기 획득된 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하는 단계 및 상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원하는 단계를 포함할 수 있다. 여기서, 상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)으로부터 획득될 수 있다.
본 개시에 따르면, 적응적 파라미터 셋을 이용하여 비디오 신호 코딩 효율을 향상시킬 수 있다.
본 개시에 따르면, 적응적 파라미터 셋을 이용함으로써, 적응적 파라미터 셋 타입(APS type) 별 다양한 파라미터를 효과적으로 관리할 수 있다.
본 개시에 따르면, 다양한 모드를 통해서 양자화/역양자화를 위한 스케일링 리스트를 효율적으로 획득할 수 있다.
도 1은 본 발명에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 2는 본 발명에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 3은 적응적 파라미터 셋 (APS: adaptation parameter set)의 신택스 테이블에 대한 일실시예를 도시한다.
도 4는 양자화 관련 파라미터의 전송 및 파싱을 위한 신택스 테이블의 일실시예를 도시한다.
도 5는 양자화 관련 파라미터를 기반으로 잔차 블록을 복원하는 방법의 일실시예를 도시한다.
도 6은 가중치 예측에 대한 APS type이 추가된 APS 신택스 테이블에 대한 일실시예를 도시한 도면이다.
도 7은 가중치 예측에 대한 APS type이 추가된 APS 신택스 테이블에 대한 또 다른 일실시예를 도시한 도면이다.
도 8은 가중치 예측에 대한 APS type이 추가된 APS 신택스 테이블에 대한 또 다른 일실시예를 도시한 도면이다.
도 9는 가중치 예측에 대한 파라미터 전송 및 파싱을 위한 신택스 테이블의 일실시예를 도시한 도면이다.
도 10은 블록 분할 구조에 대한 APS type이 추가된 APS 신택스 테이블에 대한 일실시예를 도시한 도면이다.
도 11 및 도 12에서는 현재 APS type이 블록 구조에 대한 파라미터인 경우에 대하여 추가적으로 시그널링 혹은 파싱되는 블록 구조에 대한 파라미터들을 위한 신택스 테이블에 대한 실시 예들을 도시한다.
도 13은 슬라이스 헤더에서 블록 분할 구조에 대한 APS 시그널링 혹은 파싱의 일실시예를 나타내기 위하여 슬라이스 헤더에 대한 신택스 테이블 중 일부를 도시한 도면이다.
도 14는 APS type에 따라 서로 다른 리스트를 사용하여 APS를 관리하는 개념을 도시한 도면이다.
상기 과제를 해결하기 위하여 본 발명은 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치를 제공한다.
본 개시에 따른 비디오 복호화 방법 및 장치는, 비트스트림을 복호화하여 현재 블록의 변환 계수를 획득하고, 상기 비트스트림에 포함된 양자화 관련 파라미터를 기반으로 상기 획득된 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하며, 상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원할 수 있다. 여기서, 상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)으로부터 획득될 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 역양자화된 변환 계수를 획득하는 단계는, 상기 양자화 관련 파라미터를 기반으로, 상기 역양자화를 위한 스케일링 리스트를 획득하는 단계, 상기 스케일링 리스트와 소정의 가중치를 기반으로, 스케일링 팩터를 유도하는 단계 및 상기 유도된 스케일링 팩터를 상기 변환 계수에 적용하는 단계를 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 양자화 관련 파라미터는, 복사 모드 플래그, 예측 모드 플래그, 델타 식별자 또는 차분 계수 정보 중 적어도 하나를 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 가중치는, 복호화 장치에 기-정의된 가중치 후보 리스트로부터 획득될 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 복호화 장치에 기-정의된 가중치 후보 리스트의 개수는 2개 이상이고, 상기 현재 블록의 부호화 파라미터에 기초하여, 상기 복수의 가중치 후보 리스트 중 어느 하나가 선택적으로 이용될 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 적응적 파라미터 셋은, 소정의 영상 단위에서 사용되는 파라미터 셋을 포함하는 신택스 구조이고, 상기 파라미터 셋은, 적응적 루프 필터(ALF) 관련 파라미터, 리쉐이퍼(luma mapping with chroma scaling)에 대한 매핑 모델 관련 파라미터 또는 상기 양자화 관련 파라미터 중 적어도 하나를 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 상기 적응적 파라미터 셋은, 적응적 파라미터 셋에 대한 식별자 또는 적응적 파라미터 셋 타입 정보 중 적어도 하나를 더 포함할 수 있다.
본 개시에 따른 비디오 복호화 방법 및 장치에 있어서, 서로 다른 적응적 파라미터 셋 타입에 대해서 동일한 식별자를 할당하되, 상기 적응적 파라미터 세트는, 상기 적응적 파라미터 셋 타입 별로 서로 다른 리스트를 이용하여 관리될 수 있다.
본 개시에 따른 비디오 부호화 방법 및 장치는, 현재 블록의 변환 계수를 획득하고, 소정의 양자화 관련 파라미터를 기반으로 상기 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하며, 상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원할 수 있다. 여기서, 상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)에 포함되어 전송될 수 있다.
본 개시에 따른 비디오 복호화 방법에 의해 복호화되는 비트스트림을 저장하는 컴퓨터로 판독가능한 기록 매체에 있어서, 상기 비디오 복호화 방법은, 비트스트림을 복호화하여 현재 블록의 변환 계수를 획득하는 단계, 상기 비트스트림에 포함된 양자화 관련 파라미터를 기반으로 상기 획득된 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하는 단계 및 상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원하는 단계를 포함할 수 있다. 여기서, 상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)으로부터 획득될 수 있다.
하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우 뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다. 또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시 예 및 분리된 실시 예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
이하 본 명세서에 기재된 본 발명의 다양한 실시 예에서, “~부”, “~기”, “~유닛”, “~모듈”, “~블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
또한, 부호화 블록은 현재 부호화 및 복호화가 수행되는 대상 화소들의 집합의 처리 단위를 의미하며, 부호화 블록, 부호화 유닛으로 혼용하여 사용될 수 있다. 또한, 상기 부호화 유닛은 CU(Coding Unit)을 지칭하며, CB(Coding Block)을 포함하여 포괄적으로 지칭할 수 있다.
또한, 쿼드트리 분할은 하나의 블록이 사분할 되어 네 개의 독립적인 부호화 유닛으로 분할되는 것을 지칭하며, 바이너리 분할은 하나의 블록이 이분할 되어 두 개의 독립적인 부호화 유닛으로 분할되는 것을 지칭한다. 또한, 터너리 분할은 하나의 블록이 1:2:1 비율로 삼분할 되어 새 개의 독립적인 부호화 유닛으로 분할되는 것을 지칭한다.
도 1은 본 발명에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 1을 참조하면, 영상 부호화 장치(100)는 픽쳐 분할부(110), 예측부(120, 125), 변환부(130), 양자화부(135), 재정렬부(160), 엔트로피 부호화부(165), 역양자화부(140), 역변환부(145), 필터부(150) 및 메모리(155)를 포함할 수 있다.
픽쳐 분할부(110)는 입력된 픽쳐를 적어도 하나의 처리 단위로 분할할 수 있다. 이때, 처리 단위는 예측 단위(Prediction Unit: PU)일 수도 있고, 변환 단위(Transform Unit: TU)일 수도 있으며, 부호화 단위(Coding Unit: CU)일 수도 있다. 이하, 본 발명의 실시예에서는 부호화 단위는 부호화를 수행하는 단위의 의미로 사용할 수도 있고, 복호화를 수행하는 단위의 의미로 사용할 수도 있다.
예측 단위는 하나의 부호화 단위 내에서 동일한 크기의 적어도 하나의 정사각형 또는 직사각형 등의 형태를 가지고 분할된 것일 수도 있고, 하나의 부호화 단위 내에서 분할된 예측 단위 중 어느 하나의 예측 단위가 다른 하나의 예측 단위와 상이한 형태 및/또는 크기를 가지도록 분할된 것일 수도 있다. 부호화 단위를 기초로 인트라 예측을 수행하는 예측 단위를 생성시 최소 부호화 단위가 아닌 경우, 복수의 예측 단위 NxN 으로 분할하지 않고 인트라 예측을 수행할 수 있다.
예측부(120, 125)는 인터 예측 또는 화면 간 예측을 수행하는 인터 예측부(120)와 인트라 예측 또는 화면 내 예측을 수행하는 인트라 예측부(125)를 포함할 수 있다. 예측 단위에 대해 인터 예측을 사용할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 모션 벡터, 참조 픽쳐 등)를 결정할 수 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(130)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(165)에서 부호화되어 복호화기에 전달될 수 있다. 단, 본 발명에 따른 디코더 측면의 모션 정보 유도 기법이 적용되는 경우에는, 상기 예측 모드 정보, 모션 벡터 정보 등을 부호화기에서는 생성하지 않으므로, 해당 정보가 복호화기에도 전달되지 않게 된다. 반면, 모션 정보를 디코더 측면에서 유도하여 사용함을 지시하는 정보 및 상기 모션 정보 유도에 사용된 기법에 대한 정보를 상기 부호화기에서 시그널링(signaling)하여 전송하는 것이 가능하다.
인터 예측부(120)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 단위를 예측할 수도 있고, 경우에 따라서는 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로 예측 단위를 예측할 수도 있다. 인터 예측 모드로서, 머지(Merge) 모드, AMVP(Advanced Motion Vector Prediction) 모드, 어파인(Affine) 모드, 현재 픽쳐 참조 (current picture referencing) 모드, 결합 예측 모드 등 다양한 방법이 사용될 수 있다. 머지 모드는, 공간적/시간적 머지 후보 중 적어도 하나의 모션 벡터를 현재 블록의 모션 벡터로 설정하고, 이를 이용하여 인터 예측을 수행할 수 있다. 다만, 머지 모드의 경우에도, 기-설정된 모션 벡터에 추가적인 모션 벡터 차이값(MVD)를 가산하여 기-설정된 모션 벡터를 보정할 수 있다. 이때, 보정된 모션 벡터가 현재 블록의 최종 모션 벡터로 이용될 수 있으며, 이에 대해서는 도 15를 참조하여 자세히 살펴 보기로 한다. 어파인 모드는, 현재 블록의 소정의 서브-블록 단위로 분할하고, 각 서브-블록 단위로 유도된 모션 벡터를 이용하여 인터 예측을 수행하는 방법이다. 여기서, 서브-블록 단위는 NxM으로 표현되며, N과 M은 각각 4, 8, 16 또는 그 이상의 정수일 수 있다. 서브-블록의 형태는 정방형 또는 비정방형일 수 있다. 서브-블록 단위는 부호화 장치에 기-약속된 고정된 것이거나, 현재 블록의 크기/형태, 성분 타입 등을 고려하여 가변적으로 결정될 수도 있다. 현재 픽쳐 참조 모드는 현재 블록이 속한 현재 픽쳐 내의 기-복원된 영역 및 소정의 블록 벡터(block vector)를 이용하는 인터 예측 방법이며, 이에 대해서는 도 9 내지 도 14를 참조하여 자세히 살펴 보기로 한다. 결합 예측 모드는, 하나의 현재 블록에 대해서 인터 예측을 통한 제1 예측 블록과 인트라 예측을 통한 제2 예측 블록을 각각 생성하고, 제1 및 제2 예측 블록에 소정의 가중치를 적용하여 현재 블록의 최종 예측 블록을 생성하는 방법이다. 여기서, 인터 예측은 전술한 인터 예측 모드 중 어느 하나를 이용하여 수행될 수 있다. 상기 인트라 예측은 부호화 장치에 기-설정된 인트라 예측 모드(예를 들어, 플래너 모드, DC 모드, 수직/수평 모드, 대각선 모드 중 어느 하나)만을 고정적으로 이용하여 수행될 수 있다. 또는, 상기 인트라 예측을 위한 인트라 예측 모드는, 현재 블록에 인접한 주변 블록(예를 들어, 좌측, 상단, 좌상단, 우상단, 우하단 중 적어도 하나)의 인트라 예측 모드를 기반으로 유도될 수도 있다. 이때, 이용되는 주변 블록의 개수는 1개 또는 2개로 고정되거나, 3개 이상일 수도 있다. 전술한 주변 블록이 모두 가용한 경우라도, 좌측 주변 블록 또는 상단 주변 블록 중 어느 하나만이 이용되도록 제한되거나, 좌측 및 상단 주변 블록만이 이용되도록 제한될 수도 있다. 상기 가중치는, 전술한 주변 블록이 인트라 모드로 부호화된 블록인지 여부를 고려하여 결정될 수 있다. 제1 예측 블록에 가중치 w1가 적용되고, 제2 예측 블록에 가중치 w2가 적용됨을 가정한다. 이때, 좌측/상단 주변 블록 모두 인트라 모드로 부호화된 블록인 경우, w1는 w2보다 작은 자연수일 수 있다. 예를 들어, w1과 w2의 비(raito)는 [1:3]일 수 있다. 좌측/상단 주변 블록 모두 인트라 모드로 부호화된 블록이 아닌 경우, w1는 w2보다 큰 자연수일 수 있다. 예를 들어, w1과 w2의 비(raito)는 [3:1]일 수 있다. 좌측/상단 주변 블록 중 어느 하나만이 인트라 모드로 부호화된 블록인 경우, w1는 w2와 동일하게 설정될 수 있다.
인터 예측부(120)는 참조 픽쳐 보간부, 모션 예측부, 모션 보상부를 포함할 수 있다.
참조 픽쳐 보간부에서는 메모리(155)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.
모션 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 모션 벡터값을 가질 수 있다. 모션 예측부에서는 모션 예측 방법을 다르게 하여 현재 예측 단위를 예측할 수 있다.
인트라 예측부(125)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 단위를 생성할 수 있다. 현재 예측 단위의 주변 블록이 인터 예측을 수행한 블록이어서, 참조 픽셀이 인터 예측을 수행한 픽셀일 경우, 인터 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 인트라 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.
또한, 예측부(120, 125)에서 생성된 예측 단위를 기초로 예측을 수행한 예측 단위와 예측 단위의 원본 블록과 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력될 수 있다.
변환부(130)에서는 원본 블록과 예측부(120, 125)를 통해 생성된 예측 단위의 잔차값(residual)정보를 포함한 잔차 블록을 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT와 같은 변환 방법을 사용하여 변환시킬 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지, DST를 적용할지 또는 KLT를 적용할지는 잔차 블록을 생성하기 위해 사용된 예측 단위의 인트라 예측 모드 정보를 기초로 결정할 수 있다.
양자화부(135)는 변환부(130)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(135)에서 산출된 값은 역양자화부(140)와 재정렬부(160)에 제공될 수 있다.
재정렬부(160)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.
재정렬부(160)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(160)에서는 지그-재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 단위의 크기 및 인트라 예측 모드에 따라 지그-재그 스캔 대신 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측 모드에 따라 지그-재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.
엔트로피 부호화부(165)는 재정렬부(160)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다. 관련하여, 엔트로피 부호화부(165)는 재정렬부(160) 및 예측부(120, 125)로부터 부호화 단위의 잔차값 계수 정보를 부호화 할 수 있다. 또한, 본 발명에 따라 모션 정보를 디코더 측면에서 유도하여 사용함을 지시하는 정보 및 모션 정보 유도에 사용된 기법에 대한 정보를 시그널링(signaling)하여 전송하는 것이 가능하다.
역양자화부(140) 및 역변환부(145)에서는 양자화부(135)에서 양자화된 값들을 역양자화하고 변환부(130)에서 변환된 값들을 역변환한다. 역양자화부(140) 및 역변환부(145)에서 생성된 잔차값(Residual)은 예측부(120, 125)에 포함된 모션 추정부, 모션 보상부 및 인트라 예측부를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.
필터부(150)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다. 디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있으며, 이에 대해서는 도 3 내지 도 8을 참조하여 살펴보기로 한다. 오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다. ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다.
메모리(155)는 필터부(150)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행 시 예측부(120, 125)에 제공될 수 있다.
도 2는 본 발명에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 2를 참조하면, 영상 복호화기(200)는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230, 235), 필터부(240), 메모리(245)가 포함될 수 있다.
영상 부호화기에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 영상 부호화기와 반대의 절차로 복호화될 수 있다.
엔트로피 복호화부(210)는 영상 부호화기의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다.
엔트로피 복호화부(210)에서는 부호화기에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다.
재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다.
역양자화부(220)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다.
역변환부(225)는 영상 부호화기에서 수행한 양자화 결과에 대해 변환부에서 수행한 변환 즉, DCT, DST, 및 KLT에 대해 역변환 즉, 역 DCT, 역 DST 및 역 KLT를 수행할 수 있다. 역변환은 영상 부호화기에서 결정된 전송 단위를 기초로 수행될 수 있다. 영상 복호화기의 역변환부(225)에서는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 변환 기법(예를 들어, DCT, DST, KLT)이 선택적으로 수행될 수 있다.
예측부(230, 235)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(245)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다.
전술한 바와 같이 영상 부호화기에서의 동작과 동일하게 인트라 예측 또는 화면 내 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 동일할 경우, 예측 단위의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 단위에 대한 인트라 예측을 수행하지만, 인트라 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 상이할 경우, 변환 단위를 기초로 한 참조 픽셀을 이용하여 인트라 예측을 수행할 수 있다. 또한, 최소 부호화 단위에 대해서만 NxN 분할을 사용하는 인트라 예측을 사용할 수도 있다.
예측부(230, 235)는 예측 단위 판별부, 인터 예측부 및 인트라 예측부를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(210)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 반면, 만약 부호화기(100)에서 상기 인터 예측을 위한 모션 예측 관련 정보를 전송하지 않고, 대신 모션 정보를 디코더 측면에서 유도하여 사용함을 지시하는 정보 및 모션 정보 유도에 사용된 기법에 대한 정보를 전송하는 경우에는, 상기 예측 단위 판별부는 부호화기(100)로부터 전송된 정보를 기초로 하여, 인터 예측부(23)의 예측 수행을 판별하게 된다.
인터 예측부(230)는 영상 부호화기에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 인터 예측을 수행하기 위해 부호화 단위를 기준으로 해당 부호화 단위에 포함된 예측 단위의 인터 예측 모드를 결정할 수 있다. 인터 예측 모드와 관련하여, 전술한 머지 모드, AMVP 모드, 어파인 모드, 현재 픽쳐 참조 모드, 결합 예측 모드 등이 복호화 장치에서도 동일하게 이용될 수 있으며, 여기서 자세한 설명은 생략하기로 한다. 인터 예측부(230)는, 소정의 우선순위를 가지고, 현재 예측 단위의 인터 예측 모드를 결정할 수 있으며, 이에 대해서는 도 16 내지 도 18을 참조하여 살펴 보기로 한다.
인트라 예측부(235)는 현재 픽쳐 내의 화소 정보를 기초로 예측 블록을 생성할 수 있다. 예측 단위가 인트라 예측을 수행한 예측 단위인 경우, 영상 부호화기에서 제공된 예측 단위의 인트라 예측 모드 정보를 기초로 인트라 예측을 수행할 수 있다. 인트라 예측부(235)에는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 영상 부호화기에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.
참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
복원된 블록 또는 픽쳐는 필터부(240)로 제공될 수 있다. 필터부(240)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.
영상 복호화기의 디블록킹 필터에서는 영상 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고, 영상 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있으며, 이에 대해서는 도 3 내지 도 8을 참조하여 살펴보기로 한다.
오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다. ALF는 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.
메모리(245)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.
본 개시는 비디오 코딩 기술 중 적응적 루프 필터, 리쉐이퍼, 양자화(scaling), 가중 예측 등의 픽쳐 혹은 슬라이스 별로 적용될 수 있는 다양한 파라미터들을 하나의 파라미터 셋에서 시그널링하는 방법 및 장치에 관한 것이다.
또한, 상기 파라미터 셋을 비디오 복호화기에서 리스트 형태로 관리하는 방법 및 장치에 관한 것이다.
소정의 영상 단위로 적용되는 파라미터를 부호화/복호화 장치에 기-정의된 하나의 파라미터 셋을 이용하여 전송할 수 있다. 상기 영상 단위는, 비디오 시퀀스, 픽쳐, 슬라이스, 타일(tile) 또는 브릭(brick) 중 적어도 하나일 수 있다. 예를 들어, 적응적 루프 필터, 리쉐어퍼 등과 같이, 픽쳐 혹은 슬라이스 별로 적용될 수 있는 파라미터들을 미리 정의된 하나의 파라미터 셋을 이용하여 전송할 수 있다. 이때, 하나의 파라미터 셋을 이용하지만, 파라미터 셋의 종류(type)에 대한 추가적인 시그널링 방법을 사용할 수 있다. 상기 하나의 파라미터 셋을 이용하여 서로 다른 종류를 시그널링하기 때문에 파라미터 셋의 종류가 다름에도 파라미터 셋 식별자(ID) 혹은 파라미터 셋을 관리하는 리스트를 공유할 수 있다. 본 개시에서는 동일한 파라미터 셋을 이용하여 다양한 종류(type)의 파라미터들을 전송함에 있어, 파라미터 셋 식별자와 리스트를 공유하거나, 이를 독립적으로 관리할 수 있는 방법 및 장치를 제안한다.
도 3은 적응적 파라미터 셋 (APS: adaptation parameter set)의 신택스 테이블에 대한 일실시예를 도시한다.
적응적 파라미터 셋은 APS type 별 파라미터를 통합적으로 정의/관리하되, 해당 영상 단위의 헤더에서는 해당 영상 단위에서 사용하는 파라미터 셋의 식별자(ID)만을 시그널링하여 파라미터들을 이용/관리하기 위한 파라미터 셋이다. 즉, 적응적 파라미터 셋을 이용함으로써, 전술한 소정의 영상 단위(예를 들어, 하나 혹은 다수의 픽쳐, 하나 혹은 다수의 슬라이스)에 적용되는 다양한 파라미터들에 대하여 별도의 파라미터 셋으로 정의하고, 이를 영상 단위로 시그널링하지 않을 수 있다.
예를 들어, 상기 하나 혹은 다수의 픽쳐 혹은 하나 혹은 다수의 슬라이스에 적용되는 다양한 파라미터들에는 적응적 루프 필터 (ALF: adaptive loop filter)에 대한 필터 파라미터, 리쉐이퍼 (LMCS: luma mapping with chroma scaling)에 대한 매핑 모델 관련 파라미터 등이 사용될 수 있다.
또한, 가중 예측 (weighted prediction)에 대한 가중치 관련 파라미터, 블록 스트럭쳐 (block structure)에 대한 파라미터들도 포함될 수 있다. 또는, 픽쳐(또는 슬라이스, 타일 등) 분할 관련 파라미터, 참조 픽쳐 셋 또는 참조 구조 관련 파라미터, 양자화 관련 파라미터, 변환 관련 파라미터, 기타 인-루프 필터 관련 파라미터 등도 포함될 수 있다. 양자화 관련 파라미터 및 이에 대한 APS type, 가중 예측 (weighted prediction)에 대한 가중치 관련 파라미터 및 이에 대한 APS type, 블록 스트럭쳐 (block structure)에 대한 파라미터 및 이에 대한 APS type 등은 본 개시에서 상세하게 후술하도록 한다.
도 3에서 도시한 바와 같이, 적응적 파라미터 셋 신택스 테이블에 대한 일실시예에 따르면, 적응적 파라미터 셋에 대한 식별자인 adaptation_parameter_set_id (301)이 시그널링 될 수 있다.
상기 적응적 파라미터 셋 식별자(301)의 시그날링은, 하나의 비디오 스트림을 통해 전송되는 하나 또는 그 이상의 적응적 파라미터 셋 각각에 고유의 특정한 값(숫자)을 부여하는 것을 의미할 수 있다. 상기 적응적 파라미터 셋 식별자(301)는, 부호화/복호화 장치에 기-정의된 복수의 적응적 파라미터 셋 중 어느 하나를 특정하기 위한 정보를 의미할 수 있다.
이때, 적응적 파라미터 셋 식별자는 0부터 2N-1까지의 값으로 표현될 수 있으며, N비트로 고정된 길이의 비트들을 이용하여 전송될 수 있다. 이때, 본 개시일실시예에 따르면 N은 2, 3, 4, 5, 6 중 하나일 수 있다. 도 3에서 도시한 신택스 테이블에서 N은 3인 일실시예를 도시하였다.
상기 적응적 파라미터 셋 식별자(301)는 후술하는 적응적 파라미터 셋 타입(302)과 의존성 없이 서로 다른 적응적 파라미터 셋 타입임에도 불구하고 하나의 숫자 열을 사용할 수 있다.
또는, 서로 다른 적응적 파라미터 셋 타입인 경우에 적응적 파라미터 셋 타입 별로 별도의 숫자 열을 사용할 수 있다. 즉, 적응적 파라미터 셋 타입(302)에 의존성을 가지고 적응적 파라미터 셋 식별자(301)를 정의할 수도 있다.
일실시예로 상기 적응적 파라미터 셋 타입(302)에 의존적인 적응적 파라미터 셋 식별자(301)를 사용하는 경우, ALF 적응적 파라미터 셋 타입을 위한 적응적 파라미터 셋 식별자(301)는 0부터 7 중 어느 하나의 값을 가질 수 있다. LMCS 적응적 파라미터 셋 타입을 위한 적응적 파라미터 셋 식별자(301)는 0부터 3 중 어느 하나의 값을 가질 수 있다. 양자화 적응적 파라미터 셋 타입을 위한 적응적 파라미터 셋 식별자(301)는 0부터 7 중 어느 하나의 값을 가질 수 있다. 이때, 서로 다른 적응적 파라미터 셋 타입(302)을 가지는 파라미터 셋은 같은 값을 사용할 수 있다. 일실시예로 ALF에 대한 적응적 파라미터 셋 식별자(ALF_APS_ID)와 LMCS에 대한 적응적 파라미터 셋 식별자(LMCS_APS_ID)는 같은 값을 사용할 수 있다. 마찬가지로, ALF에 대한 적응적 파라미터 셋 식별자(ALF_APS_ID)와 양자화에 대한 적응적 파라미터 셋 식별자(SCALING_APS_ID)는 같은 값을 사용할 수 있다.
도 3에서 도시한 바와 같이, APS 신택스 테이블에 대한 일실시예에 따르면, 해당 APS가 포함하고 있는 파라미터의 종류를 명시하는 APS type에 대한 정보인 aps_ params_type(302)이 시그널링 될 수 있다.
상기 APS type으로는 ALF에 대한 파라미터를 의미하는 ALF APS type, LMCS에 대한 파라미터를 의미하는 LMCS APS type 등이 정의될 수 있다. 전술한 바와 같이, 양자화 관련 파라미터를 의미하는 SCALING APS type이 추가적으로 정의될 수도 있다.
본 발명의 일실시예에 따르면, APS type에 따라, 해당 APS에 포함된 파라미터는 상이할 수 있으며, APS type에 따라 해당 APS type에 대한 추가적인 파라미터 관련 신택스 파싱 과정을 수행할 수 있다.
도 3에서 도시한 바에 따르면, 현재 APS type이 ALF_APS인 경우에는 alf_data()(303)을 호출하여 ALF 관련 파라미터의 파싱을 수행할 수 있고, 현재 APS type이 LMCS_APS인 경우에는 lmcs_data()(304)을 호출하여 LMCS 관련 파라미터의 파싱을 수행할 수 있다. 현재 APS type이 SCALING_APS인 경우에는 scaling_list_data( )를 호출하여 양자화 관련 파라미터의 파싱을 수행할 수 있다.
구체적으로, 현재 APS type이 ALF_APS인 경우, alf_data() 함수를 호출하여 ALF 관련 파라미터를 추출할 수 있다. 상기 파라미터의 추출은, 전술한 식별자(301)에 기초하여 수행될 수 있다. 이를 위해, alf_data() 함수에서는, 식별자(310) 별로 ALF 관련 파라미터가 정의되고, 해당 식별자(310)에 대응하는 ALF 관련 파라미터가 추출될 수 있다. 또는, 상기 파라미터의 추출은, 전술한 식별자(301)와의 의존성없이 수행될 수도 있다. 마찬가지로, 현재 APS type이 LMCS_APS인 경우, lmcs_data() 함수를 호출하여 LMCS 관련 파라미터를 추출할 수 있다. lmcs_data() 함수는, 식별자(310) 별로 LMCS 관련 파라미터가 정의될 수 있다. 이 경우, 상기 식별자(301)에 대응하는 LMCS 관련 파라미터가 추출될 수 있다. 또는, 상기 파라미터의 추출은, 전술한 식별자(301)에 의존성없이 수행될 수도 있다. 현재 APS type이 SCALING_APS인 경우, scaling_list_data() 함수를 호출하여 양자화 관련 파라미터를 추출할 수 있다. scaling_list_data() 함수는, 식별자(310) 별로 양자화 관련 파라미터가 정의될 수 있다. 이 경우, 상기 식별자(301)에 대응하는 양자화 관련 파라미터가 추출될 수 있다. 또는, 상기 파라미터의 추출은, 전술한 식별자(301)에 의존성없이 수행될 수도 있다.
또한, ALF 관련 파라미터, LMCS 관련 파라미터 또는 양자화 관련 파라미터 중 적어도 하나는 식별자(301)에 의존성을 가지고 추출되고, 나머지는 식별자(301)에 의존성없이 추출되도록 구현될 수 있다. 다만, 이에 한정되지 아니하며, ALF, LMCS 및 양자화 관련 파라미터 모두 식별자(301)에 의존성을 가지고 추출될 수도 있고, 모두 식별자(301)에 의존성없이 추출될 수도 있다.
식별자(301)에 의존성 여부는, APS type에 따라 선택적으로 결정될 수 있다. 상기 선택은 부호화/복호화 장치에 기-약속된 것일 수도 있고, 식별자(301)의 값 또는 활성화 여부 등에 기초하여 결정될 수 있다. 이는, 이하 후술하는 다양한 APS type에 대해서도 동일/유사하게 적용될 수 있다.
이에 추가적으로, 가중치 예측 (weighted prediction), 블록 스트럭쳐 (block structure) 등에 대한 APS type이 정의될 수 있다. 가중치 예측 및 블록 스트럭쳐 등에 대한 APS type이 정의된 APS 신택스 테이블에 대한 일실시예는 상세하게 후술하도록 한다.
도 4는 양자화 관련 파라미터의 전송 및 파싱을 위한 신택스 테이블의 일실시예를 도시한다.
도 4를 참조하면, 복사 모드 플래그(scaling_list_copy_mode_flag)가 시그날링될 수 있다. 복사 모드 플래그는 스케일링 리스트가 복사 모드에 기반하여 획득되는지 여부를 나타낼 수 있다. 일예로, 복사 모드 플래그가 제1 값인 경우, 복사 모드가 이용되고, 그렇지 않은 경우, 복사 모드가 이용되지 않을 수 있다. 복사 모드 플래그는 식별자(id)에 기초하여 파싱될 수 있다. 여기서, 식별자(id)는 현재 블록의 부호화 파라미터에 기초하여 유도되는 정보이며, 이에 대해서는 도 5를 참조하여 상세하게 후술하도록 한다.
도 4를 참조하면, 예측 모드 플래그(scaling_list_pred_mode_flag)가 시그날링될 수 있다. 예측 모드 플래그는 스케일링 리스트가 예측 모드에 기반하여 획득되는지 여부를 나타낼 수 있다. 일예로, 예측 모드 플래그가 제1 값인 경우, 예측 모드가 이용되고, 그렇지 않은 경우, 예측 모드가 이용되지 않을 수 있다. 예측 모드 플래그는 복사 모드 플래그에 기초하여 파싱될 수 있다. 즉, 복사 모드 플래그에 따라 복사 모드가 이용되지 않는 경우에 한하여 파싱될 수 있다.
도 4를 참조하면, 델타 식별자(scaling_list_pred_id_delta)가 시그날링될 수 있다. 델타 식별자는, 스케일링 리스트를 획득하기 위해 이용되는 참조 스케일링 리스트를 특정하기 위한 정보일 수 있다. 델타 식별자는 전술한 복사 모드 플래그에 따라 복사 모드가 이용되거나, 또는 예측 모드 플래그에 따라 예측 모드가 이용되는 경우에 한하여 시그날링될 수 있다. 추가적으로, 델타 식별자는 전술한 식별자(id)를 더 고려하여 시그날링되며, 예를 들어 도 4에 도시된 바와 같이, 식별자(id)가 복호화 장치에 기-정의된 값(0, 2, 8)에 해당하지 않는 경우에 한하여 시그날링될 수 있다. 다시 말해, 델타 식별자는, 현재 블록의 너비와 높이의 최대값이 4 또는 8이고, 현재 블록의 성분 타입이 휘도 성분이며, 현재 블록의 예측 모드가 인트라 모드인 경우에는 시그날링되지 않을 수 있다.
도 4를 참조하면, 차분 계수 정보(scaling_list_delta_coef)가 시그날링될 수 있다. 차분 계수 정보는, 스케일링 리스트의 현재 계수와 이전 계수의 차분을 특정하기 위해 부호화된 정보를 의미할 수 있다. 차분 계수 정보는, 복사 모드 플래그에 복사 모드가 이용되지 않는 경우에 한하여 시그날링될 수 있다. 즉, 차분 계수 정보는, 후술하는 예측 모드와 전송 모드에서 각각 이용될 수 있다.
도 5는 양자화 관련 파라미터를 기반으로 잔차 블록을 복원하는 방법의 일실시예를 도시한다.
도 5를 참조하면, 비트스트림을 복호화하여 현재 블록의 변환 계수(transform coefficient)를 획득할 수 있다(S500).
여기서, 변환 계수는, 부호화 장치에서 잔차 샘플에 변환 및 양자화를 수행하여 획득된 계수를 의미할 수 있다. 또는, 변환 계수는, 잔차 샘플에 대한 변환을 스킵하고, 양자화만을 수행하여 획득된 계수를 의미할 수도 있다. 변환 계수는, 계수, 잔차 계수, 변환 계수 레벨 등으로 다양하게 표현될 수 있다.
도 5를 참조하면, 상기 획득된 변환 계수에 역양자화를 수행하여 역양자화된 변환 계수를 획득할 수 있다(S510).
구체적으로, 역양자화된 변환 계수는, 변환 계수에 소정의 스케일링 팩터(이하, 최종 스케일링 팩터라 함)를 적용하여 유도될 수 있다. 여기서, 최종 스케일링 팩터는, 초기 스케일링 팩터에 소정의 가중치를 적용하여 유도될 수 있다.
초기 스케일링 팩터는, 현재 블록의 식별자(이하, 제1 식별자라 함)에 대응하는 스케일링 리스트에 기초하여 결정될 수 있다. 복호화 장치는, 현재 블록의 부호화 파라미터에 기초하여 제1 식별자를 유도할 수 있다. 부호화 파라미터는, 예측 모드, 성분 타입, 크기, 형태, 변환 타입 또는 변환 스킵 여부 중 적어도 하나를 포함할 수 있다. 현재 블록의 크기는, 너비, 높이, 너비와 높이의 합, 너비와 높이의 곱 또는 너비와 높이의 최대값/최소값으로 표현될 수 있다. 예를 들어, 제1 식별자는 표 1과 같이 유도될 수 있다.
max( nTbW, nTbH ) 2 4 8 16 32 64
predMode = MODE_INTRA cIdx = 0 (Y) - 2 8 14 20 26
cIdx = 1 (Cb) - 3 9 15 21 21
cIdx = 2 (Cr) - 4 10 16 22 22
predMode = MODE_INTER cIdx = 0 (Y) - 5 11 17 23 27
cIdx = 1 (Cb) 0 6 12 18 24 24
cIdx = 2 (Cr) 1 7 13 19 25 25
표 1을 참조하면, 제1 식별자는 0 내지 27 중 어느 하나의 값을 가질 수 있다. 제1 식별자는, 현재 블록의 너비(nTbW)와 높이(nTbH) 중 최대값, 예측 모드(predMode) 및 성분 타입(cIdx)에 따라 적응적으로 유도될 수 있다.
본 개시에 따른 스케일링 리스트는 M x N 매트릭스의 형태를 가지며, M과 N은 동일하거나 상이할 수 있다. 매트릭스의 각 성분은 계수 또는 매트릭스 계수로 명명될 수 있다. 매트릭스의 크기는 현재 블록의 제1 식별자에 기초하여 가변적으로 결정될 수 있다. 구체적으로, 제1 식별자가 제1 문턱크기보다 작은 경우, M과 N 중 적어도 하나는 2로 결정되고, 제1 식별자가 제1 문턱크기보다 크거나 같고, 제2 문턱크기보다 작은 경우, M과 N 중 적어도 하나는 4로 결정될 수 있다. 제1 식별자가 제2 문턱크기보다 큰 경우, M과 N 중 적어도 하나는 8로 결정될 수 있다. 여기서, 제1 문턱크기는 2, 3, 4, 5 또는 그 이상의 정수이고, 제2 문턱크기는 8, 9, 10, 11 또는 그 이상의 정수일 수 있다.
현재 블록의 역양자화를 위한 스케일링 리스트는, 양자화 관련 파라미터에 기초하여 유도될 수 있다. 도 4에서 살펴본 바와 같이, 양자화 관련 파라미터는, 복사 모드 플래그, 예측 모드 플래그, 델타 식별자 또는 차분 계수 정보 중 적어도 하나를 포함할 수 있다.
양자화 관련 파라미터는 적응적 파라미터 셋(APS)에서 시그날링될 수 있다. 적응적 파라미터 셋은 픽쳐 및/또는 슬라이스에 적용되는 파라미터를 포함한 신택스 구조를 의미할 수 있다.
일예로, 비트스트림을 통해 하나의 적응적 파라미터 셋이 시그날링될 수도 있고, 복수의 적응적 파라미터 셋이 시그날링될 수도 있다. 여기서, 복수의 적응적 파라미터 셋은 적응적 파라미터 셋 식별자(301)에 의해 구분될 수 있다. 각 적응적 파라미터 셋은 서로 상이한 적응적 파라미터 셋 식별자(301)를 가질 수 있다.
현재 블록의 스케일링 리스트를 위한 양자화 관련 파라미터는, 복수의 적응적 파라미터 셋 중에서 소정의 식별자(이하 제2 식별자라 함)에 의해 특정된 적응적 파라미터 셋에서 시그날링된 것일 수 있다. 제2 식별자는 복수의 적응적 파라미터 셋 중 어느 하나를 특정하기 위해 부호화된 정보로서, 소정의 영상 단위(픽쳐, 슬라이스, 타일 또는 블록)에서 시그날링될 수 있다. 해당 영상 단위의 헤더에서 제2 식별자가 시그날링되고, 해당 영상 단위는 제2 식별자에 대응하는 적응적 파라미터 셋으로부터 추출된 양자화 관련 파라미터를 이용하여 스케일링 리스트를 획득할 수 있다. 이하, 양자화 관련 파라미터를 기반으로 스케일링 리스트를 획득하는 방법에 대해서 살펴 보기로 한다.
1. 복사 모드인 경우
복사 모드의 경우, 현재 블록의 스케일링 리스트는 참조 식별자에 대응하는 스케일링 리스트(즉, 참조 스케일링 리스트)와 동일하게 설정될 수 있다. 여기서, 참조 식별자는 현재 블록의 제1 식별자와 소정의 델타 식별자에 기초하여 유도될 수 있다. 델타 식별자는 참조 스케일링 리스트를 식별하기 위해 부호화 장치에서 부호화되어 시그날링되는 정보일 수 있다. 일예로, 참조 식별자는 현재 블록의 제1 식별자와 델타 식별자 간의 차분값으로 설정될 수 있다.
다만, 상기 유도된 참조 식별자가 제1 식별자와 동일한 경우(즉, 델타 식별자의 값이 0인 경우), 현재 블록의 스케일링 리스트는 디폴트 스케일링 리스트와 동일하게 설정될 수 있다. 디폴트 스케일링 리스트는, 복호화 장치에 기-정의된 것으로서, 디폴트 스케일링 리스트의 각 계수는 소정의 상수값(e.g., 2, 4, 8, 16)을 가질 수 있다.
복사 모드는 복사 모드의 이용 여부를 나타내는 복사 모드 플래그에 기초하여 이용될 수 있다. 예를 들어, 복사 모드 플래그가 제1 값인 경우, 복사 모드가 이용되고, 그렇지 않은 경우, 복사 모드가 이용되지 않을 수 있다.
2. 예측 모드의 경우
예측 모드의 경우, 현재 블록의 스케일링 리스트는, 예측 스케일링 리스트와 차분 스케일링 리스트에 기초하여 결정될 수 있다. 여기서, 예측 스케일링 리스트는 전술한 참조 스케일링 리스트에 기초하여 유도될 수 있다. 즉, 현재 블록의 제1 식별자와 델타 식별자에 의해 특정되는 참조 스케일링 리스트가 예측 스케일링 리스트로 설정될 수 있다. 다만, 전술한 바와 같이, 상기 유도된 참조 식별자가 제1 식별자와 동일한 경우(즉, 델타 식별자의 값이 0인 경우), 예측 스케일링 리스트는 디폴트 스케일링 리스트에 기초하여 결정될 수 있다.
차분 스케일링 리스트는, 마찬가지로 M x N 매트릭스의 형태를 가지며, 매트릭스의 각 계수는 비트스트림으로부터 시그날링되는 차분 계수 정보에 기초하여 유도될 수 있다. 예를 들어, 이전 계수와 현재 계수의 차분인 차분 계수 정보가 시그날링되고, 현재 계수는 이전 계수와 시그날링된 차분 계수 정보를 이용하여 획득될 수 있다. 전술한 과정을 통해, 차분 스케일링 리스트의 적어도 하나의 계수를 복원할 수 있다. 상기 예측 스케일링 리스트와 차분 스케일링 리스트를 가산하여 현재 블록의 스케일링 리스트를 결정할 수 있다.
다만, 예측 모드는 예측 모드의 이용 여부를 나타내는 예측 모드 플래그에 기초하여 이용될 수 있다. 예를 들어, 예측 모드 플래그가 제1 값인 경우, 예측 모드가 이용되고, 그렇지 않은 경우, 예측 모드가 이용되지 않을 수 있다.
3. 전송 모드의 경우
현재 블록의 스케일링 리스트의 적어도 하나의 계수는 부호화 장치에서 시그날링되는 차분 계수 정보에 기초하여 유도될 수 있다. 여기서, 시그날링되는 차분 계수 정보는, 이전 계수와 현재 계수의 차분인 차분 계수를 결정하기 위해 이용될 수 있다. 즉, 스케일링 리스트의 현재 계수는, 이전 계수와 시그날링된 차분 계수 정보를 이용하여 유도될 수 있고, 이러한 과정을 통해 현재 블록의 스케일링 리스트가 획득될 수 있다.
추가적으로, 상기 획득된 스케일링 리스트에 속한 적어도 하나의 계수에 소정의 오프셋이 적용될 수도 있다. 여기서, 오프셋은 복호화 장치에 기-약속된 고정된 상수값(e.g., 2, 4, 8, 16)일 수 있다. 예를 들어, 기-획득된 스케일링 리스트의 적어도 하나의 계수에 오프셋을 가산함으로써, 역양자화를 위한 최종 스케일링 리스트를 획득할 수 있다.
다만, 전송 모드는, 복사 모드 플래그와 예측 모드 플래그에 따라, 전술한 복사 모드와 예측 모드가 이용되지 않는 경우에 한하여 이용될 수 있다.
한편, 전술한 가중치는 복호화 장치에 기-정의된 가중치 후보 리스트로부터 획득될 수 있다. 가중치 후보 리스트는 하나 또는 그 이상의 가중치 후보를 포함할 수 있다. 가중치 후보 리스트에 속한 가중치 후보 중 어느 하나가 상기 가중치로 설정될 수 있다.
일예로, 가중치 후보 리스트는 6개의 가중치 후보로 구성될 수 있다. 가중치 후보 리스트는 { 40, 45, 51, 57, 64, 72 } 또는 { 57, 64, 72, 80, 90, 102 }와 같이 정의될 수 있다. 다만, 이에 한정되지 아니하며, 가중치 후보의 개수는 2개, 3개, 4개, 5개, 7개 또는 그 이상일 수 있다. 또는, 가중치 후보 리스트는 40보다 작은 값의 가중치 후보를 포함하거나, 102보다 큰 값의 가중치 후보를 포함할 수도 있다.
기-정의된 가중치 후보 리스트의 개수는 1개일 수도 있고, 2개 이상일 수도 있다. 복수의 가중치 후보 리스트가 정의된 경우, 어느 하나의 가중치 후보 리스트가 선택적으로 이용될 수 있다. 이때, 선택은 현재 블록의 부호화 파라미터를 고려하여 수행될 수 있다. 부호화 파라미터는 전술한 바와 같으며, 중복된 설명은 생략하기로 한다.
일예로, 기-정의된 가중치 후보 리스트는 {40, 45, 51, 57, 64, 72}(이하, 제1 리스트라 함)와 {57, 64, 72, 80, 90, 102}(이하, 제2 리스트라 함)라고 가정한다. 현재 블록이 변환 스킵으로 부호화된 블록인 경우, 제1 리스트가 이용되고, 그렇지 않은 경우, 제2 리스트가 이용될 수 있다. 또는, 현재 블록의 형태가 정방형인 경우, 제1 리스트가 이용되고, 그렇지 않은 경우, 제2 리스트가 이용될 수 있다. 또는, 현재 블록이 변환 스킵으로 부호화된 블록인 경우, 제1 리스트가 이용되고, 그렇지 않은 경우, 전술한 바와 같이 현재 블록의 형태에 따라 제1 리스트 또는 제2 리스트가 선택적으로 이용될 수 있다.
도 5를 참조하면, 역양자화된 변환 계수를 기반으로 현재 블록의 잔차 블록을 복원할 수 있다(S520).
변환 스킵이 적용되지 않는 경우, 역양자화된 변환 계수에 역변환을 수행하여 잔차 블록을 복원할 수 있다. 반면, 변환 스킵이 적용되는 경우, 역양자화된 변환 계수를 잔차 샘플로 설정하여 잔차 블록을 복원할 수 있다.
전술한 잔차 블록의 복원 과정은 부호화 장치에서도 동일/유사하게 수행될 수 있으며, 중복된 설명은 생략하기로 한다.
도 6은 가중치 예측에 대한 APS type이 추가된 APS 신택스 테이블에 대한 일실시예를 도시한 도면이다.
본 발명의 일실시예에 따르면, 가중치 예측에 대한 파라미터들은 APS를 사용하여 시그널링 및 파싱될 수 있다. 또한, 가중치 예측에 대한 파라미터를 전송하기 위한 APS type이 정의될 수 있고, 이는 0부터 2N-1 중 하나의 숫자로 맵핑될 수 있다. 여기서 N은 2, 3, 4, 5 중의 하나일 수 있으며, 도 6에서 도시한 일실시예에서는 N이 3인 경우를 예를 들어 도시하였다.
해당 APS의 type이 가중치 예측에 대한 파라미터 타입인 경우에는 가중치 예측을 위한 파라미터를 시그널링 혹은 파싱하는 단계(600)가 추가될 수 있다.
현재 APS type이 WP_APS인 경우, pred_weight_table() 함수를 호출하여 가중치 예측 관련 파라미터를 추출할 수 있다. pred_weight_table() 함수는, 단방향 가중치 예측에 관한 파라미터만을 정의할 수도 있고, 양방향 가중치 예측에 관한 파라미터만을 정의할 수도 있다. 또는, pred_weight_table() 함수는, 단방향 및 양방향 가중치 예측에 관한 파라미터를 각각 정의할 수도 있다. pred_weight_table() 함수는, 묵시적 가중치 예측에 관한 파라미터 또는 명시적 가중치 예측에 관한 파라미터 중 적어도 하나를 정의할 수도 있다.
한편, 상기 파라미터의 추출은, 전술한 식별자(301)에 기초하여 수행될 수 있다. 이를 위해, pred_weight_table() 함수에서는, 식별자 별로 가중치 예측 관련 파라미터가 정의되고, 해당 식별자(301)에 대응하는 가중치 예측 관련 파라미터가 추출될 수 있다. 또는, 상기 파라미터의 추출은, 전술한 식별자(301)와의 의존성없이 수행될 수도 있다.
도 7은 가중치 예측에 대한 APS type이 추가된 APS 신택스 테이블에 대한 또 다른 일실시예를 도시한 도면이다.
본 발명의 일실시예에 따르면, 가중치 예측에 대한 파라미터들은 APS를 사용하여 시그널링 및 파싱될 수 있다. 또한, 가중치 예측의 방향성에 따라, 단방향 가중치 예측에 대한 파라미터를 전송하기 위한 APS type이 정의될 수 있고, 양방향 가중치 예측에 대한 파라미터를 전송하기 위한 APS type이 별도로 정의될 수 있다. 이와 더불어 상기 단방향 가중치 예측에 대한 APS type과 양방향 가중치 예측에 대한 APS type은 각각 0부터 2N-1 중 하나의 숫자로 맵핑 될 수 있다. 여기서 N은 2, 3, 4, 5 중의 하나일 수 있으며, 도 7에서 도시한 일실시예에서는 N이 3인 경우를 예를 들어 도시하였다.
해당 APS의 type이 가중치 예측에 대한 파라미터 타입 중 하나인 경우에는 가중치 예측을 위한 파라미터를 시그널링 혹은 파싱하는 단계(700 혹은 701)가 추가될 수 있다.
단방향 가중치 예측에 관한 pred_weight_table() 함수와 양방향 가중치 예측에 관한 bipred_weight_table() 함수가 각각 정의될 수 있다. 현재 APS type이 WP_APS인 경우, pred_weight_table() 함수를 호출하여 단방향 가중치 예측 관련 파라미터를 추출하고, 현재 APS type이 WBP_APS인 경우, bipred_weight_table() 함수를 호출하여 양방향 가중치 예측 관련 파라미터를 추출할 수 있다. 상기 파라미터의 추출은, 전술한 식별자(301)에 기초하여 수행될 수 있다. 이를 위해, pred_weight_table()과 bipred_weight_table()은, 식별자 별로 가중치 예측 관련 파라미터를 정의할 수 있고, 해당 식별자(301)에 대응하는 가중치 예측 관련 파라미터가 추출될 수 있다. 또는, 상기 파라미터의 추출은, 전술한 식별자(301)와의 의존성없이 수행될 수도 있다.
도 8은 가중치 예측에 대한 APS type이 추가된 APS 신택스 테이블에 대한 또 다른 일실시예를 도시한 도면이다.
도 7과 도 8에서 도시한 바와 같이, 본 발명의 일실시예에 따르면, 가중치 예측에 대한 파라미터들은 APS를 사용하여 시그널링 및 파싱될 수 있다. 또한, 가중치 예측의 방향성에 따라, 단방향 가중치 예측에 대한 파라미터를 전송하기 위한 APS type이 정의 될 수 있고, 양방향 가중치 예측에 대한 파라미터를 전송하기 위한 APS type이 별도로 정의될 수 있다. 이와 더불어 상기 단방향 가중치 예측에 대한 APS type과 양방향 가중치 예측에 대한 APS type은 각각 0부터 2N-1 중 하나의 숫자로 맵핑 될 수 있다. 여기서 N은 2, 3, 4, 5 중의 하나일 수 있으며, 도 7과 도 8에서 도시한 일실시예에서는 N이 3인 경우를 예를 들어 도시하였다.
해당 APS의 type이 가중치 예측에 대한 파라미터 타입 중 하나인 경우에는 가중치 예측을 위한 파라미터를 시그널링 혹은 파싱하는 단계(800 혹은 801)가 추가될 수 있다.
이에 추가적으로 도 8에서는 단방향 혹은 양방향 예측에 대한 APS type을 가중치 예측을 위한 파라미터 시그널링 혹은 파싱하는 단계에 입력으로 사용하여 이에 따른 시그널링 혹은 파싱하는 단계를 수행할 수 있다. pred_weight_table() 함수는, 단방향 가중치 예측에 대한 파라미터와 양방향 가중치 예측에 대한 파라미터를 각각 정의할 수 있다. 전술한 APS type(302)에 대응하는 가중치 예측에 대한 파라미터를 추출할 수 있다. 또는, 단방향 가중치 예측에 대한 파라미터로부터 양방향 가중치 예측에 대한 파라미터가 유도될 수도 있다.
또한, 상기 파라미터의 추출은, 전술한 식별자(301)를 더 고려하여 수행될 수 있다. 이를 위해, pred_weight_table()은, 식별자 별로 가중치 예측 관련 파라미터를 정의할 수 있고, 해당 식별자(301)에 대응하는 가중치 예측 관련 파라미터가 추출될 수 있다. 또는, 상기 파라미터의 추출은, 전술한 식별자(301)와의 의존성없이 수행될 수도 있다.
도 9는 가중치 예측에 대한 파라미터 전송 및 파싱을 위한 신택스 테이블의 일실시예를 도시한 도면이다.
도 8에서 도시한 가중치 예측에 대한 파라미터를 시그널링 혹은 파싱하는 추가적인 단계(800, 801)에 대한 일실시예를 도시한 도면으로 가중치 예측에 대한 파라미터를 시그널링 혹은 파싱하는 단계에서 APS type에 대응하는 aps_param_type이 입력으로 사용될 수 있다.
또한, 상기 aps_param_type에 따라 aps_param_type이 양방향 예측을 의미하는 경우(901) 양방향 예측을 위한 추가적인 가중치 예측 파라미터 시그널링 혹은 파싱하는 단계(920)이 추가될 수 있다.
또한, APS를 이용한 가중치 예측을 수행하는 경우, 참조 픽쳐의 갯수 (NumRefIdxActive) 등의 값들은 미리 정의된 고정 값을 사용할 수 있으며, 혹은 미리 전송된 참조 픽쳐 구조에 대한 파라미터 등을 참조하여 사용할 수 있다.
도 10은 블록 분할 구조에 대한 APS type이 추가된 APS 신택스 테이블에 대한 일실시예를 도시한 도면이다.
도 3, 도 6에서 도시한 APS 신택스 테이블에 추가적으로 새로운 APS type에 대한 일실시예를 도시하기 위한 도면으로, 도 10에서는 전술한 영상 단위에 적용될 수 있는 블록 분할 구조에 대한 파라미터를 APS를 이용하여 시그널링 혹은 파싱할 수 있으며, 상기 블록 분할 구조에 대한 독립적인 파라미터 타입을 정의하여 시그널링할 수 있다.
앞서 도 3, 도 6 등에 대한 발명의 상세를 기술함에 있어 언급한 바와 같이, APS가 포함하고 있는 파라미터의 종류를 명시하는 APS type에 대한 정보인 aps_ params_type(302)이 시그널링 될 수 있다.
상기 APS type으로는 ALF에 대한 파라미터를 의미하는 ALF APS type, LMCS에 대한 파라미터를 의미하는 LMCS APS type 등이 정의될 수 있다
이에 추가적으로 본 발명의 일실시예에 따르면, 블록 분할 구조에 대한 파라미터들을 전송하는 APS type을 정의할 수 있고, 이에 대한 파라미터 전송 및 파싱을 수행할 수 있다.
또한, 본 발명의 일실시예에 따르면, APS type에 따라, 해당 APS에 포함된 파라미터는 상이할 수 있으며, APS type에 따라 해당 APS type에 대한 추가적인 파라미터 관련 신택스 파싱 과정을 수행할 수 있다.
도 10에서 도시한 바에 따르면, 현재 APS type이 블록 분할 구조에 대한 파라미터를 전송하는 APS type인 경우에는 블록 분할 구조에 대한 파라미터를 시그널링 혹은 파싱하는 단계(1001)를 추가로 수행할 수 있다.
또한, 본 발명의 일실시예에 따르면, 가중치 예측에 대한 파라미터들은 APS를 사용하여 시그널링 및 파싱될 수 있다. 또한, 가중치 예측에 대한 파라미터를 전송하기 위한 APS type이 정의될 수 있고, 이는 0부터 2N-1 중 하나의 숫자로 맵핑될 수 있다. 여기서 N은 2, 3, 4, 5 중의 하나일 수 있으며, 도 10에서 도시한 일실시예에서는 N이 3인 경우를 예를 들어 도시하였다.
도 11과 도 12에서는 현재 APS type이 블록 분할 구조에 대한 파라미터인 경우에 대하여 추가적으로 시그널링 혹은 파싱되는 블록 구조에 대한 파라미터들을 위한 신택스 테이블에 대한 실시 예들을 도시한다.
도 11에서는 영상 단위에 적용될 수 있는 블록 분할 구조에 대한 파라미터를 luma tree에 대한 파라미터들(1110)과 chroma tree에 대한 파라미터들(1120)을 하나의 파라미터 셋에서 특정한 조건을 만족하는 경우 함께 시그널링하는 신택스 테이블 예시를 나타내고 있다.
반면, 도 12에서는 영상 단위에 적용될 수 있는 블록 분할 구조에 대한 파라미터를 luma 혹은 chroma tree에 관계 없이, slice_log2_diff_min_qt_min_cb, slice_max_mtt_hierarchy_depth, slice_max_mtt_hierachy_depth가 0이 아닌 경우에 대하여 slice_log2_diff_max_bt_min_qt, slice_log2_diff_max_tt_min_qt의 신택스 등을 이용하여 하나의 블록 분할 구조에 대한 정보를 시그널링하는 일실시예를 도시한다.
도 12를 이용하여 APS를 이용하여 블록 분할 구조를 전송하는 경우에는 slice header 등에서 블록 분할 구조를 시그널링 혹은 파싱함에 있어, 현재 슬라이스의 타입 또는 chroma separate tree (CST) 기술을 사용하는지 여부 중 적어도 하나에 따라 블록 분할 구조에 대한 파라미터를 위한 APS ID를 하나 혹은 다수개 시그널링 혹은 파싱할 수 있다. 상기 일실시예는 도 13에서 도시하였다.
도 13은 슬라이스 헤더에서 블록 분할 구조에 대한 APS 시그널링 혹은 파싱의 일실시예를 나타내기 위하여 슬라이스 헤더에 대한 신택스 테이블 중 일부를 도시한 도면이다.
도 12에 대한 설명에서 기술한 바와 같이, APS를 이용하여 블록 분할 구조를 전송하는 경우에는 slice header 등에서 블록 분할 구조를 시그널링 혹은 파싱함에 있어, 현재 슬라이스의 타입 또는 chroma separate tree (CST) 기술을 사용하는지 여부 중 적어도 하나에 따라 블록 분할 구조에 대한 파라미터를 위한 APS ID를 하나 혹은 다수개 시그널링 혹은 파싱할 수 있다.
도 13에서 도시한 바와 같이, CST가 적용되지 않는 경우, 즉, luma tree와 chroma tree를 동일하게 사용하는 경우에는 slice_mtt_aps_id (1300)에서 파싱된 APS ID에 대응하는 블록 분할 구조 파라미터를 luma tree와 chroma tree에 동일하게 적용한다.
반면, CST가 적용되는 경우, 즉, luma tree와 chroma tree를 상이하게 사용하는 경우에는 slice_mtt_aps_id (1300)에서 파싱된 APS ID에 대응하는 블록 분할 구조 파라미터는 luma tree에 적용하고, slice_mtt_chroma_aps_id (1310)에서 파싱된 APS ID에 대응하는 블록 분할 구조 파라미터는 chroma tree에 적용한다.
도 13에서는 블록 분할 구조에 대하여 슬라이스 헤더에서 전송하는 실시 예를 나타내었으나, 상기 블록 분할 구조에 대하여 시퀀스 파리미터 셋 (SPS: sequence parameter set), 픽쳐 파라미터 셋 (PPS: picture parameter set) 등에서도 시그널링 혹은 파싱하는 경우에 상기 슬라이스의 예시와 같이 시그널링 혹은 파싱이 수행될 수 있다.
도 14는 APS type에 따라 서로 다른 리스트를 사용하여 APS를 관리하는 개념을 도시한 도면이다.
도 3에 대한 상세한 설명을 통하여 기술한 내용과 같이, 적응적 파라미터 셋 타입(302)에 의존적으로 서로 다른 적응적 파라미터 셋 타입인 경우에 적응적 파라미터 셋 타입 별로 별도의 숫자 열을 사용하여 적응적 파라미터 셋 식별자(301)를 정의할 수 있다.
일실시예로 상기 적응적 파라미터 셋 타입(302)에 의존적인 적응적 파라미터 셋 식별자(301)를 사용하는 경우, ALF 적응적 파라미터 셋 타입을 위한 적응적 파라미터 셋 식별자(301)는 0부터 7 중 어느 하나의 값을 가질 수 있다. LMCS 적응적 파라미터 셋 타입을 위한 적응적 파라미터 셋 식별자(301)는 0부터 3 중 어느 하나의 값을 가질 수 있다. 양자화 적응적 파라미터 셋 타입을 위한 적응적 파라미터 셋 식별자(301)는 0부터 7 중 어느 하나의 값을 가질 수 있다. 이때, 서로 다른 적응적 파라미터 셋 타입(302)을 가지는 파라미터 셋은 같은 값을 사용할 수 있다. 일실시예로 ALF에 대한 적응적 파라미터 셋 식별자(ALF_APS_ID)와 LMCS에 대한 적응적 파라미터 셋 식별자(LMCS_APS_ID)는 같은 값을 사용할 수 있다. 마찬가지로, ALF에 대한 적응적 파라미터 셋 식별자(ALF_APS_ID)와 양자화에 대한 적응적 파라미터 셋 식별자(SCALING_APS_ID)는 같은 값을 사용할 수 있다.
서로 다른 APS type에 대해서 동일한 APS_ID를 할당하되, APS type 별로 서로 다른 리스트를 사용하여 관리할 수도 있다. 동일한 APS_ID를 할당함은, APS type 별로 정의된 식별자(301) 값의 구간이 서로 동일하거나 중복될 수 있음을 의미한다. 즉, 전술한 예와 같이, ALF_APS_ID와 SCALING_APS_ID는 0 내지 7 중 어느 하나의 값을 가지고, LMCS_APS_ID는 0 내지 3 중 어느 하나의 값을 가질 수 있다. 이 경우, 서로 다른 APS type이더라도 동일한 APS_ID가 할당될 수 있다. 도 14에 도시된 바와 같이, APS type 별로 ALF_APS에 대한 리스트, LMCS_APS에 대한 리스트, SCALING_APS에 대한 리스트 등이 각각 정의/이용되고, 각 리스트에는 서로 상이한 식별자(APS_ID)를 가진 하나 또는 그 이상의 적응적 파라미터 셋이 정의될 수 있다. 여기서, 리스트는 분리된 영역 또는 공간(space)을 의미하는 것으로 해석될 수 있다.
APS type에 따라 서로 다른 APS_ID를 할당하고, 상호 다른 리스트를 사용하여 적응적 파라미터 셋을 관리할 수 있다. 각 APS type 별로 상이한 APS_ID를 할당하고, 하나의 리스트를 사용하여 이를 관리할 수도 있다. 서로 다른 APS type에 대해서 동일한 APS_ID를 할당하고, 동일한 APS_ID를 가진 APS type에 대해서 동일한 리스트를 사용하여 이를 관리할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.
본 발명은 비디오 신호를 부호화/복호화하기 위해 이용될 수 있다.

Claims (10)

  1. 비트스트림을 복호화하여 현재 블록의 변환 계수를 획득하는 단계;
    상기 비트스트림에 포함된 양자화 관련 파라미터를 기반으로 상기 획득된 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하는 단계; 및
    상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원하는 단계를 포함하되,
    상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)으로부터 획득되는, 비디오 복호화 방법.
  2. 제1항에 있어서, 상기 역양자화된 변환 계수를 획득하는 단계는,
    상기 양자화 관련 파라미터를 기반으로, 상기 역양자화를 위한 스케일링 리스트를 획득하는 단계;
    상기 스케일링 리스트와 소정의 가중치를 기반으로, 스케일링 팩터를 유도하는 단계; 및
    상기 유도된 스케일링 팩터를 상기 변환 계수에 적용하는 단계를 포함하는, 비디오 복호화 방법.
  3. 제2항에 있어서,
    상기 양자화 관련 파라미터는, 복사 모드 플래그, 예측 모드 플래그, 델타 식별자 또는 차분 계수 정보 중 적어도 하나를 포함하는, 비디오 복호화 방법.
  4. 제2항에 있어서,
    상기 가중치는, 복호화 장치에 기-정의된 가중치 후보 리스트로부터 획득되는, 비디오 복호화 방법.
  5. 제4항에 있어서,
    상기 복호화 장치에 기-정의된 가중치 후보 리스트의 개수는 2개 이상이고,
    상기 현재 블록의 부호화 파라미터에 기초하여, 상기 복수의 가중치 후보 리스트 중 어느 하나가 선택적으로 이용되는, 비디오 복호화 방법.
  6. 제1항에 있어서,
    상기 적응적 파라미터 셋은, 소정의 영상 단위에서 사용되는 파라미터 셋을 포함하는 신택스 구조이고,
    상기 파라미터 셋은, 적응적 루프 필터(ALF) 관련 파라미터, 리쉐이퍼(luma mapping with chroma scaling)에 대한 매핑 모델 관련 파라미터 또는 상기 양자화 관련 파라미터 중 적어도 하나를 포함하는, 비디오 복호화 방법.
  7. 제6항에 있어서,
    상기 적응적 파라미터 셋은, 적응적 파라미터 셋에 대한 식별자 또는 적응적 파라미터 셋 타입 정보 중 적어도 하나를 더 포함하는, 비디오 복호화 방법.
  8. 제7항에 있어서,
    서로 다른 적응적 파라미터 셋 타입에 대해서 동일한 식별자를 할당하되,
    상기 적응적 파라미터 세트는, 상기 적응적 파라미터 셋 타입 별로 서로 다른 리스트를 이용하여 관리되는, 비디오 복호화 방법.
  9. 현재 블록의 변환 계수를 획득하는 단계;
    소정의 양자화 관련 파라미터를 기반으로 상기 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하는 단계; 및
    상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원하는 단계를 포함하되,
    상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)에 포함되어 전송되는, 비디오 부호화 방법.
  10. 비디오 복호화 방법에 의해 복호화되는 비트스트림을 저장하는 컴퓨터로 판독가능한 기록 매체에 있어서,
    상기 비디오 복호화 방법은,
    비트스트림을 복호화하여 현재 블록의 변환 계수를 획득하는 단계;
    상기 비트스트림에 포함된 양자화 관련 파라미터를 기반으로 상기 획득된 변환 계수에 역양자화를 수행하여, 역양자화된 변환 계수를 획득하는 단계; 및
    상기 역양자화된 변환 계수를 기반으로, 상기 현재 블록의 잔차 블록을 복원하는 단계를 포함하되,
    상기 양자화 관련 파라미터는 상기 비트스트림의 적응적 파라미터 셋(APS)으로부터 획득되는, 컴퓨터로 판독가능한 기록 매체.
PCT/KR2020/006704 2019-05-24 2020-05-22 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치 WO2020242145A1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
BR112021023469A BR112021023469A2 (pt) 2019-05-24 2020-05-22 Método de codificação de vídeo e aparelho usando conjunto de parâmetros adaptativos
MX2021014277A MX2021014277A (es) 2019-05-24 2020-05-22 Metodo y aparato de codificacion de video que utilizan conjunto de parametros adaptativos.
CA3141350A CA3141350A1 (en) 2019-05-24 2020-05-22 Video coding method and apparatus using adaptive parameter set
CN202080038371.2A CN113875240A (zh) 2019-05-24 2020-05-22 使用自适应参数集的视频译码方法和设备
KR1020217042387A KR20220003124A (ko) 2019-05-24 2020-05-22 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치
US17/357,753 US11190769B2 (en) 2019-05-24 2021-06-24 Method and apparatus for coding image using adaptation parameter set
US17/511,399 US11575898B2 (en) 2019-05-24 2021-10-26 Method and apparatus for coding image using adaptation parameter set

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0060975 2019-05-24
KR20190060975 2019-05-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/357,753 Continuation US11190769B2 (en) 2019-05-24 2021-06-24 Method and apparatus for coding image using adaptation parameter set

Publications (1)

Publication Number Publication Date
WO2020242145A1 true WO2020242145A1 (ko) 2020-12-03

Family

ID=73552070

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/006704 WO2020242145A1 (ko) 2019-05-24 2020-05-22 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치

Country Status (7)

Country Link
US (2) US11190769B2 (ko)
KR (1) KR20220003124A (ko)
CN (1) CN113875240A (ko)
BR (1) BR112021023469A2 (ko)
CA (1) CA3141350A1 (ko)
MX (1) MX2021014277A (ko)
WO (1) WO2020242145A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111602397B (zh) * 2018-01-17 2024-01-23 英迪股份有限公司 使用各种变换技术的视频编码方法和装置
WO2020204419A1 (ko) * 2019-04-03 2020-10-08 엘지전자 주식회사 적응적 루프 필터 기반 비디오 또는 영상 코딩
KR20220004767A (ko) * 2019-07-05 2022-01-11 엘지전자 주식회사 루마 맵핑 기반 비디오 또는 영상 코딩
KR20220017440A (ko) * 2019-07-08 2022-02-11 엘지전자 주식회사 스케일링 리스트 데이터의 시그널링 기반 비디오 또는 영상 코딩
WO2021006632A1 (ko) * 2019-07-08 2021-01-14 엘지전자 주식회사 스케일링 리스트 파라미터 기반 비디오 또는 영상 코딩

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013034161A (ja) * 2011-06-28 2013-02-14 Sharp Corp 画像復号装置、画像符号化装置、および符号化データのデータ構造
KR101418096B1 (ko) * 2012-01-20 2014-07-16 에스케이 텔레콤주식회사 가중치예측을 이용한 영상 부호화/복호화 방법 및 장치
JP2015518353A (ja) * 2012-04-26 2015-06-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングにおける量子化パラメータ(qp)コーディング
KR20190033036A (ko) * 2017-09-20 2019-03-28 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20190033771A (ko) * 2017-09-22 2019-04-01 삼성전자주식회사 영상 인코딩 장치, 영상 디코딩 장치, 영상 인코딩 방법 및 영상 디코딩 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9451252B2 (en) * 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
KR102657933B1 (ko) * 2018-03-30 2024-04-22 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013034161A (ja) * 2011-06-28 2013-02-14 Sharp Corp 画像復号装置、画像符号化装置、および符号化データのデータ構造
KR101418096B1 (ko) * 2012-01-20 2014-07-16 에스케이 텔레콤주식회사 가중치예측을 이용한 영상 부호화/복호화 방법 및 장치
JP2015518353A (ja) * 2012-04-26 2015-06-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングにおける量子化パラメータ(qp)コーディング
KR20190033036A (ko) * 2017-09-20 2019-03-28 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20190033771A (ko) * 2017-09-22 2019-04-01 삼성전자주식회사 영상 인코딩 장치, 영상 디코딩 장치, 영상 인코딩 방법 및 영상 디코딩 방법

Also Published As

Publication number Publication date
CA3141350A1 (en) 2020-12-03
US20210321104A1 (en) 2021-10-14
CN113875240A (zh) 2021-12-31
US11190769B2 (en) 2021-11-30
MX2021014277A (es) 2022-01-06
KR20220003124A (ko) 2022-01-07
US11575898B2 (en) 2023-02-07
BR112021023469A2 (pt) 2022-01-18
US20220053190A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
WO2018212578A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018044088A1 (ko) 비디오 신호 처리 방법 및 장치
WO2020242145A1 (ko) 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치
WO2016175550A1 (ko) 비디오 신호의 처리 방법 및 이를 위한 장치
WO2017039256A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018008904A2 (ko) 비디오 신호 처리 방법 및 장치
WO2012081879A1 (ko) 인터 예측 부호화된 동영상 복호화 방법
WO2012023762A2 (ko) 인트라 예측 복호화 방법
WO2018044087A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019078581A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020009419A1 (ko) 병합 후보를 사용하는 비디오 코딩 방법 및 장치
WO2012148138A2 (ko) 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
WO2019117639A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2013154366A1 (ko) 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치
WO2016114583A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018056702A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013109122A1 (ko) 계층적 부호화 단위에 따라 스캔 순서를 변경하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2016159610A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019078664A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016048092A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016122251A1 (ko) 비디오 신호 처리 방법 및 장치
WO2020013609A1 (ko) 화면내 예측 기반의 비디오 코딩 방법 및 장치
WO2021034115A1 (ko) 크로마 양자화 파라미터 오프셋 관련 정보를 코딩하는 영상 디코딩 방법 및 그 장치
WO2018128222A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2015009009A1 (ko) 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20814106

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3141350

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112021023469

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 20217042387

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112021023469

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20211122

122 Ep: pct application non-entry in european phase

Ref document number: 20814106

Country of ref document: EP

Kind code of ref document: A1