WO2018084523A1 - 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 - Google Patents

부호화 방법 및 그 장치, 복호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2018084523A1
WO2018084523A1 PCT/KR2017/012135 KR2017012135W WO2018084523A1 WO 2018084523 A1 WO2018084523 A1 WO 2018084523A1 KR 2017012135 W KR2017012135 W KR 2017012135W WO 2018084523 A1 WO2018084523 A1 WO 2018084523A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
current block
sample
coding unit
current
Prior art date
Application number
PCT/KR2017/012135
Other languages
English (en)
French (fr)
Inventor
표인지
천제
김찬열
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP17866548.5A priority Critical patent/EP3522532A1/en
Priority to KR1020197003994A priority patent/KR102504876B1/ko
Priority to KR1020237006622A priority patent/KR20230033027A/ko
Priority to US16/345,950 priority patent/US10798375B2/en
Publication of WO2018084523A1 publication Critical patent/WO2018084523A1/ko
Priority to US16/940,954 priority patent/US11695918B2/en
Priority to US16/940,986 priority patent/US11405605B2/en
Priority to US18/203,777 priority patent/US20230308638A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a video encoding method and a decoding method, and more particularly, to an intra or inter prediction method for a method and an apparatus for encoding / decoding an image.
  • High quality video requires a large amount of data during encoding.
  • the bandwidth allowed for delivering video data is limited, so that the data rate applied when transmitting video data may be limited. Therefore, in order to efficiently transmit video data, there is a need for a method of encoding and decoding video data having increased compression ratio while minimizing degradation of image quality.
  • Video data can be compressed by removing spatial redundancy and temporal redundancy between pixels. Since it is common to have a common feature among adjacent pixels, encoding information is transmitted in a data unit composed of pixels to remove redundancy between adjacent pixels.
  • the pixel values of the pixels included in the data unit are not transmitted directly, but a method necessary for obtaining the pixel value is transmitted.
  • a prediction method for predicting the pixel value similar to the original value is determined for each data unit, and encoding information about the prediction method is transmitted from the encoder to the decoder. Also, since the predicted value is not exactly the same as the original value, residual data about the difference between the original value and the predicted value is transmitted from the encoder to the decoder.
  • the prediction method is determined in consideration of the size of the encoding information and the residual data.
  • a data unit divided in a picture has various sizes. As the size of the data unit is larger, the accuracy of prediction is more likely to decrease, but encoding information is reduced. Therefore, the size of the block is determined according to the characteristics of the picture.
  • Prediction methods also include intra prediction and inter prediction.
  • Intra prediction is a method of predicting pixels of a block from neighboring pixels of the block.
  • Inter prediction is a method of predicting pixels by referring to pixels of another picture referred to by a picture including a block. Therefore, spatial redundancy is removed by intra prediction and temporal redundancy is removed by inter prediction.
  • the encoded information applied to the block may also be predicted from another block to reduce the size of the encoded information.
  • the residual data may be lossy compressed according to a transformation and quantization process to reduce the amount of residual data.
  • a video encoding method of determining whether a current block is divided and an encoding order of a lower block, and determining an encoding method according to whether neighboring blocks of the current block are encoded Also, a video decoding method of dividing a current block, determining an encoding order of the divided lower blocks, and determining an encoding method according to whether to encode neighboring blocks of the current block is disclosed.
  • a computer-readable recording medium recording a program for executing a video encoding method and a video decoding method in a computer according to an embodiment of the present invention is disclosed.
  • split information indicating whether a current block is divided from a bitstream, decoding the current block according to encoding information of the current block when the split information does not indicate splitting of the current block, and splitting
  • the information indicates the division of the current block, the current block is divided into two or more sub-blocks, encoding sequence information indicating the encoding order of the sub-blocks of the current block is obtained from the bitstream, and the encoding sequence
  • a video decoding method comprising: determining a decoding order of the lower blocks according to information, and decoding the lower blocks according to the decoding order.
  • An encoding order determiner that determines a decoding order of the lower blocks according to encoding order information indicating an encoding order of lower blocks, and when the splitting information indicates that the current block is not divided, a prediction method of the current block is determined.
  • a video decoding apparatus including a prediction method determiner and a decoder configured to reconstruct the current block according to a prediction result according to the prediction method.
  • Dividing the current block into two or more sub-blocks determining whether to divide the current block according to a result of dividing the current block, and generating partition information indicating whether the current block is divided, and presently Determining an encoding order of the lower blocks of the current block and obtaining encoding order information indicating an encoding order of the lower blocks according to the encoding efficiency of the block; And outputting a bitstream including the split information and the encoding order information.
  • a video encoding apparatus including an output unit for outputting a bitstream is provided.
  • a computer-readable non-transitory recording medium having recorded thereon a program for performing the video encoding method and the video decoding method is provided.
  • the encoding efficiency of the image is improved by determining whether to divide the current block and the encoding order of the lower block, and determining the lower block according to the encoding order of the lower block.
  • FIG. 1A is a block diagram of an image encoding apparatus based on coding units having a tree structure, according to an embodiment of the present invention.
  • FIG. 1B is a block diagram of a video decoding apparatus based on coding units having a tree structure, according to an embodiment.
  • FIG. 2 illustrates a process of determining at least one coding unit by dividing a current coding unit according to an embodiment.
  • FIG. 3 is a diagram illustrating a process of determining at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • FIG. 4 illustrates a process of splitting a coding unit based on at least one of block shape information and split shape information, according to an embodiment.
  • FIG. 5 illustrates a method of determining a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 6 illustrates an order in which a plurality of coding units are processed when a current coding unit is divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 7 illustrates a process of determining that a current coding unit is divided into odd coding units when the coding units cannot be processed in a predetermined order, according to an embodiment.
  • FIG. 8 is a diagram illustrating a process of determining at least one coding unit by dividing a first coding unit according to an embodiment.
  • FIG. 9 illustrates that a form in which a second coding unit may be split is limited when a second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 10 illustrates a process of splitting a coding unit having a square form when splitting form information cannot be divided into four square coding units according to an embodiment.
  • FIG. 11 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • FIG. 12 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 13 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • FIG. 14 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 15 illustrates a processing block serving as a reference for determining a determination order of reference coding units included in a picture, according to an embodiment.
  • FIG. 16 is a diagram of a video decoding apparatus, according to an embodiment of dividing a current block and determining an encoding order of divided lower blocks.
  • 17A to 17C illustrate a basic encoding order, according to an embodiment.
  • 18A and 18B show cases in which a coding unit is encoded in a forward direction and cases in which a coding unit is encoded in a reverse direction, respectively.
  • FIG. 19 illustrates a tree structure of a maximum coding unit for describing a coding order of a maximum coding unit and coding units included in the maximum coding unit.
  • 20A and 20B illustrate how the coding order of three or more blocks arranged in the vertical or horizontal direction is changed according to the coding order flag.
  • 21 shows a method of determining a reference sample required for the directional intra prediction mode.
  • 22A and 22B illustrate a method of predicting a DC mode according to whether a right block is decoded.
  • 23A to 23C illustrate a planar mode prediction method according to whether a right block is decoded.
  • 24A to 24D illustrate a method of predicting a current block according to a multi-parameter intra (MPI) mode.
  • MPI multi-parameter intra
  • 25A and 25B show reference regions referenced in the LM chroma mode and the MPC mode.
  • FIG. 26 illustrates spatially contiguous blocks of the current block according to the coding order of the current block in the merge mode and the AMVP mode.
  • 27 shows a prediction method of the OBMC mode using the right block of the current block.
  • 28A to 28C illustrate a method of predicting a subblock MVP mode using a right block of the current block.
  • 29A and 29B illustrate a method of predicting an affine motion compensation prediction mode using a right block of a current block.
  • 30a and 30b illustrate a method of predicting the FRUC mode using the right block of the current block.
  • 31 is a view illustrating a video decoding method according to an embodiment of the present invention on partitioning of a current block and determination of encoding order of divided lower blocks.
  • FIG. 32 is a diagram of a video encoding apparatus according to an embodiment of dividing a current block and determining an encoding order of divided lower blocks.
  • FIG. 33 is a view illustrating a video encoding method according to an embodiment regarding division of a current block and determination of an encoding order of divided lower blocks.
  • split information indicating whether a current block is divided from a bitstream, decoding the current block according to encoding information of the current block when the split information does not indicate splitting of the current block, and splitting
  • the information indicates the division of the current block, the current block is divided into two or more sub-blocks, encoding sequence information indicating the encoding order of the sub-blocks of the current block is obtained from the bitstream, and the encoding sequence
  • a video decoding method comprising: determining a decoding order of the lower blocks according to information, and decoding the lower blocks according to the decoding order.
  • An encoding order determiner that determines a decoding order of the lower blocks according to encoding order information indicating an encoding order of lower blocks, and when the splitting information indicates that the current block is not divided, a prediction method of the current block is determined.
  • a video decoding apparatus including a prediction method determiner and a decoder configured to reconstruct the current block according to a prediction result according to the prediction method.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • “Current block” means one of coding units, prediction units, and transformation units that are currently encoded or decoded.
  • a “lower block” means a data unit divided from a “current block”.
  • “upper block” means a data unit including the "current block”.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • FIG. 1A is a block diagram of an image encoding apparatus 100 based on coding units having a tree structure, according to an embodiment of the present invention.
  • the image encoding apparatus 100 includes a maximum coding unit determiner 110, a coding unit determiner 120, and an outputter 130.
  • the maximum coding unit determiner 110 divides a picture or a slice included in the picture into a plurality of maximum coding units according to the size of the maximum coding unit.
  • the maximum coding unit is a data unit having a size of 32x32, 64x64, 128x128, 256x256, and the like, and may be a square data unit having a square of two horizontal and vertical sizes.
  • the maximum coding unit determiner 110 may provide the output unit 130 with maximum coding unit size information indicating the size of the maximum coding unit.
  • the output unit 130 may include the maximum coding unit size information in the bitstream.
  • the coding unit determiner 120 determines a coding unit by dividing the maximum coding unit. Coding units may be determined to have a maximum size and depth. The depth may be defined as the number of times a coding unit is spatially divided from the largest coding unit. Each time the depth is increased by 1, the coding unit is divided into two or more coding units. Therefore, as the depth increases, the size of the coding unit for each depth decreases. Whether to split the coding unit is determined according to whether or not the coding unit is efficient by rate-distortion optimization. In addition, split information indicating whether a coding unit is split may be generated. The partitioning information may be expressed in the form of a flag.
  • Coding units may be divided in various ways. For example, a square coding unit may be divided into four square coding units each having a half width and a height. The square coding unit may be divided into two rectangular coding units having a half width. The square coding unit may be divided into two rectangular coding units having a height of half. The coding unit of the square may be divided into three coding units by dividing the width or height into 1: 2: 1.
  • a rectangular coding unit having a width twice the height may be divided into two square coding units.
  • a coding unit of a rectangle having a width twice the height may be split into coding units of a rectangle having two widths four times the height.
  • a rectangular coding unit having a width twice the height may be divided into two rectangular coding units and one square coding unit by dividing the width by 1: 2: 1.
  • a rectangular coding unit having a height twice the width may be divided into two square coding units.
  • a rectangular coding unit having a height twice the width may be divided into a rectangular coding unit having two heights four times the width.
  • a rectangular coding unit having a height twice the width may be divided into two rectangular coding units and one square coding unit by dividing the height into 1: 2: 1.
  • information on a division method that may be used for a coding unit among the division methods available in the image encoding apparatus 100 may be determined for each picture. Thus, it may be determined that only specific segmentation methods are used per picture. If the image encoding apparatus 100 uses only one division method, information on a division method that may be used for the coding unit is not separately determined.
  • split shape information indicating a splitting method of the coding unit may be generated. If there is only one division method that can be used in a picture belonging to a coding unit company, division type information may not be generated. If the division method is adaptively determined based on the encoding information around the coding unit, the division type information may not be generated.
  • the maximum coding unit may be split up to the minimum coding unit according to the minimum coding unit size information.
  • the depth of the largest coding unit may be the highest depth, and the minimum coding unit may be defined as the lowest depth. Therefore, the coding unit of the higher depth may include coding units of the plurality of lower depths.
  • the maximum coding unit may include coding units divided by depths. Since the maximum coding unit is divided according to depths, image data of a spatial domain included in the maximum coding unit may be hierarchically classified according to depths.
  • a maximum depth or a minimum size of a coding unit that limits the maximum number of times that the maximum coding unit may be hierarchically divided may be preset.
  • the coding unit determiner 120 compares the coding efficiency when the coding unit is hierarchically divided from the coding efficiency when the coding unit is not divided. The coding unit determiner 120 determines whether to split the coding unit according to the comparison result. If it is determined that the division of the coding unit is more efficient, the coding unit determiner 120 hierarchically divides the coding unit. If it is determined that it is efficient not to divide the coding unit according to the comparison result, the coding unit is not divided. Whether to split the coding unit may be determined independently of whether to split another adjacent coding unit.
  • whether to split the coding unit may be determined from a coding unit having a large depth in the encoding process. For example, the coding efficiency of the coding unit of the maximum depth and the coding unit smaller by 1 than the maximum depth are compared, so that each of the regions of the maximum coding unit includes any of the coding units of the maximum depth and the coding units smaller than the maximum depth by 1. It is determined whether the encoding is more efficient. According to the determination result, it is determined whether or not to split the coding unit smaller than the maximum depth by 1 for each region of the maximum coding unit.
  • Whether to split the coding unit may be determined from a coding unit having a small depth in the encoding process. For example, the coding efficiency of the largest coding unit and a coding unit having a depth of one larger than the maximum coding unit is compared, so that any one of the largest coding unit and the coding units having a depth of one larger than the maximum code unit is more efficiently encoded. Is determined. If the coding efficiency of the maximum coding unit is better, the maximum coding unit is not divided. If the coding efficiency of coding units having a depth of 1 is greater than that of the maximum coding unit, the maximum coding unit is split, and the same comparison process is repeated for the split coding unit.
  • an algorithm for obtaining a hierarchical tree structure of the largest coding unit may be designed in various ways in consideration of coding efficiency and calculation amount.
  • the coding unit determiner 120 determines a most efficient prediction and transformation method for the coding unit in order to determine the efficiency of the coding unit for each depth.
  • the coding unit may be divided into predetermined data units to determine the most efficient prediction and transformation method.
  • the data unit may have various forms according to the division method of the coding unit.
  • a splitting method of coding units for determining a data unit may be defined as a partition mode. For example, when a coding unit of size 2Nx2N (where N is a positive integer) is not divided, the size of the prediction unit included in the coding unit is 2Nx2N.
  • the size of the prediction unit included in the coding unit may be 2NxN, Nx2N, NxN, etc. according to the partition mode.
  • Partition mode according to an embodiment is not only the symmetric data units in which the height or width of the coding unit is divided by the symmetric ratio, but also the data units divided by the asymmetric ratio such as 1: n or n: 1, diagonal direction It is possible to generate data units divided into data units, data units divided into other geometric shapes, and data units of arbitrary shape.
  • the coding unit may perform prediction and transformation based on the data unit included in the coding unit.
  • a data unit for prediction and a data unit for conversion may be separately determined.
  • the data unit for prediction may be defined as a prediction unit
  • the data unit for transformation may be defined as a transformation unit.
  • the partition mode applied to the prediction unit and the partition mode applied to the transformation unit may be different from each other.
  • the prediction of the prediction unit and the transformation of the transformation unit in the coding unit may be performed in parallel and independently.
  • the coding unit may be divided into one or more prediction units in order to determine an efficient prediction method.
  • a coding unit may be divided into one or more transformation units in order to determine an efficient transformation method. Splitting of the prediction unit and splitting of the transform unit may be performed independently. However, when the reconstructed sample inside the coding unit is used for intra prediction, a dependent relationship is formed between the prediction units or the transformation units included in the coding unit, and thus the division of the prediction unit and the transformation unit may affect each other.
  • the prediction unit included in the coding unit may be predicted by intra prediction or inter prediction.
  • Intra prediction is a method of predicting samples of a prediction unit using reference samples around the prediction unit.
  • Inter prediction is a method of predicting samples of a prediction unit by obtaining a reference sample from a reference picture referenced by the current picture.
  • the coding unit determiner 120 may select the most efficient intra prediction method by applying a plurality of intra prediction methods to the prediction unit for intra prediction.
  • Intra prediction methods include a directional mode such as a DC mode, a planar mode, a vertical mode, and a horizontal mode.
  • Intra prediction may be performed for each prediction unit when reconstructed samples around the coding unit are used as reference samples.
  • the prediction order of the prediction unit may depend on the conversion order of the transform unit. Therefore, when a reconstructed sample inside a coding unit is used as a reference sample, only an intra prediction method for transform units corresponding to the prediction unit is determined for the prediction unit, and substantial intra prediction may be performed for each transform unit.
  • the coding unit determiner 120 may select the most efficient inter prediction method by determining an optimal motion vector and a reference picture.
  • the coding unit determiner 120 may determine a plurality of motion vector candidates from spatially and temporally neighboring coding units from the current coding unit for inter prediction, and determine the most efficient motion vector among them as a motion vector.
  • a plurality of reference picture candidates may be determined from spatially and temporally neighboring coding units from the current coding unit, and among them, the most efficient reference picture may be determined.
  • the reference picture may be determined from among reference picture lists predetermined for the current picture.
  • the most efficient motion vector among the plurality of motion vector candidates may be determined as a motion vector predictor, and the motion vector predictor may be corrected to determine the motion vector.
  • Inter prediction may be performed in parallel for each prediction unit in the coding unit.
  • the coding unit determiner 120 may reconstruct the coding unit by obtaining only information representing a motion vector and a reference picture according to the skip mode. According to the skip mode, all encoding information including the residual signal is omitted except for information representing a motion vector and a reference picture. Since the residual signal is omitted, the skip mode can be used when the prediction accuracy is very high.
  • the partition mode used may be limited according to the prediction method for the prediction unit. For example, only the partition mode for prediction units of 2Nx2N and NxN sizes is applied to intra prediction, while the partition mode for prediction units of 2Nx2N, 2NxN, Nx2N, and NxN sizes may be applied to inter prediction. In addition, only a partition mode for a prediction unit having a size of 2N ⁇ 2N may be applied to a skip mode of inter prediction.
  • the partition mode allowed for each prediction method in the image encoding apparatus 100 may be changed according to encoding efficiency.
  • the image encoding apparatus 100 may perform transformation based on a coding unit or a transformation unit included in the coding unit.
  • the image encoding apparatus 100 may convert residual data, which is a difference value between an original value and a prediction value, of pixels included in a coding unit, through a predetermined process.
  • the image encoding apparatus 100 may perform lossy compression on the residual data through quantization and DCT / DST conversion.
  • the image encoding apparatus 100 may perform lossless compression on the residual data without quantization.
  • the image encoding apparatus 100 may determine a transformation unit that is most efficient for quantization and transformation. In a manner similar to the coding unit according to the tree structure, the transformation unit in the coding unit is also recursively divided into smaller transformation units, and the residual data of the coding unit is partitioned according to the transformation unit according to the tree structure according to the transformation depth. Can be.
  • the image encoding apparatus 100 may generate transform split information about the split of the coding unit and the transform unit according to the determined tree structure of the transform unit.
  • the image encoding apparatus 100 may set a transformation depth indicating the number of divisions until the height and width of the coding unit are divided to reach the transformation unit. For example, if the size of the transform unit of the current coding unit of size 2Nx2N is 2Nx2N, the transform depth is 0, the transform depth 1 if the size of the transform unit is NxN, and the transform depth 2 if the size of the transform unit is N / 2xN / 2 Can be. That is, a transformation unit having a tree structure may be set according to the transformation depth.
  • the coding unit determiner 120 determines the most efficient prediction method for the current prediction unit among the plurality of intra prediction methods and the inter prediction methods.
  • the coding unit determiner 120 determines a prediction unit determination method according to the coding efficiency according to the prediction result.
  • the coding unit determiner 120 determines a transformation unit determination method according to encoding efficiency according to the transformation result.
  • the coding efficiency of the coding unit is finally determined according to the most efficient prediction unit and the method of determining the transformation unit.
  • the coding unit determiner 120 determines the hierarchical structure of the maximum coding unit according to the coding efficiency of the coding unit for each depth.
  • the coding unit determiner 120 may measure coding efficiency of coding units according to depths, prediction efficiency of prediction methods, and the like using a Lagrangian Multiplier-based rate-distortion optimization technique. .
  • the coding unit determiner 120 may generate split information indicating whether to split the coding unit according to depths according to the determined hierarchical structure of the maximum coding unit.
  • the coding unit determiner 120 may generate partition mode information for determining a prediction unit and transform unit split information for determining a transform unit for the split coding unit.
  • the coding unit determiner 120 may generate split type information indicating the division method together with the division information.
  • the coding unit determiner 120 may generate information about a prediction method and a transformation method used in the prediction unit and the transformation unit.
  • the output unit 130 may output the information generated by the maximum coding unit determiner 110 and the coding unit determiner 120 in the form of a bitstream according to the hierarchical structure of the maximum coding unit.
  • a method of determining a coding unit, a prediction unit, and a transformation unit according to a tree structure of a maximum coding unit according to an embodiment will be described later in detail with reference to FIGS. 3 to 12.
  • FIG. 1B is a block diagram of an image decoding apparatus 150 based on coding units having a tree structure, according to an exemplary embodiment.
  • the image decoding apparatus 150 includes a receiver 160, an encoding information extractor 170, and a decoder 180.
  • the receiver 160 receives and parses a bitstream of an encoded video.
  • the encoding information extractor 170 extracts information necessary for decoding for each largest coding unit from the parsed bitstream and provides the information to the decoder 180.
  • the encoding information extractor 170 may extract information about a maximum size of a coding unit of the current picture from a header, a sequence parameter set, or a picture parameter set for the current picture.
  • the encoding information extractor 170 extracts the final depth and the split information of the coding units having the tree structure for each maximum coding unit from the parsed bitstream.
  • the extracted final depth and split information are output to the decoder 180.
  • the decoder 180 may determine a tree structure of the maximum coding unit by dividing the maximum coding unit according to the extracted final depth and the split information.
  • the split information extracted by the encoding information extracting unit 170 is split information on a tree structure determined by the video encoding apparatus 100 to generate a minimum encoding error. Therefore, the image decoding apparatus 150 may reconstruct the image by decoding the data according to an encoding method that generates a minimum encoding error.
  • the encoding information extractor 170 may extract split information about a data unit such as a prediction unit and a transformation unit included in the coding unit. For example, the encoding information extractor 170 may extract information about the most efficient partition mode for the prediction unit. In addition, the encoding information extractor 170 may extract transform partition information on a tree structure that is most efficient in a transform unit.
  • the encoding information extractor 170 may obtain information about the most efficient prediction method with respect to the prediction units split from the coding unit. In addition, the encoding information extractor 170 may obtain information about a most efficient transformation method for the transformation units split from the coding unit.
  • the encoding information extractor 170 extracts information from the bitstream according to a method of configuring the bitstream in the output unit 130 of the image encoding apparatus 100.
  • the decoder 180 may divide the largest coding unit into coding units having the most efficient tree structure based on the split information.
  • the decoder 180 may split a coding unit into prediction units according to information about a partition mode.
  • the decoder 180 may divide a coding unit into transformation units according to the transformation division information.
  • the decoder 180 may predict the prediction unit according to the information on the prediction method.
  • the decoder 180 may inverse quantize and inversely transform residual data corresponding to a difference between an original value and a predicted value of a pixel according to information on a method of converting a transform unit. Also, the decoder 180 may reconstruct the pixels of the coding unit according to the prediction result of the prediction unit and the transformation result of the transformation unit.
  • FIG. 2 illustrates a process of determining, by the image decoding apparatus 150, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the image decoding apparatus 150 may determine a shape of a coding unit by using block shape information, and may determine which type of coding unit is divided by using split shape information. That is, the method of dividing the coding unit indicated by the segmentation form information may be determined according to which block form the block form information used by the image decoding apparatus 150 represents.
  • the image decoding apparatus 150 may use block shape information indicating that the current coding unit is square. For example, the image decoding apparatus 150 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split type information. Referring to FIG. 2, when the block shape information of the current coding unit 200 indicates a square shape, the decoder 180 may have the same size as the current coding unit 200 according to the split shape information indicating that the block shape information is not divided. The splitting coding unit 210a may not be divided, or the split coding units 210b, 210c, and 210d may be determined based on split type information indicating a predetermined division method.
  • the image decoding apparatus 150 determines two coding units 210b in which the current coding unit 200 is divided in the vertical direction, based on the split type information indicating that the image is split in the vertical direction. Can be.
  • the image decoding apparatus 150 may determine two coding units 210c obtained by dividing the current coding unit 200 in the horizontal direction, based on the split type information indicating the split in the horizontal direction.
  • the image decoding apparatus 150 may determine four coding units 210d that divide the current coding unit 200 in the vertical direction and the horizontal direction based on the split type information indicating that the image decoding apparatus 150 is split in the vertical direction and the horizontal direction.
  • the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG 3 illustrates a process of determining, by the image decoding apparatus 150, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 150 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 150 may determine whether to divide the current coding unit of the non-square according to the segmentation type information or to split it by a predetermined method. Referring to FIG. 3, when the block shape information of the current coding unit 300 or 350 indicates a non-square shape, the image decoding apparatus 150 may not divide the current coding unit 300 according to the split shape information indicating that the shape is not divided.
  • coding units 320a, 320b, 330a, 330b, 330c, 370a which do not divide coding units 310 or 360 having the same size as 350, or are divided based on division type information indicating a predetermined division method.
  • 370b, 380a, 380b, and 380c can be determined.
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 150 may determine a shape in which a coding unit is divided using split shape information.
  • the split shape information may include the number of at least one coding unit generated by splitting the coding unit. Can be represented.
  • the image decoding apparatus 150 may determine the current coding unit 300 or 350 based on the split shape information. By splitting, two coding units 320a, 320b, or 370a, 370b included in the current coding unit may be determined.
  • the image decoding apparatus 150 when the image decoding apparatus 150 divides the current coding unit 300 or 350 of the non-square shape based on the split shape information, the image coding apparatus 150 of the non-square current coding unit 300 or 350 may be used.
  • the current coding unit may be split in consideration of the position of the long side.
  • the image decoding apparatus 150 divides the current coding unit 300 or 350 in a direction of dividing the long side of the current coding unit 300 or 350 in consideration of the shape of the current coding unit 300 or 350. To determine a plurality of coding units.
  • the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 300 or 350. For example, when the split form information indicates that the current coding unit 300 or 350 is divided into three coding units, the image decoding apparatus 150 may divide the current coding unit 300 or 350 into three coding units 330a. , 330b, 330c, 380a, 380b, and 380c. According to an embodiment, the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 300 or 350, and not all sizes of the determined coding units may be the same.
  • a size of a predetermined coding unit 330b or 380b among the determined odd coding units 330a, 330b, 330c, 380a, 380b, and 380c is different from other coding units 330a, 330c, 380a, and 380c. May have That is, the coding unit that may be determined by dividing the current coding unit 300 or 350 may have a plurality of types of sizes.
  • the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 300 or 350.
  • the image decoding apparatus 150 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing.
  • the image decoding apparatus 150 may include a coding unit positioned at the center of three coding units 330a, 330b, 330c, 380a, 380b, and 380c generated by dividing a current coding unit 300 or 350.
  • the decoding process for 330b and 380b may be different from other coding units 330a, 330c, 380a and 380c.
  • the image decoding apparatus 150 restricts the coding units 330b and 380b positioned in the center from being split any more, unlike the other coding units 330a, 330c, 380a, and 380c, or only a predetermined number of times. You can limit it to split.
  • FIG. 4 illustrates a process of splitting a coding unit by the image decoding apparatus 150 based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the image decoding apparatus 150 may determine to divide or not divide the first coding unit 400 having a square shape into coding units based on at least one of block shape information and split shape information.
  • the image decoding apparatus 150 splits the first coding unit 400 in the horizontal direction to thereby split the second coding unit. 410 may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units. For example, when the first coding unit is split, the second coding unit may be determined. When the second coding unit is split, the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 150 may determine to divide or not split the determined second coding unit 410 into coding units based on at least one of block shape information and split shape information. Referring to FIG. 4, the image decoding apparatus 150 may determine a second coding unit 410 having a non-square shape determined by dividing the first coding unit 400 based on at least one of block shape information and split shape information. It may be divided into at least one third coding unit 420a, 420b, 420c, 420d, or the like, or may not split the second coding unit 410.
  • the image decoding apparatus 150 may obtain at least one of the block shape information and the split shape information, and the image decoding device 150 may determine the first coding unit 400 based on at least one of the obtained block shape information and the split shape information.
  • the unit 400 may be divided according to the divided manner. According to an embodiment, when the first coding unit 400 is divided into the second coding unit 410 based on at least one of the block shape information and the split shape information of the first coding unit 400, the second coding unit 400 may be divided into the second coding unit 400.
  • the coding unit 410 may also be split into third coding units (eg, 420a, 420b, 420c, 420d, etc.) based on at least one of block shape information and split shape information of the second coding unit 410. have. That is, the coding unit may be recursively divided based on at least one of the partition shape information and the block shape information associated with each coding unit. A method that can be used for recursive division of coding units will be described later through various embodiments.
  • the image decoding apparatus 150 divides each of the third coding units 420a, 420b, 420c, 420d, etc. into coding units or based on at least one of the block shape information and the split shape information. It may be determined that the unit 410 is not divided. According to an embodiment, the image decoding apparatus 150 may divide the second coding unit 410 having a non-square shape into an odd number of third coding units 420b, 420c, and 420d. The image decoding apparatus 150 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 420b, 420c, and 420d.
  • the image decoding apparatus 150 may be limited to no more division or may be divided by a set number of times for the coding unit 420c positioned in the middle of the odd number of third coding units 420b, 420c, and 420d. It can be limited to.
  • the image decoding apparatus 150 may include a coding unit positioned at the center among odd-numbered third coding units 420b, 420c, and 420d included in the second coding unit 410 having a non-square shape.
  • 420c is no longer divided, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to the split form of the second coding unit 410), or predetermined.
  • the image decoding apparatus 150 may obtain at least one of block shape information and split shape information used to divide the current coding unit at a predetermined position in the current coding unit.
  • At least one of the block shape information and the split shape information of the current coding unit 1300 may be a sample of a predetermined position (for example, located at the center of a plurality of samples included in the current coding unit 1300). Sample 1340). However, a predetermined position in the current coding unit 1300 from which at least one of such block shape information and split shape information may be obtained should not be interpreted as being limited to the center position shown in FIG. 13, and the current coding unit 1300 is located at the predetermined position.
  • the image decoding apparatus 150 may determine whether to divide or not divide the current coding unit into coding units having various shapes and sizes by obtaining at least one of block shape information and split shape information obtained from a predetermined position.
  • the image decoding apparatus 150 may select one of the coding units. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the image decoding apparatus 150 may split the current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
  • FIG. 5 is a diagram for a method of determining, by an image decoding apparatus 150, a coding unit at a predetermined position among odd number of coding units according to an exemplary embodiment.
  • the image decoding apparatus 150 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 5, the image decoding apparatus 150 may determine an odd number of coding units 520a, 520b, and 520c by dividing the current coding unit 500. The image decoding apparatus 150 may determine the central coding unit 520b by using information about the positions of the odd number of coding units 520a, 520b, and 520c. For example, the image decoding apparatus 150 determines the positions of the coding units 520a, 520b, and 520c based on information indicating the positions of predetermined samples included in the coding units 520a, 520b, and 520c.
  • the coding unit 520b positioned at may be determined.
  • the image decoding apparatus 150 may determine the coding units 520a, 520b, and 520c based on the information indicating the positions of the samples 530a, 530b, and 530c in the upper left of the coding units 520a, 520b, and 520c. By determining the position, the coding unit 520b positioned in the center may be determined.
  • the information indicating the position of the upper left samples 530a, 530b, and 530c included in the coding units 520a, 520b, and 520c, respectively may be a location in a picture of the coding units 520a, 520b, and 520c. Or it may include information about the coordinates. According to an embodiment, the information indicating the positions of the upper left samples 530a, 530b, and 530c included in the coding units 520a, 520b, and 520c may be included in the current coding unit 500.
  • 520c may include information indicating width or height, and the width or height may correspond to information indicating a difference between coordinates in the pictures of the coding units 520a, 520b, and 520c. That is, the image decoding apparatus 150 may directly use information about the position or coordinates in the pictures of the coding units 520a, 520b, and 520c or may obtain information about the width or height of the coding unit corresponding to the difference between the coordinates. By using this, the coding unit 520b located in the center can be determined.
  • the information indicating the position of the sample 530a at the upper left of the upper coding unit 520a may indicate (xa, ya) coordinates, and the sample 530b at the upper left of the middle coding unit 520b.
  • the information indicating the position of) may represent the (xb, yb) coordinates, and the information indicating the position of the sample 530c on the upper left of the lower coding unit 520c may indicate the (xc, yc) coordinates.
  • the image decoding apparatus 150 may determine the center coding unit 520b using the coordinates of the samples 530a, 530b, and 530c in the upper left included in the coding units 520a, 520b, and 520c, respectively.
  • the coordinates indicating the positions of the samples 530a, 530b, and 530c at the upper left may represent coordinates indicating the absolute positions in the picture, and further, the positions of the samples 530a at the upper left of the upper coding unit 520a.
  • the (dxb, dyb) coordinate which is the information indicating the relative position of the upper left sample 530b of the middle coding unit 520b, and the relative position of the upper left sample 530c of the lower coding unit 520c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample are available. It should be interpreted in a way.
  • the image decoding apparatus 150 may divide the current coding unit 500 into a plurality of coding units 520a, 520b, and 520c, and may determine a predetermined reference among the coding units 520a, 520b, and 520c. According to the coding unit can be selected. For example, the image decoding apparatus 150 may select coding units 520b having different sizes from among coding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 may have (xa, ya) coordinates, which are information indicating the position of the sample 530a on the upper left side of the upper coding unit 520a, and the sample on the upper left side of the center coding unit 520b.
  • the coding unit 520a using the (xb, yb) coordinates indicating the position of 530b and the (xc, yc) coordinates indicating the position of the sample 530c on the upper left of the lower coding unit 520c, are used.
  • 520b and 520c may determine the width or height of each.
  • the image decoding apparatus 150 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 520a, 520b, and 520c, to encode the coding units 520a, 520b, and 520c. ) Each size can be determined.
  • the image decoding apparatus 150 may determine the width of the upper coding unit 520a as xb-xa and the height as yb-ya. According to an embodiment, the image decoding apparatus 150 may determine the width of the central coding unit 520b as xc-xb and the height as yc-yb. According to an embodiment, the image decoding apparatus 150 may determine the width or height of the lower coding unit using the width or height of the current coding unit, the width and the height of the upper coding unit 520a, and the middle coding unit 520b. .
  • the image decoding apparatus 150 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 520a, 520b, and 520c. Referring to FIG. 5, the image decoding apparatus 150 may determine a coding unit 520b as a coding unit of a predetermined position while having a size different from that of the upper coding unit 520a and the lower coding unit 520c. However, in the above-described process of determining, by the image decoding apparatus 150, a coding unit having a size different from another coding unit, the coding unit at a predetermined position is determined using the size of the coding unit determined based on the sample coordinates. In this regard, various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 150 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 150 may determine the coding unit at a predetermined position in the horizontal direction. That is, the image decoding apparatus 150 may determine one of the coding units having different positions in the horizontal direction and place a restriction on the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 150 may determine the coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 150 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
  • the image decoding apparatus 150 may use information indicating the positions of each of the even coding units in order to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 150 may determine an even number of coding units by dividing a current coding unit and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a center position) among the odd coding units described above with reference to FIG. 5, and thus will be omitted.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 150 may determine the block shape information and the split shape stored in the sample included in the middle coding unit in the splitting process in order to determine a coding unit located in the middle among the coding units in which the current coding unit is divided into a plurality. At least one of the information may be used.
  • the image decoding apparatus 150 may divide the current coding unit 500 into a plurality of coding units 520a, 520b, and 520c based on at least one of block shape information and split shape information.
  • a coding unit 520b positioned in the center of the plurality of coding units 520a, 520b, and 520c may be determined.
  • the image decoding apparatus 150 may determine the coding unit 520b positioned in the center in consideration of a position where at least one of the block shape information and the split shape information is obtained. That is, at least one of the block shape information and the split shape information of the current coding unit 500 may be obtained from a sample 540 positioned in the center of the current coding unit 500.
  • the block shape information and the split shape information may be obtained.
  • the coding unit 520b including the sample 540 is a coding unit positioned at the center. You can decide.
  • the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information, and various types of information may be used in the process of determining the coding unit located in the center. Can be.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 150 may divide a current coding unit 500 into a plurality of coding units (eg, divided into a plurality of coding units 520a, 520b, and 520c) determined by splitting the current coding unit 500.
  • Block shape information obtained from a sample at a predetermined position for example, a sample located in the center of the current coding unit 500
  • At least one of the partition type information may be used. .
  • the image decoding apparatus 150 may determine the sample at the predetermined position in consideration of the block block form of the current coding unit 500, and the image decoding apparatus 150 may determine that the current coding unit 500 is divided and determined.
  • a coding unit 520b including a sample from which predetermined information (for example, at least one of block shape information and split shape information) may be obtained may be determined.
  • predetermined information for example, at least one of block shape information and split shape information
  • the image decoding apparatus 150 may determine a sample 540 positioned in the center of the current coding unit 500 as a sample from which predetermined information may be obtained.
  • the 150 may set a predetermined limit in the decoding process of the coding unit 520b including the sample 540.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 520b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 500.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 150 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of the information on the width and the height on the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 150 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 150 when the image decoding apparatus 150 divides the current coding unit into a plurality of coding units, at least one of the block shape information and the split shape information may be used to determine a coding unit of a predetermined position among the plurality of coding units. You can use one.
  • the image decoding apparatus 150 may obtain at least one of block shape information and split shape information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 150 may divide the current coding unit.
  • the generated plurality of coding units may be divided using at least one of split shape information and block shape information obtained from a sample of a predetermined position included in each of the plurality of coding units.
  • the coding unit may be recursively split using at least one of block shape information and split shape information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 4, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine the at least one coding unit by dividing the current coding unit, and determine the order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 6 illustrates an order in which a plurality of coding units are processed when the image decoding apparatus 150 determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 150 determines the second coding units 610a and 610b by dividing the first coding unit 600 in the vertical direction according to the block shape information and the split shape information.
  • the second coding unit 650a, 650b, 650c, or 650d is determined by dividing the 600 in the horizontal direction to determine the second coding units 630a and 630b, or by dividing the first coding unit 600 in the vertical and horizontal directions. Can be determined.
  • the image decoding apparatus 150 may determine an order such that the second coding units 610a and 610b determined by dividing the first coding unit 600 in the vertical direction are processed in the horizontal direction 610c. .
  • the image decoding apparatus 150 may determine the processing order of the second coding units 630a and 630b determined by dividing the first coding unit 600 in the horizontal direction, in the vertical direction 630c.
  • the image decoding apparatus 150 processes the coding units for positioning the second coding units 650a, 650b, 650c, and 650d in one row.
  • the coding units located in the next row may be determined according to a predetermined order (for example, raster scan order or z scan order 650e).
  • the image decoding apparatus 150 may recursively split coding units.
  • the image decoding apparatus 150 may determine a plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d by dividing the first coding unit 600.
  • Each of the determined coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be recursively divided.
  • the method of dividing the plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be a method corresponding to the method of dividing the first coding unit 600. Accordingly, the plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be independently divided into a plurality of coding units. Referring to FIG. 6, the image decoding apparatus 150 may determine the second coding units 610a and 610b by dividing the first coding unit 600 in the vertical direction, and further, respectively, the second coding units 610a and 610b. It can be decided to split independently or not.
  • the image decoding apparatus 150 may divide the second coding unit 610a on the left side into horizontal units to split the second coding unit 610a into third coding units 620a and 620b, and the second coding unit 610b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 150 may independently determine the order in which the third coding units 620a and 620b determined by splitting the second coding unit 610a on the left side from the second coding unit 610b on the right side. Since the second coding unit 610a on the left is divided in the horizontal direction to determine the third coding units 620a and 620b, the third coding units 620a and 620b may be processed in the vertical direction 620c.
  • the order in which the second coding unit 610a on the left side and the second coding unit 610b on the right side is processed corresponds to the horizontal direction 610c
  • the right coding unit 610b may be processed.
  • FIG. 7 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 150 may not process the coding units in a predetermined order, according to an embodiment.
  • the image decoding apparatus 150 may determine that the current coding unit is divided into odd coding units based on the obtained block shape information and the split shape information.
  • a first coding unit 700 having a square shape may be divided into second coding units 710a and 710b having a non-square shape, and the second coding units 710a and 710b may be independently formed. It may be divided into three coding units 720a, 720b, 720c, 720d, and 720e.
  • the image decoding apparatus 150 may determine a plurality of third coding units 720a and 720b by dividing the left coding unit 710a in the horizontal direction among the second coding units, and may include the right coding unit 710b. ) May be divided into odd third coding units 720c, 720d, and 720e.
  • the image decoding apparatus 150 determines whether or not an odd number of coding units are divided by determining whether the third coding units 720a, 720b, 720c, 720d, and 720e may be processed in a predetermined order. You can decide. Referring to FIG. 7, the image decoding apparatus 150 may determine the third coding units 720a, 720b, 720c, 720d, and 720e by recursively dividing the first coding unit 700.
  • the image decoding apparatus 150 may include a first coding unit 700, a second coding unit 710a and 710b, or a third coding unit 720a, 720b, 720c based on at least one of block shape information and split shape information.
  • 720d and 720e are divided into odd coding units.
  • a coding unit positioned on the right side of the second coding units 710a and 710b may be divided into odd third coding units 720c, 720d, and 720e.
  • the order in which the plurality of coding units included in the first coding unit 700 are processed may be a predetermined order (for example, a z-scan order 730), and the image decoding apparatus ( 150 may determine whether the third coding unit 720c, 720d, 720e determined by splitting the right second coding unit 710b into an odd number satisfies a condition that may be processed according to the predetermined order.
  • the image decoding apparatus 150 may satisfy a condition that the third coding units 720a, 720b, 720c, 720d, and 720e included in the first coding unit 700 may be processed in a predetermined order. And whether the at least one of the width and the height of the second coding unit 710a, 710b is divided in half according to the boundary of the third coding unit 720a, 720b, 720c, 720d, 720e.
  • the third coding units 720a and 720b which are determined by dividing the height of the left second coding unit 710a in the non-square form in half, satisfy the condition, but the right second coding unit 710b is set to 3.
  • the third coding units 720c, 720d, and 720e may be determined to not satisfy the condition, and the image decoding apparatus 150 determines that the scan sequence is disconnected in the case of dissatisfaction with the condition, and based on the determination result, the right second coding unit 710b It may be determined to be divided into an odd number of coding units. According to an embodiment, when the image decoding apparatus 150 is divided into an odd number of coding units, the image decoding apparatus 150 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may divide the first coding unit 800 based on at least one of the block shape information and the split shape information acquired through the receiver 160.
  • the first coding unit 800 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 150 may determine the first coding unit.
  • the image decoding apparatus 150 may form a square first coding unit 800.
  • the image decoding apparatus 150 may process the second coding units 810a, 810b, 810c, 820a, 820b, and 820c included in the first coding unit 800 in a predetermined order.
  • the condition is whether the at least one of the width and height of the first coding unit 800 is divided in half according to the boundary of the second coding unit (810a, 810b, 810c, 820a, 820b, 820c). It is related to whether or not.
  • a boundary between second coding units 810a, 810b, and 810c which is determined by dividing a square first coding unit 800 in a vertical direction, divides the width of the first coding unit 800 in half.
  • the first coding unit 800 may be determined to not satisfy a condition that may be processed in a predetermined order.
  • the boundary of the second coding units 820a, 820b, and 820c determined by dividing the first coding unit 800 having a square shape in the horizontal direction does not divide the width of the first coding unit 800 in half.
  • the one coding unit 800 may be determined as not satisfying a condition that may be processed in a predetermined order.
  • the image decoding apparatus 150 may determine that the scan order is disconnected, and determine that the first coding unit 800 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 150 when the image decoding apparatus 150 is divided into an odd number of coding units, the image decoding apparatus 150 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 150 may split a first coding unit 800 having a square shape and a first coding unit 830 or 850 having a non-square shape into various coding units. .
  • FIG. 9 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 900 meets a predetermined condition, according to an exemplary embodiment. It shows that the form that can be limited.
  • the image decoding apparatus 150 may include the first coding unit 900 having a square shape in the form of a non-square shape based on at least one of the block shape information and the split shape information acquired through the receiver 160. It may be determined by dividing into two coding units 910a, 910b, 920a, and 920b. The second coding units 910a, 910b, 920a, and 920b may be split independently. Accordingly, the image decoding apparatus 150 determines whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 910a, 910b, 920a, and 920b. Can be.
  • the image decoding apparatus 150 divides the left second coding unit 910a having a non-square shape in a horizontal direction, determined by dividing the first coding unit 900 in a vertical direction, and then converts the third coding unit ( 912a and 912b may be determined.
  • the right second coding unit 910b may have the same horizontal direction as the direction in which the left second coding unit 910a is divided. It can be limited to not be divided into.
  • the right second coding unit 910b is divided in the same direction and the third coding units 914a and 914b are determined, the left second coding unit 910a and the right second coding unit 910b are respectively in the horizontal direction.
  • the third coding units 912a, 912b, 914a, and 914b may be determined by being split independently. However, this means that the image decoding apparatus 150 divides the first coding unit 900 into four square second coding units 930a, 930b, 930c, and 930d based on at least one of the block shape information and the split shape information. This is the same result as the above, which may be inefficient in terms of image decoding.
  • the image decoding apparatus 150 divides the second coding unit 920a or 920b having a non-square shape in a vertical direction, determined by dividing the first coding unit 330 in a horizontal direction, to form a third coding unit. 922a, 922b, 924a, and 924b can be determined.
  • the image decoding apparatus 150 divides one of the second coding units (for example, the upper second coding unit 920a) in the vertical direction
  • the second decoding unit for example, the lower end
  • the coding unit 920b may restrict the upper second coding unit 920a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 10 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 150 when the split shape information cannot be divided into four square coding units.
  • the image decoding apparatus 150 divides the first coding unit 1000 based on at least one of the block shape information and the split shape information to divide the second coding units 1010a, 1010b, 1020a, 1020b, and the like. You can decide.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the image decoding apparatus 150 may not divide the first coding unit 1000 having a square shape into four second coding units 1030a, 1030b, 1030c, and 1030d having a square shape.
  • the image decoding apparatus 150 may determine second non-square second coding units 1010a, 1010b, 1020a, 1020b, and the like based on the segmentation information.
  • the image decoding apparatus 150 may independently split the non-square second coding units 1010a, 1010b, 1020a, 1020b, and the like.
  • Each of the second coding units 1010a, 1010b, 1020a, 1020b, and the like may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information.
  • the image decoding apparatus 150 may determine the third coding units 1012a and 1012b having a square shape by dividing the left second coding unit 1010a in the horizontal direction, and the right second coding unit 1010b The third coding units 1014a and 1014b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 150 may divide the left second coding unit 1010a and the right second coding unit 1010b in the horizontal direction to determine the third coding units 1016a, 1016b, 1016c, and 1016d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1000 is divided into four square second coding units 1030a, 1030b, 1030c, and 1030d.
  • the image decoding apparatus 150 may determine the third coding units 1022a and 1022b having a square shape by dividing the upper second coding unit 1020a in the vertical direction, and the lower second coding unit 1020b. ) May be divided in the vertical direction to determine the third coding units 1024a and 1024b having a square shape. Furthermore, the image decoding apparatus 150 may divide the upper second coding unit 1020a and the lower second coding unit 1020b in the vertical direction to determine the third coding units 1022a, 1022b, 1024a, and 1024b having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1000 is divided into four square second coding units 1030a, 1030b, 1030c, and 1030d.
  • FIG. 11 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • the image decoding apparatus 150 may divide the first coding unit 1100 based on the block shape information and the split shape information.
  • the image decoding apparatus 150 may determine the first coding unit 1100. ) May be determined to determine a second coding unit (eg, 1110a, 1110b, 1120a, 1120b, 1130a, 1130b, 1130c, 1130d, etc.). Referring to FIG.
  • the second coding units 1110a, 1110b, 1120a, and 1120b of the non-square shape determined by dividing the first coding unit 1100 only in the horizontal direction or the vertical direction may have block shape information and split shape information for each. It can be divided independently based on.
  • the image decoding apparatus 150 divides the second coding units 1110a and 1110b generated by splitting the first coding unit 1100 in the vertical direction in the horizontal direction, respectively, to generate the third coding unit 1116a, 1116b, 1116c and 1116d, and the second coding units 1120a and 1120b generated by splitting the first coding unit 1100 in the horizontal direction, respectively, are divided into the third coding units 1126a, 1126b, and 1126c. 1126d). Since the splitting process of the second coding units 1110a, 1110b, 1120a, and 1120b has been described above with reference to FIG. 9, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 6, and thus detailed descriptions thereof will be omitted. Referring to FIG. 11, the image decoding apparatus 150 splits a first coding unit 1100 having a square shape, and thus, four third coding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d having four square shapes. ) Can be determined.
  • the image decoding apparatus 150 may process a sequence of the third coding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d according to a form in which the first coding unit 1100 is divided. You can decide.
  • the image decoding apparatus 150 determines the third coding units 1116a, 1116b, 1116c, and 1116d by dividing the second coding units 1110a and 1110b generated by dividing in the vertical direction in the horizontal direction, respectively.
  • the image decoding apparatus 150 may first process the third coding units 1116a and 1116b included in the left second coding unit 1110a in the vertical direction, and then include the right coding unit 1110b.
  • the third coding units 1116a, 1116b, 1116c, and 1116d may be processed according to an order 1117 of processing the third coding units 1116c and 1116d in the vertical direction.
  • the image decoding apparatus 150 determines the third coding units 1126a, 1126b, 1126c, and 1126d by dividing the second coding units 1120a and 1120b generated by dividing in the horizontal direction, respectively.
  • the image decoding apparatus 150 may first process the third coding units 1126a and 1126b included in the upper second coding unit 1120a in the horizontal direction, and then include the lower coding unit 1120b.
  • the third coding units 1126a, 1126b, 1126c, and 1126d may be processed according to an order 1127 of processing the third coding units 1126c and 1126d in the horizontal direction.
  • second coding units 1110a, 1110b, 1120a, and 1120b may be divided, respectively, and square third coding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d may be determined. have.
  • the second coding units 1110a and 1110b determined by dividing in the vertical direction and the second coding units 1120a and 1120b determined by dividing in the horizontal direction are divided into different forms, but are determined after the third coding unit 1116a.
  • the first coding unit 1100 is divided into coding units having the same shape.
  • the image decoding apparatus 150 may recursively divide the coding units through different processes based on at least one of the block shape information and the split shape information, thereby determining the coding units having the same shape. Coding units may be processed in different orders.
  • FIG. 12 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the image decoding apparatus 150 may determine the depth of the coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 150 may have a square shape based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • One coding unit 1200 may be divided to determine a second coding unit 1202, a third coding unit 1204, or the like of a lower depth. If the size of the square first coding unit 1200 is 2Nx2N, the second coding unit 1202 determined by dividing the width and height of the first coding unit 1200 by 1/21 times may have a size of NxN. have.
  • the third coding unit 1204 determined by dividing the width and the height of the second coding unit 1202 into half sizes may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 1204 correspond to 1/22 times the first coding unit 1200.
  • the depth of the first coding unit 1200 is D
  • the depth of the second coding unit 1202 that is 1/21 times the width and the height of the first coding unit 1200 may be D + 1
  • the depth of the third coding unit 1204, which is 1/22 times the width and the height of 1200 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ')
  • the image decoding apparatus 150 divides the first coding unit 1210 or 1220 having a non-square shape to form the second coding unit 1212 or 1222 of the lower depth
  • the third coding unit 1214 or 1224 may be determined.
  • the image decoding apparatus 150 may determine a second coding unit (eg, 1202, 1212, 1222, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 1210. That is, the image decoding apparatus 150 may divide the first coding unit 1210 in the horizontal direction to determine the second coding unit 1202 having the NxN size or the second coding unit 1222 having the NxN / 2 size.
  • the second coding unit 1212 having a size of N / 2 ⁇ N may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 150 determines a second coding unit (eg, 1202, 1212, 1222, etc.) by dividing at least one of a width and a height of the 2N ⁇ N first coding unit 1220. It may be. That is, the image decoding apparatus 150 may determine the second coding unit 1202 having the NxN size or the second coding unit 1212 having the N / 2xN size by dividing the first coding unit 1220 in the vertical direction.
  • the second coding unit 1222 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 150 determines a third coding unit (eg, 1204, 1214, 1224, etc.) by dividing at least one of a width and a height of the NxN-sized second coding unit 1202. It may be. That is, the image decoding apparatus 150 determines the third coding unit 1204 having the size of N / 2xN / 2 by dividing the second coding unit 1202 in the vertical direction and the horizontal direction, or makes the N / 2xN / 2 sized product.
  • the third coding unit 1214 may be determined or the third coding unit 1224 having a size of N / 2 ⁇ N / 2 may be determined.
  • the image decoding apparatus 150 splits at least one of the width and the height of the N / 2xN sized second coding unit 1212 to generate a third coding unit (eg, 1204, 1214, 1224, etc.). May be determined. That is, the image decoding apparatus 150 divides the second coding unit 1212 in the horizontal direction, so that the third coding unit 1204 having the size of N / 2 ⁇ N / 2 or the third coding unit 1224 having the size of N / 2xN / 2 is included. ) May be determined or divided into vertical and horizontal directions to determine a third coding unit 1214 having a size of N / 2 ⁇ N / 2.
  • the image decoding apparatus 150 divides at least one of the width and the height of the NxN / 2-sized second coding unit 1214 to generate a third coding unit (eg, 1204, 1214, 1224, etc.). May be determined. That is, the image decoding apparatus 150 divides the second coding unit 1212 in the vertical direction to form a third coding unit 1204 having a size of N / 2xN / 2 or a third coding unit 1214 having a size of N / 2xN / 2. ) May be determined or divided into the vertical direction and the horizontal direction to determine the third coding unit 1224 having the size of N / 2 ⁇ N / 2.
  • the image decoding apparatus 150 may divide a coding unit having a square shape (for example, 1200, 1202, and 1204) in a horizontal direction or a vertical direction.
  • the first coding unit 1200 having a size of 2Nx2N is split in the vertical direction to determine the first coding unit 1210 having a size of Nx2N, or the first coding unit 1220 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by splitting the first coding unit 1200, 1202, or 1204 having a size of 2N ⁇ 2N into the horizontal or vertical direction is determined. May be the same as the depth of the first coding unit 1200, 1202, or 1204.
  • the width and height of the third coding unit 1214 or 1224 may correspond to 1/2 times the first coding unit 1210 or 1220.
  • the depth of the first coding unit 1210 or 1220 is D
  • the depth of the second coding unit 1212 or 1214 which is 1/2 the width and height of the first coding unit 1210 or 1220
  • the depth of the third coding unit 1214 or 1224 which is 1/2 the width and the height of the first coding unit 1210 or 1220, may be D + 2.
  • FIG. 13 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the image decoding apparatus 150 may determine a second coding unit having various forms by dividing the first coding unit 1300 having a square shape. Referring to FIG. 13, the image decoding apparatus 150 divides the first coding unit 1300 in at least one of a vertical direction and a horizontal direction according to the split type information to form second coding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d). That is, the image decoding apparatus 150 may determine the second coding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d based on the split shape information about the first coding unit 1300.
  • the second coding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d that are determined according to split shape information about the first coding unit 1300 having a square shape may have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 1300 having a square shape and the length of the long side of the second coding units 1302a, 1302b, 1304a, and 1304b having a non-square shape are the same, the first coding unit ( 1300 and the depths of the non-square second coding units 1302a, 1302b, 1304a, and 1304b may be regarded as D.
  • the image decoding apparatus 150 divides the first coding unit 1300 into four square second coding units 1306a, 1306b, 1306c, and 1306d based on the split shape information, Since the length of one side of the two coding units 1306a, 1306b, 1306c, and 1306d is 1/2 times the length of one side of the first coding unit 1300, the depths of the second coding units 1306a, 1306b, 1306c, and 1306d are determined. May be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 1300.
  • the image decoding apparatus 150 divides the first coding unit 1310 having a shape whose height is greater than the width in the horizontal direction according to the split shape information, thereby providing a plurality of second coding units 1312a, 1312b, 1314a, 1314b, 1314c). According to an embodiment, the image decoding apparatus 150 divides the first coding unit 1320 having a shape having a width greater than the height in the vertical direction according to the split shape information to thereby provide a plurality of second coding units 1322a, 1322b, 1324a, 1324b and 1324c.
  • the second coding units 1312a, 1312b, 1314a, 1314b, 1316a, 1316b, 1316c, and 1316d that are determined according to split shape information about the first coding unit 1310 or 1320 having a non-square shape may be used. Depth may be determined based on the length of the long side. For example, since the length of one side of the second coding units 1312a and 1312b having a square shape is 1/2 times the length of one side of the first coding unit 1310 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 1302a, 1302b, 1304a, and 1304b of the form are D + 1, which is one depth lower than the depth D of the first coding unit 1310 of the non-square form.
  • the image decoding apparatus 150 may divide the non-square first coding unit 1310 into odd second coding units 1314a, 1314b, and 1314c based on the split shape information.
  • the odd numbered second coding units 1314a, 1314b, and 1314c may include non-square second coding units 1314a and 1314c and square shape second coding units 1314b.
  • the length of the long side of the second coding units 1314a and 1314c of the non-square shape and the length of one side of the second coding unit 1314b of the square shape is 1 / time of the length of one side of the first coding unit 1310.
  • the depths of the second coding units 1314a, 1314b, and 1314c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1310.
  • the image decoding apparatus 150 corresponds to the above-described method of determining depths of coding units associated with the first coding unit 1310 and is related to the first coding unit 1320 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 150 may determine the size ratio between the coding units.
  • the index can be determined based on this. Referring to FIG. 13, a coding unit 1314b positioned in the center of odd-numbered split coding units 1314a, 1314b, and 1314c has the same width as the other coding units 1314a and 1314c but has a different height. It may be twice the height of the fields 1314a, 1314c. That is, in this case, the coding unit 1314b positioned in the center may include two of the other coding units 1314a and 1314c.
  • the image decoding apparatus 150 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 150 may determine whether the image decoding apparatus 150 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 13, the image decoding apparatus 150 determines an even number of coding units 1312a and 1312b by dividing a first coding unit 1310 having a rectangular shape having a height greater than a width, or an odd number of coding units 1314a and 1314b. 1314c). The image decoding apparatus 150 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 150 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for distinguishing coding units. According to an embodiment, when the split type information of the first coding unit 1310 having a height greater than the width is divided into three coding units, the image decoding apparatus 150 may determine the first coding unit 1310. It may be divided into three coding units 1314a, 1314b, and 1314c. The image decoding apparatus 150 may allocate an index for each of three coding units 1314a, 1314b, and 1314c. The image decoding apparatus 150 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 150 encodes a coding unit 1314b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 1310. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 150 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 13, the coding unit 1314b generated by splitting the first coding unit 1310 may include the coding units 1314a and 1314c having the same width but different heights as the other coding units 1314a and 1314c.
  • the image decoding apparatus 150 may determine that the image decoding apparatus 150 is divided into a plurality of coding units including coding units having different sizes from other coding units. In this case, when the split form information is divided into odd coding units, the image decoding apparatus 150 may have a shape different from a coding unit having a different coding unit (for example, a middle coding unit) at a predetermined position among the odd coding units.
  • the current coding unit can be divided by.
  • the image decoding apparatus 150 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 150 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 14 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 150 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 150 may divide a plurality of reference data units for dividing a current picture by using split information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 150 may determine in advance a minimum size that the reference data unit included in the current picture may have. Accordingly, the image decoding apparatus 150 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit using block shape information and split shape information based on the determined reference data unit. You can decide.
  • the image decoding apparatus 150 may use a reference coding unit 1400 having a square shape, or may use a reference coding unit 1402 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiver 160 of the image decoding apparatus 150 may obtain at least one of information about the shape of the reference coding unit and information about the size of the reference coding unit from the bitstream for each of the various data units. .
  • the process of determining at least one coding unit included in the reference coding unit 1400 having a square shape is described above by splitting the current coding unit 300 of FIG. 10.
  • the reference coding unit 1400 having a non-square shape has been described above. Since the process of determining at least one coding unit included in the above is described above through the process of splitting the current coding unit 1100 or 1150 of FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment, a maximum coding unit, etc.
  • an index for identifying the size and shape of the reference coding unit may be obtained.
  • the image decoding apparatus 150 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 150 selects at least one of the size and shape of the predetermined reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for index acquisition. You can decide.
  • the image decoding apparatus 150 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure. That is, the image decoding apparatus 150 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and at least one of the block shape information and the split shape information according to various embodiments. Can be divided based on.
  • FIG. 15 illustrates a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1500, according to an exemplary embodiment.
  • the image decoding apparatus 150 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the image decoding apparatus 150 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 150 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the receiver 160 of the image decoding apparatus 150 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 160 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 150 may divide the picture using at least the information about the size of the acquired processing block.
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 150 may determine the sizes of the processing blocks 1502 and 1512 included in the picture 1500. For example, the image decoding apparatus 150 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 15, the image decoding apparatus 150 may have a horizontal size of the processing blocks 1502 and 1512 equal to four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an exemplary embodiment. You can decide. The image decoding apparatus 150 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 150 may determine each processing block 1502 and 1512 included in the picture 1500 based on the size of the processing block, and include the processing block 1502 and 1512 in the processing block 1502 and 1512.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 150 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream and based on the obtained information about the determination order.
  • the order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 150 may obtain information on a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 160 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 150 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the receiver 160 may obtain information on a determination order of a reference coding unit from the bitstream as information related to the processing blocks 1502 and 1512, and the image decoding apparatus 150 may process the processing block ( An order of determining at least one reference coding unit included in 1502 and 1512 may be determined, and at least one reference coding unit included in the picture 1500 may be determined according to the determination order of the coding unit.
  • the image decoding apparatus 150 may determine the determination orders 1504 and 1514 of at least one reference coding unit associated with each processing block 1502 and 1512. For example, when information about a determination order of a reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 1502 and 1512 may be different for each processing block.
  • the reference coding units included in the processing block 1502 may be determined according to the raster scan order.
  • the reference coding unit determination order 1514 associated with another processing block 1512 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 1512 may be determined according to the reverse order of the raster scan order.
  • 1 through 15 illustrate a method of dividing an image into maximum coding units and dividing the maximum coding unit into coding units having a hierarchical tree structure. 16 to 25, it will be described in what encoding order to encode or decode coding units by 1 according to a depth determined by dividing a coding unit.
  • FIG. 16 illustrates a video decoding apparatus 1600 according to an embodiment of dividing a current block and determining an encoding order of divided lower blocks.
  • the video decoding apparatus 1600 includes a block splitter 1610, an encoding order determiner 1620, a prediction method determiner 1630, and a block decoder 1640.
  • the block divider 1610, the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 are represented by separate structural units. 1610, the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 may be combined and implemented in the same component unit.
  • the block divider 1610, the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 are represented by structural units located in one apparatus, but the block divider 1610 is represented.
  • the apparatuses in charge of the functions of the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 are not necessarily physically adjacent to each other. Therefore, in some embodiments, the block splitter 1610, the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 may be distributed.
  • the block splitter 1610, the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 may be implemented by one processor according to an exemplary embodiment. In some embodiments, the present invention may also be implemented by a plurality of processors.
  • the functions performed by the block splitter 1610, the encoding order determiner 1620, the prediction method determiner 1630, and the block decoder 1640 of FIG. 16 may be performed by the decoder 180 of FIG. 1B. .
  • the block splitter 1610 may obtain split information indicating whether a current block is split.
  • the splitting information indicates whether to split the current block into two or more smaller blocks.
  • the block division unit 1610 divides the current block into two or more lower blocks.
  • the current block may be divided into various types according to the shape of the current block. For example, when the current block is a square, the current block may be divided into four square-shaped lower blocks according to the split information.
  • the block division unit 1610 may select a division method according to the division type information. Therefore, when the partition information indicates partitioning of the current block, the block partitioning unit 1610 may obtain partition type information indicating a partitioning method of the current block. The block dividing unit 1610 may divide the current block according to the dividing method indicated by the dividing type information.
  • the partition type information may indicate a partitioning method applied to the current block among NxN partitioning, 2NxN partitioning, Nx2N partitioning, vertical nonuniform triangulation, and horizontal nonuniform triangulation.
  • NxN partitioning is a method of dividing a current block into four NxN sized blocks.
  • 2NxN partitioning is a method of dividing a current block into blocks having a size of 2NxN.
  • Nx2N partitioning is a method of dividing a current block into blocks of size Nx2N.
  • Vertical non-uniform triangulation refers to a method of dividing a 2N ⁇ 2N size block into three blocks having the same width and a height ratio of 1: 2: 1.
  • Horizontal non-uniform triangulation refers to a method of dividing a 2N ⁇ 2N size block into three blocks having the same height and having a width ratio of 1: 2: 1.
  • the current block may be divided by one of various horizontal division methods or vertical division methods.
  • the partition type information may indicate a partitioning method applied to the current block among N ⁇ N partitioning and vertical non-uniform triangulation.
  • NxN partitioning is a method of dividing a current block into two NxN sized blocks.
  • Vertical non-uniform triangulation refers to a method of dividing a 2N ⁇ N size block into three blocks having the same width and a height ratio of 1: 2: 1.
  • the current block may be divided by one of various horizontal division methods or vertical division methods.
  • the partition type information may indicate a partitioning method applied to the current block among NxN partitioning and horizontal non-uniform triangulation.
  • NxN partitioning is a method of dividing a current block into two NxN sized blocks.
  • Horizontal non-uniform triangulation refers to a method of dividing an Nx2N size block into three blocks having the same height and having a width ratio of 1: 2: 1.
  • the current block may be divided by one of various horizontal division methods or vertical division methods.
  • a partitioning method of the current block in an asymmetrical ratio, a partitioning method of a triangle, and a partitioning method of other geometric shapes may be used for partitioning a current block of square and rectangular sizes.
  • the block division unit 1610 does not divide the current block when the partition information does not indicate division of the current block.
  • the block decoder 1640 then decodes the current block.
  • the block splitter 1610 determines the current block as the final coding unit.
  • the final coding unit is no longer divided into coding units having a larger depth.
  • the block decoder 1640 may cause the block splitter 1610 to divide the current block.
  • the block dividing unit 1610 may divide the current block into one or more prediction units according to a hierarchical tree structure. Similarly, the block dividing unit 1610 may divide the current block into one or more transformation units according to a hierarchical tree structure.
  • the block decoder 1640 may reconstruct the current block according to a prediction result for the prediction unit and a transform result for the transform unit.
  • the block decoder 1640 may perform prediction on the current block. If the current block is a transform unit, the block decoder 1640 may obtain residual data by inverse quantization and inverse transform of the quantized transform coefficients of the current block.
  • the encoding order determiner 1620 obtains encoding order information indicating an encoding order of lower blocks.
  • the encoding order determiner 1620 may determine the decoding order of the lower blocks according to the obtained encoding order information.
  • the encoding order information indicates an encoding order of two or more lower blocks included in the current block.
  • the data amount of encoding order information is determined according to the number of lower blocks and the encoding order determination method.
  • the encoding order information may be determined to indicate a lower coded coded one among the two lower blocks. Therefore, it may have a form of a flag having a data amount of 1 bit.
  • an encoding order determination method of determining an encoding order by determining whether the encoding order of some lower block pairs is swapped in a predetermined basic encoding order may be used. .
  • the encoding order information indicating whether or not the encoding order of the lower block pairs are swapped indicates whether the encoding order is forward or reverse with respect to the basic encoding order.
  • the current picture including the current block is encoded and decoded according to a basic encoding order. All blocks and pixels encoded and decoded in the current picture are encoded and decoded according to a basic encoding order at the same level. Therefore, lower blocks of the same level divided from the current block are also encoded and decoded according to the basic encoding order.
  • An embodiment of the basic encoding order is illustrated in FIGS. 17A to 17C to be described later.
  • the lower block pair when the lower block pair is encoded according to the basic encoding order, the lower block pair is said to be encoded in the forward direction.
  • the lower block pair when the lower block pair is encoded in the reverse order of the basic encoding order, the lower block pair is said to be encoded in the reverse direction.
  • encoding order information may be determined so that the lower block on the left side is first decoded.
  • encoding order information may be determined such that the right lower block is first decoded.
  • encoding order information may be determined such that the upper lower block is first decoded.
  • encoding order information may be determined such that the lower lower block is first decoded.
  • the encoding order information When the encoding order information indicates only the encoding order of the lower block pairs, the encoding order information has a data amount of 1 bit. Encoding order information having a data amount of 1 bit may be defined as an encoding order flag.
  • the encoding order determiner 1620 may obtain encoding order information from the bitstream.
  • the coding order information may be located after the split information in the bitstream.
  • the encoding order determiner 1620 may implicitly determine the encoding order information according to the surrounding environment of the current block.
  • the encoding order information may be determined according to whether to encode neighboring blocks adjacent to the current block. For example, the encoding order determiner 1620 may determine that a lower block having many adjacent neighboring blocks among lower blocks is decoded first.
  • FIGS. 17A to 17C a basic encoding order according to an embodiment is described with reference to FIGS. 17A to 17C.
  • the basic coding order of FIGS. 17A to 17C is the Z coding order.
  • the Z encoding order data units are encoded from left to right, and when all data units of the current row are encoded, data units included in a lower row of the current row are encoded from left to right.
  • the Z coding order described above is called a raster scan order.
  • FIG. 17A illustrates coding sequences according to Z coding order of the largest coding units included in the current picture 1700.
  • Z coding order indexes of 0 to 15 are set in maximum coding units.
  • the maximum coding units of one row having indexes of 0 to 3 are first encoded according to the Z coding order, and the maximum coding units of two rows having indexes of 4 to 7 are encoded from left to right.
  • the maximum coding unit is also internally coded according to the Z coding order.
  • the coding order of the maximum coding unit 1710 of the sixth index among the largest coding units included in the current picture 1700 is illustrated.
  • Indices of 0 to 15 are set in coding units of the final depth in which division is completed according to the Z coding order.
  • the Z coding order is applied to data units having the same depth.
  • the coding unit of the lower-order depth n is not encoded until all lower coding units of the coding unit of the depth n are encoded. For example, coding units having an index of 15 are not encoded until all coding units having an index of 5 to 14 are encoded.
  • the coding unit is also internally coded according to the Z coding order.
  • FIG. 17C a reference sample referenced by the coding unit 1724 of index 6 of the coding units included in the maximum coding unit 1710 is displayed. Only the coding unit 1712 of index 0 and the coding unit 1722 of index 5 are reconstructed around the coding unit 1724 of index 6 currently being encoded. Accordingly, only the pixel 1750 of the coding unit 1712 and the pixel 1760 of the coding unit 1722 may be used as a reference sample with respect to the coding unit 1724.
  • the Z coding order of FIGS. 17A through 17C may be applied in different directions according to data units.
  • the Z coding order may be changed to encode data units from right to left in the same row.
  • the Z encoding order may be changed such that data units included in the upper row of the current row are encoded after all data units of the current row are encoded.
  • the Z encoding order may be changed such that data units are encoded from the top to the bottom in the same column, and after the data units of the current column are all encoded, the data units included in the right column of the current column are encoded.
  • FIGS. 18A and 18B show a case 1800 in which the coding unit 1810 is encoded in a forward direction and a case 1802 in which the coding unit 1820 is encoded in a reverse direction, respectively. . Advantages obtained by changing the coding order according to FIGS. 18A and 18B are described.
  • the coding units 1810 and 1820 of FIGS. 18A and 18B are predicted according to the intra mode in the upper right direction.
  • the continuous lines 1830 of FIGS. 18A and 18B are pixels having constant values arranged in a straight line in the original image. Therefore, when the current coding unit is predicted in the direction of the continuous line 1830, the prediction accuracy of the coding units 1810 and 1820 will be improved.
  • the current coding unit 1810 refers to pixels or encoding information of a left coding unit, an upper coding unit, and a right upper coding unit.
  • pixels 1816 located at the lower edge of the right upper coding unit are used for prediction of the current coding unit 1810.
  • the pixels 1816 may be spatially separated from the current coding unit 1810 such that the prediction accuracy of the portion 1814 of the current coding unit 1810 may be low.
  • the left coding unit of the right unit may be used for prediction of the current coding unit 1820. Since the pixels 1826 are adjacent to the current coding unit 1820, the prediction accuracy for the portion 1824 of the current coding unit 1820 is higher than the prediction accuracy for the portion 1814 of the current coding unit 1810. Can be.
  • the current coding unit and the right coding unit of the current coding unit are coding units for the same object, the current coding unit may be similar to the motion information of the right coding unit. Therefore, the coding efficiency can be increased by deriving the motion information of the current coding unit from the motion information of the right coding unit.
  • the encoding efficiency of the image can be improved by comparing the encoding efficiency when encoding in the forward direction with the encoding efficiency when encoding in the reverse direction and determining the encoding order.
  • the encoding order information may be set to be the same as the encoding order information applied to the upper block of the current block.
  • the encoding order determiner 1620 may apply encoding order information applied to the coding unit including the current block to the current block.
  • the encoding order determiner 1620 may apply coding order information applied to a coding unit having a depth lower than that of the current block, to the current block.
  • the encoding order determiner 1620 acquires only one encoding order flag from the bitstream, and the remaining encoding order flags are linked to the encoding order flags obtained from the bitstream. You can decide.
  • FIG. 19 illustrates a tree structure of a maximum coding unit for describing a coding order of the maximum coding unit and the coding units included in the maximum coding unit.
  • the maximum coding unit 1950 is divided into a plurality of coding units 1956, 1958, 1960, 1962, 1968, 1970, 1972, 1974, 1980, 1982, 1984, and 1986.
  • the maximum coding unit 1950 corresponds to the highest node 1900 of the tree structure.
  • the plurality of coding units 1956, 1958, 1960, 1962, 1968, 1970, 1972, 1974, 1980, 1982, 1984, and 1986 respectively represent a plurality of nodes 1906, 1908, 1910, 1912, 1918, 1920, 1922, 1924, 1930, 1932, 1934, and 1936.
  • the upper coding order flags 1902, 1914, and 1926 representing the coding order in the tree structure correspond to the arrows 1952, 1964, and 1976, and the upper coding order flags 1904, 1916, and 1928 correspond to the arrows 1954, 1966, and 1978. Corresponds to).
  • the upper coding order flag indicates a coding order of two coding units located on top of four coding units having the same depth. If the upper coding order flag is 0, encoding is performed in the forward direction. On the contrary, when the upper coding order flag is 1, encoding is performed in the reverse direction.
  • the lower coding order flag indicates a coding order of two coding units located at the bottom of four coding units having the same depth. If the lower coding order flag is 0, encoding is performed in the forward direction. On the contrary, when the lower coding order flag is 1, encoding is performed in the reverse direction.
  • the coding order between the coding units 1968 and 1970 is determined from the left to the right in the forward direction. Since the lower coding order flag 1916 is 1, the coding order between the coding units 1972 and 1974 is determined from the right to the left in the reverse direction.
  • the upper coding order flag and the lower coding order flag may be set to have the same value.
  • the upper coding order flag 1902 is determined as 1
  • the lower coding order flag 1904 corresponding to the upper coding order flag 1902 may also be determined as 1. Since the values of the upper coding order flag and the lower coding order flag are determined by one bit, the amount of information of the coding order information is reduced.
  • the upper coding order flag and the lower coding order flag of the current coding unit may be determined by referring to at least one of an upper coding order flag and a lower coding order flag applied to a coding unit having a depth lower than that of the current coding unit.
  • the upper coding order flag 1926 and the lower coding order flag 1928 applied to the coding units 1980, 1982, 1984, and 1986 are the lower coding order flags 1916 applied to the coding units 1972 and 1974. It can be determined based on.
  • the upper encoding order flag 1926 and the lower encoding order flag 1928 may be determined to have the same value as the encoding order flag 1916. Since the values of the upper coding order flag and the lower coding order flag are determined from higher coding units of the current coding unit, coding order information is not obtained from the bitstream. Therefore, the amount of information of the coding order information is reduced.
  • FIGS. 20A and 20B describe how the encoding order of three or more blocks arranged in the vertical or horizontal direction is changed according to the encoding order flag.
  • FIG. 20A relates to a method of swapping an encoding order based on an encoding order flag only when encoding orders of spatially adjacent coding units are adjacent to each other.
  • the coding unit 2000 is divided into three coding units 2010, 2020, and 2030.
  • the basic coding order is from left to right, the coding is performed in the order of the coding unit 2010, the coding unit 2020, and the coding unit 2030.
  • the encoding order may be changed according to the encoding order flags 2040 and 2050.
  • the coding order flag 2040 indicates a coding order of the coding unit 2010 and the coding unit 2020.
  • the coding order flag 2040 is 0, the coding order of the coding unit 2010 and the coding unit 2020 is determined in the forward direction. Therefore, the coding unit 2010 is encoded before the coding unit 2020.
  • the coding order flag 2040 is 1, the coding order of the coding unit 2010 and the coding unit 2020 is determined in the reverse direction, and the coding unit 2020 is encoded before the coding unit 2010.
  • the coding order flag 2050 indicates a coding order of the coding unit 2020 and the coding unit 2030.
  • the encoding order flag 2050 is obtained when the encoding order flag 2040 indicates a forward direction. If the coding order flag 2040 indicates the reverse direction, the coding order of the coding unit 2020 and the coding unit 2030 are not adjacent to each other, and the coding order flag 2050 is not obtained.
  • the coding order flag 2050 is 0, the coding order of the coding unit 2020 and the coding unit 2030 is determined in the forward direction. Therefore, the coding unit 2020 is encoded before the coding unit 2030.
  • the coding order flag 2050 is 1, the coding order of the coding unit 2020 and the coding unit 2030 is determined in the reverse direction, and the coding unit 2030 is encoded before the coding unit 2020.
  • the coding order of three coding units has three cases. Therefore, one or two coding order flags are used to determine the coding order.
  • FIG. 20B relates to a method of determining a coding order based on a coding order flag 2060 indicating a direction of a coding order applied to three coding units.
  • the encoding order flag 2060 indicates whether the encoding order is forward or reverse. For example, when the coding order flag 2060 is 0, the coding order of the coding units 2010, 2020, and 2030 may be determined in the forward direction. Accordingly, when the encoding order flag 2060 is 0, the encoding order flag 2060 may be encoded in the order of the coding unit 2010, the coding unit 2020, and the coding unit 2030.
  • the encoding order flag 2060 when the encoding order flag 2060 is 1, the encoding order of the coding units 2010, 2020, and 2030 may be determined in a reverse direction. Therefore, when the encoding order flag 2060 is 1, the encoding order flag 2060 may be encoded in the order of the coding unit 2030, the coding unit 2020, and the coding unit 2010.
  • the coding order of three coding units has two cases. Therefore, one coding order flag is used to determine the coding order.
  • the coding order determination methods used in the embodiments of FIGS. 20A and 20B may be applied to four or more coding units.
  • the encoding order determiner 1620 may check encoding order change permission information on the higher data unit of the current block.
  • the encoding order change allowance information indicates whether a change of an encoding order is permitted for blocks included in a higher data unit of a current block. If the encoding order change allowance information does not allow the change of the encoding order, all blocks of the higher data unit are decoded according to the basic encoding order. Alternatively, all blocks of the higher data unit may be decoded according to the encoding order of the data unit to which the higher data unit belongs. If the encoding order change allowance information indicates that encoding order information for the current block is encoded, the encoding order determiner 1620 may obtain encoding order information.
  • the encoding order change allowance information may be included in a video parameter set, a sequence parameter set, a picture parameter set, a slice segment header, and a maximum coding unit header. Can be.
  • encoding order change permission information for each encoding order information may be divided and stored in different headers.
  • the encoding order change allowance information may indicate a depth or a block size to which encoding order information is provided.
  • the encoding order determiner 1620 may obtain the encoding order information only when the depth of the current block is included in the depth indicated by the encoding order change permission information.
  • the encoding order determiner 1620 may obtain encoding order information only when the depth of the current block is a block size indicated by the encoding order change permission information.
  • the prediction method determiner 1630 may determine the prediction method of the current block according to encoding information of the current block and whether to decode neighboring blocks of the current block.
  • the encoding information of the current block may indicate how the current block is predicted.
  • the encoding information may indicate one prediction method among a plurality of intra prediction modes and an inter prediction mode.
  • Intra prediction modes that can be applied to the current block include a directional mode, a DC mode, a planner mode, a multi-parameter intra prediction mode (MPI) mode, a linear-model chroma mode, a most probable chroma mode (MPC mode), and the like. This may be included.
  • Inter prediction modes that can be applied to the current block include merge mode, advanced motion vector prediction mode, inter skip mode, overlapped block motion compensation mode, and sub-block MVP mode.
  • the prediction method determiner 1630 may determine a prediction mode applied to the current block according to encoding information of the current block.
  • a reference block and a reference sample referred to the prediction of the current block may be determined. According to the raster scan described with reference to FIGS. 17A through 17C, only the left, upper, upper left, upper right and lower left blocks of the current block may be decoded before the current block. However, when the encoding tree block to which the current block belongs is encoded according to a coding order different from that of the raster scan by the encoding order determiner 1620, the right block and the lower right block of the current block may also be decoded before the current block. Accordingly, the prediction method determiner 1630 determines the reference block and the reference sample referred to the prediction of the current block according to whether the left, upper, upper left, upper right, lower left, right, and lower right blocks of the current block are decoded. Can be.
  • the prediction method determiner 1630 may determine reference samples to be referenced by the current block according to whether to decode a neighboring block of the current block.
  • the prediction value of the samples of the current block is determined by referring to the sample values of the samples adjacent to the current block. Therefore, only neighboring blocks that are decoded before the current blocks among the neighboring blocks of the current block and can be referred to by the current block may be used for prediction of the current block.
  • reference samples of the upper block, the left block, the upper left block, the lower left block, and the upper right block of the current block predict the current sample.
  • reference samples of the upper block, the right block, the upper right block, the lower right block, and the upper left block of the current block may be used for prediction of the current sample.
  • 21 shows a method of determining a reference sample required for the directional intra prediction mode.
  • the first embodiment 2120 shows reference samples 2102, 2106, 2108, and 2110 used for intra prediction when blocks of an upper row and a left block are reconstructed.
  • reference samples 2102 and 2106 of the reconstructed upper blocks and reference samples 2108 of the reconstructed left block may be used for intra prediction.
  • the reference samples 2110 of the lower left block may be used only when the lower left block is reconstructed.
  • Prediction directions included in the first intra prediction direction group 2125 may be used for intra prediction of the current block 2100 to use the reference samples 2102, 2106, 2108, 2110.
  • the second embodiment 2130 shows reference samples 2102, 2104, 2112, and 2114 used for intra prediction when the blocks of the upper row and the right block are reconstructed.
  • reference samples 2102 and 2104 of the reconstructed upper blocks and reference samples 2112 of the reconstructed right block may be used for intra prediction.
  • Reference samples 2114 of the lower right block may be used only when the lower right block is reconstructed.
  • the prediction directions included in the second intra prediction direction group 2135 to use the reference samples 2102, 2104, 2112, and 2114 may be used for intra prediction of the current block 2100.
  • the third embodiment 2140 shows reference samples 2102, 2108, and 2112 used for intra prediction when the upper block, the right block, and the left block are reconstructed.
  • reference samples 2102 of the upper block, reference samples 2108 of the left block, and reference samples 2112 of the right block may be used for intra prediction.
  • the prediction directions included in the third intra prediction direction group 2145 may be used for intra prediction of the current block 2100.
  • the accuracy of prediction is low. There is a risk.
  • the prediction accuracy may be relatively higher than in other embodiments.
  • the fourth embodiment 2150 shows reference samples 2102, 2104, and 2106 used for intra prediction when only blocks of an upper row are reconstructed.
  • only reference samples 2102, 2104, and 2106 of reconstructed upper blocks may be used for intra prediction.
  • the prediction directions included in the fourth intra prediction direction group 2155 may be used for intra prediction of the current block 2100.
  • the intra prediction method used in the fourth embodiment 2150 is preferably a vertical mode using a reference sample 2102 of an upper block adjacent to the current block 2100 or a directional prediction mode in a direction adjacent to the vertical mode.
  • the intra prediction method according to the first embodiment 2120 is used.
  • the right prediction block is the intra prediction method according to the fourth embodiment 2150. Can be predicted.
  • the left block may be reconstructed by the intra prediction method according to the third embodiment 2140, so that the left block may be reconstructed.
  • FIG. 22A and 22B illustrate a method of predicting a DC mode according to whether a right block is decoded.
  • FIG. 22A illustrates a range of reference samples when the coding order of a current block is fixed to a basic coding order according to a raster scan.
  • 22B shows a range of reference samples when the coding order of the current block is not fixed to the basic coding order.
  • decoded samples among samples 2210 adjacent to the left, top, and top left sides of the current block 2200 may be used as reference samples.
  • the samples adjacent to the left, upper, upper left, upper right and right sides of the current block 2230 may be used as reference samples.
  • FIG. 23A to 23C illustrate a planar mode prediction method according to whether a right block is decoded.
  • FIG. 23A illustrates a method of determining a prediction value of a current sample in a planner mode when a coding order of a current block is fixed to a basic coding order according to a raster scan.
  • 23B and 23C illustrate a method of determining a prediction value of a current sample in a planner mode when a coding order of a current block is not fixed to a basic coding order.
  • double interpolation values of four reference samples 2302, 2304, 2306, and 2308 for the current sample 2300 are determined as prediction values of the current sample.
  • the horizontal interpolation value is determined by linearly interpolating the first edge sample 2302 and the first side sample 2304 based on the horizontal position of the current sample 2300.
  • the vertical interpolation value is then determined by linearly interpolating the second edge sample 2306 and the second side sample 2308 based on the vertical position of the current sample 2300.
  • the average value of the horizontal interpolation value and the vertical interpolation value is determined as the prediction value of the current sample 2300.
  • FIG. 23B In the case of FIG. 23B, four reference samples 2312, 2314, 2316, and 2318 are determined symmetrically with FIG. 23A.
  • the planar mode prediction method of FIG. 23B differs from FIG. 23A only in the positions of reference samples.
  • the horizontal interpolation value is determined by linearly interpolating the first edge sample 2312 and the first side sample 2314 based on the horizontal position of the current sample 2310.
  • the vertical interpolation value is determined by linearly interpolating the second edge sample 2316 and the second side sample 2318 based on the vertical position of the current sample 2310.
  • the average value of the horizontal interpolation value and the vertical interpolation value is determined as the prediction value of the current sample 2310.
  • the horizontal interpolation value is determined by interpolating the first side sample 2322 and the second side sample 2324 based on the horizontal distance of the current sample 2320.
  • the horizontal interpolation value is determined by interpolating the third side sample 2326 and the lower intermediate value based on the vertical position of the current sample 2320.
  • the average value of the horizontal interpolation value and the vertical interpolation value is determined as the prediction value of the current sample 2310.
  • both the left block and the right block of the current block are decoded as shown in FIG. 23C
  • one of the planner mode prediction method of FIG. 23A and the planner mode prediction method of FIG. 23B is selected, and the current block is determined according to the selected planner mode prediction method. Can be predicted.
  • the prediction value according to the planner mode may be determined by averaging the prediction value obtained according to the method of FIG. 24A and the prediction value obtained according to the method of FIG. 24B.
  • the sample located in a specific line of the current block is predicted by interpolating the left and right side samples 2304 and 2314 according to the position of the current sample. Can be.
  • the MPI mode is a method of predicting a current sample using decoded or predicted samples in a specific direction among neighboring samples of the current sample.
  • the current sample is determined as a weighted average value of the sample values of the neighboring samples, and the weight used for the weighted average value may be predicted from the neighboring block or obtained from the bitstream.
  • Sample values of neighboring blocks used for prediction of the current block may be prediction values or reconstruction values of the neighboring block.
  • 24A illustrates a current block prediction method according to an MPI mode when a coding order of a current block is fixed to a basic coding order according to a raster scan.
  • 24B to 24D illustrate a current block prediction method according to the MPI mode when the coding order of the current block is not fixed to the basic coding order.
  • the predicted value of the current sample included in the current block 2400 is an average value or weighted average value obtained by averaging or weighted averaging the sample value of the left sample of the current sample and the sample value of the upper sample of the current sample. Is determined. According to FIG. 24A, since the reference sample is located on the left side and the upper side of the current block 2400, it is first predicted from the upper left sample of the current block 2400.
  • the prediction value of the sample 2402 of the current block 2400 is determined as the weighted average value of the sample values of the reference sample 2412 and the reference sample 2414.
  • the predicted or reconstructed value of the sample 2402 is used to predict the sample 2404 on the right side of the sample 2402 and the sample 2406 on the lower side of the sample 2402.
  • the predicted value of the sample 2404 is determined by the weighted average value of the sample values of the sample 2402 and the reference sample 2416
  • the predicted value of the sample 2406 is the sample of the sample 2402 and the reference sample 2418. Determined by the weighted average of the values.
  • the weight used to determine the weighted average may be determined according to the position of the current sample. The weights are also predicted in the same way for the remaining samples of the current block 2400.
  • the predicted value of the current sample included in the current block 2420 may be an average value or weighted average obtained by averaging or weighted averaging the sample value of the right sample of the current sample and the sample value of the upper sample of the current sample. It is determined by the value.
  • the first upper right sample of the current block 2420 is predicted first.
  • the prediction value of sample 2422 of current block 2420 is determined as the weighted average value of the sample values of reference sample 2432 and reference sample 2434.
  • the predicted or reconstructed value of the sample 2422 is used to predict the sample 2424 on the left side of the sample 2422 and the sample 2426 on the lower side of the sample 2422.
  • the predicted value of the sample 2424 is determined by the weighted average of the sample values of the sample 2422 and the reference sample 2436
  • the predicted value of the sample 2426 is the sample of the sample 2422 and the reference sample 2438. Determined by the weighted average of the values.
  • the weight used to determine the weighted average may be determined according to the position of the current sample.
  • the remaining samples of the current block 2420 are also predicted in the same manner.
  • the current block may be predicted from the upper left sample of the current block to the lower right direction.
  • the current block may be predicted in the right bottom direction from the right top sample of the current block. Therefore, when only the upper block of the current block is first decoded, the prediction order and the prediction method of the samples may be determined with reference to the neighboring block of the current block or obtained from the bitstream.
  • FIG. 24C illustrates a case where the current block 2440 is predicted from the upper left sample of the current block 2440 to the lower right direction.
  • the prediction method of the current block 2440 is similar to that of FIG. 24A.
  • the samples adjacent to the left boundary of the current block 2440 are predicted only by the sample value of the upper sample because there are no samples to refer to the left side.
  • the prediction value of sample 2442 of current block 2440 is determined as the sample value of reference sample 2452.
  • the predicted or reconstructed value of the sample 2442 is used to predict the sample 2444 on the left side of the sample 2442 and the sample 2446 below the sample 2442.
  • the predicted value of the sample 2446 located at the left boundary of the current block 2440 is determined based on the predicted or reconstructed value of the sample 2442, and the samples located below the sample 2446 are predicted in the same manner. . Samples located in the remainder of the current block 2440 are predicted in the same manner as in FIG. 24A.
  • the upper block, the right block, and the left block of the current block 2460 are all decoded.
  • all of the reference samples above, right and left of the current block 2460 may be used to predict the samples of the current block 2460. Therefore, in the case of FIG. 24D, the current block 2460 may be predicted by various methods of the reference samples on the upper side, the right side, and the left side of the current block 2460.
  • the current block 2460 is divided into a left subblock 2470 and a right subblock 2480.
  • the left subblock 2470 is predicted in the order from the upper left sample to the right lower direction as shown in FIG. 24A
  • the right subblock 2480 is predicted in the order from the upper right sample to the lower left direction as shown in FIG. 24B.
  • the sample 2472 located at the upper left corner of the left sub-block 2470 is determined as an average value or weighted average value of the upper reference sample 2490 and the left reference sample 2492.
  • the remaining samples of the left subblock 2470 are also determined as an average value or weighted average value of the sample values of the left and upper samples.
  • the sample 2482 located at the upper right corner of the right sub block 2480 is determined as an average value or weighted average value of the upper reference sample 2494 and the right reference sample 2496.
  • the remaining samples of the right subblock 2480 are also determined as an average value or weighted average value of the sample values of the right and upper samples.
  • the 25A and 25B illustrate reference regions referenced in the LM chroma mode and the MPC mode.
  • the LM chroma mode and the MPC mode are prediction modes for predicting chroma blocks from luma blocks in the same position.
  • the LM chroma mode and the MPC mode commonly determine a reference region in which both luma and chroma samples are decoded, obtain a correlation between the luma sample and the chroma sample from the reference region, and sample values of the luma block corresponding to the chroma block. And predicting a chroma block according to the correlation between the luma sample and the chroma sample.
  • the LM chroma mode derives a luma-chroma linear model from the correlation between the sample value of the luma sample and the sample value of the chroma sample obtained from the reference region, and chroma from the luma block in the same position according to the luma-chroma linear model. Predict the block.
  • the MPC mode determines the most probable chroma (MPC) value for each luma sample value from the correlation between the sample value of the luma sample and the sample value of the chroma sample obtained from the reference region. Therefore, the chroma block is predicted from the luma block of the same position.
  • MPC most probable chroma
  • FIG. 25A illustrates a reference region of the LM chroma mode and the MPC mode when the coding order of the current block is fixed to the basic coding order according to the raster scan.
  • FIG. 25B illustrates reference regions of the LM chroma mode and the MPC mode when the coding order of the current block is not fixed to the basic coding order.
  • the left, top, and top left blocks of the current block 2500 are decoded. Accordingly, the reference area 2510 is set in the left, upper and left upper directions from the current block 2500.
  • the reference area 2530 is set in the right, upper, and right upper directions from the current block 2520.
  • the reference area is set to the left, upper, right, upper left, and upper right directions of the current block. Can be.
  • the widths of the reference areas 2510 and 2530 of FIGS. 25A and 25B are determined according to the reference area offset.
  • the reference region offset may be determined by the sizes of the current blocks 2500 and 2520 or by encoding information obtained from the bitstream.
  • the prediction method determiner 1630 may predict the current block using the right reference sample instead of the left block or together with the left block. have.
  • the prediction method determiner 1630 may determine a reference block to which the current block refers to, according to whether to decode a neighboring block of the current block. In the inter prediction mode, the prediction method determiner 1630 obtains a motion vector from a block spatially or temporally adjacent to the current block and predicts the current block according to the obtained motion vector.
  • temporal neighboring blocks may be determined in the same manner regardless of the coding order of the blocks. However, some of the spatial neighboring blocks may not be decoded by the coding order of the blocks. Therefore, the spatial neighboring blocks referenced by the current block may vary according to the decoding order.
  • motion vectors of the upper block, the left block, the upper left block, the lower left block, and the upper right block of the current block are predicted for the current sample.
  • reference samples of the upper block, the right block, the upper right block, the lower right block, and the upper left block of the current block may be used for prediction of the current sample.
  • both the left and right blocks of the current block are decoded, all of the upper block, left block, right block, upper left block, lower left block, lower right block, and upper right block of the current block may be used. On the contrary, when both the left and right blocks of the current block are not decoded, only the upper block, the upper left block and the upper right block of the current block may be used.
  • the merge mode is an inter prediction mode that determines a reference block of the current block from a merge candidate list composed of neighboring blocks of the current block, and predicts the current block according to a motion vector and a reference picture index extracted from the reference block.
  • the merge candidate list may be determined in different ways depending on whether a motion vector can be obtained from the right block.
  • the prediction method determiner 1630 includes a left block including the reference sample 2604, a lower left block including the reference sample 2606, and a reference sample 2608.
  • the motion vectors may be extracted in the order of the upper block, the upper right block including the reference sample 2610, and the upper left block including the reference sample 2602.
  • the prediction method determiner 1630 may include the extracted motion vectors in the merge candidate list in order.
  • the prediction method determiner 1630 When a motion vector can be obtained from the right block, the prediction method determiner 1630 includes a right block including the reference sample 2614, a lower right block including the reference sample 2616, and a reference sample 2612.
  • the motion vectors may be extracted in the order of the upper block, the upper left block including the reference sample 2602, the left block including the reference sample 2604, and the upper right block including the reference sample 2610.
  • the prediction method determiner 1630 may include the extracted motion vectors in the merge candidate list in order.
  • a motion vector predictor is obtained from a reference block, and a differential motion vector and a reference picture index are separately obtained from a bitstream.
  • the current block is predicted according to the motion vector and the reference picture index obtained from the motion vector predictor and the differential motion vector.
  • an AMVP candidate list including a motion vector obtained from the neighboring block of the current block is obtained.
  • the AMVP candidate list may be determined in other ways depending on whether a motion vector can be obtained from the right block.
  • the prediction method determiner 1630 may determine the first motion vector predictor candidate from the left block including the reference sample 2604 and the lower left block including the reference sample 2606. Can be determined.
  • the prediction method determiner 1630 includes a second motion vector predictor from the upper block including the reference sample 2608, the upper right block including the reference sample 2610, and the upper left block including the reference sample 2602. Candidates can be determined.
  • the prediction method determiner 1630 may determine a motion vector predictor from an AMVP candidate list including the first motion vector predictor candidate and the second motion vector predictor candidate.
  • the prediction method determiner 1630 can determine the first motion vector predictor candidate from the right block including the reference sample 2614 and the right lower block including the reference sample 2616. Can be determined.
  • the prediction method determiner 1630 includes a second motion vector predictor from the upper block including the reference sample 2608, the upper right block including the reference sample 2610, and the upper left block including the reference sample 2602. Candidates can be determined.
  • the prediction method determiner 1630 may determine the third motion vector predictor candidate from the left block including the reference sample 2604 and the lower left block including the reference sample 2606. If the motion vector cannot be extracted from the left block and the lower left block, a motion vector obtained by scaling the second motion vector predictor candidate may be determined as the third motion vector predictor candidate.
  • the prediction method determiner 1630 may determine a motion vector predictor from an AMVP candidate list including a first motion vector predictor candidate, a second motion vector predictor candidate, and a third motion vector predictor candidate.
  • the merge mode list of the merge mode may include a motion vector candidate obtained from a temporal neighboring block.
  • the AMVP candidate list in the AMVP mode may include predicted motion vector candidates from temporal neighboring blocks.
  • the left neighboring blocks are not limited to a specific position such as a left block, an upper left block, a lower left block
  • the right neighboring blocks are also not limited to a specific position such as a right block, a lower right block, and an upper right block. It is not limited to a specific position, such as upper side, upper left side, and upper right side.
  • the candidate list may be configured differently according to whether the left block and the right block are decoded, and the number of candidate lists that may be allowed may also vary.
  • FIG. 27 a prediction method of the OBMC mode using the right block of the current block is described.
  • a plurality of prediction values are obtained for the samples at the boundary of the current block by using the motion vector of the current block and the motion vector of the neighboring block of the current block.
  • the weighted average of the plurality of prediction values is then obtained to obtain a final prediction value of the current sample.
  • the weight for the current motion vector is generally greater than the weight for the adjacent motion vector.
  • a current motion vector of the current block 2700 is obtained and includes a current block (2704) that includes a left sample 2704 of the sample 2702.
  • An adjacent motion vector is obtained from the left block of 2700.
  • the final prediction value of the sample 2702 is determined by weighted averaging the prediction value obtained by the current motion vector and the prediction value obtained by the adjacent motion vector.
  • a current motion vector of the current block 2700 is obtained, and includes a current block including the left sample 2708 of the sample 2706.
  • a first neighboring motion vector is obtained from the left block of 2700 and a second neighboring motion vector is obtained from the upper block of the current block 2700 that includes the upper sample 2710 of the sample 2706.
  • the final predicted value of the sample 2706 is determined by weighted average of the predicted value obtained by the current motion vector, the predicted value obtained by the first neighboring motion vector, and the predicted value obtained by the second neighboring motion vector.
  • the prediction method according to the OBMC mode for the sample 2712 is not applied. However, if the right block of the current block 2700 is decoded, the prediction method according to the OBMC mode may also be applied to samples located at the right boundary of the current block 2700.
  • the current motion vector of the current block 2700 is obtained, and the sample 2712 is obtained.
  • An adjacent motion vector is obtained from the right block of the current block 2700 that includes the right sample 2714 of.
  • the final prediction value of the sample 2712 is determined by weighted averaging the prediction value obtained by the current motion vector and the prediction value obtained by the adjacent motion vector.
  • the sub block MVP mode is an inter prediction mode that divides a block into sub blocks and determines a motion vector predictor for each sub block.
  • FIG. 28A when the right block is not decoded or inter predicted, the current block prediction method according to the sub block MVP mode is described.
  • the right block of the current block 2800 is not decoded or inter predicted and thus cannot be used for inter prediction of the current block 2800.
  • Current block 2800 includes four subblocks 2802, 2804, 2806, and 2808.
  • two spatial motion vector candidates are obtained from the block containing the left sample and the upper sample of the sub block.
  • a temporal motion vector is obtained from a block of a reference picture including a sample at the same position as the sub block.
  • the motion vector of the subblock is determined by averaging two spatial motion vector candidates and a temporal motion vector.
  • a first spatial motion vector may be obtained from a block that includes a left sample 2810 of subblock 2802. If the block including the left sample 2810 is not encoded or not inter predicted, the first spatial motion vector may be obtained with reference to the block including the samples located below the left sample 2810.
  • a second spatial motion vector may be obtained from the block including the upper sample 2812 of the sub block 2802. If the block including the upper sample 2812 is not encoded or not inter predicted, the second spatial motion vector may be obtained by referring to the block including the samples located to the right of the upper sample 2812.
  • a temporal motion vector may be obtained by referring to a block at the same position as the sub block 2802 from a reference picture referred to by the current picture.
  • temporal motion vectors of all the sub blocks 2802, 2804, 2806, and 2808 may be determined with reference to a block located at the same position as the sub block 2808.
  • the motion vector of the sub-block 2802 is obtained by averaging the first spatial motion vector, the second spatial motion vector, and the temporal motion vector.
  • the motion vector is determined in the same manner for the other subblocks 2804, 2806, and 2808.
  • the motion vector determining method according to FIG. 28A may be applied to the sub blocks 2822 and 2826 on the left side of the current block 2820.
  • a third spatial motion vector obtained from the block including the right sample of the subblock may be additionally obtained for motion vector acquisition of the subblock. Can be.
  • a third spatial motion vector may be obtained from the block that includes the right sample 2830 of the subblock 2824. If the block including the right sample 2830 is not encoded or not inter predicted, the third spatial motion vector may be obtained with reference to the block including the samples located below the right sample 2830.
  • the first spatial motion vector, the second spatial motion vector, and the temporal motion vector of the sub block 2824 may be obtained according to the method described with reference to FIG. 28A.
  • the motion vector of the subblock 2824 is obtained by averaging the first spatial motion vector, the second spatial motion vector, the third spatial motion vector, and the temporal motion vector of the subblock 2824.
  • the motion vector of the sub block 2828 can also be determined in the same manner.
  • FIG. 28C when the left block is not decoded or inter predicted, the current block prediction method according to the sub block MVP mode is described.
  • the left block of the current block 2840 is not decoded or inter predicted and thus cannot be used for inter prediction of the current block 2840.
  • Current block 2840 includes four subblocks 2842, 2844, 2846, 2848.
  • two spatial motion vector candidates are obtained from the block containing the right sample and the upper sample of the sub block.
  • a temporal motion vector is obtained from a block of a reference picture including a sample at the same position as the sub block.
  • the motion vector of the subblock is determined by averaging two spatial motion vector candidates and a temporal motion vector.
  • a first spatial motion vector may be obtained from the block that includes the right sample 2850 of the sub block 2844. If the block including the right sample 2850 is not encoded or not inter predicted, the first spatial motion vector may be obtained with reference to the block including the samples located below the right sample 2850.
  • a second spatial motion vector may be obtained from the block including the upper sample 2852 of the sub block 2844. If the block including the upper sample 2852 is not encoded or not inter predicted, the second spatial motion vector may be obtained with reference to the block including the samples located to the left of the upper sample 2852.
  • a temporal motion vector may be obtained by referring to a block located at the same position as the sub block 2844 from a reference picture referred to by the current picture.
  • temporal motion vectors of all the sub blocks 2842, 2844, 2846, and 2848 may be determined by referring to a block located at the same position as the sub block 2848.
  • the motion vector of the sub-block 2844 is obtained by averaging the first spatial motion vector, the second spatial motion vector, and the temporal motion vector.
  • the motion vector is determined in the same manner with respect to the other subblocks 2842, 2846, and 2848.
  • An Affine Transform refers to a transform on two Affine Spaces that preserves collinear points.
  • affine space is a generalized geometry of Euclidean space, and the properties of distance and angle measurement are not maintained in affine space, and the collinearity between the points and the parallelism of the lines and the length ratio between the points on the same line Only is maintained.
  • the straight line and straight lines are preserved in parallel, and the direction and angle of the straight line, the distance between the straight lines, and the area are not preserved. Therefore, when the object is enlarged, reduced, or rotated, the region including the object in the image can be accurately predicted according to the affine motion compensation prediction mode.
  • Fig. 29A the affine transformation is briefly described.
  • Four vertices 2902, 2904, 2906, and 2908 of block 2900 correspond to motion vectors 2912, 2914, 2916, and 2918, respectively.
  • the affine transform block 2910 is generated by affine transforming the block 2900 by the motion vectors 2912, 2914, 2916, and 2918.
  • the samples located at block 2900 may match the samples of the affine transform block 2910.
  • a sample 2924 obtained by affine transforming a sample 2922 located at a line connecting a vertex 2906 and a sample 2920 located at the top of the block 2900 may be a motion vector 2916 of the vertex 2906.
  • a sample 2926 of the affine transform block 2910 pointed to by the motion vector 2930 of the sample 2920 is located at a line connecting the sample 2928 of the affine transform block 2910 pointed to.
  • the position of the affine transformed sample 2924 may be determined by the motion vector 2930 obtained by linear interpolation of the motion vectors 2912, 2914, 2916 and 2918 according to the position of the sample 2922.
  • other samples of block 2900 may also be affine transformed to match the samples of affine transform block 2910. As described in FIG. 29A, all samples of the block may be inter predicted using the motion vector generated for the affine transformation.
  • 29B illustrates blocks referenced in the affine motion compensation prediction mode.
  • the affine motion compensation prediction mode includes an affine merge mode and an affine AMVP mode.
  • the affine merge mode blocks predicted according to the affine motion compensation prediction mode among neighboring blocks of the current block are determined as candidate blocks.
  • Information for affine motion compensation is obtained from a selected block among candidate blocks.
  • affine AMVP mode two or more motion vector predictors used for affine transformation are determined from neighboring blocks of the current block. The current block is predicted using the motion vector predictor, the differential motion vector included in the bitstream, and the reference picture information. Specifically, a prediction method according to the affine merge mode and the affine AMVP mode will be described.
  • candidate blocks are determined from neighboring blocks predicted by the affine motion compensation prediction mode of the current block 2950. If the replacement of the coding order between blocks is not allowed, the neighboring block including the left sample 2960 of the current block 2950, the neighboring block including the upper sample 2964 and the right upper sample 2946 are included. In order of the neighboring block, the neighboring block including the lower left sample 2972, and the neighboring block including the upper left sample 2972, it is confirmed whether each neighboring block is predicted in the affine motion compensation prediction mode.
  • the neighboring blocks predicted in the affine motion compensation prediction mode are included in the Affine Merge List in the above order.
  • each neighboring block is predicted in the affine motion compensation prediction mode.
  • neighboring blocks predicted in the affine motion compensation prediction mode are included in the affine merge list in this order.
  • the right block and the lower right block of the current block 2950 may be included in the affine merge list.
  • the motion vectors and the reference picture information for the affine transformation of the current block 2950 are obtained from a block indicated by an affine merge flag obtained from a bitstream among the candidate blocks of the affine merge list.
  • the current block 2950 is predicted according to the motion vectors and the reference picture information.
  • the first motion vector predictor is obtained from a neighboring block located around the upper left vertex 2926 of the current block 2950.
  • a motion vector predictor can be obtained.
  • the second motion vector predictor is obtained from a neighboring block located near the upper right vertex 2954 of the current block 2950.
  • a second motion vector predictor may be obtained from a neighboring block including a sample 2946 located above the upper right side vertex 2954 and a neighboring block including a sample 2946 located at the upper right side. If replacement of the coding order between blocks is allowed, the second motion vector predictor may be obtained from a neighboring block including a sample 2978 located to the right of the upper right vertex 2954.
  • the third motion vector predictor is obtained from a neighboring block located around the lower left vertex 2956 of the current block 2950.
  • a third motion vector predictor may be obtained from a neighboring block including a sample 2960 located at the left side of the lower left vertex 2956 and a neighboring block including a sample 2968 located at the lower left side. If the coding order between blocks is allowed, and if the left block of the current block 2950 is not encoded and the right block is first encoded, the third motion vector predictor may have the lower right vertex 2958 of the current block 2950. ) Is obtained from neighboring blocks located around. Accordingly, a third motion vector predictor may be obtained from a neighboring block including a sample 2962 located at the right side of the lower right vertex 2958 and a neighboring block including the sample 2970 located at the lower right side.
  • the first motion vector predictor, the second motion vector predictor, and the third motion vector obtained from the upper left corner 2592, the upper right corner 2954, and the lower right corner 2956.
  • the third motion vector predictor may be changed based on the motion vector prediction value for the lower left vertex 2956 derived using the predictor.
  • the changed third motion vector predictor may be used for prediction of the current block.
  • three motion vectors used for the affine transformation are determined based on the reference picture information obtained from the bitstream and the three differential motion vectors.
  • the current block 2950 is predicted according to three motion vectors.
  • information necessary for the affine motion compensation prediction mode may be obtained from a neighboring block located to the right of the current block.
  • FIG. 30A illustrates a two-match FRUC mode
  • FIG. 30B illustrates a template matching FRUC mode.
  • the FRUC mode is an inter prediction mode based on the frame rate increase conversion technique.
  • the FRUC mode there are two matching FRUC modes and a template matching FRUC mode, both of which have a common point in that the motion vector of the current block is determined using the merge candidate list of the current block.
  • the bi-matching FRUC mode is an inter prediction mode that finds the motion vector of the current block, assuming that there is continuity of motion between successive pictures.
  • the prediction method determiner 1630 obtains a plurality of motion vector candidates from the merge candidate list.
  • the prediction method determiner 1630 obtains a reference block pair from each motion vector candidate.
  • the prediction method determiner 1630 compares the matching accuracy of the reference block pair, and determines the motion vector candidate having the highest matching accuracy as the motion vector predictor of the current block.
  • the prediction method determiner 1630 scans around the point indicated by the motion vector predictor to determine a motion vector having more accurate matching accuracy than the motion vector predictor. Finally, the prediction method determiner 1630 predicts the current block according to the motion vector.
  • a motion vector candidate is obtained from the merge candidate list for the current block 3002 located in the current picture 3000.
  • the first matching motion vector 3014 is determined based on the motion vector candidate.
  • the second matching motion vector 3024 is determined based on the motion vector candidate.
  • the first matching motion vector 3014 and the second matching motion vector 3024 are temporal distances of the current picture 3000 and the first reference picture 3010 and the temporal distances of the current picture 3000 and the second reference picture 3020. Proportional to distance.
  • the first reference block 3012, the current block 3002, and the second reference block 3022 are located in the same motion trajectory. Therefore, on the assumption that there is a continuity of movement between the first reference block 3012, the current block 3002, and the second reference block 3022, the matching accuracy of the first reference block 3012 and the second reference block 3022 is Is calculated.
  • the matching accuracy calculation process is performed on all motion vector candidates of the merge candidate list.
  • the motion vector candidate with the highest matching accuracy is determined as the motion vector predictor of the current block.
  • a scan is performed around the point indicated by the motion vector predictor for the first reference picture 3010 and the second reference picture 3020 to find a motion vector having a higher matching accuracy between the reference blocks, and according to the motion vector.
  • the current block 3002 is predicted.
  • the merge candidate list when used in the two-matching FRUC mode, when the right block 3004 of the current block 3002 is decoded, the merge candidate including the motion vector of the right block 3004 according to the method described with reference to FIG. 26. Lists can be used.
  • the template matching FRUC mode is an inter prediction mode that compares a template of a current block with a template of a reference picture corresponding to a motion vector candidate of a merge candidate list and finds a motion vector of the current block according to matching accuracy between the two templates.
  • the left and upper regions of the current block may be determined as the template of the current block. If the right block of the current block is decoded, the right region of the current block may also be determined as a template of the current block.
  • a motion vector candidate is obtained from the merge candidate list for the current block 3052 located in the current picture 3050.
  • the matching motion vector 3062 is determined from the motion vector candidate according to the temporal distance between the current picture 3050 and the reference picture 3060.
  • the current block template 3054 is determined. According to FIG. 30B, the right block 3056 of the current block 3050 is determined, and the current block template 3054 includes the right region of the current block 3050.
  • the reference block template 3064 is obtained from the point that the matching motion vector 3062 points from the current block template 3054.
  • the template matching accuracy is calculated by comparing the current block template 3054 with the reference block template 3064.
  • Template matching accuracy is calculated for each motion vector candidate.
  • the motion vector candidate having the most accurate template matching accuracy is determined as the motion vector predictor of the current block 3050.
  • the reference picture 3060 is scanned around the point indicated by the motion vector predictor to find a motion vector with a higher template matching accuracy, and the current block 3052 is predicted according to the motion vector.
  • the merge candidate list is used in the template matching FRUC mode
  • the right block 3004 of the current block 3002 is decoded
  • the right block 3004 of the right block 3004 according to the method described in FIG. 26 is decoded.
  • the merge candidate list including the motion vector may be used.
  • the decoder 1640 may predict the current block according to the prediction method determined by the prediction method determiner 1630, and decode the current block based on the prediction result of the current block.
  • the decoder 1640 may obtain a final block flag indicating whether the current block is the last block of the coding tree block including the current block from the bitstream.
  • the decoder 1640 may end the decoding of the coding tree block after decoding the current block. After decoding of the current block is completed, a coding tree block of a next order may be decoded by the video decoding apparatus 1600. Similar to the encoding tree block including the current block, the block splitter 1610, the encoding order determiner 1620, and the prediction method determiner 1630 included in the video decoding apparatus 1600 for the next encoding tree block.
  • the block decoding unit 1640 may perform block division, encoding order determination, and decoding of the last divided block.
  • the decoder 1640 determines whether to decode the remaining blocks except the current block among the blocks included in the encoded tree block without obtaining the last block flag from the bitstream, and determines whether the current block is the last block of the encoded tree block. It can be determined.
  • the decoder 1640 may entropy decode a syntax element obtained from the bitstream according to the context of a neighboring block. Accordingly, the syntax element may be entropy decoded in consideration of encoding information of the right block of the current block.
  • a skip flag indicating whether the current block is encoded by the skip mode may be entropy encoded according to the context of neighboring blocks of the current block. Therefore, the skip flag may be entropy encoded in consideration of encoding information of the right block of the current block. Accordingly, the decoder 1640 may entropy encode the skip flag in consideration of encoding information of the right block of the current block.
  • partition information indicating whether to divide the current block into sub-blocks partition type information indicating how to split the current block
  • FRUC mode flag indicating whether the current block is predicted according to the FRUC mode
  • the current block to be predicted according to the FRUC mode the FRUC mode information indicating which FRUC mode is applied to the current block
  • the Affine mode flag indicating whether the current block is predicted according to the Affine mode
  • the motion vector recovery unit flag indicating the minimum unit of the motion vector of the current block, etc.
  • Entropy decoding may be performed according to encoding information of neighboring blocks including the right block.
  • the decoder 1640 may inverse quantize and inverse transform residual data obtained from the bitstream.
  • the decoder 1640 may reconstruct the current block by using the inverse quantized and inverse transformed residual data and the prediction result of the current block.
  • FIG. 31 illustrates a video decoding method 3100 according to an embodiment of dividing a current block and determining an encoding order of divided lower blocks.
  • step 3110 partitioning information indicating whether a current block is divided from a bitstream is obtained.
  • a final block flag indicating whether the current block is the last block of the coding tree block containing the current block is obtained.
  • the last block flag indicates that the current block is the last block of the coding tree block
  • decoding of the coding tree block ends after decoding of the current block.
  • the last block flag indicates that the current block is not the last block of the coding tree block
  • decoding is performed on the blocks in the next order of the current block.
  • the current block is decoded according to the encoding information of the current block.
  • reference samples to which the current block refers to are determined according to whether the left block and the right block of the current block are decoded.
  • the current block is predicted and decoded according to the reference samples.
  • reference samples include samples adjacent to the left and top sides of the current block. If only the right block of the current block is decoded, the reference samples include samples adjacent to the right and top sides of the current block. If both the left and right blocks of the current block are decoded, the reference samples include samples adjacent to the right, left and top sides of the current block. If both the left and right blocks of the current block are not decoded, the reference samples include samples adjacent to the top of the current block.
  • the prediction value of the samples included in the current block is determined as an average value of the sample values of the reference samples, and refers to the prediction value of the samples adjacent to the reference samples among the samples of the current block. Filtered according to the sample value of the samples.
  • the predicted value of the current sample is the first corner sample, the second corner sample, and the first side sample included in the reference samples.
  • the first corner sample is located at the intersection of a row adjacent to the upper side of the current block containing the current sample and a column adjacent to the left side of the current block.
  • the second corner sample is located at the intersection of the row adjacent to the bottom side of the current block and the column adjacent to the right side of the current block.
  • the first side sample is located at the intersection of the row where the current sample is located and the column adjacent to the right side of the current block.
  • the second side sample is located at the intersection of the row adjacent to the top side of the current block and the column where the current sample is located.
  • the predicted value of the current sample is on the right side of the current sample and the sample value of the upper sample adjacent to the upper side of the current sample. Can be determined according to a weighted average of the sample values of adjacent right samples. In this case, the prediction of the samples included in the current block may start with a sample adjacent to the upper right corner of the current block.
  • the current block is intra predicted by the multi-parameter intra mode and the left block, the right block, and the upper block of the current block are decoded
  • the current block is divided into a left region and a right region, and The sample used for prediction of the right region may be determined according to other methods.
  • the prediction value obtained by the left block and the upper block and the prediction value obtained by the right block and the upper block without distinguishing between the left area and the right area. Can be averaged or weighted averaged and used as the final predicted value.
  • the prediction value of the current sample is determined according to a weighted average of the sample value of the upper sample adjacent to the upper side of the current sample and the sample value of the left sample adjacent to the left side of the current sample.
  • the prediction value of the current sample is determined according to a weighted average of the sample value of the upper sample adjacent to the upper side of the current sample and the sample value of the right sample adjacent to the right side of the current sample.
  • the current block When the current block is intra predicted by the LM chroma mode or the MPC mode, and the right block of the current block is decoded, the current block may be predicted by referring to luma-chroma sample pairs located at the right side of the current block.
  • the motion vector of the current block is determined using the motion vector of the right block.
  • a motion vector candidate is obtained from the right block, lower right block, upper block, upper left block, left block, and upper right block of the current block.
  • a first motion vector candidate is determined from a right block or a lower right block of the current block, and a second motion vector from an upper block, an upper right block, or an upper left block of the current block. The candidate is determined.
  • a first motion vector candidate is determined from the right block or the lower right block of the current block, and the upper block of the current block,
  • the second motion vector candidate may be determined from the upper right block or the upper left block.
  • the right adjacent motion vector of the right block of the current block is obtained.
  • a sample located at the right boundary of the current block is predicted using the prediction value according to the motion vector of the current block and the prediction value according to the right adjacent motion vector.
  • the current block is divided into a plurality of sub blocks.
  • One or more spatial motion vectors may be obtained from the right block, left block, and upper block of the current block.
  • the same position block at the same position as the current block is obtained from the reference picture including the current block, and a temporal motion vector is obtained from the same position block.
  • the motion vectors of the sub blocks may be determined by averaging at least one spatial motion vector and a temporal motion vector.
  • the predicted affine candidate block is searched according to the affine motion information including a plurality of motion vectors among neighboring blocks of the current block, and the affine merge includes the searched affine candidate blocks.
  • the list is created.
  • the affine candidate block used for prediction of the current block is determined from the affine merge list according to the affine merge flag obtained from the bitstream.
  • affine motion information is obtained from the affine candidate block.
  • the affine merge list may be determined by the method described in FIG. 29B.
  • a first motion vector predictor is obtained from blocks adjacent to the upper left corner of the current block.
  • a second motion vector predictor is obtained from blocks adjacent to the upper right corner of the current block.
  • a third motion vector predictor is obtained from blocks adjacent to the lower left vertex of the current block, and the right block of the left and right blocks of the current block is decoded.
  • a third motion vector predictor is obtained from blocks adjacent to the lower right corner of the current block.
  • the affine motion information of the current block is obtained according to the first motion vector predictor, the second motion vector predictor, and the third motion vector predictor.
  • Motion vector candidates are obtained.
  • a plurality of reference block pairs are generated by applying a plurality of motion vector candidates to two or more reference pictures.
  • a reference block pair having a high matching accuracy is selected among the plurality of reference block pairs, and a motion vector candidate used for generating the selected reference block pair is determined as a motion vector predictor.
  • a motion vector is retrieved that produces a pair of reference blocks with higher matching accuracy than the motion vector predictor. The retrieved motion vector is determined as the motion vector of the current block.
  • a plurality of reference blocks are obtained, and a plurality of reference block templates are obtained from upper regions and right regions of the plurality of reference blocks.
  • the motion vector corresponding to the reference block template most similar to the template of the current block among the plurality of reference block templates is determined as the motion vector predictor of the current block.
  • a motion vector is searched around a point that the motion vector predictor points to for the two or more reference pictures to produce a pair of reference blocks with higher matching accuracy than the motion vector predictor.
  • the retrieved motion vector is determined as the motion vector of the current block.
  • the splitting information indicates splitting of the current block in step 3130
  • the current block is split into two or more subblocks
  • encoding order information indicating the encoding order of the lower blocks of the current block is obtained from the bitstream, and the encoding order information.
  • the decoding order of the lower blocks is determined, and the lower blocks are decoded according to the decoding order.
  • the video decoding apparatus 1600 described with reference to FIG. 16 may be included in the video decoding method 3100.
  • FIG. 32 illustrates a video encoding apparatus 3200 according to an embodiment of dividing a current block and determining an encoding order of divided lower blocks.
  • the video encoding apparatus 3200 includes an encoding information generator 3210 and an output unit 3220.
  • the encoding information generation unit 3210 and the output unit 3220 are represented by separate structural units. However, according to an exemplary embodiment, the encoding information generation unit 3210 and the output unit 3220 are combined to implement the same configuration unit. May be
  • the encoding information generator 3210 and the output unit 3220 are represented by structural units located in one device, the devices in charge of each function of the encoding information generator 3210 and the output unit 3220 must be used. It does not have to be physically adjacent. Therefore, according to an embodiment, the encoding information generator 3210 and the output unit 3220 may be distributed.
  • the encoding information generator 3210 and the output unit 3220 may be implemented by one processor according to an embodiment. In some embodiments, the present invention may also be implemented by a plurality of processors.
  • the functions performed by the encoding information generator 3210 and the output unit 3220 of FIG. 32 may be performed by the output unit 130 of FIG. 1A.
  • the encoding information generation unit 3210 may divide the current block into two or more lower blocks, and determine whether to divide the current block according to the division result of the current block. For example, the encoding information generator 3210 determines to divide the current block when the coding efficiency is good when dividing the current block, and divides the current block when the coding efficiency is good when the current block is not divided. You can decide not to.
  • the encoding information generator 3210 may generate split information indicating whether the current block is split.
  • the encoding information generator 3210 may determine a method of dividing the current block according to coding efficiency, and generate split type information indicating a method of dividing the current block.
  • the encoding information generator 3210 may determine the encoding order of the lower blocks included in the current block according to the encoding efficiency according to the encoding order, and generate encoding order information indicating the encoding order of the lower blocks.
  • the encoding information generator 3210 may determine a prediction mode for the current block.
  • the encoding information generator 3210 may determine the prediction mode of the current block according to the encoding efficiency of the prediction modes that may be applied to the current block.
  • Prediction modes that can be applied to the current block include directional mode, DC mode, planner mode, multi-parameter intra mode, LM chroma mode, MPC mode, merge mode, AMVP mode, OBMC mode, subblock MVP mode, affine merge mode, affine AMVP mode, two-way matching FRUC mode, template matching FRUC mode, and the like.
  • the output unit 3220 outputs a bitstream including information about encoding of the current block generated by the encoding information generator 3210.
  • the information about the encoding of the current block may include split information, split type information, split order information, prediction mode information, and the like.
  • FIG. 33 is a diagram illustrating a video encoding method 3300 according to an embodiment of dividing a current block and determining an encoding order of divided lower blocks.
  • step 3310 the current block is divided into two or more sub-blocks.
  • the encoding order of the lower blocks of the current block is determined according to the encoding efficiency of the current block, and encoding order information indicating the encoding order of the lower blocks is generated.
  • step 3340 a bitstream including split information and encoding order information is output.
  • the function of the video encoding apparatus 3200 described with reference to FIG. 32 may be included in the video encoding method 3300.
  • the image data of the spatial domain is encoded for each coding unit of the tree structure, and the video decoding method based on the coding units of the tree structure.
  • decoding is performed for each largest coding unit, and image data of a spatial region may be reconstructed to reconstruct a picture and a video that is a picture sequence.
  • the reconstructed video can be played back by a playback device, stored in a storage medium, or transmitted over a network.
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비트스트림으로부터 현재 블록의 분할 여부를 나타내는 분할 정보를 획득하는 단계, 분할 정보가 상기 현재 블록의 분할을 나타내지 않는 때, 현재 블록을 현재 블록의 부호화 정보에 따라 복호화하는 단계, 및 분할 정보가 현재 블록의 분할을 나타낼 때, 현재 블록을 2개 이상의 하위 블록들로 분할하고, 비트스트림으로부터 현재 블록의 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득하고, 부호화 순서 정보에 따라, 하위 블록들의 복호화 순서를 결정하고, 복호화 순서에 따라, 하위 블록들을 복호화하는 단계를 포함하는 비디오 복호화 방법이 제공된다.

Description

부호화 방법 및 그 장치, 복호화 방법 및 그 장치
본 발명은 비디오의 부호화 방법 및 복호화 방법에 대한 것으로, 보다 구체적으로는 영상의 부호화/복호화 순서를 방법 및 장치를 위한 인트라 또는 인터 예측 방법에 관한 것이다.
높은 화질의 비디오는 부호화시 많은 양의 데이터가 요구된다. 그러나 비디오 데이터를 전달하기 위하여 허용되는 대역폭은 한정되어 있어, 비디오 데이터 전송시 적용되는 데이터 레이트가 제한될 수 있다. 그러므로 효율적인 비디오 데이터의 전송을 위하여, 화질의 열화를 최소화하면서 압축률을 증가시킨 비디오 데이터의 부호화 및 복호화 방법이 필요하다.
비디오 데이터는 픽셀들 간의 공간적 중복성 및 시간적 중복성을 제거함으로써 압축될 수 있다. 인접한 픽셀들 간에 공통된 특징을 가지는 것이 일반적이기 때문에, 인접한 픽셀들 간의 중복성을 제거하기 위하여 픽셀들로 이루어진 데이터 단위로 부호화 정보가 전송된다.
데이터 단위에 포함된 픽셀들의 픽셀 값은 직접 전송되지 않고, 픽셀 값을 획득하기 위해 필요한 방법이 전송된다. 픽셀 값을 원본 값과 유사하게 예측하는 예측 방법이 데이터 단위마다 결정되며, 예측 방법에 대한 부호화 정보가 부호화기에서 복호화기로 전송된다. 또한 예측 값이 원본 값과 완전히 동일하지 않으므로, 원본 값과 예측 값의 차이에 대한 레지듀얼 데이터가 부호화기에서 복호화기로 전송된다.
예측이 정확해질수록 예측 방법을 특정하는데 필요한 부호화 정보가 증가되지만, 레지듀얼 데이터의 크기가 감소하게 된다. 따라서 부호화 정보와 레지듀얼 데이터의 크기를 고려하여 예측 방법이 결정된다. 특히, 픽처에서 분할된 데이터 단위는 다양한 크기를 가지는데, 데이터 단위의 크기가 클수록 예측의 정확도가 감소할 가능성이 높은 대신, 부호화 정보가 감소하게 된다. 따라서 픽처의 특성에 맞게 블록의 크기가 결정된다.
또한 예측 방법에는 인트라 예측과 인터 예측이 있다. 인트라 예측은 블록의 주변 픽셀들로부터 블록의 픽셀들을 예측하는 방법이다. 인터 예측은 블록이 포함된 픽처가 참조하는 다른 픽처의 픽셀을 참조하여 픽셀들을 예측하는 방법이다. 따라서 인트라 예측에 의하여 공간적 중복성이 제거되고, 인터 예측에 의하여 시간적 중복성이 제거된다.
예측 방법의 수가 증가할수록 예측 방법을 나타내기 위한 부호화 정보의 양은 증가한다. 따라서 블록에 적용되는 부호화 정보 역시 다른 블록으로부터 예측하여 부호화 정보의 크기를 줄일 수 있다.
인간의 시각이 인지하지 못하는 한도에서 비디오 데이터의 손실이 허용되는 바, 레지듀얼 데이터를 변환 및 양자화 과정에 따라 손실 압축(lossy compression)하여 레지듀얼 데이터의 양을 감소시킬 수 있다.
현재 블록의 분할 여부와 하위 블록의 부호화 순서를 결정하고, 현재 블록의 주변 블록들의 부호화 여부에 따라 부호화 방법을 결정하는 비디오 부호화 방법이 개시된다. 또한 현재 블록을 분할하고, 분할된 하위 블록의 부호화 순서를 결정하고, 현재 블록의 주변 블록들의 부호화 여부에 따라 부호화 방법을 결정하는 비디오 복호화 방법이 개시된다. 더불어 본 발명의 일 실시 예에 따른 비디오 부호화 방법 및 비디오 복호화 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 개시된다.
비트스트림으로부터 현재 블록의 분할 여부를 나타내는 분할 정보를 획득하는 단계, 상기 분할 정보가 상기 현재 블록의 분할을 나타내지 않는 때, 상기 현재 블록을 상기 현재 블록의 부호화 정보에 따라 복호화하는 단계, 및 상기 분할 정보가 현재 블록의 분할을 나타낼 때, 상기 현재 블록을 2개 이상의 하위 블록들로 분할하고, 상기 비트스트림으로부터 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득하고, 상기 부호화 순서 정보에 따라, 상기 하위 블록들의 복호화 순서를 결정하고, 상기 복호화 순서에 따라, 상기 하위 블록들을 복호화하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
현재 블록의 분할 여부를 나타내는 분할 정보가 상기 현재 블록의 분할을 나타낼 경우, 상기 현재 블록을 2개 이상의 하위 블록들로 분할하는 블록 분할부, 상기 현재 블록이 상기 하위 블록들로 분할된 때, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보에 따라, 상기 하위 블록들의 복호화 순서를 결정하는 부호화 순서 결정부, 상기 분할 정보가 상기 현재 블록이 분할되지 않음을 나타낼 경우, 상기 현재 블록의 예측 방법을 결정하는 예측 방법 결정부, 상기 예측 방법에 따른 예측 결과에 따라 상기 현재 블록을 복원하는 복호화부를 포함하는 비디오 복호화 장치가 제공된다.
현재 블록을 2개 이상의 하위 블록들로 분할하는 단계, 상기 현재 블록의 분할 결과에 따라, 상기 현재 블록의 분할 여부를 결정하고, 상기 현재 블록의 분할 여부를 나타내는 분할 정보를 생성하는 단계, 상기 현재 블록의 부호화 효율에 따라, 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 결정하고, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득하는 단계; 및 상기 분할 정보 및 상기 부호화 순서 정보가 포함된 비트스트림을 출력하는 단계를 포함하는 비디오 부호화 방법이 제공된다.
현재 블록을 2개 이상의 하위 블록들로 분할하고, 상기 현재 블록의 분할 결과에 따라, 상기 현재 블록의 분할 여부를 결정하고, 상기 현재 블록의 분할 여부를 나타내는 분할 정보를 생성하고, 상기 현재 블록의 부호화 효율에 따라, 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 결정하고, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 생성하는 부호화 정보 생성부, 및 상기 분할 정보 및 상기 부호화 순서 정보가 포함된 비트스트림을 출력하는 출력부를 포함하는 비디오 부호화 장치가 제공된다.
상기 비디오 부호화 방법 및 비디오 복호화 방법을 수행하는 프로그램이 기록된 컴퓨터로 기록가능한 비일시적 기록매체가 제고오딘다.
본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
현재 블록의 분할 여부와 하위 블록의 부호화 순서를 결정하고, 하위 블록의 부호화 순서에 따라 하위 블록의 예측 방법이 결정됨으로써, 이미지의 부호화 효율이 향상된다.
도 1a은 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치의 블록도를 도시한다.
도 1b는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 비디오 복호화 장치의 블록도를 도시한다.
도 2는 일 실시예에 따라 현재 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 3은 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 4는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 5는 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 6은 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 7은 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 8은 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 9는 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 11은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 14는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도16은 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 복호화 장치를 도시한다.
도17a 내지 17c은 일 실시 예에 따른 기본 부호화 순서를 도시한다.
도 18a 및 18b는 부호화 단위가 정방향으로 부호화되는 케이스와 부호화 단위가 역방향으로 부호화되는 케이스가 각각 도시한다.
도 19는 최대 부호화 단위와 최대 부호화 단위에 포함된 부호화 단위들의 부호화 순서를 설명하기 위한 최대 부호화 단위의 트리 구조를 나타낸다.
도 20a 및 20b는 수직 또는 수평 방향으로 배열된 3개 이상의 블록들의 부호화 순서가 부호화 순서 플래그에 따라 어떻게 변경되는지 설명한다.
도21은 방향성 인트라 예측 모드에 필요한 참조 샘플의 결정 방법을 나타낸다.
도 22a 및 22b는 우측 블록의 복호화 여부에 따른 DC 모드의 예측 방법을 나타낸다.
도 23a 내지 23c는 우측 블록의 복호화 여부에 따른 플래너 모드의 예측 방법을 나타낸다.
도 24a 내지 24d는 MPI(Multi-Parameter Intra) 모드에 따라 현재 블록을 예측하는 방법을 나타낸다.
도 25a 및 25b는 LM 크로마 모드와 MPC 모드에서 참조하는 참조 영역을 나타낸다.
도 26는 머지 모드와 AMVP 모드에서 현재 블록의 부호화 순서에 따른, 현재 블록의 공간적 인접 블록을 나타낸다.
도 27는 현재 블록의 우측 블록을 이용한 OBMC 모드의 예측 방법을 나타낸다.
도 28a 내지 28c는 현재 블록의 우측 블록을 이용한 서브 블록 MVP 모드의 예측 방법을 나타낸다.
도 29a 및 29b는 현재 블록의 우측 블록을 이용한 아핀 모션 보상 예측 모드의 예측 방법을 나타낸다.
도 30a 및 30b는 현재 블록의 우측 블록을 이용한 FRUC 모드의 예측 방법을 나타낸다.
도 31는 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 복호화 방법을 나타낸다.
도32는 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 부호화 장치을 나타낸다.
도 33는 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 부호화 방법을 나타낸다.
비트스트림으로부터 현재 블록의 분할 여부를 나타내는 분할 정보를 획득하는 단계, 상기 분할 정보가 상기 현재 블록의 분할을 나타내지 않는 때, 상기 현재 블록을 상기 현재 블록의 부호화 정보에 따라 복호화하는 단계, 및 상기 분할 정보가 현재 블록의 분할을 나타낼 때, 상기 현재 블록을 2개 이상의 하위 블록들로 분할하고, 상기 비트스트림으로부터 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득하고, 상기 부호화 순서 정보에 따라, 상기 하위 블록들의 복호화 순서를 결정하고, 상기 복호화 순서에 따라, 상기 하위 블록들을 복호화하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
현재 블록의 분할 여부를 나타내는 분할 정보가 상기 현재 블록의 분할을 나타낼 경우, 상기 현재 블록을 2개 이상의 하위 블록들로 분할하는 블록 분할부, 상기 현재 블록이 상기 하위 블록들로 분할된 때, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보에 따라, 상기 하위 블록들의 복호화 순서를 결정하는 부호화 순서 결정부, 상기 분할 정보가 상기 현재 블록이 분할되지 않음을 나타낼 경우, 상기 현재 블록의 예측 방법을 결정하는 예측 방법 결정부, 상기 예측 방법에 따른 예측 결과에 따라 상기 현재 블록을 복원하는 복호화부를 포함하는 비디오 복호화 장치가 제공된다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
"현재 블록"은 현재 부호화 또는 복호화되는 부호화 단위, 예측 단위 및 변환 단위 중 하나를 의미한다. 또한 "하위 블록"은 "현재 블록"으로부터 분할된 데이터 단위를 의미한다. 그리고 "상위 블록"은 "현재 블록"을 포함하는 데이터 단위를 의미한다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1a는 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치(100)의 블록도를 도시한다.
영상 부호화 장치(100)는 최대 부호화 단위 결정부(110), 부호화 단위 결정부(120) 및 출력부(130)를 포함한다.
최대 부호화 단위 결정부(110)는 최대 부호화 단위의 크기에 따라 픽처 또는 픽처에 포함된 슬라이스를 복수의 최대 부호화 단위로 분할한다. 최대 부호화 단위는 크기 32x32, 64x64, 128x128, 256x256 등의 데이터 단위로, 가로 및 세로 크기가 2의 자승인 정사각형의 데이터 단위일 수 있다. 최대 부호화 단위 결정부(110)는 최대 부호화 단위의 크기를 나타내는 최대 부호화 단위 크기 정보를 출력부(130)에 제공할 수 있다. 그리고 출력부(130)는 최대 부호화 단위 크기 정보를 비트스트림에 포함시킬 수 있다.
부호화 단위 결정부(120)는 최대 부호화 단위를 분할하여 부호화 단위를 결정한다. 부호화 단위는 최대 크기 및 심도로 결정될 수 있다. 심도란 최대 부호화 단위로부터 부호화 단위가 공간적으로 분할된 횟수로 정의될 수 있다. 심도가 1 증가할 때마다, 부호화 단위는 2개 이상의 부호화 단위로 분할된다. 따라서 심도가 증가할수록 심도별 부호화 단위의 크기는 감소한다. 부호화 단위의 분할 여부는 율-왜곡 최적화(Rate-Distortion Optimization)에 의하여 부호화 단위의 분할이 효율적인지 여부에 따라 결정된다. 그리고 부호화 단위가 분할되었는지 여부를 나타내는 분할 정보가 생성될 수 있다. 분할 정보는 플래그의 형태로 표현될 수 있다.
부호화 단위는 다양한 방법으로 분할될 수 있다. 예를 들어, 정사각형의 부호화 단위는 너비와 높이가 절반인 4개의 정사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 높이가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비 또는 높이를 1:2:1로 분할함으로써 세 개의 부호화 단위로 분할될 수 있다.
너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 너비가 높이의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 너비를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
마찬가지로, 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 또한 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 높이가 너비의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 마찬가지로 높이가 너비의 2배인 직사각형의 부호화 단위는 높이를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
영상 부호화 장치(100)에서 2개 이상의 분할 방법이 사용가능한 경우, 영상 부호화 장치(100)에서 사용가능한 분할 방법 중 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 픽처마다 결정될 수 있다. 따라서 픽처마다 특정한 분할 방법들만이 사용되도록 결정될 수 있다. 만약 영상 부호화 장치(100)가 하나의 분할 방법만을 사용할 경우, 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 별도로 결정되지 않는다.
부호화 단위의 분할 정보가 부호화 단위가 분할됨을 나타낼 때, 부호화 단위의 분할 방법을 나타내는 분할 형태 정보가 생성될 수 있다. 만약 부호화 단위사 속한 픽처에서 사용될 수 있는 분할 방법이 하나인 경우, 분할 형태 정보는 생성되지 않을 수 있다. 만약 분할 방법이 부호화 단위 주변의 부호화 정보에 적응적으로 결정될 경우, 분할 형태 정보는 생성되지 않을 수 있다.
최대 부호화 단위는 최소 부호화 단위 크기 정보에 따라 최소 부호화 단위까지 분할될 수 있다. 최대 부호화 단위의 심도가 최상위 심도이며 최소 부호화 단위가 최하위 심도로 정의될 수 있다. 따라서 상위 심도의 부호화 단위는 복수 개의 하위 심도의 부호화 단위를 포함할 수 있다.
전술한 바와 같이 부호화 단위의 최대 크기에 따라, 현재 픽처의 영상 데이터는 최대 부호화 단위로 분할된다. 그리고 최대 부호화 단위는 심도별로 분할되는 부호화 단위들을 포함할 수 있다. 최대 부호화 단위는 심도별로 분할되므로, 최대 부호화 단위에 포함된 공간 영역(spatial domain)의 영상 데이터가 심도에 따라 계층적으로 분류될 수 있다.
최대 부호화 단위를 계층적으로 분할할 수 있는 최대 횟수를 제한하는 최대 심도 또는 부호화 단위의 최소 크기가 미리 설정되어 있을 수 있다.
부호화 단위 결정부(120)는 부호화 단위를 계층적으로 분할하였을 때의 부호화 효율과 부호화 단위를 분할하지 않았을 때의 부호화 효율을 비교한다. 그리고 부호화 단위 결정부(120)는 비교 결과에 따라 부호화 단위를 분할할지 여부를 결정한다. 만약 부호화 단위의 분할이 더 효율적이라고 결정된 경우, 부호화 단위 결정부(120)는 부호화 단위를 계층적으로 분할한다. 만약 비교 결과에 따라 부호화 단위를 분할하지 않는 것이 효율적이라고 결정된 경우, 부호화 단위를 분할하지 않는다. 부호화 단위의 분할 여부는 인접한 다른 부호화 단위의 분할 여부에 독립적으로 결정될 수 있다.
일 실시예에 의하면, 부호화 단위의 분할 여부는 부호화 과정에서 심도가 큰 부호화 단위부터 결정될 수 있다. 예를 들어, 최대 심도의 부호화 단위와 최대 심도보다 1만큼 작은 부호화 단위의 부호화 효율이 비교되어, 최대 부호화 단위의 각 영역마다 최대 심도의 부호화 단위들과 최대 심도보다 1만큼 작은 부호화 단위들 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 그리고 판단 결과에 따라 최대 부호화 단위의 각 영역마다 최대 심도보다 1만큼 작은 부호화 단위의 분할 여부가 결정된다. 그 후 최대 부호화 단위의 각 영역마다 최대 심도보다 2만큼 작은 부호화 단위들과 위의 판단 결과에 기초하여 선택된 최대 심도보다 1만큼 작은 부호화 단위들과 최소 심도의 부호화 단위들의 조합 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 동일한 판단 과정이 심도가 작은 부호화 단위들에 대하여 순차적으로 수행되어, 최종적으로 최대 부호화 단위와 최대 부호화 단위가 계층적으로 분할되어 생성된 계층 구조 중 어느 것이 더 효율적으로 부호화되는지 여부에 따라 최대 부호화 단위의 분할 여부가 결정된다.
부호화 단위의 분할 여부는 부호화 과정에서 심도가 작은 부호화 단위부터 결정될 수 있다. 예를 들어, 최대 부호화 단위와 최대 부호화 단위보다 1만큼 심도가 큰 부호화 단위의 부호화 효율이 비교되어, 최대 부호화 단위와 최대 부호호 단위보다 1만큼 심도가 큰 부호화 단위들 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 만약 최대 부호화 단위의 부호화 효율이 더 좋을 경우, 최대 부호화 단위는 분할되지 않는다. 만약 최대 부호화 단위보다 1만큼 심도가 큰 부호화 단위들의 부호화 효율이 더 좋을 경우, 최대 부호화 단위는 분할되고, 분할된 부호화 단위에 대하여 동일한 비교 과정이 반복된다.
심도가 큰 부호화 단위부터 부호화 효율을 검토할 경우, 연산량이 많으나 부호화 효율이 높은 트리 구조를 획득할 수 있다. 반대로 심도가 작은 부호화 단위부터 부호화 효율을 검토할 경우, 연산량이 적으나 부호화 효율이 낮은 트리 구조를 획득할 수 있다. 따라서 부호화 효율과 연산량을 고려하여 최대 부호화 단위의 계층적 트리 구조를 획득하기 위한 알고리즘이 다양한 방법으로 설계될 수 있다.
부호화 단위 결정부(120)는 심도별 부호화 단위의 효율성을 판단하기 위하여, 부호화 단위에 가장 효율적인 예측 및 변환 방법을 결정한다. 부호화 단위는 가장 효율적인 예측 및 변환 방법을 결정하기 위하여 소정의 데이터 단위들로 분할될 수 있다. 데이터 단위는 부호화 단위의 분할 방법에 따라 다양한 형태를 가질 수 있다. 데이터 단위를 결정하기 위한 부호화 단위의 분할 방법은 파티션 모드라고 정의될 수 있다. 예를 들어, 크기 2Nx2N(단, N은 양의 정수)의 부호화 단위가 분할되지 않는 경우, 부호화 단위에 포함된 예측 단위의 크기는 2Nx2N이 된다. 크기 2Nx2N의 부호화 단위가 분할될 경우, 부호화 단위에 포함된 예측 단위의 크기는 파티션 모드에 따라 2NxN, Nx2N, NxN 등이 될 수 있다. 일 실시예에 따른 파티션 모드는 부호화 단위의 높이 또는 너비가 대칭적 비율로 분할된 대칭적 데이터 단위들뿐만 아니라, 1:n 또는 n:1과 같이 비대칭적 비율로 분할된 데이터 단위들, 사선 방향으로 분할된 데이터 단위들, 기타 기하학적인 형태로 분할된 데이터 단위들, 임의적 형태의 데이터 단위들을 생성할 수 있다.
부호화 단위는 부호화 단위에 포함된 데이터 단위를 기준으로 예측 및 변환이 수행될 수 있다. 그러나 실시 예에 따라 예측을 위한 데이터 단위와 변환을 위한 데이터 단위가 별도로 결정될 수 있다. 예측을 위한 데이터 단위는 예측 단위로, 변환을 위한 데이터 단위는 변환 단위로 정의될 수 있다. 예측 단위에서 적용되는 파티션 모드와 변환 단위에서 적용되는 파티션 모드는 서로 다를 수 있으며, 부호화 단위에서 예측 단위의 예측과 변환 단위의 변환은 병렬적, 독립적으로 수행될 수 있다.
부호화 단위는 효율적인 예측 방법을 결정하기 위하여 한 개 이상의 예측 단위로 분할될 수 있다. 마찬가지로 부호화 단위는 효율적인 변환 방법을 결정하기 위하여 한 개 이상의 변환 단위로 분할 될 수 있다. 예측 단위의 분할과 변환 단위의 분할은 독립적으로 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 인트라 예측에 사용되는 경우, 부호화 단위에 포함된 예측 단위들 또는 변환 단위들 간에 종속적 관계가 형성되므로 예측 단위와 변환 단위의 분할이 서로 영향을 미칠 수 있다.
부호화 단위에 포함된 예측 단위는 인트라 예측 또는 인터 예측에 의하여 예측될 수 있다. 인트라 예측은 예측 단위 주변의 참조 샘플들을 이용하여 예측 단위의 샘플들을 예측하는 방법이다. 인터 예측은 현재 픽처가 참조하는 참조 픽처로부터 참조 샘플을 획득하여 예측 단위의 샘플들을 예측하는 방법이다.
부호화 단위 결정부(120)는 인트라 예측을 위하여 복수의 인트라 예측 방법을 예측 단위에 적용하여, 가장 효율적인 인트라 예측 방법을 선택할 수 있다. 인트라 예측 방법에는 DC 모드, 플래너(Planar) 모드, 수직 모드 및 수평 모드와 같은 방향성(directional) 모드 등이 포함된다.
인트라 예측은 부호화 단위 주변의 복원 샘플을 참조 샘플로 사용하는 경우 예측 단위마다 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 부호화 단위 내부의 참조 샘플의 복원이 예측보다 우선되어야 하므로, 변환 단위의 변환 순서에 예측 단위의 예측 순서가 종속될 수 있다. 따라서 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 예측 단위에 대하여 예측 단위에 대응되는 변환 단위들에 대한 인트라 예측 방법만이 결정되고, 실질적인 인트라 예측은 변환 단위마다 수행될 수 있다.
부호화 단위 결정부(120)는 최적의 움직임 벡터 및 참조 픽처를 결정함으로써 가장 효율적인 인터 예측 방법을 선택할 수 있다. 부호화 단위 결정부(120)는 인터 예측을 위하여 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 움직임 벡터 후보를 결정하고, 그 중 가장 효율적인 움직임 벡터를 움직임 벡터로 결정할 수 있다. 마찬가지로 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 참조 픽처 후보를 결정하고, 그 중 가장 효율적인 참조 픽처를 결정할 수 있다. 실시 예에 따라 참조 픽처는 현재 픽처에 대하여 미리 결정된 참조 픽처 리스트들 중에서 결정될 수 있다. 실시 예에 따라 예측의 정확성을 위하여 복수의 움직임 벡터 후보 중 가장 효율적인 움직임 벡터를 움직임 벡터 예측자로 결정하고, 움직임 벡터 예측자를 보정하여 움직임 벡터를 결정할 수 있다. 인터 예측은 부호화 단위 내부의 예측 단위별마다 병렬적으로 수행될 수 있다.
부호화 단위 결정부(120)는 스킵 모드에 따라 움직임 벡터 및 참조 픽처를 나타내는 정보만을 획득하여 부호화 단위를 복원할 수 있다. 스킵 모드에 의하면 움직임 벡터 및 참조 픽처를 나타내는 정보를 제외하고 잔차 신호를 포함한 모든 부호화 정보가 생략된다. 잔차 신호가 생략되므로 예측의 정확성이 매우 높은 경우에 스킵 모드가 사용될 수 있다.
예측 단위에 대한 예측 방법에 따라 사용되는 파티션 모드가 제한될 수 있다. 예를 들어 인트라 예측에는 2Nx2N, NxN 크기의 예측 단위에 대한 파티션 모드만이 적용되는 반면, 인터 예측에는 2Nx2N, 2NxN, Nx2N, NxN크기의 예측 단위에 대한 파티션 모드가 적용될 수 있다. 또한, 인터 예측의 스킵 모드에는 2Nx2N 크기의 예측 단위에 대한 파티션 모드만이 적용될 수 있다. 영상 부호화 장치(100)에서 각 예측 방법에 대하여 허용되는 파티션 모드는 부호화 효율에 따라 변경될 수 있다.
영상 부호화 장치(100)는 부호화 단위 또는 부호화 단위에 포함된 변환 단위를 기준으로 변환을 수행할 수 있다. 영상 부호화 장치(100)는 부호화 단위에 포함된 픽셀들에 대한 원본 값과 예측 값의 차이 값인 레지듀얼 데이터를 소정의 과정을 거쳐 변환시킬 수 있다. 예를 들어, 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 및 DCT/DST 변환을 통해 손실 압축을 할 수 있다. 또는 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 없이 무손실 압축을 할 수 있다.
영상 부호화 장치(100)는 양자화 및 변환에 가장 효율적인 변환 단위를 결정할 수 있다. 트리 구조에 따른 부호화 단위와 유사한 방식으로, 부호화 단위 내의 변환 단위도 재귀적으로 더 작은 크기의 변환 단위로 분할되면서, 부호화 단위의 레지듀얼 데이터가 변환 심도에 따라 트리 구조에 따른 변환 단위에 따라 구획될 수 있다. 그리고 영상 부호화 장치(100)는 결정된 변환 단위의 트리 구조에 따라 부호화 단위 및 변환 단위의 분할에 대한 변환 분할 정보를 생성할 수 있다.
영상 부호화 장치(100)는 부호화 단위의 높이 및 너비가 분할하여 변환 단위에 이르기까지의 분할 횟수를 나타내는 변환 심도가 설정될 수 있다. 예를 들어, 크기 2Nx2N의 현재 부호화 단위의 변환 단위의 크기가 2Nx2N이라면 변환 심도 0, 변환 단위의 크기가 NxN이라면 변환 심도 1, 변환 단위의 크기가 N/2xN/2이라면 변환 심도 2로 설정될 수 있다. 즉, 변환 심도에 따라 트리 구조에 따른 변환 단위가 설정될 수 있다.
결론적으로, 부호화 단위 결정부(120)는 복수의 인트라 예측 방법 및 인터 예측 방법 중 현재 예측 단위에 가장 효율적인 예측 방법을 결정한다. 그리고 부호화 단위 결정부(120)는 예측 결과에 따른 부호화 효율에 따라 예측 단위 결정 방식을 판단한다. 마찬가지로 부호화 단위 결정부(120)는 변환 결과에 따른 부호화 효율에 따라 변환 단위 결정 방식을 판단한다. 가장 효율적인 예측 단위와 변환 단위의 결정 방식에 따라 최종적으로 부호화 단위의 부호화 효율이 결정된다. 부호화 단위 결정부(120)는 각 심도별 부호화 단위의 부호화 효율에 따라 최대 부호화 단위의 계층 구조를 확정한다.
부호화 단위 결정부(120)는 심도별 부호화 단위의 부호화 효율성, 예측 방법들의 예측 효율성 등을 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용하여 측정할 수 있다.
부호화 단위 결정부(120)는 결정된 최대 부호화 단위의 계층 구조에 따라 부호화 단위의 심도별 분할 여부를 나타내는 분할 정보를 생성할 수 있다. 그리고 부호화 단위 결정부(120)는 분할이 완료된 부호화 단위에 대하여 예측 단위의 결정을 위한 파티션 모드 정보 및 변환 단위의 결정을 위한 변환 단위 분할 정보를 생성할 수 있다. 또한 부호화 단위 결정부(120)는 부호화 단위의 분할 방법이 2개 이상인 경우, 분할 방법을 나타내는 분할 형태 정보를 분할 정보와 함께 생성할 수 있다. 그리고 부호화 단위 결정부(120)는 예측 단위 및 변환 단위에 사용된 예측 방법 및 변환 방법에 관한 정보를 생성할 수 있다.
출력부(130)는 최대 부호화 단위의 계층 구조에 따라 최대 부호화 단위 결정부(110) 및 부호화 단위 결정부(120)가 생성한 정보들을 비트스트림의 형태로 출력할 수 있다.
일 실시예에 따른 최대 부호화 단위의 트리 구조에 따른 부호화 단위, 예측 단위 및 변환 단위의 결정 방식에 대해서는, 도 3 내지 12를 참조하여 상세히 후술한다.
도 1b는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 복호화 장치(150)의 블록도를 도시한다.
영상 복호화 장치(150)는 수신부(160), 부호화 정보 추출부(170) 및 복호화부(180)를 포함한다.
일 실시예에 따른 영상 복호화 장치(150)의 복호화 동작을 위한 부호화 단위, 심도, 예측 단위, 변환 단위, 각종 분할 정보 등 각종 용어의 정의는, 도 1 및 영상 부호화 장치(100)를 참조하여 전술한 바와 동일하다. 또한 영상 복호화 장치(150)의 목적이 영상 데이터의 복원인 바, 영상 부호화 장치(100)에서 사용된 다양한 부호화 방법들이 영상 복호화 장치(150)에 적용될 수 있다.
수신부(160)는 부호화된 비디오에 대한 비트스트림을 수신하여 파싱한다. 부호화 정보 추출부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 복호화에 필요한 정보들을 추출하여 복호화부(180)에 제공한다. 부호화 정보 추출부(170)는 현재 픽처에 대한 헤더, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트로부터 현재 픽처의 부호화 단위의 최대 크기에 관한 정보를 추출할 수 있다.
또한, 부호화 정보 추출부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 트리 구조에 따른 부호화 단위들에 대한 최종 심도 및 분할정보를 추출한다. 추출된 최종 심도 및 분할정보는 복호화부(180)로 출력된다. 복호화부(180)는 최대 부호화 단위를 추출된 최종 심도 및 분할정보에 따라 분할하여 최대 부호화 단위의 트리 구조를 결정할 수 있다.
부호화 정보 추출부(170)가 추출한 분할정보는, 영상 부호화 장치(100)에 의하여, 최소 부호화 오차를 발생시키는 것으로 결정된 트리 구조에 대한 분할정보다. 따라서, 영상 복호화 장치(150)는 최소 부호화 오차를 발생시키는 부호화 방식에 따라 데이터를 복호화하여 영상을 복원할 수 있다.
부호화 정보 추출부(170)는 부호화 단위에 포함된 예측 단위 및 변환 단위와 같은 데이터 단위에 대한 분할 정보를 추출할 수 있다. 예를 들어, 부호화 정보 추출부(170)는 예측 단위에 대한 가장 효율적인 파티션 모드에 관한 정보를 추출할 수 있다. 그리고 부호화 정보 추출부(170)는 변환 단위에 있어서 가장 효율적인 트리 구조에 대한 변환 분할 정보를 추출할 수 있다.
또한 부호화 정보 추출부(170)는 부호화 단위로부터 분할된 예측 단위들에 대하여 가장 효율적인 예측 방법에 대한 정보를 획득할 수 있다. 그리고 부호화 정보 추출부(170)는 부호화 단위로부터 분할된 변환 단위들에 대하여 가장 효율적인 변환 방법에 대한 정보를 획득할 수 있다.
부호화 정보 추출부(170)는 영상 부호화 장치(100)의 출력부(130)에서 비트스트림을 구성하는 방식에 따라 비트스트림으로부터 정보를 추출한다.
복호화부(180)는 분할정보에 기초하여 최대 부호화 단위를 가장 효율적인 트리구조를 가진 부호화 단위들로 분할할 수 있다. 그리고 복호화부(180)는 파티션 모드에 관한 정보에 따라 부호화 단위를 예측 단위로 분할할 수 있다. 복호화부(180)는 변환 분할 정보에 따라 부호화 단위를 변환 단위로 분할할 수 있다.
복호화부(180)는 예측 단위를 예측 방법에 대한 정보에 따라 예측할 수 있다. 그리고 복호화부(180)는 변환 단위를 변환 방법에 대한 정보에 따라 픽셀의 원본 값과 예측 값의 차이에 해당하는 레지듀얼 데이터를 역양자화 및 역변환할 수 있다. 또한 복호화부(180)는 예측 단위의 예측 결과와 변환 단위의 변환 결과에 따라 부호화 단위의 픽셀들을 복원할 수 있다.
도 2는 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(150)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(150)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 2를 참조하면, 현재 부호화 단위(200)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(180)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(200)와 동일한 크기를 가지는 부호화 단위(210a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(210b, 210c, 210d 등)를 결정할 수 있다.
도 2를 참조하면 영상 복호화 장치(150)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수직방향으로 분할한 두개의 부호화 단위(210b)를 결정할 수 있다. 영상 복호화 장치(150)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수평방향으로 분할한 두개의 부호화 단위(210c)를 결정할 수 있다. 영상 복호화 장치(150)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(210d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 3은 일 실시예에 따라 영상 복호화 장치(150)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(150)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300 또는 350)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(150)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(300 또는 350)와 동일한 크기를 가지는 부호화 단위(310 또는 360)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(320a, 320b, 330a, 330b, 330c, 370a, 370b, 380a, 380b, 380c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 3을 참조하면 분할 형태 정보가 두개의 부호화 단위로 현재 부호화 단위(300 또는 350)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 분할 형태 정보에 기초하여 현재 부호화 단위(300 또는 350)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(320a, 320b, 또는 370a, 370b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(300 또는 350)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(300 또는 350)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)의 형태를 고려하여 현재 부호화 단위(300 또는 350)의 긴 변을 분할하는 방향으로 현재 부호화 단위(300 또는 350)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(300 또는 350)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)를 3개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c) 중 소정의 부호화 단위(330b 또는 380b)의 크기는 다른 부호화 단위(330a, 330c, 380a, 380c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(300 또는 350)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있다.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(150)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 3을 참조하면 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)가 분할되어 생성된 3개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c)들 중 중앙에 위치하는 부호화 단위(330b, 380b)에 대한 복호화 과정을 다른 부호화 단위(330a, 330c, 380a, 380c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(150)는 중앙에 위치하는 부호화 단위(330b, 380b)에 대하여는 다른 부호화 단위(330a, 330c, 380a, 380c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 4는 일 실시예에 따라 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(400)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(400)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(400)를 수평 방향으로 분할하여 제2 부호화 단위(410)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 결정된 제2 부호화 단위(410)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 4를 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(410)를 적어도 하나의 제3 부호화 단위(420a, 420b, 420c, 420d 등)로 분할하거나 제2 부호화 단위(410)를 분할하지 않을 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(150)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 410)를 분할할 수 있으며, 제2 부호화 단위(410)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(400)가 제1 부호화 단위(400)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(410)로 분할된 경우, 제2 부호화 단위(410) 역시 제2 부호화 단위(410)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 420a, 420b, 420c, 420d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(420a, 420b, 420c, 420d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(410)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(150)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(410)를 홀수개의 제3 부호화 단위(420b, 420c, 420d)로 분할할 수 있다. 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(420b, 420c, 420d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(420b, 420c, 420d) 중 가운데에 위치하는 부호화 단위(420c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 4를 참조하면, 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(410)에 포함되는 홀수개의 제3 부호화 단위(420b, 420c, 420d)들 중 가운데에 위치하는 부호화 단위(420c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(410)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(420c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(420c)가 다른 부호화 단위(420b, 420d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 13은 일 실시예에 따라 영상 복호화 장치(150)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다. 도 13을 참조하면, 현재 부호화 단위(1300)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(1300)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(1340))에서 획득될 수 있다. 다만 이러한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(1300) 내의 소정 위치가 도 13에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(1300)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(150)는 소정 위치로부터 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
도 5은 일 실시예에 따라 영상 복호화 장치(150)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 5을 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(500)를 분할하여 홀수개의 부호화 단위들(520a, 520b, 520c)을 결정할 수 있다. 영상 복호화 장치(150)는 홀수개의 부호화 단위들(520a, 520b, 520c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(520b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(150)는 부호화 단위들(520a, 520b, 520c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(520a, 520b, 520c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(150)는 부호화 단위들(520a, 520b, 520c)의 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보에 기초하여 부호화 단위(520a, 520b, 520c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보는 부호화 단위(520a, 520b, 520c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보는 현재 부호화 단위(500)에 포함되는 부호화단위(520a, 520b, 520c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(520a, 520b, 520c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 좌표를 이용하여 가운데 부호화 단위(520b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(530a, 530b, 530c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(530b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(520b)를 현재 부호화 단위(500)가 분할되어 결정된 부호화 단위(520a, 520b, 520c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 기준으로, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(500)를 복수개의 부호화 단위(520a, 520b, 520c)로 분할할 수 있고, 부호화 단위(520a, 520b, 520c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c) 중 크기가 다른 부호화 단위(520b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(520a, 520b, 520c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(520a, 520b, 520c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 상단 부호화 단위(520a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 가운데 부호화 단위(520b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(520a) 및 가운데 부호화 단위(520b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(150)는 결정된 부호화 단위(520a, 520b, 520c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 상단 부호화 단위(520a) 및 하단 부호화 단위(520c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(520b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(150)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 5에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(150)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다.
도 5을 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(500)를 복수개의 부호화 단위들(520a, 520b, 520c)로 분할할 수 있으며, 복수개의 부호화 단위들(520a, 520b, 520c) 중 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 즉, 현재 부호화 단위(500)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(500)의 가운데에 위치하는 샘플(540)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(500)가 복수개의 부호화 단위들(520a, 520b, 520c)로 분할된 경우 상기 샘플(540)을 포함하는 부호화 단위(520b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(500)가 분할되어 결정된 복수개의 부호화 단위들(520a, 520b, 520c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(500) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(500)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(150)는 현재 부호화 단위(500)의 블록 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위(500)가 분할되어 결정되는 복수개의 부호화 단위(520a, 520b, 520c)들 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(520b)를 결정하여 소정의 제한을 둘 수 있다. 도 5을 참조하면 일 실시예에 따라 영상 복호화 장치(150)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(500)의 가운데에 위치하는 샘플(540)을 결정할 수 있고, 영상 복호화 장치(150)는 이러한 샘플(540)이 포함되는 부호화 단위(520b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(520b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(500)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 4를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(600)를 수직 방향으로 분할하여 제2 부호화 단위(610a, 610b)를 결정하거나 제1 부호화 단위(600)를 수평 방향으로 분할하여 제2 부호화 단위(630a, 630b)를 결정하거나 제1 부호화 단위(600)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(650a, 650b, 650c, 650d)를 결정할 수 있다.
도 6을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(610a, 610b)를 수평 방향(610c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(630a, 630b)의 처리 순서를 수직 방향(630c)으로 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(650a, 650b, 650c, 650d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(650e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 6을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(600)를 분할하여 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)을 분할하는 방법은 제1 부호화 단위(600)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 6을 참조하면 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향으로 분할하여 제2 부호화 단위(610a, 610b)를 결정할 수 있고, 나아가 제2 부호화 단위(610a, 610b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(610a)를 수평 방향으로 분할하여 제3 부호화 단위(620a, 620b)로 분할할 수 있고, 우측의 제2 부호화 단위(610b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(610a)가 분할되어 결정된 제3 부호화 단위(620a, 620b)가 처리되는 순서를 우측의 제2 부호화 단위(610b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(610a)가 수평 방향으로 분할되어 제3 부호화 단위(620a, 620b)가 결정되었으므로 제3 부호화 단위(620a, 620b)는 수직 방향(620c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(610a) 및 우측의 제2 부호화 단위(610b)가 처리되는 순서는 수평 방향(610c)에 해당하므로, 좌측의 제2 부호화 단위(610a)에 포함되는 제3 부호화 단위(620a, 620b)가 수직 방향(620c)으로 처리된 후에 우측 부호화 단위(610b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 7는 일 실시예에 따라 영상 복호화 장치(150)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 7를 참조하면 정사각형 형태의 제1 부호화 단위(700)가 비-정사각형 형태의 제2 부호화 단위(710a, 710b)로 분할될 수 있고, 제2 부호화 단위(710a, 710b)는 각각 독립적으로 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제2 부호화 단위 중 좌측 부호화 단위(710a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(720a, 720b)를 결정할 수 있고, 우측 부호화 단위(710b)는 홀수개의 제3 부호화 단위(720c, 720d, 720e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제3 부호화 단위들(720a, 720b, 720c, 720d, 720e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 7을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(700)를 재귀적으로 분할하여 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)를 결정할 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(700), 제2 부호화 단위(710a, 710b) 또는 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(710a, 710b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(720c, 720d, 720e)로 분할될 수 있다. 제1 부호화 단위(700)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(730))가 될 수 있고, 영상 복호화 장치(150)는 우측 제2 부호화 단위(710b)가 홀수개로 분할되어 결정된 제3 부호화 단위(720c, 720d, 720e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(700)에 포함되는 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)의 경계에 따라 제2 부호화 단위(710a, 710b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(710a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(720a, 720b)는 조건을 만족하지만, 우측 제2 부호화 단위(710b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(720c, 720d, 720e)들의 경계가 우측 제2 부호화 단위(710b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(720c, 720d, 720e)는 조건을 만족하지 못하는 것으로 결정될 수 있고, 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(710b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 8은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(800)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. 일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(800)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(800)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 8을 참조하면, 블록 형태 정보가 제1 부호화 단위(800)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(800)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(800)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(800)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(810a, 810b, 810c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(820a, 820b, 820c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(800)에 포함되는 제2 부호화 단위(810a, 810b, 810c, 820a, 820b, 820c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(810a, 810b, 810c, 820a, 820b, 820c)의 경계에 따라 제1 부호화 단위(800)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 8을 참조하면 정사각형 형태의 제1 부호화 단위(800)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(810a, 810b, 810c)들의 경계가 제1 부호화 단위(800)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(800)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(800)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(820a, 820b, 820c)들의 경계가 제1 부호화 단위(800)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(800)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(800)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(150)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 8을 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(800), 비-정사각형 형태의 제1 부호화 단위(830 또는 850)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 9은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(900)를 비-정사각형 형태의 제2 부호화 단위(910a, 910b, 920a, 920b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(910a, 910b, 920a, 920b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(150)는 제2 부호화 단위(910a, 910b, 920a, 920b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(910a)를 수평 방향으로 분할하여 제3 부호화 단위(912a, 912b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 좌측 제2 부호화 단위(910a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(910b)는 좌측 제2 부호화 단위(910a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(910b)가 동일한 방향으로 분할되어 제3 부호화 단위(914a, 914b)가 결정된 경우, 좌측 제2 부호화 단위(910a) 및 우측 제2 부호화 단위(910b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(912a, 912b, 914a, 914b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(900)를 4개의 정사각형 형태의 제2 부호화 단위(930a, 930b, 930c, 930d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 제1 부호화 단위(330)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(920a 또는 920b)를 수직 방향으로 분할하여 제3 부호화 단위(922a, 922b, 924a, 924b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(920a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(920b))는 상단 제2 부호화 단위(920a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(150)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 분할하여 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1012a, 1012b)를 결정할 수 있고, 우측 제2 부호화 단위(1010b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1014a, 1014b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1016a, 1016b, 1016c, 1016d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1000)가 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(150)는 상단 제2 부호화 단위(1020a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1022a, 1022b)를 결정할 수 있고, 하단 제2 부호화 단위(1020b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1024a, 1024b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 상단 제2 부호화 단위(1020a) 및 하단 제2 부호화 단위(1020b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1000)가 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 11는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1100)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1100)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(예를 들면, 1110a, 1110b, 1120a, 1120b, 1130a, 1130b, 1130c, 1130d 등)를 결정할 수 있다. 도 11을 참조하면 제1 부호화 단위1100)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(150)는 제1 부호화 단위(1100)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1110a, 1110b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수 있고, 제1 부호화 단위(1100)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1120a, 1120b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 결정할 수 있다. 이러한 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)의 분할 과정은 도 9와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 6과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 11을 참조하면 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1100)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(1100)가 분할되는 형태에 따라 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1110a, 1110b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수 있고, 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1110a)에 포함되는 제3 부호화 단위(1116a, 1116b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1110b)에 포함되는 제3 부호화 단위(1116c, 1116d)를 수직 방향으로 처리하는 순서(1117)에 따라 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1120a, 1120b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 결정할 수 있고, 영상 복호화 장치(150)는 상단 제2 부호화 단위(1120a)에 포함되는 제3 부호화 단위(1126a, 1126b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1120b)에 포함되는 제3 부호화 단위(1126c, 1126d)를 수평 방향으로 처리하는 순서(1127)에 따라 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 처리할 수 있다.
도 11을 참조하면, 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1110a, 1110b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1120a, 1120b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1100)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 12를 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(150)는 정사각형 형태인 제1 부호화 단위(1200)를 분할하여 하위 심도의 제2 부호화 단위(1202), 제3 부호화 단위(1204) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1200)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1200)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(1202)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1202)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1204)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1204)의 너비 및 높이는 제1 부호화 단위(1200)의 1/22배에 해당한다. 제1 부호화 단위(1200)의 심도가 D인 경우 제1 부호화 단위(1200)의 너비 및 높이의 1/21배인 제2 부호화 단위(1202)의 심도는 D+1일 수 있고, 제1 부호화 단위(1200)의 너비 및 높이의 1/22배인 제3 부호화 단위(1204)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(150)는 비-정사각형 형태인 제1 부호화 단위(1210 또는 1220)를 분할하여 하위 심도의 제2 부호화 단위(1212 또는 1222), 제3 부호화 단위(1214 또는 1224) 등을 결정할 수 있다.
영상 복호화 장치(150)는 Nx2N 크기의 제1 부호화 단위(1210)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1202, 1212, 1222 등)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1210)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1202) 또는 NxN/2 크기의 제2 부호화 단위(1222)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1212)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 2NxN 크기의 제1 부호화 단위(1220) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1202, 1212, 1222 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1220)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1202) 또는 N/2xN 크기의 제2 부호화 단위(1212)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1222)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN 크기의 제2 부호화 단위(1202) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1202)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1224)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 N/2xN 크기의 제2 부호화 단위(1212)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1212)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204) 또는 N/2xN/2 크기의 제3 부호화 단위(1224)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN/2 크기의 제2 부호화 단위(1214)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1212)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204) 또는 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2크기의 제3 부호화 단위(1224)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 부호화 단위(예를 들면, 1200, 1202, 1204)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1200)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1210)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1220)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1200, 1202 또는 1204)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1200, 1202 또는 1204)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1214 또는 1224)의 너비 및 높이는 제1 부호화 단위(1210 또는 1220)의 1/2배에 해당할 수 있다. 제1 부호화 단위(1210 또는 1220)의 심도가 D인 경우 제1 부호화 단위(1210 또는 1220)의 너비 및 높이의 1/2배인 제2 부호화 단위(1212 또는 1214)의 심도는 D+1일 수 있고, 제1 부호화 단위(1210 또는 1220)의 너비 및 높이의 1/2배인 제3 부호화 단위(1214 또는 1224)의 심도는 D+2일 수 있다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1300)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 13을 참조하면, 영상 복호화 장치(150)는 분할 형태 정보에 따라 제1 부호화 단위(1300)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1300)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1300)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1300)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1300)와 비-정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 제1 부호화 단위(1300)를 4개의 정사각형 형태의 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)의 한 변의 길이는 제1 부호화 단위(1300)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)의 심도는 제1 부호화 단위(1300)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1310)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1312a, 1312b, 1314a, 1314b, 1314c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1320)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1322a, 1322b, 1324a, 1324b, 1324c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1310 또는 1320)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1312a, 1312b, 1314a, 1314b, 1316a, 1316b, 1316c, 1316d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1312a, 1312b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1310)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1310)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1310)를 홀수개의 제2 부호화 단위(1314a, 1314b, 1314c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1314a, 1314b, 1314c)는 비-정사각형 형태의 제2 부호화 단위(1314a, 1314c) 및 정사각형 형태의 제2 부호화 단위(1314b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1314a, 1314c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1314b)의 한 변의 길이는 제1 부호화 단위(1310)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1314a, 1314b, 1314c)의 심도는 제1 부호화 단위(1310)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(1310)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1320)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 13을 참조하면, 홀수개로 분할된 부호화 단위들(1314a, 1314b, 1314c) 중 가운데에 위치하는 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1314a, 1314c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1314b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1314c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 13을 참조하면 영상 복호화 장치(150)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1310)를 분할하여 짝수개의 부호화 단위(1312a, 1312b)를 결정하거나 홀수개의 부호화 단위(1314a, 1314b, 1314c)를 결정할 수 있다. 영상 복호화 장치(150)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1310)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(1310)를 3개의 부호화 단위(1314a, 1314b, 1314c)로 분할할 수 있다. 영상 복호화 장치(150)는 3개의 부호화 단위(1314a, 1314b, 1314c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(150)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(150)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1314b)를, 제1 부호화 단위(1310)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 13을 참조하면, 제1 부호화 단위(1310)가 분할되어 생성된 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1314a, 1314c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1314b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1314c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(150)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(150)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 14는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(150)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 14를 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 기준 부호화 단위(1400)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1402)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1400)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 10의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1400)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 11의 현재 부호화 단위(1100 또는 1150)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(160)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(150)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(150)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(150)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 15는 일 실시예에 따라 픽쳐(1500)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(160)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(150)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 픽쳐(1500)에 포함되는 프로세싱 블록(1502, 1512)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(150)는 일 실시예에 따라 프로세싱 블록(1502, 1512)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(150)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 프로세싱 블록의 크기에 기초하여 픽쳐(1500)에 포함되는 각각의 프로세싱 블록(1502, 1512)을 결정할 수 있고, 프로세싱 블록(1502, 1512)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(160)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(150)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(160)는 비트스트림으로부터 프로세싱 블록(1502, 1512)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(150)는 상기 프로세싱 블록(1502, 1512)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1500)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(150)는 각각의 프로세싱 블록(1502, 1512)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1504, 1514)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1502, 1512)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1502)과 관련된 기준 부호화 단위 결정 순서(1504)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1502)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1512)과 관련된 기준 부호화 단위 결정 순서(1514)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1512)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다. 도1 내지 도 15에서는 영상을 최대 부호화 단위로 분할하고, 최대 부호화 단위를 계층적 트리 구조의 부호화 단위들로 분할하는 방법이 설명되었다. 도 16 내지 도 25에서는 부호화 단위를 분할하여 결정된 심도가 1만큼 부호화 단위들에 대하여 어떠한 부호화 순서에 따라 부호화 또는 복호화할 것인지가 설명된다.
도16은 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 복호화 장치(1600)가 도시되어 있다.
비디오 복호화 장치(1600)는 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)를 포함한다. 도 16에서 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)는 별도의 구성 단위로 표현되어 있으나, 실시 예에 따라 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)는 합쳐져 동일한 구성 단위로 구현될 수도 있다.
도 16에서 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)는 하나의 장치에 위치한 구성 단위로 표현되었지만, 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없다. 따라서 실시 예에 따라 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)가 분산되어 있을 수 있다.
블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)는 실시 예에 따라 하나의 프로세서에 의하여 구현될 수 있다. 또한 실시 예에 따라 복수 개의 프로세서에 의하여 구현될 수도 있다.
도 16의 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)에서 수행되는 기능은 도1b의 복호화부(180)에서 수행될 수 있다.
블록 분할부(1610)는 현재 블록의 분할 여부를 나타내는 분할 정보를 획득할 수 있다. 분할 정보는 현재 블록을 2개 이상의 더 작은 블록으로 분할할지 여부를 나타낸다. 그리고 블록 분할부(1610)는 분할 정보가 현재 블록의 분할을 나타낼 경우, 현재 블록을 2개 이상의 하위 블록들로 분할한다.
현재 블록은 현재 블록의 형태에 따라 다양한 형태로 분할될 수 있다. 예를 들어, 현재 블록은 현재 블록이 정사각형일 때, 현재 블록은 분할 정보에 따라 4개의 정사각형 모양의 하위 블록들로 분할될 수 있다.
만약 현재 블록의 형태에 2개 이상의 분할 방법들이 허용될 경우, 블록 분할부(1610)는 분할 형태 정보에 따라 분할 방법을 선택할 수 있다. 따라서 블록 분할부(1610)는 분할 정보가 현재 블록의 분할을 나타낼 경우, 현재 블록의 분할 방법을 나타내는 분할 형태 정보를 획득할 수 있다. 그리고 블록 분할부(1610)는 분할 형태 정보가 나타내는 분할 방법에 따라, 현재 블록을 분할할 수 있다.
예를 들어, 현재 블록이 2Nx2N 크기의 정사각형일 때, 분할 형태 정보는 NxN 분할, 2NxN 분할, Nx2N 분할, 수직 비균등 삼분할 및 수평 비균등 삼분할 중 현재 블록에 적용된 분할 방법을 나타낼 수 있다. NxN 분할은 현재 블록을 4개의 NxN 크기의 블록으로 분할하는 방법이다. 2NxN 분할은 현재 블록을 2NxN 크기의 블록으로 분할하는 방법이다. Nx2N 분할은 현재 블록을 Nx2N 크기의 블록으로 분할하는 방법이다. 수직 비균등 삼분할은 2Nx2N 크기의 블록을 너비가 같고, 높이의 비가 1:2:1인 세 개의 블록으로 분할하는 방법을 의미한다. 수평 비균등 삼분할은 2Nx2N 크기의 블록을 높이가 같고, 너비의 비가 1:2:1인 세 개의 블록으로 분할하는 방법을 의미한다. 이외에도 현재 블록은 다양한 수평 분할 방법 또는 수직 분할 방법들 중 하나에 의하여 분할될 수 있다.
현재 블록이 2NxN 크기의 수직 방향으로 긴 직사각형일 경우, 분할 형태 정보는 NxN 분할, 수직 비균등 삼분할 중 현재 블록에 적용된 분할 방법을 나타낼 수 있다. NxN 분할은 현재 블록을 2개의 NxN 크기의 블록으로 분할하는 방법이다. 수직 비균등 삼분할은 2NxN 크기의 블록을 너비가 같고, 높이의 비가 1:2:1인 세 개의 블록으로 분할하는 방법을 의미한다. 이외에도 현재 블록은 다양한 수평 분할 방법 또는 수직 분할 방법들 중 하나에 의하여 분할될 수 있다.
현재 블록이 Nx2N 크기의 수평 방향으로 긴 직사각형일 경우, 분할 형태 정보는 NxN 분할, 수평 비균등 삼분할 중 현재 블록에 적용된 분할 방법을 나타낼 수 있다. NxN 분할은 현재 블록을 2개의 NxN 크기의 블록으로 분할하는 방법이다. 수평 비균등 삼분할은 Nx2N 크기의 블록을 높이가 같고, 너비의 비가 1:2:1인 세 개의 블록으로 분할하는 방법을 의미한다. 이외에도 현재 블록은 다양한 수평 분할 방법 또는 수직 분할 방법들 중 하나에 의하여 분할될 수 있다.
위의 분할 방법 외에도 비대칭적 비율로 현재 블록을 분할하는 방법, 삼각형의 형태로 분할하는 방법, 기타 기하학적 형태로 분할하는 방법 등이 정사각형 및 직사각형 크기의 현재 블록 분할에 사용될 수 있다.
블록 분할부(1610)는 분할 정보가 현재 블록의 분할을 나타내지 않을 경우, 현재 블록을 분할하지 않는다. 그리고 블록 복호화부(1640)는 현재 블록을 복호화한다.
만약 현재 블록이 부호화 단위일 경우, 블록 분할부(1610)는 현재 블록을 최종 부호화 단위로 결정한다. 최종 부호화 단위는 더 이상 심도가 더 큰 부호화 단위로 분할되지 않는다. 일 실시 예에 따라 최종 부호화 단위인 현재 블록을 부호화 단위가 아닌 다른 데이터 단위로 분할할 경우, 블록 복호화부(1640)는 블록 분할부(1610)가 현재 블록을 분할하도록 할 수 있다.
일 실시 예에 따르면, 블록 분할부(1610)는 현재 블록을 계층적 트리 구조에 따라 하나 이상의 예측 단위로 분할할 수 있다. 마찬가지로 블록 분할부(1610)는 현재 블록을 계층적 트리 구조에 따라 하나 이상의 변환 단위로 분할할 수 있다. 그리고 블록 복호화부(1640)는 현재 블록을 예측 단위에 대한 예측 결과와 변환 단위에 대한 변환 결과에 따라 복원할 수 있다.
만약 현재 블록이 예측 단위라면, 블록 복호화부(1640)는 현재 블록에 대한 예측을 수행할 수 있다. 그리고 현재 블록이 변환 단위라면, 블록 복호화부(1640)는 현재 블록에 대한 양자화된 변환 계수를 역양자화 및 역변환하여 레지듀얼 데이터를 획득할 수 있다.
부호화 순서 결정부(1620)는 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득한다. 그리고 부호화 순서 결정부(1620)는 획득된 부호화 순서 정보에 따라, 하위 블록들의 복호화 순서를 결정할 수 있다.
부호화 순서 정보는 현재 블록에 포함된 2개 이상의 하위 블록들의 부호화 순서를 나타낸다. 부호화 순서 정보의 데이터량은 하위 블록들의 수와 부호화 순서 결정 방식에 따라 결정된다.
예를 들어, 하위 블록이 2개일 경우, 부호화 순서 정보는 2개의 하위 블록들 중 먼저 부호화된 하위 블록을 나타내도록 결정될 수 있다. 따라서 1비트의 데이터량을 가지는 플래그의 형태를 가질 수 있다.
그러나 하위 블록이 4개일 경우, 하위 블록의 부호화 순서의 경우의 수는 4!=24이다. 그러므로 24개의 부호화 순서를 나타내기 위하여, 5비트의 데이터량이 요구된다. 즉, 하위 블록의 수가 증가할수록 부호화 순서의 경우의 수가 증가한다. 따라서 부호화 순서 정보의 데이터량을 줄이기 위하여, 미리 정해진 기본 부호화 순서에서 일부 하위 블록 쌍(pair)의 부호화 순서가 스와핑(swap)되는지 여부를 결정하여 부호화 순서를 결정하는 부호화 순서 결정 방식이 사용될 수 있다. 하위 블록 쌍의 부호화 순서의 스와핑 여부를 나타내는 부호화 순서 정보는 기본 부호화 순서에 대하여 정방향 또는 역방향인지 나타낸다.
현재 블록이 포함된 현재 픽처는 기본 부호화 순서에 따라 부호화 및 복호화 된다. 현재 픽처에서 부호화 및 복호화되는 모든 블록 및 픽셀은 동일 레벨에서 기본 부호화 순서에 따라 부호화 및 복호화된다. 그러므로 현재 블록으로부터 분할된 동일 레벨의 하위 블록들 역시 기본 부호화 순서에 따라 부호화 및 복호화된다. 기본 부호화 순서의 일 실시 예가 후술할 도 17a 내지 17c에 도시되어 있다.
따라서 하위 블록 쌍이 기본 부호화 순서에 따라 부호화될 경우, 하위 블록 쌍이 정방향으로 부호화된다고 한다. 반대로 하위 블록 쌍이 기본 부호화 순서의 반대로 부호화될 경우, 하위 블록 쌍이 역방향으로 부호화된다고 한다.
예를 들어, 2개의 하위 블록이 수평 방향으로 인접하고, 정방향으로 부호화된 경우, 좌측의 하위 블록이 먼저 복호화되도록 부호화 순서 정보가 결정될 수 있다. 반대로 수평 방향으로 인접한 2개의 하위 블록이 역방향으로 부호화된 경우, 우측의 하위 블록이 먼저 복호화되도록 부호화 순서 정보가 결정될 수 있다.
마찬가지로, 2개의 하위 블록이 수직 방향으로 인접하고, 정방향으로 부호화된 경우, 상측의 하위 블록이 먼저 복호화되도록 부호화 순서 정보가 결정될 수 있다. 반대로 수직 방향으로 인접한 2개의 하위 블록이 역방향으로 부호화된 경우, 하측의 하위 블록이 먼저 복호화되도록 부호화 순서 정보가 결정될 수 있다.
부호화 순서 정보가 하위 블록 쌍의 부호화 순서만을 나타낼 경우, 부호화 순서 정보는 1비트의 데이터량을 가진다. 1비트의 데이터량을 가지는 부호화 순서 정보는 부호화 순서 플래그라고 정의될 수 있다.
부호화 순서 결정부(1620)는 비트스트림으로부터 부호화 순서 정보를 획득할 수 있다. 부호화 순서 정보는 비트스트림에서 분할 정보 후에 위치할 수 있다.
부호화 순서 결정부(1620)는 부호화 순서 정보를 현재 블록의 주변 환경에 따라 내재적으로 결정할 수 있다. 부호화 순서 정보는 현재 블록에 인접한 주변 블록들의 부호화 여부에 따라 결정될 수 있다. 예를 들어 부호화 순서 결정부(1620)는 하위 블록들 중 인접한 주변 블록이 많은 하위 블록이 먼저 복호화되도록 결정할 수 있다.
부호화 순서 결정부(1620)와 관련하여, 도17a 내지 17c에는 일 실시 예에 따른 기본 부호화 순서가 설명되어 있다. 도17a 내지 17c의 기본 부호화 순서가 Z 부호화 순서이다. Z 부호화 순서에서 따르면 좌측에서 우측 방향으로 데이터 단위들이 부호화되고, 현재 행의 데이터 단위들이 모두 부호화되면 현재 행의 아래 행에 포함된 데이터 단위들이 좌측에서 우측 방향으로 부호화된다. 앞서 설명된Z 부호화 순서를 래스터 스캔 순서(raster scan order)라고 한다.
도 17a에는 현재 픽처(1700)에 포함된 최대 부호화 단위들의 Z 부호화 순서에 의한 부호화 순서들이 도시되어 있다. Z 부호화 순서에 따라 최대 부호화 단위들은 0부터 15까지의 인덱스가 설정되어 있다. Z 부호화 순서에 따라 0 내지 3의 인덱스가 설정된 1행의 최대 부호화 단위들이 먼저 부호화되고, 4 내지 7의 인덱스가 설정된 2행의 최대 부호화 단위들이 좌측에서 우측 방향으로 부호화된다. 최대 부호화 단위 역시 내부적으로 Z 부호화 순서에 따라 부호화 된다.
도 17b에 현재 픽처(1700)에 포함된 최대 부호화 단위들 중 6번 인덱스의 최대 부호화 단위(1710)의 부호화 순서가 도시되어 있다. Z 부호화 순서에 따라 분할이 완료된 최종 심도의 부호화 단위들은 0부터 15까지의 인덱스가 설정되어 있다. Z 부호화 순서는 동일 심도의 데이터 단위에 대하여 적용된다. 그리고 심도n의 부호화 단위의 하위 부호화 단위가 전부 부호화되기 전까지 후순위의 심도 n의 부호화 단위는 부호화되지 않는다. 예를 들어, 인덱스가 5 내지 14인 부호화 단위들이 전부 부호화되기 전까지, 인덱스가 15인 부호화 단위는 부호화되지 않는다. 부호화 단위 역시 내부적으로 Z 부호화 순서에 따라 부호화 된다.
도17c에는 최대 부호화 단위(1710)에 포함된 부호화 단위들 중 6번 인덱스의 부호화 단위(1724)가 참조하는 참조 샘플이 표시되어 있다. 현재 부호화되는 6번 인덱스의 부호화 단위(1724) 주위에는0번 인덱스의 부호화 단위(1712)와 5번 인덱스의 부호화 단위(1722)만이 복원되어 있다. 따라서 부호화 단위(1724)에 대하여 부호화 단위(1712)의 픽셀(1750)과 부호화 단위(1722)의 픽셀(1760)만이 참조 샘플로 사용될 수 있다.
도 17a 내지 17c의 Z 부호화 순서는 데이터 단위에 따라 다른 방향으로 적용될 수도 있다. 예를 들면 Z 부호화 순서는 동일 행에서 우측에서 좌측 방향으로 데이터 단위를 부호화하도록 변경될 수 있다. 또한 Z 부호화 순서는 현재 행의 데이터 단위들이 모두 부호화된 후 현재 행의 위 행에 포함된 데이터 단위들이 부호화되도록 변경될 수 있다. 그리고 Z 부호화 순서는 동일 열에서 위에서 아래로 데이터 단위들이 부호화되고, 현재 열의 데이터 단위들이 모두 부호화된 후 현재 열의 우측 열에 포함된 데이터 단위들이 부호화되도록 변경될 수 있다.
부호화 순서 결정부(1620)와 관련하여, 도 18a 및 18b에는 부호화 단위(1810)가 정방향으로 부호화되는 케이스(1800)와 부호화 단위(1820)가 역방향으로 부호화되는 케이스(1802)가 각각 도시되어 있다. 도 18a 및 18b에 따라 부호화 순서를 변경함으로써 획득되는 이점이 설명된다.
도 18a 및 18b의 부호화 단위(1810, 1820)는 우상측 방향의 인트라 모드에 따라 예측된다. 도 18a 및 18b의 연속선(1830)은 원본 영상에서 직선의 형태로 배열된 일정한 값을 가지는 픽셀들이다. 따라서 현재 부호화 단위가 연속선(1830)의 방향으로 예측될 경우, 부호화 단위(1810,1820)의 예측 정확도는 향상될 것이다.
정방향으로 부호화되는 케이스(1800)에서 현재 부호화 단위(1810)의 좌측 부호화 단위, 상측 부호화 단위 및 우상측 부호화 단위가 현재 부호화 단위(1810)보다 먼저 복원된다. 따라서 현재 부호화 단위(1810)는 좌측 부호화 단위, 상측 부호화 단위 및 우상측 부호화 단위의 픽셀 또는 부호화 정보를 참조한다. 예를 들어, 우상측 부호화 단위의 하측 모서리에 위치한 픽셀들(1816)이 현재 부호화 단위 (1810)의 예측에 사용된다. 픽셀들(1816)은 현재 부호화 단위(1810)으로부터 공간적으로 떨어져 있어 현재 부호화 단위(1810)의 일부분(1814)에 대한 예측 정확도는 낮을 수 있다.
그러나 역방향으로 부호화되는 케이스(1802)에서 현재 부호화 단위(1810)의 우측 부호화 단위, 상측 부호화 단위 및 좌상측 부호화 단위가 현재 부호화 단위(1820)보다 먼저 복원되므로, 인트라 예측에서는 우측 단위의 좌측 모서리에 위치한 픽셀들(1826)이 현재 부호화 단위(1820)의 예측에 사용될 수 있다. 픽셀들(1826)은 현재 부호화 단위(1820)에 인접하고 있으므로, 현재 부호화 단위(1820)의 일부분(1824)에 대한 예측 정확도는 현재 부호화 단위(1810)의 일부분(1814)에 대한 예측 정확도보다 향상될 수 있다.
도 18a 및 18b에서 설명된 인트라 예측에 관한 실시 예와 같이, 인터 예측에 관하여도 역방향에 위치한 블록으로부터 부호화 정보를 획득함으로써 예측 정확도를 높일 수 있는 많은 케이스가 있다. 만약 현재 부호화 단위와 현재 부호화 단위의 우측 부호화 단위가 동일한 객체에 관한 부호화 단위일 경우, 현재 부호화 단위는 우측 부호화 단위의 움직임 정보와 서로 유사할 수 있다. 따라서 현재 부호화 단위의 움직임 정보를 우측 부호화 단위의 움직임 정보로부터 도출함으로써 부호화 효율을 증가시킬 수 있다.
그러므로 현재 부호화 단위에 대하여 정방향에서 부호화한 경우의 부호화 효율과 역방향에서 부호화한 경우의 부호화 효율을 비교하여 부호화 순서를 결정함으로써, 영상의 부호화 효율을 향상시킬 수 있다.
부호화 순서 정보는 현재 블록의 상위 블록에 적용된 부호화 순서 정보와 동일하게 설정될 수 있다. 예를 들어, 부호화 순서 결정부(1620)는 현재 블록이 예측 단위 또는 변환 단위일 때, 현재 블록이 포함된 부호화 단위에 적용된 부호화 순서 정보를 현재 블록에 적용할 수 있다. 다른 예로, 현재 블록이 부호화 단위일 때, 부호화 순서 결정부(1620)는 현재 블록보다 심도가 낮은 부호화 단위에 적용된 부호화 순서 정보를 현재 블록에 적용할 수 있다.
부호화 순서 결정부(1620)는 현재 블록에 대하여 두 개 이상의 부호화 순서 플래그가 있을 때, 한 개의 부호화 순서 플래그만을 비트스트림으로부터 획득하고, 나머지 부호화 순서 플래그는 비트스트림으로부터 획득된 부호화 순서 플래그에 연동되도록 결정할 수 있다.
부호화 순서 결정부(1620)의 부호화 순서 결정과 관련하여 도 19에서는 최대 부호화 단위와 최대 부호화 단위에 포함된 부호화 단위들의 부호화 순서를 설명하기 위한 최대 부호화 단위의 트리 구조를 나타낸다.
최대 부호화 단위(1950)는 복수 개의 부호화 단위들(1956, 1958, 1960, 1962, 1968, 1970, 1972, 1974, 1980, 1982, 1984, 1986)로 분할된다. 최대 부호화 단위(1950)는 트리 구조의 최상위 노드(1900)에 대응된다. 그리고 복수 개의 부호화 단위들(1956, 1958, 1960, 1962, 1968, 1970, 1972, 1974, 1980, 1982, 1984, 1986)은 각각 복수 개의 노드들(1906, 1908, 1910, 1912, 1918, 1920, 1922, 1924, 1930, 1932, 1934, 1936)에 대응된다. 트리 구조에서 부호화 순서를 나타내는 상단 부호화 순서 플래그(1902, 1914, 1926)는 화살표(1952, 1964, 1976)에 대응되고, 상단 부호화 순서 플래그(1904, 1916, 1928)는 화살표(1954, 1966, 1978)에 대응된다.
상단 부호화 순서 플래그는 네 개의 동일 심도의 부호화 단위들 중 상단에 위치한 두 개의 부호화 단위들의 부호화 순서를 나타낸다. 만약 상단 부호화 순서 플래그가 0일 경우, 부호화는 정방향으로 수행된다. 반대로 상단 부호화 순서 플래그가 1일 경우, 부호화는 역방향으로 수행된다.
마찬가지로 하단 부호화 순서 플래그는 네 개의 동일 심도의 부호화 단위들 중 하단에 위치한 두 개의 부호화 단위들의 부호화 순서를 나타낸다. 만약 하단 부호화 순서 플래그가 0일 경우, 부호화는 정방향으로 수행된다. 반대로 하단 부호화 순서 플래그가 1일 경우, 부호화는 역방향으로 수행된다.
예를 들어, 상단 부호화 순서 플래그(1914)가 0이므로 부호화 단위들(1968, 1970) 간의 부호화 순서는 정방향인 좌측에서 우측 방향으로 결정된다. 그리고 하단 부호화 순서 플래그(1916)가 1이므로 부호화 단위들(1972, 1974) 간의 부호화 순서는 역방향인 우측에서 좌측 방향으로 결정된다.
실시 예에 따라, 상단 부호화 순서 플래그와 하단 부호화 순서 플래그가 동일한 값을 가지도록 설정될 수 있다. 예를 들어, 상단 부호화 순서 플래그(1902)가 1로 결정될 경우, 상단 부호화 순서 플래그(1902)에 대응되는 하단 부호화 순서 플래그(1904)도 1로 결정될 수 있다. 1비트로 상단 부호화 순서 플래그와 하단 부호화 순서 플래그의 값이 결정되므로 부호화 순서 정보의 정보량이 감소한다.
실시 예에 따라, 현재 부호화 단위의 상단 부호화 순서 플래그와 하단 부호화 순서 플래그는 현재 부호화 단위보다 심도가 낮은 부호화 단위에 적용된 상단 부호화 순서 플래그 및 하단 부호화 순서 플래그 중 적어도 하나를 참조하여 결정될 수 있다. 예를 들어, 부호화 단위(1980, 1982, 1984, 1986)에 적용된 상단 부호화 순서 플래그(1926)와 하단 부호화 순서 플래그(1928)는 부호화 단위들(1972, 1974)에 적용된 하단 부호화 순서 플래그(1916)에 기초하여 결정될 수 있다. 따라서 상단 부호화 순서 플래그(1926)와 하단 부호화 순서 플래그(1928)는 부호화 순서 플래그(1916)와 동일한 값으로 결정될 수 있다. 상단 부호화 순서 플래그와 하단 부호화 순서 플래그의 값을 현재 부호화 단위의 상위 부호화 단위로부터 결정하므로, 부호화 순서 정보가 비트스트림으로부터 획득되지 않는다. 따라서 부호화 순서 정보의 정보량이 감소한다.
부호화 순서 결정부(1620)의 부호화 순서 결정과 관련하여 도 20a 및20b에는 수직 또는 수평 방향으로 배열된 3개 이상의 블록들의 부호화 순서가 부호화 순서 플래그에 따라 어떻게 변경되는지 설명된다.
도20a의 실시 예는 공간적으로 인접한 부호화 단위들의 부호화 순서가 서로 인접한 경우에만 부호화 순서 플래그에 기초하여 부호화 순서를 스와핑하는 방법에 관한 것이다.
부호화 단위(2000)는 세 개의 부호화 단위들(2010, 2020, 2030)로 분할된다. 기본 부호화 순서가 좌측에서 우측 방향일 때, 부호화 단위(2010), 부호화 단위(2020), 부호화 단위(2030)의 순서로 부호화된다. 그러나 부호화 순서 플래그(2040, 2050)에 따라서 부호화 순서가 변경될 수 있다.
부호화 순서 플래그(2040)은 부호화 단위(2010)과 부호화 단위(2020)의 부호화 순서를 나타낸다. 부호화 순서 플래그(2040)가 0일 경우, 부호화 단위(2010)와 부호화 단위(2020)의 부호화 순서는 정방향으로 결정된다. 따라서 부호화 단위(2010)가 부호화 단위(2020)보다 먼저 부호화 된다. 그러나 부호화 순서 플래그(2040)가 1일 경우, 부호화 단위(2010)와 부호화 단위(2020)의 부호화 순서는 역방향으로 결정되어, 부호화 단위(2020)가 부호화 단위(2010)보다 먼저 부호화 된다.
부호화 순서 플래그(2050)은 부호화 단위(2020)과 부호화 단위(2030)의 부호화 순서를 나타낸다. 부호화 순서 플래그(2050)는 부호화 순서 플래그(2040)가 정방향을 나타낼 때, 획득된다. 만약 부호화 순서 플래그(2040)가 역방향을 나타내면, 부호화 단위(2020)와 부호화 단위(2030)의 부호화 순서가 인접하지 않게 되어, 부호화 순서 플래그(2050)는 획득되지 않는다. 부호화 순서 플래그(2050)가 0일 경우, 부호화 단위(2020)와 부호화 단위(2030)의 부호화 순서는 정방향으로 결정된다. 따라서 부호화 단위(2020)가 부호화 단위(2030)보다 먼저 부호화 된다. 그러나 부호화 순서 플래그(2050)가 1일 경우, 부호화 단위(2020)와 부호화 단위(2030)의 부호화 순서는 역방향으로 결정되어, 부호화 단위(2030)가 부호화 단위(2020)보다 먼저 부호화 된다.
도 20a의 실시 예에 따르면, 3개의 부호화 단위의 부호화 순서는 3가지 케이스가 있다. 따라서 부호화 순서를 결정하기 위하여 1개 또는 2개의 부호화 순서 플래그가 사용된다.
도 20b의 실시 예는 세 개의 부호화 단위에 적용되는 부호화 순서의 방향을 나타내는 부호화 순서 플래그 (2060)에 기초하여 부호화 순서를 결정하는 방법에 관한 것이다.
부호화 순서 플래그 (2060)는 부호화 순서가 정방향 혹은 역방향인지 여부를 나타낸다. 예를 들어, 부호화 순서 플래그 (2060)가 0일 경우, 부호화 단위들 (2010, 2020, 2030)의 부호화 순서는 정방향으로 결정될 수 있다. 따라서 부호화 순서 플래그 (2060)가 0일 때, 부호화 단위 (2010), 부호화 단위 (2020), 부호화 단위 (2030) 순으로 부호화될 수 있다.
반대로 부호화 순서 플래그 (2060)가 1일 경우, 부호화 단위들 (2010, 2020, 2030)의 부호화 순서는 역방향으로 결정될 수 있다. 따라서 부호화 순서 플래그 (2060)가 1일 때, 부호화 단위 (2030), 부호화 단위 (2020), 부호화 단위 (2010) 순으로 부호화될 수 있다.
도 20b의 실시 예에 따르면, 3개의 부호화 단위의 부호화 순서는 2가지 케이스가 있다. 따라서 부호화 순서를 결정하기 위하여 1개의 부호화 순서 플래그가 사용된다.
도20a 및 20b의 실시 예에서 사용된 부호화 순서 결정 방법들은 4개 이상의 부호화 단위들에 대하여 적용될 수 있다.
부호화 순서 결정부(1620)는 현재 블록의 상위 데이터 단위에 대하여, 부호화 순서 변경 허용 정보를 확인할 수 있다. 부호화 순서 변경 허용 정보는 현재 블록의 상위 데이터 단위에 포함된 블록들에 대하여 부호화 순서의 변경이 허용되었는지 여부를 나타낸다. 만약 부호화 순서 변경 허용 정보가 부호화 순서의 변경이 허용하지 않으면, 상위 데이터 단위의 모든 블록들은 기본 부호화 순서에 따라 복호화된다. 또는 상위 데이터 단위의 모든 블록들은 상위 데이터 단위가 속한 데이터 단위의 부호화 순서에 따라 복호화될 수 있다. 만약 부호화 순서 변경 허용 정보가 현재 블록에 대한 부호화 순서 정보가 부호화되었다고 나타낼 경우, 부호화 순서 결정부(1620)는 부호화 순서 정보를 획득할 수 있다.
부호화 순서 변경 허용 정보는 비디오 파라미터 세트(Video Parameter Set), 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set), 슬라이스 세그멘트 헤더(Slice Segment Header), 최대 부호화 단위 헤더 등에 포함되어 있을 수 있다. 그리고 부호화 순서 정보의 종류가 2개 이상일 경우, 각 부호화 순서 정보에 대한 부호화 순서 변경 허용 정보는 서로 다른 헤더에 분할되어 저장될 수 있다.
부호화 순서 변경 허용 정보는 부호화 순서 정보가 제공되는 심도 또는 블록 크기를 나타낼 수 있다. 예를 들어, 부호화 순서 결정부(1620)는 현재 블록의 심도가 부호화 순서 변경 허용 정보가 나타내는 심도에 포함될 경우에만, 부호화 순서 정보를 획득할 수 있다. 다른 예로, 부호화 순서 결정부(1620)는 현재 블록의 심도가 부호화 순서 변경 허용 정보가 나타내는 블록 크기일 경우에만, 부호화 순서 정보를 획득할 수 있다.
예측 방법 결정부(1630)는 분할 정보가 현재 블록의 분할을 나타내지 않을 때, 현재 블록의 부호화 정보 및 현재 블록의 주변 블록들의 복호화 여부에 따라 현재 블록의 예측 방법을 결정할 수 있다.
현재 블록의 부호화 정보는 현재 블록이 어떠한 방식으로 예측되는지를 나타낼 수 있다. 구체적으로, 부호화 정보는 복수의 인트라 예측 모드 및 인터 예측 모드 중 하나의 예측 방법을 나타낼 수 있다. 현재 블록에 적용될 수 있는 인트라 예측 모드에는 방향성 모드, DC 모드, 플래너 모드, MPI 모드(Multi-Parameter Intra prediction mode), LM 크로마 모드(Linear-Model Chroma mode), MPC 모드(Most Probable Chroma mode) 등이 포함될 수 있다. 현재 블록에 적용될 수 있는 인터 예측 모드에는 머지 모드(merge mode), AMVP 모드(Advanced Motion Vector Prediction mode), 인터 스킵 모드(inter skip mode), OBMC 모드(Overlapped Block Motion Compensation mode), 서브 블록 MVP 모드(Sub-block Motion Vector Prediction mode), Affine MC 모드(Affine Motion Compensation mode), FRUC 모드(Frame Rate Up Conversion mode) 등이 포함될 수 있다. 따라서 예측 방법 결정부(1630)는 현재 블록의 부호화 정보에 따라 현재 블록에 적용되는 예측 모드를 결정할 수 있다.
현재 블록의 주변 블록들이 복호화되었는지 여부에 따라, 현재 블록의 예측에 참조되는 참조 블록 및 참조 샘플이 결정될 수 있다. 도 17 a 내지 17c에서 설명된 래스터 스캔에 의하면 현재 블록의 좌측, 상측, 좌상측, 우상측, 좌하측 블록들만이 현재 블록 이전에 복호화될 수 있다. 그러나 부호화 순서 결정부(1620)에 의하여 래스터 스캔과는 다른 부호화 순서에 따라 현재 블록이 속한 부호화 트리 블록이 부호화된 경우, 현재 블록의 우측 블록 및 우하측 블록도 현재 블록 이전에 복호화될 수 있다. 따라서 예측 방법 결정부(1630)는 현재 블록의 좌측, 상측, 좌상측, 우상측, 좌하측, 우측, 우하측 블록들이 복호화되었는지 여부에 따라 현재 블록의 예측에 참조되는 참조 블록 및 참조 샘플을 결정할 수 있다.
예측 방법 결정부(1630)는 현재 블록이 인트라 예측될 때, 현재 블록의 주변 블록의 복호화 여부에 따라 현재 블록이 참조할 참조 샘플들을 결정할 수 있다. 인트라 예측 모드에서는 현재 블록과 인접한 샘플들의 샘플 값을 참조하여 현재 블록의 샘플들의 예측 값이 결정된다. 그러므로 현재 블록의 인접 블록들 중 현재 블록들보다 먼저 복호화되어 현재 블록이 참조할 수 있는 인접 블록만이, 현재 블록의 예측에 사용될 수 있다.
구체적인 예로, 도 17a 내지 17c에서 설명된 래스터 스캔의 정방향에 따라 블록들이 부호화될 경우, 현재 블록의 상측 블록, 좌측 블록, 좌상측 블록, 좌하측 블록 및 우상측 블록의 참조 샘플들이 현재 샘플의 예측에 사용될 수 있다. 반대로, 래스터 스캔의 역방향에 따라 블록들이 부호화될 경우, 현재 블록의 상측 블록, 우측 블록, 우상측 블록, 우하측 블록 및 좌상측 블록의 참조 샘플들이 현재 샘플의 예측에 사용될 수 있다.
예측 방법 결정부(1630)에 관련한 부호화 순서의 방향에 따른 참조 샘플들의 이용 방법이, 도 21 내지 도 25b는 구체적으로 설명된다.
도21은 방향성 인트라 예측 모드에 필요한 참조 샘플의 결정 방법을 나타낸다.
제1 실시 예(2120)는 상측 행의 블록들과 좌측 블록이 복원된 경우, 인트라 예측에 사용되는 참조 샘플들(2102, 2106, 2108, 2110)을 나타낸다. 제1 실시 예(2120)의 경우, 복원된 상측 블록들의 참조 샘플들(2102, 2106)과 복원된 좌측 블록의 참조 샘플들(2108)이 인트라 예측에 사용될 수 있다. 좌하측 블록의 참조 샘플들(2110)은 좌하측 블록이 복원된 경우에만 사용될 수 있다. 참조 샘플들(2102, 2106, 2108, 2110)을 사용하기 위하여 제1 인트라 예측 방향군(2125)에 포함된 예측 방향들이 현재 블록(2100)의 인트라 예측에 사용될 수 있다.
제2 실시 예(2130)는 상측 행의 블록들과 우측 블록이 복원된 경우, 인트라 예측에 사용되는 참조 샘플들(2102, 2104, 2112, 2114)을 나타낸다. 제2 실시 예(2130)의 경우, 복원된 상측 블록들의 참조 샘플들(2102, 2104)과 복원된 우측 블록의 참조 샘플들(2112)이 인트라 예측에 사용될 수 있다. 우하측 블록의 참조 샘플들(2114)은 우하측 블록이 복원된 경우에만 사용될 수 있다. 참조 샘플들(2102, 2104, 2112, 2114)을 사용하기 위하여 제2 인트라 예측 방향군(2135)에 포함된 예측 방향들이 현재 블록(2100)의 인트라 예측에 사용될 수 있다.
제3 실시 예(2140)는 상측 블록, 우측 블록 및 좌측 블록이 복원된 경우, 인트라 예측에 사용되는 참조 샘플들(2102, 2108, 2112)을 나타낸다. 제3 실시 예(2140)의 경우, 상측 블록의 참조 샘플들(2102), 좌측 블록의 참조 샘플들(2108) 및 우측 블록의 참조 샘플들(2112)이 인트라 예측에 사용될 수 있다. 제3 인트라 예측 방향군(2145)에 포함된 예측 방향들이 현재 블록(2100)의 인트라 예측에 사용될 수 있다.
제1 실시 예(2120)와 제2 실시 예(2130)에 의하면, 좌하측 블록의 참조 샘플들(2110)과 우하측 블록의 참조 샘플들(2114)을 사용할 수 없는 경우, 예측의 정확성이 낮을 위험성이 있다. 그러나 제3 실시 예(2140)의 경우, 사용되는 참조 샘플(2102, 2108, 2112)들이 모두 현재 블록에 인접하므로 예측 정확도가 다른 실시 예에 비하여 상대적으로 높을 수 있다.
제4 실시 예(2150)는 상측 행의 블록들만이 복원된 경우, 인트라 예측에 사용되는 참조 샘플들(2102, 2104, 2106)을 나타낸다. 제4 실시 예(2150)의 경우, 복원된 상측 블록들의 참조 샘플들(2102, 2104, 2106)만이 인트라 예측에 사용될 수 있다. 제4 인트라 예측 방향군(2155)에 포함된 예측 방향들이 현재 블록(2100)의 인트라 예측에 사용될 수 있다.
제4 실시 예(2150)에서는 제3실시 예와 다르게, 현재 블록과 인접하는 참조 샘플이 상측 블록의 참조 샘플(2102) 밖에 없다. 또한 참조 샘플(2104, 2106)은 현재 블록으로부터 공간적으로 떨어져 있어, 다른 실시 예들(2120, 2130, 2140)에 비하여 예측 정확도가 낮을 수 있다. 그러므로 제4 실시 예(2150)에 사용되는 인트라 예측 방법은, 현재 블록(2100)과 인접한 상측 블록의 참조 샘플(2102)를 이용하는 수직 모드 또는 수직 모드와 인접한 방향의 방향성 예측 모드인 것이 바람직하다.
Z 부호화 순서에서는 제1 실시 예(2120)에 의한 인트라 예측 방법이 사용되나, 2개의 좌우로 인접한 블록들의 부호화 순서가 스와핑된 경우, 먼저 우측 블록이 제4 실시 예(2150)에 의한 인트라 예측 방법으로 예측될 수 있다. 그리고 우측 블록이 복원된 후 좌측 블록이 제3 실시 예(2140)에 의한 인트라 예측 방법에 의하여 예측됨으로써, 좌측 블록이 복원될 수 있다.
도 22a 및 22b는 우측 블록의 복호화 여부에 따른 DC 모드의 예측 방법을 나타낸다. 도 22a는 현재 블록의 부호화 순서가 래스터 스캔에 따른 기본 부호화 순서로 고정된 경우의 참조 샘플들의 범위를 나타낸다. 그리고 도 22b는 현재 블록의 부호화 순서가 기본 부호화 순서로 고정되지 않은 경우의 참조 샘플들의 범위를 나타낸다.
도 22a에 의하면 현재 블록(2200)의 좌측, 상측, 좌상측에 인접한 샘플들(2210) 중 복호화된 샘플들이 참조 샘플로 사용될 수 있다. 그러나 도 22b의 경우, 현재 블록(2230)의 우측 블록이 현재 블록(2230)보다 먼저 복호화되어 있을 수 있으므로, 현재 블록(2230)의 좌측, 상측, 좌상측, 우상측, 우측에 인접한 샘플들(2240) 중 복호화된 샘플들이 참조 샘플로 사용될 수 있다.
DC 모드에서 현재 블록의 모든 샘플들이 동일한 예측 값을 가지게 되므로, 참조 샘플의 샘플 값과 현재 블록의 샘플의 예측 값 간에 불연속이 발생할 수 있다. 따라서 DC 모드에서 현재 블록의 경계에 위치한 샘플의 예측 값을 인접한 참조 샘플에 따라 필터링함으로써 현재 블록의 샘플의 예측 값에 연속성을 추구할 수 있다. 따라서 DC 모드에 따른 예측 정확성이 증가될 수 있다.
도22a에 의하면, 현재 블록(2200)의 좌측, 상측, 좌상측 샘플만이 참조 샘플로 결정될 수 있으므로, 현재 블록의 좌측, 상측 경계에 위치한 샘플들(2220)의 예측 값만이 예측 값 필터링의 대상이 된다. 그러나 도 22b에 의하면, 현재 블록(2230)의 우측, 우상측 샘플도 참조 샘플로 결정될 수 있으므로, 현재 블록의 좌측, 상측, 우측 경계에 위치한 샘플들(2250)의 예측 값이 예측 값 필터링의 대상이 될 수 있다.
도 23a 내지 23c는 우측 블록의 복호화 여부에 따른 플래너 모드의 예측 방법을 나타낸다. 도 23a는 현재 블록의 부호화 순서가 래스터 스캔에 따른 기본 부호화 순서로 고정된 경우, 플래너 모드에 의한 현재 샘플의 예측 값 결정 방법을 나타낸다. 도 23b 및 23c는 현재 블록의 부호화 순서가 기본 부호화 순서로 고정되지 않은 경우, 플래너 모드에 의한 현재 샘플의 예측 값 결정 방법을 나타낸다.
도 23a에 따르면, 현재 샘플(2300)에 대한 4개의 참조 샘플들(2302, 2304, 2306, 2308)의 이중 보간 값이 현재 샘플의 예측 값으로 결정된다. 제1 모서리 샘플(2302)과 제1 측면 샘플(2304)을 현재 샘플(2300)의 수평 위치에 기초하여 선형 보간함으로써 수평 보간 값이 결정된다. 그리고 제2 모서리 샘플(2306)과 제2 측면 샘플(2308)을 현재 샘플(2300)의 수직 위치에 기초하여 선형 보간함으로써 수직 보간 값이 결정된다. 그리고 수평 보간 값과 수직 보간 값의 평균 값이 현재 샘플(2300)의 예측 값으로 결정된다.
도 23b에서 현재 블록의 좌측 블록이 복호화되지 않고, 현재 블록의 우측 블록이 복호화된 경우, 플래너 모드에 따른 현재 샘플 예측 방법이 설명된다.
도 23b의 경우, 도23a와 대칭적으로 4개의 참조 샘플들(2312, 2314, 2316, 2318)이 결정된다. 도 23b의 플래너 모드 예측 방법은 도23a와 참조 샘플들의 위치가 다를 뿐, 현재 샘플의 예측 값 결정 방법은 도 23a와 유사하다.
구체적으로, 제1 모서리 샘플(2312)과 제1 측면 샘플(2314)을 현재 샘플(2310)의 수평 위치에 기초하여 선형 보간함으로써 수평 보간 값이 결정된다. 그리고 제2 모서리 샘플(2316)과 제2 측면 샘플(2318)을 현재 샘플(2310)의 수직 위치에 기초하여 선형 보간함으로써 수직 보간 값이 결정된다. 그리고 수평 보간 값과 수직 보간 값의 평균 값이 현재 샘플(2310)의 예측 값으로 결정된다.
도 23c에서 현재 블록의 좌측 블록 및 우측 블록이 모두 복호화된 경우, 플래너 모드에 따른 현재 샘플 예측 방법이 설명된다.
도 23c에 의하면, 현재 블록의 상측, 좌측, 우측에 참조 샘플들이 존재하기 때문에, 플래너 모드에 따른 예측 정확도가 증가할 수 있다. 다만 현재 블록의 하측은 복호화되지 않았으므로, 제1 모서리 샘플(2328) 및 제2 모서리 샘플(2330)을 현재 샘플(2320)의 수평 위치에 따라 선형 보간함으로써, 수직 보간 값을 계산하기 위한 하측 중간 값이 결정된다.
그리고 제1 측면 샘플(2322)과 제2 측면 샘플(2324)를 현재 샘플(2320)의 수평 거리에 기초하여 보간함으로써 수평 보간 값이 결정된다. 또한 제3 측면 샘플(2326)과 하측 중간 값을 현재 샘플(2320)의 수직 위치에 기초하여 보간함으로써 수평 보간 값이 결정된다. 그리고 수평 보간 값과 수직 보간 값의 평균 값이 현재 샘플(2310)의 예측 값으로 결정된다.
또한 도 23c와 같이 현재 블록의 좌측 블록 및 우측 블록이 모두 복호화된 경우, 도 23a의 플래너 모드 예측 방법과 도 23b의 플래너 모드 예측 방법 중 하나를 선택하고, 선택된 플래너 모드 예측 방법에 따라 현재 블록이 예측되도록 할 수 있다. 또는 현재 블록의 좌측 블록 및 우측 블록이 모두 복호화되었을 경우, 플래너 모드에 따른 예측 값은 도24a의 방법에 따라 획득된 예측 값과 도24b의 방법에 따라 획득된 예측 값을 평균하여 결정될 수 있다.
또는 현재 블록의 좌측 블록 및 우측 블록이 모두 복호화되었을 경우, 현재 블록의 특정 행(Line)에 위치한 샘플은 좌측 및 우측에 위치한 측면 샘플들(2304, 2314)을 현재 샘플의 위치에 따라 보간함으로써 예측될 수 있다.
도 24a 내지 24d는 MPI(Multi-Parameter Intra) 모드에 따라 현재 블록을 예측하는 방법을 나타내다. MPI 모드는 현재 샘플의 주변 샘플들 중 특정 방향의 복호화된 샘플들 또는 예측된 샘플들을 이용하여 현재 샘플을 예측하는 방법이다. 구체적으로, 현재 샘플은 주변 샘플의 샘플 값들의 가중 평균 값으로 결정되며, 가중 평균 값에 사용되는 가중치는 주변 블록으로부터 예측되거나, 비트스트림으로부터 획득될 수 있다. 현재 블록의 예측에 사용되는 주변 블록들의 샘플 값들은 주변 블록의 예측 값이거나 복원 값일 수 있다.
도 24a는 현재 블록의 부호화 순서가 래스터 스캔에 따른 기본 부호화 순서로 고정된 경우, MPI 모드에 따른 현재 블록 예측 방법을 나타낸다. 그리고 도 24b 내지 24d는 현재 블록의 부호화 순서가 기본 부호화 순서로 고정되지 않은 경우, MPI 모드에 따른 현재 블록 예측 방법을 나타낸다.
도 24a에 따르면, 현재 블록(2400)에 포함된 현재 샘플의 예측 값은 현재 샘플의 좌측 샘플의 샘플 값과 현재 샘플의 상측 샘플의 샘플 값을 평균 또는 가중 평균하여 획득된 평균 값 또는 가중 평균 값으로 결정된다. 도 24a에 따르면, 참조 샘플이 현재 블록(2400)의 좌측 및 상측에 위치하기 때문에, 현재 블록(2400)의 좌상측 샘플부터 먼저 예측된다.
예를 들어, 현재 블록(2400)의 샘플(2402)의 예측 값은 참조 샘플(2412)과 참조 샘플(2414)의 샘플 값들의 가중 평균 값으로 결정된다. 그리고 샘플(2402)의 예측 값 또는 복원 값은 샘플(2402) 우측의 샘플(2404)과 샘플(2402) 하측의 샘플(2406)의 예측에 사용된다. 따라서 샘플(2404)의 예측 값은 샘플(2402)과 참조 샘플(2416)의 샘플 값들의 가중 평균 값으로 결정되며, 샘플(2406)의 예측 값은 샘플(2402)과 참조 샘플(2418)의 샘플 값들의 가중 평균 값으로 결정된다. 이 때 가중 평균값 결정에 사용되는 가중치는 현재 샘플의 위치에 따라 결정될 수 있다. 또한 가중치를 현재 블록(2400)의 나머지 샘플들도 마찬가지 방법으로 예측된다.
도 24b의 경우, 도24a와 반대로 현재 블록(2420)의 상측 블록과 우측 블록이 먼저 복호화되었고, 현재 블록(2420)의 좌측 블록이 복호화되지 않았다. 따라서 도24b에 따르면, 현재 블록(2420)에 포함된 현재 샘플의 예측 값은 현재 샘플의 우측 샘플의 샘플 값과 현재 샘플의 상측 샘플의 샘플 값을 평균 또는 가중 평균하여 획득된 평균 값 또는 가중 평균 값으로 결정된다. 도 24b에 따르면, 참조 샘플이 현재 블록(2420)의 우측 및 상측에 위치하기 때문에, 현재 블록(2420)의 우상측 샘플부터 먼저 예측된다.
예를 들어, 현재 블록(2420)의 샘플(2422)의 예측 값은 참조 샘플(2432)과 참조 샘플(2434)의 샘플 값들의 가중 평균 값으로 결정된다. 그리고 샘플(2422)의 예측 값 또는 복원 값은 샘플(2422) 좌측의 샘플(2424)과 샘플(2422) 하측의 샘플(2426)의 예측에 사용된다. 따라서 샘플(2424)의 예측 값은 샘플(2422)과 참조 샘플(2436)의 샘플 값들의 가중 평균 값으로 결정되며, 샘플(2426)의 예측 값은 샘플(2422)과 참조 샘플(2438)의 샘플 값들의 가중 평균 값으로 결정된다. 이 때 가중 평균값 결정에 사용되는 가중치는 현재 샘플의 위치에 따라 결정될 수 있다. 현재 블록(2420)의 나머지 샘플들도 마찬가지 방법으로 예측된다.
도 24c의 경우, 현재 블록(2440)의 상측 블록만이 먼저 복호화되었고, 현재 블록(2440)의 우측 블록 및 좌측 블록이 모두 복호화되지 않았다. 따라서 도24c에 따르면, 현재 블록의 샘플들을 예측하기 위하여 현재 블록의 상측에 있는 참조 샘플들만이 사용된다. 도 24c의 경우, 도24a와 마찬가지로 현재 블록의 좌상측 샘플부터 우하측 방향으로 현재 블록이 예측될 수 있다. 또한 도 24b와 마찬가지로, 현재 블록의 우상측 샘플부터 우하측 방향으로 현재 블록이 예측될 수도 있다. 따라서 현재 블록의 상측 블록만이 먼저 복호화된 경우, 샘플들의 예측 순서 및 예측 방법은 현재 블록의 주변 블록을 참조하여 결정되거나, 비트스트림으로부터 획득될 수 있다.
도 24c에서는 현재 블록(2440)의 좌상측 샘플부터 우하측 방향으로 현재 블록(2440)이 예측되는 경우를 나타낸다. 도 24c에 의하면 현재 블록(2440)의 예측 방법은 도 24a와 유사하다. 다만, 도 24a와 다르게, 현재 블록(2440)의 좌측 경계에 인접한 샘플들은 좌측에 참조할 샘플이 없으므로 상측 샘플의 샘플 값에 의하여만 예측된다.
예를 들어, 현재 블록(2440)의 샘플(2442)의 예측 값은 참조 샘플(2452) 의 샘플 값으로 결정된다. 그리고 샘플(2442)의 예측 값 또는 복원 값은 샘플(2442) 좌측의 샘플(2444)과 샘플(2442) 하측의 샘플(2446)의 예측에 사용된다. 현재 블록(2440)의 좌측 경계에 위치한 샘플(2446)의 예측 값은 샘플(2442)의 예측 값 또는 복원 값에 기초하여 결정되고, 샘플(2446)의 아래에 위치한 샘플들도 마찬가지 방식으로 예측된다. 현재 블록(2440)의 나머지 부분에 위치한 샘플들은 도 24a와 동일한 방식으로 예측된다.
도 24d의 경우, 현재 블록(2460)의 상측 블록, 우측 블록 및 좌측 블록이 모두 복호화되었다. 따라서 도24d에 따르면, 현재 블록(2460)의 샘플들을 예측하기 위하여 현재 블록(2460)의 상측, 우측 및 좌측에 있는 참조 샘플들이 모두 사용될 수 있다. 그러므로 도 24d의 경우, 현재 블록(2460)의 상측, 우측 및 좌측에 있는 참조 샘플들이 다양한 방식에 의하여 현재 블록(2460)이 예측될 수 있다.
도 24d에 개시된 일 실시예에 따르면, 현재 블록(2460)은 좌측 서브 블록(2470)과 우측 서브 블록(2480)으로 구분된다. 그리고 좌측 서브 블록(2470)은 도 24a와 같이 좌상측 샘플부터 우하측 방향에 따른 순서대로 예측되고, 우측 서브 블록(2480)은 도 24b와 같이 우상측 샘플부터 좌하측 방향에 따른 순서대로 예측된다. 구체적으로, 좌측 서브 블록(2470)의 좌상측 모서리에 위치한 샘플(2472)는 상측 참조 샘플(2490)과 좌측 참조 샘플(2492)의 평균 값 또는 가중 평균 값으로 결정된다. 그리고 좌측 서브 블록(2470)의 나머지 샘플들도 좌측 및 상측의 샘플들의 샘플 값의 평균 값 또는 가중 평균 값으로 결정된다. 우측 서브 블록(2480)의 우상측 모서리에 위치한 샘플(2482)는 상측 참조 샘플(2494)과 우측 참조 샘플(2496)의 평균 값 또는 가중 평균 값으로 결정된다. 그리고 우측 서브 블록(2480)의 나머지 샘플들도 우측 및 상측의 샘플들의 샘플 값의 평균 값 또는 가중 평균 값으로 결정된다.
도 25a 및 25b는 LM 크로마 모드와 MPC 모드에서 참조하는 참조 영역을 설명한다. LM 크로마 모드와 MPC 모드는 동일 위치의 루마 블록으로부터 크로마 블록을 예측하기 위한 예측 모드이다. LM 크로마 모드와 MPC 모드는 공통적으로 루마 샘플과 크로마 샘플이 모두 복호화된 참조 영역을 결정하고, 상기 참조 영역으로부터 루마 샘플과 크로마 샘플의 상관 관계를 획득하고, 크로마 블록에 대응되는 루마 블록의 샘플 값과 상기 루마 샘플과 크로마 샘플의 상관 관계에 따라 크로마 블록을 예측하는 것을 특징으로 한다.
다만, LM 크로마 모드는 참조 영역으로부터 획득된 루마 샘플의 샘플 값과 크로마 샘플의 샘플 값의 상관 관계로부터 루마-크로마 선형 모델을 유도하고, 상기 루마-크로마 선형 모델에 따라 동일 위치의 루마 블록으로부터 크로마 블록을 예측한다. 그리고 MPC 모드는 참조 영역으로부터 획득된 루마 샘플의 샘플 값과 크로마 샘플의 샘플 값의 상관 관계로부터 각 루마 샘플 값에 대한 최빈 크로마(MPC, Most Probable Chroma) 값을 결정하고, 최빈 크로마 값 분석 결과에 따라 동일 위치의 루마 블록으로부터 크로마 블록을 예측한다.
도 25a는 현재 블록의 부호화 순서가 래스터 스캔에 따른 기본 부호화 순서로 고정된 경우, LM 크로마 모드와 MPC 모드의 참조 영역을 나타낸다. 그리고 도 25b는 현재 블록의 부호화 순서가 기본 부호화 순서로 고정되지 않은 경우, LM 크로마 모드와 MPC 모드의 참조 영역을 나타낸다.
도 25a에 의하면, 현재 블록(2500)의 좌측, 상측 및 좌상측 블록들이 복호화되어 있다. 따라서 현재 블록(2500)으로부터 좌측, 상측 및 좌상측 방향으로 참조 영역(2510)이 설정된다.
도 25b에 의하면, 도 25a와 반대로 현재 블록(2520)의 우측, 상측 및 우상측 블록들이 복호화되어 있다. 따라서 현재 블록(2520)으로부터 우측, 상측 및 우상측 방향으로 참조 영역(2530)이 설정된다.
만약, 도 25a 및 25b와 달리, 현재 블록의 좌측, 상측, 우측, 좌상측, 우상측 블록들이 모두 복호화된 경우, 참조 영역은 현재 블록의 좌측, 상측, 우측, 좌상측, 우상측 방향으로 설정될 수 있다.
도 25a 및 25b의 참조 영역(2510, 2530)의 폭은 참조 영역 오프셋에 따라 결정된다. 참조 영역 오프셋은 현재 블록(2500, 2520)의 크기에 의하여 결정되거나, 비트스트림으로부터 획득된 부호화 정보에 의하여 결정될 수 있다.
도 21 내지 도 25b에 따라 설명된 인트라 예측 모드 외에도, 예측 방법 결정부(1630)는 우측 블록이 복호화된 경우, 좌측 블록 대신에 또는 좌측 블록과 함께 우측의 참조 샘플을 이용하여 현재 블록을 예측할 수 있다.
예측 방법 결정부(1630)는 현재 블록이 인터 예측될 때, 현재 블록의 주변 블록의 복호화 여부에 따라 현재 블록이 참조할 참조 블록을 결정할 수 있다. 인터 예측 모드에서 예측 방법 결정부(1630)는 현재 블록과 공간적 또는 시간적으로 인접한 블록으로부터 움직임 벡터를 획득하고, 획득된 움직임 벡터에 따라 현재 블록을 예측한다.
시간적으로 인접한 블록을 포함하는 참조 픽처는 현재 픽처보다 먼저 복호화된다. 따라서 블록들의 부호화 순서와 상관 없이 시간적 인접 블록은 동일한 방법으로 결정될 수 있다. 그러나 공간적 인접 블록들 중 일부는 블록들의 부호화 순서에 의하여 복호화되지 않았을 수 있다. 그러므로 복호화 순서에 따라 현재 블록이 참조하는 공간적 인접 블록이 달라질 수 있다.
구체적인 예로, 도 17a 내지 17c에서 설명된 래스터 스캔의 정방향에 따라 블록들이 부호화될 경우, 현재 블록의 상측 블록, 좌측 블록, 좌상측 블록, 좌하측 블록 및 우상측 블록의 움직임 벡터들이 현재 샘플의 예측에 사용될 수 있다. 반대로, 래스터 스캔의 역방향에 따라 블록들이 부호화될 경우, 현재 블록의 상측 블록, 우측 블록, 우상측 블록, 우하측 블록 및 좌상측 블록의 참조 샘플들이 현재 샘플의 예측에 사용될 수 있다.
만약 현재 블록의 좌측 및 우측 블록들이 모두 복호화된 경우, 현재 블록의 상측 블록, 좌측 블록, 우측 블록, 좌상측 블록, 좌하측 블록, 우하측 블록 및 우상측 블록이 모두 사용될 수 있다. 반대로, 현재 블록의 좌측 및 우측 블록들이 모두 복호화되지 않은 경우, 현재 블록의 상측 블록, 좌상측 블록 및 우상측 블록만이 사용될 수 있다.
도 26에서 머지 모드와 AMVP 모드에서 현재 블록의 부호화 순서에 따른, 현재 블록의 공간적 인접 블록이 설명된다.
머지 모드는 현재 블록의 주변 블록들로 구성된 머지 후보 리스트로부터 현재 블록의 참조 블록을 결정하고, 참조 블록으로부터 추출된 움직임 벡터와 참조 픽처 인덱스에 따라 현재 블록을 예측하는 인터 예측 모드이다. 머지 후보 리스트는 우측 블록으로부터 움직임 벡터를 획득할 수 있는지 여부에 따라 다른 방식으로 결정될 수 있다.
우측 블록으로부터 움직임 벡터를 획득할 수 없는 경우, 예측 방법 결정부(1630)는 참조 샘플(2604)을 포함하는 좌측 블록, 참조 샘플(2606)을 포함하는 좌하측 블록, 참조 샘플(2608)을 포함하는 상측 블록, 참조 샘플(2610)을 포함하는 우상측 블록, 참조 샘플(2602)을 포함하는 좌상측 블록의 순서대로 움직임 벡터들을 추출할 수 있다. 그리고 예측 방법 결정부(1630)는 추출된 움직임 벡터들을 순서대로 머지 후보 리스트에 포함시킬 수 있다.
우측 블록으로부터 움직임 벡터를 획득할 수 있는 경우, 예측 방법 결정부(1630)는 참조 샘플(2614)을 포함하는 우측 블록, 참조 샘플(2616)을 포함하는 우하측 블록, 참조 샘플(2612)을 포함하는 상측 블록, 참조 샘플(2602)을 포함하는 좌상측 블록, 참조 샘플(2604)을 포함하는 좌측 블록, 참조 샘플(2610)을 포함하는 우상측 블록의 순서대로 움직임 벡터들을 추출할 수 있다. 그리고 예측 방법 결정부(1630)는 추출된 움직임 벡터들을 순서대로 머지 후보 리스트에 포함시킬 수 있다.
만약 머지 후보 리스트에 최대 5개의 머지 후보만이 포함될 수 있을 경우, 상기 6개의 블록들 중 인터 예측된 블록들만이 상기 순서대로 머지 후보 리스트에 포함될 수 있다. 따라서 우측 블록만이 복호화 및 인터 예측되고, 좌측 블록은 그렇지 않은 경우, 머지 후보 리스트에 좌측 블록만 제외되어, 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 우상측 블록이 포함될 수 있다.
AMVP 모드에서는 참조 블록으로부터 움직임 벡터 예측자가 획득되고, 비트스트림으로부터 차분 움직임 벡터와 참조 픽처 인덱스가 별도로 획득된다. 그리고 움직임 벡터 예측자와 차분 움직임 벡터로부터 획득된 움직임 벡터와 참조 픽처 인덱스에 따라 현재 블록을 예측된다. 머지 모드와 유사하게, AMVP 모드에서도 현재 블록의 주변 블록으로부터 획득된 움직임 벡터가 포함된 AMVP 후보 리스트가 획득된다. 또한 AMVP 후보 리스트는 우측 블록으로부터 움직임 벡터를 획득할 수 있는지 여부에 따라 다른 방식으로 결정될 수 있다.
우측 블록으로부터 움직임 벡터를 획득할 수 없는 경우, 예측 방법 결정부(1630)는 참조 샘플(2604)을 포함하는 좌측 블록, 참조 샘플(2606)을 포함하는 좌하측 블록으로부터 제1 움직임 벡터 예측자 후보를 결정할 수 있다. 그리고 예측 방법 결정부(1630)는 참조 샘플(2608)을 포함하는 상측 블록, 참조 샘플(2610)을 포함하는 우상측 블록, 참조 샘플(2602)을 포함하는 좌상측 블록으로부터 제2 움직임 벡터 예측자 후보를 결정할 수 있다. 그리고 예측 방법 결정부(1630)는 제1 움직임 벡터 예측자 후보와 제2 움직임 벡터 예측자 후보를 포함하는 AMVP 후보 리스트로부터 움직임 벡터 예측자를 결정할 수 있다.
우측 블록으로부터 움직임 벡터를 획득할 수 있는 경우, 예측 방법 결정부(1630)는 참조 샘플(2614)을 포함하는 우측 블록, 참조 샘플(2616)을 포함하는 우하측 블록 으로부터 제1 움직임 벡터 예측자 후보를 결정할 수 있다. 그리고 예측 방법 결정부(1630)는 참조 샘플(2608)을 포함하는 상측 블록, 참조 샘플(2610)을 포함하는 우상측 블록, 참조 샘플(2602)을 포함하는 좌상측 블록으로부터 제2 움직임 벡터 예측자 후보를 결정할 수 있다. 그리고 예측 방법 결정부(1630)는 참조 샘플(2604)을 포함하는 좌측 블록, 참조 샘플(2606)을 포함하는 좌하측 블록으로부터 제3 움직임 벡터 예측자 후보를 결정할 수 있다. 만약 좌측 블록 및 좌하측 블록으로부터 움직임 벡터를 추출할 수 없는 경우, 제2 움직임 벡터 예측자 후보를 스케일링하여 획득된 움직임 벡터가 제3 움직임 벡터 예측자 후보로 결정될 수 있다. 그리고 예측 방법 결정부(1630)는 제1 움직임 벡터 예측자 후보, 제2 움직임 벡터 예측자 후보 및 제3 움직임 벡터 예측자 후보를 포함하는 AMVP 후보 리스트로부터 움직임 벡터 예측자를 결정할 수 있다.
머지 모드의 머지 모드 리스트에는 시간적 인접 블록으로부터 획득된 움직임 벡터 후보가 포함될 수 있다. 마찬가지로, AMVP 모드의 AMVP 후보 리스트에서는 시간적 인접 블록으로부터 예측 움직임 벡터 후보가 포함될 수 있다.
인터 예측에서 좌측 주변 블록들은 좌측 블록, 좌상측 블록, 좌하측 블록 등 특정 위치에 제한되지 않으며 우측 주변 블록들도 우측 블록, 우하측 블록, 우상측 블록 등 특정 위치에 제한되지 않으며, 상측 주변 블록도 상측, 좌상측, 우상측 등 특정 위치에 제한되지 않는다. 또한 스킵 모드, 머지 모드 및 AMVP모드에서 좌측 블록과 우측 블록의 복호화 여부에 따라 후보 리스트는 다르게 구성 할수 있으며 허용하는 후보 리스트의 개수도 다를 수 있다.
도 27에서 현재 블록의 우측 블록을 이용한 OBMC 모드의 예측 방법이 설명된다. OBMC 모드에서는, 현재 블록의 경계에 있는 샘플들에 대하여 현재 블록의 움직임 벡터와 현재 블록의 인접 블록의 움직임 벡터를 이용하여 복수의 예측 값이 획득된다. 그리고 복수의 예측 값을 가중 평균하여, 현재 샘플의 최종 예측 값이 획득된다. 가중 평균에 있어서, 일반적으로 현재 움직임 벡터에 대한 가중치가 인접 움직임 벡터에 대한 가중치보다 크다.
예를 들어, 현재 블록(2700)의 좌측 경계에 위치한 샘플(2702)에 대하여, 현재 블록(2700)의 현재 움직임 벡터가 획득되고, 샘플(2702)의 좌측 샘플(2704)을 포함하는 현재 블록(2700)의 좌측 블록으로부터 인접 움직임 벡터가 획득된다. 그리고, 현재 움직임 벡터에 의하여 획득된 예측 값과 인접 움직임 벡터에 의하여 획득된 예측 값을 가중 평균하여 샘플(2702)의 최종 예측 값이 결정된다.
현재 블록(2700)의 좌측 경계와 상측 경계에 모두 인접한 샘플(2706)의 경우, 현재 블록(2700)의 현재 움직임 벡터가 획득되고, 샘플(2706)의 좌측 샘플(2708)을 포함하는 현재 블록(2700)의 좌측 블록으로부터 제1 인접 움직임 벡터가 획득되고, 샘플(2706)의 상측 샘플(2710)을 포함하는 현재 블록(2700)의 상측 블록으로부터 제2 인접 움직임 벡터가 획득된다. 그리고, 현재 움직임 벡터에 의하여 획득된 예측 값, 제1 인접 움직임 벡터에 의하여 획득된 예측 값 및 제2 인접 움직임 벡터에 의하여 획득된 예측 값을 가중 평균하여 샘플(2706)의 최종 예측 값이 결정된다.
현재 블록이 래스터 스캔에 따른 부호화 순서에 따라 복호화되는 경우, 우측 블록이 복호화되지 않은 바, 샘플(2712)에 대한 OBMC 모드에 따른 예측 방법이 적용되지 않는다. 그러나 만약 현재 블록(2700)의 우측 블록이 복호화된 경우, 현재 블록(2700)의 우측 경계에 위치한 샘플들에 대하여도 OBMC 모드에 따른 예측 방법이 적용될 수 있다.
예를 들어, 현재 블록(2700)의 우측 블록이 복호화된 경우, 현재 블록(2700)의 우측 경계에 위치한 샘플(2712)에 대하여, 현재 블록(2700)의 현재 움직임 벡터가 획득되고, 샘플(2712)의 우측 샘플(2714)을 포함하는 현재 블록(2700)의 우측 블록으로부터 인접 움직임 벡터가 획득된다. 그리고, 현재 움직임 벡터에 의하여 획득된 예측 값과 인접 움직임 벡터에 의하여 획득된 예측 값을 가중 평균하여 샘플(2712)의 최종 예측 값이 결정된다.
도 28a 내지 28c에서 현재 블록의 우측 블록을 이용한 서브 블록 MVP 모드의 예측 방법이 설명된다. 서브 블록 MVP 모드는 블록을 서브 블록들로 나누고, 각 서브 블록들에 대하여 움직임 벡터 예측자를 결정하는 인터 예측 모드이다.
도 28a에서 우측 블록이 복호화되지 않았거나 인터 예측되지 않은 경우, 서브 블록 MVP 모드에 따른 현재 블록 예측 방법이 설명된다. 도 28a에 따르면, 현재 블록(2800)의 우측 블록은 복호화되지 않았거나 인터 예측되지 않아 현재 블록(2800)의 인터 예측에 이용될 수 없다. 현재 블록(2800)은 4개의 서브 블록(2802, 2804, 2806, 2808)을 포함한다. 각 서브 블록들(2802, 2804, 2806, 2808)에 대하여, 서브 블록의 좌측 샘플을 포함하는 블록과 상측 샘플을 포함하는 블록으로부터 2개의 공간적 움직임 벡터 후보가 획득된다. 또한 서브 블록과 동일 위치의 샘플을 포함하는 참조 픽처의 블록으로부터 시간적 움직임 벡터가 획득된다. 그리고 2개의 공간적 움직임 벡터 후보와 시간적 움직임 벡터를 평균하여 서브 블록의 움직임 벡터를 결정한다.
예를 들어, 서브 블록(2802)에 대하여, 서브 블록(2802)의 좌측 샘플(2810)을 포함하는 블록으로부터 제1 공간적 움직임 벡터가 획득될 수 있다. 만약 좌측 샘플(2810)을 포함하는 블록이 부호화되지 않았거나, 인터 예측되지 않은 경우, 좌측 샘플(2810)의 아래에 위치한 샘플들을 포함하는 블록을 참조하여 제1 공간적 움직임 벡터가 획득될 수 있다.
그리고 서브 블록(2802)의 상측 샘플(2812)을 포함하는 블록으로부터 제2 공간적 움직임 벡터가 획득될 수 있다. 만약 상측 샘플(2812)을 포함하는 블록이 부호화되지 않았거나, 인터 예측되지 않은 경우, 상측 샘플(2812)의 우측에 위치한 샘플들을 포함하는 블록을 참조하여 제2 공간적 움직임 벡터가 획득될 수 있다.
현재 픽처가 참조하는 참조 픽처로부터 서브 블록(2802)과 동일한 위치에 있는 블록을 참조하여 시간적 움직임 벡터가 획득될 수 있다. 또는 모든 서브 블록들(2802, 2804, 2806, 2808)의 시간적 움직임 벡터를 서브 블록(2808)과 동일한 위치에 있는 블록을 참조 하여 결정할 수 있다.
최종적으로, 제1 공간적 움직임 벡터, 제2 공간적 움직임 벡터 및 시간적 움직임 벡터를 평균함으로써 서브 블록(2802)의 움직임 벡터가 획득된다. 다른 서브 블록들(2804, 2806, 2808)에 대하여도 동일한 방법으로 움직임 벡터가 결정된다.
도 28b에서 현재 블록의 좌측 블록과 우측 블록이 모두 인터 예측 모드에 따라 복호화된 경우, 서브 블록 MVP 모드에 따른 현재 블록 예측 방법이 설명된다. 도 28b에 따르면, 현재 블록(2820)의 좌측에 있는 서브 블록들(2822, 2826)에 대하여 도 28a에 따른 움직임 벡터 결정 방법이 적용될 수 있다. 그러나 현재 블록(2820)의 우측에 있는 서브 블록들(2824, 2828)에 대하여는, 서브 블록의 우측 샘플을 포함하는 블록으로부터 획득된 제3 공간적 움직임 벡터가 서브 블록의 움직임 벡터 획득을 위하여 추가적으로 획득될 수 있다.
예를 들어, 서브 블록(2824)의 우측 샘플(2830)을 포함하는 블록으로부터 제3 공간적 움직임 벡터가 획득될 수 있다. 만약 우측 샘플(2830)을 포함하는 블록이 부호화되지 않았거나, 인터 예측되지 않은 경우, 우측 샘플(2830)의 하측에 위치한 샘플들을 포함하는 블록을 참조하여 제3 공간적 움직임 벡터가 획득될 수 있다. 그리고 서브 블록(2824)의 제1 공간적 움직임 벡터, 제2 공간적 움직임 벡터 및 시간적 움직임 벡터가 도 28a에서 설명된 방식에 따라 획득될 수 있다.
최종적으로, 서브 블록(2824)의 제1 공간적 움직임 벡터, 제2 공간적 움직임 벡터, 제3 공간적 움직임 벡터가 및 시간적 움직임 벡터를 평균함으로써 서브 블록(2824)의 움직임 벡터가 획득된다. 서브 블록(2828)의 움직임 벡터 역시 마찬가지 방법으로 결정될 수 있다.
도 28c에서 좌측 블록이 복호화되지 않았거나 인터 예측되지 않은 경우, 서브 블록 MVP 모드에 따른 현재 블록 예측 방법이 설명된다. 도 28c에 따르면, 현재 블록(2840)의 좌측 블록은 복호화되지 않았거나 인터 예측되지 않아 현재 블록(2840)의 인터 예측에 이용될 수 없다. 현재 블록(2840)은 4개의 서브 블록(2842, 2844, 2846, 2848)을 포함한다. 각 서브 블록들(2842, 2844, 2846, 2848)에 대하여, 서브 블록의 우측 샘플을 포함하는 블록과 상측 샘플을 포함하는 블록으로부터 2개의 공간적 움직임 벡터 후보가 획득된다. 또한 서브 블록과 동일 위치의 샘플을 포함하는 참조 픽처의 블록으로부터 시간적 움직임 벡터가 획득된다. 그리고 2개의 공간적 움직임 벡터 후보와 시간적 움직임 벡터를 평균하여 서브 블록의 움직임 벡터를 결정한다.
예를 들어, 서브 블록(2844)에 대하여, 서브 블록(2844)의 우측 샘플(2850)을 포함하는 블록으로부터 제1 공간적 움직임 벡터가 획득될 수 있다. 만약 우측 샘플(2850)을 포함하는 블록이 부호화되지 않았거나, 인터 예측되지 않은 경우, 우측 샘플(2850)의 아래에 위치한 샘플들을 포함하는 블록을 참조하여 제1 공간적 움직임 벡터가 획득될 수 있다.
그리고 서브 블록(2844)의 상측 샘플(2852)을 포함하는 블록으로부터 제2 공간적 움직임 벡터가 획득될 수 있다. 만약 상측 샘플(2852)을 포함하는 블록이 부호화되지 않았거나, 인터 예측되지 않은 경우, 상측 샘플(2852)의 좌측에 위치한 샘플들을 포함하는 블록을 참조하여 제2 공간적 움직임 벡터가 획득될 수 있다.
현재 픽처가 참조하는 참조 픽처로부터 서브 블록(2844)과 동일한 위치에 있는 블록을 참조하여 시간적 움직임 벡터가 획득될 수 있다. 또는 모든 서브 블록들(2842, 2844, 2846, 2848)의 시간적 움직임 벡터를 서브 블록(2848)과 동일한 위치에 있는 블록을 참조 하여 결정할 수 있다.
최종적으로, 제1 공간적 움직임 벡터, 제2 공간적 움직임 벡터 및 시간적 움직임 벡터를 평균함으로써 서브 블록(2844)의 움직임 벡터가 획득된다. 다른 서브 블록들(2842, 2846, 2848)에 대하여도 동일한 방법으로 움직임 벡터가 결정된다.
도 29a 및 29b에서 현재 블록의 우측 블록을 이용한 아핀 모션 보상 예측 모드의 예측 방법이 설명된다. 영상에서 객체의 확대 또는 축소, 회전, 원근감 및 기타 불규칙한 동작 등이 나타난다. 이러한 객체의 움직임을 정확하게 예측하기 위하여 아핀 변환(Affine Transform)을 이용하는 아핀 모션 보상 예측 모드가 사용될 수 있다.
아핀 변환(Affine Transform)은 공선점(collinear point)를 보존하는 두 아핀 공간(Affine Space) 상의 변환을 의미한다. 여기서, 아핀 공간은 유클리드 공간을 일반화한 기하학적 구조이며, 아핀 공간에서는 거리와 각도 측정에 대한 속성은 유지되지 않고, 점들 사이의 공선성(Collinearity)과 선들의 평행성, 동일 선상의 점들 간의 길이 비율만이 유지된다. 즉, 아핀 변환에 의하면 직선 및 직선들의 평행 여부를 보존하며, 직선의 방향 및 각도, 직선 간의 거리, 면적을 보존하지 않는다. 따라서 객체가 확대 및 축소되거나, 회전할 때, 아핀 모션 보상 예측 모드에 따라 영상에서 객체가 포함된 영역을 정확하게 예측할 수 있다.
도 29a에서 아핀 변환이 간단하게 설명된다. 블록(2900)의 4개의 꼭지점(2902, 2904, 2906, 2908)은 각각 움직임 벡터(2912, 2914, 2916, 2918)에 대응된다. 움직임 벡터(2912, 2914, 2916, 2918)에 의하여 블록(2900)이 아핀 변환됨으로써, 아핀 변환 블록(2910)이 생성된다. 블록(2900)에 위치한 샘플들은 아핀 변환 블록(2910)의 샘플들에 매칭될 수 있다.
예를 들어, 꼭지점(2906)과 블록(2900) 상단의 중앙에 위치한 샘플(2920)을 잇는 선분에 위치한 샘플(2922)이 아핀 변환된 샘플(2924)은 꼭지점(2906)의 움직임 벡터(2916)가 가리키는 아핀 변환 블록(2910)의 샘플(2926)과 샘플(2920)의 움직임 벡터(2930)가 가리키는 아핀 변환 블록(2910)의 샘플(2928)를 잇는 선분에 위치한다. 아핀 변환된 샘플(2924)의 위치는 샘플(2922)의 위치에 따라 움직임 벡터(2912, 2914, 2916, 2918)를 선형 보간하여 획득된 움직임 벡터(2930)의 의하여 결정될 수 있다. 마찬가지로 블록(2900)의 다른 샘플들도 아핀 변환되어 아핀 변환 블록(2910)의 샘플들과 매칭될 수 있다. 도 29a에서 설명된 바와 같이, 블록의 모든 샘플들은 아핀 변환을 위하여 생성된 움직임 벡터를 이용하여 인터 예측될 수 있다.
도 29b는 아핀 모션 보상 예측 모드에서 참조하는 블록들이 설명된다.
아핀 모션 보상 예측 모드에는 아핀 머지 모드(Affine Merge Mode)와 아핀 AMVP 모드(Affine AMVP Mode)가 있다. 아핀 머지 모드에서는 현재 블록의 주변 블록들 중 아핀 모션 보상 예측 모드에 따라 예측된 블록들이 후보 블록들로 결정된다. 그리고 후보 블록들 중 선택된 블록으로부터 아핀 모션 보상을 위한 정보가 획득된다. 아핀 AMVP 모드에서는 현재 블록의 주변 블록으로부터 아핀 변환에 이용되는 2개 이상의 움직임 벡터 예측자가 결정된다. 그리고 움직임 벡터 예측자와 비트스트림에 포함된 차분 움직임 벡터와 참조 픽처 정보를 이용하여 현재 블록이 예측된다. 구체적으로, 아핀 머지 모드와 아핀 AMVP 모드에 따른 예측 방법이 설명된다.
현재 블록(2950)에 아핀 머지 모드가 적용될 때, 현재 블록(2950)의 아핀 모션 보상 예측 모드로 예측된 주변 블록들로부터 후보 블록들이 결정된다. 블록들 간 부호화 순서의 교체가 허용되지 않는 경우, 현재 블록(2950)의 좌측 샘플(2960)을 포함하는 주변 블록, 상측 샘플(2964)을 포함하는 주변 블록, 우상측 샘플(2966)을 포함하는 주변 블록, 좌하측 샘플(2968)을 포함하는 주변 블록, 좌상측 샘플(2972)을 포함하는 주변 블록의 순서대로, 각 주변 블록이 아핀 모션 보상 예측 모드로 예측되었는지 확인된다. 그리고 아핀 모션 보상 예측 모드로 예측된 주변 블록들이 상기 순서에 따라 아핀 머지 리스트(Affine Merge List)에 포함된다.
블록들 간 부호화 순서의 교체가 허용되는 경우, 현재 블록(2950)의 좌측 샘플(2960)을 포함하는 주변 블록, 우측 샘플(2962)을 포함하는 주변 블록, 상측 샘플(2964)을 포함하는 주변 블록, 우상측 샘플(2966)을 포함하는 주변 블록, 좌하측 샘플(2968)을 포함하는 주변 블록, 우하측 샘플(2970)을 포함하는 주변 블록, 좌상측 샘플(2972)을 포함하는 주변 블록의 순서대로, 각 주변 블록이 아핀 모션 보상 예측 모드로 예측되었는지 확인된다. 마찬가지로 아핀 모션 보상 예측 모드로 예측된 주변 블록들이 상기 순서에 따라 아핀 머지 리스트에 포함된다. 따라서 현재 블록(2950)의 우측 블록과 우하측 블록이 아핀 머지 리스트에 포함될 수 있다.
상기 아핀 머지 리스트의 후보 블록들 중 비트스트림으로부터 획득된 아핀 머지 플래그(Affine merge flag)가 가리키는 블록으로부터 현재 블록(2950)의 아핀 변환을 위한 움직임 벡터들과 참조 픽처 정보가 획득된다. 그리고 움직임 벡터들과 참조 픽처 정보에 따라 현재 블록(2950)이 예측된다.
현재 블록(2950)에 아핀 AMVP 모드가 적용될 때, 2개 이상의 움직임 벡터 예측자가 현재 블록(2950)의 주변 블록들로부터 결정된다. 일 실시예에 따르면 3개의 움직임 벡터 예측자들이 결정될 수 있다. 예를 들어, 제1 움직임 벡터 예측자는 현재 블록(2950)의 좌상측 꼭지점(2952) 주변에 위치한 주변 블록으로부터 획득된다. 상기 좌상측 꼭지점(2952)의 좌상측에 위치한 샘플(2972)을 포함하는 주변 블록, 좌측에 위치한 샘플(2974)을 포함하는 주변 블록 및 상측에 위한 샘플(2976)을 포함하는 주변 블록으로부터 제1 움직임 벡터 예측자가 획득될 수 있다.
제2 움직임 벡터 예측자는 현재 블록(2950)의 우상측 꼭지점(2954) 주변에 위치한 주변 블록으로부터 획득된다. 상기 우상측 꼭지점(2954)의 상측에 위치한 샘플(2964)을 포함하는 주변 블록, 우상측에 위치한 샘플(2966)을 포함하는 주변 블록으로부터 제2 움직임 벡터 예측자가 획득될 수 있다. 만약, 블록들 간 부호화 순서의 교체가 허용되는 경우, 우상측 꼭지점(2954)의 우측에 위치한 샘플(2978)을 포함하는 주변 블록으로부터 제2 움직임 벡터 예측자가 획득될 수 있다.
제3 움직임 벡터 예측자는 현재 블록(2950)의 좌하측 꼭지점(2956) 주변에 위치한 주변 블록으로부터 획득된다. 상기 좌하측 꼭지점(2956)의 좌측에 위치한 샘플(2960)을 포함하는 주변 블록, 좌하측에 위치한 샘플(2968)을 포함하는 주변 블록으로부터 제3 움직임 벡터 예측자가 획득될 수 있다. 만약, 블록들 간 부호화 순서의 교체가 허용되고, 현재 블록(2950)의 좌측 블록이 부호화되지 않고 우측 블록이 먼저 부호화된 경우, 제3 움직임 벡터 예측자는 현재 블록(2950)의 우하측 꼭지점(2958) 주변에 위치한 주변 블록으로부터 획득된다. 따라서 상기 우하측 꼭지점(2958)의 우측에 위치한 샘플(2962)을 포함하는 주변 블록, 우하측에 위치한 샘플(2970)을 포함하는 주변 블록으로부터 제3 움직임 벡터 예측자가 획득될 수 있다.
또는 우측 블록이 먼저 부호화된 경우, 좌상측 꼭지점(2592), 우상측 꼭지점(2954), 우하측 꼭지점(2956)으로부터 획득한 제1 움직임 벡터 예측자, 제2 움직임 벡터 예측자, 제3 움직임 벡터 예측자를 이용하여 유도된 좌하측 꼭지점(2956)에 대한 움직임 벡터 예측값에 기초하여, 제3 움직임 벡터 예측자를 변경할 수 있다. 그리고 변경된 제3 움직임 벡터 예측자를 현재 블록의 예측에 사용할 수 있다.
3개의 움직임 벡터 예측자가 획득된 후, 비트스트림으로부터 획득된 참조 픽처 정보와 3개의 차분 움직임 벡터에 기초하여 아핀 변환에 사용되는 3개의 움직임 벡터가 결정된다. 그리고 3개의 움직임 벡터에 따라 현재 블록(2950)이 예측된다.
이상 설명된 바와 같이, 현재 블록의 우측에 위치한 주변 블록으로부터 아핀 모션 보상 예측 모드에 필요한 정보들이 획득될 수 있다.
도 30a 및 30b에서 현재 블록의 우측 블록을 이용한 FRUC 모드의 예측 방법이 설명된다. 도 30a는 쌍방 매칭 FRUC 모드를 설명하며, 도 30b는 템플릿 매칭 FRUC 모드를 설명한다.
FRUC 모드는 프레임율 증가 변환 테크닉에 기초한 인터 예측 모드이다. FRUC 모드에는 쌍방 매칭 FRUC 모드와 템플릿 매칭 FRUC 모드가 있으며, 둘 다 현재 블록의 머지 후보 리스트를 사용하여 현재 블록의 움직임 벡터를 결정한다는 공통점이 있다.
쌍방 매칭 FRUC 모드는 연속한 픽처들 간에 움직임의 연속성이 있다는 가정 하에, 현재 블록의 움직임 벡터를 찾는 인터 예측 모드이다. 쌍방 매칭 FRUC 모드에 의하면, 예측 방법 결정부(1630)는 머지 후보 리스트로부터 복수의 움직임 벡터 후보를 획득한다. 그리고 예측 방법 결정부(1630)는 각각의 움직임 벡터 후보로부터 참조 블록 쌍을 획득한다. 또한 예측 방법 결정부(1630)는 참조 블록 쌍의 매칭 정확도를 비교하여, 가장 매칭 정확도가 높은 움직임 벡터 후보를 현재 블록의 움직임 벡터 예측자로 결정한다. 그리고 예측 방법 결정부(1630)는 움직임 벡터 예측자가 가리키는 지점의 주위를 스캔하여 움직임 벡터 예측자보다 더 정확한 매칭 정확도를 가지는 움직임 벡터를 결정한다. 최종적으로 예측 방법 결정부(1630)는 움직임 벡터에 따라 현재 블록을 예측한다.
도 30a에 따르면, 현재 픽처(3000)에 위치한 현재 블록(3002)에 대한 머지 후보 리스트로부터 움직임 벡터 후보가 획득된다. 현재 픽처(3000)보다 시간적으로 늦은 제1 참조 픽처(3010)에 대하여, 움직임 벡터 후보에 기초하여 제1 매칭 움직임 벡터(3014)가 결정된다. 그리고 현재 픽처(3000)보다 시간적으로 빠른 제2 참조 픽처(3020)에 대하여, 움직임 벡터 후보에 기초하여 제2 매칭 움직임 벡터(3024)가 결정된다.
제1 매칭 움직임 벡터(3014)와 제2 매칭 움직임 벡터(3024)는 현재 픽처(3000)와 제1 참조 픽처(3010)의 시간적 거리와 현재 픽처(3000)와 제2 참조 픽처(3020)의 시간적 거리에 비례한다. 따라서, 제1 참조 블록(3012), 현재 블록(3002), 제2 참조 블록(3022)는 동일한 움직임 궤도에 위치한다. 그러므로 제1 참조 블록(3012), 현재 블록(3002), 제2 참조 블록(3022) 간의 움직임의 연속성이 있다는 가정 하에, 제1 참조 블록(3012)과 제2 참조 블록(3022)의 매칭 정확도가 계산된다.
머지 후보 리스트의 모든 움직임 벡터 후보들에 대하여 상기와 같은 매칭 정확도 계산 과정이 수행된다. 그리고 가장 매칭 정확도가 높은 움직임 벡터 후보가 현재 블록의 움직임 벡터 예측자로 결정된다.
최종적으로, 제1 참조 픽처(3010) 및 제2 참조 픽처(3020)에 대하여 움직임 벡터 예측자가 가리키는 지점 주변을 스캔하여, 참조 블록들 간 매칭 정확도가 더 높은 움직임 벡터를 찾고, 그 움직임 벡터에 따라 현재 블록(3002)이 예측된다.
쌍방 매칭 FRUC 모드에서 머지 후보 리스트가 사용되는 바, 현재 블록(3002)의 우측 블록(3004)이 복호화된 경우, 도 26에서 설명된 방법에 따라 우측 블록(3004)의 움직임 벡터가 포함된 머지 후보 리스트가 사용될 수 있다.
템플릿 매칭 FRUC 모드는 현재 블록의 템플릿과 머지 후보 리스트의 움직임 벡터 후보에 의하여 대응되는 참조 픽처의 템플릿을 비교하고, 두 템플릿들 간의 매칭 정확도에 따라 현재 블록의 움직임 벡터를 찾는 인터 예측 모드이다. 템플릿 매칭 FRUC 모드에 의하면, 현재 블록의 좌측 및 상측 영역이 현재 블록의 템플릿으로 결정될 수 있다. 만약, 현재 블록의 우측 블록이 복호화된 경우, 현재 블록의 우측 영역 역시 현재 블록의 템플릿으로 결정될 수 있다.
도 30b에 따르면, 현재 픽처(3050)에 위치한 현재 블록(3052)에 대한 머지 후보 리스트로부터 움직임 벡터 후보가 획득된다. 그리고 현재 픽처(3050)와 참조 픽처(3060)의 시간적 거리에 따라, 움직임 벡터 후보로부터 매칭 움직임 벡터(3062)가 결정된다.
현재 블록(3052)의 주변 블록들 중 어떤 주변 블록들이 복호화되었는지 여부에 따라, 현재 블록 템플릿(3054)이 결정된다. 도 30b에 따르면, 현재 블록(3050)의 우측 블록(3056)이 결정된 바, 현재 블록 템플릿(3054)에는 현재 블록(3050)의 우측 영역이 포함되어 있다.
현재 블록 템플릿(3054)으로부터 매칭 움직임 벡터(3062)가 가리키는 지점으로부터 참조 블록 템플릿(3064)이 획득된다. 그리고 현재 블록 템플릿(3054)과 참조 블록 템플릿(3064)을 비교하여, 템플릿 매칭 정확도가 계산된다.
각 움직임 벡터 후보에 대하여 템플릿 매칭 정확도가 계산된다. 그리고 가장 정확한 템플릿 매칭 정확도를 가지는 움직임 벡터 후보가 현재 블록(3050)의 움직임 벡터 예측자로 결정된다.
최종적으로, 참조 픽처(3060)에 대하여 움직임 벡터 예측자가 가리키는 지점 주변을 스캔하여, 템플릿 매칭 정확도가 더 높은 움직임 벡터를 찾고, 그 움직임 벡터에 따라 현재 블록(3052)이 예측된다.
쌍방 매칭 FRUC 모드와 마찬가지로, 템플릿 매칭 FRUC 모드에서 머지 후보 리스트가 사용되는 바, 현재 블록(3002)의 우측 블록(3004)이 복호화된 경우, 도 26에서 설명된 방법에 따라 우측 블록(3004)의 움직임 벡터가 포함된 머지 후보 리스트가 사용될 수 있다.
복호화부(1640)는 예측 방법 결정부(1630)에서 결정된 예측 방법에 따라 현재 블록을 예측하고, 현재 블록의 예측 결과에 기초하여 현재 블록을 복호화할 수 있다.
복호화부(1640)는 분할 정보가 현재 블록의 분할을 나타내지 않을 때, 비트스트림으로부터 현재 블록이 현재 블록이 포함된 부호화 트리 블록의 마지막 블록인지 여부를 나타내는 최종 블록 플래그를 획득할 수 있다.
복호화부(1640)는 최종 블록 플래그가 현재 블록이 부호화 트리 블록의 마지막 블록임을 나타낼 때, 현재 블록의 복호화 이후, 부호화 트리 블록의 복호화를 종료할 수 있다. 현재 블록의 복호화이 완료된 후, 다음 순서의 부호화 트리 블록이 비디오 복호화 장치(1600)에 의하여 복호화될 수 있다. 현재 블록이 포함된 부호화 트리 블록과 마찬가지로, 다음 순서의 부호화 트리 블록에 대하여 비디오 복호화 장치(1600)에 포함된 블록 분할부(1610), 부호화 순서 결정부(1620), 예측 방법 결정부(1630) 및 블록 복호화부(1640)에 의하여 블록 분할, 부호화 순서 결정, 최종 분할 블록의 복호화가 수행될 수 있다.
또한 복호화부(1640)는 비트스트림으로부터 최종 블록 플래그를 획득하지 않고, 부호화 트리 블록에 포함된 블록들 중 현재 블록을 제외한 나머지 블록들의 복호화 여부를 판단하여, 현재 블록이 부호화 트리 블록의 마지막 블록인지 여부를 판단할 수 있다.
복호화부(1640)는 비트스트림으로부터 획득한 신택스 요소(syntax element)를 주변 블록의 문맥에 따라 엔트로피 복호화할 수 있다. 따라서 현재 블록의 우측 블록의 부호화 정보를 여부를 고려하여 신택스 요소가 엔트로피 복호화될 수 있다.
예를 들어, 현재 블록이 스킵 모드에 의하여 부호화되었는지 여부를 나타내는 스킵 플래그는 현재 블록의 주변 블록들의 문맥에 따라 엔트로피 부호화될 수 있다. 그러므로 현재 블록의 우측 블록의 부호화 정보를 고려하여 스킵 플래그가 엔트로피 부호화될 수 있다. 따라서 복호화부(1640)는 현재 블록의 우측 블록의 부호화 정보를 고려하여 스킵 플래그를 엔트로피 부호화할 수 있다
마찬가지로, 현재 블록을 하위 블록으로 분할할지 나타내는 분할 정보, 현재 블록을 어떤 형태로 분할할지 나타내는 분할 형태 정보, 현재 블록이 FRUC 모드에 따라 예측되는지 나타내는 FRUC 모드 플래그, 현재 블록이 FRUC 모드에 따라 예측될 경우, 현재 블록에 어떤 FRUC 모드가 적용되는지 나타내는 FRUC 모드 정보, 현재 블록이 Affine 모드에 따라 예측되는지 나타내는 Affine 모드 플래그, 현재 블록의 움직임 벡터의 최소 단위를 나타내는 움직임 벡터 회소 단위 플래그 등이 현재 블록의 우측 블록을 포함한 주변 블록들의 부호화 정보에 따라 엔트로피 복호화될 수 있다.
복호화부(1640)는 비트스트림으로부터 획득된 레지듀얼 데이터를 역양자화 및 역변환할 수 있다. 그리고 복호화부(1640)는 역양자화 및 역변환된 레지듀얼 데이터와 현재 블록의 예측 결과를 이용하여, 현재 블록을 복원할 수 있다.
도 31에는 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 복호화 방법(3100)이 도시되어 있다.
단계 3110에서 비트스트림으로부터 현재 블록의 분할 여부를 나타내는 분할 정보가 획득된다.
분할 정보가 현재 블록의 분할을 나타내지 않을 때, 현재 블록이 현재 블록이 포함된 부호화 트리 블록의 마지막 블록인지 여부를 나타내는 최종 블록 플래그가 획득된다. 그리고 최종 블록 플래그가 현재 블록이 부호화 트리 블록의 마지막 블록임을 나타낼 때, 현재 블록의 복호화 이후, 부호화 트리 블록의 복호화가 종료된다. 최종 블록 플래그가 현재 블록이 부호화 트리 블록의 마지막 블록이 아님을 나타낼 때, 현재 블록의 다음 순서의 블록에 대한 복호화가 수행된다.
단계 3120에서 분할 정보가 현재 블록의 분할을 나타내지 않을 때, 현재 블록이 현재 블록의 부호화 정보에 따라 복호화된다.
분할 정보에 따라 현재 블록이 분할되지 않고, 현재 블록이 인트라 예측될 때, 현재 블록의 좌측 블록 및 우측 블록의 복호화 여부에 따라 현재 블록이 참조할 참조 샘플들이 결정된다. 그리고 참조 샘플들에 따라 현재 블록이 예측 및 복호화된다.
현재 블록의 좌측 블록만이 복호화된 경우, 참조 샘플들에 현재 블록의 좌측 및 상측에 인접한 샘플들이 포함된다. 현재 블록의 우측 블록만이 복호화된 경우, 참조 샘플들에 현재 블록의 우측 및 상측에 인접한 샘플들이 포함된다. 현재 블록의 좌측 및 우측 블록이 모두 복호화된 경우, 참조 샘플들에 현재 블록의 우측, 좌측 및 상측에 인접한 샘플들이 포함된다. 현재 블록의 좌측 및 우측 블록이 모두 복호화되지 않은 경우, 참조 샘플들에 현재 블록의 상측에 인접한 샘플들이 포함된다.
현재 블록이 DC 모드에 의하여 인트라 예측될 때, 현재 블록에 포함된 샘플들의 예측 값은 참조 샘플들의 샘플 값들의 평균값으로 결정되고, 현재 블록의 샘플들 중 참조 샘플들과 인접한 샘플들의 예측 값을 참조 샘플들의 샘플 값에 따라 필터링된다.
현재 블록이 플래너 모드에 의하여 인트라 예측되고, 현재 블록의 우측 블록과 상측 블록이 복호화된 때, 현재 샘플의 예측 값은 참조 샘플들에 포함된 제1 모서리 샘플, 제2 모서리 샘플, 제1 측면 샘플, 제2 측면 샘플에 의하여 결정된다. 상기 제1 모서리 샘플은 현재 샘플이 포함된 현재 블록의 상측면에 인접한 행 및 현재 블록의 좌측면에 인접한 열의 교차점에 위치한다. 그리고 제2 모서리 샘플은 현재 블록의 하측면에 인접한 행 및 현재 블록의 우측면에 인접한 열의 교차점에 위치한다. 제1 측면 샘플은 현재 샘플이 위치한 행 및 현재 블록의 우측면에 인접한 열의 교차점에 위치한다. 제2 측면 샘플은 현재 블록의 상측면에 인접한 행 및 현재 샘플이 위치한 열의 교차점에 위치한다.
현재 블록이 다중 파라미터 인트라 모드에 의하여 인트라 예측되고, 상기 현재 블록의 우측 블록과 상측 블록이 복호화된 때, 현재 샘플의 예측 값은 현재 샘플의 상측에 인접한 상측 샘플의 샘플 값과 현재 샘플의 우측에 인접한 우측 샘플의 샘플 값의 가중 평균에 따라 결정될 수 있다. 이 때 현재 블록에 포함된 샘플들의 예측은 현재 블록의 우상측 모서리에 인접한 샘플부터 시작될 수 있다.
상기의 예와 달리, 현재 블록이 다중 파라미터 인트라 모드에 의하여 인트라 예측되고, 현재 블록의 좌측 블록, 우측 블록 및 상측 블록이 복호화된 때, 현재 블록이 좌측 영역과 우측 영역으로 구분되고, 좌측 영역과 우측 영역의 예측에 사용되는 샘플을 다른 방법에 따라 결정할 수 있다. 또 다른 실시 예에 따르면, 좌측 블록, 우측 블록 및 상측 블록이 모두 복호화 된때, 좌측 영역과 우측 영역의 구분 없이, 좌측 블록 및 상측 블록으로 획득한 예측 값과 우측 블록 및 상측 블록으로 획득한 예측값을 평균 또는 가중평균하여 최종 예측값으로 사용할 수 있다.
현재 샘플이 좌측 영역에 위치한 경우, 현재 샘플의 예측 값은 현재 샘플의 상측에 인접한 상측 샘플의 샘플 값과 현재 샘플의 좌측에 인접한 좌측 샘플의 샘플 값의 가중 평균에 따라 결정된다. 반대로, 현재 샘플이 우측 영역에 위치한 경우, 현재 샘플의 예측 값은 현재 샘플의 상측에 인접한 상측 샘플의 샘플 값과 현재 샘플의 우측에 인접한 우측 샘플의 샘플 값의 가중 평균에 따라 결정된다.
현재 블록이 LM 크로마 모드 또는 MPC 모드 에 의하여 인트라 예측되고, 현재 블록의 우측 블록이 복호화된 경우, 현재 블록의 우측에 위치한 루마-크로마 샘플 쌍들을 참조하여, 현재 블록이 예측될 수 있다.
현재 블록이 인터 예측될 때, 현재 블록의 우측 블록이 인터 예측에 따라 복호화되었는지 확인된다. 그리고 현재 블록의 우측 블록이 인터 예측에 따라 복호화된 때, 우측 블록의 움직임 벡터를 이용하여, 현재 블록의 움직임 벡터가 결정된다.
현재 블록이 머지 모드에 의하여 인터 예측될 때, 현재 블록의 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 움직임 벡터 후보가 획득된다. 그리고 현재 블록이 AMVP 모드에 의하여 인터 예측될 때, 현재 블록의 우측 블록 또는 우하측 블록으로부터 제1 움직임 벡터 후보가 결정되고, 현재 블록의 상측 블록, 우상측 블록 또는 좌상측 블록으로부터 제2 움직임 벡터 후보가 결정된다.
현재 블록이 AMVP 모드에 의하여 인터 예측되고, 현재 블록의 우측 블록이 현재 블록보다 먼저 복호화된 때, 현재 블록의 우측 블록 또는 우하측 블록으로부터 제1 움직임 벡터 후보가 결정되고, 현재 블록의 상측 블록, 우상측 블록 또는 좌상측 블록으로부터 제2 움직임 벡터 후보가 결정될 수 있다.
현재 블록이 OBMC 모드에 의하여 인터 예측되고, 현재 블록의 우측 블록이 현재 블록보다 먼저 복호화된 때, 현재 블록의 우측 블록의 우측 인접 움직임 벡터가 획득된다. 그리고 현재 블록의 움직임 벡터에 따른 예측 값과 우측 인접 움직임 벡터에 따른 예측 값을 이용하여 현재 블록의 우측 경계에 위치한 샘플이 예측된다.
현재 블록이 서브 블록 MVP 모드에 의하여 인터 예측될 때, 현재 블록은 복수의 서브 블록들로 분할된다. 현재 블록의 우측 블록, 좌측 블록, 상측 블록으로부터 하나 이상의 공간적 움직임 벡터가 획득될 수 있다. 현재 블록을 포함하는 참조 픽처로부터 현재 블록과 동일 위치의 동일 위치 블록가 획득되고, 동일 위치 블록으로부터 시간적 움직임 벡터가 획득된다. 적어도 하나의 공간적 움직임 벡터와 시간적 움직임 벡터을 평균하여 서브 블록들의 움직임 벡터가 결정될 수 있다.
현재 블록이 아핀 머지 모드에 의하여 인터 예측될 때, 현재 블록의 주변 블록들 중 복수의 움직임 벡터를 포함하는 아핀 모션 정보에 따라 예측된 아핀 후보 블록이 검색되고, 검색된 아핀 후보 블록들을 포함하는 아핀 머지 리스트가 생성된다. 그리고 비트스트림으로부터 획득된 아핀 머지 플래그에 따라, 아핀 머지 리스트로부터 현재 블록의 예측에 사용되는 아핀 후보 블록이 결정된다. 마지막으로 아핀 후보 블록으로부터 아핀 모션 정보가 획득된다. 아핀 머지 리스트는 도29b에서 설명된 방법으로 결정될 수 있다.
현재 블록이 아핀 AMVP 모드에 의하여 인터 예측될 때, 현재 블록의 좌상측 꼭지점에 인접한 블록들로부터 제1 움직임 벡터 예측자가 획득된다. 그리고 현재 블록의 우상측 꼭지점에 인접한 블록들로부터 제2 움직임 벡터 예측자가 획득된다. 현재 블록의 좌측 블록 및 우측 블록 중 좌측 블록이 복호화된 경우, 현재 블록의 좌하측 꼭지점에 인접한 블록들로부터 제3 움직임 벡터 예측자를 획득되고, 현재 블록의 좌측 블록 및 우측 블록 중 우측 블록이 복호화된 경우, 현재 블록의 우하측 꼭지점에 인접한 블록들로부터 제3 움직임 벡터 예측자가 획득된다. 그리고 제1 움직임 벡터 예측자, 제2 움직임 벡터 예측자 및 제3 움직임 벡터 예측자에 따라 현재 블록의 아핀 모션 정보가 획득된다.
현재 블록이 쌍방 매칭 FRUC 모드에 의하여 인터 예측되고, 현재 블록의 우측 블록이 복호화된 때, 현재 블록의 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 복수의 움직임 벡터 후보들이 획득된다. 복수의 움직임 벡터 후보들을 2개 이상의 참조 픽처에 적용하여, 복수의 참조 블록 쌍들이 생성된다. 그리고 복수의 참조 블록 쌍들 중에서 매칭 정확도가 높은 참조 블록 쌍이 선택되고, 선택된 참조 블록 쌍의 생성에 사용된 움직임 벡터 후보가 움직임 벡터 예측자로 결정된다. 움직임 벡터 예측자가 2개 이상의 참조 픽처에 대하여 가리키는 지점 주변을 스캔하여, 움직임 벡터 예측자보다 더 높은 매칭 정확도의 참조 블록 쌍을 생성하는 움직임 벡터가 검색된다. 그리고 검색된 움직임 벡터가 현재 블록의 움직임 벡터로 결정된다.
현재 블록이 템플릿 매칭 FRUC 모드에 의하여 인터 예측되고, 현재 블록의 우측 블록이 복호화된 때, 현재 블록의 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 복수의 움직임 벡터 후보들이 획득된다. 그리고 현재 블록의 상측 영역 및 우측 영역으로부터 현재 블록의 템플릿을 획득된다. 또는 좌측 블록과 우측 블록이 모두 부호화 된 때, 현재 블록의 좌측 블록, 좌하측 블록, 좌상측 블록, 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 복수의 움직임 벡터 후보들이 획득된다. 그리고 현재 블록의 좌측 영역, 상측 영역 및 우측 영역으로부터 현재 블록의 템플릿을 획득된다. 복수의 움직임 벡터를 참조 픽처에 적용하여, 복수의 참조 블록이 획득되고, 복수의 참조 블록의 상측 영역 및 우측 영역으로부터 복수의 참조 블록 템플릿이 획득된다. 그리고 복수의 참조 블록 템플릿 중 현재 블록의 템플릿과 가장 유사한 참조 블록 템플릿에 대응되는 움직임 벡터가 현재 블록의 움직임 벡터 예측자로 결정된다. 또한 움직임 벡터 예측자가 상기 2개 이상의 참조 픽처에 대하여 가리키는 지점 주변을 스캔하여, 움직임 벡터 예측자보다 더 높은 매칭 정확도의 참조 블록 쌍을 생성하는 움직임 벡터가 검색된다. 그리고 검색된 움직임 벡터가 현재 블록의 움직임 벡터로 결정된다.
단계 3130에서 분할 정보가 현재 블록의 분할을 나타낼 때, 현재 블록이 2개 이상의 하위 블록들로 분할되고, 비트스트림으로부터 현재 블록의 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보가 획득되고, 부호화 순서 정보에 따라, 하위 블록들의 복호화 순서가 결정되고, 복호화 순서에 따라, 하위 블록들이 복호화된다.
도 16에서 설명된 비디오 복호화 장치(1600)의 기능이 비디오 복호화 방법(3100)에 포함될 수 있다.
도32에는 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 부호화 장치(3200)가 도시되어 있다.
비디오 부호화 장치(3200)는 부호화 정보 생성부(3210) 및 출력부(3220)를 포함한다. 도 32에서 부호화 정보 생성부(3210) 및 출력부(3220)는 별도의 구성 단위로 표현되어 있으나, 실시 예에 따라 부호화 정보 생성부(3210) 및 출력부(3220)는 합쳐져 동일한 구성 단위로 구현될 수도 있다.
도 32에서 부호화 정보 생성부(3210) 및 출력부(3220)는 하나의 장치에 위치한 구성 단위로 표현되었지만, 부호화 정보 생성부(3210) 및 출력부(3220)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없다. 따라서 실시 예에 따라 부호화 정보 생성부(3210) 및 출력부(3220)가 분산되어 있을 수 있다.
부호화 정보 생성부(3210) 및 출력부(3220)는 실시 예에 따라 하나의 프로세서에 의하여 구현될 수 있다. 또한 실시 예에 따라 복수 개의 프로세서에 의하여 구현될 수도 있다.
도 32의 부호화 정보 생성부(3210) 및 출력부(3220)에서 수행되는 기능은 도1a의 출력부(130)에서 수행될 수 있다.
부호화 정보 생성부(3210)는 현재 블록을 2개 이상의 하위 블록들로 분할하고, 현재 블록의 분할 결과에 따라, 현재 블록의 분할 여부를 결정할 수 있다. 예를 들어, 부호화 정보 생성부(3210)는 현재 블록을 분할할 때 부호화 효율이 좋을 경우, 현재 블록을 분할하도록 결정하고, 현재 블록을 분할하지 않을 때 부호화 효율이 좋을 경우, 현재 블록을 분할하는 않도록 결정할 수 있다.
부호화 정보 생성부(3210)는 현재 블록의 분할 여부를 나타내는 분할 정보를 생성할 수 있다. 그리고 부호화 정보 생성부(3210)는 부호화 효율에 따라 현재 블록의 분할 방법을 결정하고, 현재 블록의 분할 방법을 나타내는 분할 형태 정보를 생성할 수 있다.
부호화 정보 생성부(3210)는 부호화 순서에 따른 부호화 효율에 따라, 현재 블록에 포함된 하위 블록들의 부호화 순서를 결정하고, 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 생성할 수 있다.
부호화 정보 생성부(3210)는 현재 블록이 더 이상 부호화되지 않을 경우, 현재 블록에 대한 예측 모드를 결정할 수 있다. 부호화 정보 생성부(3210)는 현재 블록에 적용될 수 있는 예측 모드들의 부호화 효율에 따라, 현재 블록의 예측 모드를 결정할 수 있다. 현재 블록에 적용될 수 있는 예측 모드들에는 방향성 모드, DC 모드, 플래너 모드, 다중 파라미터 인트라 모드, LM 크로마 모드, MPC 모드, 머지 모드, AMVP 모드, OBMC 모드, 서브 블록 MVP 모드, 아핀 머지 모드, 아핀 AMVP 모드, 쌍방 매칭 FRUC 모드, 템플릿 매칭 FRUC 모드 등이 포함된다.
출력부(3220)는 부호화 정보 생성부(3210)에서 생성된 현재 블록의 부호화에 관한 정보가 포함된 비트스트림을 출력한다. 현재 블록의 부호화에 관한 정보에는 분할 정보, 분할 형태 정보, 분할 순서 정보, 예측 모드 정보 등이 포함될 수 있다.
도 33에는 현재 블록의 분할 및 분할된 하위 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 부호화 방법(3300)이 도시되어 있다.
단계 3310에서, 현재 블록은 2개 이상의 하위 블록들로 분할된다.
단계 3320에서, 현재 블록의 분할 결과에 따라, 현재 블록의 분할 여부가 결정된다.
단계 3330에서, 현재 블록의 부호화 효율에 따라, 현재 블록의 하위 블록들의 부호화 순서가 결정되고, 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보가 생성된다.
단계 3340에서, 분할 정보 및 부호화 순서 정보가 포함된 비트스트림이 출력된다.
도 32에서 설명된 비디오 부호화 장치(3200)의 기능이 비디오 부호화 방법(3300)에 포함될 수 있다.
도 1 내지 33를 참조하여 전술된 트리 구조의 부호화 단위들에 기초한 비디오 부호화 기법에 따라, 트리 구조의 부호화 단위들마다 공간영역의 영상 데이터가 부호화되며, 트리 구조의 부호화 단위들에 기초한 비디오 복호화 기법에 따라 최대 부호화 단위마다 복호화가 수행되면서 공간 영역의 영상 데이터가 복원되어, 픽처 및 픽처 시퀀스인 비디오가 복원될 수 있다. 복원된 비디오는 재생 장치에 의해 재생되거나, 저장 매체에 저장되거나, 네트워크를 통해 전송될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
본 발명은 특정한 최상의 실시 예와 관련하여 설명되었지만, 이외에 본 발명에 대체, 변형 및 수정이 적용된 발명들은 전술한 설명에 비추어 당업자에게 명백할 것이다. 즉, 청구범위는 이러한 모든 대체, 변형 및 수정된 발명을 포함하도록 해석한다. 그러므로 이 명세서 및 도면에서 설명한 모든 내용은 예시적이고 비제한적인 의미로 해석해야 한다.

Claims (24)

  1. 비트스트림으로부터 현재 블록의 분할 여부를 나타내는 분할 정보를 획득하는 단계;
    상기 분할 정보가 상기 현재 블록의 분할을 나타내지 않는 때, 상기 현재 블록을 상기 현재 블록의 부호화 정보에 따라 복호화하는 단계; 및
    상기 분할 정보가 현재 블록의 분할을 나타낼 때, 상기 현재 블록을 2개 이상의 하위 블록들로 분할하고, 상기 비트스트림으로부터 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득하고, 상기 부호화 순서 정보에 따라, 상기 하위 블록들의 복호화 순서를 결정하고, 상기 복호화 순서에 따라, 상기 하위 블록들을 복호화하는 단계를 포함하는 비디오 복호화 방법.
  2. 제1항에 있어서,
    상기 비디오 복호화 방법은,
    상기 분할 정보에 따라 상기 현재 블록이 분할되지 않고, 상기 현재 블록이 인트라 예측될 때, 상기 현재 블록의 좌측 블록 및 우측 블록의 복호화 여부에 따라 상기 현재 블록이 참조할 참조 샘플들을 결정하는 단계; 및
    상기 참조 샘플들에 따라 상기 현재 블록을 예측 및 복호화하는 단계를 더 포함하는 비디오 복호화 방법.
  3. 제1항에 있어서,
    상기 비디오 복호화 방법은,
    상기 현재 블록이 인트라 예측될 때, 상기 현재 블록의 좌측 블록 및 우측 블록의 복호화 여부에 따라 상기 현재 블록이 참조할 참조 샘플들을 결정하는 단계를 더 포함하고,
    상기 참조 샘플 결정 단계는,
    상기 현재 블록의 좌측 블록만이 복호화된 경우, 상기 참조 샘플들에 현재 블록의 좌측 및 상측에 인접한 샘플들이 포함되고,
    상기 현재 블록의 우측 블록만이 복호화된 경우, 상기 참조 샘플들에 현재 블록의 우측 및 상측에 인접한 샘플들이 포함되고,
    상기 현재 블록의 좌측 및 우측 블록이 모두 복호화된 경우, 상기 참조 샘플들에 현재 블록의 우측, 좌측 및 상측에 인접한 샘플들이 포함되고,
    상기 현재 블록의 좌측 및 우측 블록이 모두 복호화되지 않은 경우, 상기 참조 샘플들에 현재 블록의 상측에 인접한 샘플들이 포함되는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제3항에 있어서,
    상기 비디오 복호화 방법은,
    상기 현재 블록이 DC 모드에 의하여 인트라 예측될 때, 상기 현재 블록에 포함된 샘플들의 예측 값은 상기 참조 샘플들의 샘플 값들의 평균값으로 결정되는 단계; 및
    상기 현재 블록의 샘플들 중 상기 참조 샘플들과 인접한 샘플들의 예측 값을 상기 참조 샘플들의 샘플 값에 따라 필터링하는 단계를 더 포함하는 비디오 복호화 방법.
  5. 제3항에 있어서,
    상기 비디오 복호화 방법은,
    상기 현재 블록이 플래너 모드에 의하여 인트라 예측되고, 상기 현재 블록의 우측 블록과 상측 블록이 복호화된 때, 상기 현재 샘플의 예측 값을 상기 참조 샘플들에 포함된 제1 모서리 샘플, 제2 모서리 샘플, 제1 측면 샘플, 제2 측면 샘플에 의하여 결정하는 단계를 더 포함하고,
    상기 제1 모서리 샘플은 상기 현재 샘플이 포함된 현재 블록의 상측면에 인접한 행 및 상기 현재 블록의 좌측면에 인접한 열의 교차점에 위치하고,
    상기 제2 모서리 샘플은 상기 현재 블록의 하측면에 인접한 행 및 상기 현재 블록의 우측면에 인접한 열의 교차점에 위치하고,
    상기 제1 측면 샘플은 상기 현재 샘플이 위치한 행 및 상기 현재 블록의 우측면에 인접한 열의 교차점에 위치하고,
    상기 제2 측면 샘플은 상기 현재 블록의 상측면에 인접한 행 및 상기 현재 샘플이 위치한 열의 교차점에 위치한 것을 특징으로 비디오 복호화 방법.
  6. 제3항에 있어서,
    상기 비디오 복호화 방법은,
    상기 현재 블록이 플래너 모드에 의하여 인트라 예측되고, 상기 현재 블록의 좌측 블록, 우측 블록 및 상측 블록이 복호화된 때, 상기 현재 샘플의 예측 값을 상기 참조 샘플들에 포함된 제1 모서리 샘플, 제2 모서리 샘플, 제1 측면 샘플, 제2 측면 샘플 및 제3 측면 샘플에 의하여 결정하는 단계를 더 포함하고,
    상기 제1 모서리 샘플은 상기 현재 샘플이 포함된 현재 블록의 마지막 행 및 상기 현재 블록의 좌측면에 인접한 열의 교차점에 위치하고,
    상기 제2 모서리 샘플은 상기 현재 블록의 마지막 행 및 상기 현재 블록의 우측면에 인접한 열의 교차점에 위치하고,
    상기 제1 측면 샘플은 상기 현재 샘플이 위치한 행 및 상기 현재 블록의 우측면에 인접한 열의 교차점에 위치하고,
    상기 제2 측면 샘플은 상기 현재 블록의 상측면에 인접한 행 및 상기 현재 샘플이 위치한 열의 교차점에 위치하고,
    상기 제3 측면 샘플은 상기 현재 샘플이 위치한 행 및 상기 현재 블록의 좌측면에 인접한 열의 교차점에 위치한 것을 특징으로 비디오 복호화 방법.
  7. 제4항에 있어서,
    상기 현재 블록이 다중 파라미터 인트라 모드에 의하여 인트라 예측되고, 상기 현재 블록의 우측 블록과 상측 블록이 복호화된 때, 상기 현재 샘플의 예측 값을 상기 현재 샘플의 상측에 인접한 상측 샘플의 샘플 값과 상기 현재 샘플의 우측에 인접한 우측 샘플의 샘플 값의 가중 평균에 따라 결정하는 단계를 더 포함하고,
    상기 현재 블록에 포함된 샘플들의 예측은, 현재 블록의 우상측 모서리에 인접한 샘플부터 시작되는 것을 특징으로 하는 비디오 복호화 방법.
  8. 제4항에 있어서,
    상기 현재 블록이 다중 파라미터 인트라 모드에 의하여 인트라 예측되고, 상기 현재 블록의 좌측 블록, 우측 블록 및 상측 블록이 복호화된 때, 상기 현재 샘플의 예측 값을 상기 현재 샘플의 위치에 따라 결정하는 단계를 포함하고,
    상기 현재 블록은 좌측 영역과 우측 영역으로 구분되고,
    상기 현재 샘플이 상기 좌측 영역에 위치한 경우, 상기 현재 샘플의 예측 값은 상기 현재 샘플의 상측에 인접한 상측 샘플의 샘플 값과 상기 현재 샘플의 좌측에 인접한 좌측 샘플의 샘플 값의 가중 평균에 따라 결정되고,
    상기 현재 샘플이 상기 우측 영역에 위치한 경우, 상기 현재 샘플의 예측 값은 상기 현재 샘플의 상측에 인접한 상측 샘플의 샘플 값과 상기 현재 샘플의 우측에 인접한 우측 샘플의 샘플 값의 가중 평균에 따라 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  9. 제4항에 있어서,
    상기 현재 블록이 LM 크로마 모드 (Linear-Model Chroma Mode) 또는 MPC 모드 (Most Probable Chroma Mode)에 의하여 인트라 예측되고, 상기 현재 블록의 우측 블록이 복호화된 경우, 상기 현재 블록의 우측에 위치한 루마-크로마 샘플 쌍들을 참조하여, 상기 현재 블록을 예측하는 단계를 더 포함하는 비디오 복호화 방법.
  10. 제1항에 있어서,
    상기 비디오 복호화 방법은,
    상기 분할 정보에 따라 상기 현재 블록이 분할되지 않고, 상기 현재 블록이 인터 예측될 때, 상기 현재 블록의 우측 블록이 인터 예측에 따라 복호화되었는지 확인하는 단계;
    상기 현재 블록의 우측 블록이 인터 예측에 따라 복호화된 때, 상기 우측 블록의 움직임 벡터를 이용하여, 상기 현재 블록의 움직임 벡터를 결정하는 단계; 및
    상기 현재 블록의 움직임 벡터에 따라, 상기 현재 블록을 예측 및 복호화 하는 단계를 더 포함하는 비디오 복호화 방법.
  11. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 머지 모드에 의하여 인터 예측될 때, 상기 현재 블록의 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 움직임 벡터 후보를 획득하는 단계를 더 포함하는 비디오 복호화 방법.
  12. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 AMVP 모드에 의하여 인터 예측되고, 현재 블록의 우측 블록이 현재 블록보다 먼저 복호화된 때, 상기 현재 블록의 우측 블록 또는 우하측 블록으로부터 제1 움직임 벡터 후보를 결정하고, 상기 현재 블록의 상측 블록, 우상측 블록 또는 좌상측 블록으로부터 제2 움직임 벡터 후보를 결정하는 단계를 더 포함하는 비디오 복호화 방법.
  13. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 OBMC 모드에 의하여 인터 예측되고, 상기 현재 블록의 우측 블록이 상기 현재 블록보다 먼저 복호화된 때, 상기 현재 블록의 우측 블록의 우측 인접 움직임 벡터를 획득하는 단계를 더 포함하고,
    상기 현재 블록을 예측 및 복호화하는 단계는,
    상기 현재 블록의 움직임 벡터에 따른 예측 값과 상기 우측 인접 움직임 벡터에 따른 예측 값을 이용하여 상기 현재 블록의 우측 경계에 위치한 샘플을 예측하는 단계를 더 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  14. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 서브 블록 MVP 모드에 의하여 인터 예측될 때, 상기 현재 블록을 복수의 서브 블록들로 분할하는 단계;
    상기 현재 블록의 우측 블록, 좌측 블록, 상측 블록으로부터 적어도 하나의 공간적 움직임 벡터를 획득하는 단계;
    상기 현재 블록을 포함하는 참조 픽처로부터 상기 현재 블록과 동일 위치의 동일 위치 블록(collocated block)을 획득하고, 상기 동일 위치 블록으로부터 시간적 움직임 벡터를 획득하는 단계; 및
    상기 적어도 하나의 공간적 움직임 벡터와 상기 시간적 움직임 벡터에 따라 상기 서브 블록들의 움직임 벡터를 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  15. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 아핀 머지 모드에 의하여 인터 예측될 때, 상기 현재 블록의 주변 블록들 중 복수의 움직임 벡터를 포함하는 아핀 모션 정보에 따라 예측된 아핀 후보 블록을 검색하는 단계;
    상기 검색된 아핀 후보 블록들을 포함하는 아핀 머지 리스트를 생성하는 단계; 및
    아핀 머지 플래그에 따라, 상기 아핀 머지 리스트로부터 상기 현재 블록의 예측에 사용되는 아핀 후보 블록을 결정하는 단계; 및
    상기 아핀 후보 블록으로부터 상기 아핀 모션 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  16. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 아핀 AMVP 모드에 의하여 인터 예측될 때, 상기 현재 블록의 좌상측 꼭지점에 인접한 블록들로부터 제1 움직임 벡터 예측자를 획득하는 단계;
    상기 현재 블록의 우상측 꼭지점에 인접한 블록들로부터 제2 움직임 벡터 예측자를 획득하는 단계;
    상기 현재 블록의 좌측 블록 및 우측 블록 중 좌측 블록이 복호화된 경우, 상기 현재 블록의 좌하측 꼭지점에 인접한 블록들로부터 제3 움직임 벡터 예측자를 획득하는 단계;
    상기 현재 블록의 좌측 블록 및 우측 블록 중 우측 블록이 복호화된 경우, 상기 현재 블록의 우하측 꼭지점에 인접한 블록들로부터 제3 움직임 벡터 예측자를 획득하는 단계; 및
    상기 제1 움직임 벡터 예측자, 상기 제2 움직임 벡터 예측자 및 상기 제3 움직임 벡터 예측자에 따라 상기 현재 블록의 아핀 모션 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  17. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 쌍방 매칭 FRUC 모드에 의하여 인터 예측되고, 상기 현재 블록의 우측 블록이 복호화된 때, 상기 현재 블록의 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 복수의 움직임 벡터 후보들을 획득하는 단계;
    복수의 움직임 벡터 후보들을 2개 이상의 참조 픽처에 적용하여, 복수의 참조 블록 쌍들을 생성하는 단계;
    상기 복수의 참조 블록 쌍들 중에서 매칭 정확도가 높은 참조 블록 쌍을 선택하고, 상기 선택된 참조 블록 쌍의 생성에 사용된 움직임 벡터 후보를 움직임 벡터 예측자로 결정하는 단계;
    상기 움직임 벡터 예측자가 상기 2개 이상의 참조 픽처에 대하여 가리키는 지점 주변을 스캔하여, 상기 움직임 벡터 예측자보다 더 높은 매칭 정확도의 참조 블록 쌍을 생성하는 움직임 벡터를 검색하는 단계; 및
    상기 검색된 움직임 벡터를 상기 현재 블록의 움직임 벡터로 결정하는 단계를 더 포함하는 비디오 복호화 방법.
  18. 제10항에 있어서,
    상기 현재 블록의 움직임 벡터를 결정하는 단계는,
    상기 현재 블록이 템플릿 매칭 FRUC 모드에 의하여 인터 예측되고, 상기 현재 블록의 우측 블록이 복호화된 때, 상기 현재 블록의 우측 블록, 우하측 블록, 상측 블록, 좌상측 블록, 좌측 블록, 우상측 블록들로부터 복수의 움직임 벡터 후보들을 획득하는 단계;
    상기 현재 블록의 좌측 블록, 우측 블록의 복호화 여부에 따라 상기 현재 블록의 좌측 영역, 상측 영역 및 우측 영역으로부터 상기 현재 블록의 템플릿을 획득하는 단계;
    상기 복수의 움직임 벡터를 참조 픽처에 적용하여, 복수의 참조 블록을 획득하고, 상기 복수의 참조 블록의 좌측 영역, 상측 영역 및 우측 영역으로부터 복수의 참조 블록 템플릿을 획득하는 단계;
    상기 복수의 참조 블록 템플릿 중 상기 현재 블록의 템플릿과 가장 유사한 참조 블록 템플릿에 대응되는 움직임 벡터를 상기 현재 블록의 움직임 벡터 예측자로 결정하는 단계;
    상기 움직임 벡터 예측자가 상기 2개 이상의 참조 픽처에 대하여 가리키는 지점 주변을 스캔하여, 상기 움직임 벡터 예측자보다 더 높은 매칭 정확도의 참조 블록 쌍을 생성하는 움직임 벡터를 검색하는 단계; 및
    상기 검색된 움직임 벡터를 상기 현재 블록의 움직임 벡터로 결정하는 단계를 더 포함하는 비디오 복호화 방법.
  19. 제1항에 있어서,
    상기 비디오 복호화 방법은,
    상기 현재 블록의 우측 블록의 부호화 결과에 따라 상기 현재 블록의 부호화 정보를 엔트로피 복호화하는 단계를 더 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  20. 현재 블록의 분할 여부를 나타내는 분할 정보가 상기 현재 블록의 분할을 나타낼 경우, 상기 현재 블록을 2개 이상의 하위 블록들로 분할하는 블록 분할부;
    상기 현재 블록이 상기 하위 블록들로 분할된 때, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보에 따라, 상기 하위 블록들의 복호화 순서를 결정하는 부호화 순서 결정부;
    상기 분할 정보가 상기 현재 블록이 분할되지 않음을 나타낼 경우, 상기 현재 블록의 예측 방법을 결정하는 예측 방법 결정부;
    상기 예측 방법에 따른 예측 결과에 따라 상기 현재 블록을 복원하는 복호화부를 포함하는 비디오 복호화 장치.
  21. 현재 블록을 2개 이상의 하위 블록들로 분할하는 단계;
    상기 현재 블록의 분할 결과에 따라, 상기 현재 블록의 분할 여부를 결정하고, 상기 현재 블록의 분할 여부를 나타내는 분할 정보를 생성하는 단계;
    상기 현재 블록의 부호화 효율에 따라, 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 결정하고, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 획득하는 단계; 및
    상기 분할 정보 및 상기 부호화 순서 정보가 포함된 비트스트림을 출력하는 단계를 포함하는 비디오 부호화 방법.
  22. 현재 블록을 2개 이상의 하위 블록들로 분할하고, 상기 현재 블록의 분할 결과에 따라, 상기 현재 블록의 분할 여부를 결정하고, 상기 현재 블록의 분할 여부를 나타내는 분할 정보를 생성하고, 상기 현재 블록의 부호화 효율에 따라, 상기 현재 블록의 상기 하위 블록들의 부호화 순서를 결정하고, 상기 하위 블록들의 부호화 순서를 나타내는 부호화 순서 정보를 생성하는 부호화 정보 생성부; 및
    상기 분할 정보 및 상기 부호화 순서 정보가 포함된 비트스트림을 출력하는 출력부를 포함하는 비디오 부호화 장치.
  23. 제1항 내지 제19항의 비디오 복호화 방법을 수행하는 프로그램이 기록된 컴퓨터로 기록가능한 비일시적 기록매체.
  24. 제22항의 비디오 부호화 방법을 수행하는 프로그램이 기록된 컴퓨터로 기록가능한 비일시적 기록매체.
PCT/KR2017/012135 2016-11-01 2017-10-31 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 WO2018084523A1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP17866548.5A EP3522532A1 (en) 2016-11-01 2017-10-31 Encoding method and device therefor, and decoding method and device therefor
KR1020197003994A KR102504876B1 (ko) 2016-11-01 2017-10-31 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
KR1020237006622A KR20230033027A (ko) 2016-11-01 2017-10-31 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US16/345,950 US10798375B2 (en) 2016-11-01 2017-10-31 Encoding method and device therefor, and decoding method and device therefor
US16/940,954 US11695918B2 (en) 2016-11-01 2020-07-28 Encoding method and device therefor, and decoding method and device therefor
US16/940,986 US11405605B2 (en) 2016-11-01 2020-07-28 Encoding method and device therefor, and decoding method and device therefor
US18/203,777 US20230308638A1 (en) 2016-11-01 2023-05-31 Encoding method and device therefor, and decoding method and device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662415619P 2016-11-01 2016-11-01
US62/415,619 2016-11-01

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US16/345,950 A-371-Of-International US10798375B2 (en) 2016-11-01 2017-10-31 Encoding method and device therefor, and decoding method and device therefor
US16/940,986 Continuation US11405605B2 (en) 2016-11-01 2020-07-28 Encoding method and device therefor, and decoding method and device therefor
US16/940,954 Continuation US11695918B2 (en) 2016-11-01 2020-07-28 Encoding method and device therefor, and decoding method and device therefor

Publications (1)

Publication Number Publication Date
WO2018084523A1 true WO2018084523A1 (ko) 2018-05-11

Family

ID=62076204

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/012135 WO2018084523A1 (ko) 2016-11-01 2017-10-31 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Country Status (4)

Country Link
US (4) US10798375B2 (ko)
EP (1) EP3522532A1 (ko)
KR (2) KR20230033027A (ko)
WO (1) WO2018084523A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138967A1 (ko) * 2018-12-26 2020-07-02 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
CN113170189A (zh) * 2018-12-07 2021-07-23 三星电子株式会社 视频解码方法和装置以及视频编码方法和装置
CN113228648A (zh) * 2018-12-21 2021-08-06 三星电子株式会社 使用三角形预测模式的图像编码装置和图像解码装置及其执行的图像编码方法和图像解码方法
EP3944622A4 (en) * 2019-06-26 2022-07-06 Samsung Electronics Co., Ltd. VIDEO CODING METHOD FOR PERFORMING A PREDICTION BASED ON AN AFFINE MODEL TAKING ACCOUNT OF A CODING ORDER, ASSOCIATED DEVICE AND VIDEO DECODER METHOD FOR PERFORMING A PREDICTION BASED ON AN AFFINE MODEL TAKING ACCOUNT OF THE DECODE ORDER, AND DEVICE ASSOCIATED
RU2781275C1 (ru) * 2019-03-08 2022-10-11 Тенсент Америка Ллс Построение списка слияний в треугольном предсказании

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10609423B2 (en) 2016-09-07 2020-03-31 Qualcomm Incorporated Tree-type coding for video coding
CN109983771A (zh) 2016-11-21 2019-07-05 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法及解码方法
WO2018092869A1 (ja) * 2016-11-21 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
ES2969557T3 (es) 2017-09-28 2024-05-21 Samsung Electronics Co Ltd Procedimiento y dispositivo de codificación, y procedimiento y dispositivo de descodificación
WO2019151297A1 (ja) 2018-01-30 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
EP3759928A1 (en) * 2018-02-26 2021-01-06 InterDigital VC Holdings, Inc. Gradient based boundary filtering in intra prediction
US11516496B2 (en) * 2018-03-21 2022-11-29 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus, and recording medium storing bitstream
KR102633784B1 (ko) * 2018-07-30 2024-02-05 삼성전자주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
MX2021002093A (es) 2018-08-24 2021-04-28 Samsung Electronics Co Ltd Metodo y aparato de decodificacion de videos y metodo y aparato de codificacion de video.
WO2020050281A1 (ja) * 2018-09-06 2020-03-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
US10742972B1 (en) * 2019-03-08 2020-08-11 Tencent America LLC Merge list construction in triangular prediction
CN114342372A (zh) * 2019-06-19 2022-04-12 韩国电子通信研究院 帧内预测模式、以及熵编解码方法和装置
CN114041291B (zh) * 2019-06-21 2023-03-24 北京达佳互联信息技术有限公司 视频编解码中的运动矢量预测的方法、设备和存储介质
CN114026851A (zh) * 2019-06-21 2022-02-08 Vid拓展公司 利用光流的运动补偿的精度细化
EP3989547A4 (en) * 2019-06-21 2023-04-19 Samsung Electronics Co., Ltd. VIDEO ENCODING METHOD AND DEVICE, AND VIDEO DECODER METHOD AND DEVICE
US20220279179A1 (en) * 2019-08-12 2022-09-01 Hanwha Techwin Co., Ltd. Method and device for high-level image segmentation and image encoding/decoding
WO2022177317A1 (ko) * 2021-02-18 2022-08-25 현대자동차주식회사 서브블록 분할 기반 인트라 예측을 이용하는 비디오 코딩방법 및 장치
WO2022197135A1 (ko) * 2021-03-19 2022-09-22 현대자동차주식회사 분할된 서브블록의 적응적 순서를 이용하는 비디오 코딩방법 및 장치
US11936877B2 (en) * 2021-04-12 2024-03-19 Qualcomm Incorporated Template matching based affine prediction for video coding
US11805245B2 (en) * 2021-08-16 2023-10-31 Mediatek Inc. Latency reduction for reordering prediction candidates
WO2023038315A1 (ko) * 2021-09-08 2023-03-16 현대자동차주식회사 서브블록 코딩 순서 변경 및 그에 따른 인트라 예측을 이용하는 비디오 코딩방법 및 장치
WO2023200214A1 (ko) * 2022-04-12 2023-10-19 현대자동차주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101014660B1 (ko) * 2003-10-24 2011-02-16 삼성전자주식회사 인트라 예측 방법 및 장치
US20130083857A1 (en) * 2011-06-29 2013-04-04 Qualcomm Incorporated Multiple zone scanning order for video coding
KR20140064748A (ko) * 2008-10-01 2014-05-28 한국전자통신연구원 예측 모드를 이용한 영상 부호화 장치 및 복호화 장치
KR20140136413A (ko) * 2011-09-09 2014-11-28 주식회사 케이티 화면 간 예측 수행시 후보 블록 결정 방법 및 이러한 방법을 사용하는 장치
KR101648910B1 (ko) * 2014-06-26 2016-08-18 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101458471B1 (ko) 2008-10-01 2014-11-10 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
US8867854B2 (en) 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
US9877033B2 (en) * 2009-12-21 2018-01-23 Qualcomm Incorporated Temporal and spatial video block reordering in a decoder to improve cache hits
US20110200108A1 (en) * 2010-02-18 2011-08-18 Qualcomm Incorporated Chrominance high precision motion filtering for motion interpolation
KR101432771B1 (ko) * 2010-03-05 2014-08-26 에스케이텔레콤 주식회사 영상 부호화 장치, 그 영상 부호화 방법, 영상 복호화 장치 및 그 영상 복호화 방법
US8837577B2 (en) * 2010-07-15 2014-09-16 Sharp Laboratories Of America, Inc. Method of parallel video coding based upon prediction type
US9491469B2 (en) * 2011-06-28 2016-11-08 Qualcomm Incorporated Coding of last significant transform coefficient
US9756360B2 (en) * 2011-07-19 2017-09-05 Qualcomm Incorporated Coefficient scanning in video coding
US20130114692A1 (en) 2011-11-04 2013-05-09 Texas Instruments Incorporated Simplified Coefficient Scans for Non-Square Transforms (NSQT) in Video Coding
US9883203B2 (en) * 2011-11-18 2018-01-30 Qualcomm Incorporated Adaptive overlapped block motion compensation
KR102111768B1 (ko) * 2012-01-19 2020-05-15 삼성전자주식회사 계층적 부호화 단위에 따라 스캔 순서를 변경하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US9036710B2 (en) * 2012-03-08 2015-05-19 Blackberry Limited Unified transform coefficient encoding and decoding
WO2014003421A1 (ko) * 2012-06-25 2014-01-03 한양대학교 산학협력단 비디오 부호화 및 복호화를 위한 방법
US20140286413A1 (en) * 2013-03-25 2014-09-25 Qualcomm Incorporated Disabling sign data hiding in video coding
CN104581159B (zh) * 2013-10-18 2019-04-05 华为技术有限公司 视频编解码中的块分割方式确定方法及相关装置
US9800898B2 (en) * 2014-10-06 2017-10-24 Microsoft Technology Licensing, Llc Syntax structures indicating completion of coded regions
US9936201B2 (en) * 2015-01-27 2018-04-03 Qualcomm Incorporated Contexts for large coding tree units
EP3270593A4 (en) * 2015-03-13 2018-11-07 LG Electronics Inc. Method of processing video signal and device for same
GB2561507B (en) * 2016-01-07 2021-12-22 Mediatek Inc Method and apparatus for affine merge mode prediction for video coding system
US11032550B2 (en) * 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
US10880548B2 (en) 2016-06-01 2020-12-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding video according to coding order

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101014660B1 (ko) * 2003-10-24 2011-02-16 삼성전자주식회사 인트라 예측 방법 및 장치
KR20140064748A (ko) * 2008-10-01 2014-05-28 한국전자통신연구원 예측 모드를 이용한 영상 부호화 장치 및 복호화 장치
US20130083857A1 (en) * 2011-06-29 2013-04-04 Qualcomm Incorporated Multiple zone scanning order for video coding
KR20140136413A (ko) * 2011-09-09 2014-11-28 주식회사 케이티 화면 간 예측 수행시 후보 블록 결정 방법 및 이러한 방법을 사용하는 장치
KR101648910B1 (ko) * 2014-06-26 2016-08-18 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113170189A (zh) * 2018-12-07 2021-07-23 三星电子株式会社 视频解码方法和装置以及视频编码方法和装置
CN113228648A (zh) * 2018-12-21 2021-08-06 三星电子株式会社 使用三角形预测模式的图像编码装置和图像解码装置及其执行的图像编码方法和图像解码方法
WO2020138967A1 (ko) * 2018-12-26 2020-07-02 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
US11463723B2 (en) 2018-12-26 2022-10-04 Apple Inc. Method for encoding/decoding image signal and device therefor
RU2781275C1 (ru) * 2019-03-08 2022-10-11 Тенсент Америка Ллс Построение списка слияний в треугольном предсказании
EP3944622A4 (en) * 2019-06-26 2022-07-06 Samsung Electronics Co., Ltd. VIDEO CODING METHOD FOR PERFORMING A PREDICTION BASED ON AN AFFINE MODEL TAKING ACCOUNT OF A CODING ORDER, ASSOCIATED DEVICE AND VIDEO DECODER METHOD FOR PERFORMING A PREDICTION BASED ON AN AFFINE MODEL TAKING ACCOUNT OF THE DECODE ORDER, AND DEVICE ASSOCIATED
US11750827B2 (en) 2019-06-26 2023-09-05 Samsung Electronics Co., Ltd. Video encoding method for performing affine model-based prediction by considering encoding order, and device therefor, and video decoding method for performing affine model-based prediction by considering decoding order, and device therefor

Also Published As

Publication number Publication date
EP3522532A4 (en) 2019-08-07
US20230308638A1 (en) 2023-09-28
US11405605B2 (en) 2022-08-02
US20200359015A1 (en) 2020-11-12
KR102504876B1 (ko) 2023-02-28
US20190281285A1 (en) 2019-09-12
KR20190068517A (ko) 2019-06-18
KR20230033027A (ko) 2023-03-07
EP3522532A1 (en) 2019-08-07
US20200359014A1 (en) 2020-11-12
US10798375B2 (en) 2020-10-06
US11695918B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
WO2018084523A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019168244A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017043816A1 (ko) 인터-인트라 병합 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017039117A1 (ko) 영상의 부호화/복호화 방법 및 이를 위한 장치
WO2018097693A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018124627A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017171107A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020040626A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019216716A2 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018097692A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020076097A1 (ko) 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2017043734A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2012005520A2 (en) Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
WO2018084339A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019066174A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019199127A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017183751A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2013141596A1 (ko) 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 부호화 방법 및 그 장치, 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 복호화 방법 및 그 장치
WO2017003063A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017188509A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020130745A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2015133838A1 (ko) 폴리곤 유닛 기반 영상 인코딩/디코딩 방법 및 이를 위한 장치
WO2018034373A1 (ko) 영상 처리 방법 및 이를 위한 장치
WO2018101700A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019240458A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17866548

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197003994

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017866548

Country of ref document: EP

Effective date: 20190430