WO2021054776A1 - 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법 - Google Patents

움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법 Download PDF

Info

Publication number
WO2021054776A1
WO2021054776A1 PCT/KR2020/012643 KR2020012643W WO2021054776A1 WO 2021054776 A1 WO2021054776 A1 WO 2021054776A1 KR 2020012643 W KR2020012643 W KR 2020012643W WO 2021054776 A1 WO2021054776 A1 WO 2021054776A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
current block
vector resolution
coding unit
prediction
Prior art date
Application number
PCT/KR2020/012643
Other languages
English (en)
French (fr)
Inventor
표인지
템즈아니쉬
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020227008515A priority Critical patent/KR20220051842A/ko
Publication of WO2021054776A1 publication Critical patent/WO2021054776A1/ko
Priority to US17/698,638 priority patent/US20220210461A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Definitions

  • the present disclosure relates to the field of video encoding and decoding. More specifically, the present disclosure relates to a method and apparatus for encoding motion information of a video, and a method and apparatus for decoding.
  • one picture may be divided into macroblocks to encode an image, and each macroblock may be predictively encoded through inter prediction or intra prediction.
  • Inter prediction is a method of compressing an image by removing temporal redundancy between pictures
  • motion estimation coding is a representative example.
  • Motion estimation coding predicts blocks of a current picture using at least one reference picture. A reference block that is most similar to the current block may be searched in a predetermined search range by using a predetermined evaluation function.
  • a current block is predicted based on a reference block, and a residual block is generated and encoded by subtracting a prediction block generated as a result of the prediction from the current block.
  • interpolation is performed on the search range of the reference picture to generate pixels of a sub-pel unit smaller than an integer pel unit, and the generated sub-pixel unit Inter prediction may be performed based on the pixels of.
  • inter prediction is performed and the resolution of a motion vector used is required to be precise.
  • the resolution of the motion vector becomes more precise, the amount of related data increases, which may affect encoding efficiency.
  • a resolution index indicating a motion vector resolution for inter prediction of a current block, a reference index of the current block, and prediction direction information of the current block are obtained from a bitstream.
  • Obtaining; Whether a reference picture of the current block is determined using the reference index of the current block, and whether the prediction direction of the current block is unidirectional or bidirectional prediction in the L0 direction or the L1 direction by using the prediction direction information of the current block Determining; Determining a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a reference picture of the current block and the prediction direction; And determining a motion vector according to the prediction direction according to a motion vector resolution indicated by the resolution index among the motion vector resolution set.
  • the motion information encoding apparatus and encoding method, and the motion information decoding apparatus and decoding method according to an embodiment may reduce the bit amount by omitting some of various motion information required for decoding an inter-predicted block. have.
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • FIG. 2 is a flowchart of an image decoding method according to an embodiment.
  • FIG. 3 is a diagram illustrating a process of determining at least one coding unit by dividing a current coding unit by an image decoding apparatus, according to an embodiment.
  • FIG. 4 is a diagram illustrating a process of determining at least one coding unit by dividing a coding unit having a non-square shape by an image decoding apparatus, according to an embodiment.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block type information and split type mode information, by an image decoding apparatus, according to an embodiment.
  • FIG. 6 illustrates a method for an image decoding apparatus to determine a predetermined coding unit among odd coding units, according to an embodiment.
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when a plurality of coding units are determined by dividing a current coding unit by an image decoding apparatus according to an embodiment.
  • FIG. 8 is a diagram illustrating a process of determining that a current coding unit is divided into odd number of coding units when coding units cannot be processed in a predetermined order, according to an embodiment.
  • FIG 9 illustrates a process in which an image decoding apparatus determines at least one coding unit by dividing a first coding unit, according to an embodiment.
  • FIG. 10 illustrates that, according to an embodiment, when a second coding unit of a non-square shape determined by splitting a first coding unit satisfies a predetermined condition, a form in which the second coding unit can be split is limited. Shows that.
  • FIG. 11 illustrates a process in which an image decoding apparatus splits a square coding unit when it is not possible to indicate that split mode information is split into four square coding units, according to an embodiment.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of a coding unit according to an embodiment.
  • FIG. 13 illustrates a process of determining a depth of a coding unit according to a change in a shape and size of a coding unit when a coding unit is recursively split to determine a plurality of coding units, according to an embodiment.
  • PID 14 illustrates a depth that may be determined according to a shape and size of coding units and a part index (hereinafter referred to as PID) for classifying coding units, according to an embodiment.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture, according to an embodiment.
  • 16 is a diagram showing a block diagram of an image encoding and decoding system.
  • 17 is a block diagram illustrating a configuration of an apparatus for encoding motion information according to an embodiment.
  • FIG. 18 is a flowchart illustrating a motion information encoding method according to an embodiment.
  • 19 is a block diagram illustrating a configuration of an apparatus for decoding motion information according to an embodiment.
  • 20 is a flowchart illustrating a motion information decoding method according to an embodiment.
  • 21 is a diagram illustrating at least one candidate block mapped 1:1 to at least one candidate motion vector resolution.
  • 22 is an exemplary diagram illustrating a mapping relationship between at least one candidate motion vector resolution and at least one candidate block.
  • 23 is a diagram for explaining interpolation for determining motion vectors according to various motion vector resolutions.
  • FIG. 24 illustrates a motion vector resolution in 1/4 pixel units, a motion vector resolution in 1/2 pixel units, a motion vector resolution in 1 pixel units, and a motion vector resolution in 2 pixels when the supportable minimum motion vector resolution is 1/4 pixel units.
  • 25 and 26 are diagrams for explaining a method of adjusting a motion vector predictor.
  • FIG. 27 is a flowchart illustrating a motion information encoding method according to another embodiment.
  • FIG. 28 is a flowchart illustrating a motion information decoding method according to another embodiment.
  • a resolution index indicating a motion vector resolution for inter prediction of a current block, a reference index of the current block, and prediction direction information of the current block are obtained from a bitstream.
  • Obtaining; Whether a reference picture of the current block is determined using the reference index of the current block, and whether the prediction direction of the current block is unidirectional or bidirectional prediction in the L0 direction or the L1 direction by using the prediction direction information of the current block Determining; Determining a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a reference picture of the current block and the prediction direction; And determining a motion vector according to the prediction direction according to a motion vector resolution indicated by the resolution index among the motion vector resolution set.
  • the motion vector resolution set according to an embodiment may include at least one of 1/4-pixel units, 1/2-pixel units, 1-pixel units, 2-pixel units, and 4-pixel units.
  • determining a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a reference picture of the current block and the prediction direction comprises: a current picture including the current block; When a POC distance between reference pictures of the current block is less than a predetermined POC distance, determining a first motion vector resolution set including one or more motion vector resolutions from among selectable total motion vector resolutions; And when the POC distance between the current picture and the reference picture is not less than the predetermined POC distance, determining a second motion vector resolution set including one or more motion vector resolutions from among the selectable total motion vector resolutions. And the first motion vector resolution set and the second motion vector resolution set are different, and the highest motion vector resolution belonging to the first motion vector resolution set is the highest motion vector resolution belonging to the second motion vector resolution set. It can be higher or the same.
  • determining a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a reference picture of the current block and the prediction direction comprises: a current picture including the current block; When a POC distance between reference pictures of the current block is less than a first predetermined POC distance, determining a first motion vector resolution set including one or more motion vector resolutions from among selectable total motion vector resolutions; When a POC distance between the current picture and the reference picture is greater than a second predetermined POC distance, determining a second motion vector resolution set including one or more motion vector resolutions from among the selectable total motion vector resolutions; And when a POC distance between the current picture and the reference picture is greater than or equal to the first predetermined POC distance and less than or equal to the second predetermined POC distance, one or more motion vector resolutions among the selectable total motion vector resolutions are selected.
  • a third motion vector resolution set to include, wherein the first motion vector resolution set, the second motion vector resolution set and the third motion vector resolution set are different, and the first motion vector resolution set
  • the highest motion vector resolution belonging to the second motion vector resolution set is higher than or equal to the highest motion vector resolution belonging to the second motion vector resolution set, and the third motion vector within a precision range of motion vector resolutions belonging to the first motion vector resolution set.
  • the highest motion vector resolution belonging to the resolution set may be included, and the lowest motion vector resolution belonging to the third motion vector resolution set may fall within a precision range of motion vector resolutions belonging to the second motion vector resolution set.
  • the step of determining a motion vector according to the prediction direction according to the motion vector resolution indicated by the resolution index among the motion vector resolution set may include the second motion vector resolution set for the motion vector of L0. And applying the applied resolution index to the third motion vector resolution set for the motion vector of L1.
  • obtaining a resolution index indicating a motion vector resolution for inter prediction of the current block, a reference index of the current block, and prediction direction information of the current block from a bitstream comprises: the motion vector resolution of L0 It may include the step of obtaining an L0 resolution index indicating L0 and an L1 resolution index indicating a motion vector resolution of L1.
  • the determining of a motion vector according to the prediction direction according to a motion vector resolution indicated by the resolution index among the motion vector resolution set includes: based on the determined motion vector resolution set, the resolution index is It may include determining an inverse binarization scheme for parsing.
  • determining a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a reference picture of the current block and the prediction direction comprises: a motion vector resolution and a motion of the current block.
  • the apparatus for decoding motion information provides a resolution index indicating a motion vector resolution for inter prediction of a current block, a reference index of the current block, and prediction direction information of the current block from a bitstream.
  • An acquisition unit to acquire; And determining a reference picture of the current block using the reference index of the current block, and whether the prediction direction of the current block is unidirectional prediction in the L0 direction or the L1 direction, or bidirectional prediction using the prediction direction information of the current block.
  • a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a picture order count (POC) distance and a prediction direction between a current picture including the current block and a reference picture of the current block, and And a prediction decoder configured to determine a motion vector according to the prediction direction according to a motion vector resolution indicated by the resolution index among the motion vector resolution set.
  • POC picture order count
  • An apparatus for encoding motion information includes the steps of: determining a motion vector, a reference picture, and a prediction direction of the current block by performing inter prediction on a current block; Determining a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a POC (Picture Order Count) distance between a current picture including the current block and a reference picture of the current block and the prediction direction step; And generating a resolution index indicating a motion vector resolution used for inter prediction of the current block from the determined motion vector resolution set.
  • POC Picture Order Count
  • a method for decoding motion information is to obtain information indicating a motion vector resolution set including one or more motion vector resolutions selectable in a current sequence or a current slice from a bitstream, and the motion vector Determining a set of resolutions; Obtaining a resolution index indicating a motion vector resolution for inter prediction of the current sequence or the current block included in the current slice from the bitstream; And determining a motion vector of the current block by using a motion vector resolution indicated by the resolution index among the motion vector resolution set.
  • a computer-readable recording medium in which a program for implementing a motion information encoding method according to an embodiment of the present disclosure with a computer is recorded.
  • a computer-readable recording medium in which a program for implementing a motion information decoding method according to an embodiment of the present disclosure with a computer is recorded is provided.
  • one component when one component is referred to as “connected” or “connected” to another component, the one component may be directly connected or directly connected to the other component, but specially It should be understood that as long as there is no opposite substrate, it may be connected or may be connected via another component in the middle.
  • each of the components to be described below may additionally perform some or all of the functions that other components are responsible for in addition to its own main function, and some of the main functions that each component is responsible for are different. It goes without saying that it may be performed exclusively by components.
  • 'image' or'picture' may represent a still image of a video or a moving picture, that is, a video itself.
  • sample refers to data that is allocated to a sampling position of an image and is subject to processing.
  • a pixel value in an image in a spatial domain and transform coefficients in a transform domain may be samples.
  • a unit including these at least one sample may be defined as a block.
  • a'current block' may mean a block of a largest coding unit, a coding unit, a prediction unit, or a transformation unit of a current image to be encoded or decoded.
  • 'motion vector resolution' may mean the precision of a position of a pixel that can be indicated by a motion vector determined through inter prediction among pixels included in a reference image (or interpolated reference image). . That the motion vector resolution has N pixel units (N is a rational number) means that the motion vector can have N pixel units of precision.
  • the motion vector resolution of 1/4 pixel unit may mean that the motion vector may indicate a pixel position of 1/4 pixel unit (i.e., subpixel unit) in the interpolated reference image, and 1 pixel unit
  • the motion vector resolution of may mean that the motion vector may indicate a pixel position corresponding to 1 pixel unit (ie, integer pixel unit) in the interpolated reference image.
  • the'candidate motion vector resolution' means one or more motion vector resolutions that can be selected as the motion vector resolution of the block, and the'candidate block' is mapped to the candidate motion vector resolution, so refers to one or more blocks that can be used as blocks for a vector predictor.
  • the term'pixel unit' may be replaced with terms such as pixel precision and pixel accuracy.
  • FIGS. 1 to 16 Each of the image encoding apparatus 200 and the image decoding apparatus 100 to be described with reference to FIGS. 1 to 16 is a motion information encoding apparatus 1700 and a motion information decoding apparatus 1900 to be described with reference to FIGS. 17 to 26. Each can be included.
  • FIGS. 1 and 2 a method and an apparatus for adaptively selecting based on various types of coding units according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2.
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • the image decoding apparatus 100 may include a receiver 110 and a decoder 120.
  • the receiving unit 110 and the decoding unit 120 may include at least one processor.
  • the receiving unit 110 and the decoding unit 120 may include a memory that stores instructions to be executed by at least one processor.
  • the receiver 110 may receive a bitstream.
  • the bitstream includes information obtained by encoding an image by the image encoding apparatus 2200, which will be described later. Also, the bitstream may be transmitted from the image encoding apparatus 2200.
  • the image encoding apparatus 2200 and the image decoding apparatus 100 may be connected by wire or wirelessly, and the receiving unit 110 may receive a bitstream through wired or wireless.
  • the receiving unit 110 may receive a bitstream from a storage medium such as an optical media or a hard disk.
  • the decoder 120 may reconstruct an image based on information obtained from the received bitstream.
  • the decoder 120 may obtain a syntax element for reconstructing an image from the bitstream.
  • the decoder 120 may reconstruct an image based on the syntax element.
  • FIG. 2 is a flowchart of an image decoding method according to an embodiment.
  • the receiver 110 receives a bitstream.
  • the image decoding apparatus 100 performs an operation 210 of obtaining a binstring corresponding to a split mode mode of a coding unit from a bitstream.
  • the image decoding apparatus 100 performs an operation 220 of determining a partitioning rule of a coding unit.
  • the image decoding apparatus 100 performs an operation 230 of dividing the coding unit into a plurality of coding units based on at least one of the binstring corresponding to the split mode and the splitting rule.
  • the image decoding apparatus 100 may determine an allowable first range of the size of the coding unit according to a ratio of the width and height of the coding unit to determine a splitting rule.
  • the image decoding apparatus 100 may determine an allowable second range of a size of a coding unit according to a split type mode of a coding unit in order to determine a splitting rule.
  • one picture may be divided into one or more slices or one or more tiles.
  • One slice or one tile may be a sequence of one or more largest coding units (CTU).
  • CTU largest coding unit
  • CTB largest coding block
  • the largest coding block CTB means an NxN block including NxN samples (N is an integer). Each color component may be divided into one or more maximum coding blocks.
  • the maximum coding unit is a maximum coding block of luma samples and two maximum coding blocks of chroma samples corresponding to the maximum coding block and luma.
  • the maximum coding unit is a unit including a maximum coding block of a monochrome sample and syntax structures used to encode the monochrome samples.
  • the maximum coding unit is a unit including the picture and syntax structures used to encode samples of the picture.
  • One maximum coding block CTB may be divided into MxN coding blocks including MxN samples (M and N are integers).
  • a coding unit is a coding block of a luma sample, two coding blocks of chroma samples corresponding to the coding block, and coding luma samples and chroma samples. It is a unit that contains syntax structures used to do so.
  • the coding unit is a unit including a coding block of a monochrome sample and syntax structures used to encode the monochrome samples.
  • the coding unit is a unit including the picture and syntax structures used to encode samples of the picture.
  • a largest coding block and a largest coding unit are concepts that are distinguished from each other, and a coding block and a coding unit are concepts that are distinguished from each other. That is, the (maximum) coding unit refers to a data structure including a (maximum) coding block including a corresponding sample and a syntax structure corresponding thereto.
  • the (maximum) coding unit or the (maximum) coding block refers to a block of a predetermined size including a predetermined number of samples, the following specification describes the largest coding block and the largest coding unit, or the coding block and coding unit. Is mentioned without distinction unless there are special circumstances.
  • An image may be divided into a maximum coding unit (CTU).
  • the size of the largest coding unit may be determined based on information obtained from the bitstream.
  • the shape of the largest coding unit may have a square of the same size. However, it is not limited thereto.
  • information on the maximum size of the luma coding block may be obtained from the bitstream.
  • the maximum size of the luma coded block indicated by information on the maximum size of the luma coded block may be one of 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, and 256x256.
  • information about a maximum size of a luma coded block that can be divided into two and a difference in the size of the luma block may be obtained from the bitstream.
  • the information on the difference in the size of the luma block may indicate a difference in size between the largest luma coding unit and the largest luma coding block that can be split into two.
  • the size of the largest luma coding unit may be determined. If the size of the largest luma coding unit is used, the size of the largest chroma coding unit may also be determined.
  • the size of the chroma block may be half the size of the luma block, and similarly, the size of the chroma largest coding unit is the size of the luma largest coding unit. It can be half the size.
  • the maximum size of a luma coded block capable of binary splitting may be determined variably.
  • the maximum size of a luma coding block capable of ternary splitting may be fixed.
  • a maximum size of a luma coded block capable of ternary division in an I picture may be 32x32
  • a maximum size of a luma coded block capable of ternary division in a P picture or B picture may be 64x64.
  • the largest coding unit may be hierarchically split into coding units based on split type mode information obtained from the bitstream.
  • split type mode information at least one of information indicating whether or not quad splitting, information indicating whether or not multi-dividing, information about a splitting direction, and information about a split type may be obtained from the bitstream.
  • information indicating whether or not the current coding unit is quad split may indicate whether the current coding unit is to be quad split (QUAD_SPLIT) or not quad split.
  • the information indicating whether the current coding unit is not divided into multiple divisions may indicate whether the current coding unit is no longer divided (NO_SPLIT) or binary/ternary division.
  • the splitting direction information indicates that the current coding unit is split in either a horizontal direction or a vertical direction.
  • the split type information indicates that the current coding unit is split into binary split) or ternary split.
  • a split mode of the current coding unit may be determined according to split direction information and split type information.
  • the division mode when the current coding unit is binary divided in the horizontal direction is binary horizontal division (SPLIT_BT_HOR), ternary horizontal division when ternary division in the horizontal direction (SPLIT_TT_HOR), and division mode when binary division in the vertical direction is The binary vertical division (SPLIT_BT_VER) and the division mode in the case of ternary division in the vertical direction may be determined as ternary vertical division (SPLIT_BT_VER).
  • the image decoding apparatus 100 may obtain split mode mode information from a bitstream from one binstring.
  • the type of the bitstream received by the video decoding apparatus 100 may include a fixed length binary code, an unary code, a truncated unary code, a predetermined binary code, and the like.
  • An empty string is a binary representation of information.
  • the binstring may consist of at least one bit.
  • the image decoding apparatus 100 may obtain information about a division type mode corresponding to a binstring based on a division rule.
  • the image decoding apparatus 100 may determine whether to divide the coding unit into quads or not, or determine a division direction and a division type based on one binstring.
  • the coding unit may be less than or equal to the largest coding unit.
  • the largest coding unit is also a coding unit having a maximum size, it is one of the coding units.
  • a coding unit determined in the largest coding unit has the same size as the largest coding unit.
  • the largest coding unit may be split into coding units.
  • the split type mode information for the coding unit indicates splitting, the coding units may be split into coding units having smaller sizes.
  • the division of the image is not limited thereto, and the largest coding unit and the coding unit may not be distinguished. Splitting of the coding unit will be described in more detail with reference to FIGS. 3 to 16.
  • one or more prediction blocks for prediction may be determined from the coding unit.
  • the prediction block may be equal to or smaller than the coding unit.
  • one or more transform blocks for transformation may be determined from the coding unit.
  • the transform block may be equal to or smaller than the coding unit.
  • the shape and size of the transform block and the prediction block may not be related to each other.
  • the coding unit may be a prediction block, and prediction may be performed using the coding unit.
  • the coding unit may be a transform block and transformation may be performed using the coding unit.
  • the current block and the neighboring block of the present disclosure may represent one of a largest coding unit, a coding unit, a prediction block, and a transform block.
  • the current block or the current coding unit is a block currently undergoing decoding or encoding or a block currently undergoing splitting.
  • the neighboring block may be a block restored before the current block.
  • the neighboring blocks may be spatially or temporally adjacent to the current block.
  • the neighboring block may be located in one of the lower left, left, upper left, upper, upper right, right and lower right of the current block.
  • FIG. 3 is a diagram illustrating a process of determining at least one coding unit by dividing a current coding unit by an image decoding apparatus, according to an embodiment.
  • the block shape may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN, or Nx8N.
  • N may be a positive integer.
  • the block shape information is information indicating at least one of a shape, a direction, a ratio or a size of a width and a height of a coding unit.
  • the shape of the coding unit may include a square and a non-square.
  • the image decoding apparatus 100 may determine block type information of the coding unit as a square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the image decoding apparatus 100 Block type information of the coding unit may be determined as a non-square.
  • the image decoding apparatus 100 adjusts the ratio of the width and the height among block type information of the coding unit to 1:2, 2:1, 1:4, 4:1, and 1:8. , 8:1, 1:16, 16:1, 1:32, 32:1.
  • the image decoding apparatus 100 may determine whether the coding unit is in a horizontal direction or a vertical direction. In addition, the image decoding apparatus 100 may determine the size of the coding unit based on at least one of the width, height, or width of the coding unit.
  • the image decoding apparatus 100 may determine a type of a coding unit using block type information, and may determine in what type a coding unit is divided using the split type mode information. That is, a method of dividing the coding unit indicated by the division type mode information may be determined according to which block type the block type information used by the image decoding apparatus 100 represents.
  • the image decoding apparatus 100 may obtain split type mode information from a bitstream. However, the present invention is not limited thereto, and the image decoding apparatus 100 and the image encoding apparatus 2200 may determine predetermined split type mode information based on the block type information.
  • the image decoding apparatus 100 may determine split type mode information predetermined for the largest coding unit or the smallest coding unit. For example, the image decoding apparatus 100 may determine split type mode information for the largest coding unit as a quad split. Also, the image decoding apparatus 100 may determine the split type mode information as "do not split" with respect to the minimum coding unit. In more detail, the image decoding apparatus 100 may determine the size of the largest coding unit to be 256x256.
  • the image decoding apparatus 100 may determine pre-promised segmentation mode information as quad segmentation.
  • Quad splitting is a split mode in which both the width and height of a coding unit are bisected.
  • the image decoding apparatus 100 may obtain a coding unit having a size of 128x128 from the largest coding unit having a size of 256x256 based on the split type mode information.
  • the image decoding apparatus 100 may determine the size of the minimum coding unit to be 4x4.
  • the image decoding apparatus 100 may obtain split type mode information indicating "no splitting" with respect to the minimum coding unit.
  • the image decoding apparatus 100 may use block type information indicating that the current coding unit is a square shape. For example, the image decoding apparatus 100 may determine whether to split a square coding unit, split it vertically, split it horizontally, split it horizontally, or split it into four coding units according to split mode information.
  • the decoder 120 when block type information of the current coding unit 300 represents a square shape, the decoder 120 has the same size as the current coding unit 300 according to split type mode information indicating that it is not split.
  • the coding unit 310a having a is not split, or split coding units 310b, 310c, 310d, 310e, 310f, etc. may be determined based on split mode information indicating a predetermined splitting method.
  • the image decoding apparatus 100 uses two coding units 310b obtained by vertically splitting a current coding unit 300 based on split type mode information indicating vertically splitting. You can decide.
  • the image decoding apparatus 100 may determine two coding units 310c obtained by splitting the current coding unit 300 in the horizontal direction based on split mode information indicating that the image is split in the horizontal direction.
  • the image decoding apparatus 100 may determine four coding units 310d obtained by splitting the current coding unit 300 vertically and horizontally based on split mode information indicating splitting in the vertical and horizontal directions.
  • the image decoding apparatus 100 may generate three coding units 310e obtained by vertically splitting the current coding unit 300 based on split type mode information indicating that ternary splitting is performed in the vertical direction. You can decide.
  • the image decoding apparatus 100 may determine three coding units 310f obtained by horizontally splitting the current coding unit 300 based on split mode information indicating that ternary splitting is performed in the horizontal direction.
  • the split form in which the square coding unit can be split is limited to the above-described form and should not be interpreted, and various forms that can be represented by the split form mode information may be included. Predetermined split forms in which a square coding unit is split will be described in detail through various embodiments below.
  • FIG. 4 is a diagram illustrating a process of determining at least one coding unit by dividing a coding unit having a non-square shape by an image decoding apparatus, according to an embodiment.
  • the image decoding apparatus 100 may use block type information indicating that a current coding unit is a non-square type.
  • the image decoding apparatus 100 may determine whether to split the non-square current coding unit or split it by a predetermined method according to the split type mode information.
  • the image decoding apparatus 100 may use the current coding unit ( Coding units 410 or 460 having the same size as 400 or 450) are determined, or coding units 420a, 420b, 430a, 430b, 430c, and 470a that are split based on split mode information indicating a predetermined splitting method. , 470b, 480a, 480b, 480c) can be determined.
  • a predetermined splitting method in which a non-square coding unit is split will be described in detail through various embodiments below.
  • the image decoding apparatus 100 may determine a form in which a coding unit is split by using split form mode information, and in this case, the split form mode information includes at least one coding unit generated by splitting the coding unit. Can represent the number.
  • the image decoding apparatus 100 may determine the current coding unit 400 or 450 based on the split type mode information. 450) may be split to determine two coding units 420a and 420b or 470a and 470b included in the current coding unit.
  • the image decoding apparatus 100 when the image decoding apparatus 100 divides a non-square type of current coding unit 400 or 450 based on the division type mode information, the image decoding apparatus 100
  • the current coding unit may be split in consideration of the position of the long side of the coding unit 400 or 450.
  • the image decoding apparatus 100 splits the current coding unit 400 or 450 in a direction for dividing the long side of the current coding unit 400 or 450 in consideration of the shape of the current coding unit 400 or 450
  • a plurality of coding units may be determined.
  • the image decoding apparatus 100 when the split mode information indicates that coding units are split into odd-numbered blocks (ternary splitting), the image decoding apparatus 100 encodes an odd number of coding units included in the current coding unit (400 or 450). You can decide the unit. For example, when the split mode information indicates that the current coding unit 400 or 450 is split into three coding units, the image decoding apparatus 100 may convert the current coding unit 400 or 450 into three coding units ( 430a, 430b, 430c, 480a, 480b, 480c).
  • a ratio of the width and height of the current coding unit 400 or 450 may be 4:1 or 1:4.
  • the ratio of the width and the height is 4:1, since the length of the width is longer than the length of the height, the block shape information may be in the horizontal direction.
  • the ratio of the width and height is 1:4, since the length of the width is shorter than the length of the height, the block shape information may be in the vertical direction.
  • the image decoding apparatus 100 may determine to divide the current coding unit into odd-numbered blocks based on the split type mode information. In addition, the image decoding apparatus 100 may determine a split direction of the current coding unit 400 or 450 based on block type information of the current coding unit 400 or 450.
  • the image decoding apparatus 100 may determine the coding units 430a, 430b, and 430c by dividing the current coding unit 400 in the horizontal direction. Also, when the current coding unit 450 is in the horizontal direction, the image decoding apparatus 100 may determine the coding units 480a, 480b, and 480c by dividing the current coding unit 450 in the vertical direction.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 400 or 450, and all sizes of the determined coding units may not be the same. For example, the size of a predetermined coding unit 430b or 480b among the determined odd number of coding units 430a, 430b, 430c, 480a, 480b, 480c is different from other coding units 430a, 430c, 480a, 480c.
  • a coding unit that can be determined by splitting the current coding unit 400 or 450 may have a plurality of types of sizes, and in some cases, an odd number of coding units 430a, 430b, 430c, 480a, 480b, 480c May each have a different size.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 400 or 450, and Furthermore, the image decoding apparatus 100 may place a predetermined limit on at least one coding unit among odd number of coding units generated by dividing.
  • the image decoding apparatus 100 is a coding unit positioned at the center of three coding units 430a, 430b, 430c, 480a, 480b, and 480c generated by splitting a current coding unit 400 or 450.
  • a decoding process for 430b and 480b may be different from that of other coding units 430a, 430c, 480a, and 480c.
  • the image decoding apparatus 100 limits the coding units 430b and 480b located at the center so that they are not further divided, or limited to a predetermined number of times. It can be restricted to be divided.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block type information and split type mode information, by an image decoding apparatus, according to an embodiment.
  • the image decoding apparatus 100 may determine that the square-shaped first coding unit 500 is divided into coding units or not divided based on at least one of block type information and split type mode information. .
  • the image decoding apparatus 100 splits the first coding unit 500 in the horizontal direction to perform the second encoding.
  • the unit 510 can be determined.
  • a first coding unit, a second coding unit, and a third coding unit used according to an embodiment are terms used to understand a relationship before and after splitting between coding units.
  • a second coding unit when the first coding unit is split, a second coding unit may be determined, and when the second coding unit is split, a third coding unit may be determined.
  • a third coding unit may be determined when the second coding unit is split.
  • the image decoding apparatus 100 may determine that the determined second coding unit 510 is split into coding units or not split based on split type mode information. Referring to FIG. 5, the image decoding apparatus 100 divides a first coding unit 500 based on split mode information to perform at least one third coding on a second coding unit 510 having a non-square shape determined by dividing the first coding unit 500. The units 520a, 520b, 520c, 520d, etc.) may be divided, or the second coding unit 510 may not be divided. The image decoding apparatus 100 may obtain split type mode information, and the image decoding apparatus 100 divides the first coding unit 500 based on the obtained split type mode information to perform a plurality of second encodings of various types.
  • a unit (eg, 510) may be divided, and the second coding unit 510 may be divided according to a method in which the first coding unit 500 is divided based on the split type mode information.
  • the second coding unit 510 when the first coding unit 500 is split into second coding units 510 based on split mode information for the first coding unit 500, the second coding unit 510 is also The second coding unit 510 may be split into third coding units (eg, 520a, 520b, 520c, 520d, etc.) based on split type mode information. That is, the coding units may be recursively split based on split type mode information related to each coding unit. Accordingly, a square coding unit may be determined from a non-square coding unit, and a non-square coding unit may be determined by recursively splitting the square coding unit.
  • a predetermined coding unit (for example, among odd-numbered third coding units 520b, 520c, 520d) determined by splitting a second coding unit 510 in a non-square shape
  • the coding unit or the square coding unit may be recursively divided.
  • a square-shaped third coding unit 520b which is one of the odd number of third coding units 520b, 520c, and 520d, may be split in a horizontal direction and split into a plurality of fourth coding units.
  • One of the plurality of fourth coding units 530a, 530b, 530c, and 530d which is a non-square type fourth coding unit 530b or 530d, may be divided into a plurality of coding units.
  • the fourth coding unit 530b or 530d having a non-square shape may be split again into odd number of coding units.
  • a method that can be used for recursive partitioning of coding units will be described later through various embodiments.
  • the image decoding apparatus 100 may divide each of the third coding units 520a, 520b, 520c, and 520d into coding units based on split mode information. Also, the image decoding apparatus 100 may determine not to split the second coding unit 510 based on the split type mode information. The image decoding apparatus 100 may divide the second coding unit 510 in a non-square shape into odd third coding units 520b, 520c, and 520d according to an embodiment. The image decoding apparatus 100 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 100 should limit the coding unit 520c located in the middle of the odd number of third coding units 520b, 520c, and 520d to no longer be divided or be divided by a setable number of times. You can limit yourself to what you do.
  • the image decoding apparatus 100 includes an odd number of third coding units 520b, 520c, and 520d included in a second coding unit 510 having a non-square shape.
  • 520c) is not further divided or is divided into a predetermined division type (e.g., divided into only four coding units or divided into a shape corresponding to the divided shape of the second coding unit 510), or a predetermined It can be limited to dividing only by the number of times (for example, dividing only n times, n>0).
  • the limitation on the centrally located coding unit 520c is only for simple embodiments and should not be interpreted as being limited to the above-described embodiments, and the centrally located coding unit 520c is different from the other coding units 520b and 520d. It should be interpreted as including various restrictions that can be decrypted differently from ).
  • the image decoding apparatus 100 may obtain split type mode information used to split a current coding unit at a predetermined position within the current coding unit.
  • FIG. 6 illustrates a method for an image decoding apparatus to determine a predetermined coding unit among odd coding units, according to an embodiment.
  • split mode information of the current coding units 600 and 650 is a sample at a predetermined position among a plurality of samples included in the current coding units 600 and 650 (for example, a sample located in the center ( 640, 690)).
  • a predetermined position in the current coding unit 600 in which at least one of the split mode information can be obtained should not be interpreted as being limited to the center position shown in FIG. 6, and the predetermined position is included in the current coding unit 600. It should be construed that a variety of possible locations (eg, top, bottom, left, right, top left, bottom left, top right, or bottom right, etc.) may be included.
  • the image decoding apparatus 100 may determine that the current coding unit is divided into coding units of various types and sizes or not divided by obtaining split type mode information obtained from a predetermined location.
  • the image decoding apparatus 100 may select one of the coding units.
  • Methods for selecting one of a plurality of coding units may be various, and a description of these methods will be described later through various embodiments below.
  • the image decoding apparatus 100 may divide a current coding unit into a plurality of coding units and determine a coding unit at a predetermined location.
  • the image decoding apparatus 100 may use information indicating a location of each of the odd number of coding units to determine a coding unit located in the middle of the odd number of coding units. Referring to FIG. 6, the image decoding apparatus 100 divides a current coding unit 600 or a current coding unit 650 into odd number of coding units 620a, 620b, and 620c or odd number of coding units 660a. 660b, 660c) can be determined.
  • the image decoding apparatus 100 uses the information on the positions of the odd number of coding units 620a, 620b, and 620c or the odd number of coding units 660a, 660b, 660c, and the middle coding unit 620b or the middle coding unit (660b) can be determined. For example, the image decoding apparatus 100 determines the location of the coding units 620a, 620b, and 620c based on information indicating the location of a predetermined sample included in the coding units 620a, 620b, and 620c. The coding unit 620b positioned at may be determined.
  • the image decoding apparatus 100 includes coding units 620a, 620b, and 620c based on information indicating a location of the upper left sample 630a, 630b, and 630c of the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned in the center may be determined by determining the position of.
  • information indicating the location of the upper left sample 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c, respectively is within a picture of the coding units 620a, 620b, and 620c. It may include information about the location or coordinates of. According to an embodiment, information indicating the location of the upper left sample 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c, respectively, is the coding units 620a included in the current coding unit 600. , 620b, 620c) may include information indicating the width or height of the coding units 620a, 620b, and 620c.
  • the width or height may correspond to information indicating a difference between coordinates in a picture of the coding units 620a, 620b, and 620c. That is, the image decoding apparatus 100 directly uses information on a location or coordinates within a picture of the coding units 620a, 620b, and 620c, or information on a width or height of a coding unit corresponding to a difference value between coordinates.
  • the coding unit 620b positioned in the center may be determined by using.
  • information indicating the location of the upper left sample 630a of the upper coding unit 620a may represent (xa, ya) coordinates
  • Information indicating the location of) may indicate (xb, yb) coordinates
  • information indicating the location of the upper left sample 630c of the lower coding unit 620c may indicate (xc, yc) coordinates.
  • the image decoding apparatus 100 may determine the center coding unit 620b by using coordinates of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c, respectively.
  • the coding unit 620b including (xb, yb), which is the coordinates of the sample 630b located in the center
  • the current coding unit 600 may be determined as a coding unit positioned in the middle of the coding units 620a, 620b, and 620c determined by splitting the current coding unit 600.
  • the coordinates indicating the position of the upper left samples 630a, 630b, 630c may indicate the coordinates indicating the absolute position in the picture, and furthermore, the position of the upper left sample 630a of the upper coding unit 620a
  • (dxb, dyb) coordinates which is information indicating the relative position of the upper left sample 630b of the center coding unit 620b, indicating the relative position of the upper left sample 630c of the lower coding unit 620c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined location by using the coordinates of the sample should not be interpreted limited to the above-described method, and various arithmetical coordinates that can use the coordinates of the sample It should be interpreted in a way.
  • the image decoding apparatus 100 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and a predetermined number of coding units 620a, 620b, and 620c Coding units can be selected according to the criteria. For example, the image decoding apparatus 100 may select a coding unit 620b having a different size among coding units 620a, 620b, and 620c.
  • the image decoding apparatus 100 includes (xa, ya) coordinates, which is information indicating the location of the upper left sample 630a of the upper coding unit 620a, and the upper left sample of the center coding unit 620b. Coding units 620a using (xb, yb) coordinates, which are information indicating the location of 630b, and (xc, yc) coordinates, which are information indicating the location of the upper left sample 630c of the lower coding unit 620c. , 620b, 620c) it is possible to determine the width or height of each.
  • the image decoding apparatus 100 uses the coding units 620a and 620b using (xa, ya), (xb, yb), and (xc, yc), which are coordinates representing the positions of the coding units 620a, 620b, and 620c. , 620c) each size can be determined.
  • the image decoding apparatus 100 may determine the width of the upper coding unit 620a as the width of the current coding unit 600.
  • the image decoding apparatus 100 may determine the height of the upper coding unit 620a as yb-ya.
  • the image decoding apparatus 100 may determine the width of the center coding unit 620b as the width of the current coding unit 600.
  • the image decoding apparatus 100 may determine the height of the central coding unit 620b as yc-yb. According to an embodiment, the image decoding apparatus 100 may determine the width or height of the lower coding unit using the width or height of the current coding unit and the width and height of the upper coding unit 620a and the center coding unit 620b. . The image decoding apparatus 100 may determine a coding unit having a size different from other coding units based on the determined width and height of the coding units 620a, 620b, and 620c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 620b having a size different from the size of the upper coding unit 620a and the lower coding unit 620c as a coding unit at a predetermined position.
  • the process of determining a coding unit having a size different from that of other coding units the process of determining a coding unit at a predetermined location by using a size of a coding unit determined based on sample coordinates. Therefore, various processes of determining a coding unit at a predetermined location by comparing sizes of coding units determined according to predetermined sample coordinates may be used.
  • the image decoding apparatus 100 includes (xd, yd) coordinates, which are information indicating the location of the upper left sample 670a of the left coding unit 660a, and the location of the upper left sample 670b of the center coding unit 660b. Coding units 660a, 660b, and 660c using (xe, ye) coordinates, which is information indicating the position, and (xf, yf) coordinates, which are information indicating the location of the upper left sample 670c of the right coding unit 660c. You can decide the width or height of each.
  • the image decoding apparatus 100 uses the coding units 660a and 660b using (xd, yd), (xe, ye), and (xf, yf), which are coordinates representing the positions of the coding units 660a, 660b, and 660c. , 660c) Each size can be determined.
  • the image decoding apparatus 100 may determine the width of the left coding unit 660a as xe-xd.
  • the image decoding apparatus 100 may determine the height of the left coding unit 660a as the height of the current coding unit 650.
  • the image decoding apparatus 100 may determine the width of the center coding unit 660b as xf-xe.
  • the image decoding apparatus 100 may determine the height of the center coding unit 660b as the height of the current coding unit 600.
  • the width or height of the right coding unit 660c is the width or height of the current coding unit 650 and the width and height of the left coding unit 660a and the center coding unit 660b. It can be determined using.
  • the image decoding apparatus 100 may determine a coding unit having a size different from other coding units based on the determined widths and heights of the coding units 660a, 660b, and 660c. Referring to FIG. 6, the image decoding apparatus 100 may determine a coding unit 660b having a size different from the size of the left coding unit 660a and the right coding unit 660c as the coding unit at a predetermined position.
  • the process of determining a coding unit at a predetermined location by using a size of a coding unit determined based on sample coordinates Therefore, various processes of determining a coding unit at a predetermined location by comparing sizes of coding units determined according to predetermined sample coordinates may be used.
  • the location of the sample considered to determine the location of the coding unit should not be interpreted as being limited to the upper left corner described above, but it may be interpreted that information on the location of an arbitrary sample included in the coding unit can be used.
  • the image decoding apparatus 100 may select a coding unit at a predetermined position from among odd number of coding units determined by splitting the current coding unit in consideration of a shape of a current coding unit. For example, if the current coding unit has a non-square shape whose width is longer than the height, the image decoding apparatus 100 may determine the coding unit at a predetermined position according to the horizontal direction. That is, the image decoding apparatus 100 may determine one of coding units that set different positions in the horizontal direction and place restrictions on the corresponding coding unit. If the current coding unit has a non-square shape whose height is longer than the width, the image decoding apparatus 100 may determine a coding unit at a predetermined position according to the vertical direction. That is, the image decoding apparatus 100 may determine one of coding units that set different positions in the vertical direction and place restrictions on the corresponding coding unit.
  • the image decoding apparatus 100 may use information indicating a position of each of the even number of coding units to determine a coding unit of a predetermined position among even number of coding units.
  • the image decoding apparatus 100 may determine the even number of coding units by dividing the current coding unit (binary division), and may determine the coding unit at a predetermined position by using information on the positions of the even number of coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit at a predetermined position (eg, a center position) among the odd numbered coding units described above in FIG. 6, and thus will be omitted.
  • a predetermined coding unit at a certain position is determined during the splitting process in order to determine a coding unit at a certain position among the plurality of coding units.
  • the image decoding apparatus 100 may use block type information and split type stored in a sample included in the center coding unit during the splitting process. At least one of the mode information may be used.
  • the image decoding apparatus 100 may split a current coding unit 600 into a plurality of coding units 620a, 620b, and 620c based on split type mode information, and the plurality of coding units ( A coding unit 620b positioned in the middle of 620a, 620b, and 620c may be determined. Furthermore, the image decoding apparatus 100 may determine a coding unit 620b positioned in the center in consideration of a location at which split mode information is obtained. That is, the split type mode information of the current coding unit 600 may be obtained from a sample 640 positioned in the center of the current coding unit 600, and the current coding unit 600 is based on the split type mode information.
  • the coding unit 620b including the sample 640 may be determined as a coding unit positioned at the center.
  • information used to determine the centrally located coding unit should not be interpreted as being limited to the split mode information, and various types of information may be used in the process of determining the centrally located coding unit.
  • predetermined information for identifying a coding unit at a predetermined location may be obtained from a predetermined sample included in a coding unit to be determined.
  • the image decoding apparatus 100 includes coding units (e.g., split into a plurality of coding units 620a, 620b, 620c) of a plurality of coding units 620a, 620b, and 620c determined by splitting the current coding unit 600.
  • Split type mode information obtained from a sample at a predetermined position in the current coding unit 600 (for example, a sample located in the center of the current coding unit 600) to determine a coding unit located in the middle of the coding units Can be used.
  • the image decoding apparatus 100 may determine a sample at the predetermined position in consideration of the block shape of the current coding unit 600, and the image decoding apparatus 100 may determine a plurality of samples determined by dividing the current coding unit 600 Among the three coding units 620a, 620b, and 620c, a coding unit 620b including a sample from which predetermined information (eg, split mode information) can be obtained may be determined and a predetermined limit may be set.
  • predetermined information eg, split mode information
  • the image decoding apparatus 100 may determine a sample 640 located in the center of the current coding unit 600 as a sample from which predetermined information may be obtained, and the image decoding apparatus 100 may place a predetermined limit in the decoding process of the coding unit 620b including the sample 640.
  • the location of a sample from which predetermined information can be obtained should not be interpreted as being limited to the above-described location, and may be interpreted as samples at an arbitrary location included in the coding unit 620b to be determined to impose restrictions.
  • the location of a sample from which predetermined information can be obtained may be determined according to the shape of the current coding unit 600.
  • the block shape information may determine whether the shape of a current coding unit is a square or a non-square shape, and a location of a sample from which predetermined information can be obtained may be determined according to the shape.
  • the image decoding apparatus 100 uses at least one of information about the width and height of the current coding unit to be positioned on a boundary that divides at least one of the width and height of the current coding unit in half. The sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 selects one of samples including a boundary that divides the long side of the current coding unit in half. It can be determined as a sample from which the information of can be obtained.
  • the image decoding apparatus 100 may use split type mode information to determine a coding unit at a predetermined position among the plurality of coding units.
  • the image decoding apparatus 100 may obtain split type mode information from a sample at a predetermined location included in a coding unit, and the image decoding apparatus 100 may obtain a plurality of encodings generated by splitting a current coding unit.
  • the units may be split using split type mode information obtained from samples at a predetermined location included in each of a plurality of coding units. That is, the coding units may be recursively split using split mode information obtained from a sample at a predetermined location included in each coding unit. Since the recursive partitioning process of the coding unit has been described above with reference to FIG. 5, detailed descriptions will be omitted.
  • the image decoding apparatus 100 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded by a predetermined block (eg, a current coding unit). ) Can be determined.
  • a predetermined block eg, a current coding unit
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when a plurality of coding units are determined by dividing a current coding unit by an image decoding apparatus according to an embodiment.
  • the image decoding apparatus 100 determines the second coding units 710a and 710b by dividing the first coding unit 700 in a vertical direction according to the split mode information, or the first coding unit 700
  • the second coding units 750a, 750b, 750c, and 750d may be determined by splitting in the horizontal direction to determine the second coding units 730a and 730b, or splitting the first coding unit 700 in the vertical and horizontal directions. have.
  • the image decoding apparatus 100 may determine an order so that the second coding units 710a and 710b determined by dividing the first coding unit 700 in the vertical direction are processed in the horizontal direction 710c. .
  • the image decoding apparatus 100 may determine a processing order of the second coding units 730a and 730b determined by dividing the first coding unit 700 in the horizontal direction as the vertical direction 730c.
  • the image decoding apparatus 100 divides the first coding unit 700 in the vertical direction and the horizontal direction, and processes the second coding units 750a, 750b, 750c, and 750d determined by processing the coding units located in one row.
  • the coding units located in the next row may be determined according to a predetermined order (eg, a raster scan order or a z scan order 750e).
  • the image decoding apparatus 100 may recursively split coding units.
  • the image decoding apparatus 100 may divide a first coding unit 700 to determine a plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d, and Each of the determined coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be recursively split.
  • a method of dividing the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be a method corresponding to a method of dividing the first coding unit 700. Accordingly, the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be independently divided into a plurality of coding units. Referring to FIG. 7, the image decoding apparatus 100 may determine the second coding units 710a and 710b by dividing the first coding unit 700 in a vertical direction, and further, the second coding units 710a and 710b, respectively. It can be decided to divide independently or not to divide.
  • the image decoding apparatus 100 may split the second coding unit 710a on the left side in a horizontal direction and divide it into third coding units 720a and 720b, and the second coding unit 710b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a splitting process of the coding units.
  • the processing order of the split coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 100 may independently determine an order in which the third coding units 720a and 720b determined by splitting the left second coding unit 710a and processing the determined third coding unit 710b independently from the right second coding unit 710b. Since the left second coding unit 710a is split in the horizontal direction to determine the third coding units 720a and 720b, the third coding units 720a and 720b may be processed in the vertical direction 720c.
  • FIG. 8 is a diagram illustrating a process of determining that a current coding unit is divided into odd number of coding units when coding units cannot be processed in a predetermined order, according to an embodiment.
  • the image decoding apparatus 100 may determine that the current coding unit is divided into odd number of coding units based on the obtained split type mode information.
  • a first coding unit 800 having a square shape may be divided into second coding units 810a and 810b having a non-square shape, and the second coding units 810a and 810b are each independently It may be divided into 3 coding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 100 may determine a plurality of third coding units 820a and 820b by splitting the left coding unit 810a among the second coding units in a horizontal direction, and determining the plurality of third coding units 820a and 820b, and the right coding unit 810b ) May be divided into odd number of third coding units 820c, 820d, and 820e.
  • the image decoding apparatus 100 determines whether or not the third coding units 820a, 820b, 820c, 820d, and 820e can be processed in a predetermined order to determine whether there are coding units divided into odd numbers. You can decide. Referring to FIG. 8, the image decoding apparatus 100 may determine third coding units 820a, 820b, 820c, 820d and 820e by recursively dividing the first coding unit 800. Based on at least one of block type information and split type mode information, the image decoding apparatus 100 may be configured to provide a first coding unit 800, a second coding unit 810a, 810b, or a third coding unit 820a, 820b, 820c.
  • a coding unit positioned to the right of the second coding units 810a and 810b may be split into odd number of third coding units 820c, 820d, and 820e.
  • An order in which a plurality of coding units included in the first coding unit 800 are processed may be a predetermined order (for example, a z-scan order 830), and the image decoding apparatus ( 100) may determine whether the third coding units 820c, 820d, and 820e determined by dividing the right second coding unit 810b into odd numbers satisfies a condition capable of being processed according to the predetermined order.
  • the image decoding apparatus 100 satisfies a condition in which the third coding units 820a, 820b, 820c, 820d, and 820e included in the first coding unit 800 can be processed in a predetermined order. Whether or not at least one of the widths and heights of the second coding units 810a and 810b is divided in half according to the boundary of the third coding units 820a, 820b, 820c, 820d, 820e, and It is related. For example, the third coding units 820a and 820b determined by dividing the height of the left second coding unit 810a in a non-square shape in half may satisfy the condition.
  • the boundary of the third coding units 820c, 820d, 820e which is determined by dividing the right second coding unit 810b into three coding units, cannot divide the width or height of the right second coding unit 810b in half. Therefore, it may be determined that the third coding units 820c, 820d, and 820e do not satisfy the condition. In the case of dissatisfaction with this condition, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the right second coding unit 810b is divided into odd number of coding units based on the determination result.
  • a predetermined restriction may be placed on a coding unit at a predetermined position among the divided coding units. Since it has been described above through the embodiment, detailed description will be omitted.
  • FIG 9 illustrates a process in which an image decoding apparatus determines at least one coding unit by dividing a first coding unit, according to an embodiment.
  • the image decoding apparatus 100 may split the first coding unit 900 based on split mode information obtained through the receiver 110.
  • the first coding unit 900 having a square shape may be divided into four coding units having a square shape or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 100 may refer to the first coding unit 900. It can be divided into a plurality of non-square coding units.
  • the image decoding apparatus 100 includes a first coding unit having a square shape ( 900) may be divided into odd-numbered coding units, and may be divided into second coding units 910a, 910b, and 910c that are determined by being split in the vertical direction or second coding units 920a, 920b, and 920c that are determined by being split in a horizontal direction.
  • the image decoding apparatus 100 may process the second coding units 910a, 910b, 910c, 920a, 920b, and 920c included in the first coding unit 900 in a predetermined order. Is satisfied, and the condition is whether at least one of the width and height of the first coding unit 900 is divided in half according to the boundary of the second coding units 910a, 910b, 910c, 920a, 920b, and 920c. It has to do with whether or not. Referring to FIG. 9, a boundary of second coding units 910a, 910b, 910c determined by dividing a square-shaped first coding unit 900 in a vertical direction divides the width of the first coding unit 900 in half.
  • the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the first coding unit 900 is divided into odd number of coding units based on the determination result.
  • a predetermined restriction may be placed on a coding unit at a predetermined position among the divided coding units. Since it has been described above through the embodiment, detailed description will be omitted.
  • the image decoding apparatus 100 may determine various types of coding units by dividing the first coding unit.
  • the image decoding apparatus 100 may split a square type first coding unit 900 and a non-square type first coding unit 930 or 950 into various types of coding units. .
  • FIG. 10 illustrates that, according to an embodiment, when a second coding unit of a non-square shape determined by splitting a first coding unit satisfies a predetermined condition, a form in which the second coding unit can be split is limited. Shows that.
  • the image decoding apparatus 100 may convert the first coding unit 1000 in a square shape to a second coding unit 1010a in a non-square shape, based on the split mode information obtained through the receiver 110. 1010b, 1020a, 1020b).
  • the second coding units 1010a, 1010b, 1020a, and 1020b may be independently split. Accordingly, the image decoding apparatus 100 may determine that the second coding units 1010a, 1010b, 1020a, and 1020b are split into a plurality of coding units or not split based on split mode information related to each of the second coding units 1010a, 1010b, 1020a, and 1020b.
  • the image decoding apparatus 100 splits the second coding unit 1010a in a non-square shape determined by splitting the first coding unit 1000 in a vertical direction and splitting the second coding unit 1010a in a horizontal direction to obtain a third coding unit ( 1012a, 1012b) can be determined.
  • the image decoding apparatus 100 splits the left second coding unit 1010a in the horizontal direction
  • the right second coding unit 1010b is in the horizontal direction in the same direction as the left second coding unit 1010a. It can be restricted so that it cannot be divided into.
  • the left second coding unit 1010a and the right second coding unit 1010b are respectively in the horizontal direction.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined.
  • the image decoding apparatus 100 splitting the first coding unit 1000 into four square second coding units 1030a, 1030b, 1030c, and 1030d based on the split mode information. It may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 divides the second coding unit 1020a or 1020b in a non-square shape determined by dividing the first coding unit 1000 in the horizontal direction in a vertical direction to obtain a third coding unit. (1022a, 1022b, 1024a, 1024b) can be determined.
  • a third coding unit. (1022a, 1022b, 1024a, 1024b) can be determined.
  • another second coding unit for example, the lower The coding unit 1020b may be limited so that the upper second coding unit 1020a cannot be split in the vertical direction in the same way as the split direction.
  • FIG. 11 illustrates a process in which an image decoding apparatus splits a square coding unit when it is not possible to indicate that split mode information is split into four square coding units, according to an embodiment.
  • the image decoding apparatus 100 may determine the second coding units 1110a, 1110b, 1120a, 1120b, etc. by dividing the first coding unit 1100 based on the split mode information.
  • the split type mode information may include information on various types in which a coding unit can be split, but information on various types may not include information for splitting into four coding units having a square shape. According to the split mode information, the image decoding apparatus 100 cannot split the square-shaped first coding unit 1100 into four square-shaped second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 may determine non-square second coding units 1110a, 1110b, 1120a, 1120b, etc. based on the split mode information.
  • the image decoding apparatus 100 may independently divide the second coding units 1110a, 1110b, 1120a, 1120b, etc. of a non-square shape, respectively.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, etc. may be divided in a predetermined order through a recursive method, and this is a method in which the first coding unit 1100 is divided based on the division type mode information. It may be a corresponding segmentation method.
  • the image decoding apparatus 100 may determine the third coding units 1112a and 1112b in a square shape by splitting the left second coding unit 1110a in a horizontal direction, and the second coding unit 1110b on the right
  • the third coding units 1114a and 1114b having a square shape may be determined by being split in a horizontal direction.
  • the image decoding apparatus 100 may determine the third coding units 1116a, 1116b, 1116c, and 1116d in a square shape by splitting both the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction. have.
  • the coding unit may be determined in the same form as the first coding unit 1100 is divided into four square-shaped second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 may determine the third coding units 1122a and 1122b in a square shape by dividing the upper second coding unit 1120a in a vertical direction, and the lower second coding unit 1120b ) Is divided in a vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the image decoding apparatus 100 may determine the third coding units 1126a, 1126b, 1126a, and 1126b in a square shape by splitting both the upper second coding units 1120a and the lower second coding units 1120b in the vertical direction. have. In this case, the coding unit may be determined in the same form as the first coding unit 1100 is divided into four square-shaped second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of a coding unit according to an embodiment.
  • the image decoding apparatus 100 may split the first coding unit 1200 based on split type mode information.
  • the block shape is a square and the split mode information indicates that the first coding unit 1200 is split in at least one of a horizontal direction and a vertical direction
  • the image decoding apparatus 100 uses the first coding unit 1200.
  • Second coding units eg, 1210a, 1210b, 1220a, 1220b, etc.
  • the image decoding apparatus 100 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction and splitting the second coding units 1210a and 1210b in the horizontal direction, 1216c and 1216d) may be determined, and the second coding units 1220a and 1220b generated by splitting the first coding unit 1200 in the horizontal direction are respectively divided in the horizontal direction, and the third coding units 1226a, 1226b, and 1226c , 1226d) can be determined. Since the dividing process of the second coding units 1210a, 1210b, 1220a, and 1220b has been described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may process coding units according to a predetermined order. Features of processing of coding units according to a predetermined order have been described above with reference to FIG. 7, and thus detailed descriptions will be omitted. Referring to FIG. 12, the image decoding apparatus 100 divides the first coding unit 1200 in a square shape to form four square-shaped third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. ) Can be determined.
  • the image decoding apparatus 100 performs a processing order of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to a form in which the first coding unit 1200 is split. You can decide.
  • the image decoding apparatus 100 determines the third coding units 1216a, 1216b, 1216c, and 1216d by dividing the second coding units 1210a and 1210b generated by being split in the vertical direction, respectively, in the horizontal direction.
  • the image decoding apparatus 100 may first process the third coding units 1216a and 1216c included in the left second coding unit 1210a in the vertical direction, and then process the third coding units 1216a and 1216c included in the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the third coding units 1216b and 1216d in the vertical direction.
  • the image decoding apparatus 100 determines the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by splitting in the horizontal direction, respectively, in the vertical direction.
  • the image decoding apparatus 100 may first process the third coding units 1226a and 1226b included in the upper second coding unit 1220a in the horizontal direction, and then process the third coding units 1226a and 1226b included in the upper second coding unit 1220a.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the third coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b are respectively divided to determine square-shaped third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. have.
  • the second coding units 1210a and 1210b determined by splitting in the vertical direction and the second coding units 1220a and 1220b determined by splitting in the horizontal direction are split into different forms, but the third coding unit 1216a determined later , 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d), eventually, the first coding unit 1200 is split into coding units of the same type.
  • the image decoding apparatus 100 may recursively split coding units through different processes based on the split mode information, and consequently determine the coding units of the same type, but the plurality of coding units determined in the same type are different from each other. Can be processed in order.
  • FIG. 13 illustrates a process of determining a depth of a coding unit according to a change in a shape and size of a coding unit when a coding unit is recursively split to determine a plurality of coding units, according to an embodiment.
  • the image decoding apparatus 100 may determine a depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before splitting. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit having a lower depth.
  • the image decoding apparatus 100 may be split to determine a second coding unit 1302 and a third coding unit 1304 having a lower depth. If the size of the square-shaped first coding unit 1300 is 2Nx2N, the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/2 times may have a size of NxN. have. Furthermore, the third coding unit 1304 determined by dividing the width and height of the second coding unit 1302 into 1/2 size may have a size of N/2xN/2.
  • the width and height of the third coding unit 1304 are 1/4 times that of the first coding unit 1300.
  • the depth of the second coding unit 1302 that is 1/2 times the width and height of the first coding unit 1300 may be D+1, and the first coding unit
  • the depth of the third coding unit 1304 that is 1/4 times the width and height of 1300 may be D+2.
  • block shape information indicating a non-square shape (for example, block shape information is '1: NS_VER' indicating that the height is a non-square that is longer than the width, or ′ indicating that the width is a non-square shape that is longer than the height. 2: NS_HOR′), the image decoding apparatus 100 divides the first coding unit 1310 or 1320 having a non-square shape to a second coding unit 1312 or 1322 having a lower depth, The third coding unit 1314 or 1324 may be determined.
  • the image decoding apparatus 100 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of the width and height of the first coding unit 1310 having a size of Nx2N. That is, the image decoding apparatus 100 may split the first coding unit 1310 in a horizontal direction to determine a second coding unit 1302 having a size of NxN or a second coding unit 1322 having a size of NxN/2, A second coding unit 1312 having a size of N/2xN may be determined by dividing in a horizontal direction and a vertical direction.
  • a second coding unit eg, 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 determines a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the first coding unit 1320 having a size of 2NxN. May be. That is, the image decoding apparatus 100 may determine a second coding unit 1302 having a size of NxN or a second coding unit 1312 having a size of N/2xN by dividing the first coding unit 1320 in a vertical direction, A second coding unit 1322 having a size of NxN/2 may be determined by dividing it in a horizontal direction and a vertical direction.
  • a second coding unit eg, 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 determines a third coding unit (eg, 1304, 1314, 1324, etc.) by dividing at least one of a width and a height of the second coding unit 1302 of size NxN. May be. That is, the image decoding apparatus 100 determines the third coding unit 1304 having a size of N/2xN/2 by dividing the second coding unit 1302 in a vertical direction and a horizontal direction, or The 3 coding units 1314 may be determined or a third coding unit 1324 having a size of N/2xN/4 may be determined.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of the second coding unit 1312 having a size of N/2xN to a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the image decoding apparatus 100 splits the second coding unit 1312 in a horizontal direction to obtain a third coding unit 1304 having a size of N/2xN/2 or a third coding unit 1304 having a size of N/2xN/4. ) May be determined or divided in a vertical direction and a horizontal direction to determine the third coding unit 1314 having a size of N/4xN/2.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of a second coding unit 1322 having a size of NxN/2 to a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the image decoding apparatus 100 splits the second coding unit 1322 in a vertical direction to provide a third coding unit 1304 having a size of N/2xN/2 or a third coding unit 1304 having a size of N/4xN/2. ) May be determined or the third coding unit 1324 having a size of N/2xN/4 may be determined by dividing it in a vertical direction and a horizontal direction.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 may divide a square coding unit (eg, 1300, 1302, 1304) in a horizontal direction or a vertical direction.
  • a square coding unit eg, 1300, 1302, 1304
  • the first coding unit 1300 having a size of 2Nx2N is split in a vertical direction to determine a first coding unit 1310 having a size of Nx2N, or split in a horizontal direction to determine the first coding unit 1300 having a size of 2NxN.
  • I can.
  • the depth of the coding unit determined by splitting the first coding unit 1300 having a size of 2Nx2N in a horizontal direction or a vertical direction is the first coding It may be the same as the depth of the unit 1300.
  • the width and height of the third coding unit 1314 or 1324 may be 1/4 times that of the first coding unit 1310 or 1320.
  • the depth of the second coding unit 1312 or 1322 that is 1/2 times the width and height of the first coding unit 1310 or 1320 may be D+1
  • a depth of the third coding unit 1314 or 1324 that is 1/4 times the width and height of the first coding unit 1310 or 1320 may be D+2.
  • PID 14 illustrates a depth that may be determined according to a shape and size of coding units and a part index (hereinafter referred to as PID) for classifying coding units, according to an embodiment.
  • the image decoding apparatus 100 may determine various types of second coding units by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the image decoding apparatus 100 divides a first coding unit 1400 in at least one of a vertical direction and a horizontal direction according to split type mode information, and divides the second coding units 1402a, 1402b, and 1404a. , 1404b, 1406a, 1406b, 1406c, 1406d). That is, the image decoding apparatus 100 may determine the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split type mode information for the first coding unit 1400. .
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d which are determined according to split mode information for the first coding unit 1400 in a square shape, are the length of the long side.
  • the depth may be determined based on. For example, since the length of one side of the square-shaped first coding unit 1400 and the length of the long side of the non-square-shaped second coding units 1402a, 1402b, 1404a, 1404b are the same, the first coding unit ( 1400) and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may have the same depth as D.
  • the image decoding apparatus 100 divides the first coding unit 1400 into four square-shaped second coding units (1406a, 1406b, 1406c, 1406d) based on the split mode information, the square-shaped Since the length of one side of the second coding unit (1406a, 1406b, 1406c, 1406d) is 1/2 times the length of one side of the first coding unit (1400), the length of the second coding unit (1406a, 1406b, 1406c, 1406d) The depth may be a depth of D+1 that is one depth lower than the depth of D of the first coding unit 1400.
  • the image decoding apparatus 100 divides a first coding unit 1410 having a height longer than a width in a horizontal direction according to the split mode information to form a plurality of second coding units 1412a, 1412b, and 1414a. , 1414b, 1414c).
  • the image decoding apparatus 100 divides a first coding unit 1420 having a width longer than a height in a vertical direction according to the split mode information to form a plurality of second coding units 1422a, 1422b, and 1424a. , 1424b, 1424c).
  • the second coding units 1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a which are determined according to split mode mode information for the first coding unit 1410 or 1420 of a non-square form, 1424b, 1424c) may be determined based on the length of the long side.
  • the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape whose height is longer than the width.
  • the depth of the second coding units 1412a and 1412b of the form is D+1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square form.
  • the image decoding apparatus 100 may divide the first coding unit 1410 of the non-square shape into odd number of second coding units 1414a, 1414b, and 1414c based on the split mode information.
  • the odd number of second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c in the non-square form and the length of one side of the second coding unit 1414b in the square form are 1/ of the length of one side of the first coding unit 1410 Since it is twice, the depth of the second coding units 1414a, 1414b, and 1414c may be a depth of D+1 that is one depth lower than the depth of D of the first coding unit 1410.
  • the image decoding apparatus 100 is a method corresponding to the method of determining the depth of coding units related to the first coding unit 1410, and is related to the first coding unit 1420 in a non-square shape having a width greater than a height. The depth of coding units may be determined.
  • a coding unit 1414b positioned in the middle of coding units 1414a, 1414b, and 1414c divided into odd numbers is a coding unit having the same width as other coding units 1414a and 1414c, but different heights. It may be twice the height of the fields 1414a and 1414c. That is, in this case, the coding unit 1414b positioned in the center may include two of the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine whether or not the odd-numbered coding units are of the same size based on whether there is discontinuity in an index for distinguishing between the divided coding units.
  • the image decoding apparatus 100 may determine whether to be split into a specific split type based on a value of an index for classifying a plurality of coding units determined by being split from a current coding unit. Referring to FIG. 14, the image decoding apparatus 100 determines an even number of coding units 1412a and 1412b by dividing a rectangular first coding unit 1410 having a height greater than a width, or an odd number of coding units 1414a and 1414b. , 1414c) can be determined. The image decoding apparatus 100 may use an index (PID) representing each coding unit to classify each of a plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 100 may determine a coding unit at a predetermined position among coding units that are split and determined using an index for classifying coding units. According to an embodiment, when it is indicated that split mode information for a first coding unit 1410 having a rectangular shape having a height longer than a width is divided into three coding units, the image decoding apparatus 100 may be configured to perform a first coding unit 1410. May be divided into three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may allocate an index for each of the three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may compare an index for each coding unit in order to determine a coding unit among coding units divided into odd numbers.
  • the image decoding apparatus 100 encodes a coding unit 1414b having an index corresponding to a middle value among the indices based on the indexes of the coding units, and a center position among coding units determined by splitting the first coding unit 1410. It can be determined as a unit. In determining an index for classifying divided coding units, according to an embodiment, when the coding units are not the same size, the image decoding apparatus 100 may determine the index based on a size ratio between coding units. . Referring to FIG. 14, a coding unit 1414b generated by splitting the first coding unit 1410 is the same as other coding units 1414a and 1414c, but different heights of coding units 1414a and 1414c. It can be twice the height.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including coding units having different sizes from other coding units. According to the indication that the split mode information is split into odd number of coding units, the video decoding apparatus 100 may determine that the coding unit (for example, a center coding unit) at a predetermined position among the odd number of coding units is different from other coding units.
  • the current coding unit can be split into a form.
  • the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index and the size or position of the coding unit at a predetermined position to be determined are specific for describing an embodiment and should not be interpreted as being limited thereto, and various indexes and positions and sizes of the coding unit may be used. It must be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit in which recursive division of the coding unit is started.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture, according to an embodiment.
  • a predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively split using split type mode information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units that split the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include MxN samples.
  • M and N may be identical to each other, and may be integers expressed as a multiplier of 2. That is, the reference data unit may represent a square or non-square shape, and may be divided into an integer number of coding units thereafter.
  • the image decoding apparatus 100 may divide a current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing a current picture by using the division type mode information for each reference data unit. The partitioning process of the reference data unit may correspond to the partitioning process using a quad-tree structure.
  • the image decoding apparatus 100 may determine in advance a minimum size that a reference data unit included in a current picture may have. Accordingly, the image decoding apparatus 100 may determine a reference data unit of various sizes having a size greater than or equal to the minimum size, and may determine at least one coding unit using split mode information based on the determined reference data unit. .
  • the image decoding apparatus 100 may use a reference coding unit 1500 in a square shape or a reference coding unit 1502 in a non-square shape.
  • the shape and size of a reference coding unit is various data units that may include at least one reference coding unit (e.g., a sequence, a picture, a slice, and a slice segment ( slice segment), tile, tile group, maximum coding unit, etc.).
  • the receiver 110 of the image decoding apparatus 100 may obtain at least one of information on a shape of a reference coding unit and information on a size of a reference coding unit from the bitstream for each of the various data units. .
  • the process of determining at least one coding unit included in the square-shaped reference coding unit 1500 has been described above through the process of dividing the current coding unit 300 of FIG. 3, and the non-square-shaped reference coding unit 1502
  • the process of determining at least one coding unit included in) has been described above through a process in which the current coding unit 400 or 450 of FIG. 4 is split, so a detailed description thereof will be omitted.
  • the image decoding apparatus 100 determines the size and shape of a reference coding unit according to some data units that are predetermined based on a predetermined condition, and an index for identifying the size and shape of the reference coding unit Can be used. That is, the receiving unit 110 receives a predetermined condition (eg, a size less than a slice) among the various data units (eg, sequence, picture, slice, slice segment, tile, tile group, maximum coding unit, etc.) from the bitstream. As a data unit that satisfies (a data unit having a), only an index for identifying the size and shape of the reference coding unit may be obtained for each slice, slice segment, tile, tile group, maximum coding unit, and the like.
  • a predetermined condition eg, a size less than a slice
  • the various data units eg, sequence, picture, slice, slice segment, tile, tile group, maximum coding unit, etc.
  • the image decoding apparatus 100 may determine the size and shape of the reference data unit for each data unit that satisfies the predetermined condition by using the index.
  • the bitstream use efficiency may not be good, so the type of the reference coding unit Instead of directly obtaining information on and information on the size of the reference coding unit, only the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the size and shape of the predetermined reference coding unit according to the index, so that at least one of the size and shape of the reference coding unit included in a data unit that is a reference for obtaining the index is selected. You can decide.
  • the image decoding apparatus 100 may use at least one reference coding unit included in one largest coding unit. That is, at least one reference coding unit may be included in the largest coding unit for dividing an image, and a coding unit may be determined through a recursive splitting process of each reference coding unit. According to an embodiment, at least one of the width and height of the largest coding unit may correspond to an integer multiple of at least one of the width and height of the reference coding unit. According to an embodiment, the size of a reference coding unit may be a size obtained by dividing a maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 100 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit is at least one of block type information and split type mode information. It can be divided based on one.
  • the image decoding apparatus 100 may obtain and use block type information indicating a type of a current coding unit or split type mode information indicating a method of dividing a current coding unit from a bitstream.
  • the split type mode information may be included in a bitstream related to various data units.
  • the video decoding apparatus 100 includes a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. Segmentation mode information included in a segment header, tile header, and tile group header may be used.
  • the image decoding apparatus 100 may obtain and use a syntax element corresponding to block type information or split type mode information from a bitstream for each largest coding unit, a reference coding unit, and processing block from the bitstream.
  • the image decoding apparatus 100 may determine an image segmentation rule.
  • the segmentation rule may be predetermined between the image decoding apparatus 100 and the image encoding apparatus 2200.
  • the image decoding apparatus 100 may determine an image segmentation rule based on information obtained from a bitstream.
  • the video decoding apparatus 100 includes a sequence parameter set, a picture parameter set, a video parameter set, a slice header, a slice segment header, and A partitioning rule may be determined based on information obtained from at least one of a tile header and a tile group header.
  • the image decoding apparatus 100 may determine a split rule differently according to a frame, a slice, a tile, a temporal layer, a maximum coding unit, or a coding unit.
  • the image decoding apparatus 100 may determine a splitting rule based on a block shape of a coding unit.
  • the block shape may include the size, shape, width and height ratio and direction of the coding unit.
  • the image decoding apparatus 100 may determine in advance to determine a splitting rule based on a block shape of a coding unit. However, it is not limited thereto.
  • the image decoding apparatus 100 may determine a segmentation rule based on information obtained from the received bitstream.
  • the shape of the coding unit may include a square and a non-square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a square. Also, .
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the size of the coding unit may include various sizes of 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ..., 256x256.
  • the size of the coding unit may be classified according to the length of the long side and the length or width of the short side of the coding unit.
  • the image decoding apparatus 100 may apply the same splitting rule to coding units classified into the same group. For example, the image decoding apparatus 100 may classify coding units having the same long side length into the same size. In addition, the image decoding apparatus 100 may apply the same splitting rule to coding units having the same long side length.
  • the ratio of the width and height of the coding unit is 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 32:1, or 1:32, etc.
  • the direction of the coding unit may include a horizontal direction and a vertical direction.
  • the horizontal direction may indicate a case where the length of the width of the coding unit is longer than the length of the height.
  • the vertical direction may indicate a case where the length of the width of the coding unit is shorter than the length of the height.
  • the image decoding apparatus 100 may adaptively determine a splitting rule based on a size of a coding unit.
  • the image decoding apparatus 100 may differently determine an allowable split mode mode based on the size of the coding unit. For example, the image decoding apparatus 100 may determine whether division is allowed based on the size of the coding unit.
  • the image decoding apparatus 100 may determine a splitting direction according to the size of the coding unit.
  • the image decoding apparatus 100 may determine an allowable split type according to the size of the coding unit.
  • Determining the splitting rule based on the size of the coding unit may be a splitting rule predetermined between the image decoding apparatus 100. Also, the image decoding apparatus 100 may determine a segmentation rule based on information obtained from the bitstream.
  • the image decoding apparatus 100 may adaptively determine a splitting rule based on the position of the coding unit.
  • the image decoding apparatus 100 may adaptively determine a segmentation rule based on a position occupied by the coding unit in the image.
  • the image decoding apparatus 100 may determine a splitting rule so that coding units generated by different splitting paths do not have the same block shape.
  • the present invention is not limited thereto, and coding units generated by different split paths may have the same block shape. Coding units generated by different split paths may have different decoding processing orders. Since the decoding processing sequence has been described with reference to FIG. 12, detailed descriptions are omitted.
  • 16 is a diagram showing a block diagram of an image encoding and decoding system.
  • the encoder 1610 of the image encoding and decoding system 1600 transmits an encoded bitstream of an image, and the decoder 1650 receives and decodes the bitstream to output a reconstructed image.
  • the decoder 1650 may have a configuration similar to the image decoding apparatus 100.
  • the inter prediction encoder 1605 when the prediction mode of the current block is the inter prediction mode, the inter prediction encoder 1605 generates motion information of a current block indicating a reference block of a reference picture temporally adjacent to the current picture.
  • the inter prediction encoder 1605 may determine prediction samples of the current block by using samples of the reference blocks.
  • the intra prediction encoder 1610 indicates a direction in which neighboring samples similar to the current block are located or a method of determining prediction samples so that prediction samples of the current block can be determined using neighboring samples spatially adjacent to the current block. Predictive information can be determined.
  • the inter prediction encoder 1605 and the intra prediction encoder 1610 may determine reference samples to be used for prediction of the current block from among the previously reconstructed samples stored in the DPB (Decoded Pictur Buffer) 1648.
  • DPB Decoded Pictur Buffer
  • the transform unit 1620 transforms residual sample values obtained by subtracting the prediction samples generated by the inter prediction encoder 1605 or the intra prediction encoder 1610 from the original sample of the current block, and converts the transform coefficients. Print it out.
  • the quantization unit 1625 quantizes the transform coefficients output from the transform unit 1620 and outputs the quantized transform coefficients.
  • the entropy encoder 1630 may encode the quantized transform coefficient into residual syntax elements including a level value, and output the result in the form of a bitstream.
  • the quantized transform coefficients output from the quantization unit 1625 may be inverse quantized and inverse transformed through the inverse quantization unit 1633 and the inverse transform unit 1635 to generate residual sample values again.
  • the post-reconstruction filtering unit 1640 performs post-reconstruction filtering on the reconstructed samples, and the reconstructed sample values updated through the post-reconstruction filtering are used as reference sample values for intra prediction to be performed by the intra prediction unit 1610. I can. After restoration, the filtering unit 1640 may perform Hadamard transform region filtering or bilateral filtering on the reconstructed sample values.
  • the in-loop filtering unit 1645 may perform at least one of deblocking filtering and adaptive loop filtering on reconstructed samples updated through filtering after restoration.
  • the reconstructed sample values updated through filtering by the in-loop filtering unit 1645 may be stored in the DPB 1648, and may be used as reference sample values for inter prediction to be performed by the inter prediction unit 1605.
  • the entropy decoder 1655 of the decoder 1650 may perform entropy decoding on the received bitstream to parse the residual syntax elements including the level value. Quantized transform coefficients may be restored from residual syntax elements.
  • the inverse quantization unit 1660 may perform inverse quantization on the quantized transform coefficients to output transform coefficients, and the inverse transform unit 1665 may perform inverse transform on the transform coefficients to output residual sample values.
  • the inter prediction encoder 1670 of the decoder 1650 determines a reference picture temporally adjacent to the current picture using motion information of the current block parsed by the entropy decoder 1655, and a reference block in the reference picture Can be determined.
  • the inter prediction encoder 1670 may determine prediction samples of a current block using samples of reference blocks.
  • the intra prediction encoder 1675 of the decoder 1650 determines reference samples spatially adjacent to the current block using intra prediction information using motion information of the current block parsed by the entropy decoder 1655, and , Predictive samples of the current block may be determined using the determined neighboring samples.
  • the inter prediction encoder 1670 and the intra prediction encoder 1675 may determine reference samples to be used for prediction of the current block from among the previously reconstructed samples stored in the DPB (Decoded Pictur Buffer) 1690.
  • DPB Decoded Pictur Buffer
  • the adder 1695 of the decoder 1650 adds the residual sample values and the predicted sample values to output a reconstructed sample value of the current block.
  • the filtering unit 1680 may perform Hadamard transform region filtering or bilateral filtering on the reconstructed sample values.
  • the reconstructed sample values updated through filtering by the filtering unit 1680 after restoration may be used as reference sample values for intra prediction to be performed by the intra prediction unit 1675.
  • the in-loop filtering unit 1685 of the decoder 1650 may perform at least one of deblocking filtering and adaptive loop filtering by using reconstructed samples updated through filtering after restoration.
  • the reconstructed sample values updated through filtering by the in-loop filtering unit 1685 are stored in the DPB 1690 and may be used as reference sample values for inter prediction to be performed by the inter prediction unit 1670.
  • the motion information encoding apparatus 10 and the motion information encoding method may be included in the video encoding apparatus 200 and method described above.
  • the motion information decoding apparatus 30 and the motion information decoding method may be included in the video decoding apparatus 100 and method described above.
  • 17 is a block diagram illustrating a configuration of a motion information encoding apparatus 10 according to an embodiment.
  • inter prediction refers to a prediction method using similarity between a current image and another image.
  • a reference block similar to the current block of the current image is detected, and a coordinate distance between the current block and the reference block is expressed as a motion vector.
  • a difference between pixel values between the current block and the reference block may be expressed as residual data. Therefore, by inter prediction for the current block, instead of directly outputting image information of the current block, an index, a motion vector, and residual data indicating a reference image may be output to improve encoding efficiency.
  • the motion information encoding apparatus 10 may encode a motion vector used for inter prediction for each block of each image of a video.
  • the type of block may be square or rectangular, and may be any geometric shape.
  • a block according to an embodiment is not limited to a data unit having a predetermined size, and may include a largest coding unit, a coding unit, a prediction unit, a transformation unit, and the like, among coding units having a tree structure.
  • a method of encoding and decoding a video based on coding units having a tree structure is as described above with reference to FIGS. 1 to 16.
  • the motion information encoding apparatus 10 may include a prediction encoder 11 and a generator 13. As described above, the motion information encoding apparatus 10 may be included in the video encoding apparatus 200 illustrated in FIG. 1, and the predictive encoding unit 11 may be included in the encoding unit 220 of the video encoding apparatus 200. The generation unit 13 may be included in the bitstream generation unit 210 of the video encoding apparatus 200.
  • the motion information encoding apparatus 10 may encode a motion vector by performing inter prediction in units of blocks divided from a picture.
  • the motion information encoding apparatus 10 performs motion estimation on a current block corresponding to a coding unit or a subblock divided from A similar prediction block may be searched and a motion vector indicating a distance between the current block and the prediction block may be determined.
  • the motion vector of the current block may include distance information along the x-axis and distance information along the y-axis.
  • the prediction encoder 11 selects one candidate motion vector resolution from among at least one candidate motion vector resolution as a motion vector resolution of the current block, and selects the selected motion vector resolution.
  • the motion vector of the current block may be determined according to the motion vector resolution.
  • the predictive encoder 11 may determine a motion vector of a candidate block mapped to a motion vector resolution of the selected current block among at least one candidate block to be a motion vector predictor of the current block.
  • the prediction encoder 11 selects one candidate block for a current block from among at least one candidate block, and one candidate motion vector mapped to the selected candidate block among at least one candidate motion vector resolution
  • the resolution can be determined to be the motion vector resolution of the current block.
  • the motion information encoding apparatus 10 may preset a 1:1 mapping relationship or a correspondence relationship between at least one candidate motion vector resolution and at least one candidate block.
  • the fact that at least one candidate motion vector resolution and at least one candidate block are mapped 1:1 means that if any one of the at least one candidate motion vector resolution is determined as the motion vector resolution of the current block, the current The position of any one candidate block to be used as the motion vector predictor of the block is determined.
  • any one candidate block to be used as the motion vector predictor of the current block among at least one candidate block is determined, This may mean that one candidate motion vector resolution is determined as the motion vector resolution of the current block. That is, in an embodiment according to the present disclosure, it can be seen that one candidate block is allocated to each of the at least one candidate motion vector resolution.
  • the at least one candidate motion vector resolution is a motion vector resolution in units of 1/4 pixels, a motion vector resolution in units of 1/2, a motion vector resolution in units of 1, a motion vector resolution in units of 2, and a motion in units of 4 pixels.
  • Vector resolution may include at least one of a motion vector resolution and an 8-pixel motion vector resolution.
  • the candidate motion vector resolution is not limited to the above example, and motion vector resolutions of various values per pixel may be included in the candidate motion vector resolution.
  • the first motion vector resolution is lower than the second motion vector resolution means that the pixel unit of the first motion vector resolution is greater than the pixel unit of the second motion vector resolution.
  • a motion vector resolution in units of 1 pixel is lower than a motion vector resolution in units of 1/2 pixels, and a resolution in units of 1/2 pixels is lower than that in units of 1/4 pixels.
  • a case where a motion vector is determined with a motion vector resolution of 1/4 pixel units can be predicted more accurately than a case where a motion vector is determined with a motion vector resolution of 1 pixel unit.
  • the at least one candidate block may be selected from blocks including a spatial block and a temporal block associated with the current block.
  • the spatial block associated with the current block may include at least one block spatially adjacent to the current block.
  • the temporal block may include at least one block located at the same point as the current block in a reference image having a POC different from the picture order count (POC) of the current block and a block spatially adjacent to the block at the same location.
  • POC picture order count
  • the at least one candidate motion vector resolution is a motion vector resolution in units of 1/4 pixel, a motion vector resolution in units of 1/2, a motion vector resolution in units of 1 pixel, a motion vector resolution in units of 2 pixels, and 4
  • a motion vector resolution in units of pixels is included, and at least one candidate block includes a left block, an upper block, an upper right block, an upper left block, and a lower left block, (motion vector resolution in units of 1/4 pixel-left Block), (motion vector resolution in units of 1/2 pixel-upper block), (motion vector resolution in units of 1 pixel-upper right block), (motion vector resolution in units of 2 pixels-upper left block), (4 pixel units)
  • a mapping relationship or a correspondence relationship between the motion vector resolution of -left lower block) may be set in the motion information encoding apparatus 10.
  • the prediction encoder 11 selects a motion vector resolution in units of 1/4 pixels as the motion vector resolution of the current block, the motion vector of the left block can be used as a motion vector predictor of the current block accordingly.
  • the prediction encoder 11 may determine the motion vector resolution in units of 1/2 pixels as the motion vector resolution of the current block accordingly.
  • the prediction encoder 11 determines any one of the at least one candidate motion vector resolution to be the motion vector resolution of the current block, and determines the current block's motion vector resolution according to the motion vector resolution of the current block.
  • the motion vector can be determined.
  • the predictive encoder 11 may interpolate a reference image with a minimum motion vector resolution among at least one candidate motion vector resolution in order to determine a motion vector of the current block.
  • the prediction encoder 11 determines that the candidate motion vector resolution (ie, the minimum motion vector resolution) of the smallest pixel unit among the at least one candidate motion vector resolution is 1/n pixel units (where n is a natural number).
  • the prediction encoder 11 may generate subpixel pixels in units of 1/n pixels from integer pixels of the reference image, and at most 1/n pixel units according to the motion vector resolution of the current block. A motion vector of a current block indicating a subpixel pixel may be determined.
  • determining a motion vector with a motion vector resolution of a small pixel unit at any time may be more inefficient than determining a motion vector with a motion vector resolution of a pixel unit.
  • a motion vector is determined with a motion vector resolution of a small pixel unit, a larger amount of bits is required to express the size of a motion vector (or residual motion vector) than a motion vector with a motion vector resolution of a large pixel unit. This may be inefficient in terms of bit rate.
  • by adaptively determining a motion vector resolution according to the resolution of the image it is possible to reduce the bit rate and minimize the quality reduction of the reconstructed image.
  • the prediction encoder 11 may adaptively determine a motion vector resolution of a current block, and may determine a motion vector in pixel units of the determined motion vector resolution. For example, when the pixel unit of the motion vector resolution of the current block is 1/2, the prediction encoder 11 may generate a motion vector indicating a pixel of the 1/2 pixel unit from the reference image interpolated according to the minimum motion vector resolution. You can decide.
  • the prediction encoder 11 may use the motion vectors of the candidate blocks as they are as a motion vector predictor of the current block, or may change the motion vectors of the candidate blocks and use them as a motion vector predictor of the current block. .
  • the prediction encoder 11 adjusts the motion vector of the candidate block for the current block based on the difference between the minimum motion vector resolution and the motion vector resolution of the current block among the supported candidate motion vector resolutions, and then adjusts the motion vector.
  • the motion vector of the current block can be determined by using the generated motion vector.
  • the motion vector of the candidate block is predicted to point to the pixel coordinates in the image interpolated according to the minimum motion vector resolution
  • the motion vector of the candidate block is adjusted to correspond to the motion vector resolution of the current block.
  • the motion vector of the candidate block is adjusted so that the residual motion vector is expressed in integer units, as described later.
  • the motion vector of the current block should be determined to indicate a pixel unit of 1 pixel in the interpolated image according to the minimum motion vector resolution.
  • the motion vector of the candidate block does not indicate a pixel of one pixel unit, the motion vector of the candidate block is adjusted to indicate a pixel of one pixel unit.
  • the predictive encoding unit 11 uses the motion vectors of candidate blocks mapped to each of the at least one candidate motion vector resolution as a motion vector predictor, determines a motion vector of the current block with each candidate motion vector resolution, and calculates the cost.
  • One of at least one candidate motion vector resolution is determined on the basis of.
  • a rate-distortion cost can be used.
  • the predictive encoding unit 11 determines a search start position in the reference image using the motion vector (or adjusted motion vector) of the candidate block allocated to each candidate motion vector resolution. , It is possible to determine a motion vector of the current block according to each candidate motion vector resolution by searching for an optimal reference block according to each candidate motion vector resolution.
  • the prediction encoder 11 may first perform a box search in a search range of five pixels around a search start position. And, secondly, a diamond search may be performed with various step sizes. In addition, a raster search may be selectively performed to determine an optimal position.
  • the predictive encoder 11 compares the rate-distortion cost based on a difference value between the motion vector of the current block determined according to the resolution of each candidate motion vector and the motion vector of the candidate block allocated to the resolution of each candidate motion vector to have a minimum cost.
  • the candidate motion vector resolution and the candidate block may be determined as candidate blocks for the motion vector resolution of the current block and the motion vector predictor of the current block.
  • the prediction encoding unit 11 includes at least one candidate motion vector resolution, a motion vector resolution in units of 1/4 pixels mapped to a left block, a motion vector resolution in units of 1/2 pixels mapped to an upper block, and In the case of including the motion vector resolution in units of 1 pixel mapped to the upper right block, 1/4 pixel in the reference image interpolated according to the motion vector resolution in units of 1/4 pixels, which is the highest motion vector resolution, using the motion vector of the left block
  • the motion vector of the current block is determined in units, and the motion vector of the current block is determined in units of 1/2 from the reference image interpolated according to the motion vector resolution in units of 1/4 by using the motion vector of the upper block.
  • the motion vector of the current block may be determined in units of 1 pixel from the reference image interpolated according to the motion vector resolution in units of 1/4 pixels by using the motion vector of the right block.
  • the predictive encoder 11 may determine any one candidate motion vector resolution selected based on the cost as the motion vector resolution of the current block.
  • the prediction encoder 11 selects a candidate block for which the motion vector does not exist. Excluded, another block having a motion vector may be used as a candidate block. In this case, other blocks newly used as candidate blocks may include blocks other than candidate blocks mapped to each of the candidate motion vector resolutions. In addition, the prediction encoder 11 may use the motion vector of the other block determined according to the candidate motion vector resolution as a motion vector predictor of the current block. If a certain block is intra-predicted, it may be determined that the intra-predicted block is a block that does not have a motion vector.
  • At least one candidate motion vector resolution that can be supported for the current block is a motion vector resolution in units of 1/4 pixel mapped to a left block, a motion vector resolution in units of 1/2 pixel mapped to an upper block, and upper Assuming that the motion vector resolution in units of 1 pixel mapped to the right block is included, and the motion vector does not exist in the upper right block, the prediction encoder 11 is A motion vector resolution in units of 1 pixel can be mapped to the left block.
  • positions and mapping priorities of newly mapped blocks may be determined in advance.
  • the prediction encoder 11 A motion vector of (eg, a zero vector) may be used as a motion vector of some of the candidate blocks.
  • candidate blocks having the same motion vector with each other may be replaced with other blocks other than the previously mapped at least one candidate block.
  • the prediction encoder 11 One of the block and the upper block (e.g., the upper block) is replaced with another block (e.g., the upper left block) to map to the candidate motion vector resolution (e.g., 1/2 pixel resolution). I can.
  • whether the motion vectors of two or more candidate blocks are identical may be determined through comparison between the adjusted motion vectors after the motion vectors of the candidate blocks are adjusted, as described below.
  • a priority indicating which candidate block is to be replaced with another block among the plurality of candidate blocks, and types and priorities of newly mapped blocks may be predetermined.
  • the prediction encoder 11 may determine a residual motion vector between the motion vector of the current block and the motion vector predictor.
  • the generator 13 may generate a bitstream including at least one of information indicating a motion vector resolution of the current block and information indicating a candidate block used as a motion vector predictor of the current block.
  • the candidate motion vector resolution and the candidate block have a 1:1 mapping relationship, when the motion vector resolution of the current block is determined, the position of the candidate block can be determined accordingly, and in the opposite case, when the candidate block is determined. Accordingly, the motion vector resolution of the current block may be determined. Accordingly, the generation unit 13 may generate a bitstream including at least one of information on the motion vector resolution of the current block or information for specifying a candidate block.
  • the generator 13 is at least one of information indicating a motion vector resolution of the current block and information indicating a candidate block used as a motion vector predictor of the current block, and includes an index indicating the motion vector resolution of the current block in the bitstream. I can make it.
  • the generation unit 13 when an index is allocated in a UNARY manner for each of the candidate motion vector resolutions that can be supported for the current block, and any one index is selected by the prediction encoding unit 11, the generation unit 13 ) May generate a bitstream including the selected index.
  • the supportable candidate motion vector resolution is a motion vector resolution of 1/4 pixel units, a motion vector resolution of 1/2 pixel units, a motion vector resolution of 1 pixel, a motion vector resolution of 2 pixels, and a 4 pixel unit.
  • an index is allocated to each of at least one candidate block mapped to each of the at least one candidate motion vector resolution in a UNARY manner, and any one index is selected by the prediction encoder 11 If so, the generation unit 13 may generate a bitstream including the selected index.
  • the generation unit 13 may generate a bitstream including the selected index.
  • at least one candidate block includes a left block, an upper block, an upper left block, a lower left block, an upper left block, and an upper right block, 0 for the left block, 10 for the upper block, and upper left
  • the index may be expressed as 110 for the block, 1110 for the lower left block, 11110 for the upper left block, and 11111 for the upper right block.
  • the prediction encoder 11 when there is one candidate motion vector resolution that can be supported for the current block, the prediction encoder 11 omits the generation of information indicating the motion vector resolution and the candidate block of the current block. Accordingly, the bitstream generated by the generation unit 13 may not include information indicating the motion vector resolution of the current block and the candidate block.
  • the prediction encoder 11 sets at least one of the motion vector resolution of the current block and information indicating the candidate block to a flag or index. It can also be created with (index).
  • the prediction encoder 11 may down-scale a residual motion vector that is a difference between a motion vector of a current block and a motion vector predictor.
  • the prediction encoder 11 determines a residual motion vector based on a difference between the minimum motion vector resolution and the motion vector resolution of the current block. Can be downscaled. For example, when the minimum motion vector resolution is 1/4 pixel unit and the motion vector resolution of the current block is 1/2 pixel unit, the prediction encoder 11 downscales the residual motion vector by 1/2. can do.
  • the motion vector of the current block may be encoded using a smaller amount of bits.
  • the prediction encoder 11 may determine a motion vector, a reference picture, and a prediction direction of the current block by performing inter prediction on the current block and determining a reference block of the current block.
  • the prediction encoder 11 includes a motion vector including one or more motion vector resolutions selectable based on at least one of a POC (Picture Order Count) distance and a prediction direction between a current picture including the current block and a reference picture of the current block.
  • the resolution set can be determined.
  • the generator 13 may generate a resolution index indicating a motion vector resolution used for inter prediction of a current block from among the set of motion vector resolutions determined by the prediction encoder 11.
  • the generated index may be binarized through a predetermined method and then quantized to be included in the bitstream.
  • a method of determining a motion vector resolution set by the prediction encoding unit 11 and generating a resolution index by the generation unit 13 will be described in detail with reference to FIG. 18.
  • FIG. 18 is a flowchart illustrating a motion information encoding method according to an embodiment.
  • the prediction encoder 11 may determine a motion vector, a reference picture, and a prediction direction of the current block by performing inter prediction on the current block.
  • the predictive encoder 13 may select one selectable based on at least one of a POC (Picture Order Count) distance and a prediction direction between a current picture including a current block and a reference picture of the current block.
  • POC Picture Order Count
  • a motion vector resolution set including the above motion vector resolutions may be determined.
  • the selectable total motion vector resolutions according to an embodiment may be at least one of 1/4-pixel units, 1/2-pixel units, 1-pixel units, 2-pixel units, and 4-pixel units.
  • the predictive encoder 11 may provide at least one motion vector resolution from among all selectable motion vector resolutions. It is possible to determine a first motion vector resolution set including them. In addition, when the POC distance between the current picture and the reference picture is not less than a predetermined POC distance, the prediction encoder 11 determines a second motion vector resolution set including one or more motion vector resolutions from among all selectable motion vector resolutions. I can. In this case, the first motion vector resolution set and the second motion vector resolution set are different, and the highest motion vector resolution belonging to the first motion vector resolution set is higher than the highest motion vector resolution belonging to the second motion vector resolution set. Or the same. Also, the lowest motion vector resolution belonging to the first motion vector resolution set may be higher or equal to the lowest motion vector resolution belonging to the second motion vector resolution set.
  • motion vector resolutions included in the first motion vector resolution set for use when the POC distance between the current picture including the current block and the reference picture of the current block is less than a predetermined POC distance are included in the second motion vector resolution set. It needs to be relatively high in order to be able to express a finer motion vector compared to the motion vector resolutions.
  • the prediction encoder 11 moves at least one of the selectable total motion vector resolutions.
  • a first motion vector resolution set including vector resolutions may be determined.
  • the prediction encoder 11 may determine a second motion vector resolution set including one or more motion vector resolutions from among all selectable motion vector resolutions. have.
  • the prediction encoder 11 moves one or more motion vector resolutions from among all selectable motion vector resolutions.
  • a third motion vector resolution set including vector resolutions may be determined.
  • the first motion vector resolution set, the second motion vector resolution set, and the third motion vector resolution set may be different.
  • the number of resolutions belonging to each set of the second motion vector resolution set and the third motion vector resolution set may also be different.
  • the highest motion vector resolution belonging to the first motion vector resolution set may be higher or equal to the highest motion vector resolution belonging to the second motion vector resolution set.
  • the highest motion vector resolution belonging to the third motion vector resolution set may be included within a precision range of motion vector resolutions belonging to the first motion vector resolution set.
  • the lowest motion vector resolution belonging to the third motion vector resolution set may fall within a precision range of motion vector resolutions belonging to the second motion vector resolution set.
  • the precision range of the motion vector resolution set means a range between the highest resolution and the lowest resolution belonging to the motion vector resolution set.
  • the motion vector resolutions included in the first motion vector resolution set for use when the POC distance between the current picture including the current block and the reference picture of the current block is less than a predetermined POC distance may include a second motion vector resolution set, It needs to be relatively higher than the motion vector resolutions included in the third motion vector resolution set. Similarly, motion vector resolutions included in the third motion vector resolution set need to be relatively higher than motion vector resolutions included in the second motion vector resolution set. Accordingly, the precision range of motion vector resolutions belonging to the third motion vector resolution set may be determined to span the precision range of the first motion vector resolution set and the precision range of the second motion vector resolution set.
  • the prediction encoder 11 may determine a motion vector resolution set according to the prediction direction of the current block.
  • the prediction encoder 11 may determine a first motion vector resolution set including more motion vector resolutions from among all selectable motion vector resolutions.
  • the prediction encoder 11 may determine a second motion vector resolution set including one or more motion vector resolutions from among all selectable motion vector resolutions. The first motion vector resolution set and the second motion vector resolution set are different, and the highest motion vector resolution belonging to the first motion vector resolution set is higher or equal to the highest motion vector resolution belonging to the second motion vector resolution set. I can.
  • inter prediction is performed using a motion vector in the L0 direction or the L1 direction.
  • the prediction direction of the current block is bidirectional prediction, inter prediction is performed using a motion vector obtained by averaging a motion vector in the L0 direction and a motion vector in the L1 direction. Accordingly, a more detailed representation of a motion vector may be required in the case of unidirectional prediction than in the case of bidirectional prediction. Accordingly, when the prediction direction of the current block is unidirectional prediction, motion vector resolutions included in the first motion vector resolution set to be used may be set to be higher than motion vector resolutions included in the second motion vector resolution set.
  • the prediction encoder 11 determines a selectable first motion vector resolution set
  • the second motion vector resolution A set may be determined for the L0 motion vector
  • a third set of motion vector resolutions may be determined for the L1 motion vector.
  • the second motion vector resolution set and the third motion vector resolution set may be different, and the motion vector resolutions included in the first motion vector resolution set are the motion vector resolutions included in the second motion vector resolution set and the third motion vector. It may be higher than the motion vector resolutions included in the resolution set.
  • the prediction encoder 11 may determine a motion vector resolution set by considering both a POC distance between a current picture and a reference picture and a prediction direction of the current block.
  • the prediction encoder 11 can select all possible motions.
  • a first motion vector resolution set including one or more motion vector resolutions may be determined.
  • the prediction encoder 11 performs at least one motion vector from among all selectable motion vector resolutions.
  • a second motion vector resolution set including resolutions may be determined. The first motion vector resolution set and the second motion vector resolution set may be different. The highest motion vector resolution included in the first motion vector resolution set may be higher or equal to the highest motion vector resolution included in the second motion vector resolution set.
  • the prediction encoder 11 may perform a first motion vector The resolution set can be determined.
  • the prediction encoder 11 may determine a second motion vector resolution set.
  • a third motion vector resolution set may be determined.
  • the first motion vector resolution set, the second motion vector resolution set, and the third motion vector resolution set may be different.
  • the highest motion vector resolution included in the first motion vector resolution set may be higher than or equal to the highest motion vector resolution included in the second and third motion vector resolution sets.
  • the highest motion vector resolution included in the third motion vector resolution set may be higher or equal to the highest motion vector resolution included in the second motion vector resolution set.
  • the prediction direction of the current block is bidirectional prediction
  • the POC distance between the current picture including the current block and the L0 reference picture of the current block is less than a first predetermined POC distance
  • the current picture including the current block and the current may determine a L0 motion vector and a first motion vector resolution set for the L1 motion vector.
  • the prediction direction of the current block is bidirectional prediction, the POC distance between the current picture including the current block and the L0 reference picture of the current block is greater than the second predetermined POC distance, and the current picture including the current block and the L1 reference picture of the current block When the POC distance between the two is greater than the second predetermined POC distance, a second motion vector resolution set for the L0 motion vector and the L1 motion vector may be determined.
  • the prediction direction of the current block is bidirectional prediction, and the POC distance between the current picture including the current block and the L0 reference picture of the current block is not less than the first predetermined POC distance and not larger than the second predetermined POC distance, including the current block.
  • a third motion vector resolution set for the L0 motion vector and the L1 motion vector may be determined.
  • the highest motion vector resolution included in the first motion vector resolution set may be higher than or equal to the highest motion vector resolution included in the second and third motion vector resolution sets.
  • the highest motion vector resolution included in the third motion vector resolution set may be higher or equal to the highest motion vector resolution included in the second motion vector resolution set.
  • a motion vector resolution set may be individually determined for each prediction direction according to a POC distance between the current picture and the reference picture according to the prediction direction. Specifically, according to whether the POC distance between the reference picture for L0 prediction and the current picture is greater than a predetermined POC distance, a first motion vector resolution set may be determined for L0 prediction. According to whether the POC distance between the reference picture for L1 prediction and the current picture is greater than a predetermined POC distance, a second motion vector resolution set may be determined for L1 prediction.
  • the motion information encoding apparatus 10 may generate one resolution index even if the first motion vector resolution set for L0 prediction and the second motion vector resolution set for L1 prediction are different. That is, the first motion vector resolution indicated by one resolution index among the first motion vector resolution set and the second motion vector resolution indicated by one resolution index among the second motion vector resolution set may be different.
  • the L0 resolution index for L0 prediction and the L1 resolution for L1 prediction are different. You can create indexes separately. That is, the motion vector resolution for L0 prediction indicated by the L0 resolution index from the first motion vector resolution set and the motion vector resolution for L1 prediction indicated by the L1 resolution index from the second motion vector resolution set may be individually determined.
  • the predictive encoder 11 determines one candidate motion vector resolution from among at least one candidate motion vector resolution set supportable for the current block as the motion vector resolution of the current block, and selects the selected motion vector resolution from among at least one candidate block.
  • a candidate block mapped to may be determined as a candidate block for a motion vector predictor of the current block.
  • the motion information encoding apparatus 10 selects a candidate block to be referred to from a candidate block list including at least one candidate block, and a candidate motion mapped to the selected candidate block
  • the vector resolution may be determined as the motion vector resolution of the current block.
  • At least one supportable candidate motion vector resolution is mapped 1:1 to at least one candidate block, and the motion information encoding apparatus 10 determines each supportable candidate motion vector resolution and a motion vector of a candidate block mapped thereto.
  • the motion vector of the current block may be determined according to the resolution of each candidate motion vector.
  • the motion information encoding apparatus 10 may select any one candidate motion vector resolution and candidate block selected based on cost as a candidate block for a motion vector resolution of the current block and a motion vector predictor of the current block.
  • the prediction encoder 11 when a motion vector resolution of a current block and a motion vector predictor candidate are interlocked, the prediction encoder 11 is determined according to a POC distance between a current picture and a reference picture and a prediction direction of the current block. Based on the motion vector resolution set, a predictor candidate list including selectable motion vector predictor candidates may be determined.
  • the resolution index pointing to may indicate a motion vector predictor candidate. That is, the motion vector of the current block may be inter-predicted by using the motion vector predictor indicated by the resolution index among the motion vector predictor candidate list.
  • the motion vector predictor determined in the motion vector predictor list will also vary according to the motion vector resolution set. You will be able to.
  • the total selectable motion vector resolution is 1/4-pixel unit, 1/2-pixel unit, 1-pixel unit, 2-pixel unit, 4-pixel unit, and all selectable motion vector predictor candidates are p0 , p1, p2, p3, p4.
  • the linked motion vector predictor candidate list may be ⁇ p0, p1, p2 ⁇ .
  • the linked motion vector predictor candidate list may also be ⁇ p0, p1, p2 ⁇ .
  • a first resolution index indicating motion vector resolution 1 in the first motion vector resolution set may be generated as 2.
  • the motion vector predictor indicated by the first resolution index among the motion vector predictor candidate list is p2.
  • a second resolution index indicating motion vector resolution 1 among the second motion vector resolution set may be generated as 0.
  • the motion vector predictor indicated by the second resolution index among the motion vector predictor candidate list is p0. Accordingly, a motion vector predictor linked to a first resolution index according to the first motion vector resolution set and a motion vector predictor linked to a second resolution index according to the second motion vector resolution set may be determined differently.
  • a motion vector resolution selected from a set of motion vector resolutions determined based on at least one of a prediction direction of a current block and a POC distance between a current picture and a reference picture may be directly linked to a motion vector predictor index.
  • a motion vector predictor linked to the resolution may be determined uniformly.
  • the total selectable motion vector resolution is 1/4-pixel unit, 1/2-pixel unit, 1-pixel unit, 2-pixel unit, 4-pixel unit, and all selectable motion vector predictor candidates are p0 , p1, p2, p3, p4.
  • P0 may be linked to 1/4-pixel units
  • p1 may be linked to 1/2-pixel units
  • p2 may be linked to 1-pixel units
  • p3 may be linked to 2-pixel units
  • p4 may be linked to 4-pixel units.
  • the linked first motion vector predictor candidate list may be ⁇ p0, p1, p2 ⁇ .
  • the linked second motion vector predictor candidate list may also be ⁇ p2, p3, p4 ⁇ .
  • the motion vector resolution is determined to be 1 as a result of prediction encoding, even if the first motion vector resolution set and the second motion vector resolution set are different and the first motion vector predictor list and the second motion vector predictor list are different, the motion vector The motion vector predictor linked to the resolution 1 becomes p2. Therefore, when the motion vector resolution of the current block and the motion vector predictor candidate are linked, if the motion vector resolution and the predictor index are linked, the motion vector predictor linked to the constant motion vector resolution even if the motion vector resolution set is different is It can be decided on a constant basis.
  • the motion information encoding apparatus 10 when a motion vector does not exist in some candidate blocks among at least one candidate block mapped to each of the at least one candidate motion vector resolution, the motion information encoding apparatus 10 is mapped to the candidate motion vector resolution.
  • Blocks other than at least one candidate block may be newly mapped to a candidate motion vector resolution instead of a candidate block in which a motion vector does not exist, and a motion vector of the newly mapped block may be used as a motion vector predictor of the current block. .
  • the motion information encoding apparatus 10 uses an arbitrary motion vector (e.g. For example, a zero vector) may be used as a motion vector of some of the candidate blocks.
  • the motion information encoding apparatus 10 uses the same motion vector.
  • Some of the candidate blocks may be newly mapped to the candidate motion vector resolution by replacing some of the candidate blocks with other blocks other than at least one candidate block mapped to the candidate motion vector resolution.
  • the motion information encoding apparatus 10 determines a motion vector of the current block from the interpolated reference image according to the motion vector resolution of the current block.
  • the motion information encoding apparatus 10 may adjust the motion vector of the candidate block by comparing the minimum motion vector resolution among at least one candidate motion vector resolution selectable for the current block with the motion vector resolution of the current block.
  • the motion information encoding apparatus 10 determines a search start position in the reference image according to the adjusted motion vector of the candidate block, searches for an optimal reference block in the reference image, and determines the current block according to the motion vector resolution of the current block.
  • the motion vector can be determined.
  • the motion information encoding apparatus 10 obtains a residual motion vector between a motion vector of a current block and a motion vector (or an adjusted motion vector) of a candidate block.
  • step S185 the generation unit 13 may generate a resolution index indicating the motion vector resolution used for inter prediction of the current block from the set of motion vector resolutions determined in step S183.
  • the generator 13 may determine a binarization method of the resolution index based on a motion vector resolution set determined based on at least one of a POC distance between a current picture and a reference picture and a prediction direction of a current block. .
  • the index of each resolution may be determined as 0, 10, 110, 1110, and 1111.
  • the index of each resolution may be determined as 0, 10, and 11.
  • the indexes of each resolution may be determined as 0, 10, and 11.
  • the index of each resolution may be determined as 0,1.
  • supportable total motion vector resolution is 1/4-pixel unit, 1/2-pixel unit, 1-pixel unit, 2-pixel unit, 4-pixel unit, 1/2-pixel unit, 1-pixel unit , If the motion vector resolution set ⁇ 1/2, 2, 8 ⁇ is scaled by 2-pixel unit, 4-pixel unit, and 5-pixel unit, then the motion vector resolution set ⁇ 1/4, 1, 4 ⁇ A resolution index may be generated using.
  • the threshold2 may be set considerably larger than the threshold1.
  • the difference between the POC of the current picture and the reference picture POC is less than threshold1 (
  • the motion vector resolution list for inter prediction of the current block is ⁇ 1/4, 1/2, 1 You can decide with ⁇ .
  • the motion vector resolution list for inter prediction of the current block is ⁇ 1 , 2, 4 ⁇ . If the difference between the POC of the current picture and the reference picture POC is greater than threshold2 (
  • the resolution index is the motion vector resolution set before scaling ⁇ 1, 2, 4 It can be set using ⁇ . Therefore, if the motion vector resolution is determined as 2, the resolution index is created to point to 1 out of ⁇ 1, 2, 4 ⁇ , and if the motion vector resolution 4 is determined, it points to 2 out of ⁇ 1, 2, 4 ⁇ . If the resolution index 1 is generated so as to be increased, and the motion vector resolution 8 is determined, the index 2 may be generated to point to 4 out of ⁇ 1, 2, 4 ⁇ .
  • the motion vector resolution is scaled by 2 times has been described, and resolutions included in the motion vector resolution set may be scaled by 2 times, 4 times, or 8 times according to a predetermined rule.
  • the motion information encoding apparatus 10 may generate at least one of information on a motion vector resolution of a current block and information indicating a candidate block used as a motion vector predictor, and information indicating a residual motion vector. have.
  • At least one of information on the motion vector resolution of the current block, information indicating a candidate block used as a motion vector predictor, and information indicating a residual motion vector may be included in the bitstream.
  • the motion information encoding apparatus 10 may downscale the residual motion vector by comparing the motion vector resolution of the current block with the minimum motion vector resolution among at least one candidate motion vector resolution.
  • FIG. 19 is a block diagram illustrating a configuration of an apparatus 30 for decoding motion information according to an exemplary embodiment.
  • the motion information decoding apparatus 30 illustrated in FIG. 19 may be included in the video decoding apparatus 100 described above.
  • the acquisition unit 31 may be included in the bitstream acquisition unit 110 of the video decoding apparatus 100
  • the prediction decoding unit 33 may be included in the decoding unit 120 of the video decoding apparatus 100. have.
  • the motion information decoding apparatus 30 may determine a motion vector for performing inter prediction of the current block by parsing the acquired bitstream.
  • the acquisition unit 31 may obtain at least one of information on the motion vector resolution of the current block and information on the candidate block, and information on the residual motion vector from the bitstream.
  • the information on the motion vector resolution of the current block may include an index indicating the motion vector resolution of the current block.
  • the prediction decoding unit 33 determines a candidate block to be used as a motion vector predictor of the current block according to the motion vector resolution of the current block. I can.
  • the acquirer 31 may obtain information on the motion vector resolution for each inter-predicted coding unit.
  • the at least one candidate motion vector resolution is a motion vector resolution in units of 1/4 pixels, a motion vector resolution in units of 1/2 pixels, a motion vector resolution in units of 1 pixel, a motion vector resolution in units of 2, and 4 It may include at least one of motion vector resolutions in units of pixels.
  • the supportable at least one candidate motion vector resolution is not limited to the above example, and motion vector resolutions of various values per pixel may be included in the candidate motion vector resolution.
  • Resolution indexes 0, 1, 2, 3, and 4 each have a motion vector resolution in units of 1/4 pixel, a motion vector resolution in units of 1/2, a motion vector resolution in units of 1 pixel, and a motion vector resolution in units of 2 pixels. It can refer to the resolution of a motion vector in units of pixels.
  • the motion vector resolution in units of 1/4 pixels, the motion vector resolution in units of 1/2 pixels, the motion vector resolution in units of 1 pixel, the motion vector resolution in units of 2 pixels and the motion vector resolution in units of 4 pixels are 1st MVP and 2nd MVP, respectively. , 3rd MVP, 4th MVP, and 5th MVP.
  • the at least one candidate block may be selected from among blocks including a spatial block and a temporal block associated with a current block.
  • the spatial block may include at least one block spatially adjacent to the current block.
  • the temporal block may include at least one block located at the same point as the current block in a reference image having a POC different from the POC of the current block and a block spatially adjacent to the block at the same location.
  • the at least one candidate motion vector resolution includes a motion vector resolution in units of 1/4 pixel, a motion vector resolution in units of 1/2, a motion vector resolution in units of 1 pixel, and a motion vector resolution in units of 2 pixels.
  • the motion information decoding apparatus 30 is Block), (motion vector resolution in units of 1/2 pixel-upper block), (motion vector resolution in units of 1 pixel-upper right block), (motion vector resolution in units of 2 pixels-upper left block), (4 pixel units)
  • a candidate block corresponding to the motion vector resolution may be determined according to a mapping relationship or a correspondence relationship of the motion vector resolution of the lower left block) and a motion vector predictor according to the candidate block may be determined.
  • the prediction decoder 33 may use the motion vector of the left block as a motion vector predictor
  • the prediction decoder 33 may support a current slice or a candidate motion vector supported for the current picture according to the type of the slice or picture. It is also possible to determine the number and type of resolutions. In addition, as an example, when determining at least one selectable candidate motion vector resolution in units of slices or pictures, the prediction decoder 33 determines whether the slice or picture is referenced by another slice or another picture. The number and type of candidate motion vector resolutions selectable for the current picture may be determined.
  • an index is allocated in a UNARY manner for each of the candidate motion vector resolutions selectable for the current block, and the prediction decoding unit 33 performs the motion of the current block acquired by the acquisition unit 31.
  • the motion vector resolution of the current block can be selected according to the index indicating the vector resolution.
  • the supportable candidate motion vector resolution is a motion vector resolution of 1/4 pixel units, a motion vector resolution of 1/2 pixel units, a motion vector resolution of 1 pixel, a motion vector resolution of 2 pixels, and a 4 pixel unit.
  • An index of 110 may be assigned to a motion vector resolution of 110, a motion vector resolution of 2 pixels, 11110 of a motion vector resolution of 4 pixels, and 11111 of a motion vector resolution of 8 pixels.
  • an index is allocated to each candidate block mapped to at least one candidate motion vector resolution in a UNARY manner, and the prediction decoder 33 frees the motion vector of the current block according to the motion vector resolution. Can select a candidate block to be used for the dictator.
  • the acquisition unit 31 when there is one candidate motion vector resolution that can be supported for the current block, the acquisition unit 31 includes information indicating a candidate block used for the motion vector resolution of the current block and the motion vector predictor of the current block. Acquisition can be skipped or omitted. Here, skipping the acquisition of information may mean that the corresponding information is not acquired from the bitstream.
  • the acquisition unit 31 may obtain a resolution index indicating the motion vector resolution of the current block.
  • the prediction decoder 33 may use the motion vector of the candidate block as it is as a motion vector predictor of the current block, or may change the motion vector of the candidate block and use it as a motion vector predictor of the current block. .
  • positions and priorities of other blocks to be newly used may be determined in advance.
  • the prediction decoder 33 converts an arbitrary motion vector (eg, a zero vector) to the current block. It can also be used as a motion vector predictor.
  • the prediction decoder 33 is One of the block and the upper block (e.g., the upper block) is replaced with another block (e.g., the upper left block) to map to the candidate motion vector resolution (e.g., 1/2 pixel resolution). I can.
  • a priority indicating which candidate block is to be replaced with another block among the plurality of candidate blocks, and types and priorities of newly mapped blocks may be predetermined.
  • the prediction decoder 33 moves the same with each other.
  • An arbitrary motion vector (eg, a zero vector) may be assigned to some of the candidate blocks having a vector.
  • the priority of a candidate block to which an arbitrary motion vector is to be allocated may be predetermined.
  • the prediction decoder 33 moves the same with each other.
  • Motion vectors of some of the candidate blocks having vectors may be derived using motion vectors of other candidate blocks.
  • whether the motion vectors of two or more candidate blocks are identical may be determined through comparison between the adjusted motion vectors after the motion vectors of the candidate blocks are adjusted, as described below.
  • the prediction decoder 33 calculates the residual motion vector obtained by the acquisition unit 31 based on a difference between the motion vector resolution of the current block and the minimum motion vector resolution among at least one candidate motion vector resolution. You can up-scale. For example, when the motion vector resolution of the current block is greater than the minimum motion vector resolution, the prediction decoder 33 may up-scale the residual motion vector.
  • the prediction decoder 33 may selectively adjust the motion vector of the candidate block mapped to the motion vector resolution of the current block.
  • the prediction decoder 33 may obtain a motion vector of the current block by using the selectively adjusted motion vector of the candidate block and the selectively upscaled residual motion vector.
  • the prediction decoder 33 may search for a prediction block in a reference image using the motion vector of the current block, and reconstruct the current block by adding inverse quantized and inverse transformed residual data to the searched prediction block.
  • the prediction decoder 33 searches for a prediction block from an uninterpolated reference image, and the motion vector resolution of the current block is 1 pixel. In the case of a motion vector resolution of less than a unit, a prediction block may be searched from an interpolated reference image.
  • the acquisition unit 31 may obtain a resolution index indicating a motion vector resolution for inter prediction of a current block, a reference index of a current block, and prediction direction information of a current block from a bitstream.
  • the prediction decoder 33 determines a reference picture of the current block by using the reference index of the current block, and the prediction direction of the current block is in the L0 direction or the L1 direction by using the prediction direction information of the current block. It is possible to determine whether it is a one-way prediction or a two-way prediction.
  • the prediction decoder 33 may determine a motion vector resolution set including one or more selectable motion vector resolutions based on at least one of a reference picture and a prediction direction of a current block.
  • the prediction decoder 33 may determine a motion vector according to a prediction direction according to a motion vector resolution indicated by a resolution index among the motion vector resolution set.
  • 20 is a flowchart illustrating a motion information decoding method according to an embodiment.
  • the acquisition unit 31 may obtain a resolution index indicating a motion vector resolution for inter prediction of the current block, a reference index of the current block, and prediction direction information of the current block from the bitstream.
  • the acquisition unit 31 may acquire a residual motion vector of a current block from a bitstream.
  • step S203 the prediction decoder 33 determines a reference picture of the current block by using the reference index of the current block, and the prediction direction of the current block is in the L0 direction or the L1 direction by using the prediction direction information of the current block. It is possible to determine whether it is a one-way prediction or a two-way prediction.
  • the prediction decoder 33 may determine a motion vector resolution of a current block and a candidate block used to determine a motion vector predictor of the current block.
  • the motion vector resolution of the current block determined by the prediction decoder 33 may correspond to any one of at least one candidate motion vector resolution selectable for the current block, and the candidate block for the motion vector predictor of the current block is It may correspond to any one of at least one candidate block mapped to each of the at least one candidate motion vector resolution.
  • the motion information decoding apparatus 30 may determine a candidate block to be used as a motion vector predictor based on the resolution index.
  • the prediction decoder 33 is a motion vector resolution set including one or more motion vector resolutions selectable based on at least one of a POC distance and a prediction direction between a current picture including the current block and a reference picture of the current block. Can be determined.
  • the selectable total motion vector resolutions according to an embodiment may be at least one of 1/4-pixel units, 1/2-pixel units, 1-pixel units, 2-pixel units, and 4-pixel units.
  • the prediction decoder 33 may include at least one motion vector resolution from among all selectable motion vector resolutions. It is possible to determine a first motion vector resolution set including them. In addition, when the POC distance between the current picture and the reference picture is not less than the predetermined POC distance, the prediction decoder 33 determines a second motion vector resolution set including one or more motion vector resolutions from among all selectable motion vector resolutions. I can. In this case, the first motion vector resolution set and the second motion vector resolution set are different, and the highest motion vector resolution belonging to the first motion vector resolution set is higher than the highest motion vector resolution belonging to the second motion vector resolution set. Or the same. Also, the lowest motion vector resolution belonging to the first motion vector resolution set may be higher or equal to the lowest motion vector resolution belonging to the second motion vector resolution set.
  • the first motion vector resolution list for inter prediction of the current block is ⁇ 1/4, 1/2 , 1 ⁇ .
  • the second motion vector resolution list for inter prediction of the current block is ⁇ 1,2,4 You can decide with ⁇ .
  • the first motion vector resolution list may be determined as ⁇ 1/4, 1/2, 1 ⁇
  • the second motion vector resolution list may be determined as ⁇ 1/4, 1, 4 ⁇ .
  • the first motion vector resolution list may be determined as ⁇ 1/4, 1/2, 1, 2, 4 ⁇
  • the second motion vector resolution list may be determined as ⁇ 1/4, 1, 4 ⁇ .
  • the prediction decoder 33 moves at least one of the selectable total motion vector resolutions.
  • a first motion vector resolution set including vector resolutions may be determined.
  • the prediction decoder 33 may determine a second motion vector resolution set including one or more motion vector resolutions from among all selectable motion vector resolutions. have.
  • the prediction decoder 33 performs one or more motion vector resolutions among selectable total motion vector resolutions.
  • a third motion vector resolution set including vector resolutions may be determined.
  • the first motion vector resolution set, the second motion vector resolution set, and the third motion vector resolution set may be different.
  • the number of resolutions belonging to each set of the second motion vector resolution set and the third motion vector resolution set may also be different.
  • the highest motion vector resolution belonging to the first motion vector resolution set may be higher or equal to the highest motion vector resolution belonging to the second motion vector resolution set.
  • the highest motion vector resolution belonging to the third motion vector resolution set may be included within a precision range of motion vector resolutions belonging to the first motion vector resolution set.
  • the lowest motion vector resolution belonging to the third motion vector resolution set may fall within a precision range of motion vector resolutions belonging to the second motion vector resolution set.
  • the precision range of the motion vector resolution set means a range between the highest resolution and the lowest resolution belonging to the motion vector resolution set.
  • the motion vector resolution list for inter prediction of the current block is ⁇ 1/4, 1/2, 1 You can decide with ⁇ .
  • threshold2
  • a motion vector resolution list for inter prediction of the current block may be determined as ⁇ 1, 2, 4 ⁇ .
  • a motion vector resolution list for inter prediction of the current block can be determined as ⁇ 1/4, 1/2, 1, 2, 4 ⁇ .
  • the motion vector resolution list for inter prediction of the current block is ⁇ 1/4, 1/2 You can decide with ⁇ .
  • a motion vector resolution list for inter prediction of the current block may be determined as ⁇ 2, 4 ⁇ .
  • a motion vector resolution list for inter prediction of the current block Can be determined as ⁇ 1/4, 1, 4 ⁇ .
  • the prediction decoder 33 may determine a motion vector resolution set according to the prediction direction of the current block.
  • the prediction decoder 33 may determine a first motion vector resolution set including more motion vector resolutions from among all selectable motion vector resolutions.
  • the prediction decoder 33 may determine a second motion vector resolution set including one or more motion vector resolutions from among all selectable motion vector resolutions.
  • the first motion vector resolution set and the second motion vector resolution set are different, and the highest motion vector resolution belonging to the first motion vector resolution set is higher or equal to the highest motion vector resolution belonging to the second motion vector resolution set. I can.
  • the lowest motion vector resolution belonging to the first motion vector resolution set may be higher than or equal to the lowest motion vector resolution belonging to the second motion vector resolution set.
  • the prediction decoder 33 may determine a motion vector predictor of the current block by using a motion vector in the L0 direction or the L1 direction.
  • the prediction decoder 33 may determine a motion vector predictor of the current block using a motion vector obtained by averaging the motion vector in the L0 direction and the motion vector in the L1 direction.
  • the prediction decoder 33 determines a selectable first motion vector resolution set, and when the prediction direction of the current block is bidirectional prediction, the second motion vector resolution A set may be determined for the L0 motion vector, and a third set of motion vector resolutions may be determined for the L1 motion vector.
  • the second motion vector resolution set and the third motion vector resolution set may be different, and the motion vector resolutions included in the first motion vector resolution set are the motion vector resolutions included in the second motion vector resolution set and the third motion vector. It may be higher than the motion vector resolutions included in the resolution set.
  • the prediction decoder 33 determines a motion vector resolution set ⁇ 1/4, 1/2, 1 ⁇ for L1 prediction, and When the prediction direction is unidirectional prediction and L1 prediction, the prediction decoder 33 may determine a first motion vector resolution set ⁇ 1/4, 1/2, 1 ⁇ for L1 prediction. When the prediction direction of the current block is bidirectional prediction, the prediction decoder 33 may determine a second motion vector resolution set ⁇ 1, 2, 4 ⁇ for L0 prediction and L1 prediction. As another example, the first motion vector resolution list may be determined as ⁇ 1/4, 1/2, 1 ⁇ , and the second motion vector resolution list may be determined as ⁇ 1/4, 1, 4 ⁇ . As another example, the first motion vector resolution list may be determined as ⁇ 1/4, 1/2, 1, 2, 4 ⁇ , and the second motion vector resolution list may be determined as ⁇ 1/4, 1, 4 ⁇ . .
  • the prediction decoder 33 determines a motion vector resolution set ⁇ 1/4, 1/2 ⁇ for L1 prediction, and predicts the current block.
  • the prediction decoder 33 may determine a motion vector resolution set ⁇ 1/4, 1/2 ⁇ for L1 prediction.
  • the prediction decoder 33 may determine a motion vector resolution set ⁇ 1, 4 ⁇ for L0 prediction and L1 prediction.
  • the prediction decoder 33 may determine a motion vector resolution set by considering both a POC distance between a current picture and a reference picture and a prediction direction of the current block.
  • the prediction decoder 33 can select all possible movements.
  • a first motion vector resolution set including one or more motion vector resolutions may be determined.
  • the prediction decoder 33 performs at least one motion vector from among all selectable motion vector resolutions.
  • a second motion vector resolution set including resolutions may be determined. The first motion vector resolution set and the second motion vector resolution set may be different.
  • the highest motion vector resolution included in the first motion vector resolution set may be higher or equal to the highest motion vector resolution included in the second motion vector resolution set.
  • the lowest motion vector resolution belonging to the first motion vector resolution set may be higher than or equal to the lowest motion vector resolution belonging to the second motion vector resolution set.
  • the prediction decoder 33 when the prediction direction of the current block is unidirectional L0 prediction, and the difference between the POC of the current picture and the reference picture POC is less than threshold0, the prediction decoder 33 is a motion vector resolution set for L0 prediction ⁇ 1/4, 1/2, 1 ⁇ can be determined.
  • the prediction decoder 33 sets the motion vector resolution for L0 prediction ⁇ 1, 2, 4 ⁇ Can be determined.
  • the prediction decoder 33 sets the motion vector resolution for L1 prediction ⁇ 1/4, 1/2 , 1 ⁇ can be determined.
  • the prediction decoder 33 sets the motion vector resolution for L1 prediction ⁇ 1, 2, 4 ⁇ Can be determined.
  • the prediction decoder 33 may perform a first motion vector The resolution set can be determined.
  • the prediction decoder 33 may determine a second motion vector resolution set.
  • a third motion vector resolution set may be determined.
  • the first motion vector resolution set, the second motion vector resolution set, and the third motion vector resolution set may be different.
  • the highest motion vector resolution included in the first motion vector resolution set may be higher than or equal to the highest motion vector resolution included in the second and third motion vector resolution sets.
  • the lowest motion vector resolution belonging to the first motion vector resolution set may be higher than or equal to the lowest motion vector resolutions belonging to each of the second and third motion vector resolution sets.
  • the highest motion vector resolution included in the third motion vector resolution set may be higher or equal to the highest motion vector resolution included in the second motion vector resolution set.
  • the prediction decoder 33 when the prediction direction of the current block is unidirectional L0 prediction, and the difference between the POC of the current picture and the reference picture POC is less than threshold1, the prediction decoder 33 is a motion vector resolution set for L0 prediction ⁇ 1/4, 1/2, 1 ⁇ can be determined.
  • the prediction decoder 33 sets a motion vector resolution set ⁇ 1, 2, 4 ⁇ for L0 prediction. You can decide.
  • the prediction decoder 33 sets the motion vector resolution for L0 prediction ⁇ 1/4, 1/2, 1, 2, 4 ⁇ can be determined.
  • the prediction decoder 33 sets the motion vector resolution for L1 prediction ⁇ 1/4, 1/2 , 1 ⁇ can be determined.
  • the prediction decoder 33 determines a motion vector resolution set ⁇ 1, 2, 4 ⁇ for L1 prediction. You can decide.
  • the prediction direction of the current block is unidirectional L0 prediction, and the difference between the POC of the current picture and the reference picture POC is greater than or equal to threshold1 and less than or equal to threshold2, the prediction decoder 33 sets the motion vector resolution for L1 prediction ⁇ 1/4, 1/2, 1, 2, 4 ⁇ can be determined.
  • the prediction direction of the current block is bidirectional prediction
  • the POC distance between the current picture including the current block and the L0 reference picture of the current block is less than a first predetermined POC distance
  • the current picture including the current block and the current may determine a L0 motion vector and a first motion vector resolution set for the L1 motion vector.
  • the prediction direction of the current block is bidirectional prediction, the POC distance between the current picture including the current block and the L0 reference picture of the current block is greater than the second predetermined POC distance, and the current picture including the current block and the L1 reference picture of the current block When the POC distance between the two is greater than the second predetermined POC distance, a second motion vector resolution set for the L0 motion vector and the L1 motion vector may be determined.
  • the prediction direction of the current block is bidirectional prediction, and the POC distance between the current picture including the current block and the L0 reference picture of the current block is not less than the first predetermined POC distance and not larger than the second predetermined POC distance, including the current block.
  • a third motion vector resolution set for the L0 motion vector and the L1 motion vector may be determined.
  • the highest motion vector resolution included in the first motion vector resolution set may be higher than or equal to the highest motion vector resolution included in the second and third motion vector resolution sets.
  • the lowest motion vector resolution belonging to the first motion vector resolution set may be higher than or equal to the lowest motion vector resolutions belonging to each of the second and third motion vector resolution sets.
  • the highest motion vector resolution included in the third motion vector resolution set may be higher or equal to the highest motion vector resolution included in the second motion vector resolution set.
  • the unit 33 may determine a motion vector resolution set ⁇ 1/4, 1/2, 1 ⁇ for the L0 motion vector and the L1 motion vector.
  • the prediction decoder 33 May determine a motion vector resolution set ⁇ 1, 2, 4 ⁇ for the L0 motion vector and the L1 motion vector.
  • the prediction direction of the current block is bidirectional prediction, and the distance between the POC of the current picture and the POC of the L0 reference picture and the distance between the POC of the current picture and the POC of the L1 reference picture are neither smaller than threshold1, but refer to the POC and L0 of the current picture.
  • the prediction decoder 33 sets the motion vector resolution for the L0 motion vector and the L1 motion vector ⁇ 1/4, 1/2, 1, 2, 4 ⁇ can be determined.
  • a motion vector resolution set may be individually determined for each prediction direction according to a POC distance between the current picture and the reference picture according to the prediction direction.
  • a first motion vector resolution set is determined for L0 prediction according to whether the POC distance between the reference picture for L0 prediction and the current picture is greater than a predetermined POC distance
  • a second motion vector resolution set may be determined for L1 prediction.
  • the acquisition unit 31 may acquire one resolution index from the bitstream.
  • the first motion vector resolution indicated by one resolution index among the first motion vector resolution set and the second motion vector resolution indicated by one resolution index among the second motion vector resolution set may be different.
  • the acquisition unit 31 determines an L0 resolution index for L0 prediction and an L1 resolution index for L1 prediction. It can be obtained separately from the bitstream. That is, the prediction decoding unit 33 determines the motion vector resolution for L0 prediction indicated by the L0 resolution index from the first motion vector resolution set and the motion vector resolution for L1 prediction indicated by the L1 resolution index from the second motion vector resolution set. Can be determined individually.
  • a motion vector resolution set for L0 prediction ⁇ 1/4, 1 /2, 1 ⁇ is determined, and a motion vector resolution set ⁇ 1, 2, 4 ⁇ for L1 prediction may be determined according to whether the POC distance between the reference picture for L1 prediction and the current picture is greater than a predetermined POC distance.
  • a motion vector resolution index is shared for L0 prediction and L1 prediction, if the resolution index is 1, 1/2 of the motion vector resolution for L0 prediction is selected from ⁇ 1/4, 1/2, 1 ⁇
  • two of ⁇ 1, 2, 4 ⁇ may be selected as the motion vector resolution for L1 prediction.
  • the motion vector resolution index for L0 prediction and the motion vector resolution index for L1 prediction are obtained separately, if the motion vector resolution index for L0 prediction is 1, 1/2 of ⁇ 1/4, 1/2, 1 ⁇ Is selected, and if the motion vector resolution index for L1 prediction is 0, one of ⁇ 1, 2, 4 ⁇ may be selected.
  • the prediction decoder 33 determines a candidate motion vector resolution whose resolution index indicates from among at least one candidate motion vector resolution set supportable for the current block as the motion vector resolution of the current block, and selects the motion vector resolution of the at least one candidate block.
  • a candidate block mapped to the selected motion vector resolution may be determined as a candidate block for a motion vector predictor of the current block.
  • At least one supportable candidate motion vector resolution is mapped 1:1 to at least one candidate block, and the motion information decoding apparatus 30 calculates each supportable candidate motion vector resolution and a motion vector of a candidate block mapped thereto.
  • the motion vector of the current block may be determined according to the resolution of each candidate motion vector.
  • the prediction decoder 33 when a motion vector resolution of a current block and a motion vector predictor candidate are interlocked, the prediction decoder 33 is determined according to a POC distance between a current picture and a reference picture and a prediction direction of the current block. Based on the motion vector resolution set, a predictor candidate list including selectable motion vector predictor candidates may be determined.
  • the resolution index pointing to may indicate a motion vector predictor candidate. That is, the motion vector of the current block may be inter-predicted by using the motion vector predictor indicated by the resolution index among the motion vector predictor candidate list.
  • the motion vector predictor determined in the motion vector predictor list will also vary according to the motion vector resolution set You will be able to.
  • the total selectable motion vector resolution is 1/4-pixel unit, 1/2-pixel unit, 1-pixel unit, 2-pixel unit, 4-pixel unit, and all selectable motion vector predictor candidates are p0 , p1, p2, p3, p4.
  • the linked motion vector predictor candidate list may be ⁇ p0, p1, p2 ⁇ .
  • the linked motion vector predictor candidate list may also be ⁇ p0, p1, p2 ⁇ .
  • a first resolution index indicating motion vector resolution 1 in the first motion vector resolution set may be generated as 2.
  • the motion vector predictor indicated by the first resolution index among the motion vector predictor candidate list is p2.
  • a second resolution index indicating motion vector resolution 1 among the second motion vector resolution set may be generated as 0.
  • the motion vector predictor indicated by the second resolution index in the motion vector predictor candidate list is p0. Accordingly, a motion vector predictor linked to a first resolution index according to the first motion vector resolution set and a motion vector predictor linked to a second resolution index according to the second motion vector resolution set may be determined differently.
  • a motion vector resolution selected from a set of motion vector resolutions determined based on at least one of a prediction direction of a current block and a POC distance between a current picture and a reference picture may be directly linked to a motion vector predictor index.
  • a motion vector predictor linked to the resolution may be determined uniformly.
  • the total selectable motion vector resolution is 1/4-pixel unit, 1/2-pixel unit, 1-pixel unit, 2-pixel unit, 4-pixel unit, and all selectable motion vector predictor candidates are p0 , p1, p2, p3, p4.
  • P0 may be linked to 1/4-pixel units
  • p1 may be linked to 1/2-pixel units
  • p2 may be linked to 1-pixel units
  • p3 may be linked to 2-pixel units
  • p4 may be linked to 4-pixel units.
  • the linked first motion vector predictor candidate list may be ⁇ p0, p1, p2 ⁇ .
  • the linked second motion vector predictor candidate list may also be ⁇ p2, p3, p4 ⁇ .
  • the motion vector resolution is determined to be 1 as a result of prediction encoding, even if the first motion vector resolution set and the second motion vector resolution set are different and the first motion vector predictor list and the second motion vector predictor list are different, the motion vector The motion vector predictor linked to the resolution 1 becomes p2. Therefore, when the motion vector resolution of the current block and the motion vector predictor candidate are linked, if the motion vector resolution and the predictor index are linked, the motion vector predictor linked to the constant motion vector resolution even if the motion vector resolution set is different is It can be decided on a constant basis.
  • the prediction decoder 33 determines a motion vector of the current block from the interpolated reference image according to the motion vector resolution of the current block.
  • the prediction decoder 33 may adjust the motion vector resolution of the current block and the motion vector of the candidate block.
  • the prediction decoder 33 may determine a reference block in the reference image according to the adjusted motion vector of the candidate block.
  • the prediction decoder 33 may determine the motion vector of the current block by using the motion vector resolution indicated by the resolution index among the motion vector resolution set determined in step S205.
  • the prediction decoder 33 determines an inverse binarization method of the resolution index based on a motion vector resolution set determined based on at least one of a POC distance between a current picture and a reference picture and a prediction direction of a current block. I can.
  • the index of each resolution may be determined as 0, 10, 110, 1110, and 1111.
  • the index of each resolution may be determined as 0, 10, and 11.
  • the motion vector resolution set ⁇ 1,2,4 ⁇ is determined, the indexes of each resolution may be determined as 0, 10, and 11.
  • the prediction decoder 33 may determine the motion vector resolution indicated by the resolution index among the motion vector resolution sets by using an inverse binarization method suitable for the motion vector resolution set. .
  • supportable total motion vector resolution is 1/4-pixel unit, 1/2-pixel unit, 1-pixel unit, 2-pixel unit, 4-pixel unit, 1/2-pixel unit, 1-pixel unit , 2-pixel, 4-pixel, 5-pixel, and motion vector resolution by double scaling the motion vector resolution corresponding to the resolution index in the motion vector resolution set ⁇ 1/4, 1, 4 ⁇ Among the sets ⁇ 1/2, 2, 8 ⁇ , the motion vector resolution to be actually used can be determined.
  • the threshold2 may be set considerably larger than the threshold1.
  • the difference between the POC of the current picture and the reference picture POC is less than threshold1 (
  • the motion vector resolution list for inter prediction of the current block is ⁇ 1/4, 1/2, 1 You can decide with ⁇ .
  • the motion vector resolution list for inter prediction of the current block is ⁇ 1 , 2, 4 ⁇ . If the difference between the POC of the current picture and the reference picture POC is greater than threshold2 (
  • the motion vector resolution set ⁇ 1, 2, 4 ⁇ is scaled twice as much as the motion vector resolution set ⁇ 2, 4, 8 ⁇ indicated by the resolution index.
  • the vector resolution can be determined. Therefore, if the obtained resolution index 0 indicates 1 in the motion vector resolution set ⁇ 1, 2, 4 ⁇ , the actual motion vector resolution to be used is determined as 2, and the obtained resolution index 1 is the motion vector resolution set ⁇ 1, 2, If 2 is indicated in 4 ⁇ , the actual motion vector resolution to be used is determined as 4, and if the obtained resolution index 2 indicates 4 in the motion vector resolution set ⁇ 1, 2, 4 ⁇ , the actual motion vector resolution to be used may be determined as 8. have.
  • the motion vector resolution is scaled by 2 times has been described, and resolutions included in the motion vector resolution set may be scaled by 2 times, 4 times, or 8 times according to a predetermined rule.
  • the prediction decoder 33 may determine a motion vector according to the prediction direction according to the motion vector resolution indicated by the resolution index among the motion vector resolution set.
  • the prediction decoder 33 When there is a residual motion vector between the motion vector of the current block and the motion vector (or adjusted motion vector) of the candidate block obtained by the acquisition unit 31 according to an embodiment, the prediction decoder 33 The motion vector of the current block may be obtained by using the motion vector of the block and the residual motion vector.
  • the motion information decoding apparatus 30 selectively adjusts the motion vector of the candidate block according to the difference between the motion vector resolution of the current block and the minimum motion vector resolution, and the minimum motion vector resolution and the motion of the current block
  • the residual motion vector can be selectively upscaled according to the difference in vector resolution.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 according to an embodiment, only the motion vector resolution available according to the characteristics of the motion information of the current block is used to perform inter prediction, and the available motion Since a resolution index indicating an actually used motion vector resolution is used among the set including only the vector resolution, the amount of bits of the index for encoding or decoding the resolution index for each coding unit can be reduced.
  • 21 is a diagram illustrating at least one candidate block mapped 1:1 to each of at least one candidate motion vector resolution.
  • At least one candidate block selected from spatial blocks and temporal blocks associated with the current block 50 may be mapped to each of the candidate motion vector resolutions.
  • the spatial block is the upper left block (a), the upper right block (b), the upper left block (c), the upper right block (d), the upper left outer block (e), which are adjacent blocks of the current block 50.
  • an upper block m The temporal block may include a co-located block n belonging to a reference image having a POC different from the current block 50 and an adjacent block o of the co-located block.
  • At least one candidate block selected from these spatial blocks and temporal blocks may be mapped to each of the candidate motion vector resolutions.
  • the motion vector resolution in units of 1/4 pixels is the left block (k).
  • the motion vector resolution in units of 1/2 pixel is the upper block (m)
  • the motion vector resolution in units of 1 pixel is the upper left block (a)
  • the resolution of the motion vector in units of 2 pixels is the upper left block (c)
  • the motion vector resolution of may be mapped to each of the lower left block i.
  • the illustrated mapping relationship is only an example, and various mapping relationships may be set.
  • the motion information encoding apparatus 10 uses the motion vector of the left block as a motion vector predictor of the current block.
  • the motion information encoding apparatus 10 may determine the motion vector resolution of the current block in units of 1/2 pixels by using the motion vector of the upper block as the motion vector predictor of the current block.
  • the motion information decoding apparatus 30 uses the motion vector of the left block as a motion vector predictor of the current block. In addition, when it is determined that the motion vector of the upper block is used as the motion vector predictor of the current block, the motion information decoding apparatus 30 may determine the motion vector resolution of the current block in units of 1/2 pixels.
  • 23 is a diagram for explaining interpolation for determining motion vectors according to various motion vector resolutions.
  • the motion information encoding apparatus 10 may determine a motion vector of the current block according to the resolution of at least one candidate motion vector in order to inter-predict the current block.
  • the supportable candidate motion vector resolution may include a motion vector resolution of 2k pixel units (k is an integer). If k is greater than 0, the motion vector may indicate only integer pixels in the interpolated reference image, and if k is less than 0, it may indicate subpixels and integer pixels.
  • the motion information encoding apparatus 10 interpolates a reference image so that subpixels of a 1/4 pixel unit are generated, and the motion vector is a candidate motion vector resolution.
  • a motion vector may be determined to point to a pixel corresponding to each of a motion vector resolution in units of 1/4 pixels, a motion vector resolution in units of 1/2 pixels, a motion vector resolution in units of 1 pixel, or a motion vector resolution in units of 2 pixels. have.
  • the motion information encoding apparatus 10 may generate subpixels (a to l) in 1/2 pixel units by performing interpolation on a reference image using an n-tap FIR filter (Finite Impulse Response filter). I can. Looking at 1/2 subpixels in the vertical direction, subpixel a is generated by performing interpolation using A1, A2, A3, A4, A5, and A6 in integer pixel units, and B1, B2, B3, B4 in integer pixel units. , B5 and B6 can be used to generate subpixel b by performing interpolation.
  • the subpixels c, d, e, and f can be created in the same way.
  • the pixel values of the subpixels c, d, e, and f can also be calculated by the same method.
  • the motion information encoding apparatus 10 may generate subpixels in the horizontal direction by performing interpolation using a 6-tap FIR filter, similar to the subpixels in the vertical direction.
  • A1, B1, C1, D1, E1 and F1 can be used to generate subpixel g
  • A2, B2, C2, D2, E2 and F2 can be used to generate subpixel h.
  • the subpixel m in the 1 ⁇ 2 pixel unit in the diagonal direction may be interpolated using another 1 ⁇ 2 pixel unit subpixel.
  • the motion information encoding apparatus 10 may generate subpixels of a 1/4 pixel unit by using the integer pixels and the subpixels of the 1/2 pixel unit. Interpolation is performed using two adjacent pixels to generate subpixels of 1/4 pixel units. Alternatively, a subpixel of 1/4 pixel unit may be generated by directly applying an interpolation filter to a pixel value of an integer pixel without using a subpixel value of 1/2 pixel unit.
  • the motion information encoding apparatus 10 may interpolate a picture using a filter having a different number of taps.
  • the interpolation filter may include 4-tap, 7-tap, 8-tap, and 12 tap filters.
  • a motion vector resolution in units of 1/4 shows a motion vector resolution in units of 1/4, a motion vector resolution in units of 1/2, a motion vector resolution in units of 1, and a motion vector resolution in units of 2 pixels when the supported minimum motion vector resolution is 1/4 pixel unit motion vector resolution. It indicates the positions of pixels that can be indicated by a motion vector corresponding to the vector resolution.
  • 24(a), (b), (c), and (d) are based on coordinates (0, 0), respectively, in 1/4 pixel unit motion vector resolution, 1/2 pixel unit motion vector resolution, and 1 pixel unit It represents the coordinates (indicated by black squares) of pixels that can be indicated by the motion vector resolution and the motion vector of the two-pixel motion vector resolution.
  • the coordinates of pixels that can be indicated by the motion vector of 1/4-pixel motion vector resolution are (a/4, b/4) (a, b are integers) ), and the coordinates of a pixel that can be indicated by a motion vector of 1/2 pixel unit motion vector resolution become (2c/4, 2d/4) (c, d are integers), and motion at a motion vector resolution of 1 pixel unit.
  • the coordinates of a pixel that a vector can point to are (4e/4, 4f/4) (e, f are integers)
  • the coordinates of a pixel that a motion vector with a motion vector resolution of 2 pixels can point is (8g/4, 8h/4) (g and h are integers).
  • the minimum motion vector resolution is 2m (m is an integer) pixel units
  • the coordinates of pixels that can be indicated by the 2n (n is an integer) pixel unit motion vector resolution are (2n-m*i/2-m, 2n) -m*j/2-m) (i, j are integers).
  • the motion vector is expressed as coordinates in the image interpolated according to 1/4 pixel units.
  • the motion information encoding apparatus 10 determines a motion vector from an interpolated image according to a minimum motion vector resolution, so that a motion vector (and a motion vector predictor) can be expressed as an integer, so that the motion vector (and Motion vector predictor) is the reciprocal of the pixel unit value of the minimum motion vector resolution, for example, if the minimum motion vector resolution is 2m (m is an integer) pixel unit, multiply by 2-m to represent a motion vector in integer units. I can.
  • a motion vector in integer units multiplied by 2-m may be used in the motion information encoding apparatus 10 and the motion information decoding apparatus 30.
  • the motion information encoding apparatus 10 may determine (2, 6), which is a value obtained by multiplying the motion vector by the integer 4, as the motion vector.
  • the sub-pixel unit Based on, a block similar to the current block may be searched in the reference image.
  • the motion information encoding apparatus 10 determines a motion vector in units of integer pixels and generates subpixels in units of 1/2 pixels. After interpolating the reference image as much as possible, the most similar prediction block may be searched in the range (-1 to 1, -1 to 1) based on the motion vector determined in units of integer pixels. Next, after interpolating the reference image so that subpixels in 1/4 pixel units are generated again, the most similar prediction block in the range (-1 to 1, -1 to 1) based on the motion vector determined in the 1/2 pixel unit By searching for, it is possible to determine a motion vector having a final motion vector resolution in 1/4 pixel units.
  • the motion vector in units of integer pixels is (-4, -3) based on the coordinates (0,0)
  • the motion information encoding apparatus 10 refers to a motion vector determined in units of integer pixels in order to perform motion prediction in units of a large pixel.
  • a block similar to the current block may be searched in the reference picture based on a pixel unit larger than 1 pixel unit.
  • a pixel located in a pixel unit larger than one pixel unit eg, 2 pixel units, 3 pixel units, 4 pixel units
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 are candidate blocks used as motion vector predictors of the current block.
  • the motion vector of can be adjusted.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 adjust the motion vector predictor expressed by coordinates in the image interpolated according to the minimum motion vector resolution to the motion vector resolution of the current block. It can be adjusted to point to surrounding pixels instead of the pixels that the vector predictor points to.
  • a motion vector predictor (A) indicating a pixel 71 of a coordinate (19, 27) based on a coordinate (0,0) in FIG. 25 is a motion vector resolution in units of 1 pixel, which is the motion vector resolution of the current block.
  • the coordinates (19, 27) of the pixel 71 indicated by the motion vector predictor (A) are divided by the integer 4 (i.e., downscale), and the coordinates corresponding to the result of the division (19/4, 27/ 4) does not indicate an integer pixel unit.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 may adjust the downscaled motion vector predictor to indicate an integer pixel unit.
  • the coordinates of the surrounding integer pixels around the coordinates (19/4, 27/4) are (16/4, 28/4), (16/4, 24/4), (20/4) , 28/4), (20/4, 24/4).
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 have the downscaled motion vector predictor (A), which is a coordinate located at the top-right instead of the coordinates (19/4, 27/4). 20/4, 28/4), and then multiplying by the integer 4 again (i.e., upscale), and finally the adjusted motion vector predictor (D) is the pixel corresponding to the coordinates (20, 28). You can point to (74).
  • the motion vector predictor A before being adjusted points to the pixel 71
  • the finally adjusted motion vector predictor D is an integer unit located at the right-top of the pixel 71. It may refer to the pixel 74.
  • the adjusted motion vector predictor is the motion vector before the adjustment. You can make it point to a pixel located at the top-right of the pixel pointed to by the predictor.
  • the adjusted motion vector predictor is a pixel positioned at the left-top of the pixel indicated by the motion vector predictor before being adjusted, and the left-hand side. It may be made to point to a pixel located at the bottom or a pixel located at the right-bottom.
  • any one of the x coordinate value and the y coordinate value indicated by the downscaled motion vector predictor indicates an integer pixel
  • only the coordinate value not indicating the integer pixel is increased or decreased, thereby reducing the integer pixel.
  • the adjusted motion vector predictor is an integer pixel positioned to the left of the pixel pointed to by the motion vector predictor before being adjusted or positioned to the right. It can be made to point to an integer pixel.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 may differently select a point indicated by the adjusted motion vector predictor according to the motion vector resolution of the current block.
  • the adjusted motion vector predictor when the motion vector resolution of the current block is 1/2 pixel unit motion vector resolution, the adjusted motion vector predictor is the left side of the pixel 81 indicated by the motion vector predictor before being adjusted. -If the upper pixel 83 is pointed and the motion vector resolution of the current block is the motion vector resolution in units of 1 pixel, the adjusted motion vector predictor is to the right of the pixel 81 indicated by the motion vector predictor before the adjustment- If the upper pixel 82 is pointed and the motion vector resolution of the current block is the motion vector resolution in units of 2 pixels, the adjusted motion vector predictor is the right-bottom of the pixel 81 indicated by the motion vector predictor before the adjustment. It can be adjusted to point to the pixel 84 of.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 determine which pixel the adjusted motion vector predictor points to, the motion vector resolution of the current block, the motion vector predictor, information of the neighboring block, and encoding information. , It may be determined based on at least one of an arbitrary pattern.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 may adjust the motion vector of the candidate block in consideration of the motion vector resolution and the minimum motion vector resolution of the current block according to Equation 1 below.
  • Equation 1 pMV' represents an adjusted motion vector predictor, and k is a value determined according to the difference between the motion vector resolution of the current block and the minimum motion vector resolution, and the motion vector resolution of the current block is 2m pixel units (m Is an integer), when the minimum motion vector resolution is 2n pixel units (n is an integer), and when m> n, k may be mn.
  • k may be an index of the motion vector resolution, wherein the candidate motion vector resolution is 1/4 pixel unit motion vector resolution, 1/2 pixel unit motion vector resolution, 1 pixel unit motion vector resolution, and 2 pixel unit motion
  • the index indicating the motion vector resolution may be determined as 0, 1, 2, 3, and 4, respectively.
  • the motion information decoding apparatus 30 is a motion vector from a bitstream.
  • the motion vector of the candidate block may be adjusted according to Equation 1 by using the motion vector resolution index as k.
  • Equation 1 >> or ⁇ is a bit shift operation and means an operation for reducing or increasing the size of a motion vector predictor.
  • the offset refers to a value added or subtracted to indicate the integer pixel when the downscaled pMV according to the k value does not indicate the integer pixel. The offset may be determined differently for each of the x coordinate value and the y coordinate value of the basic MV.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 may change the downscaled pMV according to the same criterion.
  • the x coordinate value and y coordinate value of the downscaled pMV may be always increased to point to the integer pixel. Alternatively, it can always be decreased to indicate an integer pixel. Alternatively, the x-coordinate and y-coordinate values of the downscaled pMV may be rounded to indicate an integer pixel.
  • the motion information encoding apparatus 10 and the motion information decoding apparatus 30 omit downscale and upscale of the motion vector when adjusting the motion vector of the candidate block, and the motion vector is the motion vector of the current block.
  • the coordinate plane in the interpolated reference image may be adjusted according to the minimum motion vector resolution to indicate the pixel unit corresponding to the resolution.
  • Equation 1 when the motion information encoding apparatus 10 and the motion information decoding apparatus 30 adjust the motion vector of the candidate block in consideration of the motion vector resolution and the minimum motion vector resolution of the current block, Equation 1 Instead, it may be adjusted according to Equation 2 below.
  • Equation 2 is similar to Equation 1, but it can be seen that the offset is not applied to the downscaled pMV as in Equation 1, and after the offset is applied to the original pmV, it is downscaled according to k.
  • the motion information encoding apparatus 10 finds a motion vector of the current block with the motion vector resolution of the current block, and obtains a difference between the motion vector of the current block and a selectively adjusted motion vector predictor as a residual motion vector.
  • the motion information encoding apparatus 10 may determine and encode a residual motion vector as shown in Equation 3 below.
  • Equation 3 MV is a motion vector of the current block
  • pMV' is an adjusted motion vector predictor
  • MVD is a residual motion vector.
  • MVD MV-pMV'
  • the motion information encoding apparatus 10 downscales the residual motion vector as shown in Equation 4, and generates a bitstream including information representing the downscaled residual motion vector. Can be generated.
  • Equation 4 MVD' denotes a downscaled residual motion vector, and k is a value determined according to a difference between the minimum motion vector resolution and the motion vector resolution of the current block, and is the same as k in Equation 1 above.
  • the motion information encoding apparatus 10 downscales a motion vector and a motion vector predictor (or adjusted motion vector predictor) of the current block according to the k value, and then moves the difference between the two values as a residual. It can also be encoded as a vector.
  • the motion information encoding apparatus 10 may calculate the downscaled residual motion vector according to Equation 5 below instead of Equation 3 and Equation 4.
  • MVD' (MV-pMV') / (R * S)
  • Equation 5 MVD' denotes a downscaled residual motion vector, MV denotes a motion vector of the current block, and pMV' denotes an adjusted motion vector predictor. Further, R denotes a pixel unit value of the motion vector resolution of the current block, for example, 1/4 in the case of a 1/4 pixel motion vector resolution. In addition, S is the reciprocal of the pixel unit value of the minimum motion vector resolution, and when the minimum motion vector resolution is 1/4 pixel unit, S represents 4.
  • the motion information decoding apparatus 30 may reconstruct a motion vector of the current block by using at least one of information indicating a motion vector resolution of a current block and information indicating a candidate block obtained from a bitstream, and a residual motion vector.
  • the motion information decoding apparatus 30 may adjust the motion vector predictor as in Equation 1 or 2 above.
  • the motion information decoding apparatus 30 may upscale the residual motion data as shown in Equation 6 below.
  • MVD' denotes a downscaled residual motion vector by the encoding apparatus
  • MVD' denotes an upscaled residual motion vector
  • the k is a value determined according to a difference between the minimum motion vector resolution and the motion vector resolution of the current block, and is the same as k in Equation 1 above.
  • the motion information decoding apparatus 30 decodes the motion vector of the current block by summing the motion vector predictor selectively adjusted according to the difference in size between the minimum motion vector resolution and the motion vector resolution of the current block and the selectively upscaled residual motion vector. can do.
  • the motion information decoding apparatus 30 may determine the upscaled residual motion vector according to Equation 7 below instead of Equation 6 above.
  • Equation 7 MVD' denotes a downscaled residual motion vector, and R denotes a pixel-unit value of the motion vector resolution of the current block, for example, 1/4 in the case of a 1/4-pixel motion vector resolution.
  • S is the reciprocal of the pixel unit value of the minimum motion vector resolution, and when the minimum motion vector resolution is 1/4 pixel unit, S represents 4.
  • the motion information decoding apparatus 30 interpolates the reference image according to the minimum motion vector resolution when the motion vector resolution of the current block is less than the motion vector resolution per pixel, and then interpolates the reference image according to the motion vector of the current block. You can search for prediction blocks. In addition, when the motion vector resolution of the current block is greater than or equal to the motion vector resolution of 1 pixel, the motion information decoding apparatus 30 may search for a prediction block according to the motion vector of the current block without interpolating the reference image.
  • FIG. 27 is a flowchart illustrating a motion information encoding method according to another embodiment.
  • the motion information encoding apparatus 10 may determine a motion vector resolution set including motion vector resolutions selectable from a current slice or a current sequence.
  • the motion information encoding apparatus 10 may determine whether a current slice or a current picture can be used for each motion vector resolution.
  • the current slice can be used for each motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units.
  • it may be determined whether the current picture can be used for each motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units.
  • a predetermined number of motion vector resolution sets it can be determined which set can be used in the current slice.
  • a predetermined number of motion vector resolution sets it can be determined which set can be used in the current picture.
  • how to determine the motion vector resolution set for each coding unit included in the current slice or the current picture may be determined.
  • step S273 the motion information encoding apparatus 10 according to another embodiment performs inter prediction on the current block based on the motion vector resolution set determined in step S271, and determines a motion vector, a reference picture, and a prediction direction of the current block. You can decide.
  • the motion information encoding apparatus 10 may generate a resolution index indicating a motion vector resolution corresponding to a motion vector from among the motion vector resolution set.
  • the motion information encoding apparatus 10 may generate a flag indicating whether a motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units is available in the current slice. .
  • the motion information encoding apparatus 10 may generate a flag indicating whether it is available for each motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units in the current sequence. .
  • the motion information encoding apparatus 10 may generate information indicating which set can be used in the current slice. As another example, when a predetermined number of motion vector resolution sets can be used, the motion information encoding apparatus 10 may generate information indicating which set can be used in the current sequence.
  • information for determining the motion vector resolution set is individually set for each coding unit included in the current slice or the current sequence.
  • I can.
  • a flag indicating whether the motion vector resolution is available for each coding unit or motion vector resolution is generated, or a motion vector resolution set is selected. It is also possible to generate information that represents.
  • Whether or not the above-described motion vector resolution can be used or which motion vector resolution set is to be used may be determined for each sequence, for each picture, for each slice, or for each tile. Accordingly, at least one of a flag indicating whether or not each motion vector resolution is available and information indicating a set of motion vector resolutions may be defined for each sequence parameter set (SPS), picture parameter set (PPS), slice header, or tile. I can.
  • SPS sequence parameter set
  • PPS picture parameter set
  • slice header or tile.
  • the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ may be determined which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used for the current slice. Accordingly, information indicating which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used may be included in the slice header for the current slice. As another example, it may be determined which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used for the current sequence. Accordingly, information indicating which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used may be included in the SPS for the current sequence.
  • a resolution index indicating a resolution determined to be used among a set including only available motion vector resolutions is generated in a coding unit included in the current sequence.
  • FIG. 28 is a flowchart illustrating a motion information decoding method according to another embodiment.
  • the motion information decoding apparatus 30 may determine a motion vector resolution set by obtaining resolution information from a current sequence or a current slice.
  • step S283 the motion information decoding apparatus 30 according to another embodiment may obtain the resolution index of the current block from the bitstream.
  • the motion information decoding apparatus 30 obtains, from the slice header, a flag indicating whether a motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units is available in the current slice. can do.
  • the motion information encoding apparatus 10 may obtain a flag indicating whether the motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units is available from the SPS in the current sequence. I can.
  • the motion information decoding apparatus 30 may obtain information indicating which set can be used in the current slice from the slice header. As another example, when a predetermined number of motion vector resolution sets can be used, the motion information decoding apparatus 30 may obtain information indicating which set can be used in the current sequence from the SPS.
  • information for determining the motion vector resolution set is individually obtained for each coding unit included in the current slice or the current picture.
  • a flag indicating whether the motion vector resolution is available for each coding unit or for each motion vector resolution is obtained, or a motion vector resolution set is selected. Indicative information may be obtained.
  • At least one of a flag indicating whether a motion vector resolution is available for each motion vector resolution and information indicating a set of motion vector resolutions illustrated above may be obtained for each SPS, for each PPS, for each slice header, or for each tile. Accordingly, whether or not the motion vector resolution can be used for each motion vector resolution or which motion vector resolution set is used may be determined for each sequence, for each picture, for each slice, or for each tile.
  • information indicating which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used may be obtained from the slice header for the current slice. Accordingly, it may be determined which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used for the current slice according to the obtained information.
  • information indicating which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used may be obtained from the SPS for the current sequence. Accordingly, it may be determined which of the motion vector resolution sets ⁇ 1/4, 1/2, 1 ⁇ or ⁇ 1/4, 1, 4 ⁇ is used for the current sequence according to the obtained information.
  • a resolution index based on a set including only available motion vector resolutions in the current slice or in the coding unit included in the current sequence is obtained.
  • I can.
  • a flag indicating whether the motion vector resolution of 1/4-, 1/2-, 1-, 2-, and 4-pixel units can be used is obtained from the SPS or slice header, and only motion vector resolutions that are available for each coding unit are included.
  • a resolution index indicating one of the set may be obtained. Accordingly, a motion vector resolution for a current coding unit may be determined from among a set including only motion vector resolutions usable in the current slice or the current sequence.
  • the motion information decoding apparatus 30 may determine a motion vector of a current block by using a motion vector resolution indicated by a resolution index from among the motion vector resolution set.
  • the above-described embodiments can be written as a program that can be executed on a computer, and the written program can be stored in a medium.
  • the medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download.
  • the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined.
  • the medium is not limited to a medium directly connected to a computer system, but may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like may be configured to store program instructions.
  • examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or a storage medium managed by a server.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 현재 블록의 참조 인덱스 및 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하고, 현재 블록의 참조 인덱스를 이용하여 현재 블록의 참조 픽쳐를 결정하고, 현재 블록의 예측 방향 정보를 이용하여 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정하고, 현재 블록의 참조 픽쳐 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하고, 움직임 벡터 해상도 세트 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 예측 방향에 따른 움직임 벡터를 결정하기 위한 움직임 정보의 복호화 방법이 제안된다.

Description

움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
본 개시는 비디오 부호화 및 복호화 분야에 관한 것이다. 보다 구체적으로, 본 개시는 비디오의 움직임 정보를 부호화하는 방법 및 장치, 복호화하는 방법 및 장치에 관한 것이다.
비디오의 부호화 및 복호화 방법에서는 영상을 부호화하기 위해 하나의 픽처를 매크로블록으로 분할하고, 인터 예측(inter prediction) 또는 인트라 예측(intraprediction)을 통해 각각의 매크로블록을 예측 부호화할 수 있다.
인터 예측은 픽처들 사이의 시간적인 중복성을 제거하여 영상을 압축하는 방법으로 움직임 추정 부호화가 대표적인 예이다. 움직임 추정 부호화는 적어도 하나의 참조 픽처를 이용해 현재 픽처의 블록들을 예측한다. 소정의 평가 함수를 이용하여 현재 블록과 가장 유사한 참조 블록을 소정의 검색 범위에서 검색할 수 있다.
현재 블록을 참조 블록에 기초하여 예측하고, 예측 결과 생성된 예측 블록을 현재 블록으로부터 감산하여 잔차 블록을 생성 및 부호화한다. 이 때, 예측을 보다 정확하게 수행하기 위해 참조 픽처의 검색 범위에 대해 보간을 수행하여 정수 화소 단위(integer pel unit)보다 작은 부화소 단위(sub pel unit)의 픽셀들을 생성하고, 생성된 부화소 단위의 픽셀에 기초해 인터 예측을 수행할 수 있다.
H.264 AVC(Advanced Video Coding) 및 HEVC(High Efficiency Video Coding)와 같은 코덱에서는 현재 블록의 움직임 벡터를 예측하기 위해 현재 블록에 인접한 이전에 부호화된 블록들 또는 이전에 부호화된 픽처에 포함된 블록들의 움직임 벡터를 현재 블록의 움직임 벡터 프리딕터(Motion Vector Predictor)로 이용한다.
고해상도 영상 또는 입체 영상의 비디오 부호화 및 복호화 과정에서, 인터 예측을 수행하며 사용되는 움직임 벡터의 해상도가 정밀해질 필요가 있다. 움직임 벡터의 해상도가 정밀해지면 관련 데이터량이 증가하므로 부호화 효율에 영향을 미칠 수 있다.
본 개시에서 제공되는 일 실시예에 따른 움직임 정보의 부호화 방법은, 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 단계; 상기 현재 블록의 참조 인덱스를 이용하여 상기 현재 블록의 참조 픽쳐를 결정하고, 상기 현재 블록의 예측 방향 정보를 이용하여 상기 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정하는 단계; 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법은 인터 예측된 블록의 복호화를 위해 필요로 하는 여러 움직임 정보들 중 일부를 생략하여 비트량을 감소시킬 수 있다.
본 명세서에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 7은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 8은 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
도 9는 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16은 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
도 17은 일 실시예에 따른 움직임 정보 부호화 장치의 구성을 나타내는 블록도이다.
도 18는 일 실시예에 따른 움직임 정보 부호화 방법을 설명하기 위한 순서도이다.
도 19은 일 실시예에 따른 움직임 정보 복호화 장치의 구성을 나타내는 블록도이다.
도 20는 일 실시예에 따른 움직임 정보 복호화 방법을 설명하기 위한 순서도이다.
도 21는 적어도 하나의 후보 움직임 벡터 해상도에 1:1로 매핑된 적어도 하나의 후보 블록을 설명하기 위한 도면이다.
도 22은 적어도 하나의 후보 움직임 벡터 해상도와 적어도 하나의 후보 블록 사이의 매핑 관계를 도시하는 예시적인 도면이다.
도 23은 다양한 움직임 벡터 해상도에 따른 움직임 벡터를 결정하기 위한 보간(interpolation)을 설명하기 위한 도면이다.
도 24은 지원 가능한 최소 움직임 벡터 해상도가 1/4 화소 단위인 경우, 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도 및 2 화소 단위의 움직임 벡터 해상도의 움직임 벡터가 가리킬 수 있는 화소들의 위치를 도시하는 도면이다.
도 25 및 도 26은 움직임 벡터 프리딕터의 조정 방법을 설명하기 위한 도면이다.
도 27는 다른 실시예에 따른 움직임 정보 부호화 방법을 설명하기 위한 순서도이다.
도 28는 다른 실시예에 따른 움직임 정보 복호화 방법을 설명하기 위한 순서도이다.
본 개시에서 제공되는 일 실시예에 따른 움직임 정보의 부호화 방법은, 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 단계; 상기 현재 블록의 참조 인덱스를 이용하여 상기 현재 블록의 참조 픽쳐를 결정하고, 상기 현재 블록의 예측 방향 정보를 이용하여 상기 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정하는 단계; 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 움직임 벡터 해상도 세트는, 1/4-화소단위, 1/2-화소단위, 1-화소단위, 2-화소단위 및 4-화소단위 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 소정 POC 거리보다 작지 않을 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함하고, 상기 제1 움직임 벡터 해상도 세트와 상기 제2 움직임 벡터 해상도 세트가 상이하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 상기 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 클 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 크거나 같고, 상기 제2 소정 POC 거리보다 작거나 같을 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제3 움직임 벡터 해상도 세트를 결정하는 단계를 포함하고, 상기 제1 움직임 벡터 해상도 세트, 상기 제2 움직임 벡터 해상도 세트와 상기 제3 움직임 벡터 해상도 세트가 상이하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 상기 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 상기 제3 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 포함되고, 상기 제2 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 상기 제3 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 속할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록의 예측 방향이 단방향 예측일 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 현재 블록의 예측 방향이 양방향 예측일 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함하고, 상기 제1 움직임 벡터 해상도 세트와 상기 제2 움직임 벡터 해상도 세트가 상이하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 상기 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록의 예측 방향이 단방향 예측일 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 현재 블록의 예측 방향이 양방향 예측일 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 L0 움직임 벡터를 위해 결정하고, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제3 움직임 벡터 해상도 세트를 L1 움직임 벡터를 위해 결정하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록의 예측 방향이 단방향 예측이고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 현재 블록의 예측 방향이 단방향 예측이고, 상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않을 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록의 예측 방향이 양방향 예측이고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작을 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 현재 블록의 예측 방향이 양방향 예측이고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않을 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계는, 상기 L0의 움직임 벡터를 위한 상기 제2 움직임 벡터 해상도 세트에 적용되는 상기 해상도 인덱스를, 상기 L1의 움직임 벡터를 위한 상기 제3 움직임 벡터 해상도 세트에 적용하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 단계는, 상기 L0의 움직임 벡터 해상도를 가리키는 L0 해상도 인덱스 및 상기 L1의 움직임 벡터 해상도를 가리키는 L1 해상도 인덱스를 획득하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계는, 상기 결정되는 움직임 벡터 해상도 세트에 기초하여, 상기 해상도 인덱스를 파싱하기 위한 역이진화 방식을 결정하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는, 상기 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터(predictor) 후보가 연동될 때, 상기 결정된 상기 움직임 벡터 해상도 세트에 기초하여, 선택가능한 움직임 벡터 프리딕터 후보를 포함하는 프리딕터 후보 리스트를 결정하는 단계를 포함할 수 있다.
본 개시에서 제공하는 일 실시예에 따른 움직임 정보의 복호화 장치는, 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 획득부; 및 상기 현재 블록의 참조 인덱스를 이용하여 상기 현재 블록의 참조 픽쳐를 결정하고, 상기 현재 블록의 예측 방향 정보를 이용하여 상기 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정하고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC (Picture Order Count) 거리 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하고, 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 예측 복호화부를 포함할 수 있다.
본 개시에서 제공하는 일 실시예에 따른 움직임 정보의 부호화 장치는, 현재 블록에 인터 예측을 수행하여, 상기 현재 블록의 움직임 벡터, 참조 픽쳐 및 예측 방향을 결정하는 단계; 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC (Picture Order Count) 거리 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계; 및 상기 결정된 움직임 벡터 해상도 세트 중에서 상기 현재 블록의 인터 예측을 위해 이용된 움직임 벡터 해상도를 가리키는 해상도 인덱스를 생성하는 단계를 포함할 수 있다.
본 개시에서 제공하는 다른 실시예에 따른 움직임 정보의 복호화 방법은, 현재 시퀀스 또는 현재 슬라이스에서 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 나타내는 정보를 비트스트림으로부터 획득하여, 상기 움직임 벡터 해상도 세트를 결정하는 단계; 상기 현재 시퀀스 또는 상기 현재 슬라이스에 포함된 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스를 비트스트림으로부터 획득하는 단계; 및 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도를 이용하여, 상기 현재 블록의 움직임 벡터를 결정하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 움직임 정보의 부호화 방법을 컴퓨터로 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공된다.
본 개시의 일 실시예에 따른 움직임 정보의 복호화 방법을 컴퓨터로 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공된다.
본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 개시의 실시 형태에 대해 한정하려는 것이 아니며, 본 개시는 여러 실시예들의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예를 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
또한, 본 명세서에서, '영상' 또는 '픽처'는 비디오의 정지영상이거나 동영상, 즉 비디오 그 자체를 나타낼 수 있다.
또한, 본 명세서에서 '샘플'은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
또한, 본 명세서에서,'현재 블록(Current Block)'은, 부호화 또는 복호화하고자 하는 현재 영상의 최대 부호화 단위, 부호화 단위, 예측 단위 또는 변환 단위의 블록을 의미할 수 있다.
또한, 본 명세서에서, '움직임 벡터 해상도'는, 참조 영상(또는 보간된 참조 영상)에 포함된 화소들 중, 인터 예측을 통해 결정된 움직임 벡터가 가리킬 수 있는 화소의 위치의 정밀도를 의미할 수 있다. 움직임 벡터 해상도가 N 화소 단위(N은 유리수)를 갖는다는 것은, 움직임 벡터가 N 화소 단위의 정밀도를 가질 수 있다는 것을 의미한다. 일 예로서, 1/4 화소 단위의 움직임 벡터 해상도는 움직임 벡터가 보간된 참조 영상에서 1/4 화소 단위(즉, 부화소 단위)의 화소 위치를 가리킬 수 있다는 것을 의미할 수 있고, 1 화소 단위의 움직임 벡터 해상도는 움직임 벡터가 보간된 참조 영상에서 1 화소 단위(즉, 정수 화소 단위)에 대응하는 화소 위치를 가리킬 수 있다는 것을 의미할 수 있다.
또한 본 명세서에서, '후보 움직임 벡터 해상도'는 블록의 움직임 벡터 해상도로 선택될 수 있는 하나 이상의 움직임 벡터 해상도를 의미하며, '후보 블록'은 후보 움직임 벡터 해상도에 매핑되어, 인터 예측되는 블록의 움직임 벡터 프리딕터를 위한 블록으로 이용될 수 있는 하나 이상의 블록을 의미한다.
또한, 본 명세서에서 '화소 단위'는 화소 정밀도, 화소 정확도 등의 용어로 대체되어 설명될 수도 있다.
이하에서는, 도 1 내지 도 16를 참조하여, 일 실시예에 따른 트리 구조의 부호화 단위 및 변환 단위에 기초한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치가 개시된다. 도 1 내지 도 16를 참조하여 설명할 영상 부호화 장치(200) 및 영상 복호화 장치(100) 각각은 도 17 내지 도 26을 참조하여 설명할 움직임 정보 부호화 장치(1700) 및 움직임 정보 복호화(1900) 장치 각각을 포함할 수 있다.
이하 도 1 및 도 2를 참조하여 본 개시의 일 실시예에 따라 다양한 형태의 부호화 단위에 기초하여 적응적으로 선택하기 위한 방법 및 장치가 상술된다.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.
영상 복호화 장치(100)는 수신부(110) 및 복호화부(120)를 포함할 수 있다. 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다.
수신부(110)는 비트스트림을 수신할 수 있다. 비트스트림은 후술되는 영상 부호화 장치(2200)가 영상을 부호화한 정보를 포함한다. 또한 비트스트림은 영상 부호화 장치(2200)로부터 송신될 수 있다. 영상 부호화 장치(2200) 및 영상 복호화 장치(100)는 유선 또는 무선으로 연결될 수 있으며, 수신부(110)는 유선 또는 무선을 통하여 비트스트림을 수신할 수 있다. 수신부(110)는 광학미디어, 하드디스크 등과 같은 저장매체로부터 비트스트림을 수신할 수 있다. 복호화부(120)는 수신된 비트스트림으로부터 획득된 정보에 기초하여 영상을 복원할 수 있다. 복호화부(120)는 영상을 복원하기 위한 신택스 엘리먼트를 비트스트림으로부터 획득할 수 있다. 복호화부(120)는 신택스 엘리먼트에 기초하여 영상을 복원할 수 있다.
영상 복호화 장치(100)의 동작에 대해서는 도 2와 함께 보다 자세히 설명한다.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.
본 개시의 일 실시예에 따르면 수신부(110)는 비트스트림을 수신한다.
영상 복호화 장치(100)는 비트스트림으로부터 부호화 단위의 분할 형태 모드에 대응하는 빈스트링을 획득하는 단계(210)를 수행한다. 영상 복호화 장치(100)는 부호화 단위의 분할 규칙을 결정하는 단계(220)를 수행한다. 또한 영상 복호화 장치(100)는 분할 형태 모드에 대응하는 빈스트링 및 상기 분할 규칙 중 적어도 하나에 기초하여, 부호화 단위를 복수의 부호화 단위들로 분할하는 단계(230)를 수행한다. 영상 복호화 장치(100)는 분할 규칙을 결정하기 위하여, 부호화 단위의 너비 및 높이의 비율에 따른, 상기 부호화 단위의 크기의 허용가능한 제 1 범위를 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 결정하기 위하여, 부호화 단위의 분할 형태 모드에 따른, 부호화 단위의 크기의 허용가능한 제 2 범위를 결정할 수 있다.
이하에서는 본 개시의 일 실시예에 따라 부호화 단위의 분할에 대하여 자세히 설명한다.
먼저 하나의 픽쳐 (Picture)는 하나 이상의 슬라이스 혹은 하나 이상의 타일로 분할될 수 있다. 하나의 슬라이스 혹은 하나의 타일은 하나 이상의 최대 부호화 단위(Coding Tree Unit; CTU)의 시퀀스일 수 있다. 최대 부호화 단위 (CTU)와 대비되는 개념으로 최대 부호화 블록 (Coding Tree Block; CTB)이 있다.
최대 부호화 블록(CTB)은 NxN개의 샘플들을 포함하는 NxN 블록을 의미한다(N은 정수). 각 컬러 성분은 하나 이상의 최대 부호화 블록으로 분할될 수 있다.
픽쳐가 3개의 샘플 어레이(Y, Cr, Cb 성분별 샘플 어레이)를 가지는 경우에 최대 부호화 단위(CTU)란, 루마 샘플의 최대 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 최대 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 모노크롬 픽쳐인 경우에 최대 부호화 단위란, 모노크롬 샘플의 최대 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽쳐인 경우에 최대 부호화 단위란, 해당 픽쳐와 픽쳐의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
하나의 최대 부호화 블록(CTB)은 MxN개의 샘플들을 포함하는 MxN 부호화 블록(coding block)으로 분할될 수 있다 (M, N은 정수).
픽쳐가 Y, Cr, Cb 성분별 샘플 어레이를 가지는 경우에 부호화 단위(Coding Unit; CU)란, 루마 샘플의 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 모노크롬 픽쳐인 경우에 부호화 단위란, 모노크롬 샘플의 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽쳐인 경우에 부호화 단위란, 해당 픽쳐와 픽쳐의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
위에서 설명한 바와 같이, 최대 부호화 블록과 최대 부호화 단위는 서로 구별되는 개념이며, 부호화 블록과 부호화 단위는 서로 구별되는 개념이다. 즉, (최대) 부호화 단위는 해당 샘플을 포함하는 (최대) 부호화 블록과 그에 대응하는 신택스 구조를 포함하는 데이터 구조를 의미한다. 하지만 당업자가 (최대) 부호화 단위 또는 (최대) 부호화 블록가 소정 개수의 샘플들을 포함하는 소정 크기의 블록을 지칭한다는 것을 이해할 수 있으므로, 이하 명세서에서는 최대 부호화 블록과 최대 부호화 단위, 또는 부호화 블록과 부호화 단위를 특별한 사정이 없는 한 구별하지 않고 언급한다.
영상은 최대 부호화 단위(Coding Tree Unit; CTU)로 분할될 수 있다. 최대 부호화 단위의 크기는 비트스트림으로부터 획득된 정보에 기초하여 결정될 수 있다. 최대 부호화 단위의 모양은 동일 크기의 정사각형을 가질 수 있다. 하지만 이에 한정되는 것은 아니다.
예를 들어, 비트스트림으로부터 루마 부호화 블록의 최대 크기에 대한 정보가 획득될 수 있다. 예를 들어, 루마 부호화 블록의 최대 크기에 대한 정보가 나타내는 루마 부호화 블록의 최대 크기는 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, 256x256 중 하나일 수 있다.
예를 들어, 비트스트림으로부터 2분할이 가능한 루마 부호화 블록의 최대 크기와 루마 블록 크기 차이에 대한 정보가 획득될 수 있다. 루마 블록 크기 차이에 대한 정보는 루마 최대 부호화 단위와 2분할이 가능한 최대 루마 부호화 블록 간의 크기 차이를 나타낼 수 있다. 따라서, 비트스트림으로부터 획득된 2분할이 가능한 루마 부호화 블록의 최대 크기에 대한 정보와 루마 블록 크기 차이에 대한 정보를 결합하면, 루마 최대 부호화 단위의 크기가 결정될 수 있다. 루마 최대 부호화 단위의 크기를 이용하면 크로마 최대 부호화 단위의 크기도 결정될 수 있다. 예를 들어, 컬러 포맷에 따라 Y: Cb : Cr 비율이 4:2:0 이라면, 크로마 블록의 크기는 루마 블록의 크기의 절반일 수 있고, 마찬가지로 크로마 최대 부호화 단위의 크기는 루마 최대 부호화 단위의 크기의 절반일 수 있다.
일 실시예에 따르면, 바이너리 분할(binary split)이 가능한 루마 부호화 블록의 최대 크기에 대한 정보는 비트스트림으로부터 획득하므로, 바이너리 분할이 가능한 루마 부호화 블록의 최대 크기는 가변적으로 결정될 수 있다. 이와 달리, 터너리 분할(ternary split)이 가능한 루마 부호화 블록의 최대 크기는 고정될 수 있다. 예를 들어, I 픽쳐에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 32x32이고, P 픽쳐 또는 B 픽쳐에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 64x64일 수 있다.
또한 최대 부호화 단위는 비트스트림으로부터 획득된 분할 형태 모드 정보에 기초하여 부호화 단위로 계층적으로 분할될 수 있다. 분할 형태 모드 정보로서, 쿼드분할(quad split) 여부를 나타내는 정보, 다분할 여부를 나타내는 정보, 분할 방향 정보 및 분할 타입 정보 중 적어도 하나가 비트스트림으로부터 획득될 수 있다.
예를 들어, 쿼드분할(quad split) 여부를 나타내는 정보는 현재 부호화 단위가 쿼드분할(QUAD_SPLIT)될지 또는 쿼드분할되지 않을지를 나타낼 수 있다.
현재 부호화 단위가 쿼드분할지되 않으면, 다분할 여부를 나타내는 정보는 현재 부호화 단위가 더 이상 분할되지 않을지(NO_SPLIT) 아니면 바이너리/터너리 분할될지 여부를 나타낼 수 있다.
현재 부호화 단위가 바이너리 분할되거나 터너리 분할되면, 분할 방향 정보는 현재 부호화 단위가 수평 방향 또는 수직 방향 중 하나로 분할됨을 나타낸다.
현재 부호화 단위가 수평 또는 수직 방향으로 분할되면 분할 타입 정보는 현재 부호화 단위를 바이너리 분할) 또는 터너리 분할로 분할함을 나타낸다.
분할 방향 정보 및 분할 타입 정보에 따라, 현재 부호화 단위의 분할 모드가 결정될 수 있다. 현재 부호화 단위가 수평 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수평 분할(SPLIT_BT_HOR), 수평 방향으로 터너리 분할되는 경우의 터너리 수평 분할(SPLIT_TT_HOR), 수직 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수직 분할 (SPLIT_BT_VER) 및 수직 방향으로 터너리 분할되는 경우의 분할 모드는 터너리 수직 분할 (SPLIT_BT_VER)로 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 하나의 빈스트링으로부터 획득할 수 있다. 영상 복호화 장치(100)가 수신한 비트스트림의 형태는 Fixed length binary code, Unary code, Truncated unary code, 미리 결정된 바이너리 코드 등을 포함할 수 있다. 빈스트링은 정보를 2진수의 나열로 나타낸 것이다. 빈스트링은 적어도 하나의 비트로 구성될 수 있다. 영상 복호화 장치(100)는 분할 규칙에 기초하여 빈스트링에 대응하는 분할 형태 모드 정보를 획득할 수 있다. 영상 복호화 장치(100)는 하나의 빈스트링에 기초하여, 부호화 단위를 쿼드분할할지 여부, 분할하지 않을지 또는 분할 방향 및 분할 타입을 결정할 수 있다.
부호화 단위는 최대 부호화 단위보다 작거나 같을 수 있다. 예를 들어 최대 부호화 단위도 최대 크기를 가지는 부호화 단위이므로 부호화 단위의 하나이다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할되지 않음을 나타내는 경우, 최대 부호화 단위에서 결정되는 부호화 단위는 최대 부호화 단위와 같은 크기를 가진다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할됨을 나타내는 경우 최대 부호화 단위는 부호화 단위들로 분할 될 수 있다. 또한 부호화 단위에 대한 분할 형태 모드 정보가 분할을 나타내는 경우 부호화 단위들은 더 작은 크기의 부호화 단위들로 분할 될 수 있다. 다만, 영상의 분할은 이에 한정되는 것은 아니며 최대 부호화 단위 및 부호화 단위는 구별되지 않을 수 있다. 부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다.
또한 부호화 단위로부터 예측을 위한 하나 이상의 예측 블록이 결정될 수 있다. 예측 블록은 부호화 단위와 같거나 작을 수 있다. 또한 부호화 단위로부터 변환을 위한 하나 이상의 변환 블록이 결정될 수 있다. 변환 블록은 부호화 단위와 같거나 작을 수 있다.
변환 블록과 예측 블록의 모양 및 크기는 서로 관련 없을 수 있다.
다른 실시예로, 부호화 단위가 예측 블록으로서 부호화 단위를 이용하여 예측이 수행될 수 있다. 또한 부호화 단위가 변환 블록으로서 부호화 단위를 이용하여 변환이 수행될 수 있다.
부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다. 본 개시의 현재 블록 및 주변 블록은 최대 부호화 단위, 부호화 단위, 예측 블록 및 변환 블록 중 하나를 나타낼 수 있다. 또한, 현재 블록 또는 현재 부호화 단위는 현재 복호화 또는 부호화가 진행되는 블록 또는 현재 분할이 진행되고 있는 블록이다. 주변 블록은 현재 블록 이전에 복원된 블록일 수 있다. 주변 블록은 현재 블록으로부터 공간적 또는 시간적으로 인접할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측, 우하측 중 하나에 위치할 수 있다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
블록 형태는 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(즉, 부호화 단위의 블록 형태가 4Nx4N 인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 너비 및 높이의 길이가 다른 경우(즉, 부호화 단위의 블록 형태가 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 1:32, 32:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이 또는 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 모드 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 모드 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 획득할 수 있다. 하지만 이에 한정되는 것은 아니며, 영상 복호화 장치(100) 및 영상 부호화 장치(2200)는 블록 형태 정보에 기초하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 영상 복호화 장치(100)는 최대 부호화 단위 또는 최소 부호화 단위에 대하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 예를 들어 영상 복호화 장치(100)는 최대 부호화 단위에 대하여 분할 형태 모드 정보를 쿼드 분할(quad split)로 결정할 수 있다. 또한, 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 분할 형태 모드 정보를 "분할하지 않음"으로 결정할 수 있다. 구체적으로 영상 복호화 장치(100)는 최대 부호화 단위의 크기를 256x256으로 결정할 수 있다. 영상 복호화 장치(100)는 미리 약속된 분할 형태 모드 정보를 쿼드 분할로 결정할 수 있다. 쿼드 분할은 부호화 단위의 너비 및 높이를 모두 이등분하는 분할 형태 모드이다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 256x256 크기의 최대 부호화 단위로부터 128x128 크기의 부호화 단위를 획득할 수 있다. 또한 영상 복호화 장치(100)는 최소 부호화 단위의 크기를 4x4로 결정할 수 있다. 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 "분할하지 않음"을 나타내는 분할 형태 모드 정보를 획득할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(120)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(310a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d, 310e, 310f 등)를 결정할 수 있다.
도 3을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 두 개의 부호화 단위(310b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 두 개의 부호화 단위(310c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(310d)를 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 터너리(ternary) 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 세 개의 부호화 단위(310e)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 터너리 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 세 개의 부호화 단위(310f)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 모드 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 결정하거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 따라 기초하여 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 모드 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 4를 참조하면 분할 형태 모드 정보가 두 개의 부호화 단위로 현재 부호화 단위(400 또는 450)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 영상 복호화 장치(100)는 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위를 분할(터너리 분할)하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 모드 정보가 3개의 부호화 단위로 현재 부호화 단위(400 또는 450)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다.
일 실시예에 따라, 현재 부호화 단위(400 또는 450)의 너비 및 높이의 비율이 4:1 또는 1:4 일 수 있다. 너비 및 높이의 비율이 4:1 인 경우, 너비의 길이가 높이의 길이보다 길므로 블록 형태 정보는 수평 방향일 수 있다. 너비 및 높이의 비율이 1:4 인 경우, 너비의 길이가 높이의 길이보다 짧으므로 블록 형태 정보는 수직 방향일 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위를 홀수개의 블록으로 분할할 것을 결정할 수 있다. 또한 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 블록 형태 정보에 기초하여 현재 부호화 단위(400 또는 450)의 분할 방향을 결정할 수 있다. 예를 들어 현재 부호화 단위(400)가 수직 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400)를 수평 방향으로 분할 하여 부호화 단위(430a, 430b, 430c)를 결정할 수 있다. 또한 현재 부호화 단위(450)가 수평 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(450)를 수직 방향으로 분할 하여 부호화 단위(480a, 480b, 480c)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 모드 정보가 수평 방향으로 제1 부호화 단위(500)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(510)를 분할 형태 모드 정보에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 분할 형태 모드 정보에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 모드 정보에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다.
도 5를 참조하면, 비-정사각형 형태의 제2 부호화 단위(510)가 분할되어 결정되는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 하나인 정사각형 형태의 제3 부호화 단위(520b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(530a, 530b, 530c, 530d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다.
도 5를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 분할 형태 모드 정보를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 6을 참조하면, 현재 부호화 단위(600, 650)의 분할 형태 모드 정보는 현재 부호화 단위(600, 650)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(640, 690))에서 획득될 수 있다. 다만 이러한 분할 형태 모드 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(600) 내의 소정 위치가 도 6에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(600)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 분할 형태 모드 정보를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600) 또는 현재 부호화 단위(650)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b)또는 가운데 부호화 단위(660b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화 단위들(620a, 620b, 620c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위들(620a, 620b, 620c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 크기를 결정할 수 있다. 일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 좌측 상단의 샘플(670a)의 위치를 나타내는 정보인 (xd, yd) 좌표, 가운데 부호화 단위(660b)의 좌측 상단의 샘플(670b)의 위치를 나타내는 정보인 (xe, ye) 좌표, 우측 부호화 단위(660c)의 좌측 상단의 샘플(670c)의 위치를 나타내는 정보인 (xf, yf) 좌표를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(660a, 660b, 660c)의 위치를 나타내는 좌표인 (xd, yd), (xe, ye), (xf, yf)를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 너비를 xe-xd로 결정할 수 있다. 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 높이를 현재 부호화 단위(650)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 너비를 xf-xe로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 높이를 현재 부호화 단위(600)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 우측 부호화 단위(660c)의 너비 또는 높이는 현재 부호화 단위(650)의 너비 또는 높이와 좌측 부호화 단위(660a) 및 가운데 부호화 단위(660b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(660a, 660b, 660c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 좌측 부호화 단위(660a) 및 우측 부호화 단위(660c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(660b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 다르게 설정하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 다르게 설정하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할(바이너리 분할)하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나를 이용할 수 있다.
도 6을 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 분할 형태 모드 정보가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 분할 형태 모드 정보는 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)에서 획득될 수 있으며, 상기 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)가 복수개의 부호화 단위들(620a, 620b, 620c)로 분할된 경우 상기 샘플(640)을 포함하는 부호화 단위(620b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 분할 형태 모드 정보로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정된 복수개의 부호화 단위들(620a, 620b, 620c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(600) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(600)의 가운데에 위치하는 샘플)에서 획득되는 분할 형태 모드 정보를 이용할 수 있다. 즉, 영상 복호화 장치(100)는 현재 부호화 단위(600)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정되는 복수개의 부호화 단위들(620a, 620b, 620c) 중, 소정의 정보(예를 들면, 분할 형태 모드 정보)가 획득될 수 있는 샘플이 포함된 부호화 단위(620b)를 결정하여 소정의 제한을 둘 수 있다. 도 6을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(640)이 포함되는 부호화 단위(620b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(620b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(600)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계를 포함하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 분할 형태 모드 정보를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 모드 정보를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 분할 형태 모드 정보를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 5를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7는 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정하거나 제1 부호화 단위(700)를 수평 방향으로 분할하여 제2 부호화 단위(730a, 730b)를 결정하거나 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(750a, 750b, 750c, 750d)를 결정할 수 있다.
도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(710a, 710b)를 수평 방향(710c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(730a, 730b)의 처리 순서를 수직 방향(730c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(750a, 750b, 750c, 750d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(750e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 분할하여 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 분할하는 방법은 제1 부호화 단위(700)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 7를 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정할 수 있고, 나아가 제2 부호화 단위(710a, 710b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)를 수평 방향으로 분할하여 제3 부호화 단위(720a, 720b)로 분할할 수 있고, 우측의 제2 부호화 단위(710b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)가 분할되어 결정된 제3 부호화 단위(720a, 720b)가 처리되는 순서를 우측의 제2 부호화 단위(710b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(710a)가 수평 방향으로 분할되어 제3 부호화 단위(720a, 720b)가 결정되었으므로 제3 부호화 단위(720a, 720b)는 수직 방향(720c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(710a) 및 우측의 제2 부호화 단위(710b)가 처리되는 순서는 수평 방향(710c)에 해당하므로, 좌측의 제2 부호화 단위(710a)에 포함되는 제3 부호화 단위(720a, 720b)가 수직 방향(720c)으로 처리된 후에 우측 부호화 단위(710b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 8는 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 분할 형태 모드 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 8를 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(820a, 820b, 820c, 820d, 820e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 8를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(800)를 재귀적으로 분할하여 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(800), 제2 부호화 단위(810a, 810b) 또는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(810a, 810b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할될 수 있다. 제1 부호화 단위(800)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(830))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(810b)가 홀수개로 분할되어 결정된 제3 부호화 단위(820c, 820d, 820e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(800)에 포함되는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)의 경계에 따라 제2 부호화 단위(810a, 810b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(810a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(820a, 820b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(810b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(820c, 820d, 820e)들의 경계가 우측 제2 부호화 단위(810b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(820c, 820d, 820e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(810b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 9은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9을 참조하면, 제1 부호화 단위(900)는 정사각형이고 분할 형태 모드 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 모드 정보가 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(900)에 포함되는 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)의 경계에 따라 제1 부호화 단위(900)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 9를 참조하면 정사각형 형태의 제1 부호화 단위(900)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(910a, 910b, 910c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(900)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(920a, 920b, 920c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(900)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 9을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900), 비-정사각형 형태의 제1 부호화 단위(930 또는 950)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 분할 형태 모드 정보에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 분할 형태 모드 정보에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 모드 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 모드 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 모드 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1126a, 1126b, 1126a, 1126b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태가 정사각형이고, 분할 형태 모드 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 분할 형태 모드 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 11과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216b, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/4배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/2배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/4배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(1322)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1322)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/4배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1322)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/4배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 모드 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 모드 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a, 1424b, 1424c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 모드 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 모드 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 분할 형태 모드 정보를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 모드 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 분할 형태 모드 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 타일(tile), 타일 그룹(tile group), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1502)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(110)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 모드 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 분할 형태 모드 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header), 타일 헤더(tile header), 타일 그룹 헤더(tile group header)에 포함된 분할 형태 모드 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 모드 정보에 대응하는 신택스 엘리먼트를 비트스트림으로부터 획득하여 이용할 수 있다.
이하 본 개시의 일 실시예에 따른 분할 규칙을 결정하는 방법에 대하여 자세히 설명한다.
영상 복호화 장치(100)는 영상의 분할 규칙을 결정할 수 있다. 분할 규칙은 영상 복호화 장치(100) 및 영상 부호화 장치(2200) 사이에 미리 결정되어 있을 수 있다. 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여 영상의 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header), 타일 헤더(tile header), 타일 그룹 헤더(tile group header) 중 적어도 하나로부터 획득된 정보에 기초하여 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 프레임, 슬라이스, 타일, 템포럴 레이어(Temporal layer), 최대 부호화 단위 또는 부호화 단위에 따라 다르게 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 수 있다. 블록 형태는 부호화 단위의 크기, 모양, 너비 및 높이의 비율, 방향을 포함할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 것을 미리 결정할 수 있다. 하지만 이에 한정되는 것은 아니다. 영상 복호화 장치(100)는 수신된 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 정사각형으로 결정할 수 있다. 또한, . 부호화 단위의 너비 및 높이의 길이가 같지 않은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 크기는 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ... , 256x256의 다양한 크기를 포함할 수 있다. 부호화 단위의 크기는 부호화 단위의 긴변의 길이, 짧은 변의 길이 또는 넓이에 따라 분류될 수 있다. 영상 복호화 장치(100)는 동일한 그룹으로 분류된 부호화 단위에 동일한 분할 규칙을 적용할 수 있다. 예를 들어 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위를 동일한 크기로 분류할 수 있다. 또한 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위에 대하여 동일한 분할 규칙을 적용할 수 있다.
부호화 단위의 너비 및 높이의 비율은 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 32:1 또는 1:32 등을 포함할 수 있다. 또한, 부호화 단위의 방향은 수평 방향 및 수직 방향을 포함할 수 있다. 수평 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 긴 경우를 나타낼 수 있다. 수직 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 짧은 경우를 나타낼 수 있다.
영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 허용가능한 분할 형태 모드를 다르게 결정할 수 있다. 예를 들어, 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할이 허용되는지 여부를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 분할 방향을 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 허용가능한 분할 타입을 결정할 수 있다.
부호화 단위의 크기에 기초하여 분할 규칙을 결정하는 것은 영상 복호화 장치(100) 사이에 미리 결정된 분할 규칙일 수 있다. 또한, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위가 영상에서 차지하는 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다.
또한, 영상 복호화 장치(100)는 서로 다른 분할 경로로 생성된 부호화 단위가 동일한 블록 형태를 가지지 않도록 분할 규칙을 결정할 수 있다. 다만 이에 한정되는 것은 아니며 서로 다른 분할 경로로 생성된 부호화 단위는 동일한 블록 형태를 가질 수 있다. 서로 다른 분할 경로로 생성된 부호화 단위들은 서로 다른 복호화 처리 순서를 가질 수 있다. 복호화 처리 순서에 대해서는 도 12와 함께 설명하였으므로 자세한 설명은 생략한다.
도 16는 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
영상 부호화 및 복호화 시스템(1600)의 부호화기(1610)은 영상의 부호화된 비트스트림을 전송하고, 복호화기(1650)은 비트스트림을 수신하여 복호화함으로써 복원 영상을 출력한다. 여기서 복호화기(1650)은 영상 복호화 장치(100)에 유사한 구성일 수 있다.
부호화단(1610)에서, 인터 예측 부호화부(1605)는 현재 블록의 예측 모드가 인터 예측 모드인 경우 현재 픽처에 시간적으로 인접하는 참조 픽쳐의 참조 블록을 가리키는 현재 블록의 움직임 정보를 생성한다. 인터 예측 부호화부(1605)는 참조 블록들의 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있다. 인트라 예측 부호화부(1610)는 현재 블록에 공간적으로 인접하는 이웃 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있도록, 현재 블록과 유사한 이웃 샘플들이 위치하는 방향 또는 예측 샘플들을 결정하는 방식을 나타내는 인트라 예측 정보를 결정할 수 있다. 인터 예측 부호화부(1605) 및 인트라 예측 부호화부(1610)는 DPB(Decoded Pictur Buffer)(1648)에 저장되어 있는 먼저 복원된 샘플들 중에서, 현재 블록의 예측을 위해 이용할 참조 샘플들을 결정할 수 있다.
변환부(1620)는 현재 블록의 원본 샘플로부터 인터 예측 부호화부(1605) 또는 인트라 예측 부호화부(1610)에 의해 생성된 예측 샘플들을 뺀 레지듀얼 샘플값들에 대해 변환을 수행하여, 변환 계수들을 출력한다. 변환부(1620)로부터 출력된 변환 계수들을 양자화부(1625)가 양자화하여 양자화된 변환 계수들을 출력한다. 엔트로피 부호화부(1630)는 양자화된 변환계수를 레벨값을 포함하는 레지듀얼 신택스 엘리먼트들로 부호화하여 비트스트림의 형태로 출력할 수 있다.
양자화부(1625)에서 출력된 양자화된 변환 계수들은 역양자화부(1633) 및 역변환부(1635)를 통해 역양자화 및 역변환되어 다시 레지듀얼 샘플값들이 생성될 수 있다.
가산기(1615)에서 레지듀얼 샘플값들과 예측 샘플값들이 합쳐져 복원 샘플값이 출력된다. 복원후 필터링부(1640)는 복원 샘플들에 대해 복원후 필터링을 수행하며, 복원후 필터링을 통해 갱신된 복원 샘플값들은 인트라 예측부(1610)에서 수행될 인트라 예측을 위한 참조 샘플값들로써 이용될 수 있다. 복원후 필터링부(1640)는 복원 샘플값들에 대해 하다마드 변환 영역 필터링 또는 바이래터럴 필터링을 수행할 수 있다.
인루프 필터링부(1645)는 복원후 필터링을 통해 갱신된 복원 샘플들에 대해 디블로킹 필터링 및 적응적 루프 필터링 중 적어도 하나를 수행할 수 있다. 인루프 필터링부(1645)의 필터링을 통해 갱신된 복원 샘플값들은 DPB(1648)에 저장될 수 있으며, 인터 예측부(1605)에서 수행될 인터 예측을 위한 참조 샘플값들로써 이용될 수 있다.
복호화기(1650)의 엔트로피 복호화부(1655)는 수신된 비트스트림에 대해은 엔트로피 복호화를 수행하여 레벨값을 포함하는 레지듀얼 신택스 엘리먼트들을 파싱할 수 있다. 레지듀얼 신택스 엘리먼트들로부터 양자화된 변환 계수들을 복원할 수 있다. 역양자화부(1660)는 양자화된 변환 계수들에 대해 역양자화를 수행하여 변환 계수들을 출력하고, 역변환부(1665)는 변환 계수들에 대해 역변환을 수행하여 레지듀얼 샘플값들을 출력할 수 있다.
복호화기(1650)의 인터 예측 부호화부(1670)는, 엔트로피 복호화부(1655)에서 파싱한 현재 블록의 움직임 정보를 이용하여 현재 픽처에 시간적으로 인접하는 참조 픽쳐를 결정하고, 참조 픽쳐 내의 참조 블록을 결정할 수 있다. 인터 예측 부호화부(1670)는 참조 블록들의 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있다. 복호화기(1650)의 인트라 예측 부호화부(1675)는, 엔트로피 복호화부(1655)에서 파싱한 현재 블록의 움직임 정보를 이용하여 인트라 예측 정보를 이용하여 현재 블록에 공간적으로 인접하는 참조 샘플들을 결정하고, 결정된 이웃 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있다. 인터 예측 부호화부(1670) 및 인트라 예측 부호화부(1675)는 DPB(Decoded Pictur Buffer)(1690)에 저장되어 있는 먼저 복원된 샘플들 중에서, 현재 블록의 예측을 위해 이용할 참조 샘플들을 결정할 수 있다.
복호화기(1650)의 가산기(1695)에서 레지듀얼 샘플값들과 예측 샘플값들을 합쳐져 현재 블록의 복원 샘플값을 출력한다. 복호화기(1650)의 복원후 필터링부(1680)는 복원 샘플값들에 대해 하다마드 변환 영역 필터링 또는 바이래터럴 필터링을 수행할 수 있다. 복원후 필터링부(1680)의 필터링을 통해 갱신된 복원 샘플값들은 인트라 예측부(1675)에서 수행될 인트라 예측을 위한 참조 샘플값들로써 이용될 수 있다.
복호화기(1650)의 인루프 필터링부(1685)는 복원후 필터링을 통해 갱신된 복원 샘플들에 대해 이용하여 디블로킹 필터링 및 적응적 루프 필터링 중 적어도 하나를 수행할 수 있다. 인루프 필터링부(1685)의 필터링을 통해 갱신된 복원 샘플값들은 DPB(1690)에 저장되며, 인터 예측부(1670)에서 수행될 인터 예측을 위한 참조 샘플값들로써 이용될 수 있다.
이하 도 17 내지 도 20를 참조하여, 일 실시예에 따른 움직임 벡터의 부호화 장치 및 방법, 및 움직임 벡터의 복호화 장치 및 방법이 제안된다.
이하, 움직임 정보 부호화 장치(10) 및 움직임 정보 부호화 방법은 전술한 비디오 부호화 장치(200) 및 방법에 포함할 수 있다. 또한, 움직임 정보 복호화 장치(30) 및 움직임 정보 복호화 방법은 전술한 비디오 복호화 장치(100) 및 방법에 포함될 수 있다.
도 17은 일 실시예에 따른 움직임 정보 부호화 장치(10)의 구성을 나타내는 블록도이다.
비디오 부호화 과정 중 인터 예측(inter prediction)은 현재 영상과 다른 영상 간의 유사성을 이용하는 예측 방법을 의미한다. 현재 영상보다 먼저 부호화된 참조 영상 중에서, 현재 영상의 현재 블록과 유사한 참조 블록이 검출되고, 현재 블록과 참조 블록 사이의 좌표상의 거리가 움직임 벡터로 표현된다. 또한, 현재 블록과 참조 블록 간의 픽셀 값들의 차이가 잔차(Residual) 데이터로 표현될 수 있다. 따라서, 현재 블록에 대한 인터 예측에 의해, 현재 블록의 영상 정보를 직접 출력하는 대신에, 참조 영상을 가리키는 인덱스, 움직임 벡터 및 잔차 데이터를 출력하여 부호화의 효율을 향상시킬 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 비디오의 각 영상의 블록 별 인터 예측을 위해 사용되는 움직임 벡터를 부호화할 수 있다.
블록의 타입은 정사각형 또는 직사각형일 수 있으며, 임의의 기하학적 형태일 수도 있다. 일 실시예에 따른 블록은 일정한 크기의 데이터 단위로 제한되는 것은 아니며, 트리 구조에 따른 부호화 단위들 중에서는, 최대 부호화 단위, 부호화 단위, 예측 단위, 변환 단위 등을 포함할 수 있다.
트리 구조에 따른 부호화 단위들에 기초한 비디오의 부호화 및 복호화 방식은, 앞서 도 1 내지 도 16를 참조하여 상술한 바에 따른다.
도 17에 도시된 바와 같이, 일 실시예에 따른 움직임 정보 부호화 장치(10)는 예측 부호화부(11) 및 생성부(13)를 포함할 수 있다. 전술한 바와 같이, 움직임 정보 부호화 장치(10)는 도 1에 도시된 비디오 부호화 장치(200)에 포함될 수 있는데, 예측 부호화부(11)는 비디오 부호화 장치(200)의 부호화부(220)에 포함될 수 있고, 생성부(13)는 비디오 부호화 장치(200)의 비트스트림 생성부(210)에 포함될 수 있다.
움직임 정보 부호화 장치(10)는 픽처로부터 분할된 블록 단위로 인터 예측을 수행하여 움직임 벡터의 부호화를 수행할 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 부호화 단위(coding unit) 또는 부호화 단위로부터 분할된 서브블록에 해당하는 현재 블록에 대해, 움직임 추정(Motion estimation)을 통해 참조 영상에서 현재 블록과 가장 유사한 예측 블록을 검색하고, 현재 블록과 예측 블록간의 거리를 나타내는 움직임 벡터를 결정할 수 있다. 예를 들어, 현재 블록의 움직임 벡터는 x축으로의 거리 정보, y축으로의 거리 정보를 포함할 수 있다.
일 실시예에서, 예측 부호화부(11)는 적어도 하나의 후보 움직임 벡터 해상도(Candidate Of Motion Vector Resolution) 중 하나의 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도(Motion Vector Resolution)로 선택하고, 선택된 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터를 결정할 수 있다. 예측 부호화부(11)는 적어도 하나의 후보 블록(candidate block) 중 상기 선택된 현재 블록의 움직임 벡터 해상도에 매핑된 후보 블록의 움직임 벡터를 현재 블록의 움직임 벡터 프리딕터가 되도록 결정할 수 있다.
일 실시예에서, 예측 부호화부(11)는 적어도 하나의 후보 블록 중 현재 블록에 대한 하나의 후보 블록을 선택하고, 적어도 하나의 후보 움직임 벡터 해상도 중 상기 선택된 후보 블록에 매핑된 하나의 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도가 되도록 결정할 수 있다.
일 실시예에서, 움직임 정보 부호화 장치(10)에는 적어도 하나의 후보 움직임 벡터 해상도와 적어도 하나의 후보 블록의 1:1 매핑 관계 또는 대응 관계가 미리 설정될 수 있다. 적어도 하나의 후보 움직임 벡터 해상도와 적어도 하나의 후보 블록이 1:1로 매핑되었다는 것은, 적어도 하나의 후보 움직임 벡터 해상도 중 어느 하나의 후보 움직임 벡터 해상도가 현재 블록의 움직임 벡터 해상도로 결정되면 그에 따라 현재 블록의 움직임 벡터 프리딕터로 이용될 어느 하나의 후보 블록의 위치가 결정되고, 반대로, 적어도 하나의 후보 블록 중 현재 블록의 움직임 벡터 프리딕터로 이용될 어느 하나의 후보 블록이 결정되면, 그에 따라 어느 하나의 후보 움직임 벡터 해상도가 현재 블록의 움직임 벡터 해상도로 결정된다는 것을 의미할 수 있다. 즉, 본 개시에 따른 일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도 각각에는 후보 블록들이 하나씩 할당되는 것으로 볼 수 있다.
상기 적어도 하나의 후보 움직임 벡터 해상도는 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2 화소 단위의 움직임 벡터 해상도, 4 화소 단위의 움직임 벡터 해상도움직임 벡터 해상도 및 8 화소 단위의 움직임 벡터 해상도 중 적어도 하나를 포함할 수 있다. 그러나, 후보 움직임 벡터 해상도는 상기 예시에 한정되는 것은 아니며, 다양한 값의 화소 단위의 움직임 벡터 해상도들이 후보 움직임 벡터 해상도에 포함될 수 있다.
본 명세서에서, 제 1 움직임 벡터 해상도가 제 2 움직임 벡터 해상도 보다 낮다는 것은 제 1 움직임 벡터 해상도의 화소 단위가 제 2 움직임 벡터 해상도의 화소 단위보다 크다는 것을 의미한다. 움직임 벡터 해상도의 화소 단위가 작을수록 미세한 움직임 예측이 가능하다. 예를 들어, 1 화소 단위의 움직임 벡터 해상도는 1/2 화소 단위의 움직임 벡터 해상도보다 낮고, 1/2 화소 단위의 움직임 벡터 해상도는 1/4 화소 단위의 움직임 벡터 해상도보다 낮다. 실제적으로, 1/4 화소 단위의 움직임 벡터 해상도로 움직임 벡터를 결정한 경우가 1 화소 단위의 움직임 벡터 해상도로 움직임 벡터를 결정한 경우에 비해, 보다 정밀하게 예측이 가능하다. 즉, 움직임 벡터 해상도의 화소 단위가 작을수록, 즉 해상도가 높을수록 더 미세한 움직임 예측이 가능하다. 반대로 움직임 벡터 해상도가 낮을수록 덜 미세한 움직임 예측만이 가능하다. 본 명세서에서는 설명의 편의를 위해 각 움직임 벡터 해상도의 화소 단위의 크기를 기준으로 각 움직임 벡터 해상도의 높낮이 차이를 설명한다.
상기 적어도 하나의 후보 블록은, 현재 블록과 연관된 공간적 블록과 시간적 블록을 포함한 블록들 중에서 선택될 수 있다. 현재 블록과 연관된 공간적 블록은 현재 블록과 공간적으로 인접한 블록을 적어도 하나 포함할 수 있다. 시간적 블록은 현재 블록의 POC(Picture Order Count)와 다른 POC를 갖는 참조 영상 내에서 현재 블록과 동일한 지점에 위치한 블록과, 동일 위치의 블록에 대해 공간적으로 인접한 블록을 적어도 하나 포함할 수 있다.
일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도가 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2화소 단위의 움직임 벡터 해상도 및 4 화소 단위의 움직임 벡터 해상도를 포함하고, 적어도 하나의 후보 블록이 좌측 블록, 상부 블록, 우측 상부 블록, 좌측 상부 블록 및 좌측 하부 블록을 포함할 때, (1/4 화소 단위의 움직임 벡터 해상도 - 좌측 블록), (1/2 화소 단위의 움직임 벡터 해상도 - 상부 블록), (1 화소 단위의 움직임 벡터 해상도 - 우측 상부 블록), (2 화소 단위의 움직임 벡터 해상도 - 좌측 상부 블록), (4 화소 단위의 움직임 벡터 해상도 - 좌측 하부 블록)의 매핑 관계 또는 대응 관계가 움직임 정보 부호화 장치(10)에 설정될 수 있다. 이에 의하면, 예측 부호화부(11)는 현재 블록의 움직임 벡터 해상도로서 1/4 화소 단위의 움직임 벡터 해상도를 선택하면, 그에 따라 좌측 블록의 움직임 벡터를 현재 블록의 움직임 벡터 프리딕터로 이용할 수 있다. 또한, 예측 부호화부(11)는 현재 블록의 움직임 벡터 프리딕터로서 상부 블록을 선택한 경우, 그에 따라 현재 블록의 움직임 벡터 해상도로 1/2 화소 단위의 움직임 벡터 해상도를 결정할 수 있다.
일 실시예에서, 예측 부호화부(11)는 적어도 하나의 후보 움직임 벡터 해상도 중 어느 하나의 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도가 되도록 결정하고, 현재 블록의 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터를 결정할 수 있다.
예측 부호화부(11)는 현재 블록의 움직임 벡터를 결정하기 위해, 적어도 하나의 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도로 참조 영상을 보간(interpolation)할 수 있다.
일 실시예에서, 예측 부호화부(11)는 적어도 하나의 후보 움직임 벡터 해상도 중 가장 작은 화소 단위의 후보 움직임 벡터 해상도(즉, 최소 움직임 벡터 해상도)이 1/n 화소 단위 (상기 n은 자연수)를 가질 때, 움직임 추정을 위해 예측 부호화부(11)는 참조 영상의 정수 화소로부터 1/n 화소 단위의 부화소 픽셀을 생성할 수 있고, 현재 블록의 움직임 벡터 해상도에 따라 최대 1/n 화소 단위의 부화소 픽셀을 가리키는 현재 블록의 움직임 벡터를 결정할 수 있다.
현재 영상의 특성에 따라 언제나 작은 화소 단위의 움직임 벡터 해상도로 움직임 벡터를 결정하는 것이 높은 화소 단위의 움직임 벡터 해상도로 움직임 벡터를 결정하는 것보다 비효율적일 수 있다. 작은 화소 단위의 움직임 벡터 해상도로 움직임 벡터를 결정한 경우, 움직임 벡터(또는 잔차 움직임 벡터)의 크기를 표현하는데 있어 큰 화소 단위의 움직임 벡터 해상도로 움직임 벡터를 결정하는 것보다 보다 많은 비트량을 필요로 하며 이는 비트레이트 측면에서 비효율적일 수 있다. 따라서, 예를 들어, 영상의 해상도에 따라 적응적으로 움직임 벡터 해상도를 결정하여 비트레이트를 감소시키는 동시에 복원 영상의 퀄리티 저감을 최소화할 수 있다.
일 실시예에 따른 예측 부호화부(11)는 현재 블록의 움직임 벡터 해상도를 적응적으로 결정하고, 결정된 움직임 벡터 해상도의 화소 단위로 움직임 벡터를 결정할 수 있다. 예를 들어, 현재 블록의 움직임 벡터 해상도의 화소 단위가 1/2인 경우, 예측 부호화부(11)는 최소 움직임 벡터 해상도에 따라 보간된 참조 영상에서 1/2 화소 단위의 픽셀을 가리키는 움직임 벡터를 결정할 수 있다.
일 실시예에 따른 예측 부호화부(11)는, 후보 블록들의 움직임 벡터를 그대로 현재 블록의 움직임 벡터 프리딕터로 이용하거나, 후보 블록들의 움직임 벡터를 변경하여 현재 블록의 움직임 벡터 프리딕터로 이용할 수 있다.
일 실시예에서, 예측 부호화부(11)는 지원 가능한 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도의 차이에 기초하여 현재 블록에 대한 후보 블록의 움직임 벡터를 조정한 후, 조정된 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 결정할 수 있다.
후보 블록의 움직임 벡터는 최소 움직임 벡터 해상도에 따라 보간된 영상 내의 화소 좌표를 가리키도록 예측된 것이므로, 현재 블록의 움직임 벡터 해상도에 대응시키기 위해 후보 블록의 움직임 벡터를 조정하는 것이다. 또한, 후보 블록의 움직임 벡터를 조정하는 것은 후술하는 바와 같이, 잔차 움직임 벡터가 정수 단위로 표현되도록 하기 위함이다.
예를 들어, 현재 블록의 움직임 벡터 해상도가 1 화소 단위라면, 현재 블록의 움직임 벡터는 최소 움직임 벡터 해상도에 따라 보간된 영상 내에서 1 화소 단위의 화소를 가리키도록 결정되어야 한다. 그러나, 후보 블록의 움직임 벡터가 1 화소 단위의 화소를 가리키지 않는 경우, 1 화소 단위의 화소를 가리키도록 후보 블록의 움직임 벡터를 조정하는 것이다.
후보 블록의 움직임 벡터를 조정하는 방법에 대해서는 도 25 및 도 26를 참조하여 후술한다.
예측 부호화부(11)는 적어도 하나의 후보 움직임 벡터 해상도 각각에 매핑된 후보 블록들의 움직임 벡터를 움직임 벡터 프리딕터로 이용하여, 각각의 후보 움직임 벡터 해상도로 현재 블록의 움직임 벡터를 결정하고, 코스트에 기초하여 적어도 하나의 후보 움직임 벡터 해상도 중 하나를 결정한다. 코스트 계산시 율-왜곡 비용(rate-distortion cost)이 이용될 수 있다.
현재 블록의 움직임 벡터를 결정하기 위하여, 예측 부호화부(11)는 각 후보 움직임 벡터 해상도에 할당된 후보 블록의 움직임 벡터(또는 조정된 움직임 벡터)를 이용하여, 참조 영상 내의 탐색 시작 위치를 결정하고, 각 후보 움직임 벡터 해상도에 따라 최적의 참조 블록을 탐색하여 각 후보 움직임 벡터 해상도 에 따른 현재 블록의 움직임 벡터를 결정할 수 있다. 일 예로서, 예측 부호화부(11)는 첫 번째로 탐색 시작 위치 주변에 대해 5개 화소들의 탐색 범위로 박스 서치(box search)를 수행할 수 있다. 그리고, 두 번째로 다양한 스텝 사이즈로 다이아몬드 서치(diamond search)를 수행할 수 있다. 그리고, 선택적으로 래스터 서치(raster)가 수행되어 최적의 위치가 결정될 수 있다.
예측 부호화부(11)는 각 후보 움직임 벡터 해상도에 따라 결정된 현재 블록의 움직임 벡터와 각 후보 움직임 벡터 해상도에 할당된 후보 블록의 움직임 벡터의 차이값에 기초한 율-왜곡 비용을 비교하여 최소 비용을 갖는 후보 움직임 벡터 해상도 및 후보 블록을 현재 블록의 움직임 벡터 해상도 및 현재 블록의 움직임 벡터 프리딕터를 위한 후보 블록으로 결정할 수 있다.
일 예로서, 예측 부호화부(11)는 적어도 하나의 후보 움직임 벡터 해상도로서, 좌측 블록에 매핑된 1/4 화소 단위의 움직임 벡터 해상도, 상부 블록에 매핑된 1/2 화소 단위의 움직임 벡터 해상도 및 상부 우측 블록에 매핑된 1 화소 단위의 움직임 벡터 해상도를 포함하는 경우, 좌측 블록의 움직임 벡터를 이용하여 최고 움직임 벡터 해상도인 1/4 화소 단위 움직임 벡터 해상도에 따라 보간된 참조 영상에서 1/4 화소 단위로 현재 블록의 움직임 벡터를 결정하고, 상부 블록의 움직임 벡터를 이용하여 1/4 화소 단위 움직임 벡터 해상도에 따라 보간된 참조 영상에서 1/2 화소 단위로 현재 블록의 움직임 벡터를 결정하고, 상부 우측 블록의 움직임 벡터를 이용하여 1/4 화소 단위 움직임 벡터 해상도에 따라 보간된 참조 영상에서 1 화소 단위로 현재 블록의 움직임 벡터를 결정할 수 있다. 그리고, 예측 부호화부(11)는 코스트에 기초하여 선택된 어느 하나의 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도로 결정할 수 있다.
일 실시예에서, 현재 블록에 대한 후보 움직임 벡터 해상도들 각각에 매핑된 후보 블록 중 일부의 후보 블록에 움직임 벡터가 존재하지 않는 경우, 예측 부호화부(11)는 움직임 벡터가 존재하지 않는 후보 블록을 제외시키고, 움직임 벡터를 갖는 다른 블록을 후보 블록으로 이용할 수 있다. 이 경우, 후보 블록으로 새롭게 이용되는 다른 블록은 후보 움직임 벡터 해상도들 각각에 매핑된 후보 블록들 이외의 블록을 포함할 수 있다. 그리고, 예측 부호화부(11)는 후보 움직임 벡터 해상도에 따라 결정되는 상기 다른 블록의 움직임 벡터를 현재 블록의 움직임 벡터 프리딕터로 이용할 수 있다. 만약, 어떠한 블록이 인트라(intra) 예측된 경우, 인트라 예측된 블록은 움직임 벡터를 갖지 않는 블록인 것으로 판단될 수 있다.
일 예로서, 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도가, 좌측 블록에 매핑된 1/4 화소 단위의 움직임 벡터 해상도, 상부 블록에 매핑된 1/2 화소 단위의 움직임 벡터 해상도 및 상부 우측 블록에 매핑된 1 화소 단위의 움직임 벡터 해상도를 포함하되, 상부 우측 블록에 움직임 벡터가 존재하지 않는 경우를 가정하면, 예측 부호화부(11)는 후보 블록을 제외한 다른 블록, 예를 들어, 상부 좌측 블록에 1 화소 단위의 움직임 벡터 해상도를 매핑시킬 수 있다.
일 실시예에서, 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 일부의 후보 블록에 움직임 벡터가 존재하지 않을 경우, 새롭게 매핑될 블록들의 위치 및 매핑 우선 순위는 미리 결정되어 있을 수 있다.
또한, 일 실시예에서, 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 일부의 후보 블록에 움직임 벡터가 존재하지 않는 경우, 예측 부호화부(11)는 임의의 움직임 벡터(예를 들어, 제로 벡터)를 상기 일부의 후보 블록의 움직임 벡터로 이용할 수도 있다.
또한, 일 실시예에서, 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 서로 동일한 움직임 벡터를 갖는 후보 블록이 존재하는 경우, 서로 동일한 움직임 벡터를 갖는 후보 블록들 중 일부를, 기 매핑된 상기 적어도 하나의 후보 블록을 제외한 다른 블록으로 대체할 수도 있다. 예를 들어, 1/4 화소 단위 움직임 벡터 해상도에 매핑된 좌측 블록의 움직임 벡터와, 1/2 화소 단위 움직임 벡터 해상도에 매핑된 상부 블록의 움직임 벡터가 동일한 경우, 예측 부호화부(11)는 좌측 블록과 상부 블록 중 어느 하나의 블록(예를 들어, 상부 블록)을 다른 블록(예를 들어, 상부 좌측 블록)으로 대체하여 후보 움직임 벡터 해상도(예를 들어, 1/2 화소 해상도)에 매핑시킬 수 있다.
일 실시예에서, 두 개 이상의 후보 블록의 움직임 벡터의 동일 여부는, 후술하는 바와 같이, 후보 블록의 움직임 벡터의 조정이 완료된 이후 조정된 움직임 벡터 사이의 비교를 통해 판단될 수도 있다.
동일한 움직임 벡터를 갖는 후보 블록들이 복수일 때, 복수의 후보 블록 중 어느 후보 블록을 다른 블록으로 대체할지를 나타내는 우선 순위와, 새롭게 매핑될 블록들의 종류 및 우선 순위는 미리 결정되어 있을 수 있다.
일 실시예에서, 현재 블록의 후보 블록 및 움직임 벡터가 결정되면, 예측 부호화부(11)는 현재 블록의 움직임 벡터와 움직임 벡터 프리딕터 사이의 잔차 움직임 벡터를 결정할 수 있다.
생성부(13)는 현재 블록의 움직임 벡터 해상도를 나타내는 정보 및 현재 블록의 움직임 벡터 프리딕터로 이용된 후보 블록을 나타내는 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있다. 전술한 바와 같이, 후보 움직임 벡터 해상도와 후보 블록은 1:1 매핑 관계를 가지므로, 현재 블록의 움직임 벡터 해상도가 결정되면 그에 따라 후보 블록의 위치가 결정될 수 있으며, 반대의 경우 후보 블록이 결정되면 그에 따라 현재 블록의 움직임 벡터 해상도가 결정될 수 있다. 따라서, 생성부(13)는 현재 블록의 움직임 벡터 해상도에 대한 정보나 후보 블록을 특정하기 위한 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있는 것이다.
생성부(13)는 현재 블록의 움직임 벡터 해상도를 나타내는 정보 및 현재 블록의 움직임 벡터 프리딕터로 이용된 후보 블록을 나타내는 정보 중 적어도 하나로서, 현재 블록의 움직임 벡터 해상도를 가리키는 인덱스를 비트스트림에 포함시킬 수 있다.
일 실시예에서, 현재 블록에 대해 지원 가능한 후보 움직임 벡터 해상도 각각에 대해 유너리(UNARY) 방식으로 인덱스가 할당되고, 예측 부호화부(11)에 의해 어느 하나의 인덱스가 선택되면, 생성부(13)는 선택된 인덱스를 포함하는 비트스트림을 생성할 수 있다. 일 예로서, 지원 가능한 후보 움직임 벡터 해상도가 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2 화소 단위의 움직임 벡터 해상도, 4 화소 단위의 움직임 벡터 해상도, 8 화소 단위의 움직임 벡터 해상도를 포함할 때, 1/4 화소 단위의 움직임 벡터 해상도에 대해서는 0, 1/2 화소 단위의 움직임 벡터 해상도에 대해서는 10, 1 화소 단위의 움직임 벡터 해상도에 대해서는 110, 2 화소 단위의 움직임 벡터 해상도에 대해서는 1110, 4 화소 단위의 움직임 벡터 해상도에 대해서는 11110, 8 화소 단위의 움직임 벡터 해상도에 대해서는 11111의 인덱스로 표현될 수 있다.
일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도 각각에 매핑된 적어도 하나의 후보 블록 각각에 대해 유너리(UNARY) 방식으로 인덱스가 할당되고, 예측 부호화부(11)에 의해 어느 하나의 인덱스가 선택되면, 생성부(13)는 선택된 인덱스를 포함하는 비트스트림을 생성할 수 있다. 일 예로서, 적어도 하나의 후보 블록이 좌측 블록, 상부 블록, 좌측 상부 블록, 좌측 하부 블록, 상부 좌측 블록 및 상부 우측 블록을 포함할 때, 좌측 블록에 대해서는 0, 상부 블록에 대해서는 10, 좌측 상부 블록에 대해서는 110, 좌측 하부 블록에 대해서는 1110, 상부 좌측 블록에 대해서는 11110, 상부 우측 블록에 대해서는 11111의 인덱스로 표현될 수 있다.
일 실시예에서, 현재 블록에 대해 지원 가능한 후보 움직임 벡터 해상도가 하나인 경우, 예측 부호화부(11)는 현재 블록의 움직임 벡터 해상도 및 후보 블록을 나타내는 정보의 생성을 생략한다. 이에 따라, 생성부(13)에 의해 생성된 비트스트림에는 현재 블록의 움직임 벡터 해상도 및 후보 블록을 나타내는 정보가 포함되지 않을 수 있다.
일 실시예에서, 현재 블록에 대해 지원 가능한 후보 움직임 벡터 해상도가 두 개 이상인 경우, 예측 부호화부(11)는 현재 블록의 움직임 벡터 해상도 및 후보 블록을 나타내는 정보 중 적어도 하나를 플래그(flag) 혹은 인덱스(index)로 생성할 수도 있다.
일 실시예에서, 예측 부호화부(11)는 현재 블록의 움직임 벡터와 움직임 벡터 프리딕터의 차이인 잔차 움직임 벡터를 다운스케일(down-scale)할 수 있다.
일 예로서, 예측 부호화부(11)는 현재 블록의 움직임 벡터 해상도가 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도보다 큰 경우, 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도의 차이에 기초하여 잔차 움직임 벡터를 다운스케일할 수 있다. 예를 들어, 최소 움직임 벡터 해상도가 1/4 화소 단위를 갖고, 현재 블록의 움직임 벡터 해상도가 1/2 화소 단위를 갖는 경우, 예측 부호화부(11)는 잔차 움직임 벡터를 1/2만큼 다운스케일할 수 있다.
일 실시예에서 현재 블록에 대해 적응적으로 선택되는 움직임 벡터 해상도에 따라 잔차 움직임 벡터를 적응적 또는 선택적으로 다운스케일하므로, 보다 적은 양의 비트를 이용하여 현재 블록의 움직임 벡터를 부호화할 수 있다.
일 실시예에 따른 예측 부호화부(11)는, 현재 블록에 인터 예측을 수행하여, 현재 블록의 참조 블록을 결정함으로써, 현재 블록의 움직임 벡터, 참조 픽쳐 및 예측 방향을 결정할 수 있다.
예측 부호화부(11)는, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC (Picture Order Count) 거리 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정할 수 있다.
일 실시예에 따른 생성부(13)는, 예측 부호화부(11)에서 결정된 움직임 벡터 해상도 세트 중에서 현재 블록의 인터 예측을 위해 이용된 움직임 벡터 해상도를 가리키는 해상도 인덱스를 생성할 수 있다. 생성된 인덱스는 소정 방식을 통해 이진화된 후 양자화되어 비트스트림에 포함될 수 있다. 이하 도 18을 참조하여 예측 부호화부(11)가 움직임 벡터 해상도 세트를 결정하고, 생성부(13)가 해상도 인덱스를 생성하는 방법을 상술한다.
도 18는 일 실시예에 따른 움직임 정보 부호화 방법을 설명하기 위한 순서도이다.
S181 단계에서, 예측 부호화부(11)는 현재 블록에 인터 예측을 수행하여 현재 블록의 움직임 벡터, 참조 픽쳐 및 예측 방향을 결정할 수 있다.
S183 단계에서, 일 실시예에 따른 예측 부호화부(13)는, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC (Picture Order Count) 거리 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정할 수 있다.
일 실시예에 따른 선택가능한 전체 움직임 벡터 해상도들은, 1/4-화소단위, 1/2-화소단위, 1-화소단위, 2-화소단위 및 4-화소단위 중 적어도 하나일 수 있다.
일 실시예에 따른 예측 부호화부(11)는, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 또한, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작지 않을 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 이 때, 제1 움직임 벡터 해상도 세트와 제2 움직임 벡터 해상도 세트가 상이하고, 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 또한, 제1 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때, 상대적으로 더 움직임 벡터의 미세한 표현 능력이 필요하고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작지 않을 때, 움직임 벡터의 미세한 표현 능력의 필요성이 상대적으로 낮아진다. 따라서, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때 사용하기 위한 제1 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들은, 제2 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들에 비해 더 미세한 움직임 벡터를 표현할 수 있도록, 상대적으로 높을 필요가 있다.
다른 실시예에 따라, 예측 부호화부(11)는 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 클 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 또한, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 크거나 같고, 제2 소정 POC 거리보다 작거나 같을 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제3 움직임 벡터 해상도 세트를 결정할 수 있다. 이 때, 제1 움직임 벡터 해상도 세트, 제2 움직임 벡터 해상도 세트와 제3 움직임 벡터 해상도 세트가 상이할 수 있다. 제2 움직임 벡터 해상도 세트와 제3 움직임 벡터 해상도 세트 중 각 세트에 속하는 해상도들의 개수도 상이할 수 있다. 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 제1 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 제3 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 포함될 수 있다. 제2 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 제3 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 속할 수 있다. 움직임 벡터 해상도 세트의 정밀도 범위는, 움직임 벡터 해상도 세트에 속하는 가장 높은 해상도와 가장 낮은 해상도 사이의 범위를 의미한다.
구체적으로, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때 사용하기 위한 제1 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들은, 제2 움직임 벡터 해상도 세트, 제3 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들보다 상대적으로 높을 필요가 있다. 마찬가지로, 제3 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들은, 제2 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들보다 상대적으로 높을 필요가 있다. 따라서, 제3 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위는 제1 움직임 벡터 해상도 세트의 정밀도 범위와 2 움직임 벡터 해상도 세트의 정밀도 범위에 걸치도록 결정될 수 있다.
다른 예로, 예측 부호화부(11)는 현재 블록의 예측 방향에 따라 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측일 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측일 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트와 제2 움직임 벡터 해상도 세트가 상이하고, 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
구체적으로, 현재 블록의 예측 방향이 단방향 예측일 때 L0 방향 또는 L1 방향의 움직임 벡터를 이용하여 인터 예측을 수행하게 된다. 현재 블록의 예측 방향이 양방향 예측일 때, L0 방향의 움직임 벡터와 L1 방향의 움직임 벡터를 평균낸 움직임 벡터를 이용하여 인터 예측을 수행하게 된다. 따라서, 양방향 예측인 경우에 비해 단방향 예측인 경우에 움직임 벡터의 더 미세한 표현이 필요할 수 있다. 따라서, 현재 블록의 예측 방향이 단방향 예측일 때 사용될 제1 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들이, 제2 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들에 비해 높도록 설정할 수 있다.
또 다른 예로, 현재 블록의 예측 방향이 단방향 예측일 때, 예측 부호화부(11)는 선택가능한 제1 움직임 벡터 해상도 세트를 결정하고, 현재 블록의 예측 방향이 양방향 예측일 때, 제2 움직임 벡터 해상도 세트를 L0 움직임 벡터를 위해 결정하고, 제3 움직임 벡터 해상도 세트를 L1 움직임 벡터를 위해 결정할 수 있다. 제2 움직임 벡터 해상도 세트와 제3 움직임 벡터 해상도 세트는 상이할 수 있고, 제1 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들이 제2 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들과 제3 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들에 비해 높을 수 있다.
다른 실시예로, 예측 부호화부(11)는 현재 픽쳐 및 참조 픽처 간의 POC 거리와 현재 블록의 예측 방향을 모두 고려하여 움직임 벡터 해상도 세트를 결정할 수 있다.
예를 들어 현재 블록의 예측 방향이 단방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측이고, 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않을 때, 예측 부호화부(11)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트 및 제2 움직임 벡터 해상도 세트는 상이할 수 있다. 제1 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
예를 들어 현재 블록의 예측 방향이 단방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 예측 부호화부(11)는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측이고, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 상기 제2 소정 POC 거리보다 클 때, 예측 부호화부(11)는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측이고, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작지 않고 제2 소정 POC 거리보다 크지 않을 때, 제3 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트, 제2 움직임 벡터 해상도 세트 및 제3 움직임 벡터 해상도 세트는 상이할 수 있다. 제1 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2, 3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 제3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
예를 들어, 현재 블록의 예측 방향이 양방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작고, 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 예측 부호화부(11)는 L0 움직임 벡터 및 L1 움직임 벡터를 위한 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 크고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 클 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작지 않고 제2 소정 POC 거리보다 크지 않고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작지 않고 제2 소정 POC 거리보다 크지 않을 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제3 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2, 3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 제3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
다른 예로, 현재 블록의 예측 방향이 양방향 예측일 때, 예측 방향에 따른 현재 픽쳐와 참조 픽쳐 간의 POC 거리에 따라, 예측 방향별로 움직임 벡터 해상도 세트가 개별적으로 결정될 수 있다. 구체적으로, L0 예측을 위한 참조 픽쳐와 현재 픽쳐 간의 POC 거리가 소정 POC 거리보다 큰지 여부에 따라, L0 예측을 위해 제1 움직임 벡터 해상도 세트가 결정될 수 있다. L1 예측을 위한 참조 픽쳐와 현재 픽쳐 간의 POC 거리가 소정 POC 거리보다 큰지 여부에 따라, L1 예측을 위해 제2 움직임 벡터 해상도 세트가 결정될 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 L0 예측을 위한 제1 움직임 벡터 해상도 세트와 L1 예측을 위한 제2 움직임 벡터 해상도 세트가 상이하더라도, 하나의 해상도 인덱스를 생성할 수 있다. 즉, 제1 움직임 벡터 해상도 세트 중에서 하나의 해상도 인덱스가 가리키는 제1 움직임 벡터 해상도와, 제2 움직임 벡터 해상도 세트 중에서 하나의 해상도 인덱스가 가리키는 제2 움직임 벡터 해상도가 상이할 수 있다.
다른 예로, 움직임 정보 부호화 장치(10)는 L0 예측을 위한 제1 움직임 벡터 해상도 세트와 L1 예측을 위한 제2 움직임 벡터 해상도 세트가 상이한 경우, L0 예측을 위한 L0 해상도 인덱스와 L1 예측을 위한 L1 해상도 인덱스를 별도로 생성할 수 있다. 즉, 제1 움직임 벡터 해상도 세트 중에서 L0 해상도 인덱스가 가리키는 L0 예측을 위한 움직임 벡터 해상도와, 제2 움직임 벡터 해상도 세트 중에서 L1 해상도 인덱스가 가리키는 L1 예측을 위한 움직임 벡터 해상도가 개별적으로 결정될 수 있다.
예측 부호화부(11)는 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도 세트 중 하나의 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도로 결정하고, 적어도 하나의 후보 블록 중 상기 선택된 움직임 벡터 해상도에 매핑된 후보 블록을 현재 블록의 움직임 벡터 프리딕터를 위한 후보 블록으로 결정할 수 있다.
또는 움직임 벡터 해상도와 후보 블록 위치가 연동되어 있는 경우, 움직임 정보 부호화 장치(10)는 적어도 하나의 후보 블록을 포함하는 후보 블록 리스트 중 참조할 후보 블록을 선택하고, 선택된 후보 블록에 매핑된 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도로 결정할 수도 있다.
지원 가능한 적어도 하나의 후보 움직임 벡터 해상도는 적어도 하나의 후보 블록에 1:1로 매핑되어 있으며, 움직임 정보 부호화 장치(10)는 각각의 지원 가능한 후보 움직임 벡터 해상도 및 그에 매핑된 후보 블록의 움직임 벡터를 이용하여 각 후보 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터를 결정할 수 있다. 그리고, 움직임 정보 부호화 장치(10)는 코스트에 기초하여 선택된 어느 하나의 후보 움직임 벡터 해상도 및 후보 블록을 현재 블록의 움직임 벡터 해상도 및 현재 블록의 움직임 벡터 프리딕터를 위한 후보 블록으로 선택할 수 있다.
일 실시예에 따라, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터(predictor) 후보가 연동될 때, 예측 부호화부(11)는 현재 픽쳐와 참조 픽쳐 간의 POC 거리 및 현재 블록의 예측 방향에 따라 결정된 움직임 벡터 해상도 세트에 기초하여, 선택가능한 움직임 벡터 프리딕터 후보를 포함하는 프리딕터 후보 리스트를 결정할 수 있다.
일예로, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터 후보가 연동될 때, 현재 블록의 예측 방향 및 현재 픽쳐와 참조 픽쳐 간의 POC 거리 중 적어도 하나에 기초하여 결정된 움직임 벡터 해상도 세트 중 선택된 움직임 벡터 해상도를 가리키는 해상도 인덱스가, 움직임 벡터 프리딕터 후보를 가리킬 수도 있다. 즉, 움직임 벡터 프리딕터 후보 리스트 중에서 해상도 인덱스가 가리키는 움직임 벡터 프리딕터를 이용하여 현재 블록의 움직임 벡터가 인터 예측될 수 있다. 이 경우, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터 후보가 연동될 때, 해상도 인덱스와 프리딕터 인덱스가 연동된다면, 움직임 벡터 해상도 세트에 따라 움직임 벡터 프리딕터 리스트에서 결정되는 움직임 벡터 프리딕터도 달라질 수 있게 된다. 구체적인 예로, 전체 선택 가능한 움직임 벡터 해상도가 1/4-화소 단위, 1/2-화소 단위, 1-화소 단위, 2-화소 단위, 4-화소 단위이고, 전체 선택 가능한 움직임 벡터 프리딕터 후보가 p0, p1, p2, p3, p4인 경우를 상정한다. 만약 제1 움직임 벡터 해상도 세트가 {1/4, 1/2, 1}인 경우에 연동된 움직임 벡터 프리딕터 후보 리스트가 {p0, p1, p2}일 수 있다. 제2 움직임 벡터 해상도 세트가 {1, 2, 4}인 경우에 연동된 움직임 벡터 프리딕터 후보 리스트도 {p0, p1, p2}일 수 있다. 예측 부호화 결과 움직임 벡터 해상도가 1로 결정된 경우에, 제1 움직임 벡터 해상도 세트 중에서 움직임 벡터 해상도 1을 가리키는 제1 해상도 인덱스는 2로 생성될 수 있다. 이 경우, 움직임 벡터 프리딕터 후보 리스트 중에서 제1 해상도 인덱스가 가리키는 움직임 벡터 프리딕터는 p2가 된다. 반면, 제2 움직임 벡터 해상도 세트 중에서 움직임 벡터 해상도 1을 가리키는 제2 해상도 인덱스는 0으로 생성될 수 있다. 이 경우, 움직임 벡터 프리딕터 후보 리스트 중에서 제2 해상도 인덱스가 가리키는 움직임 벡터 프리딕터는 p0가 된다. 따라서, 제1 움직임 벡터 해상도 세트에 따른 제1 해상도 인덱스에 연동되는 움직임 벡터 프리딕터와 제2 움직임 벡터 해상도 세트에 따른 제2 해상도 인덱스에 연동되는 움직임 벡터 프리딕터가 다르게 결정될 수 있다.
일예로, 현재 블록의 예측 방향 및 현재 픽쳐와 참조 픽쳐 간의 POC 거리 중 적어도 하나에 기초하여 결정된 움직임 벡터 해상도 세트 중 선택된 움직임 벡터 해상도가, 직접 움직임 벡터 프리딕터 인덱스에 연동될 수도 있다. 이 경우, 서로 다른 움직임 벡터 해상도 세트들 중에서 움직임 벡터 해상도가 선택된다 하더라도, 움직임 벡터 해상도가 변하지 않는다면 해상도에 연동된 움직임 벡터 프리딕터도 일정하게 결정될 수 있게 된다. 구체적인 예로, 전체 선택 가능한 움직임 벡터 해상도가 1/4-화소 단위, 1/2-화소 단위, 1-화소 단위, 2-화소 단위, 4-화소 단위이고, 전체 선택 가능한 움직임 벡터 프리딕터 후보가 p0, p1, p2, p3, p4인 경우를 상정한다. 1/4-화소 단위에 p0가 연동되고, 1/2-화소 단위에 p1가, 1-화소 단위에 p2가, 2-화소 단위에 p3가, 4-화소 단위에 p4가 연동될 수 있다. 만약 제1 움직임 벡터 해상도 세트가 {1/4, 1/2, 1}인 경우에 연동된 제1 움직임 벡터 프리딕터 후보 리스트가 {p0, p1, p2}일 수 있다. 제2 움직임 벡터 해상도 세트가 {1, 2, 4}인 경우에 연동된 제2 움직임 벡터 프리딕터 후보 리스트도 {p2, p3, p4}일 수 있다. 예측 부호화 결과 움직임 벡터 해상도가 1로 결정된 경우에, 제1 움직임 벡터 해상도 세트와 제2 움직임 벡터 해상도 세트가 상이하고 제1 움직임 벡터 프리딕터 리스트와 제2 움직임 벡터 프리딕터 리스트가 상이하더라도, 움직임 벡터 해상도 1에 연동되는 움직임 벡터 프리딕터는 p2가 된다. 따라서, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터 후보가 연동될 때, 움직임 벡터 해상도와 프리딕터 인덱스가 연동된다면, 움직임 벡터 해상도 세트가 달라지더라도 일정한 움직임 벡터 해상도에 연동되는 움직임 벡터 프리딕터는 일정하게 결정될 수 있게 된다.
일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도 각각에 매핑된 적어도 하나의 후보 블록 중 일부의 후보 블록에 움직임 벡터가 존재하지 않는 경우, 움직임 정보 부호화 장치(10)는 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록을 제외한 다른 블록을, 움직임 벡터가 존재하지 않는 후보 블록 대신 후보 움직임 벡터 해상도에 새롭게 매핑시킬 수 있고, 새롭게 매핑된 블록의 움직임 벡터를 현재 블록의 움직임 벡터 프리딕터로 이용할 수 있다.
또한, 일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 일부의 후보 블록에 움직임 벡터가 존재하지 않는 경우, 움직임 정보 부호화 장치(10)는 임의의 움직임 벡터(예를 들어, 제로 벡터)를 상기 일부의 후보 블록의 움직임 벡터로 이용할 수 있다.
또한, 일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도 각각에 매핑된 적어도 하나의 후보 블록 중에서 서로 동일한 움직임 벡터를 갖는 후보 블록이 존재하는 경우, 움직임 정보 부호화 장치(10)는 서로 동일한 움직임 벡터를 갖는 후보 블록들 중 일부를, 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록을 제외한 다른 블록으로 대체하여 후보 움직임 벡터 해상도에 새롭게 매핑시킬 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도에 따라, 보간된 참조 영상에서 현재 블록의 움직임 벡터를 결정한다. 움직임 정보 부호화 장치(10)는 현재 블록에 대해 선택 가능한 적어도 하나의 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도를 비교하여 후보 블록의 움직임 벡터를 조정할 수 있다. 움직임 정보 부호화 장치(10)는 후보 블록의 조정된 움직임 벡터에 따라 참조 영상 내 탐색 시작 위치를 결정하고, 참조 영상 내에서 최적의 참조 블록을 탐색하여, 현재 블록의 움직임 벡터 해상도에 따른 현재 블록의 움직임 벡터를 결정할 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터와 후보 블록의 움직임 벡터(또는 조정된 움직임 벡터) 사이의 잔차 움직임 벡터를 획득한다.
S185 단계에서, 생성부(13)는, S183 단계에서 결정된 움직임 벡터 해상도 세트 중에서 현재 블록의 인터 예측을 위해 이용된 움직임 벡터 해상도를 가리키는 해상도 인덱스를 생성할 수 있다.
일 실시예에 따른 생성부(13)는, 현재 픽쳐와 참조 픽쳐 간의 POC 거리 및 현재 블록의 예측 방향 중 적어도 하나에 기초하여 결정된 움직임 벡터 해상도 세트에 기초하여, 해상도 인덱스의 이진화 방식을 결정할 수 있다.
예를 들어, 움직임 벡터 해상도 세트 {1/4, 1/2, 1, 2, 4}가 결정된 경우, 각 해상도의 인덱스는 0, 10, 110, 1110, 1111로 결정될 수 있다. 움직임 벡터 해상도 세트 {1/4, 1/2, 1}가 결정된 경우, 각 해상도의 인덱스는 0, 10, 11로 결정될 수 있다. 움직임 벡터 해상도 세트 {1,2,4} 가 결정된 경우, 각 해상도의 인덱스는 0, 10, 11로 결정될 수 있다. 움직임 벡터 해상도 세트 {1/4, 1} 가 결정된 경우, 각 해상도의 인덱스는 0,1로 결정될 수 있다.
다른 실시예에 따라, 현재 픽쳐와 참조 픽쳐 간의 거리가 상당히 먼 경우, 움직임 정보 부호화 장치(10)에서 지원하는 움직임 벡터 해상도보다 더 해상도가 낮은 움직임 벡터 해상도를 이용하여 움직임 벡터를 부호화하는 것이 더 효율적일 수 있다. 이 경우, 지원 가능한 전체 움직임 벡터 해상도 1/4-화소단위, 1/2-화소단위, 1-화소단위, 2-화소단위, 4-화소단위를, 1/2-화소단위, 1-화소단위, 2-화소단위, 4-화소단위, 5-화소단위로 스케일링하고, 실제 사용되는 움직임 벡터 해상도 세트 {1/2, 2, 8}이라면, 움직임 벡터 해상도 세트 {1/4, 1, 4}를 이용하여 해상도 인덱스가 생성될 수 있다.
이를 위해, 참조 픽쳐가 롱텀 픽쳐인 경우 또는 현재 픽쳐와 상당히 먼 픽쳐인 경우에 threshold2는 threshold1에 비해 상당히 크게 설정될 수 있다. 구체적인 예로, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 작은 경우(|POC_cur - POC_ref| < threshold1), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1}로 결정할 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 크거나 같고 threshold2보다 작거나 같은 경우(threshold1 <= |POC_cur - POC_ref| <= threshold2), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1, 2, 4}로 결정할 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold2보다 큰 경우(|POC_cur - POC_ref| > threshold2), 움직임 벡터 해상도 리스트 {1, 2, 4}를 2배 스케일링한 움직임 벡터 해상도 리스트 {2, 4, 8}가 사용되도록 결정될 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold2보다 큰 경우에, 움직임 벡터 해상도 {2, 4, 8} 중에서 결정된 해상도가 결정된다 하더라도, 해상도 인덱스는 스케일링전 움직임 벡터 해상도 세트 {1, 2, 4}을 이용하여 설정할 수 있다. 따라서, 움직임 벡터 해상도가 2로 결정된다면 해상도 인덱스는 {1, 2, 4} 중에 1을 가리키도록 인덱스 0가 생성되고, 움직임 벡터 해상도 4가 결정된다면 {1, 2, 4} 중에 2을 가리키도록 해상도 인덱스 1가 생성되고, 움직임 벡터 해상도 8이 결정된다면 {1, 2, 4} 중에 4을 가리키도록 인덱스 2가 생성될 수 있다. 앞서 설명의 편의를 위해 움직임 벡터 해상도를 2배 스케일링하는 실시예를 설명하였을 뿐, 미리 정해진 규칙에 따라 움직임 벡터 해상도 세트에 포함된 해상도들이 2배, 4배, 8배 등으로 스케일링가능할 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도에 대한 정보 및 움직임 벡터 프리딕터로 이용된 후보 블록을 나타내는 정보 중 적어도 하나와, 잔차 움직임 벡터를 나타내는 정보를 생성할 수 있다.
현재 블록의 움직임 벡터 해상도에 대한 정보 및 움직임 벡터 프리딕터로 이용된 후보 블록을 나타내는 정보 중 적어도 하나와, 잔차 움직임 벡터를 나타내는 정보는 비트스트림에 포함될 수 있다.
전술한 바와 같이, 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도와 적어도 하나의 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도를 비교하여 잔차 움직임 벡터를 다운스케일할 수 있다.
도 19은 일 실시예에 따른 움직임 정보 복호화 장치(30)의 구성을 나타내는 블록도이다. 도 19에 도시된 움직임 정보 복호화 장치(30)는 전술한 비디오 복호화 장치(100)에 포함될 수 있다. 구체적으로, 획득부(31)는 비디오 복호화 장치(100)의 비트스트림 획득부(110)에 포함될 수 있고, 예측 복호화부(33)는 비디오 복호화 장치(100)의 복호화부(120)에 포함될 수 있다.
움직임 정보 복호화 장치(30)는 획득한 비트스트림을 파싱하여 현재 블록의 인터 예측을 수행하기 위한 움직임 벡터를 결정할 수 있다.
획득부(31)는 비트스트림으로부터 현재 블록의 움직임 벡터 해상도에 대한 정보 및 후보 블록을 나타내는 정보 중 적어도 하나, 및 잔차 움직임 벡터를 나타내는 정보를 획득할 수 있다.
상기 현재 블록의 움직임 벡터 해상도에 대한 정보는, 현재 블록의 움직임 벡터 해상도를 가리키는 인덱스를 포함할 수 있다.
예측 복호화부(33)는 획득부(31)에 의해 현재 블록의 움직임 벡터 해상도를 가리키는 해상도 인덱스가 획득되면, 현재 블록의 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터 프리딕터로서 이용될 후보 블록을 결정할 수 있다.
일 실시예에서, 획득부(31)는 움직임 벡터 해상도에 대한 정보를 인터 예측된 부호화 단위마다 획득할 수도 있다.
일 실시예에 따라 현재 블록에 대해 선택 가능한 적어도 하나의 후보 움직임 벡터 해상도와 적어도 하나의 후보 블록 사이에 1:1 매핑 관계가 있을 수 있다. 따라서, 획득부(31)에 의해 현재 블록의 움직임 벡터 해상도를 가리키는 해상도 인덱스가 획득되면 그에 매핑된 현재 블록의 후보 블록을 선택할 수 있다.
일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도는 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2 화소 단위의 움직임 벡터 해상도 및 4 화소 단위의 움직임 벡터 해상도 중 적어도 하나를 포함할 수 있다. 그러나, 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도는 상기 예시에 한정되는 것은 아니며, 다양한 값의 화소 단위의 움직임 벡터 해상도들이 후보 움직임 벡터 해상도에 포함될 수 있다.
해상도 인덱스 0, 1, 2, 3, 4가 각각 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2 화소 단위의 움직임 벡터 해상도 및 4 화소 단위의 움직임 벡터 해상도를 가리킬 수 있다. 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2 화소 단위의 움직임 벡터 해상도 및 4 화소 단위의 움직임 벡터 해상도는 각각 1st MVP, 2nd MVP, 3rd MVP, 4th MVP 및 5th MVP 에 매핑될 수 있다.
일 실시예에서, 상기 적어도 하나의 후보 블록은, 현재 블록과 연관된 공간적 블록과 시간적 블록을 포함한 블록들 중에서 선택될 수 있다. 공간적 블록은 현재 블록과 공간적으로 인접한 블록을 적어도 하나 포함할 수 있다. 시간적 블록은 현재 블록의 POC와 다른 POC를 갖는 참조 영상 내에서 현재 블록과 동일한 지점에 위치한 블록과, 동일 위치의 블록에 대해 공간적으로 인접한 블록을 적어도 하나 포함할 수 있다.
일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도가 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도 및 2 화소 단위의 움직임 벡터 해상도를 포함하고, 적어도 하나의 후보 블록이 좌측 블록, 상부 블록, 좌측 상부 블록, 상부 좌측 블록 및 좌측 하부 블록을 포함할 때, 움직임 정보 복호화 장치(30)는 (1/4 화소 단위의 움직임 벡터 해상도 - 좌측 블록), (1/2 화소 단위의 움직임 벡터 해상도 - 상부 블록), (1 화소 단위의 움직임 벡터 해상도 - 우측 상부 블록), (2 화소 단위의 움직임 벡터 해상도 - 좌측 상부 블록), (4 화소 단위의 움직임 벡터 해상도 - 좌측 하부 블록)의 매핑 관계 또는 대응 관계에 따라 움직임 벡터 해상에 대응하는 후보 블록을 결정하고 후보 블록에 따른 움직임 벡터 프리딕터를 결정할 수 있다. 이에 의하면, 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도로서 1/4 화소 단위의 움직임 벡터 해상도가 확인되면, 그에 따라 좌측 블록의 움직임 벡터를 현재 블록의 움직임 벡터 프리딕터로 이용할 수 있다.
또한, 일 예로서, 예측 복호화부(33)는 선택 가능한 적어도 하나의 후보 움직임 벡터 해상도를 슬라이스 또는 픽처 단위로 결정할 때, 슬라이스 또는 픽처의 타입에 따라 현재 슬라이스 또는 현재 픽처에 대해 지원 가능한 후보 움직임 벡터 해상도의 개수 및 종류를 결정할 수도 있다. 또한, 일 예로서, 예측 복호화부(33)는 선택 가능한 적어도 하나의 후보 움직임 벡터 해상도를 슬라이스 또는 픽처 단위로 결정할 때, 슬라이스 또는 픽처가 다른 슬라이스 또는 다른 픽처에 의해 참조되는지 여부에 따라 현재 슬라이스 또는 현재 픽처에 대해 선택 가능한 후보 움직임 벡터 해상도의 개수 및 종류를 결정할 수도 있다.
일 실시예에서, 현재 블록에 대해 선택 가능한 후보 움직임 벡터 해상도 각각에 대해 유너리(UNARY) 방식으로 인덱스가 할당되고, 예측 복호화부(33)는 획득부(31)에 의해 획득된 현재 블록의 움직임 벡터 해상도를 나타내는 인덱스에 따라 현재 블록의 움직임 벡터 해상도를 선택할 수 있다. 일 예로서, 지원 가능한 후보 움직임 벡터 해상도가 1/4 화소 단위의 움직임 벡터 해상도, 1/2 화소 단위의 움직임 벡터 해상도, 1 화소 단위의 움직임 벡터 해상도, 2 화소 단위의 움직임 벡터 해상도, 4 화소 단위의 움직임 벡터 해상도, 8 화소 단위의 움직임 벡터 해상도를 포함할 때, 1/4 화소 단위의 움직임 벡터 해상도에 대해서는 0, 1/2 화소 단위의 움직임 벡터 해상도에 대해서는 10, 1 화소 단위의 움직임 벡터 해상도에 대해서는 110, 2 화소 단위의 움직임 벡터 해상도에 대해서는 1110, 4 화소 단위의 움직임 벡터 해상도에 대해서는 11110, 8 화소 단위의 움직임 벡터 해상도에 대해서는 11111의 인덱스가 할당될 수 있다.
일 실시예에서, 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 각 후보 블록에 대해 유너리(UNARY) 방식으로 인덱스가 할당되고, 예측 복호화부(33)는 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터 프리딕터를 위해 이용되는 후보 블록을 선택할 수 있다.
일 실시예에서, 현재 블록에 대해 지원 가능한 후보 움직임 벡터 해상도가 하나인 경우, 획득부(31)는 현재 블록의 움직임 벡터 해상도 및 현재 블록의 움직임 벡터 프리딕터를 위해 이용되는 후보 블록을 나타내는 정보의 획득을 스킵(skip) 또는 생략할 수 있다. 여기서, 정보의 획득을 스킵한다는 것은 비트스트림으로부터 해당 정보를 획득하지 않는다는 것을 의미할 수 있다.
일 실시예에서, 현재 블록에 대해 지원 가능한 후보 움직임 벡터 해상도가 두 개 이상인 경우, 획득부(31)는 현재 블록의 움직임 벡터 해상도를 나타내는 해상도 인덱스를 획득할 수도 있다.
일 실시예에 따른 예측 복호화부(33)는, 후보 블록의 움직임 벡터를 그대로 현재 블록의 움직임 벡터 프리딕터로 이용하거나, 후보 블록의 움직임 벡터를 변경하여 현재 블록의 움직임 벡터 프리딕터로 이용할 수 있다.
일 실시예에서, 현재 블록의 움직임 벡터 해상도에 매핑된 후보 블록에 움직임 벡터가 존재하지 않을 경우, 새롭게 이용될 다른 블록들의 위치 및 우선 순위는 미리 결정되어 있을 수 있다.
또한, 일 실시예에서, 현재 블록의 움직임 벡터 해상도에 매핑된 후보 블록에 움직임 벡터가 존재하지 않는 경우, 예측 복호화부(33)는 임의의 움직임 벡터(예를 들어, 제로 벡터)를 현재 블록의 움직임 벡터 프리딕터로 이용할 수도 있다.
또한, 일 실시예에서, 예측 복호화부(33)는 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 서로 동일한 움직임 벡터를 갖는 후보 블록이 존재하는 경우, 서로 동일한 움직임 벡터를 갖는 후보 블록들 중 일부를, 각각의 후보 움직임 벡터 해상도에 매핑된 상기 적어도 하나의 후보 블록 이외의 다른 블록으로 대체할 수도 있다. 예를 들어, 1/4 화소 단위 움직임 벡터 해상도에 매핑된 좌측 블록의 움직임 벡터와, 1/2 화소 단위 움직임 벡터 해상도에 매핑된 상부 블록의 움직임 벡터가 동일한 경우, 예측 복호화부(33)는 좌측 블록과 상부 블록 중 어느 하나의 블록(예를 들어, 상부 블록)을 다른 블록(예를 들어, 상부 좌측 블록)으로 대체하여 후보 움직임 벡터 해상도(예를 들어, 1/2 화소 해상도)에 매핑시킬 수 있다.
동일한 움직임 벡터를 갖는 후보 블록들이 복수일 때, 복수의 후보 블록 중 어느 후보 블록을 다른 블록으로 대체할지를 나타내는 우선 순위와, 새롭게 매핑될 블록들의 종류 및 우선 순위는 미리 결정되어 있을 수 있다.
일 실시예에서, 예측 복호화부(33)는 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 서로 동일한 움직임 벡터를 갖는 후보 블록이 존재하는 경우, 서로 동일한 움직임 벡터를 갖는 후보 블록들 중 일부에 임의의 움직임 벡터(예를 들어, 제로 벡터)를 할당할 수 있다. 이 경우, 임의의 움직임 벡터를 할당할 후보 블록의 우선 순위는 미리 결정되어 있을 수 있다.
일 실시예에서, 예측 복호화부(33)는 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도에 매핑된 적어도 하나의 후보 블록 중 서로 동일한 움직임 벡터를 갖는 후보 블록이 존재하는 경우, 서로 동일한 움직임 벡터를 갖는 후보 블록들 중 일부의 움직임 벡터를, 다른 후보 블록의 움직임 벡터를 이용하여 유도할 수도 있다.
일 실시예에서, 두 개 이상의 후보 블록의 움직임 벡터의 동일 여부는, 후술하는 바와 같이, 후보 블록의 움직임 벡터의 조정이 완료된 이후 조정된 움직임 벡터 사이의 비교를 통해 판단될 수도 있다.
일 실시예에서, 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도와 적어도 하나의 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도의 차이에 기초하여, 획득부(31)에 의해 획득된 잔차 움직임 벡터를 업스케일(up-scale)할 수 있다. 예를 들어, 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도가 최소 움직임 벡터 해상도보다 큰 경우, 잔차 움직임 벡터를 업스케일(up-scale)할 수 있다.
또한, 일 실시예에서, 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도에 매핑된 후보 블록의 움직임 벡터를 선택적으로 조정할 수 있다.
예측 복호화부(33)는 선택적으로 조정된 후보 블록의 움직임 벡터와 선택적으로 업스케일된 잔차 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 획득할 수 있다.
잔차 움직임 벡터의 업스케일 및 후보 블록의 움직임 벡터의 조정에 대해서는 아래에서 구체적으로 설명된다.
예측 복호화부(33)는 현재 블록의 움직임 벡터를 이용하여 참조 영상에서 예측 블록을 탐색하고, 탐색된 예측 블록에 역양자화 및 역변환된 잔차 데이터를 합하여 현재 블록을 재구성(reconstruction)할 수 있다.
일 실시예에서, 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도가 1 화소 단위 이상의 움직임 벡터 해상도인 경우에는 보간되지 않은 참조 영상에서 예측 블록을 탐색하고, 현재 블록의 움직임 벡터 해상도가 1 화소 단위 미만의 움직임 벡터 해상도인 경우에는 보간된 참조 영상에서 예측 블록을 탐색할 수 있다.
일 실시예에 따른 획득부(31)는, 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 현재 블록의 참조 인덱스 및 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득할 수 있다.
일 실시예에 따른 예측 복호화부(33)는, 현재 블록의 참조 인덱스를 이용하여 현재 블록의 참조 픽쳐를 결정하고, 현재 블록의 예측 방향 정보를 이용하여 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정할 수 있다. 일 실시예에 따른 예측 복호화부(33)는, 현재 블록의 참조 픽쳐 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정할 수 있다. 예측 복호화부(33)는, 움직임 벡터 해상도 세트 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 예측 방향에 따른 움직임 벡터를 결정할 수 있다.
이하, 도 20을 참조하여 움직임 정보 복호화 장치(30)가 현재 블록의 참조 픽쳐 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 방법에 대해 상술한다.
도 20는 일 실시예에 따른 움직임 정보 복호화 방법을 설명하기 위한 순서도이다.
S201 단계에서, 획득부(31)는 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 현재 블록의 참조 인덱스 및 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득할 수 있다.
일 실시예에 따른 획득부(31)는 비트스트림으로부터 현재 블록의 잔차 움직임 벡터를 획득할 수 있다.
S203 단계에서, 예측 복호화부(33)는, 현재 블록의 참조 인덱스를 이용하여 현재 블록의 참조 픽쳐를 결정하고, 현재 블록의 예측 방향 정보를 이용하여 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정할 수 있다.
일 실시예에 따른 예측 복호화부(33)는, 현재 블록의 움직임 벡터 해상도와, 현재 블록의 움직임 벡터 프리딕터를 결정하기 위해 이용되는 후보 블록을 결정할 수 있다. 예측 복호화부(33)에 의해 결정되는 현재 블록의 움직임 벡터 해상도는 현재 블록에 대해 선택 가능한 적어도 하나의 후보 움직임 벡터 해상도 중 어느 하나에 대응할 수 있고, 현재 블록의 움직임 벡터 프리딕터를 위한 후보 블록은 적어도 하나의 후보 움직임 벡터 해상도 각각에 매핑된 적어도 하나의 후보 블록 중 어느 하나에 대응할 수 있다.
움직임 정보 복호화 장치(30)는 비트스트림으로부터 현재 블록의 움직임 벡터 해상도를 나타내는 해상도 인덱스가 획득되면, 해상도 인덱스에 기초하여 움직임 벡터 프리딕터로 이용될 후보 블록을 결정할 수 있다.
S205 단계에서, 예측 복호화부(33)는 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정할 수 있다.
일 실시예에 따른 선택가능한 전체 움직임 벡터 해상도들은, 1/4-화소단위, 1/2-화소단위, 1-화소단위, 2-화소단위 및 4-화소단위 중 적어도 하나일 수 있다.
일 실시예에 따른 예측 복호화부(33)는, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 또한, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작지 않을 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 이 때, 제1 움직임 벡터 해상도 세트와 제2 움직임 벡터 해상도 세트가 상이하고, 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 또한, 제1 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
구체적인 예로, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold0보다 작은 경우(|POC_cur - POC_ref| < threshold0), 현재 블록의 인터 예측을 위한 제1 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1}로 결정할 수 있다. 반면, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold0보다 크거나 같은 경우(|POC_cur - POC_ref| >= threshold0), 현재 블록의 인터 예측을 위한 제2 움직임 벡터 해상도 리스트를 {1,2,4}로 결정할 수 있다. 다른 예로, 제1 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1}로 결정하고, 제2 움직임 벡터 해상도 리스트를 {1/4, 1, 4}로 결정할 수 있다. 또 다른 예로, 제1 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1, 2, 4}로 결정하고, 제2 움직임 벡터 해상도 리스트를 {1/4, 1, 4}로 결정할 수 있다.
다른 실시예에 따라, 예측 복호화부(33)는 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 클 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 또한, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 크거나 같고, 제2 소정 POC 거리보다 작거나 같을 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제3 움직임 벡터 해상도 세트를 결정할 수 있다. 이 때, 제1 움직임 벡터 해상도 세트, 제2 움직임 벡터 해상도 세트와 제3 움직임 벡터 해상도 세트가 상이할 수 있다. 제2 움직임 벡터 해상도 세트와 제3 움직임 벡터 해상도 세트 중 각 세트에 속하는 해상도들의 개수도 상이할 수 있다. 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 제1 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 제3 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 포함될 수 있다. 제2 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 제3 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 속할 수 있다. 움직임 벡터 해상도 세트의 정밀도 범위는, 움직임 벡터 해상도 세트에 속하는 가장 높은 해상도와 가장 낮은 해상도 사이의 범위를 의미한다.
구체적인 예로, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 작은 경우(|POC_cur - POC_ref| < threshold1), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1}로 결정할 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold2보다 큰 경우(|POC_cur - POC_ref| > threshold2), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1, 2, 4}로 결정할 수 있다. 반면에, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 크거나 같고 threshold2보다 작거나 같은 경우(threshold1 <= |POC_cur - POC_ref| <= threshold2), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1, 2, 4}로 결정할 수 있다.
또 다른 구체적인 예로, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 작은 경우(|POC_cur - POC_ref| < threshold1), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1/4, 1/2}로 결정할 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold2보다 큰 경우(|POC_cur - POC_ref| > threshold2), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {2, 4}로 결정할 수 있다. 반면에, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 크거나 같고 threshold2보다 작거나 같은 경우(threshold1 <= |POC_cur - POC_ref| <= threshold2), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1/4, 1, 4}로 결정할 수 있다.
다른 예로, 예측 복호화부(33)는 현재 블록의 예측 방향에 따라 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측일 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측일 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트와 제2 움직임 벡터 해상도 세트가 상이하고, 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 또한, 제1 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도보다 더 높을거나 동일할 수 있다.
구체적으로, 예측 복호화부(33)는 현재 블록의 예측 방향이 단방향 예측일 때 L0 방향 또는 L1 방향의 움직임 벡터를 이용하여 현재 블록의 움직임 벡터 프리딕터를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측일 때, 예측 복호화부(33)는 L0 방향의 움직임 벡터와 L1 방향의 움직임 벡터를 평균낸 움직임 벡터를 이용하여 현재 블록의 움직임 벡터 프리딕터를 결정할 수 있다.
또 다른 예로, 현재 블록의 예측 방향이 단방향 예측일 때, 예측 복호화부(33)는 선택가능한 제1 움직임 벡터 해상도 세트를 결정하고, 현재 블록의 예측 방향이 양방향 예측일 때, 제2 움직임 벡터 해상도 세트를 L0 움직임 벡터를 위해 결정하고, 제3 움직임 벡터 해상도 세트를 L1 움직임 벡터를 위해 결정할 수 있다. 제2 움직임 벡터 해상도 세트와 제3 움직임 벡터 해상도 세트는 상이할 수 있고, 제1 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들이 제2 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들과 제3 움직임 벡터 해상도 세트에 포함되는 움직임 벡터 해상도들에 비해 높을 수 있다.
구체적인 예로, 현재 블록의 예측 방향이 단방향 예측이고 L0 예측일 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정하고, 현재 블록의 예측 방향이 단방향 예측이고 L1 예측일 때, 예측 복호화부(33)는 L1 예측을 위한 제1 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측일 때, 예측 복호화부(33)는 L0 예측 및 L1 예측을 위한 제2 움직임 벡터 해상도 세트 {1, 2, 4}를 결정할 수 있다. 다른 예로, 제1 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1}로 결정하고, 제2 움직임 벡터 해상도 리스트를 {1/4, 1, 4}로 결정할 수 있다. 또 다른 예로, 제1 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1, 2, 4}로 결정하고, 제2 움직임 벡터 해상도 리스트를 {1/4, 1, 4}로 결정할 수 있다.
다른 구체적인 예로, 현재 블록의 예측 방향이 단방향 예측이고 L0 예측일 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2}를 결정하고, 현재 블록의 예측 방향이 단방향 예측이고 L1 예측일 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2}를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측일 때, 예측 복호화부(33)는 L0 예측 및 L1 예측을 위한 움직임 벡터 해상도 세트 {1, 4}를 결정할 수 있다.
다른 실시예로, 예측 복호화부(33)는 현재 픽쳐 및 참조 픽처 간의 POC 거리와 현재 블록의 예측 방향을 모두 고려하여 움직임 벡터 해상도 세트를 결정할 수 있다.
예를 들어 현재 블록의 예측 방향이 단방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측이고, 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않을 때, 예측 복호화부(33)는 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트 및 제2 움직임 벡터 해상도 세트는 상이할 수 있다. 제1 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 또한, 제1 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 제2 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도보다 더 높을거나 동일할 수 있다.
구체적인 예로, 현재 블록의 예측 방향이 단방향 L0 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold0보다 작을 때, 예측 복호화부(33)는 L0 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L0 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold0보다 크거나 같을 때, 예측 복호화부(33)는 L0 예측을 위한 움직임 벡터 해상도 세트 {1, 2, 4}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L1 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold0보다 작을 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L1 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold0보다 크거나 같을 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1, 2, 4}를 결정할 수 있다.
예를 들어 현재 블록의 예측 방향이 단방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 예측 복호화부(33)는 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측이고, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 상기 제2 소정 POC 거리보다 클 때, 예측 복호화부(33)는 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 예측이고, 현재 픽쳐와 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작지 않고 제2 소정 POC 거리보다 크지 않을 때, 제3 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트, 제2 움직임 벡터 해상도 세트 및 제3 움직임 벡터 해상도 세트는 상이할 수 있다. 제1 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2, 3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 또한, 제1 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 제2, 3 움직임 벡터 해상도 세트 각각에 속하는 가장 낮은 움직임 벡터 해상도들보다 더 높을거나 동일할 수 있다. 제3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
구체적인 예로, 현재 블록의 예측 방향이 단방향 L0 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold1보다 작을 때, 예측 복호화부(33)는 L0 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L0 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold2보다 클 때, 예측 복호화부(33)는 L0 예측을 위한 움직임 벡터 해상도 세트 {1, 2, 4}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L0 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold1보다 크거나 같고 threshold2보다 작거나 같을 때, 예측 복호화부(33)는 L0 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1, 2, 4}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L1 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold1보다 작을 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L1 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold2보다 클 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1, 2, 4}를 결정할 수 있다. 현재 블록의 예측 방향이 단방향 L0 예측이고, 현재 픽쳐의 POC와 참조 픽쳐 POC간의 차이가 threshold1보다 크거나 같고 threshold2보다 작거나 같을 때, 예측 복호화부(33)는 L1 예측을 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1, 2, 4}를 결정할 수 있다.
예를 들어, 현재 블록의 예측 방향이 양방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작고, 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 예측 복호화부(33)는 L0 움직임 벡터 및 L1 움직임 벡터를 위한 제1 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 크고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 클 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제2 움직임 벡터 해상도 세트를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측이고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작지 않고 제2 소정 POC 거리보다 크지 않고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작지 않고 제2 소정 POC 거리보다 크지 않을 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제3 움직임 벡터 해상도 세트를 결정할 수 있다. 제1 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2, 3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다. 또한, 제1 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 제2, 3 움직임 벡터 해상도 세트 각각에 속하는 가장 낮은 움직임 벡터 해상도들보다 더 높을거나 동일할 수 있다. 제3 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도는 제2 움직임 벡터 해상도 세트에 포함된 가장 높은 움직임 벡터 해상도보다 더 높거나 동일할 수 있다.
구체적인 예로, 현재 블록의 예측 방향이 양방향 예측이고, 현재 픽쳐의 POC와 L0 참조 픽쳐의 POC 간의 거리가 threshold1 보다 작고, 현재 픽쳐의 POC와 L1 참조 픽쳐의 POC 간의 거리가 threshold1 보다 작을 때, 예측 복호화부(33)는 L0 움직임 벡터 및 L1 움직임 벡터를 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1}를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측이고, 현재 픽쳐의 POC와 L0 참조 픽쳐의 POC 간의 거리가 threshold2 보다 크고, 현재 픽쳐의 POC와 L1 참조 픽쳐의 POC 간의 거리가 threshold2 보다 클 때, 예측 복호화부(33)는 L0 움직임 벡터 및 L1 움직임 벡터를 위한 움직임 벡터 해상도 세트 {1, 2, 4}를 결정할 수 있다. 현재 블록의 예측 방향이 양방향 예측이고, 현재 픽쳐의 POC와 L0 참조 픽쳐의 POC 간의 거리와 현재 픽쳐의 POC와 L1 참조 픽쳐의 POC 간의 거리가 둘다 threshold1보다 작은 것은 아니고, 현재 픽쳐의 POC와 L0 참조 픽쳐의 POC 간의 거리와 현재 픽쳐의 POC와 L1 참조 픽쳐의 POC 간의 거리가 둘다 큰 것은 아닐 때, 예측 복호화부(33)는 L0 움직임 벡터 및 L1 움직임 벡터를 위한 움직임 벡터 해상도 세트 {1/4, 1/2, 1, 2, 4}를 결정할 수 있다.
다른 예로, 현재 블록의 예측 방향이 양방향 예측일 때, 예측 방향에 따른 현재 픽쳐와 참조 픽쳐 간의 POC 거리에 따라, 예측 방향별로 움직임 벡터 해상도 세트가 개별적으로 결정될 수 있다. 구체적으로, 현재 블록의 예측 방향이 양방향 예측일 때, L0 예측을 위한 참조 픽쳐와 현재 픽쳐 간의 POC 거리가 소정 POC 거리보다 큰지 여부에 따라, L0 예측을 위해 제1 움직임 벡터 해상도 세트가 결정되고, L1 예측을 위한 참조 픽쳐와 현재 픽쳐 간의 POC 거리가 소정 POC 거리보다 큰지 여부에 따라, L1 예측을 위해 제2 움직임 벡터 해상도 세트가 결정될 수 있다.
일 실시예에 따라 L0 예측을 위한 제1 움직임 벡터 해상도 세트와 L1 예측을 위한 제2 움직임 벡터 해상도 세트가 상이한 경우에, 획득부(31)는 하나의 해상도 인덱스를 비트스트림으로부터 획득할 수 있다. 이 경우, 제1 움직임 벡터 해상도 세트 중에서 하나의 해상도 인덱스가 가리키는 제1 움직임 벡터 해상도와, 제2 움직임 벡터 해상도 세트 중에서 하나의 해상도 인덱스가 가리키는 제2 움직임 벡터 해상도가 상이할 수 있다.
다른 예로, L0 예측을 위한 제1 움직임 벡터 해상도 세트와 L1 예측을 위한 제2 움직임 벡터 해상도 세트가 상이한 경우, 획득부(31)는 L0 예측을 위한 L0 해상도 인덱스와 L1 예측을 위한 L1 해상도 인덱스를 별도로 비트스트림으로부터 획득할 수 있다. 즉, 예측 복호화부(33)는 제1 움직임 벡터 해상도 세트 중에서 L0 해상도 인덱스가 가리키는 L0 예측을 위한 움직임 벡터 해상도와, 제2 움직임 벡터 해상도 세트 중에서 L1 해상도 인덱스가 가리키는 L1 예측을 위한 움직임 벡터 해상도를 개별적으로 결정할 수 있다.
구체적으로, 현재 블록의 예측 방향이 양방향 예측일 때, L0 예측을 위한 참조 픽쳐와 현재 픽쳐 간의 POC 거리가 소정 POC 거리보다 큰지 여부에 따라, L0 예측을 위해 움직임 벡터 해상도 세트 {1/4, 1/2, 1}가 결정되고, L1 예측을 위한 참조 픽쳐와 현재 픽쳐 간의 POC 거리가 소정 POC 거리보다 큰지 여부에 따라, L1 예측을 위해 움직임 벡터 해상도 세트 {1, 2, 4}가 결정될 수 있다. L0 예측 및 L1 예측을 위해 하나의 움직임 벡터 해상도 인덱스가 공유되는 경우에, 해상도 인덱스가 1이라면, L0 예측을 위한 움직임 벡터 해상도는 {1/4, 1/2, 1} 중 1/2가 선택되고, L1 예측을 위한 움직임 벡터 해상도는 {1, 2, 4} 중 2가 선택될 수 있다. L0 예측을 위한 움직임 벡터 해상도 인덱스와 L1 예측을 위한 움직임 벡터 해상도 인덱스가 별도로 획득되는 경우에, L0 예측을 위한 움직임 벡터 해상도 인덱스가 1이면 {1/4, 1/2, 1} 중 1/2가 선택되고, L1 예측을 위한 움직임 벡터 해상도 인덱스가 0이면 {1, 2, 4} 중 1이 선택될 수 있다.
예측 복호화부(33)는 현재 블록에 대해 지원 가능한 적어도 하나의 후보 움직임 벡터 해상도 세트 중 해상도 인덱스가 가라키는 후보 움직임 벡터 해상도를 현재 블록의 움직임 벡터 해상도로 결정하고, 적어도 하나의 후보 블록 중 상기 선택된 움직임 벡터 해상도에 매핑된 후보 블록을 현재 블록의 움직임 벡터 프리딕터를 위한 후보 블록으로 결정할 수 있다.
지원 가능한 적어도 하나의 후보 움직임 벡터 해상도는 적어도 하나의 후보 블록에 1:1로 매핑되어 있으며, 움직임 정보 복호화 장치(30)는 각각의 지원 가능한 후보 움직임 벡터 해상도 및 그에 매핑된 후보 블록의 움직임 벡터를 이용하여 각 후보 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터를 결정할 수 있다.
일 실시예에 따라, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터(predictor) 후보가 연동될 때, 예측 복호화부(33)는 현재 픽쳐와 참조 픽쳐 간의 POC 거리 및 현재 블록의 예측 방향에 따라 결정된 움직임 벡터 해상도 세트에 기초하여, 선택가능한 움직임 벡터 프리딕터 후보를 포함하는 프리딕터 후보 리스트를 결정할 수 있다.
일예로, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터 후보가 연동될 때, 현재 블록의 예측 방향 및 현재 픽쳐와 참조 픽쳐 간의 POC 거리 중 적어도 하나에 기초하여 결정된 움직임 벡터 해상도 세트 중 선택된 움직임 벡터 해상도를 가리키는 해상도 인덱스가, 움직임 벡터 프리딕터 후보를 가리킬 수도 있다. 즉, 움직임 벡터 프리딕터 후보 리스트 중에서 해상도 인덱스가 가리키는 움직임 벡터 프리딕터를 이용하여 현재 블록의 움직임 벡터가 인터 예측될 수 있다. 이 경우, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터 후보가 연동될 때, 해상도 인덱스와 프리딕터 인덱스가 연동된다면, 움직임 벡터 해상도 세트에 따라 움직임 벡터 프리딕터 리스트에서 결정되는 움직임 벡터 프리딕터도 달라질 수 있게 된다. 구체적인 예로, 전체 선택 가능한 움직임 벡터 해상도가 1/4-화소 단위, 1/2-화소 단위, 1-화소 단위, 2-화소 단위, 4-화소 단위이고, 전체 선택 가능한 움직임 벡터 프리딕터 후보가 p0, p1, p2, p3, p4인 경우를 상정한다. 만약 제1 움직임 벡터 해상도 세트가 {1/4, 1/2, 1}인 경우에 연동된 움직임 벡터 프리딕터 후보 리스트가 {p0, p1, p2}일 수 있다. 제2 움직임 벡터 해상도 세트가 {1, 2, 4}인 경우에 연동된 움직임 벡터 프리딕터 후보 리스트도 {p0, p1, p2}일 수 있다. 예측 부호화 결과 움직임 벡터 해상도가 1로 결정된 경우에, 제1 움직임 벡터 해상도 세트 중에서 움직임 벡터 해상도 1을 가리키는 제1 해상도 인덱스는 2로 생성될 수 있다. 이 경우, 움직임 벡터 프리딕터 후보 리스트 중에서 제1 해상도 인덱스가 가리키는 움직임 벡터 프리딕터는 p2가 된다. 반면, 제2 움직임 벡터 해상도 세트 중에서 움직임 벡터 해상도 1을 가리키는 제2 해상도 인덱스는 0으로 생성될 수 있다. 이 경우, 움직임 벡터 프리딕터 후보 리스트 중에서 제2 해상도 인덱스가 가리키는 움직임 벡터 프리딕터는 p0가 된다. 따라서, 제1 움직임 벡터 해상도 세트에 따른 제1 해상도 인덱스에 연동되는 움직임 벡터 프리딕터와 제2 움직임 벡터 해상도 세트에 따른 제2 해상도 인덱스에 연동되는 움직임 벡터 프리딕터가 다르게 결정될 수 있다.
일예로, 현재 블록의 예측 방향 및 현재 픽쳐와 참조 픽쳐 간의 POC 거리 중 적어도 하나에 기초하여 결정된 움직임 벡터 해상도 세트 중 선택된 움직임 벡터 해상도가, 직접 움직임 벡터 프리딕터 인덱스에 연동될 수도 있다. 이 경우, 서로 다른 움직임 벡터 해상도 세트들 중에서 움직임 벡터 해상도가 선택된다 하더라도, 움직임 벡터 해상도가 변하지 않는다면 해상도에 연동된 움직임 벡터 프리딕터도 일정하게 결정될 수 있게 된다. 구체적인 예로, 전체 선택 가능한 움직임 벡터 해상도가 1/4-화소 단위, 1/2-화소 단위, 1-화소 단위, 2-화소 단위, 4-화소 단위이고, 전체 선택 가능한 움직임 벡터 프리딕터 후보가 p0, p1, p2, p3, p4인 경우를 상정한다. 1/4-화소 단위에 p0가 연동되고, 1/2-화소 단위에 p1가, 1-화소 단위에 p2가, 2-화소 단위에 p3가, 4-화소 단위에 p4가 연동될 수 있다. 만약 제1 움직임 벡터 해상도 세트가 {1/4, 1/2, 1}인 경우에 연동된 제1 움직임 벡터 프리딕터 후보 리스트가 {p0, p1, p2}일 수 있다. 제2 움직임 벡터 해상도 세트가 {1, 2, 4}인 경우에 연동된 제2 움직임 벡터 프리딕터 후보 리스트도 {p2, p3, p4}일 수 있다. 예측 부호화 결과 움직임 벡터 해상도가 1로 결정된 경우에, 제1 움직임 벡터 해상도 세트와 제2 움직임 벡터 해상도 세트가 상이하고 제1 움직임 벡터 프리딕터 리스트와 제2 움직임 벡터 프리딕터 리스트가 상이하더라도, 움직임 벡터 해상도 1에 연동되는 움직임 벡터 프리딕터는 p2가 된다. 따라서, 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터 후보가 연동될 때, 움직임 벡터 해상도와 프리딕터 인덱스가 연동된다면, 움직임 벡터 해상도 세트가 달라지더라도 일정한 움직임 벡터 해상도에 연동되는 움직임 벡터 프리딕터는 일정하게 결정될 수 있게 된다.
일 실시예에 따른 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도에 따라, 보간된 참조 영상에서 현재 블록의 움직임 벡터를 결정한다. 예측 복호화부(33)는 현재 블록의 움직임 벡터 해상도를 후보 블록의 움직임 벡터를 조정할 수 있다. 예측 복호화부(33)는 후보 블록의 조정된 움직임 벡터에 따라 참조 영상 내에서 참조 블록을 결정할 수 있다.
예측 복호화부(33)는, S205 단계에서 결정된 움직임 벡터 해상도 세트 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도를 이용하여 현재 블록의 움직임 벡터를 결정할 수 있다.
일 실시예에 따른 예측 복호화부(33)는, 현재 픽쳐와 참조 픽쳐 간의 POC 거리 및 현재 블록의 예측 방향 중 적어도 하나에 기초하여 결정된 움직임 벡터 해상도 세트에 기초하여, 해상도 인덱스의 역이진화 방식을 결정할 수 있다.
예를 들어, 움직임 벡터 해상도 세트 {1/4, 1/2, 1, 2, 4}가 결정된 경우, 각 해상도의 인덱스는 0, 10, 110, 1110, 1111로 결정될 수 있다. 움직임 벡터 해상도 세트 {1/4, 1/2, 1}가 결정된 경우, 각 해상도의 인덱스는 0, 10, 11로 결정될 수 있다. 움직임 벡터 해상도 세트 {1,2,4} 가 결정된 경우, 각 해상도의 인덱스는 0, 10, 11로 결정될 수 있다. 움직임 벡터 해상도 세트 {1/4, 1} 가 결정된 경우, 각 해상도의 인덱스는 0,1로 결정될 수 있다. 따라서 움직임 벡터 해상도 세트에 따라 역이진화 방식이 달라질 수 있으므로, 예측 복호화부(33)는 움직임 벡터 해상도 세트에 적합한 역이진화 방식을 이용하여 움직임 벡터 해상도 세트 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도를 결정할 수 있다.
다른 실시예에 따라, 현재 픽쳐와 참조 픽쳐 간의 거리가 상당히 먼 경우, 움직임 정보 복호화 장치(30)에서 지원하는 움직임 벡터 해상도보다 더 해상도가 낮은 움직임 벡터 해상도를 이용하여 움직임 벡터를 복호화하는 것이 더 효율적일 수 있다. 이 경우, 지원 가능한 전체 움직임 벡터 해상도 1/4-화소단위, 1/2-화소단위, 1-화소단위, 2-화소단위, 4-화소단위를, 1/2-화소단위, 1-화소단위, 2-화소단위, 4-화소단위, 5-화소단위로 스케일링하고, 움직임 벡터 해상도 세트 {1/4, 1, 4} 중에서 해상도 인덱스에 대응하는 움직임 벡터 해상도를 2배 스케일링함으로써, 움직임 벡터 해상도 세트 {1/2, 2, 8} 중에서 실제 사용할 움직임 벡터 해상도를 결정할 수 있다.
이를 위해, 참조 픽쳐가 롱텀 픽쳐인 경우 또는 현재 픽쳐와 상당히 먼 픽쳐인 경우에 threshold2는 threshold1에 비해 상당히 크게 설정될 수 있다. 구체적인 예로, 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 작은 경우(|POC_cur - POC_ref| < threshold1), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1/4, 1/2, 1}로 결정할 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold1보다 크거나 같고 threshold2보다 작거나 같은 경우(threshold1 <= |POC_cur - POC_ref| <= threshold2), 현재 블록의 인터 예측을 위한 움직임 벡터 해상도 리스트를 {1, 2, 4}로 결정할 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold2보다 큰 경우(|POC_cur - POC_ref| > threshold2), 움직임 벡터 해상도 리스트 {1, 2, 4}를 2배 스케일링한 움직임 벡터 해상도 리스트 {2, 4, 8}가 사용되도록 결정될 수 있다. 현재 픽쳐의 POC와 참조 픽쳐 POC 간의 차이가 threshold2보다 큰 경우에, 움직임 벡터 해상도 세트 {1, 2, 4}을 2배 스켈링한 움직임 벡터 해상도 세트 {2, 4, 8} 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도를 결정할 수 있다. 따라서, 획득된 해상도 인덱스 0가 움직임 벡터 해상도 세트 {1, 2, 4} 중에 1을 가리킨다면 실제 사용할 움직임 벡터 해상도가 2로 결정되고, 획득된 해상도 인덱스 1가 움직임 벡터 해상도 세트 {1, 2, 4} 중에 2을 가리킨다면 실제 사용할 움직임 벡터 해상도가 4로 결정되고, 획득된 해상도 인덱스 2가 움직임 벡터 해상도 세트 {1, 2, 4} 중에 4을 가리킨다면 실제 사용할 움직임 벡터 해상도가 8로 결정될 수 있다. 앞서 설명의 편의를 위해 움직임 벡터 해상도를 2배 스케일링하는 실시예를 설명하였을 뿐, 미리 정해진 규칙에 따라 움직임 벡터 해상도 세트에 포함된 해상도들이 2배, 4배, 8배 등으로 스케일링가능할 수 있다.
S207 단계에서 예측 복호화부(33)는, 움직임 벡터 해상도 세트 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 예측 방향에 따른 움직임 벡터를 결정할 수 있다.
일 실시예에 따른 획득부(31)에 의해 획득된 현재 블록의 움직임 벡터와 후보 블록의 움직임 벡터(또는 조정된 움직임 벡터) 사이의 잔차 움직임 벡터가 존재하는 경우, 예측 복호화부(33)는 후보 블록의 움직임 벡터와 잔차 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 획득할 수 있다.
일 실시예에서, 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도와 최소 움직임 벡터 해상도의 차이에 따라 후보 블록의 움직임 벡터에 대해 선택적으로 조정을 하고, 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도의 차이에 따라 잔차 움직임 벡터를 선택적으로 업스케일할 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)에 따르면, 현재 블록의 움직임 정보의 특성에 따라 사용가능한 움직임 벡터 해상도만이 사용되어 인터 예측이 수행되고, 사용가능한 움직임 벡터 해상도만을 포함하는 세트 중에 실제 사용된 움직임 벡터 해상도를 가리키는 해상도 인덱스가 이용되므로, 부호화 단위마다 해상도 인덱스를 부호화하거나 복호화하기 위한 인덱스의 비트량이 절감될 수 있다.
도 21는 적어도 하나의 후보 움직임 벡터 해상도 각각에 1:1로 매핑된 적어도 하나의 후보 블록을 설명하기 위한 도면이다.
현재 블록(50)과 연관된 공간적 블록들과 시간적 블록들 중에서 선택된 적어도 하나의 후보 블록이 후보 움직임 벡터 해상도 각각에 매핑될 수 있다.
예를 들어, 공간적 블록은, 현재 블록(50)의 인접 블록인 좌측 상부 블록(a), 우측 상부 블록(b), 좌측 상부 블록(c), 우측 상부 블록(d), 좌상단 외곽 블록(e), 우상단 외곽 블록(f), 좌하단 외곽 블록(g), 우하단 외곽 블록(h), 좌측 하부 블록(i), 우측 하부 블록(j), 좌측 블록(k), 우측 블록(l) 및 상부 블록(m)을 포함할 수 있다. 시간적 블록은 현재 블록(50)과 다른 POC를 갖는 참조 영상에 속한 동일 위치 블록(n) 및 동일 위치 블록의 인접 블록(o)을 포함할 수 있다.
이들 공간적 블록들과 시간적 블록들 중에서 선택된 적어도 하나의 후보 블록이 후보 움직임 벡터 해상도 각각에 매핑될 수 있는데, 도 22에 도시된 바와 같이, 1/4 화소 단위의 움직임 벡터 해상도는 좌측 블록(k), 1/2 화소 단위의 움직임 벡터 해상도는 상부 블록(m), 1 화소 단위의 움직임 벡터 해상도는 좌측 상부 블록(a), 2 화소 단위의 움직임 벡터 해상도는 상부 좌측 블록(c), 4 화소 단위의 움직임 벡터 해상도는 좌측 하부 블록(i) 각각에 매핑될 수 있다. 도시된 매핑 관계는 하나의 예시일 뿐이며, 다양한 매핑 관계가 설정될 수 있다.
도 22에 도시된 예에 따르면, 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도를 1/4 화소 단위로 결정하면, 현재 블록의 움직임 벡터 프리딕터로서 좌측 블록의 움직임 벡터를 이용한다. 또한, 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 프리딕터로서 상부 블록의 움직임 벡터를 이용하면, 현재 블록의 움직임 벡터 해상도를 1/2 화소 단위로 결정할 수 있다.
또한, 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도가 1/4 화소 단위로 확인하면, 현재 블록의 움직임 벡터 프리딕터로서 좌측 블록의 움직임 벡터를 이용한다. 또한, 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 프리딕터로서 상부 블록의 움직임 벡터가 이용되는 것으로 확인되면, 현재 블록의 움직임 벡터 해상도를 1/2 화소 단위로 결정할 수 있다.
도 23은 다양한 움직임 벡터 해상도에 따른 움직임 벡터를 결정하기 위한 보간(interpolation)을 설명하기 위한 도면이다.
움직임 정보 부호화 장치(10)는 현재 블록을 인터 예측하기 위해 적어도 하나의 후보 움직임 벡터 해상도에 따라 현재 블록의 움직임 벡터를 결정할 수 있다. 지원 가능한 후보 움직임 벡터 해상도는 2k 화소 단위(k는 정수)의 움직임 벡터 해상도를 포함할 수 있다. 만약, k가 0보다 클 경우 움직임 벡터는 보간된 참조 영상 내의 정수 화소들만 가리킬 수 있으며, k가 0보다 작을 경우에는 부화소들 및 정수 화소들을 가리킬 수 있다.
예를 들어, 최소 움직임 벡터 해상도가 1/4 화소 단위를 갖는 경우, 움직임 정보 부호화 장치(10)는 1/4 화소 단위의 부픽셀들이 생성되도록 참조 영상을 보간하고, 움직임 벡터가 후보 움직임 벡터 해상도, 예를 들어, 1/4 화소 단위 움직임 벡터 해상도, 1/2 화소 단위 움직임 벡터 해상도, 1 화소 단위 움직임 벡터 해상도 또는 2 화소 단위 움직임 벡터 해상도 각각에 대응하는 화소를 가리키도록 움직임 벡터를 결정할 수 있다.
일 예로서, 움직임 정보 부호화 장치(10)는 n-탭 FIR 필터(Finite Impulse Response filter)를 이용해 참조 영상에 대해 보간을 수행하여 1/2 화소 단위의 부화소들(a 내지 l)을 생성할 수 있다. 세로 방향의 1/2 부화소들을 살펴보면, 정수 화소 단위의 A1, A2, A3, A4, A5 및 A6을 이용해 보간을 수행하여 부화소 a를 생성하고, 정수 화소 단위의 B1, B2, B3, B4, B5 및 B6를 이용해 보간을 수행하여 부화소 b를 생성할 수 있다. 동일한 방법으로 부화소 c, d, e 및 f를 생성할 수 있다.
세로 방향의 부화소들의 화소 값들은 다음과 같이 계산될 수 있다. 예를 들어, a=(A1-5×A2+20×A3+20×A4-5×A5+A6)/32, b=(B1-5×B2+20ХB3+20ХB4-5ХB5+B6)/32 와 같이 계산될 수 있다. 부화소 c, d, e 및 f의 화소 값들도 동일한 방법에 의해 계산될 수 있다.
움직임 정보 부호화 장치(10)는 세로 방향의 부화소와 마찬가지로 가로 방향의 부화소들도 6탭 FIR 필터를 이용해 보간을 수행하여 생성할 수 있다. A1, B1, C1, D1, E1 및 F1을 이용해 부화소 g를 생성하고, A2, B2, C2, D2, E2 및 F2를 이용해 부화소 h를 생성할 수 있다.
가로 방향의 부화소들의 화소 값도 세로 방향의 부화소들의 화소 값과 동일한 방법에 의해 계산된다. 예를 들어, g=(A1-5×B1+20×C1+20×D1-5×E1+F1)/32와 같이 계산할 수 있다.
대각 방향의 1/2 화소 단위의 부화소 m은 다른 1/2 화소 단위 부화소를 이용하여 보간될 수 있다. 다시 말해, 부화소 m의 화소 값은 m=(a-5×b+20×c+20×d-5×e+f)/32와 같이 계산될 수 있다.
1/2 화소 단위의 부화소들이 생성되면, 움직임 정보 부호화 장치(10)는 정수 화소들과 1/2 화소 단위의 부화소들을 이용하여, 1/4 화소 단위의 부화소들을 생성할 수 있다. 인접한 2개 화소들을 이용해 보간을 수행하여 1/4 화소 단위의 부화소들을 생성할 수 있다. 또는, 1/4 화소 단위의 부화소는 1/2 화소 단위의 부화소 값을 이용하지 않고 정수 화소의 화소 값에 직접 보간 필터를 적용하여 생성될 수도 있다.
상술한 보간 필터는 6-탭 필터를 예로 들어 기재하였으나, 움직임 정보 부호화 장치(10)는 다른 탭 수를 가지는 필터를 사용하여 픽처를 보간할 수도 있다. 예를 들어, 보간 필터는 4-탭, 7-탭, 8-탭, 12탭 필터를 포함할 수 있다.
도 24은 지원 가능한 최소 움직임 벡터 해상도가 1/4 화소 단위 움직임 벡터 해상도인 경우, 1/4 화소 단위 움직임 벡터 해상도, 1/2 화소 단위 움직임 벡터 해상도, 1 화소 단위 움직임 벡터 해상도 및 2 화소 단위 움직임 벡터 해상도에 대응하여 움직임 벡터가 가리킬 수 있는 화소들의 위치를 나타낸다.
도 24의 (a), (b), (c), (d)는 각각 좌표 (0, 0)을 기준으로 1/4 화소 단위 움직임 벡터 해상도, 1/2 화소 단위 움직임 벡터 해상도, 1 화소 단위 움직임 벡터 해상도 및 2 화소 단위 움직임 벡터 해상도의 움직임 벡터가 가리킬 수 있는 화소의 좌표(검정색 사각형으로 표시)들을 나타낸다.
최소 움직임 벡터 해상도가 1/4 화소 단위 움직임 벡터 해상도인 경우, 1/4 화소 단위 움직임 벡터 해상도의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (a/4, b/4)(a, b는 정수)가 되고, 1/2 화소 단위 움직임 벡터 해상도의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (2c/4, 2d/4)(c, d는 정수)가 되고, 1 화소 단위 움직임 벡터 해상도의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (4e/4, 4f/4)(e, f는 정수)가 되고, 2 화소 단위 움직임 벡터 해상도의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (8g/4, 8h/4)(g, h는 정수)가 된다. 즉, 최소 움직임 벡터 해상도가 2m(m은 정수) 화소 단위를 갖는 경우, 2n(n은 정수) 화소 단위 움직임 벡터 해상도가 가리킬 수 있는 화소의 좌표는 (2n-m*i/2-m, 2n-m*j/2-m)(i, j는 정수)이 된다. 움직임 벡터가 특정의 움직임 벡터 해상도에 따라 결정되더라도, 움직임 벡터는 1/4 화소 단위에 따라 보간된 영상 내 좌표로 표현된다.
일 실시예에서, 움직임 정보 부호화 장치(10)는 최소 움직임 벡터 해상도에 따라 보간된 영상에서 움직임 벡터를 결정하므로, 움직임 벡터(및 움직임 벡터 프리딕터)가 정수로 표현될 수 있도록, 움직임 벡터(및 움직임 벡터 프리딕터)에 최소 움직임 벡터 해상도의 화소 단위 값의 역수, 예를 들어, 최소 움직임 벡터 해상도가 2m(m은 정수) 화소 단위를 갖는 경우, 2-m을 곱하여 정수 단위의 움직임 벡터를 나타낼 수 있다. 2-m을 곱한 정수 단위의 움직임 벡터가 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)에서 이용될 수 있다.
만약, 좌표(0,0)에서 출발한 1/2 화소 단위 움직임 벡터 해상도의 움직임 벡터가 좌표 (2/4, 6/4)을 가리키고, 최소 움직임 벡터 해상도가 1/4 화소 단위를 갖는다면, 움직임 정보 부호화 장치(10)는 움직임 벡터에 정수 4를 곱한 값인 (2, 6)를 움직임 벡터로 결정할 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 움직임 벡터 해상도의 크기가 1 화소 단위 미만인 경우, 부화소 단위로 움직임 예측을 수행하기 위해, 정수 화소 단위에서 결정된 움직임 벡터를 기준으로, 부화소 단위에 기초하여 참조 영상 내에서 현재 블록과 유사한 블록을 검색할 수 있다.
일 예로서, 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도가 1/4 화소 단위 움직임 벡터 해상도인 경우, 정수 화소 단위에서 움직임 벡터를 결정하고, 1/2 화소 단위의 부픽셀들이 생성되도록 참조 영상을 보간한 후 정수 화소 단위에서 결정된 움직임 벡터를 기준으로 (-1 ~ 1, -1 ~ 1) 범위에서 가장 유사한 예측 블록을 검색할 수 있다. 다음, 다시 1/4 화소 단위의 부픽셀들이 생성되도록 참조 영상을 보간한 후, 1/2 화소 단위에서 결정된 움직임 벡터를 기준으로 (-1 ~ 1, -1 ~ 1) 범위에서 가장 유사한 예측 블록을 검색함으로서, 최종적인 1/4 화소 단위 움직임 벡터 해상도의 움직임 벡터를 결정할 수 있다.
예를 들어, 정수 화소 단위의 움직임 벡터가 좌표 (0,0)을 기준으로 (-4, -3)인 경우, 1/2 화소 단위 움직임 벡터 해상도에서는 움직임 벡터가 (-8, -6)(=(-4*2, -3*2))이 되고 만약 (0, -1)만큼 움직였다면 1/2 화소 단위 움직임 벡터 해상도의 움직임 벡터는 최종적으로 (-8, -7)(=(-8, -6-1))로 결정된다. 또한, 1/4 화소 단위 움직임 벡터 해상도에서의 움직임 벡터는 (-16, -14)(=(-8*2, -7*2))로 변경되고 다시 (-1,0)만큼 움직였다면 1/4 화소 단위 움직임 벡터 해상도의 최종적인 움직임 벡터는 (-17, -14)(=(-16-1, -14))로 결정될 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도가 1 화소 단위 움직임 벡터 해상도보다 큰 경우, 큰 화소 단위로 움직임 예측을 수행하기 위해, 정수 화소 단위에서 결정된 움직임 벡터를 기준으로 1 화소 단위보다 큰 화소 단위에 기초하여 참조 픽처 내에서 현재 블록과 유사한 블록을 검색할 수 있다. 1 화소 단위보다 큰 화소 단위(예를 들어, 2 화소 단위, 3 화소 단위, 4 화소 단위)에 위치하는 화소는 슈퍼 화소(super pixel)로 참조될 수 있다.
이하에서는, 도 25 및 도 26를 참조하여, 일 실시예에 따른 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)에 의해 선택적으로 수행되는 움직임 벡터 프리딕터 조정 방법에 대해 설명한다.
움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도가 선택 가능한 후보 움직임 벡터 해상도 중 최소 움직임 벡터 해상도보다 큰 경우, 현재 블록의 움직임 벡터 프리딕터로 이용되는 후보 블록의 움직임 벡터를 조정할 수 있다.
움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 최소 움직임 벡터 해상도에 따라 보간된 영상 내 좌표로 표현되는 움직임 벡터 프리딕터를 현재 블록의 움직임 벡터 해상도로 조정(adjust)하기 위해, 움직임 벡터 프리딕터가 가리키는 화소 대신 주변의 화소들을 가리키도록 조정할 수 있다.
일 예로서, 도 25에서 좌표 (0,0)을 기준으로 좌표 (19, 27)의 화소(71)를 가리키는 움직임 벡터 프리딕터(A)를 현재 블록의 움직임 벡터 해상도인 1 화소 단위 움직임 벡터 해상도로 조정하기 위해 움직임 벡터 프리딕터(A)가 가리키는 화소(71)의 좌표 (19, 27)를 정수 4로 나누게 되는데(즉, 다운스케일), 나눈 결과에 해당하는 좌표 (19/4, 27/4)가 정수 화소 단위를 가리키지 않는 경우가 발생하게 된다.
움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 다운스케일된 움직임 벡터 프리딕터가 정수 화소 단위를 가리키도록 조정할 수 있다. 예를 들어, 좌표 (19/4, 27/4)를 중심으로 한 주변의 정수 화소의 좌표 각각은 (16/4, 28/4), (16/4, 24/4), (20/4, 28/4), (20/4, 24/4)가 된다. 이 때, 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 다운스케일된 움직임 벡터 프리딕터(A)가 좌표 (19/4, 27/4) 대신 우측-상단에 위치하는 좌표인 (20/4, 28/4)를 가리키도록 조정한 후, 다시 정수 4를 곱하여(즉, 업스케일), 최종적으로 조정된 움직임 벡터 프리딕터(D)가 좌표 (20, 28)에 해당하는 화소(74)을 가리키도록 할 수 있다.
도 25를 참조하면, 조정되기 전의 움직임 벡터 프리딕터(A)가 화소(71)를 가리키고, 최종적으로 조정된 움직임 벡터 프리딕터(D)가 화소(71)의 우측-상단에 위치하는 정수 단위의 화소(74)를 가리킬 수 있다.
일 실시예에 따른 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 움직임 벡터 프리딕터를 현재 블록의 움직임 벡터 해상도에 따라 조정할 때, 조정된 움직임 벡터 프리딕터가, 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소의 우측-상단에 위치하는 화소를 가리키도록 할 수 있다. 다른 실시예에 따른 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 조정된 움직임 벡터 프리딕터가, 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소의 좌측-상단에 위치하는 화소, 좌측-하단에 위치하는 화소, 또는 우측-하단에 위치하는 화소를 가리키도록 할 수도 있다.
일 실시예에서, 다운스케일된 움직임 벡터 프리딕터가 가리키는 x 좌표 값 및 y 좌표 값 중 어느 하나가 정수 화소를 가리키는 경우에는, 정수 화소를 가리키지 않는 좌표 값만을 증가시키거나 감소시켜, 정수 화소를 가리키도록 조정할 수 있다. 즉, 다운스케일된 움직임 벡터 프리딕터가 가리키는 x 좌표 값이 정수 화소를 가리킬 때에는, 조정된 움직임 벡터 프리딕터가, 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소의 상단에 위치하는 정수 화소 또는 하단에 위치하는 정수 화소를 가리키도록 할 수 있다. 또는, 다운스케일된 움직임 벡터 프리딕터가 가리키는 y 좌표 값이 정수 화소를 가리킬 때에는, 조정된 움직임 벡터 프리딕터가, 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소의 좌측에 위치하는 정수 화소 또는 우측에 위치하는 정수 화소를 가리키도록 할 수 있다.
움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 움직임 벡터 프리딕터를 조정할 때, 조정된 움직임 벡터 프리딕터가 가리키는 지점을, 현재 블록의 움직임 벡터 해상도에 따라 다르게 선택할 수도 있다.
예를 들어, 도 26를 참조하면, 현재 블록의 움직임 벡터 해상도가 1/2 화소 단위 움직임 벡터 해상도인 경우, 조정된 움직임 벡터 프리딕터는 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소(81)의 좌측-상단의 화소(83)를 가리키게 하고, 현재 블록의 움직임 벡터 해상도가 1 화소 단위 움직임 벡터 해상도인 경우, 조정된 움직임 벡터 프리딕터는 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소(81)의 우측-상단의 화소(82)를 가리키게 하고, 현재 블록의 움직임 벡터 해상도가 2 화소 단위 움직임 벡터 해상도인 경우, 조정된 움직임 벡터 프리딕터는 조정되기 전의 움직임 벡터 프리딕터가 가리키는 화소(81)의 우측-하단의 화소(84)를 가리키도록 조정할 수 있다.
움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 조정된 움직임 벡터 프리딕터가 어느 화소를 가리키도록 할지를, 현재 블록의 움직임 벡터 해상도, 움직임 벡터 프리딕터, 주변 블록의 정보, 부호화 정보, 임의의 패턴 중 적어도 하나에 기초하여 결정할 수 있다.
움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도와 최소 움직임 벡터 해상도를 고려하여 후보 블록의 움직임 벡터를 조정할 때, 하기의 수학식 1에 따라 조정할 수 있다.
[수학식 1]
pMV' = ((pMV >> k) + offset) << k
수학식 1에서 pMV'는 조정된 움직임 벡터 프리딕터를 나타내고, k는 현재 블록의 움직임 벡터 해상도와 최소 움직임 벡터 해상도의 차이에 따라 결정되는 값으로서, 현재 블록의 움직임 벡터 해상도가 2m 화소 단위(m은 정수), 최소 움직임 벡터 해상도가 2n 화소 단위(n은 정수)이고, m > n일 때, k는 m-n일 수 있다.
일 실시예에서, k는 움직임 벡터 해상도의 인덱스일 수도 있는데, 후보 움직임 벡터 해상도가 1/4 화소 단위 움직임 벡터 해상도, 1/2 화소 단위 움직임 벡터 해상도, 1 화소 단위 움직임 벡터 해상도, 2 화소 단위 움직임 벡터 해상도 및 4 화소 단위 움직임 벡터 해상도를 포함할 때, 움직임 벡터 해상도를 가리키는 인덱스는 각각 0, 1, 2, 3, 4로 결정될 수 있다.. 움직임 정보 복호화 장치(30)는 비트스트림으로부터 움직임 벡터 해상도 인덱스가 수신되면, 움직임 벡터 해상도 인덱스를 k로 이용하여 후보 블록의 움직임 벡터를 수학식 1에 따라 조정할 수 있다.
또한, 수학식 1에서 >> 또는 <<는 비트 쉬프트(bit shift) 연산으로서, 움직임 벡터 프리딕터의 크기를 감소 또는 증가시키는 연산을 의미한다. 또한, offset은 k 값에 따라 다운스케일된 pMV가 정수 화소를 가리키지 않을 때 정수 화소를 가리키도록 더해지거나 빼지는 값을 의미한다. offset은 기본 MV의 x 좌표 값 및 y 좌표 값 각각에 대해 상이하게 결정될 수 있다.
일 실시예에서, 움직임 정보 부호화 장치(10)와 움직임 정보 복호화 장치(30)는 다운스케일된 pMV가 정수 화소를 가리키도록 변경시킬 때, 동일 기준에 따라 변경시킬 수 있다.
일 실시예에서, 다운스케일된 pMV의 x 좌표 값 및 y 좌표 값이 정수 화소를 가리키지 않을 때, 다운스케일된 pMV의 x 좌표 값 및 y 좌표 값을 항상 증가시켜 정수 화소를 가리키도록 할 수 있고, 항상 감소시켜 정수 화소를 가리키도록 할 수도 있다. 또는, 다운스케일된 pMV의 x 좌표 값 및 y 좌표 값을 반올림하여 정수 화소를 가리키도록 할 수도 있다.
일 실시예에서, 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 후보 블록의 움직임 벡터를 조정할 때, 움직임 벡터의 다운스케일 및 업스케일을 생략하고, 움직임 벡터가 현재 블록의 움직임 벡터 해상도에 대응하는 화소 단위를 가리키도록 최소 움직임 벡터 해상도에 따라 보간된 참조 영상 내 좌표 평면에서 조정할 수도 있다.
또한, 일 실시예에서, 움직임 정보 부호화 장치(10) 및 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도와 최소 움직임 벡터 해상도를 고려하여 후보 블록의 움직임 벡터를 조정할 때, 상기 수학식 1 대신 하기의 수학식 2에 따라 조정할 수도 있다.
[수학식 2]
pMV' = ((pMV + offset) >> k) << k
수학식 2는 수학식 1과 유사하나, 수학식 1에서와 같이 offset이 다운스케일된 pMV에 적용되는 것이 아니고, 원래의 pmV에 offset이 적용된 후, k에 따라 다운스케일된 것을 알 수 있다.
움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도로 현재 블록의 움직임 벡터를 찾고, 현재 블록의 움직임 벡터와 선택적으로 조정된 움직임 벡터 프리딕터 사이의 차를 잔차 움직임 벡터로 획득한다.
움직임 정보 부호화 장치(10)는 잔차 움직임 벡터를 하기의 수학식 3과 같이 결정하여 부호화할 수 있다. 수학식 3에서 MV는 현재 블록의 움직임 벡터이고, pMV'는 조정된 움직임 벡터 프리딕터고, MVD는 잔차 움직임 벡터를 나타낸다.
[수학식 3]
MVD = MV - pMV'
움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터 해상도가 최소 움직임 벡터 해상도보다 크다면 잔차 움직임 벡터를 수학식 4와 같이 다운스케일하고, 다운스케일된 잔차 움직임 벡터를 나타내는 정보를 포함하는 비트스트림을 생성할 수 있다.
[수학식 4]
MVD' = (MVD >> k)
상기 수학식 4에서 MVD'는 다운스케일된 잔차 움직임 벡터를 나타내고, k는 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도 사이의 차이에 따라 결정되는 값으로서, 앞서 수학식 1의 k와 동일하다.
일 실시예에서, 움직임 정보 부호화 장치(10)는 현재 블록의 움직임 벡터와 움직임 벡터 프리딕터(또는 조정된 움직임 벡터 프리딕터)를 상기 k 값에 따라 다운스케일 한 뒤, 두 값의 차를 잔차 움직임 벡터로서 부호화할 수도 있다.
일 실시예에서, 움직임 정보 부호화 장치(10)는 수학식 3과 수학식 4 대신 아래의 수학식 5에 따라 다운스케일된 잔차 움직임 벡터를 계산할 수도 있다.
[수학식 5]
MVD' = (MV - pMV') / (R * S)
수학식 5에서 MVD'는 다운스케일된 잔차 움직임 벡터를 나타내고, MV는 현재 블록의 움직임 벡터이고, pMV'는 조정된 움직임 벡터 프리딕터다. 또한, R은 현재 블록의 움직임 벡터 해상도의 화소 단위 값, 예를 들어, 1/4 화소 단위 움직임 벡터 해상도인 경우 1/4을 나타낸다. 또한, S는 최소 움직임 벡터 해상도의 화소 단위 값의 역수로서, 최소 움직임 벡터 해상도가 1/4 화소 단위인 경우, S는 4를 나타낸다.
움직임 정보 복호화 장치(30)는 비트스트림으로부터 획득된 현재 블록의 움직임 벡터 해상도를 나타내는 정보 및 후보 블록을 나타내는 정보 중 적어도 하나와, 잔차 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 복원할 수 있다.
움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도가 최소 움직임 벡터 해상도보다 큰 경우, 상기 수학식 1 또는 수학식 2과 같이 움직임 벡터 프리딕터를 조정할 수 있다.
움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도가 최소 움직임 벡터 해상도보다 큰 경우에는 잔차 움직임 데이터를 아래의 수학식 6과 같이, 업스케일할 수 있다.
[수학식 6]
MVD'' = (MVD' << k)
상기 수학식 6에서 MVD'는 부호화 장치 측에서 다운스케일된 잔차 움직임 벡터를 나타내고, MVD''는 업스케일된 잔차 움직임 벡터를 나타낸다. 상기 k는 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도 사이의 차이에 따라 결정되는 값으로서, 앞서 수학식 1의 k와 동일하다.
움직임 정보 복호화 장치(30)는 최소 움직임 벡터 해상도와 현재 블록의 움직임 벡터 해상도의 크기 차이에 따라 선택적으로 조정된 움직임 벡터 프리딕터와 선택적으로 업스케일된 잔차 움직임 벡터를 합하여 현재 블록의 움직임 벡터를 복호화할 수 있다.
일 실시예에서, 움직임 정보 복호화 장치(30)는 업스케일된 잔차 움직임 벡터를 상기 수학식 6 대신 아래의 수학식 7에 따라 결정할 수도 있다.
[수학식 7]
MVD'' = MVD' * (R * S)
수학식 7에서 MVD'는 다운스케일된 잔차 움직임 벡터를 나타내고, R은 현재 블록의 움직임 벡터 해상도의 화소 단위 값, 예를 들어, 1/4 화소 단위 움직임 벡터 해상도인 경우 1/4을 나타낸다. 또한, S는 최소 움직임 벡터 해상도의 화소 단위 값의 역수로서, 최소 움직임 벡터 해상도가 1/4 화소 단위인 경우, S는 4를 나타낸다.
일 실시예에서, 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도가 1 화소 단위 움직임 벡터 해상도 미만인 경우에는, 최소 움직임 벡터 해상도에 따라 참조 영상을 보간한 후, 현재 블록의 움직임 벡터에 따라 예측 블록을 탐색할 수 있다. 또한, 움직임 정보 복호화 장치(30)는 현재 블록의 움직임 벡터 해상도가 1 화소 단위 움직임 벡터 해상도 이상인 경우에는, 참조 영상을 보간하지 않고 현재 블록의 움직임 벡터에 따라 예측 블록을 탐색할 수 있다.
이하, 도 27 및 28을 참조하여, 슬라이스 또는 시퀀스별로 움직임 벡터 해상도 세트가 결정되는 움직임 정보 부호화 방법 및 움직임 정보 복호화 방법을 상술한다.
도 27는 다른 실시예에 따른 움직임 정보 부호화 방법을 설명하기 위한 순서도이다.
S271 단계에서, 다른 실시예에 따른 움직임 정보 부호화 장치(10)는, 현재 슬라이스 또는 현재 시퀀스에서 선택가능한 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정할 수 있다.
예를 들어, 참조 픽쳐 리스트에 포함된 픽쳐들이 모두 현재 픽쳐들과 가까운 경우에, 더 미세한 움직임 표현이 가능하도록, 상대적으로 높은 움직임 벡터 해상도가 필요하다. 반대로, 참조 픽쳐 리스트에 포함된 픽쳐들이 모두 현재 픽쳐들과 먼 경우에, 상대적으로 낮은 움직임 벡터 해상도를 필요로 한다.
따라서, 움직임 정보 부호화 장치(10)는, 현재 슬라이스 또는 현재 픽쳐에서 움직임 벡터 해상도 별로 사용가능한지 여부를 결정할 수 있다.
예를 들어, 현재 슬라이스에서 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 결정할 수 있다. 다른 예로, 현재 픽쳐에서 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 결정할 수 있다.
예를 들어, 소정 개수의 움직임 벡터 해상도 세트가 사용될 수 있는 경우에, 현재 슬라이스에서 어느 세트가 사용될 수 있는지 결정할 수 있다. 다른 예로, 소정 개수의 움직임 벡터 해상도 세트가 사용될 수 있는 경우에, 현재 픽쳐에서 어느 세트가 사용될 수 있는지 결정할 수 있다.
또한, 움직임 벡터 해상도 세트에 포함된 후보 해상도의 개수에 따라, 현재 슬라이스 또는 현재 픽쳐에 포함된 부호화 단위들마다, 움직임 벡터 해상도 세트를 어떻게 결정할지 여부(예를 들어, 움직임 벡터 해상도마다 결정할지 여부 또는 어느 움직임 벡터 해상도 세트를 결정할지 여부)를 결정할 수도 있다.
S273 단계에서, 다른 실시예에 따른 움직임 정보 부호화 장치(10)는, S271 단계에서 결정된 움직임 벡터 해상도 세트에 기초하여 현재 블록에 인터 예측을 수행하여, 현재 블록의 움직임 벡터, 참조 픽쳐 및 예측 방향을 결정할 수 있다.
현재 블록의 움직임 추정을 통해 현재 블록의 움직임 벡터를 결정하고 나머지 움직임 정보들을 결정하는 동작은 앞서 도 17 및 18을 참조하여 전술한 바와 동일하다.
S275 단계에서, 다른 실시예에 따른 움직임 정보 부호화 장치(10)는, 움직임 벡터 해상도 세트 중에서 움직임 벡터에 대응하는 움직임 벡터 해상도를 가리키는 해상도 인덱스를 생성할 수 있다.
구체적인 예로, 움직임 정보 부호화 장치(10)는 현재 슬라이스에서 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그를 생성할 수 있다. 다른 예로, 움직임 정보 부호화 장치(10)는 현재 시퀀스에서 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그를 생성할 수 있다.
예를 들어, 소정 개수의 움직임 벡터 해상도 세트가 사용될 수 있는 경우에, 움직임 정보 부호화 장치(10)는 현재 슬라이스에서 어느 세트가 사용될 수 있는지 여부를 나타내는 정보를 생성할 수 있다. 다른 예로, 소정 개수의 움직임 벡터 해상도 세트가 사용될 수 있는 경우에, 움직임 정보 부호화 장치(10)는 현재 시퀀스에서 어느 세트가 사용될 수 있는지 여부를 나타내는 정보를 생성할 수 있다.
또한, 현재 슬라이스 또는 현재 시퀀스에서 사용가능한 움직임 벡터 해상도 세트에 포함된 후보 해상도의 개수에 따라, 현재 슬라이스 또는 현재 시퀀스에 포함된 부호화 단위들마다, 움직임 벡터 해상도 세트를 결정하기 위한 정보를 개별적으로 설정할 수 있다. 예를 들어, 현재 슬라이스 또는 현재 시퀀스에서 사용가능한 움직임 벡터 해상도 세트에 포함된 후보 해상도의 개수에 따라, 부호화 단위별로, 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그를 생성하거나, 어느 움직임 벡터 해상도 세트를 나타내는 정보를 생성할 수도 있다.
앞서 예시한, 움직임 벡터 해상도마다 사용 가능한지 여부 또는 어느 움직임 벡터 해상도 세트를 사용할지 여부는, 시퀀스별로, 픽쳐별로, 슬라이스별로, 또는 타일별로 결정될 수 있다. 따라서, 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그 및 어느 움직임 벡터 해상도 세트를 나타내는 정보 중 적어도 하나는, SPS(Sequence Parameter Set)별로, PPS(Picture Parameter Set)별로, 슬라이스 헤더별로 또는 타일별로 정의될 수 있다.
구체적인 예로, 현재 슬라이스를 위해 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지가 결정될 수 있다. 따라서, 현재 슬라이스를 위한 슬라이스 헤더에 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지를 나타내는 정보가 포함될 수 있다. 다른 예로, 현재 시퀀스를 위해 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지가 결정될 수 있다. 따라서, 현재 시퀀스를 위한 SPS에 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지를 나타내는 정보가 포함될 수 있다.
다른 예로, 현재 슬라이스 또는 현재 시퀀스에서 움직임 벡터 해상도별로 사용가능한지 여부가 결정되는 경우에, 현재 시퀀스에 포함된 부호화 단위에서는 사용가능한 움직임 벡터 해상도만을 포함하는 세트 중에 사용하도록 결정된 해상도를 가리키는 해상도 인덱스가 생성될 수 있다. 구체적으로, SPS 또는 슬라이스 헤더에 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그가 포함되고, 부호화 단위마다 해상도 인덱스만이 시그널링될 수 있다. 시퀀스 내에서 사용가능한 움직임 벡터 해상도만을 포함하는 움직임 벡터 해상도 세트가 이용되므로, 부호화 단위별로 결정되는 해상도 인덱스를 표현하기 위한 인덱스의 비트량이 절감될 수 있다.
도 28는 다른 실시예에 따른 움직임 정보 복호화 방법을 설명하기 위한 순서도이다.
S281 단계에서, 다른 실시예에 따른 움직임 정보 복호화 장치(30)는, 현재 시퀀스 또는 현재 슬라이스에서 해상도 정보를 획득하여 움직임 벡터 해상도 세트를 결정할 수 있다.
S283 단계에서, 다른 실시예에 따른 움직임 정보 복호화 장치(30)는, 현재 블록의 해상도 인덱스를 비트스트림으로부터 획득할 수 있다.
구체적인 예로, 움직임 정보 복호화 장치(30)는 현재 슬라이스에서 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그를 슬라이스 헤더로부터 획득할 수 있다. 다른 예로, 움직임 정보 부호화 장치(10)는 현재 시퀀스에서 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그를 SPS로부터 획득할 수 있다.
예를 들어, 소정 개수의 움직임 벡터 해상도 세트가 사용될 수 있는 경우에, 움직임 정보 복호화 장치(30)는 현재 슬라이스에서 어느 세트가 사용될 수 있는지 여부를 나타내는 정보를 슬라이스 헤더로부터 획득할 수 있다. 다른 예로, 소정 개수의 움직임 벡터 해상도 세트가 사용될 수 있는 경우에, 움직임 정보 복호화 장치(30)는 현재 시퀀스에서 어느 세트가 사용될 수 있는지 여부를 나타내는 정보를 SPS로부터 획득할 수 있다.
또한, 현재 슬라이스 또는 현재 시퀀스에서 사용가능한 움직임 벡터 해상도 세트에 포함된 후보 해상도의 개수에 따라, 현재 슬라이스 또는 현재 픽쳐에 포함된 부호화 단위들마다, 움직임 벡터 해상도 세트를 결정하기 위한 정보가 개별적으로 획득될 수 있다. 예를 들어, 현재 슬라이스 또는 현재 시퀀스에서 사용가능한 움직임 벡터 해상도 세트에 포함된 후보 해상도의 개수에 따라, 부호화 단위별로, 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그가 획득되거나, 어느 움직임 벡터 해상도 세트를 나타내는 정보가 획득될 수도 있다.
앞서 예시한, 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그 및 어느 움직임 벡터 해상도 세트를 나타내는 정보 중 적어도 하나는, SPS별로, PPS별로, 슬라이스 헤더별로 또는 타일별로 획득될 수 있다. 따라서, 움직임 벡터 해상도마다 사용 가능한지 여부 또는 어느 움직임 벡터 해상도 세트를 사용할지 여부는, 시퀀스별로, 픽쳐별로, 슬라이스별로, 또는 타일별로 결정될 수 있다.
구체적인 예로, 현재 슬라이스를 위한 슬라이스 헤더로부터 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지를 나타내는 정보가 획득될 수 있다. 따라서 획득된 정보에 따라 현재 슬라이스를 위해 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지가 결정될 수 있다. 다른 예로, 현재 시퀀스를 위한 SPS로부터 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지를 나타내는 정보가 획득될 수 있다. 따라서, 획득된 정보에 따라 현재 시퀀스를 위해 움직임 벡터 해상도 세트 {1/4, 1/2, 1} 또는 {1/4, 1, 4} 중 어느 세트가 사용되는지가 결정될 수 있다.
다른 구체적인 예로, 현재 슬라이스 또는 현재 시퀀스에서 움직임 벡터 해상도별로 사용가능한지 여부가 결정되는 경우에, 현재 슬라이스 또는 현재 시퀀스에 포함된 부호화 단위에서는 사용가능한 움직임 벡터 해상도만을 포함하는 세트에 기초한 해상도 인덱스가 획득될 수 있다. SPS 또는 슬라이스 헤더로부터 1/4-, 1/2-, 1-, 2-, 4-화소 단위의 움직임 벡터 해상도마다 사용 가능한지 여부를 나타내는 플래그가 획득되고, 부호화 단위마다 사용가능한 움직임 벡터 해상도만을 포함하는 세트 중에서 하나를 가리키는 해상도 인덱스가 획득될 수 있다. 따라서, 현재 슬라이스 또는 현재 시퀀스에서 사용가능한 움직임 벡터 해상도만을 포함하는 세트 중에서, 현재 부호화 단위를 위한 움직임 벡터 해상도가 결정될 수 있다.
S285 단계에서, 다른 실시예에 따른 움직임 정보 복호화 장치(30)는, 움직임 벡터 해상도 세트 중에서 해상도 인덱스가 가리키는 움직임 벡터 해상도를 이용하여, 현재 블록의 움직임 벡터를 결정할 수 있다.
현재 블록의 움직임 벡터를 이용하여 현재 블록을 복원하는 동작은 앞서 도 19 및 20을 참조하여 전술한 바와 동일하다.
한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.
매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상, 본 개시의 기술적 사상을 바람직한 실시예를 들어 상세하게 설명하였으나, 본 개시의 기술적 사상은 상기 실시예들에 한정되지 않고, 본 개시의 기술적 사상의 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러 가지 변형 및 변경이 가능하다.

Claims (15)

  1. 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 단계;
    상기 현재 블록의 참조 인덱스를 이용하여 상기 현재 블록의 참조 픽쳐를 결정하고, 상기 현재 블록의 예측 방향 정보를 이용하여 상기 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정하는 단계;
    상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  2. 제 1항에 있어서,
    상기 움직임 벡터 해상도 세트는, 1/4-화소단위, 1/2-화소단위, 1-화소단위, 2-화소단위 및 4-화소단위 중 적어도 하나를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  3. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC 거리가 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 소정 POC 거리보다 작지 않을 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함하고,
    상기 제1 움직임 벡터 해상도 세트와 상기 제2 움직임 벡터 해상도 세트가 상이하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 상기 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일한 것을 특징으로 하는 움직임 정보의 복호화 방법.
  4. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계;
    상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 제2 소정 POC 거리보다 클 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 크거나 같고, 상기 제2 소정 POC 거리보다 작거나 같을 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제3 움직임 벡터 해상도 세트를 결정하는 단계를 포함하고,
    상기 제1 움직임 벡터 해상도 세트, 상기 제2 움직임 벡터 해상도 세트와 상기 제3 움직임 벡터 해상도 세트가 상이하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 상기 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일하고,
    상기 제1 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 상기 제3 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 포함되고, 상기 제2 움직임 벡터 해상도 세트에 속하는 움직임 벡터 해상도들의 정밀도 범위 내에 상기 제3 움직임 벡터 해상도 세트에 속하는 가장 낮은 움직임 벡터 해상도가 속하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  5. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록의 예측 방향이 단방향 예측일 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 현재 블록의 예측 방향이 양방향 예측일 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함하고,
    상기 제1 움직임 벡터 해상도 세트와 상기 제2 움직임 벡터 해상도 세트가 상이하고, 상기 제1 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도가 상기 제2 움직임 벡터 해상도 세트에 속하는 가장 높은 움직임 벡터 해상도보다 더 높거나 동일한 것을 특징으로 하는 움직임 정보의 복호화 방법.
  6. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록의 예측 방향이 단방향 예측일 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 현재 블록의 예측 방향이 양방향 예측일 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 L0 움직임 벡터를 위해 결정하고, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제3 움직임 벡터 해상도 세트를 L1 움직임 벡터를 위해 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  7. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록의 예측 방향이 단방향 예측이고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC 거리가 제1 소정 POC 거리보다 작을 때, 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 현재 블록의 예측 방향이 단방향 예측이고, 상기 현재 픽쳐와 상기 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않을 때, 상기 선택가능한 전체 움직임 벡터 해상도들 중에서 하나 이상의 움직임 벡터 해상도들을 포함하는 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  8. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록의 예측 방향이 양방향 예측이고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작을 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제1 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 현재 블록의 예측 방향이 양방향 예측이고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L0 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않고, 상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 L1 참조 픽쳐 간의 POC 거리가 상기 제1 소정 POC 거리보다 작지 않을 때, L0 움직임 벡터 및 L1 움직임 벡터를 위한 제2 움직임 벡터 해상도 세트를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  9. 제 6항에 있어서, 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계는,
    상기 L0의 움직임 벡터를 위한 상기 제2 움직임 벡터 해상도 세트에 적용되는 상기 해상도 인덱스를, 상기 L1의 움직임 벡터를 위한 상기 제3 움직임 벡터 해상도 세트에 적용하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  10. 제 6항에 있어서, 상기 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 단계는,
    상기 L0의 움직임 벡터 해상도를 가리키는 L0 해상도 인덱스 및 상기 L1의 움직임 벡터 해상도를 가리키는 L1 해상도 인덱스를 획득하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  11. 제 1항에 있어서, 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 단계는,
    상기 결정되는 움직임 벡터 해상도 세트에 기초하여, 상기 해상도 인덱스를 파싱하기 위한 역이진화 방식을 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  12. 제 1항에 있어서, 상기 현재 블록의 참조 픽쳐 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계는,
    상기 현재 블록의 움직임 벡터 해상도와 움직임 벡터 프리딕터(predictor) 후보가 연동될 때, 상기 결정된 상기 움직임 벡터 해상도 세트에 기초하여, 선택가능한 움직임 벡터 프리딕터 후보를 포함하는 프리딕터 후보 리스트를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  13. 움직임 정보의 복호화 장치에 있어서,
    현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스, 상기 현재 블록의 참조 인덱스 및 상기 현재 블록의 예측 방향 정보를 비트스트림으로부터 획득하는 획득부; 및
    상기 현재 블록의 참조 인덱스를 이용하여 상기 현재 블록의 참조 픽쳐를 결정하고, 상기 현재 블록의 예측 방향 정보를 이용하여 상기 현재 블록의 예측 방향이 L0 방향 또는 L1 방향의 단방향 예측, 또는 양방향 예측인지 여부를 결정하고, 현재 블록을 포함하는 현재 픽쳐와 현재 블록의 참조 픽쳐 간의 POC (Picture Order Count) 거리 및 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하고, 상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도에 따라, 상기 예측 방향에 따른 움직임 벡터를 결정하는 예측 복호화부를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 장치.
  14. 현재 블록에 인터 예측을 수행하여, 상기 현재 블록의 움직임 벡터, 참조 픽쳐 및 예측 방향을 결정하는 단계;
    상기 현재 블록을 포함하는 현재 픽쳐와 상기 현재 블록의 참조 픽쳐 간의 POC (Picture Order Count) 거리 및 상기 예측 방향 중 적어도 하나에 기초하여 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 결정하는 단계; 및
    상기 결정된 움직임 벡터 해상도 세트 중에서 상기 현재 블록의 인터 예측을 위해 이용된 움직임 벡터 해상도를 가리키는 해상도 인덱스를 생성하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 부호화 방법.
  15. 현재 시퀀스 또는 현재 슬라이스에서 선택가능한 하나 이상의 움직임 벡터 해상도들을 포함하는 움직임 벡터 해상도 세트를 나타내는 정보를 비트스트림으로부터 획득하여, 상기 움직임 벡터 해상도 세트를 결정하는 단계;
    상기 현재 시퀀스 또는 상기 현재 슬라이스에 포함된 현재 블록의 인터 예측을 위한 움직임 벡터 해상도를 가리키는 해상도 인덱스를 비트스트림으로부터 획득하는 단계;
    상기 움직임 벡터 해상도 세트 중에서 상기 해상도 인덱스가 가리키는 움직임 벡터 해상도를 이용하여, 상기 현재 블록의 움직임 벡터를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
PCT/KR2020/012643 2019-09-18 2020-09-18 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법 WO2021054776A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020227008515A KR20220051842A (ko) 2019-09-18 2020-09-18 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
US17/698,638 US20220210461A1 (en) 2019-09-18 2022-03-18 Motion information encoding apparatus and method, and motion information decoding apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962901890P 2019-09-18 2019-09-18
US62/901,890 2019-09-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/698,638 Continuation US20220210461A1 (en) 2019-09-18 2022-03-18 Motion information encoding apparatus and method, and motion information decoding apparatus and method

Publications (1)

Publication Number Publication Date
WO2021054776A1 true WO2021054776A1 (ko) 2021-03-25

Family

ID=74884120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/012643 WO2021054776A1 (ko) 2019-09-18 2020-09-18 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법

Country Status (3)

Country Link
US (1) US20220210461A1 (ko)
KR (1) KR20220051842A (ko)
WO (1) WO2021054776A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070076391A (ko) * 2006-01-18 2007-07-24 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR101441874B1 (ko) * 2009-08-21 2014-09-25 에스케이텔레콤 주식회사 적응적 움직임 벡터 해상도를 이용한 영상 부호화/복호화 방법 및 장치
WO2018097693A2 (ko) * 2016-11-28 2018-05-31 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9264706B2 (en) * 2012-04-11 2016-02-16 Qualcomm Incorporated Bypass bins for reference index coding in video coding
EP3806461A4 (en) * 2018-06-07 2022-03-16 Wilus Institute of Standards and Technology Inc. VIDEO SIGNAL PROCESSING METHOD AND APPARATUS USING ADAPTIVE MOTION VECTOR RESOLUTION
US20220053206A1 (en) * 2019-05-15 2022-02-17 Wilus Institute Of Standards And Technology Inc. Video signal processing method and apparatus using adaptive motion vector resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070076391A (ko) * 2006-01-18 2007-07-24 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR101441874B1 (ko) * 2009-08-21 2014-09-25 에스케이텔레콤 주식회사 적응적 움직임 벡터 해상도를 이용한 영상 부호화/복호화 방법 및 장치
WO2018097693A2 (ko) * 2016-11-28 2018-05-31 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS , JIANLE CHEN , SHAN LIU: "Versatile Video Coding (Draft 6)", 127. MPEG MEETING; 20190708 - 20190712; GOTHENBURG; (MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11), GOTHENBURG SE, no. JVET-O2001-VE, 31 July 2019 (2019-07-31), Gothenburg SE, pages 1 - 455, XP030208568 *
JIANLE CHEN , YAN YE , SEUNG HWAN KIM: "Algorithm description for Versatile Video Coding and Test Model 6 (VTM 6)", 127. MPEG MEETING; 20190708 - 20190712; GOTHENBURG; (MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11), GOTHENBURG SE, no. JVET-O2002-v2, 10 September 2019 (2019-09-10), Gothenburg SE, pages 1 - 87, XP030208573 *

Also Published As

Publication number Publication date
KR20220051842A (ko) 2022-04-26
US20220210461A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
WO2020060158A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019009504A1 (ko) 적응적 움직임 벡터 해상도로 결정된 움직임 벡터의 부호화 장치 및 부호화 방법, 및 움직임 벡터의 복호화 장치 및 복호화 방법
WO2020076097A1 (ko) 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2020096389A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2016200242A1 (ko) 적응적인 디블록킹 필터링을 이용하는 영상 부호화 방법과 영상 복호화 방법 및 장치
WO2016137149A1 (ko) 폴리곤 유닛 기반 영상 처리 방법 및 이를 위한 장치
WO2019168347A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2018047995A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019017651A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2019054736A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019093598A1 (ko) 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
WO2020139059A1 (ko) 움직임 벡터 차분의 부호화 방법 및 부호화 장치, 및 움직임 벡터 차분의 복호화 방법 및 복호화 장치
WO2018097700A1 (ko) 필터링을 위한 방법 및 장치
WO2020197290A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2021049894A1 (ko) 툴 세트를 이용하는 영상 복호화 장치 및 이에 의한 영상 복호화 방법, 및 영상 부호화 장치 및 이에 의한 영상 부호화 방법
WO2020096426A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020139061A1 (ko) 화면 간 예측 부호화 및 복호화 방법 및 장치
WO2021086153A1 (ko) 어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치
WO2020040623A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019135648A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019066574A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019059575A2 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2020159199A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2021141451A1 (ko) 양자화 파라미터를 획득하기 위한 비디오 복호화 방법 및 장치, 양자화 파라미터를 전송하기 위한 비디오 부호화 방법 및 장치
WO2020005046A1 (ko) 영상 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20866234

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227008515

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20866234

Country of ref document: EP

Kind code of ref document: A1