WO2011126345A2 - 비디오 신호 처리 방법 및 장치 - Google Patents

비디오 신호 처리 방법 및 장치 Download PDF

Info

Publication number
WO2011126345A2
WO2011126345A2 PCT/KR2011/002497 KR2011002497W WO2011126345A2 WO 2011126345 A2 WO2011126345 A2 WO 2011126345A2 KR 2011002497 W KR2011002497 W KR 2011002497W WO 2011126345 A2 WO2011126345 A2 WO 2011126345A2
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
partition
reference picture
current
group
Prior art date
Application number
PCT/KR2011/002497
Other languages
English (en)
French (fr)
Other versions
WO2011126345A3 (ko
Inventor
박준영
박승욱
임재현
김정선
최영희
성재원
전병문
전용준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to ES11766196T priority Critical patent/ES2904348T3/es
Priority to EP21210463.2A priority patent/EP3982634B1/en
Priority to PL11766196T priority patent/PL2557796T3/pl
Priority to EP11766196.7A priority patent/EP2557796B1/en
Priority to SI201132032T priority patent/SI2557796T1/sl
Priority to US13/639,408 priority patent/US8976865B2/en
Priority to CN201180018198.0A priority patent/CN102835113B/zh
Priority to EP23181365.0A priority patent/EP4236324A3/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2011126345A2 publication Critical patent/WO2011126345A2/ko
Publication of WO2011126345A3 publication Critical patent/WO2011126345A3/ko
Priority to US14/564,825 priority patent/US9264734B2/en
Priority to US14/987,280 priority patent/US9407929B2/en
Priority to US14/988,323 priority patent/US9402085B2/en
Priority to US15/136,517 priority patent/US9699473B2/en
Priority to US15/280,755 priority patent/US9800892B2/en
Priority to US15/685,662 priority patent/US10038914B2/en
Priority to US15/988,512 priority patent/US10404997B2/en
Priority to US16/513,198 priority patent/US10743021B2/en
Priority to US16/922,830 priority patent/US11277634B2/en
Priority to US17/587,850 priority patent/US12022111B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Definitions

  • the present invention relates to a method and apparatus for processing a video signal, and more particularly, to a video signal processing method and apparatus for encoding or decoding a video signal.
  • Compression coding refers to a series of signal processing techniques for transmitting digitized information through a communication line or for storing in a form suitable for a storage medium.
  • Targets of compression coding include voice, video, text, and the like.
  • a technique of performing compression coding on an image is called video image compression.
  • Compression coding on a video signal is performed by removing redundant information in consideration of spatial correlation, temporal correlation, and stochastic correlation.
  • a method of predicting the motion vector of the current partition using the motion vector of the neighboring partition is provided.
  • a method of predicting the motion vector of the current partition using the motion vector of the neighbor partition can be performed. In this case, even when the reference pictures are different, the neighbor is not considered.
  • the candidate group for selecting the neighboring motion vector for motion vector prediction is limited to the neighbor partition having the same reference picture list and the same reference picture as the current partition, there is a problem in that the probability of obtaining a valid neighbor motion vector is reduced. .
  • the complexity of the selection of the neighboring motion vector to be used for the motion vector prediction increases as the candidate targets increase, and a method for efficiently performing the same is required.
  • the present invention has been devised to solve the above requirements, and has an object to increase the accuracy of motion vector prediction through scaling of motion vectors in consideration of the difference in temporal distance between reference pictures.
  • an object of the present invention is to detect neighboring motion vectors referring to the same reference picture from different reference picture lists and use them for motion vector prediction.
  • an object of the present invention is to further expand a candidate group for selecting a neighboring motion vector for motion vector prediction.
  • Another object of the present invention is to provide a priority search condition with optimal efficiency in selecting a neighboring partition motion vector to be included in the motion vector prediction candidate group of the current partition.
  • a method of obtaining motion information of a neighbor partition used in a merge mode is also applied to a skip mode and a general inter mode, thereby unifying a method of predicting motion information in all modes.
  • the motion vector of the neighboring partition is scaled in consideration of the difference in the temporal distance between the reference pictures and used to predict the motion vector of the current partition, thereby increasing the accuracy of the motion vector prediction.
  • neighbor motion vectors that refer to the same reference picture in the same reference picture list are utilized, as well as neighboring motion vectors of various candidate groups, thereby extending the flexibility of motion vector prediction and selecting neighboring motion vectors for accurate motion vector prediction. You can broaden your range.
  • the search is performed by appropriately combining the motion vector prediction candidate selection condition and the priority according to the partition position order, thereby reducing the complexity of the search operation. Provides the efficiency to obtain neighboring motion vectors.
  • the complexity required for obtaining the neighbor partition motion information can be reduced.
  • FIG. 1 is a schematic block diagram of a video signal encoder apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic block diagram of a video signal decoder device according to an embodiment of the present invention.
  • FIG. 3 illustrates an example of dividing a unit according to an embodiment of the present invention.
  • FIG. 4 illustrates an embodiment of a method for hierarchically representing the division structure of FIG. 3.
  • FIG. 5 illustrates various partition types within a prediction unit in accordance with an embodiment of the invention.
  • 6 illustrates an example of a spatial neighboring partition of the current partition.
  • 7 and 8 illustrate a method of scaling a motion vector of a neighbor partition.
  • FIG. 9 is a schematic diagram illustrating an example of referring to the same reference picture in different reference picture lists.
  • 10 and n illustrate examples of reference picture lists and reference index values of each of a current partition and a spatial neighboring partition
  • 12 is a schematic block diagram showing a configuration of a motion estimation unit of a decoder device according to an embodiment of the present invention.
  • FIG. 13 and 14 are schematic diagrams illustrating spatial neighboring partitions in which a motion vector to be included in a motion vector prediction candidate group of a current partition is selected according to an embodiment of the present invention.
  • Fig. 15 is a schematic diagram showing neighboring partitions to be merged with the current partition in the merge mode.
  • 16 is a flowchart for explaining conditions for selecting a motion vector prediction candidate group of the present invention.
  • a method of processing a video signal includes: selecting a neighbor partition motion vector to be included in a motion vector prediction candidate group of a current partition; Scaling the neighboring partition motion vector when the reference picture of the selected neighboring partition motion vector is different from the reference picture of the current partition; Obtaining a motion vector prediction value of a current partition using a motion vector prediction candidate group including the scaled motion vector; Obtaining a motion vector of a current partition using the motion vector prediction value; Characterized in that it comprises a.
  • the scaled motion vector is a motion vector linearly interpolated using a time distance between pictures.
  • the motion vector prediction candidate group may include a first group including a partition (A m + 1 ) adjacent to the bottom left of the current partition and a partition (A m ) located at the bottom of the partitions adjacent to the left, and a current partition A motion vector selected from a second group consisting of a partition (B n + 1 ) adjacent to the upper right side of the partition, a partition (B n ) located on the uppermost right side among the partitions adjacent to the upper side, and a partition adjacent to the upper left side (R0) Characterized in that it comprises a.
  • the selecting of the neighbor partition motion vector may include selecting the neighbor partition motion vector from the first group and the second group based on a motion vector prediction candidate group selection condition including a reference picture list, a reference picture, and inter mode availability information. It is characterized by selecting each.
  • the motion vector prediction candidate selection condition is
  • whether the current partition is an inter mode partition having a reference picture list different from the same reference picture or the same reference picture may be determined based on a POC (Picture Order Count) value.
  • POC Picture Order Count
  • the selecting of the neighbor partition motion vector may include selecting the motion vector prediction candidate group for each partition of the first group or the second group.
  • a conditional priority search for searching a condition in priority over the position order of partitions may be performed.
  • the step of selecting the neighboring partition motion vector, partition position priority search for retrieving the position order of the partitions for each partition of the first group or the second group in priority over the motion vector prediction candidate selection condition It characterized in that to perform.
  • the selecting of the neighboring partition motion vector may include: performing conditional priority search for the motion vector prediction candidate group selection condition (a) for each partition of the first group or the second group; And performing a partition position priority search for the motion vector candidate group selection conditions (b) to (d) when the valid neighbor partition motion vector is not found through the condition priority search. Characterized in that it comprises a.
  • the neighbor partition motion vector selection unit for selecting a neighbor partition motion vector to be included in the motion vector prediction candidate group of the current partition; If the selection is out the "reference picture for motion vectors different from the partition ⁇ reference picture of the current partition, the motion vector scaling unit for scaling the neighboring partition motion vector;
  • a motion vector prediction value obtaining unit obtaining a motion vector prediction value of a current partition by using a motion vector prediction candidate group including the scaled motion vector; And using the motion vector prediction value.
  • a motion vector obtaining unit obtaining a motion vector of the current partition; Characterized in that it comprises a.
  • Coding can be interpreted as encoding or decoding in some cases, and information is a term that includes all values, parameters, coefficients, elements, etc. May be interpreted otherwise, the present invention is not limited thereto.
  • a unit is a basic unit of image processing or a specific position of an image. The term 'block', 'partition', or 'region' may be used interchangeably with each other.
  • a unit may be used as a concept including a coding unit, a prediction unit, and a transform unit.
  • the encoding apparatus 100 of the present invention is largely composed of a transformer 110, a quantizer 115, an inverse quantizer 120, an inverse transformer 125, a filter 130, and a predictor ( 150 and the entropy coding unit 160.
  • the converter 110 obtains a transform coefficient value by converting the pixel value of the input video signal.
  • a transform coefficient value For example, a Discrete Cosine Transform (DCT) or Wavelet Transform (DCT) may be used.
  • the discrete cosine transform divides the input image signal into blocks having a predetermined size and performs the conversion.
  • the coding efficiency may vary depending on the distribution and the characteristics of the values in the transform domain.
  • the quantization unit 115 quantizes the transform coefficient value output from the transform unit 110.
  • the inverse quantization unit 120 inverse quantizes the transform coefficient value, and the inverse transform unit 125 restores the original pixel value by using the inverse quantized transform coefficient value.
  • the filtering unit 130 performs a filtering operation for improving the quality of the reconstructed image.
  • the deblocking filter and the red-loop filter may be included. have.
  • the filtered image is output or stored in the storage unit 156 for use as a reference image.
  • the intra prediction unit 152 performs intra prediction within the current image, and the inter prediction unit 154 predicts the current image using the reference image stored in the storage unit 156.
  • the intra prediction unit 152 performs intra prediction from the reconstructed regions in the current image, and transmits the intra encoding information to the entropy coding unit 160.
  • the inter predictor 154 may further include a motion compensator 162 and a motion estimator 164.
  • the motion estimation unit 164 obtains a motion vector value of the current region by referring to the restored specific region.
  • the motion estimator 164 transmits position information (reference frame, motion vector, etc.) of the reference region to the entropy coding unit 160 so that the motion information can be included in the bitstream.
  • the motion compensator 162 performs inter-screen motion compensation by using the motion vector value transmitted from the motion estimator 164.
  • the entropy coding unit 160 entropy-codes the quantized transform coefficients, inter picture encoding information, intra picture encoding information, and reference region information input from the inter prediction unit 154 to generate a video signal bitstream.
  • a variable length coding (VLC) scheme may be used.
  • the variable length coding (VLC) method converts input symbols into consecutive codewords, and the length of the codeword may be variable. For example, frequently occurring symbols are represented by short codewords and infrequently occurring symbols by long codewords.
  • a context-based adaptive variable length coding (CAVLC) method may be used as a variable length coding method.
  • Arithmetic coding converts consecutive data symbols into a single prime, and arithmetic coding can obtain the optimal fractional bits needed to represent each symbol.
  • arithmetic coding context-based adaptive binary arithmetic code (CAB AC) may be used.
  • the decoding apparatus 200 of the present invention largely includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 225, a filtering unit 230, and a prediction unit 250. .
  • the entropy decoding unit 210 entropy decodes the video signal bitstream and extracts transform coefficients, motion vectors, and the like for each region.
  • the inverse quantizer 220 inverse quantizes the entropy decoded transform coefficients, and the inverse transform unit 225 reconstructs the original pixel value by using the dequantized transform coefficients.
  • the filtering unit 230 performs filtering on the image to improve the image quality. This may include a deblocking filter to reduce block distortion and / or an adaptive loop filter to remove distortion of the entire image.
  • the filtered image is output or stored in the frame storage unit 256 for use as a reference image for the next frame.
  • the prediction unit 250 of the present invention includes an intra prediction unit 252 and an inter prediction unit 254, the encoding type decoded by the entropy decoding unit 210 described above, transform coefficients for each region, The prediction image is reconstructed using information such as a motion vector.
  • the intra prediction unit 252 performs the intra prediction from the decoded samples in the current image.
  • the inter predictor 254 estimates a motion vector using the reference image stored in the frame storage 256 and generates a predicted image.
  • the inter predictor 254 may further include a motion compensator 262 and a motion estimator 264.
  • the motion estimator 264 obtains a motion vector representing a relationship between the current block and the reference block of the reference frame used for coding and transfers the motion vector to the motion compensator 262.
  • the predicted value output from the intra predictor 252 or the inter predictor 254 and the pixel value output from the inverse transform unit 225 are added to generate a reconstructed video frame.
  • a method of dividing a coding unit, a prediction unit, etc. with reference to FIGS. 3 to 5 in the operations of the encoder device and the decoder device will be described.
  • a coding unit is, for example, intra / inter prediction, transform, quantization and / or entropy coding. It means the basic unit to process the image in the process of.
  • the size of the coding unit used to code one image may not be constant.
  • the coding unit may have a rectangular shape, and one coding unit may be divided into several coding units.
  • FIG. 3 illustrates an example of splitting a coding unit according to an embodiment of the present invention.
  • one coding unit having a size of 2N ⁇ 2N may be divided into four coding units having a size of N ⁇ N.
  • the division of these coding units can be done recursively, and not all coding units need to be split in the same form.
  • information indicating whether the corresponding coding unit is split may be stored.
  • FIG. 4 illustrates hierarchically the division structure of the coding unit illustrated in FIG.
  • FIG. 4 An embodiment of the method is illustrated.
  • the information indicating whether the coding unit is divided may be allocated to a value of T when the corresponding unit is divided, and a value of ′ ′ when the unit is not divided.
  • a flag value indicating whether to split is 1, a block that is divided into a corresponding node is divided into four blocks, and when a flag is 0, a processing process for a corresponding coding unit may be performed without being further divided. .
  • the block is not necessarily divided into four forward regions.
  • a code for a predetermined partitioning method may be mapped to the partitioning information. For example, if the information value is 1, the block is divided into two horizontal rectangular subblocks, if 2, the block is divided into two vertical rectangular subblocks, and if 3, the block is divided into four square subblocks. have.
  • Such a method shows some embodiments of a division method, and does not limit the present invention.
  • the structure of the coding unit described above may be represented using a recursive tree structure. That is, a coding unit divided into other coding units with one picture or the largest size coding unit as a root has as many child nodes as the number of divided coding units. Thus, coding units that are no longer split become leaf nodes. Assuming that only square partitioning is possible for one coding unit, one coding unit may contain up to four different codings. Since it can be divided into units, the tree representing the coding unit may be in the form of a quad tree.
  • an optimal coding unit size may be selected according to characteristics (eg, resolution) of a video image or considering coding efficiency, and information about the coding unit or information capable of inducing the same may be included in the bitstream. For example, the size of the largest coding unit and the maximum depth of the tree can be defined. In the case of square division, since the height and width of the coding unit are half the height and width of the coding unit of the parent node, the minimum coding unit size can be obtained using the above information. Alternatively, the minimum coding unit size and the maximum depth of the tree may be defined in advance, and the maximum coding unit size may be derived and used if necessary. Since the size of the unit changes in a multiple of 2 in square division, the size of the actual coding unit is represented by a logarithm of the base of 2, thereby improving transmission efficiency.
  • characteristics eg, resolution
  • information about the coding unit or information capable of inducing the same may be included in the bitstream.
  • the decoder can obtain information indicating whether or not the current coding unit is divided. This information can only be obtained if it is obtained (transmitted) only under certain conditions.
  • the condition that the current coding unit can be divided is information indicating whether the current coding unit size is divided in this case because the current coding unit size is smaller than the picture size and the current unit size is larger than the preset minimum coding unit size. Can be obtained. If the information indicates that the coding unit is split, the size of the coding unit to be split is half of the current coding unit, and is split into four square coding units based on the current processing position. The above process can be repeated for each divided coding units.
  • Picture prediction (motion compensation) for coding is made for coding units that are no longer divided (ie leaf nodes of the coding unit tree).
  • the basic unit for performing such prediction is hereinafter referred to as a prediction unit or a prediction block.
  • the prediction unit may be divided into various forms, and may be divided into sub-prediction units having a symmetrical form such as square, rectangle, or asymmetrical form or geometrical form.
  • one prediction unit may be divided into sub-prediction units of sizes 2Nx2N, 2NxN 'Nx2N, and the like as shown in FIG.
  • the bitstream may include information on whether the prediction unit is divided or in what form. Or this information may be derived from other information.
  • the term partition is defined in the specification of the present invention may be used as a term to replace the prediction unit or sub-prediction unit which is a basic unit for performing picture prediction.
  • the present invention is not limited thereto.
  • the decoded portion of the current picture or other pictures containing the current unit may be used.
  • Intra picture or I picture (slice) using only the current picture for reconstruction i.e. performing only intra picture prediction, predicting a picture (slice) using at most one motion vector and reference index to predict each unit
  • a picture (slice) using a picture or P picture (slice), up to two motion vectors, and a reference index is called a bi-predictive picture or a B picture (slice).
  • the intra prediction unit performs intra prediction to predict the pixel value of the target unit from the reconstructed regions in the current picture.
  • the pixel value of the current unit can be predicted from the encoded pixels of units located at the top, left, top left and / or top right by increasing the current unit.
  • the intra mode may be divided into vertical, horizontal, DC, and angular modes according to the direction and prediction method of the reference region where the reference pixels used for pixel value prediction are located.
  • the vertical mode uses the values of the vertically adjacent areas of the target unit as prediction values of the current unit
  • the horizontal mode uses the horizontally adjacent areas as the reference area.
  • the DC mode the average value of the reference regions is used as a prediction value.
  • the angular mode the reference region is located in an arbitrary direction and may indicate the corresponding direction by an angle between the current pixel and the reference pixel.
  • a predetermined angle and a prediction mode number may be used, and the number of angles used may vary depending on the size of the target unit.
  • the prediction mode may be transmitted as a value indicating the mode itself, but in order to increase transmission efficiency, a method of predicting a prediction mode value of the current block may be used.
  • the decoder may obtain the prediction mode of the current block by using information on whether the prediction value for the prediction mode is used as it is or how much the difference is from the actual value.
  • the inter prediction unit performs inter prediction for predicting a pixel value of a target unit by using information of other reconstructed pictures other than the current picture.
  • the picture used for prediction is called a reference picture.
  • the reference region used to predict the current unit may be represented by using an index indicating a reference picture, motion vector information indicating the reference picture, and the like.
  • the inter prediction may include forward direction prediction, backward direction prediction, and bi-prediction.
  • Forward prediction is prediction using one reference picture displayed (or output) before the current picture in time
  • backward prediction means prediction using one reference picture displayed (or output) after the current picture in time.
  • one motion information eg, a motion vector and a reference picture index
  • bi-prediction up to two reference regions can be used. These ⁇ reference regions may exist in the same reference picture or may exist in different pictures, respectively. That is, up to two motion information (eg, a motion vector and a reference picture index) may be used in the bi-prediction method, and the two motion vectors may have the same reference picture index or may have different reference picture indexes. .
  • the reference pictures may be displayed (or output) before or after the current picture in time.
  • the prediction unit coded in the inter mode can be divided into any partitions (eg, symmetrical, asymmetrical or geometrical), each partition can be predicted from one or two reference pictures as described above.
  • the motion information of the current prediction unit may include motion vector information and a reference picture index.
  • the motion vector information may include a motion vector, a motion vector prediction, or a differential motion vector, and may mean index information for specifying the motion vector prediction value.
  • the index information for specifying the motion vector prediction value is index information for specifying which value of a plurality of motion vectors included in the motion vector prediction candidate group is used as the motion vector prediction value of the current partition in a motion vector competition to be described later. Say. By passing this index information, the motion vector to be used to predict the motion vector of the current partition among the motion vector prediction candidates directly. It can be specified.
  • the differential motion vector refers to a difference value between the motion vector and the motion vector prediction value.
  • the reference unit of the current prediction unit may be obtained using the motion vector and the reference picture index.
  • the reference unit exists in a reference picture having the reference picture index.
  • a pixel value or an interpolated value of a unit specified by the motion vector may be used as a predictor of the current prediction unit. That is, using motion information, motion compensation is performed to predict an image of the current prediction unit from a previously decoded picture.
  • a reference picture list may be configured of pictures used for inter prediction between the current picture.
  • two reference picture lists are required, and each of them is referred to as reference picture list 0 (or List 0) and reference picture list 1 (or List 1).
  • a method of obtaining a motion vector prediction value using motion information of previously coded units and transmitting only a motion vector difference thereof may be used.
  • the decoder uses the motion information of other decoded units to determine the motion vector of the current unit.
  • the prediction value is obtained and the motion vector value for the current unit is obtained using the transmitted difference value.
  • a partition adjacent to the left side of the current prediction unit is called neighbor partition A, a partition adjacent to the top neighbor partition B, and a partition adjacent to the upper right side are neighbor partition C, respectively.
  • the motion vectors of MV_a, MV_b and MV_c be.
  • the motion vector prediction value MVp of the current partition may be derived as a median value of the horizontal and vertical components of the MV_a, MV_b, and MV_c. If decoding information of the neighbor partition C cannot be obtained, the neighbor partition D adjacent to the upper left of the current partition and its motion vector MV_d may be used instead.
  • MVp motion vector prediction value
  • Motion Vector Scaling This refers to the linear interpolation of motion vectors using the temporal distance between the current picture and the reference picture of each partition (current partition and neighboring neighbor partition). That is, the motion vector of the neighbor partition, Linear interpolation is performed through a temporal distance between reference pictures of a neighbor partition and a ratio of temporal distances between a current picture and a reference picture of a current partition. More specifically, the scaled motion vector (MV'x) can be obtained through the following equation. [Equation 1]
  • MV X refers to any one of the motion vectors MV_a, MV_b, MV-c, and MV_d of the neighbor partition, and MV X 'represents its scaled value.
  • fx indicates a reference picture number of the corresponding garment partition
  • f ME indicates a reference picture number of the current partition
  • f c indicates a current picture number.
  • motion vector scaling through integer arithmetic may be performed. Referring to FIGS. 7 and 8, the scaled value (mvLON_scaled) of the motion vector (mvLON) of the outer partition is the temporal distance (td) between the reference picture of the neighbor partition and the current picture, and the reference picture of the current partition.
  • DistScaleFactor can be obtained as follows defined in MPEG-4 AVC / H.264.
  • DistScaleFactor Clip3 (-1024, 1023, (tb * tx + 32) »6)
  • the motion vector of the neighbor partition selected for the motion vector prediction of the current partition may be converted into a scaled value based on the ratio of temporal distance between the reference pictures (tb / td).
  • the motion vector of the neighbor partition may be scaled and converted in the reverse direction.
  • the motion vector scaling method as described above may be used to increase the precision of motion vector prediction of the current partition.
  • motion vectors MV— a, MV— b of neighbor partitions A, B, C, and D of the current partition can be obtained using MV_c and MVi d as follows.
  • the motion vector prediction (MVp) of the current partition is i) the median of "MV ⁇ a", “scaled value of MV_b” and “scaled value of MV_c", ii) the median of "MV_a”, “scaled value of MV_b”, “scaled value of MV_c” and “scaled value of MV_d”, iii) average value of "MV—a” and "scaled value of MV_b" (Where MV_b is the motion vector of partition B with the reference index closest to the reference index of the current partition among neighboring partitions B, C, and D.), iv) any one of "MV—
  • the motion vector prediction (MVp) of the current partition is i) the median of "MV_a”, “MV_b and” scaled values of MV_c ", ii)" MV_a "," MV_b “,” MV—scaled value of c ", and” MV—d scaled Value ”, iii) any one of“ MV—a ”and“ MV_b ”, iv)“ MV_a (or MV_b) ”may be obtained as the motion vector prediction value MVp of the current partition.
  • the motion vector estimate (MVp) of the current partition is i) the median of "MV— a", “MV_b” and “MV_c", ii) "MV_a ", M MV_b", the median of "MV— c” and “Scaled value of MV_d", iii) the mean value of "MV— a", “MV_b” and “MV_c", iv) "MV_a (or MV— b or MV_c) "may be obtained as the motion vector prediction value MVp of the current partition.
  • the motion vector estimate (MVp) of the current partition if none of the reference indices refidx—a, refidx_b, refidx—c, and refidx_d of neighbor partitions A, B, C, and D is the same as the reference index refidx of the current partition, the motion vector estimate (MVp) of the current partition.
  • the method for obtaining the motion vector prediction value (MVp) of the current partition by using the median or the average value of the motion vector (or the scaled motion vector) of the neighbor partitions is an example for explaining the present invention. It is not limited to. That is, as shown in the above embodiment, four neighboring partitions (left, top, upper left and upper right) adjacent to the current partition may be used, but of course, three neighboring partitions (left, upper and upper right) may be used. Do.
  • the motion vector scaling method described above may be performed on not only the spatial neighbor partitions of the current partition but also the temporal neighbor partitions to be used for the motion vector prediction of the current partition.
  • the spatial neighboring partition of the current partition refers to a neighboring partition located on the left or top of the current partition in the same picture (or slice) as the current partition.
  • the temporal neighboring partition of the current partition refers to a neighboring partition existing at the position of the current partition in a picture different from the current partition, such as a co-located partition of the current partition.
  • the motion vector prediction value may be obtained using the motion vector of the temporal neighbor partition as well as the spatial neighbor partition, which will be described later.
  • the present invention when the present invention performs motion vector prediction using a motion vector of a neighbor partition having a different current partition and a reference index (or reference picture), By scaling the motion vector, the accuracy of motion vector prediction can be improved.
  • the motion vector of the neighbor partition having the same reference picture list and the reference index value of the motion vector to be obtained in the current partition is the current partition. Can be used for predicting motion vectors.
  • the B slice for performing bidirectional prediction has a maximum of two reference picture lists, that is, reference picture list 0 (List 0) and reference picture list l (List 1).
  • List Reference to 1 is referred to as L1 prediction.
  • the B slice may indicate the same reference picture even though the reference picture list is different. This situation can occur especially in low-delay environments that only reference past pictures.
  • screen n-1 corresponds to the first reference picture of List 1 while being the 0th reference picture of List 0.
  • screen n- 2. Is the first reference picture of List 0 and simultaneously corresponds to the 0th reference picture of Listl.
  • the present invention can use the motion vector of the neighbor partition that refers to the same reference picture for the motion vector prediction of the current partition even though the current partition and the reference picture list are different as described above.
  • different reference pictures Whether the partition refers to the same reference picture in the list may be determined based on a POC (Picture Order Count) value.
  • the POC means a value in which serial numbers are assigned in the order of images (pictures) in chronological order. Therefore, reference pictures having a POC value smaller than a POC value of a picture currently being encoded mean a picture that is in the past in time, and have a reference picture having a POC value larger than the POC value of a picture currently being encoded.
  • predFlagLO and predFlagLl are list flag values indicating whether the partition refers to the reference picture list ListO and Listl. If the value is 1, it means that the reference picture list is referred to. .
  • refldxLO and refldxLl indicate reference index values in the corresponding list when the values of the list flags predFlagLO and predFlagLl are 1.
  • the reference index value is set to -1 when the value of the list flag to be referenced is 0, that is, when the corresponding reference picture list is not referred to.
  • the predFlagLO value is equal to 1 (with the same reference picture list), and the value of refldxLO is equal to 0 ( Same reference index number)
  • Motion vector prediction can be performed using the motion vectors of partitions A and C.
  • partition B performs L1 prediction with a predFlagLO value of 0 and a predFlagLl value of 1.
  • the POC value of the picture corresponding to the reference index (ref_idx) value 1 of Listl is 4, and the current partition is It is equal to the POC value 4 of the picture corresponding to the reference index value 0 of the referring ListO.
  • partition B refers to a reference picture that is substantially the same as the current partition
  • the motion vector of a partition that references the same reference picture (the same POC value) is different.
  • the motion vector prediction value of the current partition may be obtained using a median value of “L0 direction motion vector of partition A, L1 direction motion vector of partition B and L0 direction motion vector of partition C”.
  • the current (Cur) partition predicts L0 with a predFlagLO value of 1, partitions B and C perform intra prediction with both predFlagLO and predFlagLl values 0, and partition A
  • the value of predFlagLl is 1, indicating that L1 prediction is performed.
  • partition A refers to the same reference picture as the current partition. Therefore, in the present invention
  • the LI direction motion vector of partition A can be used to predict the motion vector of the current partition.
  • the inter-mode partition having the same reference index of the same reference picture list as the current partition among the neighbor partitions, but also having the same POC value as the current partition, that is, the reference picture list is different. Even if a motion vector of an inter-mode partition having substantially the same reference picture is selected, the motion vector of the current partition can be used together to predict the motion vector of the current partition.
  • AMVP Advanced Motion
  • a technique for predicting the motion vector of the current partition collects a motion vector prediction candidate group from spatial and temporal neighbor partitions of the current partition, and uses the same to obtain a motion vector prediction value of the current partition.
  • Vector Prediction Vector Prediction
  • Selecting the most suitable motion vector among the motion vector candidates included in the motion vector prediction candidate group and using it as a motion vector prediction value is called motion vector competition. That is, referring to FIG. 12, in the video signal processing apparatus according to the present invention, the motion estimation unit 264 of the decoder selects a neighbor partition motion vector to select a neighbor partition motion vector to be included in the motion vector prediction candidate group of the current partition.
  • a motion vector prediction value acquisition unit 286 for obtaining a motion vector prediction value of the current partition using a scaling unit 284, a motion vector prediction candidate group including the scaled motion vector, and a motion vector prediction value of the current partition using the motion vector prediction value It may include a motion vector acquisition unit 288 for obtaining a motion vector.
  • the neighbor partition motion vector selector 282 may collect motion vector candidates from the spatial neighbor partition and the temporal neighbor partition.
  • the motion vector obtainer 288 may calculate a motion vector by adding the differential motion vector to the motion vector predicted value obtained through the motion vector predictor 286.
  • the motion estimation unit 164 of the encoder of the video signal processing apparatus may also include a neighbor partition motion vector selecting unit, a motion vector scaling unit, a motion vector prediction value obtaining unit, and a motion vector obtaining unit.
  • the specific function of the configuration is as described above.
  • the motion vector prediction candidate group of the current partition includes the motion vector a 'selected from the left group, which is a set of partitions (Ao, A5 ..., A nA ) neighboring to the left of the current partition.
  • the motion vector b 'selected from the top group which is a set of partitions (Bo, B ..., B nB ) neighboring the top of the partition, and the partitions (C, D, E) adjacent to the diagonal of the current partition.
  • the motion vector c 'selected from the corner group as a set may be included.
  • median values (median (a ', b', c ')) of the motion vectors a', b ', and c' may be derived, and the median may also be included in the motion vector prediction candidate group.
  • the median is i) when the motion vectors a ', b' and c 'are all available, the median of the three motion vectors is ii) when only two of the three motion vectors are valid. 0 is assigned to an invalid motion vector and the median is iii) if only one of the three motion vectors is valid, then the valid motion vector value is returned as is. Iv) All three motion vectors are invalid. If not, 0 can be used as the result.
  • Each of the motion vectors of a ', b', and c ' is not included in the motion vector prediction candidate group when a valid value cannot be selected.
  • the motion vector of the temporal neighbor partition as well as the spatial neighbor partition may be included in the motion vector prediction candidate group.
  • the motion vector of the temporal neighboring partition may be used for the motion vector prediction candidate group. That is, temporal competition information specifying whether the motion vector of the temporal neighboring partition is used for motion vector competition may be additionally used. Therefore, even when motion vector competition is used to obtain the motion vector prediction value of the current prediction unit, the motion vector of the temporal neighboring partition is used as the motion vector prediction candidate group based on the temporal competition information. Can be limited. And, temporal competition information is motion Since the vector contention is assumed to be used, the temporal contention information may be limited to be obtained only when the motion contention indication information indicates that the motion vector contention is used.
  • Various methods can be used to select.
  • the motion vector selected from each group includes the scaled value according to the embodiment of the present invention.
  • a motion vector of a partition having an inter mode may be selected only when a valid motion vector cannot be found through a reference picture list and a reference index for each group. I) first, each group Search for partitions in the partition from one side to the other in order to find out whether there is an inter-mode partition with the same reference index of the same reference picture list as the current partition, and select the motion vector of the partition that satisfies this for the first time. If there is no valid motion vector, if the motion prediction vector is included in the vector prediction candidate group, ii) the partitions in each group are searched for partitions having an inter mode sequentially from one side to the other, The motion vector may be selected and the scaled value may be included in the motion vector prediction candidate group.
  • the following motion vector prediction candidate group selection conditions may be set for selecting valid motion vectors collected in the motion vector prediction candidate group for each group. Referring to the attached FIG. 16, the motion vector prediction candidate group selection condition will be described below.
  • condition 2 is an inter mode partition having the same reference picture as the current partition (S104). At this time, an inter-mode partition having a same reference picture although the current partition and the reference picture list are different is searched.
  • condition 3 is an inter mode partition having the same reference picture list as the current partition (S106). In this case, an inter-mode partition having a different reference picture list but a different current picture from the current partition is searched.
  • condition 4 is an inter mode partition (S 108). At this time, an inter-mode partition that does not satisfy the above conditions 1 to 3, that is, an inter-mode partition in which both the current partition and the reference picture list and the reference picture are different, is searched.
  • the partitions of each group are searched in a predetermined order to satisfy condition 1 to condition 4. You can check whether or not.
  • the search can be performed in various orders for each group according to a proper combination of the motion vector prediction candidate group selection condition and partition position order.
  • the motion vector of the neighbor partition that satisfies the condition may be selected and included in the motion vector prediction candidate group.
  • the motion vector of the neighboring partition that satisfies condition 1 and condition 2 is selected in the process (S110), since the selected motion vector has the same reference picture as the motion vector of the current partition, it is applied to the motion vector prediction candidate group as it is.
  • Motion of neighboring partitions that can be included (S120) and that satisfies condition 3 and condition 4 When the vector is selected (S112), the scaled motion vector may be calculated (SH4) and included in the motion vector prediction candidate group (S120). However, if all of the conditions 1 to 4 are not satisfied, there is no valid neighbor partition motion vector (S 130).
  • 'condition first search' sequentially searches one side to another side according to the position order of partitions in the corresponding group to determine whether one motion vector prediction candidate selection condition is satisfied and then performs the same operation for the next condition. It is a repetitive search, and 'partition location first search' sequentially searches whether one of the neighboring partitions satisfies the motion vector prediction candidate selection conditions (four conditions) sequentially and then moves to the next partition in order of next location. Go ahead and say search to repeat the same task.
  • condition priority search means a search in which the motion vector prediction candidate selection condition is given priority over the position order of the partitions for each partition in the corresponding group. This means that the position order of partitions is prioritized over the motion vector prediction candidate selection condition.
  • partition location order means a predetermined order from one side to the other between neighboring partitions.
  • partition 0, partition 1, and partition 2 are partitions of the same group arranged in the order of position, partition 0 is the partition having the first position order of the group, and partition 2 is the group. Indicates the partition with the last positional order of. Of course, the actual number of partitions included in each group may be different. In Tables 1 to 4, the numbers in the corresponding columns indicate the search order.
  • condition-first search may be performed on partitions in each group.
  • partition 0 to partition 2 are sequentially searched for whether condition 1 is satisfied,
  • the motion vector of the partition is selected as the motion vector to be included in the motion vector prediction candidate group, and if no partition is satisfied, the search is performed in the same manner with respect to condition 2, condition 3 and condition 4.
  • partition location priority search may be performed on partitions in each group. That is, partition 0 is sequentially searched for whether conditions 1 to 4 are satisfied, and if there is a condition that is satisfied, the motion vector of partition 0 is selected as the motion vector to be included in the motion vector prediction candidate, and the condition is satisfied. If not, the partition 1 to partition 2 are searched in the same way. ⁇
  • a combination of condition-first search and partition location-first search may be performed on partitions in each group. That is, by first performing a condition-first search for condition 1, sequentially searching whether partition 1 is satisfied for partitions 0 to 2 according to the partition position order, and sequentially searching the motion vector of the partition that satisfies the motion vector.
  • the motion vector to be included in the prediction candidate group is selected.
  • partition location first search is performed for the remaining conditions.
  • partition 0 is sequentially searched for whether conditions 2 to 4 are satisfied, and if there is a condition, the motion vector of partition 0 is selected as a motion vector to be included in the motion vector prediction candidate, and there is no condition to satisfy.
  • the search for partition 1 is performed in the same way. Therefore, in the example shown in Table 3, condition 1 is a priority search condition, but if no partition is satisfied, partition location priority search is performed for the remaining conditions. Table 4
  • another search combining a conditional priority search and a partition position priority search may be performed on partitions in each group. That is, the partition location priority search is first performed on partition 0 to sequentially search whether conditions 1 to 4 are satisfied, and when there is a condition, the motion vector of partition 0 is included in the motion vector prediction candidate group. To be selected. If no condition is satisfied, the condition first search is performed for the remaining partitions. That is, partition 1 to partition 2 are sequentially searched for whether condition 1 is satisfied, and the motion vector of the partition that satisfies the first time is selected as a motion vector to be included in the motion vector prediction candidate, and when there is no partition to satisfy The search for condition 2 is performed in the same way.
  • the example shown in Table 4 makes partition 0 the top search requirement, If no condition is satisfied, the condition-first search is performed for the remaining partitions.
  • the motion vectors a ', b' and c 'selected by the methods proposed by the present invention are i) the median values of the motion vectors a', b 'and c' (median (a ', b', c ')). And ii) an increase in the number of motion vectors included in the motion vector prediction candidate group. That is, a neighbor partition partition motion vector, which was not valid and was not added to the motion vector prediction candidate, is valid by applying the motion vector scaling technique of the present invention and may be added to the motion vector prediction candidate.
  • the two elements are independent of each other, and each of the two elements may determine whether to apply the motion vector scaling technique individually. For example, when the motion vector scaling is applied only to the resultant value of the median of the motion vector, only the resultant value of the median value is changed while the total number of motion vector candidates is maintained. Also, when applied to increasing the number of motion vector candidates, the resultant value of the median value is the same as that of the existing AMVP, but the total number of motion vector candidates may be increased. It is of course also possible to apply motion vector scaling to both of these factors.
  • the selection range of the neighbor partition motion vector to be included in the motion vector prediction candidate group can be simplified and selected as shown in FIG. 14. That is, the partition (A m + 1 ) adjacent to the lower left of the current partition
  • the first group is formed by the partition (A m ) located at the bottom of adjacent partitions on the left side, the partition (B n + 1 ) adjacent to the upper right side of the current partition, and the lowest among the adjacent partitions on top.
  • the second group may be formed by the partition B n located at the right and the partition B- adjacent to the upper left.
  • the motion vector prediction candidate group of the current partition may be selected from the motion vector a 'selected from the first group.
  • the motion vector b 'selected from the second group may be included in the motion vector prediction candidate group as well as the spatial neighbor partition as well as the motion vector of the temporal neighbor partition.
  • the definitions of 'motion vector prediction candidate group selection condition' and 'partition location order' are the same as those of Tables 1 to 4 above, and the present invention is not limited to the following embodiments, and various orders may be necessary. Of course, it can be changed to. Also, when condition 1 or condition 2 is satisfied for the partition selected through the following example, the motion vector of the partition is selected. If it is used as is, and if condition 3 or condition 4 is satisfied, the scaled motion vector of the corresponding partition is used as described above.
  • the partition position priority search may be performed on partitions in each group. That is, as shown in Table 5, whether the conditions 1 to 4 are sequentially searched for the partition A m of the first group, and if the conditions are satisfied, the motion vector of the partition A m is included in the motion vector prediction candidate group. If it is selected as a vector and there is no condition satisfied, the partition can be searched in the same way. Meanwhile, in the present invention, after searching for partition A m + i by changing the order of the searching partitions as shown in Table 6, the search for partition A m may be performed if there are no conditions satisfied. In addition, such partition location priority search may be performed in the same manner for the partitions of the second group as shown in Table 7.
  • condition-first search may be performed on partitions in each group. That is, sequentially searching whether each of the partitions of the first group and the second group satisfies condition 1, and selects the motion vector of the partition that satisfies the first as a motion vector to be included in the motion vector prediction candidate group, If no partition is satisfied, the search can be performed in the same manner for condition 2, condition 3 and condition 4.
  • a combination of a conditional priority search and a partition position priority search may be performed on partitions in each group.
  • condition-first search by first performing condition-first search on condition 1, whether or not condition 1 is satisfied is sequentially searched according to the partition position order, and the motion vector of the partition that satisfies the first condition is used as the motion vector to be included in the motion vector prediction candidate group. Select.
  • the partition location first search is performed for the remaining conditions. That is, as shown in Table 10, sequentially search for whether the conditions 2 to 4 are satisfied with respect to the partition A m of the first group, and if there is a condition, the motion vector of the partition A m is included in the motion vector prediction candidate group. If it is selected as a vector and there is no condition satisfied, the search for partition A m + 1 can be performed in the same way.
  • the order of search target partitions for partition location priority search may be changed as shown in Table 11, and the second group may be performed in the same manner as shown in Table 12. Therefore, according to the examples shown in Tables 10 to 12, condition 1 is a priority search condition, but if no partition is satisfied, partition location priority search is performed for the remaining conditions.
  • a search for condition 1 and condition 2 is preferentially performed on partitions in each group, and a valid motion vector is selected through the search for condition 1 and condition 2. If not, you can perform a search for condition 3 and condition 4. At this time, the priority search for condition 1 and condition 2 selects condition search or partition location search first. It is free to use, and the search for condition 3 and condition 4 is the same.
  • neighboring partitions satisfying condition 1 and condition 2 refer to the same reference picture as the current partition, there is no need to perform motion vector scaling, and thus, by first searching for neighboring partition motion vectors that do not require motion vector scaling, This can reduce the frequency of vector scaling and reduce complexity.
  • some searches may be omitted in order to reduce the number of cases to be searched and to obtain a gain in complexity.
  • a method of performing only the first to fifth searches in the search for the first group and omitting the sixth, seventh, and eighth searches may be performed.
  • the 6th, 7th, 8th, 10th, 11th, and 12th searches are omitted in Table 7, and the 5th, 6th, 8th, 9th, 11th, and 12th searches are omitted in Table 9.
  • a search may be performed by combining a condition-first search for one motion vector prediction candidate group selection condition and a location-first search for one partition in each group.
  • a mode such as merge, scan (8 ⁇ 1), or direct prediction mode may be used.
  • one partition may be merged with another adjacent partition (A, B, C, D) vertically, horizontally, or diagonally.
  • Merging means that prediction information is obtained from inter-screen prediction information of adjacent neighbor partitions in inter-screen prediction of the current partition.
  • Merging of partitions includes information indicating whether the partition has been merged (for example, merge— flag), which partition (for example, the top partition A of the left neighbor, the leftmost partition B of the top neighbor, and the top right neighbor). It may be expressed using information indicating whether merge with the partition C or the lower left neighboring partition D) is possible.
  • the motion information of the current partition may be obtained using information indicating which partition to merge with the motion information of four or less spatial neighbor partitions and the motion information of one temporal neighbor partition. have.
  • the skip mode refers to a method of using motion information of a previously coded partition as motion information for the current partition. Therefore, in the skip mode, information other than information indicating a partition to be skipped (for example, motion information, residual information, etc.) is not transmitted. In this case, motion information required for prediction may be derived from neighboring motion vectors.
  • Skip mode allows you to use the pixel value of the reference region within the previously coded reference picture. The pixel value of the reference region is a motion vector. It may be accompanied by motion compensation using the predicted value. However, in obtaining the motion vector prediction value, when motion vector competition is used, the current partition may have motion vector information.
  • the current partition can be coded in the direct prediction mode.
  • the direct prediction mode indicates a mode for predicting the motion information of the current partition from the motion information of the decoded partition.
  • the current partition is different from the skip mode in that the ledge has dyueolreul.
  • a method of obtaining motion information of a neighbor partition used in a merge mode may also be applied to a skip mode and a general inter mode, thereby unifying a method of predicting motion information in all modes. That is, in order to obtain valid motion information in the skip mode and the general inter mode, the search is performed in the same order as in the merge mode, without performing the search in a predetermined order.
  • the reference index or the prediction direction of the current partition is known in advance, so when the reference picture of the neighbor partition is the same as the reference picture of the current partition, the motion vector of the neighbor partition Can be used as a motion vector prediction candidate as a valid motion vector, and if the reference picture is different, the motion vector is treated as an invalid motion vector. Can be excluded.
  • the motion vector corresponding to the corresponding information of the current partition may be calculated using the motion vector scaling method proposed in the present invention, and used as a motion vector prediction candidate group.
  • pixel precision of less than an integer pixel may be used to increase accuracy.
  • pixel values of integer pixels or less are generated using interpolation of pixel values of the reference picture.
  • a flag indicating whether one of the above-described intra prediction mode, direct prediction mode, inter prediction mode, and skip mode described above is indicated through prediction mode information or a flag indicating whether the corresponding mode is used. Can be represented using In certain cases, different modes may be used to derive the mode.
  • the motion vector may be compressed and transmitted. For example, you can get a compressed value using a median filter between motion vectors to be stored. For this purpose, information on whether motion vector compression is used and compression ratio can be further transmitted.
  • the motion vector located first and the upper left may be stored and used as a reference value, and only the difference value may be transmitted for the subsequent vectors.
  • the transform on the image (for example, DCT) is made in a separate unit from the prediction unit.
  • this basic unit is called a transform unit.
  • the transform unit usually has a square shape, and may be recursively divided similarly to a co- sugar unit.
  • the size of the transformation unit, according to a feature of the image is determined as the most effective "size, it may be greater or less than the prediction unit.
  • one of the prediction unit may include a plurality of conversion units.
  • the structure and size of the transform unit can also be represented similarly as described for the coding unit above.
  • one transform unit can be recursively divided into four transform units, and this transform unit structure can be represented in the form of a quad tree.
  • the information related to the structure of the transform unit includes information on the maximum height (or split depth) of the preset transform unit tree, maximum size information of the transform unit, minimum size information of the transform unit, difference information between the maximum size and minimum size of the transform unit. , And / or logarithmic values of such values, and the like, may be represented as the depth of the transform unit derived from the transform unit, the size of the transform unit, or the like. Meanwhile, the maximum division depth of the transform unit may vary according to the prediction mode of the corresponding unit.
  • the size of the coding unit may affect the size of the transform unit.
  • Information on whether the current transformation unit is divided again may also be obtained for the transformation unit. For example, this information can be When indicating that the split has been performed, the transform unit may be recursively split into four split transform units.
  • each component or feature is to be considered optional unless stated otherwise.
  • Each component or feature may be embodied in a form that is not combined with other components or features. It is also possible to combine some of the components and / or features to form an embodiment of the invention.
  • the order of the operations described in the embodiments of the present invention may be changed. Some components or features of one embodiment may be included in another embodiment or may be replaced with corresponding components or features of another embodiment.
  • the decoding / encoding method to which the present invention is applied may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and multimedia data having a data structure according to the present invention may also be read by a computer.
  • the computer readable recording medium includes all kinds of storage devices for storing data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the bitstream generated by the encoding method is a computer It may be stored in a readable recording medium or transmitted using a wired / wireless communication network.
  • Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). It can be implemented using at least one of the following: processors, controllers, microcontrollers, microprocessors, and other electrical units for performing other functions.
  • Embodiments described herein may be implemented by the controller itself.
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in the appropriate programming language.
  • the software code may be stored in a memory and executed by a controller.
  • the present invention can be applied to encode and decode video signals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 비디오 신호의 처리 방법 및 장치에 관한 것으로, 참조 픽쳐 간의 시간적인 거리의 차이를 고려한 모션 벡터의 스케일링을 통해 모션 벡터 예측의 정확도를 높일 수 있는 비디오 신호의 처리 방법 및 장치에 관한 것이다. 이를 위해 본 발명은, 현재 파티션의 모션 벡터 예측을 위한 적어도 하나의 이웃 파티션 모션 벡터를 선정하는 단계; 선정된 상기 이웃 파티션 모션 벡터의 참조 픽쳐가 현재 파티션의 참조 픽쳐와 다를 경우, 상기 이웃 파티션 모션 벡터를 스케일링하는 단계; 상기 스케일링 된 모션 벡터를 이용하여 현재 파티션의 모션 벡터 예측값을 획득하는 단계; 및 상기 모션 벡터 예측값을 이용하여 현재 파티션의 모션 벡터를 획득하는 단계; 를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법 및 이를 이용한 비디오 신호 처리 장치를 제공한다.

Description

【명세서】
【발명의 명칭]
비디오 신호 처리 방법 및 장치 【기술분야】
본 발명은 비디오 신호의 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 비디오 신호를 인코딩하거나 디코딩하는 비디오 신호 처리 방법 및 장치에 관한 것이다.
【배경기술】
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 신호에 대한 압축 부호화는 공간적인 상관관계, 시간적인 상관관계, 확률적인 상관관계 등을 고려하여 잉여 정보를 제거함으로써 이루어진다. 그러나 최근의 다양한 미디어 및 데이터 전송 매체의 발전으로 인해, 더욱 고효율의 비디오 신호 처리 방법 및 장치가 요구되고 있다.
【발명의 상세한 설명】 【기술적 과제】
영상 압축 부호화를 수행하는 과정에서 효율성을 높이기 위해 이웃 파티션의 모션 백터를 이용하여 현재 파티션의 모션 백터를 예측하는 방법을 영상 압축 부호화를 수행하는 과정에서 효율성을 높이기 위해 이웃 파티션의 모션 백터를 이용하여 현재 파티션의 모션 백터를 예측하는 방법을 수행할 수 있는데, 이때 참조 픽쳐가 서로 다를 경우에도 이러한 차이를 고려하지 않고 이웃 파티션의 모션 백터를 그대로 현재 파티션의 모션 백터 예측에 사용함으로 인해, 모션 백터 예측의 정확도가 떨어지는 문제점이 있었다.
또한, 모션 백터 예측을 위한 이웃 모션 백터의 선정 대상 후보군이 현재 파티션과 동일 참조 픽쳐 리스트 및 동일 참조 픽쳐를 갖는 이웃 파티션에 한정됨으로 인해 유효한 이웃 모션 백터를 획득할 수 있는 확를이 줄어들게 되는 문제점이 있었다.
또한, 상기 모션 백터 예측에 사용될 이웃 모션 백터의 선정 작업은 그 후보 대상이 많아질수록 복잡도가 증가하게 되는데, 이를 효율적으로 수행하기 위한 방법이 요구된다.
【기술적 해결방법】
본 발명은 상기와 같은 요구를 해결하기 위해 고안된 것으로서, 참조 픽쳐 간의 시간적인 거리의 차이를 고려한 모션 백터의 스케일링을 통해 모션 백터 예측의 정확도를 높이기 위한 목적이 있다.
또한, 서로 다른 참조 픽쳐 리스트에서 동일한 참조 픽쳐를 참조하는 이웃 모션 백터를 검출하여 모션 백터 예측에 사용하기 위한 목적이 있다. 또한, 모션 백터 예측을 위한 이웃 모션 백터의 선정 대상 후보군을 더욱 확장하고자 하려는 목적이 있다. 본 발명의 또 다른 목적은 현재 파티션의 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 선정하는 과정에 있어서, 최적의 효율을 갖는 우선 순위 검색 조건을 제공하고자 함에 있다.
또한, 병합 모드에서 사용되는 이웃 파티션의 모션 정보 획득 방법을 스킵 모드와 일반적인 인터 모드에도 적용하여, 모든 모드에서 모션 정보를 예측하는 방법을 단일화 (unification)하려는 목적이 있다.
【유리한 효과】
본 발명에 따른 비디오 신호 처리 장치에 의하면, 참조 픽쳐 간의 시간적인 거리의 차이를 고려하여 이웃 파티션의 모션 백터를 스케일링하여 현재 파티션의 모션 백터 예측에 사용함으로 모션 백터 예측의 정확도를 높일 수 있게 된다.
또한, 단순히 동일한 참조 픽쳐 리스트의 동일한 참조 픽쳐를 참조하는 이웃 모션 백터뿐만 아나라, 다양한 후보군의 이웃 모션 백터를 활용하게 되므로 모션 백터 예측의 유연성을 확장시키고 정밀한 모션 백터 예측을 위한 이웃 모션 백터의 선택 범위를 넓힐 수 있게 된다.
또한, 현재 파티션의 모션 백터 예측을 위한 이웃 파티션 모션 백터를 선정하는 과정에서 모션 백터 예측 후보군 선정 조건과 파티션 위치 순서에 따른 우선 순위를 적절히 조합하여 검색을 수행함으로, 검색 작업의 복잡도를 줄이는 동시에 유효한 이웃 모션 백터를 획득할 수 있는 효율성을 제공한다. 또한, 병합 모드와 스킵 모드 및 인터 모드의 이웃 파티션 모션 정보 획득 방법을 단일화함으로 이웃 파티션 모션 정보 획득에 필요한 복잡도를 감소시킬 수 있다.
【도면의 간단한 설명】
도 1 은 본 발명의 실시예에 따른 비디오 신호 인코더 장치의 개략적인 블록도.
도 2 는 본 발명의 실시예에 따른 비디오 신호 디코더 장치의 개략적인 블록도.
도 3 은 본 발명의 실시예에 따라 유닛을 분할하는 일 예를 나타내는 도면.
도 4 는 도 3 의 분할 구조를 계층적으로 나타내는 방법에 대한 일 실시예를 도시한 도면.
도 5 는 본 발명의 실시예에 따라 예측 유닛 내에서의 다양한 분할 형태를 도시한 도면.
도 6은 현재 파티션의 공간적인 이웃 파티션의 예를 나타낸 도면. 도 7 및 도 8 은 이웃 파티션의 모션 백터를 스케일링하는 방법을 도시한 도면.
도 9 는 서로 다른 참조 픽쳐 리스트에서 동일한 참조 픽쳐를 참조하는 예를 나타낸 개략도.
도 10 및 도 n 은 현재 파티션과 공간적인 이웃 파티션 각각의 참조 픽쳐 리스트 및 참조 인덱스 값의 예를 나타낸 도면. 도 12 는 본 발명의 실시예에 따른 디코더 장치의 움직임 추정부의 구성을 나타낸 개략적인 블록도.
도 13 및 도 14 는 본 발명의 실시예에 따라 현재 파티션의 모션 백터 예측 후보군에 포함될 모션 백터가 선정되는 공간적 이웃 파티션들을 나타내는 개략도.
도 15 는 병합 모드에서 현재 파티션의 병합 대상이 되는 이웃 파티션들을 나타내는 개략도.
도 16 은 본 발명의 모션 백터 예측 후보군 선정 조건을 설명하기 위한 순서도.
【발명의 실시를 위한 최선의 형태】
상기와 같은 목적을 달성하기 위해 본 발명에 따른 비디오 신호의 처리 방법은, 현재 파티션의 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 선정하는 단계; 선정된 상기 이웃 파티션 모션 백터의 참조 픽쳐가 현재 파티션의 참조 픽쳐와 다를 경우, 상기 이웃 파티션 모션 백터를 스케일링하는 단계; 상기 스케일링 된 모션 백터를 포함하는 모션 백터 예측 후보군을 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 단계; 및 상기 모션 백터 예측값을 이용하여 현재 파티션의 모션 백터를 획득하는 단계; 를 포함하는 것을 특징으로 한다.
이때, 상기 스케일링 된 모션 백터는, 픽쳐간 시간 거리를 이용하여 선형 보간한 모션 백터인 것을 특징으로 한다. 또한, 상기 모션 백터 예측 후보군은, 현재 파티션의 좌측 하단에 인접하는 파티션 (Am+1)과 좌측에 인접하는 파티션들 중 최 하단에 위치한 파티션 (Am)으로 이루어진 제 1 그룹과, 현재 파티션의 우측 상단에 인접하는 파티션 (Bn+1), 상단에 인접하는 파티션들 중 최고 우측에 위치한 파티션 (Bn) 및 좌측 상단에 인접하는 파티션 (R0으로 이루어진 제 2 그룹에서 각각 선정되는 모션 백터를 포함하는 것을 특징으로 한다.
또한, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 참조 픽 쳐 리스트, 참조 픽 쳐 및 인터 모드 해당 여부 정보를 포함하는 모션 백터 예측 후보군 선정 조건을 기초로 하여 , 상기 제 1 그룹과 제 2 그룹에서 각각 선정하는 것을 특징으로 한다.
본 발명의 실시 예에 있어서, 상기 모션 백터 예측 후보군 선정 조건은,
(a) 현재 파티션과 같은 참조 픽 쳐 리스트, 같은 참조 픽 쳐를 갖는 인터 모드 파티션인지 , (b) 현재 파티션과 다른 참조 픽 쳐 리스트, 같은 참조 픽 쳐를 갖는 인터 모드 파티션인지, (c) 현재 파티션과 같은 참조 픽 쳐 리스트, 다른 참조 픽 쳐를 갖는 인터 모드 파티션인지 및, (d) 인터 모드를 갖는 파티션인지의 여부를 순차적으로 검 색하는 것을 특징으로 한다.
이때, 상기 현재 파티션과 다른 참조 픽 쳐 리스트, 같은 참조 픽 쳐를 갖는 인터 모드 파티션인지 여부는, POC(Picture Order Count) 값을 기초로 판단하는 것을 특징으로 한다.
또한, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 상기 제 1 그룹 또는 제 2 그룹의 각 파티션들에 대하여 상기 모션 백터 예측 후보군 선정 조건을 파티션들의 위치 순서보다 우선 순위로 검색하는 조건 우선 검색을 수행하는 것을 특징으로 한다. ' 또한, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 상기 제 1 그룹 또는 제 2 그룹의 각 파티션들에 대하여 파티션들의 위치 순서를 상기 모션 백터 예측 후보군 선정 조건보다 우선 순위로 검색하는 파티션 위치 우선 검색을 수행하는 것을 특징으로 한다.
또한, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 상기 제 1 그룹 또는 제 2 그룹의 각 파티션들에 대하여 상기 모션 백터 예측 후보군 선정 조건 (a)에 대한 조건 우선 검색을 수행하는 단계; 및 상기 조건 우선 검색을 통해 유효한 이웃 파티션 모션 백터를 검색하지 못할 경우, 상기 모션 백터 후보군 선정 조건 (b) 내지 (d)에 대하여 파티션 위치 우선 검색을 수행하는 단계; 를 포함하는 것을 특징으로 한다.
한편, 본 발명의 실시예에 따른 비디오 신호 처리 장치는, 현재 파티션의 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 선정하는 이웃 파티션 모션 백터 선정부; 선정된 상기 아웃'파티션 모션 백터의 참조 픽쳐가 현재 파티션의一참조 픽쳐와 다를 경우, 상기 이웃 파티션 모션 백터를 스케일링하는 모션 백터 스케일링부; 상기 스케일링 된 모션 백터를 포함하는 모션 백터 예측 후보군을 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 모션 백터 예측값 획득부; 및 상기 모션 백터 예측값을 이용하여 현재 파티션의 모션 백터를 획득하는 모션 백터 획득부; 를 포함하는 것을 특징으로 한다.
【발명의 실시를 위한 형태】
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위하여 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
본 발명에서 다음 용어는 다음과 같은 기준으로 해석될 수 있고, 기재되지 않은 용어라도 하기 취지에 따라 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있고, 정보 (information)는 값 (values), 파라미터 (parameter), 계수 (coefficients), 성분 (elements) 등을 모두 포함하는 용어로서, 경우에 따라 의미는 달리 해석될 수 있으므로 본 발명은 이에 한정되지 아니한다. '유닛 '은 영상 처리의 기본 단위 또는 영상의 특정 위치를 지칭하는 의미로 사용되었으며, 경우에 따라서는 '블록', '파티션' 또는 '영역' 등의 용어와 서로 흔용하여 사용될 수 있다. 또한, 본 명세서에서 유닛은 코딩 유닛, 예측 유닛, 변환 유닛을 모두 포함하는 개념으로 사용될 수 있다. 도 1 은 본 발명의 일 실시예에 따른 비디오 신호 인코딩 장치의 개략적인 블록도이다. 도 1 을 참조하면, 본 발명의 인코딩 장치 (100)는 크게 변환부 (110), 양자화부 (115), 역양자화부 (120), 역변환부 (125), 필터링부 (130), 예측부 (150) 및 엔트로피 코딩부 (160)를 포함한다.
변환부 (110)는 입력받은 비디오 신호에 대한 화소값을 변환하여 변환 계수 값을 획득한다. 예를 들어, 이산 코사인 변환 (DCT: Discrete Cosine Transform) 또는 웨이블릿 변환 (Wavelet Transform) 등이 사용될 수 있다. 특히 이산 코사인 변환은 입력된 영상 신호를 일정 크기의 블록 형태로 나누어 변환을 수행하게 된다. 변환에 있어서 변환 영역 내의 값들의 분포와 특성에 따라서 코딩 효율이 달라질 수 있다.
양자화부 (115)는 변환부 (110)에서 출력된 변환 계수 값을 양자화한다. 역양자화부 (120)에서는 변환 계수 값을 역양자화하고, 역변환부 (125)에서는 역양자화된 변환 계수값을 이용하여 원래의 화소값을 복원한다.
필터링부 (130)는 복원된 영상의 품질 개선을 위한 필터링 연산을 수행한다ᅳ 예를 들어, 디블록킹 필터 및 적웅적 루프 필터 등이 포함될 수 있다. 필터링을 거친 영상은 출력되거나 참조 영상으로 이용하기 위하여 저장부 (156)에 저장된다.
코당 효율을 높이기 위하여 영상 신호를 그대로 코딩하는 것이 아니라, 이미 코딩된 영역을 이용하여 영상을 예측하고, 예측된 영상에 원 영상과 예측 영상간의 레지듀얼 값을 더하여 복원 영상을 획득하는 방법이 사용된다. 인트라 예측부 (152)에서는 현재 영상 내에서 화면내 예측을 수행하며, 인터 예측부 (154)에서는 저장부 (156)에 저장된 참조 영상을 이용하여 현재 영상을 예측한다. 인트라 예측부 (152)는 현재 영상 내의 복원된 영역들로부터 화면내 예측을 수행하여, 화면내 부호화 정보를 엔트로피 코딩부 (160)에 전달한다. 인터 예측부 (154)는 다시 움직임 보상부 (162) 및 움직임 추정부 (164)를 포함하여 구성될 수 있다. 움직임 추정부 (164)에서는 복원된 특정 영역을 참조하여 현재 영역의 모션 백터값을 획득한다. 움직임 추정부 (164)에서는 참조 영역의 위치 정보 (참조 프레임, 모션 백터 등) 등을 엔트로피 코딩부 (160)로 전달하여 비트스트림에 포함될 수 있도록 한다. 움직임 추정부 (164)에서 전달된 모션 백터값을 이용하여 움직임 보상부 (162)에서는 화면간움직임 보상을 수행한다.
엔트로피 코딩부 (160)는 양자화된 변환 계수, 화면간 부호화 정보, 화면내 부호화 정보 및 인터 예측부 (154)로부터 입력된 참조 영역 정보 등을 엔트로피 코딩하여 비디오 신호 비트스트림을 생성한다. 여기서 엔트로피 코딩부 (160)에서는 가변 길이 코딩 (VLC: Variable Length Coding) 방식과 산술 코딩 (arithmetic coding) 등이 사용될 수 있다. 가변 길이 코딩 (VLC) 방식은 입 력되는 심볼들을 연속적 인 코드워드로 변환하는데, 코드워드의 길이는 가변적 일 수 있다. 예를 들어 , 자주 발생하는 심볼들을 짧은 코드워드로, 자주 발생하지 않은 심볼들은 긴 코드워드로 표현하는 것 이다. 가변 길이 코딩 방식으로서 컨텍스트 기반 적웅형 가변 길이 코딩 (CAVLC: Context-based Adaptive Variable Length Coding) 방식 이 사용될 수 있다. 산술 코딩은 연속적 인 데이터 심볼들을 하나의 소수로 변환하는데, 산술 코딩은 각 심볼을 표현하기 위하여 필요한 최 적의 소수 비트를 얻을 수 있다. 산술 코딩으로서 컨텍스트 기반 적응형 산술 부호화 (CAB AC: Context-based Adaptive Binary Arithmetic Code)가 이용될 수 있다.
도 2 는 본 발명의 일 실시 예에 따른 비디오 신호 디코딩 장치 (200)의 개략적 인 블록도이다. 도 2 를 참조하면 본 발명의 디코딩 장치 (200)는 크게 엔트로피 디코딩부 (210), 역양자화부 (220), 역 변환부 (225), 필터링부 (230), 예측부 (250)를 포함한다.
엔트로피 디코딩부 (210)는 비디오 신호 비트스트림을 엔트로피 디코딩하여 , 각 영 역에 대한 변환 계수, 모션 백터 등을 추출한다. 역 양자화부 (220)는 엔트로피 디코딩 된 변환 계수를 역 양자화하고, 역 변환부 (225)는 역양자화된 변환 계수를 이용하여 원래의 화소값을 복원한다. 한편, 필터링부 (230)는 영상에 대한 필터링을 수행하여 화질을 향상시킨다. 여기에는 블록 왜곡 현상을 감소시키기 위한 디블록킹 필터 및 /또는 영상 전체의 왜곡 제거를 위한 .적응적 루프 필터 등이 포함될 수 있다. 필터링을 거친 영상은 출력되거나 다음 프레임에 대한 참조 영상으로 이용하기 위하여 프레임 저장부 (256)에 저장된다.
또한, 본 발명의 예측부 (250)는 인트라 예측부 (252) 및 인터 예측부 (254)를 포함하고, 전술한 엔트로피 디코딩부 (210)를 통해 디코딩된 부호화 타입, 각 영역에 대한 변환 계수, 모션 백터 등의 정보를 활용하여 예측 영상을 복원하게 된다.
ᅳ 이와 관련하여, 상기 인트라 예측부 (252)에서는 현재 영상 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다.
인터 예측부 (254)는 프레임 저장부 (256)에 저장된 참조 영상을 이용하여 모션 백터를 추정하고 예측 영상을 생성한다. 인터 예측부 (254)는 다시 움직임 보상부 (262) 및 움직임 추정부 (264)를 포함하여 구성될 수 있다. 움직임 추정부 (264)에서는 현재 블록과 코딩에 사용하는 참조 프레임의 참조 블록간의 관계를 나타내는 모션 백터를 획득하여 움직임 보상부 (262)로 전달한다.
상기 인트라 예측부 (252) 또는 인터 예측부 (254)로부터 출력된 예측값, 및 역변환부 (225)로부터 출력된 화소값이 더해져서 복원된 비디오 프레임이 생성된다. 이하에서는, 상기 인코더 장치와 디코더 장치의 동작에 있어서, 도 3 내지 도 5 를 참조하여 코딩 유닛 및 예측 유닛 등을 분할하는 방법을 설명하기로 한다.
코딩 유닛이 란 상기에서 설명 한 비디오 신호의 처리 과정에서, 예를 들어 화면내 (intra)/화면간 (inter) 예측, 변환 (transform), 양자화 (quantization) 및 /또는 엔트로피 코딩 (entropy coding) 등의 과정에서 영상을 처 리하기 위한 기본 단위를 의미 한다. 하나의 영상을 코딩하는 데 있어서 사용되는 코딩 유닛의 크기는 일정하지 않을 수 있다. 코딩 유닛은 사각형 형 태를 가질 수 있고, 하나의 코딩 유닛은 다시 여 러 개의 코딩 유닛으로 분할 가능하다.
도 3 은 본 발명의 실시 예에 따라 코딩 유닛을 분할하는 일 예를 나타낸 것이다. 예를 들어, 2N X 2N 크기를 가지는 하나의 코딩 유닛은 다시 네 개의 NxN 크기를 가지는 코딩 유닛으로 분할될 수 있다. 이 러 한 코딩 유닛의 분할은 재귀 적으로 이루어질 수 있으며 , 모든 코딩 유닛들이 동일한 형 태로 분할될 필요는 없다. 다만, 코딩 및 처리과정에서의 편의를 위하여 코딩 유닛의 최 대 크기 (310) 또는 최소 크기 (320)에 대한 제한이 있을 수 있다. 하나의 코딩 유닛에 대하여 , 해당 코딩 유닛이 분할되는지 여부를 나타내는 정보를 저장할 수 있다. 예를 들어, 도 3 과 같이 하나의 코딩 유닛은 4 개의 정방형 코딩 유닛으로 나누어질 수 있다고 가정하자. 도 4 는 도 3 에서 도시하는 코딩 유닛의 분할 구조를 0 과 1 을 이용하여 계층적으로 나타내는 방법에 대한 일 실시 예를 도사한 것 이다. 코딩 유닛의 분할 여부를 나타내는 정보는 해당 유닛이 분할 된 경우 T, 분할되지 않은 경우 Ό'의 값으로 할당할 수 있다. 도 4 에서 도시하듯이, 분할 여부를 나타내는 플래그 값이 1 이면 해당 노드에 대웅하는 블록은 다시 4 개의 블록으로 나누어지고, 0 이면 더 이상 나누어지지 않고 해당 코딩 유닛에 대한 처리 프로세스가 수행될 수 있다.
블록이 반드시 4 개의 정방향 영 역으로만 나누어 질 수 있는 것은 아니다. 이 러한 경우에는 분할 정보에 미리 정해진 분할 방식에 대한 코드를 매핑시켜서 나타낼 수 있다. 예를 들어 , 해당 정보 값이 1 이면 해당 블록은 2 개의 수평 직사각형 서브 블록으로 나누어지고, 2 이면 해당 블록은 2 개의 수직 직사각형 서브 블록으로 나누어지고, 3 이면 4 개의 정사각형 서브 블록으로 나누어지도록 설정할 수도 있다. 이 러한 방법은 분할 방식의 몇 가지 실시 예를 나타낸 것으로, 본 발명을 한정하는 것은 아니다.
상기에서 설명한 코딩 유닛의 구조는 재귀 적 인 트리 구조를 이용하여 나타낼 수 있다. 즉, 하나의 픽 쳐 또는 최 대 크기 코딩 유닛을 루트 (root)로 하여 , 다른 코딩 유닛으로 분할되는 코딩 유닛은 분할된 코딩 유닛의 개수만큼의 자식 (child) 노드를 가지게 된다. 따라서 , 더 이상 분할되지 않는 코딩 유닛이 리프 (leaf) 노드가 된다. 하나의 코딩 유닛에 대하여 정방형 분할만이 가능하다고 가정할 때, 하나의 코딩 유닛은 최 대 4 개의 다른 코딩 유닛으로 분할될 수 있으므로 코딩 유닛을 나타내는 트리는 쿼드 트리 (Quard tree) 형태가 될 수 있다.
인코더에서는 비디오 영상의 특성 (예를 들어, 해상도)에 따라서 혹은 코딩의 효율을 고려하여 최적의 코딩 유닛의 크기를 선택하고 이에 대한 정보 또는 이를 유도할 수 있는 정보가 비트스트림에 포함될 수 있다. 예를 들면, 최대 코딩 유닛의 크기 및 트리의 최대 깊이를 정의할 수 있다. 정방형 분할을 할 경우, 코딩 유닛의 높이 및 너비는 부모 노드의 코딩 유닛의 높이 및 너비의 반이 되므로, 상기와 같은 정보를 이용하면 최소 코딩 유닛 크기를 구할 수 있다. 혹은 역으로, 최소 코딩 유닛 크기 및 트리의 최대 깊이를 미리 정의하여 이용하고, 이를 이용하여 필요할 경우에 최대 코딩 유닛의 크기를 유도하여 이용할 수 있다. 정방형 분할에서 유닛의 크기는 2 의 배수 형태로 변화하기 때문에, 실제 코딩 유닛의 크기는 2 를 밑으로 하는 로그값으로 나타내어 전송 효율을 높일 수 있다.
디코더에서는 현재 코딩 유닛이 분할되었는지 여부를 나타내는 정보를 ¬득할 수 있다. 이러한 정보는 특정 조건 하에만 획득하게 (전송되게) 하면 효율을 높일 수 있다. 예를 들어 현재 코딩 유닛이 분할 가능한 조건은 현재 위치에서 현재 코딩 유닛 크기를 더한 것이 픽쳐의 크기보다 작고, 현재 유닛 크기가 기설정된 최소 코딩 유닛 크기보다 큰 경우이므로, 이러한 경우에만 분할되었는지를 나타내는 정보를 획득할 수 있다. 만약 상기 정보가 코딩 유닛이 분할되었음을 나타내는 경우, 분할될 코딩 유닛의 크기는 현재 코딩 유닛의 반이 되고, 현재 처리 위치를 기준으로 하여 4 개의 정방형 코딩 유닛들로 분할된다. 각 분할된 코딩 유닛들에 대해서 상기와 같은 처리를 반복할 수 있다.
코딩을 위한 픽쳐 예측 (모션 보상)은 더 이상 나누어지지 않는 코딩 유닛 (즉 코딩 유닛 트리의 리프 노드)을 대상으로 이루어진다. 이러한 예측을 수행하는 기본 단위를 이하에서는 예측 유닛 (prediction unit) 또는 예측 블록 (prediction block)이라고 한다. 예측 유닛은 다양한 형태로 분할 가능한데, 정방형, 직사각형 등의 대칭적인 형태나, 비대칭적인 형태, 혹은 기하학적 형태의 서브 -예측 유닛으로의 분할이 가능하다. 예를 들면, 하나의 예측 유닛은 도 5 에 나타난 바와 같이 2Nx2N, 2NxN„ Nx2N 등의 크기의 서브 -예측 유닛으로 나누어질 수 있다. 이때, 비트스트림에는 상기 예측 유닛이 분할되었는지 여부, 혹은 어떠한 형태로 분할되었는지에 대한 정보가 포함될 수 있다. 혹은 이러한 정보는 다른 정보들로부터 유도될 수도 있다. 한편, 본 발명의 명세서에서 정의되는 파티션 (partition)이라는 용어는 픽쳐 예측을 수행하는 기본 단위인 상기 예측 유닛 또는 서브 -예측 유닛을 대체하는 용어로 사용될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.
디코딩이 수행되는 현재 유닛 (current unit)을 복원하기 위해서 현재 유닛이 포함된 현재 픽쳐 또는 다른 픽쳐들의 디코딩된 부분을 이용할 수 있다. 복원에 현재 픽쳐만을 이용하는, 즉 화면내 예측만을 수행하는 픽쳐 (슬라이스)를 인트라 픽쳐 또는 I 픽쳐 (슬라이스), 각 유닛을 예측하기 위하여 최대 하나의 모션 백터 및 레퍼런스 인덱스를 이용하는 픽쳐 (슬라이스)를 예측 픽쳐 (predictive picture) 또는 P 픽쳐 (슬라이스), 최대 두 개의 모션 백터 및 레퍼런스 인덱스를 이용하는 .픽쳐 (슬라이스)를 쌍예측 픽쳐 (Bi-predictive picture) 또는 B 픽쳐 (슬라이스) 라고 한다.
인트라 예측부에서는 현재 픽쳐 내의 복원된 영역들로부터 대상 유닛의 픽셀값을 예측하는 화면내 예측 (Intra prediction)을 수행한다. 예를 들어, 현재 유닛을 증심으로, 상단, 좌측, 좌측 상단 및 /또는 우측 상단에 위치한 유닛들의 부호화된 픽샐로부터 현재 유닛의 픽셀값을 예측할 수 있다.
인트라 모드는 픽셀값 예측에 사용되는 참조 픽셀들이 위치한 참조 영역의 방향 및 예측 방식에 따라 크게 수직 (Vertical), 수평 (Horizontal), DC, Angular 모드 등으로 나눌 수 있다. 수직 모드는 대상 유닛의 수직으로 인접한 영역의 값을 현재 유닛의 예측값으로, 수평 모드는 수평으로 인접한 영역을 참조 영역으로 이용한다. DC 모드에서는 참조 영역들의 평균값을 예측값으로 이용하게 된다. 한편, Angular 모드는 참조 영역이 임의의 방향에 위치한 경우로, 현재 픽셀과 참조 픽셀 간의 각도로 해당 방향을 나타낼 수 있다. 편의를 위하여, 기 정해진 각도 및 예측 모드 번호를 사용할 수 있고, 사용되는 각도의 수는 대상 유닛의 크기에 따라서 달라질 수 있다. 이렇게 다양한 예측 방법들에 대하여 몇 가지 특정 모드들을 정의하여 이용할 수 있다. 예측 모드는 그 모드를 나타내는 값 자체로 전송될 수도 있으나, 전송 효율을 높이기 위하여, 현재 블록의 예측 모드 값을 예측하는 방법을 이용할 수 있다. 이때 디코더에서는 예측 모드에 대한 예측값이 그대로 사용되는지, 실제 값과의 차이가 얼마인지를 이용한 정보로 현재 블록의 예측 모드를 획득할 수 있다.
한편, 인터 예측부에서는 현재 픽쳐가 아닌 복원된 다른 픽쳐들의 정보를 이용하여 대상 유닛의 픽샐값을 예측하는 화면간 예측 (Inter prediction)을 수행한다. 예측에 이용되는 픽쳐를 참조 픽쳐 (reference picture)라고 한다. 현재 유닛을 예측하는데 이용하는 참조 영역은 참조 픽쳐를 나타내는 인덱스 (index) 및 참조 픽쳐를 나타내는 모션 백터 (motion vector) 정보 등을 이용하여 나타낼 수 있다.
화면간 예측에는 순방향 예측 (forward direction prediction), 역방향 예측 (backward direction prediction) 및 쌍예측 (Bi-prediction)이 있을 수 있다. 순방향 예측은 시간적으로 현재 픽쳐 이전에 표시 (또는 출력)되는 1 개의 참조 픽쳐를 이용한 예측이고, 역방향 예측은 시간적으로 현재 픽쳐 이후에 표시 (또는 출력)되는 1 개의 참조 픽쳐를 이용한 예측을 의미한다. 이를 위해서는 1 개의 모션 정보 (예를 들어, 모션 백터 및 참조 픽쳐 인덱스)가 필요할 수 있다. 쌍예측 방식에서는 최대 2 개의 참조 영역을 이용할 수 있는데, 이 ≥ 개의 참조 영역은 동일한 참조 픽쳐에 존재할 수도 있고, 서로 다른 픽쳐에 각각 존재할 수도 있다. 즉, 쌍예측 방식에서는 최대 2개의 모션 정보 (예를 들어 모션 백터 및 참조 픽쳐 인덱스)가 이용될 수 있는데, 2 개의 모션 백터가 동일한 참조 픽쳐 인덱스를 가질 수도 있고 서로 다른 참조 픽쳐 인덱스를 가질 수도 있다. 이때, 참조 픽쳐들은 시간적으로 현재 픽쳐 이전이나 이후 모두에 표시 (또는 출력)될 수 있다.
인터 모드로 코딩되는 예측 유닛은 임의의 파티션 (예를 들면, 대칭형, 비대칭형 또는 기하학적 형태)으로 나누어질 수 있으며, 각 파티션은 상기에서 설명한 바와 같이 하나 또는 두 개의 참조 픽쳐로부터 예측될 수 있다.
현재 예측 유닛의 모션 정보 (motion information)는 모션 백터 정보 (motion vector information)와 참조 픽쳐 인덱스 (reference picture index)를 포함할 수 있다. 상기 모션 백터 정보는 모션 백터, 모션 백터 예측값 (motion vector prediction) 또는 차분 모션 백터 (differential motion vector)를 포함할 수 있고, 상기 모션 백터 예측값을 특정하는 인덱스 정보를 의미할 수도 있다. 모션 백터 예측값을 특정하는 인텍스 정보란, 후술하는 모션 백터 경쟁 (motion vector competition)에서 모션 백터 예측 후보군에 포함된 다수의 모션 백터 중 어떠한 값을 현재 파티션의 모션 백터 예측값으로 사용할지를 특정하는 인덱스 정보를 말한다. 이러한 인덱스 정보를 전달함으로 모션 백터 예측 후보군 가운데서 현재 파티션의 모션 백터 예측에 사용될 모션 백터를 직접적으로 특정할 수 있다. 그러나 상기 인덱스 정보의 전달 없이 미리 설정된 우선순위에 따라 모션 백터 예측 후보군에 포함된 모션 백터들 중 어느 하나가 사용되도록 하는 간접적인 방법이 사용될 수도 있다. 한편, 차분 모션 백터는 상기 모션 백터와모션 백터 예측값 간의 차분값을 의미한다.
모션 백터 및 참조 픽쳐 인덱스를 이용하여 현재 예측 유닛의 참조 유닛을 획득할 수 있다. 상기 참조 유닛은 상기 참조 픽쳐 인덱스를 가진 참조 픽쳐 내에 존재한다. 또한, 상기 모션 백터에 의해서 특정된 유닛의 픽셀값 또는 보간 (interpolation)된 값이 상기 현재 예측 유닛의 예측값 (predictor)으로 이용될 수 있다. 즉, 모션 정보를 이용하여, 이전에 디코딩된 픽쳐로부터 현재 예측 유닛의 영상을 예측하는 모션 보상 (motion compensation)이 수행된다.
한편, 현재 픽쳐에 대하여, 화면 간 예측을 위하여 사용되는 픽쳐들로 참조 픽쳐 리스트를 구성할 수 있다. B 픽쳐의 경우에는 두 개꾀 참조 픽쳐 리스트를 필요로 하며, 이하에서는 각각을 참조 픽쳐 리스트 0(또는 List 0), 참조 픽쳐 리스트 1(또는 List 1)으로 지칭한다.
모션 백터와 관련한 전송량을 줄이기 위하여, 이전에 코딩된 유닛들의 모션 정보를 이용하여 모션 백터 예측값을 획득하고, 이에 대한 차분값 (motion vector difference)만을 전송하는 방법을 이용할 수 있다. 디코더에서는 디코딩된 다른 유닛들의 모션 정보들을 이용하여 현재 유닛의 모션 백터 예측값을 구하고, 전송된 차분값을 이용하여 현재 유닛에 대한 모션 백터 값을 획득하게 된다.
예를 들어 도 6 을 참조로 하면, 현재 예측 유닛 (파티션)의 좌측에 인접한 파티션을 이웃 파티션 A, 상단에 인접 한 파티션을 이웃 파티션 B, 우측 상단에 인접 한 파티션을 이웃 파티션 C 라 하고, 각각의 모션 백터를 MV_a, MV_b 및 MV_c 라 하자. 상기 현재 파티션의 모션 백터 예측값 (MVp)은 상기 MV_a, MV_b 및 MVᅳ c 의 수평과 수직 성분의 중앙 (median)값으로 유도될 수 있다. 만약 이웃 파티션 C 의 디코딩 정보를 획득할 수 없다면, 현재 파티션의 좌측 상단에 인접 한 이웃 파티션 D 및 이의 모션 백터 MV_d 가 대신 이용될 수 있다.
이때, 현재 파티션의 모션 백터 예측값 (MVp)을 구하기 위해 사용되는 이웃 파티션의 참조 픽 쳐가 현재 파티션의 참조 픽 쳐와 다를 경우에도 파티션의 모션 백터값을 그대로 사용한다면, 정확한 모션 백터 예측에 한계가 있게 된다. 따라서 본 발명에서는 보다 정확한 모션 백터 예측을 수행하기 위하여, 이웃 모션 백터를 스케 일링 (scailing)하는 기술을 사용할 수 있다.
모션 백터 스케일링 이 란 현재 픽 쳐와 각 파티션 (현재 파티션 및 인접 한 이웃 파티션)의 참조 픽 쳐 간의 시간 (temporal) 거 리를 이용하여 모션 백터를 선형 보간하는 작업을 말한다. 즉, 이웃 파티션의 모션 백터를, 현재 픽 쳐와 이웃 파티션의 참조 픽쳐 간의 시간적 거리, 및 현재 픽쳐와 현재 파티션의 참조 픽쳐 간의 시간적 거리의 비율을 통해 선형 보간하는 작업이다. 더욱 구체적으로, 스케일링 된 모션 백터 (MV'x)는 다음과 같은 수식을 통해 구할 수 있다. 【수학식 1】
MV'x-{(fME - fc)/(fx- fc)} X MVx
여기에서 MVX는 이웃 파티션의 모션 백터 MV_a, MVᅳ b,MV— c 및 MV_d 중 어느 하나를 가리키며, MVX'는 이의 스케일링 된 값을 나타낸다. 또한, fx는 해당 이옷 파티션의 참조 픽쳐 넘버를 가리키며, fME 는 현재 파티션의 참조 픽쳐 넘버, fc 는 현재 픽쳐 넘버를 가리킨다. 이와 같은 선형 보간을 통해 이웃 파티션의 모션 백터는 현재 파티션의 참조 픽쳐에 대응되도록 다운 스케일링 또는 업 스케일링 될 수 있으며, 각 파티션 간의 참조 픽쳐 차이로 인한 오차를 줄일 수 있게 된다. 또한, 본 발명의 실시예에 의하면 정수 연산을 통한 모션 백터 스케일링을 수행할 수도 있다. 첨부된 도 7 및 도 8을 참조로 설명하면, 이옷 파티션의 모션 백터 (mvLON)의 스케일링 된 값 (mvLON_scaled)은 이웃 파티션의 참조 픽쳐와 현재 픽쳐 간의 시간적 거리 (td), 및 현재 파티션의 참조 픽쳐와
정정용지 (규칙 제 91조) ISA/KR 현재 픽 쳐 간의 시 간적 거리 (tb)의 비율 (DistScaleFactor)을 이용하여 다음과 같이 구할 수 있다.
【수학식 21
mvLON— scaled = (DistScaleFactor * mvLON + 128) » 8
여기에서 , DistScaleFactor 는 MPEG-4 AVC/H.264 에 정의 된 바처 럼 다음과 같이 구할 수 있다.
【수학식 3】
DistScaleFactor = Clip3(-1024, 1023, (tb * tx + 32) » 6)
이 때, tx = (16384 + Abs(td/2))/td 이다.
이와 같이 , 현재 파티 션의 모션 백터 예측을 위해 선정 된 이웃 파티션의 모션 백터는 참조 픽쳐 간의 시간적 거 리의 비율 (tb/td)을 기초로 스케일링 된 값으로 변환하여 이용할 수 있다. 또한, 선정된 이웃 파티션의 모션 백터 예측 방향이 현재 파티션의 모션 백터 예측 방향과 다를 경우에는, 도 8 에 도시된 바와 같이 상기 이웃 파티션의 모션 백터를 역방향으로 스케일링 변환하여 이용할 수 있다.
전술한 바와 같은 모션 백터 스케일링 방법은 현재 파티션의 모션 백터 예측의 정밀도를 높이기 위해 사용될 수 있다. 예를 들어 , 도 6 에 도시된 바와 같이 현재 파티션의 이웃 파티션 A, B, C 및 D 의 모션 백터 MV— a, MV— b: MV_c 및 MV一 d 를 이용하여 현재 파티션의 모션 백터 예측값 (MVp)을 하기와 같이 획득할 수 있다.
먼저 , 이웃 파티션 A, B, C, 및 D 의 참조 인덱스 refidx_a, refidx_b, refidx_c 및 refidx— d 중 어느 하나의 참조 인덱스가 현재 파티션의 참조 인덱스 refidx 와 같을 경우 (예를 들어 , 참조 인덱스 refidx— a 가 현재 파티션의 참조 인덱스 refidx 와 같다고 할 때), 현재 파티션의 모션 백터 예측값 (MVp)은 i ) "MV一 a", "MV_b 의 스케일링 된 값" 및 "MV_c 의 스케 일링 된 값"의 중앙값, ii ) "MV_a", "MV_b 의 스케일링 된 값", "MV_c 의 스케 일링 된 값" 및 "MV_d 의 스케일링 된 값"의 중앙값, iii) "MV— a" 및 "MV_b 의 스케일링 된 값"의 평균값 (여기서 , MV_b 는 이웃 파티션 B, C 및 D 중 현재 파티션의 참조 인덱스와 가장 가까운 참조 인덱스를 갖는 파티션 B 의 모션 백터 이다.) , iv) "MV— a" 중 어느 하나를 현재 파티션의 모션 백터 예측값 (MVp)으로 획득할 수 있다. ᅳ
다음으로, 이웃 파티션 A, B, C, 및 D 의 참조 인덱스 refidx_a, refidx_b, refidx一 c 및 refidx_d 중 두 개의 참조 인덱스가 현재 파티션의 참조 인덱스 refidx 와 같을 경우 (예를 들어 , 참조 인덱스 refidx— a 및 refidx— b 가 현재 파티션의 참조 인덱스 refidx 와 같다고 할 때), 현재 파티 션의 모션 백터 예측값 (MVp)은 i ) "MV_a", "MV_b 및 "MV_c 의 스케일링 된 값"의 중앙값, ii ) "MV_a", "MV_b", "MV— c 의 스케일링 된 값" 및 "MV— d 의 스케일링 된 값"의 중앙값, iii) "MV— a" 및 "MV_b"의 평균값, iv) "MV_a (혹은 MV_b)" 중 어느 하나를 현재 파티션의 모션 백터 예측값 (MVp)으로 획득할 수 있다.
다음으로, 이웃 파티션 A, B, C, 및 D 의 참조 인덱스 refidx— a, refidx_b, refidx_c 및 refidx_d 세 개의 참조 인덱스가 현재 파티션의 참조 인덱스 refidx 와 같을 경우 (예를 들어 , 참조 인덱스 refidx a, refidx— b 및 refidx c 가 현재 파티션의 참조 인덱스 refidx 와 같다고 할 때), 현재 파티션의 모션 백터 예측값 (MVp)은 i ) "MV— a", "MV_b" 및 "MV_c "의 중앙값, ii ) "MV_a", MMV_b", "MV— c" 및 "MV_d 의 스케일링 된 값"의 중앙값, iii) "MV— a", "MV_b" 및 "MV_c "의 평균값, iv) "MV_a (혹은 MV— b 또는 MV_c)" 중 어느 하나를 현재 파티션의 모션 백터 예측값 (MVp)으로 획득할 수 있다ᅳ
마지막으로, 이웃 파티션 A, B, C, 및 D 의 참조 인덱스 refidx— a, refidx_b, refidx— c 및 refidx_d 중 현재 파티션의 참조 인덱스 refidx 와 같은 참조 인텍스가 없는 경우, 현재 파티션의 모션 백터 예측값 (MVp)은 i ) "MV— a 의 스케일링 된 값 "MV_b 의 스케일링 된 값" 및 "MV_c 의 스케 일링 된 값"의 중앙값, ii ) "MV_a 의 스케일링 된 값", "MV_b 의 스케일링 된 값", "MV_c 의 스케일링 된 값" 및 "MV_d 의 스케일링 된 값"의 중앙값, iii) "MV_a 의 스케일링 된 값", "MV_b 의 스케일링 된 값" 및 "MV_d 의 스케일링 된 값''의 중앙값 중 어느 하나를 현재 파티션의 모션 백터 예측값 (MVp)으로 획득할 수 있다. 상기와 같이 이웃 파티션들의 모션 백터 (또는 스케일링 된 모션 백터)의 중앙값 또는 평균값을 이용하여 현재 파티션의 모션 백터 예측값 (MVp)을 구하는 방법은 본 발명을 설명하기 위한 예시로써 , 본 발명이 상기 실시 예에 한정되는 것은 아니다. 즉, 상기 실시 예와 같이 현재 파티션에 인접하는 4 개의 이웃 파티션 (좌측, 상단, 좌측 상단 및 우측 상단)을 사용할 수도 있지만, 3 개의 이웃 파티션 (좌측, 상단 및 우측 상단)을 사용하는 것도 물론 가능하다.
또한, 현재 파티션의 공간적 이웃 파티션들 뿐만 아니라 시간적 이웃 파티션들에 대하여도 전술한 모션 백터 스케일링 방법을 수행하여 현재 파티션의 모션 백터 예측에 사용할 수 있다. 여기서, 현재 파티션의 공간적 인 이웃 파티션이 란 현재 파티션과 같은 픽쳐 (또는 슬라이스) 내에서 현재 파티션의 좌측 또는 상단 등에 위 치하는 이웃 파티션을 가리 킨다. 또한, 현재 파티션의 시간적 인 이웃 파티션이란 현재 파티션의 co-located 파티션과 같이 현재 파티션과 다른 픽 쳐에서 현재 파티션의 대웅하는 위치에 존재하는 이웃 파티션을 가리킨다. 본 발명의 실시 예에 따르면, 상기 공간적 이웃 파티션 뿐만 아니라 시간적 이웃 파티션의 모션 백터를 이용하여 모션 백터 예측값을 구할 수 있으며 , 이에 대해서는 후술하도록 한다.
이와 같이 , 본 발명은 현재 파티션과 참조 인덱스 (또는 참조 픽 쳐)가 다른 이웃 파티션의 모션 백터를 사용하여 모션 백터 예측을 수행할 경우, 해당 모션 백터를 스케일링하여 사용함으로 모션 백터 예측의 정밀도를 높일 수 있다.
한편, 본 발명의 실시예에 따르면, 현재 파티션에서 구하고자 하는 모션 백터의 참조 픽쳐 리스트와 참조 인덱스 값이 모두 같은 이웃 파티션의 모션 백터뿐만 아니라, 참조 픽쳐 리스트가 다른 이웃 파티션의 모션 백터를 현재 파티션의 모션 백터 예측에 사용할 수 있다.
전술한 바와 같이, 쌍방향 예측을 수행하는 B 슬라이스에서는 참조 픽쳐 리스트 0(List 0)와 참조 픽쳐 리스트 l(List 1)의 최대 두 개의 참조 픽쳐 리스트를 갖는데, List 0를 참조하는 경우 L0 예측, List 1을 참조하는 경우 L1 예측이라 한다. 이때, 도 9 를 참조로 하면 상기 B 슬라이스에서는 참조 픽쳐 리스트가 다른데도 불구하고 동일한 참조 픽쳐를 가리키는 경우가 발생할 수 있다. 이러한 상황은 특히 과거의 픽쳐만올 참조하는 low-delay 환경에서 발생할 수 있다. 도 9에서 화면 n-1은 List 0의 0번째 참조 픽쳐이면서, List 1 의 1 번째 참조 픽쳐에 해당한다. 또한, 화면 n-2.는 List 0 의 1 번째 참조 픽쳐이면서, 동시에 Listl의 0번째 참조 픽쳐에 해당한다.
따라서, 본 발명은 상기와 같이 현재 파티션과 참조 픽쳐 리스트가 다른테도 불구하고 동일한 참조 픽쳐를 참조하는 이웃 파티션의 모션 백터를 현재 파티션의 모션 백터 예측에 사용할 수 있다. 이때, 서로 다른 참조 픽쳐 리스트에서 동일한 참조 픽 쳐를 참조하는 파티션인지 여부는 POC(Picture Order Count) 값을 기초로 하여 판단할 수 있다.
여기에서 , POC 란 영상 (픽 쳐)의 순서를 시간순으로 일련번호를 부여한 값을 의미한다. 따라서 , 현재 부호화 대상이 되는 픽 쳐의 POC 값보다 작은 POC 값을 가지는 참조 픽 쳐들은 시간적으로 과거의 픽 쳐를 의미하고, 현재 부호화 대상이 되는 픽 쳐의 POC 값보다 큰 POC 값을 가지는 참조 픽 쳐들은 시간적으로 미 래의 픽 쳐를 의미하는 것으로 해석할 수 있다.
첨부된 도 10 및 도 11 은 현재 파티션과 다른 참조 픽 쳐 리스트의 같은 참조 픽 쳐를 갖는 이웃 파티션의 예를 나타내고 있다. predFlagLO 및 predFlagLl 은 해당 파티션이 참조 픽 쳐 리스트 ListO 및 Listl 를 참조하는지 여부를 나타내는 리스트 플래그 값으로서, 그 값이 1 일 경우 해당 참조 픽 쳐 리스트를 참조하는 것 이고 0 일 경우 참조하지 않음을 의미한다. refldxLO 및 refldxLl 은 대웅하는 리스트 플래그 (predFlagLO 및 predFlagLl)의 값이 1 일 경우 해당 리스트 내에서의 참조 인덱스 값을 나타낸다. 상기 참조 인덱스 값은 대웅하는 리스트 플래그의 값이 0 일 경우, 즉 해당 참조 픽 쳐 리스트를 참조하지 않을 경우에는 -1 로 설정된다.
먼저, 도 10 을 참조하면, 현재 (Cur) 파티션은 predFlagLO 값이 1 로써 L0 예측을 하고 있으므로, predFlagLO 값이 동일하게 1 이고 (동일한 참조 픽 쳐 리스트를 갖고), refldxLO 의 값이 0 으로 동일한 (참조 인덱스 번호가 같은) 파티션 A 및 C 의 모션 백터를 이용하여 모션 백터 예측을 수행할 수 있다. 한편, 파티션 B 는 현재 파티션과 달리 predFlagLO 값이 0 이고 predFlagLl 값이 1 로써 L1 예측을 수행하고 있는데, Listl 의 참조 인덱스 (ref_idx) 값 1 에 해당하는 픽 쳐의 POC 값은 4 로써 , 현재 파티션이 참조하는 ListO 의 참조 인텍스 값 0 에 해당하는 픽 쳐의 POC 값 4 와 동일하다. 이는 파티션 B 가 현재 파티션과 실질적으로 동일한 참조 픽 쳐를 참조하고 있음을 의미하며 , 본 발명에서는 이와 같이 참조 픽 쳐 리스트가 다르더라도 동일한 참조 픽 쳐를 참조하는 (POC 값이 동일한) 파티션의 모션 백터를 현재 파티션의 모션 백터 예측에 함께 이용할 수 있다. 따라서 , 도 10 에서 현재 파티션의 모션 백터 예측값은 "파티션 A 의 L0 방향 모션 백터 , 파티션 B 의 L1 방향 모션 백터 및 파티션 C 의 L0 방향 모션 백터 "의 중앙값을 이용하여 획득할 수 있다.
다음으로, 도 11 을 참조하면, 현재 (Cur) 파티션은 predFlagLO 값이 1 로써 L0 예측을 하고 있으며 , 파티션 B 및 C 는 predFlagLO 및 predFlagLl 의 값이 모두 0 으로써 화면내 예측을 수행하고 있고, 파티션 A 는 predFlagLl 의 값이 1 로써 L1 예측을 수행하고 있음을 알 수 있다. 이때, 현재 파티션이 참조하는 ListO 의 참조 인덱스 (ref_idx) 값 0 에 해당하는 픽 쳐 의 POC 값 4 와, 파티션 B 가. 참조하는 Listl 의 참조 인덱스 값 1 에 해당하는 픽 쳐의 POC 값 4 는 동일한 값임을 알 수 있다. 이는 파티션 A 가 현재 파티션과 실질적으로 동일한 참조 픽 쳐를 참조하고 있음을 의미한다. 따라서, 본 발명에서는 파티션 A 의 LI 방향 모션 백터를 현재 파티션의 모션 백터 예측에 사용할 수 있다.
이와 같이 본 발명의 실시 예에 따르면, 이웃 파티션들 중 현재 파티션과 동일한 참조 픽 쳐 리스트의 동일한 참조 인덱스를 갖는 인터 모드 파티션 뿐만 아니라, 현재 파티션과 동일한 POC 값을 갖는 즉, 참조 픽 쳐 리스트가 다르더라도 참조 픽 쳐가 실질적으로 같은 인터 모드 파티션의 모션 백터를 선정하여 현재 파티션의 모션 백터 예측에 함께 이용할 수 있다.
한편, 현재 파티션의 모션 백터 예측을 위한 기술을 더욱 확장하여, 현재 파티션의 공간적 및 시간적 이웃 파티션들로부터 모션 백터 예측 후보군을 수집하고, 이를 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 AMVP(Advanced Motion Vector Prediction) 기술이 사용될 수 있다. 상기 모션 백터 예측 후보군에 포함된 여 러 개의 모션 백터 후보들 (motion vector candidates) 중에서 가장 적합한 모션 백터를 선택하여 모션 백터 예측값으로 사용하는 것을 모션 백터 경쟁 (motion vector competition)이라 한다. 즉, 도 12 를 참조로 하면, 본 발명에 따른 비디오 신호 처리 장치에서 디코더의 움직 임 추정부 (264)는 현재 파티션의 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 선정하는 이웃 파티션 모션 백터 선정부 (28 선정된 상기 이웃 파티션 모션 백터의 참조 픽 쳐가 현재 파티션의 참조 픽 쳐와 다를 경우, 상기 이웃 파티션 모션 백터를 스케일링하는 모션 백터 스케일링부 (284), 상기 스케일링 된 모션 백터를 포함하는 모션 백터 예측 후보군을 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 모션 백터 예측값 획득부 (286), 및 상기 모션 백터 예측값을 이용하여 현재 파티션의 모션 백터를 획득하는 모션 백터 획득부 (288)를 포함할 수 있다. 이때, 상기 이웃 파티션 모션 백터 선정부 (282)는 공간적 이웃 파티션 및 시 간적 이웃 파티션에서 모션 백터 후보들을 수집할 수 있다. 또한, 상기 모션 백터 획득부 (288)는 상기 모션 백터 예측값 획득부 (286)를 통해 획득한 모션 백터 예측값에 차분 모션 백터를 합산하여 모션 백터를 산출할 수 있다.
한편, 본 발명에 따른 비디오 신호 처 리 장치의 인코더의 움직 임 추정부 (164) 역시 이웃 파티션 모션 백터 선정부, 모션 백터 스케일링부, 모션 백터 예측값 획득부 및 모션 백터 획득부를 포함할 수 있으며, 각 구성의 구체적 인 기능은 전술한 바와 같다.
도 13 을 참조로 하면, 현재 파티션의 모션 백터 예측 후보군에는 현재 파티션의 좌측에 이웃하는 파티션들 (Ao, Al5 ··., AnA)의 집합인 좌측 그룹에서 선정된 모션 백터 a', 현재 파티션의 상단에 이웃하는 파티션들 (Bo, B ···, BnB)의 집합인 상단 그룹에서 선정된 모션 백터 b', 및 현재 파티션의 대각선에 인접하는 파티션들 (C, D, E)의 집합인 코너 그룹에서 선정된 모션 백터 c'가 포함될 수 있다. 또한, 상기 모션 백터 a', b' 및 c'의 중앙값 (median(a', b', c'))이 유도될 수 있으며, 상기 중앙값도 모션 백터 예측 후보군에 포함될 수 있다. 이 때, 상기 중앙값은 i ) 상기 모션 백터 a', b' 및 c'가 모두 유효 (available) 한 경우에는 상기 세 개의 모션 백터의 중앙값이, ii ) 상기 세 개의 모션 백터 중 두 개만 유효한 경우에는 유효하지 않은 모션 백터에 0 을 할당하고 이에 대한 중앙값이, iii) 상기 세 개의 모션 백터 중 한 개만 유효할 경우에는 유효한 모션 백터값을 그대로 결과값으로, iv) 상기 세 개의 모션 백터가 모두 유효하지 않을 경우에는 0 을 결과값으로 사용할 수 있다. 상기 a', b' 및 c' 각각의 모션 백터는 유효한 값을 선정할 수 없을 경우에는 모션 백터 예측 후보군에 포함되지 않는다.
한편, 상기 공간적 이웃 파티션 뿐만 아니라 시간적 이웃 파티션의 모션 백터도 모션 백터 예측 후보군에 포함될 수 있다. 이때, 시간적 이웃 파티션의 모션 백터는 모션 백터 예측 후보군에 적웅적으로 이용될 수도 있다. 즉, 시간적 이웃 파티션의 모션 백터가 모션 백터 경쟁에 이용되는지 여부를 특정하는 시간적 경쟁 정보 (temporal competition information)가 추가로 이용될 수 있다. 따라서 , 현재 예측 유닛의 모션 백터 예측값을 획득함에 있어서 모션 백터 경 쟁 (motion vector competition)이 이용되는 경우에도, 상기 시간적 경 쟁 정보에 기초하여 상기 시간적 이웃 파티션의 모션 백터가 모션 백터 예측 후보군으로 이용되는 것이 제한될 수 있다. 그리고, 시간적 경 쟁 정보는 모션 백터 경쟁이 이용되는 것을 전제로 하므로, 모션 경쟁 지시 정보가 모션 백터 경쟁이 이용됨을 지시하는 경우에 한해 상기 시간적 경쟁 정보가 획득되는 것으로 제한할 수도 있다.
한편, 도 13 에 도시된 현재 파티션의 공간적 이웃 파티션들의 집합인 각 그룹 (좌측 그룹, 상단 그룹, 코너 그룹)에서 모션 백터 예측 후보군에 포함되기 위한 모션 백터 (a', b', c')를 선정하기 위해서 다양한 방법이 사용될 수 있다.
먼저, 각 그룹 내의 파티션들에 대하여 일 측에서 타 측 방향으로 순차적으로, 현재 파티션과 동일한 참조 픽쳐 리스트 및 동일한 참조 인덱스를 갖는 인터 모드 파티션이 있는지를 탐색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 선정하여 모션 백터 예측 후보군에 포함시킬 수 있다. 또는, 참조 픽쳐 리스트 및 참조 인덱스 값에 관계없이, 각 그룹 내의 파티션들에 대하여 일 측에서 타 측 방향으로 순차적으로 인터 모드를 갖는 파티션이 있는지 탐색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 선정하여 모션 백터 예측 후보군에 포함시킬 수 있다. 이때, 각 그룹에서 선정된 모션 백터는 본 발명의 실시예에 따라 스케일링 된 값을 포함시킨다. 또 다른 실시예로는, 각 그룹에 대하여 참조 픽쳐 리스트 및 참조 인덱스를 통해 유효한 모션 백터를 찾을 수 없을 경우에 한정하여 인터 모드를 갖는 파티션의 모션 백터를 선정할 수 있다. 즉, i ) 먼저, 각 그룹 내의 파티션들에 대하여 일 측에서 타 측 방향으로 순차적으로 현재 파티션과 같은 참조 픽쳐 리스트의 같은 참조 인덱스를 갖는 인터 모드 파티션이 있는지를 탐색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 선정^여 모션 백터 예측 후보군에 포함시키고, 만약 유효한 모션 백터가 없을 경우에는 ii) 각 그룹 내의 파티션들에 대하여 일 측에서 타 측 방향으로 순차적으로 인터 모드를 갖는 파티션이 있는지 탐색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 선정하여 스케일링 된 값을 모션 백터 예측 후보군에 포함시킬 수 있다.
또는, 본 발명의 실시예에 따르면, 각 그룹에 대하여 모션 백터 예측 후보군에 수집되는 유효한 모션 백터를 선정하기 위하여 다음과 같은 모션 백터 예측 후보군 선정 조건을 설정할수 있다. 첨부된 도 16 을 참조로 하여 본 발명의 모션 백터 예측 후보군 선정 조건을 설명하면 다음과 같다.
i ) (조건 1) 현재 파티션과 같은 참조 픽쳐 리스트, 같은 참조 픽쳐를 갖는 인터 모드 파티션인가 (S102). 이때, 현재 파티션과 같은 참조 픽쳐 리스트의 같은 참조 인덱스를 갖는 인터 모드 파티션이 검색된다.
ii) 상기 조건 1 올 만족하지 못할 경우, (조건 2) 현재 파티션과 같은 참조 픽쳐를 갖는 인터 모드 파티션인가 (S104). 이때, 현재 파티션과 참조 픽쳐 리스트는 다르지만 같은 참조 픽쳐를 갖는 인터 모드 파티션이 검색된다. iii) 상기 조건 1 및 조건 2 를 만족하지 못할 경우, (조건 3) 현재 파티션과 같은 참조 픽쳐 리스트를 갖는 인터 모드 파티션인가 (S106). 이때, 현재 파티션과 참조 픽쳐는 다르지만 참조 픽쳐 리스트가 같은 인터 모드 파티션이 검색된다.
iv) 상기 조건 1 내지 조건 3을 만족하지 못할 경우, (조건 4) 인터 모드 파티션인가 (S 108). 이때, 상기 조건 1 내지 조건 3 을 만족하지 않는 인터 모드 파티션 즉, 현재 파티션과 참조 픽쳐 리스트 및 참조 픽쳐가 모두 다른 인터 모드 파티션이 검색된다.
본 발명에서는 현재 파티션의 모션 백터 예측을 위한 모션 백터 예측 후보군을 수집하기 위해, 상기 각 그룹 (좌측 그룹, 상단 그룹, 코너 그룹)의 파티션들을 정해진 순서에 따라 검색하여 조건 1 내지 조건 4 를 만족하는지 여부를 확인할 수 있다. 이때, 각 그룹에 대하여 상기 모션 백터 예측 후보군 선정 조건 및 파티션 위치 순서의 적절한 조합에 따라 다양한 순서로 검색이 가능하다. 이러한 검색 과정 중에 가장 먼저 조건을 만족하는 이웃 파티션의 모션 백터를 선정하여 모션 백터 예측 후보군에 포함시킬 수 있다.
한편, 상기 과정에서 조건 1 및 조건 2 를 만족하는 이웃 파티션의 모션 백터가 선정될 경우 (S110)에는 선정된 모션 백터가 현재 파티션의 모션 백터와 동일한 참조 픽쳐를 가지므로 이를 그대로 모션 백터 예측 후보군에 포함 (S120)시킬 수 있으며, 조건 3 및 조건 4 를 만족하는 이웃 파티션의 모션 백터가 선정될 경우 (S112)에는 스케일링 된 모션 백터를 산출 (SH4)하여 이를 모션 백터 예측 후보군에 포함 (S120)시킬 수 있다. 그러나 상기 조건 1 내지 조건 4를 모두 만족하지 못할 경우에는 유효한 이웃 파티션 모션 백터가 없게 된다 (S 130).
이하, 각 그룹에 속한 이웃 파티션들에 대하여 상기 모션 백터 예측 후보군 선정 조건 및 파티션 위치 순서의 조합에 따라 모션 백터 예측 후보군에 선정되기 위한 이웃 파티션의 모션 백터를 검색하는 순서의 예를 표 1 내지 표 4 를 참조하여 설명하도록 한다. 다만, 본 발명은 하기 실시예들에 한정되지 않으며 필요에 따라 다양한 순서로 변경하여 적용 가능하다.
하기 실시예들에서 '조건 우선 검색'이란 하나의 모션 백터 예측 후보군 선정 조건을 만족하는지 여부를 해당 그룹 내의 파티션들의 위치 순서에 따라 일 측에서 타 측으로 순차적으로 검색한 후 다음 조건에 대하여 동일한 작업을 반복하는 검색을 말하며, '파티션 위치 우선 검색'이란 하나의 이웃 파티션에 대하여 상기 모션 백터 예측 후보군 선정 조건 (4 가지 조건)을 각각 만족하는지 여부를 먼저 순차적으로 검색한 후 다음 위치 순서의 이웃 파티션으로 넘어가 동일한 작업을 반복하는 검색을 말한다.
즉, 다시 말해서 조건 우선 검색이란 해당 그룹 내의 각 파티션들에 대하여 모션 백터 예측 후보군 선정 조건을 파티션들의 위치 순서보다 우선 순위로 하는 검색을 의미하며, 파티션 위치 우선 검색이란 해당 그룹 내의 각 파티션들의 위치 순서를 모션 백터 예측 후보군 선정 조건보다 우선 순위로 하는 검 색을 의미한다. 이 때, 파티션 위치 순서 란 이웃하는 파티 션들 간에 일 측에서 타 측 방향으로 미리 정해진 순서를 의미 한다.
또한, 표 1 내지 표 4 에서 파티션 0, 파티션 1 및 파티션 2 는 동일 그룹 내의 파티션을 위치 순서 에 따라 배열한 것으로서 , 파티션 0 은 해당 그룹의 첫 번째 위치 순서를 갖는 파티션을, 파티션 2 는 해당 그룹의 마지 막 위치 순서를 갖는 파티션을 나타낸다. 물론, 실제 각 그룹에 포함되는 파티션의 수는 이와 다를 수 있다. 표 1 내지 표 4 에서 각 해당란의 숫자는 검 색 순서를 나타낸다.
【표 1】
Figure imgf000039_0001
먼저 , 상기 표 1 을 참조로 하면, 각 그룹 내의 파티션들에 대하여 조건 우선 검 색을 수행할 수 있다. 즉, 파티션 0 내지 파티션 2 에 대해서 조건 1 을 만족하는지 여부를 순차적으로 검 색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 파티션이 없을 경우에는 조건 2, 조건 3 및 조건 4 에 대하여 동일한 방법으로 검 색을 수행한다.
【표 2】
Figure imgf000040_0001
다음으로, 상기 표 2 를 참조로 하면, 각 그룹 내의 파티션들에 대하여 파티션 위치 우선 검 색을 수행할 수 있다. 즉, 파티션 0 에 대해서 조건 1 내지 조건 4 를 만족하는지 여부를 순차적으로 검 색하여 , 만족하는 조건이 있을 경우 파티션 0 의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 조건이 없을 경우에는 파티션 1 내지 파티션 2 에 대하여 동일한 방법으로 검 색을 수행한다.
【표 3] 파티션 0 파티션 1 파티션 2 조건 1 1 2 3 조건 2 4 7 10 조건 3 5 8 11 조건 4 6 9 12
다음으로, 상기 표 3 을 참조로 하면, 각 그룹 내의 파티션들에 대하여 조건 우선 검색과 파티션 위치 우선 검색을 조합한 검색을 수행할 수 있다. 즉, 먼저 조건 1에 대한조건 우선 검색을 수행하여, 파티션 위치 순서에 따라 파티션 0 내지 파티션 2 에 대해서 조건 1 을 만족하는지 여부를 순차적으로 검색하고, 이를 처음으로 만족하는 파티션의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정한다.
만약 이를 만족하는 파티션이 없을 경우에는 나머지 조건들에 대하여 파티션 위치 우선 검색을 수행한다. 즉, 파티션 0에 대해서 조건 2 내지 조건 4 를 만족하는지 여부를 순차적으로 검색하여, 만족하는 조건이 있을 경우 파티션 0 의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 조건이 없을 경우에는 파티션 1 에 대한 검색을 동일한 방법으로 수행한다. 따라서, 표 3 에 도시된 예는 조건 1 을 최우선적인 검색 요건으로 하되, 만족하는 파티션이 없을 경우 나머지 조건들에 대하여 파티션 위치 우선 검색을 수행하게 된다. 【표 4】
Figure imgf000042_0001
다음으로, 상기 표 4 를 참조로 하면, 각 그룹 내의 파티션들에 대하여 조건 우선 검색과 파티션 위치 우선 검색을 조합한 또 다른 검색을 수행할 수 있다. 즉, 먼저 파티션 0 에 대한 파티션 위치 우선 검색을 수행하여, 조건 1 내지 조건 4 를 만족하는지 여부를 순차적으로 검색하고, 만족하는 조건이 있을 경우 파티션 0 의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정한다. - 만약 만족하는 조건이 없을 경우에는 나머지 파티션들에 대하여 조건 우선 검색을 수행한다. 즉, 파티션 1 내지 파티션 2 에 대해서 조건 1 을 만족하는지 여부를 순차적으로 검색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 파티션이 없는 경우에는 조건 2 에 대한 검색을 동일한 방법으로 수행한다. 따라서, 표 4 에 도시된 예는 파티션 0 을 최우선적인 검색 요건으로 하되, 만족하는 조건이 없을 경우 나머지 파티션들에 대하여 조건 우선 검 색을 수행하게 된다.
본 발명에서 제안하는 상기 방법들에 의해 선정된 모션 백터 a', b' 및 c'는 i ) 모션 백터 a', b' 및 c'의 중앙값 (median(a', b', c'))에 영향을 주게 되고, ii ) 모션 백터 예측 후보군에 포함되는 모션 백터의 개수 증가에도 영향을 주게 된다. 즉, 원래는 유효하지 않아 모션 백터 예측 후보군에 추가되지 않았던 이웃 파티 션ᅳ 모션 백터가 본 발명의 모션 백터 스케 일링 기술의 적용에 의해 유효하게 되어 모션 백터 예측 후보군에 추가될 수 있다.
한편, 본 발명 에서 상기 두 가지 요소는 각각 독립적 인 것으로, 각자에 대하여 개별적으로 모션 백터 스케일링 기술의 적용 여부를 결정할 수 있다. 예를 들어, 모션 백터 스케일링을 모션 백터의 중앙값의 결과값에만 적용할 경우, 전체 모션 백터 후보의 개수는 그대로 유지되면서 상기 중앙값의 결과값만 변경된다. 또한, 모션 백터 후보의 개수 증가에 적용할 경우, 상기 중앙값의 결과값은 기존의 AMVP 에서의 값과 동일하지만, 전체 모션 백터 후보의 개수는 증가될 수 있다. 물론 상기 두 가지 요소 모두에 모션 백터 스케일링을 적용하는 것도 가능하다.
본 발명의 실시 예에 따르면, 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터의 선정 범위를 단순화하여, 도 14 에 도시된 바와 같이 선정할 수 있다. 즉, 현재 파티션의 좌측 하단에 인접하는 파티션 (Am+1)과 좌측에 인접하는 파티션들 중 최 하단에 위치 한 파티션 (Am)으로 제 1 그룹을 형성하고, 현재 파티 션의 우측 상단에 인접하는 파티션 (Bn+1), 상단에 인접하는 파티션들 중 최 우측에 위치한 파티션 (Bn) 및 좌측 상단에 인접하는 파티션 (B- 으로 제 2 그룹을 형성할 수 있다. 이 때, 현재 파티션의 모션 백터 예측 후보군은 상기 제 1 그룹에서 선정된 모션 백터 a', 상기 제 2 그룹에서 선정된 모션 백터 b'를 포함할 수 있다. 또한, 상기 공간적 이웃 파티션 뿐만 아니라 시간적 이웃 파티션의 모션 백터도 모션 백터 예측 후보군에 포함될 수 있음은 전술한 바와 같다. 이와 같이 모션 백터 예측 후보군에 선정될 공간적 이웃 파티션의 수를 줄임으로, 이웃 파티션 모션 백터 선정을 위 한 · 연산 시간을 줄이고 복잡도를 향상시킬 수 있다.
이하, 상기 단순화된 모션 백터 후보들을 포함하는 제 1 그룹 및 제 2 그룹에서 모션 백터 예측 후보군 선정 조건 및 파티션 위치 순서의 조합에 따라 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 검 색하는 순서를 설명하도록 한다. 하기 실시 예에서 '모션 백터 예측 후보군 선정 조건' 및 '파티션 위 치 순서 '의 정의는 상기 표 1 내지 표 4 의 실시 예와 동일하며, 본 발명 이 하기 실시 예들에 한정되지 않고 필요에 따라 다양한 순서로 변경하여 적용 가능함은 물론이다. 또한, 하기 실시 예를 통해 선정되는 파티션에 대하여 조건 1 또는 조건 2 를 만족하는 경우에는 해당 파티션의 모션 백터를 그대로 이용하고, 조건 3 또는 조건 4 를 만족하는 경우에는 해당 파티션의 스케일링 된 모션 백터를 이용함은 전술한 바와 같다.
【표 5】
【표 6】
Figure imgf000045_0002
【표 7】
Figure imgf000045_0001
조건 1 1 5 9 조건 2 2 6 10 조건 3 3 7 11 조건 4 4 8 12 먼저, 상기 표 5 내지 7 을 참조로 하면, 각 그룹 내의 파티션들에 대하여 파티션 위치 우선 검색을 수행할 수 있다. 즉, 표 5 와 같이 제 1 그룹의 파티션 Am 에 대해서 조건 1 내지 조건 4 를 만족하는지 여부를 순차적으로 검색하여, 만족하는 조건이 있을 경우 파티션 Am의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 조건이 없을 경우에는 파티션 대하여 동일한 방법으로 검색을 수행할 수 있다. 한편, 본 발명에서는 표 6 과 같이 검색하는 파티션의 순서를 바꾸어 파티션 Am+i 에 대한 검색을 수행한 후, 만족하는 조건이 없을 경우 파티션 Am에 대한 검색을 수행할 수 있다. 또한, 이러한 파티션 위치 우선 검색은 표 7 과 같이 제 2 그룹의 파티션들에 대해서도 동일한 방법으로 수행될 수 있다.
【표 8】
Figure imgf000046_0001
조건 1 1 2 조건 2 3 4 조건 3 5 6 조건 4 7 8
【표 9】
Figure imgf000047_0001
다음으로, 상기 표 8 및 9 를 참조로 하면, 각 그룹 내의 파티션들에 대하여 조건 우선 검 색을 수행할 수 있다. 즉, 제 1 그룹 및 제 2 그룹의 파티션들 각각에 대해서 조건 1 을 만족하는지 여부를 순차적으로 검 색하여, 이를 처음으로 만족하는 파티션의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 파티션이 없을 경우에는 조건 2, 조건 3 및 조건 4 에 대하여 동일한 방법으로 검 색을 수행할 수 있다.
【표 10】 Am m+1 조건 1 1 2 조건 2 3 6 조건 3 4 7 조건 4 5 8
【표 11】
Am Am+1 조건 1 2 1 조건 2 6 3 조건 3 7 4 조건 4 8 5
【표 12】
Figure imgf000048_0001
조건 3 5 8 11 조건 4 6 9 12 다음으로, 상기 표 10 내지 12를 참조로 하면, 각 그룹 내의 파티션들에 대하여 조건 우선 검색과 파티션 위치 우선 검색을 조합한 검색을 수행할 수 있다. 즉, 먼저 조건 1 에 대한 조건 우선 검색을 수행하여, 조건 1 을 만족하는지 여부를 파티션 위치 순서에 따라 순차적으로 검색하고, 이를 처음으로 만족하는 파티션의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정한다.
만약 만족하는 파티션이 없을 경우에는 나머지 조건들에 대하여 파티션 위치 우선 검색을 수행한다. 즉, 표 10 과 같이 제 1 그룹의 파티션 Am에 대해서 조건 2 내지 조건 4 를 만족하는지 여부를 순차적으로 검색하여, 만족하는 조건이 있을 경우 파티션 Am 의 모션 백터를 모션 백터 예측 후보군에 포함될 모션 백터로 선정하고, 만족하는 조건이 없을 경우에는 파티션 Am+1 에 대한 검색을 동일한 방법으로 수행할 수 있다. 파티션 위치 우선 검색을 위한 검색 대상 파티션은 표 11 과 같이 그 순서가 바뀔 수도 있으며, 제 2 그룹에 대해서도 표 12와 같이 동일한 방법으로 수행될 수 있다. 따라서, 표 10 내지 12 에 도시된 예에 따르면 조건 1 을 최우선적인 검색 요건으로 하되, 만족하는 파티션이 없을 경우 나머지 조건들에 대하여 파티션 위치 우선 검색을 수행하게 된다.
【표 13】
【표
Figure imgf000050_0001
【표 15】
Figure imgf000051_0001
【표 16]
Figure imgf000051_0002
다음으로, 상기 표 13 내지 16을 참조로 하면, 각 그룹 내의 파티션들에 대하여 조건 1과 조건 2에 대한 검색을 우선적으로 수행하고, 상기 조건 1 및 조건 2 에 대한 검색을 통해 유효한 모션 백터를 선정할 수 없을 경우 조건 3 및 조건 4 에 대한 검색을 수행할 수 있다. 이때, 조건 1 및 조건 2 에 대한 우선적인 검색은 조건 우선 검색 또는 파티션 위치 우선 검색을 선택하여 자유롭게 사용할 수 있으며, 조건 3 및 조건 4 에 대한 검색도 이와 같다. 본 발명에서 조건 1 과 조건 2 를 만족하는 이웃 파티션은 현재 파티션과 동일한 참조 픽쳐를 참조하므로 모션 백터 스케일링을 수행할 필요가 없으며, 이와 같이 모션 백터 스케일링이 불필요한 이웃 파티션 모션 백터를 우선적으로 검색함으로 모션 백터 스케일링 작업의 빈도를 줄이고 복잡도 감소의 효과를 얻을 수 있다.
더 나아가, 본 발명에서는 검색해야할 경우의 수를 줄여서 복잡도의 이득을 얻기 위해 일부 검색을 생략할 수 있다. 예를 들어, 제 1 그룹에 대한 검색에서 1 내지 5 째까지의 검색만 수행하고 6, 7, 8 번째 검색은 생략하는 방법이 가능하다. 또한, 제 2 그룹에 대한 검색에서도 표 7의 경우 6, 7, 8, 10, 11, 12 번째 검색을 생략하고, 표 9 의 경우 5, 6, 8, 9, 11, 12 번째 검색을 생략하는 방법이 가능하다. 즉, 각 그룹 내에서 하나의 모션 백터 예측 후보군 선정 조건에 대한 조건 우선 검색과 하나의 파티션에 대한 위치 우선 검색을 조합하여 검색을 수행할 수 있다.
한편, 화면간 예측과 관련된 전송 정보를 줄이기 위하여 이하에서 설명하는 병합 (Merge), 스¾(8^1)) 또는 직접 (Direct) 예측 모드 등의 모드를 이용할 수도 있다.
도 15 를 참조하면, 병합 모드에서 하나의 파티션은 수직, 수평 또는 대각선의 인접한 다른 파티션 (A, B, C, D)과 병합될 수 있다. 여기에서 병합이 란, 현재 파티션의 화면간 예측에 있어서 예측 정보를 인접 한 이웃 파티션의 화면간 예측 정보로부터 얻어오는 것을 의미 한다. 파티션의 병합은 해당 파티션이 병합이 되 었는지 여부를 나타내는 정보 (예를 들면, merge— flag), 어느 파티션 (예를 들면, 좌측 이웃 중 최상단 파티션 A, 상단 이웃 중 최 좌측 파티션 B, 우측 상단 이웃 파티션 C 또는 좌측 하단 이웃 파티션 D)과의 병합이 가능한지를 나타내는 정보 등을 이용하여 표현할 수 있다. 어느 파티션과의 병합인지를 나타내는 정보는 현재 파티션이 병합되 었음을 지시하는 경우 (merge_flag=l)에만 획득될 수 있다.
병합 모드에서는 상기 기술한 바와 같이 4 개 혹은 그보다 적은 개수의 공간적 이웃 파티션의 모션 정보와 1 개의 시간적 이웃 파티션의 모션 정보 중 어떤 파티션과 병합할지를 나타내는 정보를 이용하여 현재 파티션의 모션 정보를 획득할 수 있다.
한편, 스킵 모드는 현재 파티션을 복원함에 있어서 , 이 전에 코딩 된 파티션의 모션정보를 현재 파티션에 대한 모션 정보로 이용하는 방식을 의미한다. 따라서 스킵 모드일 경우에 스킵될 파티션을 나타내는 정보 외의 다른 정보 (예를 들어, 모션 정보, 레지듀얼 정보 등)들은 전송되지 않는다. 이 경우 예측에 필요한 모션 정보들은 이웃의 모션 백터들로부터 유도될 수 있다. 스킵 모드를 사용하면 이 전에 코딩 된 참조 픽 쳐내 참조 영 역의 픽 셀값을 그대로 이용할 수 있다. 상기 참조 영 역의 픽 셀값은 모션 백터 예측값을 이용한 모션 보상 (motion compensation)이 수반된 것일 수 있다. 다만, 상기 모션 백터 예측값을 획득함에 있어서, 모션 백터 경쟁 (motion vector competition)이 이용되는 경우에는 예외적으로 현재 파티션이 모션 백터 정보를 가질 수도 있다.
현재 파티션이 스킵 모드로 코딩되지 않는 경우, 현재 파티션은 직접 예측 모드로 코딩될 수 있다. 직접 예측 모드는 디코딩이 완료된 파티션의 모션 정보로부터 현재 파티션의 모션 정보를 예측하는 모드를 나타낸다. 다만 : 여기서 현재 파티션은 레지듀얼를 가진다는 점에서 스킵 모드와 상이하다. 본 발명의 실시예에 따르면, 병합 모드에서 사용되는 이웃 파티션의 모션 정보 획득 방법을 스킵 모드와 일반적인 인터 모드에도 적용하여, 모든 모드에서 모션 정보를 예측하는 방법을 단일화 (unification)할 수 있다. 즉, 스킵 모드와 일반적인 인터 모드에서 유효한 모션 정보를 얻기 위해 정해진 순서에 따라 검색을 수행하지 않고, 공간적 이웃 파티션의 모션 정보를 병합 모드에서와 마찬가지로 이용하는 것이다. 다만, 병합 모드에서와 달리, 스킵 모드와 일반적인 인터 모드에서는 현재 파티션의 참조 인덱스나 예측 방향 등을 미리 알고 있으므로, 이웃 파티션의 참조 픽쳐가 현재 파티션의 참조 픽쳐와 동일할 때에는 해당 이웃 파티션의 모션 백터를 유효한 모션 백터로서 그대로 모션 백터 예측 후보군으로 사용할 수 있고, 참조 픽쳐가 상이할 경우에는 유효하지 않은 모션 백터로 처리하여 모션 백터 예측 후보군에서 제외할 수 있다. 또는, 참조 픽 쳐가 상이할 경우 본 발명에서 제안하는 모션 백터 스케 일링 방법을 이용하여 현재 파티션의 해당 정보에 부합하는 모션 백터를 산출하여 모션 백터 예측 후보군으로 사용할 수도 있다.
움직 임 보상 (motion compensation)을 수행할 때, 정확도를 높이기 위하여 정수 화소 이하의 화소 정밀도를 이용할 수 있다. 이 경우 정수 화소 이하의 화소값은 참조 픽 쳐의 화소값들의 보간 (interpolation)을 이용하여 생성 한다. 예측에 있어서 , 상기에서 설명 한 화면내 예측 모드, 직 접 예측 모드, 화면간 예측 모드, 스킵 모드 중 어떠 한 모드를 사용하는지는 예측 모드 정보를 통해 나타내거나, 해당 모드를 이용하였는지 여부를 나타내는 플래그를 사용하여 나타낼 수 있다. 특정 한 경우에는 여 러 가지 다른 정보들을 이용하여 해당 모드를 유도할 수도 있다.
모션 백터 전송 정보를 줄이기 위하여 , 모션 백터를 압축하여 전송할 수 있다. 예를 들어 저장할 모션 백터 간에 중앙값 필터 (median filter)를 사용하여 압축한 값을 구할 수 있다. 이를 위하여 모션 백터 압축을 사용하였는지 , 압축비가 어떻게 되는지에 대한 정보를 추가로 전송할 수 있다. 또는, 연산 복잡도를 줄이기 위하여 단순히 제일 첫 번째, 왼쪽 위에 위치 한 모션 백터를 저장하여 기준값으로 사용하고 이후 백터들에 대하여는 차분값만을 전송할 수도 있다. 한편, 영상에 대한 변환 (예를 들어 DCT)은 예측 유닛과는 별도의 단위로 이루어진다. 이하에서는 이러한 기본 단위를 변환 유닛 (Transform unit)이라고 한다. 이산 변환 등을 위하여 변환 유닛은 정방형의 형태를 가지는 것이 보통이며, 코당 유닛과 유사하게 재귀적으로 분할될 수 있다. 변환 유닛의 크기는 영상의 특징에 따라 가장 효율적 '인 크기로 정해지며, 예측 유닛보다 크거나 작을 수 있다. 다만, 일반적으로 '하나의 예측 유닛은 복수개의 변환 유닛을 포함할 수 있다.
변환 유닛의 구조 및 크기도 상기에서 코딩 유닛에 대하여 설명한 바와 유사하게 나타낼 수 있다. 예를 들어, 하나의 변환 유닛은 네 개의 변환 유닛으로 재귀적으로 분할될 수 있고, 이러한 변환 유닛 구조는 일종의 쿼드 트리 형태로 나타낼 수 있다. 또한, 변환 유닛의 구조와 관련된 정보들은 기 설정된 변환 유닛 트리의 최대 높이 (혹은 분할 깊이) 정보, 변환 유닛의 최대 크기 정보, 변환 유닛의 최소 크기 정보, 변환 유닛의 최대 크기 및 최소 크기 간의 차이 정보, 및 /또는 이와 같은 값들에 대한 로그값 등과 이들을 이용하여 유도된 변환 유닛의 깊이, 변환 유닛의 크기 등으로 나타낼 수 있다. 한편, 변환 유닛의 최대 분할 깊이는 해당 유닛의 예측 모드에 따라서 달라질 수 있다. 또한, 코딩 유닛의 크기가변환 유닛의 크기에 영향을 미칠 수 있다. 변환 유닛에 대하여도 현재 변환 유닛이 다시 분할되었는지에 대한 정보를 획득할 수 있다. 예를 들어, 이러한 정보가 해당 변환 유닛이 분할되었음을 지시하는 경우, 해당 변환 유닛은 다시 네 개의 분할된 변환 유닛으로 재귀적으로 분할될 수 있다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및 /또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
본 발명이 적용되는 디코딩 /인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브 (예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유 /무선 통신망을 이용해 전송될 수 있다.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어 , 하드웨어, 펌 웨어 (firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어 적 인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays, 프로세서 (processors), 제어기 (controllers), 마이크로 컨트를러 (microcontrollers), 마이크로 프로세서 (microprocessors), 기타 기능 수행을 위 한 전기 적 인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부 자체로 구현될 수 있다.
소프트웨어 적 인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모들들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적 절한 프로그램 언어로 쓰여진 소프트웨어 어플리 케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리에 저장되고, 제어부에 의해 실행될 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되 었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명 이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
【산업상 이용가능성】
본 발명은 비디오 신호를 인코딩하고 디코딩하는 데 적용될 수 있다.

Claims

【청구의 범위】
【청구항 1】
현재 파티션의 모션 백터 예측을 위한 적어도 하나의 이웃 파티션 모션 백터를 선정하는 단계; 선정된 상기 이웃 파티션 모션 백터의 참조 픽쳐가 현재 파티션의 참조 픽쳐와 다를 경우, 상기 이웃 파티션 모션 백터를 스케일링하는 단계; 상기 스케일링 된 모션 백터를 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 단계; 및 상기 모션 백터 예측값을 이용하여 현재 파티션의 모션 백터를 획득하는 단계; 를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 2】
제 1항에 있어서, 상기 스케일링 된 모션 백터는, 픽쳐간 시간 거리를 이용하여 선형 보간한 모션 백터인 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 3】
현재 파티션의 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 선정하는 단계; 선정된 상기 이웃 파티션 모션 백터의 참조 픽쳐가 현재 파티션의.참조 픽쳐와 다를 경우, 상기 이웃 파티션 모션 백터를 스케일링하는 단계; 상기 스케일링 된 모션 백터를 포함하는 모션 백터 예측 후보군을 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 단계; 및 상기 모션 백터 예측값을 이용하여 현재 파티션의 모션 백터를 획득하는 단계 ; 를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법ᅳ
【청구항 4】
제 3항에 있어서, 상기 스케일링 된 모션 백터는, 픽쳐간 시간 거리를 이용하여 선형 보간한 모션 백터인 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 5】
제 3항에 있어서, 상기 모션 백터 예측 후보군은, 현재 파티션의 좌측 하단에 인접하는 파티션 (Am+1)과 좌측에 인접하는 파티션들 중 최 하단에 위치한 파티션 (Am)으로 이루어진 제 1 그룹과, 현재 파티션의 우측 상단에 인접하는 파티션 (Bn+1), 상단에 인접하는 파티션들 중 최고 우측에 위치한 파티션 (Bn) 및 좌측 상단에 인접하는 파티션 으로 이루어진 제 2 그룹에서 각각 선정되는 모션 백터를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 6】
제 5항에 있어서, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 참조 픽쳐 리스트, 참조 픽쳐 및 인터 모드 해당 여부 정보를 포함하는 모션 백터 예측 후보군 선정 조건을 기초로 하여, 상기 제 1 그룹과 제 2 그룹에서 각각 선정하는 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 7】
제 6항에 있어서, 상기 모션 백터 예측 후보군 선정 조건은,
(a) 현재 파티션과 같은 참조 픽쳐 리스트, 같은 참조 픽쳐를 갖는 인터 모드 파티션인지,
(b) 현재 파티션과 다른 참조 픽쳐 리스트, 같은 참조 픽쳐를 갖는 인터 모드 파티션인지,
(c) 현재 파티션과 같은 참조 픽쳐 리스트, 다른 참조 픽쳐를 갖는 인터 모드 파티션인지 및, (d) 인터 모드를 갖는 파티션인지의 여부를 순차적으로 판단하는 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 8】
제 7항에 있어서, 상기 현재 파티션과 다른 참조 픽쳐 리스트, 같은 참조 픽쳐를 갖는 인터 모드 파티션인지 여부는, POC(Picture Order Count) 값을 기초로 판단하는 것올 특징으로 하는 비디오 신호 처리 방법.
【청구항 9】
거 I 7항에 있어서, 상기 이웃 파티션 모션 백터를 선정하는 단계는, ' 상기 제 1 그룹 또는 제 2 그룹의 각 파티션들에 대하여 상기 모션 백터 예측 후보군 선정 조건을 파티션들의 위치 순서보다 우선 순위로 검색하는 조건 우선 검색을 수행하는 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 10】
제 7항에 있어서, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 상기 제 1 그룹 또는 제 2 그룹의 각 파티션들에 대하여 파티션들의 위치 순서를 상기 모션 백터 예측 후보군 선정 조건보다 우선 순위로 검색하는 파티션 위치 우선 검색을 수행하는 것을 특징으로 하는 비디오 신호 처리 방법.
【청구항 11】
제 7항에 있어서, 상기 이웃 파티션 모션 백터를 선정하는 단계는, 상기 제 1 그룹 또는 제 2 그룹의 각 파티션들에 대하여 상기 모션 백터 예측 후보군 선정 조건 (a)에 대한 조건 우선 검색을 수행하는 단계; 및 상기 조건 우선 검색을 통해 유효한 이웃 파티션 모션 백터를 검색하지 못할 경우, 상기 모션 백터 후보군 선정 조건 (b) 내지 (d)에 대하여 파티션 위치 우선 검색을 수행하는 단계; 를 포함하는 것을 특징으로 하는 비디오 신호 처리 장치. 【청구항 12】
현재 파티션의 모션 백터 예측 후보군에 포함될 이웃 파티션 모션 백터를 선정하는 이웃 파티션 모션 백터 선정부; 선정된 상기 이웃 파티션 모션 백터의 참조 픽쳐가 현재 파티션의 참조 픽쳐와 다를 경우, 상기 이웃 파티션 모션 백터를 스케일링하는 모션 백터 스케일링부; 상기 스케일링 된 모션 백터를 포함하는 모션 백터 예측 후보군을 이용하여 현재 파티션의 모션 백터 예측값을 획득하는 모션 백터 예측값 획득부; 및
상기 모션 백터 예측값을 이용하여 현재 파티션의 모션 백터를 획득하는 모션 백터 획득부;
를 포함하는 것을 특징으로 하는 비디오 신호 처리 장치.
PCT/KR2011/002497 2010-04-09 2011-04-08 비디오 신호 처리 방법 및 장치 WO2011126345A2 (ko)

Priority Applications (18)

Application Number Priority Date Filing Date Title
ES11766196T ES2904348T3 (es) 2010-04-09 2011-04-08 Método y aparato para procesar una señal de video
EP21210463.2A EP3982634B1 (en) 2010-04-09 2011-04-08 Motion vector prediction in video coding
PL11766196T PL2557796T3 (pl) 2010-04-09 2011-04-08 Sposób i urządzenie do przetwarzania sygnału wideo
EP11766196.7A EP2557796B1 (en) 2010-04-09 2011-04-08 Method and apparatus for processing video signal
SI201132032T SI2557796T1 (sl) 2010-04-09 2011-04-08 Postopek in naprava za obdelavo video signala
US13/639,408 US8976865B2 (en) 2010-04-09 2011-04-08 Method and apparatus for processing video signal
CN201180018198.0A CN102835113B (zh) 2010-04-09 2011-04-08 处理视频信号的方法和设备
EP23181365.0A EP4236324A3 (en) 2010-04-09 2011-04-08 Motion vector prediction in video coding
US14/564,825 US9264734B2 (en) 2010-04-09 2014-12-09 Method and apparatus for processing video signal
US14/987,280 US9407929B2 (en) 2010-04-09 2016-01-04 Method and apparatus for processing video signal
US14/988,323 US9402085B2 (en) 2010-04-09 2016-01-05 Method and apparatus for processing video signal
US15/136,517 US9699473B2 (en) 2010-04-09 2016-04-22 Method and apparatus for processing video signal
US15/280,755 US9800892B2 (en) 2010-04-09 2016-09-29 Method and apparatus for processing video signal
US15/685,662 US10038914B2 (en) 2010-04-09 2017-08-24 Method and apparatus for processing video signal
US15/988,512 US10404997B2 (en) 2010-04-09 2018-05-24 Method and apparatus for processing video signal
US16/513,198 US10743021B2 (en) 2010-04-09 2019-07-16 Method and apparatus for processing video signal
US16/922,830 US11277634B2 (en) 2010-04-09 2020-07-07 Method and apparatus for processing video signal
US17/587,850 US12022111B2 (en) 2010-04-09 2022-01-28 Method and apparatus for processing video signal

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US32230110P 2010-04-09 2010-04-09
US61/322,301 2010-04-09
US37328610P 2010-08-13 2010-08-13
US61/373,286 2010-08-13
US201061424681P 2010-12-20 2010-12-20
US61/424,681 2010-12-20
US201161432202P 2011-01-13 2011-01-13
US61/432,202 2011-01-13
US201161454995P 2011-03-21 2011-03-21
US61/454,995 2011-03-21
US201161466446P 2011-03-22 2011-03-22
US61/466,446 2011-03-22
KR10-2011-0032376 2011-04-07
KR1020110032376A KR101752418B1 (ko) 2010-04-09 2011-04-07 비디오 신호 처리 방법 및 장치

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US13/639,408 A-371-Of-International US8976865B2 (en) 2010-04-09 2011-04-08 Method and apparatus for processing video signal
US201213639408A A-371-Of-International 2010-04-09 2012-10-04
US14/564,825 Continuation US9264734B2 (en) 2010-04-09 2014-12-09 Method and apparatus for processing video signal

Publications (2)

Publication Number Publication Date
WO2011126345A2 true WO2011126345A2 (ko) 2011-10-13
WO2011126345A3 WO2011126345A3 (ko) 2012-01-26

Family

ID=45028893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/002497 WO2011126345A2 (ko) 2010-04-09 2011-04-08 비디오 신호 처리 방법 및 장치

Country Status (11)

Country Link
US (11) US8976865B2 (ko)
EP (3) EP3982634B1 (ko)
KR (8) KR101752418B1 (ko)
CN (5) CN105847836B (ko)
ES (2) ES2954563T3 (ko)
FI (1) FI3982634T3 (ko)
HR (1) HRP20230945T1 (ko)
HU (2) HUE063019T2 (ko)
PL (2) PL3982634T3 (ko)
SI (2) SI3982634T1 (ko)
WO (1) WO2011126345A2 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067932A1 (en) 2011-11-07 2013-05-16 Mediatek Inc. Method and apparatus for mv scaling with increased effective scaling ratio
WO2013109975A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Temporal motion vector predictor candidate
EP2717574A1 (en) * 2011-05-31 2014-04-09 JVC KENWOOD Corporation Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
CN104137549A (zh) * 2012-01-18 2014-11-05 韩国电子通信研究院 对图像进行编码和解码的方法及设备
CN104854866A (zh) * 2012-11-13 2015-08-19 英特尔公司 下一代视频的内容自适应、特性补偿预测
TWI608725B (zh) * 2011-11-07 2017-12-11 英孚布瑞智有限私人貿易公司 高級運動向量預測模式中所用的圖像編碼設備
CN108184125A (zh) * 2011-11-10 2018-06-19 索尼公司 图像处理设备和方法

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SI3962081T1 (sl) * 2010-05-25 2024-05-31 Lg Electronics Inc. Nov planarni način napovedovanja
US8855205B2 (en) * 2010-05-26 2014-10-07 Newratek Inc. Method of predicting motion vectors in video codec in which multiple references are allowed, and motion vector encoding/decoding apparatus using the same
CN107454421B (zh) 2010-12-13 2020-12-29 韩国电子通信研究院 基于帧间预测对视频信号进行解码的方法
KR20120095814A (ko) * 2011-02-21 2012-08-29 한밭대학교 산학협력단 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
KR101532665B1 (ko) * 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
EP3136727B1 (en) 2011-04-12 2018-06-13 Sun Patent Trust Motion-video coding method and motion-video coding apparatus
WO2012164880A1 (ja) * 2011-05-27 2012-12-06 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
PL2717579T3 (pl) 2011-05-31 2020-07-27 Sun Patent Trust Sposób dekodowania obrazu i urządzenie do dekodowania obrazu
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
PL3481066T3 (pl) * 2011-06-28 2021-11-22 Lg Electronics Inc. Sposób wyprowadzania predyktora wektora ruchu
MY181718A (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
EP2727357A1 (en) * 2011-07-01 2014-05-07 Motorola Mobility LLC Motion vector prediction design simplification
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US9456214B2 (en) 2011-08-03 2016-09-27 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
CN103765886B (zh) * 2011-08-29 2017-06-13 苗太平洋控股有限公司 以amvp模式产生预测区块的方法
KR20130030181A (ko) 2011-09-16 2013-03-26 한국전자통신연구원 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
ES2780186T3 (es) 2011-10-28 2020-08-24 Sun Patent Trust Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, y dispositivo de decodificación de imágenes
MX2013012224A (es) 2011-10-28 2013-11-01 Panasonic Corp Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de decodificacion de imagenes.
WO2013067440A1 (en) 2011-11-04 2013-05-10 General Instrument Corporation Motion vector scaling for non-uniform motion vector grid
US9485503B2 (en) * 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
KR101960761B1 (ko) * 2011-11-24 2019-03-22 에스케이텔레콤 주식회사 모션 벡터의 예측 부호화/복호화 방법 및 장치
US8792745B2 (en) * 2011-12-06 2014-07-29 Sony Corporation Encoder optimization of adaptive loop filters in HEVC
CN105791822A (zh) * 2012-01-18 2016-07-20 Jvc建伍株式会社 动图像解码装置以及动图像解码方法
EP2843943A4 (en) * 2012-04-23 2016-01-06 Samsung Electronics Co Ltd METHOD AND DEVICE FOR ENCODING MULTIVUE VIDEO, AND METHOD AND DEVICE FOR DECODING MULTI-VIEW VIDEO
KR101626759B1 (ko) 2012-05-10 2016-06-02 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9860555B2 (en) 2012-05-22 2018-01-02 Lg Electronics Inc. Method and apparatus for processing video signal
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
PL400344A1 (pl) * 2012-08-13 2014-02-17 Politechnika Poznanska Sposób wyznaczania predyktora wektora ruchu
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
KR20140092423A (ko) * 2012-12-20 2014-07-24 주식회사 팬택 계층적 영상 부/복호화 모드 결정 방법 및 이러한 방법을 사용하는 장치
WO2014120369A1 (en) 2013-01-30 2014-08-07 Intel Corporation Content adaptive partitioning for prediction and coding for next generation video
US9800857B2 (en) * 2013-03-08 2017-10-24 Qualcomm Incorporated Inter-view residual prediction in multi-view or 3-dimensional video coding
CN105122803B (zh) * 2013-04-02 2019-01-08 Vid拓展公司 针对可伸缩视频编码的增强型时间运动向量预测
US11109036B2 (en) 2013-10-14 2021-08-31 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
KR102353787B1 (ko) 2014-01-03 2022-01-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 이미지 코딩/디코딩에서의 블록 벡터 예측
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
KR102401946B1 (ko) 2014-03-04 2022-05-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 인트라 블록 카피 예측에서의 스킵 모드 및 블록 플립핑
US9924183B2 (en) * 2014-03-20 2018-03-20 Nanjing Yuyan Information Technology Ltd. Fast HEVC transcoding
KR102311815B1 (ko) 2014-06-19 2021-10-13 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통합된 인트라 블록 카피 및 인터 예측 모드
JP2017535145A (ja) 2014-09-30 2017-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー 波面並列処理が可能にされた場合のピクチャ内予測モードに関する規則
WO2016085231A1 (ko) * 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2016085229A1 (ko) 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10187653B2 (en) * 2015-05-18 2019-01-22 Avago Technologies International Sales Pte. Limited Motor vector prediction using co-located prediction units
WO2017188565A1 (ko) * 2016-04-25 2017-11-02 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
CN116916003A (zh) 2016-04-29 2023-10-20 世宗大学校产学协力团 视频信号编码/解码方法和设备
US10805607B2 (en) 2016-04-29 2020-10-13 Industry Academy Cooperation Foundation Of Sejong University Video signal encoding/decoding method and apparatus
CN116567212A (zh) 2016-08-11 2023-08-08 Lx 半导体科技有限公司 编码/解码设备以及发送图像数据的设备
KR102435500B1 (ko) * 2016-10-06 2022-08-23 세종대학교산학협력단 비디오 신호의 복호화 방법 및 이의 장치
WO2018066874A1 (ko) * 2016-10-06 2018-04-12 세종대학교 산학협력단 비디오 신호의 복호화 방법 및 이의 장치
US10298951B2 (en) * 2017-04-06 2019-05-21 Mediatek Inc. Method and apparatus of motion vector prediction
WO2019001739A1 (en) * 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. ERROR RESILIENCE AND PARALLEL PROCESSING FOR MOTION VECTOR CALCULATION DECODER SIDE
KR102302671B1 (ko) 2017-07-07 2021-09-15 삼성전자주식회사 적응적 움직임 벡터 해상도로 결정된 움직임 벡터의 부호화 장치 및 부호화 방법, 및 움직임 벡터의 복호화 장치 및 복호화 방법
CN107360433B (zh) * 2017-07-20 2020-06-19 北京奇艺世纪科技有限公司 一种帧间预测编码方法和装置
CN109429064B (zh) * 2017-08-22 2021-03-30 华为技术有限公司 一种视频数据的编解码方法、装置和介质
EP3457695A1 (en) 2017-09-18 2019-03-20 Thomson Licensing Method and apparatus for motion vector predictor adaptation for omnidirectional video
KR102577754B1 (ko) 2017-09-28 2023-09-12 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
MX2020002586A (es) 2017-09-28 2020-07-20 Samsung Electronics Co Ltd Metodo y dispositivo de codificacion, y metodo y dispositivo de decodificacion.
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
KR102570087B1 (ko) 2018-03-27 2023-08-25 (주)휴맥스 모션 보상을 이용하는 비디오 신호 처리 방법 및 장치
WO2019216325A1 (en) 2018-05-09 2019-11-14 Sharp Kabushiki Kaisha Systems and methods for performing motion vector prediction using a derived set of motion vectors
AU2019308493B2 (en) * 2018-07-17 2023-04-20 Huawei Technologies Co., Ltd. Constrained coding tree for video coding
US11057617B2 (en) * 2018-08-03 2021-07-06 Tencent America LLC Method and apparatus for video coding
FI3831064T3 (fi) 2018-08-17 2024-05-08 Huawei Tech Co Ltd Viitekuvan hallinta videokoodauksessa
US11212550B2 (en) * 2018-09-21 2021-12-28 Qualcomm Incorporated History-based motion vector prediction for affine mode
WO2020094076A1 (en) * 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Motion candidates for inter prediction
CN113196771B (zh) * 2018-12-21 2023-12-22 北京字节跳动网络技术有限公司 基于运动矢量精度的运动矢量范围
WO2020142468A1 (en) * 2018-12-31 2020-07-09 Beijing Dajia Internet Information Technology Co., Ltd. Picture resolution dependent configurations for video coding
JP7324065B2 (ja) * 2019-06-26 2023-08-09 キヤノン株式会社 動きベクトル検出装置、撮像装置、動きベクトル検出方法、及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2742799T3 (es) * 2002-04-19 2020-02-17 Panasonic Ip Corp America Procedimiento de cálculo de vectores de movimiento
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP4895995B2 (ja) 2002-07-15 2012-03-14 日立コンシューマエレクトロニクス株式会社 動画像復号化方法
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7599438B2 (en) 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7317839B2 (en) * 2003-09-07 2008-01-08 Microsoft Corporation Chroma motion vector derivation for interlaced forward-predicted fields
KR20050053297A (ko) * 2003-12-02 2005-06-08 학교법인 성균관대학 동영상 부호화 방법 및 장치
KR101169108B1 (ko) * 2004-01-30 2012-07-26 톰슨 라이센싱 적응형 레이트 제어를 구비한 인코더
US20060120612A1 (en) * 2004-12-08 2006-06-08 Sharath Manjunath Motion estimation techniques for video encoding
KR100746006B1 (ko) 2005-07-19 2007-08-06 삼성전자주식회사 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치
MX357910B (es) 2006-07-06 2018-07-30 Thomson Licensing Método y aparato para desacoplar el número de cuadro y/o la cuenta del orden de imagen (poc) para la codificación y decodificación de video de múltiples vistas.
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
KR101366241B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상 부호화, 복호화 방법 및 장치
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
KR102139535B1 (ko) * 2007-10-16 2020-07-30 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
EP2266318B1 (en) * 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
KR100890512B1 (ko) 2008-09-11 2009-03-26 엘지전자 주식회사 모션벡터 결정방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9807413B2 (en) 2011-05-31 2017-10-31 JVC Kenwood Corporation Moving picture coding apparatus, moving picture coding method, and moving picture coding program, and moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
US9736491B2 (en) 2011-05-31 2017-08-15 JVC Kenwood Corporation Moving picture coding device, moving picture coding method, and moving picture coding program
EP2717574A1 (en) * 2011-05-31 2014-04-09 JVC KENWOOD Corporation Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
US8976867B2 (en) 2011-05-31 2015-03-10 JVC Kenwood Corporation Moving picture coding apparatus, moving picture coding method, and moving picture coding program, and moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
EP3879833A1 (en) * 2011-05-31 2021-09-15 JVCKENWOOD Corporation Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
EP2717574A4 (en) * 2011-05-31 2014-10-15 Jvc Kenwood Corp ANIMATED IMAGE ENCODING DEVICE, ANIMATED IMAGE ENCODING METHOD AND ANIMATED IMAGE ENCODING PROGRAM, AND ANIMATED IMAGE DECODING DEVICE, ANIMATED IMAGE DECODING METHOD, AND AN IMAGE IMAGE DECODING PROGRAM
EP3879832A1 (en) * 2011-05-31 2021-09-15 JVCKENWOOD Corporation Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
US9635381B2 (en) 2011-05-31 2017-04-25 JVC Kenwood Corporation Moving picture coding apparatus, moving picture coding method, and moving picture coding program, and moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
US9729895B2 (en) 2011-05-31 2017-08-08 JVC Kenwood Corporation Moving picture decoding device, moving picture decoding method, and moving picture decoding program
EP3879831A1 (en) * 2011-05-31 2021-09-15 JVCKENWOOD Corporation Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
EP3879834A1 (en) * 2011-05-31 2021-09-15 JVCKENWOOD Corporation Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
US9641837B2 (en) 2011-11-07 2017-05-02 Hfi Innovation Inc. Method and apparatus for MV scaling with increased effective scaling ratio
WO2013067932A1 (en) 2011-11-07 2013-05-16 Mediatek Inc. Method and apparatus for mv scaling with increased effective scaling ratio
US9877041B2 (en) 2011-11-07 2018-01-23 Hfi Innovation Inc. Method and apparatus for MV scaling with increased effective scaling ratio
TWI608725B (zh) * 2011-11-07 2017-12-11 英孚布瑞智有限私人貿易公司 高級運動向量預測模式中所用的圖像編碼設備
EP2740271A4 (en) * 2011-11-07 2016-09-21 Mediatek Inc METHOD AND APPARATUS FOR SCALING A MV WITH ENHANCED EFFICIENT SCALE FACTOR
TWI659641B (zh) * 2011-11-07 2019-05-11 Infobridge Pte. Ltd. 高級運動向量預測模式中所用的圖像編碼設備
CN103918267A (zh) * 2011-11-07 2014-07-09 联发科技股份有限公司 增加有效缩放比的运动向量缩放方法与装置
CN103918267B (zh) * 2011-11-07 2017-05-17 寰发股份有限公司 推导缩放的运动向量的方法
EP2740271A1 (en) * 2011-11-07 2014-06-11 MediaTek Inc. Method and apparatus for mv scaling with increased effective scaling ratio
CN108184125A (zh) * 2011-11-10 2018-06-19 索尼公司 图像处理设备和方法
CN108200438A (zh) * 2011-11-10 2018-06-22 索尼公司 图像处理设备和方法
CN108184125B (zh) * 2011-11-10 2022-03-08 索尼公司 图像处理设备和方法
CN108200438B (zh) * 2011-11-10 2022-01-07 索尼公司 图像处理设备和方法
US10616599B2 (en) 2011-11-10 2020-04-07 Sony Corporation Image processing apparatus and method
CN104202608B (zh) * 2012-01-18 2020-02-21 韩国电子通信研究院 视频解码装置
CN104137549B9 (zh) * 2012-01-18 2020-06-05 韩国电子通信研究院 对图像进行编码和解码的方法及设备
US9621913B2 (en) 2012-01-18 2017-04-11 Electronics And Telecommunications Research Institute Method and device for generating a prediction block to encode and decode an image
US9374595B2 (en) 2012-01-18 2016-06-21 Electronics And Telecommunications Research Institute Method and device for generating a prediction block to encode and decode an image
US10397598B2 (en) 2012-01-18 2019-08-27 Electronics And Telecommunications Research Institue Method and device for encoding and decoding image
CN104137549B (zh) * 2012-01-18 2019-12-10 韩国电子通信研究院 对图像进行编码和解码的方法及设备
CN110650336A (zh) * 2012-01-18 2020-01-03 韩国电子通信研究院 视频解码装置、视频编码装置和计算机可读记录介质
CN110769251A (zh) * 2012-01-18 2020-02-07 韩国电子通信研究院 视频解码装置、视频编码装置和计算机可读记录介质
CN110830798A (zh) * 2012-01-18 2020-02-21 韩国电子通信研究院 视频解码装置、视频编码装置和计算机可读记录介质
CN110830797A (zh) * 2012-01-18 2020-02-21 韩国电子通信研究院 视频解码装置、视频编码装置和计算机可读记录介质
US12003752B2 (en) 2012-01-18 2024-06-04 Electronics And Telecommunications Research Institute Method and device for encoding and decoding image
CN110868588A (zh) * 2012-01-18 2020-03-06 韩国电子通信研究院 视频解码装置、视频编码装置和计算机可读记录介质
US9635380B2 (en) 2012-01-18 2017-04-25 Electronics And Telecommunications Research Institute Method and device for generating a prediction block to encode and decode an image
US9621912B2 (en) 2012-01-18 2017-04-11 Electronics And Telecommunications Research Institute Method and device for generating a prediction block to encode and decode an image
CN110830797B (zh) * 2012-01-18 2023-09-15 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
CN104202608A (zh) * 2012-01-18 2014-12-10 韩国电子通信研究院 视频解码装置
CN104137549A (zh) * 2012-01-18 2014-11-05 韩国电子通信研究院 对图像进行编码和解码的方法及设备
CN110868588B (zh) * 2012-01-18 2023-09-15 韩国电子通信研究院 视频解码装置、视频编码装置和计算机可读记录介质
US9635379B2 (en) 2012-01-18 2017-04-25 Electronics And Telecommunications Research Institute Method and device for generating a prediction block to encode and decode an image
US9807412B2 (en) 2012-01-18 2017-10-31 Electronics And Telecommunications Research Institute Method and device for encoding and decoding image
CN110650336B (zh) * 2012-01-18 2022-11-29 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
CN110830798B (zh) * 2012-01-18 2023-05-02 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
US11706438B2 (en) 2012-01-18 2023-07-18 Electronics And Telecommunications Research Institute Method and device for encoding and decoding image
CN110769251B (zh) * 2012-01-18 2023-09-15 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
WO2013109975A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Temporal motion vector predictor candidate
CN104854866A (zh) * 2012-11-13 2015-08-19 英特尔公司 下一代视频的内容自适应、特性补偿预测
US9762929B2 (en) 2012-11-13 2017-09-12 Intel Corporation Content adaptive, characteristics compensated prediction for next generation video

Also Published As

Publication number Publication date
EP2557796B1 (en) 2021-12-29
CN106028042B (zh) 2019-08-20
KR20210148059A (ko) 2021-12-07
US20130022127A1 (en) 2013-01-24
KR20180052114A (ko) 2018-05-17
EP3982634A1 (en) 2022-04-13
US20160241871A1 (en) 2016-08-18
US20160119641A1 (en) 2016-04-28
KR20110113583A (ko) 2011-10-17
US9264734B2 (en) 2016-02-16
CN105847835A (zh) 2016-08-10
US9407929B2 (en) 2016-08-02
KR102221724B1 (ko) 2021-02-26
ES2954563T3 (es) 2023-11-23
HRP20230945T1 (hr) 2023-11-24
KR101857672B1 (ko) 2018-05-14
KR102094896B1 (ko) 2020-03-30
KR20210022612A (ko) 2021-03-03
CN105933712A (zh) 2016-09-07
US20170353734A1 (en) 2017-12-07
EP4236324A2 (en) 2023-08-30
KR20200034697A (ko) 2020-03-31
US20200336761A1 (en) 2020-10-22
US10743021B2 (en) 2020-08-11
WO2011126345A3 (ko) 2012-01-26
KR20170075688A (ko) 2017-07-03
US12022111B2 (en) 2024-06-25
KR20190042527A (ko) 2019-04-24
KR102438270B1 (ko) 2022-08-29
US20220150535A1 (en) 2022-05-12
US20180270504A1 (en) 2018-09-20
EP4236324A3 (en) 2023-10-11
SI3982634T1 (sl) 2023-11-30
CN105933712B (zh) 2019-07-05
CN106028042A (zh) 2016-10-12
US9402085B2 (en) 2016-07-26
US20190342576A1 (en) 2019-11-07
US8976865B2 (en) 2015-03-10
EP2557796A2 (en) 2013-02-13
EP2557796A4 (en) 2014-10-08
CN105847836A (zh) 2016-08-10
HUE063019T2 (hu) 2023-12-28
EP3982634B1 (en) 2023-07-26
CN102835113A (zh) 2012-12-19
US9800892B2 (en) 2017-10-24
SI2557796T1 (sl) 2022-04-29
KR20220123205A (ko) 2022-09-06
KR101752418B1 (ko) 2017-06-29
ES2904348T3 (es) 2022-04-04
HUE057387T2 (hu) 2022-05-28
CN105847836B (zh) 2019-01-18
PL3982634T3 (pl) 2023-10-09
FI3982634T3 (fi) 2023-09-01
US9699473B2 (en) 2017-07-04
US20150098511A1 (en) 2015-04-09
KR102549223B1 (ko) 2023-06-28
US10404997B2 (en) 2019-09-03
CN105847835B (zh) 2019-01-18
KR101971971B1 (ko) 2019-04-24
KR102334293B1 (ko) 2021-12-01
US10038914B2 (en) 2018-07-31
CN102835113B (zh) 2016-06-22
PL2557796T3 (pl) 2022-03-28
US20160134889A1 (en) 2016-05-12
US20170019681A1 (en) 2017-01-19
US11277634B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
KR102549223B1 (ko) 비디오 신호 처리 방법 및 장치
KR102450443B1 (ko) 다중 참조 예측을 위한 움직임 벡터 개선
KR102004836B1 (ko) 비디오 신호의 처리 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180018198.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11766196

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 13639408

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011766196

Country of ref document: EP