KR20160064845A - Method and apparatus for sub-predition unit level inter-view motion predition for depth coding - Google Patents

Method and apparatus for sub-predition unit level inter-view motion predition for depth coding Download PDF

Info

Publication number
KR20160064845A
KR20160064845A KR1020140169040A KR20140169040A KR20160064845A KR 20160064845 A KR20160064845 A KR 20160064845A KR 1020140169040 A KR1020140169040 A KR 1020140169040A KR 20140169040 A KR20140169040 A KR 20140169040A KR 20160064845 A KR20160064845 A KR 20160064845A
Authority
KR
South Korea
Prior art keywords
current
prediction unit
sub
block
motion
Prior art date
Application number
KR1020140169040A
Other languages
Korean (ko)
Inventor
이충구
이용재
김휘
Original Assignee
(주)휴맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴맥스 filed Critical (주)휴맥스
Priority to KR1020140169040A priority Critical patent/KR20160064845A/en
Publication of KR20160064845A publication Critical patent/KR20160064845A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

According to a method for inter-view motion prediction based on a sub-prediction unit level for depth encoding of a 3D image, a motion parameter of a corresponding texture block of a current block having a size of N x N is inherited as a motion parameter of a current sub-prediction unit for the current prediction unit with respect to the each current block having a size of N x N within a current prediction unit in a current depth picture of a 3D image. The method accesses a corresponding texture block in order to derive a motion parameter inheritance (MPI) merge candidate, thereby reducing complexity due to a disparity vector and thus improving efficiency of encoding compared to an existing method of dynamically accessing a block within a reference view.

Description

깊이 부호화를 위한 서브-예측 유닛 레벨 기반 화면간 움직임 예측 방법 및 장치{METHOD AND APPARATUS FOR SUB-PREDITION UNIT LEVEL INTER-VIEW MOTION PREDITION FOR DEPTH CODING}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sub-prediction unit level based inter-

본 발명은 3차원 영상 복호화 방법 및 장치에 관한 것으로, 보다 상세하게는 3차원 영상의 깊이 부호화를 위한 뷰간 움직임 예측 방법에 관한 것이다.The present invention relates to a three-dimensional image decoding method and apparatus, and more particularly, to a method for estimating intra-view motion for depth encoding of a three-dimensional image.

일반적으로 영상 압축 방법에서는 압축 효율을 높이기 위해 픽쳐들의 중복도를 제거하는 화면간 예측(inter prediction) 및 화면내 예측(intra prediction) 기술을 이용한다. Generally, in an image compression method, intra prediction and intra prediction techniques are used to remove redundancy of pictures in order to increase compression efficiency.

화면간 예측을 이용해 영상을 부호화하는 방법은 픽처들 사이의 시간적인 중복성(spatial redundancy)을 제거하여 영상을 압축하는 방법으로서 대표적으로 움직임 보상 예측 부호화 방법이 있다. A method of coding an image using inter-view prediction is a method of compressing an image by eliminating temporal redundancy between pictures. Typically, there is a motion compensation predictive encoding method.

움직임 보상 예측 부호화는 현재 부호화되는 픽처의 앞 및/또는 뒤에 위치하는 적어도 하나의 참조 픽처에서 현재 부호화되는 블록과 유사한 영역을 검색하여 움직임 벡터(MV: Motion Vector)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행하여 얻어지는 예측 블록과 현재 예측 유닛의 잔여값(residue)을 DCT(Discrete Cosine Transform) 변환하고 양자화한 후 엔트로피 부호화하여 전송한다. The motion compensation predictive coding is performed by searching a region similar to a current coded block in at least one reference picture located before and / or after a currently coded picture to generate a motion vector (MV) And DCT (Discrete Cosine Transform) transforms residual quantities of the prediction block and the current prediction unit, which are obtained by performing motion compensation, and quantizes them, and then entropy-encodes and quantizes them.

움직임 보상 화면간 예측의 경우, 하나의 픽처를 소정 크기를 가지는 복수의 블록(block)으로 구분하여 움직임 벡터(MV)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행한다. 움직임 보상을 수행하여 얻어지는 각각의 예측 블록에 대한 개별적인 움직임 파라미터는 디코더로 전송된다. In the case of motion compensated inter-picture prediction, a motion vector MV is generated by dividing one picture into a plurality of blocks having a predetermined size, and motion compensation is performed using the generated motion vector. The individual motion parameters for each prediction block obtained by performing motion compensation are transmitted to the decoder.

3차원 영상의 경우, 영상의 특성상 각 픽셀이 화소 정보뿐만 아니라 깊이(depth) 정보를 포함하고 있으며, 인코더에서 깊이 정보를 구해 디코더로 다시점 비디오 영상 정보 및 깊이 정보를 전송한다. 깊이 정보를 갖는 3차원 영상의 경우 부호화 장치에서 효율적으로 깊이 정보를 부호화하기 위한 방법 및 복호화 장치에서 깊이 정보를 효율적으로 복원하기 위한 방법이 필요하다.In the case of a 3D image, each pixel includes not only pixel information but also depth information in the characteristics of the image, and the encoder obtains depth information and transmits the point video image information and the depth information to the decoder. In the case of a three-dimensional image having depth information, a method for efficiently encoding depth information in a coding apparatus and a method for efficiently restoring depth information in a decoding apparatus are needed.

본 발명의 목적은 3차원 영상에 적용할 수 있는 깊이 기반 블록 파티셔닝(Depth-based block partitioning)시 부호화 효율을 높이기 위한 깊이 부호화를 위한 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법을 제공하는 것이다. It is an object of the present invention to provide a sub-prediction unit level-based intra-view motion for depth coding of a three-dimensional image for depth coding to improve coding efficiency in depth-based block partitioning applicable to three- Prediction method.

상기한 목적을 달성하기 위한 일 측면에 따르면, 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법은 상기 3차원 영상의 현재 깊이 픽춰의 현재 예측유닛내 각각의 N X N 크기의 현재 블록에 대하여, 상기 현재 N X N 크기 블록의 대응 텍스춰 블록의 움직임 파라미터를 상기 현재 예측유닛에 대한 현재 서브-예측유닛의 움직임 파라미터로 상속한다. 상기 3차원 영상의 현재 깊이 픽춰의 현재 예측유닛내 각각의 N X N 크기의 현재 블록에 대하여, 상기 현재 N X N 크기 블록의 중앙 위치(middle position)를 커버하는 대응 텍스춰 블록의 움직임 파라미터를 상기 현재 예측유닛에 대한 현재 서브-예측유닛의 움직임 파라미터로 상속할 수 있다. 상기 대응 텍스춰 블록은 상기 현재 예측유닛의 중심의 우하단에 위치하는 4X4 블록으로 선택할 수 있다. 서로 다른 움직임 벡터들이 하나의 깊이 예측 유닛내의 8X8 크기의 서브-예측유닛들에 대해서 상속될 수 있다. 상기 서브-예측 유닛은 가변적인 크기를 가지고, 상기 가변적인 크기를 지시하는 신택스를 파라미터에 포함시켜 부호화기에서 복호화기로 전송될 수 있다. According to an aspect of the present invention, there is provided a sub-prediction unit level based intra-view motion prediction method for depth encoding of a three-dimensional image, the method comprising: Block, the motion parameter of the corresponding texture block of the current NXN size block is inherited by the motion parameter of the current sub-prediction unit for the current prediction unit. For each current NXN size current block in the current prediction unit of the current depth picture of the 3D image, a motion parameter of the corresponding texture block covering the middle position of the current NXN size block, Lt; RTI ID = 0.0 > sub-prediction unit < / RTI > The corresponding texture block can be selected as a 4x4 block located at the lower right of the center of the current prediction unit. Different motion vectors may be inherited for 8X8 sized sub-prediction units in one depth prediction unit. The sub-prediction unit has a variable size, and may be transmitted to a decoder in an encoder by including a syntax indicating the variable size in a parameter.

본 발명의 일실시예에 따른 깊이 부호화시 서브-예측 유닛 레벨 뷰간 움직임 예측 방법에 따르면, 움직임 파라미터 상속(MPI) 병합 후보 도출을 위해 대응되는 텍스춰 블록을 액세스하므로, 기존의 참조 뷰내의 블록을 동적으로 액세스하는 방식에 비하여 변이 벡터(disparity vector)에 따라서 복잡도가 감소되어 부호화 효율을 높일 수 있다. According to the sub-prediction unit level intra-view motion prediction method in the depth encoding according to an embodiment of the present invention, since a corresponding texture block is accessed for deriving a motion parameter inheritance (MPI) merging candidate, The complexity is reduced according to the disparity vector, so that the coding efficiency can be increased.

도 1은 본 발명의 일실시예에 따른 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측시 움직임 파라미터 상속(MPI) 병합 후보내의 움직임 파라미터 유도 과정을 설명하기 위한 개념도이다. 1 is a conceptual diagram for explaining a motion parameter derivation process in a motion parameter inheritance (MPI) merging candidate in a sub-prediction unit level based inter-view motion prediction for depth encoding according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

서브-예측유닛 레벨(sub-Prediction Unit level) 뷰간 움직임 예측(inter-view motion prediction)에서는, 전체 예측 유닛 크기(full PU size) 대신 그 보다 더 작은 블록 크기로 움직임 예측이 이루어진다. Sub-Prediction Unit Level In inter-view motion prediction, motion prediction is performed with a smaller block size instead of the full PU size.

서브-예측유닛 레벨 뷰간 움직임 예측에서, 뷰간 병합 후보(inter-view merge candidate)는 아래와 같이 유도될 수 있다.In the sub-prediction unit level intra-view motion prediction, an inter-view merge candidate can be derived as follows.

먼저, 현재 예측유닛(Prediction Unit; PU)은 다수의 서브- 예측유닛으로 분할되며, 상기 분할된 서브- 예측유닛은 상기 현재의 예측유닛 보다 더 작은 크기-예를 들어 8 X8 픽셀-를 가진다. First, a current prediction unit (PU) is divided into a plurality of sub-prediction units, and the divided sub-prediction unit has a smaller size than the current prediction unit, for example, 8 X 8 pixels.

그리고, 현재 예측유닛내의 각각의 서브- 예측유닛에 대해서는, 변이 벡터(disparity vector)가 현재 서브-예측유닛의 중앙 위치(middle position)에서 참조 뷰(reference view)내의 4X4 참조 블록(reference block)으로 도달하도록 가해지게 되며, 만약 상기 4X4 참조 블록에서 이용 가능한 움직임 파라미터들을 가지고 있다면 현재 서브- 예측유닛에 대하여 상기 관련된 움직임 파라미터들(상기 4X4 참조 블록에서 이용 가능한 움직임 파라미터들)이 뷰간 병합 후보로서 사용된다. Then, for each sub-prediction unit in the current prediction unit, the disparity vector is converted into a 4x4 reference block in the reference view at the middle position of the current sub-prediction unit. , And if the motion parameters are available in the 4X4 reference block, then the associated motion parameters (motion parameters available in the 4X4 reference block) are used as the inter-view merging candidate for the current sub-prediction unit .

상기와 같은 서브-예측유닛 레벨 뷰간 움직임 예측은 텍스처 부호화에 사용될 수 있으며, 또는 깊이(depth) 부호화에도 적용이 가능하다. 여기서, 텍스춰(texture)는 3차원 영상의 칼라(color)를 의미한다. The sub-prediction unit level intra-view motion prediction as described above can be used for texture coding or depth coding. Here, a texture means a color of a three-dimensional image.

서브-예측유닛 레벨 뷰간 움직임 예측에서, 움직임 파라미터 상속(Motion Parameter Inheritance; MPI) 병합 후보(merge candidate)는 대응(co-located) 텍스춰 블록(texture block)으로부터 유도될 수 있다. 이하에서 구체적으로 설명한다. In sub-predict unit level inter-view motion prediction, a Motion Parameter Inheritance (MPI) merge candidate may be derived from a co-located texture block. This will be described in detail below.

도 1은 본 발명의 일실시예에 따른 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측시 움직임 파라미터 상속(MPI) 병합 후보내의 움직임 파라미터 유도 과정을 설명하기 위한 개념도이다. 1 is a conceptual diagram for explaining a motion parameter derivation process in a motion parameter inheritance (MPI) merging candidate in a sub-prediction unit level based inter-view motion prediction for depth encoding according to an embodiment of the present invention.

도 1을 참조하면, 3차원 영상의 깊이 픽춰(depth picture)(110)의 대응되는 텍스춰 픽춰(120), 3차원 영상의 깊이 픽춰(depth picture)(110)내의 현재 예측유닛(112)에 대응되는 대응 텍스춰 픽춰(120)내의 대응 텍스춰 블록(122)이 도시된다. Referring to FIG. 1, a corresponding texture picture 120 of a depth picture 110 of a three-dimensional image corresponds to a current prediction unit 112 in a depth picture 110 of a three- The corresponding texture block 122 in the corresponding texture picture 120 is shown.

대응 텍스춰 블록(122)은 현재 예측유닛(PU)의 중심(center)의 우하단(right bottom)에 위치하는 4X4 블록으로 선택할 수 있다. The corresponding texture block 122 can be selected as a 4X4 block located at the right bottom of the center of the current prediction unit PU.

구체적으로, 깊이 부호화시 서브-예측 유닛 레벨 뷰간 움직임 예측에 기반한 움직임 파라미터 상속(MPI) 병합 후보 도출 방법에서는, 현재 깊이 픽춰 내의 현재 예측유닛내의 각각의 8X8 블록에 대하여, 현재 8X8 블록의 중앙 위치(middle position)를 커버하는 대응 텍스춰 블록의 움직임 파라미터가(움직임 벡터들을 2만큼 우측으로 쉬프트시켜서) 현재 서브-예측유닛에 대하여 상속될 수 있다. Specifically, in the motion parameter inheritance (MPI) merging candidate derivation method based on sub-predictive unit level intra-view motion prediction at the time of depth encoding, for each 8X8 block in the current prediction unit in the current depth picture, the motion parameter of the corresponding texture block covering the middle position may be inherited for the current sub-prediction unit (by shifting the motion vectors by two to the right).

본 발명의 일실시예에 따른 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법에 따르면, 서로 다른 움직임 벡터들이 하나의 깊이 예측 유닛내의 8X8 서브-예측유닛들에 대해서 상속될 수 있다. According to the sub-prediction unit level based inter-view motion prediction method according to an embodiment of the present invention, different motion vectors can be inherited for 8X8 sub-prediction units in one depth prediction unit.

깊이 부호화시 서브-예측 유닛 레벨 뷰간 움직임 예측에 기반한 움직임 파라미터 상속(MPI) 병합 후보에 가변적인 크기를 가지는 서브-예측 유닛을 사용할 수 있다. 이러한 가변적인 크기를 지시하는 신택스 요소는 부호화기에서 복호화기로 전송되는 파라미터내에 포함되어 전송될 수 있다. It is possible to use a sub-prediction unit having a variable size in a motion parameter inheritance (MPI) merging candidate based on sub-prediction unit level intra-view motion prediction in the depth coding. A syntax element indicating such a variable size may be included in a parameter transmitted from the encoder to the decoder and transmitted.

전술한 깊이 부호화시 서브-예측 유닛 레벨 뷰간 움직임 예측에 기반한 움직임 파라미터 상속(MPI) 병합 후보 도출을 위해 대응되는 텍스춰 블록을 액세스하는 방법은, 참조 뷰내의 한 개의 블록을 동적으로 액세스하는 방식에 비하여 변이 벡터(disparity vector)에 따라서 복잡도가 감소 될 수 있다. A method of accessing a corresponding texture block for derivation of a motion parameter inheritance (MPI) merging candidate based on sub-predictive unit level intra-view motion prediction in the above-described depth coding is superior to a method of dynamically accessing a block in a reference view The complexity can be reduced depending on the disparity vector.

이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the inventions as defined by the following claims It will be understood that various modifications and changes may be made thereto without departing from the spirit and scope of the invention.

Claims (5)

3차원 영상의 깊이 부호화를 위한 뷰간 움직임 예측 방법에 있어서,
상기 3차원 영상의 현재 깊이 픽춰의 현재 예측유닛내 각각의 N X N 크기의 현재 블록에 대하여, 상기 현재 N X N 크기 블록의 대응 텍스춰 블록의 움직임 파라미터를 상기 현재 예측유닛에 대한 현재 서브-예측유닛의 움직임 파라미터로 상속하는 것을 특징으로 하는 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법.
A method for inter-view motion prediction for depth encoding of a three-dimensional image,
For each current NXN size current block in the current prediction unit of the current depth picture of the 3D image, motion parameters of the corresponding texture block of the current NXN size block to motion parameters of the current sub-prediction unit for the current prediction unit Wherein the sub-prediction unit level-based inter-view motion prediction method is a sub-prediction unit level based intra-view motion prediction method for depth encoding of a three-dimensional image.
제1항에 있어서,
상기 3차원 영상의 현재 깊이 픽춰의 현재 예측유닛내 각각의 N X N 크기의 현재 블록에 대하여, 상기 현재 N X N 크기 블록의 중앙 위치(middle position)를 커버하는 대응 텍스춰 블록의 움직임 파라미터를 상기 현재 예측유닛에 대한 현재 서브-예측유닛의 움직임 파라미터로 상속하는 것을 특징으로 하는 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법.
The method according to claim 1,
For each current NXN size current block in the current prediction unit of the current depth picture of the 3D image, a motion parameter of the corresponding texture block covering the middle position of the current NXN size block, Predictive unit based motion prediction method for depth encoding of a three-dimensional image.
제2항에 있어서, 상기 대응 텍스춰 블록은 상기 현재 예측유닛의 중심의 우하단에 위치하는 4X4 블록으로 선택하는 것을 특징으로 하는 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법.3. The method of claim 2, wherein the corresponding texture block is selected as a 4x4 block located at the lower right of the center of the current prediction unit. . 제3항에 있어서, 서로 다른 움직임 벡터들이 하나의 깊이 예측 유닛내의 8X8 크기의 서브-예측유닛들에 대해서 상속되는 것을 특징으로 하는 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법.4. The method of claim 3, wherein the different motion vectors are inherited for 8X8 sized sub-prediction units in one depth prediction unit. Way. 제1항에 있어서, 상기 서브-예측 유닛은 가변적인 크기를 가지고, 상기 가변적인 크기를 지시하는 신택스를 파라미터에 포함시켜 부호화기에서 복호화기로 전송되는 것을 특징으로 하는 3차원 영상의 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 뷰간 움직임 예측 방법. 2. The apparatus of claim 1, wherein the sub-prediction unit has a variable size and is transmitted to a decoder in a coder including a syntax indicating a variable size in a parameter. Predictive unit level based interbread motion prediction method.
KR1020140169040A 2014-11-28 2014-11-28 Method and apparatus for sub-predition unit level inter-view motion predition for depth coding KR20160064845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140169040A KR20160064845A (en) 2014-11-28 2014-11-28 Method and apparatus for sub-predition unit level inter-view motion predition for depth coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140169040A KR20160064845A (en) 2014-11-28 2014-11-28 Method and apparatus for sub-predition unit level inter-view motion predition for depth coding

Publications (1)

Publication Number Publication Date
KR20160064845A true KR20160064845A (en) 2016-06-08

Family

ID=56193797

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140169040A KR20160064845A (en) 2014-11-28 2014-11-28 Method and apparatus for sub-predition unit level inter-view motion predition for depth coding

Country Status (1)

Country Link
KR (1) KR20160064845A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020149725A1 (en) * 2019-01-18 2020-07-23 주식회사 윌러스표준기술연구소 Video signal processing method and device using motion compensation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020149725A1 (en) * 2019-01-18 2020-07-23 주식회사 윌러스표준기술연구소 Video signal processing method and device using motion compensation
US11849106B2 (en) 2019-01-18 2023-12-19 Wilus Institute Of Standards And Technology Inc. Video signal processing method and device using motion compensation

Similar Documents

Publication Publication Date Title
KR102471979B1 (en) Method and Apparatus for Video Coding
CN112889269B (en) Video decoding method and device
AU2018282523B2 (en) Intra filtering applied together with transform processing in video coding
KR102173475B1 (en) Picture prediction method and picture prediction apparatus
KR101662985B1 (en) Prediction parameter inheritance for 3d video coding
TWI543591B (en) Method of coding video data, apparatus for coding video data and computer-readable storage medium
JP7297908B2 (en) Video coding method, apparatus and computer program
JP2017512032A (en) Limited depth intra-mode coding for 3D video coding
KR102185200B1 (en) method and apparatus for decoding video data
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
WO2013158216A1 (en) View synthesis based on asymmetric texture and depth resolutions
JP2016513925A (en) Method and apparatus for view synthesis prediction in 3D video coding
US20160330472A1 (en) Method for encoding multi-view video and apparatus therefor and method for decoding multi-view video and apparatus therefor
KR20200015783A (en) Intra prediction mode based image processing method and apparatus therefor
US20140348242A1 (en) Image coding apparatus, image decoding apparatus, and method and program therefor
JP6571646B2 (en) Multi-view video decoding method and apparatus
KR20220165274A (en) Method and Apparatus for Video Coding
CN106464898B (en) Method and apparatus for deriving inter-view motion merge candidates
KR20230085184A (en) Correction for convergence of intra predictions
KR20230058479A (en) Geometric partitioning mode using intra-block copies
KR20160064845A (en) Method and apparatus for sub-predition unit level inter-view motion predition for depth coding
KR20140051789A (en) Methods for performing inter-view motion prediction in 3d video and methods for determining inter-view merging candidate
WO2015141977A1 (en) 3d video encoding/decoding method and device
KR20150026924A (en) Methods and Apparatus for depth quadtree prediction
KR20230091171A (en) Improvements in geometric partitioning modes with intra and inter prediction

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Withdrawal due to no request for examination