KR20190140387A - 360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치 - Google Patents

360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치 Download PDF

Info

Publication number
KR20190140387A
KR20190140387A KR1020180142487A KR20180142487A KR20190140387A KR 20190140387 A KR20190140387 A KR 20190140387A KR 1020180142487 A KR1020180142487 A KR 1020180142487A KR 20180142487 A KR20180142487 A KR 20180142487A KR 20190140387 A KR20190140387 A KR 20190140387A
Authority
KR
South Korea
Prior art keywords
block
motion vector
reference picture
region
sample
Prior art date
Application number
KR1020180142487A
Other languages
English (en)
Inventor
임정연
손세훈
이선영
나태영
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190065415A priority Critical patent/KR20190140399A/ko
Priority to CN201980047008.4A priority patent/CN112425174A/zh
Priority to PCT/KR2019/006796 priority patent/WO2019240425A1/ko
Priority to US17/251,315 priority patent/US11425391B2/en
Publication of KR20190140387A publication Critical patent/KR20190140387A/ko
Priority to US17/865,286 priority patent/US11838516B2/en
Priority to US17/865,254 priority patent/US11849121B2/en
Priority to US17/865,271 priority patent/US11849122B2/en
Priority to US17/865,278 priority patent/US11838515B2/en
Priority to KR1020230147159A priority patent/KR20230153350A/ko
Priority to KR1020230147157A priority patent/KR20230154413A/ko
Priority to KR1020230147158A priority patent/KR20230155384A/ko
Priority to KR1020230147156A priority patent/KR20230156004A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치를 개시한다.
본 발명의 일 실시예에 의하면, 영상 복호화 장치에서 수행되는 360도 영상의 인터(Inter) 예측 방법으로서, 영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재블록의 움직임 벡터를 유도하는 단계; 상기 움직임 벡터가 지시하는 제1참조블록의 참조 샘플을 획득하되, 상기 제1참조블록 중 참조 픽처의 외부에 위치하는 외부 영역의 참조 샘플을 상기 외부 영역과 대응되는 상기 참조 픽처 내 영역인 대응 영역으로부터 획득하는 단계; 및 상기 획득된 참조 샘플을 기반으로 상기 현재블록을 예측하는 단계를 포함하고, 상기 외부 영역과 상기 대응 영역은 상기 360도 영상의 3차원 구조를 기준으로 상호 동일한 영역에 해당하는 것을 특징으로 하는 360도 영상의 인터 예측 방법을 제공한다.

Description

360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치{INTER PREDICTION METHOD FOR 360 DEGREE VIDEO AND APPARATUS USING THE SAME}
본 발명은 영상의 부호화 및 복호화에 관한 것으로서, 더욱 구체적으로는 360도 영상을 변환한 2D 이미지 내 일부 영역과 이 2D 이미지 내 다른 영역이 360도 영상에서 인접해 있음을 이용하여 부호화 및 복호화의 효율을 향상시킨 인터 예측 방법 및 이를 이용한 영상 복호화 장치에 관한 것이다.
동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터량을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다.
따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC에 비해 약 40% 정도의 부호화 효율을 향상시킨 HEVC(High Efficiency Video Coding)가 존재한다.
그러나, 영상의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다.
이러한 요구에 부응하기 위해 본 발명은 개선된 영상 부호화 및 복호화 기술을 제공하는 것을 목적으로 하며, 특히, 본 발명의 일 측면은 움직임 정보를 표현하는 데 소요되는 비트(bit) 수를 감소시킴으로써 부호화 및 복호화의 효율을 향상시키는 기술과 관련된다.
본 발명의 일 측면은, 영상 복호화 장치에서 수행되는 360도 영상의 인터(Inter) 예측 방법으로서, 영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재블록의 움직임 벡터를 유도하는 단계; 상기 움직임 벡터가 지시하는 제1참조블록의 참조 샘플을 획득하되, 상기 제1참조블록 중 참조 픽처의 외부에 위치하는 외부 영역의 참조 샘플을 상기 외부 영역과 대응되는 상기 참조 픽처 내 영역인 대응 영역으로부터 획득하는 단계; 및 상기 획득된 참조 샘플을 기반으로 상기 현재블록을 예측하는 단계를 포함하고, 상기 외부 영역과 상기 대응 영역은 상기 360도 영상의 3차원 구조를 기준으로 상호 동일한 영역에 해당하는 것을 특징으로 하는 360도 영상의 인터 예측 방법을 제공한다.
본 발명의 다른 일 측면은, 영상 복호화 장치로서, 영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재블록의 움직임 벡터를 유도하는 움직임유도부; 상기 움직임 벡터가 지시하는 제1참조블록의 참조 샘플을 획득하되, 상기 제1참조블록 중 360도 영상을 2차원 구조로 변환한 참조 픽처의 외부에 위치하는 외부 영역의 참조 샘플을 상기 외부 영역과 대응되는 상기 참조 픽처 내 영역인 대응 영역으로부터 획득하는 샘플획득부; 및 상기 획득된 참조 샘플을 기반으로 상기 현재블록을 예측하는 이너예측부를 포함하고, 상기 외부 영역과 상기 대응 영역은 상기 360도 영상의 3차원 구조를 기준으로 상호 동일한 영역에 해당하는 것을 특징으로 하는 영상 복호화 장치를 제공한다.
이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 참조 픽처를 벗어나는 특정 영역을 참조 픽처 내 다른 영역으로 대체할 수 있으므로 360도 영상의 움직임 정보를 효율적으로 추정할 수 있게 된다.
또한, 본 발명의 다른 일 실시예에 의하면, 360도 영상의 3차원 구조를 기준으로 참조 픽처 내 다른 영역은 참조 픽처를 벗어나는 특정 영역과 동일한 영역에 해당하므로 예측의 정확성을 향상시킬 수 있다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.
도 3은 복수의 인트라 예측 모드들을 설명하기 위한 도면이다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.
도 5는 본 개시의 기술들을 구현할 수 있는 인터 예측부의 예시적인 블록도이다.
도 6은 인터예측부가 현재 블록을 예측하는 방법을 설명하기 위한 순서도이다.
도 7은 인터예측부가 현재 블록을 예측하는 본 발명의 일 실시예를 설명하기 위한 도면이다.
도 8은 움직임 벡터를 조정하는 본 발명의 실시예를 설명하기 위한 도면이다.
도 9 내지 도 11은 참조 블록 사이의 방향 관계를 기준으로 참조 샘플을 획득하는 본 발명의 다양한 실시예를 설명하기 위한 도면이다.
도 12는 다른 포맷을 가지는 참조 픽처에 본 발명이 적용되는 일 실시예를 설명하기 위한 도면이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1을 참조하여 영상 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
도 1에 도시된 바와 같이, 영상 부호화 장치는 블록 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 부호화부(150), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.
영상 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 소프트웨어(구성요소)의 각 기능을 실행하는 형태로 구현될 수도 있다.
하나의 영상(비디오)은 복수의 픽처들로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 슬라이스(slice) 또는/및 타일(Tile)로 분할되고, 각 슬라이스 또는 타일은 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다.
각 CU에 적용되는 정보들은 CU의 신택스(Syntax)로 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로 부호화된다. 또한, 하나의 타일 내의 모든 블록들에 공통적으로 적용되는 정보들은 타일의 신택스로 부호화되거나 해당 타일이 속한 타일 그룹의 신택스로 부호화되며, 하나의 픽처들을 구성하는 모든 블록들에 적용되는 정보들은 픽처 파라미터 셋(PPS, Picture Parameter Set) 또는 픽처 헤더에 부호화된다.
나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화되며, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다.
블록 분할부(110)는 CTU(Coding Tree Unit)의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로 부호화되어 영상 복호화 장치로 전달된다.
블록 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU(Coding Tree Unit)로 분할한 이후에, 분할된 CTU를 트리 구조(tree structure)를 이용하여 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU(coding unit)가 된다.
트리 구조에는 상위 노드(혹은 부모 노드)가 동일한 크기를 가지는 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(Quad Tree, QT), 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(Binary Tree, BT), 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(Ternary Tree, TT) 등이 포함될 수 있다.
또한, QT 구조, BT 구조 및 TT 구조 중 둘 이상이 혼용된 구조 등이 포함될 수 있다. 예컨대, QTBT (Quad Tree plus Binary Tree) 구조가 사용될 수 있고, QTBTTT (Quad Tree plus Binary Tree Ternary Tree) 구조가 사용될 수 있다.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다. 도 2에서 보는 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다.
QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다.
예컨대, 일부 예시에서, 해당 노드의 블록을 가로로 분할하는 타입(즉, horizontal splitting)과 세로로 분할하는 타입(즉, vertical splitting) 두 가지가 존재할 수 있다.
도 2에 표현된 바와 같이, BTTT 분할이 수행되면, 노드들이 분할되었는지 여부를 지시하는 플래그, 분할 방향(vertical 또는 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 또는 Ternary)을 나타내는 플래그가 영상 복호화 장치로 시그널링될 수 있다.
한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태, 해당 노드의 블록을 대각선 방향으로 분할하는 형태 등이 포함될 수 있다.
트리 구조의 다른 예시로서 QTBT가 사용되는 경우, CTU는 먼저 QT 구조로 분할된 이후에, QT의 리프 노드들은 BT 구조로 더 분할될 수 있다. CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재 블록'이라 지칭한다.
예측부(120)는 현재 블록을 예측하여 예측 블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함하여 구성될 수 있다. 일반적으로, 픽처 내 현재 블록들은 각각 예측적으로 코딩될 수 있다. 현재 블록의 예측은 현재 블록을 포함하는 픽처의 데이터를 사용하는 인트라 예측 기술 또는 현재 블록을 포함하는 픽처 이전에 코딩된 픽처의 데이터를 사용하는 인터 예측 기술을 사용하여 수행될 수 있다.
인트라 예측부(122)는 현재 블록이 포함된 현재 픽처 내에서 현재 블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재 블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3에서 보는 바와 같이, 복수의 인트라 예측모드는 planar 모드와 DC 모드를 포함하는 비방향성 모드와 65개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.
인트라 예측부(122)는 현재 블록을 부호화하는데 사용할 인트라 예측 모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측 모드들을 사용하여 현재 블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수도 있다.
예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측 모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측 모드를 선택할 수도 있다.
인트라 예측부(122)는 복수의 인트라 예측 모드 중에서 하나의 인트라 예측 모드를 선택하고, 선택된 인트라 예측 모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재 블록을 예측한다. 선택된 인트라 예측 모드에 대한 정보는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
인터 예측부(124)는 움직임 추정(motion estimation) 과정을 통해 현재 픽처보다 먼저 부호화 및 복호화된 참조 픽처 내에서 현재 블록과 가장 유사한 블록을 탐색하고, 움직임 보상 과정을 통해 탐색된 블록을 이용하여 현재 블록에 대한 예측 블록을 생성한다. 인터 예측은 일반적으로 예측 방향에 따라 단방향 예측(Uni-directional prediction)과 양방향 예측(Bi-directional prediction)으로 구별될 수 있다.
인터 예측부(124)는 현재 픽처 내의 현재 블록과 참조 픽처 내의 예측 블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다.
현재 블록을 예측하기 위해 사용된 참조 픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
움직임 정보를 부호화하는 데 소요되는 비트량을 감소 또는 최소화시키기 위해 다양한 방법이 사용될 수 있다. 이 다양한 방법들 중 대표적인 예로 Skip 모드, Merge 모드 및 Amvp(Adaptive(Advanced) motion vector predictor) 모드를 들 수 있다.
Skip 모드에서는 주변 블록들로부터 미리 설정된 개수의 후보 블록들이 선별되고, 선별된 후보 블록들의 움직임 정보들 중 현재 블록의 움직임 정보로 사용될 하나가 선택된 후, 선택된 움직임 정보의 index 값이 부호화되어 영상 복호화 장치로 시그널링된다. HEVC 표준에서, Skip 모드에 대한 index 값은 merge_idx syntax를 통해 표현된다.
Merge 모드에서는 먼저, 주변 블록들로부터 미리 설정된 개수의 후보 블록들이 선별된다. 후보 블록들이 선별되면, 인터 예측부(124)는 후보 블록들이 포함된 머지 리스트(merge list)를 구성하고, 리스트에 포함된 후보 블록의 움직임 정보들 중에서 현재 블록의 움직임 정보로 사용될 움직임 정보를 선택하며, 선택된 움직임 정보(선택된 후보 블록)를 식별하기 위한 merge index 값을 생성한다.
선택된 움직임 정보의 index 값 즉, merge index 값은 부호화되어 영상 복호화 장치로 시그널링된다. HEVC 표준에서, Merge 모드에 대한 index 값은 merge_idx syntax를 통해 표현된다.
Skip/Merge 모드에서, 후보 블록들을 선별하기 위한 주변 블록으로는 현재 픽처 내 현재 블록에 인접한 좌측 블록, 상단 블록, 우상단 블록, 좌하단 블록, 좌상단 블록 중에서 전부 또는 일부가 사용될 수 있다.
또한, 현재 블록을 포함하는 현재 픽처가 아닌, 참조 픽처 내에 위치하는 블록들이 후보 블록으로 사용될 수도 있다. 예를 들어, 참조 픽처 내 현재 블록과 동일한 지점에 위치하는 블록(co-located block) 또는 이 동일 위치의 블록에 인접한 블록들이 후보 블록으로 더 사용될 수 있다.
Amvp 모드에서는 먼저, 현재 블록의 주변 블록들을 이용하여 현재 블록의 움직임 벡터에 대한 예측 움직임 벡터(motion vector predictor, MVP) 후보들이 유도된다.
예측 움직임 벡터 후보들을 유도하기 위해 이용되는 주변 블록들에는 현재 블록의 좌측 블록, 상단 블록, 우상단 블록, 좌하단 블록 및 좌상단 블록 등과 같이 현재 픽처 내에서 현재 블록에 인접한 블록들이 포함될 수 있다.
또한, 참조 픽처 내에서 현재 블록과 동일한 지점에 위치하는 블록(co-located block) 또는 이와 인접한 블록 등과 같이, 현재 블록이 아닌 참조 픽처 내에 위치한 블록들도 예측 움직임 벡터 후보들을 유도하기 위한 주변 블록에 포함될 수 있다.
예측 움직임 벡터 후보들이 유도되면, 인터 예측부(124)는 현재 블록의 움직임 벡터에 대한 예측 움직임 벡터(mvp)를 결정하고, 현재 블록의 움직임 벡터에서 결정된 예측 움직임 벡터를 감산하여 차분 움직임 벡터(motion vector difference, mvd)를 산출한다. 산출된 차분 움직임 벡터는 부호화되어 영상 복호화 장치로 시그널링된다. HEVC 표준에서, Amvp 모드의 mvd 값은 아래 표 1에 나타난 바와 같이 다양한 syntax를 통해 표현된다.
mvd_coding( x0, y0, refList ) { Descriptor
abs_mvd_greater0_flag[ 0 ] ae(v)
abs_mvd_greater0_flag[ 1 ] ae(v)
if( abs_mvd_greater0_flag[ 0 ] )  
abs_mvd_greater1_flag[ 0 ] ae(v)
if( abs_mvd_greater0_flag[ 1 ] )  
abs_mvd_greater1_flag[ 1 ] ae(v)
if( abs_mvd_greater0_flag[ 0 ] ) {  
if( abs_mvd_greater1_flag[ 0 ] )  
abs_mvd_minus2[ 0 ] ae(v)
mvd_sign_flag[ 0 ] ae(v)
}  
if( abs_mvd_greater0_flag[ 1 ] ) {  
if( abs_mvd_greater1_flag[ 1 ] )  
abs_mvd_minus2[ 1 ] ae(v)
mvd_sign_flag[ 1 ] ae(v)
}  
}  
위 표 1에서, [0]은 가로축 성분 (x)에 대한 표현이고, [1]은 세로축 성분 (y)에 대한 표현이다.
예측 움직임 벡터 후보들로부터 예측 움직임 벡터를 결정하는 과정은 미리 정의된 함수(예를 들어, 중앙 값 연산, 평균 값 연산 등)를 통해 구현될 수 있다. 이 경우, 영상 복호화 장치는 미리 정의된 함수를 적용하도록 설정되어 있다.
예측 움직임 벡터 후보들을 유도하기 위해 이용되는 주변 블록들은 이미 부호화 및 복호화가 완료된 블록에 해당하므로, 영상 복호화 장치도 이 주변 블록들에 대한 움직임 벡터를 이미 인지하고 있다.
따라서, 예측 움직임 벡터 후보들을 식별하기 위한 정보들은 부호화될 필요가 없으므로, 영상 부호화 장치는 차분 움직임 벡터에 대한 정보와 현재 블록을 예측하기 위해 사용된 참조 픽처에 대한 정보만을 부호화한다.
예측 움직임 벡터 후보들로부터 예측 움직임 벡터를 결정하는 과정은 예측 움직임 벡터 후보들 중 어느 하나를 선택하는 방식으로 구현될 수도 있다. 이와 같은 경우, 차분 움직임 벡터에 대한 정보, 현재 블록을 예측하기 위해 사용된 참조 픽처에 대한 정보와 함께, 결정된 예측 움직임 벡터를 식별하기 위한 정보가 추가적으로 부호화된다.
감산기(130)는 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측 블록과 현재 블록을 감산하여 잔차 블록을 생성하고, 변환부(140)는 공간 영역의 픽셀 값들을 가지는 잔차 블록 내의 잔차 신호를 주파수 도메인의 변환 계수로 변환한다.
변환부(140)는 잔차 블록 내의 잔차 신호들을 현재 블록의 크기를 변환 단위로 사용하여 변환할 수 있으며, 잔차 블록을 더 작은 복수의 서브 블록을 분할하고 서브 블록 크기의 변환 단위로 잔차 신호들을 변환할 수도 있다.
잔차 블록을 더 작은 서브 블록으로 분할하는 방법은 다양하게 존재할 수 있다. 예컨대, 기 정의된 동일한 크기의 서브 블록으로 분할할 수도 있으며, 잔차 블록을 루트 노드로 하는 QT(Quad Tree) 방식의 분할을 사용할 수도 있다.
양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 부호화부(150)로 출력한다.
부호화부(150)는 양자화된 변환 계수들을 CABAC 등의 부호화 방식을 사용하여 부호화함으로써 비트스트림을 생성한다. 또한, 부호화부(150)는 블록 분할과 관련된 CTU size, QT 분할 플래그, BTTT 분할 플래그, 분할 방향 및 분할 타입 등의 정보를 부호화 및 시그널링하여 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다.
나아가 부호화부(150)는 현재 블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측 모드에 대한 정보) 또는 인터 예측정보(참조 픽처 및 움직임벡터에 대한 정보)를 부호화한다.
역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차 블록을 복원한다.
가산부(170)는 복원된 잔차 블록과 예측부(120)에 의해 생성된 예측 블록을 가산하여 현재 블록을 복원한다. 복원된 현재 블록 내의 픽셀들은 다음 순서 블록의 인트라 예측을 위한 참조 픽셀로 사용된다.
필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 감소시키기 위해, 복원된 픽셀들에 대한 필터링을 수행한다. 필터부(180)는 디블록킹 필터(182)와 SAO 필터(184)를 포함할 수 있다.
디블록킹 필터(180)는 복원된 블록 간의 경계를 필터링하여 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하고, SAO 필터(184)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다.
SAO 필터(184)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해 사용되는 필터에 해당한다. 디블록킹 필터(182) 및 SAO 필터(184)를 통해 필터링된 복원 블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다. 이하에서는 도 4를 참조하여 영상 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
도 4에 도시된 바와 같이, 영상 복호화 장치는 복호화부(410), 역양자화부(420), 역변환부(430), 예측부(440), 가산기(450), 필터부(460) 및 메모리(470)를 포함하여 구성될 수 있다.
영상 복호화 장치는 도 1에 표현된 영상 부호화 장치와 마찬가지로, 각 구성요소가 하드웨어 칩으로 구현될 수 있으며, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 소프트웨어의 기능을 실행하도록 구성될 수도 있다.
복호화부(410)는 영상 부호화 장치로부터 수신된 비트스트림을 복호화하여 블록 분할과 관련된 정보(루마 블록의 분할정보 및/또는 크로마 블록의 분할정보)를 추출하고, 이를 이용하여 복호화하고자 하는 현재 블록을 결정하며, 현재 블록을 복원하기 위해 필요한 예측 정보와 잔차신호에 대한 정보 등을 추출한다.
복호화부(410)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 또한, 복호화부(410)는 CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, 비트스트림으로부터 분할 정보를 추출한 후, 이를 이용하여 블록을 분할 또는 복원한다.
또한, 복호화부(410)는 QT 분할의 리프 노드에 해당하는 노드에 대해서는 블록의 BT 분할 여부 및 분할 타입(분할 방향)에 대한 정보를 추출하여 해당 리프 노드를 BT 구조로 분할한다.
다른 예로서, QTBTTT 구조를 사용하여 블록을 분할 또는 복원하는 경우, 복호화부(410)는 QT 분할 여부에 대한 정보(플래그)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할하고, QT 분할의 리프 노드(QT 분할이 더 이상 발생하지 않는 노드)에 해당하는 노드에 대해서는 BT 또는 TT로 더 분할되는지 여부, 분할 방향에 대한 정보 및 BT 구조인지 TT 구조인지를 구별하는 분할 타입 정보를 추출하여 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.
이와 같이, 분할정보를 이용하여 복호화하고자 하는 현재 블록이 결정되면, 복호화부(410)는 현재 블록이 인트라 예측되었는지 아니면, 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다.
예측 타입 정보가 인트라 예측을 지시하는 경우, 복호화부(410)는 현재 블록의 인트라 예측정보(인트라 예측 모드)에 대한 신택스 요소를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 복호화부(410)는 인터 예측정보에 대한 신택스 요소 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조 픽처를 나타내는 정보(현재 블록의 움직임 정보)를 추출한다.
한편, 복호화부(410)는 잔차신호에 대한 정보로서 현재 블록의 양자화된 변환계수들에 대한 정보를 추출한다.
역양자화부(420)는 양자화된 변환계수들을 역양자화하고, 역변환부(430)는 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차 신호들을 복원함으로써 현재 블록에 대한 잔차 블록을 생성한다.
예측부(440)는 인트라 예측부(442) 및 인터 예측부(444)를 포함하여 구성될 수 있는 데, 인트라 예측부(342)는 현재 블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(344)는 현재 블록의 예측 타입이 인트라 예측일 때 활성화된다.
인트라예측부(442)는 복호화부(410)로부터 추출된 인트라 예측 모드에 대한 신택스 요소를 이용하여 복수의 인트라 예측 모드 중 현재 블록의 인트라 예측 모드를 결정하고, 인트라 예측 모드에 따라 현재 블록 주변의 참조 픽셀들을 이용하여 현재 블록을 예측한다.
인터예측부(444)는 복호화부(410)로부터 추출된 인터 예측 모드에 대한 신택스 요소를 이용하여 현재 블록의 움직임벡터와 그 움직임벡터가 참조하는 참조 픽처를 결정하고, 움직임벡터와 참조 픽처를 통해 현재 블록을 예측한다.
전술된 바와 같이, 본 발명은 360도 영상을 변환한 2D 이미지의 일부 영역이 이 2D 이미지의 다른 영역과 실제 360도 영상에서 동일한 영역에 해당하는 사실에 착안하여, 360도 영상에 대한 현재 블록의 예측을 더욱 정확하고 효율적으로 구현하는 발명에 해당한다. 이러한 본 발명의 기술적 특징에 대해서는 후술하도록 한다.
가산기(450)는 역변환부(430)로부터 출력되는 잔차 블록과 인터 예측부(444) 또는 인트라 예측부(442)로부터 출력되는 예측 블록을 가산하여 현재 블록을 복원한다. 복원된 현재 블록 내의 픽셀들은 이후에 복호화할 블록의 인트라 예측을 위한 참조 픽셀로 활용된다.
필터부(460)는 디블록킹 필터(462) 및 SAO 필터(464)를 포함한다. 디블록킹 필터(462)는 복원된 블록 간의 경계를 디블록킹 필터링하여 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거한다.
SAO 필터(464)는, 손실 부호화(lossy coding)으로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다.
디블록킹 필터(462) 및 SAO 필터(464)를 통해 필터링된 복원 블록은 메모리(470)에 저장되고, 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.
도 5는 본 개시의 기술들을 구현할 수 있는 인터예측부(444)의 예시적인 블록도이며, 도 6은 인터예측부(444)가 현재 블록(30)을 예측하는 방법을 설명하기 위한 순서도이고, 도 7은 인터예측부(444)가 현재 블록(30)을 예측하는 본 발명의 일 실시예를 설명하기 위한 도면이다.
이하에서는, 도 5 내지 도 7을 참조하여 360도 영상에 대한 현재 블록(30)의 예측을 더욱 정확하고 효율적으로 구현하는 본 발명의 기술적 특징에 대하여 상세히 설명하도록 한다.
종래 영상 복호화 장치는 현재 블록의 움직임 벡터가 지시하는 참조 블록의 일부 또는 전부 영역(이하 '외부 영역'이라 지칭한다)이 참조 픽처의 외부에 위치하는 경우, 참조 픽처의 경계(boundary) 또는 최외각에 위치하는 샘플들 중 외부 영역과 가장 인접하게 위치하는 샘플들로 외부 영역의 샘플들을 대체(padding)하는 방법을 통해 참조 샘플을 획득한다.
그러나, 이 방법은 참조 픽처의 영역을 외부 영역까지 확장하는 것이므로 추가적인 메모리 리소스가 요구되며, 참조 픽처 내 최외각에 위치하는 샘플들을 이용하여 외부 영역의 샘플들을 근사하는 것이므로 움직임 보상에 대한 정확성을 저하시킬 수 있다.
한편, 360도 영상은 2D 이미지로 투영되고, 이 2D 이미지는 전술된 영상 부호화 장치에 의해 부호화되어 영상 복호화 장치로 전달된다. 영상 복호화 장치는 부호화된 2D 이미지를 복호화한 후, 투영 포맷에 따라 이를 다시 360도 영상으로 복원한다. 2D 이미지에서 서로 떨어져 있는 픽셀들은 360도 영상을 기준으로 보면 서로 인접해 있을 수 있다. 이하에서는 이러한 360도 영상의 특징을 이용하여 참조 픽처 내에 위치하지 않는 외부 영역에 대한 보다 효율적인 인터 예측 방법을 제시한다.
도 5에 도시된 바와 같이, 인터예측부(444)는 움직임유도부(444-1), 샘플획득부(444-3), 이너(inner)예측부(444-5), 움직임조정부(444-7) 및 관계지시부(444-9)를 포함하여 구성될 수 있다.
도 7 (a)는 복호화 대상인 현재 픽처(20)와 이 현재 픽처(20)에 포함된 예측 대상인 현재 블록(30)을 나타내며, 도 7 (b)는 참조 픽처(40) 내 현재 블록(30)의 움직임 벡터(실선 화살표)와 이 움직임 벡터가 지시하는 참조 블록(50)을 나타내고, 도 7 (c)는 참조 블록(50) 중 참조 픽처(40) 내부에 위치하는 영역(53), 참조 픽처(40) 외부에 위치하는 영역(51) 및 이와 대응되는 영역인 대응 영역(61)을 나타낸다.
본 발명에서 언급되는 현재 픽처(20)와 참조 픽처(40)는 3차원 구조의 360도 영상을 Equirectangular Projection(ERP) 포맷, Cube Map Projection(CMP) 포맷, Icosahedral Projection(ISP) 포맷 등 다양한 형태의 2차원 포맷으로 변환한 픽처에 해당한다.
이하에서는, 설명과 이해의 편의를 위해, 3차원 구조의 360도 영상을 2차원의 ERP 포맷으로 변환한 현재 픽처(20)와 참조 픽처(40)를 중심으로 하여 본 발명에 대해 설명하도록 한다.
먼저, 도 7 (a)에 도시된 바와 같이, 복호화 대상인 현재 픽처(20)에 예측 대상인 현재 블록(30)이 포함된 상태에서, 움직임유도부(444-1)는 영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재 블록(30)의 움직임 벡터를 유도한다(S610).
Skip 모드 또는 Merge 모드의 경우, 움직임유도부(444-1)는 주변 블록의 움직임 정보 후보들 중 어느 하나에 대한 인덱스 값에 해당하는 merge_idx 값을 이용하여 현재 블록(30)의 움직임 벡터(도 7의 실선 화살표)를 유도할 수 있다.
Amvp 모드의 경우, 움직임유도부(444-1)는 주변 블록들의 움직임 정보 값들을 통해 얻은 예측 움직임 벡터(mvp)와 복호화부(410)에서 복호화된(영상 부호화 장치로부터 전송된) 차분 움직임 벡터(mvd)를 합산하여 현재 블록(30)의 움직임 벡터를 유도할 수 있다.
움직임 벡터가 유도되면, 샘플획득부(444-3)는 움직임 벡터가 지시하는 참조 블록인 제1참조블록(50)의 참조 샘플을 획득한다(S640).
도 7에 도시된 바와 같이, 제1참조블록(50)은 참조 픽처(40)의 외부에 위치하는 외부 영역(51)과 참조 픽처(40)의 내부에 위치하는 내부 영역(53)으로 구성될 수 있다.
이와 같은 경우, 샘플획득부(444-3)는 360도 영상을 ERP 포맷으로 변환한 참조 픽처(40)의 우측 경계가 이 참조 픽처(40)의 좌측 경계와 360도 영상에서 상호 맞닿아 있는 점에 착안하여, 외부 영역(51)에 해당하는 참조 샘플을 참조 픽처(40) 내 다른 영역으로부터 획득하도록 구성될 수 있다.
구체적으로, 샘플획득부(444-3)는 내부 영역(53)에 해당하는 참조 샘플을 내부 영역(53) 자체로부터 획득하며, 외부 영역(51)에 해당하는 참조 샘플을 참조 픽처(40)의 내부 중 외부 영역(51)과 대응되는 영역인 대응 영역(61)으로부터 획득할 수 있다. 여기서, 외부 영역(51)과 대응 영역(61)은 360도 영상의 3차원 구조를 기준으로 상호 동일한 영역에 해당한다.
도 7에는 외부 영역(51)이 제1참조블록(50)의 일부에 해당하는 경우만이 표현되어 있으나, 앞서 설명된 바와 같이, 본 발명은 외부 영역(51)이 제1참조블록(50)의 전체에 해당하는 경우(제1참조블록(50)의 전체 영역이 참조 픽처(40)의 외부에 위치하는 경우)에도 적용될 수 있다.
본 발명이 움직임 보상을 위해 k(k는 자연수)-tap 보간(interpolation) 필터를 사용하는 경우, 참조 샘플이 획득되는 내부 영역(53)과 대응 영역(61)은 도 7에 실선으로 표현된 영역보다 가로 방향을 기준으로 k만큼, 세로 방향을 기준으로 k만큼 확장된 영역일 수 있다.
즉, 샘플획득부(444-3)는 내부 영역(53)으로부터 참조 샘플을 획득하는 경우 도 7에 도시된 내부 영역(53)의 좌측, 상측 및 하측 외곽으로부터 각각 k/2만큼 확장된 영역에서 참조 샘플을 획득할 수 있으며, 대응 영역(61)으로부터 참조 샘플을 획득하는 경우 도 7에 도시된 대응 영역(61)의 우측, 상측 및 하측 외곽으로부터 각각 k/2만큼 확장된 영역에서 참조 샘플을 획득할 수 있다.
내부 영역(53)과 대응 영역(61)을 확장할지 여부는 움직임 벡터의 해상도를 통해 결정할 수 있다. 예를 들어, 움직임 벡터의 소수 부분이 0인 경우에 내부 영역(53)과 대응 영역(61)을 확장하지 않고, 움직임 벡터의 소수 부분이 0인 아닌 경우에 내부 영역(53)과 대응 영역(61)을 확장할 수 있다.
따라서, 내부 영역(53) 또는 대응 영역(61)으로부터 참조 샘플을 획득하는 이하의 설명은 내부 영역(53) 또는 대응 영역(61) 자체로부터 참조 샘플을 획득하는 것과 내부 영역(53) 또는 대응 영역(61)보다 k만큼 확장된 영역으로부터 참조 샘플을 획득하는 것 모두를 포함하는 것으로 이해되어야 한다.
도 7에 도시된 바와 같이, 대응 영역(61)은 제1참조블록(50)을 ERP width 혹은 참조 픽처(40)의 너비만큼 좌측으로 이동시키고, 이동된 위치의 제1참조블록(50) 중 참조 픽처(40) 내부에 위치하는 영역을 선별하는 방법을 통해 탐색될 수 있다.
여기서, ERP width는 일반적으로 참조 픽처(40)의 너비, 복원 픽처의 너비 또는 복호화 대상 픽처의 너비와 동일하다. 다만, ERP 원본 픽처의 너비(w)에 일정 영역(α)을 덧붙여 부호화하는 경우, ERP width는 ERP 원본 픽처의 너비(w)와 동일하며, 복호화 대상 픽처의 너비, 복원 픽처의 너비 및 참조 픽처(40)의 너비는 (w + α)와 동일하다.
이와 같은 경우, 제1참조블록(50)을 참조 픽처(40)의 너비(w + α)가 아닌, ERP width(w)만큼 좌측으로 이동시키고, 이동된 위치의 제1참조블록(50) 중 참조 픽처(40) 내부에 위치하는 영역을 선별하는 방법을 통해 대응 영역(61)이 탐색되어야 한다.
내부 영역(53)과 대응 영역(61)으로부터 제1참조블록(50)의 참조 샘플이 획득되면, 이너예측부(444-5)는 획득된 참조 샘플을 기반으로 현재 블록(30)을 예측할 수 있다(현재 블록의 예측 블록을 생성할 수 있다)(S650).
이와 같이, 본 발명은 외부 영역(51)과 동일한 영역에 해당하는 대응 영역(61)으로부터 외부 영역(51)에 해당하는 참조 샘플을 획득하도록 구성되므로 현재 블록(30)의 예측에 대한 정확성을 향상시킬 수 있다.
도 8은 움직임 벡터를 조정하는 본 발명의 실시예를 설명하기 위한 도면이다. 이하에서는 도 5, 도 6 및 도 8을 참조하여 움직임 벡터를 조정함으로써 대응 영역(61)의 탐색을 더욱 효율적으로 구현할 수 있는 본 발명의 기술적 특징에 대하여 설명하도록 한다.
도 8 (A)는 움직임 벡터가 참조 픽처(40)의 우측 외부를 지시하는 경우에 대한 도면이며, 도 8 (B)는 움직임 벡터가 참조 픽처(40)의 좌측 외부를 지시하는 경우에 대한 도면이다.
도 8 (A)에 표현된 바와 같이, 현재 블록(30)의 움직임 벡터(실선 화살표)가 참조 픽처(40)의 우측 외부를 지시하는 경우, 이 움직임 벡터가 지시하는 제1참조블록(50)의 전체 영역이 참조 픽처(40)의 외부에 위치하게 된다. 즉, 움직임 벡터가 참조 픽처(40)의 우측 외부를 지시하면, 제1참조블록(50)은 내부 영역 없이 외부 영역(51)으로만 구성되게 된다.
이와 같은 경우, 인터예측부(444)는 움직임 벡터가 참조 픽처(40)의 내부를 지시하도록 움직임 벡터 자체를 조정하는 과정(MV wrapping)을 더 수행하도록 구성될 수 있으며(S620), MV wrapping 과정은 인터예측부(444)의 하위 구성인 움직임조정부(444-7)에서 수행될 수 있다.
이하에서는 제1참조블록(50)을 지시하는 움직임 벡터와 MV wrapping 과정을 통해 조정된 움직임 벡터 상호 간을 구별하기 위하여, 제1참조블록(50)을 지시하는 움직임 벡터를 '제1움직임 벡터'로 지칭하고, MV wrapping 과정을 통해 조정된 움직임 벡터를 '제2움직임 벡터(점선 화살표)'로 지칭하도록 한다.
또한, 제1움직임 벡터가 지시하는 참조 블록을 제1참조블록(50)으로 설명하였으므로, 제1 및 제2움직임 벡터의 명칭 구분과 동일한 관점에서, 제2움직임 벡터가 지시하는 참조 블록을 제2참조블록(60)이라 지칭하도록 한다.
제1움직임 벡터가 지시하는 참조 픽처의 외부 지점(제1참조블록(50)의 특정 포인트)과 제2움직임 벡터가 지시하는 참조 픽처의 내부 지점(제2참조블록(60)의 특정 포인트)은 360도 영상의 3차원 구조를 기준으로 상호 동일한 지점에 해당하며, 제2움직임 벡터가 지시하는 제2참조블록(60)은 360도 영상의 3차원 구조를 기준으로 제1참조블록(50)과 동일한 영역에 해당한다.
도 8 (A)에 표현된 바와 같이, 제1참조블록(50) 전체가 참조 픽처(40)의 외부에 위치하는 것(제1참조블록이 외부 영역만으로 이루어지는 것)에 대응하여, 제2참조블록(60) 전체가 참조 픽처(40)의 내부에 위치한다(제2참조블록이 대응 영역만으로 이루어짐).
이와 같은 상태에서, 샘플획득부(444-3)는 제1참조블록(50)에 해당하는 참조 샘플을 제2참조블록(60)으로부터 획득한다(S640). 이와 같이, 인터예측부(444)는 MV wrapping 과정을 통해 참조 픽처(40) 외부에 위치하는 외부 영역(51)을 360 구조 상에서 외부 영역(51)과 동일한 영역에 해당하는 대응 영역(61)으로 대체할 수 있게 된다.
도 8 (A)의 예시에서, 영상 부호화 장치는 참조 픽처(40) 내부에 위치한 제2참조블록(60)을 지시하는 움직임 벡터(제2움직임 벡터)를 직접적으로 부호화할 수 있다.
그러나, 제2움직임 벡터보다 제1참조블록(50)을 지시하는 움직임 벡터(제1움직임 벡터)를 부호화하는 데 더욱 작은 비트가 요구되므로, 움직임 벡터에 대한 부호화 효율 관점에서 제1움직임 벡터를 부호화하는 것이 더욱 효율적일 수 있다.
따라서, 영상 부호화 장치가 부호화하는 움직임 벡터(제1움직임 벡터)가 참조 픽처(40)의 외부를 지시하는 경우, 영상 복호화 장치는 상술된 MV wrapping 과정을 통해 참조 픽처(40) 내부를 지시하는 움직임 벡터(제2움직임 벡터)를 획득할 수 있고, 제2움직임 벡터가 지시하는 참조 블록 즉, 제2참조블록(60)을 획득할 수 있다.
도 8 (B)는 제1움직임 벡터가 참조 픽처(40)의 외부를 지시하고, 제1참조블록(50)의 일부만이 참조 픽처(40)를 벗어나는 경우를 설명하는 예시도이다.
도 8 (B)에 표현된 바와 같이, 제1움직임 벡터가 참조 픽처(40)의 좌측 외부를 지시하는 경우, 이 제1움직임 벡터가 지시하는 제1참조블록(50)의 전체 또는 일부 영역이 참조 픽처(40)의 외부에 위치하게 된다.
즉, 제1움직임 벡터가 참조 픽처(40)의 좌측 외부를 지시하면, 제1참조블록(50)은 전체가 외부 영역(51)으로 구성되거나 각각 일정한 크기의 면적을 가지는 내부 영역(53)과 외부 영역(51)으로 구성될 수 있다.
이와 같이, 제1움직임 벡터가 참조 픽처(40)의 좌측 외부를 지시하는 경우, 움직임조정부(444-7)는 MV wrapping 과정을 수행하여 제1움직임 벡터를 참조 픽처(40)의 내부를 지시하는 제2움직임 벡터로 조정할 수 있다(S620).
도 8 (A)에서 설명된 바와 같이, 제1움직임 벡터가 지시하는 참조 픽처(40)의 외부 지점(제1참조블록(50)의 특정 포인트)과 제2움직임 벡터가 지시하는 참조 픽처(40)의 내부 지점(제2참조블록(60)의 특정 포인트)은 360도 영상의 3차원 구조를 기준으로 상호 동일한 지점에 해당한다.
또한, 제2움직임 벡터가 지시하는 참조 블록인 제2참조블록(60)은 360도 영상의 3차원 구조를 기준으로 제1참조블록(50)과 동일한 영역에 해당하며, 대응 영역(61)은 이 제2참조블록(60)의 내부에 위치한다.
제1참조블록(50)이 각각 일정한 면적을 가지는 외부 영역(51)과 내부 영역(53)으로 구성되는 경우(도 8 (B)), 제2참조블록(60)은 각각 일정한 면적을 가지는 대응 영역(61)과 나머지 영역(63)으로 구성된다. 이하에서는, 제2참조블록(60)을 구성하는 나머지 영역(63)을 비대응 영역(63)이라고 지칭하도록 한다.
이와 같은 상태에서, 샘플획득부(444-3)는 제2참조블록(60)의 대응 영역(61)으로부터 외부 영역(51)에 해당하는 참조 샘플을 획득한다. 환언하면, 인터예측부(444)는 MV wrapping 과정을 통해 참조 픽처(40) 외부에 위치하는 외부 영역(51)을 이 영역과 동일한 영역에 해당하는 대응 영역(61)으로 대체할 수 있게 된다.
ERP 원본 픽처의 너비(w)에 일정 영역(α)을 덧붙여 부호화하는 경우, 참조 픽처(40)의 너비는 ERP width(w)가 아닌, (w + α)으로 확장되게 되므로, 제2참조블록(60)의 비대응 영역(63)은 참조 픽처(40)의 외부가 아닌, 내부에 위치할 수 있다.
이와 같은 경우, 샘플획득부(444-3)는 제1참조블록(50)의 외부 영역(51)에 해당하는 참조 샘플을 제2참조블록(60)의 대응 영역(61)으로부터 획득하고, 제1참조블록(50)의 내부 영역(53)에 해당하는 참조 샘플을 참조 픽처(40)의 내부에 위치하는 비대응 영역(63)으로부터 획득할 수 있다.
이와 같이, 인터예측부(444)가 MV wrapping 과정을 더 수행하도록 구성되면, 움직임 벡터의 조정이라는 단일 번의 프로세싱을 통해 대응 영역(61)의 위치를 지시할 수 있게 되므로 인터 예측에 소요되는 시간과 메모리 리소스에 대한 효율성을 더욱 향상시킬 수 있다.
전술된 실시예는 인터예측부(444)에서 MV wrapping 과정을 자체적으로 수행하는 실시예에 해당한다. 즉, 전술된 실시예는 인터예측부(444)가 360 구조 상 제1움직임 벡터와 동일한 지점을 지시하는 제2움직임 벡터를 탐색 또는 연산하고, 그 결과를 기초로 제1움직임 벡터를 제2움직임 벡터로 조정하는 실시예에 해당한다.
이상에서 설명된 실시예에서는 제1움직임 벡터가 참조 픽처(40)의 외부를 지시하는 경우에 한하여 MV wrapping 과정이 수행되는 것으로 기술되었으나, 실시형태에 따라 인터예측부(444)는 제1움직임 벡터가 참조 픽처(40)의 내부를 지시하는 경우에도 MV wrapping 과정을 수행하도록 구성될 수 있다.
도 9 내지 도 11은 제1참조블록(50)과 제2참조블록(60) 사이의 방향 관계에 따라 참조 샘플을 획득하는 본 발명의 다양한 실시예를 설명하기 위한 도면이다. 이하에서는, 도 9 내지 도 11을 참조하여 제1참조블록(50)과 제2참조블록(60) 사이의 방향 관계를 지시하고, 지시된 방향 관계를 기준으로 참조 샘플을 획득하는 본 발명의 기술적 특징에 대하여 설명하도록 한다.
제1참조블록(50) 내의 참조 샘플들(제1참조샘플)에 대응하는 제2참조블록(60) 내의 참조 샘플들(제2참조샘플)은 제1참조샘플과는 다른 방향으로 배열될 수 있다. 제1참조블록(50)과 제2참조블록(60) 사이의 방향 관계란, 제1참조샘플의 배열과 비교하여, 제2참조샘플들이 배열되는 방향을 의미한다.
도 9 (a)에 도시된 3차원 구(sphere) 형태의 360도 영상을 분할하면, 도 9 (b)에 도시된 2차원의 ERP 포맷을 가지는 참조 픽처(40)로 변환된다. 3차원 구 형태를 기준으로 판단하면, 참조 픽처(40)의 상측은 서로 맞닿아 있으므로 y3라인에 해당하는 실선 픽셀 1 내지 8은 y2라인에 해당하는 실선 픽셀 5 내지 4 각각과 동일한 픽셀에 해당하게 된다.
또한, y4라인에 해당하는 점선 픽셀 1 내지 8은 y1라인에 해당하는 점선 픽셀 5 내지 4 각각과 동일한 픽셀에 해당하게 된다. 참조 픽처(40)의 하측 또한, 이와 동일한 특성 또는 성질을 가진다.
이와 같은 상태에서, 제1참조블록(50)이 y1라인의 점선 픽셀 5 내지 7, y2라인의 실선 픽셀 5 내지 7, y3라인의 실선 픽셀 1 내지 3 및 y4라인의 점선 픽셀 1 내지 3으로 구성되는 경우, y1라인의 점선 픽셀 5 내지 7과 y2라인의 실선 픽셀 5 내지 7이 외부 영역(51)에 해당하게 되고, 이에 대응되는 대응 영역(61)은 y3라인의 실선 픽셀 5 내지 7과 y4라인의 점선 픽셀 5 내지 7로 이루어진다.
또한, 외부 영역(51)을 포함하는 제1참조블록(50)과 대응 영역(61)을 포함하는 제2참조블록(60)은 참조 픽처(40)의 세로 방향을 기준으로 상호 반대의 방향 관계를 가진다.
즉, 외부 영역(51)에 포함된 참조 샘플의 배열 방향과 대응 영역(61)에 포함된 참조 샘플의 배열 방향은 참조 픽처(40)의 세로 방향을 기준으로 상호 역방향의 관계를 가진다.
따라서, 참조 픽처(40)의 상단 외부 또는 하단 외부에 위치하는 외부 영역(51)의 참조 샘플을 획득하는 경우, 제1참조블록(50)의 방향(외부 영역에 포함된 참조 샘플이 배열된 방향)과 반대 방향으로 참조 샘플을 획득해야 한다.
본 발명은 이러한 점에 착안하여, 제1참조블록(50)과 제2참조블록(60) 사이의 방향 관계를 지시하는 관계지시부(444-9)를 추가적으로 포함함으로써, 지시된 방향 관계에 따라 대응 영역(61)으로부터 참조 샘플을 획득하도록 구성될 수 있다.
도 10은 제1참조블록(50)의 전부 또는 일부가 참조 픽처(40)의 상단 외부에 위치하는 경우, 지시된 방향 관계에 따라 대응 영역(61)으로부터 참조 샘플을 획득하는 본 발명의 실시예를 설명하기 위한 도면이다.
도 10 (A)는 제1참조블록(50)의 일부(외부 영역)가 참조 픽처(40)의 상단 외부에 위치하는 경우를 나타내며, 도 10 (B)는 제1참조블록(50)의 전부(외부 영역)가 참조 픽처(40)의 상단 외부에 위치하는 경우를 나타낸다.
두 경우 모두에서, 제1움직임 벡터가 참조 픽처(40)의 내부를 지시하도록 조정될 수 있으며, 관계지시부(444-9)는 조정된 움직임 벡터(제2움직임 벡터)가 지시하는 제2참조블록(60)과 제1참조블록(50)이 역방향 관계를 가짐을 지시한다.
샘플획득부(444-3)는 내부 영역(53)의 참조 샘플을 내부 영역(53) 자체로부터 획득하며, 외부 영역(51)의 참조 샘플을 대응 영역(61)으로부터 획득한다.
이 경우, 샘플획득부(444-3)는 관계지시부(444-9)가 지시하는 방향 관계에 따라, 참조 픽처(40)의 세로 방향을 기준으로 외부 영역(51)에 해당하는 참조 샘플이 배열된 방향과 반대 방향으로 대응 영역(61)의 참조 샘플을 획득한다.
MV wrapping 과정이 수행되지 않는 전술된 실시예의 경우, 관계지시부(444-9)는 360 구조 상 제1참조블록(50)과 동일한 영역에 해당하는 제2참조블록(60) 및 제1참조블록(50) 사이의 방향 관계를 지시하고, 샘플획득부(444-3)는 외부 영역(51)에 해당하는 참조 샘플을 대응 영역(61)으로부터 획득하도록 구성될 수 있다.
도 11은 제1참조블록(50)의 전부 또는 일부가 참조 픽처(40)의 하단 외부에 위치하는 경우, 지시된 방향 관계에 따라 대응 영역(61)으로부터 참조 샘플을 획득하는 본 발명의 실시예를 설명하기 위한 도면이다.
도 11 (A)는 제1참조블록(50)의 일부(외부 영역)가 참조 픽처(40)의 하단 외부에 위치하는 경우를 나타내며, 도 11 (B)는 제1참조블록(50)의 전부(외부 영역)가 참조 픽처(40)의 하단 외부에 위치하는 경우를 나타낸다.
두 경우 모두에서 참조 픽처(40)의 내부를 지시하도록 제1움직임 벡터가 조정(MV wrapping)되거나, 전술된 바와 같이 제1움직임 벡터가 참조 픽처(40)의 외부를 지시하는 경우(도 11 (B))에 한하여 제1움직임 벡터가 조정될 수 있다.
두 경우 모두에서, 관계지시부(444-9)는 제2참조블록(60)과 제1참조블록(50)이 역방향 관계를 가짐을 지시하고, 샘플획득부(444-3)는 내부 영역(53)의 참조 샘플을 내부 영역(53) 자체로부터 획득하며, 외부 영역(51)의 참조 샘플을 대응 영역(61)으로부터 획득한다.
이 경우, 샘플획득부(444-3)는 관계지시부(444-9)가 지시하는 방향 관계에 따라, 참조 픽처(40)의 세로 방향을 기준으로 외부 영역(51)에 해당하는 참조 샘플이 배열된 방향과 반대 방향으로 대응 영역(61)의 참조 샘플을 획득한다.
MV wrapping 과정이 수행되지 않는 전술된 실시예의 경우, 관계지시부(444-9)는 360 구조 상 제1참조블록(50)과 동일한 영역에 해당하는 제2참조블록(60)과 제1참조블록(50) 사이의 방향 관계를 지시하고, 샘플획득부(444-3)는 외부 영역(51)에 해당하는 참조 샘플을 대응 영역(61)으로부터 획득하도록 구성될 수 있다.
도 12는 본 발명이 다른 포맷을 가지는 참조 픽처(40)에 적용되는 실시예를 설명하기 위한 도면이다. 이하에서는, 360도 영상을 CMP 포맷으로 변환한 참조 픽처(40)를 중심으로 본 발명이 적용되는 실시예에 대해 설명하도록 한다.
전술된 바와 같이, 참조 픽처(40)는 3차원 구조의 360도 영상을 ERP 포맷, CMP 포맷, ISP 포맷 등 다양한 형태의 2차원 포맷으로 변환한 픽처에 해당할 수 있다. 이러한 다양한 형태의 포맷들 중 CMP 포맷으로 변환된 픽처가 도 12에 도시되어 있다.
CMP 포맷의 참조 픽처(40)는 우측 면(right face), 정면(front face), 좌측 면(left face), 바닥 면(bottom face), 후면(back face) 및 상부 면(top face) 등 총 6개의 면으로 구성될 수 있다.
또한, 도 12에 도시된 바와 같이, 우측 면, 정면 및 좌측면으로 구성되는 그룹 1과 바닥 면, 후면 및 상부 면으로 구성되는 그룹 2는 서로 다른 방향으로 배열되며, 이러한 배열 관계에 따라 각 면에 포함된 참조 샘플들 또한, 서로 다른 방향으로 배열되게 된다.
먼저, 움직임유도부(444-1)는 영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재 블록(30)의 움직임 벡터(제1움직임 벡터, 실선 화살표)를 유도하고, 샘플획득부(444-3)는 제1참조블록(50)의 참조 샘플을 획득한다.
실시형태에 따라, 참조 샘플을 획득하기 전 단계에서, 360도 영상의 3차원 구조를 기준으로 제1참조블록(50)과 동일한 영역에 해당하는 제2참조블록(60)을 지시하도록 제1움직임 벡터를 조정하는 과정이 수행될 수 있다.
샘플획득부(444-3)는 제1참조블록(50) 중 내부 영역(53)에 해당하는 참조 샘플을 내부 영역(53) 자체로부터 획득하고, 외부 영역(51)에 해당하는 참조 샘플을 제2참조블록(60)에 포함된 대응 영역(61)으로부터 획득한다.
실시형태에 따라, 관계지시부(444-9)가 그룹 1과 그룹 2 사이의 방향 관계를 지시하고, 샘플획득부(444-3)가 지시된 방향 관계에 따라 대응 영역(61)으로부터 외부 영역(51)에 해당하는 참조 샘플을 획득하도록 구성될 수 있다.
도 12에 도시된 바와 같이, 외부 영역(51)의 픽셀들은 참조 픽처(40)의 세로 방향을 기준으로 아래 방향으로 배열되며, 외부 영역(51)의 실선 픽셀과 점선 픽셀은 참조 픽처(40)의 가로 방향을 기준으로 우측 방향으로 배열된다. 이와 달리, 대응 영역(61)의 픽셀들은 참조 픽처(40)의 가로 방향을 기준으로 우측 방향으로 배열되며, 대응 영역(61)의 실선 픽셀과 점선 픽셀은 참조 픽처(40)의 세로 방향을 기준으로 아래 방향으로 배열된다.
또한, 상기와 같은 픽셀들 사이의 방향 관계는 외부 영역(51)과 대응 영역(61) 사이의 방향 관계에 그대로 반영 또는 적용되며, 이에 더 나아가 제1참조블록(50)과 제2참조블록(60) 사이의 방향 관계에 그대로 반영 또는 적용된다.
따라서, 관계지시부(444-9)는 상기와 같은 외부 영역(제1참조블록)과 대응 영역(제2참조블록) 사이의 방향 관계를 지시하고, 샘플획득부(444-3)는 지시된 방향 관계에 따라 대응 영역(61)의 픽셀들을 획득할 수 있다.
이와 같이, 외부 영역(51)의 참조 샘플을 대응 영역(61)으로부터 획득하고, 움직임 벡터를 조정하며, 참조 블록(50, 60) 사이의 방향 관계에 따라 참조 샘플을 획득하는 본 발명의 기술적 특징은 특정 projection 포맷에 한정되지 않고, 다양한 projection 포맷에 적용 가능하다. 따라서, 본 발명은 적용 가능성 측면에서 충분히 넓은 범용성을 가질 수 있다.
본 발명의 모든 실시예에서는 단 방향 예측에 따른 하나의 예측 블록을 생성하는 것으로 언급하였으나, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면, 단 방향 예측을 두 번 실행하여 두 개의 예측 블록을 생성함으로써 양 방향 예측을 수행할 수 있다.
도 6에서는 과정 S610 내지 과정 S650을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 6에 기재된 순서를 변경하여 실행하거나 과정 S610 내지 과정 S650 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 6은 시계열적인 순서로 한정되는 것은 아니다.
한편, 도 6에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
410: 복호화부 420: 역양자화부
430: 역변환부 440: 예측부
442: 인트라 예측부 444: 인터 예측부
444-1: 움직임 유도부 444-3: 샘플 획득부
444-5: 이너 예측부 444-7: 움직임 조정부
444-9: 관계 지시부 450: 가산기
460: 필터

Claims (10)

  1. 영상 복호화 장치에서 수행되는 360도 영상의 인터(Inter) 예측 방법으로서,
    영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재블록의 움직임 벡터를 유도하는 단계;
    상기 움직임 벡터가 지시하는 제1참조블록의 참조 샘플을 획득하되, 상기 제1참조블록 중 참조 픽처의 외부에 위치하는 외부 영역의 참조 샘플을 상기 외부 영역과 대응되는 상기 참조 픽처 내 영역인 대응 영역으로부터 획득하는 단계; 및
    상기 획득된 참조 샘플을 기반으로 상기 현재블록을 예측하는 단계를 포함하고,
    상기 외부 영역과 상기 대응 영역은 상기 360도 영상의 3차원 구조를 기준으로 상호 동일한 영역에 해당하는 것을 특징으로 하는 360도 영상의 인터 예측 방법.
  2. 제1항에 있어서,
    상기 움직임 벡터를 유도하는 단계 후, 상기 360도 영상의 3차원 구조를 기준으로 상기 제1참조블록과 동일한 영역에 해당하는 제2참조블록을 지시하도록 상기 움직임 벡터를 조정하는 단계를 더 포함하고,
    상기 대응 영역은,
    상기 제2참조블록에 포함된 영역인 것을 특징으로 하는 360도 영상의 인터 예측 방법.
  3. 제2항에 있어서, 상기 움직임 벡터를 조정하는 단계는,
    상기 움직임 벡터가 상기 참조 픽처의 외부를 지시하는 경우, 상기 움직임 벡터를 조정하는 것을 특징으로 하는 360도 영상의 인터 예측 방법.
  4. 제1항에 있어서,
    상기 움직임 벡터를 유도하는 단계 후, 상기 제1참조블록과 제2참조블록 사이의 방향 관계를 지시하는 단계를 더 포함하고,
    상기 제2참조블록은,
    상기 360도 영상의 3차원 구조를 기준으로 상기 제1참조블록과 동일한 영역에 해당하되, 상기 대응 영역을 포함하며,
    상기 참조 샘플을 획득하는 단계는,
    상기 지시된 방향 관계에 따라, 상기 대응 영역으로부터 참조 샘플을 획득하는 것을 특징으로 하는 360도 영상의 인터 예측 방법.
  5. 제4항에 있어서,
    상기 참조 픽처는,
    상기 3차원 구조의 360도 영상에 대한 equirectangular projection 포맷이며,
    상기 지시하는 단계는,
    상기 외부 영역이 상기 참조 픽처의 상단 외부 또는 하단 외부에 위치하는 경우, 상기 제1참조블록과 상기 제2참조블록이 상기 참조 픽처의 세로 방향을 기준으로 상호 역방향 관계임을 지시하고,
    상기 참조 샘플을 획득하는 단계는,
    상기 참조 픽처의 세로 방향을 기준으로, 상기 외부 영역의 참조 샘플이 배열된 방향과 반대 방향으로 상기 대응 영역의 참조 샘플을 획득하는 것을 특징으로 하는 360도 영상의 인터 예측 방법.
  6. 영상 복호화 장치로서,
    영상 부호화 장치로부터 전송된 움직임 정보에 기초하여 현재블록의 움직임 벡터를 유도하는 움직임유도부;
    상기 움직임 벡터가 지시하는 제1참조블록의 참조 샘플을 획득하되, 상기 제1참조블록 중 360도 영상을 2차원 구조로 변환한 참조 픽처의 외부에 위치하는 외부 영역의 참조 샘플을 상기 외부 영역과 대응되는 상기 참조 픽처 내 영역인 대응 영역으로부터 획득하는 샘플획득부; 및
    상기 획득된 참조 샘플을 기반으로 상기 현재블록을 예측하는 이너(inner)예측부를 포함하고,
    상기 외부 영역과 상기 대응 영역은 상기 360도 영상의 3차원 구조를 기준으로 상호 동일한 영역에 해당하는 것을 특징으로 하는 영상 복호화 장치.
  7. 제6항에 있어서,
    상기 360도 영상의 3차원 구조를 기준으로 상기 제1참조블록과 동일한 영역에 해당하는 제2참조블록을 지시하도록 상기 움직임 벡터를 조정하는 움직임조정부를 더 포함하고,
    상기 대응 영역은,
    상기 제2참조블록에 포함된 영역인 것을 특징으로 하는 영상 복호화 장치.
  8. 제7항에 있어서, 상기 움직임조정부는,
    상기 움직임 벡터가 상기 참조 픽처의 외부를 지시하는 경우, 상기 움직임 벡터를 조정하는 것을 특징으로 하는 영상 복호화 장치.
  9. 제6항에 있어서,
    상기 제1참조블록과 제2참조블록 사이의 방향 관계를 지시하는 관계지시부를 더 포함하고,
    상기 제2참조블록은,
    상기 360도 영상의 3차원 구조를 기준으로 상기 제1참조블록과 동일한 영역에 해당하되, 상기 대응 영역을 포함하며,
    상기 샘플획득부는,
    상기 지시된 방향 관계에 따라, 상기 대응 영역으로부터 참조 샘플을 획득하는 것을 특징으로 하는 영상 복호화 장치.
  10. 제9항에 있어서,
    상기 참조 픽처는,
    상기 3차원 구조의 360도 영상에 대한 equirectangular projection 포맷이며,
    상기 관계지시부는,
    상기 외부 영역이 상기 참조 픽처의 상단 외부 또는 하단 외부에 위치하는 경우, 상기 제1참조블록과 상기 제2참조블록이 상기 참조 픽처의 세로 방향을 기준으로 상호 역방향 관계임을 지시하고,
    상기 샘플획득부는,
    상기 참조 픽처의 세로 방향을 기준으로, 상기 외부 영역의 참조 샘플이 배열된 방향과 반대 방향으로 상기 대응 영역의 참조 샘플을 획득하는 것을 특징으로 하는 영상 복호화 장치.
KR1020180142487A 2018-06-11 2018-11-19 360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치 KR20190140387A (ko)

Priority Applications (12)

Application Number Priority Date Filing Date Title
KR1020190065415A KR20190140399A (ko) 2018-06-11 2019-06-03 인터 예측 방법 및 영상 복호화 장치
CN201980047008.4A CN112425174A (zh) 2018-06-11 2019-06-05 帧间预测方法和图像解码装置
PCT/KR2019/006796 WO2019240425A1 (ko) 2018-06-11 2019-06-05 인터 예측 방법 및 영상 복호화 장치
US17/251,315 US11425391B2 (en) 2018-06-11 2019-06-05 Inter-prediction method and image decoding device
US17/865,278 US11838515B2 (en) 2018-06-11 2022-07-14 Inter-prediction method and image decoding device
US17/865,286 US11838516B2 (en) 2018-06-11 2022-07-14 Inter-prediction method and image decoding device
US17/865,254 US11849121B2 (en) 2018-06-11 2022-07-14 Inter-prediction method and image decoding device
US17/865,271 US11849122B2 (en) 2018-06-11 2022-07-14 Inter-prediction method and image decoding device
KR1020230147159A KR20230153350A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147157A KR20230154413A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147158A KR20230155384A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147156A KR20230156004A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180066694 2018-06-11
KR20180066694 2018-06-11

Publications (1)

Publication Number Publication Date
KR20190140387A true KR20190140387A (ko) 2019-12-19

Family

ID=69056280

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180142487A KR20190140387A (ko) 2018-06-11 2018-11-19 360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치
KR1020190065415A KR20190140399A (ko) 2018-06-11 2019-06-03 인터 예측 방법 및 영상 복호화 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020190065415A KR20190140399A (ko) 2018-06-11 2019-06-03 인터 예측 방법 및 영상 복호화 장치

Country Status (3)

Country Link
US (1) US11425391B2 (ko)
KR (2) KR20190140387A (ko)
CN (1) CN112425174A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019240425A1 (ko) * 2018-06-11 2019-12-19 에스케이텔레콤 주식회사 인터 예측 방법 및 영상 복호화 장치
EP4258666A1 (en) * 2022-04-07 2023-10-11 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture data
WO2024037641A1 (en) * 2022-08-19 2024-02-22 Mediatek Inc. Out-of-boundary reference block handling

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858706B2 (en) 2015-09-22 2018-01-02 Facebook, Inc. Systems and methods for content streaming
US10096130B2 (en) 2015-09-22 2018-10-09 Facebook, Inc. Systems and methods for content streaming
KR102432085B1 (ko) * 2015-09-23 2022-08-11 노키아 테크놀로지스 오와이 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품
US11069025B2 (en) 2016-02-17 2021-07-20 Samsung Electronics Co., Ltd. Method for transmitting and receiving metadata of omnidirectional image
KR20180000279A (ko) * 2016-06-21 2018-01-02 주식회사 픽스트리 부호화 장치 및 방법, 복호화 장치 및 방법
US20170374364A1 (en) * 2016-06-23 2017-12-28 Mediatek Inc. Method and Apparatus of Face Independent Coding Structure for VR Video
KR20180029315A (ko) 2016-09-12 2018-03-21 삼성전자주식회사 가상 현실 컨텐트의 영상을 투영하기 위한 영상 처리 방법 및 장치
CN114531590A (zh) * 2016-10-04 2022-05-24 有限公司B1影像技术研究所 图像数据编码/解码方法、介质和发送比特流的方法
KR20180042098A (ko) 2016-10-17 2018-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
US10432856B2 (en) * 2016-10-27 2019-10-01 Mediatek Inc. Method and apparatus of video compression for pre-stitched panoramic contents
WO2018191224A1 (en) * 2017-04-11 2018-10-18 Vid Scale, Inc. 360-degree video coding using face continuities

Also Published As

Publication number Publication date
CN112425174A (zh) 2021-02-26
US11425391B2 (en) 2022-08-23
US20210266559A1 (en) 2021-08-26
KR20190140399A (ko) 2019-12-19

Similar Documents

Publication Publication Date Title
KR101986588B1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
US11838516B2 (en) Inter-prediction method and image decoding device
US11425391B2 (en) Inter-prediction method and image decoding device
KR20220071939A (ko) 비디오 부호화 및 복호화를 위한 장치 및 방법
US11997255B2 (en) Video encoding and decoding using intra block copy
KR20190142717A (ko) 인터 예측 방법 및 이를 이용한 영상 복호화 장치
KR20200040168A (ko) 움직임 정보 결정 방법 및 이를 이용한 영상 복호화 장치
KR102648468B1 (ko) 레벨 설정 방법 및 이를 이용한 영상 복호화 장치
KR20230155386A (ko) 레벨 설정 방법 및 이를 이용한 영상 복호화 장치
KR20220137550A (ko) 세그멘테이션을 이용하는 비디오 코딩방법 및 장치
KR20230105648A (ko) 공간적 상관성을 이용하는 디코더측 움직임벡터 유도 방법
JP2024511887A (ja) 適応的イントラ予測精度を用いるビデオコーディング方法及び装置
KR20220126232A (ko) 임의 블록 분할을 이용하는 비디오 코딩방법 및 장치
KR20200081186A (ko) 시간적 후보의 움직임 벡터 유도 방법 및 이를 이용한 영상 복호화 장치