KR101653118B1 - 3d 장면의 하나 이상의 비디오를 처리하는 방법 - Google Patents

3d 장면의 하나 이상의 비디오를 처리하는 방법 Download PDF

Info

Publication number
KR101653118B1
KR101653118B1 KR1020157010892A KR20157010892A KR101653118B1 KR 101653118 B1 KR101653118 B1 KR 101653118B1 KR 1020157010892 A KR1020157010892 A KR 1020157010892A KR 20157010892 A KR20157010892 A KR 20157010892A KR 101653118 B1 KR101653118 B1 KR 101653118B1
Authority
KR
South Korea
Prior art keywords
block
depth
current
view
motion vector
Prior art date
Application number
KR1020157010892A
Other languages
English (en)
Other versions
KR20150063124A (ko
Inventor
동 티안
펭 조우
안토니 베트로
Original Assignee
미쓰비시덴키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/631,852 external-priority patent/US9264691B2/en
Application filed by 미쓰비시덴키 가부시키가이샤 filed Critical 미쓰비시덴키 가부시키가이샤
Publication of KR20150063124A publication Critical patent/KR20150063124A/ko
Application granted granted Critical
Publication of KR101653118B1 publication Critical patent/KR101653118B1/ko

Links

Images

Classifications

    • H04N13/0048
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

뷰 합성을 위해서 장면의 비디오가 처리된다. 이러한 비디오는, 각 카메라의 뷰가 적어도 1개의 다른 카메라의 뷰와 서로 겹치도록 배치된 대응하는 카메라에 의해 포착된다. 현재의 블록마다, 근방 블록으로부터 움직임 벡터 또는 시차 벡터가 취득된다. 깊이 블록은, 대응하는 참조 깊이 화상과, 움직임 벡터 또는 시차 벡터에 근거한다. 움직임 필드의 후방 워핑을 이용하여, 깊이 블록에 근거하여 예측 블록이 생성된다. 다음에, 예측 블록을 이용한 현재의 블록의 예측 코딩이 수행된다. 후방 매핑은 공간 영역에서 실행할 수도 있다.

Description

3D 장면의 하나 이상의 비디오를 처리하는 방법{METHOD FOR PROCESSING ONE OR MORE VIDEOS OF A 3D-SCENE}
본 발명은, 포괄적으로는 멀티뷰 비디오(multiview videos)를 코딩하는 것에 관한 것으로, 보다 상세하게는, 예측 압축을 위해서 3D 멀티뷰 비디오를 코딩하는 것에 관한 것이다.
멀티뷰 비디오의 코딩은, 3차원 TV(3D TV), 자유 시점 TV(FTV), 및 멀티 카메라 감시 등의 애플리케이션에 불가결하다. 멀티뷰 비디오의 코딩은 동적 라이트 필드(light field)의 압축으로서도 알려져 있다. 본 명세서에서 이용될 때, 코딩은, 예를 들면 코덱에 있어서의 부호화, 복호화 또는 양쪽을 포함할 수 있다.
깊이 화상은, 새로운 3D 비디오 코팅 규격에 있어서의 데이터 포맷의 추정되는 부분이다. 깊이 화상을 부정보(side information)로서 이용하여 예측 코팅을 행하는 것은, 뷰 합성 예측(VSP)으로서 알려져 있다.
종래의 비디오 코딩, 예를 들면 H.264 AVC(어드밴스트 비디오 코딩) 규격 및 H.265 HEVC(고효율 비디오 코딩) 규격에 의한 코딩에서는, 근방 블록으로부터의 움직임 정보를 이용하여 움직임 벡터가 도출된다. 다음에, 도출된 움직임 벡터를 움직임 벡터 예측자(MVP)로서 이용하여, 현재의 블록의 움직임 벡터가 예측된다. 다음에, 현재의 움직임 벡터와 MVP의 사이의 움직임 벡터 차분(MVD)이 부호화되어, 송신된다.
도 1은, 현재의 블록을 코딩하는 종래의 방법을 나타내고 있다. 스텝(110)은, 근방 블록으로부터, MotionDerive로 불리는 움직임 벡터 또는 시차 벡터(disparity vector)를 도출한다. 스텝(120)은, 잔차 차분을 최소로 하는 것을 목적으로 하는 움직임 추정 기법을 적용하는 것에 의해, 현재의 블록에 대해 MotionCurrent로 불리는 움직임 벡터 또는 시차 벡터를 구한다. 스텝(130)은, 움직임 벡터 차분을 계산하여, 코딩한다: MotionDiff=MotionCurrent-MotionDerive). 최종적으로, 스텝(140)은 잔차 블록을 코딩한다.
도 2는, 대응하는 종래 기술에 의한 부호화기를 나타내고 있다. 요소(201)는, 픽쳐의 일부분에 있어서의 블록을 나타내고 있다. 요소(201)에서, 현재의 블록은 별표 「*」에 의해 나타내어지고, 근방 블록은 도트 「.」에 의해 나타내어진다. 요소(201)에서 나타내는 근방 블록으로부터 움직임 벡터 또는 시차 벡터를 도출한다(202). (202)로부터의 도출된 움직임 벡터 또는 시차 벡터는, 움직임 벡터 예측자(MVP)(203)로서의 역할을 담당한다.
텍스쳐 참조 픽쳐 버퍼(204)를 참조하는 것에 의해, 현재의 블록에 대해 움직임 추정이 행해지고(205), 현재의 블록을 위한 움직임 벡터(MotionCurrent)(206)가 생성된다.
MVP와 MotionCurrent의 사이의 차분을 계산한(207) 후, 움직임 벡터 차분(MVD)(208)이 얻어지고, 이 MVD는 부호화되어(208) 비트스트림(210)으로 된다.
움직임 추정(205)으로부터의 다른 출력은 참조 픽쳐이며, 텍스쳐 예측자(211)로서의 역할을 담당한다. 다음에, 텍스쳐 예측자(211) 및 현재의 픽쳐(215)에 근거하여 텍스쳐 예측을 행하는(212) 것에 의해 텍스쳐 잔차(213)가 얻어진다. 텍스쳐 잔차(213)도, 비트스트림의 일부로서 부호화된다(214).
도 3은 복호화기를 나타내고 있다. 요소(301)에서 나타내어지는 근방 블록으로부터, 움직임 벡터 또는 시차 벡터를 도출한다(302). 도출된 움직임 벡터 또는 시차 벡터는 움직임 벡터 예측자(MVP)(303)로서의 역할을 담당한다.
코딩된 비트스트림(310)으로부터, 움직임 벡터 차분(MVD)(308)이 복호화되고(309), 가산기(307)에 공급된다. 움직임 벡터 예측자(303) 및 움직임 벡터 차분(308)이 가산되고(307), 다음에, 현재의 블록을 위해서 이용되는 움직임 벡터 MotionCurrent(306)가 얻어진다.
코딩된 비트스트림(310)으로부터, 텍스쳐 잔차 픽쳐(313)가 복호화된다(314). 현재의 움직임 벡터(306) 및 텍스쳐 잔차 픽쳐는, 움직임 보상 모듈(305)로의 입력이다. 텍스쳐 참조 버퍼(304)와 함께, 움직임 보상이 행해지고, 최종적으로, 복호화된 픽쳐가 출력된다(315).
본 발명은, 텍스쳐 코딩을 위해서 후방 워핑(backward warping)을 이용하는 것에 의해 뷰 합성 예측(VSP)을 행하는 방법 및 시스템에 관한 것이다. 이 방법 및 시스템에 있어서, 깊이 성분은 텍스쳐 성분의 후에 코딩된다.
종래의 전방 워핑(forward warping)에 근거하는 뷰 합성 예측은, 일반적으로, 참조 뷰로부터의 텍스쳐 성분 및 깊이 성분을 이용한다. 전방 워핑은, 통상, 높은 충실도를 제공하지만, 전방 워핑에 근거하는 VSP의 주된 결점은, 코덱의 복잡도가 대폭으로 증대하는 것이다.
대조적으로, 본 명세서에서 개시되는 바와 같은 후방 워핑에 근거하는 뷰 합성 예측(B-VSP)은 복잡도가 보다 낮다. 따라서, 어느 특정의 애플리케이션에 있어서, 후방 워핑에 근거하는 VSP가 바람직하다. 또한, 후방 워핑에 근거하는 VSP는, 블록에 근거하는 VSP 참조 생성을 용이하게 한다.
불행하게도, 후방 워핑에 근거하는 VSP는, 통상, 깊이 우선 코딩(depth-first coding)을 필요로 한다. 즉, 깊이 성분은 동일한 액세스 유닛으로부터의 대응하는 텍스쳐 성분의 전에 코딩된다. 액세스 유닛은, 동일한 시점에 있어서의 모든 성분(텍스쳐 및 깊이)의 집합이다. 깊이 우선 코딩에 의해, 대응하는 텍스쳐 성분에 액세스할 필요가 있는 임의의 깊이 코딩 툴의 사용을 방해한다.
깊이 우선 코딩을 회피하면서 후방 워핑에 근거하는 VSP의 이점을 활용하기 위해서, 실시 형태는, 근방 블록으로부터의 움직임 벡터 또는 시차 벡터를 이용하여, 이전의 액세스 유닛에 있어서, 또는 동일한 액세스 유닛이지만 다른 시점으로부터 코딩되는 깊이 화상 등의, 이전에 코딩된 깊이 화상으로부터 깊이 블록을 도출한다. 이 때문에, 도출된 깊이 블록은, 코딩되게 될 현재의 블록을 위한 추정 깊이 블록이라고 상정된다. 이것은, 최종적으로, 후방 워핑에 근거하는 VSP를 위해서 이용된다.
종래의, 전방 워핑에 근거하는 뷰 합성 예측은, 일반적으로, 참조 뷰로부터의 텍스쳐 성분 및 깊이 성분을 이용한다. 전방 워핑은, 통상, 보다 높은 비용이고 보다 높은 충실도를 제공한다. 대조적으로, 본 발명에 의한 뷰 합성 예측은, 텍스쳐 코딩을 위해서 후방 워핑을 이용하고, 깊이 성분이 텍스쳐 성분의 전에 코딩되는 것을 필요로 하지 않는다. 또한, 후방 워핑에 근거하는 VSP는, 블록에 근거하는 VSP 참조 생성을 용이하게 한다. 이것은 복잡도가 보다 낮고, 실시의 이점을 가진다.
깊이 우선 코딩을 회피하면서 후방 워핑에 근거하는 VSP를 가능하게 하기 위해서, 본 발명은, 근방 블록으로부터의 움직임 벡터 또는 시차 벡터를 이용하여, 이전의 액세스 유닛에 있어서, 또는 동일한 액세스 유닛이지만 다른 시점으로부터 코딩된 깊이 화상 등의, 이전에 코딩된 깊이 화상으로부터 깊이 블록을 도출한다.
도 1은 근방 움직임 정보를 이용하여 현재의 블록의 움직임 정보를 코딩하는 종래 기술의 방법의 플로우차트이다.
도 2는 종래 기술의 부호화기의 블럭도이다.
도 3은 종래 기술의 복호화기의 블럭도이다.
도 4는 본 발명의 실시 형태에 따른 후방 VSP 예측에 의해, 근방의 움직임 정보 또는 시차 정보를 이용하여 현재의 블록을 코딩하는 방법의 플로우차트이다.
도 5a는 본 발명의 실시 형태에 따른 공간 예측을 이용하는 부호화기의 블럭도이다.
도 5b는 본 발명의 실시 형태에 따른 시간 예측을 이용하는 부호화기의 블럭도이다.
도 6a는 본 발명의 실시 형태에 따른 공간 예측을 이용하는 복호화기의 블럭도이다.
도 6b는 본 발명의 실시 형태에 따른 시간 예측을 이용하는 복호화기의 블럭도이다.
도 7은 본 발명의 실시 형태에 따른 부호화 방법의 플로우차트이다.
도 8은 본 발명의 실시 형태에 따른 복호화 방법의 플로우차트이다.
도 9는 본 발명의 실시 형태에 따른 근방 블록으로부터의 깊이 값을 추정하는 예이다.
도 10은 본 발명의 실시 형태에 따른 근방 블록으로부터의 깊이 값을 추정하는 다른 예이다.
도 11은 본 발명의 실시 형태에 따른 B-VSP 모드를 이용한 깊이 앵커(anchor) 픽쳐에 있어서의 블록의 복호화 프로세스를 나타내는 플로우차트이다.
본 발명의 실시 형태는, 후방 워핑 기법에 근거하여 뷰 합성 예측(VSP) 참조 픽쳐를 생성하기 위한 방법 및 시스템을 제공한다. 본 방법은, 깊이 우선 코딩을 이용하지 않는다. 본 방법은, 근방 블록으로부터 현재의 블록까지의 움직임 정보 또는 시차 정보를 이용하여, 코딩되는 현재의 블록을 위한 깊이 블록을 도출한다. 다음에, 도출된 깊이 블록을 이용하여 후방 워핑을 행한다. 본 명세서에서 이용될 때, 뷰 합성은 장면의 하나 또는 복수의 비디오로부터 합성 비디오를 생성하고, 합성 비디오에서, 3D 장면의 각 비디오는, 특정의 자세로 배열된 대응하는 카메라에 의해 취득되고, 각 카메라의 뷰는, 적어도 1개의 다른 카메라의 뷰와 서로 겹친다.
근방 블록으로부터의 움직임 정보를 이용하는 종래의 뷰 합성과 비교하여, 실시 형태는, 깊이 블록을 도출하고, 도출된 깊이 블록에 근거하여, 현재의 블록을 예측하도록 샘플 블록을 형성하는 것을 특징으로 한다.
실시 형태는, 근방 블록으로부터의 움직임 정보 또는 시차 정보를 이용하는 여러 가지의 방법을 개시한다. 특히, 도출된 움직임 정보 또는 시차 정보는, 깊이 블록 DepthDerive를 도출하는 데에 직접 이용된다. 이 깊이 블록은, 현재의 블록에 있어서의 샘플값의 예측자를 형성하는 데에 또한 이용된다.
도 4는, 본 발명의 실시 형태에 따른 코딩 방법을 나타내고 있다. 스텝은, 현재의 블록(401)마다 실행된다.
스텝(410)에서 근방 블록으로부터 움직임 벡터 또는 시차 벡터를 취득한다.
스텝(420)에서 대응하는 참조 깊이 화상과, 움직임 벡터 또는 시차 벡터에 근거하여 깊이 블록을 구한다.
스텝(430)에서 후방 워핑을 이용하여 깊이 값에 근거하여 예측 블록을 생성한다.
스텝(440)에서 예측 블록을 이용하여 현재의 블록에 대해 예측 코딩을 실행한다.
도 5a는, 비교 가능한 부호화기 블럭도를 나타내고 있다. 요소(501)에 나타내어지는 근방 블록으로부터, 움직임 벡터 또는 시차 벡터 MotionDerive(MVP)(503)를 도출한다(502). 임의 선택으로, MotionDerive, 또는 복호화기가 MotionDerive를 구하는 것을 지원하는 부정보를 코딩하여, 시그널링(550)할 수 있고, 이것은 코딩된 비트스트림(510)의 일부분이다.
MotionDerive를 이용하여 깊이 참조 픽쳐 버퍼(551)를 참조하는 것에 의해, 현재의 블록을 위한 깊이 블록 DepthDerive(505)가 추정된다(504).
DepthDerive를 이용하여 텍스쳐 참조 픽쳐 버퍼(504)를 참조하는 것에 의해, 후방 워핑이 실행되고(506), 텍스쳐 예측자(507)가 얻어진다.
다음에, 텍스쳐 예측(508)이 텍스쳐 예측자(507) 및 현재의 픽쳐(515)에 근거하여 텍스쳐 잔차(509)를 얻는다. 이것은 비트스트림내에 부호화된다(511).
도 6a는, 복호화기를 나타내고 있다. 코딩된 비트스트림(610)으로부터, 움직임 벡터 선택 또는 시차 벡터 선택을 도출하기 위한 부정보(653)를 시그널링할 수 있다(650). 부정보(653)가 이용되는 경우, 이 부정보가 입력으로서 블록(601)에 공급된다.
요소(601)로 나타내는 근방 블록으로부터, 움직임 벡터 또는 시차 벡터 MotionDerive(603)를 도출한다(602).
MotionDerive를 이용하여 깊이 참조 픽쳐 버퍼(651)를 참조하는 것에 의해, 현재의 블록을 위한 깊이 블록 DepthDerive(605)가 추정된다(604).
DepthDerive(605)를 이용하여 텍스쳐 참조 픽쳐 버퍼(611)를 참조하는 것에 의해, 후방 워핑(612)이 실행되고(606), 텍스쳐 예측자(607)가 얻어진다.
코딩된 비트스트림으로부터, 텍스쳐 잔차(609)가 복호화되고(613), 텍스쳐 예측(608)을 위한 텍스쳐 예측자(607) 및 텍스쳐 잔차(609)가 얻어지고, 복호화된 텍스쳐 픽쳐가 출력된다(615).
실시 형태에 의해 이용되는 기법은, 종래 기술에서와 같은 움직임 또는 시차가 보상된 예측과 대조적으로, 깊이가 보상된 예측이라고 칭할 수 있다.
참조 픽쳐로부터 입수 가능한 다른 픽쳐 및 깊이를 이용하는 3개의 실시 형태에 대해 설명한다.
(실시 형태 1: 참조 뷰로부터 엥커 픽쳐, 깊이가 입수 가능)
이 실시 형태에서는, 참조 픽쳐로부터의 텍스쳐 성분 및 깊이 성분이 함께, 현재의 텍스쳐 및 깊이의 전에 코딩된다고 가정한다. 예를 들면, 2 뷰의 경우의 코딩 순서는 TODOTIDl이며, 여기서, T 및 D는 텍스쳐 및 깊이를 나타내고, 0 및 1은 2개의 뷰를 나타낸다. 뷰 0으로부터의 텍스쳐 및 깊이는 뷰 1의 텍스쳐 및 깊이의 전에 코딩되는 것에 유의한다.
엥커 픽쳐의 경우, 모든 블록이 인트라 모드 또는 뷰간(inter-view) 예측 모드 중 어느 한쪽으로 코딩된다. 일례에 있어서, 현재의 블록에 대해 3개의 근방 블록이 존재한다. 이들 블록은, 왼쪽(A), 위(B) 및 오른쪽 위(C)에 있다. 이 설명은, 추가의 근방 블록을 이용하도록 용이하게 확장할 수 있다.
근방 블록(A, B 및 C)이 뷰간 예측 모드에서 코딩되는 경우, 각 블록은, DisparityA, DisparityB 및 DisparityC에 의해 나타내어지는 시차 벡터와 관련지어진다.
현재의 블록과 근방 블록의 유사성을 검토하면, 현재의 블록을 위한 시차 벡터는, 근방 블록으로부터 도출될 수 있고, DisparityDerive로 나타내어진다. 일 실시 형태에서는, 이하로 된다.
DisparityDerive = Mean(DisparityA, DisparityB, DisparityC).
다른 실시 형태에서는, 새로운 HEVC 규격에서 규정되어 있는 바와 같이, 이 도출 결과를, 후보 리스트 및 인덱스를 머지(merging)하기 위해서 시그널링할 수 있다. 즉, 근방 블록으로부터 후보 리스트를 구축한다. 다음에, DisparityDerive를 위해서 이용되는 특정의 후보를 나타내기 위해서 인덱스가 비트스트림에서 시그널링된다.
DisparityDerive를 이용하여, 참조 뷰로부터의 깊이 화상에 있어서의 깊이 블록 DepthDerive를 특정하고, 이 깊이 블록 DepthDerive에 액세스할 수 있다. DepthDerive를 이용하여 현재의 블록을 위한 후방 워핑을 행한다.
근방 블록이 모두 뷰간 예측 모드를 이용하여 코딩되어 있을 때, 일반적인 프로세스는, 상기에서 설명된 바와 같이 근방 블록을 이용한다. 이하에 있어서, 근방 블록이 임의의 뷰간 예측 모드에서 코딩되어 있지 않은 경우에 대해 설명한다
근방 블록이 인트라 모드에서 코딩되어 있는 경우, 대응하는 시차 벡터는 제로이다.
근방 블록이 VSP 예측 모드를 이용하여 코딩되는 경우, 단일의 벡터는 블록 전체에 이용되지 않는다. 대신에, 그 경우, 그 VSP 예측을 위해서 이용되는 깊이 블록으로부터 시차 벡터를 구할 수 있다. 시차 벡터는, 깊이 블록 전체의 평균치로 할 수도 있고, 현재의 블록에 대해 보다 가까운 깊이 픽셀에 대해서, 보다 많은 가중치 부여를 할 수도 있다.
상기에서, 우선 시차 벡터 DisparityDerive를 도출하고, 다음에 단일의 시차를 이용하여 깊이 블록 DepthDerive에 액세스한다. 대안적으로, 복수의 도출된 시차를 이용하므로, 그와 같이 하여, 복수의 도출된 깊이 블록을 이용할 수 있다. 복수의 도출된 깊이 블록은, 가중치 평균에 따라 구해지고, 후방 워핑을 위해서 이용되는 단일의 깊이 블록이 얻어진다.
도 7은, B-VSP를 후보 코딩 모드로서 이용하는 엥커 픽쳐에 있어서의 블록을 위한 부호화 프로세스를 나타내고 있다.
스텝(701)에서 A, B 및 C를 근방 블록으로 하여, DisparityX를 그들의 시차 벡터로 한다(Ⅹ가 A, B 또는 C로 치환됨).
스텝(702)에서 A, B 및 C에 있어서의 임의의 블록이 인트라 모드에서 코딩되는 경우, 그 시차 벡터를 제로로 세트한다.
스텝(703)에서 A, B 및 C에 있어서의 임의의 블록이 VSP 예측 모드에서 코딩되는 경우, 그 시차 벡터를, 그 VSP 예측을 위해서 이용되는 깊이 블록의 평균치로서 세트한다.
스텝(704)에서 DisparityDerive를 DisparityX의 평균치로 되도록 세트한다.
스텝(705)에서 대응하는 깊이 화상에 있어서의 깊이 블록 DepthDerive를 취득한다.
스텝(706)에서 DepthDerive를 이용하여 후방 워핑에 근거하는 VSP를 실행한다.
스텝(707)에서 B-VSP 모드가 다른 코딩 모드와 비교되어, 레이트 왜곡 비용이 보다 적은 경우에 선택된다.
도 8은, 제안되는 B-VSP 모드를 이용하는, 엥커 픽쳐에 있어서의 블록의 복호화 프로세스이다.
스텝(801)에서 B-VSP 모드가 현재의 블록에 대해 시그널링되는지 여부를 검사한다. 시그널링되는 경우, 스텝(802)으로 진행된다. 그렇지 않은 경우, 스텝(808)으로 진행된다.
스텝(802)에서 A, B 및 C를 근방 블록으로 하여, DisparityX를 그들의 시차 벡터로 한다(Ⅹ가 A, B 또는 C로 치환됨).
스텝(803)에서 A, B 및 C에 있어서의 임의의 블록이 인트라 모드에서 코딩되는 경우, 그 시차 벡터를 제로로 세트한다.
스텝(804)에서 A, B 및 C에 있어서의 임의의 블록이 VSP 예측 모드에서 코딩되는 경우, 그 시차 벡터를, 그 VSP 예측을 위해서 이용되는 깊이 블록의 평균치로서 세트한다.
스텝(805)에서 DisparityDerive를 DisparityX의 평균치로 되도록 세트한다.
스텝(806)에서 대응하는 깊이 화상에 있어서의 깊이 블록 DepthDerive를 취득한다.
스텝(807)에서 DepthDerive를 이용하여 후방 워핑에 근거하는 VSP를 실행한다. 스텝(809)으로 진행된다.
스텝(808)에서 다른 코딩 모드에서 현재의 블록을 복호화한다.
스텝(809)에서 순서가 종료한다.
(실시 형태 2: 참조 뷰로부터 엥커 픽쳐 또는 비엥커 픽쳐, 깊이가 입수 가능하지 않음)
이 실시 형태에서는, 액세스 유닛에 있어서의 모든 텍스쳐 성분이, 모든 깊이 성분의 전에 코딩된다고 가정한다. 예를 들면, 2 뷰의 경우의 코딩 순서는 TOTIDODl이며, 뷰 0 및 뷰 1로부터의 양쪽의 텍스쳐가 깊이의 전에 코딩된다. 이 실시 형태는, 깊이의 코딩에 대한 텍스쳐의 의존성이 없을 때에도 적용할 수 있다.
마찬가지의 프로세스에 있어서, 시차 DisparityDerive를 근방 블록으로부터 도출할 수 있다. 그러나, 참조용으로 깊이 데이터가 입수 가능하지 않기 때문에, 픽셀 당의 깊이 블록에 액세스할 수 없다. 대신에, 시차 DisparityA, DisparityB 및 DisparityC를 이용하여 깊이 블록을 보간한다. 이 실시 형태에서는, 선형 보간이 이용된다. 다른 보간도 이용될 수 있다.
도 9는, 예시적인 보간을 나타내고 있고, 근방 블록(A, B 및 C)을 위한 단일의 깊이 값(Ⅹ, Y 및 Z)이, 이들 시차값 DisparityA, DisparityB 및 DisparityC로부터 세트된다. 현재의 4×4의 블록을 위한 깊이 값은 이하와 같이 보간된다.
Figure 112015040686251-pct00001
여기서, a, b, c, d, e, f 및 g는 현재의 블록에 있어서의 픽셀이다. 상기의 실시 형태에 있어서, 블록 C로부터의 깊이 값 Z는 이용되지 않는다. 보간되는 픽셀에 대해서 보다 가까운 깊이 값은, 보다 많은 가중치가 주어진다. 깊이 블록을 채우는 다른 보간 방법이 가능하다.
또한, 블록이 B-VSP 모드를 이용하여 코딩될 때, 근방 블록으로부터의 깊이 값이 변동할 가능성이 있다. 그 경우, 각 픽셀마다의 보간 프로세스는 상이할 가능성이 있다.
일례에 있어서, 도 10에 나타낸 바와 같이, 행 r 및 열 c, (r, c)에 있어서의 픽셀의 깊이 값은 이하와 같이 보간할 수 있다.
Figure 112015040686251-pct00002

실시 형태 3: 참조 뷰로부터 비엥커 픽쳐, 깊이가 입수 가능)
비엥커 픽쳐의 경우, 근방 블록이, 뷰간 예측 모드는 아니고 시간 예측을 이용할 가능성이 보다 높다. 그러나, 시간 예측과 뷰간 예측을 구별할 필요는 없다. 대신에, 이 실시 형태에서는, 움직임 벡터 또는 시차 벡터가 관련지어진 참조 텍스쳐는, 입수 가능한 대응하는 깊이 참조 픽쳐를 갖는다. 그렇지 않은 경우, 실시 형태 2에 대해 설명되는 바와 같은 사례가 적용된다.
실시 형태 1에서와 같이, 근방 블록으로부터의 움직임 벡터 또는 시차 벡터를 이용하여 움직임 벡터 또는 시차 벡터를 도출한다. 이 움직임 벡터 또는 시차 벡터를 이용하여, 대응하는 참조 깊이 화상으로부터의 깊이 블록을 특정하여, 이 깊이 블록에 액세스한다.
근방 블록이 인트라 모드에서 코딩되는 경우에 있어서, 움직임 벡터 또는 시차 벡터를 도출하는 데에 이용되는, 근방 블록을 시그널링하는 메커니즘이 비트스트림에 존재하지 않을 때, 시간 참조에 대한 제로 움직임 벡터가 아니라, 뷰간 참조에 대한 제로 시차 벡터가 이용된다. 그렇지 않으면, 후보 리스트가 있을 때, 인덱스 메커니즘이 실시된다. 인트라 코딩된 근방 블록이 존재할 때, 제로 시차 벡터 및 제로 움직임 벡터 양쪽을 후보 리스트에 부가한다. 다음에, 부호화기는, 레이트 왜곡 비용에 근거하여 최적 후보를 선택한다.
(실시 형태 4 : 깊이 화상을 위한 후방 워핑에 근거하는 VSP)
상기의 실시 형태는, 디펜던트 뷰(dependent view)로부터의 깊이 픽쳐를 코딩하는 데에도 적용 가능하다. 후방 워핑을 행하는 데에 깊이 화상이 필요하게 되므로, 종래의 VSP에 있어서 깊이에 대해 후방 워핑에 근거하는 VSP 예측을 실시하는 것은 불가능하다. 본 발명의 실시 형태는, 현재의 블록을 필요로 하지 않는다.
후방 VSP를 행하기 위한 깊이 블록을 얻기 위해서 근방 블록의 움직임 벡터 또는 시차 벡터가 이용되는 상기의 실시 형태와는 달리, 깊이 블록을 추정하는 데에 근방 블록의 샘플값을 이용한다. 현재의 픽쳐는 깊이 화상이므로, 근방 블록은 픽셀마다의 깊이를 갖는다. 이들 블록의 블록 레벨의 움직임 벡터 또는 시차 벡터 대신에, 샘플값을 이용하여, B-VSP를 행하기 위한 깊이를 구하는 쪽이 정확하다.
도 11은 대응하는 복호화를 나타내고 있다. 도 8에 나타내는 실시 형태와의 차이는, 근방 블록으로부터의 움직임 벡터 또는 시차 벡터가 이용되지 않는 것이다.
스텝(1101)에서 B-VSP 모드가 현재의 블록에 대해 시그널링되는지 여부를 검사한다. 시그널링되는 경우, 스텝(1102)으로 진행된다. 그렇지 않은 경우, 스텝(1104)으로 진행된다.
스텝(1102)에서 근방 블록(깊이 블록임)을 이용하여 현재의 블록의 깊이 DepthDerive를 추정한다.
스텝(1103)에서 DepthDerive를 이용하여 후방 워핑에 근거하는 VSP를 실행한다. 스텝(1105)으로 진행된다.
스텝(1104)에서 다른 코딩 모드에서 현재의 블록을 복호화한다.
스텝(1105)에서 순서가 종료한다.
(실시 형태 5: 움직임 영역에 있어서의 워핑)
이전의 실시 형태에서, 픽셀 영역 또는 공간 영역에 있어서 워핑이 실행되었다. 환언하면, 현재의 뷰에 있어서의 픽셀의 텍스쳐를 위한 예측자가, 참조 뷰로부터 현재의 뷰의 픽셀값의 워핑에 의해 도출되고, 이것은 각각, 도 5a 및 도 6a의 블록(506 및 611)에서 행해진다.
한편, 3D 워핑 관계는, 시간 영역에도 존재한다. 즉, 현재의 뷰에 있어서의 물체의 시간적인 움직임은, 참조 뷰에서 유사한 움직임을 가지는 것처럼 보인다.
이 때문에, 이 실시 형태에서는, 공간 영역 및 시간 영역에서 워핑을 적용한다. 따라서, 도 5b 및 도 6b에 나타낸 바와 같이 블록(506 및 611)에 있어서의 처리를 변경하여, 움직임 필드(움직임 벡터 및/또는 참조 픽쳐 정보)가 현재의 픽쳐에 있어서의 대응하는 픽셀에 할당된다. 또한, 블록(508 및 608)은, 워핑된 움직임 필드 정보를 이용하여 시간 예측을 실행한다.
텍스쳐 워핑 프로세스와 마찬가지로, 움직임 필드에 있어서의 워핑을 픽셀 레벨 또는 블록 레벨에서 실행할 수 있는 것에 유의한다. HEVC와 관련하여, 가장 큰 워핑 단위는 예측 단위(PU) 레벨에 있다.
움직임 필드의 워핑이 픽셀 레벨에서 실행되지 않는 경우, 도출된 깊이 블록으로부터의 최대 깊이가 시차 벡터로 변환되고, 최종적으로, 도출된 시차 벡터가, 현재의 블록이 움직임 정보에 액세스하기 위한 평행 이동 오프셋이라고 상정된다.
깊이 참조 픽쳐에 있어서의 깊이 블록을 참조하는 것에 의한 시차 벡터의 도출은, 깊이 화상으로부터 깊이 블록에 액세스할 수 있는 한, 다른 통상의 공간 근방 블록 또는 시간 근방 블록으로 더 확장할 수 있는 것에 유의한다.
이 때문에, 워핑은, 관련 특허 출원에서 기재되어 있는 바와 같이 공간 영역에서 행할 수도 있고, 본 출원에서 기재되어 있는 바와 같이 시간 영역에서 행할 수도 있고, 공간 영역 및 시간 영역의 양쪽에서 행할 수도 있다.
종래의, 전방 워핑에 근거하는 뷰 합성 예측은, 일반적으로, 참조 뷰로부터의 텍스쳐 성분 및 깊이 성분을 이용한다. 전방 워핑은, 통상, 보다 높은 비용이고 보다 높은 충실도를 제공한다. 대조적으로, 본 발명에 의한 뷰 합성 예측은, 텍스쳐 코딩을 위해서 후방 워핑을 이용하고, 깊이 성분이 텍스쳐 성분의 전에 코딩되는 것을 필요로 하지 않는다. 또한, 후방 워핑에 근거하는 VSP는, 블록에 근거하는 VSP 참조 생성을 용이하게 한다. 이것은 보다 복잡도가 낮고, 실시의 이점을 가진다.
깊이 우선 코딩을 회피하면서 후방 워핑에 근거하는 VSP를 가능하게 하기 위해서, 본 발명은, 근방 블록으로부터의 움직임 벡터 또는 시차 벡터를 이용하여, 이전의 액세스 유닛에 있어서, 또는 동일한 액세스 유닛이지만 다른 시점으로부터 코딩된 깊이 화상 등의, 이전에 코딩된 깊이 화상으로부터 깊이 블록을 도출한다.

Claims (19)

  1. 3D 장면(scene)의 하나 이상의 비디오를 처리하는 방법으로서, 각 비디오는 특정의 자세로 배치된 대응하는 카메라에 의해 촬상되고, 처리되어야 할 현재의 픽쳐의 각 현재의 블록마다,
    상기 현재의 블록과 동일한 뷰의, 상기 현재의 블록의 근방 블록으로부터 움직임 벡터를 취득하는 스텝과,
    상기 근방 블록으로부터 취득된 상기 움직임 벡터에 근거하여, 참조 픽쳐의 대응하는 깊이 성분으로부터, 상기 현재의 블록을 위한 깊이 블록을 구하는 스텝과,
    후방 워핑(backward warping)을 이용하여, 참조 뷰에 대응하는 참조 픽쳐와 현재의 뷰에 대응하는 상기 깊이 블록에 근거하여, 상기 현재의 뷰에 대응하는 예측 블록을 합성하는 스텝
    을 포함하며,
    각 상기 스텝은 프로세서로 실행되는
    3D 장면의 하나 이상의 비디오를 처리하는 방법.
  2. 제 1 항에 있어서,
    각 상기 스텝은 부호화기에서 실행되는 방법.
  3. 제 1 항에 있어서,
    참조 픽쳐로부터의 텍스처(texture) 성분 및 깊이 성분은, 상기 현재의 픽쳐로부터의 상기 텍스처 성분 및 상기 깊이 성분의 전에 코딩되는 방법.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 움직임 벡터는, 상기 근방 블록에 있어서의 움직임 정보의 평균치로부터 도출되는 방법.
  6. 제 1 항에 있어서,
    상기 움직임 벡터는, 비트스트림에서 시그널링되는 부정보(side information)에 근거하여 얻어지는 방법.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제 1 항에 있어서,
    상기 현재의 픽쳐는 텍스처 성분인 방법.
  11. 삭제
  12. 제 1 항에 있어서,
    상기 근방 블록으로부터의 상기 움직임 벡터는, 상기 근방 블록의 코딩을 위해서 이용되는 방법.
  13. 삭제
  14. 삭제
  15. 제 1 항에 있어서,
    상기 처리는, 3D 비디오 애플리케이션에서 이용되는 방법.
  16. 제 1 항에 있어서,
    상기 취득하는 스텝 및 상기 구하는 스텝은 반복적으로 실행되는 방법.
  17. 제 1 항에 있어서,
    상기 합성하는 스텝은, 픽셀 레벨에서 실행되는 방법.
  18. 제 1 항에 있어서,
    상기 합성하는 스텝은, 블록 레벨에서 실행되는 방법.
  19. 제 1 항에 있어서,
    상기 후방 워핑을 이용하여, 상기 참조 뷰에 대응하는 상기 참조 픽쳐와 상기 현재의 뷰에 대응하는 상기 구해진 깊이 블록에 근거하여, 상기 현재의 뷰에 대응하는 예측 블록을 합성하는 스텝과,
    상기 현재의 블록에 대해, 상기 예측 블록과 복호화된 잔차 블록을 결합하여, 출력 픽쳐의 블록을 생성하는 스텝을 더 포함하는 방법.
KR1020157010892A 2012-09-28 2013-09-20 3d 장면의 하나 이상의 비디오를 처리하는 방법 KR101653118B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US13/631,852 2012-09-28
US13/631,852 US9264691B2 (en) 2012-09-28 2012-09-28 Method and system for backward 3D-view synthesis prediction using neighboring blocks
US13/742,461 US9253486B2 (en) 2012-09-28 2013-01-16 Method and system for motion field backward warping using neighboring blocks in videos
US13/742,461 2013-01-16
PCT/JP2013/076448 WO2014051133A1 (en) 2012-09-28 2013-09-20 Method for processing one or more videos of a 3d-scene

Publications (2)

Publication Number Publication Date
KR20150063124A KR20150063124A (ko) 2015-06-08
KR101653118B1 true KR101653118B1 (ko) 2016-08-31

Family

ID=49328602

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157010892A KR101653118B1 (ko) 2012-09-28 2013-09-20 3d 장면의 하나 이상의 비디오를 처리하는 방법

Country Status (8)

Country Link
US (1) US9253486B2 (ko)
EP (1) EP2901695B1 (ko)
JP (1) JP5976197B2 (ko)
KR (1) KR101653118B1 (ko)
CN (1) CN104685882B (ko)
ES (1) ES2606161T3 (ko)
PL (1) PL2901695T3 (ko)
WO (1) WO2014051133A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013284038B2 (en) * 2012-06-28 2015-11-05 Hfi Innovation Inc. Method and apparatus of disparity vector derivation in 3D video coding
WO2014005548A1 (en) * 2012-07-05 2014-01-09 Mediatek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding
US9635357B2 (en) * 2013-02-26 2017-04-25 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
FR3002716A1 (fr) * 2013-02-26 2014-08-29 France Telecom Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2015009091A1 (ko) * 2013-07-18 2015-01-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US10911779B2 (en) * 2013-10-17 2021-02-02 Nippon Telegraph And Telephone Corporation Moving image encoding and decoding method, and non-transitory computer-readable media that code moving image for each of prediction regions that are obtained by dividing coding target region while performing prediction between different views
TWI517096B (zh) * 2015-01-12 2016-01-11 國立交通大學 用於立體影像合成之逆向深度映射方法
CN107770511A (zh) * 2016-08-15 2018-03-06 ***通信集团山东有限公司 一种多视点视频的编解码方法、装置和相关设备
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
CN107027025B (zh) * 2017-03-28 2019-06-28 清华大学深圳研究生院 一种基于宏像素块自适应预测的光场图像压缩方法
US10244164B1 (en) 2017-09-11 2019-03-26 Qualcomm Incorporated Systems and methods for image stitching
US11348265B1 (en) 2017-09-15 2022-05-31 Snap Inc. Computing a point cloud from stitched images
KR102155711B1 (ko) * 2018-11-22 2020-09-14 한양대학교 산학협력단 포인트 클라우드 데이터에 대한 고속 움직임 추정을 수행하는 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014044168A1 (en) 2012-09-21 2014-03-27 Mediatek Inc. Method and apparatus of virtual depth values in 3d video coding

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101656882B (zh) * 2001-11-06 2013-04-17 松下电器产业株式会社 运动图像编码方法及运动图像解码方法
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US8284237B2 (en) * 2009-09-09 2012-10-09 Nokia Corporation Rendering multiview content in a 3D video system
US9451233B2 (en) * 2010-04-14 2016-09-20 Telefonaktiebolaget Lm Ericsson (Publ) Methods and arrangements for 3D scene representation
CN101917619B (zh) * 2010-08-20 2012-05-09 浙江大学 一种多视点视频编码快速运动估计方法
US9485517B2 (en) * 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014044168A1 (en) 2012-09-21 2014-03-27 Mediatek Inc. Method and apparatus of virtual depth values in 3d video coding

Also Published As

Publication number Publication date
KR20150063124A (ko) 2015-06-08
CN104685882A (zh) 2015-06-03
JP2015528649A (ja) 2015-09-28
US20140092210A1 (en) 2014-04-03
WO2014051133A1 (en) 2014-04-03
ES2606161T3 (es) 2017-03-23
CN104685882B (zh) 2018-05-18
EP2901695A1 (en) 2015-08-05
PL2901695T3 (pl) 2017-02-28
US9253486B2 (en) 2016-02-02
EP2901695B1 (en) 2016-11-02
JP5976197B2 (ja) 2016-08-23

Similar Documents

Publication Publication Date Title
KR101653118B1 (ko) 3d 장면의 하나 이상의 비디오를 처리하는 방법
JP7248741B2 (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US9264691B2 (en) Method and system for backward 3D-view synthesis prediction using neighboring blocks
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
KR101276720B1 (ko) 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
US9648342B2 (en) Method and apparatus for residual prediction in three-dimensional video coding
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
WO2007035042A1 (en) Apparatus and method for encoding and decoding multi-view video
EP2936815A1 (en) Method and apparatus of disparity vector derivation in 3d video coding
Merkle et al. Coding of depth signals for 3D video using wedgelet block segmentation with residual adaptation
KR20160118363A (ko) 화상 부호화 장치 및 방법, 화상 복호 장치 및 방법, 및 이들의 프로그램
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置
EP1929783B1 (en) Method and apparatus for encoding a multi-view picture using disparity vectors, and computer readable recording medium storing a program for executing the method
CA2820133A1 (en) Multiview image encoding method, multiview image decoding method, multiview image encoding device, multiview image decoding device, and programs of same
KR20150122706A (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 및 화상 복호 프로그램
CN105144714A (zh) 三维视频编码的视差向量推导的方法及装置
KR101261577B1 (ko) 다시점 동영상을 부호화 및 복호화하는 장치 및 방법
KR20070076392A (ko) 비디오 신호의 디코딩/인코딩 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190730

Year of fee payment: 4