KR102387873B1 - 구축된 아핀 병합 후보들을 도출하기 위한 방법 - Google Patents

구축된 아핀 병합 후보들을 도출하기 위한 방법 Download PDF

Info

Publication number
KR102387873B1
KR102387873B1 KR1020217018243A KR20217018243A KR102387873B1 KR 102387873 B1 KR102387873 B1 KR 102387873B1 KR 1020217018243 A KR1020217018243 A KR 1020217018243A KR 20217018243 A KR20217018243 A KR 20217018243A KR 102387873 B1 KR102387873 B1 KR 102387873B1
Authority
KR
South Korea
Prior art keywords
control point
index
point set
equal
decoder
Prior art date
Application number
KR1020217018243A
Other languages
English (en)
Other versions
KR20210091778A (ko
Inventor
위엔 첸
시앙린 왕
Original Assignee
베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드
Priority to KR1020227007300A priority Critical patent/KR20220031771A/ko
Publication of KR20210091778A publication Critical patent/KR20210091778A/ko
Application granted granted Critical
Publication of KR102387873B1 publication Critical patent/KR102387873B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 구축된 아핀 병합 후보를 도출하는 방법에 관한 것이다. 본 방법은 디코더로부터 하나 이상의 제어 포인트 세트들을 획득하는 단계; 디코더에 의해, 제 1 참조 픽처 리스트의 참조 픽처를 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하는 단계; 디코더에 의해, 제 2 참조 픽처 리스트의 참조 픽처를 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하는 단계; 및 디코더에 의해, 결정 결과에 기초하여 아핀 모션 모델이 이용가능한지를 결정하는 단계를 포함한다.

Description

구축된 아핀 병합 후보들을 도출하기 위한 방법{METHOD FOR DERIVING CONSTRUCTED AFFINE MERGE CANDIDATES}
관련 출원에 대한 상호 참조
본 출원은 2018년 12월 13일자로 출원된 미국 가출원(62/779,423호)에 기초하고 우선권을 주장하며, 상기 미국 가출원의 전체 내용은 본 명세서에 참조로서 포함된다.
본 출원은 비디오 코딩 및 압축에 관한 것이다. 보다 구체적으로, 본 출원은 비디오 코딩에서 아핀 모션 예측(affine motion prediction)을 위한 시스템 및 방법과 관련된 것이다.
비디오 데이터를 압축하기 위하여 다양한 비디오 코딩 기술이 사용될 수 있다. 비디오 코딩은 하나 이상의 비디오 코딩 표준들에 따라 수행된다. 예를 들어, 비디오 코딩 표준들은 다목적 비디오 코딩(VVC: versatile video coding), 조인트 탐구 테스트 모델(JEM: Joint exploration test model), 고효율 비디오 코딩(H.265/HEVC), 고급 비디오 코딩(H.264/AVC), MPEG(moving picture experts group) 코딩 등을 포함한다. 일반적으로, 비디오 코딩은 비디오 이미지들 또는 시퀀스들에 존재하는 중복성(redundancy)을 이용하는 예측 방법들(예컨대, 인터-예측, 인트라-예측, 등)을 사용한다. 비디오 코딩 기술들의 중요한 목표 중 하나는 비디오 품질의 저하를 회피하거나 최소화하면서 더 낮은 비트 전송률을 사용하는 형태로 비디오 데이터를 압축하는 것이다.
본 개시의 일례들은 구축된 아핀 병합 후보들을 도출하는 방법을 제공한다.
본 개시의 제 1 양태에 따르면, 비디오 디코딩 방법이 제공되며, 상기 방법은, 디코더에 의해 하나 이상의 제어 포인트 세트들을 획득하는 단계, 각각의 제어 포인트 세트는 제어 포인트 세트 인덱스 및 다수의 제어 포인트들을 포함하고, 각각의 제어 포인트는 제 1 참조 인덱스, 제 1 모션 벡터, 제 2 참조 인덱스 및 제 2 모션 벡터를 포함하며; 디코더에 의해, 제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하는 단계; 디코더에 의해, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하는 단계; 및 디코더에 의해, 결정 결과에 기초하여, 아핀 모션 모델이 이용가능한지를 나타내는 플래그를 설정하는 단계를 포함한다.
본 개시의 제 2 양태에 따르면, 비디오 디코딩 디바이스가 제공되며, 상기 비디오 디코딩 디바이스는 하나 이상의 프로세서들; 하나 이상의 프로세서들에 의해 실행가능한 명령들을 저장하는 비일시적 컴퓨터 판독가능 메모리를 포함하고, 상기 하나 이상의 프로세서들은, 디코더에 의해 하나 이상의 제어 포인트 세트들을 획득하고, 각각의 제어 포인트 세트는 제어 포인트 세트 인덱스 및 다수의 제어 포인트들을 포함하고, 각각의 제어 포인트는 제 1 참조 인덱스, 제 1 모션 벡터, 제 2 참조 인덱스 및 제 2 모션 벡터를 포함하며; 디코더에 의해, 제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고; 디코더에 의해, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고; 및 디코더에 의해, 결정 결과에 기초하여, 아핀 모션 모델이 이용가능한지를 나타내는 플래그를 설정하도록 구성된다.
본 개시의 제 3 양태에 따르면, 하나 이상의 프로세서들을 갖는 비디오 디코딩 디바이스에 의해 실행되는 복수의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체가 제공되며, 상기 복수의 프로그램들은 하나 이상의 프로세서들에 의해 실행될 때 상기 비디오 디코딩 디바이스로 하여금, 디코더에 의해 하나 이상의 제어 포인트 세트들을 획득하고, 각각의 제어 포인트 세트는 제어 포인트 세트 인덱스 및 다수의 제어 포인트들을 포함하고, 각각의 제어 포인트는 제 1 참조 인덱스, 제 1 모션 벡터, 제 2 참조 인덱스 및 제 2 모션 벡터를 포함하며; 디코더에 의해, 제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고; 디코더에 의해, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고; 및 디코더에 의해, 결정 결과에 기초하여, 아핀 모션 모델이 이용가능한지를 나타내는 플래그를 설정하는 동작을 포함하는 디코딩 동작들을 수행하게 한다.
삭제
삭제
전술한 일반적인 설명 및 다음의 상세한 설명은 모두 예시일 뿐이며 본 발명을 제한하지 않음을 이해해야 한다.
본 명세서에 포함되고 본 명세서의 일부를 구성하는 첨부 도면들은 본 개시 내용과 일치하는 일례들을 예시하고, 발명의 상세한 설명과 함께 본 개시 내용의 원리를 설명하는 역할을 한다.
도 1은 본 개시의 일례에 따른 인코더의 블록도이다.
도 2는 본 개시의 일례에 따른 디코더의 블록도이다.
도 3은 본 개시의 일례에 따라, 구축된 아핀 병합 후보들을 도출하기 위한 방법을 예시하는 흐름도이다.
도 4는 본 개시의 일례에 따라, 구축된 아핀 병합 후보를 도출하기 위한 방법을 예시하는 흐름도이다.
도 5는 본 개시의 일례에 따라, 구축된 아핀 병합 후보들을 도출하기 위한 방법을 예시하는 흐름도이다.
도 6a는 본 개시의 일례에 따른, 제어 포인트 기반 아핀 모션 모델이다.
도 6b는 본 개시의 일례에 따른, 제어 포인트 기반 아핀 모션 모델이다.
도 7은 본 발명의 일례에 따른, 서브-블록 당 아핀 모션 벡터 필드(MVF: motion vector field)이다.
도 8은 본 개시의 일례에 따른 후보들의 포지션들의 위치이다.
도 9는 본 개시의 일 일례에 따른 제어 포인트 모션 벡터이다.
도 10은 본 개시의 일례에 따른 후보 포지션들의 위치들이다.
도 11은 본 개시의 일례에 따른, 구축된 아핀 병합 후보들을 도출하는 흐름도이다.
도 12는 본 개시의 일례에 따른 모션 벡터 사용의 예시이다.
도 13은 본 개시의 일례에 따른 아핀 병합 후보를 도출하는 방법을 나타낸다.
도 14는 본 개시의 일례에 따른 아핀 모션 모델의 도출이다.
도 15는 본 개시의 일례에 따른 아핀 모션 모델의 도출이다.
도 16은 본 개시의 일례에 따른 아핀 모션 모델의 도출이다.
도 17은 본 개시의 일례에 따른 컴퓨팅 환경의 블록도이다.
이제 예시적인 실시예들에 대한 참조가 상세하게 이루어질 것이며, 그 일례들은 첨부된 도면들에 도시되어 있다. 이하의 설명은 첨부된 도면들을 참조하며, 도면들에서 달리 표현되지 않는 한, 서로 다른 도면들에서 동일한 번호들은 동일하거나 유사한 요소들을 나타낸다. 예시적인 실시예들에 대한 다음의 설명에 서술된 구현들은 본 개시 내용과 일치하는 모든 구현들을 나타내는 것은 아니다. 대신, 이들은 첨부된 청구항들에 기재된 본 개시와 관련된 양상들과 일치하는 장치 및 방법의 일례일 뿐이다.
본 명세서에서 사용된 용어들은 특정 실시예들을 단지 설명하기위한 것일 뿐이며, 본 발명을 제한하고자 의도된 것이 아니다. 본 개시 내용 및 첨부된 청구항들에서 사용된 바와 같이, 단수형 "a" , "an" 및 "the"는 문맥상 명백하게 달리 표현되지 않는 한 복수형도 또한 포함하도록 의도된다. 또한, 다음이 이해되어야 하는바, 본 명세서에서 사용된 "및/또는" 이라는 용어는 하나 이상의 관련된 나열된 항목들 중 임의의 것 또는 모든 것들의 가능한 조합들을 의미 및 포함하도록 의도된 것이다.
본 명세서에서는 다양한 정보를 설명하기 위해 "제 1", "제 2", "제 3" 기타 등등의 용어가 사용될 수 있지만, 이러한 용어들에 의해서 정보가 제한되어서는 안됨을 이해해야 한다. 이들 용어들은 정보의 하나의 카테고리를 다른 카테고리와 구별하는데만 사용된다. 예를 들어, 본 개시의 범위를 벗어나지 않으면서, 제 1 정보는 제 2 정보로 지칭될 수 있고; 유사하게, 제 2 정보는 또한 제 1 정보로 지칭될 수 있다. 본 명세서에서 사용되는 용어 "만약(if)"은 문맥에 따라 "언제" 또는 "~~하면" 또는 "판단에 응답하여"를 의미하는 것으로 이해될 수 있다.
개념적으로, 비디오 코딩 표준들은 서로 유사하다. 예를 들어, 많은 것들은 블록 기반 프로세싱을 사용하고 그리고 유사한 비디오 코딩 블록 다이어그램을 공유하여 비디오 압축을 달성한다.
도 1은 전형적인 인코더(100)를 도시한다. 인코더(100)는 비디오 입력(110), 모션 보상(112), 모션 추정(114), 인트라/인터 모드 결정(116), 블록 예측자(140), 가산기(128), 변환(transform)(130), 양자화(132), 예측 관련 정보(142), 인트라 예측(118), 픽처 버퍼(120), 역 양자화(134), 역변환(136), 가산기(126), 메모리(124), 인-루프 필터(122), 엔트로피 코딩(138) 및 비트 스트림(144)을 갖는다.
인코더의 예시적인 실시예에서, 비디오 프레임은 프로세싱을 위해 블록들로 분할된다. 주어진 각각의 비디오 블록에 대하여, 인터 예측 또는 인트라 예측에 기초하여 예측이 형성된다. 인터 예측에서 예측자들(predictors)은 이전에 재구성된 프레임들의 픽셀들에 기초하여, 모션 추정 및 모션 보상을 통해 형성될 수 있다. 인트라 예측에서 예측자들은 현재 프레임의 재구성된 픽셀들에 기초하여 형성될 수 있다. 모드 결정을 통해, 현재 블록을 예측하기 위해 최상의 예측자가 선택될 수 있다.
예측 잔차(prediction residual)(즉, 현재 블록과 그것의 예측자 간의 차이)는 변환 모듈로 전송된다. 그런 다음, 변환 계수들은 엔트로피 감소를 위해 양자화 모듈로 전송된다. 양자화된 계수들은 압축된 비디오 비트스트림을 생성하기 위해 엔트로피 코딩 모듈에 공급된다. 도 1에 도시된 바와 같이, 블록 파티션 정보, 모션 벡터들, 참조 픽처 인덱스 및 인트라 예측 모드 등과 같은 인터 및/또는 인트라 예측 모듈들로부터의 예측 관련 정보도 엔트로피 코딩 모듈을 통과하여 비트스트림에 저장된다.
인코더에서, 예측 목적을 위해 픽셀들을 재구성하기 위해 디코더 관련 모듈들도 또한 필요하다. 먼저, 역 양자화 및 역 변환을 통해 예측 잔차가 재구성된다. 이러한 재구성된 예측 잔차는 블록 예측자와 결합되어, 현재 블록에 대해 필터링되지 않은 재구성된 픽셀을 생성한다. 코딩 효율 및 시각적 품질을 향상시키기 위하여 인-루프(in-loop) 필터가 통상적으로 사용된다. 예를 들어, 디블로킹 필터는 AVC, HEVC 및 현재 VVC에서 사용될 수 있다. HEVC에서는, 샘플 적응형 옵셋(SAO: sample adaptive offset)이라 지칭되는 추가적인 인-루프 필터가 정의되어, 코딩 효율을 더욱 향상시킨다. 최신 VVC에서는, 적응형 루프 필터(ALF: Adaptive Loop Filter)라는 또 다른 인-루프 필터가 활발히 연구되고 있으며, 최종 표준에 포함될 가능성이 매우 높다.
이러한 인-루프 필터 동작들은 선택 사항이다. 일반적으로, 이들을 턴온하면, 코딩 효율성과 시각적 품질이 향상된다. 또한, 이들은 계산 복잡성을 줄이기 위한 인코더 결정으로 턴오프될 수도 있다.
다음을 유의해야 하는바, 인트라 예측은 일반적으로 필터링되지 않은 재구성된 픽셀에 기초하는 반면, 인터 예측은 이러한 필터 옵션들이 인코더에 의해 턴온된 경우 필터링된 재구성된 픽셀에 기초한다.
도 2는 전형적인 디코더(200) 블록도를 도시한다. 디코더(200)는 비트스트림(210), 엔트로피 디코딩(212), 역 양자화(214), 역 변환(216), 가산기(218), 인트라/인터 모드 선택(220), 인트라 예측(222), 메모리(230), 인-루프 필터(228), 모션 보상(224), 픽처 버퍼(226), 예측 관련 정보(234) 및 비디오 출력(232)을 갖는다.
디코더에서, 비트스트림이 먼저 엔트로피 디코딩 모듈을 통해 디코딩되어 양자화된 계수 레벨들 및 예측 관련 정보를 도출한다. 양자화된 계수 레벨들은 역 양자화 및 역변환 모듈을 통해 프로세싱되어 재구성된 예측 잔차를 획득한다. 블록 예측자는 디코딩된 예측 정보를 기반으로 인트라 예측 또는 모션 보상 프로세스를 통해 형성된다. 재구성된 예측 잔차와 블록 예측자를 합산함으로써, 필터링되지 않은 재구성된 픽셀들이 획득된다. 인-루프 필터가 턴온된 경우, 이러한 픽셀들에 대해 필터링 동작들이 수행되어 출력을 위한 최종적으로 재구성된 비디오를 도출한다.
도 3은 본 개시에 따른 방법(300)의 단계를 설명하는 예시적인 흐름도를 도시한다.
관련된 제어 포인트 세트들이 유효한지 여부를 체크하는 것을 포함하여, 구축된 아핀 병합 도출은 인코더 측 및 디코더 측 둘다에서 수행된다.
단계 310는 디코더로부터 하나 이상의 제어 포인트 세트들을 획득하는 단계이고, 하나 이상의 제어 포인트 세트들은 제어 포인트 세트 인덱스 및 제어 포인트들을 포함하고; 각각의 제어 포인트 세트들은 다수의 제어 포인트들을 포함하고; 각각의 제어 포인트는 제 1 참조 픽처 인덱스, listO 모션 벡터, list1 참조 픽처 인덱스 및 list1 모션 벡터를 포함한다.
예시적인 실시예에서, 디코더로부터 제어 포인트 세트들을 획득하는 단계는, 비디오 입력으로부터 공간 인접 블록들(spatial neighboring blocks) 및 시간 블록들(temporal blocks)을 획득하는 단계, 공간 인접 블록들 및 시간 블록들에 기반으로 제어 포인트들을 결정하는 단계, 공간 인접 블록들 및 시간 블록들로부터의 제어 포인트들에 기초하여 모션 정보를 도출하는 단계, 및 제어 포인트들에 기초하여 제어 포인트 세트들을 정의하는 단계를 포함하고, 제어 포인트 세트는 제어 포인트 세트 인덱스를 포함한다.
각각의 제어 포인트는 2 개의 참조 인덱스들을 갖는다. 하나의 제어 포인트는 참조 픽처 리스트 0의 참조 픽처를 참조하고, 다른 하나의 제어 포인트는 참조 픽처 리스트 1의 참조 픽처를 참조한다. 그리고 2 개의 플래그들이 VVC 사양에서 사용되어 listO/listl 예측이 사용되는지의 여부를 나타낸다. 예를 들어, 플래그 one 플래그 X one이 이용되어, 리스트 X가 사용되는지 아닌지를 나타낸다(여기서 X는 0 또는 1 일 수 있음).
listO 예측만을 이용하는 제어 포인트의 경우(일반적으로 단일 예측이라 지칭됨), listO 참조 인덱스는 하나의 참조 픽처를 가리켜야 하므로, 인덱스 값은 0보다 크거나 같아야한다. 그리고 그것의 listl 참조 인덱스는 임의의 참조 픽처를 가리키지 않으며, 그 값은 유효하지 않음(in-valid)을 나타내는 값으로 설정된다(예컨대, VVC 사양에서 -1). 또한, 이 경우, 플래그 1 N은 1/참(true)으로 설정되고 플래그 2 N은 0/거짓(false)으로 설정된다.
list1 예측만을 이용하는 제어 포인트의 경우(일반적으로 단일 예측이라 지칭됨), list1 참조 인덱스는 하나의 참조 픽처를 가리켜야 하므로, 인덱스 값은 0보다 크거나 같아야한다. 그리고 그것의 list0 참조 인덱스는 임의의 참조 픽처를 가리키지 않으며, 그 값은 유효하지 않음(in-valid)을 나타내는 값으로 설정된다(예컨대, VVC 사양에서 -1). 또한, 이 경우, 플래그 1 N은 0/거짓(false)으로 설정되고, 플래그 2 N은 1/참(true)으로 설정된다.
list0 및 list1 예측 둘다를 이용하는 제어 포인트의 경우, 그것의 list0 참조 인덱스 및 list1 참조 인덱스 둘다는 0보다 크거나 같다. 또한, 이 경우, 플래그 1 N은 1/참(true)으로 설정되고, 플래그 2 N은 1/참(true)으로 설정된다.
단계 312에서, 디코더에 의해, 제 1 참조 픽처 리스트의 참조 픽처를 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지가 결정된다.
단계 314에서, 디코더에 의해, 제 2 참조 픽처 리스트의 참조 픽처를 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지가 결정된다.
단계 316에서, 디코더에 의해, 제어 포인트 세트 내의 제어 포인트들의 모션 벡터들에 상관없이, 결정 결과에 기초하여 아핀 모션 모델이 이용가능한지가 결정된다.
도 4는 본 개시에 따른 방법(400)의 단계들을 설명하는 예시적인 흐름도이다.
단계 410에서, 디코더에 의해, 참조 픽처 리스트 0을 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 서로 같은지가 결정된다.
단계 412에서, 디코더에 의해, 참조 픽처 리스트 0을 가리키는 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 모션 벡터가, 참조 픽처 리스트 0을 가리키는 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 2 제어 포인트의 모션 벡터와 같지 않다고 결정하거나 또는 제 1 제어 포인트의 모션 벡터가 제 1 참조 픽처 리스트 0을 가리키는 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 3 제어 포인트의 모션 벡터와 같지 않다고 결정한다.
단계 414에서, 디코더에 의해 제어 포인트 세트 인덱스에 대한 제어 포인트 세트들 내의 제어 포인트들의 모션 정보가 현재 블록의 관련 제어 포인트들의 모션 정보로서 설정되어, 제 1 리스트 아핀 모션 모델(a first list affine motion model)을 도출한다.
단계 416에서, 디코더에 의해, 참조 픽처 리스트 0을 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 x-제어 포인트의 참조 인덱스가 0 보다 크거나 같다고 결정된다.
단계 418에서, 디코더에 의해, 참조 픽처 리스트 0을 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 x-제어 포인트의 모션 정보가, 현재 블록의 모든 제어 포인트들의 모션 정보로서 설정되어 제 1 리스트 아핀 모션 모델을 도출한다.
도 5는 본 개시에 따른 방법(500)의 단계를 설명하는 예시적인 흐름도를 도시한다.
단계 510에서, 디코더에 의해, 제 1 참조 픽처 리스트의 참조 픽처를 가리키는 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각각의 제어 포인트의 참조 인덱스가 0 보다 크거나 같다고 결정한다.
단계 512에서, 디코더에 의해, 제어 포인트 세트 인덱스 내의 제어 포인트들의 모션 정보를 현재 블록의 관련 제어 포인트들의 모션 정보로 설정하여 제 1 리스트 아핀 모션 모델을 도출한다.
단계 514에서, 디코더에 의해, 제어 포인트 세트 인덱스의 참조 픽처 인덱스를 현재 블록의 참조 픽처 인덱스로 설정한다.
HEVC에서는, 모션 보상 예측(MCP: Motion Compensation Prediction)를 위해 오직 병진 모션 모델(translation motion model)만 적용된다. 반면에, 실제 세계에서는, 예컨대, 줌인/줌아웃, 회전, 원근 모션 및 기타 불규칙한 모션들과 같은 많은 종류의 모션이 존재한다. VVC의 현재 기준 소프트웨어(VTM3)에서는, 블록 기반 아핀 변환 모션 보상 예측이 적용된다. 후술되는 도 6a 및 도 6b에 도시된 바와 같이, 블록의 아핀 모션 필드는 2개의 제어 포인트들(4 파라미터들) 또는 3개의 제어 포인트들 모션 벡터들(6 파라미터들)의 모션 정보로 설명된다.
도 6a는 4-파라미터 아핀 모델에 대한 제어 포인트 기반 아핀 모션 모델을 도시한다.
도 6b는 6-파라미터 아핀 모델에 대한 제어 포인트 기반 아핀 모션 모델을 도시한다.
4-파라미터 아핀 모션 모델의 경우, 블록의 샘플 위치(x, y)에서 모션 벡터는 다음과 같이 유도된다:
Figure 112021068306022-pct00001
6-파라미터 아핀 모션 모델의 경우, 블록의 샘플 위치(x, y)에서 모션 벡터는 다음과 같이 유도된다:
Figure 112021068306022-pct00002
여기서, (mv0x, mv0y)는 상단 좌측 코너 제어 포인트의 모션 벡터이고, (mv1x, mv1y)는 상단 우측 코너 제어 포인트의 모션 벡터이고, (mv2x, mv2y)는 하단 좌측 코너 제어 포인트의 모션 벡터이다.
모션 보상 예측을 단순화하기 위하여 블록 기반 아핀 변환 예측이 적용된다. 4x4 루마(luma) 서브 블록 각각의 모션 벡터를 도출하기 위해하여, 도 7(아래에서 설명됨)에 도시된 바와 같이 각 서브 블록의 중앙 샘플의 모션 벡터가 위의 방정식들에 따라 계산되고 그리고 1/16 분수 정확도로 반올림된다. 그런 다음, 모션 보상 보간(interpolation) 필터를 적용하여, 도출된 모션 벡터를 사용하여 각 서브 블록의 예측을 생성한다. 또한, 크로마-성분(chroma-components)의 서브-블록 사이즈는 4x4로 설정된다. 4x4 크로마 서브-블록의 모션 벡터(MV)는 4개의 대응하는 4x4 루마 서브-블록들의 모션 벡터들(MVs) 평균으로 계산된다.
도 7은 서브-블록 당 아핀 모션 벡터 필드(MVF)를 나타낸다.
병진 모션 인터 예측(translational motion inter prediction)에 대해 행해진 바와 같이, 아핀 병합 모드 및 아핀 AMVP 모드라는 2 개의 아핀 모션 인터 예측 모드들이 또한 존재한다.
아핀 병합 예측(Affine merge prediction)
폭과 높이가 8 이상인 CU에 대해 AF_MERGE 모드를 적용할 수 있다. 이러한 모드에서, 공간적 인접 CU들(spatial neighboring CUs)의 모션 정보에 기초하여, 현재 CU의 제어 포인트들의 모션 벡터들(CPMVs)이 생성된다. 최대 5 개의 CPMVP 후보들이 있을 수 있으며 그리고 현재 CU에 사용될 하나를 나타내기 위해 인덱스가 시그널링된다. 다음의 3 개의 유형의 CPMV 후보들이 이용되어 아핀 병합 후보 리스트를 형성한다:
1. 인접 CUs의 CPMV들로부터 추론된 상속 아핀 병합 후보(Inherited affine merge candidates)
2. 인접 CUs의 병진(translational) MV를 사용하여 도출된 구축된 아핀 병합 후보 CPMVPs
3. 제로 MVs
VTM3에서는, 최대 2 개의 상속 아핀 후보들이 있는데, 이들은 인접 블록들의 아핀 모션 모델로부터 파생된 것으로, 하나는 왼쪽 인접 CU로부터, 다른 하나는 전술한 인접 CU들로부터 가져온 것이다. 후보 블록들이 도 8에 도시되어있다(후술 됨). 좌측 예측자의 경우 스캔 순서는 A0 -> A1이고, 위의 예측자의 경우 스캔 순서는 B0 -> B1 -> B2 이다. 오직 제 1 상속 후보만이 각 측으로부터 선택된다. 2개의 상속 후보들 사이에서는 가지치기 체크(pruning check)가 수행되지 않는다. 인접 아핀 CU가 식별되면, 그것의 제어 포인트 모션 벡터들이 이용되어 현재 CU의 아핀 병합 리스트에서 CPMVP 후보를 도출한다. 도 9에 도시된 바와 같이(아래에 설명됨), 인접 좌측 하단 블록 A가 아핀 모드로 코딩되면, 블록 A를 포함하는 CU의 상단 좌측 코너, 위의 우측 코너 및 하단 좌측 코너의 모션 벡터들 v2, v3 및 v4가 획득된다. 블록 A가 4-파라미터 아핀 모델로 코딩되는 경우, 현재 CU의 2 개의 CPMV들은 v2 및 v3에 따라 계산된다. 블록 A가 6-파라미터 아핀 모델로 코딩되는 경우, 현재 CU의 3 개의 CPMV들은 v2, v3 및 v4에 따라 계산된다.
도 8은 상속 아핀 모션 예측자들의 위치를 도시한다.
도 9는 제어 포인트 모션 벡터 상속을 나타낸다.
구축된(constructed) 아핀 후보는, 각 제어 포인트의 인접 병진 모션 정보를 조합함으로써 후보가 구성되는 것을 의미한다. 제어 포인트에 대한 모션 정보는 도 10에 도시된 특정한 공간적 이웃들과 시간적 이웃으로부터 도출된다(후술됨). CPk(k = l, 2, 3, 4)는 k 번째 제어 포인트를 나타낸다. CP1는 현재 블록의 상단 좌측 코너에 있는 제어 포인트이며, B2 -> B3 -> A2 블록들이 체크되고, 제 1 가용 블록의 MV가 CP1의 모션 정보로서 사용된다. CP2는 현재 블록의 상단 우측 코너에 있는 제어 포인트이며, B1 -> B0 블록들이 체크되고, 제 1 가용 블록의 MV가 CP1의 모션 정보로서 사용된다. CP3은 현재 블록의 하단 좌측 코너에 있는 제어 포인트이며, A1 -> A0 블록들이 체크된다. 가능한 경우, 시간적 모션 벡터 예측자(TMVP)는 하단 우측의 제어 포인트 CP4 로서 이용된다.
도 10은 구축된 아핀 병합 모드에 대한 후보자 포지션의 위치들을 도시한다. 4 개의 제어 포인트들이 획득된 이후, 제어 포인트들의 모션 정보를 기반으로 아핀 병합 후보들이 구성된다. 다음의 6 개의 제어 포인트 조합들이 이용되어, 구축된 아핀 병합 후보들을 순서대로 구성한다:
{CP1, CP2, CP3}, {CP1, CP2, CP4}, {CP1, CP3, CP4}, {CP2, CP3, CP4}, {CP1, CP2}, {CP1, CP3}
3 개의 제어 포인트들의 조합은 6-파라미터 아핀 병합 후보를 구성하고, 2 개의 제어 포인트들의 조합은 4-파라미터 아핀 병합 후보를 구성한다. 모션 스케일링 프로세스를 회피하기 위해, 제어 포인트들의 참조 인덱스들이 다른 경우, 제어 포인트 MV의 관련 조합이 폐기된다. 또한, 4-파라미터 아핀 모델 하에서 2 개의 CPMV가 동일할 경우(6-파라미터 아핀 모델 하에서 3 개의 CPMV가 동일), 제어 포인트 MV의 관련 조합도 또한 폐기된다. 구축된 아핀 병합 후보를 도출하기 위한 흐름도가 도 11에 도시되어 있다(후술될 것임).
도 11은 구축된 아핀 병합 후보들의 도출에 대한 흐름도이다.
아핀 AMVP 예측(Affine AMVP prediction)
아핀 AMVP 모드는 폭과 높이가 모두 16 이상인 보다 크거나 같은 CU에 적용될 수 있다. CU 레벨의 아핀 플래그는 아핀 AMVP 모드가 사용되는지를 나타내기 위해 비트스트림에서 시그널링되며, 이후 4-파라미터 아핀 또는 6-파라미터 아핀을 나타내기 위하여 다른 플래그가 시그널링된다. 이러한 모드에서, 현재 CU의 CPMVs와 이들의 예측자 CPMVPs의 차이는 비트스트림에서 시그널링된다. 아핀 AMVP 후보 리스트 사이즈는 2이며, 이것은 다음의 4 개 유형의 CPMV 후보를 순서대로 사용하여 생성된다:
1. 인접 CUs의 CPMVs 로부터 추론된 상속 아핀 AMVP 후보들
2. 인접 CUs의 병진 MVs를 사용하여 도출된 구축된 아핀 AMVP 후보 CPMVPs
3. 인접 CUs 로부터의 병진 MVs
4. 제로 MV
상속 아핀 AMVP 후보들의 체크 순서는 상속 아핀 병합 후보들의 체크 순서와 동일하다. 유일한 차이점은, AMVP 후보의 경우, 현재 블록과 동일한 참조 픽처를 가진 아핀 CU만이 고려된다는 것이다. 상속 아핀 모션 예측자를 후보 리스트에 삽입할 때 가지치기 프로세스가 적용되지 않는다.
구축된 AMVP 후보는 도 10에 도시된 특정한 공간적 이웃들로부터만 도출된다. 아핀 병합 후보 구축에서 수행된 것과 동일한 체크 순서가 사용된다. 또한 인접 블록의 참조 픽처 인덱스가 또한 체크된다. 인터 코딩되고 현재 CU에서와 동일한 참조 픽처를 갖는 체크 순서의 제 1 블록이 사용된다.
3 개의 CPMV가 모두 첨부되면, 그대로 아핀 AMVP 리스트에 삽입될 것이다. 만일, mv0 및 mv1 만이 이용될 수 있는 경우, mv2는 다음과 같이 도출된다:
Figure 112021068306022-pct00003
여기서, 현재 CU 사이즈는 w × h이다. 만일, mv0 및 mv2 만이 이용가능한 경우, mv1는 다음과 같이 도출된다:
Figure 112021068306022-pct00004
만약 아핀 AMVP리스트 후보가 여전히 2보다 작다면, mv0, mv1, mv2가 순서대로 추가될 것이며, 가능한 경우 현재 CU의 모든 제어 포인트 MVs를 예측하기 위해 병진 MV가 추가될 것이다.
아핀 모션 정보 저장
VTM3에서, 아핀 CU의 CPMV는 별도의 버퍼에 저장된다. 저장된 CPMV는 최근에 코딩된 CU에 대해 아핀 병합 모드 및 아핀 AMVP 모드에서 상속 CPMVP를 생성하는 데만 사용된다. CPMV로부터 도출된 서브-블록 MV는 모션 보상, 병진 MVs의 병합/AMVP 리스트의 MV 도출 및 디블록킹에 사용된다.
추가 CPMVs에 대한 픽처 라인 버퍼를 회피하기 위해, 위의 CTU로부터의 CU로부터의 아핀 모션 데이터 상속은 정상적인 인접 CU로부터의 상속과 다르게 처리된다. 아핀 모션 데이터 상속을 위한 후보 CU가 위의 CTU 라인에 있는 경우, CPMVs 대신 라인 버퍼의 좌측 하단 및 우측 하단 서브-블록 MVs가 아핀 MVP 도출을 위해 이용된다. 이러한 방식으로 CPMVs는 오직 로컬 버퍼에만 저장된다. 후보 CU가 6-파라미터 아핀 코딩된 경우, 아핀 모델은 4-파라미터 모델로 격하된다. 도 12(아래 설명됨)에 도시된 바와 같이, 상단 CTU 경계를 따라, CU의 하단-좌측 및 하단-우측 서브-블록 모션 벡터들이 하단 CTU에서 CU의 아핀 상속을 위해 사용된다.
도 12는 제안된 결합 방법에 대한 모션 벡터 사용의 예시를 보여준다.
일 실시예에서, 구축된 아핀 병합 후보를 도출할 때, 병진 모션 모델은 제어 포인트들 간의 MV가 동일할 수 있기 때문에 유효한 아핀 병합 후보로 간주된다. 구축된 아핀 병합 후보에 대한 병진 모션 모델을 허용하기 위해, 제어 포인트들의 MV들 간의 비교를 제거하는 것이 제안된다. MV들 간의 비교가 제거되었기 때문에, 제안된 방식은 구축된 아핀 병합 후보들의 도출을 단순화할 수 있다. 기존 방법에 기초한 예시적인 흐름도가 도 13에 도시되어있다(아래에 설명됨).
도 13은 아핀 병합 후보를 도출하기 위한 방법의 흐름도를 도시한다.
다른 실시예에서, 제어 포인트들 간의 참조 인덱스들이 서로 다른 경우, 연관된 제어 포인트 세트에 의해 도출된 아핀 모션 모델은 이용불가능한 것으로 간주된다. 또 다른 제안된 기법에서는, 제어 포인트들 간의 참조 인덱스들이 다른 경우의 조건들을 고려하기 위하여 제어 포인트들 간의 모션 정보의 체킹이 수정된다. 제안된 기법에서는 제어 포인트들 간의 참조 인덱스들이 다른 경우, 하나의 선택된 제어 포인트의 모션 정보가 모든 제어 포인트들에 대한 모션 정보로 사용된다. 2개의 일례들이 리스트 0(또는 포워드 참조 픽처 리스트라고도 함) 6-파라미터 아핀 모션 모델의 도출에 대한 제안된 수정들을 설명하기 위해 도 14 및 도 15(후술됨)에 주어진다. 일반성을 잃지 않고, 리스트 1 또는 4-파라미터 아핀 모션 모델 도출에도 또한 동일한 수정들이 적용될 수 있다.
도 14는 제어 포인트들 간의 서로 다른 참조 인덱스들을 고려한 아핀 모션 모델의 도출을 도시한다.
도 15는 제어 포인트들 간의 서로 다른 참조 인덱스들을 고려한 아핀 모션 모델의 도출을 도시한다.
또 다른 제안된 기법에서는 제어 포인트들 간의 모션 정보의 체크가 모두 금지되어 있다. 제안된 기법에서, 제어 포인트가 모션 정보를 갖고 있는한 이들이 서로 다른 참조 픽처 인덱스들을 갖고 있더라도, 이들은 아핀 모션 모델을 구성하는데 사용된다. 기존 방법에 기초한 예시적인 흐름도가 도 16에 도시되어 있다(후술됨).
다른 실시예들은 본원에 개시된 실시예들의 세부 내용 및 실행을 고려하여 당업자에게 명백해질 것이다. 본 출원은 본 발명의 일반적인 원리를 따르고 본 개시로부터의 이러한 이탈들을 포함하여 해당 기술 분야의 공지된 또는 관례적인 실행 내에 있는 실시예들의 임의의 변형예들, 사용예들 또는 적응예들을 포함하도록 의도된다. 명세서 및 실시예들은 단지 예시적인 것으로 간주되며, 실시예의 진정한 범위 및 사상은 다음의 청구항들에 의해 표시된다.
다음이 이해되여하 하는바, 본 실시예는 앞서 설명되고 첨부된 도면들에 도시된 정확한 일례들에 한정되지 않으며, 그 범위를 벗어나지 않고도 다양한 수정들 및 변경들이 이루어질 수 있다. 실시예의 범위는 첨부된 청구항들에 의해서만 제한되도록 의도된다.
도 16은 참조 픽처 인덱스들을 고려한 아핀 모션 모델의 도출을 나타낸다.
도 17은 사용자 인터페이스(1760)와 결합된 컴퓨팅 환경(1710)을 도시한다. 컴퓨팅 환경(1710)은 데이터 프로세싱 서버의 일부일 수 있다. 컴퓨팅 환경(1710)은 프로세서(1720), 메모리(1740) 및 I/O 인터페이스(1750)를 포함한다.
프로세서(1720)는 일반적으로 디스플레이, 데이터 획득, 데이터 통신 및 이미지 프로세싱과 관련된 동작들과 같은 컴퓨팅 환경(1710)의 전체 동작들을 제어한다. 프로세서(1720)는 전술한 방법들의 전부 또는 일부 단계들을 수행하기 위한 명령들을 실행하는 하나 이상의 프로세서를 포함할 수 있다. 더욱이, 프로세서(1720)는 프로세서(1720)와 다른 컴포넌트들 간의 상호작용을 용이하게하는 하나 이상의 모듈들을 포함할 수 있다. 프로세서는 중앙 처리 유닛(CPU), 마이크로프로세서, 단일 칩 머신, GPU 등일 수 있다.
메모리(1740)는 컴퓨팅 환경(1710)의 동작을 지원하기 위해 다양한 유형의 데이터를 저장하도록 구성된다. 이러한 데이터의 일례는 컴퓨팅 환경(1710), MRI 데이터 세트, 이미지 데이터 등에서 동작하는 임의의 어플리케이션 또는 방법에 대한 명령들을 포함한다. 메모리(1740)는 가령, 정적 랜덤 액세스 메모리(SRAM), 전기적으로 소거 및 프로그램가능한 판독 전용 메모리(EEPROM: electrical erasable programmable read-only memory), 소거 및 프로그램가능한 판독 전용 메모리(EPROM), 프로그램가능한 판독 전용 메모리(PROM), 판독 전용 메모리(ROM), 자기 메모리, 플래시 메모리, 자기 또는 광 디스크와 같은, 임의 유형의 휘발성 또는 비휘발성 메모리 디바이스 또는 이들의 조합을 사용하여 구현될 수 있다.
I/O 인터페이스(1750)는 프로세서(1720)와 키보드, 클릭 휠, 버튼 등과 같은 주변 인터페이스 모듈들 사이의 인터페이스를 제공한다. 버튼은 홈 버튼, 스캔 시작 버튼 및 스캔 중지 버튼을 포함할 수 있지만 이에 국한되지는 않는다. I/O 인터페이스(1750)는 인코더 및 디코더와 결합될 수 있다.
일실시예에서, 전술한 방법들을 수행하기 위해, 컴퓨팅 환경(1710)에서 프로세서(1720)에 의해 실행가능한, 메모리(1740)에 포함된 것과 같은 복수의 프로그램들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체가 또한 제공된다. 예를 들어, 비일시적 컴퓨터 판독가능 저장 매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광학 데이터 저장 장치 등일 수 있다.
비일시적 컴퓨터 판독가능 저장 매체에는 하나 이상의 프로세서를 갖는 컴퓨팅 디바이스에 의해 실행되는 복수의 프로그램들이 저장되며, 여기서 복수의 프로그램들은 하나 이상의 프로세서들에 의해 실행될 때 컴퓨팅 디바이스로 하여금, 앞서 서술된 모션 예측 방법을 수행하게 한다.
일 실시예에서, 컴퓨팅 환경(1710)은 전술한 방법들을 수행하기 위한 하나 이상의 주문형 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리 디바이스(DSPD), 프로그래밍가능 논리 디바이스(PLD), 필드-프로그램가능한 게이트 어레이(FPGA: field-programmable gate array), 그래픽 프로세싱 유닛(GPU), 컨트롤러, 마이크로-컨트롤러, 마이크로-프로세서 또는 기타 전자 부품으로 구현될 수 있다.

Claims (25)

  1. 비디오 디코딩 방법으로서,
    디코더에 의해 하나 이상의 제어 포인트 세트들을 획득하는 단계, 각각의 제어 포인트 세트는 제어 포인트 세트 인덱스 및 다수의 제어 포인트들을 포함하고, 각각의 제어 포인트는 제 1 참조 인덱스, 제 1 모션 벡터, 제 2 참조 인덱스 및 제 2 모션 벡터를 포함하며;
    디코더에 의해, 제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하는 단계;
    디코더에 의해, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하는 단계; 및
    제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같으며 그리고 그 각각이 서로 같은 경우, 및/또는, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같으며 그리고 그 각각이 서로 같은 경우, 디코더에 의해, 아핀 모션 모델이 이용가능한지를 나타내는 플래그를 설정하는 단계
    를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  2. 제1항에 있어서,
    상기 디코더에 의해 제어 포인트 세트를 획득하는 단계는,
    상기 디코더로 입력된 비디오로부터 공간 인접 블록들(spatial neighboring blocks) 및 시간 블록들(temporal blocks)을 획득하는 단계;
    공간 인접 블록들 및 시간 블록들에 기초하여 제어 포인트들을 결정하는 단계;
    공간 인접 블록들 및 시간 블록들로부터의 제어 포인트들에 기초하여 모션 정보를 도출하는 단계; 및
    제어 포인트들에 기초하여 제어 포인트 세트를 정의하는 단계를 포함하고, 제어 포인트 세트는 제어 포인트 세트 인덱스를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  3. 제2항에 있어서,
    상기 제어 포인트 세트는 적어도 2 개의 제어 포인트들을 포함하거나 및/또는 상기 도출된 모션 정보는 참조 인덱스 및 모션 벡터들을 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  4. 제1항에 있어서,
    구축된 아핀 모션 모델(constructed affine motion model)을 도출하도록, 디코더에 의해, 상기 제어 포인트 세트들 내의 제어 포인트들의 모션 정보를 현재 블록의 관련된 제어 포인트들의 모션 정보와 동일하게 설정하는 단계; 및
    디코더에 의해, 상기 구축된 아핀 모션 모델이 이용가능하다고 결정하고, 그리고 상기 구축된 아핀 모션 모델을 아핀 병합 후보 리스트에 삽입하는 단계
    를 더 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  5. 제2항에 있어서,
    상기 제어 포인트(CP)는 CP1, CP2, CP3 및 CP4를 포함하고, 상기 제어 포인트 세트를 정의하는 단계는,
    {{CP1, CP2, CP3}, {CP1, CP2, CP4}, {CP1, CP3, CP4}, {CP2, CP3, CP4}, {CP1, CP2, NULL}, {CP1, CP3, NULL}} 로서 제어 포인트 세트를 정의하는 단계를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  6. 제1항에 있어서,
    디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각각의 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 서로 같은지를 결정하는 단계;
    디코더에 의해, 제 1 참조 리스트 내의 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 모션 벡터가, 제 1 참조 리스트 내의 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 2 제어 포인트의 모션 벡터와 같지 않은지를 결정하거나, 또는 상기 제 1 제어 포인트의 모션 벡터가 제 1 참조 리스트 내의 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 3 제어 포인트의 모션 벡터와 같지 않은지를 결정하는 단계; 및
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제어 포인트 세트 인덱스에 대한 제어 포인트 세트 내의 제어 포인트들의 모션 정보를 현재 블록의 관련된 제어 포인트들의 모션 정보와 동일하게 설정하는 단계
    를 더 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  7. 제6항에 있어서,
    상기 제 1 참조 리스트는 listO 참조 리스트이고, 상기 제 2 참조 리스트는 list1 참조 리스트이며; 또는 상기 제 1 참조 리스트는 list1 참조 리스트이고, 상기 제 2 참조 리스트는 list0 참조 리스트인 것을 특징으로 하는 비디오 디코딩 방법.
  8. 제6항에 있어서,
    디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지를 결정하는 단계; 및
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 모션 정보를 상기 현재 블록의 모든 제어 포인트들의 모션 정보와 동일하게 설정하는 단계
    를 더 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  9. 제1항에 있어서,
    디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각각의 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지를 결정하는 단계;
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제어 포인트 세트 인덱스의 제어 포인트들의 모션 정보를, 현재 블록의 관련된 제어 포인트들의 모션 정보와 동일하게 설정하는 단계;
    디코더에 의해, 상기 구축된 아핀 모션 모델이 이용가능하다고 결정하고, 그리고 상기 구축된 아핀 모션 모델을 아핀 병합 후보 리스트에 삽입하는 단계; 및
    디코더에 의해, 아핀 병합 후보 리스트의 구축된 아핀 모션 모델의 참조 인덱스를 현재 블록의 참조 인덱스와 동일하게 설정하는 단계
    를 더 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  10. 비디오 디코딩 디바이스로서,
    하나 이상의 프로세서들;
    하나 이상의 프로세서들에 의해 실행가능한 명령들을 저장하는 비일시적 컴퓨터 판독가능 메모리를 포함하고,
    상기 하나 이상의 프로세서들은,
    디코더에 의해 하나 이상의 제어 포인트 세트들을 획득하고, 각각의 제어 포인트 세트는 제어 포인트 세트 인덱스 및 다수의 제어 포인트들을 포함하고, 각각의 제어 포인트는 제 1 참조 인덱스, 제 1 모션 벡터, 제 2 참조 인덱스 및 제 2 모션 벡터를 포함하며;
    디코더에 의해, 제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고;
    디코더에 의해, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고; 및
    제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같으며 그리고 그 각각이 서로 같은 경우, 및/또는, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같으며 그리고 그 각각이 서로 같은 경우, 디코더에 의해, 아핀 모션 모델이 이용가능한지를 나타내는 플래그를 설정하도록 구성되는 것을 특징으로 하는 비디오 디코딩 디바이스.
  11. 제10항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 디코더로 입력된 비디오로부터 공간 인접 블록들 및 시간 블록들을 획득하고;
    공간 인접 블록들 및 시간 블록들에 기초하여 제어 포인트들을 결정하고;
    공간 인접 블록들 및 시간 블록들로부터의 제어 포인트들에 기초하여 모션 정보를 도출하고; 및
    제어 포인트들에 기초하여 제어 포인트 세트를 정의하도록 구성되며,
    제어 포인트 세트는 제어 포인트 세트 인덱스를 포함하는 것을 특징으로 하는 비디오 디코딩 디바이스.
  12. 제10항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제어 포인트 세트들 내의 제어 포인트들의 모션 정보를 현재 블록의 관련된 제어 포인트들의 모션 정보와 동일하게 설정하고; 그리고
    디코더에 의해, 상기 구축된 아핀 모션 모델이 이용가능하다고 결정하고, 그리고 상기 구축된 아핀 모션 모델을 아핀 병합 후보 리스트에 삽입하도록 구성되는 것을 특징으로 하는 비디오 디코딩 디바이스.
  13. 제11항에 있어서,
    상기 제어 포인트(CP)는 CP1, CP2, CP3 및 CP4를 포함하고, 상기 제어 포인트 세트들을 정의하는 것은,
    {{CP1, CP2, CP3}, {CP1, CP2, CP4}, {CP1, CP3, CP4}, {CP2, CP3, CP4}, {CP1, CP2, NULL}, {CP1, CP3, NULL}} 로서 제어 포인트 세트를 정의하는 것을 포함하는 비디오 디코딩 디바이스.
  14. 제10항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    디코더에 의해, 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각각의 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 서로 같은지를 결정하고;
    디코더에 의해, 제 1 참조 리스트 내의 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 모션 벡터가, 제 1 참조 리스트 내의 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 2 제어 포인트의 모션 벡터와 같지 않은지를 결정하거나, 또는 상기 제 1 제어 포인트의 모션 벡터가 제 1 참조 리스트 내의 모션 벡터와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 3 제어 포인트의 모션 벡터와 같지 않은지를 결정하고; 그리고
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제어 포인트 세트 인덱스에 대한 제어 포인트 세트 내의 제어 포인트들의 모션 정보를 현재 블록의 관련된 제어 포인트들의 모션 정보와 동일하게 설정하도록 구성되는 것을 특징으로 하는 비디오 디코딩 디바이스.
  15. 제14항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지를 결정하고; 그리고
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 제 1 제어 포인트의 모션 정보를, 현재 블록의 모든 제어 포인트들의 모션 정보와 동일하게 설정하도록 구성되는 것을 특징으로 하는 비디오 디코딩 디바이스.
  16. 제10항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    디코더에 의해, 제 1 참조 리스트 내의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각각의 제어 포인트의 참조 인덱스가 0 보다 크거나 같다라고 결정하고;
    구축된 아핀 모션 모델을 도출하도록, 디코더에 의해, 제어 포인트 세트 인덱스의 제어 포인트들의 모션 정보를, 현재 블록의 관련된 제어 포인트들의 모션 정보와 동일하게 설정하고;
    디코더에 의해, 상기 구축된 아핀 모션 모델이 이용가능하다고 결정하고, 그리고 상기 구축된 아핀 모션 모델을 아핀 병합 후보 리스트에 삽입하고; 및
    디코더에 의해, 아핀 병합 후보 리스트의 구축된 아핀 모션 모델의 참조 인덱스를 현재 블록의 참조 인덱스와 동일하게 설정하도록 구성되는 것을 특징으로 하는 비디오 디코딩 디바이스.
  17. 하나 이상의 프로세서들을 갖는 비디오 디코딩 디바이스에 의해 실행되는 복수의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 복수의 프로그램들은 하나 이상의 프로세서들에 의해 실행될 때 상기 비디오 디코딩 디바이스로 하여금,
    디코더에 의해 하나 이상의 제어 포인트 세트들을 획득하고, 각각의 제어 포인트 세트는 제어 포인트 세트 인덱스 및 다수의 제어 포인트들을 포함하고, 각각의 제어 포인트는 제 1 참조 인덱스, 제 1 모션 벡터, 제 2 참조 인덱스 및 제 2 모션 벡터를 포함하며;
    디코더에 의해, 제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고;
    디코더에 의해, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같은지 그리고 그 각각이 서로 같은지를 결정하고; 및
    제 1 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같으며 그리고 그 각각이 서로 같은 경우, 및/또는, 제 2 참조 리스트의 참조 인덱스와 연관된 제어 포인트 세트 내의 제어 포인트 세트 인덱스에 대한 각 제어 포인트의 참조 인덱스가 0 보다 크거나 같으며 그리고 그 각각이 서로 같은 경우, 디코더에 의해, 아핀 모션 모델이 이용가능한지를 나타내는 플래그를 설정하는 동작을 포함하는 디코딩 동작들을 수행하게 하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 저장 매체.
  18. 하나 이상의 프로세서들을 갖는 컴퓨팅 장치에 의해 실행가능한 하나 이상의 프로그램들을 포함하는 컴퓨터 프로그램 제품으로서, 상기 프로그램들이 하나 이상의 프로세서들에 의해 실행될 때, 상기 프로그램들은 상기 컴퓨팅 장치로 하여금 제1항 내지 제9항 중 어느 한 항의 방법을 실행하게 하는 것을 특징으로 하는 컴퓨터 프로그램 제품.
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
KR1020217018243A 2018-12-13 2019-12-13 구축된 아핀 병합 후보들을 도출하기 위한 방법 KR102387873B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227007300A KR20220031771A (ko) 2018-12-13 2019-12-13 구축된 아핀 병합 후보들을 도출하기 위한 방법

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862779423P 2018-12-13 2018-12-13
US62/779,423 2018-12-13
PCT/US2019/066385 WO2020124040A1 (en) 2018-12-13 2019-12-13 Method for deriving constructed affine merge candidates

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227007300A Division KR20220031771A (ko) 2018-12-13 2019-12-13 구축된 아핀 병합 후보들을 도출하기 위한 방법

Publications (2)

Publication Number Publication Date
KR20210091778A KR20210091778A (ko) 2021-07-22
KR102387873B1 true KR102387873B1 (ko) 2022-04-18

Family

ID=71077535

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020217018243A KR102387873B1 (ko) 2018-12-13 2019-12-13 구축된 아핀 병합 후보들을 도출하기 위한 방법
KR1020227007300A KR20220031771A (ko) 2018-12-13 2019-12-13 구축된 아핀 병합 후보들을 도출하기 위한 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020227007300A KR20220031771A (ko) 2018-12-13 2019-12-13 구축된 아핀 병합 후보들을 도출하기 위한 방법

Country Status (7)

Country Link
US (4) US11729408B2 (ko)
EP (1) EP3895430A4 (ko)
JP (2) JP7247345B2 (ko)
KR (2) KR102387873B1 (ko)
CN (2) CN113170187A (ko)
MX (4) MX2021007018A (ko)
WO (1) WO2020124040A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102463478B1 (ko) * 2018-01-26 2022-11-04 에이치에프아이 이노베이션 인크. 비디오 코딩 시스템을 위한 아핀 인터 예측 방법 및 장치

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2711199C (en) 2010-07-29 2013-11-12 Messier-Dowty Inc. Hydraulic shimmy damper for aircraft landing gear
EP3703373B1 (en) * 2010-10-08 2024-04-17 GE Video Compression, LLC Picture coding supporting block partitioning and block merging
US20190028731A1 (en) * 2016-01-07 2019-01-24 Mediatek Inc. Method and apparatus for affine inter prediction for video coding system
WO2017171107A1 (ko) * 2016-03-28 2017-10-05 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018128380A1 (ko) * 2017-01-03 2018-07-12 엘지전자(주) 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2019002215A1 (en) * 2017-06-26 2019-01-03 Interdigital Vc Holdings, Inc. MULTIPLE PREDICTION CANDIDATES FOR MOTION COMPENSATION
CN107314077B (zh) 2017-07-13 2023-01-24 盐城市步高汽配制造有限公司 一种内外双线圈的双筒式磁流变减振器
US11877001B2 (en) * 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
US20190208211A1 (en) * 2018-01-04 2019-07-04 Qualcomm Incorporated Generated affine motion vectors
WO2019235822A1 (ko) * 2018-06-04 2019-12-12 엘지전자 주식회사 어파인 움직임 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
SG11202012701XA (en) * 2018-07-02 2021-01-28 Huawei Tech Co Ltd Motion vector prediction method and apparatus, encoder, and decoder
CN110891176B (zh) * 2018-09-10 2023-01-13 华为技术有限公司 基于仿射运动模型的运动矢量预测方法及设备
CN111247805B (zh) * 2018-09-12 2023-12-01 Lg电子株式会社 在图像编码***中基于以子块为单元进行的运动预测的图像解码方法和设备
EP3854096A1 (en) * 2018-09-21 2021-07-28 VID SCALE, Inc. Affine motion estimation for affine model-based video coding
US20210400298A1 (en) * 2018-09-28 2021-12-23 Lg Electronics Inc. Method and apparatus for processing video signal by using affine prediction
CN111010571B (zh) * 2018-10-08 2023-05-16 北京字节跳动网络技术有限公司 组合仿射Merge候选的生成和使用
WO2020098714A1 (en) * 2018-11-13 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Multiple hypothesis for sub-block prediction blocks
CN113170105A (zh) * 2018-11-16 2021-07-23 北京字节跳动网络技术有限公司 基于历史的仿射参数继承
CN112954366A (zh) * 2018-12-28 2021-06-11 Jvc建伍株式会社 动图像编码装置及编码方法、动图像解码装置及解码方法
WO2020177684A1 (en) * 2019-03-03 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Enabling dmvr based on the information in the picture header
KR20210129721A (ko) * 2019-03-11 2021-10-28 알리바바 그룹 홀딩 리미티드 병합 모드를 위한 예측 가중치를 결정하는 방법, 디바이스, 및 시스템
US11146813B2 (en) * 2019-05-23 2021-10-12 Tencent America LLC Method and apparatus for video coding
CN115280774A (zh) * 2019-12-02 2022-11-01 抖音视界有限公司 在仿射模式下与运动向量差分merge

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross, et. al., "Versatile Video Coding (Draft 2)", Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 11th Meeting: Ljubljana, SI, 10-18 July 2018, JVET-K1001*

Also Published As

Publication number Publication date
JP2023063506A (ja) 2023-05-09
MX2023013408A (es) 2023-12-06
MX2021007018A (es) 2021-07-21
MX2023013376A (es) 2023-11-27
US20210306649A1 (en) 2021-09-30
EP3895430A1 (en) 2021-10-20
CN113170187A (zh) 2021-07-23
US11729408B2 (en) 2023-08-15
KR20220031771A (ko) 2022-03-11
JP2022513492A (ja) 2022-02-08
JP7247345B2 (ja) 2023-03-28
US20230353769A1 (en) 2023-11-02
US20230362395A1 (en) 2023-11-09
EP3895430A4 (en) 2022-10-12
MX2023013379A (es) 2023-11-27
KR20210091778A (ko) 2021-07-22
CN114222135A (zh) 2022-03-22
US20230262246A1 (en) 2023-08-17
WO2020124040A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP7218449B2 (ja) ビデオ符号化復号化における長期参照画像のための制約付き動きベクトル導出
US20200029073A1 (en) Merge Candidates With Multiple Hypothesis
US20230362395A1 (en) Method for deriving constructed affine merge candidates
KR102489605B1 (ko) 조합된 인터 및 인트라 예측을 위한 시스템 및 방법
WO2020243709A1 (en) Methods and apparatus for signaling symmetrical motion vector difference mode
JP7198949B2 (ja) ビデオ符号化のための動きベクトル予測
KR102450491B1 (ko) 조합된 인터 및 인트라 예측을 위한 시스템 및 방법
CN117014615B (zh) 视频编码方法、设备和非暂时性计算机可读存储介质
CN114342390A (zh) 用于仿射运动补偿的预测细化的方法和装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant