KR20210153377A - A method and an apparatus for processing a video signal - Google Patents

A method and an apparatus for processing a video signal Download PDF

Info

Publication number
KR20210153377A
KR20210153377A KR1020200070337A KR20200070337A KR20210153377A KR 20210153377 A KR20210153377 A KR 20210153377A KR 1020200070337 A KR1020200070337 A KR 1020200070337A KR 20200070337 A KR20200070337 A KR 20200070337A KR 20210153377 A KR20210153377 A KR 20210153377A
Authority
KR
South Korea
Prior art keywords
value
affine
block
flag
motion
Prior art date
Application number
KR1020200070337A
Other languages
Korean (ko)
Inventor
임성원
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020200070337A priority Critical patent/KR20210153377A/en
Publication of KR20210153377A publication Critical patent/KR20210153377A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention provides an inter-screen prediction method using an affine motion model and an apparatus therefor. The present invention includes a method for setting motion information in consideration of vertical, horizontal, left, and right movements; a method of setting motion information in consideration of enlargement, reduction, rotation, and the like; and a motion information encoding and representation method. An object of the present invention is to improve the coding efficiency of a video signal.

Description

비디오 신호 처리 방법 및 장치{A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL}A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL

본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다.The present invention relates to a video signal processing method and apparatus.

비디오 영상은 시공간적 중복성 및 시점 간 중복성을 제거하여 압축부호화되며, 이는 통신 회선을 통해 전송되거나 저장 매체에 적합한 형태로 저장될 수 있다.The video image is compression-encoded by removing spatial and temporal redundancy and inter-view redundancy, which may be transmitted through a communication line or stored in a form suitable for a storage medium.

본 발명은 비디오 신호의 코딩 효율을 향상시키고자 함에 있다.An object of the present invention is to improve the coding efficiency of a video signal.

상기 과제를 해결하기 위하여 어파인 모션 모델을 이용한 영상 부호화/복호화 방법 및 장치를 제공한다.In order to solve the above problems, an image encoding/decoding method and apparatus using an affine motion model are provided.

본 발명에 따른 비디오 신호 처리 방법 및 장치는 영상 부호화/복호화 효율을 향상시킬 수 있다.A video signal processing method and apparatus according to the present invention can improve image encoding/decoding efficiency.

최근, 초고해상도 영상은 디지털 방송뿐 아니라 넷플릭스 및 유튜브 등의 스트리밍 서비스 분야의 핵심이다. 게다가 기존의 2D영상이외에도 VR, 3D 영상 서비스가 상용화되고 있으며, 디지털 TV뿐만 아니라 스마트폰과 같은 모바일 장비에서도 위와 같은 영상 서비스를 사용할 수 있다. 이러한 영상 서비스의 공통점은, 영상 압축의 적용 없이는 서비스가 불가능하다는 점이다. Full-HD라고 할 수 있는 1080p@60Hz의 경우, 1920x1080크기의 화면을 1초에 60번 전송해야 한다. 3D 영상과 같이 양쪽 눈에 정보를 전달하기 위해서는 2배의 데이터가 필요하며, 4K(4096x2048), 8K(8192x4096) 등 초고해상도 영상 서비스는 한 화면을 1초에 120번 이상 전송해야 되기 때문에 full-HD대비 엄청난 데이터가 발생된다. 이러한 데이터를 감당하기 위해서는 통신 대역폭, 영상 압축 기술 등 다양한 분야의 기술이 필요하다. Recently, ultra-high-resolution video is the core of not only digital broadcasting but also streaming services such as Netflix and YouTube. In addition to the existing 2D images, VR and 3D image services are being commercialized, and the above image services can be used not only on digital TVs but also on mobile devices such as smartphones. What these video services have in common is that the service is impossible without the application of video compression. In the case of 1080p@60Hz, which can be called Full-HD, a 1920x1080 screen must be transmitted 60 times per second. Like 3D video, twice as much data is required to deliver information to both eyes, and ultra-high-resolution video services such as 4K (4096x2048) and 8K (8192x4096) require one screen to be transmitted more than 120 times per second. Huge amount of data is generated compared to HD. In order to handle such data, technologies in various fields such as communication bandwidth and image compression technology are required.

움직임 보상기술은 영상 간에 존재하는 중복도를 줄여주는 기술이다. 움직임 보상에 사용되는 움직임 정보는 상하좌우의 평행이동만을 고려할 수도 있으며 4파라미터 affine모델 혹은 6파라미터 affine 모델을 이용하는 것 또한 가능하다. Motion compensation technology is a technology that reduces the overlap between images. Motion information used for motion compensation may consider only vertical, horizontal, horizontal, and vertical movements, and it is also possible to use a 4-parameter affine model or a 6-parameter affine model.

1.One. 상하좌우의 평행이동을 고려한 움직임 정보 설정 방법How to set motion information considering vertical, horizontal, and horizontal movement

화면 간에 존재하는 중복된 데이터는 화면 간 예측을 통해 제거 된다. 화면 간 예측으로 생성되는 예측 블록은 움직임 정보를 기초로 생성된다. 움직임 정보는 움직임 벡터, 참조 영상 인덱스, 예측 방향 또는 양방향 가중치 인덱스 중 적어도 하나를 포함한다. 현재 부호화 하려는 영상과 시간적으로 주변에 존재하는 참조 영상에서, 현재 부호화 하려는 블록과 가장 유사한 블록을 탐색한다. 이 탐색된 블록을 예측 블록이라고 한다. 그 후, 현재 부호화 하려는 블록과 탐색된 예측 블록을 차분하여 잔차 블록을 생성하고 부호화를 수행한다. 다음의 그림 1은, T-1번째 참조 영상에서 움직임 벡터를 이용하여 최적의 예측 블록을 탐색한 결과에 대한 예시이다. 이 경우 움직임 정보는, 움직임 벡터 (x,y)와 T-1을 가리키는 참조 영상 인덱스, L0방향의 예측을 수행했음을 나타내는 예측 방향 정보로 구성된다.Duplicate data existing between screens is removed through prediction between screens. A prediction block generated by inter prediction is generated based on motion information. The motion information includes at least one of a motion vector, a reference picture index, a prediction direction, and a bidirectional weight index. A block most similar to a block to be currently encoded is searched for in a reference image temporally adjacent to the image to be encoded. This searched block is called a prediction block. Thereafter, a residual block is generated by differentiating the current block to be encoded and the searched prediction block, and encoding is performed. The following Figure 1 is an example of a result of searching for an optimal prediction block using a motion vector in the T-1 th reference image. In this case, the motion information includes a motion vector (x,y), a reference image index indicating T-1, and prediction direction information indicating that prediction in the L0 direction is performed.

Figure pat00001
Figure pat00001

그림 1Figure 1

다음의 그림 2는 예측 방향이 양방향으로 결정된 예시를 보여준다. Figure 2 below shows an example in which the prediction direction is determined in both directions.

Figure pat00002
Figure pat00002

그림 2Figure 2

그림 2에서 최종적으로 생성되는 예측 블록은, L0 방향의 움직임 벡터 (x0,y0)과 L1 방향의 움직임 벡터 (x1,y1)로 탐색된 두 참조 블록의 가중치합으로 생성된다. The prediction block finally generated in Figure 2 is created by the weighted sum of two reference blocks searched for by the L0-direction motion vector (x0,y0) and the L1-direction motion vector (x1,y1).

그림 1 및 그림 2의 예에서, L0방향 및 L1 방향이 상이한 것으로 예시되었다. 일 예로, L0 방향은 현재 영상의 이전 방향(backward)이고, L1 방향은 현재 영상의 이후 방향(forward)인 것으로 예시되었다.In the examples of Fig. 1 and Fig. 2, the L0 direction and the L1 direction are illustrated as being different. As an example, the L0 direction is exemplified as a backward direction of the current image, and the L1 direction is exemplified as a forward direction of the current image.

도시된 예와 달리, L0 방향 및 L1 방향이 전부 이전 방향으로 설정되거나, 전부 이후 방향으로 설정될 수 있다. 혹은, L0방향이 이후 방향으로 설정되고, L1방향이 이전 방향으로 설정될 수 있다.Unlike the illustrated example, all of the L0 direction and the L1 direction may be set to the previous direction, or all of the L0 direction and the L1 direction may be set to the subsequent direction. Alternatively, the L0 direction may be set as the subsequent direction, and the L1 direction may be set as the previous direction.

L0방향에 이전 방향과 이후 방향의 참조 영상들이 존재할 수 있으며 L1방향에도 마찬가지로 이전 방향과 이후 방향의 참조 영상들이 존재할 수 있다.Reference images in the previous and subsequent directions may exist in the L0 direction, and reference images in the previous and subsequent directions may also exist in the L1 direction.

2.2. 확대, 축소, 회전 등을 고려한 움직임 정보 설정 방법How to set motion information considering enlargement, reduction, rotation, etc.

평행이동을 보상하기 위한 움직임 보상 모델 외에, 오벡트의 확대, 축소 또는 회전 등과 같은 비선형 움직임을 보상하기 위해 CPMV(control point MV) 기반 affine 움직임 모델이 사용될 수 있다. 다음의 그림 3는 2개의 CPMV를 사용하는 4파라미터 affine 모델과 3개의 CPMV를 사용하는 6파라미터 affine 움직임 모델을 나타낸다.In addition to the motion compensation model for compensating for translation, a control point MV (CPMV)-based affine motion model may be used to compensate for nonlinear motion such as enlargement, reduction, or rotation of an obect. The following figure 3 shows a 4-parameter affine model using two CPMVs and a 6-parameter affine motion model using three CPMVs.

Figure pat00003
Figure pat00003

그림 3Figure 3

위 그림에서 CPMV는

Figure pat00004
,
Figure pat00005
,
Figure pat00006
로 표현되며 다음의 그림 4에서 표현된 수식을 통해, 블록내의 각 샘플위치
Figure pat00007
마다 MV를 생성할 수 있다. In the figure above, CPMV is
Figure pat00004
,
Figure pat00005
,
Figure pat00006
and through the formula shown in Figure 4 below, each sample position in the block is
Figure pat00007
You can create an MV for each.

Figure pat00008
Figure pat00008

그림 4Figure 4

혹은 블록을 임의의 크기를 가진 서브블록으로 분할 후, 각 서브블록마다 대표 샘플 위치를 정하고 대표 샘플 위치에서 유도된 MV를 서브블록의 MV로 할당할 수도 있다. 대표 샘플 위치는 서브 블록 내 중간 위치 샘플, 좌상단 위치 샘플, 좌하단 위치 샘플, 우상단 위치 샘플 또는 우하단 위치 샘플일 수 있다. 또는, 서브 블록의 위치에 따라, 대표 샘플 위치가 적응적으로 결정될 수 있다. 일 예로, 현재 블록의 상단 경계에 접하는 서브 블록의 대표 샘플 위치는 서브 블록의 상단 경계에 인접하는 샘플로 설정되고, 현재 블록의 하단 경계에 접하는 서브 블록의 대표 샘플 위치는 서브 블록의 하단 경계에 인접하는 샘플로 설정될 수 있다. Alternatively, after dividing a block into subblocks having an arbitrary size, a representative sample position may be determined for each subblock, and an MV derived from the representative sample position may be allocated as the MV of the subblock. The representative sample position may be a middle position sample, an upper-left position sample, a lower-left position sample, an upper-right position sample, or a lower-right position sample within the sub-block. Alternatively, the representative sample position may be adaptively determined according to the position of the sub-block. For example, the representative sample position of the sub-block in contact with the upper boundary of the current block is set as a sample adjacent to the upper boundary of the sub-block, and the representative sample position of the sub-block in contact with the lower boundary of the current block is located at the lower boundary of the sub-block. It may be set to an adjacent sample.

이러한 방식으로 서브블록마다 할당된 MV를 표현한 예시가 그림 5에 표현된다. 그림 5의 예시에서, 생성하려는 예측 블록의 크기는 16x16이라고 가정하였고 서브블록의 크기는 4x4로 가정하였다. 또한 2개의 CPMV를 사용하였고, 대표 샘플위치는 4x4블록의 중간위치로 가정하였다.An example of expressing the MV allocated to each subblock in this way is shown in Figure 5. In the example of Figure 5, the size of the prediction block to be generated is assumed to be 16x16 and the size of the subblock is assumed to be 4x4. In addition, two CPMVs were used, and the representative sample position was assumed to be the middle position of a 4x4 block.

Figure pat00009
Figure pat00009

그림 5Figure 5

만약 부호화기에서 그림 5과 같은 방식이 최적이라 판단된다면,

Figure pat00010
Figure pat00011
를 부호화하여 복호화기로 전송한다. 복호화기에서는 전송받은 CPMV들을 이용하여 부호화기에서와 동일하게, 서브블록으로 분할하고 분할된 서브블록마다 대표 샘플위치에서의 MV를 할당한다. 그 후, 서브 블록단위로 설정된 MV를 이용하여 움직임 보상을 수행한다.If it is judged that the method shown in Figure 5 is optimal in the encoder,
Figure pat00010
Wow
Figure pat00011
is encoded and transmitted to a decoder. The decoder divides the received CPMVs into subblocks in the same way as in the encoder, and allocates an MV at a representative sample position to each divided subblock. Thereafter, motion compensation is performed using the MV set in units of sub-blocks.

3.3. 움직임 정보 부호화 및 표현 방식Motion information encoding and representation method

상기 설명한, 상하좌우 평행이동을 고려한 움직임 보상, 4파라미터 affine 움직임 보상, 6파라미터 affine 움직임 보상 각각에 대해 내부 변수를 이용하여 어떤 방식의 움직임 보상이 사용되었는지 표시한다. 다음의 그림 6은 이와 관련된 예시를 나타낸다. 여기서 변수 MotionModeIdc는 현재 블록에 어떤 방식의 움직임 보상이 적용되었는지 알려주는 변수이다. 일 예로, 상기 변수의 값이 0이면 상하좌우 평행이동을 고려한 움직임 보상이 수행되었다는 것을 의미한다. 상기 변수의 값이 1이면 4파라미터 affine 움직임 보상, 상기 변수의 값이 2이면 6파라미터 affine 움직임 보상이 수행되었다는 것을 의미한다.In each of the above-described motion compensation considering vertical and horizontal translation, 4-parameter affine motion compensation, and 6-parameter affine motion compensation, an internal variable is used to indicate which type of motion compensation is used. Figure 6 below shows an example related to this. Here, the variable MotionModeIdc is a variable indicating which method of motion compensation is applied to the current block. For example, when the value of the variable is 0, it means that motion compensation has been performed in consideration of vertical, horizontal, and horizontal movements. When the value of the variable is 1, it means that 4-parameter affine motion compensation is performed, and when the value of the variable is 2, it means that 6-parameter affine motion compensation is performed.

Figure pat00012
Figure pat00012

그림 6Figure 6

우선 주변 블록에서 참조한 움직임 정보를 현재 블록의 움직임 정보로 설정하는 방식인 병합방식이 사용되었는지를 알려주는 정보를 비트스트림으로부터 파싱한다. 일 예로, 상기 정보는 병합 방식의 사용 여부를 나타내는 1비트의 플래그 merge_flag일 수 있다. 이 파싱한 정보에 의해 주변 블록과 병합되었다고 판단되면, 서브 블록 단위로 병합을 수행하는지 알려주는 정보를 추가로 파싱할 수 있다. 일 예로, 상기 정보는 서브 블록 단위의 병합 방식의 사용 여부를 나타내는 1비트의 플래그 subblock_merge_flag일 수 있다. 변수 MotionModeIdc의 값은 상기 subblock_merge_flag의 값과 동일하게 설정될 수 있다. 즉, 서브블록단위로 병합을 수행하는지 알려주는 정보의 값이 0(false)인 경우, 변수 MotionModeIdx의 값도 0으로 설정되고, 1(true)인 경우, 변수 MotionModeIdx의 값도 1로 설정될 수 있다. First, information indicating whether the merge method, which is a method of setting the motion information referenced in the neighboring block as the motion information of the current block, is used is parsed from the bitstream. As an example, the information may be a 1-bit flag merge_flag indicating whether a merge method is used. If it is determined based on the parsed information that the neighboring blocks are merged, information indicating whether merging is performed in units of sub-blocks may be additionally parsed. As an example, the information may be a 1-bit flag subblock_merge_flag indicating whether to use the sub-block unit merge method. The value of the variable MotionModeIdc may be set to be the same as the value of the subblock_merge_flag. That is, when the value of information indicating whether merging is performed in sub-block units is 0 (false), the value of the variable MotionModeIdx is also set to 0, and when it is 1 (true), the value of the variable MotionModeIdx can also be set to 1. have.

그 후, 주변 블록으로부터 움직임 정보를 참조할 때, 해당 블록에 저장된 MotionModeIdc의 값을 현재 블록의 MotionModeIdc와 같게 설정한다. 즉, 현재 블록에 대해 기 설정된 변수 MotionModeIdc의 값은 병합 대상 블록의 MotionModeIdc 값으로 수정(Modify)될 수 있다.Then, when referring to motion information from a neighboring block, the value of MotionModeIdc stored in the corresponding block is set equal to the MotionModeIdc of the current block. That is, the value of the variable MotionModeIdc preset for the current block may be modified with the MotionModeIdc value of the merge target block.

만약 병합방식이 사용되지 않았다는 정보를 파싱하였다면, 어파인 모델이 적용되는지 여부를 나타내는 플래그 inter_affine_flag를 파싱한다. 어파인 모델이 적용되는 것으로 결정된 경우, 즉, inter_affine_flag가 1로 설정된 경우, 어파인 모션 모델 타입을 나타내는 플래그 cu_affine_type_flag를 추가로 파싱한다. cu_affine_type_flag의 값이 0인 것은 4파라미터 모션 모델이 이용됨을 나타내고, cu_affine_type_flag의 값이 1인 것은 6 파라미터 모션 모델이 이용됨을 나타낸다.If information indicating that the merge method is not used is parsed, a flag inter_affine_flag indicating whether the affine model is applied or not is parsed. When it is determined that the affine model is applied, that is, when inter_affine_flag is set to 1, the flag cu_affine_type_flag indicating the affine motion model type is additionally parsed. A value of cu_affine_type_flag of 0 indicates that a 4-parameter motion model is used, and a value of cu_affine_type_flag of 1 indicates that a 6-parameter motion model is used.

변수 MotionModeIdc의 값은 inter_affine_flag의 값과 cu_affine_type_flag의 값의 합으로 설정될 수 있다. inter_affine_flag와 cu_affine_type_flag의 값은 각각 0(false) 혹은 1(true)의 값을 가진다. 만약 inter_affine_flag가 1이 아닌것으로 확인된다면, cu_affine_type_flag의 값은 파싱 없이 기설정된 값으로 추론한다. 이 기설정된 값은 0이 될 수도 있다.The value of the variable MotionModeIdc may be set as the sum of the value of inter_affine_flag and the value of cu_affine_type_flag. The values of inter_affine_flag and cu_affine_type_flag have a value of 0 (false) or 1 (true), respectively. If it is confirmed that inter_affine_flag is not 1, the value of cu_affine_type_flag is inferred as a preset value without parsing. This preset value may be 0.

상술한 예에서, 병합방식이 적용되는 경우, 변수 MotionModeIdc의 값은 최종적으로 병합 대상 블록에 대한 변수 MotionModeIdc 값과 동일하게 설정된다. 이를 고려하여, 변수 MotionModeIdc 값을 subblock_merge_flag의 값으로 설정하는 대신, 변수 MotionModeIdc의 초기값을 기 정의된 값으로 설정할 수 있다.In the above-described example, when the merging method is applied, the value of the variable MotionModeIdc is finally set to be the same as the value of the variable MotionModeIdc for the merge target block. Considering this, instead of setting the variable MotionModeIdc value to the subblock_merge_flag value, the initial value of the variable MotionModeIdc may be set to a predefined value.

다음의 그림 7 현재 블록의 MotionModeIdc값을 설정하는 예를 나타낸다.The following figure 7 shows an example of setting the MotionModeIdc value of the current block.

Figure pat00013
Figure pat00013

그림 7Figure 7

위의 그림에서, 우선 MotionModeIdc변수를 임의의 기설정된 값으로 초기화한다. 예를 들어 이 기설정된 값은 0이 될 수 있다. 그 후, 주변 블록에서 움직임 정보를 참조하여 현재 블록에 적용하는 병합 방식이 사용되었는지를 확인한다. In the above figure, first, the MotionModeIdc variable is initialized to an arbitrary preset value. For example, this preset value may be 0. Thereafter, it is checked whether the merge method applied to the current block is used by referring to motion information in the neighboring block.

만약 병합 방식이 사용되었다면, 주변 블록으로부터 움직임 정보를 참조 할 때, 해당 블록에 저장된 MotionModeIdc의 값을 현재 블록의 MotionModeIdc와 같게 설정한다.If the merge method is used, when referring to motion information from a neighboring block, the value of MotionModeIdc stored in the corresponding block is set to be the same as the MotionModeIdc of the current block.

만약 병합 방식이 사용되지 않았다면, inter_affine_flag을 파싱한다. 이 정보가 1로 설정되었다면 추가적으로 cu_affine_type_flag를 파싱 한다. 만약 inter_affine_flag가 0이었다면 cu_affine_type_flag의 값은 파싱없이 기설정된 값으로 추론한다. 이 기설정된 값은 0이 될 수도 있다. 그 후, 현재 블록의 MotionModeIdc값은 inter_affine_flag의 값과 cu_affine_flag값의 합으로 설정한다.If the merge method is not used, the inter_affine_flag is parsed. If this information is set to 1, cu_affine_type_flag is additionally parsed. If inter_affine_flag is 0, the value of cu_affine_type_flag is inferred as a preset value without parsing. This preset value may be 0. Thereafter, the MotionModeIdc value of the current block is set as the sum of the inter_affine_flag value and the cu_affine_flag value.

결정된 MotionModeIdc의 값에 따라 현재 블록에 해당하는 움직임 보상 방법은 상하좌우 평행이동을 고려한 움직임 보상, 4파라미터 affine 움직임 보상, 6파라미터 affine 움직임 보상 중 하나로 수행될 수 있다. According to the determined value of MotionModeIdc, the motion compensation method corresponding to the current block may be performed as one of motion compensation considering vertical, horizontal, left, and right translation, 4-parameter affine motion compensation, and 6-parameter affine motion compensation.

Claims (1)

화면 내 예측 방법. On-screen prediction methods.
KR1020200070337A 2020-06-10 2020-06-10 A method and an apparatus for processing a video signal KR20210153377A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200070337A KR20210153377A (en) 2020-06-10 2020-06-10 A method and an apparatus for processing a video signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200070337A KR20210153377A (en) 2020-06-10 2020-06-10 A method and an apparatus for processing a video signal

Publications (1)

Publication Number Publication Date
KR20210153377A true KR20210153377A (en) 2021-12-17

Family

ID=79033426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200070337A KR20210153377A (en) 2020-06-10 2020-06-10 A method and an apparatus for processing a video signal

Country Status (1)

Country Link
KR (1) KR20210153377A (en)

Similar Documents

Publication Publication Date Title
US10771814B2 (en) Hybrid video coding supporting intermediate view synthesis
CN111937396B (en) File format indication based on error mitigation in sub-picture code stream view dependent video coding
CN112823518A (en) Apparatus and method for inter prediction of triangularly partitioned blocks of coded blocks
JP7436543B2 (en) Image decoding method and apparatus based on affine motion prediction using affine MVP candidate list in image coding system
US11228783B2 (en) Image decoding method and apparatus based on motion prediction in sub-block unit in image coding system
CN112789851A (en) Video coding and decoding method and device
CN110708557A (en) Video decoding method and device in decoder, and computer device
CN114787870A (en) Method and apparatus for inter-picture prediction with virtual reference pictures for video coding
KR20220165274A (en) Method and Apparatus for Video Coding
KR20220044843A (en) Subpicture-based video encoding/decoding method, apparatus, and method of transmitting a bitstream
KR20210153377A (en) A method and an apparatus for processing a video signal
KR20210034904A (en) A method and an apparatus for processing a video signal
CN118216150A (en) Method and apparatus for inter prediction mode dependent scaling factor
KR20210124824A (en) A method and an apparatus for processing a video signal
KR20210034902A (en) A method and an apparatus for processing a video signal
Kumarganesh et al. Efficient medical data and medical video compression using HEVC standard
JP2024506169A (en) Joint motion vector differential coding
JP2023549182A (en) Method and apparatus for adaptive reordering of reference frames
KR20230148506A (en) A method and an apparatus for processing a video signal
KR20210034903A (en) A method and an apparatus for processing a video signal
KR20140003689A (en) Method and apparatus of inter-view video encoding and decoding in hybrid codecs for multi-view video coding