KR20030041285A - 동영상의 정수단위 모션추정 방법 - Google Patents

동영상의 정수단위 모션추정 방법 Download PDF

Info

Publication number
KR20030041285A
KR20030041285A KR1020010071926A KR20010071926A KR20030041285A KR 20030041285 A KR20030041285 A KR 20030041285A KR 1020010071926 A KR1020010071926 A KR 1020010071926A KR 20010071926 A KR20010071926 A KR 20010071926A KR 20030041285 A KR20030041285 A KR 20030041285A
Authority
KR
South Korea
Prior art keywords
sum
block
sad
column
search
Prior art date
Application number
KR1020010071926A
Other languages
English (en)
Inventor
전병문
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020010071926A priority Critical patent/KR20030041285A/ko
Publication of KR20030041285A publication Critical patent/KR20030041285A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 현재 영상의 블록내 모든 픽셀들의 특징요소를 결정한 후, 참조 영상의 탐색 영역에서 특징기반 매칭을 통해 불필요한 탐색점의 수를 줄임으로써, 모션 추정에 필요한 계산량을 줄일 수 있도록 하는, 동영상의 정수단위 모션 추정 방법에 관한 것으로, 동영상의 정수단위 모션 추정 방법에 있어서, 현재 영상의 블록 내 모든 픽셀들의 합을 특징 요소로 결정한 후, 참조 영상(reference frame)의 탐색 영역(search region)에서 특징 기반 매칭(feature-based matching)을 통 해 불필요한 탐색점의 수를 줄이는 제1단계와; 상기 특징 기반 매칭을 통해 선택된 매칭 가능성이 높은 후보점에 대해 2차원 블록 매칭(2-D block matching)을 적용하여, 정수단위 모션 벡터를 구하는 제2단계로 이루어짐으로써 달성될 수 있다.

Description

동영상의 정수단위 모션추정 방법{INTEGER UNIT MOTION ESTIMATION METHOD FOR MOVING PICTURE}
본 발명은 동영상의 정수단위 모션추정 방법에 관한 것으로, 특히 현재 영상의 블록내 모든 픽셀들의 특징요소를 결정한 후, 참조 영상의 탐색 영역에서 특징기반 매칭을 통해 불필요한 탐색점의 수를 줄임으로써, 모션 추정에 필요한 계산량을 줄일 수 있도록 하는, 동영상의 정수단위 모션추정 방법에 관한 것이다.
비디오 코덱에 적용되는 정수단위 모션추정 기법은 일반적으로 블록 매칭 알고리즘을 이용하고 있고, 이를 위한 가장 간단한 구현 방법은 탐색 영역 내 모든 탐색점에서 2차원 매칭을 하는 것이다.
그러나, 이 방법은 계산 복잡도가 매우 높기 때문에 복잡도를 줄이기 위한 많은 기법들이 개발되어 왔다.
'2-D log search', 'OTS(one-at-a-time search)', 'TSS(Thress Step Search)', 'Orthogonal search'와 같은 기법들은 모션 추정 정확도가 떨어지는 대신 탐색 영역의 탐색점 수를 크게 줄임으로써, 계산 복잡도를 감소시키도록 하였다.
한편, H.26L에서 현재 사용되고 있는 계산량을 줄이기 위한 정수단위 모션추정 방법은, 현재 영상의 블록 일부분과 탐색 영역의 탐색점에서의 블록 일부분을 매칭하여, 그 결과가 현재까지의 SAD(Sum of Absolute Difference) 값보다 클 경우에 매칭을 중단하고, 다음 탐색점으로 이동하는 기법을 사용하고 있다.
이때 다음 탐색점으로의 이동은 스퍼럴(Spiral) 탐색 순서를 적용하여 최소의 SAD값을 갖는 최적의 모션 벡터를 빨리 얻을 수 있도록 하였다.
이것은 나머지 많은 탐색 점에서 매칭이 중단되게 함으로서 계산량을 줄이게 되는 방법이 된다.
도1은 일반적인 2차원 블록 매칭 알고리즘을 설명하기 위한 예시도이다.
일반적으로, 2차원 블록 매칭(2-D block matching) 연산은 SAD(Sum of Absolute Difference), MAD(Mean of Absolute Difference), 그리고 MSE(Mean Square Error)와 같은 방법을 사용하고 있다.
현재 H.26L은 모션 추정을 위해 이전 5프레임을 참조 영상으로 사용하고 있고, 현재 영상에서 16 ×16, 16 ×8, 8 ×16, 8 ×8, 8 ×4, 4 ×8, 4 ×4와 같은 7가지 다른 크기의 블록 타입을 사용하고 있다.
따라서, H.26L에서 정수 단위 모션 벡터는 5장의 참조 영상 및 7가지 블록 타입 각각에 대해 다음과 같은 모션 추정 알고리즘을 적용하여 구하게 된다.
가령, 현재 영상의 블록 주변에 존재하는 블록들로부터 예측 모션 벡터(x0,y0)를 구할 수 있고, SAD(m,n)의 초기치로서 임의의 큰 값이 설정되어 있다고 할 경우, 상기 예측 모션 벡터(x0,y0)를 탐색 영역의 중심점으로 간주하고 다음을 수행한다.
먼저, 현재 블록 타입의 각 행에서 그 행까지의 SAD(x0,y0)를 구하고, 그 모션 벡터(x0,y0)의 SAD가 임의의 참조 영상(m,n)의 SAD보다 작을 경우(SAD(x0,y0)≤SAD(m,n)) 다음 행까지의 SAD(x0,y0)를 구한다.
만약, 현재 블록 타입의 마지막 행까지 진행이 되었다면, 임의의 참조 영상의 SAD(m,n)와 모션 벡터(m,n)를 SAD(x0,y0)와 (x0,y0)로 갱신하고, 다른 탐색점과의 SAD 비교 과정을 수행한다.
그러나, 모션 벡터(x0,y0)의 SAD가 임의의 참조 영상(m,n)의 SAD보다 클 경우(SAD(x0,y0) ≥SAD(m,n))에는, 탐색 영역(search region)내에서 스퍼럴(Spiral) 탐색 순서에 의해 다음 탐색점(x,y)으로 이동하여, 상기 SAD 비교 과정을 다시 수행한다.
즉, 현재 블록 타입의 각 행에서 그 행까지의 SAD(x,y)를 구하여, 그 모션 벡터(x,y)의 SAD가 임의의 참조 영상(m,n)의 SAD보다 작을 경우(SAD(x,y) ≤SAD(m,n)), 다음 행까지의 SAD(x,y)를 구한다.
그러나, 모션 벡터(x,y)의 SAD가 임의의 참조 영상(m,n)의 SAD보다 클 경우(SAD(x0,y0) ≥SAD(m,n))에는, 탐색 영역(search region)내에서 스퍼럴(Spiral) 탐색 순서에 의해 또 다른 탐색점(x,y)으로 이동하여, 상기 SAD 비교 과정을 다시 수행한다.
물론, 현재 블록 타입의 마지막 행까지 진행이 되었다면, 임의의 참조 영상의 SAD(m,n)와 모션 벡터(m,n)를 SAD(x0,y0)와 (x0,y0)로 갱신하고, 다른 탐색점과의 SAD 비교 과정을 수행한다.
상기 과정에 의해 탐색 영역내의 모든 탐색점에서의 검사가 완료 되면, 최종적으로 남게되는 임의의 참조 영상의 모션 벡터(m,n)값이 모션 추정에 의해 얻게 되는 최종 정수단위 모션벡터가 되는 것이다.
그러나, H.26L에서의 정수단위 모션추정 기법은 최악의 경우 탐색 영역의 모든 탐색점에서 SAD를 구하기 위한 매칭 작업을 해야 하는 문제점이 있고, 실제로 복잡도 분석 결과 여전히 부호기의 70% 이상을 차지하고 있음이 밝혀졌다.
따라서, 저전력 및 모바일(Mobile) 환경과 같은 실제 응용에 있어서, 높은 계산 비용을 발생하게 되는 문제점이 있다.
따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 창출한 것으로, 현재 영상의 블록내 모든 픽셀들의 특징요소를 결정한 후, 참조 영상의 탐색 영역에서 특징기반 매칭을 통해 불필요한 탐색점의 수를 줄임으로써, 정수단위 모션추정에 필요한 계산량을 감소시킬 수 있도록 하는 동영상의 모션 추정 방법을 제공함에 그 목적이 있다.
이와 같은 목적을 달성하기 위한 본 발명은,동영상의 모션 추정 방법에 있어서, 현재 영상의 블록 내 모든 픽셀들의 합을 특징 요소로 결정한 후, 참조 영상(reference frame)의 탐색 영역(search region)에서 특징 기반 매칭(feature-based matching)을 통해 불필요한 탐색점의 수를 줄이는 제1단계와; 상기 특징 기반 매칭을 통해 선택된 매칭 가능성이 높은 후보점에 대해 2차원 블록 매칭(2-D block matching)을 적용하여, 모션 벡터를 구하는 제2단계로 이루어진 것을 특징으로 한다.
도 1은 일반적인 2차원 블록 매칭 알고리즘을 설명하기 위한 예시도.
도 2는 본 발명에 따른 참조 영상의 4 ×4 블록 합을 구하는 전처리 과정을 설명 하기 위한 예시도.
도 3은 본 발명에 따른 참조 영상의 4 ×4 블록 합을 구하는 전처리 과정을 보인 순서도.
도 4는 본 발명에 따른 동영상의 정수단위 모션 추정 알고리즘을 보인 순서도.
본 발명에 따른 동영상의 정수단위 모션 추정 방법은 크게 두 단계를 거쳐 수행된다.
첫 번째 단계는 현재 영상의 블록 내 모든 픽셀들의 합을 특징 요소(feature)로 결정한 후, 참조 영상(reference frame)의 탐색 영역(search region)에서 특징 기반 매칭(feature-based matching)을 통해 불필요한 탐색점(search point)의 수를 줄이도록 한다.
두 번째 단계에서는 상기 특징 기반 매칭을 통해 선택된 매칭 가능성이 높은 후보점에 대해 종래 2차원 블록 매칭(2-D block matching)을 적용하여, H.26L의 모션 추정에서 얻은 정수단위 모션벡터와 동일한 결과를 얻도록 한다.
먼저, 상기 첫 번째 단계에서의 특징 기반 매칭 방법에 대해 설명하면 다음과 같다.
현재 영상의 블록 크기를 M ×N, 현재 영상 및 참조 영상의 (i,j)위치에서의 픽셀 값을 각각 fcurrent(i,j), fref(i,j)이라고 가정할 때, 탐색점(x,y)에 대해 다음 수학식 1과 같은 부등식이 성립한다.
||fcurrent(i,j)|-|fref(i-x,j-y)|| ≤|fcurrent(i,j)-fref(i-x,j-y)|
상기 수학식 1은 다시 수학식 2와 같은 두 개의 부등식으로 표현할 수 있다.
|fcurrent(i,j)|-|fref(i-x,j-y)| ≤|fcurrent(i,j)-fref(i-x,j-y)|
|fref(i-x,j-y)|-|fcurrent(i,j)| ≤|fcurrent(i,j)-fref(i-x,j-y)|
또한, 상기 수학식 2는 다음 수학식 3과 같이 표현할 수 있다.
여기서,는 현재 영상의 블록 내 모든 픽셀들의 합을 의미하는 것으로 'C'로 표시하며,는 참조 영상의 탐색 영역 내 후보 모션 벡터(x,y)에서의 블록 내 픽셀들의 합을 의미하는 것으로 'R(x,y)로 표시하며,는 후보 모션 벡터(x,y)에서 2차원 블록 매칭에 의해 얻은 SAD 값을 나타내는 것으로, SAD(x,y)로 표시하기로 한다.
따라서, 상기 수학식 3의 부등식은 다음 수학식 4와 같이 쓸 수 있다.
C-R(x,y) ≤SAD(x,y)
R(x,y)-C ≤SAD(x,y)
SAD(m,n)이 현재까지의 매칭을 통해 모션 벡터로 간주되는 탐색 영역 내 탐색점(m,n)에서의 SAD값이라고 하면, 다음 수학식 5와 같이 현재 후보점의모션벡터(x,y)에서 구한 SAD(x,y)값이 기존 탐색점(m,n)의 SAD(m,n)보다 작을 때 더 나은 매칭이 이루어질 것이다.
SAD(x,y) ≤SAD(m,n)
즉, 현재 영상의 블록과 탐색 영역의 매칭 후보 블록 사이에 유사성이 더 크다고 말할 수 있다.
따라서, 다음 수학식 6을 유도할 수 있다.
C-R(x,y) ≤SAD(m,n)
R(x,y)-C ≤SAD(m,n)
즉, 상기 수학식 5에서 SAD(x,y)가 SAD(m,n) 보다 작으므로, 수학식 4에서 SAD(x,y)를 SAD(m,n)으로 대체할 수 있다.
그러면, 상기 수학식 6의 두 부등식을 이용해 다음 수학식 7과 같은 제한 조건을 유도할 수 있게 된다.
C-SAD(m,n) ≤R(x,y) ≤C + SAD(m,n)
본 발명의 첫 단계인 특징 기반 매칭을 위해 현재 영상 블록의 특징 요소로 블록 내 픽셀들의 합(C)을 사용하고, 참조 영상의 탐색점(x,y)의 특징 요소로 블록 내 픽셀들의 합(R(x,y))을 사용한다.
만일 현재의 탐색점(x,y)에서 수학식 7을 만족하게 된다면, 이것은 수학식 5를 만족함을 의미하는 것으로, 현재의 탐색점(x,y)에서 구하게 될 SAD(x,y)는 현재까지 탐색 영역에서 검사한 다른 탐색점들의 SAD보다 작은 값, 즉 매칭점 후보가 될 가능성이 있음을 의미한다.
따라서, 본 발명의 두 번째 단계로서 현재 탐색점에 대해 2차원 블록 매칭을 수행하여 SAD를 구하게 된다.
다음은 특징 기반 매칭에 사용되는 참조 영상에서의 특징 요소 R(x,y)를 구하는 과정을 설명한다.
상술한 바와 같이 H.26L에서는 7가지 블록 타입이 존재한다.
이때 현재 영상의 M ×N 블록의 특징 요소인 C는에 의해 쉽게 구할 수 있다. 그러나, 탐색점(x,y)에서 7가지 블록 타입과 동일한 크기의 블록의 특징 요소 R(x,y)를 매칭이 수행될 때마다 구하게 된다면 이것은 많은 계산 시간을 요구하게 될 것이다.
따라서, 본 발명에서는 7가지 블록 타입과 관계없이, 참조 영상에서 미리 R(x,y)를 구하기 위한 전처리 작업을 해놓고, 현재 영상의 블록 타입에 따라 적절한 조합을 통해 R(x,y)를 구하는 것이 필수적이다.
여기서, 전처리 작업이란, H.26L 이 4 ×4 블록 기반인 비디오 코덱이라는 점을 고려하여, 다음과 같이 W(폭) ×H(높이) 크기의 참조 영상에 대해 4 ×4 블록의 합을 구하는 작업을 수행하는 것이다.
상기 4 ×4 블록의 합을 구하는 전처리 작업의 수행 과정을 도2 및 도3의 순서도를 참조하여 설명하면 다음과 같다.
먼저, 참조 영상의 첫 번째 행에서 1 ×4 크기의 벡터 단위로, 열 방향에 대해 합을 구해 W 개의 열 벡터(V11, V12, V13‥‥ V1W)를 구한다(S101).
다음, 상기 참조 영상의 두 번째 행에서 앞서 구한 각 열 벡터의 첫 번째 행을 제거하고, 대신 참조 영상의 다섯 번째 행의 값을 벡터에 더해 W개의 다른 열 벡터(V21, V22, V23, ‥‥, V2W)를 구한다.
즉, 첫 번째 열 벡터(V11, V12, V13‥‥ V1W)와 두 번째 열 벡터(V21, V22, V23, ‥‥, V2W)는, 두 번째 행부터 네 번째 행이 중복되기 때문에, 두 번째 벡터를 구할 때는 서로 중복되지 않는 첫 번째 행 대신 새로 추가되는 다섯 번째 행을 합하는 것이다.
상기 연산을 참조 영상의 H-4행까지 실행하여 그 행까지의 열 벡터(VH-4,1, VH-4,2, VH-4,3, ‥‥, VH-4,W)를 얻는다(S102).
상기와 같이 각 열의 4개의 행에 대하여 벡터를 구한 후에는, 상기 열 벡터 네 개씩(V11+V12+V13+V14,V21+V22+V23+V24,‥VH-4,1+ VH-4,2+ VH-4,3+ VH-4,4등)을 합하여, 2차원 4 ×4 블록의 합을 구한다(S103).
다음, 상기 열 벡터를 구할 때와 마찬가지 방법으로, 참조 영상의 두 번째 열 벡터를 시작으로 하는, H-4개의 4 ×4 블록(B12=B11-V11+V12+V13+V14+V15, B22=B21-V21+V22+V23+V24+V25,‥‥)의 합을 구한다.
즉, 각 열 벡터 네 개를 한 블록으로 설정할 때, 두 번째 열 벡터부터 네 번째 열 벡터가 중복되기 때문에, 두 번째 블록을 구할 때는 서로 중복되지 않는 첫 번째 열 벡터 대신 새로 추가되는 다섯 번째 열 벡터를 합하는 것이다.
상기 4 ×4 블록 생성 과정은 참조 영상의 W-4열까지 진행한다(S104).
상기 과정을 모두 수행하면 최종적으로 참조영상에서 각각의 4 ×4 블록의 합을 얻게 된다(S105).
이상으로 현재 영상의 블록 타입에 따라 탐색 영역의 R(x,y)를 구하는 방법을 살펴보면 다음과 같다.
예를 들어, 현재 영상의 블록 타입이 16 ×16일 경우, 탐색 영역의 탐색점을 중심으로 상기에서 구한 4 ×4블록 16개를 조합, 합산하여 R(x,y)를 구한다.
다른 블록 타입에 대해서도 마찬가지로 참조 영상에서 필요한 4 ×4블록을 탐색점을 중심으로 적절하게 선택하여 원하는 R(x,y)를 구할 수 있다.
그럼, 상기 과정들을 조합한 본 발명에 따른 최종적인 정수단위 모션추정 알고리즘을 도4를 참조하여 설명하면 다음과 같다.
먼저, 정수 픽셀 매칭을 위해 참조 영상의 정수 픽셀에 대해 전처리 과정으로서, 블록 타입의 최소 단위인 4 ×4 크기의 블록합을 구한다(S201).
이것은 다양한 블록 타입에 대한 R(x,y)를 구할 때 사용된다.
다음, 현재 영상의 블록 주변에 있는 블록들로부터 예측 모션 벡터(x0,y0)를 구하고(S202),를 구하여, 참조 영상의 SAD(m,n)과 모션벡터(m,n)에 각각 SAD(x0,y0)와 (x0,y0)를 의 초기치로서대입한다(S203).
다음, 탐색 영역내에서 스퍼럴(Spiral) 탐색 순서에 의해 탐색점(x,y)으로 이동하고(S204), 모든 탐색점에 대한 검사가 아직 끝나지 않았으면(S205), 상기에서 구한 4 ×4 블록을 현재 블록 타입에 따라 적절하게 선택하여 R(x,y)를 구한다(S206).
이에 따라, 만약 R(x,y)가 상기 수학식 7을 만족할 경우(S207), 2차원 블록 매칭을 실행하여 SAD(x,y)를 구하고(S208), 참조 영상의 SAD(m,n)과 모션 벡터(m,n)를 현재의 SAD(x,y)와 모션 벡터(x,y)로 갱신하고, 다른 탐색점(x,y)으로 이동하여 상기 과정을 반복 수행한다(S209).
즉, 현재 탐색점에서의 SAD(x,y)가 이전의 탐색점의 SAD(m,n)보다 작을 경우에는 현재 탐색점의 SAD(x,y)와 모션벡터(x,y)를 SAD(m,n)과 (m,n)으로 갱신하는 것이다.
만약, 이동한 다른 탐색점이 상기 수학식 7을 만족하지 않을 경우에는, SAD(m,n)과 SAD(x,y)의 갱신없이 즉시 다른 탐색점으로 이동하여 상기 과정을 반복 수행한다(S207).
결국, 상기와 같은 과정을 계속 반복하여, 탐색 영역의 탐색점에 대해서 모든 탐색 검사가 완료되면, 최종적으로 남아있는 (m,n)이 모션 추정에 의해 얻게 되는 정수단위 모션벡터가 되는 것이다(s210).
이상에서 설명한 바와 같이 본 발명 동영상의 정수단위 모션추정 방법은, 현재 영상의 블록내 모든 픽셀들의 특징요소를 결정한 후, 참조 영상의 탐색 영역에서 특징기반 매칭을 통해 불필요한 탐색점의 수를 줄임으로써, 모션 추정에 필요한 계산량을 감소시킬 수 있도록 하는 효과가 있다.

Claims (7)

  1. 동영상의 모션 추정 방법에 있어서,
    현재 영상의 블록 내 모든 픽셀들의 합을 특징 요소로 결정한 후, 참조 영상(reference frame)의 탐색 영역(search region)에서 특징 기반 매칭(feature-based matching)을 통해 불필요한 탐색점의 수를 줄이는 제1단계와;
    상기 특징 기반 매칭을 통해 선택된 매칭 가능성이 높은 후보점에 대해 2차원 블록 매칭(2-D block matching)을 적용하여, 모션 벡터를 구하는 제2단계로 이루어진 것을 특징으로 하는 동영상의 정수단위 모션추정 방법.
  2. 제1항에 있어서, 상기 제1단계의 특징 기반 매칭은, 현재 영상 블록의 블록 내 픽셀들의 합(C) 및 참조 영상의 탐색점(x,y)의 블록 내 픽셀들의 합(R(x,y))을 특징 요소로 사용하여, 기존 탐색점(m,n)과 현재 탐색점(x,y)이 다음 수학식 7을 만족할 경우, 현재의 탐색점(x,y)에서 구하게 될 SAD(x,y)는 현재까지 탐색 영역에서 검사한 다른 탐색점들의 SAD보다 작은 값을 갖게되어 매칭점 후보가 되는 것을 특징으로 하는 동영상의 정수단위 모션추정 방법.
    (수학식 7)
    C-SAD(m,n) ≤R(x,y) ≤C + SAD(m,n)
  3. 제1항 또는 제2항에 있어서, 상기 특징 기반 매칭에 사용되는 M ×N 블록 크기를 갖는 현재 영상의 특징 요소(C)는, M ×N 크기의 각 픽셀 값의 합()에 의해 구하는 것을 특징으로 하는 동영상의 정수단위 모션추정 방법.
  4. 제1항 또는 제2항에 있어서, 상기 특징 기반 매칭에 사용되는 참조 영상에서의 특징 요소 R(x,y)는, 그 값(R(x,y)을 구하기 전에 W(폭) ×H(높이) 크기의 참조 영상에 대해 4 ×4 블록의 합을 구하는 작업을 미리 수행한 후, 현재 영상의 블록 타입에 따라 상기 구해놓은 4 ×4 블록의 합을 적절히 조합하여 R(x,y)를 구하는 것을 특징으로 하는 동영상의 정수단위 모션추정 방법.
  5. 제4항에 있어서, 상기 참조 영상에 대해 미리 수행하는 4 ×4 블록의 합은, 참조 영상의 첫 번째 행의 픽셀을 시작으로 하는 1 ×4 열 벡터를 열 방향에 대해 H-4행까지 행을 바꾸어 가며 열 벡터의 합을 구하는 제1과정과;
    상기 제1과정을 행 방향에 대하여 열을 바꾸어 가며 W열까지 반복 수행하여 참조 영상에 대한 1 ×4 크기의 모든 열 벡터의 합을 구하는 제2과정과;
    상기 제1, 제2 과정을 통해 구한 모든 열 벡터 중에서, 첫 번째 열 벡터를 시작으로 행 방향에 대해 네 개씩의 열 벡터를 합하여, W-4열까지 4 ×4 크기의 블록 합을 구하는 제3과정과;
    상기 제3과정을 열 방향에 대하여 열 벡터를 바꾸어 가며 참조 영상에 대해 4 ×4 크기의 모든 블록의 합을 구하는 제4과정으로 이루어진 것을 특징으로 하는동영상의 정수단위 모션추정 방법.
  6. 제5항에 있어서, 상기 제1,제2 단계의 열 방향에 대해 H-4행까지 구하는 각 열 벡터는, 이전 열 벡터와 다음 열 벡터의 두 번째 행의 픽셀 값 부터 네 번째 행의 픽셀 값이 중복되기 때문에, 다음 열 벡터의 합을 구할 때는 이전 열 벡터의 합에서 첫 번째 행의 픽셀 값을 빼고 대신 새로 추가되는 다섯 번째 행의 픽셀 값을 합하여 구하는 것을 특징으로 하는 동영상의 정수단위 모션추정 방법.
  7. 제5항에 있어서, 상기 제3,제4 단계의 행 방향에 대해 W-4열까지 구하는 각 4 ×4 블록의 합은, 이전 블록과 다음 블록의 두 번째 열 벡터에서 네 번째 열 벡터가 중복되기 때문에, 다음 블록의 합을 구할 때는 이전 블록의 합에서 첫 번째 열 벡터의 값을 빼고 대신 다섯 번째 열 벡터의 값을 합하여 구하는 것을 특징으로 하는 동영상의 정수단위 모션추정 방법.
KR1020010071926A 2001-11-19 2001-11-19 동영상의 정수단위 모션추정 방법 KR20030041285A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010071926A KR20030041285A (ko) 2001-11-19 2001-11-19 동영상의 정수단위 모션추정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010071926A KR20030041285A (ko) 2001-11-19 2001-11-19 동영상의 정수단위 모션추정 방법

Publications (1)

Publication Number Publication Date
KR20030041285A true KR20030041285A (ko) 2003-05-27

Family

ID=29570174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010071926A KR20030041285A (ko) 2001-11-19 2001-11-19 동영상의 정수단위 모션추정 방법

Country Status (1)

Country Link
KR (1) KR20030041285A (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638195A (ja) * 1992-07-17 1994-02-10 Canon Inc ビデオ符号化装置
KR960006649A (ko) * 1994-07-28 1996-02-23 사또오 후미오 움직임 벡터 검출 방법 및 장치
KR960039997A (ko) * 1995-04-29 1996-11-25 배순훈 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화하는 방법 및 장치
KR20000066066A (ko) * 1999-04-13 2000-11-15 윤종용 동영상 추정 알고리즘에 있어서 프로세싱 엘레멘트 수 결정 방법
JP2001197501A (ja) * 2000-01-07 2001-07-19 Fujitsu Ltd 動きベクトル探索器及び動きベクトル探索方法並びに動画像符号化装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638195A (ja) * 1992-07-17 1994-02-10 Canon Inc ビデオ符号化装置
KR960006649A (ko) * 1994-07-28 1996-02-23 사또오 후미오 움직임 벡터 검출 방법 및 장치
KR960039997A (ko) * 1995-04-29 1996-11-25 배순훈 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화하는 방법 및 장치
KR20000066066A (ko) * 1999-04-13 2000-11-15 윤종용 동영상 추정 알고리즘에 있어서 프로세싱 엘레멘트 수 결정 방법
JP2001197501A (ja) * 2000-01-07 2001-07-19 Fujitsu Ltd 動きベクトル探索器及び動きベクトル探索方法並びに動画像符号化装置

Similar Documents

Publication Publication Date Title
JP4242656B2 (ja) 動きベクトル予測方法及び動きベクトル予測装置
JP2021022936A (ja) 画像予測方法および関連装置
TWI556633B (zh) 視訊解碼裝置、視訊編碼裝置、視訊解碼方法、視訊編碼方法、及儲存媒體(三)
KR101217627B1 (ko) 블록 기반의 움직임 추정 방법 및 장치
CN101366279A (zh) 自适应的运动搜索范围
JPH08242458A (ja) 動きベクトル検出方法
JP2008227702A (ja) 動きベクトル探索装置、動きベクトル探索方法及び動きベクトル探索プログラム
KR100474285B1 (ko) 모션벡터결정방법
KR20050095931A (ko) 계층적 움직임 추정에 있어서 움직임 벡터 생성 방법 및장치
JPH11252571A (ja) ビデオ符号化装置
CN107360433A (zh) 一种帧间预测编码方法和装置
WO2004064403A1 (en) Efficient predictive image parameter estimation
EP2362655B1 (en) Motion-vector estimation
JPH09182082A (ja) 動画像の動き補償予測符号化方法とその装置
JP2011010297A (ja) 誤差絶対値和の推定システム及び推定方法
KR20020010426A (ko) 움직임 추정 방법
KR100490730B1 (ko) 비디오 영상 압축 시스템에서의 적응적 패턴을 이용한움직임 예측 장치 및 방법
JP2006521740A (ja) 動きベクトル決定方法
KR100994771B1 (ko) 블록정합에 의한 움직임 벡터 탐색방법 및 탐색장치
KR20030041285A (ko) 동영상의 정수단위 모션추정 방법
KR20090084311A (ko) 프레임 레이트 변환 방법
JP6390275B2 (ja) 符号化回路、符号化方法
JP2001224036A (ja) 動画像符号化装置
US7627140B2 (en) Flatted hexagon search method for fast block motion estimation
KR20080053935A (ko) 비디오 시퀀스에서 가변 외형 움직임 추정

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application