KR950006774B1 - 움직임보상예측방법 - Google Patents

움직임보상예측방법 Download PDF

Info

Publication number
KR950006774B1
KR950006774B1 KR1019920020769A KR920020769A KR950006774B1 KR 950006774 B1 KR950006774 B1 KR 950006774B1 KR 1019920020769 A KR1019920020769 A KR 1019920020769A KR 920020769 A KR920020769 A KR 920020769A KR 950006774 B1 KR950006774 B1 KR 950006774B1
Authority
KR
South Korea
Prior art keywords
motion vector
image
motion compensation
motion
field
Prior art date
Application number
KR1019920020769A
Other languages
English (en)
Other versions
KR930011725A (ko
Inventor
타케시 유키타케
슈지 이노우에
Original Assignee
마쯔시다덴기산교 가부시기가이샤
다니이 아끼오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP29300491A external-priority patent/JP2929044B2/ja
Priority claimed from JP18198092A external-priority patent/JP2938677B2/ja
Application filed by 마쯔시다덴기산교 가부시기가이샤, 다니이 아끼오 filed Critical 마쯔시다덴기산교 가부시기가이샤
Publication of KR930011725A publication Critical patent/KR930011725A/ko
Application granted granted Critical
Publication of KR950006774B1 publication Critical patent/KR950006774B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

내용 없음.

Description

움직임보상예측방법
제1도는 본 발명의 제1실시예의 설명도.
제2도는 본 발명의 제2실시예의 설명도.
제3도는 프레임을 베이스로하는 움직임보상예측에 있어서의 블록의 설명도.
제4도는 본 발명의 제3실시예의 설명도.
제5도는 본 발명의 제4실시예의 설명도.
제6도는 종래의 움직임보상예측방법의 개념도.
제7도는 종래의 프레임간 움직임보상예측방법의 문제점의 설명도.
제8도는 종래 필드간 움직임 보상예측방법의 설명도.
본 발명은, 화성전송이나 화상압축등 움직임화상(動畵傷)의 예측을 필요로하는 장치에 이용되는 움직임화상의 움직임화상의 움직임보상예측방법에 관한 것이다.
최근, 반도체기술의 진보에 따라, 화상전송이나 화상의 압축에 이용되는 움직임보상예측방법은 많은 분야에서 이용되고 있다. 종래의 움직임보상예측방법으로서, 어떤 1매의 참조화상으로부터 움직임보상을 행하는 방법이 있다.
제6도는, 종래의 화상의 움직임보상예측방법의 개념을 표시한 도면이다.
제6도에 있어서, 움직임화상신호는 시간축상, 등간격 to으로 샘플링된 화상의 집합이다. 예를 들면 NTSC신호로는 각 필드는 1/60초마다 샘플링되고, PAL신호로는 각필드는 1/50초마다 샘플링되고 있다. 여기서, 예를 들면 어떤 피사체가 움직이고 있을 경우, 제(M-1)번째의 화상에서의 피사체 A'의 공간적위치와, 제M번째의 화상에서의 피사체 A의 공간적위치는 to의 사이에서 움직인 분량만큼 어긋나게 된다. 여기서, 제M번째의 화상을 제(M-1)번째의 화상으로부터 예측하는 경우를 생각한다. 이 경우 입력화상의 참조화상의 시간차 to의 사이의 움직임을 보상하여 정밀도가 좋은 예측을 행하기 위하여, 제M번째화상을 1개 이상의 화소를 포함한 블록으로 나누고, 각 블록마다 (M-1)번째의 화상과의 사이에서 움직임을 검출하고, 이 움직임분량만큼 어긋나게한 위치의 화소치를 예측치로 하다. 이것을 제6도를 사용해서 설명하면, 제M번째화상의 화소 X의 예측치로서 제(M-1)번째화상에 있어서의 상기 화소 X와 공간적으로 동일위치의 화소인 X'로부터 블록단위로 검출한 움직임 MV만큼 어긋나게한 화소 X″를 화소 X의 예측치로하고 있다.
단, 제6도에 있어서는 블록의 사이즈를 3×3으로 하고 있다.
또한, 신호가 뜀번지부여(Interlace)신호인 경우는 상기의 화상으로서 프레임으로 하는 경우와, 필드로 하는 경우, 또 참조화상을 프레임으로 하고 입력화상을 필드로하는 경우등 몇개의 경우를 생각할 수 있으나, 기본적인 생각 방식은 제6도에 설명하였는 것이다. 이와 같은 예로서, 국제표준화 위원회인 CMTT(Commission Mixte CCIR/CCITT Pour les Transmissions Televisuelles et Sonores 3)에서 표준화를 행한 Recommendation 723, “Transmission of Component-coded digital televistion signals for contribution-Ouality at the third hierarchical level of CCITT Recommed nation G702”가 있다. 이 권고중에서는 프레임간 움직임보상예측과 필드간 예측을 적응적으로 절환하고 있다. 이와 같이 종래의 움직임 보상예측방법에 있어서도 검출된 움직임에 따라서 이 움직임을 보상해서 예측을 행하기 때문에, 움직임을 포함한 움직임화상이라도 정밀도 좋게 예측을 행할 수 있다.
그러나, 상기 종래의 움직임보상예측방법에서는, 바르게 움직임보상예측을 행할 수 없었거나, 또 바르게 행한 경우라도 참조하는 화상의 화소밀도는 참조화상의 화소밀도가되어, 더욱 정밀도가 좋은 예측을 행할 수 없다고 하는 문제점이 있었다.
예를 들면 뜀번지부여 신호를 프레임으로서 취급하여 프레임으로부터 블록을 생성하여 움직임보상예측을 행할 경우는, 프레임내의 2개의 필드의 시간적인 샘플링위치의 틀림을 무시해서 프레임을 합성하여 움직임보상을 하고 있다.
이 때문에, 바른 필드의 샘플링위치에서 생각하였을 경우, 제1필드와 제1필드에 의해서 보상하고 있는 움직임이 일치하지 않는 경우가 있다. 이와 같은 예를 제7도에 표시한다. 제7도에 있어서 입력신호는 뜀번지부여 신호이며(제7a도), 이것을 프레임에 합성해서 움직임보상예측을 행한다. 지금 검출한 움직임의 수직성분이 1이였다고하면, 제7b도에 표시한 바와 같이 제M프레임의 제1필드는 제(M-1)프레임의 제2필드로부터 예측되고, 제M프레임의 제2필드는 제(M-1)프레임의 제1필드로부터 예측되는 것으로 된다. 이 동작을 바른 필드위치에서 생각한 것이 제7c도이다. 제7c도에서 명백한 바와 같이 제M프레임의 제1필드와 제2필드에서는 보상하고 있는 움직임이 일치하고 있지 않다. 이와 같이 뜀번지부여화상을 프레이으로서 취급하여 움직임보상을 행하면, 제1필드와 제2필드에서 보상하는 움직임이 달라져 버리는 경우가 있기 때문에, 이와 같은 현상이 발생하는 벡터에서는 예측의 정밀도가 열화한다고 하는 문제가 있다.
다음에, 상기와 같이 어떤 화상간의 샘플링시간차를 무시하지 않고, 바른 위치의 화상으로서 움직임보상예측을 행하는 경우을 생각한다. 이와 같은 예로서는, 뜀번지부에 신호에 대해서 필드로부터 블록을 생성하고, 움직임보상예측을 행하는 경우나, 뜀번지부에 대해서 움직임보상예측을 행하는 경우가 있다. 이 경우는 시간적으로 바른위치의 화상을 사용해서 움직임보상예측을 행하기 때문에, 상기 뜀번지부여 신호의 프레임으로부터 블록을 생성하여 움직임보상예측을 행하는 때와 같은 문제는 발생하지 않는다. 그러나, 이 경우는 1매의 참조화상으로부터 예측을 행하고 있으며, 이 때문에 참조하는 화상의 화소밀도는 참조화상의 화소밀도가 되고, 보다 정밀도가 좋은 예측을 행할려고 하면 한계가 있다. 제8도에 뜀번지부에 신호의 입력에 대해서 필드로부터 블록을 생성하여 움직임보상을 행하는 경우를 표시하고 있다. 이 경우는 필드화상을 참조화상으로서 예측을 행하고 있기 때문에, 예를 들면 도시하고 있는 바와 같이, 움직임벡터가 0인때는 참조화상의 예측으로 필요한 위치에는 샘플링점이 없고, 필드내 보간(補間)에 의한 화소치 즉 예측치를 산출하지 않으면 않된다. 이것을 프레임내의 화소치로 블록을 생성하여, 움직임보상하는 경우와 비교하면, 필드에서 움직임보상을 행하는 경우는 수직방향의 화소밀도가 프레임으로 행하는 경우의 절반이기 때문에, 정미도가 좋은 움직임보상예측을 행할려고 해도 한계가 있다. 이것은 비뜀번지부여 신호를 입력으로 하는 경우라도 마찬가지이며, 다같의 참조하는 화상의 화소밀도는 참조화상의 화소밀도가 되며, 보다 정밀도가 좋은 움직임보상예측을 행할려고하면 한계가 있다고 하는 문제점이 있다.
본 발명은, 이와 같은 종래의 문제를 해결하는 것이며, 복수매의 참조화상을 이용하므로서 매우 정밀도가 좋은 예측을 행할 수 있는 뛰어난 움직임보상예측 방법을 제공하는 것을 목적으로 한다.
본 발명은, 상기 목적을 달성하기 위하여, 입력화상의 움직임보상을 제1설정시간에 샘플링한 참조화상과, 이 참조화상과의 사이의 움직임벡터로부터 예측하는 방법에 있어서, 상기 입력화상의 일부이며 복수의 화소로 이루어지는 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 산출하는 수단과, 상기 참조화상의 일부이며 복수화소로 이루어지는 블로간위가 제1설정시간에 이동한 참조화상움직임벡터를 산출하는 수단으로 이루어지고, 상기 입력화상움직임벡터와 상기 참조화상움직임벡터로부터의 임의의 설정기간의 상기 입력화상의 움직임보상을 산출하는 것이다.
또, 상기 입력화상의 일부이며 복수의 화소로 이루어진 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 산출하는 수단과, 상기 입력화상움직임벡터를 사용하여 제1설정시간의 참조화상움직임벡터를 산출하는 수단을 이루어지고, 상기 입력화상움직임벡터와 상기 참조화상움직임벡터로부터 임의의 설정시간의 상기 입력화상의 움직임보상을 산출하는 것이다.
복수매의 입력화상의 움직임보상을 제1설정시간에 샘플링한 참조화상과, 이 참조화상과의 사이의 움직임벡터로부터 예측하는 방법에 있어서, 이들의 입력화상의 일부이며 복수의 화소로 이루어진 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 각각 산출하는 수단과, 상기 참조화상의 일부이고 복수의 화소로 이루어진 블록단위가 제1설정시간에 이동한 참조화상움직임벡터을 산출하는 수단으로 이루어지고, 이들의 입력화상움직임벡터를 동일한 것으로 하고, 상기 입력화상움직임벡터와 상기 참조화상움직임벡터로부터 임의의 설정시간의 상기 입력화상의 움직임보상을 산출하는 것을 특징으로 하는 것이다.
따라서 본 발명에 의하면, 1개이상의 화소를 포함한 블록단위에 어떤 시간간격으로 검출된 움직임에 따라서, 샘플링된 시간이 다른 복수매의 참조화상이 입력화상으로부터 상기 시간간격 만큼 떨어진 시간에서의 화상이 되도록 필요에 따라서 어떤 움직임벡터를 사용해서 참조화상의 시간위치의 보정을 행하기 위해서, 입력화상으로부터 상기 시간간격만큼 떨어진 위치의 복수매의 화상을 얻을 수 있다. 이 복수매의 화상을 맞추므로서 화소밀도가 높은 참조화상을 얻고, 이 화소밀도가 높은 참조화상을 사용해서 상기 검출된 움직임분량만큼 보상한 위치의 화소치를 산출하여 이것을 예측치로 하기 때문에, 매우 정밀도가 좋은 움직임보상예측을 행할 수 있다.
또, 본 발명에 의하면 상기의 참조화상의 시간위치의 보정을 행하는 벡터를, 어떤 시간간격으로 검출된 움직임으로부터 산출할 수 있고, 상기 시간보정용의 움직임벡터를 재차 검출할 필요가 없고, 또한 정밀도가 좋은 움직임보상을 행할 수 있다.
또, 입력신호로서 뜀번지부여 신호로하고, 참조화상을 어떤 프레임의 2개의 필드로 하므로서, 프레임화상에 대해서 상기 움직임보상예측을 적응시킬 수 있기 때문에, 프레임을 베이스로서 행하는 움직임보상예측에 대해서, 정밀도 좋게 예측을 행할 수 있다.
또, 1개이상의 화소를 포함한 블록단위로 어떤 시간간격으로 검출된 움직임으로서, 복수매의 입력화상의 블록중, 각 블록의 차지하는 공간적위치의 전부 또는 일부가 겹쳐지는 각 입력화상의 블록에 대해서 동일한 값을 사용하기 때문에, 복수의 입력화상의 몇개의 블록에 대해서 움직임검출을 복수의 행할 필요가 없고, 또한 정밀도가 좋은 움직임보상예측을 행할 수 있다.
이하 본 발명의 실시예를 첨부한 도면에 의거하여 상세히 설명한다.
제1도는 본 발명의 제1실시예를 설명하는 도면이다. 제1도는 입력신호를 뜀번지부여 신호로하고, 필드내의 화상으로부터 블록을 생성하고 필드화상을 베이스로하는 움직임보상예측을 전제로하고 있다. 여기서, 입력화상은 제M필드이며, 참조화상은 제(M-1)필드 및 제(M-2)필드이다. 지금, 제1에 있어서, 어떤 블록의 움직임보상예측을 행하기 위한 움직임벡터(MV)는 2필드간격, 즉, 제M필드와 제(M-2)필드와의 사이에서 검출되는 것으로 한다. 설명의 형편상 검출된 움직임중 수직방향의 움직임에 대해서만 생각하기로하고, 또, 화소치를 a(x, y)로 표시하기로 한다. 여기서 x는 필드번호를 표시하고, y는 라인 번호를 표시한다. 라인번호는 아래로부터 프레임의 라인간격으로 1, 2, …와 같이 번호부여되고 있다. 각 화소의 수직방향의 위치는 항상 프레임라인을 단위로해서 표시된다.
지금, a(M, 1)의 예측치를 구하는 일을 생각한다. 검출된 MV의 수직성분을 1로하면 a(M, 1)의 움직보상예측치는 (M-2, 2)의 위치의 화소치가 된다. 다음에 제(M-1)필드는 참조화상의 위치를 제(M-2)필드의 위치이 화상이 되도록 시간위치의 보정을 행한다. 이 시간위치를 보정하는 벡터를 MVadj로 한다. MVadj를 MV로부터 산출할때, 예를 들면 제(M-2)필드와 제M필드사이의 움직임이 일정하다고 가정하면, 이하의 관계가 용이하게 도출된다.
MVadj=-MV/2
따라서 MV의 수직성분이 1이면 MVadj의 수직성분은 -0.5가 된다. 이것을 제1도에 표시한 바와 같이 제(M-1)필드는 제(M-2)필드의 위치에 위치보정을 행하면 a(M-1, 2)는 (M-2, 2.5)의 위치에 보정된다. 이상의 동작후에 a(M, 1)의 움직임보상예측치인 (M-2, 2)의 위치를 제(M-2)필드 및 시간위치 보정된 제(M-1)필드의 화소치로부터 구한다. 이때 필요한 화소치를 예를 들면 근처의 화소치로부터 거리에 반비례한 가중평균으로 구한다면, (M-2, 2)의 위치의 화소치 즉 a(M, 1)의 움직임보상예측치는 이하의 식에 의해 구할 수 있다.
a(M-2, 1)/3+2*a(M-1, 2)/3
이상은 수직성분만을 고려했을때의 설명이나, 수직, 수평의 양성분을 가진 경우도 마찬가지의 동작을 행하는 것으로 한다.
이와 같이, 상기 제1실시예에 의하면, 1개이상의 화소를 포함한 블록단위로 어떤 시간간격으로 검출된 움직임에 따라서, 샘플링된 시간이 다른 복수매의 참조화상이 입력화상으로부터 상기 시간간격만큼 떨어진 시간에서의 화상이 되도록 필요에 따라 어떤 움직임벡터를 사용해서 참조화상의 시간위치를 보정을 행하기 위해서, 입력화상으로부터 상기 시간간격만큼 떨어진 위치의 복수매의 화상을 얻을 수 있다. 이 복수매의 화상을 맞추므로서 화소밀도가 높은 참조화상을 얻고, 이 화소밀도가 높은 참조화상을 사용해서 상기 검출된 움직임분량만큼 보상한 위치의 화소치를 산출하여 이것을 예측치로하기 때문에, 매우 정밀도가 좋은 움직임보상예측을 행할 수 있다고 하는 효과를 가진다.
상기 제1실시예에서는, 참조화상을 2개화상으로 가정했으나 이 매수는 복수매이면 몇매라도 되고, 복수매의 참조화상의 위치를 앞(前) 화상ㆍ앞의 앞화상이라고 가정했으나 이들의 위치는 임의이며, MV로부터 MVadj를 산출할때에 움직임이 일정하다는 가정을 두고서 산출을 행하였으나, 이 가정은 어떤 법칙에 따르면 어떠한 가정이라도 되고, 필요한 위치의 화소치를 구하는데 근처의 화소치로부터 거리에 반비례한 가중평균으로 구하였으나 이 구하는 방법은 가중평균에 한하지 않고 예를 들면 저역(低域) 통과형 필터의 계수를 사용해서 구해도 되고, 또 필요한 화소치를 내삽(內揷)에 의해 구하도록 하였으나 이 방법은 내삽에 한하지 않고 예를 들면 외삽이라도 된다.
또, 상기 제1실시예에서는, 복수매의 참조화상의 위치를 보정을 행하는 벡터 MVadj로서 블록단위로 검출된 움직임벡터 MV로부터 산출했으나, 이것을 제(M-1)필드와 제(M-2)필드사이에서 MV와는 독립으로 검출할 수도 있다.
이 경우는 독립으로 검출하므로서, 보다 정확한 움직임으로 상기 시간보정을 행할 수 있기 때문에, 더욱 정밀도가 좋은 움직임보상예측을 행할 수 있다고 하는 효과를 가진다.
또, 상기 제1실시예에서는 입력신호를 뜀번지부여신호로하고 각 화상으로서 필드화상을 가정을 하였으나, 이것을 비뜀번지부여화상으로 하더라도 마찬가지 설명에 의해 정밀도 좋게 예측을 행할 수 있다고 하는 효과를 가진다.
제2실시예로서 입력신호를 뜀번지부여신호로하고, 프레임을 단위로해서 움직임보상예측을 행하는 방법을 표시한다. 제2도는 본 발명의 제2실시예를 설명하는 도면이다. 제2도에 있어서는, 참조화상을 앞프레임의 2개의 필드 즉 제(M-1), 제(M-2)필드로하고, 입력화상을 현프레임의 2개이 필드 즉 제M필드, 제(M+1)필드로 한다. 또, 제2도에 있어서 어떤 블록의 움직임보상예측을 행하기 위한 움직임벡터는 현프레임의 2개 필드마다 따로따로 입력화상과 참조프레임내에서 또한 입력화상과 동일 위상의 필드와의 사이에서 구하여지고 있는 것으로 한다. 제M필드의 움직임보상예측을 위한 움직임벡터 MV(M)으로 표시하고, 제(M+1)필드는 위한 움직임벡터를 MV(M+1)로 표시하는 것으로 한다. 또, 각 화소위치의 화소치의 표시방법에 대해서는 상기 제1실시예에 따르는 것으로 한다.
또, 제2도에 있어서는 설명의 형편상 검출된 움직임중 수직방향의 움직임에 대해서만 생각하는 것으로 한다.
제2도에 있어서 제M필드내의 화소의 예측은 제(M-1)필드와 제(M-2)필드의 화상을 사용해서 행해진다. 이때의 동작은 상기 제1실시예와 완전히 동일하다. 따라서 예를 들면 MV(M)의 수직성분이 1.5이라면, 제1실시예와 마찬가지 동작에 의해, a(M, 1)의 예측치는 (M-2, 2.5)의 위치가 화소치가 되고, 이 값은 이하의 식에 의해 구할 수 있다.
a(M-2, 1)/7+6*a(M-1, 2)/7
도, 제(M+1)필드내의 화소의 예측치는 제M필드내의 화소의 예측이 경우와 마찬가지로 참조프레임의 2개의 필드, 제(M-1) 및 (M-2)필드로부터 예측된다. 이때의 생각방식은 상기 제M필드내의 화소의 예측과 마찬가지이나, 이 경우는 제(M-2)필드는 제(M-1)필드의 위치에 보정을 행하지 않으면 않된다. 이시간 위치를 보정하는 벡터를 MVadj(M+1)로 한다. MVadj(M+1)을 MV(M+1)로부터 산출할때, 예를 들면 제(M-2)필드와 제(M+1)필드사이의 움직임이 일정하다고 가정하면, 이하의 관계가 용이하게 도출된다.
MVadj(M+1)=MV(M+1)/2
따라서 MV(M+1)의 수직성분이 1이면 MVadj(M+1)의 수직성분은 0.5가 된다. 제2도에 표시한 바와 같이 제(M-2)필드는 제(M-2)필드위치에 위치보정을 행하면 a(M-2, 3)은 (M-1, 2.5)의 위치에 보정된다. 이상의 동작후에 a(M+1, 2)의 예측치인 (M-1, 3)의 위치를 제(M-1)필드 및 시간위치보정된 제(M-2)필드의 화소치로부터 구한다. 이때 필요한 화소치를 예를 들면 근처의 화소치로부터 거리에 반비례한 가중(weighting) 평균으로 구한다면, (M-1, 3)의 위치의 화소치 결국 a(M+1, 2)의 움직임 보상예측치는 이하의 식에 의해 구할 수 있다.
a(M-1, 4)/3+2*a(M-2, 3)/3
이상은 수직성분만을 고려하였을때의 설명이나, 수직, 수평의 양성분을 가진 경우도 마찬가지의 동작을 행하는 것으로 한다.
이와 같이, 상기 제2실시예에 의하면, 입력신호로서 뜀번지부여신호로 하고, 참조화상을 어떤 프레임의 2개의 필드로하므로서, 프레임화상에 대해서 상기 움직임보상예측을 적용시킬수 있기 때문에, 프레임을 베이스로해서 행하는 움직임보상예측에 대해서, 정밀도 좋게 예측을 행할 수 있다고 하는 효과를 가진다.
상기 제2실시예에 있어서도 제1실시예의 경우와 마찬가지로 참조프레임의 매수, 참조프레임의 위치, MV(M) 또는 MV(M+1)로부터 MVadj(M) 또는 MVadj(M+2)을 도출할때의 가정, 필요한 위치의 화소치를 구할때의 계산방법 및 내삽이나 외삽이냐에 관해서는 임의로 선택할 수 있다. 또, 본 실시예에서는 움직임보상예측을 위한 움직임벡터는 입력화상과 참조프레임내에서 또한 입력화상과 동상(同相)의 필드와의 사이에서 구하여지고 있으나, 이것은 역상(逆相)의 필드와의 사이에서 구하여지고 있으나, 익서은 역상(逆相)의 필드와의 사이에서 구하여지고 있어도 마찬가지의 동작으로 마찬가지의 효과를 얻을 수 있다. 또, 제1실시예의 경우와 마찬가지로 위치보정벡터를 검출움직임벡터와는 독립으로 구하므로서, 더욱 정밀도가 높은 움직임보상에 축을 행할 수 있다고 하는 효과를 가진다.
제3실시예로서 뜀번지부여의 입력신호에 대해서, 프레임을 단위로 움직임보상을 행하는 다른 방법을 표시한다. 제3, 4도는 본 발명의 제3실시예를 설명하는 도면이다. 제3도에 있어서 참조화상은 제(N-1)프레임즉 제(M-2), 제(M-1)필드이며, 입력화상은 제N프레임 즉 제M, 제(M+1)필드이다.
지금, 움직임보상을 행하는 블록은 프레임으로부터 생성되고 있는 것으로 한다. 결국, 제N프레임의 화소로부터 생성되는 블록단위로 제(N+1)프레임과의 사이에 움직임벡터 MV가 구하여지고 있다고 한다. 이때의 블록의 상태를 제3도에 표시하고 있다. 이것을 필드베이스의 예측방법으로서 다시 생각하면 이하와 같이 생각할 수 있다. 참조화상은 제(N-1)프레임의 2개의 필드이며, 입력화상은 제N프레임의 2개의 필드이다. 또, MV의 검출간격은 2필드간격이다. 단, 상기 블록내에 포함되는 화소에 대해서는, 제M필드의 화소이든 제(M+1)필드의 화소이든 마찬가지의 움직임벡터 MV가 된다.
결국, 이 경우는 제2실시예에 있어서 상기의 프레임으로부터 생성된 블록내의 화소에서 사용하는 움직임벡터는, 그 화소가 제M필드에 속하든지 제(M+1)필드에 속하든지에 상관없이 동일한 값을 취한다. 다른 동작은 제2실시예와 마찬가지가 된다. 제4도에 MV의 수직성분이 1인 경우의 예를 표시하고 있다. 이상은 수직성분만을 고려했을때의 설명이나, 수직, 수평의 양성분을 가진 경우도 마찬가지의 동작을 행하는 것으로 한다.
이와 같이 제3실시예에 의하면 프레임으로부터 생성되는 블록내와 같이, 미리 결정된 공간적 영역내에 위치하는 2개의 입력필드의 화소에 대해서 동일한 움직임벡터를 사용하기 때문에, 각 필드마다 움직임검출을 행할 필요가 없으며, 또한 정밀도가 좋은 움직임보상예측을 행 할 수 있다고 하는 효과를 가진다.
상기 제3실시예에 있어서도 제2실시예의 경우와 마찬가지로 참조프레임의 매수, 참조프레임의 위치, MV로부터 MVadj를 도출할때의 가정, 필요한 위치의 화소치를 구할때의 계산방법 및 내삽인지 외삽인지에 관해서는 임의로 선택할 수 있다. 본 실시예에 있어서는 프레임을 단위로하는 움직임보상예측을 베이스에 설명을 행했으나, 이것은 제1실시예에서 표시한 바와 같은 필드를 베이스로하든지, 또 비뜀번지부여화상을 베이스로하든지 그 효과는 변하지 않는다. 또, 복수매의 입력화상의 블록중, 움직임벡터로서 동일한 값을 사용하는 블록의 결정방법으로서, 각 블록이 차지하는 공간적위치의 전부 또는 일부가 겹쳐지는 각 입력화상의 블록으로서도 그 효과는 변하지 않는다. 또, 제2실시예의 경우와 마찬가지로 위치정보벡터를 검출움직임벡터와는 독립적으로 구하므로서 더욱 정밀도가 좋은 움직임보상예측을 행할 수 있다고 하는 효과를 가진다.
제5도는 본 발명의 제4실시예를 설명한 도면이다. 제4실시예는 제1실시예와 전체는 동일하며, 입력신호를 뜀번지부여신호로하고, 입력화상을 제M필드, 참조화상을 제(M-1)필드, 제(M-2)필드로 한다. 지금, 제5도에 있어서, 어떤 블록의 움직임보상예측을 행하기 위한 움직임벡터(MV)는 2필드간격, 결국 제M필드와 제(M-2)필드와의 사이에서 검출되는 것으로 한다. 설명의 형편상 검출된 움직임중 수직방향의 움직임에 대해서만 생각하기로 하고, 각 화소위치의 화소치의 표시방법은 제1도와 마찬가지이다.
지금, a(M, 1)의 예측치를 구하는 일을 생각한다. 검출된 MV의 수직성분을 3으로하면 a(M, 1)의 움직임 보상예측치는 (M-2, 4)의 위치의 화소치가 된다. 먼저, 이 화소치를 제(M-2)필드내의 화소치로부터 구한다. 예를 들면 근처의 화소치로부터 거리에 반비례한 가중평균으로 구한다면, (M-2, 4)의 위치의 화소치는 이하의 식에의해 구할 수 있다.
a(M-2, 3)/2+a(M-2, 5)/2
다음에 상기 MV로부터 입력화상(제M필드)과 제(M-1)필드와의 움직임을 산출한다. 제M필드와 제(M-1)필드사이의 시간차는 제M필드와 제(M-2)필드의 시간차의 1/2이다. 따라서 이 움직임벡터는 MV/2라고 생각할 수 있다. 지금, MV의 수직성분은 3이므로 MV/2의 수직성분은 1.5가 된다. 따라서 제(M-1)필드의 화상으로부터 a(M, 1)의 움직임보상예측치를 구하면(M-1, 2.5)의 위치의 화소치가 된다. 이 화소치를 제(M-1)필드내의 화소치로부터 구한다. 예를 들면 근처의 화소치로부터 거리에 반비례한 가중평균으로 구한다면, (M-1, 2.5)의 위치의 화소치는 이하의 식에의해 구할 수 있다.
3*a(M-1, 2)/4+(a(M-1, 4)/4
이상에서 구한 2개의 예측치로부터 예를 들면 그 평균을 취하여 a(M,1)의 예측치로 한다.
이상은 수직성분만을 고려하였을때의 설명이나, 수직, 수평의 양성분을 가진 경우도 마찬가지의 동작을 행하는 것으로 한다.
이와 같이, 상기 제4실시예에 의하면, 1개이상의 화소를 포함한 블록단위로, 어떤 시간간격으로 검출된 움직임에 따라서, 샘플링된 시간이 다른 복수매의 참조화상과 입력화상과의 사이의 움직임을 상기 검출된 움직임으로부터 산출하고, 각 참조화상으로 상기 산출된 움직임분량 만큼 보상한 위치의 화소치를 산출하기 때문에, 복수매의 참조화상으로부터 복수의 움직임보상예측치를 얻을 수 있다. 이 복수의 예측치로부터 입력화상의 예측치를 산출하기 때문에, 예측치에 노이즈를 포함하는 경우라도 이 노이즈를 제거할 수 있고, 정밀도가 좋은 움직임보상예측을 행할 수 있다고 하는 효과를 가진다.
상기 제4실시예에 있어서도 제1실시예의 경우와 마찬가지로 참조화상의 매수, 참조화상의 위치, 각 참조화상내에서 필요한 위치의 화소치를 구할때의 계산방법 및 내삽인지 외삽인지에 관해서는 임의로 선택할 수 있다. 각각의 참조화상내에서 구한 복수의 화소치로부터 예측치를 산출하는 방법에 대해서는, 단순평균 이외에도 어떤 가중산출방법이나 저감통과형 필터의 계수를 사용해서 산출하는 방법등을 생각할 수 있다.
본 실시예에 있어서는 뜀번지부여신호의 필드를 단위로하는 움직임보상을 베이스로 설명을 행했으나, 이것은 제2, 제3실시예에서 표시한 바와 같이 프레임을 베이스로하든, 또 비뜀번지부여화상을 베이스로하든 그 효과는 변하지 않는다.
본 발명은, 상기 실시예에서 명백한 바와 같이, 1개 이상의 화소를 포함한 블록단위로 어떤 시간간격으로 검출된 움직임에 따라서, 샘플링된 시간이 다른 복수대의 참조화상이 입력화상으로부터 상기 시간간격 만큼 떨어진 시간에서의 화상이 되도록 필요에 따라 어떤 움직벡터를 사용해서 참조화상의 시간위치의 보정을 행하기 때문에, 입력화상으로부터 상기 시간간격만큼 떨어진 위치의 복수매의 화상을 얻을 수 있다. 이 복수매의 화상을 맞추므로서 화소밀도가 높은 참조화상을 얻고, 이 화소밀도가 높은 참조화상을 사용해서 상기 검출된 움직임분량만큼 보상한 위치의 화소치를 산출하여 이것을 예측치로하기 때문에, 매우 정밀도가 좋은 움직임보상예측을 행할 수 있다고 하는 효과를 가진다.
또, 본 발명에 의하면 상기의 참조화상의 시간위치의 보정을 행하는 벡터를, 어떤 시간간격으로 검출된 움직임으로부터 산출할 수 있고, 상기 시간보정용의 움직임벡터를 재차 검출할 필요가 없고, 또한 정밀도가 좋은 움직임보상을 행할 수 있다고 하는 효과를 가진다. 또, 입력신호로서 뜀번지부여신호로 하고, 참조화상을 어떤 프레임의 2개의 필드로하므로서, 프레임화상에 대해서 상기 움직임보상예측을 적응시킬 수 있기 때문에, 프레임을 베이스로 해서 행하는 움직임보상예측에 대해서, 정밀도 좋게 예측을 행할 수 있다고 하는 효과를 가진다.
또, 1개이상의 화소를 포함한 블록단위로 어떤 시간간격을 검출된 움직임으로서, 복수매의 입력화상의 블록중, 각 블록이 차지하는 공간적위치의 전부 또는 일부가 겹치는 각 입력화상의 블록에 대해서 동일한 값을 사용하기 때문에, 복수의 입력화상의 몇개의 대해서 움직임검출을 복수회 행할 필요가 없고, 또한 정밀도가 좋은 움직임보상예측을 행할 수 있다고 하는 효과를 가진다.

Claims (8)

  1. 입력화상의 움직보상을 제1설정시간으로 샘플링한 참조화상과, 이 참조화상과의 사이의 움직임벡터로부터 예측하는 방법에 있어서, 상기 입력화상의 일부이며 복수의 화소로 이루어지는 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 산출하는 수단과, 상기 참조화상의 일부이며 복수화소로 이루어지는 블록단위가 제1설정시간에 이동한 참조화상움직임벡터를 산출하는 수단으로 이루어지고, 상기 입력화상움직임벡터와 상기 참조화상움직임벡터로부터 임의의 설정시간의 상기 입력화상의 움직임보상을 산출하는 것을 특징으로 하는 움직임보상예측방법.
  2. 제1항에 있어서, 상기 참조화상움직임벡터를 산출하는 수단이 참조화상의 샘플링시간을 적어도 2개이상으로 설정하고, 이들 샘플링시간에 의한 블록단위의 참조화상의 이동데이터에 의해 산출하는 것을 특징으로 하는 움직임보상예측방법.
  3. 입력화상의 움직임보상을 제1설정시간에 샘플링한 참조화상과, 이 참조화상과의 사이의 움직임벡터로부터 예측하는 방법에 있어서, 상기 입력화상의 일부이며 복수의 화소로 이루어지는 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 산출하는 수단과, 상기 입력화상움직임벡터를 사용하여 제1설정시간의 참조화상움직임벡터를 산출하는 수단으로 이루어지고, 상기 입력화상움직임벡터와 상기 참조화상움직임벡터로부터 임의의 설정시간의 상기 입력화상의 움직임보상을 산출하는 것을 특징으로 하는 움직임보상예측방법.
  4. 제3항에 있어서, 상기 참조화상움직임벡터를 산출하는 수단이 참조화상이 샘플링시간을 적어도 2개이상으로 설정하고, 이들 샘플링시간에 의한 블록단위의 참조화상의 이동데이터에 의해 산출하는 것을 특징으로 하는 움직임보상예측방법.
  5. 복수매의 입력화상의 움직임보상을 제1설정시간에 샘플링한 참조화상과, 이 참조화상과의 사이의 움직임벡터로부터 예측하는 방법에 있어서, 이들의 입력화상의 일부이며 복수의 화소로 이루어진 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 각각 산출하는 수단과, 상기 참조화상의 일부이고 복수의 화소로 이루어진 블록단위가 제1설정시간에 이동한 참조화상움직임벡터를 산출하는 수단으로 이루어지고, 이들의 입력화상움직임벡터를 동일한 것으로 하고, 상기 입력화상움직임벡터와 상기 참조화상움직임벡터로부터 임의의 설정시간의 상기 입력화상의 움직임보상을 산출하는 것을 특징으로 하는 움직임보상예측방법.
  6. 제5항에 있어서, 상기 참조화상움직임벡터를 산출하는 수단이 참조화상의 샘플링시간을 적어도 2개이상으로 설정하고, 이들 샘플링시간에 의한 블록단위의 참조화상의 이동데이터에 의해 산출하는 것을 특징으로 하는 움직임보상예측방법.
  7. 복수매의 입력화상의 움직임보상을 제1설정시간에 샘플링한 참조화상과, 이 참조화상과의 사이의 움직임벡터로부터 예측하는 방법에 있어서, 이들의 입력화상의 일부이며 복수의 화소로 이루어진 블록단위가 제2설정시간에 이동한 입력화상움직임벡터를 산출하는 수단과, 상기 입력화상움직임벡터를 사용하고 제1설정시간의 참조화상움직임벡터를 산출하는 수단으로 이루어지고, 이들의 입력화상움직임벡터를 동일한 것으로 하고, 상기 입력화상움직임벡터과 상기 참조화상움직임벡터로부터의 임의의 설정시간의 상기 입력화상의 움직임보상을 산출하는 것을 특징으로 하는 움직임보상예측방법.
  8. 제7항에 있어서, 상기 참조화상움직임벡터를 산출하는 수단이 참조화상의 샘플링시간을 적어도 2개이상으로 설정하고, 이들 샘플링시간에 의한 블록단위의 참조화상의 이동데이터에 의해 산출하는 것을 특징으로 하는 움직임보상예측방법.
KR1019920020769A 1991-11-08 1992-11-06 움직임보상예측방법 KR950006774B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP29300491A JP2929044B2 (ja) 1991-11-08 1991-11-08 動き補償予測方法
JP91-293004 1991-11-08
JP92-293004 1991-11-08
JP92-181980 1992-07-09
JP18198092A JP2938677B2 (ja) 1992-07-09 1992-07-09 動き補償予測方法

Publications (2)

Publication Number Publication Date
KR930011725A KR930011725A (ko) 1993-06-24
KR950006774B1 true KR950006774B1 (ko) 1995-06-22

Family

ID=26500950

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019920020769A KR950006774B1 (ko) 1991-11-08 1992-11-06 움직임보상예측방법

Country Status (5)

Country Link
US (4) US5369449A (ko)
EP (1) EP0541389B1 (ko)
KR (1) KR950006774B1 (ko)
CA (1) CA2082280C (ko)
DE (1) DE69225863T2 (ko)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0828876B2 (ja) * 1993-02-25 1996-03-21 日本電気株式会社 動画像信号のリフレッシュ方法
JP2636674B2 (ja) * 1993-05-25 1997-07-30 日本電気株式会社 動画像の動きベクトル検出装置
JPH07135663A (ja) * 1993-09-17 1995-05-23 Oki Electric Ind Co Ltd 動きベクトル検出方法および動きベクトル検出装置
JP2590705B2 (ja) * 1993-09-28 1997-03-12 日本電気株式会社 動き補償予測装置
US5592226A (en) * 1994-01-26 1997-01-07 Btg Usa Inc. Method and apparatus for video data compression using temporally adaptive motion interpolation
GB9401989D0 (en) * 1994-02-02 1994-03-30 British Broadcasting Corp Video motion estimation
US5768439A (en) * 1994-03-23 1998-06-16 Hitachi Software Engineering Co., Ltd. Image compounding method and device for connecting a plurality of adjacent images on a map without performing positional displacement at their connections boundaries
EP0675652B1 (fr) * 1994-03-30 2009-05-13 Nxp B.V. Procédé et circuit d'estimation de mouvement entre images à deux trames entrelacées, et dispositif de codage de signaux numériques comprenant un tel circuit
US6091460A (en) * 1994-03-31 2000-07-18 Mitsubishi Denki Kabushiki Kaisha Video signal encoding method and system
JP3468856B2 (ja) * 1994-07-28 2003-11-17 株式会社東芝 動きベクトル検出方法及び装置
JPH0865681A (ja) * 1994-08-25 1996-03-08 Sony Corp 動きベクトル検出装置およびそれを使用した動き補償予測符号化システム
JPH08336165A (ja) * 1995-06-09 1996-12-17 Canon Inc 複眼撮像装置
US5687097A (en) * 1995-07-13 1997-11-11 Zapex Technologies, Inc. Method and apparatus for efficiently determining a frame motion vector in a video encoder
MY117289A (en) * 1996-01-17 2004-06-30 Sharp Kk Image data interpolating apparatus
IL119928A (en) * 1996-12-29 2001-01-11 Univ Ramot Model-based view extrapolation for interactive virtual reality systems
US6404813B1 (en) 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
JP3721867B2 (ja) * 1999-07-07 2005-11-30 日本電気株式会社 映像表示装置及び表示方法
FR2809572B1 (fr) * 2000-05-29 2002-08-16 Cit Alcatel Codage video de source avec prediction du mouvement et filtrage des effets de blocs
WO2002019721A2 (en) * 2000-08-28 2002-03-07 Thomson Licensing S.A. Method and apparatus for motion compensated temporal interpolation of video sequences
JP3632591B2 (ja) * 2000-11-13 2005-03-23 日本電気株式会社 画像処理装置、方法及びコンピュータ読み取り可能な記録媒体
US6873655B2 (en) 2001-01-09 2005-03-29 Thomson Licensing A.A. Codec system and method for spatially scalable video data
WO2003077567A1 (en) * 2002-03-14 2003-09-18 Matsushita Electric Industrial Co., Ltd. Motion vector detection method
US8406301B2 (en) 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
RU2342803C2 (ru) * 2002-10-01 2008-12-27 Томсон Лайсенсинг С.А. Неявное взвешивание опорных изображений в видеокодере
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
KR20040070490A (ko) * 2003-02-03 2004-08-11 삼성전자주식회사 비월 주사 방식의 동영상 부호화/복호화 방법 및 그 장치
JP4226395B2 (ja) * 2003-06-16 2009-02-18 アルパイン株式会社 音声補正装置
US7319795B2 (en) * 2003-09-23 2008-01-15 Broadcom Corporation Application based adaptive encoding
US7889792B2 (en) * 2003-12-24 2011-02-15 Apple Inc. Method and system for video encoding using a variable number of B frames
US7492820B2 (en) 2004-02-06 2009-02-17 Apple Inc. Rate control for video coder employing adaptive linear regression bits modeling
US7869503B2 (en) * 2004-02-06 2011-01-11 Apple Inc. Rate and quality controller for H.264/AVC video coder and scene analyzer therefor
US7986731B2 (en) 2004-02-06 2011-07-26 Apple Inc. H.264/AVC coder incorporating rate and quality controller
US20050286629A1 (en) * 2004-06-25 2005-12-29 Adriana Dumitras Coding of scene cuts in video sequences using non-reference frames
CN101189880B (zh) * 2005-06-03 2010-06-16 Nxp股份有限公司 带有混合参考纹理的视频解码器
JP4235209B2 (ja) * 2006-02-10 2009-03-11 Nttエレクトロニクス株式会社 動きベクトル検出装置および動きベクトル検出方法
GB2435360B (en) * 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
US9424685B2 (en) 2012-07-31 2016-08-23 Imagination Technologies Limited Unified rasterization and ray tracing rendering environments

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61200789A (ja) * 1985-03-04 1986-09-05 Kokusai Denshin Denwa Co Ltd <Kdd> 画面上の物体の動きベクトル検出方式
JPH0765883B2 (ja) * 1986-06-05 1995-07-19 宣夫 福久 無線送受信器を有する位置検出装置
EP0294959B1 (en) * 1987-06-09 1994-10-05 Sony Corporation Television standards converters
EP0294961B1 (en) * 1987-06-09 1994-10-12 Sony Corporation Motion vector selection in television images
ATE122521T1 (de) * 1988-11-08 1995-05-15 Philips Electronics Nv Kodierung, dekodierung und übertragungssystem für fernsehbilder.
JP2521145B2 (ja) * 1989-02-20 1996-07-31 日本ビクター株式会社 動き補償予測符号化復号化方式
GB2231751B (en) * 1989-04-27 1993-09-22 Sony Corp Motion dependent video signal processing
GB2231748B (en) * 1989-04-27 1993-08-18 Sony Corp Motion dependent video signal processing
GB2231745B (en) * 1989-04-27 1993-07-07 Sony Corp Motion dependent video signal processing
GB2231749B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
JPH07109990B2 (ja) 1989-04-27 1995-11-22 日本ビクター株式会社 適応型フレーム間予測符号化方法及び復号方法
GB2231225B (en) * 1989-04-27 1993-10-20 Sony Corp Motion dependent video signal processing
JP2576631B2 (ja) * 1989-06-20 1997-01-29 日本ビクター株式会社 高品位テレビジヨン受信機
US5072293A (en) * 1989-08-29 1991-12-10 U.S. Philips Corporation Method of estimating motion in a picture signal
FR2651405B1 (fr) * 1989-08-29 1992-05-22 Philips Electronique Lab Procede et dispositif de traitement d'images a estimation de mouvement amelioree.
JPH03117991A (ja) * 1989-09-29 1991-05-20 Victor Co Of Japan Ltd 動きベクトル符号化装置及び復号化装置
DE69033797T2 (de) * 1989-10-14 2002-04-18 Sony Corp Verfahren und Anordnung zum Kodieren/Dekodieren eines Videosignales
JPH03252287A (ja) * 1990-02-28 1991-11-11 Victor Co Of Japan Ltd 動画像圧縮装置
JP2885322B2 (ja) * 1990-03-27 1999-04-19 日本ビクター株式会社 フィールド間予測符号化装置及び復号化装置
US5237405A (en) 1990-05-21 1993-08-17 Matsushita Electric Industrial Co., Ltd. Image motion vector detecting device and swing correcting device
JPH0453389A (ja) * 1990-06-21 1992-02-20 Graphics Commun Technol:Kk 動ベクトル検出装置
US5093720A (en) * 1990-08-20 1992-03-03 General Instrument Corporation Motion compensation for interlaced digital television signals
GB2248361B (en) * 1990-09-28 1994-06-01 Sony Broadcast & Communication Motion dependent video signal processing
DE69131257T2 (de) * 1990-10-31 1999-09-23 Victor Company Of Japan Verfahren zur Kompression von bewegten Bildsignalen nach dem Zeilensprungverfahren
US5193004A (en) 1990-12-03 1993-03-09 The Trustees Of Columbia University In The City Of New York Systems and methods for coding even fields of interlaced video sequences
US5200820A (en) * 1991-04-26 1993-04-06 Bell Communications Research, Inc. Block-matching motion estimator for video coder
DE69229705T2 (de) * 1991-05-23 1999-12-23 Japan Broadcasting Corp Verfahren zur erkennung eines bewegungsvektors und vorrichtung dafür und system zur verarbeitung eines bildsignals mit dieser vorrichtung
US5317397A (en) 1991-05-31 1994-05-31 Kabushiki Kaisha Toshiba Predictive coding using spatial-temporal filtering and plural motion vectors
US5210605A (en) * 1991-06-11 1993-05-11 Trustees Of Princeton University Method and apparatus for determining motion vectors for image sequences

Also Published As

Publication number Publication date
DE69225863D1 (de) 1998-07-16
US5369449A (en) 1994-11-29
US5745182A (en) 1998-04-28
KR930011725A (ko) 1993-06-24
EP0541389B1 (en) 1998-06-10
US5978032A (en) 1999-11-02
CA2082280A1 (en) 1993-05-09
EP0541389A2 (en) 1993-05-12
CA2082280C (en) 1995-02-07
USRE39278E1 (en) 2006-09-12
DE69225863T2 (de) 1998-10-22
AU637289B1 (en) 1993-05-20
EP0541389A3 (ko) 1994-03-30

Similar Documents

Publication Publication Date Title
KR950006774B1 (ko) 움직임보상예측방법
KR100233553B1 (ko) 비디오신호 처리장치
US5060074A (en) Video imaging apparatus
AU643565B2 (en) pideo image processing
US20100271554A1 (en) Method And Apparatus For Motion Estimation In Video Image Data
US5610662A (en) Method and apparatus for reducing conversion artifacts
KR100927281B1 (ko) 화상 신호 처리 장치 및 방법
US20080062310A1 (en) Scan conversion apparatus
KR0141703B1 (ko) 텔레비젼 방식 변환 시스템
JP4197434B2 (ja) 動き推定の容易化
EP1460846B1 (en) Image signal processing apparatus and processing method
EP1460847B1 (en) Image signal processing apparatus and processing method
USRE39279E1 (en) Method for determining motion compensation
JP2624507B2 (ja) 動き補正型テレシネ装置
JP2938677B2 (ja) 動き補償予測方法
USRE39276E1 (en) Method for determining motion compensation
JP3395186B2 (ja) ビデオカメラおよびビデオカメラの画像の振動表示方法
GB2264416A (en) Motion compensated video signal processing
JPS61125295A (ja) テレビジヨン方式変換方式
KR100202551B1 (ko) 이동보상형 풀다운 보간장치 및 그의 보간방법
JPH06350974A (ja) フレーム静止画像生成装置
JP2002199265A (ja) 電子ズーム装置及びビデオカメラ
JPS61159880A (ja) 方式変換装置
JPS6239988A (ja) 方式変換装置
JPH04255178A (ja) ビデオデータの手振れ検出装置およびその方法

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120611

Year of fee payment: 18

EXPY Expiration of term