JP2938677B2 - Motion compensation prediction method - Google Patents

Motion compensation prediction method

Info

Publication number
JP2938677B2
JP2938677B2 JP18198092A JP18198092A JP2938677B2 JP 2938677 B2 JP2938677 B2 JP 2938677B2 JP 18198092 A JP18198092 A JP 18198092A JP 18198092 A JP18198092 A JP 18198092A JP 2938677 B2 JP2938677 B2 JP 2938677B2
Authority
JP
Japan
Prior art keywords
field
motion
motion compensation
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18198092A
Other languages
Japanese (ja)
Other versions
JPH0630395A (en
Inventor
剛 行武
修二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP18198092A priority Critical patent/JP2938677B2/en
Priority to US07/970,046 priority patent/US5369449A/en
Priority to AU28162/92A priority patent/AU637289C/en
Priority to CA002082280A priority patent/CA2082280C/en
Priority to DE69225863T priority patent/DE69225863T2/en
Priority to EP92310187A priority patent/EP0541389B1/en
Priority to KR1019920020769A priority patent/KR950006774B1/en
Publication of JPH0630395A publication Critical patent/JPH0630395A/en
Priority to US08/278,010 priority patent/US5745182A/en
Priority to US08/883,315 priority patent/US5978032A/en
Application granted granted Critical
Publication of JP2938677B2 publication Critical patent/JP2938677B2/en
Priority to US09/559,627 priority patent/USRE39276E1/en
Priority to US09/833,770 priority patent/USRE39279E1/en
Priority to US09/833,769 priority patent/USRE39278E1/en
Priority to US09/833,680 priority patent/USRE39277E1/en
Priority to US09/866,811 priority patent/USRE39280E1/en
Priority to US10/895,283 priority patent/USRE39281E1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像伝送や画像圧縮な
ど動画像の予測を必要とする装置に利用される動画像の
動き補償予測方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensation prediction method for a moving image used in an apparatus which requires a prediction of a moving image such as image transmission and image compression.

【0002】[0002]

【従来の技術】近年、半導体技術の進歩にともない、画
像伝送や画像の圧縮に利用される動き補償予測方法は多
くの分野で利用されている。従来の動き補償予測方法と
して、ある1枚の参照画像より動き補償を行う方法があ
る。
2. Description of the Related Art In recent years, with advances in semiconductor technology, motion compensation prediction methods used for image transmission and image compression have been used in many fields. As a conventional motion compensation prediction method, there is a method of performing motion compensation from a certain reference image.

【0003】図6は従来の画像の動き補償予測方法の概
念を示す図である。図6において、動画像信号は時間軸
上、等間隔t0でサンプリングされた画像の集合であ
る。例えばNTSC信号では各フィールドは1/60秒
毎にサンプリングされ、PAL信号では各フィールドは
1/50秒毎にサンプリングされている。ここで、例え
ばある被写体が動いている場合、第(M−1)番目の画
像での被写体A′の空間的位置と、第M番目の画像での
被写体Aの空間的位置はt0の間に動いた分だけずれる
事となる。ここで、第M番目の画像を第(M−1)番目
の画像から予測する場合を考える。この場合入力画像と
参照画像の時間差t0の間の動きを補償し精度のよい予
測を行うために、第M番目画像を1つ以上の画素を含む
ブロックに分け、各ブロック毎に(M−1)番目の画像
との間で動きを検出し、この動き分だけずらした位置の
画素値を予測値とする。これを図6を用いて説明する
と、第M番目画像の画素Xの予測値として第(M−1)
番目画像における前記画素Xと空間的に同位置の画素で
あるX’からブロック単位に検出した動きMVだけずら
した画素X”を画素Xの予測値としている。但し、図6
においてはブロックのサイズを3×3としている。
FIG. 6 is a diagram showing the concept of a conventional image motion compensation prediction method. In FIG. 6, a moving image signal is a set of images sampled at equal intervals t0 on the time axis. For example, in the NTSC signal, each field is sampled every 1/60 second, and in the PAL signal, each field is sampled every 1/50 second. Here, for example, when a certain subject is moving, the spatial position of the subject A ′ in the (M−1) th image and the spatial position of the subject A in the Mth image are between t0. It will be shifted by the amount of movement. Here, a case where the M-th image is predicted from the (M-1) -th image will be considered. In this case, in order to compensate for the motion between the time difference t0 between the input image and the reference image and perform accurate prediction, the M-th image is divided into blocks including one or more pixels, and each block is divided into (M-1 A motion is detected between the first and second images, and a pixel value at a position shifted by this motion is used as a predicted value. This will be described with reference to FIG. 6. As the predicted value of the pixel X of the M-th image, (M−1)
The pixel X ″ which is shifted from the pixel X ′ spatially at the same position as the pixel X in the second image by the motion MV detected in block units is used as the predicted value of the pixel X. However, FIG.
, The size of the block is 3 × 3.

【0004】なお、信号がインターレース信号である場
合は前記の画像としてフレームとする場合と、フィール
ドとする場合、また参照画像をフレームとし入力画像を
フィールドとする場合などいくつかの場合が考えられる
が、基本的な考え方は図6で説明したものである。この
ような例として、国際標準化委員会であるCMTT(Com
mission Mixte CCIR/CCITT pour les Transmissio
ns Televisuelleset Sonores3)で標準化を行ったReco
mmendation 723 , "Transmission ofcomponent-cod
ed digital television signals for contributio
n-quality at the third hierarchical level of
CCITT Recommendation G.702"がある。この勧告の
中ではフレーム間動き補償予測とフィールド間予測を適
応的に切り換えている。このように従来の動き補償予測
方法においても検出された動きの応じてこの動きを補償
して予測を行うため、動きを含む動画像であっても精度
よく予測を行える。
[0004] When the signal is an interlaced signal, there are several cases such as a case where the image is a frame, a case where the image is a field, and a case where the reference image is a frame and the input image is a field. The basic concept has been described with reference to FIG. An example of this is the International Standards Committee, CMTT (Com
mission Mixte CCIR / CCITT pour les Transmissio
ns Televisuelleset Sonores3)
mmendation 723, "Transmission of component-cod
ed digital television signals for contributio
n-quality at the third hierarchical level of
CCITT Recommendation G.702 ". In this recommendation, adaptively switching between inter-frame motion compensation prediction and inter-field prediction is performed. Since the prediction is performed by compensating for the motion, the prediction can be accurately performed even for a moving image including a motion.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の動き補償予測方法では、正しく動き補償予測を行え
なかったり、また正しく行える場合でも参照する画像の
画素密度は参照画像の画素密度となり、更に精度の良い
予測を行えないという問題点があった。
However, in the above-mentioned conventional motion compensation prediction method, even if the motion compensation prediction cannot be performed correctly, or even if the motion compensation prediction can be performed correctly, the pixel density of the reference image becomes the pixel density of the reference image. There was a problem that a good prediction could not be made.

【0006】例えばインタレース信号をフレームとして
扱いフレームからブロックを生成し動き補償予測を行う
場合は、フレーム内の2つのフィールドの時間的なサン
プリング位置の違いを無視してフレームを合成し動き補
償している。このため、正しいフィールドのサンプリン
グ位置で考えた場合、第一フィールドと第二フィールド
で補償している動きが一致しない場合がある。このよう
な例を図7に示す。図7において入力信号はインタレー
ス信号であり(図7(a))、これをフレームに合成し
て動き補償予測を行う。今検出した動きの垂直成分が1
であったとすると、図7(b)に示すように第Mフレー
ムの第1フィールドは第(M−1)フレームの第2フィ
ールドから予測され、第Mフレームの第2フィールドは
第(M−1)フレームの第1フィールドから予測される
事になる。この動作を正しいフィールド位置で考えたも
のが図7(c)である。図7(c)より明らかなよう
に、第Mフレームの第1フィールドと第2フィールドで
は補償している動きが一致していない。このようにイン
タレース画像をフレームとして扱い動き補償を行うと、
第1フィールドと第2フィールドで補償する動きが異な
ってしまう場合があるために、このような現象が発生す
るベクトルでは予測の精度が劣化するという問題があ
る。
For example, when an interlaced signal is treated as a frame and a block is generated from the frame to perform motion compensation prediction, the frame is synthesized and motion compensated ignoring the difference in the temporal sampling positions of two fields in the frame. ing. Therefore, when considering the sampling position of the correct field, the motion compensated in the first field and the motion compensated in the second field may not match. FIG. 7 shows such an example. In FIG. 7, the input signal is an interlaced signal (FIG. 7A), which is synthesized into a frame to perform motion compensation prediction. The vertical component of the detected motion is 1
As shown in FIG. 7B, the first field of the M-th frame is predicted from the second field of the (M-1) -th frame, and the second field of the M-th frame is represented by the (M-1) -th frame. ) It is predicted from the first field of the frame. FIG. 7C illustrates this operation at a correct field position. As is clear from FIG. 7C, the compensated motion does not match in the first field and the second field of the M-th frame. When interlaced images are treated as frames and motion compensation is performed,
Since the motion to be compensated may be different between the first field and the second field, there is a problem that the prediction accuracy is deteriorated in a vector in which such a phenomenon occurs.

【0007】次に、上記のようにある画像間のサンプリ
ング時間差を無視せず、正しい位置の画像として動き補
償予測を行う場合を考える。このような例としては、イ
ンタレース信号に対してフィールドからブロックを生成
し、動き補償予測を行う場合や、ノンインタレース信号
に対して動き補償予測を行う場合がある。この場合は時
間的に正しい位置の画像を用いて動き補償予測を行うた
めに、上記インタレース信号のフレームよりブロックを
生成して動き補償予測を行う時のような問題は生じな
い。しかし、この場合は1枚の参照画像から予測を行っ
ており、このために参照する画像の画素密度は参照画像
の画素密度となり、より精度の良い予測を行おうとする
と限界がある。図8にインタレース信号の入力に対して
フィールドからブロックを生成して動き補償を行う場合
を示している。この場合はフィールド画像を参照画像と
して予測を行っているために、例えば図示しているよう
に、動きベクトルが0の時は参照画像上の予測で必要な
位置にはサンプリング点がなく、フィールド内補間によ
りの画素値すなわち予測値を算出しなければならない。
これをフレーム内の画素値でブロックを生成し、動き補
償する場合と比較すると、フィールドで動き補償を行う
場合は垂直方向の画素密度がフレームで行う場合の半分
である為に、精度の良い動き補償予測を行おうとしても
限界がある。これはノンインタレース信号を入力とする
場合でも同じであり、共に参照する画像の画素密度は参
照画像の画素密度となり、より精度の良い動き補償予測
を行おうとすると限界があるという問題点がある。
Next, consider a case where motion compensation prediction is performed as an image at a correct position without ignoring the sampling time difference between certain images as described above. Examples of such a case include a case where a block is generated from a field for an interlaced signal and motion compensation prediction is performed, and a case where motion compensation prediction is performed for a non-interlace signal. In this case, since motion compensation prediction is performed using an image at a temporally correct position, there is no problem that occurs when a block is generated from the frame of the interlaced signal and motion compensation prediction is performed. However, in this case, prediction is performed from one reference image, and therefore, the pixel density of the image to be referred to becomes the pixel density of the reference image, and there is a limit to performing more accurate prediction. FIG. 8 shows a case where motion compensation is performed by generating a block from a field with respect to an input of an interlace signal. In this case, since the prediction is performed using the field image as the reference image, for example, as shown in the figure, when the motion vector is 0, there is no sampling point at the position required for the prediction on the reference image, and A pixel value by interpolation, that is, a predicted value must be calculated.
When this is compared with the case where a block is generated using pixel values in a frame and motion compensation is performed, since motion compensation in a field is half the pixel density in the vertical direction when performing motion compensation in a frame, accurate motion There is a limit to making compensation predictions. This is the same even when a non-interlaced signal is input, and there is a problem that the pixel density of the image to be referred to together becomes the pixel density of the reference image, and there is a limit in performing more accurate motion compensation prediction. .

【0008】本発明は、このような従来の問題を解決す
るものであり、複数枚の参照画像を利用する事により非
常に精度の良い予測を行う事の出来る優れた動き補償予
測方法を提供することを目的とする。
The present invention solves such a conventional problem, and provides an excellent motion compensation prediction method capable of performing very accurate prediction by using a plurality of reference images. The purpose is to:

【0009】[0009]

【課題を解決するための手段】本発明は、上記目的を達
成するために、2つの参照フィールドに基づいて対象フ
ィールドについての動き補償を行う動き補償予測方法で
あって、第1の参照フィールドと対象フィールドとの間
の第1の動きベクトルを検出し、対象フィールド内の各
画素ごとに、前記第1の動きベクトルにより定まる前記
第1の参照フィールド内の点の近傍の複数の画素値と任
意の係数との積和により第1の動き補償予測値を求め、
対象フィールド内の各画素ごとに、前記第1の動きベク
トルに所定の比を乗じて生成した第2の参照フィールド
と対象フィールドとの間の第2の動きベクトルにより定
まる前記第2の参照フィールド内の点の近傍の複数の画
素値と任意の係数との積和により第2の動き補償予測値
を求め、前記第1および第2の動き補償予測値任意の
係数との積和により前記対象フィールドについての動き
補償予測値を求める構成としたものである。
This onset bright [Means for solving problems] In order to achieve the above object, a motion compensation prediction method of performing motion compensation for the target field based on the two reference fields, the first reference field And a first motion vector between the target field and the target field, and for each pixel in the target field, a plurality of pixel values near a point in the first reference field determined by the first motion vector ; Duty
Me first motion compensated prediction value by product-sum of the coefficients of the meaning determined,
For each pixel in the target field, the first motion in the second reference field determined by the second motion vector between the second reference field and the target field generated by multiplying a predetermined ratio to the vector Multiple points near the point
A second motion-compensated predicted value based on the product sum of the prime value and an arbitrary coefficient
The calculated Me, is obtained by the configuration obtaining a motion compensation prediction value for the target field by the product-sum of the first and second motion compensated prediction values and arbitrary coefficient.

【0010】また本発明は、上記の発明において第2の
動きベクトルを生成するために第1の動きベクトルに乗
ずる所定の比を、対象フィールドおよび第1の参照フィ
ールドの時間間隔と、前記対象フィールドおよび第2の
参照フィールドの時間間隔との比により定める構成とし
たものである。
[0010] This onset Ming, a predetermined ratio to be multiplied to the first motion vector to produce a second motion vector in the above-mentioned invention, the time interval of the target field and the first reference field, the target The field and the second reference field are configured to be determined by a ratio with the time interval.

【0011】[0011]

【0012】[0012]

【作用】したがって本発明によれば、1つ以上の画素を
含むブロック単位にある時間間隔で検出された動きに応
じて、サンプリングされた時間の異なる複数枚の参照画
像が入力画像から前記時間間隔だけ離れた時間での画像
となるように必要に応じある動きベクトルを用いて参照
画像の時間位置の補正を行なうために、入力画像から前
記時間間隔だけ離れた位置の複数枚の画像を得る事がで
きる。この複数枚の画像を合わせる事で画素密度の高い
参照画像を得、この画素密度の高い参照画像を用いて前
記検出された動き分だけ補償した位置の画素値を算出し
これを予測値とするために、非常に精度のよい動き補償
予測を行うことができる。
Therefore, according to the present invention, a plurality of reference images sampled at different times are sampled from the input image in accordance with the motion detected at a certain time interval in a block unit including one or more pixels. In order to correct the time position of the reference image using a certain motion vector as necessary so that the image is separated only by a certain time, it is necessary to obtain a plurality of images at positions separated by the time interval from the input image. Can be. By combining the plurality of images, a reference image with a high pixel density is obtained, and a pixel value at a position compensated for the detected motion using the reference image with a high pixel density is used as a prediction value. Therefore, highly accurate motion compensation prediction can be performed.

【0013】更に、本発明によれば上記の参照画像の時
間位置の補正を行うベクトルを、ある時間間隔で検出さ
れた動きより算出するする事ができ、該時間補正用の動
きベクトルを再度検出する必要がなく、かつ精度の良い
動き補償を行う事ができる。
Further, according to the present invention, a vector for correcting the time position of the reference image can be calculated from the motion detected at a certain time interval, and the motion vector for time correction is detected again. And it is possible to perform highly accurate motion compensation.

【0014】また、入力信号としてインタレース信号と
し、参照画像をあるフレームの2つのフィールドとする
事によって、フレーム画像に対して上記動き補償予測を
適応できるため、フレームをベースとして行う動き補償
予測に対して、精度よく予測を行うことができる。
[0014] In addition, since the above-described motion compensation prediction can be applied to a frame image by using an interlaced signal as an input signal and a reference image as two fields of a certain frame, the motion compensation prediction performed on a frame basis can be performed. On the other hand, prediction can be performed with high accuracy.

【0015】更に、1つ以上の画素を含むブロック単位
にある時間間隔で検出された動きとして、複数枚の入力
画像のブロックの内、各ブロックの占める空間的位置の
すべて又は一部が重なる各入力画像のブロックに対して
同一の値を使う為、複数の入力画像のいくつかのブロッ
クに対して動き検出を複数回行う必要がなく、かつ精度
の良い動き補償予測を行うことができる。
Further, as a motion detected at a certain time interval in a block unit including one or more pixels, among the blocks of a plurality of input images, all or a part of the spatial position occupied by each block overlaps. Since the same value is used for the blocks of the input image, it is not necessary to perform motion detection a plurality of times for some blocks of the plurality of input images, and highly accurate motion compensation prediction can be performed.

【0016】[0016]

【実施例】図1は本発明の第1の実施例を説明する図で
ある。図1は入力信号をインタレース信号とし、フィー
ルド内の画素からブロックを生成しフィールド画像をベ
ースとする動き補償予測を前提としている。ここで、入
力画像は第Mフィールドであり、参照画像は第(M−
1)フィールドおよび第(M−2)フィールドである。
今、図1において、あるブロックの動き補償予測を行う
為の動きベクトル(MV)は2フィールド間隔、つまり
第Mフィールドと第(M−2)フィールドとの間で検出
されるものとする。説明の都合上検出された動きのうち
垂直方向の動きについてのみ考える事とし、また、画素
値をa(x,y)と表す事とする。ここでxはフィール
ド番号を表し、yはライン番号を表す。ライン番号は下
からフレームのライン間隔で1,2,・・・のように番
号付けされている。各画素の垂直方向の位置は常にフレ
ームラインを単位として表される。
FIG. 1 is a diagram for explaining a first embodiment of the present invention. FIG. 1 assumes that an input signal is an interlaced signal, a block is generated from pixels in a field, and motion-compensated prediction is performed based on a field image. Here, the input image is the Mth field, and the reference image is the (M-th) field.
1) field and (M-2) th field.
Now, in FIG. 1, it is assumed that a motion vector (MV) for performing motion compensation prediction of a certain block is detected at an interval of two fields, that is, between the Mth field and the (M-2) th field. For the sake of explanation, only the vertical movement among the detected movements will be considered, and the pixel value will be represented as a (x, y). Here, x represents a field number, and y represents a line number. The line numbers are numbered from the bottom at line intervals of the frame, such as 1, 2,. The vertical position of each pixel is always expressed in units of a frame line.

【0017】今、a(M,1)の予測値を求める事を考
える。検出されたMVの垂直成分を1とするとa(M,
1)の動き補償予測値は(M−2,2)の位置の画素値
となる。次に、第(M−1)フィールドの参照画像の位
置を第(M−2)フィールドの位置の画像となるように
時間位置の補正を行う。この時間位置を補正するベクト
ルをMVadjとする。MVadjをMVより算出する
とき、例えば第(M−2)フィールドと第Mフィールド
間の動きが一定であると仮定すると、以下の関係が容易
に導き出せる。
Now, consider obtaining a predicted value of a (M, 1). Assuming that the vertical component of the detected MV is 1, a (M,
The motion compensation prediction value of 1) is a pixel value at the position of (M−2, 2). Next, the time position is corrected so that the position of the reference image in the (M-1) th field becomes the image in the position of the (M-2) th field. A vector for correcting the time position is defined as MVadj. When calculating MVadj from MV, for example, assuming that the movement between the (M-2) th field and the Mth field is constant, the following relationship can be easily derived.

【0018】MVadj= −MV/2 よってMVの垂直成分が1であればMVadjの垂直成
分はー0.5となる。これを図1に示すように第(M−
1)フィールドを第(M−2)フィールドの位置に位置
補正を行うとa(M−1,2)は(M−2,2.5)の
位置に補正される。以上の動作の後にa(M,1)の動
き補償予測値である(M−2,2)の位置を第(M−
2)フィールド及び時間位置補正された第(M−1)フ
ィールドの画素値から求める。この際必要な画素値を例
えば近傍の画素値より距離に反比例した重みつき平均で
求めるとすれば、(M−2,2)の位置の画素値つまり
a(M,1)の動き補償予測値は以下の式により求めら
れる。
MVadj = -MV / 2 Therefore, if the vertical component of MV is 1, the vertical component of MVadj is -0.5. This is shown in FIG.
1) When the position of the field is corrected to the position of the (M-2) th field, a (M-1,2) is corrected to the position of (M-2,2.5). After the above operation, the position of (M−2, 2) which is the motion compensation predicted value of a (M, 1) is set to the (M−2,
2) Determined from the pixel values of the field and the (M-1) th field whose time position has been corrected. At this time, if the necessary pixel value is determined by, for example, a weighted average inversely proportional to the distance from the neighboring pixel values, the pixel value at the position of (M−2, 2), that is, the motion compensation predicted value of a (M, 1) Is determined by the following equation.

【0019】 a(M−2,1)/3+2*a(M−1,2)/3 以上は垂直成分のみを考慮した時の説明であるが、垂
直、水平の両成分を持つ場合も同様の動作を行うものと
する。
A (M−2,1) / 3 + 2 * a (M−1,2) / 3 The above description is for the case where only the vertical component is taken into account. Operation is performed.

【0020】このように、上記第1の実施例によれば、
1つ以上の画素を含むブロック単位にある時間間隔で検
出された動きに応じて、サンプリングされた時間の異な
る複数枚の参照画像が入力画像から前記時間間隔だけ離
れた時間での画像となるように必要に応じある動きベク
トルを用いて参照画像の時間位置の補正を行なうため
に、入力画像から前記時間間隔だけ離れた位置の複数枚
の画像を得る事ができる。この複数枚の画像を合わせる
事で画素密度の高い参照画像を得、この画素密度の高い
参照画像を用いて前記検出された動き分だけ補償した位
置の画素値を算出しこれを予測値とするために、非常に
精度のよい動き補償予測を行う事が出来るという効果を
有する。
As described above, according to the first embodiment,
According to the motion detected at a certain time interval in a block unit including one or more pixels, a plurality of reference images sampled at different times become images at a time separated from the input image by the time interval. In order to correct the time position of the reference image using a certain motion vector as needed, a plurality of images at positions separated by the time interval from the input image can be obtained. By combining the plurality of images, a reference image with a high pixel density is obtained, and a pixel value at a position compensated for the detected motion using the reference image with a high pixel density is used as a prediction value. Therefore, there is an effect that extremely accurate motion compensation prediction can be performed.

【0021】上記第1の実施例では、参照画像を2つの
画像と仮定したがこの枚数は複数枚であれば何枚でも良
く、複数枚の参照画像の位置を前画像・前前画像と仮定
したがこれらの位置は任意であり、MVよりMVadj
を算出する際に動きが一定であると仮定をおいて算出を
行ったがこの仮定はある法則に従えばどのような仮定で
もよく、必要な位置の画素値を求めるのに近傍の画素値
から距離に反比例した重み付き平均で求めたがこの求め
方は重み付き平均に限らず例えば任意の係数の複数の低
域通過型フィルタや、また外挿というように周辺の画素
に任意の係数を乗じたものの和とすることができる。
In the first embodiment, the reference image is assumed to be two images. However, this number may be any number as long as it is a plurality of images, and the positions of the plurality of reference images are assumed to be the previous image / previous image. However, these positions are arbitrary, and MVadj
The calculation was performed on the assumption that the motion was constant when calculating .However, this assumption may be any assumption according to a certain rule. distance is calculated by the weighted average inversely proportional this Determination of the plurality of e.g. arbitrary coefficient is not limited to the average weighted low
A peripheral pixel such as a bandpass filter or extrapolation
Is multiplied by an arbitrary coefficient.

【0022】又、上記第1の実施例では、複数枚の参照
画像の位置の補正を行うベクトルMVadjとしてブロ
ック単位に検出された動きベクトルMVより算出した
が、これを第(M−1)フィールドと第(M−2)フィ
ールド間でMVとは独立に検出する事もできる。この場
合は独立に検出する事により、より正確な動きで該時間
補正を行う事が出来るために、更に精度の良い動き補償
予測を行う事が出来るという効果を有する。
In the first embodiment, the vector MVadj for correcting the positions of a plurality of reference images is calculated from the motion vector MV detected in block units. And the (M-2) th field can be detected independently of the MV. In this case, by independently detecting, the time correction can be performed with more accurate motion, so that there is an effect that more accurate motion compensation prediction can be performed.

【0023】更に、上記第1の実施例では入力信号をイ
ンタレース信号とし各画像としてフィールド画像を仮定
をしたが、これをノンインタレース画像としても同様の
説明により精度よく予測を行う事が出来るという効果を
有する。
Furthermore, in the first embodiment, the input signal is an interlaced signal and a field image is assumed as each image. However, even if this is a non-interlaced image, it can be accurately predicted by the same description. It has the effect of.

【0024】第2の実施例として入力信号をインタレー
ス信号とし、フレームを単位として動き補償予測を行う
方法を示す。図2は本発明の第2の実施例を説明する図
である。図2においては、参照画像を前フレームの2つ
のフィールドつまり第(M−1),第(M−2)フィー
ルドとし、入力画像を現フレームの2つのフィールドつ
まり第Mフィールド、第(M+1)フィールドとする。
また、図2においてあるブロックの動き補償予測を行う
ための動きベクトルは現フレームの2つのフィールド毎
に別々に入力画像と参照フレーム内で且つ入力画像と同
一位相のフィールドとの間で求められているものとす
る。第Mフィールドの動き補償予測のための動ベクトル
をMV(M)と表し、第(M+1)フィールドのための
動ベクトルをMV(M+1)と表すものとする。又、各
画素位置の画素値の表し方については前記第1の実施例
に従うものとする。又、図2においては説明の都合上検
出された動きのうち垂直方向の動きについてのみ考える
事とする。
As a second embodiment, a method of performing motion compensation prediction in units of frames using an input signal as an interlaced signal will be described. FIG. 2 is a diagram for explaining a second embodiment of the present invention. In FIG. 2, the reference image is two fields of the previous frame, that is, the (M-1) th and (M-2) th fields, and the input image is two fields of the current frame, that is, the Mth field and the (M + 1) th field. And
In FIG. 2, a motion vector for performing motion compensation prediction of a certain block is separately obtained for each of the two fields of the current frame in the input image and the reference frame and between the fields having the same phase as the input image. Shall be A motion vector for motion compensation prediction in the M-th field is represented as MV (M), and a motion vector for the (M + 1) -th field is represented as MV (M + 1). The way of representing the pixel value at each pixel position is in accordance with the first embodiment. In addition, in FIG. 2, for the sake of explanation, only the vertical movement of the detected movement will be considered.

【0025】図2において第Mフィールド内の画素の予
測は第(M−1)フィールドと第(M−2)フィールド
の画像を用いて行われる。このときの動作は前記第1の
実施例と全く同じである。よって例えばMV(M)の垂
直成分が1.5であるとすれば、第1の実施例と同様の
動作により、a(M,1)の予測値は(M−2,2.
5)の位置の画素値となり、この値は以下の式により求
められる。
In FIG. 2, the prediction of the pixels in the M-th field is performed using the images of the (M-1) -th and (M-2) -th fields. The operation at this time is exactly the same as in the first embodiment. Therefore, for example, if the vertical component of MV (M) is 1.5, the predicted value of a (M, 1) becomes (M−2, 2,...) By the same operation as in the first embodiment.
The pixel value at the position 5) is obtained, and this value is obtained by the following equation.

【0026】 a(M−2,1)/7+ 6*a(M−1,2)/7 又、第(M+1)フィールド内の画素の予測値は第Mフ
ィールド内の画素の予測の場合と同様に参照フレームの
2つのフィールド、第(M−1)及び(M−2)フィー
ルドより予測される。この際の考え方は前記第Mフィー
ルド内の画素の予測と同様であるが、この場合は第(M
−2)フィールドを第(M−1)フィールドの位置に補
正を行わなければならない。この時間位置を補正するベ
クトルをMVadj(M+1)とする。MVadj(M
+1)をMV(M+1)より算出するとき、例えば第
(M−2)フィールドと第(M+1)フィールド間の動
きが一定であると仮定すると、以下の関係が容易に導き
出せる。
A (M−2,1) / 7 + 6 * a (M−1,2) / 7 Also, the predicted value of the pixel in the (M + 1) th field is the same as that in the case of the prediction of the pixel in the Mth field. Similarly, it is predicted from two fields of the reference frame, the (M-1) th and (M-2) th fields. The concept at this time is the same as the prediction of the pixel in the M-th field.
-2) The field must be corrected to the position of the (M-1) th field. A vector for correcting the time position is defined as MVadj (M + 1). MVadj (M
When calculating (+1) from MV (M + 1), for example, assuming that the movement between the (M-2) th field and the (M + 1) th field is constant, the following relationship can be easily derived.

【0027】 MVadj(M+1)=MV(M+1)/2 よってMV(M+1)の垂直成分が1であればMVad
j(M+1)の垂直成分は0.5となる。図2に示すよ
うに第(M−2)フィールドを第(M−1)フィールド
の位置に位置補正を行うとa(M−2,3)は(M−
1,2.5)の位置に補正される。以上の動作の後にa
(M+1,2)の予測値である(M−1,3)の位置を
第(M−1)フィールド及び時間位置補正された第(M
−2)フィールドの画素値から求める。この際必要な画
素値を例えば近傍の画素値より距離に反比例した重みつ
き平均で求めるとすれば、(M−1,3)の位置の画素
値つまりa(M+1,2)の動き補償予測値は以下の式
により求められる。
MVadj (M + 1) = MV (M + 1) / 2 Therefore, if the vertical component of MV (M + 1) is 1, MVad
The vertical component of j (M + 1) is 0.5. As shown in FIG. 2, when the position of the (M-2) th field is corrected to the position of the (M-1) th field, a (M-2, 3) becomes (M-
1, 2.5). After the above operation, a
The position of (M−1,3), which is the predicted value of (M + 1,2), is replaced with the (M−1) th field and the (M−1) th time
-2) It is determined from the pixel value of the field. At this time, if the necessary pixel value is determined by, for example, a weighted average inversely proportional to the distance from the neighboring pixel values, the pixel value at the position of (M−1, 3), that is, the motion compensation predicted value of a (M + 1, 2) Is determined by the following equation.

【0028】 a(M−1,4)/3+2*a(M−2,3)/3 以上は垂直成分のみを考慮した時の説明であるが、垂
直、水平の両成分を持つ場合も同様の動作を行うものと
する。
A (M−1,4) / 3 + 2 * a (M−2,3) / 3 The above description is for the case where only the vertical component is taken into account. Operation is performed.

【0029】このように、上記第2の実施例によれば、
入力信号としてインタレース信号とし、参照画像をある
フレームの2つのフィールドとする事によって、フレー
ム画像に対して上記動き補償予測を適応できるため、フ
レームをベースとして行う動き補償予測に対して、精度
よく予測を行う事が出来るという効果を有する。
As described above, according to the second embodiment,
By using an interlaced signal as an input signal and using a reference image as two fields of a certain frame, the above-mentioned motion compensation prediction can be applied to a frame image. This has the effect that prediction can be made.

【0030】上記第2の実施例においても第1の実施例
の場合と同様に参照フレームの枚数、参照フレームの位
置、MV(M)またはMV(M+1)よりMVadj
(M)またはMVadj(M+1)を導き出すときの仮
定、必要な位置の画素値を求めるときの計算方法及び内
挿か外挿かに関しては任意に選ぶ事が出来る。また、本
実施例では動き補償予測のための動ベクトルは入力画像
と参照フレーム内で且つ入力画像と同相のフィールドと
の間で求められているとしたが、これは逆相のフィール
ドとの間で求められていても同様の動作で同様の効果を
得る事が出来る。また、第1の実施例の場合と同様に位
置補正ベクトルを検出動ベクトルとは独立に求める事に
より、更に精度の良い動き補償予測を行う事が出来ると
いう効果を有する。
In the second embodiment, as in the case of the first embodiment, the number of reference frames, the position of the reference frame, MV (M) or MV (M + 1) is used to determine MVadj.
Assumptions for deriving (M) or MVadj (M + 1), a calculation method for obtaining a pixel value at a necessary position, and interpolation or extrapolation can be arbitrarily selected. In this embodiment, the motion vector for motion compensation prediction is determined between the input image and the reference frame and between the field in phase with the input image. , The same effect can be obtained by the same operation. Further, as in the case of the first embodiment, obtaining the position correction vector independently of the detected motion vector has the effect that more accurate motion compensation prediction can be performed.

【0031】第3の実施例としてインタレースの入力信
号に対して、フレームを単位に動き補償を行う他の方法
を示す。図3、4は本発明の第3の実施例を説明する図
である。図3において参照画像は第(N−1)フレーム
すなわち第(M−2),第(M−1)フィールドであ
り、入力画像は第Nフレームすなわち第M,第(M+
1)フィールドである。今、動き補償を行うブロックは
フレームから生成されているものとする。つまり、第N
フレームの画素から生成されるブロック単位に第(N+
1)フレームとの間に動きベクトルMVが求められてい
るとする。このときのブロックの様子を図3に示してい
る。これをフィールドベースの予測方法として考え直す
と以下の様に考える事が出来る。参照画像は第(Nー
1)フレームの2つのフィールドであり、入力画像は第
Nフレームの2つのフィールドである。また、MVの検
出間隔は2フィールド間隔である。但し、前記ブロック
内に含まれる画素については、第Mフィールドの画素で
あっても第(M+1)フィールドの画素であっても同じ
動ベクトルMVとなる。
As a third embodiment, another method for performing motion compensation on an interlaced input signal on a frame basis will be described. FIGS. 3 and 4 are diagrams for explaining a third embodiment of the present invention. In FIG. 3, the reference image is the (N-1) th frame, that is, the (M-2) th and (M-1) th fields, and the input image is the Nth frame, that is, the Mth and (M +) th fields.
1) It is a field. Now, it is assumed that the block for which motion compensation is performed has been generated from a frame. That is, the Nth
(N +
1) It is assumed that a motion vector MV is obtained between the frame and the frame. The state of the block at this time is shown in FIG. If this is reconsidered as a field-based prediction method, it can be considered as follows. The reference image is two fields of the (N-1) th frame, and the input image is two fields of the Nth frame. The MV detection interval is a two-field interval. However, the pixels included in the block have the same motion vector MV regardless of whether the pixel is in the Mth field or the (M + 1) th field.

【0032】つまり、この場合は第2の実施例において
上記のフレームより生成されたブロック内の画素で用い
る動きベクトルは、その画素が第Mフィールドに属する
か第(M+1)フィールドに属するかに関わらずで同一
の値をとる。他の動作は第2の実施例と同様となる。図
4にMVの垂直成分が1の場合の例を示している。以上
は垂直成分のみを考慮した時の説明であるが、垂直、水
平の両成分を持つ場合も同様の動作を行うものとする。
That is, in this case, in the second embodiment, the motion vector used for the pixel in the block generated from the above-mentioned frame is determined regardless of whether the pixel belongs to the Mth field or the (M + 1) th field. Take the same value. Other operations are the same as in the second embodiment. FIG. 4 shows an example in which the vertical component of the MV is 1. The above is an explanation when only the vertical component is considered, but the same operation is performed when both the vertical and horizontal components are included.

【0033】この様に第3の実施例によればフレームか
ら生成されるブロック内のように、予め決められた空間
的領域内に位置する2つの入力フィールドの画素に対し
て同一の動きベクトルを使用するため、各フィールド毎
に動き検出を行う必要がなく、かつ精度の良い動き補償
予測を行う事が出来るという効果を有する。
As described above, according to the third embodiment, the same motion vector is assigned to pixels of two input fields located in a predetermined spatial area, such as in a block generated from a frame. Since it is used, it is not necessary to perform motion detection for each field, and it is possible to perform highly accurate motion compensation prediction.

【0034】上記第3の実施例においても第2の実施例
の場合と同様に参照フレームの枚数、参照フレームの位
置、MVよりMVadjを導き出すときの仮定、必要な
位置の画素値を求めるときの計算方法及び内挿か外挿か
に関しては任意に選ぶ事が出来る。本実施例においては
フレームを単位とする動き補償予測をベースに説明を行
ったが、これは第1の実施例で示したようなフィールド
をベースとしても、またノンインタレース画像をベース
としてもその効果は変わらない。また、複数枚の入力画
像のブロックの内、動ベクトルとして同一の値を使用す
るブロックの決め方として、各ブロックの占める空間的
位置のすべてまたは一部が重なる各入力画像のブロック
としてもその効果は変わらない。また、第2の実施例の
場合と同様に位置補正ベクトルを検出動ベクトルとは独
立に求める事により、更に精度の良い動き補償予測を行
う事が出来るという効果を有する。
In the third embodiment, as in the second embodiment, the number of reference frames, the position of the reference frame, the assumption for deriving MVadj from the MV, and the calculation of the pixel value at the required position are also described. The calculation method and interpolation or extrapolation can be arbitrarily selected. In the present embodiment, the description has been made based on the motion compensation prediction in units of frames. However, this is based on the field as shown in the first embodiment or on the basis of the non-interlaced image. The effect remains the same. In addition, as a method of determining a block using the same value as a motion vector among blocks of a plurality of input images, the effect is also obtained as a block of each input image in which all or some of the spatial positions occupied by each block overlap. does not change. Further, similarly to the case of the second embodiment, obtaining the position correction vector independently of the detected motion vector has an effect that more accurate motion compensation prediction can be performed.

【0035】図5は本発明の第4の実施例を説明した図
である。第4の実施例は第1の実施例と前提は同じであ
り、入力信号をインタレース信号とし、入力画像を第M
フィールド、参照画像を第(M−1)フィールド、第
(M−2)フィールドとする。今、図5において、ある
ブロックの動き補償予測を行う為の動きベクトル(M
V)は2フィールド間隔、つまり第Mフィールドと第
(M−2)フィールドとの間で検出されるものとする。
説明の都合上検出された動きのうち垂直方向の動きにつ
いてのみ考える事とし、各画素位置の画素値の表し方は
図1と同様である。
FIG. 5 is a view for explaining a fourth embodiment of the present invention. The fourth embodiment is the same as the first embodiment, except that the input signal is an interlaced signal and the input image is
The field and the reference image are the (M-1) th field and the (M-2) th field. Now, in FIG. 5, a motion vector (M
V) is detected between two fields, that is, between the Mth field and the (M-2) th field.
For the sake of explanation, only the movement in the vertical direction among the detected movements will be considered, and the way of representing the pixel value at each pixel position is the same as in FIG.

【0036】今、a(M,1)の予測値を求める事を考
える。検出されたMVの垂直成分を3とするとa(M,
1)の動き補償予測値は(M−2,4)の位置の画素値
となる。まず、この画素値を第(M−2)フィールド内
の画素値より求める。例えば近傍の画素値より距離に反
比例した重みつき平均で求めるとすれば、(M−2,
4)の位置の画素値は以下の式により求められる。
Now, consider obtaining a predicted value of a (M, 1). Assuming that the vertical component of the detected MV is 3, a (M,
The motion compensation prediction value of 1) is a pixel value at the position of (M−2, 4). First, this pixel value is obtained from the pixel value in the (M-2) th field. For example, if a weighted average inversely proportional to the distance is obtained from neighboring pixel values, (M−2,
The pixel value at the position 4) is obtained by the following equation.

【0037】 a(M−2,3)/2+a(M−2,5)/2 次に前記MVより入力画像(第Mフィールド)と第(M
−1)フィールドとの動きを算出する。第Mフィールド
と第(M−1)フィールド間の時間差は第Mフィールド
と第(M−2)フィールドの時間差の1/2である。よ
ってこの動きベクトルは MV/2 と考える事が出来る。今、MVの垂直成分は3であるの
でMV/2の垂直成分は1.5となる。よって第(M−
1)フィールドの画像からa(M,1)の動き補償予測
値を求めると(M−1,2.5)の位置の画素値とな
る。この画素値を第(M−1)フィールド内の画素値よ
り求める。例えば近傍の画素値より距離に反比例した重
みつき平均で求めるとすれば、(M−1,2.5)の位
置の画素値は以下の式により求められる。
A (M−2,3) / 2 + a (M−2,5) / 2 Next, the input image (M-th field) and the (M-th)
-1) Calculate the motion with the field. The time difference between the Mth field and the (M-1) th field is 1 / of the time difference between the Mth field and the (M-2) th field. Therefore, this motion vector can be considered as MV / 2. Now, since the vertical component of MV is 3, the vertical component of MV / 2 is 1.5. Therefore, the (M-
1) When the motion compensation prediction value of a (M, 1) is obtained from the image of the field, the pixel value at the position of (M-1, 2.5) is obtained. This pixel value is obtained from the pixel value in the (M-1) th field. For example, if the pixel value at the position of (M-1, 2.5) is obtained by a weighted average inversely proportional to the distance from the neighboring pixel values, the pixel value at the position of (M-1, 2.5) is obtained by the following equation.

【0038】 3*a(M−1,2)/4+a(M−1,4)/4 以上で求めた2つの予測値より例えばその平均をとりa
(M,1)の予測値とする。以上は垂直成分のみを考慮
した時の説明であるが、垂直、水平の両成分を持つ場合
も同様の動作を行うものとする。
3 * a (M−1, 2) / 4 + a (M−1, 4) / 4 For example, an average of the two predicted values obtained above is taken and
The prediction value is (M, 1). The above is an explanation when only the vertical component is considered, but the same operation is performed when both the vertical and horizontal components are included.

【0039】このように、上記第4の実施例によれば、
1つ以上の画素を含むブロック単位に、ある時間間隔で
検出された動きに応じて、サンプリングされた時間の異
なる複数枚の参照画像と入力画像との間の動きを前記検
出された動きより算出し、各参照画像で前記算出された
動き分だけ補償した位置の画素値を算出するために複数
枚の参照画像より複数の動き補償予測値を得る事が出来
る。この複数の予測値より入力画像の予測値を算出する
ために、予測値にノイズを含むような場合でもこのノイ
ズを除去する事ができ、精度の良い動き補償予測を行う
事が出来るという効果を有する。
As described above, according to the fourth embodiment,
The motion between a plurality of reference images sampled at different times and the input image is calculated from the detected motion according to the motion detected at a certain time interval in a block unit including one or more pixels. Then, a plurality of motion compensation prediction values can be obtained from a plurality of reference images in order to calculate a pixel value at a position compensated by the calculated amount of motion in each reference image. In order to calculate the predicted value of the input image from the plurality of predicted values, even if the predicted value includes noise, the noise can be removed, and the effect that the motion compensation prediction with high accuracy can be performed can be performed. Have.

【0040】上記第4の実施例においても第1の実施例
の場合と同様に参照画像の枚数、参照画像の位置、各参
照画像内で必要な位置の画素値を求めるときの各参照画
像内で必要な位置の画素値を求めるのに近傍の画素の距
離に反比例した重み付き平均に限らず任意の係数の低域
通過型フィルタを用いたり外挿というように周辺の画素
に任意の係数を乗じたものの和とすることができる。
れぞれの参照画像内で求めた複数の画素値より予測値を
算出する方法については、単純平均以外にもある重みを
つけて算出する方法や低域通過型フィルタの係数を用い
て算出する方法などが考えられる。本実施例においては
インタレース信号のフィールドを単位とする動き補償を
ベースに説明を行ったが、これは第2、第3の実施例で
示したようにフレームをベースとしても、またノンイン
ターレース画像をベースとしてもその効果は変わらな
い。
In the fourth embodiment, as in the first embodiment, the number of reference images, the position of the reference image, and each reference image for obtaining a pixel value at a necessary position in each reference image are obtained .
The distance between neighboring pixels to determine the pixel value at the required position in the image
Low range of any coefficient, not limited to weighted average inversely proportional to separation
Surrounding pixels such as using a pass filter or extrapolation
Is multiplied by an arbitrary coefficient. For the method of calculating a predicted value from a plurality of pixel values obtained in each reference image, a method of calculating with a certain weight other than the simple average, a method of calculating using a coefficient of a low-pass filter, and the like. Can be considered. In the present embodiment, the description has been made based on the motion compensation based on the unit of the field of the interlaced signal. However, this is based on the frame as shown in the second and third embodiments, and also on the non-interlaced image. Even if it is based, the effect does not change.

【0041】[0041]

【発明の効果】本発明は、上記実施例より明らかなよう
に、1つ以上の画素を含むブロック単位にある時間間隔
で検出された動き応じて、サンプリングされた時間の異
なる複数枚の参照画像が入力画像から前記時間間隔だけ
離れた時間での画像となるように必要に応じある動きベ
クトルを用いて参照画像の時間位置の補正を行うため
に、入力画像から前記時間間隔だけ離れた位置の複数枚
の画像を得る事ができる。この複数枚の画像を合わせる
事で画素密度の高い参照画素を得、この画素密度の高い
参照画像を用いて前記検出された動き分だけ補償した位
置の画素値を画像の性質によって異なった算出方法で算
出することが可能であり、これを予測値とする為に、ノ
イズが頂上された画像でもそのノイズを軽減させ高画質
な予測画素を得るとともに、非常に精度のよい動き補償
予測を行う事が出来るという効果を有する。
According to the present invention, as is apparent from the above embodiment, a plurality of reference images sampled at different times according to the motion detected at a time interval in a block unit including one or more pixels. In order to correct the time position of the reference image using a certain motion vector as needed so that the image is an image at a time separated by the time interval from the input image, the position of the position separated by the time interval from the input image is corrected. Multiple images can be obtained. By combining the plurality of images, a reference pixel having a high pixel density is obtained .
A position compensated by the detected motion using a reference image.
Pixel value using different calculation methods depending on the nature of the image.
It is possible to output
Reduces noise even in images with noise
It is possible to obtain an accurate prediction pixel and perform highly accurate motion compensation prediction.

【0042】更に、本発明によれば上記の参照画像の時
間位置の補正を行うベクトルを、ある時間間隔で検出さ
れた動きより算出するする事ができ、該時間補正用の動
きベクトルを再度検出する必要がなく、かつ精度の良い
動き補償を行う事が出来るという効果を有する。 ま
た、入力信号としてインタレース信号とし、参照画像を
あるフレームの2つのフィールドとする事によって、フ
レーム画像に対して上記動き補償予測を適応できるた
め、フレームをベースとして行う動き補償予測に対し
て、精度よく予測を行う事ができという効果を有する。
Further, according to the present invention, a vector for correcting the time position of the reference image can be calculated from the motion detected at a certain time interval, and the motion vector for time correction is detected again. It is possible to perform motion compensation with high accuracy without having to perform the motion compensation. In addition, since the above-described motion compensation prediction can be applied to a frame image by using an interlaced signal as an input signal and a reference image as two fields of a certain frame, the motion compensation prediction performed on a frame basis can be performed. This has the effect that prediction can be performed with high accuracy.

【0043】更に、1つ以上の画素を含むブロック単位
にある時間間隔で検出された動きとして、複数枚の入力
画像のブロックの内、各ブロックの占める空間的位置の
すべて又は一部が重なる各入力画像のブロックに対して
同一の値を使う為、複数の入力画像のいくつかのブロッ
クに対して動き検出を複数回行う必要がなく、かつ精度
の良い動き補償予測を行う事が出来るという効果を有す
る。
Further, as a motion detected at a certain time interval in a block unit including one or more pixels, among the blocks of a plurality of input images, all or a part of the spatial position occupied by each block overlaps. Since the same value is used for the blocks of the input image, there is no need to perform motion detection for several blocks of a plurality of input images more than once, and accurate motion compensation prediction can be performed. Having.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の説明図FIG. 1 is an explanatory diagram of a first embodiment of the present invention.

【図2】本発明の第2の実施例の説明図FIG. 2 is an explanatory diagram of a second embodiment of the present invention.

【図3】フレームをベースとする動き補償予測における
ブロックの説明図
FIG. 3 is an explanatory diagram of blocks in frame-based motion compensation prediction.

【図4】本発明の第3の実施例の説明図FIG. 4 is an explanatory view of a third embodiment of the present invention.

【図5】本発明の第4の実施例の説明図FIG. 5 is an explanatory diagram of a fourth embodiment of the present invention.

【図6】従来の動き補償予測方法の概念図FIG. 6 is a conceptual diagram of a conventional motion compensation prediction method.

【図7】従来のフレーム間動き補償予測方法の問題点の
説明図
FIG. 7 is an explanatory diagram of a problem of a conventional inter-frame motion compensation prediction method.

【図8】従来のフィールド間動き補償予測方法の説明図FIG. 8 is an explanatory diagram of a conventional inter-field motion compensation prediction method.

フロントページの続き (56)参考文献 電子情報通信学会春季全国大会、D− 305「インターレース画像における動き 補償方式」(1992.3) 電子情報通信学会春季全国大会、D− 354「蓄積系メディア用符号化に適した フレーム間/フィールド間動き補償の検 討」(1991.3)Continuation of the front page (56) References IEICE Spring National Convention, D-305 “Motion Compensation Method for Interlaced Images” (1992.3) IEICE Spring National Convention, D-354 “Code for Storage Media” Study on Inter-frame / Inter-field Motion Compensation Suitable for Quantization "(1991.3)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 2つの参照フィールドに基づいて対象フ
ィールドについての動き補償を行う動き補償予測方法で
あって、 第1の参照フィールドと対象フィールドとの間の第1の
動きベクトルを検出し、 対象フィールド内の各画素ごとに、前記第1の動きベク
トルにより定まる前記第1の参照フィールド内の点の近
傍の複数の画素値と任意の係数との積和により第1の動
き補償予測値を求め、 対象フィールド内の各画素ごとに、前記第1の動きベク
トルに所定の比を乗じて生成した第2の参照フィールド
と対象フィールドとの間の第2の動きベクトルにより定
まる前記第2の参照フィールド内の点の近傍の複数の画
素値と任意の係数との積和により第2の動き補償予測値
を求め、 前記第1および第2の動き補償予測値任意の係数との
積和により前記対象フィールドについての動き補償予測
値を求めることを特徴とする動き補償予測方法。
1. A motion compensation prediction method for performing motion compensation on a target field based on two reference fields, comprising: detecting a first motion vector between the first reference field and the target field; For each pixel in the field , the neighborhood of a point in the first reference field determined by the first motion vector
Calculated Me a first motion compensated prediction value by product-sum of a plurality of pixel values and any factor beside, for each pixel in the target field, generated by multiplying a predetermined ratio to said first motion vector A plurality of images near a point in the second reference field defined by a second motion vector between the second reference field and the target field.
A second motion-compensated predicted value based on the product sum of the prime value and an arbitrary coefficient
The calculated Me, motion compensated prediction wherein the product sum of the first and second motion compensated prediction values and arbitrary coefficient to obtain the motion compensation prediction value for the target field.
【請求項2】 第2の動きベクトルを生成するために第
1の動きベクトルに乗ずる所定の比が、対象フィールド
および第1の参照フィールドの時間間隔と、前記対象フ
ィールドおよび第2の参照フィールドの時間間隔との比
により定められることを特徴とする請求項1記載の動き
補償予測方法。
2. A method according to claim 1, wherein the predetermined ratio by which the first motion vector is multiplied to generate the second motion vector is a time interval between the target field and the first reference field, and a time interval between the target field and the second reference field. 2. The motion compensation prediction method according to claim 1, wherein the method is determined by a ratio to a time interval.
JP18198092A 1991-11-08 1992-07-09 Motion compensation prediction method Expired - Lifetime JP2938677B2 (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
JP18198092A JP2938677B2 (en) 1992-07-09 1992-07-09 Motion compensation prediction method
US07/970,046 US5369449A (en) 1991-11-08 1992-11-02 Method for predicting move compensation
AU28162/92A AU637289C (en) 1991-11-08 1992-11-04 Method for predicting move compensation
CA002082280A CA2082280C (en) 1991-11-08 1992-11-05 Method for predicting move compensation
DE69225863T DE69225863T2 (en) 1991-11-08 1992-11-06 Predictive coding with motion compensation
EP92310187A EP0541389B1 (en) 1991-11-08 1992-11-06 Method for predicting move compensation
KR1019920020769A KR950006774B1 (en) 1991-11-08 1992-11-06 Motion compensation predictive method
US08/278,010 US5745182A (en) 1991-11-08 1994-07-20 Method for determining motion compensation
US08/883,315 US5978032A (en) 1991-11-08 1997-06-26 Method for predicting motion compensation
US09/559,627 USRE39276E1 (en) 1991-11-08 2000-04-27 Method for determining motion compensation
US09/833,770 USRE39279E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/833,769 USRE39278E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/833,680 USRE39277E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/866,811 USRE39280E1 (en) 1991-11-08 2001-05-30 Method for determining motion compensation
US10/895,283 USRE39281E1 (en) 1991-11-08 2004-07-21 Method for determining motion compensation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18198092A JP2938677B2 (en) 1992-07-09 1992-07-09 Motion compensation prediction method

Publications (2)

Publication Number Publication Date
JPH0630395A JPH0630395A (en) 1994-02-04
JP2938677B2 true JP2938677B2 (en) 1999-08-23

Family

ID=16110223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18198092A Expired - Lifetime JP2938677B2 (en) 1991-11-08 1992-07-09 Motion compensation prediction method

Country Status (1)

Country Link
JP (1) JP2938677B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4235209B2 (en) * 2006-02-10 2009-03-11 Nttエレクトロニクス株式会社 Motion vector detection apparatus and motion vector detection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2755851B2 (en) * 1991-05-31 1998-05-25 株式会社東芝 Moving picture coding apparatus and moving picture coding method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会春季全国大会、D−305「インターレース画像における動き補償方式」(1992.3)
電子情報通信学会春季全国大会、D−354「蓄積系メディア用符号化に適したフレーム間/フィールド間動き補償の検討」(1991.3)

Also Published As

Publication number Publication date
JPH0630395A (en) 1994-02-04

Similar Documents

Publication Publication Date Title
US5369449A (en) Method for predicting move compensation
US5784115A (en) System and method for motion compensated de-interlacing of video frames
EP0549681B2 (en) Video image processing
De Haan et al. True-motion estimation with 3-D recursive search block matching
US5943099A (en) Interlaced-to-progressive conversion apparatus and method using motion and spatial correlation
JP4083265B2 (en) Method and apparatus for converting image signal system
JP2832927B2 (en) Scanning line interpolation apparatus and motion vector detection apparatus for scanning line interpolation
EP1164792A2 (en) Format converter using bidirectional motion vector and method thereof
US5444493A (en) Method and apparatus for providing intra-field interpolation of video signals with adaptive weighting based on gradients of temporally adjacent fields
US5386248A (en) Method and apparatus for reducing motion estimator hardware and data transmission capacity requirements in video systems
USRE39279E1 (en) Method for determining motion compensation
JP4244685B2 (en) Moving picture time axis interpolation method and moving picture time axis interpolation apparatus
JP2938677B2 (en) Motion compensation prediction method
JP3469626B2 (en) Motion compensated video signal processing apparatus and video signal processing method
JP3480015B2 (en) Apparatus and method for generating image data
EP0600291B1 (en) Method and apparatus for adaptive proscan conversion
JP3314963B2 (en) Scan conversion device for image signal
JP3314961B2 (en) Interlace interference removal device
Lee et al. Motion detection and motion adaptive pro-scan conversion
JP2770300B2 (en) Image signal processing
USRE39276E1 (en) Method for determining motion compensation
JP3242164B2 (en) Scanning line number converter for image signals
JPH08307834A (en) Image information converter and its method
EP0474272A1 (en) Method and apparatus for reducing motion estimator hardware and data transmission capacity requirements in video systems
JPH07193790A (en) Picture information converter

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 14