JPH04323780A - Motion vector detecting device - Google Patents

Motion vector detecting device

Info

Publication number
JPH04323780A
JPH04323780A JP3094172A JP9417291A JPH04323780A JP H04323780 A JPH04323780 A JP H04323780A JP 3094172 A JP3094172 A JP 3094172A JP 9417291 A JP9417291 A JP 9417291A JP H04323780 A JPH04323780 A JP H04323780A
Authority
JP
Japan
Prior art keywords
pixel block
motion vector
vector
frame memory
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3094172A
Other languages
Japanese (ja)
Other versions
JP3020299B2 (en
Inventor
Yukio Go
呉 志雄
Yoichi Yamada
陽一 山田
Koshi Sakurada
桜田 孔司
Yoko Harada
洋子 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP9417291A priority Critical patent/JP3020299B2/en
Publication of JPH04323780A publication Critical patent/JPH04323780A/en
Application granted granted Critical
Publication of JP3020299B2 publication Critical patent/JP3020299B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To improve the detecting accuracy and especially the motion vector detecting accuracy at the contour part of an object with an image motion vector detecting device. CONSTITUTION:An address generating part 22 generates a picture image address 52 in a picture element block of a prescribed size to a present frame memory 20 and also a picture element address 35 in a picture element block to a precedent frame memory 21 based on a predication vector 33 and a retrieving range 34 and then outputs the image data 57 and 38. A motion vector deciding part 23 decides a motion vector with the pattern matching. A prediction vector generating part 25 decides a reference picture element block in an adjacent picture element block based on the contour information 42 detected by a contour detecting part 27 and outputs the prediction vector 55, the number of reference picture element blocks, and a motion vector 44 based on a motion vector 43 of the corresponding reference picture element block. A retrieving range deciding part 26 decides a retrieving range of the motion vector based on the information received from the part 25.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】この発明は、各種画像処理装置、
画像圧縮符号化装置に用いられる画像内の物体の動きを
検出する動きベクトル検出装置に関するものである。
[Industrial Application Field] This invention relates to various image processing devices,
The present invention relates to a motion vector detection device for detecting the movement of an object within an image, which is used in an image compression encoding device.

【0002】0002

【従来の技術】従来、画像内の移動物体の動きベクトル
を検出する方法として「画像のディジタル信号処理」(
吹抜  敬彦  著  日刊工業新聞社発行  pp.
221〜227)に記載されている各種の方法がある。 以下、従来例として上記文献に記載されている「連続す
る画像の差を最小にする偏位を求める方法」を説明する
[Prior Art] Conventionally, "image digital signal processing" (
Written by Takahiko Fukinuki, published by Nikkan Kogyo Shimbun, pp.
There are various methods described in 221-227). Hereinafter, as a conventional example, the "method for finding a deviation that minimizes the difference between successive images" described in the above-mentioned document will be explained.

【0003】この方法は、基本的には、2枚の画像(2
フレームとも言う)を少しづつずらしながら、差が最小
になるところを探してそのずれの量を動きとし、その動
きをベクトルを用いて表す方法である。即ち、iを現フ
レーム画像のフレーム番号として、現フレーム画像のあ
る所定の大きさの画素ブロック内のデータgi (x,
y)(但し、(x,y)∈[Bx ,By ]であって
、Bx はxの取り得る範囲を示し、By はyの取り
得る範囲を示す。例えば、Bx =[−16,16],
By =[−16,16]とすると、本明細書では(x
,y)∈[Bx ,By ]とは、点(x,y)が−1
6≦x≦16,−16≦y≦16の範囲に存在すること
を意味する)に対して、前フレーム画像のデータgi−
1 (x,y)を所定の範囲[Wx ,Wy ](以下
、検索範囲[Wx ,Wy ]と称する)内でX軸方向
にξ、Y軸方向にη((ξ,η)∈[Wx ,Wy ]
)だけずらし、下記(1)式、あるいは(2)式の誤差
量E(ξ,η)の演算を行う。そして、(3)式を満足
する(ξ0 ,η0 )、即ち(1)式あるいは(2)
式の誤差量E(ξ,η)が最小となる点を検出しこの時
の移動量(ξ0 ,η0 )を着目する画素ブロック(
[Bx ,By ])の動きベクトルとする。
[0003] This method basically consists of two images (2
This method searches for the point where the difference is the smallest by shifting the frames (also called frames) little by little, and uses the amount of shift as the movement, and expresses the movement using a vector. That is, where i is the frame number of the current frame image, data gi (x,
y) (where (x, y)∈[Bx, By], Bx indicates the possible range of x, and By indicates the possible range of y. For example, Bx = [-16, 16] ,
By = [-16, 16], in this specification (x
, y)∈[Bx , By ] means that the point (x, y) is −1
6≦x≦16, -16≦y≦16), the previous frame image data gi-
1 (x, y) within a predetermined range [Wx , Wy ] (hereinafter referred to as the search range [Wx , Wy ]), ξ in the X-axis direction and η ((ξ, η)∈[Wx ,Wy ]
), and calculate the error amount E(ξ, η) in equation (1) or equation (2) below. Then, (ξ0 , η0 ) satisfies equation (3), that is, equation (1) or (2)
A pixel block (
[Bx, By]) is the motion vector.

【0004】0004

【数1】[Math 1]

【0005】図2は、かかる方法を適用した従来の動き
ベクトル検出装置の構成を示すものである。
FIG. 2 shows the configuration of a conventional motion vector detection device to which such a method is applied.

【0006】図2において、現フレームメモリ1は、入
力画像信号(現フレーム画像信号)5を格納し、前フレ
ームメモリ2は現フレームメモリ1から出力される1フ
レーム前の画像信号(前フレーム画像信号)13、ある
いは外部から入力される画像信号14を格納する。アド
レス発生部3は、現フレームメモリ1に対して2次元ア
ドレス(x,y)11を発生し、画像データgi (x
,y)6を出力させる。また、前フレームメモリ2に対
して、あらかじめ決められた範囲(ベクトル検索範囲)
の中で、前記2次元アドレス(x,y)からx方向にξ
、y方向にηだけずれたアドレス(x−ξ,y−η)1
0を発生し、画像データgi−1 (x−ξ,y−η)
7を出力させる。また、このアドレスのずれ(ξ,η)
12を動きベクトル判別部4に出力する。動きベクトル
判別部4は、現フレームメモリ1から出力された画像デ
ータgi (x,y)6と前フレームメモリ2から出力
された画像データgi−1 (x−ξ,y−η)7に対
して、あらかじめ決められた範囲(画素ブロック)の中
で、(1)式あるいは(2)式の演算を行い、動きベク
トルを判別するための誤差量E(ξ,η)を算出する。
In FIG. 2, a current frame memory 1 stores an input image signal (current frame image signal) 5, and a previous frame memory 2 stores an image signal of the previous frame outputted from the current frame memory 1 (previous frame image signal). signal) 13 or an image signal 14 input from the outside. The address generation unit 3 generates a two-dimensional address (x, y) 11 for the current frame memory 1, and generates image data gi (x
,y)6 is output. In addition, a predetermined range (vector search range) is set for the previous frame memory 2.
ξ in the x direction from the two-dimensional address (x, y)
, address (x-ξ, y-η)1 shifted by η in the y direction
0 and image data gi-1 (x-ξ, y-η)
Output 7. Also, this address shift (ξ, η)
12 is output to the motion vector discriminator 4. The motion vector determination unit 4 determines the image data gi (x, y) 6 output from the current frame memory 1 and the image data gi-1 (x-ξ, y-η) 7 output from the previous frame memory 2. Then, within a predetermined range (pixel block), equation (1) or equation (2) is calculated to calculate the error amount E(ξ, η) for determining the motion vector.

【0007】以上の演算処理をξ,ηを変えながら、ベ
クトル検索範囲内の全てのベクトル候補に対して行い、
(3)式を満足するベクトルを算出する。このベクトル
(ξ0 ,η0 )を当該画素ブロックの動きベクトル
とし、次の(4)式で示す画像の予測誤差信号gsi(
x,y)8、及び動きベクトル(ξ0 ,η0 )9を
出力する。なお、上記の方法は、平均最小誤差によるパ
ターンマッチングあるいは、平均最小二乗誤差によるパ
ターンマッチングと呼ばれている。
The above calculation process is performed on all vector candidates within the vector search range while changing ξ and η,
A vector that satisfies equation (3) is calculated. This vector (ξ0, η0) is the motion vector of the pixel block, and the image prediction error signal gsi(
x, y) 8 and a motion vector (ξ0, η0) 9. Note that the above method is called pattern matching using the average minimum error or pattern matching using the average least squares error.

【0008】   gsi(x,y)=gi (x,y)−gi−1 
(x−ξ0 ,y−η0 )  (4)
gsi(x,y)=gi(x,y)−gi−1
(x-ξ0,y-η0) (4)

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上記構
成の装置では、図4(a)にも示すように、検索範囲内
の全ての取り得る画素ブロックに対して(3)式の評価
を行わなければ着目画素ブロックの動きベクトルの検出
が出来ないので、演算量が膨大となり、動きベクトルの
検出効率が極めて悪いという問題点がある。この問題点
を回避するためには、従来の方式では検索範囲を狭める
しかないが、一方検索範囲を狭めると、物体の動きが検
索範囲を越える可能性が大きくなり、動きベクトルの検
出精度が低下してしまう。
[Problems to be Solved by the Invention] However, in the device having the above configuration, as shown in FIG. 4(a), equation (3) must be evaluated for all possible pixel blocks within the search range. In this case, the motion vector of the pixel block of interest cannot be detected, resulting in an enormous amount of calculation and a problem that the motion vector detection efficiency is extremely low. In order to avoid this problem, conventional methods have no choice but to narrow the search range, but on the other hand, narrowing the search range increases the possibility that the movement of the object will exceed the search range, reducing the accuracy of motion vector detection. Resulting in.

【0010】また、従来の方式では、各画素ブロックに
対して独立にパターンマッチングによる動きベクトルを
検出しているので、偶発的に似たようなパターン(画素
ブロック)が生じた場合に、動きベクトルを誤って検出
する可能性がある。特にカラー画像の場合に、一般に輝
度成分に対してのみ動きベクトル検出が行われるので、
このような動きベクトル検出の誤りによる悪影響が大き
い。また、物体の輪郭部では、前記誤検出が多く発生す
る。
[0010] Furthermore, in the conventional method, a motion vector is detected independently for each pixel block by pattern matching, so if a similar pattern (pixel block) occurs by chance, the motion vector may be detected incorrectly. Especially in the case of color images, motion vector detection is generally performed only on the luminance component, so
Such errors in motion vector detection have a large negative impact. Moreover, the above-mentioned false detection often occurs in the contour portion of the object.

【0011】この発明は、上述の演算量と動きベクトル
精度のトレードオフ問題を解決し、動きベクトル検出の
誤り低減、特に、物体の輪郭部における動きベクトル検
出精度の向上に優れた動きベクトル検出装置を提供する
ことを目的とする。
The present invention solves the trade-off problem between the amount of calculation and motion vector accuracy described above, and provides a motion vector detection device that is excellent in reducing errors in motion vector detection, and in particular improving motion vector detection accuracy in the contour portion of an object. The purpose is to provide

【0012】0012

【課題を解決するための手段】そのために、第1の発明
である動きベクトル検出装置は下記の手段を備えている
Means for Solving the Problems To this end, a motion vector detection device according to the first invention includes the following means.

【0013】(a)現在の1フレーム分の画像データを
記憶する現フレームメモリ。
(a) Current frame memory that stores image data for one current frame.

【0014】(b)過去の1フレーム分の画像データを
記憶する前フレームメモリ。
(b) A previous frame memory that stores image data for one past frame.

【0015】(c)前記現フレームメモリに対して所定
の大きさの画素ブロック内の画素アドレスを順次発生し
、前記前フレームメモリに対して検索範囲決定手段によ
って決定された検索範囲内で、予測ベクトル発生手段か
ら得られる予測ベクトルに基づき前記所定の大きさの画
素ブロックをずらしながら当該画素ブロック内の画素ア
ドレスを順次発生するアドレス発生手段。
(c) Sequentially generating pixel addresses within a pixel block of a predetermined size for the current frame memory, and predicting within the search range determined by the search range determining means for the previous frame memory; Address generation means for sequentially generating pixel addresses within the pixel block while shifting the pixel block of the predetermined size based on the predicted vector obtained from the vector generation means.

【0016】(d)現フレームメモリ内の画素ブロック
に輪郭が存在するか否かを検出し、輪郭の有無と輪郭線
の方向とを輪郭情報として出力する輪郭検出手段。
(d) Contour detection means for detecting whether a contour exists in a pixel block in the current frame memory and outputting the presence or absence of a contour and the direction of the contour as contour information.

【0017】(e)各画素ブロックの前記輪郭情報を格
納する輪郭情報格納メモリ。
(e) A contour information storage memory for storing the contour information of each pixel block.

【0018】(f)現フレームメモリより出力される現
画素ブロックの画像データと前フレームメモリより出力
される比較画素ブロックの画像データとのパターンマッ
チングにより前記現画素ブロックの動きベクトルとして
最適なベクトルを判別する動きベクトル判別手段。
(f) Find the optimum motion vector for the current pixel block by pattern matching between the image data of the current pixel block output from the current frame memory and the image data of the comparison pixel block output from the previous frame memory. A motion vector discrimination means for discrimination.

【0019】(g)現フレームメモリ内の各画素ブロッ
クについて前記動きベクトルを格納する動きベクトル格
納メモリ。
(g) A motion vector storage memory for storing the motion vector for each pixel block in the current frame memory.

【0020】(h)着目画素ブロックの輪郭情報と周辺
の画素ブロックの輪郭情報とを比較して着目画素ブロッ
ク周辺の参照画素ブロックを選出し、該参照画素ブロッ
クの動きベクトルに基づいて予測ベクトルを発生させる
予測ベクトル発生手段。
(h) Select a reference pixel block around the pixel block of interest by comparing the contour information of the pixel block of interest with the contour information of surrounding pixel blocks, and calculate a predicted vector based on the motion vector of the reference pixel block. Prediction vector generation means to be generated.

【0021】(i)前記予測ベクトルと前記参照画素ブ
ロックの動きベクトルとのばらつきの度合い及び前記参
照画素ブロックの数に基づいて動きベクトルの検索範囲
を決定する検索範囲決定手段。
(i) Search range determining means for determining a motion vector search range based on the degree of dispersion between the predicted vector and the motion vector of the reference pixel block and the number of reference pixel blocks.

【0022】第2の発明では前記第1の発明における予
測ベクトル発生手段において、着目画素ブロックにおけ
る輪郭の有無に基づいて該着目画素ブロックに隣接する
隣接画素ブロックから輪郭有りの画素ブロックあるいは
輪郭無しの画素ブロックを選出し、該選出された画素ブ
ロックの動きベクトルから抽出した特徴ベクトルを着目
画素ブロックの予測ベクトルとし、隣接画素ブロックに
該当する画素ブロックが存在しない場合には予測を中止
することを特徴としている。
[0022] In the second invention, in the predicted vector generating means in the first invention, based on the presence or absence of an outline in the pixel block of interest, pixel blocks with an outline or pixel blocks without an outline are selected from adjacent pixel blocks adjacent to the pixel block of interest. The feature is that a pixel block is selected, a feature vector extracted from the motion vector of the selected pixel block is used as a predicted vector of the pixel block of interest, and prediction is stopped if there is no corresponding pixel block among adjacent pixel blocks. It is said that

【0023】第3の発明では前記第2の発明における予
測ベクトル発生手段において、着目画素ブロックに輪郭
が存在する場合には、該着目画素ブロックに隣接する隣
接画素ブロックから、輪郭が存在し、かつ輪郭方向の一
致度が高い画素ブロックを選出することを特徴としてい
る。
[0023] In the third invention, in the predicted vector generating means according to the second invention, when a contour exists in the pixel block of interest, a contour exists from an adjacent pixel block adjacent to the pixel block of interest, and It is characterized by selecting pixel blocks with a high degree of coincidence in the contour direction.

【0024】[0024]

【作用】本発明は、以下に述べる点に着目して、動きベ
クトルを検出するための演算量を少なくすると同時に、
検出精度、特に、移動物体の輪郭部における動きベクト
ルの検出精度を向上させようとするものである。
[Operation] The present invention focuses on the points described below, and at the same time reduces the amount of calculation for detecting a motion vector.
This is intended to improve the detection accuracy, particularly the detection accuracy of motion vectors at the contour of a moving object.

【0025】即ち、画像内の移動物体は、一般的にある
程度の大きさを持ち、その画像を小画素ブロックに分割
した場合に(例えば、8×8画素、16×16画素)、
移動物体は副数個の画素ブロックにまたがると考えられ
る。また、移動物体内部の各画素ブロックは、ほぼ同一
の動きをし、移動物体の内部と外部では異なった動きを
すると考えられる。この性質を利用して、先ず着目画素
ブロックとそれに隣接する隣接画素ブロックの輪郭情報
を求め、その輪郭情報から着目画素ブロックと同一の動
きをする隣接画素ブロックを選出する。この選出された
隣接画素ブロックの動きベクトルから前記着目画素ブロ
ックの動きが一定の精度で予測できる。従って図4(b
)にも示すように、予測ベクトルの分だけ移動した画素
ブロック周辺の従来より狭い範囲内で検索しても、動き
ベクトルの検索精度は低下せず、しかも演算量は従来よ
り少なく出来る。
That is, a moving object in an image generally has a certain size, and when the image is divided into small pixel blocks (for example, 8 x 8 pixels, 16 x 16 pixels),
A moving object is considered to span several sub-pixel blocks. Furthermore, it is considered that each pixel block inside the moving object moves approximately in the same way, and that the inside and outside of the moving object move differently. Utilizing this property, first the contour information of the pixel block of interest and the adjacent pixel blocks adjacent thereto is obtained, and from the contour information, an adjacent pixel block that moves in the same way as the pixel block of interest is selected. The motion of the pixel block of interest can be predicted with a certain degree of accuracy from the motion vector of the selected adjacent pixel block. Therefore, Fig. 4(b)
), even if a search is performed within a narrower range than the conventional method around a pixel block that has been moved by the amount of the predicted vector, the accuracy of the motion vector search does not decrease, and the amount of calculation can be reduced compared to the conventional method.

【0026】また、従来の方法では、検索範囲内でしか
動きベクトルを検出できないが、本発明では、検索範囲
が動きベクトルの大きさを制限していないので、実質上
、広範囲に渡って動きベクトルを検出でき、検出精度が
向上する。
Furthermore, in the conventional method, motion vectors can only be detected within the search range, but in the present invention, since the search range does not limit the size of the motion vector, motion vectors can be detected over a wide range in practice. can be detected, improving detection accuracy.

【0027】[0027]

【実施例】以下、本発明の一実施例を図面を参照して説
明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0028】[動きベクトル検出装置の全体構成]先ず
、実施例の動きベクトル検出装置の全体構成について説
明する。
[Overall Configuration of Motion Vector Detection Apparatus] First, the overall configuration of the motion vector detection apparatus according to the embodiment will be described.

【0029】図1は、本発明の実施例の構成を示すブロ
ック図であり、20は現フレームメモリ、21は前フレ
ームメモリ、22はアドレス発生部、23は動きベクト
ル判別部、24は動きベクトル格納メモリ、25は予測
ベクトル発生部、26は検索範囲決定部、27は輪郭検
出部、28は輪郭情報格納メモリである。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention, in which 20 is a current frame memory, 21 is a previous frame memory, 22 is an address generation section, 23 is a motion vector determination section, and 24 is a motion vector A storage memory, 25 is a predicted vector generation section, 26 is a search range determination section, 27 is a contour detection section, and 28 is a contour information storage memory.

【0030】現フレームメモリ20は入力画像信号29
を格納するメモリであり、前フレームメモリ21は、現
フレームメモリ20から与えられる過去の1フレーム分
の画像信号30あるいは、外部から与えられる過去の1
フレーム分の画像信号31を格納するメモリである。
The current frame memory 20 receives the input image signal 29
The previous frame memory 21 is a memory that stores image signals 30 for one past frame given from the current frame memory 20 or one past frame given from the outside.
This is a memory that stores image signals 31 for frames.

【0031】アドレス発生部22は、現フレームメモリ
20に対して所定の画素ブロックスキャン法(図3参照
)により、ブロック内の画素のアドレス(x,y)32
を順次発生し、また前フレームメモリ21に対しては、
後述の予測ベクトル発生部25から出力される予測ベク
トル(x0 ,y0 )33及び後述の検索範囲決定部
26から出力される検索範囲[Wx ,Wy ]34に
基づいて前記現フレームの画素ブロック位置から予測ベ
クトル分移動し、さらに、検索範囲内で(ξ,η)分移
動した画素ブロック内の画素のアドレス(x−x0 +
ξ,y−y0 +η)35を順次発生する。また、この
アドレスのずれ(x0 −ξ,y0 −η)36を最適
ベクトル判別部23に出力する。
The address generator 22 generates an address (x, y) 32 of a pixel within the block by using a predetermined pixel block scanning method (see FIG. 3) for the current frame memory 20.
are generated sequentially, and for the previous frame memory 21,
From the pixel block position of the current frame based on a prediction vector (x0, y0) 33 output from a prediction vector generation unit 25 (described later) and a search range [Wx, Wy] 34 output from a search range determination unit 26 (described later). The address (x−x0 +
ξ, y−y0 +η) 35 are generated sequentially. Further, this address shift (x0 - ξ, y0 - η) 36 is output to the optimum vector determining unit 23.

【0032】以上の動作を1周期として、検索範囲内の
全ての移動可能なベクトル(ξ,η)((ξ,η)∈[
Wx ,Wy ])に対して順次アドレスを発生する。
[0032] Taking the above operation as one cycle, all movable vectors (ξ, η) within the search range ((ξ, η)∈[
Wx , Wy ]).

【0033】輪郭検出部27は現フレームメモリ20か
ら出力される画像データ37を参照して、後述の[輪郭
検出法]により現フレーム内の現画素ブロックの輪郭情
報を検出する。
The contour detecting section 27 refers to the image data 37 output from the current frame memory 20 and detects contour information of the current pixel block within the current frame using the [contour detection method] described later.

【0034】輪郭情報格納メモリ28は、輪郭検出部2
7の出力する各画素ブロックの輪郭情報39を格納する
The contour information storage memory 28 includes the contour detection section 2
Contour information 39 of each pixel block outputted by No. 7 is stored.

【0035】動きベクトル判別部23は、現フレームメ
モリ20から出力される画素ブロックのデータgi (
x,y)37及び前フレームメモリ21から出力される
画素ブロックのデータgi−1 (x−x0 +ξ,y
−y0 +η)38に対して、前述の(1)式あるいは
(2)式の演算を行い、誤差量E(x0 −ξ,y0 
−η)を算出する。さらに検索範囲内の全てのベクトル
(ξ,η)に対して上記誤差量を算出し、(3)式を満
足するベクトル(x0 −ξ0 ,y0 −η0 )を
検出する。このベクトル(x0 −ξ0 ,y0 −η
0 )を動きベクトル41として出力し、同時に、現フ
レームにおける現画素ブロックの動き補償付き予測誤差
信号として、現画素ブロックデータgi (x,y)3
7と前画素ブロックのデータgi−1 (x−x0 +
ξ0 ,y−y0 +η0 )38との差分信号gsi
(x,y)40を前記(4)式と同様に演算して出力す
る。
The motion vector discriminator 23 uses data gi (
x, y) 37 and pixel block data gi-1 (x-x0 +ξ, y
-y0 +η) 38, the above-mentioned equation (1) or (2) is calculated, and the error amount E(x0 -ξ,y0
−η). Furthermore, the above error amount is calculated for all vectors (ξ, η) within the search range, and a vector (x0 - ξ0 , y0 - η0 ) that satisfies equation (3) is detected. This vector (x0 −ξ0 ,y0 −η
0 ) as a motion vector 41, and at the same time, the current pixel block data gi (x, y)3 is output as a motion compensated prediction error signal of the current pixel block in the current frame.
7 and the data of the previous pixel block gi-1 (x-x0 +
ξ0 ,y−y0 +η0 )38 and the difference signal gsi
(x, y) 40 is calculated and output in the same manner as in equation (4) above.

【0036】動きベクトル格納メモリ24は、最適ベク
トル判別部23から出力される動きベクトル(x0 −
ξ0 ,y0 −η0 )41を格納する。
The motion vector storage memory 24 stores the motion vector (x0 −
ξ0 ,y0 -η0 )41 is stored.

【0037】予測ベクトル発生部25は、動きベクトル
を検出しようとする着目画素ブロックとその周辺のすで
に動きベクトルが検出された隣接画素ブロックの輪郭情
報42を輪郭情報格納メモリ28より入力し、後述の[
参照画素ブロック決定法]に基づいて参照すべき前記隣
接画素ブロックを決定し、動きベクトル格納メモリ24
から出力される参照画素ブロックの動きベクトル43を
用いて後述の[予測ベクトル決定法及び検索範囲決定法
]における予測ベクトル決定法により前記着目画素ブロ
ックの予測ベクトルを決定し、その予測ベクトル33、
及び参照された隣接画素ブロックの個数及び動きベクト
ル44を出力する。
The predicted vector generation unit 25 inputs contour information 42 of the pixel block of interest whose motion vector is to be detected and adjacent pixel blocks around it for which motion vectors have already been detected from the contour information storage memory 28, and performs the processing as described below. [
The adjacent pixel block to be referred to is determined based on the reference pixel block determination method], and the adjacent pixel block to be referred to is determined based on the motion vector storage memory 24.
The motion vector 43 of the reference pixel block output from is used to determine the predicted vector of the pixel block of interest by the predicted vector determination method in [Predicted vector determination method and search range determination method] described later, and the predicted vector 33,
Then, the number of referenced adjacent pixel blocks and the motion vector 44 are output.

【0038】検索範囲決定部26は、予測ベクトル発生
部25から出力される予測ベクトル33と前記参照画素
ブロックの個数及び動きベクトル44から、後述の[予
測ベクトル決定法及び検索範囲決定法]における検索範
囲決定法に基づいて検索範囲を決定し、検索範囲[Wx
 ,Wy ]34をアドレス発生部22に出力する。
The search range determination unit 26 uses the predicted vector 33 outputted from the predicted vector generation unit 25, the number of reference pixel blocks, and the motion vector 44 to perform a search in [Predicted Vector Determination Method and Search Range Determination Method], which will be described later. The search range is determined based on the range determination method, and the search range [Wx
, Wy ]34 to the address generator 22.

【0039】[輪郭検出法]画像の輪郭(エッジ)検出
法は数多く提案されているが、本実施例では微分による
輪郭検出法(例えば、「画像の情報処理」;榎本肇  
著  コロナ社発行  PP.268〜275 参照)
を用いて、画像データg(x,y)のラプラシアン▽2
 g(x,y)(=G(x,y))を求める。
[Contour Detection Method] Many image contour (edge) detection methods have been proposed, but in this example, the contour detection method by differentiation (for example, "Image Information Processing"; Hajime Enomoto)
Author: Corona Publishing, PP. 268-275)
Using , the Laplacian ▽2 of image data g(x,y)
Find g(x,y) (=G(x,y)).

【0040】この時、ラプラシアンオペレータ(▽2 
)としては、 即ち、     G(x,y)=g(x,y−1)+g(x−1
,y)+g(x+1,y)+g(x, y+1)−4・
g(x,y)    (5−1)   あるいは、     G(x,y)=g(x−1,y−1)+g(x
,y−1)+g(x+1,y−1)+g(x−1,y)
+g(x+1,y)+            g(x
−1,y+1)+g(x,y+1)+g(x+1,y+
1)−8・g(x,y)            (5
−2)  によりG(x,y)を求め、この時|G(x,y)|>
Kであれば点(x,y)を輪郭点とし、画素ブロック内
の輪郭点がN点以上のとき当該画素ブロックに輪郭が存
在すると見做す。ここで、前記しきい値Kは画素の階調
数に依存する値であり、Nは画像の解像度や画素ブロッ
クの大きさによって決められる値である。
[0040] At this time, the Laplacian operator (▽2
), that is, G(x,y)=g(x,y-1)+g(x-1
,y)+g(x+1,y)+g(x,y+1)-4・
g(x,y) (5-1) Or, G(x,y)=g(x-1,y-1)+g(x
,y-1)+g(x+1,y-1)+g(x-1,y)
+g(x+1,y)+g(x
-1,y+1)+g(x,y+1)+g(x+1,y+
1)-8・g(x,y) (5
−2) Find G(x, y) using |G(x, y)|>
If K, the point (x, y) is taken as a contour point, and when the number of contour points in a pixel block is N or more, it is considered that a contour exists in the pixel block. Here, the threshold value K is a value that depends on the number of gradations of a pixel, and N is a value that is determined depending on the resolution of the image and the size of the pixel block.

【0041】また、輪郭が存在すると判定された画素に
対しては、さらにその方向を算出し当該画素ブロックの
輪郭線の方向として、該画素ブロック内の各画素の輪郭
の方向のうちで最も頻度の多い方向を該画素ブロックの
輪郭線の方向とする。
[0041] Furthermore, for a pixel that is determined to have an outline, its direction is further calculated, and the direction of the outline of each pixel in the pixel block is determined based on the direction of the outline of each pixel in the pixel block. The direction in which there are many is defined as the direction of the outline of the pixel block.

【0042】この時、輪郭画素の方向(0°から315
°まで45°毎の8方向)を算出する為のオペレータと
しては、例えば次に示すようなオペレータを用いる。
At this time, the direction of the contour pixel (from 0° to 315
For example, the operator shown below is used to calculate the angle (up to 8 directions in 45° increments).

【0043】       水平方向        垂直方向   
     右斜め方向        左斜め方向  
(0°,180°)  (90°,270°)    
  (45°,225°)    (135 °,31
5°)    −1  −2  −1      −1
  0  1        −1  −2  0  
      0  2  1    0  0  0 
     −2  0  2        −2  
0  2        −2  0  2    1
  2  1      −1  0  1     
   0  2  1        −1  −2 
 0輪郭検出の他の実施例として画素ブロックBi ,
 j の平均μi , j と分散σi , j 2 
を求め、分散がしきい値(C)を越えた場合(即ちσi
 , j 2 >Cの場合)あるいは、画素ブロックB
i , j の平均値と隣接する画素ブロックBi−1
,j 、Bi , j−1 の平均値との差がしきい値
(S)を越えた場合(即ち|μi ,j −μi , 
j−1 |>Sあるいは、|μi , j −μi−1
,j |>Sの場合)に当該画素ブロックに輪郭が存在
すると見做す。なお、上記しきい値C,Sはブロックの
大きさや画像の階調数に応じて決められるが、例えば、
ブロックサイズが8×8画素、階調数が8bitの場合
、C≧100,S≧10のように設定すると良好な結果
が得られる。また、前記しきい値K,N,C,Sを数画
素フレーム毎にあるいは数画素ブロック毎に更新するこ
とも可能である。
Horizontal direction Vertical direction
Right diagonal direction Left diagonal direction
(0°, 180°) (90°, 270°)
(45°, 225°) (135°, 31
5°) -1 -2 -1 -1
0 1 -1 -2 0
0 2 1 0 0 0
-2 0 2 -2
0 2 -2 0 2 1
2 1 -1 0 1
0 2 1 -1 -2
As another example of 0 contour detection, pixel blocks Bi,
The mean μi, j and the variance σi, j 2 of j
is calculated, and if the variance exceeds the threshold (C) (i.e. σi
, j 2 > C) or pixel block B
Average value of i, j and adjacent pixel block Bi-1
, j , Bi , j-1 exceeds the threshold (S) (i.e. |μi , j −μi ,
j−1 |>S or |μi , j −μi−1
, j |>S), it is assumed that a contour exists in the pixel block. Note that the above threshold values C and S are determined depending on the size of the block and the number of gradations of the image, but for example,
When the block size is 8×8 pixels and the number of gradations is 8 bits, good results can be obtained by setting C≧100 and S≧10. It is also possible to update the thresholds K, N, C, and S every several pixel frames or every several pixel blocks.

【0044】[参照画素ブロック決定法]画像データを
図3に示すようにN×M個の画素ブロックに分割し、各
画素ブロックに対して、左から右、上から下に順次動き
ベクトルを検出する場合に、着目画素ブロックをaとす
ると、aの上方及び左方に隣接する画素ブロックb,c
,d,eはすでに動きベクトルが検出されたブロックで
あり、この時ブロックaの参照すべき画素ブロックを下
記に示す方法で決定する。
[Reference pixel block determination method] Image data is divided into N×M pixel blocks as shown in FIG. 3, and motion vectors are sequentially detected from left to right and top to bottom for each pixel block. In this case, if the pixel block of interest is a, the pixel blocks b and c adjacent to the upper and left side of a
, d, and e are blocks whose motion vectors have already been detected. At this time, the pixel block to be referred to in block a is determined by the method described below.

【0045】(1)着目画素ブロックaに輪郭が存在し
ない場合、隣接画素ブロックb,c,d,eの中で輪郭
の存在しないブロックを参照ブロックとする。但し、参
照ブロックがcのみあるいはeのみの場合は該ブロック
の参照を取り止め、また参照ブロックがc,eのみの場
合にも該ブロックの参照を取り止める。
(1) When the pixel block a of interest does not have an outline, one of the adjacent pixel blocks b, c, d, and e that does not have an outline is set as a reference block. However, if the reference block is only c or e, the reference to that block is canceled, and also if the reference block is only c or e, reference to the block is canceled.

【0046】(2−1) 着目画素ブロックaに輪郭が
存在する場合、隣接画素ブロックb,c,d,eの中で
輪郭の存在する画素ブロックを参照画素ブロックとする
(2-1) When a contour exists in the pixel block a of interest, the pixel block in which the contour exists among the adjacent pixel blocks b, c, d, and e is set as a reference pixel block.

【0047】(2−2) この時、さらに着目画素ブロ
ックaの輪郭線の方向と隣接画素ブロックb,c,d,
eの中で輪郭の存在する画素ブロックの輪郭線の方向が
一致する画素ブロック、又は輪郭線の方向の一致度が高
い画素ブロック(例えば0°の方向に対して45°ある
いは315°の方向)を参照画素ブロックとすることも
出来る。
(2-2) At this time, the direction of the outline of the pixel block of interest a and the adjacent pixel blocks b, c, d,
A pixel block whose outline direction matches that of a pixel block where an outline exists in e, or a pixel block whose outline direction has a high degree of coincidence (for example, a direction of 45° or 315° with respect to the 0° direction) can also be used as a reference pixel block.

【0048】[予測ベクトル決定法及び検索範囲決定法
] (1)着目画素ブロックaに対して参照すべき画素ブロ
ックが存在しない場合に、画素ブロックaの予測ベクト
ルを(0,0)とし、動きベクトルの検索範囲を最大検
索範囲[W0 ,W0 ](例えば、W0 =[−16
,16])とする。
[Predicted Vector Determination Method and Search Range Determination Method] (1) When there is no pixel block to be referred to for the pixel block a of interest, the predicted vector of the pixel block a is set to (0, 0), and the motion The vector search range is set to the maximum search range [W0, W0] (for example, W0 = [-16
, 16]).

【0049】(2)着目画素ブロックaに対して参照す
べき画素ブロックが唯一存在する場合には当該画素ブロ
ックの動きベクトルを画素ブロックaの予測ベクトルと
し、その検索範囲を[W1 ,W1 ](例えば、W1
 =[−8,8])とする。
(2) If there is only one pixel block to be referred to for the pixel block a of interest, the motion vector of the pixel block is set as the predicted vector of the pixel block a, and the search range is [W1, W1]( For example, W1
= [-8, 8]).

【0050】(3)着目画素ブロックaに対して参照す
べき画素ブロックが2個以上存在する場合には当該参照
画素ブロックの動きベクトルの平均値(<x>,<y>
)を画素ブロックaの予測ベクトルとし、各参照画素ブ
ロックの動きベクトル(xi ,yi )(i;参照ブ
ロック番号)と予測ベクトル(<x>,<y>)の各成
分の差Sx 及びSy を下記(6)式により求める。
(3) If there are two or more pixel blocks to be referenced for the pixel block a of interest, the average value of the motion vectors of the reference pixel blocks (<x>, <y>
) is the predicted vector of pixel block a, and the difference Sx and Sy of each component of the motion vector (xi, yi) (i: reference block number) of each reference pixel block and the predicted vector (<x>, <y>) is It is determined by the following formula (6).

【0051】[0051]

【数2】[Math 2]

【0052】また、Sx 及びSy の値に応じて動き
ベクトルの検索範囲を下記のように決定する。
Furthermore, the motion vector search range is determined as follows according to the values of Sx and Sy.

【0053】(3−1) Sx ∈W2 又はSy ∈
W2 の場合、検索範囲を[W2 ,W2 ](例えば
W2 =[−4,4])とする。
(3-1) Sx ∈W2 or Sy ∈
In the case of W2, the search range is set to [W2, W2] (for example, W2 = [-4, 4]).

【0054】(3−2) 上記(3−1) 以外でSx
 ∈W1 又はSy ∈W1 の場合、検索範囲を[W
1 ,W1 ]とする。
(3-2) Sx other than (3-1) above
If ∈W1 or Sy ∈W1, set the search range to [W
1, W1].

【0055】(3−3) 上記(3−1) 、(3−2
) 以外の場合、検索範囲を最大検索範囲[W0 ,W
0 ]とする。
(3-3) Above (3-1), (3-2
), set the search range to the maximum search range [W0,W
0 ].

【0056】なお、検索範囲の設定のための場合分けの
数およびその大きさは必要に応じて変えることができ、
上記に限定されるものではない。
[0056] The number and size of cases for setting the search range can be changed as necessary.
It is not limited to the above.

【0057】[0057]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、検出しようとする画素ブロックとその周辺のブ
ロックとの関連、特に、従来の技術では誤って検出しや
すい輪郭部の特性を充分考慮しているので、高精度の動
きベクトル検出が期待できる。また、動きベクトルを的
確に予測することによって、充分小さな検索範囲でも高
精度に動きベクトルが検出できるので、演算時間及び演
算量が大幅に短縮できる。また、本発明によれば、検出
可能な最大動きベクトルは検索範囲の制約を受けなくな
るので、制限された検索時間又は検索能力の中でも大き
な動きベクトルを検出でき、広範囲、高速、高精度な動
きベクトルの検出が期待できる。
As described above in detail, according to the present invention, the relationship between the pixel block to be detected and its surrounding blocks, especially the characteristics of the contour part that is easily detected by conventional techniques, can be improved. Since this method fully takes into account, highly accurate motion vector detection can be expected. Furthermore, by accurately predicting the motion vector, the motion vector can be detected with high precision even in a sufficiently small search range, so that the computation time and amount of computation can be significantly reduced. Further, according to the present invention, since the maximum detectable motion vector is not subject to the restriction of the search range, a large motion vector can be detected even within limited search time or search ability, and a wide range, high speed, and high precision motion vector can be detected. can be expected to be detected.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明の実施例の構成を示すブロック図である
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】従来の動きベクトル検出装置の構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing the configuration of a conventional motion vector detection device.

【図3】ブロックスキャン法及び画素ブロックの説明図
である。
FIG. 3 is an explanatory diagram of a block scan method and pixel blocks.

【図4】動きベクトルと検索範囲との関係を示す図であ
る。
FIG. 4 is a diagram showing the relationship between motion vectors and search ranges.

【符号の説明】[Explanation of symbols]

20    現フレームメモリ 21    前フレームメモリ 22    アドレス発生部 23    動きベクトル判別部 24    動きベクトル格納メモリ 25    予測ベクトル発生部 26    検索範囲決定部 27    輪郭検出部 28    輪郭情報格納メモリ 29    入力画像信号 40    予測誤差信号 41    動きベクトル 20 Current frame memory 21 Previous frame memory 22 Address generation section 23 Motion vector discrimination unit 24 Motion vector storage memory 25 Predicted vector generation unit 26 Search range determination section 27 Contour detection section 28 Contour information storage memory 29 Input image signal 40 Prediction error signal 41 Motion vector

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】  (a)現在の1フレーム分の画像デー
タを記憶する現フレームメモリと、(b)過去の1フレ
ーム分の画像データを記憶する前フレームメモリと、(
c)前記現フレームメモリに対して所定の大きさの画素
ブロック内の画素アドレスを順次発生し、前記前フレー
ムメモリに対して検索範囲決定手段によって決定された
検索範囲内で、予測ベクトル発生手段から得られる予測
ベクトルに基づき前記所定の大きさの画素ブロックをず
らしながら当該画素ブロック内の画素アドレスを順次発
生するアドレス発生手段と、(d)現フレームメモリ内
の画素ブロックに輪郭が存在するか否かを検出し、輪郭
の有無と輪郭線の方向とを輪郭情報として出力する輪郭
検出手段と、(e)各画素ブロックの前記輪郭情報を格
納する輪郭情報格納メモリと、(f)現フレームメモリ
より出力される現画素ブロックの画像データと前フレー
ムメモリより出力される比較画素ブロックの画像データ
とのパターンマッチングにより前記現画素ブロックの動
きベクトルとして最適なベクトルを判別する動きベクト
ル判別手段と、(g)現フレームメモリ内の各画素ブロ
ックについて前記動きベクトルを格納する動きベクトル
格納メモリと、(h)着目画素ブロックの輪郭情報と周
辺の画素ブロックの輪郭情報とを比較して着目画素ブロ
ック周辺の参照画素ブロックを選出し、該参照画素ブロ
ックの動きベクトルに基づいて予測ベクトルを発生させ
る予測ベクトル発生手段と、(i)前記予測ベクトルと
前記参照画素ブロックの動きベクトルとのばらつきの度
合い及び前記参照画素ブロックの数に基づいて動きベク
トルの検索範囲を決定する検索範囲決定手段とを備えた
ことを特徴とする動きベクトル検出装置。
Claim 1: (a) a current frame memory that stores image data for one current frame; (b) a previous frame memory that stores image data for one past frame;
c) Sequentially generate pixel addresses within a pixel block of a predetermined size for the current frame memory, and generate pixel addresses from the predictive vector generation means within the search range determined by the search range determination means for the previous frame memory. (d) address generation means for sequentially generating pixel addresses within the pixel block while shifting the pixel block of the predetermined size based on the obtained predicted vector; and (d) whether or not a contour exists in the pixel block in the current frame memory. (e) a contour information storage memory that stores the contour information of each pixel block; and (f) a current frame memory. a motion vector determining means for determining an optimal vector as a motion vector for the current pixel block by pattern matching between the image data of the current pixel block output from the previous frame memory and the image data of the comparison pixel block output from the previous frame memory; g) a motion vector storage memory that stores the motion vector for each pixel block in the current frame memory; and (h) a motion vector storage memory that stores the motion vector for each pixel block in the current frame memory; Predicted vector generation means that selects a reference pixel block and generates a predicted vector based on the motion vector of the reference pixel block, and (i) the degree of dispersion between the predicted vector and the motion vector of the reference pixel block and the reference 1. A motion vector detection device comprising: search range determining means for determining a motion vector search range based on the number of pixel blocks.
【請求項2】  請求項1記載の予測ベクトル発生手段
において、着目画素ブロックにおける輪郭の有無に基づ
いて該着目画素ブロックに隣接する隣接画素ブロックか
ら輪郭有りの画素ブロックあるいは輪郭無しの画素ブロ
ックを選出し、該選出された画素ブロックの動きベクト
ルから抽出した特徴ベクトルを着目画素ブロックの予測
ベクトルとし、隣接画素ブロックに該当する画素ブロッ
クが存在しない場合には予測を中止することを特徴とす
る請求項1記載の動きベクトル検出装置。
2. The predicted vector generating means according to claim 1, wherein a pixel block with an outline or a pixel block without an outline is selected from adjacent pixel blocks adjacent to the pixel block of interest based on the presence or absence of an outline in the pixel block of interest. A feature vector extracted from the motion vector of the selected pixel block is used as a predicted vector of the pixel block of interest, and prediction is stopped if there is no corresponding pixel block among the adjacent pixel blocks. 1. The motion vector detection device according to 1.
【請求項3】  請求項2記載の予測ベクトル発生手段
において、着目画素ブロックに輪郭が存在する場合には
、該着目画素ブロックに隣接する隣接画素ブロックから
、輪郭が存在し、かつ輪郭方向の一致度が高い画素ブロ
ックを選出することを特徴とする請求項2記載の動きベ
クトル検出装置。
3. In the predicted vector generating means according to claim 2, when a contour exists in a pixel block of interest, it is determined that a contour exists and the contour directions match from an adjacent pixel block adjacent to the pixel block of interest. 3. The motion vector detection device according to claim 2, wherein a pixel block having a high degree of motion is selected.
JP9417291A 1991-04-24 1991-04-24 Motion vector detection device Expired - Fee Related JP3020299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9417291A JP3020299B2 (en) 1991-04-24 1991-04-24 Motion vector detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9417291A JP3020299B2 (en) 1991-04-24 1991-04-24 Motion vector detection device

Publications (2)

Publication Number Publication Date
JPH04323780A true JPH04323780A (en) 1992-11-12
JP3020299B2 JP3020299B2 (en) 2000-03-15

Family

ID=14102928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9417291A Expired - Fee Related JP3020299B2 (en) 1991-04-24 1991-04-24 Motion vector detection device

Country Status (1)

Country Link
JP (1) JP3020299B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304603B1 (en) 1997-04-15 2001-10-16 Samsung Electronics Co., Ltd. Block matching method using a moving target window
JP2010177739A (en) * 2009-01-27 2010-08-12 Nec Corp Image processing device, image processing method, and image processing program
JP2016009287A (en) * 2014-06-24 2016-01-18 三菱電機株式会社 Motion detection device and motion detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304603B1 (en) 1997-04-15 2001-10-16 Samsung Electronics Co., Ltd. Block matching method using a moving target window
JP2010177739A (en) * 2009-01-27 2010-08-12 Nec Corp Image processing device, image processing method, and image processing program
JP2016009287A (en) * 2014-06-24 2016-01-18 三菱電機株式会社 Motion detection device and motion detection method

Also Published As

Publication number Publication date
JP3020299B2 (en) 2000-03-15

Similar Documents

Publication Publication Date Title
EP1339223A2 (en) Adaptive motion estimation apparatus and method
JP4179548B2 (en) Motion vector detection device
JP4385077B1 (en) Motion vector detection device and image processing device
GB2521491A (en) Motion estimation
JP2950633B2 (en) Motion vector detection device
US7852939B2 (en) Motion vector detection method and device of the same
JPH04323780A (en) Motion vector detecting device
JP3175914B2 (en) Image encoding method and image encoding device
JPH04248789A (en) Method of estimating movement in image-sensed picture
JPH0478286A (en) Detection method for moving vector using initial deviation vector
JPH05236452A (en) Method and device for detection motion vector
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP4250598B2 (en) Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method
JP4250806B2 (en) Field frequency conversion device and conversion method
JP2861971B2 (en) Motion vector prediction device
JP3528115B2 (en) Motion prediction vector detection circuit
JPH08195956A (en) Moving amount detection method and moving amount detector
JPH05176314A (en) Image movement detector
KR20010034374A (en) Device and method for detecting moving vector
JPH09238346A (en) Motion vector searching method and device therefor
JPH08242454A (en) Method for detecting global motion parameter
Lin et al. A neural fuzzy system for image motion estimation
JPH0728406B2 (en) Motion vector detector
KR0132037B1 (en) Apparatus for estimating motion vector
Khan et al. Real time object tracking using BMA

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110114

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees