JPH02171093A - 動画像の予測符号化方式 - Google Patents

動画像の予測符号化方式

Info

Publication number
JPH02171093A
JPH02171093A JP63326807A JP32680788A JPH02171093A JP H02171093 A JPH02171093 A JP H02171093A JP 63326807 A JP63326807 A JP 63326807A JP 32680788 A JP32680788 A JP 32680788A JP H02171093 A JPH02171093 A JP H02171093A
Authority
JP
Japan
Prior art keywords
background
frame
image
prediction
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63326807A
Other languages
English (en)
Inventor
Yoshihiro Miyamoto
義弘 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63326807A priority Critical patent/JPH02171093A/ja
Publication of JPH02171093A publication Critical patent/JPH02171093A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、動画像の予測符号化方式に関するものである
(従来の技術) 従来、動画像の高能率符号化方式に関しては、予測符号
化方式が知られている。その構成の一例を第8図に示す
。この方式は各画素の信号値81から画像のフレーム間
相関または背景画像を利用して得た予測値を差し引き、
その差分値85を符号化するもρで、予測回路としてフ
レーム間予測回路88及び背景予測回路89を並列接続
し、切り替えスイッチ90により選択的にいずれかを接
続する構成となっている。また動きベクトル検出回路8
7で画像フレーム内の動領域とその動きベクトル82を
検出し、フレーム間予測回路88で動き補償したフレー
ム間予測値83を出力する構成になっている。
上記の背景予測回路89で用いられる背景画像の抽出方
式としては、画像フレーム内のある画素の信号レベルが
連続2フレーム間でほとんど変化しない場合には、この
画素が背景部分を表示していると考え、背景画像上の前
記画素の信号レベルをあらかじめ定められた大きさだけ
更新する方式がある(黒田、代用、橋本=「動き補償、
背景予測を用いたフレーム間符号化方式」、電子情報通
信学会論文誌’85/I Vol、J68−B No、
1参照)。また、シーンチェンジと次なるシーンチェン
ジの間の一連の複数フレームで構成される画像シーケン
スにおいて、前記シーケンスの符号化に先だってその全
体を見渡した上で背景画像を抽出する方式もある(特願
昭62゜165957号明細書「背景画像を用いた動画
像の符号化方式j)。この方式では、まず画像フレーム
内のそれぞれの画素について、その信号レベルの時間変
動が少ない期間を平坦領域として抽出する。次に、画像
シーケンス全体から抽出された複数の平坦領域から適当
なものを選択して、その平均値として該当画素の背景レ
ベルを決定する。
これらの方法により抽出した背景画像を用いて背景予測
を行うことで、画像フレーム内の背景部分からの情報発
生を抑制した効率的な予測符号化を実現できることが従
来知られていた。
(発明が解決しようとする問題点) 従来の方式では、背景の位置が画像フレームに対して固
定されていることを前提にして背景画像を抽出している
。従って、パンニングやカメラの振動等により画像フレ
ーム全体としての動きがある場合には、背景画像を抽出
することができず、かつ背景予測を適用することもでき
ない。
本発明の目的は、パンニング等が起こっている場合にも
背景画像の抽出または背景予測を可能とし、より発生情
報量を抑えた予測符号化方式を提供することにある。
(問題点を解決するための手段) 本発明の背景予測を用いた動画像の予測符号化方式にお
いて、画像フレーム全体の動きを示すグローバル・ベク
トルを検出し、前記グローバル・ベクトルと背景画像を
用いて背景予測を行うとともに、符号化に同期して前記
グローバル・ベクトルを用いて前記背景画像を更新する
ことを特徴とする。
また、本発明の背景予測を用いた連続複数フレームで構
成される画像シーケンスの予測符号化方式において、一
連の符号化に先立って基準座標上に生成された背景画像
及び、画像シーケンス内の各画像毎に基準座標上での動
き位置を示すフレーム位置ベクトルとをあらかじめ与え
ておき、前記背景画像と前記フレーム位置ベクトルとを
用いて背景予測を行うことを特徴とする。
また、本発明の連続複数フレームで構成される画像シー
ケンスからの背景抽出方式において、画像シーケンス内
の各画像毎に基準座標上での動き位置を示すフレーム位
置ベクトルを検出し、前記画像シーケンスから前記フレ
・−人位置ベクトルを用いて基準座標上に背景画像を抽
出することを特徴とする。
(作用) 本発明の背景予測を用いた動画像の予測符号化方式では
、まず入力画像の各画素毎もしくは複数、画素からなる
ブロック毎にフレーム間での動きベクトルを検出し、こ
れより画像フレーム全体としての動きを示すグローバル
・ベクトルを求める。
例として前記動きベクトルの最尤値をグローバル・ベク
トルに定める。次にフレーム間予測及び背景予測の両予
測モードから得られた予測値のうち、入力画像信号との
差分の絶対値が小さくなるものを選択して、その予測モ
ード信号及び予測差分値を符号化する。あるいは予測モ
ードの選択において、符号化済みの近傍画素における予
測差分の絶対値が最小である予測モードを参照して、こ
れから符号化する画素での最適な予測モードを推定する
。なお、グローバル・ベクトルGV = (GVx、G
Vy)に対して、画素p(x、y)の背景予測値は背景
画像の画素Pbg(X−GVx、Y−GVy)の値であ
る。さらに、このグローバル、ベクトルを用いてフレー
ム毎に背景画像の更新を行う。第4図に示すように、第
iフレームでの第(i−1)フレームに対するグローバ
ル・ベクトルがGV = (GVx、GVy)テある時
に、第iフレームテノ画素Pi(X、Y)が表示してい
る位置は、第(i−1)フレームでハPi−1(X−G
Vx、Y−GVy)&ニー相当する。従ッテ、画素Pi
(X、Y)とPi −1(X−GVx、Y−GVy)と
の値の差分があらかじめ設定したしきい値より小さい場
合には、Pi(X、Y)は背景を表示していると判断し
て、背景画像の画素Pbg(X、Y)の値を、更新前の
Pbg(X−GVx、Y−GVy)の値及びPi(X、
Y)の値を用いて更新する。前記場合に、更新前(7)
Pbg(X−GVx、Y−GVy)ノ値が未設定であれ
ば、Pi(X、Y)の値をPbg(X、Y)の値に代入
する。なお、上記の更新が毎フレームで行われない場合
には、画素Pi(X、Y)の背景予測値は背景画像の画
素Pbg(X−ΣGVx、Y−ΣGVy)(7)値トス
ル必要カアル。
ここでΣGV=(ΣGVx、ΣGVy)は、前回の背景
画像更新から現フレームまでのグローバル・ベクトルの
累積値である。
また、本発明の背景予測を用いた連続複数フレームで構
成される画像シーケンスの予測符号化方式では、まず一
連の符号化に先立って、画像シーケンス内の各画像が表
示する背景部分の全体をカバーする大きな背景画像を基
準座標上に設定する。同様にあらかじめ画像シーケンス
内の各画像毎に画像フレームの基準座標上での動き位置
を示すフレーム位置ベクトルを与えておき、前記背景画
像と前記フレーム位置ベクトルを用いて背景予測を行う
。いま第5図に示すように、第iフレームニオケルフレ
ーム位置ヘクトルがFVi = (FVxi、FVyi
)テアルナラ、第iフレームテノ画素Pi(X−FVx
i、Y−FVyi)の位置は、背景画像を設定している
基準座標上では(x、y)に相当する。従って、画素P
i(X−FVxi、Y−FVyi)の背景予測値は背景
画像の画素Pbg(X、Y)の値となる。
また、本発明の連続複数フレームで構成される画像シー
ケンスからの背景抽出方式では、まず各画像毎に画像フ
レームの基準座標上での動き位置を示すフレーム位置ベ
クトルを検出し、前記フレーム位置ベクトルを用いて基
準座標上に背景画像を生成する。いま第5図に示すよう
に、第iフレームにおけるフレーム位置ベクトルが FVi = (FVxi、FVyi)テあるとする。コ
コテ、第i7レームテノ画素Pi(X−FVxi、Y−
FVyi)が背景を表示しテイルと判別された場合ニハ
、Pi(X−FVxi、Y−FVyi)の値を基準座標
位置(x、y)の背景データとして抽出する。この具体
例として第5図に示すように第(i−1)フレームでの
フレーム位置ベクトルがFV(i −1)=(FVx(
i−1)、FVy(i−1))である場合に、第(i−
1)フtz−ムチ(7)画素Pi−1(FVx(i−1
)、FVy(i−1))(7)位置と第iフレームテノ
画素Pi(X−FVxi、Y−FVyi)(7’)位置
は共に基準座標上では(x、y)である。そこでPi 
−1(X−FVx(i −1)、Y−FVy(i−1)
)とPi(X−FVxi、Y−FVyi))との値の差
分が、あらかじめ定めたしきい値よりも小さければ背景
を表示している判別して、Pi(X−FVxi、Y−F
Vyi)の値を基準座標上の位置(x、y)の背景デー
タとして抽出する。次に画像シーケンス全体から抽出さ
れた複数の背景データから背景画像を生成する。このと
き背景データの各要素の値に太きなばらつきが見られる
場合には、前記データの平均値との差分が大きなものを
不適当なデータと見なして排除する。これによりばらつ
きの小さい背景データからその平均値を求めて、画素P
bg(X、Y)の値に代入することで背景画像を生成す
る。
以上に示した本発明の作用により、バンニング等が起こ
っている場合にも背景抽出及び背景予測を適用すること
でき、画像内の背景部分における発生情報量を抑え、符
号化効率の改善が可能となる。
(実施例) 以下、本発明の実施例を第1〜7図を用いて説明する。
第1図は、第1の発明の動画像の予測符号化方式を実現
する一実施例のブロック図である。動きベクトル検出回
路8では入力画像信号1から、各フレーム毎に画像フレ
ーム全体の動きを表すグローバル・ベクトル3を検出す
る。ここでグローバル、ベクトルは画像内の各部分の動
きベクトルから検出する。その−例として、まず画素毎
あるいは複数の画素からなるブロック毎にフレーム間動
きベクトル2を検出し、前記ベクトルの最尤値をグロー
バル、ベクトル3とする。あるいは画像内の各部分につ
いて、各々の動きベクトル2で動き補償フレーム間差分
をとり、前記差分値があらかじめ定めたしきい値よりも
小さい部分が背景を表示していると考え、これらの部分
の動きベクトルの平均値をグローバル・ベクトル3とす
る。次に、フレーム間予測回路9は動きベクトル検出回
路8から供給された動きベクトル2を用いて動き補償フ
レーム間予測値4を出力する。また、背景予測・背景更
新回路10は動きベクトル検出回路8から供給されたグ
ローバル・ベクトル3を用いて背景予測値5を出力する
。すなわち、第4図に示すように第iフレームにおける
グローバル・ベクトルGV = (GVx、GVy)に
対して、第iフレームの画素Pi(X、Y)の背景予測
値として背景画像の画素Pbg(X−GVx、Y−GV
y)(1)値を出力スル。ココチクローバル・ベクトル
は小数点以下に有効数値を持っていてもよい。グローバ
ル・ベクトル GV = (GVx、GVy)が小数成分を持つ場合に
は、背景予測・背景更新回路10は画素Pi(X、Y)
の背景予測値5を、背景画像上の位置(X−GVx、Y
−GVy)の近傍の画素の値から内挿予測により算出し
て出力する。切り替えスイッチ11は前記複数の子測値
のいずれが一つを選択し、入力信号1との差分値6をと
って符号変換回路12で符号化する。また動きベクトル
2、グローバル・ベクトル3も符号化する。次に、第i
フレームでの画素Pi(X、Y)が背景を表示している
と判別された場合には、この画像の符号化後に背景予測
・背景更新回路10でグローバル・ベクトル3を用いて
背景画像の画素Pbg(X、Y)の値を更新する。第4
図テハ、第(i−1)71z −ムチ(7)画素Pi 
−1(X−GVx、Y−Gvy)の値と第iフレームで
の画素Pi(X、Y)の値との差分絶対値が、あらかじ
め定めたしきい値よりも小さければ、Pi(X、Y)は
背景を表示していると判別される。また更新方式の一例
として第4図に示すように、背景画像の画素Pbg(X
、Y)の値を、更新前の画素Pi(X、Y)(7)背景
予測値であルPbg(X−GVx、Y−GVy)の値に
一定値αを加えたものに更新する。ここでαの符号は更
新値がPi(X、Y)の値により近くなるように正また
は負にとる。あるいは、Pi(X、Y)の値と更新前c
7)Pbg(X−GVx、Y−GVy)ノ値トノ重み付
ケ平均値を更新後のPbg(X、Y)の値に代入する。
また、Pbg(X−GVx、Y−GVy)(7)画素位
置が画像7レーム(7)外であり値を持たない場合には
、Pi(X、Y)の値を更新値としてPbg(X、Y)
に代入する。
第2図は、第2の発明の背景予測を用いた連続複数フレ
ームで構成される画像シーケンスの予測符号化方式を実
現する一実施例のブロック図である。ここでは一連の符
号化に先立ち、まず動きベクトル・背景画像出力回路2
9から供給された背景画像22を背景予測回路31に保
持する。次に、符号化に同期して動きベクトル・背景画
像出力回路29はフレーム間予測回路30に画素毎ある
いは複数画素からなるブロック毎に動きベクトル24を
供給し、また背景予測回路31にはフレーム毎にフレー
ム位置ベクトル23を供給する。なお、前記動きベクト
ル24はあらかじめ求めた値を動きベクトル・背景画像
出力回路29に保持しておく必要は必ずしも無く、符号
化に同期して逐次求めてもよい。フレーム間予測回路3
0は動きベクトル24により動き補償したフレーム間予
測値25を出力し、また背景予測回路31はフレーム位
置ベクトル23と前記背景画像22とから背景予測値2
6を求め出力する。−例として第5図のように、第iフ
レームでのフレーム位置ペクト、)Lt カFVi=(
FVxi、FVyi)テある場合には、第i7 L/ 
−ムテノ画素Pi(X−FVxi、Y−FVyi)(7
)背景予測値として背景画像の画素Pbg(X、Y)の
値を出力する。切り替えスイッチ32では前記複数の子
測値から一つを適応的に選択し、入力信号21との差分
値27を符号化する。また符号変換回路33では、予測
差分値27と共に背景画像22、動きベクトル24及び
フレーム位置ベクトル23も符号化される。
第3図は、第3の本発明の連続した複数フレームで構成
される画像シーケンスから背景画像を抽出する方式を実
現する一実施例のブロック図である。まずフレーム位置
ベクトル検出回路44では、フレーム毎に基準座標上で
の動き位置をフレーム位置ベクトル42として検出し、
背景画像抽出回路45に供給する。−例としてフレーム
位置ベクトル42は、フレーム間での画像フレーム全体
の動きを示すグローバル・ベクトルGVの累積として表
すことができる。この場合には、第1フレームの原点位
置が基準座標の原点位置となる。次に背景画像抽出回路
では、第6図に示したフローチャートに従って入力画像
シーケンス41から基準座標上に背景画像43を抽出す
る。まず、ステップ(02)でフレーム位置ベクトル検
出するが、第5図に示すように第iフレームにおイテF
vi=(FvXi、Fvyi)テアッタトスル。ステッ
プ(04) テは第iフレームの画素Pi(X−FVx
i、Y−FVyi)が背景を表示しているかを本明細書
作用の項に記述した様な方法で判別して、そうであるな
らばステップ(05)でこの値は背景データとしてDb
g(X、Y)の要素に組み込まれる。次にステップ(0
7)で、Dbg(X、Y)に抽出された複数の背景デー
タの平均値をPbg(X、Y)とし、同時に前記データ
の分散CF(X、Y)を求める。σ(x、y)の値があ
らかじめ定めたしきい値Thよりも大きければ、Dbg
(X、Y)の中に不適当なデータが含まれると考えられ
るので、ステップ(10)でσ(X、Y)の値が小さく
なるように、平均値との差分が最も大きなデータを排除
して平均値を再評価する。また、o(X、Y)の値がT
hより小さければ背景画像の画素Pbg(X、Y)の値
を確定する。
なお、第6図ではステップ(05)において各画素の背
景データをフレーム単位で抽出しているが、時間方向に
見た信号レベルの平坦領域H(X、Y)で抽出すること
もできる。この場合の背景画像抽出の手順を第7図のフ
ローチャートに示す。いま第5図に示した第(i−1)
71z−ムテノ画素Pi −1(X−FVx(i −1
)、Y−FVy(i−1))が、第j番目の平坦領域H
j(X、Y) ニ含まれているとする。ステップ(10
4)で、第iフレームテノ画素Pi(X−FVxi、Y
−FVyi)I)値とHj(X、Y)ノf −’)の平
均値E(Hj)との差分が、あらかじめ定めたしきい値
Thlより小さければ、Pi(X−FVxi、Y−FV
yi) ハ背景を表示していると判断して、ステップ(
105)でPi(X−FVxi、Y−FVyi)c7)
値をHj(X、Y)ノf −タIt:組み込む。一方し
きい値よりも大きく、Hj(X、Y)のデータが2フレ
一ム以上である場合には、ステップ(107)でHj(
X、Y)は確定し、Pi(X−FVxi、Y−FVyi
)の値を次なる平坦領域Hj + 1(X、Y)の初期
値とする。これを最終フレームまで繰り返して、全ての
平坦領域H1(X、Y)〜Hm(X、Y)を抽出し、ス
テップ(110)において各平坦領域の長さで重み付け
した平均値として背景画像の画素Pbg(X、Y)の値
を決定する。もし、抽出された平坦領域のデータのばら
つきが大きければ、ステップ(113)で前記平均値と
各平坦領域内での平均の値とを比較してその差分が最も
大きくなる平坦領域を排除し、再度Pbg(X、Y)の
値を計算する。
(発明の効果) 本発明では、画像フレーム全体の動きを補償して背景抽
出または背景予測を行うので、パンニングやカメラの振
動等がある場合にも背景抽出または背景予測が可能とな
り、画像フレーム内の背景部分における情報発生を抑制
し、符号化効率の改善を可能とする。
【図面の簡単な説明】
第1図は、第1の発明を実現する一実施例のブロック図
、 第2図は、第2の発明の一実施例のブロック図、第3図
は、第3の発明の一実施例のブロック図、第4図は、グ
ローバル・ベクトルを用いた背景更新の原理を説明する
ための図、第5図は、フレーム位置ベクトルを用いた背
景抽出の原理を説明するための図、第6図は、第3図で
の背景抽出の手順を示すフローチャート、第7図は、第
3図での背景抽出の手順を示すフローチャート、第8図
は、従来の背景予測を用いた予測符号化方式のブロック
図である。 図において、 8.87・・・動きベクトル検出回路、9,30.88
・・・フレーム間予測回路、10・・・背景予測・背景
更新回路、11.32.90・・・切り替えスイッチ、
12,33.91・・・符号変換回路、2930.動き
ベクトル・背景画像出力回路、31.89・・・背景予
測回路、44・・・フレーム位置ベクトル検出回路、4
5・・・背景画像抽出回路。

Claims (1)

  1. 【特許請求の範囲】 1、)背景予測を用いて動画像を予測符号化するにおい
    て、画像フレーム全体の動きを示すグローバル・ベクト
    ルを検出し、前記グローバル・ベクトルと背景画像を用
    いて背景予測を行うとともに、符号化に同期して前記グ
    ローバル・ベクトルを用いて前記背景画像を更新するこ
    とを特徴とする予測符号化方式。 2、)背景予測を用いて連続した複数フレームで構成さ
    れる画像シーケンスを予測符号化するにおいて、一連の
    符号化に先立って基準座標上に生成された背景画像及び
    、画像シーケンス内の各画像毎に基準座標上での動き位
    置を示すフレーム位置ベクトルとをあらかじめ与えてお
    き、前記背景画像と前記フレーム位置ベクトルとを用い
    て背景予測を行うことを特徴とする予測符号化方式。 3、)連続した複数フレームで構成される画像シーケン
    スから背景画像を抽出するにおいて、画像シーケンス内
    の各画像毎に基準座標上での動き位置を示す示すフレー
    ム位置ベクトルを検出し、前記画像シーケンスから前記
    フレーム位置ベクトルを用いて基準座標上に背景画像を
    抽出する背景抽出方式。
JP63326807A 1988-12-23 1988-12-23 動画像の予測符号化方式 Pending JPH02171093A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63326807A JPH02171093A (ja) 1988-12-23 1988-12-23 動画像の予測符号化方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63326807A JPH02171093A (ja) 1988-12-23 1988-12-23 動画像の予測符号化方式

Publications (1)

Publication Number Publication Date
JPH02171093A true JPH02171093A (ja) 1990-07-02

Family

ID=18191926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63326807A Pending JPH02171093A (ja) 1988-12-23 1988-12-23 動画像の予測符号化方式

Country Status (1)

Country Link
JP (1) JPH02171093A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0414113A2 (de) * 1989-08-24 1991-02-27 Deutsche Thomson-Brandt Gmbh Verfahren zur Bewegungskompensation in einem Bewegtbildcoder oder -decoder
WO1998036577A1 (en) * 1997-02-14 1998-08-20 Nippon Telegraph And Telephone Corporation Predictive coding method and decoding method for dynamic image
EP0866619A2 (en) * 1997-03-19 1998-09-23 Sony Corporation Devices and methods for image coding
US7218675B1 (en) 1991-06-24 2007-05-15 Canon Kabushiki Kaisha Signal processing device
US8553772B2 (en) 1997-02-13 2013-10-08 Mitsubishi Electric Corporation Moving picture prediction system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0414113A2 (de) * 1989-08-24 1991-02-27 Deutsche Thomson-Brandt Gmbh Verfahren zur Bewegungskompensation in einem Bewegtbildcoder oder -decoder
US7218675B1 (en) 1991-06-24 2007-05-15 Canon Kabushiki Kaisha Signal processing device
US8553772B2 (en) 1997-02-13 2013-10-08 Mitsubishi Electric Corporation Moving picture prediction system
US9225945B2 (en) 1997-02-13 2015-12-29 Mitsubishi Electric Corporation Moving picture encoder and encoding method
US9232198B2 (en) 1997-02-13 2016-01-05 Mitsubishi Electric Corporation Moving picture prediction system
WO1998036577A1 (en) * 1997-02-14 1998-08-20 Nippon Telegraph And Telephone Corporation Predictive coding method and decoding method for dynamic image
US6785331B1 (en) 1997-02-14 2004-08-31 Nippon Telegraph And Telephone Corporation Predictive encoding and decoding methods of video data
CN100466747C (zh) * 1997-02-14 2009-03-04 日本电信电话株式会社 运动图像的预测编码装置和译码装置
EP0866619A2 (en) * 1997-03-19 1998-09-23 Sony Corporation Devices and methods for image coding
EP0866619A3 (en) * 1997-03-19 1998-10-21 Sony Corporation Devices and methods for image coding
US6249612B1 (en) 1997-03-19 2001-06-19 Sony Corporation Device and method for image coding

Similar Documents

Publication Publication Date Title
JP4242656B2 (ja) 動きベクトル予測方法及び動きベクトル予測装置
KR100534207B1 (ko) 비디오 부호화기의 움직임 추정기 및 그 방법
KR0171154B1 (ko) 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화하는 방법 및 장치
US5748247A (en) Refinement of block motion vectors to achieve a dense motion field
EP0896300B1 (en) Device and method for motion vector detection
KR950009699B1 (ko) 움직임벡터 검출방법 및 장치
JPH08242458A (ja) 動きベクトル検出方法
JPH1075457A (ja) 動画像内の移動物体検出装置
JP2000278688A (ja) 動きベクトル検出装置およびその方法と画像処理装置
JPH10262258A (ja) 画像符号化装置及び方法
KR20050012766A (ko) 현재 모션 벡터 추정을 위한 유닛 및 모션 벡터 추정 방법
KR100474285B1 (ko) 모션벡터결정방법
KR20050012768A (ko) 현재 모션 벡터를 추정하는 유닛 및 방법
WO1999040726A2 (en) Motion or depth estimation
KR20040049214A (ko) 고속 모션벡터 추정장치 및 방법
KR20050097936A (ko) 효과적인 예측 이미지 파라미터 추정
JPH08242456A (ja) 動きベクトル検出方法
JPH02171093A (ja) 動画像の予測符号化方式
JP3175914B2 (ja) 画像符号化方法および画像符号化装置
US20050129312A1 (en) Unit for and method of segmentation
JPH06165164A (ja) 動画像処理装置
JP3490142B2 (ja) 動画像符号化方法及び装置
JP2888152B2 (ja) ワーピング動き補償を用いた動画像符号化装置
JP2596352B2 (ja) 小数精度動きベクトル探索装置
JPH03253180A (ja) 画像生成方法