JPH08149459A - 動画像処理装置および動画像符号化装置 - Google Patents

動画像処理装置および動画像符号化装置

Info

Publication number
JPH08149459A
JPH08149459A JP28565694A JP28565694A JPH08149459A JP H08149459 A JPH08149459 A JP H08149459A JP 28565694 A JP28565694 A JP 28565694A JP 28565694 A JP28565694 A JP 28565694A JP H08149459 A JPH08149459 A JP H08149459A
Authority
JP
Japan
Prior art keywords
feature point
point
moving image
image
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28565694A
Other languages
English (en)
Inventor
Katsuyuki Tanaka
勝之 田中
Hitoshi Sato
仁 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28565694A priority Critical patent/JPH08149459A/ja
Publication of JPH08149459A publication Critical patent/JPH08149459A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【目的】エッジ間隔が狭い場合や、特徴点が欠落してい
る場合においても特徴点の対応付けが適切に行え、高圧
縮率の符号化や、3次元形状モデルの獲得が適切に可能
となる動画像処理装置を提供する。 【構成】動き推定・対応探索部15において、動き推定
値を求める際に、特徴点pの仮想の対応点qsun'の近傍
に存在する特徴点qjに対してesunj=(Δqsunj Δ
gsunj)(Δqsunjはqjとqsun'の位置の差、Δgsu
njはqjとqsun'の画像特徴の差)を定義し、投影点q
sun'に対してそのesunjが観測される確率P(esunj|
qsun')が最大となるqjを仮想の対応点として選択す
る。その仮想の対応点に基づいて動き推定値を補正し、
この補正を繰り返し動き推定値および特徴点の対応付け
を得る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、たとえば、画像を構成
する各物体の3次元モデルとその動きに基づいて連続的
な動画像を符号化する動画像符号化装置に用いられ、連
続的な動画像を分析して得られた特徴点の各フレーム間
の対応付けを適切に行うことのできる動画像処理装置、
および、それを用いた動画像符号化装置に関する。
【0002】
【従来の技術】動画像系列の中の各物体の3次元モデル
を使って動画像を符号化することで、動画像系列を圧縮
する方法が提案されている。各物体の3次元形状とその
動きが分かれば、元の動画像系列と全く同じ動画像系列
が生成できる。たとえば画像通信において、送信側と受
信側で3次元モデルを共有し、送信側で入力画像の動き
の情報を検出し、受信側でその動きの情報から画像合成
を行えば、画像が再生できる。この場合、動きの情報の
みを伝送すればよいことから超低レートでの画像通信が
期待できる。具体的には、顔の3次元構造モデルをワイ
ヤフレームに変形し送信側と受信側で共有し、表情など
の特徴のみを伝送して顔画像の合成を行う方法が盛んに
試みられている。
【0003】しかし、この符号化方法を自然画像に応用
する場合には、予め3次元モデルを用意しておくことは
不可能であり、与えられた動画像系列から3次元モデル
を抽出する必要がある。そのような、動画像系列の中か
ら3次元形状モデルを抽出し、そのモデルを利用して動
画像を符号化する方法としては、Hans George Musmann
、Michael Hotter、Jorn Ostermannらによる「OBJECT-
ORIENTED analysis coding of moving images.」〔Sig
nal processing:Image Communication 1(1989):117-13
8,Elsvier SCIENCE PUBLISHERS B.V. 〕に開示されてい
る方法がある。この方法によれば、エッジ部分について
は動きベクトルを求めそれを利用して奥行きを求め、エ
ッジ以外の部分については奥行きを補間して、3次元形
状を推測する。また、輝度情報は、3次元上に属性とし
てマッピングし、補間された3次元形状のデータと共に
伝送を行っている。
【0004】また、本願出願人の係わる3次元形状モデ
ルを抽出する同様な方法として、次のような方法があ
る。動画像系列の1フレーム目の各セグメントの2次元
形状情報に、所定の奥行き方向の情報を付加して3次元
モデルの初期値とする。その3次元モデルの動きを推定
し、その推定に基づいて得られる画像と入力される各フ
レームの画像の各特徴点の位置を比較し、その3次元モ
デルの全体的な動きと各特徴点のズレを抽出する。その
3次元モデルの全体の動き(動き推定値)、および、各
特徴点のズレに基づいて、順次前記3次元モデルを更新
し、忠実な3次元モデルを獲得する。
【0005】ところで、前述したような方法において
は、現フレームの特徴点と、次フレームの特徴点との対
応関係が何らかの方法により分かれば動きベクトルや動
き推定値が得られる。しかし、その対応関係は簡単に分
かるものではなく、フレーム間でどのようにして対応点
を探索し決定するかが、正確に動きベクトルおよび動き
推定値や特徴点のズレを抽出するために非常に重要であ
る。
【0006】これに対して前記本願出願人に関わる前述
の方法においては、まず、その3次元モデルの3次元座
標および投影面における2次元位置に関する共分散行列
を利用し、その動きの粗い推定を行う。その粗い推定値
を用いて前記3次元モデルを投影し、その特徴点と最も
近い対象画像の特徴点を対応点とする。そして、最小自
乗法により前記動きの推定値を補正し、さらにその補正
を反復して行うことにより動きを推定するというもので
あった。
【0007】具体的に以下に説明する。まず、図4にお
いて、座標系XYZはカメラ座標系で、座標系の原点は
レンズの中心で、光軸は奥行き方向となるZ軸と一致さ
せているものとする。このような座標系におていは、点
Pの像はXY平面に平行で原点からカメラの焦点距離f
だけ離れた所に設置された平面に投影されると考えるこ
とができる。この投影面上の点Pの像の位置がカメラよ
り入力された画像上の画素の位置となる。その投影面に
対して、その面のZ軸との交点を原点とし、X軸および
Y軸と平行な座標系xyを設定する。
【0008】XYZ空間内の点Pの座標をp=(Xp ,
Yp ,Zp )、点Pのxy平面上の像である点Qの座標
をq=(xq ,yq )とすると、点Qの座標qは式3の
ように表される。
【0009】
【数3】
【0010】あるセグメントs(s=1〜S)がUs 個
(s=1〜S)のエッジより構成され、その各エッジが
Nsu個(u=1〜Us,s=1〜S)の点の情報で表さ
れ、それら各点の位置はpsun =(Xsun ,Ysun ,Z
sun )(n=1〜Nsu)で表されるとする。このセグメ
ントが、相対的にX軸周りにΔωx、Y軸周りにΔω
y、Z軸周りにΔωz回転し、また、Δt=(Δtx,
Δty,Δtz)だけ平行移動した場合、このセグメン
トを構成する各点psun の移動量Δpsun =(ΔXsun
,ΔYsun ,ΔZsun )は、前記各軸周りの回転Δω
x,Δωy,Δωz、および,平行移動量Δtが小さい
とすると、式4のようになる。
【0011】
【数4】
【0012】点psun のxy平面上への投影点をqsun
=(xsun ,ysun )とすると、前記セグメントの移動
にともなう投影点qsun の移動量Δqsun =(Δxsun
,Δysun )は式5のようになる。
【0013】
【数5】
【0014】式3と式5より式6が得られる。
【0015】
【数6】
【0016】式3および式6を、N個の点の内のm=1
〜MのM個に適用すると、式7のようになる。
【0017】
【数7】
【0018】なお、Δtt は行列Δtの転置行列を示
す。Δqについては、新たな画像が入力される前に得て
いた3次元位置pmの式3による仮想の投影点qm’に
対応する画像上の点が分からないので、図5に示すよう
に、3次元位置情報の仮想の投影像Ipにおいて物体像
Irの投影特徴点qmから最も近い点と仮定する。M≧
3のとき回転および平行移動量のパラメータΔCの推定
値ΔC’は、最小自乗法により式8により求められる。
【0019】
【数8】
【0020】式8により得られたΔC’による3次元位
置情報の移動量Δqsun を式3より計算して、新たに式
4により仮想の投影像を作り、同様に近い点を対応点と
仮定し、式8の計算を繰り返し、式9のようにしていく
と、仮想の投影像と物体像Irは近づく。
【0021】
【数9】
【0022】この計算を、Σ|Δqsun |2 が予め定め
た所定値ε以下になるまで繰り返すことにより、元の画
像の3次元位置情報psun に対する新たな画像の対応点
qsun が求められる。
【0023】
【発明が解決しようとする課題】しかし、前述した方法
においては、反復計算の過程で単に間隔が近い特徴点を
対応点としているため、特徴点のつながりであるエッジ
の間隔が近い箇所や、特徴点が欠落している箇所などで
は誤対応が生じやすいという問題があった。そのような
例を図6に示す。図6(A)に示すように、エッジ間隔
が狭い場合には他の特徴点と対応づけられる場合が多
い。また、図6(B)に示すように、特徴点が欠落して
いた場合には、その特徴点は当然他の特徴点に対応付け
られる。
【0024】さらに、そのような誤対応がある場合に
は、全体の動きの推定値の誤差が大きくなりズレの情報
が大きくなるため圧縮率が下がると同時に、ノイズが増
え動画像を適切に符号化できなくなるという問題を生じ
た。
【0025】したがって、本発明の目的は、エッジ間隔
が狭い場合や、特徴点が欠落している場合においても、
適切に特徴点の対応付けが行え、動きの推定が行えるよ
うな動画像処理装置を提供することにある。また、その
動きの推定や対応付けられた特徴点を用いて、動画像を
適切に符号化することができる動画像符号化装置を提供
することにある。
【0026】
【課題を解決するための手段】フレーム間の特徴点の対
応付けに誤対応が生じるのは、単に各特徴点の位置情報
のみを用いて、最も近い点を仮の対応点としていること
に起因する。そこで本発明においては、各特徴点につい
て位置情報以外の情報を比較し、対応付けを行うように
した。その情報として、本願出願人らの動画像処理装置
においては、各特徴点が入力画像の分析値を持っている
ので、画像特徴であるその分析値を利用するようにし
た。
【0027】したがって、本発明の動画像処理装置は、
連続的な動画像の各フレームより特徴点を抽出する画像
分析手段と、前記連続的な動画像の最初のフレームより
セグメントを抽出するセグメンテーション手段と、前記
各特徴点に奥行き情報を付与し各セグメントごとに3次
元モデル形状情報として記憶する形状記憶手段と、前記
各3次元モデルのフレーム間の動きを推定し、現フレー
ムの3次元モデルの特徴点を前記推定された動きに基づ
いて移動させ投影した特徴点と、次フレームの特徴点と
を、前記各特徴点について前記画像分析手段により抽出
された分析値に基づいて対応付ける動き推定対応探索手
段と、前記対応付けられた特徴点間の位置の差を求める
差算出手段と、前記各対応特徴点間の位置の差に基づい
て、前記形状記憶手段に記憶されている各セグメントの
3次元モデル形状情報を更新する更新手段とを有する。
【0028】好適には、前記動き推定対応探索手段は、
前記各3次元モデルのフレーム間の動きを推定し、現フ
レームの3次元モデルの特徴点pn を前記推定された動
きに基づいて移動させ投影した特徴点qm に対応する次
フレームの仮の特徴点をqm'とし、該仮の特徴点qm'の
近傍に存在する次フレームの特徴点qj (j =1〜J)
に対して、式10に示す量enjを定義する時、
【0029】
【数10】
【0030】仮の特徴点qm'に対して式10に示した量
enjの観測される確率P(enj|qn)が最大となる特
徴点qj を特徴点qm に対応する特徴点として対応関係
を求める。
【0031】また特定的には、前記動き推定対応探索手
段において、確率P(enj|qn )が最大となる特徴点
qj は、式11の評価関数を最小にする対応点を求める
ことにより得る。
【0032】
【数11】
【0033】また、本発明の動画像符号化装置は、連続
的な動画像を符号化する動画像符号化装置であって、前
記動画像処理装置と、前記動画像処理装置の前記セグメ
ンテーション手段により抽出された前記連続的な動画像
の最初のフレームの各セグメントと、前記動画像処理装
置の前記画像分析手段により分析された前記セグメント
の各特徴点の分析値とを、初期データとして符号化する
初期符号化手段と、前記動画像処理装置の動き推定対応
探索手段により推定された前記各セグメントの3次元モ
デルのフレーム間の動き推定値と、前記動画像処理装置
の前記差算出手段により算出された各特徴点間の位置の
差とを、前記連続的な動画像の各フレームごとに符号化
する符号化手段とを有する。
【0034】
【作用】本発明の動画像処理装置によれば、単に位置の
近い特徴点を仮の対応点とするのではなく、各特徴点の
画像特徴である分析値を用いて対応点を決定している。
したがって、間隔が同様であれば分析値が類似している
特徴点を対応点として選ぶことや、著しく分析値の異な
る特徴点を対応付けることを防ぐことができる。すなわ
ち、対応点として矛盾の無い特徴点を選ぶことができ
る。
【0035】また本発明の動画像符号化装置によれば、
前記本発明の動画像処理装置により精度よくそのセグメ
ントの動き推定値や特徴点の対応付けができるので、全
体の動き推定値の誤差が小さくなり、各特徴点のズレも
小さくなるため、高圧縮率で、ノイズが減り再現性のよ
い動画像の符号化が可能となる。
【0036】
【実施例】本発明の一実施例の動画像符号化装置につい
て、図1〜図3を参照して説明する。図1は、本発明の
一実施例の動画像符号化装置10の構成を示すブロック
図である。動画像符号化装置10は、画像分析部11、
初期設定部12、記憶部13、動き推定・対応探索部1
5、動き処理部16、投影部17、量子化部19、カル
マンフィルタ21、補正処理部22、および、符号化部
23より構成される。本実施例の動画像符号化装置10
は、VTRまたはビデオなどからの動画像系列から図示
せぬ連続シーケンス検出部により検出された連続した画
像データを入力され、その各画像データ系列を圧縮し、
伝送路50に送出する圧縮伝送装置である。
【0037】以下、各部の動作について説明する。画像
分析部11は、順次入力される各フレームの画像データ
を分析し、特徴点を抽出し、特徴点の位置と分析値を求
める。本実施例においては、入力画像データに対して、
異なる解像度スケールを持つ複数のフィルタで画像デー
タの分析を行い、エッジを構成する点を特徴点として検
出し、入力画像データを特徴画像データであるエッジの
画像データに変換し、そのエッジを構成する各点の位置
と分析値を抽出する。
【0038】また画像分析部11は、各連続シーケンス
の1フレーム目の入力画像データより、画像を合成する
ために必要なDC成分を抽出する。その1フレーム目の
画像データに対して得られた特徴点の位置と分析値は初
期設定部12と符号化部23に、DC成分は符号化部2
3に出力される。また、2フレーム目以降の画像データ
に対する特徴点の位置と分析値は動き推定・対応探索部
15と補正処理部22に出力される。
【0039】初期設定部12は、画像分析部11より入
力された1フレーム目の特徴画像データの特徴点の位置
と分析値より、セグメンテーションを行い、この画像デ
ータを構成しているセグメントを抽出し、各セグメント
毎の特徴点の情報を記憶部13に記憶する。このセグメ
ンテーションは、カラー画像から赤・緑・青・明度・色
相・彩度の信号、および、テレビ信号に対応したY信
号、I信号、Q信号の合計9種類の特徴を抽出し、その
特徴に関するヒストグラムに基づいてセグメンテーショ
ンを行う再帰的しきい値処理により行う。
【0040】記憶部13は、各セグメントの各特徴点に
ついて、位置情報X,Y,Zと、分析値g、確率共分散
行列v、付加情報aを記憶する記憶手段であり、メモリ
により構成される。記憶部13に記憶されている情報
は、入力された連続シーケンスがS個のセグメントを有
し、各セグメントがUs 個(s=1〜S)のエッジより
構成され、その各エッジがNsu個(u=1〜Us 、s=
1〜S)の特徴点より構成される場合、式12のように
表される。
【0041】
【数12】
【0042】なお、確率共分散行列vsun (n=1〜N
su、u=1〜Us 、s=1〜S)は、各エッジを構成す
る点のちらばりであるので、同一のエッジを構成する各
特徴点については同一の値が付される。
【0043】記憶部13に記憶されている情報は、ま
ず、1フレーム目についての情報が初期設定部12より
入力され、初期データが生成される。その後、2フレー
ム目以降の画像データが入力されるごとに、後述するカ
ルマンフィルタ21、および、補正処理部22によりそ
の内容が更新される。
【0044】動き推定・対応探索部15は、前フレーム
の画像のエッジ画像の各点の情報{Fsun }と現フレー
ムのエッジ位置と分析値から、セグメントの動いた量を
推定し、前フレームの各点の情報{Fsun }と、現フレ
ームのエッジ画像の特徴点の対応付けを行う。その方法
は、基本的には前述した従来の方法と同様である。しか
し、従来の式8を反復して計算する方法においては、仮
想の対応点を画像面において単に近い点としているた
め、誤対応が生じる可能性がある。そこで、本実施例に
おいてはこのような誤対応を減らすために、各特徴点に
対して求められた分析値を画像特徴として用い、最尤推
定法により対応点を決定する。
【0045】その仮想の対応点の求め方を説明する。特
徴点psun の仮想の対応点qsun'について、点qsun'の
近傍に存在する特徴点qj (j =1〜J)に対して、式
13に示す量esunjを定義する。
【0046】
【数13】
【0047】そして、点psun の対応点として、その投
影点qsun'に対して式13に示した量esunjの観測され
る確率P(esunj|qsun')が最大となるqj を仮想の
対応点として選択する。確率P(esunj|qsun')をガ
ウス分布、Δqsunj、Δgsunjの各成分はすべて独立と
する。Δqsunj、Δgsunjの平均は0として良い。Δq
sunj、Δgsunjの分散については、式8により得られた
対応関係においては、誤対応は含まれているが、正し
い、あるいは、わずかにずれているといった対応が十分
多いと考えられるので、その対応関係における分散を近
似的にΔqsunj、Δgsunjの分散と見なすことができ
る。
【0048】Δqsunj=(Δxsunj,Δysunj)、Δg
sunjは2次元量でΔgsunj=(Δg1sunj,Δg2sun
j)としてΔxsunj、Δysunj、Δg1sunj、Δg2sun
jの分散をδ1、δ2、δ3、δ4とすると確率P(es
unj|qsun')の指数部分は式14で与えられる。
【0049】
【数14】
【0050】したがって、確率P(esunj|qsun')を
最大にすることは、式15に示す評価関数Eを最小にす
ることになる。
【0051】
【数15】
【0052】式15は、投影点と画像上の点とのずれ
と、画像特徴量の差を考慮した評価関数になっている。
したがって、点psun の仮想の投影点qsun'の近傍にあ
るいくつかの対応候補点qj のすべてについて式15を
計算し最小値をとるqj を対応点とすると、エッジの間
隔が狭い部分でも誤対応が生じにくい。
【0053】この方法に基づく動き推定・対応探索部1
5の処理の流れについて図2を参照して説明する。図2
は、各フレームにおいて画像分析部11において特徴点
が抽出され、動き推定・対応探索部15において各セグ
メントの動きと特徴点の対応が得られるまでの処理を示
す流れ図である。
【0054】まず、動き推定・対応探索部15には、入
力された各フレームの画像を(ステップS61)画像分
析部11で分析し、特徴点を抽出したエッジ画像が入力
される(ステップS62)。初期値の設定を行ったあと
(ステップS65)、運動パラメータCk に基づく投影
像Ipを作成する(ステップS64)。次に仮想の対応
点を求めるが、最初は(ステップS65)、従来と同様
に、3次元位置情報の仮想の投影像Ipにおいて物体像
Irの投影特徴点qmから最も近い点を、点pmの式2
による仮想の投影点qm’に対応する画像上の点と仮定
する(ステップS68)。
【0055】また、2回目以降は(ステップS65)、
前回の対応関係による位置および特徴の差Δqsunj、Δ
gsunjの各成分の分散を計算する(ステップS66)。
この各分散を用いて、式15の評価関数Eを最小にする
点を入力画像の各特徴点について求める(ステップS6
7)。ステップS66、または、ステップS67により
求められた対応関係において、式6における行列Aと移
動量Δqを計算する(ステップS69)。計算された行
列Aと移動量Δqに基づいてΔCk を求める(ステップ
S70)。式9により運動パラメータCk を更新する
(ステップS71)。この処理を、Σ|Δqsun |2
予め定めた所定値ε以下になるまで繰り返す(ステップ
S72)。これにより、適切な運動パラメータと各特徴
点の対応関係が得られる。
【0056】以上述べたような動き推定・対応探索の方
法によれば、物体を剛体と仮定し、回転および平行移動
についての6個のパラメータで3次元位置情報を構成す
る点を拘束することで、個々の点それぞれ独立にではな
く、包括的に動き推定・対応探索が行われている。した
がって、全体として矛盾のない対応関係が全ての点につ
いて得られ、誤対応による3次元位置情報におけるノイ
ズが減る。
【0057】動き処理部16は、動き推定・対応探索部
15により得られた、各セグメントの平行移動量t、回
転移動量ω、によって各セグメントの情報{Fsun }の
位置情報を、3次元空間において平行および回転移動さ
せる。
【0058】投影部17は、各セグメントの各点の3次
元位置psun =(Xsun ,Ysun ,Zsun )を画像上の
位置qsun =(xsun ,ysun )に変換し、得られた画
像上の点qsun に分析値gsun を与える。3次元位置p
sun から投影点qsun への変換は式3により行う。
【0059】加算部18で、投影後の各特徴点の情報
{Fsun }の画像上での位置qsun'と対応する入力画像
のエッジ位置qsun との差を求める。
【0060】量子化部19は、前記加算部18により求
められた差を量子化し、フラクチュエーションを求め
る。量子化方法としては、一定の適切な量子化ステップ
(たとえば1画素幅)による線形な量子化、いくつかの
線形でない量子化ステップを設定した非線形量子化、量
子化ステップを固定せず、入力される画像の性質により
量子化ステップを適宜変える量子化などがあり、要求さ
れる伝送レート、画質に応じて、適切な量子化方法を用
いれば良い。たとえば、高圧縮率が要求される場合に
は、量子化ステップを大きくしたり、画像に直線が多く
量子化ノイズによる直線の不連続性が目立つ場合は、非
線形量子化を行い、フラクチュエーションの小さい部分
の量子化を細かくするようにする。求められたフラクチ
ュエーションは、符号化部23およびカルマンフィルタ
21に入力される。なお、カルマンフィルタ21に入力
されるフラクチュエーションは、加算部20で再び投影
後の各特徴点の位置qsun'に対応づけられて入力され
る。
【0061】カルマンフィルタ21は、前の画像におけ
る各セグメントの各点の情報{Fsun }の3次元位置p
sun とそれに対応する入力画像のエッジ位置qsun から
3次元位置psun を更新する。カルマンフィルタはノイ
ズを含むシステムにおいて時系列の観測量から状態量の
最小自乗推定値を逐次得ることのできるフィルタであ
る。本実施例において、状態量は3次元位置psun 、観
測量である2次元位置qsun である。2次元位置qsun
にはΔqsun の量子化によるノイズが含まれる。また、
動き推定値にもノイズが含まれる。初期値の平面上の3
次元形状{psun}は、カルマンフィルタによりセグメ
ントに動きがあるごとに、実際の3次元形状に近づくよ
うに更新されていく。各点の情報{Fsun }における確
率共分散行列vsun はpsun の確率共分散行列(3×
3)でpsun を更新するのに用いられ、同時に確率共分
散行列vsun も更新される。
【0062】補正処理部22は、エッジを追跡する際
に、記憶されている前のフレームの画像に存在したエッ
ジが現在のフレームの画像に存在しなかったり(消
失)、逆に現在のフレームの画像に存在するエッジが、
記憶されている前のフレームの画像に存在しなかったり
(出現)した場合に、そのような、消失したエッジや、
新たに出現したエッジなどに対する処理を行う。補正処
理部22においては、まず、エッジの消失を検出し処理
し、次に出現したエッジを検出し処理する。出現したエ
ッジの処理としては、まず、既存のエッジに加えること
が可能か否かをチェックし、次に新しいセグメントを構
成するエッジか否か、未知のエッジとして保留しておく
否かをチェックする。
【0063】以下、各処理方法について説明する。ま
ず、消失した点は、すぐに記憶部13から削除せず、消
失したという印を付加情報として付加した上で保存す
る。保存する際、消失した部分が属していたセグメント
の動き推定値に基づいて3次元位置psun を移動させ
る。確率共分散行列vsun 、分析値gsun 、および、属
するセグメントはそのままにしておく。
【0064】出現については、まず、入力画像における
エッジで記憶中の点と対応のなかった点を抜き出し、そ
れを出現エッジとする。出現エッジは連結性を調べて連
結した開曲線または閉曲線となる点の集合に分ける。次
に、過去に消失したエッジで再び出現したものが有るか
否かを調べる。記憶部13に記憶されている消失したと
いう印のついた点を、過去に属していたセグメントの動
きにしたがって3次元位置を移動させ投影する。そし
て、消失したという印のついた点を投影した付近に、新
たに出現したエッジが存在すれば、消失したという印を
除いてその点を対応の取れた点として復活させる。復活
させた点の3次元位置psun 、確率共分散行列vsun
は、カルマンフィルタ21により更新されるようにす
る。このような処理により、一時的に消失した部分は適
切に処理される。
【0065】消失した点の再出現の処理後、残った出現
エッジのそれぞれの集合について、さらに、対応のとれ
たセグメントに属するエッジか否かを判断する。この判
断は、対象の出現エッジが、対応のとれている画像のエ
ッジと矛盾なく接続しているか否かを調べる。これは、
接続している位置で特徴点の分析値gsun が概ね連続に
なっていれば矛盾なく接続しているとする。既存のセグ
メントに追加される出現エッジには、奥行き値(Z成
分)として対応があった入力画像のエッジと接続してい
る部分の奥行き値を与え、X、Y成分として、そのZ成
分の値に基づいて式2より求めた値を与える。また、分
析値は出現エッジの集合を構成する点の画像分析結果を
そのまま与える。
【0066】そして、消失エッジとの対応付け、およ
び、既存セグメントへの追加のいずれにもあてはまら
ず、いずれのセグメントにも属していないと判断された
出現エッジは未知セグメントとする旨の印を付加情報と
して付加し、記憶部13に記憶しておく。そして、前述
した処理により、セグメントが未知という印を付けられ
ている特徴点は、次のように処理する。セグメントがS
個あるとする。各セグメントについて動き推定・対応探
索部15で動き推定値が求められているが、セグメント
未知の点が仮にセグメントs(s=1〜S)に属すると
し、3次元位置をセグメントsの動き推定値によって移
動させてみる。移動させる前のセグメント未知の特徴点
の3次元位置は、セグメントsの重心のZ成分、あるい
は、前の入力画像のエッジにおいて対応点が最も近くに
あったセグメントsに属する点のZ成分などを奥行き値
とし、初期設定部12と同様にして与える。セグメント
未知の点を移動後、投影した時、その近傍に対応する出
現エッジが存在するか否か探す。このような操作をS個
のセグメント全てに対して行い、その結果セグメント未
知の点は、最も良く対応する出現エッジがあったセグメ
ントに属するとする。
【0067】適切に対応するセグメントが存在しなかっ
た出現エッジに対しては、まず、画素数が所定の数より
少ないものはノイズと考えて無視する。無視できない出
現エッジは(S+1)番目の新セグメントとする。
【0068】符号化部23は、入力された動画像系列の
情報を符号化し、伝送路50に送出する。符号化部23
は、各連続画像シーケンスの1フレーム目の画像データ
については、画像分析部11より入力されたエッジ位置
{qn}、分析値、および、DC成分を符号化する。ま
た、2フレーム目以降の画像データについては、各セグ
メント毎に、動き推定・対応探索部15より出力される
動き推定値と、量子化部19より出力されるフラクチュ
エーション{Δqsun }を符号化し、出力する。なお、
全体的にフラクチュエーションが小さいセグメントにつ
いては画質に対する影響が少ないので、動き推定値のみ
を送る場合もある。
【0069】このように、動画像符号化装置10によれ
ば、各フレームごとのセグメントの動きを推定する段階
で、対応する特徴点を画像特徴も用いて最尤推定法によ
り統計的に求めており、適切に対応付けが可能である。
したがって、各特徴点のフラクチュエーションは十分小
さくすることができ、高圧縮率で符号化が可能となる。
【0070】なお、本発明は本実施例に限られるもので
はなく種々の改変が可能である。特に、本発明に係わる
動き推定・対応探索部15は次のような種々の方法で実
施してもよい。たとえば、動き推定・対応探索部15に
おいて、対応点の探索に用いる画像特徴として、画像分
析部11により分析された分析値を用いるものとした。
しかし、これは任意の画像特徴を用いてよい。たとえ
ば、輝度レベルや任意の次数の部分係数などの画像特徴
を用いてよい。
【0071】また、式14および式15では、Δqsunj
をx,y成分独立としたが、距離|Δqsunj|の1個と
し、esunj=(|Δqsunj| Δgsunj)としても良
い。また、Δgsunjは2次元量としたが、任意の画像特
徴を用いて任意の次元のベクトル量でよい。またスカラ
量でもよい。したがって、前記esunjが、位置のズレと
画像特徴の差による任意の個数の成分を有するとし、式
15を一般的に記述すると式16のようになり、式16
の評価関数を最小にするように対応点を求めればよい。
【0072】
【数16】
【0073】式14〜式16の評価関数における分散値
は正確である必要はなく、画像が時間的に変わって物体
像が移動したりしてもそれほど分散値は変化しない場合
もある。その場合には、予め定めた分散値を使ってもよ
い。また、評価関数Eにしきい値γを設定し、γより大
きい場合には対応点が無いと判断するようにすれば、エ
ッジが欠落していてその近くに画像特徴量が全く異なる
別のエッジが存在するときに誤対応させずに済む。
【0074】また、本実施例の動き推定・対応探索部1
5の動作においては、運動パラメータを求める段階の、
仮想の対応点を求める度に、画像特徴値を用いた式15
を最小にするような対応点を求める処理を行った。しか
し、誤対応が少なく、対応がある程度適切にとれている
状態においては、前記最尤推定法を1回行うだけでも有
効である。
【0075】そのような場合について図3を参照して説
明する。図3は、従来の方法によりセグメントの動きを
求め、対応関係を得る段階で最尤推定を行う処理の流れ
を示す図である。まず、前フレームおよび現フレームの
特徴点の位置からセグメントの動いた量を従来の方法と
同様い行う(ステップS73〜ステップS81)。そし
て、その結果得られた対応関係においてΔqsunj、Δg
sunjの各成分の分散を計算する(ステップS82)。前
記求められた分散に基づいて、式15を最小にする点を
検出する(ステップS83)。
【0076】そして、その点を対応点として仮想の投影
像を作り、再び前記行列Aと移動量Δqを求め(ステッ
プS84)、再び式8により運動パラメータΔCk を求
め(ステップS85)、式9により運動パラメータCを
更新する(ステップS86)。このように、もともと誤
対応が少ない画像においては、動きパラメータは適切に
算出できていると思われるので、最後に最尤推定により
対応点を決めることにより特徴点の誤対応を少なくする
ことができる。
【0077】
【発明の効果】本発明の動画像処理装置によれば、各特
徴点の画像特徴である分析値を用いて仮の特徴点を決定
しているので、エッジ間隔が狭い場合や、特徴点が欠落
していが場合においても、適切に特徴点の対応付けが行
え、動きの推定が行えるような動画像処理装置を提供す
ることができた。また本発明の動画像符号化装置によれ
ば、前記本発明の動画像処理装置により精度よくそのセ
グメントの動き推定値や特徴点の対応付けができるの
で、全体の動き推定値の誤差が小さくなり、各特徴点の
ズレも小さくなるため、高圧縮率で、ノイズが減り再現
性のよい動画像の符号化が可能となる。
【図面の簡単な説明】
【図1】本発明の一実施例の画像符号化装置の構成を示
すブロック図である。
【図2】図1に示した画像符号化装置の動き推定・対応
探索の方法を説明するフローチャートである。
【図3】図1に示した画像符号化装置の動き推定・対応
探索の他の方法を説明するフローチャートである。
【図4】図1に示した画像符号化装置の動き推定・対応
探索の方法を説明する図であり、3次元空間の点Pを望
む様子を示し座標系の説明をする図である。
【図5】図1に示した画像符号化装置の動き推定・対応
探索の方法を説明する図であり、仮想の投影像の説明を
する図である。
【図6】図6は、特徴点の誤対応の例を示す図であっ
て、(A)はエッジ間隔が狭いために生じる誤対応の例
を示す図、(B)は、特徴点の欠落による誤対応の例を
示す図である。
【符号の説明】
10…動画像符号化装置 11…画像分析部 12…初期設定部 13…記憶部 14…初期符号化
部 15…動き推定・対応探索部 16…動き処理部 17…投影部 18…加算部 19…量子化部 20…加算部 21…カルマンフィルタ 22…補正処理部 23…符号化部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H03M 7/36 9382−5K G06F 15/66 330 H

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】連続的な動画像の各フレームより特徴点を
    抽出する画像分析手段と、 前記連続的な動画像の最初のフレームよりセグメントを
    抽出するセグメンテーション手段と、 前記各特徴点に所定の奥行き情報を付与し各セグメント
    ごとに3次元モデル形状情報として記憶する形状記憶手
    段と、 前記各3次元モデルのフレーム間の動きを推定し、現フ
    レームの3次元モデルの特徴点を前記推定された動きに
    基づいて移動させ投影した特徴点と、次フレームの特徴
    点とを対応付ける動き推定対応探索手段と、 前記対応付けられた特徴点間の位置の差を求める差算出
    手段と、 前記各対応特徴点間の位置の差に基づいて、前記形状記
    憶手段に記憶されている各セグメントの3次元モデル形
    状情報を更新する更新手段とを有し、前記逐次更新され
    る3次元モデル形状情報に基づいて入力された連続的な
    動画像を分析して得られた特徴点の各フレーム間の移動
    を追跡する動画像処理装置であって、 前記動き推定対応探索手段は、前記現フレームの3次元
    モデルの特徴点を前記推定された動きに基づいて移動さ
    せ投影した特徴点と次フレームの特徴点との対応付け
    を、当該各特徴点について前記画像分析手段により抽出
    された分析値に基づいて行う動画像処理装置。
  2. 【請求項2】前記動き推定対応探索手段は、 前記各3次元モデルのフレーム間の動きを推定し、 現フレームの3次元モデルの特徴点pn を前記推定され
    た動きに基づいて移動させ投影した特徴点qm に対応す
    る次フレームの仮の特徴点をqm'とし、該仮の特徴点q
    m'の近傍に存在する次フレームの特徴点qj (j =1〜
    J)に対して、式1に示す量enjを定義する時、 【数1】 仮の特徴点qm'に対して式1に示した量enjの観測され
    る確率P(enj|qn )が最大となる特徴点qj を特徴
    点qm に対応する特徴点として対応関係を求める請求項
    1記載の動画像処理装置。
  3. 【請求項3】確率P(enj|qn )が最大となる特徴点
    qj は、式2の評価関数を最小にする対応点を求めるこ
    とにより得る請求項2記載の動画像処理装置。 【数2】
  4. 【請求項4】連続的な動画像を符号化する動画像符号化
    装置であって、 前記請求項1〜3いずれか記載の動画像処理装置と、 前記動画像処理装置の前記セグメンテーション手段によ
    り抽出された前記連続的な動画像の最初のフレームの各
    セグメントと、前記動画像処理装置の前記画像分析手段
    により分析された前記セグメントの各特徴点の分析値と
    を、初期データとして符号化する初期符号化手段と、 前記動画像処理装置の動き推定対応探索手段により推定
    された前記各セグメントの3次元モデルのフレーム間の
    動き推定値と、前記動画像処理装置の前記差算出手段に
    より算出された各特徴点間の位置の差とを、前記連続的
    な動画像の各フレームごとに符号化する符号化手段とを
    有する動画像符号化装置。
JP28565694A 1994-11-18 1994-11-18 動画像処理装置および動画像符号化装置 Pending JPH08149459A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28565694A JPH08149459A (ja) 1994-11-18 1994-11-18 動画像処理装置および動画像符号化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28565694A JPH08149459A (ja) 1994-11-18 1994-11-18 動画像処理装置および動画像符号化装置

Publications (1)

Publication Number Publication Date
JPH08149459A true JPH08149459A (ja) 1996-06-07

Family

ID=17694364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28565694A Pending JPH08149459A (ja) 1994-11-18 1994-11-18 動画像処理装置および動画像符号化装置

Country Status (1)

Country Link
JP (1) JPH08149459A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009102013A1 (ja) * 2008-02-14 2009-08-20 Nec Corporation 移動ベクトル検出装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009102013A1 (ja) * 2008-02-14 2009-08-20 Nec Corporation 移動ベクトル検出装置
JP4471039B2 (ja) * 2008-02-14 2010-06-02 日本電気株式会社 移動ベクトル検出装置
JPWO2009102013A1 (ja) * 2008-02-14 2011-06-16 日本電気株式会社 移動ベクトル検出装置
US8681870B2 (en) 2008-02-14 2014-03-25 Nec Corporation Motion vector detection device

Similar Documents

Publication Publication Date Title
KR102402494B1 (ko) 지오메트리 정보의 모션 보상
JP2576771B2 (ja) 動き補償予測装置
US7489812B2 (en) Conversion and encoding techniques
JP3207461B2 (ja) 3次元対象物のトラッキング方法及び装置
KR100879324B1 (ko) 영상정보 압축 방법 및 이를 기록한 컴퓨터로 읽을 수 있는 기록매체
US7324687B2 (en) Color segmentation-based stereo 3D reconstruction system and process
US20210295566A1 (en) Projection-based mesh compression
CN109257604A (zh) 一种基于tmc3点云编码器的颜色属性编码方法
KR20090052889A (ko) 이미지들로부터 깊이 맵을 결정하기 위한 방법 및 깊이 맵을 결정하기 위한 디바이스
KR20000064847A (ko) 이미지 분할 및 대상 트랙킹 방법, 및 대응 시스템
US11030478B1 (en) System and method for correspondence map determination
AP504A (en) Computer compression of video images.
KR20040068291A (ko) 이미지 시퀀스에서의 우세한 모션을 추정하는 방법
CN113628334A (zh) 视觉slam方法、装置、终端设备及存储介质
CN111402429B (zh) 一种尺度还原、三维重建方法、***、存储介质及设备
JP2003203237A (ja) 画像マッチング方法と装置、および画像符号化方法と装置
JPH08149458A (ja) 動画像処理装置
JP3663645B2 (ja) 動画像処理装置とその方法
JPH08149459A (ja) 動画像処理装置および動画像符号化装置
CN1669053B (zh) 为图像序列建立深度图的方法
JPH08149460A (ja) 動画像処理装置、動画像符号化装置および動画像復号化装置
CN114399532A (zh) 一种相机位姿确定方法和装置
JPH08161505A (ja) 動画像処理装置、動画像符号化装置および動画像復号装置
KR101817137B1 (ko) 블록 평균을 통한 깊이 영상의 부호화 방법 및 부호화 장치
Pugeault et al. Grouping over stereo for visual cues disambiguation