JPH08149458A - 動画像処理装置 - Google Patents

動画像処理装置

Info

Publication number
JPH08149458A
JPH08149458A JP28565594A JP28565594A JPH08149458A JP H08149458 A JPH08149458 A JP H08149458A JP 28565594 A JP28565594 A JP 28565594A JP 28565594 A JP28565594 A JP 28565594A JP H08149458 A JPH08149458 A JP H08149458A
Authority
JP
Japan
Prior art keywords
segment
frame
dimensional model
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28565594A
Other languages
English (en)
Inventor
Katsuyuki Tanaka
勝之 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28565594A priority Critical patent/JPH08149458A/ja
Publication of JPH08149458A publication Critical patent/JPH08149458A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】動画像を高圧縮率で符号化する動画像処理装
置、および、その符号化された動画像を復号し合成する
動画像処理装置を提供する。 【構成】一連の動画像の各フレームを画像分析部11で
分析し特徴点を抽出する。1フレーム目の画像より初期
設定部12でセグメントを抽出し、奥行き情報を付加し
3次元モデルとして記憶部13に記憶する。動き推定・
対応探索部15において各3次元モデルのフレーム間の
動きと各特徴点の対応付けを行う。その動き推定値によ
り各3次元モデルを移動させた投影像と、実際の画像の
各特徴点のズレを求め、そのズレに基づいてカルマンフ
ィルタ21で前記各3次元モデルの3次元形状情報を更
新する。1フレーム目の画像については各セグメントの
情報と各特徴点の分析値を符号化し、2フレーム目以降
の画像については、各セグメントの3次元モデルのフレ
ーム間の動きと各特徴点のズレを符号化する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像を分析して得られ
た特徴点の各フレーム間の移動を検出し、その移動を効
率よく符号化することにより連続的な動画像を符号化す
る動画像処理装置、および、その符号化された動画像系
列を復号化する動画像処理装置に関する。
【0002】
【従来の技術】画像を分析しエッジを検出し、エッジの
位置とエッジを構成する各点の分析値とDC成分を抽出
しておけば、それ以外の画像を用いることなく元の画像
を合成できる。このときの情報量は元の画像の全画素に
対する情報量より少なくすることが可能で情報圧縮が可
能となる。動画像の場合、この方法により最初の1フレ
ーム目を圧縮をし、2フレーム目以降においては1フレ
ーム目のエッジを構成する各点がどの位置に移動したか
を追跡し、1フレーム目で求めた各点の分析値を追跡後
の各点に移すようにすることで、各フレームごとに分析
値を求めなくとも画像を合成できる。したがって、最初
のフレームのエッジを構成する各点の位置と分析値、フ
レーム間での各点の移動量および各フレームごとのDC
成分を情報とすることで動画像圧縮が可能である。
【0003】より高圧縮率で動画像を符号化する方法と
して、動画像を構成する各物体の3次元モデルを使って
動画像を符号化する方法が提案されている。各物体の3
次元形状とその動きが分かれば、元の動画像と全く同じ
動画像が生成できる。そのような、動画像系列の中から
3次元形状モデルを抽出し、そのモデルを利用して連続
的な動画像を符号化する方法としては、Hans George Mu
smann 、Michael Hotter、Jorn Ostermannらによる「OB
JECT-ORIENTED analysis coding of moving images.」
〔Signal processing:Image Communication 1(1989):11
7-138,Elsvier SCIENCE PUBLISHERS B.V. 〕に開示され
ている方法がある。この方法によれば、エッジ部分につ
いて動きベクトルを求めそれを利用して奥行きを求め、
エッジ以外の部分については奥行きを補間して、3次元
形状を推測する。また、輝度情報は、3次元上に属性と
してマッピングし、補間された3次元形状のデータと共
に伝送を行っている。
【0004】
【発明が解決しようとする課題】しかし、前述したエッ
ジを構成する各点の移動量を符号化する方法において
は、各フレームのエッジを構成する各点の2次元的な移
動量の分布が広範になるため、符号化の効率を上げるこ
とができず、十分な圧縮率が得られなかった。
【0005】また、前述した3次元モデルを使って動画
像を符号化する方法においては、輝度が急変するエッジ
部分さえ動きベクトルを求めることは難しく、動きベク
トルから正確な奥行きを推測することは非常に難しい。
したがって、エッジ部分の奥行きを補間して3次元形状
を推測しても、正確な3次元形状が求められなかった。
そのため、実際の形状とのずれがあるため余分な情報が
増加して圧縮率が上げられなかった。さらに、3次元上
に属性としてマッピングした輝度情報を初期情報とし伝
送するので初期情報量が多いという問題もあった。
【0006】したがって、本発明の目的は、より高い圧
縮率で連続的な動画像を符号化可能な動画像処理装置
と、その符号化された動画像を復号化する動画像処理装
置を提供することにある。
【0007】
【課題を解決するための手段】前記課題を解決するため
に、動画像を分析して得られたエッジを1つの動きで表
せるカテゴリに分け、各カテゴリについてその動きを推
定し、前記動き推定値に基づいて移動させた前記各カテ
ゴリに属するエッジの特徴点の位置と、その特徴点の実
際の位置との差を各特徴点について求め、前記各カテゴ
リごとの動き推定値と前記各特徴点の位置の差を、フレ
ーム間の各特徴点の移動の情報とするようにした。ま
た、各フレーム間の前記各カテゴリに属するエッジの動
きよりそのカテゴリの3次元位置情報を獲得するように
し、その3次元位置情報を用いて前記動きの推定を行う
ようにした。
【0008】したがって、本発明の連続的な動画像を符
号化する動画像処理装置は、連続的な動画像の各フレー
ムより特徴点を抽出する画像分析手段と、前記連続的な
動画像の最初のフレームよりセグメントを抽出するセグ
メンテーション手段と、前記画像分析手段により抽出さ
れた特徴点に基づいて、前記セグメンテーション手段に
より抽出された各セグメントごとの3次元モデル形状情
報を記憶する形状記憶手段と、前記形状記憶手段に記憶
されている各3次元モデルのフレーム間の動きを推定
し、各フレームの3次元モデルの特徴点を前記推定され
た動きに基づいて移動させ投影した特徴点と、当該フレ
ームの次フレームの特徴点とを対応付ける動き推定対応
探索手段と、前記対応付けられた各特徴点間の位置の差
を求める差算出手段と、前記各特徴点間の位置の差に基
づいて、前記形状記憶手段に記憶されている各3次元モ
デル形状情報を更新する更新手段と、前記セグメンテー
ション手段により抽出された前記連続的な動画像の最初
のフレームの各セグメントと、前記画像分析手段により
分析された各セグメントの各特徴点の分析値とを、初期
データとして符号化する初期符号化手段と、前記動き推
定対応探索手段により各フレームごとに得られた前記各
セグメントの3次元モデルのフレーム間の動き推定値
と、前記差算出手段により算出された各特徴点間の位置
の差とを、符号化する符号化手段とを有する。
【0009】また、本発明の符号化された連続的な動画
像を復号化する動画像処理装置は、符号化された初期デ
ータより、連続的な動画像の最初のフレームを構成する
各セグメントの特徴点と、該各特徴点の分析値とを復号
化する初期復号化手段と、前記初期復号化手段により復
号化された各セグメントごとの特徴点に基づいて、各セ
グメントごとの3次元モデル形状情報として記憶する形
状記憶手段と、符号化された各フレームごとのデータよ
り、各セグメントの3次元モデルのフレーム間の動き推
定値と、前記動き推定値に基づいて3次元モデルを移動
させた投影像の特徴点の位置と当該フレームの次フレー
ムの対応する特徴点の位置との差とを復号化する復号化
手段と、前記対応する特徴点の位置の差に基づいて、前
記形状記憶手段に記憶されている各セグメントごとの3
次元モデルの形状情報を更新する更新手段と、前記形状
記憶手段に記憶されている各セグメントの3次元モデル
形状情報に基づいて、各フレームごとの画像を合成する
画像合成手段とを有する。
【0010】好適には、前記形状記憶手段は、当該各特
徴点に所定の奥行き情報を付与し、各セグメントを平板
状の3次元モデルとした3次元モデル形状情報を初期デ
ータとして記憶する。また好適には、前記更新手段は、
各セグメントの3次元モデルのフレーム間の動き推定値
に基づいて3次元モデルを移動させた投影像の特徴点の
位置を状態量、当該フレームの次フレームの対応する特
徴点の実際の位置を観測量、対応する各特徴点間の誤差
をノイズとした時にカルマンフィルタにより前記状態量
の最小自乗推定値を得ることにより該状態量を更新す
る。
【0011】
【作用】本発明の連続的な動画像を符号化する動画像符
号化装置においては、動画像系列の1フレーム目の各セ
グメントの2次元形状情報に、所定の奥行き方向の情報
を付加して3次元モデルの初期値とし、その3次元モデ
ルの動きを推定し、その推定に基づいて得られる画像と
入力される各フレームの画像の各特徴点の位置を比較
し、その3次元モデルの全体的な動きと各特徴点のズレ
を抽出し、その3次元モデルの全体の動き(動き推定
値)、および、各特徴点のズレに基づいて、順次前記3
次元モデルを更新しながら、それを各フレームの特徴点
の移動の情報としている。したがって、各特徴点の移動
に関する情報の分布が局在化し、符号化の効率が上昇す
る。
【0012】また、本発明の符号化された連続的な動画
像を復号化する動画像処理装置においては、符号化され
た1フレーム目の各セグメントの2次元形状情報に所定
の奥行き方向の情報を付加して3次元モデル形状情報と
して記憶し、符号化された各フレームごとの前記3次元
モデルの動きと、該3次元モデルを構成する各特徴点の
ズレに基づいて順次前記3次元モデルを更新し、該更新
された3次元モデルの情報に基づいて各フレームの画像
を合成している。したがって、高圧縮率で符号化された
各セグメントの移動の情報と各特徴点のズレの情報より
元の動画像が忠実に復号することが可能となり、前記連
続的な動画像を符号化する動画像処理装置と協働するこ
とができる。
【0013】
【実施例】本発明の一実施例の動画像符号化装置につい
て、図1〜図4を参照して説明する。図1は、本発明の
一実施例の動画像符号化装置10の構成を示すブロック
図である。動画像符号化装置10は、画像分析部11、
初期設定部12、記憶部13、動き推定・対応探索部1
5、動き処理部16、投影部17、量子化部19、カル
マンフィルタ21、補正処理部22、および、符号化部
23より構成される。本実施例の動画像符号化装置10
は、VTRまたはビデオなどからの動画像系列から図示
せぬ連続シーケンス検出部により検出された連続した画
像データを入力され、その各画像データ系列を圧縮し、
伝送路50に送出する圧縮伝送装置である。また、この
動画像符号化装置10は、後述する動画像復号化装置3
0と協働して画像処理系を構成する。
【0014】以下、各部の動作について説明する。画像
分析部11は、順次入力される各フレームの画像データ
を分析し、特徴点を抽出し、特徴点の位置と分析値を求
める。本実施例においては、入力画像データに対して、
異なる解像度スケールを持つ複数のフィルタで画像デー
タの分析を行い、エッジを構成する点を特徴点として検
出し、入力画像データを特徴画像データであるエッジの
画像データに変換し、そのエッジを構成する各点の位置
と分析値を抽出する。
【0015】また画像分析部11は、各連続シーケンス
の1フレーム目の入力画像データより、画像を合成する
ために必要なDC成分を抽出する。その1フレーム目の
画像データに対して得られた特徴点の位置と分析値は初
期設定部12と符号化部23に、DC成分は符号化部2
3に出力される。また、2フレーム目以降の画像データ
に対する特徴点の位置と分析値は動き推定・対応探索部
15と補正処理部22に出力される。
【0016】初期設定部12は、画像分析部11より入
力された1フレーム目の特徴画像データの特徴点の位置
と分析値より、セグメンテーションを行い、この画像デ
ータを構成しているセグメントを抽出し、各セグメント
毎の特徴点の情報を記憶部13に記憶する。このセグメ
ンテーションは、カラー画像から赤・緑・青・明度・色
相・彩度の信号、および、テレビ信号に対応したY信
号、I信号、Q信号の合計9種類の特徴を抽出し、その
特徴に関するヒストグラムに基づいてセグメンテーショ
ンを行う再帰的しきい値処理により行う。
【0017】記憶部13は、各セグメントの各特徴点に
ついて、位置情報X,Y,Zと、分析値g、確率共分散
行列v、付加情報aを記憶する記憶手段であり、メモリ
により構成される。記憶部13に記憶されている情報
は、入力された連続シーケンスがS個のセグメントを有
し、各セグメントがUs 個(s=1〜S)のエッジより
構成され、その各エッジがNsu個(u=1〜Us 、s=
1〜S)の特徴点より構成される場合、式1のように表
される。
【0018】
【数1】
【0019】なお、確率共分散行列vsun (n=1〜N
su、u=1〜Us 、s=1〜S)は、各エッジを構成す
る点のちらばりであるので、同一のエッジを構成する各
特徴点については同一の値が付される。
【0020】記憶部13に記憶されている情報は、ま
ず、1フレーム目についての情報が初期設定部12より
入力され、初期データが生成される。その後、2フレー
ム目以降の画像データが入力されるごとに、後述するカ
ルマンフィルタ21、および、補正処理部22によりそ
の内容が更新される。
【0021】動き推定・対応探索部15は、前フレーム
の画像のエッジ画像の各点の情報{Fsun }と現フレー
ムのエッジ位置と分析値から、セグメントの動いた量を
推定し、前フレームの各点の情報{Fsun }と、現フレ
ームのエッジ画像の特徴点の対応付けを行う。その方法
について具体的に以下に説明する。まず、図2におい
て、座標系XYZはカメラ座標系で、座標系の原点はレ
ンズの中心で、光軸は奥行き方向となるZ軸と一致させ
ているものとする。このような座標系におていは、点P
の像はXY平面に平行で原点からカメラの焦点距離fだ
け離れた所に設置された平面に投影されると考えること
ができる。この投影面上の点Pの像の位置がカメラより
入力された画像上の画素の位置となる。その投影面に対
して、その面のZ軸との交点を原点とし、X軸およびY
軸と平行な座標系xyを設定する。
【0022】XYZ空間内の点Pの座標をp=(Xp ,
Yp ,Zp )、点Pのxy平面上の像である点Qの座標
をq=(xq ,yq )とすると、点Qの座標qは式2の
ように表される。
【0023】
【数2】
【0024】あるセグメントs(s=1〜S)がUs 個
(s=1〜S)のエッジより構成され、その各エッジが
Nsu個(u=1〜Us,s=1〜S)の点の情報で表さ
れ、それら各点の位置はpsun =(Xsun ,Ysun ,Z
sun )(n=1〜Nsu)で表されるとする。このセグメ
ントが、相対的にX軸周りにΔωx、Y軸周りにΔω
y、Z軸周りにΔωz回転し、また、Δt=(Δtx,
Δty,Δtz)だけ平行移動した場合、このセグメン
トを構成する各点psun の移動量Δpsun =(ΔXsun
,ΔYsun ,ΔZsun )は、前記各軸周りの回転Δω
x,Δωy,Δωz、および,平行移動量Δtが小さい
とすると、式3のようになる。
【0025】
【数3】
【0026】点psun のxy平面上への投影点をqsun
=(xsun ,ysun )とすると、前記セグメントの移動
にともなう投影点qsun の移動量Δqsun =(Δxsun
,Δysun )は式4のようになる。
【0027】
【数4】
【0028】式2と式4より式5が得られる。
【0029】
【数5】
【0030】式2および式5を、N個の点の内のm=1
〜MのM個に適用すると、式6のようになる。
【0031】
【数6】
【0032】なお、Δtt は行列Δtの転置行列を示
す。Δqについては、新たな画像が入力される前に得て
いた3次元位置pmの式2による仮想の投影点qm’に
対応する画像上の点が分からないので、図3に示すよう
に、3次元位置情報の仮想の投影像Ipにおいて物体像
Irの投影特徴点qmから最も近い点と仮定する。M≧
3のとき回転および平行移動量のパラメータΔCの推定
値ΔC’は、最小自乗法により式7により求められる。
【0033】
【数7】
【0034】式7により得られたΔC’による3次元位
置情報の移動量Δqsun を式2より計算して、新たに式
3により仮想の投影像を作り、同様に近い点を対応点と
仮定し、式7の計算を繰り返し、式8のようにしていく
と、仮想の投影像と物体像Irは近づく。
【0035】
【数8】
【0036】この計算を、Σ|Δqsun |2 が予め定め
た所定値ε以下になるまで繰り返すことにより、元の画
像の3次元位置情報psun に対する新たな画像の対応点
qsun が求められる。
【0037】以上述べたような動き推定・対応探索の方
法によれば、物体を剛体と仮定し、回転および平行移動
についての6個のパラメータで3次元位置情報を構成す
る点を拘束することで、個々の点それぞれ独立にではな
く、包括的に動き推定・対応探索が行われている。した
がって、全体として矛盾のない対応関係が全ての点につ
いて得られ、誤対応による3次元位置情報におけるノイ
ズが減る。
【0038】動き処理部16は、動き推定・対応探索部
15により得られた、各セグメントの平行移動量t、回
転移動量ω、によって各セグメントの情報{Fsun }の
位置情報を、3次元空間において平行および回転移動さ
せる。
【0039】投影部17は、各セグメントの各点の3次
元位置psun =(Xsun ,Ysun ,Zsun )を画像上の
位置qsun =(xsun ,ysun )に変換し、得られた画
像上の点qsun に分析値gsun を与える。3次元位置p
sun から投影点qsun への変換は式3により行う。
【0040】加算部18で、投影後の各特徴点の情報
{Fsun }の画像上での位置qsun'と対応する入力画像
のエッジ位置qsun との差を求める。
【0041】量子化部19は、前記加算部18により求
められた差を量子化し、フラクチュエーションを求め
る。量子化方法としては、一定の適切な量子化ステップ
(たとえば1画素幅)による線形な量子化、いくつかの
線形でない量子化ステップを設定した非線形量子化、量
子化ステップを固定せず、入力される画像の性質により
量子化ステップを適宜変える量子化などがあり、要求さ
れる伝送レート、画質に応じて、適切な量子化方法を用
いれば良い。たとえば、高圧縮率が要求される場合に
は、量子化ステップを大きくしたり、画像に直線が多く
量子化ノイズによる直線の不連続性が目立つ場合は、非
線形量子化を行い、フラクチュエーションの小さい部分
の量子化を細かくするようにする。求められたフラクチ
ュエーションは、符号化部23およびカルマンフィルタ
21に入力される。なお、カルマンフィルタ21に入力
されるフラクチュエーションは、加算部20で再び投影
後の各特徴点の位置qsun'に対応づけられて入力され
る。
【0042】カルマンフィルタ21は、前の画像におけ
る各セグメントの各点の情報{Fsun }の3次元位置p
sun とそれに対応する入力画像のエッジ位置qsun から
3次元位置psun を更新する。カルマンフィルタはノイ
ズを含むシステムにおいて時系列の観測量から状態量の
最小自乗推定値を逐次得ることのできるフィルタであ
る。本実施例において、状態量は3次元位置psun 、観
測量である2次元位置qsun である。2次元位置qsun
にはΔqsun の量子化によるノイズが含まれる。また、
動き推定値にもノイズが含まれる。初期値の平面上の3
次元形状{psun}は、カルマンフィルタによりセグメ
ントに動きがあるごとに、実際の3次元形状に近づくよ
うに更新されていく。各点の情報{Fsun }における確
率共分散行列vsun はpsun の確率共分散行列(3×
3)でpsun を更新するのに用いられ、同時に確率共分
散行列vsun も更新される。
【0043】補正処理部22は、エッジを追跡する際
に、記憶されている前のフレームの画像に存在したエッ
ジが現在のフレームの画像に存在しなかったり(消
失)、逆に現在のフレームの画像に存在するエッジが、
記憶されている前のフレームの画像に存在しなかったり
(出現)した場合に、そのような、消失したエッジや、
新たに出現したエッジなどに対する処理を行う。補正処
理部22においては、まず、エッジの消失を検出し処理
し、次に出現したエッジを検出し処理する。出現したエ
ッジの処理としては、まず、既存のエッジに加えること
が可能か否かをチェックし、次に新しいセグメントを構
成するエッジか否か、未知のエッジとして保留しておく
否かをチェックする。
【0044】以下、各処理方法について説明する。ま
ず、消失した点は、すぐに記憶部13から削除せず、消
失したという印を付加情報として付加した上で保存す
る。保存する際、消失した部分が属していたセグメント
の動き推定値に基づいて3次元位置psun を移動させ
る。確率共分散行列vsun 、分析値gsun 、および、属
するセグメントはそのままにしておく。
【0045】出現については、まず、入力画像における
エッジで記憶中の点と対応のなかった点を抜き出し、そ
れを出現エッジとする。出現エッジは連結性を調べて連
結した開曲線または閉曲線となる点の集合に分ける。次
に、過去に消失したエッジで再び出現したものが有るか
否かを調べる。記憶部13に記憶されている消失したと
いう印のついた点を、過去に属していたセグメントの動
きにしたがって3次元位置を移動させ投影する。そし
て、消失したという印のついた点を投影した付近に、新
たに出現したエッジが存在すれば、消失したという印を
除いてその点を対応の取れた点として復活させる。復活
させた点の3次元位置psun 、確率共分散行列vsun
は、カルマンフィルタ21により更新されるようにす
る。このような処理により、一時的に消失した部分は適
切に処理される。
【0046】消失した点の再出現の処理後、残った出現
エッジのそれぞれの集合について、さらに、対応のとれ
たセグメントに属するエッジか否かを判断する。この判
断は、対象の出現エッジが、対応のとれている画像のエ
ッジと矛盾なく接続しているか否かを調べる。これは、
接続している位置で特徴点の分析値gsun が概ね連続に
なっていれば矛盾なく接続しているとする。既存のセグ
メントに追加される出現エッジには、奥行き値(Z成
分)として対応があった入力画像のエッジと接続してい
る部分の奥行き値を与え、X、Y成分として、そのZ成
分の値に基づいて式2より求めた値を与える。また、分
析値は出現エッジの集合を構成する点の画像分析結果を
そのまま与える。
【0047】そして、消失エッジとの対応付け、およ
び、既存セグメントへの追加のいずれにもあてはまら
ず、いずれのセグメントにも属していないと判断された
出現エッジは未知セグメントとする旨の印を付加情報と
して付加し、記憶部13に記憶しておく。そして、前述
した処理により、セグメントが未知という印を付けられ
ている特徴点は、次のように処理する。セグメントがS
個あるとする。各セグメントについて動き推定・対応探
索部15で動き推定値が求められているが、セグメント
未知の点が仮にセグメントs(s=1〜S)に属すると
し、3次元位置をセグメントsの動き推定値によって移
動させてみる。移動させる前のセグメント未知の特徴点
の3次元位置は、セグメントsの重心のZ成分、あるい
は、前の入力画像のエッジにおいて対応点が最も近くに
あったセグメントsに属する点のZ成分などを奥行き値
とし、初期設定部12と同様にして与える。セグメント
未知の点を移動後、投影した時、その近傍に対応する出
現エッジが存在するか否か探す。このような操作をS個
のセグメント全てに対して行い、その結果セグメント未
知の点は、最も良く対応する出現エッジがあったセグメ
ントに属するとする。
【0048】適切に対応するセグメントが存在しなかっ
た出現エッジに対しては、まず、画素数が所定の数より
少ないものはノイズと考えて無視する。無視できない出
現エッジは(S+1)番目の新セグメントとする。
【0049】符号化部23は、入力された動画像系列の
情報を符号化し、伝送路50に送出する。符号化部23
は、各連続画像シーケンスの1フレーム目の画像データ
については、画像分析部11より入力されたエッジ位置
qn、分析値、および、DC成分を符号化する。また、
2フレーム目以降の画像データについては、各セグメン
ト毎に、動き推定・対応探索部15より出力される動き
推定値と、量子化部19より出力されるフラクチュエー
ションΔqsun を符号化し出力する。
【0050】なお、2フレーム目以降の画像データの符
号化に際して、全体的にフラクチュエーションが小さい
セグメントについては画質に対する影響が少ないので、
動き推定値のみを送出するようにしてもよい。そのよう
な処理を行う符号化部について図4を参照して説明す
る。図4は符号化部23の当該構成部の構成を説明する
ブロック図である。量子化部19より入力された各セグ
メントごとのフラクチュエーションΔqsun は、演算部
231および記憶部232に入力される。演算部231
においては、入力された各フラクチュエーションの2乗
和Σ (|Δqsun |2)を算出する。また、記憶部232
に入力されたフラクチュエーションΔqsun は、各セグ
メントごとに記憶される。
【0051】比較部233においては演算部231によ
り算出されたフラクチュエーションの2乗和Σ (|Δq
sun |2)を予め定めた値εと比較する。そして、フラク
チュエーションの2乗和Σ (|Δqsun |2)が前記所定
値εより大きい場合に、フラクチュエーション符号化部
234に、符号化を行う旨の信号を出力する。フラクチ
ュエーションの2乗和Σ (|Δqsun |2)が前記所定値
ε以下の場合には、比較部233は前記信号を出力しな
い。なお、前記所定値εは再生時に要求される画質など
の条件により任意に設定される。動き推定値符号化器2
35は動き推定・対応探索部15より入力される各セグ
メントごとの動き推定値を符号化する。また、DC成分
符号化部236は、画像分析部11より入力されるDC
成分を符号化する。このように、図4に示したような構
成を含む符号化部においては、動き推定値とDC成分に
ついては各フレームごとに符号化を行うが、フラクチュ
エーションΔqsun については所定値より大きい変動が
あったのみ符号化を行う。したがって、圧縮率を上げる
ことができる。
【0052】このように、動画像符号化装置10によれ
ば、各フレームごとのセグメントの動きを推定する段階
で、対応する特徴点を画像特徴も用いて最尤推定法によ
り統計的に求めており、適切に対応付けが可能である。
したがって、各特徴点のフラクチュエーションは十分小
さくすることができ、高圧縮率で符号化が可能となる。
【0053】次に、本発明の一実施例の動画像復号化装
置について、図5を参照して説明する。図5は、本発明
の一実施例の動画像復号化装置30の構成を示すブロッ
ク図である。動画像復号化装置30は、初期復号化部3
4、初期設定部32、画像合成部31、記憶部33、補
正処理部42、動き処理部36、第2の投影部39、カ
ルマンフィルタ41、および、第1の投影部37より構
成される。本実施例の動画像復号化装置30は、伝送路
50より伝送された符号化された動画像系列を展開し、
画像合成部31より出力する動画像復号化装置である。
また、この動画像復号化装置30は、前述した動画像符
号化装置10と協働して画像処理系を構成する。
【0054】以下、各部の動作について説明する。復号
化部34は、伝送路50より伝送された信号を受信し、
復号化して各情報を取り出し、適宜各部に出力する受信
手段である。連続シーケンスの画像の1フレーム目のデ
ータについては、エッジ位置{qn}と、分析値、およ
び、DC成分を受信信号より分離し、エッジ情報と分析
値を初期設定部32に、エッジ情報と分析値とDC成分
を画像合成部31に出力する。また、2フレーム目以降
のデータについては、受信信号より、各セグメントごと
の動き推定値、フラクチュエーション、DC成分、およ
び、補正処理に関する情報に分離する。動き推定値は、
動き処理部36およびカルマンフィルタ41に、フラク
チュエーションは加算部40に、DC成分は画像合成部
31に、また補正処理に関する情報は補正処理部42に
出力される。
【0055】初期設定部32は、初期復号化部34より
入力されたエッジ情報および分析値に基づいて、各セグ
メントごとの、そのセグメントを構成する特徴点の情報
に展開し、記憶部33に記憶する。この処理により、動
画像復号化装置30の記憶部33の内容は、前述したよ
うな動画像符号化装置の記憶部内の情報と同一の内容と
なる。
【0056】記憶部33は、エッジ画像の各特徴点の情
報を、セグメントごとに記憶しておく記憶手段であり、
メモリにより構成され、前述した動画像符号化装置10
の記憶部13と同じ構成である。
【0057】動き処理部36は、復号化部34により入
力された動き推定値に基づいて、記憶部33に記憶され
ている各セグメントを移動させる。第2の投影部39
は、動き処理部36により移動された各セグメントを画
像上に投影する。加算部40は、第2の投影部39によ
り投影された画像情報に対して、復号化部34より入力
されたフラクチュエーションを各特徴点に加え、得られ
た画像情報をカルマンフィルタ41に入力する。
【0058】カルマンフィルタ41は、前述した動画像
符号化装置10のカルマンフィルタ21と同じ働きを
し、記憶部33に記憶されている各セグメントの情報を
更新する。
【0059】第1の投影部37は、カルマンフィルタ4
1により更新された画像情報に基づいて、各セグメント
を画像上に投影する。画像合成部31は、復号化部34
および第1の投影部37より入力されたエッジ情報、分
析値、およびDC成分に基づいて、画像データを復元し
出力する画像合成部である。まず、復号化部34より入
力された1フレーム目の画像データについて、エッジ画
像と各点の分析値、および、DC成分から、動画像符号
化装置への入力画像とほぼ等しい画像を合成する。ま
た、2フレーム目以降の画像データについては、第1の
投影部37より入力されたエッジ情報、および、分析値
と、復号化部34より入力されるDC成分に基づいて画
像を合成し、出力する。なお、その際、付加情報の消失
したという印のついた点を除いて画像合成を行う。
【0060】以上、説明したように、動画像復号化装置
30によれば、3次元形状データとその動きの情報によ
り符号化された動画像系列においても、前記3次元形状
データで単純に表せない、消失したエッジ情報や出現エ
ッジ情報を補正することができるので、そのような動画
像についても、原画像に忠実に再現性よく復号化するこ
とができる。
【0061】
【発明の効果】本発明の動画像符号化装置によれば、フ
レーム間の特徴点の移動を効率よく符号化できるので、
高い圧縮率で連続的な動画像を符号化することができ
た。さらに、本発明の動画像復号化装置によれば、前記
動画像符号化装置により符号化された連続的な動画像信
号より、忠実に元の動画像を復号化できた。
【図面の簡単な説明】
【図1】本発明の一実施例の動画像符号化装置の構成を
示すブロック図である。
【図2】図1に示した動画像符号化装置の動き推定・対
応探索の方法を説明する図であり、3次元空間の点Pを
望む様子を示し座標系の説明をする図である。
【図3】図1に示した動画像符号化装置の動き推定・対
応探索の方法を説明する図であり、仮想の投影像の説明
をする図である。
【図4】図1に示した動画像符号化装置の符号化部の構
成の他の例を示す図である。
【図5】本発明の一実施例の動画像復号化装置の構成を
示すブロック図である。
【符号の説明】 10…動画像符号化装置 11…画像分析部 12…初期設定部 13…記憶部 14…初期符号化
部 15…動き推定・対応探索部 16…動き処理部 17…投影部 18…加算部 19…量子化部 20…加算部 21…カルマンフィルタ 22…補正処理部 23,23b…符号化部 231…演算部 232…記憶部 233…比較部 234…フラクチュエー
ション符号化部 235…動き推定値符号化器 236…DC成分符号化
部 30…動画像復号化装置 31…画像合成部 32…初期設定部 33…記憶部 34…初期復号化
部 36…動き処理部 37…第1の投影
部 39…第2の投影部 40…加算部 41…カルマンフィルタ 42…補正処理部 43…復号化部 50…伝送路
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9061−5H G06F 15/70 410

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】連続的な動画像の各フレームより特徴点を
    抽出する画像分析手段と、 前記連続的な動画像の最初のフレームよりセグメントを
    抽出するセグメンテーション手段と、 前記画像分析手段により抽出された特徴点に基づいて、
    前記セグメンテーション手段により抽出された各セグメ
    ントごとの3次元モデル形状情報を記憶する形状記憶手
    段と、 前記形状記憶手段に記憶されている各3次元モデルのフ
    レーム間の動きを推定し、各フレームの3次元モデルの
    特徴点を前記推定された動きに基づいて移動させ投影し
    た特徴点と、当該フレームの次フレームの特徴点とを対
    応付ける動き推定対応探索手段と、 前記対応付けられた各特徴点間の位置の差を求める差算
    出手段と、 前記各3次元モデルのフレーム間の動き推定値および前
    記各特徴点間の位置の差に基づいて、前記形状記憶手段
    に記憶されている各3次元モデル形状情報を更新する更
    新手段と前記セグメンテーション手段により抽出された
    前記連続的な動画像の最初のフレームの各セグメント
    と、前記画像分析手段により分析された各セグメントの
    各特徴点の分析値とを初期データとして符号化する初期
    符号化手段と、 前記動き推定対応探索手段により各フレームごとに得ら
    れた前記各セグメントの3次元モデルのフレーム間の動
    き推定値と、前記差算出手段により算出された各特徴点
    間の位置の差とを符号化する符号化手段とを有し、前記
    連続的な動画像を符号化する動画像処理装置。
  2. 【請求項2】前記符号化手段は、各フレーム間の前記差
    算出手段により算出された各特徴点間の位置の差が予め
    定めた所定値以上の場合にのみ、前記差算出手段により
    算出された各特徴点間の位置の差を符号化する請求項1
    記載の動画像処理装置。
  3. 【請求項3】符号化された初期データより、連続的な動
    画像の最初のフレームを構成する各セグメントの特徴点
    と、該各特徴点の分析値とを復号化する初期復号化手段
    と、 前記初期復号化手段により復号化された各セグメントご
    との特徴点に基づいて、各セグメントごとの3次元モデ
    ル形状情報として記憶する形状記憶手段と、 符号化された各フレームごとのデータより、各セグメン
    トの3次元モデルのフレーム間の動き推定値と、前記動
    き推定値に基づいて3次元モデルを移動させた投影像の
    特徴点の位置と当該フレームの次フレームの対応する特
    徴点の位置との差とを復号化する復号化手段と、 前記各セグメントの3次元モデルのフレーム間の動き推
    定値および前記対応する特徴点の位置の差に基づいて、
    前記形状記憶手段に記憶されている各セグメントごとの
    3次元モデルの形状情報を更新する更新手段と、 前記形状記憶手段に記憶されている各セグメントの3次
    元モデル形状情報に基づいて、各フレームごとの画像を
    合成する画像合成手段とを有し、符号化された連続的な
    動画像を復号化する動画像処理装置。
  4. 【請求項4】前記形状記憶手段は、当該各特徴点に所定
    の奥行き情報を付与し、各セグメントを平板状の3次元
    モデルとした3次元モデル形状情報を初期データとして
    記憶する請求項1〜3いずれか記載の動画像処理装置。
  5. 【請求項5】前記更新手段は、各セグメントの3次元モ
    デルのフレーム間の動き推定値に基づいて3次元モデル
    を移動させた投影像の特徴点の位置を状態量、当該フレ
    ームの次フレームの対応する特徴点の実際の位置を観測
    量、対応する各特徴点間の誤差をノイズとし、カルマン
    フィルタにより前記状態量の最小自乗推定値を求めるこ
    とにより該3次元モデル形状情報を更新する請求項1〜
    4いずれか記載の動画像処理装置。
JP28565594A 1994-11-18 1994-11-18 動画像処理装置 Pending JPH08149458A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28565594A JPH08149458A (ja) 1994-11-18 1994-11-18 動画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28565594A JPH08149458A (ja) 1994-11-18 1994-11-18 動画像処理装置

Publications (1)

Publication Number Publication Date
JPH08149458A true JPH08149458A (ja) 1996-06-07

Family

ID=17694354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28565594A Pending JPH08149458A (ja) 1994-11-18 1994-11-18 動画像処理装置

Country Status (1)

Country Link
JP (1) JPH08149458A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100421208B1 (ko) * 1996-10-30 2004-05-07 삼성전자주식회사 3차원영상의합성방법
US8106921B2 (en) 2003-08-21 2012-01-31 Arm Norway As Differential encoding using a 3d graphics processor
US8115806B2 (en) 2005-03-30 2012-02-14 Nikon Corporation Image forming method and microscope device
WO2014077272A1 (ja) * 2012-11-19 2014-05-22 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
JP2020136943A (ja) * 2019-02-21 2020-08-31 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100421208B1 (ko) * 1996-10-30 2004-05-07 삼성전자주식회사 3차원영상의합성방법
US8106921B2 (en) 2003-08-21 2012-01-31 Arm Norway As Differential encoding using a 3d graphics processor
US8421821B2 (en) 2003-08-21 2013-04-16 Arm Norway As Differential encoding using a 3D graphics processor
US8115806B2 (en) 2005-03-30 2012-02-14 Nikon Corporation Image forming method and microscope device
WO2014077272A1 (ja) * 2012-11-19 2014-05-22 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
JP2014102608A (ja) * 2012-11-19 2014-06-05 Ihi Corp 3次元物体認識装置および3次元物体認識方法
US9652864B2 (en) 2012-11-19 2017-05-16 Ihi Corporation Three-dimensional object recognition device and three-dimensional object recognition method
JP2020136943A (ja) * 2019-02-21 2020-08-31 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11823400B2 (en) 2019-02-21 2023-11-21 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium

Similar Documents

Publication Publication Date Title
KR102402494B1 (ko) 지오메트리 정보의 모션 보상
US11334969B2 (en) Point cloud geometry padding
JP2576771B2 (ja) 動き補償予測装置
JP3207461B2 (ja) 3次元対象物のトラッキング方法及び装置
JP3679426B2 (ja) 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
US5936671A (en) Object-based video processing using forward-tracking 2-D mesh layers
KR20040012714A (ko) 영상정보 압축 방법
JP2009501479A (ja) テクスチャの領域のための画像コーダ
EP1016286A1 (en) Method for generating sprites for object-based coding systems using masks and rounding average
KR20000064847A (ko) 이미지 분할 및 대상 트랙킹 방법, 및 대응 시스템
EP3922032A1 (en) Quantization step parameter for point cloud compression
AP504A (en) Computer compression of video images.
US20210350582A1 (en) Point cloud global tetris packing
JP2006518157A (ja) オブジェクトベースの動き補償の方法及び装置
JPH08149458A (ja) 動画像処理装置
Malassiotis et al. Coding of video-conference stereo image sequences using 3D models
JP3663645B2 (ja) 動画像処理装置とその方法
JPH08149460A (ja) 動画像処理装置、動画像符号化装置および動画像復号化装置
Gastaud et al. Video segmentation using active contours on a group of pictures
JPH08149459A (ja) 動画像処理装置および動画像符号化装置
JPH08161505A (ja) 動画像処理装置、動画像符号化装置および動画像復号装置
JPH0491585A (ja) 画像伝送装置
JPH11346329A (ja) 画像処理装置及びその方法、及び画像処理システム
Cho et al. An object-oriented coder using block-based motion vectors and residual image compensation
JPH08153210A (ja) 動画像符号化装置および動画像復号装置