JP3800905B2 - 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 - Google Patents
画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 Download PDFInfo
- Publication number
- JP3800905B2 JP3800905B2 JP2000048117A JP2000048117A JP3800905B2 JP 3800905 B2 JP3800905 B2 JP 3800905B2 JP 2000048117 A JP2000048117 A JP 2000048117A JP 2000048117 A JP2000048117 A JP 2000048117A JP 3800905 B2 JP3800905 B2 JP 3800905B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- image
- area
- region
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、2次元画像である時系列画像群(動画像)に含まれる対象物について3次元情報を抽出する画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法に関するものである。
【0002】
【従来の技術】
近年、コンピュータグラフィックス(以下、3DCGと略称する)技術が急速に進歩してきている。このような、3DCG技術は、CADシステムや仮想現実システムにも用いられる。しかしながら、3DCGのデータを作成するモデリング作業には多大な時間を要し、このことが3DCGの応用分野を拡張できない主な原因になっている。
【0003】
モデリング作業を容易にするために、3次元計測装置(モーションキャプチャなど)を用いて実空間での計測を行い、計測値を3DCGのデータとすることでモデリング作業を自動化する技術が実用化されてはいるものの、3次元計測装置は立体視を行うものであるから非常に高価であり、また現状の3次元計測装置では計測できる空間領域が比較的狭いから、この技術の用途は限られている。とくに、この種の3次元計測装置は、市街地のような広い空間領域の計測には適しておらず、都市景観などを3DCGで形成するには3DCGのデータを手作業で作成しているのが現状である。
【0004】
そこで、比較的安価な装置を用いて3次元計測を行うとともに各種の対象に汎用的に用いることができる技術として、単眼視による2次元の動画像(時系列画像群)に基づいて3次元形状を復元させようとする技術が提案されている。たとえば、「金出武雄ら:因子分解法による物体形状と撮像装置の運動の復元,電子情報通信学会誌,Vol.J76−D−II No.8,1993/8」に記載された技術(以下、因子分解法という)では、2次元の動画像上の特徴を認識して、その特徴が動画像としてどのように移り変わっていくかを追跡した特徴点行列を作成し、特徴点行列に因子分解の手法を適用することによって物体の3次元形状とカメラ姿勢を復元している。この技術では特徴点行列を作成する追跡処理に誤差があると計測結果の誤差が大きくなるから、動画像上の特徴を正確に追跡することが重要な課題である。
【0005】
3次元計測を目的として2次元動画像における特徴を追跡する技術には、特開平10−111934号公報に記載の技術がある。この公報には、因子分解法を適用するにあたり、1フレームの画像に対して複数の領域を指定し、かつ各領域に複数種類の特徴抽出方法を適用し、最適な結果を採用することによって、正確な特徴点追跡を行うことが記載されている。
【0006】
また、特開平10−255053号公報には、ステレオ法を適用するにあたり、特徴点を追跡した後、画像中の適宜の1点を画像原点に設定し、撮像装置の回転に対して変化しない特徴点としての原点と他の特徴点との距離を用いて特徴点の運動軌跡を求め、異なる2つの画像群に対して運動軌跡が相関性を持つか否かを評価して追跡の失敗の有無を検出し、正しく追跡された特徴点のみを用いることにより3次元形状を高い精度で復元することが記載されている。
【0007】
【発明が解決しようとする課題】
しかしながら、特開平10−111934号公報に記載された技術では、特徴点追跡の正否を操作者が判定して指示する必要があるから、追跡処理の期間には操作者は装置から離れることができないという問題がある。
【0008】
また、特開平10−255053号公報に記載された技術では、特徴追跡の失敗を検出することはできるものの、失敗の理由までは判断することができないから、特徴点を途中で追跡できなくなったときに、追跡の誤りなのか、別に原因(複数の物体が存在していて追跡中の物体が他の物体により隠れた場合など)があるのかを判断することができず、失敗を補正することができないから、画像中で計測不可能になる部分が生じることがある。
【0009】
さらに、上述したどちらの技術も画像から抽出された局所的な特徴を用いて追跡しているから、たとえば格子模様などの繰り返しパターンを有する場合には、追跡を失敗しやすいという問題もある。また、上述したいずれの技術においても得られる3次元情報は各特徴点の座標であり、各特徴点の座標は3次元空間中の離散的な座標情報にすぎず、特徴点同士の関連性は不明である。したがって、上述した技術によって計測した情報を3DCGのデータとして利用するには、離散的な座標情報からポリゴンなどの面情報を持つデータを生成する別の処理手段が必要になる。
【0010】
本発明は上記事由に鑑みて為されたものであり、その目的は、3DCGのデータに用いることができる3次元情報を2次元画像である時系列画像群から容易に得ることができるようにし、しかも時系列画像群の中で対象物を追跡するにあたって追跡の妥当性の検証を可能とし、対象物を確実に追跡するとともに3次元情報における誤差の発生を抑制した画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法を提供することにある。
【0011】
【課題を解決するための手段】
請求項1の発明は、静止している対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得し、前記対象物から選択した面を境界要素と画像特徴量とで表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素と画像特徴量との少なくとも一方を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択する第1の過程と、隠蔽やフレームアウト等の撮像されていない領域が少ない追跡領域を3次元空間にマッピングすることにより得られる基準領域を設定し、画像内において追跡領域の少なくとも一部が追跡できないときに当該追跡領域と基準領域の3次元空間での境界要素の比較に基づいてTVカメラにより撮像できない領域が生じたか否かを判断する第2の過程と、前記基準領域をTVカメラの各位置において撮像したときの基準領域の位置関係に基づいて追跡領域をTVカメラで撮像できなくなった原因を推定し、推定結果に基づいて追跡領域の追跡が可能となるように修正して追跡を継続させる第3の過程とを備えることを特徴とする。
【0012】
請求項2の発明は、請求項1の発明において、前記第1の過程で、一つの画像で設定された追跡領域の境界要素について他の画像上で対応する候補を抽出し、境界要素の候補の組み合わせによる追跡候補を生成した後、前記一つの画像で設定した追跡領域を追跡候補に一致するように変形させた変形領域を生成し、追跡候補と変形領域とについて境界要素の形状、画素値、画像特徴量から選択される指標を比較することにより追跡候補の中から前記他の画像における追跡領域を決定することを特徴とする。
【0013】
請求項3の発明は、請求項2の発明において、前記他の画像においてエッジを抽出するとともに、エッジのうち前記一つの画像において追跡領域を構成する線要素との距離および方向が規定範囲内であるエッジを線要素の候補として選択することを特徴とする。
【0014】
請求項4の発明は、請求項2の発明において、前記他の画像においてエッジを抽出するとともに、エッジ上の各画素にハフ変換を行って連続性を有したエッジを抽出し、このエッジのうち前記一つの画像において追跡領域を構成する線要素との距離および方向が規定範囲内であるエッジを線要素の候補として選択することを特徴とする。
【0015】
請求項5の発明は、請求項2の発明において、前記一つの画像において追跡領域を構成する点要素の近傍の形状をテンプレートとし、前記他の画像においてテンプレートにマッチングする部位から点要素の候補を抽出することを特徴とする。
【0016】
請求項6の発明は、請求項2の発明において、前記追跡候補と前記変形領域との画素値を前記指標に用いることを特徴とする。
【0017】
請求項7の発明は、請求項2の発明において、前記追跡領域と前記追跡候補との平均輝度を前記指標に用いることを特徴とする。
【0018】
請求項8の発明は、請求項2の発明において、前記画像はカラー画像であって、前記追跡領域と前記追跡候補との色を前記指標に用いることを特徴とする。
【0019】
請求項9の発明は、請求項2の発明において、前記追跡領域と前記追跡候補との空間周波数分布を前記指標に用いることを特徴とする。
【0020】
請求項10の発明は、請求項2の発明において、前記追跡領域と前記追跡候補の領域内で画素値の変化が規定値を超える部分を抽出し、この部分の位置、形状、画像特徴の少なくとも1要素を前記指標に用いることを特徴とする。
【0021】
請求項11の発明は、請求項2の発明において、前記画像はカラー画像であって、前記追跡領域と前記追跡候補との平均輝度または色を前記指標に用いる場合と、空間周波数分布を前記指標に用いる場合と、領域内で画素値の変化が規定値を超える部分を抽出し、この部分の位置、形状、画像特徴の少なくとも1要素を前記指標に用いる場合とを、前記一方の画像における追跡領域内での輝度および色の分布パターンに応じて選択することを特徴とする。
【0022】
請求項12の発明は、請求項2の発明において、複数の追跡領域について複数の画像のうち平均輝度が最大になるときのTVカメラの姿勢を各追跡領域に対応した対象物の面の反射光の方向に近いと推定し、各追跡領域に対応した対象物の面の法線方向と反射光の方向とから光源からの照射方向を推定することを特徴とする。
【0023】
請求項13の発明は、請求項1の発明において、前記第2の過程では、複数の画像間で対応する追跡領域を3次元空間にマッピングし、当該追跡領域の境界要素の対応関係から求められる一致度が閾値以上であるときに3次元空間にマッピングした追跡領域を基準領域とし、基準領域に対応する追跡領域と基準領域との境界要素を比較し、境界要素の変化によって追跡領域中で撮像されていない領域を抽出することを特徴とする。
【0024】
請求項14の発明は、請求項13の発明において、複数の画像間で境界要素の個数に変化が生じない範囲に限定し、各々の範囲について、マッピング時に得られる寄与率を一致度に用いて寄与率が閾値以上である追跡領域を基準領域の候補とし、基準領域の候補が複数個得られるときには面積が最大になる候補を基準領域として採用することを特徴とする。
【0025】
請求項15の発明は、請求項14の発明において、境界要素の個数の変化は、線要素と点要素との一方に着目することを特徴とする。
【0026】
請求項16の発明は、請求項14の発明において、前記寄与率は追跡領域を因子分解法により3次元空間にマッピングする際に得られる対角行列の成分から求めることを特徴とする。
【0027】
請求項17の発明は、請求項13の発明において、3次元空間に追跡領域をマッピングするとともに基準領域と比較し、互いに対応しない点要素によって規定される領域を追跡領域中で撮像されていない領域として求めることを特徴とする。
【0028】
請求項18の発明は、請求項13の発明において、3次元空間に追跡領域をマッピングするとともに基準領域と比較し、互いに対応しない線要素が存在するときに、この線要素を追跡領域中で撮像されていない領域の一部とみなすことを特徴とする。
【0029】
請求項19の発明は、請求項1の発明において、前記第3の過程で、3次元空間内でのすべての基準領域をTVカメラの位置により決まる画像面に投影し、画像面内における基準領域同士の位置関係および画像面に対する基準領域の位置関係に基づいて、追跡領域中で撮像されていない領域が生じた原因を判定することを特徴とする。
【0030】
請求項20の発明は、請求項19の発明において、着目する基準領域とTVカメラとの間に他の基準領域が存在し、かつ両基準領域が接続されていないときに他者隠蔽と判定することを特徴とする。
【0031】
請求項21の発明は、請求項19の発明において、着目する基準領域とTVカメラとの間に他の基準領域が存在し、かつ両基準領域が接続されているときに自己隠蔽と判定することを特徴とする。
【0032】
請求項22の発明は、請求項19の発明において、着目する基準領域が画面の周縁に位置するときにフレームアウトと判定することを特徴とする。
【0033】
請求項23の発明は、請求項19の発明において、追跡領域中で撮像されていない領域が存在するときに、エッジ延長を行い、延長されたエッジの交点を新たな点要素として、追跡処理を再度実行し、3次元空間にマッピングする際に寄与率が向上すれば隠蔽と確定することを特徴とする。
【0034】
請求項24の発明は、TVカメラにより撮像された画像入力画像として与える画像入力部と、入力された画像に対して請求項1記載の画像特徴追跡処理方法による処理を施す画像処理装置と、入力された画像および画像処理装置で処理された画像を格納する記憶装置と、画像処理装置での処理画像を表示する表示手段と、画像処理装置に対して追跡領域を指定する領域指定手段とを備えるものである。
【0035】
請求項25の発明は、対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得した後、前記対象物から選択した面を境界要素で表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択し、さらに前記対象物の複数の面が撮像されかつ連続して同じ面が撮像されている複数の画像を1つのフェーズ画像群として区切り、次に複数のフェーズ画像について各フェーズ画像群ごとに対象物から選択した面の3次元空間へのマッピングを行うことにより各フェーズ画像群ごとに3次元形状を求め、互いに他のフェーズ画像群の座標系を一致させるように座標変換を行うことによって、3次元データを作成することを特徴とする。
【0036】
請求項26の発明は、対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得した後、前記対象物から選択した面を境界要素で表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択し、さらに前記対象物の複数の面が撮像されかつ連続して同じ面が撮像されている複数の画像を1つのフェーズ画像群として区切り、次に複数のフェーズ画像について各フェーズ画像群ごとに対象物から選択した面の3次元空間へのマッピングを行うことにより各フェーズ画像群ごとに3次元形状を求め、互いに他のフェーズ画像群に共通している線要素を重ね合わせるように各フェーズ画像群ごとに得られた3次元形状の座標変換を行うことによって、3次元データを作成することを特徴とする。
【0037】
請求項27の発明は、請求項25または請求項26の発明において、前記TVカメラにより撮像して取得した前記複数の画像内で前記対象物から選択した面を、点要素と各点要素を順次接続する有向の線要素とからなる境界要素で表し、時系列で得られる各画像において線要素を辿って各点要素を巡回する向きを監視し、巡回する向きが逆になるまでを1つのフェーズ画像群とすることを特徴とする。
【0038】
請求項28の発明は、請求項25または請求項26の発明において、前記座標変換では、境界要素ごとに回転および平行移動に関する変換パラメータを求めた後、境界要素ごとに求めた変換パラメータをそれぞれ平均した変換パラメータを用いて座標変換を行うことを特徴とする。
【0039】
請求項29の発明は、請求項25または請求項26の発明において、座標系を互いに一致させる一方の3次元形状に前記座標変換を施した後の各点要素の位置と他方の3次元形状においてそれぞれ対応する各点要素の位置との中点を、各点要素の位置とすることを特徴とする。
【0040】
【発明の実施の形態】
(第1の実施の形態)
図1に本発明で用いる装置を示す。処理対象となる2次元画像は、画像入力装置11から画像特徴追跡処理装置10に入力される。画像入力装置11としては、TVカメラ、あるいはTVカメラにより撮像された動画像を記録した記録媒体(ビデオテープ、CD、DVDなど)から映像を再生する再生装置が用いられ、画像特徴追跡処理装置10はコンピュータ装置(パーソナルコンピュータ)を用いて構成される。TVカメラ(以下ではカメラと略称する)としては家庭用の簡易なビデオカメラでよく、工業用のITVカメラでもよい。また、以下に説明する実施形態ではカラー画像を対象とする。
【0041】
画像特徴追跡処理装置10に入力される画像は、図2に示すように対象物1に対してカメラ2を矢印Aで示すように移動させることによって、対象物1を見る視点を連続的に変化させた画像を用いる。つまり、対象物1に対する視点を連続的に変化させた2次元画像の時系列画像群(動画像)が画像特徴追跡処理装置10に入力される。ここで、画像入力手段12に入力される画像は、動画像の各フレーム間での対象物1の移動量が対象物1の大きさに比較して十分に小さくなるように撮像されている。つまり、動画像を撮像するカメラ2は比較的低速で移動する。また、対象物1としては平面部分が比較的多いものを考え、しかも対象物1は移動せず時間経過に伴う形状の変化も生じないものとする。図2に示した対象物1を撮像して得られる動画像の例を図3に示す。図3では1つの枠が1画像V1〜V3を意味し、左から右に向かって画像V1〜V3が時系列に並んでいる状態を示している。
【0042】
画像特徴追跡処理装置10は、基本的には、画像入力装置11とのインタフェースとなる画像入力手段12と、画像入力手段12を通して入力された動画像や処理結果を格納するために設けられたハードディスクおよびメモリからなる記憶装置13と、入力された2次元画像である時系列画像群から3次元情報を抽出する画像処理装置14と、入力された動画像や処理結果を表示するディスプレイ装置からなる表示手段15と、画像処理装置14に対して対象物1に対応した追跡領域などを設定するためのキーボードおよびマウスからなる領域指定手段16とを備える。
【0043】
記憶装置13には、画像入力手段12を通して入力された画像を格納する画像ファイルF1と、2次元画像である時系列画像群において3次元情報を得ようとする対象物1を追跡する際の作業用ファイルとして用いる追跡データファイルF2と、画像処理装置14により得られた3次元情報を格納する3次元形状データファイルF3とが設けられる。
【0044】
また、画像処理装置14は、上述した領域指定手段16により対象物1に対して設定された追跡領域に基づいて対象物1を追跡する領域追跡手段17を備えるとともに、領域追跡手段17による対象物1の追跡の妥当性を評価する追跡評価手段18を備える。また、画像処理装置14には追跡した対象物1に関する2次元画像内での情報から3次元情報を生成する形状復元手段19が設けられる。追跡評価手段18において行われる追跡の妥当性の評価には、形状復元手段19により生成された3次元情報を用いる。
【0045】
以下に、画像処理装置14の動作を説明する。まず、画像入力手段12を通して画像が入力されると、入力された画像は記憶装置13の画像ファイルF1に格納されるとともに表示手段15に表示される。ここで、領域指定手段16を操作する操作者は表示手段15に表示された画像を見て対象物1に対応付けて初期の追跡領域を指定する。つまり、時系列画像群から1つの画像を選択し、この画像内で初期の追跡領域を設定する。一般に、追跡領域は対象物1の面単位で設定され、1つの画像に表示されている対象物1のすべての面を追跡領域として指定する。このようにして追跡領域を指定すれば、背景のような不要な情報は除去される。図4に追跡領域Dを指定した状態を示す。追跡領域Dは境界要素の集合よりなる閉領域であって、境界要素としては点要素および点要素を結ぶ線要素を用いている。図4において、白丸が点要素であり、隣接する2個の点要素の間の線が線要素を表す。境界要素は、線要素が2つの追跡領域Dに共有されているか否かにより表される追跡領域D同士の接続関係(図4の太線は2つの追跡領域Dに跨る線要素を示す)、領域の画像特徴(色、テクスチャ等)を含んでいてもよい。
【0046】
上述のように立体形状を境界要素としての線要素と点要素とにより表現する形式は境界表現(B−REP:boundary representation)と呼ばれ3DCGでは一般的に用いられている。入力された画像情報を境界表現に変換すれば、画素単位で画像情報を扱う場合に比較するとデータ量が大幅に低減され、しかも3次元データを利用する際にデータの変換が容易になる。図5に境界表現による境界領域Dの設定例を示す。図5では斜線部が境界領域Dを示し、線要素s1〜s8と点要素p1〜p8によって環状の領域を設定している。
【0047】
領域指定手段16では、対象物1に追跡領域Dを設定するだけではなく対象物1を計測する精度も指定することができる。たとえば、図6のような引出21を有する家具20について3次元計測を行うとすれば、引出21に設けた取手22まで計測するか、家具20の全体を直方体とみなして計測するかの精度を指定することができる。画像内の対象物1が家具のように複雑な形状ではなく幾何学的な形状の組み合わせのような単純な形状である場合には、対象物1の各面をそれぞれ追跡領域Dとして自動的に設定するようにしてもよい。つまり、対象物1の内部領域を面ごとに分割するような領域分割手段を設けてもよい。
【0048】
追跡領域Dは記憶装置13における追跡データファイルF2に格納される。領域追跡手段17は、時系列画像群の各画像において領域指定手段16により設定された追跡領域Dに対応する領域を検出する。つまり、時系列画像群の各画像において対象物1の着目する面を追跡する。領域追跡手段17では、時系列画像群の各画像において追跡領域Dを追跡するために、画像ファイルF1に格納された時系列画像群のうちの1画像(1フレーム)に対して設定されている追跡領域Dから、次フレームの追跡領域Dの形状を推定して変形領域を生成する機能を有する。得られた変形領域は次フレームの画像と比較照合され、次フレームでの変形領域の位置が検出される。その後、変形領域を次フレームにおける追跡領域とみなして、さらにその次のフレームでの変形領域の位置を検出する。こうしてすべてのフレームについて変形領域を次々に生成して変形領域の位置を追跡データとして追跡データファイルF2に格納する。
【0049】
領域追跡手段17の機能についてさらに詳しく説明する。図7は時系列画像群のうちの1画像(1フレーム)において、1つの対象物1のみを表示した状態で示してある。図7における追跡領域(斜線部)Dは時系列画像群において1つ前のフレームで設定されたものであり、図7に示すフレームにおいては対象物1のどの面とも一致していない。そこで、領域追跡手段17では追跡領域Dの各線要素sA,sB,sCがフレーム内のどの部分に対応するかを検出する。ここに、対象物1の画像はエッジを抽出した画像(エッジ画像という)であるものとする。エッジの抽出には周知の技術を用いる。
【0050】
領域追跡手段17では、線要素に基づいて変形領域を生成する場合と、点要素に基づいて変形領域を生成する場合とがある。線要素に基づいて変形領域を生成する場合には、まず対象物1のエッジのうち方向および距離が各線要素sA,sB,sCに対して所定範囲内であるエッジを抽出する。すなわち、対象物1のエッジ画像に対してハフ変換を行うことにより、エッジ画像内での直線部分の傾きを知ることができるから、ハフ変換により求めたエッジ画像内の各直線部分と各線要素sA,sB,sCとの角度差を求めて、この角度差が所定範囲内であるときにエッジ画像内の直線部分を線要素sA,sB,sCに対応付ける。図示例では線要素sAに対してエッジsa1,sa2が対応し、線要素sBに対してエッジsb1,sb2が対応し、線要素sCに対してエッジsc1が対応する。
【0051】
この段階では、線要素sAには2本のエッジsa1,sa2が対応付けられ、線要素sBにも2本のエッジsb1,sb2が対応付けられているから、1つの変形領域を設定するには、各線要素sA,sB,sCにエッジsa1,sa2,sb1,sb2,sc1を一対一に対応付ける必要がある。ここで、組み合わせとしては4種類の候補が考えられる。つまり、sa1−sb1−sc1、sa1−sb2−sc1、sa2−sb1−sc1、sa2−sb2−sc1のいずれかの組み合わせ(以下、追跡候補という)が追跡領域Dに対応することになる。ここではハフ変換によってエッジを求めているから、エッジの長さに関する情報は失われており、各組み合わせは図8に実線で示す図形に相当する。図8における二点鎖線は着目外のエッジを示す。
【0052】
次に、上述した各追跡候補にそれぞれ合致するように追跡領域Dを変形する。つまり、線要素sA,sB,sCを図8(a)〜(d)に示した追跡候補に対応付けるように変形して変形領域を生成すると、図9(a)〜(d)のように線要素sA1〜sA4,sB1〜sB4,sC1〜sC4を有した4種類の変形領域E1〜E4が生成される。図9(e)は変形前の追跡領域Dである。ここに、追跡領域Dを変形する処理は、図10に示すように、元の追跡領域Dにおける各点要素pA,pB,pCと変形領域Eにおけるエッジの各交点pa,pb,pcとを結ぶベクトルMa,Mb,Mcを求め、さらに追跡領域Dに含まれる画素pPの位置に応じてベクトルMa,Mb,Mcを補間することにより画素pPに対応する変形領域E内での画素ppの位置(ベクトルMp)を求める。また、変形領域Eの各画素の画素値も補間処理によって求める。この種の処理をワープ変形処理と呼んでいる。
【0053】
領域追跡手段17において、点要素に基づいて変形領域を生成する場合には、追跡領域Dの点要素pA,pB,pCの近傍における境界要素の形状に着目する。いま、図11のような画像が得られれているものとすると、追跡領域Dの各点要素pA,pB,pCを中心とする所定範囲の境界要素は、図12(a)〜(c)のようになる。そこで、図12の形状をテンプレートに用いてフレーム(追跡領域Dを設定した次のフレーム)内のパターンマッチングを行い、類似度の高い部位を抽出する。パターンマッチングはフレーム内の点要素の近傍で行えばよく、また傾きを考慮する必要がないから、画像内の全領域についてパターンマッチングする場合に比較して処理量がごく少なくなる。図11の例では点要素sAに対して点要素sa1,sa2,sa3が選択され、点要素sBに対して点要素sb1が選択され、点要素sCに対して点要素sc1が選択される。つまり、図13に示すように、sa1−sb1−sc1、sa2−sb1−sc1、sa3−sb1−sc1の3種類の組み合わせが追跡候補として得られるから、図14のように3種類の変形領域E1〜E3が生成される。
【0054】
上述のようにして変形領域Eの各画素pxの画素値が求められると、次に、変形領域Eを用いて各追跡候補の中から追跡領域Dに対応するものを選択する。
【0055】
まず、追跡領域Dの中の画素値(濃度値)および微分値が規定範囲内であるときには、画素値が略一定であるか変化が滑らかであることを意味するから、変形領域Eの各画素ppの画素値と追跡候補の各画素の画素値とを直接比較する。つまり、各変形領域Eは各追跡候補の形状に合致するように設定されているから、対応する部位の画素値の差を求めることによって、画素値の差異を知ることができる。そこで、画素値の差の絶対値の総和を求め、追跡領域Dに含まれる画素数で除算した値を評価値として用いる。すべての追跡候補について評価値を求め、評価値がもっとも小さい追跡候補を最適な追跡候補として選択する。すなわち、このようにして選択した追跡候補を、新たな追跡領域として採用するのである。図8に示す例では図8(b)の追跡候補が新たな追跡領域として選択され、図12に示す例では図13(a)の追跡候補が新たな追跡領域として選択される。言い換えると、追跡候補内に他のエッジが含まれないような組み合わせ(線要素ではpa1−pb1−pc1、点要素ではpa1−pb1−pc1)の評価値が最小になり、新たな追跡領域になる。
【0056】
一方、追跡領域Dの中で画素値あるいは微分値が規定範囲を超える部分を有するときには、画素値に局所的に大きな変動があることを意味する。たとえば、石の表面のように細かい模様(テクスチャ)を含むような追跡領域Dでは、画素値あるいは微分値が規定範囲を超えることになり、このような面では局所的な画素値の差が大きいので画素値の差を評価値に用いることはできない。そこで、追跡領域Dにおける後述の画像特徴量と変形領域E1から求めた画像特徴量との差を評価値として用い、評価値が最小になる追跡候補を新たな追跡領域として採用する。
【0057】
ここに、画像特徴量としては、追跡領域Dの輝度がほぼ均一であるときには輝度情報を用い、色にばらつきが少ないときには色情報を用いればよい。つまり、追跡候補のうち追跡領域Dとの画像特徴量の差が規定値以内のときに追跡候補を新たな追跡領域として採用する。なお、色情報を用いるときには画像としてカラー画像を用いる必要がある。色情報を用いる場合には、たとえば図15に示すような色度図(R,G,B,Wは赤、緑、青、白を意味する)の中でのR−W線に対する追跡領域の色Qとの角度θを色相値とすればよい。
【0058】
また、図16に示すように、追跡領域Dに周期的とみなされる模様が存在するときには、フーリエ変換やウェーブレット変換を行うことにより空間周波数に関する情報を抽出して画像特徴量に用いる。つまり、図17のように変形領域Eと追跡候補との空間周波数の分布d1,d2をそれぞれ抽出し、空間周波数の分布d1,d2を比較すれば追跡候補から新たな追跡領域を選択することができる。
【0059】
図18のように、対象物の表面に文字や図形が表記されたりラベルが貼着されているような場合には、追跡領域Dの中でもコントラストの大きい部位が生じることがある。このようなときには、文字や図形の表記あるいはラベルを特徴部分Fとして追跡候補と変形領域Eとの比較を行う。たとえば、図18(a)のように変形領域Eが設定され、比較すべき追跡候補E′(特徴部分F′を含む)が図18(b)のように設定されているとすれば、図19に示すように、特徴部分Fの重心Gとエッジの各交点pa,pb,pcとの距離L1,L2,L3、特徴部分Fの面積、特徴部分Fでの平均輝度や平均色相を画像特徴量として用いることによって、追跡候補から新たな追跡領域を選択することが可能になる。
【0060】
上述のように、追跡候補から新たな追跡領域を選択するときの評価方法は、追跡領域Dの中で画素値および微分値が規定範囲内である場合と、追跡領域D内で画素値または微分値が規定範囲外である場合と、追跡領域D内に表記やラベルが存在する場合の3つの場合とでそれぞれ異なる。そこで、各条件に応じて評価方法を選択することが必要である。この選択には、輝度および色相のヒストグラムを作成し、ヒストグラムのパターンに応じて評価方法を選択することによって選択を自動化している。
【0061】
すなわち、輝度および色相についてヒストグラムを作成したときに図20のようにヒストグラムにピークが生じない場合には、変形領域Eについて画像を1次微分するとともに、微分値の総和を画素数で除算した値(つまり、変形領域Eの微分値の平均値)をテクスチャ特徴量として求める。また、テクスチャ特徴量に対する閾値を設定し、テクスチャ特徴量が閾値以下のときには追跡領域Dの中で微分値が規定範囲内であるため、細かい模様がないと判断し、画素値の差分和を評価方法として採用し、また閾値を超える場合には微分値が規定範囲を超えるため、細かい模様があると判断し、空間周波数の分布を比較する方法を採用する。
【0062】
一方、図21のように、輝度と色相との少なくとも一方に単一のピークが生じるときには平均輝度や平均色相を用いる。また、図22のように、輝度と色相とにともに複数のピークが生じるときには、文字や図形が表記されていたりラベルが貼着されている可能性が高いから、特徴部分Fに関する情報を用いるようにする。
【0063】
上述のように、輝度および色相の分布情報を用いることによって、どの処理を行うかを自動的に設定することが可能になる。図23に全体の流れを示す。すなわち、初期の追跡領域Dを設定した後(S1)、次のフレームにおいて境界要素のうち対応する候補を抽出する(S2)。次に、境界要素の組み合わせによって追跡候補を作成し(S3)、追跡領域Dの中の画素に関して輝度と色相とのヒストグラムを作成する(S4)。ここで、ヒストグラムに生じるピークの個数を求め(S5)、両ヒストグラムにピークがなければ(S6)微分値の平均値を閾値と比較し(S7)、閾値以下ならば画素値のみの比較によって追跡候補から新たな追跡領域を選択する(S8)。また、微分値の平均値が閾値より大きいときには空間周波数の分布によって追跡領域を選択する(S9)。
【0064】
一方、輝度のヒストグラムにおいてピークが1個あれば(S10)平均輝度を用いて追跡領域を選択し(S11)、輝度のヒストグラムにおけるピークは1個ではないが色相のヒストグラムにおいてピークが1個であるときには(S12)、平均色相を用いて追跡領域を選択する(S13)。輝度および色相のヒストグラムにおいてピークはあるが、ともにピークが2個以上であるときには、文字や図形の表記あるいはラベルの貼着があると考えられるから、この種の特徴を用いて追跡領域を選択する(S14)。上述のようにして選択した追跡候補を新たな追跡領域とし(S15)、次のフレームの処理に移行する(S16)。
【0065】
ところで、カメラ2の移動によって時系列画像群を生成しているから、対象物1とカメラ2との位置関係によって、初期の追跡領域Dの一部が、図24のように着目している対象物1とカメラ2との間に存在する物体3(他の対象物を含む)によって隠蔽されることがある(隠蔽部位を斜線部で示す)。また、対象物1の追跡領域Dが図25のように、カメラ2に対して対象物1の反対面側に位置して隠蔽されることもある(隠蔽部位を斜線部で示す)。このように、追跡領域Dとして選択した特定の面の形状が変化したり、特定の面が隠蔽されて追跡できなくなることがある。なお、隠蔽されていた面が新たに露出する場合には追跡領域Dとして指定されていないから問題はない。
【0066】
上述のように、追跡領域Dの形状(頂点や辺の数)が変化したり、追跡領域D2が完全に隠蔽されるような場合には、変形領域と追跡候補との形状(点要素や線要素の個数)が一致しないから、変形領域と追跡候補との一致度が低下することになる。このような場合には、変形した追跡領域の形状に応じて追跡領域の境界要素を増減させて以後の追跡を続行させる。たとえば、図24に示したように追跡領域を設定した対象物1とカメラ2との間に他の物体3が存在するときには、図26(a)のように追跡領域D1が四角形であるのに対して、図に二点鎖線で示す直線と一つの頂点とを含む部位が物体3に隠蔽されることによって、図26(b)のように五角形の追跡領域D2に変形するから、このような場合には追跡領域D2を五角形とするように境界要素(点要素、線要素)を増やして以後の追跡を行う。このような追跡領域D2の変形は可能な限り自動的に行うようにし、自動的に行えない場合には追跡領域D2の変形を要求するメッセージを表示手段15に表示する。表示手段15にメッセージが表示されたときには領域指定手段16を操作して追跡領域D2を変形させることになる。
【0067】
上述した追跡過程においては、記憶装置13には追跡領域の位置が順次格納されるとともに、追跡候補から新たな追跡領域を選択する際に用いた平均輝度などの画像特徴も記憶装置13に格納される。これらの情報は、追跡評価手段18や形状復元手段19で用いられ、追跡に異常が生じた追跡領域を再度追跡する際における異常の原因の推定に用いられる。
【0068】
たとえば、晴天時の日中に屋外で住宅を撮像したような場合には、対象物1に照射される強い単一光源が存在することになり、図27に示すように、対象物1の影OMが強く生じることになる。このような影OMにはエッジが生じるから、変形領域を誤って生成して追跡を妨げる可能性があり、追跡に異常が生じる可能性がある。そこで、記憶装置13に格納した画像特徴から、影OMを形成する単一光源LMの位置を検出するとともに、影OMの発生を予測して影OMの影響を除去するのである。
【0069】
さらに具体的に説明する。図28のように、追跡領域Dが単一光源(自然光も含む)LMにより照明されているときに、カメラ2をカメラ姿勢ベクトルv1〜vnで表される位置から撮像するものとする。単一光源LMからの光束の方向を表す照明光ベクトルr1と追跡領域Dでの正反射光の方向を表す反射光ベクトルr2とは追跡領域Dが設定される面の法線方向Uとなす角度が等しく、追跡領域Dの見かけ上の輝度は、カメラ姿勢ベクトルv1〜vnが反射光ベクトルr2に近いほど大きくなる。
【0070】
そこで、追跡過程において各フレームで設定される追跡領域Dの平均輝度を記憶装置13に格納しておき、形状復元手段19において各追跡領域Dごとに平均輝度が最大になるフレームを撮像したときのカメラ姿勢ベクトルv1〜vnを求め、求めたカメラ姿勢ベクトルv1〜vnを反射光ベクトルr2の近似値とみなす。反射光ベクトルr2が得られると、各追跡領域Dが設定される面の法線方向Uとの関係で照明光ベクトルr1を推定することができるから、すべての追跡領域Dについて得られる照明光ベクトルr1の推定値のばらつきの程度を評価し、ばらつきが小さいときには、単一光源が存在すると判断することができる。このとき、各追跡領域Dについて得られた照明光ベクトルr1の推定値の平均値を照明光ベクトルr1として用いる。
【0071】
ところで、上述したように、カメラ2によって追跡領域Dを追跡する過程において追跡領域Dの一部または全部を撮像できなくなることがある。追跡領域Dを撮像できなくなる原因として以下の3種類の場合が考えられる。
【0072】
すなわち、図29のように、対象物1に設定した追跡領域Dとカメラ2との間に他の物体3が存在して追跡領域Dが隠蔽される場合(以下、他者隠蔽という)、図30のように、対象物1に設定した追跡領域Dがカメラ2に対して対象物1の背面側に位置する場合(以下、自己隠蔽という)、図31のように追跡領域Dの一部がカメラ2の視野VFの外に出る場合(以下、フレームアウトという)の3種類の場合である。
【0073】
上述のようにカメラ2で撮像できない領域(以下、撮像不可領域という)は以下の手順によって抽出される。すなわち、まず追跡過程において撮像不可領域が生じていない追跡領域を基準領域として設定する。このような基準領域は、時系列画像群のうちの複数の画像において境界要素の個数が変化しない追跡領域を用いて設定する。ここに、境界要素としては線要素と点要素とのいずれかを用いればよい。たとえば、図32(a)に示す時系列画像群V11〜V13では追跡領域D11〜D13は5個の点要素および5本の線要素を有しており、点要素および線要素の個数に変化は生じていない。また、図32(b)に示す時系列画像群V21,V22では追跡領域D21,D22は4個の点要素および4本の線要素を有しており、この場合も点要素および線要素の個数に変化はない。
【0074】
基準領域を設定する際には、上述のように複数の画像において境界要素の個数に変化が生じない境界領域を選択し、点要素の対応をとってステレオ法や因子分解法のような手法を適用することにより3次元空間に追跡領域をマッピングする。たとえば、図33(a)(b)のような2画像において、追跡領域D1,D2の点要素の座標が図33(a)(b)のように設定されているものとする。ここで、各点要素を図33(c)のようにマッピングする場合に因子分解法を採用するものとすれば、各画像における追跡領域D1、D2の点要素の座標と、3次元空間での点の座標との関係を数1の形に表すことができる。
【0075】
【数1】
数1において右辺の左の行列式はカメラ2の向きを表しており、第1行の(CX1 CY1 CZ1)、第3行の(CX3 CY3 CZ3)は図33(a)の画像を得る際のカメラ2の画像面のx軸、y軸方向のベクトルを示し、第2行の(CX2 CY2 CZ2)、第4行の(CX4 CY4 CZ4)は図33(b)の画像を得る際のカメラ2の画像面のx軸、y軸方向のベクトルを示す。右辺の中央の行列は因子分解法によって求められた対角行列であり、この成分から次式で寄与率Kを求めることができる。
K=(a+b+c)/(a+b+c+d)
撮像不可領域が生じなければ、時系列画像群の中に設定された各追跡領域間での点要素に誤対応がないと考えられるから、寄与率Kに対して適宜の閾値を設定しておき、上述のようにして求めた寄与率Kが閾値を超えるときには撮像不可領域が生じないものと判断して、3次元空間にマッピングした領域を基準領域候補とする。境界要素のうち点要素の個数に変化が生じない追跡領域ごとに基準領域候補を求めるため、3次元空間において1つの面に対応する基準領域候補は複数生成されることになる。そこで、複数の基準領域候補を求め、その中で面積が最大である基準領域候補を3次元空間における1つの面に対する基準領域として採用する。
【0076】
基準領域が決定されれば、撮像不可領域を抽出することができる。つまり、基準領域を決定した追跡領域を時系列画像群で追跡する間に点要素が対応しなくなれば撮像不可領域が生じたと判断することができる。たとえば、図34に示すように、基準領域DSが設定されているとすれば、基準領域DSは境界要素として点要素pS1〜pS4を備えていることになる。これに対して、追跡領域Dをステレオ法や因子分解法によって3次元空間にマッピングしたときに、図34に示すように追跡領域Dが5個の点要素p1〜p5を含むようになったとすれば、追跡領域Dの点要素p1〜p3は基準領域DSの点要素pS1〜pS3に対応するものの、追跡領域Dの点要素p4,p5には基準領域DSに対応する点要素がないことになる。つまり、基準領域DSと追跡領域Dとにおいて互いに対応するものがない点要素pS4,p4,p5に囲まれた領域を撮像不可領域とみなすことができる。
【0077】
上述の説明では点要素を用いているが、線要素を用いる場合には、図35のように基準領域DSの線要素sS2,sS3には追跡領域Dの線要素s2,s3が対応し、また基準領域DSの線要素sS1,sS4には追跡領域Dの線要素s1,s4が対応するが、追跡領域Dの線要素s5については基準領域DSに対応する線要素が存在しないから、この線要素s5が撮像不可領域の一部であると判断することができる。
【0078】
上述のようにして撮像不可領域が抽出された後には、撮像不可領域が生じた原因が、他者隠蔽と自己隠蔽とフレームアウトとのいずれであるかを判断する。この判断には、上述のようにして求めたすべての基準領域を3次元空間にマッピングした状態から時系列画像群における各画像の画像面に基準領域を投影する。すなわち、カメラ2の位置によって撮像不可領域が生じた画像面の3次元空間内での位置を規定できるから、この画像面に対して基準領域を投影すれば、基準領域を設定した面同士が重なっているかあるいは画像面の外にはみ出しているかを知ることができる。また、基準領域を設定した面とカメラ2(つまり画像面)との距離関係によって基準領域を設定したどの面に撮像不可領域が生じているかを知ることができる。以下では基準領域を設定した面を基準面と呼ぶことにする。
【0079】
ここで、3次元空間において撮像不可領域の生じている基準面とカメラ2との間に他の基準面が存在する場合であって、撮像不可領域の生じている基準面に連続する基準面が存在しないときには、他者隠蔽であると判断する。たとえば、図36においては基準面SR1に撮像不可領域(斜線部)が生じているが、この基準面SR1に対して画像内で隣接している基準面SR2は3次元空間では接続されていないから、他者隠蔽と判断される。
【0080】
一方、3次元空間において撮像不可領域の生じている基準面とカメラ2との間に他の基準面が存在する場合であって、撮像不可領域の生じている基準面に連続する基準面が存在するときには、自己隠蔽であると判断する。たとえば、図37においては基準面SR3に撮像不可領域(斜線部)が生じており、基準面SR3に対して画像内で隣接している基準面SR4,SR5は3次元空間においても接続されているから、この場合には基準面SR3は自己隠蔽によって撮像不可領域になっていると判断される。
【0081】
さらに、図38に示すように、撮像不可領域を生じている基準面SR6の一部が画像面の周縁に跨っているときには、フレームアウトであると判断される(基準面SR6のうち画面から外に出ている部分を斜線部で示す)。
【0082】
上述のようにして、基準面と画像面との距離および撮像不可領域を生じている基準面と他の基準面との接続関係などに基づいて、撮像不可領域を生じている原因が他者隠蔽、自己隠蔽、フレームアウトのいずれであるかを判定することができる。
【0083】
撮像不可領域が生じている原因を上述のようにして判定した後には、判定結果の検証を行う。つまり、撮像不可領域を生じている基準面SRにおいて、図39に示すように撮像不可領域の存在する方向にエッジE1,E2を延長し、延長したエッジE1,E2の交点を基準面SRの新たな点要素とみなして追跡処理を行う。このとき、上述した寄与率が向上すれば、撮像不可領域は他者隠蔽または自己隠蔽により生じているものと最終的に確定される。ここで、他者隠蔽による撮像不可領域はカメラ2が移動することによって撮像可能になることがあるから追跡処理を継続し、自己隠蔽による撮像不可領域はカメラ2の移動によって再び撮像可能になることはないものと判断して追跡処理を終了する。
【0084】
図40に撮像不可領域に対する処理の手順をまとめて示す。すなわち、まず基準領域を設定するために、複数の画像において境界要素の数が変化しない追跡領域を抽出する(S1)。ここで、対象物1の1つの面を形成している追跡領域を複数の画像から抽出するとともに対応する追跡領域に対して座標変換を施すことによって3次元空間に追跡領域をマッピングし(S2)、マッピングの際の寄与率を求める(S3)。抽出可能なすべての面について3次元空間へのマッピングと寄与率の演算とを終了した後(S4)、3次元空間にマッピングしたときに寄与率が閾値以上となった面を基準領域候補として抽出する(S5)。さらに、基準領域候補から面積がもっとも大きいものを抽出して基準領域とする(S6)。基準領域が決定されると、次に撮像不可領域を抽出し(S7)、さらに3次元空間において注目する基準領域と同じ画像内で他の基準領域およびカメラとの位置関係を求める(S8)。ここで、撮像不可領域が生じている基準領域に対して他の基準領域が離れている場合には(S9)、他者隠蔽と判断し(S10)、撮像不可領域が生じている基準領域に対して他の基準領域が接続されている場合には(S11)、自己隠蔽と判断する(S12)。他者隠蔽、自己隠蔽のいずれも生じていない場合には、撮像不可領域が生じている基準領域についてフレーム内での位置を求め(S13)、画像の周縁付近に基準領域が存在しているときには(S14)、フレームアウトと判断する(S15)。以上の処理を全フレームについて行った後(S16)、撮像不可領域に対応するエッジを延長し追跡処理を再実行して隠蔽の有無を確定する(S17)。
【0085】
(第2の実施の形態)
第1の実施の形態は隠蔽の有無を検出する方法であったが、本実施形態では、画像内に含まれる面に変化が生じない一連の複数の画像をフェーズ画像群とし、フェーズ画像群ごとに3次元空間に追跡領域をマッピングし、マッピングにより得られた3次元形状を座標変換により重ね合わせて対象物1の全体の3次元データを得る方法について説明する。したがって、本実施形態において対象物1を境界要素で表して追跡する処理については第1の実施の形態と共通化することができる。本実施形態は他者隠蔽が生じない対象物1であれば単独で処理することができ、また第1の実施の形態における隠蔽の有無を検出する処理の後に、第1の実施の形態において用いた追跡の処理の結果を用いて本実施形態の処理を行うことも可能である。
【0086】
以下では説明を容易にするために、対象物1が図41のように直方体状であるものとする。図41において矢印Aはカメラ2の移動を表す。つまり、他者隠蔽は生じないものとして本実施形態の処理を説明する。また、対象物1の各面を図42のように規定する。つまり、図42の上面をf1、下面をf2とし、図42の手前左面、手前右面をそれぞれf3、f4、図42の裏側右面、裏側左面をそれぞれf5、f6とする。このような対象物1を上面から見ると、各面f1、f3〜f6の関係は図43のようになる。いま、対象物1の上面f1の中心を通り上面f1に直交する軸(つまり、図43の破線の交点を通り図の面に直交する軸)の回りでカメラ2を対象物1に対して相対的に回転させ、上記軸に対して45度程度の角度をもって対象物1を斜め上方から撮像するものとする。したがって、撮像によって得られた各画像(フレーム)にはつねに上面f1が含まれていることになる。また、上記軸を含み各面f3〜f6に直交する面内にカメラ2が位置するときには(図43における位置e3〜e6にカメラ2が位置するときには)、各画像(フレーム)に上面f1以外には各面f3〜f6のいずれか1面が含まれることになる。カメラ2がその他の位置(図43における範囲d34,d45,d56,d63)に位置するときには各画像には上面f1のほかに隣接する2面が含まれることになる。
【0087】
つまり、図43に示す位置e3から左回りにカメラ2の位置を変化させると、図44に示すように各画像(図44における各箱がそれぞれ画像を示している)の内容が変化することになる。ただし、上面f1と他の1面との2面のみを含む1つの画像h3〜h6を挟んで、上面f1と他の2面との3面を含む画像群k34,k45,k56,k63が得られるように撮像条件が設定される。つまり、3面を含む画像群k34,k45,k56,k63はそれぞれ連続して複数画像ずつ得られるように撮像条件が設定される。このように同じ面が含まれている連続した複数画像を以下ではフェーズ画像群と呼ぶ。また、フェーズ画像群k34,k45,k56,k63の間の2面のみを含む画像h3〜h6は1画像ずつ独立して得られるように撮像条件が設定される。このような撮像条件で得られた画像では、各フェーズ画像群k34,k45,k56,k63を画像h3〜h6で切り分けることが可能になる。要するに、各画像に含まれる面の数が変化したときに変化の前後で切り分け、同じ面を含む画像が複数連続して得られているときには、それらをまとめてフェーズ画像群とするのである。こうして得られたフェーズ画像群k34,k45,k56,k63の各画像では含まれる面に変化は生じない。
【0088】
本実施形態ではTVカメラ2で取得した対象物1の画像に対して、図1に示した領域指定手段16において、線要素と点要素とからなる境界表現(B−REP:boundary representation)を用いて追跡領域を設定する。また、対象物1から選択した面を領域追跡手段17により追跡する。このような追跡の処理は第1の実施の形態と同様であり、対象物1の面単位で追跡領域を設定し、1つの画面の追跡領域から他の画面の追跡領域の形状を推定して変形領域を生成し、他の画面の画像と変形領域とを比較照合して、変形領域の位置を追跡するのである。このようにして対象物1の面を追跡すれば、各画像内にどの面が含まれているかの情報が得られるから、上述のようにフェーズ画像群k34,k45,k56,k63を設定することができる。
【0089】
上述のようにしてフェーズ画像群k34,k45,k56,k63が設定されると、各フェーズ画像群k34,k45,k56,k63ごとに、追跡領域を3次元空間にマッピングする。なお、フェーズ画像群k34,k45,k56,k63を設定するには、図1に図示していない手段を用いて画像ファイルF1内に格納されている元の動画像からフェーズ画像群k34,k45,k56,k63に切り分ける。元の動画像からフェーズ画像群k34,k45,k56,k63に切り分ける処理としては、2次元画像内で輪郭線によって面を自動的に追跡する画像処理手段を用いる方法か、画面上に複数画像を表示しておき人が手作業で行う方法かのいずれかを用いる。フェーズ画像群k34,k45,k56,k63の各画像では含まれる面に変化が生じないから、フェーズ画像群k34,k45,k56,k63を構成する各画像においては自己隠蔽による点要素の消失が生じることはなく、各フェーズ画像群k34,k45,k56,k63の範囲内においては因子分解法やステレオ法のような従来から知られている手法を適用して追跡領域を3次元空間にマッピングすることができる。
【0090】
いま、図43に示したフェーズ画像群k34,k45,k56,k63を用いることによって、それぞれ図45(a)〜(d)のように3次元空間に追跡領域がマッピングできたとすれば、各フェーズ画像群k34,k45,k56,k63から得られた3次元形状についてのワールド座標系はそれぞれ異なることになる。図45(a)〜(d)においては各3次元形状に対するワールド座標系を、それぞれX1−Y1−Z1,X2−Y2−Z2,X3−Y3−Z3,X4−Y4−Z4で示している。このように、フェーズ画像群k34,k45,k56,k63から得られた3次元形状ごとにワールド座標系が異なっていると、共通した1つの座標系内で対象物1の3次元データを表現することができないから、以下の手順で各ワールド座標系を有した3次元形状を重ね合わせる。
【0091】
ワールド座標系が異なる複数の3次元形状を重ね合わせる際には、重ね合わせの対象となる複数の3次元形状の間に共通する線要素が存在するか否かに応じて手順に相違が生じる。
【0092】
共通の線要素が存在する場合は、共通する線要素が重なるように、対象となる複数の3次元形状に対する座標変換を施す。たとえば、図45において、面f1を囲む各線要素s13,s14,s15,s16は図45(a)〜(d)において共通に存在し、面f4と面f5との境界線としての線要素s45は図45(a)〜(c)において共通に存在する。他にも複数の3次元形状で共通する線要素が存在しているが、できるだけ多くの3次元形状で共通する線要素を選択するのが望ましい。本実施形態では互いに異なる向きであって1点で交わる線要素を選択している。つまり、面f1と面f4との境界線である線要素s14と、面f1と面f5との境界線である線要素f15と、面f4と面f5との境界線である線要素s45との3本を選択している。これらの3本の線要素s14,s15,s45を重ね合わせるように座標変換を施すことで、4個の3次元形状のワールド座標系を統一して図46のように1つのワールド座標系(X−Y−Z)で3次元データを表すことが可能になる。
【0093】
一方、共通の線要素が存在しない場合には、各3次元形状において共通に存在している追跡領域を重ね合わせる。つまり、図45においては面f1がすべての3次元形状に共通に存在するから、この面f1を重ね合わせる。このことは、線要素s13,s14,s15,s16を重ねるように座標変換を行うことと等価である。
【0094】
ところで、上述のようにフェーズ画像群k34,k45,k56,k63ごとに求めた3次元形状のワールド座標系を1つのワールド座標系に統合する際に、各フェーズ画像群k34,k45,k56,k63から求めた3次元形状に誤差があれば、重ね合わせようとする2つのワールド座標系にもずれが生じているから、いずれかの境界要素を重ね合わせると他の境界要素が重ならないというような不都合が生じることがある。そこで、2つのワールド座標系に共通する境界要素(線要素と点要素)ごとに座標変換のための変換行列を求め、求めた複数個の変換行列の各要素(つまり、回転および平行移動に関する変換パラメータ)の平均値を要素とする変換行列を用いて座標変換を行う。このように平均値を用いることで変換行列を一意に決定することができる。
【0095】
いま、図45(a)(b)の3次元形状を対象として説明すれば、2つの3次元形状において3つの面f1,f3,f4の交点である点要素p134は、図47(a)(b)の位置にあり、図47(b)における点要素p134に対して、図47(a)に示す回転rと平行移動mとの座標変換を施すことで、図47(a)の位置に点要素p134を移動させることができるから、回転rと平行移動mとの座標変換によって図45(a)(b)におけるワールド座標系を一致させることができると考えられる。このような座標変換は一般に行列形式で表されるから、行列要素として座標変換を定義することができる。そこで、点要素p134だけではなく、他の点要素(多いほうがよい)についても座標変換の要素を求め、同じ要素ごとに平均値を求め、この平均値を要素とする変換行列を用いて座標変換を施すのである。
【0096】
上述のように複数個の境界要素について求めた変換行列の各要素ごとの平均値を要素とする変換行列を用いることによって、図48のように、2つの3次元形状を重ね合わせた1つの三次元形状を得ることができる。図示例では図47(b)の3次元形状が図47(a)の3次元形状に重なるように座標変換を施した結果であり、座標変換が施された3次元形状のうち面f5は背面側で不可視になっている。ここに、図48においてダッシュ(′)付きの符号は図47(b)の3次元形状に座標変換を施した後の3次元形状を意味する。上述のようにして変換行列の各要素について要素ごとの平均値を用いると、図47(b)の位置に対して座標変換を施した点要素p134′は図47(a)の位置における点要素p134とは完全には一致していない。そこで、最終的には点要素p134と点要素p134′との中点を点要素の位置として決定する。
【0097】
以上のようにして複数の3次元形状から1つの3次元データに統合することが可能になる。なお、本実施形態では面f2についてはカメラ2によって撮像していないから、面f2を正確に規定することはできないが、面f2の周囲を構成する線要素および点要素はカメラ2に撮像されているから、これらの線要素および点要素により表現される平面とみなしている。
【0098】
上述の例において、動画像(時系列画像)を用いて各フェーズ画像群k34,k45,k56,k63を設定するために、面の数が変化することを利用していたが、以下のように自己隠蔽が生じる面の有無によってフェーズ画像群を区切るようにしてもよい。つまり、境界要素を点要素と線要素とで表すだけではなく、各線要素に方向を規定することにより有向の線要素とし、各面の自己隠蔽に伴う線要素の方向の変化を利用して追跡領域である面が不可視になったと判断し、追跡領域である面が可視の状態から不可視の状態に変化したときにフェーズ画像群の区切りと判断するのである。言い換えると、線要素は点要素を順次接続しているから点要素を順に辿ることによって点要素を巡回することになり、巡回する向きを監視しておき巡回する向きが画像内で逆になると、その面が不可視になったと判断できるのである。
【0099】
具体的には、可視である面について図49に矢印を付して示しているように、1つの面を構成する境界要素を線要素の方向に辿ると時計回りで一巡できるように規定しているとすれば、不可視になった面は反時計回りになる。たとえば、図49では面f1,f3,f4が可視であって、面f2,f5,f6が不可視になっている。ここで、カメラ2は対象物1に対して上述した位置関係で対象物1が撮像されていることにより面f1はつねに可視であり、面f2はつねに不可視であるから、面f1,f2は除外する。したがって、ここでは可視・不可視の判断の対象を面f3〜f6とする。この場合、可視である面f3、f4について線要素を時計回りに辿ることができるとすれば、不可視である面f5,f6は線要素を反時計回りに辿ることになる。これは、面f3,f4が不可視になる場合も同様である。要するに、線要素を辿ることで1つの面の境界要素を一巡するように線要素に方向を与えておけば、その面が可視か不可視であるかによって、時計回りに線要素を辿るかと反時計回りに線要素を辿るかが変化するから、これを利用して追跡領域である面が自己隠蔽により不可視になったと判断することができ、動画像(時系列画像)のうちで追跡領域として設定した面が可視から不可視になるとフェーズ画像群の区切りとすることができる。
【0100】
【発明の効果】
請求項1の発明は、静止している対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得し、対象物から選択した面を境界要素と画像特徴量とで表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、他の画像における追跡領域の候補と変形領域とについて境界要素と画像特徴量との少なくとも一方を比較することにより追跡領域の候補から一つの画像内で設定した追跡領域に対応する追跡領域を選択する第1の過程と、撮像されていない領域が少ない追跡領域を3次元空間にマッピングすることにより得られる基準領域を設定し、画像内において追跡領域の少なくとも一部が追跡できないときに複数の基準領域の3次元空間での位置関係に基づいてTVカメラにより撮像できない領域が生じたか否かを判断する第2の過程と、基準領域をTVカメラの各位置において撮像したときの基準領域の位置関係に基づいて追跡領域をTVカメラで撮像できなくなった原因を推定し、推定結果に基づいて追跡領域の追跡が可能となるように修正して追跡を継続させる第3の過程とを備えることを特徴とし、動画像の各画像間で追跡領域を追跡することによって3DCGのデータに用いることができる3次元情報を2次元画像から容易に得ることができるだけではなく、追跡領域のうち撮像されていない領域の発生を検出するとともに、撮像されていない原因を推定するから、追跡領域の追跡が一旦失敗したとしても原因に応じた対処を行って追跡領域を確実に追跡することが可能になる。その結果、得られた3次元情報の妥当性が検証されるとともに、誤差の発生も抑制されることになる。
【0101】
請求項2の発明は、請求項1の発明において、第1の過程で、一つの画像で設定された追跡領域の境界要素について他の画像上で対応する候補を抽出し、境界要素の候補の組み合わせによる追跡候補を生成した後、一つの画像で設定した追跡領域を追跡候補に一致するように変形させた変形領域を生成し、追跡候補と変形領域とについて境界要素の形状、画素値、画像特徴量から選択される指標を比較することにより追跡候補の中から他の画像における追跡領域を決定することを特徴とし、従来のような局所的な特徴を用いるのではなく、追跡領域を構成する線要素(境界線)や点要素(境界線の接合点)、あるいは画像の特徴を用いるから、追跡領域を従来より確実に追跡することが可能になる。
【0102】
請求項3の発明は、請求項2の発明において、他の画像においてエッジを抽出するとともに、エッジのうち一つの画像において追跡領域を構成する線要素との距離および方向が規定範囲内であるエッジを線要素の候補として選択することを特徴し、請求項4の発明は、請求項2の発明において、他の画像においてエッジを抽出するとともに、エッジ上の各画素にハフ変換を行って連続性を有したエッジを抽出し、このエッジのうち一つの画像において追跡領域を構成する線要素との距離および方向が規定範囲内であるエッジを線要素の候補として選択することを特徴とし、請求項5の発明は、請求項2の発明において、一つの画像において追跡領域を構成する点要素の近傍の形状をテンプレートとし、他の画像においてテンプレートにマッチングする部位から点要素の候補を抽出することを特徴としており、いずれにおいても候補となる境界要素の組み合わせによって有限個の追跡候補を生成するから、処理量を制限しながらも正確な追跡が可能になる。
【0103】
請求項6の発明は、請求項2の発明において、追跡候補と変形領域との画素値を指標に用いるので、画像が特徴を持たない場合でも追跡候補と変形領域との比較が可能である。
【0104】
請求項7の発明は、請求項2の発明において、追跡領域と追跡候補との平均輝度を指標に用いることを特徴とし、請求項8の発明は、請求項2の発明において、画像はカラー画像であって、追跡領域と追跡候補との色を指標に用いることを特徴とし、請求項9の発明は、請求項2の発明において、追跡領域と追跡候補との空間周波数分布を指標に用いることを特徴としており、いずれも画像内の特徴を利用することによって、数値の比較によって追跡候補と変形領域とを容易に比較することができる。
【0105】
請求項10の発明は、請求項2の発明において、追跡領域と追跡候補の領域内で画素値の変化が規定値を超える部分を抽出し、この部分の位置、形状、画像特徴の少なくとも1要素を指標に用いるので、画像内の特徴を利用することで追跡候補と変形領域との比較をより確実に行うことができる。
【0106】
請求項11の発明は、請求項2の発明において、画像はカラー画像であって、追跡領域と追跡候補との平均輝度または色を指標に用いる場合と、空間周波数分布を指標に用いる場合と、領域内で画素値の変化が規定値を超える部分を抽出し、この部分の位置、形状、画像特徴の少なくとも1要素を指標に用いる場合とを、一方の画像における追跡領域内での輝度および色の分布パターンに応じて選択することを特徴としており、輝度と色との情報を用いることで、追跡候補と変形領域との比較に適した方法を自動的に選択することができる。
【0107】
請求項12の発明は、請求項2の発明において、複数の追跡領域について複数の画像のうち平均輝度が最大になるときのTVカメラの姿勢を各追跡領域に対応した対象物の面の反射光の方向に近いと推定し、各追跡領域に対応した対象物の面の法線方向と反射光の方向とから光源からの照射方向を推定することを特徴とし、光源の位置を推定することによって影の影響を除去することが可能になり、追跡領域の追跡に際して影の影響による追跡の誤りを防止することができる。
【0108】
請求項13の発明は、請求項1の発明において、第2の過程では、複数の画像間で対応する追跡領域を3次元空間にマッピングし、当該追跡領域の境界要素の対応関係から求められる一致度が閾値以上であるときに3次元空間にマッピングした追跡領域を基準領域とし、基準領域に対応する追跡領域と基準領域との境界要素を比較し、境界要素の変化によって追跡領域中で撮像されていない領域を抽出することを特徴とし、画像から得られた対象物の3次元空間での位置を基準領域によって簡易的に再現することにより、対象物の位置関係を比較的容易に検証することができ、撮像されていない領域が生じるか否かを容易に検証することができる。
【0109】
請求項14の発明は、請求項13の発明において、複数の画像間で境界要素の個数に変化が生じない範囲に限定し、各々の範囲について、マッピング時に得られる寄与率を一致度に用いて寄与率が閾値以上である追跡領域を基準領域の候補とし、基準領域の候補が複数個得られるときには面積が最大になる候補を基準領域として採用することを特徴とし、この技術によって基準領域を求めることにより、対象物の1つの面によりよく対応した基準領域を設定することができるという利点がある。
【0110】
請求項15の発明は、請求項14の発明において、境界要素の個数の変化は、線要素と点要素との一方に着目しているので、処理量が少なく高速な処理が可能になる。
【0111】
請求項16の発明は、請求項14の発明において、寄与率は追跡領域を因子分解法により3次元空間にマッピングする際に得られる対角行列の成分から求めるので、因子分解法を用いた線形演算により安定して解を求めることができる。
【0112】
請求項17の発明は、請求項13の発明において、3次元空間に追跡領域をマッピングするとともに基準領域と比較し、互いに対応しない点要素によって規定される領域を追跡領域中で撮像されていない領域として求めることを特徴とし、請求項18の発明は、請求項13の発明において、3次元空間に追跡領域をマッピングするとともに基準領域と比較し、互いに対応しない線要素が存在するときに、この線要素を追跡領域中で撮像されていない領域の一部とみなすことを特徴としており、撮像されていない領域の範囲を容易に求めることができる。
【0113】
請求項19の発明は、請求項1の発明において、第3の過程で、3次元空間内でのすべての基準領域をTVカメラの位置により決まる画像面に投影し、画像面内における基準領域同士の位置関係および画像面に対する基準領域の位置関係に基づいて、追跡領域中で撮像されていない領域が生じた原因を判定することを特徴とし、実際の対象物の位置関係を簡易的に再現した基準領域の位置関係によるシミュレーションを行って撮像されていない領域が生じた原因を容易に判定することができる。
【0114】
請求項20の発明は、請求項19の発明において、着目する基準領域とTVカメラとの間に他の基準領域が存在し、かつ両基準領域が接続されていないときに他者隠蔽と判定することを特徴とし、請求項21の発明は、請求項19の発明において、着目する基準領域とTVカメラとの間に他の基準領域が存在し、かつ両基準領域が接続されているときに自己隠蔽と判定することを特徴とし、請求項22の発明は、請求項19の発明において、着目する基準領域が画面の周縁に位置するときにフレームアウトと判定することを特徴としており、それぞれ基準領域同士および画像面との位置関係に基づいて撮像されていない領域が生じた原因を判断することができる。
【0115】
請求項23の発明は、請求項19の発明において、追跡領域中で撮像されていない領域が存在するときに、エッジ延長を行い、延長されたエッジの交点を新たな点要素として、追跡処理を再度実行し、3次元空間にマッピングする際に寄与率が向上すれば隠蔽と確定することを特徴とし、追跡領域の隠蔽によって追跡が不可能になる状態を回避することができ、追跡領域をより確実に追跡することが可能になる。
【0116】
請求項24の発明は、TVカメラにより撮像された画像入力画像として与える画像入力部と、入力された画像に対して請求項1記載の画像特徴追跡処理方法による処理を施す画像処理装置と、入力された画像および画像処理装置で処理された画像を格納する記憶装置と、画像処理装置での処理画像を表示する表示手段と、画像処理装置に対して追跡領域を指定する領域指定手段とを備えるものであり、請求項1の発明と同様の効果に加えて、TVカメラとして通常のビデオカメラ等により撮像した動画像を用いて3次元情報を容易に得ることができる。
【0117】
請求項25の発明は、対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得した後、前記対象物から選択した面を境界要素で表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択し、さらに前記対象物の複数の面が撮像されかつ連続して同じ面が撮像されている複数の画像を1つのフェーズ画像群として区切り、次に複数のフェーズ画像について各フェーズ画像群ごとに対象物から選択した面の3次元空間へのマッピングを行うことにより各フェーズ画像群ごとに3次元形状を求め、互いに他のフェーズ画像群の座標系を一致させるように座標変換を行うことによって、3次元データを作成することを特徴とし、動画像(時系列画像)において対象物の同じ面が撮像されている連続した複数の画像をフェーズ画像群とし、フェーズ画像群の範囲内で3次元形状を求めているから、フェーズ画像群の範囲内では各面が自己隠蔽によって追跡できなくなることがなく、3次元形状を確実かつ容易に求めることができる。つまり、従来から知られている因子分解法やステレオ法を適用して3次元形状を求めても不都合が生じない。このようにして個々にフェーズ画像群では、3次元形状を容易に求めることができ、その後、各フェーズ画像群から求めた3次元形状の座標系を一致させるように座標変換を行うことで1つの3次元データにまとめることができるのである。
【0118】
請求項26の発明は、対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得した後、前記対象物から選択した面を境界要素で表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択し、さらに前記対象物の複数の面が撮像されかつ連続して同じ面が撮像されている複数の画像を1つのフェーズ画像群として区切り、次に複数のフェーズ画像について各フェーズ画像群ごとに対象物から選択した面の3次元空間へのマッピングを行うことにより各フェーズ画像群ごとに3次元形状を求め、互いに他のフェーズ画像群に共通している線要素を重ね合わせるように各フェーズ画像群ごとに得られた3次元形状の座標変換を行うことによって、3次元データを作成することを特徴とし、動画像(時系列画像)において対象物の同じ面が撮像されている連続した複数の画像をフェーズ画像群とし、フェーズ画像群の範囲内で3次元形状を求めているから、フェーズ画像群の範囲内では各面が自己隠蔽によって追跡できなくなることがなく、3次元形状を確実かつ容易に求めることができる。つまり、従来から知られている因子分解法やステレオ法を適用して3次元形状を求めても不都合が生じない。このようにして個々にフェーズ画像群では、3次元形状を容易に求めることができ、その後、各フェーズ画像群から求めた3次元形状の線要素同士を重ね合わせるように座標変換を行うことで1つの3次元データにまとめることができるのである。
【0119】
請求項27の発明は、請求項25または請求項26の発明において、前記TVカメラにより撮像して取得した前記複数の画像内で前記対象物から選択した面を、点要素と各点要素を順次接続する有向の線要素とからなる境界要素で表し、時系列で得られる各画像において線要素を辿って各点要素を巡回する向きを監視し、巡回する向きが逆になるまでを1つのフェーズ画像群とすることを特徴とし、フェーズ画像群を区切る処理が自動化可能になる。
【0120】
請求項28の発明は、請求項25または請求項26の発明において、前記座標変換では、境界要素ごとに回転および平行移動に関する変換パラメータを求めた後、境界要素ごとに求めた変換パラメータをそれぞれ平均した変換パラメータを用いて座標変換を行うことを特徴とし、座標変換の変換パラメータを平均化することで個々の境界要素から求めた変換パラメータが不一致の場合でも変換パラメータを一意に決定することができる。
【0121】
請求項29の発明は、請求項25または請求項26の発明において、座標系を互いに一致させる一方の3次元形状に前記座標変換を施した後の各点要素の位置と他方の3次元形状においてそれぞれ対応する各点要素の位置との中点を、各点要素の位置とすることを特徴とし、座標変換を行ったときに点要素の位置にずれがあっても各点要素の位置を一意に決定することが可能になる。
【図面の簡単な説明】
【図1】本発明の実施形態に用いる装置を示すブロック図である。
【図2】同上においてTVカメラにより対象物を撮像する状態を示す斜視図である。
【図3】同上において得られた時系列画像群を示す図である。
【図4】同上における画像の例を示す図である。
【図5】同上における追跡領域の例を示す図である。
【図6】同上における対象物の例を示す図である。
【図7】同上の動作説明図である。
【図8】同上における追跡候補の例を示す図である。
【図9】同上における変形領域の例を示す図である。
【図10】同上において変形領域を生成する過程を示す図である。
【図11】同上の動作説明図である。
【図12】同上におけるテンプレートの例を示す図である。
【図13】同上における追跡候補の例を示す図である。
【図14】同上における変形領域の例を示す図である。
【図15】同上の動作説明図である。
【図16】同上における追跡領域の例を示す図である。
【図17】同上の動作説明図である。
【図18】同上における変形領域の例を示す図である。
【図19】同上の動作説明図である。
【図20】同上の動作説明図である。
【図21】同上の動作説明図である。
【図22】同上の動作説明図である。
【図23】同上の動作説明図である。
【図24】同上の動作説明図である。
【図25】同上の動作説明図である。
【図26】同上の動作説明図である。
【図27】同上において影が生じる例を示す図である。
【図28】同上の動作説明図である。
【図29】同上の動作説明図である。
【図30】同上の動作説明図である。
【図31】同上の動作説明図である。
【図32】同上の動作説明図である。
【図33】同上の動作説明図である。
【図34】同上の動作説明図である。
【図35】同上の動作説明図である。
【図36】同上の動作説明図である。
【図37】同上の動作説明図である。
【図38】同上の動作説明図である。
【図39】同上の動作説明図である。
【図40】同上の動作説明図である。
【図41】本発明の第2の実施の形態においてTVカメラにより対象物を撮像する状態を示す斜視図である。
【図42】同上に用いる対象物を示す斜視である。
【図43】同上に用いる対象物を示す平面図である。
【図44】同上におけるフェーズ画像群の概念を説明する図である。
【図45】同上において各フェーズ画像群から3次元形状を得た状態を示す図である。
【図46】同上において3次元形状を統合した状態を示す図である。
【図47】同上の動作説明図である。
【図48】同上の動作説明図である。
【図49】同上の動作説明図である。
【符号の説明】
1 対象物
2 TVカメラ
3 物体
11 画像入力装置
12 画像入力手段
13 記憶装置
14 画像処理装置
15 表示手段
16 領域指定手段
17 領域追跡手段
18 追跡評価手段
19 形状復元手段
D 追跡領域
E 変形領域
F1 画像ファイル
F2 追跡データファイル
F3 3次元形状データファイル
Claims (29)
- 静止している対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得し、前記対象物から選択した面を境界要素と画像特徴量とで表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素と画像特徴量との少なくとも一方を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択する第1の過程と、TVカメラにより撮像されていない領域が少ない追跡領域を3次元空間にマッピングすることにより得られる基準領域を設定し、画像内において追跡領域の少なくとも一部が追跡できないときに複数の基準領域の3次元空間での位置関係に基づいてTVカメラにより撮像できない領域が生じたか否かを判断する第2の過程と、前記基準領域をTVカメラの各位置において撮像したときの基準領域の位置関係に基づいて追跡領域をTVカメラで撮像できなくなった原因を推定し、推定結果に基づいて追跡領域の追跡が可能となるように修正して追跡を継続させる第3の過程とを備えることを特徴とする画像特徴追跡処理方法。
- 前記第1の過程において、一つの画像で設定された追跡領域の境界要素について他の画像上で対応する候補を抽出し、境界要素の候補の組み合わせによる追跡候補を生成した後、前記一つの画像で設定した追跡領域を追跡候補に一致するように変形させた変形領域を生成し、追跡候補と変形領域とについて境界要素の形状、画素値、画像特徴量から選択される指標を比較することにより追跡候補の中から前記他の画像における追跡領域を決定することを特徴とする請求項1記載の画像特徴追跡処理方法。
- 前記他の画像においてエッジを抽出するとともに、エッジのうち前記一つの画像において追跡領域を構成する線要素との距離および方向が規定範囲内であるエッジを線要素の候補として選択することを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記他の画像においてエッジを抽出するとともに、エッジ上の各画素にハフ変換を行って連続性を有したエッジを抽出し、このエッジのうち前記一つの画像において追跡領域を構成する線要素との距離および方向が規定範囲内であるエッジを線要素の候補として選択することを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記一つの画像において追跡領域を構成する点要素の近傍の形状をテンプレートとし、前記他の画像においてテンプレートにマッチングする部位から点要素の候補を抽出することを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記追跡候補と前記変形領域との画素値を前記指標に用いることを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記追跡領域と前記追跡候補との平均輝度を前記指標に用いることを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記画像はカラー画像であって、前記追跡領域と前記追跡候補との色を前記指標に用いることを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記追跡領域と前記追跡候補との空間周波数分布を前記指標に用いることを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記追跡領域と前記追跡候補の領域内で画素値の変化が規定値を超える部分を抽出し、この部分の位置、形状、画像特徴の少なくとも1要素を前記指標に用いることを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記画像はカラー画像であって、前記追跡領域と前記追跡候補との平均輝度または色を前記指標に用いる場合と、空間周波数分布を前記指標に用いる場合と、領域内で画素値の変化が規定値を超える部分を抽出し、この部分の位置、形状、画像特徴の少なくとも1要素を前記指標に用いる場合とを、前記一方の画像における追跡領域内での輝度および色の分布パターンに応じて選択することを特徴とする請求項2記載の画像特徴追跡処理方法。
- 複数の追跡領域について複数の画像のうち平均輝度が最大になるときのTVカメラの姿勢を各追跡領域に対応した対象物の面の反射光の方向に近いと推定し、各追跡領域に対応した対象物の面の法線方向と反射光の方向とから光源からの照射方向を推定することを特徴とする請求項2記載の画像特徴追跡処理方法。
- 前記第2の過程において、複数の画像間で対応する追跡領域を3次元空間にマッピングし、当該追跡領域の境界要素の対応関係から求められる一致度が閾値以上であるときに3次元空間にマッピングした追跡領域を基準領域とし、基準領域に対応する追跡領域と基準領域との境界要素を比較し、境界要素の変化によって追跡領域中で撮像されていない領域を抽出することを特徴とする請求項1記載の画像特徴追跡処理方法。
- 複数の画像間で境界要素の個数に変化が生じない範囲に限定し、各々の範囲について、マッピング時に得られる寄与率を一致度に用いて寄与率が閾値以上である追跡領域を基準領域の候補とし、基準領域の候補が複数個得られるときには面積が最大になる候補を基準領域として採用することを特徴とする請求項13記載の画像特徴追跡処理方法。
- 境界要素の個数の変化は、線要素と点要素との一方に着目することを特徴とする請求項14記載の画像特徴追跡処理方法。
- 前記寄与率は追跡領域を因子分解法により3次元空間にマッピングする際に得られる対角行列の成分から求めることを特徴とする請求項14記載の画像特徴追跡処理方法。
- 3次元空間に追跡領域をマッピングするとともに基準領域と比較し、互いに対応しない点要素によって規定される領域を追跡領域中で撮像されていない領域として求めることを特徴とする請求項13記載の画像特徴追跡処理方法。
- 3次元空間に追跡領域をマッピングするとともに基準領域と比較し、互いに対応しない線要素が存在するときに、この線要素を追跡領域中で撮像されていない領域の一部とみなすことを特徴とする請求項13記載の画像特徴追跡処理方法。
- 前記第3の過程において、3次元空間内でのすべての基準領域をTVカメラの位置により決まる画像面に投影し、画像面内における基準領域同士の位置関係および画像面に対する基準領域の位置関係に基づいて、追跡領域中で撮像されなていない領域が生じた原因を判定することを特徴とする請求項1記載の画像特徴追跡処理方法。
- 着目する基準領域とTVカメラとの間に他の基準領域が存在し、かつ両基準領域が接続されていないときに他者隠蔽と判定することを特徴とする請求項19記載の画像特徴追跡処理方法。
- 着目する基準領域とTVカメラとの間に他の基準領域が存在し、かつ両基準領域が接続されているときに自己隠蔽と判定することを特徴とする請求項19記載の画像特徴追跡処理方法。
- 着目する基準領域が画面の周縁に位置するときにフレームアウトと判定することを特徴とする請求項19記載の画像特徴追跡処理方法。
- 追跡領域中で撮像されていない領域が存在するときに、エッジ延長を行い、延長されたエッジの交点を新たな点要素として、追跡処理を再度実行し、3次元空間にマッピングする際に寄与率が向上すれば隠蔽と確定することを特徴とする請求項19記載の画像特徴追跡処理方法。
- TVカメラにより撮像された画像入力画像として与える画像入力部と、入力された画像に対して請求項1記載の画像特徴追跡処理方法による処理を施す画像処理装置と、入力された画像および画像処理装置で処理された画像を格納する記憶装置と、画像処理装置での処理画像を表示する表示手段と、画像処理装置に対して追跡領域を指定する領域指定手段とを備えることを特徴とする画像特徴追跡処理装置。
- 対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得した後、前記対象物から選択した面を境界要素で表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択し、さらに前記対象物の複数の面が撮像されかつ連続して同じ面が撮像されている複数の画像を1つのフェーズ画像群として区切り、次に複数のフェーズ画像について各フェーズ画像群ごとに対象物から選択した面の3次元空間へのマッピングを行うことにより各フェーズ画像群ごとに3次元形状を求め、互いに他のフェーズ画像群の座標系を一致させるように座標変換を行うことによって、3次元データを作成することを特徴とする3次元データ作成方法。
- 対象物を異なる複数位置からTVカメラにより撮像して複数の画像を取得した後、前記対象物から選択した面を境界要素で表した追跡領域として画像内に設定し、一つの画像内で設定した追跡領域を他の画像における追跡領域の候補の境界要素に一致するように変形させた変形領域を作成し、前記他の画像における追跡領域の候補と変形領域とについて境界要素を比較することにより追跡領域の候補から前記一つの画像内で設定した追跡領域に対応する追跡領域を選択し、さらに前記対象物の複数の面が撮像されかつ連続して同じ面が撮像されている複数の画像を1つのフェーズ画像群として区切り、次に複数のフェーズ画像について各フェーズ画像群ごとに対象物から選択した面の3次元空間へのマッピングを行うことにより各フェーズ画像群ごとに3次元形状を求め、互いに他のフェーズ画像群に共通している線要素を重ね合わせるように各フェーズ画像群ごとに得られた3次元形状の座標変換を行うことによって、3次元データを作成することを特徴とする3次元データ作成方法。
- 前記TVカメラにより撮像して取得した前記複数の画像内で前記対象物から選択した面を、点要素と各点要素を順次接続する有向の線要素とからなる境界要素で表し、時系列で得られる各画像において線要素を辿って各点要素を巡回する向きを監視し、巡回する向きが逆になるまでを1つのフェーズ画像群とすることを特徴とする請求項25または請求項26記載の3次元データ作成方法。
- 前記座標変換では、境界要素ごとに回転および平行移動に関する変換パラメータを求めた後、境界要素ごとに求めた変換パラメータをそれぞれ平均した変換パラメータを用いて座標変換を行うことを特徴とする請求項25または請求項26記載の3次元データ作成方法。
- 座標系を互いに一致させる一方の3次元形状に前記座標変換を施した後の各点要素の位置と他方の3次元形状においてそれぞれ対応する各点要素の位置との中点を、各点要素の位置とすることを特徴とする請求項25または請求項26記載の3次元データ作成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000048117A JP3800905B2 (ja) | 1999-07-27 | 2000-02-24 | 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21189899 | 1999-07-27 | ||
JP11-211898 | 1999-07-27 | ||
JP2000048117A JP3800905B2 (ja) | 1999-07-27 | 2000-02-24 | 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001101419A JP2001101419A (ja) | 2001-04-13 |
JP3800905B2 true JP3800905B2 (ja) | 2006-07-26 |
Family
ID=26518892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000048117A Expired - Fee Related JP3800905B2 (ja) | 1999-07-27 | 2000-02-24 | 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3800905B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4524514B2 (ja) * | 1999-08-05 | 2010-08-18 | ソニー株式会社 | 画像処理装置、画像処理方法、および記録媒体 |
US7274820B2 (en) | 2001-09-26 | 2007-09-25 | Kabushiki Kaisha Toshiba | Pattern evaluation system, pattern evaluation method and program |
JP3677253B2 (ja) * | 2002-03-26 | 2005-07-27 | 株式会社東芝 | 映像編集方法及びプログラム |
KR101379074B1 (ko) * | 2007-04-15 | 2014-03-28 | 익스트림 리얼리티 엘티디. | 인간 기계 인터페이스를 위한 장치 시스템 및 방법 |
KR101634228B1 (ko) * | 2009-03-17 | 2016-06-28 | 삼성전자주식회사 | 디지털 이미지 처리장치, 추적방법, 추적방법을 실행시키기위한 프로그램을 저장한 기록매체 및 추적방법을 채용한 디지털 이미지 처리장치 |
KR101706092B1 (ko) * | 2010-09-29 | 2017-02-14 | 삼성전자주식회사 | 3차원 물체 추적 방법 및 장치 |
US9582896B2 (en) * | 2011-09-02 | 2017-02-28 | Qualcomm Incorporated | Line tracking with automatic model initialization by graph matching and cycle detection |
US9406137B2 (en) * | 2013-06-14 | 2016-08-02 | Qualcomm Incorporated | Robust tracking using point and line features |
KR102128899B1 (ko) * | 2018-08-01 | 2020-07-02 | (주)에이앤아이 | 색상 및 휘도 측정장치 |
JP7475187B2 (ja) * | 2020-04-15 | 2024-04-26 | キヤノン株式会社 | 表示制御装置および方法、プログラム、記憶媒体 |
CN112464734B (zh) * | 2020-11-04 | 2023-09-15 | 昆明理工大学 | 一种基于视觉的四足动物行走运动特征自动识别方法 |
CN112904719B (zh) * | 2021-01-15 | 2022-08-02 | 哈尔滨工程大学 | 一种适用于水下机器人位置环形区域跟踪控制方法 |
CN113763419B (zh) * | 2021-04-29 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 一种目标跟踪方法、设备及计算机可读存储介质 |
-
2000
- 2000-02-24 JP JP2000048117A patent/JP3800905B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001101419A (ja) | 2001-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6321106B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
US9858670B2 (en) | Information processing apparatus and method thereof | |
JP5133418B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
US6278460B1 (en) | Creating a three-dimensional model from two-dimensional images | |
US8452081B2 (en) | Forming 3D models using multiple images | |
US7352386B1 (en) | Method and apparatus for recovering a three-dimensional scene from two-dimensional images | |
US6529626B1 (en) | 3D model conversion apparatus and method | |
US8077906B2 (en) | Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same | |
US20020164067A1 (en) | Nearest neighbor edge selection from feature tracking | |
JP3800905B2 (ja) | 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 | |
US10783607B2 (en) | Method of acquiring optimized spherical image using multiple cameras | |
Meerits et al. | Real-time diminished reality for dynamic scenes | |
Ding et al. | Fusing structure from motion and lidar for dense accurate depth map estimation | |
US20040165776A1 (en) | Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures | |
JP6762570B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
Yaguchi et al. | Arbitrary viewpoint video synthesis from multiple uncalibrated cameras | |
Thomas et al. | Modeling large-scale indoor scenes with rigid fragments using RGB-D cameras | |
Ventura et al. | Online environment model estimation for augmented reality | |
Zhou et al. | New eye contact correction using radial basis function for wide baseline videoconference system | |
Smith et al. | Improving Augmented Reality using Image and Scene Constraints. | |
Kitahara et al. | Scalable 3D representation for 3D video in a large-scale space | |
Van De Wouw et al. | Fast 3D Scene Alignment with Stereo Images using a Stixel-based 3D Model. | |
JP2002216163A (ja) | 任意視点によるパノラマ画像の生成方法、コンピュータプログラム及び記録媒体 | |
GB2358307A (en) | Method of determining camera projections in 3D imaging having minimal error |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060424 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090512 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090512 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110512 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120512 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120512 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130512 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130512 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |