JP2000348181A - 移動物体追跡装置 - Google Patents

移動物体追跡装置

Info

Publication number
JP2000348181A
JP2000348181A JP11308187A JP30818799A JP2000348181A JP 2000348181 A JP2000348181 A JP 2000348181A JP 11308187 A JP11308187 A JP 11308187A JP 30818799 A JP30818799 A JP 30818799A JP 2000348181 A JP2000348181 A JP 2000348181A
Authority
JP
Japan
Prior art keywords
tracking
moving object
observation
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11308187A
Other languages
English (en)
Other versions
JP3401512B2 (ja
Inventor
Akira Uchiumi
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP30818799A priority Critical patent/JP3401512B2/ja
Publication of JP2000348181A publication Critical patent/JP2000348181A/ja
Application granted granted Critical
Publication of JP3401512B2 publication Critical patent/JP3401512B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 複数の視点で非同期に撮影した画像内の特徴
点に基づき、移動物体を高精度に追跡することが可能な
移動物体追跡装置を提供する。 【解決手段】 カメラ2♯1〜2♯nは、それぞれ独立
して画像を取込む。観測部4♯1〜4♯nのそれぞれ
は、対応するカメラ2♯1〜2♯2で得られた入力画像
に対し特徴抽出処理を行なう。得られた特徴量は、追跡
部8から送られてくる予測観測位置をもとに各追跡目標
と対応付けられた後、追跡部8に送信される。対応がと
れなかった特徴量は、発見部6に送られる。発見部6で
は、未対応点情報を用いて新規人物の検出を行なう。新
規人物の検出結果は、追跡部8に送信される。追跡部8
では、カルマンフィルタを用いることにより、各人物情
報が更新される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、移動物体追跡装置
に関し、さらに詳しくは、非同期で得られる多視点画像
により移動物体を追跡する移動物体追跡装置に関する。
【0002】
【従来の技術】異なる視点で得られる複数の画像からシ
ーン内の奥行き情報を得るステレオ計測は、画像からの
3次元情報の復元を主要な課題の1つとするコンピュー
タビジョン研究において重要な位置を占めている。
【0003】ステレオ計測において特に重要となるのが
画像間の対応付けであり、誤った対応付けを少なくする
ために特徴量を適切に選択したり(Marr D. And Poggio
T.A theory of human stereo vision. In Roy. Soc. L
ondon, pp. 301−328.1979)、より多くの
視点を有効に利用する手法(Ramakant Nevatia. Depth
measurement by motion stereo. Computer Graphics an
d Image Processing vol. 5, pp.203−214,19
76)が開発されてきた。これらは主に、静的なシーン
を対象としたものであり、この場合のステレオ法の持つ
誤差については既に多くの報告がある(Jeffrey J. Rod
riguez and J. K. Aggarwal. Stochastic Analysis of
stereo quantization error. IEEE Pattern Anal. Mach
ine Intell., Vol.12, No.5,pp.467−470,
5 1992)。
【0004】動きを持つシーンを対象とした研究では、
ステレオ観測に基づくロボットのナビゲーション(Larr
y Matthies and Steven A. Shafer. Error Modeling in
stereo navigation. IEEE Rebotics and Automation,
vol. RA-3, No.3, pp.239−248, 1987)、
1台のカメラによる既知形状のトラッキング(Akio Kos
aka and Goichi Nakazawa. Vision-based motion track
ing of rigid objectsusing prediction of uncertaini
es. In Proc. of International Conferenceon Robotic
s and Automation, pp.2637−2644,195
5)、ステレオ計測による既知形状のトラッキング(Ge
m-Sun J. Young and Rama Chellappa. 3-d motion esti
mation using a sequence of noisy stereo images: Mo
dels, estimation, and Uniqueness results. IEEE Pat
tern Anal. Machine Intell., Vol.12,No.8,pp.7
35−759,1990)、ステレオ観測に基づく複数
物体の追跡(Jae-Woong Yi and Jun-Ho Oh. Recursive
resolving algorithm formultiple stereo and motion
matches. Image and Vision Computing, Vol.15, pp.
181−196,1997)などが提案されている。画
像特徴を対象とする物体モデルと関連付けながら複数物
体を追跡するこれらの問題設定は、「動きの対応付け」
(Motion Correspondence)として知られている(Ingem
ar J. Cox.A review of statical data association te
chniques for motion correspondence. International
Journal of Computer Vision, Vol.10:1, pp.53
−66,1993)。
【0005】
【発明が解決しようとする課題】ところで、上述した従
来の手法はいずれも、一定間隔で複数視点の観測が同時
に行なわれ、または静止シーン(同時観測と等価)であ
ることを前提としている。観測を同時に行なった場合、
同じ物理的特徴を観測することになるので動きの対応付
けが容易になる。
【0006】しかしながら、同時観測を行なう従来の手
法においても、時系列で物体を追跡するためには異なる
時刻間で「動きの対応付け」が依然として必要となる。
【0007】さらに、従来の多視点画像を利用したシス
テムの多くは、追跡時の位置情報の獲得のために視点間
で同時に観測が行なわれていることを前提としているた
め、各視点で得られた画像を処理する際には、全体の処
理速度は最も処理の遅いプロセスにより制限されるとい
う問題があった。また、このようなシステムでは画像情
報のやり取りの他に視点間の同期を行なうための手段を
別途必要とする。これら同期を前提とした従来のシステ
ムの持つ問題は、利用する視点数が増加するに伴いより
顕著になる。
【0008】そこで、本発明はこのような問題を解決す
るためになされたものであり、異なる時刻に観測された
情報を統合し、非同期で高精度な追跡を行なうことがで
きる移動物体追跡装置を提供することである。
【0009】また、本発明のさらなる目的は、簡素化さ
れたシステム構成において、効率よく変化する物体を追
跡することができる移動物体追跡装置を提供することで
ある。
【0010】
【課題を解決するための手段】請求項1に係る移動物体
追跡装置は、シーン内を移動する移動物体を追跡する移
動物体追跡装置であって、シーン内を複数の視点から撮
影するための複数の撮影手段と、複数の撮影手段のそれ
ぞれに対応して設けられ、互いに独立して動作し、対応
する撮影手段から受ける画像から特徴点を抽出し、抽出
結果を観測情報として出力する複数の観測手段と、複数
の観測手段のうち特徴点を抽出した観測手段からの要求
に従い、カルマンフィルタを用いて複数の観測手段の観
測情報を統合することにより移動物体の状態を予測する
追跡手段とを備える。
【0011】請求項2に係る移動物体追跡装置は、請求
項1に係る移動物体追跡装置であって、複数の観測手段
のそれぞれは、対応する撮影手段から受ける画像を背景
画像と移動物体領域とに分割する領域分割手段と、領域
分割手段により取出された移動物体領域の重心点を求
め、特徴点として重心点の情報を出力する手段とを含
む。
【0012】請求項3に係る移動物体追跡装置は、請求
項1に係る移動物体追跡装置であって、追跡手段は、計
算機で構成され、複数の観測手段のそれぞれは、計算機
で構成され、複数の観測手段のそれぞれと追跡手段と
は、相互通信を行なう。
【0013】請求項4に係る移動物体追跡装置は、シー
ン内を移動する移動物体を追跡する移動物体追跡装置で
あって、シーン内を複数の視点から撮影するための複数
の撮影手段と、複数の撮影手段のそれぞれに対応して設
けられ、互いに独立して動作する複数の観測手段とを備
え、複数の観測手段のそれぞれは、対応する撮影手段か
ら受ける画像から特徴点を抽出する特徴点抽出手段と、
少なくとも1以上の追跡対象である移動物体と抽出した
特徴点との対応づけを行い、対応づけの結果を観測情報
として出力する特徴点対応づけ手段とを含み、複数の観
測手段のうち特徴点を抽出した観測手段からの要求に従
い、カルマンフィルタを用いて複数の観測手段の観測情
報を統合することにより少なくとも1以上の追跡対象で
ある移動物体の状態を予測する追跡手段と、特徴点対応
づけ手段において対応づけができなかった特徴点を用い
て、新たに追跡対象となる移動物体を検出して、検出結
果を前記追跡手段に送信する発見手段とをさらに備え、
特徴点対応づけ手段は、追跡手段への要求に対して追跡
手段から送信される少なくとも1以上の追跡対象である
移動物体の予測状態に基づき、抽出した特徴点に対応す
る追跡対象である移動物体を検出する。
【0014】請求項5に係る移動物体追跡装置は、請求
項4に係る移動物体追跡装置であって、特徴点抽出手段
は、対応する撮影手段から受ける画像を背景画像と移動
物体領域とに分割する領域分割手段と、特徴点として、
領域分割手段により取出された移動物体領域の重心点を
抽出する手段とを含む。
【0015】請求項6に係る移動物体追跡装置は、請求
項4に係る移動物体追跡装置であって、追跡手段は、計
算機で構成され、発見手段は、計算機で構成され、複数
の観測手段のそれぞれは、計算機で構成され、追跡手段
は、発見手段と相互通信を行い、複数の観測手段のそれ
ぞれは、追跡手段および発見手段のそれぞれと相互通信
を行なう。
【0016】請求項7に係る移動物体追跡装置は、シー
ン内を移動する移動物体を追跡して、その移動物体の状
態に応じて追跡に用いる運動モデルを切換える移動物体
追跡装置であって、シーン内を複数の視点から撮影する
ための複数の撮影手段と、複数の撮影手段のそれぞれに
対応して設けられ、かつ互いに独立して動作し、対応す
る撮影手段から受ける画像から対象とする移動物体固有
の属性値を抽出し、その抽出結果を観測情報として出力
する複数の観測手段と、複数の観測手段のうち、移動物
体固有の属性値を抽出した観測手段からの要求に従っ
て、その抽出した属性値に基づいて対応する移動物体の
状態を検出し、検出された状態に応じて追跡に用いる運
動モデルを切換える追跡手段とを備える。
【0017】請求項8に係る移動物体追跡装置では、請
求項7の属性値は移動物体の背たけ情報,行動情報およ
び色情報の少なくともいずれか1つである。
【0018】
【発明の実施の形態】本発明の実施の形態における移動
物体追跡装置1について、図1を用いて説明する。な
お、以下の説明において、図中同一符号は同一または相
当部分を示す。図1は、本発明の実施の形態における移
動物体追跡装置1の全体構成を示すブロック図である。
図1を参照して、移動物体追跡装置1は、カメラ2♯
1、2♯2、…、2♯n、観測部4♯1、4♯2、…、
4♯n、発見部6および追跡部8を備える。
【0019】観測部4♯1、4♯2、…、4♯nのそれ
ぞれは、カメラ2♯1、2♯2、…、2♯nにそれぞれ
対応して設けられる(以下総称的に、カメラ2、観測部
4とそれぞれ記す)。観測部4♯1、4♯2…4♯n、
発見部6および追跡部8のそれぞれは、互いに独立して
動作することが可能である。たとえば、これらは異なる
計算機で構成され、それぞれの計算機をローカルエリア
ネットワークLANで接続する。
【0020】図中、記号A0は、観測部4から追跡部8
に送信される対応点(追跡目標)の観測情報を、記号A
1は、観測部4から発見部6に送信される未対応点(追
跡目標と対応のとれない点)の観測情報を、記号A2
は、追跡部8から観測部4に送信される予測位置情報
を、記号A3は、発見部6から追跡部8に送信される新
規人物の位置情報(初期値)を、記号A4は、追跡部8
から発見部4に送信される位置情報(更新後)を表わし
ている。
【0021】観測部4は、対応するカメラ2から得られ
る入力画像に基づき特徴抽出処理を行なう。各観測部4
は独立に動作する。観測部4で得られた特徴量(重心点
および距離変換値)は、後述する追跡部8から送信され
てくる予測位置情報A2をもとに追跡目標と対応付けら
れた後に、観察時間の情報とともに追跡部8に送信され
る。対応がとれなかった特徴量は未対応点の観測情報A
1として、発見部6に送信される。
【0022】発見部6では、送信されてきた未対応点の
観測情報A1を用いて、シーンの中に新らたに現れた人
物(新規人物)の検出を行なう。新規人物についての検
出結果、すなわち新規人物の位置情報A3は、追跡部8
に送信される。これにより、新規人物は、新たな追跡目
標として追加される。そして、送信部8において追跡が
開始される。
【0023】追跡部8では、新規人物の位置情報A3を
初期値とし、観測情報A0を入力値として、カルマンフ
ィルタを用いて人物の位置情報を更新し、さらに観測モ
デルに基づき位置を予測する。予測位置情報A0は、観
測部4に送信される。発見部6には、後述するように位
置情報(更新後)A4が送信される。
【0024】ここで、本発明の実施の形態において用い
る人体モデルについて図2を用いて説明する。図2は、
本発明の実施の形態において用いる人体モデルについて
説明するための図である。図中、X、Y、Zは世界座標
系の3軸を示している。人物MANは、楕円柱hでモデ
ル化している。人物モデルhの中心軸Xhを、人物の回
転軸とし、法線軸(回転軸Xhと垂直な短軸方向の軸)
とX軸とがなす角rを人物の姿勢角とする。なお、人物
MANの回転軸Xhは、床面(X軸およびY軸がなす平
面)に対して垂直であると仮定する。カメラ2は、人物
の回転軸Xh、すなわちZ軸に垂直に配置される。
【0025】次に、図1に示す観測部4について説明す
る。図3は、観測部4の構成の概要について説明するた
めの図である。図3を参照して、観測部4は、領域分割
回路10、画素値算出回路12、重心点選択回路14、
および特徴点対応づけ回路16を含む。
【0026】領域分割回路10、画素値算出回路12お
よび重心点選択回路14は、入力した人物画像に基づき
特徴抽出処理を行なう。特徴点対応づけ回路16は、当
該抽出された特徴点と追跡目標(モデル)間の対応付け
を行なう。
【0027】領域分割回路10は、入力画像を、人物領
域と背景領域とに分割する。たとえば、「連続画像に基
づく階層的適応による人物追跡のための画像分割」コン
ピュータビジョンおよびパターン認識(CVPR′9
8),IEEEコンピュータ学会論文誌,p.911〜
916に、領域分割の手法が記載されている。
【0028】具体的には、カメラで撮影した現フレーム
の画像と、前後フレームの画像との差分を2値化し、差
分画像のいくつかのフレームを重ね合せることによりマ
スク画像を生成する(すなわち、粗い分割により大まか
な動物体領域を抽出する)。マスク画像のサイズが一定
範囲にあるときは、さらに輝度情報、色情報、またはピ
クスタ情報、テクスチャ情報ならびにこれらのいずれか
の組合せにより当該パラメータの分布を推定し、さらに
推定されたパラメータの分布によって、新たに得られた
画像上の各画素について当該動物体領域の存在する確率
を算出する(すなわち、精密な分割を行なう)。これに
より、カメラにとらえられる入力画像の中から人物領域
を切り出す。
【0029】続いて、画素値算出回路12において、得
られた人物画像に対して距離変換を行なう。具体的に
は、人物領域を構成する画素の各々から人物領域の境界
までの最短距離を示す画素値を算出する。重心点選択回
路14は、人物領域内で画素値が最大となる点を当該人
物領域の重心点(すなわち特徴点)として選択する。重
心点における画素値を距離変換値とする。重心点と重心
点の距離変換値(重心点距離変換値)とを特徴量として
用いる。
【0030】具体的には、領域分割回路10からは、図
4(a)に示すような2値化画像が出力される。画素値
算出回路12では、図4(a)に示す2値化画像に対し
て、図4(b)に示す距離変換画像を生成する。図4
(b)では、距離変換値が大きい画素ほど黒く表され、
距離変換値が小さい画素ほど白く表されている。人体の
輪郭から遠くなるにつれ画素の色が濃くなっている。重
心点選択回路14は、図4(b)における記号“X”に
相当する画素を、重心点として選択する。当該距離変換
による重心点検出は、人物のポーズの変化の影響を受け
にくいという特徴がある。
【0031】続いて、抽出された重心点と既に発見され
ている追跡目標との間の対応付けを行なう特徴点対応づ
け回路16について説明する。図5は、特徴点の対応付
け処理について説明するための図である。図中、記号2
0♯1、20♯2、…、20♯l、…、20♯m、…、
20♯nのそれぞれは、カメラ2♯1、2♯2、…、2
♯l、…、2♯m、…、2♯nにより得られる画像面を
それぞれ表わしている(以下、総称的に、画像面20と
記す)。
【0032】時刻taにカメラ2♯lにより、時刻tb
にカメラ2♯mにより、観測がそれぞれ行なわれたもの
とする(ただし、ta<tbとする)。時刻taでは、
2人の人物h0,h1が存在し、時刻tbにおいて人物
h2がシーン内に初めて現われたとする。
【0033】画像面20に付した記号×は、各画像にお
いて検出された重心点を示している。この場合、時刻t
aにおける画像面20♯lから、2つの重心点(特徴
点)が検出され、時刻tbにおける画像面20♯mか
ら、3つの重心点(特徴点)が検出される。
【0034】人物h0,h1のそれぞれについては、追
跡部8への問合せにより、時刻taまでの観測結果に基
づき時刻tbの予測位置を得る。後述するように、追跡
部8では、人物の動きを等速運動で仮定しており、ある
時刻tにおける人物hjの予測位置は、2次元のガウス
分布で表わされる。世界座標系における人物hjの時刻
tにおける位置を位置Xhj,tとし、当該2次元のガウス
分布の平均を/Xhj,t、共分散行列を/Shj,tと記す。
平均および共分散行列は、予測位置情報A0として、追
跡部8から送信される。
【0035】なお、式では、/Xhj,tを、記号Xhj,t
上に“−”を付したものとして表現し、/Shj,tを、記
号Shj,tの上に“−”を付したものとして表現する。
【0036】予測位置の分布N(/Xhj,t、/Shj,t
を画像20♯i(i=1、2、…、n)に弱透視投影す
ると、式(1)で示される確率からなる1次元ガウス分
布n(/xhj,t,i、/shj,t,iが得られる。これは、画
像20♯iにおける人物の存在確率を示している。式
(1)において、記号xは、世界座標系での人物位置X
を画像面上に投影したもの、記号/xは、世界座標系に
おける平均/Xを画像面上に投影したもの、記号/s
は、世界座標系における共分散行列/Sを画像面上に投
影したものをそれぞれ表わしている。なお、式では、/
xを、記号xの上に“−”を付したものとして表現し、
/sを、記号sの上に“−”を付したものとして表現す
る。
【0037】
【数1】
【0038】式(1)に表わされる確率を最大にする特
徴点を観測時間での人物hjに対応する観測値とし、当
該特徴点にhjのラベルを付ける。ラベル付けられた特
徴点の観測情報A0は、追跡部8に送信される。ただ
し、複数の人物と対応付けができた特徴点については、
観測時点でオクルージョンが発生していると判断し、送
信を停止する。
【0039】これらの処理の後、対応付けがされていな
い特徴点については、未知の人物、すなわち新規人物に
属するものとし、未対応の観測情報A1として、位置お
よび時間が発見部6に送信される。なお、図5において
は、人物h2についての観測情報A1が、発見部6に送
信される。
【0040】続いて、図1に示す追跡部8について説明
する。追跡部8では、観測部4のそれぞれから送られて
きた観測情報A0に基づき、追跡目標人物の位置・方向
を更新する。
【0041】図6は、図1に示す追跡部8の構成の概要
について説明するための図である。図6を参照して、追
跡部8は、位置推定回路22および方向角推定回路24
を含む。位置推定回路22は、観測部4から得られる重
心点位置に基づき、予測位置を推定し、推定結果を方向
推定回路24に出力する。方向角推定回路24は、位置
推定回路22から出力される推定結果に従い、観測部4
から得られる重心点距離変換値に基づき方向角を推定す
る。
【0042】まず、位置推定回路22における位置推定
処理について詳しく述べる。追跡中の人物の位置は、各
観測部4において対応付けられた特徴情報(重心点位
置)を用いて更新される。図7は、位置推定処理につい
て説明するための図である。図7を参照して、カメラ2
♯iと画像面20♯iとの距離を距離li、カメラ2♯
iと人物hjとの距離を距離Lhj,iと記す。エピポーラ
線とY軸とがなす角度をwhj,iと記す。
【0043】位置推定処理においては、人物は等速運動
をしているものと仮定する。時刻tにおける人物hjの
状態を、世界座標(X、Y)上で、式(2)および
(3)で表わす。ただし、初期状態は、発見部6から送
信される新規人物(モデル)の情報によって決定される
ものとする。行列に付される“′”は、転置を表わして
いる。
【0044】∧Xhj,t-1を時刻(t−1)における人物
位置Xhjの推定値とし、∧Shj,t-1を、推定値∧X
hj,t-1の分散行列とすると、時刻tでの状態は式(4)
および式(5)でそれぞれ表わされる。式では、∧X
hj,t-1を、記号Xhj,t-1の上に“∧”を付したものとし
て表現し、∧Shj,t-1を、記号Shj,t-1の上に“∧”を
付したものとして表現する。
【0045】なお、遷移行列Fは、式(6)で表わされ
る(△t:t−1→t)。また、記号Qは、遷移におけ
る共分散行列を表わしている。
【0046】
【数2】
【0047】ここで、観測部4♯iにより1回目の観測
が行なわれたものとする。観測部4♯iから送られてき
た位置情報により、この観測は、式(7)〜(9)で表
わすことができる。
【0048】H=[1 0 0 0] …(7)
【0049】
【数3】
【0050】記号Ciは、カメラの位置を、記号R
hj,t,iは、エピポーラ線とY軸とがなす角度whj,t,i
時計回りの回転を表わしている。なお、記号eは、観測
誤差を表わしており、平均0、標準偏差σhj,t,iとす
る。標準誤差σhj,t,iは、カメラの距離が大きくなるほ
ど増加すると考え、式(9)のように表わす。
【0051】ここでは、カメラの位置Ciと人物(X
hj,t)との間の距離Lhj,t,iは未知数のため、Xhj,t
予測位置/Xhj,tにより算出した距離/Lhj,t,iを近似
値として使用する(式では、/Lhj,t,iを、記号L
hj,t,iの上に“−”を付したものとして表現する)。
【0052】式(8)の観測式では、左辺は観測情報
を、右辺は人物位置を画像に投影した結果をそれぞれ表
わしている。
【0053】位置推定回路22では、以上の観測モデル
によりカルマンフィルタを構成し、人物hjの状態を更
新する。
【0054】
【数4】
【0055】各カメラごとに、独立に式(10)および
(11)による更新処理を行ない、状態予測を行なう。
時刻(t+1)における人物hjの状態予測は、平均を
/X hj,t+1、共分散行列を/Shj,t+1とするガウス分布
で与えられる。状態予測の結果は、観測部4の要求に応
じて計算・送信され、上述したとおり特徴点の対応づけ
に利用される。カメラが検出可能な範囲外へ移動した人
物モデルは削除し、その人物の追跡を中止する。
【0056】続いて、方向角推定回路24の処理につい
て説明する。方向角推定回路24では、人物の姿勢角r
(図2参照)を、オクルージョンを生じない重心点距離
変換値を用いて推定する。この推定は、図8に示す人体
の観測モデル(楕円体モデル)に基づいて行なう。図8
を参照して、カメラ2で撮影された画像上における楕円
体の幅をsとして重心点距離変換値を用いる。弱透視変
換を仮定すると光軸と楕円体モデル(人物)の回転軸の
法線とがなす角をθとして、観測される重心点距離変換
値sは、式(12)に従うことになる。ここで、式(1
2)における記号Lは、楕円体モデルの回転軸からカメ
ラまでの距離を示しており、記号AおよびBは定数であ
る。観測がガウス誤差を伴うと仮定すると、重心点距離
変換値sが観測される確率P(s|θ)は、式(13)
のように表わされる。なお、定数A,Bと誤差の分散σ
sとは、学習用データにより予め決定しておく。
【0057】
【数5】
【0058】人体の姿勢は、オイラー角(a、e、r)
により表現できる。ここで、rは、方位角(姿勢角)
を、aは方位角を、eは仰角をそれぞれ表わしている。
方位角aおよび仰角eは、人体の回転軸方向により決定
されるため、回転軸回りの回転角rのみが未知数となっ
ている。
【0059】人体の法線ベクトルNは、式(14)で表
わされる。したがって、カメラ2♯iの光軸ベクトルC
と人体の法線ベクトルNとがなす角θi(r)は、式
(15)で表わされることになる。
【0060】 N=RZ(a)RY(e)RX(r)e …(14) θci(r)=cos-1・NT・C …(15) なお、式(14)において、RZ、RY、RXはそれぞ
れ、Z、Y、X軸に関する回転行列を示し、eZは、Z
軸方向の単位ベクトルを示している。また、式(15)
において、記号NTは、法線ベクトルNの転置ベクトル
を示している。
【0061】n台のカメラ2♯1〜2♯nによって、重
心点距離変換値の組W(s1、s2、…、sn)が観測さ
れる確率Pは、式(13)により、式(16)で表わさ
れる。式(16)における確率P(W|r)を最大とす
る値rを姿勢角の推定値とする。
【0062】
【数6】
【0063】方位角推定は、上述した位置推定と同様
に、観測が行なわれるごとに更新される。なお、図8に
示す観測モデルは、入力を観測部4から送信される特徴
情報(重心点距離変換値s)とし、式(17)で表わさ
れる状態rhj,tを有することになる。なお、オクルージ
ョンの有無は、特徴点の対応付けの際に判定されてお
り、オクルージョンが生じた場合は観測情報としては用
いられない。
【0064】続いて、図1に示す発見部6の概要につい
て説明する。発見部6では、シーンに新たに登場した人
物(新規人物)を検出し、対応するモデルを追跡部8に
追加する。
【0065】観測情報は非同期に獲得されるため、通常
のステレオ対応をそのまま適用することができない。そ
こで、次のような時系列情報による対応(発見)手法を
用いる。
【0066】まず、観測部4のそれぞれから送られてき
た未対応点の観測情報のうち、異なる4時刻の観測情報
を各1点ずつ選出する(γと記す)。観測時刻t1,t
2,t3,t4のそれぞれに対して、観測視点をそれぞ
れC1,C2,C3,C4とする。観測情報を入力として、
上述したカルマンフィルタの更新処理(式(8))を行
なう。ただし、初期分散/Shj,t=0とする。
【0067】この操作により、4回の観測における予測
軌道が得られる。この予測軌道を用いて、式(4)を用
いて位置推定を行なう(ただし、△t=t4−ti:i
=1,2,3のいずれか)。位置推定結果の集合を[∧
t1,∧Xt2,∧Xt3,∧Xt 4]とする。
【0068】上述したように、式(7)の観測式では、
左辺は観測情報を、右辺は人物位置を画像に投影した結
果をそれぞれ表わしている。観測情報と人物位置を画像
に投影した結果との差として、式(17)に示すマハラ
ノビス距離を用いた誤差評価関数f(γ)を定義する。
【0069】
【数7】
【0070】式(17)に示す評価関数の値が一定のし
きい値以内である組合せは、新規人物に属する特徴点集
合とし、最新観測時刻(ここではt4)における推定位
置を初期発見位置として追跡部8に送信する。
【0071】次に、本発明の有効性を明らかにするた
め、以下のような2つのシミュレーション実験を行なっ
た。図9は、位置追従の精度を確認するためのシミュレ
ーション実験について説明するための図である。図9に
示すシミュレーション実験では、2台のカメラ(2♯
1,2♯2)を用い、半径100の円軌道を周期10×
fで等速円運動する追跡対象物体h0を観測した。tf
は、カメラの撮影間隔である。カルマンフィルタには、
等速直線運動のモデルを与えた。観測は平行射影を仮定
し、実験では2台のカメラ2♯1および2♯2のそれぞ
れの光軸がなす角度θを4通り(0°、30°、45
°、90°)に設定した。それぞれの条件において、カ
メラ2♯1とカメラ2♯2との撮影時間のずれ△tを0
からtf/2まで変化させ、カメラ2♯1の観測からtf
後の(カメラ2♯1の撮影面に平行な方向についての)
位置予測誤差を記録した。
【0072】図10は、図9に対する実験結果を説明す
るための図である。図10において、横軸は撮影時間の
ずれ△tを、縦軸は予測誤差を示している。図10に示
すように、光軸のなす角度θが0°、30°、45°で
ある場合は特に、撮影間隔の増加に伴い予測誤差が減少
し、△t=tf/2において予測誤差は最小値をとっ
た。これにより、追跡対象物体の運動がカルマンフィル
タの前提となる運動モデルから外れる場合に、特に、非
同期観測を行なうことにより同期観測に比べて高い追従
性が得られることがわかる。
【0073】図11は、複数人物の動きを推定する能力
を明らかにするためのシミュレーション実験について説
明するための図である。図11に示すシミュレーション
実験では、5台のカメラ2♯1〜2♯5を配置する。カ
メラはそれぞれ、対応する観測部を構成する1台の計算
機に接続されている。画像処理は、これらの計算機上で
行なわれる。処理速度は約1〜2frame/secである。
【0074】各計算機は、ローカルエリアネットワーク
LANに接続されており、内部時計を互いに同期させて
いる。発見部6および追跡部8をそれぞれ構成する図示
しない2台の計算機がローカルエリアネットワークLA
Nに接続されている。
【0075】各カメラは予めすべてキャリブレーション
されており、各観測部4のキャリブレーション情報は、
観測情報(観測時間、特徴点)とともに発見部6および
追跡部8にそれぞれ送信される。実験では、2人の人物
h0、h1についての位置追跡を行なった。図11に示
すように、2人の人物h0、h1が順にシーン55内に
現われる。
【0076】図12〜図16は、図11に対する実験結
果を説明するための図である。図11に示すシミュレー
ション実験において、各カメラで得られた特徴点の時間
ごとの推移を表わしている。図12はカメラ2♯1に、
図13はカメラ2♯2に、図14はカメラ2♯3に、図
15はカメラ2♯4に、図16はカメラ2♯5にそれぞ
れ対応している。図12〜図16において、横軸は時
間、縦軸は追跡位置とし、記号“+”は、予測位置と対
応付けができた特徴点を表わしている。
【0077】図12〜図16を参照して、追跡当初は、
カメラ2♯1以外ではほとんど特徴点が観測されないた
め、人物の発見が行なわれない。1人目の人物が実験環
境(シーン55)の中央に近づくにつれ、他の視点(カ
メラ2♯3、2♯4、2♯5)でも特徴点が得られ、追
跡が開始される(開始から約20秒がすぎ)。同様にし
て、2人目の人物の移動に伴い約37秒すぎに2人目の
人物の追跡が開始される。以上の実験結果から、本発明
により複数人物の追跡が可能であることが示されたとい
える。
【0078】上述の実施形態では、複数の視点で非同期
に撮影した画像内の特徴点に基づいて、人物の動きを追
跡するようにしたが、次に人物固有の属性値を抽出し、
その抽出結果を観測情報として出力し、抽出した属性値
に基づいて対応する人物の状態を検出し、検出された状
態に応じて人物の追跡モデルを切換えるような実施形態
について説明する。たとえば、人物が着席している間に
移動する可能性は極めて少ないと考えられるので、位置
推定値の信頼度を大きくする。
【0079】図17はこの発明の第2の実施形態の観測
部と追跡部の概要を示す図であり、第1の実施形態の図
3および図6に対応している。図17において、領域分
割回路10と画素値算出回路12と中心点選択回路14
は図3と同じであるが、この実施形態の観測部4には、
新たにシルエットの高さ検出回路17が設けられる。シ
ルエットの高さ検出回路17は領域分割回路10で2値
化された2値化画像から人物の高さを検出する。
【0080】図18は人物が立っているときと着席して
いるときの2値化画像を示す図である。シルエットの高
さ検出回路17は図18(a)に示すように、2値化画
像の高さT1と図18(b)に示す2値化画像の高さT
2を検出する。たとえば、人物が立っている場合にはT
1が180cmであり、人物が着席していればT2が1
40cmというように検出する。シルエットの高さ検出
回路17の検出出力は特徴点対応づけ回路16に与えら
れる。
【0081】特徴点対応づけ回路16は第1の実施形態
で説明したように、重心点選択回路14で抽出された重
心点と既に発見されている追跡目標との間の対応づけを
行なうが、シルエットの高さ検出回路17の検出出力に
基づいて、対応づけられた人物の身長を測定した情報を
観測情報に含めて追跡部8に出力する。
【0082】一方、追跡部8は、図6に示した構成に加
えて、図17に示すように高さ情報抽出回路30と背た
け変換回路32と状態推定回路34とを含む。高さ情報
抽出回路30は観測部4から追跡部8に送られてくる観
測情報から高さ情報を抽出し、背たけ変換回路32に与
える。背たけ変換回路32は観測情報から抽出された高
さ情報を背たけに変換する。
【0083】状態推定回路34は、この背たけがたとえ
ば180cmから140cmに変化すれば、人物が立っ
ている状態から着席した状態になったものと推定する。
逆に、背たけが140cmから180cmに変化すれ
ば、人物が着席している状態から立上がったものと推定
する。
【0084】観測部4と追跡部8は前述の図6と同様に
して動作し、追跡部8は観測部4から得られる観測情報
に含まれる重心点位置に基づいて予測位置を推定し、そ
の推定結果に基づいて方向角を推定し、複数の人物のう
ちの特定の人物を追跡する。
【0085】観測部4から追跡部8に送られる観測情報
のうち、高さ情報は高さ情報抽出回路30によって抽出
され、背たけ変換回路32で背たけに変換され、状態推
定回路34によって人物が立っている状態であるかある
いは着席している状態であるかが推定される。追跡部8
では推定された状態に応じて追跡する人物を切換える。
すなわち、追跡していた人物が着席した状態であれば、
もはやその人物は移動することがないので、他の人物を
追跡する。
【0086】なお、上述の説明は人物が立っている状態
と着席している状態を推定するようにしたが、これに限
ることなく人物が停止している状態から移動を開始する
状態または移動している状態から停止する状態のような
行動情報を推定するようにしてもよい。その場合には、
人物の動きが一定以上の速度になれば動いている状態と
推定し、速度が0になれば停止していると推定すればよ
い。この場合、前述の式(4)〜(6)は次の式(1
8)〜(20)に置き換えられる。これらの式は時刻t
aに行なわれた前回の観測までの情報から、時刻tbにお
ける人物h1の状態の予測を行なう場合を示している。
【0087】
【数8】
【0088】上記式でQx,ΔtはΔt間の運動の揺ら
ぎを示しており、この大きさは現在の運動の状態により
変化すると考えられる。上述の実施形態では、この値を
歩行幅は大,停止中は中,着席中は小というように変化
させることが考えられる。このように、運動モデルを変
化させることで、推定結果の信頼性を物体の運動状態に
応じて評価することが可能となる。
【0089】図17に示した第2の実施形態では、人物
が立っているかあるいは着席中であるかの状態推定およ
び人物が停止しているかあるいは移動を開始したかの状
態を推定するようにした。しかし、観測される各画像の
特徴と追跡モデルの対応づけにおいて、位置情報に代え
て画像から観測可能な対象物体固有の属性値を用いるこ
ともできる。ここで、固有の属性値としては、前述の対
象物体の背たけや行動情報に限ることなく服の色なども
考えられる。
【0090】図19はそのような実施形態を示すブロッ
ク図である。図19に示した観測部4には図17に示し
たシルエットの高さ検出回路17に代えて、シルエット
の高さ,色検出回路18が設けられ、追跡部8には図1
7の高さ抽出回路30と背たけ変換回路32に代えて、
高さ,色情報抽出回路36と背たけ,色変換回路38が
設けられる。観測部4のシルエットの高さ,色検出回路
18は図17で説明したように人物の高さを検出すると
ともに、図20に示すように領域分割された画像のうち
の胸の部分(図20の斜線で示す部分)の平均色も検出
して特徴点対応づけ回路16に与える。
【0091】一方、追跡部8の高さ,色情報抽出回路3
6は観測情報から高さ情報と色情報とを抽出し、背た
け,色変換回路38は高さ情報と色情報とから背たけや
色を変換し、状態推定回路34が人物の状態を推定す
る。この場合、前回の観測で得られた色情報Stnと今回
の観測で得られた色情報Stn+1は次式で示される。
【0092】
【数9】
【0093】このように、観測情報として背たけや色情
報というような対象物体固有の属性値を用いることによ
り、対象物体が接近している場合であっても混同してし
まうことがないという利点がある。
【0094】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
【0095】
【発明の効果】この発明に係る移動物体追跡装置によれ
ば、複数の視点で非同期に撮影した画像内の画像特徴に
基づきカルマンフィルタによる物体追跡を行なうことに
より、同期撮影に比べて移動物体を高精度に追従するこ
とが可能となる。
【0096】また、視点毎に独立して観測を行うように
構成することにより、システムの実装を簡素化すること
が可能となり、また処理効率を向上させることが可能と
なる。
【0097】さらに、ローカルエリアネットワークLA
Nに接続された計算機それぞれにカメラを接続し、入力
画像から得られた2次元特徴をローカルエリアネットワ
ークLANを通して通信するように構成することによ
り、観測視点の追加・削除を容易に行なうことが可能と
なる。
【0098】さらに、移動物体の背たけ情報や行動情報
や色情報などの属性値に基づいて対応する移動物体の状
態を検出し、検出した状態に応じて追跡に用いる運動モ
デルを切換えることにより、より精緻な追跡を行なうこ
とができる。
【図面の簡単な説明】
【図1】 本発明の実施の形態による移動物体追跡装置
1の全体構成を示すブロック図である。
【図2】 本発明の実施の形態において用いた人体モデ
ルについて説明するための図である。
【図3】 観測部4の構成の概要について説明するため
の図である。
【図4】 観測部における特徴抽出処理について説明す
るための図である。
【図5】 特徴点の対応付け処理について説明するため
の図である。
【図6】 図1に示す追跡部8の構成の概要について説
明するための図である。
【図7】 位置推定処理について説明するための図であ
る。
【図8】 方向角推定回路24における処理を説明する
ための図である。
【図9】 位置追従の精度を確認するためのシミュレー
ション実験について説明するための図である。
【図10】 図9に対する実験結果を説明するための図
である。
【図11】 複数人物の動きを推定する能力を明らかに
するためのシミュレーション実験について説明するため
の図である。
【図12】 図11に対する実験結果を説明するための
図である。
【図13】 図11に対する実験結果を説明するための
図である。
【図14】 図11に対する実験結果を説明するための
図である。
【図15】 図11に対する実験結果を説明するための
図である。
【図16】 図11に対する実験結果を説明するための
図である。
【図17】 この発明の第2の実施形態の観測部と追跡
部の態様を示す図である。
【図18】 人物が立っているときと着席しているとき
の2値化画像を示す図である。
【図19】 この発明の第3の実施形態の観測部と追跡
部の態様を示す図である。
【図20】 領域分割された画像のうちの胸の部分の平
均色を検出する状態を示す図である。
【符号の説明】
1 移動物体追跡装置、2♯1〜2♯n カメラ、4♯
1〜4♯n 観測部、6 発見部、8 追跡部、10
領域分割回路、12 画素値算出回路、14重心点選択
回路、16 特徴点対応づけ回路、17 シルエットの
高さ検出回路、18 シルエットの高さ,色検出回路、
22 位置推定回路、24 方向角推定回路、30 高
さ情報抽出回路、32 背たけ変換回路、34 状態推
定回路、36 高さ,色情報抽出回路、38 背たけ,
色変換回路。

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 シーン内を移動する移動物体を追跡する
    移動物体追跡装置であって、 前記シーン内を複数の視点から撮影するための複数の撮
    影手段と、 前記複数の撮影手段のそれぞれに対応して設けられ、互
    いに独立して動作し、対応する撮影手段から受ける画像
    から特徴点を抽出し、前記抽出結果を観測情報として出
    力する複数の観測手段と、 前記複数の観測手段のうち前記特徴点を抽出した観測手
    段からの要求に従い、カルマンフィルタを用いて前記複
    数の観測手段の観測情報を統合することにより前記移動
    物体の状態を予測する追跡手段とを備えた、移動物体追
    跡装置。
  2. 【請求項2】 前記複数の観測手段のそれぞれは、 前記対応する撮影手段から受ける画像を背景画像と移動
    物体領域とに分割する領域分割手段と、 前記領域分割手段により取出された移動物体領域の重心
    点を求め、前記特徴点として前記重心点の情報を出力す
    る手段とを含む、請求項1記載の移動物体追跡装置。
  3. 【請求項3】 前記追跡手段は、計算機で構成され、 前記複数の観測手段のそれぞれは、計算機で構成され、 前記複数の観測手段のそれぞれと前記追跡手段とは、相
    互通信を行なう、請求項1記載の移動物体追跡装置。
  4. 【請求項4】 シーン内を移動する移動物体を追跡する
    移動物体追跡装置であって、 前記シーン内を複数の視点から撮影するための複数の撮
    影手段と、 前記複数の撮影手段のそれぞれに対応して設けられ、互
    いに独立して動作する複数の観測手段とを備え、 前記複数の観測手段のそれぞれは、 対応する撮影手段から受ける画像から特徴点を抽出する
    特徴点抽出手段と、 少なくとも1以上の追跡対象である移動物体と前記抽出
    した特徴点との対応づけを行い、前記対応づけの結果を
    観測情報として出力する特徴点対応づけ手段とを含み、 前記複数の観測手段のうち前記特徴点を抽出した観測手
    段からの要求に従い、カルマンフィルタを用いて前記複
    数の観測手段の観測情報を統合することにより前記少な
    くとも1以上の追跡対象である移動物体の状態を予測す
    る追跡手段と、 前記特徴点対応づけ手段において対応づけができなかっ
    た特徴点を用いて、新たに追跡対象となる移動物体を検
    出して、前記検出結果を前記追跡手段に送信する発見手
    段とをさらに備え、 前記特徴点対応づけ手段は、 前記追跡手段への要求に対して前記追跡手段から送信さ
    れる前記少なくとも1以上の追跡対象である移動物体の
    予測状態に基づき、前記抽出した特徴点に対応する追跡
    対象である移動物体を検出する、移動物体追跡装置。
  5. 【請求項5】 前記特徴点抽出手段は、 前記対応する撮影手段から受ける画像を背景画像と移動
    物体領域とに分割する領域分割手段と、 前記特徴点として、前記領域分割手段により取出された
    移動物体領域の重心点を抽出する手段とを含む、請求項
    4記載の移動物体追跡装置。
  6. 【請求項6】 前記追跡手段は、計算機で構成され、 前記発見手段は、計算機で構成され、 前記複数の観測手段のそれぞれは、計算機で構成され、 前記追跡手段は、前記発見手段と相互通信を行い、 前記複数の観測手段のそれぞれは、前記追跡手段および
    前記発見手段のそれぞれと相互通信を行なう、請求項4
    記載の移動物体追跡装置。
  7. 【請求項7】 シーン内を移動する移動物体を追跡し
    て、その移動物体の状態に応じて追跡に用いる運動モデ
    ルを切換える移動物体追跡装置であって、 前記シーン内を複数の視点から撮影するための複数の撮
    影手段と、 前記複数の撮影手段のそれぞれに対応して設けられ、か
    つ互いに独立して動作し、対応する撮影手段から受ける
    画像から対象とする移動物体固有の属性値を抽出し、そ
    の抽出結果を観測情報として出力する複数の観測手段
    と、 前記複数の観測手段のうち、前記移動物体固有の属性値
    を抽出した観測手段からの要求に従って、該抽出した属
    性値に基づいて対応する移動物体の状態を検出し、検出
    された状態に応じて追跡に用いる運動モデルを切換える
    追跡手段を備えた、移動物体追跡装置。
  8. 【請求項8】 前記属性値は、前記移動物体の背たけ情
    報,行動情報および色情報の少なくともいずれか1つで
    ある、請求項7記載の移動物体追跡装置。
JP30818799A 1999-03-26 1999-10-29 移動物体追跡装置 Expired - Fee Related JP3401512B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30818799A JP3401512B2 (ja) 1999-03-26 1999-10-29 移動物体追跡装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8436399 1999-03-26
JP11-84363 1999-03-26
JP30818799A JP3401512B2 (ja) 1999-03-26 1999-10-29 移動物体追跡装置

Publications (2)

Publication Number Publication Date
JP2000348181A true JP2000348181A (ja) 2000-12-15
JP3401512B2 JP3401512B2 (ja) 2003-04-28

Family

ID=26425414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30818799A Expired - Fee Related JP3401512B2 (ja) 1999-03-26 1999-10-29 移動物体追跡装置

Country Status (1)

Country Link
JP (1) JP3401512B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279315A (ja) * 2002-01-16 2003-10-02 Advanced Telecommunication Research Institute International カメラの自動校正方法
JP2006170993A (ja) * 2004-12-10 2006-06-29 Microsoft Corp 非同期画像部分をマッチングすること
JP2006226965A (ja) * 2005-02-21 2006-08-31 Sumitomo Electric Ind Ltd 画像処理装置、コンピュータプログラム、及び画像処理方法
JP2006338379A (ja) * 2005-06-02 2006-12-14 Norbert Link 調査区域にいる人物を検出するための装置および方法
JP2007041791A (ja) * 2005-08-02 2007-02-15 Nissan Motor Co Ltd 俯瞰画像表示システム及び俯瞰画像の表示方法
JP4782123B2 (ja) * 2005-04-01 2011-09-28 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド カメラによりシーンに関して取得された映像中の移動物体を追跡する方法
JP2016091407A (ja) * 2014-11-07 2016-05-23 セコム株式会社 位置合わせ装置及びプログラム
WO2022091620A1 (ja) * 2020-10-28 2022-05-05 京セラ株式会社 物体追跡装置及び物体追跡方法
EP4362455A1 (en) 2022-10-27 2024-05-01 Fujitsu Limited Position prediction program, information processing device, and position prediction method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279315A (ja) * 2002-01-16 2003-10-02 Advanced Telecommunication Research Institute International カメラの自動校正方法
JP2006170993A (ja) * 2004-12-10 2006-06-29 Microsoft Corp 非同期画像部分をマッチングすること
JP2006226965A (ja) * 2005-02-21 2006-08-31 Sumitomo Electric Ind Ltd 画像処理装置、コンピュータプログラム、及び画像処理方法
JP4782123B2 (ja) * 2005-04-01 2011-09-28 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド カメラによりシーンに関して取得された映像中の移動物体を追跡する方法
JP2006338379A (ja) * 2005-06-02 2006-12-14 Norbert Link 調査区域にいる人物を検出するための装置および方法
JP2007041791A (ja) * 2005-08-02 2007-02-15 Nissan Motor Co Ltd 俯瞰画像表示システム及び俯瞰画像の表示方法
JP4725233B2 (ja) * 2005-08-02 2011-07-13 日産自動車株式会社 俯瞰画像表示システム
JP2016091407A (ja) * 2014-11-07 2016-05-23 セコム株式会社 位置合わせ装置及びプログラム
WO2022091620A1 (ja) * 2020-10-28 2022-05-05 京セラ株式会社 物体追跡装置及び物体追跡方法
JPWO2022091620A1 (ja) * 2020-10-28 2022-05-05
JP7425223B2 (ja) 2020-10-28 2024-01-30 京セラ株式会社 物体追跡装置及び物体追跡方法
EP4362455A1 (en) 2022-10-27 2024-05-01 Fujitsu Limited Position prediction program, information processing device, and position prediction method

Also Published As

Publication number Publication date
JP3401512B2 (ja) 2003-04-28

Similar Documents

Publication Publication Date Title
EP1870038B1 (en) Motion capture apparatus and method, and motion capture program
JP4912388B2 (ja) 2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法
JP2007310707A (ja) 姿勢推定装置及びその方法
Zhu et al. Constrained optimization for human pose estimation from depth sequences
JP2009536731A5 (ja)
Tang et al. Joint multi-view people tracking and pose estimation for 3D scene reconstruction
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP3520050B2 (ja) 移動物体追跡装置
JP3401512B2 (ja) 移動物体追跡装置
JP3411889B2 (ja) カメラの自動校正方法
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
CN113487674A (zh) 一种人***姿估计***和方法
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007109126A (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JPH0792369B2 (ja) 画像計測装置
Krishnan et al. 2D feature tracking algorithm for motion analysis
Cordea et al. 3D head pose recovery for interactive virtual reality avatars
Mamania et al. Markerless Motion Capture from Monocular Videos.
JP7499345B2 (ja) 複数の姿勢推定エンジンを用いた手のマーカレス運動捕捉
Takahashi et al. Remarks on a real‐time, noncontact, nonwear, 3D human body posture estimation method
JP7277829B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
JP3230292B2 (ja) 3次元物体の形状測定装置、3次元物体の形状復元装置、3次元物体の形状測定方法、および、3次元物体の形状復元方法
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム
Hahn et al. 3D pose estimation and motion analysis of the articulated human hand-forearm limb in an industrial production environment

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030204

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees