JP2011211687A - データ関連付けのための方法と装置 - Google Patents

データ関連付けのための方法と装置 Download PDF

Info

Publication number
JP2011211687A
JP2011211687A JP2011005720A JP2011005720A JP2011211687A JP 2011211687 A JP2011211687 A JP 2011211687A JP 2011005720 A JP2011005720 A JP 2011005720A JP 2011005720 A JP2011005720 A JP 2011005720A JP 2011211687 A JP2011211687 A JP 2011211687A
Authority
JP
Japan
Prior art keywords
position information
data
camera
target
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011005720A
Other languages
English (en)
Other versions
JP5554726B2 (ja
Inventor
Wei Zeng
ウェイ ゼン
Hongming Zhang
ホンミン チャン
Junhui Zhao
ザオ ジュンヒュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC China Co Ltd
Original Assignee
NEC China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC China Co Ltd filed Critical NEC China Co Ltd
Publication of JP2011211687A publication Critical patent/JP2011211687A/ja
Application granted granted Critical
Publication of JP5554726B2 publication Critical patent/JP5554726B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 データ関連付け装置を提供する。
【解決手段】 データ関連付け装置は、カメラから対象の画像データを受信し、対象の第1の位置情報を生成する対象位置決めユニットと、対象位置決めユニットによって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶ユニットと、記憶ユニットに格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、位置センサからの対象の第2の位置情報と関連付ける関連付けユニットとを備える。
【選択図】 図1

Description

本発明は、センサの分野に関し、特に、データ関連付けのための方法と装置に関する。
近年、人々の生活の質を変えかつ向上させる、ますます多くのセンサが出現している。位置情報、特に、人々の位置情報を取得することは、彼らの日々の生活に利便を与える。例えば、交通用途において、交通渋滞が常に発生する位置を知っていれば、交通の効率を高めるために交通施設の配備を最適化する(車両のルートを変更するような)ことが可能である。さらに、職場環境において、事務機器が適切な位置に配置されていれば、作業者が設備に到着するまでの距離が縮小され、それにより作業率が向上するであろう。
位置情報サービスは幅広く用いられている。情報システムは、位置の特性に応じて様々なタイプのサービスを提供することが可能である。例えば、空港においては、ユーザは、ユーザがいる特定のエリアに基づいて、位置検索、店舗情報、公共施設のガイド等を含む様々なサービスが与えられる。ショッピング・モールにおいて、ユーザが店頭を横切って歩くと、ある商品あるいはサービスに関する情報が表示スクリーンあるいはモバイル装置に表示される。それは、適切な商品或いはサービスの発見をより容易にし、個性的な情報サービスを提供する。
最近、ビデオキャプチャ装置が、人々の生活に対してセキュリティ・サービスを提供するために広く取り入れられている。さらに、これらの装置は、また、人間の行動習慣を分析するために用いられ、個人に対して正確な情報分析結果を提供する。そのため、様々なセンサからの様々なタイプの情報を収集してネットワークを形成すれば、高品質な個人情報サービスをユーザに提供することが可能となる。特に、位置情報を画像情報と組み合わせは、人間の様々な行動に対して行き届いた情報サービスを提供するであろう。
ある環境に配置された様々なセンサは、それぞれの方式で動作し、一方、環境中の対象の異なる側面を感知するよう互いに連携して動作する。相互に連携するセンサは、複数のチャネルによって目標対象の情報を検知し、その結果、単一のセンサに比べより正確でより豊富な情報を提供することが可能である。
しかしながら、目標対象が複数の様々なセンサによって感知される場合、どのセンサが目標対象に対する情報を提供するか判定するのが難しい。その理由は次の通りである。
異なる種類のセンサは、通常、環境全体に配置され、各々固有の時間的かつ空間的な属性に基づいて動作し、ぞれぞれの動作エリアと感知特性を有している。さらに、センサは、不規則に存在する様々な対象を感知し、対象の感知情報のタイプが他のものと異なる。
これにより、環境に配置された様々なセンサのデータ出力を同じ対象に関連付けることができないという問題が起こる。言いかえれば、所定の時間に、同じ目標対象をどのセンサが同時に感知したか決定することが必要となる。
センサのデータを直接関連付ける1つの方法は、様々なセンサを備えるロボットやデータコート(data coat)のように、全てのセンサを一緒に設置することである。このような方法において、様々なセンサが環境を同時に感知し、かつ互いに連携して動作する。
これらのセンサ・データの関係は、直接的にハードウェア関係に基づいており、特殊な判別処理を必要としない。同様に、全てのセンサは対象を感知するために全く同一の環境に設置される。
他の場合において、センサは通常別々に設置されている。所定の時間に、一部のセンサが、目標対象を感知する。このような情況で、リアルタイムに、目標対象に対するセンサのデータ出力を関連付けることが必要である。
センサの動作エリアを予め明確にすることができれば、ターゲット対象がそのエリアに入る場合、常に、センサが機能し、その結果、これらのセンサのデータ出力をターゲット対象について関連付けることができる。
この方法はセンサの動作エリアに基づいている(すなわち、同じ動作エリアン内のセンサが関連付けられる)。
しかしながら、センサの動作エリアが予め決まっていない場合、どのセンサが共通動作エリアを有するかを判定することができないので、リアルタイムにセンサのデータ出力を関連付けることが依然として問題となる。この問題に対する方策が動的なセンサ・データ関係である。すなわち、ある対象に対するセンサ・データが、動的にかつリアルタイムに関連付けられる。
しかしながら、動的なセンサ・データの関連付けは、センサの特性に関係している。様々なタイプのセンサについて異なる関連付けアルゴリズムが開発されている。
非特許文献1("Association and identification in heterogeneous sensors
environment with coverage uncertainty", S. H. Cho, S. Hong, Y. Nam.,
International conference on advanced video and signal based surveillance, pp.
553 - 558, 2009)は、身元確認センサとカメラを動的に関連付けるための解決方法を提案する。この方法では、センサとカメラのデータ出力が時間と履歴情報によって対応付けられる。
具体的には、非特許文献1の方法は、2つのイベントによって身元確認センサとカメラを関連付ける。イベントの1つが、「ターゲット対象の身元確認センサの感知エリアへの侵入」であり、他のイベントが、「ターゲット対象の身元確認センサの感知エリアからの離脱」である。すなわち、ターゲット対象が身元確認センサの感知エリアに入ると、「侵入」イベントが検出される。同時に、カメラは対象を追跡する。これにより、「侵入」イベントが発生すると、ターゲット対象がカメラによって位置決めされ、かつ追跡される。そして、身元確認センサによって感知された対象の識別情報は、カメラによって提供される軌跡情報と時間順に関連付けられる。同様に、ターゲット対象が、身元確認センサの感知エリアから出る時、「離脱」イベントが検出される。次に、ターゲット対象の識別情報と軌跡情報(すなわち、環境中のターゲット対象の履歴軌跡)が関連付けられる。
"Association and identification inheterogeneous sensors environment with coverage uncertainty", S. H. Cho,S. Hong, Y. Nam., International conference on advanced video and signal basedsurveillance, pp. 553 - 558, 2009 "Rapid object detection using a boosted cascade of simplefeatures", Paul Viola, Michael Jones., Proceedings of the 2001 IEEEComputer Society Conference on Computer Vision and Pattern Recognition, Vol.1pp. 511-518, 2001 "FlexibleCamera Calibration By Viewing a Plane From Unknown Orientations", ZhengyouZhang., International Conference on Computer Vision (ICCV'99), Corfu, Greece,pages 666-673, September 1999
しかしながら、非特許文献1に記載される方法では、複数のオブジェクトが環境に同時に侵入し、或いは環境から同時に離脱する場合、各々の対象の識別情報と軌跡情報を正確に関連付けることができないという問題があった。
本発明の目的は、位置情報を用いて、位置センサをカメラと関連付ける方法と装置を提供することにある。
本発明は、各センサの動作エリアを予め決定する必要のない動的センサ・データ関連付けを提供する。本発明において、位置センサは、2つのタイプの情報(すなわち、対象位置情報と識別情報)を提供し、カメラは対象の属性情報を提供する。それを基礎として、本発明は、対象の包括的な記述を形成するために、対象の位置情報、識別情報および属性情報を動的に関連付ける。本発明の原理は、単一のカメラからの情報を用いて、対象の環境位置情報を計算すること、環境位置情報と位置センサからの位置情報の関連付けを通して対象に対するカメラと位置センサのデータの関連付けを実現することである。
本発明によるデータ関連付け装置は、カメラから対象の画像データを受信し、対象の第1の位置情報を生成する対象位置決め手段と、対象位置決め手段によって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶手段と、記憶手段に格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、位置センサからの対象の第2の位置情報と関連付ける関連付け手段とを含む。
好ましい態様によれば、対象位置決め手段が、対象の画像データに基づいて対象の第1の位置情報を推測するように構成され、第1の位置情報が対象とカメラの間の水平角情報を含む。
好ましい態様によれば、関連付け手段は、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングさせ、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるように構成される。
好ましい態様によれば、前記関連付け手段は、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングさせるように構成される。
好ましい態様によれば、前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含む。好ましくは、前記位置センサが超音波位置決めシステムである。また、好ましくは、前記対象が人間の顔である。
好ましい態様によれば、データ関連付け装置は、一定の時間範囲における前記関連付け手段の関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するように構成される投票手段を含む。
本発明によるデータ関連付け方法は、カメラから対象の画像データを受信し、対象の第1の位置情報を生成するステップと、位置センサから対象の第2の位置情報を受信するステップと、前記第1の位置情報と前記第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付けるステップとを含む。
好ましい態様によれば、前記第1の位置情報が対象とカメラの間の水平角情報を含む。
好ましい態様によれば、前記関連付けするステップは、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングし、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるステップを含む。
好ましい態様によれば、前記関連付けするステップは、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングするステップを含む。
好ましい態様によれば、データ関連付け方法は、一定の時間範囲における関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するステップをさらに有することを特徴とする請求項9に記載のデータ関連付け方法。
好ましい態様によれば、前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含む。好ましくは、前記位置センサが超音波位置決めシステムである。また、好ましくは、前記対象が人間の顔である。
本発明は、複数のターゲット対象が環境に同時に進入し或いは離れたとしても、対象の関連するイベントを検出することなく、環境に配置された位置センサとカメラに対する動的なデータ関連付けを実現する。
さらに、本発明は、三次元位置推定がカメラによって実行される場合に付随する特別な制限を回避し、単一のカメラのデータから位置情報を推定する。
本発明の上記およびその他の特徴は、図面を参照して以下に説明される。
本発明の実施の形態によるデータ関連付け装置のブロック図である。 本発明の実施の形態によるデータ関連付け装置が用いられる具体的な場面を示す図である。 センサ・データ関連付けの基本原理を示す図である。 空間におけるカメラと対象間の位置関係の概略図である。 空間における、カメラと対象間の位置関係の概略図である。 2つの位置タグ(2人)がカメラと同じ水平方向に位置する状況の例を示す図である。 本発明の他の実施の形態によるデータ関連付け装置のブロック図である。 本発明の実施の形態によるデータ関連付け方法のフローチャートである。 本発明の実施の形態による、カメラと同じ水平方向に複数対象が存在する場合に位置タグを判定する具体的方法のフローチャートである。
以下、本発明の実施の形態について図面を参照して詳細に説明する。本発明の原理と実装例は当業者に明白になるであろう。しかしながら、本発明は下に説明する特定の実施の形態に限定しない。さらに、説明を分かり易くするため、本発明に関連する公知の要素については図示していない。
図1は、本発明の実施の形態によるデータ関連付け装置100のブロック図である。図1に示すように、データ関連付け装置100は、象位置決めユニット101と、記憶ユニット102および関連付けユニット103を含む。対象位置決めユニット101の入力はカメラからデータを受信する。記憶ユニット102の入力は、位置センサからデータを受信する。また、記憶ユニット102の他の入力は、対象位置決めユニット101の出力からデータを受信する。関連付けユニット103は、記憶ユニット102から必要なデータを検索し、ある対象についてのカメラからのデータと位置センサからのデータが互いに関連付けられるようにデータ関連付けを実行する、
図2は、本発明の実施の形態によるデータ関連付け装置が用いられる具体的な場面を示す図である。図2に示すように、カメラと、位置信号受信機201及び位置タグ202を含む位置センサが設けられている。位置タグ202は、位置信号受信機201に対して位置信号を送るために対象上に取り付けられている。例えば、図2に示すケースにおいては、位置タグ202は、2人の人間の人体上にそれぞれ身に付けられている。場面の上部に設置された位置信号受信機201は、位置タグ202から送られた位置信号を受信し、場面における位置タグ202の三次元座標を計算する。識別(ID)が位置タグに割り当てられており、これにより、各タグは対応するそれ自身のIDを有する。
位置センサは、例えば、(tag_id、X、Y、Z)の形式の位置データを取得する。ここで、tag_idは、位置タグのIDを示し、(X, Y, Z)は、場面内の位置タグを身に付けている対象の三次元座標を示している。対して、カメラ203は、対象に関する画像情報をキャプチャし、かつ対象の属性情報を取得するために画像情報を分析するのに用いられる。例えば、対象が人間ならば、対象の属性情報は人間の顔のサイズ、その人のコートの色等である。
対象が1つだけであれば、から位置センサからの位置データとカメラからの対象属性データの関連付けは、直接関連付け手順に関する。すなわち、対象の属性情報が画像情報の分析により取得されれば、その情報は位置データと直接関連付けられる。しかしながら、場面に幾つかの対象が存在する場合(図2に示すような2人の人間)、対象に付けられた箇所タグをどのように識別するかについて、動的関連付けの問題が生じる。
図3はセンサ・データ関連付けの基本原理を示している。センサ1からのデータおよびセンサ2からのデータは、それぞれ、d1、d3およびd2、d4として表されている。センサ・データ関連付け処理によって、d1とd3がd2とd4にそれぞれ関連していることを知ることができる。すなわち、d1とd2が、現場の1つの対象に属し、また、d3とd4がもう1つの対象に属している。その後、関連付けマトリックスが関連付けの結果として出力される。ここで、「1」は、「1」の箇所に対応する行と列のデータ(例えば、d1とd2)が関連付けられており、「0」は、それらのデータ(例えばd2とd3)が関連付けられていないことを表している。
しかしながら、画像から取得した対象の属性情報には不確かさがある。
例えば、目標対象が人間の顔である場合、正面からの人間の顔の検出精度は98%であるが、他の方向からの精度は約95%であるに過ぎない。
したがって、検出された顔情報から得られる対象属性情報はある程度の不確かさを有している。その上、画像中の人間の顔の位置がそれぞれ異なることから、画像中の奥行きと大きさが異なる人間の顔が同じ大きさに見える場合があり、その場面における人間の顔の三次元位置情報を直接取得することができないことになる。さらに、位置タグは人間の上着に通常身に付けられている。これは画像中の人間の顔の領域から位置タグの位置情報を取得することができないことを意味している。したがって、画像情報に位置情報を関連付けることが困難となる。
画像情報における不確かさのために、位置センサからのデータとカメラからのデータを関連付ける動的データ関連付け処理がある。一般に、2種類のセンサからのデータを関連づける一般的な方法は関連付け関数A(d1、d2)を定義することである。ここで、d1とd2は、異なるセンサからの関連付けるべきデータを表している。データd1とd2が同じ対象から生ずる場合、関連付け関数は「1」の結果を出力し、そうでなければ、関連付け関数は「0」の結果を出力する。実装のため、データマッチング関数が関連付け関数を実現するために定義される場合がある。特に、一定の類似度(画像データにおける類似度)を有するデータが関連していると認められるように、関連付け関数が実現される。データのマッチングは通常同じ測定空間において実行されるので、位置センサ・データの位置情報と整合するように、画像情報を位置情報に変換することが必要である。あるいは、位置情報が整合するように画像情報に変換される場合もある。画像から位置情報を推定する技術は視覚測定(visual measurement)と呼ばれる。実際には、コストを下げるために、往々にして1台のカメラだけがある場所に配置される場合がある。その結果、単眼カメラの測定に関する問題が起こる。
上記の点を考慮し、位置センサと単眼カメラのデータ関連付けのための本発明の基本概念は、カメラによってキャプチャされた画像から対象の位置情報を推定し、位置センサから得られた対象の位置情報と推定された位置情報をマッチングすることを含んでいる。
再度図1と図2を参照すると、カメラ203は、まず、キャプチャされた画像についてターゲット対象検出を実行し、画像中のターゲット対象のシリアル番号、座標(x、y)あるいはアスペクト比(w、h)等の、画像中のターゲット対象の属性情報を取得する。カメラ203自身のパラメータと画像中のターゲット対象の座標に従って、データ関連付け装置100の対象位置決めユニット101は、その環境における対象の位置情報を推定し、記憶するためにその位置情報を記憶ユニット102に送る。一方、位置タグ202の信号は位置センサによって取得され、それにより、位置タグ202が位置決めされ、タグ202の環境座標(X,Y,Z)が直接計算される。この環境座標(X,Y,Z)も記憶ユニット102に格納される。これらの動作に基づいて、関連付けユニット103は、記憶ユニット102から対象位置情報とタグ位置情報を検索し、位置に基づいたデータ照合を実行し、関連付け結果を出力する。本実施の形態において、ターゲット対象は人間の顔であり、位置センサは超音波測位システム(ultrasound locating system)である。位置センサによって位置タグのデータを取得することは、非特許文献1に開示された方法によって実現することが可能であり、かつ、人間の顔検出は非特許文献2("Rapid
object detection using a boosted cascade of simple features", Paul Viola,
Michael Jones., Proceedings of the 2001 IEEE Computer Society Conference on
Computer Vision and Pattern Recognition, Vol.1 pp. 511-518, 2001)によって実現することが可能である。
以下、人間の顔検出の結果から環境中の人間の顔の位置情報を取得することに関する対象位置決めユニット101の動作と、センサ・データ関連付けのために位置センサからの位置情報と対象位置決めユニット101からの位置情報をマッチングすることに関する関連付けユニット103の動作について、図4〜図6を参照して詳細に説明する。
図4(a)に示すように、カメラが人間の顔をキャプチャする場合、地面に対するカメラと人間の顔の間の関係は、簡単な三角関数である。人間の顔の高さは以下のように計算することができる。
Figure 2011211687
ここで、Hcはカメラの高さを示し、dpは人間とカメラの間の水平距離を示し、αは垂線に対するカメラの角を示す。その角は人間の測定点の高さに基づいている。位置タグが人体上に身に付けられているので、dpは位置センサから直接取得することができる。さらに、Hcは、非特許文献3("Flexible Camera Calibration By Viewing a Plane From Unknown
Orientations", Zhengyou Zhang., International Conference on Computer
Vision (ICCV'99), Corfu, Greece, pages 666-673, September 1999)に開示された方法等のような、カメラのキャリブレーションによって取得することができる、
そこで、問題は角αをどのように取得するかである。図4(b)に示すように、水平線に対するカメラの伏角βは、水平線に対するカメラ自体の伏角β0と高さhpによってもたらされた角β1の、2つの要素からなる。カメラ自体の伏角β0もカメラのキャリブレーションによって取得することが可能である。カメラの現像原理(imaging principles)によれば、β1は
Figure 2011211687
を満足する。
ここで、図4(c)に示すように、ycは画像のY軸における中心座標を示し、fはカメラの焦点距離を示し、yは人間の頂点に対応するY軸座標を示している。焦点fも、カメラのキャリブレーションによって予め取得することができる。
したがって、高さHpは
Figure 2011211687
と変形される。
ここで、「arctg」はアーク・タンジェント関数を示す。
カメラの水平方向において、図4(d)に示すように、対象位置決めユニット101は水平角θを計算する。
Figure 2011211687
ここで、xcは画像のX軸における中心座標を示し、xは人間の頂点に対応するX軸座標を示す。
位置タグの三次元の座標は、位置センサによって取得することができる。また、この座標はカメラの水平面に投影することでき、これにより、図5に示すように、水平角θ’が取得される。図5において、Pdはカメラのキャリブレーションによって指定されるカメラの光学的中心の方向における1点を示し、Pcはカメラの光学的中心の地面上の投影点であると仮定する。
三角関係によれば、以下の関係が成り立つ。
Figure 2011211687

ここで、D1は点Pから直線PcPdへの距離を表し、Dpは点Pから点Pcへの距離を表す。
カメラをキャリブレートする時に点pcとPdが決定され、点Pの座標は位置センサによって提供されるので、関連付けユニット103は、式(5)に従って角度θ’を計算することができる。
以上をまとめると、画像からデータ点pが与えられ、位置センサから位置点Pが与えられるので、カメラの水平方向における関連付け関数は以下のように定義される。
Figure 2011211687

ここで、pは画像内の座標を表し、Pは環境内の三次元座標を表し、Tは実際の適用に基づいて決定された閾値である。
しかしながら、式(6)は、ただ水平方向における2つのセンサの測量についてだけ記述する。2つのタグが同じ角度θ’で位置すれば、1つの人間の顔が2つのタグに対応するような場合がある。図6は、そのような情況の例を示す。
図6に示すように、人間の顔画像からの各データ点p1とp2は、水平方向において2点P1とP2と一致する。それは混同を引き起こす。したがって、2つのグループの点の実際の一致についてさらに判定する必要がある。ここで、1つの前提条件は、同一水平方向においてカメラによってキャプチャされた人間の顔が互いに遮蔽されていないことである。人間の顔からの点pが位置点Pとマッチすれば、実際の一致した組の点に基づいて計算される人間の顔の高さは、最小となる。そうでなければ、画像において人間の顔の遮蔽が発生している。
この前提条件に基づいて、式(3)が点P1について使用される。そして、Hp11とHp12が点p1と点pに基づいてそれぞれ計算される。その後、Hp11をHp12と比較し、Hp11とHp12のうちより小さな1つに対応し、かつ点P1と一致するデータ点pを選択する。他のものについても同じ方法で行うことが可能である。
さらに具体的には、カメラの同一水平方向において複数の対象が存在する場合、カメラによってキャプチャされた人間の顔の集合は、{p,p,…,p}として示され、対応する位置タグの集合が、{P1とP2、…、Pn}として示されると仮定する。ここで、p1からpnは角度αの順番で配置され、P1からPnは人間の顔とカメラの間の距離の順番で配置される。
対象位置決めユニット101は、未処理の人間の顔piを選択し、人間の顔piについて順番に未処理の位置タグPjを選択し、その後、式(1)に基づいてpiとPjを用いて高さHijを計算する。その結果、piについて計算された高さのうち最小の高さが選択され、それによって対応するPkを見つけ出すことができる。その後、対象位置決めユニット101は、人間の顔piが位置タグPkに対応すると判断し、その結果を記録し、人間の顔の集合中の人間の顔piと位置タグの集合中の位置タグPkを処理済みとしてマーク付けする。
人間の顔がすべて処理されるまで、対象位置決めユニット101は、人間の顔の集合中の未処理のものについて前述の処理を実行する。
従って、本実施の形態において、画像中のデータ点pと位置タグの位置点Pのパラメータを有する総関連付け関数は、以下のように記述することができる。

R'(p,P)=R(p,P)×M(p.P) (7)

ここで、M(p,P)は、カメラの同一水平方向における人間の顔について実行された前述の処理の出力である。pがPに対応すれば、M(p,P)は「1」であり、そうでなければ、M(p、P)は「0」である。
本実施の形態において、データ関連付け装置100は、人間の顔検知の結果から環境中の人間の顔の三次元情報を取得する。さらに、データ関連付け装置100は、カメラからのデータに位置センサからのデータを関連付けるためにデータマッチングを実行する。
図7は、本発明の他の実施の形態によるデータ関連付け装置700のブロック図である。データ関連付け装置700は、さらに投票ユニット704を含むこと以外、基本的に図1に示すデータ関連付け装置100と共通している。
実際の使用において、位置センサは対象を追跡することが可能である。すなわち、一定の時間範囲内で、位置センサは、カメラによってキャプチャされている同じ対象を常に関連付ける。それにより、図7に示すデータ関連付け装置700において、関連付けユニット703は、各タイミングでカメラからのデータに位置センサからのデータを関連付ける。次に、特定の時間において、投票ユニット704が、投票により最終的な関連付け結果を取得する。例えば、時間Tの期間において、所定の時間に関連付け関数A(p1、P1、t)の出力が確定されたと仮定すると、最終的な関連付け結果は次のとおりとなる。
Figure 2011211687

ここで、jは、時間tにおいてp1と一致するデータ点Pの索引を示す。
従って、本実施の形態におけるデータ関連付け装置700は、一定の時間間隔で累積投票を実行することが可能である。これは、関連付け結果の正確さを向上させる。
図8は、本発明の実施の形態によるデータ関連付け方法800のフローチャートである。この方法800はステップ802から開始する。
ステップ804で、位置センサからのデータとカメラからのデータを受信する。ステップ806で、カメラからのデータを、カメラによってキャプチャされた対象の位置情報を推測するために処理する。次に、ステップ808で、推測された位置情報を、センサ・データ関連付けを実現するために位置センーからの位置情報とマッチングする。
または、ステップ810で、一定の時間範囲における関連付け結果が累積され、最終的な関連付け結果を取得するために投票される。最後に、ステップ812で処理が終了する。
図9は、カメラの同一水平方向に複数の対象が存在する場合に、本発明の実施の形態よよって位置タグを確定する具体的方法のフローチャートである。
この方法はステップ902から開始する。次に、ステップ904で、カメラによってキャプチャされた人間の顔の集合を、{p1,p2、…,pn}と表し、対応する位置タグの集合を、{P1,P2,…,Pn}と表して提供される。ここで、p1からpnは角度αの順番で配置され(図4(a)に示すように)、P1からPnは人間の顔とカメラの間の距離の順番で配置される。
ステップ906で、未処理の人間の顔piを人間の顔の集合から選択する。ステップ908で、人間の顔piに対する未処理の位置タグPjが、位置タグの集合から順番に選択される。次に、ステップ910で、人間の顔の高さHijが、等式(1)に従ってpiとPjを用いて計算される。
その後、ステップ912で、piについて計算された最小の高さを選択し、対応するPkを選択する。次に、ステップ914で、人間の顔piが位置タグPkに対応することが判定され、この結果が記録される。さらに、人間の顔の集合中の人間の顔piと位置タグの集合中の位置タグPkが処理済みとしてマーク付けされる。
ステップ916で、人間の顔の集合内に未処理の人間の顔が存在するかどうかを決定する。存在すれば、処理はステップ906へ戻る。存在しなければ、ステップ918で処理が終了する。
本発明は、複数のターゲット対象が環境に同時に進入し或いは離れたとしても、対象の関連するイベントを検出することなく、環境に配置された位置センサとカメラに対する動的なデータ関連付けを実現する。さらに、本発明は、三次元位置推定(対象の脚部やフラグの検出等)がカメラによって実行される場合に付随する特別な制限を回避し、単一のカメラのデータから位置情報を推定する。
以上、本発明についてその好適な実施例を参照して説明したが、当該技術に精通した当業者には、本発明の精神と範囲から逸脱することなく他の様々な修正、変更、追加を行うことが可能なことは明らかであろう。したがって、本発明の範囲は上記の具体的な実施例に限定されず、付記した請求項によってのみ限定される。
ウィンドウベースのアプリケーションが、図6において具体例の説明のために示しているけれども、本発明がさらに他のアプリケーションに適用可能であることは当業者であれば十分に理解することができるであろう。
さらに、上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、これに限定されない。
(付記1)
カメラから対象の画像データを受信し、前記対象の第1の位置情報を生成する対象位置決め手段と、
前記対象位置決め手段によって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶手段と、
前記記憶手段に格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付ける関連付け手段と
を備えることを特徴とするデータ関連付け装置。
(付記2)
前記対象位置決め手段が、対象の画像データに基づいて対象の前記第1の位置情報を推測するように構成され、
前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする付記1に記載のデータ関連付け装置。
(付記3)
前記関連付け手段は、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングさせ、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるように構成されることを特徴とする付記2に記載のデータ関連付け装置。
(付記4)
前記関連付け手段は、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングさせるように構成されることを特徴とする付記3に記載のデータ関連付け装置。
(付記5)
前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含むことを特徴とする付記1に記載のデータ関連付け装置。
(付記6)
前記位置センサが超音波位置決めシステムであることを特徴とする付記5に記載のデータ関連付け装置。
(付記7)
前記対象が人間の顔であることを特徴とする付記1に記載のデータ関連付け装置。
(付記8)
一定の時間範囲における前記関連付け手段の関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するように構成される投票手段を備えることを特徴とする付記1に記載のデータ関連付け装置。
(付記9)
カメラから対象の画像データを受信し、対象の第1の位置情報を生成するステップと、
位置センサから対象の第2の位置情報を受信するステップと、
前記第1の位置情報と前記第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付けるステップと
を有することを特徴とするデータ関連付け方法。
(付記10)
前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする付記9に記載のデータ関連付け方法。
(付記11)
前記関連付けするステップは、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングし、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるステップを含むことを特徴とする付記10に記載のデータ関連付け方法。
(付記12)
前記関連付けするステップは、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングするステップを含むことを特徴とする付記11に記載のデータ関連付け方法。
(付記13)
一定の時間範囲における関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するステップをさらに有することを特徴とする付記9に記載のデータ関連付け方法。
(付記14)
前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含むことを特徴とする付記9に記載のデータ関連付け方法。
(付記15)
前記位置センサが超音波位置決めシステムであることを特徴とする付記14に記載のデータ関連付け方法。
(付記16)
前記対象が人間の顔であることを特徴とする付記9に記載のデータ関連付け方法。
100:データ関連付け装置
101:象位置決めユニット
102:記憶ユニット
103:関連付けユニット
700:データ関連付け装置
701:象位置決めユニット
702:記憶ユニット
703:関連付けユニット
704:投票ユニット

Claims (10)

  1. カメラから対象の画像データを受信し、前記対象の第1の位置情報を生成する対象位置決め手段と、
    前記対象位置決め手段によって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶手段と、
    前記記憶手段に格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付ける関連付け手段と
    を備えることを特徴とするデータ関連付け装置。
  2. 前記対象位置決め手段が、対象の画像データに基づいて対象の前記第1の位置情報を推測するように構成され、
    前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする請求項1に記載のデータ関連付け装置。
  3. 前記関連付け手段は、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングさせ、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるように構成されることを特徴とする請求項2に記載のデータ関連付け装置。
  4. 前記関連付け手段は、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングさせるように構成されることを特徴とする請求項3に記載のデータ関連付け装置。
  5. 前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含むことを特徴とする請求項1に記載のデータ関連付け装置。
  6. 前記位置センサが超音波位置決めシステムであることを特徴とする請求項5に記載のデータ関連付け装置。
  7. 前記対象が人間の顔であることを特徴とする請求項1に記載のデータ関連付け装置。
  8. 一定の時間範囲における前記関連付け手段の関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するように構成される投票手段を備えることを特徴とする請求項1に記載のデータ関連付け装置。
  9. カメラから対象の画像データを受信し、対象の第1の位置情報を生成するステップと、
    位置センサから対象の第2の位置情報を受信するステップと、
    前記第1の位置情報と前記第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付けるステップと
    を有することを特徴とするデータ関連付け方法。
  10. 前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする請求項9に記載のデータ関連付け方法。
JP2011005720A 2010-03-25 2011-01-14 データ関連付けのための方法と装置 Expired - Fee Related JP5554726B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201010135796.3 2010-03-25
CN 201010135796 CN102200578B (zh) 2010-03-25 2010-03-25 数据关联设备和方法

Publications (2)

Publication Number Publication Date
JP2011211687A true JP2011211687A (ja) 2011-10-20
JP5554726B2 JP5554726B2 (ja) 2014-07-23

Family

ID=44661411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011005720A Expired - Fee Related JP5554726B2 (ja) 2010-03-25 2011-01-14 データ関連付けのための方法と装置

Country Status (2)

Country Link
JP (1) JP5554726B2 (ja)
CN (1) CN102200578B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945088A (zh) * 2013-01-21 2014-07-23 华为终端有限公司 场景识别方法及装置
JP2017207872A (ja) * 2016-05-17 2017-11-24 株式会社日立製作所 センサ設置位置支援装置
JP2018013851A (ja) * 2016-07-19 2018-01-25 日本電信電話株式会社 行動認識装置、および、行動認識方法
JP2018013855A (ja) * 2016-07-19 2018-01-25 日本電信電話株式会社 行動認識装置、および、行動認識方法
CN112986908A (zh) * 2021-04-26 2021-06-18 网络通信与安全紫金山实验室 定位标定方法、***及存储介质
WO2023145026A1 (ja) * 2022-01-28 2023-08-03 日本電気株式会社 監視装置、監視方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103927503B (zh) 2014-04-03 2017-06-16 北京智谷睿拓技术服务有限公司 关联方法和关联设备
CN108985263B (zh) * 2018-08-08 2021-01-26 北京旷视科技有限公司 一种数据采集方法、装置、电子设备和计算机可读介质
CN110321935B (zh) * 2019-06-13 2022-03-15 上海上湖信息技术有限公司 业务事件关系确定方法及装置、计算机可读存储介质
CN111695429B (zh) * 2020-05-15 2022-01-11 深圳云天励飞技术股份有限公司 视频图像目标关联方法、装置及终端设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192563A (ja) * 2004-12-14 2006-07-27 Honda Motor Co Ltd 識別対象識別装置およびそれを備えたロボット
JP2009140264A (ja) * 2007-12-06 2009-06-25 Takenaka Komuten Co Ltd 犯罪防止装置及び犯罪防止プログラム
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL154323A0 (en) * 2000-08-21 2003-09-17 Target Technologies Ltd V Radioactive emission detector equipped with a position tracking system and utilization thereof with medical systems and in medical procedures
ATE539558T1 (de) * 2002-04-25 2012-01-15 Panasonic Corp Objektdetektionseinrichtung, objektdetektionsserver und objektdetektionsverfahren
US20080080748A1 (en) * 2006-09-28 2008-04-03 Kabushiki Kaisha Toshiba Person recognition apparatus and person recognition method
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192563A (ja) * 2004-12-14 2006-07-27 Honda Motor Co Ltd 識別対象識別装置およびそれを備えたロボット
JP2009140264A (ja) * 2007-12-06 2009-06-25 Takenaka Komuten Co Ltd 犯罪防止装置及び犯罪防止プログラム
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945088A (zh) * 2013-01-21 2014-07-23 华为终端有限公司 场景识别方法及装置
JP2017207872A (ja) * 2016-05-17 2017-11-24 株式会社日立製作所 センサ設置位置支援装置
JP2018013851A (ja) * 2016-07-19 2018-01-25 日本電信電話株式会社 行動認識装置、および、行動認識方法
JP2018013855A (ja) * 2016-07-19 2018-01-25 日本電信電話株式会社 行動認識装置、および、行動認識方法
CN112986908A (zh) * 2021-04-26 2021-06-18 网络通信与安全紫金山实验室 定位标定方法、***及存储介质
WO2023145026A1 (ja) * 2022-01-28 2023-08-03 日本電気株式会社 監視装置、監視方法及びプログラム

Also Published As

Publication number Publication date
JP5554726B2 (ja) 2014-07-23
CN102200578B (zh) 2013-09-04
CN102200578A (zh) 2011-09-28

Similar Documents

Publication Publication Date Title
JP5554726B2 (ja) データ関連付けのための方法と装置
CN107431786B (zh) 图像处理设备、图像处理***和图像处理方法
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
US11004210B2 (en) Methods circuits devices systems and associated computer executable code for extraction of visible features present within a video feed from a scene
US8254633B1 (en) Method and system for finding correspondence between face camera views and behavior camera views
CN100499830C (zh) 3d视频会议站和3d视频会议方法
CN111914635B (zh) 人体测温方法、装置、***和电子设备
EP2450832B1 (en) Image processing apparatus and image processing method
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
CN111327788B (zh) 相机组的同步方法、测温方法、装置及电子***
CN108921098B (zh) 人体运动分析方法、装置、设备及存储介质
Wang et al. Computer vision-assisted 3D object localization via COTS RFID devices and a monocular camera
WO2008132741A2 (en) Apparatus and method for tracking human objects and determining attention metrics
CN113033266A (zh) 人员运动轨迹追踪方法、装置、***及电子设备
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
Bazo et al. Baptizo: A sensor fusion based model for tracking the identity of human poses
JP2015064751A (ja) 映像管理装置及びプログラム
KR102226372B1 (ko) 다수 카메라와 라이다 센서 융합을 통한 객체 추적 시스템 및 방법
JP2019121019A (ja) 情報処理装置、3次元位置推定方法、コンピュータプログラム、及び記憶媒体
KR102250712B1 (ko) 전자 장치 및 제어 방법
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP2015070581A (ja) 移動経路推定装置、移動経路推定方法およびコンピュータプログラム
JP2013120150A (ja) 人間位置検出システム及び人間位置検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140529

R150 Certificate of patent or registration of utility model

Ref document number: 5554726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees