JP2011211687A - データ関連付けのための方法と装置 - Google Patents
データ関連付けのための方法と装置 Download PDFInfo
- Publication number
- JP2011211687A JP2011211687A JP2011005720A JP2011005720A JP2011211687A JP 2011211687 A JP2011211687 A JP 2011211687A JP 2011005720 A JP2011005720 A JP 2011005720A JP 2011005720 A JP2011005720 A JP 2011005720A JP 2011211687 A JP2011211687 A JP 2011211687A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- data
- camera
- target
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【解決手段】 データ関連付け装置は、カメラから対象の画像データを受信し、対象の第1の位置情報を生成する対象位置決めユニットと、対象位置決めユニットによって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶ユニットと、記憶ユニットに格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、位置センサからの対象の第2の位置情報と関連付ける関連付けユニットとを備える。
【選択図】 図1
Description
最近、ビデオキャプチャ装置が、人々の生活に対してセキュリティ・サービスを提供するために広く取り入れられている。さらに、これらの装置は、また、人間の行動習慣を分析するために用いられ、個人に対して正確な情報分析結果を提供する。そのため、様々なセンサからの様々なタイプの情報を収集してネットワークを形成すれば、高品質な個人情報サービスをユーザに提供することが可能となる。特に、位置情報を画像情報と組み合わせは、人間の様々な行動に対して行き届いた情報サービスを提供するであろう。
しかしながら、目標対象が複数の様々なセンサによって感知される場合、どのセンサが目標対象に対する情報を提供するか判定するのが難しい。その理由は次の通りである。
異なる種類のセンサは、通常、環境全体に配置され、各々固有の時間的かつ空間的な属性に基づいて動作し、ぞれぞれの動作エリアと感知特性を有している。さらに、センサは、不規則に存在する様々な対象を感知し、対象の感知情報のタイプが他のものと異なる。
これにより、環境に配置された様々なセンサのデータ出力を同じ対象に関連付けることができないという問題が起こる。言いかえれば、所定の時間に、同じ目標対象をどのセンサが同時に感知したか決定することが必要となる。
これらのセンサ・データの関係は、直接的にハードウェア関係に基づいており、特殊な判別処理を必要としない。同様に、全てのセンサは対象を感知するために全く同一の環境に設置される。
センサの動作エリアを予め明確にすることができれば、ターゲット対象がそのエリアに入る場合、常に、センサが機能し、その結果、これらのセンサのデータ出力をターゲット対象について関連付けることができる。
この方法はセンサの動作エリアに基づいている(すなわち、同じ動作エリアン内のセンサが関連付けられる)。
しかしながら、センサの動作エリアが予め決まっていない場合、どのセンサが共通動作エリアを有するかを判定することができないので、リアルタイムにセンサのデータ出力を関連付けることが依然として問題となる。この問題に対する方策が動的なセンサ・データ関係である。すなわち、ある対象に対するセンサ・データが、動的にかつリアルタイムに関連付けられる。
非特許文献1("Association and identification in heterogeneous sensors
environment with coverage uncertainty", S. H. Cho, S. Hong, Y. Nam.,
International conference on advanced video and signal based surveillance, pp.
553 - 558, 2009)は、身元確認センサとカメラを動的に関連付けるための解決方法を提案する。この方法では、センサとカメラのデータ出力が時間と履歴情報によって対応付けられる。
具体的には、非特許文献1の方法は、2つのイベントによって身元確認センサとカメラを関連付ける。イベントの1つが、「ターゲット対象の身元確認センサの感知エリアへの侵入」であり、他のイベントが、「ターゲット対象の身元確認センサの感知エリアからの離脱」である。すなわち、ターゲット対象が身元確認センサの感知エリアに入ると、「侵入」イベントが検出される。同時に、カメラは対象を追跡する。これにより、「侵入」イベントが発生すると、ターゲット対象がカメラによって位置決めされ、かつ追跡される。そして、身元確認センサによって感知された対象の識別情報は、カメラによって提供される軌跡情報と時間順に関連付けられる。同様に、ターゲット対象が、身元確認センサの感知エリアから出る時、「離脱」イベントが検出される。次に、ターゲット対象の識別情報と軌跡情報(すなわち、環境中のターゲット対象の履歴軌跡)が関連付けられる。
さらに、本発明は、三次元位置推定がカメラによって実行される場合に付随する特別な制限を回避し、単一のカメラのデータから位置情報を推定する。
位置センサは、例えば、(tag_id、X、Y、Z)の形式の位置データを取得する。ここで、tag_idは、位置タグのIDを示し、(X, Y, Z)は、場面内の位置タグを身に付けている対象の三次元座標を示している。対して、カメラ203は、対象に関する画像情報をキャプチャし、かつ対象の属性情報を取得するために画像情報を分析するのに用いられる。例えば、対象が人間ならば、対象の属性情報は人間の顔のサイズ、その人のコートの色等である。
例えば、目標対象が人間の顔である場合、正面からの人間の顔の検出精度は98%であるが、他の方向からの精度は約95%であるに過ぎない。
したがって、検出された顔情報から得られる対象属性情報はある程度の不確かさを有している。その上、画像中の人間の顔の位置がそれぞれ異なることから、画像中の奥行きと大きさが異なる人間の顔が同じ大きさに見える場合があり、その場面における人間の顔の三次元位置情報を直接取得することができないことになる。さらに、位置タグは人間の上着に通常身に付けられている。これは画像中の人間の顔の領域から位置タグの位置情報を取得することができないことを意味している。したがって、画像情報に位置情報を関連付けることが困難となる。
object detection using a boosted cascade of simple features", Paul Viola,
Michael Jones., Proceedings of the 2001 IEEE Computer Society Conference on
Computer Vision and Pattern Recognition, Vol.1 pp. 511-518, 2001)によって実現することが可能である。
Orientations", Zhengyou Zhang., International Conference on Computer
Vision (ICCV'99), Corfu, Greece, pages 666-673, September 1999)に開示された方法等のような、カメラのキャリブレーションによって取得することができる、
ここで、図4(c)に示すように、ycは画像のY軸における中心座標を示し、fはカメラの焦点距離を示し、yは人間の頂点に対応するY軸座標を示している。焦点fも、カメラのキャリブレーションによって予め取得することができる。
したがって、高さHpは
ここで、「arctg」はアーク・タンジェント関数を示す。
三角関係によれば、以下の関係が成り立つ。
ここで、D1は点Pから直線PcPdへの距離を表し、Dpは点Pから点Pcへの距離を表す。
カメラをキャリブレートする時に点pcとPdが決定され、点Pの座標は位置センサによって提供されるので、関連付けユニット103は、式(5)に従って角度θ’を計算することができる。
ここで、pは画像内の座標を表し、Pは環境内の三次元座標を表し、Tは実際の適用に基づいて決定された閾値である。
この前提条件に基づいて、式(3)が点P1について使用される。そして、Hp11とHp12が点p1と点pに基づいてそれぞれ計算される。その後、Hp11をHp12と比較し、Hp11とHp12のうちより小さな1つに対応し、かつ点P1と一致するデータ点pを選択する。他のものについても同じ方法で行うことが可能である。
対象位置決めユニット101は、未処理の人間の顔piを選択し、人間の顔piについて順番に未処理の位置タグPjを選択し、その後、式(1)に基づいてpiとPjを用いて高さHijを計算する。その結果、piについて計算された高さのうち最小の高さが選択され、それによって対応するPkを見つけ出すことができる。その後、対象位置決めユニット101は、人間の顔piが位置タグPkに対応すると判断し、その結果を記録し、人間の顔の集合中の人間の顔piと位置タグの集合中の位置タグPkを処理済みとしてマーク付けする。
R'(p,P)=R(p,P)×M(p.P) (7)
ここで、M(p,P)は、カメラの同一水平方向における人間の顔について実行された前述の処理の出力である。pがPに対応すれば、M(p,P)は「1」であり、そうでなければ、M(p、P)は「0」である。
実際の使用において、位置センサは対象を追跡することが可能である。すなわち、一定の時間範囲内で、位置センサは、カメラによってキャプチャされている同じ対象を常に関連付ける。それにより、図7に示すデータ関連付け装置700において、関連付けユニット703は、各タイミングでカメラからのデータに位置センサからのデータを関連付ける。次に、特定の時間において、投票ユニット704が、投票により最終的な関連付け結果を取得する。例えば、時間Tの期間において、所定の時間に関連付け関数A(p1、P1、t)の出力が確定されたと仮定すると、最終的な関連付け結果は次のとおりとなる。
ここで、jは、時間tにおいてp1と一致するデータ点Pの索引を示す。
ステップ804で、位置センサからのデータとカメラからのデータを受信する。ステップ806で、カメラからのデータを、カメラによってキャプチャされた対象の位置情報を推測するために処理する。次に、ステップ808で、推測された位置情報を、センサ・データ関連付けを実現するために位置センーからの位置情報とマッチングする。
または、ステップ810で、一定の時間範囲における関連付け結果が累積され、最終的な関連付け結果を取得するために投票される。最後に、ステップ812で処理が終了する。
この方法はステップ902から開始する。次に、ステップ904で、カメラによってキャプチャされた人間の顔の集合を、{p1,p2、…,pn}と表し、対応する位置タグの集合を、{P1,P2,…,Pn}と表して提供される。ここで、p1からpnは角度αの順番で配置され(図4(a)に示すように)、P1からPnは人間の顔とカメラの間の距離の順番で配置される。
カメラから対象の画像データを受信し、前記対象の第1の位置情報を生成する対象位置決め手段と、
前記対象位置決め手段によって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶手段と、
前記記憶手段に格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付ける関連付け手段と
を備えることを特徴とするデータ関連付け装置。
前記対象位置決め手段が、対象の画像データに基づいて対象の前記第1の位置情報を推測するように構成され、
前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする付記1に記載のデータ関連付け装置。
前記関連付け手段は、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングさせ、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるように構成されることを特徴とする付記2に記載のデータ関連付け装置。
前記関連付け手段は、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングさせるように構成されることを特徴とする付記3に記載のデータ関連付け装置。
前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含むことを特徴とする付記1に記載のデータ関連付け装置。
前記位置センサが超音波位置決めシステムであることを特徴とする付記5に記載のデータ関連付け装置。
前記対象が人間の顔であることを特徴とする付記1に記載のデータ関連付け装置。
一定の時間範囲における前記関連付け手段の関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するように構成される投票手段を備えることを特徴とする付記1に記載のデータ関連付け装置。
カメラから対象の画像データを受信し、対象の第1の位置情報を生成するステップと、
位置センサから対象の第2の位置情報を受信するステップと、
前記第1の位置情報と前記第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付けるステップと
を有することを特徴とするデータ関連付け方法。
前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする付記9に記載のデータ関連付け方法。
前記関連付けするステップは、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングし、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるステップを含むことを特徴とする付記10に記載のデータ関連付け方法。
前記関連付けするステップは、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングするステップを含むことを特徴とする付記11に記載のデータ関連付け方法。
一定の時間範囲における関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するステップをさらに有することを特徴とする付記9に記載のデータ関連付け方法。
前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含むことを特徴とする付記9に記載のデータ関連付け方法。
前記位置センサが超音波位置決めシステムであることを特徴とする付記14に記載のデータ関連付け方法。
前記対象が人間の顔であることを特徴とする付記9に記載のデータ関連付け方法。
101:象位置決めユニット
102:記憶ユニット
103:関連付けユニット
700:データ関連付け装置
701:象位置決めユニット
702:記憶ユニット
703:関連付けユニット
704:投票ユニット
Claims (10)
- カメラから対象の画像データを受信し、前記対象の第1の位置情報を生成する対象位置決め手段と、
前記対象位置決め手段によって生成された対象の第1の位置情報を格納し、位置センサからの対象の第2の位置情報を格納する記憶手段と、
前記記憶手段に格納された第1の位置情報と第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付ける関連付け手段と
を備えることを特徴とするデータ関連付け装置。 - 前記対象位置決め手段が、対象の画像データに基づいて対象の前記第1の位置情報を推測するように構成され、
前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする請求項1に記載のデータ関連付け装置。 - 前記関連付け手段は、複数の対象が同一の第1の位置情報を有する場合、複数の対象の第1の位置情報を、それぞれの対象の第2の位置情報にマッチングさせ、カメラからの複数の対象の画像データを前記位置センサからの複数の対象の第2の位置情報とそれぞれ関連付けるように構成されることを特徴とする請求項2に記載のデータ関連付け装置。
- 前記関連付け手段は、複数の対象の第1の位置情報と第2の位置情報を用いることにより、複数の対象中の特定の1つの高さを計算し、特定の対象の第1の位置情報を、最小の高さに対応する第2の位置情報にマッチングさせるように構成されることを特徴とする請求項3に記載のデータ関連付け装置。
- 前記位置センサが、位置信号受信機と位置タグを含み、前記位置センサからの対象の前記第2の位置情報が、前記対象の位置データと識別データを含むことを特徴とする請求項1に記載のデータ関連付け装置。
- 前記位置センサが超音波位置決めシステムであることを特徴とする請求項5に記載のデータ関連付け装置。
- 前記対象が人間の顔であることを特徴とする請求項1に記載のデータ関連付け装置。
- 一定の時間範囲における前記関連付け手段の関連付け結果を累積し、それらの投票によって最終的な関連付け結果を取得するように構成される投票手段を備えることを特徴とする請求項1に記載のデータ関連付け装置。
- カメラから対象の画像データを受信し、対象の第1の位置情報を生成するステップと、
位置センサから対象の第2の位置情報を受信するステップと、
前記第1の位置情報と前記第2の位置情報に基づいて、カメラからの対象の画像データを、前記位置センサからの対象の第2の位置情報と関連付けるステップと
を有することを特徴とするデータ関連付け方法。 - 前記第1の位置情報が対象とカメラの間の水平角情報を含むことを特徴とする請求項9に記載のデータ関連付け方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010135796.3 | 2010-03-25 | ||
CN 201010135796 CN102200578B (zh) | 2010-03-25 | 2010-03-25 | 数据关联设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011211687A true JP2011211687A (ja) | 2011-10-20 |
JP5554726B2 JP5554726B2 (ja) | 2014-07-23 |
Family
ID=44661411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011005720A Expired - Fee Related JP5554726B2 (ja) | 2010-03-25 | 2011-01-14 | データ関連付けのための方法と装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5554726B2 (ja) |
CN (1) | CN102200578B (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103945088A (zh) * | 2013-01-21 | 2014-07-23 | 华为终端有限公司 | 场景识别方法及装置 |
JP2017207872A (ja) * | 2016-05-17 | 2017-11-24 | 株式会社日立製作所 | センサ設置位置支援装置 |
JP2018013851A (ja) * | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | 行動認識装置、および、行動認識方法 |
JP2018013855A (ja) * | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | 行動認識装置、および、行動認識方法 |
CN112986908A (zh) * | 2021-04-26 | 2021-06-18 | 网络通信与安全紫金山实验室 | 定位标定方法、***及存储介质 |
WO2023145026A1 (ja) * | 2022-01-28 | 2023-08-03 | 日本電気株式会社 | 監視装置、監視方法及びプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927503B (zh) | 2014-04-03 | 2017-06-16 | 北京智谷睿拓技术服务有限公司 | 关联方法和关联设备 |
CN108985263B (zh) * | 2018-08-08 | 2021-01-26 | 北京旷视科技有限公司 | 一种数据采集方法、装置、电子设备和计算机可读介质 |
CN110321935B (zh) * | 2019-06-13 | 2022-03-15 | 上海上湖信息技术有限公司 | 业务事件关系确定方法及装置、计算机可读存储介质 |
CN111695429B (zh) * | 2020-05-15 | 2022-01-11 | 深圳云天励飞技术股份有限公司 | 视频图像目标关联方法、装置及终端设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006192563A (ja) * | 2004-12-14 | 2006-07-27 | Honda Motor Co Ltd | 識別対象識別装置およびそれを備えたロボット |
JP2009140264A (ja) * | 2007-12-06 | 2009-06-25 | Takenaka Komuten Co Ltd | 犯罪防止装置及び犯罪防止プログラム |
WO2010098024A1 (ja) * | 2009-02-24 | 2010-09-02 | 三菱電機株式会社 | 人物追跡装置及び人物追跡プログラム |
JP2010276529A (ja) * | 2009-05-29 | 2010-12-09 | Panasonic Corp | 物体同定装置および物体同定方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL154323A0 (en) * | 2000-08-21 | 2003-09-17 | Target Technologies Ltd V | Radioactive emission detector equipped with a position tracking system and utilization thereof with medical systems and in medical procedures |
ATE539558T1 (de) * | 2002-04-25 | 2012-01-15 | Panasonic Corp | Objektdetektionseinrichtung, objektdetektionsserver und objektdetektionsverfahren |
US20080080748A1 (en) * | 2006-09-28 | 2008-04-03 | Kabushiki Kaisha Toshiba | Person recognition apparatus and person recognition method |
DE102007018470A1 (de) * | 2007-04-19 | 2008-10-23 | Robert Bosch Gmbh | Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung |
-
2010
- 2010-03-25 CN CN 201010135796 patent/CN102200578B/zh not_active Expired - Fee Related
-
2011
- 2011-01-14 JP JP2011005720A patent/JP5554726B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006192563A (ja) * | 2004-12-14 | 2006-07-27 | Honda Motor Co Ltd | 識別対象識別装置およびそれを備えたロボット |
JP2009140264A (ja) * | 2007-12-06 | 2009-06-25 | Takenaka Komuten Co Ltd | 犯罪防止装置及び犯罪防止プログラム |
WO2010098024A1 (ja) * | 2009-02-24 | 2010-09-02 | 三菱電機株式会社 | 人物追跡装置及び人物追跡プログラム |
JP2010276529A (ja) * | 2009-05-29 | 2010-12-09 | Panasonic Corp | 物体同定装置および物体同定方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103945088A (zh) * | 2013-01-21 | 2014-07-23 | 华为终端有限公司 | 场景识别方法及装置 |
JP2017207872A (ja) * | 2016-05-17 | 2017-11-24 | 株式会社日立製作所 | センサ設置位置支援装置 |
JP2018013851A (ja) * | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | 行動認識装置、および、行動認識方法 |
JP2018013855A (ja) * | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | 行動認識装置、および、行動認識方法 |
CN112986908A (zh) * | 2021-04-26 | 2021-06-18 | 网络通信与安全紫金山实验室 | 定位标定方法、***及存储介质 |
WO2023145026A1 (ja) * | 2022-01-28 | 2023-08-03 | 日本電気株式会社 | 監視装置、監視方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5554726B2 (ja) | 2014-07-23 |
CN102200578B (zh) | 2013-09-04 |
CN102200578A (zh) | 2011-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5554726B2 (ja) | データ関連付けのための方法と装置 | |
CN107431786B (zh) | 图像处理设备、图像处理***和图像处理方法 | |
US9646212B2 (en) | Methods, devices and systems for detecting objects in a video | |
US11004210B2 (en) | Methods circuits devices systems and associated computer executable code for extraction of visible features present within a video feed from a scene | |
US8254633B1 (en) | Method and system for finding correspondence between face camera views and behavior camera views | |
CN100499830C (zh) | 3d视频会议站和3d视频会议方法 | |
CN111914635B (zh) | 人体测温方法、装置、***和电子设备 | |
EP2450832B1 (en) | Image processing apparatus and image processing method | |
JP4700477B2 (ja) | 移動体監視システムおよび移動体特徴量算出装置 | |
CN111327788B (zh) | 相机组的同步方法、测温方法、装置及电子*** | |
CN108921098B (zh) | 人体运动分析方法、装置、设备及存储介质 | |
Wang et al. | Computer vision-assisted 3D object localization via COTS RFID devices and a monocular camera | |
WO2008132741A2 (en) | Apparatus and method for tracking human objects and determining attention metrics | |
CN113033266A (zh) | 人员运动轨迹追踪方法、装置、***及电子设备 | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
Bazo et al. | Baptizo: A sensor fusion based model for tracking the identity of human poses | |
JP2015064751A (ja) | 映像管理装置及びプログラム | |
KR102226372B1 (ko) | 다수 카메라와 라이다 센서 융합을 통한 객체 추적 시스템 및 방법 | |
JP2019121019A (ja) | 情報処理装置、3次元位置推定方法、コンピュータプログラム、及び記憶媒体 | |
KR102250712B1 (ko) | 전자 장치 및 제어 방법 | |
JP6659095B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2004046464A (ja) | 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体 | |
JP2020052822A (ja) | 情報処理装置、認証システムおよびそれらの制御方法、プログラム | |
JP2015070581A (ja) | 移動経路推定装置、移動経路推定方法およびコンピュータプログラム | |
JP2013120150A (ja) | 人間位置検出システム及び人間位置検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5554726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |