JP7274298B2 - 撮像装置、撮像方法及び撮像プログラム - Google Patents

撮像装置、撮像方法及び撮像プログラム Download PDF

Info

Publication number
JP7274298B2
JP7274298B2 JP2019023059A JP2019023059A JP7274298B2 JP 7274298 B2 JP7274298 B2 JP 7274298B2 JP 2019023059 A JP2019023059 A JP 2019023059A JP 2019023059 A JP2019023059 A JP 2019023059A JP 7274298 B2 JP7274298 B2 JP 7274298B2
Authority
JP
Japan
Prior art keywords
unit
fixed
image
subject
point imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019023059A
Other languages
English (en)
Other versions
JP2020136703A (ja
Inventor
崇泰 八尋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Core Corp
Original Assignee
Core Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Core Corp filed Critical Core Corp
Priority to JP2019023059A priority Critical patent/JP7274298B2/ja
Publication of JP2020136703A publication Critical patent/JP2020136703A/ja
Priority to JP2023075531A priority patent/JP2023100805A/ja
Application granted granted Critical
Publication of JP7274298B2 publication Critical patent/JP7274298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像装置、撮像方法及び撮像プログラムに関する。
従来から、撮像装置を用いて動画を撮影することは一般的に行われている。そのような中で、撮像した動画のなから見たいシーンを選択するために、表示部に動画と共に、被写体の移動の軌跡を表示する技術がある(特許文献1参照)。特許文献1に記載された技術は、軌跡の1点を選択すると、その時に対応するシーンを表示するようになっている。
特開2014-132748号公報
撮像装置を用いて動画を撮影する場合の用途には、一例として、監視カメラ等を配置して、道路等を移動する人等を撮影することが挙げられる。監視カメラは複数配されることが多く、異なる監視カメラで同一の被写体を撮影する場合もある。この場合、監視カメラで撮像された動画を見る者は、異なる複数の監視カメラで撮影する被写体が同一か否か判断できない可能性もある。
本発明は、複数の撮像装置を用いて同一の被写体を撮像するのに好適な撮像装置、撮像方法及び撮像プログラムに関する。
一態様の撮像装置は、時間的に連続して被写体を撮像して画像データを生成する複数の定点撮像部と、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識部と、認識部で認識した被写体の位置に関する位置情報を取得する取得部と、取得部で取得された位置情報に基づいて被写体の移動先を予測する予測部と、予測部で予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択部と、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得部で取得される位置情報とを対応付ける対応付け部と、対応付け部で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する表示部と、を備える。
一態様の撮像装置では、対応付け部は、複数の定点撮像部それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部毎に異なる特徴を示す特徴情報を付し、表示部は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部毎に異なる特徴画像を付して表示することとしてもよい。
一態様の撮像装置は、定点撮像部で生成された画像データに基づく画像と、取得部で取得された位置情報とに対して同期する時刻情報を付す時刻情報付加部と、画像データ及び位置情報を記憶する記憶部と、を備え、表示部は、記憶部から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部で付加された時刻情報に基づいて同期するように表示することとしてもよい。
一態様の撮像装置では、取得部は、定点撮像部で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、認識部で新たな被写体が認識されと、位置情報を取得することとしてもよい。
一態様の撮像装置では、取得部は、定点撮像部で撮像される画像内の位置と、その位置における定点撮像部からの距離とを対応付けた結果と、定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、に基づいて、認識部で新たな被写体が認識されると、位置情報を取得することとしてもよい。
一態様の撮像装置では、取得部は、被写体の高さと、定点撮像部の画角と、定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、被写体が移動する場合、第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、第1取得部で取得される画像の幅と、第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、第4取得部で取得された実際の画像の幅と、第1取得部で取得された画角とに基づいて、定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部と、第5取得部で取得された第1距離及び第2距離に基づいて、地面と定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、第5取得部で取得された第1距離及び第2距離と、第6取得部で取得されたなす角とに基づいて、地面から定点撮像部までの高さを取得する第7取得部と、第7取得部で取得された地面から定点撮像部までの高さと、第6取得部で取得されたなす角とに基づいて、定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する第8取得部と、を備えることとしてもよい。
一態様の撮像装置では、取得部は、第4取得部で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部を備えることとしてもよい。
一態様の撮像方法では、コンピュータが、複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識ステップと、認識ステップで認識した被写体の位置に関する位置情報を取得する取得ステップと、取得ステップで取得された位置情報に基づいて被写体の移動先を予測する予測ステップと、予測ステップで予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択ステップと、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得ステップで取得される位置情報とを対応付ける対応付けステップと、対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部に表示する表示ステップと、を実行する。
一態様の撮像プログラムは、コンピュータに、複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識機能と、認識機能で認識した被写体の位置に関する位置情報を取得する取得機能と、取得機能で取得された位置情報に基づいて被写体の移動先を予測する予測機能と、予測機能で予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択機能と、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得機能で取得される位置情報とを対応付ける対応付け機能と、対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部に表示する表示機能と、を実現させる。
一態様の撮像装置は、取得部によって被写体の位置情報を取得することに基づいて被写体の移動先を予測し、その移動先を撮像することができる最も近い定点撮像部を選択部によって選択するので、複数の定点撮像部を用いて同一の被写体を撮像するのに好適な撮像装置を提供することができる。
また、一態様の撮像方法及び撮像プログラムは、上述した一態様の撮像装置と同様の効果を奏することができる。
一実施形態に係る撮像装置について説明するためのブロック図である。 被写体の予測について説明するための図である。 画像と位置情報との対応付けについて説明するための図である。 表示部の表示画面について説明するための図である。 画像位置情報を取得する場合の説明に用いるための図である。 定点撮像部で撮像される画像の一例について説明するための図である。 Y座標とピクセル数との関係を示すグラフである。 画像位置情報の一例について説明するためのグラフである。 Y座標と画像の幅の比率との関係を示すグラフである。 一実施形態に係る撮像方法について説明するための第1のフローチャートである。 一実施形態に係る撮像方法について説明するための第2のフローチャートである。
以下、本発明の一実施形態について説明する。
撮像装置は、異なる地点に配される複数の定点撮像部で被写体を撮像する。撮像装置は、予測部によって被写体の移動先を予測し、その被写体を撮像することができる最も近い定点撮像部によって被写体を撮像する。また、撮像装置は、取得部によって被写体の位置情報を取得することに基づいて、被写体の移動の軌跡を取得する。そして、撮像装置は、定点撮像部によって撮像される被写体の画像と、取得部によって取得される被写体の移動お軌跡とを、時間的に同期するように表示部に表示する。
以下、撮像装置の具体的な構成について説明する。
図1は、一実施形態に係る撮像装置について説明するためのブロック図である。
図2は、被写体の予測について説明するための図である。
図3は、画像と位置情報との対応付けについて説明するための図である。
図4は、表示部の表示画面について説明するための図である。
図1に示すように、撮像装置1は、定点撮像部11、認識部12、取得部13、予測部14、選択部15、対応付け部16及び表示部17を備える。
定点撮像部11は、複数あり、例えば、異なる地点それぞれに配される。撮像装置1では、定点撮像部11が配される位置に関する情報(位置情報)が予め取得されている。複数の定点撮像部11は、それぞれ異なる場所を撮像してもよく、1の定点撮像部11の撮像範囲が他の定点撮像部11の撮像範囲の一部となっていてもよい。
定点撮像部11は、時間的に連続して被写体を撮像して画像データを生成する。定点撮像部11は、動画を撮像することにより画像データを生成してもよく、所定時間毎に静止画を撮像することにより画像データを生成してもよい。定点撮像部11(後述する時刻情報付加部18)は、撮像した時刻(時刻情報)を、動画を構成するフレーム又は静止画に付してもよく、付さなくてもよい。定点撮像部11は、生成した画像データを、後述する認識部12に出力してもよく、記憶部19に記憶してもよい。定点撮像部11においてフレーム又は静止画に時刻情報を付されない場合、記憶部19(後述する時刻情報付加部18)は、画像データを記憶する際に、記憶時刻(時刻情報)をフレーム又は静止画に付してもよい。定点撮像部11において画像データが生成されると、その画像データはすぐに記憶部19に記憶される。このため、撮影した時刻と記憶時刻とはほぼ一致する。
なお、複数の定点撮像部11それぞれは、計時する時刻が同期するようにNTPサーバに接続されてもよい。又は、複数の定点撮像部11は、通信ネットワークに接続されていない環境の場合には、GPS(Global Positioning System)アンテナ付きのNTPサーバに接続されてもよい。
また、定点撮像部11は、撮像される画像内の明暗の変化が少なく、ホワイトバランスの変化が少ない撮像部であってもよい。
認識部12は、定点撮像部11それぞれで撮像された画像データに基づく画像から被写体を認識する。認識部12は、例えば、予め被写体の特徴を学習しておき、その学習結果に基づいて画像データから被写体の特徴を抽出し、抽出した特徴から被写体を認識することとしてもよい。又は、認識部12は、例えば、パターンマッチングを利用することにより、画像データに基づいて被写体を認識することとしてもよい。認識部12は、一例として、被写体として、人、乗用車、トラック、オートバイ、自転車等を認識する。認識部12は、1の画像(動画、フレーム、静止画)から複数の被写体を認識することとしてもよい。
なお、認識部12は、定点撮像部11から画像データを入力してもよく、記憶部19から読み出した画像データを入力してもよい。
取得部13は、認識部12で認識した被写体の位置に関する位置情報を取得する。定点撮像部11で得られる画像では、その画像内の位置が予め設定されている。
すなわち、取得部13では、画像内の位置と、その位置における定点撮像部11からの距離とが分かるように予め設定されている。取得部13では、取得される距離と、実際の空間上の位置座標(位置情報)とが対応付けられている。取得部13は、画像内の被写体の位置を特定することにより、定点撮像部11からの距離と、その距離に対応付けられた位置情報とに基づいて、被写体の位置情報を取得することができる。画像内の位置と、その位置における定点撮像部11からの距離とを対応付ける方法については、後述する。
なお、上記の例に限定されず、取得部13は、定点撮像部11で撮像される画像内の位置と、実際の空間上の位置座標(位置情報)とを対応付ける測定作業を繰り返すことにより、得られた対応付けの関係(対応関係)を記憶することとしてもよい。この場合、取得部13は、定点撮像部11で画像が得られると、その対応関係に基づいて、画像上の位置から実際の空間の位置情報を取得することとしてもよい。
取得部13は、定点撮像部11で得られる画像に被写体が記録される場合、すなわち、認識部12で被写体が認識された場合、画像内の被写体の位置と、その位置における定点撮像部11からの距離とに基づいて、被写体の位置情報(定点撮像部11から被写体までの距離)を取得する。
定点撮像部11は時間的に連続して又は所定時間毎に被写体を撮像するため、取得部13は、同一の被写体について複数の位置情報を取得することが可能である。定点撮像部11は、取得された位置情報を記憶部19に記憶することとしてもよい。
定点撮像部11(後述する時刻情報付加部18)は、取得された位置情報と、フレーム又は静止画に記録される時刻情報と位置情報とを対応付けることとしてもよい。この場合、定点撮像部11は、位置情報を、時刻情報と対応付けて記憶部19に記憶することとしてもよい。
予測部14は、取得部13で取得された位置情報に基づいて被写体の移動先を予測する。上述したように取得部13は同一の被写体について時系列に沿って複数の位置情報を取得することが可能なため、予測部14は、複数の位置情報に基づいて、被写体の移動先を予測する。すなわち、予測部14は、時間的に前後する複数の位置情報に基づいて、それぞれの位置におおける被写体の速度ベクトルを求める。定点撮像部11は、所定のフレームレートで動画を撮像し、又は、予め設定された時間毎に静止画を撮像する。このため、予測部14は、定点撮像部11で撮像される異なる2枚の画像の時間的な間隔が分かる。また、予測部14は、取得部13において画像内の被写体の位置情報が取得されるため、時間的に前後する2枚の画像から被写体の移動量が分かる。よって、予測部14は、複数の画像に基づいて、被写体の速度ベクトルを求める。予測部14は、求められた速度ベクトルと、被写体の位置情報に基づいて、被写体の将来の移動先を予測する。この場合、予測部14は、被写体の移動先の位置座標(位置情報)を取得することが可能である。
図2に例示するように、被写体T(乗用車)が道路を走行する場合、取得部13は、定点撮像部11で得られた画像に基づいて被写体Tの位置P1(位置情報)を複数取得する。予測部14は、取得部13によって取得された複数の位置情報に基づいて、被写体の将来の位置P2(位置情報)を予測する。
選択部15は、予測部14で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる。定点撮像部11の位置情報は予め取得されているため、選択部15は、予測部14で予測された被写体の移動先(位置情報)を撮像することができ、且つ、その移動先(位置情報)から最も近い定点撮像部11を選択し、選択した定点撮像部11でその被写体を撮像させる。
図2に例示する場合、2つの定点撮像部11a,11bが配される。選択部15は、予測部14で予測される被写体の将来の位置P2を撮像することができる、最も近い定点撮像部11bを選択する。選択部15は、定点撮像部11の位置情報を予め取得すると共に、定点撮像部11が撮像できる範囲の位置座標を予め取得しているため、複数の定点撮像部11の中から1の定点撮像部11を選択することができる。
対応付け部16は、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得部13で取得される位置情報とを対応付ける。すなわち、対応付け部16は、定点撮像部11で得られる被写体の画像と、その画像に基づいて得られる被写体の位置情報とを対応付ける。この場合、対応付け部16は、画像が静止画の場合、その静止画と、その静止画から得られる被写体の位置情報とを対応付ける。又は、対応付け部16は、画像が動画の場合、所定の時間における動画(一例として、フレーム)と、その所定時間における動画(一例として、フレーム)から得られる被写体の位置情報とを対応付ける。図3に例示するように、対応付け部16は、1の画像(フレーム又は静止画)と、その1の画像から得られる被写体の位置情報とを対応付ける。対応付け部16は、全ての画像について、被写体の位置情報と対応付けることとしてもよい。
これにより、対応付け部16は、所定時間における画像と、その所定時間における被写体の位置情報とを対応付けることが可能である。対応付け部16は、時間的に連続して又は間欠的に画像と位置情報とを対応付けることにより、時系列に沿った画像と位置情報とを対応付けたデータを得ることが可能になる。
表示部17は、対応付け部16で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する。
表示部17は、一例として、画像を表示する表示スクリーンと、被写体の軌跡を表示する表示スクリーンとを表示することとしてもよい。表示部17は、定点撮像部11で撮像される画像と、被写体の軌跡(位置情報)とをリアルタイムで表示することができる。又は、表示部17は、記憶部19に記憶される過去の画像と、その画像から得られる被写体の軌跡(位置情報)とを表示することができる。
表示部17は、定点撮像部11で撮像される被写体の画像と、取得部13で取得される被写体の位置情報に基づく被写体の軌跡とを表示する。表示部17は、被写体の画像と、被写体の位置(軌跡)とを時間的に同期させて表示する。
すなわち、表示部17は、被写体が写る動画又は被写体が写る静止画を時系列に沿って連続して表示すると共に、例えば、地図上に被写体の位置を表示する。表示部17は、地図上に被写体の位置を表示する場合、被写体の移動が分かるように、被写体の移動の軌跡を表示することとしてもよい。
図4に例示するように、表示部17は、地図を表示して、その地図上に被写体の軌跡を表示する。また、表示部17は、複数の定点撮像部11が配される場合、それぞれの定点撮像部11で撮像される画像を表示する。この場合、対応付け部16によって、1の定点撮像部11で撮像される画像と、その画像に基づいて得られた被写体の位置(軌跡)とが対応付けられているため、表示部17は、その対応付けが分かるように表示する。図4に例示する場合、表示部17は、1の定点撮像部11cによって撮像された画像を表示する表示エリア、及び、軌跡の周囲に実線の囲みを加えて、対応付けが分かるようにしている。同様に、表示部17は、他の定点撮像部11dによって撮像された画像を表示する表示エリア、及び、軌跡の周囲に破線の囲みを加えて、対応付けが分かるようにしている。
上述した撮像装置1では、対応付け部16は、複数の定点撮像部11それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部11毎に異なる特徴を示す特徴情報を付すこととしてもよい。この場合、表示部17は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部11毎に異なる特徴画像を付して表示することとしてもよい。
対応付け部16は、被写体が写る画像と、その画像から取得される被写体の軌跡とを対応付け、その対応付けに対して特徴を付す。対応付け部16は、1の画像に複数の被写体が写り、その1の画像から取得される被写体の軌跡が複数ある場合にも、同一の特徴を付す。なお、対応付け部16は、1の画像に複数の被写体が記録される場合には、それぞれの被写体の軌跡を異なる形状、一例として、円形、三角形、四角形等の形状に設定することとしてもよい。
すなわち、対応付け部16は、画像を取得する定点撮像部11毎に異なる特徴を付す。特徴は、一例として、色、文字又は記号等である。具体的な一例としては、表示部17は、対応付け部16によって特徴情報として赤色の特徴が付された場合、1の定点撮像部11で撮像された画像を表示する表示スクリーンの周囲に赤色を付し、その表示スクリーンに表示される被写体の軌跡に赤色を付す。また、表示部17は、対応付け部16によって特徴情報として青色の特徴が付された場合、他の定点撮像部11で撮像された画像を表示する表示スクリーンの周囲に青色を付し、その表示スクリーンに表示される被写体の軌跡に青色を付す。これにより、対応付け部16は、図4に例示するような実線及び破線の区別よりも、視角的にわかりやすい対応付けを行うことができる。
上述した撮像装置1は、時刻情報付加部18及び記憶部19を備えることとしてもよい。
時刻情報付加部18は、定点撮像部11で生成された画像データに基づく画像と、取得部13で取得された位置情報とに対して同期する時刻情報を付す。記憶部19は、画像データ及び位置情報を記憶する。この場合、表示部17は、記憶部19から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部18で付加された時刻情報に基づいて同期するように表示することとしてもよい。
一例として、時刻情報付加部18は、定点撮像部11によって撮像された画像データに撮像時刻(時刻情報)を付す。この場合、時刻情報付加部18は、定点撮像部11の内部に配されてもよく、定点撮像部11の外部に配されてもよい。又は、時刻情報付加部18は、記憶部19に画像データを記憶する場合に、記憶時刻(時刻情報)を付す。この場合、時刻情報付加部18は、記憶部19の内部に配されてもよく、記憶部19の外部に配されてもよい。定点撮像部11によって生成された画像データを記憶部19に記憶する場合、画像データは、定点撮像部11で生成されるとすぐに記憶部19に記憶される。このため、記憶時刻と撮像時刻とはほぼ同時刻となる。
また、時刻情報付加部18は、取得部13によって位置情報が取得されると、その位置情報の取得に用いられた画像に付された時刻情報をその位置情報に対応付ける。
これにより、時刻情報付加部18は、画像と、その画像から得られる被写体の位置情報とを同期させることができる。表示部17は、時刻情報に基づいて、画像と、その画像に写る被写体の軌跡(位置情報)とを同期させて表示することができる。
次に、定点撮像部11で得られる画像内の位置と、その位置における定点撮像部11からの距離とを対応付ける方法について説明する。
図5は、画像位置情報を取得する場合の説明に用いるための図である。
図6は、定点撮像部で撮像される画像の一例について説明するための図である。
図7は、Y座標とピクセル数との関係を示すグラフである。図7の横軸はY座標を示し、縦軸は1m当たりのピクセル数を示す。ここで、定点撮像部で撮像される画像内における奥行方向がY座標であり、その画像の幅方向がX座標である。
図8は、画像位置情報の一例について説明するためのグラフである。図8の横軸はY座標を示し、縦軸は、定点撮像部が配される地面の位置から任意のY座標の位置までの距離を示す。
図9は、Y座標と画像の幅の比率との関係を示すグラフである。図9の横軸はY座標を示し、縦軸は画像の幅の比率を示す。
具体的には、図1に示すように、取得部13は、第1取得部131、第2取得部132、第3取得部133、第4取得部134、第5取得部135、第6取得部136、第7取得部137、第8取得部138及び第9取得部139を備える。
第1取得部131は、被写体の高さ、定点撮像部11の画角及び定点撮像部11で撮像される画像幅を予め取得する。
画像内の位置情報(画像位置情報)を取得するために、まず、定点撮像部11の撮像範囲内で被写体110を移動させる。被写体110(図5参照)は、例えば、人などである。被写体110が人の場合、例えば、不図示の入力装置を用いて、人の身長(被写体の高さ)が入力される。第1取得部131は、入力された人の身長を取得する。
また、第1取得部131は、定点撮像部11が撮影する画角θ2を取得する。画角θ2は、例えば、不図示の入力装置を用いて入力される。第1取得部131は、入力された画角θ2を取得する。画角θ2は、定点撮像部11の撮像素子(図示せず)の平面サイズ、及び、定点撮像部11の撮像レンズ(図示せず)の焦点距離等によって定まる。
また、第1取得部131は、定点撮像部11で得られる画像の幅(一例として、ピクセル数)を取得する。画像の幅(画像幅)は、例えば、不図示の入力装置を用いて入力される。
第2取得部132は、第1取得部131で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する。
第2取得部132は、撮像範囲内で被写体(人)110を歩かせることにより、画像内の任意に位置において、定点撮像部11で撮像される画像内での1m当たりのピクセル数を取得する。すなわち、第2取得部132は、第1取得部131で取得された人の身長に基づいて画像100a内における1mの大きさ(長さ)を取得し、さらに取得した1mの大きさ当たりの画像のピクセル数を取得する。
図6に例示する場合、定点撮像部11に用いられる撮像素子(定点撮像部11で得られる画像)のサイズは、1280ピクセル×960ピクセルである。第2取得部132は、図6に例示する画像に被写体110(図6には図示せず)が記録される場合、被写体110の高さと、撮像素子(画像)のピクセル数とに基づいて、1mの大きさ当たりのピクセル数を取得する。
第3取得部133は、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部132で取得される被写体の1m当たりのピクセル数との関係を取得する。
図6に例示する場合、画像の縦方向が実空間の奥行方向に対応し、その画像の縦方向の座標がY座標になる。また、図6に例示する場合、画像の横方向が実空間の幅方向に対応し、その画像の横方向の座標がX座標になる。そして、図6の左上のピクセルを原点の座標(0,0)とすると、右上のピクセルの座標が(1280,0)になる。図6の中心位置のピクセルの座標が(640,480)になる。図6の左下のピクセルの座標が(0,960)になり、右下のピクセルの座標が(1280,960)になる。
定点撮像部11は、上から下を見下ろすように撮像するため、図6に示す画面の上部側が定点撮像部11から離れた位置になり、画面の下部側が定点撮像部11に近い位置になる。したがって、図6に示す原点のY座標は、定点撮像部11から最も離れた位置となる。
定点撮像部11の撮像範囲内(座標(0,0)、座標(1280,0)、座標(1280,960)及び座標(0,960)で囲まれる範囲内)を、例えば、被写体(人)を縦横に歩かせることにより、第3取得部133は、複数のY座標の位置において1m当たりのピクセル数を取得する。
図7に一例を示すように、第3取得部133によって取得されるY座標と1m当たりのピクセル数との関係は線形になる。ここで、図5に示すように、Y座標の数値は、定点撮像部11に近づくに従って大きくなる。すなわち、Y座標が大きくなるに従って(被写体が定点撮像部11に近づくに従って)、1m当たりのピクセル数は多くなる。換言すると、Y座標が小さくなるに従って(被写体が定点撮像部11から遠ざかるに従って)、1m当たりのピクセル数は少なくなる。
第4取得部134は、第1取得部131によって取得された画像の幅と、第2取得部132で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅wを取得する。
図5に例示するように、被写体110がいるY座標の位置(Y座標の方向の所定位置)における画像100aを考える。第4取得部134は、定点撮像部11で撮像される画像の幅方向のピクセル数(図6に例示する場合では1280ピクセル)は第1取得部131によって取得されるため、1m当たりのピクセル数に基づいて、そのY座標の所定位置における画像100aの幅wの実際の長さを取得する。
第5取得部135は、第4取得部134で取得された実際の画像の幅wと、第1取得部131で取得された画角θ2とに基づいて、定点撮像部11から画像100a内の中心位置Pcまでの距離である第1距離を取得すると共に、地面から中心位置Pcまでの距離である第2距離を取得する。
第5取得部135は、上述したY座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角θ2に基づいて、定点撮像部11から画像100aの中心位置Pcまでの実際の距離(第1距離L1)を取得する。また、第5取得部135は、画像のピクセル数、1m当たりのピクセル数、Y座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角に基づいて、画像100aの中心位置Pcから地面までの実際の距離(第2距離L2)を取得する。
第6取得部136は、第5取得部135で取得された第1距離L1及び第2距離L2に基づいて、定点撮像部11の撮像方向における中心線と地面とのなす角θを求める。すなわち、第6取得部136は、三角関数を利用することにより、第5取得部135で取得された第1距離L1及び第2距離L2に基づいて、地面と定点撮像部11とのなす角θを求める。
第7取得部137は、第5取得部135で取得された第1距離L1及び第2距離L2と、第6取得部136で取得されたなす角θとに基づいて、地面から定点撮像部11までの高さHを取得する。すなわち、第7取得部137は、三角関数を利用することにより、第1距離L1、第2距離L2及びなす角θに基づいて、地面から定点撮像部11までの高さHを取得する。
第8取得部138は、第7取得部137で取得された地面から定点撮像部11までの高さHと、第6取得部136で取得されたなす角θとに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する。
すなわち、第8取得部138は、地面から定点撮像部11までの高さHと、定点撮像部11と地面とのなす角θとに基づいて、定点撮像部11が配される地面位置P0からY座標の所定位置(画像100a)までの距離L3を取得する。第8取得部138は、その距離L3と、画像内の所定位置におけるY座標とを対応付けることにより、画像内の位置に関する情報(画像位置情報)を取得する。また、第8取得部138は、被写体110を定点撮像部11の撮像範囲内を移動させて、撮像範囲内の任意の位置における定点撮像部11が配される地面位置P0から被写体(人)110までの距離を取得することに基づいて、画像位置情報を取得する。第8取得部138は、画像位置情報を記憶部19に記憶する。
画像位置情報は、定点撮像部11で撮像される画像内の任意のピクセルの位置(座標)が、定点撮像部11から何mの距離であるかを示す情報である。画像位置情報は、具体的な一例として、図6に示すピクセルの座標(640,480)は定点撮像部11から10mの距離がある、ピクセルの座標(640,720)は定点撮像部11から15mの距離がある、ピクセルの座標(640,840)は定点撮像部11から20mの距離があるという情報である。
図8に示すように、画像位置情報は、Y座標が大きくなるに従って、定点撮像部11が配される地面位置P0からの距離が近くなることを示す情報である。換言すると、画像位置情報は、Y座標が小さくなるに従って、定点撮像部11が配される地面位置P0からの距離が遠くなることを示す情報である。
ここで、第9取得部139は、第4取得部134で取得された複数の画像それぞれの実際の幅wのうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する。
すなわち、第4取得部134では、実際の画像の幅wを取得する。被写体110がいない位置(人が歩いていない位置に対応するY座標)においては、第4取得部134は、実際の画像の幅wを取得することができない。このため、第9取得部139は、第4取得部134でY座標の複数の位置で画像の幅wを取得した場合、その複数の位置での画像の幅wに基づいて、Y座標の任意の位置における画像の幅を算出する。例えば、第9取得部139は、第4取得部134で取得された複数の画像の幅のうち1つをY座標の基準位置の画像の幅(基準幅)と設定し、複数の画像の幅のうち基準幅を除く他の画像の幅と、基準幅との比率(幅比率)を求める。第9取得部139は、第4取得部134で取得された複数の画像それぞれに基づいて、基準幅との比率(幅比率)を求める。この幅比率をグラフに示すと、図9のようになる。
次に、一実施形態に係る撮像方法について説明する。
まず、画像データの取得方法について説明する。
図10は、一実施形態に係る撮像方法について説明するための第1のフローチャートである。
ステップST11において、定点撮像部11は、被写体を撮像して画像データを生成する。画像データで得られる画像は、例えば、動画又は静止画である。
ステップST12において、定点撮像部11(時刻情報付加部18)は、ステップST11で生成された画像に時刻情報を付す。時刻情報は、例えば、定点撮像部11で被写体を撮像する場合の撮像時刻、又は、記憶部19に画像データを記憶する場合の記憶時刻等である。撮像時刻と記憶時刻とは、ほぼ同じ時刻となる。
ステップST13において、認識部12は、ステップST11で生成された画像データに基づく画像から被写体を認識する。認識部12は、例えば、予め学習された結果に基づいて被写体を認識し、又は、パターンマッチングを用いて被写体を認識する。
ステップST14において、取得部13は、ステップST13で認識された被写体の位置情報を取得する。認識部12は、画像内の被写体の位置と、定点撮像部11からその位置までの距離とが予め対応付けているため、ステップST11で生成された画像内の被写体の位置に基づいて、被写体の位置に関する情報(位置情報)を取得する。
ステップST15において、取得部13(時刻情報付加部18)は、ステップST14で取得された位置情報に、時刻情報を対応付ける。その時刻情報は、位置情報を取得した画像(画像データ)に付した時刻情報と同じ時刻となる。
ステップST16において、予測部14は、ステップST14で取得される位置情報等に基づいて、画像に写る被写体の移動先を予測する。
ステップST17において、選択部15は、ステップST16で予測された被写体の移動先を撮像することができる、最も近い定点撮像部11を選択する。
ステップST18において、定点撮像部11は、画像データの生成を終了するかを判断する。画像データの生成を終了しない場合(No)、処理はステップST11に戻り、ステップST17で選択された定点撮像部11が被写体を撮像して画像データを生成する。画像データの生成を終了する場合(Yes)、処理は、終了する。
次に、画像の表示方法について説明する。
図11は、一実施形態に係る撮像方法について説明するための第2のフローチャートである。
ステップST21において、対応付け部16は、画像データと位置情報とを取得する。例えば、対応付け部16は、ステップST12で時刻情報が付加された画像データと、ステップST15で時刻情報が対応付けられた被写体の位置情報とを取得する。なお、対応付け部16は、記憶部19に記憶される時刻情報が付加された画像データと、記憶部19に記憶される時刻情報が対応付けられた被写体の位置情報とを取得することとしてもよい。
ステップST22において、対応付け部16は、時刻情報に基づいて、画像データと被写体の位置情報とを対応付ける。この場合、対応付け部16は、画像データを取得した定点撮像部11毎に異なる特徴を付してもよい。すなわち、対応付け部16は、定点撮像部11毎に、画像データと位置情報とに特徴を付す。
ステップST23において、表示部17は、ステップST21で取得された画像データに基づく画像と、同じステップST21で取得された位置情報に基づく被写体の軌跡とを表示する。この場合、表示部17は、ステップST22で付された特徴と共に、画像と被写体の軌跡とを表示する。
本実施形態によれば、次の効果を奏する。
撮像装置1は、複数の定点撮像部11と、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識部12と、認識部12で認識した被写体の位置に関する位置情報を取得する取得部13と、取得部13で取得された位置情報に基づいて被写体の移動先を予測する予測部14と、予測部14で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択部15と、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得部13で取得される位置情報とを対応付ける対応付け部16と、対応付け部16で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する表示部17と、を備える。
撮像装置1は、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像装置1は、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適な装置である。
また、撮像装置1は、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
撮像装置1では、対応付け部16は、複数の定点撮像部11それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部11毎に異なる特徴を示す特徴情報を付し、表示部17は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部11毎に異なる特徴画像を付して表示することとしてもよい。
これにより、撮像装置1は、複数の定点撮像部11うちいずれの定点撮像部11で撮像された画像なのか、及び、どの定点撮像部11で撮像されたときの被写体の位置情報(軌跡)なのかを示すことができる。
撮像装置1は、定点撮像部11で生成された画像データに基づく画像と、取得部13で取得された位置情報とに対して同期する時刻情報を付す時刻情報付加部18と、画像データ及び位置情報を記憶する記憶部19と、を備えることとしてもよい。この場合、表示部17は、記憶部19から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部18で付加された時刻情報に基づいて同期するように表示することとしてもよい。
これにより、撮像装置1は、時刻情報に基づいて、画像と、その画像に写る被写体の位置(軌跡)とを同期させることができる。
撮像装置1では、取得部13は、定点撮像部11で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、認識部12で新たな被写体が認識されと、位置情報を取得することとしてもよい。
これにより、撮像装置1は、被写体の位置情報を取得することができる。
撮像装置1では、取得部13は、定点撮像部11で撮像される画像内の位置と、その位置における定点撮像部11からの距離とを対応付けた結果と、定点撮像部11からの距離と、実空間上の位置とを対応付けた結果と、に基づいて、認識部12で新たな被写体が認識されると、位置情報を取得することとしてもよい。
これにより、撮像装置1は、定点撮像部11からの被写体までの距離を取得することに基づいて、被写体の位置情報を取得することができる。
撮像装置1では、取得部13は、被写体の高さと、定点撮像部11の画角と、定点撮像部11で撮像される実際の画像幅とを予め取得する第1取得部131と、被写体が移動する場合、第1取得部131で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部132と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部132で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部133と、第1取得部131によって取得された画像の幅と、第2取得部132で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部134と、第4取得部134で取得された実際の画像の幅と、第1取得部131で取得された画角とに基づいて、定点撮像部11から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部135と、第5取得部135で取得された第1距離及び第2距離に基づいて、地面と定点撮像部11の撮像方向における中心線とのなす角を求める第6取得部136と、第5取得部135で取得された第1距離及び第2距離と、第6取得部136で取得されたなす角とに基づいて、地面から定点撮像部11までの高さを取得する第7取得部137と、第7取得部137で取得された地面から定点撮像部11までの高さと、第6取得部136で取得されたなす角とに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて、定点撮像部11からの距離を取得する第8取得部138と、を備えることとしてもよい。
これにより、撮像装置1は、第1~8取得部131~138それぞれが処理を行うことにより、被写体の高さと定点撮像部11の画角とに基づいて、定点撮像部11からの距離を取得することができる。
撮像装置1では、取得部13は、第4取得部134で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部139を備えることとしてもよい。
撮像装置1は、第9取得部139が幅比率を取得することにより、被写体(一例として、人)が歩いていないY座標であっても、画像の幅を取得することができる、これにより、撮像装置1は、任意のY座標において定点撮像部11からの距離を取得することができる。
撮像方法では、コンピュータが、複数の定点撮像部11により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識ステップと、認識ステップで認識した被写体の位置に関する位置情報を取得する取得ステップと、取得ステップで取得された位置情報に基づいて被写体の移動先を予測する予測ステップと、予測ステップで予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択ステップと、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得ステップで取得される位置情報とを対応付ける対応付けステップと、対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部17に表示する表示ステップと、を実行する。
撮像方法は、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像方法は、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適な方法である。
また、撮像方法は、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
撮像プログラムは、コンピュータに、複数の定点撮像部11により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識機能と、認識機能で認識した被写体の位置に関する位置情報を取得する取得機能と、取得機能で取得された位置情報に基づいて被写体の移動先を予測する予測機能と、予測機能で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択機能と、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得機能で取得される位置情報とを対応付ける対応付け機能と、対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部17に表示する表示機能と、を実現させる。
撮像プログラムは、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像プログラムは、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適なプログラムである。
また、撮像プログラムは、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
1 撮像装置
11 定点撮像部
12 認識部
13 取得部
131 第1取得部
132 第2取得部
133 第3取得部
134 第4取得部
135 第5取得部
136 第7取得部
138 第8取得部
139 第9取得部
14 予測部
15 選択部
16 対応付け部
17 表示部
18 時刻情報付加部
19 記憶部

Claims (7)

  1. 時間的に連続して被写体を撮像して画像データを生成する複数の定点撮像部と、
    前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識部と、
    前記認識部で認識した前記被写体の位置に関する位置情報を取得する取得部と、
    前記取得部で取得された前記位置情報に基づいて前記被写体の移動先を予測する予測部と、
    前記予測部で予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択部と、
    前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得部で取得される前記位置情報とを対応付ける対応付け部と、
    前記対応付け部で対応付けた画像と前記位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示する表示部と、を備え、
    前記取得部は、
    前記定点撮像部で撮像される画像内の位置と、その位置における前記定点撮像部からの距離とを対応付けた結果と、
    前記定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、
    に基づいて、前記認識部で新たな被写体が認識されると、位置情報を取得する
    撮像装置。
  2. 前記対応付け部は、前記複数の定点撮像部それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した前記定点撮像部毎に異なる特徴を示す特徴情報を付し、
    前記表示部は、画像及び軌跡を表示する場合、前記対応情報に基づいた画像と前記位置情報に基づく軌跡とに、前記特徴情報に基づいて前記定点撮像部毎に異なる特徴画像を付して表示する
    請求項1に記載の撮像装置。
  3. 前記定点撮像部で生成された画像データに基づく画像と、前記取得部で取得された前記位置情報とに対して同期する時刻情報を付す時刻情報付加部と、
    画像データ及び前記位置情報を記憶する記憶部と、を備え、
    前記表示部は、前記記憶部から読み出された画像データに基づく画像及び前記位置情報に基づく軌跡を、前記時刻情報付加部で付加された前記時刻情報に基づいて同期するように表示する
    請求項1又は2に記載の撮像装置。
  4. 前記取得部は、
    被写体の高さと、前記定点撮像部の画角と、前記定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、
    被写体が移動する場合、前記第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、
    画像データに基づく画像の奥行方向の座標となるY座標と、前記第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、
    前記第1取得部で取得される画像の幅と、前記第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、
    前記第4取得部で取得された実際の画像の幅と、前記第1取得部で取得された画角とに基づいて、前記定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から前記中心位置までの距離である第2距離を取得する第5取得部と、
    前記第5取得部で取得された前記第1距離及び前記第2距離に基づいて、地面と前記定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、
    前記第5取得部で取得された前記第1距離及び前記第2距離と、前記第6取得部で取得された前記なす角とに基づいて、地面から前記定点撮像部までの高さを取得する第7取得部と、
    前記第7取得部で取得された地面から前記定点撮像部までの高さと、前記第6取得部で取得された前記なす角とに基づいて、前記定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて、前記定点撮像部からの距離を取得する第8取得部と、
    を備える請求項1~3のいずれか1項に記載の撮像装置。
  5. 前記取得部は、前記第4取得部で取得された実際の画像の幅のうち、前記Y座標の方向における基準位置の幅と、前記Y座標の方向の所定位置における幅とに基づいて、前記Y座標に対する幅比率を取得する第9取得部を備える
    請求項4に記載の撮像装置。
  6. コンピュータが、
    複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、
    前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識ステップと、
    前記認識ステップで認識した前記被写体の位置に関する位置情報を取得する取得ステップと、
    前記取得ステップで取得された位置情報に基づいて前記被写体の移動先を予測する予測ステップと、
    前記予測ステップで予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択ステップと、
    前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得ステップで取得される位置情報とを対応付ける対応付けステップと、
    前記対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示部に表示する表示ステップと、を実行し、
    前記取得ステップは、
    前記定点撮像部で撮像される画像内の位置と、その位置における前記定点撮像部からの距離とを対応付けた結果と、
    前記定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、
    に基づいて、前記認識ステップで新たな被写体が認識されると、位置情報を取得する
    撮像方法。
  7. コンピュータに、
    複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、
    前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識機能と、
    前記認識機能で認識した前記被写体の位置に関する位置情報を取得する取得機能と、
    前記取得機能で取得された位置情報に基づいて前記被写体の移動先を予測する予測機能と、
    前記予測機能で予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択機能と、
    前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得機能で取得される位置情報とを対応付ける対応付け機能と、
    前記対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示部に表示する表示機能と、を実現させ、
    前記取得機能は、
    前記定点撮像部で撮像される画像内の位置と、その位置における前記定点撮像部からの距離とを対応付けた結果と、
    前記定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、
    に基づいて、前記認識機能で新たな被写体が認識されると、位置情報を取得する
    撮像プログラム。
JP2019023059A 2019-02-12 2019-02-12 撮像装置、撮像方法及び撮像プログラム Active JP7274298B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019023059A JP7274298B2 (ja) 2019-02-12 2019-02-12 撮像装置、撮像方法及び撮像プログラム
JP2023075531A JP2023100805A (ja) 2019-02-12 2023-05-01 撮像装置、撮像方法及び撮像プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023059A JP7274298B2 (ja) 2019-02-12 2019-02-12 撮像装置、撮像方法及び撮像プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023075531A Division JP2023100805A (ja) 2019-02-12 2023-05-01 撮像装置、撮像方法及び撮像プログラム

Publications (2)

Publication Number Publication Date
JP2020136703A JP2020136703A (ja) 2020-08-31
JP7274298B2 true JP7274298B2 (ja) 2023-05-16

Family

ID=72263691

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019023059A Active JP7274298B2 (ja) 2019-02-12 2019-02-12 撮像装置、撮像方法及び撮像プログラム
JP2023075531A Pending JP2023100805A (ja) 2019-02-12 2023-05-01 撮像装置、撮像方法及び撮像プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023075531A Pending JP2023100805A (ja) 2019-02-12 2023-05-01 撮像装置、撮像方法及び撮像プログラム

Country Status (1)

Country Link
JP (2) JP7274298B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128736A (ko) 2020-04-17 2021-10-27 삼성전자주식회사 멀티 카메라를 포함하는 전자 장치 및 촬영 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012415A (ja) 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
WO2015115179A1 (ja) 2014-01-31 2015-08-06 株式会社日立製作所 画像検索システム、画像検索装置及び画像検索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012415A (ja) 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
WO2015115179A1 (ja) 2014-01-31 2015-08-06 株式会社日立製作所 画像検索システム、画像検索装置及び画像検索方法

Also Published As

Publication number Publication date
JP2020136703A (ja) 2020-08-31
JP2023100805A (ja) 2023-07-19

Similar Documents

Publication Publication Date Title
JP7480823B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN110674746B (zh) 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质
CN104106260B (zh) 基于地理图的控制
KR101695249B1 (ko) 감시 영상 표시 방법 및 시스템
US20090237508A1 (en) Method and apparatus for providing immersive surveillance
JP2010504711A (ja) 地理空間モデルにおいて移動しているオブジェクトを追跡する映像監視システム及びその方法
JP2023027216A5 (ja) 情報処理装置、表示方法、プログラム、システム
KR101045323B1 (ko) 다시점 카메라 시스템을 이용한 실시간 항만 영상관제 시스템 및 그 방법
JP2011254289A (ja) 移動体軌跡表示装置および移動体軌跡表示プログラム
JP2023100805A (ja) 撮像装置、撮像方法及び撮像プログラム
JP2017147689A (ja) 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム
KR101700651B1 (ko) 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치
JP7107596B2 (ja) 駅監視システム及び駅監視方法
JPH11339139A (ja) 監視装置
CN117014716A (zh) 一种目标追踪方法及电子设备
KR102030736B1 (ko) 다중 분산 영상 데이터 분석 장치
EP4087236A1 (en) Video surveillance system with vantage point transformation
KR101036107B1 (ko) 고유식별 정보를 이용한 증강 현실 구현시스템
KR102152319B1 (ko) 3d 공간상에서 객체의 위치와 크기를 계산하는 방법 및 이를 이용한 영상관제시스템
KR20170012717A (ko) 영상정보를 기반으로 공간상의 위치정보를 생성하는 방법 및 그 장치
JPWO2020039898A1 (ja) 駅監視装置、駅監視方法及びプログラム
KR102081517B1 (ko) 목표타겟의 연계추적을 위한 지능형 통합관제시스템과 지능형 통합관제방법
WO2023131327A1 (zh) 视频合成方法、装置及***
EP3633970A1 (en) Method for determining imaging location information and device for performing same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7274298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150