JP6261815B1 - 群集監視装置、および、群集監視システム - Google Patents

群集監視装置、および、群集監視システム Download PDF

Info

Publication number
JP6261815B1
JP6261815B1 JP2017516179A JP2017516179A JP6261815B1 JP 6261815 B1 JP6261815 B1 JP 6261815B1 JP 2017516179 A JP2017516179 A JP 2017516179A JP 2017516179 A JP2017516179 A JP 2017516179A JP 6261815 B1 JP6261815 B1 JP 6261815B1
Authority
JP
Japan
Prior art keywords
unit
crowd
state
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017516179A
Other languages
English (en)
Other versions
JPWO2018011944A1 (ja
Inventor
守屋 芳美
芳美 守屋
亮史 服部
亮史 服部
一之 宮澤
一之 宮澤
関口 俊一
俊一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6261815B1 publication Critical patent/JP6261815B1/ja
Publication of JPWO2018011944A1 publication Critical patent/JPWO2018011944A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

センサ(401,402,・・・,40p)で検出されたオブジェクト群を示す、実空間を基準とした空間的特徴量の情報が付与されたセンサデータに基づき、当該センサデータが示すオブジェクト群の状態特徴量を示す状態パラメータを導出するパラメータ導出部(13)と、パラメータ導出部(13)が導出した状態パラメータに基づき、オブジェクト群の状態を予測した予測データを作成する群衆状態予測部(14)とを備えた。

Description

この発明は、群集の流れを予測する群集監視装置、および、群集監視システムに関するものである。
従来から、混雑度、あるいは、人の流れ等を推定する技術が知られている。
例えば、特許文献1には、駅のホーム、あるいは、コンコース等において、固定的な空間情報だけでなく、鉄道のダイヤ情報、駅の入出場履歴情報等のセンサ間の動的な因果関係を考慮し、混雑度、あるいは、人の流れ等を推定する技術が開示されている。
特開2013−116676号公報
しかしながら、特許文献1に開示されているような技術では、例えば、混雑度と駅の入出場履歴情報等の間の因果関係を構造化した人の流れの履歴を事前にデータベース化しておく必要があり、屋外、あるいは、屋内のイベント会場等、人の流れの履歴を事前にデータベース化しておくことが困難な環境では、人の流れを推定することが困難な場合があるという課題があった。
この発明は上記のような課題を解決するためになされたもので、混雑度、あるいは、群集の流れが予め把握できない環境において、混雑度、あるいは、群集の流れを推定することを可能とする群集監視装置、および、群集監視システムを提供することを目的とする。
この発明に係る群集監視装置は、センサにて取得されたデータと、センサで検出されたデータに現れるオブジェクト群を示す、実空間を基準とした空間的特徴量の情報を表す空間的な記述子とを互いに関連付け、かつ、多重化されたセンサデータに基づき、当該センサデータが示すオブジェクト群の状態特徴量を示す状態パラメータを導出するパラメータ導出部と、パラメータ導出部が導出した状態パラメータに基づき、ンサが設置されていないエリアのブジェクト群の状態を予測した空間予測データを作成する空間群集状態予測部とを備えたものである。
この発明によれば、パラメータ導出部が、センサにて取得されたデータと、センサで検出されたデータに現れるオブジェクト群を示す、実空間を基準とした空間的特徴量の情報を表す空間的な記述子とを互いに関連付け、かつ、多重化されたセンサデータに基づき、オブジェクト群の状態特徴量を示す状態パラメータを導出しているので、空間的な記述子を検索対象として利用することにより、複数の撮像画像に現れる、空間的に近い関係にある複数のオブジェクト間の対応付けを高い確度で且つ低処理負荷で行うことが可能となり、混雑度や群集の流れが予め把握できない環境において、混雑度や群集の流れを推定することができる。
この発明の実施の形態1に係る群集監視装置を備えた警備支援システムの構成図である。 実施の形態1の警備支援システムを構成するセンサの構成図である。 実施の形態1において、画像解析部の詳細な構成を説明する図である。 この発明の実施の形態1に係る群集監視装置の構成図である。 実施の形態1において、センサの動作を説明するフローチャートである。 図5のステップST502における第1画像解析処理の動作の一例を説明するフローチャートである。 実施の形態1において、スケール推定部が、入力画像上のオブジェクトのスケール推定を行った結果のイメージの一例を示す図である。 図5のステップST503における第2画像解析処理の動作の一例を説明するフローチャートである。 実施の形態1において、パターン解析部が、図7に例示した入力画像上のコードパターンの解析を行った結果のイメージの一例を示す図である。 実施の形態1において、空間的なコードパターンPNxを表示する表示機器の一例を示す図である。 実施の形態1において、パターン解析部がオブジェクトの測位情報を推定した結果のイメージの一例を示す図である。 実施の形態1において、空間的な記述子のフォーマットの例を示す図である。 実施の形態1において、空間的な記述子のフォーマットの例を示す図である。 実施の形態1において、GNSS情報の記述子、すなわち、地理的な記述子のフォーマットの例を示す図である。 実施の形態1において、GNSS情報の記述子、すなわち、地理的な記述子のフォーマットの例を示す図である。 この発明の実施の形態1に係る群集監視装置の動作を説明するフローチャートである。 実施の形態1において、群衆パラメータ導出部が、群衆の領域を特定する動作の一例を説明するための図である。 実施の形態1において、群衆状態予測部の時間群衆状態予測部が、未来の群衆状態を予測し、「時間予測データ」を作成する方法の一例を説明する図である。 図19A,図19Bは、状態提示部が生成した視覚的データを、外部機器の表示装置に表示させたイメージの一例を説明する図である。 図20A,図20Bは、状態提示部が生成した視覚的データを、外部機器の表示装置に表示させたイメージの他の一例を説明する図である。 実施の形態1において、状態提示部が生成した視覚的データを、外部機器の表示装置に表示させたイメージの、さらに他の一例を説明する図である。 図22A,図22Bは、この発明の実施の形態1に係る群集監視装置のハードウェア構成の一例を示す図である。 図23A,図23Bは、この発明の実施の形態1の画像処理装置のハードウェア構成の一例を示す図である。 この発明の実施の形態2に係る群集監視装置の構成図である。 実施の形態3において、時間群衆状態予測部が、「群衆行動の種類」は「対向流」として検知した群衆の移動方向を2方向とする一例を説明する図である。 実施の形態3において、通過人数を算出する領域の一例を説明する図である。 実施の形態3において、撮像画像内における流量算出領域と、流量算出領域内の所定ラインのイメージの一例を示す図である。 実施の形態3において、所定ラインを「IN」方向に移動したフローを持つものとしてカウントされた画素数と群衆の密度との関係の一例を説明する図である。 図29A,図29Bは、実施の形態3において、撮像画像内で得られる画素数と群衆の密度との関係の一例を説明するための図である。 実施の形態3において、カウントされた画素数を一人あたりの画素数で割った値と「IN」方向の流量の関係の一例を示す図である。 実施の形態3において、映像フレーム1枚につき実行される群集流量算出処理の処理フローである。 実施の形態3において、群集の位置関係のモデルとして、人物が格子状に並んでいる状態の一例を示す図である。 実施の形態3において、格子状モデルのカメラ光軸方向に対する傾きによって、前景領域の見え方、面積が変動する例を説明するための図である。 実施の形態3において、格子状モデルのカメラ光軸方向に対する傾きによって、前景領域の見え方、面積が変動する例を説明するための図である。 実施の形態3において、計測対象領域の路面を平面で近似するためのパラメータをユーザが手動で指定する例を説明するための図である。 実施の形態3において、カメラ映像奥側の人物領域が、手前の人物に隠蔽される人物領域を説明するための図である。 画像処理装置が、記述子の情報を蓄積しておくことを可能とした構成の一例を説明する図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る群集監視装置10を備えた警備支援システム1の構成図である。
ここでは、一例として、この発明の実施の形態1に係る群集監視装置10が適用される群集監視システムとして、警備支援システム1を例に以下説明する。
この実施の形態1における警備支援システム1は、例えば、施設構内、イベント会場または市街地などの場所に存在する群衆、および当該場所に配置された警備担当者が利用の対象として運用され得る。
施設構内、イベント会場および市街地などの、群れをなす多数の人々、すなわち、警備担当者を含む群衆が集まる場所では、しばしば混雑が発生する場合がある。混雑は、その場所の群衆の快適性を損ない、また過密な混雑は群衆を巻き込む事故の原因となるので、適切な警備による混雑の回避は極めて重要である。また、怪我人、体調不良者、交通弱者、および危険行動をとる人物または集団を速やかに発見し、適切な警備を行うことは群衆の保安において重要である。
この実施の形態1における警備支援システムでは、例えば、群集監視装置10が、センサ401,402,・・・,40pとしての撮像装置から取得した画像データに基づいて推定した状態に基づき、群衆の状態を示す情報と、適切な警備計画とを、警備支援に有用な情報としてユーザに提示するものとする。
なお、この実施の形態1では、ユーザとは、例えば、群衆、または、対象エリアを監視する警備員を想定している。なお、この実施の形態1では、対象エリアとは、群衆を監視する対象とする範囲のことをいうものとする。
図1に示すように、警備支援システム1は、群集監視装置10と、センサ401,402,・・・,40pと、サーバ装置501,502,・・・,50nと、外部機器70とを備える。
センサ401,402,・・・,40pと、群集監視装置10とは、通信ネットワークNW1を介して接続される。
図1においては、センサ401,402,・・・,40pは3台以上としているが、これは一例にすぎず、1台または2台のセンサが、通信ネットワークNW1を介して群集監視装置10に接続されるものであってもよい。
また、サーバ装置501,502,・・・,50nと、群集監視装置10とは、通信ネットワークNW2を介して接続される。
図1においては、サーバ装置501,502,・・・,50nは3台以上としているが、これは一例にすぎず、1台または2台のサーバ装置が、通信ネットワークNW2を介して群集監視装置10に接続されるものであってもよい。
通信ネットワークNW1,NW2としては、例えば、有線LANもしくは無線LANなどの構内通信網、拠点間を結ぶ専用回線網、またはインターネットなどの広域通信網があげられる。なお、この実施の形態1において、通信ネットワークNW1,NW2は互いに異なるように構成されているが、これに限定されるものではない。通信ネットワークNW1,NW2が単一の通信ネットワークを構成していてもよい。
センサ401,402,・・・,40pは、単数または複数の対象エリア内に分散配置され、センサ401,402,・・・,40pの各々は、対象エリアの状態を電気的または光学的に検出して検出信号を生成し、当該検出信号に信号処理を施すことでセンサデータを生成する。このセンサデータは、検出信号で示される検出内容が抽象化またはコンパクト化された内容を示す処理済みデータを含む。
センサ401,402,・・・,40pは、生成したセンサデータを、通信ネットワークNW1を介して群集監視装置10に送信する。
この実施の形態1では、センサ401,402,・・・,40pは、一例として、カメラ等の撮像装置であるものとするが、これに限らず、センサ401,402,・・・,40pとしては、様々な種類のセンサを使用することができる。
センサ401,402,・・・,40pの種類は、固定位置に設置される固定センサ、および移動体に搭載される移動センサの2種類に大別される。固定センサとしては、例えば、光学カメラ、レーザ測距センサ、超音波測距センサ、集音マイク、サーモカメラ、暗視カメラおよびステレオカメラを用いることが可能である。一方、移動センサとしては、固定センサと同種のセンサの他に、例えば、測位計、加速度センサ、バイタルセンサを用いることが可能である。移動センサは、主に、検出対象である群衆、すなわち、センシング対象であるオブジェクト群と共に移動しながらセンシングを行うことで、当該オブジェクト群の動きおよび状態を直接センシングする用途で使用され得る。また、人間がオブジェクト群の状態を観察しその観察結果を表す主観的なデータ入力を受け付けるデバイスを、センサの一部として利用してもよい。この種のデバイスは、例えば、当該人間が保有するスマートフォンまたはウェアラブル機器などの移動通信端末を通じてその主観的なデータをセンサデータとして供給することができる。
なお、これらセンサ401,402,・・・,40pは、単一の種類のセンサのみで構成されていてもよいし、あるいは、複数種類のセンサで構成されていてもよい。
センサ401,402,・・・,40pの各々は、対象エリアの状態を電気的または光学的に検出できる位置、すなわち、ここでは、群衆を検出できる位置に設置され、警備支援システム1が動作している間、群衆を検出した結果を必要に応じて伝送することができる。固定センサは、例えば、街灯、電柱、天井または壁に設置される。移動センサは、警備員が携帯、あるいは、警備ロボットまたは巡回車両などの移動体に搭載される。また、群衆をなす各個人または警備員が保有するスマートフォンまたはウェアラブル機器などの移動通信端末に付属するセンサが、当該移動センサとして使用されてもよい。この場合は、警備対象となる群衆をなす各個人または警備員が保有する移動通信端末に、センサデータ収集用のアプリケーション、または、ソフトウェアが予めインストールされるように、センサデータ収集の枠組みを予め構築しておくことが望ましい。
サーバ装置501,502,・・・,50nは、SNS(Social Networking Service/Social Networking Site)情報、および、公共情報などの公開データを配信する。SNSは、Twitter(登録商標)またはFacebook(登録商標)などの、リアルタイム性が高く、かつ、利用者による投稿内容が一般に公開される交流サービスまたは交流サイトを指す。SNS情報は、その種の交流サービスまたは交流サイトで一般に公開された情報である。また、公共情報としては、例えば、自治体などの行政単位、公共交通機関または気象局によって提供される交通情報または気象情報、サービスプロバイダなどが提供するスマートフォン向けアプリケーション利用者の位置情報などが挙げられる。
群集監視装置10は、単数または複数の対象エリア内に分散配置されたセンサ401,402,・・・,40pから送信されるセンサデータに基づき、対象エリア内の群衆の状態を把握する、あるいは、予測する。
また、群集監視装置10は、通信ネットワークNW2上のサーバ装置501,502,・・・,50nから配信される公開データを取得する場合には、当該取得したセンサデータおよび公開データに基づき、対象エリア内の群衆の状態を把握する、あるいは、予測する。
また、群集監視装置10は、把握した、あるいは、予測した、対象エリア内の群衆の状態に基づき、ユーザに理解しやすい形態に加工された、群衆の過去、現在、あるいは、未来の状態を示す情報と、適切な警備計画とを演算により導出し、当該過去、現在、あるいは、未来の状態を示す情報と警備計画を、警備支援に有用な情報として、外部機器70に送信する。
外部機器70は、例えば、専用のモニタ機器、汎用のPC(Personal Computer)、タブレット端末もしくはスマートフォンなどの情報端末、または、不特定多数の人々が視聴できる大型ディスプレイおよびスピーカ等である。
外部機器70は、群集監視装置10から送信された、過去、現在、あるいは、未来の状態を示す情報と警備計画を含む警備支援に有用な情報を出力する。外部機器70が警備支援に有用な情報を出力する出力方法は、例えば、外部機器70がモニタ機器であれば、映像として画面に表示させるものであってもよいし、外部機器70がスピーカであれば、音声として出力させるものであってもよいし、情報端末であれば、バイブレータによって情報端末を振動させるものであってもよく、外部機器70の形態にあわせて適宜の出力方法を採用することができる。
警備員、あるいは、群衆は、外部機器70から出力される情報を確認することで、対象エリア内の群衆の現在、あるいは、未来の状態、警備計画等を把握することができる。
図2は、実施の形態1の警備支援システム1を構成するセンサ401の構成図である。
まず、この実施の形態1におけるセンサ401の構成について説明する。
なお、上述したように、この実施の形態1では、一例として、センサとは、カメラ等の撮像装置であるものとする。図2では、センサ401,402,・・・,40pのうち、センサ401の構成を図示しているが、この実施の形態1では、センサ402,・・・,40pについても、図2に示すセンサ401と同様の構成であるものとする。
この実施の形態1において、センサ401,402,・・・,40pは、対象エリアを撮像し、撮像画像を解析して当該撮像画像に現れるオブジェクトを検出し、当該検出されたオブジェクトの空間的、地理的および視覚的な特徴量を示す記述子データを生成し、画像データとともに群集監視装置10に送信する。
図2に示すように、センサ401は、画像処理装置20を搭載し、撮像部101と、データ伝送部102とを備える。
なお、ここでは、図2に示すように、画像処理装置20は、センサ401に搭載されているものとするが、これに限らず、画像処理装置20は、センサ401の外部に備えられ、センサ401の撮像部101、および、データ伝送部102と、ネットワークを介して接続されるものであってもよい。
撮像部101は、対象エリアを撮像し、撮像した撮像画像の画像データ(図2のVd)を画像処理装置20に出力する。なお、撮像部101が撮像し、出力する画像データは、静止画像データまたは動画像データを含む。
撮像部101は、対象エリアに存在する被写体の光学像を形成する撮像光学系と、その光学像を電気信号に変換する固体撮像素子と、その電気信号を静止画像データまたは動画像データとして圧縮符号化するエンコーダ回路とを有している。固体撮像素子としては、例えば、CCD(Charge−Coupled Device)またはCMOS(Complementary Metal−Oxide Semiconductor)素子を使用すればよい。
撮像部101は、固体撮像素子の出力を画像データとして圧縮符号化する場合には、例えば、MPEG−2 TS(Moving Picture Experts Group 2 Transport Stream)、RTP/RTSP(Real−time Transport Protocol/Real Time Streaming Protocol)、MMT(MPEG Media Transport)またはDASH(Dynamic Adaptive Streaming over HTTP)などのストリーミング方式に従い、圧縮符号化された動画像ストリームを生成することができる。なお、この実施の形態1で使用されるストリーミング方式は、MPEG−2 TS、RTP/RTSP、MMTおよびDASHに限定されるものではない。ただし、いずれのストリーミング方式でも、動画像ストリームに含まれる動画像データを画像処理装置20で一意に分離できる識別子情報が当該動画像ストリーム内に多重化されている必要がある。
画像処理装置20は、撮像部101から取得した画像データに対して画像解析を行い、解析結果を示す空間的または地理的な記述子(図2のDsr)を、画像データと関連付けてデータ伝送部102へ出力する。
画像処理装置20の詳細な構成については後述する。
データ伝送部102は、撮像部101が出力した画像データと、画像処理装置20が出力する記述子とを互いに関連付け、かつ、多重化して、通信ネットワークNW1経由で群集監視装置10に、センサデータとして送信する。
画像処理装置20の詳細な構成について説明する。
画像処理装置20は、図2に示すように、画像解析部21と、記述子生成部22とを備える。
画像解析部21は、撮像部101から画像データを取得し、画像解析を行う。画像解析部21は、解析結果を記述子生成部22に出力する。具体的には、画像処理装置20は入力インタフェース装置(図示省略)を備えており、入力インタフェース装置が、撮像部101から出力された画像データを受け付け、当該受け付けた画像データを画像解析部21に出力する。すなわち、画像解析部21は、入力インタフェース装置を介して、撮像部101から出力された画像データを取得する。
記述子生成部22は、画像解析部21が出力した解析結果に基づき、当該解析結果を示す空間的または地理的な記述子を生成する。また、記述子生成部22は、空間的な記述子または地理的な記述子の他に、例えば、オブジェクトの色、テクスチャ、形状、動きおよび顔などの特徴量を示す視覚的な記述子等、MPEG規格による既知の記述子を生成する機能を有している。この既知の記述子は、例えば、MPEG−7に規定されているので、詳細な説明を省略する。
記述子生成部22は、生成した記述子の情報を、データ伝送部102に出力する。具体的には、画像処理装置20は出力インタフェース装置(図示省略)を備えており、出力インタフェース装置が、記述子生成部22が生成した記述子の情報をデータ伝送部102に出力する。すなわち、記述子生成部22は、出力インタフェース装置を介して、記述子の情報をデータ伝送部102に出力する。
図3は、実施の形態1において、画像解析部21の詳細な構成を説明する図である。
図3に示すように、画像解析部21は、画像認識部211と、パターン記憶部212と、復号部213とを備える。
画像認識部211は、オブジェクト検出部2101と、スケール推定部2102と、パターン検出部2103と、パターン解析部2104とからなる。
復号部213は、撮像部101が出力した画像データを取得し、撮像部101で使用された圧縮符号化方式に従い、圧縮された画像データを復号する。復号部213は、復号後の画像データを復号データとして画像認識部211に出力する。
パターン記憶部212は、例えば、歩行者などの人体、信号機、標識、自動車、自転車および建造物などの多種多様なオブジェクトの平面形状、立体的形状、大きさおよび色などの特徴を示すパターンを記憶する。パターン記憶部212が記憶するパターンは、予め決められている。
画像認識部211のオブジェクト検出部2101は、復号部213から取得した復号データで示される単数または複数の入力画像を解析して当該入力画像に現れるオブジェクトを検出する。具体的には、オブジェクト検出部2101は、復号データで示される入力画像と、パターン記憶部212に記憶されているパターンとを比較することで、入力画像に現れるオブジェクトを検出する。
オブジェクト検出部2101は、検出したオブジェクトの情報を、スケール推定部2102、パターン検出部2103に出力する。
画像認識部211のスケール推定部2102は、オブジェクト検出部2101で検出されたオブジェクトの、実際の撮像環境である実空間を基準とした空間的特徴量を、スケール情報として推定する。オブジェクトの空間的特徴量としては、当該実空間におけるオブジェクトの物理寸法を示す量を推定することが好ましい。以下、実空間におけるオブジェクトの物理寸法を示す量を、単に「物理量」ともいうものとする。オブジェクトの物理量とは、例えば、オブジェクトの高さもしくは横幅、または、オブジェクトの高さもしくは横幅の平均値である。
具体的には、スケール推定部2102は、パターン記憶部212を参照して、オブジェクト検出部2101で検出されたオブジェクトの物理量を取得する。例えば、オブジェクトが、信号機および標識などである場合、信号機および標識などの形状および寸法は既知であるので、例えばユーザである警備員は、事前に信号機および標識などの形状および寸法の数値をパターン記憶部212に記憶しておくようにする。また、例えば、オブジェクトが、自動車、自転車および歩行者などである場合、自動車、自転車および歩行者などの形状および寸法の数値のバラツキは一定範囲内に収まるので、例えばユーザである警備員は、事前に自動車、自転車および歩行者などの形状および寸法の平均値をパターン記憶部212に記憶しておくようにする。
また、スケール推定部2102は、例えば、オブジェクトの向いている方向等、オブジェクトの姿勢を空間的特徴量の1つとして推定することもできる。
センサ401が、ステレオカメラまたは測距カメラなどの3次元画像生成機能を有する場合、撮像部101が撮像し、復号部213において復号される画像は、オブジェクトの強度情報だけなく、当該オブジェクトの深度(depth)情報をも含む。この場合、スケール推定部2102は、オブジェクト検出部2101で検出されたオブジェクトについて、オブジェクトの深度情報を物理量の1つとして取得することが可能である。
画像認識部211のパターン検出部2103と、パターン解析部2104は、オブジェクト検出部2101で検出されたオブジェクトの地理的情報を推定する。地理的情報とは、例えば、オブジェクトの地球上の位置を示す測位情報である。
パターン検出部2103は、復号部213が復号した画像データが示す画像中のコードパターンを検出する。コードパターンは、オブジェクト検出部2101が検出したオブジェクトの近傍で検出されるものであり、例えば、2次元コードなどの空間的なコードパターン、または、所定の規則に従って光が点滅するパターンなどの時系列的なコードパターンである。あるいは、空間的なコードパターンと時系列的なコードパターンとの組み合わせとしてもよい。パターン検出部2103は、検出したコードパターンをパターン解析部2104に出力する。
パターン解析部2104は、パターン検出部2103から取得したコードパターンを解析して測位情報を検出する。パターン解析部2104は、検出した測位情報を記述子生成部22に出力する。
次に、この発明の実施の形態1に係る群集監視装置10の構成について説明する。
図4は、この発明の実施の形態1に係る群集監視装置10の構成図である。
図4に示すように、群集監視装置10は、センサデータ受信部11と、公開データ受信部12と、パラメータ導出部13と、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17とを備える。
パラメータ導出部13は、群衆パラメータ導出部131,132,・・・,13Rを有する。
群衆状態予測部14は、空間群衆状態予測部141と、時間群衆状態予測部142とを有する。
センサデータ受信部11は、センサ401,402,・・・,40pから送信されたセンサデータを受信する。センサデータ受信部11は、受信したセンサデータをパラメータ導出部13に出力する。
公開データ受信部12は、サーバ装置501,502,・・・,50nから通信ネットワークNW2を介して公開された公開データを受信する。公開データ受信部12は、受信した公開データをパラメータ導出部13に出力する。
パラメータ導出部13は、センサデータ受信部11から出力されたセンサデータを取得し、取得したセンサデータに基づき、センサ401,402,・・・,40pで検出された群衆の状態特徴量を示す状態パラメータを導出する。また、パラメータ導出部13は、公開データ受信部12から出力された公開データを取得した場合は、センサデータ受信部11から取得したセンサデータと、公開データ受信部12から取得した公開データとに基づき、センサ401,402,・・・,40pで検出された群衆の状態特徴量を示す状態パラメータを導出する。
パラメータ導出部13の群衆パラメータ導出部131,132,・・・,13Rは、それぞれ、センサデータ受信部11から出力されたセンサデータ、あるいは、公開データ受信部12から出力された公開データを解析して群衆の状態特徴量を示すR種(Rは3以上の整数)の状態パラメータを導出する。なお、ここでは、図4に示すように、群衆パラメータ導出部131〜13Rは、3つ以上としたが、これに限らず、群衆パラメータ導出部は1つまたは2つであってもよい。パラメータ導出部13は、導出した状態パラメータを、群衆状態予測部14、警備計画導出部15、および、状態提示部16に出力する。
群衆状態予測部14は、パラメータ導出部13から出力された、現在または過去の状態パラメータに基づいて、群衆状態を予測する。
群衆状態予測部14の空間群衆状態予測部141は、パラメータ導出部13から出力された状態パラメータに基づいて、センサが設置されていないエリアの群衆状態を予測する。空間群衆状態予測部141は、センサが設置されていないエリアの群衆状態の予測結果を示すデータを、警備計画導出部15および状態提示部16に出力する。ここでは、センサが設置されていないエリアの群衆状態の予測結果を示すデータを、「空間予測データ」という。
群衆状態予測部14の時間群衆状態予測部142は、パラメータ導出部13から出力された状態パラメータに基づき、未来の群衆状態を予測する。時間群衆状態予測部142は、未来の群衆状態の予測結果を示すデータを、警備計画導出部15および状態提示部16に出力する。ここでは、未来の群衆状態の予測結果を示すデータを、「時間予測データ」という。
警備計画導出部15は、パラメータ導出部13から出力された状態パラメータと、群衆状態予測部14から出力された未来の群衆状態の情報とに基づき、警備計画案を導出する。警備計画導出部15は、導出した警備計画案の情報を計画提示部17に出力する。
状態提示部16は、パラメータ導出部13から出力された状態パラメータと、群衆状態予測部14から出力された群衆状態の情報とに基づき、群衆の過去の状態、現在の状態および未来の状態をユーザに分かり易いフォーマットで表す視覚的データまたは音響的データを生成する。なお、現在の状態は、リアルタイムに変化する状態を含む。
また、状態提示部16は、生成した視覚的データまたは音響的データを外部機器71,72に送信し、映像、あるいは、音声として出力させる。
計画提示部17は、警備計画導出部15から出力された警備計画案の情報を取得し、取得した情報をユーザに分かり易いフォーマットで表す視覚的データまたは音響的データを生成する。
また、計画提示部17は、生成した視覚的データまたは音響的データを外部機器73,74に送信し、映像、あるいは、音声として出力させる。
なお、ここでは、群集監視装置10が、公開データ受信部12を備えるものとしたが、これに限らず、群集監視装置10は、公開データ受信部12を備えないものとしてもよい。
動作について説明する。
まず、この実施の形態1の警備支援システム1を構成するセンサ401,402,・・・,40pが、センサデータを、通信ネットワークNW1を介して群集監視装置10に送信する動作について説明する。
図5は、実施の形態1において、センサ401の動作を説明するフローチャートである。なお、ここでは、センサ401の動作を代表して説明し、センサ402〜40pの動作については、センサ401の動作と同様であるので重複した説明を省略する。
撮像部101は、対象エリアを撮像し、撮像した撮像画像の画像データを画像処理装置20の画像解析部21に出力する(ステップST501)。
画像解析部21は、第1画像解析処理を実行する(ステップST502)。
ここで、図6は、図5のステップST502における第1画像解析処理の動作の一例を説明するフローチャートである。
画像解析部21の復号部213は、図5のステップST501で撮像部101から出力された画像データを取得し、撮像部101で使用された圧縮符号化方式に従い、圧縮された画像データを復号する(ステップST601)。復号部213は、復号した画像データを復号データとして画像認識部211に出力する。
画像認識部211のオブジェクト検出部2101は、復号部213から取得した復号データで示される単数または複数の入力画像を解析して当該入力画像に現れるオブジェクトを検出する(ステップST602)。具体的には、オブジェクト検出部2101は、復号データで示される入力画像と、パターン記憶部212に記憶されているパターンとを比較することで、入力画像に現れるオブジェクトを検出する。
ここで、オブジェクト検出部2101が検出するオブジェクトの検出対象としては、例えば、信号機もしくは標識などの大きさおよび形状が既知であるオブジェクト、または、自動車、自転車および歩行者などの、動画像内に様々な態様のバリエーションで現れてその平均サイズと既知の平均サイズとが十分な精度で一致するオブジェクトが望ましい。また、当該オブジェクトの画面に対する姿勢および深度情報が検出されてもよい。オブジェクト検出部2101は、検出したオブジェクトの情報を、復号部213から取得した復号データとともに、スケール推定部2102、パターン検出部2103に出力する。
画像認識部211のスケール推定部2102は、ステップST602おいてオブジェクト検出部2101が検出したオブジェクトの情報に基づき、オブジェクトの空間的特徴量の推定、すなわち、スケール情報の推定に必要なオブジェクトが検出されたかどうかを判定する(ステップST603)。なお、スケール情報の推定は、「スケール推定」ともいう。「スケール推定」の詳細については後述する。
ステップST603において、スケール推定に必要なオブジェクトが検出されてないと判定した場合(ステップST603の“NO”の場合)、ステップST601に戻る。このとき、スケール推定部2102は、復号部213に対して復号指示を出力し、復号部213では、当該復号指示を取得すると、撮像部101から新たに画像データを取得し、画像データの復号を行う。
ステップST603において、スケール推定に必要なオブジェクトが検出されたと判定した場合(ステップST603の“YES”の場合)、スケール推定部2102は、オブジェクト検出部2101から取得したオブジェクトについて、スケール推定を行う(ステップST604)。ここでは、一例として、スケール推定部2102は、オブジェクトのスケール情報として、1画素当たりの物理寸法を推定するものとする。
オブジェクト検出部2101によって、オブジェクトが検出されたとき、スケール推定部2102は、オブジェクト検出部2101が検出したオブジェクトの情報を取得し、まず、取得したオブジェクトの形状と、パターン記憶部212に記憶されているオブジェクトの形状との突き合わせを行い、パターン記憶部212に記憶されているオブジェクトのうち、取得したオブジェクトの形状と合致するオブジェクトを特定する。次に、スケール推定部2102は、特定したオブジェクトについて、当該オブジェクトと関連付けてパターン記憶部212に記憶されている物理量をパターン記憶部212から取得する。
そして、スケール推定部2102は、取得した物理量と復号データとに基づき、オブジェクト検出部2101が検出したオブジェクトのスケール情報を推定する。
具体的には、例えば、復号データで示される入力画像に、円形の標識が、センサ401である撮像装置に正対する形で映っており、当該標識の直径は、復号データで示される画像上、100画素に相当していたとする。また、パターン記憶部212には、当該標識の直径0.4mという情報が物理量として記憶されているものとする。オブジェクト検出部2101は、まず、形状の突き合わせにより、当該標識を検出し、物理量として0.4mという値を取得する。
スケール推定部2102は、オブジェクト検出部2101が検出した標識について、当該標識が、入力画像上100画素に相当するという情報と、パターン記憶部212に記憶された当該標識の直径0.4mという情報とに基づき、入力画像上、当該標識のスケールは0.004m/画素と推定する。
図7は、実施の形態1において、スケール推定部2102が、入力画像上のオブジェクトのスケール推定を行った結果のイメージの一例を示す図である。
図7において、復号データで示される入力画像上、すなわち、撮像部101が撮像した撮像画像上で、建築物のオブジェクト301,302,構造物のオブジェクト303,背景のオブジェクト304が検出されたものとしている。
建築物のオブジェクト301のスケール情報は、スケール推定部2102によるスケール推定の結果、1m/画素と推定され、他の建築物のオブジェクト302のスケール情報は、スケール推定部2102によるスケール推定の結果、10m/画素と推定され、構造物のオブジェクト303のスケール情報は、スケール推定部2102によるスケール推定の結果、1cm/画素と推定されたことを示している。また、背景のオブジェクト304については、撮像部101から背景までの距離は実空間では無限遠とみなされるので、スケール推定部2102は、背景のオブジェクト304のスケール情報を無限大と推定したことを示している。なお、背景については、パターン記憶部212に、予め、寸法情報には無限大とする情報が記憶されているようにすればよい。
また、例えば、オブジェクト検出部2101によって検出されたオブジェクトが自動車もしくは歩行者等の地面上を移動する移動体である場合、またはガードレールのような、地面に存在し且つ地面から概ね一定の位置に配置される物である場合には、その種のオブジェクトが存在するエリアは当該移動体が移動可能なエリアであり、かつ、特定の平面上に拘束されているエリアである可能性が高い。よって、スケール推定部2102は、その拘束条件に基づいて自動車または歩行者等が移動する平面を検出するとともに、当該自動車または歩行者等のオブジェクトの物理寸法の推定値と、自動車または歩行者等の平均寸法の情報とに基づいて当該平面までの距離を導出することもできる。よって、入力画像に現れる全てのオブジェクトのスケール情報を推定することができない場合でも、オブジェクトが映っている地点のエリア、または、スケール情報を取得する対象として重要な道路などのエリアを特別なセンサ無しで検出することが可能である。
以上のように、復号部213、画像認識部211のオブジェクト検出部2101,スケール推定部2102によって、第1画像解析処理を行う。
なお、ここでは、スケール推定に必要なオブジェクトが検出されない場合(ステップST603の“NO”の場合)、ステップST601に戻り、以降の処理を繰り返すものとしたが、これに限らず、ステップST601に戻り、スケール推定に必要なオブジェクトが検出されたかどうかを判定し(ステップST603)、一定時間が経過してもスケール推定に必要なオブジェクトが検出されないと判定した場合には、すなわち、ステップST601〜ステップST603の処理を繰り返して一定時間が経過した場合には、第1画像解析処理を終了するものとしてもよい。
図5のフローチャートに戻る。
上記第1画像解析処理(ステップST502)の完了後、画像認識部211は、第2画像解析処理を実行する(ステップST503)。
ここで、図8は、図5のステップST503における第2画像解析処理の動作の一例を説明するフローチャートである。
パターン検出部2103は、復号部213から復号データを取得し(図5のステップST501参照)、取得した復号データで示される入力画像を検索して、当該画像からコードパターンを検出する(ステップST801)。
パターン検出部2103は、検出したコードパターンの情報をパターン解析部2104に出力する。
パターン解析部2104は、パターン検出部2103から取得したコードパターンの情報に基づき、コードパターンが検出されたかどうかを判定する(ステップST802)。
ステップST802において、コードパターンが検出されなかったと判定した場合(ステップST802の“NO”の場合)、図5のステップST502へ戻る。
例えば、パターン検出部2103は、ステップST801において、コードパターンを検出できなかった場合、コードパターンなしとの情報をパターン解析部2104に出力する。この場合、パターン解析部2104では、コードパターンが検出されなかったと判定する。
ステップST802において、コードパターンが検出されたと判定した場合(ステップST802の“YES”の場合)、パターン解析部2104は、パターン検出部2103から取得したコードパターンの情報を解析し、測位情報を推定する(ステップST803)。パターン解析部2104は、推定した測位情報を記述子生成部22に出力する。
図9は、実施の形態1において、パターン解析部2104が、図7に例示した入力画像上のコードパターンの解析を行った結果のイメージの一例を示す図である。
図9において、復号データで示される入力画像上、すなわち、撮像部101が撮像した撮像画像上で、コードパターンPN1,PN2,PN3が検出されたものとしている。
パターン解析部2104は、コードパターンPN1,PN2,PN3の解析結果として、各コードパターンが示す緯度および経度という絶対的な座標情報を得る。図9において点状に示すコードパターンPN1,PN2,PN3は、2次元コードのような空間的なパターン、もしくは光の点滅パターンのような時系列的なパターン、またはこれらの組み合わせである。パターン解析部2104は、入力画像に現れるコードパターンPN1,PN2,PN3を解析して測位情報を検出する。
図10は、実施の形態1において、空間的なコードパターンPNxを表示する表示機器40の一例を示す図である。図10に示す表示機器40は、全地球航法衛星システム(Global Navigation Satellite System,GNSS)による航法信号を受信し、この航法信号を基に自己の現在位置を測位してその測位情報を示すコードパターンPNxを表示画面41に表示する機能を有している。オブジェクトの近傍にこのような表示機器40が配置されることで、図11に示されるように、パターン検出部2103はコードパターンを検出することができ、パターン解析部2104はパターン検出部2103が検出したコードパターンに基づきオブジェクトの測位情報を検出することが可能となる。
なお、GNSSによる測位情報は、GNSS情報とも呼ばれている。GNSSとしては、例えば、米国により運用されるGPS(Global Positioning System)、ロシア連邦により運用されるGLONASS(GLObal NAvigation Satellite System)、欧州連合により運用されるGalileoシステム、または日本により運用される準天頂衛星システムを利用することができる。
以上のように、画像認識部211のパターン検出部2103,パターン解析部2104によって、第2画像解析処理を行う。
なお、ここでは、コードパターンが検出されなかったと判定した場合(ステップST802の“NO”の場合)、図5のステップST502に戻り、以降の処理を繰り返すものとしたが、これに限らず、ステップST502に戻り、コードパターンが検出されたかどうかを判定し(ステップST802)、一定時間が経過してもコードパターンが検出されないと判定した場合には、すなわち、ステップST502〜ステップST802の処理を繰り返して一定時間が経過した場合には、第2画像解析処理を終了するものとしてもよい。
図5のフローチャートに戻る。
上記第2画像解析処理(ステップST503)の完了後、記述子生成部22は、第1画像処理でスケール推定部2102が推定したスケール情報を表わす空間的な記述子(図2に示すDsr)と、第2画像処理でパターン解析部2104が推定した測位情報を表わす地理的な記述子(図2に示すDsr)とを生成する(ステップST504)。そして、記述子生成部22は、生成した記述子データと撮像部101が撮像した画像データとを関連付けてデータ伝送部102に出力する。
データ伝送部102は、記述子生成部22から出力された記述子データと関連付けられた画像データを、群集監視装置10に送信する。
ここで、データ伝送部102により群集監視装置10に送信される画像データと記述子データとは、群集監視装置10において格納されるが、その際、双方向的に高速にアクセスすることができる形式で格納されることが好ましい。また、記述子生成部22は、画像データと記述子データとの対応関係を示すインデックステーブルを作成し、当該テーブルを、データ伝送部102に出力し、データ伝送部102は、当該テーブルを群集監視装置10に送信するようにしてもよい。そして、群集監視装置10では、当該テーブルによってデータベースを構成するようにしてもよい。例えば、記述子生成部22は、画像データを構成する特定の画像フレームの位置が与えられた場合、その位置に対応する記述子データのデータベース上の記憶位置を高速に特定可能なようにインデックス情報を付加することができる。またその逆のアクセスも容易なようにインデックス情報が作成されてもよい。
画像処理装置20の制御部(図示省略)は、処理を続行するかどうかを判定する(ステップST506)。具体的には、画像処理装置20の入力受付部(図示省略)が、画像処理終了の指示を受け付けたかどうかを判定する。
例えば、警備員等のユーザは、対象エリアの監視が必要でなくなり、撮像装置のスイッチをオフした場合等に、画像処理装置20の入力受付部は、当該情報を画像処理終了の指示として受け付ける。
ステップST506において、処理を続行すると判定した場合(ステップST506の“YES”の場合)、すなわち、入力受付部が画像処理終了の指示を受け付けていない場合、ステップST502に戻り、以降の処理を行う。
これにより、記述子データと関連付けられた画像データの、群集監視装置10への送信が続行される。
ステップST506において、処理を続行しないと判定した場合(ステップST506の“NO”の場合)、すなわち、入力受付部が画像処理終了の指示を受け付けた場合、処理を終了する。
ここで、図5のステップST504において記述子生成部22が生成する、空間的な記述子および地理的な記述子について、例をあげて詳細に説明する。
図12および図13は、実施の形態1において、空間的な記述子のフォーマットの例を示す図である。
図12および図13の例では、撮像部101が撮像した撮像画像を空間的に格子状に分割して得られる各グリッドに対する記述子が示されている。図12に示されるように、フラグ「ScaleInfoPresent」は、検出されたオブジェクトのサイズと当該オブジェクトの物理量とをひもづけるスケール情報が存在するかどうかを示すフラグである。撮像画像は、空間方向において複数の画像領域すなわちグリッドに分割される。
「GridNumX」は、オブジェクトの特徴を表す画像領域特徴が存在するグリッドの縦方向の個数を示し、「GridNumY」は、オブジェクトの特徴を表す画像領域特徴が存在するグリッドの横方向の個数を示している。「GridRegionFeatureDescriptor(i,j)」は、各グリッドのオブジェクトの部分的特徴、すなわち、グリッド内特徴を表す記述子である。
図13は、図12に示す記述子「GridRegionFeatureDescriptor(i,j)」の内容を示す図である。図13を参照すると、「ScaleInfoPresentOverride」は、スケール情報が存在するかどうかをグリッド別、すなわち、領域別に示すフラグである。
「ScalingInfo[i][j]」は、(i,j)番目のグリッド(iは、グリッドの縦方向の番号;jは、グリッドの横方向の番号)において存在するスケール情報を示すパラメータである。このように、スケール情報は、撮像画像に現れるオブジェクトの各グリッドに対して定義付け可能である。なお、スケール情報が取得できない、またはスケール情報が不要である領域も存在するため、「ScaleInfoPresentOverride」というパラメータによりグリッド単位で記述するかどうかを指定することができる。
次に、図14および図15は、実施の形態1において、GNSS情報の記述子、すなわち、地理的な記述子のフォーマットの例を示す図である。
図14を参照すると、「GNSSInfoPresent」は、GNSS情報として測位された位置情報が存在するかどうかを示すフラグである。
「NumGNSSInfo」は、位置情報の個数を示すパラメータである。
「GNSSInfoDescriptor(i)」は、i番目の位置情報の記述子である。位置情報は、入力画像中の点領域により定義されるため、位置情報の個数はパラメータ「NumGNSSInfo」を通じて送られた後に、その個数分だけのGNSS情報記述子「GNSSInfoDescriptor(i)」が記述される。
図15は、図14に示す記述子「GNSSInfoDescriptor(i)」の内容を示す図である。図15を参照すると、「GNSSInfoType[i]」は、i番目の位置情報の種別を表すパラメータである。位置情報としては、GNSSInfoType[i]=0の場合のオブジェクトの位置情報と、GNSSInfoType[i]=1の場合のオブジェクト以外の位置情報とを記述することができる。オブジェクトの位置情報については、「Object[i]」は、位置情報を定義するためのオブジェクトのID(識別子)である。また、各オブジェクトについて、緯度を示す「GNSSInfo_Latitude[i]」と、経度を示す「GNSSInfo_longitude[i]」とが記述される。
一方、オブジェクト以外の位置情報については、図15に示される「GroundSurfaceID[i]」は、GNSS情報として測位された位置情報が定義される仮想的な地平面のID(識別子)であり、「GNSSInfoLocInImage_X[i]」は、位置情報が定義される画像内の横方向の位置を示すパラメータであり、「GNSSInfoLocInImage_Y[i]」は、位置情報が定義される画像内の縦方向の位置を示すパラメータである。各地平面について、緯度を示す「GNSSInfo_Latitude[i]」と、経度を示す「GNSSInfo_longitude[i]」とが記述される。位置情報は、オブジェクトが特定の平面に拘束されている場合に、その画面上に映った当該平面を地図上にマッピングすることができる情報である。このため、GNSS情報が存在する仮想的な地平面のIDが記述される。また、画像内に映ったオブジェクトに対してGNSS情報を記述することも可能となっている。これは、ランドマークなどの検索のためにGNSS情報を用いる用途を想定したものである。
なお、図12〜図15に示した記述子は例であり、これらに任意の情報の追加または削除、およびその順序または構成の変更が可能である。
以上に説明したように実施の形態1の警備支援システム1を構成するセンサ401,402,・・・,40pでは、撮像画像に現れるオブジェクトの空間的な記述子を画像データと関連付けて、当該画像データを群集監視装置10に送信することができる。群集監視装置10では、空間的な記述子を検索対象として利用することにより、複数の撮像画像に現れる、空間的または時空間的に近い関係にある複数のオブジェクト間の対応付けを高い確度で且つ低処理負荷で行うことが可能となる。よって、例えば、複数台のセンサ401,402,・・・,40pが異なる方向から同一対象エリアを撮像した場合でも、センサ401,402,・・・,40pから送信される記述子間の類似度の計算により、センサ401,402,・・・,40pの撮像画像に現れる複数のオブジェクト間の対応付けを高い確度で行うことができる。すなわち、様々な方向から撮像された撮像画像のうち、どのような撮像画像であっても、1つの撮像画像内の複数のオブジェクト間の関係を把握することができる。つまり、1つの撮像画像内の複数のオブジェクトを、オブジェクト群として検出することができる。
また、この実施の形態1では、センサ401,402,・・・,40pは、上述したように、撮像画像に現れるオブジェクトの地理的な記述子も画像データと関連付けて群集監視装置10に送信することができる。群集監視装置10では、空間的な記述子とともに地理的な記述子を検索対象として利用することにより、複数の撮像画像に現れる複数のオブジェクト間の対応付けを更に高い確度で、かつ、低処理負荷で行うことが可能となる。
したがって、センサ401,402,・・・,40pが撮像装置である場合、センサ401,402,・・・,40pに画像処理装置20を搭載することで、群集監視装置10では、例えば、特定物体の自動認識、3次元マップの作成または画像検索を効率的に行うことができる。
次に、この実施の形態1に係る群集監視装置10の動作について説明する。
図16は、この発明の実施の形態1に係る群集監視装置10の動作を説明するフローチャートである。
センサデータ受信部11は、センサ401,402,・・・,40pから配信されたセンサデータを受信する(ステップST1601)。ここでは、センサ401,402,・・・,40pは、図2に示したような撮像装置であるものとしているので、センサデータ受信部11は、センサデータとして、撮像装置によって撮像された、記述子と対応付けられている画像データを取得する。センサデータ受信部11は、受信したセンサデータをパラメータ導出部13に出力する。
公開データ受信部12は、サーバ装置501,502,・・・,50nから通信ネットワークNW2を介して公開された公開データを受信する(ステップST1602)。公開データ受信部12は、受信した公開データをパラメータ導出部13に出力する。
パラメータ導出部13は、ステップST1601においてセンサデータ受信部11から出力されたセンサデータと、ステップST1602において公開データ受信部12から出力された公開データとを取得し、取得したセンサデータと公開データとに基づき、センサ401,402,・・・,40pで検出された群衆の状態特徴量を示す状態パラメータを導出する(ステップST1603)。ここでは、センサ401,402,・・・,40pは、図2に示したような撮像装置であり、上述したように、撮像画像を解析して当該撮像画像に現れるオブジェクト群を検出し、当該検出されたオブジェクト群の空間的、地理的な特徴量を示す記述子データを群集監視装置10に送信する。なお、このとき、付加的に、視覚的な特徴量を示す記述子データも送信される。
ステップST1603の動作について、具体的には、パラメータ導出部13の群衆パラメータ導出部131,132,・・・,13Rが、それぞれ、センサデータ受信部11から出力されたセンサデータと、公開データ受信部12から出力された公開データを解析して群衆の状態特徴量を示すR種(Rは3以上の整数)の状態パラメータを導出する。パラメータ導出部13は、導出した状態パラメータを、群衆状態予測部14、警備計画導出部15、および、状態提示部16に出力する。
なお、ここでは、群集監視装置10が公開データ受信部12を備え、パラメータ導出部13は、公開データ受信部12が受信した公開データも用いて状態パラメータを導出するものとしたが、群集監視装置10は、公開データ受信部12を備えないものとしてもよい。その場合、パラメータ導出部13は、センサデータ受信部11から出力されたセンサデータから、状態パラメータを導出する。
ここで、パラメータ導出部13、すなわち、群衆パラメータ導出部131,132,・・・,13Rが導出する状態パラメータについて、詳細に説明する。
状態パラメータの種類としては、例えば、「群衆領域」、「群衆行動の種類」、「群衆密度」、「群衆の移動方向および速度」、「流量」、「特定人物の抽出結果」および「特定カテゴリ人物の抽出結果」が挙げられる。
「群衆領域」は、例えば、センサ401,402,・・・,40pの対象エリア内に存在する群衆の領域を特定する情報である。
図17に示すように、群衆パラメータ導出部131,132,・・・,13Rは、撮像画像内のオブジェクト群の動きの特徴をクラスタリングし、クラスタリングされた領域内の動きの状態からオブジェクト群が群衆であるか、車両の流れであるかなどを判定し、群衆の領域を特定する。
また、群衆パラメータ導出部131,132,・・・,13Rは、群衆であると判断された領域のオブジェクト群に対しては「群衆行動の種類」を特定する。「群衆行動の種類」としては、例えば、群衆が一方向に流れる「一方向流」、対向方向の流れがすれ違う「対向流」、その場に留まる「滞留」が挙げられる。また、「滞留」も、群衆密度が高過ぎることにより当該群衆が動けなくなった状態などを示す「制御されていない滞留」、および、当該群衆が主催者の指示に従って立ち止まったことにより発生する「制御された滞留」のような種類に分類可能である。
また、群衆パラメータ導出部131,132,・・・,13Rは、「群衆行動の種類」が「一方向流」または「対向流」と判断されたオブジェクト群に対しては「流量」を算出する。「流量」は、例えば、所定の領域を通過した人数の単位時間当たりの値に当該領域の長さを乗算して得られる値(単位:人数・m/s)として定義される。
「特定人物の抽出結果」は、センサ401,402,・・・,40pの対象エリア内に特定人物が存在するか否かを示す情報、および、特定人物が存在する場合に、その特定人物を追跡した結果得られる軌跡の情報である。この種の情報は、警備支援システム1全体のセンシング範囲内に探索対象である特定人物が存在するかどうかを示す情報を作成するために利用可能であり、例えば、迷子の探索に有用な情報である。
「特定カテゴリ人物の抽出結果」は、センサ401,402,・・・,40pの対象エリア内に、特定カテゴリに属する人物が存在するか否かを示す情報、および、特定カテゴリに属する人物が存在する場合に、その特定人物を追跡した結果得られる軌跡の情報である。ここで、特定カテゴリに属する人物とは、例えば、幼児、高齢者、車いす使用者および白杖使用者等の「特定の年齢および性別の人物」、「交通弱者」、および、「危険行動をとる人物または集団」等が挙げられる。この種の情報は、当該群衆に対する特別な警備体制の要否を判断するのに有用な情報である。
また、群集監視装置10が公開データ受信部12を備え、公開データ受信部12が公開データを取得する場合には、群衆パラメータ導出部131,132,・・・,13Rは、サーバ装置501,502,・・・,50nから提供される公開データに基づいて、「主観的な混雑度」、「主観的な快適性」、「トラブル発生状況」、「交通情報」および「気象情報」などの状態パラメータを導出することもできる。
群衆パラメータ導出部131,132,・・・,13Rは、上記したような状態パラメータを、単一のセンサから得られるセンサデータに基づいて導出してもよいし、あるいは、複数台のセンサから得られる複数のセンサデータを統合して利用することにより導出してもよい。また、複数台のセンサから得られるセンサデータを利用する場合には、状態パラメータを導出するためのセンサデータを送信するセンサは、同一種類のセンサからなるセンサ群であってもよいし、あるいは、異なる種類のセンサが混在したセンサ群であってもよい。群衆パラメータ導出部131,132,・・・,13Rは、複数のセンサデータを統合して利用する場合は、単一のセンサデータを利用する場合よりも、高精度な状態パラメータの導出を期待することができる。
図16のフローチャートに戻る。
群衆状態予測部14は、ステップST1603においてパラメータ導出部13から出力された、現在または過去の状態パラメータに基づいて、群衆状態を予測する(ステップST1604)。
具体的には、空間群衆状態予測部141は、パラメータ導出部13から出力された状態パラメータ群に基づいて、センサが設置されていないエリアの群衆状態を予測し、「空間予測データ」を作成して、警備計画導出部15および状態提示部16に出力する。
また、時間群衆状態予測部142は、パラメータ導出部13から出力された状態パラメータに基づき、未来の群衆状態を予測し、「時間予測データ」を作成して、警備計画導出部15および状態提示部16に出力する。
時間群衆状態予測部142は、センサが設置されていないエリアの群衆の状態、あるいは、未来の群衆状態を定める様々な情報を推定することが可能である。例えば、パラメータ導出部13で導出される状態パラメータと同種のパラメータの未来の値を「時間予測データ」として作成することができる。なお、どの程度先の未来の群衆状態を予測することができるかは、警備支援システム1のシステム要件に応じて任意に定義可能である。同様に、空間群衆状態予測部141は、センサが設置されていないエリアの群衆状態について、パラメータ導出部13で導出される状態パラメータと同種のパラメータの値を「空間予測データ」として算出することができる。
図18は、実施の形態1において、群衆状態予測部14の時間群衆状態予測部142が、未来の群衆状態を予測し、「時間予測データ」を作成する方法の一例を説明する図である。
図18に示すように、歩行者経路PATHにおける対象エリアPT1,PT2,PT3にそれぞれセンサ401,402,・・・,40pのいずれかが配置されているものとする。群衆は、対象エリアPT1,PT2から対象エリアPT3に向けて移動している。
パラメータ導出部13は、対象エリアPT1,PT2それぞれの群衆の流量(単位:人数・m/s)を導出し、これら流量を状態パラメータ値として群衆状態予測部14に出力する。時間群衆状態予測部142は、パラメータ導出部13から取得した流量に基づいて、群衆が向かうであろう対象エリアPT3の流量の予測値を導出する。例えば、時刻Tでの対象エリアPT1,PT2の群衆が図18に示す矢印a方向に移動しており、対象エリアPT1,PT2の各々の流量がFであったとする。このとき、時間群衆状態予測部142は、群衆の移動速度が今後も不変であるという群衆挙動モデルを仮定し、かつ、対象エリアPT1、PT2から対象エリアPT3までの群衆の移動時間が共にtである場合、未来の時刻T+tでの対象エリアPT3の流量を2×Fと予測する。そして、時間群衆状態予測部142は、未来の時刻T+tでの対象エリアPT3の流量2×Fのデータを「時間予測データ」として作成する。
図16のフローチャートに戻る。
警備計画導出部15は、ステップST1603においてパラメータ導出部13から出力された状態パラメータと、ステップST1604において群衆状態予測部14から出力された未来の群衆状態の情報、すなわち、「時間予測データ」および「空間予測データ」とに基づき、警備計画案を導出する(ステップST1605)。警備計画導出部15は、導出した警備計画案の情報を計画提示部17に出力する。
具体的には、例えば、状態パラメータと予測状態データの典型的なパターンと、当該典型的なパターンに対応する警備計画案のデータベースを予め作成して記憶しておくようにし警備計画導出部15は、当該データベースを用いて警備計画案を導出する。
例えば、警備計画導出部15は、パラメータ導出部13および群衆状態予測部14から、或る対象エリアが「危険状態」にあることを示す状態パラメータ群および予測状態データを取得した場合、データベース上、「危険状態」であるという状態パラメータと、取得した予測状態データと合致する予測状態データとに対応付けられた警備計画案が、「対象エリアにおける群衆の滞留を整理するための警備員の派遣または警備員の増員を提案する」ものであれば、「危険状態」にある、或る対象エリアにおける群衆の滞留を整理するための警備員の派遣または警備員の増員を提案する警備計画案を導出する。
この実施の形態1では、「危険状態」としては、例えば、群衆の「制御されていない滞留」もしくは「危険行動をとる人物または集団」を検知した状態、または、「群衆密度」が許容値を超えた状態があげられる。
状態提示部16は、ステップST1603においてパラメータ導出部13から出力された状態パラメータと、ステップST1604において群衆状態予測部14から出力された群衆状態の情報、すなわち、「時間予測データ」および「空間予測データ」とに基づき、とに基づき、群衆の過去の状態、現在の状態および未来の状態をユーザに分かり易いフォーマットで表す視覚的データまたは音響的データを生成する(ステップST1606)。なお、ここでは、ユーザに分かり易いフォーマットで表わす視覚的データとは、例えば、映像および文字情報であり、ユーザに分かり易いフォーマットで表わす音響的データとは、例えば、音声情報である。
状態提示部16は、生成した視覚的データまたは音響的データを外部機器71,72に送信し、外部機器71,72から映像、あるいは、音声として出力させる。
外部機器71,72は、状態提示部16から出力された視覚的データまたは音響的データを受信し、映像、文字、および、音声として、出力部(図示省略)から出力する。出力部とは、例えば、ディスプレイ等の表示装置、あるいは、スピーカ等の音声出力装置等である。
図19A,図19Bは、状態提示部16が生成した視覚的データを、外部機器71,72の表示装置に表示させたイメージの一例を説明する図である。
図19Bには、センシング範囲を表す地図情報M4が表示されている。この地図情報M4には、道路網RDと、対象エリアAR1,AR2,AR3をそれぞれセンシングするセンサSNR,SNR,SNRと、監視対象の特定人物PEDと、当該特定人物PEDの移動軌跡(図19上黒矢印線で示す)とが示されている。
図19Aには、対象エリアAR1の映像情報M1、対象エリアAR2の映像情報M2、および対象エリアAR3の映像情報M3がそれぞれ示されている。
図19Bに示されるように、特定人物PEDは対象エリアAR1,AR2,AR3をまたがって移動している。このため、仮にユーザが映像情報M1,M2,M3だけを見たとすれば、センサSNR,SNR,SNRの配置を理解していない限り、地図上で特定人物PEDがどのような経路で移動したのかを把握することが困難である。
そこで、状態提示部16は、センサSNR,SNR,SNRの位置情報に基づき、映像情報M1,M2,M3に現れる状態を図19Bの地図情報M4にマッピングして提示する視覚的データを生成する。このように地図形式で対象エリアAR1,AR2,AR3の状態をマッピングして提示する視覚的データを生成し、外部機器71,72の表示装置に表示させるようにすることで、特定人物PEDの移動経路をユーザが直感的に理解することが可能となる。
図20A,図20Bは、状態提示部16が生成した視覚的データを、外部機器71,72の表示装置に表示させたイメージの他の一例を説明する図である。
図20Bには、センシング範囲を表す地図情報M8が表示されている。この地図情報M8には、道路網と、対象エリアAR1,AR2,AR3をそれぞれセンシングするセンサSNR,SNR,SNRと、監視対象の群衆密度を表す濃度分布情報とが示されている。
図20Aには、対象エリアAR1における群衆密度を濃度分布で表す地図情報M5、対象エリアAR2における群衆密度を濃度分布で表す地図情報M6、および、対象エリアAR3における群衆密度を濃度分布で表す地図情報M7がそれぞれ示されている。この例では、地図情報M5,M6,M7で示される画像における格子内の色が明るいほど密度が高く、暗いほど密度が低いことを示している。この場合も、状態提示部16は、センサSNR,SNR,SNRの位置情報に基づき、対象エリアAR1,AR2,AR3のセンシング結果を図20Bの地図情報M8にマッピングして提示する視覚的データを生成する。これにより、ユーザは、群衆密度の分布を直感的に理解することが可能となる。
上記の例以外にも、状態提示部16は、例えば、状態パラメータの値の時間推移をグラフ形式で示す視覚的データ、「危険状態」の発生をアイコン画像で知らせる視覚的データ、「危険状態」の発生を警告音で知らせる音響的データ、サーバ装置501,502,・・・,50nから取得された公開データをタイムライン形式で示す視覚的データを生成し、外部機器71,72から出力させることが可能である。
また、状態提示部16は、群衆状態予測部14から出力された未来の群衆状態の時間予測データに基づき、群衆の未来の状態を表す視覚的データを生成し、外部機器71,72に出力させることもできる。
図21は、実施の形態1において、状態提示部16が生成した視覚的データを、外部機器71,72の表示装置に表示させたイメージの、さらに他の一例を説明する図である。
図21は、画像ウィンドウW1と画像ウィンドウW2とが並列に配置された画像情報M10を示している。図21上、右側の画像ウィンドウW2には、左側の画像ウィンドウW1に表示される情報よりも時間的に先の群衆状態として未来の群衆状態の情報が表示されている。
一方、図21上、左側の画像ウィンドウW1には、状態提示部16が、パラメータ導出部13から出力された状態パラメータに基づき生成した、過去の群衆状態、現在の群衆状態を表す視覚的データが表示されている。
ユーザは、外部機器71,72のGUI(グラフィカル・ユーザ・インタフェース)を通じてスライダSLD1の位置を調整することで、現在または過去の指定時刻における群衆状態を画像ウィンドウW1に表示させることが可能である。図21に示す例では、指定時刻はゼロに設定されているので、画像ウィンドウW1には、現在の群衆状態がリアルタイムに表示され、かつ「LIVE」の文字タイトルが表示されている。
他方の画像ウィンドウW2には、上述のとおり、未来の群衆状態の情報が表示されている。
ユーザは、GUIを通じてスライダSLD2の位置を調整することで、未来の指定時刻における群衆状態を画像ウィンドウW2に表示させることが可能である。具体的には、例えば、ユーザからのスライダSLD2操作を外部機器71,72が受け付けると、状態提示部16は、当該受け付けた操作情報を取得し、操作情報に基づき、スライダSLD2操作によって指定された時刻における状態パラメータの値を表す視覚的データを作成し、外部機器71,72の表示装置に表示させるようにする。図21に示す例では、指定時刻は10分後に設定されているので、画像ウィンドウW2には、10分後の状態が示されており、「PREDICTION」の文字タイトルが表示されている。すなわち、状態提示部16は、10分後の状態パラメータの値を表す視覚的データを作成し、表示させている。なお、画像ウィンドウW1,W2に表示される状態パラメータの種類および表示フォーマットは、互いに同じものである。
このように、状態提示部16が、パラメータ導出部13から出力された状態パラメータと、群衆状態予測部14から出力された未来の群衆状態の情報とに基づき、過去の群衆状態、現在の群衆状態および未来の群衆状態を表す視覚的データを生成し、外部機器71,72に表示させるようにしたので、ユーザは、外部機器71,72の表示装置に表示された情報を確認することで、現在の状態と、現在の状態が変化している様子とを直感的に理解することができる。
なお、図21では、画像ウィンドウW1と画像ウィンドウW2は、別ウィンドウとした例を示したが、これに限らず、画像ウィンドウW1,W2を統合して単一の画像ウィンドウを構成し、状態提示部16は、この単一の画像ウィンドウ内に、過去、現在または未来の状態パラメータの値を表す視覚的データを表示させるようにしてもよい。この場合、ユーザがスライダで指定時刻を切り替えることで、当該指定時刻における状態パラメータの値をユーザが確認できるように状態提示部16を構成することが望ましい。具体的には、例えば、ユーザからの時刻指定を外部機器71,72が受け付けると、状態提示部16は、当該受け付けた情報を取得し、指定時刻における状態パラメータの値を表す視覚的データを作成し、外部機器71,72の表示装置に表示させるようにする。
図16のフローチャートに戻る。
計画提示部17は、ステップST1605において警備計画導出部15から出力された警備計画案の情報を取得し、取得した情報を、ユーザに分かり易いフォーマットで表す視覚的データまたは音響的データを生成する(ステップST1607)。なお、ユーザに分かり易いフォーマットで表わす視覚的データとは、例えば、映像および文字情報であり、ユーザに分かり易いフォーマットで表わす音響的データとは、例えば、音声情報である。
また、計画提示部17は、生成した視覚的データまたは音響的データを外部機器73,74に送信し、映像、あるいは、音声として出力させる。
外部機器73,74は、計画提示部17から出力された視覚的データまたは音響的データを受信し、映像、文字、および、音声として、出力部(図示省略)から出力する。出力部とは、例えば、ディスプレイ等の表示装置、あるいは、スピーカ等の音声出力装置等である。
警備計画の提示方法としては、例えば、全ユーザに対して同じ内容の警備計画を提示する方法、特定の対象エリアのユーザに対して対象エリア個別の警備計画を提示する方法、または、個人ごとに個別の警備計画を提示する方法をとることができる。
すなわち、計画提示部17は、取得した警備計画案の情報を、全外部機器73,74にそのまま出力させるようにしてもよいし、例えば、外部機器73,74ごとに出力対象とする警備計画案の種類を予め設定しておき、計画提示部17は、当該予め設定された種類に基づき、取得した警備計画案の情報を出力させる外部機器73,74を制御するようにしてもよい。また、例えば、外部機器73,74を所有するユーザIDと、当該ユーザに提供する警備計画を予め設定しておき、計画提示部17は、当該予め設定された情報に基づき、取得した警備計画案の情報を出力させる外部機器73,74を制御するようにしてもよい。
なお、計画提示部17は、警備計画案を表わす視覚的データ等を外部機器73,74に出力させる際は、ユーザが提示されたことを即時に認識することができるように、例えば、外部機器73,74から音を出力させる、あるいは、外部機器73,74が携帯端末等持ち運び可能な機器であれば、振動させることにより、能動的にユーザに通知し得る音響的データ等をあわせて生成することが望ましい。
以上のように、群集監視装置10は、センサ401,402,・・・,40pとしての撮像装置から取得した映像データに基づいて予測した状態に基づき、過去、現在および未来の群衆状態を示す情報と適切な警備計画とを警備支援に有用な情報として外部機器70に出力させる。
なお、以上の説明では、警備計画導出部15が、警備計画案を導出するものとしたが、これに限らず、例えば、状態提示部16が、外部機器71,72に出力させた、過去の群衆状態、現在の群衆状態および未来の群衆状態を表す視覚的データまたは音響的データを、ユーザである警備計画担当者が確認できる場合には、警備計画担当者が、外部機器71,72に出力されている情報に基づき、警備計画案を自ら作成することも可能である。
また、以上の説明では、ステップST1601、ステップST1602の順で処理を行うものとしたが、これに限らず、ステップST1601とステップST1602の処理は逆の順番で行っても、同時に行うものとしてもよい。
また、以上の説明では、ステップST1604、ステップST1605の順で処理を行うものとしたが、これに限らず、ステップST1604とステップST1605の処理は逆の順番で行っても、同時に行うものとしてもよい。
また、以上の説明では、ステップST1606、ステップST1607の順で処理を行うものとしたが、これに限らず、ステップST1606とステップST1607の処理は逆の順番で行っても、同時に行うものとしてもよい。
図22A,図22Bは、この発明の実施の形態1に係る群集監視装置10のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、パラメータ導出部13と、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17の各機能は、処理回路2201により実現される。すなわち、群集監視装置10は、受信したセンサデータと公開データとに基づき、対象エリアの群衆の状態を予測し、予測した状態を出力させるデータ、あるいは、予測した状態に基づく警備計画のデータの作成の制御を行うための処理回路2201を備える。
処理回路2201は、図22Aに示すように専用のハードウェアであっても、図22Bに示すようにメモリ2204に格納されるプログラムを実行するCPU(Central Processing Unit)2206であってもよい。
処理回路2201が専用のハードウェアである場合、処理回路2201は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路2201がCPU2205の場合、パラメータ導出部13と、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、パラメータ導出部13と、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17は、HDD(Hard Disk Drive)2202、メモリ2204等に記憶されたプログラムを実行するCPU2205、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD2202、メモリ2204等に記憶されたプログラムは、パラメータ導出部13と、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ2204とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、パラメータ導出部13と、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、パラメータ導出部13については専用のハードウェアとしての処理回路2201でその機能を実現し、群衆状態予測部14と、警備計画導出部15と、状態提示部16と、計画提示部17については処理回路がメモリ2204に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
公開データ受信部12、センサデータ受信部11は、センサ401,402,・・・,40p、サーバ装置501,502,・・・,50n等の外部機器との通信を行う入力インタフェース装置2203である。
図23A,図23Bは、この発明の実施の形態1の画像処理装置20のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、画像解析部21と記述子生成部22の各機能は、処理回路2301により実現される。すなわち、画像処理装置20は、撮像装置が撮像した画像データを取得し、当該画像データを解析して記述子を生成する作成制御を行うための処理回路2301を備える。
処理回路2301は、図23Aに示すように専用のハードウェアであっても、図23Bに示すようにメモリ2303に格納されるプログラムを実行するCPU(Central Processing Unit)2306であってもよい。
処理回路2301が専用のハードウェアである場合、処理回路2301は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路2301がCPU2304の場合、画像解析部21と記述子生成部22の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、画像解析部21と記述子生成部22は、HDD(Hard Disk Drive)2302、メモリ2303等に記憶されたプログラムを実行するCPU2304、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD2302、メモリ2303等に記憶されたプログラムは、画像解析部21と記述子生成部22の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ2204とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、画像解析部21と記述子生成部22の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像解析部21については専用のハードウェアとしての処理回路2301でその機能を実現し、記述子生成部22については処理回路がメモリ2303に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、画像処理装置20は、撮像画像を受け付ける入力インタフェース装置と、記述子の情報を出力する出力インタフェース装置を備える。
なお、この実施の形態1の警備支援システム1において、パラメータ導出部13、群衆状態予測部14、警備計画導出部15、状態提示部16、および、計画提示部17は、図4に示したように単一の群集監視装置10内に包含されているものとしたが、これに限定されるものではない。パラメータ導出部13、群衆状態予測部14、警備計画導出部15、状態提示部16、および、計画提示部17を複数の装置内に分散配置することで警備支援システムを構成してもよい。この場合、これら複数の機能ブロックは、有線LANもしくは無線LANなどの構内通信網、拠点間を結ぶ専用回線網、またはインターネットなどの広域通信網を通じて相互に接続されていればよい。
また、この実施の形態1の警備支援システム1では、センサ401,402,・・・,40pのセンシング範囲の位置情報が重要である。例えば、群衆状態予測部14に入力される流量などの状態パラメータは、どの位置に基づいて取得されたものであるかが重要である。また、状態提示部16において、図20A,図20Bおよび図21に示したような地図上へのマッピングを行う場合も、状態パラメータの位置情報が必須となる。
また、この実施の形態1の警備支援システム1は、大規模イベントの開催に応じて一時的且つ短期間のうちに構成する場合が想定される。この場合、大量のセンサ401,402,・・・,40pを短期間のうちに設置し、かつ、センシング範囲の位置情報を取得する必要がある。よって、センシング範囲の位置情報は容易に取得されることが望ましい。
センシング範囲の位置情報を容易に取得する手段としては、画像処理装置20が生成し、データ伝送部102を介して送信される空間的および地理的な記述子を用いることが可能である。光学カメラまたはステレオカメラなどの、映像を取得できるセンサの場合、当該センサに搭載された画像処理装置20が生成した空間的および地理的な記述子を用いることで、センシング結果が地図上のどの位置に対応するかを容易に導出することが可能となる。例えば、図15に示したパラメータ「GNSSInfoDescriptor」により、あるカメラの取得映像のうち、同一仮想平面に属する最低4点の空間的位置と地理的位置との関係が既知となった場合、射影変換を実行することで、当該仮想平面の各位置が地図上のどの位置に対応するかを導出することが可能となる。
以上のように、この実施の形態1によれば、人の流れの履歴を事前にデータベース化しておく必要なく、単数または複数の対象エリア内に分散配置されたセンサ401,402,・・・,40pから取得された記述子データを含むセンサデータに基づき、当該対象エリア内の群衆状態を容易に把握および予測することができる。
また、把握または予測された状態に基づき、ユーザに理解しやすい形態に加工された、過去、現在および未来の群衆状態を示す情報と適切な警備計画とを導出し、これら情報および警備計画を警備支援に有用な情報として、ユーザである警備担当者、あるいは、群衆に提示することができる。
実施の形態2.
実施の形態1では、画像処理装置20は、センサ401,402,・・・,40pに搭載されるものとした。すなわち、画像処理装置20は、群集監視装置10の外部に備えられるものとした。
この実施の形態2では、群集監視装置10aが画像処理装置20を備える実施の形態について説明する。
なお、この実施の形態2においても、実施の形態1と同様、一例として、群集監視装置10aが警備支援システム1に適用されるものとする。
また、この実施の形態2の警備支援システム1においても、実施の形態1と同様、例えば、群集監視装置10aが、センサ401,402,・・・,40pとしての撮像装置から取得した映像データに基づいて予測した群衆状態に基づき、過去、現在および未来の群衆状態を示す情報と適切な警備計画とを警備支援に有用な情報としてユーザに提示するものとする。
この実施の形態2に係る群集監視装置10aを備えた警備支援システム1の構成は、実施の形態1において、図1を用いて説明した構成と同様であるため、重複した説明を省略する。この実施の形態2の警備支援システム1の構成は、群集監視装置10が群集監視装置10aに置き換わった点が異なるのみである。
図24は、この発明の実施の形態2に係る群集監視装置10aの構成図である。
図24に示す群集監視装置10aは、実施の形態1において図4を用いて説明した群集監視装置10とは、画像処理装置20を搭載するようにした点と、センサデータ受信部11aの動作が異なるのみであり、その他の構成は、実施の形態1の群集監視装置10と同様であるため、同様の構成には同じ符号を付して重複した説明を省略する。
センサデータ受信部11aは、実施の形態1のセンサデータ受信部11と同様の機能を有することに加え、センサ401,402,・・・,40pから送信されたセンサデータのうち撮像画像を含むセンサデータがあった場合には、当該撮像画像を抽出して画像処理装置20の画像解析部21に出力する。
ここでは、センサ401,402,・・・,40pは、一例として撮像装置であるものとしたが、実施の形態1において説明したとおり、センサ401,402,・・・,40pは、例えば、光学カメラ、レーザ測距センサ、超音波測距センサ、集音マイク、サーモカメラ、暗視カメラ、ステレオカメラ、測位計、加速度センサ、バイタルセンサ等、様々な種類のセンサを使用することができる。そこで、この実施の形態2では、センサデータ受信部11aは、撮像装置と撮像装置以外のセンサを含む様々な種類のセンサからセンサデータを取得した場合に、撮像装置から送信されたセンサデータを特定し、撮像画像を画像解析部21に出力する機能を有する。
この実施の形態2に係る群集監視装置10aの公開データ受信部12、パラメータ導出部13、群衆状態予測部14、警備計画導出部15、状態提示部16、計画提示部17の動作は、実施の形態1で説明した群集監視装置10の公開データ受信部12、パラメータ導出部13、群衆状態予測部14、警備計画導出部15、状態提示部16、計画提示部17の動作と同様であるため、重複した説明を省略する。
群集監視装置10aが搭載する画像処理装置20の構成は、実施の形態1において図2、図3を用いて説明した構成と同様であるため、重複した説明を省略する。
画像処理装置20の動作は、実施の形態1で説明した画像処理装置20の動作と同様である。すなわち、この実施の形態2では、画像解析部21は、センサデータ受信部11aから撮像画像を取得して撮像画像の解析を行い、記述子生成部22は、空間的な記述子および地理的な記述子、ならびに、MPEG規格による既知の記述子を生成し、これら記述子を示す記述子データ(図24においてDsrで示す)をパラメータ導出部13に出力する。パラメータ導出部13は、画像処理装置20の記述子生成部22で生成された記述子データに基づいて状態パラメータを生成する。
この実施の形態2に係る群集監視装置10aのハードウェア構成は、実施の形態1において図22A,図22Bで説明した構成と同様であるため、重複した説明を省略する。なお、センサデータ受信部11aは、パラメータ導出部13、群衆状態予測部14、警備計画導出部15、状態提示部16、計画提示部17と同様のハードウェア構成を有する。
この実施の形態2の画像処理装置20のハードウェア構成は、実施の形態1において図23A,図23Bで説明した構成と同様であるため、重複した説明を省略する。
以上のように、この実施の形態2によれば、実施の形態1同様、人の流れの履歴を事前にデータベース化しておく必要なく、単数または複数の対象エリア内に分散配置されたセンサ401,402,・・・,40pから取得された記述子データを含むセンサデータ、および、通信ネットワークNW2上のサーバ装置501,502,・・・,50nから取得された公開データに基づき、当該対象エリア内の群衆状態を容易に把握および予測することができる。
また、把握または予測された群衆状態に基づき、ユーザに理解しやすい形態に加工された、過去、現在および未来の群衆状態を示す情報と適切な警備計画とを導出し、これら情報および警備計画を警備支援に有用な情報として、ユーザである警備担当者、あるいは、群衆に提示することができる。
実施の形態3.
実施の形態1では、状態予測部14の時間群衆状態予測部142が「流量」を予測する方法の一例として、時間群衆状態予測部142は、移動元の対象エリアの群衆の流量をもとに群衆挙動モデルを仮定して、未来の移動先の対象エリアの流量を算出する方法を説明した(図18等参照)。
この実施の形態3では、時間群衆状態予測部142が未来の流量を算出する別の方法について説明する。
この実施の形態3に係る群集監視装置10を備えた警備支援システム1、群集監視装置10、および、群集監視装置10のハードウェアの構成は、それぞれ、実施の形態1において、図1、図4、図22を用いて説明した構成と同様であるため、重複した説明を省略する。
また、この実施の形態3に係る群集監視装置10のセンサデータ受信部11、公開データ受信部12、群衆状態予測部14、警備計画導出部15、状態提示部16、計画提示部17の動作は、実施の形態1で説明した群集監視装置10のセンサデータ受信部11、公開データ受信部12、群衆状態予測部14、警備計画導出部15、状態提示部16、計画提示部17の動作と同様であるため、重複した説明を省略する。
この実施の形態3では、パラメータ導出部13の時間群衆状態予測部142が、実施の形態1で説明した「流量」の予測方法とは別の方法で「流量」を予測する例を示すのみであるので、実施の形態1で例示したものとは異なる、時間群衆状態予測部142の動作の一例についてのみ説明する。
この実施の形態3において、パラメータ導出部13は、センサ401,402,・・・,40pで検出された群衆の状態特徴量を示す状態パラメータとして「流量」を導出する場合(実施の形態1における図16のステップST1603参照)に、センサ401,402,・・・,40pの対象エリア内に存在する群衆領域に対し抽出された「群衆行動の種類」が、「一方向流」または「対向流」であった場合に、群衆の「流量」を精度よく高速に算出する。
図25は、実施の形態3において、時間群衆状態予測部142が、「群衆行動の種類」は「対向流」として検知した群衆の移動方向を2方向とする一例を説明する図である。
この実施の形態3において、対向する移動方向を、それぞれ、「IN」「OUT」というものとする。なお、どちらを「IN」、あるいは、「OUT」としてもよい。図25においては、センサとしての撮像装置から遠ざかる方向へ、すなわち、図25上、右側へ移動する群衆の移動方向を「IN」としている。
図25を用いて、「対向流」として検知された群衆の例えば「IN」方向の流量を算出する方法について説明する。
「流量」は実施の形態1で定義したように所定の領域を通過した人数から算出される。
一般的に、ある空間内での群衆の密度がある一定以上になる混雑状況下においては、一人一人の自由歩行が制限され、前の人を追い越せなくなるため空間内での密度が均一になることが知られている。この実施の形態3では、時間群衆状態予測部142は、この性質を使うことにより「対向流」として検知された群衆領域の一部の領域に対する通過人数を算出することで「対向流」として検知された領域全体の通過人数を精度よく推定することが可能である。
時間群衆状態予測部142は、図26に示すように、通過人数を算出する領域を、流量算出領域(図26のx)として設定する。流量算出領域は、地面上に設定された矩形の領域である。当該矩形の長手方向の直線は、例えば「IN」方向として検知された群衆領域の重心(図26のG)を通る、群衆の移動方向の直線と直交する。
以下、この実施の形態3において、時間群衆状態予測部142が「流量」を算出する具体的な方法について説明する。
撮像画像内の流量算出領域の「IN」方向の流量を算出する方法としては、流量算出領域内の各画素に対しオプティカルフローを算出し、流量算出領域内の所定ラインを「IN」方向に移動したフローを持つ画素数を「IN」方向に移動した人物の領域を意味する画素数としてカウントする。
図27は、実施の形態3において、撮像画像内における流量算出領域と、流量算出領域内の所定ラインのイメージの一例を示す図である。
図28は、実施の形態3において、所定ラインを「IN」方向に移動したフローを持つものとしてカウントされた画素数と群衆の密度との関係の一例を説明する図である。
例えば、図29Aに示すように、群衆の密度が低い場合には、撮像画像内で人物同士の重なりがない状態で撮像されるため、カウントされた画素数と密度は、図28の区間(a)で示すように、ほぼ比例した関係となる。なお、撮像画像内の人物同士の重なりを、オクルージョンという。
一方、群衆の密度の増加に伴い、図29Bに示すように、撮像画像内での人物同士の重なりが発生するため、カウントされた画素数の変化率は減少していき、やがて0になる。さらに密度の増加に伴い群衆の移動速度が低下していくため、カウントされた画素数の変化率は負値となる。(図28の(b)参照)
そこで、時間群衆状態予測部142は、あるフレーム間において、流量算出領域内の所定ラインを「IN」方向に跨いで移動したフローを持つ画素の数を、オクルージョンを考慮した人物一人あたりの画素数で割った値を計算することで、当該フレーム間に「IN」方向に移動した人数を算出し、他に時間あたりに「IN」方向に移動した人数、すなわち「IN」方向への群集流量とする。ここでオクルージョンを考慮した群集一人当たりの画素数は、オクルージョンがないと仮定したときの人物一人あたりの画素数にオクルージョンを考慮した係数をかけることで算出する。
図30に、カウントされた画素数を一人あたりの画素数で割った値、すなわち、オクルージョンがないと仮定したときの「IN」方向に移動した人数と「IN」方向の流量の関係の一例を示す。
図30において、aは、カウントされた画素数を一人あたりの画素数で割った値、bは、流量を示している。
なお、時間群衆状態予測部142は、「OUT」方向の流量についても同様に算出することができる。また、時間群衆状態予測部142は、「対向流」として検知された群衆の移動方向が3方向以上の場合でも各方向に対して上記手法を適用することで、方向別に流量を算出することができる。
また、この実施の形態3では、時間群衆状態予測部142は、「対向流」として検知された群衆の移動方向別の「流量」の算出方法を説明したが、「一方向流」に対しても同様の手法で算出することができる。
以下、時間群衆状態予測部142が「流量」を算出する具体的な計算手段の例について示す。
図31は、映像フレーム1枚につき実行される群集流量算出処理の処理フローである。
まず、時間群衆状態予測部142は、入力された画像を補正する(ステップST1)。この補正には、処理対象領域のみを切り出す処理、後段のオプティカルフロー推定の処理を高精度に実施するための画像の輝度値・コントラスト等の補正、画像の射影歪を解消する射影変換、またはその他の歪を解消する幾何変換等を含む。
次に、時間群衆状態予測部142は、直前の映像フレームと処理対象の映像フレームを用いて2枚のフレーム間での画像内オブジェクトの移動を意味するオプティカルフローを導出する(ステップST2)。オプティカルフローは画素単位に取得する。またオプティカルフローは、予め流量解析位置として設定した所定ラインの周辺のみを取得すれば良い。
なお画素単位に取得されたオプティカルフローは、群集を示す前景領域と、その領域の移動量を意味する。よって本ステップの処理は、背景差分やフレーム間差分等の処理に基づく前景抽出手法と、当該前景領域の移動量を任意の動き推定手法で求める処理に置き換えてもよい。また動き推定手法としては、画像を用いて解析する手法ではなくともよい。例えば入力画像がMPEG−2、H.264/AVCおよびHEVC等のハイブリッド符号化方式で圧縮されていた場合、その圧縮ストリームに含まれる動きベクトル情報をそのまま、または加工して用いることで動き推定を行っても良い。以降はオプティカルフローにより画素単位のフローを導出する処理を用いた前提で説明する。
次に、時間群衆状態予測部142は、所定ラインを跨ぐフローを持つ画素をカウントする(ステップST3)。「IN」方向に跨ぐ画素数PnIN、および「OUT」方向に跨ぐ画素数PnOUTそれぞれ個別にカウントする。
次に、時間群衆状態予測部142は、所定ライン周辺の所定ラインを跨ぐフローを持たない画素数PnGを導出する(ステップST4)。前記所定ラインを跨ぐフローを持つ画素は人物領域の画素を意味し、所定ラインを跨ぐフローを持たない画素は背景領域の画素を意味する。所定ラインを跨いだフロー(「IN」方向および「OUT」方向)の、所定ラインに直交する成分のノルム長平均がN[pixel]であり、所定ラインの長さがL[pixel]であった場合、
Figure 0006261815
で計算できる。
次に、時間群衆状態予測部142は、群集密度D[人/m]を、PnIN、nOUT、PnGから計算される、所定ライン近傍領域における人物領域の割合O[%]から推定する(ステップST5)。O[%]は以下の式で計算される。
Figure 0006261815
この際、PnIN、nOUT、PnGの値は過去複数フレームで取得したものを記録しておき、それぞれの累計からO[%]を求めることでより安定かつ高精度な群集密度Dを推定してもよい。OとDの関係式は予め取得しておく。OとDの関係式については後述する。
次に、時間群衆状態予測部142は、群集密度D[人/m]とスケール情報S[pixel/m]から人物一人あたりの画素数PPEDを導出する(ステップST6)。DとPPEDの関係式は予め取得しておく。DとSとPPEDの関係式については後述する。
最後に、時間群衆状態予測部142は、PnIN、nOUTをPPEDで除することで当該フレームにおける所定ラインの通過人数を「IN」方向、「OUT」方向別に導出する(ステップST7)。時間群衆状態予測部142は、フレーム間の経過時間の情報から、単位時間あたりの通過人数、すなわち群集流量のパラメータを取得する。
以上の処理により、所定ラインを通過する群集の流量を「IN」「OUT」方向別に取得することが可能となる。
以下、前記OとDの関係式について詳細に説明する。
群集の密度が高くなるほど、群集の後方に位置する背景領域が見える割合は少なくなる。よってO、すなわちある領域における前景領域が占める割合は、群集密度Dが高くなるほど大きくなることが予想される。
ただし群集がカメラ映像においてどのように映るかは、群集一人ひとりの形状・寸法、カメラの俯角、および群集がカメラに対してどのように配置されているかによって異なるため、これらの情報を予め特定する必要がある。
それぞれの情報は、以下のように定義する。
まず群集一人ひとりの形状・寸法は、人物の平均的なモデルを用いる。これはたとえば、成人の平均身長hと平均の最大半径rから、高さh、半径rの円柱形として定義してもよいし、またはそれ以外の簡易な形状で近似的に表現してもよい。またはより厳密に平均的な寸法の人物の3Dモデルを用いてもよい。また群集の形状、寸法は対象となる群集の国籍・年齢層や観測時の天候・気候に対応した服装の変化などにより異なることが考えられるため、複数のモデルを持ったり、またはモデルの寸法・形状を変化させるパラメータを変更できるようにしたりし、状況に応じてモデルの選択や調整を行ってもよい。
カメラの俯角θは、固定カメラの場合、設置時に予め測定した値を用いることができる。または撮影した映像を解析することで導出してもよい。後者の場合は移動カメラの場合でも適応可能という利点がある。
群集のカメラに対する配置のされ方について、群集同士の位置関係は様々なパターンが存在しうるため、所定のモデルを用いる。
例えば、群集の位置関係のモデルとして、図32に示すように人物が格子状に並んでいる状態を想定する。人物は上記の通り定めた形状・寸法を持つものとし、この例では高さh[m]、半径r[m]の円柱として近似している。また図32は、格子状に並んだ4人の人物を俯角θの位置のカメラから、格子をカメラ光軸方向からωだけ傾けた状態で見ている図とする。この場合、群集密度D[人/m]に対して、縦または横方向に並ぶ人物の中心間の距離はd[m]と置くと、Dとdは以下の関係にある。
Figure 0006261815
またある一人に対して最近傍となる領域は、当該人物を中心としたd×dの正方領域であり、この領域を人物一人あたりの領域Rとする。
以上のとおり定義したうえで、Oを、本格子状モデルにおいて、カメラから奥側に存在する、人物一人あたりの領域Rの面積に対する、R内の前景領域R(R内の黒で表される領域)の面積とする。また、図33、図34を比較してわかるように、この格子状モデルのカメラ光軸方向に対する傾きωによって、前景領域Rの見え方、面積が変動するため、様々なωに対してOを計算しその平均を取ったものの百分率表現を最終的なOとすることが望ましい。
このモデルにより、密度Dとカメラ俯角θに対してOは一意に定まる。カメラ俯角θ別に密度Dと前景領域面積比Oの関係を求めることで、与えられたカメラ俯角θと計算されたOから群集密度Dを推定することが可能となる。
次に、前記DとPPEDの関係式について詳細に説明する。
スケール情報Sを一定とした場合、群集の密度が高くなるほど、群集内のある人物の一人あたり画素数PPEDは小さくなる。これは、密度が高くなるほど群集間の距離が小さくなり、カメラ奥側の人物がその手前の人物に隠される割合が高くなるためである。
DとPPEDの関係式を求める場合においても、前記OとDの関係式を求める場合と同様、群集一人ひとりの形状・寸法、カメラの俯角、単位長さの物体のカメラ映像内における画素数(スケール情報)、および群集のカメラに対してする配置状態の情報が必要になる。これらの情報は前記OとDの関係式を求める際に用いた定義と同様とする。
またこれらの情報に加えて、前記の通り、カメラ映像内の1画素が対応する物理量としての長さを示すスケール情報が必要となる。
スケール情報は、人物のカメラからの距離、カメラの画角、カメラの解像度、カメラのレンズ歪などに応じて、人物がカメラ映像内のどの位置に映っているかによって変動する。スケール情報は、実施の形態1にて示した手段で導出してもよいし、カメラのレンズ歪を意味する内部パラメータと、カメラと周辺地形の距離や位置関係を意味する外部パラメータを測定することで導出してもよい。また図35に示すように計測対象領域の路面を平面で近似するためのパラメータをユーザが手動で指定することで求めてもよい。図の例では、画像座標と物理座標のセットPoint1〜4を指定しており、この4点を用いた射影変換を行うことで画像内の任意の座標を、当該4点が通る平面上の物理座標に置き換えることが可能となる。または、映像内に映っている人物または物理寸法が既知なオブジェクトを検出し、そのオブジェクトの映像内における画素数からスケール情報を自動で推定してもよい。または、カメラから遠方のオブジェクトほど、映像内での時間あたりの移動量が小さくなることから、一様な速度を持つと仮定した複数の映像内オブジェクトのフローの大小関係から、それらのオブジェクトのカメラからの距離を推定し、スケール情報の推定を行ってもよい。仮定した一様な速度が既知である場合は絶対的なスケール情報が推定可能であり、既知でない場合はオブジェクトごとの相対的なスケール情報が推定可能となる。高密度の群集は、広範囲にわたって移動速度が一定になる特徴があるため、この集団によって高精度にスケール情報を推定することができる。
このモデルにおいて、図36に示すように、カメラ映像奥側の、手前の人物に隠蔽される人物領域(図35の網掛領域)をRFOとした場合、例えばスケール情報SがS[m/pixel]の場合におけるRFOの画素数をRPEDとする。またこの格子状モデルのカメラ光軸方向に対する傾きωによって、RFOの見え方、面積が変動するため、様々なωに対してRPEDを計算しその平均を取ったものを最終的なRPEDとすることが望ましい。
このモデルにより、密度Dとカメラ俯角θに対してRPEDは一意に定まる。カメラ俯角θ別に密度DとRPEDの関係を求めることで、与えられたカメラ俯角θと推定されたDからオクルージョンを考慮した人物一人あたりの画素数RPED[pixel]を導出することが可能となる。またこのRPEDはスケール情報がSの場合であるため、実際のスケール情報SとSの比を用いてRPEDを補正することで流量を計算する。
以上のように、この実施の形態3によれば、パラメータ導出部13は、群衆の「流量」を精度よく高速に算出することができる。
以上の実施の形態1〜3で説明した画像処理装置20では、記述子生成部22は、空間的または地理的な記述子を生成後、当該記述子の情報を、出力インタフェース装置を介して、例えば、データ伝送部102、あるいは、パラメータ導出部13等、外部機器へ出力するようにしていたが、これに限らず、画像処理装置20は、記述子生成部22が生成した記述子の情報を蓄積しておくようにすることもできる。
図37は、画像処理装置20が、記述子の情報を蓄積しておくことを可能とした構成の一例を説明する図である。
図37に示すように、画像処理装置20aは、実施の形態1において図2を用いて説明した構成に加え、データ記録制御部31と、ストレージ32と、DB(Data Base)インタフェース部33とをさらに備える。
データ記録制御部31は、入力インタフェース装置を介して撮像装置としてのセンサから取得した画像データと、記述子生成部22が生成した記述子データとを互いに関連付けてストレージ32に格納させる。
ストレージ32は、画像データと記述子データとを関連付けて格納する。
ストレージ32としては、例えば、HDDまたはフラッシュメモリなどの大容量記録媒体を使用すればよい。
また、ストレージ32は、画像データが蓄積される第1のデータ記録部321と、記述子データが蓄積される第2のデータ記録部322とを有する。なお、図37では、第1のデータ記録部321と第2のデータ記録部322とは同一ストレージ32内に設けられているが、これに限定されるものではなく、異なるストレージにそれぞれ分散して設けられてもよい。
また、図37において、ストレージ32は、画像処理装置20aが備えるものとしたが、これに限定されるものではない。例えば、ストレージ32を、通信ネットワーク上に配置された単数または複数のネットワーク・ストレージ装置とし、データ記録制御部31は、外部のネットワーク・ストレージ装置にアクセスし、画像データと記述子データとを蓄積させるようにしてもよい。
DBインタフェース部33は、ストレージ32内のデータベースにアクセスする。
画像処理装置20aは、DBインタフェース部33がストレージ32にアクセスして取得した記述子の情報を、出力インタフェースを介して、例えば、データ伝送部102、あるいは、パラメータ導出部13等の外部機器へ出力する。
なお、以上の実施の形態1〜3の警備支援システム1では、群衆というオブジェクト群をセンシング対象とするように構成されているが、これに限定されるものではない。例えば、野生動物もしくは昆虫等の生命体、または車両等、人体以外の移動体の群れをセンシング対象のオブジェクト群とするようにすることもできる。
また、以上の実施の形態1〜3では、一例として、群集監視装置10が適用される群衆監視システムとして、警備支援システム1を例にあげ、群集監視装置10は、センサ401,402,・・・,40pから取得したセンサデータに基づいて予測した状態に基づき、群衆の状態を示す情報と適切な警備計画とを、警備支援に有用な情報としてユーザに提示するものとしたが、群集監視装置10が適用される群衆監視システムは、警備支援システム1に限定されるものではない。
例えば、群集監視装置10は、駅利用者数をリサーチするシステムに適用され、駅構内に設置されたセンサからセンサデータを取得し、駅を利用する人の状態を予測し、当該予測した状態に関する情報を提供するものであってもよく、群集監視装置10は、センサデータ群に基づき、移動体の状態を監視、予測するあらゆる場面において利用可能である。
また、実施の形態1において、群集監視装置10は、図4で示すような構成としたが、群集監視装置10,10aは、パラメータ導出部13と、群衆状態予測部14とを備えることにより、上述したような効果が得られるものである。
また、実施の形態2において、群集監視装置10aは、図24で示すような構成としたが、群集監視装置10aは、オブジェクト検出部2101と、スケール推定部2102と、パラメータ導出部13と、群衆状態予測部14とを備えることにより、上述したような効果が得られるものである。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る群集監視装置は、混雑度、あるいは、群集の流れが予め把握できない環境において、混雑度、あるいは、群集の流れを推定することを可能とするように構成したため、群集の流れを予測する群集監視装置、および、群衆監視システム等に適用することができる。
1 警備支援システム、10,10a 群集監視装置、11,11a センサデータ受信部、12 公開データ受信部、13 パラメータ導出部、14 群衆状態予測部、15 警備計画導出部、16 状態提示部、17 計画提示部、20 画像処理装置、21 画像解析部、22 記述子生成部、31 データ記録制御部、32 ストレージ、33 DBインタフェース部、70〜74 外部機器、101 撮像部、102 データ伝送部、131〜13R 群衆パラメータ導出部、141 空間群衆状態予測部、142 時間群衆状態予測部、211 画像認識部、212 パターン記憶部、213 復号部、321 第1のデータ記録部、322 第2のデータ記録部、2101 オブジェクト検出部、2102 スケール推定部、2103 パターン検出部、2104 パターン解析部、2201,2301 処理回路、2202,2302 HDD、2203 入力インタフェース装置、2204,2303 メモリ、2205,2304 CPU。

Claims (3)

  1. センサにて取得されたデータと、前記センサで検出された、前記データに現れるオブジェクト群を示す、実空間を基準とした空間的特徴量の情報を表す空間的な記述子とを互いに関連付け、かつ、多重化されたセンサデータに基づき、当該センサデータが示すオブジェクト群の状態特徴量を示す状態パラメータを導出するパラメータ導出部と、
    前記パラメータ導出部が導出した状態パラメータに基づき、前記センサが設置されていないエリアのオブジェクト群の状態を予測した空間予測データを作成する空間群集状態予測部
    とを備えた群集監視装置。
  2. センサにて取得されたデータと、前記センサで検出された、前記データに現れるオブジェクト群を示す、実空間を基準とした空間的特徴量の情報を表す空間的な記述子とを互いに関連付け、かつ、多重化されたセンサデータに基づき、当該センサデータが示すオブジェクト群の状態特徴量を示す状態パラメータを導出するパラメータ導出部と、
    前記パラメータ導出部が導出した状態パラメータに基づき、前記オブジェクト群の未来の状態を予測した時間予測データを作成する時間群集状態予測部
    とを備えた群集監視装置。
  3. 前記センサは撮像装置であり、
    前記センサにて取得されたデータは画像データであり、
    前記撮像装置は、収集した画像データが示す画像中のオブジェクト群を検出するオブジェクト検出部と、
    前記オブジェクト検出部が検出したオブジェクト群の、実空間を基準とした空間的特徴量を、スケール情報として推定するスケール推定部とを備え、
    前記パラメータ導出部が導出する状態パラメータは、前記スケール推定部が推定したスケール情報に基づき、前記オブジェクト検出部が検出したオブジェクト群の状態特徴量である
    ことを特徴とする請求項1または請求項2記載の群集監視装置。
JP2017516179A 2016-07-14 2016-07-14 群集監視装置、および、群集監視システム Expired - Fee Related JP6261815B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070840 WO2018011944A1 (ja) 2016-07-14 2016-07-14 群集監視装置、および、群集監視システム

Publications (2)

Publication Number Publication Date
JP6261815B1 true JP6261815B1 (ja) 2018-01-17
JPWO2018011944A1 JPWO2018011944A1 (ja) 2018-07-12

Family

ID=60951699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017516179A Expired - Fee Related JP6261815B1 (ja) 2016-07-14 2016-07-14 群集監視装置、および、群集監視システム

Country Status (5)

Country Link
US (1) US20190230320A1 (ja)
JP (1) JP6261815B1 (ja)
CN (1) CN109479117A (ja)
TW (1) TW201802764A (ja)
WO (1) WO2018011944A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978138B2 (en) 2021-06-01 2024-05-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium for estimating the size of a detection target

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11126863B2 (en) * 2018-06-08 2021-09-21 Southwest Airlines Co. Detection system
KR102263159B1 (ko) * 2019-07-30 2021-06-10 엘지전자 주식회사 로봇의 경로를 결정하는 인공 지능 서버 및 그 방법
CN111144377B (zh) * 2019-12-31 2023-05-16 北京理工大学 一种基于人群计数算法的密集区域预警方法
US20230093919A1 (en) * 2020-02-03 2023-03-30 Nec Corporation Flow-rate information output apparatus, control method, and non-transitory computer-readable medium
WO2021176997A1 (ja) * 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021157674A (ja) * 2020-03-29 2021-10-07 インターマン株式会社 混雑確認システム
CN111814648A (zh) * 2020-06-30 2020-10-23 北京百度网讯科技有限公司 一种站口拥堵情况确定方法、装置、设备及存储介质
KR102571915B1 (ko) * 2021-03-17 2023-08-29 주식회사 엔씨소프트 사운드 자동 할당 장치 및 방법
CN113128430B (zh) * 2021-04-25 2024-06-04 科大讯飞股份有限公司 人群聚集检测方法、装置、电子设备和存储介质
CN114139836B (zh) * 2022-01-29 2022-05-31 北京航空航天大学杭州创新研究院 基于重力学多层三维残差网络的城市od人流预测方法
JP2023137777A (ja) * 2022-03-18 2023-09-29 パナソニックIpマネジメント株式会社 検出システム、検出方法、及び、検出プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072598A (ja) * 2012-09-28 2014-04-21 Hitachi Kokusai Electric Inc 侵入者監視システム
JP2015049532A (ja) * 2013-08-29 2015-03-16 株式会社日立製作所 映像監視システム、映像監視方法、映像監視システム構築方法
JP2015222881A (ja) * 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
WO2016013298A1 (ja) * 2014-07-25 2016-01-28 日本電気株式会社 画像処理装置、監視システム、画像処理方法、及びプログラム
JP2016066312A (ja) * 2014-09-25 2016-04-28 綜合警備保障株式会社 警備システム及び警備方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633232B2 (en) * 2001-05-14 2003-10-14 Koninklijke Philips Electronics N.V. Method and apparatus for routing persons through one or more destinations based on a least-cost criterion
US9036902B2 (en) * 2007-01-29 2015-05-19 Intellivision Technologies Corporation Detector for chemical, biological and/or radiological attacks
TWI482123B (zh) * 2009-11-18 2015-04-21 Ind Tech Res Inst 多狀態目標物追蹤方法及系統
US20130101159A1 (en) * 2011-10-21 2013-04-25 Qualcomm Incorporated Image and video based pedestrian traffic estimation
JP5856456B2 (ja) * 2011-12-02 2016-02-09 株式会社日立製作所 人流予測装置および方法
CN103218816B (zh) * 2013-04-18 2016-05-04 中山大学 一种基于视频分析的人群密度估计方法与人流量统计方法
WO2016002400A1 (ja) * 2014-06-30 2016-01-07 日本電気株式会社 誘導処理装置及び誘導方法
US10325160B2 (en) * 2015-01-14 2019-06-18 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
CN104835147A (zh) * 2015-04-15 2015-08-12 中国科学院上海微***与信息技术研究所 基于三维深度图数据的密集人流量实时检测方法
GB2556701C (en) * 2015-09-15 2022-01-19 Mitsubishi Electric Corp Image processing apparatus, image processing system, and image processing method
EP3446552B1 (en) * 2016-04-22 2019-11-06 Signify Holding B.V. A crowd management system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072598A (ja) * 2012-09-28 2014-04-21 Hitachi Kokusai Electric Inc 侵入者監視システム
JP2015049532A (ja) * 2013-08-29 2015-03-16 株式会社日立製作所 映像監視システム、映像監視方法、映像監視システム構築方法
JP2015222881A (ja) * 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
WO2016013298A1 (ja) * 2014-07-25 2016-01-28 日本電気株式会社 画像処理装置、監視システム、画像処理方法、及びプログラム
JP2016066312A (ja) * 2014-09-25 2016-04-28 綜合警備保障株式会社 警備システム及び警備方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978138B2 (en) 2021-06-01 2024-05-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium for estimating the size of a detection target

Also Published As

Publication number Publication date
WO2018011944A1 (ja) 2018-01-18
CN109479117A (zh) 2019-03-15
US20190230320A1 (en) 2019-07-25
TW201802764A (zh) 2018-01-16
JPWO2018011944A1 (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
JP6261815B1 (ja) 群集監視装置、および、群集監視システム
JP6099833B1 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP7480823B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7307259B2 (ja) 三次元情報処理方法及び三次元情報処理装置
US11443555B2 (en) Scenario recreation through object detection and 3D visualization in a multi-sensor environment
US11740099B2 (en) Methods and systems for generating route data
JP7036863B2 (ja) ビデオデータを用いた活動モニタリングのためのシステム及び方法
CN107534789B (zh) 影像同步装置及影像同步方法
AU2014236959B2 (en) Determining object volume from mobile device images
CN103179350B (zh) 基于场景中的运动水平优化捕获场景的图像帧序列中的图像帧的曝光的相机和方法
KR20220028042A (ko) 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램
WO2013055980A1 (en) Method, system, and computer program product for obtaining images to enhance imagery coverage
US11290705B2 (en) Rendering augmented reality with occlusion
CN111221012A (zh) 用于基于周围环境改进的位置决策的方法和设备
Cho et al. Diml/cvl rgb-d dataset: 2m rgb-d images of natural indoor and outdoor scenes
US11055894B1 (en) Conversion of object-related traffic sensor information at roadways and intersections for virtual dynamic digital representation of objects
CN111652173B (zh) 一种适合综合商场内人流管控的采集方法
US20230316675A1 (en) Traveling in time and space continuum
WO2021036275A1 (zh) 多路视频同步的方法、***及设备
Liao et al. Incorporation of GPS and IP camera for people tracking
WO2019176922A1 (ja) 視聴支援装置、視聴支援方法及びプログラム
CN115953655A (zh) 一种目标分析方法及装置
CN116363598A (zh) 人群拥挤预警方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171212

R150 Certificate of patent or registration of utility model

Ref document number: 6261815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees