JP7208051B2 - 状態認識装置 - Google Patents

状態認識装置 Download PDF

Info

Publication number
JP7208051B2
JP7208051B2 JP2019024371A JP2019024371A JP7208051B2 JP 7208051 B2 JP7208051 B2 JP 7208051B2 JP 2019024371 A JP2019024371 A JP 2019024371A JP 2019024371 A JP2019024371 A JP 2019024371A JP 7208051 B2 JP7208051 B2 JP 7208051B2
Authority
JP
Japan
Prior art keywords
information
recognition
state recognition
measurement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019024371A
Other languages
English (en)
Other versions
JP2020135099A (ja
Inventor
聡 笹谷
亮祐 三木
誠也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019024371A priority Critical patent/JP7208051B2/ja
Priority to PCT/JP2019/039802 priority patent/WO2020166129A1/ja
Publication of JP2020135099A publication Critical patent/JP2020135099A/ja
Application granted granted Critical
Publication of JP7208051B2 publication Critical patent/JP7208051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、計測装置の出力に基づいて計測対象の状態を認識する状態認識装置、及び、状態認識方法に関する。
近年、監視カメラや距離センサ等の計測装置が取得した画像データや距離データ等の情報に基づいて、計測装置の計測範囲内の状態や計測対象(人物や車両等)の状態を認識する状態認識技術へのニーズが高まっている。例えば、人流や交通流などの異常状態(渋滞等)を検知する技術や、異常行動の人物や車両(倒れた人物、暴れる人物、故障車両等)を検出する技術などが挙げられる。
この種の状態認識技術では、計測範囲における大よその状態変化量などを検出するだけであれば処理リソースは少ないものの、高度なアルゴリズムを使用して人物や車両の詳細な行動などを認識する場合は多大な処理リソースを要するため、処理リソースを低減する施策が必要となる。そのため、通常は、広い計測範囲の一部を、状態認識を実行する認識エリアに予め設定しておくことで処理リソースを削減することが多い。
しかし、公共の場に設置された監視カメラで異常状態を認識する場合は、どのエリアで異常が発生するかが不明であるため、予め設定した認識エリアが適切でない場合もある。そこで、高度なアルゴリズムを使用する状態認識技術においては、実情に応じた認識エリアを決定する技術への期待が高い。
実情に応じた認識エリアの決定方法として、特許文献1に記載された方法がある。同文献では、計測対象は車両であり、車両の移動量などの時間変化情報を解析することで、異常状態が発生していると推測される認識エリアを特定できる。そして、認識エリアの特定後に高度な画像解析による状態認識処理を実行することで、処理リソースを抑えつつ異常状態や計測範囲内の車両や人物の状況などを詳細に認識でき、段階的なアラーム発報や誤発報の削減など高精度な異常検知を実現できる。
特開2002-190090号公報
しかしながら、特許文献1は、カメラの映像を解析して交通量の時間変化の緩急を検知することで交通流の異常が予想されるエリアを特定するものであるため、進行方向の自由度が低い車両に計測対象が限定されており、進行方向や行動が多様な人物を計測対象とする場合には、適切な認識エリアを設定することができないという問題がある。
そこで、本発明は、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報を元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる状態認識装置を提供することを目的とする。
前記目的を達成するため、本発明の状態認識装置は、計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部と、前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定する認識対象決定部と、該認識対象に対し状態認識処理を実行する状態認識部と、を有するものとした。
本発明の状態認識装置によれば、状態認識処理を実行する計測範囲や計測対象を事前に選定して、装置全体の処理リソースを削減しつつ、高度な状態認識処理を実行できる。
実施例1の状態認識装置の機能ブロック図 人流情報取得部の機能ブロック図 人物位置計測部での処理を説明する図 動線作成部での処理を説明する図 人流情報生成部での処理を説明する図 認識エリア候補選定部の機能ブロック図 人流情報比較部での処理を説明する図 人流相互作用抽出部の機能ブロック図 位置関係算出部での処理を説明する図 実施例2の状態認識装置の機能ブロック図
以下、本発明の状態認識装置の具体的な実施形態について、図面を参照しながら説明する。
まず、図1の機能ブロック図を用いて、本発明の実施例1に係る状態認識装置1の概要を説明する。本実施例では、接続する計測装置を単眼のカメラ2とし、計測対象を人物Hとした、状態認識装置1について説明するが、本発明の適用対象はこれらの計測装置、計測対象に限定されるものではなく、計測装置はステレオカメラや距離センサなどの他のセンサであっても良いし、計測対象は車両等であっても良い。なお、状態認識装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えた計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、後述する各機能を実現するが、以下では、このような周知技術を適宜省略しながら説明する。
状態認識装置1は、カメラ2が撮像した画像データPの計測範囲全体の人流情報Ihから相互作用情報Iiを抽出し、これに基づき、高度な状態認識処理を適応する狭い認識エリアAを予め決定した後、決定した認識エリアAに対して高度な状態認識処理を実行することで、処理リソースの軽減を図る装置である。なお、図1では、状態認識装置1とカメラ2を別体の構成としているが、カメラ2に状態認識装置1を組み込んで、両者を一体化した構成としてもよい。
図1に示すように、本実施例の状態認識装置1は、カメラ2が撮像した画像データPを解析することで人流情報Ihを取得する人流情報取得部3、人流情報取得部3より出力される人流情報Ihから人流の変化量などを算出して状態認識処理を実行する候補となる認識エリア候補Cを選定する認識エリア候補選定部4、人流情報取得部3により取得した人流情報Ihを元に、認識エリア候補選定部4により選択された認識エリア候補Cや認識エリア候補C内にいる人物Hとその他人物間の相互作用情報Iiを抽出する人流相互作用抽出部5、人流相互作用抽出部5により取得した相互作用情報Iiから認識エリアAを決定する認識エリア決定部6、決定された認識エリアAに対して状態認識処理を実行する状態認識部7、を備えている。以下、各部の詳細について説明する。
<人流情報取得部3>
図2に示す機能ブロック図を用いて、計測対象が人物である場合の動き情報である人流情報Ihを生成する人流情報取得部3(動き情報生成部)の詳細について説明する。ここに示すように、人流情報取得部3は、カメラ2から画像データPを取得する映像取得部31、取得した画像データPに対して画像解析などを実行することで人物Hの位置を計測する人物位置計測部32、計測した人物Hの位置情報から動線Lを作成する動線作成部33、人物位置計測部32と動線作成部33から取得した人物Hの位置情報と動線情報から人流情報Ihを生成する人流情報生成部34を備える。以下、人物位置計測部32、動線作成部33、人流情報生成部34の各部について順次説明する。
<人物位置計測部32>
まず、図3を用いて、人物位置計測部32について説明する。図3において、Pはカメラ2より取得した画像データ、Hは計測対象の人物、Fは人物Hを囲む矩形の人物領域、Bは画像座標上での人物Hの足元位置、Sは3次元空間、Bは3次元空間S上での人物Hの足元位置、Sは3次元空間S上のy=0の位置でのxz平面、Bはxz平面S上での人物Hの足元位置を示している。
人物位置計測部32では、まず、画像データPに対して、人物検出などの画像処理アルゴリズムを実行することで画像内の人物Hを検出する。人物検出の手法としては、人物Hの大量のサンプル画像を予め保存しておき、取得した映像中にサンプル画像と類似した部分が存在するか否かを検索するなどの周知の人物検出手法で良く、特に限定しない。また、人物全体を検出するのではなく、例えば顔検出など人物Hの一部の領域を画像中から検出できる手法でも良い。次に、人物検出により抽出した画像中の人物領域Fから画像座標上の人物Hの足元位置B(u,v)を決定する。決定方法としては、人物領域Fの外接矩形の最下部中央を足元位置とする方法や、顔検出により検出された人物Hの頭部領域の最頂点の画像座標(u’,v’)からv方向に一定値h加算した画像座標(u’,v’-h)を足元位置とする方法などがあり、特に限定しない。その後、画像データPにおける足元位置Bの画像座標(u,v)を3次元空間Sでの足元位置B(x,y,z)に変換し、y=0のxz平面S上での足元位置B(x,z)を人物Hの位置として計測する。足元位置B(u,v)から足元位置B(x,y,z)への変換は、内部パラメータ(焦点距離等)や外部パラメータ(設置位置や設置角度等)のカメラパラメータを用いる一般的な方法を活用する。なお、カメラパラメータの導出方法としては一般的なカメラキャリブレーションをしようすれば良く、予め画像座標に対応する世界座標を手動で与えることで、カメラパラメータを推定できる。
<動線作成部33>
図4は、動線作成部33により人物Hの動線Lを生成する処理フローを示している。動線作成部33では、人物位置計測部32によって計測した同一人物の位置28を結合することで動線Lを生成する。
例えば、人物Hが時刻Tよりt秒間カメラ2により撮像された場合、各時刻における人物Hの足元位置Bを同一のxz平面Sにプロットし繋ぎ合わせることで動線Lを生成することができる。なお、本例以外にも、ある時間帯での人物Hの位置情報と進行方向が把握可能な動線Lを生成できる手法であれば、上記の手法以外を用いてもよい。
<人流情報生成部34>
次に、図5を用いて、人流情報生成部34について説明する。人流情報生成部34は動線作成部33により作成した人物Ha、Hb、…、Hnごとの動線La、Lb、…、Lnを用いて、計測範囲内における人流情報Ihを生成する。
人流情報Ihの作成方法について具体的に述べる。まず、図5上段に示すように、計測範囲のxz平面Sを複数のエリア(例えば、4×4の16エリア)に分割する。そして、動線情報から各エリアにおける人物Hの移動方向を図5中段に示す8方向に分類し、最後に全ての人物Hにおける移動方向の統計を算出してエリア毎の人流方向D(各エリアで頻出する移動方向)を取得することで、図5下段に示す計測範囲の人流情報Ihを得る。この人流情報Ihにおいて、人流方向Dが存在しないエリアは人が通過していないエリアであることを示しており、人流情報Ihからは計測範囲内の人物Hの移動方向だけでなく、人物Hが通行しないエリアも把握することができる。なお、人流情報Ihの生成手法としては、本例以外にも大まかな人流情報Ihを把握できる手法であれば他の方法を用いてもよい。また、人流情報Ihとしては、人流方向だけでなく、各エリアを通過した人物Hの数を計数して、エリア毎の人流量などを追加しても良い。
<認識エリア候補選定部4>
図6は認識エリア候補選定部4の機能ブロック図である。認識エリア候補選定部4は、人流情報取得部3から取得した人流情報Ihを、人流情報履歴データベース42に保存する人流情報保存部41と、人流情報取得部3より取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdとを比較する人流情報比較部43と、人流情報比較部43の比較結果から人流の変化量がある領域を認識エリア候補Cとして出力する認識エリア候補出力部44を備える。以下、人流情報比較部43と認識エリア候補出力部44について詳細に説明する。
<人流情報比較部43、認識エリア候補出力部44>
図7を用いて人流情報比較部43について説明する。人流情報比較部43では、人流情報取得部3から取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdを比較し、人流変化量ΔIhを算出する。
人流情報比較部43で用いる比較方法としては、例えば、人流情報Ihの各エリアの人流方向を数値化し、各数値の出現頻度同士を新旧比較する方法がある。具体的には、図7の上段に例示するように、人流情報Ihを数値化した人流情報Ih’を作成した後、この人流情報Ih’に基づいて計測範囲全体における人流方向毎の出現頻度を表したヒストグラム(図7(a))を作成する。そして、最新の人流情報Ih’newに基づくヒストグラムと、過去の人流情報Ih’oldに基づくヒストグラムの差分を算出することで人流変化量ΔIhを算出する方法である。
また、人流情報比較部43で用いる他の比較方法としては、例えば、各エリアの人流方向を数値化した人流情報Ih’同士を新旧比較する方法がある。具体的には、図7(b)に示すように、最新の人流情報Ih’newと過去の人流情報Ih’oldを比較して、人流に変化があるエリアを1、変化が無いエリアを0とした人流変化量ΔIhを算出する方法である。
認識エリア候補出力部44では、人流情報比較部43により計算した人流変化量ΔIhを用いて、人流に変化のある領域を認識エリア候補Cとして出力する。例えば、図7(b)の人流変化量ΔIhを用いる場合は、左上のCと、右下のCの2エリアが認識エリア候補Cとして出力される。
なお、人流情報履歴データベース42から取得する過去の人流情報Iholdとしては、過去の中で最も新しい情報をそのまま使用する方法や、人流情報取得部3から人流情報Ihを取得する毎に平均を計算するなどして更新した人流情報Ihaveを使用する方法や、一定時間毎の人流情報Ihの平均を使用する方法などがあり、特に限定しない。また、人流方向だけでなく人流量も用いて人流情報Ihを表現しても良く、例えば、図7(a)の場合、各人流方向に対する人流量を重み係数として、各人流方向の頻度に掛け合わせた値をヒストグラムとして使用する方法などでも良い。なお、本例で述べた手法以外にも、人流情報Ihを比較できる手法であれば他の手法を用いてもよい。また、本例のように人物Hの位置をベースとした人流情報Ihを比較する方法以外にも、人流変化が生じたと予想されるエリアを大よそ検知可能な手法であれば他の手法を用いてもよい。例えば、画像全体のオプティカルフローを比較するなどの方法でも良い。
<人流相互作用抽出部5>
図8に人流相互作用抽出部5のブロック構成を示す。ここに示すように、人流相互作用抽出部5は、人流情報取得部3から取得した最新の人流情報Ihnewと、認識エリア候補選定部4から出力された認識エリア候補Cの位置情報から、認識エリア候補Cに対する人流相互作用を算出する人流相互作用算出部51と、算出した人流相互作用を出力する人流相互作用出力部52と、を備える。また、人流相互作用算出部51は、人流相互作用を算出するために、位置関係算出部51a、動線変化算出部51b、注目度算出部51cを備える。以下、人流相互作用算出部51の各機能、および、人流相互作用出力部52について説明する。
<位置関係算出部51a>
図9を用いて位置関係算出部51aについて説明する。図9において、Ba、Bb、Bcは、3次元空間Sにおける人物Ha、Hb、Hcの最新の足元位置、Ba、Bb、Bcは、xz平面Sにおける人物Ha、Hb、Hcの最新の足元位置、C、Cは認識エリア候補、O、Oは各認識エリア候補の中心、OHa、OHb、OHcは各人物の足元位置Ba、Bb、Bcと認識エリア候補Cの中心Oのユークリッド距離、thはユークリッド距離の閾値の一例を示している。
位置関係算出部51aでは、ある時刻における各人物と各認識エリア候補の中心間のユークリッド距離を算出して蓄積し、図9(c)に示すようなグラフを生成する。例えば、図9(c)の実線で示すように、人物Haと認識エリア候補Cの中心O間のユークリッド距離OHaが閾値th以下となる期間があるため、人物Haは中心Oにかなり近づいた期間があることが分かる。また、一点鎖線で示すように、人物Hbと認識エリア候補Cの中心O間のユークリッド距離OHbが0となる点があるため、人物Hbは認識エリア候補Cの中心Oを通過したことが分かる。
位置関係算出部51aでは、これらのユークリッド距離の変異情報から人物Hと認識エリア候補間の位置関係を算出する。算出方法としては、認識エリア候補Cに対する人物Hの接近具合を定量的に表現できる値を算出できる方法であれば、特に限定しない。例えば、予め定めたユークリッド距離の閾値thより小さい位置にプロットされた点数をそのまま接近具合として使用する方法がある。その他にも、一定のプロット間におけるグラフの傾き情報を利用する方法がある。図9(c)のOHa、OHbに例示するように、グラフの傾きの正負を求めることで人物Hが認識エリア候補Cに近づいているか否かを判定でき、傾きの大きさから人物Hの移動速度を算出することで認識エリア候補Cに対する人物Hの移動が積極的か否かを判定できるため、その総和を接近具合の判定基準として使用できる。また、各人物のグラフにおいて全てのプロットを使用するのではなく、前述の閾値thとは別の閾値を複数設定し、接近具合を算出する際にある閾値以上のプロット点は使用しない、あるいは2つの閾値間のプロット点のみ使用するなどの方法を用いても良い。
<動線変化算出部51b>
動線変化算出部51bでは、人流情報取得部3から取得した動線情報から認識エリア候補Cに対する人物Hの動線Lの変化量を算出する。動線Lの変化の算出方法としては、図5中段に示すような動線Lの向きを活用する方法がある。例えば、各人物の動線Lの向きを毎時刻保持しておき、認識エリア候補C付近での動線Lの向きの変化具合を動線Lの変化量とし、奥方向に移動していた人物Hの移動方向が奥方向のままであれば変化量は0、移動方向が真逆の手間方向に変化すれば変化量は最大値を取るような値域を設定することで、人物Hに関する動線Lの変化量を算出できる。また、計測範囲における過去の人流情報Iholdも使用して良く、認識エリア候補Cの遠方にいる場合は過去の人流情報Iholdと同一の向きに移動していた人物Hが、認識エリア候補Cの近傍では過去の人流情報Iholdの向きと大きく異なる方向に移動した場合は動線Lの変化量は大きくなるといった判定基準を利用する方法もある。
<注目度算出部51c>
注目度算出部51cは、認識エリア候補Cに対する人物Hの視線方向の情報から、認識エリア候補Cへの注目度を算出する機能である。視線方向情報の取得方法としては、画像データPから視線方向を推定する方法や視線センサなどを用いる方法など、特に限定しない。
画像データPから視線方向を推定する方法としては、例えば画像に対して頭部検出を実行し頭部領域を抽出し、頭部領域に対する黒色の割合から推定する方法を使用しても良く、頭部領域に対する黒色領域が極めて少なければカメラのある方向、黒色領域が多ければカメラと反対の方向、黒色領域が左側に多く含まれていれば右方向、右側に多く含まれていれば左方向といった視点方向の推定が可能である。
このように、注目度算出部51cでは、推定した視点方向が人物Hに対する認識エリア候補Cの方向である程、該当人物Hが認識エリア候補Cに注目していると判定することで、人物Hの認識エリア候補Cへの注目度を定量的に算出できる。
<人流相互作用出力部52>
人流相互作用出力部52は、人流相互作用算出部51により算出した各認識エリア候補に対する人流相互作用情報Iiを集約して、認識エリア候補Cごとの最終的な人流の相互作用度合を出力する。
相互作用度合の算出方法としては、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれが算出した相互作用情報Iiを全てあるいは一部の情報のみ使用して算出する。例えば、位置関係算出部51aからは認識エリア候補Cと計測範囲内にいる人物Hのユークリッド距離の総和、動線変化算出部51bからは認識エリア候補C付近での各人物の移動方向の変化度合の総和、注目度算出部51cからは認識エリア候補Cに対する人物Hの注目度の総和を受け取り、各々の総和を予め設定した値域などから0~5の値に丸め込み、単純にそれらの値の和あるいは重み係数などを利用して求めた和を認識エリア候補Cに対する人流の相互作用度合として決定する方法がある。
また、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれから出力された人流相互作用の相関性を利用し最終的な相互作用情報Iiを決定しても良く、例えば、基本的に人物Hは進行方向と同じ方向に視線があると仮定し、位置関係算出部51aや動線変化算出部51bの情報から人物Hが近付かないと推測される認識エリア候補Cにも関わらず、注目度算出部51cから出力される注目度が高い認識エリア候補Cは、最終的な人流相互作用度合を高くする方法などを利用しても良い。
<認識エリア決定部6>
認識エリア決定部6は、状態認識部7での状態認識処理の実行対象を決定する処理対象決定部であり、本実施例のように状態認識処理の対象がエリアである場合は、人流相互作用出力部52が出力した人流相互作用度合の高い認識エリア候補Cを、状態認識部7の処理対象である認識エリアAとして決定する。なお、認識エリア決定部6が決定する認識エリアAは、1つに限定されず、最大の人流相互作用度合の認識エリア候補Cのみだけでなく、それに続く人流相互作用度合の複数の認識エリア候補Cを認識エリアAに決定しても良く、一方で、最大の人流相互作用度合が予め定めた閾値よりも小さい場合は認識エリアAを決定しなくても良い。また、出力する認識エリア候補数を、状態認識装置1のCPUやメモリなどのスペック情報を参照して設定しても良い。
<状態認識部7>
状態認識部7は、認識エリア決定部6が決定した認識エリアAに対し、高度な状態認識処理を実行する。これにより、状態認識部7の処理対象エリアが計測範囲全体から認識エリアAに狭まるので、高度なアルゴリズムを用いる場合であっても状態認識に要する処理リソースを大幅に削減することができる。なお、状態認識処理の内容は、計測範囲の異常状態(渋滞等)を検知する処理、計測対象の異常行動(倒れた人物、暴れる人物、故障車両等)を検知する処理、計測対象周囲にある物体を検知して属性(人物の年齢や性別、人物の所持物等)を決定する処理のいずれかであるが、これらの処理自体は従来同等であるので、詳細説明は省略する。
以上の実施例では、人流相互作用抽出部5と認識エリア決定部6において、認識エリア候補Cと人物H間の相互作用度合を抽出して、状態認識部7を実行する認識エリアAを決定する方法について述べたが、人物同士の相互作用度合を抽出することで、状態認識部7を実行する人物Hを決定しても良い。例えば、認識エリア候補選定部4において、人流の変化が検知された直後に認識エリア候補C内にいる人物Hを中心位置として、人流相互作用抽出部5により認識エリア候補C内の人物Hと周囲の人物Hとの相互作用度合を算出し、最終的な相互作用度合の和が閾値より高い人物Hを状態認識部7の実行対象として出力する方法を採用しても良い。本手法では、人流相互作用抽出部5の中心位置となる人物Hは常に認識エリア候補C内に居る必要は無く、最終的に認識エリア決定部6にて出力する認識エリアAが認識エリア候補選定部4により選択されたエリアではなく、人流相互作用抽出部5の中心位置となる人物Hから一定距離以内の範囲を最終的な認識エリアAとして出力しても良い。また、人流相互作用算出部51において、全ての人物Hに対して相互作用情報Iiを出力する必要は無く、新たに複数人物が同時に検知された場合に、予め定めた人数以内に収まるようランダムで人物Hを選択する方法などを利用しても良い。
本発明の実施例1では、以上で説明した構成により、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。
なお、実施例1において、状態認識部7が実行する状態認識処理としては、計測範囲の異常状態を認識する機能、計測対象の異常行動を認識する機能、高精度の顔認識などに加え、人物Hの属性を認識する機能など特に限定せず、計測範囲全体に実行するには装置全体の処理リソースが不足するような高度な処理に限定されるものではない。
次に、図10の機能ブロック図を用いて、本発明の実施例2に係る状態認識装置1Aを説明する。なお、実施例1との共通点は重複説明を省略する。
図10に示す状態認識装置1Aは、複数のカメラ2が取得した人流情報Ihから抽出した相互作用情報Iiに基づき、高度な状態認識処理を実行する認識エリアAとその際に利用するカメラ2を予め選定する装置である。
図10の状態認識装置1Aにおいて、実施例1の状態認識装置1との相違点は、人流情報取得部3から状態認識部7までのユニットをカメラ2の数と同数備えている点と、情報共有部8と、状態認識司令部9と、を備えた点である。
情報共有部8は、複数カメラの設置位置情報を保存する設置位置情報データベース81、各カメラ映像から取得した人流情報Ihを保存する人流情報データベース82、各カメラにおける認識エリア決定部6から出力される認識エリア情報を保存する認識エリア情報データベース83、認識対象情報を保存する認識対象情報データベース84を備え、また、状態認識指令部9は、情報共有部8の情報から各カメラに対して状態認識処理を実行するか否かを指令する。以下、情報共有部8と状態認識指令部9の詳細について説明する。
<情報共有部8>
情報共有部8では、複数のカメラ2の情報及びカメラ映像の解析結果を共有し保持する。各情報について詳細に述べる。
設置位置情報データベース81は、計測範囲におけるカメラの設置位置や画角の情報を保持する。ここで保持する情報は、例えば、予め計測範囲全体の2次元マップのような図面を用意しておき、カメラが設置されている位置とカメラの向きや画角からカメラの撮影エリアを把握できる情報であれば、特に限定しない。
人流情報データベース82は、各カメラ映像において、人流情報取得部3により取得した各人物の動線Lや計測範囲の人流の向きの情報を保持する。これらの情報を共有し、カメラ間の結果を繋ぎ合わせることで、後段の認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6における人物Hの動線情報などを使用した解析を高精度に実行することができる。
認識エリア情報データベース83と認識対象情報データベース84は、認識エリア決定部6が決定した認識エリアAや認識対象である人物H等の位置情報を保持する。
<状態認識指令部9>
状態認識指令部9では、情報共有部8から入手した情報に基づいて、状態認識処理を実行するカメラ2を決定する。決定方法としては、認識エリアAや認識対象に最も近いカメラを選定する方法などや、設置位置情報データベース81や人流情報データベース82から得た情報も考慮して決定する方法などがあり、特に限定しない。後者の方法について例を挙げると、カメラ2の設置位置、撮影方向、最新の人流情報Ihnewから、カメラ2と認識エリアAまたは認識対象の間に人物Hなどが要因となる遮蔽が生じているか否かを判定し、遮蔽が生じていないと予想されるカメラに対して、状態認識処理の実行を指令する方法などがある。
以上で説明した、本発明の実施例2では、複数の計測装置(カメラ2)を用いた計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲、計測対象、計測装置を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。
なお、実施例2において、各カメラが認識エリアAや認識対象を選定する機能と高度な状態認識処理を実行する機能を保持する例について述べたが、カメラ毎に機能を割り当てても良い。例えば、2台のカメラを使用する場合、1台のカメラは人流情報取得部3、認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6の機能を実行して認識対象を決定する専用のカメラとし、他方のカメラは高度な状態認識処理のみ実行する専用のカメラとすることで、後者のカメラの処理リソースを削減してより高度な状態認識処理を適用できるような構成としても良い。
また、実施例2において、情報共有部8にて人流相互作用抽出部5から出力される相互作用情報Iiも保持して各カメラにて共有しても良い。例えば、認識エリア決定部6にて認識対象を決定する際に、1台目のカメラでは人流と認識対象との間の相互作用度合が小さく最終的な認識対象とは決定できなかった場合に、相互作用度合をカメラ間で引き継ぐことで、2台目のカメラにおける相互作用度合との和などにより、最終的な相互作用度合が閾値を超過することで、1台のカメラのみでは見落としていた認識対象に対して、2台目のカメラ以降にて状態認識処理を実行することができる。
1、1A 状態認識装置、
2 カメラ、
3 人流情報取得部、
31 映像取得部、
32 人物位置計測部、
33 動線作成部、
34 人流情報生成部、
4 認識エリア候補選定部、
41 人流情報保存部、
42 人流情報履歴データベース、
43 人流情報比較部、
44 認識エリア候補出力部、
5 人流相互作用抽出部、
51 人流相互作用算出部、
51a 位置関係算出部、
51b 動線変化算出部、
51c 注目度算出部、
52 人流相互作用出力部、
6 認識エリア決定部、
7 状態認識部、
8 情報共有部、
81 設置位置情報データベース、
82 人流情報データベース、
83 認識エリア情報データベース、
84 認識対象情報データベース、
9 状態認識指令部

Claims (9)

  1. 計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、
    該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部と、
    前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、
    該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定する認識対象決定部と、
    該認識対象に対し状態認識処理を実行する状態認識部と、
    を有することを特徴とする状態認識装置。
  2. 請求項に記載の状態認識装置において、
    前記状態認識部で実行される状態認識処理が、前記計測装置の計測範囲の異常状態を検知する処理、前記計測対象の異常行動を検知する処理、前記計測対象の属性を検知する処理の何れかであることを特徴とする状態認識装置。
  3. 請求項1または請求項に記載の状態認識装置において、
    前記計測装置を複数備えており、該複数の計測装置が取得した情報を共有した共有情報に基づいて、前記状態認識処理を実行する際に利用する計測装置を決定することを特徴とする状態認識装置。
  4. 請求項3に記載の状態認識装置において、
    前記共有情報が、前記計測装置の設置位置情報、前記計測対象の動き情報、または、前記認識対象の情報の何れかであることを特徴とする状態認識装置。
  5. 請求項または請求項に記載の状態認識装置において、
    前記複数の計測装置には、状態認識処理を実行する専用の計測装置が少なくとも1台含まれることを特徴とする状態認識装置。
  6. 請求項1から請求項の何れか一項に記載の状態認識装置において、
    前記動き情報が、前記計測対象の位置と移動方向の情報であることを特徴とする状態認識装置。
  7. 請求項1から請求項の何れか一項に記載の状態認識装置において、
    前記相互作用抽出部が抽出する前記相互作用情報が、
    空間と前記計測対象の距離、前記計測対象同士の距離、または、前記計測対象の移動速度、動線、動線変化量、視線の何れかの情報であることを特徴とする状態認識装置。
  8. 請求項1から請求項の何れか一項に記載の状態認識装置において、
    前記計測装置は、単眼のカメラ、ステレオカメラ、距離センサの何れかであることを特徴とする状態認識装置。
  9. 計測装置が取得した情報に基づき、計測対象の動き情報を生成し、
    該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定し、
    前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出し、
    該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定し、
    該認識対象に対し状態認識処理を実行することを特徴とする状態認識方法。
JP2019024371A 2019-02-14 2019-02-14 状態認識装置 Active JP7208051B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019024371A JP7208051B2 (ja) 2019-02-14 2019-02-14 状態認識装置
PCT/JP2019/039802 WO2020166129A1 (ja) 2019-02-14 2019-10-09 状態認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024371A JP7208051B2 (ja) 2019-02-14 2019-02-14 状態認識装置

Publications (2)

Publication Number Publication Date
JP2020135099A JP2020135099A (ja) 2020-08-31
JP7208051B2 true JP7208051B2 (ja) 2023-01-18

Family

ID=72043894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024371A Active JP7208051B2 (ja) 2019-02-14 2019-02-14 状態認識装置

Country Status (2)

Country Link
JP (1) JP7208051B2 (ja)
WO (1) WO2020166129A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024105766A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179335A1 (ja) 2012-05-30 2013-12-05 株式会社 日立製作所 監視カメラ制御装置及び映像監視システム
JP2016024651A (ja) 2014-07-22 2016-02-08 沖電気工業株式会社 状態判定システム、状態判定方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406241B2 (ja) * 2013-02-15 2018-10-17 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6898165B2 (ja) * 2017-07-18 2021-07-07 パナソニック株式会社 人流分析方法、人流分析装置及び人流分析システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179335A1 (ja) 2012-05-30 2013-12-05 株式会社 日立製作所 監視カメラ制御装置及び映像監視システム
JP2016024651A (ja) 2014-07-22 2016-02-08 沖電気工業株式会社 状態判定システム、状態判定方法及びプログラム

Also Published As

Publication number Publication date
JP2020135099A (ja) 2020-08-31
WO2020166129A1 (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
CN108933925B (zh) 信息处理装置、信息处理方法以及存储介质
CN109076198B (zh) 基于视频的对象跟踪遮挡检测***、方法和设备
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
JP6013241B2 (ja) 人物認識装置、及び方法
JP5763965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Chattopadhyay et al. Frontal gait recognition from incomplete sequences using RGB-D camera
JP2016099941A (ja) オブジェクト位置推定システム、及びそのプログラム
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
KR101380628B1 (ko) 복수의 카메라를 사용한 객체 추적 방법 및 장치
KR101360349B1 (ko) 객체의 특징 정보에 기반한 객체 추적 방법 및 장치
KR100824757B1 (ko) 걸음걸이를 이용한 생체 인식 방법
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
Zhang et al. Robust real-time human perception with depth camera
JP2015103188A (ja) 画像解析装置、画像解析方法及び画像解析プログラム
JP7208051B2 (ja) 状態認識装置
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP2008140093A (ja) 異常事象抽出装置、異常事象抽出方法、この方法のプログラム及びこのプログラムを記録した記録媒体
JPWO2018037479A1 (ja) 画像処理装置、ステレオカメラ装置及び画像処理方法
JP3946927B2 (ja) 目標判定システム及び判定方法
JP2015165433A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014203133A (ja) 画像処理装置、画像処理方法
Meyer et al. Improving face detection with depth

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R150 Certificate of patent or registration of utility model

Ref document number: 7208051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150