JP7208051B2 - 状態認識装置 - Google Patents
状態認識装置 Download PDFInfo
- Publication number
- JP7208051B2 JP7208051B2 JP2019024371A JP2019024371A JP7208051B2 JP 7208051 B2 JP7208051 B2 JP 7208051B2 JP 2019024371 A JP2019024371 A JP 2019024371A JP 2019024371 A JP2019024371 A JP 2019024371A JP 7208051 B2 JP7208051 B2 JP 7208051B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- recognition
- state recognition
- measurement
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
<人流情報取得部3>
図2に示す機能ブロック図を用いて、計測対象が人物である場合の動き情報である人流情報Ihを生成する人流情報取得部3(動き情報生成部)の詳細について説明する。ここに示すように、人流情報取得部3は、カメラ2から画像データPを取得する映像取得部31、取得した画像データPに対して画像解析などを実行することで人物Hの位置を計測する人物位置計測部32、計測した人物Hの位置情報から動線Lを作成する動線作成部33、人物位置計測部32と動線作成部33から取得した人物Hの位置情報と動線情報から人流情報Ihを生成する人流情報生成部34を備える。以下、人物位置計測部32、動線作成部33、人流情報生成部34の各部について順次説明する。
<人物位置計測部32>
まず、図3を用いて、人物位置計測部32について説明する。図3において、Pはカメラ2より取得した画像データ、Hは計測対象の人物、Fは人物Hを囲む矩形の人物領域、Bは画像座標上での人物Hの足元位置、S3は3次元空間、B3は3次元空間S3上での人物Hの足元位置、S2は3次元空間S3上のy=0の位置でのxz平面、B2はxz平面S2上での人物Hの足元位置を示している。
<動線作成部33>
図4は、動線作成部33により人物Hの動線Lを生成する処理フローを示している。動線作成部33では、人物位置計測部32によって計測した同一人物の位置28を結合することで動線Lを生成する。
<人流情報生成部34>
次に、図5を用いて、人流情報生成部34について説明する。人流情報生成部34は動線作成部33により作成した人物Ha、Hb、…、Hnごとの動線La、Lb、…、Lnを用いて、計測範囲内における人流情報Ihを生成する。
<認識エリア候補選定部4>
図6は認識エリア候補選定部4の機能ブロック図である。認識エリア候補選定部4は、人流情報取得部3から取得した人流情報Ihを、人流情報履歴データベース42に保存する人流情報保存部41と、人流情報取得部3より取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdとを比較する人流情報比較部43と、人流情報比較部43の比較結果から人流の変化量がある領域を認識エリア候補Cとして出力する認識エリア候補出力部44を備える。以下、人流情報比較部43と認識エリア候補出力部44について詳細に説明する。
<人流情報比較部43、認識エリア候補出力部44>
図7を用いて人流情報比較部43について説明する。人流情報比較部43では、人流情報取得部3から取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdを比較し、人流変化量ΔIhを算出する。
<人流相互作用抽出部5>
図8に人流相互作用抽出部5のブロック構成を示す。ここに示すように、人流相互作用抽出部5は、人流情報取得部3から取得した最新の人流情報Ihnewと、認識エリア候補選定部4から出力された認識エリア候補Cの位置情報から、認識エリア候補Cに対する人流相互作用を算出する人流相互作用算出部51と、算出した人流相互作用を出力する人流相互作用出力部52と、を備える。また、人流相互作用算出部51は、人流相互作用を算出するために、位置関係算出部51a、動線変化算出部51b、注目度算出部51cを備える。以下、人流相互作用算出部51の各機能、および、人流相互作用出力部52について説明する。
<位置関係算出部51a>
図9を用いて位置関係算出部51aについて説明する。図9において、B3a、B3b、B3cは、3次元空間S3における人物Ha、Hb、Hcの最新の足元位置、B2a、B2b、B2cは、xz平面S2における人物Ha、Hb、Hcの最新の足元位置、C1、C2は認識エリア候補、O1、O2は各認識エリア候補の中心、O1Ha、O1Hb、O1Hcは各人物の足元位置B2a、B2b、B2cと認識エリア候補C1の中心O1のユークリッド距離、thはユークリッド距離の閾値の一例を示している。
<動線変化算出部51b>
動線変化算出部51bでは、人流情報取得部3から取得した動線情報から認識エリア候補Cに対する人物Hの動線Lの変化量を算出する。動線Lの変化の算出方法としては、図5中段に示すような動線Lの向きを活用する方法がある。例えば、各人物の動線Lの向きを毎時刻保持しておき、認識エリア候補C付近での動線Lの向きの変化具合を動線Lの変化量とし、奥方向に移動していた人物Hの移動方向が奥方向のままであれば変化量は0、移動方向が真逆の手間方向に変化すれば変化量は最大値を取るような値域を設定することで、人物Hに関する動線Lの変化量を算出できる。また、計測範囲における過去の人流情報Iholdも使用して良く、認識エリア候補Cの遠方にいる場合は過去の人流情報Iholdと同一の向きに移動していた人物Hが、認識エリア候補Cの近傍では過去の人流情報Iholdの向きと大きく異なる方向に移動した場合は動線Lの変化量は大きくなるといった判定基準を利用する方法もある。
<注目度算出部51c>
注目度算出部51cは、認識エリア候補Cに対する人物Hの視線方向の情報から、認識エリア候補Cへの注目度を算出する機能である。視線方向情報の取得方法としては、画像データPから視線方向を推定する方法や視線センサなどを用いる方法など、特に限定しない。
<人流相互作用出力部52>
人流相互作用出力部52は、人流相互作用算出部51により算出した各認識エリア候補に対する人流相互作用情報Iiを集約して、認識エリア候補Cごとの最終的な人流の相互作用度合を出力する。
<認識エリア決定部6>
認識エリア決定部6は、状態認識部7での状態認識処理の実行対象を決定する処理対象決定部であり、本実施例のように状態認識処理の対象がエリアである場合は、人流相互作用出力部52が出力した人流相互作用度合の高い認識エリア候補Cを、状態認識部7の処理対象である認識エリアAとして決定する。なお、認識エリア決定部6が決定する認識エリアAは、1つに限定されず、最大の人流相互作用度合の認識エリア候補Cのみだけでなく、それに続く人流相互作用度合の複数の認識エリア候補Cを認識エリアAに決定しても良く、一方で、最大の人流相互作用度合が予め定めた閾値よりも小さい場合は認識エリアAを決定しなくても良い。また、出力する認識エリア候補数を、状態認識装置1のCPUやメモリなどのスペック情報を参照して設定しても良い。
<状態認識部7>
状態認識部7は、認識エリア決定部6が決定した認識エリアAに対し、高度な状態認識処理を実行する。これにより、状態認識部7の処理対象エリアが計測範囲全体から認識エリアAに狭まるので、高度なアルゴリズムを用いる場合であっても状態認識に要する処理リソースを大幅に削減することができる。なお、状態認識処理の内容は、計測範囲の異常状態(渋滞等)を検知する処理、計測対象の異常行動(倒れた人物、暴れる人物、故障車両等)を検知する処理、計測対象周囲にある物体を検知して属性(人物の年齢や性別、人物の所持物等)を決定する処理のいずれかであるが、これらの処理自体は従来同等であるので、詳細説明は省略する。
<情報共有部8>
情報共有部8では、複数のカメラ2の情報及びカメラ映像の解析結果を共有し保持する。各情報について詳細に述べる。
<状態認識指令部9>
状態認識指令部9では、情報共有部8から入手した情報に基づいて、状態認識処理を実行するカメラ2を決定する。決定方法としては、認識エリアAや認識対象に最も近いカメラを選定する方法などや、設置位置情報データベース81や人流情報データベース82から得た情報も考慮して決定する方法などがあり、特に限定しない。後者の方法について例を挙げると、カメラ2の設置位置、撮影方向、最新の人流情報Ihnewから、カメラ2と認識エリアAまたは認識対象の間に人物Hなどが要因となる遮蔽が生じているか否かを判定し、遮蔽が生じていないと予想されるカメラに対して、状態認識処理の実行を指令する方法などがある。
2 カメラ、
3 人流情報取得部、
31 映像取得部、
32 人物位置計測部、
33 動線作成部、
34 人流情報生成部、
4 認識エリア候補選定部、
41 人流情報保存部、
42 人流情報履歴データベース、
43 人流情報比較部、
44 認識エリア候補出力部、
5 人流相互作用抽出部、
51 人流相互作用算出部、
51a 位置関係算出部、
51b 動線変化算出部、
51c 注目度算出部、
52 人流相互作用出力部、
6 認識エリア決定部、
7 状態認識部、
8 情報共有部、
81 設置位置情報データベース、
82 人流情報データベース、
83 認識エリア情報データベース、
84 認識対象情報データベース、
9 状態認識指令部
Claims (9)
- 計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、
該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部と、
前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定する認識対象決定部と、
該認識対象に対し状態認識処理を実行する状態認識部と、
を有することを特徴とする状態認識装置。 - 請求項1に記載の状態認識装置において、
前記状態認識部で実行される状態認識処理が、前記計測装置の計測範囲の異常状態を検知する処理、前記計測対象の異常行動を検知する処理、前記計測対象の属性を検知する処理の何れかであることを特徴とする状態認識装置。 - 請求項1または請求項2に記載の状態認識装置において、
前記計測装置を複数備えており、該複数の計測装置が取得した情報を共有した共有情報に基づいて、前記状態認識処理を実行する際に利用する計測装置を決定することを特徴とする状態認識装置。 - 請求項3に記載の状態認識装置において、
前記共有情報が、前記計測装置の設置位置情報、前記計測対象の動き情報、または、前記認識対象の情報の何れかであることを特徴とする状態認識装置。 - 請求項3または請求項4に記載の状態認識装置において、
前記複数の計測装置には、状態認識処理を実行する専用の計測装置が少なくとも1台含まれることを特徴とする状態認識装置。 - 請求項1から請求項5の何れか一項に記載の状態認識装置において、
前記動き情報が、前記計測対象の位置と移動方向の情報であることを特徴とする状態認識装置。 - 請求項1から請求項6の何れか一項に記載の状態認識装置において、
前記相互作用抽出部が抽出する前記相互作用情報が、
空間と前記計測対象の距離、前記計測対象同士の距離、または、前記計測対象の移動速度、動線、動線変化量、視線の何れかの情報であることを特徴とする状態認識装置。 - 請求項1から請求項7の何れか一項に記載の状態認識装置において、
前記計測装置は、単眼のカメラ、ステレオカメラ、距離センサの何れかであることを特徴とする状態認識装置。 - 計測装置が取得した情報に基づき、計測対象の動き情報を生成し、
該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定し、
前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出し、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定し、
該認識対象に対し状態認識処理を実行することを特徴とする状態認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024371A JP7208051B2 (ja) | 2019-02-14 | 2019-02-14 | 状態認識装置 |
PCT/JP2019/039802 WO2020166129A1 (ja) | 2019-02-14 | 2019-10-09 | 状態認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024371A JP7208051B2 (ja) | 2019-02-14 | 2019-02-14 | 状態認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135099A JP2020135099A (ja) | 2020-08-31 |
JP7208051B2 true JP7208051B2 (ja) | 2023-01-18 |
Family
ID=72043894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019024371A Active JP7208051B2 (ja) | 2019-02-14 | 2019-02-14 | 状態認識装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7208051B2 (ja) |
WO (1) | WO2020166129A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024105766A1 (ja) * | 2022-11-15 | 2024-05-23 | 富士通株式会社 | 情報処理プログラム、情報処理方法および情報処理装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179335A1 (ja) | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | 監視カメラ制御装置及び映像監視システム |
JP2016024651A (ja) | 2014-07-22 | 2016-02-08 | 沖電気工業株式会社 | 状態判定システム、状態判定方法及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6406241B2 (ja) * | 2013-02-15 | 2018-10-17 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP6898165B2 (ja) * | 2017-07-18 | 2021-07-07 | パナソニック株式会社 | 人流分析方法、人流分析装置及び人流分析システム |
-
2019
- 2019-02-14 JP JP2019024371A patent/JP7208051B2/ja active Active
- 2019-10-09 WO PCT/JP2019/039802 patent/WO2020166129A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179335A1 (ja) | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | 監視カメラ制御装置及び映像監視システム |
JP2016024651A (ja) | 2014-07-22 | 2016-02-08 | 沖電気工業株式会社 | 状態判定システム、状態判定方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020135099A (ja) | 2020-08-31 |
WO2020166129A1 (ja) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11789545B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
CN108933925B (zh) | 信息处理装置、信息处理方法以及存储介质 | |
CN109076198B (zh) | 基于视频的对象跟踪遮挡检测***、方法和设备 | |
JP6494253B2 (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
JP6700752B2 (ja) | 位置検出装置、位置検出方法及びプログラム | |
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
JP5763965B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Chattopadhyay et al. | Frontal gait recognition from incomplete sequences using RGB-D camera | |
JP2016099941A (ja) | オブジェクト位置推定システム、及びそのプログラム | |
US10063843B2 (en) | Image processing apparatus and image processing method for estimating three-dimensional position of object in image | |
KR101380628B1 (ko) | 복수의 카메라를 사용한 객체 추적 방법 및 장치 | |
KR101360349B1 (ko) | 객체의 특징 정보에 기반한 객체 추적 방법 및 장치 | |
KR100824757B1 (ko) | 걸음걸이를 이용한 생체 인식 방법 | |
WO2019220589A1 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
Zhang et al. | Robust real-time human perception with depth camera | |
JP2015103188A (ja) | 画像解析装置、画像解析方法及び画像解析プログラム | |
JP7208051B2 (ja) | 状態認識装置 | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP5217917B2 (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
JP2008140093A (ja) | 異常事象抽出装置、異常事象抽出方法、この方法のプログラム及びこのプログラムを記録した記録媒体 | |
JPWO2018037479A1 (ja) | 画像処理装置、ステレオカメラ装置及び画像処理方法 | |
JP3946927B2 (ja) | 目標判定システム及び判定方法 | |
JP2015165433A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
Meyer et al. | Improving face detection with depth |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7208051 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |