JP2024041997A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2024041997A JP2024041997A JP2024007200A JP2024007200A JP2024041997A JP 2024041997 A JP2024041997 A JP 2024041997A JP 2024007200 A JP2024007200 A JP 2024007200A JP 2024007200 A JP2024007200 A JP 2024007200A JP 2024041997 A JP2024041997 A JP 2024041997A
- Authority
- JP
- Japan
- Prior art keywords
- people
- unit
- state
- particles
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 13
- 238000003672 processing method Methods 0.000 title claims description 3
- 230000008859 change Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 38
- 238000012544 monitoring process Methods 0.000 abstract description 37
- 238000001514 detection method Methods 0.000 abstract description 27
- 230000002123 temporal effect Effects 0.000 abstract 1
- 239000002245 particle Substances 0.000 description 139
- 238000004364 calculation method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 18
- 230000014759 maintenance of location Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 230000007704 transition Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】混雑した環境でも監視対象の移動状況を精度よく推定できる移動状況推定装置、移動状況推定方法および移動状況推定プログラムを提供する。【解決手段】画像入力部11と、人数推定部12と、フロー計算部13と、状態記憶装置14と、状態予測部15と、滞留情報計算部16と、個別人物検出部17と、状態更新部18と、人数出力部19とを備える移動状況推定装置は、複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する。【選択図】図1
Description
本発明は移動状況推定装置、移動状況推定方法およびプログラム記録媒体に関する。
画像中の群衆を認識する技術が種々提案されている。例えば、特許文献1には、人混みを撮影した映像から人の数を計測する人数計測装置が記載されている。特許文献1に記載された人数計測装置は、画像に含まれる人の頭部を頭部モデルに基づいて抽出し、位置情報や色分布等の特徴量を用いて、フレーム間で同一の人物と判断される頭部位置を連結し、その連結結果から人の人数を計測する。
また、非特許文献1には、群衆の人数を推定する方法が記載されている。非特許文献1に記載された方法は、人物同士の重なりを含めた群衆状態を局所的な画像で示す「群衆パッチ(crowd-patch)」で捉え、パッチ内の人数を回帰学習することで、静止画像から人数を推定する。
なお、特許文献2には、調査対象地点における通行量データを得ることができる通行量測定システムが記載されている。特許文献2に記載されたシステムは、所定の調査対象領域を撮像した画像から調査対象領域の通行人を識別し、その通行人の数を判定する。
池田浩雄、大網亮磨、「群衆パッチ学習に基づく人数推定」、第12回情報科学技術フォーラム講演論文集、情報処理学会、pp.129-130、Sept. 2013
混雑した環境では、撮影される人物の重なりが大きく、個々の人物を検出することや個々の人物を追跡することが困難である。そのため、どの程度の人数が移動しているかを判断することは難しい。例えば、特許文献1に記載された方法を用いた場合、フレームレートが低い場合など、同一の人物と判断される頭部位置を追跡できなければ、撮影された人の流れや人数を計測することは困難である。また、特許文献2に記載されたシステムも、混雑環境では調査対象領域内の個々の通行人を認識するのは困難なため、領域内の通行人の量を適切に把握することが難しい。
一方、非特許文献1に記載された群衆パッチを用いることで、フレームレートに依存せずに画像中の群衆を認識することは可能である。しかし、非特許文献1に記載された群衆パッチを用いた場合、画像中の所定の領域に存在し得る人数を予測することは可能だが、その観測対象の物体がどの程度の数だけ移動しているか推定することは困難である。
本発明の例示的な目的の一つは、混雑した環境でも監視対象の移動状況を精度よく推定できる移動状況推定装置、移動状況推定方法および移動状況推定プログラムを提供することである。
本開示の一態様に係る情報処理システムは、複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する推定手段、を備える。
本開示の一態様に係る情報処理方法は、コンピュータが、複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する。
本開示の一態様に係るプログラムは、複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する推定処理、をコンピュータに実行させる。
本発明によれば、混雑した環境でも監視対象の移動状況を精度よく推定できる。
[実施形態]
以下、本発明の実施形態を図面を参照して説明する。なお、本発明でいう監視対象は、以下の実施形態の説明においては人物が例示されているが、人物以外の自転車や自動車のような物体であってもよい。
以下、本発明の実施形態を図面を参照して説明する。なお、本発明でいう監視対象は、以下の実施形態の説明においては人物が例示されているが、人物以外の自転車や自動車のような物体であってもよい。
図1は、本発明による移動状況推定装置の一実施形態を示すブロック図である。本実施形態の移動状況推定装置100は、画像入力部11と、人数推定部12と、フロー計算部13と、状態記憶装置14と、状態予測部15と、滞留情報計算部16と、個別人物検出部17と、状態更新部18と、人数出力部19とを備えている。なお、同図に示す矢印は、データの流れの一例を示すものである。移動状況推定装置100におけるデータの流れは、特定の方向に限定されない。
画像入力部11は、映像(動画)からある処理時刻の時点における画像を取得する。以下、画像入力部11が取得した画像のことを「対象画像」と記す。画像入力部11は、時間的に連続する複数の対象画像の入力を受け付ける。
人数推定部12は、撮影された人数を対象画像中の局所領域ごとに推定する。すなわち、人数推定部12は、入力された対象画像の局所領域ごとに人数(監視対象の数量)を推定する。
人数推定部12が人数を推定する方法は、特に限定されない。人数推定部12は、例えば、非特許文献1に記載された群衆パッチと対象画像の局所領域とを比較して人数を推定してもよく、特許文献1に記載された方法のように、対象画像を含む複数の画像を利用して人数を推定してもよい。
図2は、人数を推定する処理の例を示す説明図である。図2に例示するように、人数推定部12は、対象画像20から局所領域21を抽出し、その局所領域21に含まれる人物の数を推定する。図2に示す例では、人数推定部12は、局所領域21に4人存在すると推定する。
なお、人数出力部19は、図2に密度マップ30によって例示されるように、局所領域ごとに推定された人数を、その人数に応じた態様(色、濃淡など)で表した画像を出力してもよい。なお、人数出力部19が実行する具体的な処理は、後述される。
上述したように、画像入力部11から時間的に連続する複数の対象画像が入力されるため、人数推定部12は、各局所領域における人数の推移(時系列変化)を捉えることができる。特に、混雑した環境では、人物がある程度の集団で移動することが考えられる。そこで、人数推定部12は、局所領域の人数の推移から人物の移動状況を推定する。
具体的には、人数推定部12は、人数が推定された時点における人物の動きから人物の将来の位置を予測する。人数推定部12は、初期状態では監視対象が全ての方向に等確率および等速で移動すると仮定しておけばよい。さらに、人数推定部12は、予測された将来の人物の位置に基づき、各局所領域における将来の人数も推定する。説明の便宜上、以下においては、人数推定部12による将来の人数の推定のことを「予測」という。
人物の位置を予測する際、人数推定部12は、各人物が等速で移動すると仮定してもよいが、後述する状態予測部15の予測結果を用いてもよい。
人数推定部12は、将来のある時点において、局所領域ごとに事前に予測された人数と、当該時点において対象画像から局所領域ごとに推定された人数とを比較する。そして、人数推定部12は、人数の差がより小さい局所領域を重視して、人物の移動状況を推定する。具体的には、人数推定部12は、特定の局所領域にいた人物が、当該局所領域に近接する複数の局所領域のうち対象画像から推定された人数の差が最も小さい局所領域へ移動したと推定してもよい。
また、図2に例示する密度マップ30は、人物の移動状況を表す。図3は、人物の移動状況の例を示す説明図である。図3に例示する密度マップは、色が薄い領域ほど多くの人物が存在することを示している。
例えば、人数推定部12が、ある時点における対象画像の領域31aおよび領域31bに多くの人物がいたと推定したとする。人数推定部12が推定を続けた結果、別の時点における対象画像の領域32aおよび領域32bに多くの人物が移動したとする。この時系列変化から、領域31aから領域32aへの人物の移動(矢印33a)と領域31bから領域32bへの人物の移動(矢印33b)を把握することが可能になる。
また、人数推定部12は、ある時点における対象画像に含まれる人物が、当該時点において新規に現れた人物であるか、当該時点より前に対象画像に現れていた既存の人物(すなわち撮影された領域内で移動した人物)かを判断してもよい。例えば、人数推定部12は、対象画像から人物の移動が予測されていなかった位置において人物の存在を推定した場合、当該人物が新規に現れた人物であると判断してもよい。
フロー計算部13は、対象画像についてオプティカルフローを計算する。オプティカルフローの計算方法は、特に限定されない。フロー計算部13は、例えば、Lucas-Kanade法のように特徴点を用いてオプティカルフローを計算してもよく、Horn-Schunck法のように変分法を用いてオプティカルフローを計算してもよい。
状態記憶装置14は、人物の過去の状態を記憶する。ここで、人物の状態には、過去の時点における人物の位置、速度、尤度(重み値)が含まれる。また、人物の状態には、人物の動作状態(移動状態または静止状態)が含まれていてもよい。
例えば、PHD(Probability Hypothesis Density)パーティクルフィルタを用いる場合、1つの監視対象の状態は、複数の粒子で表現される。この場合、状態記憶装置14は、粒子の数をNとすると、i番目(i=1・・・N)の粒子の状態として、通常のパーティクルフィルタで保持される情報である、位置xi、速度vi及び重み値wiを保持する。状態記憶装置14は、各粒子の状態として、これらの情報に加えて、人物が移動状態か静止状態かを表す変数siを保持してもよい。
なお、粒子の重み値wiの総和は、監視対象の数量、すなわち人数に対応する。例えば、PHDパーティクルフィルタにおいて、1つの監視対象あたり100個の粒子を新たに散布する場合、そのときに設定される各粒子の重み値は、「0.01」になる。
状態予測部15は、状態記憶装置14に記憶されている過去の人物の状態を用いて、画像入力部11が画像を取得した時刻における人物の状態を予測する。状態予測部15は、人物の位置、速度および重み値以外に、その人物の動作状態が移動状態か静止状態かも含めて予測してもよい。
具体的には、状態予測部15は、人物の状態を表現する複数の粒子を用いて、当該人物の将来の状態を予測する。なお、本実施形態では、状態予測部15がPHDパーティクルフィルタを用いて物体の状態を予測する方法が説明される。状態予測部15は、画像入力部11が対象画像を取得した時刻における人物の状態を予測する。
上述した例のように、PHDパーティクルフィルタを用いた場合では、1つの監視対象の状態は複数の粒子で表現される。粒子の数をNとすると、i番目(i=1・・・N)の粒子の状態は、通常のPHDパーティクルフィルタで保持される情報である、位置xi、速度vi及び重み値wiを用いて表される。なお、粒子の状態は、さらに人物が移動状態か静止状態かを表す変数siを用いて表されていてもよい。
状態予測部15が位置および速度を予測する方法は、一般的なパーティクルフィルタで行われる予測方法と同様である。例えば、ある時点における粒子の位置をxとしたとき、当該粒子のdt経過後の位置は、x+v×dt+eで表される。ここで、eは、等速運動モデルでは表現できないノイズを表し、例えば、予め定められた標準偏差の正規分布に基づいて生成される乱数値である。また、位置xにおける粒子の速度をvとしたとき、当該粒子のdt経過後の速度は、v+fで表される。ここで、fは、等速運動モデルでは表現できないノイズを表し、例えば、予め定められた標準偏差の正規分布に基づいて生成される乱数値である。
以下、状態予測部15が動作状態を予測する方法を説明する。ここでは、人物の動作状態は、予め定められた確率Pに従って静止状態から移動状態に遷移し、予め定められた確率Qに基づいて移動状態から静止状態に動作状態が遷移するものとする。
siが静止状態を表す場合、状態予測部15は、0から1の一様乱数を生成し、その乱数値がP以下であれば、移動状態を示す値にsiを変更する。一方、siが動作状態を表す場合、状態予測部15は、0から1の一様乱数を生成し、その乱数値がQ以下であれば、静止状態を示す値にsiを変更する。
他にも、状態予測部15は、過去の履歴や統計結果に基づいて変数siの状態を予測してもよい。例えば、追跡対象の人物が静止状態から移動状態に遷移し、siが移動状態を示す値になっているとする。この遷移が最近行われたものであり、移動状態に遷移してから予め定められた期間を経過していない場合、この追跡対象は、すぐには静止状態に戻らないと推測できる。そこで、この場合、状態予測部15は、動作状態を移動状態に一定期間保持するようにしてもよい。
同様に、追跡対象の人物が移動状態から静止状態に遷移し、siが静止状態を示す値になっているとする。この遷移が最近行われたものであり、静止状態に遷移してから予め定められた期間を経過していない場合、この追跡対象は、すぐには移動状態に戻らないと推測できる。この場合、状態予測部15は、動作状態を静止状態に一定期間保持するようにしてもよい。
他にも、状態予測部15は、画像中の場所に応じて動作状態を遷移させる状況を変化させてもよい。例えば、状態予測部15は、画像中の通路が映された領域では、移動状態から静止状態への遷移確率Qを小さく設定してもよい。また、状態予測部15は、画像中の待ち合わせが多いエリアが映された領域では、遷移確率Qを大きく設定してもよい。
滞留情報計算部16は、画像入力部11で取得された対象画像を用いて、滞留物と判定される領域を抽出する。滞留情報計算部16は、例えば、長期間静止している物体を検知する手法を用いて、一時的な静止物体か否かを画素ごとに判定し、ラベリング処理によって一時的な静止物と判定される領域を検出してもよい。
個別人物検出部17は、対象画像から人物を個別に検出する。例えば、画像の手前側に映された人物は、他の物体による遮蔽が少ないため、一般的な検出方法で検出できる場合が多い。そこで、個別人物検出部17は、人物を個別に検知可能な領域(以下、個別検知領域と記す。)を設定しておき、対象画像の個別検知領域から人物を検出する。
状態更新部18は、状態予測部15が予測した人物の状態を、人数推定部12の推定結果に基づいて更新する。また、状態更新部18は、フロー計算部13、滞留情報計算部16および個別人物検出部17の処理結果に基づいて人物の状態を更新してもよい。以下、状態更新部18が監視対象を更新する方法を具体的に説明する。
状態更新部18は、人数推定部12が推定した各局所領域の人数に応じて、対応する領域における人物の状態を更新する。本実施形態では、状態更新部18は、人数推定部12が推定した各局所領域の人数に応じて、対応する領域に存在すると予測された粒子の重み値wiを更新する。
状態更新部18は、具体的には、局所領域の重みの総和が人数と等しくなるように、各粒子の重み値wiを更新する。このとき、状態更新部18は、重み値wiの変化が緩やかになるように、予め定められた0から1までの値αを用いて、更新後の重みの総和が(1-α)×(前回の重みの総和)+(α×人数)になるように各粒子の重み値wiを更新してもよい。このように、状態更新部18は、重み値の総和が局所領域の人数に近づくように粒子の重み値を更新してもよい。
図4は、人数が推定された局所領域と、その局所領域に存在する粒子との関係を示す説明図である。図4において、白または黒の円が粒子を示す。黒の粒子は、移動方向(図中の矢印)が特定方向と同一または所定の角度内にある粒子を示す。図4に示す例では、対象画像の局所領域41aに存在し、移動方向が特定方向と同一または所定の角度内にある人物は、4人である。また、局所領域41bに存在し、移動方向が特定方向と同一または所定の角度内にある人物は、3人である。また、局所領域41cに存在し、移動方向が特定方向と同一または所定の角度内にある人物は、2人である。例えば、状態更新部18は、局所領域41cに含まれる3つの粒子に対して、重み値の合計が2になるように、各粒子の重み値を更新する。
また、人数推定部12が重なり合う局所領域を対象に人数を推定した場合、状態更新部18は、局所領域ごとに個別に粒子の重み値を更新してもよく、重なり合う局所領域を一まとめにした領域に対して、粒子の重み値を一括で更新してもよい。領域を一まとめにして粒子の重み値を更新する場合、状態更新部18は、重なっている領域の人数を、各局所領域の人数を加味した人数(例えば、重なっている局所領域の人数の平均)とすればよい。
図5は、局所領域が重なった場合に重み値を更新する処理の例を示す説明図である。図5に示す例では、部分的に重なる3つの局所領域に対して人数を推定する場合を示す。この場合、状態更新部18は、局所領域42a、局所領域42bおよび局所領域42cを一まとめにした領域に対して、粒子の重み値を一括で更新してもよい。また、状態更新部18は、各局所領域に含まれる粒子の重みを、局所領域42a、局所領域42bおよび局所領域42cのそれぞれについて個別に更新してもよい。
状態更新部18は、局所領域に含まれる粒子の重み値を、すべて同じ割合で更新してもよく、粒子ごとに異なる割合で更新してもよい。状態更新部18は、例えば、人物の検知確率に応じて、更新する重み値を変化させてもよい。具体的には、各粒子の検知確率をPiとし、推定される人数をHとしたとき、状態更新部18は、更新する各粒子の重み値wiを、[(1-Pi)*wi+H*(Pi*wi)/{(Pi*wi)の総和}]と算出してもよい。
このような重み値wiを採用することで、状態更新部18は、検知確率が高いほど、推定される人数Hの影響を受ける重み値を設定できる。なお、仮に人物が検知されない場所の場合、検知確率が0になるため、重み値は変化しない。検知確率に応じて更新する重み値を変化させることで、例えば、低俯角から撮影された画像について、より検知確率の高い領域の情報を優先して更新処理を行うことが可能になる。
図6は、検知確率が異なる状況の例を示す説明図である。図6に例示するように、対象画像の奥側は低俯角で撮影されることが多い。例えば、局所領域43の周囲44の検知確率は、手前から奥にかけて低くなると想定される。そこで、状態更新部18は、手前側に存在する粒子の重みを高めに更新し、奥側に存在する粒子の重みを低めに更新する。
なお、人数推定部12が人数を推定した局所領域に対応する位置に粒子が存在しない場合、状態更新部18は、その位置に新規に粒子を発生させる。具体的には、状態更新部18は、予め定められた標準偏差の正規分布に従って、その位置の近傍にランダムに新規に粒子を生成すればよい。
また、状態更新部18は、対象画像のオプティカルフローに近い動きの粒子の重み値wiを増加させるように更新してもよい。このとき、状態更新部18は、重みの総和を変えないように、粒子の重み値wiを更新する。
例えば、オプティカルフローのベクトルと、粒子iの動きを示すベクトルとの動きの近さLiは、両ベクトルのなす角度をθとすると、Li=(cosθ+1)/2で、算出される。Liは、動きがオプティカルフローに近い粒子ほど大きくなる値である。重み値の総和をSとしたとき、状態更新部18は、各粒子の重み値を[Li*wi/{(Li*wi)の総和}]*Sで更新してもよい。このような更新をすることで、オプティカルフローに近い動きをする粒子ほど重み値wiが大きくなる。
なお、オプティカルフローに近い動きの粒子の重み値を更新する方法は、上記方法に限定されない。他にも、状態更新部18は、両ベクトルのなす角度θが閾値以下の場合に粒子の重み値を単純に正の定数倍し、その後、定数倍した重み値の総和が元の重み値の総和Sと等しくなるように各重み値を正規化してもよい。また、状態更新部18は、動きの近さを判定する際に、両ベクトルの距離が閾値以下の粒子を、動きが近い粒子と判定してもよい。
また、状態更新部18は、滞留情報計算部16が滞留物と判定した領域と粒子の移動状態との近さに応じて、粒子の重み値を更新してもよい。具体的には、状態更新部18は、滞留情報計算部16が滞留物と判定した領域と移動状態が静止状態と予測された粒子との距離が近いほど、その粒子の重み値を大きくするように更新してもよい。このとき、状態更新部18は、例えば、オプティカルフローに近い動きの粒子の重み値を更新する方法と同様の方法を用いて、粒子の重み値を更新すればよい。
また、状態更新部18は、個別人物検出部17が個別検知領域において人物を検出した場合、検出された人物に対応する領域に存在する粒子の重み値については、PHDパーティクルフィルタで行われる一般的な方法で重み値を更新してもよい。すなわち、状態更新部18は、個別人物検出部17が人物を検出した範囲については、推定された各局所領域の人数を用いる以外の方法で、各局所領域に含まれる粒子の重み値を更新してもよい。このように、撮影される画像の領域に応じて、より適した予測方法を選択することで、監視対象を追跡する精度を高めることが可能になる。
状態更新部18は、重み値wiが閾値以下の粒子を削除する。また、状態更新部18は、一般的な追跡処理と同様に人物の位置情報を更新する。状態更新部18は、更新した人物の状態を状態記憶装置14に記録する。また、状態更新部18は、各粒子の重み値に応じて粒子を散布し直すリサンプリングを行ってもよい。
人数出力部19は、人物の状態に基づいて、撮影範囲内の人数を出力する。具体的には、人数出力部19は、状態更新部18が更新した粒子の重み値wiを用いて、対象画像に含まれる人数を出力する。
上述したように、粒子の重み値wiの総和は、人数に対応する。そのため、人数出力部19は、粒子の重み値wiの総和を算出して、撮影範囲内の人数を出力してもよい。また、所定の領域に存在する人数を出力する場合、人数出力部19は、その領域に存在する粒子を特定し、特定された粒子の重み値wiの総和を算出すればよい。
また、各粒子の状態に動作状態が含まれている場合、人数出力部19は、例えば、静止状態の粒子の重み値wiの総和を算出して、撮影範囲内に滞留する人数を出力してもよい。
また、人数出力部19は、現在の粒子の状態と過去の粒子の状態とを用いて、特定方向に移動した人数や、撮影範囲の所定の位置に定められた線をまたいだ(すなわち、所定の線を通過した)人数を出力してもよい。具体的には、人数出力部19は、所定の位置を通過した人数を、その位置を通過した粒子の重みに基づいて出力する。以下、時間的に変化する粒子を用いた人数の算出方法を説明する。
特定方向に移動した人数を算出する場合、人数出力部19は、例えば、過去の位置と現在の位置とを結ぶ方向が、特定方向と同一または所定の角度内にある粒子を特定し、それらの粒子の重み値の総和を算出してもよい。なお、人数出力部19は、粒子の重み値の総和を算出する際、過去の粒子の重み値を用いてもよく、現在の粒子の重み値を用いてもよく、両方の粒子の重み値の平均を用いてもよい。
また、所定の線を通過した人数を算出する場合、人数出力部19は、前回の位置から今回の位置へ移動する際に所定の線を通過した粒子を特定し、それらの粒子の重み値の総和を算出する。例えば、所定の線を通過する粒子のうち特定方向に移動した粒子のみを対象とする場合、人数出力部19は、その所定の線の法線ベクトルと粒子の移動方向を示すベクトルとの内積が0以上の粒子を対象としてもよい。具体的には、ここでいう所定の線が水平な直線であるとすると、この直線を通過する粒子には、この直線よりも上の位置から下の位置に移動する粒子と、この直線よりも下の位置から上の位置に移動する粒子とが存在する。人数出力部19は、これらの粒子のうちの上から下に移動する粒子を対象とする場合には、水平な直線に対する法線ベクトル(この場合、真下に向かうベクトル)と各々の粒子の移動方向を示すベクトルの内積を算出し、内積が0以上の粒子を対象とする。
そして、人数出力部19は、所定期間内の重み値の総和を積算することで、所定期間に所定の線を通過した人数を出力できる。なお、人数出力部19は、重み値の総和を算出する際に用いられる粒子の重み値として、特定方向に移動した人数を算出する場合と同様に、現在の重み値、過去の重み値またはその両方を用いることが可能である。
なお、現在の時点で新たに生成された粒子は、過去の状態を有していないため、これらの人数を算出するための対象には含まれない。
図7は、所定の位置を通過した監視対象の数量を算出する処理の例を示す説明図である。図7に例示する点線の円は過去の粒子を示し、実線の円は現在の粒子を示す。また、図7に例示する矢印は、過去から現在への粒子の移動状況を示す。
一例として、実線52で示した位置を上方向から下方向へ通過した人数を算出する場合を想定する。このとき、人数出力部19は、実線52を上方向から下方向へ通過した粒子を特定し、特定した粒子の重みの総和を算出する。図7に示す例では、粒子50b、粒子50cおよび粒子50dが実線52を上方向から下方向へ通過している。そこで、人数出力部19は、粒子50b、粒子50cおよび粒子50dの粒子の重みの総和を算出し、通過人数として出力する。例えば、一定期間内の通過人数を出力したい場合、人数出力部19は、一定期間内の粒子の重みの総和を積算すればよい。
画像入力部11、人数推定部12、フロー計算部13、状態予測部15、滞留情報計算部16、個別人物検出部17、状態更新部18および人数出力部19は、プログラムによって実現され得る。また、これらの各部は、このプログラムに従って動作するコンピュータのプロセッサによって実現され得る。
図10は、移動状況推定装置100を実現するコンピュータ装置200のハードウェア構成を例示するブロック図である。コンピュータ装置200は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、記憶装置204と、ドライブ装置205と、通信インタフェース206と、入出力インタフェース207とを備える。移動状況推定装置100は、図10に示される構成(又はその一部)によって実現され得る。
CPU201は、RAM203を用いてプログラム208を実行する。プログラム208は、ROM202に記憶されていてもよい。また、プログラム208は、フラッシュメモリなどの記録媒体209に記録され、ドライブ装置205によって読み出されてもよいし、外部装置からネットワーク210を介して送信されてもよい。通信インタフェース206は、ネットワーク210を介して外部装置とデータをやり取りする。入出力インタフェース207は、周辺機器(入力装置、表示装置など)とデータをやり取りする。通信インタフェース206及び入出力インタフェース207は、データを取得又は出力する手段として機能することができる。
なお、移動状況推定装置100は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。
なお、移動状況推定装置100は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。
CPU201は、プログラム208に従って、画像入力部11、人数推定部12、フロー計算部13、状態予測部15、滞留情報計算部16、個別人物検出部17、状態更新部18および人数出力部19として機能してもよい。
また、画像入力部11、人数推定部12、フロー計算部13、状態予測部15、滞留情報計算部16、個別人物検出部17、状態更新部18および人数出力部19は、それぞれが専用のハードウェアで実現されていてもよい。また、状態記憶装置14は、記憶装置204によって実現されてもよいし、通信インタフェース206を介して接続された外部装置であってもよい。
次に、本実施形態の移動状況推定装置100の動作を説明する。図8は、本実施形態の移動状況推定装置100の動作例を示すフローチャートである。人数推定部12は、時間的に連続する複数の画像を用いて、各画像の局所領域ごとに人数を推定する(ステップS11)。そして、人数推定部12は、各局所領域において推定された数量の時系列変化から人物の移動状況を推定する(ステップS12)。
具体的には、人数推定部12は、推定された時点の人物の移動状況から人物の将来の位置を予測して各局所領域における将来の人数を予測する。人物の移動状況は、例えば、人物を表す粒子の状態から判断できる。人数推定部12は、例えば、状態予測部15が予測した将来の粒子の位置から、将来の人数を予測できる。そして、人数推定部12は、各局所領域について、予測された人数と推定された人数の差が小さい局所領域を重視する。
以上のように、本実施形態では、人数推定部12が、時間的に連続する複数の画像を用いて、各画像の局所領域ごとに人数を推定し、各局所領域において推定された人数の時系列変化から人物の移動状況を推定する。そのため、本実施形態によれば個々の人物を追跡することが困難な混雑した環境でも、人物の移動状況を精度よく推定できる。
また、本実施形態では、状態予測部15が、人物の状態を表現する複数の粒子を用いて、人物の将来の状態を予測し、人数出力部19が、重みを有する粒子を対象として人数を算出する。すなわち、本実施形態によれば、重み値を有する粒子を用いて監視対象の状態を追跡することにより、特定の箇所を通過した人数の測定が可能である。また、本実施形態によれば、特定の箇所を単に通過した人数だけでなく、特定の方向へ移動する人物の人数を測定することが可能である。これにより、ある場所の単純な混み具合だけでなく、その場所における流量(人の流れ)を測定することも可能になる。
[概要]
次に、本発明の実施形態の概要を説明する。図9は、本実施形態における移動状況推定装置の概要を示すブロック図である。図9に示す移動状況推定装置は、時間的に連続する複数の画像を用いて、各画像の局所領域ごとに監視対象の数量を推定する数量推定部81と、各局所領域において推定された数量の時系列変化から監視対象の移動状況を推定する移動状況推定部82とを備えている。数量推定部81および移動状況推定部82は、上述した実施形態における人数推定部12に相当する。
次に、本発明の実施形態の概要を説明する。図9は、本実施形態における移動状況推定装置の概要を示すブロック図である。図9に示す移動状況推定装置は、時間的に連続する複数の画像を用いて、各画像の局所領域ごとに監視対象の数量を推定する数量推定部81と、各局所領域において推定された数量の時系列変化から監視対象の移動状況を推定する移動状況推定部82とを備えている。数量推定部81および移動状況推定部82は、上述した実施形態における人数推定部12に相当する。
このような構成の移動状況推定装置は、混雑した環境でも監視対象の移動状況を精度よく推定できる。
また、移動状況推定部82は、推定された時点の監視対象の移動状況から監視対象の将来の位置を予測して各局所領域における監視対象の将来の数量を予測してもよい。移動状況推定部82は、局所領域ごとに予測された将来の監視対象の数量と、将来の時点において対象画像から局所領域ごとに推定された監視対象の数量とを比較し、数量の差がより小さい局所領域を重視して、監視対象の移動状況を推定してもよい。
また、移動状況推定部82は、対象画像に撮影された監視対象が、新規の監視対象か対象画像内を移動した監視対象かを判断して、監視対象の移動状況を推定してもよい。
また、移動状況推定装置は、監視対象の状態を表現する複数の粒子を用いて、監視対象の将来の状態を予測する予測部(例えば、状態予測部15)を備えてもよい。また、移動状況推定装置は、推定された各局所領域の監視対象の数量に応じて、その各局所領域に含まれると予測された粒子に設定される重み値を更新する更新部(例えば、状態更新部18)を備えてもよい。
そして、移動状況推定部82は、各局所領域に含まれる粒子の重み値の総和の時系列変化から監視対象の移動状況を推定してもよい。このような構成によれば、監視対象が行う様々な移動状況に対応することが可能になる。
具体的には、更新部は、局所領域に含まれると予測された粒子に設定される重み値の総和が、推定された対応する局所領域の監視対象の数量に近づくように、粒子に設定される重み値を更新してもよい。
なお、1の監視対象の状態を表現する粒子には、合計が1になるように重み値が設定される。また、監視対象の状態を表現する粒子には、少なくとも、その監視対象の位置および速度が設定される。予測部は、粒子に設定された位置および速度に基づいて、監視対象の将来の位置を予測する。
また、移動状況推定装置は、粒子に設定された重みに応じて監視対象の数量を出力する数量出力部(例えば、人数出力部19)を備えてもよい。
具体的には、数量出力部は、所定の位置を通過した監視対象の数量を、その位置を通過した粒子の重みに基づいて出力してもよい。
また、移動状況推定装置は、対象画像のオプティカルフローを計算するフロー計算部(例えば、フロー計算部13)を備えてもよい。そして、更新部は、オプティカルフローに近い動きの粒子の重み値を増加させるように更新してもよい。このような構成によれば、画像から推定される動きに近い粒子を重視して移動状況を推定することが可能になる。
また、移動状況推定装置は、対象画像から滞留物と判定される領域を抽出する滞留情報計算部(例えば、滞留情報計算部16)を備えてもよい。そして、予測部は、視対象の将来の移動状態を予測し、更新部は、移動状態が静止状態と予測された粒子が滞留物と判定された領域に近いほど、その粒子の重み値を大きくするように更新してもよい。このような構成によれば、移動していない監視対象の状態を適切に判断できる。
また、移動状況推定装置は、対象画像(具体的には、監視対象を個別に検知可能な範囲として対象画像に設定された個別検知領域)から監視対象を検出する監視対象検出部を備えてもよい。そして、更新部は、監視対象検出手段が監視対象を検出した範囲については、推定された各局所領域の監視対象の数量を用いる以外の方法で、その各局所領域に含まれると予測された粒子に設定される重み値を更新してもよい。このような方法としては、例えば、一般的なPHDパーティクルフィルタが重み値を更新する方法が挙げられる。
このように、本発明の移動状況推定方法と、監視対象を実際に検出する方法とを組み合わせることで、監視対象の移動状況の推定精度を向上させることができる。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。すなわち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2015年1月14日に出願された日本出願特願2015-004963を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、移動する物体の数量を推定する移動状況推定装置に好適に適用される。本発明は、例えば、固定カメラ等を用いた監視システムなどにおいて、カメラで撮影された映像から人物や車などの物体の流れや、特定箇所を通過する物体の数を推定する装置に好適に適用される。
11 画像入力部
12 人数推定部
13 フロー計算部
14 状態記憶装置
15 状態予測部
16 滞留情報計算部
17 個別人物検出部
18 状態更新部
19 人数出力部
20 対象画像
21,41a~41c,42a~42c,43 局所領域
50a~50f,51a~51f 粒子
12 人数推定部
13 フロー計算部
14 状態記憶装置
15 状態予測部
16 滞留情報計算部
17 個別人物検出部
18 状態更新部
19 人数出力部
20 対象画像
21,41a~41c,42a~42c,43 局所領域
50a~50f,51a~51f 粒子
Claims (9)
- 複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する推定手段、
を備える情報処理システム。 - 前記推定手段は、
前記複数の領域ごとの人数を推定し、
前記複数の領域ごとに推定された前記人数の時系列変化に基づき、前記移動経路を推定する、
請求項1に記載の情報処理システム。 - さらに、前記移動経路を表示させる表示制御手段、
を備える請求項1または2に記載の情報処理システム。 - 前記表示制御手段は、前記複数の領域ごとに推定された前記人数に応じた態様を表示させる、
請求項3に記載の情報処理システム。 - さらに、前記複数の領域ごとに推定された前記人数に応じた態様を表示させる表示制御手段、
を備える請求項1または2に記載の情報処理システム。 - 前記表示制御手段は、前記人数に応じた色を表示させる、
請求項3から5のいずれか1項に記載の情報処理システム。 - 前記領域は撮像画像における局所領域である、
請求項1から6のいずれか1項に記載の情報処理システム。 - コンピュータが、
複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する、
情報処理方法。 - 複数の領域に存在する人数の時系列変化に基づき、人物の移動経路を推定する推定処理、
をコンピュータに実行させるプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015004963 | 2015-01-14 | ||
JP2015004963 | 2015-01-14 | ||
JP2020172914A JP7163945B2 (ja) | 2015-01-14 | 2020-10-14 | 移動状況推定装置、移動状況推定方法およびプログラム記録媒体 |
JP2022123727A JP7428213B2 (ja) | 2015-01-14 | 2022-08-03 | 情報処理システム、情報処理方法及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022123727A Division JP7428213B2 (ja) | 2015-01-14 | 2022-08-03 | 情報処理システム、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024041997A true JP2024041997A (ja) | 2024-03-27 |
Family
ID=56405682
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569286A Active JP6969871B2 (ja) | 2015-01-14 | 2016-01-13 | 移動状況推定装置、移動状況推定方法およびプログラム |
JP2020172914A Active JP7163945B2 (ja) | 2015-01-14 | 2020-10-14 | 移動状況推定装置、移動状況推定方法およびプログラム記録媒体 |
JP2022123727A Active JP7428213B2 (ja) | 2015-01-14 | 2022-08-03 | 情報処理システム、情報処理方法及びプログラム |
JP2024007200A Pending JP2024041997A (ja) | 2015-01-14 | 2024-01-22 | 情報処理装置、情報処理方法およびプログラム |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569286A Active JP6969871B2 (ja) | 2015-01-14 | 2016-01-13 | 移動状況推定装置、移動状況推定方法およびプログラム |
JP2020172914A Active JP7163945B2 (ja) | 2015-01-14 | 2020-10-14 | 移動状況推定装置、移動状況推定方法およびプログラム記録媒体 |
JP2022123727A Active JP7428213B2 (ja) | 2015-01-14 | 2022-08-03 | 情報処理システム、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (5) | US10325160B2 (ja) |
JP (4) | JP6969871B2 (ja) |
WO (1) | WO2016114134A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017154655A1 (ja) | 2016-03-07 | 2017-09-14 | 日本電気株式会社 | 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体 |
CN109479117A (zh) * | 2016-07-14 | 2019-03-15 | 三菱电机株式会社 | 群集监视装置和群集监视*** |
US10936882B2 (en) | 2016-08-04 | 2021-03-02 | Nec Corporation | People flow estimation device, display control device, people flow estimation method, and recording medium |
JP6977730B2 (ja) * | 2016-09-13 | 2021-12-08 | 日本電気株式会社 | 人流推定装置、人流推定方法およびプログラム |
JP6820204B2 (ja) * | 2017-01-18 | 2021-01-27 | 日本放送協会 | 状態推定器、及びプログラム |
JP6914699B2 (ja) | 2017-04-04 | 2021-08-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10839552B2 (en) * | 2017-06-01 | 2020-11-17 | Nec Corporation | Image processing apparatus, tracking method, and program |
JP6841774B2 (ja) * | 2018-01-19 | 2021-03-10 | 日本電信電話株式会社 | 予測装置、予測方法及びコンピュータプログラム |
SG10201802673VA (en) * | 2018-03-29 | 2019-10-30 | Nec Asia Pacific Pte Ltd | Method and system for integration and automatic switching of crowd estimation techniques |
WO2019229979A1 (ja) * | 2018-06-01 | 2019-12-05 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
JP7216487B2 (ja) * | 2018-06-21 | 2023-02-01 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2019220087A (ja) * | 2018-06-22 | 2019-12-26 | 日本電信電話株式会社 | 推定方法、推定装置及び推定プログラム |
JP7160209B2 (ja) * | 2019-08-22 | 2022-10-25 | 日本電信電話株式会社 | 人数推定装置、人数推定方法、及び人数推定プログラム |
JP7443002B2 (ja) * | 2019-09-13 | 2024-03-05 | キヤノン株式会社 | 画像解析装置、画像解析方法、及びプログラム |
JP7327645B2 (ja) * | 2020-03-12 | 2023-08-16 | 日本電気株式会社 | 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム |
US11983930B2 (en) * | 2020-03-27 | 2024-05-14 | Nec Corporation | Person flow prediction system, person flow prediction method, and programrecording medium |
US11373425B2 (en) * | 2020-06-02 | 2022-06-28 | The Nielsen Company (U.S.), Llc | Methods and apparatus for monitoring an audience of media based on thermal imaging |
US11553247B2 (en) | 2020-08-20 | 2023-01-10 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition |
US11763591B2 (en) | 2020-08-20 | 2023-09-19 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition |
US11595723B2 (en) | 2020-08-20 | 2023-02-28 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on voice recognition |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0460880A (ja) * | 1990-06-29 | 1992-02-26 | Shimizu Corp | 動体識別解析管理システム |
JP2855157B2 (ja) * | 1990-07-17 | 1999-02-10 | 清水建設株式会社 | 群衆歩行シミュレーションシステム |
JP2001076291A (ja) | 1999-09-02 | 2001-03-23 | Nri & Ncc Co Ltd | 通行量測定システム |
US6633232B2 (en) * | 2001-05-14 | 2003-10-14 | Koninklijke Philips Electronics N.V. | Method and apparatus for routing persons through one or more destinations based on a least-cost criterion |
US7123918B1 (en) | 2001-08-20 | 2006-10-17 | Verizon Services Corp. | Methods and apparatus for extrapolating person and device counts |
JP2006031645A (ja) * | 2004-07-12 | 2006-02-02 | Nariyuki Mitachi | 動的群集密度のリアルタイム推定方法及び群集事故防止システム |
JP2006270865A (ja) * | 2005-03-25 | 2006-10-05 | Victor Co Of Japan Ltd | 画像監視装置 |
JP2007243342A (ja) * | 2006-03-06 | 2007-09-20 | Yokogawa Electric Corp | 画像監視装置及び画像監視システム |
US20080114633A1 (en) * | 2006-11-10 | 2008-05-15 | Wayne Wolf | Method and Apparatus for Analyzing Activity in a Space |
JP4624396B2 (ja) | 2007-10-26 | 2011-02-02 | パナソニック株式会社 | 状況判定装置、状況判定方法、状況判定プログラム、異常判定装置、異常判定方法および異常判定プログラム |
US20090158309A1 (en) | 2007-12-12 | 2009-06-18 | Hankyu Moon | Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization |
JP5456022B2 (ja) * | 2008-04-14 | 2014-03-26 | ジーブイビービー ホールディングス エス.エイ.アール.エル. | オブジェクトを自動的に追跡する技術 |
JP2009294887A (ja) * | 2008-06-05 | 2009-12-17 | Vector Research Institute Inc | 建築設備制御システムおよびプログラム |
JP2010198566A (ja) | 2009-02-27 | 2010-09-09 | Nec Corp | 人数計測装置、方法及びプログラム |
WO2012111138A1 (ja) * | 2011-02-18 | 2012-08-23 | 株式会社日立製作所 | 歩行者移動情報検出装置 |
JP5776312B2 (ja) * | 2011-04-28 | 2015-09-09 | 大日本印刷株式会社 | 画像解析装置、画像解析方法、画像解析プログラム及び記録媒体 |
JP5680524B2 (ja) * | 2011-12-09 | 2015-03-04 | 株式会社日立国際電気 | 画像処理装置 |
US9165190B2 (en) | 2012-09-12 | 2015-10-20 | Avigilon Fortress Corporation | 3D human pose and shape modeling |
JP2014106879A (ja) * | 2012-11-29 | 2014-06-09 | Railway Technical Research Institute | 人の分布状況推定システム |
WO2014112407A1 (ja) * | 2013-01-16 | 2014-07-24 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2014203389A1 (ja) * | 2013-06-21 | 2014-12-24 | 株式会社日立製作所 | センサ配置決定装置およびセンサ配置決定方法 |
CN105593901B (zh) * | 2013-06-28 | 2020-06-12 | 日本电气株式会社 | 训练数据生成设备、方法和程序以及人群状态识别设备、方法和程序 |
JP5613815B1 (ja) * | 2013-10-29 | 2014-10-29 | パナソニック株式会社 | 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法 |
JP6331785B2 (ja) * | 2014-07-08 | 2018-05-30 | 日本電気株式会社 | 物体追跡装置、物体追跡方法および物体追跡プログラム |
JP5854098B2 (ja) * | 2014-08-08 | 2016-02-09 | 大日本印刷株式会社 | 情報表示装置及び情報表示用プログラム |
-
2016
- 2016-01-13 US US15/543,408 patent/US10325160B2/en active Active
- 2016-01-13 JP JP2016569286A patent/JP6969871B2/ja active Active
- 2016-01-13 WO PCT/JP2016/000146 patent/WO2016114134A1/ja active Application Filing
-
2019
- 2019-03-08 US US16/296,516 patent/US10755108B2/en active Active
- 2019-03-08 US US16/296,468 patent/US10657386B2/en active Active
-
2020
- 2020-07-06 US US16/921,447 patent/US20200334472A1/en not_active Abandoned
- 2020-10-14 JP JP2020172914A patent/JP7163945B2/ja active Active
-
2022
- 2022-06-24 US US17/849,211 patent/US20220327839A1/en active Pending
- 2022-08-03 JP JP2022123727A patent/JP7428213B2/ja active Active
-
2024
- 2024-01-22 JP JP2024007200A patent/JP2024041997A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7428213B2 (ja) | 2024-02-06 |
US20190220672A1 (en) | 2019-07-18 |
US10657386B2 (en) | 2020-05-19 |
JPWO2016114134A1 (ja) | 2017-10-26 |
JP2022166067A (ja) | 2022-11-01 |
WO2016114134A1 (ja) | 2016-07-21 |
JP6969871B2 (ja) | 2021-11-24 |
US10325160B2 (en) | 2019-06-18 |
US20220327839A1 (en) | 2022-10-13 |
US20190205660A1 (en) | 2019-07-04 |
US20180005046A1 (en) | 2018-01-04 |
JP2021036437A (ja) | 2021-03-04 |
US20200334472A1 (en) | 2020-10-22 |
JP7163945B2 (ja) | 2022-11-01 |
US10755108B2 (en) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7428213B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US10943204B2 (en) | Realtime video monitoring applied to reduce customer wait times | |
JP5102410B2 (ja) | 移動体検出装置および移動体検出方法 | |
US9767570B2 (en) | Systems and methods for computer vision background estimation using foreground-aware statistical models | |
US7940957B2 (en) | Object tracker for visually tracking object motion | |
JP5459674B2 (ja) | 移動物体追跡システムおよび移動物体追跡方法 | |
JP2020149704A (ja) | ビデオデータを用いた活動モニタリングのためのシステム及び方法 | |
EP2461292A1 (en) | Mobile body detection apparatus and mobile body detection method | |
US8363902B2 (en) | Moving object detection method and moving object detection apparatus | |
JP6120404B2 (ja) | 移動体行動分析・予測装置 | |
JP6675984B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US20160012608A1 (en) | Object tracking device, object tracking method, and computer-readable medium | |
Manikandan et al. | Video object extraction by using background subtraction techniques for sports applications | |
CN104219488A (zh) | 目标图像的生成方法和装置、以及视频监控*** | |
US10929688B2 (en) | System and method of video content filtering | |
KR101840042B1 (ko) | 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템 | |
CN109977796A (zh) | 尾随通行检测方法及装置 | |
KR100994722B1 (ko) | 카메라 핸드오프를 이용한 다중 카메라상의 연속적인 물체추적 방법 | |
JP2021149687A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
Parvathy et al. | Anomaly detection using motion patterns computed from optical flow | |
JP2018074299A (ja) | 流動状況計測装置、方法、及びプログラム | |
JP2022159694A (ja) | 物体追跡装置 | |
Li et al. | A method of camera selection based on partially observable Markov decision process model in camera networks | |
Blythe | Video-based vehicle and pedestrian tracking and motion modelling | |
Monti et al. | Joint multitarget object tracking and interaction analysis by a probabilistic bio-inspired model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240122 |