JP2018160219A - 移動経路予測装置、及び移動経路予測方法 - Google Patents

移動経路予測装置、及び移動経路予測方法 Download PDF

Info

Publication number
JP2018160219A
JP2018160219A JP2017058528A JP2017058528A JP2018160219A JP 2018160219 A JP2018160219 A JP 2018160219A JP 2017058528 A JP2017058528 A JP 2017058528A JP 2017058528 A JP2017058528 A JP 2017058528A JP 2018160219 A JP2018160219 A JP 2018160219A
Authority
JP
Japan
Prior art keywords
information
prediction
movement
sensor
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017058528A
Other languages
English (en)
Other versions
JP6814673B2 (ja
Inventor
田村 雅人
Masahito Tamura
雅人 田村
恭平 海野
Kyohei UNNO
恭平 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017058528A priority Critical patent/JP6814673B2/ja
Publication of JP2018160219A publication Critical patent/JP2018160219A/ja
Application granted granted Critical
Publication of JP6814673B2 publication Critical patent/JP6814673B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】人物の移動経路を正確に予測する。【解決手段】移動経路予測装置は、画像取得装置(ビデオカメラ)等のセンサによって取得される情報であるセンサ情報(時系列画像等)を取得し、センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成し、人物の行動に関する情報である行動情報を記憶し、移動履歴情報と行動情報とに基づき、行動情報と当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成し、センサ情報等から取得される追跡対象者の行動情報に対応する予測移動経路を予測モデルから取得し、取得した予測移動経路を示す情報を出力する。移動経路予測装置は、例えば、画像取得装置から取得される時系列情報に基づき行動情報を生成する。【選択図】図3

Description

本発明は、移動経路予測装置、及び移動経路予測方法に関する。
特許文献1には、「異常挙動が生じる前にそれを予測することが可能な監視システムは存在していない。その種のシステムは、その種の侵害または事故が発生した後にそれらをレポートするのではなく、多様なセキュリティ侵害を防止して生命を救うことができる。」、「本発明は、監視デバイスによって観察されている移動物体の将来の場所を予測するための方法である。この方法は、その移動物体に対応する動きデータを監視デバイスから受取り、受取ったデータに基づいてメタデータを生成するステップを包含し、それにおいて当該メタデータは、その移動物体のタイムスタンプ、場所、および大きさを含む。さらにこの方法は、メタデータに基づいてデータ構造に対して少なくとも1つのウェーブレット変換を実行し、その少なくとも1つのウェーブレット変換に基づいてキーを生成するステップを包含する。この方法は、さらに、そのキーを使用して予測モデル・データベースのクエリを行うステップを包含し、それにおいて予測モデル・データベーは、学習済みデータに基づく予測モデルをストアしており、かつそれにおいて予測モデルは、それぞれ、学習済み軌跡の第1の部分に基づくモデル・キー、当該学習済み軌跡の第2の部分に基づくモデル予測、およびモデル・キーとモデル予測の間における相関に対応するカウントを含む。この方法は、前記予測モデル・データベースから少なくとも1つの予測モデルを受取るステップを含み、そのキーと受取る予測モデルのモデル・キーの類似性に基づいてそれを受取る。さらにこの方法は、受取ったモデル・キーおよび受取ったカウントに基づいて、その移動物体の少なくとも1つの将来の場所を生成するステップを包含する。」と記載されている。
特表2012−518846号公報
特許文献1には、ビデオ・データ等の監視データに基づきビデオ監視システム内における異常挙動を予測する方法について記載されている。ここで例えば犯罪者等の異常者と正常者とでは将来の移動経路が異なるため、ビデオ・データ等の監視データに基づき人物の移動経路を正確に予測する場合には人物がとる行動等の人物に関する情報についても考慮する必要がある。特許文献1では、監視データから生成した予測モデルに基づき移動物体の将来の場所を予測しているが、人物がとる行動等の人物に関する情報については何ら考慮されていない。
本発明は、こうした背景に鑑みてなされたもので、人物の移動経路を正確に予測することが可能な移動経路予測装置、及び移動経路予測方法を提供することを目的とする。
上記目的を達成するための本発明の一つは、移動経路予測装置であって、センサによって取得される情報であるセンサ情報を取得するセンサ情報取得部と、前記センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成する移動履歴情報生成部と、人物の行動に関する情報である行動情報を記憶する情報記憶部と、前記移動履歴情報と前記行動情報とに基づき、前記行動情報と当該人物が移動することが予測される移動経路
である予測移動経路とを対応づけた情報を含む予測モデルを生成する予測モデル生成部と、追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得する移動経路予測部と、取得した前記予測移動経路を示す情報を出力する予測結果出力部と、を備える。
その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。
本発明によれば、人物の移動経路を正確に予測することができる。
第1実施形態として示す移動経路予測システムの構成を示す図である。 移動経路予測装置のハードウェアの一例である。 第1実施形態の移動経路予測装置のブロック図である。 移動経路予測処理を説明するフローチャートである。 移動軌跡情報生成処理を説明するフローチャートである。 移動軌跡情報の一例である。 行動情報生成処理を説明するフローチャートである。 動作モデル情報の一例である。 行動情報の一例である。 予測モデルの一例である。 予測移動経路の一例である。 予測結果表示画面の一例である。 予測モデル生成処理を説明するフローチャートである。 第2実施形態の移動経路予測システムの構成を示す図である。 第2実施形態の移動経路予測装置のブロック図である。 第3実施形態の移動経路予測システムの構成を示す図である。 携帯情報端末に表示される予測結果表示画面の一例である。
以下、実施形態について説明する。以下の説明において、同一の又は類似する構成について同一の符号を用いて重複した説明を省略することがある。
[第1実施形態]
図1に第1実施形態として示す移動経路予測システム1の構成を示している。同図に示すように、移動経路予測システム1は、一つ以上の画像取得装置2と、移動経路予測装置100とを含む。移動経路予測システム1は、画像取得装置2から提供される情報に基づき、人物の移動軌跡に関する情報(以下、移動軌跡情報と称する。)、及び人物の行動に関する情報(以下、行動情報と称する。)を生成し、生成した移動軌跡情報及び行動情報に基づき人物(追跡対象者3)の将来の移動経路を予測し、予測した結果をユーザに提供(表示等)する。移動経路予測システム1は、例えば、ショッピングセンタやコンビニエンスストア等の店舗における不審者や子供の行動監視、福祉施設における障害者や老人等の行動監視に適用される。
画像取得装置2と移動経路予測装置100は、例えば、有線又は無線の通信手段(LAN(Local Area Network)、無線LAN(Wi−Fi等)、USB(Universal Serial Bus Interface)等)を介して通信可能に接続している。画像取得装置2は、人物の移動軌跡情報や行動情報を取得するためのセンサの一例である。尚、例えば、監視カメラ等の画像取得装置2が現場に予め設置されている場合は画像取得装置2をセンサとして移動経路
予測システム1に利用することが可能であり、その場合はシステムの導入費用を削減することができる。
画像取得装置2は、監視対象領域の時系列的な画像(以下、時系列画像と称する。)を取得する。時系列画像は、時系列的に取得された画像(静止画)の集まりである。時系列画像を構成する各画像には夫々が取得(撮影)された日時を示す情報(例えば、タイムスタンプ)が付帯している。時系列画像は、例えば、映像(動画)から取得されるものであってもよい。
移動経路予測システム1を構成する複数の画像取得装置2は、互いに撮影範囲が異なるように設置位置、撮影方向、レンズ倍率等が設定されている。複数の画像取得装置2間で撮影範囲の一部が重複していてもよい。また画像取得装置2は、例えば、公知の動体検知等の仕組みと連携し、自動的に人物が存在する方向に撮影方向が向くように構成されたものであってもよい。
画像取得装置2としては、例えば、監視カメラ等のビデオカメラを想定しているが、時系列画像を取得可能なものであれば画像取得装置2の構成や種類は必ずしも限定されない。画像取得装置2は、例えば、夜間撮影が可能な赤外線カメラ等の暗視カメラや距離画像を取得可能なカメラ(タイムオブフライト(TOF: Time Of Flight)カメラ、ステレオカ
メラ等)であってもよい。画像取得装置2は、移動経路予測装置100と通信するための有線方式又は無線方式の通信手段(LANインタフェース(Local Area Network Interface)、USBインタフェース(Universal Serial Bus Interface)、無線通信モジュール等)を備える。
移動経路予測装置100は、画像取得装置2が取得した時系列画像に基づき、人物の移動軌跡情報や行動情報を取得し、取得した情報に基づき人物(追跡対象者3)の未来の移動経路を予測し、予測した結果をユーザに提供(表示等)する。尚、移動経路予測装置100は、画像取得装置2が取得した時系列画像に基づき移動軌跡情報を取得する。また移動経路予測装置100は、画像取得装置2が取得した時系列画像について、例えば、予め記憶している動作モデルとの間でパターンマッチングを行うことにより人物の行動情報を取得する。
図2に移動経路予測装置100のハードウェアの一例を示す。同図に示すように、移動経路予測装置100は、プロセッサ51、主記憶装置52、補助記憶装置53、入力装置54、出力装置55、及び通信装置56の各構成を有し、これらはバス等の通信手段を介して互いに通信可能に接続されている。移動経路予測装置100は情報処理装置として機能することができる。
プロセッサ51は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等を用いて構成されている。プロセッサ51が、主記憶装置52に格納されているプログラムを読み出して実行することにより、移動経路予測装置100の全部又は一部の機能が実現される。主記憶装置52は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性半導体メモリ(NVRAM(Non Volatile RAM))等であり、プログラムやデータを記憶する。
補助記憶装置53は、例えば、ハードディスクドライブ、SSD(Solid State Drive
)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDメモリカードや光学式記録媒体等の記録媒体の読取/書込装置等である。補助記憶装置53に格納されているプログラムやデータは主記憶装
置52に随時ロードされる。補助記憶装置53は、例えば、ネットワークストレージのように移動経路予測装置100とは独立した構成としてもよい。
入力装置54は、外部入力を受け付けるユーザインタフェースであり、例えば、キーボード、マウス、タッチパネル等である。尚、例えば、移動経路予測装置100が、外部入力を通信装置56を介して受け付ける構成としてもよい。
出力装置55は、処理経過や処理結果等の各種情報を外部に提供するユーザインタフェースであり、例えば、画面表示装置(液晶ディスプレイ(Liquid Crystal Display)、プロジェクタ、グラフィックカード等)、印字装置等である。尚、例えば、移動経路予測装置100が、処理経過や処理結果等の各種情報を通信装置56を介して外部に提供する構成としてもよい。
通信装置56は、画像取得装置2等の他の装置や素子との間の通信を実現する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール等である。
図3は、移動経路予測装置100が備える機能、及び移動経路予測装置100が記憶する情報(データ)を示すブロック図である。同図に示すように、移動経路予測装置100は、画像取得部311、移動軌跡情報生成部312、行動情報生成部313、移動経路予測部314、予測結果出力部316、予測モデル生成部315、及び情報記憶部317の各機能を備える。これらの機能は、例えば、移動経路予測装置100のプロセッサ51が、主記憶装置52や補助記憶装置53に格納されているプログラムを読み出して実行することにより実現される。またこれらの機能は、例えば、移動経路予測装置100が備えるハードウェア(FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等)によって実現される。尚、移動経路予測装置100は、これらの機能以外に、例えば、オペレーティングシステム、デバイスドライバ、DBMS(DataBase Management System)等を備えていてもよい。
情報記憶部317は、移動経路予測装置100の機能の実現に用いる各種情報、具体的には、時系列画像351、移動軌跡情報352、行動情報353、動作モデル情報354、予測モデル355、及び予測結果356を記憶する。情報記憶部317は、これらの情報を、例えば、ファイルシステムやDBMSによって管理する。
上記機能のうち、画像取得部311は、画像取得装置2から送られてくる時系列画像351を取得する。移動軌跡情報生成部312は、時系列画像に基づき移動軌跡情報352を生成する。行動情報生成部313は、時系列画像に基づき行動情報353を生成する。移動経路予測部314は、移動軌跡情報352及び行動情報353に基づき、人物(追跡対象者3)の移動経路を予測する。予測モデル生成部315は、移動軌跡情報352及び行動情報353に基づき、人物の移動経路の予測に際して用いる予測モデル355を生成する。予測結果出力部316は、移動経路予測部314が予測した予測結果を示す情報(予測結果356)を生成して出力装置55に出力する。
図4は、人物の移動経路の予測に際して移動経路予測装置100が行う処理(以下、移動経路予測処理S400と称する。)を説明するフローチャートである。以下、同図とともに移動経路予測処理S400について説明する。
同図に示すように、まず移動経路予測装置100の画像取得部311は、画像取得装置2から送られてくる時系列画像351を取得(受信)する(S411)。尚、画像取得部311は、時系列画像351を画像取得装置2からリアルタイムに受信することが望まし
いが、後述する人物の移動経路の予測に支障が出ない程度であれば時間差をもって時系列画像351を画像取得装置2から受信してもよい。
続いて、移動経路予測装置100の移動軌跡情報生成部312が、時系列画像351に基づき人物の移動軌跡情報352を生成する処理(以下、移動軌跡情報生成処理S412と称する。)を行う。また移動経路予測装置100の行動情報生成部313が行動情報353を生成する処理(以下、行動情報生成処理S413と称する。)を行う。尚、移動経路予測装置100は、移動軌跡情報生成処理S412及び行動情報生成処理S413を並列処理として行ってもよいし、一方が終了した後に他方を開始する順次処理として行ってもよい。
図5は、移動軌跡情報生成処理S412の詳細を説明するフローチャートである。以下、同図とともに移動軌跡情報生成処理S412について説明する。
同図に示すように、移動軌跡情報生成部312は、まず図4のS411で取得した時系列画像351に基づき人物の移動軌跡を取得する(S511)。移動軌跡情報生成部312は、例えば、人物の特徴点を追跡する方法、オプティカルフローとクラスタリングを用いて人物の動きを捉える方法、色ヒストグラムを用いて人物を追跡する方法等により、人物の移動軌跡を取得する。移動軌跡を構成する各点の位置座標の取得は、例えば、画像取得装置2の設置位置や撮影方向、レンズ倍率等をパラメータとして、時系列画像に公知の位置推定アルゴリズムや画像解析アルゴリズム、ビデオ解析アルゴリズム等を適用することにより行う。
続いて、移動軌跡情報生成部312は、各画像取得装置2の時系列画像351から取得された、同一の人物についての軌跡を連結する。まず移動軌跡情報生成部312は、各画像取得装置2から取得した時系列画像351から、人物が写っている領域(以下、人物領域と称する。)を特定する(S512)。移動軌跡情報生成部312は、例えば、画像取得装置2が人物の特徴点を基準として所定範囲を切り出す方法、公知の人検出のアルゴリズムを利用する方法等により人物領域を特定する。
続いて、移動軌跡情報生成部312は、特定した人物領域の夫々について特徴量(以下、人物特徴量と称する。)を求める(S513)。移動軌跡情報生成部312は、例えば、色ヒストグラムやエッジ特徴量、ディープラーニング(Deep Learning)等の機械学習
手法により求めた特徴量等を人物特徴量として用いる。例えば、人物の向きや人物の姿勢等の情報(メタデータ)を人物特徴量として用いてもよい。また例えば、人の手や足などの人の部位(パーツ)毎の特徴量を人物特徴量として用いてもよい。
続いて、移動軌跡情報生成部312は、人物特徴量間の類似度を求める(S514)。移動軌跡情報生成部312は、例えば、ユークリッド距離やコサイン距離等のベクトル距離に基づく方法、距離学習(Metric Learning)等の機械学習の手法を用いて距離を状況
に応じて適応的に変化させる方法等により人物特徴量間の類似度を求める。
続いて、移動軌跡情報生成部312は、人物特徴量間の類似度が高い(類似度が予め設定した閾値を超える)時系列画像に基づく移動軌跡を組み合わせることにより人物の移動軌跡を連結する(S515)。尚、いずれの画像取得装置2にも写っていない範囲については、例えば、連結する各時系列画像の移動軌跡の開始点や終了点、開始点の時刻や終了点の時刻、人物が移動可能な範囲に関する情報を用いて移動軌跡を補完する。例えば、移動軌跡情報生成部312は、移動軌跡を時系列に並べ、隣り合う移動軌跡について、時間的に前の移動軌跡の終了点と時間的に後の軌跡の開始点とを最短距離で結んだものを移動軌跡として補完する。
情報記憶部317は、以上のようにして求めた移動軌跡を移動軌跡情報352として記憶する(S516)。
以上の処理によれば、複数の画像取得装置2から取得される時系列画像に基づき、監視対象となる領域の広範囲に亘って人物(追跡対象者3)の移動軌跡を取得することができる。そのため、例えば、監視対象である施設の全体における人物の移動経路を予測する仕組みを容易に実現することができる。
図6に移動軌跡情報生成部312が生成する移動軌跡情報352の一例を示している。同図に示すように、移動軌跡情報352は、軌跡ID611、画像取得装置ID612、ローカル座標613、ワールド座標614、及び取得日時615の各項目を有する一つ以上のレコードで構成されている。各レコードは、時系列画像から特定される、人物が存在していた場所(移動軌跡を構成する各点)に対応している。
上記項目のうち、軌跡ID611には、移動経路予測装置100が求めた軌跡毎に付与される識別子(以下、軌跡IDと称する。)が設定される。同じ人物の移動軌跡には同じ軌跡IDが付与される。同じ軌跡IDのレコードで表される各点を結ぶことで移動軌跡の全体が表される。
画像取得装置ID612には、当該レコードの内容の取得元となる時系列画像の提供元の画像取得装置2の識別子(以下、画像取得装置IDと称する。)が設定される。
ローカル座標613には、当該レコードが表す点の位置を、画像取得装置2毎に個別に設定された座標系(以下、ローカル座標と称する。)で表した位置座標が設定される。
ワールド座標614には、当該レコードが表す点の位置を、複数の画像取得装置2について統一して(共通に)設定された座標系(以下、ワールド座標と称する。)で表した位置座標が設定される。本実施形態では、ローカル座標及びワールド座標を二次元座標(平面座標)としているが、ローカル座標及びワールド座標は三次元座標であってもよい。ローカル座標とワールド座標との間の変換は、例えば、複数の画像取得装置2の夫々の設置位置や撮影方向、レンズ倍率等に基づき生成した変換行列式(変換マップ)により行うことができる。
取得日時615には、当該レコードの元になる時系列画像が画像取得装置2によって取得された日時(時系列画像に付帯するタイムスタンプから取得される日時)が設定される。
尚、例えば、移動軌跡の変化が激しい期間(単位時間当たりの変化の発生回数が多い期間)においては短い時刻間隔で移動軌跡情報352のレコードを生成し、軌跡の時間変化が少ない期間単位時間当たりの変化の発生回数が少ない期間)においては長い時間間隔で移動軌跡情報352のレコードを生成するようにすれば、移動軌跡情報352のデータサイズの増大を抑制することができる。
図7は、図4に示した行動情報生成処理S413の詳細を説明するフローチャートである。以下、同図とともに行動情報生成処理S413について説明する。
まず移動経路予測装置100の行動情報生成部313は、前述した図5のS512と同様の方法により、各画像取得装置2の時系列画像から、人物が写っている領域(以下、人物領域と称する。)を特定する(S711)。
続いて、行動情報生成部313は、特定した人物領域の夫々について、人物の動作に関する情報を検出する(S712)。例えば、行動情報生成部313は、人物領域に対して画像処理を行うことにより骨格情報(スケルトン情報)を抽出し、抽出した骨格情報から取得される関節の動きに関する情報から「物を持ち上げる動作」を検出する。また例えば、行動情報生成部313は、「狭い領域を往復」していることから「うろつき」の動作を検出する。
続いて、行動情報生成部313は、各人物領域について検出した動作に基づき、各人物領域について人物の行動を特定する(S713)。行動情報生成部313は、人物の一連の動作又は動作の組み合わせを動作モデル情報354と対照することにより行動を特定する。
図8に動作モデル情報354の一例を示す。同図に示すように、動作モデル情報354には、人物の動作又は動作の組み合わせ(動作811)と、行動812とを対応づけた一つ以上のレコードで構成されている。動作モデル情報354の内容は、例えば、入力装置54や出力装置55を用いて構成されるユーザインタフェースを介してユーザが設定する。また、例えば、ある行動に達するまでの動作を行う画像を学習データとし、当該学習データに基づき行動を自動的に特定することにより、移動経路予測装置100が動作モデル情報354の内容を自動生成するようにしてもよい。
行動情報生成部313は、動作モデル情報354に基づき、例えば、人物領域から「物を持ち上げる」動作と「鞄にしまう」動作の双方を検出した場合、動作モデル情報354に基づき「万引き」の行動であると特定する。また行動情報生成部313は、「狭い領域を往復する」動作を検出した場合、動作モデル情報354に基づき「迷子」の行動であると特定する。
図7に戻り、続いて、情報記憶部317が、行動情報生成部313が特定した行動を行動情報353として記憶する。以上により、図4の行動情報生成処理S413が終了する。
図9に行動情報353の一例を示す。同図に示すように、行動情報353は、軌跡ID911、行動912、発生座標913、及び発生日時914の各項目を有する一つ以上のレコードで構成されている。
上記項目のうち、軌跡ID911には、前述した軌跡IDが設定される。軌跡IDにより、当該行動と当該行動を起こした人物の移動軌跡(移動軌跡情報352の軌跡ID611と同一の軌跡IDが設定されているレコード)とが関連付けられる。
行動912には、前述した行動情報生成処理S413によって特定された行動が設定される。本例では、行動912に「万引き」、「迷子」、「立入り禁止区域侵入」が設定されている。
発生座標913には、当該レコードの行動が行われた場所を示すワールド座標で表された位置座標が設定される。
発生日時914には、当該行動が行われた日時(時系列画像に付帯するタイムスタンプから取得される日時)が設定される。
図4に戻り、続いて、移動経路予測装置100の移動経路予測部314が、移動軌跡情
報352及び行動情報353の内容と、予測モデル355の内容とを対照することにより、人物(追跡対象者3)の移動経路を予測する(S414)。
図10に予測モデル355の一例を示す。尚、予測モデル355の生成方法については後述する。
同図に示すように、予測モデル355は、予測ID1011、行動1012、発生座標1013、発生日時1014、予測移動経路1015、及び確率1016の各項目を有する一つ以上のレコードで構成されている。
上記項目のうち、予測ID1011には、予測結果(当該予測モデル355の各レコード)の識別子が設定される。
行動1012、発生座標1013、及び発生日時1014の各項目には、夫々、行動情報353における、行動912、発生座標913、及び発生日時914と同様の内容が設定される。尚、行動1012、発生座標1013、及び発生日時1014は、移動経路を予測しようとする人物(追跡対象者3)の行動(行動情報353の内容)に基づき予測移動経路1015及び確率1016を特定する際のキー項目となる。
予測移動経路1015には、予測される移動経路(以下、予測移動経路と称する。)を示す情報(本例では図11の予測移動経路1015を特定する情報(後述の経路ID))が設定される。
図11に予測移動経路1015に設定される情報の一例を示す。同図に示すように、予測移動経路1015には、経路ID1111、座標1112、及び順序1113の各項目を含む一つ以上のレコードからなる情報が設定される。このうち経路ID1111には、予測移動経路の識別子(以下、経路IDと称する。)が設定される(予測モデル355の予測移動経路1015と同じ経路IDが設定される。)。座標1112には、予測移動経路上の点の位置座標が設定される。順序1113には、各点を連結する順序を示す情報が設定される。各レコードが表す点を順序1113に従って並べることにより予測移動経路の全体が表現される。
図10に戻り、確率1016には、人物(追跡対象者3)が当該予測移動経路を通る確率を示す情報が設定される。尚、移動軌跡の変化が激しい期間においては短い時刻間隔で予測モデル355のレコードを生成し、軌跡の時間変化が少ない期間においては長い時間間隔で予測モデル355のレコードを生成することで、予測モデル355のデータサイズの増大を抑制することができる。
図4に戻り、S414において、移動経路予測部314は、行動情報353を予測モデル355と対照し、人物(追跡対象者3)が起こした行動に対応するレコード(例えば、行動情報353の、行動912、発生座標913、及び発生日時914の組み合わせが一致するレコード)を予測モデル355から抽出する。
例えば、図9の行動情報353の軌跡ID911が「1」のレコードの場合、移動経路予測部314は、行動912に設定されている「万引き」が行動1012に設定されているレコードを予測モデル355から抽出する。この例では、図10に示すレコードのうち1行目と2行目のレコード(予測ID1011が「1」のレコードと予測ID1011が「2」のレコード)が抽出される。
尚、発生座標913及び発生日時914については必ずしも完全に予測モデル355の
発生座標1013や発生日時1014と一致している必要はなく、例えば、所定の幅(許容範囲)をもって一致/不一致を判定してよい。尚、一致/不一致の判定に発生日時を用いることで、例えば、時間帯によって変化する混雑度等の現場の状況に応じて適切に移動軌跡を予測することが可能になる。
図4に戻り、続くS415では、移動経路予測装置100の予測結果出力部316が、S414にて移動経路予測部314が抽出した予測モデル355のレコードの内容に基づき、人物(追跡対象者3)の移動経路の予測結果を示した情報を予測結果356として生成し、生成した予測結果356を出力装置55に出力する。
図12は、出力装置55に出力する予測結果356の一例(以下、予測結果表示画面1200と称する。)である。同図に示すように、予測結果表示画面1200には、人物(追跡対象者3)が移動する領域周辺の地図情報(店舗内の俯瞰マップ等)に重ねて予測結果356が示されている。同図において、符号1201は行動(万引き)が行われた位置を、符号1202は人物(追跡対象者3)の現在位置を、符号1203は人物(追跡対象者3)の移動軌跡を、夫々示している。また符号1204及び符号1205で示す破線は、夫々人物(追跡対象者3)の予測移動経路を示している。尚、符号1204で示す破線は、図10の予測ID1011が「1」のレコードの予測移動経路1015であり、確率1016の内容である「80%」も併せて表示されている。また符号1205で示す破線は、図10の予測ID1011が「2」のレコードの予測移動経路1015であり、確率1016の内容である「20%」も併せて表示されている。
監視者等のユーザは、同図に示す予測結果表示画面1200に基づき、人物(追跡対象者3)が、将来、符号1205で示す移動経路に沿って移動する可能性が高いことを知ることができる。そのため、例えば、当該移動経路に沿ったラインで監視等するのがよいと判断することができる。
[予測モデルの生成]
図13は、前述した予測モデル355を生成する処理(以下、予測モデル生成処理S1300と称する。)を説明するフローチャートである。以下、同図とともに予測モデル生成処理S1300について説明する。
移動経路予測装置100の予測モデル生成部315は、移動軌跡情報352から複数人分の移動軌跡を、また行動情報353から複数人分の行動情報を、夫々取得する(S1311,S1312)。続いて、予測モデル生成部315は、取得した移動軌跡と行動情報とを、軌跡IDをキーとして関連付ける(S1313)。続いて、予測モデル生成部315は、関連付けたデータについて学習を行う。学習は、例えば、行動の発生日時や発生座標、及び人物のその後の移動経路等について統計的な性質を発見することにより行う(S1314)。続いて、予測モデル生成部315は、学習結果を予測モデル355として記憶する(S1315)。以上で予測モデル生成処理S1300が終了する。
ところで、以上に説明した第1実施形態では、人物に関する情報として行動情報353を用いているが、属性情報(大人、男性、女性、子供、若者、老人等)を人物に関する情報として用いてもよい。属性情報を人物に関する情報として用いて予測モデル355を生成することで(例えば、「子ども」(属性情報)の「うろつき」を「迷子」として特定する)移動軌跡の予測精度を向上させることができる。尚、以上に説明した移動経路予測システム1では、移動軌跡情報352や行動情報353を取得するためのセンサとして、時系列画像351を取得する画像取得装置2(ビデオカメラ等)を用いているが、これを利用して、例えば、時系列画像351に基づき人物の年齢や性別などの属性情報を生成する機能(属性情報生成部)を移動経路予測装置100に設けてもよい。
[第2実施形態]
図14に第2実施形態の移動経路予測システム1の構成を示している。同図に示すように、第2実施形態の移動経路予測システム1は、一つ以上の携帯情報端末4、一つ以上の中継装置6、及び移動経路予測装置100を含む。第1実施形態の移動経路予測システム1では、人物(追跡対象者3)の移動軌跡情報や行動情報を取得するセンサの一例としてビデオカメラ等の画像取得装置2を用いたが、第2実施形態では上記センサとして携帯情報端末4を用いる。
携帯情報端末4は、例えば、スマートフォン、携帯電話機、PDA(Personal Digital
Assistant)等である。本実施形態では携帯情報端末4を人物が携帯して持ち歩くことを想定している。携帯情報端末4は、自身の位置を示す情報を出力する機能(無線LAN(Wi−Fi等)やGPS(Global Positioning System)等による位置測定機能)を備え
る。中継装置6は、携帯情報端末4と移動経路予測装置100とを通信可能に接続する装置であり、例えば、無線LANのルータ(Router)である。尚、移動経路予測装置100のハードウェアは第1実施形態と同様であるので説明を省略する。
図15は、第2実施形態の移動経路予測装置100が備える機能、及び第2実施形態の移動経路予測装置100が記憶する情報(データ)を示すブロック図である。第1実施形態と異なり、第2実施形態の移動経路予測装置100は、画像取得部311に代えて端末位置情報取得部321を備える。端末位置情報取得部321は、携帯情報端末4から送られてくる、携帯情報端末4の現在位置を示す情報を取得する。第1実施形態と異なり、情報記憶部317は、端末位置情報取得部321が取得した携帯情報端末4の現在位置を示す情報を時系列位置情報361として記憶する。
第2実施形態の移動軌跡情報生成部312は、時系列位置情報361に基づき移動軌跡情報352を生成する。第2実施形態の行動情報生成部313は、例えば、ユーザからの設定入力により行動情報353を生成する。第2実施形態の移動経路予測装置100の他の構成については基本的に第1実施形態の移動経路予測装置100と同様である。
第2実施形態の移動経路予測装置100は、例えば、各携帯情報端末4に付与されている識別子(MACアドレス、IPアドレス)により各携帯情報端末4を識別する。尚、IPアドレスを用いる場合には、例えば、中継装置6の通信可能エリアから外れるとIPアドレスが変化する可能性があるため、例えば、監視対象となるエリアが通信可能エリア内になるようにする。
以上のように、センサとして携帯情報端末4を用いた場合でも、人物(追跡対象者3)の移動経路を予測する構成を実現することができる。また第2実施形態の移動経路予測システム1では、移動経路予測装置100が画像処理を行う必要がなく、第1実施形態の移動経路予測システム1に比べて移動経路予測装置100の負荷を軽減することができる。
[第3実施形態]
図16に第3実施形態の移動経路予測システム1の構成を示している。同図に示すように、第3実施形態の移動経路予測システム1は、第1実施形態の移動経路予測システム1が備える構成に加え、携帯情報端末4に予測結果356を提供するための構成を含む。
第3実施形態の移動経路予測装置100の予測結果出力部316は、予測結果356を表示する画面として、携帯情報端末4に表示可能な形式の画面(以下、予測結果表示画面1700)を生成する。第3実施形態の移動経路予測装置100の通信装置56は、通信手段(携帯電話網、インターネット、無線LAN等)を介して携帯情報端末4と無線通信
し、予測結果表示画面1700を携帯情報端末4に送信する。第3実施形態の移動経路予測装置100の他の構成については基本的に第1実施形態の移動経路予測装置100と同様である。
図17に第3実施形態の移動経路予測装置100の予測結果出力部316が出力する予測結果表示画面1700の一例を示す。同図において、符号1701は行動(万引き)が行われた位置を、符号1702は人物(追跡対象者3)の現在位置を、符号1703は人物(追跡対象者3)の移動軌跡を、夫々示している。また符号1704及び符号1705で示す破線は、夫々人物(追跡対象者3)の予測移動経路を示している。
第3実施形態の移動経路予測システム1によれば、例えば、監視員等のユーザは、携帯情報端末4に表示される予測結果表示画面1700を確認しながら人物(追跡対象者3)を効率よく追跡することができる。また移動経路予測装置100が、例えば、画像取得装置2から送られてくる時系列画像に基づき予測結果表示画面1700の内容をリアルタイムに更新することで、ユーザは現場の最新の状況に基づき人物(追跡対象者3)を追跡することができる。
ところで、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、また
はICカード、SDカード、DVD等の記録媒体に置くことができる。
また上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
また以上に説明した移動経路予測装置100の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、移動経路予測装置100が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。
また前述したデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。
1 移動経路予測システム、2 画像取得装置、3 追跡対象者、4 携帯情報端末、6
中継装置、100 移動経路予測装置、311 画像取得部、312 移動軌跡情報生成部、313 行動情報生成部、314 移動経路予測部、315 予測モデル生成部、316 予測結果出力部、317 情報記憶部、351 時系列画像、352 移動軌跡情報、353 行動情報、354 動作モデル情報、355 予測モデル、356 予測結果、S400 移動経路予測処理、S412 移動軌跡情報生成処理、S413 行動情報生成処理、1200 予測結果表示画面、S1300 予測モデル生成処理、170
0 予測結果表示画面

Claims (15)

  1. センサによって取得される情報であるセンサ情報を取得するセンサ情報取得部と、
    前記センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成する移動履歴情報生成部と、
    人物の行動に関する情報である行動情報を記憶する情報記憶部と、
    前記移動履歴情報と前記行動情報とに基づき、前記行動情報と当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成する予測モデル生成部と、
    追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得する移動経路予測部と、
    取得した前記予測移動経路を示す情報を出力する予測結果出力部と、
    を備える、移動経路予測装置。
  2. 請求項1に記載の移動経路予測装置であって、
    前記センサ情報に基づき前記行動情報を生成する行動情報生成部を備え、
    前記移動経路予測部は、前記センサ情報に基づき生成された追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得する、
    移動経路予測装置。
  3. 請求項1に記載の移動経路予測装置であって、
    前記情報記憶部は、さらに人物の属性情報を記憶し、
    前記予測モデル生成部は、前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動及び属性情報と当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成し、
    前記移動経路予測部は、追跡対象者の前記行動情報及び前記属性情報に対応する前記予測移動経路を前記予測モデルから取得する、
    移動経路予測装置。
  4. 請求項3に記載の移動経路予測装置であって、
    前記センサ情報に基づき前記属性情報を生成する属性情報生成部をさらに備える、
    移動経路予測装置。
  5. 請求項1乃至4のいずれか一項に記載の移動経路予測装置であって、
    前記センサは一つ以上の画像取得装置であり、
    前記センサ情報取得部は、前記センサから時系列的な画像を前記センサ情報として取得し、
    前記移動履歴情報生成部は、前記時系列的な画像に基づき前記移動履歴情報を生成する、
    移動経路予測装置。
  6. 請求項4に記載の移動経路予測装置であって、
    前記センサは一つ以上の画像取得装置であり、
    前記センサ情報取得部は、前記センサと通信することにより前記画像取得装置から時系列的な画像を前記センサ情報として取得し、
    前記属性情報生成部は、前記時系列的な画像に基づき前記属性情報を生成する、
    移動経路予測装置。
  7. 請求項1に記載の移動経路予測装置であって、
    前記センサは現在位置を取得する機能を有する一つ以上の携帯情報端末であり、
    前記センサ情報取得部は、前記携帯情報端末から当該携帯情報端末の現在位置を示す情報を前記センサ情報として取得する、
    移動経路予測装置。
  8. 請求項1乃至4のいずれか一項に記載の移動経路予測装置であって、
    携帯情報端末と通信する通信装置を備え、
    前記予測結果出力部は、前記予測移動経路を示す情報を記載した、前記携帯情報端末に表示可能な形式の画面を生成し、前記画面を前記携帯情報端末に送信する、
    移動経路予測装置。
  9. 情報処理装置が、
    センサによって取得される情報であるセンサ情報を取得するステップ、
    前記センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成するステップ、
    人物の行動に関する情報である行動情報を記憶するステップ、
    前記移動履歴情報と前記行動情報とに基づき、前記行動情報と当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成するステップ、
    追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得するステップ、
    取得した前記予測移動経路を示す情報を出力するステップ、
    を実行する、移動経路予測方法。
  10. 請求項9に記載の移動経路予測方法であって、
    前記情報処理装置が、
    前記センサ情報に基づき前記行動情報を生成するステップ、
    前記センサ情報に基づき生成された追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得するステップ、
    を実行する、移動経路予測方法。
  11. 請求項9に記載の移動経路予測方法であって、
    前記情報処理装置が、
    人物の属性情報を記憶するステップ、
    前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動及び属性情報と当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成するステップ、
    追跡対象者の前記行動情報及び前記属性情報に対応する前記予測移動経路を前記予測モデルから取得するステップ、
    をさらに実行する、移動経路予測方法。
  12. 請求項11に記載の移動経路予測方法であって、
    前記情報処理装置が、
    前記センサ情報に基づき前記属性情報を生成するステップ、
    をさらに実行する、移動経路予測方法。
  13. 請求項9乃至12のいずれか一項に記載の移動経路予測方法であって、
    前記センサは一つ以上の画像取得装置であり、
    前記情報処理装置が、
    前記センサから時系列的な画像を前記センサ情報として取得するステップ、
    前記時系列的な画像に基づき前記移動履歴情報を生成するステップ、
    をさらに実行する、移動経路予測方法。
  14. 請求項12に記載の移動経路予測方法であって、
    前記センサは一つ以上の画像取得装置であり、
    前記情報処理装置が、
    前記センサと通信することにより前記画像取得装置から時系列的な画像を前記センサ情報として取得するステップ、
    前記時系列的な画像に基づき前記属性情報を生成するステップ、
    をさらに実行する、移動経路予測方法。
  15. 請求項9に記載の移動経路予測方法であって、
    前記センサは現在位置を取得する機能を有する一つ以上の携帯情報端末であり、
    前記情報処理装置が、前記携帯情報端末から当該携帯情報端末の現在位置を示す情報を前記センサ情報として取得するステップ、
    をさらに実行する、移動経路予測方法。
JP2017058528A 2017-03-24 2017-03-24 移動経路予測装置、及び移動経路予測方法 Active JP6814673B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058528A JP6814673B2 (ja) 2017-03-24 2017-03-24 移動経路予測装置、及び移動経路予測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058528A JP6814673B2 (ja) 2017-03-24 2017-03-24 移動経路予測装置、及び移動経路予測方法

Publications (2)

Publication Number Publication Date
JP2018160219A true JP2018160219A (ja) 2018-10-11
JP6814673B2 JP6814673B2 (ja) 2021-01-20

Family

ID=63796739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058528A Active JP6814673B2 (ja) 2017-03-24 2017-03-24 移動経路予測装置、及び移動経路予測方法

Country Status (1)

Country Link
JP (1) JP6814673B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086659A (ja) * 2018-11-19 2020-06-04 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP2020091829A (ja) * 2018-11-27 2020-06-11 株式会社アジラ 不審体・異常体検出装置
CN112000898A (zh) * 2020-07-14 2020-11-27 浙江大华技术股份有限公司 数据生成方法以及电子装置、存储介质
WO2022153407A1 (ja) * 2021-01-13 2022-07-21 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
WO2022201428A1 (ja) * 2021-03-25 2022-09-29 楽天グループ株式会社 推定システム、推定方法、及びプログラム
WO2023105666A1 (ja) * 2021-12-08 2023-06-15 日本電気株式会社 画像処理システム、画像処理方法、および非一時的なコンピュータ可読媒体
KR102557342B1 (ko) * 2022-06-28 2023-07-19 주식회사 시큐오션 침입자 탐지를 위한 센서의 동작 제어 시스템 및 방법
WO2023166649A1 (ja) * 2022-03-03 2023-09-07 日本電気株式会社 移動軌跡情報処理装置、移動軌跡情報処理方法、および記録媒体
WO2023166648A1 (ja) * 2022-03-03 2023-09-07 日本電気株式会社 移動軌跡情報処理装置
CN117251748A (zh) * 2023-10-10 2023-12-19 中国船舶集团有限公司第七〇九研究所 一种基于历史规律挖掘的航迹预测方法、设备及存储介质
JP7407677B2 (ja) 2020-08-25 2024-01-04 三菱電機ビルソリューションズ株式会社 迷子検知装置、迷子検知方法、およびプログラム
WO2024034353A1 (ja) * 2022-08-12 2024-02-15 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、情報処理システム、基地局、及び端末
JP7442280B2 (ja) 2019-08-21 2024-03-04 興和株式会社 情報表示システム及び情報表示装置
WO2024105768A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2024105790A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2024105791A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259828A (ja) * 2005-03-15 2006-09-28 Omron Corp 監視システム、監視装置および方法、記録媒体、並びにプログラム
JP2008217602A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 不審行動検知システム及び方法
JP2013222216A (ja) * 2012-04-12 2013-10-28 Denso Corp 監視装置、ユーザ端末、及び監視センタ
JP2015014864A (ja) * 2013-07-04 2015-01-22 セコム株式会社 誘導システム
WO2015182200A1 (ja) * 2014-05-27 2015-12-03 ソニー株式会社 情報処理装置、情報提示方法、およびプログラム
JP2017004046A (ja) * 2015-06-04 2017-01-05 住友電工システムソリューション株式会社 異常行動検知装置、異常行動検知システム、異常行動検知方法及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259828A (ja) * 2005-03-15 2006-09-28 Omron Corp 監視システム、監視装置および方法、記録媒体、並びにプログラム
JP2008217602A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 不審行動検知システム及び方法
JP2013222216A (ja) * 2012-04-12 2013-10-28 Denso Corp 監視装置、ユーザ端末、及び監視センタ
JP2015014864A (ja) * 2013-07-04 2015-01-22 セコム株式会社 誘導システム
WO2015182200A1 (ja) * 2014-05-27 2015-12-03 ソニー株式会社 情報処理装置、情報提示方法、およびプログラム
JP2017004046A (ja) * 2015-06-04 2017-01-05 住友電工システムソリューション株式会社 異常行動検知装置、異常行動検知システム、異常行動検知方法及びコンピュータプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"社会インフラの変化予測を地図表示、日立らが開発", [ONLINE], JPN6020035953, 9 November 2015 (2015-11-09), ISSN: 0004353208 *
仲田 智: "監視映像を解析・認識するビジョンセンシング技術", [ONLINE], JPN6020035950, March 2016 (2016-03-01), pages 41 - 44, ISSN: 0004353207 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086659A (ja) * 2018-11-19 2020-06-04 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP2020091829A (ja) * 2018-11-27 2020-06-11 株式会社アジラ 不審体・異常体検出装置
US11238597B2 (en) 2018-11-27 2022-02-01 Asilla, Inc. Suspicious or abnormal subject detecting device
JP7442280B2 (ja) 2019-08-21 2024-03-04 興和株式会社 情報表示システム及び情報表示装置
CN112000898A (zh) * 2020-07-14 2020-11-27 浙江大华技术股份有限公司 数据生成方法以及电子装置、存储介质
JP7407677B2 (ja) 2020-08-25 2024-01-04 三菱電機ビルソリューションズ株式会社 迷子検知装置、迷子検知方法、およびプログラム
WO2022153407A1 (ja) * 2021-01-13 2022-07-21 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
JP7171968B1 (ja) * 2021-03-25 2022-11-15 楽天グループ株式会社 推定システム、推定方法、及びプログラム
WO2022201428A1 (ja) * 2021-03-25 2022-09-29 楽天グループ株式会社 推定システム、推定方法、及びプログラム
WO2023105666A1 (ja) * 2021-12-08 2023-06-15 日本電気株式会社 画像処理システム、画像処理方法、および非一時的なコンピュータ可読媒体
WO2023166649A1 (ja) * 2022-03-03 2023-09-07 日本電気株式会社 移動軌跡情報処理装置、移動軌跡情報処理方法、および記録媒体
WO2023166648A1 (ja) * 2022-03-03 2023-09-07 日本電気株式会社 移動軌跡情報処理装置
KR102557342B1 (ko) * 2022-06-28 2023-07-19 주식회사 시큐오션 침입자 탐지를 위한 센서의 동작 제어 시스템 및 방법
WO2024034353A1 (ja) * 2022-08-12 2024-02-15 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、情報処理システム、基地局、及び端末
WO2024105768A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2024105790A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2024105791A1 (ja) * 2022-11-15 2024-05-23 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
CN117251748A (zh) * 2023-10-10 2023-12-19 中国船舶集团有限公司第七〇九研究所 一种基于历史规律挖掘的航迹预测方法、设备及存储介质
CN117251748B (zh) * 2023-10-10 2024-04-19 中国船舶集团有限公司第七〇九研究所 一种基于历史规律挖掘的航迹预测方法、设备及存储介质

Also Published As

Publication number Publication date
JP6814673B2 (ja) 2021-01-20

Similar Documents

Publication Publication Date Title
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
US10699541B2 (en) Recognition data transmission device
US9396400B1 (en) Computer-vision based security system using a depth camera
US8295545B2 (en) System and method for model based people counting
JP5743849B2 (ja) 映像解析装置及びシステム
JP6182607B2 (ja) 映像監視システム、監視装置
WO2018179202A1 (ja) 情報処理装置、制御方法、及びプログラム
US11120838B2 (en) Information processing apparatus, control method, and program
JP2013192154A (ja) 監視装置、信頼度算出プログラム、および信頼度算出方法
JP2021132267A (ja) 映像監視システムおよび映像監視方法
JP2019160310A (ja) 顕著なイベントに焦点を当てたオンデマンドビジュアル分析
KR101979375B1 (ko) 감시 영상의 객체 행동 예측 방법
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
US20220189038A1 (en) Object tracking apparatus, control method, and program
WO2018210039A1 (zh) 数据处理方法、数据处理装置及存储介质
US10783365B2 (en) Image processing device and image processing system
US11341774B2 (en) Information processing apparatus, data generation method, and non-transitory computer readable medium storing program
JP2014215747A (ja) 追跡装置、追跡システム、及び、追跡方法
JP7210163B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2015176489A (ja) 監視システムおよび監視方法ならびに監視プログラム
CN110262269B (zh) 运行控制方法、模块、***、家电设备和可读存储介质
CN113837066A (zh) 行为识别方法、装置、电子设备及计算机存储介质
JP2022048475A (ja) 映像解析システムおよび映像解析方法
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
JP2019153908A (ja) 画像認証システム、画像認証方法および画像認証プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150