JP6976731B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6976731B2
JP6976731B2 JP2017115995A JP2017115995A JP6976731B2 JP 6976731 B2 JP6976731 B2 JP 6976731B2 JP 2017115995 A JP2017115995 A JP 2017115995A JP 2017115995 A JP2017115995 A JP 2017115995A JP 6976731 B2 JP6976731 B2 JP 6976731B2
Authority
JP
Japan
Prior art keywords
information
data
feature amount
event
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017115995A
Other languages
English (en)
Other versions
JP2019003329A (ja
Inventor
健二 塚本
大岳 八谷
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017115995A priority Critical patent/JP6976731B2/ja
Publication of JP2019003329A publication Critical patent/JP2019003329A/ja
Application granted granted Critical
Publication of JP6976731B2 publication Critical patent/JP6976731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像データ内の対象物の識別に用いられる識別モデルを生成する情報処理装置、情報処理方法、及びプログラムに関する。
従来、映像データから対象物の事象を識別(対象物やその対象物の状態を識別)する識別モデルを作成する手法が提案されている。この識別モデルを作成するには学習データが必要であるため、学習データの収集に時間を要する。また、収集した学習データが充分であるか確認する事は難しい。
それらに対し、非特許文献1では、予め検出対象のモデルを用意し、環境情報としてカメラ位置や背景画像などの情報を入力し、その環境に特化した学習サンプルをCG(コンピュータグラフィック)で生成して追加学習を行う方法がある。これにより、環境に併せた学習データ作成のコストを低減させている。
土屋成光、山内悠嗣、山下隆義、藤吉弘亘、ハイブリッド型転移学習による物体検出における学習の効率化、信学技報、 vol.112,no.385, PRMU2012−122.pp. 329−334,2013年1月
しかしながら、非特許文献1の技術では、設定したシーン(場面)において、実際には起こらない対象物の事象(対象物の状態)を表すデータをCGで作成する可能性がある。そのため、学習データに不要なデータが混入してしまい、識別時の未検知・誤検知が発生する要因となってしまう。
そこで、本発明は、シーン内の対象物の事象を精度良く識別できる識別モデルを生成可能にすることを目的とする。
本発明は、予め生成された、対象物の事象の特徴量を含む複数の事象データを保存する保存手段と、複数のシーンの情報を含むマップ情報を保存する情報保存手段と、前記情報保存手段に保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成手段と、前記特徴量作成手段にて作成された特徴量に類似した特徴量を含む事象データを、前記保存手段に保存されている事象データの中から選択する選択手段と、前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成手段と、を有することを特徴とする。
本発明によれば、シーン内の対象物の事象を精度良く識別できる識別モデルを生成可能となる。
第1の実施形態の情報処理装置の概略構成図である。 第1の実施形態において対象物の正常な行動の入力例を示す図である。 正常な行動の行動データの一例を示す図である。 ハッシュ関数群を用いたデータ探索の説明図である。 収集された行動データと映像の合成例を示す図である。 データ保存部への登録例の説明図である。 第1の実施形態の情報処理装置の処理のフローチャートである。 第2の実施形態の情報処理装置の概略構成図である。 異常な行動の行動データの一例を示す図である。 ラベル選択による行動データの入力例の説明図である。 第2の実施形態の情報処理装置の処理のフローチャートである。 第3の実施形態の情報処理装置の概略構成図である。 マップ情報を用いた行動データ入力例の説明図である。 第3の実施形態の情報処理装置の処理のフローチャートである。
以下、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
<第1の実施形態>
図1(a)は第1の実施形態に関わる情報処理装置100の概略的な構成例を示している。本実施形態の情報処理装置100は、後述するように、映像シーンに生ずる対象物の事象が指定され、予め作成した対象物の事象データを保存するデータベースの中から、その指定された対象物の事象に類似した事象データを選択して識別モデルを作成する。また、第1の実施形態の情報処理装置100では、識別モデルを作成する際、対象物の正常な事象に関する事象データを収集する。対象物の正常な事象としては、例えば交差点の映像シーンにおいて横断歩道上を歩く歩行者を対象物とした場合、その歩行者が横断歩道上を歩くような、横断歩道に対する歩行者の一般的な行動などを挙げることができる。もちろんこれは一例であり、対象物の正常な事象は、横断歩道を歩く歩行者の行動に限定されるものではない。なお、第1の実施形態では、映像シーンの例として屋外の交差点を撮影した映像を用いた説明を行うが、その他にも、映像シーンは、例えば商業施設や病院、介護施設、駅などの公共施設の屋内やその周辺等のシーンであってもよい。
以下、本実施形態の情報処理装置100において、映像シーンにおいて対象物の正常な事象が指定されて識別モデルの生成を行う構成及び処理について説明する。
図1(a)に示す情報処理装置100は、映像取得部101と、入力部102と、特徴量作成部103と、データ保存部104と、データ選択部105と、識別モデル作成部106と、識別モデル保存部107と、表示部108とを有して構成されている。
映像取得部101は、例えば交差点や公共施設などに設置された監視カメラ等により撮影した監視対象の映像データを取得し、その取得した映像データを表示部108と特徴量作成部103へと出力する。
図2は、映像取得部101にて取得された映像データが表示部108の画面に表示された表示例を示している。図2には、交差点に設置された監視カメラの映像のうち、連続したnフレーム分の映像201−1〜201−nが、表示部108の画面上に表示されている例を示している。図2に例示したnフレーム分の映像201−1〜201−nには、交差点の横断歩道上を歩行者221が歩く様子が映っているとする。なお、図2に示した画面内の枠211−1〜211−nと属性情報リスト212については後述する。
入力部102は、表示部108の画面表示を用いたGUI(グラフィカルユーザインターフェース)等を介したユーザからの入力指示等の情報取得を行う。すなわち本実施形態において、ユーザは、表示部108に表示されている映像を見つつ、入力部102を介して、対象物の正常な事象に関する指示を入力可能となされている。以下、図2に示した映像201−1〜201−nのように、歩行者221が交差点の横断歩道上を歩く行動を例に挙げ、ユーザによる対象物の正常な事象の指示入力例について説明する。
ここで、図2のように横断歩道上を歩く歩行者221の行動が対象物の正常な事象として指定される場合、ユーザからは、入力部102を介して、映像内の歩行者221を指定するための指示入力がなされる。入力部102を介してユーザから指示入力がなされると、情報処理装置100は、その指示入力を基に、映像内の歩行者221に対して所定の枠を設定する。この時のユーザによる指示入力としては、例えばGUIを介して映像上の対象物(歩行者221)の例えば左上の位置及び右下の位置を指示するような入力方法を用いることができる。情報処理装置100は、入力部102を介してユーザから映像内の歩行者221の左上及び右下の位置指定がなされると、それら指定された位置を枠の左上の位置及び右下の位置とする矩形枠を設定する。なお、ユーザによる指定と枠の設定方法は、この例に限定されず、その他の方法が用いられてもよい。
本実施形態の場合、歩行者221に対する枠の設定は、連続するnフレーム分の映像201−1〜201−nのそれぞれについて行われる。これにより、それらnフレーム分の映像201−1〜201−nについて、それぞれ枠211−1〜211−nが設定される。なお、連続するnフレームの最初の1フレームについてのみユーザによる位置指定がなされ、以降の2〜nフレームについては、情報処理装置100が、下記の参考文献1に記載の公知の追尾技術により対象物を追尾することで枠を自動設定してもよい。対象物の追尾方法は、参考文献1の例に限定されるものではなく、他の追尾方法が用いられてもよい。本実施形態の情報処理装置100は、前述のように映像201−1〜201−nに対して設定された枠211−1〜211−nの情報(以下、領域情報と呼ぶ。)を、対象物の事象に関する情報の一つとして取得する。
参考文献1:M.Isard and A. Blake, Condensation − conditional density propagation for visual tracking, International Journal of Computer Vision, vol.29, no.1, pp.5−28, 1998.
また、本実施形態の情報処理装置100は、対象物の正常な事象に関する情報として、前述した領域情報とともに、対象物の属性情報をも取得する。属性情報としては、例えば、対象物を表すカテゴリ情報、天候等のような環境情報、時刻や時間帯のような時間情報などを挙げることができる。本実施形態の情報処理装置100は、この属性情報についても、入力部102を介したユーザからの指示入力による情報取得が可能となされている。
図2に示した属性情報リスト212は、入力部102を介してユーザが属性情報を指定する際に用いられる。本実施形態の情報処理装置100は、図2に示したような属性情報リスト212を画面上に表示させ、この属性情報リスト212から、入力部102を介してユーザが指定した属性情報を取得する。図2に例示した属性情報リスト212は、対象物のカテゴリ情報(例えば歩行者や自転車などの移動体を表すカテゴリ情報)、天候等を表す環境情報、時刻や時間帯等を表す時間情報を、ユーザが選択可能なプルダウンリストとなされている。したがって、ユーザは、図2の映像201−1〜201−nを見ながら、入力部102を介して属性情報リスト212のプルダウンリストを操作することにより、属性情報の指定を行うことができる。なお、図2の属性情報リスト212には、対象物の種類を指定するためのプルダウンリストも含まれているが、これについては後述する。属性情報は、図2の属性情報リスト212に挙げられている情報に限定されるものではなく、これら以外の属性情報の指定が可能になされていてもよい。本実施形態の情報処理装置100は、属性情報リスト212からユーザが指定した属性情報を、対象物の正常な事象に関する情報の一つとして取得する。
そして、本実施形態の情報処理装置100は、前述のように取得した領域情報(図2の例では枠211−1〜211−nの領域情報)と、属性情報(図2の例では属性情報リスト212にて指定された属性情報)とを、特徴量作成部103へ送る。
特徴量作成部103は、映像データから、映像内の対象物の事象における特徴量を作成する。例えば、特徴量作成部103は、映像データから対象物の動きベクトルを算出し、その対象物の動きベクトルの平均値を各要素とした特徴ベクトルを生成して、その特徴ベクトルを特徴量として作成する。図2の例の場合、特徴量作成部103は、歩行者221に対して設定された枠について、映像201−1〜201−nから動きベクトルを算出し、その動きベクトルの平均値を各要素とした特徴ベクトルを特徴量として作成する。また、特徴量作成部103は、例えば下記の参考文献2に示すHOF(Histogram of Optical Flow)、MHOF(Multi Histogram of Optical Flow)などによる特徴量を求めてもよい。なお、HOF、MHOFでは、動きベクトルを方向別に分けて強度を足し合わせてヒストグラムにした特徴量が得られる。その他にも、特徴量作成部103は、例えば下記の参考文献3に示すアピアランスの勾配強度を方向別にヒストグラムにしたHOG(Histogram of Oriented Gradients)や、それ以外の特徴量を求めてもよい。本実施形態における特徴量は、これら記載した方法によるものに限定されるものではない。そして、特徴量作成部103は、前述のようにして作成した特徴量と前述の属性情報とを、取得された映像内の対象物の正常な事象に関する事象データとして、データ選択部105へと送る。
参考文献2:J.Pers, et al, Histograms of Optical Flow for Efficient Representation of Body Motion, Pattern Recognition Letters, vol.31, no.11, pp.1369−1376,2010.
参考文献3:N.Dalal and B. Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of Computer Vision and Pettern Recognition(CVPR)、pp.886−893,2005.
データ保存部104には、監視カメラ等の映像データを基に予め生成された対象物の正常な事象に関する事象データとして、例えば図3に示すような行動データ301が保存されている。行動データ301には、監視カメラ等の映像から抽出された対象物の画像データと、前述したような特徴量と、対象物の属性情報を表すラベル情報とが保存(登録)されている。属性情報を表すラベル情報としては、対象物のカテゴリ(歩行者や自転車などのカテゴリ)、撮影時の天候(晴れ、曇り等)、時刻や時間帯(昼間、夕方等)などの情報が保存されている。また、行動データ301は、それら画像データと特徴量と属性情報ごとに、固有のデータID(識別情報)が付与されている。このデータ保存部104に保存されている行動データ301の登録処理については、後述するデータ登録装置300の構成説明の際に述べる。
データ選択部105は、データ保存部104に保存されている行動データ301の中から、特徴量作成部103にて作成した対象物の事象(例えば歩行者の行動)の特徴量に類似した特徴量を含む行動データを収集する。収集方法としては、例えば、データ保存部104内の行動データ301の中から、映像内の対象物について入力された属性情報と一致する属性情報を探索し、その探索された属性情報に対応した行動データを収集するような方法を用いることができる。また例えば、特徴量作成部103にて作成した特徴量と、データ保存部104内の行動データ301の特徴量との間のユークリッド距離を算出し、そのユークリッド距離が所定の閾値以下となっている特徴量を含む行動データを収集する方法が用いられてもよい。これら収集された行動データは、特徴量作成部103にて特徴量が生成された対象物の行動に類似した行動のデータである。
また、データ選択部105は、例えば下記の参考文献4に記載のp−stable hashingなどの近似最近傍探索法を用いたデータ探索処理により、データ保存部104から行動データを収集してもよい。近似最近傍探索法を用いたデータ探索処理を行う場合、データ選択部105は、先ず、ハッシュ関数を下記の式(1)により作成する。なお、式(1)の「a」は、各次元の要素値であり、次元数はデータ保存部104に保存されている特徴量の次元数である。また、式(1)の「r」は空間を分割する幅、「b」は[0,r]から一様に選ばれる実数である。
Figure 0006976731
参考文献4:M. Datar, N. Immorlica, P.Indyk and V.S. Mirrokni, Locality−sensitive hashing scheme based on p−stable distribution,Proceedings 20th annual Symposium on Computational Geometry,pp.253−262,2004.
データ選択部105は、このハッシュ関数を複数作成して、ハッシュ関数群を構成する。図4は、データ保存部104内の行動データ301の各特徴量(図4では特徴量401とする。)を図中の各黒丸(●)により表し、それら特徴量401が含まれる特徴空間を、ハッシュ関数群402により線形に分割した図を示している。また図4の例において、特徴量作成部103にて作成された特徴量411は、図4中の×印にて表されているとする。データ選択部105は、データ保存部104内の行動データ301の各特徴量401が何れのハッシュ関数による分割領域に属するかを決定し、また、特徴量作成部103にて作成された特徴量411が何れのハッシュ関数による分割領域に属するかを判定する。さらに、データ選択部105は、データ保存部104に保存されている行動データ301の各特徴量401の中で、特徴量作成部103にて作成された特徴量411が属する分割領域412内の特徴量401(413)を特定する。そして、データ選択部105は、データ保存部104に保存されている行動データ301の中から、それら特定した特徴量401(413)を含む行動データを収集する。これら収集出された行動データは、特徴量作成部103にて特徴量411が生成された対象物の行動に類似した行動のデータである。
次に、データ選択部105は、前述のようにしてデータ保存部104に保存されている行動データ301の中から収集した行動データを、識別モデルの作成に用いるか否か選択する。この選択方法としては、例えば図5に示すように、収集した各行動データに対応した各画像511を、個別に映像201に合成して表示部108の画面に表示させてユーザに確認させた上で選択させる方法を用いることができる。この映像合成の際、データ選択部105は、データ保存部104の行動データの作成時に取得された前述同様の領域情報の入力位置の情報を基に、対象物が移動している範囲を決定する。そして、データ選択部105は、その決定した範囲内において、映像201内で画像511をフレームごとの動きに合わせた異なる位置に合成する。フレームの切り替えは例えば入力部102を介したユーザによるフレーム切り替えの指示に応じて行われ、これにより、表示部108には、映像201内でフレームごとに画像511が移動していく様子が表示される。
また、図5に示すように、データ選択部105は、表示部108の画面上で、画像511が合成された映像201の例えば下部に、「選択する」のボタンアイコン531と「選択しない」のボタンアイコン532を表示させる。そして、入力部102を介してユーザにより「選択する」のボタンアイコン531への入力指示がなされた場合、データ選択部105は、その入力指示時の画像511に対応した行動データを識別モデルの作成時の学習用データとして選択する。一方、ユーザにより「選択しない」のボタンアイコン532への入力指示がなされた場合、データ選択部105は、その時の行動データを識別モデルの作成時の学習用データとして選択しない。本実施形態の場合、データ選択部105による前述した選択処理が、収集された行動データごとに繰り返し行われて、識別モデル学習用の複数の行動データの選択が行われる。
また、データ選択部105は、収集した各行動データの特徴量と、特徴量作成部103からの特徴量との間の距離を算出し、その距離に応じて行動データを分けて距離ごとに代表を選び、それの代表の行動データの画像を表示部108に表示させてもよい。この場合、それら代表の行動データの画像が表示され、それらの中からユーザにより選択された行動データが、識別モデルの作成時の学習用データとして選択される。
そして、本実施形態のデータ選択部105は、前述したように、データ保存部104から収集された行動データの中から、入力部102を介してユーザにより選択された行動データが、識別モデル作成部106へ送られる。
識別モデル作成部106は、前述のようにしてデータ選択部105にて選択された行動データを用いて、識別モデルを作成する。識別モデルの作成方法としては、例えば、k−meansクラスタリング手法を用い、行動データのクラスタ情報を作成して識別モデルとする方法を用いることができる。この場合、クラスタ数は、識別モデル作成部106に入力された行動データ数に基づいて決定してもよい。そして、識別モデル作成部106では、各クラスタの重心位置、及びクラスタ範囲が識別モデルとして作成される。また、識別モデル作成部106は、識別モデルに対して或る行動データの特徴量が入力された場合、特徴空間上で距離が最も近いクラスタの範囲内であれば正常と判定し、範囲外であれば正常ではないと判定する識別モデルを作成することができる。なお、本実施形態において、識別モデル作成方法は、前述のk−meansクラスタリング手法には限定されず、別の識別モデル作成方法が用いられてもよい。
識別モデル作成部106により作成された識別モデルは、識別モデル保存部107に送られて保存されるとともに、表示部108にも出力される。この際、識別モデルとして出力されるのは、各クラスタの重心位置とクラスタの範囲(例えばクラスタの分散)である。
表示部108は、映像取得部101にて取得された映像を画面上に表示させるとともに、入力部102による入力内容の表示や、データ選択部105にて選択された行動データの画像の合成画像の表示などをも行う。また、表示部108には、識別モデル作成部106で作成した識別モデルがアイコン等により表示されてもよい。
以上が、図1(a)に示した本実施形態の情報処理装置100の構成と処理である。
<データ登録処理の構成と処理>
図1(b)は、図1(a)に示した情報処理装置100から、データ保存部104にデータベースとして行動データを登録するデータ登録処理を行う構成部分を抜き出して示した図である。なお、図1(b)の構成は図1(a)の情報処理装置100とは別の装置であってもよい。以下、本実施形態では、図1(b)に示す構成をデータ登録装置300と呼ぶ。図1(b)に示すように、データ登録装置300は、映像取得部101と入力部102と特徴量作成部103と表示部108とデータ保存部104とで構成される。
映像取得部101は、前述したのと同様に、監視カメラ等からの映像データを取得し、その映像データは特徴量作成部103と表示部108へ送られる。図6は、映像取得部101にて取得された映像データの映像201が表示された表示部108の画面表示例を示している。
入力部102は、前述したのと同様に、表示部108の画面表示を用いたGUI等を介して、ユーザから対象物の正常な事象(例えば歩行者の行動)を指示する入力を取得する。図6は、対象物としての歩行者621が横断歩道を歩いている映像201から、歩行者621が横断歩道上を歩くような正常な事象としての行動が指定された例を示している。また、図6の画面上には、前述の図2で説明したのと同様にして、映像201内の歩行者621に対して枠601が設定され、さらに属性情報リスト602も表示される。そして、枠601の設定や属性情報リスト602を用いた属性情報の入力が完了し、例えばユーザにより「入力完了」のボタンアイコン631への入力指示が行われると、入力部102は、前述同様に、領域情報と属性情報等を特徴量作成部103へと出力する。一方、「入力完了」のボタンアイコン631への入力指示が行われていない場合、行動の指定と属性情報の設定が可能な状態が維持される。
特徴量作成部103は、前述したのと同様にして特徴量を作成する。そして、特徴量作成部103にて作成した特徴量と、入力部102による入力に応じた属性情報とが、データ保存部104へと出力される。
データ保存部104には、特徴量作成部103にて作成された特徴量と、入力部102からの属性情報とが対応付けられ、さらに、データID(識別情報)が割り当てられた行動データが保存される。また、特徴量については、例えば前述したp−stable hashingを用いたハッシュ値(各ハッシュ関数によって線形に分割された領域のどれに属するかの情報)が作成されて、これらのデータが保存される。
図1(b)のデータ登録装置300では、以上のようにしてデータ登録処理が行われることにより学習データベースが形成されている。
<処理フローチャートの説明>
以下、図7(a)〜図7(c)に示すフローチャートを用いて、本実施形態の情報処理装置100における処理の流れを説明する。図7(a)には識別モデル作成処理、図7(b)にはデータ選択処理、図7(c)にはデータ登録処理の各フローチャートを示す。なお、図7(a)〜図7(c)のフローチャートでは、ステップS701〜ステップS726をそれぞれS701〜S726と略記する。また、図7(a)〜図7(c)のフローチャートの処理は、ハードウェア構成又はソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、図7(a)〜図7(c)のフローチャートの処理は、不図示のROM等に格納されているプログラムがRAM等に展開されてCPU等により実行される。本実施形態に係るプログラムは、ROM等に予め用意される場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりして、RAM等にロードされてもよい。これらのことは、後述する他のフローチャートにおいても同様とする。
先ず図7(a)の識別モデル作成処理のフローチャートから説明する。
S701において、映像取得部101は、監視カメラ等から映像データを取得して、特徴量作成部103と表示部108へ出力する。S701の後、情報処理装置100の処理はS702へと進む。
S702において、表示部108は、映像取得部101から送られてきた映像を表示する。S702の後、情報処理装置100の処理はS703へと進む。
S703において、入力部102は、表示部108に表示されている映像内の対象物の事象に関するユーザの入力指示を基に、前述したように領域情報と属性情報を取得し、それら領域情報と属性情報を特徴量作成部103へと出力する。S703の後、情報処理装置100はS704へと進む。
S704において、特徴量作成部103は、対象物の行動を表す前述した領域情報と属性情報を基に、前述したようにして特徴量を作成し、その特徴量の情報をデータ選択部105へと出力する。S704の後、情報処理装置100の処理はS705へと進む。
S705において、データ選択部105は、前述したように、特徴量作成部103で作成された特徴量に類似する特徴量を持つ行動データをデータ保存部104のデータベースから選択する。データ選択部105におけるデータ選択処理の詳細な処理の流れは図7(b)のフローチャートで説明する。S705の後、データ選択部105は、S706へと処理を進める。
S706において、データ選択部105は、入力部102を介してユーザから入力完了の指示がなされたか否かを判定する。そして、データ選択部105は、ユーザから入力完了の指示が入力されず、引き続き入力部102を介した対象物の行動に関する入力が行われる場合(NO)、情報処理装置100の処理をS703に戻す。一方、データ選択部105は、ユーザから入力完了の指示が入力された場合(YES)、データ保存部104から選択された行動データを、識別モデルの作成に用いるデータとして識別モデル作成部106へと出力する。そして、S706で入力完了の指示が入力されたと判定された場合(YES)、情報処理装置100の処理はS707へと進む。
S707において、識別モデル作成部106は、識別モデルの作成用の行動データを用いて、前述のように識別モデルを作成(つまり識別モデルを学習)する。そして、識別モデル作成部106は、その作成した識別モデルを識別モデル保存部107に保存させる。このS707の処理完了後、情報処理装置100は、識別モデル作成処理を終了させる。
次に、図7(b)のフローチャートに示すデータ選択処理(S706の処理)について説明する。なお、以下の説明では前述したハッシュ関数を用いる例を挙げる。
S711において、データ選択部105は、前述したS704の処理で取得された特徴量に対して、前述したようにハッシュ関数を適用してハッシュ値を算出する。そして、データ選択部105は、算出したハッシュ値に対し、データ保存部104に保存されている特徴量のハッシュ値が同一の行動データを収集する。データ選択部105は、S711にて行動データを収集できた場合、S712へと処理を進める。
S712において、データ選択部105は、参照する行動データに付与する番号を表すインデックスiを初期化する。インデックスiは、前述のように収集した行動データに対して順番に割り振られる例えば番号である。インデックスiの初期化が完了すると、データ選択部105は、S713へと処理を進める。
S713に進むと、データ選択部105は、参照する行動データのインデックスiが、収集した行動データ数Iを超えるか(i>I)否かを判定する。データ選択部105は、インデックスiが、収集した行動データ数以下(i≦I)である場合(NO)にはS714へと処理を進め、一方、収集した行動データ数Iを超える場合(YES)には図7(b)の処理を終了する。
S714に進むと、データ選択部105は、収集した行動データの中で、インデックスiの行動データに含まれる画像データの画像を、前述の図5で説明したように、映像取得部101にて取得された映像に対して合成する。S714の後、データ選択部105は、S715に処理を進める。
S715において、データ選択部105は、表示部108に画面表示された合成映像を見たユーザにより、入力部102を介して、インデックスiの行動データの選択指示又は非選択の指示が入力されたか否かを判定する。データ選択部105は、例えば前述の図5の「選択する」のボタンアイコン531への入力指示がなされて、インデックスiの行動データが選択された場合(YES)には、S716に処理を進める。一方、データ選択部105は、例えば図5の「選択しない」のボタンアイコン532への入力指示がなされたことで、非選択の指示がなされた場合(NO)には、S717に処理を進める。
S716に進むと、データ選択部105は、S715で選択されたインデックスiの行動データを識別モデル作成用データに設定する。S716の後、データ選択部105は、S717へと処理を進める。
S717に進むと、データ選択部105は、次の行動データを参照するよう、インデックスiをインクリメントする更新を行った後、S713へと処理を戻す。そして、収集した全ての行動データについてS714〜S716の処理が終わり、S717でインデックスiが更新されると、そのインデックスiは収集した行動データ数Iを超えることになる。したがって、収集した全ての行動データについてS714〜S716の処理が終わると、S713では収集した行動データ数Iを超えると判定(YES)されて、図7(b)のフローチャートの処理は終了する。
次に、図7(c)のフローチャートに示すデータ登録処理について説明する。なお、図7(c)のフローチャートの処理は、図1(b)のデータ登録装置300にて行われる。
S721において、映像取得部101は、監視カメラから映像データを取得して、特徴量作成部103と表示部108へ出力する。S721の後、データ登録装置300の処理はS722へと進む。
S722において、表示部108は、映像取得部101から送られてきた映像を表示する。この場合の映像は、入力部102を介したユーザからの操作により、表示するフレームが変更され、その変更されたフレームの映像が表示される。S722の後、データ登録装置300の処理はS723へと進む。
S723において、入力部102は、表示部108に表示されている映像内の対象物の正常な事象に対するユーザの入力指示を基に、前述した領域情報と属性情報を取得し、それら領域情報と属性情報を特徴量作成部103へと出力する。正常な事象としての行動の入力は、前述したように、映像の各フレームに対して対象物(歩行者や自転車など)がある領域をGUI操作により入力することにより行われる。S723の後、データ登録装置300はS724へと進む。
S724において、特徴量作成部103は、前述同様にして特徴量を作成する。そして、その作成された特徴量と属性情報は、データ保存部104へと送られる。S724の後、データ登録装置300の処理はS725へと進む。
S725に進むと、データ保存部104は、前述したように、特徴量の情報及び登録情報について、データIDを割り当てて保存(登録)する。特徴量については、前述したように例えばハッシュ値が作成されて、これらの情報が保存される。このS725の後、データ登録装置300の処理は、S726へと進む。
S726に進むと、入力部102は、ユーザから図6に例示した「入力完了」のボタンアイコン631への入力指示がなされたか否かを判定する。入力部102は、ユーザから入力完了の指示が入力されない場合(NO)にはS723に処理を戻す。一方、入力部102に入力完了の指示が入力された場合(YES)、データ登録装置300は、図7(c)のフローチャートの処理を終了する。なお、図6の例では図示していないが、画面内に例えば「継続」のボタンアイコンを設け、その「継続」のボタンアイコンへの入力指示が行われた場合に、S726でNOと判定されてS723の処理に戻るようにしてもよい。
以上説明したように、第1の実施形態の情報処理装置100では、映像シーン内の対象物の事象としての行動やその状態を指定し、それらに類似する行動データを、予め作成して登録されているデータベースから収集する。そして、本実施形態においては、データベースから収集した行動データの中から、映像シーンに応じた適切な行動データを選択し、その選択した行動データを用いて識別モデルを作成している。すなわち、本実施形態の情報処理装置100によれば、設置した監視カメラに対して、例えば学習用の映像データが少なくても、映像シーン内の対象物の事象を精度良く的確に識別できる識別モデルを作成することが可能となっている。
<第2の実施形態>
図8は、第2の実施形態に関わる情報処理装置800の概略的な構成例を示している。
第2の実施形態の情報処理装置800は、識別モデルを作成する際、対象物やその状態を識別するデータとして、第1の実施形態で説明した対象物の正常な事象に加えて、対象物の正常な事象とは異なる事象に応じた行動データをも収集する。第2の実施形態において、対象物の正常な事象とは異なる事象としては、一例として、歩行者や自転車などが対象物である場合、歩行者や自転車などが転倒、倒れこみ、横断禁止場所の横断などの行動が挙げられる。なお、第2の実施形態においても映像シーンの一例として屋外の交差点の映像シーンを用いて説明するが、その他の公共施設等の映像シーンなどであってもよい。以下の説明では、正常な事象とは異なる事象を「異常な事象」と表記し、対象物の異常な事象としての行動を「異常な行動」と表記することとする。そして、第2の実施形態の場合、正常な事象と異常な事象に関する情報の入力は、後述するラベルアイコンの選択入力により行われる。
以下、図8に示した第2の実施形態の情報処理装置800において、対象物の正常な事象と異常な事象に関する情報の入力と行動データの収集、その収集した行動データに基づく識別モデルの生成を行う構成及び処理の説明を行う。なお、第2の実施形態の情報処理装置800において、前述した第1の実施形態の情報処理装置100の各構成と同一の構成については、同一の参照符号を付してその説明は省略する。第2の実施形態の情報処理装置800の場合、データ選択部805、データ保存部804、識別モデル作成部806が、第1の実施形態の情報処理装置100とは異なり、それ以外は第1の実施形態と同一の構成である。
また、第2の実施形態の場合は、前述した第1の実施形態で説明した対象物の正常な事象に関する入力処理に加えて、対象物の異常な事象に関する入力処理が行われる。対象物の異常な事象に関する入力処理では、対象物の事象の種類を表すラベル情報と、対象物の事象が異常な事象である場合のその異常な事象の意味を表すラベル情報の入力が行われる。対象物の事象の種類を表すラベル情報としては、対象物の事象が「正常」と「異常」の何れの種類に属するかを表す情報が用いられる。また、対象物の異常な事象の意味を表すラベル情報としては、対象物が歩行者等である場合の例えば「転倒」や「倒れこみ」、「横断禁止」などの情報が用いられる。したがって、第2の実施形態のデータ保存部804には、対象物の事象の種類を表すラベル情報と対象物の異常な事象の意味を表すラベル情報とを含む属性情報が記述された行動データが保存される。
図9は、対象物が歩行者等であり、その歩行者等の行動が異常な行動である場合の行動データ901の一例を示した図である。図9には、対象物の異常な行動を表した画像データ、その特徴量、異常な行動に関連付けられた各ラベル情報の属性情報に対して、固有のデータIDが割り当てられた行動データ901の例が挙げられている。図9の属性情報では、対象物の行動の種類を表すラベル情報として「異常」が、対象物を表すラベル情報として「歩行者」が、対象物の異常な行動の意味を表すラベル情報として「転倒」や「倒れこみ」、「横断禁止」が、記述された例を挙げている。したがって、第2の実施形態のデータ保存部804には、例えば図9に示すような行動データ901が保存されている。なお、図9には図示していないが、行動データ901には対象物の行動が正常である場合の情報も適宜記述される。
また第2の実施形態の場合も、データ選択部805では、入力部102を介したユーザからの入力指示に基づいて、識別モデルの作成に用いる行動データの選択が行われる。
図10は、映像取得部101にて取得された映像データの映像1001が表示された表示部108の表示例を示している。入力部102は、前述同様に、表示部108の画面表示を用いたGUI等を介して、ユーザから対象物に対する指示入力を取得する。図10には、対象物としての歩行者1021が横断歩道を歩いている映像1001の例を示している。第2の実施形態の場合、表示部108の画面には、映像データの映像1001と前述同様の属性情報リスト1012の他に、データ保存部804に保存されている行動データの各ラベル情報をアイコンにより表したラベルリスト1002も表示される。すなわち、ラベルリスト1002は、データ保存部804に保存されている各行動データの属性情報のラベル情報を基に分類したリストとなされている。図10には、ラベルリスト1002として、正常な行動に対応した正常行動ラベルリスト、異常な行動に対応した異常行動ラベルリスト、及び、その他の行動ラベルリストが表示された例を挙げている。
第2の実施形態の場合、ユーザは、映像データの映像1001を見ながら、入力部102を介したGUI操作により、ラベルリスト1002の中のアイコン指示により行動データのラベル情報を入力する。図10には、ユーザが入力部102を介して例えば横断禁止ラベルアイコン1003を入力した例が示されている。すなわち、図10の例のように、歩行者1021が横断歩道を歩いている場合において、横断禁止ラベルアイコン1003の設定がなされると、その歩行者1021が横断歩道を歩く行動は異常行動であるとして行動データの設定が行われる。
また、本実施形態において、ラベルリスト1002には、例えば交通信号機に対してラベル情報の入力を可能にするアイコンも用意されている。例えば、歩行者1021が歩いている横断歩道に直交した道路用の交通信号機1004を例えば赤色点灯状態に設定し、その時の歩行者1021の行動に関する情報の入力を行うことで、併せて交通信号機1004の情報が設定される。これにより、交通信号機1004の状況変化にも対応した行動データの入力が可能となる。
そして、これらの入力が完了した場合、それら入力により設定された行動データが、識別モデル作成部806へと出力される。
第2の実施形態の識別モデル作成部806は、設定された行動データを用いて、前述同様に識別モデルの学習を行う。第2の実施形態の場合、各行動データには、正常又は異常の種類を表す属性情報が付与されている。このため、第2の実施形態の識別モデル作成部806は、正常のラベル情報をクラス「+1」とし、異常のラベル情報をクラス「−1」として、SVM(Support Vector Machine)手法を用いて識別モデルを作成する。これにより、入力された特徴量の行動データが、正常な行動か、又は、異常な行動かを判定可能な識別モデルが作成される。なお、識別モデルの作成には、Adaboostなどの手法を用いることも可能である。
第2の実施形態の場合、前述したように属性情報には例えば交通信号機の状態を表す情報の入力も可能となされている。このため、例えば交通信号機が赤色点灯時に入力された情報を使って赤色点灯時の識別モデルを作成し、また例えば交通信号機が青色点灯時に入力された情報を使って青色点灯時の識別モデルを作成することも可能である。このように、交通信号機の点灯変化に対してそれぞれの識別モデルを作成しておくことにより、例えば、対象物やその行動の識別時に、交通信号機の情報を基に識別モデルを切り替えることで、より正しい正常・異常の行動判定を行うことも可能となる。
前述のようにして識別モデル作成部806にて作成された識別モデルのデータは、識別モデル保存部107へと送られて保存される。なお、本実施形態の場合、識別モデルはSVM手法を用いて作成されるので、複数のサポートベクターと、それぞれに対応する係数、及び、閾値が、識別モデル保存部107に保存される。
次に、図11のフローチャートを参照しながら、第2の実施形態における識別モデル作成処理について詳細に説明する。なお、図11において、前述の図7(a)のフローチャートと同じ処理ステップには同一の参照符号を付してそれらの説明は省略する。
図11のフローチャートにおいて、S702の後、情報処理装置800の処理は、S1113に進む。
S1113において、入力部102は、表示部108に表示されている対象物の事象に対するユーザの入力指示を基に、前述同様の領域情報と共に、その対象物の異常な行動に関する各ラベル情報を含む属性情報を取得する。S1113の後、入力部102の処理は、S1114へと進む。
S1114において、入力部102は、ユーザによる入力指示がなされた属性情報のラベル情報が、前述のラベルリスト1002からの入力か否かを判定する。具体的には、入力部102は、ラベルリスト1002内のラベルアイコンをユーザがクリック等することで何れかのラベルアイコンが選択されているかどうかにより、ラベルリスト1002による入力か否かの判定を行う。なお、判定の方法はこの方法に限定されるものではない。S1114において、ラベルリスト1002による入力であると判定された場合、ユーザによる入力部102を介した指示入力の情報はデータ選択部805へと送られ、情報処理装置800の処理はS1115へと進む。一方、S1114において、ラベルリスト1002による入力でない判定された場合、ユーザによる入力部102を介した指示入力の情報は特徴量作成部103へと送られ、情報処理装置800の処理は前述したS705へと進む。なお、S704の処理に進んだ場合、情報処理装置800の処理は、その後、前述したS705の処理へ進み、さらに前述したS706へと進む。
S1115の処理に進んだ場合、データ選択部805は、S1113にてユーザにより入力部102を介して入力されたラベルアイコンに応じたラベル情報を基に、データ保存部804から行動データを収集する。すなわち、データ選択部805は、データ保存部804内の各行動データの中から、ラベル情報を基に検索した行動データを収集し、その行動データを識別モデル作成部806に送る。S1115の後、情報処理装置800の処理は、前述したS706へと進む。
S706において、前述したように入力が完了したと判定されると、情報処理装置800の処理は、S1117へと進む。
S1117において、識別モデル作成部806は、識別モデルの作成用の行動データを用いて、識別モデルの学習を行う。第2の実施形態の場合、識別モデル作成部806は、入力された行動データの属性情報を用いて、正常な行動の行動データと、異常な行動の行動データとに分ける。そして、識別モデル作成部806は、前述したように、正常行動データをクラス「+1」として、異常行動データをクラス「−1」とし、SVMを用いて識別モデルを作成する。このようにして作成された識別モデル(複数のサポートベクターと、それぞれに対応する係数、及び、閾値)は、識別モデル保存部107へと出力されて保存される。このS1117の処理完了後、情報処理装置800は、図11のフローチャートの識別モデル作成処理を終了させる。
以上説明したように、第2の実施形態の情報処理装置800では、データ保存部804に保存されている行動データのラベル情報に応じたラベルアイコンを表示し、ユーザがラベルアイコンを選択することで対象物の行動に関する情報入力が行われる。すなわち、第2の実施形態の場合、ラベルアイコンの選択入力により、映像シーンの対象物の事象が正常か異常かを判定可能な識別モデルの作成が可能となる。
<第3の実施形態>
図12は、第3の実施形態に関わる情報処理装置1200の概略的な構成例を示している。
第3の実施形態の情報処理装置1200は、前述した第1、第2の実施形態で説明したような監視カメラ等の映像の表示と共に、監視カメラ等により映像が取得される場所のマップ情報をも表示して、対象物の事象に関する情報の入力を可能にする例である。
以下、図12に示す情報処理装置1200において、複数のシーンの情報を含むマップ情報を用いて対象物の事象としての行動データを収集し、それら収集した行動データを基にした学習等により識別モデルを作成する構成及び処理の説明を行う。なお、本実施形態では、監視カメラ等が屋内の公共施設等に設置されている例を挙げて図示しているが、これには限定されず、例えば病院、介護施設、駅などの施設や、屋外等に設置されていてもよい。
図12に示した情報処理装置1200において、マップ情報保存部1201は、監視カメラ等が設置さている場所及びその周囲のマップ情報を保持している。マップ情報は、監視カメラ等が例えば建物の屋内に設置されている場合には、その建物の見取り図(ゾーニングマップ)の情報を含み、例えばCGなどの3次元データとして保存されている。また、マップ情報保存部1201には、建物に関する情報に対して、監視カメラの設置情報や、複数のシーンの情報として屋内の各エリアにおける対象物の行動データも併せて保存されている。これらシーン毎の行動データはCGで作成することができる。また、マップ情報は、監視カメラ等が屋外に設置されている場合には、その周囲の地図情報となされる。屋外の場合のマップ情報には、シーン毎の対象物の行動に関する情報として、例えば携帯電話機や車両などに搭載されているGPS(全地球無線測位システム)等の測位情報(移動情報)が含まれていてもよい。
図13には、第3の実施形態の情報処理装置1200の映像取得部1208にて取得された映像1306とマップ情報保存部1201から供給されたマップ1301とが、表示部1209に表示された例を示している。図13の表示例において、映像1306は映像取得部1208にて取得された映像であり、マップ1301はマップ情報保存部1201から供給されたマップ情報に基づくゾーニングマップ等である。また、マップ情報保存部1201のマップ情報には、監視カメラの設置位置情報と、その監視カメラのカメラ情報も含まれる。監視カメラの設定位置情報にはカメラの設置高さやカメラの設置角度の情報が含まれ、カメラ情報にはカメラの画角、焦点距離、絞り、シャッタースピード、ISO感度、画素数などのカメラパラメータの情報等が含まれている。したがって、図13のマップ1301には、監視カメラの設置位置情報に基づく監視カメラ1302も表示される。なお、映像1306内のエリア1305についての説明は後述する。
また、マップ情報保存部1201のマップ情報には、マップ1301内でカメラ設置位置情報に応じたエリア1303内における正常な行動の対象物のデータも登録されている。マップ情報に含まれる対象物のデータには、その対象物の行動の3次元の動きデータも含まれている。図13の例の場合、エリア1303内における正常な行動の対象物データとして、前後左右に動く歩行者と、止まっている人と、前後左右に動く車椅子に乗った人のデータが登録されており、それらを表すアイコン1321〜1323が表示されている。なお、マップ情報保存部1201には、正常行動のデータだけでなく、前述の第2の実施形態で説明したような、異常行動の場合の対象物のデータが登録されていてもよい。
図12に説明を戻す。
座標変換部1202は、マップ情報保存部1201に登録されているマップ情報、カメラ設置情報、カメラ情報、対象物に関するデータを読み込む。そして、座標変換部1202は、カメラの設置位置情報に基づいて登録されているエリア1303とそのエリア1303内の対象物のデータに対し、映像1306の領域に表示するための座標変換を行う。具体的には、座標変換部1202は、カメラの設置位置を基準として、下記の式(2)を用い、エリア1303を映像1306内に透視投影変換することで、映像1306上のエリア1305を算出する。
Figure 0006976731
なお、式(2)において、(x,y,z)は映像1306内における座標、kは画素の有効サイズ、oは映像1306の中心(画像中心)、fはカメラの焦点距離、(X,Y,Z,1)はカメラ設置位置を基準とした時の座標系のデータである。また、座標変換部1202は、3次元のデータをカメラの座標系にデータに変換するのに下記の式(3)の演算を行う。
Figure 0006976731
なお、式(3)において、(X,Y,Z)はデータ座標系での座標、tはデータ座標系を基準としたカメラの設置位置、θはカメラの設置角度、(X',Y',Z')はカメラ座標系での座標である。
座標変換部1202は、図13のマップ1301のエリア1303について、この座標変換の演算を行うことにより、映像1306内において対応するエリア1305の領域を設定することができる。また、座標変換部1202は、マップ1301のエリア1303内の対象物(アイコン1321,1322,1323)について、3次元の動きベクトルを同様に映像1306上の動きベクトルに変換する。そして、座標変換部1202により座標変換された情報は、特徴量作成部1203へ出力される。
特徴量作成部1203は、座標変換部1202にて変換された動きデータを基に、特徴量を作成する。具体的には、特徴量作成部1203は、座標変換部1202による変換で算出された映像1306上での動きデータから、nフレーム分の動きをベクトルの各要素とした特徴ベクトルを特徴量として求める。その他にも、特徴量作成部1203は、nフレーム分のHOF特徴量を作成して特徴量としてもよい。そして、特徴量作成部1203は、作成した特徴量をデータ選択部1205へと出力する。
データ保存部1204は、各行動データを保存している。本実施形態の場合、データ保存部1204には、前述した図3や図9で説明したのと同様の行動データが保存されている。
データ選択部1205は、特徴量作成部1203から取得した特徴量を用いて、前述した実施形態と同様に、類似する特徴量の行動データをデータ保存部104から選択する。そして、その選択された類似する行動データが識別モデル作成部1206へと送られる。
識別モデル作成部1206は、データ選択部1205で選択された行動データを用いて、前述した実施形態と同様に、識別モデルを作成する。なお、マップ情報保存部1201に異常行動のデータも登録されている場合、識別モデル作成部1206では前述同様のSVMなどの2クラス識別モデルを作成することもできる。そして、その作成された識別モデルは、識別モデル保存部1207へ送られて保存される。また、識別モデルは、表示部1209へと送られてもよい。
第3の実施形態の映像取得部1208は、マップ情報保存部1201に登録されている監視カメラにより撮影された映像データを取得する。この映像データは表示部1209へと送られる。
表示部1209は、映像取得部1208からの映像と、識別モデル作成部1206で作成した識別モデルとを表示する。第3の実施形態の場合、表示部1209の画面には、図13に示したように、映像1306のエリア1305に、識別モデルに応じたアイコン1321〜1323を重ねて表示する。これにより、ユーザは、識別結果を確認することができることになる。なお、図13の例では、エリア1305上のアイコン1321〜1323は、マップ1301のエリア1303内のものと同様のものを例に挙げている。
以下、図14のフローチャートを参照しながら、第3の実施形態の情報処理装置1200における識別モデル作成から表示までの処理について詳細に説明する。
S1401において、座標変換部1202は、マップ情報保存部1201に登録されている前述したマップ情報、カメラの設置位置情報、カメラ情報、対象物のデータを読み込む。S1401の後、座標変換部1202の処理は、S1402へと進む。
S1402に進むと、座標変換部1202は、マップ情報保存部1201から取得したマップ情報、カメラ設定位置情報、カメラ情報、対象物のデータを用いて、前述したような座標変換処理を行う。そして、座標変換部1202は、座標変換により得られたデータを特徴量作成部1203へと出力する。S1402の後、情報処理装置1200の処理は、S1403へと進む。
S1403において、特徴量作成部1203は、座標変換部1202にて変換されたデータを用いて前述したように特徴量を作成し、その作成した特徴量の情報をデータ選択部1205へと送る。S1403の後、情報処理装置1200の処理はS1404へと進む。
S1404に進むと、データ選択部1205は、特徴量作成部1203から取得した特徴量を基に、前述したように類似する特徴量の行動データを選択し、その選択した行動データを識別モデル作成部1206へと送る。S1404の後、情報処理装置1200の処理はS1405へと進む。
S1405において、識別モデル作成部1206は、前述したように、選択した行動データを用いて識別モデルを作成し、その作成した識別モデルのデータを識別モデル保存部1207と表示部1209に出力する。S1405の後、情報処理装置1200の処理はS1406へと進む。
S1406において、表示部1209は、映像取得部1208から映像を取得し、識別モデル保存部1207から識別モデルの情報を取得する。なお、監視カメラが複数ある場合には、予め何れの監視カメラの映像を取得するかが選択されているとする。S1406の後、表示部1209は、S1407の処理として、映像取得部1208から取得した映像と、識別モデル保存部1207から取得した識別モデルを画面に表示する。この表示を見ることにより、ユーザは、どのような識別モデルが作成されたかを確認することができる。
以上説明したように、第3の実施形態の情報処理装置1200によれば、マップ情報を基に、設置されている監視カメラに対応可能な識別モデルを自動で作成することができる。第3の実施形態の情報処理装置1200においても、前述の実施形態と同様にシーン内の対象物の事象を精度良く識別できる識別モデルを生成可能である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 映像取得部、 102 入力部、 103 特徴量作成部、104 データ保存部、105 データ選択部、 106 識別モデル作成部、 107 識別モデル保存部、 108 表示部

Claims (7)

  1. 予め生成された、対象物の事象の特徴量を含む複数の事象データを保存する保存手段と、
    複数のシーンの情報を含むマップ情報を保存する情報保存手段と、
    前記情報保存手段に保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成手段と、
    前記特徴量作成手段にて作成された特徴量に類似した特徴量を含む事象データを、前記保存手段に保存されている事象データの中から選択する選択手段と、
    前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成手段と、
    を有することを特徴とする情報処理装置。
  2. 前記情報保存手段は、前記シーンの情報に加えて、前記対象物の事象に関する情報と、前記マップ情報により指定されるカメラに関するカメラ情報とを保存していることを特徴
    とする請求項に記載の情報処理装置。
  3. 前記マップ情報により指定される前記カメラにて撮影された映像を取得する映像取得手段と、
    表示手段と、を有し、
    前記表示手段は、前記情報保存手段に保存されている前記シーンの情報、前記映像取得手段により取得された映像、および、前記識別モデルを表示することを特徴とする請求項に記載の情報処理装置。
  4. 前記保存手段は、前記対象物の正常な事象と前記対象物の異常な事象との、少なくとも何れかの事象データを、保存することを特徴とする請求項1からの何れか1項に記載の情報処理装置。
  5. 前記作成された識別モデルを保存するモデル保存手段を有し、
    前記モデル保存手段に保存された前記識別モデルを用いて、前記取得された映像内の前記対象物の事象に対する識別を行うことを特徴とする請求項に記載の情報処理装置。
  6. 予め生成された、対象物の事象の特徴量を含む複数の事象データを保存する保存工程と、
    複数のシーンの情報を含むマップ情報を保存する情報保存工程と、
    前記情報保存工程にて保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成工程と、
    前記特徴量作成工程にて作成された特徴量に類似した特徴量を含む事象データを、前記保存工程にて保存されている事象データの中から選択する選択工程と、
    前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成工程と、
    を有することを特徴とする情報処理装置の情報処理方法。
  7. コンピュータを、請求項1からの何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017115995A 2017-06-13 2017-06-13 情報処理装置、情報処理方法、及びプログラム Active JP6976731B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017115995A JP6976731B2 (ja) 2017-06-13 2017-06-13 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017115995A JP6976731B2 (ja) 2017-06-13 2017-06-13 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019003329A JP2019003329A (ja) 2019-01-10
JP6976731B2 true JP6976731B2 (ja) 2021-12-08

Family

ID=65005981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017115995A Active JP6976731B2 (ja) 2017-06-13 2017-06-13 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6976731B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264281B2 (ja) * 2020-01-10 2023-04-25 日本電気株式会社 可視化画像表示装置
JP7375934B2 (ja) * 2020-06-24 2023-11-08 日本電気株式会社 学習装置、推定装置、学習方法及びプログラム
CN114140656B (zh) * 2022-02-07 2022-07-12 中船(浙江)海洋科技有限公司 一种基于事件相机的海上船舶目标识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4155496B2 (ja) * 2002-04-25 2008-09-24 大日本スクリーン製造株式会社 分類支援装置、分類装置およびプログラム
JP2006252333A (ja) * 2005-03-11 2006-09-21 Nara Institute Of Science & Technology データ処理方法、データ処理装置およびそのプログラム
JP2013125322A (ja) * 2011-12-13 2013-06-24 Olympus Corp 学習装置、プログラム及び学習方法

Also Published As

Publication number Publication date
JP2019003329A (ja) 2019-01-10

Similar Documents

Publication Publication Date Title
JP7190842B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
Ouyang et al. Deep CNN-based real-time traffic light detector for self-driving vehicles
Gurghian et al. Deeplanes: End-to-end lane position estimation using deep neural networksa
US9129524B2 (en) Method of determining parking lot occupancy from digital camera images
US20160189384A1 (en) Method for determining the pose of a camera and for recognizing an object of a real environment
US20150131861A1 (en) Multi-view object detection using appearance model transfer from similar scenes
CN112166439A (zh) 真实到合成图像域转移
EP2345999A1 (en) Method for automatic detection and tracking of multiple objects
WO2012127815A1 (ja) 移動体検出装置および移動体検出方法
Paz et al. Probabilistic semantic mapping for urban autonomous driving applications
CN110222686B (zh) 物体检测方法、装置、计算机设备和存储介质
JP2016062610A (ja) 特徴モデル生成方法及び特徴モデル生成装置
JP2015062121A (ja) 歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法
CN109584302A (zh) 相机位姿优化方法、装置、电子设备和计算机可读介质
Wang et al. When pedestrian detection meets nighttime surveillance: A new benchmark
US20230351794A1 (en) Pedestrian tracking method and device, and computer-readable storage medium
JP6976731B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Li et al. A visualized fire detection method based on convolutional neural network beyond anchor
CN110516707B (zh) 一种图像标注方法及其装置、存储介质
CN106530407A (zh) 一种用于虚拟现实的三维全景拼接方法、装置和***
US20210326376A1 (en) Navigating through a set of images
Singh et al. Acquiring semantics induced topology in urban environments
CN116597122A (zh) 数据标注方法、装置、电子设备及存储介质
CN111339934A (zh) 一种融合图像预处理与深度学习目标检测的人头检测方法
CN114463713A (zh) 一种车辆在3d空间的信息检测方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211110

R151 Written notification of patent or utility model registration

Ref document number: 6976731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151