JP2018013913A - 行動認識装置、行動認識方法、学習方法、およびプログラム - Google Patents

行動認識装置、行動認識方法、学習方法、およびプログラム Download PDF

Info

Publication number
JP2018013913A
JP2018013913A JP2016142414A JP2016142414A JP2018013913A JP 2018013913 A JP2018013913 A JP 2018013913A JP 2016142414 A JP2016142414 A JP 2016142414A JP 2016142414 A JP2016142414 A JP 2016142414A JP 2018013913 A JP2018013913 A JP 2018013913A
Authority
JP
Japan
Prior art keywords
moving
moving image
feature
feature extraction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016142414A
Other languages
English (en)
Inventor
チョンフィ ファン
Jeong Hui Hwang
チョンフィ ファン
一真 山本
Kazuma Yamamoto
一真 山本
増田 誠
Makoto Masuda
誠 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016142414A priority Critical patent/JP2018013913A/ja
Publication of JP2018013913A publication Critical patent/JP2018013913A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】行動認識において動作速度の差を吸収した特徴抽出を実現する。【解決手段】入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出する特徴抽出部と、前記動画像の特徴に基づいて前記動物体の行動を識別する識別部と、を備え、前記特徴抽出部は、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出する、行動認識装置が提供される。【選択図】図4

Description

本発明は、行動認識装置、行動認識方法、学習方法、およびプログラムに関する。
近年、撮像装置を利用した監視システムなどにおいて、撮像された動画像を解析することにより、動画像中の人物による種々の行動を認識する手法が提案されている。
例えば、特許文献1には、動画像を構成する所定枚数のフレーム画像から抽出したCHLAC(Cubic Higher−order Local Auto−Correlation)特徴を多変量解析手法により変換し、予め保存される学習データと比較することで、行動の識別を行う技術が開示されている。
また、例えば、特許文献2には、動画像を構成する所定枚数のフレーム画像から抽出したCHLAC特徴を主成分分析手法により変換し、予め登録される正常データと比較することで、異常検知を行う技術が開示されている。
特開2005−92346号公報 特開2006−79272号公報
しかし、特許文献1および特許文献2に開示される技術では、CHLAC特徴の抽出に、予め静的に設定された条件に基づき選択されたフレーム画像を用いている。このため、撮像された複数の動作が本来同一である場合であっても、それぞれの動作の速度が異なる場合、異なる特徴が抽出されてしまう問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、行動認識において動作速度の差を吸収した特徴抽出を実現することが可能な、新規かつ改良された行動認識装置、行動認識方法、学習方法、およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出する特徴抽出部と、前記動画像の特徴に基づいて前記動物体の行動を識別する識別部と、を備え、前記特徴抽出部は、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出する、行動認識装置が提供される。
前記特徴抽出部は、前記移動量が小さいほど、前記フレーム画像の選択に係る間隔を大きく設定してもよい。
前記特徴抽出部は、前記動画像のCHLAC特徴あるいはST−patch特徴を抽出してもよい。
前記識別部は、部分空間法を用いて前記動物体の行動を識別してもよい。
前記動画像の特徴と前記動物体の行動とを関連付けて学習を行う学習部、をさらに備えてもよい。
前記特徴抽出部は、前記移動量の大きさが所定の基準を上回ることに基づいて、時系列の前記フレーム画像間を補間する補間フレーム画像を生成し、前記フレーム画像と前記補間フレーム画像とを用いて前記動画像の特徴を抽出してもよい。
入力された前記動画像における前記動物体の前記移動量を算出する算出部、をさらに備えてもよい。
前記算出部は、前記動物体の行動の対象となる装置から取得される外部情報に基づいて前記移動量を算出してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出する特徴抽出部と、前記動画像の特徴に基づいて前記動物体の行動を識別する識別部と、を備え、前記特徴抽出部は、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出する、行動認識装置、として機能させるためのプログラムが適用される。
また、上記課題を解決するために、本発明の別の観点によれば、入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出することと、前記動画像の特徴に基づいて前記動物体の行動を識別することと、を含み、前記抽出することは、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出すること、をさらに含む、行動認識方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出することと、前記動画像の特徴と前記動物体の行動とを関連付けて学習することと、を含み、前記抽出することは、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出すること、をさらに含む、学習方法が提供される。
以上説明したように本発明によれば、行動認識において動作速度の差を吸収した特徴抽出を実現することが可能となる。
本発明の第1の実施形態に係る利用イメージを示す図である。 同実施形態に係る動物体の移動量について説明するための図である。 同実施形態に係る動物体の移動量について説明するための図である。 同実施形態に係る行動認識装置の機能ブロック図である。 同実施形態に係るオプティカルフローの算出について説明するための図である。 同実施形態に係る動物体の動作速度が通常である場合の特徴抽出について説明する図である。 同実施形態に係る動物体の動作速度が遅い場合の特徴抽出について説明する図である。 同実施形態に係る動物体の動作速度が速い場合の特徴抽出について説明する図である。 従来手法により抽出したCHLAC特徴を特徴空間に射影した一例である。 同実施形態に係る手法により抽出したCHLAC特徴を特徴空間に射影した一例である。 同実施形態に係る行動認識装置による行動認識の流れを示すフローチャートである。 同実施形態に係る移動量算出部による動物体の移動量算出の流れを示すフローチャートである。 同実施形態に係る行動辞書の作成の流れを示すフローチャートである。 本発明の第2の実施形態に係る行動認識装置の機能ブロック図である。 同実施形態に係る行動認識装置による行動認識の流れを示すフローチャートである。 同実施形態に係る移動量算出部による動物体の移動量算出の流れを示すフローチャートである。 同実施形態に係る行動辞書の作成の流れを示すフローチャートである。 本発明に係る行動認識装置のハードウェア構成例である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.第1の実施形態>
[1.1.第1の実施形態の概要]
まず、本発明の第1の実施形態の概要について説明する。上述したとおり、本発明は、動画像を用いた行動認識において、撮像された動物体の動作速度に依存しない特徴を抽出することができる。すなわち、本発明は、種々の行動における動作速度に関する動作主体の個体差を吸収することを可能とする。
図1は、本実施形態に係る利用イメージを説明するための概念図である。図1を参照すると、本実施形態に係る行動認識システムは、例えば、撮像装置10、操作端末20、および行動認識装置30を備える。また、撮像装置10、操作端末20、および行動認識装置30は、それぞれ通信が行えるようにネットワーク40を介して接続される。
(撮像装置10)
本実施形態に係る撮像装置10は、動画像を取得することが可能な種々の装置により実現され得る。本実施形態に係る撮像装置10は、例えば、操作端末20の周辺または操作端末20に一体に設置される監視カメラであってもよい。撮像装置10は、操作端末20を操作するユーザU1による動作を撮像する機能を有する。この際、本実施形態に係る撮像装置10は、時系列の複数のフレーム画像からなる動画像を撮像してよい。撮像装置10は、例えば、図1に示すように、ユーザU1が操作端末20を操作する際の指、手、腕の動作などを撮像することができる。
(操作端末20)
本実施形態に係る操作端末20は、ユーザU1の操作対象となる種々の装置により実現され得る。本実施形態に係る操作端末20は、例えば、ATM(Automated Teller Machine)や、キャッシュディスペンサーなどの自動取引装置であってもよい。以下の説明では、操作端末20がATMである場合を例に説明する。
(行動認識装置30)
本実施形態に係る行動認識装置30は、撮像装置10により取得された動画像を解析し、ユーザU1の行動を識別する機能を有する。具体的には、本実施形態に係る行動認識装置30は、上記の動画像から抽出した特徴と学習済みの行動辞書とを照合することで、ユーザU1の行動を識別することができる。本実施形態に係る行動認識装置30は、上記の機能を有する種々の情報処理装置であってよい。
また、本実施形態に係る行動認識装置30は、動画像を用いた行動認識において、動物体の移動量、すなわち動作主体の動作速度に関する個体差を吸収することを可能とする。
図2および図3は、本実施形態に係る動物体の移動量について説明するための図である。図2および図3には、ユーザU1が操作端末20にATM専用カード210を挿入する行動が、それぞれ異なる動作速度で示されている。すなわち、図2には、ユーザU1がATM専用カード210を比較的早い速度で挿入する場合の例が示され、図3には、ユーザU1がATM専用カード210を比較的遅い速度で挿入する場合の例が示されている。
図2および図3に示すように、操作端末20に対する動作主体の動作速度は、動作主体の特性(例えば、年齢、体格、健康状態、性別など)や状況などにより変化し得る。このため、動画像を用いた行動認識においては、動作主体の動作速度に依存しない特徴抽出方法が求められる。
本実施形態に係る行動認識装置30は、上記の点に着目して発想されたものであり、動画像から算出された動物体の移動量に基づいて、特徴抽出に用いるフレーム画像を動的に選択することが可能である。より具体的には、行動認識装置30は、動物体の移動量の大きさに基づく間隔で選択したフレーム画像を用いて、動画像の特徴を抽出することができる。行動認識装置30が有する上記機能の詳細については、後述する。
(ネットワーク40)
ネットワーク40は、撮像装置10、操作端末20、および行動認識装置30を接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク40は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
[1.2.第1の実施形態に係る行動認識装置30]
次に、本発明の第1の実施形態に係る行動認識装置30の機能構成例について説明する。図4は、本実施形態に係る行動認識装置30の機能ブロック図の一例である。図4を参照すると、本実施形態に係る行動認識装置30は、動画読込部310、移動量算出部320、特徴抽出部330、学習部340、識別部350、出力制御部360、および行動辞書370を備える。以下、上記の各構成について詳細に説明する。
(動画読込部310)
動画読込部310は、撮像装置10により撮像された動画像の読み込みを行う機能を有する。この際、動画読込部310は、入力される動画像を時系列のデータに変換することができる。すなわち、動画読込部310は、動画像を構成する時系列のフレーム画像(静止画像)を一枚ずつ読み込むことができる。動画読込部310は、上記の時系列のフレーム画像を移動量算出部320および特徴抽出部330に出力する。
(移動量算出部320)
移動量算出部320は、動画読込部310から入力された時系列のフレーム画像に基づいて、動物体の移動量を算出する機能を有する。この際、移動量算出部320は、例えば、オプティカルフローを用いて、動物体の移動量を算出してよい。移動量算出部320による移動量算出の詳細については、後述する。
(特徴抽出部330)
特徴抽出部330は、動画読込部310から入力された時系列のフレーム画像に基づいて、動画像の特徴を抽出する機能を有する。この際、本実施形態に係る特徴抽出部330は、移動量算出部320により算出された動物体の移動量に基づいて、上記の特徴抽出を行うことができる。具体的には、本実施形態に係る特徴抽出部330は、動物体の移動量の大きさに基づく間隔で選択したフレーム画像を用いて、動画像の特徴を抽出してよい。例えば、特徴抽出部330は、動物体の移動量が小さいほど、フレーム画像の選択に係る間隔を大きく設定してもよい。
また、本実施形態に係る特徴抽出部330は、例えば、動物体の「形」および「動き」を表すCHLAC特徴抽出を利用することができる。または、本実施形態に係る特徴抽出部330は、ST−patch特徴を利用してもよい。以降の説明では、特徴抽出部330がCHLAC特徴を抽出する場合を例に説明する。なお、本実施形態に係るCHLAC特徴抽出の詳細については、後述する。
また、本実施形態に係る特徴抽出部330は、上記のCHLAC特徴を行動識別に有効な特徴空間に変換する機能を有する。特徴抽出部330は、例えば、特許文献2に記載されるような主成分分析などを用いて上記の変換を行うことができる。
(学習部340)
学習部340は、特徴抽出部330が抽出したCHLAC特徴と動物体の行動とを関連付けて学習を行う機能を有する。すなわち、本実施形態に係る学習部340は、上記のCHLAC特徴に基づいて、予め設定された行動を識別するモデル学習を行い、当該モデル学習の結果を行動辞書370に記憶させることができる。
(識別部350)
識別部350は、特徴抽出部330が抽出したCHLAC特徴と予め学習により作成された行動辞書370とに基づいて、動物体の行動を識別する機能を有する。また、本実施形態に係る識別部350は、例えば、部分空間法を用いて、動物体の行動を識別してもよい。識別部350による行動識別の詳細については、後述する。
(出力制御部360)
出力制御部360は、識別部350により識別された識別結果の出力を制御する機能を有する。出力制御部360は、例えば、行動認識装置30の内部または外部に備えられる表示装置(図示しない)に、上記の識別結果を表示させてもよい。また、出力制御部360は、上記の識別結果に異常が認められる場合、接続されるスピーカなどにアラート音などを出力させてもよい。
(行動辞書370)
行動辞書370は、学習部340によるモデル学習の結果を記憶する機能を有する。本実施形態に係る行動辞書370は、例えば、学習が行われる行動(ATM専用カードの挿入やピンパッドの操作など)ごとに生成されてもよい。
以上、本実施形態に係る行動認識装置30の機能構成例について説明した。上述したとおり、本実施形態に係る行動認識装置30は、動物体の移動量の大きさに基づく間隔で選択したフレーム画像を用いて動画像の特徴を抽出することを特徴の一つとする。本実施形態に係る行動認識装置30が有する上記の特徴によれば、動作主体の動作速度に依存しない特徴抽出が可能となり、行動識別の精度を向上させることが可能となる。
なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係る行動認識装置30の機能構成は、係る例に限定されない。例えば、行動辞書370は、行動認識装置30の外部に備えられてもよい。本実施形態に係る行動認識装置30の機能構成は、システムの運用や仕様、データ量などに応じて柔軟に変更され得る。
[1.3.移動量算出の詳細]
次に、本実施形態に係る移動量算出の詳細について説明する。上述したとおり、本実施形態に係る移動量算出部320は、オプティカルフローを用いて、動物体の移動量を算出することができる。
図5は、本実施形態に係るオプティカルフローの算出について説明するための図である。図5を参照すると、本実施形態に係る移動量算出部320は、入力された現時点のフレーム画像I(x,y,t)と直前のフレーム画像I(x,y,t−1)とから、各ピクセルのオプティカルフロー(移動ベクトル)OF(x,y,t)を求める。ここで、上記のxおよびyはフレーム画像中の座標を示す値であってよい。なお、この際、移動量算出部320は、Lucas−Kanade法によるオプティカルフローの算出を行ってもよい。また、移動量算出部320は、算出したオプティカルフローをバッファに保持する。
移動量算出部320は、読み込まれたフレーム画像の数が所定数Nを超えるまで、上記の処理を繰り返し実行する。図5に示す一例では、移動量算出部320は、フレーム画像I(x,y,t−1)とフレーム画像I(x,y,t−2)、およびフレーム画像I(x,y,t−N+2)とフレーム画像I(x,y,t−N+1)から、それぞれオプティカルフローOF(x,y,t−1)およびオプティカルフローOF(x,y,t−N+2)を算出している。
ここで、読み込まれたフレーム画像の数が所定数Nを超えた場合、移動量算出部320は、バッファに保持するオプティカルフローから移動量の算出を行う。この際、移動量算出には、各ピクセルの2フレーム間における移動量ベクトルの強度をNフレーム分足し合わせ全画像で合計した値などが利用されてもよい。
具体的には、フレーム画像I(x,y,τ)とフレーム画像I(x,y,τ−1)とから算出されたオプティカルフローがOF(x,y,τ)である場合、移動量算出部320は、下記の数式(1)を用いて、移動量Dis(t,t−N+1)を算出することができる。
Figure 2018013913
[1.4.特徴抽出の詳細]
次に、本実施形態に係る特徴抽出の詳細について説明する。上述したとおり、本実施形態に係る特徴抽出部330は、移動量算出部320により算出された動物体の移動量に基づいて、CHLAC特徴の抽出を行うことができる。図6〜図8は、本実施形態に係る動物体の移動量に基づく特徴抽出を説明するための図である。
ここで、図6は、動物体の移動量が1.0である場合における特徴抽出を示す図である。図7は、上記の移動量が0.5である場合における特徴抽出を示す図である。また、図8は、上記の移動量が2.0である場合における特徴抽出を示す図である。なお、上記に示す移動量の値は相対値であり、例えば、移動量が0.5である場合は、移動量が1.0である場合に比べ、同じ動作に2倍の時間を要することを表している。
まず、図6を参照して、動物体の動作速度が通常である場合、すなわち、動物体の移動量が1.0である場合における特徴抽出について説明する。図6の上部には、動画読込部310から入力されたフレーム画像が時系列に示されている。また、図6の下部には、入力されたフレーム画像のうち、動物体が撮像されているフレーム画像が示されており、各フレーム画像中の星は、撮像された動物体を表している。すなわち、図6に示す一例では、動物体が画像左下から右上に向かって移動していることがわかる。なお、図6に示される矢印は時間方向を示している。
図6に示すように、動物体の移動量が1.0である場合、本実施形態に係る特徴抽出部330は、CHLAC特徴の抽出に際し、時系列に連続した3枚のフレーム画像を選択してよい。図6に示す一例では、特徴抽出部330は、フレーム画像I(t)、フレーム画像I(t−1)、およびフレーム画像I(t−2)を選択し、当該フレーム画像を用いてCHLAC特徴を抽出することができる。なお、図6において、ハッチングが施されたフレーム画像は、特徴抽出部330により選択されたフレーム画像、すなわち、CHLAC特徴の抽出に用いられるフレーム画像を示している。
次に、図7を参照して、動物体の動作速度が遅い場合、すなわち、動物体の移動量が0.5である場合における特徴抽出について説明する。図7の上部には、図6と同様に動画読込部310から入力されたフレーム画像が時系列に示され、図7の下部には、入力されたフレーム画像のうち、動物体が撮像されているフレーム画像が示されている。
図7に示すように、動物体の移動量が0.5である場合、本実施形態に係る特徴抽出部330は、時系列に連続した3枚のフレーム画像ではなく、時系列に入力された複数のフレーム画像から1枚おきに選択した3枚のフレーム画像を用いてCHLAC特徴を抽出する。
図7に示す一例では、特徴抽出部330は、フレーム画像I(t)、フレーム画像I(t−2)、およびフレーム画像I(t−4)を選択し、当該フレーム画像を用いてCHLAC特徴を抽出することができる。なお、図7において、ハッチングが施されたフレーム画像は、特徴抽出部330により選択されたフレーム画像、すなわち、CHLAC特徴の抽出に用いられるフレーム画像を示している。
ここで、移動量が1.0である場合に選択されたフレーム画像と、移動量が0.5である場合に選択されたフレーム画像とを比較すると、フレーム画像中の動物体の位置が両者で一致していることがわかる。すなわち、移動量が0.5である場合に選択されたフレーム画像I(t−2)は、移動量が1.0である場合に選択されたフレーム画像I(t−1)に一致する。また、移動量が0.5である場合に選択されたフレーム画像I(t−4)は、移動量が1.0である場合に選択されたフレーム画像I(t−2)に一致する。
このように、本実施形態に係る特徴抽出部330は、移動量の大きさに基づく間隔で選択したフレーム画像を用いてCHLAC特徴を抽出することで、動物体の動作速度の差を吸収することが可能である。なお、図7では、移動量が0.5である場合の特徴抽出について例示したが、本実施形態に係る特徴抽出部330は、例えば、移動量が0.5未満である場合においても、移動量の大きさに基づく間隔で選択したフレーム画像を用いてCHLAC特徴を抽出することができる。すなわち、本実施形態に係る特徴抽出部330は、動物体の移動量が小さいほど、フレーム画像の選択に係る間隔を大きく設定することで、移動量が通常の場合と同様のフレーム画像を選択することが可能である。
次に、図8を参照して、動物体の動作速度が速い場合、すなわち、動物体の移動量が2.0である場合における特徴抽出について説明する。図8の上部には、図6及び図7と同様に動画読込部310から入力されたフレーム画像が時系列に示され、図8の下部には、入力されたフレーム画像のうち、動物体が撮像されているフレーム画像が示されている。
図8の上部に示すように、動物体の移動量が2.0である場合、本実施形態に係る特徴抽出部330は、時系列に連続した2枚のフレーム画像を選択してよい。また、この際、本実施形態に係る特徴抽出部330は、選択したフレーム画像間を補間する補間フレーム画像を生成することができる。図8の下部には、特徴抽出部330が選択した時系列の2枚のフレーム画像I(t)とI(t−1)、および当該2枚のフレーム画像間を補間する補間フレーム画像I(c)が示されている。
このように、本実施形態に係る特徴抽出部330は、移動量の大きさが所定の基準を上回ることに基づいて、時系列のフレーム画像間を補間する補間フレーム画像を生成し、当該時系列のフレーム画像と補間フレーム画像とを用いてCHLAC特徴を抽出することができる。
本実施形態に係る特徴抽出部330が有する上記の機能によれば、移動量が大きい場合においても、移動量が通常である場合と同様のCHLAC特徴を抽出することが可能となる。
なお、特徴抽出部330は、時系列のフレーム画像から算出される動きベクトルに基づいて上記の補間フレーム画像を生成してもよいし、時系列のフレーム画像の演算処理により上記の補間フレーム画像を生成してもよい。また、特徴抽出部330は、空白のフレームや、動物体が撮像されていない背景画像を補間フレームとして生成してもよい。本実施形態に係る補間フレーム画像の生成には種々の手法が適用され得る。
[1.5.第1の実施形態の効果]
次に、本実施形態の効果について述べる。上述した特許文献1および特許文献2に開示される手法では、予め静的に設定された条件に基づき選択されたフレーム画像を用いてCHALC特徴を抽出している。このため、当該手法では、同一の動作でも動作速度が異なる場合、同様の特徴を得ることが困難である。
図9は、従来手法により抽出したCHLAC特徴を行動識別に有効な特徴空間に射影した一例を示している。図9を参照すると、特徴空間には、2つの動作クラスC1およびC2が示されている。ここで、動作クラスC1は、例えば、ATMにカードを挿入する動作に係るクラスであってよく、動作クラスC2は、ピンパッドを操作する動作に係るクラスであってよい。
また、図9において、白色の四角形は、動作クラスC1を構成する各特徴量を表しており、黒色の三角形は、動作クラスC2を構成する各特徴量を表している。ここで、動作クラスC1の特徴量F1は、ATMにカードを素早く挿入する動作に基づいて抽出された特徴量であり、特徴量F2は、ATMにカードをゆっくりと挿入する動作に基づいて抽出された特徴量であってよい。
このように、従来手法によるCHLAC特徴の抽出では、動物体の移動量を考慮していないため、図9を参照すると、動作クラスC1およびC2は、特徴空間における広がりが大きくなっていることがわかる。また、動作クラスC1およびC2の分布に着目すると、一部の領域が重なっていることがわかる。すなわち、図9に示す一例では、ピンパッドを操作する動作が、ATMにカードを挿入する動作として誤認識されてしまう可能性を示唆している。
一方、図10は、本実施形態における手法により抽出したCHLAC特徴を特徴空間に射影した一例を示している。すなわち、図10には、動物体の移動量に基づく間隔で選択されたフレーム画像を用いて抽出された特徴量が示されている。
図10を参照すると、特徴空間には、図9と同様に2つの動作クラスC1およびC2が示されているが、各動作クラスの分布は、図9に示した分布と比較して、非常に小さいことがわかる。このように、本実施形態に係る行動認識装置30によれば、移動体の移動量、すなわち動作速度に依存しない特徴抽出を実現することが可能となり、動作が誤認識される可能性を大幅に低減することができる。
[1.6.動作の流れ]
次に、本実施形態に係る行動認識装置30の動作の流れについて詳細に説明する。
(行動認識の流れ)
まず、本実施形態に係る行動認識装置30による行動認識の流れについて説明する。図11は、本実施形態に係る行動認識装置30による行動認識の流れを示すフローチャートである。
図11を参照すると、行動認識装置30の動画読込部310は、まず、撮像装置10が撮像した動画像を時系列の静止画画像、すなわちフレーム画像として一枚ずつ読み込む(S1110)。
次に、移動量算出部320は、ステップS1110で読み込まれた時系列のフレーム画像に基づいて、画像中における動物体の移動量を算出する(S1120)。ステップS1120における移動量算出の詳細フローについては、後述する。
次に、特徴抽出部330は、ステップS1110で読み込まれたフレーム画像とステップS1120において算出された移動量とに基づいて特徴量を抽出する(S1130)。この際、本実施形態に係る特徴抽出部330は、抽出する特徴量としてCHLAC特徴などを採用してよい。特徴抽出部330が動物体の移動量に基づく特徴抽出を行うことで、動物体の動作速度に依存しないCHLAC特徴を抽出することが可能となる。
続いて、特徴抽出部330は、ステップS1130で抽出されたCHLAC特徴を行動識別に有効な特徴空間に変換する(S1140)。この際、特徴抽出部330は、主成分分析などを用いて上記の変換を行うことができる。
次に、識別部350は、ステップS1140において変換された特徴量と、予め作成された行動辞書370とを照合し、動物体に係る行動識別を行う(S1150)。この際、識別部350は、パターン認識において広く用いられる部分空間法を用いて上記の行動識別を行うことができる。識別部350が部分空間法を用いて行動識別を行うことで、識別時に係るコストを低減することが可能となる。
次に、出力制御部360は、ステップS1150において識別された識別結果を各種の出力装置に出力させる(S1160)。上記の出力装置には、種々の表示装置や音声出力装置などが含まれてよい。
以上、本実施形態に係る行動認識の流れについて説明した。本実施形態に係る行動認識装置30は、上記に示したステップS1110〜S1160を繰り返し実行することで、撮像された動物体の行動を連続的に識別することができる。
(移動量算出の詳細フロー)
次に、本実施形態に係る移動量算出の詳細フローについて説明する。図12は、本実施形態に係る移動量算出部320による動物体の移動量算出の流れを示すフローチャートである。なお、図12に示す各ステップは、図11に示したステップS1120の詳細フローに該当する。
図12を参照すると、移動量算出部320は、読み込まれたフレーム画像に基づいてオプティカルフローの算出を行う(S1121)。この際、移動量算出部320は、現時点のフレーム画像と直前のフレーム画像とから各ピクセルのオプティカルフローを算出することができる。
続いて、移動量算出部320は、ステップS1121で算出したオプティカルフローをバッファに保存する(S1122)。
続いて、移動量算出部320は、ステップS1121においてオプティカルフローの算出処理に用いたフレーム画像の枚数を判定する(S1123)。ここで、処理されたフレーム画像の枚数が所定数N未満である場合(S1123:NO)、移動量算出部320は、ステップS1121に復帰し、オプティカルフローの算出処理を再び実行する。
一方、処理されたフレーム画像の枚数が所定数N以上である場合(S1123:YES)、移動量算出部320は、算出した移動量を特徴抽出部330に出力し(S1124)、一連の処理を終了する。
以上、本実施形態に係る移動量算出の詳細フローについて説明した。本実施形態に係る移動量算出部320は、読み込まれたフレーム画像に基づいて、上記に示したステップS1121〜S1124を連続的に実行してよい。移動量算出部320が連続的に上記の処理を実行することで、動画像中における動物体の移動量を把握し続けることが可能となる。
(行動辞書370作成の流れ)
次に、本実施形態に係る行動辞書370の作成の流れについて詳細に説明する。本実施形態に係る行動辞書370の作成は、行動認識の流れと同様に動物体の移動量に基づき実行されてよい。すなわち、本実施形態に係る行動認識装置30は、動物体の移動量の大きさに基づく間隔で選択したフレーム画像から特徴量を抽出し、当該特徴量と動物体の行動とを関連付けて学習する。
図13は、本実施形態に係る行動辞書370の作成の流れを示すフローチャートである。なお、図13に示す各ステップは、学習する行動(例えば、ATM専用カードの挿入やピンパッドの操作など)ごとに実行されてよい。
図13を参照すると、行動認識装置30の動画読込部310は、まず、撮像装置10が撮像した動画像を時系列の静止画画像、すなわちフレーム画像として一枚ずつ読み込む(S1210)。
次に、移動量算出部320は、ステップS1210で読み込まれた時系列のフレーム画像に基づいて、画像中における動物体の移動量を算出する(S1220)。なお、ステップS1220における詳細な処理は、図12に示した各ステップと同様であってよい。
次に、特徴抽出部330は、ステップS1210で読み込まれたフレーム画像とステップS1220において算出された移動量とに基づいて特徴量を抽出する(S1230)。この際、特徴抽出部330は、図11に示したステップS1130と同様の処理を実行してよい。
続いて、特徴抽出部330は、ステップS1230で抽出されたCHLAC特徴を行動識別に有効な特徴空間に変換する(S1240)。
次に、学習部340は、ステップS1240で変換された特徴と予め設定された行動とを関連付けて行動辞書370に記憶させる(S1250)。
以上、本実施形態に係る行動辞書370の作成の流れについて詳細に説明した。上述したとおり、本実施形態に係る行動認識装置30は、動物体の移動量に基づいて選択したフレーム画像から抽出した特徴を用いて学習を行うことができる。
本実施形態に係る行動認識装置30が有する上記の機能によれば、動物体の動作速度の差を吸収した学習を行うことができ、各動作の特徴空間上での分布を小さく抑えることが可能となる。このため、本実施形態に係る行動認識装置30によれば、動物体が行った動作が他の動作として誤認識される可能性を大きく低減することができる。
<2.第2の実施形態>
[2.1.第2の実施形態の概要]
次に、本発明の第2の実施形態の概要について説明する。近年、ATMなどの自動取引装置に対する犯罪は巧妙化しており、当該犯罪に対する防止策や早期検知のしくみなどが求められている。上記のような犯罪には、例えばスキミング装置による情報の不正入手などが含まれるが、設置されたスキミング装置を発見することが困難である場合もある。
このため、本発明の第2の実施形態では、スキミング装置などを取り付ける動作、すなわち異常行動を検知することで、操作端末20に対する犯罪を早期に検知することを目的の一つとする。
具体的には、本実施形態に係る行動認識装置30は、操作端末20から取得される外部情報に基づいて、学習および認識における特徴抽出を動的に調整する機能を有する。ここで、本実施形態に係る外部情報とは、例えば、操作端末20のステータス情報であってよい。操作端末20がATMである場合、本実施形態に係る外部情報には、例えば、「ATM専用カードの挿入待ち」、「取引の選択待ち」などのステータス情報が含まれてよい。
操作端末20に対する動作は、一般的に上記のようなステータスに応じて限定され得る。例えば、ピンパッドを操作すべきステータスにおいて、カードが挿入される場合、当該カードの挿入は、異常行動である可能性が高い。
このため、本実施形態に係る行動認識装置30は、上記のような外部情報を加味した行動認識を行うことで、異常行動の検出精度を向上させることができる。
なお、以降における本実施形態の説明では、第1の実施形態との差異について中心に説明し、第1の実施形態と共通する機能については、詳細な説明を省略する。
[2.2.第2の実施形態に係る行動認識装置30]
まず、本発明の第2の実施形態に係る行動認識装置30の機能構成例について説明する。図14は、本実施形態に係る行動認識装置30の機能ブロック図である。図14を参照すると、本実施形態に係る行動認識装置30は、第1の実施形態と共通する機能構成に加えて、外部情報取得部380を備える。
(外部情報取得部380)
外部情報取得部380は、操作端末20から外部情報を取得する機能を有する。上述したとおり、本実施形態に係る外部情報は、操作端末20のステータス情報であってよい。外部情報取得部380は、取得した外部情報を移動量算出部320に出力する。
以上、本実施形態に係る行動認識装置30の機能構成例について説明した。上述した外部情報取得部380以外の構成については、第1の実施形態と実質同一の機能を有してよいため、詳細な説明は省略する。ただし、本実施形態においては、外部情報取得部380が取得した外部情報に基づいて、行動辞書370の作成および行動認識が実行される点において、第1の実施形態との差異が存在する。以下、当該差異について詳細に説明する。
[2.3.外部情報に基づく動作の流れ]
続いて、本実施形態に係る外部情報に基づいた行動認識装置30の動作の流れについて詳細に説明する。
(外部情報に基づく行動認識の流れ)
まず、本実施形態に係る行動認識装置30による外部情報に基づく行動認識の流れについて説明する。図15は、本実施形態に係る行動認識装置30による外部情報に基づく行動認識の流れを示すフローチャートである。
図15を参照すると、行動認識装置30の動画読込部310は、まず、撮像装置10が撮像した動画像を時系列の静止画画像、すなわちフレーム画像として一枚ずつ読み込む(S2110)。
次に、外部情報取得部380は、操作端末20から外部情報を取得する(S2120)。上述したとおり、本実施形態に係る外部情報は、操作端末20のステータス情報であってよい。
次に、移動量算出部320は、ステップS1110で読み込まれた時系列のフレーム画像とステップS2120で取得された外部情報とに基づいて、画像中における動物体の移動量を算出する(S2130)。ステップS2130における外部情報に基づく移動量算出の詳細フローについては、後述する。
次に、特徴抽出部330は、ステップS2110で読み込まれたフレーム画像とステップS2130において外部情報に基づいて算出された移動量とに基づいて特徴量を抽出する(S2140)。
続いて、特徴抽出部330は、ステップS2140で抽出されたCHLAC特徴を行動識別に有効な特徴空間に変換する(S2150)。
次に、識別部350は、ステップS2150において変換された特徴量と、予め外部情報に基づいて作成された行動辞書370とを照合し、動物体に係る行動識別を行う(S2160)。
次に、出力制御部360は、ステップS2160において識別された識別結果を各種の出力装置に出力させる(S2170)。
(外部情報に基づく移動量算出の詳細フロー)
次に、本実施形態に係る外部情報に基づく移動量算出の詳細フローについて説明する。第1の実施形態における移動量算出では、予め設定された所定数Nのフレーム画像からオプティカルフローの算出を行ったが、本実施形態では、外部情報に基づく間隔でオプティカルフローを算出してよい。すなわち、本実施形態に係る移動量算出部320は、操作端末20のステータスに応じた間隔でオプティカルフローの算出を行うことができる。
図16は、本実施形態に係る移動量算出部320による外部情報に基づく移動量算出の流れを示すフローチャートである。なお、図16に示す各ステップは、図15に示したステップS2130の詳細フローに該当する。また、以下の説明では、ユーザが操作端末20にATM専用カードを挿入する動作を行う場合を例に説明する。
図16を参照すると、本実施形態に係る移動量算出部320は、第1の実施形態と同様に、読み込まれたフレーム画像に基づいてオプティカルフローの算出を行う(S2131)。この際、外部情報取得部380により取得される外部情報は、「ATM専用カードの挿入待ち」を示すステータスであってよい。
続いて、移動量算出部320は、ステップS2131で算出したオプティカルフローをバッファに保存する(S2132)。
続いて、移動量算出部320は、外部情報取得部380により取得された外部情報が条件に一致するか否かを判定する(S2133)。具体的には、移動量算出部320は、外部情報が変更されたか否かを判定してよい。
ここで、外部情報が条件に一致しない場合(S2133:NO)、移動量算出部320は、ステップS2131に復帰し、オプティカルフローの算出を再び実行する。すなわち、ステップS2133において、外部情報が依然として、「ATM専用カードの挿入待ち」を示すステータスである場合、移動量算出部320は、ATM専用カードの挿入が完了していないと判定し、ステップS2131に復帰してよい。
一方、外部情報が条件に一致する場合(S2133:YES)、移動量算出部320は、算出した移動量を特徴抽出部330に出力し(S2134)、一連の処理を終了する。すなわち、ステップS2133において、外部情報が、「取引選択待ち」を示すステータスに変更された場合、移動量算出部320は、ATM専用カードの挿入が完了したと判定し、算出した移動量を出力してよい。
以上、本実施形態に係る外部情報に基づく移動量算出の詳細フローについて説明した。本実施形態に係る移動量算出部320は、上記のような外部情報に基づく判定を行うことで、操作端末20のステータスに応じた移動量を算出することができる。本実施形態に係る移動量算出部320が有する上記の機能によれば、外部情報に応じて特徴抽出を動的に調整することが可能となり、行動認識の精度を大幅に向上させることができる。
(外部情報に基づく行動辞書370作成の流れ)
次に、本実施形態に係る外部情報に基づく行動辞書370の作成の流れについて詳細に説明する。図17は、本実施形態に係る外部情報に基づく行動辞書370の作成の流れを示すフローチャートである。
図17を参照すると、行動認識装置30の動画読込部310は、まず、撮像装置10が撮像した動画像を時系列の静止画画像、すなわちフレーム画像として一枚ずつ読み込む(S2210)。
次に、外部情報取得部380は、操作端末20から外部情報を取得する(S2220)。上述したとおり、本実施形態に係る外部情報は、操作端末20のステータス情報であってよい。
次に、移動量算出部320は、ステップS2210で読み込まれた時系列のフレーム画像とステップS2220で取得された外部情報とに基づいて、画像中における動物体の移動量を算出する(S2230)。なお、ステップS2230における詳細な処理は、図16に示した各ステップと同様であってよい。
次に、特徴抽出部330は、ステップS2210で読み込まれたフレーム画像とステップS2230において算出された移動量とに基づいて特徴量を抽出する(S2240)。
続いて、特徴抽出部330は、ステップS2240で抽出されたCHLAC特徴を行動識別に有効な特徴空間に変換する(S2250)。
次に、学習部340は、ステップS2250で変換された特徴と予め設定された行動とを関連付けて行動辞書370に記憶させる(S2260)。
以上、本実施形態に係る行動辞書370の作成の流れについて詳細に説明した。上述したとおり、本実施形態に係る行動認識装置30は、取得した外部情報に基づく移動量を用いて抽出した特徴を学習することができる。本実施形態に係る行動認識装置30が有する上記の機能によれば、操作端末20のステータスに応じた学習を実現することが可能となり、行動認識の性能を向上させることができる。
<3.ハードウェア構成例>
次に、本発明に係る行動認識装置30のハードウェア構成例について説明する。図18は、本発明に係る行動認識装置30のハードウェア構成例を示すブロック図である。図18を参照すると、行動認識装置30は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、マイク、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置(表示装置)、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信部883)
通信部883は、通信網903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、内線電話網や携帯電話事業者網等の電話網に接続してもよい。
<4.まとめ>
以上説明したように、本発明に係る行動認識装置30は、動画像から算出された動物体の移動量に基づいて、特徴抽出に用いるフレーム画像を動的に選択することが可能である。より具体的には、行動認識装置30は、動物体の移動量の大きさに基づく間隔で選択したフレーム画像を用いて、動画像の特徴を抽出することができる。係る構成によれば、行動認識において動作速度の差を吸収した特徴抽出を実現することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、CHLAC特徴を利用する場合を例に説明したが、本発明は係る例に限定されない。本発明に係る行動認識装置30は、例えば、ST−patch(Space−Time patch)や、MBH(Motion Boundary Histograms)を用いて学習および識別を行ってもよい。上記のST−patchやMBHは、広く用いられる手法により抽出され得る。
また、上記実施形態では、Lucas−Kanade法によるオプティカルフロー算出を行う場合を例に説明したが、本発明に係るオプティカルフローの算出には、例えば、Farnebackのアルゴリズムが用いられてもよい。
また、上記実施形態では、操作端末20がATMなどの自動取引装置である場合を例に説明したが、本発明に係る操作端末20は係る例に限定されない。本発明の技術思想は、種々の行動認識システムや異常検知システムに広く適用され得る。
また、本発明の行動認識装置30の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、行動認識装置30の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
10 撮像装置
20 操作端末
30 行動認識装置
310 動画読込部
320 移動量算出部
330 特徴抽出部
340 学習部
350 識別部
360 出力制御部
370 行動辞書
380 外部情報取得部
40 ネットワーク

Claims (11)

  1. 入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出する特徴抽出部と、
    前記動画像の特徴に基づいて前記動物体の行動を識別する識別部と、
    を備え、
    前記特徴抽出部は、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出する、
    行動認識装置。
  2. 前記特徴抽出部は、前記移動量が小さいほど、前記フレーム画像の選択に係る間隔を大きく設定する、
    請求項1に記載の行動認識装置。
  3. 前記特徴抽出部は、前記動画像のCHLAC特徴あるいはST−patch特徴を抽出する、
    請求項1または2に記載の行動認識装置。
  4. 前記識別部は、部分空間法を用いて前記動物体の行動を識別する、
    請求項1〜3のいずれかに記載の行動認識装置。
  5. 前記動画像の特徴と前記動物体の行動とを関連付けて学習を行う学習部、
    をさらに備える、
    請求項1〜4のいずれかに記載の行動認識装置。
  6. 前記特徴抽出部は、前記移動量の大きさが所定の基準を上回ることに基づいて、時系列の前記フレーム画像間を補間する補間フレーム画像を生成し、前記フレーム画像と前記補間フレーム画像とを用いて前記動画像の特徴を抽出する、
    請求項1〜5のいずれかに記載の行動認識装置。
  7. 入力された前記動画像における前記動物体の前記移動量を算出する算出部、
    をさらに備える、
    請求項1〜6のいずれかに記載の行動認識装置。
  8. 前記算出部は、前記動物体の行動の対象となる装置から取得される外部情報に基づいて前記移動量を算出する、
    請求項7に記載の行動認識装置。
  9. コンピュータを、
    入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出する特徴抽出部と、
    前記動画像の特徴に基づいて前記動物体の行動を識別する識別部と、
    を備え、
    前記特徴抽出部は、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出する、
    行動認識装置、
    として機能させるためのプログラム。
  10. 入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出することと、
    前記動画像の特徴に基づいて前記動物体の行動を識別することと、
    を含み、
    前記抽出することは、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出すること、
    をさらに含む、
    行動認識方法。
  11. 入力された時系列の複数のフレーム画像からなる動画像から算出された動物体の移動量に基づいて、前記動画像の特徴を抽出することと、
    前記動画像の特徴と前記動物体の行動とを関連付けて学習することと、
    を含み、
    前記抽出することは、前記移動量の大きさに基づく間隔で選択した前記フレーム画像を用いて、前記動画像の特徴を抽出すること、
    をさらに含む、
    学習方法。
JP2016142414A 2016-07-20 2016-07-20 行動認識装置、行動認識方法、学習方法、およびプログラム Pending JP2018013913A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016142414A JP2018013913A (ja) 2016-07-20 2016-07-20 行動認識装置、行動認識方法、学習方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016142414A JP2018013913A (ja) 2016-07-20 2016-07-20 行動認識装置、行動認識方法、学習方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2018013913A true JP2018013913A (ja) 2018-01-25

Family

ID=61019494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016142414A Pending JP2018013913A (ja) 2016-07-20 2016-07-20 行動認識装置、行動認識方法、学習方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2018013913A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181140A1 (ja) * 2018-03-22 2019-09-26 沖電気工業株式会社 画像処理装置、画像処理方法、記録媒体および画像処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02151981A (ja) * 1988-12-02 1990-06-11 Agency Of Ind Science & Technol 動画像処理による運動計測方法
JPH04260979A (ja) * 1990-11-28 1992-09-16 Hitachi Ltd 移動物体の検出追跡システム
JPH06282655A (ja) * 1993-03-30 1994-10-07 Toyota Motor Corp 移動体認識装置
WO2006064749A1 (ja) * 2004-12-16 2006-06-22 Sharp Kabushiki Kaisha 動画像再生方法および動画像再生装置
JP2012138646A (ja) * 2009-04-23 2012-07-19 Panasonic Corp 映像処理装置及び映像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02151981A (ja) * 1988-12-02 1990-06-11 Agency Of Ind Science & Technol 動画像処理による運動計測方法
JPH04260979A (ja) * 1990-11-28 1992-09-16 Hitachi Ltd 移動物体の検出追跡システム
JPH06282655A (ja) * 1993-03-30 1994-10-07 Toyota Motor Corp 移動体認識装置
WO2006064749A1 (ja) * 2004-12-16 2006-06-22 Sharp Kabushiki Kaisha 動画像再生方法および動画像再生装置
JP2012138646A (ja) * 2009-04-23 2012-07-19 Panasonic Corp 映像処理装置及び映像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
久野 友規: "速度不変特徴量を用いた動作識別", 映像情報メディア学会技術報告 VOL.40 NO.11, vol. AIT2016-48 (Mar.2016), JPN6020028970, 2 March 2016 (2016-03-02), JP, pages 25 - 28, ISSN: 0004320754 *
弓場 竜: "時空間特徴の統計的学習を用いた異常行動検知", 電子情報通信学会論文誌 (J95−D) 第6号, vol. 95, no. 6, JPN6020028971, 1 June 2012 (2012-06-01), JP, pages 1369 - 1379, ISSN: 0004320755 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181140A1 (ja) * 2018-03-22 2019-09-26 沖電気工業株式会社 画像処理装置、画像処理方法、記録媒体および画像処理システム
JP2019168740A (ja) * 2018-03-22 2019-10-03 沖電気工業株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Similar Documents

Publication Publication Date Title
US11450146B2 (en) Gesture recognition method, apparatus, and device
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
JP6161257B2 (ja) イベント検出装置及びその方法、動作認識装置及びその方法、プログラム
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
JP2013164834A (ja) 画像処理装置および方法、並びにプログラム
WO2011161579A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP2008271268A5 (ja)
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP2008146329A (ja) 顔特徴点検出装置及びその方法
JP5879188B2 (ja) 顔表情解析装置および顔表情解析プログラム
CN109086725B (zh) 手部跟踪方法及机器可读存储介质
JP5441151B2 (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
CN114613006A (zh) 一种远距离手势识别方法及装置
JP5552946B2 (ja) 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム
JP2006293720A (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP2018013913A (ja) 行動認識装置、行動認識方法、学習方法、およびプログラム
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP6098498B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
US20220309704A1 (en) Image processing apparatus, image processing method and recording medium
JP5800557B2 (ja) パターン認識装置、パターン認識方法及びプログラム
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP5283267B2 (ja) コンテンツ識別方法及び装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201020