JP7338182B2 - 行動認識装置、行動認識方法及びプログラム - Google Patents
行動認識装置、行動認識方法及びプログラム Download PDFInfo
- Publication number
- JP7338182B2 JP7338182B2 JP2019051167A JP2019051167A JP7338182B2 JP 7338182 B2 JP7338182 B2 JP 7338182B2 JP 2019051167 A JP2019051167 A JP 2019051167A JP 2019051167 A JP2019051167 A JP 2019051167A JP 7338182 B2 JP7338182 B2 JP 7338182B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- moving image
- action
- dictionary
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
以下に添付図面を参照して、行動認識装置、行動認識方法及びプログラムの第1の実施形態を詳細に説明する。
図1は、本実施形態に係る行動認識システム100のハードウェア構成の一例を示すハードウェアブロック図である。図1に示すように、行動認識システム100は、魚眼カメラ200と、行動認識装置300とを備える。
まず、魚眼カメラ200のハードウェア構成について説明する。
次に、行動認識装置300のハードウェア構成について説明する。
次に、図5,図6を用いて魚眼カメラ200で撮影した画像に発生する歪について説明する。図5は、魚眼レンズで観測した画像の歪を説明する図である。図6は、魚眼レンズで観測した画像の位置による歪の違いを説明する図である。
図7から図11を用いて、行動認識システム100が観測する画像の例を説明する。図7は、第1の実施形態の行動認識システム100が観測した画像の一例を示す図である。
次に、図12を用いて、行動認識処理部321の機能構成を説明する。図12は、本実施形態に係る行動認識処理部321の一例を示す機能ブロック図である。図12に示すように、行動認識処理部321は、動画入力部331と、領域分割部332と、辞書作成部333と、辞書選択部334と、行動認識部335と、持続時間測定部336とを備える。
次に、図13を用いて、辞書作成部333の機能構成を説明する。図13は、本実施形態に係る辞書作成部333の概略構成の一例を示す機能ブロック図である。図13に示すように、辞書作成部333は、特徴点抽出部333aと、特徴点分類部333bと、特徴ベクトル算出部333cと、ヒストグラム作成部333dと、認識辞書作成部333eとを備える。
次に、図14を用いて、行動認識部335の機能構成を説明する。図14は、本実施形態に係る行動認識部335の概略構成の一例を示す機能ブロック図である。図14に示すように、行動認識部335は、特徴点抽出部335aと、特徴ベクトル算出部335bと、ヒストグラム作成部335cと、行動認識部335dとを備える。特徴点抽出部335aは、辞書作成部333が備える特徴点抽出部333aと同じ機能を備える。
次に、図15,図16を用いて、行動認識システム100が観測する画像の例を説明する。図15は、動画入力部331に入力される動画(画像列)の一例を示す図である。図15に示す各画像(フレーム)は、魚眼カメラ200で撮影した画像であり、歪を補正していない画像である。撮影された画像の横軸x、縦軸yは空間座標である。そして、画像フレームF1,F2の時間軸はtで示す。つまり、入力された画像は、座標(x,y,t)における時空間データになる。時空間の一つの座標における画素値は、空間座標(x,y)と時刻tの関数である。前述した職場における特定行動を認識する際に、人が移動すると、図15に示す時空間データに変化点が発生する。行動認識システム100は、この変化点、すなわち時空間の特徴点を見つけることで、特定行動を認識する。
次に、図17A,図17Bを用いて、特徴点の記述方法を説明する。図17Aは、動画から抽出した特徴点の一例を示す第1の図である。図17Bは、動画から抽出した特徴点の一例を示す第2の図である。すなわち、図17Aは、図11に示した棚入れを行っている人の画像から抽出した、時刻tにおける特徴点の一例を示す画像k1である。図17Aに示すように、動きのある部分に特徴点が抽出される。図17Bは、同様に時刻t+Δtにおいて抽出された特徴点の一例を示す画像k2である。
次に、図18を用いて、特定行動の持続時間について説明する。図18は、特定行動の持続時間の測定について説明する図である。
次に、図19を用いて、辞書作成部333が行う認識辞書作成処理の流れを説明する。なお、図19は、認識辞書の作成の流れの一例を示すフローチャートである。
次に、図20を用いて、行動認識処理部321が行う行動認識処理の流れを説明する。なお、図20は、特定行動の認識処理の流れの一例を示すフローチャートである。
次に、図21を用いて、行動認識部335が行う特定行動の認識処理の流れを説明する。なお、図21は、複数の特定行動を認識する処理の流れの一例を示すフローチャートである。特に図21は、特定行動のうち、「歩く」行動を行った後で「棚入れ」行動を行ったことを認識する処理の流れを示す。
次に、添付図面を参照して、行動認識装置、行動認識方法及びプログラムの第2の実施形態を詳細に説明する。
図22は、本実施形態に係る行動認識システム100aのハードウェア構成の一例を示すハードウェアブロック図である。図22に示すように、行動認識システム100aは、魚眼カメラ200,201と、行動認識装置300aとを備える。
次に、図24を用いて、行動認識処理部321aの機能構成を説明する。図24は、第2の実施形態における行動認識処理部321aの機能構成の一例を示す機能ブロック図である。図24に示すように、行動認識処理部321aは、第1の実施形態で説明した行動認識処理部321の機能構成(図12)に加えて、同一人物判定部337を備える。また行動認識処理部321aは、辞書選択部334の代わりに、機能が変更された辞書選択部334aを備える。
次に、図25を用いて、行動認識処理部321aが行う行動認識処理の流れを説明する。なお、図25は、第2の実施形態における特定行動の認識処理の流れの一例を示すフローチャートである。
300,300a 行動認識装置
321,321a 行動認識処理部
331 動画入力部
332 領域分割部
333 辞書作成部
334 辞書選択部
335 行動認識部
336 持続時間測定部
333a,335a 特徴点抽出部
333b 特徴点分類部
333c,335b 特徴ベクトル算出部
333d ヒストグラム作成部(学習ヒストグラム作成部)
335c ヒストグラム作成部
333e 認識辞書作成部
335d 行動認識部
H1,H2 人(被写体)
H(k) 学習ヒストグラム
T(k) 特定行動ヒストグラム
Vk 平均ベクトル(学習ベクトル)
Claims (14)
- 撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する行動認識装置であって、
広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、
前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、
前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、
前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、
異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、
前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、
を備える行動認識装置。 - 前記辞書選択部は、前記第2の動画入力部が入力した前記認識対象となる動画に含まれる画像からそれぞれ検出した同じ被写体の位置に応じた前記認識辞書のうち、画像の中央に近い位置に対応する認識辞書を選択する、
請求項1に記載の行動認識装置。 - 前記特定行動の認識結果に基づいて、当該特定行動の持続時間を測定する持続時間測定部を更に備える、
請求項1又は請求項2に記載の行動認識装置。 - 前記辞書作成部は、
前記第1の動画入力部が入力した前記動画に含まれる複数の画像の中から特徴点を抽出する特徴点抽出部と、
抽出された前記特徴点をK種類に分類する特徴点分類部と、
分類されたK種類の特徴点グループに対して、それぞれのK個の学習ベクトルを求める特徴ベクトル算出部と、
前記学習ベクトルの出現頻度を表す学習ヒストグラムを作成する学習ヒストグラム作成部と、を備える
請求項1から請求項3のいずれか1項に記載の行動認識装置。 - 前記学習ヒストグラム作成部は、
前記第1の動画入力部によって入力された、プラス学習データを構成する、前記特定行動を行っている被写体の動画と、マイナス学習データを構成する、前記特定行動を行っていない被写体の動画とから、各データの特徴点が有する特徴量による前記学習ベクトルを用いて、それぞれ学習ヒストグラムを作成して、
前記辞書作成部は、
前記プラス学習データから生成した学習ヒストグラムと、前記マイナス学習データから生成した学習ヒストグラムとに基づいて、前記認識辞書を作成する、
請求項4に記載の行動認識装置。 - 前記行動認識部は、
前記第2の動画入力部が入力した前記認識対象となる動画に含まれる複数の画像の中から特徴点を抽出する特徴点抽出部と、
抽出された前記特徴点における時空間エッジの大きさと方向を示す特徴ベクトルを算出する特徴ベクトル算出部と、
前記特徴点における前記特徴ベクトルの出現頻度を表すヒストグラムを作成するヒストグラム作成部と、を備えて、
前記ヒストグラムと、前記認識辞書とに基づいて、前記被写体の特定行動を認識する、
請求項4又は請求項5に記載の行動認識装置。 - 前記特徴ベクトル算出部は、
入力された複数の画像をM×N×Tサイズのフロックに分割し、各ブロックを微分処理することで、M×N×T×3次元の微分ベクトルを計算して、
計算した前記微分ベクトルと事前に学習した前記学習ベクトルとを比較し、当該比較の結果に基づいて前記微分ベクトルを最も近い前記学習ベクトルと同じ種類の特徴点に分類して、
前記ヒストグラム作成部は、
当該分類の結果に基づいて前記ヒストグラムを作成する、
請求項6に記載の行動認識装置。 - 前記辞書作成部及び前記行動認識部は、
前記第1の動画入力部が入力した前記動画、および前記第2の動画入力部が入力した前記認識対象となる動画に対して、時間軸でのフィルタリング処理を行い、
前記特徴点抽出部は、
前記フィルタリング処理を行った結果、M×N×Tのブロック内における平均値が所定の閾値より大きい場合に、前記ブロックを特徴点として抽出する、
請求項4から請求項7のいずれか1項に記載の行動認識装置。 - 前記特徴点抽出部は、
前記フィルタリング処理を行う前に、各画像に対して平滑化処理を行う、
請求項8又は請求項9に記載の行動認識装置。 - 前記行動認識部は、
前記被写体の特定行動を認識する場合に、所定の順序で特定行動を認識し、特定行動が認識された場合は認識結果を出力して、
特定行動が認識されない場合は、次の特定行動を認識する、
請求項1から請求項10のいずれか1項に記載の行動認識装置。 - 前記広角レンズは、魚眼レンズである、
請求項1から請求項11のいずれか1項に記載の行動認識装置。 - 撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する際に、
広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力ステップと、
前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力ステップと、
前記第1の動画入力ステップおよび前記第2の動画入力ステップで入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割ステップと、
前記第1の動画入力ステップで入力した動画から、前記撮影手段毎、および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成ステップと、
異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成ステップが、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択ステップと、
前記辞書選択ステップで選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識ステップと、
を実行する行動認識方法。 - 撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する行動認識装置を制御するコンピュータを、
広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、
前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、
前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、
前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、
異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、
前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、
して機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051167A JP7338182B2 (ja) | 2019-03-19 | 2019-03-19 | 行動認識装置、行動認識方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051167A JP7338182B2 (ja) | 2019-03-19 | 2019-03-19 | 行動認識装置、行動認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154552A JP2020154552A (ja) | 2020-09-24 |
JP7338182B2 true JP7338182B2 (ja) | 2023-09-05 |
Family
ID=72559041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019051167A Active JP7338182B2 (ja) | 2019-03-19 | 2019-03-19 | 行動認識装置、行動認識方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7338182B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088850A (ja) | 2007-09-28 | 2009-04-23 | Nec Corp | 動画像配信システムおよび動画像配信方法 |
JP2011100175A (ja) | 2009-11-04 | 2011-05-19 | Nippon Hoso Kyokai <Nhk> | 人物行動判定装置及びそのプログラム |
JP2015194901A (ja) | 2014-03-31 | 2015-11-05 | セコム株式会社 | 追跡装置および追尾システム |
JP2016171526A (ja) | 2015-03-13 | 2016-09-23 | 株式会社東芝 | 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム |
-
2019
- 2019-03-19 JP JP2019051167A patent/JP7338182B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088850A (ja) | 2007-09-28 | 2009-04-23 | Nec Corp | 動画像配信システムおよび動画像配信方法 |
JP2011100175A (ja) | 2009-11-04 | 2011-05-19 | Nippon Hoso Kyokai <Nhk> | 人物行動判定装置及びそのプログラム |
JP2015194901A (ja) | 2014-03-31 | 2015-11-05 | セコム株式会社 | 追跡装置および追尾システム |
JP2016171526A (ja) | 2015-03-13 | 2016-09-23 | 株式会社東芝 | 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム |
Non-Patent Citations (2)
Title |
---|
関 海克,職場における行動認識,第23回 画像センシングシンポジウム SSII2017 [USB],日本,画像センシング技術研究会,2017年06月07日,SO2-IS2-05 |
青木 義満,視覚センサによる見守り技術について,通信ソサイエティマガジン,日本,電気情報通信学会,2017年06月01日,11巻,1号,p.30-38,<URL: https://doi.org/10.1587/bplus.11.30>,(検索日 令和4年1月12日)、インターネット |
Also Published As
Publication number | Publication date |
---|---|
JP2020154552A (ja) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11882357B2 (en) | Image display method and device | |
CN110163114B (zh) | 一种人脸角度及人脸模糊度分析方法、***和计算机设备 | |
CN109241985B (zh) | 一种图像识别方法及装置 | |
JP4952625B2 (ja) | 透視変換歪み発生文書画像補正装置および方法 | |
US8508599B2 (en) | Motion vector detection apparatus, motion vector detection method, and image capturing apparatus | |
US8773548B2 (en) | Image selection device and image selecting method | |
JP4772839B2 (ja) | 画像識別方法および撮像装置 | |
EP3798975B1 (en) | Method and apparatus for detecting subject, electronic device, and computer readable storage medium | |
CN104202547B (zh) | 投影画面中提取目标物体的方法、投影互动方法及其*** | |
US8983202B2 (en) | Smile detection systems and methods | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
CN110796041B (zh) | 主体识别方法和装置、电子设备、计算机可读存储介质 | |
JP6157165B2 (ja) | 視線検出装置及び撮像装置 | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN113449606B (zh) | 一种目标对象识别方法、装置、计算机设备及存储介质 | |
JP7222231B2 (ja) | 行動認識装置、行動認識方法及びプログラム | |
US10832058B2 (en) | Behavior recognition apparatus, behavior recognition method, and recording medium | |
JP2018026115A (ja) | 火炎検出方法、火炎検出装置及び電子機器 | |
US20220414827A1 (en) | Training apparatus, training method, and medium | |
CN114494085B (zh) | 一种视频流复原方法、***、电子设备及存储介质 | |
CN111028263B (zh) | 一种基于光流颜色聚类的运动物体分割方法及其*** | |
US10880457B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP7338182B2 (ja) | 行動認識装置、行動認識方法及びプログラム | |
CN116721288A (zh) | 一种基于YOLOv5的安全帽检测方法及*** | |
JP2004199200A (ja) | パターン認識装置、撮像装置、情報処理システム、パターン認識方法、記録媒体、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7338182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |