JP7338182B2 - 行動認識装置、行動認識方法及びプログラム - Google Patents

行動認識装置、行動認識方法及びプログラム Download PDF

Info

Publication number
JP7338182B2
JP7338182B2 JP2019051167A JP2019051167A JP7338182B2 JP 7338182 B2 JP7338182 B2 JP 7338182B2 JP 2019051167 A JP2019051167 A JP 2019051167A JP 2019051167 A JP2019051167 A JP 2019051167A JP 7338182 B2 JP7338182 B2 JP 7338182B2
Authority
JP
Japan
Prior art keywords
unit
moving image
action
dictionary
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019051167A
Other languages
English (en)
Other versions
JP2020154552A (ja
Inventor
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019051167A priority Critical patent/JP7338182B2/ja
Publication of JP2020154552A publication Critical patent/JP2020154552A/ja
Application granted granted Critical
Publication of JP7338182B2 publication Critical patent/JP7338182B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、行動認識装置、行動認識方法及びプログラムに関する。
オフィスや工場などの職場において、作業者の行動を可視化し、作業時間等を分析することにより職場の生産効率を改善することは重要な課題である。そのため、職場をカメラで動画撮影し、得られた動画を分析することで、作業者による特定の標準的な作業(以下、標準作業という)の行動を認識し、分析する手段は有効である。
ただし、カメラで撮影した職場動画を目視で解析し、決まった一定の手順で行う標準作業の行動を抽出し、各動作の時間を測定し、それらを可視化するには、膨大な解析時間と労力が必要である。そこで従来では、人間の行動を自動認識するために、撮影した動画から人を認識し、認識した人の重心から人の移動軌跡を求め、移動軌跡から特定の行動を認識する方法が提案されている。
作業者の行動を認識する際には、処理の効率化を図るために、1台のカメラで、できるだけ広い視野を撮影するのが望ましい。そのために、画角の広い広角レンズを備えたカメラを用いて撮影を行うのが望ましい。しかしながら、広角レンズを備えたカメラで撮影した画像には歪が発生する。画像に歪が発生すると、画像に写った人の形状が歪むため、人の認識精度が悪化する。標準作業を認識するためには、同じ人の動きを時間経過に沿ってトレースする必要があるため、人の認識精度の悪化は、標準作業の認識精度の悪化を招く。このような精度の悪化を防止するために、画像の歪を補正した上で標準作業を認識するのが望ましい。しかしながら、歪の補正には手間がかかるため、高精度かつ高速に標準作業の認識を行うのは困難であるという問題があった。
本発明は、上記に鑑みてなされたものであって、作業者の標準作業を、高精度かつ高速に認識することが可能な行動認識装置、行動認識方法及びプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の行動認識装置は、撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する行動認識装置であって、広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、を備えることを特徴とする。
本発明によれば、作業者の標準作業を、高精度かつ高速に認識することができる。
図1は、第1の実施形態に係る行動認識システムのハードウェア構成の一例を示すハードウェアブロック図である。 図2は、第1の実施形態に係る行動認識システムが使用されている場面の一例を示す図である。 図3は、魚眼カメラのハードウェア構成の一例を示すハードウェアブロック図である。 図4は、行動認識装置のハードウェア構成の一例を示すハードウェアブロック図である。 図5は、魚眼レンズで観測した画像の歪を説明する図である。 図6は、魚眼レンズで観測した画像の位置による歪の違いを説明する図である。 図7は、第1の実施形態の行動認識システムが観測した画像の一例を示す図である。 図8は、行動認識システムが認識する特定行動のうち、「歩く」行動を説明する図である。 図9は、図7の画像における人の拡大図である。 図10は、行動認識システムが認識する特定行動のうち、商品を棚に入れる「棚入れ」行動を説明する図である。 図11は、棚入れ行動を行っている人の拡大図の一例を示す図である。 図12は、行動認識処理部の機能構成の一例を示す機能ブロック図である。 図13は、辞書作成部の機能構成の一例を示す機能ブロック図である。 図14は、行動認識部の機能構成の一例を示す機能ブロック図である。 図15は、動画入力部に入力される動画の一例を示す図である。 図16は、特徴点検出方法について説明する図である。 図17Aは、抽出した特徴点の一例を示す第1の図である。 図17Bは、抽出した特徴点の一例を示す第2の図である。 図18は、特定行動の持続時間の測定について説明する図である。 図19は、認識辞書の作成の流れの一例を示すフローチャートである。 図20は、特定行動の認識処理の流れの一例を示すフローチャートである。 図21は、複数の特定行動を認識する処理の流れの一例を示すフローチャートである。 図22は、第2の実施形態に係る行動認識システムのハードウェア構成の一例を示すハードウェアブロック図である。 図23は、第2の実施形態に係る行動認識システムが使用されている場面の一例を示す図である。 図24は、第2の実施形態における行動認識処理部の機能構成の一例を示す機能ブロック図である。 図25は、第2の実施形態における特定行動の認識処理の流れの一例を示すフローチャートである。
(第1の実施形態)
以下に添付図面を参照して、行動認識装置、行動認識方法及びプログラムの第1の実施形態を詳細に説明する。
(行動認識装置のハードウェア構成の説明)
図1は、本実施形態に係る行動認識システム100のハードウェア構成の一例を示すハードウェアブロック図である。図1に示すように、行動認識システム100は、魚眼カメラ200と、行動認識装置300とを備える。
行動認識システム100は、魚眼カメラ200で撮影した被写体の特定行動を認識する。特定行動とは、例えば、職場の作業環境において繰り返し行われる、「歩行する」、「荷物を棚入れする」等の標準作業である。
魚眼カメラ200は、全周囲360°の範囲を観測可能な魚眼レンズを備えたビデオカメラである。なお、魚眼レンズを備えるのは一例であって、魚眼カメラ200は、広角レンズを備えるものであってもよい。なお、魚眼カメラ200は、撮影手段の一例である。
行動認識装置300は、魚眼カメラ200が撮影した動画を分析することによって、当該動画に写っている人(被写体)の特定行動を認識する。被写体の特定行動を認識するためには、ある程度のコマ数の画像(連続画像、映像)が必要になる。コマ数が多くなると、魚眼カメラ200が有する歪を補正する処理の負荷が高くなる。本実施の形態は、歪の補正を行うことなく動画を分析する点が特徴である。
なお、行動認識装置300は、行動認識処理部321と、行動認識処理部321と魚眼カメラ200とを接続するインタフェース部322と、を備える。
行動認識処理部321は、人(被写体)の特定行動を認識する。インタフェース部322は、魚眼カメラ200が撮影した動画を、行動認識処理部321が認識可能なデータ形式に変換して、行動認識処理部321に受け渡す。
次に、図2を用いて、行動認識システム100が使われる代表的な場面を説明する。図2は、第1の実施形態に係る行動認識システム100が使用されている場面の一例を示す図である。
図2に示すように、行動認識システム100は、オフィスや工場などの職場における作業環境に設置される。そして、魚眼カメラ200は、作業環境において作業を行っている複数の人H1,H2を含む動画を撮影する。作業環境を1台のカメラで撮影するのが効率的であるため、魚眼カメラ200は、画角の広い広角レンズを備えるのが望ましい。本実施形態では、魚眼カメラ200は、対角線画角180°を有する魚眼レンズを備えるものとする。なお、人H1,H2は、被写体の一例である。
(魚眼カメラのハードウェア構成の説明)
まず、魚眼カメラ200のハードウェア構成について説明する。
図3は、魚眼カメラ200のハードウェア構成の一例を示すハードウェアブロック図である。図3に示すように、魚眼カメラ200は、対角線画角が180度以上の画角を有する魚眼レンズ217及びCCD(Charge Coupled Device)203を備えている。なお、魚眼カメラ200aは撮影手段の一例である。魚眼カメラ200は、被写体光を、魚眼レンズ217を通してCCD203に入射する。また、魚眼カメラ200は、魚眼レンズ217とCCD203との間に、メカシャッタ202を備えている。メカシャッタ202は、CCD203への入射光を遮断する。メカシャッタ202の開閉は、モータドライバ206により制御される。また、魚眼レンズ217のレンズ位置もモータドライバ206により制御されて、オートフォーカス機能が実現される。
CCD203は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データを出力する。CCD203から出力された画像データは、CDS(Correlated Double Sampling:相関2重サンプリング)回路204によりノイズ成分を除去され、A/D変換器205によりデジタル画像データ(以下、単に画像データと呼ぶ)に変換された後、画像処理回路208に対して出力される。
画像処理回路208は、画像データを一時格納するSDRAM(Synchronous DRAM)212を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像データの色濃さを調整し、コントラスト補正処理は、画像データのコントラストを調整する画像処理である。エッジ強調処理は、画像データのシャープネスを調整し、色変換処理は、画像データの色合いを調整する画像処理である。また、画像処理回路208は、信号処理や画像処理が施された画像データをLCD216(液晶ディスプレイ)に表示する。
画像処理回路208において信号処理、画像処理が施された画像データは、圧縮伸張回路213を介して、メモリカード214に記録される。圧縮伸張回路213は、操作部215から取得した指示によって、画像処理回路208から出力される画像データを圧縮してメモリカード214に出力すると共に、メモリカード214から読み出した画像データを伸張して画像処理回路208に出力する。
魚眼カメラ200aは、プログラムに従って各種演算処理を行うCPU(Central Processing Unit)209を備えている。CPU209は、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)211、及び各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)210とバスラインによって相互接続されている。
CCD203、CDS回路204及びA/D変換器205は、タイミング信号を発生するタイミング信号発生器207を介してCPU209によって、タイミングを制御される。さらに、画像処理回路208、圧縮伸張回路213、メモリカード214も、CPU209によって制御される。
魚眼カメラ200の出力は、図1に示す行動認識装置300の信号処理ボードであるインタフェース部322に入力される。
(行動認識装置のハードウェア構成の説明)
次に、行動認識装置300のハードウェア構成について説明する。
図4は、行動認識装置300のハードウェア構成の一例を示すハードウェアブロック図である。図4に示すように、行動認識装置300は、行動認識装置300全体の動作を制御するCPU(Central Processing Unit)301、CPU301の駆動に用いられるプログラムを記憶したROM(Read Only Memory)302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303を有する。また、プログラム等の各種データを記憶するHD(Hard Disk)304、CPU301の制御にしたがってHD304に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)305を有する。
また、行動認識装置300は、メディアI/F307、ディスプレイ308、ネットワークI/F309を有する。メディアI/F307は、フラッシュメモリ等のメディア306に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ308は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F309は、通信ネットワークを利用してデータ通信する。
また、行動認識装置300は、キーボード311、マウス312、CD-ROM(Compact Disk Read Only Memory)ドライブ314、バスライン310を有する。キーボード311は、文字、数値、各種指示などの入力のための複数のキーを備える。マウス312は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う。CD-ROMドライブ314は、着脱可能な記録媒体の一例としてのCD-ROM313に対する各種データの読み出し又は書き込みを制御する。バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
図示した行動認識装置300のハードウェアは、1つの筐体に収納したり、ひとまとまりの装置としたりする必要はない。また、クラウドコンピューティングに対応するため、本実施形態の行動認識装置300の物理的な構成は固定的でなくてもよく、負荷に応じてハード的なリソースが動的に接続・切断されることで構成されてもよい。
なお、プログラムは、実行可能形式や圧縮形式などでメディア306やCD-ROM313などの記憶媒体に記憶された状態で配布されるか、又は、プログラムを配信するサーバから配信される。
本実施の形態の行動認識装置300で実行されるプログラムは、下記に示す各機能を含むモジュール構成となっている。行動認識装置300のCPU301は、ROM302やHD304などの記憶媒体からプログラムを読み出して実行することにより各モジュールがRAM303上にロードされ、各機能を発揮する。
(魚眼カメラで発生する歪の説明)
次に、図5,図6を用いて魚眼カメラ200で撮影した画像に発生する歪について説明する。図5は、魚眼レンズで観測した画像の歪を説明する図である。図6は、魚眼レンズで観測した画像の位置による歪の違いを説明する図である。
図5に示す画像Iは、標準レンズ又は望遠レンズを装着したカメラで、縦横の規則的な直線で構成されるマス目が描かれたターゲットを撮影した際に観測される画像Iの一例である。図5に示すように、画像Iには、縦横の直線的なマス目が観測される。そして、各マス目における縦線と横線の長さの比率は、画像Iの位置に依らずにほぼ等しい。すなわち、画像Iにおいて発生する歪は非常に小さい。
一方、画像Jは、本実施の形態の魚眼カメラ200で、前記と同じターゲットを撮影した際に観測される画像の一例である。魚眼カメラ200は、画像の中心からの距離と観測対象物の方向(角度)とが比例する画像を生成する、いわゆる等距離射影方式によって画像を生成する。したがって、画像Jの中心付近と周辺部とで、発生する歪の大きさが異なる。
具体的には、前記したターゲットを撮影した際に観測される画像Jにおいて、縦線は、画像Jに外接する円の円周上の点C1と点C2を通る円弧状に観測される。また、ターゲットの横線は、画像Jに外接する円の円周上の点C3と点C4を通る円弧状に観測される。
すなわち、画像Jの中心付近では、ターゲットの縦線と横線は直線に近い状態で観測される。そして、各マス目における縦線と横線の長さの比率はほぼ等しい。すなわち、発生する歪は小さい。一方、画像Jの周辺部では、ターゲットの縦線及び横線は、ともに曲線として観測される。さらに、各マス目における縦線と横線の比率は異なる。このように、画像Jでは、画像の中心からの距離が大きいほど、発生する歪が大きくなる。そして、発生する歪の方向は、画像Jの中心に対して点対称な方向になる。
したがって、画像Jでは、人が観測される位置によって、当該人が同じ行動を行った場合に発生する動きの大きさと方向とが異なる。すなわち、人の行動を認識するためには、画像Jの場所毎に認識辞書を用意して、人が観測された位置に応じた認識辞書を利用して行動認識を行えばよい。
具体的には、図6に示すように、画像Jの中心から周辺に向けて、複数の領域R1,R2,R3,R4を設定して、領域R1,R2,R3,R4毎に認識辞書を作成する。この場合、画像の歪は、領域R1が最も小さく、領域R4が最も大きい。なお、領域R1,R2,R3,R4は、設定する領域の一例であって、領域数を4個に限定するものではない。このように、本実施形態の行動認識システム100は、画像Jの複数の異なる位置に同様の領域を設定して、各領域において認識辞書を作成する。そして、行動認識システム100は、撮影した動画の中から検出した人の位置に最も近い位置で作成された認識辞書を用いて、行動認識を行う。
なお、魚眼カメラ200の代わりに、広角レンズや超広角レンズを備えたカメラを用いた場合であっても、魚眼レンズと同様に、画像の周辺には、画像の中心よりも大きい歪が発生する。そのため、画像内の位置に応じた認識辞書を用いて行動認識を行う方法は有効である。
(実際に観測される画像の説明)
図7から図11を用いて、行動認識システム100が観測する画像の例を説明する。図7は、第1の実施形態の行動認識システム100が観測した画像の一例を示す図である。
図7は、職場における作業者の特定行動の一例である。特に、図7の画像J1は、「歩く」という特定行動の一例を示す図である。「歩く」行動は、作業者が複数の特定行動を行う際に、ある特定行動から別の特定行動に移る際に発生する行動である。そして、一般に、「歩く」行動に要する時間が多くなると、作業効率が低くなる。行動認識システム100は、歩く行動を、特定行動の一つとして認識する。
図8は、行動認識システム100が認識する特定行動のうち、「歩く」行動を説明する図である。図8に示すように、魚眼カメラ200は、歩行動作を行っている人H1を時系列で撮影する。この場合、歩行している人H1を撮影した動画(画像列)が得られる。
図9は、図7の画像J1における人の拡大図j1である。行動認識システム100は、図9に示す領域の時間変化を観測することによって、特定行動を認識する。
図10は、行動認識システム100が認識する特定行動のうち、商品を棚に入れる「棚入れ」行動を説明する図である。図10に示すように、魚眼カメラ200は、棚入れを行っている人H1を字系列で撮影する。この場合、棚入れを行っている人H1を撮影した動画(画像列)が得られる。
図11は、棚入れ行動を行っている人の拡大図j2の一例を示す図である。行動認識システム100は、図11に示す領域の時間変化を観測することによって、特定行動を認識する。
(行動認識処理部の機能構成の説明)
次に、図12を用いて、行動認識処理部321の機能構成を説明する。図12は、本実施形態に係る行動認識処理部321の一例を示す機能ブロック図である。図12に示すように、行動認識処理部321は、動画入力部331と、領域分割部332と、辞書作成部333と、辞書選択部334と、行動認識部335と、持続時間測定部336とを備える。
動画入力部331は、魚眼カメラ200で撮影された動画を、インタフェース部322(図1)を介して入力する。
領域分割部332は、魚眼カメラ200が撮影した動画に含まれる画像を、歪の異なる複数の領域に分割する。
辞書作成部333は、分割された領域毎に、人の特定行動を認識するための異なる認識辞書を作成する。
辞書選択部334は、辞書作成部333が作成した異なる認識辞書の中から、動画から検出した人の特定行動を認識するために使用する認識辞書を選択する。
行動認識部335は、辞書選択部334が選択した認識辞書に基づいて、人の特定行動を認識する。
持続時間測定部336は、特定行動の認識結果に基づいて、当該特定行動の持続時間を測定する。
(辞書作成部の機能構成の説明)
次に、図13を用いて、辞書作成部333の機能構成を説明する。図13は、本実施形態に係る辞書作成部333の概略構成の一例を示す機能ブロック図である。図13に示すように、辞書作成部333は、特徴点抽出部333aと、特徴点分類部333bと、特徴ベクトル算出部333cと、ヒストグラム作成部333dと、認識辞書作成部333eとを備える。
なお、魚眼カメラ200で撮影した動画は歪を有しているが、歪の補正は行わず、辞書作成部333は、撮影された動画が含む画像の複数の位置に対応する認識辞書を作成する。すなわち、辞書作成部333は、歪が大きい領域では歪が大きい状態で特定行動(標準作業)を認識する認識辞書を作成する。また、辞書作成部333は、歪が小さい領域では歪が小さい状態で特定行動を認識する認識辞書を作成する。したがって、認識辞書を作成する際には、被験者は、画像の中の様々な位置で標準作業を行う。
特徴点抽出部333aは、魚眼カメラ200で撮影された動画に含まれる複数の画像の中から、特定行動(標準作業)に伴って発生する特徴点を抽出する。より具体的には、特徴点抽出部333aは、入力された動画から画像フレームをT枚ずつ切り出し、切り出されたT枚の画像フレームに対して、時空間における特徴点(時空間特徴点ともいう)を抽出する。特徴点とは、入力された動画を、空間方向2軸と時間方向1軸とからなる3次元の所定サイズのブロックに分割した際に、当該ブロック内における画像の平均的な明るさが所定値を超えるブロックである。なお、特徴点抽出部333aは、精度の高い学習データを生成するために、複数の動画から特徴点の抽出を行う。
なお、特徴点抽出部333aは、魚眼カメラ200で撮影された動画に含まれる画像の中から、公知の人検出アルゴリズムを用いて人を検出して、検出された人の領域のみに対して、前記した特徴点抽出を行うようにしてもよい。これによると、特徴点を抽出する領域を限定することができるため、処理をより一層効率的に行うことができる。
特徴点分類部333bは、特徴点抽出部333aが抽出した特徴点を表すM×N×T×3次元のベクトルを、例えば、公知のK平均法(K-means法)で分類(クラスタリング)する。分類するクラスの数をK種類とすると、特徴点分類部333bは、学習用の動画から抽出した特徴点をK種類に分類する。
特徴ベクトル算出部333cは、特徴点分類部333bが分類したK種類の特徴点のうち、同じ種類の特徴点におけるM×N×T×3次元のベクトルを平均化して、K個の平均ベクトルVkを求める。特徴ベクトル算出部333cが算出した平均ベクトルVkは、それぞれ、K種類の特徴点を代表するベクトルである。なお、平均ベクトルVkは、学習ベクトルの一例である。
特定行動を観測した動画から得られる特徴ベクトルは、同じ特定行動の学習データで得られた平均ベクトルVkの近く分布する。行動認識部335は、この特性を利用して、魚眼カメラ200で撮影した歪を有する動画から、歪を補正しない状態でも高精度な行動認識を行うことができる。すなわち、作業者が直線的に移動した際に、撮影された動画の歪が大きい領域では、人の動きが曲線的になる。しかし、辞書作成部333が作成した認識辞書は、人の動きが曲線状になるものとして学習されるため、歪を補正することなく、特定行動を認識することができる。同様に、歪の小さい領域では、作業者の直線的な動きが、直線的な動きとして学習されるため、歪を補正することなく、特定行動を認識することができる。
ヒストグラム作成部333dは、平均ベクトルVkの出現頻度を表す学習ヒストグラムH(k)を作成する。具体的には、K種類の特徴点について、各特徴点グループのブロック合計数を計算し、学習ヒストグラムH(k)を作成する。学習ヒストグラムH(k)は、特徴点kグループの頻度を示す。なお、ヒストグラム作成部333dは、学習ヒストグラム作成部の一例である。
認識辞書作成部333eは、N個の行動認識対象領域において、各領域の学習データから求めた学習ヒストグラムH(k)により各領域の特定行動を認識する辞書を作成する。認識辞書作成部333eは、SVM(Support Vector Machine)の機械学習方法で、認識辞書を作成する。なお、認識辞書作成部333eは、SVMの機械学習方法で認識辞書を作成する際に、認識対象となる特定行動を含む正の学習データ(プラス学習データ)と、記認識対象となる特定行動を含まない負の学習データ(マイナス学習データ)とを用意して認識辞書を作成してもよい。すなわち、認識辞書作成部333eは、正の学習データを正しいデータであるとして受け入れて、負の学習データを異なるデータであるとして除外する認識辞書を作成する。これによって、特定行動と間違いやすい行動を負の学習データとして学習させることができるため、特定行動の認識率を向上させることができる。なお、認識辞書を作成するとき、SVM機械学習方法以外に他の機械学習方法を使ってもよい。例えば、KNN(K Nearest Neighbor)や、MLP(Multilayer perceptron)などの機械学習方法を使ってもよい。
(行動認識部の機能構成の説明)
次に、図14を用いて、行動認識部335の機能構成を説明する。図14は、本実施形態に係る行動認識部335の概略構成の一例を示す機能ブロック図である。図14に示すように、行動認識部335は、特徴点抽出部335aと、特徴ベクトル算出部335bと、ヒストグラム作成部335cと、行動認識部335dとを備える。特徴点抽出部335aは、辞書作成部333が備える特徴点抽出部333aと同じ機能を備える。
特徴ベクトル算出部335bは、特徴点抽出部335aが抽出した特徴点における時空間エッジ情報(微分ベクトル)を求める。時空間エッジ情報について、詳しくは後述する。
ヒストグラム作成部335cは、時空間エッジ情報の出現頻度を表す特定行動ヒストグラムT(k)を作成する。
行動認識部335dは、動画から得られる微分ベクトルに基づいてヒストグラム作成部335cが作成した特定行動ヒストグラムT(k))と、認識辞書が記憶している学習ヒストグラムH(k)とを比較することによって、特定行動を認識する。認識対象となる特徴点の分布は、認識辞書における特徴点の分布と近い。すなわち、特定行動を行っている認識対象の画像から得た特定行動ヒストグラムT(k)と、同じ特定行動の学習ヒストグラムH(k)とは類似しているため、画像の歪み補正を行うことなく、特定行動を認識することが可能である。
(行動認識システムが観測する画像の説明)
次に、図15,図16を用いて、行動認識システム100が観測する画像の例を説明する。図15は、動画入力部331に入力される動画(画像列)の一例を示す図である。図15に示す各画像(フレーム)は、魚眼カメラ200で撮影した画像であり、歪を補正していない画像である。撮影された画像の横軸x、縦軸yは空間座標である。そして、画像フレームF1,F2の時間軸はtで示す。つまり、入力された画像は、座標(x,y,t)における時空間データになる。時空間の一つの座標における画素値は、空間座標(x,y)と時刻tの関数である。前述した職場における特定行動を認識する際に、人が移動すると、図15に示す時空間データに変化点が発生する。行動認識システム100は、この変化点、すなわち時空間の特徴点を見つけることで、特定行動を認識する。
次に、本実施形態における特徴点の抽出方法を説明する。図16に示すように、時空間画像データをブロックに分割する。図16の大きい立方体は時空間画像データを示す。横軸xと縦軸yとは空間座標を表す。それぞれの単位は画素である。また時間軸をtで示す。例えば、動画を30フレーム/秒のビデオレートで入力し、時系列画像を入力する。このビデオレートで換算することによって、画像が撮影された実際の時間を求めることができる。図16の時空間画像データを、サイズ(N,N,T)のブロックで分割する。1ブロックのサイズは横M画素、縦N画素、Tフレームになる。図16の1つのマス目が1つのブロックを示す。人がある行動を行ったとき、時空間データにおいて動きが発生したブロックでは、当該ブロックの特徴量が大きくなる。すなわち、時空間に大きな変化量が発生する。
次に、変化量の大きいブロックを特徴点として抽出する方法を説明する。時空間の画像データから特徴点を抽出するため、まず、空間方向、すなわち(x,y)方向でノイズを除去するために平滑化処理を行う。平滑化処理は、式(1)で行われる。
Figure 0007338182000001
ここで、I(x,y,t)は、時刻tのフレームにおける(x,y)座標の画素値である。また、g(x,y)は、平滑化処理のためのカーネルである。また、*は畳み込み処理を示す演算子である。平滑化処理は、単純に画素値の平均化処理としてもよいし、既存のGaussian平滑化フィルタ処理を行ってもよい。
次に時間軸でフィルタリング処理を行う。ここでは、式(2)に示すGaborフィルタリング処理を行う。Gaborフィルタは指向性フィルタであり、フィルタを作用させる領域に存在する平行で等間隔な線を強調して、線の間に存在するノイズを除去する作用を有する。式(2)におけるgevとgodとは、それぞれ、式(3)と式(4)が示すGaborフィルタのカーネルである。また、*は畳み込み処理を示す演算子である。さらに、τとωは、Gaborフィルタにおけるカーネルのパラメータである。
Figure 0007338182000002
Figure 0007338182000003
Figure 0007338182000004
図15に示す時空間画像の全画素に対して、上記式(2)に示すフィルタリング処理を行った後、図16に示す分割ブロック内のR(x,y,t)の平均値を求める。式(5)で、時空間座標(x,y,t)のブロックの平均値を求める。
Figure 0007338182000005
Figure 0007338182000006
式(6)に示すように、ブロック内の平均値M(x,y,t)が所定の閾値Thre_Mより大きい場合、このブロックを特徴点とする。
(特徴点の記述方法の説明)
次に、図17A,図17Bを用いて、特徴点の記述方法を説明する。図17Aは、動画から抽出した特徴点の一例を示す第1の図である。図17Bは、動画から抽出した特徴点の一例を示す第2の図である。すなわち、図17Aは、図11に示した棚入れを行っている人の画像から抽出した、時刻tにおける特徴点の一例を示す画像k1である。図17Aに示すように、動きのある部分に特徴点が抽出される。図17Bは、同様に時刻t+Δtにおいて抽出された特徴点の一例を示す画像k2である。
図17Aに示す特徴点が抽出されたら、当該特徴点が属するブロック内の画素の時空間エッジ情報を求める。すなわち、式(7)に示す微分演算を行うことによって、画素のエッジ情報E(x,y,t)(微分ベクトル)を求める。
Figure 0007338182000007
1ブロックはM×N×Tの画素を含むため、式(7)によってM×N×T×3の微分値が得られる。すなわち、特徴点を含むブロックを、M×N×T×3個の微分値のベクトルで記述することができる。つまり、特徴点をM×N×T×3次元のベクトルで記述することができる。そして、図17Bの画像k2についても、同様にしてエッジ情報E(x,y,t)を求める。
なお、辞書作成部333は、学習により、特定行動を認識する認識辞書を作成するとき、画像の中の歪が異なる複数の異なる位置にそれぞれ対応する認識辞書を作成する。
ここで、画像k1から抽出された複数の特徴点のうち、近接した特徴点は、一人の人の行動に伴って発生する特徴点であると考えられる。すなわち、図17Aに示す領域m1を、人の存在領域であるとして、辞書作成部333が作成した認識辞書を、領域m1の代表点(例えば重心位置)と関連付けて記憶する。
図17Bの画像k2から抽出された特徴点が形成する領域m2についても同様である。このように、辞書作成部333は、特定行動を含むNフレームの画像を1つの学習データとして、認識辞書を作成する。
(特定行動の持続時間の説明)
次に、図18を用いて、特定行動の持続時間について説明する。図18は、特定行動の持続時間の測定について説明する図である。
持続時間測定部336は、特定行動の認識結果により特定行動の持続時間を測定する。図18は、時刻t0から時刻t1の間は、「歩く」行動を行ったと認識されて、時刻t2から時刻t3の間は、「棚入れ」行動を行ったと認識された例を示す。
持続時間測定部336は、図18において、「歩く」行動の持続時間は(t1-t0)であるとし、「棚入れ」行動の持続時間は(t3-t2)であると判断する。なお、認識する特定行動の数が増えた場合も、同様に、各特定行動の認識処理を行い、行動の持続時間が測定される。
(認識辞書作成処理の流れの説明)
次に、図19を用いて、辞書作成部333が行う認識辞書作成処理の流れを説明する。なお、図19は、認識辞書の作成の流れの一例を示すフローチャートである。
動画入力部331は、魚眼カメラ200が撮影した動画を入力する(ステップS11)。
特徴点抽出部333aは、入力された動画の中から特徴点を抽出する(ステップS12)。
特徴点分類部333bは、抽出された特徴点をクラスタリングする(ステップS13)。
特徴ベクトル算出部333cは、平均ベクトルVkを算出する(ステップS14)。
ヒストグラム作成部333dは、学習ヒストグラムH(k)を作成する(ステップS15)。
認識辞書作成部333eは、認識辞書を作成する(ステップS16)。その後、辞書作成部333は、図19の処理を終了する。なお、前記したように、認識辞書は、画像の異なる位置(歪が異なる位置)において複数作成する必要があるため、図19の処理は繰り返し実行される。
(行動認識処理の流れの説明)
次に、図20を用いて、行動認識処理部321が行う行動認識処理の流れを説明する。なお、図20は、特定行動の認識処理の流れの一例を示すフローチャートである。
動画入力部331は、魚眼カメラ200が撮影した動画を入力する(ステップS21)。
特徴点抽出部335aは、入力された動画の中から特徴点を抽出する(ステップS22)。
特徴ベクトル算出部335bは、平均ベクトルVkを算出する(ステップS23)。
ヒストグラム作成部335cは、特定行動ヒストグラムT(k)を作成する(ステップS24)。
辞書選択部334は、認識辞書を選択する(ステップS25)。具体的には、辞書選択部334は、特徴点抽出部335aが抽出した特徴点の位置の近傍で作成された認識辞書を選択する。すなわち、辞書選択部334は、歪の大きさが近い位置で作成された認識辞書を選択する。
行動認識部335は、特定行動を認識する(ステップS26)。なお、特定行動の認識処理の流れは後述する(図21)。
持続時間測定部336は、特定行動の持続時間を測定する(ステップS27)。
さらに、持続時間測定部336は、特定行動の種類と特定行動の測定結果とを出力する(ステップS28)。その後、行動認識部335は、図20の処理を終了する。
(特定行動の認識処理の流れの説明)
次に、図21を用いて、行動認識部335が行う特定行動の認識処理の流れを説明する。なお、図21は、複数の特定行動を認識する処理の流れの一例を示すフローチャートである。特に図21は、特定行動のうち、「歩く」行動を行った後で「棚入れ」行動を行ったことを認識する処理の流れを示す。
行動認識部335は、「歩く」行動を認識する(ステップS31)。
次に、行動認識部335は、「歩く」行動を認識したかを判定する(ステップS32)。「歩く」行動を認識したと判定される(ステップS32:Yes)とステップS31に進む。一方、「歩く」行動を認識したと判定されない(ステップS32:No)とステップS33に進む。
ステップS32でNoと判定されると、行動認識部335は、「棚入れ」行動を認識する(ステップS33)。
次に、行動認識部335は、「棚入れ」行動を認識したかを判定する(ステップS34)。「棚入れ」行動を認識したと判定される(ステップS34:Yes)と図21の処理を終了して、図20のステップS27に進む。一方、「棚入れ」行動を認識したと判定されない(ステップS34:No)とステップS31に戻る。
なお、図21に示すフローチャートは一例であって、行動認識部335は、認識する特定行動の種類や順序に応じた処理を行う。
以上説明したように、第1の実施形態の行動認識装置300によれば、動画入力部331は、魚眼カメラ200(撮影手段)で撮影された動画を入力して、領域分割部332は、動画に含まれる画像を、歪の異なる複数の領域に分割する。辞書作成部333は、分割された領域毎に、人(被写体)の特定行動を認識するための認識辞書を作成する。辞書選択部334は、辞書作成部333が作成した複数の認識辞書の中から、動画から検出した人の特定行動を認識するために使用する認識辞書を選択する。そして、行動認識部335は、辞書選択部334が選択した認識辞書に基づいて、人の特定行動を認識する。したがって、画像の領域毎に認識辞書を作成するため、撮影した画像の歪を補正することなく、人の特定行動(標準作業)を認識することができる。
また、第1の実施形態の行動認識装置300によれば、辞書選択部334は、魚眼カメラ200(撮影手段)が撮影した動画に含まれる画像から検出した人(被写体)の位置に応じた認識辞書を選択する。したがって、撮影した画像の歪を補正することなく、人の特定行動(標準作業)を認識することができる。
また、本実施形態の行動認識装置300によれば、持続時間測定部336は、特定行動の認識結果に基づいて、当該特定行動の持続時間を測定する。したがって、特定行動(標準作業)の持続時間を容易かつ正確に測定することができる。
また、第1の実施形態の行動認識装置300によれば、特徴点抽出部333aは、魚眼カメラ200(撮影手段)で撮影された動画に含まれる複数の画像の中から特徴点を抽出する。特徴点分類部333bは、抽出された特徴点をK種類に分類する。特徴ベクトル算出部333cは、分類されたK種類の特徴点グループに対して、それぞれのK個の平均ベクトルVk(学習ベクトル)を求める。したがって、人(被写体)の特定行動を容易に学習することができる。
また、第1の実施形態の行動認識装置300によれば、辞書作成部333は、動画入力部331によって入力された、特定行動を行っている人の動画(プラス学習データ)と、特定行動を行っていない人の動画(マイナス学習データ)とから、各データの特徴点が有する特徴量による平均ベクトルVk(学習ベクトル)を用いて、それぞれ学習ヒストグラムH(k)を作成して、プラス学習データから生成した学習ヒストグラムH(k)と、マイナス学習データから生成した学習ヒストグラムH(k)とに基づいて、認識辞書を作成する。したがって、認識辞書の精度を向上させることができる。
また、第1の実施形態の行動認識装置300によれば、特徴点抽出部335aは、魚眼カメラ200(撮影手段)で撮影された動画に含まれる複数の画像の中から特徴点を抽出する。特徴ベクトル算出部335bは、抽出された特徴点における時空間エッジの大きさと方向を示す特徴ベクトルを算出する。ヒストグラム作成部335cは、抽出された特徴点の特徴ベクトルに基づいて、特定行動ヒストグラムT(k)を作成する。そして、行動認識部335dは、特定行動ヒストグラムT(k)と認識辞書が有する学習ヒストグラムH(k)とに基づいて、人の特定行動を認識する。したがって、人(被写体)の特定行動を容易かつ正確に認識することができる。
また、第1の実施形態の行動認識装置300によれば、特徴ベクトル算出部335bは、入力された複数の画像をM×N×Tサイズのフロックに分割し、各ブロックを微分処理することで、M×N×T×3次元のエッジ情報E(x,y,t)(微分ベクトル)を計算する。そして、特徴ベクトル算出部335bは、計算したエッジ情報E(x,y,t)と事前に学習したK種類の平均ベクトルVk(学習ベクトル)とを比較し、当該比較の結果に基づいて、エッジ情報E(x,y,t)を最も近い平均ベクトルVkと同じ種類の特徴点に分類する。ヒストグラム作成部335cは、分類の結果に基づいて特定行動ヒストグラムT(k)を作成する、したがって、撮影された動画から、特定行動の認識に使用する特定行動ヒストグラムT(k)を容易に作成することができる。
また、第1の実施形態の行動認識装置300によれば、辞書作成部333及び行動認識部335は、入力された動画に対して、時間軸でのフィルタリング処理を行う。そして、特徴点抽出部333a,335aは、フィルタリング処理を行った結果、M×N×Tのブロック内における平均値が所定の閾値より大きい場合に、当該ブロックを特徴点として抽出する。したがって、特徴点の抽出を容易に行うことができる。
また、本実施形態の行動認識装置300によれば、フィルタリング処理は、式(2),式(3),式(4)に示したGaborフィルタリング処理によって行う。したがって、撮影された動画のノイズが除去されることによって、特定行動の認識を行いやすい画像を得ることができる。
また、第1の実施形態の行動認識装置300によれば、特徴点抽出部333a,335aは、時間軸でのフィルタリング処理を行う前に、各画像に対して平滑化処理を行う。したがって、時間軸方向に発生するノイズが除去されるため、人(被写体)の特定行動を、より一層高精度に認識することができる。
また、第1の実施形態の行動認識装置300によれば、行動認識部335は、人の特定行動を認識する場合に、所定の順序で特定行動を認識し、特定行動が認識された場合は認識結果を出力して、特定行動が認識されない場合は、次の特定行動を認識する。したがって、複数の特定行動が連続して発生する場合であっても、確実に認識することができる。
また、第1の実施形態の行動認識装置300によれば、広角レンズは、魚眼レンズである。したがって、1台のカメラでより一層広範囲を観測することができる。
(第2の実施形態)
次に、添付図面を参照して、行動認識装置、行動認識方法及びプログラムの第2の実施形態を詳細に説明する。
(行動認識装置のハードウェア構成の説明)
図22は、本実施形態に係る行動認識システム100aのハードウェア構成の一例を示すハードウェアブロック図である。図22に示すように、行動認識システム100aは、魚眼カメラ200,201と、行動認識装置300aとを備える。
行動認識システム100aは、第1の実施形態で説明した行動認識システム100と同様の機能を有し、魚眼カメラ200,201で撮影した人(被写体)の特定行動を認識する。行動認識システム100との違いは、2台の魚眼カメラ200,201で撮影した動画を入力可能な点である。
なお、行動認識装置300aは、行動認識処理部321aと、行動認識処理部321aと魚眼カメラ200,201とを接続するインタフェース部322aと、を備える。
行動認識処理部321aは、人(被写体)の特定行動を認識する。インタフェース部322aは、魚眼カメラ200,201が撮影した動画を、行動認識処理部321aが認識可能なデータ形式に変換して、行動認識処理部321aに受け渡す。
次に、図23を用いて、行動認識システム100aが使われる代表的な場面を説明する。図23は、第2の実施形態に係る行動認識システム100aが使用されている場面の一例を示す図である。
図23に示すように、行動認識システム100aは、オフィスや工場などの職場における作業環境に設置される。魚眼カメラ200,201は、作業環境において作業を行っている複数の人H1,H2を含む動画を撮影する。本実施形態では、魚眼カメラ200,201は、いずれも対角線画角180°を有する魚眼レンズを備えるものとする。そして、2台の魚眼カメラ200,201は、異なる方向から同じ作業環境を撮影する。なお、人H1,H2は、被写体の一例である。
第1の実施形態で説明した行動認識システム100は、複数の作業員が作業している環境において、複数の人の所定行動を認識することが可能であるが、別の作業者の死角に入っている作業者は可視化することができないため、行動認識を行うことができなかった。これに対して、行動認識システム100aは、作業環境を異なる方向から観測するため、死角が少なくなり、複数の人の所定行動を、より確実に認識することができる。さらに、行動認識システム100aは、1人の作業者を2台の魚眼カメラ200,201で撮影することができるため、より小さい歪で撮影された画像を用いて行動認識を行うことができる。
なお、行動認識システム100aのハードウェア構成は、魚眼カメラの台数が増える以外は、行動認識システム100のハードウェア構成と同じであるため、説明は省略する。
(行動認識処理部の機能構成の説明)
次に、図24を用いて、行動認識処理部321aの機能構成を説明する。図24は、第2の実施形態における行動認識処理部321aの機能構成の一例を示す機能ブロック図である。図24に示すように、行動認識処理部321aは、第1の実施形態で説明した行動認識処理部321の機能構成(図12)に加えて、同一人物判定部337を備える。また行動認識処理部321aは、辞書選択部334の代わりに、機能が変更された辞書選択部334aを備える。
辞書選択部334aは、魚眼カメラ200,201が、それぞれ同じ人を撮影した際に、行動認識を行うために使用する画像に応じた認識辞書を選択する。具体的には、辞書選択部334aは、魚眼カメラ200,201が撮影した画像における同一人物の位置を比較して、より画像の中央に近い位置に写っている人の特定行動を認識するための認識辞書、すなわち、より歪の小さい位置で作成された認識辞書を選択する。なお、魚眼カメラ200,201が撮影した画像に同一人物が写っているかは、後述する同一人物判定部337が判定する。
同一人物判定部337は、魚眼カメラ200,201がそれぞれ撮影した画像の中に同一人物が写っているかを判定する。具体的には、同一人物判定部337は、魚眼カメラ200,201がそれぞれ撮影した画像から抽出された特徴点に基づく特徴ベクトルを比較することによって、特徴ベクトルの種類と特徴ベクトルの向きが類似している場合に、同一人物が写っていると判定する。
(行動認識処理の流れの説明)
次に、図25を用いて、行動認識処理部321aが行う行動認識処理の流れを説明する。なお、図25は、第2の実施形態における特定行動の認識処理の流れの一例を示すフローチャートである。
ステップS41からステップS44は、第1の実施形態で説明したステップS21からステップS24(図20)と同じ処理である。
次に、同一人物判定部337は、魚眼カメラ200,201がそれぞれ撮影した画像の中から、同一人物を表す領域を特定する(ステップS45)。
続いて、辞書選択部334aは、ステップS45で特定された同一人物を表す領域のうち、最も画像の中央に近い位置にある領域を撮影した魚眼カメラを特定して、当該位置に対応する認識辞書を選択する(ステップS46)。なお、ステップS45において、同一人物を表す領域が特定できなかった場合は、辞書選択部334aは、検出された各領域にそれぞれ対応する認識辞書を選択する。
続くステップS47からステップS49で行う処理は、第1の実施形態で説明したステップS26からステップS29(図20)と同じ処理である。
以上説明したように、第2の実施形態の行動認識装置300aは、複数の魚眼カメラ200,201(撮影手段)が、同じ領域を異なる方向から撮影する。したがって、観測範囲の死角が減少する。また、同じ人(被写体)を異なる方向から撮影することができるため、行動認識の認識精度を向上させることができる。
また、第2の実施形態の行動認識装置300aによれば、辞書選択部334aは、複数の魚眼カメラ200,201(撮影手段)が撮影した動画に含まれる画像からそれぞれ検出した同じ人(被写体)の位置に応じた認識辞書のうち、最も歪の小さい認識辞書を選択する。したがって、特定行動の認識精度を向上させることができる。
また、第2の実施形態の行動認識装置300aによれば、辞書選択部334aは、複数の魚眼カメラ200,201(撮影手段)が撮影した動画に含まれる画像からそれぞれ検出した同じ人の位置に応じた認識辞書のうち、画像の中央に近い位置に対応する認識辞書を選択する。したがって、歪の小さい位置で作成された認識辞書が選択されるため、特定行動の認識精度を向上させることができる。
以上、本発明の実施の形態について説明したが、上述した実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能である。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、この実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
200,201 魚眼カメラ(撮影手段)
300,300a 行動認識装置
321,321a 行動認識処理部
331 動画入力部
332 領域分割部
333 辞書作成部
334 辞書選択部
335 行動認識部
336 持続時間測定部
333a,335a 特徴点抽出部
333b 特徴点分類部
333c,335b 特徴ベクトル算出部
333d ヒストグラム作成部(学習ヒストグラム作成部)
335c ヒストグラム作成部
333e 認識辞書作成部
335d 行動認識部
H1,H2 人(被写体)
H(k) 学習ヒストグラム
T(k) 特定行動ヒストグラム
Vk 平均ベクトル(学習ベクトル)
特開2011-100175号公報

Claims (14)

  1. 撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する行動認識装置であって、
    広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、
    前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、
    前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、
    前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、
    異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、
    前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、
    を備える行動認識装置。
  2. 前記辞書選択部は、前記第2の動画入力部が入力した前記認識対象となる動画に含まれる画像からそれぞれ検出した同じ被写体の位置に応じた前記認識辞書のうち、画像の中央に近い位置に対応する認識辞書を選択する、
    請求項に記載の行動認識装置。
  3. 前記特定行動の認識結果に基づいて、当該特定行動の持続時間を測定する持続時間測定部を更に備える、
    請求項1又は請求項に記載の行動認識装置。
  4. 前記辞書作成部は、
    前記第1の動画入力部が入力した前記動画に含まれる複数の画像の中から特徴点を抽出する特徴点抽出部と、
    抽出された前記特徴点をK種類に分類する特徴点分類部と、
    分類されたK種類の特徴点グループに対して、それぞれのK個の学習ベクトルを求める特徴ベクトル算出部と、
    前記学習ベクトルの出現頻度を表す学習ヒストグラムを作成する学習ヒストグラム作成部と、を備える
    請求項1から請求項のいずれか1項に記載の行動認識装置。
  5. 前記学習ヒストグラム作成部は、
    前記第1の動画入力部によって入力された、プラス学習データを構成する、前記特定行動を行っている被写体の動画と、マイナス学習データを構成する、前記特定行動を行っていない被写体の動画とから、各データの特徴点が有する特徴量による前記学習ベクトルを用いて、それぞれ学習ヒストグラムを作成して、
    前記辞書作成部は、
    前記プラス学習データから生成した学習ヒストグラムと、前記マイナス学習データから生成した学習ヒストグラムとに基づいて、前記認識辞書を作成する、
    請求項に記載の行動認識装置。
  6. 前記行動認識部は、
    前記第2の動画入力部が入力した前記認識対象となる動画に含まれる複数の画像の中から特徴点を抽出する特徴点抽出部と、
    抽出された前記特徴点における時空間エッジの大きさと方向を示す特徴ベクトルを算出する特徴ベクトル算出部と、
    前記特徴点における前記特徴ベクトルの出現頻度を表すヒストグラムを作成するヒストグラム作成部と、を備えて、
    前記ヒストグラムと、前記認識辞書とに基づいて、前記被写体の特定行動を認識する、
    請求項4又は請求項に記載の行動認識装置。
  7. 前記特徴ベクトル算出部は、
    入力された複数の画像をM×N×Tサイズのフロックに分割し、各ブロックを微分処理することで、M×N×T×3次元の微分ベクトルを計算して、
    計算した前記微分ベクトルと事前に学習した前記学習ベクトルとを比較し、当該比較の結果に基づいて前記微分ベクトルを最も近い前記学習ベクトルと同じ種類の特徴点に分類して、
    前記ヒストグラム作成部は、
    当該分類の結果に基づいて前記ヒストグラムを作成する、
    請求項に記載の行動認識装置。
  8. 前記辞書作成部及び前記行動認識部は、
    前記第1の動画入力部が入力した前記動画、および前記第2の動画入力部が入力した前記認識対象となる動画に対して、時間軸でのフィルタリング処理を行い、
    前記特徴点抽出部は、
    前記フィルタリング処理を行った結果、M×N×Tのブロック内における平均値が所定の閾値より大きい場合に、前記ブロックを特徴点として抽出する、
    請求項から請求項のいずれか1項に記載の行動認識装置。
  9. ev及びgodを、以下の式(1)及び式(2)で示されるGaborフィルタのカーネルとし、*を畳み込み処理とし、τ及びωを前記カーネルのパラメータとした場合、前記フィルタリング処理は、以下の式(3)を用いたGaborフィルタリング処理である、
    Figure 0007338182000008

    Figure 0007338182000009

    Figure 0007338182000010

    請求項に記載の行動認識装置。
  10. 前記特徴点抽出部は、
    前記フィルタリング処理を行う前に、各画像に対して平滑化処理を行う、
    請求項又は請求項に記載の行動認識装置。
  11. 前記行動認識部は、
    前記被写体の特定行動を認識する場合に、所定の順序で特定行動を認識し、特定行動が認識された場合は認識結果を出力して、
    特定行動が認識されない場合は、次の特定行動を認識する、
    請求項1から請求項10のいずれか1項に記載の行動認識装置。
  12. 前記広角レンズは、魚眼レンズである、
    請求項1から請求項11のいずれか1項に記載の行動認識装置。
  13. 撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する際に、
    広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力ステップと、
    前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力ステップと、
    前記第1の動画入力ステップおよび前記第2の動画入力ステップで入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割ステップと、
    前記第1の動画入力ステップで入力した動画から、前記撮影手段毎、および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成ステップと、
    異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成ステップが、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択ステップと、
    前記辞書選択ステップで選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識ステップと、
    を実行する行動認識方法。
  14. 撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する行動認識装置を制御するコンピュータを、
    広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、
    前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、
    前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、
    前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、
    異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、
    前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、
    して機能させるプログラム。
JP2019051167A 2019-03-19 2019-03-19 行動認識装置、行動認識方法及びプログラム Active JP7338182B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019051167A JP7338182B2 (ja) 2019-03-19 2019-03-19 行動認識装置、行動認識方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051167A JP7338182B2 (ja) 2019-03-19 2019-03-19 行動認識装置、行動認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020154552A JP2020154552A (ja) 2020-09-24
JP7338182B2 true JP7338182B2 (ja) 2023-09-05

Family

ID=72559041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051167A Active JP7338182B2 (ja) 2019-03-19 2019-03-19 行動認識装置、行動認識方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7338182B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088850A (ja) 2007-09-28 2009-04-23 Nec Corp 動画像配信システムおよび動画像配信方法
JP2011100175A (ja) 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> 人物行動判定装置及びそのプログラム
JP2015194901A (ja) 2014-03-31 2015-11-05 セコム株式会社 追跡装置および追尾システム
JP2016171526A (ja) 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088850A (ja) 2007-09-28 2009-04-23 Nec Corp 動画像配信システムおよび動画像配信方法
JP2011100175A (ja) 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> 人物行動判定装置及びそのプログラム
JP2015194901A (ja) 2014-03-31 2015-11-05 セコム株式会社 追跡装置および追尾システム
JP2016171526A (ja) 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
関 海克,職場における行動認識,第23回 画像センシングシンポジウム SSII2017 [USB],日本,画像センシング技術研究会,2017年06月07日,SO2-IS2-05
青木 義満,視覚センサによる見守り技術について,通信ソサイエティマガジン,日本,電気情報通信学会,2017年06月01日,11巻,1号,p.30-38,<URL: https://doi.org/10.1587/bplus.11.30>,(検索日 令和4年1月12日)、インターネット

Also Published As

Publication number Publication date
JP2020154552A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US11882357B2 (en) Image display method and device
CN110163114B (zh) 一种人脸角度及人脸模糊度分析方法、***和计算机设备
CN109241985B (zh) 一种图像识别方法及装置
JP4952625B2 (ja) 透視変換歪み発生文書画像補正装置および方法
US8508599B2 (en) Motion vector detection apparatus, motion vector detection method, and image capturing apparatus
US8773548B2 (en) Image selection device and image selecting method
JP4772839B2 (ja) 画像識別方法および撮像装置
EP3798975B1 (en) Method and apparatus for detecting subject, electronic device, and computer readable storage medium
CN104202547B (zh) 投影画面中提取目标物体的方法、投影互动方法及其***
US8983202B2 (en) Smile detection systems and methods
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
CN110796041B (zh) 主体识别方法和装置、电子设备、计算机可读存储介质
JP6157165B2 (ja) 視線検出装置及び撮像装置
CN109190456B (zh) 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法
CN113449606B (zh) 一种目标对象识别方法、装置、计算机设备及存储介质
JP7222231B2 (ja) 行動認識装置、行動認識方法及びプログラム
US10832058B2 (en) Behavior recognition apparatus, behavior recognition method, and recording medium
JP2018026115A (ja) 火炎検出方法、火炎検出装置及び電子機器
US20220414827A1 (en) Training apparatus, training method, and medium
CN114494085B (zh) 一种视频流复原方法、***、电子设备及存储介质
CN111028263B (zh) 一种基于光流颜色聚类的运动物体分割方法及其***
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP7338182B2 (ja) 行動認識装置、行動認識方法及びプログラム
CN116721288A (zh) 一种基于YOLOv5的安全帽检测方法及***
JP2004199200A (ja) パターン認識装置、撮像装置、情報処理システム、パターン認識方法、記録媒体、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R151 Written notification of patent or utility model registration

Ref document number: 7338182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151