JP7080285B2 - 動作特定装置、動作特定方法及び動作特定プログラム - Google Patents

動作特定装置、動作特定方法及び動作特定プログラム Download PDF

Info

Publication number
JP7080285B2
JP7080285B2 JP2020150999A JP2020150999A JP7080285B2 JP 7080285 B2 JP7080285 B2 JP 7080285B2 JP 2020150999 A JP2020150999 A JP 2020150999A JP 2020150999 A JP2020150999 A JP 2020150999A JP 7080285 B2 JP7080285 B2 JP 7080285B2
Authority
JP
Japan
Prior art keywords
information
target
image data
worker
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020150999A
Other languages
English (en)
Other versions
JP2020198133A (ja
Inventor
勝大 草野
尚吾 清水
誠司 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020150999A priority Critical patent/JP7080285B2/ja
Publication of JP2020198133A publication Critical patent/JP2020198133A/ja
Application granted granted Critical
Publication of JP7080285B2 publication Critical patent/JP7080285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

この発明は、対象者が撮影された画像データから対象者の動作内容を特定する技術に関する。
産業分野において、作業者が製品を組み立てる時間であるサイクルタイムの計測と、作業の抜け又は定常的な作業ではない非定常作業の検知のための作業内容の分析といった処理に対するニーズがある。現在これらの処理は人手で行うことが主流となっている。そのため多くの人的コストがかかるとともに、限定的な範囲についてしか処理の対象とすることができなかった。
特許文献1には、人の頭部に付けたカメラ及び三次元センサを用いて、人の動作の特徴量を抽出し、自動的に動作分析を行うことが記載されている。
特開2016-099982号公報 特開2017-199303号公報 特開2017-174093号公報 特開2016-42332号公報
特許文献1では、人の頭部にカメラを付けている。しかし、産業分野においては、作業中に作業者の体の一部に作業に不要な物を付けることは作業の妨げとなる可能性があるとして、敬遠されている。
この発明は、作業者の体に作業に不要な物を付けることなく、一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定することを可能にすることを目的とする。
この発明に係る動作特定装置は、
複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得部と、
前記画像取得部によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である動作情報を抽出する骨格抽出部と、
前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部と
を備え、
前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である対象情報を抽出し、
さらに、
前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習部によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定部
を備える。
この発明では、画像データから対象者の体勢を表した骨格情報である対象情報を抽出し、対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。そのため、作業者の体に作業に不要な物を付けることなく、一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定することが可能になる。
実施の形態1に係る動作特定装置10の構成図。 実施の形態1に係る登録処理のフローチャート。 実施の形態1に係る画像データの説明図。 実施の形態1に係る骨格情報43の説明図。 実施の形態1に係る登録処理の説明図。 実施の形態1に係る動作情報テーブル31の説明図。 実施の形態1に係る特定処理のフローチャート。 実施の形態1に係る特定処理の説明図。 変形例1に係る動作特定装置10の構成図。 変形例3に係る動作特定装置10の構成図。 実施の形態2に係る動作特定装置10の構成図。 実施の形態2に係る学習処理のフローチャート。 実施の形態2に係る特定処理のフローチャート。 変形例5に係る動作特定装置10の構成図。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る動作特定装置10の構成を説明する。
動作特定装置10は、コンピュータである。
動作特定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High-Definition Multimedia Interface)のポートである。なお、通信インタフェース14は、通信されるデータ毎に別々に設けられていてもよい。例えば、後述する画像データを通信するためにHDMI(登録商標)が設けられ、後述するラベル情報を通信するためにUSBが設けられてもよい。
動作特定装置10は、機能構成要素として、画像取得部21と、骨格抽出部22と、動作情報登録部23と、動作特定部24と、出力部25とを備える。動作特定装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、動作特定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、動作特定装置10の各機能構成要素の機能が実現される。
また、ストレージ13は、動作情報テーブル31を記憶する。
図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
具体例としては、動作特定装置10は、プロセッサ11として、CPUと、GPUとを備えてもよい。この場合には、後述するように画像処理を行う骨格抽出部22に関しては、GPUにより実現され、残りの画像取得部21と、動作情報登録部23と、動作特定部24と、出力部25とに関しては、CPUにより実現されてもよい。
***動作の説明***
図2から図8を参照して、実施の形態1に係る動作特定装置10の動作を説明する。
実施の形態1に係る動作特定装置10の動作は、実施の形態1に係る動作特定方法に相当する。また、実施の形態1に係る動作特定装置10の動作は、実施の形態1に係る動作特定プログラムの処理に相当する。
実施の形態1に係る動作特定装置10の動作は、登録処理と、特定処理とを含む。
図2を参照して、実施の形態1に係る登録処理を説明する。
(ステップS11:画像取得処理)
画像取得部21は、撮影装置41によって対象動作をしている人42が撮影された画像データと、対象動作を示すラベル情報との1つ以上の組を、通信インタフェース14を介して取得する。図3に示すように、実施の形態1では、画像データは、撮影装置41によって対象動作をしている人42の身体全体が対象者の正面から撮影されて取得される。
画像取得部21は、取得された画像データとラベル情報との組をメモリ12に書き込む。
(ステップS12:骨格抽出処理)
骨格抽出部22は、ステップS11で取得された画像データをメモリ12から読み出す。骨格抽出部22は、画像データから人42の体勢を表した骨格情報43を動作情報として抽出する。図4に示すように、実施の形態1では、骨格情報43は、人42の首及び肩といった複数の関節の座標、又は、複数の関節の相対的な位置関係を示す。
骨格抽出部22は、抽出された動作情報をメモリ12に書き込む。
(ステップS13:動作情報登録処理)
動作情報登録部23は、ステップS12で抽出された動作情報と、動作情報の抽出元の画像データと同じ組のラベル情報とをメモリ12から読み出す。動作情報登録部23は、読み出された動作情報とラベル情報とを対応付けて、動作情報テーブル31に書き込む。
(ステップS14:終了判定処理)
骨格抽出部22は、ステップS11で取得された全ての組について処理をしたか否かを判定する。
骨格抽出部22は、全ての組について処理をした場合には、登録処理を終了する。一方、骨格抽出部22は、処理していない組がある場合には、処理をステップS12に戻して、次の組についての処理を実行する。
登録処理を実行することにより、複数の動作情報とラベル情報との組が動作情報テーブル31に蓄積される。
例えば、図5に示すように、ステップS11で画像取得部21は、一連の作業を行った人を撮影した映像データを構成する各時刻の画像データについて、その時刻の画像データと、その時刻の画像データが示す人の動作を示すラベル情報との組を取得する。そして、ステップS12で骨格抽出部22は、処理対象の画像データから動作情報を抽出し、ステップS13で動作情報登録部23は、処理対象の画像データと同じ組のラベル情報と動作情報を対応付けて動作情報テーブル31に書き込む。これにより、図6に示すように、一連の作業における各時刻の動作について、対応付けられた動作情報とラベル情報とが動作情報テーブル31に蓄積される。
なお、ステップS11で画像取得部21は、一連の作業において通常は行われない非定常作業を行った人を撮影した映像データを構成する各時刻の画像データについても、その時刻の画像データと、その時刻の画像データが示す人の動作を示すラベル情報との組を取得してもよい。これにより、非定常作業に関しても、各時刻の動作について、対応付けられた動作情報とラベル情報とが動作情報テーブル31に蓄積される。
図7を参照して、実施の形態1に係る特定処理を説明する。
(ステップS21:画像取得処理)
画像取得部21は、対象者が撮影された1つ以上の画像データを、通信インタフェース14を介して取得する。実施の形態1では、ステップS11で取得される画像データと同様に、ステップS21で取得される画像データは、撮影装置41によって対象者の身体全体が対象者の正面から撮影されて取得される。
画像取得部21は、取得された画像データをメモリ12に書き込む。
(ステップS22:骨格抽出処理)
骨格抽出部22は、ステップS21で取得された画像データをメモリ12から読み出す。骨格抽出部22は、画像データから対象者の体勢を表した骨格情報43を対象情報として抽出する。
骨格抽出部22は、抽出された対象情報をメモリ12に書き込む。
(ステップS23:動作特定処理)
動作特定部24は、ステップS22で抽出された対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。
具体的には、動作特定部24は、動作情報テーブル31から対象情報と類似する動作情報を検索する。類似するとは、骨格情報43が複数の関節の座標を示す場合には、対象情報と動作情報とにおいて同じ関節の座標間のユークリッド距離が短いという意味である。また、骨格情報43が複数の関節の相対的な位置関係を示す場合には、対象情報が示す各関節間のユークリッド距離と、動作情報が示す各関節間のユークリッド距離とが近いという意味である。そして、動作特定部24は、検索にヒットした動作情報と対応付けられたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。
例えば、動作特定部24は、動作情報テーブル31に蓄積された全ての動作情報について、対象情報との類似度を計算する。そして、動作特定部24は、類似度が最も高かった動作情報を検索にヒットした動作情報として扱う。なお、動作特定部24は、類似度が閾値よりも高い動作情報がなかった場合には、検索にヒットした動作情報はないとしてもよい。
なお、特定の関節間の相対位置関係が動作を特徴付ける場合には、特定の関節についてのユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。つまり、骨格情報43が複数の関節の座標を示す場合には、特定の関節についての対象情報における座標と動作情報における座標との間のユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。また、骨格情報43が複数の関節の相対的な位置関係を示す場合には、特定の関節間のユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。
(ステップS24:出力処理)
出力部25は、ステップS23で特定された動作内容を、通信インタフェース14を介して接続された表示装置等に出力する。出力部25は、動作内容を示すラベル情報を出力してもよい。
なお、検索にヒットした動作情報がない場合には、出力部25は、動作内容を特定できないことを示す情報を出力する。
(ステップS25:終了判定処理)
骨格抽出部22は、ステップS21で取得された全ての画像データについて処理をしたか否かを判定する。
骨格抽出部22は、全ての画像データについて処理をした場合には、登録処理を終了する。一方、骨格抽出部22は、処理していない画像データがある場合には、処理をステップS22に戻して、次の画像データについての処理を実行する。
例えば、図8に示すように、ステップS21で画像取得部21は、一連の作業を行った人を撮影した映像データを構成する各時刻の画像データについて、その時刻の画像データを取得する。そして、ステップS22で骨格抽出部22は、処理対象の画像データから対象情報を抽出し、ステップS23で動作情報登録部23は、対象情報と類似する動作情報を検索して、動作内容を特定する。これにより、一連の作業における各時刻の動作内容を特定することができる。
この際、対象とする作業がいつ開始され、いつ終了したかということも特定可能である。また、対象者が一連の作業中に非定常作業を行った場合には、非定常作業を行ったことも特定することが可能である。
***実施の形態1の効果***
以上のように、実施の形態1に係る動作特定装置10は、対象者を正面から撮影した画像データから対象者の体勢を表した骨格情報である対象情報を抽出し、対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。そのため、実施の形態1に係る動作特定装置10は、複数の画像データを含む映像データを入力として、各画像データについての動作内容を特定することにより、一連の動作を分析することが可能である。その結果、作業者の体に作業に不要な物を付けることなく、サイクルタイムの計測と作業内容の分析といった処理が可能になる。
***他の構成***
<変形例1>
実施の形態1では、図1に示すように、動作特定装置10は、1つの装置であった。しかし、動作特定装置10は、複数の装置によって構成されたシステムであってもよい。
具体例としては、図9に示すように、動作特定装置10は、登録処理に関する機能を有する登録装置と、特定処理に関する機能を有する特定装置とによって構成されるシステムであってもよい。この場合には、動作情報テーブル31は、登録装置及び特定装置の外部に設けられた記憶装置に記憶されてもよいし、登録装置と特定装置とのいずれかのストレージに記憶されてもよい。
なお、図9では、登録装置及び特定装置におけるハードウェアは省略されている。登録装置及び特定装置は、動作特定装置10と同様に、ハードウェアとして、プロセッサとメモリとストレージと通信インタフェースとを備える。
<変形例2>
実施の形態1では、画像データとして、撮影装置41によって撮影されたデータを用いた。しかし、画像データとして、深度センサといったセンサにより得られた3次元画像データを用いてもよい。
<変形例3>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
図10を参照して、変形例3に係る動作特定装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、動作特定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
<変形例4>
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
実施の形態2は、動作情報とラベル情報とに基づいて学習モデル32を生成し、学習モデル32により対象情報に対応するラベル情報を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
***構成の説明***
図11を参照して、実施の形態2に係る動作特定装置10の構成を説明する。
動作特定装置10は、動作情報登録部23に代えて、学習部26を備える点が図1に示す動作特定装置10と異なる。また、動作特定装置10は、ストレージ13が動作情報テーブル31に代えて、学習モデル32を記憶する点が図1に示す動作特定装置10と異なる。
***動作の説明***
図12から図13を参照して、実施の形態2に係る動作特定装置10の動作を説明する。
実施の形態2に係る動作特定装置10の動作は、実施の形態2に係る動作特定方法に相当する。また、実施の形態2に係る動作特定装置10の動作は、実施の形態2に係る動作特定プログラムの処理に相当する。
実施の形態2に係る動作特定装置10の動作は、学習処理と、特定処理とを含む。
図12を参照して、実施の形態2に係る学習処理を説明する。
ステップS31からステップS32の処理は、図2のステップS11からステップS12の処理と同じである。また、ステップS34の処理は、図2のステップS14の処理と同じである。
(ステップS33:学習モデル生成処理)
学習部26は、ステップS32で抽出された動作情報と、動作情報の抽出元の画像データと同じ組のラベル情報との複数の組を学習データとして学習させる。これにより、学習部26は、骨格情報43が入力されると、入力された骨格情報43に類似する動作情報を特定して、特定された動作情報に対応するラベル情報を出力する学習モデル32を生成する。学習データに基づく学習の方法については既存の機械学習モデル等を用いればよい。学習部26は、生成された学習モデル32をストレージ13に書き込む。
既に学習モデル32が生成されている場合には、学習部26は、生成済の学習モデル32に対して学習データを与えることにより、学習モデル32を更新する。
なお、ステップS31では、画像データとラベル情報とのペアだけではなく、画像データのみが入力されてもよい。この場合には、ステップS32で画像データから動作情報が抽出され、ステップS33で動作情報のみが学習データとして学習モデル32に与えられる。このように、ラベル情報が存在しない場合であっても、一定の学習効果を得ることが可能である。
図13を参照して、実施の形態2に係る特定処理を説明する。
ステップS41からステップS42の処理は、図7のステップS21からステップS22の処理と同じである。また、ステップS44からステップS45の処理は、図7のステップS24からステップS25の処理と同じである。
(ステップS43:動作特定処理)
動作特定部24は、ストレージ13に記憶された学習モデル32に、ステップS42で抽出された対象情報を入力し、学習モデル32から出力されたラベル情報を取得する。そして、動作特定部24は、取得されたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。つまり、動作特定部24は、学習モデル32によって対象情報から推論され出力されたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。
***実施の形態2の効果***
以上のように、実施の形態2に係る動作特定装置10は、学習モデル32を生成し、学習モデル32により対象情報に対応するラベル情報を特定する。そのため、対象情報に対応するラベル情報の特定を効率的に実行することが可能になる。
***他の構成***
<変形例5>
実施の形態2では、図11に示すように、動作特定装置10は、1つの装置であった。しかし、変形例1と同様に、動作特定装置10は、複数の装置によって構成されたシステムであってもよい。
具体例としては、図14に示すように、動作特定装置10は、学習処理に関する機能を有する登録装置と、特定処理に関する機能を有する特定装置とによって構成されるシステムであってもよい。この場合には、学習モデル32は、学習装置及び特定装置の外部に設けられた記憶装置に記憶されてもよいし、学習装置と特定装置とのいずれかのストレージに記憶されてもよい。
なお、図14では、登録装置及び特定装置におけるハードウェアは省略されている。学習装置及び特定装置は、動作特定装置10と同様に、ハードウェアとして、プロセッサとメモリとストレージと通信インタフェースとを備える。
<変形例6>
実施の形態2では、図11に示すように、動作特定装置10は、ハードウェアとして、プロセッサ11とメモリ12とストレージ13と通信インタフェース14とを備えた。動作特定装置10は、プロセッサ11として、CPUと、GPUと、学習処理用のプロセッサと、推論処理用のプロセッサとを備えてもよい。この場合には、画像処理を行う骨格抽出部22に関しては、GPUにより実現され、学習モデル32の学習に関する学習部26に関しては学習処理用のプロセッサにより実現され、学習モデル32により推論を行う動作特定部24に関しては推論処理用のプロセッサにより実現され、残りの画像取得部21と、学習部26とに関しては、CPUにより実現されてもよい。
以上をまとめると、次のようになる。
実施の形態1,2に係る動作特定装置は、
対象者についての画像データを取得する画像取得部と、
前記画像取得部によって取得された前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出する骨格抽出部と、
前記骨格抽出部によって抽出された前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する動作特定部と
を備える。
前記骨格情報は、前記対象者の複数の関節の座標を示す。
前記骨格情報は、前記対象者の複数の関節の相対的な位置関係を示す。
前記動作特定部は、前記動作情報と作業内容を示すラベル情報とを対応付けて記憶した記憶装置から、前記対象情報と類似する前記動作情報を検索し、検索にヒットした前記動作情報と対応付けられた前記ラベル情報が示す動作内容を、前記対象者が行っている動作内容として特定する。
前記動作特定装置は、さらに、
対象動作をしている人についての画像データから抽出された前記骨格情報である前記動作情報と、前記対象動作を示す前記ラベル情報とを対応付けて前記記憶装置に登録する動作情報登録部
を備える。
前記動作特定装置は、さらに、
対象動作をしている人についての画像データから抽出された前記骨格情報である前記動作情報と、前記対象動作を示すラベル情報との複数の組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部
を備え、
前記動作特定部は、前記学習部によって生成された前記学習モデルに前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象者が行っている動作内容として特定する。
前記画像取得部は、対象者についての複数の画像データを含む映像データを取得し、
前記骨格抽出部は、前記映像データに含まれる前記複数の画像データそれぞれを対象として、対象の画像データから前記対象情報を抽出し、
前記動作特定部は、前記複数の画像データそれぞれを対象として、対象の画像データから抽出された前記対象情報に基づき、前記対象の画像データが示す前記対象者が行っている動作内容を特定する。
実施の形態1,2に係る動作特定方法は、
動作特定装置の画像取得部が、対象者についての画像データを取得し、
前記動作特定装置の骨格抽出部が、前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出し、
前記動作特定装置の動作特定部が、前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する。
実施の形態1,2に係る動作特定プログラムは、
画像取得部が、対象者についての画像データを取得する画像取得処理と、
骨格抽出部が、前記画像取得処理によって取得された前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出する骨格抽出処理と、
動作特定部が、前記骨格抽出処理によって抽出された前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する動作特定処理と
を行う動作特定装置としてコンピュータを機能させる。
10 動作特定装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 画像取得部、22 骨格抽出部、23 動作情報登録部、24 動作特定部、25 出力部、26 学習部、31 動作情報テーブル、32 学習モデル、41 撮影装置、42 人、43 骨格情報。

Claims (4)

  1. 複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得部と、
    前記画像取得部によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である動作情報を抽出する骨格抽出部と、
    前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部と
    を備え、
    前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
    前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である対象情報を抽出し、
    さらに、
    前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習部によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定部
    を備える動作特定装置。
  2. 前記学習モデルは、前記一連の作業を構成する動作内容を示すラベル情報だけでなく、前記一連の作業を構成しない動作内容である非定常作業を示すラベル情報も出力する
    請求項1に記載の動作特定装置。
  3. 動作特定装置の画像取得部が、複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得し、
    前記動作特定装置の骨格抽出部が、前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である動作情報を抽出し、
    前記動作特定装置の学習部が、前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成し、
    前記動作特定装置の前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
    前記動作特定装置の前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である対象情報を抽出し、
    前記動作特定装置の動作特定部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定方法。
  4. 画像取得部が、複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得処理と、
    骨格抽出部が、前記画像取得処理によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である動作情報を抽出する骨格抽出処理と、
    前記各時刻の画像データを対象として、前記骨格抽出処理によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習処理と
    を行い、
    前記画像取得処理では、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
    前記骨格抽出処理では、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である対象情報を抽出し、
    さらに、
    動作特定部が、前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習処理によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定処理
    を行う動作特定装置としてコンピュータを機能させる動作特定プログラム。
JP2020150999A 2020-09-09 2020-09-09 動作特定装置、動作特定方法及び動作特定プログラム Active JP7080285B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020150999A JP7080285B2 (ja) 2020-09-09 2020-09-09 動作特定装置、動作特定方法及び動作特定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020150999A JP7080285B2 (ja) 2020-09-09 2020-09-09 動作特定装置、動作特定方法及び動作特定プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019524483A Division JP6777819B1 (ja) 2019-01-07 2019-01-07 動作特定装置、動作特定方法及び動作特定プログラム

Publications (2)

Publication Number Publication Date
JP2020198133A JP2020198133A (ja) 2020-12-10
JP7080285B2 true JP7080285B2 (ja) 2022-06-03

Family

ID=73649642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020150999A Active JP7080285B2 (ja) 2020-09-09 2020-09-09 動作特定装置、動作特定方法及び動作特定プログラム

Country Status (1)

Country Link
JP (1) JP7080285B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022225192A1 (ko) * 2021-04-22 2022-10-27 삼성전자 주식회사 커넥터의 연결을 확인하는 전자 장치와 이의 동작 방법
JP7462857B1 (ja) 2022-05-11 2024-04-05 三菱電機株式会社 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099982A (ja) 2014-11-26 2016-05-30 日本電信電話株式会社 行動認識装置、行動学習装置、方法、及びプログラム
JP2017068431A (ja) 2015-09-29 2017-04-06 富士重工業株式会社 負担評価装置、負担評価方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099982A (ja) 2014-11-26 2016-05-30 日本電信電話株式会社 行動認識装置、行動学習装置、方法、及びプログラム
JP2017068431A (ja) 2015-09-29 2017-04-06 富士重工業株式会社 負担評価装置、負担評価方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一原 賢吾 外2名,姿勢推定技術に基づく機械学習を活用した人物の不審動作認識手法の精度評価,電子情報通信学会技術研究報告 Vol. 117 No. 485,日本,一般社団法人電子情報通信学会,2018年03月01日,pp. 89-94
片岡 裕雄 外3名,人体スケルトンとアピアランスモデル統合による行動理解,電子情報通信学会技術研究報告 Vol. 113 No. 64,日本,一般社団法人電子情報通信学会,2013年05月17日,pp. 7-12

Also Published As

Publication number Publication date
JP2020198133A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
JP2020503604A5 (ja)
KR102356448B1 (ko) 이미지 합성 방법 및 그 전자 장치
JP7080285B2 (ja) 動作特定装置、動作特定方法及び動作特定プログラム
US20110304774A1 (en) Contextual tagging of recorded data
WO2022174594A1 (zh) 基于多相机的裸手追踪显示方法、装置及***
US20150339523A1 (en) Image processing apparatus, image processing method, and storage medium
EP3236366A1 (en) Information processing apparatus, information processing method, and storage medium
JPWO2020059377A1 (ja) 位置推定装置、位置推定方法、及びプログラム
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP7409134B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
JP6118976B2 (ja) 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム
CN112949516A (zh) 踢被子行为的识别方法和装置
JP6777819B1 (ja) 動作特定装置、動作特定方法及び動作特定プログラム
JP2020173781A (ja) 番号認識装置、方法及び電子機器
JP2020135580A (ja) 検索装置、検索方法、およびプログラム
Prakas et al. Fast and economical object tracking using Raspberry pi 3.0
JP6972434B1 (ja) 行動特定装置、行動特定方法及び行動特定プログラム
JP6600397B2 (ja) ビデオシーケンスのフレームを選択する方法、システム、及び、装置
US10909718B2 (en) Method for estimating body orientation
JP7048347B2 (ja) 位置関係決定装置
WO2022003981A1 (ja) 行動特定装置、行動特定方法及び行動特定プログラム
KR20210091033A (ko) 객체 정보 추정과 가상 객체 생성을 위한 전자 장치 및 전자 장치의 동작 방법
JP2008146132A (ja) 画像検出装置、プログラム及び画像検出方法
JP7158534B1 (ja) 行動解析装置、行動解析方法及び行動解析プログラム
JP6844681B2 (ja) 検索装置、検索方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7080285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150