JP2020198133A - 動作特定装置、動作特定方法及び動作特定プログラム - Google Patents
動作特定装置、動作特定方法及び動作特定プログラム Download PDFInfo
- Publication number
- JP2020198133A JP2020198133A JP2020150999A JP2020150999A JP2020198133A JP 2020198133 A JP2020198133 A JP 2020198133A JP 2020150999 A JP2020150999 A JP 2020150999A JP 2020150999 A JP2020150999 A JP 2020150999A JP 2020198133 A JP2020198133 A JP 2020198133A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- image data
- time
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
この発明は、作業者の体に作業に不要な物を付けることなく、一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定することを可能にすることを目的とする。
複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得部と、
前記画像取得部によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である動作情報を抽出する骨格抽出部と、
前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部と
を備え、
前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である対象情報を抽出し、
さらに、
前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習部によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定部
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る動作特定装置10の構成を説明する。
動作特定装置10は、コンピュータである。
動作特定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、動作特定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、動作特定装置10の各機能構成要素の機能が実現される。
具体例としては、動作特定装置10は、プロセッサ11として、CPUと、GPUとを備えてもよい。この場合には、後述するように画像処理を行う骨格抽出部22に関しては、GPUにより実現され、残りの画像取得部21と、動作情報登録部23と、動作特定部24と、出力部25とに関しては、CPUにより実現されてもよい。
図2から図8を参照して、実施の形態1に係る動作特定装置10の動作を説明する。
実施の形態1に係る動作特定装置10の動作は、実施の形態1に係る動作特定方法に相当する。また、実施の形態1に係る動作特定装置10の動作は、実施の形態1に係る動作特定プログラムの処理に相当する。
実施の形態1に係る動作特定装置10の動作は、登録処理と、特定処理とを含む。
(ステップS11:画像取得処理)
画像取得部21は、撮影装置41によって対象動作をしている人42が撮影された画像データと、対象動作を示すラベル情報との1つ以上の組を、通信インタフェース14を介して取得する。図3に示すように、実施の形態1では、画像データは、撮影装置41によって対象動作をしている人42の身体全体が対象者の正面から撮影されて取得される。
画像取得部21は、取得された画像データとラベル情報との組をメモリ12に書き込む。
骨格抽出部22は、ステップS11で取得された画像データをメモリ12から読み出す。骨格抽出部22は、画像データから人42の体勢を表した骨格情報43を動作情報として抽出する。図4に示すように、実施の形態1では、骨格情報43は、人42の首及び肩といった複数の関節の座標、又は、複数の関節の相対的な位置関係を示す。
骨格抽出部22は、抽出された動作情報をメモリ12に書き込む。
動作情報登録部23は、ステップS12で抽出された動作情報と、動作情報の抽出元の画像データと同じ組のラベル情報とをメモリ12から読み出す。動作情報登録部23は、読み出された動作情報とラベル情報とを対応付けて、動作情報テーブル31に書き込む。
骨格抽出部22は、ステップS11で取得された全ての組について処理をしたか否かを判定する。
骨格抽出部22は、全ての組について処理をした場合には、登録処理を終了する。一方、骨格抽出部22は、処理していない組がある場合には、処理をステップS12に戻して、次の組についての処理を実行する。
例えば、図5に示すように、ステップS11で画像取得部21は、一連の作業を行った人を撮影した映像データを構成する各時刻の画像データについて、その時刻の画像データと、その時刻の画像データが示す人の動作を示すラベル情報との組を取得する。そして、ステップS12で骨格抽出部22は、処理対象の画像データから動作情報を抽出し、ステップS13で動作情報登録部23は、処理対象の画像データと同じ組のラベル情報と動作情報を対応付けて動作情報テーブル31に書き込む。これにより、図6に示すように、一連の作業における各時刻の動作について、対応付けられた動作情報とラベル情報とが動作情報テーブル31に蓄積される。
なお、ステップS11で画像取得部21は、一連の作業において通常は行われない非定常作業を行った人を撮影した映像データを構成する各時刻の画像データについても、その時刻の画像データと、その時刻の画像データが示す人の動作を示すラベル情報との組を取得してもよい。これにより、非定常作業に関しても、各時刻の動作について、対応付けられた動作情報とラベル情報とが動作情報テーブル31に蓄積される。
(ステップS21:画像取得処理)
画像取得部21は、対象者が撮影された1つ以上の画像データを、通信インタフェース14を介して取得する。実施の形態1では、ステップS11で取得される画像データと同様に、ステップS21で取得される画像データは、撮影装置41によって対象者の身体全体が対象者の正面から撮影されて取得される。
画像取得部21は、取得された画像データをメモリ12に書き込む。
骨格抽出部22は、ステップS21で取得された画像データをメモリ12から読み出す。骨格抽出部22は、画像データから対象者の体勢を表した骨格情報43を対象情報として抽出する。
骨格抽出部22は、抽出された対象情報をメモリ12に書き込む。
動作特定部24は、ステップS22で抽出された対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。
具体的には、動作特定部24は、動作情報テーブル31から対象情報と類似する動作情報を検索する。類似するとは、骨格情報43が複数の関節の座標を示す場合には、対象情報と動作情報とにおいて同じ関節の座標間のユークリッド距離が短いという意味である。また、骨格情報43が複数の関節の相対的な位置関係を示す場合には、対象情報が示す各関節間のユークリッド距離と、動作情報が示す各関節間のユークリッド距離とが近いという意味である。そして、動作特定部24は、検索にヒットした動作情報と対応付けられたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。
なお、特定の関節間の相対位置関係が動作を特徴付ける場合には、特定の関節についてのユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。つまり、骨格情報43が複数の関節の座標を示す場合には、特定の関節についての対象情報における座標と動作情報における座標との間のユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。また、骨格情報43が複数の関節の相対的な位置関係を示す場合には、特定の関節間のユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。
出力部25は、ステップS23で特定された動作内容を、通信インタフェース14を介して接続された表示装置等に出力する。出力部25は、動作内容を示すラベル情報を出力してもよい。
なお、検索にヒットした動作情報がない場合には、出力部25は、動作内容を特定できないことを示す情報を出力する。
骨格抽出部22は、ステップS21で取得された全ての画像データについて処理をしたか否かを判定する。
骨格抽出部22は、全ての画像データについて処理をした場合には、登録処理を終了する。一方、骨格抽出部22は、処理していない画像データがある場合には、処理をステップS22に戻して、次の画像データについての処理を実行する。
この際、対象とする作業がいつ開始され、いつ終了したかということも特定可能である。また、対象者が一連の作業中に非定常作業を行った場合には、非定常作業を行ったことも特定することが可能である。
以上のように、実施の形態1に係る動作特定装置10は、対象者を正面から撮影した画像データから対象者の体勢を表した骨格情報である対象情報を抽出し、対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。そのため、実施の形態1に係る動作特定装置10は、複数の画像データを含む映像データを入力として、各画像データについての動作内容を特定することにより、一連の動作を分析することが可能である。その結果、作業者の体に作業に不要な物を付けることなく、サイクルタイムの計測と作業内容の分析といった処理が可能になる。
<変形例1>
実施の形態1では、図1に示すように、動作特定装置10は、1つの装置であった。しかし、動作特定装置10は、複数の装置によって構成されたシステムであってもよい。
具体例としては、図9に示すように、動作特定装置10は、登録処理に関する機能を有する登録装置と、特定処理に関する機能を有する特定装置とによって構成されるシステムであってもよい。この場合には、動作情報テーブル31は、登録装置及び特定装置の外部に設けられた記憶装置に記憶されてもよいし、登録装置と特定装置とのいずれかのストレージに記憶されてもよい。
なお、図9では、登録装置及び特定装置におけるハードウェアは省略されている。登録装置及び特定装置は、動作特定装置10と同様に、ハードウェアとして、プロセッサとメモリとストレージと通信インタフェースとを備える。
実施の形態1では、画像データとして、撮影装置41によって撮影されたデータを用いた。しかし、画像データとして、深度センサといったセンサにより得られた3次元画像データを用いてもよい。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、動作特定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、動作情報とラベル情報とに基づいて学習モデル32を生成し、学習モデル32により対象情報に対応するラベル情報を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図11を参照して、実施の形態2に係る動作特定装置10の構成を説明する。
動作特定装置10は、動作情報登録部23に代えて、学習部26を備える点が図1に示す動作特定装置10と異なる。また、動作特定装置10は、ストレージ13が動作情報テーブル31に代えて、学習モデル32を記憶する点が図1に示す動作特定装置10と異なる。
図12から図13を参照して、実施の形態2に係る動作特定装置10の動作を説明する。
実施の形態2に係る動作特定装置10の動作は、実施の形態2に係る動作特定方法に相当する。また、実施の形態2に係る動作特定装置10の動作は、実施の形態2に係る動作特定プログラムの処理に相当する。
実施の形態2に係る動作特定装置10の動作は、学習処理と、特定処理とを含む。
ステップS31からステップS32の処理は、図2のステップS11からステップS12の処理と同じである。また、ステップS34の処理は、図2のステップS14の処理と同じである。
学習部26は、ステップS32で抽出された動作情報と、動作情報の抽出元の画像データと同じ組のラベル情報との複数の組を学習データとして学習させる。これにより、学習部26は、骨格情報43が入力されると、入力された骨格情報43に類似する動作情報を特定して、特定された動作情報に対応するラベル情報を出力する学習モデル32を生成する。学習データに基づく学習の方法については既存の機械学習モデル等を用いればよい。学習部26は、生成された学習モデル32をストレージ13に書き込む。
既に学習モデル32が生成されている場合には、学習部26は、生成済の学習モデル32に対して学習データを与えることにより、学習モデル32を更新する。
ステップS41からステップS42の処理は、図7のステップS21からステップS22の処理と同じである。また、ステップS44からステップS45の処理は、図7のステップS24からステップS25の処理と同じである。
動作特定部24は、ストレージ13に記憶された学習モデル32に、ステップS42で抽出された対象情報を入力し、学習モデル32から出力されたラベル情報を取得する。そして、動作特定部24は、取得されたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。つまり、動作特定部24は、学習モデル32によって対象情報から推論され出力されたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。
以上のように、実施の形態2に係る動作特定装置10は、学習モデル32を生成し、学習モデル32により対象情報に対応するラベル情報を特定する。そのため、対象情報に対応するラベル情報の特定を効率的に実行することが可能になる。
<変形例5>
実施の形態2では、図11に示すように、動作特定装置10は、1つの装置であった。しかし、変形例1と同様に、動作特定装置10は、複数の装置によって構成されたシステムであってもよい。
具体例としては、図14に示すように、動作特定装置10は、学習処理に関する機能を有する登録装置と、特定処理に関する機能を有する特定装置とによって構成されるシステムであってもよい。この場合には、学習モデル32は、学習装置及び特定装置の外部に設けられた記憶装置に記憶されてもよいし、学習装置と特定装置とのいずれかのストレージに記憶されてもよい。
なお、図14では、登録装置及び特定装置におけるハードウェアは省略されている。学習装置及び特定装置は、動作特定装置10と同様に、ハードウェアとして、プロセッサとメモリとストレージと通信インタフェースとを備える。
実施の形態2では、図11に示すように、動作特定装置10は、ハードウェアとして、プロセッサ11とメモリ12とストレージ13と通信インタフェース14とを備えた。動作特定装置10は、プロセッサ11として、CPUと、GPUと、学習処理用のプロセッサと、推論処理用のプロセッサとを備えてもよい。この場合には、画像処理を行う骨格抽出部22に関しては、GPUにより実現され、学習モデル32の学習に関する学習部26に関しては学習処理用のプロセッサにより実現され、学習モデル32により推論を行う動作特定部24に関しては推論処理用のプロセッサにより実現され、残りの画像取得部21と、学習部26とに関しては、CPUにより実現されてもよい。
実施の形態1,2に係る動作特定装置は、
対象者についての画像データを取得する画像取得部と、
前記画像取得部によって取得された前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出する骨格抽出部と、
前記骨格抽出部によって抽出された前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する動作特定部と
を備える。
対象動作をしている人についての画像データから抽出された前記骨格情報である前記動作情報と、前記対象動作を示す前記ラベル情報とを対応付けて前記記憶装置に登録する動作情報登録部
を備える。
対象動作をしている人についての画像データから抽出された前記骨格情報である前記動作情報と、前記対象動作を示すラベル情報との複数の組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部
を備え、
前記動作特定部は、前記学習部によって生成された前記学習モデルに前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象者が行っている動作内容として特定する。
前記骨格抽出部は、前記映像データに含まれる前記複数の画像データそれぞれを対象として、対象の画像データから前記対象情報を抽出し、
前記動作特定部は、前記複数の画像データそれぞれを対象として、対象の画像データから抽出された前記対象情報に基づき、前記対象の画像データが示す前記対象者が行っている動作内容を特定する。
動作特定装置の画像取得部が、対象者についての画像データを取得し、
前記動作特定装置の骨格抽出部が、前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出し、
前記動作特定装置の動作特定部が、前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する。
画像取得部が、対象者についての画像データを取得する画像取得処理と、
骨格抽出部が、前記画像取得処理によって取得された前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出する骨格抽出処理と、
動作特定部が、前記骨格抽出処理によって抽出された前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する動作特定処理と
を行う動作特定装置としてコンピュータを機能させる。
Claims (6)
- 複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得部と、
前記画像取得部によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である動作情報を抽出する骨格抽出部と、
前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部と
を備え、
前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である対象情報を抽出し、
さらに、
前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習部によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定部
を備える動作特定装置。 - 前記学習モデルは、前記一連の作業を構成する動作内容を示すラベル情報だけでなく、前記一連の作業を構成しない動作内容である非定常作業を示すラベル情報も出力する
請求項1に記載の動作特定装置。 - 前記骨格情報は、前記作業者の複数の関節の座標を示す
請求項1又は2に記載の動作特定装置。 - 前記骨格情報は、前記作業者の複数の関節の相対的な位置関係を示す
請求項1又は2に記載の動作特定装置。 - 動作特定装置の画像取得部が、複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得し、
前記動作特定装置の骨格抽出部が、前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である動作情報を抽出し、
前記動作特定装置の学習部が、前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成し、
前記動作特定装置の前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記動作特定装置の前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である対象情報を抽出し、
前記動作特定装置の動作特定部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定方法。 - 画像取得部が、複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得処理と、
骨格抽出部が、前記画像取得処理によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である動作情報を抽出する骨格抽出処理と、
前記各時刻の画像データを対象として、前記骨格抽出処理によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習処理と
を行い、
前記画像取得処理では、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記骨格抽出処理では、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報である対象情報を抽出し、
さらに、
動作特定部が、前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習処理によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、
取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定することにより、前記一連の作業を構成する各作業がいつ開始し、いつ終了したかを特定する動作特定処理
を行う動作特定装置としてコンピュータを機能させる動作特定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020150999A JP7080285B2 (ja) | 2020-09-09 | 2020-09-09 | 動作特定装置、動作特定方法及び動作特定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020150999A JP7080285B2 (ja) | 2020-09-09 | 2020-09-09 | 動作特定装置、動作特定方法及び動作特定プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524483A Division JP6777819B1 (ja) | 2019-01-07 | 2019-01-07 | 動作特定装置、動作特定方法及び動作特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020198133A true JP2020198133A (ja) | 2020-12-10 |
JP7080285B2 JP7080285B2 (ja) | 2022-06-03 |
Family
ID=73649642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150999A Active JP7080285B2 (ja) | 2020-09-09 | 2020-09-09 | 動作特定装置、動作特定方法及び動作特定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7080285B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022225192A1 (ko) * | 2021-04-22 | 2022-10-27 | 삼성전자 주식회사 | 커넥터의 연결을 확인하는 전자 장치와 이의 동작 방법 |
WO2023218557A1 (ja) * | 2022-05-11 | 2023-11-16 | 三菱電機株式会社 | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099982A (ja) * | 2014-11-26 | 2016-05-30 | 日本電信電話株式会社 | 行動認識装置、行動学習装置、方法、及びプログラム |
JP2017068431A (ja) * | 2015-09-29 | 2017-04-06 | 富士重工業株式会社 | 負担評価装置、負担評価方法 |
-
2020
- 2020-09-09 JP JP2020150999A patent/JP7080285B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099982A (ja) * | 2014-11-26 | 2016-05-30 | 日本電信電話株式会社 | 行動認識装置、行動学習装置、方法、及びプログラム |
JP2017068431A (ja) * | 2015-09-29 | 2017-04-06 | 富士重工業株式会社 | 負担評価装置、負担評価方法 |
Non-Patent Citations (2)
Title |
---|
一原 賢吾 外2名: "姿勢推定技術に基づく機械学習を活用した人物の不審動作認識手法の精度評価", 電子情報通信学会技術研究報告 VOL. 117 NO. 485, JPN6021040822, 1 March 2018 (2018-03-01), JP, pages 89 - 94, ISSN: 0004618219 * |
片岡 裕雄 外3名: "人体スケルトンとアピアランスモデル統合による行動理解", 電子情報通信学会技術研究報告 VOL. 113 NO. 64, JPN6021040821, 17 May 2013 (2013-05-17), JP, pages 7 - 12, ISSN: 0004618220 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022225192A1 (ko) * | 2021-04-22 | 2022-10-27 | 삼성전자 주식회사 | 커넥터의 연결을 확인하는 전자 장치와 이의 동작 방법 |
WO2023218557A1 (ja) * | 2022-05-11 | 2023-11-16 | 三菱電機株式会社 | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム |
JP7462857B1 (ja) | 2022-05-11 | 2024-04-05 | 三菱電機株式会社 | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム |
Also Published As
Publication number | Publication date |
---|---|
JP7080285B2 (ja) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8218833B2 (en) | Image capturing apparatus, method of determining presence or absence of image area, and recording medium | |
KR102356448B1 (ko) | 이미지 합성 방법 및 그 전자 장치 | |
JP7080285B2 (ja) | 動作特定装置、動作特定方法及び動作特定プログラム | |
KR20170119630A (ko) | 정보 처리장치, 정보 처리방법 및 기억매체 | |
JP2006313543A (ja) | 全画像を記録しなくても複数のオブジェクトを認識できる画像認識方法 | |
JPWO2020059377A1 (ja) | 位置推定装置、位置推定方法、及びプログラム | |
US11941498B2 (en) | Facial motion detection and image correction method and apparatus | |
JP2010146522A (ja) | 顔画像追跡装置及び顔画像追跡方法並びにプログラム | |
JP6777819B1 (ja) | 動作特定装置、動作特定方法及び動作特定プログラム | |
CN112949516A (zh) | 踢被子行为的识别方法和装置 | |
JP2020173781A (ja) | 番号認識装置、方法及び電子機器 | |
JP2021048572A (ja) | デバイス、制御方法、及びプログラム | |
JP2020135580A (ja) | 検索装置、検索方法、およびプログラム | |
JP6972434B1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
Prakas et al. | Fast and economical object tracking using Raspberry pi 3.0 | |
US10909718B2 (en) | Method for estimating body orientation | |
JP6600397B2 (ja) | ビデオシーケンスのフレームを選択する方法、システム、及び、装置 | |
JP7048347B2 (ja) | 位置関係決定装置 | |
JP2008146132A (ja) | 画像検出装置、プログラム及び画像検出方法 | |
WO2022003981A1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
JP7158534B1 (ja) | 行動解析装置、行動解析方法及び行動解析プログラム | |
JP2019200527A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7217820B1 (ja) | 移動量特定装置、移動量特定方法及び移動量特定プログラム | |
WO2022102534A1 (ja) | 判定装置、判定方法及び判定プログラム | |
JP6534411B2 (ja) | 相対角度推定装置、相対角度推定方法、及び相対角度推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7080285 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |