JP7010542B2 - 作業分析装置、作業分析方法、及びプログラム - Google Patents
作業分析装置、作業分析方法、及びプログラム Download PDFInfo
- Publication number
- JP7010542B2 JP7010542B2 JP2020116175A JP2020116175A JP7010542B2 JP 7010542 B2 JP7010542 B2 JP 7010542B2 JP 2020116175 A JP2020116175 A JP 2020116175A JP 2020116175 A JP2020116175 A JP 2020116175A JP 7010542 B2 JP7010542 B2 JP 7010542B2
- Authority
- JP
- Japan
- Prior art keywords
- worker
- work
- position information
- hand
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 52
- 230000033001 locomotion Effects 0.000 claims description 125
- 238000000034 method Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 8
- 239000003550 marker Substances 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 16
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000004936 left thumb Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Factory Administration (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
Predetermined Time Standards)法と呼ばれる手法を用いて、作業者による作業の分析が行なわれる(例えば、非特許文献1参照)。MODAPTS法では、人間の上肢の動作を中心とした基本動作が21個の記号で表され、各記号には動作の内容と時間値とが含まれている。
業者の動作の分析を行ない得る、作業分析装置、作業分析方法、及びプログラムを提供す
ることにある。
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする。
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、 を有する、ことを特徴とする。
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
以下、本発明の実施の形態1における、作業分析装置、作業分析方法、およびプログラムについて、図1~図6を参照しながら説明する。
最初に、本発明の実施の形態1における作業分析装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態1における作業分析装置の概略構成を示すブロック図である。
次に、本発明の実施の形態1における作業分析装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態1における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図1~図5を参酌する。また、本実施の形態1では、作業分析装置10を動作させることによって、作業分析方法が実施される。よって、本実施の形態1における作業分析方法の説明は、以下の作業分析装置10の動作説明に代える。
以上のように、本実施の形態1では、画像データから、人手を介することなく、作業者の動作の内容が特定されると共に、その内容に基づいて作業時間が予測される。従って、本実施の形態1によれば、人によるビデオ分析を行なわずとも、MODAPTS法を実行することができる。
本実施の形態1におけるプログラムは、コンピュータに、図6に示すステップA1~A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における作業分析装置10と作業分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、位置情報取得部11、動作特定部12、及び作業時間予測部13として機能し、処理を行なう。
本変形例1では、位置情報取得部11は、作業者50の顔の向きを特定する顔情報を更に取得することができる。但し、本実施の形態1では、位置情報取得部11は、作業者50を撮影するデプスセンサ20から深度付の画像データを取得しており、この深度付の画像データを顔情報として取得することができる。以下、図7を用いて説明する。図7は、本発明の実施の形態1の変形例1において、作業者の顔の向きに応じて終局動作の内容を特定する場合の処理を説明するための図である。
本変形例2では、対象物60が、作業者50から作業の際に受けた操作のログを記録する機能を有している。この場合、動作特定部12は、対象物60から操作ログを取得し、取得した操作ログに基づいて、終局動作の内容を特定することができる。
本変形例3では、対象物60が、それ自体の状態を特定するセンサを有し、センサが出力したセンサデータが、有線又は無線によって作業分析装置10に送信されている。この場合、動作特定部12は、対象物60から、センサが出力したセンサデータを取得し、取得したセンサデータを用いて、動作の内容を特定することができる。
次に、本発明の実施の形態2における、作業分析装置、作業分析方法、およびプログラムについて、図8及び図9を参照しながら説明する。
最初に、本発明の実施の形態2における作業分析装置の構成について図8を用いて説明する。図8は、本発明の実施の形態2における作業分析装置の構成を示すブロック図である。
次に、本発明の実施の形態2における作業分析装置70の動作について図8を用いて説明する。図9は、本発明の実施の形態2における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図8を参酌する。また、本実施の形態2では、作業分析装置70を動作させることによって、作業分析方法が実施される。よって、本実施の形態2における作業分析方法の説明は、以下の作業分析装置70の動作説明に代える。
以上のように、本実施の形態2によれば、実施の形態1と異なり、動作内容と時間との関係を予め設定しない場合であっても、過去の実測置を用いることで、作業時間を予測することができる。また、本実施の形態2によれば、作業者の作業時間の予測精度をよりいっそう向上できると考えられる。
ここで、実施の形態1及び2におけるプログラムを実行することによって、作業分析装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態1及び2における作業分析装置を実現するコンピュータの一例を示すブロック図である。
作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする作業分析装置。
前記動作特定部が、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、付記1に記載の作業分析装置。
前記動作特定部が、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記動作特定部が、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記動作特定部が、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記位置情報取得部が、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記動作特定部が、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記動作特定部が、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記動作特定部が、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記2に記載の作業分析装置。
予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、作業時間予測部を更に備えている、付記1~8のいずれかに記載の作業分析装置。
前記動作特定部が、更に、前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新し、
前記作業時間予測部が、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記9に記載の作業分析装置。
作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を有する、ことを特徴とする作業分析方法。
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記11に記載の作業分析方法。
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記12に記載の作業分析方法。
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを更に有している、
付記11~18のいずれかに記載の作業分析方法。
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に有し、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記19に記載の作業分析方法。
コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記21に記載のプログラム。
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記22に記載のプログラム。
前記コンピュータに、
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを実行させる、
付記21~28のいずれかに記載のプログラム。
前記コンピュータに、
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを実行させ、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記29に記載のプログラム。
11 位置情報取得部
12 動作特定部
13 作業時間予測部
14 記憶部
15 モデル
20 デプスセンサ
30 デジタルカメラ
40 端末装置
50 作業者
60 対象物
61 作業台
70 作業分析装置(実施の形態2)
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
Claims (8)
- 作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者を撮影するデプスセンサから出力された深度付の画像データである第1の位置情報と、前記対象物を撮影するデジタルカメラから出力された画像データである第2の位置情報とを取得する、位置情報取得手段と、
前記第1の位置情報から前記作業者の手の位置を特定し、前記第2の位置情報から前記対象物の位置を特定し、特定された前記作業者の手の位置と特定された前記対象物の位置とに基づいて前記作業者の手と前記対象物との距離を算出し、算出された前記距離に基づいて前記作業において前記作業者が行った動作の内容を特定する、動作特定手段と、
を備える作業分析装置。 - 前記動作特定手段は、前記作業者の四肢の各部位の座標と深度とに基づいて前記第1の位置情報から前記作業者の手の位置を特定する
請求項1に記載の作業分析装置。 - 前記動作特定手段は、前記対象物に付与されたマーカに基づいて前記第2の位置情報から前記対象物の位置を特定する
請求項1又は2に記載の作業分析装置。 - 前記動作特定手段は、前記作業者の手の位置の変化と前記対象物の位置の変化とに基づいて、前記作業において前記作業者が行った動作の内容を特定する
請求項1から3のいずれかに記載の作業分析装置。 - 作業者が対象物に対して行なう作業を分析するための方法であって、
前記作業者を撮影するデプスセンサから出力された深度付の画像データである第1の位置情報と、前記対象物を撮影するデジタルカメラから出力された画像データである第2の位置情報とを取得し、
前記第1の位置情報から前記作業者の手の位置を特定し、前記第2の位置情報から前記対象物の位置を特定し、特定された前記作業者の手の位置と特定された前記対象物の位置とに基づいて前記作業者の手と前記対象物との距離を算出し、算出された前記距離に基づいて前記作業において前記作業者が行った動作の内容を特定する
作業分析方法。 - 作業者が対象物に対して行なう作業を分析するためのプログラムであって、
コンピュータに、
前記作業者を撮影するデプスセンサから出力された深度付の画像データである第1の位置情報と、前記対象物を撮影するデジタルカメラから出力された画像データである第2の位置情報とを取得する、位置情報取得処理と、
前記第1の位置情報から前記作業者の手の位置を特定し、前記第2の位置情報から前記対象物の位置を特定し、特定された前記作業者の手の位置と特定された前記対象物の位置とに基づいて前記作業者の手と前記対象物との距離を算出し、算出された前記距離に基づいて前記作業において前記作業者が行った動作の内容を特定する、動作特定処理と、
を実行させる命令を含むプログラム。 - 前記動作特定処理は、前記作業者の四肢の各部位の座標と深度とに基づいて前記第1の位置情報から前記作業者の手の位置を特定する
請求項6に記載のプログラム。 - 前記動作特定処理は、前記対象物に付与されたマーカに基づいて前記第2の位置情報から前記対象物の位置を特定する
請求項6又は7に記載のプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124875 | 2016-06-23 | ||
JP2016124875 | 2016-06-23 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Division JP6733995B2 (ja) | 2016-06-23 | 2017-06-23 | 作業分析装置、作業分析方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020177680A JP2020177680A (ja) | 2020-10-29 |
JP7010542B2 true JP7010542B2 (ja) | 2022-01-26 |
Family
ID=60783904
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Active JP6733995B2 (ja) | 2016-06-23 | 2017-06-23 | 作業分析装置、作業分析方法、及びプログラム |
JP2020116175A Active JP7010542B2 (ja) | 2016-06-23 | 2020-07-06 | 作業分析装置、作業分析方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Active JP6733995B2 (ja) | 2016-06-23 | 2017-06-23 | 作業分析装置、作業分析方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6733995B2 (ja) |
WO (1) | WO2017222070A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7254546B2 (ja) * | 2018-02-27 | 2023-04-10 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7252593B2 (ja) * | 2018-11-22 | 2023-04-05 | 株式会社ビー・ナレッジ・デザイン | 情報処理システム、情報処理方法及びプログラム |
JP7180886B2 (ja) | 2020-02-18 | 2022-11-30 | Necプラットフォームズ株式会社 | 作業稼働率測定装置及び作業稼働率測定方法 |
DE112021006095T5 (de) * | 2021-01-28 | 2023-08-31 | Mitsubishi Electric Corporation | Arbeitsermittlungsvorrichtung, arbeitsermittlungsverfahren und arbeitsermittlungsprogramm |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002310617A (ja) | 2001-04-18 | 2002-10-23 | Matsushita Electric Works Ltd | 作業分析システム及びその方法 |
JP2003256756A (ja) | 2002-03-05 | 2003-09-12 | Osaka Gas Co Ltd | 作業空間診断方法及び作業空間診断装置 |
JP2009015809A (ja) | 2007-06-07 | 2009-01-22 | Ricoh Co Ltd | 動作解析装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4932048B1 (ja) * | 2011-07-21 | 2012-05-16 | 内浜化成株式会社 | 作業支援システム |
-
2017
- 2017-06-23 JP JP2018523706A patent/JP6733995B2/ja active Active
- 2017-06-23 WO PCT/JP2017/023308 patent/WO2017222070A1/ja active Application Filing
-
2020
- 2020-07-06 JP JP2020116175A patent/JP7010542B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002310617A (ja) | 2001-04-18 | 2002-10-23 | Matsushita Electric Works Ltd | 作業分析システム及びその方法 |
JP2003256756A (ja) | 2002-03-05 | 2003-09-12 | Osaka Gas Co Ltd | 作業空間診断方法及び作業空間診断装置 |
JP2009015809A (ja) | 2007-06-07 | 2009-01-22 | Ricoh Co Ltd | 動作解析装置 |
Non-Patent Citations (1)
Title |
---|
井坂英也 他,情報制御システム,日立評論,日本,日立評論社,2016年03月01日,第98巻第3号 ,p37-40 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017222070A1 (ja) | 2019-04-11 |
WO2017222070A1 (ja) | 2017-12-28 |
JP6733995B2 (ja) | 2020-08-05 |
JP2020177680A (ja) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7010542B2 (ja) | 作業分析装置、作業分析方法、及びプログラム | |
US11009941B2 (en) | Calibration of measurement units in alignment with a skeleton model to control a computer system | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
CN104936748B (zh) | 徒手机器人路径教导 | |
EP3035164B1 (en) | Wearable sensor for tracking articulated body-parts | |
US10860845B2 (en) | Method and system for automatic repetitive step and cycle detection for manual assembly line operations | |
US10976863B1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
JP2011110621A (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
JP2011110620A (ja) | ロボットの動作を制御する方法およびロボットシステム | |
JP6629556B2 (ja) | 工程編成支援装置、工程編成支援方法 | |
JP6075888B2 (ja) | 画像処理方法、ロボットの制御方法 | |
US11199561B2 (en) | System and method for standardized evaluation of activity sequences | |
Lambrecht et al. | Markerless gesture-based motion control and programming of industrial robots | |
Manghisi et al. | A virtual reality approach for assisting sustainable human-centered ergonomic design: the ErgoVR tool | |
CN112109069A (zh) | 机器人示教装置以及机器人*** | |
JP6501806B2 (ja) | 情報処理装置、操作検出方法、及びコンピュータプログラム | |
WO2021195916A1 (zh) | 动态手部仿真方法、装置和*** | |
Tran et al. | Assessing human worker performance by pattern mining of Kinect sensor skeleton data | |
JP7376318B2 (ja) | アノテーション装置 | |
KR20200032990A (ko) | 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치 | |
JP2021086218A (ja) | 協調作業システム、解析装置および解析プログラム | |
KR20200073588A (ko) | 작업자 동작인식을 이용한 생산라인 모니터링 시스템 및 이를 이용하여 생산라인을 모니터링하는 방법 | |
US20230286159A1 (en) | Remote control system | |
JP2022055057A (ja) | 作業分析プログラム、および、作業分析装置 | |
WO2023188417A1 (ja) | 作業分析装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7010542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |