JP2016167265A - Program, information processing apparatus, and information processing method - Google Patents

Program, information processing apparatus, and information processing method Download PDF

Info

Publication number
JP2016167265A
JP2016167265A JP2016040423A JP2016040423A JP2016167265A JP 2016167265 A JP2016167265 A JP 2016167265A JP 2016040423 A JP2016040423 A JP 2016040423A JP 2016040423 A JP2016040423 A JP 2016040423A JP 2016167265 A JP2016167265 A JP 2016167265A
Authority
JP
Japan
Prior art keywords
time
work
cpu
information
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016040423A
Other languages
Japanese (ja)
Other versions
JP6783060B2 (en
Inventor
尚英 荒尾
Hisahide Arao
尚英 荒尾
明 大岡
Akira Ooka
明 大岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Broadleaf Co Ltd
Original Assignee
Broadleaf Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Broadleaf Co Ltd filed Critical Broadleaf Co Ltd
Publication of JP2016167265A publication Critical patent/JP2016167265A/en
Application granted granted Critical
Publication of JP6783060B2 publication Critical patent/JP6783060B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program that enables a user to easily analyze a plurality of objects.SOLUTION: A program 12P used in an information processing apparatus 1 causes the information processing apparatus 1 to execute processing of: displaying a plurality of divided moving images obtained by dividing a plurality of moving images capturing work for each type of the work; receiving an input of evaluation values for the objects displayed in the respective divided moving images; and integrating an operation time in which the objects displayed in the respective divided moving images effectively operate the work by the evaluation values to calculate a standard time indicating a standard of the work.SELECTED DRAWING: Figure 2

Description

本発明は、動画を分析するプログラム等に関する。   The present invention relates to a program for analyzing a moving image.

従来、人又は機械等の対象物が行う作業を動画に撮像し、撮像した動画を時間毎に分割した動作要素を分析する技術が知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, there has been known a technique for capturing an operation performed by an object such as a person or a machine on a moving image and analyzing an operation element obtained by dividing the captured moving image for each time (for example, Patent Document 1).

特許第4677526号公報Japanese Patent No. 4767526

しかし、特許文献1に開示された技術では、一の動作要素を分析することを目的としているため、動作要素内の複数の対象物に対して分析を行うことが難しいという問題がある。また、各動作要素について標準的な動作時間を算出する上で、動作要素内の対象物に対してレーティング率等の評価値を設定し、当該評価値にて実際の動作時間を修正することがある。一方、上記の評価値を設定する際には、対象物が置かれている環境や対象物自体の状態(コンディション)を考慮する必要がある。   However, since the technique disclosed in Patent Document 1 aims to analyze one motion element, there is a problem that it is difficult to analyze a plurality of objects in the motion element. In addition, when calculating the standard operating time for each operating element, it is possible to set an evaluation value such as a rating rate for the object in the operating element, and to correct the actual operating time with the evaluation value. is there. On the other hand, when setting the evaluation value, it is necessary to consider the environment in which the object is placed and the state (condition) of the object itself.

そこで、本発明は、上記の問題に鑑みてなされたものであり、その目的は、容易に複数の対象物に対して分析を行うことができるプログラム等を提供することである。
また、本発明の他の目的は、分割動画内に表示された対象物に対する評価値が入力される際に、対象物が置かれている環境や対象物自体の状態(コンディション)を考慮して適切な値が入力されるようにすることである。
Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a program or the like that can easily analyze a plurality of objects.
Another object of the present invention is to consider the environment where the object is placed and the state (condition) of the object itself when the evaluation value for the object displayed in the divided video is input. The appropriate value is to be entered.

前述の課題は、本発明のプログラムによれば、情報処理装置に用いられるプログラムであって、前記情報処理装置に、作業を撮像した複数の動画を作業毎に分割した複数の分割動画を表示し、各分割動画内に表示された対象物に対する評価値の入力を受け付け、前記各分割動画内に表示された対象物が作業に対して有効な動作をした時間を示す動作時間に前記評価値を積算することで前記作業の標準を示す標準時間を算出する処理を実行させることにより解決される。   According to the program of the present invention, the above-described problem is a program used in an information processing apparatus, and displays a plurality of divided moving images obtained by dividing a plurality of moving images obtained by capturing work for each work on the information processing device. The evaluation value for the object displayed in each divided video is received, and the evaluation value is set to the operation time indicating the time when the object displayed in each of the divided videos is effective for the work. This is solved by executing a process of calculating a standard time indicating the standard of the work by integrating.

また、上記のプログラムに関して好適な構成を述べると、前記情報処理装置に、前記分割動画に対する種別を複数種類受け付ける処理を実行させてもよい。
また、上記のプログラムに関してより好適な構成を述べると、複数の分割動画の長さを示す複数の作業時間と複数の種別とが対応づけられており、前記情報処理装置に、種別毎に前記作業時間を表示する処理を実行させてもよい。
また、上記のプログラムに関して更に好適な構成を述べると、前記情報処理装置に、前記対象物の状態を計測した状態情報及び前記対象物の周辺の環境を計測した環境情報のうちの少なくとも一つの情報を取得し、取得した前記少なくとも一つの情報の経時変化を表示する処理を実行させてもよい。
また、上記のプログラムに関してより一層好適な構成を述べると、前記情報処理装置に、取得した前記少なくとも一つの情報の経時変化を、前記分割動画を表示する際の時間軸と同一の時間軸に沿って前記分割動画と同期させながら表示する処理を実行させてもよい。
また、上記のプログラムに関して尚一層好適な構成を述べると、前記情報処理装置に、前記各分割動画に前記対象物の動作が人又は機械が行う動作であることを示す動作情報を受け付け、人が行う動作である動作情報に対応づけられた複数の分割動画を抽出し、抽出した複数の分割動画の標準時間を合計した合計標準時間を算出する処理を実行させてもよい。
また、上記のプログラムに関して益々好適な構成を述べると、前記情報処理装置に、前記対象物が前記作業に対して無効な動作をした時間を示す無効時間を分割動画毎に受け付け、複数の分割動画の無効時間を合計した無効合計時間と、該複数の分割動画の動作時間を合計した動作合計時間とを算出し、算出した無効合計時間及び動作合計時間に基づいてグラフを表示する処理を実行させてもよい。
また、上記のプログラムに関して一段と好適な構成を述べると、前記情報処理装置に、前記対象物の動作が人又は機械が行う動作であることを示す動作情報を分割動画毎に受け付け、人が行う動作である動作情報に対応づけられた複数の分割動画を抽出し、抽出した複数の分割動画の動作時間を合計した抽出合計時間と、前記動作合計時間から抽出合計時間を引いた稼動合計時間とを算出し、算出した稼動合計時間、抽出合計時間及び無効合計時間に基づいてグラフを表示する処理を実行させてもよい。
また、上記のプログラムに関して殊更好適な構成を述べると、前記情報処理装置に、各分割動画及び複数の動画全体に対するコメントを受け付け、受け付けたコメントを表示する処理を実行させてもよい。
In a preferred configuration regarding the above program, the information processing apparatus may execute processing for accepting a plurality of types for the divided moving image.
Further, a more preferable configuration regarding the above program is described. A plurality of work times indicating the lengths of a plurality of divided videos are associated with a plurality of types, and the information processing apparatus stores the work for each type. You may perform the process which displays time.
Further, regarding a more preferable configuration regarding the above program, at least one information of state information obtained by measuring the state of the object and environment information obtained by measuring an environment around the object is provided to the information processing apparatus. And a process of displaying a change over time of the acquired at least one piece of information may be executed.
Further, regarding a more preferable configuration regarding the above program, the time-dependent change of the acquired at least one information is displayed on the information processing apparatus along the same time axis as when displaying the divided moving image. The display process may be executed while synchronizing with the divided moving image.
In addition, when a still more preferable configuration is described with respect to the above program, the information processing apparatus receives operation information indicating that the operation of the object is an operation performed by a person or a machine in each divided moving image. A process of extracting a plurality of divided videos associated with the action information that is the action to be performed and calculating a total standard time obtained by adding the standard times of the extracted plurality of divided videos may be executed.
In addition, to describe a more and more preferable configuration regarding the above program, the information processing apparatus accepts, for each divided video, an invalid time indicating the time when the object performs an invalid operation for the work, and a plurality of divided videos. The total invalid time obtained by summing the invalid times and the total operation time obtained by summing the operation times of the plurality of divided videos are calculated, and a process of displaying a graph based on the calculated invalid total time and total operation time is executed. May be.
In addition, when a more preferable configuration is described with respect to the above program, the information processing apparatus receives operation information indicating that the operation of the object is an operation performed by a person or a machine for each divided video, and an operation performed by the person A plurality of divided videos associated with the motion information, and a total extraction time obtained by adding up the operation times of the extracted plurality of divided videos, and a total operation time obtained by subtracting the total extraction time from the total operation time. A process of displaying the graph based on the calculated total operation time, the total extraction time, and the total invalid time may be executed.
Further, regarding a particularly preferable configuration regarding the above-described program, the information processing apparatus may receive a comment for each divided moving image and a plurality of moving images and display the received comment.

また、前述の課題は、本発明の情報処理装置によれば、作業を撮像した複数の動画を作業毎に分割した複数の分割動画を表示する複数表示部と、各分割動画内に表示された対象物に対する評価値の入力を受け付ける受け付け部と、前記各分割動画内に表示された対象物が作業に対して有効な動作をした時間を示す動作時間に前記評価値を積算することで前記作業の標準を示す標準時間を算出する算出部と、を備えることにより解決される。   In addition, according to the information processing apparatus of the present invention, the above-described problem is displayed in each divided video and a plurality of display units that display a plurality of divided videos obtained by dividing a plurality of videos obtained by imaging work for each work A receiving unit that receives an input of an evaluation value for the object, and the work is performed by accumulating the evaluation value in an operation time that indicates a time during which the object displayed in each of the divided moving images is effective for the work This is solved by providing a calculation unit that calculates a standard time indicating the standard.

また、前述の課題は、本発明の情報処理方法によれば、情報処理装置によって実現される情報処理方法であって、前記情報処理装置が、作業を撮像した複数の動画を作業毎に分割した複数の分割動画を表示し、前記情報処理装置が、各分割動画内に表示された対象物に対する評価値の入力を受け付け、前記情報処理装置が、前記各分割動画内に表示された対象物が作業に対して有効な動作をした時間を示す動作時間に前記評価値を積算することで前記作業の標準を示す標準時間を算出することにより解決される。   The above-described problem is an information processing method realized by an information processing device according to the information processing method of the present invention, wherein the information processing device divides a plurality of moving images obtained by capturing work for each work. A plurality of divided videos are displayed, the information processing apparatus receives an input of an evaluation value for the object displayed in each divided video, and the information processing apparatus receives the target displayed in each of the divided videos. The problem is solved by calculating a standard time indicating the standard of the work by accumulating the evaluation value in an operation time indicating a time during which the work is performed effectively for the work.

本発明によれば、容易に複数の対象物に対して分析を行うことができるプログラム等を提供することができる。
また、本発明によれば、分割動画内に表示された対象物に対する評価値が入力される際に、対象物が置かれている環境や対象物自体の状態(コンディション)を考慮して適切な値が入力されるようになる。
According to the present invention, it is possible to provide a program or the like that can easily analyze a plurality of objects.
In addition, according to the present invention, when an evaluation value for an object displayed in a divided video is input, it is appropriate in consideration of an environment where the object is placed and a state (condition) of the object itself. A value is entered.

情報処理システムの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of information processing system. 情報処理装置のハードウェア群を示すブロック図である。It is a block diagram which shows the hardware group of information processing apparatus. 要素情報DBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in element information DB. 集計情報DBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in total information DB. 種別情報DBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in classification information DB. コメントDBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in comment DB. 動作要素の分析を行うための分析画面の一例を示す説明図である。It is explanatory drawing which shows an example of the analysis screen for analyzing an operation | movement element. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 情報処理システムの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of information processing system. 分析画面の一例を示す説明図である(その1)。It is explanatory drawing which shows an example of an analysis screen (the 1). 分析画面の一例を示す説明図である(その2)。It is explanatory drawing which shows an example of an analysis screen (the 2). 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 作業員Aに関するデータを格納する要素情報DBである。It is element information DB which stores the data regarding the worker A. 作業員Bに関するデータを格納する要素情報DBである。It is element information DB which stores the data regarding the worker B. View1を選択した観点分析画面の一例を示す説明図である。It is explanatory drawing which shows an example of the viewpoint analysis screen which selected View1. View2を選択した観点分析画面の一例を示す説明図である。It is explanatory drawing which shows an example of the viewpoint analysis screen which selected View2. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 非定常情報DBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in non-stationary information DB. サイクル画面の一例を示す説明図である。It is explanatory drawing which shows an example of a cycle screen. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. サンプリングテーブル及び対応テーブルに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in the sampling table and the correspondence table. 複数の作業種類毎にまとめた作業工程と画像IDとを対応づける対応テーブルに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in the corresponding | compatible table which matches the work process put together for every some work type, and image ID. サンプリング集計テーブルに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in the sampling total table. ワークサンプリング法を実行するためのワークサンプリング画面の一例を示す説明図である。It is explanatory drawing which shows an example of the work sampling screen for performing the work sampling method. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. テンプレートDBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in template DB. 画像登録画面の一例を示す説明図である。It is explanatory drawing which shows an example of an image registration screen. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. サンプリングテーブルに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in the sampling table. 要素情報DBに格納されているデータの一例を示す図である。It is a figure which shows an example of the data stored in element information DB. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 比較画面の一例を示す説明図である。It is explanatory drawing which shows an example of a comparison screen. 詳細比較画面の一例を示す説明図である。It is explanatory drawing which shows an example of a detailed comparison screen. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 分析画面の表示ウィンドウの一例を示す説明図である。It is explanatory drawing which shows an example of the display window of an analysis screen. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment. 本実施形態における情報処理システムの処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the information processing system in this embodiment.

(実施の形態1)
以下本実施の形態を、図面を参照して説明する。図1は情報処理システムの概要を示す説明図である。本実施形態における情報処理システムは情報処理装置1及び撮像装置2A、2B及び2C等を備える。撮像装置2A、2B、2C……は以下場合により撮像装置2で代表する。情報処理装置1及び撮像装置2はインターネット、LAN(Local Area Network)または携帯電話網等の通信網Nにより相互に接続されている。
(Embodiment 1)
Hereinafter, the present embodiment will be described with reference to the drawings. FIG. 1 is an explanatory diagram showing an outline of an information processing system. The information processing system in the present embodiment includes an information processing device 1 and imaging devices 2A, 2B, and 2C. The imaging devices 2A, 2B, 2C,... Are represented by the imaging device 2 in the following cases. The information processing apparatus 1 and the imaging apparatus 2 are connected to each other by a communication network N such as the Internet, a LAN (Local Area Network), or a mobile phone network.

以下では情報処理システムの概要を説明する。撮像装置2は人又は機械等の対象物が行う作業を撮像するための撮像装置であり、例えばCCD(Charge-coupled device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ又は赤外線カメラ等である。撮像装置2A、2B及び2Cは対象物が行う作業を複数の位置及び角度に基づいて複数の動画で撮像し、撮像した複数の動画を情報処理装置1へ出力する。   The outline of the information processing system will be described below. The imaging device 2 is an imaging device for imaging work performed by an object such as a person or a machine, and is, for example, a CCD (Charge-coupled device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, an infrared camera, or the like. The imaging devices 2 </ b> A, 2 </ b> B, and 2 </ b> C capture a plurality of moving images based on a plurality of positions and angles, and output the plurality of captured moving images to the information processing device 1.

情報処理装置1は例えばコンピュータ又はスマートフォン等である。情報処理装置1は出力された複数の動画を取得する。情報処理装置1はユーザから入力を後述する入力部14で受け付け、受け付けた入力に基づいて取得した複数の動画を作業毎に分割した複数の動作要素(分割動画)に分割する。情報処理装置1は動作要素又は動作要素に関連する情報を表示することで対象物が行う標準的な作業時間を示す標準時間を算出する処理を行う。標準時間とは、標準の技能を持った人が作業を行う時間である。しかし、標準の技能を持った人を見極めるのは困難であり、人の技能は作業毎に変化する場合も多い。このため、一般的に標準時間は対象物が作業に対して有効な動作をした時間を示す動作時間に、各分割動画内に表示された対象物に対するレーティング率(評価値)を積算することにより算出する。例えば、情報処理装置1は以下の方法で標準時間を算出する。情報処理装置1は動作要素内で無駄な時間を削除することで動作時間を算出する。ユーザは分割動画を視聴することで分割動画内の作業員がベテランであるか否か又は作業に慣れているか否か等を判断し、レーティング率を決定する。例えば、作業員がベテランであり、かつ作業に慣れていると判断した場合、情報処理装置1でレーティング率を1より低い値に設定する。情報処理装置1は算出した動作時間に1より低い値のレーティング率を積算することで分割動画内の作業時間より早い標準時間を算出する。   The information processing apparatus 1 is, for example, a computer or a smartphone. The information processing apparatus 1 acquires a plurality of output moving images. The information processing apparatus 1 receives an input from a user by an input unit 14 described later, and divides a plurality of moving images acquired based on the received input into a plurality of motion elements (divided moving images) divided for each work. The information processing apparatus 1 performs a process of calculating a standard time indicating a standard work time performed by an object by displaying an operation element or information related to the operation element. Standard time is the time for a person with standard skills to work. However, it is difficult to identify people with standard skills, and human skills often change from work to work. For this reason, in general, the standard time is obtained by adding the rating rate (evaluation value) for the object displayed in each divided video to the operation time indicating the time during which the object performs effective operation for the work. calculate. For example, the information processing apparatus 1 calculates the standard time by the following method. The information processing apparatus 1 calculates the operation time by deleting useless time in the operation element. The user views the divided video to determine whether or not the worker in the divided video is experienced or familiar with the work, and determines the rating rate. For example, when it is determined that the worker is experienced and is familiar with the work, the information processing apparatus 1 sets the rating rate to a value lower than 1. The information processing apparatus 1 calculates a standard time that is earlier than the work time in the divided moving image by adding a rating rate lower than 1 to the calculated operation time.

以下では情報処理システムの詳細を説明する。図2は情報処理装置1のハードウェア群を示すブロック図である。図2に示す情報処理装置1は、一または複数の演算制御装置であるCPU11、ハードディスク、半導体メモリディスク等の記憶装置である記憶部12、SRAM(Static RAM)、DRAM(Dynamic RAM)またはフラッシュメモリ等のRAM13、マウス、キーボード、タッチパネル、ペンタブレット、マイク等の入力機器である入力部14、ディスプレイ、プロジェクタ、ヘッドマウントディスプレイ等の表示部15、通信網Nとの間で通信を行う通信部16を含む。   Details of the information processing system will be described below. FIG. 2 is a block diagram illustrating a hardware group of the information processing apparatus 1. An information processing apparatus 1 shown in FIG. 2 includes a CPU 11 that is one or more arithmetic control devices, a storage unit 12 that is a storage device such as a hard disk or a semiconductor memory disk, an SRAM (Static RAM), a DRAM (Dynamic RAM), or a flash memory. A communication unit 16 that communicates with the communication network N, a display unit 15 such as a display, a projector, and a head-mounted display, an input unit 14 that is an input device such as a RAM 13, a mouse, a keyboard, a touch panel, a pen tablet, and a microphone. including.

記憶部12にはCPU11が処理を行う際に必要とする種々のデータ、要素情報DB121、集計情報DB122、種別情報DB123、コメントDB124及びプログラム12Pを格納する。かかるプログラム12Pが本発明のプログラムに該当する。   The storage unit 12 stores various data necessary for the CPU 11 to perform processing, an element information DB 121, an aggregation information DB 122, a type information DB 123, a comment DB 124, and a program 12P. Such a program 12P corresponds to the program of the present invention.

通信部16は、通信網Nを介して撮像装置2が撮像した動画を取得する。なお、本実施形態では撮像装置2から動画を取得したが、これに限られず、USB(Universal Serial Bus)メモリ、光ディスク又は記憶部12等から動画を取得してもよい。   The communication unit 16 acquires a moving image captured by the imaging device 2 via the communication network N. In the present embodiment, the moving image is acquired from the imaging device 2, but the present invention is not limited to this, and the moving image may be acquired from a USB (Universal Serial Bus) memory, an optical disc, the storage unit 12, or the like.

図3は要素情報DB121に格納されているデータの一例を示す図である。要素情報DB121は動作要素に関する情報を記憶するデータベースである。要素情報DB121は動作要素列、種別列、開始時間列、終了時間列、要素時間列、動作時間列、無効時間列、比較値列、差異列、非定常列、区分列、レーティング率列、標準時間列、動画データ列及びマニュアル列等を備える。動作要素列には動作要素の名称が記憶される。種別列には動作要素の種類を示す種別が複数記憶される。種別とは例えば「手作業」又は「第1工程」等の各作業工程である。種別列の種別は種別を分類するための種別分類で分けられている。種別分類とは例えば種別1、種別2又は種別3等である。例えば、種別列の種別1列には「溶接」の種別が「手作業」であること又は「パネルの固定」の種別が「工具作業」であること等が記憶される。また種別列の種別2列には「溶接」の種別が「第1工程」であること又は「ボルトの締め付け」の種別が「第2工程」であること等が記憶される。また種別列の種別3列には「溶接」の種別が「人作業」であること又は「ボルトの締め付け」の種別が「機械作業」であること等が記憶される。   FIG. 3 is a diagram illustrating an example of data stored in the element information DB 121. The element information DB 121 is a database that stores information on operation elements. The element information DB 121 includes an operation element column, a type column, a start time column, an end time column, an element time column, an operation time column, an invalid time column, a comparison value column, a difference column, a non-stationary column, a division column, a rating rate column, a standard A time column, a moving image data column, a manual column, and the like are provided. The name of the motion element is stored in the motion element column. In the type column, a plurality of types indicating the types of operation elements are stored. The type is each work process such as “manual work” or “first process”. The types in the type column are divided by type classification for classifying the types. The type classification is, for example, type 1, type 2, or type 3. For example, the type 1 column of the type column stores information indicating that the type of “welding” is “manual work” or the type of “panel fixing” is “tool work”. The type 2 column of the type column stores information indicating that the type of “welding” is “first process”, the type of “bolt tightening” is “second process”, and the like. The type 3 column of the type column stores information indicating that the type of “welding” is “manual work”, the type of “bolt tightening” is “mechanical work”, and the like.

開始時間列には動画内で動作要素が開始される開始時間が動作要素に対応づけられて記憶される。終了時間列には動画内で動作要素が終了される終了時間が動作要素に対応づけられて記憶される。要素時間列には動作要素の時間の長さを示す要素時間(作業時間)が動作要素に対応づけられて記憶される。動作時間列には動作時間が動作要素に対応づけられて記憶される。無効時間列には対象物が作業に対して無効な動作をした時間を示す無効時間が動作要素に対応づけられて記憶される。比較値列には動作時間と比較するための比較値が動作要素に対応づけられて記憶される。比較値列には例えば、ユーザが予想した標準時間を示す予想標準時間が記憶される。差異列には比較値と動作時間との差異が動作要素に対応づけられて記憶される。開始時間列、終了時間列、要素時間列、動作時間列、無効時間列、比較値列及び差異列の単位は例えば秒である。非定常列には対象物が周期性のある動作をしているか否かを示す非定常情報(周期性情報)が動作要素に対応づけられて記憶される。周期性のある動作とは例えば、作業員Aが複数回、金具をセットする動作である。また周期性のない動作とは例えば、作業員Aが1回だけ金具をセットする動作である。○は対象物が周期性のない動作をしていることを示す。×は対象物が周期性のある動作をしていることを示す。区分列には、稼動、準稼動、非稼動の動作情報が、動作要素と対応づけて記憶される。本明細書においては、稼動とは人が作業中の状態であり、準稼動とは機械が動作する状態であり、非稼動とは人も機械も動作していない待ち状態等のような状態をいう。   In the start time column, the start time at which the motion element is started in the moving image is stored in association with the motion element. In the end time column, an end time at which the motion element is terminated in the moving image is stored in association with the motion element. In the element time column, an element time (working time) indicating the length of time of the operation element is stored in association with the operation element. In the operation time column, the operation time is stored in association with the operation element. In the invalid time column, an invalid time indicating a time during which the object performs an invalid operation on the work is stored in association with the operation element. In the comparison value column, a comparison value for comparison with the operation time is stored in association with the operation element. In the comparison value column, for example, an expected standard time indicating a standard time predicted by the user is stored. In the difference column, the difference between the comparison value and the operation time is stored in association with the operation element. The units of the start time sequence, end time sequence, element time sequence, operation time sequence, invalid time sequence, comparison value sequence, and difference sequence are, for example, seconds. In the non-stationary column, non-stationary information (periodic information) indicating whether or not the object is performing a periodic operation is stored in association with the operation element. The operation with periodicity is, for example, an operation in which the worker A sets the metal fitting a plurality of times. Further, the operation without periodicity is, for example, an operation in which the worker A sets the metal fitting only once. ○ indicates that the object is operating without periodicity. X indicates that the object is operating with periodicity. In the classification column, operation information about operation, semi-operation, and non-operation is stored in association with operation elements. In this specification, operation is a state in which a person is working, semi-operation is a state in which a machine is operating, and non-operation is a state such as a waiting state in which neither a person nor a machine is operating. Say.

レーティング率列にはレーティング率が動作要素に対応づけられて記憶される。標準時間列には標準時間が動作要素に対応づけられて記憶される。動画データ列には撮像した動画を動作要素毎に分割した動画データが記憶される。例えば、動画データ列には動画A(作業員Aが行う作業を撮像した動画)を動作要素毎に分割した動画データが記憶される。マニュアル列には動作要素に対応するマニュアルが記憶される。   In the rating rate column, the rating rate is stored in association with the operating element. In the standard time column, the standard time is stored in association with the operation element. In the moving image data string, moving image data obtained by dividing the captured moving image for each operation element is stored. For example, the moving image data string stores moving image data obtained by dividing the moving image A (moving image of the work performed by the worker A) for each operation element. Manuals corresponding to the operating elements are stored in the manual column.

CPU11は後述する分析画面5で動作要素、動作要素の種別、開始時間、終了時間、要素時間、動作時間、無効時間、比較値、非定常情報、区分又はレーティング率の入力を入力部14で受け付ける。CPU11は受け付けた動作要素、動作要素の種別、開始時間、終了時間、要素時間、動作時間、無効時間、比較値、非定常情報、区分又はレーティング率を要素情報DB121に記憶させる。CPU11は動作時間から比較値を引いた差異を差異列に記憶させる。CPU11は動作時間にレーティング率を積算した標準時間を標準時間列に記憶させる。なお、本実施形態の動画データ列及びマニュアル列は予めユーザが登録しているものとする。   The CPU 11 accepts an input of an operation element, a type of the operation element, a start time, an end time, an element time, an operation time, an invalid time, a comparison value, non-stationary information, a classification, or a rating rate on the analysis screen 5 described later. . The CPU 11 stores the received operation element, operation element type, start time, end time, element time, operation time, invalid time, comparison value, non-stationary information, classification, or rating rate in the element information DB 121. The CPU 11 stores the difference obtained by subtracting the comparison value from the operation time in the difference column. The CPU 11 stores the standard time obtained by adding the rating rate to the operation time in the standard time sequence. It is assumed that the moving image data string and the manual string of this embodiment are registered in advance by the user.

図4は集計情報DB122に格納されているデータの一例を示す図である。集計情報DB122は動作要素に関する情報を集計した集計情報が記憶されたデータベースである。集計情報DB122は要素合計時間列、動作合計時間列、稼動合計時間列、無効合計時間列、合計差異列、全体レーティング率、準稼動合計時間列及び標準合計時間列等を備える。要素合計時間列には複数の動作要素の要素時間を合計した要素合計時間(合計時間)が記憶される。動作合計時間列には複数の動作要素の動作時間を合計した動作合計時間が記憶される。稼動合計時間列には対象物が稼動動作を行う複数の動作要素の動作時間を合計した稼動合計時間が記憶される。無効合計時間列には複数の動作要素の無効時間を合計した無効合計時間が記憶される。合計差異列には、標準時間と比較値の差異の合計時間が記憶される。全体レーティング率には複数のレーティング率の平均値を示す全体レーティング率が記憶される。準稼動合計時間列には準稼働時間を合計した準稼動合計時間(抽出合計時間)が記憶される。標準合計時間列には動作合計時間に全体レーティング率を積算した標準合計時間が記憶される。集計情報DB122の記憶方法は後述する。   FIG. 4 is a diagram illustrating an example of data stored in the total information DB 122. The tabulation information DB 122 is a database in which tabulation information obtained by tabulating information on operation elements is stored. The total information DB 122 includes an element total time column, an operation total time column, an operation total time column, an invalid total time column, a total difference column, an overall rating rate, a semi-operation total time column, a standard total time column, and the like. The element total time column stores element total time (total time) obtained by summing element times of a plurality of operation elements. The total operation time column stores the total operation time obtained by totaling the operation times of a plurality of operation elements. The total operation time column stores the total operation time obtained by totaling the operation times of a plurality of operation elements in which the object performs the operation operation. The invalid total time column stores invalid total time obtained by summing invalid times of a plurality of operation elements. The total difference column stores the total time of the difference between the standard time and the comparison value. The overall rating rate stores an overall rating rate indicating an average value of a plurality of rating rates. The quasi-operation total time column stores the quasi-operation total time (extraction total time) obtained by adding the quasi-operation time. The standard total time column stores the standard total time obtained by adding the overall rating rate to the total operation time. A storage method of the total information DB 122 will be described later.

図5は種別情報DB123に格納されているデータの一例を示す図である。種別情報DB123は、作業又は動作の区分を管理するものである。図5Aに示すように例えば1つの動画を作業及び工程等に分割したい場合には、種別1に作業種別、種別2に工程種別を入力すればよい。また種別3には種別を利用して人に依存する作業と機械に依存する作業を入力させることもできる。また図5Bに示すように作業種別毎に色を設定することにより、作業種別の時間を棒グラフで表示する際に、作業時間の比較が行いやすくなる。   FIG. 5 is a diagram illustrating an example of data stored in the type information DB 123. The type information DB 123 manages work or operation classification. As shown in FIG. 5A, for example, when it is desired to divide one moving image into work and process, the work type may be input as type 1 and the process type as type 2. Moreover, the type 3 can be used to input a task that depends on a person and a task that depends on a machine. Further, by setting a color for each work type as shown in FIG. 5B, it becomes easier to compare the work time when displaying the time of the work type as a bar graph.

図6はコメントDB124に格納されているデータの一例を示す図である。図7は動作要素の分析を行うための分析画面5の一例を示す説明図である。コメントDB124には動作要素列、個別コメント列及び総括コメント列を備える。動作要素列には動作要素が記憶される。個別コメント列はウィンドウ1列、ウィンドウ2列、ウィンドウ3列及びウィンドウ4列を備える。個別コメント列は図7に示す表示ウィンドウ51に表示された各動作要素の動画データに対するコメントを示す個別コメントが記憶される。ウィンドウ1列、ウィンドウ2列、ウィンドウ3列及びウィンドウ4列の夫々は後述する表示ウィンドウ51A、51B、51C及び51Dの夫々に対応する。動作要素列の動作要素は要素情報DB121の動作要素列に対応する。CPU11は後述する個別コメント欄56に動作要素表(作業表)52で選択した動作要素に対する個別コメントの入力を入力部14で受け付ける。CPU11は受け付けた個別コメントをコメントDB124の個別コメント列に記憶させる。総括コメント列には取得した動画全体に対するコメントを示す総括コメントが記憶される。CPU11は総括コメント欄57に総括コメントの入力を入力部14で受け付ける。CPU11は受け付けた総括コメントを集計情報DB122に記憶させる。   FIG. 6 is a diagram illustrating an example of data stored in the comment DB 124. FIG. 7 is an explanatory diagram showing an example of the analysis screen 5 for analyzing the motion elements. The comment DB 124 includes an operation element column, an individual comment column, and a general comment column. An operation element is stored in the operation element column. The individual comment columns include a window 1 column, a window 2 column, a window 3 column, and a window 4 column. In the individual comment column, individual comments indicating comments on the moving image data of each operation element displayed in the display window 51 shown in FIG. 7 are stored. Each of the window 1 row, the window 2 row, the window 3 row, and the window 4 row corresponds to each of display windows 51A, 51B, 51C, and 51D described later. The operation elements in the operation element sequence correspond to the operation element sequence in the element information DB 121. The CPU 11 receives an input of an individual comment for the operation element selected in the operation element table (work table) 52 in the individual comment field 56 described later. The CPU 11 stores the received individual comment in the individual comment string of the comment DB 124. A general comment indicating a comment for the entire acquired moving image is stored in the general comment column. The CPU 11 receives an input of a general comment in the general comment field 57 by the input unit 14. The CPU 11 stores the received general comment in the total information DB 122.

分析画面5は上部に分割された表示ウィンドウ51A、51B、51C及び51Dと、表示ウィンドウ51A、51B、51C及び51Dの下部に設けられた動作要素表52と、左下部に設けられた種別グラフ53A及び53Bと、表示ウィンドウ51Dの右部に設けられた集計表54と、集計表54の右部に設けられた切替ボタン510と、集計表54の下部に設けられた稼動グラフ55と、動作要素表52の右部に設けられた個別コメント欄56と、個別コメント欄56の下部に設けられた総括コメント欄57とを備える。動作要素表52の下部には合計欄523が設けられている。動作要素表52及び合計欄523にはレーティング欄521及び非定常欄522が設けられている。表示ウィンドウ51Aの左端にはレーティング率欄511が設けられている。表示ウィンドウ51Aの左上部には決定レーティング率欄512が設けられている。表示ウィンドウ51A、51B、51C及び51D等は場合により表示ウィンドウ51で代表する。種別グラフ53A及び53B等は場合により種別グラフ53で代表する。稼動グラフ55は非稼動部分55A、準稼動部分55B及び稼動部分55Cにより構成される。個別コメント欄56の上部にはコメントタブ561が設けられている。表示ウィンドウ51A、51B及び51Cに表示されている動画は、同一時間軸で撮影又は再生する動画である。ここで表示ウィンドウ51Aには作業員A、表示ウィンドウ51Bには作業員Bの動画が表示されているものとする。   The analysis screen 5 includes display windows 51A, 51B, 51C and 51D divided in the upper part, an operation element table 52 provided in the lower part of the display windows 51A, 51B, 51C and 51D, and a type graph 53A provided in the lower left part. , 53B, a summary table 54 provided on the right side of the display window 51D, a switching button 510 provided on the right side of the summary table 54, an operation graph 55 provided at the bottom of the summary table 54, and an operation element An individual comment field 56 provided in the right part of the table 52 and a general comment field 57 provided in the lower part of the individual comment field 56 are provided. A total column 523 is provided at the bottom of the operation element table 52. The action element table 52 and the total column 523 are provided with a rating column 521 and an unsteady column 522. A rating rate column 511 is provided at the left end of the display window 51A. A determination rating rate column 512 is provided in the upper left part of the display window 51A. The display windows 51A, 51B, 51C, 51D and the like are represented by the display window 51 in some cases. The type graphs 53A and 53B are represented by the type graph 53 in some cases. The operation graph 55 includes a non-operation part 55A, a semi-operation part 55B, and an operation part 55C. A comment tab 561 is provided above the individual comment field 56. The moving images displayed in the display windows 51A, 51B, and 51C are moving images that are shot or reproduced on the same time axis. Here, it is assumed that the moving image of the worker A is displayed on the display window 51A and the moving image of the worker B is displayed on the display window 51B.

表示ウィンドウ51は動画データ又はマニュアル等の動作要素に関連する情報を表示するウィンドウである。レーティング率欄511はレーティング率の入力を行うための欄である。決定レーティング率欄512は動作要素のレーティング率を表示するための欄である。動作要素表52は動作要素に関する情報を表示する表である。レーティング欄521はレーティングを行うか否かを判定するためのチェックボックスを備える欄である。非定常欄522は非定常情報であるか否かを判定するためのチェックボックスを備える欄である。合計欄523は複数の動作要素に関する情報を合計した合計関連情報を表示する表である。種別グラフ53は種別分類毎に種別に対応する要素時間の割合を表示した棒グラフである。集計表54は集計情報を表示する表である。稼動グラフ55は動作合計時間、準稼動合計時間及び無効合計時間の割合を表示した円グラフである。個別コメント欄56は個別コメントを表示する欄である。コメントタブ561は個別コメントを切り替えるためのタブである。コメントタブ561は複数であり、左端から表示ウィンドウ51A、51B、51C及び51Dの夫々に対応している。総括コメント欄57は取得した動画全体に対する総括コメントを表示する欄である。切替ボタン510は各表示ウィンドウ51の動画データに対応する動作要素表52を切り替えるためのボタンである。   The display window 51 is a window for displaying information related to motion elements such as moving image data or a manual. The rating rate column 511 is a column for inputting a rating rate. The determined rating rate column 512 is a column for displaying the rating rate of the operating element. The operation element table 52 is a table that displays information on the operation elements. The rating column 521 is a column provided with a check box for determining whether or not to perform rating. The unsteady column 522 is a column provided with a check box for determining whether or not it is unsteady information. The total column 523 is a table that displays total related information obtained by totaling information on a plurality of operation elements. The type graph 53 is a bar graph that displays the ratio of element times corresponding to the type for each type classification. The tabulation table 54 is a table that displays tabulation information. The operation graph 55 is a pie chart displaying the ratio of the total operation time, the semi-operation total time, and the invalid total time. The individual comment column 56 is a column for displaying individual comments. The comment tab 561 is a tab for switching individual comments. There are a plurality of comment tabs 561, which correspond to the display windows 51A, 51B, 51C, and 51D from the left end. The general comment column 57 is a column for displaying a general comment for the entire acquired moving image. A switch button 510 is a button for switching the operation element table 52 corresponding to the moving image data of each display window 51.

分析画面5の動作は以下の通りである。なお、本実施形態では予め撮像された各動画を動作要素に分割しているものとする。CPU11は要素情報DB121を参照し、動作要素表52に動作要素、種別、開始時間、要素時間、比較値、差異、区分、非定常情報、レーティング率等を表示する。また動作要素表52は、表示ウィンドウ51A、51B及び51Cに設定することができる。ユーザが図7の切替ボタン510を入力部14で選択した場合、CPU11は表示ウィンドウ51A、51B又は51Cに対する動作要素表52を切り替えて分析画面5に表示させる事ができる。また非定常欄522のチェックボックスにより非定常情報の入力をすることができる。動作要素表52の各欄が入力部14で選択された場合、CPU11は動作要素の選択を入力部14で受け付ける。CPU11は選択された動作要素に対応する複数の動画データを表示ウィンドウ51に表示する。例えば、CPU11は表示ウィンドウ51Aに表示される作業員Aの動作要素「溶接」を選択した場合、表示ウィンドウ51B及び51Cの夫々には、同時間軸上の他の作業員の動画等が表示する。CPU11は表示ウィンドウ51Dに動作要素「溶接」に対応するマニュアルAを表示する。   The operation of the analysis screen 5 is as follows. In the present embodiment, it is assumed that each moving image captured in advance is divided into motion elements. The CPU 11 refers to the element information DB 121 and displays the operation element, type, start time, element time, comparison value, difference, classification, unsteady information, rating rate, and the like in the operation element table 52. The operation element table 52 can be set in the display windows 51A, 51B, and 51C. When the user selects the switch button 510 in FIG. 7 with the input unit 14, the CPU 11 can switch the operation element table 52 for the display window 51 </ b> A, 51 </ b> B or 51 </ b> C to be displayed on the analysis screen 5. In addition, unsteady information can be input by a check box in the unsteady field 522. When each column of the operation element table 52 is selected by the input unit 14, the CPU 11 receives the selection of the operation element by the input unit 14. The CPU 11 displays a plurality of moving image data corresponding to the selected operation element on the display window 51. For example, when the CPU 11 selects the operation element “welding” of the worker A displayed on the display window 51A, the moving images of other workers on the same time axis are displayed on each of the display windows 51B and 51C. . The CPU 11 displays the manual A corresponding to the operation element “welding” on the display window 51D.

ユーザは表示ウィンドウ51に表示された動画データを視聴することで、動画データ内にて作業者が作業に対して無効な動作をしているか否かを判断する。ユーザは作業者が作業に対して無効な動作をしていると判断した場合、表示ウィンドウ51を入力部14で選択することで無効時間を算出する。具体的にはCPU11は動画データを表示ウィンドウ51で再生中に表示ウィンドウ51を入力部14で選択してから再度表示ウィンドウ51を入力部14で選択するまでの時間を無効時間として算出する。CPU11は要素時間から無効時間を引くことで動作時間を算出する。なお、CPU11はさらにレーティング率の入力を入力部14で受け付け、受け付けたレーティング率を要素時間から無効時間を引いた値に積算することで動作時間を算出してもよい。CPU11は算出した無効時間及び動作時間を動作要素表52に表示する。動作要素表52において各種別には色が対応づけられている。CPU11は種別情報DB123を参照し、各種別に対応づけられた色を動作要素表52の種別に表示する。   The user views the moving image data displayed on the display window 51 to determine whether or not the worker performs an invalid operation for the work in the moving image data. When the user determines that the worker is performing an invalid operation on the work, the user calculates the invalid time by selecting the display window 51 with the input unit 14. Specifically, the CPU 11 calculates the time from when the display window 51 is selected by the input unit 14 while the moving image data is being reproduced by the display window 51 until the display window 51 is selected again by the input unit 14 as an invalid time. The CPU 11 calculates the operation time by subtracting the invalid time from the element time. Note that the CPU 11 may further calculate the operating time by receiving the rating rate input by the input unit 14 and adding the received rating rate to a value obtained by subtracting the invalid time from the element time. The CPU 11 displays the calculated invalid time and operation time in the operation element table 52. In the operation element table 52, colors are associated with various types. The CPU 11 refers to the type information DB 123 and displays the color associated with each type in the type of the operation element table 52.

CPU11は種別グラフ53に種別毎の要素時間を時系列順に表示する。例えば、CPU11は種別グラフ53Aに作業単位の種別である「手作業」、「工具作業」、「マシン作業」及び「手作業」に対応する色を「手作業」、「工具作業」、「マシン作業」及び「手作業」の時系列順に表示する。さらにCPU11は種別グラフ53Bに工程単位の種別「第1工程」及び「第2工程」に対応する色を「第1工程」及び「第2工程」の時系列順に表示する。種別グラフ53A及び53Bの各色の割合は各種別の要素時間の割合に対応している。なお、本実施形態の種別グラフ53は種別毎の要素時間を時系列順に表示したが、これに限られない。また本実施形態では種別は3つであるが、これ以上またはこれ以下の種別を設定することができる。例えば、種別グラフ53は種別毎の動作時間、無効時間又は標準時間を時系列順に表示してもよい。また種別グラフ53には、異なるウィンドウに表示される作業員の種別毎の要素時間を時系列順に表示することもできる。例えば表示ウィンドウ51Aに表示される作業員Aと表示ウィンドウ51Bに表示される作業員Bの工程単位の種別を表示することで、作業員Aと作業員Bの作業を比較することができる。   The CPU 11 displays the element times for each type in time series in the type graph 53. For example, the CPU 11 sets the colors corresponding to “manual work”, “tool work”, “machine work”, and “manual work”, which are the types of work units, to “manual work”, “tool work”, “machine” in the type graph 53A. Displayed in chronological order of "work" and "manual work". Further, the CPU 11 displays the colors corresponding to the process unit types “first process” and “second process” in the time series of the “first process” and “second process” on the type graph 53B. The ratio of each color in the type graphs 53A and 53B corresponds to the ratio of the element time for each type. In addition, although the classification graph 53 of this embodiment displayed the element time for every classification in time series order, it is not restricted to this. In the present embodiment, there are three types, but more or less types can be set. For example, the type graph 53 may display the operation time, invalid time, or standard time for each type in chronological order. The type graph 53 can also display the element times for each type of worker displayed in different windows in chronological order. For example, by displaying the types of process units of the worker A displayed on the display window 51A and the worker B displayed on the display window 51B, the work of the worker A and the worker B can be compared.

レーティング率及び標準時間の算出方法の一例は以下の通りである。ユーザは表示ウィンドウ51A、51B及び51Cに同一時間軸上の動画データを視聴する。ユーザは表示ウィンドウ51DのマニュアルAを確認し、作業員AがマニュアルAに則っていると判断する。ユーザは種別グラフ53に表示ウィンドウ51Aに表示されている作業員Aの作業単位の種別と、表示ウィンドウ51Bに表示されている作業員Bの作業単位の種別を表示することによって、作業員Aと作業員Bが同じ作業に対してどのくらい遅れが発生しているのかを容易に確認することができる。ここで作業員Aの動作要素の動作時間が通常の作業より遅いと考えた場合には、ユーザはレーティング率欄511で1.1倍を選択する。CPU11は決定レーティング率欄512に1.1倍を表示する。例えば「動作要素」の「溶接」について上記のとおりレーティングを行う場合には、CPU11はレーティング欄521と同一の列にある動作要素の動作時間「3.50」にレーティング率「1.1」を積算することで標準時間「3.85」を算出する。CPU11はレーティング率「1.1」及び標準時間「3.85」を動作要素表52に表示し、要素情報DB121に記憶する。また動作要素「金具Aをセット」の動作時間は通常の作業より遅いと考えた場合、ユーザはレーティング率欄511で0.8倍を選択する。CPU11は決定レーティング率欄512に0.8倍を表示する。CPU11はレーティング欄521と同一の列にある動作要素の動作時間「8.00」にレーティング率「0.8」を積算することで標準時間「6.40」を算出する。CPU11はレーティング率「0.8」及び標準時間「6.40」を動作要素表52に表示し、要素情報DB121に記憶する。以下、同様であり、簡潔のため記載を省略する。   An example of the rating rate and standard time calculation method is as follows. The user views moving image data on the same time axis in the display windows 51A, 51B, and 51C. The user confirms the manual A in the display window 51D, and determines that the worker A follows the manual A. The user displays the type of work unit of worker A displayed in the display window 51A and the type of work unit of worker B displayed in the display window 51B on the type graph 53, thereby It can be easily confirmed how much delay the worker B has with respect to the same work. Here, when the operation time of the operation element of the worker A is considered to be slower than the normal work, the user selects 1.1 times in the rating rate column 511. The CPU 11 displays 1.1 times in the determined rating rate column 512. For example, when performing the rating as described above for “welding” of “operation element”, the CPU 11 sets the rating rate “1.1” to the operation time “3.50” of the operation element in the same column as the rating column 521. The standard time “3.85” is calculated by integration. The CPU 11 displays the rating rate “1.1” and the standard time “3.85” in the operation element table 52 and stores them in the element information DB 121. When the operation time of the operation element “set metal fitting A” is considered to be slower than the normal work, the user selects 0.8 times in the rating rate column 511. The CPU 11 displays 0.8 times in the determined rating rate column 512. The CPU 11 calculates the standard time “6.40” by adding the rating rate “0.8” to the operation time “8.00” of the operation elements in the same column as the rating column 521. The CPU 11 displays the rating rate “0.8” and the standard time “6.40” in the operation element table 52 and stores them in the element information DB 121. The same applies hereinafter, and the description is omitted for the sake of brevity.

ユーザが標準時間で動作要素の動画データを視聴したいと希望した場合、以下の手順で動作要素の動画データを標準時間で再生できる。CPU11はレーティング欄521内のチェックボックスに入力を入力部14で受け付ける。例えば、ユーザがレーティング欄521内の1行目の「1.1」のチェックボックスを入力部14で入力した場合、表示ウィンドウ51Aの動画101の再生時間は1.1倍され、動作時間「3.5」にレーティング率「1.1」を乗算した値である「3.85」を標準時間として設定する。CPU11は再生時間が標準時間「3.85」になるように動画101をスロー再生する。また、ユーザが切替ボタン510を入力部14で選択した場合、作業員Bの動作要素表52が分析画面5に表示される。以下、同様の動作により再生時間が標準時間になるように表示ウィンドウ51Bの動画をスロー再生又は再生スピードを早くして再生する。表示ウィンドウ51Cについても同様であり、簡潔のため、記載を省略する。   When the user desires to view the motion element moving image data in the standard time, the motion element moving image data can be reproduced in the standard time by the following procedure. The CPU 11 receives an input to the check box in the rating column 521 through the input unit 14. For example, when the user inputs the check box of “1.1” on the first line in the rating column 521 using the input unit 14, the playback time of the moving image 101 in the display window 51A is multiplied by 1.1, and the operation time “3” .3.8 ”multiplied by the rating rate“ 1.1 ”is set as the standard time. The CPU 11 performs slow playback of the moving image 101 so that the playback time becomes the standard time “3.85”. When the user selects the switching button 510 with the input unit 14, the operation element table 52 of the worker B is displayed on the analysis screen 5. Thereafter, the moving image in the display window 51B is played back at a slow playback speed or at a higher playback speed so that the playback time becomes the standard time by the same operation. The same applies to the display window 51C, and the description is omitted for the sake of brevity.

CPU11は要素合計時間、動作合計時間、無効合計時間、合計比較値、合計差異、全体レーティング率、準稼動合計時間、稼動合計時間及び標準合計時間等を算出する。例えば、CPU11は動作要素表52の全ての要素時間を合計した要素合計時間「27.00」を算出する。CPU11は動作要素表52の全ての動作時間を合計した動作合計時間「22.00」を算出する。CPU11は動作要素表52の全ての無効時間を合計した無効合計時間「5.00」を算出する。   The CPU 11 calculates element total time, operation total time, invalid total time, total comparison value, total difference, overall rating rate, semi-operation total time, operation total time, standard total time, and the like. For example, the CPU 11 calculates an element total time “27.00” obtained by adding all element times in the operation element table 52. The CPU 11 calculates the total operation time “22.00” obtained by adding all the operation times in the operation element table 52. The CPU 11 calculates an invalid total time “5.00” that is the sum of all invalid times in the motion element table 52.

CPU11は動作要素表52の1列目、2列目、4列目の区分が「準稼動」であるため、動作時間「3.50」、「2.50」及び「8.00」を合計した準稼動合計時間「14.00」を算出し、図4の準稼動合計時間に値を入力する。CPU11は全てのレーティング率の平均値を算出することで全体レーティング率「1.07」を算出する。CPU11は動作合計時間にレーティング率「1.07」を積算した標準合計時間「23.54」を算出する。CPU11は動作要素表52の全ての比較値を合計した合計比較値「23.5」を算出する。CPU11は合計比較値「23.5」から標準合計時間「23.54」を減算した合計差異「0.04」を算出する。CPU11は動作合計時間「22.00」から準稼動合計時間「14.00」を減算した稼動合計時間「8.00」を算出する。なお、本実施形態では要素合計時間、動作合計時間、無効合計時間、準稼動合計時間は取得した動画の動作要素の全てを合計した値だが、これに限られない。例えば、要素合計時間、動作合計時間、無効合計時間、準稼動合計時間及び稼動合計時間は動作要素表52で一又は複数選択された動作要素の要素合計時間、動作合計時間、無効合計時間、準稼動合計時間及び稼動合計時間であってもよい。   The CPU 11 adds the operation times “3.50”, “2.50”, and “8.00” because the classification in the first, second, and fourth columns of the operation element table 52 is “semi-operation”. The semi-operation total time “14.00” is calculated, and a value is input to the semi-operation total time of FIG. The CPU 11 calculates the overall rating rate “1.07” by calculating the average value of all rating rates. The CPU 11 calculates a standard total time “23.54” obtained by adding the rating rate “1.07” to the total operation time. The CPU 11 calculates a total comparison value “23.5” obtained by adding all the comparison values in the operation element table 52. The CPU 11 calculates a total difference “0.04” obtained by subtracting the standard total time “23.54” from the total comparison value “23.5”. The CPU 11 calculates a total operation time “8.00” obtained by subtracting the total total operation time “14.00” from the total operation time “22.00”. In the present embodiment, the element total time, the operation total time, the invalid total time, and the semi-operation total time are values obtained by adding all the motion elements of the acquired moving image, but are not limited thereto. For example, the element total time, operation total time, invalid total time, semi-operation total time, and operation total time are the element total time, operation total time, invalid total time, semi-operation total time of one or more selected operation elements in the operation element table 52. The total operating time and the total operating time may be used.

CPU11は算出した要素合計時間、動作合計時間、無効合計時間、合計差異、全体レーティング率、準稼動合計時間及び標準合計時間を合計欄523に表示する。CPU11は算出した要素合計時間、動作合計時間、無効合計時間、合計差異、全体レーティング率、準稼動合計時間及び標準合計時間を集計情報DB122に記憶させる。   The CPU 11 displays the calculated element total time, operation total time, invalid total time, total difference, overall rating rate, semi-operation total time, and standard total time in the total column 523. The CPU 11 stores the calculated element total time, operation total time, invalid total time, total difference, overall rating rate, semi-operation total time, and standard total time in the total information DB 122.

CPU11は算出した要素合計時間「27.00」、動作合計時間「22.00」及び無効合計時間「5.00」を集計表54に表示する。なお、CPU11は集計表54に準稼動合計時間又は稼動合計時間を表示してもよい。   The CPU 11 displays the calculated element total time “27.00”, operation total time “22.00”, and invalid total time “5.00” on the tabulation table 54. Note that the CPU 11 may display the quasi-operation total time or the total operation time on the tabulation table 54.

CPU11が稼動グラフ55を表示する処理は以下の通りである。CPU11は要素合計時間「27.00」に対する無効合計時間「5.00」の割合で非稼動部分55Aを生成する。CPU11は要素合計時間「27.00」に対する準稼動合計時間「14.00」の割合で準稼動部分55Bを生成する。CPU11は要素合計時間「27.00」に対する稼動合計時間「8.00」の割合で稼動部分55Cを生成する。CPU11は生成した非稼動部分55A、準稼動部分55B及び稼動部分55Cに基づいて稼動グラフ55を生成し、表示する。   The process in which the CPU 11 displays the operation graph 55 is as follows. The CPU 11 generates the non-operating portion 55A at a ratio of the invalid total time “5.00” to the element total time “27.00”. The CPU 11 generates the semi-operation portion 55B at a ratio of the semi-operation total time “14.00” to the element total time “27.00”. The CPU 11 generates the operation portion 55C at a ratio of the operation total time “8.00” to the element total time “27.00”. The CPU 11 generates and displays an operation graph 55 based on the generated non-operation part 55A, semi-operation part 55B, and operation part 55C.

ユーザは入力部14でコメントタブ561の内、表示ウィンドウ51Aに対応するタブを選択する。CPU11は個別コメント欄56に動作要素表52で選択した動作要素の動画201に対応する個別コメントの入力を入力部14で受け付ける。ユーザは入力部14で個別コメント欄56に「頑張って働いている」を入力する。CPU11は受け付けた個別コメント「頑張って働いている」をコメントDB124に記憶させる。ユーザは入力部14でコメントタブ561の内、表示ウィンドウ51Bに対応するタブを選択する。CPU11は個別コメント欄56に動作要素表52で選択した動作要素の動画201に対応する個別コメントの入力を入力部14で受け付ける。ユーザは入力部14で個別コメント欄56に「1人休憩している」を入力する。CPU11は受け付けた個別コメント「1人休憩している」をコメントDB124に記憶させる。以下、同様であり、簡潔のため記載を省略する。CPU11は総括コメント欄57に総括コメントの入力を入力部14で受け付ける。ユーザは稼動グラフ55を確認し、総括コメント欄57に「全体的に準稼動合計時間が多い」を入力部14で入力する。CPU11は受け付けた総括コメント「全体的に準稼動合計時間が多い」をコメントDB124に記憶させる。   The user selects a tab corresponding to the display window 51 </ b> A among the comment tabs 561 using the input unit 14. The CPU 11 receives an input of an individual comment corresponding to the moving image 201 of the operation element selected in the operation element table 52 in the individual comment field 56 by the input unit 14. The user inputs “work hard” in the individual comment field 56 using the input unit 14. The CPU 11 stores the received individual comment “working hard” in the comment DB 124. The user selects a tab corresponding to the display window 51 </ b> B from the comment tabs 561 using the input unit 14. The CPU 11 receives an input of an individual comment corresponding to the moving image 201 of the operation element selected in the operation element table 52 in the individual comment field 56 by the input unit 14. The user inputs “one person is resting” into the individual comment field 56 using the input unit 14. The CPU 11 stores the received individual comment “one person is resting” in the comment DB 124. The same applies hereinafter, and the description is omitted for the sake of brevity. The CPU 11 receives an input of a general comment in the general comment field 57 by the input unit 14. The user confirms the operation graph 55, and inputs “total quasi-operation total time” to the general comment field 57 using the input unit 14. The CPU 11 stores the received general comment “total time for semi-operation is large” in the comment DB 124.

図8〜9は本実施形態における情報処理システムの処理手順を示したフローチャートである。CPU11は動作要素、種別、開始時間、終了時間、要素時間、動作時間、無効時間、比較値、差異、区分、非定常情報、レーティング率及び標準時間等を記憶部12から読込又は入力部14で入力を受け付ける(ステップS11)。CPU11は動作要素、種別、開始時間、終了時間、要素時間、動作時間、無効時間、比較値、差異、区分、非定常情報、レーティング率及び標準時間等に基づいて動作要素表52及び種別グラフ53を表示する(ステップS12)。   8 to 9 are flowcharts showing the processing procedure of the information processing system in this embodiment. The CPU 11 reads the operation element, type, start time, end time, element time, operation time, invalid time, comparison value, difference, classification, non-stationary information, rating rate, standard time, etc. from the storage unit 12 or by the input unit 14. An input is accepted (step S11). The CPU 11 operates based on the operation element, type, start time, end time, element time, operation time, invalid time, comparison value, difference, classification, non-stationary information, rating rate, standard time, etc. Is displayed (step S12).

CPU11は表示ウィンドウ51でレーティング率の選択を入力部14で受け付ける(ステップS13)。CPU11は動作時間に受け付けたレーティング率を積算することで標準時間を算出する(ステップS14)。CPU11は動作要素、動作要素の種別、開始時間、要素時間、動作時間、無効時間、比較値、差異、区分、非定常情報、レーティング率、標準時間等に基づいて要素合計時間、動作合計時間、無効合計時間、合計比較値、合計差異、全体レーティング率、準稼動合計時間、稼動合計時間及び標準合計時間等を算出する(ステップS15)。   The CPU 11 accepts the selection of the rating rate from the display window 51 at the input unit 14 (step S13). The CPU 11 calculates the standard time by integrating the rating rate received in the operation time (step S14). CPU 11 is based on the operation element, the type of operation element, start time, element time, operation time, invalid time, comparison value, difference, classification, non-stationary information, rating rate, standard time, etc. The invalid total time, total comparison value, total difference, overall rating rate, semi-operation total time, operation total time, standard total time, and the like are calculated (step S15).

CPU11は要素合計時間、動作合計時間、無効合計時間、合計差異、全体レーティング率、準稼動合計時間及び標準合計時間等に基づいて合計欄523を表示し、要素合計時間、動作合計時間及び無効合計時間等に基づいて集計表54を表示する(ステップS16)。CPU11は要素合計時間、稼動合計時間、準稼働合計時間及び無効合計時間に基づいて稼動グラフ55を生成及び表示する(ステップS17)。なお、要素合計時間は無効合計時間、準稼動合計時間及び稼動合計時間を合計することで算出できる。このため、無効合計時間、準稼動合計時間及び稼動合計時間に基づいて稼動グラフ55を生成し、表示することもできる。CPU11は動作要素の選択を入力部14で受け付ける(ステップS18)。CPU11は受けつけた動作要素に対応する複数の動画データの内、同一時間の動作要素の動画データを表示ウィンドウ51に表示する(ステップS19)。CPU11は受けつけた動作要素に対応するマニュアルを表示ウィンドウ51に表示する(ステップS20)。   The CPU 11 displays the total column 523 based on the element total time, operation total time, invalid total time, total difference, overall rating rate, semi-operation total time, standard total time, etc., and the element total time, operation total time, and invalid total The tabulation table 54 is displayed based on the time or the like (step S16). The CPU 11 generates and displays an operation graph 55 based on the element total time, the operation total time, the semi-operation total time, and the invalid total time (step S17). The element total time can be calculated by totaling the invalid total time, the semi-operation total time, and the total operation time. Therefore, the operation graph 55 can be generated and displayed based on the invalid total time, the semi-operation total time, and the total operation time. The CPU 11 accepts selection of an operation element at the input unit 14 (step S18). The CPU 11 displays the moving image data of the operating element of the same time among the plurality of moving image data corresponding to the received operating element on the display window 51 (step S19). The CPU 11 displays a manual corresponding to the received operation element on the display window 51 (step S20).

CPU11は個別コメント欄56及び総括コメント欄57に受け付けた動作要素の個別コメント及び総括コメントの入力を入力部14で受け付ける(ステップS21)。CPU11は個別コメント欄56及び総括コメント欄57に受け付けた個別コメント及び総括コメントを表示し(ステップS22)、処理をS11に移し、処理を繰り返す。   The CPU 11 receives the input of the individual comments and general comments of the operation elements received in the individual comment field 56 and the general comment field 57 by the input unit 14 (step S21). The CPU 11 displays the received individual comments and general comments in the individual comment field 56 and the general comment field 57 (step S22), moves the process to S11, and repeats the process.

なお、本実施形態における表示ウィンドウ51Aは任意の2線間の角度を表示できるようにしてもよい。また、本実施形態では要素合計時間、稼動合計時間、準稼働合計時間及び無効合計時間に基づいて稼動グラフ55を生成及び表示したが、動作合計時間及び無効合計時間に基づいて稼動グラフ55を生成及び表示してもよい。   Note that the display window 51A in this embodiment may be configured to display an angle between any two lines. In this embodiment, the operation graph 55 is generated and displayed based on the element total time, the operation total time, the semi-operation total time, and the invalid total time. However, the operation graph 55 is generated based on the total operation time and the total invalid time. And may be displayed.

一つの側面では、容易に複数の対象物に対して分析を行うことができる。   In one aspect, it is possible to easily analyze a plurality of objects.

一つの側面では、容易に複数の対象物に対して同一時間軸上で分析を行うことができる。   In one aspect, it is possible to easily analyze a plurality of objects on the same time axis.

一つの側面では、種別グラフ53が同一時間軸上で種別毎の要素時間を表示できるため、要素毎の比較が容易となり、効率化できる工程の発見が容易になる。   In one aspect, since the type graph 53 can display the element time for each type on the same time axis, the element-by-element comparison is easy and the process that can be made efficient can be easily found.

一つの側面では、各動画データに対して個別コメントを表示することで各動画データの理解に役立てることができる。   In one aspect, displaying individual comments for each moving picture data can help understanding each moving picture data.

ユーザは例えば、稼動グラフ55で無効合計時間又は準稼動合計時間の割合が多いことが即座に確認できる。このため、ユーザは稼動グラフ55を確認することで無駄時間の多い作業からレーティングを行うなど柔軟なレーティング作業が可能となる。   For example, the user can immediately confirm on the operation graph 55 that the ratio of the invalid total time or the semi-total operation time is large. For this reason, the user can perform a flexible rating operation by checking the operation graph 55 and performing a rating from an operation with a lot of wasted time.

一つの側面では、他の作業員の作業と比較しながら分析を行う事ができるので、より効率的な標準時間の設定が可能になる。   In one aspect, the analysis can be performed while comparing with the work of other workers, so that a more efficient standard time can be set.

(実施の形態2)
実施の形態2は、対象物の状態を計測した状態情報又は対象物の周辺の環境を計測した環境情報を取得し、表示ウィンドウ51に表示する実施の形態に関する。以下、特に説明する構成、作用以外の構成及び作用は実施の形態1と同等であり、簡潔のため記載を省略する。
(Embodiment 2)
The second embodiment relates to an embodiment in which state information obtained by measuring the state of the object or environment information obtained by measuring the environment around the object is acquired and displayed on the display window 51. In the following, the configuration and operation other than those specifically described are the same as those of the first embodiment, and the description is omitted for the sake of brevity.

本実施形態における情報処理装置1は計時部(図示せず)を備える。計時部は動画を撮像してからの時間を計時し、CPU11に計時した時間を出力している。動画を撮像してからの時間とはすなわち動画の再生時間である。   The information processing apparatus 1 in the present embodiment includes a timer unit (not shown). The timer unit measures the time since the moving image was captured, and outputs the time measured to the CPU 11. The time after capturing a moving image is the reproduction time of the moving image.

また、情報処理システムは、図10に示すように、状態情報の一例として対象物(具体的には作業員)の生体情報を計測する生体センサ61A及び61Bを備える。図10は、情報処理システムの概要を示す説明図である。生体センサ61A及び61B等は、場合により生体センサ610で代表する。   In addition, as illustrated in FIG. 10, the information processing system includes biosensors 61 </ b> A and 61 </ b> B that measure biometric information of an object (specifically, a worker) as an example of state information. FIG. 10 is an explanatory diagram showing an outline of the information processing system. The biosensors 61A and 61B and the like are represented by a biosensor 610 in some cases.

生体センサ61A及び61Bの夫々は、例えば圧力センサからなり、作業員A及びBの夫々に取り付けられている。なお、圧力センサとは、静電容量型加速度センサ又はピエゾ抵抗型加速度センサ等の加速度センサである。生体センサ610は、作業員A及びBの腰又は腕等の脈拍数を定期的に(例えば1秒間隔で)計測し、計測した脈拍数を情報処理装置1へ出力する。CPU11は、脈拍数を生体センサ610から取得する。このとき、CPU11は、脈拍数の計測時刻(厳密には脈拍数の取得時刻)を計時部からの出力に基づいて特定する。   Each of the biometric sensors 61A and 61B includes, for example, a pressure sensor and is attached to each of the workers A and B. The pressure sensor is an acceleration sensor such as a capacitive acceleration sensor or a piezoresistive acceleration sensor. The biosensor 610 measures the pulse rate of the waists or arms of the workers A and B regularly (for example, at intervals of 1 second), and outputs the measured pulse rate to the information processing apparatus 1. The CPU 11 acquires the pulse rate from the biological sensor 610. At this time, the CPU 11 specifies the pulse rate measurement time (strictly, the pulse rate acquisition time) based on the output from the time measuring unit.

CPU11は、取得した脈拍数を時系列の生体グラフ(経時変化に相当)で表示ウィンドウ51Eに表示する。このとき、CPU11は、表示ウィンドウ51A〜51Cに表示された動画データ(換言すると、作業の動画を動作要素毎に分割した際の分割動画)と同期させながら上記の生体グラフを表示する。かかる内容について図11A及び図11Bを参照しながら説明する。図11A及び図11Bは、分析画面5の一例を示す説明図である。   The CPU 11 displays the acquired pulse rate on the display window 51E as a time-series biological graph (corresponding to a change with time). At this time, the CPU 11 displays the biological graph while synchronizing with the moving image data displayed in the display windows 51 </ b> A to 51 </ b> C (in other words, the divided moving image when the working moving image is divided for each operation element). The contents will be described with reference to FIGS. 11A and 11B. 11A and 11B are explanatory diagrams illustrating an example of the analysis screen 5.

先ず、図11Aを参照しながら説明すると、表示ウィンドウ51Aには作業員Aの動作要素が表示され、表示ウィンドウ51Bには同時間軸上の他の作業員(作業員B)の動画が表示される。また、表示ウィンドウ51Eには作業員A及びBに取り付けられた生体センサから取得した脈拍数の生体グラフが表示されている。縦軸は脈拍数であり、単位はbpmである。横軸は時間であり、単位は秒である。   First, with reference to FIG. 11A, the movement element of the worker A is displayed on the display window 51A, and the moving image of another worker (worker B) on the same time axis is displayed on the display window 51B. The The display window 51E displays a biological graph of the pulse rate acquired from the biological sensors attached to the workers A and B. The vertical axis represents the pulse rate, and the unit is bpm. The horizontal axis is time, and the unit is second.

また、CPU11は、表示ウィンドウ51A及び51Bの其々に表示する動作要素を同期させながら表示する。具体的には、表示ウィンドウ51A及び51Bの其々において表示される動作要素間で再生時間(具体的には、上記の計測部によって計時された時間)が揃うように調整する。さらに、CPU11は、表示ウィンドウ51Eに生体グラフを表示する際、表示ウィンドウ51A及び51Bにて表示される各動作要素と同じ時間軸に沿って当該各動作要素と同期させながら生体グラフを表示させる。具体的には、表示ウィンドウ51A及び51Bに表示される動作要素の再生開始時刻と脈拍数の計測開始時刻とが揃うように調整する処理、すなわち頭出し処理を実行する。   Further, the CPU 11 displays the operation elements to be displayed on the display windows 51A and 51B while synchronizing them. Specifically, the reproduction time (specifically, the time measured by the measurement unit) is adjusted between the operation elements displayed in the display windows 51A and 51B. Furthermore, when displaying the biological graph on the display window 51E, the CPU 11 displays the biological graph while synchronizing with each operation element along the same time axis as each operation element displayed on the display windows 51A and 51B. Specifically, a process for adjusting the reproduction start time of the operation element displayed in the display windows 51A and 51B and the measurement start time of the pulse rate, that is, a cueing process is executed.

なお、頭出し処理において動作要素の再生開始時刻と脈拍数の計測開始時刻とを揃える際には、それぞれについて計時部が計時した時刻同士を合わせるとよい。ただし、これに限定されるものではなく、動作要素の中で作業員A又はBが最も動いた時点(可動量が最大となるピーク時点)と、生体グラフにおいて脈拍数が最大となった時点(脈拍数のピーク時点)とを合わせてもよい。ちなみに、それぞれのピーク時点を抽出してピーク時点同士を合わせる作業については、ユーザが表示ウィンドウ51における表示内容を見ながら行ってもよく、CPU11が当該表示内容を解析して自動的に行ってもよい。   In addition, when aligning the reproduction start time of the motion element and the measurement start time of the pulse rate in the cueing process, it is preferable to match the times measured by the time measuring unit for each. However, the present invention is not limited to this, and the point in time when the worker A or B moves most among the operating elements (the peak point at which the movable amount becomes maximum) and the point at which the pulse rate becomes maximum in the biological graph ( (Pulse rate peak time) may be combined. Incidentally, the operation of extracting each peak time point and matching the peak time points may be performed while the user is viewing the display contents in the display window 51, or may be automatically performed by the CPU 11 analyzing the display contents. Good.

以上のような構成により、ユーザは、表示ウィンドウ51Eに表示された生体グラフから作業員A及びBの筋肉負荷を知ることができる。よって主観的に作業員の作業速度の遅速を判断するのではなく、客観的に作業員の作業速度の遅速を判断することができる。具体的には、作業員の作業速度が遅く感じた場合でも、その時間帯の筋肉負荷が大きい場合には、その作業員の作業速度は遅いものではなく、適切なものと判断する事ができる。   With the configuration as described above, the user can know the muscle loads of the workers A and B from the biological graph displayed in the display window 51E. Therefore, it is possible to objectively determine the slowness of the work speed of the worker, instead of subjectively judging the slowness of the work speed of the worker. Specifically, even if the worker feels that the work speed is slow, if the muscle load during that time period is large, the work speed of the worker can be determined to be appropriate rather than slow. .

以上のように客観的に作業員の作業速度の遅速を判断することができるようになる結果、ユーザは、適正なレーティングを行う事ができる。すなわち、作業員A及びBの状態(コンディション)を考慮した上で妥当なレーティング率が入力部14を通じて入力されるようになる。   As described above, the user can objectively determine the slowness of the work speed, and as a result, the user can perform an appropriate rating. That is, an appropriate rating rate is input through the input unit 14 in consideration of the states (conditions) of the workers A and B.

ちなみに、図11Aに図示のケースでは、表示ウィンドウ51A及び51Bの其々に異なる作業員の動画(動作要素)が表示され、表示ウィンドウ51Eには二人分の生体グラフが同時表示されることとしたが、これに限られない。図11Bに示すように、表示ウィンドウ51A〜51Dの其々に、一人の作業員が行う作業を異なる角度から撮像した各撮像角度別の動画を表示し、表示ウィンドウ51Eに一人分の生体グラフを表示してもよい。   Incidentally, in the case shown in FIG. 11A, moving images (motion elements) of different workers are displayed on the display windows 51A and 51B, and the biological graphs for two persons are displayed simultaneously on the display window 51E. However, it is not limited to this. As shown in FIG. 11B, in each of the display windows 51A to 51D, a moving image for each imaging angle obtained by imaging a work performed by one worker from different angles is displayed, and a biological graph for one person is displayed on the display window 51E. It may be displayed.

図12は、本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S22の処理は上述の実施の形態1に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11は、ステップS19の処理を終了した後、通信部16で生体センサ610から生体情報を取得する(ステップS31)。その後、CPU11は、取得した生体情報に基づいて生体グラフを表示ウィンドウ51に表示し(ステップS32)、処理をS20に移す。   FIG. 12 is a flowchart showing a processing procedure of the information processing system in the present embodiment. Since the processes in steps S11 to S22 are the same as those in the information processing system according to the first embodiment, the description thereof is omitted for the sake of brevity. CPU11 acquires biometric information from the biosensor 610 by the communication part 16 after complete | finishing the process of step S19 (step S31). Thereafter, the CPU 11 displays a biological graph on the display window 51 based on the acquired biological information (step S32), and moves the process to S20.

なお、本実施形態においてCPU11は、対象物の生体情報の一例として脈拍数を取得することとしたが、これに限定されるものではなく、計測可能な他の生体情報、例えば、脳波、筋の活動電位、体温及び音声(厳密には、音声波形の振幅や周波数等)などを取得してもよい。また、対象物の状態を示す状態情報としては、生体情報に限られず、計測可能な他の状態情報、例えば、ジャイロセンサによって計測される対象物の傾き(姿勢)やGPSによって計測される対象物の座標位置(緯度・経度)などを取得してもよい。   In this embodiment, the CPU 11 acquires the pulse rate as an example of the biological information of the object. However, the present invention is not limited to this, and other biological information that can be measured, for example, brain waves, muscles, and the like. Action potential, body temperature, voice (strictly speaking, amplitude, frequency, etc. of voice waveform) may be acquired. The state information indicating the state of the object is not limited to biological information, but other state information that can be measured, for example, the inclination (orientation) of the object measured by a gyro sensor or the object measured by GPS. The coordinate position (latitude / longitude) may be acquired.

また、本実施形態においてCPU11は、対象物の生体情報を取得し、取得した生体情報に基づいて生体グラフを表示したが、これに限られない。CPU11は、例えば湿度計や温度計等の環境センサが計測した温度や湿度等の環境情報を取得し、取得した環境情報に基づいて環境情報を時系列で表示した環境グラフ(経時変化に相当)を表示してもよい。具体的には、季節によって湿度又は温度が変化するような作業場においては、湿度又は温度変化を確認しながら季節にあった標準時間の設定が可能になる。   Moreover, in this embodiment, although CPU11 acquired the biometric information of the target object and displayed the biograph based on the acquired biometric information, it is not restricted to this. The CPU 11 acquires environmental information such as temperature and humidity measured by an environmental sensor such as a hygrometer and a thermometer, and displays an environmental information in time series based on the acquired environmental information (corresponding to change over time). May be displayed. Specifically, in a workplace where the humidity or temperature changes depending on the season, it is possible to set the standard time according to the season while checking the humidity or temperature change.

以上のように本実施形態においてユーザは、状態情報及び環境情報のうちの少なくとも一方の情報を確認することで、主観的に行っていたレーティング率の決定を、より客観的に行うことができ、より精度の高い標準時間を算出できる。   As described above, in the present embodiment, the user can more objectively determine the rating rate that has been performed subjectively by confirming at least one of the state information and the environment information. More accurate standard time can be calculated.

(実施の形態3)
実施の形態3は区分に基づいて標準合計時間を算出する実施の形態に関する。以下、特に説明する構成、作用以外の構成及び作用は実施の形態1と同等であり、簡潔のため記載を省略する。CPU11は図3を参照し、区分が準稼動である動作要素「溶接」、「パネルの固定」及び「金具Aをセット」を抽出する。CPU11は抽出した動作要素「溶接」、「パネルの固定」及び「金具Aをセット」の標準時間「3.85」、「3.00」及び「9.60」を合計した標準合計時間「16.45」を算出し、算出した標準合計時間「16.45」を合計欄523及び集計表54に表示する。
(Embodiment 3)
The third embodiment relates to an embodiment for calculating the standard total time based on the category. In the following, the configuration and operation other than those specifically described are the same as those of the first embodiment, and the description is omitted for the sake of brevity. With reference to FIG. 3, the CPU 11 extracts the operation elements “welding”, “panel fixing”, and “set metal fitting A” whose classification is semi-operation. The CPU 11 sums the standard times “3.85”, “3.00”, and “9.60” of the extracted operation elements “welding”, “panel fixing”, and “setting the metal fitting A”, and “16 .45 ”and the calculated standard total time“ 16.45 ”is displayed in the total column 523 and the summary table 54.

図13は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S22の処理は上述の実施の形態1に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS14の処理を終了した後、区分が準稼動である動作要素を抽出する(ステップS41)。CPU11は抽出した動作要素の標準合計時間を算出し(ステップS42)、処理をS15に移す。   FIG. 13 is a flowchart showing the processing procedure of the information processing system in this embodiment. Since the processes in steps S11 to S22 are the same as those in the information processing system according to the first embodiment, the description thereof is omitted for the sake of brevity. After completing the process in step S14, the CPU 11 extracts an operation element whose classification is semi-operation (step S41). The CPU 11 calculates the standard total time of the extracted motion elements (step S42), and moves the process to S15.

CPU11は区分に基づいて標準合計時間を算出することができるため、機械が主として行う動作要素を省いた標準合計時間を算出することができる。このことにより、分析する必要のない動作要素を省くことができるため、時間の短縮をすることができる。   Since the CPU 11 can calculate the standard total time based on the category, the CPU 11 can calculate the standard total time without operating elements mainly performed by the machine. This eliminates operating elements that do not need to be analyzed, thereby reducing time.

(実施の形態4)
実施の形態4は一の動画を複数の観点から分析するための観点分析画面6を表示する実施の形態に関する。以下、特に説明する構成、作用以外の構成及び作用は実施の形態1と同等であり、簡潔のため記載を省略する。
(Embodiment 4)
Embodiment 4 relates to an embodiment that displays a viewpoint analysis screen 6 for analyzing one moving picture from a plurality of viewpoints. In the following, the configuration and operation other than those specifically described are the same as those of the first embodiment, and the description is omitted for the sake of brevity.

図14は作業員Aに関するデータを格納する要素情報DB12Aである。図15は作業員Bに関するデータを格納する要素情報DB12Bである。本実施形態における要素情報DB121は動作要素を分析する観点毎に要素情報DB12A、要素情報DB12B等の複数のデータベースを備える。本実施形態における観点は対象物毎に観察を行うものであるが、これに限られるものではない。観要素情報DB121は計測回数列を備える。計測回数列には無効時間を計測した計測回数が記憶される。CPU11は動作要素内で無効時間を計測する毎に計測回数をインクリメントする。CPU11はインクリメントした計測回数を動作要素に対応する計測回数列に記憶させる。   FIG. 14 shows an element information DB 12A that stores data related to the worker A. FIG. 15 shows an element information DB 12B that stores data related to the worker B. The element information DB 121 according to the present embodiment includes a plurality of databases such as an element information DB 12A and an element information DB 12B for each viewpoint for analyzing operation elements. Although the viewpoint in this embodiment performs observation for every target object, it is not restricted to this. The view element information DB 121 includes a measurement number sequence. The number of times of measurement of the invalid time is stored in the measurement number column. The CPU 11 increments the number of measurements every time the invalid time is measured in the operation element. The CPU 11 stores the incremented number of times of measurement in the number of times of measurement column corresponding to the operation element.

図16はView1を選択した観点分析画面6の一例を示す説明図である。図17はView2を選択した観点分析画面6の一例を示す説明図である。観点分析画面6は例えば、作業員A又は作業員B等の観点により分割した動作要素に関する情報が表示される。以下、観点分析画面6の詳細について説明する。観点分析画面6は左上部に分割された表示ウィンドウ61と、右上部に設けられた種別表68A及び68Bと、種別表68A及び68Bの下部に設けられた動作要素表62と、動作要素表62の下部に設けられた集計表64と、集計表64の下部に設けられた種別グラフ63A及び63Bと、種別グラフ63A及び63Bの下部に設けられた稼動グラフ65と、表示ウィンドウ61の下部に設けられた無効欄66と、稼動グラフ65の右部に設けられた個別コメント欄67とを備える。動作要素表62の右端にはレーティング欄621及び非定常欄623が設けられている。動作要素表62の上部にはタブ622が設けられている。表示ウィンドウ61の左端にはレーティング率欄611が設けられている。表示ウィンドウ61の左上部には決定レーティング率欄612が設けられている。種別グラフ63A及び63B等は場合により種別グラフ63で代表する。種別グラフ63A及び63B等は、種別1と種別2又は種別2と種別3等、種別毎に時間軸を合わせて表示させたものである。稼動グラフ65は非稼動部分65A、準稼動部分65B及び稼動部分65Cにより構成される。無効欄66は無効割合グラフ66A、66B、66C及び66Dと、計測回数欄661と、全体計測欄662とを備える。無効割合グラフ66A、66B、66C及び66Dは場合により無効割合グラフ660で代表する。種別表68A及び68B等は場合により種別表68で代表する。表示ウィンドウ61、種別グラフ63、集計表64、稼動グラフ65及び個別コメント欄67は表示ウィンドウ51、種別グラフ53、集計表54、稼動グラフ55及び個別コメント欄56と同様の構成及び動作であり、簡潔のため記載を省略する。   FIG. 16 is an explanatory diagram illustrating an example of the viewpoint analysis screen 6 in which View 1 is selected. FIG. 17 is an explanatory diagram illustrating an example of the viewpoint analysis screen 6 in which View 2 is selected. The viewpoint analysis screen 6 displays, for example, information related to operation elements divided from the viewpoint of the worker A or the worker B. Details of the viewpoint analysis screen 6 will be described below. The viewpoint analysis screen 6 includes a display window 61 divided in the upper left part, type tables 68A and 68B provided in the upper right part, an action element table 62 provided in the lower part of the type tables 68A and 68B, and an action element table 62. A tabulation table 64 provided at the bottom of the graph, type graphs 63A and 63B provided at the bottom of the tabulation table 64, an operation graph 65 provided at the bottom of the type graphs 63A and 63B, and a lower portion of the display window 61. And an individual comment column 67 provided on the right side of the operation graph 65. A rating column 621 and an unsteady column 623 are provided at the right end of the operation element table 62. A tab 622 is provided at the top of the motion element table 62. A rating rate column 611 is provided at the left end of the display window 61. In the upper left part of the display window 61, a determined rating rate column 612 is provided. The type graphs 63A and 63B are represented by the type graph 63 in some cases. The type graphs 63A and 63B etc. are displayed with the time axis aligned for each type, such as type 1 and type 2 or type 2 and type 3. The operation graph 65 includes a non-operation part 65A, a semi-operation part 65B, and an operation part 65C. The invalidity column 66 includes invalidity ratio graphs 66A, 66B, 66C, and 66D, a measurement count column 661, and an overall measurement column 662. The invalid rate graphs 66A, 66B, 66C, and 66D are represented by an invalid rate graph 660 in some cases. The type tables 68A and 68B are represented by the type table 68 in some cases. The display window 61, the type graph 63, the tabulation table 64, the operation graph 65, and the individual comment column 67 have the same configuration and operation as the display window 51, the type graph 53, the tabulation table 54, the operation graph 55, and the individual comment column 56. Description is omitted for brevity.

種別表68は動作要素の種別を表示する表である。タブ622は動作要素表62を観点毎に切り替えるためのタブである。無効欄66は無効時間に関する情報を表示する欄である。無効割合グラフ660は要素時間に対する無効時間の割合を表示した棒グラフである。計測回数欄661は計測回数を表示する欄である。全体計測欄662は取得した動画内で無効時間を計測した回数を示す全体計測回数を表示する欄である。   The type table 68 is a table that displays types of operation elements. A tab 622 is a tab for switching the operation element table 62 for each viewpoint. The invalid column 66 is a column for displaying information regarding the invalid time. The invalid ratio graph 660 is a bar graph that displays the ratio of invalid time to element time. The number-of-measurements column 661 is a column for displaying the number of measurements. The total measurement column 662 is a column for displaying the total number of measurements indicating the number of times the invalid time has been measured in the acquired moving image.

観点分析画面6の動作は以下の通りである。図16に示すようにユーザがタブ622の「View1」を入力部14で選択した場合、CPU11は要素情報DB12Aを参照し、作業員Aに関する動作要素の情報を表示ウィンドウ61、動作要素表62、種別グラフ63、集計表64及び稼動グラフ65を表示する。CPU11は種別表68Aに作業員Aの動作要素の種別を表示し、種別表68Bに作業種類の動作要素の種別を表示する。CPU11は無効欄66において要素時間に対する無効時間の割合を無効割合グラフ660の下側に表示し、要素時間に対する動作時間の割合を無効割合グラフ660の上側に表示する。例えばCPU11は動作要素表62の1行目の動作要素を選択した場合、行番号に対応する左端の無効割合グラフ66Aを選択する。CPU11は要素情報DB12Aを参照し、計測回数欄661に選択した動作要素に対応する計測回数を表示する。CPU11は要素情報DB12A及び12B等の複数のデータベースの計測回数列の計測回数を合計することで全体計測回数を算出する。CPU11は算出した全体計測回数を全体計測欄662に表示する。   The operation of the viewpoint analysis screen 6 is as follows. As shown in FIG. 16, when the user selects “View 1” on the tab 622 with the input unit 14, the CPU 11 refers to the element information DB 12 </ b> A and displays information on the operation elements related to the worker A in the display window 61, the operation element table 62, A type graph 63, a summary table 64, and an operation graph 65 are displayed. The CPU 11 displays the type of the operation element of the worker A in the type table 68A, and displays the type of the operation element of the work type in the type table 68B. The CPU 11 displays the ratio of the invalid time to the element time in the invalid column 66 below the invalid ratio graph 660 and displays the ratio of the operation time to the element time above the invalid ratio graph 660. For example, when the CPU 11 selects the operation element on the first line of the operation element table 62, the CPU 11 selects the invalid rate graph 66A at the left end corresponding to the line number. The CPU 11 refers to the element information DB 12A and displays the number of times of measurement corresponding to the selected operation element in the number of times of measurement column 661. The CPU 11 calculates the total number of times of measurement by summing up the number of times of measurement in the number-of-measurement sequence of a plurality of databases such as element information DBs 12A and 12B. The CPU 11 displays the calculated total number of measurements in the total measurement column 662.

図17に示すようにユーザがタブ622の「View2」を入力部14で選択した場合、CPU11は要素情報DB12Bを参照し、作業員Bに関する動作要素の情報を表示ウィンドウ61、動作要素表62、種別グラフ63、集計表64、稼動グラフ65、種別表68及び無効欄66を表示する。   As shown in FIG. 17, when the user selects “View 2” on the tab 622 with the input unit 14, the CPU 11 refers to the element information DB 12 </ b> B and displays information on the operation elements related to the worker B in the display window 61, the operation element table 62, A type graph 63, a summary table 64, an operation graph 65, a type table 68, and an invalid column 66 are displayed.

ユーザはタブ622を切り替えることで作業員A及び作業員Bの情報を比較し、作業員A及び作業員B夫々の標準時間等の設定に利用することができる。例えば、作業員Aの動作要素「右側の溶接」の無効時間が「0.50」であり、かつ作業員Bの動作要素「左側の溶接」の無効時間が「1.00」である場合、ユーザは無効割合グラフ660で作業員Bに対して作業員Aの無効時間の割合が少ないことが解る。ユーザは計測回数欄661で作業員Aに対応する計測回数が「3」であり、かつ作業員Bに対応する計測回数が「4」であることが解る。ユーザは全体計測欄662で作業員Aに対応する全体計測回数が「12」であり、かつ作業員Bに対応する全体計測回数が「16」であることが解る。   The user can compare the information of the worker A and the worker B by switching the tab 622, and can use it for setting the standard time of the worker A and the worker B. For example, when the invalid time of the operation element “right welding” of the worker A is “0.50” and the invalid time of the operation element “left welding” of the worker B is “1.00”, It can be seen from the invalidity ratio graph 660 that the ratio of the invalid time of the worker A to the worker B is small. The user can see in the measurement number column 661 that the measurement number corresponding to the worker A is “3” and the measurement number corresponding to the worker B is “4”. The user understands that the total number of measurements corresponding to the worker A is “12” and the total number of measurements corresponding to the worker B is “16” in the total measurement column 662.

以上よりユーザは作業員Aが熟練の作業員であることが解る。このことによりユーザは作業員Aに対応する動作要素のレーティング率を増加させた値を入力部14で入力する。CPU11は入力したレーティング率及び動作時間に基づいて適正な標準時間を算出する。ユーザがタブ622の「View1」を入力部14で選択し、CPU11は個別コメント欄67に入力を入力部14で受け付ける。ユーザは個別コメント欄67に「作業員Aは熟練である」を入力する。CPU11は個別コメント欄67に「作業員Aは熟練である」を表示する。ユーザがタブ622の「View2」を入力部14で選択し、CPU11は個別コメント欄67に入力を入力部14で受け付ける。ユーザは個別コメント欄67に「作業員Bは新人である」を入力する。CPU11は個別コメント欄67に「作業員Bは新人である」を表示する。   From the above, the user understands that worker A is a skilled worker. Accordingly, the user inputs a value obtained by increasing the rating rate of the motion element corresponding to the worker A through the input unit 14. The CPU 11 calculates an appropriate standard time based on the input rating rate and operation time. The user selects “View 1” on the tab 622 by using the input unit 14, and the CPU 11 receives input from the input unit 14 in the individual comment field 67. The user inputs “worker A is skilled” in the individual comment field 67. The CPU 11 displays “worker A is skilled” in the individual comment column 67. The user selects “View2” on the tab 622 by using the input unit 14, and the CPU 11 receives input from the input unit 14 in the individual comment field 67. The user inputs “worker B is a new employee” in the individual comment field 67. The CPU 11 displays “worker B is a new employee” in the individual comment field 67.

図18〜19は本実施形態における情報処理システムの処理手順を示したフローチャートである。CPU11はタブ622で観点の選択を入力部14で受け付ける(ステップS51)。CPU11は選択した観点に基づいて要素情報DB121を読み込む(ステップS52)。CPU11は動作要素、非定常情報、種別、開始時間、要素時間、動作時間、無効時間、比較値、差異、区分、レーティング率及び標準時間等を記憶部12から読込又は入力部14で入力を受け付け(ステップS53)、処理をS12に移す。ステップS12〜S18の処理は上述の実施の形態1に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はS18の処理を終了した後、一の動画データを表示ウィンドウ61に表示する(ステップS54)。CPU11は要素時間、動作時間及び無効時間に基づいて無効割合グラフ660を表示する(ステップS55)。CPU11は計測回数及び全体計測回数の夫々を計測回数欄661及び全体計測欄662の夫々に表示する(ステップS56)。CPU11は個別コメント欄67に個別コメントを表示し(ステップS57)、タブ622で観点の選択を入力部14で受け付ける(ステップS58)。CPU11は異なる観点を選択したか否かを判定する(ステップS59)。CPU11は異なる観点を選択しなかったと判定した場合(ステップS59:NO)、異なる観点を選択するまで待機する。CPU11は異なる観点を選択したと判定した場合(ステップS59:YES)、内容の異なる動作要素表62等を表示する画面に切り替え(ステップS60)、処理をステップS52に移し、処理を繰り返す。   18 to 19 are flowcharts showing the processing procedure of the information processing system in this embodiment. The CPU 11 accepts the selection of the viewpoint by the tab 622 by the input unit 14 (step S51). CPU11 reads element information DB121 based on the selected viewpoint (step S52). The CPU 11 reads the operation element, non-stationary information, type, start time, element time, operation time, invalid time, comparison value, difference, classification, rating rate, standard time, etc. from the storage unit 12 or accepts input by the input unit 14 (Step S53), the process proceeds to S12. Since the processes in steps S12 to S18 are the same as those in the information processing system according to the first embodiment, the description thereof is omitted for the sake of brevity. CPU11 displays the one moving image data on the display window 61 after complete | finishing the process of S18 (step S54). The CPU 11 displays the invalid rate graph 660 based on the element time, the operation time, and the invalid time (step S55). The CPU 11 displays the measurement count and the total measurement count in the measurement count column 661 and the total measurement column 662, respectively (step S56). The CPU 11 displays the individual comment in the individual comment field 67 (step S57), and accepts selection of the viewpoint by the input unit 14 using the tab 622 (step S58). The CPU 11 determines whether a different viewpoint has been selected (step S59). When it is determined that a different viewpoint has not been selected (step S59: NO), the CPU 11 waits until a different viewpoint is selected. If the CPU 11 determines that a different viewpoint has been selected (step S59: YES), the CPU 11 switches to a screen that displays the operation element table 62 or the like having a different content (step S60), moves the process to step S52, and repeats the process.

一つの側面では、観点毎に種別グラフ63の表示をタブ622により切り替えることで観点毎の種別又は動作時間等の比較が容易になる。   In one aspect, by switching the display of the type graph 63 for each viewpoint using the tab 622, it becomes easy to compare the type or operation time for each viewpoint.

一つの側面では、タブ622を切り替えることで対象物毎に比較することができるため、作業員同士の作業の優劣を即座に理解することができる。このことによりレーティング率の算出に役立てることができる。   In one aspect, by switching the tab 622, it is possible to compare each object, so it is possible to immediately understand the superiority or inferiority of work between workers. This can be used for calculating the rating rate.

一つの側面では、観点毎に稼動グラフ65の表示をタブ622により切り替えることで観点毎の無効合計時間又は準稼動合計時間等の比較が容易になる。このことによりレーティング率の算出に役立てることができる。   In one aspect, by switching the display of the operation graph 65 for each viewpoint using the tab 622, the comparison of the invalid total time or the semi-operation total time for each viewpoint becomes easy. This can be used for calculating the rating rate.

一つの側面では、無効割合グラフ660を表示することで各種別の無効時間の割合を理解することが容易になる。このことによりレーティング率の算出に役立てることができる。   In one aspect, displaying the invalid rate graph 660 makes it easy to understand the rate of each type of invalid time. This can be used for calculating the rating rate.

一つの側面では、動作要素毎に非定常情報を表示することでユーザが周期的な作業であるか否かを理解することができる。このため、周期的な作業であった場合、慣れているためレーティング率を低く設定する等、レーティング率の算出に役立てることができる。   In one aspect, the non-stationary information is displayed for each operation element, so that the user can understand whether or not the work is a periodic operation. For this reason, if it is a periodic work, it can be used to calculate the rating rate, such as setting the rating rate low because it is used to it.

(実施の形態5)
実施の形態5は非定常情報に関する情報を分析するためのサイクル画面7を表示する実施の形態に関する。以下、特に説明する構成、作用以外の構成及び作用は実施の形態1と同等であり、簡潔のため記載を省略する。記憶部12はさらに非定常情報DB127を備える。
(Embodiment 5)
The fifth embodiment relates to an embodiment in which a cycle screen 7 for analyzing information related to non-stationary information is displayed. In the following, the configuration and operation other than those specifically described are the same as those of the first embodiment, and the description is omitted for the sake of brevity. The storage unit 12 further includes a non-stationary information DB 127.

図20は非定常情報DB127に格納されているデータの一例を示す図である。非定常情報DB127は非定常情報に関する情報を記憶するデータベースである。非定常情報DB127は動作要素列、非定常列、種別1列、1サイクル列、2サイクル列及び3サイクル列等を備える。以下、場合により1サイクル列、2サイクル列及び3サイクル列等はサイクル列で代表する。サイクル列は動作要素内の作業が繰り返される回数を示すサイクル数を示し、開始時間列及び要素時間列を備える。非定常情報DB127の動作要素列、非定常列、種別1列、開始時間列及び要素時間列は要素情報DB121と同様の構成であり、簡潔のため記載を省略する。CPU11は要素情報DB121を参照し、サイクル表72の動作要素列、非定常列、作業員A列に動作要素、非定常情報及び種別を非定常情報DB127に記憶させる。CPU11はサイクル画面7で各サイクル列の開始時間及び要素時間の入力を入力部14で受け付け、受け付けた開始時間及び要素時間を各サイクル列の開始時間列及び要素時間列に記憶させる。   FIG. 20 is a diagram illustrating an example of data stored in the non-stationary information DB 127. The unsteady information DB 127 is a database that stores information related to unsteady information. The unsteady information DB 127 includes an operation element row, an unsteady row, a type 1 row, a 1 cycle row, a 2 cycle row, a 3 cycle row, and the like. Hereinafter, in some cases, the 1-cycle train, the 2-cycle train, the 3-cycle train, and the like are represented by cycle trains. The cycle sequence indicates the number of cycles indicating the number of times the work in the operation element is repeated, and includes a start time sequence and an element time sequence. The operation element column, non-stationary column, type 1 column, start time column, and element time column of the non-stationary information DB 127 have the same configuration as the element information DB 121, and are not described for the sake of brevity. The CPU 11 refers to the element information DB 121 and stores the movement element, unsteady information, and type in the movement element row, unsteady row, and worker A row of the cycle table 72 in the unsteady information DB 127. The CPU 11 accepts the input of the start time and element time of each cycle train on the cycle screen 7 by the input unit 14 and stores the received start time and element time in the start time train and element time train of each cycle train.

図21はサイクル画面7の一例を示す説明図である。サイクル画面7は左上部に分割された表示ウィンドウ71と、右上部に設けられた種別表78、種別表78の下部に設けられたサイクル表72と、表示ウィンドウ71の下部に設けられたサイクルコメント欄77とを備える。表示ウィンドウ71の左端にはレーティング率欄711が設けられている。表示ウィンドウ71の左上部には決定レーティング率欄712が設けられている。サイクル表72は下部に合計欄721を備える。サイクル表72は非定常情報に関する情報を表示するための表である。表示ウィンドウ71、サイクルコメント欄77及び種別表78は表示ウィンドウ61、個別コメント欄67及び種別表68と同様の構成及び動作であり、簡潔のため記載を省略する。   FIG. 21 is an explanatory diagram showing an example of the cycle screen 7. The cycle screen 7 includes a display window 71 divided in the upper left part, a type table 78 provided in the upper right part, a cycle table 72 provided in the lower part of the type table 78, and a cycle comment provided in the lower part of the display window 71. A column 77; A rating rate column 711 is provided at the left end of the display window 71. In the upper left part of the display window 71, a determined rating rate column 712 is provided. The cycle table 72 includes a total column 721 at the bottom. The cycle table 72 is a table for displaying information related to non-stationary information. The display window 71, the cycle comment column 77, and the type table 78 have the same configuration and operation as the display window 61, the individual comment column 67, and the type table 68, and will not be described for the sake of brevity.

サイクル画面7の動作は以下の通りである。CPU11はサイクル画面7の表示の選択を入力部14で受け付ける。ユーザはサイクル画面7の表示を選択し、CPU11はサイクル画面7を表示する。CPU11は要素情報DB121を参照し、サイクル表72の動作要素列及び作業員A列に動作要素、非定常情報及び種別を表示する。CPU11は動作要素の非定常情報が周期性のある動作を示すか否かを判定する。   The operation of the cycle screen 7 is as follows. The CPU 11 accepts selection of display of the cycle screen 7 by the input unit 14. The user selects display of the cycle screen 7, and the CPU 11 displays the cycle screen 7. The CPU 11 refers to the element information DB 121 and displays the operation element, unsteady information, and type in the operation element column and the worker A column of the cycle table 72. The CPU 11 determines whether or not the non-stationary information of the operation element indicates a periodic operation.

CPU11は動作要素「溶接」、「パネルの固定」及び「ボルトの締め付け」の非定常情報列が×であると判定する。例えば、作業員Aが3回動作要素「溶接」、「パネルの固定」及び「ボルトの締め付け」の作業を行っている場合、CPU11は動作要素「溶接」、「パネルの固定」及び「ボルトの締め付け」の1サイクル列、2サイクル列及び3サイクル列等に入力を入力部14で受け付ける。ユーザは1サイクル列、2サイクル列及び3サイクル列の開始時間及び要素時間を入力部14で入力する。CPU11は動作要素の非定常情報が周期性のない動作を示すと判定した場合、要素情報DB121を参照し、動作要素「金具Aをセット」に対応する1サイクル列に要素情報DB121の開始時間及び要素時間を表示する。CPU11は1サイクル列、2サイクル列及び3サイクル列の要素時間の合計「27.00」、「15.00」及び「18.00」を算出し、算出した要素時間の合計「27.00」、「15.00」及び「18.00」を各サイクル列の下部の合計欄721に表示する。   The CPU 11 determines that the unsteady information sequence of the operation elements “welding”, “panel fixing”, and “bolt tightening” is x. For example, when the worker A performs the operation elements “welding”, “panel fixing” and “bolt tightening” three times, the CPU 11 operates the operation elements “welding”, “panel fixing” and “bolt fixing”. Input is received by the input unit 14 in the 1st cycle sequence, the 2nd cycle sequence, the 3rd cycle sequence, and the like. The user inputs the start time and element time of the 1-cycle sequence, 2-cycle sequence, and 3-cycle sequence through the input unit 14. When the CPU 11 determines that the non-stationary information of the operation element indicates an operation having no periodicity, the CPU 11 refers to the element information DB 121 and sets the start time of the element information DB 121 in one cycle sequence corresponding to the operation element “set metal fitting A”. Displays element time. The CPU 11 calculates the total element time “27.00”, “15.00”, and “18.00” of the 1-cycle sequence, the 2-cycle sequence, and the 3-cycle sequence, and the calculated total element time “27.00”. , “15.00” and “18.00” are displayed in the total column 721 at the bottom of each cycle column.

図22は本実施形態における情報処理システムの処理手順を示したフローチャートである。CPU11はサイクル画面7の表示の選択を入力部14で受け付ける。ステップS11〜S22の処理は上述の実施の形態1に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS22の処理を終了した後、サイクル画面7の表示の選択を入力部14で受け付ける(ステップS61)。CPU11は要素情報DB121に基づいてサイクル表72を表示する(ステップS62)。具体的にはCPU11は要素情報DB121を参照し、サイクル表72の動作要素列及び種別1列に動作要素、非定常情報及び種別を表示する。   FIG. 22 is a flowchart showing the processing procedure of the information processing system in this embodiment. The CPU 11 accepts selection of display of the cycle screen 7 by the input unit 14. Since the processes in steps S11 to S22 are the same as those in the information processing system according to the first embodiment, the description thereof is omitted for the sake of brevity. After completing the process of step S22, the CPU 11 accepts selection of display of the cycle screen 7 by the input unit 14 (step S61). The CPU 11 displays the cycle table 72 based on the element information DB 121 (step S62). Specifically, the CPU 11 refers to the element information DB 121 and displays the operation element, unsteady information, and type in the operation element column and the type 1 column of the cycle table 72.

CPU11は動作要素の非定常情報が周期性のある動作であるか否かを判定する(ステップS63)。CPU11は動作要素の非定常情報が周期性のある動作を示すと判定した場合(ステップS63:YES)、サイクル表72において動作要素に対応する各サイクル列に開始時間及び要素時間の入力を入力部14で受け付ける(ステップS64)。CPU11は受け付けた開始時間及び要素時間を各サイクル列の開始時間列及び要素時間列に表示し(ステップS65)、処理をS67に移す。CPU11は動作要素の非定常情報が周期性のない動作を示すと判定した場合(ステップS63:NO)、要素情報DB121を参照し、動作要素に対応する1サイクル列に要素情報DB121の開始時間及び要素時間を表示する(ステップS66)。CPU11は全ての動作要素について判定を行ったか否かを判定する(ステップS67)。CPU11は全ての動作要素について判定を行っていないと判定した場合(ステップS67:NO)、処理をステップS63に移す。CPU11は全ての動作要素について判定を行ったと判定した場合(ステップS67:YES)、要素時間の合計を算出し、合計欄721に表示し(ステップS68)、処理をS11に移す。   The CPU 11 determines whether or not the non-stationary information of the operation element is a periodic operation (step S63). When the CPU 11 determines that the non-stationary information of the operation element indicates a periodic operation (step S63: YES), the input unit inputs the start time and the element time to each cycle sequence corresponding to the operation element in the cycle table 72. 14 (Step S64). The CPU 11 displays the received start time and element time in the start time string and element time string of each cycle string (step S65), and moves the process to S67. When the CPU 11 determines that the non-stationary information of the operation element indicates an operation having no periodicity (step S63: NO), the CPU 11 refers to the element information DB 121, and sets the start time of the element information DB 121 in one cycle sequence corresponding to the operation element. The element time is displayed (step S66). The CPU 11 determines whether or not determinations have been made for all operating elements (step S67). If the CPU 11 determines that determination has not been performed for all the operating elements (step S67: NO), the process proceeds to step S63. If the CPU 11 determines that all the operation elements have been determined (step S67: YES), the CPU 11 calculates the total element time, displays it in the total column 721 (step S68), and moves the process to S11.

一つの側面によれば、周期性のある動作について詳細に分析することができる。   According to one aspect, a periodic operation can be analyzed in detail.

(実施の形態6)
実施の形態6はワークサンプリング法を用いて動作要素に関する情報を作成する実施の形態に関する。以下、特に説明する構成、作用以外の構成及び作用は実施の形態4及び5と同等であり、簡潔のため記載を省略する。ワークサンプリングとは、作業者が行っている各作業を瞬時に計測して、統計的に集計・分類を行うものである。瞬間的に観測を行うので、作業者は撮影行為を意識せず作業を行える為、比較的実測に近い状態で観測する方法として一般的に用いられている。具体的なワークサンプリング法とは以下の通りである。動画から一定間隔又はランダムな間隔で対象物の画像を所定の回数抽出し、抽出した対象物の画像を分析することで対象物が行う作業種類に係る回数の構成比率を算出する。ユーザは算出した構成比率に基づいて分析画面5、観点分析画面6又はサイクル画面7等により標準時間、動作時間又は無効時間等の動作要素に関する情報を作成する手法である。以下、本実施形態に係る情報処理システムの詳細を説明する。
(Embodiment 6)
Embodiment 6 relates to an embodiment in which information relating to motion elements is created using a work sampling method. In the following, the configuration and operation other than those specifically described are the same as those in Embodiments 4 and 5, and the description is omitted for the sake of brevity. Work sampling is a method in which each work performed by an operator is instantaneously measured and statistically aggregated and classified. Since observation is performed instantaneously, the operator can perform work without being aware of the photographing action, and is therefore generally used as a method of observation in a state relatively close to actual measurement. The specific work sampling method is as follows. The image of the object is extracted a predetermined number of times from the video at regular intervals or at random intervals, and the extracted image of the object is analyzed to calculate the composition ratio of the number of times related to the work type performed by the object. The user is a method of creating information on operation elements such as standard time, operation time, or invalid time from the analysis screen 5, the viewpoint analysis screen 6 or the cycle screen 7 based on the calculated composition ratio. Details of the information processing system according to the present embodiment will be described below.

本実施形態に係る記憶部12はさらにサンプリングテーブル125、対応テーブル126及びサンプリング集計テーブル127を備える。図23はサンプリングテーブル125及び対応テーブル126に格納されているデータの一例を示す図である。サンプリングテーブル125はワークサンプリング法に用いられるサンプリングデータを記憶するデータベースである。本実施形態におけるサンプリングテーブル125はサンプル数(対象物)毎にサンプリングテーブル12A、サンプリングテーブル12B等の複数のデータベースを備える。サンプル数とは1つの画像に映る作業員の数である。図23Aは作業員Aのサンプリングテーブル12Aに格納されているデータの一例を示す図である。図23Bは作業員Bのサンプリングテーブル12Bに格納されているデータの一例を示す図である。   The storage unit 12 according to the present embodiment further includes a sampling table 125, a correspondence table 126, and a sampling total table 127. FIG. 23 is a diagram illustrating an example of data stored in the sampling table 125 and the correspondence table 126. The sampling table 125 is a database that stores sampling data used in the work sampling method. The sampling table 125 in the present embodiment includes a plurality of databases such as the sampling table 12A and the sampling table 12B for each number of samples (objects). The number of samples is the number of workers shown in one image. FIG. 23A is a diagram illustrating an example of data stored in the sampling table 12A of the worker A. FIG. 23B is a diagram illustrating an example of data stored in the sampling table 12B of the worker B.

サンプリングテーブル125は画像ID列、画像列、作業種類列及び稼動情報列等を備える。画像ID列には画像を識別するための画像IDが記憶される。画像列には抽出した画像が画像IDに対応づけて記憶される。作業種類列には表示された画像に対応する対象物が行う作業の種類を示す作業種類が記憶される。作業種類とは例えば「左側の溶接」又は「ロボットによる組み立て」等である。例えば、作業種類列には作業員Aの作業の種類が「左側の溶接」であること又は作業員Aの作業の種類が「ロボットによる組み立て」であること等が記憶される。稼動情報列には対象物が稼動しているか否かを示す稼動情報が画像IDに対応づけて記憶される。稼動情報列には例えば、稼動、非稼動又は準稼動が記憶される。稼動は対象物が稼動していることを示す。非稼動は対象物が非稼動であることを示す。準稼動は対象物が準稼動動作をしていることを示す。   The sampling table 125 includes an image ID column, an image column, a work type column, an operation information column, and the like. An image ID for identifying an image is stored in the image ID column. In the image sequence, the extracted image is stored in association with the image ID. The work type column stores a work type indicating the type of work performed by the object corresponding to the displayed image. The work type is, for example, “left welding” or “assembly by robot”. For example, the work type column stores information indicating that the work type of the worker A is “left side welding” or the work type of the worker A is “assembly by robot”. In the operation information column, operation information indicating whether or not the object is operating is stored in association with the image ID. For example, operation, non-operation, or semi-operation is stored in the operation information column. Operation indicates that the object is operating. Non-operation indicates that the object is non-operation. Semi-operation indicates that the object is performing semi-operation.

CPU11は後述するワークサンプリング画面8で作業種類、稼動情報及び画像IDの入力を入力部14で受け付け、受け付けた情報を対応テーブル126に記憶させる。   The CPU 11 accepts input of work type, operation information, and image ID on the work sampling screen 8 to be described later by the input unit 14 and stores the accepted information in the correspondence table 126.

図24は複数の作業種類毎にまとめた作業工程と画像ID等とを対応づける対応テーブル126に格納されているデータの一例を示す図である。対応テーブル126は作業工程列及び画像ID列を備える。作業工程列には作業工程が記憶される。画像ID列には画像IDが作業工程に対応づけて記憶される。CPU11は作業工程及び画像IDの選択を受け付け、受け付けた作業工程及び画像IDを対応づけて対応テーブル126に記憶させる。   FIG. 24 is a diagram showing an example of data stored in the correspondence table 126 for associating work processes, image IDs, and the like collected for a plurality of work types. The correspondence table 126 includes a work process column and an image ID column. A work process is stored in the work process column. An image ID is stored in the image ID column in association with a work process. The CPU 11 receives the selection of the work process and the image ID, and stores the received work process and the image ID in the correspondence table 126 in association with each other.

図25はサンプリング集計テーブル127に格納されているデータの一例を示す図である。サンプリング集計テーブル127はサンプリングデータを集計したサンプリング集計データを記憶するデータベースである。サンプリング集計テーブル127は生成動画列、作業工程列、サンプリング回数列、稼動数列、準稼動数列及び非稼動数列を備える。生成動画列には画像から生成した生成動画の名称が記憶される。生成動画は取得した動画から画像を抽出し、抽出した画像を時系列順に並べることで生成する。作業工程列には作業工程が記憶される。サンプリング回数列にはサンプリング回数が記憶される。サンプリング回数とは画像を取得した取得回数である。稼動数列には稼動情報が「稼動」である画像の数を計数した稼動数が記憶される。準稼動数列には稼動情報が「準稼動」である画像の数を計数した準稼動数が記憶される。非稼動数列には稼動情報が「非稼動」である画像の数を計数した非稼動数が記憶される。サンプリング回数列、稼動数列、準稼動数列及び非稼動数列の最後の行には夫々、サンプリング回数、稼動数、準稼動数及び非稼動数の合計が記憶される。CPU11は動画の名称を自動的に生成する。CPU11は生成した動画の名称をサンプリング集計テーブル127に記憶させる。CPU11は後述する算出方法でサンプリング回数、稼動数、準稼動数及び非稼動数を算出し、算出したサンプリング回数、稼動数、準稼動数及び非稼動数をサンプリング集計テーブル127に記憶させる。   FIG. 25 is a diagram illustrating an example of data stored in the sampling total table 127. The sampling total table 127 is a database that stores sampling total data obtained by totaling sampling data. The sampling total table 127 includes a generated moving image column, a work process column, a sampling number column, an operation number column, a semi-operation number column, and a non-operation number column. The name of the generated moving image generated from the image is stored in the generated moving image sequence. The generated moving image is generated by extracting an image from the acquired moving image and arranging the extracted images in time series. A work process is stored in the work process column. The number of samplings is stored in the sampling number column. The number of times of sampling is the number of times that an image has been acquired. In the operation number column, the operation number obtained by counting the number of images whose operation information is “operation” is stored. The semi-operation number column stores the number of semi-operations obtained by counting the number of images whose operation information is “semi-operation”. The non-operating number column stores the non-operating number obtained by counting the number of images whose operation information is “non-operating”. The last number of the sampling number column, the operation number column, the semi-operation number column, and the non-operation number column stores the total of the sampling number, the operation number, the semi-operation number, and the non-operation number, respectively. The CPU 11 automatically generates a movie name. The CPU 11 stores the name of the generated moving image in the sampling total table 127. The CPU 11 calculates the number of samplings, the number of operations, the number of semi-operations, and the number of non-operations by a calculation method to be described later, and stores the calculated number of samplings, number of operations, semi-operations, and number of non-operations in the sampling total table 127.

図26はワークサンプリング法を実行するためのワークサンプリング画面8の一例を示す説明図である。ワークサンプリング画面8は左上部に設けられた観測モード選択欄82と、観測モード選択欄82の下部に設けられた計測選択欄83と、計測選択欄83の下部に設けられた開始ボタン84と、観測モード選択欄82、計測選択欄83及び開始ボタン84の右部に設けられた画像欄81と、画像欄81の下部に設けられた作業種類表85と、作業種類表85の下部に設けられたサンプリング表86と、サンプリング表86の左下部に設けられた算出欄87と、算出欄87の右部に設けられた稼動グラフ88と、右部に設けられた画像欄81A及び81B等と、右上部に設けられたボタン89A、89B、89C及び89D等と、登録ボタン80と、ボタン810とを備える。   FIG. 26 is an explanatory diagram showing an example of the work sampling screen 8 for executing the work sampling method. The work sampling screen 8 includes an observation mode selection field 82 provided at the upper left, a measurement selection field 83 provided at the lower part of the observation mode selection field 82, a start button 84 provided at the lower part of the measurement selection field 83, An image field 81 provided on the right side of the observation mode selection field 82, the measurement selection field 83, and the start button 84, a work type table 85 provided below the image field 81, and a lower part of the work type table 85. A sampling table 86, a calculation column 87 provided in the lower left part of the sampling table 86, an operation graph 88 provided in the right part of the calculation column 87, image columns 81A and 81B provided in the right part, and the like. Buttons 89A, 89B, 89C, 89D, etc. provided in the upper right part, a registration button 80, and a button 810 are provided.

以下、画像欄81A、81B等は場合により画像欄811で代表する。稼動グラフ88は非稼動部分88A、準稼動部分88B及び稼動部分88Cにより構成される。以下、ボタン89A、89B、89C及び89D等は場合によりボタン89で代表する。画像欄81は選択した画像を表示する欄である。画像欄811は取得した画像を表示する欄である。観測モード選択欄82は観測モードを選択するための欄である。計測選択欄83は計測方法を選択するための欄である。開始ボタン84はワークサンプリングを実行するためのボタンである。作業種類表85は作業種類を表示するための表である。サンプリング表86はワークサンプリング法に用いられるデータを表示する表である。算出欄87は十分な確からしさを得るために必要サンプリング回数を算出する式に入力を行うための欄である。稼動グラフ88は稼動数、準稼動数及び非稼動数の割合を表示した円グラフである。ボタン89A、89B、89C及び89Dの夫々は分析画面5、観点分析画面6、サイクル画面7及びワークサンプリング画面8の夫々を表示するためのボタンである。登録ボタン80は作業種類を登録するためのボタンである。なお、ボタン810は後述する実施の形態で用いるため、本実施形態では説明を省略する。   Hereinafter, the image columns 81A, 81B and the like are represented by the image column 811 depending on the case. The operation graph 88 includes a non-operation part 88A, a semi-operation part 88B, and an operation part 88C. Hereinafter, the buttons 89A, 89B, 89C, 89D and the like are represented by the button 89 in some cases. The image column 81 is a column for displaying the selected image. The image column 811 is a column for displaying the acquired image. The observation mode selection column 82 is a column for selecting an observation mode. The measurement selection column 83 is a column for selecting a measurement method. The start button 84 is a button for executing work sampling. The work type table 85 is a table for displaying work types. The sampling table 86 is a table that displays data used in the work sampling method. The calculation column 87 is a column for inputting a formula for calculating the number of samplings required to obtain sufficient accuracy. The operation graph 88 is a pie chart displaying the ratio of the number of operations, the number of semi-operations, and the number of non-operations. Buttons 89A, 89B, 89C and 89D are buttons for displaying the analysis screen 5, the viewpoint analysis screen 6, the cycle screen 7 and the work sampling screen 8, respectively. The registration button 80 is a button for registering a work type. Note that since the button 810 is used in an embodiment described later, the description thereof is omitted in this embodiment.

ワークサンプリング画面8の動作は以下の通りである。CPU11は後述する登録ボタン80を入力部14で登録ボタン80の選択を受け付け、ユーザが登録ボタン80を入力部14で選択した場合、CPU11は作業種類表85に作業種類の入力を入力部14で受け付ける。CPU11は受け付けた作業種類を作業種類表85に表示し、サンプリングテーブル125に記憶させる。観測モード選択欄82は時間帯別観測モード及び多人数観測モードを選択することができる。ユーザが入力部14で時間帯別観測モードを選択した場合、一の対象物に注目してワークサンプリングを実行する。ユーザが入力部14で多人数観測モードを選択した場合、複数の対象物に注目してワークサンプリングを実行する。   The operation of the work sampling screen 8 is as follows. The CPU 11 accepts selection of a registration button 80 to be described later using the input unit 14, and when the user selects the registration button 80 using the input unit 14, the CPU 11 inputs the work type to the work type table 85 using the input unit 14. Accept. The CPU 11 displays the accepted work type in the work type table 85 and stores it in the sampling table 125. The observation mode selection field 82 can select a time zone observation mode and a multi-person observation mode. When the user selects the observation mode classified by time zone with the input unit 14, the work sampling is executed while paying attention to one object. When the user selects the multi-person observation mode with the input unit 14, the work sampling is executed while paying attention to a plurality of objects.

計測選択欄83はランダム時刻表計測及び定時計測を選択することができる。ユーザが入力部14でランダム時刻表計測を選択した場合、CPU11は取得した動画からランダムな時間で画像を抽出する。ユーザが入力部14で定時計測を選択した場合、CPU11は取得した動画から所定の時間間隔で画像を抽出する。所定の時間間隔とは例えば0.1秒である。   In the measurement selection field 83, random timetable measurement and scheduled measurement can be selected. When the user selects random timetable measurement with the input unit 14, the CPU 11 extracts an image at random time from the acquired moving image. When the user selects the timed measurement with the input unit 14, the CPU 11 extracts images from the acquired moving image at predetermined time intervals. The predetermined time interval is, for example, 0.1 seconds.

ユーザが例えば、入力部14で時間帯別観測モードを選択し、ランダム時刻表計測を選択し、かつ開始ボタン84を選択した場合、取得した動画からランダムで作業員Aの画像を抽出し、抽出した作業員Aの画像を画像欄811に表示する。またユーザが例えば、入力部14で多人数観測モードを選択し、定時計測を選択し、かつ開始ボタン84を選択した場合、取得した動画から所定の時間間隔で作業員A及びBの画像を抽出し、抽出した作業員A及びBの画像を画像欄811に表示する。   For example, when the user selects an observation mode by time zone with the input unit 14, selects random timetable measurement, and selects the start button 84, the image of the worker A is extracted at random from the acquired video and extracted. The image of the worker A who has done is displayed in the image column 811. For example, when the user selects the multi-person observation mode with the input unit 14, selects the scheduled measurement, and selects the start button 84, the images of the workers A and B are extracted from the acquired video at predetermined time intervals. The extracted images of the workers A and B are displayed in the image column 811.

ユーザが例えば画像欄81Aの画像Aを選択した場合、CPU11は画像Aを画像欄81に表示する。CPU11は作業種類表85の作業種類の選択を入力部14で受け付ける。ユーザは入力部14で作業種類表85から「左側の溶接」を選択する。CPU11は画像Aの画像ID「001」に作業種類「左側の溶接」を対応づけ、サンプリングテーブル125に記憶させる。CPU11は稼動情報の入力を入力部14で受け付ける。ユーザは稼動情報「準稼動」を入力する。CPU11は受け付けた稼動情報「準稼動」を画像Aの画像ID「001」に対応づけてサンプリングテーブル125に記憶させる。   For example, when the user selects the image A in the image column 81 </ b> A, the CPU 11 displays the image A in the image column 81. The CPU 11 accepts selection of a work type in the work type table 85 via the input unit 14. The user selects “left side welding” from the work type table 85 using the input unit 14. The CPU 11 associates the work type “welding on the left side” with the image ID “001” of the image A and stores it in the sampling table 125. The CPU 11 receives input of operation information at the input unit 14. The user inputs operation information “semi-operation”. The CPU 11 stores the received operation information “semi-operation” in the sampling table 125 in association with the image ID “001” of the image A.

ユーザが画像ID、作業種類及び稼動情報の対応づけを終えた後、CPU11は対応テーブル126及びサンプリングテーブル125を参照し、作業工程に対応するサンプリング回数及び稼動数、準稼動数、非稼動数を算出する。具体的にはCPU11は溶接に対応する画像IDが画像ID「001〜004」であるため、図23A及び図23Bに示すように、サンプリング回数「7」、稼動数「2」、準稼動数「3」、非稼動数「2」を算出する。以下同様であり、簡潔のため記載を省略する。CPU11は算出したサンプリング回数、稼動数、準稼動数及び非稼動数の合計を算出し、算出した稼動数、準稼動数及び非稼動数の合計をサンプリング回数で割り、100を積算することで構成比を算出する。構成比とは稼動数、準稼動数及び非稼動数の比率である。CPU11は動画の名称、作業工程、サンプリング回数、稼動数、準稼動数及び非稼動数をサンプリング表86に表示する。CPU11は動画の名称、作業工程、サンプリング回数、稼動数、準稼動数及び非稼動数をサンプリング集計テーブル127に記憶させる。   After the user finishes associating the image ID, work type, and operation information, the CPU 11 refers to the correspondence table 126 and the sampling table 125, and determines the number of sampling times, the number of operations, the number of semi-operations, and the number of non-operations corresponding to the work process. calculate. Specifically, since the image ID corresponding to welding is the image ID “001 to 004”, the CPU 11 has a sampling count “7”, an operation count “2”, and a semi-operation count “as shown in FIGS. 23A and 23B. 3 ”and the non-operating number“ 2 ”are calculated. The same applies hereinafter, and the description is omitted for the sake of brevity. The CPU 11 is configured by calculating the total of the calculated sampling number, operating number, semi-operating number, and non-operating number, dividing the calculated total operating number, semi-operating number, and non-operating number by the sampling number, and adding 100. Calculate the ratio. The composition ratio is the ratio of the number of operations, the number of semi-operations, and the number of non-operations. The CPU 11 displays the name of the moving image, the work process, the number of samplings, the number of operations, the number of semi-operations, and the number of non-operations in the sampling table 86. The CPU 11 stores the name of the moving image, the work process, the number of samplings, the number of operations, the number of semi-operations, and the number of non-operations in the sampling total table 127.

CPU11は算出欄87の各欄に数値を入力部14で受け付ける。ユーザは各欄に数値を入力する。CPU11は入力した数値を式に代入し、必要サンプリング回数を算出する。算出欄87に表示された式は例えば下記の通りである。
N=t×t×(1−P)÷(S×S×P)
N:必要サンプリング回数、t:信頼度、S:精度、P:構成比
CPU11はサンプリング回数が必要サンプリング回数以下か否かを判定する。CPU11はサンプリング回数が必要サンプリング回数以下であると判定した場合、算出欄87に所定のメッセージを表示する。所定のメッセージとは例えば「サンプリング回数が不足しています」である。
The CPU 11 receives numerical values in the respective fields of the calculation field 87 by the input unit 14. The user inputs a numerical value in each column. The CPU 11 substitutes the input numerical value into the formula and calculates the required number of samplings. The formula displayed in the calculation column 87 is as follows, for example.
N = t * t * (1-P) / (S * S * P)
N: Required sampling count, t: Reliability, S: Accuracy, P: Composition ratio The CPU 11 determines whether the sampling count is equal to or less than the required sampling count. When the CPU 11 determines that the sampling count is equal to or less than the required sampling count, the CPU 11 displays a predetermined message in the calculation column 87. The predetermined message is, for example, “insufficient number of samplings”.

CPU11はサンプリングテーブル125を参照し、稼動情報及び作業時間に基づいて稼動グラフ88を生成する。CPU11が稼動グラフ88を生成する処理は以下の通りである。CPU11はサンプリング回数に対する非稼動数の割合で非稼動部分88Aを生成する。CPU11はサンプリング回数に対する準稼動数の割合で準稼動部分88Bを生成する。CPU11はサンプリング回数に対する稼動数の割合で稼動部分88Cを生成する。CPU11は生成した非稼動部分88A、準稼動部分88B及び稼動部分88Cに基づいて稼動グラフ88を生成し、表示する。すなわちCPU11は各画像内の対象物が稼動している割合を表示する。ユーザは例えば、稼動グラフ88で非稼動数、稼動数又は準稼動数の割合が多いことが即座に確認できる。このため、ユーザは稼動グラフ88を確認することでおおよそのレーティング率を決定することができる。   The CPU 11 refers to the sampling table 125 and generates an operation graph 88 based on the operation information and work time. The process in which the CPU 11 generates the operation graph 88 is as follows. The CPU 11 generates the non-operating part 88A at the ratio of the non-operating number to the sampling count. The CPU 11 generates the semi-operation portion 88B at the ratio of the semi-operation number to the sampling count. The CPU 11 generates the operating portion 88C at the ratio of the operating number to the sampling count. The CPU 11 generates and displays an operation graph 88 based on the generated non-operation part 88A, semi-operation part 88B, and operation part 88C. That is, the CPU 11 displays the rate at which the object in each image is operating. For example, the user can immediately confirm from the operation graph 88 that the ratio of the non-operation number, the operation number, or the semi-operation number is large. For this reason, the user can determine an approximate rating rate by checking the operation graph 88.

ユーザがボタン89A、89B及び89Cの夫々を入力部14で選択した場合、CPU11は分析画面5、観点分析画面6及びサイクル画面7の夫々を表示する。ボタン89A、89B及び89Cは分析画面5、観点分析画面6及びサイクル画面7にも設けられており、同様の動作を行う。さらに分析画面5、観点分析画面6及びサイクル画面7でユーザがボタン89Dを選択した場合、ワークサンプリング画面8を表示する。   When the user selects each of the buttons 89A, 89B, and 89C with the input unit 14, the CPU 11 displays the analysis screen 5, the viewpoint analysis screen 6, and the cycle screen 7, respectively. The buttons 89A, 89B, and 89C are also provided on the analysis screen 5, the viewpoint analysis screen 6, and the cycle screen 7, and perform the same operation. Further, when the user selects the button 89D on the analysis screen 5, the viewpoint analysis screen 6, and the cycle screen 7, the work sampling screen 8 is displayed.

図27〜29は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S22、S51〜S58及びS61〜68の処理は上述の実施の形態4及び5に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11は入力部14で観測モードの入力を入力部14で受け付ける(ステップS71)。CPU11は入力部14で計測方法の入力を入力部14で受け付ける(ステップS72)。CPU11は入力部14で開始ボタン84の選択がされたか否かを判定する(ステップS73)。CPU11は入力部14で開始ボタン84の選択がされなかったと判定した場合(ステップS73:NO)、処理をS71に移す。CPU11は入力部14で開始ボタン84の選択がされたと判定した場合(ステップS73:YES)、観測モード及び計測方法に基づいてワークサンプリング法により画像の抽出を実行する(ステップS74)。   27 to 29 are flowcharts showing the processing procedure of the information processing system in this embodiment. Since the processes of steps S11 to S22, S51 to S58, and S61 to 68 are the same as those of the information processing system according to the above-described fourth and fifth embodiments, the description thereof is omitted for the sake of brevity. CPU11 receives the input of observation mode in the input part 14 by the input part 14 (step S71). The CPU 11 receives an input of a measurement method at the input unit 14 (step S72). The CPU 11 determines whether or not the start button 84 has been selected on the input unit 14 (step S73). If the CPU 11 determines that the start button 84 has not been selected by the input unit 14 (step S73: NO), the process proceeds to S71. When the CPU 11 determines that the start button 84 has been selected by the input unit 14 (step S73: YES), the CPU 11 performs image extraction by the work sampling method based on the observation mode and the measurement method (step S74).

CPU11は入力部14で画像の選択を入力部14で受け付ける(ステップS75)。CPU11は作業種類及び稼動情報の入力を入力部14で受け付ける(ステップS76)。CPU11は受け付けた画像の画像IDに作業種類及び稼動情報を対応づける(ステップS77)。CPU11は対応テーブル126及びサンプリングテーブル125を参照し、作業工程に対応するサンプリング回数、稼動数、準稼動数及び非稼動数を算出する(ステップS78)。CPU11は算出したサンプリング回数、稼動数、準稼動数及び非稼動数の合計を算出し、算出した稼動数、準稼動数及び非稼動数の合計をサンプリング回数で割り、100を積算することで構成比を算出する(ステップS79)。CPU11は動画の名称、作業工程、サンプリング回数、稼動数、準稼動数及び非稼動数をサンプリング表86に表示する(ステップS80)。CPU11は算出欄87の各欄に入力を入力部14で受け付ける(ステップS81)。CPU11は算出欄87の各欄に入力された値に基づいて必要サンプリング回数を算出する(ステップS82)。CPU11はサンプリング回数が必要サンプリング回数以下であるか否かを判定する(ステップS83)。   The CPU 11 receives an image selection at the input unit 14 at the input unit 14 (step S75). The CPU 11 accepts input of work type and operation information at the input unit 14 (step S76). The CPU 11 associates the work type and the operation information with the image ID of the received image (step S77). The CPU 11 refers to the correspondence table 126 and the sampling table 125, and calculates the number of samplings, the number of operations, the number of semi-operations, and the number of non-operations corresponding to the work process (step S78). The CPU 11 is configured by calculating the total of the calculated sampling number, operating number, semi-operating number, and non-operating number, dividing the calculated total operating number, semi-operating number, and non-operating number by the sampling number, and adding 100. The ratio is calculated (step S79). The CPU 11 displays the name of the moving image, the work process, the number of samplings, the number of operations, the number of semi-operations, and the number of non-operations on the sampling table 86 (step S80). The CPU 11 accepts input to each field of the calculation field 87 by the input unit 14 (step S81). The CPU 11 calculates the required number of samplings based on the values input in each field of the calculation field 87 (step S82). The CPU 11 determines whether or not the number of samplings is less than or equal to the required number of samplings (step S83).

CPU11はサンプリング回数が必要サンプリング回数以下でないと判定した場合(ステップS83:NO)、すなわちサンプリング回数が必要サンプリング回数を超えたと判定した場合、処理をS85に移す。CPU11はサンプリング回数が必要サンプリング回数以下であると判定した場合(ステップS83:YES)、算出欄87に所定のメッセージを表示する(ステップS84)。CPU11は稼動数、準稼動数、非稼動数及びサンプリング回数の合計に基づいて稼動グラフ55を表示する(ステップS85)。   If the CPU 11 determines that the sampling count is not less than or equal to the required sampling count (step S83: NO), that is, determines that the sampling count exceeds the required sampling count, the process proceeds to S85. When the CPU 11 determines that the number of samplings is equal to or less than the required number of samplings (step S83: YES), the CPU 11 displays a predetermined message in the calculation column 87 (step S84). The CPU 11 displays the operation graph 55 based on the total of the number of operations, the number of semi-operations, the number of non-operations, and the number of samplings (step S85).

CPU11は分析画面5の表示を選択したか否かを判定する(ステップS86)。すなわち、CPU11はボタン89Aを選択したか否かを判定する。CPU11は分析画面5の表示を選択したと判定した場合(ステップS86:YES)、処理をステップS11に移し、分析画面5の表示処理を行う。CPU11は分析画面5の表示を選択しなかったと判定した場合(ステップS86:NO)、観点分析画面6の表示を選択したか否かを判定する(ステップS87)。すなわち、CPU11はボタン89Bを選択したか否かを判定する。CPU11は観点分析画面6の表示を選択したと判定した場合(ステップS87:YES)、処理をS51に移し、観点分析画面6の表示処理を行う。   The CPU 11 determines whether or not the display of the analysis screen 5 has been selected (step S86). That is, the CPU 11 determines whether the button 89A has been selected. When the CPU 11 determines that the display of the analysis screen 5 has been selected (step S86: YES), the process proceeds to step S11, and the display process of the analysis screen 5 is performed. When determining that the display of the analysis screen 5 has not been selected (step S86: NO), the CPU 11 determines whether the display of the viewpoint analysis screen 6 has been selected (step S87). That is, the CPU 11 determines whether the button 89B has been selected. When the CPU 11 determines that the display of the viewpoint analysis screen 6 is selected (step S87: YES), the CPU 11 moves the process to S51 and performs the display processing of the viewpoint analysis screen 6.

CPU11は観点分析画面6の表示を選択しなかったと判定した場合(ステップS87:NO)、サイクル画面7の表示を選択したか否かを判定する(ステップS88)。すなわち、CPU11はボタン89Cを選択したか否かを判定する。CPU11はサイクル画面7の表示を選択したと判定した場合(ステップS88:YES)、処理をS61に移す。CPU11はサイクル画面7の表示を選択しなかったと判定した場合(ステップS88:NO)、処理をS71に移す。   When determining that the display of the viewpoint analysis screen 6 is not selected (step S87: NO), the CPU 11 determines whether the display of the cycle screen 7 is selected (step S88). That is, the CPU 11 determines whether the button 89C has been selected. If the CPU 11 determines that the display of the cycle screen 7 has been selected (step S88: YES), the process proceeds to S61. If the CPU 11 determines that the display of the cycle screen 7 has not been selected (step S88: NO), the process proceeds to S71.

一つの側面によれば、ワークサンプリング法を用いた動画は比較的実測に近い状態で観測された動画であり、これらの動画を分析又は観点分析を行う事でより精度の高い解析・分析結果を入手することができる。   According to one aspect, videos using the work sampling method are videos that are observed relatively close to actual measurement, and by analyzing or analyzing these videos, more accurate analysis and analysis results can be obtained. It can be obtained.

また、一つの側面によれば、ワークサンプリング法を用いた後で即座に稼動状況の構成比を表示でき、当該構成比から動画の分析画面に即座に移動することができるため、分析時間をより短縮をすることができる。   In addition, according to one aspect, after using the work sampling method, the composition ratio of the operation status can be displayed immediately, and the composition ratio can be immediately moved to the video analysis screen. It can be shortened.

(実施の形態7)
実施の形態7はテンプレートマッチング又はパターンマッチング等の画像処理を用いて作業種類、稼動情報及び画像を対応づける実施の形態に関する。なお、本実施形態における画像処理はテンプレートマッチングを用いる。以下、特に説明する構成、作用以外の構成及び作用は実施の形態5と同等であり、簡潔のため記載を省略する。
(Embodiment 7)
The seventh embodiment relates to an embodiment for associating work types, operation information, and images using image processing such as template matching or pattern matching. Note that the image processing in this embodiment uses template matching. In the following, the configuration and operation other than those specifically described are the same as those of the fifth embodiment, and the description is omitted for the sake of brevity.

記憶部12はさらにテンプレートDB128を備える。図30はテンプレートDB128に格納されているデータの一例を示す図である。テンプレートDB128は画像処理に用いるテンプレート画像(作業画像)と作業種類とを対応づけて記憶させるデータベースである。テンプレートDB128はテンプレート画像列、作業種類列及び稼動情報列等を備える。テンプレート画像列にはテンプレート画像が記憶される。テンプレート画像とは例えば対象物が作業種類の作業を行っている画像である。作業種類列には作業種類が記憶される。稼動情報列には稼動情報が記憶される。   The storage unit 12 further includes a template DB 128. FIG. 30 is a diagram illustrating an example of data stored in the template DB 128. The template DB 128 is a database that stores a template image (work image) used for image processing and a work type in association with each other. The template DB 128 includes a template image row, a work type row, an operation information row, and the like. A template image is stored in the template image sequence. A template image is, for example, an image in which an object performs work of a work type. The work type is stored in the work type column. The operation information is stored in the operation information column.

テンプレートDB128にテンプレート画像及び作業種類を記憶させる方法は以下の通りである。ユーザが本実施形態における登録ボタン80を入力部14で入力した場合、CPU11は図30に示すテンプレート画像を登録するための画像登録画面9を表示する。図31は画像登録画面9の一例を示す説明図である。画像登録画面9は左上部及び左下部に設けられた稼動情報登録欄91A及び91Bと、右部に設けられた画像登録欄92とを備える。以下、場合により稼動情報登録欄91A及び91Bを稼動情報登録欄91で代表する。稼動情報登録欄91は上部に設けられた作業種類欄911と、作業種類欄911の右部に設けられた稼動情報欄912と、左部及び右部に設けられた画像欄913及びテンプレート画像欄914とを備える。画像登録欄92は上部に設けられたテンプレート画像欄921と、画像欄921の左下部に設けられた範囲指定欄922と、範囲指定欄922の右部に設けられた閾値欄923と、範囲指定欄922及び閾値欄923の下部に設けられたコメント欄924とを備える。   A method for storing the template image and the work type in the template DB 128 is as follows. When the user inputs the registration button 80 in the present embodiment with the input unit 14, the CPU 11 displays an image registration screen 9 for registering a template image shown in FIG. FIG. 31 is an explanatory diagram showing an example of the image registration screen 9. The image registration screen 9 includes operation information registration fields 91A and 91B provided in the upper left and lower left, and an image registration field 92 provided in the right part. Hereinafter, the operation information registration fields 91 </ b> A and 91 </ b> B are represented by the operation information registration field 91 in some cases. The operation information registration field 91 includes a work type field 911 provided in the upper part, an operation information field 912 provided in the right part of the work type field 911, an image field 913 and a template image field provided in the left part and the right part. 914. The image registration field 92 includes a template image field 921 provided at the top, a range specification field 922 provided at the lower left of the image field 921, a threshold value field 923 provided at the right part of the range specification field 922, and a range specification. A comment field 924 provided below the field 922 and the threshold value field 923.

稼動情報登録欄91は稼動情報を登録するための欄である。画像登録欄92はテンプレート画像を登録するための欄である。作業種類欄911は作業種類を入力するための欄である。稼動情報欄912は稼動情報を選択するためのチェックボックスである。画像欄913は抽出した画像を表示するための欄である。テンプレート画像欄914はテンプレート画像の範囲を表示するための欄である。テンプレート画像欄921はテンプレート画像の範囲を表示するための欄である。範囲指定欄922はテンプレート画像の範囲を指定するための欄である。閾値欄923はテンプレート画像との一致度の閾値を設定するための欄である。コメント欄924はテンプレート画像に対するコメントを表示するための欄である。   The operation information registration column 91 is a column for registering operation information. The image registration column 92 is a column for registering a template image. The work type column 911 is a column for inputting a work type. The operation information column 912 is a check box for selecting operation information. The image column 913 is a column for displaying the extracted image. The template image column 914 is a column for displaying the range of the template image. The template image column 921 is a column for displaying the range of the template image. A range designation column 922 is a column for designating a template image range. The threshold value column 923 is a column for setting a threshold value of the degree of coincidence with the template image. The comment column 924 is a column for displaying a comment on the template image.

画像登録画面9の動作は以下の通りである。CPU11は稼動情報登録欄91Aにおいて、選択した画像Aを画像欄913及びテンプレート画像欄921に表示する。CPU11は範囲指定欄922で範囲の指定方法の選択を入力部14で受け付ける。範囲の指定方法は例えば、矩形、楕円又は投げ縄等である。例えば、ユーザが入力部14で投げ縄を選択した場合、CPU11はテンプレート画像欄921にN次の曲線を有する輪を表示することができる。CPU11は閾値欄923で閾値の入力を入力部14で受け付ける。ユーザは任意の閾値を入力部14で入力した場合、テンプレート画像欄921でテンプレート画像にする範囲の入力を入力部14で受け付ける。ユーザは入力部14により作業員A及び機械をN次の曲線を有する輪で囲む。CPU11は輪で囲まれた画像を抽出し、抽出した画像を作業種類「左側の溶接」に対応するテンプレート画像AとしてテンプレートDB128に記憶させる。   The operation of the image registration screen 9 is as follows. The CPU 11 displays the selected image A in the image field 913 and the template image field 921 in the operation information registration field 91A. The CPU 11 receives selection of a range designation method in the range designation field 922 through the input unit 14. The range designation method is, for example, a rectangle, an ellipse, or a lasso. For example, when the user selects a lasso with the input unit 14, the CPU 11 can display a ring having an Nth order curve in the template image field 921. The CPU 11 receives an input of the threshold value in the threshold value field 923 at the input unit 14. When the user inputs an arbitrary threshold value with the input unit 14, the input unit 14 receives an input of a range to be a template image in the template image field 921. The user surrounds the worker A and the machine with a ring having an Nth order curve by the input unit 14. The CPU 11 extracts an image surrounded by a ring, and stores the extracted image in the template DB 128 as a template image A corresponding to the work type “left welding”.

CPU11はテンプレート画像欄921の画像と同一の画像をテンプレート画像欄914に表示する。CPU11は作業種類欄911で作業種類の入力を入力部14で受け付ける。ユーザが作業種類「左側の溶接」及び「右側の溶接」を作業種類欄911に入力した場合、テンプレート画像Aと作業種類「左側の溶接」及び「右側の溶接」とを対応づけてテンプレートDB128に記憶させる。CPU11は稼動情報欄912に稼動情報の選択を入力部14で受け付ける。ユーザが稼動情報欄912で稼動情報「準稼動」を選択した場合、テンプレート画像Aと稼動情報「準稼動」とを対応づけてテンプレートDB128に記憶させる。CPU11はコメント欄924にコメントを入力部14で受け付ける。ユーザは「人間をテンプレート画像として設定した」を入力部14で入力する。以下、画像登録画面9は稼動情報登録欄91Bについても同様の動作を行うため、記載を省略する。   The CPU 11 displays the same image as the image in the template image field 921 in the template image field 914. The CPU 11 receives an input of a work type in the work type column 911 via the input unit 14. When the user inputs the work types “left side welding” and “right side welding” in the work type column 911, the template image A is associated with the work types “left side welding” and “right side welding” in the template DB 128. Remember. The CPU 11 accepts selection of operation information in the operation information column 912 by the input unit 14. When the user selects the operation information “semi-operation” in the operation information column 912, the template image A and the operation information “semi-operation” are associated with each other and stored in the template DB 128. The CPU 11 receives a comment in the comment field 924 via the input unit 14. The user inputs “having set a human as a template image” through the input unit 14. Hereinafter, the image registration screen 9 performs the same operation for the operation information registration field 91B, and thus the description is omitted.

ユーザがボタン810を入力部14で入力した場合、観測モード及び計測方法に基づいてワークサンプリング法により画像の抽出を実行した後、テンプレートDB128からテンプレート画像を読み出し、抽出した画像Aにテンプレートマッチングを実行する。CPU11は抽出した画像Aとテンプレート画像Aとの一致度を算出する。具体的にはCPU11は抽出した画像Aとテンプレート画像Aとの相関関数を取ることで画像Aとテンプレート画像Aの相関を算出する。すなわち一致度とは抽出した画像とテンプレート画像との相関値である。CPU11は一致度が閾値欄923で入力した閾値を超えた場合、テンプレートDB128を参照し、テンプレート画像Aに対応する作業種類「左側の溶接」及び「右側の溶接」並びに稼動情報「準稼動」を特定する。CPU11は特定した作業種類「左側の溶接」及び「右側の溶接」並びに稼動情報「準稼動」を画像Aに対応づけ、サンプリングテーブル125に記憶させる。以下、CPU11は抽出した画像について同様の処理を行う。   When the user inputs the button 810 with the input unit 14, the image extraction is performed by the work sampling method based on the observation mode and the measurement method, and then the template image is read from the template DB 128 and the template matching is performed on the extracted image A. To do. The CPU 11 calculates the degree of coincidence between the extracted image A and the template image A. Specifically, the CPU 11 calculates a correlation between the image A and the template image A by taking a correlation function between the extracted image A and the template image A. That is, the degree of coincidence is a correlation value between the extracted image and the template image. When the degree of coincidence exceeds the threshold value input in the threshold value field 923, the CPU 11 refers to the template DB 128 and displays the work types “left side welding” and “right side welding” and operation information “semi-operation” corresponding to the template image A. Identify. The CPU 11 associates the identified work types “left side welding” and “right side welding” and the operation information “semi-operation” with the image A and stores them in the sampling table 125. Thereafter, the CPU 11 performs the same process on the extracted image.

図32〜33は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S89の処理は上述の実施の形態6に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS74の処理を終了した後、画像登録画面9の表示の選択をしたか否かを判定する(ステップS91)。すなわちCPU11は登録ボタン80を入力部14で入力したか否かを判定する。CPU11は画像登録画面9の表示の選択をしなかったと判定した場合(ステップS91:NO)、処理をステップS95に移す。CPU11は画像登録画面9の表示の選択をしたと判定した場合(ステップS91:YES)、画像登録画面9を表示する(ステップS92)。CPU11は画像登録画面9でテンプレート画像、作業種類及び稼動情報を入力部14で受け付ける(ステップS93)。CPU11は受け付けたテンプレート画像、作業種類及び稼動情報をテンプレートDB128に記憶させる(ステップS94)。   32 to 33 are flowcharts showing the processing procedure of the information processing system in this embodiment. Since the processing of steps S11 to S89 is the same as that of the information processing system according to the above-described sixth embodiment, description thereof is omitted for the sake of brevity. After completing the process in step S74, the CPU 11 determines whether display of the image registration screen 9 has been selected (step S91). That is, the CPU 11 determines whether or not the registration button 80 has been input through the input unit 14. If the CPU 11 determines that the display of the image registration screen 9 has not been selected (step S91: NO), the process proceeds to step S95. When it is determined that the display of the image registration screen 9 has been selected (step S91: YES), the CPU 11 displays the image registration screen 9 (step S92). The CPU 11 receives the template image, work type, and operation information by the input unit 14 on the image registration screen 9 (step S93). The CPU 11 stores the received template image, work type, and operation information in the template DB 128 (step S94).

CPU11はテンプレートマッチングの選択をしたか否かを判定する(ステップS95)。すなわちCPU11はボタン810を入力部14で入力したか否かを判定する。CPU11はテンプレートマッチングの選択をしなかったと判定した場合(ステップS95:NO)、処理をS75に移す。CPU11はテンプレートマッチングの選択をしたと判定した場合(ステップS95:YES)、テンプレートDB128からテンプレート画像を読み出し、抽出した画像に画像処理を実行する(ステップS96)。CPU11は表示した画像とテンプレート画像との一致度を算出する(ステップS97)。CPU11は算出した一致度が閾値を超えるか否かを判定する(ステップS98)。CPU11は算出した一致度が閾値を超えないと判定した場合(ステップS98:NO)、処理をステップS101に移す。CPU11は算出した一致度が閾値を超えると判定した場合(ステップS98:YES)、テンプレートDB128を参照し、テンプレート画像に対応する作業種類及び稼動情報を特定する(ステップS99)。CPU11は特定した作業種類及び稼動情報と画像とを対応づける(ステップS100)。   The CPU 11 determines whether template matching has been selected (step S95). That is, the CPU 11 determines whether or not the button 810 has been input through the input unit 14. If the CPU 11 determines that the template matching has not been selected (step S95: NO), the process proceeds to S75. If the CPU 11 determines that template matching has been selected (step S95: YES), the CPU 11 reads the template image from the template DB 128 and executes image processing on the extracted image (step S96). The CPU 11 calculates the degree of coincidence between the displayed image and the template image (step S97). The CPU 11 determines whether or not the calculated coincidence exceeds a threshold value (step S98). If the CPU 11 determines that the calculated degree of coincidence does not exceed the threshold (step S98: NO), the process proceeds to step S101. When the CPU 11 determines that the calculated degree of coincidence exceeds the threshold (step S98: YES), the CPU 11 refers to the template DB 128 and identifies the work type and operation information corresponding to the template image (step S99). The CPU 11 associates the identified work type and operation information with the image (step S100).

CPU11は全ての画像について画像処理を実行したか否かを判定する(ステップS101)。CPU11は全ての画像について画像処理を実行しなかったと判定した場合(ステップS101:NO)、処理をステップS96に移す。CPU11は全ての画像について画像処理を実行したと判定した場合(ステップS101:YES)、処理をS75に移す。   The CPU 11 determines whether image processing has been executed for all images (step S101). If the CPU 11 determines that image processing has not been executed for all images (step S101: NO), the process proceeds to step S96. If the CPU 11 determines that image processing has been executed for all images (step S101: YES), the process proceeds to S75.

一つの側面によれば、画像処理により、画像に作業種類を対応づけることができる。このことによりワークサンプリング法の処理時間を短縮することができる。   According to one aspect, work types can be associated with images by image processing. As a result, the processing time of the work sampling method can be shortened.

(実施の形態8)
実施の形態8は画像の画像IDと動画の再生時間及び動画IDとを対応づけ、かつ動画の再生時間と実施の形態1における動作要素の時間とを対応づけることで画像から動作要素を選択する実施の形態に関する。なお、本実施形態における画像処理はテンプレートマッチングを用いる。以下、特に説明する構成、作用以外の構成及び作用は実施の形態7と同等であり、簡潔のため記載を省略する。
(Embodiment 8)
In the eighth embodiment, an image element ID is associated with a moving image reproduction time and a moving image ID, and a moving element is selected from the image by associating the moving image reproduction time with the operation element time in the first embodiment. It relates to an embodiment. Note that the image processing in this embodiment uses template matching. In the following, the configuration and operation other than those specifically described are the same as those of the seventh embodiment, and the description is omitted for the sake of brevity.

図34はサンプリングテーブル125に格納されているデータの一例を示す図である。サンプリングテーブル125はさらに再生時間列、動画ID列及び動作要素列を備える。再生時間列には動画の再生時間が記憶される。動画ID列には動画を識別するための動画IDが記憶される。動作要素列には動画IDに対応づけられた動作要素が記憶される。CPU11は画像を抽出した場合、画像を抽出した際の動画の再生時間及び動画IDを特定し、特定した再生時間及び動画IDをサンプリングテーブル125に記憶する。CPU11は動作要素の入力を受け付け、受け付けた動作要素をサンプリングテーブル125に記憶する。   FIG. 34 is a diagram illustrating an example of data stored in the sampling table 125. The sampling table 125 further includes a playback time column, a moving image ID column, and an operation element column. The playback time of the moving image is stored in the playback time column. A moving image ID for identifying a moving image is stored in the moving image ID column. An operation element associated with the moving image ID is stored in the operation element column. When the CPU 11 extracts an image, the CPU 11 identifies the moving image reproduction time and the moving image ID when the image is extracted, and stores the identified reproduction time and moving image ID in the sampling table 125. The CPU 11 receives an input of an operation element and stores the received operation element in the sampling table 125.

図35は要素情報DB121に格納されているデータの一例を示す図である。図35に示す要素情報DB121は対象物毎に複数設けられている。各要素情報DB121は動画IDに対応づけられている。例えば、動画ID「11」には図35に示す要素情報DB121が対応づけられている。また動画ID「12」は図示しない他の要素情報DB121が対応づけられている。CPU11は画像を抽出した動画の再生時間及び動画IDを特定し、特定した再生時間及び動画IDを画像に対応づけてサンプリングテーブル125に記憶させる。   FIG. 35 is a diagram illustrating an example of data stored in the element information DB 121. A plurality of element information DBs 121 shown in FIG. 35 are provided for each object. Each element information DB 121 is associated with a moving image ID. For example, the element information DB 121 shown in FIG. 35 is associated with the moving image ID “11”. The moving image ID “12” is associated with another element information DB 121 (not shown). The CPU 11 specifies the reproduction time and the moving image ID of the moving image from which the image is extracted, and stores the specified reproduction time and moving image ID in the sampling table 125 in association with the image.

CPU11は以下の方法により画像に対応づけられた再生時間を用いて画像の並び替えを行うことができる。CPU11は画像を抽出する際に画像を抽出した動画の再生時間及び動画IDを特定する。CPU11は動画ID「11」の動画の内、再生時間「2.0」に対応づけられた画像ID「001」の画像Aを画像欄81Aに配置し、再生時間「4.0」に対応づけられた画像ID「003」の画像Cを画像欄81Bに配置する。CPU11は動画ID「12」の動画の内、再生時間「3.0」に対応づけられた画像ID「002」の画像Bを画像欄81Aの左部に配置し、再生時間「5.0」に対応づけられた画像ID「004」の画像Dを画像欄81Bの左部に配置する。すなわち、CPU11は動画ID毎に再生時間順に画像欄811を並び替える。   The CPU 11 can rearrange the images using the reproduction time associated with the images by the following method. When extracting the image, the CPU 11 specifies the playback time and the moving image ID of the moving image from which the image is extracted. The CPU 11 arranges the image A with the image ID “001” associated with the reproduction time “2.0” in the image column 81A among the moving images with the animation ID “11”, and associates it with the reproduction time “4.0”. The image C having the image ID “003” is arranged in the image column 81B. The CPU 11 arranges the image B with the image ID “002” associated with the reproduction time “3.0” in the moving image with the reproduction ID “12” in the left part of the image column 81A, and the reproduction time “5.0”. The image D with the image ID “004” associated with is arranged in the left part of the image column 81B. That is, the CPU 11 rearranges the image column 811 in order of reproduction time for each moving image ID.

画像から動作要素を選択する方法は以下の通りである。ユーザは画像欄811の画像Aを入力部14で選択する。CPU11は入力部14を介して画像Aの選択を受け付ける。CPU11は画像欄81に受け付けた画像Aを表示する。CPU11はサンプリングテーブル125を参照し、画像Aの画像ID「001」に対応づけられた動作要素「溶接」を抽出し、動作要素「溶接」に対応づけられた動画ID「11」を抽出する。ユーザがボタン89A、89B及び89Cの夫々を入力部14で選択した場合、CPU11は動作要素「溶接」を選択した状態で分析画面5、観点分析画面6及びサイクル画面7の夫々を表示する。例えば、ユーザがボタン89Aを選択した場合、CPU11は抽出した動画ID「11」に対応する要素情報DB121を参照し、図7に示す分析画面5を表示し、表示ウィンドウ51Aに動作要素「溶接」に対応する動画101を表示し、抽出した動画ID「11」の要素情報DB121に対応する動作要素表52を表示する。また例えば、ユーザがボタン89Bを選択した場合、CPU11は抽出した動画ID「11」の要素情報DB121を参照し、図16に示す観点分析画面6の表示ウィンドウ61に動作要素「溶接」に対応する動画101を表示し、抽出した動画ID「11」の要素情報DB121の動作要素「溶接」に対応する無効割合グラフ66Aを選択した状態を表示する。例えば、ユーザがボタン89Cを選択した場合、CPU11は抽出した動画ID「11」の要素情報DB121を参照し、図21に示すサイクル画面7の表示ウィンドウ71に動作要素「溶接」に対応する動画101を表示する。   A method for selecting an operation element from an image is as follows. The user selects the image A in the image column 811 with the input unit 14. The CPU 11 accepts selection of the image A via the input unit 14. The CPU 11 displays the received image A in the image column 81. The CPU 11 refers to the sampling table 125, extracts the motion element “weld” associated with the image ID “001” of the image A, and extracts the moving image ID “11” associated with the motion element “weld”. When the user selects each of the buttons 89A, 89B, and 89C with the input unit 14, the CPU 11 displays the analysis screen 5, the viewpoint analysis screen 6, and the cycle screen 7 in a state where the operation element “welding” is selected. For example, when the user selects the button 89A, the CPU 11 refers to the element information DB 121 corresponding to the extracted moving image ID “11”, displays the analysis screen 5 shown in FIG. 7, and displays the operation element “welding” on the display window 51A. And the motion element table 52 corresponding to the element information DB 121 of the extracted video ID “11” is displayed. Further, for example, when the user selects the button 89B, the CPU 11 refers to the element information DB 121 of the extracted moving image ID “11”, and corresponds to the operation element “welding” in the display window 61 of the viewpoint analysis screen 6 shown in FIG. The moving image 101 is displayed, and the state in which the invalid ratio graph 66A corresponding to the operation element “welding” in the element information DB 121 of the extracted moving image ID “11” is selected is displayed. For example, when the user selects the button 89C, the CPU 11 refers to the element information DB 121 of the extracted moving image ID “11”, and displays the moving image 101 corresponding to the operation element “welding” in the display window 71 of the cycle screen 7 shown in FIG. Is displayed.

図36は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S89の処理は上述の実施の形態7に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS74の処理を終了した後、画像を抽出した際の動画の再生時間及び動画IDを特定する(ステップS101)。CPU11は動画ID毎に再生時間順に画像を並び替え(ステップS102)、処理をS75に移す。CPU11はS75の処理を終了した後、サンプリングテーブル125を参照し、受け付けた画像の画像IDに基づいて動作要素及び動作要素に対応づけられた動画IDを抽出し(ステップS103)、処理をS76に移す。   FIG. 36 is a flowchart showing the processing procedure of the information processing system in this embodiment. Since the processing of steps S11 to S89 is the same as that of the information processing system according to the above-described seventh embodiment, description thereof is omitted for the sake of brevity. After completing the process in step S74, the CPU 11 specifies the playback time and the movie ID of the movie when the image is extracted (step S101). The CPU 11 rearranges the images in order of reproduction time for each moving image ID (step S102), and moves the process to S75. After completing the processing of S75, the CPU 11 refers to the sampling table 125, extracts the motion element and the moving image ID associated with the motion element based on the image ID of the received image (step S103), and shifts the processing to S76. Move.

一つの側面によれば、自動的に動作要素を抽出することができるため、画像と動作要素との対応関係を即座に理解することができる。   According to one aspect, since the motion element can be automatically extracted, the correspondence between the image and the motion element can be immediately understood.

(実施の形態9)
実施の形態9はワークサンプリング法で算出した稼動グラフと動作要素の情報から算出した稼動グラフとを比較する実施の形態に関する。なお、本実施形態における画像処理はテンプレートマッチングを用いる。以下、特に説明する構成、作用以外の構成及び作用は実施の形態5と同等であり、簡潔のため記載を省略する。
(Embodiment 9)
Embodiment 9 relates to an embodiment in which an operation graph calculated by the work sampling method is compared with an operation graph calculated from information on operation elements. Note that the image processing in this embodiment uses template matching. In the following, the configuration and operation other than those specifically described are the same as those of the fifth embodiment, and the description is omitted for the sake of brevity.

ユーザが稼動グラフ88を入力部14で選択した場合、CPU11は動画IDの入力を受け付ける。CPU11は受け付けた動画IDに対応する要素情報DB121を参照し、ワークサンプリング法で算出した稼動グラフと動作要素の情報から算出した稼動グラフとを比較する比較画面20を表示する。図37は比較画面20の一例を示す説明図である。   When the user selects the operation graph 88 with the input unit 14, the CPU 11 receives an input of a moving image ID. The CPU 11 refers to the element information DB 121 corresponding to the received moving image ID, and displays a comparison screen 20 for comparing the operation graph calculated by the work sampling method and the operation graph calculated from the information of the operation element. FIG. 37 is an explanatory diagram showing an example of the comparison screen 20.

比較画面20は左上部に設けられた表示ウィンドウ201と、左中央部に設けられた稼動グラフ202と、稼動グラフ202の下部に設けられたコメント欄203と、稼動グラフ202の右上部に設けられた表示ウィンドウ204と、表示ウィンドウ204の右下部に設けられた稼動グラフ(割合グラフ)205と、稼動グラフ205の下部に設けられたコメント欄206とを備える。稼動グラフ202の準稼動部分は準稼動部分207、208及び209で構成される。表示ウィンドウ201及び204は動画データを表示するためのウィンドウである。稼動グラフ202は動作要素の情報から算出した動作合計時間(稼動時間)、準稼動合計時間(準稼動時間)及び無効合計時間(非稼動時間)の割合を表示した円グラフである。稼動グラフ202は実施の形態1の方法で生成される。稼動グラフ205はワークサンプリング法で算出した稼動数、準稼動数及び非稼動数の割合を表示した円グラフである。稼動グラフ205は実施の形態6の方法で生成される。コメント欄203及び206は動作要素のコメントを表示するための欄である。準稼動部分207、208及び209は準稼動部分をさらに動作要素で分けたものである。また同様に稼動グラフ205の稼動部分、準稼動部分及び非稼動部分はさらに作業工程で分けられており、準稼動部分210及び211は準稼動部分をさらに動作要素で分けたものである。稼動グラフ202及び稼動グラフ205の分け方は一例であり、この方法に限られない。   The comparison screen 20 is provided in a display window 201 provided in the upper left portion, an operation graph 202 provided in the left center portion, a comment field 203 provided in the lower portion of the operation graph 202, and an upper right portion of the operation graph 202. A display window 204, an operation graph (ratio graph) 205 provided in the lower right portion of the display window 204, and a comment field 206 provided in the lower portion of the operation graph 205. The semi-operation part of the operation graph 202 is composed of semi-operation parts 207, 208 and 209. Display windows 201 and 204 are windows for displaying moving image data. The operation graph 202 is a pie chart displaying the ratio of the total operation time (operation time), the semi-operation total time (semi-operation time), and the invalid total time (non-operation time) calculated from the information of the operation elements. The operation graph 202 is generated by the method of the first embodiment. The operation graph 205 is a pie chart displaying the ratio of the number of operations, the number of semi-operations, and the number of non-operations calculated by the work sampling method. The operation graph 205 is generated by the method of the sixth embodiment. The comment columns 203 and 206 are columns for displaying the comments of the operation element. The semi-operational parts 207, 208 and 209 are obtained by further dividing the semi-operational parts by operation elements. Similarly, the operating part, the semi-operating part, and the non-operating part of the operation graph 205 are further divided by work processes, and the semi-operating parts 210 and 211 are further divided by the operating elements. The method of dividing the operation graph 202 and the operation graph 205 is an example, and is not limited to this method.

比較画面20の動作は以下の通りである。稼動グラフ202の稼動部分、準稼動部分及び非稼動部分はさらに動作要素で分けられている。例えば、ユーザが準稼動部分207を入力部14で選択した場合、要素情報DB121及びコメントDB124を参照し、準稼動部分207の動作要素「溶接」に対応づけられた「動画101」を表示ウィンドウ201に表示し、かつコメント欄203に「頑張って働いている」を表示する。またユーザが準稼動部分208を入力部14で選択した場合、要素情報DB121及びコメントDB124を参照し、準稼動部分207の動作要素「パネルの固定」に対応づけられた「動画102」を表示ウィンドウ201に表示し、かつコメント欄203に「頑張って働いている」を表示する。   The operation of the comparison screen 20 is as follows. The operation part, the semi-operation part, and the non-operation part of the operation graph 202 are further divided by operation elements. For example, when the user selects the semi-operation part 207 with the input unit 14, the display window 201 displays the “moving image 101” associated with the operation element “welding” of the semi-operation part 207 with reference to the element information DB 121 and the comment DB 124. And “I'm working hard” is displayed in the comment field 203. In addition, when the user selects the semi-operation part 208 with the input unit 14, the element information DB 121 and the comment DB 124 are referred to, and the “moving image 102” associated with the operation element “panel fixation” of the semi-operation part 207 is displayed. 201, and “I'm working hard” is displayed in the comment field 203.

稼動グラフ202の稼動部分、準稼動部分及び非稼動部分はさらに作業工程毎に分けられている。ユーザが稼動グラフ202の準稼動部分209を入力部14で選択した場合、準稼動である作業工程「溶接」の動画を表示ウィンドウ201に表示する。CPU11はコメント欄203に入力部14で入力を受け付ける。ユーザは入力部14でコメント欄203に「頑張って働いている」を入力する。CPU11はコメント欄203に「頑張って働いている」を表示する。   The operation part, the semi-operation part, and the non-operation part of the operation graph 202 are further divided for each work process. When the user selects the semi-operation part 209 of the operation graph 202 with the input unit 14, a moving image of the work process “welding” that is semi-operation is displayed on the display window 201. The CPU 11 receives an input from the input unit 14 in the comment field 203. The user inputs “work hard” in the comment field 203 using the input unit 14. The CPU 11 displays “working hard” in the comment field 203.

ユーザが稼動グラフ202又は205を入力部14で選択した場合、動作要素及び作業工程の動画の詳細を比較する詳細比較画面21を表示する。図38は詳細比較画面21の一例を示す説明図である。詳細比較画面21は上部に設けられた選択動作要素211と、選択動作要素211の下部に設けられた表示ウィンドウ212及び218と、表示ウィンドウ212及び218の下部に設けられた標準時間欄213と、標準時間欄213の下部に設けられたレーティング率欄214と、レーティング率欄214の下部に設けられたコメント欄216及び224と、標準時間欄213及びレーティング率欄214の左部に設けられた稼動グラフ215と、コメント欄216の下部に設けられた動作要素表217とを備える。稼動グラフ215の準稼動部分は準稼動部分227、228及び229で構成される。   When the user selects the operation graph 202 or 205 with the input unit 14, the detail comparison screen 21 for comparing the details of the motion element and the moving image of the work process is displayed. FIG. 38 is an explanatory diagram showing an example of the detailed comparison screen 21. The detailed comparison screen 21 includes a selection operation element 211 provided in the upper part, display windows 212 and 218 provided in the lower part of the selection operation element 211, a standard time column 213 provided in the lower part of the display windows 212 and 218, The rating rate column 214 provided at the bottom of the standard time column 213, the comment columns 216 and 224 provided at the bottom of the rating rate column 214, and the operation provided at the left part of the standard time column 213 and the rating rate column 214 A graph 215 and an operation element table 217 provided below the comment field 216 are provided. The semi-operation part of the operation graph 215 includes semi-operation parts 227, 228 and 229.

表示ウィンドウ212及び218、コメント欄216及び224、稼動グラフ215及び222は表示ウィンドウ201及び204、コメント欄203及び206、稼動グラフ202及び205並びに動作要素表52の構成と同様であるため、記載を省略する。選択動作要素211は選択された動作要素に関する情報を表示する表である。標準時間欄213は、動作要素の標準時間を表示するための欄である。レーティング率欄214は動作要素のレーティング率を表示するための欄である。   The display windows 212 and 218, the comment columns 216 and 224, and the operation graphs 215 and 222 are the same as the configurations of the display windows 201 and 204, the comment columns 203 and 206, the operation graphs 202 and 205, and the operation element table 52. Omitted. The selection operation element 211 is a table that displays information on the selected operation element. The standard time column 213 is a column for displaying the standard time of the operation element. The rating rate column 214 is a column for displaying the rating rate of the operating element.

詳細比較画面21の動作は以下の通りである。CPU11は動画IDに対応する要素情報DB121を参照し、下部の動作要素表を表示する。ユーザが準稼動部分227を入力部14で選択した場合、CPU11は準稼動部分227の動作要素「溶接」を選択し、選択動作要素211に動作要素「溶接」に関する情報を表示する。またCPU11は標準時間欄213に動作要素「溶接」の標準時間「3.85」を表示し、レーティング率欄214に動作要素「溶接」のレーティング率「1.10」を表示し、動作要素「溶接」に対応づけられた「動画101」を表示ウィンドウ212に表示し、コメント欄216に「作業員は頑張っている」を表示する。また実施の形態1と同様にレーティング率欄214を操作することで表示ウィンドウ212の動画データの再生時間を変えることができる。   The operation of the detailed comparison screen 21 is as follows. The CPU 11 refers to the element information DB 121 corresponding to the moving image ID and displays the lower operation element table. When the user selects the semi-operation part 227 with the input unit 14, the CPU 11 selects the operation element “welding” of the semi-operation part 227 and displays information on the operation element “welding” in the selection operation element 211. The CPU 11 displays the standard time “3.85” of the operation element “welding” in the standard time column 213, displays the rating rate “1.10” of the operation element “welding” in the rating rate column 214, and displays the operation factor “ “Moving image 101” associated with “welding” is displayed on the display window 212, and “worker is working hard” is displayed in the comment field 216. Similarly to the first embodiment, by operating the rating rate column 214, the playback time of the moving image data in the display window 212 can be changed.

例えばユーザが稼動グラフ(割合グラフ)215の準稼動部分229を入力部14で選択した場合、作業工程「溶接」の内、準稼動に対応づけられた生成動画を表示ウィンドウ212に表示する。CPU11はコメント欄224に入力部14で入力を受け付ける。ユーザは入力部14でコメント欄224に「熟練である」を入力する。CPU11はコメント欄224に「熟練である」を表示する。このことにより同一の画面上にワークサンプリング法及び動作要素の情報から算出した稼動グラフを表示することができる。また同一の画面上で稼動グラフから種別に対応する分割動画及び作業種類に対応する動画を再生することができる。このことにより分析画面5の分割動画とワークサンプリング法で生成した生成動画との対比が容易に行える。なお、下部の動作要素表217及び選択動作要素211は稼動グラフ222を選択しても表示されない。   For example, when the user selects the semi-operation part 229 of the operation graph (ratio graph) 215 with the input unit 14, the generated moving image associated with the semi-operation is displayed on the display window 212 in the work process “welding”. The CPU 11 receives an input from the input unit 14 in the comment field 224. The user inputs “skilled” in the comment field 224 using the input unit 14. The CPU 11 displays “skilled” in the comment field 224. As a result, the operation graph calculated from the work sampling method and the information of the operation element can be displayed on the same screen. Further, on the same screen, it is possible to reproduce a divided moving image corresponding to the type and a moving image corresponding to the work type from the operation graph. This makes it easy to compare the divided moving image on the analysis screen 5 with the generated moving image generated by the work sampling method. Note that the lower operation element table 217 and the selection operation element 211 are not displayed even when the operation graph 222 is selected.

図39は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S103の処理は上述の実施の形態8に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS103の処理を終了した後、動画IDの入力を受け付ける(ステップS110)。CPU11は同一の画面上に動画IDに対応する稼動グラフ202及び205並びに215及び222を表示する(ステップS111)。CPU11は稼動グラフ202及び215の各部分を動作要素毎に対応づけて分割する(ステップS112)。CPU11は稼動グラフ205及び222の各部分を作業工程毎に対応づけて分割する(ステップS113)。CPU11は稼動グラフ202、215、205及び222における分割した各部分の選択を入力部14で受け付ける(ステップS114)。なお、同一画面上に選択した作業工程又は動作要素を表示しても良い。   FIG. 39 is a flowchart showing the processing procedure of the information processing system in this embodiment. Since the processing of steps S11 to S103 is the same as that of the information processing system according to the above-described eighth embodiment, description thereof is omitted for the sake of brevity. After completing the process in step S103, the CPU 11 receives an input of a moving image ID (step S110). The CPU 11 displays the operation graphs 202 and 205 and 215 and 222 corresponding to the moving image ID on the same screen (step S111). The CPU 11 divides each part of the operation graphs 202 and 215 in association with each operation element (step S112). The CPU 11 divides each part of the operation graphs 205 and 222 in association with each work process (step S113). The CPU 11 receives selection of each divided part in the operation graphs 202, 215, 205, and 222 by the input unit 14 (step S114). The selected work process or operation element may be displayed on the same screen.

CPU11は受け付けた部分が作業工程に対応づけられているか否かを判定する(ステップS115)。CPU11は受け付けた部分が作業工程に対応づけられていると判定した場合(ステップS115:YES)、処理をステップS116に移す。CPU11はサンプリング集計テーブル127を参照し、作業工程に対応する生成動画を他の動画と同一の画面上に表示し(ステップS116)、処理をS76に移す。すなわち作業工程に対応する動画を動作要素に対応する動画IDの動画と同一の画面上に表示する。CPU11は受け付けた部分が作業工程に対応づけられていないと判定した場合(ステップS115:NO)、すなわち動作要素に対応づけられていると判定した場合、処理をステップS117に移す。CPU11は要素情報DB121を参照し、動作要素に対応する動画を他の動画と同一の画面上に表示する(ステップS117)。CPU11は選択動作要素211を表示し(ステップS118)、処理をS76に移す。すなわち動作要素に対応する動画を作業工程に対応する動画IDの動画と同一の画面上に表示する。本実施形態では、実施例7で記載したワークサンプリング法で算出した動画と実施例1で記載した動画の比較を行ったが、ワークサンプリング法で算出した動画と作業改善を施した画像の対比を行ってもよい。またCPU11は生成動画内に表示された対象物が行う作業と同一の作業を行う分割動画を稼動グラフ202及び205並びに215及び222と同一の画面上に表示してもよい。標準的な作業動画であるワークサンプリング法で算出した動画と、作業改善後の動画を比較することで改善効果がより明確になる。またワークサンプリング法で算出した動画とベテラン作業員の動画を比較してもよい。標準的な作業動画であるワークサンプリング法で算出した動画と、ベテラン作業員の動画を比較することで作業効率化のヒントを見出せることがある。また初心者作業員の動画と比較した場合には、初心者作業員の問題点が明確になる。   The CPU 11 determines whether or not the received part is associated with the work process (step S115). If the CPU 11 determines that the received part is associated with the work process (step S115: YES), the process proceeds to step S116. The CPU 11 refers to the sampling total table 127, displays the generated moving image corresponding to the work process on the same screen as the other moving images (step S116), and moves the process to S76. That is, the moving image corresponding to the work process is displayed on the same screen as the moving image with the moving image ID corresponding to the operation element. When the CPU 11 determines that the received part is not associated with the work process (step S115: NO), that is, when it is determined that the received part is associated with the operation element, the process proceeds to step S117. The CPU 11 refers to the element information DB 121 and displays the moving image corresponding to the operation element on the same screen as other moving images (step S117). The CPU 11 displays the selection operation element 211 (step S118), and moves the process to S76. That is, the moving image corresponding to the operation element is displayed on the same screen as the moving image having the moving image ID corresponding to the work process. In this embodiment, the moving image calculated by the work sampling method described in Example 7 and the moving image described in Example 1 were compared. However, the comparison between the moving image calculated by the work sampling method and the image subjected to work improvement is performed. You may go. Further, the CPU 11 may display a divided moving image that performs the same work as that performed by the object displayed in the generated moving image on the same screen as the operation graphs 202 and 205, and 215 and 222. The improvement effect becomes clearer by comparing the movie calculated by the work sampling method, which is a standard work movie, with the movie after the work improvement. Moreover, you may compare the moving image calculated by the work sampling method, and the moving image of an experienced worker. There are cases where hints for improving work efficiency can be found by comparing a moving image calculated by the work sampling method, which is a standard work moving image, with a moving image of an experienced worker. In addition, when compared with a video of a beginner worker, the problem of the beginner worker becomes clear.

一つの側面によれば、ワークサンプリング法及び動作要素の情報から算出した稼動グラフを比較することでレーティング率の算出に役立てることができる。   According to one aspect, comparing the operation graphs calculated from the work sampling method and the information of the operation elements can help to calculate the rating rate.

(実施の形態10)
実施の形態10は種別を選択するための選択図形を表示する実施の形態に関する。図40は分析画面5の表示ウィンドウ51Aの一例を示す説明図である。表示ウィンドウ51Aはさらに選択図形58を備える。選択図形58は選択部分58A及び58B等により構成される。選択部分58A又は58B等は以下場合により選択部分58で代表する。選択図形58は入力部14による入力の支援を行うためのジェスチャーマップである。選択図形58は例えば円である。なお、選択図形58は矩形又は三角等の任意の図形であってもよい。
(Embodiment 10)
The tenth embodiment relates to an embodiment for displaying a selected figure for selecting a type. FIG. 40 is an explanatory diagram showing an example of the display window 51A of the analysis screen 5. The display window 51A further includes a selection figure 58. The selected figure 58 is composed of selected portions 58A and 58B. The selected portion 58A or 58B or the like is represented by the selected portion 58 in the following cases. The selection figure 58 is a gesture map for supporting input by the input unit 14. The selection figure 58 is a circle, for example. The selected figure 58 may be an arbitrary figure such as a rectangle or a triangle.

選択図形58の動作は以下の通りである。ユーザは表示ウィンドウ51を入力部14で任意の入力操作をした場合、種別情報DB123を参照し、種別を選択部分581に表示する。具体的にはCPU11は選択部分581の夫々に種別1、種別2、種別3及び種別4を表示する(図40A)。ユーザが例えば入力部14で選択部分58Aを選択した場合、CPU11は種別1に対応する「第1工程」、「第2工程」、「第3工程」、「第4工程」及び「第5工程」を選択図形58に表示させる(図40B)。ユーザが例えば入力部14で選択部分58Bを選択した場合、他の選択部分581を消去し、選択部分58Bのみを表示する(図40C)。入力部14による選択部分581の選択方法は例えば、マウスのカーソルを選択部分に動かし、左又は右のボタンを離す。またはマウスのカーソルで選択部分を通過する方法でもよい。CPU11は表示ウィンドウ51Aに表示された動画データの動作要素に種別「第1工程」を対応づけ、要素情報DB121に種別「第1工程」を記憶させる。本実施形態における選択図形58は種別の数が増える毎に円の半径が増加する。このことにより種別は下位に行くほど、種別の数が増えるため、種別が増えた場合には円形の半径を大きくすることで対応させることができる。   The operation of the selected figure 58 is as follows. When the user performs an arbitrary input operation on the display window 51 using the input unit 14, the type is displayed on the selection portion 581 with reference to the type information DB 123. Specifically, the CPU 11 displays type 1, type 2, type 3, and type 4 in the selection portion 581 (FIG. 40A). For example, when the user selects the selection portion 58 </ b> A with the input unit 14, the CPU 11 performs “first process”, “second process”, “third process”, “fourth process”, and “fifth process” corresponding to type 1. Is displayed on the selected figure 58 (FIG. 40B). For example, when the user selects the selection portion 58B with the input unit 14, the other selection portion 581 is deleted, and only the selection portion 58B is displayed (FIG. 40C). For example, the selection part 581 is selected by the input unit 14 by moving the mouse cursor to the selection part and releasing the left or right button. Alternatively, a method of passing the selected portion with the mouse cursor may be used. The CPU 11 associates the type “first step” with the motion element of the moving image data displayed in the display window 51 </ b> A, and stores the type “first step” in the element information DB 121. In the selected figure 58 in this embodiment, the radius of the circle increases each time the number of types increases. As a result, the number of types increases as the type goes down, so that the number of types can be increased by increasing the radius of the circle.

図41は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S22の処理は上述の実施の形態1に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS19の処理を終了した後、表示ウィンドウ51に入力部14で入力を受け付ける(ステップS121)。CPU11は種別情報DB123を参照し、種別を選択部分581に表示することで選択図形58を表示する(ステップS122)。CPU11は選択部分581に入力部14で選択を受け付ける(ステップS123)。CPU11は表示ウィンドウ51Aに表示された動画データの動作要素に選択された選択部分581に表示された種別を対応づけ(ステップ124)、処理をS20に移す。   FIG. 41 is a flowchart showing the processing procedure of the information processing system in this embodiment. Since the processes in steps S11 to S22 are the same as those in the information processing system according to the first embodiment, the description thereof is omitted for the sake of brevity. After completing the process in step S19, the CPU 11 receives an input to the display window 51 through the input unit 14 (step S121). The CPU 11 refers to the type information DB 123 and displays the selected figure 58 by displaying the type in the selected portion 581 (step S122). The CPU 11 accepts selection at the selection portion 581 via the input unit 14 (step S123). The CPU 11 associates the type displayed in the selected portion 581 with the operation element of the moving image data displayed in the display window 51A (step 124), and moves the process to S20.

一つの側面によれば、種別の選択を表示ウィンドウ51上で行える。このことにより、作業種別毎に円表表示させ、画像の種別の入力を容易にすることができる。   According to one aspect, the type can be selected on the display window 51. This makes it possible to display a circular table for each work type and to easily input the image type.

(実施の形態11)
実施の形態11は表示ウィンドウ51の動画内における2点間の距離を画像処理により算出する実施の形態に関する。
(Embodiment 11)
The eleventh embodiment relates to an embodiment in which the distance between two points in the moving image of the display window 51 is calculated by image processing.

CPU11が例えば、表示ウィンドウ51Aに動画101を表示させる。CPU11は角度及び解像度に基づいて画像処理を行うことにより表示ウィンドウ51A上の2点間の距離を算出する。   For example, the CPU 11 displays the moving image 101 on the display window 51A. The CPU 11 calculates the distance between the two points on the display window 51A by performing image processing based on the angle and the resolution.

図42は本実施形態における情報処理システムの処理手順を示したフローチャートである。ステップS11〜S22の処理は上述の実施の形態1に係る情報処理システムと同様であるので、簡潔のため説明を省略する。CPU11はステップS19の処理を終了した後、表示ウィンドウ51に画像処理を行うことにより距離を算出する(ステップS131)。CPU11は表示ウィンドウ51に算出した距離を表示し(ステップS132)、処理をS20に移す。   FIG. 42 is a flowchart showing the processing procedure of the information processing system in this embodiment. Since the processes in steps S11 to S22 are the same as those in the information processing system according to the first embodiment, the description thereof is omitted for the sake of brevity. After completing the process of step S19, the CPU 11 calculates a distance by performing image processing on the display window 51 (step S131). The CPU 11 displays the calculated distance on the display window 51 (step S132), and the process proceeds to S20.

一つの側面によれば、距離を表示することで、動画データの理解に役立てることができる。   According to one aspect, displaying the distance can be useful for understanding moving image data.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、各実施の形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims. Further, each embodiment can be appropriately combined within a range in which processing contents are not contradictory.

1 情報処理装置
12P プログラム
52 動作要素表(作業表)
1 Information processing device 12P Program 52 Operation element table (work table)

Claims (11)

情報処理装置に用いられるプログラムであって、
前記情報処理装置に、
作業を撮像した複数の動画を作業毎に分割した複数の分割動画を表示し、
各分割動画内に表示された対象物に対する評価値の入力を受け付け、
前記各分割動画内に表示された対象物が作業に対して有効な動作をした時間を示す動作時間に前記評価値を積算することで前記作業の標準を示す標準時間を算出する
処理を実行させることを特徴とするプログラム。
A program used in an information processing apparatus,
In the information processing apparatus,
A plurality of divided videos obtained by dividing a plurality of videos that capture the work for each work are displayed.
Accepts input of evaluation values for objects displayed in each split video,
The standard time indicating the standard of the work is calculated by adding the evaluation value to the operation time indicating the time when the object displayed in each of the divided videos performs an effective action for the work. A program characterized by that.
前記情報処理装置に、前記分割動画に対する種別を複数種類受け付ける処理を実行させることを特徴とする請求項1に記載のプログラム。   The program according to claim 1, wherein the information processing apparatus is caused to execute a process of accepting a plurality of types for the divided moving image. 複数の分割動画の長さを示す複数の作業時間と複数の種別とが対応づけられており、
前記情報処理装置に、種別毎に前記作業時間を表示する処理を実行させることを特徴とする請求項2に記載のプログラム。
Multiple work times indicating the length of multiple split videos are associated with multiple types,
The program according to claim 2, wherein the information processing apparatus is caused to execute a process of displaying the work time for each type.
前記情報処理装置に、
前記対象物の状態を計測した状態情報及び前記対象物の周辺の環境を計測した環境情報のうちの少なくとも一つの情報を取得し、
取得した前記少なくとも一つの情報の経時変化を表示する
処理を実行させることを特徴とする請求項1乃至3のいずれか1項に記載のプログラム。
In the information processing apparatus,
Obtaining at least one information of state information obtained by measuring the state of the object and environment information obtained by measuring an environment around the object;
The program according to any one of claims 1 to 3, wherein a process of displaying a change with time of the acquired at least one piece of information is executed.
前記情報処理装置に、取得した前記少なくとも一つの情報の経時変化を、前記分割動画を表示する際の時間軸と同一の時間軸に沿って前記分割動画と同期させながら表示する処理を実行させることを特徴とする請求項4に記載のプログラム。   Causing the information processing apparatus to execute a process of displaying the time-dependent change of the acquired at least one information in synchronization with the divided video along the same time axis as when the divided video is displayed. The program according to claim 4. 前記情報処理装置に、
前記各分割動画に前記対象物の動作が人又は機械が行う動作であることを示す動作情報を受け付け、
人が行う動作である動作情報に対応づけられた複数の分割動画を抽出し、
抽出した複数の分割動画の標準時間を合計した合計標準時間を算出する
処理を実行させることを特徴とする請求項1乃至5のいずれか1項に記載のプログラム。
In the information processing apparatus,
Accepting motion information indicating that the motion of the object is motion performed by a person or machine in each of the divided videos,
Extract multiple segmented videos that are associated with motion information that is human motion,
The program according to any one of claims 1 to 5, wherein a process for calculating a total standard time obtained by summing standard times of the plurality of extracted divided moving images is executed.
前記情報処理装置に、
前記対象物が前記作業に対して無効な動作をした時間を示す無効時間を分割動画毎に受け付け、
複数の分割動画の無効時間を合計した無効合計時間と、該複数の分割動画の動作時間を合計した動作合計時間とを算出し、
算出した無効合計時間及び動作合計時間に基づいてグラフを表示する
処理を実行させることを特徴とする請求項1乃至6のいずれか1項に記載のプログラム。
In the information processing apparatus,
Accepting, for each divided video, an invalid time indicating a time when the object performs an invalid operation for the work;
Calculate the invalid total time that is the sum of the invalid times of multiple segmented videos and the total operation time that is the sum of the durations of the segmented videos,
The program according to any one of claims 1 to 6, wherein a program for displaying a graph based on the calculated total invalid time and total operation time is executed.
前記情報処理装置に、
前記対象物の動作が人又は機械が行う動作であることを示す動作情報を分割動画毎に受け付け、
人が行う動作である動作情報に対応づけられた複数の分割動画を抽出し、
抽出した複数の分割動画の動作時間を合計した抽出合計時間と、前記動作合計時間から抽出合計時間を引いた稼動合計時間とを算出し、
算出した稼動合計時間、抽出合計時間及び無効合計時間に基づいてグラフを表示する
処理を実行させることを特徴とする請求項7に記載のプログラム。
In the information processing apparatus,
Receiving motion information indicating that the motion of the object is a motion performed by a person or machine for each divided video;
Extract multiple segmented videos that are associated with motion information that is human motion,
Calculating an extraction total time obtained by adding the operation times of the plurality of extracted divided videos and an operation total time obtained by subtracting the extraction total time from the operation total time;
The program according to claim 7, wherein a process of displaying a graph based on the calculated total operation time, total extraction time, and total invalid time is executed.
前記情報処理装置に、
各分割動画及び複数の動画全体に対するコメントを受け付け、
受け付けたコメントを表示する
処理を実行させることを特徴とする請求項1乃至7のいずれか1項に記載のプログラム。
In the information processing apparatus,
Accept comments for each split video and multiple videos,
The program according to any one of claims 1 to 7, wherein a process for displaying an accepted comment is executed.
作業を撮像した複数の動画を作業毎に分割した複数の分割動画を表示する複数表示部と、
各分割動画内に表示された対象物に対する評価値の入力を受け付ける受け付け部と、
前記各分割動画内に表示された対象物が作業に対して有効な動作をした時間を示す動作時間に前記評価値を積算することで前記作業の標準を示す標準時間を算出する算出部と、を備えることを特徴とする情報処理装置。
A plurality of display units for displaying a plurality of divided videos obtained by dividing a plurality of videos obtained by imaging a work for each work;
A receiving unit that receives an input of an evaluation value for an object displayed in each divided video;
A calculation unit that calculates a standard time indicating the standard of the work by accumulating the evaluation value to an operation time indicating a time when the object displayed in each of the divided videos performs an effective operation for the work; An information processing apparatus comprising:
情報処理装置によって実現される情報処理方法であって、
前記情報処理装置が、作業を撮像した複数の動画を作業毎に分割した複数の分割動画を表示し、
前記情報処理装置が、各分割動画内に表示された対象物に対する評価値の入力を受け付け、
前記情報処理装置が、前記各分割動画内に表示された対象物が作業に対して有効な動作をした時間を示す動作時間に前記評価値を積算することで前記作業の標準を示す標準時間を算出することを特徴とする情報処理方法。
An information processing method realized by an information processing apparatus,
The information processing apparatus displays a plurality of divided videos obtained by dividing a plurality of videos obtained by imaging work for each work,
The information processing apparatus accepts input of an evaluation value for an object displayed in each divided video,
The information processing apparatus adds a standard time indicating the standard of the work by adding the evaluation value to an operation time indicating a time during which the object displayed in each of the divided videos has an effective action for the work. An information processing method characterized by calculating.
JP2016040423A 2015-03-03 2016-03-02 Programs, information processing devices and information processing methods Active JP6783060B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015041851 2015-03-03
JP2015041851 2015-03-03

Publications (2)

Publication Number Publication Date
JP2016167265A true JP2016167265A (en) 2016-09-15
JP6783060B2 JP6783060B2 (en) 2020-11-11

Family

ID=56897587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016040423A Active JP6783060B2 (en) 2015-03-03 2016-03-02 Programs, information processing devices and information processing methods

Country Status (1)

Country Link
JP (1) JP6783060B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067206A (en) * 2017-10-02 2019-04-25 富士通株式会社 Detection system, detection method, and detection program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1190794A (en) * 1997-09-19 1999-04-06 Kubota Corp Working time measuring device for production line
JP2000354943A (en) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> Work management and support method and device, and recording medium having program therefor recorded
JP2001014016A (en) * 1999-06-29 2001-01-19 Yoriaki Yamai Analyzing method of working state, analysis system of working state to execute the same method and managing device of working state using the same system
JP2007323222A (en) * 2006-05-31 2007-12-13 Hitachi Ltd Working motion analysis method, working motion analysis apparatus and working motion analysis program
JP2008059322A (en) * 2006-08-31 2008-03-13 Sharp Corp Work management system
JP2008077424A (en) * 2006-09-21 2008-04-03 Toshiba Corp Operation analysis system and method
US20110010623A1 (en) * 2009-07-10 2011-01-13 Vanslette Paul J Synchronizing Audio-Visual Data With Event Data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1190794A (en) * 1997-09-19 1999-04-06 Kubota Corp Working time measuring device for production line
JP2000354943A (en) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> Work management and support method and device, and recording medium having program therefor recorded
JP2001014016A (en) * 1999-06-29 2001-01-19 Yoriaki Yamai Analyzing method of working state, analysis system of working state to execute the same method and managing device of working state using the same system
JP2007323222A (en) * 2006-05-31 2007-12-13 Hitachi Ltd Working motion analysis method, working motion analysis apparatus and working motion analysis program
JP2008059322A (en) * 2006-08-31 2008-03-13 Sharp Corp Work management system
JP2008077424A (en) * 2006-09-21 2008-04-03 Toshiba Corp Operation analysis system and method
US20110010623A1 (en) * 2009-07-10 2011-01-13 Vanslette Paul J Synchronizing Audio-Visual Data With Event Data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067206A (en) * 2017-10-02 2019-04-25 富士通株式会社 Detection system, detection method, and detection program
JP7091629B2 (en) 2017-10-02 2022-06-28 富士通株式会社 Detection system, detection method and detection program

Also Published As

Publication number Publication date
JP6783060B2 (en) 2020-11-11

Similar Documents

Publication Publication Date Title
JP5525202B2 (en) Motion analysis apparatus, motion analysis method, and motion analysis program
US10713770B2 (en) Analysis apparatus and analysis method
CN104239416A (en) User identification method and system
KR102466438B1 (en) Cognitive function assessment system and method of assessing cognitive funtion
JP6842044B2 (en) Information processing equipment, information processing methods, programs
US20200125839A1 (en) Method and system for automatic repetitive step and cycle detection for manual assembly line operations
US20230044842A1 (en) Work analyzing device and work analyzing method
JP6803431B2 (en) Programs, information processing devices and information processing methods
JPWO2017033539A1 (en) Work support device, work support method and program
JP2020091801A (en) Work analysis system and work analysis method
JP6279635B2 (en) Program, information processing apparatus and information processing method
CN106601217B (en) Interactive musical instrument playing method and device
JP2019185188A (en) Information processing method, information processing apparatus, and information processing system
JP2017080197A (en) Information processing device, information processing method and program
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
JP6783060B2 (en) Programs, information processing devices and information processing methods
JP2021026336A (en) Information processing device and marketing activity support device
JP2019093152A (en) Information processing device, information processing method and program
JP6643806B2 (en) Program, information processing apparatus and information processing method
JP2017118319A (en) Video retrieval system
JP2017080199A (en) Information processing device, information processing method and program
Nurai et al. A research protocol of an observational study on efficacy of microsoft kinect azure in evaluation of static posture in normal healthy population
JP2017080200A (en) Information processing device, information processing method and program
JP2017080201A (en) Information processing device, information processing method and program
WO2023182424A1 (en) Information processing method, computer program, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201021

R150 Certificate of patent or registration of utility model

Ref document number: 6783060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250