JP7475948B2 - Training system, method and program - Google Patents

Training system, method and program Download PDF

Info

Publication number
JP7475948B2
JP7475948B2 JP2020077609A JP2020077609A JP7475948B2 JP 7475948 B2 JP7475948 B2 JP 7475948B2 JP 2020077609 A JP2020077609 A JP 2020077609A JP 2020077609 A JP2020077609 A JP 2020077609A JP 7475948 B2 JP7475948 B2 JP 7475948B2
Authority
JP
Japan
Prior art keywords
training
user
operation target
unit
training object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020077609A
Other languages
Japanese (ja)
Other versions
JP2021173867A (en
Inventor
茂 平野
要 今澤
寛之 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba System Technology Corp
Original Assignee
Toshiba System Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba System Technology Corp filed Critical Toshiba System Technology Corp
Priority to JP2020077609A priority Critical patent/JP7475948B2/en
Publication of JP2021173867A publication Critical patent/JP2021173867A/en
Priority to JP2024019028A priority patent/JP2024036699A/en
Application granted granted Critical
Publication of JP7475948B2 publication Critical patent/JP7475948B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、VR(Virtual Reality,仮想現実)、AR(Augmented Reality,拡張現実)、あるいはMR(Mixed Reality, 複合現実,混合現実)等(以下単に「VR」という。)の技術を用いて行う訓練システム、方法及びプログラムに関する。 The present invention relates to a training system, method, and program that uses technology such as VR (Virtual Reality), AR (Augmented Reality), or MR (Mixed Reality) (hereinafter simply referred to as "VR").

従来、VRの技術を用いて、受講者(ユーザ)の訓練を行うシステムが提案されている。たとえば、特許文献1では、熟練者に対してもヒューマンエラーの防止を効果的に訓練できるようにするため、ヒューマンエラーを誘発するトラップを設けた訓練シナリオをシミュレーション手段で展開することによって訓練対象となる事象を擬似的に再現し、ヒューマンエラーが発生した一連の作業が終了した時点又はヒューマンエラーによって作業が継続できなくなる時点でヒューマンエラーの発生を告知する訓練システムが提案されている。 Conventionally, systems have been proposed that use VR technology to train trainees (users). For example, Patent Document 1 proposes a training system that uses a simulation means to develop a training scenario that contains traps that induce human error, thereby simulating the events to be trained, so that even experienced personnel can be effectively trained in preventing human error, and notifies the user of the occurrence of a human error when a series of tasks in which a human error occurred is completed or when the task cannot be continued due to the human error.

特開2006-072193号公報JP 2006-072193 A

しかしながら、上記の特許文献1の技術は、訓練によりヒューマンエラーの発生を防ぐことが目的であり、操作対象の設備や装置(以下、「訓練対象物」という。)の操作方法の効率的な習得を目的とするものではない。特に、効率の良い訓練を実現するために、どのような情報を仮想空間に表示するか、あるいはユーザの操作内容をどのように判定して習熟度を高めていくかが問題となる。 However, the technology of Patent Document 1 above aims to prevent the occurrence of human error through training, and is not intended to efficiently learn how to operate the equipment or device to be operated (hereinafter referred to as the "training subject"). In particular, to achieve efficient training, problems arise as to what information should be displayed in the virtual space, and how to determine the content of the user's operation to improve proficiency.

本発明はかかる従来の事情に対処してなされたものであり、ユーザの習熟度を効率的に高めることができ、また訓練対象物に対するユーザの動きを精度よく評価することのできる訓練システム、方法及びプログラムを提供することを目的とする。 The present invention was made to address these conventional problems, and aims to provide a training system, method, and program that can efficiently improve a user's proficiency and accurately evaluate the user's movements relative to a training object.

上記目的を達成するため、本発明に係る訓練システムは、仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する訓練システムであって、
前記訓練対象物を表示装置に仮想表示させる三次元表示制御部(3D-CG表示制御部)と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知部と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定部と、を備え、
前記三次元表示制御部は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠(操作対象識別枠)を表示する一方、前記操作検知部によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示することを特徴とする。ここで、訓練シナリオとは、操作順序認識可能に操作対象部位と制限時間などの判定条件とを関連付けた情報である。
In order to achieve the above object, a training system according to the present invention is a training system for educating and training a user on a method of operating a training object displayed in three dimensions in a virtual space, comprising:
A three-dimensional display control unit (3D-CG display control unit) that virtually displays the training object on a display device;
an operation detection unit that detects operation information including a user's operation position and operation direction;
an operation determination unit that evaluates a user's operation based on an operation target portion of the training object and the operation information,
The three-dimensional display control unit displays a frame (operation target identification frame) that identifies an operation target part to be operated according to the progress of the training scenario, while displaying an operation means identification image that indicates a means for operating the operation target part based on the operation information detected by the operation detection unit. Here, the training scenario is information that associates the operation target parts with judgment conditions such as a time limit so that the operation sequence can be recognized.

好ましくは、操作検知部は、ヘッドトラッキング、ポジショントラッキング、ハンドトラッキング、アイトラッキングの少なくとも一つのトラッキング方法により、操作情報を検知するのがよい。 Preferably, the operation detection unit detects operation information using at least one of the following tracking methods: head tracking, position tracking, hand tracking, and eye tracking.

また、本発明に係る訓練システムは、一又は二以上の操作対象部位を記憶すると共に、夫々の前記操作対象部位とその操作対象部位を操作するための手段(操作手段)の座標を記憶する訓練シナリオ記憶部を備え、
前記三次元表示制御部は、前記訓練シナリオ記憶部を参照して、訓練シナリオの進行にしたがって操作すべき操作対象部位に関連付けられた操作手段識別画像を、前記操作検知部で検知された操作情報によって決定される位置および向きで表示することを特徴とする。これにより仮想空間上で操作対象部位ごとに異なる操作手段(ツール)を用いて操作を行う訓練を効率的に行うことができる。
The training system according to the present invention further comprises a training scenario storage unit that stores one or more operation target parts and stores coordinates of each of the operation target parts and a means (operation means) for operating the operation target parts,
The three-dimensional display control unit refers to the training scenario storage unit and displays an operation means identification image associated with an operation target part to be operated as the training scenario progresses, at a position and orientation determined by the operation information detected by the operation detection unit. This allows efficient training in which different operation means (tools) are used for each operation target part in the virtual space.

また、本発明に係る訓練システムは、訓練対象物の前記操作対象部位ごとに、それぞれの前記操作対象部位からの距離に応じて、前記操作手段識別画像が通過すべき又は通過すべきでない判定領域を保存する手段を備え、前記操作判定部は、前記操作手段識別画像の位置が前記判定領域を通過したか否かによって、ユーザが前記操作対象部位に正しくアクセスしたか否かを判定することを特徴とする。これにより、仮想空間においても実空間での訓練に近い精度のよい訓練が可能となる。 The training system according to the present invention is also characterized in that it includes means for saving a judgment area through which the operation means identification image should or should not pass, depending on the distance from each of the operation target parts of the training object, and the operation judgment unit judges whether or not the user has correctly accessed the operation target part based on whether or not the position of the operation means identification image has passed through the judgment area. This makes it possible to perform training in a virtual space with high accuracy similar to training in a real space.

なお上記の判定領域は仮想空間上に表示されるものではないが、動作モードあるいはユーザの習熟度によって表示させるようにしてもよい。例えば、ユーザの習熟度が所定値以下の場合は表示させる等である。 The above judgment area is not displayed in the virtual space, but may be displayed depending on the operation mode or the user's proficiency. For example, it may be displayed when the user's proficiency is below a certain value.

この訓練システムには複数の動作モードを設け、いずれの動作モードで動くかを選択可能できるようにするのが好ましい。動作モードとしては、例えば、ユーザは操作せず、操作手順をVR上で訓練シナリオ通りに再現する学習モード、ユーザが訓練シナリオに沿って操作するが評価(採点)はしない操作モード、ユーザが訓練シナリオに沿って操作を行い、操作内容を記録して採点する採点モードがある。 It is preferable to provide this training system with multiple operation modes, and to allow the user to select which operation mode to use. Examples of operation modes include a learning mode in which the user does not operate the system, but instead reproduces the operation procedure in VR according to the training scenario, an operation mode in which the user operates according to the training scenario but is not evaluated (scored), and a scoring mode in which the user operates according to the training scenario, records the operation content, and scores it.

そして、選択されたモードにより、操作対象識別枠の表示/非表示を決定する。例えば学習モード,操作モードが選択された場合は、操作対象識別枠を表示し、採点モードが選択された場合は操作対象識別枠を表示しない等である。なお、操作対象識別枠の表示/非表示はこれに限らず、ユーザの習熟度や他の条件との組合せによって決定するようにしてもよい。 Then, depending on the selected mode, it is determined whether the operation target identification frame is displayed or not. For example, if the learning mode or operation mode is selected, the operation target identification frame is displayed, and if the scoring mode is selected, the operation target identification frame is not displayed. Note that whether the operation target identification frame is displayed or not is not limited to this, and may be determined based on the user's level of proficiency or a combination with other conditions.

たとえば、採点モードのときに操作検知部がユーザの視線を検知した場合、前記三次元表示制御部はその視線ベクトルが前記訓練対象物の前記操作対象部位の所定範囲と一定時間以上交差することにより、操作対象識別枠を表示する等である。 For example, when the operation detection unit detects the user's line of sight during scoring mode, the three-dimensional display control unit displays an operation target identification frame when the line of sight vector intersects with a specified range of the operation target part of the training object for a certain period of time or more.

また、前記操作検知部は、ユーザの視線を検知し、前記操作判定部はその視線ベクトルが前記訓練対象物の前記操作対象部位の所定範囲と一定時間以上交差することにより、当該操作対象部位が選択又は操作されたと認定するようにしてもよい。
これにより、ユーザは操作対象部位を容易に特定し、あるいは選択、操作をすることができる。
In addition, the operation detection unit may detect the user's gaze, and the operation determination unit may determine that the operation target part of the training object has been selected or operated when the gaze vector intersects with a specified range of the operation target part of the training object for a certain period of time or more.
This allows the user to easily identify, select, and operate the area to be operated.

なお、操作対象部位を識別するための操作対象識別枠は上記以外の種々の条件でそれぞれ異なる識別表示をすることができる。例えば、操作手段識別画像と操作対象部位との位置関係から、操作対象識別画像が操作対象部位に到達したと判定した場合は、その操作対象部位が選択されたことを知らせるために、操作対象識別枠を色替えなどの識別表示をするとか、操作手段識別画像と操作対象部位との位置関係から、操作手段識別画像が操作対象部位に正しいルートを通って到達した場合は、操作対象識別枠をさらに異なる態様で識別表示する等である。 The operation target identification frame for identifying the operation target area can be displayed differently depending on various conditions other than those mentioned above. For example, if it is determined that the operation target identification image has reached the operation target area based on the positional relationship between the operation means identification image and the operation target area, the operation target identification frame can be displayed in a different color or other way to indicate that the operation target area has been selected. If it is determined that the operation means identification image has reached the operation target area via the correct route based on the positional relationship between the operation means identification image and the operation target area, the operation target identification frame can be displayed in a different manner.

また、本発明に係る訓練システムの前記操作判定手段は、複数のユーザの判定結果に基づいて、操作対象部位ごとに操作内容の正解/不正解、操作するまでの時間に関する統計データを演算し、その演算結果を出力する統計分析部と、前記統計分析部の出力に基づいて前記訓練シナリオを変更するシナリオ変更編集部を備えたことを特徴とする。 The operation judgment means of the training system according to the present invention is characterized by comprising a statistical analysis unit that calculates statistical data on the correctness/incorrectness of the operation content for each operation target part and the time it takes to perform the operation based on the judgment results of multiple users, and outputs the calculation results, and a scenario change editing unit that changes the training scenario based on the output of the statistical analysis unit.

本発明に係る訓練方法は仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する方法であって、
前記訓練対象物を表示装置に仮想表示する三次元表示処理と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知処理と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定処理と、を含み、
前記三次元表示部は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知部によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示することを特徴とする。
The training method according to the present invention is a method for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space, comprising:
A three-dimensional display process for virtually displaying the training object on a display device;
An operation detection process for detecting operation information including a user's operation position and operation direction;
and an operation determination process for evaluating a user's operation based on an operation target portion of the training object and the operation information,
The three-dimensional display unit displays a frame identifying the target area to be operated as the training scenario progresses, while displaying an operation means identification image indicating the means for operating the target area based on operation information detected by the operation detection unit.

また、本発明に係るプログラムは、仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練するプログラムであって、
前記訓練対象物を表示装置に仮想表示する三次元表示処理と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知処理と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定処理と、を実行し、
前記三次元表示処理は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知処理によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示することを特徴とする。
The program according to the present invention is a program for educating and training a user on a method of operating a training object displayed in three dimensions in a virtual space, comprising:
A three-dimensional display process for virtually displaying the training object on a display device;
An operation detection process for detecting operation information including a user's operation position and operation direction;
an operation determination process for evaluating a user's operation based on the operation target portion of the training object and the operation information;
The three-dimensional display process is characterized in that it displays a frame identifying the target area to be operated as the training scenario progresses, while displaying an operation means identification image indicating the means for operating the target area based on operation information detected by the operation detection process.

また、本発明に係るプログラムは、訓練対象物の操作対象部位ごとに、それぞれの前記操作対象部位からの距離に応じて、前記操作対象部位を操作するための手段を示す操作手段識別画像が通過すべき又は通過すべきでない判定領域を保存する手段を備え、仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する訓練システムのプログラムであって、
前記訓練対象物を表示装置に仮想表示する三次元表示処理と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知処理と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定処理と、を実行し、
前記三次元表示処理は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知処理によって検知された操作情報に基づいて、前記操作手段識別画像を表示し、
前記操作判定処理は、前記操作手段識別画像の位置が前記判定領域を通過したか否かによって、ユーザが前記操作対象部位に正しくアクセスしたか否かを判定することを特徴とする。
The program according to the present invention is a training system program for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space, the program comprising: a means for saving a judgment area through which an operation means identification image showing a means for operating the operation target portion of a training object should or should not pass, depending on a distance from each of the operation target portions of the training object;
A three-dimensional display process for virtually displaying the training object on a display device;
An operation detection process for detecting operation information including a user's operation position and operation direction;
an operation determination process for evaluating a user's operation based on the operation target portion of the training object and the operation information;
the three-dimensional display process displays a frame for identifying an operation target part to be operated as the training scenario progresses, while displaying the operation means identification image based on the operation information detected by the operation detection process;
The operation determination process determines whether or not the user has correctly accessed the operation target portion depending on whether or not the position of the operation means identification image has passed through the determination area.

本発明によれば、ユーザの習熟度を効率的に高めることができ、また訓練対象物に対するユーザの動きを精度よく評価することがでる。 The present invention makes it possible to efficiently improve a user's proficiency and accurately evaluate the user's movements relative to a training object.

本発明の実施の形態による訓練システムの機能ブロック図である。FIG. 1 is a functional block diagram of a training system according to an embodiment of the present invention. 本発明の実施の形態による訓練対象物の説明図である。FIG. 1 is an illustration of a training object according to an embodiment of the present invention. 図1の訓練シナリオ記憶部のデータ構成図である。FIG. 2 is a data structure diagram of the training scenario storage unit in FIG. 1. 図1の操作判定記憶部のデータ構成図であり、図4(a)は、個々のユーザの操作判定記録、図4(b)は複数のユーザの統計処理された操作記録である。4A and 4B are data configuration diagrams of the operation determination storage unit in FIG. 1, in which FIG. 4A shows operation determination records of individual users, and FIG. 4B shows statistically processed operation records of a plurality of users. 図1の3D-CG表示制御部による操作対象識別枠表示の説明図である。4 is an explanatory diagram of an operation target identification frame display by the 3D-CG display control unit in FIG. 1. 図1の3D-CG表示制御部の操作対象識別枠表示処理手順を示すフローチャートである。10 is a flowchart showing the procedure of an operation target identification frame display process performed by the 3D-CG display control unit in FIG. 1; 図1の3D-CG表示制御部によるガイダンス表示の説明図である。2 is an explanatory diagram of a guidance display by the 3D-CG display control unit in FIG. 1. 本発明の実施の形態によるコントローラを用いた操作の説明図である。FIG. 4 is an explanatory diagram of an operation using a controller according to an embodiment of the present invention. 本発明の実施の形態によるハンドトラッキング技術を用いた操作の説明図である。FIG. 1 is an explanatory diagram of an operation using hand tracking technology according to an embodiment of the present invention. 本発明の実施の形態による視線トラッキング技術を用いた操作の説明図である。FIG. 1 is an explanatory diagram of an operation using eye-tracking technology according to an embodiment of the present invention. 図1の操作判定部のアクセスルート判定処理の概念説明図である。4 is a conceptual explanatory diagram of an access route determination process of the operation determination unit in FIG. 1 ; 図1の操作判定部のアクセスルート判定処理の詳細説明図である。1. FIG. 4 is a detailed explanatory diagram of an access route determination process performed by the operation determination unit in FIG. 図1の操作判定部のアクセスルート判定処理のフローチャートである。4 is a flowchart of an access route determination process of an operation determination unit in FIG. 1 . 図12の操作判定部のアクセスルート判定処理の変形例である。13 is a modified example of the access route determination process of the operation determination unit in FIG. 12 . 図1の統計分析部とシナリオ変更編集部の処理手順を示すフローチャートである。2 is a flowchart showing the processing steps of a statistical analysis unit and a scenario modification editing unit in FIG. 1 . 図1の3D-CG表示制御部の操作モード時の処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure in an operation mode of the 3D-CG display control unit in FIG. 図15の他の実施例による統計分析部とシナリオ変更編集部の処理手順を示すフローチャートである。16 is a flowchart showing the processing steps of a statistical analysis unit and a scenario modification editing unit according to another embodiment of FIG. 15 . 図16の他の実施例による3D-CG制御部、操作判定部、操作判定出力部の処理手順を示すフローチャートである。17 is a flowchart showing the processing procedure of a 3D-CG control unit, an operation determination unit, and an operation determination output unit according to another embodiment of FIG. 16.

以下に本発明の実施の形態に係る訓練システムについて図面を参照しながら説明する。
図1において、訓練システム1は、バーチャルコンテンツ表示装置10、操作用装置50、訓練シナリオ/操作記録判定装置60で構成される。訓練シナリオ/操作記録判定装置60とHMD10は有線又は無線の通信回線を介して接続される。
A training system according to an embodiment of the present invention will be described below with reference to the drawings.
1, the training system 1 is composed of a virtual content display device 10, an operation device 50, and a training scenario/operation record determination device 60. The training scenario/operation record determination device 60 and the HMD 10 are connected via a wired or wireless communication line.

バーチャルコンテンツ表示装置10として、たとえばヘッドマウントディスプレイ(以下、単に「HMD」という。)を用いることができる。以下、このHMDを用いた場合を例に説明する。 As the virtual content display device 10, for example, a head mounted display (hereinafter simply referred to as "HMD") can be used. The following explanation uses the case where this HMD is used as an example.

訓練シナリオ/操作記録判定装置(以下単に「判定装置」という。)60は、HMD10へ送信するための訓練対象物の三次元データや、訓練対象物の操作手順データなどを記憶する。また、判定装置60は、HMD10から送られてくる操作情報に基づいてユーザの操作内容に関する判定や統計分析を行う。そして、統計分析の結果に基づいて操作手順や判定基準などの訓練シナリオの変更を行う。 The training scenario/operation record judgment device (hereinafter simply referred to as the "judgment device") 60 stores three-dimensional data of the training object to be transmitted to the HMD 10, operation procedure data of the training object, and the like. The judgment device 60 also performs judgment and statistical analysis of the user's operation content based on the operation information sent from the HMD 10. Then, based on the results of the statistical analysis, it changes the training scenario, such as the operation procedure and judgment criteria.

操作用装置50は、ユーザが所持あるいは装着するコントローラや、ユーザの手指の動きを検知するハンドトラッキングなどで構成することができる。この操作用装置50は、ユーザの動きを検知することができれば足り、ユーザの視線で訓練対象物の操作が可能であれば、視線を検知する装置なども含まれる。 The operation device 50 can be configured as a controller held or worn by the user, or hand tracking that detects the movement of the user's fingers. This operation device 50 is sufficient as long as it can detect the movement of the user, and also includes a device that detects the user's gaze if it is possible to operate the training object with the user's gaze.

HMD10は、判定装置60から渡される訓練対象物の三次元データをもとに、訓練対象物を三次元仮想空間に表示し、操作用装置50から渡される検知信号をもとに、訓練対象物を操作する手段(例えば手指や後述するレンチ等)の位置や操作内容(例えばボタン押下やレンチの回転等)などの操作情報を得る。この操作情報は、判定装置60へ送られ、操作内容に関して判定が行われる。 The HMD 10 displays the training object in a three-dimensional virtual space based on the three-dimensional data of the training object passed from the determination device 60, and obtains operation information such as the position of the means for operating the training object (e.g., a finger or a wrench, which will be described later) and the operation content (e.g., pressing a button or rotating a wrench) based on the detection signal passed from the operation device 50. This operation information is sent to the determination device 60, which determines the operation content.

より詳細には、判定装置60は、訓練対象物の三次元データを保存する3Dモデル記憶部61、操作手順などユーザを訓練するためのシナリオ(訓練シナリオ)を保存する訓練シナリオ記憶部62、操作判定された結果を保存する操作判定記憶部63を備える。
判定装置60は、また、3Dモデル記憶部61と訓練シナリオ記憶部62に保存されているデータをもとに、訓練対象物や訓練シナリオに従った操作指示などの情報をHMD10に仮想表示させる3D-CG表示制御部71、HMD10から送られてくる操作情報をもとにユーザの操作内容を評価し、評価結果を操作判定記憶部63に書き込む操作判定部72、操作判定記憶部63に保存されている評価結果を出力する操作判定出力部73、当該評価結果をもとに統計・分析を行う統計分析部74、この統計分析の結果に基づいて訓練シナリオのデータを編集するシナリオ変更編集部75を備える。シナリオ変更編集部75は、図示しないユーザインタフェースによって人間系で訓練シナリオを編集してもよいが、後述する手順によって、統計分析の結果に基づいて自動的に編集処理を行うようにしてもよい。
More specifically, the judgment device 60 includes a 3D model memory unit 61 that stores three-dimensional data of the training object, a training scenario memory unit 62 that stores scenarios (training scenarios) for training the user, such as operation procedures, and an operation judgment memory unit 63 that stores the results of operation judgment.
The judgment device 60 also includes a 3D-CG display control unit 71 that virtually displays information such as a training object and operation instructions according to a training scenario on the HMD 10 based on data stored in a 3D model storage unit 61 and a training scenario storage unit 62, an operation judgment unit 72 that evaluates the user's operation content based on operation information sent from the HMD 10 and writes the evaluation result in an operation judgment storage unit 63, an operation judgment output unit 73 that outputs the evaluation result stored in the operation judgment storage unit 63, a statistical analysis unit 74 that performs statistics and analysis based on the evaluation result, and a scenario change editing unit 75 that edits data of the training scenario based on the result of this statistical analysis. The scenario change editing unit 75 may edit the training scenario manually using a user interface (not shown), or may automatically perform editing processing based on the result of the statistical analysis according to a procedure described later.

HMD10は、判定装置60の3D-CG表示制御部71から送られてくる情報を仮想表示する3D-CG表示部11、操作用装置50から渡されるユーザの動きなどの操作に関するデータをもとに所定の操作手段を表す画像(操作手段識別画像)を三次元仮想空間に表示する操作内容表示部12、操作判定に用いられる座標(例えば操作手段の座標)を検知する操作座標検知部13、操作内容(例えば、ユーザの手の位置や訓練対象物へのアプローチルートなど)を検知する操作内容検知部14を備える。 The HMD 10 is equipped with a 3D-CG display unit 11 that virtually displays information sent from the 3D-CG display control unit 71 of the judgment device 60, an operation content display unit 12 that displays an image (operation means identification image) representing a specific operation means in a three-dimensional virtual space based on data related to operations such as the user's movements passed from the operation device 50, an operation coordinate detection unit 13 that detects coordinates used for operation judgment (e.g., the coordinates of the operation means), and an operation content detection unit 14 that detects the operation contents (e.g., the position of the user's hands and the approach route to the training object).

操作用装置50は、ユーザの動きなど操作判定に必要なデータを検知して、HMD10の操作内容表示部12に渡す操作検知部51を備えている。
ここで、各手段12~14,51,71~75はコンピュータの機能としてプログラムによって実現可能である。
この判定装置60は、汎用コンピュータで実現することもできるが、HMD10と一体として実現してもよい。また、操作用装置50についても、HMD10の機能を用いて実現することもできる。
The operation device 50 includes an operation detection unit 51 that detects data necessary for operation determination, such as a user's movement, and passes the data to the operation content display unit 12 of the HMD 10 .
Here, each of the means 12 to 14, 51, and 71 to 75 can be realized by a program as a function of a computer.
The determination device 60 can be realized by a general-purpose computer, but may be realized as an integrated part of the HMD 10. The operation device 50 can also be realized by using the functions of the HMD 10.

訓練システム1の装置構成例およびHMD10に表示される訓練対象物のイメージを図2に示す。
例えば、鉄道車両の運転台の操作訓練を行う場合、HMD10には、訓練対象物11aとして運転台の機器が三次元仮想表示される。ユーザの動きをトラッキングする方法としては、ヘッドトラッキング、ポジショントラッキング、ハンドトラッキング、アイトラッキングなど既知の方法を用いることができる。
FIG. 2 shows an example of the device configuration of the training system 1 and an image of a training object displayed on the HMD 10.
For example, when training is given on the operation of a driver's cab of a railway vehicle, the equipment in the driver's cab is virtually displayed in three dimensions as a training object 11a on the HMD 10. As a method for tracking the movement of the user, known methods such as head tracking, position tracking, hand tracking, and eye tracking can be used.

訓練シナリオ記憶部62のデータ例を図3に示す。訓練シナリオは、操作手順ごとの判定条件からなる。訓練シナリオは、学習題材ごとに複数設けられる。なお訓練シナリオは各作業項目の判定結果によって分岐させるようにしてもよい。
図3において、操作手順の順番に作業項目が記憶され、各作業項目には、動作(ガイダンス)の内容、操作判定の対象か否かを設定するフラグ、視線判定の対象か否かを設定するフラグ、操作対象部位の座標、操作時の挙動(操作対象部位の変化)、操作対象識別枠の座標、判定領域の座標、制限時間、判定対象の採点を有効とするか否かを設定するフラグが関連付けられて記憶される。判定領域は、操作対象部位からの距離に応じて、ユーザの操作手段が通過する範囲を示す領域であり、各操作対象部位にユーザがアクセスすべきルートを規定する情報(ルート情報)である。なお、この判定領域はユーザがアクセスすべきでないルートとして設定してもよい。また、図3において、作業項目ごとに動作(ガイダンス)を行うか否かを設定するフラグを設けるようにしてもよい。
An example of data in the training scenario storage unit 62 is shown in FIG. 3. A training scenario is made up of judgment conditions for each operation procedure. A plurality of training scenarios are provided for each learning subject. The training scenario may be branched depending on the judgment result for each work item.
In Fig. 3, the work items are stored in the order of the operation procedure, and each work item is associated with and stored with the contents of the operation (guidance), a flag for setting whether or not it is a target for operation judgment, a flag for setting whether or not it is a target for gaze judgment, the coordinates of the operation target part, the behavior during operation (change in the operation target part), the coordinates of the operation target identification frame, the coordinates of the judgment area, the time limit, and a flag for setting whether or not the scoring of the judgment target is enabled. The judgment area is an area indicating the range through which the user's operating means passes depending on the distance from the operation target part, and is information (route information) that specifies the route that the user should access each operation target part. Note that this judgment area may be set as a route that the user should not access. Also, in Fig. 3, a flag for setting whether or not to perform an operation (guidance) for each work item may be provided.

図4は、操作判定記憶部63のデータ構成例である。ユーザID、訓練シナリオIDごとに、各作業項目の結果が保存されている。
3Dモデル記憶部61には、訓練対象物の3Dモデルを表示するための三次元座標が保存されている。なお、図3に示した操作対象識別枠や判定領域の座標あるいは操作手段識別画像の座標は、3Dモデル記憶部61に保存するようにしてもよい。
4 shows an example of the data configuration of the operation determination storage unit 63. The results of each work item are stored for each user ID and training scenario ID.
Three-dimensional coordinates for displaying a 3D model of a training object are stored in the 3D model storage unit 61. The coordinates of the operation object identification frame and the judgment area or the coordinates of the operation means identification image shown in FIG. 3 may be stored in the 3D model storage unit 61.

次に上述した構成を有する訓練システム1の動作を説明する。
(1)訓練モード
本実施の形態では、訓練システム1の訓練モードとして、1)学習モード、2)操作モード、3)採点モード、の3種類のモードを設ける。
Next, the operation of the training system 1 having the above-mentioned configuration will be described.
(1) Training Modes In this embodiment, the training system 1 has three training modes: 1) a learning mode, 2) an operation mode, and 3) a scoring mode.

学習モードは、ユーザの操作なしで、操作手順を仮想空間上でシナリオ通りに再現する動作モードである。すなわち、ユーザは操作をせず、仮想空間上に表示される操作対象物と、操作対象識別枠およびガイダンスを見て操作内容を記憶することを主な目的とする。なお、このとき訓練シナリオに基づいて動く操作手段識別画像ないしアバターを表示するようにしてもよい。 The learning mode is an operating mode in which the operating procedures are reproduced in a virtual space according to a scenario, without the user's operation. In other words, the main purpose of the user is to memorize the operation contents by looking at the operation object, operation object identification frame, and guidance displayed in the virtual space, without performing any operation. Note that at this time, an operating means identification image or avatar that moves based on the training scenario may be displayed.

操作モードは、ユーザが訓練シナリオに沿って操作する動作モードである。この動作モードでは、ユーザの操作内容に対して採点はしない。
採点モードも、ユーザが訓練シナリオに沿って操作を行う動作モードであるが、操作モードと異なり、ユーザの操作内容を記録して採点して評価を行う。
The operation mode is an operation mode in which the user operates according to a training scenario. In this operation mode, the user's operation is not scored.
The scoring mode is also an operation mode in which the user performs operations according to a training scenario, but unlike the operation mode, the user's operations are recorded, scored, and evaluated.

訓練は、1)学習モード→2)操作モード→3)採点モード、のように段階を踏んで行うのが好ましい。また、訓練対象物において、どこを操作するかを示す操作対象識別枠は、学習モード、操作モードでは表示するが、採点モードでは表示しないなどの表示制御を行うことにより、効果的な訓練を行うことができる。勿論、操作対象識別枠は、訓練モードのみでなくユーザの習熟度などの条件も含めて表示/非表示を決定するようにしてもよい。 It is preferable that training be carried out in stages, such as 1) learning mode → 2) operation mode → 3) scoring mode. Furthermore, effective training can be carried out by controlling the display of the operation object identification frame, which indicates which part of the training object is to be operated, so that it is displayed in the learning mode and operation mode, but not displayed in the scoring mode. Of course, the display/non-display of the operation object identification frame may be determined based not only on the training mode, but also on other conditions such as the user's proficiency.

(2)操作対象ガイド機能(図5)
3D-CG表示制御部71は、訓練開始時に訓練対象物の三次元画像を3D-CG表示部11に表示させる。そして、学習モード、操作モードのときには、図5に示すように訓練シナリオの進行に伴って、訓練対象物の3Dモデルに重ねて、そのときの操作対象部位を視認し易くするための枠(操作対象識別枠)21を表示する。ユーザが当該操作対象部位の操作を終えると、その操作対象識別枠は消去し、次の操作対象部位に対する操作対象識別枠を表示する。
(2) Operation target guide function (Fig. 5)
At the start of training, the 3D-CG display control unit 71 causes a three-dimensional image of the training object to be displayed on the 3D-CG display unit 11. Then, in the learning mode and operation mode, as the training scenario progresses, a frame (operation target identification frame) 21 is displayed that is superimposed on the 3D model of the training object to make it easier to visually identify the part to be operated at that time, as shown in Fig. 5. When the user finishes operating the part to be operated, that operation target identification frame is erased, and an operation target identification frame for the next part to be operated is displayed.

以下、図6を用いて、3D-CG表示制御部71の操作対象識別枠表示処理の手順を詳述する。
訓練開始時、3D-CG表示制御部71は起動されると、訓練対象物をHMD10の3D-CG表示部11に表示する(S501)。そして、訓練モードが採点モードか否かを判定し(S502)、採点モードの場合は終了する。採点モードでない場合、すなわち学習モード又は操作モードの場合は、訓練シナリオの全ての操作対象部位について次の処理を実行する(S503a,S503b)。まず訓練シナリオ記憶部62にアクセスして操作対象項目の操作対象識別枠情報を抽出する(S504)。この操作対象識別枠情報は、操作対象識別枠の色、動作(例えばフリッカ)などの表示態様や位置を決める情報である。3D-CG表示制御部71は、この操作対象識別枠情報にしたがって3D-CG表示部11の仮想空間上に操作対象識別枠を表示する(S505)。ちなみに、操作対象識別枠の座標は、その操作項目の操作対象部位に関連付けられて予め訓練シナリオ記憶部62又は3Dモデル記憶部61に保存される。
The procedure of the operation target identification frame display process of the 3D-CG display control unit 71 will be described in detail below with reference to FIG.
When the training starts, the 3D-CG display control unit 71 is activated and displays the training object on the 3D-CG display unit 11 of the HMD 10 (S501). Then, it is determined whether the training mode is a scoring mode or not (S502), and if it is a scoring mode, the process ends. If the training mode is not a scoring mode, that is, if it is a learning mode or an operation mode, the following process is executed for all the operation target parts of the training scenario (S503a, S503b). First, the training scenario storage unit 62 is accessed to extract operation target identification frame information of the operation target item (S504). This operation target identification frame information is information that determines the display mode and position of the operation target identification frame, such as the color and operation (e.g., flicker). The 3D-CG display control unit 71 displays the operation target identification frame in the virtual space of the 3D-CG display unit 11 according to this operation target identification frame information (S505). Incidentally, the coordinates of the operation target identification frame are associated with the operation target part of the operation item and are stored in advance in the training scenario storage unit 62 or the 3D model storage unit 61.

次に3D-CG表示制御部71は訓練モードを判定し(S506)、訓練モードが学習モードの場合は、訓練シナリオ記憶部62に予め保存されている設定時間(制限時間)の経過後に(S507)、当該操作対象識別枠を消去する(S510)。一方、訓練モードが操作モードの場合は、操作が終了したか否かを判定し、操作が終了した場合(S508)あるいはタイムアウト後(S509)に当該操作対象識別枠を消去する(S510)。 The 3D-CG display control unit 71 then determines the training mode (S506), and if the training mode is the learning mode, it erases the operation target identification frame (S510) after a set time (time limit) previously stored in the training scenario storage unit 62 has elapsed (S507). On the other hand, if the training mode is the operation mode, it determines whether the operation has ended, and erases the operation target identification frame (S510) when the operation has ended (S508) or after a timeout (S509).

上記処理は、操作対象識別枠の表示/非表示に関する手順であり、例えば訓練シナリオにしたがって行うガイダンス表示(図7)や音声による指示などは別のステップによって3D-CG表示部11に表示される。
以上の手順で表示制御される操作対象識別枠により、ユーザは容易に操作対象部位を認識することができる。また、ユーザの視点や姿勢が代わっても、分かり易く表示することができるので、訓練効率を上げることができる。
The above process is a procedure for displaying/hiding the operation target identification frame. For example, guidance display (FIG. 7) according to the training scenario and voice instructions are displayed on the 3D-CG display unit 11 in a separate step.
The operation target identification frame, which is display-controlled according to the above procedure, allows the user to easily recognize the operation target area. In addition, even if the user's viewpoint or posture changes, the display can be made easy to understand, improving training efficiency.

なお、操作対象識別枠は、上述した訓練モードに限らず、たとえばユーザの操作内容や習熟度など他の要素を加えてそれぞれどのような状況かがわかるように識別表示するようにしてもよい。また、個々の操作対象部位ごとに表示/非表示とするのではなく、一連の訓練単位ごとに、複数の操作対象部位の操作対象識別枠を表示制御するようにしてもよい。 The operation target identification frame is not limited to the above-mentioned training mode, and other elements such as the user's operation content and proficiency may be added to identify and display the respective situations. Also, instead of displaying/hiding each individual operation target part, the display of the operation target identification frames for multiple operation target parts may be controlled for each series of training units.

(3)訓練機器の操作(図8)
訓練シナリオにしたがって、ユーザは仮想空間内で機器(操作対象部位)を操作するが、この機器操作は、図8に示すコントローラを使用して操作することができる。
(3) Operation of training equipment (Figure 8)
According to the training scenario, the user operates equipment (operation target part) in the virtual space, and this equipment operation can be performed using the controller shown in FIG.

コントローラを使用した場合、コントローラの備える操作検知部51によって、コントローラの位置や向き(方向)に関する情報がHMD10に送られ、操作内容表示部12により、その操作対象部位を操作するのに用いられる手段(ツール)を示す画像(操作手段識別画像)が仮想空間上に表示される。 When the controller is used, the operation detection unit 51 of the controller sends information about the position and orientation (direction) of the controller to the HMD 10, and the operation content display unit 12 displays an image (operation means identification image) showing the means (tool) used to operate the operation target area in the virtual space.

なお、このときの操作手段識別画像の表示位置は、予めセットされたデフォルトの位置(例えば、HMD10の位置からの相対距離)を基準として、その位置からコントローラの移動量、移動方向によって操作手段識別画像を移動させてもよいし、あるいはコントローラの種類によって別の表示のさせ方をしてもよい。例えば、コントローラがレーザなどの光を照射する装置の場合は、コントローラの位置、向きによって発射される光の軌跡を演算し、その軌跡と、訓練対象物との交点に操作手段識別画像を表示させるようにしてもよい。 The display position of the operation means identification image at this time may be based on a preset default position (e.g., a relative distance from the position of the HMD 10) and the operation means identification image may be moved from that position depending on the amount and direction of movement of the controller, or it may be displayed in a different way depending on the type of controller. For example, if the controller is a device that emits light such as a laser, the trajectory of the emitted light may be calculated based on the position and orientation of the controller, and the operation means identification image may be displayed at the intersection of that trajectory and the training object.

以下、コントローラを用いて、訓練対象物を選択、操作する手順について説明する。
なお、コントローラの仮想空間上の位置座標や向き等のデータは、既存のポジショントラッキング技術が用いて取得することができる。コントローラ50の操作検知部51は、取得した位置座標や向き等のデータをHMD10の操作内容表示部12に渡す。
The procedure for selecting and manipulating a training object using the controller will be described below.
The position coordinates, orientation, and other data of the controller in the virtual space can be acquired using existing position tracking technology. The operation detection unit 51 of the controller 50 transfers the acquired position coordinates, orientation, and other data to the operation content display unit 12 of the HMD 10.

操作内容表示部12は、コントローラ50の位置及び向きから仮想空間内において一定方向に延長線を引く。この延長線は、仮想空間内に表示させてもよいし、表示させなくてもよいが、コントローラ50から訓練対象物の交点まで仮想空間上に延長線を表示することにより、ユーザには、その延長線があたかもレーザ光線のように認識され、操作性の向上が期待できる。 The operation content display unit 12 draws an extension line in a certain direction in the virtual space from the position and orientation of the controller 50. This extension line may or may not be displayed in the virtual space, but by displaying an extension line in the virtual space from the controller 50 to the intersection of the training object, the user will recognize the extension line as if it were a laser beam, which is expected to improve operability.

そして、この延長線と訓練対象物の3Dモデル上の交点にポインタ50aを表示する。
このポインタ50aの座標は、操作座標検知部13により判定装置60の操作判定部72に送られる。
また、ユーザはポインタ50aが訓練対象物の所望の位置に来たときに、所定のアクション(例えば、コントローラ50のボタンを押すなど)を行う。このアクションは、操作内容検知部14によって検出され、判定装置60の操作判定部72に送られる。
A pointer 50a is then displayed at the intersection of this extension line and the 3D model of the training object.
The coordinates of this pointer 50 a are sent by the operation coordinate detection unit 13 to the operation determination unit 72 of the determination device 60 .
Furthermore, when the pointer 50a reaches a desired position on the training object, the user performs a predetermined action (for example, pressing a button on the controller 50). This action is detected by the operation content detection unit 14 and sent to the operation determination unit 72 of the determination device 60.

操作判定部72は、ポインタ50aが判定用の座標(面又は立体)内に入り、所定のアクションが行われることにより、当該操作対象部位に対するユーザの操作の判定は正常に完了したと判定する。操作判定部72は、この判定結果に加え、当該操作に要した時間や、ポインタ50aの軌跡、すなわち操作対象部位へのアプローチのルート等などの操作内容等も含めてユーザの当該操作対象部位に対する評価を演算し、当該評価結果を操作判定記憶部63に保存する。 When the pointer 50a enters the judgment coordinates (plane or solid) and a specified action is performed, the operation judgment unit 72 judges that the judgment of the user's operation on the operation target part has been completed normally. In addition to this judgment result, the operation judgment unit 72 calculates an evaluation of the operation target part by the user, including the operation content such as the time required for the operation and the trajectory of the pointer 50a, i.e., the approach route to the operation target part, and the like, and stores the evaluation result in the operation judgment storage unit 63.

(他の手段による機器操作)
以上、コントローラによって操作を行う場合について説明したが、操作用装置50はこれに限らず、既知の技術を用いることができる。例えば、操作用装置50としてハンドトラッキング装置を用いてユーザの手指の動きをトラッキングし、これを三次元仮想空間上に表示させてもよい。この場合も、上述したように、三次元仮想空間上でデフォルトの表示位置を予め決めておき、ハンドトラッキング装置の検知した移動量、移動方向に従って、三次元仮想空間上での操作手段識別画像を移動させることができる。
(Operation of equipment by other means)
Although the above describes a case where the operation is performed by a controller, the operation device 50 is not limited to this, and known techniques can be used. For example, a hand tracking device may be used as the operation device 50 to track the movement of the user's fingers and display the movement in a three-dimensional virtual space. In this case, too, as described above, a default display position in the three-dimensional virtual space is determined in advance, and the operation means identification image in the three-dimensional virtual space can be moved according to the amount and direction of movement detected by the hand tracking device.

具体的には、操作内容表示部12は、ハンドトラッキング装置から渡される操作データを取り込み、操作座標検知部13によって仮想空間上の座標(バーチャルハンド座標)を演算する。このバーチャルハンド座標は操作判定部72に渡される。操作判定部72は、バーチャルハンド座標が操作対象部位に関連つけて予め設定されている判定用の座標(面または立体)内に入り、操作内容検知部14を介して所定のアクション(ハンドジェスチャー・ボタン)が実行されたことを検知すると、操作完了と判定する。 Specifically, the operation content display unit 12 takes in the operation data passed from the hand tracking device, and calculates coordinates in the virtual space (virtual hand coordinates) using the operation coordinate detection unit 13. These virtual hand coordinates are passed to the operation determination unit 72. When the operation determination unit 72 detects that the virtual hand coordinates enter a determination coordinate (plane or solid) that is previously set in association with the part to be operated, and that a specified action (hand gesture/button) has been executed via the operation content detection unit 14, it determines that the operation is complete.

なお、上記の操作判定例は、ハンドトラッキング技術を利用してバーチャル空間内にバーチャルハンドを表示し、仮想空間内のオブジェクトを操作し操作判定するというものである。これに対して、図9に示すように、バーチャルハンドではなく、ハンドトラッキング技術でとらえた実空間の自分の手の位置(座標・方向)をもとに仮想空間内に治具(ツール)22を表示して、仮想空間内の対象物(オブジェクト)11aを操作・判定するようにしてもよい。
この操作判定では、ハンドトラッキング技術でユーザの手の位置・向きをトラッキングして、座標・方向・角度を取得する。操作内容表示部12は、取得したデータをもとに実空間の手に治具が把持されたとして、当該治具の画像(操作手段識別画像)22を仮想空間に表示する。
In the above example of operation determination, a virtual hand is displayed in a virtual space using hand tracking technology, and an object in the virtual space is operated and determined. Alternatively, as shown in Fig. 9, instead of a virtual hand, a tool 22 may be displayed in the virtual space based on the position (coordinates and direction) of one's own hand in the real space captured by hand tracking technology, and an object 11a in the virtual space may be operated and determined.
In this operation determination, the position and orientation of the user's hand are tracked using hand tracking technology to obtain the coordinates, direction, and angle. Based on the obtained data, the operation content display unit 12 determines that a tool is being held by the hand in the real space, and displays an image of the tool (operation means identification image) 22 in the virtual space.

図9は、機器の組み立て分解作業において、治具22としてレンチを用いて、仮想空間上に表示された機器(訓練対象物)のナット(操作対象部位)の取り外し・取り付け作業を行う場合の例を示すものである。なお、図9では、治具22としてレンチを記載するが、治具22はレンチに限定するものではない。治具22の操作は、コントローラを移動・回転させる、あるいはボタンを押す、その他ハンドジェスチャなどの所定のアクション(例:手を握るなど)によって行う。この治具22の画像は、いわゆる治具本体(図中B)の画像に、訓練対象物の操作対象部位(図中A)と係合する部分を示す画像(図中Cの○印)を合成するのが好ましい。これにより、ユーザは治具22において、操作対象部位と係合する位置を正確に認識することができるので、仮想空間の訓練対象物に対して正しい位置に治具22をセットすることができる。なお、作業項目ないし操作対象部位ごとに異なる治具を用いる場合があるが、訓練シナリオ記憶部62の作業項目番号に関連つけて、当該作業で用いる治具(操作手段識別画像)22の3D座標を保存しておき、ハンドトラッキング等によって取得した手指の位置とこの3D座標を用いて、仮想空間上に作業ごとに異なる治具の画像22を表示することができる。 9 shows an example of a case where a wrench is used as the jig 22 to remove and install nuts (operation target parts) of equipment (training object) displayed in a virtual space in the assembly and disassembly of equipment. In FIG. 9, a wrench is shown as the jig 22, but the jig 22 is not limited to a wrench. The jig 22 is operated by moving and rotating the controller, pressing a button, or by a predetermined action such as a hand gesture (e.g., clenching the hand). It is preferable that the image of the jig 22 is a composite image of the so-called jig body (B in the figure) and an image (circle mark C in the figure) showing the part that engages with the operation target part of the training object (A in the figure). This allows the user to accurately recognize the position of the jig 22 that engages with the operation target part, so that the jig 22 can be set in the correct position with respect to the training object in the virtual space. In some cases, different tools are used for each task or each part to be operated. The 3D coordinates of the tool (operation means identification image) 22 used for that task are stored in association with the task item number in the training scenario storage unit 62, and the image of the different tool 22 for each task can be displayed in the virtual space using the 3D coordinates and the position of the fingers acquired by hand tracking or the like.

以下、図9を用いて、この処理手順について詳述する。
(ステップ1)3D-CG表示制御部71により、仮想空間に操作対象となる機器などの3Dモデルを表示する。
(ステップ2)機器には操作対象となる部位(A)を予め設定しておく。操作対象部位が判るようにガイド(枠)を表示してもよいし、あえて表示しなくてもよい。このデータは、図3に示す訓練シナリオ記憶部62に予め保存しておく。設定情報は、例えば操作対象部位の座標、操作対象部位に対する治具の方向・角度などである。また、操作時の挙動・正しい操作(例:レンチを右回し)等、操作手段によって決まる操作内容を設定しておく。
(ステップ3)実空間でハンドトラッキング技術により取得したユーザの手の座標情報をもとに、仮想空間に当該手の座標からの相対位置(予め設定)にバーチャル治具(B)を表示する。治具には、操作検知部分(C)が設定されている。後述する処理により、この操作検知部分(C)が正しいルートを通って操作対象部位にアクセスしたか否かが判定される。
(ステップ4)治具22の操作検知部分(C)と操作対象部位の座標(ある程度の範囲)と治具の角度(予め設定:操作対象部位に対する相対角度)が一致した状態で指定のアクション(右回しなど)を行った場合、正しい操作として記録し、正しく操作が行われたことを示すバーチャルモデルを表示する。
なお、アクションは、手の動作あるいはコントローラのボタンなどでの操作が可能とする。
This processing procedure will be described in detail below with reference to FIG.
(Step 1) The 3D-CG display control unit 71 displays a 3D model of a device to be operated in a virtual space.
(Step 2) The part (A) to be operated is set in advance on the equipment. A guide (frame) may be displayed so that the part to be operated can be identified, but it is not necessary to display it. This data is stored in advance in the training scenario storage unit 62 shown in FIG. 3. The setting information is, for example, the coordinates of the part to be operated, and the direction and angle of the jig relative to the part to be operated. In addition, the operation contents determined by the operating means, such as the behavior during operation and the correct operation (e.g., turning a wrench to the right), are set.
(Step 3) Based on the coordinate information of the user's hand acquired in the real space by the hand tracking technology, a virtual tool (B) is displayed in the virtual space at a relative position (preset) from the coordinates of the hand. An operation detection part (C) is set in the tool. By the process described later, it is determined whether or not this operation detection part (C) has accessed the operation target part via the correct route.
(Step 4) When a specified action (such as turning right) is performed while the coordinates (within a certain range) of the operation detection portion (C) of the jig 22, the area to be operated, and the angle of the jig (pre-set: relative angle to the area to be operated) match, this is recorded as a correct operation, and a virtual model is displayed indicating that the operation was performed correctly.
Actions can be performed using hand movements or controller buttons.

(視線トラッキング)(図10)
操作手段識別画像22の移動は、HMD10の有するヘッドトラッキング機能及び視線(アイ)トラッキング機能を用いて実行することもできる。すなわち、ヘッドトラッキング機能により、仮想空間上の頭の位置及び向きを取得し、視線トラッキング機能により眼球の動き(視線)をトラッキングして操作手段識別画像22を移動させる。この場合、ヘッドの動きや視線の動きをトラッキングする操作検知部51はHMD10に組み込むことができる。
(Eye tracking) (Figure 10)
The movement of the operation means identification image 22 can also be executed using a head tracking function and a gaze (eye) tracking function of the HMD 10. That is, the head position and orientation in the virtual space are acquired by the head tracking function, and the eye movement (gaze) is tracked by the gaze tracking function to move the operation means identification image 22. In this case, the operation detection unit 51 that tracks the head movement and gaze movement can be incorporated into the HMD 10.

以下、図10(a)を参照しながら、視線トラッキングの手順について説明する。
操作内容表示部12は、操作検知部51から渡されるトラッキングデータをもとに、視線もしくは頭の位置・向き情報から一定方向に延長線(レーザポインタ)23を表示する。この表示はしなくてもよいが、表示をすることにより、ユーザはどの方向を向いているかを容易に知ることができる。そして、延長線(レーザポインタ)23と訓練対象物の3Dモデル上の交点にポインタ画像22を表示する。操作判定部72は、ポインタ画像の座標が判定用の座標(面または立体)内に入り、所定のアクション(ボタン・一定時間以上注視)が行われたことを検知することで操作完了と判定する。この判定用の座標として、操作対象識別枠21の座標を用いることができるが、判定用の座標を別に設けるようにしてもよい。
The procedure for eye gaze tracking will be described below with reference to FIG.
The operation content display unit 12 displays an extension line (laser pointer) 23 in a certain direction based on the line of sight or head position/direction information based on the tracking data passed from the operation detection unit 51. This display is not necessary, but by displaying it, the user can easily know which direction he is facing. Then, a pointer image 22 is displayed at the intersection of the extension line (laser pointer) 23 and the 3D model of the training object. The operation determination unit 72 determines that the operation is complete by detecting that the coordinates of the pointer image enter the determination coordinates (plane or solid) and a predetermined action (button, gaze for a certain period of time or more) has been performed. The coordinates of the operation target identification frame 21 can be used as the determination coordinates, but a determination coordinate may be provided separately.

操作判定部72は、訓練モードが採点モードの場合は、訓練シナリオの作業項目ごとに採点有効フラグがセットされているものについて判定を行い、その判定結果は、操作判定記憶部63に保存する。図10(b)に判定結果の例を示す。なお、判定結果は、合否のみではなく、例えば操作時間などユーザの評価(習熟度の算定)に用いる情報を含めることができる。また、判定結果をもとにポイント値を求めて、これを習熟度としてユーザの評価を行うようにしてもよい。このとき、作業項目ごとにポイントに重み付けをすることもできる。 When the training mode is the scoring mode, the operation judgment unit 72 judges each work item in the training scenario for which the scoring valid flag is set, and stores the judgment result in the operation judgment storage unit 63. An example of the judgment result is shown in FIG. 10(b). Note that the judgment result is not limited to pass/fail, and can include information used for the user's evaluation (calculation of proficiency), such as operation time. Also, a point value can be calculated based on the judgment result, and the user can be evaluated using this as the proficiency. At this time, the points can be weighted for each work item.

(4)操作判定処理
操作判定部72は、採点モードのとき、ユーザが予め設定された時間内で、正しいルートで操作対象部位にアクセスして操作を行ったか否かの判定(アクセスルート判定処理)を行い、その結果によって評価を行う。
(4) Operation Judgment Processing In the scoring mode, the operation judgment unit 72 judges whether or not the user has accessed the operation target area via the correct route within a preset time period and performed the operation (access route judgment processing), and performs an evaluation based on the result of the judgment.

図11は、操作判定部72のアクセスルート判定処理の概念説明図である。この図において、操作手段識別画像22が、複数の判定領域で規定されるルートを通って操作対象部位に到達した場合は正しくアプローチしたと判定する。本実施の形態では、操作対象部位への到達は、操作対象識別枠21に到達したかどうかで判定する。また、この操作対象識別枠21は、図11(a)に示すように平面で表すこともできるが、図11(b)に示すように立体で表すようにしてもよい。また、操作対象識別枠の座標に代えて、他の判定用座標、たとえば操作対象部位の画像の座標を用いることもできる。 Figure 11 is a conceptual diagram of the access route determination process of the operation determination unit 72. In this figure, if the operation means identification image 22 reaches the operation target area via a route defined by multiple determination areas, it is determined that the approach has been made correctly. In this embodiment, arrival at the operation target area is determined based on whether or not the operation target identification frame 21 has been reached. This operation target identification frame 21 can be represented in a plane as shown in Figure 11(a), but it may also be represented in a three-dimensional form as shown in Figure 11(b). Also, instead of the coordinates of the operation target identification frame, other determination coordinates, for example the coordinates of the image of the operation target area, can be used.

図12にアクセスルート判定処理に用いる判定領域の具体例を示す。この図に示すように操作対象部位を囲むように設定された操作対象識別枠21からの垂直距離(高さ)に応じて、所定の広さの判定領域を複数設ける。各判定領域は操作対象識別枠21と平行に設けられる。図12では、判定領域1~nが設けられている。この図において、H1は操作対象識別枠から最も離れた位置にある判定領域1までの距離、tは操作手段識別画像22の位置の座標(点座標)、Dは操作対象識別枠21から操作手段識別画像22までの距離である。 Figure 12 shows a specific example of a judgment area used in the access route judgment process. As shown in this figure, multiple judgment areas of a specified size are provided according to the vertical distance (height) from the operation object identification frame 21 that is set to surround the operation object part. Each judgment area is provided parallel to the operation object identification frame 21. In Figure 12, judgment areas 1 to n are provided. In this figure, H1 is the distance from the operation object identification frame to judgment area 1, which is the farthest away, t is the coordinate (point coordinate) of the position of the operation means identification image 22, and D is the distance from the operation object identification frame 21 to the operation means identification image 22.

次に、図13を用いて操作判定部72のアクセスルート判定処理の手順について説明する。
操作判定部72は、操作手段識別画像の座標(t)を取得する(S601)。また、操作手段識別画像と操作対象識別枠との間の距離(Dt)を計算する(S602)。そして、距離Dtと距離H1とを比較して(S603)、距離Dtが距離H1以上の場合は、ステップS601に戻り以降の処理を繰り返す。一方、ステップS603において、距離Dtが距離H1よりも小さい場合は、次に判定領域i(i=1~n)を通過したか否かを判定する(S604)。この判定処理は、例えば判定領域ごとに、操作手段識別画像の高さが、その判定領域の高さ以上か以下かを判定して、判定領域よりも低くなった直後の高さと直前の高さの位置情報から移動ベクトルを求めてそのベクトルが判定領域と交わるかどうかを確認することにより行うことができる。ステップS604の判定の結果、YESの場合は、判定領域iを通過したことを示す通過フラグを記録(セット)する(S605)。以上の処理を操作手段識別画像が操作対象識別枠に到達するまで繰り返す(S606)。その後、全ての判定領域i(i=1~n)について通過フラグがセットされているか否かを判定し(S607)、セットされていれば合格(S608)、すなわちユーザは、正しく操作対象部位にアクセスしたと判定する。一方、ステップS607の判定の結果、セットされていない判定領域iが存在する場合は不合格と判定する(S609)。なお、この判定において、例えば、判定領域ごとに重みをつけて、例えば操作対象識別枠に近い判定領域ほど重みを大きくして点数付けを行い、この点数によってユーザの操作の評価を行うようにしてもよい。
Next, the procedure of the access route determination process performed by the operation determination unit 72 will be described with reference to FIG.
The operation determination unit 72 acquires the coordinates (t) of the operation means identification image (S601). In addition, the distance (Dt) between the operation means identification image and the operation target identification frame is calculated (S602). Then, the distance Dt is compared with the distance H1 (S603). If the distance Dt is equal to or greater than the distance H1, the process returns to step S601 and the subsequent processes are repeated. On the other hand, if the distance Dt is smaller than the distance H1 in step S603, the process determines whether or not the next determination area i (i = 1 to n) has been passed (S604). This determination process can be performed, for example, by determining for each determination area whether the height of the operation means identification image is equal to or greater than the height of the determination area, and determining a movement vector from the position information of the height immediately after it becomes lower than the determination area and the height immediately before it, and checking whether or not the vector intersects with the determination area. If the result of the determination in step S604 is YES, a passing flag indicating that the determination area i has been passed is recorded (set) (S605). The above process is repeated until the operation means identification image reaches the operation target identification frame (S606). Then, it is determined whether the pass flag is set for all judgment areas i (i = 1 to n) (S607), and if the pass flag is set, it is determined that the user has correctly accessed the operation target area (S608). On the other hand, if the result of the determination in step S607 is that the pass flag is not set for any judgment area i, it is determined that the user has failed (S609). Note that in this determination, for example, a weight may be assigned to each judgment area, and the weight may be increased for judgment areas closer to the operation target identification frame, and the user's operation may be evaluated based on this score.

(他の実施例)
上記のアクセスルート判定処理では、操作対象識別枠に平行に複数の判定領域を設けるようにしたが、図14に示すように、操作対象識別枠ではなく操作対象部位からの距離に応じて判定領域を複数設けるようにしてもよい。この場合、夫々の判定領域は、操作対象部位から略等距離の曲面を形成する。このときの処理手順は、図13のステップS602において、操作手段識別画像と操作対象部位までの距離を計算する。
Other Examples
In the above access route determination process, multiple determination areas are provided parallel to the operation object identification frame, but as shown in Fig. 14, multiple determination areas may be provided according to the distance from the operation object part, rather than the operation object identification frame. In this case, each determination area forms a curved surface at approximately the same distance from the operation object part. In this case, the processing procedure is as follows: in step S602 in Fig. 13, the distance from the operation means identification image to the operation object part is calculated.

(5)統計処理および訓練シナリオ変更処理
次に、図15を用いて、訓練システム1の統計処理と、その統計結果に基づく訓練シナリオ変更処理について説明する。
統計分析部は、操作対象項目ごとの操作時間を抽出する(S301)。次に、操作対象項目ごとの操作時間でばらつき(標準偏差)が一定値より大きい項目を抽出する(S302)。そして、訓練シナリオ記憶部62において、ステップS302で抽出した操作対象項目にシナリオ調整フラグ(図示せず)を付与する(S303)。
(5) Statistical Processing and Training Scenario Change Processing Next, the statistical processing of the training system 1 and the training scenario change processing based on the statistical results will be described with reference to FIG.
The statistical analysis unit extracts the operation time for each operation target item (S301). Next, items whose variation (standard deviation) in the operation time for each operation target item is greater than a certain value are extracted (S302). Then, in the training scenario storage unit 62, a scenario adjustment flag (not shown) is assigned to the operation target item extracted in step S302 (S303).

続いて、シナリオ変更編集部75は、シナリオ調整フラグが付与されている操作項目に変更情報を書き込む(S304)。変更情報は、例えば、操作対象識別枠21の色を変える等である。
上記の処理は、例えば、操作項目の操作に成功(合格)したが、操作に至るまで時間がかかっている、もしくは、早く操作できる人と、時間がかかる人がいる(ばらつき)場合、これを解決するために訓練シナリオを変更するというものである。
Next, the scenario change editing unit 75 writes change information into the operation item to which the scenario adjustment flag has been added (S304). The change information is, for example, changing the color of the operation target identification frame 21, etc.
The above process involves, for example, changing the training scenario to resolve cases where a person successfully (passes) operates an operational item but takes a long time to perform the operation, or where there are some people who can perform the operation quickly and others who take a long time (variation).

また、上述したステップS301~S303は、操作に正解した人を母集団にして統計処理をする例であるが、全ユーザを母集団として、正解率が低い項目にシナリオ調整フラグを付与するようにしてもよい。
特に、採点モードで測定した採点データ(操作データ)を、学習モード・操作モードで表示する操作対象識別枠表示などを変えることによって、学習効果を向上させることができる。
In addition, the above-mentioned steps S301 to S303 are an example of performing statistical processing on a population of people who answered the operation correctly, but it is also possible to use all users as the population and assign a scenario adjustment flag to items with a low rate of correct answers.
In particular, the learning effect can be improved by changing the operation object identification frame display displayed in the learning mode and operation mode based on the scoring data (operation data) measured in the scoring mode.

一例として図16に3D-CG表示制御部71の操作モード時の処理手順を示す。
3D-CG表示制御部71は、訓練シナリオ全ての操作対象部位について以下の処理を実行する(S401a,S401b)。まず、操作対象項目の変更情報を抽出する(S402)。そして、変更情報の有無を判定し(S403)、変更情報がある場合は、操作対象識別枠21を注意枠として表示する(S404)。一方変更情報がない場合は、操作対象識別枠21を通常枠として表示する(S405)。ここで、注意枠、通常枠は、色や点滅などその表示態様の違いをユーザが識別できれば足りる。
As an example, FIG. 16 shows a processing procedure in the operation mode of the 3D-CG display control unit 71.
The 3D-CG display control unit 71 executes the following process for all operation target parts in the training scenario (S401a, S401b). First, change information for the operation target item is extracted (S402). Then, the presence or absence of change information is determined (S403), and if there is change information, the operation target identification frame 21 is displayed as a warning frame (S404). On the other hand, if there is no change information, the operation target identification frame 21 is displayed as a normal frame (S405). Here, it is sufficient that the user can distinguish the difference in display mode between the warning frame and the normal frame, such as color or blinking.

ちなみに、学習モードのときは、ステップS406の分岐判定がタイマーになる。例えば、訓練シナリオ記憶部62の操作項目ごとの表示時間を経過したか否かで遷移するようにしてもよい。 Incidentally, in learning mode, the branching decision in step S406 is a timer. For example, the transition may be made depending on whether the display time for each operation item in the training scenario storage unit 62 has elapsed.

(他の実施例)
次に図17、図18を用いて統計処理、訓練シナリオ変更処理の他の実施例を説明する。この実施例は操作対象項目間の評価結果の相関を演算して、訓練時に効果的に操作対象識別枠ないしガイダンスを表示するものである。
Other Examples
Next, another embodiment of the statistical processing and training scenario change processing will be described with reference to Figures 17 and 18. This embodiment calculates the correlation of the evaluation results between operation target items and effectively displays an operation target identification frame or guidance during training.

図17において、訓練システム1の統計分析部74は、ユーザの訓練終了後あるいは予め設定された周期で起動されると、操作判定記憶部63にアクセスして、各ユーザの評価結果を抽出する。そして、抽出したデータをもとに、訓練シナリオにおける各操作対象部位の評価結果の相関を演算する(S101)。たとえば、操作対象部位aについて評価が悪い場合は、操作対象部位bについても評価が悪くなる等である。このように夫々の操作対象部位の評価結果について相関係数を求める。そして、相関係数が一定値以上の操作対象部位の組合せにグループ番号を付与する(S102)。このとき、一つの操作対象部位について複数のグループ番号が付される場合もある。
そして、シナリオ変更編集部75は、訓練シナリオ記憶部62の操作対象部位に関連付けて、グループ番号を書き込む(S103)。
In Fig. 17, when the statistical analysis unit 74 of the training system 1 is started after the user's training ends or at a preset cycle, it accesses the operation judgment storage unit 63 and extracts the evaluation results of each user. Then, based on the extracted data, it calculates the correlation of the evaluation results of each operation target part in the training scenario (S101). For example, if the evaluation of the operation target part a is poor, the evaluation of the operation target part b will also be poor. In this way, a correlation coefficient is calculated for the evaluation results of each operation target part. Then, a group number is assigned to a combination of operation target parts with a correlation coefficient of a certain value or more (S102). At this time, multiple group numbers may be assigned to one operation target part.
Then, the scenario change editing unit 75 writes the group number in association with the operation target part in the training scenario memory unit 62 (S103).

(6)訓練画像表示処理
次に3D-CG制御部の処理を中心した訓練画像表示処理の手順を説明する。
3D-CG制御部は、訓練開始により起動されると、3D-CG表示部に訓練対象物の3D画像を表示させるとともに、訓練シナリオ記憶部62に記載された全ての操作対象部位について次の処理を実行する(S201a、S201b)。
3D-CG制御部は、まず、訓練シナリオ記憶部62の操作対象部位の注意表示フラグ(図示せず)を抽出する(S202)。この注意表示フラグは、ユーザごとに設けられ、そのユーザの最初の訓練時には予めリセットされている。
(6) Training Image Display Processing Next, a procedure for training image display processing centering on the processing of the 3D-CG control unit will be described.
When the 3D-CG control unit is activated by the start of training, it displays a 3D image of the training object on the 3D-CG display unit and executes the following processing for all operation target parts listed in the training scenario memory unit 62 (S201a, S201b).
The 3D-CG control unit first extracts (S202) a warning display flag (not shown) for the operation target body part from the training scenario storage unit 62. This warning display flag is provided for each user, and is reset in advance at the time of the first training of the user.

そして、注意表示フラグがセットされていなければ、当該操作対象部位について通常の識別枠を表示する(S204)。注意表示フラグがセットされていれば、当該操作対象部位について注意表示用の識別枠を表示する(S205)。ここで、注意表示は、例えば通常表示と異なる色の枠で表示され、ユーザに特に注意喚起を促すものである。 If the warning display flag is not set, a normal identification frame is displayed for the operation target area (S204). If the warning display flag is set, an identification frame for a warning display is displayed for the operation target area (S205). Here, the warning display is displayed, for example, in a frame of a different color from the normal display, to call the user's special attention.

そして、操作判定部は、ユーザの操作が所定時間内に終了したか否かを判定し(S206,S207)、操作が終了した場合は、操作結果が合格か否かを判定する(S208)。その結果、合格の場合は、次の操作対象部位についてステップS202以降の処理を実行する。一方、ステップS208の判定の結果、不合格の場合は、訓練シナリオ記憶部62の当該操作対象部位と相関のある、すなわち当該操作対象部位と同じグループに属する操作対象部位の注意表示フラグをセットして(S209)、次の操作対象部位の処理に移行する。
上記において、ステップS206~S208は操作判定部の処理として、またステップS209は操作判定出力部の処理として実行される。
The operation determination unit then determines whether the user's operation has been completed within a predetermined time (S206, S207), and if the operation has been completed, determines whether the operation result is pass or not (S208). If the operation result is pass, the process from step S202 onwards is carried out for the next operation target part. On the other hand, if the result of the determination in step S208 is fail, the caution display flag of the operation target part that is correlated with the operation target part in the training scenario storage unit 62, i.e., that belongs to the same group as the operation target part, is set (S209), and the process proceeds to the next operation target part.
In the above, steps S206 to S208 are executed as processing by the operation determination section, and step S209 is executed as processing by the operation determination output section.

以上の処理手順により、ユーザは、評価の低い、ある操作対象部位の操作と相関のある他の操作対象部位について、当該部位の操作時に注意喚起表示されるので、特に注意して操作を行うことができ、訓練効率を上げることができる。 By following the above processing steps, the user is alerted when operating a certain operation target part that has a low rating and is correlated with the operation of the other operation target part, so that the user can pay particular attention when operating the other operation target part, thereby improving training efficiency.

以上、本実施の形態によれば、訓練モードやユーザの習熟度によって、訓練対象物に重ねて表示される操作対象識別枠の表示/非表示を切り換え、あるいは操作対象識別枠の表示態様を変更し、また操作対象識別枠や操作対象部位からの距離によって設定した判定領域を用いて、訓練対象物の操作対象部位へアプローチするルートなどユーザの動きを詳細に評価するので、訓練効果を向上させることができる。さらに、ユーザの操作内容の評価結果によって訓練シナリオを変更するので、ユーザの習熟度を効率的に高めることができるのみならず、ヒューマンエラーが発生したときの再発防止にも効果が期待できる。 As described above, according to this embodiment, depending on the training mode and the user's proficiency, the display/non-display of the operation target identification frame displayed superimposed on the training object is switched, or the display mode of the operation target identification frame is changed, and the user's movements, such as the route taken to approach the operation target portion of the training object, are evaluated in detail using a judgment area set according to the distance from the operation target identification frame or the operation target portion, thereby improving the training effect. Furthermore, since the training scenario is changed according to the evaluation results of the user's operation content, not only can the user's proficiency be efficiently improved, but it is also expected to be effective in preventing recurrence when a human error occurs.

1 訓練システム
10 バーチャルコンテンツ表示装置(HMD)
11 3D-CG表示部
12 操作内容表示部
13 操作座標検知部
14 操作内容検知部
50 操作用装置
51 操作検知部
60 訓練シナリオ/操作記録判定装置(判定装置)
61 3Dモデル記憶部
62 訓練シナリオ記憶部
63 操作判定記憶部
71 3D-CG表示制御部(三次元表示制御部)
72 操作判定部
73 操作判定出力部
74 統計分析部
75 シナリオ変更編集部
1 Training system 10 Virtual content display device (HMD)
11 3D-CG display unit 12 Operation content display unit 13 Operation coordinate detection unit 14 Operation content detection unit 50 Operation device 51 Operation detection unit 60 Training scenario/operation record determination device (determination device)
61 3D model storage unit 62 Training scenario storage unit 63 Operation judgment storage unit 71 3D-CG display control unit (three-dimensional display control unit)
72 Operation determination unit 73 Operation determination output unit 74 Statistical analysis unit 75 Scenario change editing unit

Claims (8)

仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する訓練システムであって、
前記訓練対象物を表示装置に仮想表示させる三次元表示制御部と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知部と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定部と、
を備え、
前記三次元表示制御部は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知部によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示し、
さらに、前記訓練対象物の前記操作対象部位ごとに、それぞれの前記操作対象部位からの距離に応じて、前記操作手段識別画像が通過すべき又は通過すべきでない判定領域を保存する手段を備え、
前記操作判定部は、前記操作手段識別画像の位置が前記判定領域を通過したか否かによって、ユーザが前記操作対象部位に正しくアクセスしたか否かを判定することを特徴とする訓練システム。
A training system for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space, comprising:
A three-dimensional display control unit that virtually displays the training object on a display device;
an operation detection unit that detects operation information including a user's operation position and operation direction;
an operation determination unit that evaluates a user's operation based on an operation target portion of the training object and the operation information;
Equipped with
the three-dimensional display control unit displays a frame that identifies an operation target portion to be operated as the training scenario progresses , while displaying an operation means identification image that indicates a means for operating the operation target portion based on operation information detected by the operation detection unit;
Further, a means for storing a judgment area through which the operation means identification image should or should not pass, for each of the operation target parts of the training object, according to a distance from each of the operation target parts,
The training system according to the present invention, wherein the operation determination unit determines whether or not the user has correctly accessed the operation target area based on whether or not the position of the operation means identification image has passed through the determination area .
仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する訓練システムであって、
前記訓練対象物を表示装置に仮想表示させる三次元表示制御部と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知部と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定部と、
を備え、
前記三次元表示制御部は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知部によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示し、
前記操作検知部は、ユーザの視線を検知し、前記操作判定部はその視線ベクトルが前記訓練対象物の前記操作対象部位の所定範囲と一定時間以上交差することにより、当該操作対象部位が選択又は操作されたと認定することを特徴とする訓練システム。
A training system for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space, comprising:
A three-dimensional display control unit that virtually displays the training object on a display device;
an operation detection unit that detects operation information including a user's operation position and operation direction;
an operation determination unit that evaluates a user's operation based on an operation target portion of the training object and the operation information;
Equipped with
the three-dimensional display control unit displays a frame that identifies an operation target portion to be operated as the training scenario progresses , while displaying an operation means identification image that indicates a means for operating the operation target portion based on operation information detected by the operation detection unit;
A training system characterized in that the operation detection unit detects the user's gaze, and the operation determination unit determines that the operation target portion has been selected or operated when the gaze vector intersects with a specified range of the operation target portion of the training object for a certain period of time or more .
一又は二以上の操作対象部位を記憶すると共に、夫々の前記操作対象部位を操作するための操作手段を記憶する訓練シナリオ記憶部を備え、
前記三次元表示制御部は、前記訓練シナリオ記憶部を参照して、訓練シナリオの進行にしたがって操作すべき操作対象部位に関連付けられた操作手段識別画像を、前記操作検知部で検知された操作情報によって決定される位置および向きで表示することを特徴とする請求項1または2に記載の訓練システム。
a training scenario storage unit that stores one or more operation target portions and an operation means for operating each of the operation target portions;
The training system described in claim 1 or 2, characterized in that the three-dimensional display control unit refers to the training scenario memory unit and displays an operation means identification image associated with an operation target part to be operated as the training scenario progresses, at a position and orientation determined by the operation information detected by the operation detection unit .
前記操作判定は、複数のユーザの判定結果に基づいて、操作対象部位ごとに操作内容の正解/不正解、操作時間を含む評価パラメータの統計データを演算し、その演算結果を出力する統計分析部を備えたことを特徴とする請求項1乃至のいずれか一項に記載の訓練システム。 The training system according to any one of claims 1 to 3, characterized in that the operation judgment unit includes a statistical analysis unit that calculates statistical data of evaluation parameters including correct/incorrect operation content and operation time for each operation target part based on the judgment results of a plurality of users, and outputs the calculation results. 前記統計分析部の出力に基づいて前記訓練シナリオを変更するシナリオ変更編集部を備えたことを特徴とする請求項に記載の訓練システム。 The training system according to claim 4, further comprising a scenario modification editing unit that modifies the training scenario based on an output of the statistical analysis unit. 仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する方法であって、
前記訓練対象物を表示装置に仮想表示する三次元表示処理と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知処理と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定処理と、
を含み、
前記三次元表示処理は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知処理によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示し、
前記操作検知処理は、ユーザの視線を検知し、前記操作判定処理はその視線ベクトルが前記訓練対象物の前記操作対象部位の所定範囲と一定時間以上交差することにより、当該操作対象部位が選択又は操作されたと認定することを特徴とする訓練方法。
A method for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space, comprising:
A three-dimensional display process for virtually displaying the training object on a display device;
An operation detection process for detecting operation information including a user's operation position and operation direction;
an operation determination process for evaluating a user's operation based on an operation target portion of the training object and the operation information;
Including,
the three-dimensional display process displays a frame for identifying an operation target part to be operated as the training scenario progresses, while displaying an operation means identification image showing a means for operating the operation target part based on operation information detected by the operation detection process ;
A training method characterized in that the operation detection process detects the user's gaze, and the operation judgment process determines that the operation target part has been selected or operated when the gaze vector intersects with a specified range of the operation target part of the training object for a certain period of time or more .
仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練するプログラムであって、
前記訓練対象物を表示装置に仮想表示する三次元表示処理と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知処理と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定処理と、
を実行し、
前記三次元表示処理は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知処理によって検知された操作情報に基づいて、前記操作対象部位を操作するための手段を示す操作手段識別画像を表示し、
前記操作検知処理は、ユーザの視線を検知し、前記操作判定処理はその視線ベクトルが前記訓練対象物の前記操作対象部位の所定範囲と一定時間以上交差することにより、当該操作対象部位が選択又は操作されたと認定することを特徴とするコンピュータ実行可能なプログラム。
A program for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space,
A three-dimensional display process for virtually displaying the training object on a display device;
An operation detection process for detecting operation information including a user's operation position and operation direction;
an operation determination process for evaluating a user's operation based on an operation target portion of the training object and the operation information;
Run
the three-dimensional display process displays a frame for identifying an operation target part to be operated as the training scenario progresses, while displaying an operation means identification image showing a means for operating the operation target part based on operation information detected by the operation detection process ;
A computer-executable program characterized in that the operation detection process detects the user's gaze, and the operation judgment process determines that the operation target part of the training object has been selected or operated when the gaze vector intersects with a specified range of the operation target part of the training object for a certain period of time or more .
訓練対象物の操作対象部位ごとに、それぞれの前記操作対象部位からの距離に応じて、前記操作対象部位を操作するための手段を示す操作手段識別画像が通過すべき又は通過すべきでない判定領域を保存する手段を備え、仮想空間に三次元表示される訓練対象物の操作方法を教育・訓練する訓練システムのプログラムであって、
前記訓練対象物を表示装置に仮想表示する三次元表示処理と、
ユーザの操作位置および操作方向を含む操作情報を検知する操作検知処理と、
前記訓練対象物の操作対象部位および前記操作情報に基づいてユーザの操作を評価する操作判定処理と、
を実行し、
前記三次元表示処理は、訓練シナリオの進行にしたがって操作すべき操作対象部位を識別する枠を表示する一方、前記操作検知処理によって検知された操作情報に基づいて、前記操作手段識別画像を表示し、
前記操作判定処理は、前記操作手段識別画像の位置が前記判定領域を通過したか否かによって、ユーザが前記操作対象部位に正しくアクセスしたか否かを判定することを特徴とするコンピュータ実行可能なプログラム。
A training system program for educating and training a user on how to operate a training object displayed in three dimensions in a virtual space, the training system comprising: a means for saving a judgment area through which an operation means identification image showing a means for operating the operation target area of a training object should or should not pass, depending on a distance from each of the operation target areas, the training system comprising:
A three-dimensional display process for virtually displaying the training object on a display device;
An operation detection process for detecting operation information including a user's operation position and operation direction;
an operation determination process for evaluating a user's operation based on an operation target portion of the training object and the operation information;
Run
the three-dimensional display process displays a frame for identifying an operation target part to be operated as the training scenario progresses, while displaying the operation means identification image based on the operation information detected by the operation detection process;
The operation determination process determines whether or not a user has correctly accessed the operation target area depending on whether or not a position of the operation means identification image has passed through the determination area.
JP2020077609A 2020-04-24 2020-04-24 Training system, method and program Active JP7475948B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020077609A JP7475948B2 (en) 2020-04-24 2020-04-24 Training system, method and program
JP2024019028A JP2024036699A (en) 2020-04-24 2024-02-09 Training systems, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077609A JP7475948B2 (en) 2020-04-24 2020-04-24 Training system, method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024019028A Division JP2024036699A (en) 2020-04-24 2024-02-09 Training systems, methods and programs

Publications (2)

Publication Number Publication Date
JP2021173867A JP2021173867A (en) 2021-11-01
JP7475948B2 true JP7475948B2 (en) 2024-04-30

Family

ID=78281657

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020077609A Active JP7475948B2 (en) 2020-04-24 2020-04-24 Training system, method and program
JP2024019028A Pending JP2024036699A (en) 2020-04-24 2024-02-09 Training systems, methods and programs

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024019028A Pending JP2024036699A (en) 2020-04-24 2024-02-09 Training systems, methods and programs

Country Status (1)

Country Link
JP (2) JP7475948B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510826A (en) 2013-12-20 2017-04-13 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Simulator system for medical procedure training

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510826A (en) 2013-12-20 2017-04-13 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Simulator system for medical procedure training

Also Published As

Publication number Publication date
JP2024036699A (en) 2024-03-15
JP2021173867A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
US20180286268A1 (en) Virtual reality driver training and assessment system
US6243054B1 (en) Stereoscopic user interface method and apparatus
JP6082101B2 (en) Body motion scoring device, dance scoring device, karaoke device, and game device
US20060281061A1 (en) Sports Training Simulation System and Associated Methods
CN108876046B (en) Optimal path selection system for immersive virtual reality disaster survival rescue
CN112105486B (en) Augmented reality for industrial robots
CN109144273A (en) A kind of virtual fire-fighting experiential method based on VR technology
JP2021114700A (en) Work support system and work support method
KR20190010468A (en) Apparatus, methods, and computer program for providing billiards training using a projector and a robot arm
KR101565472B1 (en) Golf practice system for providing information on golf swing and method for processing of information on golf swing using the system
JP2018045059A (en) Education support device
KR101633246B1 (en) System and method for supporting offline billiard game based on beam-projector
JP6319951B2 (en) Railway simulator, pointing motion detection method, and railway simulation method
JP2019135505A (en) Program and train operation simulator
KR102498002B1 (en) Billiards training method and system using augmented reality
JP7129839B2 (en) TRAINING APPARATUS, TRAINING SYSTEM, TRAINING METHOD, AND PROGRAM
JP7475948B2 (en) Training system, method and program
JP2001084375A (en) Operation verification system and non-contact manipulation system
JP2020003707A (en) Content generation system
EP3744461B1 (en) Weld operation measurement system
JPH11328243A (en) Plant design support system
JP2021032942A (en) Simulator control device, train operation simulation system, train operation simulation method and program
KR20150058111A (en) Golf practice system for providing information on golf lesson and method for processing of information for providing golf lesson information using the system
JP2021051301A (en) Conductor simulation training system
JP6981340B2 (en) Display control programs, devices, and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7475948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150