JP2020106656A - Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program - Google Patents

Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program Download PDF

Info

Publication number
JP2020106656A
JP2020106656A JP2018244873A JP2018244873A JP2020106656A JP 2020106656 A JP2020106656 A JP 2020106656A JP 2018244873 A JP2018244873 A JP 2018244873A JP 2018244873 A JP2018244873 A JP 2018244873A JP 2020106656 A JP2020106656 A JP 2020106656A
Authority
JP
Japan
Prior art keywords
operator
simulation
voice
simulator
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018244873A
Other languages
Japanese (ja)
Other versions
JP7092656B2 (en
Inventor
鈴木 大輔
Daisuke Suzuki
大輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Original Assignee
Railway Technical Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute filed Critical Railway Technical Research Institute
Priority to JP2018244873A priority Critical patent/JP7092656B2/en
Publication of JP2020106656A publication Critical patent/JP2020106656A/en
Application granted granted Critical
Publication of JP7092656B2 publication Critical patent/JP7092656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

To evaluate correctly an utterance content of a trainee without requiring labor or time of a user (instructor on train operation or the like).SOLUTION: In a simulator controller 21, an utterance voice of an operator is acquired by a voice acquisition control part 58, and the acquired utterance voice of the operator is speech-recognized by a speech recognition processing part 59, and in an utterance content evaluation part 63, an utterance content by the operator is evaluated by comparing the utterance content by the operator acquired by speech recognition with expert speech information which is a standard utterance content to be uttered by the operator in train operation simulation.SELECTED DRAWING: Figure 2

Description

本発明は、シミュレーション評価装置、列車運転シミュレーションシステム、および、列車運転シミュレーション評価方法、ならびに、プログラムに関する。 The present invention relates to a simulation evaluation device, a train operation simulation system, a train operation simulation evaluation method, and a program.

列車の運転訓練に係る技術として、列車(鉄道車両)の模擬運転をシミュレーションしてユーザの確認動作を評価する技術(例えば、特許文献1を参照)が知られている。 As a technique related to train driving training, there is known a technique of simulating a simulated operation of a train (railroad vehicle) and evaluating a confirmation operation of a user (for example, see Patent Document 1).

特開2014−71319号公報JP, 2014-71319, A

運転訓練のためのシミュレーションにおいて、異常事象が発見された場合、訓練生は緊急停止と、輸送指令への報告を行わなければならない。すなわち、シミュレーションにおいては、運転技術のみならず、異常事象が発見された場合の輸送指令への報告の内容についても評価されなければならない。 If an abnormal event is found in the simulation for driving training, the trainee must make an emergency stop and report to the transportation order. That is, in the simulation, not only the driving technique but also the content of the report to the transportation command when an abnormal event is discovered must be evaluated.

特許文献1の技術によれば、模擬鉄道運行区間に設定されている信号機等に対して訓練生が正しく視線を向けることができたかどうかを評価することはできる。しかしながら、特許文献1には、訓練生の発話に対する評価に関しては記載されていない。 According to the technique of Patent Document 1, it is possible to evaluate whether or not the trainee was able to correctly direct his or her line of sight to the traffic light set in the simulated railway operation section. However, Patent Document 1 does not describe the evaluation of the trainee's speech.

従来、異常事象が発見された場合の輸送指令への報告の内容についての評価は、例えば、訓練教官が、それぞれの訓練生の発話内容を聞いてメモをしたり、シミュレータにマイクなどを設置することにより訓練生の発話内容を録音し、それらの記録に基づいて行われてきた。すなわち、従来のシミュレーション訓練中の発話内容の評価は、訓練教官が、個々の訓練生の発話内容を直接聞くことにより行われており、多くの訓練生の発話内容を正しく評価するには、時間も手間もかかっていた。 Conventionally, when an abnormal event is found, evaluation of the content of the report to the transportation command is performed, for example, by a training instructor listening to the content of each trainee's utterance and taking notes, or installing a microphone etc. in the simulator. By doing so, the utterances of the trainees were recorded, and it was performed based on those records. That is, the evaluation of the utterance content during the conventional simulation training is performed by the training instructor directly listening to the utterance content of each trainee, and it takes time to correctly evaluate the utterance content of many trainees. It took time and effort.

そこで、本発明は、前記課題を解決すること、すなわち、異常事象が発見された場合の訓練生の発話内容を正しく評価することができる、シミュレーション評価装置、列車運転シミュレーションシステム、および、列車運転シミュレーション評価方法、ならびに、プログラムを提供することを目的とする。 Therefore, the present invention solves the above problem, that is, a simulation evaluation device, a train operation simulation system, and a train operation simulation that can correctly evaluate the utterance content of a trainee when an abnormal event is discovered. The purpose is to provide an evaluation method and a program.

上記課題を解決するために、本発明のシミュレーション評価装置の一側面は、列車運転シミュレータにより実行される列車運転シミュレーション実行中の列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御部と、音声取得制御部の制御により取得された操作者の発話音声を音声認識する音声認識処理部と、音声認識処理部による音声認識により得られた操作者の発話内容と、列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、操作者の発話内容を評価する評価部とを有することを特徴とする。 In order to solve the above-mentioned problems, one aspect of a simulation evaluation device of the present invention is a voice acquisition control unit that controls acquisition of a voice uttered by an operator of a train driving simulator during train driving simulation executed by a train driving simulator. And a voice recognition processing unit for recognizing the voice uttered by the operator acquired by the control of the voice acquisition control unit, the utterance content of the operator obtained by the voice recognition by the voice recognition processing unit, and the operation in the train driving simulation. And a reference utterance content to be uttered by the operator to evaluate the utterance content of the operator.

本発明のシミュレーション評価装置の他の側面は、評価部は、列車運転シミュレーションのシーンごとに、シーンに対応した基準発話内容と、音声認識処理部の処理により得られたシーンの操作者の発話内容を比較し、操作者の発話内容を評価することを特徴とする。 In another aspect of the simulation evaluation apparatus of the present invention, the evaluation unit, for each scene of the train driving simulation, the reference utterance content corresponding to the scene and the utterance content of the operator of the scene obtained by the processing of the voice recognition processing unit. Is compared with each other to evaluate the utterance content of the operator.

本発明のシミュレーション評価装置の他の側面は、評価部は、音声認識処理部の処理により得られた音声認識結果からキーワードを抽出し、抽出したキーワードと、基準発話内容に含まれるキーワードとを比較し、その比較結果基づいて、操作者の発話内容を評価することを特徴とする。 In another aspect of the simulation evaluation apparatus of the present invention, the evaluation unit extracts a keyword from the voice recognition result obtained by the process of the voice recognition processing unit and compares the extracted keyword with the keyword included in the reference utterance content. Then, the content of the utterance of the operator is evaluated based on the comparison result.

本発明のシミュレーション評価装置の他の側面は、評価部は、抽出したキーワードの分類の割合と、基準発話内容に含まれるキーワードの分類の基準発話内容における割合とを比較して、操作者の発話内容を評価することを特徴とする。 In another aspect of the simulation evaluation device of the present invention, the evaluation unit compares the extracted keyword classification ratio with the ratio of the keyword classification included in the reference utterance content to the reference utterance content, and the operator's utterance Characterized by evaluating the content.

本発明のシミュレーション評価装置の他の側面は、評価部は音声認識処理部の処理により得られた音声認識結果と、基準発話内容との一致率に基づいて、操作者の発話内容を評価することを特徴とする。 According to another aspect of the simulation evaluation apparatus of the present invention, the evaluation unit evaluates the utterance content of the operator based on the matching rate between the voice recognition result obtained by the processing of the voice recognition processing unit and the reference utterance content. Is characterized by.

本発明のシミュレーション評価装置の他の側面は、評価部は、音声認識処理部の処理により得られた音声認識結果に定量的な語があるか否かに基づいて、操作者の発話内容を更に評価することを特徴とする。 In another aspect of the simulation evaluation apparatus of the present invention, the evaluation unit further determines the utterance content of the operator based on whether or not there is a quantitative word in the voice recognition result obtained by the processing of the voice recognition processing unit. Characterized by evaluation.

本発明のシミュレーション評価装置の他の側面は、音声認識処理部は、音声取得制御部により取得が制御された操作者の発話音声の高さ、または速さの少なくともいずれか1つを数値化し、 評価部は、音声認識処理部の処理により数値化された発話音声の高さ、または、速さに基づいて、操作者の発話内容を更に評価することを特徴とする。 Another aspect of the simulation evaluation apparatus of the present invention is that the voice recognition processing unit digitizes at least one of the pitch or speed of the speech of the operator whose acquisition is controlled by the voice acquisition control unit, The evaluation unit is characterized by further evaluating the utterance content of the operator based on the height or speed of the uttered voice digitized by the processing of the voice recognition processing unit.

本発明のシミュレーション評価装置の他の側面は、列車運転シミュレータへの操作入力の取得を制御する操作取得制御部と、列車運転シミュレータへ表示出力する画像データの生成を制御する画像データ生成制御部とをさらに有し、評価部は、操作取得制御部により、緊急停止の操作入力の取得が制御された場合、画像データ生成制御部により、緊急停止が必要となるシミュレーション画像の生成が制御された場合、または、音声認識処理部の処理により得られた音声認識結果が、通信の開始を示す所定の文言である場合、そのタイミング以降で、音声認識処理部の処理により得られた操作者の発話内容の評価を開始することを特徴とする。 Another aspect of the simulation evaluation apparatus of the present invention is an operation acquisition control unit that controls acquisition of an operation input to a train driving simulator, and an image data generation control unit that controls generation of image data to be displayed and output to the train driving simulator. The evaluation unit further includes, when the operation acquisition control unit controls the acquisition of the operation input for the emergency stop, and the image data generation control unit controls the generation of the simulation image that requires the emergency stop. Or, if the voice recognition result obtained by the processing of the voice recognition processing unit is a predetermined wording indicating the start of communication, after that timing, the utterance content of the operator obtained by the processing of the voice recognition processing unit It is characterized by starting the evaluation of.

本発明のシミュレーション評価装置の他の側面は、列車運転シミュレータへの操作入力の取得を制御する操作取得制御手段と、列車運転シミュレータへ表示出力する画像データの生成を制御する画像データ生成制御部とをさらに有し、音声認識処理手段は、操作取得制御手段により、緊急停止の操作入力の取得が制御された場合、または、画像データ生成制御部により、緊急停止が必要となるシミュレーション画像の生成が制御された場合、そのタイミング以降で、音声取得制御手段により取得が制御された操作者の発話音声の音声認識を開始することを特徴とする。 Another aspect of the simulation evaluation apparatus of the present invention is an operation acquisition control unit that controls acquisition of an operation input to a train driving simulator, and an image data generation control unit that controls generation of image data to be displayed and output to the train driving simulator. Further, the voice recognition processing means, when the operation acquisition control means controls the acquisition of the operation input of the emergency stop, or the image data generation control unit generates the simulation image that requires the emergency stop. When controlled, the voice recognition of the uttered voice of the operator whose acquisition is controlled by the voice acquisition control means is started after that timing.

本発明の列車運転シミュレーションシステムの一側面は、列車運転シミュレータが、シミュレーションにおいて進行されるシナリオの各シーンに対応する表示画面を表示するシミュレーション画面表示部と、運転訓練を行う訓練生が、シミュレーション画面表示部により表示された画像を参照して、操作を行う運転操作シミュレータと、運転操作シミュレータの操作者の発話音声を集音する集音部とを有し、シミュレーション評価装置が、集音部により集音された列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御部と、音声取得制御部の制御により取得された操作者の発話音声を音声認識する音声認識処理部と、音声認識処理部による音声認識により得られた操作者の発話内容と、列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、操作者の発話内容を評価する評価部とを有することを特徴とする。 One aspect of the train driving simulation system of the present invention is that a train driving simulator displays a simulation screen display unit that displays a display screen corresponding to each scene of a scenario that is progressed in the simulation, and a trainee who performs driving training has a simulation screen. With reference to the image displayed by the display unit, a driving simulator that performs an operation, and a sound collection unit that collects the voice uttered by the operator of the driving simulator, and the simulation evaluation device uses the sound collection unit. A voice acquisition control unit that controls the acquisition of the uttered voice of the train-training simulator operator, a voice recognition processing unit that recognizes the uttered voice of the operator acquired by the control of the voice acquisition control unit, and a voice. It has an evaluation unit that compares the utterance content of the operator obtained by the voice recognition by the recognition processing unit with the reference utterance content that the operator should utter in the train driving simulation, and evaluates the utterance content of the operator. Characterize.

本発明の列車運転シミュレーション評価方法の一側面は、列車運転シミュレータにより実行される列車運転シミュレーション実行中の列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御ステップと、音声取得制御ステップの処理により取得が制御された操作者の発話音声を音声認識する音声認識処理ステップと、音声認識処理ステップの音声認識処理により得られた操作者の発話内容と、列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、操作者の発話内容を評価する評価ステップとを含むことを特徴とする。 One aspect of the train operation simulation evaluation method of the present invention is a voice acquisition control step for controlling acquisition of a voice uttered by an operator of a train driving simulator being executed by a train driving simulator, and a voice acquisition control step. The voice recognition processing step for recognizing the voice uttered by the operator whose acquisition is controlled by the processing of step 1, the utterance content of the operator obtained by the voice recognition processing in the voice recognition processing step, and the operator's utterance in the train driving simulation. And an evaluation step of comparing the utterance content of the operator with the reference utterance content to be spoken.

本発明のプログラムの一側面は、列車の運転訓練を行うための列車運転シミュレータを制御するコンピュータに、列車運転シミュレータにより実行される列車運転シミュレーション実行中の列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御ステップと、音声取得制御ステップの処理により取得が制御された操作者の発話音声を音声認識する音声認識処理ステップと、音声認識処理ステップの音声認識処理により得られた操作者の発話内容と、列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、操作者の発話内容を評価する評価ステップとを含む処理を実行させる。 One aspect of the program of the present invention is a computer that controls a train driving simulator for train training of a train, and a train driving simulator executed by the train driving simulator acquires a speech voice of an operator of the train driving simulator being executed. A voice acquisition control step for controlling a voice recognition control step for recognizing the voice uttered by the operator whose acquisition is controlled by the processing of the voice acquisition control step, and an operator obtained by the voice recognition processing of the voice recognition processing step. And a reference utterance content to be uttered by the operator in the train driving simulation, and an evaluation step of evaluating the utterance content of the operator is executed.

本発明によれば、訓練生の発話内容を正しく評価することができる。 According to the present invention, it is possible to correctly evaluate the utterance content of the trainee.

列車運転シミュレーションシステム1の構成を示す図である。It is a figure which shows the structure of the train operation simulation system 1. シミュレータ制御装置21aの機能構成を示す図である。It is a figure which shows the function structure of the simulator control apparatus 21a. キーワードの記憶例を示す図である。It is a figure which shows the example of memory of a keyword. 熟練者の輸送指令への報告の発話内容例を示す図である。It is a figure which shows the example of the utterance content of the report to an expert's transportation instruction. シミュレータ操作者の発話内容の音声認識結果の例を示す図である。It is a figure which shows the example of the voice recognition result of the utterance content of a simulator operator. 評価結果の例について説明するための図である。It is a figure for explaining an example of an evaluation result. シミュレーション処理1について説明するためのフローチャートである。6 is a flowchart for explaining a simulation process 1. 発話内容評価処理1について説明するためのフローチャートである。It is a flow chart for explaining utterance contents evaluation processing 1. 発話内容評価処理2について説明するためのフローチャートである。9 is a flowchart for explaining utterance content evaluation processing 2. 発話内容評価処理3について説明するためのフローチャートである。It is a flow chart for explaining utterance content evaluation processing 3. 発話内容評価処理4について説明するためのフローチャートである。9 is a flowchart for explaining utterance content evaluation processing 4. シミュレータ制御装置21bの機能構成を示す図である。It is a figure which shows the function structure of the simulator control apparatus 21b. シミュレーション処理2について説明するためのフローチャートである。6 is a flowchart for explaining a simulation process 2.

以下、本発明の一実施の形態のシミュレータ制御装置21を含む列車運転シミュレーションシステム1について、図1〜図13を参照しながら説明する。 Hereinafter, a train operation simulation system 1 including a simulator control device 21 according to an embodiment of the present invention will be described with reference to FIGS. 1 to 13.

図1を参照して、本発明の一実施例である列車運転シミュレーションシステム1について説明する。 A train operation simulation system 1 according to an embodiment of the present invention will be described with reference to FIG.

シミュレーションの中で異常事象が発生した場合には、訓練生は、緊急停止と、異常事象に対応した輸送指令への報告など、所定の操作を行う。そこで、本発明の一実施例である列車運転シミュレーションシステム1においては、訓練生であるシミュレータの操作者の発話音声を取得し、音声認識を行うことにより、発話内容の評価を行うものである。 When an abnormal event occurs in the simulation, the trainee performs a predetermined operation such as an emergency stop and a report to a transportation command corresponding to the abnormal event. Therefore, in the train operation simulation system 1 which is an embodiment of the present invention, the speech content of the trainee simulator operator is acquired and the speech recognition is performed to evaluate the speech content.

列車運転シミュレーションシステム1は、シミュレータ制御ユニット11、列車運転シミュレータユニット12、および、ネットワーク13を含んで構成されている。シミュレータ制御ユニット11は、シミュレータ制御装置21、操作入力装置22、表示装置23、および、プリンタ24を含んで構成される。列車運転シミュレータユニット12は、シミュレーション画面表示装置31、運転操作シミュレータ32、および、集音装置33を含んで構成される。図1の例では、列車運転シミュレータユニット12を構成するシミュレーション画面表示装置31、運転操作シミュレータ32、および、集音装置33を1セットのみ図示しているが、複数人が同時に訓練できるようにする場合には、これらを複数設けることができる。 The train operation simulation system 1 includes a simulator control unit 11, a train operation simulator unit 12, and a network 13. The simulator control unit 11 includes a simulator control device 21, an operation input device 22, a display device 23, and a printer 24. The train driving simulator unit 12 includes a simulation screen display device 31, a driving operation simulator 32, and a sound collecting device 33. In the example of FIG. 1, only one set of the simulation screen display device 31, the driving simulator 32, and the sound collection device 33 that configure the train driving simulator unit 12 is shown, but a plurality of people can train at the same time. In some cases, a plurality of these may be provided.

シミュレータ制御ユニット11のシミュレータ制御装置21は、ネットワーク13を介して列車運転シミュレータユニット12と通信し、操作入力装置22から供給されるユーザ(列車運転に関する教官等)の操作入力に基づいて、列車運転シミュレータユニット12によるシミュレーションの実行を制御し、訓練結果を評価する。具体的には、シミュレータ制御装置21は、運転操作シミュレータ32から、シミュレータ操作者(運転技術の訓練を行う者等)の操作に関する情報を取得し、それらに基づいて、シミュレーション画面表示装置31に表示される表示画像を制御する。また、シミュレータ制御装置21は、集音装置33から、シミュレータ操作者の発話音声を取得し、音声認識を行って、発話内容の評価を行う。 The simulator control device 21 of the simulator control unit 11 communicates with the train operation simulator unit 12 via the network 13 and operates the train based on the operation input of the user (trainer related to train operation) supplied from the operation input device 22. The execution of the simulation by the simulator unit 12 is controlled, and the training result is evaluated. Specifically, the simulator control device 21 acquires information about the operation of a simulator operator (a person who trains driving skills, etc.) from the driving operation simulator 32, and displays it on the simulation screen display device 31 based on the information. Control the displayed image. In addition, the simulator control device 21 acquires the utterance voice of the simulator operator from the sound collection device 33, performs voice recognition, and evaluates the utterance content.

操作入力装置22は、例えば、キーボード、マウス、タッチパッドなどの入力デバイスにより構成され、ユーザ(列車運転に関する教官等)の操作入力を受け、シミュレータ制御装置21に供給する。 The operation input device 22 is composed of, for example, an input device such as a keyboard, a mouse, a touch pad, etc., receives an operation input of a user (an instructor regarding train driving, etc.), and supplies it to the simulator control device 21.

表示装置23は、操作入力装置22によるユーザ(列車運転に関する教官等)の操作入力を促すための情報を表示する。操作入力を促すための情報には、例えば、シミュレーション路線名、天候などの、シミュレーションの条件を選択するための情報などがある。また、表示装置23は、シミュレータ制御装置21から、後述する発話内容の評価結果を含むシミュレーション結果に対応する情報の供給を受け、これを表示出力する。 The display device 23 displays information for prompting a user (instructor or the like regarding train driving) to input an operation using the operation input device 22. The information for prompting the operation input includes, for example, information for selecting a simulation condition such as a simulation route name and weather. Further, the display device 23 receives, from the simulator control device 21, information corresponding to a simulation result including an evaluation result of utterance content, which will be described later, and outputs the information.

プリンタ24は、シミュレータ制御装置21から、後述する発話内容の評価結果を含むシミュレーション結果に対応する情報の供給を受け、これを印字出力する。 The printer 24 receives the information corresponding to the simulation result including the evaluation result of the utterance content, which will be described later, from the simulator control device 21 and prints it out.

列車運転シミュレータユニット12のシミュレーション画面表示装置31は、シミュレータ制御ユニット11のシミュレータ制御装置21により生成されたシミュレーション画面を表示する。 The simulation screen display device 31 of the train operation simulator unit 12 displays the simulation screen generated by the simulator control device 21 of the simulator control unit 11.

運転操作シミュレータ32は、運転席または乗務員室を模擬した形態となっており、運転等のために必要なレバーやボタン、または計器等が設けられるとともに、例えば、時刻表や運行表等の列車運行のために必要な備品が備え付けられている。運転操作シミュレータ32は、シミュレータ操作者(運転技術の訓練を行う者)が実行した操作入力を、ネットワーク13を介して、シミュレータ制御装置21に供給する。 The driving operation simulator 32 has a form simulating a driver's seat or a crew room, and is provided with levers and buttons necessary for driving, instruments, etc., and, for example, train operation such as a timetable and an operation table. Necessary equipment is equipped for. The driving operation simulator 32 supplies an operation input executed by a simulator operator (a person who trains driving skills) to the simulator control device 21 via the network 13.

集音装置33は、シミュレータ操作者の発話を集音し、シミュレータ制御装置21に供給する。集音装置33は、例えば、図1のようなシミュレータ操作者の正面に設置される非装着型の据え置き装置であるマイクロフォンとして実現することとしてもよいし、例えば、ヘッドセットなど、ユーザが装着する装着型の装置として実現してもよい。 The sound collector 33 collects the utterance of the simulator operator and supplies it to the simulator controller 21. The sound collection device 33 may be realized as, for example, a microphone that is a non-wearable stationary device installed in front of the simulator operator as shown in FIG. 1, or may be worn by a user such as a headset. It may be implemented as a wearable device.

シミュレータ制御ユニット11のシミュレータ制御装置21について、2つの機能構成例を用いて説明する。まず、図2〜図11を用いて、第1の構成例としてのシミュレータ制御装置21aについて説明する。そして、図12および図13を用いるとともに、適宜それ以前の図を参照して、第2の構成例としてのシミュレータ制御装置21bについて説明する。 The simulator control device 21 of the simulator control unit 11 will be described using two functional configuration examples. First, a simulator control device 21a as a first configuration example will be described with reference to FIGS. Then, a simulator control device 21b as a second configuration example will be described with reference to FIG. 12 and FIG.

図2を用いて、シミュレータ制御装置21aが有する機能構成について説明する。 The functional configuration of the simulator control device 21a will be described with reference to FIG.

シミュレータ制御装置21aは、操作入力制御部51、シミュレータ制御部52、制御装置用出力制御部53、シミュレータ操作入力取得制御部54、表示画面生成部55、ビデオデータ記憶部56、シミュレータ画面表示制御部57、音声取得制御部58、音声認識処理部59、操作者状況記録部60、キーワード記憶部61、熟練者発話情報記憶部62、および、発話内容評価部63の機能を含んで構成されている。 The simulator control device 21a includes an operation input control unit 51, a simulator control unit 52, a control device output control unit 53, a simulator operation input acquisition control unit 54, a display screen generation unit 55, a video data storage unit 56, and a simulator screen display control unit. 57, a voice acquisition control unit 58, a voice recognition processing unit 59, an operator situation recording unit 60, a keyword storage unit 61, an expert utterance information storage unit 62, and an utterance content evaluation unit 63. ..

操作入力制御部51(以下、入力制御部51と称する)は、操作入力装置22から供給されるユーザ(列車運転に関する教官等)の操作入力の取得を制御し、取得した操作入力情報を、シミュレータ制御部52に供給する。 The operation input control unit 51 (hereinafter, referred to as the input control unit 51) controls the acquisition of the operation input of the user (the instructor related to train operation) supplied from the operation input device 22, and acquires the acquired operation input information from the simulator. It is supplied to the control unit 52.

シミュレータ制御部52は、入力制御部51から供給された操作入力に基づき、シミュレータ制御装置21aの動作を制御する。具体的には、シミュレータ制御部52は、表示装置23に、操作入力装置22によるユーザ(列車運転に関する教官等)の操作入力を促すための情報を表示させるために、制御装置用出力制御部53(以下、出力制御部53と称する)を制御する。また、シミュレータ制御部52は、入力制御部51から供給された操作入力に基づき、ユーザから選択されたシミュレーションのシナリオに対応する路線、天候などに合致した表示画面をシミュレーション画面表示装置31に表示させるために、表示画面生成部55を制御する。 The simulator control unit 52 controls the operation of the simulator control device 21a based on the operation input supplied from the input control unit 51. Specifically, the simulator control unit 52 causes the display device 23 to display information for prompting the user to input an operation by the operation input device 22 (an instructor related to train driving, etc.), and the controller output control unit 53. (Hereinafter, referred to as the output control unit 53) is controlled. Further, the simulator control unit 52 causes the simulation screen display device 31 to display a display screen that matches the route, weather, etc. corresponding to the simulation scenario selected by the user based on the operation input supplied from the input control unit 51. Therefore, the display screen generation unit 55 is controlled.

シミュレータ制御部52は、シミュレータ操作入力取得制御部54(以下、操作取得制御部54と称する)から供給される情報に基づいて、表示画面生成部55を制御して、ビデオデータ記憶部56から実行中のシナリオのシーンに対応する画像データを読み出させ、シミュレーション画面表示装置31に表示される画像データを生成させる。例えば、シミュレーションの開始時に、運転操作シミュレータ32において、発車のための運転操作がなされた場合、シミュレータ制御部52は、操作取得制御部54から供給される情報に基づいて、表示画面生成部55を制御して、シミュレーション画面表示装置31に表示される画像を、実際の発車時に対応する動画像とする。また、シミュレーションの実行中に、運転操作シミュレータ32において、速度の変更やブレーキングなどの運転のための操作入力がなされた場合、シミュレータ制御部52は、操作取得制御部54から供給される情報に基づいて、表示画面生成部55を制御して、シミュレーション画面表示装置31に表示される画像を、シミュレータ操作者が実行した運転操作に対応させる。また、シミュレータ制御部52は、実行中のシナリオにおいて、異常事象が発生するタイミングであった場合、それを、発話内容評価部63(以下、評価部63と称する)に通知する。 The simulator control unit 52 controls the display screen generation unit 55 based on the information supplied from the simulator operation input acquisition control unit 54 (hereinafter, referred to as the operation acquisition control unit 54) and executes it from the video data storage unit 56. The image data corresponding to the scene of the inside scenario is read out, and the image data displayed on the simulation screen display device 31 is generated. For example, when the driving operation simulator 32 performs a driving operation for departure at the start of the simulation, the simulator control unit 52 controls the display screen generation unit 55 based on the information supplied from the operation acquisition control unit 54. The image displayed on the simulation screen display device 31 is controlled to be a moving image corresponding to the actual departure. Further, when an operation input for driving such as speed change or braking is made in the driving operation simulator 32 during the execution of the simulation, the simulator control unit 52 changes the information supplied from the operation acquisition control unit 54. Based on this, the display screen generation unit 55 is controlled so that the image displayed on the simulation screen display device 31 corresponds to the driving operation executed by the simulator operator. Further, the simulator control unit 52 notifies the utterance content evaluation unit 63 (hereinafter referred to as the evaluation unit 63) of the timing at which an abnormal event occurs in the scenario being executed.

また、シミュレータ制御部52は、シミュレーションの結果に対応する情報を、表示装置23に表示出力させたり、プリンタ24に印字出力させるために、操作者状況記録部60(以下、記録部60と称する)に記録されているシミュレーション中の操作者状況に関する情報、および、評価部63による発話内容の評価結果の供給を受け、出力制御部53に供給する。また、シミュレータ制御部52は、表示画面生成部55を制御し、シミュレーションの結果に対応する表示データを生成させて、表示制御部57に供給させる。 In addition, the simulator control unit 52 causes the display device 23 to display and outputs the information corresponding to the result of the simulation to the printer 24 or the printer 24 to print out the information, and thus the operator situation recording unit 60 (hereinafter, referred to as the recording unit 60). The information about the operator's situation during the simulation recorded in (4) and the evaluation result of the utterance content by the evaluation unit 63 are supplied and supplied to the output control unit 53. The simulator control unit 52 also controls the display screen generation unit 55 to generate display data corresponding to the result of the simulation and supply the display data to the display control unit 57.

出力制御部53は、シミュレータ制御部52の制御に基づいて、表示装置23に、操作入力装置22によるユーザ(列車運転に関する教官等)の操作入力を促すための情報を表示させる。操作入力を促すための情報には、例えば、シミュレーション路線名、天候などの、シミュレーションの条件を選択するための情報などがある。また、出力制御部53は、シミュレータ制御部52の制御に基づいて、シミュレーションの結果に対応する出力データを生成し、表示装置23またはプリンタ24に、発話内容の評価を含むシミュレーションの結果に対応する情報を出力させる。 Based on the control of the simulator control unit 52, the output control unit 53 causes the display device 23 to display information for prompting a user (an instructor or the like regarding train driving) to input an operation using the operation input device 22. The information for prompting the operation input includes, for example, information for selecting a simulation condition such as a simulation route name and weather. Further, the output control unit 53 generates output data corresponding to the result of the simulation based on the control of the simulator control unit 52, and corresponds to the result of the simulation including the evaluation of the utterance content on the display device 23 or the printer 24. Output information.

操作取得制御部54は、運転操作シミュレータ32からネットワーク13を介して供給された、シミュレータ操作者の操作入力に関する情報を取得し、シミュレータ制御部52、記録部60、および、評価部63に供給する。 The operation acquisition control unit 54 acquires information regarding the operation input of the simulator operator, which is supplied from the driving operation simulator 32 via the network 13, and supplies the information to the simulator control unit 52, the recording unit 60, and the evaluation unit 63. ..

表示画面生成部55は、シミュレータ制御部52の制御に基づいて、ビデオデータ記憶部56に記憶されている画像データを読み出して、シミュレーション画面表示装置31に表示させるシミュレーション用の画像データを生成し、シミュレータ画面表示制御部57(以下、表示制御部57と称する)に供給する。また、表示画面生成部55は、シミュレータ制御部52の制御に基づいて、シミュレーションの結果に対応する表示データを生成し、表示制御部57に供給する。 The display screen generation unit 55 reads out the image data stored in the video data storage unit 56 under the control of the simulator control unit 52, and generates the image data for simulation to be displayed on the simulation screen display device 31, It is supplied to the simulator screen display control unit 57 (hereinafter referred to as the display control unit 57). Further, the display screen generation unit 55 generates display data corresponding to the result of the simulation based on the control of the simulator control unit 52 and supplies it to the display control unit 57.

ビデオデータ記憶部56は、シミュレーション画面表示装置31に表示させるシミュレーション用の画像データの生成のためのビデオデータを記憶している。 The video data storage unit 56 stores video data for generating simulation image data to be displayed on the simulation screen display device 31.

表示制御部57は、表示画面生成部55により生成された画像データを、ネットワーク13を介してシミュレーション画面表示装置31に供給し、その表示を制御する。 The display control unit 57 supplies the image data generated by the display screen generation unit 55 to the simulation screen display device 31 via the network 13 and controls the display thereof.

音声取得制御部58(以下、音声取得部58と称する)は、集音装置33からネットワーク13を介して供給された、シミュレータ操作者の発話音声を取得し、音声認識処理部59に供給する。 The voice acquisition control unit 58 (hereinafter, referred to as a voice acquisition unit 58) acquires the voice uttered by the simulator operator from the sound collection device 33 via the network 13 and supplies the voice to the voice recognition processing unit 59.

音声認識処理部59は、音声取得部58から供給されたシミュレータ操作者の発話音声を音声認識して、音声データをテキストデータに変換し、シミュレーション結果として記録部60に供給して記録させるとともに、評価部63に供給する。また、音声認識処理部59は、音声取得部58から供給されたシミュレータ操作者の発話音声の高さ、および、発話の速さを数値化し、記録部60に供給して記録させるとともに、評価部63に供給する。 The voice recognition processing unit 59 performs voice recognition of the voice uttered by the simulator operator supplied from the voice acquisition unit 58, converts the voice data into text data, and supplies the voice data as a simulation result to the recording unit 60 for recording. It is supplied to the evaluation unit 63. Further, the voice recognition processing unit 59 digitizes the pitch of the utterance voice of the simulator operator supplied from the voice acquisition unit 58 and the speed of the utterance, supplies the digitized voice to the recording unit 60, and records the digitized voice. Supply to 63.

記録部60は、操作取得制御部54、および、音声認識処理部59から供給されたシミュレーション結果を記録する。 The recording unit 60 records the simulation result supplied from the operation acquisition control unit 54 and the voice recognition processing unit 59.

キーワード記憶部61は、評価部63がシミュレータ操作者の発話内容を評価するために用いる第1の情報として、輸送指令への報告に用いられるキーワードを、所定の分類ごとに記憶する。 The keyword storage unit 61 stores, as the first information used by the evaluation unit 63 to evaluate the utterance content of the simulator operator, the keywords used for reporting to the transportation command for each predetermined classification.

キーワード記憶部61に記憶されているキーワードの例を図3に示す。キーワードは、例えば、場所、事故内容、自列車、乗客・通行人等、他列車、地上設備、周辺状況、および、その他などに、内容によって分類される。場所の分類に記憶されるキーワードには、例えば、A駅(Aには名称が入る)、B駅とC駅の間(BおよびCには名称が入る)、出発後、到着前、駅構内、10km300m(キロ程:数字はいかなるものであっても構わない)、第〇閉そく信号機(〇には数値等が入る)、特殊信号発光機、中継信号機、内方、外方、D踏切(Dには名称が入る)、E橋梁(Eには名称が入る)、Fトンネル(Fには名称が入る)などがある。また、事故内容の分類に記憶されるキーワードには、例えば、車、乗用車、軽乗用車、トラック、バス、バイクなどがある。また、自列車の分類に記憶されるキーワードには、例えば、200M(列車番号)、走行速度X km/h(Xには数値等が入る)、防護無線の発報、防護無線を受信、車両用信号炎管の点火、携帯用信号炎管の点火などがある。 FIG. 3 shows an example of keywords stored in the keyword storage unit 61. Keywords are classified according to their contents, for example, location, accident content, own train, passengers/passengers, other trains, ground facilities, surrounding conditions, and others. Keywords stored in the category of place include, for example, A station (A has a name), B station and C station (B and C have a name), after departure, before arrival, inside station , 10km300m (approx. kilometer: any number is acceptable), No. 0 block traffic light (numerals are entered in No. 0), special signal lighter, relay traffic light, inward, outward, D crossing (D There is a name), E bridge (E has a name), F tunnel (F has a name) and so on. The keywords stored in the classification of the accident content include, for example, a car, a passenger car, a light passenger car, a truck, a bus, and a motorcycle. Also, the keywords stored in the classification of the own train are, for example, 200M (train number), traveling speed X km/h (where X is a numerical value, etc.), protection radio notification, protection radio reception, vehicle Ignition of a signal flame tube for portable use, ignition of a portable signal flame tube, etc.

乗客・通行人等の分類に記憶されるキーワードには、例えば、怪我人、怪我、乗客、避難誘導、お客様、運転手、歩行者、通行人、待避場所などがある。また、他列車の分類に記憶されるキーワードには、例えば、対向車線、後続列車、他列車、抑止手配、救援列車、見通し距離などがある。また、地上設備の分類に記憶されるキーワードには、例えば、ATS地上子、転てつ機、沿線電話、遮断機などがある。また、周辺状況の分類に記憶されるキーワードには、線路、踏切、踏切の中、踏切の外、架線、落石、雪崩、強風、濃霧、鹿などがある。また、その他の分類には、各分類に属さないキーワードが記憶される。キーワードの分類は、これ以外のものであってもよい。また、それぞれの分類には、これ以外のキーワードが登録されていてもよい。 The keywords stored in the classification of passengers/passengers include injured persons, injuries, passengers, evacuation guidance, customers, drivers, pedestrians, pedestrians, and shelters. The keywords stored in the classification of other trains include, for example, oncoming lanes, following trains, other trains, restraint arrangements, rescue trains, and line-of-sight distances. Further, the keywords stored in the classification of the ground equipment include, for example, the ATS ground wire, the switch machine, the wayside telephone, and the breaker. Further, the keywords stored in the classification of the surrounding situation include railroad tracks, railroad crossings, inside railroad crossings, outside railroad crossings, overhead lines, rockfalls, avalanches, strong winds, heavy fog, and deer. In addition, keywords that do not belong to each category are stored in the other categories. The classification of keywords may be other than this. In addition, keywords other than these may be registered in each category.

図2に戻り、熟練者発話情報記憶部62は、評価部63がシミュレータ操作者の発話内容を評価するために用いる基準発話内容である第2の情報として、熟練者の輸送指令への報告の発話内容例を、シミュレーションの所定のシーンごとに記憶する。シミュレーションの所定のシーンとは、異常事象が発生され、シミュレータ操作者が緊急停止および輸送指令への報告を行うシーンである。具体的には、シミュレーションのシナリオ中に、例えば、踏切に人や乗用車等が侵入している、架線や線路に障害物が存在する、緊急停止信号が点灯している、または、ホームの乗客等に異常が発生しているなどのシーンが発生した場合、シミュレータ操作者は緊急停止の操作、および、輸送指令への報告を行う必要がある。したがって、熟練者発話情報記憶部62には、それらのシーンに対応した熟練者の輸送指令への報告の発話内容例が記憶される。 Returning to FIG. 2, the expert utterance information storage unit 62 reports the report to the expert's transportation command as the second information, which is the reference utterance content used by the evaluation unit 63 to evaluate the utterance content of the simulator operator. The utterance content example is stored for each predetermined scene of the simulation. The predetermined scene of the simulation is a scene in which an abnormal event occurs and the simulator operator makes an emergency stop and reports to a transportation command. Specifically, during a simulation scenario, for example, a person or a passenger vehicle has entered the railroad crossing, there is an obstacle on the overhead line or track, an emergency stop signal is lit, or a passenger at the home When a scene such as an abnormality occurs in the simulator, the simulator operator needs to perform an emergency stop operation and report to the transportation command. Therefore, the expert utterance information storage unit 62 stores an example of utterance contents of a report to the transportation command of the expert corresponding to those scenes.

熟練者発話情報記憶部62に記憶されている熟練者の発話内容例を図4に示す。図4においては、踏切に軽自動車が侵入し、接触したシーンにおける熟練者の発話内容例が示されている。熟練者の発話内容例のうち、図3を用いて説明した各キーワードに対応する単語または複数の単語を含む文言には、それぞれの分類が対応付けられている。例えば、「光町駅」「第1閉そく信号機」「第2閉そく信号機」などの単語には、「場所」の分類が対応付けられ、「軽乗用車」「接触」などの単語には、「事故内容」の分類が対応付けられている。そして、「200M」「防護無線を発報」「車両用信号炎管を点火」などの単語または複数の単語を含む文言には、「自列車」の分類が対応付けられ、「ドライバ」「乗客」「けが」などの単語には、「乗客・通行人等」の分類が対応付けられている。そして、「他列車」「抑止手配」「対向車線」の単語には、「他列車」の分類が対応付けられ、「踏切の外」「救急車」の単語には、「周辺状況」の分類が対応付けられている。 FIG. 4 shows an example of the utterance contents of the expert stored in the expert utterance information storage unit 62. FIG. 4 shows an example of the utterance content of a skilled person in a scene where a light vehicle has entered the railroad crossing and has come into contact with the railroad crossing. In the example of the utterance content of the expert, the word corresponding to each keyword described with reference to FIG. 3 or the wording including a plurality of words is associated with each classification. For example, words such as “Hikarimachi Station”, “first block traffic light”, “second block traffic light” are associated with the “place” classification, and words such as “light car” and “contact” are associated with “accident”. The classification of "content" is associated. Then, the wording including a word or a plurality of words such as "200M", "protection radio is issued", "vehicle signal flame tube is ignited" is associated with the classification of "own train", and "driver" "passenger" The words “passengers, passers-by, etc.” are associated with words such as “injury”. Then, the words "other train", "deterrent arrangement", and "oncoming lane" are associated with the classification of "other train", and the words "outside the railroad crossing" and "ambulance" are classified as "surroundings". It is associated.

図4に示される熟練者の発話内容例においては、多くの分類のキーワードが、多数、効率的に含まれている。なお、この熟練者の発話内容例では、地上設備のキーワードは含まれていないが、シミュレーションによって発生された異常事象の内容によっては、必要ではない分類も存在する。熟練者発話情報記憶部62は、図4に示される例以外のシーンにおいても、熟練者の発話内容例を、図3を用いて説明した各キーワードに対応する分類に対応付けて記憶している。 In the example of the utterance contents of the expert shown in FIG. 4, many categories of keywords are efficiently included in large numbers. It should be noted that in this example of the utterance content of the expert, the keyword of the ground equipment is not included, but depending on the content of the abnormal event generated by the simulation, there is a classification that is not necessary. In the scenes other than the example shown in FIG. 4, the expert utterance information storage unit 62 stores the utterance content examples of the expert in association with the classifications corresponding to the keywords described with reference to FIG. ..

再び図2に戻り、評価部63は、音声認識処理部59から供給される音声認識結果を用いて、シミュレータ操作者の発話内容を評価する。具体的には、評価部63は、キーワード記憶部61、および、熟練者発話情報記憶部62に記憶されている情報を用いて、シミュレータ操作者の発話内容を評価することができる。また、評価部63は、音声認識処理部59から供給される音声認識結果から定量的な語(例えば、距離、人数、台数などを示す語)を抽出することにより、シミュレータ操作者の発話内容を評価することができる。また、評価部63は、音声認識処理部59から供給される、シミュレータ操作者の発話音声の高さ、および、発話の速さを数値化した情報に基づいて、シミュレータ操作者の発話内容を評価することができる。 Returning to FIG. 2 again, the evaluation unit 63 evaluates the speech content of the simulator operator using the voice recognition result supplied from the voice recognition processing unit 59. Specifically, the evaluation unit 63 can evaluate the utterance content of the simulator operator using the information stored in the keyword storage unit 61 and the expert utterance information storage unit 62. In addition, the evaluation unit 63 extracts quantitative words (for example, words indicating distance, number of people, number of units, etc.) from the voice recognition result supplied from the voice recognition processing unit 59 to determine the utterance content of the simulator operator. Can be evaluated. In addition, the evaluation unit 63 evaluates the utterance content of the simulator operator based on the information of the pitch of the utterance voice of the simulator operator and the quantized speed of the utterance supplied from the voice recognition processing unit 59. can do.

評価部63は、シミュレーションの中で異常事象が発生し、訓練生が、異常事象に対応して輸送指令への報告を開始するタイミングで、発話内容の評価を開始する。具体的には、評価部63は、例えば、操作取得制御部54から、緊急停止の操作入力が行われたことを示す情報の供給を受けた場合、発話内容の評価を開始することができる。また、評価部63は、例えば、シミュレータ制御部52から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けた場合、発話内容の評価を開始することができる。また、評価部63は、例えば、音声認識処理部59から供給される音声認識結果が「輸送指令、輸送指令」という、輸送指令への通信の開始を示す決まった文言である場合、発話内容の評価を開始することができる。評価部63は、緊急停止の操作入力が行われたことを示す情報の供給があるか否か、異常事象が発生するタイミングであることを示す情報の供給があるか否か、または、音声認識結果が輸送指令への通信の開始を示す決まった文言であるか否か、のすべての条件判断を行い、いずれかの条件が合致した場合に、発話内容の評価の開始タイミングであることを決定してもよいし、いずれかの条件判断を行うことにより、発話内容の評価の開始タイミングであることを決定してもよい。 The evaluation unit 63 starts evaluation of the utterance content at the timing when an abnormal event occurs in the simulation and the trainee starts reporting to the transportation command in response to the abnormal event. Specifically, for example, when the evaluation unit 63 is supplied with the information indicating that the operation input of the emergency stop is performed from the operation acquisition control unit 54, the evaluation unit 63 can start the evaluation of the utterance content. Further, when the evaluation unit 63 receives, for example, information from the simulator control unit 52 indicating that it is the timing at which an abnormal event occurs in the simulation scenario being executed, the evaluation unit 63 starts the evaluation of the utterance content. You can In addition, for example, when the voice recognition result supplied from the voice recognition processing unit 59 is “transport command, transport command”, which is a fixed word indicating the start of communication to the transport command, the evaluation unit 63 indicates the utterance content. The evaluation can start. The evaluation unit 63 determines whether or not information indicating that an emergency stop operation input has been performed, whether or not information indicating that an abnormal event has occurred is supplied, or voice recognition. All conditions are judged whether the result is a fixed word indicating the start of communication to the transportation command, and if any of the conditions is met, it is determined that it is the timing to start the evaluation of the utterance content. Alternatively, it may be determined that it is the start timing of the evaluation of the utterance content by performing any condition determination.

評価部63によるシミュレータ操作者の発話内容の評価について、図5および図6を用いて説明する。 The evaluation of the utterance content of the simulator operator by the evaluation unit 63 will be described with reference to FIGS. 5 and 6.

図5に、図4において説明した熟練者の発話内容例と同一のシーン同一の異常事象が発生した場合における、シミュレータ操作者の発話内容の音声認識結果の例を示す。図5に示される発話内容の例では、図3を用いて説明したキーワードのうち、事故内容の分類の「車」および「接触」のキーワードと、自列車の分類の「200M」「停止」「破損」「脱線」のキーワードは含まれているが、他の分類のキーワードは含まれていない。すなわち、図5に示されるシミュレータ操作者の発話内容の例では、図3を用いて説明したキーワードのうち、偏った分類に含まれるキーワードしか用いられていないことが分かる。また、図4を用いた熟練者の発話内容例と比較して、事故が発生した場所、乗客や通行人等、他列車、および、周辺状況に関する情報が欠落していることが分かる。 FIG. 5 shows an example of the voice recognition result of the utterance content of the simulator operator when the same abnormal event occurs in the same scene as the utterance content example of the expert described in FIG. In the example of the utterance content shown in FIG. 5, among the keywords described with reference to FIG. 3, the keywords “car” and “contact” of the accident content classification and “200M” “stop” “of the own train classification” The keywords "damaged" and "derailment" are included, but the keywords of other categories are not included. That is, in the example of the utterance content of the simulator operator shown in FIG. 5, only the keywords included in the biased classification are used among the keywords described with reference to FIG. Further, as compared with the example of the utterance content of the expert using FIG. 4, it can be seen that the information about the place where the accident occurred, passengers, passers-by, other trains, and surrounding conditions are missing.

評価部63は、キーワード記憶部61に記憶されているキーワード、および、熟練者発話情報記憶部62に記憶されている同一シーンにおける熟練者の発話内容例を参照し、音声認識処理部59から供給される音声認識結果に基づいて、シミュレータ操作者の発話内容と、熟練者の発話内容例とにおいて一致するキーワードの数を検出し、検出結果を、シミュレータ制御部52に供給する。例えば、図5を用いて説明した音声認識結果である場合、図4を用いて説明した熟練者の発話内容例と一致するキーワードの数は6となる。また、評価部63は、重複するキーワードは、1つとして数えるものとしてもよい。更に、評価部63は、同一シーンにおける熟練者の発話内容例に含まれているキーワード数も算出することにより、熟練者の発話内容例と一致するキーワードの数を、例えば、6/28と算出するものとしてもよい。 The evaluation unit 63 refers to the keywords stored in the keyword storage unit 61 and the utterance content example of the expert in the same scene stored in the expert utterance information storage unit 62, and supplies from the voice recognition processing unit 59. Based on the voice recognition result, the number of matching keywords in the utterance content of the simulator operator and the utterance content example of the expert is detected, and the detection result is supplied to the simulator control unit 52. For example, in the case of the voice recognition result described with reference to FIG. 5, the number of keywords that match the example of the utterance content of the expert described with reference to FIG. 4 is 6. The evaluation unit 63 may count the number of overlapping keywords as one. Further, the evaluation unit 63 also calculates the number of keywords included in the utterance content example of the expert in the same scene, thereby calculating the number of keywords matching the utterance content example of the expert as 6/28, for example. It may be done.

また、評価部63は、キーワード記憶部61に記憶されているキーワード、および、熟練者発話情報記憶部62に記憶されている同一シーンにおける熟練者の発話内容例を参照し、音声認識処理部59から供給される音声認識結果に基づいて、シミュレータ操作者の発話内容の音声認識結果、および、同一シーンにおける熟練者の発話内容例に含まれるキーワードの分類の割合を算出し、算出結果を、シミュレータ制御部52に供給する。例えば、音声認識結果が図5を用いて説明したものであり、同一シーンにおける熟練者の発話内容例が図4を用いて説明したものである場合、キーワードの分類の割合は、シミュレータ操作者においては、自列車が80%、事故内容が20%となり、熟練者の発話内容例においては、自列車が38%、場所が18%、事故内容と乗客、通行人等が14%、他列車が11%、周辺状況が7%となる。また、評価部63は、重複するキーワードは、1つとして数えて、分類の割合を算出するものとしてもよい。 Further, the evaluation unit 63 refers to the keyword stored in the keyword storage unit 61 and the example of the utterance content of the expert in the same scene stored in the expert utterance information storage unit 62, and the voice recognition processing unit 59. Based on the voice recognition result supplied from the simulator operator, the voice recognition result of the utterance content of the simulator operator and the classification ratio of the keywords included in the utterance content example of the expert in the same scene are calculated, and the calculation result is calculated by the simulator. It is supplied to the control unit 52. For example, when the voice recognition result is described with reference to FIG. 5 and the example of the utterance content of the expert in the same scene is described with reference to FIG. 4, the rate of keyword classification depends on the simulator operator. Own train 80%, accident content is 20%, in the example of utterance content of skilled person, own train is 38%, location is 18%, accident content and passengers, passers by 14%, other trains 11% and surrounding situation is 7%. Further, the evaluation unit 63 may count the overlapping keywords as one and calculate the classification ratio.

また、評価部63は、熟練者発話情報記憶部62に記憶されている同一シーンにおける熟練者の発話内容例を参照し、音声認識処理部59から供給される音声認識結果に基づいて、シミュレータ操作者の発話内容の音声認識結果と、同一シーンにおける熟練者の発話内容例との一致率を算出し、算出結果を、シミュレータ制御部52に供給する。 The evaluation unit 63 also refers to an example of the utterance content of the expert in the same scene stored in the expert utterance information storage unit 62, and based on the voice recognition result supplied from the voice recognition processing unit 59, the simulator operation is performed. The matching rate between the voice recognition result of the utterance content of the person and the example of the utterance content of the expert in the same scene is calculated, and the calculation result is supplied to the simulator control unit 52.

また、評価部63は、音声認識処理部59から供給される音声認識結果に基づいて、シミュレータ操作者の発話内容の音声認識結果に含まれる定量的な語(例えば、距離、人数、台数などを示す語)の数を検出し、検出結果を、シミュレータ制御部52に供給する。 In addition, the evaluation unit 63 determines, based on the voice recognition result supplied from the voice recognition processing unit 59, a quantitative word (for example, distance, number of persons, number of units, etc.) included in the voice recognition result of the utterance content of the simulator operator. The number of words shown) is detected, and the detection result is supplied to the simulator control unit 52.

また、評価部63は、音声認識処理部59から供給される音声認識結果に基づいて、シミュレータ操作者の発話の速さや声の高さなどを用いて、発話の伝わりやすさを評価し、評価結果を、シミュレータ制御部52に供給する。具体的には、評価部63は、シミュレータ操作者の発話の速さや声の高さなどを数値化した情報を、1つまたは複数の閾値と比較し、レベル化したり、指標化することにより、発話の伝わりやすさを評価する。 In addition, the evaluation unit 63 evaluates the easiness of communication of the utterance based on the voice recognition result supplied from the voice recognition processing unit 59, using the speed of the utterance of the simulator operator, the pitch of the voice, and the like. The result is supplied to the simulator control unit 52. Specifically, the evaluation unit 63 compares the information obtained by quantifying the utterance speed or the voice pitch of the simulator operator with one or more threshold values, and by leveling or indexing the information, Evaluate the ease of communication of speech.

シミュレータ制御部52は、評価部63から供給された情報を用いて、出力制御部53を制御し、例えば、図6に示されるような評価結果を、表示装置23またはプリンタ24に供給させて出力させる。また、シミュレータ制御部52は、表示画面生成部55を制御し、図6に示されるような評価結果に対応する表示画像データを生成させて、表示制御部57に供給させる。表示制御部57は、表示画面生成部55により生成された画像データを、ネットワーク13を介してシミュレーション画面表示装置31に供給し、その表示を制御する。 The simulator control unit 52 uses the information supplied from the evaluation unit 63 to control the output control unit 53 to supply the evaluation result as shown in FIG. 6 to the display device 23 or the printer 24 and output it. Let The simulator control unit 52 also controls the display screen generation unit 55 to generate display image data corresponding to the evaluation result as shown in FIG. 6 and supply the display image data to the display control unit 57. The display control unit 57 supplies the image data generated by the display screen generation unit 55 to the simulation screen display device 31 via the network 13 and controls the display thereof.

この評価結果を確認することにより、シミュレータの操作者の発話内容は、熟練者の発話例と比較して、キーワードが不足し、キーワードの分類が偏っている、すなわち、熟練者の発話例と比較して、報告内容が偏っており、他列車、乗客、通行人等、および、周辺状況の報告が欠けており、報告内容が全体的に不十分であることが分かる。 By confirming this evaluation result, the utterance content of the simulator operator is lacking in keywords and the keyword classification is biased compared with the utterance example of the expert, that is, the utterance example of the expert is compared. Then, the report contents are biased and other trains, passengers, passersby, etc., and the surrounding situation reports are missing, and it can be seen that the report contents are generally insufficient.

評価部63は、上述した評価方法のうちの少なくとも1つ、望ましくは、すべての処理を行う。また、評価部63は、シミュレータ制御部52による制御に基づいて、上述した評価方法のうち、ユーザが選択した評価方法を行うようにしてもよい。 The evaluation unit 63 performs at least one of the evaluation methods described above, and preferably performs all the processes. Further, the evaluation unit 63 may perform the evaluation method selected by the user among the above-described evaluation methods based on the control by the simulator control unit 52.

次に、図7のフローチャートを参照して、シミュレータ制御装置21aを備える列車運転シミュレーションシステム1において実行されるシミュレーション処理1について説明する。 Next, with reference to the flowchart of FIG. 7, the simulation process 1 executed in the train operation simulation system 1 including the simulator control device 21a will be described.

ステップS1において、操作入力装置22は、ユーザ(列車運転に関する教官等)の操作入力を受け、シミュレータ制御装置21aに供給する。シミュレータ制御装置21aは、ユーザの操作入力に基づいた、路線、天候等の条件に合致したシミュレーションの開始準備を実行する。シミュレータ制御装置21aのシミュレータ制御部52は、表示画面生成部55を制御して、シミュレーションのシナリオに応じた画像生成を開始させる。表示画面生成部55により生成された画像は、表示制御部57を介して列車運転シミュレータユニット12のシミュレーション画面表示装置31に表示される。 In step S1, the operation input device 22 receives an operation input from a user (an instructor or the like regarding train driving) and supplies it to the simulator control device 21a. The simulator control device 21a performs preparation for starting a simulation that matches conditions such as a route and weather based on a user's operation input. The simulator control unit 52 of the simulator control device 21a controls the display screen generation unit 55 to start image generation according to the simulation scenario. The image generated by the display screen generation unit 55 is displayed on the simulation screen display device 31 of the train driving simulator unit 12 via the display control unit 57.

ステップS2において、シミュレータ制御装置21aの操作取得制御部54は、ネットワーク13を介して、運転操作シミュレータ32からの操作入力に関する情報が取得されたか否かを判断する。ステップS2において、操作入力に関する情報が取得されていないと判断された場合、操作入力に関する情報が取得されたと判断されるまで、ステップS2の処理が繰り返される。 In step S2, the operation acquisition control unit 54 of the simulator control device 21a determines whether the information regarding the operation input from the driving operation simulator 32 is acquired via the network 13. When it is determined in step S2 that the information regarding the operation input has not been acquired, the process of step S2 is repeated until it is determined that the information regarding the operation input has been acquired.

ステップS2において、操作入力に関する情報が取得されたと判断された場合、ステップS3において、操作取得制御部54は、取得された操作入力に関する情報を、シミュレータ制御部52、および、評価部63に供給する。シミュレータ制御部52は、操作取得制御部54から供給される情報に基づいて、表示画面生成部55を制御して、ビデオデータ記憶部56から実行中のシナリオのシーンに対応する画像データを読み出させ、シミュレーション画面表示装置31に表示される画像データを生成させ、操作入力に基づいたシミュレーションを実行する。例えば、シミュレーションの開始時に、運転操作シミュレータ32において、発車のための運転操作がなされた場合、シミュレータ制御部52は、操作取得制御部54から供給される情報に基づいて、表示画面生成部55を制御して、シミュレーション画面表示装置31に表示される画像を、実際の発車時に対応する動画像とする。また、それ以降、シミュレータ制御部52は、操作取得制御部54から供給される情報に基づいて、例えば、速度の変更やブレーキングなどの操作入力がなされた場合、表示画面生成部55を制御して、シミュレーション画面表示装置31に表示される画像を、シミュレータ操作者が実行した運転操作に対応したものとするなどの、操作入力に基づいたシミュレーションを実行する。 When it is determined in step S2 that the information regarding the operation input is acquired, the operation acquisition control unit 54 supplies the information regarding the acquired operation input to the simulator control unit 52 and the evaluation unit 63 in step S3. .. The simulator control unit 52 controls the display screen generation unit 55 based on the information supplied from the operation acquisition control unit 54 to read the image data corresponding to the scene of the scenario being executed from the video data storage unit 56. Then, the image data displayed on the simulation screen display device 31 is generated, and the simulation based on the operation input is executed. For example, when the driving operation simulator 32 performs a driving operation for departure at the start of the simulation, the simulator control unit 52 controls the display screen generation unit 55 based on the information supplied from the operation acquisition control unit 54. The image displayed on the simulation screen display device 31 is controlled to be a moving image corresponding to the actual departure. After that, the simulator control unit 52 controls the display screen generation unit 55 based on the information supplied from the operation acquisition control unit 54, for example, when an operation input such as speed change or braking is made. Then, the simulation based on the operation input is performed such that the image displayed on the simulation screen display device 31 corresponds to the driving operation executed by the simulator operator.

ステップS4において、音声取得部58は、集音装置33からネットワーク13を介して供給された、シミュレータ操作者の発話音声を取得し、音声認識処理部59に供給する。 In step S4, the voice acquisition unit 58 acquires the voice uttered by the simulator operator supplied from the sound collection device 33 via the network 13 and supplies the voice to the voice recognition processing unit 59.

ステップS5において、音声認識処理部59は、音声取得部58から供給されたシミュレータ操作者の発話音声を音声認識して、音声データをテキストデータに変換し、シミュレーション結果として記録部60に供給して記録させるとともに、評価部63に供給する。 In step S5, the voice recognition processing unit 59 voice-recognizes the voice uttered by the simulator operator supplied from the voice acquisition unit 58, converts the voice data into text data, and supplies the voice data to the recording unit 60 as a simulation result. It is recorded and supplied to the evaluation unit 63.

ステップS6において、評価部63は、操作取得制御部54から、緊急停止の操作入力が行われたことを示す情報の供給を受けるか、シミュレータ制御部52から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けるか、または、音声認識結果が「輸送指令、輸送指令」などの輸送指令への通信の開始を示す決まった文言であるかなどの、発話内容の評価タイミングとなったか否かを判断する。ステップS6において、発話内容の評価タイミングとなっていないと判断された場合、処理は、ステップS3に戻り、それ以降の処理が繰り返される。 In step S6, the evaluation unit 63 is supplied with information indicating that the operation input of the emergency stop is performed from the operation acquisition control unit 54, or the simulator control unit 52 causes an abnormality in the simulation scenario being executed. Whether it receives information indicating that it is the time when the event occurs, or whether the voice recognition result is a fixed word indicating the start of communication to a transportation command such as "transportation command, transportation command", It is determined whether or not it is time to evaluate the utterance content. When it is determined in step S6 that it is not the timing for evaluating the utterance content, the process returns to step S3, and the subsequent processes are repeated.

ステップS6において、発話内容の評価タイミングとなったと判断された場合、ステップS7において、図8〜図11を用いて後述する発話内容評価処理1〜4のうちのいずれか少なくとも1つ、望ましくは、発話内容評価処理1〜4のすべての処理が実行される。 When it is determined in step S6 that it is time to evaluate the utterance content, in step S7, at least one of utterance content evaluation processes 1 to 4 described later with reference to FIGS. 8 to 11, preferably, All the utterance content evaluation processes 1 to 4 are executed.

ステップS8において、シミュレータ制御部52は、表示装置23に、シミュレーションの結果に対応する情報を表示させるために、記録部60に記録されているシミュレーション中の操作者状況に関する情報、および、評価部63による発話内容の評価結果の供給を受け、出力制御部53に供給する。出力制御部53は、シミュレーションの結果に対応する表示データを生成する。また、シミュレータ制御部52は、表示画面生成部55を制御し、シミュレーションの結果に対応する表示データを生成させる。 In step S8, the simulator control unit 52 causes the display device 23 to display the information corresponding to the result of the simulation, the information about the operator situation during the simulation recorded in the recording unit 60, and the evaluation unit 63. The evaluation result of the utterance content is supplied to the output control unit 53. The output control unit 53 generates display data corresponding to the result of simulation. The simulator controller 52 also controls the display screen generator 55 to generate display data corresponding to the result of the simulation.

ステップS9において、表示画面生成部55は、シミュレーションの結果に対応する表示データを表示制御部57に供給し、ネットワーク13を介してシミュレーション画面表示装置31に供給させて表示させ、出力制御部53は、表示装置23またはプリンタ24に、シミュレーションの結果に対応する情報を出力させて、処理が終了する。 In step S9, the display screen generation unit 55 supplies the display control unit 57 with the display data corresponding to the result of the simulation, and supplies the display data to the simulation screen display device 31 via the network 13 to display the display data. Then, the display device 23 or the printer 24 is caused to output the information corresponding to the result of the simulation, and the processing ends.

このように、操作者の発話音声が取得され、操作者の発話音声が音声認識され、キーワード記憶部61に記憶されているキーワード、および、熟練者発話情報記憶部62に記憶されている熟練者の発話内容例を用いて、所定のタイミングで、音声認識結果の評価が開始されるので、ユーザ(列車運転に関する教官等)の手間や時間をかけることなく、訓練生の発話内容を、正しく評価することができる。また、評価開始のタイミングを、緊急停止の操作入力が行われたことを示す情報の供給を受けるか、シミュレータ制御部52から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けるか、または、音声認識結果が「輸送指令、輸送指令」などの輸送指令への通信の開始を示す決まった文言であるか、のいずれかとしているので、操作者の発話の評価が必要な個所を、誤ることなく、また、無駄な処理を行うことなく実行することができる。 In this way, the uttered voice of the operator is acquired, the uttered voice of the operator is voice-recognized, and the keyword stored in the keyword storage unit 61 and the expert stored in the expert utterance information storage unit 62 are acquired. As the evaluation of the voice recognition result is started at a predetermined timing using the example of the utterance contents of, the utterance contents of the trainees can be evaluated correctly without the time and effort of the user (trainer related to train driving). can do. Further, the evaluation start timing should be the timing at which the information indicating that the operation input for the emergency stop is input is supplied or the abnormal event occurs in the simulation scenario being executed from the simulator control unit 52. Is received, or the voice recognition result is either a fixed word indicating the start of communication to a transportation command such as "transportation command, transportation command". It is possible to execute a portion requiring utterance evaluation without making an error and performing unnecessary processing.

次に、図8のフローチャートを参照して、図7のステップS7において実行される第1の処理である、発話内容評価処理1について説明する。 Next, the utterance content evaluation process 1, which is the first process executed in step S7 of FIG. 7, will be described with reference to the flowchart of FIG.

ステップS21において、評価部63は、キーワード記憶部61に記憶されている、例えば、図3を用いて説明したキーワードの情報を読み込む。 In step S21, the evaluation unit 63 reads the keyword information stored in the keyword storage unit 61, for example, as described with reference to FIG.

ステップS22において、評価部63は、シミュレータ制御部52から、現在進行しているシミュレーションのシーン情報を取得する。 In step S22, the evaluation unit 63 acquires the scene information of the simulation currently in progress from the simulator control unit 52.

ステップS23において、評価部63は、熟練者発話情報記憶部62から、シミュレーションのシーン情報に対応する、例えば、図4を用いて説明した熟練者発話情報を読み込む。 In step S23, the evaluation unit 63 reads, from the expert utterance information storage unit 62, the expert utterance information described with reference to FIG. 4, which corresponds to the scene information of the simulation.

ステップS24において、評価部63は、音声認識処理部59から供給された音声認識結果から、キーワードを抽出する。 In step S24, the evaluation unit 63 extracts a keyword from the voice recognition result supplied from the voice recognition processing unit 59.

ステップS25において、評価部63は、抽出されたキーワードと熟練者発話情報に含まれるキーワードとの一致数、または、抽出されたキーワードと熟練者発話情報との分類される属性の割合の比較結果のうちの、すくなくともいずれか1つ、好ましくはこれらすべてを算出して、シミュレータ制御部52に供給し、処理は、図7のステップS8に進む。 In step S25, the evaluation unit 63 determines whether the number of matches between the extracted keyword and the keyword included in the expert utterance information or the comparison result of the ratio of the classified attributes of the extracted keyword and the expert utterance information. At least any one of them, preferably all of them, is calculated and supplied to the simulator control unit 52, and the process proceeds to step S8 of FIG.

このように、分類されたキーワードと、現在進行しているシミュレーションのシーンに合致した熟練者発話情報を用いて音声認識結果が評価されるので、操作者の発話内容を、熟練者の発話例と比較して、精度よく評価することができる。 In this way, since the speech recognition result is evaluated using the classified keywords and the expert utterance information that matches the scene of the simulation currently in progress, the utterance content of the operator is compared with the utterance example of the expert. It can be compared and evaluated accurately.

次に、図9のフローチャートを参照して、図7のステップS7において実行される第2の処理である、発話内容評価処理2について説明する。 Next, the utterance content evaluation process 2, which is the second process executed in step S7 of FIG. 7, will be described with reference to the flowchart of FIG.

ステップS31において、評価部63は、音声認識処理部59から供給された音声認識結果から、例えば、距離、人数、台数などを示す定量的な単語を抽出する。 In step S31, the evaluation unit 63 extracts, from the voice recognition result supplied from the voice recognition processing unit 59, a quantitative word indicating, for example, the distance, the number of persons, the number of units, or the like.

ステップS32において、評価部63は、抽出された定量的な単語の数を算出して、シミュレータ制御部52に供給し、処理は、図7のステップS8に進む。 In step S32, the evaluation unit 63 calculates the number of extracted quantitative words and supplies the calculated number to the simulator control unit 52, and the process proceeds to step S8 in FIG.

このようにして、音声認識結果に定量的な単語が含まれているかどうかを評価することができる。これにより、訓練生に、定量的な語を必要に応じて使用させることを促すための評価を行うことができる。 In this way, it is possible to evaluate whether or not the speech recognition result includes a quantitative word. Thereby, it is possible to perform an evaluation to encourage the trainee to use the quantitative word as needed.

次に、図10のフローチャートを参照して、図7のステップS7において実行される第3の処理である、発話内容評価処理3について説明する。 Next, the utterance content evaluation processing 3, which is the third processing executed in step S7 of FIG. 7, will be described with reference to the flowchart of FIG.

ステップS51において、評価部63は、シミュレータ制御部52から、現在進行しているシミュレーションのシーン情報を取得する In step S51, the evaluation unit 63 acquires the scene information of the simulation currently in progress from the simulator control unit 52.

ステップS52において、評価部63は、熟練者発話情報記憶部62から、シミュレーションのシーン情報に対応する、熟練者発話情報を読み込む。 In step S52, the evaluation unit 63 reads the expert utterance information corresponding to the simulation scene information from the expert utterance information storage unit 62.

ステップS53において、評価部63は、音声認識結果と熟練者発話情報との一致率を算出して、シミュレータ制御部52に供給し、処理は、図7のステップS8に進む。 In step S53, the evaluation unit 63 calculates the concordance rate between the voice recognition result and the expert utterance information and supplies it to the simulator control unit 52, and the process proceeds to step S8 in FIG.

このように、現在進行しているシミュレーションのシーンに合致した熟練者発話情報を用いて音声認識結果が評価されるので、操作者の発話内容を、熟練者の発話例と比較して精度よく評価することができる。 In this way, since the voice recognition result is evaluated by using the expert utterance information that matches the scene of the simulation that is currently proceeding, the operator's utterance content is evaluated with high accuracy by comparing with the expert utterance example. can do.

次に、図11のフローチャートを参照して、図7のステップS7において実行される第4の処理である、発話内容評価処理4について説明する。 Next, the utterance content evaluation process 4, which is the fourth process executed in step S7 of FIG. 7, will be described with reference to the flowchart of FIG.

ステップS61において、評価部63は、音声認識処理部59から供給された、操作者の声のトーン(高さ)、および、発話の速さに対応する数値情報を所定の閾値と比較する。 In step S61, the evaluation unit 63 compares the numerical information corresponding to the tone (pitch) of the operator's voice and the utterance speed supplied from the voice recognition processing unit 59 with a predetermined threshold value.

ステップS62において、評価部63は、比較結果に基づいて、操作者の発話の伝わりやすさを算出して、シミュレータ制御部52に供給し、処理は、図7のステップS8に進む。 In step S62, the evaluation unit 63 calculates the easiness of transmitting the utterance of the operator based on the comparison result and supplies the utterance to the simulator control unit 52, and the process proceeds to step S8 in FIG. 7.

このように、音声認識結果を声のトーン(高さ)、および、発話の速さに対応する数値情報を所定の閾値と比較するようにしたので、操作者の発話の伝わりやすさを評価することができる。 In this way, since the voice recognition result is compared with the predetermined threshold value, the numerical information corresponding to the tone (pitch) of the voice and the speed of the utterance is compared, so that the easiness of transmitting the utterance of the operator is evaluated. be able to.

以上説明した処理において、シミュレータ制御装置21aの評価部63は、緊急停止の操作入力が行われたことを示す情報の供給を受けるか、シミュレータ制御部52から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けるか、または、音声認識結果が「輸送指令、輸送指令」などの輸送指令への通信の開始を示す決まった文言であるかなどの、発話内容の評価タイミングとなった場合、音声認識結果の評価を開始した。これに対して、所定のタイミングとなった場合に、音声認識を開始するとともに、音声認識結果の評価を開始するものとしてもよい。 In the processing described above, the evaluation unit 63 of the simulator control device 21a is supplied with information indicating that the operation input for the emergency stop has been performed, or the simulator control unit 52 causes an abnormality in the simulation scenario being executed. Whether it receives information indicating that it is the time when the event occurs, or whether the voice recognition result is a fixed word indicating the start of communication to a transportation command such as "transportation command, transportation command", When it came time to evaluate the utterance content, evaluation of the voice recognition result was started. On the other hand, when the predetermined timing comes, the voice recognition may be started and the evaluation of the voice recognition result may be started.

次に、図12を用いて、第2の構成例としてのシミュレータ制御装置21bが有する機能構成について説明する。 Next, the functional configuration of the simulator control device 21b as the second configuration example will be described with reference to FIG.

なお、図12のシミュレータ制御装置21bにおいては、図2を用いて説明したシミュレータ制御装置21aと同様の機能を有する部分については、同一の符号を付し、その詳細な説明は省略する。 In the simulator control device 21b of FIG. 12, parts having the same functions as those of the simulator control device 21a described with reference to FIG. 2 are designated by the same reference numerals, and detailed description thereof will be omitted.

すなわち、図12のシミュレータ制御装置21bは、シミュレータ制御部52に代わって、シミュレータ制御部71の機能が備えられ、シミュレータ操作入力取得制御部54に代わって、シミュレータ操作入力取得制御部72(以下、操作取得制御部72と称する)の機能が備えられ、音声認識処理部59に代わって、音声認識処理部73の機能が備えられ、発話内容評価部63に代わって、発話内容評価部74(以下、評価部74と称する)の機能が備えられている。図12のシミュレータ制御装置21bは、上述した部分以外においては、シミュレータ制御装置21aと同様の機能を有する。 That is, the simulator control device 21b of FIG. 12 is provided with the function of the simulator control unit 71 in place of the simulator control unit 52, and replaces the simulator operation input acquisition control unit 54 with the simulator operation input acquisition control unit 72 (hereinafter, The operation acquisition control unit 72) is provided, the voice recognition processing unit 59 is replaced by the voice recognition processing unit 73, and the utterance content evaluation unit 63 is replaced by the utterance content evaluation unit 74 (hereinafter, referred to as an utterance content evaluation unit 74). , Evaluation unit 74). The simulator control device 21b of FIG. 12 has the same functions as the simulator control device 21a except for the above-mentioned portions.

シミュレータ制御部71は、実行中のシナリオにおいて、異常事象が発生するタイミングであることを、音声認識処理部59に通知する。シミュレータ制御部71が有するその他の機能は、上述したシミュレータ制御部52と同一である。 The simulator control unit 71 notifies the voice recognition processing unit 59 that it is a timing at which an abnormal event occurs in the scenario being executed. The other functions of the simulator control unit 71 are the same as those of the simulator control unit 52 described above.

操作取得制御部72は、運転操作シミュレータ32からネットワーク13を介して供給された、シミュレータ操作者の操作入力に関する情報を取得し、シミュレータ制御部71、記録部60、および、音声認識処理部73に供給する。 The operation acquisition control unit 72 acquires the information regarding the operation input of the simulator operator, which is supplied from the driving operation simulator 32 via the network 13, and supplies the information to the simulator control unit 71, the recording unit 60, and the voice recognition processing unit 73. Supply.

音声認識処理部73は、音声取得部58から供給されたシミュレータ操作者の発話音声を音声認識して、音声データをテキストデータに変換し、シミュレーション結果として記録部60に供給して記録させるとともに、評価部74に供給する。音声認識処理部73は、シミュレーションの中で異常事象が発生し、訓練生が、異常事象に対応して輸送指令への報告を開始するタイミングで、音声認識処理を開始する。具体的には、音声認識処理部73は、例えば、操作取得制御部54から、緊急停止の操作入力が行われたことを示す情報の供給を受けた場合、音声認識処理を開始することができる。また、音声認識処理部73は、例えば、シミュレータ制御部52から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けた場合、音声認識処理を開始することができる。音声認識処理部73は、緊急停止の操作入力が行われたことを示す情報の供給があるか否か、または、異常事象が発生するタイミングであることを示す情報の供給があるか否か、のすべての条件判断を行い、いずれかの条件が合致した場合に、音声認識処理の開始タイミングであることを決定してもよいし、いずれかの条件判断を行うことにより、音声認識処理の開始タイミングであることを決定してもよい。 The voice recognition processing unit 73 performs voice recognition of the voice uttered by the simulator operator supplied from the voice acquisition unit 58, converts the voice data into text data, and supplies the voice data to the recording unit 60 as a simulation result for recording. It is supplied to the evaluation unit 74. The voice recognition processing unit 73 starts voice recognition processing at the timing when an abnormal event occurs in the simulation and the trainee starts reporting to the transportation command in response to the abnormal event. Specifically, the voice recognition processing unit 73 can start the voice recognition process when, for example, the information indicating that the operation input for the emergency stop has been input is received from the operation acquisition control unit 54. .. Further, the voice recognition processing unit 73 starts the voice recognition process, for example, when it is supplied from the simulator control unit 52 with information indicating that it is the timing at which an abnormal event occurs in the simulation scenario being executed. be able to. The voice recognition processing unit 73 determines whether or not information indicating that an emergency stop operation input has been performed, or whether or not information indicating that an abnormal event has occurred is supplied. It may be possible to determine that it is the start timing of the voice recognition process if any of the conditions are satisfied, and if any of the conditions are met, the voice recognition process is started by making any of the condition determinations. It may be determined that it is timing.

評価部74は、音声認識処理部59から供給される音声認識結果を用いて、シミュレータ操作者の発話内容を評価する。評価部74による発話内容を評価方法は、上述した評価部63と同様であるが、評価の開始のタイミングは、音声認識処理部59から音声認識結果の供給を受けたときである。 The evaluation unit 74 evaluates the speech content of the simulator operator using the voice recognition result supplied from the voice recognition processing unit 59. The method of evaluating the utterance content by the evaluation unit 74 is the same as that of the evaluation unit 63 described above, but the evaluation start timing is when the voice recognition result is supplied from the voice recognition processing unit 59.

次に、図13のフローチャートを参照して、ミュレータ制御装置21bを備える列車運転シミュレーションシステム1において実行されるシミュレーション処理2について説明する。 Next, with reference to the flowchart of FIG. 13, a simulation process 2 executed in the train operation simulation system 1 including the emulator controller 21b will be described.

ステップS71において、操作入力装置22は、ユーザ(列車運転に関する教官等)の操作入力を受け、シミュレータ制御装置21bに供給する。シミュレータ制御装置21bは、ユーザの操作入力に基づいた、路線、天候等の条件に合致したシミュレーションの開始準備を実行する。シミュレータ制御装置21bのシミュレータ制御部71は、表示画面生成部55を制御して、シミュレーションのシナリオに応じた画像生成を開始させる。表示画面生成部55により生成された画像は、表示制御部57を介して列車運転シミュレータユニット12のシミュレーション画面表示装置31に表示される。 In step S71, the operation input device 22 receives an operation input from a user (a trainer-related instructor or the like) and supplies it to the simulator control device 21b. The simulator control device 21b performs preparation for starting a simulation that matches conditions such as a route and weather based on a user's operation input. The simulator control unit 71 of the simulator control device 21b controls the display screen generation unit 55 to start image generation according to the simulation scenario. The image generated by the display screen generation unit 55 is displayed on the simulation screen display device 31 of the train driving simulator unit 12 via the display control unit 57.

ステップS72において、シミュレータ制御装置21bの操作取得制御部72は、ネットワーク13を介して、運転操作シミュレータ32からの操作入力に関する情報が取得されたか否かを判断する。ステップS72において、操作入力に関する情報が取得されていないと判断された場合、操作入力に関する情報が取得されたと判断されるまで、ステップS72の処理が繰り返される。 In step S72, the operation acquisition control unit 72 of the simulator control device 21b determines whether the information regarding the operation input from the driving operation simulator 32 is acquired via the network 13. When it is determined in step S72 that the information regarding the operation input has not been acquired, the process of step S72 is repeated until it is determined that the information regarding the operation input has been acquired.

ステップS72において、操作入力に関する情報が取得されたと判断された場合、ステップS73において、操作取得制御部72は、取得された操作入力に関する情報を、シミュレータ制御部71、および、音声認識処理部73に供給する。シミュレータ制御部71は、操作取得制御部72から供給される情報に基づいて、表示画面生成部55を制御して、ビデオデータ記憶部56から実行中のシナリオのシーンに対応する画像データを読み出させ、シミュレーション画面表示装置31に表示される画像データを生成させ、操作入力に基づいたシミュレーションを実行する。例えば、シミュレーションの開始時に、運転操作シミュレータ32において、発車のための運転操作がなされた場合、シミュレータ制御部71は、操作取得制御部72から供給される情報に基づいて、表示画面生成部55を制御して、シミュレーション画面表示装置31に表示される画像を、実際の発車時に対応する動画像とする。また、それ以降、シミュレータ制御部71は、操作取得制御部72から供給される情報に基づいて、例えば、速度の変更やブレーキングなどの操作入力がなされた場合、表示画面生成部55を制御して、シミュレーション画面表示装置31に表示される画像を、シミュレータ操作者が実行した運転操作に対応したものとするなどの、操作入力に基づいたシミュレーションを実行する。 When it is determined in step S72 that the information related to the operation input is acquired, the operation acquisition control unit 72 transfers the acquired information related to the operation input to the simulator control unit 71 and the voice recognition processing unit 73 in step S73. Supply. The simulator control unit 71 controls the display screen generation unit 55 based on the information supplied from the operation acquisition control unit 72 to read the image data corresponding to the scene of the scenario being executed from the video data storage unit 56. Then, the image data displayed on the simulation screen display device 31 is generated, and the simulation based on the operation input is executed. For example, when the driving operation simulator 32 performs a driving operation for departure at the start of the simulation, the simulator control unit 71 causes the display screen generation unit 55 to operate based on the information supplied from the operation acquisition control unit 72. The image displayed on the simulation screen display device 31 is controlled to be a moving image corresponding to the actual departure. After that, the simulator control unit 71 controls the display screen generation unit 55 based on the information supplied from the operation acquisition control unit 72, for example, when an operation input such as speed change or braking is made. Then, the simulation based on the operation input is executed, such as the image displayed on the simulation screen display device 31 corresponding to the driving operation executed by the simulator operator.

ステップS74において、音声認識処理部73は、操作取得制御部72から、緊急停止の操作入力が行われたことを示す情報の供給を受けるか、または、シミュレータ制御部71から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けるかなどの、音声認識処理の開始タイミングとなったか否かを判断する。ステップS74において、音声認識処理の開始タイミングとなっていないと判断された場合、処理は、ステップS73に戻り、それ以降の処理が繰り返される。 In step S74, the voice recognition processing unit 73 receives the information indicating that the operation input for the emergency stop has been input from the operation acquisition control unit 72, or the simulator control unit 71 notifies of the simulation being executed. In the scenario, it is determined whether or not it is the start timing of the voice recognition process, such as whether or not the information indicating that it is the timing at which an abnormal event occurs is supplied. When it is determined in step S74 that the start timing of the voice recognition process has not come, the process returns to step S73, and the subsequent processes are repeated.

ステップS74において、音声認識処理の開始タイミングとなったと判断された場合、ステップS75において、音声認識処理部73は、音声取得部58から供給されたシミュレータ操作者の発話音声を取得する。 When it is determined in step S74 that the start timing of the voice recognition process has come, in step S75, the voice recognition processing unit 73 acquires the utterance voice of the simulator operator supplied from the voice acquisition unit 58.

ステップS76において、音声認識処理部73は、音声取得部58から取得したシミュレータ操作者の発話音声を音声認識して、音声データをテキストデータに変換し、シミュレーション結果として記録部60に供給して記録させるとともに、評価部74に供給する。 In step S76, the voice recognition processing unit 73 voice-recognizes the utterance voice of the simulator operator acquired from the voice acquisition unit 58, converts the voice data into text data, and supplies the voice data to the recording unit 60 as a simulation result for recording. The evaluation unit 74 is supplied with it.

ステップS76において、発話内容の評価タイミングとなったと判断された場合、ステップS77において、図8〜図11を用いて説明した発話内容評価処理1〜4のうちのいずれか少なくとも1つ、望ましくは、発話内容評価処理1〜4のすべての処理が実行される。 When it is determined in step S76 that it is time to evaluate the utterance content, in step S77, at least one of the utterance content evaluation processes 1 to 4 described with reference to FIGS. 8 to 11, preferably, All the utterance content evaluation processes 1 to 4 are executed.

ステップS78において、シミュレータ制御部71は、表示装置23に、シミュレーションの結果に対応する情報を表示させるために、記録部60に記録されているシミュレーション中の操作者状況に関する情報、および、評価部74による発話内容の評価結果の供給を受け、出力制御部53に供給する。出力制御部53は、シミュレーションの結果に対応する表示データを生成する。また、シミュレータ制御部71は、表示画面生成部55を制御し、シミュレーションの結果に対応する表示データを生成させる。 In step S78, the simulator control unit 71 causes the display device 23 to display the information corresponding to the result of the simulation, the information about the operator situation during the simulation recorded in the recording unit 60, and the evaluation unit 74. The evaluation result of the utterance content is supplied to the output control unit 53. The output control unit 53 generates display data corresponding to the result of simulation. The simulator controller 71 also controls the display screen generator 55 to generate display data corresponding to the result of the simulation.

ステップS79において、表示画面生成部55は、シミュレーションの結果に対応する表示データを表示制御部57に供給し、ネットワーク13を介してシミュレーション画面表示装置31に供給させて表示させ、出力制御部53は、表示装置23またはプリンタ24に、シミュレーションの結果に対応する情報を出力させて、処理が終了する。 In step S79, the display screen generation unit 55 supplies the display control unit 57 with the display data corresponding to the result of the simulation, and supplies the display data to the simulation screen display device 31 via the network 13 to display the display data. Then, the display device 23 or the printer 24 is caused to output the information corresponding to the result of the simulation, and the processing ends.

このように、操作者の発話音声が取得され、所定のタイミングで操作者の発話音声の音声認識が開始され、音声認識結果が評価されるので、訓練生の発話内容を正しく評価することができる。また、音声認識処理の開始のタイミングを、緊急停止の操作入力が行われたことを示す情報の供給を受けるか、シミュレータ制御部52から、実行中のシミュレーションのシナリオにおいて、異常事象が発生するタイミングであることを示す情報の供給を受けるか、のいずれかとしているので、音声認識処理の実行箇所をできるだけ少なくして、ユーザ(列車運転に関する教官等)の手間や時間をかけることなく、操作者の発話の評価を実行することができる。 In this way, the uttered voice of the operator is acquired, the voice recognition of the uttered voice of the operator is started at a predetermined timing, and the voice recognition result is evaluated. Therefore, the utterance content of the trainee can be correctly evaluated. .. Further, the timing of the start of the voice recognition process is the timing at which the information indicating that the operation input for the emergency stop has been input is received, or the timing at which the abnormal event occurs in the simulation scenario being executed from the simulator control unit 52. Since it is either supplied with information indicating that it is, it is possible to reduce the number of execution points of voice recognition processing as much as possible, without the user's (training staff etc.) time and effort, operator The utterance evaluation of can be performed.

以上説明したように、本発明の一実施例であるシミュレータ制御装置21では、列車運転シミュレーション実行中の操作者の発話音声が取得され(例えば、図7のステップS4、または、図13のステップS73の処理)、取得された操作者の発話音声が音声認識され(例えば、図7のステップS5、または、図13のステップS74の処理)、音声認識より得られた操作者の発話内容と、列車運転シミュレーションにおいて操作者が発話すべき基準発話内容(例えば、熟練者発話情報記憶部62に記憶された図4に示される熟練者発話情報)とを比較し、操作者の発話内容が評価される(例えば、図7のステップS7、または、図13のステップS77の処理)ので、ユーザ(列車運転に関する教官等)の手間や時間をかけることなく、操作者の発話の評価を実行することができる。 As described above, in the simulator control device 21 according to the embodiment of the present invention, the utterance voice of the operator who is executing the train driving simulation is acquired (for example, step S4 in FIG. 7 or step S73 in FIG. 13). Processing), the acquired utterance voice of the operator is voice-recognized (for example, the processing of step S5 of FIG. 7 or step S74 of FIG. 13), and the utterance content of the operator obtained by the voice recognition and the train In the driving simulation, the operator's utterance content is evaluated by comparing with the reference utterance content to be uttered by the operator (for example, the expert utterance information shown in FIG. 4 stored in the expert utterance information storage unit 62). (For example, the process of step S7 of FIG. 7 or the process of step S77 of FIG. 13), the evaluation of the utterance of the operator can be executed without the trouble and time of the user (instructor or the like regarding train driving). ..

また、列車運転シミュレーションのシーンごとに、シーンに対応した基準発話内容と(例えば、図8のステップS23、または、図10のステップS52の処理)、該当するシーンの、音声認識により得られた操作者の発話内容が比較され、操作者の発話内容が評価されるようにしたのでシーンごとに操作者の発話内容を評価することができる。その結果、操作者の発話内容をより精度よく評価することができる。 Further, for each scene of the train driving simulation, the reference utterance content corresponding to the scene (for example, the processing of step S23 of FIG. 8 or the processing of step S52 of FIG. 10), and the operation obtained by voice recognition of the corresponding scene Since the utterance contents of the operator are compared and the utterance contents of the operator are evaluated, the utterance contents of the operator can be evaluated for each scene. As a result, the operator's uttered content can be evaluated more accurately.

また、音声認識処理部59または音声認識処理部73の処理により得られた音声認識結果からキーワード(例えば、キーワード記憶部61により記憶されている図3に示される情報)が抽出され(例えば、図8のステップS24の処理)、抽出されたキーワードと基準発話内容(例えば、熟練者発話情報記憶部62に記憶されている熟練者発話情報)に含まれるキーワードとが比較され、その比較結果に基づいて、音声認識結果を評価する(例えば、図8のステップS25の処理)ようにしたので、キーワードに基づいて、操作者の発話内容を評価できる。シーンに応じて口頭で報告すべき内容において使用される言葉(キーワード)はある程度特定されるので、操作者の発話内容に含まれるキーワードを検討すれば、発話内容を適切に評価することができる。 In addition, a keyword (for example, the information shown in FIG. 3 stored in the keyword storage unit 61) is extracted from the voice recognition result obtained by the processing of the voice recognition processing unit 59 or the voice recognition processing unit 73 (for example, FIG. 8 processing of step S24), the extracted keyword and the keyword included in the reference utterance content (for example, expert utterance information stored in the expert utterance information storage unit 62) are compared, and based on the comparison result. Since the voice recognition result is evaluated (for example, the process of step S25 of FIG. 8), the utterance content of the operator can be evaluated based on the keyword. Since the words (keywords) used in the content to be verbally reported according to the scene are specified to some extent, the keywords included in the utterance content of the operator can be examined to appropriately evaluate the utterance content.

また、抽出したキーワードの分類の発話内容における割合と、基準発話内容(例えば、熟練者発話情報記憶部62に記憶されている熟練者発話情報)に含まれるキーワードの分類の基準発話内容における割合とを比較して、操作者の発話内容を評価する(例えば、図8のステップS25の処理)ようにしたので、例えば、使用されるキーワードにばらつきがあっても、操作者の発話内容を評価できる。例えば、「車」、「乗用車」は、「事故内容」に分類されるので(図3)、基準発話内容との比較において単語が完全に一致しなくても、同じことを意図する単語であれば、基準発話内容に対応しているものと判断できる。 Further, the ratio of the extracted keyword classification to the utterance content and the ratio of the keyword classification included in the reference utterance content (for example, the expert utterance information stored in the expert utterance information storage unit 62) to the reference utterance content Since the operator's utterance content is evaluated (for example, the process of step S25 of FIG. 8), the operator's utterance content can be evaluated even if the keywords used vary. .. For example, “car” and “passenger car” are classified as “accident content” (FIG. 3 ), so even if the words do not match exactly in the comparison with the reference utterance content, the words that are intended to be the same. Therefore, it can be determined that the standard utterance content is supported.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When a series of processes is executed by software, a program that constitutes the software can execute various functions by installing a computer in which dedicated hardware is installed or various programs. It is installed from a program recording medium into a possible general-purpose personal computer or the like.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed in time series in the order described in this specification, or in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1…列車運転シミュレーションシステム、 11…シミュレータ制御ユニット、12…列車運転シミュレータユニット、13…ネットワーク、 21(21a,21b)…シミュレータ制御装置、 22…操作入力装置、 23…表示装置、 24…プリンタ、 31…シミュレーション画面表示装置、 32…運転操作シミュレータ、 33…集音装置、 51…操作入力制御部、 52、71…シミュレータ制御部、 53…制御装置用出力制御部、 54、72…シミュレータ操作入力取得制御部、 55…表示画面生成部、 56…ビデオデータ記憶部、 57…シミュレータ画面表示制御部、 58…音声取得制御部、 59、73…音声認識処理部、 60…操作者状況記録部、 61…キーワード記憶部、 62…熟練者発話情報記憶部、 63、74…発話内容評価部
DESCRIPTION OF SYMBOLS 1... Train operation simulation system, 11... Simulator control unit, 12... Train operation simulator unit, 13... Network, 21 (21a, 21b)... Simulator control device, 22... Operation input device, 23... Display device, 24... Printer, 31... Simulation screen display device, 32... Driving operation simulator, 33... Sound collecting device, 51... Operation input control unit, 52, 71... Simulator control unit, 53... Control device output control unit, 54, 72... Simulator operation input Acquisition control unit, 55... Display screen generation unit, 56... Video data storage unit, 57... Simulator screen display control unit, 58... Voice acquisition control unit, 59, 73... Voice recognition processing unit, 60... Operator situation recording unit, 61... Keyword storage unit, 62... Expert utterance information storage unit, 63, 74... Utterance content evaluation unit

Claims (12)

列車の運転訓練を行うための列車運転シミュレータによる訓練結果を評価するシミュレーション評価装置であって、
前記列車運転シミュレータにより実行される列車運転シミュレーション実行中の前記列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御部と、
前記音声取得制御部の制御により取得された前記操作者の発話音声を音声認識する音声認識処理部と、
前記音声認識処理部による音声認識により得られた前記操作者の発話内容と、前記列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、前記操作者の発話内容を評価する評価部と
を有することを特徴とするシミュレーション評価装置。
A simulation evaluation device for evaluating a training result by a train driving simulator for carrying out train driving training,
A voice acquisition control unit that controls the acquisition of the voice uttered by the operator of the train driving simulator being executed by the train driving simulator.
A voice recognition processing unit for voice-recognizing the voice uttered by the operator acquired by the control of the voice acquisition control unit;
An evaluation unit that compares the utterance content of the operator obtained by the voice recognition by the voice recognition processing unit with a reference utterance content that the operator should utter in the train driving simulation, and evaluates the utterance content of the operator. And a simulation evaluation device.
請求項1に記載のシミュレーション評価装置であって、
前記評価部は、前記列車運転シミュレーションのシーンごとに、前記シーンに対応した前記基準発話内容と、前記音声認識処理部の処理により得られた前記シーンの前記操作者の発話内容を比較し、前記操作者の発話内容を評価する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to claim 1, wherein
The evaluation unit, for each scene of the train driving simulation, compares the reference utterance content corresponding to the scene, the utterance content of the operator of the scene obtained by the processing of the voice recognition processing unit, the A simulation evaluation device that evaluates the content of the operator's speech.
請求項1または請求項2に記載のシミュレーション評価装置であって、
前記評価部は、前記音声認識処理部の処理により得られた音声認識結果からキーワードを抽出し、抽出した前記キーワードと、前記基準発話内容に含まれるキーワードとを比較し、その比較結果に基づいて、前記操作者の発話内容を評価する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to claim 1 or 2, wherein
The evaluation unit extracts a keyword from the voice recognition result obtained by the process of the voice recognition processing unit, compares the extracted keyword and the keyword included in the reference utterance content, and based on the comparison result. A simulation evaluation device characterized by evaluating the utterance content of the operator.
請求項3に記載のシミュレーション評価装置であって、
前記評価部は、抽出した前記キーワードの分類の発話内容における割合と、前記基準発話内容に含まれる前記キーワードの分類の前記基準発話内容における割合とを比較して、前記操作者の発話内容を評価する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to claim 3,
The evaluation unit evaluates the utterance content of the operator by comparing a ratio in the utterance content of the extracted keyword classification with a ratio in the reference utterance content of the keyword classification included in the reference utterance content. A simulation evaluation device characterized by:
請求項1〜4のいずれか1項に記載のシミュレーション評価装置であって、
前記評価部は、前記音声認識処理部の処理により得られた音声認識結果と、前記基準発話内容との一致率に基づいて、前記操作者の発話内容を評価する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to any one of claims 1 to 4,
The simulation evaluation device, wherein the evaluation unit evaluates the utterance content of the operator based on the matching rate between the voice recognition result obtained by the processing of the voice recognition processing unit and the reference utterance content. ..
請求項1〜5のいずれかに記載のシミュレーション評価装置であって、
前記評価部は、前記音声認識処理部の処理により得られた音声認識結果に定量的な語があるか否かに基づいて、前記操作者の発話内容を更に評価する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to any one of claims 1 to 5,
The evaluation unit further evaluates the utterance content of the operator based on whether or not the speech recognition result obtained by the processing of the speech recognition processing unit has a quantitative word. apparatus.
請求項1〜6のいずれか1項に記載のシミュレーション評価装置であって、
前記音声認識処理部は、前記音声取得制御部により取得が制御された前記操作者の発話音声の高さ、または、速さの少なくともいずれか1つを数値化し、
前記評価部は、前記音声認識処理部の処理により数値化された前記発話音声の高さ、または、速さに基づいて、前記操作者の発話内容を更に評価する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to any one of claims 1 to 6,
The voice recognition processing unit digitizes at least one of the pitch of the utterance voice of the operator whose acquisition is controlled by the voice acquisition control unit, or the speed,
The simulation evaluation device, wherein the evaluation unit further evaluates the utterance content of the operator based on the height or speed of the uttered voice digitized by the processing of the voice recognition processing unit. ..
請求項1〜7のいずれか1項に記載のシミュレーション評価装置であって、
前記列車運転シミュレータへの操作入力の取得を制御する操作取得制御部と、
前記列車運転シミュレータへ表示出力する画像データの生成を制御する画像データ生成制御部と
をさらに有し、
前記評価部は、前記操作取得制御部により、緊急停止の操作入力の取得が制御された場合、前記画像データ生成制御部により、緊急停止が必要となるシミュレーション画像の生成が制御された場合、または、前記音声認識処理部の処理により得られた音声認識結果が、通信の開始を示す所定の文言である場合、そのタイミング以降で、前記音声認識処理部の処理により得られた前記操作者の発話内容の評価を開始する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to any one of claims 1 to 7,
An operation acquisition control unit that controls acquisition of operation input to the train driving simulator,
An image data generation control unit for controlling generation of image data to be displayed and output to the train driving simulator,
The evaluation unit, when the operation acquisition control unit controls the acquisition of the operation input for the emergency stop, when the image data generation control unit controls the generation of the simulation image that requires the emergency stop, or If the voice recognition result obtained by the process of the voice recognition processing unit is a predetermined wording indicating the start of communication, after that timing, the utterance of the operator obtained by the process of the voice recognition processing unit Simulation evaluation device characterized by starting evaluation of contents.
請求項1〜7のいずれか1項に記載のシミュレーション評価装置であって、
前記列車運転シミュレータへの操作入力の取得を制御する操作取得制御部と、
前記列車運転シミュレータへ表示出力する画像データの生成を制御する画像データ生成制御部と
をさらに有し、
前記音声認識処理部は、前記操作取得制御部により、緊急停止の操作入力の取得が制御された場合、または、前記画像データ生成制御部により、緊急停止が必要となるシミュレーション画像の生成が制御された場合、そのタイミング以降で、前記音声取得制御部により取得が制御された前記操作者の発話音声の音声認識を開始する
ことを特徴とするシミュレーション評価装置。
The simulation evaluation device according to any one of claims 1 to 7,
An operation acquisition control unit that controls acquisition of operation input to the train driving simulator,
An image data generation control unit for controlling generation of image data to be displayed and output to the train driving simulator,
The voice recognition processing unit, when the operation acquisition control unit controls the acquisition of the operation input for the emergency stop, or the image data generation control unit controls the generation of the simulation image that requires the emergency stop. In that case, after that timing, the voice evaluation of the voice of the operator whose acquisition is controlled by the voice acquisition control unit is started, and the simulation evaluation apparatus.
列車の運転訓練を行うための列車運転シミュレータと前記列車運転シミュレータを制御するシミュレーション評価装置を含む列車運転シミュレーションシステムであって、
前記列車運転シミュレータは、
シミュレーションにおいて進行されるシナリオの各シーンに対応する表示画面を表示するシミュレーション画面表示部と、
前記運転訓練を行う訓練生が、前記シミュレーション画面表示部により表示された画像を参照して、操作を行う運転操作シミュレータと、
前記運転操作シミュレータの操作者の発話音声を集音する集音部と
を有し、
前記シミュレーション評価装置は、
前記集音部により集音された前記列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御部と、
前記音声取得制御部の制御により取得された前記操作者の発話音声を音声認識する音声認識処理部と、
前記音声認識処理部による音声認識により得られた前記操作者の発話内容と、前記列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、前記操作者の発話内容を評価する評価部と
を有することを特徴とする列車運転シミュレータシステム。
A train operation simulation system including a train operation simulator for performing train operation training and a simulation evaluation device for controlling the train operation simulator,
The train driving simulator,
A simulation screen display unit that displays a display screen corresponding to each scene of the scenario that is progressed in the simulation,
Trainees who perform the driving training, with reference to the image displayed by the simulation screen display unit, a driving operation simulator that performs the operation,
And a sound collection unit that collects a voice uttered by the operator of the driving operation simulator,
The simulation evaluation device,
A voice acquisition control unit that controls the acquisition of the voice uttered by the operator of the train driving simulator collected by the sound collection unit,
A voice recognition processing unit for voice-recognizing the voice uttered by the operator acquired by the control of the voice acquisition control unit;
An evaluation unit that compares the utterance content of the operator obtained by the voice recognition by the voice recognition processing unit with a reference utterance content that the operator should utter in the train driving simulation, and evaluates the utterance content of the operator. And a train driving simulator system.
列車の運転訓練を行うための列車運転シミュレータを制御するシミュレーション評価装置が実行する列車運転シミュレーション評価方法であって、
前記列車運転シミュレータにより実行される列車運転シミュレーション実行中の前記列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御ステップと、
前記音声取得制御ステップの処理により取得された前記操作者の発話音声を音声認識する音声認識処理ステップと、
前記音声認識処理ステップの音声認識処理により得られた前記操作者の発話内容と、前記列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、前記操作者の発話内容を評価する評価ステップと
を含むことを特徴とする列車運転シミュレーション評価方法。
A train operation simulation evaluation method executed by a simulation evaluation device for controlling a train operation simulator for train operation training, comprising:
A voice acquisition control step for controlling the acquisition of the voice uttered by the operator of the train driving simulator being executed by the train driving simulator.
A voice recognition processing step of recognizing the voice uttered by the operator acquired by the processing of the voice acquisition control step,
Evaluation for comparing the utterance content of the operator obtained by the voice recognition processing of the voice recognition processing step and the reference utterance content to be uttered by the operator in the train driving simulation, and evaluating the utterance content of the operator A train operation simulation evaluation method comprising:
列車の運転訓練を行うための列車運転シミュレータを制御するコンピュータに、
前記列車運転シミュレータにより実行される列車運転シミュレーション実行中の前記列車運転シミュレータの操作者の発話音声の取得を制御する音声取得制御ステップと、
前記音声取得制御ステップの処理により取得された前記操作者の発話音声を音声認識する音声認識処理ステップと、
前記音声認識処理ステップの音声認識処理により得られた前記操作者の発話内容と、前記列車運転シミュレーションにおいて操作者が発話すべき基準発話内容とを比較し、前記操作者の発話内容を評価する評価ステップと
を含む処理を実行させるプログラム。
A computer that controls a train driving simulator for train driving training,
A voice acquisition control step for controlling the acquisition of the voice uttered by the operator of the train driving simulator being executed by the train driving simulator.
A voice recognition processing step of recognizing the voice uttered by the operator acquired by the processing of the voice acquisition control step,
Evaluation for comparing the utterance content of the operator obtained by the voice recognition processing of the voice recognition processing step and the reference utterance content to be uttered by the operator in the train driving simulation, and evaluating the utterance content of the operator A program that executes processing including steps and.
JP2018244873A 2018-12-27 2018-12-27 Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program Active JP7092656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018244873A JP7092656B2 (en) 2018-12-27 2018-12-27 Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018244873A JP7092656B2 (en) 2018-12-27 2018-12-27 Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program

Publications (2)

Publication Number Publication Date
JP2020106656A true JP2020106656A (en) 2020-07-09
JP7092656B2 JP7092656B2 (en) 2022-06-28

Family

ID=71450770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018244873A Active JP7092656B2 (en) 2018-12-27 2018-12-27 Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program

Country Status (1)

Country Link
JP (1) JP7092656B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170864A (en) * 2021-11-11 2022-03-11 卡斯柯信号有限公司 Scene comprehensive management and verification method and device for full-automatic operation of intelligent subway
CN114283649A (en) * 2022-01-14 2022-04-05 成都运达科技股份有限公司 Train inspection simulation training system and method, training equipment and using method
CN115953931A (en) * 2023-03-14 2023-04-11 成都运达科技股份有限公司 Rail transit practical training examination objective evaluation system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS556307A (en) * 1978-06-28 1980-01-17 Hitachi Electronics Training simulator
JP2004157253A (en) * 2002-11-05 2004-06-03 Kawasaki Steel Systems R & D Corp Contact center operator training system
JP2014071319A (en) * 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd Railroad simulator and method for simulating driving of railroad
US20160189562A1 (en) * 2013-08-01 2016-06-30 The Provost, Fellows, Foundation Scholars, & the Other Members of Board, of The College of the Holy Method and System for Measuring Communication Skills of Crew Members

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS556307A (en) * 1978-06-28 1980-01-17 Hitachi Electronics Training simulator
JP2004157253A (en) * 2002-11-05 2004-06-03 Kawasaki Steel Systems R & D Corp Contact center operator training system
JP2014071319A (en) * 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd Railroad simulator and method for simulating driving of railroad
US20160189562A1 (en) * 2013-08-01 2016-06-30 The Provost, Fellows, Foundation Scholars, & the Other Members of Board, of The College of the Holy Method and System for Measuring Communication Skills of Crew Members

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170864A (en) * 2021-11-11 2022-03-11 卡斯柯信号有限公司 Scene comprehensive management and verification method and device for full-automatic operation of intelligent subway
CN114170864B (en) * 2021-11-11 2024-03-29 卡斯柯信号有限公司 Scene comprehensive management and verification method and device for intelligent subway full-automatic operation
CN114283649A (en) * 2022-01-14 2022-04-05 成都运达科技股份有限公司 Train inspection simulation training system and method, training equipment and using method
CN114283649B (en) * 2022-01-14 2023-10-27 成都运达科技股份有限公司 Train inspection simulation training system and method, training equipment and using method
CN115953931A (en) * 2023-03-14 2023-04-11 成都运达科技股份有限公司 Rail transit practical training examination objective evaluation system and method

Also Published As

Publication number Publication date
JP7092656B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP7092656B2 (en) Simulation evaluation device, train operation simulation system, train operation simulation evaluation method, and program
US7616128B2 (en) Audio identifying device, audio identifying method, and program
CN105416340B (en) Train reminding and pre-warning system
JP5984605B2 (en) Railway simulator and method for simulating railway operation
CN112071309B (en) Network appointment vehicle safety monitoring device and system
JP2014091480A (en) Operation arrangement device and method
CN112951267A (en) Passenger health monitoring method and vehicle-mounted terminal
JP2020154996A (en) Information processing system, agent system, information processing method, and program
JP6729494B2 (en) Information management system and information management method
JPH09146585A (en) Voice recognition and translation system
CN114332712A (en) Tunnel worker monitoring system and method based on face recognition
JP3195716U (en) Road inspection assistance system
Meng et al. A reporting assistant for railway security staff
CN111348074A (en) Railway dispatching method and system
KR102269620B1 (en) System for monitoring Car Movement Information and Driving method thereof
WO2023112668A1 (en) Sound analysis device, sound analysis method, and recording medium
CN113470329B (en) Multi-point triggering monitoring early warning system based on emergency platform
JP2004234554A (en) Patrol inspection data monitoring device and its monitoring method
JP2006030282A (en) Interaction understanding device
JP4468716B2 (en) Audio data output control device
CN107564362A (en) The full-automatic training component of train driving in a kind of urban track traffic
JP2023084315A (en) Information gathering system, information gathering metho and program
CN114255455A (en) Railway vehicle warning system
Fatkhulin et al. Development and Research of Neural Network Methods for Recognizing Noisy Speech Audio Files
CN115392011A (en) Single-track overhead district evacuation rescue test system based on VR

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220616

R150 Certificate of patent or registration of utility model

Ref document number: 7092656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150