CN108470485B - 场景式培训方法、装置、计算机设备和存储介质 - Google Patents
场景式培训方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN108470485B CN108470485B CN201810123708.4A CN201810123708A CN108470485B CN 108470485 B CN108470485 B CN 108470485B CN 201810123708 A CN201810123708 A CN 201810123708A CN 108470485 B CN108470485 B CN 108470485B
- Authority
- CN
- China
- Prior art keywords
- training
- courseware
- data
- participant
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000002452 interceptive effect Effects 0.000 claims abstract description 185
- 230000001960 triggered effect Effects 0.000 claims abstract description 34
- 230000006399 behavior Effects 0.000 claims description 110
- 230000003993 interaction Effects 0.000 claims description 60
- 230000009471 action Effects 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 31
- 239000000463 material Substances 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 6
- 238000007619 statistical method Methods 0.000 claims description 6
- 230000004886 head movement Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 12
- 230000000875 corresponding effect Effects 0.000 description 102
- 210000003128 head Anatomy 0.000 description 25
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000007812 deficiency Effects 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 3
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 241000510164 Cumberlandia monodonta Species 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/12—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种场景式培训方法、装置、计算机设备和存储介质。方法包括:获取用户登录请求,用户登录请求携带用户标识,根据用户登录请求实现登录;根据用户标识从数据服务器中获取对应的培训课件;根据培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;获取参与者根据画面中包含的交互节点触发的交互操作;将交互操作发送至行为判定服务器;获取行为判定服务器根据培训课件对交互操作进行检测与分析得到的判定结果,根据判定结果在画面上显示对应的培训课件中的内容。通过运用VR技术,使得培训参与者能够与培训课件中的内容进行交互,提高了培训的趣味性,大幅度的提升了培训的效率。
Description
技术领域
本申请涉及VR技术领域,特别是涉及一种场景式培训方法、装置、计算机设备和存储介质。
背景技术
一般情况下,企业或公司都会有相应的培训课程,传统技术中,培训一般采用集中式,各个分公司委派员工前往总部接受培训,这种方式中,总部需要提供相应的培训课程并组织员工进行集中学习,这个过程中耗时较长。
因此,部分公司采取的方式是远程教学,即总部确定了培训课程后,组织员工在各个分公司或者家里进行远程培训,但这种培训方式下,大部分员工对于培训课程中需要学习的知识点,因为缺乏实际操演与导师纠正的机会,所以员工对于培训内容的吸收较慢,造成整体的培训效果与效率较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能提供实际操演、自我纠正及提高培训效率的场景式培训方法、装置、计算机设备和存储介质。
一种场景式培训方法,所述方法包括:
获取用户登录请求,所述用户登录请求携带用户标识,根据所述用户登录请求实现登录;
根据所述用户标识从数据服务器中获取对应的培训课件;
根据所述培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;
获取所述参与者根据画面中包含的交互节点触发的交互操作;
将所述交互操作发送至行为判定服务器;
获取所述行为判定服务器根据所述培训课件对所述交互操作进行检测与分析得到的判定结果,根据所述判定结果在所述画面上显示对应的培训课件中的内容。
一种场景式培训方法,所述方法包括:
获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作;
根据所述培训课件对所述交互操作进行检测与分析,产生判定结果;
将所述判定结果返回至所述VR设备,所述判定结果用于在所述VR设备上展示的画面显示对应的所述培训课件中的内容。
一种场景式培训装置,所述装置包括:
登录模块,用于获取用户登录请求,所述用户登录请求携带用户标识,根据所述用户登录请求实现登录;
培训课件获取模块,用于根据所述用户标识从数据服务器中获取对应的培训课件;
展示模块,用于根据所述培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;
交互模块,用于获取所述参与者根据画面中包含的交互节点触发的交互操作,将所述交互操作发送至行为判定服务器;
判定结果获取模块,用于获取所述行为判定服务器根据所述培训课件对所述交互操作进行检测与分析得到的判定结果,根据所述判定结果在所述画面上显示对应的培训课件中的内容。
一种场景式培训装置,所述装置包括:
交互操作获取模块,用于获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作;
判定结果产生模块,用于根据所述培训课件对所述交互操作进行检测与分析,产生判定结果,将所述判定结果返回至所述VR设备,所述判定结果用于在所述VR设备上展示的画面显示对应的所述培训课件中的内容。
一种计算机设备,包括存储器、处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取用户登录请求,所述用户登录请求携带用户标识,根据所述用户登录请求实现登录;
根据所述用户标识从数据服务器中获取对应的培训课件;
根据所述培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;
获取所述参与者根据画面中包含的交互节点触发的交互操作;
将所述交互操作发送至行为判定服务器;
获取所述行为判定服务器根据所述培训课件对所述交互操作进行检测与分析得到的判定结果,根据所述判定结果在所述画面上显示对应的培训课件中的内容。
一种计算机设备,包括存储器、处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作;
根据所述培训课件对所述交互操作进行检测与分析,产生判定结果;
将所述判定结果返回至所述VR设备,所述判定结果用于在所述VR设备上展示的画面显示对应的所述培训课件中的内容。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取用户登录请求,所述用户登录请求携带用户标识,根据所述用户登录请求实现登录;
根据所述用户标识从数据服务器中获取对应的培训课件;
根据所述培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;
获取所述参与者根据画面中包含的交互节点触发的交互操作;
将所述交互操作发送至行为判定服务器;
获取所述行为判定服务器根据所述培训课件对所述交互操作进行检测与分析得到的判定结果,根据所述判定结果在所述画面上显示对应的培训课件中的内容。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作;
根据所述培训课件对所述交互操作进行检测与分析,产生判定结果;
将所述判定结果返回至所述VR设备,所述判定结果用于在所述VR设备上展示的画面显示对应的所述培训课件中的内容。
上述场景式培训方法、装置、计算机设备和存储介质,通过根据登录的用户标识获取到对应的培训课件,再将培训课件在参与者佩戴的VR设备上展示对应的画面,使得参与者能够进入由VR设备提供的虚拟场景中参与培训课件中的培训课程,并与VR设备上展示的画面中包含的交互节点进行交互操作,从而能够与培训课程进行互动行为,判定服务器根据接收到的用户交互操作进行判定,再在参与者佩戴的VR上显示判定结果,参与者也能够即时获知到自己的培训情况。通过运用VR技术,使得培训参与者能够与培训课件中的内容进行交互,提高了培训的趣味性,从而提高了培训参与者对培训课件的兴趣,培训参与者也能够即时获知培训结果,大幅度的提升了培训的效率。
附图说明
图1为一个实施例中场景式培训方法的应用环境图;
图2为一个实施例中场景式培训方法的流程示意图;
图3为一个实施例中行为数据保存操作步骤的流程示意图;
图4为一个实施例中生成培训课件步骤的流程示意图;
图5为一个实施例中场景式培训方法的流程示意图;
图6为一个实施例中培训课件内容的界面示意图;
图7为另一个实施例中场景式培训方法的流程示意图;
图8为又一个实施例中场景式培训方法的流程示意图;
图9为又一个实施例中场景式培训方法的流程示意图;
图10为再一个实施例中场景式培训方法的流程示意图;
图11为一个实施例中场景式培训方法的整体结构框图;
图12为一个实施例中场景式培训装置的结构框图;
图13为另一个实施例中场景式培训装置的结构框图;
图14为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的场景式培训方法,可以应用于如图1所示的应用环境中。其中,数据服务器102与课件展示设备104通过网络进行通信,数据服务器102中存储有预先制作好的培训课件,课件展示设备104通过网络从数据服务器102中获取到与登录用户的用户标识对应的培训课件后,参与者可通过佩戴课件展示终端的VR(Virtual Reality)设备观看VR设备上展示的对应画面。参与者可对画面中包含的交互节点触发交互操作,课件展示设备104将交互操作发送至行为判定服务器130,再获取到行为判定服务器106根据培训课件对交互操作进行检测与分析得到的判定结果,并根据判定结果在课件展示设备104的显示屏上显示对应的培训课件中的内容。其中,课件展示设备104可以是VR头戴设备,具体可以是移动端头显设备、一体机头显设备以及外接头戴式设备。数据服务器102与行为判定服务器106可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种场景式培训方法,以该方法应用于图1中的课件展示设备为例进行说明,包括以下步骤:
步骤202,获取用户登录请求,用户登录请求携带用户标识,根据用户登录请求实现登录。
课件展示设备可以是移动端头显设备、一体机头显设备以及外接头戴式设备,移动端头显设备即VR眼镜盒,只要将移动设备放入即可通过VR眼镜观看移动设备播放的内容。一体机头显设备是指具备独立处理器的VR头显设备(虚拟现实头戴式显示设备),以及具备独立运算、输入和输出功能的VR设备,即在一体机VR头显设备中内置有芯片,类似于简单电脑的功能。一体机VR头显设备还包括有显示屏,用户可在一体机VR头显设备自带的显示屏上观看需要播放的内容。外接头戴式设备也称为PC端VR设备,需要与电脑连接使用。
当参与者通过一体机VR头显设备参与培训时,培训参与者可通过与VR头戴设备配套的手柄与VR设备显示屏上显示的界面上包含的交互点进行交互,交互可以是登录操作。VR设备与手柄连接成功后,在VR设备的显示屏上会显示有虚拟鼠标,参与者可操控手柄对虚拟鼠标进行操作从而触发登录请求,进而可根据登录请求实现登录操作。另,登录请求中携带有用户标识,用户标识是与用户账号对应的唯一标识,根据唯一的用户标识可获取到该用户对应的信息。
步骤204,根据用户标识从数据服务器中获取对应的培训课件。
步骤206,根据培训课件中的内容在参与者佩戴的VR设备上展示对应的画面。
在数据服务器中存储有预先制作好的培训课件,参与者成功登录后,可通过操控手柄从数据服务器中下载与登录账号的用户标识对应的培训课件,下载好的培训课件可在参与者佩戴的VR设备的显示屏上展示对应的画面。
步骤208,获取参与者根据画面中包含的交互节点触发的交互操作。
培训课件从数据服务器下载后,培训课件的内容可在VR设备的显示屏上展示对应的画面。在培训课件的内容中包含有预先设置好的多个交互节点,参与者可通过手柄与培训课件中的交互节点,即VR设备展示的画面中包含的交互节点进行交互操作。
步骤210,将交互操作发送至行为判定服务器。
步骤212,获取行为判定服务器根据培训课件对交互操作进行检测与分析得到的判定结果,根据判定结果在画面上显示对应的培训课件中的内容。
课件展示设备在获取到参与者根据画面中包含的交互节点触发的交互操作后,将参与者触发的交互操作发送至行为判定服务器,行为判定服务器会根据培训课件的内容对交互操作进行检测与分析,比如检测交互操作是否正确,分析交互操作的耗时是否较长等,从而行为判定服务器会根据对交互操作的检测和分析得到对应的判定结果。行为判定服务器将判定结果发送至课件展示设备后,课件展示设备则根据接收到的判定结果在VR设备显示屏展示的画面上显示对应的培训课件中的内容。
上述场景式培训方法中,通过根据登录的用户标识获取到对应的培训课件后,将培训课件在参与者佩戴的VR设备上展示对应的画面,使得参与者能够进入由VR设备提供的虚拟场景中参与培训课件中的培训课程,并与VR设备上展示的画面中包含的交互节点进行交互操作,从而能够与培训课程进行互动行为,判定服务器根据接收到的用户交互操作进行判定,再在参与者佩戴的VR上显示判定结果,参与者也能够即时获知到自己的培训情况。通过运用VR技术,使得培训参与者能够与培训课件中的内容进行交互,提高了培训的趣味性,从而提高了培训参与者对培训课件的兴趣,也能够即时获知培训结果,大幅度的提升了培训的效率。
在一个实施例中,获取参与者根据画面中包含的交互节点触发的交互操作,包括:获取参与者通过VR设备进行交互操作产生的交互数据,交互数据包含参与者的头部动作数据、参与者在画面中的实时位置以及参与者输入的语音信息中的至少一种;获取参与者通过配套传感器对画面中包含的交互节点触发的交互操作。
参与者在佩戴VR设备,比如VR头戴式设备参与培训课程时,参与者可通过头戴式显示设备上的显示屏观看虚拟场景软件生成的场景。参与者在通过VR设备观看培训课件内容对应的虚拟场景画面时,可通过VR设备与画面中包含的交互节点进行交互操作,从而产生交互数据。交互数据包括有参与者的头部动作数据、参与者在画面中的实时位置以及参与者输入的语音数据等。头部动作数据是指,比如参与者通过移动头部与画面中的交互节点进行交互操作时,可通过内置在头戴式显示设备上的传感器记录参与者的头部动作。
参与者在画面中的实时位置是指,当参与者通过与画面中包含的交互节点进行交互操作时,参与者在现实场景中移动自身的位置时在VR设备展示的虚拟场景画面中对应移动后的位置信息。也可以是指参与者与画面中包含的交互节点进行交互操作时,参与者在现实场景中的位置保持不动,而是参与者通过配套的手柄在VR设备显示的虚拟场景中进行位置移动后的位置信息。参与者输入的语音数据是指在与VR设备展示的虚拟场景画面中包含的交互节点进行交互时,通过语音输入设备输入的语音数据,比如朗读一段话、用语音回答一个问题等。在此之外,参与者也可通过与VR设备配套的传感器与VR设备展示的虚拟场景画面中包含的交互节点进行交互操作,比如手柄,参与者可通过控制手柄在虚拟场景画面中移动,从而触发虚拟场景画面中的交互点产生对应的交互操作。
通过VR设备或者配套的手柄与培训课件中的内容进行交互的方式,丰富了培训参与者与培训课件内容交互方式,提高了培训的趣味性,也能够提高培训的效率。
在一个实施例中,头部动作数据包括表情数据、眼神数据。
头部动作数据包括有表情数据、眼神数据。表情数据是指参与者在参与培训时,在与VR设备展示的虚拟场景画面中包含的交互节点进行交互操作时,参与者脸上的表情信息,比如参与者在参与培训时,与虚拟场景中的用户在进行对话时,参与者当时的表情是愤怒表情还是微笑表情等。眼神数据包括对眼球追踪从而记录的数据,眼球追踪是指对参与者的眼球进行定位,检测眼球的转动情况,从而获知参与者正在看向的位置或物品。
如图3所示,在获取参与者通过VR设备进行交互操作产生的交互数据之后,还包括行为数据保存操作,包括以下步骤:
步骤302,获取数据图像采集设备记录的肢体动作数据。
在参与者通过VR设备参与培训课件中的培训内容时,会有图像采集设备对参与者的培训过程进行摄影记录,即通过摄像设备对参与者的肢体动作进行记录。比如参与者在根据培训内容作出相应的肢体动作时,手势是否正确等。
步骤304,将头部动作数据、参与者输入的语音数据以及肢体动作数据结合得到行为数据。
步骤306,将行为数据发送至数据服务器与培训课件进行关联保存,行为数据用于与培训课件中的内容共同在参与者佩戴的VR设备上进行展示。
头部动作数据可通过参与者佩戴的VR头戴式设备获取得到,包括表情数据、眼神数据等,可以将参与者才参加培训课件时的头部动作数据、参与者通过语音输入设备输入的语音数据以及图像采集设备记录的肢体动作数据组成的行为数据保存至本地,也可以发送至数据服务器,数据服务器则将接收到的行为数据与参与者产生行为数据对应的培训课件进行关联保存。培训参与者在下载培训课件时可一并下载行为数据,这样参与者即可在通过VR设备展示的画面上观看到培训课件的内容以及行为数据。
将培训参与者的行为数据进行保存,参与者则能够回放行为数据以对自己在培训过程中的表现进行分析与反省,即时发现自身的不足。将行为数据保存至数据服务器,也能够将行为数据分享至其他培训参与人员,在培训过程中可以借鉴学习他人培训时的行为数据,从而提高对培训内容的理解与了解程度,进而能够提高培训的整体效率。
在一个实施例中,上述场景式培训方法还包括生成培训课件的步骤。如图4所示,生成培训课件的步骤包括:
步骤402,获取培训需求。
步骤404,根据培训需求获取对应的课件素材。
步骤406,根据培训需求在课件素材中编辑交互节点与对交互节点的评判标准,生成培训课件。
在制作培训课件之前,需要先获取到培训需求,培训需求因人而异,或因公司或项目而异。比如A公司需要培训的项目是金融类,B公司需要培训的项目是法治类,那么两个公司对于培训课件中包含的内容是存在差异的。同样地,即便是同一个公司A,培训金融类的项目之间也可能存在不同,因此在制作培训课件时需要针对不同的培训需求制作对应的培训课件。
在获取到培训需求后,即可根据培训需求获取对应的课件素材,包括有培训需求对应的影音素材或3D模型素材等。具体地,可将所需素材分为以下四种:1)基于实际场景与真实人物拍摄而成的360度全景影像场景与虚拟角色;2)使用建模技术构建出的3D场景与3D虚拟角色;3)基于实际场景拍摄而成的360度全景影像与建模技术构建出的3D虚拟角色;4)使用建模技术构建出的3D场景与基于真实人物拍摄的虚拟角色。
培训课件中的交互方式在预先制作培训课件的时候会预先设定好,在获取到培训需求后,可针对不同的培训需求设定或者选择不同的培训形式,培训形式包括各种交互方式的设定,比如在交互节点A设定需要语音交互,参与者必须说出规定的语句,又或者交互节点B触发后,必须再触发某个规定的物品或人物。在培训课件制作课程中,也会根据具体的培训内容将培训的内容分为多个节点,以及为每个节点的培训课件内容设定评分标准等。生成课件时,可根据课件展示设备生成课件展示设备能够使用和展示的对应的文件格式。
根据不同的培训需求制定对应的培训课件,并根据培训需求对培训课件中的交互节点进行设定,增加培训课件与培训需求之间的契合度,提升培训课件的针对性与专业性,从而参与者在学习培训课件时,也能够提高参与者的培训效率。
在一个实施例中,如图5所示,也提供了一种场景式培训方法,以该方法应用于图1中的课件展示设备为例进行说明,包括以下步骤:
步骤502,登录用户账号。
步骤504,根据用户账号对应的用户标识下载培训课件,并在VR设备上展示培训课件的内容。
VR设备可以是一体机,即自带电脑功能,VR设备也可以与计算机连接使用。当培训参与者使用的是一体机时,可通过配套的手柄与VR设备展示的画面进行交互,比如通过手柄触发画面中的登录选项触发登录请求,进入登录界面,再通过触发画面显示的文本进行登录账号和密码的输入等,进而实现登录操作。在数据服务器中存储有预先根据培训需求制作好的培训课件,参与者的用户账号登录成功后,可根据登录账号的用户标识从数据服务器下载对应的课件内容。
在数据服务器中,预先对每个账号的权限进行了相应的配置,或者对每个培训课件能够被下载的权限进行了设置,因此,每个登录账号对培训课件获取的权限可能存在差异。而登录账号可能是相同名称的账号,但每个登录账号对应的用户标识则是唯一的,因此可通过用户标识从数据服务器获取对应的培训课件。
步骤506,通过VR设备或配套的手柄与培训课件中的内容进行互动。
步骤508,记录并保存参与者的行为数据。
步骤510,根据行为判定服务器对互动的判定结果显示对应的培训课件的内容或观看培训课件的培训指引内容。
参与者通过VR设备参与培训时,可通过VR设备与培训课件中的内容进行互动,也可以通过与VR设备配套的手柄与培训课件中的内容进行互动,互动操作包括对话、通过对培训课件内容包含的交互节点的触发等。
如图6所示的一个培训课件内容的界面示意图,在图中,包含A、B、C、D、E这五个等待办理业务的用户,不同的用户需要办理的业务与各自的情绪可能存在差异,因此处理不同的用户时情况可能存在不同。比如,当培训参与者通过手柄点击E用户的老爷爷时,则可以进入与老爷爷的对话,比如询问老爷爷需要办理的业务,老爷爷也会有对应的回复,如回复自己需要办理的业务或者抱怨等待的时间太长等,参与者则需要根据不同的场景做出不同的反应行为。比如通过语音输入设备与老爷爷进行通话,或者触发画面中的其他交互节点,如倒水,帮老爷爷取号等。
在培训课件的内容中包含有多个交互节点,交互节点是在制作培训课件时预先根据培训内容设定好的,触发不同的交互节点后显示的画面可能存在差异。当参与者与培训课件中的内容进行互动时,可以将参与者互动操作产生的行为数据记录并保存下来,比如参与者的表情数据、眼神数据、语音数据等。还可以通过图像采集设备将参与者在于培训课件中的内容进行互动时,参与者的行为动作进行记录。课件展示设备将这些记录的数据发送至数据服务器与对应的课件进行关联保存后,其他培训参与人员在下载培训课件时,可以将关联的行为数据一并下载,并在行为数据在VR设备上进行展示,培训参与人员即根据下载的行为数据进行观摩与学习。
参与者通过VR设备或者手柄在与培训课件中的内容进行交互操作时,课件展示设备会将参与者的交互操作发送至行为判定服务器,行为判定服务器则会根据对应的培训课件对交互操作进行检测与分析,比如检测交互操作是否正确,分析交互操作的耗时是否较长等,从而行为判定服务器会根据对交互操作的检测和分析得到对应的判定结果。课件展示设备即可根据接收到的判定结果显示对应的培训课件中的内容。比如当判定结果为表现较差,那么可以为该参与者展示培训课件中的标准行为操作,让参与者学习标准的行为操作,进而提高该参与者的培训成绩。
步骤512,显示培训结果。
当参与者完成了培训课件中的某一个章节的培训内容,或者某个项目的培训内容后,即可将参与者在这个章节或者这个项目中的培训结果展示在VR设备的显示屏上,参与者即可获知自己的培训结果,参与者可根据培训结果针对自身的不足进行针对性的训练等。
通过运用VR技术,使得培训参与者能够与培训课件中的内容进行交互,提高了培训的趣味性,从而提高了培训参与者对培训课件的兴趣,培训参与者也能够即时获知培训结果,大幅度的提升了培训的效率。
在一个实施例中,如图7所示,提供了一种场景式培训方法,以该方法应用于图1中的行为判定服务器为例进行说明,包括以下步骤:
步骤702,获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作。
步骤704,根据培训课件对交互操作进行检测与分析,产生判定结果。
步骤706,将判定结果返回至VR设备,判定结果用于在VR设备上展示的画面显示对应的培训课件中的内容。
参与者在参与培训时,可通过VR设备上展示的与培训课件内容对应的画面中包含的交互节点进行交互操作。课件展示设备可以将参与者的交互操作发送至行为判定服务器,判定服务器即可根据培训课件的内容对参与者的交互操作进行检测与分析,产生对应的判定结果。比如当培训课件内容中的交互节点为输入一段规定的语音,那么当参与者输入的语音与预定的语音存在差异时,或者参与者的普通话不标准导致存在差异时,行为判定服务器对该参与者此次的交互操作可能判定为不及格。行为判定服务器将对交互操作的判定结果返回至VR设备,VR设备在接收到判定结果后,即可根据判定结果在VR设备的显示屏上显示对应的培训课件中的内容。
行为判定服务器即时对参与者的交互操作进行判定,从而在VR设备上显示对应的培训课件内容,从而使得培训参与者能够即时获知自己的培训过程,也便于即时进行调整,也提高了参与者的培训积极性与效率。
在一个实施例中,如图8所示,也提供了一种场景式培训方法,以该方法应用于图1中的行为判定服务器为例进行说明,本实施例中的场景式培训方法在上述图7中包含步骤的基础上还包括以下步骤:
步骤802,获取参与者触发对培训课件的结束交互指令。
步骤804,根据结束交互指令生成参与者在培训课件中的培训成绩。
步骤806,将培训成绩与判定结果发送至数据记录服务器。
步骤808,获取数据记录服务器根据培训成绩与判定结果生成的最终培训成绩。
步骤810,将最终培训成绩发送至VR设备以进行显示。
当培训参与者通过VR设备或者配套的手柄触发结束的交互的节点,产生对应的结束交互指令时,课件展示设备则会将参与者触发的结束交互指令发送至行为判定服务器。行为判定服务器在获取到参与者触发对培训课件的结束交互指令后,即可生成该参与者在参与此培训课件时此次培训的培训成绩。行为判定服务器会将此参与者在此次培训中的培训成绩与对参与者交互操作的判定结果共同发送至数据记录服务器,数据记录服务器在获取到行为判定服务器发送的培训成绩与判定结果后,会先将培训成绩与判定结果进行存储,并对判定结果进行分析,再结合培训成绩最终生成该参与者在此次培训中的最终培训成绩。即时将参与者的培训成绩反馈至VR设备上显示供参与者获知,便于参与者即时对自身的不足进行调整,参与者也可根据培训成绩即时针对不足进行进一步的培训,也提高了培训的效率性。
在一个实施例中,也提供了一种场景式培训方法,以该方法应用于图1中的行为判定服务器为例进行说明,本实施例中的场景式培训方法在上述图8中包含步骤的基础上还包括以下步骤:
步骤902,获取数据记录服务器存储的参与者的全部培训成绩与全部判定结果。
步骤904,根据参与者的全部培训成绩与全部判定结果对参与者的表现进行分析与判定,生成分析结果。
步骤906,结合分析结果与参与者的岗位生成对应的职能建议。
在数据记录服务器中存储有与每个用户标识对应的成绩记录表,每个用户标识对应的成绩记录表中记录有每次该用户标识对应的参与者在参加培训时的培训成绩以及交互操作的判定结果等,因此当培训参与者完成了培训课件中的全部培训课程时,数据记录服务器可获取到该参与者对培训课件中每个章节或者每个培训项目的培训成绩以及判定结果,从而得到该参与者对整个培训课件的总成绩。故,行为判定服务器可获取到数据记录服务器上存储的参与者的全部培训成绩与全部判定结果,再运用统计分析模型,根据参与者的全部培训成绩与全部判定结果对参与者的表现进行分析和判定,从而得到对应的分析结果。
具体地,统计分析模型的功能是根据培训成绩以及判定结果等数据,判断该参与者的表现与职能是否匹配或相关,除了提供针对性的精进建议之外,也有可能根据培训中突出的部分,建议尝试不同类型的培训。例如,一位担任前台接待的人,在服务培训中的表现中等,而在销售培训中有优异表现,代表销售职能可能更适合该参与者。
在得到分析结果后,行为判定服务器可结合分析结果以及该参与者的岗位生成对该参与者的职能建议。在大型企业或集团的基层中,入职人员均有较高的流动率,职员的流动均会浪费企业或集团对职员培训投资的时间或金钱。而职员流动的原因通常是因为职员与所在的职位不匹配。因此可根据职员在培训中的表现,可以筛选出不适合担任当前岗位的人员,提前获知职员流动风险的警示,企业或集团也可根据职员在培训中表现对该职员提供建议或者推荐该职员担任其他合适的岗位。通过这种方式,既能够为企业降低职员流失的风险,也能够较为准确的为职员提供可参考性的职能建议。
在一个实施例中,如图10所示,也提供了一种场景式培训方法,包括以下步骤:
步骤1002,制作培训课件,将培训课件上传至数据服务器。
步骤1004,用户通过课件展示设备登录后,从数据服务器上下载培训课件。
如图11所示的整体结构框图,可通过培训课件制作设备输出对应的课件,在获取到培训需求后,则获取到对应的影音数据与3D模型等课件素材,课件素材包括:基于实际场景与真实人物拍摄而成的360度全景影像场景与虚拟角色、使用建模技术构建出的3D场景与3D虚拟角色、基于实际场景拍摄而成的360度全景影响与建模技术构建出的3D虚拟角色以及使用建模技术构建出的3D场景与基于真实人物拍摄的虚拟角色等。再根据培训需求确定培训形式,即培训课件中的预先设定交互形式,比如在培训课件中设定某个物品的交互方式为参与者需控制手柄点击该物品,又或者设定在每个交互节点规定参与者必须说出规定的文本等等。通常情况下,为了减少制作培训课件的耗时,可以将交互方式进行集成,即将预先设定的交互方式进行封装成交互模块,如此,在制作其他培训课件时,可以直接调用交互模块中所需的交互方式进行使用,这种方式可降低制作培训课件的时间成本。
在制作培训课件时,还可以预先设定培训节点,即将培训课件划分成多个培训阶段,参与者在参与培训时,可以分段对培训课件的内容进行学习。再将培训课件输出为课件展示设备能够使用的格式。培训课件制作完毕后,可将培训课件上传至数据服务器,数据服务器可以是云端的内容管理***。如图11所示的,数据服务器保存了培训课件制作设备上传的培训课件后,可以先对每个培训课件的取用权限进行设定,比如培训课件A1-A10只有公司A的用户账号才能下载使用,或者经理的培训课件只能设定为经理权限的用户账号才能下载使用,具体的权限设定可以由开发人员根据实际情况而考虑。设定了取用权限后,即可将课件发布,用于课件展示设备进行下载使用。
步骤1006,参与者通过VR设备与培训课件中的内容进行交互。
培训参与者可通过课件展示设备学习培训课件中的内容,参与者通过课件展示设备登录账号后,可从数据服务器上下载对应的培训课件,培训课件可通过课件展示设备包含的VR设备进行展示。参与者可通过佩戴头戴式VR设备与培训课件内容中包含的交互节点进行交互,也可以通过与头戴式VR设备配套的手柄与课件内容中包含的交互节点进行交互。
参与者在于课件内容中包含的交互节点进行交互时,可以将参与者的头部动作数据、语音数据以及肢体动作数据等进行结合得到的行为数据进行记录并保存至本地,参与者可在下次培训时对本地保存的行为数据进行回放,进行自我纠正学习。也可以将本地保存的行为数据发送至数据服务器,数据服务器可将行为数据与培训课件进行关联保存,关联保存后,其他培训者对该培训课件进行学习时可以通过下载与该培训课件对应的行为数据,对行为数据中具体包含的内容进行观摩与学习。与培训课件关联保存的行为数据,数据服务器上拥有管理员权限的账号也可以对推送内容进行设定,即将认为表现优异的行为数据推送至需要学习对应培训课件内容的用户账号。当行为数据被更新了,比如设定的推送内容被更换,或者推送的内容有增加等,用户也可以对更新的内容进行下载从而获取最新的行为数据。
步骤1008,行为判定服务器生成培训成绩与判定成绩。
步骤1010,数据记录服务器对参与者的培训成绩与判定成绩进行记录。
参与者在培训过程中,与培训课件中包含的交互节点进行交互产生的交互操作会发送至行为判定服务器,由行为判定服务器根据课件内容对交互操作进行智能分析,得到对交互操作的判定结果。当课件展示设备接收到行为判定服务器发送的判定结果后,在课件展示设备的VR设备上会显示对应的培训课件中的内容。当参与者完成了培训课件中的某个培训节点或者用户触发了完成培训的交互操作时,行为判定服务器可根据参与者的交互操作生成该参与者在此培训节点的培训成绩。
行为判定服务器可以是AI***,能够智能对获取到的交互操作进行分析,将判定结果返回至课件显示设备时能够给予参与者相应的指引操作,比如课件培训显示设备在获取到AI***的分析结果后,可根据分析结果显示指引课程供培训参与者观看与学习。AI***也可以对接收到的语音数据进行分析,比如对语音进行识别,分析语速、语音的大小声、从声波频率中分析语调等,即对获取到的交互数据进行拆解分析,从而得到对应的分析结果。
步骤1012,行为判定服务器从数据记录服务器上获取到参与者的全部培训成绩与判定成绩后,得到参与者的总成绩。
步骤1014,通过课件展示设备中的VR设备显示参与者的成绩。
步骤1016,对参与者的数据进行分析,得到分析结果。
步骤1018,结合分析结果与参与者的岗位生成对参与者的职能建议。
每次在行为判定服务器上生成的判定结果与每个培训节点的培训成绩,行为判定服务器都可以发送至数据记录服务器,在数据记录服务器上进行数据的记录与备份。因此当参与者将整个培训课件都参与完毕后,行为判定服务器可从数据记录服务器上获取到参与者的全部培训成绩与判定成绩,进行分析后即可生成该参与者的总成绩。行为服务器可将该参与者的总成绩发送至课件展示设备,再通过VR设备将成绩显示供参与者观看。
另外,行为判定服务器上的统计分析模型可以对参与者的数据进行分析,具体地,统计分析模型的功能是根据培训成绩以及判定结果等数据,判断该参与者的表现与职能是否匹配或相关,除了提供针对性的精进建议之外,也有可能根据培训中突出的部分,建议尝试不同类型的培训。例如,一位担任前台接待的人,在服务培训中的表现中等,而在销售培训中有优异表现,代表销售职能可能更适合该参与者。行为判定服务器可以是AI***,AI***上的统计分析模型也可以对参与者的数据进行即时演算并分析培训参与者的行为。
在得到分析结果后,行为判定服务器可结合分析结果以及该参与者的岗位生成对该参与者的职能建议。在大型企业或集团的基层中,入职人员均有较高的流动率,职员的流动均会浪费企业或集团对职员培训投资的时间或金钱。而职员流动的原因通常是因为职员与所在的职位不匹配。因此可根据职员在培训中的表现,可以筛选出不适合担任当前岗位的人员,提前获知职员流动风险的警示,企业或集团也可根据职员在培训中表现对该职员提供建议或者推荐该职员担任其他合适的岗位。
通过根据登录的用户标识获取到对应的培训课件,再将培训课件在参与者佩戴的VR设备上展示对应的画面,使得参与者能够进入由VR设备提供的虚拟场景中参与培训课件中的培训课程,并与VR设备上展示的画面中包含的交互节点进行交互操作,从而能够与培训课程进行互动行为,判定服务器根据接收到的用户交互操作进行判定,再在参与者佩戴的VR上显示判定结果,参与者也能够即时获知到自己的培训情况。通过运用VR技术,使得培训参与者能够与培训课件中的内容进行交互,提高了培训的趣味性,从而提高了培训参与者对培训课件的兴趣,培训参与者也能够即时获知培训结果,大幅度的提升了培训的效率。
应该理解的是,虽然图2-5、图7-10的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,这些图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图12所示,提供了一种场景式培训装置,包括:登录模块、培训课件获取模块、展示模块、交互模块和判定结果获取模块,其中:
登录模块1202,用于获取用户登录请求,用户登录请求携带用户标识,根据用户登录请求实现登录。
培训课件获取模块1204,用于根据用户标识从数据服务器中获取对应的培训课件。
展示模块1206,用于根据培训课件中的内容在参与者佩戴的VR设备上展示对应的画面。
交互模块1208,用于获取参与者根据画面中包含的交互节点触发的交互操作,将交互操作发送至行为判定服务器。
判定结果获取模块1210,用于获取行为判定服务器根据培训课件对交互操作进行检测与分析得到的判定结果,根据判定结果在画面上显示对应的培训课件中的内容。
在一个实施例中,上述装置还包括培训课件生成模块,用于获取培训需求,根据培训需求获取对应的课件素材,根据培训需求在课件素材中编辑交互节点与对交互节点的评判标准,生成培训课件。
在一个实施例中,上述交互模块1208还用于获取参与者通过VR设备进行交互操作产生的交互数据,交互数据包含参与者的头部动作数据、参与者在画面中的实时位置以及参与者输入的语音数据中的至少一种;获取参与者通过配套传感器对画面中包含的交互节点触发的交互操作。
在一个实施例中,上述头部动作数据包括表情数据、眼神数据。上述交互模块1208还用于获取数据图像采集设备记录的肢体动作数据;将头部动作数据、参与者输入的语音数据以及肢体动作数据结合得到行为数据;将行为数据发送至数据服务器与培训课件进行关联保存,行为数据用于与培训课件中的内容共同在参与者佩戴的VR设备上进行展示。
在一个实施例中,如图13所示,也提供了一种场景式培训装置,包括:交互操作获取模块和判定结果产生模块,其中:
交互操作获取模块1302,用于获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作。
判定结果产生模块1304,用于根据培训课件对交互操作进行检测与分析,产生判定结果,将判定结果返回至VR设备,判定结果用于在VR设备上展示的画面显示对应的培训课件中的内容。
在一个实施例中,上述装置还包括培训成绩模块,用于获取参与者触发对培训课件的结束交互指令;根据结束交互指令生成参与者在培训课件中的培训成绩;将培训成绩与判定结果发送至数据记录服务器;获取数据记录服务器根据培训成绩与判定结果生成的最终培训成绩;将最终培训成绩发送至VR设备以进行显示。
在一个实施例中,上述装置还包括职能建议模块,用于获取数据记录服务器存储的参与者的全部培训成绩与全部判定结果;根据参与者的全部培训成绩与全部判定结果对参与者的表现进行分析与判定,生成分析结果;结合分析结果与参与者的岗位生成对应的职能建议。
关于场景式培训装置的具体限定可以参见上文中对于场景式培训方法的限定,在此不再赘述。上述场景式培训装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图14所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储判定结果数据以及培训成绩数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种场景式培训方法。
本领域技术人员可以理解,图14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取用户登录请求,用户登录请求携带用户标识,根据用户登录请求实现登录;根据用户标识从数据服务器中获取对应的培训课件;根据培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;获取参与者根据画面中包含的交互节点触发的交互操作;将交互操作发送至行为判定服务器;获取行为判定服务器根据培训课件对交互操作进行检测与分析得到的判定结果,根据判定结果在画面上显示对应的培训课件中的内容。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:生成培训课件的步骤;生成培训课件的步骤包括:获取培训需求;根据培训需求获取对应的课件素材;根据培训需求在课件素材中编辑交互节点与对交互节点的评判标准,生成培训课件。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取参与者通过VR设备进行交互操作产生的交互数据,交互数据包含参与者的头部动作数据、参与者在画面中的实时位置以及参与者输入的语音数据中的至少一种;获取参与者通过配套传感器对画面中包含的交互节点触发的交互操作。
在一个实施例中,处理器执行计算机程序时头部动作数据包括表情数据、眼神数据。处理器执行计算机程序时还实现以下步骤:获取数据图像采集设备记录的肢体动作数据;将头部动作数据、参与者输入的语音数据以及肢体动作数据结合得到行为数据;将行为数据发送至数据服务器与培训课件进行关联保存,行为数据用于与培训课件中的内容共同在参与者佩戴的VR设备上进行展示。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作;根据培训课件对交互操作进行检测与分析,产生判定结果;将判定结果返回至VR设备,判定结果用于在VR设备上展示的画面显示对应的培训课件中的内容。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取参与者触发对培训课件的结束交互指令;根据结束交互指令生成参与者在培训课件中的培训成绩;将培训成绩与判定结果发送至数据记录服务器;获取数据记录服务器根据培训成绩与判定结果生成的最终培训成绩;将最终培训成绩发送至VR设备以进行显示。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取数据记录服务器存储的参与者的全部培训成绩与全部判定结果;根据参与者的全部培训成绩与全部判定结果对参与者的表现进行分析与判定,生成分析结果;结合分析结果与参与者的岗位生成对应的职能建议。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取用户登录请求,用户登录请求携带用户标识,根据用户登录请求实现登录;根据用户标识从数据服务器中获取对应的培训课件;根据培训课件中的内容在参与者佩戴的VR设备上展示对应的画面;获取参与者根据画面中包含的交互节点触发的交互操作;将交互操作发送至行为判定服务器;获取行为判定服务器根据培训课件对交互操作进行检测与分析得到的判定结果,根据判定结果在画面上显示对应的培训课件中的内容。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:生成培训课件的步骤;生成培训课件的步骤包括:获取培训需求;根据培训需求获取对应的课件素材;根据培训需求在课件素材中编辑交互节点与对交互节点的评判标准,生成培训课件。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取参与者通过VR设备进行交互操作产生的交互数据,交互数据包含参与者的头部动作数据、参与者在画面中的实时位置以及参与者输入的语音数据中的至少一种;获取参与者通过配套传感器对画面中包含的交互节点触发的交互操作。
在一个实施例中,计算机程序被处理器执行时头部动作数据包括表情数据、眼神数据。处理器执行计算机程序时还实现以下步骤:获取数据图像采集设备记录的肢体动作数据;将头部动作数据、参与者输入的语音数据以及肢体动作数据结合得到行为数据;将行为数据发送至数据服务器与培训课件进行关联保存,行为数据用于与培训课件中的内容共同在参与者佩戴的VR设备上进行展示。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作;根据培训课件对交互操作进行检测与分析,产生判定结果;将判定结果返回至VR设备,判定结果用于在VR设备上展示的画面显示对应的培训课件中的内容。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取参与者触发对培训课件的结束交互指令;根据结束交互指令生成参与者在培训课件中的培训成绩;将培训成绩与判定结果发送至数据记录服务器;获取数据记录服务器根据培训成绩与判定结果生成的最终培训成绩;将最终培训成绩发送至VR设备以进行显示。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取数据记录服务器存储的参与者的全部培训成绩与全部判定结果;根据参与者的全部培训成绩与全部判定结果对参与者的表现进行分析与判定,生成分析结果;结合分析结果与参与者的岗位生成对应的职能建议。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种场景式培训方法,所述方法包括:
获取用户登录请求,所述用户登录请求携带用户标识,根据所述用户登录请求实现登录;
根据所述用户标识从数据服务器中获取对应的培训课件;
根据所述培训课件中的内容在参与者佩戴的VR设备上展示对应的画面,所述画面中包括有虚拟场景和对应的虚拟角色;
获取所述参与者通过所述VR设备进行交互操作产生的交互数据,所述交互数据包含所述参与者的头部动作数据、所述参与者在所述画面中的实时位置以及所述参与者输入的语音数据中的至少一种;所述头部动作数据包括表情数据、眼神数据;获取数据图像采集设备记录的肢体动作数据;将所述头部动作数据、所述参与者输入的语音数据以及所述肢体动作数据结合得到行为数据;将所述行为数据发送至所述数据服务器与所述培训课件进行关联保存,所述行为数据用于与所述培训课件中的内容共同在所述参与者佩戴的VR设备上进行展示;
获取所述参与者通过配套传感器对所述画面中包含的交互节点触发的交互操作;
将所述交互操作发送至行为判定服务器;
获取所述行为判定服务器根据所述培训课件中所述交互节点的评判标准对所述交互操作进行检测与分析得到的判定结果,根据所述判定结果在所述画面上显示对应的培训课件中的内容;
所述方法还包括生成所述培训课件的步骤;所述生成所述培训课件的步骤包括:获取培训需求;根据所述培训需求获取对应的课件素材;根据所述培训需求在所述课件素材中编辑交互节点与对所述交互节点的评判标准,生成培训课件,并将所述培训课件上传至所述数据服务器。
2.根据权利要求1所述的方法,其特征在于,所述课件素材包括有培训需求对应的影音素材或者3D模型素材。
3.根据权利要求1所述的方法,其特征在于,所述头部动作数据是通过内置在头戴式显示设备上的传感器记录参与者的头部动作得到的。
4.根据权利要求1所述的方法,其特征在于,将所述行为数据保存至本地。
5.一种场景式培训方法,所述方法包括:
获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作,所述画面中包括有虚拟场景和对应的虚拟角色;
根据所述培训课件中交互节点的评判标准对所述交互操作进行检测与分析,产生判定结果;
将所述判定结果返回至所述VR设备,所述判定结果用于在所述VR设备上展示的画面显示对应的所述培训课件中的内容;
所述方法还包括生成所述培训课件的步骤;所述生成所述培训课件的步骤包括:获取培训需求;根据所述培训需求获取对应的课件素材;根据所述培训需求在所述课件素材中编辑交互节点与对所述交互节点的评判标准,生成培训课件,并将所述培训课件上传至数据服务器;
所述方法还包括:获取所述参与者触发对所述培训课件的结束交互指令;根据所述结束交互指令生成所述参与者在所述培训课件中的培训成绩;将所述培训成绩与所述判定结果发送至数据记录服务器;获取所述数据记录服务器根据所述培训成绩与所述判定结果生成的最终培训成绩;将所述最终培训成绩发送至所述VR设备以进行显示。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获取所述数据记录服务器存储的所述参与者的全部培训成绩与全部判定结果;
根据所述参与者的全部培训成绩与全部判定结果对所述参与者的表现进行分析与判定,生成分析结果;
结合所述分析结果与所述参与者的岗位生成对应的职能建议。
7.根据权利要求6所述的方法,其特征在于,所述根据所述参与者的全部培训成绩与全部判定结果对所述参与者的表现进行分析与判定,生成分析结果,包括:
运行统计分析模型,根据所述参与者的全部培训成绩与全部判定结果对所述参与者的表现进行分析与判定,生成分析结果。
8.一种场景式培训装置,其特征在于,所述装置包括:
登录模块,用于获取用户登录请求,所述用户登录请求携带用户标识,根据所述用户登录请求实现登录;
培训课件获取模块,用于根据所述用户标识从数据服务器中获取对应的培训课件;
展示模块,用于根据所述培训课件中的内容在参与者佩戴的VR设备上展示对应的画面,所述画面中包括有虚拟场景和对应的虚拟角色;
交互模块,用于获取所述参与者通过所述VR设备进行交互操作产生的交互数据,所述交互数据包含所述参与者的头部动作数据、所述参与者在所述画面中的实时位置以及所述参与者输入的语音数据中的至少一种;所述头部动作数据包括表情数据、眼神数据;获取数据图像采集设备记录的肢体动作数据;将所述头部动作数据、所述参与者输入的语音数据以及所述肢体动作数据结合得到行为数据;将所述行为数据发送至所述数据服务器与所述培训课件进行关联保存,所述行为数据用于与所述培训课件中的内容共同在所述参与者佩戴的VR设备上进行展示;获取所述参与者通过配套传感器对所述画面中包含的交互节点触发的交互操作;将所述交互操作发送至行为判定服务器;
判定结果获取模块,用于获取所述行为判定服务器根据所述培训课件中交互节点的评判标准对所述交互操作进行检测与分析得到的判定结果,根据所述判定结果在所述画面上显示对应的培训课件中的内容;
所述装置还包括培训课件生成模块,用于获取培训需求;根据所述培训需求获取对应的课件素材;根据所述培训需求在所述课件素材中编辑交互节点与对所述交互节点的评判标准,生成培训课件,并将所述培训课件上传至所述数据服务器。
9.一种场景式培训装置,其特征在于,所述装置包括:
交互操作获取模块,用于获取参与者对佩戴的VR设备上展示的培训课件对应的画面中包含的交互节点触发的交互操作,所述画面中包括有虚拟场景和对应的虚拟角色;
判定结果产生模块,用于根据所述培训课件中交互节点的评判标准对所述交互操作进行检测与分析,产生判定结果,将所述判定结果返回至所述VR设备,所述判定结果用于在所述VR设备上展示的画面显示对应的所述培训课件中的内容
所述装置还包括:培训课件生成模块,用于获取培训需求;根据所述培训需求获取对应的课件素材;根据所述培训需求在所述课件素材中编辑交互节点与对所述交互节点的评判标准,生成培训课件,并将所述培训课件上传至数据服务器;
所述装置还包括:培训成绩模块,用于获取所述参与者触发对所述培训课件的结束交互指令;根据所述结束交互指令生成所述参与者在所述培训课件中的培训成绩;将所述培训成绩与所述判定结果发送至数据记录服务器;获取所述数据记录服务器根据所述培训成绩与所述判定结果生成的最终培训成绩;将所述最终培训成绩发送至所述VR设备以进行显示。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810123708.4A CN108470485B (zh) | 2018-02-07 | 2018-02-07 | 场景式培训方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810123708.4A CN108470485B (zh) | 2018-02-07 | 2018-02-07 | 场景式培训方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108470485A CN108470485A (zh) | 2018-08-31 |
CN108470485B true CN108470485B (zh) | 2021-01-01 |
Family
ID=63266265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810123708.4A Expired - Fee Related CN108470485B (zh) | 2018-02-07 | 2018-02-07 | 场景式培训方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108470485B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166374B (zh) * | 2018-09-30 | 2021-03-30 | 广州邦彦信息科技有限公司 | 基于虚拟现实技术的教学*** |
WO2020079504A1 (en) * | 2018-10-19 | 2020-04-23 | 3M Innovative Properties Company | Virtual-reality-based personal protective equipment training system |
CN109460482B (zh) * | 2018-11-15 | 2024-05-28 | 平安科技(深圳)有限公司 | 课件展示方法、装置、计算机设备及计算机可读存储介质 |
CN109919712A (zh) * | 2019-01-30 | 2019-06-21 | 上海市精神卫生中心(上海市心理咨询培训中心) | 神经发育障碍购物训练***及其训练方法 |
CN109658771A (zh) * | 2019-01-30 | 2019-04-19 | 上海市精神卫生中心(上海市心理咨询培训中心) | 基于vr技术的神经发育障碍交通安全训练***及方法 |
CN110109536A (zh) * | 2019-04-01 | 2019-08-09 | 广东芬莱信息科技有限公司 | 基于人工智能和vr的多人培训方法、装置及存储介质 |
CN110196580B (zh) * | 2019-05-29 | 2020-12-15 | 中国第一汽车股份有限公司 | 装配指导方法、***、服务器及存储介质 |
CN110136530A (zh) * | 2019-05-31 | 2019-08-16 | 河南云学网络科技有限公司 | 一种财税实训平台 |
CN110727351A (zh) * | 2019-10-22 | 2020-01-24 | 黄智勇 | 一种用于vr环境的多人协同*** |
CN111223373A (zh) * | 2020-01-19 | 2020-06-02 | 福建省电力有限公司泉州电力技能研究院 | 基于vr的输电线路检修培训***及方法 |
CN111667310B (zh) * | 2020-06-04 | 2024-02-20 | 上海燕汐软件信息科技有限公司 | 一种用于销售人员学习的数据处理方法、装置及设备 |
CN112330579B (zh) * | 2020-10-30 | 2024-06-14 | 中国平安人寿保险股份有限公司 | 视频背景更换方法、装置、计算机设备及计算机可读介质 |
CN112382161B (zh) * | 2020-11-19 | 2023-02-10 | 天佑物流股份有限公司 | 一种危险品运输vr培训方法、***、设备及介质 |
CN113377200B (zh) * | 2021-06-22 | 2023-02-24 | 平安科技(深圳)有限公司 | 基于vr技术的交互式培训方法及装置、存储介质 |
CN113253852B (zh) * | 2021-07-16 | 2021-10-08 | 成都飞机工业(集团)有限责任公司 | 一种基于虚拟现实的交互式培训课件构建***及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104464432A (zh) * | 2014-12-17 | 2015-03-25 | 国家电网公司 | 一种火电厂仿真培训管理***及仿真机 |
CN105788390A (zh) * | 2016-04-29 | 2016-07-20 | 吉林医药学院 | 基于增强现实的医学解剖辅助教学*** |
CN106781737A (zh) * | 2017-01-13 | 2017-05-31 | 河南工业大学 | 一种场景式教学***及方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120208166A1 (en) * | 2011-02-16 | 2012-08-16 | Steve Ernst | System and Method for Adaptive Knowledge Assessment And Learning |
CN103544137A (zh) * | 2013-09-22 | 2014-01-29 | 戴剑飚 | 基于网页流的互动培训课件生成***及方法 |
CN104699878A (zh) * | 2013-12-06 | 2015-06-10 | 大连灵动科技发展有限公司 | 仿真模拟培训课程安排及培训方法 |
CN105654808A (zh) * | 2016-02-03 | 2016-06-08 | 北京易驾佳信息科技有限公司 | 一种基于实际机动车的机动车驾驶人智能化训练*** |
CN106023693B (zh) * | 2016-05-25 | 2018-09-04 | 北京九天翱翔科技有限公司 | 一种基于虚拟现实技术和模式识别技术的教育***及方法 |
CN106205245A (zh) * | 2016-07-15 | 2016-12-07 | 深圳市豆娱科技有限公司 | 沉浸式在线教学***、方法和装置 |
CN106128196A (zh) * | 2016-08-11 | 2016-11-16 | 四川华迪信息技术有限公司 | 基于增强现实和虚拟现实的网络在线教育***及其实现方法 |
CN107066733A (zh) * | 2017-04-13 | 2017-08-18 | 东莞新吉凯氏测量技术有限公司 | 基于虚拟实景的网络培训方法及平台 |
CN107193931B (zh) * | 2017-05-18 | 2020-07-03 | 北京音悦荚科技有限责任公司 | 一种教学课件生成方法、在线教学方法及装置 |
CN107248342A (zh) * | 2017-07-07 | 2017-10-13 | 四川云图瑞科技有限公司 | 基于虚拟现实技术的三维互动教学*** |
CN107492274A (zh) * | 2017-09-08 | 2017-12-19 | 深圳未来立体教育科技有限公司 | 3d备授课***及方法 |
-
2018
- 2018-02-07 CN CN201810123708.4A patent/CN108470485B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104464432A (zh) * | 2014-12-17 | 2015-03-25 | 国家电网公司 | 一种火电厂仿真培训管理***及仿真机 |
CN105788390A (zh) * | 2016-04-29 | 2016-07-20 | 吉林医药学院 | 基于增强现实的医学解剖辅助教学*** |
CN106781737A (zh) * | 2017-01-13 | 2017-05-31 | 河南工业大学 | 一种场景式教学***及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108470485A (zh) | 2018-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108470485B (zh) | 场景式培训方法、装置、计算机设备和存储介质 | |
US10860345B2 (en) | System for user sentiment tracking | |
US20190392730A1 (en) | Public Speaking Trainer With 3-D Simulation and Real-Time Feedback | |
CN107257338B (zh) | 媒体数据处理方法、装置及存储介质 | |
US11657557B2 (en) | Method and system for generating data to provide an animated visual representation | |
US20180007100A1 (en) | Candidate participant recommendation | |
US20150381938A1 (en) | Dynamic facial feature substitution for video conferencing | |
US11527171B2 (en) | Virtual, augmented and extended reality system | |
US20140099075A1 (en) | Conference recording method and conference system | |
US20190349212A1 (en) | Real-time meeting effectiveness measurement based on audience analysis | |
CN111432233A (zh) | 用于生成视频的方法、装置、设备和介质 | |
US20180109828A1 (en) | Methods and systems for media experience data exchange | |
KR101375119B1 (ko) | 모의 면접 방법 및 모의 면접 방법을 모바일 단말에서 실행할 수 있는 애플리케이션으로 기록한 기록매체 | |
US20220230740A1 (en) | Method and computer program to determine user's mental state by using user's behavior data or input data | |
CN110196580A (zh) | 装配指导方法、***、服务器及存储介质 | |
CN110427099A (zh) | 信息记录方法、装置、***、电子设备以及信息获取方法 | |
JPWO2016114261A1 (ja) | 映像音声クリップを利用した自律的学習システム | |
US11558440B1 (en) | Simulate live video presentation in a recorded video | |
US20210295186A1 (en) | Computer-implemented system and method for collecting feedback | |
CN110176044B (zh) | 信息处理方法、装置、存储介质和计算机设备 | |
US10719696B2 (en) | Generation of interrelationships among participants and topics in a videoconferencing system | |
CN112691385A (zh) | 出装信息获取方法、装置、电子设备、服务器及存储介质 | |
EP4080388A1 (en) | Multimodal, dynamic, privacy preserving age and attribute estimation and learning methods and systems | |
CN113301362B (zh) | 视频元素展示方法及装置 | |
CN114727119B (zh) | 直播连麦控制方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210101 |
|
CF01 | Termination of patent right due to non-payment of annual fee |