CN106548675A - 虚拟军事训练方法及装置 - Google Patents
虚拟军事训练方法及装置 Download PDFInfo
- Publication number
- CN106548675A CN106548675A CN201610981497.9A CN201610981497A CN106548675A CN 106548675 A CN106548675 A CN 106548675A CN 201610981497 A CN201610981497 A CN 201610981497A CN 106548675 A CN106548675 A CN 106548675A
- Authority
- CN
- China
- Prior art keywords
- training
- data
- military
- dimensional data
- personnel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/003—Simulators for teaching or training purposes for military purposes and tactics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供一种虚拟军事训练方法及装置。所述方法包括:获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取所述参加军事训练人员的RGB图像数据和深度图像数据;根据所述人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型;根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据;基于所述人体模型、训练场地模型和训练器材模型,根据所述运动学数据进行虚拟现实运动模拟;将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
Description
技术领域
本发明涉及计算机视觉技术,尤其涉及一种虚拟军事训练方法及装置。
背景技术
随着科技的发展,军事训练也逐步跨入信息化阶段。目前,军事训练的方式大多是参加军事训练的人员偶尔可以佩戴传感头盔、数据手套、操纵杆等专用设备来与***进行交互,来提高训练水平。
然而,现有的军事训练方法具有以下不足之处:上述传感头盔、数据手套等专用设备昂贵、笨重,且不方便,也很难让参加军事训练人员产生真实、自然的感觉,从而导致训练效率低下,训练效果有限,难以广泛应用。
发明内容
本发明的目的在于,提供一种虚拟军事训练方法及装置,以实现虚拟现实的军事训练过程,提高训练效率和训练效果,应用广泛。
根据本发明的一方面,提供一种虚拟军事训练方法。所述方法包括:获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取所述参加军事训练人员的RGB图像数据和深度图像数据;根据所述人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型;根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据;基于所述人体模型、训练场地模型和训练器材模型,根据所述运动学数据进行虚拟现实运动模拟;将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
优选地,所述获取参训人员的三维数据、训练场地的三维数据以及训练器材的三维数据包括:
通过Kinect体感器获取参加军事训练人员的三维数据、训练场地的三维数据以及训练器材的三维数据。
优选地,所述获取所述参加军事训练人员的RGB图像数据和深度图像数据包括:
通过Kinect体感器获取所述参加军事训练人员的RGB图像数据和深度图像数据。
优选地,所述将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果包括:
在观察视点和观察视角保持一致的情况下,将所述训练动作与所述标准模板动作同步叠加,获得训练分析结果。
优选地,所述方法还包括:
根据所述训练分析结果获得所述参加军事训练人员的训练数据;
将获得的训练数据存储到军事训练人员数据库。
根据本发明的另一方面,提供一种虚拟军事训练装置。所述装置包括:数据获取模块,用于获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取所述参加军事训练人员的RGB图像数据和深度图像数据;模型建立模块,用于根据所述人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型;姿态分析模块,用于根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据;运动模拟模块,用于基于所述人体模型、训练场地模型和训练器材模型,根据所述运动学数据进行虚拟现实运动模拟;训练分析模块,用于将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
优选地,所述数据获取模块用于通过Kinect体感器获取参加军事训练人员的三维数据、训练场地的三维数据以及训练器材的三维数据。
优选地,所述数据获取模块用于通过Kinect体感器获取所述参加军事训练人员的RGB图像数据和深度图像数据。
优选地,所述训练分析模块用于在观察视点和观察视角保持一致的情况下,将所述训练动作与所述标准模板动作同步叠加,获得训练分析结果。
优选地,所述装置还包括:
训练数据获取模块,用于根据所述训练分析结果获得所述参加军事训练人员的训练数据;
数据存储模块,用于将获得的训练数据存储到军事训练人员数据库。
根据本发明实施例提供的虚拟军事训练方法及装置,通过获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,以此为依据建立相应的人体模型、训练场地模型和训练器材模型,根据获取到的参加军事训练人员的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。进一步基于人体模型、训练场地模型和训练器材模型,根据运动学数据进行虚拟现实运动模拟,将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。从而实现了虚拟军事训练过程,提高了训练效率和训练效果,应用广泛。
附图说明
图1是示出根据本发明实施例一的虚拟军事训练方法的流程图;
图2是示出根据本发明实施例二的虚拟军事训练方法的流程图;
图3是示出根据本发明实施例三的虚拟军事训练装置的逻辑框图;
图4是示出根据本发明实施例四的虚拟军事训练装置的逻辑框图。
具体实施方式
下面结合附图(若干附图中相同的标号表示相同的元素)和实施例,对本发明的具体实施方式作进一步详细说明。以下实施例用于说明本发明,但不用来限制本发明的范围。
本领域技术人员可以理解,本发明中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
实施例一
图1是示出根据本发明实施例一的虚拟军事训练方法的流程图。可在如图3所示的装置执行所述方法。
参照图1,在步骤S110,获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取参加军事训练人员的RGB图像数据和深度图像数据。
具体地,可利用体感交互设备如Kinect体感器获得参加军事训练人员、训练场地及训练器材的信息,完成三维数据的输入,为后续建模处理提供数据源。同时,利用Kinect体感器获得参加军事训练人员的RGB图像和深度图像数据,为后续姿态分析处理提供数据基础。
在步骤S120,根据人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型。
在实际应用中,可以使用3DMAX软件对场景中的人体、训练场地和训练器材建立模型,还可以添加纹理,以增加模型的立体感与真实感。
在步骤S130,根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。
通过前述利用Kinect体感器获取参加军事训练人员的RGB图像和深度图像数据,可以支持实时的全身和骨骼跟踪,识别参加军事训练人员一系列的动作,获得人体的运动学数据,其中包括姿态参数及各种运动学参数,进而驱动人体模型(即虚拟人)的运动,控制虚拟人的运动姿势。
在步骤S140,基于人体模型、训练场地模型和训练器材模型,根据运动学数据进行虚拟现实运动模拟。
上述步骤中根据姿态分析所获得的运动学数据驱动虚拟人运动。由于捕获到的运动学数据是模拟人体真实运动的数据,那么基于建立好的人体模型、训练场地模型和训练器材模型,以及获得的运动学数据就可以进行虚拟现实运动模拟。由此,虚拟人的运动就是人体运动的复制品,模拟效果非常逼真。
在步骤S150,将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
需要说明的是,针对不同课目,可以根据每个参加军事训练人员的身体特点,采集其运动数据并进行建模后再重新编排,有针对性的对每个参加军事训练人员相应的虚拟人构建标准模板动作,从而预先建立上述运动标准模板数据库。
在具体的实现方式中,将每个虚拟人的训练动作与标准模板动作的观察视点、视角保持一致,同步叠加对比显示,直观地展示出动作差异,找出技术缺陷并制定改进技术方案,从而提高参加军事训练人员的技术水平。此外,根据每个参加军事训练人员的个体特点和运动能力,通过比较分析给出最佳动作技术,从而为运动标准模板数据库的改进提供指导性建议,以达到军事训练的个性化、最优化。
以下结合具体的处理示例,来进一步更直观地说明一下本发明实施例的具体应用。
400米障碍训练是军人常态化基础体能训练的科目之一,由于障碍难度较大,参训人员技术水平提高缓慢,导致训练过程中往往会出现受伤情况。应用本发明实施例的军事训练可以对训练进行科学的指导,有效地避免无谓的伤病,提高训练效果。具体如下:
首先,虚拟400米障碍训练场景,即建立人体模型、3D训练场模型和障碍物模型。具体地,虚拟障碍训练场景是对障碍训练环境采用物理、数学等表示方法进行表示,提供训练环境的基础数据和动态数据。其中,包括障碍训练场地貌几何建模、障碍训练场中障碍物几何建模和参训人员建模等。如利用Kinect传感器实测400米障碍训练场、单个障碍物和参训人员深度数据和RGB数据,通过3DMAX软件对场景中的人体、场地和器材建立模型,并添加纹理,增加模型的立体感与真实感;
其次,根据利用Kinect体感器获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。具体地,通过Kinect体感器采集的参训人员通过单个障碍的现场数据,获取学员的骨骼图像,并进行实时的全身和骨骼跟踪,识别其一系列的动作,获得运动人体的头部、手臂和腿脚处多个关节点的三维坐标以及角度等信息,用于驱动模拟人的运动;
再次,根据人体模型、训练场地模型和训练器材模型,以及姿态分析获得的运动学数据进行虚拟现实运动模拟。具体地,获取参训人员各个关节点的姿态信息后,根据各个关节点的姿态信息来控制虚拟场景中人体的运动,使虚拟场景中虚拟人与参训者的动作一致;
最后,将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。具体地,虚拟训练画面和标准训练画面给予相同的视点,将虚拟人训练动作与标准训练动作对比分析,即同步对比每一个过障碍物的动作,并用三维动画展示分析结果,让参训人员更快捷的找出具有缺陷的动作,从而改进以解决技术动作缺陷,进而提高训练成绩。
本发明实施例提供的虚拟军事训练方法,通过获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,以此为依据建立相应的人体模型、训练场地模型和训练器材模型,根据获取到的参加军事训练人员的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。进一步基于人体模型、训练场地模型和训练器材模型,根据运动学数据进行虚拟现实运动模拟,将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。从而实现了虚拟现实的军事训练过程,提高了训练效率和训练效果,应用广泛。
实施例二
图2是示出根据本发明实施例二的虚拟军事训练方法的流程图,所述实施例可视为图1的又一种具体的实现方案。可在如图4所示的装置执行所述方法。
参照图2,在步骤S210,获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取参加军事训练人员的RGB图像数据和深度图像数据。
根据本发明示例性实施例,步骤S210中获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据的处理可包括:通过Kinect体感器获取参加军事训练人员的三维数据、训练场地的三维数据以及训练器材的三维数据。
根据本发明另一示例性实施例,步骤S210中获取参加军事训练人员的RGB图像数据和深度图像数据的处理可包括:通过Kinect体感器获取所述参加军事训练人员的RGB图像数据和深度图像数据。。
在步骤S220,根据人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型。
其中,上述步骤S220的步骤内容与上述实施例一中步骤S120的步骤内容相同,在此不再赘述。
在步骤S230,根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。
其中,上述步骤S230的步骤内容与上述实施例一中步骤S130的步骤内容相同,在此不再赘述。
在步骤S240,基于人体模型、训练场地模型和训练器材模型,根据运动学数据进行虚拟现实运动模拟。
其中,上述步骤S240的步骤内容与上述实施例一中步骤S140的步骤内容相同,在此不再赘述。
在步骤S250,将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
根据本发明示例性实施例,步骤S250可包括:在观察视点和观察视角保持一致的情况下,将训练动作与标准模板动作同步叠加,获得训练分析结果。
本实施例中,预设的运动标准模板数据库可以针对每个参训人员建立而成,以满足个性化的训练需求。对不同的参训人员可以分解、设计不同的训练动作,突破单个参训人员的训练瓶颈,降低操作失误和训练风险,提高训练质量和训练水平。
在步骤S260,根据训练分析结果获得参加军事训练人员的训练数据。
在步骤S270,将获得的训练数据存储到军事训练人员数据库。
在实际应用中,每次训练结束后,将每名参加军事训练人员的训练数据存储到军事训练人员数据库,并记录每名参加军事训练人员的成绩以及需要改进的动作、需要增加的专项训练等。
本发明实施例提供的虚拟军事训练方法,具有以下技术效果:
一方面,通过采用Kinect体感器实现了基于体感交互方式虚拟军事训练过程。Kinect体感器提取的参训人员的姿态信息实时性好,准确性高。因此,能够快速、准确地响应学员所做出的训练动作,进一步分解、设计复杂的训练动作,并对训练动作做出实时分析、监控与评价,能够突破参训人员自身的训练瓶颈,降低了高难动作的训练风险,提高了训练效果;此外,采用Kinect体感器可降低训练成本,且避免了训练过程中穿戴输入设备的繁琐性;
另一方面,将虚拟现实技术引入军事训练过程中,能够激发参训人员训练时的兴趣和积极性,提高了训练效率。同时,满足了个性化的训练需求,为参训人员提供了精确、稳定且个性化的训练模式和定量化的训练效果评估指标,使得军事训练方式更加多样化、个性化;
再一方面,在本实施例中,将虚拟的训练动作和标准模板动作的观察视点、视角保持一致,训练动作与标准模板动作同步显示,从而使得训练结果的观察效果更加准确且真实、直观。进而获得准确度高的训练分析结果。有利于后续***地分析参训人员的技术动作,并且,有助于参训人员及时发现、领悟自身运动的技术缺陷,对整体提高参训人员的训练质量和训练成绩有较大的促进作用。
实施例三
基于相同的技术构思,图3是示出根据本发明实施例三的虚拟军事训练装置的逻辑框图。可用以执行如实施例一所述的虚拟军事训练方法流程。
参照图3,虚拟军事训练装置包括数据获取模块310、模型建立模块320、姿态分析模块330、运动模拟模块340和训练分析模块350。
数据获取模块310用于获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取参加军事训练人员的RGB图像数据和深度图像数据。
模型建立模块320用于根据人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型。
姿态分析模块330用于根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。
运动模拟模块340用于基于人体模型、训练场地模型和训练器材模型,根据运动学数据进行虚拟现实运动模拟。
训练分析模块350用于将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
本发明实施例提供的虚拟军事训练装置,通过获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,以此为依据建立相应的人体模型、训练场地模型和训练器材模型,根据获取到的参加军事训练人员的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据。进一步基于人体模型、训练场地模型和训练器材模型,根据运动学数据进行虚拟现实运动模拟,将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。从而实现了虚拟现实的军事训练过程,提高了训练效率和训练效果,应用广泛。
实施例四
基于相同的技术构思,图4是示出根据本发明实施例四的虚拟军事训练装置的逻辑框图。可用以执行如实施例二所述的虚拟军事训练方法流程。
参照图4,数据获取模块310具体用于通过Kinect体感器获取参加军事训练人员的三维数据、训练场地的三维数据以及训练器材的三维数据。
进一步地,数据获取模块310可用于通过Kinect体感器获取参加军事训练人员的RGB图像数据和深度图像数据。
优选地,训练分析模块350可用于在观察视点和观察视角保持一致的情况下,将训练动作与标准模板动作同步叠加,获得训练分析结果。
可选地,该虚拟军事训练装置还包括:
训练数据获取模块360用于根据训练分析结果获得参加军事训练人员的训练数据。
数据存储模块370用于将获得的训练数据存储到军事训练人员数据库。
本发明实施例提供的虚拟军事训练装置,具有以下技术效果:第一,通过采用Kinect体感器实现了基于体感交互方式虚拟军事训练过程。Kinect体感器提取的参训人员的姿态信息实时性好,准确性高。因此,能够快速、准确地响应学员所做出的训练动作,进一步分解、设计复杂的训练动作,并对训练动作做出实时分析、监控与评价,能够突破参训人员自身的训练瓶颈,降低了高难动作的训练风险,提高了训练效果;此外,采用Kinect体感器可降低训练成本,且避免了训练过程中穿戴输入设备的繁琐性;第二,将虚拟现实技术引入军事训练过程中,能够激发参训人员训练时的兴趣和积极性,提高了训练效率。同时,满足了个性化的训练需求,为参训人员提供了精确、稳定且个性化的训练模式和定量化的训练效果评估指标,使得军事训练方式更加多样化、个性化;第三,在本实施例中,将虚拟的训练动作和标准模板动作的观察视点、视角保持一致,训练动作与标准模板动作同步显示,从而使得训练结果的观察效果更加准确且真实、直观。进而获得准确度高的训练分析结果。有利于后续***地分析参训人员的技术动作,并且,有助于参训人员及时发现、领悟自身运动的技术缺陷,对整体提高参训人员的训练质量和训练成绩有较大的促进作用。
需要指出,根据实施的需要,可将本申请中描述的各个步骤/部件拆分为更多步骤/部件,也可将两个或多个步骤/部件或者步骤/部件的部分操作组合成新的步骤/部件,以实现本发明的目的。
上述根据本发明的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的处理方法。此外,当通用计算机访问用于实现在此示出的处理的代码时,代码的执行将通用计算机转换为用于执行在此示出的处理的专用计算机。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种虚拟军事训练方法,其特征在于,所述方法包括:
获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取所述参加军事训练人员的RGB图像数据和深度图像数据;
根据所述人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型;
根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据;
基于所述人体模型、训练场地模型和训练器材模型,根据所述运动学数据进行虚拟现实运动模拟;
将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
2.根据权利要求1所述的方法,其特征在于,所述获取参训人员的三维数据、训练场地的三维数据以及训练器材的三维数据包括:
通过Kinect体感器获取参加军事训练人员的三维数据、训练场地的三维数据以及训练器材的三维数据。
3.根据权利要求1所述的方法,其特征在于,所述获取所述参加军事训练人员的RGB图像数据和深度图像数据包括:
通过Kinect体感器获取所述参加军事训练人员的RGB图像数据和深度图像数据。
4.根据权利要求1所述的方法,其特征在于,所述将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果包括:
在观察视点和观察视角保持一致的情况下,将所述训练动作与所述标准模板动作同步叠加,获得训练分析结果。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:
根据所述训练分析结果获得所述参加军事训练人员的训练数据;
将获得的训练数据存储到军事训练人员数据库。
6.一种虚拟军事训练装置,其特征在于,所述装置包括:
数据获取模块,用于获取参加军事训练人员的人体三维数据、训练场地的三维数据和训练器材的三维数据,并且,获取所述参加军事训练人员的RGB图像数据和深度图像数据;
模型建立模块,用于根据所述人体三维数据、训练场地的三维数据以及训练器材的三维数据,分别建立相应的人体模型、训练场地模型和训练器材模型;
姿态分析模块,用于根据获取到的RGB图像数据和深度图像数据进行姿态分析,获得人体的运动学数据;
运动模拟模块,用于基于所述人体模型、训练场地模型和训练器材模型,根据所述运动学数据进行虚拟现实运动模拟;
训练分析模块,用于将虚拟现实运动模拟过程中的训练动作与预设的运动标准模板数据库中的标准模板动作进行比对,获得训练分析结果。
7.根据权利要求6所述的装置,其特征在于,所述数据获取模块用于通过Kinect体感器获取参加军事训练人员的三维数据、训练场地的三维数据以及训练器材的三维数据。
8.根据权利要求6所述的装置,其特征在于,所述数据获取模块用于通过Kinect体感器获取所述参加军事训练人员的RGB图像数据和深度图像数据。
9.根据权利要求6所述的装置,其特征在于,所述训练分析模块用于在观察视点和观察视角保持一致的情况下,将所述训练动作与所述标准模板动作同步叠加,获得训练分析结果。
10.根据权利要求6-9中任一项所述的装置,其特征在于,所述装置还包括:
训练数据获取模块,用于根据所述训练分析结果获得所述参加军事训练人员的训练数据;
数据存储模块,用于将获得的训练数据存储到军事训练人员数据库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610981497.9A CN106548675A (zh) | 2016-11-08 | 2016-11-08 | 虚拟军事训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610981497.9A CN106548675A (zh) | 2016-11-08 | 2016-11-08 | 虚拟军事训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106548675A true CN106548675A (zh) | 2017-03-29 |
Family
ID=58395389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610981497.9A Pending CN106548675A (zh) | 2016-11-08 | 2016-11-08 | 虚拟军事训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106548675A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423527A (zh) * | 2017-08-23 | 2017-12-01 | 太仓苏易信息科技有限公司 | 一种用于军事演习的虚拟建模*** |
CN108376487A (zh) * | 2018-02-09 | 2018-08-07 | 冯侃 | 基于虚拟现实中的肢体训练***及方法 |
CN108664121A (zh) * | 2018-03-31 | 2018-10-16 | 中国人民解放军海军航空大学 | 一种仿真作战体系演练*** |
CN109460396A (zh) * | 2018-10-12 | 2019-03-12 | 中国平安人寿保险股份有限公司 | 模型处理方法及装置、存储介质和电子设备 |
CN109559585A (zh) * | 2018-12-07 | 2019-04-02 | 湖北安心智能科技有限公司 | 一种模拟训练仿真控制***和方法 |
CN109635925A (zh) * | 2018-11-30 | 2019-04-16 | 北京首钢自动化信息技术有限公司 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
CN110781777A (zh) * | 2019-10-10 | 2020-02-11 | 深圳市牧爵电子科技有限公司 | 体育训练中人体动作的判定方法、***和存储介质 |
CN111124125A (zh) * | 2019-12-25 | 2020-05-08 | 南昌市小核桃科技有限公司 | 基于虚拟现实的警务训练方法及*** |
CN114259721A (zh) * | 2022-01-13 | 2022-04-01 | 王东华 | 一种基于北斗定位的训练评估***及方法 |
CN115064026A (zh) * | 2022-06-17 | 2022-09-16 | 陆校松 | 乘务现场实训方法及装置 |
CN115830229A (zh) * | 2022-11-24 | 2023-03-21 | 江苏奥格视特信息科技有限公司 | 一种数字虚拟人3d模型采集装置 |
CN115937894A (zh) * | 2022-08-11 | 2023-04-07 | 北京中微盛鼎科技有限公司 | 一种基于人体姿态识别的军事训练方法及*** |
CN116843196A (zh) * | 2023-06-26 | 2023-10-03 | 西安速度时空大数据科技有限公司 | 一种应用于军事训练的智能训练方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198297A (zh) * | 2013-03-15 | 2013-07-10 | 浙江大学 | 基于相关性几何特征的运动相似性评估方法 |
CN103455657A (zh) * | 2013-06-21 | 2013-12-18 | 浙江理工大学 | 一种基于Kinect的现场作业仿真方法及其*** |
CN103646425A (zh) * | 2013-11-20 | 2014-03-19 | 深圳先进技术研究院 | 一种体感交互的方法及*** |
CN103816654A (zh) * | 2012-11-19 | 2014-05-28 | 大连鑫奇辉科技有限公司 | 一种舞蹈训练*** |
CN205198906U (zh) * | 2015-10-30 | 2016-05-04 | 山西睿智健科技有限公司 | 一种用于辅助健身的运动模式纠正*** |
CN105847987A (zh) * | 2016-03-24 | 2016-08-10 | 乐视控股(北京)有限公司 | 通过电视和体感配件矫正人体动作及*** |
CN105999670A (zh) * | 2016-05-31 | 2016-10-12 | 山东科技大学 | 基于kinect的太极拳动作判定和指导***及其指导方法 |
-
2016
- 2016-11-08 CN CN201610981497.9A patent/CN106548675A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103816654A (zh) * | 2012-11-19 | 2014-05-28 | 大连鑫奇辉科技有限公司 | 一种舞蹈训练*** |
CN103198297A (zh) * | 2013-03-15 | 2013-07-10 | 浙江大学 | 基于相关性几何特征的运动相似性评估方法 |
CN103455657A (zh) * | 2013-06-21 | 2013-12-18 | 浙江理工大学 | 一种基于Kinect的现场作业仿真方法及其*** |
CN103646425A (zh) * | 2013-11-20 | 2014-03-19 | 深圳先进技术研究院 | 一种体感交互的方法及*** |
CN205198906U (zh) * | 2015-10-30 | 2016-05-04 | 山西睿智健科技有限公司 | 一种用于辅助健身的运动模式纠正*** |
CN105847987A (zh) * | 2016-03-24 | 2016-08-10 | 乐视控股(北京)有限公司 | 通过电视和体感配件矫正人体动作及*** |
CN105999670A (zh) * | 2016-05-31 | 2016-10-12 | 山东科技大学 | 基于kinect的太极拳动作判定和指导***及其指导方法 |
Non-Patent Citations (1)
Title |
---|
张李杰等: "《基于虚拟现实技术的军事训练场地布局和模拟》", 《四川兵工学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423527A (zh) * | 2017-08-23 | 2017-12-01 | 太仓苏易信息科技有限公司 | 一种用于军事演习的虚拟建模*** |
CN108376487A (zh) * | 2018-02-09 | 2018-08-07 | 冯侃 | 基于虚拟现实中的肢体训练***及方法 |
CN108664121A (zh) * | 2018-03-31 | 2018-10-16 | 中国人民解放军海军航空大学 | 一种仿真作战体系演练*** |
CN109460396A (zh) * | 2018-10-12 | 2019-03-12 | 中国平安人寿保险股份有限公司 | 模型处理方法及装置、存储介质和电子设备 |
CN109460396B (zh) * | 2018-10-12 | 2024-06-04 | 中国平安人寿保险股份有限公司 | 模型处理方法及装置、存储介质和电子设备 |
CN109635925A (zh) * | 2018-11-30 | 2019-04-16 | 北京首钢自动化信息技术有限公司 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
CN109559585A (zh) * | 2018-12-07 | 2019-04-02 | 湖北安心智能科技有限公司 | 一种模拟训练仿真控制***和方法 |
CN110781777A (zh) * | 2019-10-10 | 2020-02-11 | 深圳市牧爵电子科技有限公司 | 体育训练中人体动作的判定方法、***和存储介质 |
CN111124125B (zh) * | 2019-12-25 | 2023-06-20 | 南昌市小核桃科技有限公司 | 基于虚拟现实的警务训练方法及*** |
CN111124125A (zh) * | 2019-12-25 | 2020-05-08 | 南昌市小核桃科技有限公司 | 基于虚拟现实的警务训练方法及*** |
CN114259721A (zh) * | 2022-01-13 | 2022-04-01 | 王东华 | 一种基于北斗定位的训练评估***及方法 |
CN115064026A (zh) * | 2022-06-17 | 2022-09-16 | 陆校松 | 乘务现场实训方法及装置 |
CN115064026B (zh) * | 2022-06-17 | 2023-12-19 | 陆校松 | 乘务现场实训方法及装置 |
CN115937894A (zh) * | 2022-08-11 | 2023-04-07 | 北京中微盛鼎科技有限公司 | 一种基于人体姿态识别的军事训练方法及*** |
CN115830229A (zh) * | 2022-11-24 | 2023-03-21 | 江苏奥格视特信息科技有限公司 | 一种数字虚拟人3d模型采集装置 |
CN115830229B (zh) * | 2022-11-24 | 2023-10-13 | 江苏奥格视特信息科技有限公司 | 一种数字虚拟人3d模型采集装置 |
CN116843196A (zh) * | 2023-06-26 | 2023-10-03 | 西安速度时空大数据科技有限公司 | 一种应用于军事训练的智能训练方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106548675A (zh) | 虚拟军事训练方法及装置 | |
Ueda et al. | A hand-pose estimation for vision-based human interfaces | |
Gill et al. | An analysis of usage of different types of visualisation media within a collaborative planning workshop environment | |
CN111240476B (zh) | 基于增强现实的交互方法、装置、存储介质和计算机设备 | |
CN106598229A (zh) | 一种虚拟现实场景的生成方法、设备及虚拟现实*** | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
Narang et al. | Simulating movement interactions between avatars & agents in virtual worlds using human motion constraints | |
JP7164045B2 (ja) | 骨格認識方法、骨格認識プログラムおよび骨格認識システム | |
CN108389249A (zh) | 一种多兼容性的vr/ar空间教室及其构建方法 | |
George et al. | Using virtual reality as a design input: Impacts on collaboration in a university design studio setting | |
US20230067081A1 (en) | System and method for real-time creation and execution of a human Digital Twin | |
KR20170018529A (ko) | 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법 | |
Tao et al. | Manufacturing assembly simulations in virtual and augmented reality | |
Draganov et al. | Investigating Oculus Rift virtual reality display applicability to medical assistive system for motor disabled patients | |
CN114022512A (zh) | 运动辅助方法、装置及介质 | |
CN107122043A (zh) | 虚拟现实中人体的模拟方法和装置 | |
Borrero et al. | Interaction of real robots with virtual scenarios through augmented reality: Application to robotics teaching/learning by means of remote labs | |
CN108629121B (zh) | 基于避免恐怖谷效应的虚拟现实人群仿真方法和*** | |
CN115496911A (zh) | 一种目标点检测方法、装置、设备及存储介质 | |
Basori et al. | Telerobotic 3D articulated arm-assisted surgery tools with augmented reality for surgery training | |
Hussain et al. | Modeling and simulation with augmented reality | |
Nelson et al. | A Virtual Reality Framework for Human-Virtual Crowd Interaction Studies | |
CN110070777B (zh) | 一种赫哲族鱼皮画仿真培训***及实现方法 | |
Biro et al. | The SFU-Store-Nav 3D Virtual Human Platform for Human-Aware Robotics | |
Meyer et al. | Development and evaluation of an input method using virtual hand models for pointing to spatial objects in a stereoscopic desktop environment with a fitts’ pointing task |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170329 |