CN115937894A - 一种基于人体姿态识别的军事训练方法及*** - Google Patents
一种基于人体姿态识别的军事训练方法及*** Download PDFInfo
- Publication number
- CN115937894A CN115937894A CN202210958307.7A CN202210958307A CN115937894A CN 115937894 A CN115937894 A CN 115937894A CN 202210958307 A CN202210958307 A CN 202210958307A CN 115937894 A CN115937894 A CN 115937894A
- Authority
- CN
- China
- Prior art keywords
- training
- human body
- body posture
- personnel
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于人体姿态识别的军事训练方法及***,所述方法包括以下步骤:开始训练任务前利用人脸识别设备或其他人证核验设备识别、记录参训人员信息;利用视频采集设备对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID对参训人员训练进行全方位监视与跟踪,无感获得训练过程数据;通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,帮助下一步建立针对性训练计划、提升训练质量。本发明实现了训练科目的智能识别与分析;能够无感获取训练数据,减少了对参训人员的干扰;实现了对每个动作完成质量的精准分析。
Description
技术领域
本发明涉及数字化军事训练技术领域,具体而言,涉及一种基于人体姿态识别的军事训练方法及***。
背景技术
军事训练中包括战术基础动作训练,参训人员众多,对参训人员大量的动作数据依靠传感器包括穿戴式传感设备采集获得。现有的对训练人员的动作完成质量以及规范程度的分析与考核主要是通过人工收集传感器采集到的所有参训人员的训练动作数据,按照动作标准作出分析和评判。
可见,现有的训练分析主观性太强,容易存在主观偏差,分析效率较低;而且传感器的使用,对参训人员形成干扰,使参训人员在注意力方面有一定程度的分散,影响了训练效果。
发明内容
鉴于此,本发明的目的在于通过视频AI、大数据等技术对官兵在通用科目、障碍场训练科目等训练过程进行无感全方位监视,同时对动作完成过程、完成质量进行针对性的分析,快速定位训练过程中的问题,协助建立针对性训练提升计划。
人体姿态识别是将人体模型抽象为多个关键点,检测实时视频图像中人体关键点的位置,构建人体虚拟骨架图,通过跟踪分析人体各虚拟关键点的动态变化进一步进行动作姿态识别、异常行为检测等处理,在检测分析人体行为表达过程中,将人体姿态简化为姿态关键点,并通过这些姿态关键点对人体姿态表达的语义进行分类识别,结合动作标准可以进一步进行动作完成质量的评估;
但是,现有的人体姿态关键点姿态识别技术面临如下的几方面技术难点和痛点:
(1)由于不同摄像机角度下捕获到的姿态关键点的空间位置、视角方向各不相同,姿态位移尺度的变换会存在转换精度不高的因素;
(2)由于不同外观、性别、衣物等不同行为个体的差异,差异个体的姿态变换造成相同人体姿态的尺寸大小、表观形状不完全相同;
(3)人体姿态检测过程中造成的人体骨骼关键点丢失,或者关键点漂移等,形成较多的关键点噪声与关键点缺失;
(4)在不同的背景和光照条件下对人体姿态关键点姿态识别与关键点的跟踪,会出现不同环境因素下姿态变换与关键点的丢失;
(5)对运动人体姿态语义视频进行分割时,需要判断出不同动作完成的时序过程,;比如,单杠引体向上动作,需要分割出人体从抓杠上杠,到做完后下杠的全部过程,这给人体姿态表达视频区域的有效分割带来很大挑战。
由于现有的上述动态人体关键点姿态识别技术的难点和痛点,人体姿态识别还存在很大的不确定性和复杂性,对基于深度学习的人体姿态分析的技术提出了更大的挑战。
本发明训练方法首先获取训练现场的监控视频画面,通过卷积编码的方式进行视觉特征提取,然后通过线性回归的方式从视觉特征中解析得到人体特征图,最后以不同的人体姿态特征作为数据集形成人体模型参考图,依托已完成的训练模型通过模型参考图与人体特征相结合分析完成人体的姿态识别。
本发明提供一种基于人体姿态识别的军事训练方法,包括以下步骤:
S1、开始训练任务前利用人脸识别设备或其他人证核验设备识别、记录参加训练的人员信息;
本发明此步骤经过人脸识别、动作确认等环节(按需求确定)后,***自动启动训练过程识别;
S2、利用视频采集设备对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID技术对参训人员训练进行全方位监视与跟踪,无感获得参训人员的训练过程数据;
所述视频采集设备包括:固定式或移动式摄像机;
S3、通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,为下一步建立针对性训练计划、提升训练质量提供帮助。
进一步地,所述S2步骤的所述无感获得参训人员的训练过程数据的方法包括:
通过智能AI摄像头对训练场景、人员进行全方位监视,获取训练实时视频画面。
进一步地,所述S3步骤的所述过视觉AI算法将人体模型抽象为多个关节节点的方法包括:
通过视频AI技术对参训人员运动动作进行捕捉,以人体核心关节点作为核心,建立虚拟AI骨骼框架图。
进一步地,所述S3步骤的所述跟踪分析各关节节点的动态变化的方法包括:
训练过程持续跟踪,通过智能识别算法持续采集、分析人体姿态,并与算法模型的训练标准进行比较,判断该动作完成是否达标。
进一步地,所述判断该动作完成是否达标的方法包括:
对于人体姿态完成情况符合算法模型要求,记为动作达标并记录完成情况;
如动作不达标则记录该动作与算法模型中的标定动作的差异,为后续进行动作的点评提供依据。
进一步地,所述S3步骤之后还包括:
当持续训练的条件达到既定终止条件时(例如:时间达到边界条件、动作姿态达到边界条件),自动停止进行人体动作分析,并形成本次训练的完成报告。
本发明还提供一种基于人体姿态识别的军事训练***,执行如上述所述的基于人体姿态识别的军事训练方法,包括:
记录人员信息模块:利用人脸识别设备或其他人证核验设备识别、记录参加训练的人员信息;
采集训练数据模块:利用视频采集设备固定式或移动式摄像机对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID技术对参训人员训练进行全方位监视与跟踪,无感获得参训人员的训练过程数据;
分析判断模块:通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,为下一步建立针对性训练计划、提升训练质量提供帮助。
进一步地,所述分析判断模块包括:
动作捕捉子模块:通过视频AI技术对参训人员运动动作进行捕捉,以人体核心关节点作为核心,建立虚拟AI骨骼框架图;
跟踪分析子模块:通过智能识别算法持续采集、分析人体姿态,并与算法模型的训练标准进行比较,判断该动作完成是否达标。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述所述基于人体姿态识别的军事训练方法的步骤,以及上述所述的基于人体姿态识别的军事训练***。
本发明还提供一种计算机设备,所述计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述基于人体姿态识别的军事训练方法的步骤,以及上述所述的基于人体姿态识别的军事训练***。
与现有技术相比,本发明的有益效果在于:
本发明军事训练方法实现了训练场基础训练科目的智能识别与分析;能够无感获取训练数据,从而减少了对参训人员的干扰;实现了对每个动作的完成质量的精准分析。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。
在附图中:
图1为本发明一种基于人体姿态识别的军事训练方法的流程图;
图2为本发明实施例计算机设备的构成示意图;
图3为本发明实施例人体姿态识别的算法处理流程示意图;
图4为本发明实施例智能识别处理的流程示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和产品的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
下面结合附图对本发明实施例作进一步详细说明。
人工智能(Artificial Intelligence),英文缩写为AI,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用***的一门新的技术科学。人工智能是计算机科学的一个分支,该领域的研究包括大数据、计算机视觉、语言识别、自然语言处理、深度学习、机器人和专家***等。
大数据,或者称之为巨量资料,指的是需要全新的处理模式才能具有更强的决策力、洞察力和流程优化能力的海量、高增长率和多样化的信息资产。从各种各样类型的数据中,快速获得有价值信息的能力,就是大数据技术。大数据是AI智能化程度升级和进化的基础,拥有大数据,AI才能够不断的进行模拟演练,不断向着真正的人工智能靠拢。
计算机视觉顾名思义,就是让计算机具备像人眼一样观察和识别的能力;更进一步的说,就是指用摄像机和电脑代替人眼对目标进行识别、跟踪和测量,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。
语音识别技术是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高新技术。语音识别技术主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。语音识别是人机交互的基础,主要解决让机器听清楚人说什么的难题。
自然语言处理大体包括了自然语言理解和自然语言生成两个部分,实现人机间自然语言通信意味着要使计算机既能理解自然语言文本的意义,也能以自然语言文本来表达给定的意图、思想等,前者称为自然语言理解,后者称为自然语言生成。自然语言处理的终极目标是用自然语言与计算机进行通信。
机器学习就是让机器具备人一样学习的能力,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是人工智能的核心。机器学习的基本思想是通过计算机对数据的学习来提升自身性能的算法。机器学习中需要解决的最重要的4类问题是预测、聚类、分类和降维。机器学习按照学习方法分类可分为:监督学习、无监督学习、半监督学习和强化学习。
深度学习平台是机器学习的一种特殊形式,它包含多层的人工神经网络,能够模拟人类大脑,处理数据并创建决策模式。目前主要被用于基于大数据集的模式识别和分类。
机器人将机器视觉、自动规划等认知技术整合至极小却高性能的传感器、致动器、以及设计巧妙的硬件中,这就催生了新一代的机器人,它有能力与人类一起工作,能在各种未知环境中灵活处理不同的任务。
专家***是一个智能计算机程序***,其内部含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识和解决问题的方法来处理该领域问题。也就是说,专家***是一个具有大量的专门知识与经验的程序***,它应用人工智能技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家***是一种模拟人类专家解决领域问题的计算机程序***。
本发明实施例提供一种基于人体姿态识别的军事训练方法,参见图1所示,包括如下步骤:
S1、开始训练任务前利用人脸识别设备或其他人证核验设备识别、记录参加训练的人员信息;
本发明此步骤经过人脸识别、动作确认等环节(按需求确定)后,***自动启动训练过程识别;
S2、利用视频采集设备对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID技术对参训人员训练进行全方位监视与跟踪,无感获得参训人员的训练过程数据;
所述视频采集设备包括:固定式或移动式摄像机;
所述无感获得参训人员的训练过程数据的方法包括:
通过智能AI摄像头对训练场景、人员进行全方位监视,获取训练实时视频画面;
参见图4所示为本发明实施例智能识别处理的流程;
S3、通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,为下一步建立针对性训练计划、提升训练质量提供帮助;
参见图3所示为本发明实施例人体姿态识别的算法处理流程;
所述过视觉AI算法将人体模型抽象为多个关节节点的方法包括:
通过视频AI技术对参训人员运动动作进行捕捉,以人体核心关节点作为核心,建立虚拟AI骨骼框架图;
所述跟踪分析各关节节点的动态变化的方法包括:
训练过程持续跟踪,通过智能识别算法持续采集、分析人体姿态,并与算法模型的训练标准进行比较,判断该动作完成是否达标;
当持续训练的条件达到既定终止条件时(例如:时间达到边界条件、动作姿态达到边界条件),自动停止进行人体动作分析,并形成本次训练的完成报告。
所述判断该动作完成是否达标的方法包括:
对于人体姿态完成情况符合算法模型要求,记为动作达标并记录完成情况;
如动作不达标则记录该动作与算法模型中的标定动作的差异,为后续进行动作的点评提供依据。
本发明实施例还提供一种基于人体姿态识别的军事训练***,执行如上述所述的基于人体姿态识别的军事训练方法,包括:
记录人员信息模块:利用人脸识别设备或其他人证核验设备识别、记录参加训练的人员信息;
采集训练数据模块:利用视频采集设备固定式或移动式摄像机对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID技术对参训人员训练进行全方位监视与跟踪,无感获得参训人员的训练过程数据;
分析判断模块:通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,为下一步建立针对性训练计划、提升训练质量提供帮助。
所述分析判断模块包括:
动作捕捉子模块:通过视频AI技术对参训人员运动动作进行捕捉,以人体核心关节点作为核心,建立虚拟AI骨骼框架图;
跟踪分析子模块:通过智能识别算法持续采集、分析人体姿态,并与算法模型的训练标准进行比较,判断该动作完成是否达标。
采用本发明实施例的训练内容包括:
立定跳远:智能识别身体关节角度、位移变化、胳膊、腿部、膝部及人体高度变化、落地位置等,对身体关节角度、位移变化等核心姿态进行结构化分析;
单杠引体向上:智能识别下颌是否超过横杠上缘、手臂垂直的动作规范性、手是否离杆、脚是否触及地面、身体摆浪状态,对身体关节角度、位移变化等核心姿态参数进行结构化分析;
仰卧起坐:智能识别上体前屈时两肘同时触及膝部及人体高度差异变化、上体后仰时双肩与背部是否完整触及地面、是否存在双手离肩动作等,全程对身体关节角度、位移变化等核心姿态参数进行结构化分析;
俯卧撑:对身体关节角度、位移变化等核心姿态进行结构化分析,智能识别上体前屈时两肘、膝部及人体高度变化、上体后仰时双肩与背部是否完整触及地面、双手是否离肩、是否躺在地上休息等;
单杠曲臂悬垂:智能识别下颌是否超过横杠上缘、下颌低于横杠、手离杆、脚是否触及地面等姿态,对身体关节角度、位移变化等核心姿态进行结构化分析;
单杠卷体身上:智能识别躯干、两肘、膝部、腿部及人体高度变化,对身体关节角度、位移变化等核心姿态进行结构化分析;
双杠端臂屈伸:智能识别身体是否下降最低点、肘关节夹角、双臂撑起还原后手臂角度,对身体关节角度、位移变化等核心姿态参数进行结构化分析;
平板支撑:对身体关节角度、位移变化等核心姿态进行结构化分析,智能识别上体前屈时前臂、两肘、躯干、腿及人体高度、双臂是否离地等;
深蹲起:智能识别身体腿部、腰部及身体躯干的姿态、对身体关节角度、位移变化等核心参数进行结构化分析;
蛇形跑:智能识别行进轨迹、是否碰杆或倒杆、行进动作姿态,对身体关节角度、位移变化等核心姿态参数进行结构化分析。
本发明实施例军事训练方法实现了训练场基础训练科目的智能识别与分析;能够无感获取训练数据,从而减少了对参训人员的干扰;实现了对每个动作的完成质量的精准分析。
本发明实施例还提供了一种计算机设备,图2是本发明实施例提供的一种计算机设备的结构示意图;参见附图图2所示,该计算机设备包括:输入装置23、输出装置24、存储器22和处理器21;所述存储器22,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器21执行,使得所述一个或多个处理器21实现如上述实施例提供的基于人体姿态识别的军事训练方法;其中输入装置23、输出装置24、存储器22和处理器21可以通过总线或者其他方式连接,图2中以通过总线连接为例。
存储器22作为一种计算设备可读写存储介质,可用于存储软件程序、计算机可执行程序,如本发明实施例所述的基于人体姿态识别的军事训练方法对应的程序指令;存储器22可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等;此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件;在一些实例中,存储器22可进一步包括相对于处理器21远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置23可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入;输出装置24可包括显示屏等显示设备。
处理器21通过运行存储在存储器22中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的基于人体姿态识别的军事训练方法。
上述提供的计算机设备可用于执行上述实施例提供的基于人体姿态识别的军事训练方法,具备相应的功能和有益效果。
本发明实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如上述实施例提供的基于人体姿态识别的军事训练方法,存储介质是任何的各种类型的存储器设备或存储设备,存储介质包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机***存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等;存储介质可以还包括其它类型的存储器或其组合;另外,存储介质可以位于程序在其中被执行的第一计算机***中,或者可以位于不同的第二计算机***中,第二计算机***通过网络(诸如因特网)连接到第一计算机***;第二计算机***可以提供程序指令给第一计算机用于执行。存储介质包括可以驻留在不同位置中(例如在通过网络连接的不同计算机***中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上实施例所述的基于人体姿态识别的军事训练方法,还可以执行本发明任意实施例所提供的基于人体姿态识别的军事训练方法中的相关操作。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
以上所述仅为本发明的优选实施例,并不用于限制本发明;对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人体姿态识别的军事训练方法,其特征在于,包括以下步骤:
S1、开始训练任务前利用人脸识别设备或其他人证核验设备识别、记录参加训练的人员信息;
S2、利用视频采集设备对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID技术对参训人员训练进行全方位监视与跟踪,无感获得参训人员的训练过程数据;
S3、通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,为下一步建立针对性训练计划、提升训练质量提供帮助。
2.根据权利要求1所述的基于人体姿态识别的军事训练方法,其特征在于,所述S2步骤的所述无感获得参训人员的训练过程数据的方法包括:
通过智能AI摄像头对训练场景、人员进行全方位监视,获取训练实时视频画面。
3.根据权利要求2所述的基于人体姿态识别的军事训练方法,其特征在于,所述S3步骤的所述过视觉AI算法将人体模型抽象为多个关节节点的方法包括:
通过视频AI技术对参训人员运动动作进行捕捉,以人体核心关节点作为核心,建立虚拟AI骨骼框架图。
4.根据权利要求1所述的基于人体姿态识别的军事训练方法,其特征在于,所述S3步骤的所述跟踪分析各关节节点的动态变化的方法包括:
训练过程持续跟踪,通过智能识别算法持续采集、分析人体姿态,并与算法模型的训练标准进行比较,判断该动作完成是否达标。
5.根据权利要求4所述的基于人体姿态识别的军事训练方法,其特征在于,所述判断该动作完成是否达标的方法包括:
对于人体姿态完成情况符合算法模型要求,记为动作达标并记录完成情况;
如动作不达标则记录该动作与算法模型中的标定动作的差异,为后续进行动作的点评提供依据。
6.根据权利要求5所述的基于人体姿态识别的军事训练方法,其特征在于,所述S3步骤之后还包括:
当持续训练的条件达到既定终止条件时,自动停止进行人体动作分析,并形成本次训练的完成报告。
7.一种基于人体姿态识别的军事训练***,其特征在于,执行如权利要求1-6任一项所述的基于人体姿态识别的军事训练方法,包括:
记录人员信息模块:利用人脸识别设备或其他人证核验设备识别、记录参加训练的人员信息;
采集训练数据模块:利用视频采集设备固定式或移动式摄像机对训练科目进行区域覆盖,通过人体姿态识别及跨镜追踪ReID技术对参训人员训练进行全方位监视与跟踪,无感获得参训人员的训练过程数据;
分析判断模块:通过视觉AI算法将人体模型抽象为多个关节节点,通过跟踪分析各关节节点的动态变化,精准识别出参训人员的动作姿态、轨迹和时间信息,依据训练标准分析出完成质量,为下一步建立针对性训练计划、提升训练质量提供帮助。
8.根据权利要求7所述的基于人体姿态识别的军事训练***,其特征在于,所述分析判断模块包括:
动作捕捉子模块:通过视频AI技术对参训人员运动动作进行捕捉,以人体核心关节点作为核心,建立虚拟AI骨骼框架图;
跟踪分析子模块:通过智能识别算法持续采集、分析人体姿态,并与算法模型的训练标准进行比较,判断该动作完成是否达标。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-6任一项所述基于人体姿态识别的军事训练方法的步骤,以及权利要求7或8所述的基于人体姿态识别的军事训练***。
10.一种计算机设备,所述计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6任一项所述基于人体姿态识别的军事训练方法的步骤,以及权利要求7或8所述的基于人体姿态识别的军事训练***。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210958307.7A CN115937894A (zh) | 2022-08-11 | 2022-08-11 | 一种基于人体姿态识别的军事训练方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210958307.7A CN115937894A (zh) | 2022-08-11 | 2022-08-11 | 一种基于人体姿态识别的军事训练方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115937894A true CN115937894A (zh) | 2023-04-07 |
Family
ID=86699575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210958307.7A Pending CN115937894A (zh) | 2022-08-11 | 2022-08-11 | 一种基于人体姿态识别的军事训练方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115937894A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548675A (zh) * | 2016-11-08 | 2017-03-29 | 湖南拓视觉信息技术有限公司 | 虚拟军事训练方法及装置 |
CN114495169A (zh) * | 2022-01-26 | 2022-05-13 | 广州鼎飞航空科技有限公司 | 一种人体姿态识别的训练数据处理方法、装置及设备 |
-
2022
- 2022-08-11 CN CN202210958307.7A patent/CN115937894A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548675A (zh) * | 2016-11-08 | 2017-03-29 | 湖南拓视觉信息技术有限公司 | 虚拟军事训练方法及装置 |
CN114495169A (zh) * | 2022-01-26 | 2022-05-13 | 广州鼎飞航空科技有限公司 | 一种人体姿态识别的训练数据处理方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Javeed et al. | Wearable sensors based exertion recognition using statistical features and random forest for physical healthcare monitoring | |
Ibraheem et al. | Survey on various gesture recognition technologies and techniques | |
CN110503077B (zh) | 一种基于视觉的实时人体动作分析方法 | |
CN110516620A (zh) | 目标跟踪方法、装置、存储介质及电子设备 | |
Alrubayi et al. | A pattern recognition model for static gestures in malaysian sign language based on machine learning techniques | |
Baumgartl et al. | Development of a highly precise place recognition module for effective human-robot interactions in changing lighting and viewpoint conditions | |
Avola et al. | Deep temporal analysis for non-acted body affect recognition | |
Huu et al. | An ANN-based gesture recognition algorithm for smart-home applications | |
CN108983979A (zh) | 一种手势跟踪识别方法、装置和智能设备 | |
CN108446583A (zh) | 基于姿态估计的人体行为识别方法 | |
TWI776566B (zh) | 動作識別方法、電腦設備及電腦可讀儲存介質 | |
Huu et al. | Proposing recognition algorithms for hand gestures based on machine learning model | |
Ali et al. | Deep Learning Algorithms for Human Fighting Action Recognition. | |
CN115223239A (zh) | 一种手势识别方法、***、计算机设备以及可读存储介质 | |
Kujani et al. | Head movements for behavior recognition from real time video based on deep learning ConvNet transfer learning | |
CN112801009A (zh) | 基于双流网络的面部情感识别方法、装置、介质及设备 | |
Tan et al. | Implementing Gesture Recognition in a Sign Language Learning Application | |
Ying | Gated recurrent unit based on feature attention mechanism for physical behavior recognition analysis | |
CN115937894A (zh) | 一种基于人体姿态识别的军事训练方法及*** | |
Abdulhamied et al. | Real-time recognition of American sign language using long-short term memory neural network and hand detection | |
Vignolo et al. | The complexity of biological motion | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
CN112507940A (zh) | 一种基于差分指导表示学习网络的骨骼动作识别方法 | |
Rawat et al. | Indian sign language recognition system for interrogative words using deep learning | |
Kale et al. | Posture Detection and Comparison of Different Physical Exercises Based on Deep Learning Using Media Pipe, Opencv |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |