CN111833439A - 基于人工智能的弹药投掷分析及移动仿真训练方法 - Google Patents
基于人工智能的弹药投掷分析及移动仿真训练方法 Download PDFInfo
- Publication number
- CN111833439A CN111833439A CN202010670146.2A CN202010670146A CN111833439A CN 111833439 A CN111833439 A CN 111833439A CN 202010670146 A CN202010670146 A CN 202010670146A CN 111833439 A CN111833439 A CN 111833439A
- Authority
- CN
- China
- Prior art keywords
- ammunition
- throwing
- image
- key points
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004088 simulation Methods 0.000 title claims abstract description 12
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 9
- 230000009471 action Effects 0.000 claims abstract description 48
- 230000033001 locomotion Effects 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 238000010586 diagram Methods 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 28
- 210000000988 bone and bone Anatomy 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000002411 hand bone Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41A—FUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
- F41A33/00—Adaptations for training; Gun simulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人工智能的弹药投掷分析及移动仿真训练方法。该方法包括:使用三维动作捕捉***捕捉标准弹药投掷动作序列;通过多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像;进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域;计算虚拟相机对应模板图像与用户手机拍摄动作序列初始帧的相似性,得到与拍摄角度最邻近的相机视角;计算真实场景与虚拟场景人物关键点距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。利用本发明实现了弹药投掷分析与辅助训练,可以达到更好的辅助训练效果。
Description
技术领域
本发明涉及人工智能、仿真训练技术领域,具体涉及一种基于人工智能的弹药投掷分析及移动仿真训练方法。
背景技术
检验弹药投掷动作要领掌握情况并提供指导动作,可帮助士兵训练投掷标准动作,对训练中具有非常重要的意义。在投掷运动领域,一些方法通过分析计算出手时投掷的力,通过运动仿真模拟在此力作用下,铅球达到最远距离的投掷角度与实际情况中运动员投掷铅球时出手的角度进行对比,通过对比对运动员的投掷动作进行纠正,从而实现辅助训练。这种方法仅分析出手时的角度对投掷动作进行纠正,辅助训练效果较差。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷,提出一种基于人工智能的弹药投掷分析及移动仿真训练方法。
一种基于人工智能的弹药投掷分析及移动仿真训练方法,该方法包括:
步骤1,使用三维动作捕捉***捕捉标准弹药投掷动作序列;
步骤2,在模拟器中设置虚拟弹药投掷场景,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景,通过空间上以人物模型为中心呈半球状分布的多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像;
步骤3,取真实场景拍摄的弹药投掷动作序列起始帧进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域;
步骤4,判断真实场景拍摄的弹药投掷图像是否包含深度信息,若包含深度信息则按最邻近深度信息进行贪婪搜索,否则按虚拟相机到人物模型根结点的距离进行层次划分,然后逐层进行贪婪搜索;贪婪搜索按图像相似性进行匹配,计算虚拟相机对应模板图像与真实场景拍摄的投掷动作序列初始帧的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与拍摄角度最邻近的相机视角;
步骤5,分别提取真实场景拍摄的弹药投掷动作序列、利用最邻近相机视角在虚拟场景中拍摄的各种标准弹药投掷动作序列的人体骨骼关键点,计算真实场景与虚拟场景下对应帧关键点距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。
该方法还包括在步骤5之前执行以下操作:
提取真实场景拍摄的弹药投掷动作序列的人体骨骼关键点、弹药关键点;
计算人体骨骼关键点与弹药关键点之间的距离,当距离大于第二阈值时,判定弹药离手;
取弹药投掷起始帧到弹药离手帧之间的动作序列作为步骤5的真实场景拍摄的弹药投掷动作序列。
采用卷积神经网络执行步骤3中的所述人物朝向检测。
采用图像关键点提取单元提取图像中人体骨骼关键点、弹药中心关键点,图像关键点提取单元包括:
关键点提取编码器,用于对图像进行特征提取,输出特征图;
关键点提取解码器,用于对特征图进行上采样和特征提取,输出人体骨骼关键点热力图、弹药关键点热力图;
坐标回归模块,用于对人体骨骼关键点热力图、弹药关键点热力图进行坐标回归,得到人体骨骼关键点、弹药中心关键点。
该方法还包括训练所述图像关键点提取单元:
构建训练集,对训练集图像中的人体骨骼关键点以及弹药中心点进行标注;
对图像内所有关键点进行高斯核卷积,生成关键点热力图,作为标签数据;
将训练集图像以及标签数据输入图像关键点提取单元,基于热力图损失函数进行训练。
人物根节点为人物模型左髋右髋连线的中心点。
在真实场景下,使用手持终端拍摄弹药投掷动作序列。
关键点编码器输入的图像数据为经过归一化处理的图像数据。
热力图损失函数为:
其中,Pcij代表类别C的关键点在位置(i,j)处的得分,得分越高就越可能是该类别关键点,ycij表示类别C真值热力图相应点的取值,N代表真值热力图中的关键点数量,α、β为超参数。
本发明与现有技术相比,具有以下有益效果:
1.本发明在虚拟场景中,利用人物朝向、人物模型匹配度筛选出最邻近虚拟相机角度,对真实场景的拍摄角度、拍摄位置没有限制,而且仅使用手持终端即可实现投掷动作分析,使用场景更加灵活、方便。
2.本发明利用计算机视觉技术、深度神经网络技术对图像关键点进行检测,分析投掷动作序列,相比于传统的基于传感器的姿势获取方式,不需要定期检测传感器功能是否正常,而且分析准确度更高。
3.本发明对弹药投掷起始帧与弹药离手帧之间的动作序列进行分析,比较用户投掷动作与标准投掷动作,提供可参考的标准动作序列,而非仅仅是出手角度,辅助训练效果更好。
4.本发明将用户投掷动作序列与各种标准动作投掷序列进行比较,提供与用户投掷动作更接近的标准投掷动作,能够在短时间内达到更好的训练效果。
附图说明
图1为本发明的框架结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于人工智能的弹药投掷分析及移动仿真训练方法。图1为本发明的框架结构图。下面通过具体实施例来进行说明。
实施例1:
本发明主要对士兵弹药投掷动作进行分析,帮助士兵训练弹药投掷动作。
步骤1,使用三维动作捕捉***捕捉标准弹药投掷动作序列。
首先使用三维动作捕捉***捕捉标准的弹药投掷动作序列,三维动作捕捉***是一种用于准确测量运动物体在三维空间运动状况的高技术设备,实施者可自由选择,如Kinect、MotionAnalysis、Polhemus。
需要注意的是,标准的弹药投掷动作序列因人而异,只要动作规范就可以判定为标准的,因此标准的弹药投掷动作序列有多种。
步骤2,在模拟器中设置虚拟弹药投掷场景,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景,通过空间上以人物模型为中心呈半球状分布的多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像。
在模拟场景中进行设置,场景的模拟可通过OpenGL或Unity3D实现,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景中。由于有多个标准动作序列,选择一个即可。通过布置若干的虚拟相机对该模型进行拍摄,虚拟相机相对于人物模型从立体上呈半球状分布,对于每个虚拟相机都会得到一个模板图像,该模板图像用于使用模板匹配方法搜索最邻近视图。
步骤3,取真实场景拍摄的弹药投掷动作序列起始帧进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域。
本实施例仅需手机即可实现弹药投掷分析,而且不限拍摄角度,使用方便。与此同时,为了确定用户拍摄角度,首先需要限制虚拟相机的搜索范围,过滤掉人物模型顶方的虚拟相机(往往拍摄不会从俯视拍摄),并通过虚拟相机按人员朝向进行按方向分层,人员朝向可通过简单的CNN来分类实现,可套用相关MobileNet等轻量级网络实时分类,分类的朝向如左右,左上、左下等。
当用户手机拍摄弹药投掷时取初始帧,进行朝向检测,假设检测结果人物朝向为向右,则搜索只搜索虚拟相机中人物朝向向右的区域,以此初步减少虚拟相机的数量。
步骤4,判断真实场景拍摄的弹药投掷图像是否包含深度信息,若包含深度信息则按最邻近深度信息进行贪婪搜索,否则按虚拟相机到人物模型根结点的距离进行层次划分,然后逐层进行贪婪搜索;贪婪搜索过程按图像相似度量进行匹配,计算虚拟相机对应模板图像与用户手机拍摄动作序列初始帧的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与拍摄角度最邻近的相机视角。
经过初步筛选后,需要对搜索范围内的虚拟相机进行细致搜索,找到最邻近的相机视角。搜索方法采用分层次贪婪搜索。判断用户手机是否可得到图像深度信息,若不能,则按距离分层次按以下规则进行:按虚拟相机到人物模型左髋右髋连线的中心点的距离进行层次划分,如0-1M为一层,1M-2M为一层,以此类推,然后逐层进行贪婪搜索。M为长度单位米。若手机可以获得图像深度信息,则直接按最邻近深度信息进行搜索。假设图像深度信息中人体左髋右髋连线的中心点的深度值为3.4M,则搜索距离最邻近层次的虚拟相机,即[3M,4M],后再搜索其他层次。
搜索过程按图像相似度量进行匹配,即计算虚拟相机模板图像与搜索图像(用户手机拍摄动作序列的初始帧)的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与用户手持相机最邻近的相机视角。相似性度量的方法采用基于模板匹配的方法。
至此即可得到最邻近的虚拟相机视角。
步骤5,分别提取真实场景拍摄的弹药投掷动作序列、利用最邻近相机视角在虚拟场景中拍摄的各种标准弹药投掷动作序列的人体骨骼关键点,计算真实场景与虚拟场景下对应帧关键点距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。
利用最邻近相机视角在虚拟场景中拍摄的各种标准的弹药投掷动作序列执行图像关键点的提取,该动作序列即称为动作投影结果,拍摄以每N秒拍摄一次,形成动作序列,N为人为取值,建议取0.5,可有效减小数据量。
为了进行有效匹配,可以判定弹药何时离手。对于用户手机拍摄的弹药投掷动作序列N0,执行图像关键点提取,最终得到人体骨骼点关键点数据和弹药关键点数据。当人体投掷弹药的手部骨骼关键点坐标与弹药关键点坐标的L1距离大于第二阈值时,判定弹药离手,该阈值同样为人为经验值,建议实施者数据分析得到。然后取N0中弹药投掷初始帧到弹药离手帧的动作序列,称为N1。然后针对N1与各种标准的弹药投掷动作序列,进行匹配,时间轴要对应,对于每帧内的人体骨骼关键点坐标求L1距离,最终将结果进行累加。选取匹配中与N1动作序列L1距离最小的标准弹药投掷序列,提供给用户作为参考,方便训练者进行动作纠正。
采用图像关键点提取单元提取图像中人体骨骼关键点、弹药中心关键点,图像关键点提取单元包括:关键点提取编码器,用于对图像进行特征提取,输出特征图;关键点提取解码器,用于对特征图进行上采样和特征提取,输出人体骨骼关键点热力图、弹药关键点热力图;坐标回归模块,用于对人体骨骼关键点热力图、弹药关键点热力图进行坐标回归,得到人体骨骼关键点、弹药中心关键点。
图像关键点提取单元采用的是神经网络,需要进行训练。首先利用模拟器采集训练数据,然后对数据进行标注。模拟器实施者可自行选择,如OpenGL、Unity3D等,都可以对弹药投掷场景进行模拟。然后对数据进行标注,对图像内的人体姿态进行标注,包括左右关节点中心,肩、肘、髋、手、膝、脚,总共12个骨骼关键点,然后对弹药中心点进行标注,包括人体骨骼关键点总共13个关键点。标注好后,对图像内的所有关键点进行高斯核卷积,以生成关键点热力图。然后将模拟器中采集的数据与标签数据送入到网络中(关键点提取编码器Encoder、关键点提取解码器Decoder)进行训练。
由于弹药投掷训练是针对性训练(针对单个人训练,并非集体),因此这里不考虑去区分人的实例、关键点分组问题。
训练的细节如下:摄像头采集的图像要经过归一化处理,将图片矩阵的值域变为[0,1]之间的浮点数,以便模型更好地收敛。标签同样经过归一化处理。通过采集的图像和热力图标签数据,端到端地训练关键点提取Encoder和关键点提取Decoder。Encoder对图像进行特征提取,输入为经过归一化处理的图像数据,输出为Feature map;Decoder是对Feature map进行上采样与特征提取并最终生成关键点热力图(heatmap),其输入为Encoder产生的Feature map,输出为人体骨骼关键点热力图与弹药关键点热力图。Loss函数采用Heatmaps Loss,其公式为:
其中,Pcij代表类别C的关键点在位置(i,j)处的得分,得分越高就越可能是该类别关键点。ycij表示类别C真实的Heatmaps。N代表ground truth中的关键点数量。α、β为超参数,需要人为设定。
需要注意的是,由于热力图本身的特点,网络输出的热力图其像素值符合高斯分布,其值域在[0,1]之间。
编码器-解码器的设计有许多种,建议关键点提取Encoder和关键点提取Decoder套用沙漏网络、CPN、HRNet等预训练模型来进行关键点特征的提取,同时这样也更利于网络的收敛。得到热力图后,可以通过坐标回归模块进行后处理得到关键点坐标。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于人工智能的弹药投掷分析及移动仿真训练方法,其特征在于,该方法包括:
步骤1,使用三维动作捕捉***捕捉标准弹药投掷动作序列;
步骤2,在模拟器中设置虚拟弹药投掷场景,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景,通过空间上以人物模型为中心呈半球状分布的多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像;
步骤3,取真实场景拍摄的弹药投掷动作序列起始帧进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域;
步骤4,判断真实场景拍摄的弹药投掷图像是否包含深度信息,若包含深度信息则按最邻近深度信息进行贪婪搜索,否则按虚拟相机到人物模型根结点的距离进行层次划分,然后逐层进行贪婪搜索;贪婪搜索按图像相似性进行匹配,计算虚拟相机对应模板图像与真实场景拍摄的投掷动作序列初始帧的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与拍摄角度最邻近的相机视角;
步骤5,分别提取真实场景拍摄的弹药投掷动作序列、利用最邻近相机视角在虚拟场景中拍摄的各种标准弹药投掷动作序列的人体骨骼关键点,计算真实场景与虚拟场景下对应帧关键点坐标距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。
2.如权利要求1所述的方法,其特征在于,该方法还包括在步骤5之前执行以下操作:
提取真实场景拍摄的弹药投掷动作序列的人体骨骼关键点、弹药关键点;
计算投掷弹药的手部关键点与弹药关键点之间的距离,当距离大于第二阈值时,判定弹药离手;
取弹药投掷起始帧到弹药离手帧之间的动作序列作为步骤5的真实场景拍摄的弹药投掷动作序列。
3.如权利要求1所述的方法,其特征在于,采用卷积神经网络执行步骤3中的所述人物朝向检测。
4.如权利要求1所述的方法,其特征在于,采用图像关键点提取单元提取图像中人体骨骼关键点、弹药中心关键点,图像关键点提取单元包括:
关键点提取编码器,用于对图像进行特征提取,输出特征图;
关键点提取解码器,用于对特征图进行上采样和特征提取,输出人体骨骼关键点热力图、弹药关键点热力图;
坐标回归模块,用于对人体骨骼关键点热力图、弹药关键点热力图进行坐标回归,得到人体骨骼关键点、弹药中心关键点。
5.如权利要求1所述的方法,其特征在于,该方法还包括训练所述图像关键点提取单元:
构建训练集,对训练集图像中的人体骨骼关键点以及弹药中心点进行标注;
对图像内所有关键点进行高斯核卷积,生成关键点热力图,作为标签数据;
将训练集图像以及标签数据输入图像关键点提取单元,基于热力图损失函数进行训练。
6.如权利要求1所述的方法,其特征在于,人物根节点为人物模型左髋右髋连线的中心点。
7.如权利要求1所述的方法,其特征在于,在真实场景下,使用手持终端拍摄真实场景的弹药投掷动作序列。
8.如权利要求4所述的方法,其特征在于,关键点编码器输入的图像数据为经过归一化处理的图像数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010670146.2A CN111833439B (zh) | 2020-07-13 | 2020-07-13 | 基于人工智能的弹药投掷分析及移动仿真训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010670146.2A CN111833439B (zh) | 2020-07-13 | 2020-07-13 | 基于人工智能的弹药投掷分析及移动仿真训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111833439A true CN111833439A (zh) | 2020-10-27 |
CN111833439B CN111833439B (zh) | 2024-06-21 |
Family
ID=72922745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010670146.2A Active CN111833439B (zh) | 2020-07-13 | 2020-07-13 | 基于人工智能的弹药投掷分析及移动仿真训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111833439B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642394A (zh) * | 2021-07-07 | 2021-11-12 | 北京搜狗科技发展有限公司 | 一种虚拟对象的动作处理方法、装置和介质 |
CN113776390A (zh) * | 2021-10-17 | 2021-12-10 | 神州凯业(佛山)科技有限公司 | 一种连续记录射击时间和命中情况的靶标报靶器 |
CN117392892A (zh) * | 2023-10-24 | 2024-01-12 | 中国人民解放军国防科技大学 | 基于xr的仿真手雷训练方法、***、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070146372A1 (en) * | 2005-12-09 | 2007-06-28 | Digital Steamworks, Llc | System, method and computer program product for creating two dimensional (2D) or three dimensional (3D) computer animation from video |
CN102194105A (zh) * | 2010-03-19 | 2011-09-21 | 微软公司 | 用于人体跟踪的代表训练数据 |
US20190022492A1 (en) * | 2016-01-28 | 2019-01-24 | Nippon Telegraph And Telephone Corporation | Virtual environment construction apparatus, method, and computer readable medium |
CN110033505A (zh) * | 2019-04-16 | 2019-07-19 | 西安电子科技大学 | 一种基于深度学习的人体动作捕捉与虚拟动画生成方法 |
CN111222459A (zh) * | 2020-01-06 | 2020-06-02 | 上海交通大学 | 一种视角无关的视频三维人体姿态识别方法 |
CN111278704A (zh) * | 2018-03-20 | 2020-06-12 | 御眼视觉技术有限公司 | 用于导航车辆的***和方法 |
CN111265835A (zh) * | 2020-03-03 | 2020-06-12 | 淮安信息职业技术学院 | 一种投掷运动训练设备及其控制方法 |
CN111318009A (zh) * | 2020-01-19 | 2020-06-23 | 张衡 | 基于可穿戴惯性感知的体感健康娱乐***及其工作方法 |
-
2020
- 2020-07-13 CN CN202010670146.2A patent/CN111833439B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070146372A1 (en) * | 2005-12-09 | 2007-06-28 | Digital Steamworks, Llc | System, method and computer program product for creating two dimensional (2D) or three dimensional (3D) computer animation from video |
CN102194105A (zh) * | 2010-03-19 | 2011-09-21 | 微软公司 | 用于人体跟踪的代表训练数据 |
US20190022492A1 (en) * | 2016-01-28 | 2019-01-24 | Nippon Telegraph And Telephone Corporation | Virtual environment construction apparatus, method, and computer readable medium |
CN111278704A (zh) * | 2018-03-20 | 2020-06-12 | 御眼视觉技术有限公司 | 用于导航车辆的***和方法 |
CN110033505A (zh) * | 2019-04-16 | 2019-07-19 | 西安电子科技大学 | 一种基于深度学习的人体动作捕捉与虚拟动画生成方法 |
CN111222459A (zh) * | 2020-01-06 | 2020-06-02 | 上海交通大学 | 一种视角无关的视频三维人体姿态识别方法 |
CN111318009A (zh) * | 2020-01-19 | 2020-06-23 | 张衡 | 基于可穿戴惯性感知的体感健康娱乐***及其工作方法 |
CN111265835A (zh) * | 2020-03-03 | 2020-06-12 | 淮安信息职业技术学院 | 一种投掷运动训练设备及其控制方法 |
Non-Patent Citations (1)
Title |
---|
夏清;李帅;郝爱民;赵沁平: "基于深度学习的数字几何处理与分析技术研究进展", 《计算机研究与发展》, vol. 56, no. 1, 21 December 2018 (2018-12-21), pages 155 - 182 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642394A (zh) * | 2021-07-07 | 2021-11-12 | 北京搜狗科技发展有限公司 | 一种虚拟对象的动作处理方法、装置和介质 |
CN113642394B (zh) * | 2021-07-07 | 2024-06-11 | 北京搜狗科技发展有限公司 | 一种虚拟对象的动作处理方法、装置和介质 |
CN113776390A (zh) * | 2021-10-17 | 2021-12-10 | 神州凯业(佛山)科技有限公司 | 一种连续记录射击时间和命中情况的靶标报靶器 |
CN117392892A (zh) * | 2023-10-24 | 2024-01-12 | 中国人民解放军国防科技大学 | 基于xr的仿真手雷训练方法、***、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111833439B (zh) | 2024-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111833439B (zh) | 基于人工智能的弹药投掷分析及移动仿真训练方法 | |
CN110222665A (zh) | 一种基于深度学习和姿态估计的监控中人体动作识别方法 | |
CN112016497A (zh) | 基于人工智能的单视角太极拳动作分析及考核*** | |
CN110544301A (zh) | 一种三维人体动作重建***、方法和动作训练*** | |
CN112184705A (zh) | 一种基于计算机视觉技术的人体穴位识别、定位及应用*** | |
CN114758362B (zh) | 基于语义感知注意力和视觉屏蔽的换衣行人重识别方法 | |
CN114998934B (zh) | 基于多模态智能感知和融合的换衣行人重识别和检索方法 | |
CN109325466B (zh) | 一种基于动作识别技术的智能运动指导***及方法 | |
CN110084192A (zh) | 基于目标检测的快速动态手势识别***及方法 | |
CN110298279A (zh) | 一种肢体康复训练辅助方法及***、介质、设备 | |
CN112464915B (zh) | 一种基于人体骨骼点检测的俯卧撑计数方法 | |
CN117671738B (zh) | 基于人工智能的人体姿态识别*** | |
CN107038400A (zh) | 人脸识别装置及方法和利用其的目标人跟踪装置及方法 | |
CN111680586A (zh) | 一种羽毛球运动员运动姿态估计方法及*** | |
CN115035546B (zh) | 三维人体姿态检测方法、装置及电子设备 | |
CN112149494A (zh) | 一种多人姿态识别方法及*** | |
Yan et al. | Human-object interaction recognition using multitask neural network | |
Baoyuan et al. | Research on object detection method based on FF-YOLO for complex scenes | |
CN103310191A (zh) | 运动信息图像化的人体动作识别方法 | |
CN118097709A (zh) | 一种猪只姿态估计方法及装置 | |
CN106964137B (zh) | 一种基于图像处理的球类发球行为评定方法 | |
CN111539364A (zh) | 基于特征融合和多分类器投票的多体感人体行为识别算法 | |
CN116386137A (zh) | 一种轻量级识别太极拳动作的移动端设计方法 | |
CN113673327B (zh) | 一种基于人体姿态估计的罚球命中预测方法 | |
CN116012417A (zh) | 目标对象的轨迹确定方法、装置以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |