CN110472497A - 一种融合旋转量的动作特征表示方法 - Google Patents
一种融合旋转量的动作特征表示方法 Download PDFInfo
- Publication number
- CN110472497A CN110472497A CN201910610766.4A CN201910610766A CN110472497A CN 110472497 A CN110472497 A CN 110472497A CN 201910610766 A CN201910610766 A CN 201910610766A CN 110472497 A CN110472497 A CN 110472497A
- Authority
- CN
- China
- Prior art keywords
- rotation amount
- motion characteristic
- skeleton
- representation method
- characteristic representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000011159 matrix material Substances 0.000 claims abstract description 32
- 230000009471 action Effects 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 210000000988 bone and bone Anatomy 0.000 claims description 12
- 238000009987 spinning Methods 0.000 claims description 7
- 230000008901 benefit Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 238000012360 testing method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000002310 elbow joint Anatomy 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000000392 somatic effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合旋转量的动作特征表示方法,具体按照以下步骤进行:步骤1:用微软Kinect2.0红外深度传感器采集人体骨骼信息和以SpineBase为根节点的人体拓扑结构信息;步骤2:依据步骤1中人体骨骼关节点坐标,计算得到人体姿态矩阵组;步骤3:依据步骤2中人体拓补结构信息和人体骨骼关节点的坐标,通过四元数计算得到子骨骼关节点相对于父骨骼关节点的旋转量,步骤4:将步骤3中旋转量与步骤2中人体姿态矩阵组相结合,建立融合旋转量的动作特征表示方法。本发明一种融合旋转量的动作特征表示方法能够较为有效地避免相似动作类之间的干扰,达到提高动作识别准确度的目的。
Description
技术领域
本发明属于动作识别技术领域,具体涉及一种融合旋转量的动作特征表示方法。
背景技术
计算机图像处理技术的发展对动作识别的精度提出了更高要求。动作识别技术已广泛应用在康复训练、智能家居和体感游戏等多个方面。随着计算机视觉的高速发展,越来越多的学者致力于人体动作识别的相关研究。对于动作识别,人体动作特征的提取和表示是前提和关键,也是难点和重点。
动作识别在人机交互中具有十分重要的意义。动作识别技术可以使计算机可以学习和理解人类的行为和动作,提高人机交互时用户的体验感,还可以开拓计算机视觉新的领域。
基于人体骨骼位置信息的动作特征是较为成熟的动作特征表示方法之一,相较于传统的提取视频图像特征的方法,基于人体骨骼位置信息的动作特征表示方法,具有更好的观测角度无关性和复杂背景无关性。
目前基于人体骨骼位置信息的动作特征主要包括人体动作特征算子、统计直方图算子、协方差算子、旋转矩阵、特征矩阵、特征向量、三维坐标矩阵均值、协方差矩阵和骨骼点运动轨迹等。
综上所述,目前的动作识别方法在动作特征提取和动作特征表示方面存在相似动作类之间的相互干扰,识别的精度和速度过慢的问题。
发明内容
本发明的目的是提供一种融合旋转量的动作特征表示方法,解决了目前的动作识别方法在动作特征提取和动作特征表示方面存在的相似动作类之间的相互干扰,识别的精度和速度过慢的问题。
本发明所采用的技术方案是,
一种融合旋转量的动作特征表示方法,具体按照以下步骤进行:
步骤1:动作特征提取,
用微软Kinect2.0红外深度传感器采集人体骨骼信息,其中包括人体骨骼信息包含人体的多个骨骼点在的三维空间坐标,和以SpineBase为根节点的人体拓扑结构信息;
步骤2:动作整体特征表示,
依据步骤1中人体骨骼关节点坐标,计算得到人体姿态矩阵组,人体姿态的计算公式为:
RF=(Ri,j)M×M (1)
其中,RF为人体姿势的矩阵,其中M为骨骼节点,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系;
步骤3:动作局部特征表示,
依据步骤2中人体拓补结构信息和人体骨骼关节点的坐标,通过四元数计算得到子骨骼关节点相对于父骨骼关节点的旋转量,
步骤4:融合旋转量的动作特征表示方法,
将步骤3中旋转量与步骤2中人体姿态矩阵组相结合,建立融合旋转量的动作特征表示方法。
本发明的特点还在于,
步骤1中人体骨骼信息包含的人体骨骼点为25个。
步骤1中三维空间位置坐标信息的数据格式为float x,float y,float z;四元数的数据格式为float x,float y,float z,float w,其中x、y和z分别为骨骼点的横坐标、纵坐标和竖坐标,w为骨骼点的欧拉角。
步骤2中,通过计算第i个骨骼点指向第j个骨骼点的单位向量得到Ri,j,RF为在第F帧时,一个动作之间的所有骨骼点的相对位置关系组成的矩阵。
步骤3中,利用四元数并结合人体拓补结构,计算父骨骼关节点和子骨骼关节点上的笛卡尔坐标系的旋转量,并表示肢体的自旋转情况。
步骤4中,融合旋转量的动作特征表示为使用旋转量表示动作细节,人体姿态矩阵表示动作整体状态。
步骤4中,融合旋转量的动作特征表示方法为:
定义以SpineBase为原点,以竖直向上为Y轴,以Z轴指向传感器,以X轴位于人左手方向,三维空间中的人体动作姿态SF被参数化为:
SF=[RF,GiF] (2)
其中的RF表示各个关节点之间的相对位置关系构成的矩阵,GiF表示第i个骨骼点在第F帧时的旋转量。
步骤4中,通过BP神经网络,将融合旋转量的动作特征表示方法作为神经网络的输入,建立姿态模型。
本发明的有益效果是,本发明一种融合旋转量的动作特征表示方法在获取的人体骨骼点三维位置信息基础上,将动作整体特征表示方法与动作局部特征表示方法融合,采用传统人体姿态矩阵,作为动作整体特征的表示,并结合人体骨骼点的旋转量,作为动作局部特征的表示;能够较为有效地避免相似动作类之间的互相干扰,达到提高动作识别准确率的目的。
附图说明
图1是本发明一种融合旋转量的动作特征表示方法中人体骨骼点分布图;
图2是本发明一种融合旋转量的动作特征表示方法中人体拓扑信息图;
图3是本发明一种融合旋转量的动作特征表示方法中肘关节笛卡尔坐标系旋转的肘关节初始位置肘与关节点旋转180°的示意图;
图4是本发明一种融合旋转量的动作特征表示方法中网络模型N1和N2网络性能的对比图;
图5图是本发明一种融合旋转量的动作特征表示方法中网络模型N1和N2准确率的对比图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
一种融合旋转量的动作特征表示方法,具体按照以下步骤进行:
步骤1:动作特征提取,
用微软Kinect2.0红外深度传感器采集人体骨骼信息,其中包括人体骨骼信息包含人体的多个骨骼点在的三维空间坐标,和以SpineBase为根节点的人体拓扑结构信息;
步骤2:动作整体特征表示,
依据步骤1中人体骨骼关节点坐标,计算得到人体姿态矩阵组,人体姿态的计算公式为:
RF=(Ri,j)M×M (1)
其中,RF为人体姿势的矩阵,其中M为骨骼节点,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系;
步骤3:动作局部特征表示,
依据步骤2中人体拓补结构信息和人体骨骼关节点的坐标,通过四元数计算得到子骨骼关节点相对于父骨骼关节点的旋转量,
步骤4:融合旋转量的动作特征表示方法,
将步骤3中旋转量与步骤2中人体姿态矩阵组相结合,建立融合旋转量的动作特征表示方法。
步骤1中人体骨骼信息包含的人体骨骼点为25个。
步骤1中三维空间位置坐标信息的数据格式为float x,float y,float z;四元数的数据格式为float x,float y,float z,float w,其中x、y和z分别为骨骼点的横坐标、纵坐标和竖坐标,w为骨骼点的欧拉角。
步骤2中,通过计算第i个骨骼点指向第j个骨骼点的单位向量得到Ri,j,RF为在第F帧时,一个动作之间的所有骨骼点的相对位置关系组成的矩阵。
步骤3中,利用四元数并结合人体拓补结构,计算父骨骼和子骨骼上的笛卡尔坐标系的旋转量,并表示肢体的自旋转情况。
步骤4中,融合旋转量的动作特征表示为使用旋转量表示动作细节,人体姿态矩阵表示动作整体状态。
步骤4中,融合旋转量的动作特征表示方法为:
定义以SpineBase为原点,以竖直向上为Y轴,以Z轴指向传感器,以X轴位于人左手方向,三维空间中的人体动作姿态SF被参数化为:
SF=[RF,GiF] (2)
其中的RF表示各个关节点之间的相对位置关系构成的矩阵,GiF表示第i个骨骼点在第F帧时的旋转量。
步骤4中,通过BP神经网络,将融合旋转量的动作特征表示作为神经网络的输入,建立姿态模型。
本发明一种融合旋转量的动作特征表示方法主要分为动作特征提取和动作特征表示两部分,其中动作特征表示包括动作整体特征表示和动作局部特征表示,然后将动作整体特征表示和动作局部特征表示融合得到本发明一种融合旋转量的动作特征表示方法,其具体为:
第一部分:动作特征提取。
使用微软Kinect2.0红外深度传感器采集的人体骨骼信息,其中人体骨骼信息包含人体25个骨骼点在的三维空间坐标,如图1所示,和以SpineBase为根节点的人体拓扑结构信息,如图2所示。三维空间位置坐标信息的数据格式为(float x,float y,float z),四元数的数据格式为(float x,float y,float z,float w),其中x,y,z为骨骼点的横坐标、纵坐标和竖坐标,w为骨骼点的欧拉角。
第二部分:动作特征表示,包括动作整体特征表示和动作局部特征表示。
动作整体特征表示:
依据采集到的人体骨骼关节点坐标,计算人体姿态矩阵组,作为为动作的整体特征的表示方法,人体姿态计算方法如下:
定义一个骨骼有M个节点,人体姿势可以表示为矩阵
RF=(Ri,j)M×M (1)
式中,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系,可以通过计算第i个骨骼点指向第j个骨骼点的单位向量得到两骨骼点间的相对位置关系,矩阵RF表示在第F帧时,一个动作之间的所有骨骼点的相对位置关系组成的矩阵。
动作局部特征表示:
依据人体拓补结构信息和人体骨骼关节点坐标,通过四元数计算得到子骨骼关节点相对于父骨骼关节点的旋转量,以更好地描述动作中肢体的自旋转情况,减少动作类间相似性对识别精度的干扰。
利用四元数并结合人体拓补结构,计算父骨骼关节点和子骨骼关节点上的笛卡尔坐标系的旋转量,表示肢体的自旋转情况,自旋转情况如图3所示。除末端骨骼点无法计算旋转量之外,其余20个骨骼点均可计算旋转量。图3中的左图表示骨骼坐标的初始坐标系分布,图3中的右图表示右肘骨骼关节点顺时针旋转180°后的坐标系分布。通过计算右肘骨骼点相对于其父骨骼关节点(右肩骨骼关节点)坐标系的旋转角度,记为右肘骨骼关节点的旋转量。
融合旋转量的动作特征表示方法
将上述旋转量与人体姿态矩阵结合,建立融合旋转量的动作特征表示,使用旋转量表示动作细节,人体姿态矩阵表示动作整体状态,融合旋转量的动作特征表示,具体表示方法如下:
定义以SpineBase作为原点,以竖直向上为Y轴,Z轴指向传感器,X轴位于人左手方向,三维空间中优化的人体动作姿态SF可被参数化为
SF=[RF,GiF] (2)
式中的RF表示各个关节点之间的相对位置关系构成的矩阵,GiF表示第i个骨骼点在第F帧时的旋转量。
在得到融合旋转量的动作特征表示方法后,我们通过采用BP神经网络建立网络模型输出的动作符合度,建立姿态模型,实现对动作姿态的评测。BP神经网络的训练过程主要包括正向传播训练数据和逆向传播进行网络参数的修正两个过程。BP神经网络通过多次训练,对网络参数中的权值和阈值进行更新校正。通过训练集数据,正向传播逐层训练权值和阈值得到评测输出。若输出的误差超出预设误差,则通过反向传播的方式逐层对权值和阈值进行更新。重复上述过程,直至输出的误差达到预设误差,神经网络模型训练结束。
通过实验不断改变网络参数,包括权值级别、步长系数、稳定系数、误差阈值、最大迭代次数和隐藏层节点数等,以提高网络的收敛性能,达到最佳的学习训练效果。
本发明一种融合旋转量的的动作特征表示方法的基础上,利用神经网络具有的非线性逼近函数和存储记忆能力,对运动特征集合在matlab中进行学习训练,得到稳定收敛的网络模型,对实时采集的动作特征集合进行处理,实现计算动作的符合度,以评测动作姿态的功能。
本发明一种融合旋转量的的动作特征表示方法的实验测试采用GAMINGDATASETS-G3D数据集进行测试,该游戏动作数据集包含10个测试者的20个动作。实验分别以矩阵RF和SF的特征向量作为神经网络的输入,神经网络N1的输入为RF的特征向量,神经网络N2的输入为SF的特征向量。神经网络N1和N2的输出为动作符合度,建立网络模型,对比分析两个网络模型的准确率。
对输入的样本数据进行归一化处理。采用的归一化算法如下所示:
式中的输入量为x,xmin是输入数据中的最小值,xmax是输入数据中的最大值。ymin=0,对应归一化前的x的最小值xmin,ymax=1对应归一化前x的最大值xmax。归一化后的值域为[0,1],将结果进行反归一化处理,还原数据的初始值。
在网络训练过程中,通过反复实验确定BP神经网络最佳的网络参数。当采取动态改变学习率的策略,设定网络模型的学习效率0.01,学习率增长比1.05,学习率下降比0.65,初始权值变化为0.07,权值变化增加量1.2,权值变化最小量0.5,权值变化最大值为50,动量因子0.945时网络的性能达到最佳。设置最大迭代次数max_fail=5,当训练过程中的迭代次数超过5次则认为网络学习失败,停止学习。设置误差阈值goal=0.0001,训练结果的均方误差低于0.0001时结束学习。隐藏层的节点数通过如下公式进行设计:
式中n为隐藏层节点数,ni为输入节点数,n0为输出节点数,a为1~10的常数。
选择训练函数和传输函数,通过学习函数确定网络中各层权值和阈值的梯度,训练过程中通过训练函数更新校正权值和阈值。传输函数采用S型函数(sigmoid),函数的值域为[0,1]。通过反复实验测试不同训练函数对网络模型的精度影响,实验结果如表1和表2所示:
表1:不同训练函数对网络模型N1精度的影响
表2:不同训练函数对网络模型N2精度的影响
从实验结果看出,LM算法在训练误差和训练时间方面具有较好的性能,且优化后收敛性能较好。因此选取LM算法作为N1和N2的优化函数进行训练学习。
本实验的准确性能指标是神经网络模型预测的准确率。图4是网络模型N1和N2网络性能的对比情况,图5是网络模型N1和N2准确率的对比情况。
根据实验结果分析可知,运行时间均为4s,说明两种动作特征表示方法对效率的优化不明显。网络模型N1的准确率为90.981%,网络模型N2的准确率为95.624%,网络模型N2输出的动作符合度准确率更高。
因此本发明一种融合旋转量的动作特征表示方法可以准确的表示动作的本质特征,解决了现有动作特征表示方法中存在的无法准确表示局部细小的动作特征和无法描述部分肢体自旋转的问题。能够使网络快速稳定收敛,并得到较为准确的输出结果。因此采用一种融合旋转量的动作特征表示方法的网络模型输出动作符合度,评测动作姿态的方法准确率更高。
Claims (8)
1.一种融合旋转量的动作特征表示方法,其特征在于,具体按照以下步骤进行:
步骤1:动作特征提取,
用微软Kinect2.0红外深度传感器采集人体骨骼信息,其中包括人体骨骼信息包含人体的多个骨骼点在的三维空间坐标,和以SpineBase为根节点的人体拓扑结构信息;
步骤2:动作整体特征表示,
依据步骤1中所述人体骨骼关节点坐标,计算人体姿态矩阵组,人体姿态的计算公式为:
RF=(Ri,j)M×M (1)
其中,RF为人体姿势的矩阵,其中M为骨骼节点,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系;
步骤3:动作局部特征表示,
依据所述步骤2中人体拓补结构信息和人体骨骼关节点的坐标,通过四元数计算得到子骨骼关节点相对于父骨骼关节点的旋转量,
步骤4:融合旋转量的动作特征表示方法,
将步骤3中所述旋转量与步骤2中所述人体姿态矩阵相结合,建立融合旋转量的动作特征表示方法。
2.根据权利要求1所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤1中,所述人体骨骼信息包含的人体骨骼点为25个。
3.根据权利要求2所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤1中,所述三维空间位置坐标信息的数据格式为float x,float y,float z;四元数的数据格式为float x,float y,float z,float w,其中x、y和z分别为骨骼点的横坐标、纵坐标和竖坐标,w为骨骼点的欧拉角。
4.根据权利要求1所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤2中,通过计算第i个骨骼点指向第j个骨骼点的单位向量得到所述Ri,j,所述RF为在第F帧时,一个动作之间的所有骨骼点的相对位置关系组成的矩阵。
5.根据权利要求1所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤3中,利用所述四元数并结合人体拓补结构,计算父骨骼和子骨骼上的笛卡尔坐标系的旋转量,并表示肢体的自旋转情况。
6.根据权利要求1所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤4中,所述融合旋转量的动作特征表示为使用旋转量表示动作细节,人体姿态矩阵表示动作整体状态。
7.根据权利要求6所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤4中,所述融合旋转量的动作特征表示方法为:
定义以SpineBase为原点,以竖直向上为Y轴,以Z轴指向传感器,以X轴位于人左手方向,三维空间中的人体动作姿态SF被参数化为:
SF=[RF,GiF] (2)
其中的RF表示各个关节点之间的相对位置关系构成的矩阵,GiF表示第i个骨骼点在第F帧时的旋转量。
8.根据权利要求1所述的一种融合旋转量的动作特征表示方法,其特征在于,步骤4中,通过BP神经网络,将所述融合旋转量的动作特征表示方法作为神经网络的输入,建立姿态模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910610766.4A CN110472497A (zh) | 2019-07-08 | 2019-07-08 | 一种融合旋转量的动作特征表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910610766.4A CN110472497A (zh) | 2019-07-08 | 2019-07-08 | 一种融合旋转量的动作特征表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110472497A true CN110472497A (zh) | 2019-11-19 |
Family
ID=68507103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910610766.4A Pending CN110472497A (zh) | 2019-07-08 | 2019-07-08 | 一种融合旋转量的动作特征表示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472497A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942007A (zh) * | 2019-11-21 | 2020-03-31 | 北京达佳互联信息技术有限公司 | 手部骨骼参数确定方法、装置、电子设备和存储介质 |
CN111341040A (zh) * | 2020-03-28 | 2020-06-26 | 江西财经职业学院 | 一种金融自助设备及其管理*** |
CN112686976A (zh) * | 2020-12-31 | 2021-04-20 | 咪咕文化科技有限公司 | 骨骼动画数据的处理方法、装置及通信设备 |
CN113393561A (zh) * | 2021-05-26 | 2021-09-14 | 完美世界(北京)软件科技发展有限公司 | 虚拟角色的肢体动作表情包生成方法、装置及存储介质 |
CN113850893A (zh) * | 2021-11-30 | 2021-12-28 | 北京健康有益科技有限公司 | 骨骼点动作数据生成方法、装置、存储介质及电子设备 |
CN114863325A (zh) * | 2022-04-19 | 2022-08-05 | 上海人工智能创新中心 | 动作识别方法、装置、设备和计算机可读存储介质 |
CN116310012A (zh) * | 2023-05-25 | 2023-06-23 | 成都索贝数码科技股份有限公司 | 一种基于视频的三维数字人姿态驱动方法、设备及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141431A1 (en) * | 2011-12-06 | 2013-06-06 | Elysium Co., Ltd. | Method of controlling model, and recording medium therewith |
CN103294832A (zh) * | 2013-06-27 | 2013-09-11 | 西安工业大学 | 一种基于反馈学习的运动捕获数据检索方法 |
JP2016162425A (ja) * | 2015-03-05 | 2016-09-05 | 日本電信電話株式会社 | 骨格姿勢推定装置、方法、及びプログラム |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
US20170277167A1 (en) * | 2016-03-24 | 2017-09-28 | Seiko Epson Corporation | Robot system, robot control device, and robot |
CN107229920A (zh) * | 2017-06-08 | 2017-10-03 | 重庆大学 | 基于整合深度典型时间规整及相关修正的行为识别方法 |
CN107578462A (zh) * | 2017-09-12 | 2018-01-12 | 北京城市***工程研究中心 | 一种基于实时运动捕捉的骨骼动画数据处理方法 |
-
2019
- 2019-07-08 CN CN201910610766.4A patent/CN110472497A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141431A1 (en) * | 2011-12-06 | 2013-06-06 | Elysium Co., Ltd. | Method of controlling model, and recording medium therewith |
CN103294832A (zh) * | 2013-06-27 | 2013-09-11 | 西安工业大学 | 一种基于反馈学习的运动捕获数据检索方法 |
JP2016162425A (ja) * | 2015-03-05 | 2016-09-05 | 日本電信電話株式会社 | 骨格姿勢推定装置、方法、及びプログラム |
US20170277167A1 (en) * | 2016-03-24 | 2017-09-28 | Seiko Epson Corporation | Robot system, robot control device, and robot |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN107229920A (zh) * | 2017-06-08 | 2017-10-03 | 重庆大学 | 基于整合深度典型时间规整及相关修正的行为识别方法 |
CN107578462A (zh) * | 2017-09-12 | 2018-01-12 | 北京城市***工程研究中心 | 一种基于实时运动捕捉的骨骼动画数据处理方法 |
Non-Patent Citations (6)
Title |
---|
SHIAN-RU KE等: "A Review on Video-Based Human Activity Recognition", 《COMPUTERS》 * |
SHUANG GONGA等: "Movement Analysis and Displacement Estimation of Human Lower Body by Inertial Sensors", 《INTERNATIONAL JOURNAL OF SCIENCE》 * |
TAO WEI等: "Kinect Skeleton Coordinate Calibration for Remote Physical Training", 《MMEDIA 2014 : THE SIXTH INTERNATIONAL CONFERENCES ON ADVANCES IN MULTIMEDIA》 * |
吴珍珍: "利用骨骼模型和格拉斯曼流行的3D人体动作识别", 《计算机工程与应用》 * |
李红波等: "基于骨骼信息的虚拟角色控制方法", 《重庆邮电大学学报( 自然科学版) 》 * |
胡星晨: "基于Kinect的体感交互机器人", 《信息技术及图像处理》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942007A (zh) * | 2019-11-21 | 2020-03-31 | 北京达佳互联信息技术有限公司 | 手部骨骼参数确定方法、装置、电子设备和存储介质 |
CN110942007B (zh) * | 2019-11-21 | 2024-03-05 | 北京达佳互联信息技术有限公司 | 手部骨骼参数确定方法、装置、电子设备和存储介质 |
CN111341040A (zh) * | 2020-03-28 | 2020-06-26 | 江西财经职业学院 | 一种金融自助设备及其管理*** |
CN112686976A (zh) * | 2020-12-31 | 2021-04-20 | 咪咕文化科技有限公司 | 骨骼动画数据的处理方法、装置及通信设备 |
CN113393561A (zh) * | 2021-05-26 | 2021-09-14 | 完美世界(北京)软件科技发展有限公司 | 虚拟角色的肢体动作表情包生成方法、装置及存储介质 |
CN113393561B (zh) * | 2021-05-26 | 2024-06-21 | 完美世界(北京)软件科技发展有限公司 | 虚拟角色的肢体动作表情包生成方法、装置及存储介质 |
CN113850893A (zh) * | 2021-11-30 | 2021-12-28 | 北京健康有益科技有限公司 | 骨骼点动作数据生成方法、装置、存储介质及电子设备 |
CN113850893B (zh) * | 2021-11-30 | 2022-02-25 | 北京健康有益科技有限公司 | 骨骼点动作数据生成方法、装置、存储介质及电子设备 |
CN114863325A (zh) * | 2022-04-19 | 2022-08-05 | 上海人工智能创新中心 | 动作识别方法、装置、设备和计算机可读存储介质 |
CN114863325B (zh) * | 2022-04-19 | 2024-06-07 | 上海人工智能创新中心 | 动作识别方法、装置、设备和计算机可读存储介质 |
CN116310012A (zh) * | 2023-05-25 | 2023-06-23 | 成都索贝数码科技股份有限公司 | 一种基于视频的三维数字人姿态驱动方法、设备及*** |
CN116310012B (zh) * | 2023-05-25 | 2023-07-25 | 成都索贝数码科技股份有限公司 | 一种基于视频的三维数字人姿态驱动方法、设备及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472497A (zh) | 一种融合旋转量的动作特征表示方法 | |
CN108764120B (zh) | 一种人体规范动作评价方法 | |
CN107679522B (zh) | 基于多流lstm的动作识别方法 | |
CN104123545B (zh) | 一种实时表情特征提取及表情识别方法 | |
CN110097639A (zh) | 一种三维人体姿态估计方法 | |
CN103035135B (zh) | 基于增强现实技术的儿童认知***及认知方法 | |
CN109308450A (zh) | 一种基于生成对抗网络的脸部变化预测方法 | |
CN108345869A (zh) | 基于深度图像和虚拟数据的驾驶人姿态识别方法 | |
CN108081266A (zh) | 一种基于深度学习的机械臂手部抓取物体的方法 | |
CN104615983A (zh) | 基于递归神经网络和人体骨架运动序列的行为识别方法 | |
CN106650687A (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
CN107150347A (zh) | 基于人机协作的机器人感知与理解方法 | |
CN105512621A (zh) | 一种基于Kinect的羽毛球动作指导*** | |
CN109858630A (zh) | 用于强化学习的方法和设备 | |
CN102184541A (zh) | 多目标优化人体运动跟踪方法 | |
CN105536205A (zh) | 一种基于单目视频人体动作感知的上肢训练*** | |
CN107293175A (zh) | 一种基于体感技术的机车手信号操作训练方法 | |
CN106210269A (zh) | 一种基于智能手机的人体动作识别***及方法 | |
CN105243375A (zh) | 一种动作特征提取方法及装置 | |
CN109815930A (zh) | 一种动作模仿拟合度评价方法 | |
CN104678766B (zh) | 仿人机械臂飞行球体作业最优击球构型一种求取方法 | |
Quan | Development of computer aided classroom teaching system based on machine learning prediction and artificial intelligence KNN algorithm | |
Liu et al. | Trampoline motion decomposition method based on deep learning image recognition | |
Gu et al. | Online teaching gestures recognition model based on deep learning | |
CN110135303B (zh) | 一种舞蹈类非遗传承与交互学习的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191119 |