CN111079547B - 一种基于手机惯性传感器的行人移动方向识别方法 - Google Patents

一种基于手机惯性传感器的行人移动方向识别方法 Download PDF

Info

Publication number
CN111079547B
CN111079547B CN201911157461.9A CN201911157461A CN111079547B CN 111079547 B CN111079547 B CN 111079547B CN 201911157461 A CN201911157461 A CN 201911157461A CN 111079547 B CN111079547 B CN 111079547B
Authority
CN
China
Prior art keywords
data
moving
moving direction
lstm
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911157461.9A
Other languages
English (en)
Other versions
CN111079547A (zh
Inventor
余佩林
郭迟
罗亚荣
苏今腾
张沪寅
雷婷婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201911157461.9A priority Critical patent/CN111079547B/zh
Publication of CN111079547A publication Critical patent/CN111079547A/zh
Application granted granted Critical
Publication of CN111079547B publication Critical patent/CN111079547B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Automation & Control Theory (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于手机惯性传感器的行人移动方向识别方法,即对行人前进、后退、左移、右移四种状态进行识别。本发明的核心是一个深度神经网络模型,该模型由三个卷积层、两个LSTM单元、一个注意力机制模块及一个全连接层构成,经过学习训练后,该模型能够有效地挖掘出传感器数据中隐含的信息,并准确地判断出行人的移动方向。本发明方法具有运算速度快、识别准确率高、不易受环境影响的优点,所需成本也较低。

Description

一种基于手机惯性传感器的行人移动方向识别方法
技术领域
本发明描述了一种基于手机惯性传感器对行人移动方向(前进、后退、左移、右移)进行识别的深度神经网络方法,属于人体行为识别领域。
背景技术
随着科技的发展,人体行为识别技术在科学研究、生产经济及生活服务中带来越来越多的效益,同时受到了越来越多的科学家、学者们的重视。目前的人体行为识别技术主要分为基于视频图像和基于惯性传感器两种。由于传感器成本低、数据量小易于计算,因此基于惯性传感器的人体行为识别方法有着很好的应用前景。然而,现有的基于惯性传感器的识别技术大都使用的是传统的机器学习方法,由于可穿戴传感器的体积、功耗等限制,采集出的数据会有较大的数据噪声,导致传统的方法无法有效地进行数据挖掘,需要人工提取传感器数据序列中的特征,并且这些特征所能表达的信息有限,最终的识别效果很低,往往要加上先验经验来辅助判断。
发明内容
本发明主要提供一个能够基于手机惯性传感器进对行人移动方向(前进、后退、左移、右移)进行识别的深度学习方法。此技术的核心是一个深度神经网络,它经过学习训练后能够有效地挖掘出传感器数据中隐含的信息,对输入的传感器数据能够准确地判定出手机携带者的步态方向。
本发明的目的在于提供一种有效的行人移动方向识别的深度学习方法,该技术能够有效地对已有数据集进行学习并对模型参数进行训练修正,训练好的模型能够在智能手机含有的惯性传感器数据中,挖掘出隐藏的特征信息,实现对手机携带者的移动方向识别。
步骤1,惯性传感器携带者使用智能设备采集训练样本数据,分别采集前进、后退、左移、右移四种行为对应的传感器数据;
步骤2,采用滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含n帧数据,且相邻样本有P%数据重叠,在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的移动方向的编号,前进、后退、左移、右移分别对应0、1、2、3;
步骤3,构建深度神经网络模型,该模型包括三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层,其中,第一、二、三个卷积层上各含有64个一维卷积核,卷积核的长度分别为25、21、21,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数为4,即对应四种移动方向;
步骤4,将步骤2生成的样本输入到步骤3构建的深度神经网络模型,设置合适的训练参数,使模型训练至收敛;
步骤5,测试用户使用带有惯性传感器的智能设备采集测试数据;
步骤6,将测试数据输入到训练好的模型中计算,得到移动方向识别结果。
进一步的,所述智能设备为智能手机。
进一步的,步骤1中采集训练样本数据时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下。
进一步的,步骤2中采用长128、步长64的滑动窗口对原始的传感器数据进行切割,生成的单个样本有128帧数据,每帧数据有6个浮点数,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
进一步的,步骤3中深度神经网络模型的处理过程如下,
设大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3;之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm被输入到注意力机制模块,进行评分加权求和,计算过程如下所示:
Figure BDA0002285182110000021
Figure BDA0002285182110000022
Figure BDA0002285182110000023
其中,
Figure BDA0002285182110000024
αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数,v、W、b为网络参数,tanh是双曲正切函数;
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对前进、后退、左移、右移这四种移动方向的预测概率。
进一步的,步骤5中采集测试数据时,测试用户携带智能手机的放置方式、采集频率与步骤1相同。
与现有技术相比,本发明具体如下优点和有益效果:
本技术利用深度学习的方法完成了对后退、左移、右移等复杂行为的识别,不仅有利于人体行为识别技术的发展,同时还能辅助室内导航定位、人的航迹推算使其更加精准。该技术与现有的技术相比,具有运算速度快、识别准确率高、不易受环境影响的优点,所需成本也较低。
附图说明
图1为本发明构建的深度神经网络模型的结构图。
图2为滑动窗口切割生成样本的示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
本发明的技术核心为一个深度神经网络模型,如图1所示,该模型由三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层构成。第一、二、三个卷积层上各含有64个一维卷积核,卷积核的长度分别为25、21、21,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数为4,即对应四种移动方向。大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3。之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm会被输入到注意力机制模块,进行评分加权求和,计算过程如下所示:
Figure BDA0002285182110000031
Figure BDA0002285182110000032
Figure BDA0002285182110000033
其中,
Figure BDA0002285182110000034
αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数(即64),v、W、b为可学习的网络参数,tanh是双曲正切函数。
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对四种移动方向(前进、后退、左移、右移)的预测概率。
在使用该模型进行移动方向识别时,主要分为以下几步。
第一步:手机携带者使用智能手机采集数据以供神经网络训练学习。采集时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下,放置好后分别采集前进、后退、左移、右移四种行为对应的数据。
第二步:用长128、步长64的滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含128帧数据,且相邻样本有50%数据重叠。在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的移动方向的编号(0前进、1后退、2左移、3右移)。如图2所示,本实施例中传感器数据序列样本是在50Hz频率下采集得到,单个样本有128帧数据,每帧数据有6个浮点数,即channel1-channel6,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
第三步:将第二步中生成的样本集喂给神经网络进行学习训练,设置合适的训练参数(学习率、训练轮数等),使模型训练至收敛。之后将训练好的模型保存至服务器后端,使其能即时对接收到的传感器数据进行计算,完成移动方向识别。
第四步:测试用户使用智能手机采集数据,手机放置方式、采集频率同第一步,采集一段长为2.56s的数据。
第五步:智能手机将数据通过网络发送至服务器并输入到模型中计算,并接受返回的移动方向识别结果。
为了验证本发明方法的有效性,采用本发明方法与现有的7种经典的机器学习方法进行对比实验,其中表1是数据集中四类样本的数量,表2是本发明与其它方法识别的精度比较(数据是将测试集输入到训练好的模型中后得出,our model对应本发明,其它7个则是经典的机器学习方法)。从表中可以看出,本发明方法的准确率远高于其他方法。
表1数据集
0(前进) 1(后退) 2(左移) 3(右移)
训练集 4543 5314 4182 3757
测试集 1063 1531 1455 1390
表2本发明方法与其它方法的准确率对比
方法 准确率(%) 方法 准确率(%)
our model 99.72 SVM 36.25
NB 37.13 LDA 32.16
GBDT 59.31 RF 94.10
AdaBoost 31.40 KNN 89.30
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (4)

1.一种基于手机惯性传感器的行人移动方向识别方法,其特征在于,包括如下步骤:
步骤1,惯性传感器携带者使用智能设备采集训练样本数据,分别采集前进、后退、左移、右移四种行为对应的传感器数据;
步骤2,采用滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含n帧数据,且相邻样本有P%数据重叠,在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的移动方向的编号,前进、后退、左移、右移分别对应0、1、2、3;
步骤2中采用长128、步长64的滑动窗口对原始的传感器数据进行切割,生成的单个样本有128帧数据,每帧数据有6个浮点数,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据;
步骤3,构建深度神经网络模型,该模型包括三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层,其中,第一、二、三个卷积层上各含有64个一维卷积核,卷积核的长度分别为25、21、21,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数为4,即对应四种移动方向;
步骤3中深度神经网络模型的处理过程如下,
设置大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3;之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm被输入到注意力机制模块,进行评分加权求和,计算过程如下所示:
Figure FDA0003668344820000011
Figure FDA0003668344820000012
Figure FDA0003668344820000013
其中,
Figure FDA0003668344820000014
αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数,v、W、b为网络参数,tanh是双曲正切函数;
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对前进、后退、左移、右移这四种移动方向的预测概率;
步骤4,将步骤2生成的样本输入到步骤3构建的深度神经网络模型,设置合适的训练参数,使模型训练至收敛;
步骤5,测试用户使用带有惯性传感器的智能设备采集测试数据;
步骤6,将测试数据输入到训练好的模型中计算,得到移动方向识别结果。
2.如权利要求1所述的一种基于手机惯性传感器的行人移动方向识别方法,其特征在于:所述智能设备为智能手机。
3.如权利要求2所述的一种基于手机惯性传感器的行人移动方向识别方法,其特征在于:步骤1中采集训练样本数据时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下。
4.如权利要求3所述的一种基于手机惯性传感器的行人移动方向识别方法,其特征在于:步骤5中采集测试数据时,测试用户携带智能手机的放置方式、采集频率与步骤1相同。
CN201911157461.9A 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人移动方向识别方法 Active CN111079547B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911157461.9A CN111079547B (zh) 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人移动方向识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911157461.9A CN111079547B (zh) 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人移动方向识别方法

Publications (2)

Publication Number Publication Date
CN111079547A CN111079547A (zh) 2020-04-28
CN111079547B true CN111079547B (zh) 2022-07-19

Family

ID=70311400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911157461.9A Active CN111079547B (zh) 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人移动方向识别方法

Country Status (1)

Country Link
CN (1) CN111079547B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111623797B (zh) * 2020-06-10 2022-05-20 电子科技大学 一种基于深度学习的步数测量方法
CN113286311B (zh) * 2021-04-29 2024-04-12 沈阳工业大学 基于多传感器融合的分布式周界安防环境感知***
CN113984078B (zh) * 2021-10-26 2024-03-08 上海瑾盛通信科技有限公司 到站提醒方法、装置、终端及存储介质
CN114638285B (zh) * 2022-02-25 2024-04-19 武汉大学 一种对手机惯性传感器数据的多模式识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345752A (zh) * 2013-06-17 2013-10-09 中国人民解放军总参谋部第六十一研究所 一种机器人与手机协作跟踪行人的方法
CN104268577A (zh) * 2014-06-27 2015-01-07 大连理工大学 一种基于惯性传感器的人体行为识别方法
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别***
CN109784280A (zh) * 2019-01-18 2019-05-21 江南大学 基于Bi-LSTM-Attention模型的人体行为识别方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373059B1 (en) * 2014-05-05 2016-06-21 Atomwise Inc. Systems and methods for applying a convolutional network to spatial data
CN109740419B (zh) * 2018-11-22 2021-03-02 东南大学 一种基于Attention-LSTM网络的视频行为识别方法
CN109740148B (zh) * 2018-12-16 2023-12-22 北京工业大学 一种BiLSTM结合Attention机制的文本情感分析方法
CN110083705B (zh) * 2019-05-06 2021-11-02 电子科技大学 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端
CN110196946B (zh) * 2019-05-29 2021-03-30 华南理工大学 一种基于深度学习的个性化推荐方法
CN110287320B (zh) * 2019-06-25 2021-03-16 北京工业大学 一种结合注意力机制的深度学习多分类情感分析模型

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345752A (zh) * 2013-06-17 2013-10-09 中国人民解放军总参谋部第六十一研究所 一种机器人与手机协作跟踪行人的方法
CN104268577A (zh) * 2014-06-27 2015-01-07 大连理工大学 一种基于惯性传感器的人体行为识别方法
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别***
CN109784280A (zh) * 2019-01-18 2019-05-21 江南大学 基于Bi-LSTM-Attention模型的人体行为识别方法

Also Published As

Publication number Publication date
CN111079547A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN111079547B (zh) 一种基于手机惯性传感器的行人移动方向识别方法
Kong et al. Sound event detection of weakly labelled data with cnn-transformer and automatic threshold optimization
Cai et al. Pedestrian motion trajectory prediction in intelligent driving from far shot first-person perspective video
Fang et al. Learning transportation modes from smartphone sensors based on deep neural network
Zhang et al. Carrying out CNN channel pruning in a white box
CN107766787A (zh) 人脸属性识别方法、装置、终端及存储介质
CN108846350A (zh) 容忍年龄变化的人脸识别方法
CN102968643B (zh) 一种基于李群论的多模态情感识别方法
CN108399435B (zh) 一种基于动静特征的视频分类方法
Wang et al. Gan-knowledge distillation for one-stage object detection
CN105956560A (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN110363077A (zh) 手语识别方法、装置、计算机装置及存储介质
CN105956517A (zh) 一种基于密集轨迹的动作识别方法
CN107133640A (zh) 基于局部图像块描述子和费舍尔向量的图像分类方法
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN112800249A (zh) 基于生成对抗网络的细粒度跨媒体检索方法
CN112258557B (zh) 一种基于空间注意力特征聚合的视觉跟踪方法
CN110929243B (zh) 一种基于手机惯性传感器的行人身份识别方法
CN110110663A (zh) 一种基于人脸属性的年龄识别方法及***
CN105609116A (zh) 一种语音情感维度区域的自动识别方法
CN110990678B (zh) 基于增强型循环神经网络的轨迹相似性计算方法
CN113705598A (zh) 数据分类方法、装置及电子设备
CN104376308A (zh) 一种基于多任务学习的人体动作识别方法
CN110084834B (zh) 一种基于快速张量奇异值分解特征降维的目标跟踪方法
CN110188791B (zh) 基于自动估计的视觉情感标签分布预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant