CN112132096B - 动态更新输出权值的随机配置网络的行为模态识别方法 - Google Patents
动态更新输出权值的随机配置网络的行为模态识别方法 Download PDFInfo
- Publication number
- CN112132096B CN112132096B CN202011062704.3A CN202011062704A CN112132096B CN 112132096 B CN112132096 B CN 112132096B CN 202011062704 A CN202011062704 A CN 202011062704A CN 112132096 B CN112132096 B CN 112132096B
- Authority
- CN
- China
- Prior art keywords
- behavior
- data
- representing
- output
- modal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000006399 behavior Effects 0.000 claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims abstract description 8
- 238000001914 filtration Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000010606 normalization Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000012847 principal component analysis method Methods 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 4
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 2
- 230000037430 deletion Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 10
- 230000007547 defect Effects 0.000 abstract description 3
- 238000013480 data collection Methods 0.000 abstract description 2
- 238000000605 extraction Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种动态更新输出权值的随机配置网络的行为模态识别方法,包括三个步骤,步骤一是人体行为模态数据集采集和预处理,利用智能手机采集各种行为模态数据,然后对数据进行滤波、归一化和分割等操作;步骤二是人体行为模态特征处理,即利用特征提取技术来获取鲁棒性强的特征集,并将其划分为训练集和测试集;步骤三是模型建立,即基于特征集利用动态更新输出权值随机配置网络去建立行为识别的模型。本发明建立的行为识别方法能够在极短的时间内对六种日常行为完成建模,从而进行识别,计算复杂度低,弥补了传统识别方法在数据处理和模型识别速度两个方面的不足,特别适合基于智能手机的快速行为模态识别领域。
Description
技术领域
本发明涉及人体行为模态识别领域,尤其是涉及一种动态更新输出权值的随机配置网络的行为模态识别方法。
背景技术
基于智能手机的人体行为识别作为一种新型的生物认证技术,是当今人体行为识别领域的一个重要研究课题,具有深远的研究意义和重要的研究价值。随着物联网技术和传感器技术的快速发展,内置了众多传感器的智能手机被广泛应用于人体行为识别领域。如:通过对智能手机的加速度传感器和陀螺仪传感器的数据进行合理分析,进而对老年人的跌倒情况进行检测,同时也可以将其用于判断人类身体的康复状况。由于传感器数据的特殊性,使其不能直接用于分类模型,需要进行一步的数据处理,但现有的处理方法大都集中在维数约简,并没有考虑到数据的相关性问题。同时,作为一种本质上就是分类问题的人体行为识别,在这个领域中传统的分类器在识别和模型训练的速度方面表现稍差。而随机配置网络作为一种快速的自学习构建网络技术被提出来,但其在求解输出权值时也存在耗时问题。
发明内容
本发明所要解决的技术问题在于克服现有技术缺陷,提供一种动态更新输出权值的随机配置网络的行为模态识别方法。
为了解决上述技术问题,本发明提供的动态更新输出权值的随机配置网络的行为模态识别方法,分别主要从数据处理和模型识别速度两方面弥补现有方法的不足。为此,所采用的技术方案如下:
步骤一,数据采集和预处理:利用智能手机的加速度传感器和陀螺仪传感器来获取人体行为数据,并对数据进行预处理,包括如下步骤:
1.1使用智能手机采集人体行为数据并经由均值滤波处理,然后得到数据集X。
1.3使用基于信息熵的滑动窗口过渡行为分割技术对归一化的数据进行分割处理,并获得最终的数据集X*。
1.3.1使用长度为L且重叠率固定的窗口对归一化的X·进行分割;
步骤二,特征处理:基于分割后的数据按照时域和频域的统计学知识提取特征集,并将其分成训练集和测试集,步骤如下:
2.2对获得的特征集使用主成分分析方法进行维数的约简,具体步骤如下:
2.2.1计算特征集的协方差矩阵,过程如下:
式中,M表示特征的总数量。
2.2.2计算协方差矩阵的特征值和特征向量;
2.2.3将协方差矩阵的特征向量按着特征值从小到大的顺序排列成矩阵形式,然后取前z行组成一个特征优化矩阵U;
2.3使用近邻成分分析的方法对降维后的特征集进行低相关性处理,步骤如下:
2.3.1利用留一法计算特征之间的相关性,公式如下:
2.4对上述获得的特征集按着一定比例随机划分为训练集和测试集。
步骤三,模型训练:使用动态更新方法去更新快速自主学习的随机配置网络的输出权值。同时,随机配置网络是一种增量式自主学习算法,它在整个学习过程不需要任何人工干预。这样极大地减少了人为影响。具体建模步骤如下:
3.1设置所建立模型的最大候选隐层节点池容量Lmax、L表示当前网络节点数、学习参数r、随机参数的分配区间上下限±λ、最大迭代次数Tmax、给定期望容差ε;
3.2在随机参数的分配区间内随机生成L个隐层节点,计算每个隐层节点输出hL是否满足如下的监督约束;
式中,m表示各人体行为识别训练集输出的维数,表示当前新增隐层节点的隐层输出,g(·)为Sigmoid函数,N表示训练集样本数,μL=1-0.999/L+1,eL-1,q表示当前隐层节点数为L-1时第q个输出所对应的残差,符号<·,·>表示向量的内积,上标“T”表示转置运算,ξL,q其表示当前隐层节点数为L时各训练集第q个输出对应的监督约束;若存在随机生成的隐层节点输出不满足监督约束,则扩大分配区间,即λ=λ+Δλ,Δλ为随机参数分配区间增量参数,随机生成Lmax个隐层节点,建立满足监督约束的候选隐层节点池;
3.4采用动态更新算法计算出当前网络模型最佳输出权值β*,即
3.5计算所述最佳候选隐层节点的残差模值:
||eL||=||T-HLβ*||
式中,eL表示当前隐层节点数为L时的残差,||·||表示二范数形式的模值,HL表示当前网络的输出矩阵。
3.6当||eL||小于给定的期望容差ε时,模型建立过程结束,否则返回3.2并以点增量的形式向网络中添加节点,即L=L+1。持续循环这种建模过程直到||eL||大于给定的期望容差ε或者L达到最大隐层节点数为止。
有益效果:从上述方案可以看出,本发明相比于现有技术具有以下优点和效果:
1、本发明使用主成分分析和近邻成分分析相结合的特征处理策略,增强了训练集和测试集的鲁棒性;
2、本发明所述的快速人体行为识别建模方法,基于动态更新方法去更新模型所需要的输出权值,这种方法大大加速了模型的训练和识别速度;
附图说明
图1为人体行为识别的流程示意图;
图2为6种行为数据采集过程演示图;
图3为本发明中随机配置网络的结构框架示意图。
具体实施方式
下面将结合附图对本发明作详细说明。
本发明的流程示意图如图1所示,通过利用智能手机获取6种人体行为数据并传输至电脑终端,然后利用均值滤波和归一化技术对数据进行处理并利用基于信息熵的滑动窗口的过渡行为处理技术删除过渡行为,进而利用特征处理技术对特征进行提取和处理,最后使用可动态更新输出权值的随机配置网络进行模型训练和测试。
本发明使用的分类模型网络结构如图3所示,它包括输入层、隐含层和输出层。
本发明提供一种基于动态更新输出权值的随机配置网络的人体行为识别方法,具体方法如下:
步骤一,数据采集和预处理。本发明利用智能手机去采集6种人体行为(跑、走、下楼、上楼、躺、坐)的加速度和陀螺仪传感器数据,人体行为数据的采集频率为50.0Hz,采集时间为10s,且通过数据流的方式将手机上的数据上传至电脑终端,用X={x1,x2,x3,x4,x5,x6}表示经均值滤波过滤后的人体行为模态数据,然后数据集X进行归一化等处理,具体步骤如下:
1.2使用基于信息熵的滑动窗口过渡行为分割技术对归一化的数据集进行分割处理步骤如下:
1.2.1使用长度为L=100且重叠率为50%的窗口对归一化的X·进行分割;
步骤二,特征处理。使用来自频域和时域的统计学知识获取到如表1所示的高维特征集,并对该特征集使用主成分分析和近邻成分分析相结合的特征处理策略进行维数约简和低相关性特征删除处理,最后将特征集分成训练集和测试集,具体步骤如下:
2.2对获得的特征集使用主成分分析方法进行维数的约简,具体步骤如下:
2.2.1计算特征集的协方差矩阵,过程如下:
式中,M表示特征的总数量。
2.2.2计算协方差矩阵的特征值和特征向量;
2.2.3将协方差矩阵的特征向量按着特征值从小到大的顺序排列成矩阵形式,然后取前z行组成一个特征优化矩阵U;
2.3使用近邻成分分析的方法对降维后的特征集进行低相关性处理,步骤如下:
2.3.1利用留一法计算特征之间的相关性,公式如下:
2.4对上述获得的特征集按着一定比例随机划分为训练集和测试集。
表1行为特征表
步骤三,模型训练。根据上一步骤所获得的训练特征集,基于动态更新输出权值的快速自主学习的随机配置网络建立行为识别的模型。同时,随机配置网络作为一种增量式自主学习算法,它在整个学习过程不需要任何人工干预,这是它与其他网络除计算速度外最大优势之处,这样极大地减少了人为影响。具体步骤如下:
3.1设置模型建立前所需要的最大候选隐层节点池容量Lmax=500、L=1、学习参数r=0.999、随机参数的分配区间集合[-λ,λ]d、最大迭代次数Tmax=20、给定期望容差ε=0.05;
3.2在随机参数的分配区间内随机生成wL和bL,计算监督指标:
式中,m表示各训练集输出的维数,表示当前新增隐层节点的隐层输出,g(·)为Sigmoid函数,N=99,μL=1-0.999/L+1,eL-1,q表示当前隐层节点数为L-1时第q个输出所对应的残差,符号<·,·>表示向量的内积,上标“T”表示转置运算,ξL,q其表示当前隐层节点数为L时各训练集第q个输出对应的监督指标;
3.4通过动态更新的方法得到所述最佳候选隐层块节点的输出权值,所述输出权值:
式中,β*表示新添加节点后的输出权值,βprevious表示新增隐层节点前的输出权值,cL=h-HL-1dL,是辅助变量,HL=[HL-1 h]表示当前隐层节点数为L时隐层输出矩阵,上标表示广义逆运算,h表示当前节点加入之后产生的隐层输出向量。
3.5计算所述最佳候选隐层节点的残差模值:
||eL||=||T-HLβ*||
式中,eL表示当前隐层节点数为L时的残差,||·||表示二范数形式的模值,整个训练集的隐层输出矩阵H为:
3.6当||eL||小于给定的期望容差ε时,模型建立过程结束,否则返回3.2并以点增量的形式向网络中添加节点,即L=L+1。持续循环这种建模过程直到||eL||大于给定的期望容差ε或者L达到最大隐层节点数为止。
步骤四,模型测试。利用测试特征集对所训练好的行为识别模型进行精度和识别时间等测试。
为了全面说明本模型在行为识别方面的性能,将该模型方法与原始学习模型在准确率、运算时间以及混沌矩阵等方面进行了对比,不同分类器的识别准确率结果如下表2所示,表3展示了2种分类器的建模所需时间,从这两表中我们可以看出,本发明所提出的分类器模型在识别率方面优于原始分类器模型,且具有最少的运算时间,这一特点也是的它更适合快速的行为识别。
表2 2种分类器的识别率
表3分类建模所需时间
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下还可以做出若干改进,这些改进也应视为本发明的保护范围。
Claims (9)
1.一种动态更新输出权值的随机配置网络的行为模态识别方法,其特征在于,包括如下步骤:
步骤一,人体行为模态数据集采集和预处理:利用智能手机采集人体行为数据,并利用均值滤波与归一化对其进行处理,然后在基于信息熵来识别并删除人体行为过渡模态数据,从而获得人体行为模态数据集X*;
步骤三,模型建立:采用基于动态更新输出权值的随机配置网络建立人体行为识别模型,包括以下步骤:
3.1设置所建立模型的最大候选隐层节点池容量Lmax、L表示当前网络节点数、学习参数r、随机参数的分配区间上下限±λ、最大迭代次数Tmax、给定期望容差ε;
3.2在随机参数的分配区间内随机生成L个隐层节点,计算每个隐层节点输出hL是否满足如下的监督约束;
式中,m表示各人体行为识别训练集输出的维数,表示当前新增隐层节点的隐层输出,g(·)为Sigmoid函数,N表示训练集样本数,μL=1-0.999/L+1,eL-1,q表示当前隐层节点数为L-1时第q个输出所对应的残差,符号<·,·>表示向量的内积,上标“T”表示转置运算,ξL,q其表示当前隐层节点数为L时各训练集第q个输出对应的监督约束;若存在随机生成的隐层节点输出不满足监督约束,则扩大分配区间,即λ=λ+Δλ,Δλ为随机参数分配区间增量参数,随机生成Lmax个隐层节点,建立满足监督约束的候选隐层节点池;
3.4采用动态更新算法计算出当前网络模型最佳输出权值β*,即
3.5计算所述最佳候选隐层节点的残差模值:
||eL||=||T-HLβ*||
式中,eL表示当前隐层节点数为L时的残差,||·||表示二范数形式的模值,HL表示当前网络的输出矩阵;
3.6当||eL||小于给定的期望容差ε时,模型建立过程结束,否则返回3.2并以点增量的形式向网络中添加节点,即L=L+1;持续循环这种建模过程直到||eL||大于给定的期望容差ε或者L达到最大隐层节点数为止。
2.根据权利要求1所述的动态更新输出权值的随机配置网络的行为模态识别方法,其特征在于:在所述步骤一中,利用智能手机的加速度传感器和陀螺仪传感器采集人体行为模态数据。
6.根据权利要求1所述的动态更新输出权值的随机配置网络的行为模态识别方法,其特征在于:在所述步骤二中,采用主成分分析方法剔除冗余特征。
8.根据权利要求7所述的动态更新输出权值的随机配置网络的行为模态识别方法,其特征在于:在所述步骤二中,采用近邻成分分析的方法对降维后的特征集进行低相关性处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011062704.3A CN112132096B (zh) | 2020-09-30 | 2020-09-30 | 动态更新输出权值的随机配置网络的行为模态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011062704.3A CN112132096B (zh) | 2020-09-30 | 2020-09-30 | 动态更新输出权值的随机配置网络的行为模态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112132096A CN112132096A (zh) | 2020-12-25 |
CN112132096B true CN112132096B (zh) | 2021-05-14 |
Family
ID=73843564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011062704.3A Active CN112132096B (zh) | 2020-09-30 | 2020-09-30 | 动态更新输出权值的随机配置网络的行为模态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132096B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113359470B (zh) * | 2021-07-05 | 2023-08-11 | 沈阳工业大学 | 康复机器人抑制结构变化的指定暂态时间稳定控制方法 |
CN115273237B (zh) * | 2022-08-01 | 2024-01-30 | 中国矿业大学 | 基于集成随机配置神经网络的人体姿态与动作识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635337A (zh) * | 2018-11-13 | 2019-04-16 | 中国矿业大学 | 一种基于块增量随机配置网络的工业过程软测量建模方法 |
CN110110625A (zh) * | 2019-04-24 | 2019-08-09 | 北方工业大学 | Sar图像目标识别方法及装置 |
CN110674875A (zh) * | 2019-09-25 | 2020-01-10 | 电子科技大学 | 一种基于深度混合模型的行人运动模式识别方法 |
CN110807510A (zh) * | 2019-09-24 | 2020-02-18 | 中国矿业大学 | 面向工业大数据的并行学习软测量建模方法 |
-
2020
- 2020-09-30 CN CN202011062704.3A patent/CN112132096B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635337A (zh) * | 2018-11-13 | 2019-04-16 | 中国矿业大学 | 一种基于块增量随机配置网络的工业过程软测量建模方法 |
CN110110625A (zh) * | 2019-04-24 | 2019-08-09 | 北方工业大学 | Sar图像目标识别方法及装置 |
CN110807510A (zh) * | 2019-09-24 | 2020-02-18 | 中国矿业大学 | 面向工业大数据的并行学习软测量建模方法 |
CN110674875A (zh) * | 2019-09-25 | 2020-01-10 | 电子科技大学 | 一种基于深度混合模型的行人运动模式识别方法 |
Non-Patent Citations (3)
Title |
---|
Non-linear Neighborhood Component Analysis Based on Constructive Neural Networks;Chen Qin;《2014 IEEE International Conference on Systems》;20141031;正文1997-2002页 * |
基于机器学习的文本分类算法研究与应用;王静;《中国优秀硕士学位论文全文数据库 信息科技辑,第I138-8004页》;20160315;3.2.2节 * |
基于统计分析的分布式流量异常检测;徐江平;《中国优秀硕士学位论文全文数据库 信息科技辑,第I139-41页》;20160215;4.1节 * |
Also Published As
Publication number | Publication date |
---|---|
CN112132096A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108231201B (zh) | 一种疾病数据分析处理模型的构建方法、***及应用方法 | |
CN110609891B (zh) | 一种基于上下文感知图神经网络的视觉对话生成方法 | |
CN110084610B (zh) | 一种基于孪生神经网络的网络交易欺诈检测*** | |
CN111026875A (zh) | 一种基于实体描述和关系路径的知识图谱补全方法 | |
CN112132096B (zh) | 动态更新输出权值的随机配置网络的行为模态识别方法 | |
CN111985601A (zh) | 用于增量学习的数据识别方法 | |
CN111915022B (zh) | 滑移式岩溶危岩稳定系数快速识别的高斯过程方法及装置 | |
CN114548591A (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及*** | |
CN112529638A (zh) | 基于用户分类和深度学习的服务需求动态预测方法及*** | |
CN114220164A (zh) | 一种基于变分模态分解和支持向量机的手势识别方法 | |
CN113535928A (zh) | 基于注意力机制下长短期记忆网络的服务发现方法及*** | |
CN116883746A (zh) | 一种基于分区池化超图神经网络的图节点分类方法 | |
CN114036947B (zh) | 一种半监督学习的小样本文本分类方法和*** | |
CN116646927A (zh) | 一种基于分段滤波与纵横聚类的风电功率预测方法 | |
CN116226629A (zh) | 一种基于特征贡献的多模型特征选择方法及*** | |
CN113807005B (zh) | 基于改进fpa-dbn的轴承剩余寿命预测方法 | |
CN112149311B (zh) | 一种基于数量规约的非线性多元统计回归测井曲线预测方法 | |
US20230394304A1 (en) | Method and Apparatus for Neural Network Based on Energy-Based Latent Variable Models | |
CN112348275A (zh) | 一种基于在线增量学习的区域生态环境变化预测方法 | |
CN109063722B (zh) | 一种基于机会感知的行为识别方法和*** | |
CN110889396A (zh) | 能源互联网扰动分类方法、装置、电子设备和存储介质 | |
CN113688229B (zh) | 一种文本推荐方法、***、存储介质和设备 | |
CN116561528B (zh) | 一种旋转机械的rul预测方法 | |
CN114764423B (zh) | 一种测井智能解释*** | |
CN114462476A (zh) | 一种基于进化算法和lstm的时间序列特征生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |