CN110399538A - 一种用户账号的识别方法及相关设备 - Google Patents

一种用户账号的识别方法及相关设备 Download PDF

Info

Publication number
CN110399538A
CN110399538A CN201910687567.3A CN201910687567A CN110399538A CN 110399538 A CN110399538 A CN 110399538A CN 201910687567 A CN201910687567 A CN 201910687567A CN 110399538 A CN110399538 A CN 110399538A
Authority
CN
China
Prior art keywords
user account
vector
character
target
command object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910687567.3A
Other languages
English (en)
Other versions
CN110399538B (zh
Inventor
陈洁远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910687567.3A priority Critical patent/CN110399538B/zh
Publication of CN110399538A publication Critical patent/CN110399538A/zh
Application granted granted Critical
Publication of CN110399538B publication Critical patent/CN110399538B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • G06F16/90344Query processing by using string matching techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提供了一种用户账号的识别方法及相关设备,可以提高用户账号识别的准确率。该方法包括:获取目标命令会话;对目标命令会话进行预处理,以得到目标命令会话对应的目标字符向量;将目标字符向量输入目标命令风格模型,以得到第一用户账号为N个用户账号中每个用户账号的目标概率值,N个用户账号为有权限输入命令会话的用户账号,该目标命令风格模型为通过对N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的;将目标概率值中大于预设值的概率值对应的目标用户账号与第一用户账号进行匹配;当目标用户账号与第一用户账号匹配不成功时,发出提示信息。

Description

一种用户账号的识别方法及相关设备
技术领域
本申请涉及通信技术领域,尤其涉及一种用户账号的识别方法及相关设备。
背景技术
在Linux***或者Windows***中进行命令会话输入时,不同的用户有不同的命令会话风格。
目前通过命令会话风格对用户账号进行识别,主要通过统计一些关键命令的频次,作为用户命令风格的特征,同时在出现命令会话的变种形式的时候,需要将新命令会话加入词库并重新训练模型。
这样就导致了,识别用户账号的准确率不高,且由于会经常出现新的命令,则需要重新训练模型,需要耗费大量的时间。
发明内容
本申请提供了一种用户账号的识别方法及相关设备,可以提高用户账号识别的准确率。
本申请实施例第一方面提供一种用户账号的识别方法,所述方法包括:
获取目标命令会话,所述目标命令会话为第一用户账号对应的命令会话;
对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量;
将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值,所述N个用户账号为有权限输入命令会话的用户账号,所述目标命令风格模型为通过对N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的,其中,N为大于或等于1的正整数;
将所述目标概率值中大于预设值的概率值对应的目标用户账号与所述第一用户账号进行匹配;
当所述目标用户账号与所述第一用户账号匹配不成功时,发出提示信息。
可选地,所述对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量包括:
对所述目标命令会话进行切分,得到至少一个命令字符;
过滤所述至少一个命令字符中的非法字符;
将过滤非法字符后的所述至少一个命令字符转换为统一格式的目标字符;
对所述目标字符进行向量化处理,得到所述目标字符向量。
可选地,所述将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值之前,所述方法还包括:
步骤1、将目标命令字符对应的向量输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量,所述目标命令字符为第二用户账号的命令会话中的t时刻的命令字符,所述第二用户账号为所述N个用户账号中的任意一个用户账号;
步骤2、将所述目标隐藏状态向量输入注意力层,以得到所述目标命令字符对应的会话风格向量;
步骤3、将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值;
步骤4、根据所述第二用户账号为所述N个用户账号中每个用户账号的概率值修改所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数;
步骤5、迭代执行步骤1至步骤4,直至达到预置的迭代终止条件;
步骤6、将达到所述预置的迭代终止条件时的初始命令风格模型确定为所述目标命令风格模型,所述初始命令风格模型包括所述GRU模块、所述注意力层以及所述分类器。
可选地,所述将目标命令字符输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量包括:
获取t时刻所述GRU模块的内部向量、t-1时刻的隐藏状态向量、所述GRU模块的门参数;
根据所述目标命令字符、所述GRU模块的内部向量、所述t-1时刻的隐藏状态向量以及所述GRU模块的门参数确定所述目标隐藏状态向量。
可选地,所述将所述目标隐藏状态向量输入注意力层,得到所述目标命令字符对应的会话风格向量包括:
获取t时刻所述注意力层的参数;
根据所述注意力层的参数以及所述目标隐藏状态向量确定所述目标隐藏状态向量的权重;
对所述目标隐藏状态向量的权重进行归一化处理,得到归一化后所述目标隐藏状态向量的权重;
根据归一化处理后所述目标隐藏状态向量的权重以及所述目标隐藏状态向量确定所述会话风格向量。
可选地,所述将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值包括:
获取t时刻所述分类器的参数;
根据所述分类器的参数以及所述会话风格向量确定所述第二用户账号为所述N个用户账号中每个用户账号的概率值。
可选地,所述方法还包括:
判断迭代次数是否达到预置数值,若是,则确定满足所述预置的迭代终止条件;
或,
判断所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数的是否收敛,若是,则确定满足所述预置的迭代终止条件。
本申请实施例第二方面提供了一种用户账号的识别装置,包括:
获取单元,用于获取目标命令会话,所述目标命令会话为第一用户账号对应的命令会话;
预处理单元,用于对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量;
识别单元,用于将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值,所述N个用户账号为有权限输入命令会话的用户账号,该目标命令风格模型为通过对N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的,其中,N为大于或等于1的正整数;
匹配单元,用于将所述目标概率值中大于预设值的概率值对应的目标用户账号与所述第一用户账号进行匹配;
提示单元,用于当所述目标用户账号与所述第一用户账号匹配不成功时,发出提示信息。
可选地,所述预处理单元具体用于:
对所述目标命令会话进行切分,得到至少一个命令字符;
过滤所述至少一个命令字符中的非法字符;
将过滤非法字符后的所述至少一个命令字符转换为统一格式的目标字符;
对所述目标字符进行向量化处理,得到所述目标字符向量。
可选地,所述用户账号的识别装置还包括:
训练单元,所述训练单元用于执行如下步骤:
步骤1、将目标命令字符对应的向量输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量,所述目标命令字符为第二用户账号的命令会话中的t时刻的命令字符,所述第二用户账号为所述N个用户账号中的任意一个用户账号;
步骤2、将所述目标隐藏状态向量输入注意力层,以得到所述目标命令字符对应的会话风格向量;
步骤3、将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值;
步骤4、根据所述第二用户账号为所述N个用户账号中每个用户账号的概率值修改所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数;
步骤5、迭代执行步骤1至步骤4,直至达到预置的迭代终止条件;
步骤6、将达到所述预置的迭代终止条件时的初始命令风格模型确定为所述目标命令风格模型,所述初始命令风格模型包括所述GRU模块、所述注意力层以及所述分类器。
可选地,所述训练单元将目标命令字符输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量包括:
获取t时刻所述GRU模块的内部向量、t-1时刻的隐藏状态向量、所述GRU模块的门参数;
根据所述目标命令字符、所述GRU模块的内部向量、所述t-1时刻的隐藏状态向量以及所述GRU模块的门参数确定所述目标隐藏状态向量。
可选地,所述训练单元将所述目标隐藏状态向量输入注意力层,得到所述目标命令字符对应的会话风格向量包括:
获取t时刻所述注意力层的参数;
根据所述注意力层的参数以及所述目标隐藏状态向量确定所述目标隐藏状态向量的权重;
对所述目标隐藏状态向量的权重进行归一化处理,得到归一化后所述目标隐藏状态向量的权重;
根据归一化处理后所述目标隐藏状态向量的权重以及所述目标隐藏状态向量确定所述会话风格向量。
可选地,所述训练单元将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值包括:
获取t时刻所述分类器的参数;
根据所述分类器的参数以及所述会话风格向量确定所述第二用户账号为所述N个用户账号中每个用户账号的概率值。
可选地,所述训练单元还用于:
判断迭代次数是否达到预置数值,若是,则确定满足所述预置的迭代终止条件;
或,
判断所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数的是否收敛,若是,则确定满足所述预置的迭代终止条件。
本申请实施例第三方面提供了一种计算机装置,其包括至少一个连接的处理器、存储器和收发器,其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中的程序代码来执行上述各方面所述的操作。
本申请实施例第四方面提供了一种计算机存储介质,其包括指令,当其在计算机上运行时,使得计算机执行上述各方面所述的操作。
综上所述,可以看出,本申请提供的实施例中,可以将目标会话命令进行预处理得到目标字符向量,之后将目标字符向量输入预先训练好的目标命令风格模型,得到第一用户账号为N个用户账号中每个用户账号的目标概率值,将目标概率值中大于预设值的概率值对应的目标用户账号与第一用户账号进行匹配,且当目标用户账号与第一用户账号匹配不成功时,发出提示信息。由此,相对于现有技术来说,本申请通过目标命令风格模型对转换成字符向量进行识别,识别用户账号更加准确,且该目标风格模型是也是通过字符向量进行训练得到的,而不是如现有的需要不停的加入新的命令会话,重复的训练模型,减少时间的耗费。
附图说明
图1为本申请实施例提供的命令风格模型的网络结构拓扑图:
图2为本申请实施例提供的GRU模块的内部结构示意图;
图3为本申请实施例提供的RNN的网络结构图;
图4为本申请实施例提供的用户账号的识别方法的流程示意图;
图5为本申请实施例提供的用户账号的识别装置的虚拟结构示意图;
图6为本申请实施例提供的服务器的硬件结构示意图。
具体实施方式
本申请供了一种用户账号的识别方法及相关设备,可以提示用户账号识别的准确率。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个***中,或一些特征可以忽略,或不执行,另外,所显示的或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块之间的间接耦合或通信连接可以是电性或其他类似的形式,本申请中均不作限定。并且,作为分离部件说明的模块或子模块可以是也可以不是物理上的分离,可以是也可以不是物理模块,或者可以分布到多个电路模块中,可以根据实际的需要选择其中的部分或全部模块来实现本申请方案的目的。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
首先对本申请涉及的一些名词进行说明:
UEBA(User Entity Behavior Analytics,用户实体行为分析),本申请中特指用户在服务器环境下的一系列命令会话行为的分析。
命令执行人:每段会话会有一个唯一的执行人,用于标识会话的执行人身份。
GRU(Gated Recurrent Unit,门控循环单元),GRU是一种变形的RNN(循环神经网络,Recurrent Neural Network)网络结构,不仅有效解决了传统RNN的梯度弥散和梯度***问题,并且对于隐藏状态的学习也更加快速,其结构相比与LSTM(Long Short-TermMemory,长短期记忆网络)更加简单,训练速度更快。
请参阅图1,图1为本申请实施例提供的命令风格模型的网络结构拓扑图,该命令风格模型是通过机器学习的方式得到的一个模型,该命令风格模型包括第一GRU模块101、第二GRU模块102、Attention层103以及Softmax层104,此处以命令风格模型网络结构包括两层GRU模块为例进行说明,当然也还可能包括多个,例如三层GRU模块,具体不做限定,另外,图1中的105为不同时刻的命令字符向量,也即命令风格模型的输入。下面结合图1对命令风格模型中各个组成部分进行说明:
第一层GRU模块101:GRU是一种变形的RNN网络结构,不仅有效解决了传统RNN的梯度弥散和梯度***问题,并且对于隐藏状态的学习也更加快速,结构相比与LSTM(LongShort-Term Memory,长短期记忆网络)更加简单,训练速度更快。选用单向模型是因为考虑到命令执行人的实时判别时命令还未完全输入,无法知道后续命令,因此反向GRU模型在实时任务中无法进行预测。
第二层GRU模块102:第二GRU模块将第一层GRU模块的输出向量作为第二层GRU的输入向量,得到第二层GRU的隐藏状状态向量。
请参阅图2,图2为本申请实施例提供的GRU模块的内部结构示意图,其中xt为t时刻的输入向量,ht-1为t-1时刻的隐藏状态向量,ht为t时刻输出的隐藏状态向量,rt,zt均为GRU内部向量,分别是遗忘门输出,更新门输出以及内存向量。
Attention层103:RNN结构会倾向于记住后面的输入内容,因此为了更好地表达整段命令会话的风格,借助于Attention机制,将不同时刻的隐藏状态组合起来,得到最终的会话风格向量s。
Softmax层104:得到了命令会话的风格向量s后,通过Softmax层,判断该段命令会话为命令执行人i的概率值。也就是说,该命令风格模型的输入为用户账户的命令会话对应的字符向量的字符向量,输出为该命令会话对应的字符向量为命令执行人i的概率,其中,命令执行人i为N个用户账户中的任意一个,N个用户账户为命令***中有权限输入命令会话的用户账户。
下面结合图3对RNN进行说明,请参阅图3,图3为本申请实施例提供的RNN的网络结构图,RNN是一种节点定向连接成环的人工神经网络,这种网络的内部状态可以展示动态时序行为,RNN可以利用它内部的记忆来处理任意时序的输入序列,这让它可以更容易处理如不分段的手写识别、语音识别等,它的每一层不仅输出给下一层,同时还输出一个隐状态,给当前层在处理下一个样本时使用,RNN可以扩展到更长的序列数据,而且大多数的RNN可以处理序列长度不同的数据,RNN可以看作是带自循环反馈的全连接神经网络,如图3所示,RNN主要有输入层Output Layer,隐藏层Hidden Layer,输出层Input Layer组成,HiddenLayer有一个箭头表示数据的循环更新。
下面从用户账号的识别装置的角度对本申请实施例提供的用户账号的识别方法进行说明,该用户账号的识别装置可以为服务器也可以为服务器中的服务单元,具体不做限定。
请参阅图4,图4为本申请实施例提供的用户账号的识别方法的流程示意图,包括:
401、获取目标命令会话。
本实施例中,用户账号的识别装置可以获取到目标命令会话。也就是说,当用户在Linux***或者Windows***中进行命令输入时,用户账号的识别装置可以获取到该目标命令会话,该目标命令会话为第一用户账号对应的命令会话。
402、对目标命令会话进行预处理,以得到目标命令会话对应的目标字符向量。
本实施例中,用户账号的识别装置可以对目标命令会话进行预处理,以得到目标命令会话对应的目标字符向量。具体的:
对目标命令会话进行切分,得到至少一个命令字符;
过滤至少一个命令字符中的非法字符;
将过滤非法字符后的至少一个命令字符转换为统一格式的目标字符;
对目标字符进行向量化处理,得到目标字符向量。
也就是说,可以首先对目标命令会话进行切分,得到至少一个命令字符,具体的可以通过NLP对目标命令会话进行切分得到至少一个命令字符,之后,过滤掉至少一个命令字符中的非法字符(此处在过滤的过程中,通过ASCII(American Standard Code forInformation Interchange,美国信息交换标准代码)对至少一个命令字符中的非法字符,例如汉字进行过滤),并将过滤非法字符后的至少一个命令字符转换为统一格式的目标字符(具体的,可以将过滤非法字符后的至少一个命令字符全部转换为ASCII码,得到目标字符),之后,对目标字符进行向量化处理,得到目标字符向量。
需要说明的是,上述以ASCII为例进行说明,当然也还可以是其他的标准代码格式,只要能将至少一个命令字符中的非法字符过滤以及将过滤非法字符后的至少一个命令字符转换为统一格式即可,具体不做限定。
需要说明的是,可以对N个用户账号进行编码,作为每次命令输入的用户标识,此处具体不限定编码的方式。
403、将目标字符向量输入目标命令风格模型,以得到第一用户账号为N个用户账号中每个用户账号的目标概率值。
本实施例中,用户账号的识别装置可以将目标字符向量输入预先训练好的目标命令风格模型,以得到第一用户账号为N个用户账号中每个用户账号的目标概率值,该N个用户账号中每个用户账号对应的概率值,其中,该N个用户账号为有权限输入命令会话的用户账号。该目标命令风格模型为通过RNN或者卷积神经网络(Convolutional NeuralNetworks,CNN)对N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的,其中,N为大于或等于1的正整数。
下面对目标命令风格模型的训练过程进行说明:
步骤1、将目标命令字符输入到GRU模块,得到目标命令字符对应的目标隐藏状态向量。
本实施例中,可以首先获取N个用户账号中的任意一个用户账号的命令会话,并将该命令会话进行预处理(该预处理过程上述步骤402中已经进行了详细描述,此处不再赘述),得到预处理后的目标命令字符对应的向量,并将该目标命令字符对应的向量输入到GRU模块,得到目标命令字符对应的目标隐藏状态向量,其中,该目标命令字符为第二用户账号的命令会话中t时刻的命令字符,该第二用户账号为N个用户账号中的任意一个用户账号。
需要说明的是,此处以两层GRU模块为例进行说明,第一层GRU模块以及第二层GRU模块,其中第一层GRU模块的输出向量作为第二层GRU模块的输入向量,其中,该第一层GRU模块以及第二层GRU模块中至少包括一个GRU模块,每一层中,上一时刻GRU模块的输出向量作为当前时刻的GRU模块的输入向量,此处具体不限定每一层中不同时刻的GRU模块的分配方式,例如可以将多个不同时刻对应同一GRU模块,也可以每个时刻对应一个GRU模块。
在一个实施例中,将目标命令字符输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量包括:
获取t时刻GRU模块的内部向量、t-1时刻的隐藏状态向量、GRU模块的门参数;
根据目标命令字符、GRU模块的内部向量、t-1时刻的隐藏状态向量以及GRU模块的门参数确定目标隐藏状态向量。
本实施例中,对于第一层GRU模块来说,可以通过如下公式对目标命令字符、GRU模块的内部向量、t-1时刻的隐藏状态向量以及GRU模块的门参数进行计算,得到隐藏向量:
zt=σ(Wzxt+Uzht-1);
rt=σ(Wrxt+Urht-1);
其中,xt为t时刻GRU模块的输入向量(也即目标命令字符对应的向量),ht-1为t-1时刻GRU模块的隐藏状态向量,ht为t时刻GRU模块输出的隐藏状态向量,rt,zt均为GRU模块的内部向量,分别是遗忘门输出,更新门输出以及内存向量,Wzxt为更新门的矩阵乘法,Wzxt为遗忘门的矩阵乘法,*表示按位相乘,W,U为不同门的参数,Wz,Uz为更新门的参数,Wr,Ur为更新门的参数,σ为非线性函数,初始时,GRU模块的所有参数均为随机配置。
对于第二GRU模块来说,将第一层GRU的输出ht作为第二层GRU的输入向量,即利用上述的公式,得到第二次GRU的隐藏向量
也就是说,可以将目标命令字符映射为一个矩阵X,其中X的每一行向量Xc代表一个目标命令字符c的向量。随着该命令会话的输入,t时刻的输入xt为该时刻的字符c所对应的字符向量Xc
步骤2、将目标隐藏状态向量输入注意力层,以得到目标命令字符对应的会话风格向量。
本实施例中,可以将目标隐藏状态向量输入注意力层,得到目标命令字符对应的会话风格向量。具体如下:
获取t时刻注意力层的参数;
根据注意力层的参数以及目标隐藏状态向量确定所述目标隐藏状态向量的权重;
对目标隐藏状态向量的权重进行归一化处理,得到归一化后的目标隐藏状态向量的权重;
根据归一化处理后的隐藏向量的权重以及目标隐藏状态向量确定会话风格向量。
也就是说,对于注意力Attention层来说,RNN会倾向于记住后面的输入内容,因此为了更好地表达整段命令会话的风格,可以借助于Attention机制,将不同时刻的隐藏状态组合起来,得到最终的会话风格向量s。
具体的,可以首先获取t时刻注意力层的参数Wa,ba,之后,计算目标隐藏状态向量的权重,之后对权重进行归一化处理,并根据归一化处理后的权重以及目标隐藏状态向量得到会话风格向量,公式如下:
其中Wa,ba为注意力层的参数,ut为权重参数,ut′为ut的导数,αt为归一化后的权重参数,t′为t时刻的导数,μa可认为是统一的风格特征表达,表示μa的转置,为目标隐藏状态向量,s为目标命令字符对应的会话风格向量。
步骤3、将会话风格向量输入分类器得到第二用户账号为N个用户账号中每个用户账号的概率值。
本实施例中,在得到会话风格向量之后,可以获取t时刻分类器的参数,并根据分类器的参数以及会话风格向量确定第二用户账号为N个用户账号中每个用户账号的概率值。具体的,可以通过如下公式来计算第二用户账号为N个用户账号中每个用户账号的概率值:
logits=σ(Wss+bs);
其中Ws,bs为分类器(也即图1中的Softmax层)的参数,logits为中间变量,s为会话风格向量,probi为该第一用户账户为N个用户账号中的第i个用户账号的概率值。
需要说明的是,该GRU模块、注意力层以及分类器均为初始命令风格模型中的组成部分。
步骤4、根据第二用户账号为N个用户账号中每个用户账号的概率值修改GRU模块的参数、注意力层的参数以及分类器的参数。
本实施例中,在得到第二用户账号为N个用户账号中每个用户账号的概率值之后,可以基于该概率值通过反向传播算法修改GRU模块的参数、注意力层的参数以及分类器的参数。例如GRU模块中的rt,ztW,U等参数,注意力层的Wa,ba参数以及分类器的Ws,bs参数。
步骤5、迭代执行步骤1至步骤4,直至达到预置的迭代终止条件。
本实施例中,可以在每次迭代之后,判断迭代次数是否达到预置数值,若是,则确定满足预置的迭代终止条件;或,判断GRU模块的参数、注意力层的参数以及分类器的参数是否收敛,若是,则确定满足预置的迭代终止条件。
步骤6、将达到预置的迭代终止条件时的初始命令风格模型确定为目标命令风格模型。
通过上述步骤1至步骤6训练得到目标命令风格模型,进而可以将目标字符向量输入目标命令风格模型,得到第一用户账号为N个用户账号中每个用户账号的目标概率值。
404、将目标概率值中概率值大于预设值的概率值对应的目标用户账号与第一用户账号进行匹配。
本实施例中,在得到第一用户账号为N个用户账号中每个用户账号的目标概率值之后,可以提取目标概率值中大于预设值的概率值对应的目标用户账号,并将目标用户账号与第一用户账号进行匹配。
405、当目标用户账号与第一用户账号匹配不成功时,发出提示信息。
本实施例中,当目标用户账号与第一用户账号匹配不成功时,发出提示信息,说明当前命令会话对应的字符向量的命令执行人,不是该第一用户账号的所有人,有可能是黑客冒用账号,则发出提示信息,以触发告警,并通知安全人员跟进查看。
需要说明的是,当目标用户账号与第一用户账号匹配成功时,可以确定该目标命令会话即为第一用户账号的所有人输入的命令会话,则不执行告警操作。
需要说明的是,该提示信息可以是声音、图像、文字等信息,具体不做限定,只要能起到提示作用即可。
综上所述,可以看出,本申请提供的实施例中,可以将目标会话命令进行预处理得到目标字符向量,之后将目标字符向量输入预先训练好的目标命令风格模型,得到第一用户账号为N个用户账号中每个用户账号的目标概率值,将目标概率值中大于预设值的概率值对应的目标用户账号与第一用户账号进行匹配,且当目标用户账号与第一用户账号匹配不成功时,发出提示信息。由此,相对于现有技术来说,本申请通过目标命令风格模型对转换成字符向量进行识别,识别用户账号更加准确,且该目标风格模型是也是通过字符向量进行训练得到的,而不是如现有的需要不停的加入新的命令会话,重复的训练模型,减少时间的耗费。
下面以用户通过账号登录Linux***为例结合具体的应用场景进行说明:
用户A在通过第一用户账号登录Linux***以输入目标命令会话,例如find/var/log-type f-mtime+7-ok rm{},该目标命令会话的意思是说“查找/var/log目录中更改时间在7日以前的普通文件,并在删除它们之前询问”,用户账号的识别装置可以获取到该目标命令会话。
之后,用户账号的识别装置可以对目标命令会话进行预处理,具体为:对目标命令会话进行切分,并过两次其中的非法字符,转换为统一格式的目标字符,之后,得到目标字符向量{find,/,var,/,log,-,type,f,-,mtime,+,7,-,ok,rm}。
将该目标字符向量输入命令风格模型里面,该命令风格模型为通过对所有登录Linux提供的用户的命令会话对应的命令字符向量进行训练得到的,因此可以得到第一用户账号为所有登录该Linux***的用户账号的概率值,假设所有登录该Linux***用户账号为A,B,C,D,E五个账号,通过命令风格模型得到用户账号A为第一用户账号的概率为10%,用户账号B为第一用户账号的概率值为30%,用户账号C为第一用户账号的概率值为95%,用户账号C为第一用户账号的概率值为50,用户账号D为第一用户账号的概率值为75,用户账号E为第一用户账号的概率值为58%,若该预设值为90%,则用户识别装置可以判断该用户账号C与第一用户账号是否匹配成功,若匹配不成功,则说明可能是黑客盗用该第一用户账号进行的输入,则发出提示信息,以起到警示用户的作用。本申请中通过目标命令风格模型对转换成字符向量的命令会话进行识别,以字符级别的模型来进行识别,可以提高识别用户账号的准确率。
上面从一种用户账号的识别方法的角度对本申请实施例进行描述,下面从一种用户账号的识别装置的角度对本申请实施例进行描述。
请参阅图5,图5为本申请实施例中用户账号的识别装置的虚拟结构示意图,该用户账号的识别装置包括:
获取单元501,用于获取目标命令会话,所述目标命令会话为第一用户账号对应的命令会话;
预处理单元502,用于对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量;
识别单元503,用于将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值,所述N个用户账号为有权限输入命令会话的用户账号,所述目标命令风格模型为通过对N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的,其中,N为大于或等于1的正整数;
匹配单元504,用于将所述目标概率值中大于预设值的概率值对应的目标用户账号与所述第一用户账号进行匹配;
提示单元505,用于当所述目标用户账号与所述第一用户账号匹配不成功时,发出提示信息。
可选地,所述预处理单元502具体用于:
对所述目标命令会话进行切分,得到至少一个命令字符;
过滤所述至少一个命令字符中的非法字符;
将过滤非法字符后的所述至少一个命令字符转换为统一格式的目标字符;
对所述目标字符进行向量化处理,得到所述目标字符向量。
可选地,所述用户账号的识别装置还包括:
训练单元506,所述训练单元506用于执行如下步骤:
步骤1、将目标命令字符对应的向量输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量,所述目标命令字符为第二用户账号的命令会话中的t时刻的命令字符,所述第二用户账号为所述N个用户账号中的任意一个用户账号;
步骤2、将所述目标隐藏状态向量输入注意力层,以得到所述目标命令字符对应的会话风格向量;
步骤3、将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值;
步骤4、根据所述第二用户账号为所述N个用户账号中每个用户账号的概率值修改所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数;
步骤5、迭代执行步骤1至步骤4,直至达到预置的迭代终止条件;
步骤6、将达到预置的迭代终止条件时的所述初始命令风格模型确定为所述目标命令风格模型,所述初始命令风格模型包括所述GRU模块、所述注意力层以及所述分类器。
可选地,所述训练单元506将目标命令字符输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量包括:
获取t时刻所述GRU模块的内部向量、t-1时刻的隐藏状态向量、所述GRU模块的门参数;
根据所述目标命令字符、所述GRU模块的内部向量、所述t-1时刻的隐藏状态向量以及所述GRU模块的门参数确定所述目标隐藏状态向量。
可选地,所述训练单元506将所述目标隐藏状态向量输入注意力层,得到所述目标命令字符对应的会话风格向量包括:
获取t时刻所述注意力层的参数;
根据所述注意力层的参数以及所述目标隐藏状态向量确定所述目标隐藏状态向量的权重;
对所述目标隐藏状态向量的权重进行归一化处理,得到归一化后所述目标隐藏状态向量的权重;
根据归一化处理后所述目标隐藏状态向量的权重以及所述目标隐藏状态向量确定所述会话风格向量。
可选地,所述训练单元506将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值包括:
获取t时刻所述分类器的参数;
根据所述分类器的参数以及所述会话风格向量确定所述第二用户账号为所述N个用户账号中每个用户账号的概率值。
可选地,所述训练单元506还用于:
判断迭代次数是否达到预置数值,若是,则确定满足所述预置的迭代终止条件;
或,
判断所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数的是否收敛,若是,则确定满足所述预置的迭代终止条件。
综上所述,可以看出,本申请提供的实施例中,可以将目标会话命令进行预处理得到目标字符向量,之后将目标字符向量输入预先训练好的目标命令风格模型,得到第一用户账号为N个用户账号中每个用户账号的目标概率值,将目标概率值中大于预设值的概率值对应的目标用户账号与第一用户账号进行匹配,且当目标用户账号与第一用户账号匹配不成功时,发出提示信息。由此,相对于现有技术来说,本申请通过目标命令风格模型对转换成字符向量进行识别,识别用户账号更加准确,且该目标风格模型是也是通过字符向量进行训练得到的,而不是如现有的需要不停的加入新的命令会话,重复的训练模型,减少时间的耗费。
上面从模块化功能实体的角度对本申请实施例中的用户账号的识别装置进行了描述,下面从硬件处理的角度分别对本申请实施例中的服务器进行描述。
图6是本申请实施例提供的一种服务器结构示意图,该服务器600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(central processingunits,CPU)622(例如,一个或一个以上处理器)和存储器632,一个或一个以上存储应用程序642或数据644的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器632和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器622可以设置为与存储介质630通信,在服务器600上执行存储介质630中的一系列指令操作。
服务器600还可以包括一个或一个以上电源626,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口658,和/或,一个或一个以上操作***641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由用户账号的识别装置所执行的步骤可以基于该图6所示的服务器结构。
本申请实施例还提供了一种计算机存储介质,其上存储有程序,该程序被处理器执行时实现所述用户账号的识别方法。
本申请实施例还提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述用户账号的识别方法。
本申请实施例还提供了一种终端设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现上述所述用户账号的识别方法的步骤。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行上述所述用户账号的识别方法的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种用户账号的识别方法,其特征在于,包括:
获取目标命令会话,所述目标命令会话为第一用户账号对应的命令会话;
对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量;
将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值,所述N个用户账号为有权限输入命令会话的用户账号,所述目标命令风格模型为通过对所述N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的,其中,N为大于或等于1的正整数;
将所述目标概率值中大于预设值的概率值对应的目标用户账号与所述第一用户账号进行匹配;
当所述目标用户账号与所述第一用户账号匹配不成功时,发出提示信息。
2.根据权利要求1所述的方法,其特征在于,所述对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量包括:
对所述目标命令会话进行切分,得到至少一个命令字符;
过滤所述至少一个命令字符中的非法字符;
将过滤非法字符后的所述至少一个命令字符转换为统一格式的目标字符;
对所述目标字符进行向量化处理,得到所述目标字符向量。
3.根据权利要求1或2所述的方法,其特征在于,所述将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值之前,所述方法还包括:
步骤1、将目标命令字符对应的向量输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量,所述目标命令字符为第二用户账号的命令会话中的t时刻的命令字符,所述第二用户账号为所述N个用户账号中的任意一个用户账号;
步骤2、将所述目标隐藏状态向量输入注意力层,以得到所述目标命令字符对应的会话风格向量;
步骤3、将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值;
步骤4、根据所述第二用户账号为所述N个用户账号中每个用户账号的概率值修改所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数;
步骤5、迭代执行步骤1至步骤4,直至达到预置的迭代终止条件;
步骤6、将达到所述预置的迭代终止条件时的初始命令风格模型确定为所述目标命令风格模型,所述初始命令风格模型包括所述GRU模块、所述注意力层以及所述分类器。
4.根据权利要求3所述的方法,其特征在于,所述将目标命令字符输入到GRU模块,得到所述目标命令字符对应的目标隐藏状态向量包括:
获取t时刻所述GRU模块的内部向量、t-1时刻的隐藏状态向量、所述GRU模块的门参数;
根据所述目标命令字符、所述GRU模块的内部向量、所述t-1时刻的隐藏状态向量以及所述GRU模块的门参数确定所述目标隐藏状态向量。
5.根据权利要求3所述的方法,其特征在于,所述将所述目标隐藏状态向量输入注意力层,得到所述目标命令字符对应的会话风格向量包括:
获取t时刻所述注意力层的参数;
根据所述注意力层的参数以及所述目标隐藏状态向量确定所述目标隐藏状态向量的权重;
对所述目标隐藏状态向量的权重进行归一化处理,得到归一化后所述目标隐藏状态向量的权重;
根据归一化处理后所述目标隐藏状态向量的权重以及所述目标隐藏状态向量确定所述会话风格向量。
6.根据权利要求3所述的方法,其特征在于,所述将所述会话风格向量输入分类器得到所述第二用户账号为所述N个用户账号中每个用户账号的概率值包括:
获取t时刻所述分类器的参数;
根据所述分类器的参数以及所述会话风格向量确定所述第二用户账号为所述N个用户账号中每个用户账号的概率值。
7.根据权利要求3所述的方法,其特征在于,所述方法还包括:
判断迭代次数是否达到预置数值,若是,则确定满足所述预置的迭代终止条件;
或,
判断所述GRU模块的参数、所述注意力层的参数以及所述分类器的参数的是否收敛,若是,则确定满足所述预置的迭代终止条件。
8.一种用户账号的识别装置,其特征在于,包括:
获取单元,用于获取目标命令会话,所述目标命令会话为第一用户账号对应的命令会话;
预处理单元,用于对所述目标命令会话进行预处理,以得到所述目标命令会话对应的目标字符向量;
识别单元,用于将所述目标字符向量输入目标命令风格模型,以得到所述第一用户账号为N个用户账号中每个用户账号的目标概率值,所述N个用户账号为有权限输入命令会话的用户账号,所述目标命令风格模型为通过对N个用户账号中每个用户账号的命令会话对应的字符向量进行训练得到的,其中,N为大于或等于1的正整数;
匹配单元,用于将所述目标概率值中大于预设值的概率值对应的目标用户账号与所述第一用户账号进行匹配;
提示单元,用于当所述目标用户账号与所述第一用户账号匹配不成功时,发出提示信息。
9.一种计算机装置,其特征在于,所述装置包括:
至少一个处理器、存储器和收发器;
其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中存储的程序代码来执行如权利要求1-7中任一项所述的方法的步骤。
10.一种计算机存储介质,其特征在于,其包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-7中任一所述的方法的步骤。
CN201910687567.3A 2019-07-26 2019-07-26 一种用户账号的识别方法及相关设备 Active CN110399538B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910687567.3A CN110399538B (zh) 2019-07-26 2019-07-26 一种用户账号的识别方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910687567.3A CN110399538B (zh) 2019-07-26 2019-07-26 一种用户账号的识别方法及相关设备

Publications (2)

Publication Number Publication Date
CN110399538A true CN110399538A (zh) 2019-11-01
CN110399538B CN110399538B (zh) 2023-11-07

Family

ID=68326377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910687567.3A Active CN110399538B (zh) 2019-07-26 2019-07-26 一种用户账号的识别方法及相关设备

Country Status (1)

Country Link
CN (1) CN110399538B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130151388A1 (en) * 2011-12-12 2013-06-13 Visa International Service Association Systems and methods to identify affluence levels of accounts
US20140297252A1 (en) * 2012-12-06 2014-10-02 Raytheon Bbn Technologies Corp. Active error detection and resolution for linguistic translation
CN107872436A (zh) * 2016-09-27 2018-04-03 阿里巴巴集团控股有限公司 一种账号识别方法、装置及***
CN108429718A (zh) * 2017-02-13 2018-08-21 腾讯科技(深圳)有限公司 账号识别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130151388A1 (en) * 2011-12-12 2013-06-13 Visa International Service Association Systems and methods to identify affluence levels of accounts
US20140297252A1 (en) * 2012-12-06 2014-10-02 Raytheon Bbn Technologies Corp. Active error detection and resolution for linguistic translation
CN107872436A (zh) * 2016-09-27 2018-04-03 阿里巴巴集团控股有限公司 一种账号识别方法、装置及***
CN108429718A (zh) * 2017-02-13 2018-08-21 腾讯科技(深圳)有限公司 账号识别方法及装置

Also Published As

Publication number Publication date
CN110399538B (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
Bang et al. Explaining a black-box by using a deep variational information bottleneck approach
CN106953862B (zh) 网络安全态势的感知方法和装置及感知模型训练方法和装置
CN111259738B (zh) 人脸识别模型构建方法、人脸识别方法及相关装置
CN109918663A (zh) 一种语义匹配方法、装置及存储介质
CN110516697B (zh) 基于证据图聚合与推理的声明验证方法及***
CN108549658A (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及***
CN110008339A (zh) 一种用于目标情感分类的深度记忆网络模型及其分类方法
CN112199717A (zh) 一种基于少量公共数据的隐私模型训练方法及装置
Du et al. NIDS-CNNLSTM: Network intrusion detection classification model based on deep learning
Li et al. Comparison of machine learning algorithms for detection of network intrusions
CN113726545B (zh) 基于知识增强生成对抗网络的网络流量生成方法及装置
CN112131888A (zh) 分析语义情感的方法、装置、设备及存储介质
Fan et al. Fast model update for iot traffic anomaly detection with machine unlearning
Saphra et al. Language models learn POS first
He Identification and Processing of Network Abnormal Events Based on Network Intrusion Detection Algorithm.
Oh et al. BERTAC: Enhancing transformer-based language models with adversarially pretrained convolutional neural networks
Kesharwani et al. Detecting Fake Social Media Account Using Deep Neural Networking
CN110399538A (zh) 一种用户账号的识别方法及相关设备
Kireev Deriving cognitive map concepts on the basis of social media data clustering
Du et al. DBWE-Corbat: Background network traffic generation using dynamic word embedding and contrastive learning for cyber range
Yang et al. Task-specific compression for multi-task language models using attribution-based pruning
Ruales Recurrent neural networks for sentiment analysis
Krundyshev Identification of cyber threats in networks of industrial internet of things based on neural network methods using memory
Zhang et al. Stm-gail: Spatial-Temporal meta-gail for learning diverse human driving strategies
Huang et al. GTCN: Dynamic network embedding based on graph temporal convolution neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant