CN115374763B - 一种获取用户优先级的*** - Google Patents

一种获取用户优先级的*** Download PDF

Info

Publication number
CN115374763B
CN115374763B CN202211300026.9A CN202211300026A CN115374763B CN 115374763 B CN115374763 B CN 115374763B CN 202211300026 A CN202211300026 A CN 202211300026A CN 115374763 B CN115374763 B CN 115374763B
Authority
CN
China
Prior art keywords
decision tree
tree model
target
list
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211300026.9A
Other languages
English (en)
Other versions
CN115374763A (zh
Inventor
赵洲洋
石江枫
王全修
于伟
靳雯
王林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rizhao Ruian Information Technology Co ltd
Beijing Rich Information Technology Co ltd
Original Assignee
Rizhao Ruian Information Technology Co ltd
Beijing Rich Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rizhao Ruian Information Technology Co ltd, Beijing Rich Information Technology Co ltd filed Critical Rizhao Ruian Information Technology Co ltd
Priority to CN202211300026.9A priority Critical patent/CN115374763B/zh
Publication of CN115374763A publication Critical patent/CN115374763A/zh
Application granted granted Critical
Publication of CN115374763B publication Critical patent/CN115374763B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种获取用户优先级的***,通过获取目标事件对应的目标文本特征以及目标决策树模型特征,进而将目标文本特征与目标决策树模型特征计算相似度,以得到中间决策树模型列表,对中间决策树模型列表进行并集处理获取关键决策树模型列表并获取关键决策树模型列表的运行结果,以得到目标事件对应的优先级,因此,只需运行关键决策树模型列表中的决策树模型无需运行所有的目标决策树模型,可以节省处理器的运行决策树模型的数量,提高处理器的运行效率并节省处理器的运行时间。

Description

一种获取用户优先级的***
技术领域
本发明涉及决策树模型技术领域,特别是涉及一种获取用户优先级的***。
背景技术
现有技术中,当需要对目标事件进行判断时,先将判断条件构成多个决策树模型,再提取目标事件对应文本的全部特征,基于特征对全部决策树模型进行运行;因此,决策树模型运行的数量多,导致了处理器负担过重,处理器的运行时间长,运行效率低。
此外,当需要对决策树模型进行维护时,往往需要遍历全部决策树模型进行查找,找到需要进行维护的决策树模型并对其进行维护,并且在对决策树模型进行维护时,如果需要进行维护的特征多种决策树模型同时适用,也需要对每个决策树模型单独查找进行维护,没有做到对相同类型也就是需要维护相同特征的同类型决策树模型同时进行维护,因此,维护效率低,处理器负担重,消耗了大量时间。
发明内容
针对上述技术问题,本发明采用的技术方案为:
一种获取用户优先级的***,所述***包括:数据库、处理器和存储有计算机程序的存储器,其中,数据库包括:目标规则列表C={C1,C2,...,Cg,...,Cz},其中,第g个目标规则Cg={Cg1,...,Cgx,...,Cgqg},Cgx为Cg对应的第x个目标规则特征,x的取值为1到qg,qg为Cg对应的目标规则特征的数量,g的取值为1到z,z为目标规则的数量,当计算机程序被处理器执行时,实现如下步骤:
S100、获取目标事件对应的目标文本列表A={A1,A2,...,Aj,...,Am},其中,第j个目标文本Aj={Aj1,Aj2,...,Ajr,...,Ajsj},Ajr为Aj中的第r个目标文本特征,r的取值为1到sj,sj为Aj对应的目标文本特征的数量,j的取值为1到m,m为目标文本的数量。
S200、基于C,构建目标决策树模型列表B={B1,B2,...,Bg,...,Bz},其中,第g个目标决策树模型Bg={Bg1,Bg2,...,Bgx,...,Bgqg},Bgx为Cgx对应的目标决策树模型特征。
S300、依次将Aj与Bg分别计算相似度,基于Aj与Bg之间的相似度,获取中间决策树模型列表Z={Z1,Z2,...,Zj,...,Zm},其中,第j个中间决策树模型Zj={Zj1,Zj2,...,Zja,...,Zjcj},Zja为Aj对应的第a个中间决策树模型,a的取值为1到cj,cj为Aj对应的中间决策树模型的数量,所述中间决策树模型为Aj与Bg的相似度大于Bg对应的预设相似度阈值B0 g的目标决策树模型。
S400、根据Z,获取关键决策树模型列表Bʹ={Bʹ1,Bʹ2,...,Bʹt,...,Bʹk},Bʹt为第t个关键决策树模型,t的取值为1到k,k为关键决策树模型的数量,Bʹ=Z1∪...∪Zj∪...∪Zm
S500、根据Bʹ,获取指定决策树模型列表D={D1,D2,...,Dt,...,Dk},Dt为Bʹt对应的指定决策树模型,所述指定决策树模型为运行结果为第一关键决策树模型结果的关键决策树模型,所述第一关键决策树模型结果标记为0。
S600、根据D,获取目标事件对应的优先级S0,S0符合如下条件:
Figure DEST_PATH_IMAGE002
其中,wt为Dt对应的权重。
本发明至少具有以下有益效果:
(1)通过获取目标事件对应的目标文本特征以及目标决策树模型特征,进而将目标文本特征与目标决策树模型特征计算相似度,以得到中间决策树模型列表,对中间决策树模型列表进行并集处理获取关键决策树模型列表并获取关键决策树模型列表的运行结果,以得到目标事件对应的优先级,因此,只需运行关键决策树模型列表中的决策树模型无需运行所有的目标决策树模型,可以节省处理器的运行决策树模型的数量,提高处理器的运行效率并节省处理器的运行时间。
(2)当新加入一个决策文本需要使用目标决策树模型进行判断时,通过对中间文本进行特征提取,获取中间文本特征列表,并通过计算中间文本特征与目标决策树模型的相似度,获取中间文本特征与目标决策树模型相似度大于预设相似度阈值的目标决策树模型,生成最终决策树模型列表,因此,在运行最终决策树模型阶段,不需要运行所有目标决策树模型,只需要运行最终决策树模型列表中的最终决策树模型,节省了运行时间,提高了时间效率。
(3)提供了目标决策点的分类维护方式,通过获取第一标签列表以及第二标签列表,并根据第一标签列表以及第二标签列表进行分桶处理,获取目标决策树模型类别列表,因此,当需要对目标决策树模型进行维护时,只需要对同类型的目标决策树模型对应的规则模板进行维护,从而节省维护时间,提高维护效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种获取用户优先级的***被处理器执行的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例提供了一种获取用户优先级的***,所述***包括:数据库、处理器和存储有计算机程序的存储器,其中,数据库包括:目标规则列表C={C1,C2,...,Cg,...,Cz},其中,第g个目标规则Cg={Cg1,...,Cgx,...,Cgqg},Cgx为Cg对应的第x个目标规则特征,x的取值为1到qg,qg为Cg对应的目标规则特征的数量,g的取值为1到z,z为目标规则的数量,当计算机程序被处理器执行时,如图1所示,实现如下步骤:
S100、获取目标事件对应的目标文本列表A={A1,A2,...,Aj,...,Am},其中,第j个目标文本Aj={Aj1,Aj2,...,Ajr,...,Ajsj},Ajr为Aj中的第r个目标文本特征,r的取值为1到sj,sj为Aj对应的目标文本特征的数量,j的取值为1到m,m为目标文本的数量。
具体地,所述目标文本包括:对目标事件进行描述的文本以及对目标事件不同阶段进行判断的文本等。
进一步地,基于OCR(Optical Character Recognition,光学字符识别)从目标文本中提取目标文本特征。
S200、基于C,构建目标决策树模型列表B={B1,B2,...,Bg,...,Bz},其中,第g个目标决策树模型Bg={Bg1,Bg2,...,Bgx,...,Bgqg},Bgx为Cgx对应的目标决策树模型特征。
具体地,所述目标决策树模型的执行过程可以理解为根据现有材料在树形结构的基础上直接模仿现实生活中人类做决策的过程。
进一步地,所述目标决策树模型特征为从目标决策树模型对应的目标规则中获取到的目标规则特征对应的用于判断目标文本特征的条件。
具体地,本领域技术人员知晓,任意一种根据目标规则特征得到目标决策树模型的方法均落入本发明保护范围,在此不再赘述。
进一步地,任一目标决策树模型独立执行目标文本,可以理解为目标决策树模型独立存在且任一目标决策树模型相互之间不会产生影响,独立运行。
S300、依次将Aj与Bg分别计算相似度,基于Aj与Bg之间的相似度,获取中间决策树模型列表Z={Z1,Z2,...,Zj,...,Zm},其中,第j个中间决策树模型Zj={Zj1,Zj2,...,Zja,...,Zjcj},Zja为Aj对应的第a个中间决策树模型,a的取值为1到cj,cj为Aj对应的中间决策树模型的数量,所述中间决策树模型为Aj与Bg的相似度大于Bg对应的预设相似度阈值B0 g的目标决策树模型。
具体地,本领域技术人员知晓,任意一种计算目标决策树模型与目标文本之间相似度的方式均落入本发明保护范围内,在此不再赘述。
进一步地,Bʹ∈B,可以理解为k≤z。
进一步地,B0 1=B0 2=…=B0 g=…=B0 z
优选地,目标决策树模型对应的预设相似度阈值不同,本领域技术人员可根据目标决策树模型的特征设置对应的预设相似度阈值,在此不再赘述。
S400、根据Z,获取关键决策树模型列表Bʹ={Bʹ1,...,Bʹt,...,Bʹk},Bʹt为第t个关键决策树模型,t的取值为1到k,k为关键决策树模型的数量,Bʹ=Z1∪...∪Zj∪...∪Zm
具体地,在本发明实施例中,用户也可以指定关键决策树模型,当用户选择指定关键决策树模型时,在关键决策树模型运行阶段,只运行用户指定的关键决策树模型;当用户没有选择指定关键决策树模型时,在关键决策树模型运行阶段,运行所有关键决策树模型,因此,可以节省处理器的运行决策树模型的数量,提高处理器的运行效率并节省处理器的运行时间。
进一步地,用户可根据点选的方式选择需要运行的关键决策树模型。
进一步地,在本发明另一实施例中,在S400后还包括如下步骤:
S410、当接收到中间文本X时,获取中间文本特征集X={X1,...,Xi,...,Xn},Xi为中间文本对应的第i个中间文本特征,i的取值为1到n,n为中间文本对应的中间文本特征的数量。
S420、遍历B将Bg与X计算相似度,获取最终决策树模型列表B〞={B〞1,Bʹ2,...,B〞u,...,B〞w},B〞u为第u个最终决策树模型,u的取值为1到w,w为最终决策树模型的数量,所述最终决策树模型为Xi与Bgx的相似度大于Bg对应的预设相似度阈值B0 g的目标决策树模型。
在本发明实施例中,用户也可以指定最终决策树模型,当用户选择指定最终决策树模型时,在最终决策树模型运行阶段,只运行用户指定的最终决策树模型;当用户没有选择指定最终决策树模型时,在最终决策树模型运行阶段,运行所有最终决策树模型,因此,可以节省处理器的运行决策树模型的数量,提高处理器的运行效率并节省处理器的运行时间。
上述,S410-S420通过对中间文本进行特征提取,获取中间文本特征列表,并通过计算中间文本特征与目标决策树模型的相似度,获取中间文本特征与目标决策树模型相似度大于预设相似度阈值的目标决策树模型,生成最终决策树模型列表,因此,在运行最终决策树模型阶段,不需要运行所有目标决策树模型,只需要运行最终决策树模型列表中的最终决策树模型,同时,节省了运行时间,提高了时间效率。
S500、根据Bʹ,获取指定决策树模型列表D={D1,D2,...,Dt,...,Dk},Dt为Bʹt对应的指定决策树模型,所述指定决策树模型为运行结果为第一关键决策树模型结果的关键决策树模型,所述第一关键决策树模型结果标记为0。
具体地,所述第一关键决策树模型结果标记为0指的是第一关键决策树结果为执行结果为错误的关键决策树结果。
S600、根据D,获取目标事件对应的优先级S0,S0符合如下条件:
Figure DEST_PATH_IMAGE004
其中,wt为Dt对应的权重。
具体地,w1=w2=…=wb=…=wd,因此,便于统计目标事件对应的优先级。
进一步地,本领域技术人员可根据实际需求设置指定决策树对应的权重,在此不再赘述。
进一步地,在本发明另一实施例中,还可通过如下步骤获取目标事件对应的S0
S501、获取关键决策树模型列表对应的关键决策树模型结果列表S={S1,S2,...,St,...,Sk},St为Bʹt对应的关键决策树模型结果,所述关键决策树模型结果为第一关键决策树模型结果或第二关键决策树模型结果,所述第一关键决策树结果标记为0,所述第二关键决策树结果标记为1;
S502、根据S,获取S01和S02,S01为S中0的数量,S02为S中1的数量;
S5033、根据S01和S02,获取目标事件对应的优先级S0,S0符合如下条件:
S0=S01/S02×100%。
本发明提供了一种获取目标事件对应的优先级的***,通过获取目标事件对应的目标文本特征以及目标决策树模型特征,进而将目标文本特征与目标决策树模型特征计算相似度,以得到中间决策树模型列表,对中间决策树模型列表进行并集处理获取关键决策树模型列表并获取关键决策树模型列表的运行结果,以得到目标事件对应的优先级,因此,只需运行关键决策树模型列表中的决策树模型无需运行所有的目标决策树模型,可以节省处理器的运行决策树模型的数量,提高处理器的运行效率并节省处理器的运行时间。
进一步地,在本发明一个实施例中,在S200后,还包括如下步骤对目标决策树模型分类:
S10、获取第一标签列表L={L1,L2,...,Lα,...,Lβ},Lα为第α个第一标签,α的取值为1到β,β为第一标签的数量,所述第一标签为目标决策树模型依赖的数据种类。
具体地,所述目标数据类型为目标决策树依赖的数据类型,所述目标数据类型可包括:事件数据类型,例如,目标事件类型、目标事件阶段和目标事件确立的时间;文本数据类型,例如,目标文本类型、目标文本确立的事件和目标文本具体的结构化字段;智能化信息,包括,指纹类型以及签名信息类型等。
S20、获取第二标签列表Y={Y1,Y2,...,Yδ,...,Yε},Yδ为第δ个第二标签,δ的取值为1到ε,ε为第二标签的数量,所述第二标签为目标决策树模型的检测方式。
具体地,所述第一标签为目标决策树的检验方式,所述目标检验方式包括:判断目标事件对应的两种类型的文本是否同时存在以及判断目标事件对应的两种类型文本确立时间不超过预设时间阈值。
S30、根据L和Y对Br进行分桶处理,获取目标决策树模型类别列表K={K1,K2,...,Kα,...,Kβ},Kα=(Kα1,Kα2,...,Kαη,...,Kαθα),Kαη为第α个目标决策树模型类别列表中的第η个目标决策树模型类别,η的取值为1到θα,θα为第α个目标决策树模型类别列表中的目标决策树模型类别的数量,所述目标决策树模型类别中为第一标签相同的目标决策树模型。
上述,S10-S30通过获取第一标签列表以及第二标签列表,并根据第一标签列表以及第二标签列表进行分桶处理,获取目标决策树模型类别列表,因此,当需要对目标决策树模型进行维护时,只需要对同类型的目标决策树模型对应的规则模板进行维护,从而节省维护时间,提高维护效率。
本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的***或服务器产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和计算机设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员还应理解,可以对实施例进行多种修改而不脱离本发明的范围和精神。本发明开的范围由所附权利要求来限定。

Claims (8)

1.一种获取用户优先级的***,其特征在于,所述***包括:数据库、处理器和存储有计算机程序的存储器,其中,数据库包括:目标规则列表C={C1,C2,...,Cg,...,Cz},其中,第g个目标规则Cg={Cg1,...,Cgx,...,Cgqg},Cgx为Cg对应的第x个目标规则特征,x的取值为1到qg,qg为Cg对应的目标规则特征的数量,g的取值为1到z,z为目标规则的数量,当计算机程序被处理器执行时,实现如下步骤:
S100、获取目标事件对应的目标文本列表A={A1,A2,...,Aj,...,Am},其中,第j个目标文本Aj={Aj1,Aj2,...,Ajr,...,Ajsj},Ajr为Aj中的第r个目标文本特征,r的取值为1到sj,sj为Aj对应的目标文本特征的数量,j的取值为1到m,m为目标文本的数量;
S200、基于C,构建目标决策树模型列表B={B1,B2,...,Bg,...,Bz},其中,第g个目标决策树模型Bg={Bg1,Bg2,...,Bgx,...,Bgqg},Bgx为Cgx对应的目标决策树模型特征;
S300、依次将Aj与Bg分别计算相似度,基于Aj与Bg之间的相似度,获取中间决策树模型列表Z={Z1,Z2,...,Zj,...,Zm},其中,第j个中间决策树模型Zj={Zj1,Zj2,...,Zja,...,Zjcj},Zja为Aj对应的第a个中间决策树模型,a的取值为1到cj,cj为Aj对应的中间决策树模型的数量,所述中间决策树模型为Aj与Bg的相似度大于Bg对应的预设相似度阈值B0 g的目标决策树模型;
S400、根据Z,获取关键决策树模型列表Bʹ={Bʹ1,Bʹ2,...,Bʹt,...,Bʹk},Bʹt为第t个关键决策树模型,t的取值为1到k,k为关键决策树模型的数量,Bʹ=Z1∪...∪Zj∪...∪Zm
S500、根据Bʹ,获取指定决策树模型列表D={D1,D2,...,Dt,...,Dk},Dt为Bʹt对应的指定决策树模型,所述指定决策树模型为运行结果为第一关键决策树模型结果的关键决策树模型,所述第一关键决策树模型结果标记为0;
S600、根据D,获取目标事件对应的优先级S0,S0符合如下条件:
Figure DEST_PATH_IMAGE001
其中,wt为Dt对应的权重。
2.根据权利要求1所述的获取用户优先级的***,其特征在于,在S200中,任一目标决策树模型为独立执行目标文本的决策树模型。
3.根据权利要求1所述的获取用户优先级的***,其特征在于,在S100中,通过光学字符识别技术从目标文本中提取目标文本特征。
4.根据权利要求1所述的获取用户优先级的***,其特征在于,在S300中,B0 1=B0 2=…=B0 g=…=B0 z
5.根据权利要求1所述的获取用户优先级的***,其特征在于,在S400后还包括如下步骤:
S410、当接收到中间文本X时,获取中间文本特征集X={X1,X2,...,Xi,...,Xn},Xi为中间文本对应的第i个中间文本特征,i的取值为1到n,n为中间文本对应的中间文本特征的数量;
S420、遍历B将Bg与X计算相似度,获取最终决策树模型列表B〞={B〞1,B〞2,...,B〞u,...,B〞v},B〞u为第u个最终决策树模型,u的取值为1到v,v为最终决策树模型的数量,所述最终决策树模型为Xi与Bgx的相似度大于Bg对应的预设相似度阈值B0 g的目标决策树模型。
6.根据权利要求1所述的获取用户优先级的***,其特征在于,在S200后,还包括如下步骤对目标决策树模型分类:
S10、获取第一标签列表L={L1,L2,...,Lα,...,Lβ},Lα为第α个第一标签,α的取值为1到β,β为第一标签的数量,所述第一标签为目标决策树模型依赖的数据种类;
S20、获取第二标签列表Y={Y1,Y2,...,Yδ,...,Yε},Yδ为第δ个第二标签,δ的取值为1到ε,ε为第二标签的数量,所述第二标签为目标决策树模型的检测方式;
S30、根据L和Y对Bg进行分桶处理,获取目标决策树模型类别列表K={K1,K2,...,Kα,...,Kβ},Kα=(Kα1,Kα2,...,Kαη,...,Kαθα),Kαη为第α个目标决策树模型类别列表中的第η个目标决策树模型类别,η的取值为1到θα,θα为第α个目标决策树模型类别列表中的目标决策树模型类别的数量,所述目标决策树模型任一类别为第一标签相同的目标决策树模型。
7.根据权利要求1所述的获取用户优先级的***,其特征在于,在S600中,w1=w2=…=wt=…=wk。
8.根据权利要求1所述的获取用户优先级的***,其特征在于,还可通过如下步骤获取S0
S501、获取关键决策树模型列表Bʹ对应的关键决策树模型结果列表S={S1,S2,...,St,...,Sk},St为Bʹt对应的关键决策树模型结果,所述关键决策树模型结果为第一关键决策树模型结果或第二关键决策树模型结果,所述第二关键决策树模型结果标记为1;
S502、根据S,获取S01和S02,S01为S中0的数量,S02为S中1的数量;
S5033、根据S01和S02,获取目标事件对应的优先级S0,S0符合如下条件:
S0=S01/S02×100%。
CN202211300026.9A 2022-10-24 2022-10-24 一种获取用户优先级的*** Active CN115374763B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211300026.9A CN115374763B (zh) 2022-10-24 2022-10-24 一种获取用户优先级的***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211300026.9A CN115374763B (zh) 2022-10-24 2022-10-24 一种获取用户优先级的***

Publications (2)

Publication Number Publication Date
CN115374763A CN115374763A (zh) 2022-11-22
CN115374763B true CN115374763B (zh) 2022-12-23

Family

ID=84074085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211300026.9A Active CN115374763B (zh) 2022-10-24 2022-10-24 一种获取用户优先级的***

Country Status (1)

Country Link
CN (1) CN115374763B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116167595B (zh) * 2023-04-25 2023-08-11 天信达信息技术有限公司 一种人员组决策变量的确定方法、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930924A (zh) * 2016-04-15 2016-09-07 中国电力科学研究院 基于复杂事件处理技术和决策树的配电网态势感知方法
WO2017167097A1 (zh) * 2016-03-31 2017-10-05 阿里巴巴集团控股有限公司 一种基于随机森林的模型训练方法和装置
CN112329843A (zh) * 2020-11-03 2021-02-05 中国平安人寿保险股份有限公司 基于决策树的呼叫数据处理方法、装置、设备及存储介质
CN115115004A (zh) * 2022-07-21 2022-09-27 中国平安财产保险股份有限公司 决策树模型构建及应用方法、装置和相关设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017167097A1 (zh) * 2016-03-31 2017-10-05 阿里巴巴集团控股有限公司 一种基于随机森林的模型训练方法和装置
CN105930924A (zh) * 2016-04-15 2016-09-07 中国电力科学研究院 基于复杂事件处理技术和决策树的配电网态势感知方法
CN112329843A (zh) * 2020-11-03 2021-02-05 中国平安人寿保险股份有限公司 基于决策树的呼叫数据处理方法、装置、设备及存储介质
CN115115004A (zh) * 2022-07-21 2022-09-27 中国平安财产保险股份有限公司 决策树模型构建及应用方法、装置和相关设备

Also Published As

Publication number Publication date
CN115374763A (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
Mullikin et al. The phusion assembler
CN109766950B (zh) 一种基于形态聚类和LightGBM的工业用户短期负荷预测方法
CN115374763B (zh) 一种获取用户优先级的***
CN110633667B (zh) 一种基于多任务随机森林的动作预测方法
CN111429980A (zh) 一种材料晶体结构特征的自动化获取方法
US20070150435A1 (en) Parameter adjustment device
US6798911B1 (en) Method and system for fuzzy clustering of images
CN109933502A (zh) 电子装置、用户操作记录的处理方法和存储介质
WO2008062822A1 (fr) Dispositif d'exploration de texte, procédé d'exploration de texte et programme d'exploration de texte
US7272583B2 (en) Using supervised classifiers with unsupervised data
JP4194697B2 (ja) 分類ルール探求式クラスター分析装置
CN114139636B (zh) 异常作业处理方法及装置
CN108875060B (zh) 一种网站识别方法及识别***
US8370276B2 (en) Rule learning method, program, and device selecting rule for updating weights based on confidence value
CN112766423B (zh) 人脸识别模型的训练方法、装置、计算机设备及存储介质
CN113517998B (zh) 预警配置数据的处理方法、装置、设备及存储介质
CN108388774A (zh) 一种多肽谱匹配数据的在线分析方法
CN114694746A (zh) 基于改进的MRMD算法和DF模型的植物pri-miRNA编码肽预测方法
CN117425937A (zh) 用于确定双基因或寡基因变异的组合的致病性的预测方法
Merschmann et al. A lazy data mining approach for protein classification
JP3602084B2 (ja) データベース管理装置
JP4036009B2 (ja) 画像データ分類装置
Zikratov et al. The method of elf-files identification based on the metric classification algorithms
JP7335379B1 (ja) 学習装置、学習方法、およびプログラム
Aung et al. Automatic protein structure classification through structural fingerprinting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant