CN115391620A - 模型运行方法、装置、设备、存储介质及程序产品 - Google Patents

模型运行方法、装置、设备、存储介质及程序产品 Download PDF

Info

Publication number
CN115391620A
CN115391620A CN202211183707.1A CN202211183707A CN115391620A CN 115391620 A CN115391620 A CN 115391620A CN 202211183707 A CN202211183707 A CN 202211183707A CN 115391620 A CN115391620 A CN 115391620A
Authority
CN
China
Prior art keywords
model
processing object
query statement
processing
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211183707.1A
Other languages
English (en)
Inventor
林乐凝
陈桂花
刘锦山
徐蔚峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Construction Bank Corp
CCB Finetech Co Ltd
Original Assignee
China Construction Bank Corp
CCB Finetech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Construction Bank Corp, CCB Finetech Co Ltd filed Critical China Construction Bank Corp
Priority to CN202211183707.1A priority Critical patent/CN115391620A/zh
Publication of CN115391620A publication Critical patent/CN115391620A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种模型运行方法、装置、设备、存储介质及程序产品。该方法包括:获取第一类模型对应的第一查询语句集,将第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句,从N个无异常的第一查询语句中筛选出查询耗时最短的第二查询语句,执行第二查询语句,获取第一类模型对应的第一处理对象,将第一处理对象输入第一类模型,得到第一类模型的运行结果。根据本申请实施例,能够提升跑批机器的运行效率。

Description

模型运行方法、装置、设备、存储介质及程序产品
技术领域
本申请属于人工智能技术领域,尤其涉及一种模型运行方法、装置、设备、存储介质及程序产品。
背景技术
“跑批”也叫“批量处理”或“批处理”,是现今各类IT***中常见业务之一,根据统计,70%的业务***中的操作,是通过跑批方式完成的。“跑批”简单来说,是将一类相同的业务“积攒”到一定的量(业务相同,成批量),在指定时间点启动进行自动处理,达到简化操作,提升效率的目的。分析批处理的过程,我们不难总结出批处理业务的特点:处理量大(成批),有特定的触发时机(指定时间点),可自动处理。
但是,目前银行***中不同业务的跑批任务,还是需要人工配置跑批参数,并将不同的跑批任务分配到不同的模型当中。针对银行拥有大体量客户的情况下,跑批任务的分配以及模型计算都需要消耗大量的时间,而银行的设备资源通常有很有限,这种人工分配跑批任务的做法就造成了跑批机器的效率低下。
发明内容
本申请实施例提供了一种模型运行方法、装置、设备、存储介质及程序产品,能够解决现有的跑批机器的运行效率低下的问题。
第一方面,本申请实施例提供一种模型运行方法,方法包括:
获取第一类模型对应的第一查询语句集;
将所述第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句;
从所述N个无异常的第一查询语句中筛选出查询耗时最短的第二查询语句;
执行所述第二查询语句,获取所述第一类模型对应的第一处理对象;
将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果。
在一些实施例中,所述第一类模型包括至少一个模型;
所述将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果,包括:
对所述第一处理对象进行拆分,得到至少一个分组,每个所述分组包括所述第一处理对象中的至少一个处理对象;
确定所述至少一个分组中各分组在所述第一类模型中对应的模型;
将所述各分组分别输入对应的模型中,得到所述各分组的预测概率值。
在一些实施例中,所述将所述各分组分别输入对应的模型中,得到所述各分组的预测概率值,包括:
将所述各分组中所述至少一个处理对象依次输入所述对应的模型中,得到与所述至少一个处理对象中,各所述处理对象一一对应的预测概率值。
在一些实施例中,所述将所述各分组中所述至少一个处理对象依次输入所述对应的模型中,得到与所述至少一个处理对象中,各所述处理对象一一对应的预测概率值之后,包括:
根据所述预测概率值确定所述各所述处理对象一一对应的标准化分数;
根据所述预测概率值和所述标准化分数,确定各所述处理对象的每个特征在所述标准化分数中的贡献分数;
基于所述标准化分数和所述贡献分数对所述处理对象进行分析。
在一些实施例中,其特征在于,所述根据所述预测概率值确定所述各所述处理对象一一对应的标准化分数,包括:
根据所述预测概率值确定所述处理对象的坏好比率;
根据所述坏好比率确定所述标准化分数。
在一些实施例中,所述对所述第一处理对象进行拆分,得到至少一个分组,包括:
获取所述第一处理对象包括的处理对象数量;
获取所述第一类模型的预设每组包括的处理对象数量;
根据所述第一处理对象包括的处理对象数量,以及所述预设每组包括的处理对象数量,对所述第一处理对象进行拆分,得到至少一个分组。
第二方面,本申请实施例提供一种模型运行装置,装置包括:
获取模块,用于获取第一类模型对应的第一查询语句集;
第一筛选模块,用于将所述第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句;
第二筛选模块,用于执行所述第二查询语句,获取所述第一类模型对应的第一处理对象;
执行模块,用于执行所述第二查询语句,获取所述第一类模型对应的第一处理对象;
运行模块,用于将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果。
第三方面,本申请实施例提供了一种模型运行设备,设备包括:处理器以及存储有计算机程序指令的存储器;
处理器执行计算机程序指令时实现如上的模型运行方法。
第四方面,本申请实施例提供了一种计算机存储介质,计算机存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如上的模型运行方法。
第五方面,本申请实施例提供了一种计算机程序产品,所述计算机程序产品包括计算机程序指令,所述计算机程序指令被处理器执行时实现如上的模型运行方法。
在本申请中,通过对不同的查询语句集和不同类别的模型建立对应关系,并通过将查询语句集中的查询语句的执行模板和预设的异常模板比较,基于比较结果得到无异常的查询语句,并进一步筛选出耗时最短的正常的查询语句,从而筛选出用于不同类别的模型中最合适的查询语句,并基于最合适的查询语句从数据库中自动获取跑批任务,以此避免了人工向跑批机器分配跑批任务,缩短了跑批任务的分配和运行时间,提升了跑批机器的运行效率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,显而易见地,下面所描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的模型运行方法的流程示意图;
图2是本申请一实施例提供的模型运行设备的硬件结构示意图;
图3是本申请一实施例提供的模型运行装置的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请的更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将结合附图对实施例进行详细描述。
“跑批”也叫“批量处理”或“批处理”,是现今各类IT***中常见业务之一,根据统计,70%的业务***中的操作,是通过跑批方式完成的。“跑批”简单来说,是将一类相同的业务“积攒”到一定的量(业务相同,成批量),在指定时间点启动进行自动处理,达到简化操作,提升效率的目的。分析批处理的过程,我们不难总结出批处理业务的特点:处理量大(成批),有特定的触发时机(指定时间点),可自动处理。
一般情况下,针对非实时批的模型来说,跑批任务的分配和模型计算并不会耗费太多的资源。但是,目前银行***中不同业务的跑批任务,还是需要人工配置不同的跑批参数,并将不同的跑批任务分配到不同的模型当中。针对银行拥有大体量客户的情况下,跑批任务的分配以及模型计算都需要消耗大量的资源,而银行的设备资源通常有很有限,这种人工分配跑批任务的做法就造成了跑批机器的资源利用率低下。
为了解决上述问题,本申请对不同的查询语句和不同类别的模型建立对应关系,采用不同的查询语句对不同类模型进行跑批任务的分配,从而无需人工向跑批机器分配跑批任务,提升了跑批机器的运行效率。
具体地,为了解决现有技术问题,本申请实施例提供了一种模型运行方法、装置、设备、存储介质及程序产品。下面首先对本申请实施例所提供的模型运行方法进行介绍。
图1示出了本申请一个实施例提供的模型运行方法的流程示意图。该方法包括以下步骤:
S110,获取第一类模型对应的第一查询语句集。
在本实施例中,在跑批机器中,存在至少一种类别的模型,所述第一类模型为其中任一种类别的模型,每种类别的模型可以包括至少一个模型。模型可以包括XGBOOST模型和lightGBM模型等等。其中,不同类别的模型和数据库中不同的第一查询语句集存在对应的关系,数据库为存储有分配的跑批任务。第一类模型可以获取与其对应的第一查询语句集。
第一查询语句集中包括至少一个第一查询语句,第一类模型应用这些第一查询语句中的任一语句都可以查询得到需要的第一处理对象。而第一类模型一次仅需要应用一个第一查询语句,因此可以在第一查询语句集中进行筛选出一个第一查询语句进行查询。
S120,将所述第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句;
在本实施例中,执行模板指的是将查询语句的具体参数值,也即变量抽象化与规范化后得到的语句。可以将出现各种异常的第一查询语句的执行模板存储为异常模板,在每次筛选第一查询语句之前,将第一查询语句集中各第一查询语句的执行模板和设的各异常模板进行比较,如果发现执行模板存在异常,就过滤掉存在异常的执行模板对应的第一查询语句,通过这种方式可以确定N个无异常的第一查询语句。
S130,从所述N个无异常的第一查询语句中筛选出查询耗时最短的第二查询语句;
在本实施例中,为了提升跑批任务的效率,节省跑批时间,需要在N个无异常的第一查询语句中筛选出查询耗时最短的第二查询语句,用于第一类模型的查询。
在一实施例中,可以获取N个无异常的第一查询语句中各第一查询语句的前三次查询的平均耗时,将平均耗时最短的无异常的第一查询语句确定为第二查询语句。
S140,执行所述第一查询语句,获取所述第一类模型对应的第一处理对象。
在本实施例中,在第一类模型获取与其对应的第一查询语句之后,就可以通过该第一查询语句从数据库中获取第一处理对象,第一处理对象为分配给第一类模型处理的跑批任务。
在一实施例中,负责分配跑批任务的服务器按照预设分配规则,将服务器中的跑批任务分配至不同跑批机器的数据库中,每个跑批机器上又存在至少一种第一类模型,各第一类模型都在数据库中有与其对应的第一查询语句,第一类模型通过对应的第一查询语句从数据库中获取对应的第一处理对象。
在一实施例中,数据库中不同的跑批任务存在与其一一对应的标识,第一查询语句可以查询得到跑批任务对应的标识,并基于标识从数据库中调取需要的第一处理对象。
在每一台跑批机器最多可同时执行q个跑批任务的情况下,上述的预设分配规则可以是,遍历所有跑批机器,依次对每一台跑批机器进行监控,若跑批机器上正在执行的跑批任务小于q,则向该台跑批机器上发送跑批任务;若跑批机器上正在执行的跑批任务大于或等于q个,则不向该跑批机器分配跑批任务。若所有跑批机器上正在执行的任务均大于或等于q个,则服务器进入休眠状态,间隔第一预设时长之后,再重新遍历所有跑批机器,按上述预设分配规则进行分配;
上述预设分配规则还可以是,对所有跑批进行平均分配跑批任务。
S150,将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果。
在本实施例中,在得到第一处理对象之后,将第一处理对象输入和其对应的第一类模型,第一类模型则可以输出第一处理对象的预测概率值,可以理解地是,第一类模型的运行结果即为第一处理对象的预测概率值。
本申请通过对不同的查询语句集和不同类别的模型建立对应关系,并通过将查询语句集中的查询语句的执行模板和预设的异常模板比较,基于比较结果得到无异常的查询语句,并进一步筛选出耗时最短的正常的查询语句,从而筛选出用于不同类别的模型中最合适的查询语句,并基于最合适的查询语句从数据库中自动获取跑批任务,以此避免了人工向跑批机器分配跑批任务,缩短了跑批任务的分配和运行时间,提升了跑批机器的资源利用率。
作为一个可选实施例,所述第一类模型包括至少一个模型,为了将处理对象和模型进行匹配,上述S130,可以包括:
S210,对所述第一处理对象进行拆分,得到至少一个分组,每个所述分组包括所述第一处理对象中的至少一个处理对象;
S220,确定所述至少一个分组中各分组在所述第一类模型中对应的模型;
S230,将所述各分组分别输入对应的模型中,得到所述各分组的预测概率值。
在本实施例中,在对跑批任务进行批处理的过程中,同一台跑批机器上包括不同类型的模型,而同一类模型中又包括模型参数不同的多个模型;虽然该多个模型属于同类模型,但模型的模型参数不同,就导致模型的算法不同,因此其对应的处理对象也不同。
由于第一处理对象包括多个处理对象,而第一处理对象中多个处理对象需要分别输入不同的模型中。因此,本实施例将第一处理对象进行拆分,得到至少一个分组,每个分组中又包括第一处理对象中的至少一个处理对象,并将不同的分组中的处理对象输入到其对应的模型中,得到各分组的预测概率值。
在一实施例中,每一组的处理对象的数量为同一模型同时能处理的处理对象的最大值。如此一来,能够保证将不同的处理对象输入对应的模型,并且保证模型能够效率最大化。
作为一个可选实施例,上述S230,还可以包括:
S310,将所述各分组中所述至少一个处理对象依次输入所述对应的模型中,得到与所述至少一个处理对象中,各所述处理对象一一对应的预测概率值。
在本实施例中,每个分组中存在至少一个处理对象,将每个处理对象输入对应的模型中,都能够得到独立的,与各处理对象一一对应的预测概率值。
预测概率值的具体表征内容由模型算法和处理对象包含的特征决定,可以表征用户按时还贷的概率,也可以用来表征用户贷款的概率。
作为一个可选实施例,上述S310之后,还可以包括:
S410,根据所述预测概率值确定所述各所述处理对象一一对应的标准化分数;
S420,根据所述预测概率值和所述标准化分数,确定各所述处理对象的每个特征在所述标准化分数中的贡献分数;
S430,基于所述标准化分数和所述贡献分数对所述处理对象进行分析。
在本实施例中,标准化分数指的是,分了方便对模型结果在业务上进行管理,将模型的运行结果,即预测概率值映射到特定坏好比率的过程,这种映射通常通过在预测概率值和标准化分数之间建立特定的函数关系,将预测概率值转化为标准化分数。
标准化分数用于表征处理对象中所有特征对预测概率值的贡献,在得到标准化分数之后,还可以基于标准化分数计算出处理对象中每个特征分别对预测概率值的贡献分数,并基于特征的贡献分数在标准化分数中的占比,分析处理对象中各特征的重要程度。
作为一个可选实施例,上述S410,可以包括:
S510,基于所述预测概率值确定所述处理对象的坏好比率;
S520,基于所述坏好比率的自然对数确定所述标准化分数。
在本实施例中,预测概率值和标准化分数的转换公式为:
Figure BDA0003867756040000091
其中,score为标准化分数,p为预测概率值,A和B均为用户设置的常量,A为第一预设常量,B为第二预设常量,
Figure BDA0003867756040000092
为坏好比率。
在一个实施例中,可以将
Figure BDA0003867756040000093
作为处理对象对应的可解释值,通过可解释值来将预测概率值转换为标准化分数:
Figure BDA0003867756040000094
其中,shap为处理对象对应的可解释值,p为处理对象的预测概率值。
并且,处理对象中每个特征都有对应的可解释值,并且,处理对象中各特征对应的可解释值的和为处理对象对应的可解释值,可以根据各特征的可解释值确定各特征的贡献分数,具体如下式:
shap=base+shap1+shap2+…+shapk
其中,shap为处理对象对应的可解释值,处理对象中包括k个特征,shapk为第k个特征对应的可解释值,base为基础分值。
在计算得到这k个特征的可解释值之后,相应的,可以根据这k个特征的可解释值计算各特征分别的贡献分数,计算的过程如下式:
scorek=72.13*shapk
其中,scorek为第k个特征的贡献分数,shapk为第k个特征对应的可解释值。
因此,在本实施例中,处理对象的标准化分数即为第一预设常量和各特征对应的贡献分数的和。
作为一个可选实施例,为了将处理对象进行分组,上述S210,包括:
S610,获取所述第一处理对象包括的处理对象数量;
S620,获取所述第一类模型的预设每组包括的处理对象数量;
S630,根据所述第一处理对象包括的处理对象数量,以及所述预设每组包括的处理对象数量,对所述第一处理对象进行拆分,得到至少一个分组。
在本实施例中,根据第一处理对象包括的处理对象数量,以及预设每组包括的处理对象数量,通过下式可以计算得到分组的数量:
GN=ceiling(N/BN)
其中,N为第一处理对象包括的处理对象数量,BN为预设每组包括的处理对象数量,GN为分组的数量,ceiling()为向上取整。
通过上述分组方式,可以将对应不同算法的处理对象分成不同的组,同样可以保证模型同时处理的处理对象数量不超过BN个。
基于上述实施例提供的模型运行方法,相应地,本申请还提供了模型运行装置的具体实现方式。请参见以下实施例。
首先参见图2,本申请实施例提供的模型运行装置200包括以下模块:
获取模块201,用于获取第一类模型对应的第一查询语句集;
第一筛选模块202,用于将所述第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句;
第二筛选模板203,用于从所述N个无异常的第一查询语句中筛选出查询耗时最短的第二查询语句;
执行模块204,用于执行所述第一查询语句,获取所述第一类模型对应的第一处理对象;
运行模块205,用于将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果。
设备可以通过对不同的查询语句集和不同类别的模型建立对应关系,并通过将查询语句集中的查询语句的执行模板和预设的异常模板比较,基于比较结果得到无异常的查询语句,并进一步筛选出耗时最短的正常的查询语句,从而筛选出用于不同类别的模型中最合适的查询语句,并基于最合适的查询语句从数据库中自动获取跑批任务,以此避免了人工向跑批机器分配跑批任务,缩短了跑批任务的分配和运行时间,提升了跑批机器的资源利用率。
作为本申请的一种实现方式,为了将处理对象和模型进行匹配,上述运行模块205还可以包括:
分组单元,用于对所述第一处理对象进行拆分,得到至少一个分组,每个所述分组包括所述第一处理对象中的至少一个处理对象;
匹配单元,用于确定所述至少一个分组中各分组在所述第一类模型中对应的模型;
预测单元,用于将所述各分组分别输入对应的模型中,得到所述各分组的预测概率值。
作为本申请的一种实现方式,上述预测单元还可以包括:
预测子单元,用于将所述各分组中所述至少一个处理对象依次输入所述对应的模型中,得到与所述至少一个处理对象中,各所述处理对象一一对应的预测概率值。
作为本申请的一种实现方式,为了对孤立设备的信息进行记录,上述模型运行装置200还可以包括:
标准化分数确定单元,用于根据所述预测概率值确定所述各所述处理对象一一对应的标准化分数;
贡献分数确定单元,用于根据所述预测概率值和所述标准化分数,确定各所述处理对象的每个特征在所述标准化分数中的贡献分数;
分析单元,用于基于所述标准化分数和所述贡献分数对所述处理对象进行分析。
作为本申请的一种实现方式,上述标准化分数确定单元还可以包括:
坏好比率确定单元,用于基于所述预测概率值确定所述处理对象的坏好比率;
标准化分数确定子单元,用于基于所述坏好比率的自然对数确定所述标准化分数。
作为本申请的一种实现方式,上述运行模块205还可以包括:
第一获取单元,用于获取所述第一处理对象包括的处理对象数量;
第二获取单元,用于获取所述第一类模型的预设每组包括的处理对象数量;
拆分子单元,用于根据所述第一处理对象包括的处理对象数量,以及所述预设每组包括的处理对象数量,对所述第一处理对象进行拆分,得到至少一个分组。
图3示出了本申请实施例提供的模型运行设备的硬件结构示意图。
在模型运行设备可以包括处理器301以及存储有计算机程序指令的存储器302。
具体地,上述处理器301可以包括中央处理器(CpU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器302可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器302可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器302可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器302可在综合网关容灾设备的内部或外部。在特定实施例中,存储器302是非易失性固态存储器。
存储器可包括只读存储器(ROM),随机存取存储器(RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本公开的一方面的方法所描述的操作。
处理器301通过读取并执行存储器302中存储的计算机程序指令,以实现上述实施例中的任意一种模型运行方法。
在一个示例中,模型运行设备还可包括通信接口303和总线310。其中,如图3所示,处理器301、存储器302、通信接口303通过总线310连接并完成相互间的通信。
通信接口303,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线310包括硬件、软件或两者,将模型运行设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGp)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LpC)总线、存储器总线、微信道架构(MCA)总线、***组件互连(pCI)总线、pCI-Express(pCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线310可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该模型运行设备可以基于上述实施例,从而实现结合上述描述的模型运行方法和装置。
另外,结合上述实施例中的模型运行方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种模型运行方法,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,上述计算机可读存储介质可包括非暂态计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等,在此并不限定。
另外,本申请实施例还提供了一种计算机程序产品,包括计算机程序指令,计算机程序指令被处理器执行时可实现前述方法实施例的步骤及相应内容。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或***。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本公开的实施例的方法、装置和计算机程序产品的流程图和/或框图描述了本公开的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。

Claims (10)

1.一种模型运行方法,其特征在于,包括:
获取第一类模型对应的第一查询语句集;
将所述第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句;
从所述N个无异常的第一查询语句中筛选出查询耗时最短的第二查询语句;
执行所述第二查询语句,获取所述第一类模型对应的第一处理对象;
将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果。
2.根据权利要求1所述的模型运行方法,其特征在于,所述第一类模型包括至少一个模型;
所述将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果,包括:
对所述第一处理对象进行拆分,得到至少一个分组,每个所述分组包括所述第一处理对象中的至少一个处理对象;
确定所述至少一个分组中各分组在所述第一类模型中对应的模型;
将所述各分组分别输入对应的模型中,得到所述各分组的预测概率值。
3.根据权利要求2所述的模型运行方法,其特征在于,所述将所述各分组分别输入对应的模型中,得到所述各分组的预测概率值,包括:
将所述各分组中所述至少一个处理对象依次输入所述对应的模型中,得到与所述至少一个处理对象中,各所述处理对象一一对应的预测概率值。
4.根据权利要求3所述的模型运行方法,其特征在于,所述将所述各分组中所述至少一个处理对象依次输入所述对应的模型中,得到与所述至少一个处理对象中,各所述处理对象一一对应的预测概率值之后,所述方法还包括:
根据所述预测概率值确定所述各所述处理对象一一对应的标准化分数;
根据所述预测概率值和所述标准化分数,确定各所述处理对象的每个特征在所述标准化分数中的贡献分数;
基于所述标准化分数和所述贡献分数对所述处理对象进行分析。
5.根据权利要求4所述的的模型运行方法,其特征在于,所述根据所述预测概率值确定所述各所述处理对象一一对应的标准化分数,包括:
根据所述预测概率值确定所述处理对象的坏好比率;
根据所述坏好比率确定所述标准化分数。
6.根据权利要求2所述的模型运行方法,其特征在于,所述对所述第一处理对象进行拆分,得到至少一个分组,包括:
获取所述第一处理对象包括的处理对象数量;
获取所述第一类模型的预设每组包括的处理对象数量;
根据所述第一处理对象包括的处理对象数量,以及所述预设每组包括的处理对象数量,对所述第一处理对象进行拆分,得到至少一个分组。
7.一种模型运行装置,其特征在于,所述装置包括:
获取模块,用于获取第一类模型对应的第一查询语句集;
第一筛选模块,用于将所述第一查询语句集中各第一查询语句的执行模板与预设的各异常模板进行比较,根据比较结果筛选出N个无异常的第一查询语句;
第二筛选模块,用于执行所述第二查询语句,获取所述第一类模型对应的第一处理对象;
执行模块,用于执行所述第二查询语句,获取所述第一类模型对应的第一处理对象;
运行模块,用于将所述第一处理对象输入所述第一类模型,得到所述第一类模型的运行结果。
8.一种模型运行设备,其特征在于,所述模型运行设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现如权利要求1-6中任一项所述的模型运行方法。
9.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-6中任一项所述的模型运行方法。
10.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序指令,所述计算机程序指令被处理器执行时实现权利要求1-6中任一项所述的模型运行方法。
CN202211183707.1A 2022-09-27 2022-09-27 模型运行方法、装置、设备、存储介质及程序产品 Pending CN115391620A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211183707.1A CN115391620A (zh) 2022-09-27 2022-09-27 模型运行方法、装置、设备、存储介质及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211183707.1A CN115391620A (zh) 2022-09-27 2022-09-27 模型运行方法、装置、设备、存储介质及程序产品

Publications (1)

Publication Number Publication Date
CN115391620A true CN115391620A (zh) 2022-11-25

Family

ID=84128311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211183707.1A Pending CN115391620A (zh) 2022-09-27 2022-09-27 模型运行方法、装置、设备、存储介质及程序产品

Country Status (1)

Country Link
CN (1) CN115391620A (zh)

Similar Documents

Publication Publication Date Title
CN114757587B (zh) 一种基于大数据的产品质量控制***及方法
CN113543117B (zh) 携号转网用户的预测方法、装置及计算设备
CN111191731A (zh) 数据处理的方法、装置、存储介质及电子设备
CN112364014A (zh) 数据查询方法、装置、服务器及存储介质
CN116664335B (zh) 基于智能监控的半导体生产***运行分析方法及***
CN113094415B (zh) 数据抽取方法、装置、计算机可读介质及电子设备
CN111414528B (zh) 确定设备标识的方法、装置、存储介质及电子设备
CN112035286A (zh) 故障原因的确定方法及装置、存储介质、电子装置
CN115391620A (zh) 模型运行方法、装置、设备、存储介质及程序产品
CN116028873A (zh) 一种基于支持向量机的多类服务器故障预测方法
CN112214675B (zh) 用户购机的确定方法、装置、设备及计算机存储介质
CN111459540B (zh) 硬件性能提升建议方法、装置及电子设备
CN113656046A (zh) 一种应用部署方法和装置
CN114330720A (zh) 用于云计算的知识图谱构建方法、设备及存储介质
CN113239236B (zh) 视频处理方法、装置、电子设备及存储介质
CN110717077B (zh) 资源评分与处理方法、装置、电子设备及介质
CN116049836B (zh) 车辆漏洞优先级确定方法、装置、设备及存储介质
CN117056663B (zh) 一种数据处理方法、装置、电子设备及存储介质
CN115563279A (zh) 一种车机功能评估方法、装置、电子设备及存储介质
CN117807056A (zh) 数据稽核方法、装置、电子设备及存储介质
CN115859169A (zh) 特征提取方法、装置、设备、可读存储介质及程序产品
CN118152134A (zh) 资源调整方法、装置、设备、介质及程序产品
CN114153748A (zh) 数据生成、推荐和测试方法、电子设备以及存储介质
CN117827637A (zh) 自动化测试方法、装置及电子设备
CN117171020A (zh) 基于排序学习的测试用例排序方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination