CN109948803A - 算法模型优化方法、装置和设备 - Google Patents

算法模型优化方法、装置和设备 Download PDF

Info

Publication number
CN109948803A
CN109948803A CN201910182371.9A CN201910182371A CN109948803A CN 109948803 A CN109948803 A CN 109948803A CN 201910182371 A CN201910182371 A CN 201910182371A CN 109948803 A CN109948803 A CN 109948803A
Authority
CN
China
Prior art keywords
algorithm model
optimization
equipment
optimized
optimal parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910182371.9A
Other languages
English (en)
Inventor
金玲玲
饶东升
罗腾法
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Lingtu Huishi Technology Co Ltd
Original Assignee
Shenzhen Lingtu Huishi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Lingtu Huishi Technology Co Ltd filed Critical Shenzhen Lingtu Huishi Technology Co Ltd
Priority to CN201910182371.9A priority Critical patent/CN109948803A/zh
Publication of CN109948803A publication Critical patent/CN109948803A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了算法模型优化方法、装置和设备,该方法包括:将实时数据***第一历史数据集形成第一训练集;基于所述第一训练集对待优化算法模型进行训练得到第一优化参数;判断优化后的算法模型的精度是否满足预设精度要求;若是则根据所述第一优化参数对所述待优化算法模型进行优化,否则向第二设备发送优化请求。该方法提供近端的优化服务,也解决了需求与硬件资源不足之间的矛盾问题。

Description

算法模型优化方法、装置和设备
技术领域
本申请涉及深度学习技术领域,尤其涉及算法模型优化方法、装置和设备。
背景技术
随着大数据时代的到来,机器学习算法尤其是适用于大规模数据的深度学习算法正得到越来越广泛的关注和应用,包括语音识别、图像识别以及自然语言处理等。深度学习与传统模式识别方法的最大不同在于它可不断利用大数据自动学习从而对算法模型进行优化,随着数据量的增加,算法模型经过不断优化将越来越精确。
在现有技术中,由于云端中心聚合了大量的物理硬件资源,通常将计算和存储都放在远程云端,由云端利用大数据对算法模型进行优化,并利用优化后的算法模型为用户提供计算服务。然而,由于云端中心分析的数据量较多,机器学习处理量过多,导致云端服务器运行速度较慢,同时受限于带宽,导致无法应用于实时业务中,因此提供近端的优化服务成为需求,但由于近端设备的硬件资源不足,因此如何解决需求与资源不足之间的矛盾成为亟需解决的问题。
发明内容
鉴于以上问题,本发明的实施例提供算法模型优化方法、装置和设备,其能解决上述背景技术部分提到的技术问题。
按照本发明的实施例的算法模型优化方法,应用于第一设备,包括:将实时数据***第一历史数据集形成第一训练集;基于所述第一训练集对待优化算法模型进行训练得到第一优化参数;判断优化后的算法模型的精度是否满足预设精度要求;若是则根据所述第一优化参数对所述待优化算法模型进行优化,否则向第二设备发送优化请求。
按照本发明的实施例的算法模型优化方法,应用于第二设备,包括:接收第一设备发送针的对待优化算法模型的优化请求;响应所述优化请求返回第二优化参数,以使所述第一设备根据所述第二优化参数对所述待优化算法模型进行优化,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将实时数据***第二历史数据集形成的。
按照本发明的实施例的算法模型优化装置,应用于第一设备,包括:***模块,用于将实时数据***第一历史数据集形成第一训练集;训练模块,用于基于所述第一训练集对待优化算法模型进行训练得到第一优化参数;判断模块,用于判断优化后的算法模型的精度是否满足预设精度要求;是则调用优化模块,否则调用发送模块;优化模块,用于根据所述第一优化参数对所述待优化算法模型进行优化;发送模块,用于向第二设备发送优化请求。
按照本发明的实施例的算法模型优化装置,应用于第二设备,包括:第二接收模块,用于接收第一设备发送的针对待优化算法模型的优化请求;返回模块,用于响应所述优化请求返回第二优化参数,以使所述第一设备根据所述第二优化参数对所述待优化算法模型进行优化,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将实时数据***第二历史数据集形成的。
按照本发明的实施例的电子设备,包括:处理器;以及存储器,其上存储有可执行指令;其中,所述处理器配置为执行所述可执行指令以实施前述的算法模型优化方法。
按照本发明的实施例的计算机可读存储介质,其上存储有计算机程序,所述计算机程序包括可执行指令,当所述可执行指令被处理器执行时,实施前述的算法模型优化方法。
从以上的描述可以看出,本发明实施例的方案中,第一设备首先利用实时数据和存储在本地的第一历史数据集构成的第一训练集对算法模型进行优化,若优化后的算法模型的精度满足预设精度要求,则可直接利用优化后的算法模型提供计算服务,从而可满足实时业务的大部分需求;若优化后的算法模型的精度不满足预设精度要求,则可请求第二设备利用实时数据和第二历史数据集构成的第二训练集对算法模型进行优化,第二设备的硬件资源可以高于第一设备,这样就解决了需求与硬件资源不足之间的矛盾。
附图说明
图1为本发明可以应用于其中的示例性***架构图;
图2为本发明一实施例的算法模型优化方法的流程图;
图3为本发明另一实施例的算法模型优化方法的流程图;
图4为本发明又一实施例的算法模型优化方法的流程图;
图5为本发明一实施例的算法模型优化装置的示意图;
图6为本发明另一实施例的算法模型优化装置的示意图;
图7为本发明一实施例的电子设备的示意图。
具体实施方式
现在将参考示例实施方式讨论本文描述的主题。应该理解,讨论这些实施方式只是为了使得本领域技术人员能够更好地理解从而实现本文描述的主题,并非是对权利要求书中所阐述的保护范围、适用性或者示例的限制。可以在不脱离本公开内容的保护范围的情况下,对所讨论的元素的功能和排列进行改变。各个示例可以根据需要,省略、替代或者添加各种过程或组件。例如,所描述的方法可以按照与所描述的顺序不同的顺序来执行,以及各个步骤可以被添加、省略或者组合。另外,相对一些示例所描述的特征在其他例子中也可以进行组合。
如本文中使用的,术语“包括”及其变型表示开放的术语,含义是“包括但不限于”。术语“基于”表示“至少部分地基于”。术语“一个实施例”和“一实施例”表示“至少一个实施例”。术语“另一个实施例”表示“至少一个其他实施例”。术语“第一”、“第二”等可以指代不同的或相同的对象。下面可以包括其他的定义,无论是明确的还是隐含的。除非上下文中明确地指明,否则一个术语的定义在整个说明书中是一致的。
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、接口、技术之类的具体细节,以便透彻理解本发明。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施方式中也可以实现本发明。在其它情况中,省略对众所周知的装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互结合。下面将参考附图并结合实施例来详细说明本发明。
图1示出了可以应用本发明的算法模型优化方法或装置的一个实施例的示例性***架构。
如图1所示,***100可以包括终端102、近端设备104、中间层设备106和云端设备108。上述设备的个数仅用于示例性的说明本发明的原理,并不对本发明构成限制。***100可以是以层次状结构进行组织的,其中云端设备108位于层次状结构的最上层,近端设备104位于层次状结构的最底层,在云端设备108和近端设备104之间可以设置中间层设备106。需要说明的是,在不同的***中,拓扑结构可能有所不同,例如可以包括多层的中间层设备,或者不包括中间层设备。
终端102响应用户的操作向***100发送计算请求,即用户可通过终端102向***100发送计算请求及接受***100返回的计算结果。终端100为STB(SetTop Box,机顶盒)、路由器或UE(User Equipment,用户终端)等。在本申请实施例中,终端102可以各种形式来实施。例如,可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)等等的移动终端以及诸如台式计算机等等的固定终端。
近端设备104可以为边缘服务器,近端设备104接入终端102,用于接收终端102发送的计算请求,或者,将计算结果发送至终端102。近端设备104加载有提供计算服务的算法模型,近端设备104可收集终端102发送的计算请求所对应的实时数据存储在本地,并与本地历史数据一同通过深度学习对算法模型进行优化。
中间层设备106可以为节点服务器,中间层设备106接入近端设备104,用于接收近端设备104发送的优化请求,或者,将优化结果发送至近端设备104。中间层设备106加载有算法模型,中间层设备106可通过近端设备104收集终端102发送的计算请求所对应的实时数据存储在本地,并在接收到近端设备104发送的优化请求时,利用收集到的实时数据与本地历史数据一同通过深度学习对算法模型进行优化。
云端设备108可以为云端中心服务器,云端中心服务器可接入中间层设备106,用于接收中间层设备发送的优化请求,或者,将优化结果发送至中间层设备106。云端设备108加载有算法模型,云端设备108可通过中间层设备106和近端设备104收集终端102发送的计算请求所对应的实时数据存储在本地,并在接收到中间层设备106发送的优化请求时,利用收集到的实时数据与本地历史数据一同通过深度学习对算法模型进行优化。在其他实施方式中,云端设备108也可直接接入近端设备104,接收近端设备104发送的优化请求。
在本申请实施例中,首先是近端设备104对算法模型进行优化,如果优化结果满足预设条件则近端设备104利用优化后的算法模型继续为终端102提供计算服务,如果不满足条件则近端设备104向中间层设备106发送优化请求,由中间层设备106对算法模型进行优化。如果中间层设备106的优化结果满足预设条件,则中间层设备106将优化结果发送至近端设备104,近端设备104接收优化结果后对算法模型进行优化并利用优化后的算法模型继续为终端102提供计算服务,如果中间层设备106的优化结果不满足预设条件,则中间层设备106向云端设备108发送优化请求,由云端设备108对算法模型进行优化,最终云端设备108的优化结果通过中间层设备106发送至近端设备104。
需要说明的是,本发明实施例所提供的应用于第一设备的算法模型优化方法一般由近端设备104或中间层设备106执行,应用于第二设备的算法模型优化方法一般由中间层设备106和云端设备108执行,相应的,应用于第一设备的算法模型优化装置一般设置于近端设备104或中间层设备106中,应用于第二设备的算法模型优化装置一般设置于中间层设备106和云端设备108中。
图2示出了本申请一实施例提供的算法模型优化方法的流程图,该方法可以应用于图1所示***架构中。该方法可以包括以下步骤。
S202:终端生成计算请求。
在本申请实施例中,终端可根据用户发送的目标对象对应的数据生成针对目标对象的计算请求。
S204:终端向近端设备发送计算请求。
在本申请实施例中,计算请求可以是图像识别计算请求、语音识别计算请求或自然语言处理计算请求,计算请求携带用于计算的目标对象,例如图像数据、语音数据等。
S206:近端设备根据计算请求利用算法模型获得计算结果。
在本申请实施例中,近端设备可提取目标对象的特征数据,然后将特征数据作为算法模型的输入,算法模型的输出即为计算结果。本申请中的算法模型例如可以是检测模型,算法模型例如但不限于CNN(Convolutional NeuralNetwork,卷积神经网络模型)、RNN(Recurrent Neural Network,循环神经网络模型)或其他类型的神经网络模型。
S208:近端设备将计算结果返回给终端。
S210:终端获取用户对计算结果的反馈信息。
在本申请实施例中,用户可对计算结果进行反馈,具体实施时,可包括正反馈或负反馈,正反馈例如用户对计算结果表示认同,负反馈例如用户对计算结果表示不认同。负反馈还可以包括修正的信息。
S212:终端将反馈信息发送至近端设备。
S214:近端设备根据反馈信息确定计算请求对应的实时数据。
在本申请实施例中,实时数据包括目标对象及其关联的计算结果,当反馈信息为负反馈信息时,计算结果为根据反馈信息修正后的计算结果,因此,该实时数据可以用于对算法模型进行优化。
S216:近端设备将实时数据***第一历史数据集形成第一训练集。
在本申请实施例中,实时数据可以是包括一次计算请求对应的实时数据,也可以是包括多次计算请求对应的实时数据,例如可以由用户设定,当近端设备接收预定次数的计算请求时,对算法模型进行优化,或者收集在预设时间段内的实时数据对算法模型进行优化。第一历史数据集为近端设备存储的上一次对算法模型优化所用的训练集,即上一次对算法模型进行优化时将上一次收集的实时数据***上一次的历史数据集形成第一历史数据集,而本次的实时数据***第一历史数据集形成的第一训练集将作为下一次对算法模型优化时的第一历史数据集。
S218:近端设备基于第一训练集对待优化算法模型进行训练得到第一优化参数。
在本申请实施例中,近端设备可将第一训练集中的数据分为两部分,一部分作为训练数据,一部分作为测试数据,利用训练数据对待优化算法模型进行训练,利用测试数据测试训练后的算法模型的精度,根据精度利用梯度下降法不断调整算法模型的参数直至收敛,此时可获得最佳的精度和对应的第一优化参数。
S220:近端设备判断优化后的算法模型的精度是否满足预设精度要求,若是则执行步骤S222,若否则执行步骤S224。
在本申请实施例中,可设置预设精度阈值,判断是否满足预设精度要求可以是判断是否大于或等于预设精度阈值。
S222:近端设备根据第一优化参数对待优化算法模型进行优化,然后流程结束。
在本申请实施例中,可将待优化算法模型的参数调整为第一优化参数。
S224:近端设备向中间层设备发送优化请求。
S226:中间层设备将实时数据***第二历史数据集形成第二训练集。
在本申请实施例中,第二历史数据集为中间层设备存储的上一次对算法模型优化所用的训练集,即上一次对算法模型进行优化时将上一次收集的实时数据***上一次的历史数据集形成第二历史数据集,而本次的第二训练集将作为下一次对算法模型优化时的第二历史数据集。优选的,第一历史数据集可以为第二历史数据集的子集,即第二历史数据集具有更多的训练样本,因此,利用第二训练集来对待优化算法模型进行训练可得到精度更高的算法模型。中间层设备可以收集与其连接的近端设备的数据,因此中间层设备的数据量比较与其连接的近端设备要更多。
S228:中间层设备基于第二训练集对待优化算法模型进行训练得到第二优化参数。
在本申请实施例中,对待优化算法模型的训练可参照步骤S216。
S230:中间层设备判断优化后的算法模型的精度是否满足预设精度要求,若是则执行步骤S232-S234,若否则执行步骤S236。
S232:中间层设备将第二优化参数发送至近端设备。
S234:近端设备根据第二优化参数对待优化算法模型进行优化,然后流程结束。
S236:中间层设备向云端设备发送优化请求。
S238:云端设备将实时数据***第三历史数据集形成第三训练集。
在本申请实施例中,第三历史数据集为云端设备存储的上一次对算法模型优化所用的训练集。优选的,第二历史数据集可以为第三历史数据集的子集,第三历史数据集中的数据为算法模型形成与应用过程中的所有数据,因此可训练得到最高精度的算法模型。云端设备可收集各个中间层设备和近端设备的数据,因此云端设备的数据量最多最全。
S240:云端设备根据第三训练集对待优化算法模型进行训练得到第三优化参数。
S242:云端设备将第三优化参数通过中间层设备返回至近端设备。
S244:近端设备根据第三优化参数对待优化算法模型进行优化。
从以上的描述可以看出,本申请实施例的方案具有以下的有益效果:(1)本申请实施例的方案中可在近端设备实现对算法模型的优化,利用优化后的算法模型提供计算服务,可应用于实时业务中;(2)本申请实施例的方案无需将云端设备的全部数据存储在近端设备,可根据近端设备的用户需求提供部分数据,这样可防止全部数据被盗取或泄露,保证了数据的安全;(3)本申请实施例的方案中近端设备仅利用部分数据对算法模型进行优化,不会导致近端设备的运行速度太慢;(4)本申请实施例的方案中近端设备可向上游设备或云端设备发送优化请求,利用上游设备或云端设备较好的硬件资源和较多的数据量可获得优化效果较好的算法模型,解决了资源和需求的矛盾;(5)本申请实施例的方案通过部署近端设备和中间层设备,可以减轻云端设备的负载。
图3示出了按照本申请的另一实施例的算法模型优化方法的流程图。图3所示的方法应用于第一设备。
如图3所示,方法300可以包括以下步骤:
S302,将实时数据***第一历史数据集形成第一训练集。
S304,基于所述第一训练集对待优化算法模型进行训练得到第一优化参数。
S306,判断优化后的算法模型的精度是否满足预设精度要求;若是则执行步骤S308,否则执行步骤S310。
S308,根据所述第一优化参数对所述待优化算法模型进行优化。
S310,向第二设备发送优化请求。
在一个方面,方法300还可以包括以下内容:接收所述第二设备响应所述优化请求返回的第二优化参数,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将所述实时数据***第二历史数据集形成的;根据所述第二优化参数对所述待优化算法模型进行优化。
在另一个方面,所述第一历史数据集为所述第二历史数据集的子集。
在又一个方面,在对所述待优化算法模型进行优化之后,方法300还包括以下内容:将所述第一训练集确定为新的第一历史数据集。
图4示出了按照本申请的又一实施例的算法模型优化方法的流程图。图4所示的方法应用于第二设备。
如图4所示,方法400可以包括以下步骤:S402,接收第一设备发送针的对待优化算法模型的优化请求。
方法400还可以包括以下步骤:S404,响应所述优化请求返回第二优化参数,以使所述第一设备根据所述第二优化参数对所述待优化算法模型进行优化,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将实时数据***第二历史数据集形成的。
在一个方面,在响应所述优化请求返回第二优化参数之后,方法400还包括以下内容:将所述第二训练集确定为新的第二历史数据集。
图5示出了按照本申请的一个实施例的算法模型优化装置的示意图,图5所示的装置500可以利用软件、硬件或软硬件结合的方式来实现。装置500可以安装在第一设备中。装置500的实施例基本相似于方法的实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
如图5所示,装置500可以包括***模块502、训练模块504、判断模块506、优化模块508以及发送模块510。***模块502用于将实时数据***第一历史数据集形成第一训练集。训练模块504用于基于所述第一训练集对待优化算法模型进行训练得到第一优化参数。判断模块506用于判断优化后的算法模型的精度是否满足预设精度要求;是则调用优化模块508,否则调用发送模块510。优化模块508用于根据所述第一优化参数对所述待优化算法模型进行优化。发送模块510用于向第二设备发送优化请求。
在一个方面,装置500还可以包括第一接收模块。第一接收模块用于接收所述第二设备响应所述优化请求返回的第二优化参数,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将所述实时数据***第二历史数据集形成的。相应的,优化模块508还用于根据所述第二优化参数对所述待优化算法模型进行优化。
在另一个方面,所述第一历史数据集为所述第二历史数据集的子集。
在又一个方面,装置500还包括第一确定模块。第一确定模块用于将所述第一训练集确定为新的第一历史数据集。
图6示出了按照本申请的一个实施例的算法模型优化装置的示意图,图6所示的装置600可以利用软件、硬件或软硬件结合的方式来实现。装置600可以安装在第二设备中。装置600的实施例基本相似于方法的实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
如图6所示,装置600可以包括第二接收模块602和返回模块604。第二接收模块602用于接收第一设备发送的针对待优化算法模型的优化请求。返回模块604用于响应所述优化请求返回第二优化参数,以使所述第一设备根据所述第二优化参数对所述待优化算法模型进行优化,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将实时数据***第二历史数据集形成的。
在一个方面,装置600还可以包括第二确定模块。第二确定模块用于将所述第二训练集确定为新的第二历史数据集。
本申请实施例还提供一种电子设备,请参见图7,图7为本申请实施例电子设备一个实施例示意图。如图7所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。
如图7所示,电子设备700可以包括处理器702和存储器704,其中,存储器704上存储有可执行指令,其中,所述可执行指令当被执行时使得处理器702执行图3或图4任一实施方式所示的方法。
如图7所示,电子设备700还可以包括连接不同***组件(包括处理器702和存储器704)的总线706。总线706表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
电子设备700典型地包括多种计算机***可读介质。这些介质可以是任何能够被电子设备700访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器704可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)708和和/或高速缓存存储器710。电子设备700可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***712可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线706相连。存储器704可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明上述图3或图4实施例的功能。
具有一组(至少一个)程序模块716的程序/实用工具714,可以存储在例如存储器704中,这样的程序模块716包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块716通常执行本发明所描述的上述图3或图4实施例中的功能和/或方法。
电子设备700也可以与一个或多个外部设备722(例如键盘、指向设备、显示器724等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口718进行。并且,电子设备700还可以通过网络适配器720与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器720通过总线706与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器702通过运行存储在存储器704中的程序,从而执行各种功能应用以及数据处理,例如实现上述实施例所示的方法。
本申请的实施例还提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序包括可执行指令,当所述可执行指令被处理器执行时,实施前述各个实施例的算法模型优化方法中的任意一种实施方式。
本实施例的计算机存储介质可以包括上述图7所示实施例中的存储器704中的随机存取存储器(RAM)708、和/或高速缓存存储器710、和/或存储***712。
随着科技的发展,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载,或者采用其他方式获取。因此,本实施例中的计算机存储介质不仅可以包括有形的介质,还可以包括无形的介质。
本领域的技术人员应明白,本发明实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、装置、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
上面结合附图阐述的具体实施方式描述了示例性实施例,但并不表示可以实现的或者落入权利要求书的保护范围的所有实施例。在整个本说明书中使用的术语“示例性”意味着“用作示例、实例或例示”,并不意味着比其它实施例“优选”或“具有优势”。出于提供对所描述技术的理解的目的,具体实施方式包括具体细节。然而,可以在没有这些具体细节的情况下实施这些技术。在一些实例中,为了避免对所描述的实施例的概念造成难以理解,公知的结构和装置以框图形式示出。
本公开内容的上述描述被提供来使得本领域任何普通技术人员能够实现或者使用本公开内容。对于本领域普通技术人员来说,对本公开内容进行的各种修改是显而易见的,并且,也可以在不脱离本公开内容的保护范围的情况下,将本文所定义的一般性原理应用于其它变型。因此,本公开内容并不限于本文所描述的示例,而是与符合本文公开的原理和新颖性特征的最广范围相一致。

Claims (10)

1.算法模型优化方法,应用于第一设备,包括:
将实时数据***第一历史数据集形成第一训练集;
基于所述第一训练集对待优化算法模型进行训练得到第一优化参数;
判断优化后的算法模型的精度是否满足预设精度要求;若是则根据所述第一优化参数对所述待优化算法模型进行优化,否则向第二设备发送优化请求。
2.根据权利要求1所述的方法,其中,还包括:
接收所述第二设备响应所述优化请求返回的第二优化参数,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将所述实时数据***第二历史数据集形成的;
根据所述第二优化参数对所述待优化算法模型进行优化。
3.根据权利要求2所述的方法,其中,所述第一历史数据集为所述第二历史数据集的子集。
4.根据权利要求1或2所述的方法,其中,在对所述待优化算法模型进行优化之后,还包括:
将所述第一训练集确定为新的第一历史数据集。
5.算法模型优化方法,应用于第二设备,包括:
接收第一设备发送针的对待优化算法模型的优化请求;
响应所述优化请求返回第二优化参数,以使所述第一设备根据所述第二优化参数对所述待优化算法模型进行优化,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将实时数据***第二历史数据集形成的。
6.根据权利要求5所述的方法,其中,在响应所述优化请求返回第二优化参数之后,还包括:
将所述第二训练集确定为新的第二历史数据集。
7.算法模型优化装置,应用于第一设备,包括:
***模块,用于将实时数据***第一历史数据集形成第一训练集;
训练模块,用于基于所述第一训练集对待优化算法模型进行训练得到第一优化参数;
判断模块,用于判断优化后的算法模型的精度是否满足预设精度要求;是则调用优化模块,否则调用发送模块;
优化模块,用于根据所述第一优化参数对所述待优化算法模型进行优化;
发送模块,用于向第二设备发送优化请求。
8.算法模型优化装置,应用于第二设备,包括:
第二接收模块,用于接收第一设备发送的针对待优化算法模型的优化请求;
返回模块,用于响应所述优化请求返回第二优化参数,以使所述第一设备根据所述第二优化参数对所述待优化算法模型进行优化,其中,所述第二优化参数是基于第二训练集对所述待优化算法模型进行训练得到的,所述第二训练集为将实时数据***第二历史数据集形成的。
9.电子设备,包括:
处理器;以及
存储器,其上存储有可执行指令;
其中,所述处理器配置为执行所述可执行指令以实施如权利要求1-6任一项所述的方法。
10.计算机可读存储介质,其上存储有计算机程序,所述计算机程序包括可执行指令,当所述可执行指令被处理器执行时,实施如权利要求1-6任一项所述的方法。
CN201910182371.9A 2019-03-12 2019-03-12 算法模型优化方法、装置和设备 Pending CN109948803A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910182371.9A CN109948803A (zh) 2019-03-12 2019-03-12 算法模型优化方法、装置和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910182371.9A CN109948803A (zh) 2019-03-12 2019-03-12 算法模型优化方法、装置和设备

Publications (1)

Publication Number Publication Date
CN109948803A true CN109948803A (zh) 2019-06-28

Family

ID=67009604

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910182371.9A Pending CN109948803A (zh) 2019-03-12 2019-03-12 算法模型优化方法、装置和设备

Country Status (1)

Country Link
CN (1) CN109948803A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991195A (zh) * 2019-12-13 2020-04-10 北京小米智能科技有限公司 机器翻译模型训练方法、装置及存储介质
WO2021143477A1 (zh) * 2020-01-16 2021-07-22 支付宝(杭州)信息技术有限公司 融合公域数据和私有数据的联盟学习方法、装置和***
CN113642805A (zh) * 2021-08-27 2021-11-12 Oppo广东移动通信有限公司 物联网设备的算法优化方法、电子设备以及可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991195A (zh) * 2019-12-13 2020-04-10 北京小米智能科技有限公司 机器翻译模型训练方法、装置及存储介质
CN110991195B (zh) * 2019-12-13 2023-09-29 北京小米智能科技有限公司 机器翻译模型训练方法、装置及存储介质
WO2021143477A1 (zh) * 2020-01-16 2021-07-22 支付宝(杭州)信息技术有限公司 融合公域数据和私有数据的联盟学习方法、装置和***
CN113642805A (zh) * 2021-08-27 2021-11-12 Oppo广东移动通信有限公司 物联网设备的算法优化方法、电子设备以及可读存储介质

Similar Documents

Publication Publication Date Title
CN111242282B (zh) 基于端边云协同的深度学习模型训练加速方法
US7537523B2 (en) Dynamic player groups for interest management in multi-character virtual environments
CN107391031B (zh) 一种基于混合存储的计算***中的数据迁移方法及装置
CN109948803A (zh) 算法模型优化方法、装置和设备
CN110968423A (zh) 使用机器学习将工作负荷分配给加速器的方法和设备
CN113572697A (zh) 一种基于图卷积神经网络与深度强化学习的负载均衡方法
CN114614989B (zh) 基于数字孪生技术的网络业务的可行性验证方法及装置
CN113537510A (zh) 基于不均衡数据集的机器学习模型数据处理方法及装置
CN115941790A (zh) 边缘协同内容缓存方法、装置、设备及存储介质
Li et al. Human in the loop: distributed deep model for mobile crowdsensing
CN101986608B (zh) 一种异构覆盖网络负载均衡程度的评价方法
CN111124439B (zh) 一种云边协同的智能动态卸载算法
CN110750363B (zh) 计算机存储管理方法和装置、电子设备和存储介质
CN109788061B (zh) 计算任务部署方法及装置
CN104022937B (zh) 一种基于细胞型p***的虚拟网络映射方法
TWI792784B (zh) 基於聯邦強化學習的邊緣計算卸載優化方法及通信系統
WO2021068247A8 (zh) 神经网络调度方法、装置、计算机设备及可读存储介质
CN114530073B (zh) 基于虚拟现实的培训方法及装置
CN110035126A (zh) 一种文件处理方法、装置、计算设备及存储介质
CN109947850A (zh) 数据分发方法、装置和设备
CN109981755A (zh) 图像识别方法、装置和电子设备
CN105205723A (zh) 一种基于社交应用的建模方法及装置
CN115292037A (zh) 边缘网络下的任务可靠性保证方法及***
CN115190027A (zh) 一种基于网络数字孪生体的自然故障生存性评估方法
CN112738815B (zh) 一种可接入用户数的评估方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination