CN110288089B - 用于发送信息的方法和装置 - Google Patents
用于发送信息的方法和装置 Download PDFInfo
- Publication number
- CN110288089B CN110288089B CN201910575820.6A CN201910575820A CN110288089B CN 110288089 B CN110288089 B CN 110288089B CN 201910575820 A CN201910575820 A CN 201910575820A CN 110288089 B CN110288089 B CN 110288089B
- Authority
- CN
- China
- Prior art keywords
- category information
- target
- external
- internal
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开的实施例公开了用于发送信息的方法和装置。该方法涉及云计算领域,该方法的一具体实施方式包括:获取目标终端发送的类别信息集合作为外部类别信息集合;响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部数据和内部类别信息集合中与内部数据相对应的内部类别信息;向目标终端发送训练得到的分类模型的调用接口。该实施方式提高了模型训练的速度,有助于提高训练得到的模型的准确率和召回率。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于发送信息的方法和装置。
背景技术
人工智能(Artificial Intelligence,AI)技术具有覆盖领域广、技术门槛高、处理流程复杂等特点。实践中,虽然机器学习、深度学习等技术已经得到了长足的发展,但其被运用于解决实际问题前,仍需要进行大量的准备工作。例如,在对选择哪种技术来分析与处理数据需要一个较长的周期。
通常,技术人员需要通过如下步骤,才可以实现模型的使用:模型选择、数据准备、模型训练、模型测试、模型部署等等。
发明内容
本公开提出了用于发送信息的方法和装置。
第一方面,本公开的实施例提供了一种用于发送信息的方法,该方法包括:获取目标终端发送的类别信息集合作为外部类别信息集合;响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部数据和内部类别信息集合中与内部数据相对应的内部类别信息;向目标终端发送训练得到的分类模型的调用接口。
在一些实施例中,该方法还包括:获取目标终端经由调用接口发送的测试样本集合,其中,测试样本集合中的测试样本包括数据和数据的类别信息;将测试样本集合中的数据输入至调用接口对应的分类模型,得到分类模型输出的类别信息;基于分类模型输出的类别信息和测试样本集合中的类别信息,生成分类模型的以下至少一项评估信息:准确率、召回率、F1分数(F1-score);将所生成的评估信息发送至目标终端。
在一些实施例中,在向目标终端发送训练得到的分类模型的调用接口之前,该方法还包括:响应于外部类别信息集合中存在目标外部类别信息,获取目标终端发送的、对应目标外部类别信息的目标外部数据集合;采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型;其中,目标内部数据集合为与外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据集合。
在一些实施例中,在向目标终端发送训练得到的分类模型的调用接口之前,该方法还包括:基于目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量,计算剩余时间,其中,剩余时间用于指示训练得到分类模型的时间与当前时间之间的时间差;向目标终端发送剩余时间。
在一些实施例中,该方法还包括:获取目标终端经由调用接口发送的目标待分类数据;将目标待分类数据输入至调用接口对应的分类模型,生成目标待分类数据的类别信息;向目标终端发送所生成的类别信息。
在一些实施例中,内部类别信息集合和与内部类别信息集合中的内部类别信息相对应的内部数据集合是经过特征工程处理后得到的。
第二方面,本公开的实施例提供了一种用于发送信息的装置,该装置包括:第一获取单元,被配置成获取目标终端发送的类别信息集合作为外部类别信息集合;确定单元,被配置成响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部数据和内部类别信息集合中与内部数据相对应的内部类别信息;第一发送单元,被配置成向目标终端发送训练得到的分类模型的调用接口。
在一些实施例中,该装置还包括:第二获取单元,被配置成获取目标终端经由调用接口发送的测试样本集合,其中,测试样本集合中的测试样本包括数据和数据的类别信息;输入单元,被配置成将测试样本集合中的数据输入至调用接口对应的分类模型,得到分类模型输出的类别信息;生成单元,被配置成基于分类模型输出的类别信息和测试样本集合中的类别信息,生成分类模型的以下至少一项评估信息:准确率、召回率、F1分数;第二发送单元,被配置成将所生成的评估信息发送至目标终端。
在一些实施例中,该装置还包括:第三获取单元,被配置成响应于外部类别信息集合中存在目标外部类别信息,获取目标终端发送的、对应目标外部类别信息的目标外部数据集合;采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型;其中,目标内部数据集合为与外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据集合。
在一些实施例中,该装置还包括:计算单元,被配置成基于目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量,计算剩余时间,其中,剩余时间用于指示训练得到分类模型的时间与当前时间之间的时间差;第三发送单元,被配置成向目标终端发送剩余时间。
在一些实施例中,该装置还包括:第四获取单元,被配置成获取目标终端经由调用接口发送的目标待分类数据;输入单元,被配置成将目标待分类数据输入至调用接口对应的分类模型,生成目标待分类数据的类别信息;第四发送单元,被配置成向目标终端发送所生成的类别信息。
在一些实施例中,内部类别信息集合和与内部类别信息集合中的内部类别信息相对应的内部数据集合是经过特征工程处理后得到的。
第三方面,本公开的实施例提供了一种用于发送信息的服务器,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得该一个或多个处理器实现如上述用于发送信息的方法中任一实施例的方法。
第四方面,本公开的实施例提供了一种用于发送信息的计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述用于发送信息的方法中任一实施例的方法。
本公开的实施例提供的用于发送信息的方法和装置,通过获取目标终端发送的类别信息集合作为外部类别信息集合,然后,响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部数据和内部类别信息集合中与内部数据相对应的内部类别信息,最后,向目标终端发送训练得到的分类模型的调用接口,从而提高了模型训练的速度,有助于提高训练得到的模型的准确率和召回率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性***架构图;
图2是根据本公开的用于发送信息的方法的一个实施例的流程图;
图3是根据本公开的用于发送信息的方法的一个应用场景的示意图;
图4是根据本公开的用于发送信息的方法的又一个实施例的流程图;
图5A-图5F是根据本公开的用于发送信息的方法的目标终端的交互过程示意图;
图6是根据本公开的用于发送信息的装置的一个实施例的结构示意图;
图7是适于用来实现本公开的实施例的服务器的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于发送信息的方法或用于发送信息的装置的实施例的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送数据(例如外部类别信息集合)等。终端设备101、102、103上可以安装有各种客户端应用,例如模型训练类应用、视频播放软件、新闻资讯类应用、图像处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(MovingPicture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103发送的外部类别信息集合等数据进行处理的后台服务器。后台服务器可以确定外部类别信息集合中是否存在目标外部类别信息,以及在外部类别信息集合中不存在目标外部类别信息的情况下,将预先训练的模型确定为训练得到的分类模型,并且向终端设备101、102、103发送训练得到的分类模型的调用接口。作为示例,服务器105可以是云端服务器,也可以是物理服务器
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
还需要说明的是,本公开的实施例所提供的用于发送信息的方法可以由服务器执行。相应地,用于发送信息的装置包括的各个部分(例如各个单元、子单元、模块、子模块)可以设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当用于发送信息方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该***架构可以仅包括用于发送信息方法运行于其上的电子设备(例如服务器)。
继续参考图2,示出了根据本公开的用于发送信息的方法的一个实施例的流程200。该用于发送信息的方法,包括以下步骤:
步骤201,获取目标终端发送的类别信息集合作为外部类别信息集合。
在本实施例中,用于发送信息的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式获取目标终端发送的类别信息集合作为外部类别信息集合。
其中,上述目标终端可以是与上述执行主体通信连接的终端。上述目标终端发送的类别信息集合中的类别信息可以用于指示类别。作为示例,类别信息可以用于指示以下任一项:人物类、动物类、植物类、包含人脸、不包含人脸等等。
上述目标终端发送的类别信息集合中的类别信息可以用于指示视频的类别、文字的类别、图像的类别,也可以用于指示其他数据的类别。
步骤202,响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型。
在本实施例中,在外部类别信息集合中不存在目标外部类别信息的情况下,上述执行主体可以将预先训练的模型确定为训练得到的分类模型。
其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息。预先训练的模型基于预先确定的训练样本集合训练得到。训练样本集合中的训练样本包括内部数据和内部类别信息集合中与内部数据相对应的内部类别信息。分类模型用于从外部类别信息集合中确定所输入的数据对应的外部类别信息。
内部类别信息集合中的内部类别信息用于指示预先确定的类别。作为示例,内部类别信息集合中的内部类别信息用于指示以下任一类别:车辆类、人物类、植物类等等。外部类别信息可以为目标终端发送的类别信息。作为示例,外部类别信息可以用于指示以下任一类别:汽车类、风景类、植物类等等。在这里,技术人员可以预先确定匹配规则,从而确定内部类别信息是否与外部类别信息相匹配。例如,上述匹配规则可以是“如果内部类别信息与外部类别信息相同,那么,该内部类别信息与该外部类别信息相匹配”。由此,上述执行主体可以确定用于指示“植物类”的内部类别信息与用于指示“植物类”的外部类别信息相匹配。
目标内部数据集合为:与外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据集合。目标外部数据集合中的目标外部数据的类别为:与目标外部数据集合相对应的外部类别信息指示的类别。
上述预先训练的模型可以采用如下步骤训练得到:
首先,获取训练样本集合。其中,上述训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据。
然后,采用机器学习算法,将上述训练样本集合中的训练样本包括的内部数据作为初始模型的输入数据,将与输入的内部数据对应的内部类别信息作为初始模型的期望输出数据,对初始模型进行训练,从而将满足预先确定的训练结束条件的初始模型确定为训练得到的模型。
其中,上述初始模型可以包括各种模型结构,例如,AlexNet、ZFNet、OverFeat、VGG(Visual Geometry Group)Network等等。作为示例,初始模型可以是卷积神经网络。上述训练结束条件可以包括但不限于以下至少一项:训练时长超过预设时长、训练次数超过预设次数、基于预先确定的损失函数计算得到的函数值小于预设阈值。
可以理解,当初始模型不满足上述训练结束条件时,可以通过调整初始模型的模型参数,以使初始模型满足上述训练结束,从而训练得到上述模型。
实践中,上述预先训练的模型可以采用批梯度下降(BatchGradient Descent,BGD)、随机梯度下降(Stochastic Gradient Descent,SGD)、最小批梯度下降(Mini-batchGradient Descent)等算法,来训练初始模型。
在本实施例的一些可选的实现方式中,上述执行主体还可以通过执行以下任一步骤(即步骤一或者步骤二),来确定外部类别信息集合中是否存在目标外部类别信息:
步骤一,对于外部类别信息集合中的外部类别信息,响应于确定内部类别信息集合中,不存在与该外部类别信息预先建立关联关系的内部类别信息,确定外部类别信息集合中存在目标外部类别信息。
在这里,上述执行主体本地或者与上述执行主体通信连接的电子设备中,可以存储有内部类别信息集合,并且针对上述内部类别信息集合中的每个内部类别信息,将该内部类别信息与外部类别信息进行关联存储。由此,在确定内部类别信息集合中不存在与外部类别信息预先建立关联关系的内部类别信息的情况下,上述执行主体可以确定外部类别信息集合中存在目标外部类别信息;在各个外部类别信息均存在与其预先建立关联关系的内部类别信息的情况下,上述执行主体可以确定外部类别信息集合中不存在目标外部类别信息。
步骤二,对于外部类别信息集合中的外部类别信息,响应于确定内部类别信息集合中,不存在与该外部类别信息的相似度大于或者等于预设阈值的内部类别信息,确定外部类别信息集合中存在目标外部类别信息。
在这里,上述执行主体可以采用各种方式来确定外部类别信息和内部类别信息之间的相似度,例如,深层结构语义模型(Deep StructuredSemantic Models,DSSM)、余弦相似性等等。
可以理解,在确定内部类别信息集合中不存在与该外部类别信息的相似度大于或者等于预设阈值的内部类别信息的情况下,上述执行主体可以确定外部类别信息集合中存在目标外部类别信息;在各个外部类别信息与内部类别信息之间的相似度均小于上述预设阈值的情况下,上述执行主体可以确定外部类别信息集合中不存在目标外部类别信息。
步骤203,向目标终端发送训练得到的分类模型的调用接口。
在本实施例中,上述执行主体可以在得到分类模型之后,对分类模型进行部署,以及向目标终端发送训练得到的分类模型的调用接口(API,Application ProgrammingInterface)。其中,调用接口可以包括用于部署分类模型的地址和端口号。
可选的,上述执行主体可以将分类模型部署到公有云、私有云、嵌入式设备之中。
可以理解,在目标终端接收到调用接口之后,用户可以通过该调用接口来使用训练得到的分类模型。
实践中,部署分类模型可以包括如下步骤:将分类模型打包,将打包后的分类模型上传至存储器(例如BOS),部署集群操作***(例如matrix)。
在本实施例的一些可选的实现方式中,上述执行主体还可以执行如下步骤:
步骤一,获取目标终端经由调用接口发送的测试样本集合。其中,测试样本集合中的测试样本包括数据和数据的类别信息。作为示例,测试样本包括的数据可以是视频,测试样本包括的类别信息可以为“人物类”,可以理解,该测试样本包括的类别信息“人物类”可以用于指示该测试样本包括的视频的类别为“人物类”。
步骤二,将测试样本集合中的数据输入至调用接口对应的分类模型,得到分类模型输出的类别信息。
可以理解,在这里,上述步骤二得到的类别信息为分类模型对测试样本集合中的数据经过计算后所得到的输出数据。
步骤三,基于分类模型输出的类别信息和测试样本集合中的类别信息,生成分类模型的以下至少一项评估信息:准确率、召回率、F1分数。
步骤四,将所生成的评估信息发送至目标终端。
可以理解,本可选的实现方式可以向目标终端发送所生成的评估信息,以供使用目标终端的用户通过评估信息对所得到的分类模型进行评估,从而确定分类模型是否满足实际需求,进而确定继续训练分类模型、重新训练分类模型或者开始使用分类模型。由此,有助于针对用户的不同需求训练得到相应的、符合用户需求的分类模型,丰富了模型的训练方式,有助于在减少模型的训练时长的前提下,提高模型的准确率、召回率、F1分数中的至少一项。
在本实施例的一些可选的实现方式中,在执行上述步骤203之前,上述执行主体还可以执行如下步骤:
在外部类别信息集合中存在目标外部类别信息的情况下,获取目标终端发送的、对应目标外部类别信息的目标外部数据集合。然后,采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型。其中,目标内部数据集合为:与外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据组成的集合。
可以理解,在这里,每个目标外部数据集合可以对应一个外部类别信息,不同的目标外部数据集合可以对应不同的外部类别信息。实践中,上述执行主体本地或者与上述执行主体通信连接的电子设备中,可以预先存储有多个内部数据集合和内部类别信息集合。每个内部数据集合可以对应内部类别信息集合中的一个内部类别信息,该内部类别信息用于指示该内部数据集合中的各个内部数据的类别,换言之,内部数据集合中的内部数据的类别为与内部数据集合相对应的内部类别信息指示的类别。
终端发送的、对应目标外部类别信息的目标外部数据集合中的目标外部数据的类别,可以是目标外部类别信息指示的类别。
在本实施例的一些可选的实现方式中,上述执行主体可以采用如下步骤训练得到分类模型:
步骤一,获取训练样本集。其中,上述训练样本集中的训练样本包括目标数据和目标数据的类别信息。目标数据为:上述目标外部数据集合中的目标外部数据,或者,目标内部数据集合中的目标内部数据。目标数据的类别信息为外部类别信息集合中的外部类别信息。
步骤二,采用机器学习算法,将训练样本集中的训练样本包括的目标数据作为输入数据,将与输入数据相对应的类别信息作为期望输出数据,对初始模型进行训练,从而将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型。
其中,上述初始模型可以包括各种模型结构,例如,AlexNet、ZFNet、OverFeat、VGG(Visual Geometry Group)Network等等。作为示例,初始模型可以是卷积神经网络。上述训练结束条件可以包括但不限于以下至少一项:训练时长超过预设时长、训练次数超过预设次数、基于预先确定的损失函数计算得到的函数值小于预设阈值。
可以理解,当初始模型不满足上述训练结束条件时,可以采用梯度下降法、反向传播法等算法来调整初始模型的模型参数。
在本实施例的一些可选的实现方式中,上述执行主体还可以采用如下步骤训练得到分类模型:
第一步,获取预训练的模型。其中,预训练的模型的超参数为目标模型集合中的目标模型的最优超参数,例如,学习速度最快的目标模型的超参数。目标模型集合中的目标模型为采用预先确定的多个超参数调整方式中的超参数调整方式对初始模型进行超参数调整后得到的模型。其中,超参数可以包括但不限于以下至少一项:学习率、正则化参数、神经网络的层数、每一个隐层中神经元的个数、学习的回合数、小批量数据的大小、输出神经元的编码方式、代价函数的选择、权重初始化的方法、神经元激活函数的种类、参加训练模型数据的规模等等。这里,针对不同的初始模型,可以相应地设置不同的超参数。上述超参数调整方式可以包括以下至少一项:网格搜索、贝叶斯优化、随机搜索、基于梯度的优化等等。
第二步,采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对预训练的模型进行训练,得到分类模型。
具体地,上述执行主体可以将目标数据作为预训练的模型的输入数据,将与输入数据相对应的目标内部数据集合中的外部类别信息作为预训练的模型的期望输出数据,对预训练的模型进行训练,从而将满足预先确定的训练结束条件的预训练的模型确定为训练得到的分类模型。
其中,上述初始模型可以包括各种模型结构,例如,AlexNet、ZFNet、OverFeat、VGG(Visual Geometry Group)Network等等。作为示例,初始模型可以是卷积神经网络。上述训练结束条件可以包括但不限于以下至少一项:训练时长超过预设时长、训练次数超过预设次数、基于预先确定的损失函数计算得到的函数值小于预设阈值。
可以理解,当预训练的模型不满足上述训练结束条件时,可以采用梯度下降法、反向传播法等算法来调整预训练的模型的模型参数。
应当理解,在本可选的实现方式中,可以采用多种超参数调整方式对初始模型进行训练,从而得到多个目标模型,然后从所得到的多个目标模型中选取最优(例如准确率和召回率中的至少一项最大,或者,学习速度最快)的目标模型作为预训练的模型,从而提高了后续训练得到分类模型的速度,或者,提高了后续训练得到分类模型的准确率、召回率和F1分数中的至少一项。
在本实施例的一些可选的实现方式中,在执行上述步骤203之前,上述执行主体还可以执行如下步骤:
步骤一,基于目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量,计算生成分类模型的剩余时间。其中,剩余时间用于指示训练得到分类模型的时间与当前时间之间的时间差。
作为示例,上述剩余时间可以采用如下方式计算得到:
首先,技术人员可以经过大量的统计,确定出用于表征训练样本的数量与训练得到分类模型的时长之间的对应关系。这里,上述对应关系可以通过二维表、曲线图或折线图等形式表征。其中,训练样本的数量为目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量之和。其中,当前时间可以用于指示执行该步骤一的时间。
然后,上述执行主体可以根据上述对应关系确定出当前训练样本的数量对应的时长。其中,当前训练样本的数量为步骤一中目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量之和。
最后,上述执行主体可以将所确定出的时长与已经过时长之差,确定为剩余时间。其中,已经过时长表征从已获取到训练样本集合到当前时间所经过的时长。其中,上述当前时间可以是执行上述步骤一的时间。
可选的,上述执行主体还可以采用如下方式,来计算上述剩余时间:
首先,计算目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量之和作为训练样本数量。
然后,计算目标外部数据集合中的外部数据的维度,以及计算目标内部数据集合中的内部数据的维度。
之后,将上述两个维度之和、训练样本数量和预设时长三者的乘积,确定为训练总时长。其中,预设时长为预先设置的、用于表征采用单维度的一个训练样本训练分类模型所使用的时长。
最后,上述执行主体可以将所确定出的训练总时长与已经过时长之差,确定为剩余时间。其中,已经过时长表征从已获取到训练样本集合到当前时间所经过的时长。其中,上述当前时间可以是执行上述步骤一的时间。
步骤二,向目标终端发送上述步骤一中所计算得到的剩余时间。
可以理解,本可选的实现方式可以向用户终端发送剩余时长,由此,用户可以获知获得分类模型的具体时间。
在本实施例的一些可选的实现方式中,上述执行主体还可以执行如下步骤:
步骤一,获取目标终端经由调用接口发送的目标待分类数据。其中,上述目标待分类数据可以是待对其进行分类的数据。实践中,该目标待分类数据可以与上述内部数据、外部数据为相同类型的数据。例如,如果内部数据、外部数据为文字,那么,目标待分类数据也可以为文字;如果内部数据、外部数据为图像,那么,目标待分类数据也可以为图像。
步骤二,将目标待分类数据输入至调用接口对应的分类模型,生成目标待分类数据的类别信息。
步骤三,向目标终端发送所生成的类别信息。
可以理解,本可选的实现方式通过训练得到的分类模型,对目标终端经由调用接口发送的目标待分类数据进行分类,从而生成目标待分类数据的类别信息,以及向目标终端发送所生成的类别信息。由此,无需将分类模型存储于用户所使用的目标终端,即可实现用户对分类模型的调用,减少了目标终端的资源占用,节省了目标终端的计算资源,降低了目标终端的硬件损耗。
可选的,在生成目标待分类数据的类别信息之前,上述执行主体还可以进行验证,以提高最终输出的类别信息的准确性。
在本实施例的一些可选的实现方式中,内部类别信息集合和与内部类别信息集合中的内部类别信息相对应的内部数据集合是经过特征工程处理后得到的。
可以理解,特征工程处理可以包括但不限于以下至少一项:特征构建、特征提取、特征选择等等。通常,在训练模型之前,模型训练人员需要花费大量的时间和精力对训练样本进行特征工程处理,从而使得训练得到的模型的准确率、召回率等方面具备相对优异的表现。本可选的实现方式可以在上述执行主体本地或者与上述执行主体通信连接的电子设备中,预先存储经过特征工程处理后的内部类别信息集合和内部数据集合,由此,可以使得目标终端的用户无需经过特征工程处理,即可获得采用特征工程处理后的内部类别信息集合和内部数据集合训练得到的分类模型。由此,避免了用户进行模型训练时面临的数据获取方面的障碍,简化了训练和调用模型的步骤,在提高模型的生成效率的前提下,保障了模型的准确率。
继续参见图3,图3是根据本实施例的用于发送信息的方法的应用场景的一个示意图。在图3的应用场景中,服务器301首先获取目标终端302发送的类别信息集合303作为外部类别信息集合303。然后,在外部类别信息集合303中不存在目标外部类别信息的情况下,服务器301将预先训练的模型305确定为训练得到的分类模型305。其中,目标外部类别信息为不与预先确定的内部类别信息集合304中的内部类别信息相匹配的外部类别信息。预先训练的模型305基于预先确定的训练样本集合训练得到。训练样本集合中的训练样本包括内部类别信息集合304中的内部类别信息和内部类别信息对应的内部数据。最后,服务器301向目标终端302发送训练得到的分类模型的调用接口306。
现有技术中,在使用模型之前,通常需要用户首先进行如下步骤,才可以实现模型的使用:模型选择、数据准备、模型训练、模型测试、模型部署等等。
本公开的上述实施例提供的方法,通过获取目标终端发送的类别信息集合作为外部类别信息集合,然后,在外部类别信息集合中不存在目标外部类别信息的情况下,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据,最后,向目标终端发送训练得到的分类模型的调用接口,由此,用户只需上传用于训练模型的数据(例如类别信息集合),即可生成对数据按照用户上传的类别信息指示的类别进行分类的分类模型,提高了模型训练的速度,有助于提高训练得到的模型的准确率和召回率,并且,本公开的上述实施例提供的方法无需将分类模型存储于用户所使用的目标终端,即可实现用户对分类模型的调用,减少了目标终端的资源占用,节省了目标终端的计算资源,降低了目标终端的硬件损耗。
进一步参考图4,其示出了用于发送信息的方法的又一个实施例的流程400。该用于发送信息的方法的流程400,包括以下步骤:
步骤401,获取目标终端发送的类别信息集合作为外部类别信息集合。之后,执行步骤402。
在本实施例中,步骤401与图2对应实施例中的步骤201基本一致,这里不再赘述。
步骤402,确定外部类别信息集合中是否存在目标外部类别信息。之后,若是,则执行步骤404;若否,则执行步骤403。
在本实施例中,上述执行主体可以采用与图2所示的可选的实现方式所描述的方法来确定外部类别信息集合中是否存在目标外部类别信息,在此不再赘述。
步骤403,将预先训练的模型确定为训练得到的分类模型。之后,执行步骤406。
在本实施例中,上述执行主体可以将预先训练的模型确定为训练得到的分类模型。上述执行主体可以采用图2所描述的方法,来训练得到预先训练的模型,在此不再赘述。
可以理解,在外部类别信息集合中不存在目标外部类别信息的情况下,上述执行主体可以直接将预先训练的模型确定为训练得到的分类模型。并且,由于预先训练的模型可以预先基于内部类别信息集合和内部数据集合训练得到,由此,在此应用场景下,上述执行主体无需再进行模型训练,即可得到满足用户的需求的分类模型,由此提高了模型的生成效率。
步骤404,获取目标终端发送的、对应目标外部类别信息的目标外部数据集合。之后,执行步骤405。
在本实施例中,上述执行主体可以获取目标终端发送的、对应目标外部类别信息的目标外部数据集合。可以理解,在这里,每个目标外部数据集合可以对应一个外部类别信息,不同的目标外部数据集合可以对应不同的外部类别信息。实践中,上述执行主体本地或者与上述执行主体通信连接的电子设备中,可以预先存储有多个内部数据集合和内部类别信息集合。每个内部数据集合可以对应内部类别信息集合中的一个内部类别信息,该内部类别信息用于指示该内部数据集合中的各个内部数据的类别,换言之,内部数据集合中的内部数据的类别为与内部数据集合相对应的内部类别信息指示的类别。
可以理解,内部类别信息集合和与内部类别信息集合中的内部类别信息相对应的内部数据集合可以是经过特征工程处理后得到的。例如,内部类别信息集合和内部数据集合可以是结构化数据(例如,用二维表结构来表达实现的数据)。由此,可以避免用户进行模型训练时面临的数据获取障碍,避免了用户从零开始进行算法调研、方案选择、参数调优等较高技术门槛的工作,可以提高模型的生成效率。
步骤405,采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型。之后,执行步骤406。
在本实施例中,上述执行主体可以采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型。其中,终端发送的、对应目标外部类别信息的目标外部数据集合中的目标外部数据的类别,可以是目标外部类别信息指示的类别。
可以理解,在外部类别信息集合中的每个外部类别信息均为目标外部类别信息的情况下,目标内部数据集合为空集,由此,上述执行主体可以直接基于外部类别信息集合和外部数据集合训练得到分类模型;在外部类别信息集合中的部分(而非全部)外部类别信息为目标外部类别信息的情况下,上述执行主体可以基于外部类别信息集合和外部数据集合训练得到分类模型。这样,对于外部类别信息集合中与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,上述执行主体可以采用与该外部类别信息相匹配的内部类别信息对应的内部数据集合,代替与该外部类别信息相对应的外部数据集合,来训练分类模型,由此,在目标内部数据集合为特征工程处理后得到的数据的集合的情况下,从上述执行主体获取到外部数据集合和外部类别信息,到生成分类模型通常只需要10小时以内,从而在确保训练得到的分类模型的准确率的前提下,提高了模型生成的速度。
在本实施例的一些可选的实现方式中,上述执行主体还可以执行如下步骤:
在接收到目标终端发送的目标修改信息的情况下,采用目标外部数据集合、修改后的外部类别信息集合和与修改后的外部类别信息相匹配的内部类别信息对应的内部数据集合,重新训练得到分类模型。其中,目标修改信息用于修改外部数据或者内部数据对应的外部类别信息。
在这里,上述执行主体可以将目标数据作为初始模型的输入数据,将与目标数据对应的修改后的外部类别信息作为初始模型的期望输出数据,重新训练得到分类模型。其中,目标数据为目标外部数据集合中的目标外部数据,或者,上述内部数据集合中的内部数据。
可以理解,在本可选的实现方式中,重新训练得到分类模型的方式可以与上文训练得到分类模型的方式基本一致,在此不再赘述。
应当理解,本可选的实现方式可以在用户通过目标终端修改外部数据或者内部数据对应的外部类别信息之后,重新训练得到符合用户新的需求的分类模型。由此,丰富了模型训练的方式,可以训练得到满足不同用户需求的分类模型。之后,上述执行主体还可以向目标用户发送重新训练得到的分类模型的调用接口,以供用户使用该重新训练得到的分类模型。
步骤406,向目标终端发送训练得到的分类模型的调用接口。
在本实施例中,上述执行主体可以在得到分类模型之后,对分类模型进行部署,以及向目标终端发送训练得到的分类模型的调用接口。其中,调用接口可以包括用于部署分类模型的地址和端口号。
可以理解,在目标终端接收到调用接口之后,用户可以通过该调用接口来使用训练得到的分类模型。在外部类别信息集合中不存在目标外部类别信息的情况下,上述步骤406中所发送的调用接口为步骤403中的分类模型的调用接口,即预先训练的模型的调用接口;在外部类别信息集合中存在目标外部类别信息的情况下,上述步骤406中所发送的调用接口为步骤405中训练得到的分类模型的调用接口。
实践中,部署分类模型可以包括如下步骤:将分类模型打包,将打包后的分类模型上传至存储器(例如BOS),部署集群操作***(例如matrix)。
可以理解,本可选的实现方式所训练得到的分类模型可以用于分类、检测、识别等场景。
在本实施例的一些可选的实现方式中,上述执行主体还可以执行如下步骤:
步骤一,生成训练得到的分类模型的标识信息。其中,上述标识信息可以用于标识分类模型,作为示例,标识信息可以是生成分类模型的时间戳,也可以是分类模型的版本号。
步骤二,关联存储各个存储用数据,其中,各个存储用数据包括以下至少两项:分类模型的标识信息、训练得到的分类模型、训练得到的分类模型的数据集合和外部类别信息集合,训练得到的分类模型的数据集合中的数据为以下之一:内部数据或者外部数据。
步骤三,基于从目标终端接收到的存储用数据,向目标终端发送所查找到的、与接收到的存储用数据关联存储的存储用数据。
可以理解,由于关联存储了分类模型的标识信息、训练得到的分类模型、训练得到的分类模型的数据集合和外部类别信息集合中的至少两项数据(即存储用数据),因而,本可选的实现方式可以根据从目标终端接收到的存储用数据,查找与该存储用数据关联存储的其他存储用数据。例如,当上述执行主体关联存储了分类模型的标识信息、训练得到的分类模型、训练得到的分类模型的数据集合和外部类别信息集合时,上述执行主体可以根据从目标终端接收到的分类模型的标识信息,查找到与该分类模型的标识信息关联存储的训练得到的分类模型、训练得到的分类模型的数据集合和外部类别信息集合,由此,可以使用户获知分类模型的迭代情况或训练过程中所采用的训练样本。
需要说明的是,除上面所记载的内容外,本申请实施例还可以包括与图2对应的实施例相同或类似的特征、效果,在此不再赘述。
下面请参考图5A-图5F,图5A-图5F示出了根据本公开的用于发送信息的方法的目标终端的交互过程示意图。
如图5A所示,在创建模型的过程中,首先用户向目标终端输入模型名称“短视频分类”,模型分类“场景分类”。可以理解,在此应用场景下,用户的需求是为短视频进行场景分类。
之后,请参考图5B,用户向目标终端上传类别信息集合(图5B中为“生活、科技、娱乐”)作为外部类别信息集合。之后,若外部类别信息集合中不存在目标外部类别信息,则上述执行主体将预先训练的模型确定为训练得到的分类模型。其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息。预先训练的模型基于预先确定的训练样本集合训练得到。训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据。若外部类别信息集合中存在目标外部类别信息,则上述执行主体获取目标终端发送的、对应目标外部类别信息的目标外部数据集合。然后,采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型。如图5B所示,在外部类别信息集合中存在目标外部类别信息的情况下,目标终端向上述执行主体发送外部数据集合“视频1、视频2、视频3、视频4、视频5、视频6、视频7……”。
如图5C所示,针对外部数据集合中的每个外部数据,用户从外部类别信息集合中选取该外部数据的外部类别信息。由此,目标终端获得了对应目标外部类别信息(图示5B中目标外部类别信息为“生活”)的目标外部数据集合(例如视频1、视频3……)。
此后,上述执行主体开始训练模型,如图5D所示,当前剩余时间为“10分钟”,表征上述执行主体在10分钟之后训练完成分类模型。
如图5E所示,在训练完成分类模型之后,目标终端呈现基本信息、测试报告、各标签(即类别)精确度分析等信息。
最后,如图5F所示,目标终端接收到了上述执行主体发送的、训练得到的分类模型的调用接口“http://xxx.xx.com/xx:8088”。
下面返回图4,从图4中可以看出,与图2对应的实施例相比,本实施例中的用于发送信息的方法的流程400突出了在外部类别信息集合中存在目标外部类别信息的情况下,训练得到分类模型的步骤。由此,本实施例描述的方案可以在目标终端发送的类别信息集合中存在目标外部类别信息的情况下,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,训练得到分类模型,从而丰富了模型的训练方式,并且,在目标内部数据集合为特征工程处理后得到的数据的集合的情况下,本可选的实现方式可以提高训练得到的分类模型的准确率和速度。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了一种用于发送信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征,以及产生与图2所示的方法实施例相同或相应的效果。该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于发送信息的装置600包括:第一获取单元601、确定单元602和第一发送单元603。其中,第一获取单元601,被配置成获取目标终端发送的类别信息集合作为外部类别信息集合;确定单元602,被配置成响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据;第一发送单元603,被配置成向目标终端发送训练得到的分类模型的调用接口。
在本实施例中,用于发送信息的装置600的第一获取单元601可以通过有线连接方式或者无线连接方式获取目标终端发送的类别信息集合作为外部类别信息集合。
其中,上述目标终端可以是与上述装置600通信连接的终端。上述目标终端发送的类别信息集合中的类别信息可以用于指示类别。作为示例,类别信息可以用于指示以下任一项:人物类、动物类、植物类等等。上述目标终端发送的类别信息集合中的类别信息可以用于指示视频的类别、文字的类别、图像的类别,也可以用于指示其他数据的类别。
在本实施例中,在外部类别信息集合中不存在目标外部类别信息的情况下,确定单元602可以将预先训练的模型确定为训练得到的分类模型。其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据。
其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息。预先训练的模型基于预先确定的训练样本集合训练得到。训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据。分类模型用于从外部类别信息集合中确定所输入的数据对应的外部类别信息。
内部类别信息集合中的内部类别信息用于指示预先确定的类别。作为示例,内部类别信息集合中的内部类别信息用于指示以下任一类别:车辆类、人物类、植物类等等。外部类别信息可以为目标终端发送的类别信息。作为示例,外部类别信息可以用于指示以下任一类别:汽车类、风景类、植物类等等。
在本实施例中,上述第一发送单元603可以向目标终端发送确定单元602训练得到的分类模型的调用接口。其中,调用接口可以包括用于部署分类模型的地址和端口号。
在本实施例的一些可选的实现方式中,该装置600还包括:第二获取单元(图中未示出)被配置成获取目标终端经由调用接口发送的测试样本集合,其中,测试样本集合中的测试样本包括数据和数据的类别信息。输入单元(图中未示出)被配置成将测试样本集合中的数据输入至调用接口对应的分类模型,得到分类模型输出的类别信息。生成单元(图中未示出)被配置成基于分类模型输出的类别信息和测试样本集合中的类别信息,生成分类模型的以下至少一项评估信息:准确率、召回率、F1分数。第二发送单元(图中未示出)被配置成将所生成的评估信息发送至目标终端。
在本实施例的一些可选的实现方式中,该装置600还包括:第三获取单元(图中未示出)被配置成响应于外部类别信息集合中存在目标外部类别信息,获取目标终端发送的、对应目标外部类别信息的目标外部数据集合;采用机器学习算法,基于外部类别信息集合、目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型;其中,目标内部数据集合为与外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据集合。
在本实施例的一些可选的实现方式中,该装置600还包括:计算单元(图中未示出)被配置成基于目标外部数据集合中的外部数据的数量和目标内部数据集合中的内部数据的数量,计算剩余时间,其中,剩余时间用于指示训练得到分类模型的时间与当前时间之间的时间差。第三发送单元(图中未示出)被配置成向目标终端发送剩余时间。
在本实施例的一些可选的实现方式中,该装置600还包括:第四获取单元(图中未示出)被配置成获取目标终端经由调用接口发送的目标待分类数据。输入单元(图中未示出)被配置成将目标待分类数据输入至调用接口对应的分类模型,生成目标待分类数据的类别信息。第四发送单元(图中未示出)被配置成向目标终端发送所生成的类别信息。
在本实施例的一些可选的实现方式中,内部类别信息集合和与内部类别信息集合中的内部类别信息相对应的内部数据集合是经过特征工程处理后得到的。
本公开的上述实施例提供的装置,通过第一获取单元601获取目标终端发送的类别信息集合作为外部类别信息集合,然后,响应于外部类别信息集合中不存在目标外部类别信息,确定单元602将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据,最后,第一发送单元603向目标终端发送训练得到的分类模型的调用接口,由此,用户只需上传用于训练模型的数据(例如类别信息集合),即可生成对数据按照用户上传的类别信息指示的类别进行分类的分类模型,提高了模型训练的速度,有助于提高训练得到的模型的准确率和召回率,并且,本公开的上述实施例提供的方法无需将分类模型存储于用户所使用的目标终端,即可实现用户对分类模型的调用,减少了目标终端的资源占用,节省了目标终端的计算资源,降低了目标终端的硬件损耗。
下面参考图7,其示出了适于用来实现本公开的实施例的服务器的计算机***700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,计算机***700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有***700操作所需的各种程序和数据。CPU 701、ROM702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本公开的方法中限定的上述功能。
需要说明的是,本公开所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Python、Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、确定单元和第一发送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取目标终端发送的类别信息集合的单元”。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取目标终端发送的类别信息集合作为外部类别信息集合;响应于外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,预先训练的模型基于预先确定的训练样本集合训练得到,训练样本集合中的训练样本包括内部类别信息集合中的内部类别信息和内部类别信息对应的内部数据;向目标终端发送训练得到的分类模型的调用接口。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种用于发送信息的方法,包括:
获取目标终端发送的类别信息集合作为外部类别信息集合;
响应于所述外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,所述目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,所述预先训练的模型基于预先确定的训练样本集合训练得到,所述训练样本集合中的训练样本包括内部数据和所述内部类别信息集合中与内部数据相对应的内部类别信息;
向所述目标终端发送训练得到的分类模型的调用接口。
2.根据权利要求1所述的方法,其中,所述方法还包括:
获取所述目标终端经由所述调用接口发送的测试样本集合,其中,所述测试样本集合中的测试样本包括数据和数据的类别信息;
将所述测试样本集合中的数据输入至对应所述调用接口的分类模型,得到分类模型输出的类别信息;
基于分类模型输出的类别信息和所述测试样本集合中的类别信息,生成分类模型的以下至少一项评估信息:准确率、召回率、F1分数;
将所生成的评估信息发送至所述目标终端。
3.根据权利要求1所述的方法,其中,在所述向所述目标终端发送训练得到的分类模型的调用接口之前,所述方法还包括:
响应于所述外部类别信息集合中存在目标外部类别信息,获取所述目标终端发送的、对应所述目标外部类别信息的目标外部数据集合;采用机器学习算法,基于所述外部类别信息集合、所述目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型;其中,所述目标内部数据集合为与所述外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据集合。
4.根据权利要求3所述的方法,其中,在所述向所述目标终端发送训练得到的分类模型的调用接口之前,所述方法还包括:
基于所述目标外部数据集合中的外部数据的数量和所述目标内部数据集合中的内部数据的数量,计算剩余时间,其中,所述剩余时间用于指示训练得到分类模型的时间与当前时间之间的时间差;
向所述目标终端发送所述剩余时间。
5.根据权利要求1-4之一所述的方法,其中,所述方法还包括:
获取所述目标终端经由所述调用接口发送的目标待分类数据;
将所述目标待分类数据输入至对应所述调用接口的分类模型,生成所述目标待分类数据的类别信息;
向所述目标终端发送所生成的类别信息。
6.根据权利要求1-4之一所述的方法,其中,所述内部类别信息集合和与所述内部类别信息集合中的内部类别信息相对应的内部数据集合是经过特征工程处理后得到的。
7.一种用于发送信息的装置,包括:
第一获取单元,被配置成获取目标终端发送的类别信息集合作为外部类别信息集合;
确定单元,被配置成响应于所述外部类别信息集合中不存在目标外部类别信息,将预先训练的模型确定为训练得到的分类模型,其中,所述目标外部类别信息为不与预先确定的内部类别信息集合中的内部类别信息相匹配的外部类别信息,所述预先训练的模型基于预先确定的训练样本集合训练得到,所述训练样本集合中的训练样本包括内部数据和所述内部类别信息集合中与内部数据相对应的内部类别信息;
第一发送单元,被配置成向所述目标终端发送训练得到的分类模型的调用接口。
8.根据权利要求7所述的装置,其中,所述装置还包括:
第二获取单元,被配置成获取所述目标终端发送的测试样本集合,其中,所述测试样本集合中的测试样本包括数据和数据的类别信息;
输入单元,被配置成将所述测试样本集合中的数据输入至训练得到的分类模型,得到分类模型输出的类别信息;
生成单元,被配置成基于分类模型输出的类别信息和所述测试样本集合中的类别信息,生成分类模型的以下至少一项评估信息:准确率、召回率、F1分数;
第二发送单元,被配置成将所生成的评估信息发送至所述目标终端。
9.根据权利要求7所述的装置,其中,所述装置还包括:
第三获取单元,被配置成响应于所述外部类别信息集合中存在目标外部类别信息,获取所述目标终端发送的、对应所述目标外部类别信息的目标外部数据集合;采用机器学习算法,基于所述外部类别信息集合、所述目标外部数据集合和目标内部数据集合,对初始模型进行训练,将满足预先确定的训练结束条件的初始模型确定为训练得到的分类模型;其中,所述目标内部数据集合为与所述外部类别信息集合中的外部类别信息相匹配的内部类别信息对应的内部数据集合。
10.根据权利要求9所述的装置,其中,所述装置还包括:
计算单元,被配置成基于所述目标外部数据集合中的外部数据的数量和所述目标内部数据集合中的内部数据的数量,计算剩余时间,其中,所述剩余时间用于指示训练得到分类模型的时间与当前时间之间的时间差;
第三发送单元,被配置成向所述目标终端发送所述剩余时间。
11.根据权利要求7-10之一所述的装置,其中,所述装置还包括:
第四获取单元,被配置成获取所述目标终端经由所述调用接口发送的目标待分类数据;
输入单元,被配置成将所述目标待分类数据输入至所述调用接口对应的分类模型,生成所述目标待分类数据的类别信息;
第四发送单元,被配置成向所述目标终端发送所生成的类别信息。
12.根据权利要求7-10之一所述的装置,其中,所述内部类别信息集合和与所述内部类别信息集合中的内部类别信息相对应的内部数据集合是经过特征工程处理后得到的。
13.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575820.6A CN110288089B (zh) | 2019-06-28 | 2019-06-28 | 用于发送信息的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575820.6A CN110288089B (zh) | 2019-06-28 | 2019-06-28 | 用于发送信息的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110288089A CN110288089A (zh) | 2019-09-27 |
CN110288089B true CN110288089B (zh) | 2021-07-09 |
Family
ID=68019591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910575820.6A Active CN110288089B (zh) | 2019-06-28 | 2019-06-28 | 用于发送信息的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110288089B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446754A (zh) * | 2015-08-11 | 2017-02-22 | 阿里巴巴集团控股有限公司 | 图像识别方法、度量学习方法、图像来源识别方法及装置 |
CN107766940A (zh) * | 2017-11-20 | 2018-03-06 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置 |
CN108197664A (zh) * | 2018-01-24 | 2018-06-22 | 北京墨丘科技有限公司 | 模型获取方法、装置、电子设备及计算机可读存储介质 |
CN108304936A (zh) * | 2017-07-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
CN108830235A (zh) * | 2018-06-21 | 2018-11-16 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015030606A2 (en) * | 2013-08-26 | 2015-03-05 | Auckland University Of Technology | Improved method and system for predicting outcomes based on spatio / spectro-temporal data |
US20160180214A1 (en) * | 2014-12-19 | 2016-06-23 | Google Inc. | Sharp discrepancy learning |
-
2019
- 2019-06-28 CN CN201910575820.6A patent/CN110288089B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446754A (zh) * | 2015-08-11 | 2017-02-22 | 阿里巴巴集团控股有限公司 | 图像识别方法、度量学习方法、图像来源识别方法及装置 |
US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
CN108304936A (zh) * | 2017-07-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
CN107766940A (zh) * | 2017-11-20 | 2018-03-06 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置 |
CN108197664A (zh) * | 2018-01-24 | 2018-06-22 | 北京墨丘科技有限公司 | 模型获取方法、装置、电子设备及计算机可读存储介质 |
CN108830235A (zh) * | 2018-06-21 | 2018-11-16 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
Non-Patent Citations (1)
Title |
---|
Effective distributed convolutional neural network architecture for remote sensing images target classification with a pre-training approach;LI Binquan 等;《Journal of Systems Engineering and Electronics》;20190513;第238-244页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110288089A (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107766940B (zh) | 用于生成模型的方法和装置 | |
CN108520220B (zh) | 模型生成方法和装置 | |
CN109104620B (zh) | 一种短视频推荐方法、装置和可读介质 | |
CN108830235B (zh) | 用于生成信息的方法和装置 | |
CN109976997B (zh) | 测试方法和装置 | |
CN110555714A (zh) | 用于输出信息的方法和装置 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
CN108960316B (zh) | 用于生成模型的方法和装置 | |
CN108520470B (zh) | 用于生成用户属性信息的方法和装置 | |
CN107609506B (zh) | 用于生成图像的方法和装置 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
US11488067B2 (en) | Training machine learning models using teacher annealing | |
CN109189544B (zh) | 用于生成表盘的方法和装置 | |
US20240127058A1 (en) | Training neural networks using priority queues | |
CN108388563B (zh) | 信息输出方法和装置 | |
CN112149699B (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN113128419B (zh) | 一种障碍物识别方法和装置、电子设备及存储介质 | |
US11356389B2 (en) | Systems and methods for a two-tier machine learning model for generating conversational responses | |
CN110046571B (zh) | 用于识别年龄的方法和装置 | |
CN110084317A (zh) | 用于识别图像的方法和装置 | |
CN110008926B (zh) | 用于识别年龄的方法和装置 | |
CN111090740B (zh) | 一种用于对话***的知识图谱生成方法 | |
CN110688470B (zh) | 用于发送信息的方法和装置 | |
CN110288089B (zh) | 用于发送信息的方法和装置 | |
CN109522451A (zh) | 重复视频检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |