CN115146596B - 召回文本的生成方法、装置、电子设备及存储介质 - Google Patents
召回文本的生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115146596B CN115146596B CN202210885968.1A CN202210885968A CN115146596B CN 115146596 B CN115146596 B CN 115146596B CN 202210885968 A CN202210885968 A CN 202210885968A CN 115146596 B CN115146596 B CN 115146596B
- Authority
- CN
- China
- Prior art keywords
- vector
- portrait
- target
- keyword
- product
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 268
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000004364 calculation method Methods 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000004913 activation Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种召回文本的生成方法,包括:生成基础用户画像,获取每个所述画像语义的画像向量;提取产品数据的产品关键词,获取每个所述产品关键词的关键词向量;选取目标画像向量和目标关键词向量;利用待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。此外,本发明还涉及区块链技术,数据列表可存储于区块链的节点。本发明还提出一种召回文本的生成装置、电子设备以及存储介质。本发明可以提高召回文本的生成的效率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种召回文本的生成方法、装置、电子设备及计算机可读存储介质。
背景技术
互联网以惊人的势态发展起来,到现在我们已经步入大数据时代。这期间各个领域积累了海量的各种形式的数据和信息,包括图像、文本、声音等。现实生活中大量信息就是以文本的形式存在,与信息***式的增长速度相比,人类获取信息的速度却并没有太多的增长。面对如此海量的文本信息,如何建立有效的管理和组织办法,分类文本,使其结构化,方便人们全面、快速、精确的获取所需信息,是当前面临的一项巨大的挑战。
而现如今基于机器学习和深度学习的文本召回模型,大多数是根据单一文本所包含的语义信息来分类,而短文本太短、包含的信息较少,这种噪音强、信号弱的特点,使短文本筛选任务较为困难。尤其是多分类任务,文本语义信息被分散,导致高效地获取召回文本更为困难。因此如何提升召回文本的生成效率,成为了亟待解决的问题。
发明内容
本发明提供一种召回文本的生成方法、装置及计算机可读存储介质,其主要目的在于解决召回文本的生成时效率较低的问题。
为实现上述目的,本发明提供的一种召回文本的生成方法,包括:
获取用户的基础信息,根据所述基础信息生成基础用户画像;
对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
获取产品的产品数据,提取所述产品数据的产品关键词;
对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。
可选地,所述计算所述相似度和预设的相似阈值的损失值,包括:
利用如下公式计算所述相似度和预设的相似阈值的损失值:
其中,Lk(1,…,θk,θs)所述损失值,K表示任务总数,k表示第k个任务,表示目标任务中第t迭代训练时第k个任务的任务权重,其中t代表训练迭代次数,ωk,0和是权重计算模型的超参数,X是输入样本数据,Lk(θk,θs)表示第k个任务的损失函数,θs是所有任务的共享参数,θk是每个任务单独的独立参数,表示样本是否在任务k场景N的样本空间,其中 表示第i个场景在第k个任务中的标签,N表示存在N个场景,是在第i个场景和第k个任务中的真实值,是在第i个场景和第k个任务中的损失函数。
可选地,所述计算所述目标画像向量和所述目标关键词向量的相似度,包括:
利用如下公式计算所述目标画像向量和所述目标关键词向量的相似度:
其中,d(x,y)为所述相似度,xi为所述目标画像向量中第i个目标画像分向量,yi为所述目标关键词向量中第i个目标关键词分向量,n表示所述目标用户画像中的所述目标画像分向量个数。
可选地,所述对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量,包括:
利用预先训练的语料模型将每个所述产品关键词表征为n维的词向量;
对所述词向量进行进行赋权量化计算,得到所述关键词信息的关键词权重向量;
按照预设的向量维度设定对所述关键词权重向量进行向量维度调整,得到所述关键词信息的关键词向量。
可选地,所述提取所述产品数据的产品关键词,包括:
利用预设的停用词表,对所述产品数据的停用词进行过滤;
对过滤后的产品数据进行去低频词处理;
对去低频词处理后得到的产品数据进行分词处理,得到产品关键词。
可选地,所述对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量,包括:
利用预设的向量提取模型获取所述基础用户画像中的画像语义;
根据预设的向量函数对所述画像语义进行加权计算,得到所述画像语义的向量画像向量。
可选地,所述根据所述基础信息生成基础用户画像,包括:
从所述基础信息中选取其中一个信息为目标信息;
对所述目标信息进行核心语义提取,得到信息语义;
对所述信息语义进行向量化处理,得到语义向量;
将所有基础信息对应的语义向量拼接为所述基础用户画像。
为了解决上述问题,本发明还提供一种召回文本的生成装置,所述装置包括:
用户画像模块,用于获取用户的基础信息,根据所述基础信息生成基础用户画像;
画像向量模块,用于对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
产品关键词模块,用于获取产品的产品数据,提取所述产品数据的产品关键词;
关键词向量模块,用于对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
目标向量模块,用于选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
相似度模块,用于将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
优化模块,用于计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的召回文本的生成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的召回文本的生成方法。
本发明实施例获取目标用户的基础用户画像,利用所述基础用户画像中的画像语义的画像向量,并获取产品的产品关键词,利用所述产品关键词生成关键词向量,实现了从句法到语法,由粗粒度到细粒度的变化,选取目标任务下的目标画像向量和目标关键词向量训练待训练的召回装置,从海量的文本中,设置好候选样本,减少了后序的工程量,计算它们的相似度,这样对于完全不相交的文本就不会计算,而且相交部分越少,计算量越小,极大的减少了召回过程中的计算成本,计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,通过对召回模型进行优化将待测文本输入至所述训练完成的召回装置,得到召回文本。因此本发明提出召回文本的生成方法、装置、电子设备及计算机可读存储介质,可以解决召回文本的生成效率较低的问题。
附图说明
图1为本发明一实施例提供的召回文本的生成方法的流程示意图;
图2为本发明一实施例提供的生成产品关键词的流程示意图;
图3为本发明一实施例提供的获取关键词向量的流程示意图;
图4为本发明一实施例提供的召回文本的生成装置的功能模块图;
图5为本发明一实施例提供的实现所述召回文本的生成方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种召回文本的生成方法。所述召回文本的生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述召回文本的生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的召回文本的生成方法的流程示意图。在本实施例中,所述召回文本的生成方法包括:
S1、获取用户的基础信息,根据所述基础信息生成基础用户画像。
本发明实施例中,所述用户的基础信息包括姓名、年龄、职业、住址、手机号码、婚姻状况等与所述用户相关的数据信息。
详细地,可利用具有数据抓取功能的计算机语句(如java语句、python语句等)从预先确定的存储区域抓取存储的基础信息,所述存储区域包括但不限于数据库、区块链节点、网络缓存。
进一步地,为了实现召回文本的生成,可对获取的所述基础信息进行分析,以根据所述基础信息生成与所述用户相对应的基础用户画像。
在本发明实施例中,所述根据所述基础信息生成基础用户画像,包括:从所述基础信息中选取其中一个信息为目标信息;对所述目标信息进行核心语义提取,得到信息语义;对所述信息语义进行向量化处理,得到语义向量;将所有基础信息对应的语义向量拼接为所述基础用户画像。
详细地,所述基础用户画像可以包括用户姓名、年龄、性别、收入、风险偏好等。
本发明实施例中,可预先构建的语义分析模型对所述目标信息进行核心语义提取,得到信息语义。
详细地,所述语义分析模型包括但不限于NLP(Natural Language Processing,自然语言处理)模型、HMM(Hidden Markov Model,隐马尔科夫模型)。
例如,利用预先构建的语义分析模型对所述目标信息进行卷积、池化等操作,以提取该目标信息的低维特征表达,再将提取到的低维特表达征映射至预先构建的高维空间,得到该低维特征的高维特征表达,利用预设的激活函数对所述高维特征表达进行选择性地输出,得到信息语义。
详细地,所述对所述目标信息进行核心语义提取,得到信息语义,包括:对所述目标信息进行卷积、池化处理,得到所述目标信息的低维特征语义;将所述低维特征语义映射至预先构建的高维空间,得到高维特征语义;利用预设的激活函数对所述高维特征语义进行筛选,得到信息语义。
详细地,可通过语义分析模型对所述目标信息进行卷积、池化处理,以降低所述目标信息的数据维度,进而减少对所述目标信息进行分析时计算资源的占用,提高进行核心语义提取的效率。
具体地,可利用预设的映射函数将低维特征语义映射至预先构建的高维空间,所述映射函数包括MATLAB库中的Gaussian Radial Basis Function函数、高斯函数等。
例如,所述低维特征语义为二维平面中的点,则可利用映射函数对该二维平面中的点的二维坐标进行计算,以将二维坐标转换为三维坐标,并利用计算得到的三维坐标将点映射至预先构建的三维空间,得到该低维特征语义的高维特征语义。
将所述低维特征语义映射至预先构建的高维空间,可提高该低维特征的可分类性,进而提高从得到的高维特征语义中对特征进行筛选,得到信息语义的精确度。
本发明实施例中,可利用预设的激活函数计算所述高维特征语义中每个特征语义的输出值,并选取所述输出值大于预设的输出阈值的特征语义为信息语义,所述激活函数包括但不限于sigmoid激活函数、tanh激活函数、relu激活函数。
例如,高维特征语义中存在特征语义A、特征语义B和特征语义C,分别利用激活函数对特征语义A、特征语义B和特征语义C进行计算,得到特征语义A的输出值为80,特征语义B的输出值为30,特征语义C的输出值为70,当输出阈值为50时,则将特征语义A与特征语义C输出为所述目标信息的信息语义。
本发明实施例中,可通过预设的向量转换模型对所述信息语义进行向量转换,得到信息向量,所述向量转换模型包括但不限于word2vec模型、Bert模型。
本发明实施例中,获取所述信息向量后,可将所述信息向量进行向量拼接,以生成所述基础用户画像。
详细地,所述将所有基础信息对应的语义向量拼接为所述基础用户画像,包括:统计所述信息向量中所有向量的向量维度;确定所述向量长度中的最大值为目标维度;利用预设参数将所有信息向量的维度延长至所述目标维度;将维度延长后的所有信息向量进行列维度合并,得到所述基础用户画像。
详细地,由于所述信息向量的长度可能不相同,因此,为了将所述信息向量进行向量拼接,需要将所述信息向量的向量长度进行统一化。
本发明实施例中,可比对所有信息向量的向量长度,并对向量长度较短的向量进行向量延长,以使得所有信息向量的向量量长度相同。
例如,信息向量中存在向量A:[11,36,22],向量B:[14,25,31,27],经过统计可知,向量A的向量维度为3,向量B的向量维度为4,向量B的向量维度大于第一向量维度,则可利用预设参数(如0)对所述向量A进行向量延长,直至所述向量A的向量维度与所述向量B的向量维度相等,得到延长后的向量A:[11,36,22,0]。
本发明实施例中,可通过将两个向量中对应列元素相加的形式将所述两个向量进行列维度合并。
本发明实施例中,还可通过将两个向量中对应列元素进行并行展示的方式,利用两个向量生成矩阵,进而实现向量间的列维度合并。
S2、对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量。
在本发明实施例中,所述对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量,包括:利用预设的向量提取模型获取所述基础用户画像中的画像语义;根据预设的向量函数对所述画像语义进行加权计算,得到所述画像语义的向量画像向量。
详细地,所述向量提取模型可包括但不限于word2vec模型、Bert模型。
进一步地,预设的向量函数可以进行向量的四则运算。例如:向量A(0,0,1),向量B(0,2,0),给向量A(0,0,1)赋予0.5的权重,向量B(0,2,0)赋予0.5的权重,那么0.5A+0.5B的计算结果为(0,1,0.5)。
S3、获取产品的产品数据,提取所述产品数据的产品关键词;
在本发明实施例中,所述产品数据中包含大量的文本数据,若直接对所述产品数据进行分析,会占用大量的计算资源,导致分析效率低下,因此,对所述产品数据进行产品关键词提取,得到所述产品数据对应的产品关键词,其中,所述产品关键词用于表示每个词本身和词频。
在本发明实施例中,所述提取所述产品数据的产品关键词,包括:
S21、利用预设的停用词表,对所述产品数据的停用词进行过滤;
S22、对过滤后的产品数据进行去低频词处理;
S23、对去低频词处理后得到的产品数据进行分词处理,得到产品关键词。
详细地,所述停用词指的是虽然在文本集合中出现频度很高,但是对分类毫无贡献,存在只会增大特征空间维度,增加分类运算复杂度的无用词,如语气词、副词、连词、介词等虚词,在进行分词处理之前,需要引入停用词表来过滤掉停用词,可以达到降低噪声的效果;所述低频词顾名思义就是在数据中出现次数较少的词语。此类数据实际上是具有一定的信息量,但是把低频词放入模型当中运行时,它们常常保持他们的随机初始状态,给模型增加了噪声。对于低频词的处理,简单的方法就是移除他们。
具体地,所述预设的停用词表建立方式可以分为人工建立和基于概率统计的自动建立停用词表。人工建立停用词表是根据语言学专家的主观判断选择某些词集或是对特定的某应用领域选择特定的词来构成停用词表:英文停用词表,比较著名的是VanRijsbergen发表的停用词表以及Brown Corpus停用词表。基于概率统计的自动建立是基于词频信息构建停用词表,或者从初步的分词结果中得到部分停用词,然后在之后的分词过程中不断更新并根据切分结果进行验证。基于概率统计的自动建立主要通过采取滴、联合滴和基于TF/IDF词语KL分布的重采样技术自动获取停用词表。
具体地,所述对过滤后的产品数据进行去低频词处理可根据词频处理方法进行处理,当词出现的次数低于最小阈值时,即移除;或者按照词语出现的次数排序,消除掉一定比例的低频词。词频的计算有两种,一种直接是某个词在文本中出现的次数,另一种计算方式是某个词在文本中出现的总次数所占文本的总词数的比例。
S4、对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量。
在本发明实施例中,所述对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量,包括:
S31、利用预先训练的语料模型将每个所述产品关键词表征为n维的词向量;
S32、对所述词向量进行进行赋权量化计算,得到所述关键词信息的关键词权重向量;
S33、按照预设的向量维度设定对所述关键词权重向量进行向量维度调整,得到所述关键词信息的关键词向量。
详细地,所述语料模型可包括但不限于One-Hot Representation模型、BOW模型、词集模型等。当用One-Hot Representation模型将文本表示为向量时,将每个词都表示成一个长向量,向量的维度是词表的大小,词的当前位置用1表示,其他位置用0表示,不考虑词出现的频率。
详细地,所述向量维度设定可理解为训练模型时,会挑选特征,控制每类特征维度范围,比如年龄使用One-Hot的方式表示,分成0-10,10-20...,>100这几个段,也就是将年龄映射成了11维,相比如果每个年龄表示一维,这也是一种降维的方法。因为在原始的高维空间中,包含冗余信息和噪声信息,会在实际应用中引入误差,影响准确率;而降维可以提取数据内部的本质结构,减少冗余信息和噪声信息造成的误差,提高应用中的精度。
在本发明实施例中,所述对所述词向量进行进行赋权量化计算可以是利用Word2Vec的Skip-Gram模型生成词向量后,利用TF-IDF值计算出所述词向量的权重,对词向量用TF-IDF值进行了加权,加权后的向量可以更好表征文本,每个词语在不同文档中的TF-IDF值预先计算好.每个词语的Word2Vec词向量也都预先训练好,选择在输入每个文本的词向量矩阵数据时,用哈希方法获得每个词语在该文本中的TF-IDF值,通过矩阵运算得到加权后的词向量矩阵。
具体地,所述按照预设的向量维度设定对所述关键词权重向量进行向量维度调整可以理解为当我们设定每个文本的词向量矩阵大小一致,都是150×100,其中,150是文本单词数量,100是词向量的维数,当文本长短不一,单词数量多于150时,按照单词出现频数取前150个单词;单词数量不足150时,用0补齐矩阵。我们也可以设定每个文本的词向量矩阵大小一致,都是50×10,50是文本单词数量,10是词向量的维数,当文本长短不一,单词数量多于50时,按照单词出现频数取前50个单词;单词数量不足50时,用0补齐矩阵。
S5、选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量。
在本发明实施例中,不同的所述目标任务的权重设定不同,所述权重设定公式为:
在本发明实施例中,不同子任务之间权重不同于以往人为设定一个固定权重,而是采用一种自适应动态调节的方案,在训练过程中自动调整不同任务之间的权重,这样可以保证任务权重不受认为错误设置影响,学习到实际的权重。
S6、将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度。
在本发明实施例中,所述计算所述目标画像向量和所述目标关键词向量的相似度,包括:
利用如下公式计算所述目标画像向量和所述目标关键词向量的相似度:
其中,d(x,y)为所述相似度,xi为所述目标画像向量中第i个目标画像分向量,yi为所述目标关键词向量中第i个目标关键词分向量,n表示所述目标用户画像中的所述目标画像分向量个数。
S7、计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。
在本发明实施例中,所述计算所述相似度和预设的相似阈值的损失值,包括:
利用如下公式计算所述相似度和预设的相似阈值的损失值:
其中,Lk(1,...,θk,θs)所述损失值,K表示任务总数,k表示第k个任务,表示目标任务中第t迭代训练时第k个任务的任务权重,其中t代表训练迭代次数,ωk,0和是权重计算模型的超参数,X是输入样本数据,Lk(θk,θs)表示第k个任务的损失函数,θs是所有任务的共享参数,θk是每个任务单独的独立参数,表示样本是否在任务k场景N的样本空间,其中 表示第i个场景在第k个任务中的标签,N表示存在N个场景,是在第i个场景和第k个任务中的真实值,是在第i个场景和第k个任务中的损失函数。
详细地,所述将待测文本输入至所述训练完成的召回装置,得到召回文本,可以通过PLE门控机制,每个子任务会根据输入来对具体任务模块和共享任务模块进行加权求和,从而每个子任务网络得到一个向量映射,再经过每个子任务的任务塔就得到了对应子任务的输出。
本发明实施例获取目标用户的基础用户画像,利用所述基础用户画像中的画像语义的画像向量,并获取产品的产品关键词,利用所述产品关键词生成关键词向量,实现了从句法到语法,由粗粒度到细粒度的变化,选取目标任务下的目标画像向量和目标关键词向量训练待训练的召回装置,从海量的文本中,设置好候选样本,减少了后序的工程量,计算它们的相似度,这样对于完全不相交的文本就不会计算,而且相交部分越少,计算量越小,极大的减少了召回过程中的计算成本,计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,通过对召回模型进行优化将待测文本输入至所述训练完成的召回装置,得到召回文本。因此本发明提出召回文本的生成方法,可以解决召回文本的生成效率较低的问题。
如图4所示,是本发明一实施例提供的召回文本的生成装置的功能模块图。
本发明所述召回文本的生成装置100可以安装于电子设备中。根据实现的功能,所述召回文本的生成装置100可以包括用户画像模块101、画像向量模块102、产品关键词模块103、关键词向量模块104、目标向量模块105、相似度模块106及优化模块107。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述用户画像模块,用于获取用户的基础信息,根据所述基础信息生成基础用户画像;
所述画像向量模块,用于对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
所述产品关键词模块,用于获取产品的产品数据,提取所述产品数据的产品关键词;
所述关键词向量模块,用于对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
所述目标向量模块,用于选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
所述相似度模块,用于将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
所述优化模块,用于计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。
如图5所示,是本发明一实施例提供的实现召回文本的生成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如召回文本的生成程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行召回文本的生成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如召回文本的生成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图中仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图中示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的召回文本的生成程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取用户的基础信息,根据所述基础信息生成基础用户画像;
对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
获取产品的产品数据,提取所述产品数据的产品关键词;
对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取用户的基础信息,根据所述基础信息生成基础用户画像;
对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
获取产品的产品数据,提取所述产品数据的产品关键词;
对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (4)
1.一种召回文本的生成方法,其特征在于,所述方法包括:
获取用户的基础信息,根据所述基础信息生成基础用户画像;
对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
获取产品的产品数据,提取所述产品数据的产品关键词;
对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本;
其中,所述计算所述相似度和预设的相似阈值的损失值,包括:利用如下公式计算所述相似度和预设的相似阈值的损失值:
其中,Lk(1,...,θk,θs)为所述损失值,K表示任务总数,k表示第k个任务,表示目标任务中第t迭代训练时第k个任务的任务权重,其中t代表训练迭代次数,ωk,0和是权重计算模型的超参数,X是输入样本数据,Lk(θk,θs)表示第k个任务的损失函数,θs是所有任务的共享参数,θk是每个任务单独的独立参数,表示样本是否在任务k场景N的样本空间,其中 表示第i个场景在第k个任务中的标签,N表示存在N个场景,是在第i个场景和第k个任务中的真实值,是在第i个场景和第k个任务中的损失函数;
所述计算所述目标画像向量和所述目标关键词向量的相似度,包括:利用如下公式计算所述目标画像向量和所述目标关键词向量的相似度:
其中,d(x,y)为所述相似度,xi为所述目标画像向量中第i个目标画像分向量,yi为所述目标关键词向量中第i个目标关键词分向量,n表示所述目标画像向量中的所述目标画像分向量个数;
所述对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量,包括:利用预先训练的语料模型将每个所述产品关键词表征为n维的词向量;对所述词向量进行赋权量化计算,得到所述产品关键词的关键词权重向量;按照预设的向量维度设定对所述关键词权重向量进行向量维度调整,得到所述产品关键词的关键词向量;
所述提取所述产品数据的产品关键词,包括:利用预设的停用词表,对所述产品数据的停用词进行过滤;对过滤后的产品数据进行去低频词处理;对去低频词处理后得到的产品数据进行分词处理,得到产品关键词;
所述对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量,包括:利用预设的向量提取模型获取所述基础用户画像中的画像语义;根据预设的向量函数对所述画像语义进行加权计算,得到所述画像语义的画像向量;
所述根据所述基础信息生成基础用户画像,包括:从所述基础信息中选取其中一个信息为目标信息;对所述目标信息进行核心语义提取,得到信息语义;对所述信息语义进行向量化处理,得到语义向量;将所有基础信息对应的语义向量拼接为所述基础用户画像。
2.一种召回文本的生成装置,其特征在于,所述装置包括:
用户画像模块,用于获取用户的基础信息,根据所述基础信息生成基础用户画像;
画像向量模块,用于对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量;
产品关键词模块,用于获取产品的产品数据,提取所述产品数据的产品关键词;
关键词向量模块,用于对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量;
目标向量模块,用于选取目标任务下的所述画像向量为目标画像向量,选取目标任务下的所述关键词向量为目标关键词向量;
相似度模块,用于将所述目标画像向量和所述目标关键词向量输入至待训练的召回装置,利用所述待训练的召回装置计算所述目标画像向量和所述目标关键词向量的相似度;
优化模块,用于计算所述相似度和预设的相似阈值的损失值,当所述损失值小于预设的损失阈值时,得到训练完成的召回装置,将待测文本输入至所述训练完成的召回装置,得到召回文本;
其中,所述计算所述相似度和预设的相似阈值的损失值,包括:利用如下公式计算所述相似度和预设的相似阈值的损失值:
其中,Lk(1,...,θk,θs)为所述损失值,K表示任务总数,k表示第k个任务,表示目标任务中第t迭代训练时第k个任务的任务权重,其中t代表训练迭代次数,ωk,0和是权重计算模型的超参数,X是输入样本数据,Lk(θk,θs)表示第k个任务的损失函数,θs是所有任务的共享参数,θk是每个任务单独的独立参数,表示样本是否在任务k场景N的样本空间,其中 表示第i个场景在第k个任务中的标签,N表示存在N个场景,是在第i个场景和第k个任务中的真实值,是在第i个场景和第k个任务中的损失函数;
所述计算所述目标画像向量和所述目标关键词向量的相似度,包括:利用如下公式计算所述目标画像向量和所述目标关键词向量的相似度:
其中,d(x,y)为所述相似度,xi为所述目标画像向量中第i个目标画像分向量,yi为所述目标关键词向量中第i个目标关键词分向量,n表示所述目标画像向量中的所述目标画像分向量个数;
所述对所述产品关键词进行赋权量化计算,得到每个所述产品关键词的关键词向量,包括:利用预先训练的语料模型将每个所述产品关键词表征为n维的词向量;对所述词向量进行赋权量化计算,得到所述产品关键词的关键词权重向量;按照预设的向量维度设定对所述关键词权重向量进行向量维度调整,得到所述产品关键词的关键词向量;
所述提取所述产品数据的产品关键词,包括:利用预设的停用词表,对所述产品数据的停用词进行过滤;对过滤后的产品数据进行去低频词处理;对去低频词处理后得到的产品数据进行分词处理,得到产品关键词;
所述对所述基础用户画像中的画像语义进行加权计算,得到每个所述画像语义的画像向量,包括:利用预设的向量提取模型获取所述基础用户画像中的画像语义;根据预设的向量函数对所述画像语义进行加权计算,得到所述画像语义的画像向量;
所述根据所述基础信息生成基础用户画像,包括:从所述基础信息中选取其中一个信息为目标信息;对所述目标信息进行核心语义提取,得到信息语义;对所述信息语义进行向量化处理,得到语义向量;将所有基础信息对应的语义向量拼接为所述基础用户画像。
3.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1所述的召回文本的生成方法。
4.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1所述的召回文本的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210885968.1A CN115146596B (zh) | 2022-07-26 | 2022-07-26 | 召回文本的生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210885968.1A CN115146596B (zh) | 2022-07-26 | 2022-07-26 | 召回文本的生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115146596A CN115146596A (zh) | 2022-10-04 |
CN115146596B true CN115146596B (zh) | 2023-05-02 |
Family
ID=83414061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210885968.1A Active CN115146596B (zh) | 2022-07-26 | 2022-07-26 | 召回文本的生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115146596B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993012618A1 (en) * | 1991-12-10 | 1993-06-24 | Khyber Technologies Corporation | Portable messaging and scheduling device with homebase station |
CN112100332A (zh) * | 2020-09-14 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 词嵌入表示学习方法及装置、文本召回方法及装置 |
CN113449187A (zh) * | 2021-06-28 | 2021-09-28 | 平安银行股份有限公司 | 基于双画像的产品推荐方法、装置、设备及存储介质 |
CN113822065A (zh) * | 2021-07-29 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 关键词召回方法、装置、电子设备以及存储介质 |
CN114610865A (zh) * | 2022-03-11 | 2022-06-10 | 平安科技(深圳)有限公司 | 召回文本推荐方法、装置、设备及存储介质 |
-
2022
- 2022-07-26 CN CN202210885968.1A patent/CN115146596B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993012618A1 (en) * | 1991-12-10 | 1993-06-24 | Khyber Technologies Corporation | Portable messaging and scheduling device with homebase station |
CN112100332A (zh) * | 2020-09-14 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 词嵌入表示学习方法及装置、文本召回方法及装置 |
CN113449187A (zh) * | 2021-06-28 | 2021-09-28 | 平安银行股份有限公司 | 基于双画像的产品推荐方法、装置、设备及存储介质 |
CN113822065A (zh) * | 2021-07-29 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 关键词召回方法、装置、电子设备以及存储介质 |
CN114610865A (zh) * | 2022-03-11 | 2022-06-10 | 平安科技(深圳)有限公司 | 召回文本推荐方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115146596A (zh) | 2022-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022007823A1 (zh) | 一种文本数据处理方法及装置 | |
US11347995B2 (en) | Neural architecture search with weight sharing | |
EP3602419A1 (en) | Neural network optimizer search | |
CN116097250A (zh) | 用于多模式文档理解的布局感知多模式预训练 | |
EP4295277A2 (en) | Full-stack hardware accelerator search | |
US20220383036A1 (en) | Clustering data using neural networks based on normalized cuts | |
CN115392237B (zh) | 情感分析模型训练方法、装置、设备及存储介质 | |
CN112418320A (zh) | 一种企业关联关系识别方法、装置及存储介质 | |
CN114398557A (zh) | 基于双画像的信息推荐方法、装置、电子设备及存储介质 | |
CN116956896A (zh) | 基于人工智能的文本分析方法、***、电子设备及介质 | |
CN113628043B (zh) | 基于数据分类的投诉有效性判断方法、装置、设备及介质 | |
CN114490926A (zh) | 一种相似问题的确定方法、装置、存储介质及终端 | |
CN113535960A (zh) | 一种文本分类方法、装置和设备 | |
CN115146596B (zh) | 召回文本的生成方法、装置、电子设备及存储介质 | |
WO2023059811A1 (en) | Constrained device placement using neural networks | |
CN113722477B (zh) | 基于多任务学习的网民情绪识别方法、***及电子设备 | |
CN113836297B (zh) | 文本情感分析模型的训练方法及装置 | |
CN111339287B (zh) | 摘要生成方法及装置 | |
US20230063686A1 (en) | Fine-grained stochastic neural architecture search | |
CN115129863A (zh) | 意图识别方法、装置、设备、存储介质和计算机程序产品 | |
CN115525730B (zh) | 基于页面赋权的网页内容提取方法、装置及电子设备 | |
CN116050428B (zh) | 意图识别方法、装置、设备及存储介质 | |
CN117971357B (zh) | 有限状态自动机验证方法、装置、电子设备及存储介质 | |
CN117668562B (zh) | 文本分类模型的训练和使用方法、装置、设备和介质 | |
CN111914536B (zh) | 观点分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |