CN112560427B - 问题扩展方法、装置、电子设备及介质 - Google Patents
问题扩展方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN112560427B CN112560427B CN202011491210.7A CN202011491210A CN112560427B CN 112560427 B CN112560427 B CN 112560427B CN 202011491210 A CN202011491210 A CN 202011491210A CN 112560427 B CN112560427 B CN 112560427B
- Authority
- CN
- China
- Prior art keywords
- text
- text set
- loss value
- expansion
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000013598 vector Substances 0.000 claims description 180
- 239000011159 matrix material Substances 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 48
- 238000012216 screening Methods 0.000 claims description 32
- 230000011218 segmentation Effects 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000017105 transposition Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000012546 transfer Methods 0.000 description 8
- 238000006467 substitution reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/383—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术,揭露一种问题扩展方法,包括:根据原始文本集进行标签文本检索,得到标签文本集;利用问题扩展模型对原始文本集进行扩展问题预测,得到预测文本集;计算原始文本集和预测文本集之间的第一损失值及预测文本集和标签文本集之间的第二损失值,得到最终损失值;根据最终损失值调整问题扩展模型的内部参数,直到最终损失值小于预设阈值时,得到标准问题扩展模型;利用标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。本发明还涉及区块链技术,所述标签文本集等可以存储在区块链节点中。本发明还揭露问题扩展装置、电子设备及存储介质。本发明可以解决知识库新增加的问题存在无扩展问或者扩展问较少的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种问题扩展方法、装置、电子设备及计算机可读存储介质。
背景技术
采用智能客服回答用户的问题已经在各行各业得到了广泛的应用。智能客服在回答用户的问题时,需要依赖于知识库,因此,知识库的质量直接决定了智能客服的服务质量。知识库一般由标准问、扩展问和答案组成,当用户提出了一个问题时,智能客服会逐一对扩展问进行相似匹配,并反推出标准问进而得到答案并反馈给用户,然而同一意图的不同用户的问法比较的灵活,容易出现不能命中扩展问的情况,特别是知识库新增加的问题,这类问题可能存在无扩展问或者扩展问较少的情况,从而影响智能客服输出答***性。
发明内容
本发明提供一种问题扩展方法、装置、电子设备及计算机可读存储介质,其主要目的在于解决知识库新增加的问题存在无扩展问或者扩展问较少的问题。
为实现上述目的,本发明提供的一种问题扩展方法,包括:
获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集;
利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集;
计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值;
将所述最终损失值与预设的阈值相比较,并在所述最终损失值大于或等于所述预设阈值时,调整所述问题扩展模型的内部参数,并重复利用所述问题扩展模型对所述原始文本集进行扩展问题预测,直到所述最终损失值小于所述预设阈值时,得到标准问题扩展模型;
利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
可选地,所述根据所述原始文本集进行标签文本检索,得到标签文本集,包括:
依次选择所述原始文本集中的其中一个文本,根据选择的所述文本在预设的搜索引擎中进行检索,得到所述原始文本集中所有文本的相似文本集;
对所述相似文本集进行去符号处理,得到初始文本集;
对所述初始文本集进行向量化处理,得到文本向量集;
计算所述文本向量集中的文本向量和所述原始文本集中的每一个文本的相似度,得到每一个所述文本向量对应的相似度集,根据所述相似度集计算每一个所述文本向量对应的平均相似度;
根据所述平均相似度对所述文本向量集进行排序,得到相似度排序表;
筛选出所述相似度排序表中预设数量的文本向量,得到标签文本集。
可选地,所述根据选择的所述文本在预设的搜索引擎中进行检索,得到所述原始文本集中所有文本的相似文本集,包括:
依次利用选择的所述文本在预设的搜索引擎中进行搜索,得到所述原始文本集中所有文本的搜索页面集;
根据预设的筛选规则,从所述搜索页面集中筛选出预设数量的页面,得到筛选页面集;
利用预设的页面解析工具对所述筛选页面集进行解析,得到所述筛选页面中的文本内容,汇总所述文本内容得到相似文本集。
可选地,所述对所述初始文本集进行向量化处理,得到文本向量集,包括:
对所述初始文本集进行分词处理及向量转换处理,得到分词向量集;
利用第一预设公式对所述分词向量集进行求和平均处理,得到文本向量集。
可选地,所述利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集,包括:
对所述原始文本集进行句向量处理,得到原始文本向量集;
对所述原始文本向量集进行矩阵转换处理,得到句向量矩阵;
将所述句向量矩阵进行归一化处理,得到归一化矩阵;
计算所述归一化矩阵与经过转置处理后的归一化矩阵的内积,得到相似度矩阵;
根据所述相似度矩阵和预设的可视值,得到预测文本集。
可选地,所述对所述原始文本集进行句向量处理,得到原始文本向量集,包括:
利用如下计算公式对所述原始文本集进行句向量处理,得到原始文本向量集:
其中,senvec表示原始文本向量集,m表示所述原始文本集中文本中所包含的字词的个数,veci表示所述原始文本集中文本中每个字词的词向量。
可选地,所述计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值合并最终损失值,包括:
利用下述第一损失函数计算所述原始文本集和所述预测文本集之间的第一损失值:
利用下述第二损失函数计算所述预测文本集和所述标签文本集之间的第二损失值:
其中,为预测文本集,y标签文本集,x为原始文本集,N为原始文本集中的文本总数,θ为待学习的参数向量,b为所述语言模型的内部参数的调整次数,loss1为第一损失值,loss2为第二损失值;
利用可调节的超参数对所述所述第一损失值及所述第二损失值执行合并得到最终损失值。
为了解决上述问题,本发明还提供一种问题扩展装置,所述装置包括:
数据处理模块,用于获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集;
模型训练模块,用于利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集,计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值,将所述最终损失值与预设的阈值相比较,并在所述最终损失值大于或等于所述预设阈值时,调整所述问题扩展模型的内部参数,并重复利用所述问题扩展模型对所述原始文本集进行扩展问题预测,直到所述最终损失值小于所述预设阈值时,得到标准问题扩展模型;
扩展预测模块,用于利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的问题扩展方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的问题扩展方法。
本发明实施例通过对原始文本集进行标签文本检索,得到标签文本集,不需要知识库维护人员来逐条编写标签,提高效率,进一步地,本发明实施例通过预先构建的问题扩展模型对所述原始文本集进行扩展问题预测处理,得到预测文本集,并计算所述原始文本集和所述预测文本集之间的第一损失值,及所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到的最终损失值可以更好的反应所述问题扩展模型的准确度,根据所述最终损失值对所述问题扩展模型的内部参数进行调整,得到的标准问题扩展模型可以实现对待扩展文本进行扩展预测,得到扩展文本集。因此,本发明实施例提出的问题扩展方法、装置及计算机可读存储介质,可以提高问题扩展方法的效率,解决知识库新增加的问题存在无扩展问或者扩展问较少的问题。
附图说明
图1为本发明实施例提供的问题扩展方法的流程示意图;
图2为图1所示的问题扩展方法中其中一个步骤的流程示意图;
图3为图1所示的问题扩展方法中另外一个步骤的流程示意图;
图4为图1所示的问题扩展方法中另外一个步骤的流程示意图;
图5为本发明实施例提供的问题扩展装置的模块示意图;
图6为本发明实施例提供的实现问题扩展方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种问题扩展方法,所述问题扩展方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述问题扩展方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明实施例提供的一种问题扩展方法的流程示意图。在本实施例中,所述问题扩展方法包括:
S1、获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集。
本发明实施例中,所述原始文本集可以是从网络中搜索得到的某一行业中所有可能存在的问题,如金融行业的问题。
本发明实施例可以根据所述原始文本集在现有的百度、谷歌等搜索引擎中进行搜索,根据搜索得到的结果获取相似文本集。详细地,参阅图2所示,本发明实施例中,所述根据所述原始文本集进行标签文本检索,得到标签文本集,包括:
S11、依次选择所述原始文本集中的其中一个文本,根据选择的所述文本在预设的搜索引擎中进行检索,得到所述原始文本集中所有文本的相似文本集;
S12、对所述相似文本集进行去符号处理,得到初始文本集;
S13、对所述初始文本集进行向量化处理,得到文本向量集;
S14、计算所述文本向量集中的文本向量和所述原始文本集中的每一个文本的相似度,得到每一个所述文本向量对应的相似度集,根据所述相似度集计算每一个所述文本向量对应的平均相似度;
S15、根据所述平均相似度对所述文本向量集进行排序,得到相似度排序表;
S16、筛选出所述相似度排序表中预设数量的文本向量,得到标签文本集。
进一步地,如图3所示,所述S11进一步包括:
S111、依次利用选择的所述文本在预设的搜索引擎中进行搜索,得到所述原始文本集中所有文本的搜索页面集;
S112、根据预设的筛选规则,从所述搜索页面集中筛选出预设数量的页面,得到筛选页面集;
S113、利用预设的页面解析工具对所述筛选页面集进行解析,得到所述筛选页面中的文本内容,汇总所述文本内容得到相似文本集。
其中,所述预设的筛选规则可以是在搜索得到的相似页面中,将原始文本集所在的页面删除并在剩余的相似页面中,按照所述搜索引擎推荐的顺序选择前N篇页面,得到所述筛选页面集。
本发明实施例进一步从所述筛选页面集中解析出每个页面中包含的文本内容,得到相似文本集。
进一步地,本发明实施例对所述相似文本集进行去符号处理,以删除其中的$、&、@等特殊符号以及标点符号等,得到初始文本集。
进一步地,本发明实施例中,所述对所述初始文本集进行向量化处理,得到文本向量集,包括:
对所述初始文本集进行分词处理及向量转换处理,得到分词向量集;
利用下述第一预设公式对所述分词向量集进行求和平均处理,得到文本向量集:
其中,V(sent)表示文本向量集中其中一个文本向量,wi为分词向量,n为分词集中的分词向量的个数。其中,本发明实施例可以利用Jieba分词器对所述初始文本集进行分词处理,得到分词集,并利用python gensim工具对所述分词集进行向量转换处理,得到分词向量集。
进一步地,本发明实施例采用余弦相似度公式计算所述文本向量集中的文本向量和所述原始文本集中的一个文本的相似度,并根据所述相似度对所述文本向量集进行排序,得到相似度排序表;.
详细地,所述余弦相似度公式如下所示:
其中,cos(a,b)为相似度,a、b分别为所述文本向量集中的文本向量和所述原始文本集中的一个文本,|a|、|b|分别为所述文本向量集中的文本向量和所述原始文本集中的一个文本的模。
此外,本发明实施例根据所述相似度排序表,筛选出所述相似度排序表中预设数量的文本,得到筛选文本集。
优选地,本发明实施例中,所述预设数量可以设置为10。
S2、利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集。
本发明实施例中,所述预先构建的问题扩展模型可以是UNILM(UNIfied pre-trained Language Model)模型。所述UNILM模型采用BERT(Bidirectional EncoderRepresentations from Transformers,来自变换器的双向编码器表征量)的模型,使用三种特殊掩码的预训练目标,从而使得所述UNILM模型同时支持自然语言理解和自然语言生成任务。
本发明实施例将所述原始文本集输入至所述UNILM模型进行扩展问题预测,得到所述UNILM模型输出的预测文本集。
具体地,本发明其中一个实施例中,参阅图4所示,所述对所述原始文本集进行扩展问题预测,得到预测文本集,包括:
S201、对所述原始文本集进行句向量处理,得到原始文本向量集;
S202、对所述原始文本向量集进行矩阵转换处理,得到句向量矩阵;
S203、将所述句向量矩阵进行归一化处理,得到归一化矩阵;
S204、计算所述归一化矩阵与经过转置处理后的归一化矩阵的内积,得到相似度矩阵;
S205、根据所述相似度矩阵和预设的可视值,得到预测文本集。
进一步地,本发明实施例利用如下计算公式对所述原始文本集进行句向量处理,得到原始文本向量集:
其中,senvec表示原始文本向量集,m表示所述原始文本集中文本中所包含的字词的个数,veci表示所述原始文本集中文本中每个字词的词向量。
进一步地,本发明实施例中对所述原始文本向量集进行矩阵转换处理,包括:生成初始矩阵,其中所述初始矩阵的行标签以及列标签均为所述原始文本向量集;对比所述原始文本向量集中任意两个文本向量是否只是简单的文本位置替换;若两个文本向量是简单的文本位置替换,则在所述初始矩阵中两个文本向量的交叉位置记为1,若两个文本向量不是简单的文本位置替换,则在所述初始矩阵中两个文本向量的交叉位置记为0,同时令所述句向量矩阵的对角线部分为“-”,由此生成句向量矩阵。
例如,“cls银行卡办理sep借记卡开通sep”、“cls借记卡开通sep银行卡办理sep”、“cls转账受限sep钱转不出去sep”和“钱转不出去sep转账受限sep”。
其中,文本向量“cls银行卡办理sep借记卡开通sep”与文本向量“cls借记卡开通sep银行卡办理sep”相似,故在所述句向量矩阵中记为1,文本向量“cls银行卡办理sep借记卡开通sep”与文本向量“cls转账受限sep钱转不出去sep”不相似,记为0,以此类推,将所述两两文本向量进行比较,得到句向量矩阵。
进一步地,本发明实施例将所述句向量矩阵进行归一化处理,得到归一化矩阵:
及利用计算所述归一化矩阵与经过转置处理后的归一化矩阵的内积,得到相似度矩阵:
其中,V为句向量矩阵,为归一化矩阵,Vs为相似度矩阵,/>为转置处理后的归一化矩阵。
进一步地,本发明实施例根据所述相似度矩阵和预设的可视值,采用下述公式得到预测文本集:
其中,为预测文本集,Vs为相似度矩阵,scale为预设的可视值,Id为所述预先构建的问题扩展模型中隐藏层的大小,inf为预设的参数,
详细地,所述预设的scale在训练的时候方便可视化,本发明实施例中,scale取50。
S3、计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值。
本发明其中一个实施例中,利用下述第一损失函数计算所述原始文本集和所述预测文本集之间的第一损失值:
利用下述第二损失函数计算所述预测文本集和所述标签文本集之间的第二损失值:
其中,为预测文本集,y标签文本集,x为原始文本集,N为原始文本集中的文本总数,θ为待学习的参数向量,b为所述预先构建的问题扩展模型的内部参数的调整次数,loss1为第一损失值,loss2为第二损失值;及
采用下述公式利用可调节的超参数对所述所述第一损失值及所述第二损失值执行合并得到最终损失值:
loss=αloss1+βloss2
其中,loss为最终损失值,α、β为可调节的超参数,
优选地,α=1,β=1。
S4、将所述最终损失值与预设的阈值相比较,并判断所述最终损失值是否小于所述预设的阈值。
在所述最终损失值大于或等于所述预设的阈值时,执行S5、调整所述预先构建的问题扩展模型的内部参数,并返回执行上述S2,利用所述预先构建的问题扩展模型重新对所述原始文本集进行扩展问题预测。
本发明实施例中,所述内部参数可以是模型的权重、梯度等。
在所述损失值小于所述预设阈值时,执行S6、得到标准问题扩展模型。
本发明实施例中,当所述损失值小于所述预设阈值时,此时的问题扩展模型即所述的标准问题扩展模型。
S7、利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
本发明实施例中,将所述待扩展文本输入至所述标准问题扩展模型中,得到所述扩展文本集。
本发明另一个实施例中,还可以包括对所述扩展文本集进行筛选处理,得到标准扩展集。其中,所述筛选处理包括:
对所述扩展文本集进行向量转换处理,得到扩展向量集;
对所述扩展向量集中任意两个扩展向量进行相似度计算,得到相似度;
汇总得到所有所述相似度,得到相似度集,并按照所述相似度的大小对所述相似度集进行排序并筛选出前k个相似度对应的扩展向量,汇总得到扩展文本集。
其中,本发明实施例可以利用下述的余弦相似度公式对所述扩展向量集中任意两个扩展向量进行相似度计算,得到相似度。
其中,cos(a,b)为相似度,a、b分别为任意两个扩展向量,|a|、|b|分别为任意两个扩展向量的模。
如图5所示,是本发明实施例提供的问题扩展装置的模块示意图。
本发明所述问题扩展装置100可以安装于电子设备中。根据实现的功能,所述问题扩展装置100可以包括数据处理模块101、模型训练模块102、扩展预测模块103。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述数据处理模块101,用于获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集;
所述模型训练模块102,用于利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集,计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值,将所述最终损失值与预设阈值相比较,并在所述最终损失值大于或等于所述预设阈值时,调整所述问题扩展模型的内部参数,并重复利用所述问题扩展模型对所述原始文本集进行扩展问题预测,直到所述最终损失值小于所述预设阈值时,得到标准问题扩展模型;
所述扩展预测模块103,用于利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
详细地,所述问题扩展装置100中各模块在被电子设备处理器所执行时能够实现包括一种包括下述步骤的问题扩展方法:
步骤一、所述数据处理模块101获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集。
本发明实施例中,所述原始文本集可以是从网络中搜索得到的某一行业中所有可能存在的问题,如金融行业的问题。
本发明实施例可以根据所述原始文本集在现有的百度、谷歌等搜索引擎中进行搜索,根据搜索得到的结果获取相似文本集。
详细地,本发明实施例中,所述数据处理模块101通过下述手段执行根据所述原始文本集进行标签文本检索,得到标签文本集:
依次选择所述原始文本集中的其中一个文本,根据选择的所述文本在预设的搜索引擎中进行检索,得到所述原始文本集中所有文本的相似文本集;
对所述相似文本集进行去符号处理,得到初始文本集;
对所述初始文本集进行向量化处理,得到文本向量集;
计算所述文本向量集中的文本向量和所述原始文本集中的每一个文本的相似度,得到每一个所述文本向量对应的相似度集,根据所述相似度集计算每一个所述文本向量对应的平均相似度;
根据所述平均相似度对所述文本向量集进行排序,得到相似度排序表;
筛选出所述相似度排序表中预设数量的文本向量,得到标签文本集。
进一步地,在依次选择所述原始文本集中的每一个文本,根据选择的所述文本在预设的搜索引擎中进行检索,得到相似文本集时,所述数据处理模块101进一步执行:
依次利用选择的所述文本在预设的搜索引擎中进行搜索,得到所述原始文本集中所有文本的搜索页面集;
根据预设的筛选规则,从所述搜索页面集中筛选出预设数量的页面,得到筛选页面集;
利用预设的页面解析工具对所述筛选页面集进行解析,得到所述筛选页面中的文本内容,汇总所述文本内容得到相似文本集。
其中,所述预设的筛选规则可以是在搜索得到的相似页面中,将原始文本集所在的页面删除并在剩余的相似页面中,按照所述搜索引擎推荐的顺序选择前N篇页面,得到所述筛选页面集。
本发明实施例所述数据处理模块101进一步从所述筛选页面集中解析出每个页面中包含的文本内容,得到相似文本集。
进一步地,本发明实施例所述数据处理模块101对所述相似文本集进行去符号处理,以删除其中的$、&、@等特殊符号以及标点符号等,得到初始文本集。
进一步地,本发明实施例中,所述数据处理模块101在对所述初始文本集进行向量化处理,得到文本向量集时执行:
对所述初始文本集进行分词处理及向量转换处理,得到分词向量集;
利用下述第一预设公式对所述分词向量集进行求和平均处理,得到文本向量集:
其中,V(sent)表示文本向量集中其中一个文本向量,wi为分词向量,n为分词集中的分词向量的个数。其中,本发明实施例所述数据处理模块101可以利用Jieba分词器对所述初始文本集进行分词处理,得到分词集,并利用python gensim工具对所述分词集进行向量转换处理,得到分词向量集。
进一步地,本发明实施例采用余弦相似度公式计算所述文本向量集中的文本向量和所述原始文本集中的一个文本的相似度,并根据所述相似度对所述文本向量集进行排序,得到相似度排序表;.
详细地,所述余弦相似度公式如下所示:
其中,cos(a,b)为相似度,a、b分别为所述文本向量集中的文本向量和所述原始文本集中的一个文本,|a|、|b|分别为所述文本向量集中的文本向量和所述原始文本集中的一个文本的模。
此外,本发明实施例根据所述相似度排序表,筛选出所述相似度排序表中预设数量的文本,得到筛选文本集。
优选地,本发明实施例中,所述预设数量可以设置为10。
步骤二、所述模型训练模块102利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集。
本发明实施例中,所述预先构建的问题扩展模型可以是UNILM(UNIfied pre-trained Language Model)模型。所述UNILM模型采用BERT(Bidirectional EncoderRepresentations from Transformers,来自变换器的双向编码器表征量)的模型,使用三种特殊掩码的预训练目标,从而使得所述UNILM模型同时支持自然语言理解和自然语言生成任务。
本发明实施例所述模型训练模块102将所述原始文本集输入至所述UNILM模型进行扩展问题预测,得到所述UNILM模型输出的预测文本集。
具体地,本发明其中一个实施例中,所述模型训练模块102通过下述操作对所述原始文本集进行扩展问题预测,得到预测文本集:
对所述原始文本集进行句向量处理,得到原始文本向量集;
对所述原始文本向量集进行矩阵转换处理,得到句向量矩阵;
将所述句向量矩阵进行归一化处理,得到归一化矩阵;
计算所述归一化矩阵与经过转置处理后的归一化矩阵的内积,得到相似度矩阵;
根据所述相似度矩阵和预设的可视值,得到预测文本集。
进一步地,本发明实施例所述模型训练模块102利用如下计算公式对所述原始文本集进行句向量处理,得到原始文本向量集:
其中,senvec表示原始文本向量集,m表示所述原始文本集中文本中所包含的字词的个数,veci表示所述原始文本集中文本中每个字词的词向量。
进一步地,本发明实施例中所述模型训练模块102通过下述操作对所述原始文本向量集进行矩阵转换处理:生成初始矩阵,其中所述初始矩阵的行标签以及列标签均为所述原始文本向量集;对比所述原始文本向量集中任意两个文本向量是否只是简单的文本位置替换;若两个文本向量是简单的文本位置替换,则在所述初始矩阵中两个文本向量的交叉位置记为1,若两个文本向量不是简单的文本位置替换,则在所述初始矩阵中两个文本向量的交叉位置记为0,同时令所述句向量矩阵的对角线部分为“-”,由此生成句向量矩阵。
例如,“cls银行卡办理sep借记卡开通sep”、“cls借记卡开通sep银行卡办理sep”、“cls转账受限sep钱转不出去sep”和“钱转不出去sep转账受限sep”。
其中,文本向量“cls银行卡办理sep借记卡开通sep”与文本向量“cls借记卡开通sep银行卡办理sep”相似,故在所述句向量矩阵中记为1,文本向量“cls银行卡办理sep借记卡开通sep”与文本向量“cls转账受限sep钱转不出去sep”不相似,记为0,以此类推,将所述两两文本向量进行比较,得到句向量矩阵。
进一步地,本发明实施例所述模型训练模块102将所述句向量矩阵进行归一化处理,得到归一化矩阵:
/>
及利用计算所述归一化矩阵与经过转置处理后的归一化矩阵的内积,得到相似度矩阵:
其中,V为句向量矩阵,为归一化矩阵,Vs为相似度矩阵,/>为转置处理后的归一化矩阵。
进一步地,本发明实施例所述模型训练模块102根据所述相似度矩阵和预设的可视值,采用下述公式得到预测文本集:
其中,为预测文本集,Vs为相似度矩阵,scale为预设的可视值,Id为所述预先构建的问题扩展模型中隐藏层的大小,inf为预设的参数,
详细地,所述预设的scake在训练的时候方便可视化,本发明实施例中,scale取50。
步骤三、所述模型训练模块102计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值。
本发明其中一个实施例中,所述模型训练模块102利用下述第一损失函数计算所述原始文本集和所述预测文本集之间的第一损失值:
利用下述第二损失函数计算所述预测文本集和所述标签文本集之间的第二损失值:
其中,为预测文本集,y标签文本集,x为原始文本集,N为原始文本集中的文本总数,θ为待学习的参数向量,b为所述预先构建的问题扩展模型的内部参数的调整次数,loss1为第一损失值,loss2为第二损失值;及
采用下述公式利用可调节的超参数对所述所述第一损失值及所述第二损失值执行合并得到最终损失值:
loss=αloss1+βloss2
其中,loss为最终损失值,α、β为可调节的超参数,
优选地,α=1,β=1。
步骤四、所述模型训练模块102将所述最终损失值与预设的阈值相比较,并判断所述最终损失值是否小于所述预设的阈值。
在所述最终损失值大于或等于所述预设的阈值时,所述模型训练模块102调整所述预先构建的问题扩展模型的内部参数,并重新利用所述预先构建的问题扩展模型重新对所述原始文本集进行扩展问题预测。
本发明实施例中,所述内部参数可以是模型的权重、梯度等。
在所述损失值小于所述预设阈值时,此时的问题扩展模型即所述的标准问题扩展模型。
步骤七、所述扩展预测模块103利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
本发明实施例中,所述扩展预测模块103将所述待扩展文本输入至所述标准问题扩展模型中,得到所述扩展文本集。
本发明另一个实施例中,所述扩展预测模块103还用于对所述扩展文本集进行筛选处理,得到标准扩展集。其中,所述筛选处理包括:
对所述扩展文本集进行向量转换处理,得到扩展向量集;
对所述扩展向量集中任意两个扩展向量进行相似度计算,得到相似度;
汇总得到所有所述相似度,得到相似度集,并按照所述相似度的大小对所述相似度集进行排序并筛选出前k个相似度对应的扩展向量,汇总得到扩展文本集。
其中,本发明实施例所述扩展预测模块103可以利用下述的余弦相似度公式对所述扩展向量集中任意两个扩展向量进行相似度计算,得到相似度。
其中,cos(a,b)为相似度,a、b分别为任意两个扩展向量,|a|、|b|分别为任意两个扩展向量的模。
如图6所示,是本发明实现问题扩展方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如问题扩展程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如问题扩展程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行问题扩展程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图6仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图6示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的问题扩展程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集;
利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集;
计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值;
将所述最终损失值与预设的阈值相比较,并在所述最终损失值大于或等于所述预设的阈值时,调整所述问题扩展模型的内部参数,并重复利用所述问题扩展模型对所述原始文本集进行扩展问题预测,直到所述最终损失值小于所述预设阈值时,得到标准问题扩展模型;
利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (7)
1.一种问题扩展方法,其特征在于,所述方法包括:
获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集;
利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集;
计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值;
将所述最终损失值与预设阈值相比较,并在所述最终损失值大于或等于所述预设阈值时,调整所述问题扩展模型的内部参数,并重复利用所述问题扩展模型对所述原始文本集进行扩展问题预测,直到所述最终损失值小于所述预设阈值时,得到标准问题扩展模型;
利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集;
其中,所述根据所述原始文本集进行标签文本检索,得到标签文本集,包括:依次选择所述原始文本集中的其中一个文本,根据选择的所述文本在预设的搜索引擎中进行检索,得到所述原始文本集中所有文本的相似文本集;对所述相似文本集进行去符号处理,得到初始文本集;对所述初始文本集进行向量化处理,得到文本向量集;计算所述文本向量集中的文本向量和所述原始文本集中的每一个文本的相似度,得到每一个所述文本向量对应的相似度集,根据所述相似度集计算每一个所述文本向量对应的平均相似度;根据所述平均相似度对所述文本向量集进行排序,得到相似度排序表;筛选出所述相似度排序表中预设数量的文本向量,得到标签文本集;
所述根据选择的所述文本在预设的搜索引擎中进行检索,得到所述原始文本集中所有文本的相似文本集,包括:依次利用选择的所述文本在预设的搜索引擎中进行搜索,得到所述原始文本集中所有文本的搜索页面集;根据预设的筛选规则,从所述搜索页面集中筛选出预设数量的页面,得到筛选页面集;利用预设的页面解析工具对所述筛选页面集进行解析,得到所述筛选页面中的文本内容,汇总所述文本内容得到相似文本集;
所述利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集,包括:对所述原始文本集进行句向量处理,得到原始文本向量集;对所述原始文本向量集进行矩阵转换处理,得到句向量矩阵;将所述句向量矩阵进行归一化处理,得到归一化矩阵;计算所述归一化矩阵与经过转置处理后的归一化矩阵的内积,得到相似度矩阵;根据所述相似度矩阵和预设的可视值,得到预测文本集。
2.如权利要求1所述的问题扩展方法,其特征在于,所述对所述初始文本集进行向量化处理,得到文本向量集,包括:
对所述初始文本集进行分词处理及向量转换处理,得到分词向量集;
利用第一预设公式对所述分词向量集进行求和平均处理,得到文本向量集。
3.如权利要求1所述的问题扩展方法,其特征在于,所述对所述原始文本集进行句向量处理,得到原始文本向量集,包括:
利用如下计算公式对所述原始文本集进行句向量处理,得到原始文本向量集:
其中,senvec表示原始文本向量集,m表示所述原始文本集中文本中所包含的字词的个数,veci表示所述原始文本集中文本中每个字词的词向量。
4.如权利要求1至2中任意一项所述的问题扩展方法,其特征在于,所述计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值,包括:
利用下述第一损失函数计算所述原始文本集和所述预测文本集之间的第一损失值:
利用下述第二损失函数计算所述预测文本集和所述标签文本集之间的第二损失值:
其中,为预测文本集,y标签文本集,x为原始文本集,N为原始文本集中的文本总数,θ为待学习的参数向量,b为所述问题扩展模型的内部参数的调整次数,loss1为第一损失值,loss2为第二损失值;
利用可调节的超参数对所述第一损失值及所述第二损失值执行合并得到最终损失值。
5.一种问题扩展装置,用于实现如权利要求1至4中任一项所述的问题扩展方法,其特征在于,所述装置包括:
数据处理模块,用于获取原始文本集,根据所述原始文本集进行标签文本检索,得到标签文本集;
模型训练模块,用于利用预先构建的问题扩展模型对所述原始文本集进行扩展问题预测,得到预测文本集,计算所述原始文本集和所述预测文本集之间的第一损失值,以及计算所述预测文本集和所述标签文本集之间的第二损失值,根据所述第一损失值及所述第二损失值得到最终损失值,将所述最终损失值与预设阈值相比较,并在所述最终损失值大于或等于所述预设阈值时,调整所述问题扩展模型的内部参数,并重复利用所述问题扩展模型对所述原始文本集进行扩展问题预测,直到所述最终损失值小于所述预设阈值时,得到标准问题扩展模型;
扩展预测模块,用于利用所述标准问题扩展模型对待扩展文本进行扩展预测,得到扩展文本集。
6.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至4中任一项所述的问题扩展方法。
7.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的问题扩展方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011491210.7A CN112560427B (zh) | 2020-12-16 | 2020-12-16 | 问题扩展方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011491210.7A CN112560427B (zh) | 2020-12-16 | 2020-12-16 | 问题扩展方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112560427A CN112560427A (zh) | 2021-03-26 |
CN112560427B true CN112560427B (zh) | 2023-09-22 |
Family
ID=75064121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011491210.7A Active CN112560427B (zh) | 2020-12-16 | 2020-12-16 | 问题扩展方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112560427B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114169293A (zh) * | 2021-11-29 | 2022-03-11 | 深延科技(北京)有限公司 | 文本转换方法、装置、电子设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573047A (zh) * | 2018-04-18 | 2018-09-25 | 广东工业大学 | 一种中文文本分类模型的训练方法及装置 |
CN109992648A (zh) * | 2019-04-10 | 2019-07-09 | 北京神州泰岳软件股份有限公司 | 基于词迁徙学习的深度文本匹配方法及装置 |
CN110019685A (zh) * | 2019-04-10 | 2019-07-16 | 北京神州泰岳软件股份有限公司 | 基于排序学习的深度文本匹配方法及装置 |
CN111667011A (zh) * | 2020-06-08 | 2020-09-15 | 平安科技(深圳)有限公司 | 损伤检测模型训练、车损检测方法、装置、设备及介质 |
-
2020
- 2020-12-16 CN CN202011491210.7A patent/CN112560427B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573047A (zh) * | 2018-04-18 | 2018-09-25 | 广东工业大学 | 一种中文文本分类模型的训练方法及装置 |
CN109992648A (zh) * | 2019-04-10 | 2019-07-09 | 北京神州泰岳软件股份有限公司 | 基于词迁徙学习的深度文本匹配方法及装置 |
CN110019685A (zh) * | 2019-04-10 | 2019-07-16 | 北京神州泰岳软件股份有限公司 | 基于排序学习的深度文本匹配方法及装置 |
CN111667011A (zh) * | 2020-06-08 | 2020-09-15 | 平安科技(深圳)有限公司 | 损伤检测模型训练、车损检测方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112560427A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113157927B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN112988963B (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN113627797A (zh) | 入职员工画像生成方法、装置、计算机设备及存储介质 | |
CN111475645B (zh) | 知识点标注方法、装置及计算机可读存储介质 | |
CN113706291A (zh) | 欺诈风险预测方法、装置、设备及存储介质 | |
WO2021042529A1 (zh) | 文章摘要自动生成方法、装置及计算机可读存储介质 | |
CN112560427B (zh) | 问题扩展方法、装置、电子设备及介质 | |
CN114706961A (zh) | 目标文本识别方法、装置及存储介质 | |
CN113918704A (zh) | 基于机器学习的问答方法、装置、电子设备及介质 | |
CN112632264A (zh) | 智能问答方法、装置、电子设备及存储介质 | |
CN116737933A (zh) | 文本分类方法、装置、电子设备及计算机可读存储介质 | |
CN114676307A (zh) | 基于用户检索的排序模型训练方法、装置、设备及介质 | |
CN112529743B (zh) | 合同要素抽取方法、装置、电子设备及介质 | |
CN112434157B (zh) | 文书多标签分类方法、装置、电子设备及存储介质 | |
CN115510188A (zh) | 文本关键词关联方法、装置、设备及存储介质 | |
CN115221323A (zh) | 基于意图识别模型的冷启动处理方法、装置、设备及介质 | |
CN114757154A (zh) | 基于深度学习的作业生成方法、装置、设备及存储介质 | |
CN114385815A (zh) | 基于业务需求的新闻筛选方法、装置、设备及存储介质 | |
CN114708073A (zh) | 一种围标串标智能检测方法、装置、电子设备及存储介质 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
CN112632260A (zh) | 智能问答方法、装置、电子设备及计算机可读存储介质 | |
CN112749264A (zh) | 基于智能机器人的问题分发方法、装置、电子设备及存储介质 | |
CN115204120B (zh) | 保险领域三元组抽取方法、装置、电子设备及存储介质 | |
CN117390173B (zh) | 一种语义相似度匹配的海量简历筛选方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |