CN113657104A - 文本抽取方法、装置、计算机设备及存储介质 - Google Patents
文本抽取方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113657104A CN113657104A CN202111015728.8A CN202111015728A CN113657104A CN 113657104 A CN113657104 A CN 113657104A CN 202111015728 A CN202111015728 A CN 202111015728A CN 113657104 A CN113657104 A CN 113657104A
- Authority
- CN
- China
- Prior art keywords
- text
- vector
- processed
- extraction model
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例属于人工智能领域,应用于医疗领域中,涉及一种文本抽取方法,包括获取待处理文本和预设抽取模型,输入待处理文本至预设抽取模型,根据编码层对待处理文本进行编码,得到目标编码向量;输入目标编码向量至第一网络层,计算得到第一网络向量;输入第一网络向量至第二网络层,计算得到目标特征矩阵,对目标特征矩阵进行自注意力计算,得到目标特征向量;输入目标特征向量至判别层,计算得到最优标注序列,获取最优标注序列对应的实体信息,得到目标抽取文本。本申请还提供一种文本抽取装置、计算机设备及存储介质。此外,本申请还涉及区块链技术,目标抽取文本可存储于区块链中。本申请实现了对文本的精确抽取。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种文本抽取方法、装置、计算机设备及存储介质。
背景技术
对于一段医疗文件/数据,比如:药品说明书文本,从中抽取出药品所对应的适应症。例如:本品为白色片或加有着色剂的淡蓝色或浅绿色片,或为薄膜衣片。用于治疗十二指肠溃疡、胃溃疡、反流性食管炎、应激性溃疡及卓-艾(Zollinger-Ellison)综合征。治疗十二指肠溃疡或病理性高分泌状态,一次0.2~0.4g,一日4次,餐后及睡前服,或一次0.8g,睡前1次服;可以抽取出5个药品的适应症:十二指肠溃疡;胃溃疡;反流性食管炎;应激性溃疡;卓-艾综合征。
然而,当前对药品适应症的识别,主要通过收集适应症名称,生成适应症字典库;之后,读取药品说明书,根据最大匹配规则,匹配适应症字典库;而后生成匹配的适应症。该种方式会导致只有在字典库中出现的适应症才能够被识别出来,对于新的适应症不能够别识别出来,泛化能力太差,识别能力低下的问题。
发明内容
本申请实施例的目的在于提出一种文本抽取方法、装置、计算机设备及存储介质,以解决文本抽取不够准确的技术问题。
为了解决上述技术问题,本申请实施例提供一种文本抽取方法,采用了如下所述的技术方案:
获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
进一步的,所述根据所述预设抽取模型的编码层对所述待处理文本进行编码的步骤包括:
获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量,根据所述编码层对所述待处理文本的字进行编码,得到第二向量;
对所述第一向量和所述第二向量进行拼接,得到所述目标编码向量。
进一步的,所述获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量的步骤包括:
获取所述待处理文本的拼音文本、部首文本和反译文本,将所述拼音文本、所述部首文本和所述反译文本作为所述标签信息;
根据所述编码层分别对所述拼音文本、所述部首文本和所述反译文本进行编码,得到拼音编码、部首编码和反译编码;
对所述拼音编码、所述部首编码和所述反译编码进行自注意力计算,得到所述第一向量。
进一步的,所述输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量的步骤包括:
所述第一网络层包括前向长短期记忆网络和后向长短期记忆网络,将所述目标编码向量按照所述待处理文本的正序输入至所述前向长短期记忆网络,计算得到前向隐向量;
将所述目标编码向量按照所述待处理文本的倒序输入至所述后向长短期记忆网络,计算得到后向隐向量;
拼接所述前向隐向量和所述后向隐向量,得到所述第一网络向量。
进一步的,在所述获取待处理文本和预设抽取模型的步骤之前还包括:
采集多组语料文本和所述语料文本对应的真实抽取文本,对所述真实抽取文本和所述语料文本进行标注,得到标注文本;
构建基础抽取模型,输入所述标注文本至所述基础抽取模型,计算得到损失函数;
根据所述损失函数对所述基础抽取模型的参数进行调整,在所述损失函数收敛时,确定所述基础抽取模型训练完成,将训练完成的所述基础抽取模型作为所述预设抽取模型。
进一步的,所述对所述真实抽取文本和所述语料文本进行标注,得到标注文本的步骤包括:
对所述真实抽取文本进行分词,得到分词词语,获取每个所述分词词语在所述真实抽取文本中的位置;
按照所述位置的起始位置、中间位置和结束位置对所述分词词语进行标签标注,得到第一子文本;
获取所述语料文本的预设标签,根据所述预设标签将所述语料文本标注为第二子文本,组合所述第一子文本和所述第二子文本为所述标注文本。
进一步的,所述输入所述标注文本至所述基础抽取模型,计算得到损失函数的步骤包括:
输入所述标注文本至所述基础抽取模型,得到所述标注文本的预测抽取文本;
根据所述预测抽取文本和所述真实抽取文本,计算所述基础抽取模型的损失函数。
为了解决上述技术问题,本申请实施例还提供一种文本抽取装置,采用了如下所述的技术方案:
获取模块,用于获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
第一计算模块,用于输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
第二计算模块,用于输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
确认模块,用于输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
本申请通过获取待处理文本和预设抽取模型,输入待处理文本至预设抽取模型,根据预设抽取模型的编码层对待处理文本进行编码,得到目标编码向量,使得通过目标编码向量可以对待处理文本进行精确表达;之后,输入目标编码向量至预设抽取模型的第一网络层,计算得到待处理文本对应的第一网络向量,根据该第一网络向量可以对待处理文本中上下文特征信息进行提取表达;而后,输入第一网络向量至预设抽取模型的第二网络层,计算得到目标特征矩阵,对目标特征矩阵进行自注意力计算,得到目标特征向量;最后,输入目标特征向量至预设抽取模型的判别层,计算得到待处理文本对应的最优标注序列,获取最优标注序列对应的实体信息,确定实体信息为待处理文本的目标抽取文本,由此提升了模型的泛化能力,对于未出现在字典库中的文本也能够识别抽取,并且改进后的模型能够根据上下文语义信息来识别抽取文本,提升了模型的召回率和准确率,不需要持续维护字典库,节省了资源。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性***架构图;
图2根据本申请的文本抽取方法的一个实施例的流程图;
图3是根据本申请的文本抽取装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:文本抽取装置300、获取模块301、第一计算模块302、第二计算模块303以及确认模块304。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的文本抽取方法一般由服务器/终端设备执行,相应地,文本抽取装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的文本抽取的方法的一个实施例的流程图。所述的文本抽取方法,包括以下步骤:
步骤S201,获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
在本实施例中,待处理文本为需要进行信息识别抽取的文本,例如,对于药品适应症的抽取,需要从药品说明书中抽取该药品对应的适用症,该药品说明书即为该待处理文本。预设抽取模型为预先训练完成的抽取模型,该预设抽取模型包括编码层、第一网络层、第二网络层和判别层。在得到待处理文本时,根据该预设抽取模型的编码层对待处理文本进行编码,得到该待处理文本对应的目标编码向量。该目标编码向量可以采用bert(Bidirectional Encoder Representations from Transformers,预训练语言模型)的编码结构编码得到,具体地,对该待处理文本分别进行位置编码、分类编码和嵌入编码,得到第一编码结果、第二编码结果和第三编码结果;拼接该第一编码结果、第二编码结果和第三编码结果,得到目标编码向量。
步骤S202,输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
在本实施例中,第一网络层采用双向长短期记忆网络(BiLSTM,Bi-directionalLong Short-Term Memory),该第一网络层由前向长短期记忆网络和后向长短期记忆网络组成。将该目标编码向量按照待处理文本的正序依次输入至前向长短期记忆网络中,得到前向隐向量;将该目标编码向量按照待处理文本的倒序依次输入至后向长短期记忆网络中,得到后向隐向量,对该前向隐向量和后向隐向量进行拼接,得到第一网络向量。该第一网络向量包括了前向和后向的所有信息,根据该第一网络向量可以对文本上下文的语义信息特征进行精确表示。
步骤S203,输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
在本实施例中,在得到第一网络向量时,将该第一网络向量输入至第二网络层,根据该第二网络层对该第一网络向量进行特征抽取,即得到目标抽取矩阵。具体地,该第二网络层可以采用卷积神经网络或者门控卷积网络等神经网络对第一网络向量进行特征抽取。以门控卷积网络(GCNN)为例,在得到第一网络向量时,根据该门控卷积网络对第一网络向量进行并行卷积得到第一卷积结果和第二卷积结果;选取其中一个卷积结果输入至预设的激活函数(sigmoid函数),计算得到门控计算结果;将门控计算结果与另一组未通过激活函数计算的卷积结果进行乘积,计算得到目标特征矩阵。在得到目标特征矩阵时,对该目标特征矩阵进行自注意力计算,即得到目标特征向量。在从药品说明书中对药品的适应症进行抽取时,该目标特征向量即为该药品说明书对应的特征向量。
步骤S204,输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
在本实施例中,在得到目标抽取向量时,输入该目标特征向量至预设抽取模型的判别层,该判别层可以采用条件随机场模型(crf,Conditional Random Fields)或隐马尔可夫模型等判别模型。以条件随机场模型为例,条件随机场模型为一种无向图模型,根据该条件随机场模型对目标特征向量进行计算,从该目标特征向量中选取每个单词对应分数最高的标签,该分数最高的标签则组合为最优标注序列。例如,对于w0,“B-药品”对应的得分为1.5,该1.5为最高的得分,则选择“B-药品”作为w0分数最高的标注。在得到该最优标注序列时,获取该最优标注序列对应的实体信息,将该实体信息作为该待处理文本的目标抽取文本。
需要强调的是,为进一步保证上述目标抽取文本的私密和安全性,上述目标抽取文本还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请提升了模型的泛化能力,对于未出现在字典库中的文本也能够识别抽取,并且改进后的模型能够根据上下文语义信息来识别抽取文本,提升了模型的召回率和准确率,不需要持续维护字典库,节省了资源。
在本实施例的一些可选的实现方式中,上述根据所述预设抽取模型的编码层对所述待处理文本进行编码的步骤包括:
获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量,根据所述编码层对所述待处理文本的字进行编码,得到第二向量;
对所述第一向量和所述第二向量进行拼接,得到所述目标编码向量。
在本实施例中,在根据编码层对待处理文本进行编码时,获取该待处理文本的标签信息,其中,该标签信息为该待处理文本的标签表达,如该待处理文本的拼音或部首等标签信息;根据该编码层对该标签信息进行编码,得到第一向量;根据编码层对待处理文本的字进行编码,得到第二向量。在得到该第一向量和第二向量时,对该第一向量和第二向量进行向量拼接,得到目标编码向量。
本实施例通过对标签信息和待处理文本的字进行编码,实现了对待处理文本的精确表达,使得根据计算得到的目标编码向量能够更精确地反应该待处理文本的文本特征。
在本实施例的一些可选的实现方式中,上述获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量的步骤包括:
获取所述待处理文本的拼音文本、部首文本和反译文本,将所述拼音文本、所述部首文本和所述反译文本作为所述标签信息;
根据所述编码层分别对所述拼音文本、所述部首文本和所述反译文本进行编码,得到拼音编码、部首编码和反译编码;
对所述拼音编码、所述部首编码和所述反译编码进行自注意力计算,得到所述第一向量。
在本实施例中,为了更精确地对待处理文本进行编码表示,在根据编码层对待处理文本进行编码时,获取该待处理文本的拼音文本、部首文本和反译文本,该拼音文本、部首文本和反译文本即为该待处理文本的标签信息。根据该编码层对该拼音文本、部首文本和反译文本分别进行编码,得到对应的拼音编码、部首编码和反译编码;之后,对该拼音编码、部首编码和反译编码进行自注意力计算,得到第一向量。具体地,对该拼音编码、部首编码和反译编码进行向量拼接,得到拼接向量;在得到拼接向量时,对该拼接向量通过自注意力计算向量之间的相似度,并将该相似度通过概率分布结果表示,得到概率分布结果;最后,将该概率分布结果与剩下的编码矩阵进行相乘,得到第一向量。
本实施例通过对待处理文本的拼音文本、部首文本和反译文本进行编码,实现了对待处理文本的充分表达,进一步提高了文本抽取的精确度。
在本实施例的一些可选的实现方式中,上述输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量的步骤包括:
所述第一网络层包括前向长短期记忆网络和后向长短期记忆网络,将所述目标编码向量按照所述待处理文本的正序输入至所述前向长短期记忆网络,计算得到前向隐向量;
将所述目标编码向量按照所述待处理文本的倒序输入至所述后向长短期记忆网络,计算得到后向隐向量;
拼接所述前向隐向量和所述后向隐向量,得到所述第一网络向量。
在本实施例中,第一网络层包括前向长短期记忆网络和后向长短期记忆网络,该前向长短期记忆网络和后向长短期记忆网络均包括三个门结构,即遗忘门、记忆门和输出门。依次将目标编码向量按照待处理文本的正序输入至前向长短期记忆网络的遗忘门,根据输入的目标编码向量结合前一时刻的隐层状态计算得到遗忘门的输出值;根据记忆门对临时细胞状态和前一时刻细胞状态进行计算,得到当前时刻细胞状态,输入该当前时刻细胞状态至输出门,计算得到前向隐向量。同理,依次将目标编码向量按照待处理文本的倒序输入至后向长短期记忆网络,按照上述前向长短期记忆网络的计算方式,根据该后向长短期记忆网络计算得到后向隐向量。在得到前向隐向量和后向隐向量时,将该前向隐向量和后向隐向量对应位置的向量进行向量拼接,得到第一网络向量。
本实施例通过前向长短期记忆网络和后向长短期记忆网络对目标编码向量进行特征计算,实现了对文本上下文的语义信息特征进行精确表示,进一步使得抽取得到的文本更加精确。
在本实施例的一些可选的实现方式中,在上述获取待处理文本和预设抽取模型的步骤之前还包括:
采集多组语料文本和所述语料文本对应的真实抽取文本,对所述真实抽取文本和所述语料文本进行标注,得到标注文本;
构建基础抽取模型,输入所述标注文本至所述基础抽取模型,计算得到损失函数;
根据所述损失函数对所述基础抽取模型的参数进行调整,在所述损失函数收敛时,确定所述基础抽取模型训练完成,将训练完成的所述基础抽取模型作为所述预设抽取模型。
在本实施例中,在获取预设抽取模型之前,需要构建基础抽取模型,并对该基础抽取模型进行训练,得到预设抽取模型。具体地,采集多组语料文本和该语料文本对应的真实抽取文本,对该语料文本和真实抽取文本进行标注,将标注后的语料文本和真实抽取文本均作为标注文本。构建基础抽取模型,该基础抽取模型与预设抽取模型具有同样的模型结构,即均包括编码层、第一网络层、第二网络层和判别层,但该基础抽取模型和预设抽取模型的参数不同。将该标注文本输入至该基础抽取模型中,计算得到基础抽取模型的损失函数;根据该损失函数对基础抽取模型的参数进行调整,直至根据某一次参数调整后的基础抽取模型计算得到的损失函数收敛,确定该基础抽取模型训练完成,该训练完成的基础训练模型即为预设抽取模型。
本实施例通过预先对基础抽取模型进行训练,使得通过训练完成的基础抽取模型能够对文本进行精确抽取,提高了文本抽取效率和准确率。
在本实施例的一些可选的实现方式中,上述对所述真实抽取文本和所述语料文本进行标注,得到标注文本的步骤包括:
对所述真实抽取文本进行分词,得到分词词语,获取每个所述分词词语在所述真实抽取文本中的位置;
按照所述位置的起始位置、中间位置和结束位置对所述分词词语进行标签标注,得到第一子文本;
获取所述语料文本的预设标签,根据所述预设标签将所述语料文本标注为第二子文本,组合所述第一子文本和所述第二子文本为所述标注文本。
在本实施例中,在得到真实抽取文本时,对该真实抽取文本进行分词,得到分词词语,获取每个分词词语在真实抽取文本中的位置,该位置包括起始位置、中间位置和结束位置。根据该起始位置、中间位置和结束位置对每个真实抽取文本的分词词语进行标签标注,标注后的分词词语即为第一子文本。同时,获取该语料文本的预设标签,根据该预设标签将语料文本标注为第二子文本,该第一子文本和第二子文本即组合为标注文本。
以医疗药品说明书文本为语料文本为例,该语料文本为“本品为白色片或加有着色剂的淡蓝色或浅绿色片,或为薄膜衣片。用于治疗十二指肠溃疡、胃溃疡、反流性食管炎、应激性溃疡及卓-艾(Zollinger-Ellison)综合征。治疗十二指肠溃疡或病理性高分泌状态,一次0.2~0.4g,一日4次,餐后及睡前服,或一次0.8g,睡前1次服。”该语料文本对应的真实抽取文本为该抽取的药品适应症,包括:十二指肠溃疡、胃溃疡、反流性食管炎、应激性溃疡、卓-艾综合征。“十二指肠溃疡”中“十二”为起始位置的词语,“疡”为结束位置的词语,因此,“十二”标注为“B-适应症起始位置”,“指”标注为“M-适应症中间位置”……“疡”标注为“E-适应症结束位置”;对于语料文本则标注为“O-其他”。
本实施例通过对真实抽取文本和语料文本进行标注,使得在通过预设抽取模型进行文本抽取时,根据该标注文本可以对文本进行精确抽取,提高了文本抽取准确率。
在本实施例的一些可选的实现方式中,上述输入所述标注文本至所述基础抽取模型,计算得到损失函数的步骤包括:
输入所述标注文本至所述基础抽取模型,得到所述标注文本的预测抽取文本;
根据所述预测抽取文本和所述真实抽取文本,计算所述基础抽取模型的损失函数。
在本实施例中,在得到标注文本时,输入该标注文本至基础抽取模型。在第一次标注文本输入至基础抽取模型时,该基础抽取模型的参数为初始预设参数;根据该基础抽取模型对该标注文本进行文本抽取,即预测该标注文本对应的抽取文本,得到预测抽取文本。根据该预测抽取文本和该标注文本对应的真实抽取文本计算损失函数,通过该损失函数计算真实与预测结果之间的差值,可以确定每次模型需要调整的程度。根据损失函数对基础抽取模型的参数进行调整,在每次调整之后,再次输入标注文本至调整后的基础抽取模型,并计算损失函数,直至某一次根据调整后的基础抽取模型计算得到损失函数收敛,此时,确定该调整后的基础抽取模型为预设抽取模型。
本实施例通过损失函数对模型进行参数调整,提高了模型的训练效率及模型的预测准确率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种文本抽取装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的文本抽取装置300包括:获取模块301、第一计算模块302、第二计算模块303以及确认模块304。其中:
获取模块301,用于获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
在本实施例的一些可选的实现方式中,获取模块301包括:
编码单元,用于获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量,根据所述编码层对所述待处理文本的字进行编码,得到第二向量;
拼接单元,用于对所述第一向量和所述第二向量进行拼接,得到所述目标编码向量。
在本实施例的一些可选的实现方式中,编码单元包括:
获取子单元,用于获取所述待处理文本的拼音文本、部首文本和反译文本,将所述拼音文本、所述部首文本和所述反译文本作为所述标签信息;
编码子单元,用于根据所述编码层分别对所述拼音文本、所述部首文本和所述反译文本进行编码,得到拼音编码、部首编码和反译编码;
计算子单元,用于对所述拼音编码、所述部首编码和所述反译编码进行自注意力计算,得到所述第一向量。
在本实施例中,待处理文本为需要进行信息识别抽取的文本,例如,对于药品适应症的抽取,需要从药品说明书中抽取该药品对应的适用症,该药品说明书即为该待处理文本。预设抽取模型为预先训练完成的抽取模型,该预设抽取模型包括编码层、第一网络层、第二网络层和判别层。在得到待处理文本时,根据该预设抽取模型的编码层对待处理文本进行编码,得到该待处理文本对应的目标编码向量。该目标编码向量可以采用bert(Bidirectional Encoder Representations from Transformers,预训练语言模型)的编码结构编码得到,具体地,对该待处理文本分别进行位置编码、分类编码和嵌入编码,得到第一编码结果、第二编码结果和第三编码结果;拼接该第一编码结果、第二编码结果和第三编码结果,得到目标编码向量。
第一计算模块302,用于输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
在本实施例的一些可选的实现方式中,第一计算模块302包括:
第一计算单元,用于所述第一网络层包括前向长短期记忆网络和后向长短期记忆网络,将所述目标编码向量按照所述待处理文本的正序输入至所述前向长短期记忆网络,计算得到前向隐向量;
第二计算单元,用于将所述目标编码向量按照所述待处理文本的倒序输入至所述后向长短期记忆网络,计算得到后向隐向量;
第三计算单元,用于拼接所述前向隐向量和所述后向隐向量,得到所述第一网络向量。
在本实施例中,第一网络层采用双向长短期记忆网络(BiLSTM,Bi-directionalLong Short-Term Memory),该第一网络层由前向长短期记忆网络和后向长短期记忆网络组成。将该目标编码向量按照待处理文本的正序依次输入至前向长短期记忆网络中,得到前向隐向量;将该目标编码向量按照待处理文本的倒序依次输入至后向长短期记忆网络中,得到后向隐向量,对该前向隐向量和后向隐向量进行拼接,得到第一网络向量。该第一网络向量包括了前向和后向的所有信息,根据该第一网络向量可以对文本上下文的语义信息特征进行精确表示。
第二计算模块303,用于输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
在本实施例中,在得到第一网络向量时,将该第一网络向量输入至第二网络层,根据该第二网络层对该第一网络向量进行特征抽取,即得到目标抽取矩阵。具体地,该第二网络层可以采用卷积神经网络或者门控卷积网络等神经网络对第一网络向量进行特征抽取。以门控卷积网络(GCNN)为例,在得到第一网络向量时,根据该门控卷积网络对第一网络向量进行并行卷积得到第一卷积结果和第二卷积结果;选取其中一个卷积结果输入至预设的激活函数(sigmoid函数),计算得到门控计算结果;将门控计算结果与另一组未通过激活函数计算的卷积结果进行乘积,计算得到目标特征矩阵。在得到目标特征矩阵时,对该目标特征矩阵进行自注意力计算,即得到目标特征向量。在从药品说明书中对药品的适应症进行抽取时,该目标特征向量即为该药品说明书对应的特征向量。
确认模块304,用于输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
在本实施例中,在得到目标抽取向量时,输入该目标特征向量至预设抽取模型的判别层,该判别层可以采用条件随机场模型(crf,Conditional Random Fields)或隐马尔可夫模型等判别模型。以条件随机场模型为例,条件随机场模型为一种无向图模型,根据该条件随机场模型对目标特征向量进行计算,从该目标特征向量中选取每个单词对应分数最高的标签,该分数最高的标签则组合为最优标注序列。例如,对于w0,“B-药品”对应的得分为1.5,该1.5为最高的得分,则选择“B-药品”作为w0分数最高的标注。在得到该最优标注序列时,获取该最优标注序列对应的实体信息,将该实体信息作为该待处理文本的目标抽取文本。
需要强调的是,为进一步保证上述目标抽取文本的私密和安全性,上述目标抽取文本还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
在本实施例的一些可选的实现方式中,上述文本抽取装置300还包括:
标注模块,用于采集多组语料文本和所述语料文本对应的真实抽取文本,对所述真实抽取文本和所述语料文本进行标注,得到标注文本;
构建模块,用于构建基础抽取模型,输入所述标注文本至所述基础抽取模型,计算得到损失函数;
调整模块,用于根据所述损失函数对所述基础抽取模型的参数进行调整,在所述损失函数收敛时,确定所述基础抽取模型训练完成,将训练完成的所述基础抽取模型作为所述预设抽取模型。
在本实施例的一些可选的实现方式中,标注模块包括:
分词单元,用于对所述真实抽取文本进行分词,得到分词词语,获取每个所述分词词语在所述真实抽取文本中的位置;
第一标注单元,用于按照所述位置的起始位置、中间位置和结束位置对所述分词词语进行标签标注,得到第一子文本;
第二标注单元,用于获取所述语料文本的预设标签,根据所述预设标签将所述语料文本标注为第二子文本,组合所述第一子文本和所述第二子文本为所述标注文本。
在本实施例的一些可选的实现方式中,构建模块包括:
预测单元,用于输入所述标注文本至所述基础抽取模型,得到所述标注文本的预测抽取文本;
第四计算单元,用于根据所述预测抽取文本和所述真实抽取文本,计算所述基础抽取模型的损失函数。
在本实施例中,在获取预设抽取模型之前,需要构建基础抽取模型,并对该基础抽取模型进行训练,得到预设抽取模型。具体地,采集多组语料文本和该语料文本对应的真实抽取文本,对该语料文本和真实抽取文本进行标注,将标注后的语料文本和真实抽取文本均作为标注文本。构建基础抽取模型,该基础抽取模型与预设抽取模型具有同样的模型结构,即均包括编码层、第一网络层、第二网络层和判别层,但该基础抽取模型和预设抽取模型的参数不同。将该标注文本输入至该基础抽取模型中,计算得到基础抽取模型的损失函数;根据该损失函数对基础抽取模型的参数进行调整,直至根据某一次参数调整后的基础抽取模型计算得到的损失函数收敛,确定该基础抽取模型训练完成,该训练完成的基础训练模型即为预设抽取模型。
本实施例提出的文本抽取装置,提升了模型的泛化能力,对于未出现在字典库中的文本也能够识别抽取,并且改进后的模型能够根据上下文语义信息来识别抽取文本,提升了模型的召回率和准确率,不需要持续维护字典库,节省了资源。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过***总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作***和各类应用软件,例如文本抽取方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述文本抽取方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本实施例提出的计算机设备,提升了模型的泛化能力,对于未出现在字典库中的文本也能够识别抽取,并且改进后的模型能够根据上下文语义信息来识别抽取文本,提升了模型的召回率和准确率,不需要持续维护字典库,节省了资源。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的文本抽取方法的步骤。
本实施例提出的计算机可读存储介质,提升了模型的泛化能力,对于未出现在字典库中的文本也能够识别抽取,并且改进后的模型能够根据上下文语义信息来识别抽取文本,提升了模型的召回率和准确率,不需要持续维护字典库,节省了资源。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种文本抽取方法,其特征在于,包括下述步骤:
获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
2.根据权利要求1所述的文本抽取方法,其特征在于,所述根据所述预设抽取模型的编码层对所述待处理文本进行编码的步骤包括:
获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量,根据所述编码层对所述待处理文本的字进行编码,得到第二向量;
对所述第一向量和所述第二向量进行拼接,得到所述目标编码向量。
3.根据权利要求2所述的文本抽取方法,其特征在于,所述获取所述待处理文本的标签信息,根据所述编码层对所述标签信息进行编码,得到第一向量的步骤包括:
获取所述待处理文本的拼音文本、部首文本和反译文本,将所述拼音文本、所述部首文本和所述反译文本作为所述标签信息;
根据所述编码层分别对所述拼音文本、所述部首文本和所述反译文本进行编码,得到拼音编码、部首编码和反译编码;
对所述拼音编码、所述部首编码和所述反译编码进行自注意力计算,得到所述第一向量。
4.根据权利要求1所述的文本抽取方法,其特征在于,所述输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量的步骤包括:
所述第一网络层包括前向长短期记忆网络和后向长短期记忆网络,将所述目标编码向量按照所述待处理文本的正序输入至所述前向长短期记忆网络,计算得到前向隐向量;
将所述目标编码向量按照所述待处理文本的倒序输入至所述后向长短期记忆网络,计算得到后向隐向量;
拼接所述前向隐向量和所述后向隐向量,得到所述第一网络向量。
5.根据权利要求1所述的文本抽取方法,其特征在于,在所述获取待处理文本和预设抽取模型的步骤之前还包括:
采集多组语料文本和所述语料文本对应的真实抽取文本,对所述真实抽取文本和所述语料文本进行标注,得到标注文本;
构建基础抽取模型,输入所述标注文本至所述基础抽取模型,计算得到损失函数;
根据所述损失函数对所述基础抽取模型的参数进行调整,在所述损失函数收敛时,确定所述基础抽取模型训练完成,将训练完成的所述基础抽取模型作为所述预设抽取模型。
6.根据权利要求5所述的文本抽取方法,其特征在于,所述对所述真实抽取文本和所述语料文本进行标注,得到标注文本的步骤包括:
对所述真实抽取文本进行分词,得到分词词语,获取每个所述分词词语在所述真实抽取文本中的位置;
按照所述位置的起始位置、中间位置和结束位置对所述分词词语进行标签标注,得到第一子文本;
获取所述语料文本的预设标签,根据所述预设标签将所述语料文本标注为第二子文本,组合所述第一子文本和所述第二子文本为所述标注文本。
7.根据权利要求5所述的文本抽取方法,其特征在于,所述输入所述标注文本至所述基础抽取模型,计算得到损失函数的步骤包括:
输入所述标注文本至所述基础抽取模型,得到所述标注文本的预测抽取文本;
根据所述预测抽取文本和所述真实抽取文本,计算所述基础抽取模型的损失函数。
8.一种文本抽取装置,其特征在于,包括:
获取模块,用于获取待处理文本和预设抽取模型,输入所述待处理文本至所述预设抽取模型,根据所述预设抽取模型的编码层对所述待处理文本进行编码,得到目标编码向量;
第一计算模块,用于输入所述目标编码向量至所述预设抽取模型的第一网络层,计算得到所述待处理文本对应的第一网络向量;
第二计算模块,用于输入所述第一网络向量至所述预设抽取模型的第二网络层,计算得到目标特征矩阵,对所述目标特征矩阵进行自注意力计算,得到目标特征向量;
确认模块,用于输入所述目标特征向量至所述预设抽取模型的判别层,计算得到所述待处理文本对应的最优标注序列,获取所述最优标注序列对应的实体信息,确定所述实体信息为所述待处理文本的目标抽取文本。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的文本抽取方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的文本抽取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111015728.8A CN113657104A (zh) | 2021-08-31 | 2021-08-31 | 文本抽取方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111015728.8A CN113657104A (zh) | 2021-08-31 | 2021-08-31 | 文本抽取方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113657104A true CN113657104A (zh) | 2021-11-16 |
Family
ID=78482608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111015728.8A Pending CN113657104A (zh) | 2021-08-31 | 2021-08-31 | 文本抽取方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113657104A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114328939A (zh) * | 2022-03-17 | 2022-04-12 | 天津思睿信息技术有限公司 | 基于大数据的自然语言处理模型构建方法 |
-
2021
- 2021-08-31 CN CN202111015728.8A patent/CN113657104A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114328939A (zh) * | 2022-03-17 | 2022-04-12 | 天津思睿信息技术有限公司 | 基于大数据的自然语言处理模型构建方法 |
CN114328939B (zh) * | 2022-03-17 | 2022-05-27 | 天津思睿信息技术有限公司 | 基于大数据的自然语言处理模型构建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
CN112863683A (zh) | 基于人工智能的病历质控方法、装置、计算机设备及存储介质 | |
CN111767375A (zh) | 语义召回方法、装置、计算机设备及存储介质 | |
CN112188311B (zh) | 用于确定新闻的视频素材的方法和装置 | |
CN112632278A (zh) | 一种基于多标签分类的标注方法、装置、设备及存储介质 | |
CN112287069A (zh) | 基于语音语义的信息检索方法、装置及计算机设备 | |
CN112836521A (zh) | 问答匹配方法、装置、计算机设备及存储介质 | |
CN113505601A (zh) | 一种正负样本对构造方法、装置、计算机设备及存储介质 | |
CN111353311A (zh) | 一种命名实体识别方法、装置、计算机设备及存储介质 | |
CN113657105A (zh) | 基于词汇增强的医学实体抽取方法、装置、设备及介质 | |
CN111783471A (zh) | 自然语言的语义识别方法、装置、设备及存储介质 | |
CN111368551A (zh) | 一种确定事件主体的方法和装置 | |
CN112232052A (zh) | 文本拼接方法、装置、计算机设备及存储介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN115757731A (zh) | 对话问句改写方法、装置、计算机设备及存储介质 | |
CN113723077B (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN112949320B (zh) | 基于条件随机场的序列标注方法、装置、设备及介质 | |
CN112598039B (zh) | 获取nlp分类领域阳性样本方法及相关设备 | |
CN112199954B (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN113657104A (zh) | 文本抽取方法、装置、计算机设备及存储介质 | |
CN112669850A (zh) | 语音质量检测方法、装置、计算机设备及存储介质 | |
CN113420869B (zh) | 基于全方向注意力的翻译方法及其相关设备 | |
CN115238077A (zh) | 基于人工智能的文本分析方法、装置、设备及存储介质 | |
CN114637831A (zh) | 基于语义分析的数据查询方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220607 Address after: 518000 China Aviation Center 2901, No. 1018, Huafu Road, Huahang community, Huaqiang North Street, Futian District, Shenzhen, Guangdong Province Applicant after: Shenzhen Ping An medical and Health Technology Service Co.,Ltd. Address before: Room 12G, Area H, 666 Beijing East Road, Huangpu District, Shanghai 200001 Applicant before: PING AN MEDICAL AND HEALTHCARE MANAGEMENT Co.,Ltd. |