CN111128394B - 医疗文本语义识别方法、装置、电子设备及可读存储介质 - Google Patents
医疗文本语义识别方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN111128394B CN111128394B CN202010226019.3A CN202010226019A CN111128394B CN 111128394 B CN111128394 B CN 111128394B CN 202010226019 A CN202010226019 A CN 202010226019A CN 111128394 B CN111128394 B CN 111128394B
- Authority
- CN
- China
- Prior art keywords
- semantic recognition
- recognition result
- sample
- medical text
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 208000024891 symptom Diseases 0.000 claims description 222
- 238000012549 training Methods 0.000 claims description 91
- 238000003062 neural network model Methods 0.000 claims description 75
- 230000006870 function Effects 0.000 claims description 43
- 238000002372 labelling Methods 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 9
- 230000014509 gene expression Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 abstract description 8
- 238000005516 engineering process Methods 0.000 description 15
- 230000035943 smell Effects 0.000 description 14
- 238000013473 artificial intelligence Methods 0.000 description 11
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 10
- 208000035475 disorder Diseases 0.000 description 10
- 238000013145 classification model Methods 0.000 description 9
- 208000003251 Pruritus Diseases 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 208000012898 Olfaction disease Diseases 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000036541 health Effects 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 4
- 206010028748 Nasal obstruction Diseases 0.000 description 3
- 206010051496 Rhinalgia Diseases 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 235000019561 smell disorders Nutrition 0.000 description 3
- 239000007858 starting material Substances 0.000 description 3
- 206010015137 Eructation Diseases 0.000 description 2
- 206010034018 Parosmia Diseases 0.000 description 2
- 208000009205 Tinnitus Diseases 0.000 description 2
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 2
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 2
- 208000027687 belching Diseases 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007803 itching Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 231100000886 tinnitus Toxicity 0.000 description 2
- 208000004998 Abdominal Pain Diseases 0.000 description 1
- 206010000060 Abdominal distension Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
本申请实施例提供了一种医疗文本语义识别方法、装置、电子设备及可读存储介质。该方法包括:获取待识别医疗文本;确定待识别医疗文本的各候选的语义识别结果;基于待识别医疗文本和各候选的语义识别结果,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;基于每种候选的语义识别结果的第一概率,从各候选的语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果。在本申请实施例中,采用分步的方式对待识别医疗文本进行归一化,实现了医疗文本的归一化工作。在实际应用中,可以实现对口语化的医疗文本的逐步、更细化的理解,可以有效提升所确定出的语义识别结果的准确性。
Description
技术领域
本申请涉及计算机技术领域,具体而言,本申请涉及一种医疗文本语义识别方法、装置、电子设备及可读存储介质。
背景技术
近年来,自然语言处理技术已经逐渐成为人工智能领域最重要的领域之一,在搜索、翻译、推荐等方向展示出了巨大的作用和潜力。医疗领域也同样存在着大量的病历文本、医疗教材、医疗问答等不同类型的医疗文本数据。而不同类型的医疗文本在描述时会存在着显著差异,比如医生书写的专业病历中“腹痛”和普通用户输入的“肚子疼”存在着相同的语义。同时,语义理解是自然语言中的重要技术,它将各种不同类型的表达映射到统一的标准中,这也是医疗文本理解和医疗对话工作的第一步,而如何准确理解用户口语化的医疗文本起着十分重要的作用。
但是,由于用户输入的医疗文本通常具有不连续性,且缺少专业知识,用户经常会使用描述性语言进行表达,使得对应的匹配结果蕴含在整个句子中,从而导致现有的医疗文本识别方法的识别准确性较差。
发明内容
本申请的目的旨在至少能解决上述的技术缺陷之一,特别是现有的症状识别方法的识别准确性较差的技术缺陷。
第一方面,本申请实施例提供了一种医疗文本语义识别方法,该方法包括:
获取待识别医疗文本;
确定待识别医疗文本的各候选的语义识别结果;
基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;
基于每种候选的语义识别结果的第一概率,从各候选的语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果。
可选的,对于一种候选的语义识别结果,基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率,包括:
将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本;
基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
可选的,对于一种候选的语义识别结果,将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本,包括:
将分类起始符、待识别医疗文本、分句符、以及该候选的语义识别结果依次拼接,得到拼接文本。
可选的,对于一种候选的语义识别结果,基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率,包括:
提取拼接文本中的各字符所对应的字符特征,基于所提取到的各字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率;或者,
提取拼接文本中指定位置的字符的字符特征,基于所提取的指定位置的字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
可选的,基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率,包括:
将待识别医疗文本和各候选的语义识别结果输入到语义识别结果精选模型,基于模型的输出确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;
其中,语义识别结果精选模型是通过以下方式得到的:
获取第一训练样本集,第一训练样本集中包括各第一样本对,每个第一样本对包括第一样本医疗文本和一个第一样本语义识别结果,其中,每个第一样本对具有样本标签,样本标签表征了该第一样本对中的第一样本医疗文本对应于该样本对中的第一样本语义识别结果的标注结果;
基于各第一样本对对第一神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第一神经网络模型作为语义识别结果精选模型;
其中,第一神经网络模型的输入为第一样本对,输出为第一样本对中的第一样本医疗文本对应于该样本中的第一样本语义识别结果的预测结果,损失函数的值表征了模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异。
可选的,第一神经网络模型为基于Bert(基于Transformer(翻译)表达的双向编码器)的神经网络模型;
对于一个第一样本对,基于该第一样本对对第一神经网络模型进行训练,包括:
将分类起始符、第一样本对中的第一样本医疗文本、分句符、以及第一样本对中的第一样本语义识别结果依次拼接;
将拼接后的文本输入至第一神经网络模型中,得到第一样本对所对应的预测概率。
可选的,对于一个第一样本对,该样本对所对应的第一样本语义识别结果是通过以下方式得到的:
基于第一样本医疗文本,通过语义识别结果初选模型,得到第一样本医疗文本所对应的各第一样本语义识别结果;
其中,语义识别结果初选模型是通过以下方式得到的:
获取第二训练样本集,第二训练样本集中包括各第二样本医疗文本、以及每个第二样本医疗文本对应于各初始候选的语义识别结果的样本标签,其中,对于一个第二样本医疗文本,一个初始候选的语义识别结果的样本标签表征了该初始候选的语义识别结果为该第二样本医疗文本候选的语义识别结果的标注结果;
基于各第二样本医疗文本对第二神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第二神经网络模型作为语义识别结果初选模型;
其中,第二神经网络模型的输入为第二样本医疗文本,输出为第二样本医疗文本对应于各初始候选的语义识别结果的预测结果,损失函数的值表征了第二样本医疗文本所对应的各预测结果与该第二样本医疗文本所对应的各标注结果之间的差异。
可选的,确定待识别医疗文本的各候选的语义识别结果,包括:
将待识别医疗文本输入至语义识别结果初选模型中,基于语义识别结果初选模型的输出,得到确定待识别医疗文本的各候选的语义识别结果。
可选的,获取第二训练样本集,包括:
获取提问者的口语化的医疗文本、以及回答者对于该口语化的医疗文本的答复信息;
基于口语化的医疗文本、以及对应的答复信息,得到第二训练样本集。
可选的,获取待识别医疗文本,包括:
获取用户输入的口语化的医疗文本;
基于口语化的医疗文本,提取得到待识别医疗文本。
可选的,待识别医疗文本包括症状描述信息,语义识别结果包括症状描述信息对应的症状。
第二方面,本申请实施例提供了一种医疗文本语义识别装置,该装置包括:
信息获取模块,用于获取待识别医疗文本;
候选语义识别结果确定模块,用于确定待识别医疗文本的各候选的语义识别结果;
概率确定模块,用于基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率
最终语义识别结果确定模块,用于基于每种候选的语义识别结果的第一概率,从各候选的语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果。
可选的,对于一种候选的语义识别结果,概率确定模块在待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率时,具体用于:
将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本;
基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
可选的,对于一种候选的语义识别结果,概率确定模块在将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本时,具体用于:
将分类起始符、待识别医疗文本、分句符、以及该候选的语义识别结果依次拼接,得到拼接文本。
可选的,对于一种候选的语义识别结果,概率确定模块在基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率时,具体用于:
提取拼接文本中的各字符所对应的字符特征,基于所提取到的各字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率;或者,
提取拼接文本中指定位置的字符的字符特征,基于所提取的指定位置的字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
可选的,概率确定模块在基于待识别医疗文本和各候选的语义识别结果,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率时,具体用于:
将待识别医疗文本和各候选的语义识别结果输入到语义识别结果精选模型,基于模型的输出确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;
其中,该装置还包括模型训练模块,用于通过以下方式得到语义识别结果精选模型:
获取第一训练样本集,第一训练样本集中包括各第一样本对,每个第一样本对包括第一样本医疗文本和一个第一样本语义识别结果,其中,每个第一样本对具有样本标签,样本标签表征了该第一样本对中的第一样本医疗文本对应于该样本对中的第一样本语义识别结果的标注结果;
基于各第一样本对对第一神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第一神经网络模型作为语义识别结果精选模型;
其中,第一神经网络模型的输入为第一样本对,输出为第一样本对中的第一样本医疗文本对应于该样本中的第一样本语义识别结果的预测结果,损失函数的值表征了模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异。
可选的,第一神经网络模型为基于Bert的神经网络模型;
模型训练模块在对于一个第一样本对,基于该第一样本对对第一神经网络模型进行训练时,具体用于:
将分类起始符、第一样本对中的第一样本医疗文本、分句符、以及第一样本对中的第一样本语义识别结果依次拼接;
将拼接后的文本输入至第一神经网络模型中,得到第一样本对所对应的预测概率。
可选的,对于一个第一样本对,该样本对所对应的第一样本语义识别结果是通过以下方式得到的:
基于第一样本医疗文本,通过语义识别结果初选模型,得到第一样本医疗文本所对应的各第一样本语义识别结果;
其中,模型训练模块还用于通过以下方式得到语义识别结果初选模型:
获取第二训练样本集,第二训练样本集中包括各第二样本医疗文本、以及每个第二样本医疗文本对应于各初始候选的语义识别结果的样本标签,其中,对于一个第二样本医疗文本,一个初始候选的语义识别结果的样本标签表征了该初始候选的语义识别结果为该第二样本医疗文本候选的语义识别结果的标注结果;
基于各第二样本医疗文本对第二神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第二神经网络模型作为语义识别结果初选模型;
其中,第二神经网络模型的输入为第二样本医疗文本,输出为第二样本医疗文本对应于各初始候选的语义识别结果的预测结果,损失函数的值表征了第二样本医疗文本所对应的各预测结果与该第二样本医疗文本所对应的各标注结果之间的差异。
可选的,候选语义识别结果确定模块在确定待识别医疗文本的各候选的语义识别结果时,具体用于:
将待识别医疗文本输入至语义识别结果初选模型中,基于语义识别结果初选模型的输出,得到确定待识别医疗文本的各候选的语义识别结果。
可选的,模型训练模块在获取第二训练样本集时,具体用于:
获取提问者的口语化的医疗文本、以及回答者对于该口语化的医疗文本的答复信息;
基于口语化的医疗文本、以及对应的答复信息,得到第二训练样本集。
可选的,信息获取模块获取待识别医疗文本时,具体用于:
获取用户输入的口语化的医疗文本;
基于口语化的医疗文本,提取得到待识别医疗文本。
可选的,待识别医疗文本包括症状描述信息,语义识别结果包括症状描述信息对应的症状。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:
处理器;以及存储器,该存储器配置用于存储计算机程序,该计算机程序在由该处理器执行时,使得该处理器执行第一方面中的任一项方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,计算机存储介质用于存储计算机程序,当计算机程序在计算机上运行时,使得计算机可以执行上述第一方面中的任一项方法。
本申请实施例提供的技术方案带来的有益效果是:
在本申请实施例中,在获取待识别医疗文本后,可以先确定待识别医疗文本所对应的各候选的语义识别结果,然后再从各候选的语义识别结果中确定出最终的语义识别结果,即采用分步的方式对医疗文本进行归一化,将医疗文本逐步精确的映射到预设的标准语义识别结果集合中,实现了医疗文本的归一化工作。在实际应用中,能够将本申请实施例所提供的该方案应用到包括但不限于用户口语化的医疗文本的归一化工作中,采用该方案,可以实现对口语化的医疗文本逐步、更细化的理解,进而可以有效的提升当语义识别结果蕴含在口语化的医疗文本中时,所确定出的最终的语义识别结果的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种医疗文本语义识别方法的流程示意图;
图2为本申请实施例提供的一种提问者输入的口语化的症状描述信息的示意图;
图3为本申请实施例提供的又一种医疗文本语义识别方法的流程示意图;
图4为本申请实施例提供的一种多分类的双向LSTM模型的结构示意图;
图5为本申请实施例提供的一种基于Bert的神经网络模型的结构图;
图6为本申请实施例提供的一种医疗文本语义识别装置的结构示意图;
图7为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本申请的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
人工智能(Artificial Intelligence, AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。本申请实施例提供的方案涉及人工智能的机器学习等技术,具体通过如下实施例进行说明。
近年来,自然语言处理技术已经逐渐成为人工智能领域最重要的领域之一,在搜索、翻译、推荐等方向展示出了巨大的作用和潜力。医疗领域也同样存在着对不同类型的医疗文本数据进行语义识别,得到对应的语义识别结果。例如,随着问诊等对话***的兴起,自然语言处理技术在准确识别出用户输入的口语化的症状描述信息所对应的标准症状方面起着十分重要的作用,而目前对于症状识别和归一化主要存在两种方式:
1、序列标注的方法,其利用标记方式对于句子中的每个字进行标注,将语句中识别出来的片段当作最终症状识别结果。而当前序列标注的方式,主要是针对连续不重叠的实体进行识别,同时对于识别出的实体需要人工构造匹配词典,将口语化症状识别到标准症状集合中。但是,通常用户输入的口语化症具有不连续性,并且由于缺少专业知识,用户还会使用口语化的描述性语言对症状进行表达,使得症状蕴含在整个句子中,是一种隐性症状,此时将无法标注序列标注。
2、文本分类的方法,利用标注好的<口语化症状片段,标准症状>的训练语料,将口语化症状作为输入,对应的标准症状作为该输入的标签,构造分类模型进行训练。但是,该方法需要大量的精标数据,因为用户输入的表达***,小量的数据集合难以覆盖全量的表达形式,严重限制了症状归一化的召回效果,而大量数据的标注需要耗费较多的专家知识和人力。
基于此,本申请实施例提供一种症状识别方法、装置、电子设备及可读存储介质,用以解决上述中的部分或全部技术问题。需要说明的是,本申请实施例所提供的该识别方法具体可以有任意的电子设备执行,如该方法可以由用户的终端设备(如用户的个人电脑等)或服务器作为执行主体执行,也可以有可以通信连接的终端设备与服务器进行交互以执行本申请实施例所提供的方法,如终端设备在获取到待识别医疗文本后,将该待识别医疗文本发送给服务器,由服务器基于本申请实施例所提供的方法确定出最终的语义识别结果,并将结果发送给终端设备,由终端设备展示给用户。其中,服务器包括但不限于物理服务器、云端服务器、或者服务器集群等。
为了更好的说明本申请所提供的方案,下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图1示出了本申请实施例中所提供的一种症状识别方法的流程示意图。如图1所示,该方法包括:
步骤S101,获取待识别医疗文本。
其中,待识别医疗文本指的是需要进行归一化的非标准的医疗文本,如待识别医疗文本可以为用户描述的药品配方的说明文本,或者用户输入的口语化的症状描述信息等。而症状描述信息指的是用户描述症状的文本信息,如假设用户想要描述“皮肤瘙痒”的症状时,此时描述的文本信息“身上皮肤很痒”即为症状描述信息。
步骤S102,确定待识别医疗文本的各候选的语义识别结果。
本申请实施例中,对于一医疗文本,其语义识别结果是指该医疗文本所对应的标准化的语义信息,在本申请可选的实施例中,待识别医疗文本可以包括症状描述信息,此时语义识别结果可以包括该症状描述信息对应的症状。
其中,候选的语义识别结果指的是待识别医疗文本可能对应的语义识别结果,也就是待识别医疗文本可能对应的最终的语义识别结果。例如,当待识别医疗文本为症状描述信息时,候选的语义识别结果可以指的是该症状描述信息的候选症状。而在实际应用中,相同的症状信息可以对应于多个候选症状,其所对应的候选症状可能是对应的标准症状,也可能是非标准症状。例如,当症状描述信息为“鼻子闻不到味道”时,其对应的候选症状可以为“嗅觉障碍”、“鼻塞”和“鼻痛”等。
在实际应用中,确定待识别医疗文本的各候选的语义识别结果的具体实现方法可以预先配置,本申请实施例不限定。例如,候选的语义识别结果指的是症状描述信息的候选症状时,可以预先确定初始候选症状集合,其所包括的初始候选症状数量可以根据实际需求配置;进一步的,可以确定症状描述信息对应于每一种初始候选症状的概率,基于症状描述信息对应于每一种初始候选症状的概率选择设定数量的初始候选症状作为症状描述信息所对应的候选症状,或者将概率大于阈值的初始候选症状作为症状描述信息所对应的候选症状。当然,在实际应用中,还可以在预设的标准症状集合中直接选取与用户输入的症状描述信息最相关的若干标准症状作为症状描述信息所对应的候选症状。
其中,上述中预设的初始候选的语义识别结果的获取方式可以预先配置,如可以从医疗健康网站中用户口语化的医疗文本与医生的答复信息获取,但是由于医生的回答中往往不只是含有口语化的医疗文本对应的语义识别结果,还会包含与语义识别结果无关的其他识别结果,而此时其他识别结果可能与最终的语义识别结果相差较远,因此还可以对待识别医疗文本所对应的各候选的语义识别结果进行进一步的精选,以达到进一步提升准确性。
步骤S103,基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率。
步骤S104,基于每种候选的语义识别结果的第一概率,从各候选标的准语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果。
在实际应用中,待识别医疗文本所对应的候选的语义识别结果中,某些候选的语义识别结果可能并不是最终的语义识别结果,因此在确定出待识别医疗文本所对应的各候选的语义识别结果后,还可以从各候选的语义识别结果中确定出待识别医疗文本所对应的最终的语义识别结果。
在实际应用中,对于待识别医疗文本对应的各候选的语义识别结果,可以分别确定该待识别医疗文本对应于每一候选的语义识别结果的第一概率。其中,该第一概率指的是候选的语义识别结果为待识别医疗文本对应的最终的语义识别结果的可能性。
其中,第一概率的取值形式本申请实施例不限定,以待识别医疗文本为症状描述信息,候选的语义识别结果为症状描述信息的候选症状为例进行说明,此时第一概率可以为用于二分类的概率,即表征候选症状为症状描述信息的标准症状的概率,此时,该概率的取值可以包含两个取值,一个取值表征候选症状是标准症状、另一个取值表征候选症状不是标准症状,如这两个取值可以为0和1,0表示候选症状不是标准症状,1表示候选症状是标准症状;当然,第一概率也可以是多分类的概率,也就是候选症状为标准症状的概率或候选症状为非标准症状的概率,其可以为一个0~1之间的概率值,当然也可以是其他的表征多分类结果的概率值,如可以是0%~100%之间的取值。
在实际应用中,基于每种候选的语义识别结果所对应的第一概率,确定待识别医疗文本对应的最终的语义识别结果的具体实现方式可以根据实际需求配置,而对应于不同的取值形式,可以有不同的实现方式。
例如,当待识别医疗文本为症状描述信息,候选的语义识别结果为症状描述信息的候选症状,且第一概率的取值形式为用于二分类的概率(0或1)时,此时可以将表征第一概率为1的候选症状作为症状描述信息所对应的标准症状;而当第一概率为的取值形式为用于多分类的概率时,可以将大于设定值的第一概率对应的候选症状作为症状描述信息所对应的标准症状,也可以将第一概率值较高的前N个候选症状作为症状描述信息所对应的标准症状等。
在本申请实施例中,在获取待识别医疗文本后,可以先确定待识别医疗文本所对应的各候选的语义识别结果,然后再从各候选的语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果,即采用分步的方式对待识别医疗文本进行归一化,将待识别医疗文本逐步精确的映射到预设的标准语义识别结果集合中,实现了待识别医疗文本的归一化工作。在实际应用中,能够将本申请实施例所提供的该方案应用到包括但不限于用户口语化的医疗文本的归一化工作中,采用该方案,可以实现对口语化的医疗文本的逐步、更细化的理解,进而可以有效的提升当语义识别结果蕴含在口语化的医疗文本中时,所确定出的最终的语义识别结果的确性。
在本申请可选的实施例中,获取待识别医疗文本,包括:
获取用户输入的口语化的医疗文本;
基于口语化的医疗文本,提取得到待识别医疗文本。
在实际应用中,获取用户输入的口语化的医疗文本后,可以直接基于获取到的医疗文本确定语义识别结果,但是由于用户缺少专业知识,此时所输入的医疗文本中通常包含很多与语义识别结果无关的描述信息,而为了提高识别的准确性、减少后续的数据处理量可以对用户输入的医疗文本进行进一步提取,得到最终的待识别医疗文本,也就是实际上与语义识别结果具有关联的信息。
例如,假设待识别医疗文本为症状描述信息,语义识别结果为标准症状,而用户输入的口语化的症状描述信息为“最近身上很痒,抓的时候又不知道是哪里”,此时该描述信息中的“最近”、“抓的时候”等其实是与症状无关的描述信息,此时可以对该用户输入的口语化的症状的描述信息进行进一步的提取,如将“最近”、“抓的时候”等词语删除,得到最终的症状描述信息“身上很痒”作为待识别医疗文本。
在本申请可选的实施例中,对于一种候选的语义识别结果,基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率,包括:
将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本;
基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
在实际应用中,对于任意一种候选的语义识别结果,候选的语义识别结果与待识别医疗文本通常是采用文本的形式表示,进而在确定待识别医疗文本的最终的语义识别结果时,可以将待识别医疗文本与各候选的语义识别结果分别进行拼接,得到各候选的语义识别结果对应的拼接文本,然后基于各拼接文本,从各候选的语义识别结果中确定出待识别医疗文本所对应的最终的语义识别结果。进一步的,可以提取拼接文本信息的特征,并基于提取得到的特征确定出待识别医疗文本对应于该候选的语义识别结果的第一概率,然后基于每种候选的语义识别结果所对应的第一概率,从各候选的语义识别结果中确定出待识别医疗文本所对应的最终的语义识别结果。
在本申请可选的实施例中,对于一种候选的语义识别结果,将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本,包括:
将分类起始符、待识别医疗文本、分句符、以及该候选的语义识别结果依次拼接,得到拼接文本。
在实际应用中,在将候选的语义识别结果与待识别医疗文本进行文本拼接时,可以将分类起始符与分句符一并拼接。其中,基于分配起始符可以知晓分类文本(即待识别医疗文本)的起始位置,基于分句符可以知晓待分类文本中哪部分为候选的语义识别结果哪部分为待识别医疗文本。
对于不同的分类模型,其对应的文本拼接方式可能也是不同的,例如,当分类模型为基于Bert的神经网络模型时,在将候选的语义识别结果与待识别医疗文本进行文本拼接时,可以将分类起始符(如CLS)和分句符(如SEP)与候选的语义识别结果、待识别医疗文本进行文本拼接。例如,当待识别医疗文本为“鼻子闻不到味道”,候选的语义识别结果(即候选症状)为“嗅觉障碍”时,此时所得到的拼接的文本可以为“CLS鼻子闻不到味道SEP嗅觉障碍”。
可以理解的是,对于不同的分类模型,文本的拼接方式也可能不同,例如,有的分类模型是需要分类起始符和分句符的(如基于Bert的分类模型),且不同的模型所采用的分类起始符和分句符的形式也可能是不同的,另外,有的分类模型也可能是不需要的分类起始符和分句符,这都是由模型各自的分类方式确定的。在实际应用中,具体采用哪种分类模型,本申请不做限定,基于所选定的分类模型,在确定某一候选的语义识别结果是否为待识别医疗文本的最终的语义识别结果时,只需要按照模型的输入要求对待识别医疗文本进行相应的处理即可。
在本申请可选的实施例中,对于一种候选的语义识别结果,基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率,包括:
提取拼接文本中的各字符所对应的字符特征,基于所提取到的各字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率;或者,
提取拼接文本中指定位置的字符的字符特征,基于所提取的指定位置的字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
在实际应用中,可以基于不同的特征提取方式提取拼接文本的特征,此时在基于拼接文本的特征确定待识别医疗文本对应于该候选的语义识别结果的第一概率时,也可以采用不同的处理方式。
例如,在有的特征提取方式中,拼接文本中的指定位置的字符所对应的特征是融合了文本中其他字符中的全部或部分的特征,此时,可以提取指定位置(如起始位置)的字符的特征,进而仅基于提取得到的文本中指定位置的字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。可以理解的是,若拼接文本中每个字符所对应的特征没有融合了文本中其他字符中的全部或部分的特征,此时在确定待识别医疗文本对应于该候选的语义识别结果的第一概率时,则需要提取文本中各字符所对应的特征,并基于各字符所对应的特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
在一示例中,假设采用基于Bert的神经网络模型提取各字符的特征,待识别医疗文本为症状描述信息,候选的语义识别结果为候选症状,此时所对应的文本拼接方式中包括了分类起始符,并且由于分类起始符的特征时融合文本中其他字符的特征,此时可以提取分类起始符的特征,并基于分类起始符的特征确定症状描述信息对应于该候选症状的第一概率;而当采用一般卷积模型等提取各字符特征时,由于文本中各字符的特征并没有融合其他字符的特征,进而需要提取文本中各字符的特征,并基于提取得到的各字符的特征,确定症状描述信息对应于该候选症状的第一概率。其中,文本信息中的字符包括文字、分类起始符、分句符等。
在一示例中,假设分类模型为基于Bert的神经网络模型,症状描述信息为鼻子闻不到味道、一候选症状为嗅觉障碍,则该候选症状所对应的拼接文本为“CLS鼻子闻不到味道SEP嗅觉障碍”,此时可以分别提取该拼接文本中每一个文字对应的特征,以及CLS和SEP对应的特征,也可以仅提取分类起始符(CLS)对应的特征。
在本申请可选的实施例中,基于所提取到的各字符的特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率,包括:
将所提取到的各字符的特征进行融合,得到融合特征;
基于融合特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
在实际应用中,若提取拼接后的文本信息的特征时为提取拼接后的文本信息中每一个字符所对应的特征,此时可以对提取得到的各字符的特征进行融合,得到融合特征,然后基于融合特征确定待识别医疗文本对应于该候选的语义识别结果的第一概率。其中,对提取得到的每一个字符所对应的特征进行融合的方式本公开实施例不限定,如可以采用RNN(Recurrent Neural Network,循环神经网络) 等神经网络进行融合。
在本申请可选的实施例中,基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率,包括:
将待识别医疗文本和各候选的语义识别结果输入到语义识别结果精选模型,基于模型的输出确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;
其中,语义识别结果精选模型是通过以下方式得到的:
获取第一训练样本集,第一训练样本集中包括各第一样本对,每个第一样本对包括第一样本医疗文本和一个第一样本语义识别结果,其中,每个第一样本对具有样本标签,样本标签表征了该第一样本对中的第一样本医疗文本对应于该样本对中的第一样本语义识别结果的标注结果;
基于各第一样本对对第一神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第一神经网络模型作为语义识别结果精选模型;
其中,第一神经网络模型的输入为第一样本对,输出为第一样本对中的第一样本医疗文本对应于该样本中的第一样本语义识别结果的预测结果,损失函数的值表征了模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异。
在实际应用中,在确定待识别医疗文本对应于每一种候选的语义识别结果的第一概率时,可以将待识别医疗文本与每一种候选的语义识别结果分别作为一个输入语料输入至语义识别结果精选模型,此时基于语义识别结果精选模型的输出确定待识别医疗文本与每一种候选的语义识别结果的第一概率。可以理解是,当模型输出为待识别医疗文本与每一种候选的语义识别结果的第一概率时,此时可以基于每一种候选的语义识别结果的第一概率确定出所对应的最终的语义识别结果,当然也可以在模型内先确定出待识别医疗文本与每一种候选的语义识别结果的第一概率,然后再基于每个候选的语义识别结果的第一概率直接确定所对应的最终的语义识别结果并输出,本申请实施例不限定。
其中,在训练语义识别结果精选模型时,可以基于获取的第一训练样本集对第一神经网络模型进行训练,直至该模型对应的损失函数收敛,并将训练结束时的神经网络模型作为语义识别结果精选模型。
在实际应用中,所获取的第一训练样本集中包括了各第一样本对,而每个第一样本对包括一个第一样本医疗文本和该第一样本医疗文本对应的第一样本语义识别结果(其可以为最终的语义识别结果(对应训练时的正样本)、也可以不是最终的语义识别结果(对应训练时的负样本)),此外,每个第一样本对还具有样本标签,其表征了该第一样本对中的第一样本医疗文本对应于该样本中的第一样本语义识别结果的标注结果,也就是实际结果,而该标注结果的形式本申请实施例也不做限定,其可以是概率,也可以是表示是否的标签,如是和否,或者1和0,或者1和-1,也可以是取值范围为0-1的之间的概率取值。
作为一个示例,表1中示出了本申请实施例提供了一种第一样本,假设第一样本医疗文本为样本症状描述信息,第一样本语义识别结果为样本候选症状。
表1
样本症状描述信息 | 样本候选症状 | 标注结果 |
鼻子闻不到味道 | 嗅觉障碍、鼻塞、鼻痛等 | 嗅觉障碍 |
胃子打隔、耳朵嗡嗡响 | 嗳气、腹胀、耳鸣、耳分泌物等 | 嗳气、耳鸣 |
如表1中所示,该示例中的样本症状描述信息包括“鼻子闻不到味道”、对应的样本症状包括“嗅觉障碍”“鼻塞”“鼻痛”等,标注结果为该样本症状样本信息对应的标准症状,在本申请实施例中,可以将第一样本症状描述信息和正确的标准症状构成真实标签为1的第一样本对(即具有等价关系,为训练时的正样本),将不是标准症状的候选症状构与第一样本症状描述信息构成真实标签为0的第一样本对(即不具有等价关系,为训练时的负样本)。例如,第一样本对可以为<鼻子闻不到味道,嗅觉障碍>、且真实标签为1,或<鼻子闻不到味道,鼻痛>、且真实标签为0。
进一步的,可以将第一训练样本集中的各第一样本对输入至第一神经网络模型,此时第一神经网络模型可以输出该第一样本对包括的第一样本医疗文本对应于该样本中的第一样本语义识别结果的预测结果,然后可以基于输出的预测结果和该第一样本对对应的标注结果确定该模型对应的损失函数,若所确定的损失函数不收敛,此时可以调整第一神经网络模型的网络参数,然后再次将第一训练样本集中的各第一样本对输入至调节参数后的第一神经网络模型,并基于输出的预测概率和该第一样本对对应的标注概率再次确定该模型对应的损失函数,若仍不收敛,则再次调节第一神经网络模型的网络参数,直至该模型对应的损失函数收敛。其中,该模型对应的损失函数表征了模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异,而损失函数收敛时,则表明模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异满足要求,也就是使模型所输出的第一样本对的预测结果逼近于第一样本对的标注结果。
其中,该模型对应的的损失函数公式如下:
其中,L为损失函数值,y表示标注概率,其中,若该模型为二分类模型,此时当第一样本语义识别结果为第一样本医疗文本对应的最终的语义识别结果时,y=1,当第一样本语义识别结果不是第一样本医疗文本对应的最终的语义识别结果时,y=0,p表示预测概率。
可以理解的是,在实际模型训练过程中会存在多个第一样本对,此时可以基于每一个样本对输出的预测结果确定出一个L值,然后可以基于每一个样本对对应的L值确定最终的损失函数值,并确定最终的损失函数值是否收敛,若是收敛的,此时可以将本次训练对应的神经网络模型作为语义识别结果精选模型;反之,若不是收敛的,则继续对第一神经网络模型训练,直至对应的损失函数收敛。
在本申请可选的实施例中,第一神经网络模型为基于Bert的神经网络模型;
对于一个第一样本对,基于该第一样本对对第一神经网络模型进行训练,包括:
将分类起始符、第一样本对中的第一样本医疗文本、分句符、以及第一样本对中的第一样本语义识别结果依次拼接;
将拼接后的文本输入至第一神经网络模型中,得到第一样本对所对应的预测概率。
在实际应用中,第一神经网络模型可以为基于Bert的神经网络模型,此时在基于第一样本对对第一神经网络模型进行训练时,对于每一个第一样本对,可以将分类起始符、第一样本对中的第一样本医疗文本、分句符、以及第一样本对中的第一样本语义识别结果依次拼接,然后基于拼接后的文本输入至基于Bert的神经网络模型中,得到第一样本对所对应的预测结果。
在本申请实施例中,由于语义识别结果精选模型为基于Bert的神经网络模型,并且由于基于Bert的神经网络模型在小数据集上存在优势,因此可以避免了大量人工标注资源的使用,使得实用性大大提升。
在本申请可选的实施例中,对于一个第一样本对,该样本对所对应的第一样本语义识别结果是通过以下方式得到的:
基于第一样本医疗文本,通过语义识别结果初选模型,得到第一样本医疗文本所对应的各第一样本语义识别结果;
其中,语义识别结果初选模型是通过以下方式得到的:
获取第二训练样本集,第二训练样本集中包括各第二样本医疗文本、以及每个第二样本医疗文本对应于各初始候选的语义识别结果的样本标签,其中,对于一个第二样本医疗文本,一个初始候选的语义识别结果的样本标签表征了该初始候选的语义识别结果为该第二样本医疗文本候选的语义识别结果的标注结果;
基于各第二样本医疗文本对第二神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第二神经网络模型作为语义识别结果初选模型;
其中,第二神经网络模型的输入为第二样本医疗文本,输出为第二样本医疗文本对应于各初始候选的语义识别结果的预测结果,损失函数的值表征了第二样本医疗文本所对应的各预测结果与该第二样本医疗文本所对应的各标注结果之间的差异。
在实际应用中,在训练语义识别结果精选模型中时所采用的第一样本对中的第一样本语义识别结果可以通过语义识别结果初选模型得到。
其中,可以通过第二训练样本集对第二神经网络模型进行训练得到语义识别结果初选模型。其中,第二训练样本集中可以包括各第二样本医疗文本,对于每个第二样本医疗文本,可以包括对应于各初始候选的语义识别结果的样本标签,而一个初始候选的语义识别结果的样本标签表征了该初始候选的语义识别结果为该第二样本医疗文本的候选的语义识别结果的标注结果,而标注结果本申请实施例不限定,其可以是概率,也可以是表示是否的标签,如是和否,或者1和0,或者1和-1,也可以是取值范围为0-1的之间的概率取值。
进一步的,可以将各第二样本医疗文本输入至第二神经网络模型,此时第二神经网络可以输出每一个第二样本医疗文本对应于各初始候选的语义识别结果的预测结果,然后可以基于输出的预测概结果、该第二样本医疗文本对应于各初始候选的语义识别结果的样本标签确定该模型对应的损失函数,若确定损失函数不收敛,此时可以调整第二神经网络的网络参数,然后再次将各第二样本医疗文本输入至调节参数后的第二神经网络模型,并基于输出的预测结果和每个第二样本医疗文本对应于各初始候选的语义识别结果的样本标签再次确定该模型对应的损失函数,若不收敛,则再次调节第二神经网络的网络参数,直至该模型对应的损失函数收敛。其中,该模型对应的损失函数表征了模型输出的各第二样本医疗文本所对应的预测结果与第二样本医疗文本所对应的标注结果之间的差异,而损失函数收敛时,则表明模型输出的各第二样本医疗文本所对应的预测结果与第二样本医疗文本所对应的标注结果之间的差异满足要求。
其中,该第二神经网络模型对应的损失函数可以为:
其中,Y表示所有样本标注结果,P表示所有样本预测结果,Llog(Y,P)则表示模型输出的各第二样本医疗文本所对应的预测结果与第二样本医疗文本所对应的标注结果之间的差异,N表示第二样本医疗文本的数目,K表示初始候选的语义识别结果的数目,y表示样本标签,k表示第k+1个初始候选的语义识别结果,当k取值不同时,代表不同的初始候选的语义识别结果,yi,k表示第i+1个第二样本医疗文本的预测为第k+1个初始候选的语义识别结果的样本标签(标注结果),pi,k表示第i+1个第二样本医疗文本的预测为第k+1个初始候选的语义识别结果的预测结果。
在本申请可选的实施例中,获取第二训练样本集,包括:
获取提问者的口语化的医疗文本、以及回答者对于该口语化的医疗文本的答复信息;
基于口语化的医疗文本、以及对应的答复信息,得到第二训练样本集。
在实际应用中,假设待识别医疗文本为症状描述信息,而当用户存在身体不舒服时,通常可以在医疗健康网站中咨询,因此在医疗健康网站中,通常存在大量的问答数据,其具体形式为提问者的口语化的症状描述信息,医生对患者描述的内容进行的健康诊断回复,而在医生回答中往往含有对提问者的口语化的症状描述信息的专业描述(可以包括标准症状和/或候选症状)。基于此,本申请实施例中在获取第二训练样本集时,可以获取提问者的口语化的症状描述信息、以及回答者对于该描述信息的答复信息,并对口语化的症状描述信息、以及对应的答复信息进行信息提取,并将其作为第二训练样本集。可选的,可以预先构建症状集合,然后将医疗问诊中的症状描述信息作为第二样本医疗文本,基于医生的答复信息从症状集合确定各初始候选症状(即初始候选的语义识别结果),如将对应的答复信息中所包括的症状作为初始候选症状,即上述公式中第二样本医疗文本所对应的k个初始候选的语义识别结果。
在一示例中,假设某一医疗网站中提问者输入的口语化的症状描述信息为“最近身上很痒,抓的时候又不知道是哪里”,医生(即回答者)对于该口语化的症状的描述信息的答复信息如图2中的A区域所示,如“身上很痒”对应医生回答中的“皮肤瘙痒症”,这种问答数据中含有大量的提问者的口语化的症状描述信息与标准症状的对应关系,此时可以对对应的答复信息进行提取,如得到“身上很痒”并作为第二样本医疗文本,并且由于医生的回答中往往包含多个症状,此时可以将回答中包括的多个症状作为第二样本医疗文本的初始候选的语义识别结果(即初始候选症状),进而得到大量形式为<口语化的症状的描述信息,匹配到的初始候选症状集合>的弱监督训练样本(即第二训练样本集中的训练样本)。
在本公开实施例中,借助大量无监督的医疗健康网站的问答数据和少量口语化的医疗文本构建弱监督训练数据,实现了对大量的口语化的医疗文本的覆盖与语义识别结果的标注数据,可以有效的避免了大量人力对数据的标注工作。
在本申请可选的实施例中,确定待识别医疗文本的各候选的语义识别结果,包括:
将待识别医疗文本输入至语义识别结果初选模型中,基于语义识别结果初选模型的输出,得到确定待识别医疗文本的各候选的语义识别结果。
在实际应用中,在确定某一待识别医疗文本所对应的各候选的语义识别结果时,可以将待识别医疗文本输入至语义识别结果初选模型,语义识别结果初选模型可以从确定的语义识别结果集合中确定与该待识别医疗文本信息相关的若干个初始候选的语义识别结果,以及对应于每一个初始候选的语义识别结果的预测结果,然后可以基于每一个初始候选的语义识别结果的预测结果确定对应的候选的语义识别结果。其中,语义识别结果初选模型所输出的预测结果可以采用0/1的概率形式,即当初始候选的语义识别结果为最终的语义识别结果时,输出的预测结果为1,当初始候选语义识别结果不是最终的语义识别结果时,输出的预测结果为0,然后可以将预测结果为1的初始候选的语义识别结果作为对应的候选的语义识别结果;当然,预测结果也可以采用取值范围为0~1之间的概率取值,并可以选择概率较高的几个或者大于阈值的初始候选的语义识别结果作为对应的候选的语义识别结果。
在本申请实施例中,在预测的时候,语义识别结果初选模型可以针对用户输入的口语化的待识别医疗文本,得到该待识别医疗文本和每一个候选的语义识别结果的等价概率,保证了口语化归一的召回效果,并提升了处理效果。
为了更好的理解本申请实施例所提供的方法,下面结合一个具体的示例,对本申请实施例所提供的该方法在具体的应用场景中的实施进行进一步说明。本示例中,待识别医疗文本为用户输入的口语化的症状描述信息,最终的语义识别结果为症状描述信息对应的标准症状,语义识别结果初选模型对应于症状初选模型,语义识别结果精选模型对应于症状精选模型,即本示例中的应用场景为医疗领域中用户通过口语化的症状描述信息问诊标准症状的场景,此时症状初选模型的输出为每一个初始候选症状为标准症状的概率值(如为取值范围0~1之间的取值),症状精选模型的输出为概率0或概率1,其中,当输出为1时,表示了输入语料中的候选症状为标准症状,当输出为0时,表示了输入语料中的候选症状不是标准症状。具体的,如图3所示,该示例中的方法的流程可以包括:
步骤301,接收用户输入,即获取症状描述信息,其中,该输入可以是用户输入的口语化的症状描述信息,也可以对口语化的症状描述信息再次提取后的症状描述信息(即图3中的用户输入)。
步骤302,将症状描述信息输入至症状初选模型(即图3中的症状初选模型);其中,该症状初选模型是基于大量的无监督数据(即上述中的第二训练样本集)训练得到的。
可选的,在本示例中,症状初选模型可以为如图4所示的一种多分类的双向LSTM((Long Short-Term Memory,长短期记忆网络)模型,在实际应用中,获取到症状描述信息后,可将症状描述信息输入至输入层(图4中未示出),此时输入层可以对症状描述信息进行分词操作,将症状描述信息按照切分后词语的粒度通过embedding(嵌入)层映射为每个词的特定维度的向量矩阵。比如,症状描述信息为“鼻子闻不到味道”,此时该症状描述信息包括4个词“鼻子”、“闻”、“不到”、“味道”,每个词对应的向量为100维,那么该症状描述信息会被表示成一个维度为4*100的矩阵;进一步的,该矩阵经过双向LSTM的隐藏层,会被映射成一个128维的语义向量;最后,经过全连接操作和softmax(分类器)层,该128维的语义向量会被映射到一个维度和预设初始候选症状集合数量相等的向量,每一个维度的取值都是某个候选症状和标准症状的等价概率,也就是某个候选症状是症状描述信息的标准症状的概率。
步骤303,症状初选模型输出症状描述信息对应于各初始候选症状的概率值,并基于对应于各初始候选症状的概率值确定症状描述信息对应的各候选症状(即图3中的用户输入与候选症状);其中,可以选取概率值排在前10的初始候选症状作为症状描述信息对应的候选症状。
步骤304,将症状描述信息与每一个候选症状组成一个输入语料,并输入至症状精选模型(即图3中的症状精选模型),症状精选模型输出每一个输入语料对应的输出概率(即0或1),其中,该症状精选模型是基于大量的标注句对数据(即上述中的第一训练样本集)训练得到的。
在本示例中,如图5所示,本申请实施例提供一种基于Bert的神经网络模型的结构图,并假设输入语料中的症状描述信息为“鼻子闻不到味道”,候选症状为“嗅觉障碍”,进一步的,可以将症状描述信息与候选症状组成的输入语料输入至该症状精选模型中,该症状精选模型可以将分类起始符、症状描述信息、分句符、以及候选症状依次拼接,得到如图5中的“CLS鼻子闻不到味道SEP嗅觉障碍”,然后将“CLS鼻子闻不到味道SEP嗅觉障碍”输入至Bert层;Bert层可以提取“CLS鼻子闻不到味道SEP嗅觉障碍”中每一个字符的特征,然后将提取的“CLS”的特征输入至全连接层(图5中未示出)映射为一个二维向量,并进行0/1二分类,得到模型预测的候选症状“嗅觉障碍”为症状描述信息为“鼻子闻不到味道”标准症状概率的输出概率,其中,图5中示例的输出概率为1,表征了“嗅觉障碍”是症状描述信息“鼻子闻不到味道”的标准症状。
步骤305,基于症状精选模型输出每一个输入语料对应的输出概率,确定症状描述信息对应的标准症状(即图3中用户输入对应的标准症状集合)。例如,可以将所有输出概率为1的候选症状作为症状描述信息对应的标准症状。
本申请实施例提供了一种医疗文本语义识别装置,如图6所示,该医疗文本语义识别装置60可以包括:信息获取模块601、候选语义识别结果确定模块602、概率确定模块603以及最终语义识别结果确定模块604,其中,
信息获取模块601,用于获取待识别医疗文本;
候选语义识别结果确定模块602,用于确定待识别医疗文本的各候选的语义识别结果;
概率确定模块603,用于基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率
最终语义识别结果确定模块604,用于基于每种候选的语义识别结果的第一概率,从各候选的语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果。
可选的,对于一种候选的语义识别结果,概率确定模块在待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率时,具体用于:
将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本;
基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
可选的,对于一种候选的语义识别结果,概率确定模块在将待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本时,具体用于:
将分类起始符、待识别医疗文本、分句符、以及该候选的语义识别结果依次拼接,得到拼接文本。
可选的,对于一种候选的语义识别结果,概率确定模块在基于拼接文本确定待识别医疗文本对应于该候选的语义识别结果的第一概率时,具体用于:
提取拼接文本中的各字符所对应的字符特征,基于所提取到的各字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率;或者,
提取拼接文本中指定位置的字符的字符特征,基于所提取的指定位置的字符的字符特征,确定待识别医疗文本对应于该候选的语义识别结果的第一概率。
可选的,概率确定模块在基于待识别医疗文本和各候选的语义识别结果,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率时,具体用于:
将待识别医疗文本和各候选的语义识别结果输入到语义识别结果精选模型,基于模型的输出确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;
其中,该装置还包括模型训练模块,用于通过以下方式得到语义识别结果精选模型:
获取第一训练样本集,第一训练样本集中包括各第一样本对,每个第一样本对包括第一样本医疗文本和一个第一样本语义识别结果,其中,每个第一样本对具有样本标签,样本标签表征了该第一样本对中的第一样本医疗文本对应于该样本对中的第一样本语义识别结果的标注结果;
基于各第一样本对对第一神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第一神经网络模型作为语义识别结果精选模型;
其中,第一神经网络模型的输入为第一样本对,输出为第一样本对中的第一样本医疗文本对应于该样本中的第一样本语义识别结果的预测结果,损失函数的值表征了模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异。
可选的,第一神经网络模型为基于Bert的神经网络模型;
模型训练模块在对于一个第一样本对,基于该第一样本对对第一神经网络模型进行训练时,具体用于:
将分类起始符、第一样本对中的第一样本医疗文本、分句符、以及第一样本对中的第一样本语义识别结果依次拼接;
将拼接后的文本输入至第一神经网络模型中,得到第一样本对所对应的预测概率。
可选的,对于一个第一样本对,该样本对所对应的第一样本语义识别结果是通过以下方式得到的:
基于第一样本医疗文本,通过语义识别结果初选模型,得到第一样本医疗文本所对应的各第一样本语义识别结果;
其中,模型训练模块还用于通过以下方式得到语义识别结果初选模型:
获取第二训练样本集,第二训练样本集中包括各第二样本医疗文本、以及每个第二样本医疗文本对应于各初始候选的语义识别结果的样本标签,其中,对于一个第二样本医疗文本,一个初始候选的语义识别结果的样本标签表征了该初始候选的语义识别结果为该第二样本医疗文本候选的语义识别结果的标注结果;
基于各第二样本医疗文本对第二神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第二神经网络模型作为语义识别结果初选模型;
其中,第二神经网络模型的输入为第二样本医疗文本,输出为第二样本医疗文本对应于各初始候选的语义识别结果的预测结果,损失函数的值表征了第二样本医疗文本所对应的各预测结果与该第二样本医疗文本所对应的各标注结果之间的差异。
可选的,候选语义识别结果确定模块在确定待识别医疗文本的各候选的语义识别结果时,具体用于:
将待识别医疗文本输入至语义识别结果初选模型中,基于语义识别结果初选模型的输出,得到确定待识别医疗文本的各候选的语义识别结果。
可选的,模型训练模块在获取第二训练样本集时,具体用于:
获取提问者的口语化的医疗文本、以及回答者对于该口语化的医疗文本的答复信息;
基于口语化的医疗文本、以及对应的答复信息,得到第二训练样本集。
可选的,信息获取模块获取待识别医疗文本时,具体用于:
获取用户输入的口语化的医疗文本;
基于口语化的医疗文本,提取得到待识别医疗文本。
可选的,待识别医疗文本包括症状描述信息,语义识别结果包括症状描述信息对应的症状。
本申请实施例的医疗文本语义识别装置可执行本申请实施例提供的一种医疗文本语义识别方法,其实现原理相类似,此处不再赘述。
本申请实施例提供了一种电子设备,如图7所示,图7所示的电子设备2000包括:处理器2001和存储器2003。其中,处理器2001和存储器2003相连,如通过总线2002相连。可选地,电子设备2000还可以包括收发器2004。需要说明的是,实际应用中收发器2004不限于一个,该电子设备2000的结构并不构成对本申请实施例的限定。
其中,处理器2001应用于本申请实施例中,用于实现图6所示的各模块的功能。
处理器2001可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器2001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线2002可包括一通路,在上述组件之间传送信息。总线2002可以是PCI总线或EISA总线等。总线2002可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器2003可以是ROM或可存储静态信息和计算机程序的其他类型的静态存储设备,RAM或者可存储信息和计算机程序的其他类型的动态存储设备,也可以是EEPROM、CD-ROM或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储或以数据结构形式的期望的计算机程序并能够由计算机存取的任何其他介质,但不限于此。
存储器2003用于存储执行本申请方案的应用程序的计算机程序,并由处理器2001来控制执行。处理器2001用于执行存储器2003中存储的应用程序的计算机程序,以实现图6所示实施例提供的医疗文本语义识别装置。
本申请实施例提供了一种电子设备,本申请实施例中的电子设备包括:处理器;以及存储器,存储器配置用于存储机器计算机程序,该计算机程序在由该处理器执行时,使得该处理器执行医疗文本语义识别方法。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上用于存储计算机程序,当计算机程序在计算机上运行时,使得计算机可以执行医疗文本语义识别方法。
本申请中的一种计算机可读存储介质所涉及的名词及实现原理具体可以参照本申请实施例中的一种医疗文本语义识别方法,在此不再赘述。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (11)
1.一种医疗文本语义识别方法,其特征在于,包括:
获取待识别医疗文本;
确定所述待识别医疗文本的各候选的语义识别结果;
基于所述待识别医疗文本,确定所述待识别医疗文本对应于每一候选的语义识别结果的第一概率;
基于每种候选的语义识别结果的第一概率,从各所述候选的语义识别结果中确定出所述待识别医疗文本对应的最终的语义识别结果;
其中,所述确定所述待识别医疗文本的各候选的语义识别结果,包括:
将所述待识别医疗文本输入至语义识别结果初选模型中,基于所述语义识别结果初选模型的输出,得到所述待识别医疗文本的各候选的语义识别结果;
所述基于所述待识别医疗文本,确定所述待识别医疗文本对应于每一候选的语义识别结果的第一概率,包括:
将所述待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本;
通过语义识别结果精选模型提取所述拼接文本中指定位置的字符的字符特征,基于所提取的指定位置的字符的字符特征,确定所述待识别医疗文本对应于该候选的语义识别结果的第一概率;其中,所述指定位置的字符所对应的特征融合了所述拼接文本中其他字符中的全部或部分的特征;
所述语义识别结果精选模型是通过各第一样本对训练得到的,所述第一样本对包括第一样本医疗文本和第一样本语义识别结果,所述第一样本语义识别结果是通过将所述第一样本医疗文本输入至所述语义识别结果初选模型得到的。
2.根据权利要求1所述的方法,其特征在于,所述将所述待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本,包括:
将分类起始符、所述待识别医疗文本、分句符、以及该候选的语义识别结果依次拼接,得到拼接文本。
3.根据权利要求1或2所述的方法,其特征在于,所述语义识别结果精选模型是通过以下方式得到的:
获取第一训练样本集,所述第一训练样本集中包括各第一样本对,每个第一样本对包括第一样本医疗文本和一个第一样本语义识别结果,其中,每个第一样本对具有样本标签,所述样本标签表征了该第一样本对中的第一样本医疗文本对应于该样本对中的第一样本语义识别结果的标注结果;
基于各所述第一样本对对第一神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第一神经网络模型作为所述语义识别结果精选模型;
其中,所述第一神经网络模型的输入为第一样本对,输出为第一样本对中的第一样本医疗文本对应于该样本中的第一样本语义识别结果的预测结果,所述损失函数的值表征了模型输出的各第一样本对所对应的预测结果与各第一样本对所对应的标注结果之间的差异。
4.根据权利要求3所述的方法,其特征在于,所述第一神经网络模型为基于Bert(基于翻译Transformer表达的双向编码器)的神经网络模型;
对于一个第一样本对,基于该第一样本对对第一神经网络模型进行训练,包括:
将分类起始符、第一样本对中的第一样本医疗文本、分句符、以及第一样本对中的第一样本语义识别结果依次拼接;
将拼接后的文本输入至所述第一神经网络模型中,得到第一样本对所对应的预测概率。
5.根据权利要求3所述的方法,其特征在于,对于一个第一样本对,该样本对所对应的第一样本语义识别结果是通过以下方式得到的:
基于所述第一样本医疗文本,通过语义识别结果初选模型,得到所述第一样本医疗文本所对应的各第一样本语义识别结果;
其中,所述语义识别结果初选模型是通过以下方式得到的:
获取第二训练样本集,所述第二训练样本集中包括各第二样本医疗文本、以及每个第二样本医疗文本对应于各初始候选的语义识别结果的样本标签,其中,对于一个第二样本医疗文本,一个初始候选的语义识别结果的样本标签表征了该初始候选的语义识别结果为该第二样本医疗文本候选的语义识别结果的标注结果;
基于各所述第二样本医疗文本对第二神经网络模型进行训练,直至该模型对应的损失函数收敛,将训练结束时的第二神经网络模型作为所述语义识别结果初选模型;
其中,所述第二神经网络模型的输入为第二样本医疗文本,输出为第二样本医疗文本对应于各初始候选的语义识别结果的预测结果,所述损失函数的值表征了第二样本医疗文本所对应的各预测结果与该第二样本医疗文本所对应的各标注结果之间的差异。
6.根据权利要求5所述的方法,其特征在于,所述获取第二训练样本集,包括:
获取提问者的口语化的医疗文本、以及回答者对于该口语化的医疗文本的答复信息;
基于所述口语化的医疗文本、以及对应的所述答复信息,得到所述第二训练样本集。
7.根据权利要求1或2所述的方法,其特征在于,所述获取待识别医疗文本,包括:
获取用户输入的口语化的医疗文本;
基于所述口语化的医疗文本,提取得到所述待识别医疗文本。
8.根据权利要求1或2所述的方法,其特征在于,所述待识别医疗文本包括症状描述信息,所述语义识别结果包括所述症状描述信息对应的症状。
9.一种医疗文本语义识别装置,其特征在于,包括:
信息获取模块,用于获取待识别医疗文本;
候选语义识别结果确定模块,用于确定待识别医疗文本的各候选的语义识别结果;
概率确定模块,用于基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率;
最终语义识别结果确定模块,用于基于每种候选的语义识别结果的第一概率,从各候选的语义识别结果中确定出待识别医疗文本对应的最终的语义识别结果;
其中,候选语义识别结果确定模块在确定待识别医疗文本的各候选的语义识别结果时,具体用于:
将待识别医疗文本输入至语义识别结果初选模型中,基于语义识别结果初选模型的输出,得到待识别医疗文本的各候选的语义识别结果;
所述概率确定模块在基于待识别医疗文本,确定待识别医疗文本对应于每一候选的语义识别结果的第一概率时,具体用于:
将所述待识别医疗文本与该候选的语义识别结果进行文本拼接,得到拼接文本;
通过语义识别结果精选模型提取所述拼接文本中指定位置的字符的字符特征,基于所提取的指定位置的字符的字符特征,确定所述待识别医疗文本对应于该候选的语义识别结果的第一概率;其中,所述指定位置的字符所对应的特征融合了所述拼接文本中其他字符中的全部或部分的特征;
所述语义识别结果精选模型是通过各第一样本对训练得到的,所述第一样本对包括第一样本医疗文本和第一样本语义识别结果,所述第一样本语义识别结果是通过将所述第一样本医疗文本输入至所述语义识别结果初选模型得到的。
10.一种电子设备,其特征在于,包括处理器以及存储器:
所述存储器被配置用于存储计算机程序,所述计算机程序在由所述处理器执行时,使得所述处理器执行权利要求1-8任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,当所述计算机程序在计算机上运行时,使得计算机可以执行上述权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010226019.3A CN111128394B (zh) | 2020-03-26 | 2020-03-26 | 医疗文本语义识别方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010226019.3A CN111128394B (zh) | 2020-03-26 | 2020-03-26 | 医疗文本语义识别方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111128394A CN111128394A (zh) | 2020-05-08 |
CN111128394B true CN111128394B (zh) | 2020-12-22 |
Family
ID=70493929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010226019.3A Active CN111128394B (zh) | 2020-03-26 | 2020-03-26 | 医疗文本语义识别方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111128394B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626293A (zh) * | 2020-05-21 | 2020-09-04 | 咪咕文化科技有限公司 | 图像文本识别方法、装置、电子设备及存储介质 |
CN111709845A (zh) * | 2020-06-01 | 2020-09-25 | 青岛国新健康产业科技有限公司 | 医保欺诈行为识别方法、装置、电子设备及存储介质 |
CN111814461B (zh) * | 2020-07-09 | 2024-05-31 | 科大讯飞股份有限公司 | 文本处理方法、相关设备及可读存储介质 |
CN111973155B (zh) * | 2020-08-23 | 2023-06-16 | 吾征智能技术(北京)有限公司 | 一种基于人体口味异常变化的疾病认知自学习*** |
CN112347257B (zh) * | 2020-11-11 | 2024-07-09 | 北京嘉和海森健康科技有限公司 | 一种患者症状口语化标准化方法和装置 |
CN112528019A (zh) * | 2020-12-01 | 2021-03-19 | 清华大学 | 文本中实体关系处理方法、装置、电子设备及存储介质 |
CN112735543B (zh) * | 2020-12-30 | 2024-07-19 | 杭州依图医疗技术有限公司 | 医学数据的处理方法、装置及存储介质 |
CN113139875B (zh) * | 2021-03-15 | 2023-01-10 | 青岛国新健康产业科技有限公司 | 欺诈病例查找方法、装置、电子设备与存储介质 |
CN113129870B (zh) | 2021-03-23 | 2022-03-25 | 北京百度网讯科技有限公司 | 语音识别模型的训练方法、装置、设备和存储介质 |
CN113343711B (zh) * | 2021-06-29 | 2024-05-10 | 南方电网数字电网研究院有限公司 | 工单生成方法、装置、设备及存储介质 |
CN113657086B (zh) * | 2021-08-09 | 2023-08-15 | 腾讯科技(深圳)有限公司 | 词语处理方法、装置、设备及存储介质 |
CN113641799B (zh) * | 2021-10-13 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机设备及存储介质 |
CN114004228A (zh) * | 2021-10-28 | 2022-02-01 | 泰康保险集团股份有限公司 | 医疗文本数据的标准化处理方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069779B (zh) * | 2019-04-18 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 医疗文本的症状实体识别方法及相关装置 |
CN110390003A (zh) * | 2019-06-19 | 2019-10-29 | 北京百度网讯科技有限公司 | 基于医疗的问答处理方法及***、计算机设备及可读介质 |
CN110442869B (zh) * | 2019-08-01 | 2021-02-23 | 腾讯科技(深圳)有限公司 | 一种医疗文本处理方法及其装置、设备和存储介质 |
CN110647629B (zh) * | 2019-09-20 | 2021-11-02 | 北京理工大学 | 一种多粒度答案排序的多文档机器阅读理解方法 |
-
2020
- 2020-03-26 CN CN202010226019.3A patent/CN111128394B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111128394A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111128394B (zh) | 医疗文本语义识别方法、装置、电子设备及可读存储介质 | |
CN109190110B (zh) | 一种命名实体识别模型的训练方法、***及电子设备 | |
WO2021042904A1 (zh) | 会话意图识别方法、装置、计算机设备和存储介质 | |
CN108491486B (zh) | 模拟病人问诊对话方法、装置、终端设备及存储介质 | |
WO2023029502A1 (zh) | 基于问诊会话构建用户画像的方法、装置、设备和介质 | |
CN112131883B (zh) | 语言模型训练方法、装置、计算机设备和存储介质 | |
EP3620994A1 (en) | Methods, apparatuses, devices, and computer-readable storage media for determining category of entity | |
CN112699686B (zh) | 基于任务型对话***的语义理解方法、装置、设备及介质 | |
WO2021179693A1 (zh) | 医疗文本翻译方法、装置及存储介质 | |
US20200211417A1 (en) | Two-language free dialogue system and method for language learning | |
CN114330475A (zh) | 内容匹配方法、装置、设备、存储介质及计算机程序产品 | |
CN112148862B (zh) | 一种问题意图识别方法、装置、存储介质及电子设备 | |
CN111145903A (zh) | 获取眩晕症问诊文本的方法、装置、电子设备及问诊*** | |
CN110717021A (zh) | 人工智能面试中获取输入文本和相关装置 | |
CN113010657A (zh) | 基于解答文本的答案处理方法和答案推荐方法 | |
CN113761190A (zh) | 文本识别方法、装置、计算机可读介质及电子设备 | |
CN110795544A (zh) | 内容搜索方法、装置、设备和存储介质 | |
CN111180025A (zh) | 表示病历文本向量的方法、装置及问诊*** | |
CN115714030A (zh) | 一种基于疼痛感知和主动交互的医疗问答***及方法 | |
CN116821290A (zh) | 面向多任务对话的大语言模型训练方法和交互方法 | |
CN114743421A (zh) | 一种外语学习智慧教学综合考核***及方法 | |
CN110929532A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN110969005B (zh) | 一种确定实体语料之间的相似性的方法及装置 | |
CN114416929A (zh) | 实体召回模型的样本生成方法、装置、设备及存储介质 | |
CN115617974B (zh) | 一种对话处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |