CN113140273A - 一种基于深度学习的icu患者电子病历分析方法及*** - Google Patents
一种基于深度学习的icu患者电子病历分析方法及*** Download PDFInfo
- Publication number
- CN113140273A CN113140273A CN202110349716.2A CN202110349716A CN113140273A CN 113140273 A CN113140273 A CN 113140273A CN 202110349716 A CN202110349716 A CN 202110349716A CN 113140273 A CN113140273 A CN 113140273A
- Authority
- CN
- China
- Prior art keywords
- loss
- prescription
- encoder
- deep learning
- medical record
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 238000004458 analytical method Methods 0.000 title claims abstract description 20
- 239000003814 drug Substances 0.000 claims abstract description 62
- 229940079593 drug Drugs 0.000 claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 29
- 230000004913 activation Effects 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims abstract description 24
- 210000002569 neuron Anatomy 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 201000010099 disease Diseases 0.000 claims description 8
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 8
- 230000004580 weight loss Effects 0.000 claims description 5
- 230000008901 benefit Effects 0.000 abstract description 5
- 238000013145 classification model Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010219 correlation analysis Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000282994 Cervidae Species 0.000 description 1
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 208000017442 Retinal disease Diseases 0.000 description 1
- 206010038923 Retinopathy Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000004691 coupled cluster theory Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
本发明涉及一种基于深度学***均激活程度的距离,并放入到损失函数;将隐藏层作为自编码器的中间层,使用一个多层感知机进行解码,输出包括多种药物的药方;基于初始化的加权矩阵,对输出的药方进行加权,将多开的药物作为药物损失放入损失函数。本发明通过获取患者ICD编码与药方的映射关系,挖掘出药物间的潜在关联,并给出推荐,具有较高的可靠性。
Description
技术领域
本发明涉及信息智能化领域,特别涉及一种基于深度学习的ICU患者电子病历分析方法及***。
背景技术
随着当今大数据和医疗病例电子化的推进。越来越多的病人信息和电子病历数据被存入医疗***和数据库。并且随着人工智能领域的快速发展和服务器算力的不断提高,现在已经有能力去研究这些数据的分布和特征,进而对辅助临床诊断,药方推荐和健康管理等方面提供帮助。
最近,电子病历(electronic health record)渐渐成为研究的热点。EHR数据以其丰富的信息量吸引了大量学者对其进行研究,例如,有学者利用EHR数据构建医疗知识图谱。这种图谱将不同情形,数据,进行整理,并开发出智能化医疗诊断和辅助决策这样的***,供医疗工作者们使用。这样的***可以记录患者的患病信息和身体状况,甚至可以挖掘其中的病因和潜在的问题。另外,将深度学习和EHR数据结合的研究主要在于以下三个方面:信息提取(information extraction),表征学习(Representing learning)和临床预测(clinical Prediction)。在表征学习中,除了常用的Word2Vec,Glove等NLP中常用的词向量嵌入工具,还有专门针对病人信息进行的嵌入方法,例如Choi等人提出的嵌入结构。对于信息提取方面,由于数据量的巨大,人工处理会耗费大量的时间和成本,在此背景下,针对EHR数据的信息提取工具Valx应运而生。临床预测就是将病人的信息例如体征,检测数据等输入模型,然后模型给出相应的病情诊断,比较著名的模型有Doctor AI。
表征学习是将病人的ICD编码和相应的药物做有效的表征,利于模型学习。临床预测是在与以较高的准确率去预测该病人的药方。本文将该工作量化为一个多标记分类问题,旨在根据数据分布特点,利用合理的模型作出可靠的预测。多标记分类模型的发展已经演化出了很多模型,例如经典的Binary Relevance,他的方法是将数据标记视作独立,用多个二分类器的集成解决问题。Classifier Chain(CC)是将多标记分类问题转化为一个链式分类问题,在一定程度上考虑到了标记之间的依赖性。Label Powerset(LP)是将所有标签的组合排列出来,将问题转化为一个多分类问题,但是药方数据标签数量巨大,LP的时间复杂度将会难以估量。还有学者提出了基于决策树和支持向量机的多标记分类算法,Multi-label decision tree,Rank-SVM等。另外,还有学者利用RNN探索标记间的相关性。例如Guibin Chen等人提出的CNN_RNN网络,用CNN提取图片或文本信息,用RNN考虑标记的相关性并做分类。探索标记间的相关性是多标记分类十分重视的一个方面,该方面处理的好坏会直接影响分类器的性能和效果。传统的多标记分类模型虽然时间复杂度低,但是难以探索标记间隐藏的联系。即使是有些模型考虑到了标记之间的联系,但是其考虑的方式可结实性和合理性欠妥。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于深度学习的ICU患者电子病历分析方法及***,基于电子病历(electronic health record)数据训练出一种准确率高的多标记分类模型,能够输出包括多种药物的药方。
本发明解决其技术问题所采用的技术方案是:
一方面,一种基于深度学习的ICU患者电子病历分析方法,包括:
S101,接收输入的ICD编码和药物向量,并将ICD编码和药物向量分别输入两个多层感知机,生成两个维度大小相同的隐藏层,并计算出两个隐藏层的相关性;
S102,基于初始化的稀疏系数,用KL散度计算稀疏系数和自编码器的中间层激活后神经元的平均激活程度的距离,并放入到损失函数;
S103,将隐藏层作为自编码器的中间层,使用一个多层感知机进行解码,输出包括多种药物的药方;
S104,基于初始化的加权矩阵,对输出的药方进行加权,将多开的药物作为药物损失放入损失函数。
优选的,所述S101中,ICD编码通过独立热编码one-hot嵌入后再进行词向量嵌入作为输入;所述药物向量为one-hot编码,实现病情到药物的映射。
优选的,所述S101中,计算出两个隐藏层的相关性,如下:
其中,f1和f2分别表示两个隐藏层的神经网络;X1和X2分别表示两个神经网络的输入;θ1和θ2分别表示两个神经网络的网络参数。
优选的,所述S102中,用KL散度计算稀疏系数和自编码器的中间层激活后神经元的平均激活程度的距离,具体如下:
优选的,所述S104中,药物损失的计算方式如下:
WEIGHTLOSS=-Σrelu(output-true_label)
其中,Weightloss表示药物损失;relu表示线性整流函数;output表示输出的药方;true_label表示真实的药方标签。
优选的,所述损失函数的表示如下:
MODELLOSS=α*DCCALOSS+β*AESPARSELOSS+η*WEIGHTLOSS
其中,MODELLOSS表示总损失;DCCALOSS表示自编码器的损失;α、β和η分别表示对应的权重系数。
另一方面,一种基于深度学习的ICU患者电子病历分析***,包括:
相关性获取模块,接收输入的ICD编码和药物向量,并将ICD编码和药物向量分别输入两个多层感知机,生成两个维度大小相同的隐藏层,并计算出两个隐藏层的相关性;
药方输出模块,将隐藏层作为自编码器的中间层,使用一个多层感知机进行解码,输出包括多种药物的药方;
药方损失获取模块,基于初始化的加权矩阵,对输出的药方进行加权,将多开的药物作为药物损失放入损失函数。
根据本发明的实施例,本发明具有如下有益效果:
(1)本发明利用疏稀自编码器来挖掘标记之间的多重相关性,稀疏自编码器利用神经元直接探索标记间的相关性,避免了链式结构或RNN结构的局限,并且该方法的时间复杂度远低于训练多个基分类器的时间复杂度,所述疏稀自编码器的损失函数除包括自编码器本身的损失外,还包括用KL散度计算稀疏系数ρ和自编码器的中间层激活后神经元的平均激活程度的距离;
(2)本发明的基于深度学习的ICU患者病历分析方法使用多标记分类模型,所述多标记分类模型利用深度典型相关分析DCCA和疏稀自编码器同时进行嵌入,学习出一个隐空间Latent Space(隐藏层),再利用解码器进行解码;这样的好处是可以更为直接的探索标签之间的关系,并且做出分类。还有一个好处是药物的种类过多导致数据非常稀疏,利用疏稀自编码器的嵌入方式便于使输出稀疏化;
(3)本发明为了切合临床开方的实际情况,优化了损失函数,减少了不需要药物的出现。
以下结合附图及实施例对本发明作进一步详细说明,但本发明的一种基于深度学习的ICU患者电子病历分析方法及***不局限于实施例。
附图说明
图1是本发明实施例的基于深度学习的ICU患者电子病历分析方法的流程图;
图2是本发明实施例的多标记分类模型的结构示意图;
图3是本发明实施例的药物损失随迭代次数上升的变化曲线图;
图4是根据本发明实施例的基于深度学习的ICU患者电子病历分析***的结构框图。
具体实施方式
下面结合附图详细描述本发明的实施例,需要注意的是附图所描述的实施例仅仅是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。以下结合附图描述根据本发明实施例的基于深度学习的ICU患者电子病历分析方法及***。
参见图1和图2所示,一种基于深度学习的ICU患者电子病历分析方法,包括:
S101,接收输入的ICD编码和药物向量,并将ICD编码和药物向量分别输入两个多层感知机,生成两个维度大小相同的隐藏层,并计算出两个隐藏层的相关性;
S102,基于初始化的稀疏系数,用KL散度计算稀疏系数和自编码器的中间层激活后神经元的平均激活程度的距离,并放入到损失函数;
S103,将隐藏层作为自编码器的中间层,使用一个多层感知机进行解码,输出包括多种药物的药方;
S104,基于初始化的加权矩阵,对输出的药方进行加权,将多开的药物作为药物损失放入损失函数。
进一步的,所述S101中,ICD编码通过独立热编码one-hot嵌入后再进行词向量嵌入作为输入;所述药物向量为one-hot编码,实现病情到药物的映射。
one-hot编码是一种常用的编码方式,由于ICD编码的数量有上千条,但是对于一个具体的实例只有30-40种病。因此,如果使用one-hot编码进行实验,输入数据将变得异常稀疏,不利于神经网络的特征抽取。再者,因为疾病与疾病之间有一定的联系,比如得了糖尿病就比较容易得视网膜病变,肾脏等器官神经受损等并发症。但是one-hot编码由于编码性质,直接忽视了这种联系。因此,one-hot编码不适用于这类医疗数据。
本发明利用Word2Vec来进行词向量嵌入并进行输入数据的降维。Word2Vec是用一个浅层的神经网络来寻找独立热编码和词向量之间的映射关系。也就是说,Word2Vec是将独立热编码转化成词向量的一种映射。通过映射之后,数据的维度得以大大减小,而且还能有效的保留数据信息。当然这种映射也可以理解成空间的转化,就是将原本的独立热编码以信息量减少最小的方式缩减其维度。本发明使用了该方法对ICD编码进行降维,能够提高分类器性能。
进一步的,所述S101中,计算出两个隐藏层的相关性,如下:
其中,f1和f2分别表示两个隐藏层的神经网络;X1和X2分别表示两个神经网络的输入;θ1和θ2分别表示两个神经网络的网络参数。
本发明的基于深度学习的ICU患者病历分析方法使用多标记分类模型,所述多标记分类模型利用深度典型相关分析DCCA和疏稀自编码器同时进行嵌入,学习出一个隐空间Latent Space,再利用解码器进行解码,解码器用两层神经网络解码。其中,DCCA通过多个非线性变换的堆叠层来计算两个空间的表示形式。假设第一个空间的网络中的每个中间层都有c1个单位,而最终(输出)图层具有o个单位。让成为第一个空间的实例。实例x1的第一层的输出是其中是权重矩阵,是偏置矢量,s:R→R是一个非线性函数。同理,另一个空间的输入也按照类似方法计算出其输出值。
以具体变量计算:H1∈Ro*m,H2∈Ro*m,是两个通过深度网络将两个不同空间的数据输出的结果。下面定义定义并且定义 其中r1是一个正则项。假设r1是正的,那么必然是正的,根据CCA中相关性的计算公式,H1,H2中前K个因子的值的相关性值为T矩阵前K个奇异值的和。其中如果取K=o,代入公式会有下式成立:
corr(H1,H2)=||T||tr=tr(T′T)1/2
这样的好处是可以更为直接的探索标签之间的关系,并且做出分类。还有一个好处是药物的种类过多导致数据非常稀疏。利用疏稀自编码器的嵌入方式便于使输出稀疏化。在模型做出分类之后,利用药物损失使所开的药方中尽少包含病人不需要的药物。
进一步的,所述S104中,药物损失的计算方式如下:
WEIGHTLOSS=-∑relu(output-true_label)
其中,Weightloss表示药物损失;relu表示线性整流函数;output表示输出的药方;true_label表示真实的药方标签。
进一步的,所述损失函数的表示如下:
MODELLOSS=α*DCCALOSS+β*AESPARSELOSS+η*WEIGHTLOSS
其中,MODELLOSS表示总损失;DCCALOSS表示自编码器的损失;α、β和η分别表示对应的权重系数。
其中,自编码器的损失AESPARSELOSS即为Auto-encoder的输出与真实值之间的欧式距离。β为一个系数,用来控制Sparsity的程度。从损失函数的变化中,在进行反向传播的时候,其梯度计算公式会从式
转换成式:
如上所述,由于是多标记分类模型,本发明采用的评价指标除包括汉明距离、fl_score、和Jaccard loss外,还提出了一个评价指标,它用于衡量模型是否有多开药,即模型是否开出了病人不需要的药物。因为本模型提供的是一个开药的参考,最理想的情况是开出的药方完全与病人需要的药方相符。但是实际训练中无法到达百分之一百的正确率。因此,本模型本着开病人不需要的药物不如不开这些药物的原则,引进了新的评价指标,定义为WEIGHTLOSS。
这用的就是稀疏自编码的思想,虽然计算分布间距离的方式不一样,但是这样的损失还是可以达到让输出变得稀疏的效果。WEIGHTLOSS也成为一个重要指标来衡量模型的优劣。
如下将对本发明方法所使用的多标记分类模型(CAAE_SPARSE)和BinaryRelevance(BR)、ClassifierChain(CC)、Med_AR和RNN_ATT模型进行比对。
BR和CC是两个比较常用的多标记分类模型,BR就是忽视标记间的相关性,直接用基学习器对目标进行分类。而CC则是考虑到了标记之间的相关性,不断将Y,也就是label作为feature输入分类器,最后综合多个分类器的结果输出最后的结果。这样将标签当作特征的做法可以考虑到标记间的相关性。举一个最简单的例子,如果基分类器是MLP,那么很显然当多个标签被作为特征进行前向传播的时候,标签之间的相关性又被考虑。RNN_ATT是将Attention用于RNN之中,这样也考虑了相关性,而且通过Attention的加权,还让不同的ICD编码受到了不同程度的加权。最后,Med_AR模型是由Attention,RNN和Rethink网络结合而成,是甘小鹿提出的一个多标记分类模型。
各模型的参数设置如下:
BR(word2vec):输入数据用word2vec基分类器采用的是max_depth为2的决策树,基分类器其他参数为默认。
CC(word2vec):输入的ICD编码也用word2vec进行词嵌入,基分类器采用了SVM。
Med_AR(glove):输入的ICD编码用glove做词向量嵌入,Rethink_Net部分时间步time_step=5,Attention部分获取疾病表征为512维。
Med_AR(Word2Vec):输入的ICD编码用Word2Vec进行词向量嵌入,其他步骤与上面一致。
RNN_ATT(Word2Vec):首先初始化Attention向量,对向量化的ICD编码进行加权。再用RNN(LSTM)进行多标记分类。其中RNN的Cell_Num参数设置为输出药物的数量2726。
CAAE_SPARSE:用上文提到的模型进行多标记分类实验。词向量嵌入方式为Word2Vec。
其中CAAE_SPARSE的具体调参过程包括:批处理Batch_size设为100,学习率lr设为1e-5,word2Vec的维度是512。模型三处均采用2层MLP。一共的神经元数量为1020个。在计算Correlation时协方差矩阵加上一个对角线元素均为1e-4的对角矩阵增加矩阵特征值分解的稳定性。Dropout_rate设置为0.7,训练集测试集比例为7:3,随机抽取。
如下表1是所有数据的实验结果,根据HADM_ID整合而成。一共有14727条。由于Glove与Word2Vec所得出的结果几乎一致,本文展示试验结果均为Word2Vec的结果。
表1总试验结果
以上结果是针对所有数据,14727条进行的实验。就准确率而言,BR和CC模型都为集成类的模型。BR是将标签割裂开,忽略了标签之间的相关性。而CC虽然考虑到了标签之间的相关性,但是在此情况下这种方式欠妥。病人所使用的药方种类有两千种以上,这导致标签的编码非常稀疏。因此使用CC这样的方式不断用标签作为特征的做法也很难达到理想的效果,及会忽略一些标签之间的相关性。再看基于RNN的模型。RNN Att效果上两个模型较好的原因是它考虑到了不同疾病的重要性不同,但是通过实验结果可以看出Attention机制对整体模型结果提升作用不大。再看Med_AR模型,它的不同之处在于用RethinkNet来考虑标记之间的相关性。模型效果得到了提升。而本发明模型更为直接的考虑了标记的相关性,并且,它还结合实情有倾向的稀疏化模型输出,让其结果更能被病患所接受。
针对于本发明定义的WEIGHTLOSS,可以发现BR和CC的效果很好,平均每条记录原本不该开而被开出的药物平均数很小。但是他们的准确率不高。而基于RNN的两个模型,WEIGHTLOSS相对高了很多,容易导致误用药物,因此也不太合适。本发明提出的模型,准确率为最高。而且其WEIGHTLOSS也相对较低,在可以接受的范围里。如图3所示是本发明提出的模型WEIGHTLOSS随迭代次数上升的变化曲线图。可以清晰的看到,随着迭代次数的上升,平均每条记录的多开药的平均数是明显减少的。从而说明本发明提出的损失函数和模型结构是有效的。
参见图4所示,本发明一种基于深度学习的ICU患者电子病历分析***,包括:
相关性获取模块401,接收输入的ICD编码和药物向量,并将ICD编码和药物向量分别输入两个多层感知机,生成两个维度大小相同的隐藏层,并计算出两个隐藏层的相关性;
药方输出模块403,将隐藏层作为自编码器的中间层,使用一个多层感知机进行解码,输出包括多种药物的药方;
药方损失获取模块404,基于初始化的加权矩阵,对输出的药方进行加权,将多开的药物作为药物损失放入损失函数。
以上所述的具体实施例,对本发明的目的、技术方案和效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不限制本发明,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,所做出的修改、替换和变形均属于本发明的保护之内。
Claims (7)
1.一种基于深度学习的ICU患者电子病历分析方法,其特征在于,包括:
S101,接收输入的ICD编码和药物向量,并将ICD编码和药物向量分别输入两个多层感知机,生成两个维度大小相同的隐藏层,并计算出两个隐藏层的相关性;
S102,基于初始化的稀疏系数,用KL散度计算稀疏系数和自编码器的中间层激活后神经元的平均激活程度的距离,并放入到损失函数;
S103,将隐藏层作为自编码器的中间层,使用一个多层感知机进行解码,输出包括多种药物的药方;
S104,基于初始化的加权矩阵,对输出的药方进行加权,将多开的药物作为药物损失放入损失函数。
2.根据权利要求1所述的基于深度学习的ICU患者电子病历分析方法,其特征在于,所述S101中,ICD编码通过独立热编码one-hot嵌入后再进行词向量嵌入作为输入;所述药物向量为one-hot编码,实现病情到药物的映射。
5.根据权利要求4所述的基于深度学习的ICU患者电子病历分析方法,其特征在于,所述S104中,药物损失的计算方式如下:
WElGHTLOSS=-∑relu(output-true_label)
其中,Weightloss表示药物损失;relu表示线性整流函数;output表示输出的药方;true_label表示真实的药方标签。
6.根据权利要求5所述的基于深度学习的ICU患者电子病历分析方法,其特征在于,所述损失函数的表示如下:
MODELLOSS=α*DCCALOSS+β*AESPARSELOSS+η*WEIGHTLOSS
其中,MODELLOSS表示总损失;DCCALOSS表示自编码器的损失;α、β和η分别表示对应的权重系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110349716.2A CN113140273B (zh) | 2021-03-31 | 2021-03-31 | 一种基于深度学习的icu患者电子病历分析方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110349716.2A CN113140273B (zh) | 2021-03-31 | 2021-03-31 | 一种基于深度学习的icu患者电子病历分析方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113140273A true CN113140273A (zh) | 2021-07-20 |
CN113140273B CN113140273B (zh) | 2022-05-10 |
Family
ID=76810242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110349716.2A Active CN113140273B (zh) | 2021-03-31 | 2021-03-31 | 一种基于深度学习的icu患者电子病历分析方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113140273B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958216A (zh) * | 2017-11-27 | 2018-04-24 | 沈阳航空航天大学 | 基于半监督的多模态深度学习分类方法 |
CN108428478A (zh) * | 2018-02-27 | 2018-08-21 | 东北师范大学 | 基于异质医疗数据挖掘的甲状腺癌风险预测方法 |
CN108664996A (zh) * | 2018-04-19 | 2018-10-16 | 厦门大学 | 一种基于深度学习的古文字识别方法及*** |
US20180330808A1 (en) * | 2017-05-10 | 2018-11-15 | Petuum Inc. | Machine learning system for disease, patient, and drug co-embedding, and multi-drug recommendation |
CN109036553A (zh) * | 2018-08-01 | 2018-12-18 | 北京理工大学 | 一种基于自动抽取医疗专家知识的疾病预测方法 |
-
2021
- 2021-03-31 CN CN202110349716.2A patent/CN113140273B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180330808A1 (en) * | 2017-05-10 | 2018-11-15 | Petuum Inc. | Machine learning system for disease, patient, and drug co-embedding, and multi-drug recommendation |
CN107958216A (zh) * | 2017-11-27 | 2018-04-24 | 沈阳航空航天大学 | 基于半监督的多模态深度学习分类方法 |
CN108428478A (zh) * | 2018-02-27 | 2018-08-21 | 东北师范大学 | 基于异质医疗数据挖掘的甲状腺癌风险预测方法 |
CN108664996A (zh) * | 2018-04-19 | 2018-10-16 | 厦门大学 | 一种基于深度学习的古文字识别方法及*** |
CN109036553A (zh) * | 2018-08-01 | 2018-12-18 | 北京理工大学 | 一种基于自动抽取医疗专家知识的疾病预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113140273B (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN109471895B (zh) | 电子病历表型抽取、表型名称规范化方法及*** | |
Er et al. | Attention pooling-based convolutional neural network for sentence modelling | |
Ye et al. | Attentive linear transformation for image captioning | |
Gallant et al. | Representing objects, relations, and sequences | |
CN110334219A (zh) | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 | |
CN108447534A (zh) | 一种基于nlp的电子病历数据质量管理方法 | |
CN107133211A (zh) | 一种基于注意力机制的作文评分方法 | |
WO2023029506A1 (zh) | 病情分析方法、装置、电子设备及存储介质 | |
CN113343125B (zh) | 一种面向学术精准推荐的异质科研信息集成方法及*** | |
CN114549850B (zh) | 一种解决模态缺失问题的多模态图像美学质量评价方法 | |
CN108804591A (zh) | 一种病历文本的文本分类方法及装置 | |
CN112420191A (zh) | 一种中医辅助决策***及方法 | |
CN112632250A (zh) | 一种多文档场景下问答方法及*** | |
CN114781382A (zh) | 基于rwlstm模型融合的医疗命名实体识别***及方法 | |
CN109815478A (zh) | 基于卷积神经网络的药化实体识别方法及*** | |
Tian et al. | An Abnormal Behavior Detection Method Leveraging Multi-modal Data Fusion and Deep Mining. | |
CN117423470B (zh) | 一种慢性病临床决策支持***及构建方法 | |
CN113918694A (zh) | 一种面向医疗知识图谱问答的问句解析方法 | |
CN113140273B (zh) | 一种基于深度学习的icu患者电子病历分析方法及*** | |
Li et al. | Stacking-BERT model for Chinese medical procedure entity normalization | |
CN116682536A (zh) | 基于改进Bert4Rec的中医药方推荐方法 | |
CN112364160A (zh) | 一种结合ALBERT和BiGRU的专利文本分类方法 | |
CN116630062A (zh) | 一种医保欺诈行为检测方法、***、存储介质 | |
Ning et al. | Research on a vehicle-mounted intelligent TCM syndrome differentiation system based on deep belief network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20210720 Assignee: TIANJIN OPTOELECTRONICS ANCHEN INFORMATION TECHNOLOGY CO.,LTD. Assignor: XIAMEN University Contract record no.: X2024980002373 Denomination of invention: A deep learning based electronic medical record analysis method and system for ICU patients Granted publication date: 20220510 License type: Common License Record date: 20240311 |