CN109727238A - X光胸片的识别方法及装置 - Google Patents
X光胸片的识别方法及装置 Download PDFInfo
- Publication number
- CN109727238A CN109727238A CN201811610295.9A CN201811610295A CN109727238A CN 109727238 A CN109727238 A CN 109727238A CN 201811610295 A CN201811610295 A CN 201811610295A CN 109727238 A CN109727238 A CN 109727238A
- Authority
- CN
- China
- Prior art keywords
- ray chest
- chest radiograph
- normotopia
- side position
- convolutional network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 53
- 241001269238 Data Species 0.000 claims abstract description 11
- 201000010099 disease Diseases 0.000 claims description 16
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 9
- 230000009977 dual effect Effects 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000005096 rolling process Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000012360 testing method Methods 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000005241 right ventricle Anatomy 0.000 description 2
- 208000021479 Cardiovascular injury Diseases 0.000 description 1
- 206010067286 Left atrial dilatation Diseases 0.000 description 1
- 206010027076 Mediastinal mass Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 208000007474 aortic aneurysm Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 210000002837 heart atrium Anatomy 0.000 description 1
- 210000005240 left ventricle Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000001147 pulmonary artery Anatomy 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种X光胸片的识别方法及装置,在上述方法中,将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练所述深度卷积网络;将多个已经区分出正位和侧位的X光胸片对应的图像数据作为所述深度卷积网络的第二输入数据,对训练后的所述深度卷积网络进行验证;在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的所述深度卷积网络,获取识别结果。可以高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片。解决了相关技术中通过人眼来识别并区分正侧位胸片,效率低下的问题。
Description
技术领域
本发明涉及通信领域,具体而言,涉及一种X光胸片的识别方法及装置。
背景技术
X光胸片,临床上称为胸片,在临床上应用广泛,正位胸片能显示出心脏大血管的大小、形态、位置和轮廓,能观察心脏与毗邻器官的关系和肺内血管的变化,可用于心脏及其径线的测量。左前斜位片显示主动脉的全貌和左右心室及右心房增大的情况。右前斜位片有助于观察左心房增大、肺动脉段突出和右心室漏斗部增大的变化。左侧位片能观察心、胸的前后径和胸廓畸形等情况,对主动脉瘤与纵隔肿物的鉴别及定位尤为重要。
由于X光胸片大多数是正位胸片和侧位胸片各一张,通过混淆的样本来训练深度学习网络,会出现很大的误差。而通过人眼来识别并区分正侧位胸片,效率十分低下。
因此,如何能高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片,是目前亟待解决的问题。
发明内容
本发明的主要目的在于公开了一种X光胸片的识别方法及装置,以至少解决相关技术中还缺乏高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片的相应技术方案的问题。
根据本发明的一个方面,提供了一种X光胸片的识别方法。
根据本发明的X光胸片的识别方法包括:将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络;将多个已经区分出正位和侧位的X光胸片对应的图像数据作为上述深度卷积网络的第二输入数据,对训练后的上述深度卷积网络进行验证;在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,获取识别结果。
根据本发明的另一方面,提供了一种X光胸片的识别装置。
根据本发明的X光胸片的识别装置包括:训练模块,用于将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络;验证模块,用于将多个已经区分出正位和侧位的X光胸片对应的图像数据作为上述深度卷积网络的第二输入数据,对训练后的上述深度卷积网络进行验证;第一获取模块,用于在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,获取识别结果。
与现有技术相比,本发明实施例至少具有以下优点:将正侧位的X光胸片区分为不同的样本集来训练深度卷积网络,对训练后的上述深度卷积网络进行验证,在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,可以高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片。解决了相关技术中通过人眼来识别并区分正侧位胸片,效率低下的问题。
附图说明
图1是根据本发明实施例的X光胸片的识别方法的流程图;
图2是根据本发明优选实施例的X光胸片的识别方法的流程图;
图3是根据本发明实施例的X光胸片的识别装置的结构框图;
图4是根据本发明优选实施例的X光胸片的识别装置的结构框图。
具体实施方式
下面结合说明书附图对本发明的具体实现方式做一详细描述。
图1是根据本发明实施例的X光胸片的识别方法的流程图。如图1所示,该X光胸片的识别方法包括:
步骤S101:将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络;
步骤S103:将多个已经区分出正位和侧位的X光胸片对应的图像数据作为上述深度卷积网络的第二输入数据,对训练后的上述深度卷积网络进行验证;
步骤S105:在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,获取识别结果。
将正侧位的X光胸片区分为不同的样本集来训练深度卷积网络,对训练后的上述深度卷积网络进行验证,在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,可以高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片。解决了相关技术中通过人眼来识别并区分正侧位胸片,效率低下的问题。
在优选实施过程中,可以采用深度卷积网络(Convolutional Neural Networksdensenet)121,densenet121有121层网络结构,121层为全连接图层,即全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。
优选地,在将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络之前,还可以包括以下处理:收集用于训练上述深度卷积网络的X光胸片样本;将上述X光胸片样本区分为正位和侧位的X光胸片样本,并标记;对上述X光胸片样本调整尺寸大小,并通过随机水平翻转的方式增加上述X光胸片样本的数量。
例如,为了增加X光胸片样本的数量,在将图像导入神经网络之前,可以将图像尺寸大小进行调整,如缩小到224×224。此外,还可以通过随机水平翻转来增加训练数据的数量。
优选地,上述步骤S101中,将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络可以进一步包括:将多个已经区分出正位和侧位的X光胸片分成多个组,每次将一组X光胸片对应的图像数据输入所述深度卷积网络进行训练;将所述深度卷积网络全连接图层的最终输出层设置为双输出单元,采用非线性sigmoid激活函数,从所述双输出单元获取所述第一输入数据中各个X光胸片的输出结果;根据所述输出结果判定是正位的X光胸片、侧位的X光胸片、或是非X光胸片;根据所述判定结果动态调整所述深度卷积网络的权重参数值。
例如,输出的是包含正位X光胸片的概率值X1和侧位X光胸片的概率值Y1这两个数据的数组,可以依次对这两个数进行判定,将正位X光胸片的概率值X1与正位X光胸片的概率阈值X2进行比较,如果X1大于或等于X2,则直接判定为正位的X光胸片,如果X1小于X2,则继续下一步判定,将侧位X光胸片的概率值Y1与侧位X光胸片的概率阈值Y2进行比较,当Y1大于或等于Y2时,则判定为侧位的X光胸片,当Y1小于Y2时,则判定为非X光胸片,例如,可能是头部X光片等。
采用双输出单元输出两个数据(正位X光胸片的概率值X1和侧位X光胸片的概率值Y1),不仅可以判定是正位的X光胸片还是侧位的X光胸片,还可以剔除掉非X光胸片,例如头部X光片等。当然,可选地,上述步骤S101中,将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络还可以进一步包括:将多个已经区分出正位和侧位的X光胸片分成多个组,每次将一组X光胸片对应的图像数据输入上述深度卷积网络进行训练;将上述深度卷积网络全连接图层的最终输出层设置为单输出单元,采用非线性sigmoid激活函数,从上述单输出单元获取上述第一输入数据中各个X光胸片的输出结果;根据上述输出结果判定是正位的X光胸片还是侧位的X光胸片;根据上述判定结果动态调整上述深度卷积网络的权重参数值。即也可以采用单输出单元输出一个数据,可以是输出正位的X光胸片的概率值,也可以是输出侧位的X光胸片的概率值,但是只输出一个数据,无法剔除掉非X光胸片,例如,可能是头部X光片等。
在优选实施过程中,可以收集多张(例如,7000张)用来训练和检查的X光胸片样本,其中80%的训练数据(即上述第一输入数据)和20%的验证数据(即上述第二输入数据);将所有胸部X光片通过人眼识别的方法进行标记,标记为正位胸片(1)和侧位胸片(0),将上述训练数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络;具体地,可以将上述训练数据分成多个组,例如,每组16张光胸片,每次将一组数据输入深度卷积网络,对深度卷积网络进行训练。将上述深度卷积网络全连接图层的最终输出层设置为单输出单元,采用非线性sigmoid激活函数,从上述单输出单元获取上述第一输入数据中各个X光胸片的输出结果。例如:densenet121的原先最后一层是1000D fully-connected,softmax,即输出1000个数据,经过修改后变更为:(output):Dense(None->1,Activation(Sigmoid)。输出结果为一个概率值,例如,输出的为正位X光胸片的概率值,则当这个数大于或等于预定阈值时,可以根据这个输出结果判定是正位的X光胸片,反之,当这个数小于预定阈值时,可以根据这个输出结果判定是侧位的X光胸片。
优选地,根据上述判定结果调整上述深度卷积网络的权重参数值可以进一步包括以下处理:随机初始化上述深度卷积网络的权重参数值;采用自适应矩估计算法的标准参数β1、β2和学习速率动态调整上述深度卷积网络的权重参数值。
其中,深度卷积网络的权重参数值,与自适应矩估计Adam算法的标准参数β1、β2和学习速率有关联关系,例如:权重参数值中的一个参数a1=β1*1*β2+lr等,其中,lr为学习速率。即深度卷积网络的权重参数值如何变动,是由适应矩估计Adam算法的标准参数β1、β2和学习速率来确定。优选实施过程中,先随机初始化网络权参数值,然后使用Adam的标准参数(β1=0.9和β2=0.999)对网络的进行端对端的训练,将初始学习速率设置为0.01。每次输入训练数据中的一组数据,对深度卷积网络的权重参数值进行不断地动态调整,这样经过多次的数据输入和多次的调整,在验证准确率高于预定的阈值(即上述第一阈值)的情况下,则确定深度卷积网络训练完成。实践中采用上述参数经过测试,通过100次训练下来以后,验证数据准确率可以达到99.9%以上。
优选地,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,获取识别结果之后,还可以包括以下处理:将上述识别结果中正位的X光胸片输入正位胸片疾病检测网络,获取正位的X光胸片对应的患病概率;将上述识别结果中侧位的X光胸片输入侧位胸片疾病检测网络,获取侧位的X光胸片对应的患病概率。
优选地,获取正位的X光胸片对应的患病概率和获取侧位的X光胸片对应的患病概率之后,还可以包括以下处理:判断上述识别结果中,是否有属于同一个患者的正位的X光胸片和侧位的X光胸片;如果有,则结合该正位的X光胸片对应的患病概率、侧位的X光胸片对应的患病概率,采用加权平均算法计算得出上述同一个患者的患病概率。
在优选实施过程中,在得出是正位还是侧位胸片的结果以后,根据不同的结果,可以分别利用正位胸片疾病检测网络和侧位胸片疾病检测网络得出目标胸片的患病概率;如果正侧位X光胸片为同一人的,则可以将上述正侧位的患病概率通过加权平均算法得出最终的患病概率。计算公式如下:
最终的患病概率=(x1f1+x2f2+x3f3+x4f4+……+xnfn)/n;
其中,f1,f2,……fn为权重值,x1,x2,……xn为正位或者侧位的X光胸片对应的患病概率,n为同一人的X光胸片个数,如果对于同一患者,有一张正位X光胸片和一张侧位X光胸片,则n为2。
以下结合图2进一步描述上述优选实施方式。
图2是根据本发明优选实施例的X光胸片的识别方法的流程图。如图2所示,该X光胸片的识别方法包括:
步骤S201:将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络densenet121,输出为包含正位的X光胸片的概率值X1和侧位的X光胸片的概率值Y1的数组。
步骤S203:将输出的X光胸片的概率值X1与预定阈值X2进行比较,当该X光胸片的概率值大于或等于预定阈值时,则执行步骤S205,否则,执行步骤S207。
步骤S205:检测结果为正位的X光胸片,将该正位的X光胸片输入正位胸片疾病检测网络,获取正位的X光胸片对应的患病概率。
步骤S207:将输出的侧位X光胸片的概率值Y1与侧位X光胸片的概率阈值Y2进行比较,当Y1大于或等于Y2时,则执行步骤S209,否则,执行步骤S211。
步骤S209:检测结果为侧位的X光胸片,将该侧位的X光胸片输入正位胸片疾病检测网络,获取侧位的X光胸片对应的患病概率。
步骤S211:检测结果为非X光胸片,例如,可能是头部X光片等。
步骤S213:判断识别后的X光胸片中,是否有属于同一个患者的正位的X光胸片和侧位的X光胸片;如果是,则执行步骤S215,否则,则执行步骤S217或者步骤S219。
步骤S215:结合该正位的X光胸片对应的患病概率、侧位的X光胸片对应的患病概率,采用加权平均算法计算得出同一个患者的患病概率。
最终的患病概率=(x1f1+x2f2)/2;
其中,f1为正位的X光胸片对应的权重值,f2为侧位的X光胸片对应的权重值,x1为正位的X光胸片对应的患病概率,x2为侧位的X光胸片对应的患病概率。
步骤S217:输出正位的X光胸片对应的患病概率。
步骤S219:输出侧位的X光胸片对应的患病概率。
图3是根据本发明实施例的X光胸片的识别装置的结构框图。如图3所示,该X光胸片的识别装置包括:训练模块30,用于将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练上述深度卷积网络;验证模块32,用于将多个已经区分出正位和侧位的X光胸片对应的图像数据作为上述深度卷积网络的第二输入数据,对训练后的上述深度卷积网络进行验证;第一获取模块34,用于在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,获取识别结果。
采用上述装置,训练模块30将正侧位的X光胸片区分为不同的样本集来训练深度卷积网络,验证模块32对训练后的上述深度卷积网络进行验证,第一获取模块34在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的上述深度卷积网络,可以高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片。解决了相关技术中通过人眼来识别并区分正侧位胸片,效率低下的问题。
优选地,如图4所示,上述训练模块30可以进一步包括:分组单元300,用于将多个已经区分出正位和侧位的X光胸片分成多个组,每次将一组X光胸片对应的图像数据输入上述深度卷积网络进行训练;获取单元302,用于将上述深度卷积网络全连接图层的最终输出层设置为双输出单元,采用非线性sigmoid激活函数,从上述双输出单元获取上述第一输入数据中各个X光胸片的输出结果;判定单元304,用于根据上述输出结果判定是正位的X光胸片、侧位的X光胸片、或是非X光胸片;调整单元306,用于根据上述判定结果动态调整上述深度卷积网络的权重参数值。
可选地,上述获取单元302,还可以用于将所述深度卷积网络全连接图层的最终输出层设置为单输出单元,采用非线性sigmoid激活函数,从所述单输出单元获取所述第一输入数据中各个X光胸片的输出结果;上述判定单元304,还可以根据所述输出结果判定是正位的X光胸片或是侧位的X光胸片。
优选地,上述调整单元306,进一步用于随机初始化上述深度卷积网络的权重参数值,采用自适应矩估计算法的标准参数β1、β2和学习速率动态调整上述深度卷积网络的权重参数值。
优选地,如图4所示,上述装置还可以包括:第二获取模块36,与第一获取模块34相连接,用于将上述识别结果中正位的X光胸片输入正位胸片疾病检测网络,获取正位的X光胸片对应的患病概率;第三获取模块38,与第一获取模块34相连接,用于将上述识别结果中侧位的X光胸片输入侧位胸片疾病检测网络,获取侧位的X光胸片对应的患病概率;判断模块40,分别与第二获取模块36和第三获取模块38相连接,用于判断上述识别结果中,是否有属于同一个患者的正位的X光胸片和侧位的X光胸片;计算模块42,与判断模块40相连接,用于在上述判断模块输出有属于同一个患者的正位的X光胸片和侧位的X光胸片时,结合该正位的X光胸片对应的患病概率、侧位的X光胸片对应的患病概率,采用加权平均算法计算得出上述同一个患者的患病概率。
综上所述,借助本发明提供的上述实施例,将正侧位的X光胸片区分为不同的样本集来训练深度卷积网络,对训练后的所述深度卷积网络进行验证,在验证准确率高于预定阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的所述深度卷积网络,可以高效且准确地从大量X光胸片中区分出正位胸片和侧位胸片。解决了相关技术中通过人眼来识别并区分正侧位胸片,效率低下的问题。在识别X光胸片的正侧位之后,再结合正侧位胸片疾病检测网络,得到正侧位疾病换病概率,对于同属于一个患者的正位和侧位X光胸片,可以通过加权平均算法得出准确率更高的疾病检测结论。
以上公开的仅为本发明的几个具体实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (10)
1.一种X光胸片的识别方法,其特征在于,包括:
将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练所述深度卷积网络;
将多个已经区分出正位和侧位的X光胸片对应的图像数据作为所述深度卷积网络的第二输入数据,对训练后的所述深度卷积网络进行验证;
在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的所述深度卷积网络,获取识别结果。
2.根据权利要求1所述的方法,其特征在于,将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练所述深度卷积网络包括:
将多个已经区分出正位和侧位的X光胸片分成多个组,每次将一组X光胸片对应的图像数据输入所述深度卷积网络进行训练;
将所述深度卷积网络全连接图层的最终输出层设置为双输出单元,采用非线性sigmoid激活函数,从所述双输出单元获取所述第一输入数据中各个X光胸片的输出结果;
根据所述输出结果判定是正位的X光胸片、侧位的X光胸片、或是非X光胸片;
根据所述判定结果动态调整所述深度卷积网络的权重参数值。
3.根据权利要求1所述的方法,其特征在于,将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练所述深度卷积网络包括:
将多个已经区分出正位和侧位的X光胸片分成多个组,每次将一组X光胸片对应的图像数据输入所述深度卷积网络进行训练;
将所述深度卷积网络全连接图层的最终输出层设置为单输出单元,采用非线性sigmoid激活函数,从所述单输出单元获取所述第一输入数据中各个X光胸片的输出结果;
根据所述输出结果判定是正位的X光胸片或是侧位的X光胸片;
根据所述判定结果动态调整所述深度卷积网络的权重参数值。
4.根据权利要求2或3所述的方法,其特征在于,根据所述判定结果调整所述深度卷积网络的权重参数值包括:
随机初始化所述深度卷积网络的权重参数值;
采用自适应矩估计算法的标准参数β1、β2和学习速率动态调整所述深度卷积网络的权重参数值。
5.根据权利要求1所述的方法,其特征在于,将待区分正位和侧位的X光胸片输入训练后的所述深度卷积网络,获取识别结果之后,还包括:
将所述识别结果中正位的X光胸片输入正位胸片疾病检测网络,获取正位的X光胸片对应的患病概率;
将所述识别结果中侧位的X光胸片输入侧位胸片疾病检测网络,获取侧位的X光胸片对应的患病概率。
6.根据权利要求5所述的方法,其特征在于,获取正位的X光胸片对应的患病概率和获取侧位的X光胸片对应的患病概率之后,还包括:
判断所述识别结果中,是否有属于同一个患者的正位的X光胸片和侧位的X光胸片;
如果有,则结合该正位的X光胸片对应的患病概率、侧位的X光胸片对应的患病概率,采用加权平均算法计算得出所述同一个患者的患病概率。
7.一种X光胸片的识别装置,其特征在于,包括:
训练模块,用于将多个已经区分出正位和侧位的X光胸片对应的图像数据作为深度卷积网络的第一输入数据,训练所述深度卷积网络;
验证模块,用于将多个已经区分出正位和侧位的X光胸片对应的图像数据作为所述深度卷积网络的第二输入数据,对训练后的所述深度卷积网络进行验证;
第一获取模块,用于在验证准确率高于第一阈值的情况下,将待区分正位和侧位的X光胸片输入训练后的所述深度卷积网络,获取识别结果。
8.根据权利要求7所述的装置,其特征在于,所述训练模块包括:
分组单元,用于将多个已经区分出正位和侧位的X光胸片分成多个组,每次将一组X光胸片对应的图像数据输入所述深度卷积网络进行训练;
获取单元,用于将所述深度卷积网络全连接图层的最终输出层设置为双输出单元,采用非线性sigmoid激活函数,从所述双输出单元获取所述第一输入数据中各个X光胸片的输出结果;
判定单元,用于根据所述输出结果判定是正位的X光胸片还是侧位的X光胸片、或是非X光胸片;
调整单元,用于根据所述判定结果动态调整所述深度卷积网络的权重参数值。
9.根据权利要求8所述的装置,其特征在于,所述调整单元,进一步用于随机初始化所述深度卷积网络的权重参数值,采用自适应矩估计算法的标准参数β1、β2和学习速率动态调整所述深度卷积网络的权重参数值。
10.根据权利要求7所述的装置,其特征在于,还包括:
第二获取模块,用于将所述识别结果中正位的X光胸片输入正位胸片疾病检测网络,获取正位的X光胸片对应的患病概率;
第三获取模块,用于将所述识别结果中侧位的X光胸片输入侧位胸片疾病检测网络,获取侧位的X光胸片对应的患病概率;
判断模块,用于判断所述识别结果中,是否有属于同一个患者的正位的X光胸片和侧位的X光胸片;
计算模块,用于在所述判断模块输出有属于同一个患者的正位的X光胸片和侧位的X光胸片时,结合该正位的X光胸片对应的患病概率、侧位的X光胸片对应的患病概率,采用加权平均算法计算得出所述同一个患者的患病概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811610295.9A CN109727238A (zh) | 2018-12-27 | 2018-12-27 | X光胸片的识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811610295.9A CN109727238A (zh) | 2018-12-27 | 2018-12-27 | X光胸片的识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109727238A true CN109727238A (zh) | 2019-05-07 |
Family
ID=66296590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811610295.9A Pending CN109727238A (zh) | 2018-12-27 | 2018-12-27 | X光胸片的识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109727238A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113053520A (zh) * | 2021-04-02 | 2021-06-29 | 北京掌引医疗科技有限公司 | 肺结核检测模型的训练方法、训练装置及辅助诊断设备 |
CN113076993A (zh) * | 2021-03-31 | 2021-07-06 | 零氪智慧医疗科技(天津)有限公司 | 用于胸部x光片识别的信息处理方法、模型训练方法 |
CN113129343A (zh) * | 2020-01-14 | 2021-07-16 | 通用电气精准医疗有限责任公司 | 用于x射线成像中的解剖结构/视图分类的方法和*** |
CN113643261A (zh) * | 2021-08-13 | 2021-11-12 | 江南大学 | 一种基于频率注意网络的胸肺部疾病诊断方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102418518A (zh) * | 2011-04-12 | 2012-04-18 | 北京师范大学 | 神经网络模拟交会图识别油层水淹级别的方法 |
CN103186774A (zh) * | 2013-03-21 | 2013-07-03 | 北京工业大学 | 一种基于半监督学习的多姿态人脸表情识别方法 |
CN104318246A (zh) * | 2014-10-20 | 2015-01-28 | 西安电子科技大学 | 基于深度自适应脊波网络的极化sar图像分类 |
CN104598686A (zh) * | 2015-01-24 | 2015-05-06 | 安徽大学 | 基于电磁计算及神经网络的水泵电机建模与优化方法 |
CN105631479A (zh) * | 2015-12-30 | 2016-06-01 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
US20170109881A1 (en) * | 2015-10-14 | 2017-04-20 | The Regents Of The University Of California | Automated segmentation of organ chambers using deep learning methods from medical imaging |
CN106845401A (zh) * | 2017-01-20 | 2017-06-13 | 中国科学院合肥物质科学研究院 | 一种基于多空间卷积神经网络的害虫图像识别方法 |
US20170169314A1 (en) * | 2015-12-15 | 2017-06-15 | Qualcomm Incorporated | Methods for object localization and image classification |
CN107292234A (zh) * | 2017-05-17 | 2017-10-24 | 南京邮电大学 | 一种基于信息边缘和多模态特征的室内场景布局估计方法 |
CN107730484A (zh) * | 2017-07-26 | 2018-02-23 | 江西中科九峰智慧医疗科技有限公司 | 一种基于深度学习的异常胸片智能识别方法及*** |
CN108230277A (zh) * | 2018-02-09 | 2018-06-29 | 中国人民解放军战略支援部队信息工程大学 | 一种基于卷积神经网络的双能ct图像分解方法 |
CN108520206A (zh) * | 2018-03-22 | 2018-09-11 | 南京大学 | 一种基于全卷积神经网络的真菌显微图像识别方法 |
WO2018166114A1 (zh) * | 2017-03-13 | 2018-09-20 | 平安科技(深圳)有限公司 | 图片识别的方法、***、电子装置及介质 |
CN108898175A (zh) * | 2018-06-26 | 2018-11-27 | 北京工业大学 | 基于深度学习胃癌病理切片的计算机辅助模型构建方法 |
-
2018
- 2018-12-27 CN CN201811610295.9A patent/CN109727238A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102418518A (zh) * | 2011-04-12 | 2012-04-18 | 北京师范大学 | 神经网络模拟交会图识别油层水淹级别的方法 |
CN103186774A (zh) * | 2013-03-21 | 2013-07-03 | 北京工业大学 | 一种基于半监督学习的多姿态人脸表情识别方法 |
CN104318246A (zh) * | 2014-10-20 | 2015-01-28 | 西安电子科技大学 | 基于深度自适应脊波网络的极化sar图像分类 |
CN104598686A (zh) * | 2015-01-24 | 2015-05-06 | 安徽大学 | 基于电磁计算及神经网络的水泵电机建模与优化方法 |
US20170109881A1 (en) * | 2015-10-14 | 2017-04-20 | The Regents Of The University Of California | Automated segmentation of organ chambers using deep learning methods from medical imaging |
US20170169314A1 (en) * | 2015-12-15 | 2017-06-15 | Qualcomm Incorporated | Methods for object localization and image classification |
CN105631479A (zh) * | 2015-12-30 | 2016-06-01 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
CN106845401A (zh) * | 2017-01-20 | 2017-06-13 | 中国科学院合肥物质科学研究院 | 一种基于多空间卷积神经网络的害虫图像识别方法 |
WO2018166114A1 (zh) * | 2017-03-13 | 2018-09-20 | 平安科技(深圳)有限公司 | 图片识别的方法、***、电子装置及介质 |
CN107292234A (zh) * | 2017-05-17 | 2017-10-24 | 南京邮电大学 | 一种基于信息边缘和多模态特征的室内场景布局估计方法 |
CN107730484A (zh) * | 2017-07-26 | 2018-02-23 | 江西中科九峰智慧医疗科技有限公司 | 一种基于深度学习的异常胸片智能识别方法及*** |
CN108230277A (zh) * | 2018-02-09 | 2018-06-29 | 中国人民解放军战略支援部队信息工程大学 | 一种基于卷积神经网络的双能ct图像分解方法 |
CN108520206A (zh) * | 2018-03-22 | 2018-09-11 | 南京大学 | 一种基于全卷积神经网络的真菌显微图像识别方法 |
CN108898175A (zh) * | 2018-06-26 | 2018-11-27 | 北京工业大学 | 基于深度学习胃癌病理切片的计算机辅助模型构建方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129343A (zh) * | 2020-01-14 | 2021-07-16 | 通用电气精准医疗有限责任公司 | 用于x射线成像中的解剖结构/视图分类的方法和*** |
CN113076993A (zh) * | 2021-03-31 | 2021-07-06 | 零氪智慧医疗科技(天津)有限公司 | 用于胸部x光片识别的信息处理方法、模型训练方法 |
CN113076993B (zh) * | 2021-03-31 | 2023-04-18 | 零氪智慧医疗科技(天津)有限公司 | 用于胸部x光片识别的信息处理方法、模型训练方法 |
CN113053520A (zh) * | 2021-04-02 | 2021-06-29 | 北京掌引医疗科技有限公司 | 肺结核检测模型的训练方法、训练装置及辅助诊断设备 |
CN113643261A (zh) * | 2021-08-13 | 2021-11-12 | 江南大学 | 一种基于频率注意网络的胸肺部疾病诊断方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109727238A (zh) | X光胸片的识别方法及装置 | |
Ji et al. | Learning calibrated medical image segmentation via multi-rater agreement modeling | |
Mishra et al. | Diabetic retinopathy detection using deep learning | |
CN110245721A (zh) | 神经网络模型的训练方法、装置和电子设备 | |
CN107832802A (zh) | 基于人脸比对的人脸图像质量评价方法及装置 | |
CN109192305B (zh) | 一种基于深度循环神经网络的心功能自动分析方法 | |
CN110310723A (zh) | 骨骼图像处理方法、电子设备及存储介质 | |
CN110517256A (zh) | 一种基于人工智能的早期癌辅助诊断*** | |
Papathanasiou et al. | Automatic characterization of myocardial perfusion imaging polar maps employing deep learning and data augmentation | |
CN109508644A (zh) | 基于深度视频数据分析的面瘫等级评估*** | |
CN110731773A (zh) | 一种基于心电波形图全局与局部深度特征融合的异常心电图筛查方法 | |
CN110111885B (zh) | 属性预测方法、装置、计算机设备及计算机可读存储介质 | |
CN114359629B (zh) | 一种基于深度迁移学习的肺炎x胸片分类识别方法 | |
JP2019503214A (ja) | ヒューリスティックグラフ探索による階層画像の高速自動区分化 | |
CN107730484A (zh) | 一种基于深度学习的异常胸片智能识别方法及*** | |
CN112614133A (zh) | 一种无锚点框的三维肺结节检测模型训练方法及装置 | |
Chakraborty et al. | Pneumonia and eye disease detection using convolutional neural networks | |
CN106846380A (zh) | 一种医学图像配准方法及设备 | |
CN110060315A (zh) | 一种基于人工智能的图像运动伪影消除方法及*** | |
CN110288574A (zh) | 一种超声辅助诊断肝肿块***及方法 | |
CN116258726A (zh) | 基于深度学习的颞下颌关节mri图像重要结构分割方法 | |
Han et al. | A convolutional neural network-based anthropomorphic model observer for signal-known-statistically and background-known-statistically detection tasks | |
CN111028230A (zh) | 一种基于yolo-v3的眼底图像视盘及黄斑定位检测算法 | |
WO2022105735A1 (zh) | 冠状动脉分割方法及其装置、电子设备及计算机可读存储介质 | |
CN114092463A (zh) | 数字乳腺断层影像病灶定位装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190507 |