CN112988382B - 基于分布式深度学习的医学影像智能分析*** - Google Patents

基于分布式深度学习的医学影像智能分析*** Download PDF

Info

Publication number
CN112988382B
CN112988382B CN202110268700.9A CN202110268700A CN112988382B CN 112988382 B CN112988382 B CN 112988382B CN 202110268700 A CN202110268700 A CN 202110268700A CN 112988382 B CN112988382 B CN 112988382B
Authority
CN
China
Prior art keywords
model
server
neural network
training
distributed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110268700.9A
Other languages
English (en)
Other versions
CN112988382A (zh
Inventor
田捷
董迪
王思雯
胡振华
胡朝恩
杨鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202110268700.9A priority Critical patent/CN112988382B/zh
Publication of CN112988382A publication Critical patent/CN112988382A/zh
Application granted granted Critical
Publication of CN112988382B publication Critical patent/CN112988382B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于深度学习、医学影像智能分析领域,具体涉及一种基于分布式深度学习的医学影像智能分析***,旨在解决现有医学影像智能分析***因无法共享医疗数据导致的模型训练困难、分类精度低、泛化能力差的问题。本发明***包括:设置于N个医疗中心的服务端、一个设置于远程服务器的中心客户端,服务端与中心客户端通过通讯链路连接;服务端包括图像获取模块,配置为获取医学影像并进行图像预处理;中心客户端包括分布式模型训练与调度模块,配置为通过分布式的方式训练深度神经网络模型并集中调度各分布式的深度神经网络模型以进行模型迭代。本发明避免了医疗数据共享,简化了多中心模型训练的难度,并提高了深度学习模型的分析精度和泛化能力。

Description

基于分布式深度学习的医学影像智能分析***
技术领域
本发明属于深度学习、医学影像智能分析领域,具体涉及一种基于分布式深度学习的医学影像智能分析***、方法、设备。
背景技术
目前,利用医学成像技术反映患者病灶信息并进一步实现检测和分类,是常用且有效的手段之一,其能够减少由传统的组织活检或基因检测等手段带来的有创、手术麻醉、时间等待等临床局限性。然而,对医学影像的分析往往依靠医生的主观经验,大量蕴藏在医学影像中与病灶相关的定量信息亟待开发。因此,对医学影像进行自动化、个体化的智能分析,不仅与当前的精准医学概念相吻合,更能够有效地提高医学图像检测和分类任务的精度,从而提高医学影像分析工作的效率。
深度学习技术在医学图像检测和分类等任务上具有潜力,可以为应对自动化的病灶检测和分类难题创造切实可行的解决方案。但在医学领域应用深度学习技术,往往需要大量的训练数据,当成像表型之间的差异很小或群体中存在较大异质性时,患者的样本量通常有限,可能会导致深度学习模型的泛化能力较差。为解决这一挑战,通常收集来自多个医疗中心的数据以增加样本量和样本多样性,进而提升深度学习模型的分析效果。但另一方面,患者的影像数据可能占据较大的存储空间,不便于传输;即使满足传输要求,各医疗中心之间共享患者的影像数据还可能涉及隐私安全等法律道德问题,这同样会导致医学影像的分析研究受阻。
分布式技术与深度学习技术的结合可以为多个医疗中心之间的医学影像分析研究提供新的契机。分布式深度学习方法假设各医疗中心无需共享原始数据并独立执行深度学习训练进程,因而具有更强的安全性和更高的效率。但目前分布式深度学习方法在医学影像分析中的应用,仍局限于理论证明和模拟仿真阶段,研发具有异步通讯功能和分布式模型训练与调度功能的分布式深度学习***,对未来智能化、自动化和个体化的医学发展方向有着重要的意义。针对上述问题,本发明提出了一种基于分布式深度学习的医学影像智能分析***。
发明内容
为了解决现有技术中的上述问题,即为了解决现有医学影像智能分析***因无法共享医疗数据导致的模型训练困难、分类精度低、泛化能力差的问题,本发明提出了一种基于分布式深度学习的医学影像智能分析***,该***包括设置于N个医疗中心的服务端、一个设置于远程服务器的中心客户端;各服务端与中心客户端通过通讯链路连接:
所述服务端包括图像获取模块;所述图像获取模块,配置为获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
所述中心客户端包括分布式模型训练与调度模块;所述分布式模型训练与调度模块,配置为通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
所述服务端、所述中心客户端还包括图像分类模块;所述图像分类模块,配置为通过训练好的深度神经网络模型获取待分析的医学影像所属类别;
其中,所述深度神经网络模型,其训练方法为;
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重、模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
A40,循环步骤A20、A30,直至深度神经网络模型收敛。
在一些优选的实施方式中,所述各服务端与中心客户端之间的通讯链路连接通过通讯协议和链式模型实现;所述链式模型用于对张量的一系列操作整合为一个操作链,每个操作可表示张量的状态或变换;其中,链结构在其头部使用child属性向下访问,使用parent属性向上访问,实现指向性张量在服务端和中心客户端之间的异步发送与接收。
在一些优选的实施方式中,所述训练样本数据与各服务端的id索引、ip地址、port端口采用Torch Hook结构相关联。
在一些优选的实施方式中,所述图像预处理包括图像剪裁、缩放、标准化。
在一些优选的实施方式中,所述深度神经网络模型基于密集连接的卷积神经网络构建;其中,所述密集连接的卷积神经网络,每层均与其前面的所有层在通道维度上连接在一起并作为下一层的输入。
在一些优选的实施方式中,所述深度神经网络模型其在训练过程中的学习率的计算方法为:
lr′=max(lr′×0.95,lr0×0.01)
其中,i表示第i轮迭代,r表示总迭代轮数,lr0表示初始化学习率,lr′表示第i轮迭代后更新的学习率。
在一些优选的实施方式中,“所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理”,其方法为:
其中,Li,j表示第i轮迭代第j个服务端计算的模型训练损失值,Wi,j表示第i轮迭代第j个服务端更新的模型权重,Wi+1,0为加权平均处理后的模型权重。
本发明的第二方面,提出了一种基于分布式深度学习的医学影像智能分析方法,该方法包括以下步骤:
S10,位于各医疗中心的服务端分别获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
S20,设置于远程服务器的中心客户端通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
S30,所述服务端、所述中心客户端通过训练好的深度神经网络模型获取待分析的医学影像所属类别;
其中,所述深度神经网络模型,其训练方法为:
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重、模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
A40,循环步骤A20、A30,直至深度神经网络模型收敛。
本发明的第三方面,提出了一种计算机设备,包括:至少一个处理器以及与至少一个所述处理器通讯连接的存储器;其中,所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现上述的基于分布式深度学习的医学影像智能分析方法。
本发明的第四方面,提出了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于被所述计算机执行以实现上述的基于分布式深度学习的医学影像智能分析方法。
本发明的有益效果:
本发明避免了医疗数据的传输与共享,简化了多中心模型训练的难度,并提高了医学影像的分析精度及深度学习模型的泛化能力。
1)本发明基于现有分布式技术的灵活性和可扩展性,在避免数据共享的条件下有效结合了多个单机资源。将训练数据分别交给位于各医疗中心的服务端节点进行训练,只需要在各服务端和中心客户端之间进行模型和参数的传输,就能完成深度神经网络模型的分布式训练,简化了模型训练的难度,并提高了医学影像的分析精度及深度学习模型的泛化能力,是分析大规模医学影像数据集的有效策略。同时,有效避免了因医疗数据的隐私安全导致的医疗数据无法共享的问题,具有更高的安全性。
2)本发明有效结合了PyTorch深度学习框架、PySyft分布式计算框架和WebSocket通讯技术,实现了基于链式张量操作的分布式计算功能以及各医疗中心服务端和中心客户端之间的异步通讯功能,为医学影像的智能分析提供了接口简单、可扩展性强的分布式深度学习方案。
3)另外,利用分布式深度学习进行医学影像的智能分析对未来智能化、自动化和个体化的医学发展方向有着重要的意义。
附图说明
通过阅读参照以下附图所做的对非限制性实施例所做的详细描述,本申请的其他特征、目的和优点将会变得更明显。
图1是本发明一种实施例的基于分布式深度学习的医学影像智能分析***的框架示意图;
图2是本发明一种实施例的服务端图像获取和处理的流程示意图;
图3是本发明一种实施例的采集的医学影像的示例图;
图4是本发明一种实施例的深度神经网络模型的训练和迭代流程示意图;
图5是本发明一种实施例的深度神经网络模型训练和迭代的结构示意图;
图6是本发明一种实施例的适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步地详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明第一实施例的一种基于分布式深度学习的医学影像智能分析***,如图1所示,该***包括设置于N个医疗中心的服务端、一个设置于远程服务器的中心客户端;各服务端与中心客户端通过通讯链路连接:
所述服务端包括图像获取模块;所述图像获取模块,配置为获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
所述中心客户端包括分布式模型训练与调度模块;所述分布式模型训练与调度模块,配置为通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
所述服务端、所述中心客户端还包括图像分类模块;所述图像分类模块,配置为通过训练好的深度神经网络模型获取待分析的医学影像所属类别;
其中,所述深度神经网络模型,其训练方法为;
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重、模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
A40,循环步骤A20、A30,直至深度神经网络模型收敛。
为了更清晰地对本发明基于分布式深度学习的医学影像智能分析***进行说明,下面对本发明方法一种实施例中各步骤进行展开详述。
在下述实施例中,先对医学影像的分布式获取方法进行介绍,再对深度神经网络模型的分布式训练和迭代方法进行阐述,最后对基于分布式深度学习的医学影像智能分析***获取医学影像的分析结果的具体过程进行详述。
1、医学影像的分布式获取过程,如图2所示
在N个医疗中心的服务端分别获取医学影像,基于PyTorch API将训练样本数据包装为一个Dataset类,并传入DataLoader;对训练样本数据进行图像预处理;基于PySyftAPI将训练样本数据进一步封装为BaseDateset基类,并分别与各医疗中心服务端相关联;
在本实施例中,在N个医疗中心服务端独立采集医学影像,包括CT、MRI、X-ray等模态,如图3所示,并存储为DICOM格式或常用图片格式。
对医学影像进行图像预处理,包括图像剪裁、缩放、标准化,具体为:先对医学影像进行图像剪裁,并将剪裁后的医学影像缩放至预设尺寸大小;其次将医学影像转化为张量形式;最后对医学影像进行标准化处理,标准化处理可采用z分数或Min-Max标准化等方法。
定义N个医疗中心服务端的索引id,获取ip地址及端口port;在各服务端本地ip地址及预设的端口加载训练样本数据,采用PySyft框架提供的BaseDateset基类将训练样本数据封装,采用Torch Hook功能将训练样本数据与服务端id索引、ip地址、port端口相关联。
2、深度神经网络模型的训练和迭代过程,如图4所示
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重、模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
在本实施例中,在中心客户端基于PyTorch编写深度神经网络模型,其结构具体设计为采用密集连接机制的卷积神经网络,例如:DenseNet-64,DenseNet-121等,每层都接受其前面所有层作为其额外的输入,即每层都会与其前面所有层在通道维度上连接在一起并作为下一层的输入;采用的非线性转化函数包括批标准化、ReLU及卷积等操作。
随机初始化模型权重为W0,0,同时为模型设置分布式训练参数,包括迭代轮数、批尺寸、学习率、损失函数、优化器,其中损失函数可采用用于分类任务的交叉熵损失函数、log似然代价函数等,也可采用用于检测任务的L1损失、L2损失等,还可采用用于分割任务的Dice损失等;优化器可采用随机梯度下降优化器、自适应矩估计优化器等;学习率的设置策略可任选以下一种:恒定学习率lr0、根据式(1)进行学习率衰减、根据式(2)进行学习率余弦退火操作,其中i表示第i轮迭代,r表示总迭代轮数,lr′表示第i轮迭代后更新的学习率:
lr′=max(lr′×0.95,lr0×0.01) (1)
各服务端和中心客户端通过WebSocket API只需要完成一次握手就可以创建持久性的连接,并进行双向字节传输。在本实施例中,通过异步通讯模块的WebSocket通讯协议建立中心客户端与N个服务端的异步通讯链路连接,并获取各服务端对应的id索引,ip地址及port端口号,将中心客户端的深度神经网络模型、权重、训练参数编码为指向性张量(PointTensor);然后通过链式编码模块的链式模型(SyftTensor)将指向性张量由中心客户端发送至各服务端。即本发明中的通讯链路连接包括链式编码模块和异步通讯模块;链式编码模块中的链式模型用于对张量的一系列操作整合为一个操作链,每个操作可表示张量的状态或变换;其中,链结构在其头部使用child属性向下访问,使用parent属性向上访问,实现指向性张量在服务端和中心客户端之间的异步发送与接收。
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
在本实施例中,N个服务端分别通过链式模型(SyftTensor)接收深度神经网络模型、权重及训练参数的指向性张量,对本地已加载的训练样本数据进行独立训练。结合训练样本数据的类别标签,计算第i轮迭代的模型损失值Li,1,Li,2,Li,3....Li,N,并通过反向传播计算梯度,更新第i轮的模型权重为Wi,1,Wi,2,Wi,3....Wi,N。将模型损失值和模型更新的权重编码为指向性张量,发送至中心客户端。
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
在本实施例中,中心客户端接收来自N个服务端的模型损失值和更新的模型权重,并对分布式模型进行联邦计算,即进行集中调度,如图5所示,可根据式(3)计算模型权重的平均值或根据式(4)计算模型权重的加权平均值:
将加权平均后的模型权重作为新一轮迭代的初始化模型权重,并发送至N个服务端。
A40,循环步骤A20、A30,直至深度神经网络模型收敛。
在本实施例中,重复步骤A20、A30,直至满足模型训练终止条件,获取最优的深度神经网络模型。模型训练终止条件为:各服务端的实际训练迭代轮数均已达到预设的分布式训练迭代轮数,或各服务端接收到更新的模型权重后,模型精度已达到预期要求。随后,中心客户端将该最优的深度神经网络模型传送至N个服务端,分别计算模型在多中心数据上的效能,包括评价指标AUC、准确率、灵敏度和特异度等。
3、基于分布式深度学习的医学影像智能分析***获取医学影像的分析结果
基于分布式深度学习的医学影像智能分析***的医疗中心服务端包括图像获取模块;图像获取模块,配置为获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
中心客户端包括分布式模型训练与调度模块;分布式模型训练与调度模块,配置为通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
服务端和中心客户端还包括图像分类模块;所述图像分类模块,配置为通过训练好的深度神经网络模型获取待分析的医学影像的分析结果,即医学影像的所属类别;
在本实施例中,先获取待分析的医学影像,作为模型输入;然后,通过分布式训练和迭代上述深度神经网络模型;最后通过训练好的深度神经网络模型获取待分析的医学影像的所属类别。
另外,在本发明中各参数优选设置为:
数据加载:55000张训练样本,10000张测试样本,5个医疗中心的服务端,1个中心客户端;
数据预处理:RandomResizedCrop随机剪裁,并将图像缩放为64×64大小,图像进行标准化处理(满足均值为0,标准差为1);
深度神经网络模型:DenseNet-121;
分布式训练参数:迭代100轮,批尺寸为32,采用恒定学习率为0.01,采用交叉熵损失函数,采用随机梯度下降优化器;
测试模型耗时:采用CPU进行模型训练,完成一轮模型训练和迭代耗时约5分钟;
测试模型效能:服务端1的AUC达到0.87,准确率0.78,灵敏度0.83,特异度0.76;服务端2的AUC达到0.87,准确率0.76,灵敏度0.86,特异度0.73;服务端3的AUC达到0.87,准确率0.76,灵敏度0.86,特异度0.73;服务端4的AUC达到0.87,准确率0.76,灵敏度0.86,特异度0.73;服务端5的AUC达到0.87,准确率0.74,灵敏度0.86,特异度0.71。
需要说明的是,上述实施例提供的基于分布式深度学习的医学影像智能分析***,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第二实施例的一种基于分布式深度学习的医学影像智能分析方法,包括:
S10,位于各医疗中心的服务端分别获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
S20,设置于远程服务器的中心客户端通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
S30,所述服务端、所述中心客户端通过训练好的深度神经网络模型获取待分析的医学影像所属类别;
其中,所述深度神经网络模型,其训练方法为:
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重、模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
A40,循环步骤A20、A30,直至深度神经网络模型收敛。
所述技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的方法的具体的工作过程及有关说明,可以参考前述***实施例中的对应过程,在此不再赘述。
本发明第三实施例,提出了一种计算机设备,包括:至少一个处理器以及与至少一个所述处理器通讯连接的存储器;其中,所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现上述的基于分布式深度学习的医学影像智能分析方法。
本发明第四实施例,提出了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于被所述计算机执行以实现上述的基于分布式深度学习的医学影像智能分析方法。
所述技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实例中的对应过程,在此不再赘述。
下面参考图6,其示出了适于用来实现本申请***、方法、设备实施例的服务器的计算机***的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***包括中央处理单元(CPU,Central Processing Unit)601,其可以根据存储在只读存储器(ROM,Read Only Memory)602中的程序或者从存储部分608加载到随机访问存储器(RAM,Random Access Memory)603中的程序而执行各种适当的动作和处理。在RAM603中,还存储有***操作所需的各种程序和数据。CPU601、ROM602以及RAM603通过总线604彼此相连。输入/输出(I/O,Input/Output)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管、液晶显示器等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如局域网卡、调制解调器等的网络接口卡的通讯部分609。通讯部分609经由诸如因特网的网络执行通讯处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通讯部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被CPU601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于:电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、RAM、ROM、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言,如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,如C语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网或广域网连接到用户计算机,或者可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (9)

1.一种基于分布式深度学习的医学影像智能分析***,其特征在于,该***包括设置于N个医疗中心的服务端和一个设置于远程服务器的中心客户端;各服务端与中心客户端通过通讯链路连接;
所述服务端包括图像获取模块;所述图像获取模块,配置为获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
所述中心客户端包括分布式模型训练与调度模块;所述分布式模型训练与调度模块,配置为通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
所述服务端和所述中心客户端还包括图像分类模块;所述图像分类模块,配置为通过训练好的深度神经网络模型获取待分析的医学影像所属类别;
其中,所述深度神经网络模型,其训练方法为:
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重和模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
A40,循环步骤A20、A30,直至深度神经网络模型收敛;
所述各服务端与中心客户端之间的通讯链路连接通过WebSocket通讯协议和链式模型实现;所述链式模型用于对张量的一系列操作整合为一个操作链,每个操作可表示张量的状态或变换;其中,链结构在其头部使用child属性向下访问,使用parent属性向上访问,实现指向性张量在服务端和中心客户端之间的异步发送与接收。
2.根据权利要求1所述的基于分布式深度学习的医学影像智能分析***,其特征在于,所述训练样本数据与各服务端的id索引、ip地址和port端口采用Torch Hook结构相关联。
3.根据权利要求1所述的基于分布式深度学习的医学影像智能分析***,其特征在于,所述图像预处理包括图像剪裁、缩放和标准化。
4.根据权利要求1所述的基于分布式深度学习的医学影像智能分析***,其特征在于,所述深度神经网络模型基于密集连接的卷积神经网络构建;其中,所述密集连接的卷积神经网络,每层均与其前面的所有层在通道维度上连接在一起并作为下一层的输入。
5.根据权利要求1所述的基于分布式深度学习的医学影像智能分析***,其特征在于,所述深度神经网络模型其在训练过程中的学习率的计算方法为:
lr′=max(lr′×0.95,lr0×0.01)
其中,i表示第i轮迭代,r表示总迭代轮数,lr0表示初始化学习率,lr′表示第i轮迭代后更新的学习率。
6.根据权利要求1所述的基于分布式深度学***均处理,其方法为:
其中,Li,j表示第i轮迭代第j个服务端计算的模型训练损失值,Wi,j表示第i轮迭代第j个服务端更新的模型权重,Wi+1,0为加权平均处理后的模型权重。
7.一种基于分布式深度学习的医学影像智能分析方法,其特征在于,该方法包括以下步骤:
S10,位于各医疗中心的服务端分别获取待分析的医学影像并进行图像预处理;将预处理后的医学影像作为训练样本数据与各服务端相关联;
S20,设置于远程服务器的中心客户端通过分布式的方式训练深度神经网络模型,并由中心客户端集中调度各分布式的深度神经网络模型以进行模型迭代;
S30,所述服务端和所述中心客户端通过训练好的深度神经网络模型获取待分析的医学影像所属类别;
其中,所述深度神经网络模型,其训练方法为:
A10,所述中心客户端将待训练的深度神经网络模型、初始化模型权重和模型训练参数编码为指向性张量,并分别发送至位于N个医疗中心的服务端;所述指向性张量为设定方向的张量;
A20,所述各服务端分别基于本地获取的训练样本数据训练接收的深度神经网络模型,计算模型训练损失值,更新模型权重,并将损失值及模型权重编码为指向性向量,发送至中心客户端;
A30,所述中心客户端获取各服务端的模型训练损失值和更新的模型权重并进行加权平均处理;将加权平均后的模型权重作为新一轮的初始化模型权重,再次发送至各服务端;
A40,循环步骤A20、A30,直至深度神经网络模型收敛;
所述各服务端与中心客户端之间的通讯链路连接通过WebSocket通讯协议和链式模型实现;所述链式模型用于对张量的一系列操作整合为一个操作链,每个操作可表示张量的状态或变换;其中,链结构在其头部使用child属性向下访问,使用parent属性向上访问,实现指向性张量在服务端和中心客户端之间的异步发送与接收。
8.一种计算机设备,其特征在于,包括:至少一个处理器以及与至少一个所述处理器通讯连接的存储器;其中,所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现权利要求7所述的基于分布式深度学习的医学影像智能分析方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于被所述计算机执行以实现权利要求7所述的基于分布式深度学习的医学影像智能分析方法。
CN202110268700.9A 2021-03-12 2021-03-12 基于分布式深度学习的医学影像智能分析*** Active CN112988382B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110268700.9A CN112988382B (zh) 2021-03-12 2021-03-12 基于分布式深度学习的医学影像智能分析***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110268700.9A CN112988382B (zh) 2021-03-12 2021-03-12 基于分布式深度学习的医学影像智能分析***

Publications (2)

Publication Number Publication Date
CN112988382A CN112988382A (zh) 2021-06-18
CN112988382B true CN112988382B (zh) 2023-09-19

Family

ID=76335066

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110268700.9A Active CN112988382B (zh) 2021-03-12 2021-03-12 基于分布式深度学习的医学影像智能分析***

Country Status (1)

Country Link
CN (1) CN112988382B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140478B (zh) * 2022-01-30 2022-06-03 电子科技大学 面向医疗图像分割的联邦学习方法及***、设备和介质
CN114463330B (zh) * 2022-04-12 2022-07-01 江苏康医通科技有限公司 一种ct数据归集***、方法及存储介质
CN115115064B (zh) * 2022-07-11 2023-09-05 山东大学 一种半异步联邦学习方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106297774A (zh) * 2015-05-29 2017-01-04 中国科学院声学研究所 一种神经网络声学模型的分布式并行训练方法及***
CN106878304A (zh) * 2017-02-15 2017-06-20 国网天津市电力公司 一种分布式代理的链路复用的方法
CN109032671A (zh) * 2018-06-25 2018-12-18 电子科技大学 一种基于数据并行策略的分布式深度学习方法及***
CN110956202A (zh) * 2019-11-13 2020-04-03 重庆大学 基于分布式学习的图像训练方法、***、介质及智能设备
CN111444019A (zh) * 2020-03-31 2020-07-24 中国科学院自动化研究所 云端协同的深度学习模型分布式训练方法及***

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195057B2 (en) * 2014-03-18 2021-12-07 Z Advanced Computing, Inc. System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US11373115B2 (en) * 2018-04-09 2022-06-28 Here Global B.V. Asynchronous parameter aggregation for machine learning
US11315013B2 (en) * 2018-04-23 2022-04-26 EMC IP Holding Company LLC Implementing parameter server in networking infrastructure for high-performance computing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106297774A (zh) * 2015-05-29 2017-01-04 中国科学院声学研究所 一种神经网络声学模型的分布式并行训练方法及***
CN106878304A (zh) * 2017-02-15 2017-06-20 国网天津市电力公司 一种分布式代理的链路复用的方法
CN109032671A (zh) * 2018-06-25 2018-12-18 电子科技大学 一种基于数据并行策略的分布式深度学习方法及***
CN110956202A (zh) * 2019-11-13 2020-04-03 重庆大学 基于分布式学习的图像训练方法、***、介质及智能设备
CN111444019A (zh) * 2020-03-31 2020-07-24 中国科学院自动化研究所 云端协同的深度学习模型分布式训练方法及***

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Sergeev, Alexander, and Mike Del Balso.."Horovod: fast and easy distributed deep learning in TensorFlow".《arXiv preprint arXiv:1802.05799 (2018)》.2018,第1-10页. *
Turina, Valeria, et al.."Combining split and federated architectures for efficiency and privacy in deep learning".《Proceedings of the 16th International Conference on emerging Networking EXperiments and Technologies. 2020》.2020,第562-563页. *
Vepakomma, Praneeth, et al.."NoPeek: Information leakage reduction to share activations in distributed deep learning" .《2020 International Conference on Data Mining Workshops (ICDMW)》.2020,第933-942页. *
Zhang, Liwen , et al. ."A Deep Learning Risk Prediction Model for Overall Survival in Patients with Gastric Cancer: A Multicenter Study".《 Radiotherapy and Oncology》.2020,第73-80页. *
谭作文 ; 张连福 ; ."机器学习隐私保护研究综述".《软件学报》.2020,第2128-2150页. *

Also Published As

Publication number Publication date
CN112988382A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN112988382B (zh) 基于分布式深度学习的医学影像智能分析***
US10755411B2 (en) Method and apparatus for annotating medical image
CN109241141B (zh) 深度学习的训练数据处理方法和装置
CN108520220B (zh) 模型生成方法和装置
CN107622240B (zh) 人脸检测方法和装置
CN108197652B (zh) 用于生成信息的方法和装置
CN109002842A (zh) 图像识别方法和装置
CN111178542A (zh) 基于机器学习建模的***和方法
CN110517254A (zh) 基于深度学习的临床靶区自动勾画方法、装置及相关设备
CN109243600B (zh) 用于输出信息的方法和装置
CN108509888B (zh) 用于生成信息的方法和装置
US11301995B2 (en) Feature identification in medical imaging
CN111274490A (zh) 咨询信息的处理方法和装置
CN111985197A (zh) 一种基于医疗信息的模板生成方法
CN112349428A (zh) 家庭健康码查询方法和设备
CN112925785A (zh) 数据清洗方法和装置
CN112397195B (zh) 用于生成体格检查模型的方法、装置、电子设备和介质
CN111523593A (zh) 用于分析医学影像的方法和装置
CN114627331A (zh) 模型训练方法和装置
CN114358316A (zh) 联邦学习***及其大规模影像训练方法和装置
CN112397194B (zh) 用于生成患者病情归因解释模型的方法、装置和电子设备
CN112434323A (zh) 模型参数获取方法、装置、计算机设备及存储介质
CN111833993B (zh) 一种基于ai的区域影像远程质控管理***
CN113255819A (zh) 用于识别信息的方法和装置
CN109408716B (zh) 用于推送信息的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant