CN114897922A - 一种基于深度强化学习的组织病理图像分割方法 - Google Patents

一种基于深度强化学习的组织病理图像分割方法 Download PDF

Info

Publication number
CN114897922A
CN114897922A CN202210352213.5A CN202210352213A CN114897922A CN 114897922 A CN114897922 A CN 114897922A CN 202210352213 A CN202210352213 A CN 202210352213A CN 114897922 A CN114897922 A CN 114897922A
Authority
CN
China
Prior art keywords
segmentation
image
algorithm
network
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210352213.5A
Other languages
English (en)
Other versions
CN114897922B (zh
Inventor
姚孟佼
高翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210352213.5A priority Critical patent/CN114897922B/zh
Publication of CN114897922A publication Critical patent/CN114897922A/zh
Application granted granted Critical
Publication of CN114897922B publication Critical patent/CN114897922B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度强化学习的组织病理图像分割方法,该方法包括以下步骤:输入组织病理图像;对组织病理图像进行预处理;使用基于全卷积网络(FCN)的分割算法获取组织病理图像的分割结果概率图;设置组织病理图像的初始分割阈值作为DQN算法的初始动作;将当前状态作为深度Q网络的输入,所有动作对应的Q值作为输出;对组织病理图像的粗分割结果概率图不断进行迭代优化;获得最佳分割结果后使用分割算法的评价指标IoU、Recall和F‑score对算法的分割性能进行评估。本发明提高了算法收敛速度和组织病理图像的分割精度,达到了提升病理医生诊断癌症效率和准确率的目的。

Description

一种基于深度强化学习的组织病理图像分割方法
技术领域
本发明属于图像处理技术领域,具体涉及一种组织病理图像分割方法。
背景技术
组织病理图像分割是癌症等疾病自动化诊断、治疗和预后的重要步骤之一。通过分割从组织病理图像中提取疾病特征,能够辅助病理医生判断样本中是否存在疾病、疾病的种类和严重程度。目前,组织病理图像的分割仍存在以下挑战:(1)数据量少,专家手工标注的病理图像稀缺;(2)组织病理图像尺寸大,分辨率高,对模型的处理速度有一定的要求;(3)组织病理图像边界模糊、梯度复杂,对算法的分割准确度要求高。
文献“申请公开号是CN101042771A中国发明专利”公开了一种基于强化学习的医学图像分割方法。该方法使用Q-learning算法对细胞核图像进行分割,将图像中目标区域和手工标注中对应区域的边缘比与面积比共同作为状态,通过不断调整阈值来学习图像的特征,只需使用少量训练数据且无需与用户交互,取得了较好的效果。但该方法针对于目标物体的灰度图使用传统算法进行分割,具有局限性;同时Q-learning算法使用表格来存储Q值,在问题非常复杂且有无数多个状态和行为时,使用表格来存储Q值存在问题:(1)内存不够;(2)在巨大表格内查找状态非常耗时,算法收敛缓慢。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度强化学习的组织病理图像分割方法,该方法包括以下步骤:输入组织病理图像;对组织病理图像进行预处理;使用基于全卷积网络(FCN)的分割算法获取组织病理图像的分割结果概率图;设置组织病理图像的初始分割阈值作为DQN算法的初始动作;将当前状态作为深度Q网络的输入,所有动作对应的Q值作为输出;对组织病理图像的粗分割结果概率图不断进行迭代优化;获得最佳分割结果后使用分割算法的评价指标IoU、Recall和F-score对算法的分割性能进行评估。本发明提高了算法收敛速度和组织病理图像的分割精度,达到了提升病理医生诊断癌症效率和准确率的目的。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:对已标注的组织病理图像进行预处理,针对同一数据集中的组织病理图像使用统一的均值和标准差进行颜色标准化,使数据集中所有图像转化为相同的RGB颜色空间分布;
步骤2:使用基于全卷积神经网络FCN的分割算法对组织病理图像进行训练,然后使用训练好的全卷积神经网络FCN获取组织病理图像的神经网络粗分割结果概率图;
步骤3:设置初始分割阈值为128,作为深度强化学习DQN算法的初始动作;
设置阈值动作集合A,根据ε-greedy策略选取相应的动作,对组织病理图像神经网络粗分割结果概率图进行迭代优化:在动作集合A中选取一个整数,作为分割阈值的改变量,分割阈值改变后的结果必须在0至255范围内;使用分割结果图像与手工标注图像的交并比IoU表示回报,计算下一状态分割阈值的分割结果图像和当前状态分割阈值的分割结果图像的回报差,回报差值大于0表示分割精度提高;
步骤4:计算组织病理图像神经网络粗分割结果特征图在当前阈值下分割结果的边缘与Sobel算子边缘检测提取边缘的交并比IoU和当前阈值下分割结果与OTSU算法阈值分割提取的感兴趣区域面积的交并比IoU,将边缘的IoU与面积的IoU共同作为DQN算法中深度Q网络的输入;
步骤5:将步骤4得到的边缘的IoU与面积的IoU作为深度Q网络的输入,阈值动作集合A中所有阈值对应的Q值作为输出;从经验回放集合中随机抽取部分样本,通过Q-learning算法的更新公式计算目标Q值;
所述深度Q网络作为动作值函数的网络模型,网络的权重参数为θ,用Q(s,a;θ)模拟动作值函数Q*(s,a),其中s表示当状态,a表示当前动作,即:
Q(s,a;θ)=Q*(s,a) (1)
所述经验回放集合是由每个时间步DQN算法的智能体与环境交互得到的样本
Figure BDA0003581149130000021
组成,训练时从经验回放集合中随机选取一部分样本用于更新,其中向量
Figure BDA0003581149130000022
表示当前状态,
Figure BDA0003581149130000023
表示下一状态,标量aj和rj分别表示动作和回报,布尔值is_endj表示是否为终止状态;
步骤6:根据目标Q值和深度Q网络输出的Q值之间的均方误差MSE计算损失函数;对深度Q网络中的权重参数使用截断正态分布随机初始化,隐层通过ReLU激活函数激活,使用Adam优化器进行梯度更新,直到进行1000次迭代为止获得最佳分割结果,使用分割算法的评价指标IoU、Recall和F-score对算法的分割性能进行评估。
进一步地,所述数据集为多器官核分割MoNuSeg数据集。
进一步地,所述使用Q-learning算法的更新公式获取目标Q值的公式为:
Figure BDA0003581149130000031
其中yj表示目标Q值,rj表示回报,γ表示折扣因子,
Figure BDA0003581149130000032
表示下一个状态和动作对应的Q值;
进一步,所述步骤6中DQN算法将通过深度Q网络计算得到的Q值作为预测,使用均方误差MSE计算损失函数L(θ),表示如下:
Figure BDA0003581149130000033
本发明的有益效果如下:
本发明将组织病理图像的分割任务分为两个阶段。第一阶段使用基于全卷积网络(FCN)的分割算法,获取组织病理图像的神经网络粗分割结果概率图;第二阶段使用深度强化学习DQN算法对神经网络粗分割结果概率图进行迭代优化,使用神经网络代替Q表进行降维,提高了算法收敛速度和组织病理图像的分割精度,达到了提升病理医生诊断癌症效率和准确率的目的。
附图说明
图1是本发明中方法流程图。
图2是本发明中的两阶段分割模型整体架构图。
图3是本发明中深度Q网络的模块结构图。
图4是本发明实施例中组织病理图像的分割结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提供了一种基于深度强化学习的组织病理图像分割方法,该方法通过深度强化学习DQN算法对神经网络粗分割结果概率图进行迭代优化,将目标Q-learning计算得到的Q值作为神经网络的训练标签,通过值函数近似和经验回放的思想来训练深度Q网络,从而提升目标区域的分割精度;同时DQN算法使用神经网络代替Q表进行降维,相比Q-learning算法提高了收敛速度和分割效率。
如图2所示,本发明共分为两个处理阶段:第一阶段使用基于全卷积神经网络(FCN)的分割算法获取组织病理图像的神经网络粗分割结果概率图;第二阶段使用DQN算法对神经网络粗分割结果概率图进行迭代优化。
如图1所示,一种基于深度强化学习的组织病理图像分割方法,包括如下步骤:
步骤1:对已标注的组织病理图像进行预处理,针对同一数据集中的组织病理图像使用统一的均值和标准差进行颜色标准化,使数据集中所有图像转化为相同的RGB颜色空间分布;
步骤2:使用基于全卷积神经网络FCN的分割算法对组织病理图像进行训练,然后使用训练好的全卷积神经网络FCN获取组织病理图像的神经网络粗分割结果概率图;
步骤3:设置初始分割阈值为128,作为深度强化学习DQN算法的初始动作;
设置阈值动作集合A,根据ε-greedy策略选取相应的动作,对组织病理图像神经网络粗分割结果概率图进行迭代优化:在动作集合A中选取一个整数,作为分割阈值的改变量,分割阈值改变后的结果必须在0至255范围内;使用分割结果图像与手工标注图像的交并比IoU表示回报,计算下一状态分割阈值的分割结果图像和当前状态分割阈值的分割结果图像的回报差,回报差值大于0表示分割精度提高;
步骤4:计算组织病理图像神经网络粗分割结果特征图在当前阈值下分割结果的边缘与Sobel算子边缘检测提取边缘的交并比IoU和当前阈值下分割结果与OTSU算法阈值分割提取的感兴趣区域面积的交并比IoU,将边缘的IoU与面积的IoU共同作为DQN算法中深度Q网络的输入;
步骤5:将步骤4得到的边缘的IoU与面积的IoU作为深度Q网络的输入,阈值动作集合A中所有阈值对应的Q值作为输出;从经验回放集合中随机抽取部分样本,通过Q-learning算法的更新公式计算目标Q值;
所述深度Q网络作为动作值函数的网络模型,网络的权重参数为θ,用Q(s,a;θ)模拟动作值函数Q*(s,a),其中s表示当状态,a表示当前动作,即:
Q(s,a;θ)=Q*(s,a) (1)
所述经验回放集合是由每个时间步DQN算法的智能体与环境交互得到的样本
Figure BDA0003581149130000051
组成,训练时从经验回放集合中随机选取一部分样本用于更新,其中向量
Figure BDA0003581149130000052
表示当前状态,
Figure BDA0003581149130000053
表示下一状态,标量aj和rj分别表示动作和回报,布尔值is_endj表示是否为终止状态;
步骤6:根据目标Q值和深度Q网络输出的Q值之间的均方误差MSE计算损失函数;对深度Q网络中的权重参数使用截断正态分布随机初始化,隐层通过ReLU激活函数激活,使用Adam优化器进行梯度更新,直到进行1000次迭代为止获得最佳分割结果,使用分割算法的评价指标IoU、Recall和F-score对算法的分割性能进行评估。
进一步地,所述数据集为多器官核分割MoNuSeg数据集。
进一步地,所述使用Q-learning算法的更新公式获取目标Q值的公式为:
Figure BDA0003581149130000054
其中yj表示目标Q值,rj表示回报,γ表示折扣因子,
Figure BDA0003581149130000055
表示下一个状态和动作对应的Q值;
进一步,步骤5中DQN算法中深度Q网络结构为两层全连接神经网络,w1和w2表示网络第一层和第二层的权重维数,如图3所示。其中网络第一层的权重维数为[state_dim,20],第二层的权重维数为[20,action_dim]。state_dim表示网络输入状态的维度,由状态定义可得state_dim大小为2;action_dim表示网络输出所有动作的维度,由动作定义可知action_dim大小为动作集合A的元素个数|A|。
进一步,所述步骤6中DQN算法将通过深度Q网络计算得到的Q值作为预测,使用均方误差MSE计算损失函数L(θ),表示如下:
Figure BDA0003581149130000056
具体实施例:
在本发明的实施实例中,以多器官核分割(MoNuSeg)数据集中的组织病理图像为研究对象,第一阶段中基于全卷积网络(FCN)的图像分割算法采用全分辨率卷积神经网络(FullNet),来获取MoNuSeg数据集中组织病理图像的神经网络粗分割结果概率图;第二阶段使用DQN算法对FullNet网络粗分割结果概率图进行迭代优化。
1、对MoNuSeg数据集中的组织病理图像进行预处理,使用统一的均值和标准差进行颜色标准化,其中RGB三通道的均值为[0.74408994 0.53806349 0.66497889],标准差为[0.15811703 0.19705941 0.15046222],并使用大小为5*5的滤波器进行形态学开运算去噪;
2、第一阶段使用FullNet网络对MoNuSeg数据集中的组织病理图像进行训练,然后使用训练好的模型获取该数据集中组织病理图像的神经网络粗分割结果概率图;
3、设置初始分割阈值T=128,作为深度强化学习DQN算法的初始动作。设置阈值动作集合A=[-50,-10,-5,-1,0,1,5,10,50],根据ε-greedy策略选择动作,对FullNet网络粗分割结果概率图进行迭代优化。在动作集合A中选取一个整数作为当前分割阈值,即选取分割阈值的增量,阈值调整后结果必须在0至255范围内;使用当前阈值T下的分割结果图像与手工标注图像的交并比(IoU)表示回报Reward,使用下一状态的阈值next_T和当前状态的阈值T对应的回报偏差R共同衡量,如下式所示。差值大于0则表示算法朝着分割精度提高的方向前进,能够更快收敛;
R=Reward[next_T]-Reward[T] (4)
4、计算FullNet网络粗分割结果特征图在当前阈值下分割结果的边缘与Sobel算子边缘检测提取边缘的IoU和当前阈值下分割结果与OTSU算法阈值分割提取的感兴趣区域面积的交并比IoU,将边缘的IoU与面积的IoU共同作为DQN算法中深度Q网络的输入,不断进行迭代优化;
5、DQN算法中智能体首先不断地探索环境,将经验池积累到一定程度后开始训练深度Q网络,将当前阈值T下边缘的IoU与面积的IoU作为深度Q网络的输入,阈值动作集合A中所有阈值对应的Q值作为输出。从经验回放集合中随机抽取一小部分样本,通过Q-learning算法的更新公式计算目标Q值;
其中深度Q网络的训练参数设置如下:
(1)episode大小设置为1000,每个episode中执行动作的次数step设置为100;
(2)折扣因子γ设置为0.9,经验回放集合的大小replay_size设置为10000;
(3)随机抽取经验回放集合中的样本数batch_size设置为32;
(4)为了算法能够较好的收敛,探索率epsilon需要随着迭代的进行而减小,其初始值为0.5,终止值为0.3。
6、根据经验回放计算获得的目标Q值和Q网络输出得到的Q值之间的均方误差(MSE)对损失函数进行求解。深度Q网络中的权重参数使用截断正态分布随机初始化,隐层使用ReLU激活函数激活,使用Adam优化器进行梯度更新,直到进行1000次迭代为止获得最佳分割结果阈值Ta。使用分割算法的评价指标IoU、Recall和F-score对本发明中使用DQN算法迭代优化前后的神经网络分割结果进行评估,其中Tb表示DQN算法迭代优化前FullNet网络粗分割结果的分割阈值,大小为128。实验结果如表1所示。
表1实验结果
Figure BDA0003581149130000071
结果表明,本发明提出的一种基于深度强化学习的组织病理图像分割方法,在IoU、Precision和Dice系数上都获得了一定的提升。可视化分割结果如图4所示,通过观察,本发明使用DQN算法对FullNet网络第一阶段的分割结果进行迭代优化后,显著提升了组织病理图像的分割精度,更加接近于病理医生的手工标注,达到了提升病理医生癌症诊断效率和准确率的目的。

Claims (4)

1.一种基于深度强化学习的组织病理图像分割方法,其特征在于,包括如下步骤:
步骤1:对已标注的组织病理图像进行预处理,针对同一数据集中的组织病理图像使用统一的均值和标准差进行颜色标准化,使数据集中所有图像转化为相同的RGB颜色空间分布;
步骤2:使用基于全卷积神经网络FCN的分割算法对组织病理图像进行训练,然后使用训练好的全卷积神经网络FCN获取组织病理图像的神经网络粗分割结果概率图;
步骤3:设置初始分割阈值为128,作为深度强化学习DQN算法的初始动作;
设置阈值动作集合A,根据ε-greedy策略选取相应的动作,对组织病理图像神经网络粗分割结果概率图进行迭代优化:在动作集合A中选取一个整数,作为分割阈值的改变量,分割阈值改变后的结果必须在0至255范围内;使用分割结果图像与手工标注图像的交并比IoU表示回报,计算下一状态分割阈值的分割结果图像和当前状态分割阈值的分割结果图像的回报差,回报差值大于0表示分割精度提高;
步骤4:计算组织病理图像神经网络粗分割结果特征图在当前阈值下分割结果的边缘与Sobel算子边缘检测提取边缘的交并比IoU和当前阈值下分割结果与OTSU算法阈值分割提取的感兴趣区域面积的交并比IoU,将边缘的IoU与面积的IoU共同作为DQN算法中深度Q网络的输入;
步骤5:将步骤4得到的边缘的IoU与面积的IoU作为深度Q网络的输入,阈值动作集合A中所有阈值对应的Q值作为输出;从经验回放集合中随机抽取部分样本,通过Q-learning算法的更新公式计算目标Q值;
所述深度Q网络作为动作值函数的网络模型,网络的权重参数为θ,用Q(s,a;θ)模拟动作值函数Q*(s,a),其中s表示当状态,a表示当前动作,即:
Q(s,a;θ)=Q*(s,a) (1)
所述经验回放集合是由每个时间步DQN算法的智能体与环境交互得到的样本
Figure FDA0003581149120000011
组成,训练时从经验回放集合中随机选取一部分样本用于更新,其中向量
Figure FDA0003581149120000012
表示当前状态,
Figure FDA0003581149120000013
表示下一状态,标量aj和rj分别表示动作和回报,布尔值is_endj表示是否为终止状态;
步骤6:根据目标Q值和深度Q网络输出的Q值之间的均方误差MSE计算损失函数;对深度Q网络中的权重参数使用截断正态分布随机初始化,隐层通过ReLU激活函数激活,使用Adam优化器进行梯度更新,直到进行1000次迭代为止获得最佳分割结果,使用分割算法的评价指标IoU、Recall和F-score对算法的分割性能进行评估。
2.根据权利要求1所述的一种基于深度强化学习的组织病理图像分割方法,其特征在于,所述数据集为多器官核分割MoNuSeg数据集。
3.根据权利要求1所述的一种基于深度强化学习的组织病理图像分割方法,其特征在于,所述使用Q-learning算法的更新公式获取目标Q值的公式为:
Figure FDA0003581149120000021
其中yj表示目标Q值,rj表示回报,γ表示折扣因子,
Figure FDA0003581149120000022
表示下一个状态和动作对应的Q值。
4.根据权利要求1所述的一种基于深度强化学习的组织病理图像分割方法,其特征在于,所述步骤6中DQN算法将通过深度Q网络计算得到的Q值作为预测,使用均方误差MSE计算损失函数L(θ),表示如下:
Figure FDA0003581149120000023
CN202210352213.5A 2022-04-03 2022-04-03 一种基于深度强化学习的组织病理图像分割方法 Active CN114897922B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210352213.5A CN114897922B (zh) 2022-04-03 2022-04-03 一种基于深度强化学习的组织病理图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210352213.5A CN114897922B (zh) 2022-04-03 2022-04-03 一种基于深度强化学习的组织病理图像分割方法

Publications (2)

Publication Number Publication Date
CN114897922A true CN114897922A (zh) 2022-08-12
CN114897922B CN114897922B (zh) 2024-04-26

Family

ID=82714469

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210352213.5A Active CN114897922B (zh) 2022-04-03 2022-04-03 一种基于深度强化学习的组织病理图像分割方法

Country Status (1)

Country Link
CN (1) CN114897922B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171711A (zh) * 2018-01-17 2018-06-15 深圳市唯特视科技有限公司 一种基于完全卷积网络的婴幼儿脑部磁共振图像分割方法
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
CN111311607A (zh) * 2020-01-21 2020-06-19 北京贝叶科技有限公司 一种基于深度学习的银屑病组织病理切片分割方法和***
CN111784671A (zh) * 2020-06-30 2020-10-16 天津大学 基于多尺度深度学习的病理图像病灶区域检测方法
CN111784652A (zh) * 2020-06-24 2020-10-16 西安电子科技大学 基于强化学习多尺度神经网络的mri分割方法
CN111798464A (zh) * 2020-06-30 2020-10-20 天津深析智能科技有限公司 基于深度学习的淋巴瘤病理图像智能识别方法
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
WO2021184817A1 (zh) * 2020-03-16 2021-09-23 苏州科技大学 一种医学图像中肝脏及其病灶分割的方法
WO2022037696A1 (zh) * 2020-08-21 2022-02-24 张逸凌 基于深度学习的骨骼分割方法和***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171711A (zh) * 2018-01-17 2018-06-15 深圳市唯特视科技有限公司 一种基于完全卷积网络的婴幼儿脑部磁共振图像分割方法
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
CN111311607A (zh) * 2020-01-21 2020-06-19 北京贝叶科技有限公司 一种基于深度学习的银屑病组织病理切片分割方法和***
WO2021184817A1 (zh) * 2020-03-16 2021-09-23 苏州科技大学 一种医学图像中肝脏及其病灶分割的方法
CN111784652A (zh) * 2020-06-24 2020-10-16 西安电子科技大学 基于强化学习多尺度神经网络的mri分割方法
CN111784671A (zh) * 2020-06-30 2020-10-16 天津大学 基于多尺度深度学习的病理图像病灶区域检测方法
CN111798464A (zh) * 2020-06-30 2020-10-20 天津深析智能科技有限公司 基于深度学习的淋巴瘤病理图像智能识别方法
WO2022037696A1 (zh) * 2020-08-21 2022-02-24 张逸凌 基于深度学习的骨骼分割方法和***
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
唐思源;邢俊凤;杨敏;: "基于BP神经网络的医学图像分割新方法", 计算机科学, no. 1, 15 June 2017 (2017-06-15) *
詹曙;梁植程;谢栋栋;: "***磁共振图像分割的反卷积神经网络方法", 中国图象图形学报, no. 04, 16 April 2017 (2017-04-16) *

Also Published As

Publication number Publication date
CN114897922B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN108364288B (zh) 用于乳腺癌病理图像的分割方法和装置
CN107016681B (zh) 基于全卷积网络的脑部mri肿瘤分割方法
CN111488921B (zh) 一种全景数字病理图像智能分析***及方法
CN111798464A (zh) 基于深度学习的淋巴瘤病理图像智能识别方法
CN115661144B (zh) 基于可变形U-Net的自适应医学图像分割方法
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN116630971B (zh) 基于CRF_ResUnet++网络的小麦赤霉病孢子分割方法
CN112434172A (zh) 一种病理图像预后特征权重计算方法及***
CN113705655A (zh) 三维点云全自动分类方法及深度神经网络模型
CN115661029A (zh) 基于YOLOv5的肺结节检测与识别***
CN116486273B (zh) 一种小样本遥感图像水体信息提取方法
CN112990359A (zh) 一种影像数据处理方法、装置、计算机及存储介质
CN114897922B (zh) 一种基于深度强化学习的组织病理图像分割方法
CN117058079A (zh) 基于改进ResNet模型的甲状腺显像图像自动诊断方法
CN116543414A (zh) 多模型融合的舌质颜色分类及舌质红度和紫度量化方法
CN116228795A (zh) 一种基于弱监督学习的超高分辨率医学图像分割方法
CN108182684B (zh) 一种基于加权核函数模糊聚类的图像分割方法及其装置
CN111178174B (zh) 基于深度卷积神经网络的尿液有形成分图像识别方法
CN112686912B (zh) 基于逐步学习和混合样本的急性脑卒中病变分割方法
CN115170956A (zh) 基于多尺度熵率超像素的后验概率高光谱图像分类方法
CN112950655A (zh) 基于深度学习的土地利用信息自动提取方法
CN112102336A (zh) 一种基于用户交互与深度神经网络的图像分割方法
Kim et al. Tackling Structural Hallucination in Image Translation with Local Diffusion
CN112200836B (zh) 基于蚂蚁自调整觅食行为的多细胞跟踪方法及***
CN116071318B (zh) 一种图像筛选方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant