CN115082502B - 一种基于距离引导的深度学习策略的图像分割方法 - Google Patents

一种基于距离引导的深度学习策略的图像分割方法 Download PDF

Info

Publication number
CN115082502B
CN115082502B CN202210757712.2A CN202210757712A CN115082502B CN 115082502 B CN115082502 B CN 115082502B CN 202210757712 A CN202210757712 A CN 202210757712A CN 115082502 B CN115082502 B CN 115082502B
Authority
CN
China
Prior art keywords
target
distance
segmentation
image
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210757712.2A
Other languages
English (en)
Other versions
CN115082502A (zh
Inventor
王雷
郑钦象
陈浩
常倩
梅晨阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou Medical University
Original Assignee
Wenzhou Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou Medical University filed Critical Wenzhou Medical University
Priority to CN202210757712.2A priority Critical patent/CN115082502B/zh
Publication of CN115082502A publication Critical patent/CN115082502A/zh
Application granted granted Critical
Publication of CN115082502B publication Critical patent/CN115082502B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于距离引导的深度学习策略的图像分割方法,训练策略包含四个不同的步骤,分别为设计兴趣目标的边界区域标注、获取目标对应的两种粗分割、设计距离合成图像、以及基于距离合成图像的精细分割,本发明借助距离合成图像连同待分割原始图像以及对应的两种不同标注重新训练分割网络,将能够显著降低目标边界的处理误差,实现兴趣目标及其边界的同时准确提取,可显著改善现有分割网络对目标边界区域的处理精度,实现兴趣目标及其边界的准确提取,可实现U‑Net网络对图像中不同兴趣目标的同时准确提取,为临床影像中的病灶的探测定位及其形态特征的量化评估提供重要的理论支撑。

Description

一种基于距离引导的深度学习策略的图像分割方法
技术领域
本发明涉及深度学习技术领域,具体涉及一种基于距离引导的深度学习策略的图像分割方法。
背景技术
深度学习技术是一种借助大量训练数据及其对应标注执行数据拟合的算法,通过设计合适的网络架构或训练策略,实现从训练数据到对应标注的信息转换,并且转换过程具有极高的性能而被广泛用于图像分割和目标探测等任务。借助这种技术,可大幅改善医学图像的分析和理解,疾病相关结构的定位及其形态特征的量化,因此具有重要的临床诊断价值和学术研究意义。为实现准确的图像分割,人们提出了大量的深度学习网络,代表性的分割网络包括U-Net及其各种改进版本(如U-Net++、BiO-Net、CE-Net等)。这些分割网络在执行图像分割时虽能有效探测和提取兴趣目标所在的图像区域,但无法准确处理目标的边界区域,从而造成有限的分割性能,导致其难以胜任大规模临床影像的处理。
为准确分割图像,设计合适的深度学习网络是当前的一个主要研究方向,而研究的重点是在U-Net网络中引入不同的卷积模块或者跳跃连接,实现分割性能的改善。在卷积模块方面:Zhang构建了一种注意引导的AG-Net网络,Oktay和Gu通过在U-Net网络中引入不同的注意力卷积模块,分别构建了Attention U-Net和CA-Net网络。Gu在U-Net中引入稠密空洞卷积和残差采样处理,构建了一种纹理编码的CE-Net网络。在跳跃连接方面:Zhou通过在U-Net中引入多层次的网络分支和稠密的跳跃连接,提出了一种嵌套U-Net++网络。Fu通过在U-Net网络中引入多尺度输入和输出特征,提出了M-Net分割网络。Xiang通过在U-Net网络中引入一种反向跳跃连接,设计了一种双向跳跃的BiO-Net网络。此外,基于Transformer的分割网络也得到了一定的关注,代表性的网络有TransUNet、TransBTS和Swin-Unet等。上述分割网络通常比U-Net网络具有更好的图像分割性能;然而它们仍无法高质量处理目标边界区域,从而制约相关算法的临床应用。这说明仅设计合适的网络架构而忽略训练策略是无法实现兼顾兴趣目标及其边界的高质量提取。
发明内容
为了解决现有技术存在的的缺陷与不足,本发明提供了一种基于距离引导的深度学习策略的图像分割方法, 通过获取目标边界的区域标注并将其用于现有分割网络的训练中,实现边界区域的增强学习,然后借助距离变换函数将网络分割结果转化为距离合成图像,最后利用距离合成图像、原始图像及其对应的不同标注信息重新训练分割网络,执行兴趣目标的高质量分割。
本发明采用的技术解决方案是:一种基于距离引导的深度学习策略的图像分割方法,包括以下步骤:
(1)设计兴趣目标的边界区域标注:现有的深度学习网络(如U-Net)在执行图像分割时大多直接基于待分割图像和对应手工标注进行兴趣目标的提取;这种训练策略可实现目标区域的有效提取,但无法确保分割网络对目标边界的准确探测。这是因为分割网络在提取兴趣目标时会多次下采样图像,导致目标边界的模糊和边界区域的缩小,从而引发较大的边界探测误差。为改善分割网络对目标边界的探测性能,有必要对兴趣目标的边界区域进行针对性处理,提升该区域在图像分割中的作用权重,改善分割网络对兴趣目标及其边界的探测提取性能。基于此,本发明通过对比分割结果与手工标注间的信息差异,全面分析现有分割网络在执行图像分割时具有的分割特性;然后对待分割图像的手工标注进行处理,以得到目标的边界区域标注(注意,手工标注和边界区域标注是不同的,前者是由临床医师依据专业知识和个人经验手工标注待分割图像而得到的,后者是对手工标注的二次开发,由算法自动生成的);将兴趣目标的手工标注称为目标区域标注(object regionlabel),将新获取的标注图像称为边界区域标注(boundary region label),最后将手工标注和边界区域标注同时用于分割网络的训练中,将能在一定程度上改善边界区域的处理性能,实现兼顾兴趣目标及其边界的准确分割;
(2)获取兴趣目标对应的两种粗分割:借助待分割图像、手工标注、以及上文获取的边界区域标注训练现有分割网络,可得到两种不同的分割结果,一个预测目标所在区域(对应手工标注),一个预测目标边界所在区域(对应边界区域标注)。这种基于两种标注的网络训练能有效增强边界区域内的图像信息在目标提取中的作用权重,降低目标边界的探测误差,进而促进目标区域的分割精度。它不仅给出了兴趣目标的预测而且给出了边界区域对应的预测;而传统训练策略只输出单一的目标区域预测,从而无法有效处理目标的边界区域。由于边界区域预测仅给出目标边界所在的图像区域而不给出目标边界的具***置,因此有必要处理边界区域对应的预测结果,以辅助目标边界位置的探测。为此,本发明将两种不同的标注图像和待分割的原始图像用于现有分割网络的训练中,可得到两种不同的分割结果,即一个目标区域预测和一个边界区域预测,处理这些信息后将其与原始图像整合起来,执行下一阶段兴趣目标的精细分割;
(3)设计距离合成图像:
为准确探测兴趣目标的边界位置,借助距离变换函数将上述获取的两种分割结果分别转化为不同的距离特征图(distance feature map),其中一个距离特征图粗略地刻画了目标区域的中心位置信息,另一个距离特征图描述了目标边界的具***置信息。预处理这些距离特征图像并对它们进行基于像素的加法运算,可得到同时刻画兴趣目标及其边界的距离合成图像(distance synthetic image)。该图像在两种预测结果的中心上具有较大的取值,在远离中心位置的地方则具有相对较小的取值,并且距离越远取值越小。这种图像特性有助于分割网络快速定位目标区域并探测它的边界位置,为目标的高质量提取打下坚实基础;
(4)基于距离合成图像的精细分割:
距离合成图像能粗略描述兴趣目标的位置信息,但无法刻画精确的目标边界。为精确探测目标边界,需将距离合成图像、待分割原始图像、以及两种不同的标注图像结合起来,重新训练指定的分割网络,可实现兼顾兴趣目标及其边界的高质量提取的分割,然后利用整合结果与两种不同的标注信息,重新训练现有的分割网络,可在一定程度上降低目标边界的探测误差,实现目标区域和边界区域的精细分割。这种分割策略具有如特点:(a)仅仅借助距离信息引导深度学习网络执行图像分割,便能实现兴趣目标的高质量提取,而不用设计复杂的分割网络或代价函数;(b)这种训练策略具有高度的通用性,可借助现有分割网络执行各种不同的图像分割任务;(c)原始图像和距离合成图像间存在多种不同的整合方式,会得到不同的分割性能。
现有分割网络在执行兴趣目标的提取时通常能够探测和提取目标所在的图像区域,但是无法有效处理目标的边界区域,造成较大的边界分割误差和不够光滑的边界曲线。这是因为分割网络在目标提取过程中通常需要多次下采样图像,以加快卷积特征的探测学习,从而造成目标边界区域内某些重要信息的丢失,导致边界与周围背景的融合与模糊。为保存和增强边界区域在图像分割中的作用权重,就需要对兴趣目标的手工标注进行细分处理,设计兴趣目标的边界区域标注的具体步骤如下:
(a)借助形态学操作对手工标注图像进行膨胀和腐蚀操作,得到目标区域的扩大和缩小版本;
(b)用目标区域的扩大版本减去目标区域的缩小版本,可得到目标边界对应的区域,即边界区域标注,目标边界位置位于边界区域的中心。将手工标注和边界区域标注同时用于分割网络的训练中,将能促使网络中的各种卷积模块在探测兴趣目标时尽可能保留边界区域内的重要纹理信息,利于目标边界和周围背景的区分。
所述的步骤(2)获取兴趣目标对应的两种粗分割的具体步骤如下:
对待分割原始图像、手工标注、以及上文获取的边界区域标注进行必要的预处理,并将处理结果分为三个彼此独立的数据集,分别用分割网络的训练、验证和测试,借助三个数据集训练现有的分割网络(如U-Net),即可得到两个不同的分割结果,一个给出目标区域对应的预测,一个给出边界区域对应的预测。
基于待分割图像和两种不同的标注训练分割网络,可得到两种目标相关的初步分割结果。对比这些分割结果与其对应标注图像,可以发现二者之间存在相对较大的信息差异。这说明边界区域标注的引入并不能有效提升图像的分割性能,因此需要对分割结果进行处理,使其能够突显目标边界的具***置。设计距离合成图像的具体步骤如下:借助距离变换函数,将两种分割结果转化为不同的距离特征图;这些距离特征图像在分割结果的中心位置具有相对较高的灰度值,在远离中心的地方灰度值会随距离的增加而逐渐降低。由于两种分割结果对应区域的大小是不同的,因此分割结果的区域中心与其边界间的距离是不同的,从而导致距离特征图像的灰度取值范围也是不同的。为使距离特征图像具有相同的灰度取值范围,将它们的灰度归一化到0至255之间,然后将归一化结果加起来后重新归一化处理,可得到距离合成图像。该图像粗略地描述了兴趣目标的中心和目标边界的具***置。
本发明的有益效果是:本发明提供了一种基于距离引导的深度学习策略的图像分割方法,训练策略包含四个不同的步骤,分别为设计兴趣目标的边界区域标注、获取目标对应的两种粗分割、设计距离合成图像、以及基于距离合成图像的精细分割,边界区域标注的设计中,需对图像的手工标注进行形态学处理,以获取指定大小的目标边界区域,该区域限定了分割网络在探测目标边界时的学习范围,在一定程度上降低了无关背景对分割性能的干扰;借助手工标注和边界区域标注训练现有分割网络,可得到二种不同的分割结果,这些结果是对待分割图像的一种较为粗糙的提炼,并不能改善分割网络的目标提取性能;为改善目标提取性能,借助距离变换函数将上述分割结果转化为距离特征图像,预处理距离特征图像并将其加起来,可得到距离合成图像。借助距离合成图像连同待分割原始图像以及对应的两种不同标注重新训练分割网络,将能够显著降低目标边界的处理误差,实现兴趣目标及其边界的同时准确提取,可显著改善现有分割网络对目标边界区域的处理精度,实现兴趣目标及其边界的准确提取,可实现U-Net网络对图像中不同兴趣目标的同时准确提取,为临床影像中的病灶的探测定位及其形态特征的量化评估提供重要的理论支撑。
附图说明
图1是本发明的构思流程图。
图2是本发明中用到的待分割的眼底图像、局部视盘区域图像、视杯视盘对应手工标注、以及拟设计的边界区域标注。
图3是基于两种不同标注训练U-Net分割网络后得到的初步分割结果及其对应的距离特征图像和距离合成图像。
图4是借助拟设计学习策略和U-Net网络基于局部视盘区域图像执行视盘视杯分割的对应结果,其中,手工标注、距离合成图像引入前后对应的分割结果对应的视盘视杯边界曲线分别为白色、绿色和蓝色。
具体实施方式
以下结合附图和下述实施方式进一步说明本发明,应理解,附图和下述实施方式仅用于说明本发明,而非限制本发明。
参考图1,借助处理手工标注引入距离合成图像,辅助兴趣目标及其边界区域的同时提取,本发明一种距离引导的深度学习策略及其在图像分割中的应用,包括如下步骤:
步骤1,评估现有分割网络(如U-Net)在执行图像分割时具有的分割特性
在此基础上构建目标边界对应的边界区域标注,将其用于网络模型的训练中,实现边界区域内信息的增强,阻止边界区域内重要信息的丢失。
步骤2,获取兴趣目标对应的两种粗分割
将提取的局部视盘区域图像及其对应的手工标注和边界区域标注用于U-Net分割网络的训练中,可使分割网络输出两个不同的分割结果,一个给出目标区域对应的预测,一个给出边界区域对应的预测。
步骤3,设计距离合成图像
借助距离变换函数将上述两个分割结果转化为距离特征图像;预处理距离特征图像后对其进行相加和灰度归一化处理,可得到距离合成的图像。该图像初步给出了兴趣目标及其对应边界的潜在位置,并且目标区域和边界区域的中心位置上具有较大的灰度值。
步骤4,基于距离合成图像的精细图像分割
利用距离合成图像、待分割局部视盘区域图像及其对应的两种标注图像,重新训练U-Net分割网络,可有效提升边界区域在图像分割中的作用权重,降低目标边界的探测误差,实现兴趣目标及其边界的同时准确提取。
1、仿真条件:
本发明在Windows 10 64bit Intel(R) Core(TM) i9-10920X CPU @ 3.50GHz3.50 GHz RAM 32GB平台上的Keras开源深度学习库,执行两个目标的同时提取,实验数据为公开的眼底图像数据集(REFUGE)。
2、仿真内容与结果
本仿真实验使用拟设计的网络学习策略和现有分割网络(即U-Net)提取眼底图像中的视盘视杯区域,实验结果如图4所示:
图4是拟设计学习策略和现有网络基于局部视盘区域图像的分割结果,其中,手工标注、距离合成图像引入前后的分割结果对应的视盘视杯边界曲线分别为白色、绿色和蓝色。可以看出,引入距离信息后,分割网络具有更高的分割性能。
图2是本发明中用到的待分割的眼底图像、局部视盘区域图像、视杯视盘对应手工标注、以及拟设计的边界区域标注;由于视杯视盘区域远小于原始的眼底图像,为避免无故背景的干扰,因此需要提取局部视盘区域及其对应标注,然后用提取的数据训练分割网络。
对比上述前后两次训练产生的分割结果,可以发现:拟设计的网络学习策略能够促使现有分割网络同时提取不同大小的兴趣目标且获得较好的精度。
各位技术人员须知:虽然本发明已按照上述具体实施方式做了描述,但是本发明的发明思想并不仅限于此发明,任何运用本发明思想的改装,都将纳入本专利专利权保护范围内。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (1)

1.一种基于距离引导的深度学习策略的图像分割方法,其特征在于,包括以下步骤:
(1)设计兴趣目标的边界区域标注:借助形态学操作处理兴趣目标的手工标注图像,以得到一幅刻画目标边界区域的标注图像;将兴趣目标的手工标注称为目标区域标注objectregion label,将新获取的标注图像称为边界区域标注boundary region label,设计兴趣目标的边界区域标注的具体步骤如下:
(a)借助形态学操作对手工标注图像进行膨胀和腐蚀操作,得到目标区域的扩大和缩小版本;
(b)用目标区域的扩大版本减去目标区域的缩小版本,可得到目标边界对应的区域,即边界区域标注,目标边界位置位于边界区域的中心;
(2)获取兴趣目标对应的两种粗分割:将两种不同的标注图像和待分割的原始图像用于现有分割网络的训练中,可得到两种不同的分割结果,即一个目标区域预测和一个边界区域预测,获取兴趣目标对应的两种粗分割的具体步骤如下:
对待分割原始图像、手工标注、以及上文获取的边界区域标注进行必要的预处理,并将处理结果分为三个彼此独立的数据集,分别用分割网络的训练、验证和测试,借助三个数据集训练现有的分割网络,即可得到两个不同的分割结果,一个给出目标区域对应的预测,一个给出边界区域对应的预测;
(3)设计距离合成图像:借助距离变换函数distance transformation将两种分割结果转化为不同的距离特征图distance feature map,对这些距离特征图像进行灰度归一化后执行基于像素的加法运算,可得到同时刻画兴趣目标及其边界的距离合成图像distancesynthetic image,设计距离合成图像的具体步骤如下:
借助距离变换函数,将两种分割结果转化为不同的距离特征图;其中一个距离特征图粗略地刻画了目标区域的中心位置信息,另一个距离特征图描述了目标边界的具***置信息,将它们的灰度归一化到0至255之间,然后将归一化结果加起来后重新归一化处理,得到距离合成图像;
(4)基于距离合成图像的精细分割:将距离合成图像、待分割原始图像、以及两种不同的标注图像结合起来,重新训练指定的分割网络,可实现兼顾兴趣目标及其边界的高质量提取的分割。
CN202210757712.2A 2022-06-30 2022-06-30 一种基于距离引导的深度学习策略的图像分割方法 Active CN115082502B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210757712.2A CN115082502B (zh) 2022-06-30 2022-06-30 一种基于距离引导的深度学习策略的图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210757712.2A CN115082502B (zh) 2022-06-30 2022-06-30 一种基于距离引导的深度学习策略的图像分割方法

Publications (2)

Publication Number Publication Date
CN115082502A CN115082502A (zh) 2022-09-20
CN115082502B true CN115082502B (zh) 2024-05-10

Family

ID=83255618

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210757712.2A Active CN115082502B (zh) 2022-06-30 2022-06-30 一种基于距离引导的深度学习策略的图像分割方法

Country Status (1)

Country Link
CN (1) CN115082502B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109710A (ja) * 2017-12-18 2019-07-04 国立大学法人 東京大学 画像処理装置、画像処理方法、及びプログラム
CN112102259A (zh) * 2020-08-27 2020-12-18 温州医科大学附属眼视光医院 一种基于边界引导深度学习的图像分割算法
CN113160261A (zh) * 2021-03-09 2021-07-23 温州医科大学附属眼视光医院 一种用于oct图像角膜层分割的边界增强卷积神经网络
WO2022105125A1 (zh) * 2020-11-17 2022-05-27 平安科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176185A1 (zh) * 2017-03-27 2018-10-04 中国科学院深圳先进技术研究院 一种纹理合成方法及其装置
US11704809B2 (en) * 2020-01-06 2023-07-18 Translational Imaging Innovations, Inc. Methods, systems and computer program products for classifying image data for future mining and training

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109710A (ja) * 2017-12-18 2019-07-04 国立大学法人 東京大学 画像処理装置、画像処理方法、及びプログラム
CN112102259A (zh) * 2020-08-27 2020-12-18 温州医科大学附属眼视光医院 一种基于边界引导深度学习的图像分割算法
WO2022105125A1 (zh) * 2020-11-17 2022-05-27 平安科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
CN113160261A (zh) * 2021-03-09 2021-07-23 温州医科大学附属眼视光医院 一种用于oct图像角膜层分割的边界增强卷积神经网络

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
何冀军 ; 申远 ; 郭玉堂 ; 郑津津 ; .用于人像提取及半身像合成的生成对抗网络算法.计算机辅助设计与图形学学报.2020,(04),全文. *
基于多种U-net模型的***肿瘤超声影像靶区自动分割比较研究;杜德希;金珏斌;张吉;朱可成;肖承健;滕银燕;金献测;;中华肿瘤防治杂志;20200628(12);全文 *

Also Published As

Publication number Publication date
CN115082502A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN108647585B (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
CN111696094B (zh) 免疫组化pd-l1膜染色病理切片图像处理方法、装置和设备
CN112288706A (zh) 一种自动化的染色体核型分析以及异常检测方法
CN110717907A (zh) 一种基于深度学习的手部肿瘤智能检测方法
Li et al. Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing
CN111325750B (zh) 一种基于多尺度融合u型链神经网络的医学图像分割方法
CN113569724B (zh) 基于注意力机制和扩张卷积的道路提取方法及***
JP2022547722A (ja) 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習
CN112381846A (zh) 一种基于非对称网络的超声甲状腺结节分割方法
Zhao et al. Al-net: Attention learning network based on multi-task learning for cervical nucleus segmentation
CN115393293A (zh) 基于UNet网络与分水岭算法的电镜红细胞分割与定位方法
Fan et al. Learning visual features by colorization for slide-consistent survival prediction from whole slide images
CN110705632B (zh) 一种抗核抗体荧光核型自动标注方法
CN112529886A (zh) 一种基于Attention DenseUNet的MRI神经胶质瘤分割方法
CN108596924A (zh) 一种基于距离场融合和椭球先验的mr***图像分割方法
US20210312620A1 (en) Generating annotation data of tissue images
CN117576012B (zh) 一种基于不平衡眼底图像数据的疾病预测方法
CN114078137A (zh) 一种基于深度学习的***镜图像筛选方法、装置和电子设备
CN115082502B (zh) 一种基于距离引导的深度学习策略的图像分割方法
CN112686912B (zh) 基于逐步学习和混合样本的急性脑卒中病变分割方法
CN113269734B (zh) 一种基于元学习特征融合策略的肿瘤图像检测方法及装置
CN115131628A (zh) 一种基于分型辅助信息的乳腺图像分类方法及设备
CN114821346A (zh) 一种基于嵌入式平台的雷达图像智能识别方法和***
CN117853502B (zh) 基于多尺度混合分析的病理图像分割模型及方法
Pang et al. GA-UNet: A Lightweight Ghost and Attention U-Net for Medical Image Segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant