CN116030326B - 一种多视角融合的冠脉斑块识别方法 - Google Patents

一种多视角融合的冠脉斑块识别方法 Download PDF

Info

Publication number
CN116030326B
CN116030326B CN202310071609.7A CN202310071609A CN116030326B CN 116030326 B CN116030326 B CN 116030326B CN 202310071609 A CN202310071609 A CN 202310071609A CN 116030326 B CN116030326 B CN 116030326B
Authority
CN
China
Prior art keywords
image
feature
view
coronary
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310071609.7A
Other languages
English (en)
Other versions
CN116030326A (zh
Inventor
李金宝
王字成
舒明雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Original Assignee
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology, Shandong Institute of Artificial Intelligence filed Critical Qilu University of Technology
Priority to CN202310071609.7A priority Critical patent/CN116030326B/zh
Publication of CN116030326A publication Critical patent/CN116030326A/zh
Application granted granted Critical
Publication of CN116030326B publication Critical patent/CN116030326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Image Analysis (AREA)

Abstract

一种多视角融合的冠脉斑块识别方法,将冠脉CTA图像转换至三个人体解剖平面图像,利用残差网络分别判断三个视角下包含冠脉血管的图像,随后进行分割。可以有效去除未包含冠脉血管图像的干扰,专注于冠脉血管的图像,缩小斑块的检测范围。然后,通过构建多视角斑块识别网络,以冠状面和矢状面作为辅助观察视角,水平面作为主要观察视角融合识别特征可以有效利用切片间的上下文信息,解决2D图像信息单一的问题。多视角斑块识别网络采用特征编码器和特征解码器,提取基础特征的同时保留了融合多尺度特征的设计,相较于3D网络,方便部署,实现容易。

Description

一种多视角融合的冠脉斑块识别方法
技术领域
本发明涉及深度学习、医学图像识别领域,具体涉及一种多视角融合的冠脉斑块识别方法。
背景技术
通常,采集的冠脉CTA图像往往包含几十到几百张切片,但并不是每张切片都能提供有效的斑块识别信息,并且这些冗余的图片观察起来也费时费力,容易给斑块的识别造成阻碍。深度学***面切片的有效信息,它虽然可以捕获切片内斑块的空间特征,但是忽略了切片间的联系,丢失了其他视角的斑块信息,因此可能导致斑块识别的准确率降低。3D模型方法弥补了2D模型的缺陷,它使用三维卷积学习斑块的上下文信息,能够利用切片间的关系去定位斑块区域,但是冠脉CTA图像存在的大量无关冗余切片往往会干扰3D模型的学习,同时3D模型对计算机硬件资源要求较高,存在部署困难的问题。
发明内容
本发明为了克服以上技术的不足,提供了一种可以有效去除未包含冠脉血管图像的干扰,专注于冠脉血管的图像,缩小斑块的检测范围的方法。
本发明克服其技术问题所采用的技术方案是:
一种多视角融合的冠脉斑块识别方法,包括如下步骤:
a)将冠脉CTA图像Original转换为冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis,完成预处理;
b)利用残差网络Resnet34分别判断冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis是否包含冠脉血管;
c)分割冠脉CTA图像并进行预处理,得到冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2;
d)构建多视角斑块识别网络,将冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2及冠状面视角图像Coronal2输入到多视角斑块识别网络中,得到冠脉斑块识别结果。
进一步的,步骤a)包括如下步骤:
a-1)将冠脉CTA图像Original的窗宽winwidth和窗位wincenter进行调整,得到调整后的冠脉CTA图像Original′,将调整后的冠脉CTA图像Original′映射至[0.255]区间范围内,Original∈RX×Y×Z,其中R为实数空间,X为冠脉CTA图像Original在冠状面图像的数量,Y为冠脉CTA图像Original在矢状面图像的数量,Z为冠脉CTA图像Original在水平视角图像的数量;
a-2)循环遍历映射至[0.255]区间范围内的冠脉CTA图像Original′,得到冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis,冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis均为2D图像,Coronal∈RY×Z,Sagittal∈RX×Z,Axis∈RX×Y,Coronal={coronal1,coronal2,...,coronali,...,coronalX},其中coronali为利用python列表切片操作后的冠状面第i张图像,i∈{0,1,...,X-1},Sagittal={sagittal1,sagittal2,...,sagittalj,...,sagittalY},其中sagittalj为利用python列表切片操作后的矢状面第j张图像,j∈{0,1,...,Y-1},Axis={axis1,axis2,...,axisk,...,axisZ},axisk为利用python列表切片操作后的水平面第k张图像,k∈{0,1,...,Z-1}。
进一步的,步骤a-1)中通过公式计算得到调整后的冠脉CTA图像Original′,式中max=(2*wincenter+winwidth)/2,min=(2*wincenter-winwidth)/2。
优选的,窗宽winwidth设置为750,窗位wincenter设置为90。
进一步的,步骤b)包括如下步骤:
b-1)将冠状面视角图像Coronal输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到冠状面视角图像Coronal包含冠脉血管的编号,第一张包含冠脉血管的图像为coronala,最后一张包含冠脉血管的图像为coronalb,编号a至编号b范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号a至编号b范围外的冠状面视角图像删除;
b-2)将矢状面视角图像Sagittal输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到矢状面视角图像Sagittal包含冠脉血管的编号,第一张包含冠脉血管的图像为Sagittalc,最后一张包含冠脉血管的图像为Sagittald,编号c至编号d范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号c至编号d范围外的冠状面视角图像删除;
b-3)将水平面视角图像Axis输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到水平面视角图像Axis包含冠脉血管的编号,第一张包含冠脉血管的图像为Axise,最后一张包含冠脉血管的图像为Axisf,编号e至编号f范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号e至编号f范围外的冠状面视角图像删除;
b-4)将冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis的图像大小均调整为256x256,残差网络Resnet34使用多步学习率,初始化学习率为0.01,没10个epoch下降0.1,使用交叉熵损失函数计算残差网络Resnet34的模型损失,利用模型损失通过随机梯度下降法优化残差网络Resnet34。
进一步的,步骤c)包括如下步骤:
c-1)利用编号a至编号b范围内的冠状面视角图像、编号c至编号d范围内的冠状面视角图像以及编号e至编号f范围内的冠状面视角图像通过python列表切片操作对预处理冠脉CTA图像Original进行分割,得到图像Original2, 为预处理冠脉CTA图像Original在冠状面图像的数量,/> 为预处理冠脉CTA图像Original在矢状面图像的数量,/> 为预处理冠脉CTA图像Original在水平视角图像的数量,/>
c-2)将图像Original2大小调整到256×256×256,使用B-spline插值方法重采样调整后的图像Original2到[0.5mm,0.5mm,0.5mm]各向同性体素空间;
c-3)将重采样调整后的图像Original2像素值调整为冠脉CTA图像Original的均值和标准差;
c-4)循环遍历调整后的图像Original2,得到冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2,冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2均为2D图像,Coronal2={coronal21,coronal22,...,coronal2i,...,coronal2256},其中coronal2i为利用python列表切片操作后的冠状面第i张图像,i∈{0,1,...,256},Sagittal2={sagittal21,sagittal22,...,sagittal2j,...,sagittal2256},其中sagittalj为利用python列表切片操作后的矢状面第j张图像,j∈{0,1,...,256},Axis2={axis21,axis22,...,axis2k,...,axis2256},axis256为利用python列表切片操作后的水平面第k张图像,k∈{0,1,...,256},Coronal2∈R256×256,Sagittal∈R256 ×256,Axis∈R256×256
进一步的,步骤d)包括如下步骤:
d-1)构建由特征编码器、多视角融合层、特征解码器构成的多视角斑块识别网络;
d-2)特征编码器依次由第一卷积块、第一最大池化层、第二卷积块、第二最大池化层、第三卷积块、第三最大池化层、第四卷积块及第四最大池化层构成,第一卷积块、第二卷积块、第三卷积块及第四卷积块均依次由卷积核大小为3×3的卷积层及relu激活函数层构成,将冠状面视角图像Coronal2输入到多视角斑块识别网络的特征编码器的第一卷积块中,输出得到特征FC1,将特征FC1输入到第一最大池化层中,输出得到特征FC2,将特征FC2输入到第二卷积块中,输出得到特征FC3,将特征FC3输入到第二最大池化层中,输出得到第特征FC4,将特征FC4输入到第三卷积块中,输出得到特征FC5,将特征FC5输入到第三最大池化层中,输出得到第特征FC6,将特征FC6输入到第四卷积块中,输出得到特征FC7,将特征FC7输入到第四最大池化层中,输出得到基础特征FC8;将矢状面视角图像Sagittal2输入到多视角斑块识别网络的特征编码器中的第一卷积块中,输出得到特征FS1,将特征FS1输入到第一最大池化层中,输出得到特征FS2,将特征FS2输入到第二卷积块中,输出得到特征FS3,将特征FS3输入到第二最大池化层中,输出得到第特征FS4,将特征FS4输入到第三卷积块中,输出得到特征FS5,将特征FS5输入到第三最大池化层中,输出得到第特征FS6,将特征FS6输入到第四卷积块中,输出得到特征FS7,将特征FS7输入到第四最大池化层中,输出得到基础特征FS8;将水平面视角图像Axis2输入到多视角斑块识别网络的特征编码器中的第一卷积块中,输出得到特征FA1,将特征FA1输入到第一最大池化层中,输出得到特征FA2,将特征FA2输入到第二卷积块中,输出得到特征FA3,将特征FA3输入到第二最大池化层中,输出得到第特征FA4,将特征FA4输入到第三卷积块中,输出得到特征FA5,将特征FA5输入到第三最大池化层中,输出得到第特征FA6,将特征FA6输入到第四卷积块中,输出得到特征FA7,将特征FA7输入到第四最大池化层中,输出得到基础特征FA8
d-3)多视角融合层包括降采样层和特征过滤层,所述降采样层依次由第一常规卷积块、最大池化层、平均池化层及第二常规卷积块构成,第一常规卷积块、第二常规卷积块均依次由卷积核大小为3×3的二维卷积层、BN归一化层、relu激活函数层构成,将特征FC2、特征FC4、特征FC6、基础特征FC8分别输入到降采样层中,分别输出得到聚合特征FCE1、聚合特征FCE2、聚合特征FCE3、聚合特征FCE4,将特征FS2、特征FS4、特征FS6、基础特征FS8分别输入到降采样层中,分别输出得到聚合特征FSE1、聚合特征FSE2、聚合特征FSE3、聚合特征FSE4,通过公式FCMS1=FCE1*FSE1计算得到交集特征FCMS1,通过公式FCMS2=FCE2*FSE2计算得到交集特征FCMS2,通过公式FCMS3=FCE3*FSE3计算得到交集特征FCMS3,通过公式FCMS4=FCE4*FSE4计算得到交集特征FCMS4,所处特征过滤层由第三常规卷积块构成,第三常规卷积块依次由卷积核大小为3×3的二维卷积层、BN归一化层、relu激活函数层构成,将特征FA2、特征FA4、特征FA6、基础特征FA8分别依次输入到特征过滤层的第三常规卷积块中,分别输出得到特征FAE1、特征FAE2、特征FAE3、特征FAE4,通过公式FADD1=FAE1*FCMS1计算得到多视角融合斑块融合特征FADD1,通过公式FADD2=FAE2*FCMS2计算得到多视角融合斑块融合特征FADD2,通过公式FADD3=FAE3*FCMS3计算得到多视角融合斑块融合特征FADD3,通过公式FADD4=FAE4*FCMS4计算得到多视角融合斑块融合特征FADD4
d-4)特征解码器依次由第五卷积块、第一上采样层、第六卷积块、第二上采样层、第七卷积块、第三上采样层及第八卷积块构成,第五卷积块、第六卷积块、第七卷积块及第八卷积块均依次由卷积核大小为3×3的二维卷积层及relu激活函数层构成,将多视角融合斑块融合特征FADD4输入到特征解码器的第五卷积块中,输出得到提炼特征FADDS4,将FADDS4输入到第一上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD3一致的特征FADDS4′,将特征FADDS4′与多视角融合斑块融合特征FADD3进行特征融合后输入到第六卷积块中,输出得到增强特征FCAT43,将增强特征FCAT43输入到第二上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD2一致的特征FCAT43′,将特征FCAT43′与多视角融合斑块融合特征FADD2进行特征融合后输入到第七卷积块中,输出得到增强特征FCAT32,将增强特征FCAT32输入到第三上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD1一致的特征FCAT32′,将特征FCAT32′与多视角融合斑块融合特征FADD1进行特征融合后输入到第八卷积块中,输出得到增强特征FCAT21
d-5)将增强特征FCAT21转化为one-hot向量得到识别结果resultPlaque,resultPlaque={resultPlaque1,...,resultPlaquei,...,resultPlaque256},其中resultPlaquei为第i张图像的转化为one-hot向量的识别结果,i∈{1,...,256},resultPlaquei的像素取值范围为{0,1};
d-6)将通过公式FianPlaque=append(resultPlaque1,...,resultPlaquei,...,resultPlaque256)计算得到最终识别结果FianPlaque,FianPlaquei为第i张图像的最终识别结果,i∈{1,...,256},式中append(·)为append函数,最终识别结果FianPlaquei的像素取值范围为{0,1},当最终识别结果FianPlaquei取值为0时表示为背景区域,当最终识别结果FianPlaquei取值为1时表示为斑块区域。
进一步的,将水平面视角图像Axis大小调整为256×256,将冠状面视角图像Coronal及矢状面视角图像Sagittal大小调整为384×384,将网络学习率设置为le-5,使用交叉熵函数计算模型损失,使用RMSprop优化器利用模型损失优化多视角斑块识别网络的参数,RMSprop优化器的动量设置为0.9,权重衰减设置为le-8。
本发明的有益效果是:从多个视角有效去除冗余切片的干扰,使模型专注于含有冠脉血管和斑块的图像区域。然后构建斑块识别网络,从多个视角出发学***面作为主要观察视角依次融合识别结果,能够合理利用切片间的上下文信息,完成斑块识别。首先冠脉CTA图像转换至三个人体解剖平面图像,利用残差网络分别判断三个视角下包含冠脉血管的图像,随后进行分割。可以有效去除未包含冠脉血管图像的干扰,专注于冠脉血管的图像,缩小斑块的检测范围。然后,通过构建多视角斑块识别网络,以冠状面和矢状面作为辅助观察视角,水平面作为主要观察视角融合识别特征可以有效利用切片间的上下文信息,解决2D图像信息单一的问题。多视角斑块识别网络采用特征编码器和特征解码器,提取基础特征的同时保留了融合多尺度特征的设计,相较于3D网络,方便部署,实现容易。
附图说明
图1为本发明的残差网络处理流程图;
图2为本发明的多视角融合斑块识别网络处理流程图。
具体实施方式
下面结合附图1、附图2对本发明做进一步说明。
一种多视角融合的冠脉斑块识别方法,包括如下步骤:
a)将冠脉CTA图像Original转换为冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis,完成预处理。冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis为三个人体解剖平面2D图像。
b)利用残差网络Resnet34分别判断冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis是否包含冠脉血管。
c)分割冠脉CTA图像并进行预处理,得到冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2。
d)构建多视角斑块识别网络,将冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2及冠状面视角图像Coronal2输入到多视角斑块识别网络中,得到冠脉斑块识别结果。
首先冠脉CTA图像转换至三个人体解剖平面图像,利用残差网络分别判断三个视角下包含冠脉血管的图像,随后进行分割。可以有效去除未包含冠脉血管图像的干扰,专注于冠脉血管的图像,缩小斑块的检测范围。然后,通过构建多视角斑块识别网络,以冠状面和矢状面作为辅助观察视角,水平面作为主要观察视角融合识别特征可以有效利用切片间的上下文信息,解决2D图像信息单一的问题。多视角斑块识别网络采用特征编码器和特征解码器,提取基础特征的同时保留了融合多尺度特征的设计,相较于3D网络,方便部署,实现容易。
实施例1:
步骤a)包括如下步骤:
a-1)为了方便观察和促进网络学***视角图像的数量。
a-2)循环遍历映射至[0.255]区间范围内的冠脉CTA图像Original′,得到冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis,冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis均为2D图像,Coronal∈RY×Z,Sagittal∈RX×Z,Axis∈RX×Y,Coronal={coronal1,coronal2,...,coronali,...,coronalX},其中coronali为利用python列表切片操作后的冠状面第i张图像,i∈{0,1,...,X-1},Sagittal={sagittal1,sagittal2,...,sagittalj,...,sagittalY},其中sagittalj为利用python列表切片操作后的矢状面第j张图像,j∈{0,1,...,Y-1},Axis={axis1,axis2,...,axisk,...,axisZ},axisk为利用python列表切片操作后的水平面第k张图像,k∈{0,1,...,Z-1}。
进一步的,步骤a-1)中通过公式计算得到调整后的冠脉CTA图像Original′,式中max=(2*wincenter+winwidth)/2,min=(2*wincenter-winwidth)/2。max代表窗宽、窗位范围内最大像素值,min代表窗宽、窗位范围内最小像素值。
优选的,窗宽winwidth设置为750,窗位wincenter设置为90。
实施例2:
如附图1所示,步骤b)包括如下步骤:
b-1)将冠状面视角图像Coronal输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到冠状面视角图像Coronal包含冠脉血管的编号,第一张包含冠脉血管的图像为coronala,最后一张包含冠脉血管的图像为coronalb,编号a至编号b范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号a至编号b范围外的冠状面视角图像删除。
b-2)将矢状面视角图像Sagittal输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到矢状面视角图像Sagittal包含冠脉血管的编号,第一张包含冠脉血管的图像为Sagittalc,最后一张包含冠脉血管的图像为Sagittald,编号c至编号d范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号c至编号d范围外的冠状面视角图像删除。
b-3)将水平面视角图像Axis输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到水平面视角图像Axis包含冠脉血管的编号,第一张包含冠脉血管的图像为Axise,最后一张包含冠脉血管的图像为Axisf,编号e至编号f范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号e至编号f范围外的冠状面视角图像删除。
b-4)将冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis的图像大小均调整为256x256,残差网络Resnet34使用多步学习率,初始化学习率为0.01,没10个epoch下降0.1,使用交叉熵损失函数计算残差网络Resnet34的模型损失,利用模型损失通过随机梯度下降法优化残差网络Resnet34。需要说明的是,残差网络Resnet34对于三个视角图像皆使用相同的参数配置训练和测试。
实施例3:
步骤c)包括如下步骤:
c-1)利用编号a至编号b范围内的冠状面视角图像、编号c至编号d范围内的冠状面视角图像以及编号e至编号f范围内的冠状面视角图像通过python列表切片操作对预处理冠脉CTA图像Original进行分割,得到图像Original2,从冠状面、矢状面和水平面三个视角分别去除不包含冠脉血管的图像,将斑块区域聚焦在包含冠脉血管的图像区域范围内。/>为预处理冠脉CTA图像Original在冠状面图像的数量, 为预处理冠脉CTA图像Original在矢状面图像的数量,/> 为预处理冠脉CTA图像Original在水平视角图像的数量,/>
c-2)将图像Original2大小调整到256×256×256,使用B-spline插值方法重采样调整后的图像Original2到[0.5mm,0.5mm,0.5mm]各向同性体素空间。
c-3)将重采样调整后的图像Original2像素值调整为冠脉CTA图像Original的均值和标准差。
c-4)循环遍历调整后的图像Original2,得到冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2,冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2均为2D图像,Coronal2={coronal21,coronal22,...,coronal2i,...,coronal2256},其中coronal2i为利用python列表切片操作后的冠状面第i张图像,i∈{0,1,...,256},Sagittal2={sagittal21,sagittal22,...,sagittal2j,...,sagittal2256},其中sagittalj为利用python列表切片操作后的矢状面第j张图像,j∈{0,1,...,256},Axis2={axis21,axis22,...,axis2k,...,axis2256},axis256为利用python列表切片操作后的水平面第k张图像,k∈{0,1,...,256},Coronal2∈R256×256,Sagittal∈R256 ×256,Axis∈R256×256
实施例4:
步骤d)包括如下步骤:
d-1)如附图2所示,构建由特征编码器、多视角融合层、特征解码器构成的多视角斑块识别网络。以冠状面和矢状面作为辅助观察视角,水平面作为主要观察视角构建多视角融合斑块识别网络。其中,特征编码器用于提取冠状面、矢状面和水平面图像基础特征,共包含四层卷积块。多视角融合层用于整合不同尺度的冠状面、矢状面和水平面图像基础特征,包含常规卷积层和降采样层。它以冠状面和矢状面作为辅助观察视角,水平面作为主要观察视角,融合多视角的斑块上下文信息。通过整合冠状面和矢状面基础特征融入到水平面基础特征,有效增强模型从多个视角识别斑块的能力,进一步准确定位斑块位置。特征解码器与特征编码器对应,包含四层卷积层。采用多尺度特征融合的设计,增强多尺度斑块特征。最终,通过层层聚合获取多视角融合斑块识别结果。可以将冠状面视角图像Coronal2、矢状面视角图像Sagittal2图像调整为水平面视角图像Axis2的1.5倍,大小为384×384,使用使用高分辨率图像可以从冠状面和矢状面提取更多的斑块信息,加入到主视角水平面中,帮助斑块识别。随后,冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2经过特征编码器提取斑块基础特征。
d-2)特征编码器依次由第一卷积块、第一最大池化层、第二卷积块、第二最大池化层、第三卷积块、第三最大池化层、第四卷积块及第四最大池化层构成,第一卷积块、第二卷积块、第三卷积块及第四卷积块均依次由卷积核大小为3×3的卷积层及relu激活函数层构成,将冠状面视角图像Coronal2输入到多视角斑块识别网络的特征编码器的第一卷积块中,输出得到特征FC1,将特征FC1输入到第一最大池化层中,输出得到特征FC2,将特征FC2输入到第二卷积块中,输出得到特征FC3,将特征FC3输入到第二最大池化层中,输出得到第特征FC4,将特征FC4输入到第三卷积块中,输出得到特征FC5,将特征FC5输入到第三最大池化层中,输出得到第特征FC6,将特征FC6输入到第四卷积块中,输出得到特征FC7,将特征FC7输入到第四最大池化层中,输出得到基础特征FC8;将矢状面视角图像Sagittal2输入到多视角斑块识别网络的特征编码器中的第一卷积块中,输出得到特征FS1,将特征FS1输入到第一最大池化层中,输出得到特征FS2,将特征FS2输入到第二卷积块中,输出得到特征FS3,将特征FS3输入到第二最大池化层中,输出得到第特征FS4,将特征FS4输入到第三卷积块中,输出得到特征FS5,将特征FS5输入到第三最大池化层中,输出得到第特征FS6,将特征FS6输入到第四卷积块中,输出得到特征FS7,将特征FS7输入到第四最大池化层中,输出得到基础特征FS8;将水平面视角图像Axis2输入到多视角斑块识别网络的特征编码器中的第一卷积块中,输出得到特征FA1,将特征FA1输入到第一最大池化层中,输出得到特征FA2,将特征FA2输入到第二卷积块中,输出得到特征FA3,将特征FA3输入到第二最大池化层中,输出得到第特征FA4,将特征FA4输入到第三卷积块中,输出得到特征FA5,将特征FA5输入到第三最大池化层中,输出得到第特征FA6,将特征FA6输入到第四卷积块中,输出得到特征FA7,将特征FA7输入到第四最大池化层中,输出得到基础特征FA8
d-3)将特征解码器提取的冠状面和矢状面斑块基础特征送入降采样层调整特征大小与水平面特征一致,之后进行体素级别的乘法计算两者之间的交集。具体的:多视角融合层包括降采样层和特征过滤层,所述降采样层依次由第一常规卷积块、最大池化层、平均池化层及第二常规卷积块构成,第一常规卷积块、第二常规卷积块均依次由卷积核大小为3×3的二维卷积层、BN归一化层、relu激活函数层构成,将特征FC2、特征FC4、特征FC6、基础特征FC8分别输入到降采样层中,分别输出得到聚合特征FCE1、聚合特征FCE2、聚合特征FCE3、聚合特征FCE4,将特征FS2、特征FS4、特征FS6、基础特征FS8分别输入到降采样层中,分别输出得到聚合特征FSE1、聚合特征FSE2、聚合特征FSE3、聚合特征FSE4,通过公式FCMS1=FCE1*FSE1计算得到交集特征FCMS1,通过公式FCMS2=FCE2*FSE2计算得到交集特征FCMS2,通过公式FCMS3=FCE3*FSE3计算得到交集特征FCMS3,通过公式FCMS4=FCE4*FSE4计算得到交集特征FCMS4,所处特征过滤层由第三常规卷积块构成,第三常规卷积块依次由卷积核大小为3×3的二维卷积层、BN归一化层、relu激活函数层构成,将特征FA2、特征FA4、特征FA6、基础特征FA8分别依次输入到特征过滤层的第三常规卷积块中,分别输出得到特征FAE1、特征FAE2、特征FAE3、特征FAE4,通过公式FADD1=FAE1*FCMS1计算得到多视角融合斑块融合特征FADD1,通过公式FADD2=FAE2*FCMS2计算得到多视角融合斑块融合特征FADD2,通过公式FADD3=FAE3*FCMS3计算得到多视角融合斑块融合特征FADD3,通过公式FADD4=FAE4*FCMS4计算得到多视角融合斑块融合特征FADD4
d-4)特征解码器依次由第五卷积块、第一上采样层、第六卷积块、第二上采样层、第七卷积块、第三上采样层及第八卷积块构成,第五卷积块、第六卷积块、第七卷积块及第八卷积块均依次由卷积核大小为3×3的二维卷积层及relu激活函数层构成,将多视角融合斑块融合特征FADD4输入到特征解码器的第五卷积块中,输出得到提炼特征FADDS4,将FADDS4输入到第一上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD3一致的特征FADDS4′,将特征FADDS4′与多视角融合斑块融合特征FADD3进行特征融合后输入到第六卷积块中,输出得到增强特征FCAT43,将增强特征FCAT43输入到第二上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD2一致的特征FCAT43′,将特征FCAT43′与多视角融合斑块融合特征FADD2进行特征融合后输入到第七卷积块中,输出得到增强特征FCAT32,将增强特征FCAT32输入到第三上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD1一致的特征FCAT32′,将特征FCAT32′与多视角融合斑块融合特征FADD1进行特征融合后输入到第八卷积块中,输出得到增强特征FCAT21
d-5)将增强特征FCAT21转化为one-hot向量得到识别结果resultPlaque,resultPlaque={resultPlaque1,...,resultPlaquei,...,resultPlaque256},其中resultPlaquei为第i张图像的转化为one-hot向量的识别结果,i∈{1,...,256},resultPlaquei的像素取值范围为{0,1}。
d-6)将通过公式FianPlaque=append(resultPlaque1,...,resultPlaquei,...,resultPlaque256)计算得到最终识别结果FianPlaque,FianPlaquei为第i张图像的最终识别结果,i∈{1,...,256},式中append(·)为append函数,append函数用于添加图像至相同列表中,实现堆叠2D图像变为3D图像。最终识别结果FianPlaquei的像素取值范围为{0,1},当最终识别结果FianPlaquei取值为0时表示为背景区域,当最终识别结果FianPlaquei取值为1时表示为斑块区域。
实施例5:
为了对多视角斑块识别网络进行训练,将水平面视角图像Axis大小调整为256×256,将冠状面视角图像Coronal及矢状面视角图像Sagittal大小调整为384×384。调整目的是充分利用冠状面和矢状面视角提供的辅助信息,同时方便网络学习。将网络学习率设置为le-5,使用交叉熵函数计算模型损失,使用RMSprop优化器利用模型损失优化多视角斑块识别网络的参数,RMSprop优化器的动量设置为0.9,为了防止网络过拟合,权重衰减设置为le-8。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种多视角融合的冠脉斑块识别方法,其特征在于,包括如下步骤:
a)将冠脉CTA图像Original转换为冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis,完成预处理;
b)利用残差网络Resnet34分别判断冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis是否包含冠脉血管;
c)分割冠脉CTA图像并进行预处理,得到冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2;
d)构建多视角斑块识别网络,将冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2及冠状面视角图像Coronal2输入到多视角斑块识别网络中,得到冠脉斑块识别结果;
步骤c)包括如下步骤:
c-1)利用编号a至编号b范围内的冠状面视角图像、编号c至编号d范围内的冠状面视角图像以及编号e至编号f范围内的冠状面视角图像通过python列表切片操作对预处理冠脉CTA图像Original进行分割,得到图像Original2, 为预处理冠脉CTA图像Original在冠状面图像的数量,/> 为预处理冠脉CTA图像Original在矢状面图像的数量,/> 为预处理冠脉CTA图像Original在水平视角图像的数量,/>
c-2)将图像Original2大小调整到256×256×256,使用B-spline插值方法重采样调整后的图像Original2到[0.5mm,0.5mm,0.5mm]各向同性体素空间;
c-3)将重采样调整后的图像Original2像素值调整为冠脉CTA图像Original的均值和标准差;
c-4)循环遍历调整后的图像Original2,得到冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2,冠状面视角图像Coronal2、矢状面视角图像Sagittal2和水平面视角图像Axis2均为2D图像,Coronal2={coronal21,coronal22,...,coronal2i,...,coronal2256},其中coronal2i为利用python列表切片操作后的冠状面第i张图像,i∈{0,1,...,256},Sagittal2={sagittal21,sagittal22,...,sagittal2j,...,sagittal2256},其中sagittalj为利用python列表切片操作后的矢状面第j张图像,j∈{0,1,...,256},Axis2={axis21,axis22,...,axis2k,...,axis2256},axis256为利用python列表切片操作后的水平面第k张图像,k∈{0,1,...,256},Coronal2∈R256×256,Sagittal∈R256 ×256,Axis∈R256×256
步骤d)包括如下步骤:
d-1)构建由特征编码器、多视角融合层、特征解码器构成的多视角斑块识别网络;
d-2)特征编码器依次由第一卷积块、第一最大池化层、第二卷积块、第二最大池化层、第三卷积块、第三最大池化层、第四卷积块及第四最大池化层构成,第一卷积块、第二卷积块、第三卷积块及第四卷积块均依次由卷积核大小为3×3的卷积层及relu激活函数层构成,将冠状面视角图像Coronal2输入到多视角斑块识别网络的特征编码器的第一卷积块中,输出得到特征FC1,将特征FC1输入到第一最大池化层中,输出得到特征FC2,将特征FC2输入到第二卷积块中,输出得到特征FC3,将特征FC3输入到第二最大池化层中,输出得到第特征FC4,将特征FC4输入到第三卷积块中,输出得到特征FC5,将特征FC5输入到第三最大池化层中,输出得到第特征FC6,将特征FC6输入到第四卷积块中,输出得到特征FC7,将特征FC7输入到第四最大池化层中,输出得到基础特征FC8;将矢状面视角图像Sagittal2输入到多视角斑块识别网络的特征编码器中的第一卷积块中,输出得到特征FS1,将特征FS1输入到第一最大池化层中,输出得到特征FS2,将特征FS2输入到第二卷积块中,输出得到特征FS3,将特征FS3输入到第二最大池化层中,输出得到第特征FS4,将特征FS4输入到第三卷积块中,输出得到特征FS5,将特征FS5输入到第三最大池化层中,输出得到第特征FS6,将特征FS6输入到第四卷积块中,输出得到特征FS7,将特征FS7输入到第四最大池化层中,输出得到基础特征FS8;将水平面视角图像Axis2输入到多视角斑块识别网络的特征编码器中的第一卷积块中,输出得到特征FA1,将特征FA1输入到第一最大池化层中,输出得到特征FA2,将特征FA2输入到第二卷积块中,输出得到特征FA3,将特征FA3输入到第二最大池化层中,输出得到第特征FA4,将特征FA4输入到第三卷积块中,输出得到特征FA5,将特征FA5输入到第三最大池化层中,输出得到第特征FA6,将特征FA6输入到第四卷积块中,输出得到特征FA7,将特征FA7输入到第四最大池化层中,输出得到基础特征FA8
d-3)多视角融合层包括降采样层和特征过滤层,所述降采样层依次由第一常规卷积块、最大池化层、平均池化层及第二常规卷积块构成,第一常规卷积块、第二常规卷积块均依次由卷积核大小为3×3的二维卷积层、BN归一化层、relu激活函数层构成,将特征FC2、特征FC4、特征FC6、基础特征FC8分别输入到降采样层中,分别输出得到聚合特征FCE1、聚合特征FCE2、聚合特征FCE3、聚合特征FCE4,将特征FS2、特征FS4、特征FS6、基础特征FS8分别输入到降采样层中,分别输出得到聚合特征FSE1、聚合特征FSE2、聚合特征FSE3、聚合特征FSE4,通过公式FCMS1=FCE1*FSE1计算得到交集特征FCMS1,通过公式FCMS2=FCE2*FSE2计算得到交集特征FCMS2,通过公式FCMS3=FCE3*FSE3计算得到交集特征FCMS3,通过公式FCMS4=FCE4*FSE4计算得到交集特征FCMS4,所处特征过滤层由第三常规卷积块构成,第三常规卷积块依次由卷积核大小为3×3的二维卷积层、BN归一化层、relu激活函数层构成,将特征FA2、特征FA4、特征FA6、基础特征FA8分别依次输入到特征过滤层的第三常规卷积块中,分别输出得到特征FAE1、特征FAE2、特征FAE3、特征FAE4,通过公式FADD1=FAE1*FCMS1计算得到多视角融合斑块融合特征FADD1,通过公式FADD2=FAE2*FCMS2计算得到多视角融合斑块融合特征FADD2,通过公式FADD3=FAE3*FCMS3计算得到多视角融合斑块融合特征FADD3,通过公式FADD4=FAE4*FCMS4计算得到多视角融合斑块融合特征FADD4
d-4)特征解码器依次由第五卷积块、第一上采样层、第六卷积块、第二上采样层、第七卷积块、第三上采样层及第八卷积块构成,第五卷积块、第六卷积块、第七卷积块及第八卷积块均依次由卷积核大小为3×3的二维卷积层及relu激活函数层构成,将多视角融合斑块融合特征FADD4输入到特征解码器的第五卷积块中,
输出得到提炼特征FADDS4,将FADDS4输入到第一上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD3一致的特征FADDS4′,将特征FADDS4′与多视角融合斑块融合特征FADD3进行特征融合后输入到第六卷积块中,输出得到增强特征FCAT43,将增强特征FCAT43输入到第二上采样层中,输出得到特征图大小与多视角融合斑块融合特征FADD2一致的特征FCAT43′,将特征FCAT43′与多视角融合斑块融合特征FADD2进行特征融合后输入到第七卷积块中,输出得到增强特征FCAT32,将增强特征FCAT32输入到第三上采样层中,
输出得到特征图大小与多视角融合斑块融合特征FADD1一致的特征FCAT32′,将特征FCAT32′与多视角融合斑块融合特征FADD1进行特征融合后输入到第八卷积块中,输出得到增强特征FCAT21
d-5)将增强特征FCAT21转化为one-hot向量得到识别结果resultPlaque,resultPlaque={resultPlaque1,...,resultPlaquei,...,resultPlaque256},其中resultPlaquei为第i张图像的转化为one-hot向量的识别结果,i∈{1,...,256},resultPlaquei的像素取值范围为{0,1};
d-6)将通过公式FianPlaque=append(resultPlaque1,...,resultPlaquei,...,resultPlaque256)计算得到最终识别结果FianPlaque,FianPlaquei为第i张图像的最终识别结果,i∈{1,...,256},式中append(·)为append函数,最终识别结果FianPlaquei的像素取值范围为{0,1},当最终识别结果FianPlaquei取值为0时表示为背景区域,当最终识别结果FianPlaquei取值为1时表示为斑块区域。
2.根据权利要求1所述的多视角融合的冠脉斑块识别方法,其特征在于,步骤
a)包括如下步骤:
a-1)将冠脉CTA图像Original的窗宽winwidth和窗位wincenter进行调整,得到调整后的冠脉CTA图像Original′,将调整后的冠脉CTA图像Original′映射至[0.255]区间范围内,Original∈RX×Y×Z,其中R为实数空间,X为冠脉CTA图像Original在冠状面图像的数量,Y为冠脉CTA图像Original在矢状面图像的数量,Z为冠脉CTA图像Original在水平视角图像的数量;
a-2)循环遍历映射至[0.255]区间范围内的冠脉CTA图像Original′,得到冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis,冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis均为2D图像,Coronal∈RY×Z,Sagittal∈RX×Z,Axis∈RX×Y,Coronal={coronal1,coronal2,...,coronali,...,coronalX},其中coronali为利用python列表切片操作后的冠状面第i张图像,i∈{0,1,...,X-1},Sagittal={sagittal1,sagittal2,...,sagittalj,…,sagittalY},其中sagittalj为利用python列表切片操作后的矢状面第j张图像,j∈{0,1,...,Y-1},Axis={axis1,axis2,...,axisk,...,axisZ},axisk为利用python列表切片操作后的水平面第k张图像,k∈{0,1,...,Z-1}。
3.根据权利要求1所述的多视角融合的冠脉斑块识别方法,其特征在于:步骤a-1)中通过公式计算得到调整后的冠脉CTA图像Original′,式中max=(2*wincenter+winwidth)/2,min=(2*wincenter-winwidth)/2。
4.根据权利要求3所述的多视角融合的冠脉斑块识别方法,其特征在于:窗宽winwidth设置为750,窗位wincenter设置为90。
5.根据权利要求1所述的多视角融合的冠脉斑块识别方法,其特征在于,步骤b)包括如下步骤:
b-1)将冠状面视角图像Coronal输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到冠状面视角图像Coronal包含冠脉血管的编号,第一张包含冠脉血管的图像为coronala,最后一张包含冠脉血管的图像为coronalb,编号a至编号b范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号a至编号b范围外的冠状面视角图像删除;
b-2)将矢状面视角图像Sagittal输入到残差网络Resnet34中,判断图像是否包含冠脉血管并得到矢状面视角图像Sagittal包含冠脉血管的编号,第一张包含冠脉血管的图像为Sagittalc,最后一张包含冠脉血管的图像为Sagittald,编号c至编号d范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号c至编号d范围外的冠状面视角图像删除;
b-3)将水平面视角图像Axis输入到残差网络Resnet34中,判断图像是否包含冠脉血管并并得到水平面视角图像Axis包含冠脉血管的编号,第一张包含冠脉血管的图像为Axise,最后一张包含冠脉血管的图像为Axisf,编号e至编号f范围内的冠状面视角图像都作为包含斑块的潜在目标,将编号e至编号f范围外的冠状面视角图像删除;
b-4)将冠状面视角图像Coronal、矢状面视角图像Sagittal和水平面视角图像Axis的图像大小均调整为256x256,残差网络Resnet34使用多步学习率,初始化学习率为0.01,没10个epoch下降0.1,使用交叉熵损失函数计算残差网络Resnet34的模型损失,利用模型损失通过随机梯度下降法优化残差网络Resnet34。
6.根据权利要求1所述的多视角融合的冠脉斑块识别方法,其特征在于:将水平面视角图像Axis大小调整为256×256,将冠状面视角图像Coronal及矢状面视角图像Sagittal大小调整为384×384,将网络学习率设置为le-5,使用交叉熵函数计算模型损失,使用RMSprop优化器利用模型损失优化多视角斑块识别网络的参数,RMSprop优化器的动量设置为0.9,权重衰减设置为le-8。
CN202310071609.7A 2023-01-18 2023-01-18 一种多视角融合的冠脉斑块识别方法 Active CN116030326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310071609.7A CN116030326B (zh) 2023-01-18 2023-01-18 一种多视角融合的冠脉斑块识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310071609.7A CN116030326B (zh) 2023-01-18 2023-01-18 一种多视角融合的冠脉斑块识别方法

Publications (2)

Publication Number Publication Date
CN116030326A CN116030326A (zh) 2023-04-28
CN116030326B true CN116030326B (zh) 2023-09-08

Family

ID=86079324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310071609.7A Active CN116030326B (zh) 2023-01-18 2023-01-18 一种多视角融合的冠脉斑块识别方法

Country Status (1)

Country Link
CN (1) CN116030326B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369525A (zh) * 2020-03-02 2020-07-03 联影智能医疗科技(北京)有限公司 图像分析方法、设备和存储介质
CN111599448A (zh) * 2020-06-12 2020-08-28 杭州海睿博研科技有限公司 特定冠状动脉钙化分析的多视图形状约束***和方法
CN111667478A (zh) * 2020-06-10 2020-09-15 复旦大学附属华山医院 Cta到mra跨模态预测的颈动脉斑块识别方法及***
CN112348818A (zh) * 2021-01-08 2021-02-09 杭州晟视科技有限公司 一种图像分割方法、装置、设备以及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369525A (zh) * 2020-03-02 2020-07-03 联影智能医疗科技(北京)有限公司 图像分析方法、设备和存储介质
CN111667478A (zh) * 2020-06-10 2020-09-15 复旦大学附属华山医院 Cta到mra跨模态预测的颈动脉斑块识别方法及***
CN111599448A (zh) * 2020-06-12 2020-08-28 杭州海睿博研科技有限公司 特定冠状动脉钙化分析的多视图形状约束***和方法
CN112348818A (zh) * 2021-01-08 2021-02-09 杭州晟视科技有限公司 一种图像分割方法、装置、设备以及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
在体女性盆腔动脉血管网数字化三维模型构建方法及意义;陈春林;宋小磊;余艳红;欧阳振波;刘萍;徐玉静;唐雷;***;谭欢庆;昌仁民;钟世镇;;中国实用妇科与产科杂志(第04期);全文 *

Also Published As

Publication number Publication date
CN116030326A (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
CN111027547B (zh) 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111524135B (zh) 基于图像增强的输电线路细小金具缺陷检测方法及***
Bradley et al. Accurate multi-view reconstruction using robust binocular stereo and surface meshing
Zheng et al. Non-local scan consolidation for 3D urban scenes
CN112967243A (zh) 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法
CN110263756A (zh) 一种基于联合多任务学习的人脸超分辨率重建***
CN112926652B (zh) 一种基于深度学习的鱼类细粒度图像识别方法
JP2023517058A (ja) 画像処理に基づく腫瘍の自動検出
CN114119607B (zh) 基于深度神经网络的酒瓶缺陷样本生成方法及***
Singh et al. A review of image fusion: Methods, applications and performance metrics
CN116681894A (zh) 一种结合大核卷积的相邻层特征融合Unet多器官分割方法、***、设备及介质
Nouduri et al. Deep realistic novel view generation for city-scale aerial images
CN116030326B (zh) 一种多视角融合的冠脉斑块识别方法
CN113111740A (zh) 一种遥感图像目标检测的特征编织方法
CN114529689B (zh) 基于对抗神经网络的陶瓷杯缺陷样本扩增方法及***
CN115880157A (zh) 一种k空间金字塔特征融合的立体图像超分辨率重建方法
CN115797489A (zh) 一种基于深度网络的岩石ct数字图像真彩色化处理方法
CN110084770B (zh) 基于二维Littlewood-Paley经验小波变换的脑部图像融合方法
KR20220085369A (ko) 의미론적 객체 매칭을 통한 파노라마 텍스처 매핑 방법 및 시스템
Kao et al. A novel deep learning architecture for testis histology image classification
Kamel et al. 3D Mesh Model Generation from 2D Images for Small Furniture Items
JP7378164B2 (ja) 画像復元を応用する光学システム及び光学画像処理方法
Barrera et al. 3D reconstruction of archaeological contexts using image segmentation and Structure from Motion
Cerutti et al. Meshing meristems-an iterative mesh optimization method for modeling plant tissue at cell resolution
Patel et al. Deep Learning based Semantic Segmentation for Buildings Detection from Remote Sensing Images.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant