CN111192238A - 基于自监督深度网络的无损血管三维测量方法 - Google Patents

基于自监督深度网络的无损血管三维测量方法 Download PDF

Info

Publication number
CN111192238A
CN111192238A CN201911305254.3A CN201911305254A CN111192238A CN 111192238 A CN111192238 A CN 111192238A CN 201911305254 A CN201911305254 A CN 201911305254A CN 111192238 A CN111192238 A CN 111192238A
Authority
CN
China
Prior art keywords
blood vessel
image
dimensional measurement
depth
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911305254.3A
Other languages
English (en)
Other versions
CN111192238B (zh
Inventor
韩静
柏连发
张毅
王其鑫
陈霄雨
于浩天
葛锦洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201911305254.3A priority Critical patent/CN111192238B/zh
Publication of CN111192238A publication Critical patent/CN111192238A/zh
Application granted granted Critical
Publication of CN111192238B publication Critical patent/CN111192238B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自监督深度网络的无损血管三维测量方法,基于视差预测网络SsBMNet,构建自监督深度网络的无损血管三维测量模型;搭建双目血管三维成像***,采集真实血管图像数据,预处理后训练无损血管三维测量模型;采集待成像的血管图像对,预处理后输入训练好的无损血管三维测量模型,得到左视差图和右视差图;根据双目相机间的基线距离以及相机焦距,将待成像血管对应的左视差图或右视差图转换为深度图。本发明降低了网络训练的噪声和皮肤反射的干扰,改善了视差。

Description

基于自监督深度网络的无损血管三维测量方法
技术领域
本发明涉及计算机视觉技术,具体涉及一种基于自监督深度网络的无损血管三维测量方法。
背景技术
目前血管的穿刺技术发展缓慢,主要是由于现有非侵入的三维成像难度大。非侵入的三维成像通过非侵入立体匹配获得三维成像,主要分为图像获取、极线校正、立体匹配、距离计算四个步骤。该方法通过双相机获取同一场景左右图像,通过对左右图像进行双目标定来消除垂直方向上的视差,然后只需要在水平上对经过极线矫正的立体图像对匹配视差,就能获得三维成像。虽然不需要深度标记数据约束,但是由于传统特征表征和匹配算法能力有限,三维成像效果较差。
最近几年深度学习给各种视觉任务提供了多种解决方案,加上标记数据比较容易获得,监督网络在许多视觉任务中有着卓越的表现。在双目立体监督网络中,先对左右图像进行特征提取,再进行左右代价计算和聚合,最终利用标记好的视差数据通过监督训练得到视差结果。由于利用了深度网络无监督学习的特性,根据网络的标记样本,网络可以最大程度挖掘左右图像特征。但是绝大多数的深度学习方法需要大量的真实深度标记数据来约束网络的训练,另外非侵入无损血管测量难以获得真实标记,无法监督,难以评估。
发明内容
本发明的目的在于提供一种基于自监督深度网络的无损血管三维测量方法。
实现本发明目的的技术方案为:一种基于自监督深度网络的无损血管三维测量方法,具体步骤如下:
步骤1,基于视差预测网络SsBMNet,构建自监督深度网络的无损血管三维测量模型;
步骤2,搭建双目血管三维成像***,采集真实血管图像数据,预处理后训练无损血管三维测量模型;
步骤3、采集待成像的血管图像对,预处理后输入训练好的无损血管三维测量模型,得到左视差图和右视差图;
步骤4、根据双目相机间的基线距离以及相机焦距,将待成像血管对应的左视差图或右视差图转换为深度图。
步骤1中,构建的无损血管三维测量模型包括2D-CNN特征提取层、Cost Volume代价卷、3D-CNN卷积和SoftArgmin回归四个模块,所述特征提取层用于对输入数据进行二维卷积,得到左右深层特征图;所述代价卷用于将左右特征图有序堆叠形成四维代价卷;所述三维卷积和回归用于对代价卷进行三维卷积,并回归输出预测视差,包括左视差图和右视差图,从而换算出深度。
步骤2中,搭建的双目血管三维成像***,包括850nm的LED光源、多光谱滤光双目basler相机、投影仪和计算卡TX2,850nm波段的LED光源照射待成像区域,被照区域反射光通过带有850nm窄带滤光片的双目basler相机,通过触发信号同时采集左右数据,形成血管图像对。
步骤2中,对图像预处理的过程为:先对采集的血管图像对进行基线校正,即利用张正友标定法对图像对进行极线矫正,归一化到0到1;然后对经过基线校正的图像样本进行滤波。
使用Gabor滤波器进行滤波。
步骤2中,训练无损血管三维测量模型的具体过程为:将血管图像对输入构建的无损血管三维测量模型,得到左、右视差后,与原左右图像翘曲形成重建图像,即左视差与右参考图重建出右重建图、右视差与左参考图重建出左重建图,利用反向传播算法更新无损血管三维测量模型网络参数,直至损失函数值变化量小于设定阈值,得到重建图像和参考图像差距满足要求的模型参数,即完成训练。
反向传播算法采用Adam方法进行模型训练,其损失函数定义如下:
Figure BDA0002322902590000021
其中,lossL1表示重建图与真实图的最小绝对值误差,lossSSIM表示重建图与真实图的结构相似性误差,lossL1'表示重建图与真实图的一阶梯度误差,lossConsistence表示预测视差图间的左右一致性损失函数,losssmooth使用SsSMNet中的平滑正则化函数,lossperceptual表示感知损失函数,使用VGG-16作为感知损失函数的具体实现,构建时,先将重建图像与参考图像分别送入VGG-16,然后将第13层输出的两个特征进行均方根误差比对,形成感知损失函数如下:
Figure BDA0002322902590000022
其中f,f'分别是参考图像和重建图像经过VGG16得到的特征,lossperceptual为计算所得感知损失lossperceptual
步骤4中,选取左视差用于深度换算,双目相机间的基线距离b、相机焦距f与深度Ddepth的关系为:
Ddepth=bf/d (3)
其中深度Ddepth即为所要测量的相机到达血管距离,即三维深度,d表示左视差。
本发明与现有技术相比,其显著优点为:1)采用端到端训练的自监督深度网络,无需真实的血管三维标记数据,即可训练出血管视差匹配网络,从而可以换算出三维深度;2)通过在损失函数中添加感知损失及数据预处理,降低了网络训练的噪声和皮肤反射的干扰,改善了视差。
下面结合附图对本发明做进一步详细的描述。
附图说明
图1是本发明构建的自监督网络结构SsBMNet的示意图。
图2是本发明搭建的血管三维成像***示意图。
图3是本发明真实血管数据的预处理效果对比图。
图4是在本发明搭建***下采集的真实血管数据的样本图。
图5是本发明中感知损失函数优化示意图。
图6是本发明算法和其他算法在KITTI-2012的效果对比图。
图7是本发明算法和其他算法在KITTI-2015的效果对比图。
图8是本发明真实血管立体匹配后的定性效果图。
具体实施方式
基于自监督深度网络的无损血管三维测量方法,具体步骤如下:
步骤1、基于视差预测网络SsBMNet,构建自监督深度网络的无损血管三维测量模型;
构建的无损血管三维测量模型如图1所示,包括2D-CNN特征提取层、Cost Volume代价卷、3D-CNN卷积和SoftArgmin回归四个模块。所述特征提取层用于对输入数据进行二维卷积,得到左右深层特征图;所述代价卷用于将左右特征图有序堆叠形成四维代价卷;所述三维卷积和回归用于对代价卷进行三维卷积,并回归输出预测视差,包括左视差图和右视差图,从而换算出深度。
整体网络结构如表1和表2所示:
表1 SsBMNet网络结构
Figure BDA0002322902590000041
表2堆叠3D编解码器网络结构
Figure BDA0002322902590000042
Figure BDA0002322902590000051
步骤2、搭建双目血管三维成像***,采集真实血管图像数据并训练SsBMNet模型;
1)搭建双目血管三维成像***,如图2所示,包括850nm的LED光源(60nm带宽)、多光谱滤光双目basler相机、投影仪和计算卡TX2;
2)图像采集和处理过程如下:利用850nm波段的LED光源照射待成像区域,被照区域反射光通过带有850nm窄带滤光片的双目相机,并通过触发信号同时采集左右数据,形成血管图像对;
对采集的血管图像对进行基线校正,即利用预标定完参数(张正友标定法)对850nm波段图像对进行极线矫正,归一化到0到1,经过基线校正的图像样本数据,如图3所示;
对经过基线校正的图像样本进行滤波。为了减小表皮纹理噪声对匹配的干扰,本发明使用Gabor滤波器对原图整体提取出纹理,图像灰度范围是0到255,如图4所示,处理之前,表皮纹理丰富,特别是横纹明显,特征各异,难以保证算法是对血管进行匹配,处理之后表皮纹理消失,同时滤除了大量噪声,图像变得平滑;
3)训练SsBMNet,过程如下:将滤波后的血管图像对输入步骤1构建的无损血管三维测量模型,得到左、右视差后,与原左右图像翘曲形成重建图像,即左视差与右参考图重建出右重建图、右视差与左参考图重建出左重建图,同时约束左、右视差图的目的是形成左右一致性约束。为了缩小重建图像和参考图像的差距,利用反向传播算法更新无损血管三维测量模型网络参数,直至损失函数值变化量小于设定阈值,得到训练好的模型参数;
由于Adam方法端到端训练(β1=0.9,β2=0.999),且网络中不需要使用任何数据增广的方式,本发明反向传播算法采用Adam方法进行模型训练,其损失函数定义如下:
Figure BDA0002322902590000061
其中,lossL1表示重建图与真实图的最小绝对值误差,lossSSIM表示重建图与真实图的结构相似性误差,lossL1'表示重建图与真实图的一阶梯度误差,lossConsistence表示预测视差图间的左右一致性损失函数,losssmooth使用SsSMNet中的平滑正则化函数,lossperceptual表示感知损失函数。
lossperceptual表示感知损失函数是本发明新增加的损失函数,用于提升重建图像的细节生成,提高预测视差质量。本发明使用VGG-16作为感知损失函数的具体实现,如图5所示,构建感知损失函数时,先将重建图像与参考图像分别送入VGG-16,然后将第13层输出的两个特征进行均方根误差比对,形成感知损失函数,公式定义如下:
Figure BDA0002322902590000071
其中f,f'分别是参考图像和重建图像经过VGG16得到的特征,lossperceptual为计算所得感知损失lossperceptual
步骤3、测试过程与训练过程相同,首先采集待成像的血管图像对,进行基线校正和滤波,然后将预处理后的图像对输入到训练好的无损血管三维测量模型,得到左视差图和右视差图;
步骤4,根据双目相机间的基线距离以及相机焦距,将待成像血管对应的视差图转换为深度图,左视差和右视差是等价的,因此本发明中选取左视差用于深度换算;
测量的双目相机间的基线距离b、相机焦距f与深度Ddepth的关系为:
Ddepth=bf/d (3)
其中深度Ddepth即为所要测量的相机到达血管距离,即三维深度,d表示左视差,右视图类似。
实施例
为了验证本发明方案的有效性,下面基于采集的真实血管数据集,Kitti Stereo2012,Kitti Stereo 2015进行如下仿真实验。Kitti Stereo 2012、Kitti Stereo 2015两个数据集用于定量的测试模型算法的有效性,同时给出与其他算法的定量结果对比,真实血管数据集给出定性效果。为了血管三维测量模型的训练,使用NVIDIARTX2080Ti 11GBGPU进行加速。
本实施例中网络模型是在Pytorch中实现的,所有训练过程使用Adam方法端到端训练(β1=0.9,β2=0.999),网络中没有使用任何数据增广的方式。所有的模型初始化学习率为1e-3,5000次迭代后学习率为1e-4。将BatchSize设置为2,在真实血管训练过程中,图像被resize成H=256,W=512,最大视差(D)范围设置为160。对于KITTI,图像随机从原图中裁剪出H=256,W=512的尺寸,最大视差(D)范围设置为160。
由于真实血管三维无法获取标记,难以验证,本发明在公共数据集Kitti Stereo2012,Kitti Stereo 2015上验证SsBMNet的模型性能,对比结果如表3,4所示,表中统计了本发明模型和当前已有模型的性能指标。表3和表4中Out-noc表示非遮挡域错误率;Out-all表示全区域错误率;Avg-noc表示非遮挡域绝对平均误差;Avg-all表示全区域绝对平均误差;D1-bg表示背景域错误率;D1-fg表示前景域错误率;D1-all表示全区域错误率。
表3:KITTI 2012 Stereo实验结果
Figure BDA0002322902590000081
表4:KITTI 2015 Stereo实验结果
Figure BDA0002322902590000082
可以看到,本发明在KITTI2012和KITTI2015数据集上均取得了非常优异的结果。在3像素误差上,本发明模型SsBMNet性能明显超过了传统算法模型。SsBMNet在KITTI2015上D1-all是3.39%,比SsSMNet错误率低0.01%;D1-fg是6.62%,比SsSMNet低0.3%;SsBMNet在KITTI2012上Out-noc是2.25%,比SsSMNet低0.05%。在公共区域和前景复杂物体匹配情况下,达到自监督最好水平,同时模型性能甚至超过了一些监督算法。
图6为本发明算法在KITTI-2012和其他算法的效果对比图,自上而下依次是左参考图、本发明模型输出的定性结果图、本发明模型的误差图、对标算法SsSMNet的定性结果图和其对应误差图(每一行的三张图片为三张测试图像)。可以看出本发明模型在汽车车窗不容易出现空洞现象、在围墙边缘的棱角更加分明。
图7为本发明的算法在KITTI-2015和其他算法的效果对比定性图,自上而下依次是左参考图、本发明模型输出的定性结果图、本发明模型的误差图、SsSMNet模型的定性结果图和其对应误差图(每一行的三张图片为三张测试图像),可以发现本发明的模型在前景物体如电线杆、树干和公告牌的视差处理平滑。
如图8所示,是真实血管经过本发明模型输出的定性视差效果图,视差图的质量间接体现深度生成的质量。图中自上而下是左参考图(整个手背图像)、本发明模型输出的整体定性结果图、血管的分离Mask图和血管处视差图(每一行的三张图片为三张测试图像),可以看到在分离出的血管处,本发明模型生成的视差是平滑且有跨度的,即换算处的血管深度是平滑连续的。

Claims (8)

1.基于自监督深度网络的无损血管三维测量方法,其特征在于,具体步骤如下:
步骤1,基于视差预测网络SsBMNet,构建自监督深度网络的无损血管三维测量模型;
步骤2,搭建双目血管三维成像***,采集真实血管图像数据,预处理后训练无损血管三维测量模型;
步骤3、采集待成像的血管图像对,预处理后输入训练好的无损血管三维测量模型,得到左视差图和右视差图;
步骤4、根据双目相机间的基线距离以及相机焦距,将待成像血管对应的左视差图或右视差图转换为深度图。
2.根据权利要求1所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,步骤1中,构建的无损血管三维测量模型包括2D-CNN特征提取层、CostVolume代价卷、3D-CNN卷积和SoftArgmin回归四个模块,所述特征提取层用于对输入数据进行二维卷积,得到左右深层特征图;所述代价卷用于将左右特征图有序堆叠形成四维代价卷;所述三维卷积和回归用于对代价卷进行三维卷积,并回归输出预测视差,包括左视差图和右视差图,从而换算出深度。
3.根据权利要求1所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,步骤2中,搭建的双目血管三维成像***,包括850nm的LED光源、多光谱滤光双目basler相机、投影仪和计算卡TX2,850nm波段的LED光源照射待成像区域,被照区域反射光通过带有850nm窄带滤光片的双目basler相机,通过触发信号同时采集左右数据,形成血管图像对。
4.根据权利要求1所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,步骤2中,对图像预处理的过程为:先对采集的血管图像对进行基线校正,即利用张正友标定法对图像对进行极线矫正,归一化到0到1;然后对经过基线校正的图像样本进行滤波。
5.根据权利要求4所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,使用Gabor滤波器进行滤波。
6.根据权利要求1所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,步骤2中,训练无损血管三维测量模型的具体过程为:将血管图像对输入构建的无损血管三维测量模型,得到左、右视差后,与原左右图像翘曲形成重建图像,即左视差与右参考图重建出右重建图、右视差与左参考图重建出左重建图,利用反向传播算法更新无损血管三维测量模型网络参数,直至损失函数值变化量小于设定阈值,得到重建图像和参考图像差距满足要求的模型参数,即完成训练。
7.根据权利要求6所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,反向传播算法采用Adam方法进行模型训练,其损失函数定义如下:
Figure FDA0002322902580000021
其中,lossL1表示重建图与真实图的最小绝对值误差,lossSSIM表示重建图与真实图的结构相似性误差,lossL1'表示重建图与真实图的一阶梯度误差,lossConsistence表示预测视差图间的左右一致性损失函数,losssmooth使用SsSMNet中的平滑正则化函数,lossperceptual表示感知损失函数,使用VGG-16作为感知损失函数的具体实现,构建时,先将重建图像与参考图像分别送入VGG-16,然后将第13层输出的两个特征进行均方根误差比对,形成感知损失函数如下:
Figure FDA0002322902580000022
其中f,f'分别是参考图像和重建图像经过VGG16得到的特征,lossperceptual为计算所得感知损失lossperceptual
8.根据权利要求1所述的基于自监督深度网络的无损血管三维测量方法,其特征在于,步骤4中,选取左视差用于深度换算,双目相机间的基线距离b、相机焦距f与深度Ddepth的关系为:
Ddepth=bf/d (3)
其中深度Ddepth即为所要测量的相机到达血管距离,即三维深度,d表示左视差。
CN201911305254.3A 2019-12-17 2019-12-17 基于自监督深度网络的无损血管三维测量方法 Active CN111192238B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911305254.3A CN111192238B (zh) 2019-12-17 2019-12-17 基于自监督深度网络的无损血管三维测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911305254.3A CN111192238B (zh) 2019-12-17 2019-12-17 基于自监督深度网络的无损血管三维测量方法

Publications (2)

Publication Number Publication Date
CN111192238A true CN111192238A (zh) 2020-05-22
CN111192238B CN111192238B (zh) 2022-09-20

Family

ID=70709824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911305254.3A Active CN111192238B (zh) 2019-12-17 2019-12-17 基于自监督深度网络的无损血管三维测量方法

Country Status (1)

Country Link
CN (1) CN111192238B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115115689A (zh) * 2022-06-08 2022-09-27 华侨大学 一种多波段光谱的深度估计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201615470D0 (en) * 2016-09-12 2016-10-26 Ucl Business Plc Predicting depth from image data using a statistical model
CN109191515A (zh) * 2018-07-25 2019-01-11 北京市商汤科技开发有限公司 一种图像视差估计方法及装置、存储介质
CN110443843A (zh) * 2019-07-29 2019-11-12 东北大学 一种基于生成对抗网络的无监督单目深度估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201615470D0 (en) * 2016-09-12 2016-10-26 Ucl Business Plc Predicting depth from image data using a statistical model
CN109191515A (zh) * 2018-07-25 2019-01-11 北京市商汤科技开发有限公司 一种图像视差估计方法及装置、存储介质
CN110443843A (zh) * 2019-07-29 2019-11-12 东北大学 一种基于生成对抗网络的无监督单目深度估计方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115115689A (zh) * 2022-06-08 2022-09-27 华侨大学 一种多波段光谱的深度估计方法

Also Published As

Publication number Publication date
CN111192238B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
Zhou et al. Underwater vision enhancement technologies: A comprehensive review, challenges, and recent trends
CN104867135B (zh) 一种基于指导图像引导的高精度立体匹配方法
CN111462206B (zh) 一种基于卷积神经网络的单目结构光深度成像方法
CN108399611B (zh) 基于梯度正则化的多聚焦图像融合方法
CN112733950A (zh) 一种基于图像融合与目标检测结合的电力设备故障诊断方法
CN106228528B (zh) 一种基于决策图与稀疏表示的多聚焦图像融合方法
CN108734776A (zh) 一种基于散斑的三维人脸重建方法及设备
CN107179322A (zh) 一种基于双目视觉的桥梁底面裂缝检测方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN112884682B (zh) 一种基于匹配与融合的立体图像颜色校正方法及***
CN111179189B (zh) 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质
CN109255358B (zh) 一种基于视觉显著性和深度图的3d图像质量评价方法
CN107767358B (zh) 一种图像中物体模糊度确定方法和装置
CN108010075B (zh) 一种基于多特征联合的局部立体匹配方法
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN103996202A (zh) 一种基于混合匹配代价和自适应窗口的立体匹配方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN110070574A (zh) 一种基于改进PSMNet的双目视觉立体匹配算法
CN110021043A (zh) 一种基于立体匹配和置信度传播的场景深度获取方法
CN108830856A (zh) 一种基于时间序列sd-oct视网膜图像的ga自动分割方法
CN112669249A (zh) 结合改进nsct变换和深度学习的红外与可见光图像融合方法
CN116071424A (zh) 基于单目视觉的果实空间坐标定位方法
JP6285686B2 (ja) 視差画像生成装置
CN113724308B (zh) 基于光度与对比度互注意力的跨波段立体匹配算法
CN110533663B (zh) 一种图像视差确定方法、装置、设备及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant