CN112862687A - 一种基于二维特征点的双目内窥图像三维拼接方法 - Google Patents

一种基于二维特征点的双目内窥图像三维拼接方法 Download PDF

Info

Publication number
CN112862687A
CN112862687A CN202110204642.3A CN202110204642A CN112862687A CN 112862687 A CN112862687 A CN 112862687A CN 202110204642 A CN202110204642 A CN 202110204642A CN 112862687 A CN112862687 A CN 112862687A
Authority
CN
China
Prior art keywords
point cloud
dimensional
binocular
matching
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110204642.3A
Other languages
English (en)
Other versions
CN112862687B (zh
Inventor
王立强
周长江
杨青
袁波
余浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Zhejiang Lab
Original Assignee
Zhejiang University ZJU
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU, Zhejiang Lab filed Critical Zhejiang University ZJU
Priority to CN202110204642.3A priority Critical patent/CN112862687B/zh
Publication of CN112862687A publication Critical patent/CN112862687A/zh
Application granted granted Critical
Publication of CN112862687B publication Critical patent/CN112862687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于二维特征点的双目内窥图像三维拼接方法,该方法包括点云生成、点云预处理、二维特征点匹配、点云配准等步骤,移动双目内窥镜获取各视角的左右图序列后,通过SGBM(Semi‑global block matching)进行双目匹配生成点云,并进行离群点剔除和降采样等预处理,对相邻左视图采用SURF(Speeded Up Robust Features)算法进行二维特征匹配,计算两个视点偏移量,改变初始矩阵平移矩阵,通过ICP(Iterative Closest Point)算法对点云进行配准和拼接,本方法实现了对纹理特征不明显的内窥图像的三维重建,扩大了视场,同时利用双目图像获得稠密点云,重建精度高,能更好地协助医生手术操作。

Description

一种基于二维特征点的双目内窥图像三维拼接方法
技术领域
本发明涉及内窥镜技术领域,具体涉及一种基于二维特征点的双目内窥图像三维拼接方法。
背景技术
内窥镜能够帮助医生观察到胃肠道中的真实场景,在临床诊断和治疗上具有广泛的应用。双目内窥镜能够提供三维信息,辅助医生进行深度感知,从而提高手术效率和安全性。为了给内窥镜医师提供准确的三维信息,国内外研究人员尝试对内窥镜图像进行三维重建以获得目标表面的三维形态。
常见的三维重建方法如SfS(阴影恢复结构),只能对单个视场进行重建,视野的局限性将会影响医生的观察,容易造成误差。虽然SLAM(同时定位与地图构建)和SfM(运动恢复结构)等方法也能扩大视场,但由于此类方法只能进行稀疏重建,生成的稀疏点云精度较差,无法满足三维重建细节观察的要求。
点云配准是立体视觉三维重建常用的方法,如随机一致性采样(RANSAC)是根据提取点云三维特征进行匹配的算法,胃肠道在正常情况下表面较为光滑,其纹理特征不足以通过RANSAC进行特征匹配。目前应用最为广泛的点云配准方法——ICP,通过不断地重复搜索以获取最优的变换矩阵。虽然其容易理解、拼接效果理想,但过于依赖初始矩阵,不仅容易陷入局部最优解,而且需要巨大的计算资源。
发明内容
针对现有技术的不足,本发明提出了一种基于二维特征点的双目内窥图像三维拼接方法,实现对整个胃器官的稠密三维重建。
一种基于二维特征点的双目内窥图像三维拼接方法,该方法通过左右视图双目匹配生成点云,并进行预处理;计算左视图序列相邻位点的二维特征点偏移量作为点云配准的初始变换矩阵平移向量,从而实现内窥图像的三维拼接,该方法具体包括如下步骤:
S1.内窥镜左右视图序列获取:即移动双目内窥镜的镜头,拍摄目标器官左右视图序列;
S2.点云生成:即使用SGBM算法对左右视图进行双目匹配生成视差图,通过自适应阈值对视差图进行迭代均值插值,去除空洞,根据视差图生成相应的点云;
S3.点云预处理:即对初始点云进行离群点剔除、点云分割、降采样预处理操作;
S4.相邻左视图二维特征匹配:即对左视图序列相邻位点进行SURF二维特征匹配,根据匹配点在相邻两位点的平均变化值作为偏移量并生成变换矩阵;
S5.点云配准:即以二维特征匹配生成的变换矩阵作为点云序列的初始变化矩阵,进行ICP的配准。
作为优选,所述的步骤S2具体为:
对左视图和右视图通过SGBM算法进行双目匹配;
将视差值从小到大排列,设定前10%处值为阈值,即小于此视差值的点为空洞;
对于空洞,计算其周围3*3矩阵的平均值作为其新的视差值;
迭代上述操作。
作为优选,所述的步骤S3具体为:
采用半径式离群点剔除法,剔除初始点云中固定半径的球体范围内几乎没有邻域点的点;
通过点云分割截取Z值在固定范围内的点云区域,剔除因光照等原因产生的大片空洞;
通过体素降采样对去空洞的点云进行降采样操作。
作为优选,所述的步骤S4具体为:
通过SURF对左视图序列相邻位点进行二维特征匹配;
计算所有特征匹配点对在X和Y方向上偏移的平均距离;
在变换矩阵中,通过对平移向量
Figure BDA0002949874820000021
表示X和Y方向变换的tx和ty赋相应的值生成初始变换矩阵;
设置阈值为体素尺寸的15倍,使用该初始矩阵进行相邻点云的ICP粗配准;
设置阈值为体素尺寸的1.5倍,使用粗配准得到的变换矩阵作为初始变换矩阵,进行相邻点云的ICP精配准。
本发明对具有弱纹理的胃器官内窥图像进行三维拼接,实现了整个胃器官的三维拼接,扩大了视场;双目内窥镜生成的稠密点云精确度高,能辅助医生进行观察和手术操作。
附图说明
图1是本发明实施例的基于二维特征点的双目内窥图像三维拼接方法的流程图;
图2是本发明实施例的初始点云结果图;
图3是本发明实施例的相邻图像序列特征点匹配结果图;
图4是本发明实施例的多点云拼接结果图。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的基于二维特征点的双目内窥图像三维拼接方法,通过双目内窥镜获取左右图像,通过三维拼接实现器官主要区域的三维重建,如图1所示,该方法具体包括如下步骤:
S1:内窥镜左右视图序列获取
完成双目内窥镜***的搭建,并对双目相机进行标定。
本实施例采用张正友棋盘格标定法计算双目相机内部参数和外部参数。使用棋盘格为9*6、方格边长为12mm的黑白棋盘格作为标定板,在双目内窥镜工作距离的范围内拍摄了15组不同位姿的标定板双目图像,利用OpenCV库对拍摄双目图像实现标定。
将胃模型放置在双目内窥镜工作距离范围内,并将双目内窥镜对准胃模型局部作为移动起点,通过内窥镜手柄控制双目内窥镜缓慢移动扫视胃模型,并以固定运动间隔拍摄胃模型获取左右图像序列,扫视胃模型全部区域后结束移动。本实施例拍摄的图像分辨率为1920*800。
S2:点云生成
通过SGBM进行双目匹配,得到各位点的点云。
本实施例使用SGBM算法对所有左右图像对进行双目匹配,获得与左视图对应的视差图结果,将视差值从小到大排列,前10%处值为阈值,即小于此视差值的空洞。对于空洞,计算其周围3*3矩阵的平均值作为其新的视差值。迭代上述操作。
根据双目相机参数由视差结果计算出每一点在相机坐标系下的三维坐标值并使用Open3D由三维坐标结果获取初始点云。生成的点云如图2所示。
S3:点云预处理
对初始点云进行空洞填充及剔除。首先使用半径式离群点剔除法,删除初始点云中固定半径的球体范围内几乎没有邻域点的点。该处理会剔除误匹配点。然后通过点云分割截取Z值在固定范围内的点云区域,剔除因光照等原因产生的大片空洞,得到用于拼接的有效点云。最后对点云进行体素降采样操作,设置voxel参数为5。
S4:相邻左视图二维特征匹配
采用SURF对左视图序列相邻位点进行二维特征提取,具体流程为:
首先构建黑塞矩阵,生成所有的兴趣点用于特征的提取。然后构建尺度空间。
接下来进行特征点定位、生成描述子。将经过黑塞矩阵处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位出关键点,然后滤除能量比较弱的关键点以及错误定位的关键点,最终筛选出稳定的特征点。采用统计特征点圆形邻域内的harr小波特征对特征点进行主方向分配。在沿着特征点主方向的周围取一个4*4的矩形区域块,每个区域块包含4个特征向量,得到64维的特征描述子,最后进行特征点匹配。二维特征匹配如图3所示。
S5:点云配准
相邻图像序列前一位点对应的点云作为源点云,后一位点对应的点云作为目标点云,通过二维特征匹配的结果生成初始变换矩阵。三维变换矩阵主要分为以下几个功能分块:三维线性变换部分、三维平移变换部分、透视变换部分和整体比例因子。由于是相邻两位点,点云在X和Y方向上的变换大小远大于Z方向和旋转矩阵变化量。根据所有匹配点在相邻左视图视场中的位置变化,计算出X和Y方向上偏移量的平均值,通过对平移向量
Figure BDA0002949874820000041
表示X和Y方向变换的tx和ty赋相应的值生成初始变换矩阵,作为三维变换矩阵对应位置的初值。
ICP算法近似将距离最近的两点认为是同一点,对于给定的两片点云P和Q,其初始位置关系是[R0|t0]。选取在初始位姿关系中点云P的任意一点pi和点云Q中的最近点qi作为匹配点对,从而建立误差函数,通过使误差函数达到最小值从而求得R和t的最佳值,该过程即为迭代中的一轮。通过求得的R和t组合成新的位置关系[R1|t1],更新点云的位置关系,继续重复上述过程最后实现误差函数收敛或达到迭代次数的上限这两个条件之一。
对于第i对点其误差可表示为:
ei=pi-(Rpi′+t) (1)
因此为了利用最小二乘法,误差函数可以表示为:
Figure BDA0002949874820000042
先设置较大阈值,使用二维特征匹配计算得到的矩阵作为初始变换矩阵进行粗配准;再设置较小阈值,用粗配准得到的变换矩阵作为初始变换矩阵,实现点云精配准,保证点云有较好配准结果的前提下提高计算效率。改进传统ICP每次迭代在对位姿的求解过程中使用point-to-plane度量对应点之间的误差。最后得到姿态图,即点云节点和包含着将点云配准的变换矩阵的边,对点云进行相应的变换即可实现点云的三维拼接。三维拼接结果如图4所示。

Claims (4)

1.一种基于二维特征点的双目内窥图像三维拼接方法,其特征在于:该方法通过左右视图双目匹配生成点云,并进行预处理;计算左视图序列相邻位点的二维特征点偏移量作为点云配准的初始变换矩阵平移向量,从而实现内窥图像的三维拼接,该方法具体包括如下步骤:
S1.内窥镜左右视图序列获取:即移动双目内窥镜的镜头,拍摄目标器官左右视图序列;
S2.点云生成:即使用SGBM算法对左右视图进行双目匹配生成视差图,通过自适应阈值对视差图进行迭代均值插值,去除空洞,根据视差图生成相应的点云;
S3.点云预处理:即对初始点云进行离群点剔除、点云分割、降采样预处理操作;
S4.相邻左视图二维特征匹配:即对左视图序列相邻位点进行SURF二维特征匹配,根据匹配点在相邻两位点的平均变化值作为偏移量并生成变换矩阵;
S5.点云配准:即以二维特征匹配生成的变换矩阵作为点云序列的初始变化矩阵,进行ICP的配准。
2.根据权利要求1所述的基于二维特征点的双目内窥图像三维拼接方法,其特征在于,所述的步骤S2具体为:
对左视图和右视图通过SGBM算法进行双目匹配;
将视差值从小到大排列,设定前10%处值为阈值,即小于此视差值的点为空洞;
对于空洞,计算其周围3*3矩阵的平均值作为其新的视差值;
迭代上述操作。
3.根据权利要求1所述的基于二维特征点的双目内窥图像三维拼接方法,其特征在于,所述的步骤S3具体为:
采用半径式离群点剔除法,剔除初始点云中固定半径的球体范围内几乎没有邻域点的点;
通过点云分割截取Z值在固定范围内的点云区域,剔除因光照原因产生的大片空洞;
通过体素降采样对去空洞的点云进行降采样操作。
4.根据权利要求1所述的基于二维特征点的双目内窥图像三维拼接方法,其特征在于,所述的步骤S4具体为:
通过SURF对左视图序列相邻位点进行二维特征匹配;
计算所有特征匹配点对在X和Y方向上偏移的平均距离;
在变换矩阵中,通过对平移向量 T=
Figure DEST_PATH_IMAGE001
表示X和Y方向变换的 tx和ty赋相应的值生成初始变换矩阵;
设置阈值为体素尺寸的15倍,使用该初始矩阵进行相邻点云的ICP粗配准;
设置阈值为体素尺寸的1.5倍,使用粗配准得到的变换矩阵作为初始变换矩阵,进行相邻点云的ICP精配准。
CN202110204642.3A 2021-02-24 2021-02-24 一种基于二维特征点的双目内窥图像三维拼接方法 Active CN112862687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110204642.3A CN112862687B (zh) 2021-02-24 2021-02-24 一种基于二维特征点的双目内窥图像三维拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110204642.3A CN112862687B (zh) 2021-02-24 2021-02-24 一种基于二维特征点的双目内窥图像三维拼接方法

Publications (2)

Publication Number Publication Date
CN112862687A true CN112862687A (zh) 2021-05-28
CN112862687B CN112862687B (zh) 2023-10-31

Family

ID=75990589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110204642.3A Active CN112862687B (zh) 2021-02-24 2021-02-24 一种基于二维特征点的双目内窥图像三维拼接方法

Country Status (1)

Country Link
CN (1) CN112862687B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538540A (zh) * 2021-08-24 2021-10-22 北京理工大学 医用内窥镜连续帧图像特征点匹配方法及装置
CN115919461A (zh) * 2022-12-12 2023-04-07 之江实验室 一种基于slam的手术导航方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767442A (zh) * 2017-10-16 2018-03-06 浙江工业大学 一种基于Kinect和双目视觉的脚型三维重建与测量方法
WO2018095278A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 飞行器的信息获取方法、装置及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018095278A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 飞行器的信息获取方法、装置及设备
CN107767442A (zh) * 2017-10-16 2018-03-06 浙江工业大学 一种基于Kinect和双目视觉的脚型三维重建与测量方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭清达;全燕鸣;姜长城;陈健武;: "应用摄像机位姿估计的点云初始配准", 光学精密工程, no. 06 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538540A (zh) * 2021-08-24 2021-10-22 北京理工大学 医用内窥镜连续帧图像特征点匹配方法及装置
CN115919461A (zh) * 2022-12-12 2023-04-07 之江实验室 一种基于slam的手术导航方法
CN115919461B (zh) * 2022-12-12 2023-08-08 之江实验室 一种基于slam的手术导航方法

Also Published As

Publication number Publication date
CN112862687B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN110288642B (zh) 基于相机阵列的三维物体快速重建方法
CN110363858B (zh) 一种三维人脸重建方法及***
CN107977997B (zh) 一种结合激光雷达三维点云数据的相机自标定方法
CN113178009B (zh) 一种利用点云分割和网格修补的室内三维重建方法
CN103971378B (zh) 一种混合视觉***中全景图像的三维重建方法
CN109461180A (zh) 一种基于深度学习的三维场景重建方法
CN106023303B (zh) 一种基于轮廓有效性提高三维重建点云稠密程度的方法
Zou et al. A method of stereo vision matching based on OpenCV
CN112967330B (zh) 一种结合SfM和双目匹配的内窥图像三维重建方法
CN112862687B (zh) 一种基于二维特征点的双目内窥图像三维拼接方法
CN111028295A (zh) 一种基于编码结构光和双目的3d成像方法
CN112991464B (zh) 基于立体视觉的三维重建的点云误差补偿方法及***
CN112132876B (zh) 2d-3d图像配准中的初始位姿估计方法
CN109242951A (zh) 一种脸部实时三维重建方法
CN113160335A (zh) 一种基于双目视觉的模型点云及三维表面重建方法
CN113450416B (zh) 一种应用于三目相机立体标定的tcsc方法
CN111612731A (zh) 基于双目显微视觉的测量方法、装置、***及介质
CN111429571B (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
CN117197333A (zh) 基于多目视觉的空间目标重构与位姿估计方法及***
CN110378967B (zh) 一种光栅投射与立体视觉结合的虚拟靶标标定方法
Liu et al. Research on 3D reconstruction method based on laser rotation scanning
CN112261399B (zh) 胶囊内窥镜图像三维重建方法、电子设备及可读存储介质
Ling et al. A dense 3D reconstruction approach from uncalibrated video sequences
CN101996415A (zh) 眼球的三维建模方法
CN112381721A (zh) 一种基于双目视觉的人脸三维重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant