CN111709985B - 一种基于双目视觉的水下目标测距方法 - Google Patents
一种基于双目视觉的水下目标测距方法 Download PDFInfo
- Publication number
- CN111709985B CN111709985B CN202010525569.5A CN202010525569A CN111709985B CN 111709985 B CN111709985 B CN 111709985B CN 202010525569 A CN202010525569 A CN 202010525569A CN 111709985 B CN111709985 B CN 111709985B
- Authority
- CN
- China
- Prior art keywords
- image
- corner
- underwater
- point
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000003384 imaging method Methods 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 238000011524 similarity measure Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 238000003702 image correction Methods 0.000 abstract description 4
- 239000013598 vector Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 239000002775 capsule Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明公开了一种基于双目视觉的水下目标测距方法,属于计算机视觉领域,该方法包括以下步骤:采用改进的水下标定算法,进行相机的标定,得到相机的内外参数,获得水下目标校正后的双目图像,利用校正后的双目图像进行立体匹配获取图像视差,利用获取的图像视差通过相似三角形原理解算得到角点深度,完成水下目标的距离测试,该方法在空气双目测距的算法基础上,结合相机的水下成像模型,更加全面的考虑了水下因素对相机标定的影响,添加了折射率等因素,增强了相机在水下工作时的图像校正能力,采用改进的Harris角点检测算法,可减缓水下图像角点的聚簇现象,并且避免了算法中阈值的选择,减少误匹配点,提高了图像匹配的正确率与精度。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于双目视觉的水下目标测距方法。
背景技术
陆地双目视觉***和水下双目视觉***的最大区别在光线的传播介质发生了变化,陆上的摄像机和拍摄物体均处于空气中,而水下成像过程中,拍摄物***于水下,而两个平行放置的摄像机必须处在空气中,摄像机的光轴垂直于分界面,并且二者平行放置,中间用透明的防水玻璃罩分割,光线在传播的过程中会在不同介质的分界面发生折射现象,影响着标定内外参数的精度。因此后续的建模以及实验要考虑折射现象对成像的影响因素。
针对水下成像变形的问题,采用适用于水下的成像模型,根据空气中的三角测量法,确定水下模型中的三维空间点之间的对应关系,以适用于水下标定的要求;针对水下检测角点聚簇现象,导致所获图像视差精度低的问题,提出改进的Harris角点提取方法,使用归一化互相关NCC方法进行匹配操作,获取粗略匹配对,通过聚类筛选,获得较高精度的匹配结果,得到高精度视差图,进而解算的图像深度。
双目立体视觉***主要分为双目图像获取、双目图像标定、立体校正、立体匹配和三维重建五大环节。其中,图像标定与立体匹配是双目立体视觉***获取图像深度信息的关键技术,决定着深度信息恢复的精度。空气中的标定模型已趋于完善,但是针对水下环境还没有固定的标定方法与模型。目前水下双目测距方法大多沿用空气中的双目算法,并未结合水下成像问题对算法进行改善。因此,针对水下成像的特点改善成像变形问题成为水下目标测距的重点研究对象。
发明内容
根据现有技术存在的问题,本发明公开了一种基于双目视觉的水下目标测距方法,包括以下步骤:
S1:采用改进的水下标定算法,进行相机的标定,得到相机的内外参数,获得水下目标校正后的双目图像;
S2:利用校正后的双目图像进行立体匹配获取图像视差;
S3:利用获取的图像视差通过相似三角形原理解算得到角点深度,完成水下目标的距离测试。
进一步地:所述利用校正后的双目图像进行立体匹配获取图像视差包括以下步骤:
S2-1:采用改进的Harris角点检测算法进行双目图像的角点特征检测;
S2-2:使用相似性测度NCC方法来对双目图像进行粗匹配,获得多个角点对,所述多个角点对构成匹配点集,所述角点对连接构成多条直线;
S2-3:使用聚类方法,将斜率值数量最多的直线所对应的角点对构建为数据组,对数据组内角点采用RANSAC运算进行细匹配,得到匹配点集的最终匹配结果,即获取匹配后的图像视差。
进一步地:所述改进的Harris角点检测算法进行双目图像的角点特征检测包括以下步骤:
S2-1-1:对校正后双目图像进行分块,对分块后的每个整幅图像中每个像素点进行角点提取操作,获取矩阵M,利用特征值计算出每块像素的R值,剔除掉R<0的点;
S2-2-2:将检测出的角点按照R值大小顺序保存在各自图像块所在的数组Si(Ni)中,其中Ni为第i个图像块中检测出的角点的数目,得到每块图像中的所有角点;
S2-2-3:挑选包含角点数目最少的图像块,以该数目为基准,通过R值将其他图像块的角点筛选到该数目,将最后筛选出的点作为最终被检测出的角点。
进一步地,所述改进的水下标定算法模型如下:
其中,n0=nair/nwater为空气与水的相对折射率,M为包含相机旋转平移参数的矩阵,A为相机内部参数矩阵,k为坐标转换参数,r为折射点与成像点之间的距离,f为焦距,d为相机光心到空气与水分界面的距离,(u,v)T为水下目标点在像素坐标系下的坐标,(xu,yu)T为水下目标在图像坐标系下的坐标,(xw,yw,zw)T为水下目标点在世界坐标系下的坐标。
由于采用了上述技术方案,本发明提供的一种基于双目视觉的水下目标测距方法,在空气双目测距的算法基础上,结合相机的水下成像模型,更加全面的考虑了水下因素对相机标定的影响,添加了折射率等因素,增强了相机在水下工作时的图像校正能力,采用改进的Harris角点检测算法,可减缓水下图像角点的聚簇现象,并且避免了算法中阈值的选择,减少误匹配点,提高了图像匹配的正确率与精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为四大坐标系示意图;
图2为摄像机坐标透视原理图;
图3为水下相机成像模型图;
图4为双目测距原理图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
S1:采用改进的水下标定算法,进行相机的标定,得到相机的内外参数,获得水下目标校正后的双目图像;
首先结合空气中的相机成像模型,利用标定方法将像素坐标系下的坐标恢复到三维立体实际场景需要四个坐标系,分别是像素坐标系(PCS),图像坐标系(ICS),相机坐标系(CCS)以及世界坐标系(WCS),图1为四大坐标系示意图,其中,像素坐标系以图像左上角位置Op为原点,以Op为交点的相邻两边为横轴和纵轴,坐标(u,v)则代表该像素在对应存储矩阵中的行数和列数,像素坐标系以像素为单位来表征点在图片中的位置,但在实际应用中,这样并不能准确的对点进行定位,因而引入了以微米为单位的图像坐标系。
图2为摄像机坐标透视原理图;图像坐标系以图2中的Oi(u0,v0)为原点,设每一个像素点在图像坐标轴方向上的长度分别为dx,dy,则图像坐标系下每个元素的位置与像素坐标系之间的关系为;
在相机坐标系中,Oc为成像设备的光心,zc为成像设备的光轴,其方向与成像平面垂直,f=OcOi为焦距,图3为水下相机成像模型图。利用投射投影原理,相机坐标系与图像坐标系之间的关系可描述为:
由于成像设备可以根据不同的需要放置在不同的位置,为便于说明目标在空间中的位置所在,需要制定一个坐标系来描述成像设备的地理位置,世界坐标系由xw,yw,zw轴组成,WCS与CCS的变换关系能够用外部参数矩阵M表示,其中R是3×3的旋转矩阵,T是3×1的平移向量,
综上,摄像机模型由四大坐标系互相转换而成,世界坐标系与像素坐标系之间的关系可以表述为:
当相机在空气中成像时,通常采用上述模型进行相机的标定,消除图像径向畸变与切向畸变,实现双目图像的校正,再将由标定过程中获得的标定板各个角点的坐标带入上述方程,获得相机的内外参数。
考虑到搭载于水下机器人本体的相机通常安装在密封舱内,因此,忽略密闭舱玻璃的影响,将折射模型等价为一次由水进入空气的折射过程,图3为水下相机成像模型图,图中的θwater和θair分别表示入射光线和折射光线与折射法向量之间的夹角,(αωβωγω)和(αaβaγa)分别表示入射光线与折射光线的方向向量,(xr yr zr)表示入射光线与折射平面的交点坐标,d表示折射平面与相机中心即透镜中心的距离。f为相机的焦距。假设摄像机镜头光轴垂直于玻璃盖板,因此在摄像机坐标下,相机镜头光轴方向向量可以表示为(0,0,1)T,所以入射光线与折射光线方向向量之间的关系可以用以下式子来表示:
由snell定律和角度转换关系可以求得:
再由向量点积公式可以得到:
根据式(6)(7)得:
设[xu,yu]T为像素点在成像平面上的二维物理坐标,[xc,yc,zc]T为其在摄像机坐标系下的坐标,[xr,yr,zr]T为光线与折射平面交点的相机坐标。r为折射点与成像点间的光线长度,即入射光线方向向量与成像点坐标之间的关系为:
将水下目标的像机坐标与折射点的相机坐标关系式带入可得:
结合物体成像点图像坐标与实际物体世界坐标之间的转化关系,可以得到目标完整的水下成像模型:
S2:利用校正后的双目图像进行立体匹配获取图像视差;
采用Harris角点检测算法完成双目图像的特征检测,具体实施步骤如下:创建一个大小恒定的窗口,在经校正后的图像上自由滑动,比较滑动前后两种情况下图像的灰度变化,如果对于任何方向的滑动,该区域的灰度都有变化,则可以认为区域中含有角点,滑动前后对应的窗口像素点灰度变化描述如下:
E(u,v)=∑w(x,y)[I(x+u,y+u)-I(x,y)]2 (12)
其中[u,v]是窗口W的偏移量;w(x,y)是窗口函数,代表图像中每个部分的权值,本发明中使用常数来描述窗口函数;I(x,y)是像素在(x,y)位置的图像灰度值。
对式(12)进行泰勒一阶展开得:
其中Ix与Iy分别为像素点在(x,y)位置时x方向与y方向的梯度。
对协方差矩阵M进行对角化分析,可得出矩阵M的特征值可以作为评价角点是否的因素,因此,使用如下函数对图像角点进行度量:
其中λ1,λ2为矩阵M的两个特征值,k为经验参数,取值为0.05。
传统的Harris角点检测算法利用上述角点检测响应函数来衡量图像中的每个像素块,通过比较图像中每块区域的R值与阈值T,来选取一定量的角点,但水下拍摄到的图像特征点稀疏,且由于水下非均匀光源的影响,易导致角点聚簇现象。而且,图像角点的检测数量与阈值的选取关系密切,即阈值的选取一定程度上影响着立体匹配的效果。
本发明采用改进的Harris角点检测算法一方面避免角点聚簇情况的发生,另一方面,免除了阈值的选取,提高匹配精度。
改进的Harris角点检测算法,包括如下步骤:
在角点检测前首先对标定校正后的图像进行分块,之后对分块后的整幅图像中每个像素点进行角点提取操作,获取矩阵M,利用特征值计算出每块像素的R值,剔除掉R<0的点;
将检测出的角点按照R值大小顺序保存在各自图像块所在的数组Si(Ni)中,其中Ni为第i个图像块中检测出的角点的数目如此得到每块图像中的所有角点,R值较大的点为易检测点;
最后选取每块图像中的易检测点作为最终被检测出的角点,即在Ni个角点中选取ki×Ni个角点作为最终角点(k∈[0,1],且ki×Ni=Nmin,Nmin为角点数目最少值所对应的图像块中检测出的角点数,Nmin≥1);
解决角点聚簇的问题后,再加入临近点剔除策略:选用一个尺寸更小的固定窗口对整幅图像进行处理,仅保留窗口中R值最大的像素点,以完成剔除临近点的目的。
在得到标定校正后的左右两幅图像的角点后,下一步就要对提取出的角点进行粗匹配,找两幅图像角点之间的对应关系,这是自动配准的关键步骤,本发明使用相似性测度NCC方法来匹配角点,其原理为在校正后的图像内任意一个像素点构建一个匹配窗口,然后对于目标图像构建同样大小的窗口,对两个窗口进行相似性测度。NCC计算公式如式(16)所示
采用归一化NCC方法,对左右两幅图像上的像素点进行相似性测度,当测度值为-1时,表明两个窗口完全不相似;当测度值为1时,则表明两个窗口完全相同。通过设定阈值,淘汰掉相似度较低的角点对,寻找出左右两幅图像上所有可能对应的角点,完成角点的粗匹配;
相似性测度完成后,将分辨率相同的两幅图像经粗匹配后的图像置于同一坐标系中,用直线分别连接两幅图像中的匹配角点,计算出每条直线的斜率,使用聚类方法,将斜率值数量最多的直线所对应的角点对构建为数据组,对数据组内角点采用RANSAC运算进行细匹配,得到最新的匹配点集最为最终匹配结果,如此获得对应角点对的图像坐标。
S3:利用获取的图像视差通过相似三角形原理解算得到角点深度,完成水下目标的距离测试;
根据双目测距原理,如图4所示,P为待测物体上的某一点,Ol与Or分别为两个相机的光心,f为相机焦距,b为双目相机基线距离,P点成像坐标分别为(ul,vl)与(ur,vr)。根据相似三角形原理:
解算得到角点深度Z,如此获得任意一点P的三维坐标(X,Y,Z)。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (2)
1.一种基于双目视觉的水下目标测距方法,其特征在于:包括以下步骤:
S1:采用改进的水下标定算法,进行相机的标定,得到相机的内外参数,获得水下目标校正后的双目图像;
S2:利用校正后的双目图像进行立体匹配获取图像视差;
S3:利用获取的图像视差通过相似三角形原理解算得到角点深度,完成水下目标的距离测试;
所述利用校正后的双目图像进行立体匹配获取图像视差包括以下步骤:
S2-1:采用改进的Harris角点检测算法进行双目图像的角点特征检测;
S2-2:使用相似性测度NCC方法来对双目图像进行粗匹配,获得多个角点对,所述多个角点对构成匹配点集,所述角点对连接构成多条直线;
S2-3:使用聚类方法,将斜率值数量最多的直线所对应的角点对构建为数据组,对数据组内角点采用RANSAC运算进行细匹配,得到匹配点集的最终匹配结果;
所述改进的Harris角点检测算法进行双目图像的角点特征检测包括以下步骤:
S2-1-1:对校正后双目图像进行分块,对分块后的每个整幅图像中每个像素点进行角点提取操作,获取矩阵M,利用特征值计算出每块像素的R值,剔除掉R<0的点;
S2-2-2:将检测出的角点按照R值大小顺序保存在各自图像块所在的数组Si(Ni)中,其中Ni为第i个图像块中检测出的角点的数目,得到每块图像中的所有角点;
S2-2-3:挑选包含角点数目最少的图像块,以该数目为基准,通过R值将其他图像块的角点筛选到该数目,将最后筛选出的点作为最终被检测出的角点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010525569.5A CN111709985B (zh) | 2020-06-10 | 2020-06-10 | 一种基于双目视觉的水下目标测距方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010525569.5A CN111709985B (zh) | 2020-06-10 | 2020-06-10 | 一种基于双目视觉的水下目标测距方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111709985A CN111709985A (zh) | 2020-09-25 |
CN111709985B true CN111709985B (zh) | 2023-07-07 |
Family
ID=72539984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010525569.5A Active CN111709985B (zh) | 2020-06-10 | 2020-06-10 | 一种基于双目视觉的水下目标测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111709985B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112509065B (zh) * | 2020-12-28 | 2024-05-28 | 中国科学院合肥物质科学研究院 | 一种应用于深海机械臂作业的视觉引导的方法 |
CN113081270A (zh) * | 2021-03-09 | 2021-07-09 | 北京铸正机器人有限公司 | 一种机器人手术的末端夹持装置 |
CN113487679B (zh) * | 2021-06-29 | 2023-01-03 | 哈尔滨工程大学 | 激光打标机自动调焦***视觉测距信号处理方法 |
CN113538350B (zh) * | 2021-06-29 | 2022-10-04 | 河北深保投资发展有限公司 | 一种基于多摄像头识别基坑深度的方法 |
CN114429431B (zh) * | 2022-04-01 | 2022-06-21 | 西南科技大学 | 一种水下到空气中图像转化的辨识方法及*** |
CN115797459B (zh) * | 2022-08-29 | 2024-02-13 | 南京航空航天大学 | 一种任意焦距组合的双目视觉***测距方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉***及深度测量方法 |
CN109798877A (zh) * | 2019-02-20 | 2019-05-24 | 博雅工道(北京)机器人科技有限公司 | 一种仿生水下机器鱼双目立体测距方法 |
-
2020
- 2020-06-10 CN CN202010525569.5A patent/CN111709985B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉***及深度测量方法 |
CN109798877A (zh) * | 2019-02-20 | 2019-05-24 | 博雅工道(北京)机器人科技有限公司 | 一种仿生水下机器鱼双目立体测距方法 |
Non-Patent Citations (6)
Title |
---|
"Image Registration Algorithm Based on Parallax Constraint and Clustering Analysis";Zhe Wang 等;《Proceedings of 2017 2nd International Conference on Communication》;全文 * |
"Imaging method for airborne SAL data";Guangzuo Li 等;《Electronics Letters》;第53卷(第5期);全文 * |
"双目立体视觉测距技术研究";靳盼盼;《中国优秀硕士学位论文全文数据库 信息科技辑》;全文 * |
"双目视觉三维测量技术研究与应用";周科杰;《中国优秀硕士学位论文全文数据库 信息科技辑》;全文 * |
"基于模糊神经网络的无人水下航行器航迹跟踪控制";刘彦呈 等;《大连海事大学学报》;第42卷(第1期);全文 * |
"基于角点检测的双目视觉测距新方法";任继昌 等;《电光与控制》;第20卷(第7期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111709985A (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709985B (zh) | 一种基于双目视觉的水下目标测距方法 | |
CN105678742B (zh) | 一种水下相机标定方法 | |
CN110285793B (zh) | 一种基于双目立体视觉***的车辆智能测轨迹方法 | |
CN110969668B (zh) | 一种长焦双目相机的立体标定算法 | |
CN109916322B (zh) | 一种基于自适应窗口匹配的数字散斑全场形变测量方法 | |
CN101299270B (zh) | 三维扫描***中的多个摄像机同步快速标定方法 | |
CN108986070B (zh) | 一种基于高速视频测量的岩石裂缝扩展实验监测方法 | |
CN109767476A (zh) | 一种自动对焦双目摄像头标定及深度计算方法 | |
CN111192235B (zh) | 一种基于单目视觉模型和透视变换的图像测量方法 | |
CN109579695B (zh) | 一种基于异构立体视觉的零件测量方法 | |
CN110889829B (zh) | 一种基于鱼眼镜头的单目测距方法 | |
CN109859272A (zh) | 一种自动对焦双目摄像头标定方法及装置 | |
CN107589069B (zh) | 一种物体碰撞恢复系数的非接触式测量方法 | |
CN111915678B (zh) | 一种基于深度学习的水下单目视觉目标深度定位融合估计方法 | |
CN109341668B (zh) | 基于折射投影模型和光束追踪法的多相机测量方法 | |
CN110874854B (zh) | 一种基于小基线条件下的相机双目摄影测量方法 | |
CN109974618B (zh) | 多传感器视觉测量***的全局标定方法 | |
Tommaselli et al. | Calibration of panoramic cameras with coded targets and a 3D calibration field | |
CN113963067B (zh) | 一种采用小靶标对大视场视觉传感器进行标定的标定方法 | |
CN116625258A (zh) | 链条间距测量***及链条间距测量方法 | |
CN115359127A (zh) | 一种适用于多层介质环境下的偏振相机阵列标定方法 | |
CN114998448A (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
CN104813217B (zh) | 用于设计能够估计景深的无源单通道成像器的方法 | |
CN112712566B (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
CN112950727B (zh) | 基于仿生曲面复眼的大视场多目标同时测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |