CN105894499A - 一种基于双目视觉的空间物体三维信息快速检测方法 - Google Patents
一种基于双目视觉的空间物体三维信息快速检测方法 Download PDFInfo
- Publication number
- CN105894499A CN105894499A CN201610182500.0A CN201610182500A CN105894499A CN 105894499 A CN105894499 A CN 105894499A CN 201610182500 A CN201610182500 A CN 201610182500A CN 105894499 A CN105894499 A CN 105894499A
- Authority
- CN
- China
- Prior art keywords
- point
- image
- edge
- dimensional information
- binocular vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于是双目视觉的空间物体三维信息快速检测方法,包括以下步骤:(1)对两个摄像机进行标定,得到内参数矩阵和外参数矩阵;(2)两个摄像机同时采集被测物体的图像;(3)根据标定结果算出重投影矩阵,并对图像对进行立体校正;(4)对校正后的图像进行滤波平滑处理,然后对滤波后的图像对进行边缘提取;(5)用改进的基于边缘特征的快速匹配算法对图像对进行立体匹配,得到若干匹配点对;(6)根据摄像机标定得到的内外参数和重投影矩阵及视差原理恢复出被测物体的三维信息。本发明对传统的基于特征点的匹配算法进行了改进,在保持原有精度的同时提高了匹配的速度,能够实现实时的三维信息检测。
Description
技术领域
本发明涉及机器视觉领域,具体涉及一种基于双目视觉的空间物体三维信息快速检测方法。
背景技术
目前三维测量中常用的是激光、雷达、声纳等传感器,但是由于上述传感器的检测原理都是基于脉冲测距,所以对外界噪声较为敏感,容易受到磁场干扰而出现错误检测,且价格比较高。同超声波、雷达等传感器比较,视觉传感器之间不易产生干扰,可以迅速获得大量的图像信息,甚至目标的细节特征,在价格上也相对较低,所以采用视觉技术进行三维测量时目前研究的一个热点。
双目视觉是机器视觉的一大分支,由于其可以模拟人眼,对三维世界有立体感知的功能,随着对双目视觉研究的不断深入,近些年其发展迅速,越来越广泛的应用于各个领域,如机器人避障、工件定位、视觉测距以及虚拟现实等。
立体匹配是双目视觉技术的重点和难点。目前很多匹配算法能得到稠密的匹配点对,可以得到很好的三维重建效果,但这些算法普遍存在实时性不高的问题,这也导致整个三维测量要耗费大量时间,对于很多实时性要求比较高的场合难以满足要求;而有些匹配算法单纯为了追求实时性只对少量特征点进行匹配,难以恢复出被测物体的现状尺寸等信息。
发明内容
针对上述技术问题,本发明提供一种基于双目视觉的空间物体三维信息快速检测方法,可以克服目前三维测量存在的设备价格昂贵以及实时性和匹配精度无法同时满足的问题,可以应用于工业机器人作业环境的三维信息检测以及工件的尺寸测量等领域。
为实现上述目的,本发明的技术方案是:
一种基于是双目视觉的空间物体三维信息快速检测方法,采用两个以前向平行方式放置在云台上的摄像机与一台PC机构成双目视觉***,包括以下步骤:
(1)对两个摄像机进行标定,得到内参数矩阵和外参数矩阵;
(2)两个摄像机同时采集被测物体的图像,并将图像对传送至PC机;
(3)根据标定结果算出重投影矩阵,并对图像对进行立体校正,使图像对实现共面和行对准;
(4)对校正后的图像进行滤波平滑处理,以去除噪声的干扰,然后对滤波后的图像对进行边缘提取,得到分别对应于左图和右图的左边缘图和右边缘图;
(5)用改进的基于边缘特征的快速匹配算法对图像对进行立体匹配,得到若干匹配点对;
(6)根据摄像机标定得到的内外参数和重投影矩阵及视差原理恢复出被测物体的三维信息。
所述步骤(1)对两个摄像机进行标定前需要先建立双目视觉立体成像模型,并由模型得到空间点在世界坐标系与在摄像机坐标中关系。目前双目视觉立体成像模型一般分为不考虑畸变的线性模型和考虑畸变的非线性模型。
进一步地,所述步骤(3)采用Bouguet算法对图像对进行立体校正。由于完美的对准结构在真实的双目***中几乎不存在,两台摄像机几乎不可能有准确的共面和行对准的成像平面,因此需要立体校正来使图像对实现共面及行对准。目前有很多算法可以实现立体校正,常用的是Hartley算法和Bouguet算法,虽然Hartley算法可以通过单个摄像机记录的运动推导出立体结构,但会产生更多的图像畸变,因此本发明采用Bouguet算法进行立体校正。
进一步地,所述步骤(4)中的滤波为二维高斯滤波。所述步骤(4)中的滤波的目的是去除噪声的干扰,目前常用的滤波方法有高斯滤波、均值滤波以及中值滤波等,本发明采用二维高斯滤波,以获得良好的降噪效果。
进一步地,所述步骤(4)中的边缘提取算法为Canny算法。边缘提取是立体匹配的基础,目前边缘提取算法有很多,考虑到实时性和准确性,故选择Canny算法。
进一步地,所述步骤(5)中的改进的基于边缘特征的快速匹配算法包括以下步骤:
(51)以图像对中左图为匹配的源图像,右图为匹配的目标图像,将左图边缘上的点进行分类,得到若干待匹配点;
(52)找到被测物体边缘线的最小包围矩形,缩小对边缘点的搜索查找范围;
(53)根据工作距离范围得出初始视差范围,采用极线约束并根据匹配代价函数在缩放图像上对待匹配点进行粗匹配,得到进一步缩小的视差范围;
(54)由缩小的视差范围在原始图像对上采用极线约束并根据变窗口的匹配代价函数对边缘上的待匹配点进行匹配。
进一步地,所述步骤(51)中边缘上点的分类依据为该点八邻域上的像素点的值的分布情况,包括步骤:先将左边缘图图像二值化,若边缘上某点的八邻域有且只有竖直上方和竖直下方的点的值为1,则将该点定义为纵向点;若边缘上某点的八邻域有且只有水平左侧和水平右侧的点的值为1,则将该点定义为横向点;将其他情况的点定义为特征点。
进一步地,所述步骤(52)中找到被测物体边缘线的最小包围矩形的步骤具体包括:采用图像金字塔并进行隔行扫描,从而快速得到边缘轮廓的最上最下最左最右四个点;考虑到采用图像金字塔和隔行扫描可能出现漏检的情况,将得到的四个点加上或减去一个设定值便可得到最小包围矩形,缩小对边缘点的搜索查找范围。
进一步地,所述步骤(53)和步骤(54)中的匹配代价函数分别为Census算法和变窗口的SAD算法,选择处理速度较快的Census算法并采用极线约束在缩放图像上对特征点进行粗匹配,可得到进一步缩小的视差范围;选择绝对误差和算法SAD作为匹配代价函数,支持窗口的大小随待匹配点的不同而改变。
进一步地,所述步骤(53)中将特征点全部作为待匹配点,对于连续的纵向点和横向点则只取首末两点及中间若干点作为待匹配点。
进一步地,步骤(54)中匹配代价函数的计算窗口大小随待匹配点类型的不同而改变:当待匹配点为纵向点和特征点时,采用较小的窗口进行匹配代价计算,而当待匹配点为横向点时,采用较大的窗口进行匹配代价计算,降低由于出现误匹配概率较高所造成的影响,在原始图像对上采用极线约束按照WTA(winner-takes-all)策略对边缘上的待匹配点进行匹配。
相比现有技术,本发明对传统的基于特征点的匹配算法进行了改进,在保持原有精度的同时提高了匹配的速度,能够实现实时的三维信息检测。
附图说明
图1为本发明所需的硬件组成示意图。
图2为本发明具体实施流程图。
图3为本发明匹配算法流程图。
图中所示:1-左摄像机;2-右摄像机;3-云台;4-PC机。
具体实施方式
下面通过具体实施例对本发明的目的作进一步详细地描述,实施例不能在此一一赘述,但本发明的实施方式并不因此限定于以下实施例。
如图2所示,一种基于双目视觉的空间物体三维信息快速检测方法,采用两个以前向平行方式放置在云台3上的摄像机与一台PC机4构成双目视觉***,所述的左摄像机1、右摄像机2以前向平行方式固定在云台3上,两个摄像机与装有所需编程和处理软件的PC机4相连,共同构成双目视觉检测***(见图1)。包括以下步骤:
S1、摄像机标定:目前双目视觉立体成像模型一般分为不考虑畸变的线性模型和考虑畸变的非线性模型,由于大多数相机均存在镜头畸变情况,为得到更准确的结果,本发明采用畸变模型,并按以下步骤标定:
S11、建立双目视觉畸变模型,得到被测物在世界坐标系中坐标值的计算公式;
S12、采用300mm×300mm的棋盘格标定板并借助Matlab的标定工具箱对两个摄像机分别进行标定,得到两个摄像机的内参数矩阵和外参数矩阵,然后以左摄像机坐标系为世界坐标系进行立体标定,得到两个摄像机之间的旋转和平移矩阵;
S13、将标定结果保存;
S2、图像采集:图像采集就是通过摄像机获取被测物的图像的过程,当左、右摄像机安装完毕并连接上PC机4后,就可以进行图像采集,左、右摄像机同时拍摄被测物在同一位置的图像,得到了一对图像对,然后将图像对传递给PC机4进行下一步处理;
S3、图像的立体校正:由于在放置两个摄像机时存在安装位置误差等原因,无法保证两个相机完全实现前向平时放置,得到图像对也无法实现共面及行对准,因此当PC机接收到摄像机传递来的图像对后,需要对图像对进行立体校正,具体步骤如下:
S31、根据标定结果并借助开源计算机视觉处理库OpenCV用Bouguet算法得到左右校正旋转矩阵、左右投影矩阵以及重投影矩阵Q;
S32、根据步骤S31得到的左右校正旋转矩阵和左右投影矩阵对图像对进行校正映射,使图像对实现共面和行对准;
S4、滤波去噪及边缘提取:由于采集图像时存在各种噪声的干扰,因此在提取被测物的边缘时要先进行滤波平滑处理,图像对经过校正之后,采用二维高斯滤波对图像对进行去噪处理,然后再用Canny边缘提取算法对滤波后的图像对进行边缘提取;
S5、立体匹配:如图3所示,本实施例的立体匹配算法是以边缘点作为匹配基元的,即用改进的基于边缘特征的快速匹配算法对图像对进行立体匹配,得到若干匹配点对,通过多种优化方法提高了匹配的速度,具体步骤如下:
S51、以图像对中左图为匹配的源图像,右图为匹配的目标图像。将左边缘图二值化,若边缘上某点的八邻域有且只有竖直上方和竖直下方的点的值为1,则将该点定义为纵向点;若边缘上某点的八邻域有且只有水平左侧和水平右侧的点的值为1,则将该点定义为横向点;将其他情况的点定义为特征点;
S52、采用图像金字塔及隔行扫描的方式,快速得到边缘轮廓的最上最下最左最右四个点;考虑到采用图像金字塔和隔行扫描可能出现漏检的情况,得到的四个点加上或减去一个设定值便可得到最小包围矩形找到被测物体边缘线的最小包围矩形,缩小对边缘点的搜索查找范围;
S53、根据工作距离范围得出初始视差范围,采用极线约束并根据Census算法在缩放图像上对S51中的特征点进行粗匹配,得到进一步缩小的视差范围;
S54、得到缩小的视差范围后,选取边缘上部分点作为待匹配点:将S51中特征点全部作为待匹配点,对于连续的纵向点和横向点则只取首末两点及中间若干点作为待匹配点。选择绝对误差和算法SAD作为匹配代价函数,支持窗口的大小随待匹配点的不同而改变:当待匹配点为纵向点和特征点时,采用较小的窗口进行匹配代价计算,而当待匹配点为横向点时,由于出现误匹配概率较高,故采用较大的窗口进行匹配代价计算,在原始图像对上采用极线约束按照WTA(winner-takes-all)策略对边缘上的待匹配点进行匹配;
S6、三维信息提取:根据摄像机标定得到的内外参数和重投影矩阵及视差原理恢复出被测物体的三维信息,若某一匹配点对中的左匹配点在左图像坐标中的坐标为(x,y),左右匹配点之间的视差为d,再由立体校正得到的重投影矩阵Q可得:
该点的三维坐标即为(X/W,Y/W,Z/W),这样即可得到边缘上若干点的三维坐标,从而可以对被测物的三维信息进行提取。
本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于双目视觉的空间物体三维信息快速检测方法,其特征在于:采用两个以前向平行方式放置在云台上的摄像机与一台PC机构成双目视觉***,包括以下步骤:
(1)采用畸变模型对两个摄像机进行标定,得到内参数矩阵和外参数矩阵;
(2)两个摄像机同时采集被测物体的图像,并将图像对传送至PC机;
(3)根据标定结果算出重投影矩阵,并对图像对进行立体校正,使图像对实现共面和行对准;
(4)对校正后的图像对进行滤波平滑处理,然后对滤波后的图像对进行边缘提取,得到分别对应于左图和右图的左边缘图和右边缘图;
(5)用改进的基于边缘特征的快速匹配算法对图像对进行立体匹配,得到若干匹配点对;
(6)根据摄像机标定得到的内外参数和重投影矩阵及视差原理恢复出被测物体的三维信息。
2.根据权利要求1所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(3)采用Bouguet算法对图像对进行立体校正。
3.根据权利要求1所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(4)中的滤波为二维高斯滤波。
4.根据权利要求1所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(4)中的边缘提取算法为Canny算法。
5.根据权利要求1所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(5)中改进的基于边缘特征的快速匹配算法包括以下步骤:
(51)以图像对中左图为匹配的源图像,右图为匹配的目标图像,将左图边缘上的点进行分类,得到若干待匹配点;
(52)找到被测物体边缘线的最小包围矩形,缩小对边缘点的搜索查找范围;
(53)根据工作距离范围得出初始视差范围,采用极线约束并根据匹配代价函数在缩放图像上对待匹配点进行粗匹配,得到进一步缩小的视差范围;
(54)由缩小的视差范围在原始图像对上采用极线约束并根据变窗口的匹配代价函数对边缘上的待匹配点进行匹配。
6.根据权利要求5所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(51)中边缘上点的分类依据为该点八邻域上的像素点的值的分布情况,包括步骤:先将左边缘图图像二值化,若边缘上某点的八邻域有且只有竖直上方和竖直下方的点的值为1,则将该点定义为纵向点;若边缘上某点的八邻域有且只有水平左侧和水平右侧的点的值为1,则将该点定义为横向点;将其他情况的点定义为特征点。
7.根据权利要求5所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(52)中找到被测物体边缘线的最小包围矩形的步骤具体包括:采用图像金字塔并进行隔行扫描,从而快速得到边缘轮廓的最上最下最左最右四个点;考虑到采用图像金字塔和隔行扫描可能出现漏检的情况,将得到的四个点加上或减去一个设定值便可得到最小包围矩形。
8.根据权利要求5所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(53)和步骤(54)中的匹配代价函数分别为Census算法和变窗口的SAD算法。
9.根据权利要求6所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:所述步骤(53)中将特征点全部作为待匹配点,对于连续的纵向点和横向点则只取首末两点及中间若干点作为待匹配点。
10.根据权利要求6所述的基于双目视觉的空间物体三维信息快速检测方法,其特征在于:步骤(54)中匹配代价函数的计算窗口大小随待匹配点类型的不同而改变:当待匹配点为纵向点和特征点时,采用较小的窗口进行匹配代价计算,而当待匹配点为横向点时,由于出现误匹配概率较高,故采用较大的窗口进行匹配代价计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610182500.0A CN105894499B (zh) | 2016-03-25 | 2016-03-25 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610182500.0A CN105894499B (zh) | 2016-03-25 | 2016-03-25 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105894499A true CN105894499A (zh) | 2016-08-24 |
CN105894499B CN105894499B (zh) | 2018-09-14 |
Family
ID=57014337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610182500.0A Expired - Fee Related CN105894499B (zh) | 2016-03-25 | 2016-03-25 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105894499B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651975A (zh) * | 2016-12-01 | 2017-05-10 | 大连理工大学 | 一种基于多编码的Census自适应变换算法 |
CN106683174A (zh) * | 2016-12-23 | 2017-05-17 | 上海斐讯数据通信技术有限公司 | 双目视觉***的三维重建方法、装置及双目视觉*** |
CN106996748A (zh) * | 2017-03-16 | 2017-08-01 | 南京工业大学 | 一种基于双目视觉的轮径测量方法 |
CN107248159A (zh) * | 2017-08-04 | 2017-10-13 | 河海大学常州校区 | 一种基于双目视觉的金属工件缺陷检测方法 |
CN107490342A (zh) * | 2017-06-30 | 2017-12-19 | 广东工业大学 | 一种基于单双目视觉的手机外观检测方法 |
CN107588721A (zh) * | 2017-08-28 | 2018-01-16 | 武汉科技大学 | 一种基于双目视觉的零件多尺寸的测量方法及*** |
CN108127238A (zh) * | 2017-12-29 | 2018-06-08 | 南京理工大学 | 非平整面自主识别机器人增材成形的方法 |
CN108381549A (zh) * | 2018-01-26 | 2018-08-10 | 广东三三智能科技有限公司 | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 |
CN108453739A (zh) * | 2018-04-04 | 2018-08-28 | 北京航空航天大学 | 基于自动形状拟合的立体视觉定位机械臂抓取***及方法 |
CN108520537A (zh) * | 2018-03-29 | 2018-09-11 | 电子科技大学 | 一种基于光度视差的双目深度获取方法 |
CN108596963A (zh) * | 2018-04-25 | 2018-09-28 | 珠海全志科技股份有限公司 | 图像特征点的匹配、视差提取和深度信息提取方法 |
CN109089100A (zh) * | 2018-08-13 | 2018-12-25 | 西安理工大学 | 一种双目立体视频的合成方法 |
CN110009610A (zh) * | 2019-03-27 | 2019-07-12 | 仲恺农业工程学院 | 一种水库大坝护坡表面损伤视觉检测方法及仿生装置 |
CN110223257A (zh) * | 2019-06-11 | 2019-09-10 | 北京迈格威科技有限公司 | 获取视差图的方法、装置、计算机设备和存储介质 |
CN110276110A (zh) * | 2019-06-04 | 2019-09-24 | 华东师范大学 | 一种双目立体视觉***的软硬件协同设计方法 |
CN110543859A (zh) * | 2019-09-05 | 2019-12-06 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN110595309A (zh) * | 2019-10-16 | 2019-12-20 | 深圳市天和时代电子设备有限公司 | 一种排爆设备及该排爆设备的使用方法 |
CN110672007A (zh) * | 2019-09-24 | 2020-01-10 | 佛山科学技术学院 | 一种基于机器视觉的工件表面质量检测方法及*** |
CN111145254A (zh) * | 2019-12-13 | 2020-05-12 | 上海新时达机器人有限公司 | 一种基于双目视觉的门阀毛坯定位方法 |
CN111345023A (zh) * | 2017-11-03 | 2020-06-26 | 深圳市柔宇科技有限公司 | 图像消抖方法、装置、终端及计算机可读存储介质 |
CN111429571A (zh) * | 2020-04-15 | 2020-07-17 | 四川大学 | 一种基于时空图像信息联合相关的快速立体匹配方法 |
CN111429532A (zh) * | 2020-04-30 | 2020-07-17 | 南京大学 | 一种利用多平面标定板提高相机标定精确度的方法 |
CN111563952A (zh) * | 2020-03-30 | 2020-08-21 | 北京理工大学 | 基于相位信息与空间纹理特征实现立体匹配方法及*** |
CN116129037A (zh) * | 2022-12-13 | 2023-05-16 | 珠海视熙科技有限公司 | 视触觉传感器及其三维重建方法、***、设备及存储介质 |
CN117315033A (zh) * | 2023-11-29 | 2023-12-29 | 上海仙工智能科技有限公司 | 一种基于神经网络的识别定位方法及***、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982334A (zh) * | 2012-11-05 | 2013-03-20 | 北京理工大学 | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 |
CN103134477A (zh) * | 2013-01-31 | 2013-06-05 | 南昌航空大学 | 一种基于双目立体视觉的直升机旋翼桨叶运动参数测量方法 |
-
2016
- 2016-03-25 CN CN201610182500.0A patent/CN105894499B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982334A (zh) * | 2012-11-05 | 2013-03-20 | 北京理工大学 | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 |
CN103134477A (zh) * | 2013-01-31 | 2013-06-05 | 南昌航空大学 | 一种基于双目立体视觉的直升机旋翼桨叶运动参数测量方法 |
Non-Patent Citations (2)
Title |
---|
熊京京: "基于双目视觉的直升机旋翼桨叶共锥度检测方法研究", 《中国学位论文全文数据库》 * |
胡汉平,朱明: "基于种子点传播的快速立体匹配", 《光学精密工程》 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651975B (zh) * | 2016-12-01 | 2019-08-13 | 大连理工大学 | 一种基于多编码的Census自适应变换方法 |
CN106651975A (zh) * | 2016-12-01 | 2017-05-10 | 大连理工大学 | 一种基于多编码的Census自适应变换算法 |
CN106683174A (zh) * | 2016-12-23 | 2017-05-17 | 上海斐讯数据通信技术有限公司 | 双目视觉***的三维重建方法、装置及双目视觉*** |
CN106996748A (zh) * | 2017-03-16 | 2017-08-01 | 南京工业大学 | 一种基于双目视觉的轮径测量方法 |
CN107490342A (zh) * | 2017-06-30 | 2017-12-19 | 广东工业大学 | 一种基于单双目视觉的手机外观检测方法 |
CN107248159A (zh) * | 2017-08-04 | 2017-10-13 | 河海大学常州校区 | 一种基于双目视觉的金属工件缺陷检测方法 |
CN107588721A (zh) * | 2017-08-28 | 2018-01-16 | 武汉科技大学 | 一种基于双目视觉的零件多尺寸的测量方法及*** |
CN111345023B (zh) * | 2017-11-03 | 2021-07-20 | 深圳市柔宇科技股份有限公司 | 图像消抖方法、装置、终端及计算机可读存储介质 |
CN111345023A (zh) * | 2017-11-03 | 2020-06-26 | 深圳市柔宇科技有限公司 | 图像消抖方法、装置、终端及计算机可读存储介质 |
CN108127238A (zh) * | 2017-12-29 | 2018-06-08 | 南京理工大学 | 非平整面自主识别机器人增材成形的方法 |
CN108381549A (zh) * | 2018-01-26 | 2018-08-10 | 广东三三智能科技有限公司 | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 |
CN108381549B (zh) * | 2018-01-26 | 2021-12-14 | 广东三三智能科技有限公司 | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 |
CN108520537A (zh) * | 2018-03-29 | 2018-09-11 | 电子科技大学 | 一种基于光度视差的双目深度获取方法 |
CN108453739A (zh) * | 2018-04-04 | 2018-08-28 | 北京航空航天大学 | 基于自动形状拟合的立体视觉定位机械臂抓取***及方法 |
CN108596963A (zh) * | 2018-04-25 | 2018-09-28 | 珠海全志科技股份有限公司 | 图像特征点的匹配、视差提取和深度信息提取方法 |
CN108596963B (zh) * | 2018-04-25 | 2020-10-30 | 珠海全志科技股份有限公司 | 图像特征点的匹配、视差提取和深度信息提取方法 |
CN109089100B (zh) * | 2018-08-13 | 2020-10-23 | 西安理工大学 | 一种双目立体视频的合成方法 |
CN109089100A (zh) * | 2018-08-13 | 2018-12-25 | 西安理工大学 | 一种双目立体视频的合成方法 |
CN110009610A (zh) * | 2019-03-27 | 2019-07-12 | 仲恺农业工程学院 | 一种水库大坝护坡表面损伤视觉检测方法及仿生装置 |
CN110276110A (zh) * | 2019-06-04 | 2019-09-24 | 华东师范大学 | 一种双目立体视觉***的软硬件协同设计方法 |
CN110223257A (zh) * | 2019-06-11 | 2019-09-10 | 北京迈格威科技有限公司 | 获取视差图的方法、装置、计算机设备和存储介质 |
CN110543859B (zh) * | 2019-09-05 | 2023-08-18 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN110543859A (zh) * | 2019-09-05 | 2019-12-06 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN110672007A (zh) * | 2019-09-24 | 2020-01-10 | 佛山科学技术学院 | 一种基于机器视觉的工件表面质量检测方法及*** |
CN110595309B (zh) * | 2019-10-16 | 2024-03-22 | 深圳市天和时代电子设备有限公司 | 一种排爆设备及该排爆设备的使用方法 |
CN110595309A (zh) * | 2019-10-16 | 2019-12-20 | 深圳市天和时代电子设备有限公司 | 一种排爆设备及该排爆设备的使用方法 |
CN111145254B (zh) * | 2019-12-13 | 2023-08-11 | 上海新时达机器人有限公司 | 一种基于双目视觉的门阀毛坯定位方法 |
CN111145254A (zh) * | 2019-12-13 | 2020-05-12 | 上海新时达机器人有限公司 | 一种基于双目视觉的门阀毛坯定位方法 |
CN111563952A (zh) * | 2020-03-30 | 2020-08-21 | 北京理工大学 | 基于相位信息与空间纹理特征实现立体匹配方法及*** |
CN111563952B (zh) * | 2020-03-30 | 2023-03-14 | 北京理工大学 | 基于相位信息与空间纹理特征实现立体匹配方法及*** |
CN111429571A (zh) * | 2020-04-15 | 2020-07-17 | 四川大学 | 一种基于时空图像信息联合相关的快速立体匹配方法 |
CN111429532A (zh) * | 2020-04-30 | 2020-07-17 | 南京大学 | 一种利用多平面标定板提高相机标定精确度的方法 |
CN116129037A (zh) * | 2022-12-13 | 2023-05-16 | 珠海视熙科技有限公司 | 视触觉传感器及其三维重建方法、***、设备及存储介质 |
CN116129037B (zh) * | 2022-12-13 | 2023-10-31 | 珠海视熙科技有限公司 | 视触觉传感器及其三维重建方法、***、设备及存储介质 |
CN117315033A (zh) * | 2023-11-29 | 2023-12-29 | 上海仙工智能科技有限公司 | 一种基于神经网络的识别定位方法及***、存储介质 |
CN117315033B (zh) * | 2023-11-29 | 2024-03-19 | 上海仙工智能科技有限公司 | 一种基于神经网络的识别定位方法及***、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105894499B (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105894499A (zh) | 一种基于双目视觉的空间物体三维信息快速检测方法 | |
CN108416791B (zh) | 一种基于双目视觉的并联机构动平台位姿监测与跟踪方法 | |
Shah et al. | A simple calibration procedure for fish-eye (high distortion) lens camera | |
CN110657785B (zh) | 一种高效的场景深度信息获取方法及*** | |
EP2728374B1 (de) | Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras | |
CN112907676A (zh) | 传感器的标定方法、装置、***、车辆、设备及存储介质 | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN109118544B (zh) | 基于透视变换的合成孔径成像方法 | |
JP7218435B2 (ja) | キャリブレーション装置、キャリブレーション用チャート、およびキャリブレーション方法 | |
CN104268876A (zh) | 基于分块的摄像机标定方法 | |
CN104760812B (zh) | 基于单目视觉的传送带上产品实时定位***和方法 | |
CN107084680A (zh) | 一种基于机器单目视觉的目标深度测量方法 | |
CN110619660A (zh) | 一种物体定位方法、装置、计算机可读存储介质及机器人 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
CN103712604A (zh) | 一种光学多目标三维空间定位方法及*** | |
CA3233222A1 (en) | Method, apparatus and device for photogrammetry, and storage medium | |
CN109410234A (zh) | 一种基于双目视觉避障的控制方法及控制*** | |
CN111798507A (zh) | 一种输电线安全距离测量方法、计算机设备和存储介质 | |
CN103824298A (zh) | 一种基于双摄像机的智能体视觉三维定位装置与方法 | |
CN108154536A (zh) | 二维平面迭代的相机标定法 | |
CN115187676A (zh) | 一种高精度线激光三维重建标定方法 | |
CN110992463B (zh) | 一种基于三目视觉的输电导线弧垂的三维重建方法及*** | |
CN111862193A (zh) | 一种基于形状描述子的电焊焊点双目视觉定位方法及装置 | |
JP7156624B2 (ja) | デプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラム | |
CN110264510A (zh) | 一种基于双目采集图像提取景深信息的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180914 |
|
CF01 | Termination of patent right due to non-payment of annual fee |