CN108362205A - 基于条纹投影的空间测距方法 - Google Patents
基于条纹投影的空间测距方法 Download PDFInfo
- Publication number
- CN108362205A CN108362205A CN201810040762.2A CN201810040762A CN108362205A CN 108362205 A CN108362205 A CN 108362205A CN 201810040762 A CN201810040762 A CN 201810040762A CN 108362205 A CN108362205 A CN 108362205A
- Authority
- CN
- China
- Prior art keywords
- fringe
- point
- projection
- space
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/022—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
基于条纹投影的空间测距方法,步骤1)、将摄像投影装置安装在待定位空间中,利用棋盘格标定板进行标定实验,得到摄像机的内外参数,步骤2)、提取调制条纹图像,并采用条纹细化算法获取条纹中心线的坐标点集。步骤3)、应用最小欧氏距离法判断目标点在调制条纹图像中的相对位置,步骤4)、找到距离目标点最近的两条调制条纹中心线以及两侧的端点坐标,并计算两端点的空间距离作为实际的条纹宽度,步骤5)、根据投影关系建立投影模型,确定投影距离与投影画面中条纹宽度的关系,本发明将二维图像处理算法和光栅条纹的投影关系相结合,应用到三维空间测距中;可针对任意空间目标进行测距;可以减少机器人自身携带的传感器数量。
Description
技术领域
本发明提出一种基于条纹投影的空间测距方法,涉及光栅投影技术、数字图像处理和机器人领域。
背景技术
机器人技术是未来科研的发展方向,是一个国家科技水平的重要体现。随着科技的不断发展,高度智能化和视觉化的机器***成为了目前研究的热点,服务机器人的研究也越来越受关注。一个完整的服务机器人***通常需要具备环境感知、定位导航、路径规划、物品搜寻等功能,其中,定位技术是服务机器人研究中的重点。
机器人进入某个未知环境中,必须获取相应的环境信息才能够进行定位、导航和其它任务。对服务机器人而言,准确识别复杂的室内环境非常困难。而现有的机器视觉技术使机器人本身携带过多的传感器,限制了移动机器人整体的发展。因此,研究一种定位技术,既能辅助机器人获取更多环境信息,又能使机器人轻装上阵。
定位技术的主要工作就是空间距离估计和姿态估计。现有的测距方法有单目视觉测距方法和多目视觉测距方法等,在单目视觉***中,机器人只通过一个传感器获取外界的环境信息,该方法信息处理比较简单,但只能获得环境的二维信息;双目和多目视觉***相对比较复杂,具备获取三维空间信息的能力,但获取信息的实时性较差,数据处理量大。可见,传统的测距方法虽已取得了快速发展,但仍依赖于摄像机的数量、人工标志物以及地面约束等条件。因此,高效率、低依赖的空间测距方法是定位技术研究中的重点。
发明内容
发明目的:
本发明提出了一种基于条纹投影的空间测距方法,其目的是解决以往所存在的问题。
技术方案:一种基于条纹投影的空间测距方法,该方法包括以下步骤:
步骤1)、将摄像投影装置安装在待定位空间中,利用棋盘格标定板进行标定实验,得到摄像机的内外参数,其中,摄像机的成像模型如下:
其中,(x,y)为图像坐标系中的二维坐标,(X,Y,Z)为世界坐标系中的三维坐标,fu、fv分别为图像两个方向的焦比,s为畸变因子,(u0,v0)为主点坐标,R、T分别为从世界坐标系变换到摄像机坐标系的旋转矩阵和平移向量。从模型中可以看出:M1只与摄像机内部结构有关,称为摄像机内部参数矩阵;M2只与摄像机相对于世界坐标系的方位有关,称为摄像机外部参数矩阵。
步骤2)、经过预处理后,提取调制条纹图像,并采用条纹细化算法获取条纹中心线的坐标点集。具体的方法如下:
将摄像机采集到的实际条纹图像I1与参考条纹图像I0进行作差,即每个对应像素的灰度值进行相减,得到目标物所在位置的调制光栅条纹I,再将其进行二值化,并对其进行图像的形态学处理,即采用条纹细化算法得到调制条纹的中心线坐标点集。
步骤3)、应用最小欧氏距离法判断目标点在调制条纹图像中的相对位置,实现步骤如下:
步骤3.1)、将步骤2)提取的坐标点集用细胞数组的形式存储,记为C(x,y),其中(x,y)为图像坐标;
步骤3.2)、按照条纹所在位置进行分类,每条条纹中心线的坐标都存储在子细胞数组C1~Cn中,即C=[C1C2···Cn];
步骤3.3)、若目标点A刚好在条纹中心线上,则取A点两侧的条纹宽度平均值作为最终的条纹宽度,否则,根据最小欧氏距离法来判断目标点A与每一个条纹中心点的距离dij(i=1,2,...,n,j=1,2,...,length(Ci)),设A点坐标为(x0,y0),欧氏距离的计算公式如下:
步骤3.4)、当d=min{dij}时,该点对应的调制条纹中心线Ci与目标点距离最小,可以确定目标点在该条调制条纹附近。
步骤4)、找到距离目标点最近的两条调制条纹中心线以及两侧的端点坐标,再由标定结果将二维的端点坐标转换成三维空间坐标,并计算两端点的空间距离作为实际的条纹宽度,具体步骤如下:
步骤4.1)、将步骤3.4)中距离最小时对应的坐标点作为求取条纹宽度的一端点O1(O1∈Ci),其中,x1、y1分别为O1的横、纵坐标(x1≠x0);
步骤4.2)、根据目标点A与点O1的横坐标大小关系判断另一端点在调制条纹图像上的位置,即:
其中,O2为另一端点,而O2的具体坐标可根据Ci+1上的所有点与点A的最小距离来确定;
步骤4.3)、根据步骤1)的标定结果将摄像机的内、外参数分别代入成像模型中,得到两端点O1、O2对应的三维空间坐标O10(X,Y,Z)、O20(X,Y,Z),并计算两者的垂直距离作为调制条纹的宽度W,公式如下:
步骤5)、根据投影关系建立投影模型,确定投影距离与投影画面中条纹宽度的关系,步骤如下:
步骤5.1)、通过多次实验确定投影仪实际的水平投影角2α,即:
其中,M0和L0分别为实验测量的投影画面宽度和垂直投影距离;
步骤5.2)、根据水平投影角和条纹宽度W确定实际的垂直投影距离L,将目标点A与投影中心点P坐标转换成三维空间坐标(X0,Y0,Z0)和(XP,YP,ZP),计算两点之间的距离LP;
步骤5.3)、计算目标点与投影仪的空间相对距离,即:
其中,投影仪的分辨率为m×n,光栅条纹周期为T。
优点效果:
光栅投影技术由于测量***简单,高精度和高分辨率等优点,广泛应用于三维测量技术中。因此,本发明针对空间距离估计问题将光栅投影技术与测距算法相结合,提出了一种基于条纹投影的空间测距方法。
本发明首先应用光栅投影技术和相关图像处理算法确定调制条纹在三维空间中的实际宽度,再根据投影关系转换成空间相对距离,实现了空间测距的目的。本发明的优点在于:
1.提出了一种基于条纹投影的空间测距方法,将二维图像处理算法和光栅条纹的投影关系相结合,应用到三维空间测距中;
2.测距过程中,无需以地面为基准,可针对任意空间目标进行测距;
3.本发明可以应用到服务机器人的感知***,不仅可以辅助机器人获取更多的境信息,还可以减少机器人自身携带的传感器数量。
附图说明
图1是本发明的基于条纹投影的空间测距方法的整体流程图;
图2是标定的可视化结果图;
图3是输入的实际图像和参考图像;
图4是调制条纹图像和条纹细化结果;
图5是投影模型关系图。
具体实施方式
参考说明书附图,下面对本发明的具体实施方式进一步描述。
本发明是在Windows操作***中实现的测距过程,图1是本发明的整体流程图,具体步骤如下:
步骤1)、将摄像投影装置安装在待定位空间中,利用棋盘格标定板进行标定实验,保存标定出摄像机的内外参数,并记录标定的重投影误差,具体步骤如下:
步骤1.1)、安装和固定摄像机和投影仪,选取一个规格为7×8的黑白棋盘格标定板,每格的边长为27mm;
步骤1.2)、任意移动或旋转标定板,拍摄一组图像(20张);
步骤1.3)、摄像机的成像模型为:
其中,(x,y)为图像坐标系中的二维坐标,(X,Y,Z)为世界坐标系中的三维坐标,fu、fv分别为图像两个方向的焦比,s为畸变因子,(u0,v0)为主点坐标,R、T分别为从世界坐标系变换到摄像机坐标系的旋转矩阵和平移向量。从模型中可以看出:M1只与摄像机内部结构有关,称为摄像机内部参数矩阵;M2只与摄像机相对于世界坐标系的方位有关,称为摄像机外部参数矩阵;
步骤1.4)、采用最小二乘法确定摄像机的内外参数,保存并记录标定的重投影误差,分析标定结果。
步骤2)、将光栅条纹投射到待定位空间中,分别采集参考条纹图像和实际条纹图像,经过预处理后,提取调制条纹图像,并采用条纹细化算法获取条纹中心线的坐标点集。具体的方法如下:
步骤2.1)、分别采集室内空间的实际条纹图像I1与参考条纹图像I0,并进行二值化;
步骤2.2)、将两幅图像进行作差,即每个对应像素的灰度值进行相减,得到目标物所在位置的调制条纹图像I;
步骤2.3)、进行图像的形态学处理,即条纹细化,提取出黑或白条纹的中心线,得到调制条纹的中心线坐标点集。
步骤3)、应用最小欧氏距离法判断目标点在调制条纹图像中的相对位置,实现的步骤如下:
步骤3.1)、将步骤2)提取的坐标点集用细胞数组的形式存储,记为C(x,y),其中(x,y)为图像坐标;
步骤3.2)、按照条纹所在位置进行分类,将每条调制条纹中心线的坐标都存储在子细胞数组中,即C=[C1C2···Cn];
步骤3.3)、若目标点A刚好在条纹中心线上,则取A点两侧的条纹宽度平均值作为最终的条纹宽度,否则,根据最小欧氏距离法来判断目标点A与每一个条纹中心点的距离dij(i=1,2,...,n,j=1,2,...,length(Ci)),设A点坐标为(x0,y0),欧氏距离的计算公式如下:
步骤3.4)、当d=min{dij}时,该点对应的调制条纹中心线Ci与目标点距离最小,可以确定目标点在该条调制条纹附近。
步骤4)、找到距离目标点最近的两条调制条纹中心线以及两侧的端点坐标,再由标定结果将二维的端点坐标转换成三维空间坐标,并计算两端点的空间距离作为实际的条纹宽度,具体步骤如下:
步骤4.1)、将步骤3.4)中距离最小时对应的坐标点作为求取条纹宽度的一端点O1(O1∈Ci),其中,x1、y1分别为O1的横、纵坐标(x1≠x0);
步骤4.2)、根据目标点A与点O1的横坐标大小关系判断另一端点在调制条纹图像上的位置,即:
其中,O2为另一端点,而O2的具体坐标要根据Ci+1上的所有点与点A的最小距离来确定;
步骤4.3)、根据步骤1)的标定结果将摄像机的内、外参数分别代入成像模型中,得到两端点O1、O2对应的三维空间坐标O10(X,Y,Z)、O20(X,Y,Z),并计算两者的垂直距离作为调制条纹的宽度W,公式如下:
步骤5)、根据投影关系建立投影模型,确定投影距离与投影画面中条纹宽度的关系,步骤如下:
步骤5.1)、通过多次实验确定投影仪实际的水平投影角2α,即:
其中,M0和L0分别为实验测量的投影画面宽度和垂直投影距离;
步骤5.2)、根据水平投影角和条纹宽度W确定实际的垂直投影距离L,将目标点A与投影中心点P坐标转换成三维空间坐标(X0,Y0,Z0)和(XP,YP,ZP),计算两点之间的距离LP;
步骤5.3)、计算目标点与投影仪的空间相对距离,即:
其中,投影仪的分辨率为m×n,光栅条纹周期为T。这样,将条纹宽度W转换成空间相对距离D,实现了空间测距的功能。
Claims (6)
1.一种基于条纹投影的空间测距方法,其特征在于:该方法具体步骤包括:
步骤1)、将摄像投影装置安装在待定位空间中,利用棋盘格标定板进行标定实验,得到摄像机的内外参数,并记录标定的重投影误差;
步骤2)、将光栅条纹投射到待定位空间中,分别采集参考条纹图像和实际条纹图像,经过预处理后,提取调制条纹图像,并采用条纹细化算法获取条纹中心线的坐标点集;
步骤3)、应用最小欧氏距离法判断目标点在调制条纹图像中的相对位置;
步骤4)、找到距离目标点最近的两条调制条纹中心线以及两侧的端点坐标,再由标定结果将二维的端点坐标转换成三维空间坐标,并计算两端点的空间距离作为实际的条纹宽度;
步骤5)、根据投影关系建立投影模型,确定投影距离与投影画面中条纹宽度的函数关系,将条纹宽度转换成空间距离,达到空间测距的目的。
2.根据权利要求1所述的基于条纹投影的空间测距方法,其特征在于:步骤1)具体步骤如下:
步骤1.1)、安装和固定摄像机和投影仪等实验装置,选取一个7×8的黑白棋盘格标定板,每格的边长为27mm;
步骤1.2)、任意移动或旋转标定板,拍摄一组图像(20张);
步骤1.3)、建立摄像机的成像模型:
其中,(x,y)为图像坐标系中的二维坐标,(X,Y,Z)为世界坐标系中的三维坐标,fu、fv分别为图像两个方向的焦比,s为畸变因子,(u0,v0)为主点坐标,R、T分别为从世界坐标系变换到摄像机坐标系的旋转矩阵和平移向量;从模型中可以看出:M1只与摄像机内部结构有关,称为摄像机内部参数矩阵;M2只与摄像机相对于世界坐标系的方位有关,称为摄像机外部参数矩阵;
步骤1.4)、采用最小二乘法优化摄像机的内外参数,保存并记录标定的重投影误差,分析标定结果。
3.根据权利要求1所述基于条纹投影的空间测距方法,其特征在于:其中步骤2)所述获取调制条纹中心线的坐标的方法如下:
将摄像机采集到的实际条纹图像I1与参考条纹图像I0进行作差,即每个对应像素的灰度值进行相减,得到目标物所在位置的调制光栅条纹I,再将调制条纹进行二值化,采用条纹细化算法,得到调制条纹的中心线坐标点集。
4.根据权利要求1所述的基于条纹投影的空间测距方法,其特征在于:步骤3)所述的判断目标点在调制条纹图像中的相对位置的步骤如下:
步骤3.1)、将步骤2)提取的坐标点集用细胞数组的形式存储,记为C(x,y),其中(x,y)为图像坐标;
步骤3.2)、按照条纹所在位置进行分类,将每条调制条纹中心线的坐标都存储在子细胞数组中,即C=[C1 C2 … Cn];
步骤3.3)、若目标点A刚好在条纹中心线上,则取A点两侧的条纹宽度平均值作为最终的条纹宽度,否则,根据最小欧氏距离法来判断目标点A与每一个条纹中心点的距离dij(i=1,2,...,n,j=1,2,...,length(Ci)),设A点坐标为(x0,y0),欧氏距离的计算公式如下:
步骤3.4)、当d=min{dij}时,该点对应的调制条纹中心线Ci与目标点距离最小,可以确定目标点在该条调制条纹附近。
5.根据权利要求1所述的基于条纹投影的空间测距方法,其特征在于:步骤4)所述的计算目标点所在位置的条纹宽度的方法如下:
首先,将步骤3.4)中距离最小时对应的坐标点作为求取条纹宽度的一端点O1(O1∈Ci),令x1、y1分别为O1的横、纵坐标(x1≠x0);然后,再根据目标点A与点O1的横坐标大小关系判断另一端点坐标的位置,即:
其中,O2为另一端点,而O2的具体坐标可根据Ci+1上的点与点A的最小距离来确定;最后,根据步骤1)的标定结果将摄像机的内、外参数分别代入成像模型中,计算两端点O1、O2对应的三维空间坐标O10(X,Y,Z)、O20(X,Y,Z),并计算两者的垂直距离作为调制条纹的宽度W,公式如下:
6.根据权利要求1所述的基于条纹投影的空间测距方法,其特征在于:步骤5)所述的计算空间距离的步骤如下:
步骤5.1)、通过实验确定投影仪实际的水平投影角2α,即:
其中,M0和L0分别为实验测量的投影画面宽度和垂直投影距离;
步骤5.2)、根据水平投影角2α和条纹宽度W确定实际的垂直投影距离L,再由目标点A和投影中心点P的三维坐标得到两点之间的距离LP;
步骤5.3)、计算目标点与投影仪的空间相对距离,即:
其中,m×n为投影仪的分辨率,T为光栅条纹周期,(X0,Y0,Z0)和(XP,YP,ZP)为目标点与投影中心点的三维空间坐标;因此,根据步骤4)的计算结果W得到目标点与投影仪之间的相对空间距离D,达到了空间测距的目的。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711122948 | 2017-11-14 | ||
CN2017111229484 | 2017-11-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108362205A true CN108362205A (zh) | 2018-08-03 |
CN108362205B CN108362205B (zh) | 2020-04-28 |
Family
ID=63006333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810040762.2A Active CN108362205B (zh) | 2017-11-14 | 2018-01-16 | 基于条纹投影的空间测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108362205B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767492A (zh) * | 2018-12-06 | 2019-05-17 | 国网经济技术研究院有限公司 | 一种变电站三维模型的间距计算方法 |
CN109781739A (zh) * | 2019-03-04 | 2019-05-21 | 杭州晶耐科光电技术有限公司 | 汽车漆面表面外观缺陷全自动检测***及方法 |
CN110196062A (zh) * | 2019-06-27 | 2019-09-03 | 成都圭目机器人有限公司 | 一种单相机跟踪车道线的导航方法 |
CN110231034A (zh) * | 2019-06-10 | 2019-09-13 | 国网江苏省电力有限公司南京供电分公司 | 室外堆场物资间接定位方法与可视化模型 |
CN110706271A (zh) * | 2019-09-30 | 2020-01-17 | 清华大学 | 一种车载视觉实时多车载目标横纵向距离估计方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040109154A1 (en) * | 2002-03-22 | 2004-06-10 | Trw Inc. | Structured lighting detection of vehicle occupant type and position |
US20040246495A1 (en) * | 2002-08-28 | 2004-12-09 | Fuji Xerox Co., Ltd. | Range finder and method |
CN1726501A (zh) * | 2002-12-18 | 2006-01-25 | 讯宝科技公司 | 具有用于确定到目标距离的***的图像扫描装置 |
JP2006162250A (ja) * | 2004-12-02 | 2006-06-22 | Ushio Inc | フィルムワークのパターン検査装置 |
CN102472613A (zh) * | 2009-07-29 | 2012-05-23 | 佳能株式会社 | 测量设备、测量方法和程序 |
CN104111039A (zh) * | 2014-08-08 | 2014-10-22 | 电子科技大学 | 用于任意摆放条纹投影三维测量***的标定方法 |
JP2016180708A (ja) * | 2015-03-24 | 2016-10-13 | キヤノン株式会社 | 距離計測装置、距離計測方法、およびプログラム |
-
2018
- 2018-01-16 CN CN201810040762.2A patent/CN108362205B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040109154A1 (en) * | 2002-03-22 | 2004-06-10 | Trw Inc. | Structured lighting detection of vehicle occupant type and position |
US20040246495A1 (en) * | 2002-08-28 | 2004-12-09 | Fuji Xerox Co., Ltd. | Range finder and method |
CN1726501A (zh) * | 2002-12-18 | 2006-01-25 | 讯宝科技公司 | 具有用于确定到目标距离的***的图像扫描装置 |
JP2006162250A (ja) * | 2004-12-02 | 2006-06-22 | Ushio Inc | フィルムワークのパターン検査装置 |
CN102472613A (zh) * | 2009-07-29 | 2012-05-23 | 佳能株式会社 | 测量设备、测量方法和程序 |
CN104111039A (zh) * | 2014-08-08 | 2014-10-22 | 电子科技大学 | 用于任意摆放条纹投影三维测量***的标定方法 |
JP2016180708A (ja) * | 2015-03-24 | 2016-10-13 | キヤノン株式会社 | 距離計測装置、距離計測方法、およびプログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767492A (zh) * | 2018-12-06 | 2019-05-17 | 国网经济技术研究院有限公司 | 一种变电站三维模型的间距计算方法 |
CN109781739A (zh) * | 2019-03-04 | 2019-05-21 | 杭州晶耐科光电技术有限公司 | 汽车漆面表面外观缺陷全自动检测***及方法 |
CN110231034A (zh) * | 2019-06-10 | 2019-09-13 | 国网江苏省电力有限公司南京供电分公司 | 室外堆场物资间接定位方法与可视化模型 |
CN110231034B (zh) * | 2019-06-10 | 2023-05-09 | 国网江苏省电力有限公司南京供电分公司 | 室外堆场物资间接定位方法与可视化模型 |
CN110196062A (zh) * | 2019-06-27 | 2019-09-03 | 成都圭目机器人有限公司 | 一种单相机跟踪车道线的导航方法 |
CN110196062B (zh) * | 2019-06-27 | 2022-03-25 | 成都圭目机器人有限公司 | 一种单相机跟踪车道线的导航方法 |
CN110706271A (zh) * | 2019-09-30 | 2020-01-17 | 清华大学 | 一种车载视觉实时多车载目标横纵向距离估计方法 |
CN110706271B (zh) * | 2019-09-30 | 2022-02-15 | 清华大学 | 一种车载视觉实时多车载目标横纵向距离估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108362205B (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110148169B (zh) | 一种基于ptz云台相机的车辆目标三维信息获取方法 | |
CN108362205A (zh) | 基于条纹投影的空间测距方法 | |
CN108510551B (zh) | 一种远距离大视场条件下相机参数的标定方法及*** | |
US10909395B2 (en) | Object detection apparatus | |
CN106920276B (zh) | 一种三维重建方法和*** | |
CN109559355B (zh) | 一种基于相机组的无公共视场的多相机全局标定装置及方法 | |
CN105469389B (zh) | 一种用于视觉传感器标定的网格球靶标及相应标定方法 | |
EP2022007A2 (en) | System and architecture for automatic image registration | |
CN110146030A (zh) | 基于棋盘格标志法的边坡表面变形监测***和方法 | |
CN103278138A (zh) | 一种复杂结构薄部件三维位置及姿态的测量方法 | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN108805910A (zh) | 多目车载记录仪、目标检测方法、智能驾驶***及汽车 | |
CN110889829A (zh) | 一种基于鱼眼镜头的单目测距方法 | |
CN109961417A (zh) | 图像处理方法、装置及移动装置控制方法 | |
CN111996883B (zh) | 一种检测公路路面宽度的方法 | |
CN103218812A (zh) | 基于摄影测量的树木形态模型参数快速获取方法 | |
CN109373912A (zh) | 一种基于双目视觉的非接触式六自由度位移测量方法 | |
CN109341668A (zh) | 基于折射投影模型和光束追踪法的多相机测量方法 | |
KR101255461B1 (ko) | 도로시설물 자동 위치측정 방법 | |
CN116188558B (zh) | 基于双目视觉的立体摄影测量方法 | |
CN109883433A (zh) | 基于360度全景视图的结构化环境中车辆定位方法 | |
CN111402315A (zh) | 一种自适应调整双目摄像机基线的三维距离测量方法 | |
CN115371673A (zh) | 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法 | |
Jiang et al. | Determination of construction site elevations using drone technology | |
KR102389762B1 (ko) | 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |