CN110310371B - 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 - Google Patents
一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 Download PDFInfo
- Publication number
- CN110310371B CN110310371B CN201910447327.6A CN201910447327A CN110310371B CN 110310371 B CN110310371 B CN 110310371B CN 201910447327 A CN201910447327 A CN 201910447327A CN 110310371 B CN110310371 B CN 110310371B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel point
- pixel
- sequence
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/45—Analysis of texture based on statistical description of texture using co-occurrence matrix computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明属于车辆工程中的自动驾驶领域和对象识别技术领域,解决了现有智能驾驶领域中实现对象三维重建的耗时、费力、效率低和难以达到高精度的技术问题。通过拍摄单元获取目标物的序列图像,经过处理得到预处理图像序列;提取每一帧预处理序列图像的清晰像素点,计算预处理序列图像每一像素点的聚焦因子,并求取全聚焦图像中所有像素点达到最大聚焦因子时对应的图像序列号,相邻序列图像之间的深度距离Δz可以根据实时车速v与Δt的乘积来计算,将Δz作为对应像素点的深度值,再根据张正友标定法标定的结果计算出像素坐标系与世界坐标系上对应的点的坐标,从而通过二维图像序列进行三维重建,重构出目标物的三维轮廓。
Description
技术领域
本发明属于车辆工程中的自动驾驶领域和对象识别技术领域,具体是一种基于图像处理构建对象三维轮廓的车载对象自动三维模型构建***。
背景技术
目前,智能驾驶领域实现对象三维重构的主要方案有视觉和激光雷达两大类。其中,视觉是利用摄像头来获取对象物体表面信息,根据摄像头的数量,可以分为单目视觉和双目视觉。单目视觉是使用结构光发射一个已知的图案,摄像头接收到了经过物体表面反射的图案之后,经过图像处理计算出和原始图案的差异,从而实现三维重构。双目视觉是基于视差原理恢复出物体的三维几何信息,重建物体三维轮廓及位置。
当前技术使用视觉方法做三维重构的短板很明显,单目和双目鲁棒性都很差,这种***的精度会随着周围环境的变化而受到影响,当外界光线由强变弱时,双目视觉的精度会大打折扣。而单目视觉恰恰相反,它只适合光线较暗的环境,如果周围的光线很强,摄像头就很难准确的识别亮点。
激光雷达实现三维重建大体也可以分为两类,一类是基于三角测量法,另一种被称为ToF测距法。基于三角测量算法的原理是序列CCD实时感应激光发射到物体表面形成的反射信息,由已知的发射角度α、接收角度β和激光头与CCD的距离,根据正弦定理就可以算出雷达与物体的距离。ToF(Time Of Flight)的原理是通过测量光脉冲之间的传输延迟时间来计算对象物体的距离。
激光雷达的难点就在于如何通过硬件进行高速数据采集并通过算法实时处理,获得高精度原始点云数据,并且造价相比起摄像机视觉来说相对较高。
发明内容
本发明所要解决的技术问题是:如何改变和解决现有智能驾驶领域中实现对象三维重建的耗时、费力、效率低和难以达到高精度的缺点,从而提供一种能实现快速高精度重构对象三维轮廓的***。
本发明是采用如下技术方案实现的:一种基于车载单目聚焦序列图像构建对象三维轮廓的方法,包括如下步骤:
(a)移动载体带动拍摄单元沿目标物延伸方向移动,并每隔Δt时间拍摄一张目标物的图像,从而在一段时间内获取目标物的N帧序列图像;
(b)对拍摄单元拍摄得到的全部序列图像进行图像处理,对图像进行裁剪变换,以去除序列图像中目标物测量区域之外的部分非相关背景区域,得到预处理序列图像;
(c)提取每一帧预处理序列图像的清晰像素点,以构建全聚焦图像;确定预处理序列图像中的任一像素点的像素点聚焦评价窗口,计算预处理序列图像每一像素点的聚焦因子:对于预处理序列图像中的任一像素点(i,j),以该像素点为起点,在其上下左右四个邻域生成四个灰度共生矩阵,分别计算求得四个灰度共生矩阵相关性特征值的最大值,以此确定该像素点四个方向的最大相关像素点,并以这四个像素点为其评价窗口的边缘位置确定该像素点聚焦评价窗口U(i,j),则其聚焦评价窗口宽度尺寸W1=D1+D2+1,高度尺寸W2=D3+D4+1,其中D1、D2、D3、D4分别表示四个方向上的最大相关像素点与所计算的任一像素点(i,j)之间间隔的像素个数加1,聚焦评价窗口尺寸为W1×W2;利用聚焦评价窗口计算出每一帧图像中的各像素点的聚焦因子;其中,聚焦因子为对应像素点在聚焦评价窗口中的每个像素点评价值和的平均值;每一帧预处理图像中任意像素点(i,j)的聚焦因子为该像素点在其评价窗口中的每个像素点评价值和的平均值,如下式所示:Fk(i,j)=∑(gx(x,y)2+gy(x,y)2)2/(w1×w2)
其中,gx(x,y)和gy(x,y)分别表示第k帧预处理序列图像Ik和Sobel算子在X和Y方向的卷积;每帧图像中达到最大聚焦因子的像素点作为该帧图像的清晰像素点;来自所有图像中的清晰像素点构成一副全聚焦图像;
(d)求取全聚焦图像中每个像素点对应的图像序列号,根据图像序列号的先后顺序表示目标物表面点的相对位置关系,相邻序列图像之间的深度距离Δz可以根据实时移动载体的速度v与Δt的乘积来计算,进而得知目标物表面所有点的深度关系:求得获取第k副图像时拍摄单元在世界坐标系中的Z向坐标Zk,Zk是从1到k所有的Δz的和,如下所示:
记下第k幅图像中每一个清晰像素点在其所在图像的图像坐标系中的像素坐标(ik、jk);根据像素坐标系到世界坐标系的转换矩阵由所有清晰像素点的像素坐标(ik、jk)得到其对应的世界坐标(Xk,Yk,Zk);依此方法,得到预处理序列图像中所有图像的清晰像素点在世界坐标系中的坐标集合{(Xk,Yk,Zk)|1≤k≤N},N为序列图像的总图像数;
(e)根据目标物表面点在世界坐标系中的坐标集合{(Xk,Yk,Zk)|1≤k≤N},将每个点与其周围领域中的点连接构成三角网格,由三角网格组成的面连接形成目标物表面的轮廓图形实现目标物表面在世界坐标系中三维轮廓图形的重构。
本发明的工作原理是:根据透镜成像原理,当焦距和相距一定时,物距是唯一确定的;成像时,物体上只有满足该确定物距的点才能在像平面上得到清晰的像,称为聚焦清晰图像;如果不满足该确定物距,则不能得到清晰的点图像,得到的是一个模糊圆,此时的图像称为离焦图像。所以根据聚焦清晰原理,首先获取一系列在景深方向上的物体的序列图像,使整个序列覆盖物体在景深方向上全部信息;然后在序列图像中通过一定的融合规则获取每一个聚焦清晰的点,从而重建出一幅每一景深部位均十分清晰的图像,称之为全聚焦图像;再通过聚焦分析恢复深度信息,从而通过二维图像序列进行三维重建。相较于其他方法,该方法不需进行复杂的光源定标操作,对图像采集时的光照条件也不苛刻,测距范围比较大,构建三维模型速度也很可观。
附图说明
图1为某像素点与其聚焦评价窗口的示意图。
图2为本发明所用实验装置示意图。
图3为摄像头在位置①、②、③拍摄的图像以及三维重构还原的目标物轮廓示意图。
具体实施方式
本发明设计了一种基于图像处理的目标物表面轮廓测量方法,该方法的步骤包括:汽车搭载一拍摄单元沿目标物延伸方向移动,并每隔Δt时间拍摄一张目标物的图像,从而在一段时间内获取目标物的序列图像;对拍摄单元拍摄得到的全部序列图像进行图像处理,对图像进行裁剪变换,以去除序列图像中目标物测量区域之外的部分非相关背景区域,得到预处理序列图像;提取每一帧预处理序列图像的清晰像素点,计算预处理序列图像每一像素点的聚焦因子,并求取全聚焦图像中所有像素点达到最大聚焦因子时对应的图像序列号,相邻序列图像之间的深度距离Δz可以根据实时车速v与Δt的乘积来计算,将Δz作为对应像素点的深度值,再根据张正友标定法标定的结果计算出像素坐标系与世界坐标系上对应的点的坐标,从而通过二维图像序列进行三维重建,重构出目标物的三维轮廓。
下面结合具体实施方式对本发明的技术方案作进一步更详细的描述。本发明所采用的技术方案是:一种基于图像处理的车载自动测量***,按照如下步骤进行:
步骤一,将CCD图像采集发送装置固定在车身之上;
步骤二,打印一张棋盘格,把它贴在一个平面上,作为标定物。通过调整标定物或摄像机的方向,为标定物拍摄一些不同方向的照片。将这组通过张正友标定法得到相机成像线性模型中的4个内部参数:u0、v0、fx、fy,分别表示主点的像素坐标和相机的有效焦距;2个外部参数:R、t,分别表示相机坐标系与世界坐标系的旋转关系和平移关系,根据这六个参数即可计算出像素坐标系到世界坐标系转换关系。
步骤三,汽车带动CCD图像采集发送装置沿目标物延伸方向移动,并每隔Δt时间拍摄一张目标物的图像,从而在一段时间内获取目标物的N帧序列图像,并将获取的图像通过数据线传至电脑。
步骤四,对拍摄单元拍摄得到的全部序列图像进行图像处理,对图像进行裁剪变换,以去除序列图像中目标物测量区域之外的部分非相关背景区域,得到预处理序列图像。
步骤五,提取每一帧预处理序列图像的清晰像素点,以构建全聚焦图像,确定全聚焦图像中的任一像素点的像素点聚焦评价窗口,计算预处理序列图像每一像素点的聚焦因子:对于全聚焦图像中的任一像素点(i,j)(图1中浅色居中方块),以该像素点为起点,在其上下左右四个邻域生成四个灰度共生矩阵,分别计算求得四个灰度共生矩阵相关性特征值的最大值(四个方向各有一个最大值),以此确定该像素点四个方向的最大相关像素点(图1中深色的四个方块),并以这四个像素点为其评价窗口的边缘位置确定该像素点聚焦评价窗口U(i,j),则其聚焦评价窗口宽度尺寸W1=D1+D2+1,高度尺寸W2=D3+D4+1,其中D1、D2、D3、D4表示像素个数,聚焦评价窗口尺寸为W1×W2。如图1中所示,D1表示某一像素点(浅色方块)与其最左边最大相关像素点的间隔的像素点个数加1(间隔数为1,D1=2),D2表示表示某一像素点与其最右边最大相关像素点的间隔的像素点个数加1(间隔数为0,D2=1)。利用聚焦评价窗口计算出每一帧图像中的各像素点的聚焦因子;其中,聚焦因子为对应像素点在聚焦评价窗口中的每个像素点评价值和的平均值。每一帧预处理图像中任意像素点(i,j)的聚焦因子为该像素点在其评价窗口中的每个像素点评价值和的平均值,如下所示:Fk(i,j)=∑(gx(x,y)2+gy(x,y)2)2/(w1×w2)
其中,gx(x,y)和gy(x,y)分别表示第k帧预处理序列图像Ik和Sobel算子在X和Y方向的卷积。
步骤六,求取全聚焦图像中所有像素点达到最大聚焦因子时对应的图像序列号,可以根据序列号的先后顺序表示目标物表面点的相对位置关系,相邻序列图像之间的深度距离Δz可以根据实时车速v与Δt的乘积来计算,进而得知目标物表面所有点的深度关系。求得获取第k副(k为序列号)图像时CCD图像采集发送装置在世界坐标系中的Z向坐标Zk,Zk是从1到k所有的Δz的和,如下所示:
记下第k幅图像中每一个聚焦清晰的像素点在该图图像坐标系中的像素坐标(ik、jk);再根据第二步相机标定得到的像素坐标系到世界坐标系的转换关系:
其中,u0、v0、fx、fy分别表示主点的像素坐标和相机的有效焦距;R、t分别表示相机坐标系与世界坐标系的旋转关系和平移关系,zc表示主点在相机坐标系下的z坐标。根据转换关系由所有清晰像素点的像素坐标(ik、jk)得到其对应的世界坐标(Xk,Yk,Zk)。依此方法,得到序列图像中所有图像的聚焦清晰像素所对应目标物的点在世界坐标系中的坐标集合{(Xk,Yk,Zk)|1≤k≤N},N为序列图像的总图像数;
步骤七,根据目标物表面点在世界坐标系中的坐标集合{(Xk,Yk,Zk)|1≤k≤N},将每个点与其周围领域中的点连接构成三角网格,由三角网格组成的面连接形成目标物表面的轮廓图形实现目标物表面在世界坐标系中三维轮廓图形的重构;在相邻点间坐标值用线性插值的方法获得,将目标物表面的重构图形显示在计算机控制装置的显示屏上。
如图2所示,车载摄像头在位置①、②、③对要识别目标物④分别拍一张照片,由于车身距目标物的距离发生变化,聚焦位置也发生变化,拍摄位置①、②、③所对应的聚焦位置分别为⑴、⑵、⑶。摄像头在位置①、②、③拍摄的图像以及三维重构还原的目标物轮廓如图3所示。
Claims (3)
1.一种基于车载单目聚焦序列图像构建对象三维轮廓的方法,其特征在于,包括如下步骤:
(a)移动载体带动拍摄单元沿目标物延伸方向移动,并每隔Δt时间拍摄一张目标物的图像,从而在一段时间内获取目标物的N帧序列图像;
(b)对拍摄单元拍摄得到的全部序列图像进行图像处理,对图像进行裁剪变换,以去除序列图像中目标物测量区域之外的部分非相关背景区域,得到预处理序列图像;
(c)提取每一帧预处理序列图像的清晰像素点,以构建全聚焦图像;确定预处理序列图像中的任一像素点的像素点聚焦评价窗口,计算预处理序列图像每一像素点的聚焦因子:对于预处理序列图像中的任一像素点(i,j),以该像素点为起点,在其上下左右四个邻域生成四个灰度共生矩阵,分别计算求得四个灰度共生矩阵相关性特征值的最大值,以此确定该像素点四个方向的最大相关像素点,并以这四个像素点为其评价窗口的边缘位置确定该像素点聚焦评价窗口U(i,j),则其聚焦评价窗口宽度尺寸W1=D1+D2+1,高度尺寸W2=D3+D4+1,其中D1、D2、D3、D4分别表示四个方向上的最大相关像素点与所计算的任一像素点(i,j)之间间隔的像素个数加1,聚焦评价窗口尺寸为W1×W2;利用聚焦评价窗口计算出每一帧图像中的各像素点的聚焦因子;其中,聚焦因子为对应像素点在聚焦评价窗口中的每个像素点评价值和的平均值;每一帧预处理图像中任意像素点(i,j)的聚焦因子为该像素点在其评价窗口中的每个像素点评价值和的平均值,如下式所示:Fk(i,j)=∑gx(x,y)2+gy(x,y)2)2/(w1×w2)
其中,gx(x,y)和gy(x,y)分别表示第k帧预处理序列图像Ik和Sobel算子在X和Y方向的卷积;每帧图像中达到最大聚焦因子的像素点作为该帧图像的清晰像素点;来自所有图像中的清晰像素点构成一副全聚焦图像;
(d)求取全聚焦图像中每个像素点对应的图像序列号,根据图像序列号的先后顺序表示目标物表面点的相对位置关系,相邻序列图像之间的深度距离Δz可以根据实时移动载体的速度v与Δt的乘积来计算,进而得知目标物表面所有点的深度关系:求得获取第k副图像时拍摄单元在世界坐标系中的Z向坐标Zk,Zk是从1到k所有的Δz的和,如下所示:
记下第k幅图像中每一个清晰像素点在其所在图像的图像坐标系中的像素坐标(ik、jk);根据像素坐标系到世界坐标系的转换矩阵由所有清晰像素点的像素坐标(ik、jk)得到其对应的世界坐标(Xk,Yk,Zk);根据步骤(d),得到预处理序列图像中所有图像的清晰像素点在世界坐标系中的坐标集合{(Xk,Yk,Zk)|1≤k≤N},N为序列图像的总图像数;
(e)根据目标物表面点在世界坐标系中的坐标集合{(Xk,Yk,Zk)|1≤k≤N},将每个点与其周围领域中的点连接构成三角网格,由三角网格组成的面连接形成目标物表面的轮廓图形实现目标物表面在世界坐标系中三维轮廓图形的重构。
3.如权利要求1或2所述的一种基于车载单目聚焦序列图像构建对象三维轮廓的方法,其特征在于,拍摄单元采用CCD图像采集发送装置,移动载体为汽车。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447327.6A CN110310371B (zh) | 2019-05-27 | 2019-05-27 | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447327.6A CN110310371B (zh) | 2019-05-27 | 2019-05-27 | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110310371A CN110310371A (zh) | 2019-10-08 |
CN110310371B true CN110310371B (zh) | 2023-04-04 |
Family
ID=68075133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910447327.6A Active CN110310371B (zh) | 2019-05-27 | 2019-05-27 | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110310371B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114564014A (zh) * | 2022-02-23 | 2022-05-31 | 杭州萤石软件有限公司 | 物体信息确定方法、移动机器人***及电子设备 |
CN115641368B (zh) * | 2022-10-31 | 2024-06-04 | 安徽农业大学 | 一种用于标定的离焦棋盘格图像特征提取方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103801989A (zh) * | 2014-03-10 | 2014-05-21 | 太原理工大学 | 一种基于图像处理确定工件坐标原点的机载自动测量*** |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN107680152A (zh) * | 2017-08-31 | 2018-02-09 | 太原理工大学 | 基于图像处理的目标物表面形貌测量方法和装置 |
US10205929B1 (en) * | 2015-07-08 | 2019-02-12 | Vuu Technologies LLC | Methods and systems for creating real-time three-dimensional (3D) objects from two-dimensional (2D) images |
CN109671115A (zh) * | 2017-10-16 | 2019-04-23 | 三星电子株式会社 | 使用深度值估计的图像处理方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10304203B2 (en) * | 2015-05-14 | 2019-05-28 | Qualcomm Incorporated | Three-dimensional model generation |
JP6989276B2 (ja) * | 2017-04-05 | 2022-01-05 | 株式会社Soken | 位置計測装置 |
KR102275310B1 (ko) * | 2017-04-20 | 2021-07-12 | 현대자동차주식회사 | 자동차 주변의 장애물 검출 방법 |
-
2019
- 2019-05-27 CN CN201910447327.6A patent/CN110310371B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103801989A (zh) * | 2014-03-10 | 2014-05-21 | 太原理工大学 | 一种基于图像处理确定工件坐标原点的机载自动测量*** |
US10205929B1 (en) * | 2015-07-08 | 2019-02-12 | Vuu Technologies LLC | Methods and systems for creating real-time three-dimensional (3D) objects from two-dimensional (2D) images |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN107680152A (zh) * | 2017-08-31 | 2018-02-09 | 太原理工大学 | 基于图像处理的目标物表面形貌测量方法和装置 |
CN109671115A (zh) * | 2017-10-16 | 2019-04-23 | 三星电子株式会社 | 使用深度值估计的图像处理方法和装置 |
Non-Patent Citations (2)
Title |
---|
"3D reconstruction from a monocular vision system for unmanned ground vehicles";Tompkins R.Cortland等;《ELECTRO-OPTICAL REMOTE SENSING, PHOTONIC TECHNOLOGIES, AND APPLICATIONS V》;20110101;第8186卷;第818608页 * |
"三维自由曲线的立体匹配及重构方法";刘双印;《中国优秀硕士学位论文全文数据库信息科技辑》;20180815(第8期);第I138-613页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110310371A (zh) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN210046133U (zh) | 基于激光结构光的焊缝视觉跟踪*** | |
CN107578464B (zh) | 一种基于线激光扫描的传送带工件三维轮廓测量方法 | |
CN110230998B (zh) | 基于线激光和双目相机的快速精密三维测量方法和装置 | |
Strecha et al. | On benchmarking camera calibration and multi-view stereo for high resolution imagery | |
EP2568253B1 (en) | Structured-light measuring method and system | |
GB2593960A (en) | 3-D imaging apparatus and method for dynamically and finely detecting small underwater objects | |
CN110657785B (zh) | 一种高效的场景深度信息获取方法及*** | |
CN103900494B (zh) | 用于双目视觉三维测量的同源点快速匹配方法 | |
CN110766669B (zh) | 一种基于多目视觉的管线测量方法 | |
CN114998499A (zh) | 一种基于线激光振镜扫描的双目三维重建方法及*** | |
CN115330958A (zh) | 基于激光雷达的实时三维重建方法及装置 | |
CN110310371B (zh) | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 | |
CN110738731A (zh) | 一种用于双目视觉的3d重建方法和*** | |
CN111640156A (zh) | 针对室外弱纹理目标的三维重建方法、设备及存储设备 | |
CN114782632A (zh) | 一种图像重建方法、装置及设备 | |
CN111156921A (zh) | 一种基于滑动窗口均值滤波的轮廓数据处理方法 | |
CN113160416B (zh) | 一种用于煤流检测的散斑成像装置及方法 | |
CN112525106B (zh) | 基于三相机协同激光的3d探测方法及装置 | |
CN117710588A (zh) | 一种基于视觉测距先验信息的三维目标检测方法 | |
CN108961378B (zh) | 一种多目点云三维重建方法、装置及其设备 | |
Hongsheng et al. | Three-dimensional reconstruction of complex spatial surface based on line structured light | |
CN113808019A (zh) | 一种非接触测量***及方法 | |
CN113129348A (zh) | 一种基于单目视觉的道路场景中车辆目标的三维重建方法 | |
WO2008044096A1 (en) | Method for three-dimensionally structured light scanning of shiny or specular objects | |
CN114252024B (zh) | 一种单测量模组多工作模式工件三维测量装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |