CN106846469B - 基于特征点追踪由聚焦堆栈重构三维场景的方法和装置 - Google Patents
基于特征点追踪由聚焦堆栈重构三维场景的方法和装置 Download PDFInfo
- Publication number
- CN106846469B CN106846469B CN201710091014.2A CN201710091014A CN106846469B CN 106846469 B CN106846469 B CN 106846469B CN 201710091014 A CN201710091014 A CN 201710091014A CN 106846469 B CN106846469 B CN 106846469B
- Authority
- CN
- China
- Prior art keywords
- storehouse
- characteristic point
- dimensional scenic
- focusing
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于特征点追踪由聚焦堆栈重构三维场景方法和装置。
背景技术
传统相机拍摄的照片是三维场景发出的光线经过透镜在二维探测器上光强的累加和,这样导致光线方向信息和场景深度信息被压缩。计算摄影学是近年来新兴的研究三维成像的新领域,聚焦堆栈是计算摄影学中三维场景重构的方法之一。聚焦堆栈是一组聚焦在不同成像平面或采用不同参数拍摄的成像序列,具有丰富的三维信息。在计算机视觉中,主要以聚焦堆栈的散焦和聚焦的程度进行三维场景的重构和几何测量。现有的由聚焦堆栈重构三维场景的方法是基于聚焦测度(也可以说是变焦法)的重构方法,需要计算聚焦堆栈的每幅图像的聚焦测度。
发明内容
本发明的目的在于提供一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,本发明采用特征点追踪为由聚焦堆栈重构三维场景提供了有效手段,区别于多目视觉重构三维场景的方法,本发明提供的基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,不再需要估计相机内参和外参,能够满足现有技术中对相机拍摄视场角(Field OfView,FOV)下三维场景重构的需求。
为实现上述目的,本发明提供一种基于特征点追踪由聚焦堆栈重构三维场景的方法,所述方法包括:建立由三维场景生成聚焦堆栈的正演模型,得到三维场景特征点与聚焦堆栈的关系;从所述聚焦堆栈中提取每个图像的特征点,根据三维场景生成聚焦堆栈的正演模型追踪所述聚焦堆栈中匹配成功的特征点的坐标;建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,重构三维场景。
进一步地,所述建立的正演模型为:
所述三维场景特征点与聚焦堆栈的关系为:
其中,为三维场景生成聚焦堆栈的正演模型,(Sx,Sy)为场景的物面,f(Sx,Sy)是(Sx,Sy)对应的辐照度,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为(Sx,Sy)在成像面(x,y)扩张函数。
进一步地,所述建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,具体包括:建立匹配成功的特征点横坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点横坐标;建立匹配成功的特征点纵坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点纵坐标。
进一步地,所述特征点横坐标和三维场景的深度图的方程组:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
进一步地,所述特征点纵坐标和三维场景的深度图的方程组为:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
本发明还提供一种基于特征点追踪由聚焦堆栈重构三维场景的装置,所述装置包括:构建模块,用于建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的关系;获取模块,用于从所述聚焦堆栈中提取每个图像的特征点,追踪所述聚焦堆栈中匹配成功的特征点;重构模块,用于根据所述获取模块获取的所述匹配成功的特征点,建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,重构三维场景。
进一步地,所述构建模块建立的正演模型为:
所述三维场景特征点与聚焦堆栈的关系为:
其中,为三维场景生成聚焦堆栈的正演模型,(Sx,Sy)为场景的物面,f(Sx,Sy)是(Sx,Sy)对应的辐照度,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为(Sx,Sy)在成像面(x,y)扩张函数。
进一步地,所述重构模块具体包括:第一关系单元,用于建立匹配成功的特征点横坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点横坐标;第二关系单元,用于建立匹配成功的特征点纵坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点纵坐标;重构单元,用于根据所述第一关系单元得到的匹配成功的特征点横坐标,和所述第二关系单元得到的匹配成功的特征点纵坐标,重构三维场景。
进一步地,所述特征点横坐标和三维场景的深度图的方程组:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
进一步地,所述特征点纵坐标和三维场景的深度图的方程组为:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
本发明提供的方案,通过构建三维场景特征点与聚焦堆栈的关系,追踪聚焦堆栈中匹配成功的特征点,并追踪特征点在聚焦堆栈中的轨迹,进而实现了相机拍摄视场下的三维场景重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
附图说明
图1是根据本发明第一实施例提供的基于特征点追踪由聚焦堆栈重构三维场景方法的流程示意图。
图2是根据本发明第一实施例提供的生成聚焦堆栈的示意图。
图3是根据本发明第一实施例提供的聚焦堆栈的第n次成像过程示意图。
图4是根据本发明第二实施例提供的基于特征点追踪由聚焦堆栈重构三维场景装置的结构示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
如图1所示,本实施例所提供的基于特征点追踪由聚焦堆栈重构三维场景方法包括:
步骤101,建立由三维场景生成聚焦堆栈的正演模型,得到三维场景特征点与聚焦堆栈的关系。
该步骤中,聚焦堆栈是一组聚焦在不同成像平面或采用不同参数拍摄的成像序列,本实施方式中的聚焦堆栈为一组聚焦在不同成像平面的成像序列。本实施方式以沿光轴移动透镜、同时固定探测器完成聚焦堆栈采集为例,对建立正演模型进行说明。通过探测器采集场景中物体(物体由多个物点组成)聚焦在不同成像面的图像序列,这些图像序列形成聚焦堆栈。由于聚焦堆栈是对一定视场角下的三维场景的多成像平面成像,因而能够实现相机拍摄视场角(FOV)下的三维场景重构,可以为虚拟现实和几何测量提供精确的三维结构信息。当然,本发明也可以采用其它的方法采集聚焦堆栈。
考虑在相机拍摄视场下的三维场景,可以采用(f(Sx,Sy),depth(Sx,Sy))描述三维场景。其中,(Sx,Sy)为场景的物面。f(Sx,Sy)是(Sx,Sy)对应的辐照度。depth(Sx,Sy)为三维场景的深度图。
图2示出的是本实施例形成聚焦堆栈的示意图,如图2所示,图2的左侧表示场景,右侧表示探测器,中间表示透镜。固定探测器,沿光轴移动透镜,如图2中示意出的第1次成像……第N次成像。随着透镜沿光轴的移动,探测器对应的场景的物面也相应地沿光轴移动,如图2中示意出的第1次物面……第N次物面。
图3是聚焦堆栈的第n次成像过程的示意图,如图3所示,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,(Sx,Sy)与(x,y)之间的虚线为第n次成像透镜所在平面。dn为聚焦堆栈的第n次成像透镜到物面(Sx,Sy)的距离,d′n为聚焦堆栈的第i次成像透镜到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离。
根据透镜成像原理,并利用点扩散函数表达透镜成像过程,建立由三维场景生成聚焦堆栈的正演模型为:
其中,为(Sx,Sy)在成像面(x,y)上的点扩张函数。x和y是成像面的横坐标和纵坐标,物理意义是(Sx,Sy)上的点的在成像面的位置坐标。
本实施例中,为了简化模型,考虑透镜光阑对应的孔径近似为小孔,成像过程看作小孔成像,这样可以简化模型使得计算简单,因此,点扩张函数为脉冲函数δ函数,再结合上述的正演模型:
得到三维场景特征点与聚焦堆栈的关系如下:
进而得到三维场景特征点(Sx,Sy)在聚焦堆栈中的轨迹方程。
步骤102,从步骤101所描述的正演模型的聚焦堆栈中提取每个图像中所有的特征点,根据三维场景生成聚焦堆栈的正演模型追踪匹配成功的特征点的坐标。
实际应用中,可以使用SIFT(Scale-invariant feature transform,尺度不变特征转换)、ORB(ORiented Brief)、SURF进行特征点的提取与匹配。匹配指的是同一个物点在不同的聚焦堆栈图片中成像位置不同,匹配就是找到这些点。
在具体实施中,考虑到SIFT对图像的视角变化、噪声保持较强的稳健性,并可以处理图像间的平移、旋转、仿射变换情况下的匹配问题,本实施例采用SIFT执行聚焦堆栈的图像匹配,得到匹配成功的图像的特征点。
该步骤中,从步骤101获取的聚焦堆栈中提取每个图像中的所有特征点:feature_1,feature_2,…,feature_M,追踪聚焦堆栈中所有匹配成功的特征点坐标,特征点feature_m在聚焦堆栈的第n次成像面的坐标为
步骤103:建立由聚焦堆栈重构三维场景的反演模型,得到匹配成功的特征点的三维坐标,重构三维场景。
建立由聚焦堆栈重构三维场景的反演模型是指建立匹配成功的特征点的三维坐标和三维场景的方程组。
该步骤方法具体如下:
对匹配成功的特征点feature_m,建立关于特征点横坐标Sx和三维场景的深度图depth(Sx,Sy)的方程组:
建立关于特征点纵坐标Sy和三维场景的深度图depth(Sx,Sy)的方程组:
关于特征点横坐标Sx和三维场景的深度图depth(Sx,Sy)的方程组,表达为AX=b1,X=(Sx,depth(Sx,Sy))T可通过求解最小二乘问题min||AX||2得到Sx和depth(Sx,Sy)。同样关于特征点纵坐标Sy和depth(Sx,Sy)的方程组,表达为表达为AY=b2,Y=(Sy,depth(Sx,Sy))T可通过求解最小二乘问题min||AY||2得到Sy。
实际应用中,生成相机拍摄视场(FOV)下的三维场景包括三维点云图或三维渲染图。
该方法还包括:测量特征点之间的距离,提供三维场景的几何测距。
本发明提供的基于特征点追踪由聚焦堆栈重构三维场景的方法,通过构建三维场景特征点与聚焦堆栈的关系,追踪聚焦堆栈中匹配成功的特征点,并计算出匹配成功的特征点的三维坐标,进而实现了相机拍摄视场下的三维场景重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
参见图4,本发明实施例提供了一种基于特征点追踪由聚焦堆栈重构三维场景的装置,所述装置包括:
构建模块201,用于建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的关系;
获取模块202,用于从聚焦堆栈中提取每个图像的特征点,追踪聚焦堆栈中匹配成功的特征点;
重构模块203,用于根据获取模块202获取的匹配成功的特征点,建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,重构三维场景。
上述实施方式中,构建模块201建立的正演模型为:
所述三维场景特征点与聚焦堆栈的关系为:
其中,(Sx,Sy)为场景的物面,f(Sx,Sy)是(Sx,Sy)对应的辐照度,depth(Sx,Sy)为三维场景的深度图,dn为聚焦堆栈的第n次成像镜头到物面(Sx,Sy)的距离,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离。
获取模块202采用SIFT、ORB或SURF方法从所述聚焦堆栈中提取每个图像的特征点。
重构模块203具体包括:
第一关系单元,用于建立匹配成功的特征点横坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点横坐标;
第二关系单元,用于建立匹配成功的特征点纵坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点纵坐标;
重构单元,用于根据所述第一关系单元得到的匹配成功的特征点横坐标,和所述第二关系单元得到的匹配成功的特征点纵坐标,重构三维场景。
所述第一关系单元得到的所述特征点横坐标和三维场景的深度图的方程组:
所述第二关系单元得到的所述特征点纵坐标和三维场景的深度图的方程组为:
本发明实施例中,重构模块203重构的三维场景包括三维点云图或三维渲染图。
本发明提供的基于特征点追踪由聚焦堆栈重构三维场景的装置,通过构建模块构建出三维场景特征点与聚焦堆栈的关系,追踪聚焦堆栈中匹配成功的特征点,并计算出匹配成功的特征点的三维坐标,进而实现了相机拍摄视场下的三维场景重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种基于特征点追踪由聚焦堆栈重构三维场景的方法,其特征在于,所述方法包括:
建立由三维场景生成聚焦堆栈的正演模型,得到三维场景特征点与聚焦堆栈的关系;
从所述聚焦堆栈中提取每个图像的特征点,根据三维场景生成聚焦堆栈的正演模型追踪所述聚焦堆栈中匹配成功的特征点的坐标;
建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,重构三维场景;
所述建立的正演模型为:
所述三维场景特征点与聚焦堆栈的关系为:
其中,为三维场景生成聚焦堆栈的正演模型,(Sx,Sy)为场景的物面,f(Sx,Sy)是(Sx,Sy)对应的辐照度,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为(Sx,Sy)在成像面(x,y)扩张函数。
2.如权利要求1所述的方法,其特征在于,所述建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,具体包括:
建立匹配成功的特征点横坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点横坐标;
建立匹配成功的特征点纵坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点纵坐标。
3.如权利要求2所述的方法,其特征在于,所述特征点横坐标和三维场景的深度图的方程组:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
4.如权利要求2所述的方法,其特征在于,所述特征点纵坐标和三维场景的深度图的方程组为:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
5.一种基于特征点追踪由聚焦堆栈重构三维场景的装置,其特征在于,所述装置包括:
构建模块,用于建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的关系;
获取模块,用于从所述聚焦堆栈中提取每个图像的特征点,追踪所述聚焦堆栈中匹配成功的特征点;
重构模块,用于根据所述获取模块获取的所述匹配成功的特征点,建立匹配成功的特征点的三维坐标和三维场景的方程组,求解方程组得到匹配成功的特征点的三维坐标,重构三维场景;
所述构建模块建立的正演模型为:
所述三维场景特征点与聚焦堆栈的关系为:
其中,为三维场景生成聚焦堆栈的正演模型,(Sx,Sy)为场景的物面,f(Sx,Sy)是(Sx,Sy)对应的辐照度,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为(Sx,Sy)在成像面(x,y)扩张函数。
6.如权利要求5所述的装置,其特征在于,所述重构模块具体包括:
第一关系单元,用于建立匹配成功的特征点横坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点横坐标;
第二关系单元,用于建立匹配成功的特征点纵坐标和三维场景的深度图的方程组,通过求解最小二乘问题,得到匹配成功的特征点纵坐标;
重构单元,用于根据所述第一关系单元得到的匹配成功的特征点横坐标,和所述第二关系单元得到的匹配成功的特征点纵坐标,重构三维场景。
7.如权利要求5所述的装置,其特征在于,所述特征点横坐标和三维场景的深度图的方程组:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
8.如权利要求5所述的装置,其特征在于,所述特征点纵坐标和三维场景的深度图的方程组为:
其中,(Sx,Sy)为场景的物面,(x,y)为第n次成像面,depth(Sx,Sy)为三维场景的深度图,d′n为聚焦堆栈的第n次成像镜头到探测器的距离,d′1为聚焦堆栈的第1次成像镜头到探测器的距离,为特征点在聚焦堆栈的第n次成像面的坐标。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2016111547529 | 2016-12-14 | ||
CN201611154752 | 2016-12-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106846469A CN106846469A (zh) | 2017-06-13 |
CN106846469B true CN106846469B (zh) | 2019-12-03 |
Family
ID=59128734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710091014.2A Active CN106846469B (zh) | 2016-12-14 | 2017-02-20 | 基于特征点追踪由聚焦堆栈重构三维场景的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106846469B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034490B (zh) * | 2021-04-16 | 2023-10-10 | 北京石油化工学院 | 化学品库房的堆垛安全距离监测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101432776A (zh) * | 2006-05-05 | 2009-05-13 | 汤姆森特许公司 | 用于从二维图像进行三维物体重建的***和方法 |
KR100983548B1 (ko) * | 2010-04-12 | 2010-09-24 | 이화여자대학교 산학협력단 | 현미경의 점 확산함수를 고려한 삼차원 형상 복원 방법 |
CN103440679A (zh) * | 2013-08-09 | 2013-12-11 | 中国科学院苏州生物医学工程技术研究所 | 激光扫描共聚焦显微图像的三维重建方法 |
CN104463949A (zh) * | 2014-10-24 | 2015-03-25 | 郑州大学 | 一种基于光场数字重聚焦的快速三维重建方法及其*** |
CN105023275A (zh) * | 2015-07-14 | 2015-11-04 | 清华大学 | 超分辨率光场采集装置及其的三维重建方法 |
CN105279789A (zh) * | 2015-11-18 | 2016-01-27 | 中国兵器工业计算机应用技术研究所 | 一种基于图像序列的三维重建方法 |
-
2017
- 2017-02-20 CN CN201710091014.2A patent/CN106846469B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101432776A (zh) * | 2006-05-05 | 2009-05-13 | 汤姆森特许公司 | 用于从二维图像进行三维物体重建的***和方法 |
KR100983548B1 (ko) * | 2010-04-12 | 2010-09-24 | 이화여자대학교 산학협력단 | 현미경의 점 확산함수를 고려한 삼차원 형상 복원 방법 |
CN103440679A (zh) * | 2013-08-09 | 2013-12-11 | 中国科学院苏州生物医学工程技术研究所 | 激光扫描共聚焦显微图像的三维重建方法 |
CN104463949A (zh) * | 2014-10-24 | 2015-03-25 | 郑州大学 | 一种基于光场数字重聚焦的快速三维重建方法及其*** |
CN105023275A (zh) * | 2015-07-14 | 2015-11-04 | 清华大学 | 超分辨率光场采集装置及其的三维重建方法 |
CN105279789A (zh) * | 2015-11-18 | 2016-01-27 | 中国兵器工业计算机应用技术研究所 | 一种基于图像序列的三维重建方法 |
Non-Patent Citations (3)
Title |
---|
Plant Three-dimensional Information Detection Based on Single Moving Camera;Dongbo Zhang 等;《International Conference on Computer, Communications and Information Technology》;20141231;全文 * |
基于4D光场数据的深度信息获取;陈佃文;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160815(第8期);全文 * |
基于光场相机的超分辨焦点堆栈的研究;赵兴荣 等;《计算机测量与控制》;20141231;第22卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN106846469A (zh) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816703B (zh) | 一种基于相机标定和icp算法的点云配准方法 | |
Won et al. | Omnimvs: End-to-end learning for omnidirectional stereo matching | |
US10217293B2 (en) | Depth camera-based human-body model acquisition method and network virtual fitting system | |
CN102697508B (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN103945210B (zh) | 一种实现浅景深效果的多摄像头拍摄方法 | |
CN103839277B (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN108257161A (zh) | 基于多相机的车辆环境三维重构和运动估计***及方法 | |
CN202075794U (zh) | 一种无人机航摄立体成像处理设备 | |
Won et al. | End-to-end learning for omnidirectional stereo matching with uncertainty prior | |
CN106971408A (zh) | 一种基于时空转换思想的摄像机标定方法 | |
CN104469170B (zh) | 双目摄像装置、图像处理方法及装置 | |
CN107633532B (zh) | 一种基于白光扫描仪的点云融合方法及*** | |
CN110044374A (zh) | 一种基于图像特征的单目视觉测量里程的方法及里程计 | |
CN110428501A (zh) | 全景影像生成方法、装置、电子设备及可读存储介质 | |
CN107066975B (zh) | 基于深度传感器的视频识别与跟踪***及其方法 | |
CN109325981A (zh) | 基于聚焦像点的微透镜阵列型光场相机几何参数标定方法 | |
CN111899345B (zh) | 一种基于2d视觉图像的三维重建方法 | |
CN108010125A (zh) | 基于线结构光和图像信息的真实尺度三维重建***及方法 | |
CN110455281A (zh) | 暗弱小天体光学导航特征成像模拟方法 | |
CN106125907A (zh) | 一种基于线框模型的三维目标注册定位方法 | |
Hafeez et al. | Image based 3D reconstruction of texture-less objects for VR contents | |
Babaee et al. | 3-D object modeling from 2-D occluding contour correspondences by opti-acoustic stereo imaging | |
CN105488780A (zh) | 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法 | |
CN106846469B (zh) | 基于特征点追踪由聚焦堆栈重构三维场景的方法和装置 | |
Hafeez et al. | 3D surface reconstruction of smooth and textureless objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |