CN112465796B - 一种融合焦点堆栈和全聚焦图像的光场特征提取方法 - Google Patents

一种融合焦点堆栈和全聚焦图像的光场特征提取方法 Download PDF

Info

Publication number
CN112465796B
CN112465796B CN202011432055.1A CN202011432055A CN112465796B CN 112465796 B CN112465796 B CN 112465796B CN 202011432055 A CN202011432055 A CN 202011432055A CN 112465796 B CN112465796 B CN 112465796B
Authority
CN
China
Prior art keywords
light field
view
image
angle
extraction method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011432055.1A
Other languages
English (en)
Other versions
CN112465796A (zh
Inventor
金欣
周思瑶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen International Graduate School of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen International Graduate School of Tsinghua University filed Critical Shenzhen International Graduate School of Tsinghua University
Priority to CN202011432055.1A priority Critical patent/CN112465796B/zh
Publication of CN112465796A publication Critical patent/CN112465796A/zh
Application granted granted Critical
Publication of CN112465796B publication Critical patent/CN112465796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种融合焦点堆栈和全聚焦图像的光场特征提取方法,包括以下步骤:A1:输入光场数据,对所述光场数据进行解码和预处理得到光场子视角图像阵列,根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像;A2:将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合,根据所述图像集合生成高斯差分金字塔;A3:搜索所述高斯差分金字塔中的局部极值点作为特征点位置,并生成对应的特征点描述符。本发明提出的光场特征提取方法能够提取深度和尺度都鲁棒的四维光场特征点。

Description

一种融合焦点堆栈和全聚焦图像的光场特征提取方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种融合焦点堆栈和全聚焦图像的光场特征提取方法。
背景技术
图像的点特征是一个稀疏的向量组合,可以表示图像区别于其他图像的自身特征,是计算机识别和理解图像的开始。点特征也用来寻找不同图像中的对应位置,从而应用于图像拼接、三维重建、SLAM等领域。
手持式光场相机在图像传感器前放置一个微透镜阵列,能够在一次拍摄中同时记录场景光线的空间位置和方向信息,因此可以为图像重聚焦、深度图估计、虚拟现实等领域的研究提供助力。光场通常被参数化为二维空间信息与二维角度信息的组合,被描述为四维光场。因为光场有四个维度,而普通图像只包含两个维度,因此难以直接通过二维图像对四维光场进行描述,传统的二维图像特征提取方法不考虑图像角度信息,不能完整表征光场的高维信息。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种融合焦点堆栈和全聚焦图像的光场特征提取方法,能够提取深度和尺度都鲁棒的四维光场特征点。
为了达到上述目的,本发明采用以下技术方案:
本发明的一个实施例公开了一种融合焦点堆栈和全聚焦图像的光场特征提取方法,包括以下步骤:
A1:输入光场数据,对所述光场数据进行解码和预处理得到光场子视角图像阵列,根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像;
A2:将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合,根据所述图像集合生成高斯差分金字塔;
A3:搜索所述高斯差分金字塔中的局部极值点作为特征点位置,并生成对应的特征点描述符。
优选地,步骤A1中根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像具体包括:提取所述光场子视角图像阵列中对角线视角上的光场自视角图像,根据对角线视角上的光场自视角图像生成对角线视角上的焦点堆栈和全聚焦图像。
优选地,生成的对角线视角上的焦点堆栈为:
其中,是角度域坐标为(u0,v0)的视角处的焦点堆栈,λ是重聚焦系数,L(u,v,s,t)表示根据所述光场数据解码后的光场,(u,v)为角度域坐标,(s,t)为空间域坐标,U、V是光场子视角图像阵列的行数和列数;
优选地,生成的全聚焦图像为:
其中,是角度域坐标为(u0,v0)的视角处的全聚焦图像,Depth是光场深度图索引。
优选地,步骤A2中将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合具体包括:采用下式将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联:
其中,是角度域坐标为(u0,v0)的视角处的图像集合,/>是角度域坐标为(u0,v0)的视角处的焦点堆栈,/>是角度域坐标为(u0,v0)的视角处的全聚焦图像。
优选地,步骤A2中根据所述图像集合生成高斯差分金字塔具体包括:采用下式构建高斯差分金字塔:
其中,是角度域坐标为(u0,v0)的视角处的高斯差分金字塔,是角度域坐标为(u0,v0)的视角处的图像集合的尺度空间;
进一步地,采用高斯函数对所述图像集合进行模糊和降采样处理,得到角度域坐标为(u0,v0)的视角处的图像集合的尺度空间表示为:
其中,G(s,t,σi)是尺度可变高斯函数,是角度域坐标为(u0,v0)的视角处的图像集合。
优选地,尺度可变高斯函数G(s,t,σi)表示为:
其中,(s,t)为空间域坐标,σi为尺度;
进一步地,尺度σi表示为:σi+1=kσi,1≤i≤N,N为高斯尺度空间内的尺度的数量,k为大于0的参数。
优选地,步骤A3中搜索所述高斯差分金字塔中的局部极值点作为特征点位置具体包括:
计算所述高斯差分金字塔的局部Hessian矩阵:
其中,(s,t)为空间域坐标,D为所述高斯差分金字塔;
当局部Hessian矩阵取局部最大值时,判定当前点为特征点,并将当前点的位置作为特征点位置。
优选地,步骤A3中生成对应的特征点描述符具体包括:对特征点位置的周围空间区域分块,并在4×4的窗口内计算8个方向的梯度直方图,得到128维向量表征描述子。
本发明的另一实施例公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现上述的光场特征提取方法的步骤。
与现有技术相比,本发明的有益效果在于:本发明提供的融合焦点堆栈和全聚焦图像的光场特征提取方法,充分利用光场相机先拍照后对焦的特性,结合其同时采集到的空间信息及角度信息及两者之间的关系,生成一组稀疏的焦点堆栈和全聚焦图像并计算二者的级联图像集合对应的高斯差分金字塔空间中的极值点,从而得到深度和尺度都鲁棒的、准确度较高的四维光场特征点,大大丰富了光场在全景拼接、SLAM等领域的应用。
附图说明
图1是本发明优选实施例的融合焦点堆栈和全聚焦图像的光场特征提取方法的流程图。
具体实施方式
在具体的实施方案中执行以上步骤时,可以按照以下方式操作。需注意的是,在实施过程中所采用的具体方法都仅为举例说明,本发明所涵盖的范围包括但不局限于所列举的以下方法。下面对照附图并结合优选的实施方式对本发明作进一步说明。
四维光场包含的场景信息远大于普通图像,如果直接提取特征点,计算量巨大。三维焦点堆栈由光场降维得到,是聚焦在不同平面上的一系列图像,能够表征光场的角度信息和空间信息。从焦点堆栈中可以拼合生成全聚焦图像,清晰地表征光场的纹理信息。本发明优选实施例为充分利用光场空间域和角度域的信息,准确地提取光场特征,利用焦点堆栈和全聚焦图像提取光场特征点。
如图1,本发明优选实施例公开了一种融合焦点堆栈和全聚焦图像的光场特征提取方法,充分利用光场空间域和角度域的信息,准确地提取视角鲁棒的四维光场特征点,包括以下步骤:
A1:输入光场数据,对光场数据进行解码和预处理得到光场子视角图像阵列,根据光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像;
具体地,步骤A1包括以下步骤:
A11:输入光场数据,进行解码和预处理,得到光场子视角图像阵列;
本实施例中,L(u,v,s,t)为输入光场,其中(u,v)为角度域坐标,(s,t)为空间域坐标。对输入光场进行解码和预处理,得到光场的子视角图像方法如下:
SAI(u0,v0)={L(u,v,s,t)|u=u0,v=v0}. (1)
其中SAI(u0,v0)是光场在视角(u0,v0)处的光场子视角图像;光场L解码后得到光场子视角图像阵列{SAI(u0,v0)|u0∈[1,U],v0∈[1,V]},U、V是光场子视角图像阵列的行数和列数。
解码得到光场子视角图像阵列后,对该阵列进行去噪和颜色校正操作预处理,输出用于提取特征点的光场子视角图像阵列。
A12:对于对角线视角上的稀疏光场,生成对应这些视角位置的多个三维焦点堆栈。
光场具有多个视角,场景中不同深度的物体在多视角子图像中对应的视差不同。多个光场子视角图像平移叠加后能够实现合成孔径成像,生成一系列聚焦平面由近及远变化的光场图像F(s,t,λ),即焦点堆栈。焦点堆栈能够描述场景点的深度信息,提取每个子视角对应的焦点堆栈,再提取特征点,即可得到深度鲁棒的光场特征点。其中,手持式光场相机各子视角图像直接的视差小,光场数据包含大量冗余,对角线视角上的光场即可代表整个光场的信息。因此本实施例中仅生成对应对角线视角的稀疏的一组焦点堆栈,进而提取光场特征点,一方面可以大大减少计算量,另一方面还可以提高提取特征点速度。
焦点堆栈由光场在空间维度进行平移后在角度维度进行积分得到,计算过程如下:
其中,是视角(u0,v0)处的焦点堆栈,λ是重聚焦系数。U、V为光场子视角图像阵列的行数和列数。
上式(2)也即可以表述为:
时:
时:
时:
时:
不同视角位置处生成焦点堆栈所使用的子视角图像数量不同,越靠近中心视角,使用的周围子视角图像数量越多,生成的焦点堆栈包含的聚焦平面范围越广,因此包含的光场深度信息越完整。
全聚焦图像通过提取焦点堆栈中对焦位置的像素拼合形成:
其中,是视角(u0,v0)处的全聚焦图像,Depth是光场深度图索引。本实施例通过光场深度图索引在焦点堆栈中取对焦的像素,拼合成该视角位置的全聚焦图像。
A2:将多个视角位置的焦点堆栈和全聚焦图像分别进行级联得到图像集合,根据图像集合生成高斯差分金字塔;
具体地,将焦点堆栈和全聚焦图像在RGB通道进行级联得到图像集合:
其中,是角度域坐标为(u0,v0)的视角处的图像集合。
然后,对于级联后的图像集合,采用高斯函数进行模糊及降采样处理,生成四维高斯差分金字塔,以进一步有效地在高斯尺度空间中检测到鲁棒的极值点;
具体地,本实施例中构建的高斯差分金字塔D为:
其中,是角度域坐标为(u0,v0)的视角处的高斯差分金字塔,是角度域坐标为(u0,v0)的视角处的图像集合的尺度空间;
为了模拟光场数据的多尺度特征,使用高斯函数对级联后的三维图像集合进行模糊和降采样处理,得到图像集合的尺度空间为:
其中,G(s,t,σi)是尺度可变高斯函数,表示为:
本实施例构建具有N个尺度的高斯尺度空间(DoG),即使用N个相差k倍的尺度(k>0):
σi+1=kσi,1≤i≤N (8)
尺度σi的大小决定三维图像集合的平滑程度,大尺度空间对应图像的整体特征,小尺度空间对应图像的局部特征。
A3:搜索高斯差分金字塔空间中的局部极值点作为特征点位置,并生成对应的特征点描述符。
具体地,步骤A3包括以下步骤:
A31:搜索高斯差分金字塔空间中的局部极值点作为特征点位置;
在高斯差分金字塔空间中,计算其局部Hessian矩阵:
其中,
当Hessian矩阵判别式取局部四维(空间s,t+梯度λ+尺度σ)最大值,判定当前点为极值点,由此定位特征点位置。特征点位置用双平面坐标系定义的四维坐标表示,对视角位置(u0,v0)处的高斯差分金字塔进行搜索时,所获得的特征点位置角度域坐标为(u0,v0),空间域坐标为极值(s*,t*);也即该图像集合的特征点位置描述为{(u0,v0,s*,t*)}。
A32:对于每个特征点,计算特征点邻域梯度直方图,生成对应的特征点描述符。
特征点描述符是一组向量,描述符包括关键点及其周围对其有贡献的点,用来作为目标匹配的依据,也可使关键点具有更多的不变特性。本发明对特征点周围空间区域分块,然后在4×4的窗口内计算8个方向的梯度直方图,得到128维向量表征描述子。
由于本实施例中的特征描述子是从焦点堆栈和全聚焦图像中构造的,所以特征对不同深度的干扰物体,包括部分遮挡物和从光滑表面反射的物体,具有鲁棒性。
本发明优选实施例提出融合焦点堆栈和全聚焦图像的光场特征提取方法,将光场转换为一组稀疏的对角线视角图像位置上的三维焦点堆栈与二维全聚焦图像,再提取焦点堆栈高斯差分金字塔空间中的极值点为光场四维特征点位置。首先解码和预处理光场数据,得到光场子视角图像阵列,然后对于对角线视角上的稀疏光场,生成对应这些视角位置的多个三维焦点堆栈与二维全聚焦图像;将焦点堆栈与全聚焦图像级联,对于级联后的图像集合,采用高斯函数进行模糊及降采样处理,生成四维高斯差分金字塔;搜索高斯差分金字塔空间中的局部极值点作为特征点位置,并生成对应的特征点描述符。实验结果表明,与现有算法相比,该方法能够提取深度和尺度都鲁棒的四维光场特征点。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述的光场特征提取方法,具体实现可参见方法实施例,在此不再赘述。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (11)

1.一种融合焦点堆栈和全聚焦图像的光场特征提取方法,其特征在于,包括以下步骤:
A1:输入光场数据,对所述光场数据进行解码和预处理得到光场子视角图像阵列,根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像;
A2:将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合,根据所述图像集合生成高斯差分金字塔;
A3:搜索所述高斯差分金字塔中的局部极值点作为特征点位置,并生成对应的特征点描述符;
其中,步骤A2中将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合具体包括:采用下式将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联:
其中,是角度域坐标为(u0,v0)的视角处的图像集合,/>是角度域坐标为(u0,v0)的视角处的焦点堆栈,/>是角度域坐标为(u0,v0)的视角处的全聚焦图像。
2.根据权利要求1所述的光场特征提取方法,其特征在于,步骤A1中根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像具体包括:提取所述光场子视角图像阵列中对角线视角上的光场自视角图像,根据对角线视角上的光场自视角图像生成对角线视角上的焦点堆栈和全聚焦图像。
3.根据权利要求2所述的光场特征提取方法,其特征在于,生成的对角线视角上的焦点堆栈为:
其中,是角度域坐标为(u0,v0)的视角处的焦点堆栈,λ是重聚焦系数,L(u,v,s,t)表示根据所述光场数据解码后的光场,(u,v)为角度域坐标,(s,t)为空间域坐标,U、V是光场子视角图像阵列的行数和列数。
4.根据权利要求3所述的光场特征提取方法,其特征在于,生成的全聚焦图像为:
其中,是角度域坐标为(u0,v0)的视角处的全聚焦图像,Depth是光场深度图索引。
5.根据权利要求1所述的光场特征提取方法,其特征在于,步骤A2中根据所述图像集合生成高斯差分金字塔具体包括:采用下式构建高斯差分金字塔:
其中,是角度域坐标为(u0,v0)的视角处的高斯差分金字塔,是角度域坐标为(u0,v0)的视角处的图像集合的尺度空间。
6.根据权利要求5所述的光场特征提取方法,其特征在于,采用高斯函数对所述图像集合进行模糊和降采样处理,得到角度域坐标为(u0,v0)的视角处的图像集合的尺度空间表示为:
其中,G(s,t,σi)是尺度可变高斯函数,是角度域坐标为(u0,v0)的视角处的图像集合,σi为尺度。
7.根据权利要求6所述的光场特征提取方法,其特征在于,尺度可变高斯函数G(s,t,σi)表示为:
其中,(s,t)为空间域坐标,σi为尺度。
8.根据权利要求7所述的光场特征提取方法,其特征在于,尺度σi表示为:σi+1=kσi,1≤i≤N,N为高斯尺度空间内的尺度的数量,k为大于0的参数。
9.根据权利要求1所述的光场特征提取方法,其特征在于,步骤A3中搜索所述高斯差分金字塔中的局部极值点作为特征点位置具体包括:
计算所述高斯差分金字塔的局部Hessian矩阵:
其中,(s,t)为空间域坐标,D为所述高斯差分金字塔;
当局部Hessian矩阵取局部最大值时,判定当前点为特征点,并将当前点的位置作为特征点位置。
10.根据权利要求1所述的光场特征提取方法,其特征在于,步骤A3中生成对应的特征点描述符具体包括:对特征点位置的周围空间区域分块,并在4×4的窗口内计算8个方向的梯度直方图,得到128维向量表征描述子。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现权利要求1至10任一项所述的光场特征提取方法的步骤。
CN202011432055.1A 2020-12-07 2020-12-07 一种融合焦点堆栈和全聚焦图像的光场特征提取方法 Active CN112465796B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011432055.1A CN112465796B (zh) 2020-12-07 2020-12-07 一种融合焦点堆栈和全聚焦图像的光场特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011432055.1A CN112465796B (zh) 2020-12-07 2020-12-07 一种融合焦点堆栈和全聚焦图像的光场特征提取方法

Publications (2)

Publication Number Publication Date
CN112465796A CN112465796A (zh) 2021-03-09
CN112465796B true CN112465796B (zh) 2023-11-21

Family

ID=74801136

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011432055.1A Active CN112465796B (zh) 2020-12-07 2020-12-07 一种融合焦点堆栈和全聚焦图像的光场特征提取方法

Country Status (1)

Country Link
CN (1) CN112465796B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116823914B (zh) * 2023-08-30 2024-01-09 中国科学技术大学 基于全对焦图像合成的无监督焦点堆栈深度估计方法
CN117253054B (zh) * 2023-11-20 2024-02-06 浙江优众新材料科技有限公司 一种光场显著性检测方法及其相关设备
CN118138902A (zh) * 2024-04-30 2024-06-04 华东交通大学 基于偏振特性结合光场成像去除镜面反射的成像方法和***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043960A (zh) * 2010-12-03 2011-05-04 杭州淘淘搜科技有限公司 一种结合图像灰度与梯度的改进sift特征提取方法
CN110246172A (zh) * 2019-06-18 2019-09-17 首都师范大学 一种两种深度线索融合的光场全聚焦图像提取方法及***
CN110490924A (zh) * 2019-07-16 2019-11-22 西安理工大学 一种基于多尺度Harris的光场图像特征点检测方法
CN110996104A (zh) * 2019-12-05 2020-04-10 华中科技大学 一种光场焦点堆栈图像序列编、解码方法、装置及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043960A (zh) * 2010-12-03 2011-05-04 杭州淘淘搜科技有限公司 一种结合图像灰度与梯度的改进sift特征提取方法
CN110246172A (zh) * 2019-06-18 2019-09-17 首都师范大学 一种两种深度线索融合的光场全聚焦图像提取方法及***
CN110490924A (zh) * 2019-07-16 2019-11-22 西安理工大学 一种基于多尺度Harris的光场图像特征点检测方法
CN110996104A (zh) * 2019-12-05 2020-04-10 华中科技大学 一种光场焦点堆栈图像序列编、解码方法、装置及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Iteratively reconstructing 4D light fields from focal stacks;XUANWU YIN et al.;Applied Optics;第55卷(第30期);第8457-8463页 *
基于梯度域的光场全聚焦图像生成方法;苏博妮;西南大学学报(自然科学版);第42卷(第10期);第174-182页 *
基于超分辨率焦点堆栈光场成像的全聚焦图像生成研究;陈怡良 等;电脑知识与技术;第14卷(第22期);第139-142页 *

Also Published As

Publication number Publication date
CN112465796A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
Song et al. Monocular depth estimation using laplacian pyramid-based depth residuals
Zhang et al. LFNet: Light field fusion network for salient object detection
Kalantari et al. Learning-based view synthesis for light field cameras
CN112465796B (zh) 一种融合焦点堆栈和全聚焦图像的光场特征提取方法
US10395383B2 (en) Method, device and apparatus to estimate an ego-motion of a video apparatus in a SLAM type algorithm
US10554957B2 (en) Learning-based matching for active stereo systems
Wang et al. High-fidelity view synthesis for light field imaging with extended pseudo 4DCNN
CN113298934B (zh) 一种基于双向匹配的单目视觉图像三维重建方法及***
Agrafiotis et al. Underwater photogrammetry in very shallow waters: main challenges and caustics effect removal
Tošić et al. 3D keypoint detection by light field scale-depth space analysis
Wu et al. Single-shot face anti-spoofing for dual pixel camera
KR20160149160A (ko) 라이트필드 데이터베이스에서의 데이터 취출을 위한 방법 및 장치
Zhou et al. AIF-LFNet: All-in-focus light field super-resolution method considering the depth-varying defocus
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN117541629B (zh) 基于可穿戴头盔的红外图像和可见光图像配准融合方法
Arampatzakis et al. Monocular depth estimation: A thorough review
Farhood et al. 3D point cloud reconstruction from a single 4D light field image
CN115410014A (zh) 一种鱼眼图像的自监督特征点匹配方法及其存储介质
Pouplin et al. Multimodal deep homography estimation using a domain adaptation generative adversarial network
Zhang et al. Light field salient object detection via hybrid priors
CN113129351A (zh) 一种基于光场傅里叶视差分层的特征检测方法
Zhao et al. DSNet: Dual-stream multi-scale fusion network for low-quality 3D face recognition
Xiaoli et al. Characteristic Point Match Algorithm Based on the SURF in Binocular Stereo Vision
Chen et al. Improvement of Light Field Feature
Li et al. Improving PMVS algorithm for 3D scene reconstruction from sparse stereo pairs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant