CN103198475A - 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 - Google Patents
基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 Download PDFInfo
- Publication number
- CN103198475A CN103198475A CN2013100748041A CN201310074804A CN103198475A CN 103198475 A CN103198475 A CN 103198475A CN 2013100748041 A CN2013100748041 A CN 2013100748041A CN 201310074804 A CN201310074804 A CN 201310074804A CN 103198475 A CN103198475 A CN 103198475A
- Authority
- CN
- China
- Prior art keywords
- layer
- depth
- pixel
- camera
- visible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法,用于解决现有的基于能量最小化像素标记合成孔径成像方法成像效果差的技术问题。技术方案是首先将场景分为多个可视层,利用迭代的方法,设计一个广泛的合成孔径优化框架,在自由深度下重建可见物体和被遮挡物体的表面,利用多层迭代能量最小化优化方式,在任意给定的深度范围内产生全聚焦图像。将本发明在Stanford数据库和UCSD数据库的数据进行测试,测试结果显示本发明方法得到了更清晰以及更接近现实的全聚焦成像。
Description
技术领域
本发明涉及一种全聚焦合成孔径透视成像方法,特别是涉及一种基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法。
背景技术
基于相机阵列透视成像是计算机视觉领域的一个重要研究课题,其在对隐藏目标成像、检测、识别和跟踪以及自由深度视点成像等方面具有广泛的应用。目前的合成孔径成像方法主要有:基于平面+视差的合成孔径成像方法与基于能量最小化的像素标记合成孔径成像方法。
文献“Synthetic Aperture Imaging using Pixel Labeling via EnergyMinimization,PR,46(1):174-187,2013”公开了一种基于能量最小化像素标记合成孔径成像方法。与传统基于平面+视差的合成孔径成像方法不同,该方法将透视成像转化为类别标记问题,而非简单的将所有相机视角下的图像进行平均。该方法首先对每个相机视角下的像素利用能量最小化方法标记属于遮挡物的像素点,然后,在给定聚焦深度对没有被标记的像素进行平均,获得透视成像。虽然这种方法获得了对遮挡物的透视成像,但是却只能解决前景遮挡物的标记问题,无法实现在不同深度的多遮挡物分割和成像问题。此外,这种方法只能聚焦到场景中的特定深度而不是实现全聚焦,并且对缺乏纹理的成像效果较差。
发明内容
为了克服现有的基于能量最小化像素标记合成孔径成像方法成像效果差的不足,本发明提供一种基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法。该方法根据景物是否可见将场景分为多个可视层,首先利用迭代的方式,设计一个广泛的合成孔径优化框架,在自由深度下重建可见和被遮挡物体的表面,利用多层迭代能量最小化优化方式,在任意给定的深度范围内产生全聚焦图像。在Stanford数据库和UCSD数据库上的测试结果显示,本发明能够得到更清晰以及更接近现实的全聚焦成像。
本发明解决其技术问题所采用的技术方案是:一种基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法,其特点是包括以下步骤:
步骤一、初始化,将所有相机视角下的像素点标记为不可见,并利用合成孔径成像方法,生成任意深度的合成图像,以及对应的最大色差图(Maximum Color DifferenceImage,简称MCD图);
步骤二、多层次可视化优化,即将MCD图作为数据项进行能量最小化优化,标记可视点和被遮挡的像素点。当前处理层l能够获取的信息包括0至(l-1)层的可视图和深度图,利用所获取的信息可以在所有相机成像中将遮挡物移除。本发明将当前层l的全部可见的像素估计问题转化为能量最小化问题,产生可视化能量函数,表示为:
E(Vl)=Ed(Vl)+Es(Vl) (1)
其中Ed(Vl)表示数据项,Es(Vl)表示平滑项。
对于数据项,本发明选择基于MCD的最优深度聚焦方法,并定义在参考相机下的每个像素x的数据损失Ed(Vl)为:
其中D={d1,d2,d3,…,dm},MCDd(x)表示像素x在深度d处的聚焦度量值:
式中代表像素点x在聚焦深度为d的情况下经仿射变换后第i个相机成像中的像素值。是属于第i个相机的二值图,标记在该层之前的所有层中的可见像素点。是第i相机下的可见层l0,并且能够轻松的从参考相机的层获得。如果x被前一层遮挡,则否则
在l层的平滑项Es(Dl)是一种前置正则化。这种前置是指两个相邻接像素在同一时间属于同一目标的可能性很大,并且在参考相机中能够同时可视或者遮挡。采用标准的4邻接***,并当相邻两个像素的标签不相同时进行惩罚:
Sp,q(Vl(p),Vl(q))=min(τυ,β(p,q)·|Vl(p)-Vl(q)|) (6)
这里的τυ和β(p,q)表示对应平滑项的最大值和权值。h是递减权值函数,选择反比例函数作为h(.)。利用以上的数据项和平滑项,用Graph Cut对能量函数进行最小化,获取可视层Vl;
步骤三、多层次深度图优化,即对于可视点进行最优聚焦深度估计,产生当前层下全部可见像素的深度图。根据步骤二中通过可视化优化获取的Vl,结合多层次优化来估计当前层全部可见的像素的最优深度。与可视化优化相同,本发明找到一种标签Dl:Ωl→D,Ωl={x:|Vl(x)=1|}代表在参考相机下全部可见的像素,D是该场景的深度序列。同样,实验中利用能量最小化结构去寻找标签:
E(Dl)=Ed(Dl)+Es(Dl) (8)
对于数据项,采用与多层次可视化优化相同的处理方式,将MCD度量作为代价函数:
第l层的平滑项Es(Dl)是一种正则规则。同样采用4邻接***,并当相邻两个像素的标签不相同时进行惩罚:
Sp,q(Dl(p),Dl(q))=min(τυ,β(p,q)·|Dl(p)-Dl(q)|) (11)
τυ和β(p,q)表示对应平滑项的最大值和权值,利用获取的数据项和平滑项,采用Graph Cut解决深度标签优化问题,得到当前可见层的深度图;
步骤四、将当前层l中不可见的点作为下一个可视层,根据当前层的像素点的标记信息,应用针孔相机成像模型原理,找到当前层的像素点在所有相机成像中的对应点,对其标记信息,得到所有相机成像中的像素标记信息,去除已标记为可见的像素点,得到只包含对当前层不可见的像素点的新的成像,由这些图像进行新的合成孔径成像,生成任意深度的合成图像,以及对应的MCD图;
步骤五、重复步骤二至四,直到没有被遮挡的点为止,获取所有可视层图像,将得到的可视层图像进行合并,得到全聚焦图像。
本发明的有益效果是:利用迭代的方式,设计一个广泛的合成孔径优化框架,在自由深度下重建可见和被遮挡物体的表面,采用多层迭代能量最小化优化方式,在任意给定的深度范围内产生全聚焦图像。在Stanford数据库和UCSD数据库上的测试结果显示,本发明较背景技术能够得到更清晰以及更接近现实的全聚焦成像。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
1、合成孔径成像及获取MCD图。
该部分包括三部分:相机参数的标定,包括内部参数和外部参数的标定;获取聚焦平面上任意一点的颜色信息和最大色差;生成合成图像和MCD图。
相机参数的标定:利用基于二维标定板的标定方法对相机阵列中的相机(本专利中采用105个相机)进行内部参数标定,而后利用获取的内部参数对相机的外部参数进行标定;
获取聚焦平面上任意一点的颜色信息和最大色差:对于给定的深度范围的每一虚拟聚焦平面(本专利采用640x515)上像素点,利用相机参数,寻找其在所有起作用的相机视角下的图像上的像素点坐标,提取各像素的颜色信息,进行相应的求均处理和求差操作,计算得到虚拟聚焦平面上像素点的像素值,并进一步获取其在所有起作用的相机中相应点的颜色方差值和最大色差值;
生成合成图像和MCD图:根据第二步获取的颜色值和最大色差值,生成合成图像和MCD图,并将所有相机视角下的像素点标记为不可见。
2、多层次可视化优化。
将MCD图作为数据项进行能量最小化优化,标记可视点和被遮挡的像素点。本算法根据景物是否对所有相机可见将场景分为多个可视层,采用迭代的方法对于场景中每一可视层进行可视化分析。对于当前处理层l,获取0至(l-1)层的可视图和深度图,根据所获取的信息能够在所有相机成像中将所有遮挡物移除。本发明将寻找当前层l中全部可见像素点的问题转化为能量最小化问题,产生可视化能量函数。由于实验中在多层中使用二值可视化图,对于一个特定层l∈{1,2,…,L}(本专利中L为2),在该层之前的遮挡物将会被标记,并且能够很容易的从所有相机成像中移除。实验过程中将当前层的全部可见的像素估计问题转化为能量最小化问题,产生可视化能量函数,表示为:
E(Vl)=Ed(Vl)+Es(Vl) (1)
其中Ed(Vl)表示数据项,Es(Vl)表示平滑项。
对于数据项,通过将基于MCD的最优深度聚焦方法与其他方法进行对比,根据产生的分析曲线图,最终选择了基于MCD的最优深度聚焦方法,并定义在参考相机下的每个像素x的数据损失Ed(Vl)为:
其中D={d1,d2,d3,…,dm},MCDd(x)表示像素x在深度d处的聚焦度量值:
式中,代表像素点x在聚焦深度为d的情况下经第i个相机变换后的图像中的像素值。是属于第i个相机的二值图,标记在该层之前的所有层中的可见像素点。是第i相机下的可见层l0,并且能够轻松的从参考相机的层获得。如果x被前一层遮挡,则否则
在l层的平滑项Es(Dl)是一种前置正则化,能够促使整体标签平滑。这种前置是指两个相邻接像素在同一时间属于同一目标的可能性很大,并且在参考相机中能够同时可视或者遮挡。采用标准的4邻接***,并当相邻两个像素的标签不相同时进行惩罚:
Sp,q(Vl(p),Vl(q))=min(τυ,β(p,q)·|Vl(p)-Vl(q)|) (6)
这里的τυ和β(p,q)表示对应平滑项的最大值和权值。h是递减权值函数,用来考虑相邻像素的MCD值的相似性。MCD值越相近,权值将越高,像素间的平滑限制将越强。
在实验中,参数的设置是根据经验得到,并选择反比例函数作为h(.)。利用以上的数据项和平滑项,用Graph Cut对能量函数进行最小化,获取可视层Vl。
3、多层次深度图优化。
由于Vl已经通过可视化优化获得,则可以根据多层次优化来估计全部可见的像素的最优深度。与可视化优化相同,本发明找到一种标签Dl:Ωl→D,Ωl={x:|Vl(x)=1|}代表所有在参考相机下全部可见的像素,D是该场景的深度序列。同样,利用能量最小化结构去寻找标签:
E(Dl)=Ed(Dl)+Es(Dl) (8)
数据项应该能够反映散焦情况以及能够在最优深度达到全局最小。根据与现有聚焦深度方法相比较,本发明依然采用MCD度量作为代价函数:
第l层的平滑项Es(Dl)是一种正则规则,用于使全部深度标签达到平滑。利用4邻接***,并当相邻两个像素的标签不相同时进行惩罚:
Sp,q(Dl(p),Dl(q))=min(τυ,β(p,q)·|Dl(p)-Dl(q)|) (11)
τυ和β(p,q)表示对应平滑项的最大值和权值,根据获取的数据项和平滑项,利用Graph Cut解决深度标签优化问题,得到当前可见层的深度图。
4、获取下一可视层的合成图像和MCD图。
将当前层l中不可见的点作为下一个可视层,根据当前层的像素点的标记信息,应用针孔相机成像模型原理,找到当前层的像素点在所有相机成像中的对应点,对其标记信息,得到所有相机成像中的像素标记信息,去除已标记为可见的像素点,得到只包含对当前层不可见的像素点的新的成像,由这些图像进行新的合成孔径成像,生成任意深度的合成图像,以及对应的MCD图。
5、获取全聚焦图像。
重复进行多层次可视化优化、多层次深度优化以及根据标记信息获取下一可视层的合成图像和MCD图,直到没有被遮挡的点为止,得到所有可视层图像,将可视层图像进行合并,得到全聚焦图像。
Claims (1)
1.一种基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法,其特征在于包括以下步骤:
步骤一、将所有相机视角下的像素点标记为不可见,并利用合成孔径成像方法,生成任意深度的合成图像以及对应的最大色差图;
步骤二、将最大色差图作为数据项进行能量最小化优化,标记可视点和被遮挡的像素点;当前处理层l获取的信息包括0至(l-1)层的可视图和深度图,利用所获取的信息在所有相机成像中将遮挡物移除;将当前层l的全部可见的像素估计问题转化为能量最小化问题,产生可视化能量函数,表示为:
E(Vl)=Ed(Vl)+Es(Vl) (1)
式中,Ed(Vl)表示数据项,Es(Vl)表示平滑项;
对于数据项,选择基于最大色差的最优深度聚焦方法,并定义在参考相机下的每个像素x的数据损失Ed(Vl)为:
式中,D={d1,d2,d3,L,dm},MCDd(x)表示像素x在深度d处的聚焦度量值:
式中,代表像素点x在聚焦深度为d的情况下经仿射变换后第i个相机成像中的像素值;是属于第i个相机的二值图,标记在该层之前的所有层中的可见像素点;是第i相机下的可见层l0,从参考相机的层获得;如果x被前一层遮挡,则否则
在l层的平滑项Es(Dl)是一种前置正则化;这种前置是指两个相邻接像素在同一时间属于同一目标的可能性很大,并且在参考相机中能够同时可视或者遮挡;采用标准的4邻接***,并当相邻两个像素的标签不相同时进行惩罚:
Sp,q(Vl(p),Vl(q))=min(τυ,β(p,q)·|Vl(p)-Vl(q)|) (6)
τυ和β(p,q)表示对应平滑项的最大值和权值;h是递减权值函数,选择反比例函数作为h(.);利用以上的数据项和平滑项,用Graph Cut对能量函数进行最小化,获取可视层Vl;
步骤三、对于可视点进行最优聚焦深度估计,产生当前层下全部可见像素的深度图;根据步骤二中通过可视化优化获取的Vl,结合多层次优化估计当前层全部可见的像素的最优深度;与可视化优化相同,采用标签Dl:Ωl→D,Ωl={x:|Vl(x)=1|}代表在参考相机下全部可见的像素,D是该场景的深度序列;同样,利用能量最小化结构寻找标签:
E(Dl)=Ed(Dl)+Es(Dl) (8)
对于数据项,采用与多层次可视化优化相同的处理方式,将最大色差度量作为代价函数:
第l层的平滑项Es(Dl)是一种正则规则;同样采用4邻接***,并当相邻两个像素的标签不相同时进行惩罚:
Sp,q(Dl(p),Dl(q))=min(τυ,β(p,q)·|Dl(p)-Dl(q)|) (11)
τυ和β(p,q)表示对应平滑项的最大值和权值,利用获取的数据项和平滑项,采用Graph Cut解决深度标签优化问题,得到当前可见层的深度图;
步骤四、将当前层l中不可见的点作为下一个可视层,根据当前层的像素点的标记信息,应用针孔相机成像模型原理,找到当前层的像素点在所有相机成像中的对应点,对其标记信息,得到所有相机成像中的像素标记信息,去除已标记为可见的像素点,得到只包含对当前层不可见的像素点的新的成像,由这些图像进行新的合成孔径成像,生成任意深度的合成图像,以及对应的最大色差图;
步骤五、重复步骤二至四,直到没有被遮挡的点为止,获取所有可视层图像,将得到的可视层图像进行合并,得到全聚焦图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310074804.1A CN103198475B (zh) | 2013-03-08 | 2013-03-08 | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310074804.1A CN103198475B (zh) | 2013-03-08 | 2013-03-08 | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103198475A true CN103198475A (zh) | 2013-07-10 |
CN103198475B CN103198475B (zh) | 2016-01-13 |
Family
ID=48720981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310074804.1A Active CN103198475B (zh) | 2013-03-08 | 2013-03-08 | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103198475B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413304A (zh) * | 2013-07-30 | 2013-11-27 | 西北工业大学 | 基于彩色深度融合的虚拟阵列合成孔径透视成像方法 |
CN103413302A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 相机阵列动态焦平面估计方法 |
CN103440641A (zh) * | 2013-07-29 | 2013-12-11 | 西北工业大学 | 基于最优相机选择的遮挡目标透视成像方法 |
CN103646397A (zh) * | 2013-12-02 | 2014-03-19 | 西北工业大学 | 基于多源数据融合的实时合成孔径透视成像方法 |
CN105741318A (zh) * | 2016-01-22 | 2016-07-06 | 陕西师范大学 | 基于自动目标提取的全聚焦合成孔径成像方法 |
CN108427961A (zh) * | 2018-02-11 | 2018-08-21 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
CN111696116A (zh) * | 2020-04-30 | 2020-09-22 | 杨墨轩 | 一种应用相机阵列实现图像遮挡物移除方法 |
CN112669355A (zh) * | 2021-01-05 | 2021-04-16 | 北京信息科技大学 | 基于rgb-d超像素分割的聚焦堆栈数据拼接融合的方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1504046A (zh) * | 2001-02-23 | 2004-06-09 | �ڿ�˹̹��˾ | 高分辨率增加的成像方法 |
EP2134079A1 (en) * | 2008-06-13 | 2009-12-16 | FUJIFILM Corporation | Image processing apparatus, imaging apparatus, image processing method and program |
CN102314683A (zh) * | 2011-07-15 | 2012-01-11 | 清华大学 | 一种非平面图像传感器的计算成像方法和成像装置 |
CN102932583A (zh) * | 2012-07-19 | 2013-02-13 | 中国人民解放军国防科学技术大学 | 折反射全聚焦成像装置与方法 |
-
2013
- 2013-03-08 CN CN201310074804.1A patent/CN103198475B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1504046A (zh) * | 2001-02-23 | 2004-06-09 | �ڿ�˹̹��˾ | 高分辨率增加的成像方法 |
EP2134079A1 (en) * | 2008-06-13 | 2009-12-16 | FUJIFILM Corporation | Image processing apparatus, imaging apparatus, image processing method and program |
CN102314683A (zh) * | 2011-07-15 | 2012-01-11 | 清华大学 | 一种非平面图像传感器的计算成像方法和成像装置 |
CN102932583A (zh) * | 2012-07-19 | 2013-02-13 | 中国人民解放军国防科学技术大学 | 折反射全聚焦成像装置与方法 |
Non-Patent Citations (1)
Title |
---|
ZHAO PEI ET AL: "Synthetic Synthetic aperture imaging using pixel labeling via energy minimization", 《PATTERN RECOGNITION》, vol. 46, 28 June 2012 (2012-06-28) * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413302A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 相机阵列动态焦平面估计方法 |
CN103440641A (zh) * | 2013-07-29 | 2013-12-11 | 西北工业大学 | 基于最优相机选择的遮挡目标透视成像方法 |
CN103413302B (zh) * | 2013-07-29 | 2016-01-13 | 西北工业大学 | 相机阵列动态焦平面估计方法 |
CN103440641B (zh) * | 2013-07-29 | 2016-02-10 | 西北工业大学 | 基于最优相机选择的遮挡目标透视成像方法 |
CN103413304A (zh) * | 2013-07-30 | 2013-11-27 | 西北工业大学 | 基于彩色深度融合的虚拟阵列合成孔径透视成像方法 |
CN103646397B (zh) * | 2013-12-02 | 2016-10-19 | 西北工业大学 | 基于多源数据融合的实时合成孔径透视成像方法 |
CN103646397A (zh) * | 2013-12-02 | 2014-03-19 | 西北工业大学 | 基于多源数据融合的实时合成孔径透视成像方法 |
CN105741318A (zh) * | 2016-01-22 | 2016-07-06 | 陕西师范大学 | 基于自动目标提取的全聚焦合成孔径成像方法 |
CN105741318B (zh) * | 2016-01-22 | 2018-08-31 | 陕西师范大学 | 基于自动目标提取的全聚焦合成孔径成像方法 |
CN108427961A (zh) * | 2018-02-11 | 2018-08-21 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
CN108427961B (zh) * | 2018-02-11 | 2020-05-29 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
CN111696116A (zh) * | 2020-04-30 | 2020-09-22 | 杨墨轩 | 一种应用相机阵列实现图像遮挡物移除方法 |
CN111696116B (zh) * | 2020-04-30 | 2024-07-12 | 江苏橙智云信息技术有限公司 | 一种应用相机阵列实现图像遮挡物移除方法 |
CN112669355A (zh) * | 2021-01-05 | 2021-04-16 | 北京信息科技大学 | 基于rgb-d超像素分割的聚焦堆栈数据拼接融合的方法及*** |
CN112669355B (zh) * | 2021-01-05 | 2023-07-25 | 北京信息科技大学 | 基于rgb-d超像素分割的聚焦堆栈数据拼接融合的方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN103198475B (zh) | 2016-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
CN103198475B (zh) | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 | |
CN107093205B (zh) | 一种基于无人机图像的三维空间建筑物窗户检测重建方法 | |
Sun et al. | Aerial 3D building detection and modeling from airborne LiDAR point clouds | |
Yu et al. | Line assisted light field triangulation and stereo matching | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
KR102096673B1 (ko) | 포인트 클라우드에서의 포인트 백필링 | |
CN106204572B (zh) | 基于场景深度映射的道路目标深度估计方法 | |
CN104850850B (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
Matzen et al. | Nyc3dcars: A dataset of 3d vehicles in geographic context | |
CN105913070B (zh) | 一种基于光场相机的多线索显著性提取方法 | |
CN108981672A (zh) | 基于单目机器人与测距传感器结合的舱门实时定位方法 | |
CN107167811A (zh) | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 | |
CN106529573A (zh) | 一种结合三维点云分割和局部特征匹配的实时物体检测方法 | |
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
CN114359509B (zh) | 一种基于深度学习的多视图自然场景重建方法 | |
CN102609950B (zh) | 一种二维视频深度图的生成方法 | |
CN104517317A (zh) | 一种车载红外图像三维重建方法 | |
Rangesh et al. | Ground plane polling for 6dof pose estimation of objects on the road | |
CN116883588A (zh) | 一种大场景下的三维点云快速稠密重建方法及*** | |
Parmehr et al. | Automatic registration of optical imagery with 3d lidar data using local combined mutual information | |
CN103646397A (zh) | 基于多源数据融合的实时合成孔径透视成像方法 | |
CN103426170A (zh) | 基于非结构光场合成孔径成像的隐藏目标成像方法 | |
CN105719317B (zh) | 基于相机阵列合成孔径成像的遮挡背景估计方法 | |
Lv et al. | Semantically guided multi-view stereo for dense 3d road mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |