CN107305252B - 主动提取目标深度细节的快速成像方法 - Google Patents

主动提取目标深度细节的快速成像方法 Download PDF

Info

Publication number
CN107305252B
CN107305252B CN201610262354.2A CN201610262354A CN107305252B CN 107305252 B CN107305252 B CN 107305252B CN 201610262354 A CN201610262354 A CN 201610262354A CN 107305252 B CN107305252 B CN 107305252B
Authority
CN
China
Prior art keywords
target
depth
matrix
detail
details
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610262354.2A
Other languages
English (en)
Other versions
CN107305252A (zh
Inventor
何伟基
林杰
冯振超
叶凌
方剑
冒添逸
陈钱
顾国华
张闻文
钱惟贤
隋修宝
于雪莲
任侃
邹燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201610262354.2A priority Critical patent/CN107305252B/zh
Publication of CN107305252A publication Critical patent/CN107305252A/zh
Application granted granted Critical
Publication of CN107305252B publication Critical patent/CN107305252B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种主动提取目标深度细节的快速成像方法。通过利用目标连续性,即相邻像素点间具有的空间相关性,根据深度细节复杂度层次自适应决定激光光斑的扫描步长。算法首先以粗扫描步长快速获取目标的低分辨率3‑D图像。然后根据空间相关性将其转化为0‑1矩阵,称为细节矩阵。接着,细化分割目标深度细节,改变扫描步长。最后,根据估计得到的所有“像素点“的深度值,就可以重构出目标的高分辨率图像。实验表明,本发明可以自适应决定不同深度细节复杂度区域的激光扫描步长,实现以低采样率快速重构出目标清晰的3‑D图像。

Description

主动提取目标深度细节的快速成像方法
技术领域
本发明属于激光雷达三维成像领域,具体涉及一种适用于光子计数激光雷达***的主动提取目标深度细节的快速成像方法。
技术背景
激光雷达***能够快速准确获取目标的三维深度信息和反射率信息,具有广泛用途,包括机器视觉、工业模式设计和军事目标识别与跟踪等。采用工作于盖革模式下的Gm-APD作为其激光回波信号光子探测器的光子计数三维成像激光雷达***,是以光子飞行模式实现对目标的高时间分辨率测量。
传统主动式三维成像激光雷达***是以均匀等扫描步长的方式,对目标场景进行逐点规则采样,获取目标的3-D图像。一般的,在目标特性未知的情况下,为了获取目标的高分辨率3-D图像,他们通常需要预先设置激光光斑的扫描步长足够细,以保证能够识别目标场景中的各个深度细节部分。传统成像模型的这种均匀扫描成像方式,是基于以下两个必要不充分的假设条件,设置其所需要的激光光斑扫描步长:
1)假设目标场景只有一层深度细节,即:感兴趣的目标区域为一平面,或是其最大景深相对于目标到探测器的距离可以忽略不计的情况,在这种情况下,以固定均匀扫描步长就可以识别目标场景中的不同深度细节部分;
2)假设目标场景中的深度细节极其丰富,有无限多层深度细节,如:目标表面为一非光滑、非连续曲面的情况,为了能够准确识别出目标场景中的各个深度细节部分,此时需要设置激光光斑的扫描步长足够细。
可以看出,传统三维成像激光雷达***的这种扫描成像方式,在目标为一简单平面时,将出现大量采样冗余,影响***成像速度;而在目标极其复杂时,其预设扫描步长也有可能达不到给定要求,无法识别出目标不同深度细节部分,影响其成像质量。因此在没有足够的有关目标结构先验信息的情况下,传统成像方法容易出现采样冗余,或是采样不足的现象。
发明内容
本发明的目的在于提供一种解决传统的均匀扫描步长成像方法带来的采样冗余和采样不足现象,从而实现快速、主动提取目标深度细节的三维深度图像的方法。
实现本发明的技术解决方案为:一种主动提取目标深度细节的快速成像方法,步骤如下:
第一步,首先假设未知的目标场景仅有一层深度细节复杂度,并以粗扫描步长快速获取目标的低分辨率3-D图像。
第二步,我们定义初始获得的目标低分辨率3-D图像对应的数据矩阵为深度矩阵,并根据空间相关性将其转化为0-1矩阵,称为细节矩阵,其中,标记为“0”的元素表示其深度细节层次仅有一层,而标记为“1”的元素则表示深度细节复杂度较丰富的区域,并以该细节矩阵作为目标结构的先验信息,决定激光光斑的扫描步长。
第三步,细化分割目标深度细节。根据得到的细节矩阵,若细节矩阵的所有元素值均为“0”,则表示该部分目标区域的细节分割结束;否则,对于值为“1”的元素区域,即可能包含多层深度细节的目标区域,采用3×3窗口矩阵进行深度细节的进一步细化分割,重复步骤2)、步骤3),直到所有目标区域对应的细节矩阵的元素都为“0”为止;
第四步,根据得到不同区域不同的扫描步长,利用激光雷达***对目标场景进行扫描,快速获取目标场景深度图像。
利用上述四个步骤,本发明能够自适应决定扫描步长,从而快速获取目标的深度图像。
本发明与现有技术相比,其显著优点:(1)利用目标的连续性,即:相邻像素点间的空间相关性,改进传统的成像模型,自适应决定不同深度细节复杂度区域的激光扫描步长,实现以低采样率重构出目标的高分辨率3-D深度图像。(2)能够以较少的采样本点准确快速恢复出目标的不同复杂度层次的深度细节信息。(3)主动提取深度细节,自适应决定扫描步长,有效解决传统均匀扫描步长成像方法带来的采样不足或是采样冗余现象。
附图说明
图1是用于验证本发明的实验目标场景图。
图2是传统均匀扫描成像方法对应于16×16扫描步长的实验结果。
图3是传统均匀扫描成像方法对应于32×32扫描步长的实验结果。
图4是传统均匀扫描成像方法对应于64×64扫描步长的实验结果。
图5是传统均匀扫描成像方法对应于256×256扫描步长的实验结果。
图6是传统均匀扫描成像方法对应于512×512扫描步长的实验结果。
图7是主动提取目标深度细节成像方法实验结果。
图8是图7对应的采样本点分布图。
图9是主动提取目标深度细节快速成像算法原理示意图。
具体实施方式:
本发明通过利用目标连续性,即相邻像素点间具有的空间相关性,根据深度细节复杂度层次自适应决定激光光斑的扫描步长。算法首先以粗扫描步长快速获取目标的低分辨率3-D图像。然后根据空间相关性将其转化为0-1矩阵,称为细节矩阵。接着,细化分割目标深度细节,改变扫描步长。最后,根据估计得到的所有“像素点“的深度值,就可以重构出目标的高分辨率图像。
下面结合附图对本发明作进一步详细描述。
如图1所示,是用于验证本发明一种主动提取目标深度细节的快速成像方法的场景示意图。目标为一玩具坦克模型,被固定放置在距离探测器20m左右处。如图2,图3,图4,图5,图6为传统均匀扫描成像方法对应于不同激光光斑扫描步长的实验结果:图2 16×16,图3 32×32,图4 64×64,图5 256×256,图6 512×512。从实验结果可以看出,当激光光斑的扫描步长较大时,该方法无法准确识别感兴趣目标的轮廓细节信息,随着激光光斑扫描步长的减小,目标轮廓细节也越来越清晰。但是,从实验结果还可以看出,对于背景平面区域,其成像效果受激光光斑扫描步长的影响并不明显,即:以粗扫描步长已足够完全估计其深度细节信息;如图7所示为采用本章节主动提取目标深度细节成像方法获取的实验结果,如图8所示为图9对应的采样本点分布,其中,初始以16×16点阵获取目标的低分辨率3-D深度图像。从实验结果可以看出,本发明能够准确恢复出目标的不同复杂度层次的深度细节信息,其成像效果与图6中采用传统成像方法的成像效果相当,但所使用的采样本点数仅为后者的11%左右。由图8的实验结果还可以看出,本发明的采样本点主要分布在目标的轮廓细节部分,而在背景平面区域采样较稀疏,即能够自适应决定不同深度细节复杂度区域的扫描步长。
结合图9,本发明主动提取目标深度细节的快速成像方法,步骤如下:
第一步,首先假设未知的目标场景仅有一层深度细节复杂度,并以粗扫描步长快速获取目标的低分辨率3-D图像,得到的图像如图2所示。
第二步,计算细节矩阵。将上一步骤中获得的目标深度矩阵,即图2的深度矩阵,根据相邻像素点间的空间相关性,转化为对应的仅包含0-1的二值细节矩阵,用以简化目标深度细节复杂度的描述。计算方法如下:
假设像素点(x y,)周围相邻的8个像素点记为(x1,y1),...,(x8,y8),像素点(xi,yi),i=1,...,8的深度估计值记为d(xi,yi),这8个像素点的顺序绝对偏差表示为:
|d(x1,y1)-d(x,y)|,...,|d(x8,y8)-d(x,y)|
上式已按升序排列,则像素点(x,y)的ROM(Rank-Ordered Mean,ROM)计算为:
Figure BDA0000973689560000041
ROM的具体计算示例如下:
Figure BDA0000973689560000042
选取差的绝对值最小的四个值进行叠加,如8个值中最小的四个值为:
r1=|(x1,y1)-(x,y)|,r2=|(x2,y2)-(x,y)|
r3=|(x3,y3)-(x,y)|,r4=|(x4,y4)-(x,y)|
Figure BDA0000973689560000043
其中,左边为原始的相邻像素点的深度估计值,右边为其顺序绝对偏差。
若上式中的ROM(x,y)满足以下关系式:
Figure BDA0000973689560000044
(其中:B为总噪声光子计数,S为单脉冲探测周期总光子数,α(x,y)为目标反射率,η为探测器的量子效率,TP为激光脉冲宽度,Tr为激光脉冲发射周期)则标记像素点(x y,)的值为“0”,否则,标记其值为“1”。
第三步,细化分割目标深度细节。根据得到的细节矩阵,若细节矩阵的所有元素值均为“0”,则表示该部分目标区域的细节分割结束;否则,对于值为“1”的元素区域,即可能包含多层深度细节的目标区域,采用3×3窗口矩阵进行深度细节的进一步细化分割,即激光光斑的扫描步长减小为原来的1/3,重复步骤2)、步骤3),直到所有目标区域对应的细节矩阵的元素都为“0”为止;
第四步,根据得到不同区域不同的扫描步长,利用激光雷达***对目标场景进行扫描,快速获取目标场景深度图像。

Claims (3)

1.一种主动提取目标深度细节的快速成像方法,其特征在于步骤如下:
第一步,设未知的目标场景仅有一层深度细节复杂度,并以粗扫描步长快速获取目标的低分辨率3-D图像;
第二步,定义初始获得的目标低分辨率3-D图像对应的数据矩阵为深度矩阵,并根据空间相关性将其转化为0-1矩阵,称为细节矩阵,其中,标记为“0”的元素表示其深度细节层次仅有一层,而标记为“1”的元素则表示深度细节复杂度较丰富的区域,需要细扫描步长,并以该细节矩阵作为目标结构的先验信息,决定激光扫描步长的粗细;
第三步,细化分割目标深度细节;根据得到的细节矩阵,若细节矩阵的所有元素值均为“0”,则表示相应部分目标区域的细节分割结束;而对于值为“1”的元素区域,可能包含多层深度细节的目标区域,采用3×3窗口矩阵进行深度细节的进一步细化分割;重复第二步、第三步,直到所有目标区域对应的细节矩阵的元素都为“0”为止;
第四步,根据得到不同区域不同的扫描步长,利用激光雷达***对目标场景进行扫描,快速获取目标场景深度图像。
2.根据权利要求1所述的主动提取目标深度细节的快速成像方法,其特征在于第一步所述低分辨率为64x64像素以下。
3.根据权利要求1所述的主动提取目标深度细节的快速成像方法,其特征在于所述第二步的具体步骤如下:
定义初始获得的目标低分辨率3-D图像对应的数据矩阵为深度矩阵,根据相邻像素点间的空间相关性,转化为对应的仅包含0-1的二值细节矩阵,用以简化目标深度细节复杂度的描述,计算方法如下:
假设像素点(x,y)周围相邻的8个像素点记为(x1,y1),...,(x8,y8),像素点(xi,yi),i=1,...,8的深度估计值记为d(xi,yi),这8个像素点的顺序绝对偏差表示为:
|d(x1,y1)-d(x,y)|,...,|d(x8,y8)-d(x,y)|
上式已按升序排列,选取差的绝对值最小的四个值进行叠加,假设8个值中最小的四个值为:
r1=|d(x1,y1)-d(x,y)|,r2=|d(x2,y2)-d(x,y)|
r3=|d(x3,y3)-d(x,y)|,r4=|d(x4,y4)-d(x,y)|;则像素点(x,y)的ROM计算为:
Figure FDA0002690283520000021
若上式中的ROM(x,y)满足以下关系式:
Figure FDA0002690283520000022
其中:B为总噪声光子计数,S为单脉冲探测周期总光子数,α(x,y)为目标反射率,η为探测器的量子效率,TP为激光脉冲宽度,Tr为激光脉冲发射周期,上式右边的值整体为一阈值;
则标记像素点(x,y)的值为“0”,否则,标记其值为“1”。
CN201610262354.2A 2016-04-25 2016-04-25 主动提取目标深度细节的快速成像方法 Active CN107305252B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610262354.2A CN107305252B (zh) 2016-04-25 2016-04-25 主动提取目标深度细节的快速成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610262354.2A CN107305252B (zh) 2016-04-25 2016-04-25 主动提取目标深度细节的快速成像方法

Publications (2)

Publication Number Publication Date
CN107305252A CN107305252A (zh) 2017-10-31
CN107305252B true CN107305252B (zh) 2020-11-13

Family

ID=60150231

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610262354.2A Active CN107305252B (zh) 2016-04-25 2016-04-25 主动提取目标深度细节的快速成像方法

Country Status (1)

Country Link
CN (1) CN107305252B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109959939B (zh) * 2017-12-22 2021-04-06 北京万集科技股份有限公司 基于激光扫描的对象跟踪方法及装置
CN110648367A (zh) * 2019-08-15 2020-01-03 大连理工江苏研究院有限公司 一种基于多层深度与彩色视觉信息的几何体目标定位方法
CN111626928B (zh) * 2020-04-28 2023-08-25 Oppo广东移动通信有限公司 深度图像生成方法及装置、存储介质和电子设备
CN113835077B (zh) * 2021-11-23 2022-02-11 中国空气动力研究与发展中心计算空气动力研究所 基于变脉冲重复频率的搜索雷达目标检测方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1502047A (zh) * 2001-02-09 2004-06-02 �����ѧ�͹�ҵ�о���֯ 激光雷达***和方法
CN102608619A (zh) * 2012-03-07 2012-07-25 北京航空航天大学 光子计数压缩采样相控阵激光三维成像方法
CN103940514A (zh) * 2014-04-29 2014-07-23 北京理工大学 一种宽波段近景紫外成像光谱装置
EP2846631A1 (en) * 2012-05-10 2015-03-18 President and Fellows of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1502047A (zh) * 2001-02-09 2004-06-02 �����ѧ�͹�ҵ�о���֯ 激光雷达***和方法
CN102608619A (zh) * 2012-03-07 2012-07-25 北京航空航天大学 光子计数压缩采样相控阵激光三维成像方法
EP2846631A1 (en) * 2012-05-10 2015-03-18 President and Fellows of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
CN103940514A (zh) * 2014-04-29 2014-07-23 北京理工大学 一种宽波段近景紫外成像光谱装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
First-Photon Imaging;Ahmed Kirmani,et al;《Science Express》;20131128;p1-27 *
Statistical detection and imaging of objects hidden in turbid media using ballistic photons;Sina Farsiu,et al;《APPLIED OPTICS》;20070809;p5805-5822 *

Also Published As

Publication number Publication date
CN107305252A (zh) 2017-10-31

Similar Documents

Publication Publication Date Title
CN107305252B (zh) 主动提取目标深度细节的快速成像方法
CN110232394B (zh) 一种多尺度图像语义分割方法
Lu et al. A revisit to MRF-based depth map super-resolution and enhancement
CN108121991B (zh) 一种基于边缘候选区域提取的深度学习舰船目标检测方法
CN110349132B (zh) 一种基于光场相机深度信息提取的织物瑕疵检测方法
CN110738731B (zh) 一种用于双目视觉的3d重建方法和***
CN105335965B (zh) 一种高分辨率遥感图像多尺度自适应决策融合分割方法
KR20100062360A (ko) 깊이 추정 장치 및 방법
CN109977968B (zh) 一种深度学习分类后比较的sar变化检测方法
CN104504652A (zh) 一种快速有效保留边缘及方向特征的图像去噪方法
CN110765912B (zh) 一种基于统计约束和Mask R-CNN的SAR图片船舶目标检测方法
CN112270697B (zh) 一种结合超分辨率重建的卫星序列影像运动目标检测方法
CN110189265B (zh) 距离能量相关三维成像超级像素修复方法
EP3216006B1 (en) An image processing apparatus and method
CN114332098A (zh) 一种基于多序列磁共振影像的颈动脉不稳定斑块分割方法
CN110706177A (zh) 一种侧扫声呐图像灰度均衡化方法及***
CN113989343A (zh) 基于注意力机制的传感器融合深度重建数据驱动方法
CN116485885A (zh) 基于深度学习去除视觉slam前端动态特征点的方法
CN106097292B (zh) 一种用于遥感影像处理的时空邻域高斯加权中值滤波方法
CN103914824A (zh) 医学图像多目标区域勾画及任意目标区域面积计算方法
CN110135382B (zh) 一种人体检测方法和装置
EP2916290A1 (en) Method and apparatus for disparity estimation
Bull et al. Perceptual improvements for super-resolution of satellite imagery
CN114155425A (zh) 基于高斯马尔可夫随机场运动方向估计的弱小目标检测方法
JP7019104B2 (ja) 閾値の学習方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant