CN112712477A - 结构光模组的深度图像评价方法及其装置 - Google Patents

结构光模组的深度图像评价方法及其装置 Download PDF

Info

Publication number
CN112712477A
CN112712477A CN202011519178.9A CN202011519178A CN112712477A CN 112712477 A CN112712477 A CN 112712477A CN 202011519178 A CN202011519178 A CN 202011519178A CN 112712477 A CN112712477 A CN 112712477A
Authority
CN
China
Prior art keywords
depth
frame
depth image
value
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011519178.9A
Other languages
English (en)
Inventor
王兴
刘风雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongguan Ekos Technology Co Ltd
Original Assignee
Dongguan Ekos Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongguan Ekos Technology Co Ltd filed Critical Dongguan Ekos Technology Co Ltd
Priority to CN202011519178.9A priority Critical patent/CN112712477A/zh
Publication of CN112712477A publication Critical patent/CN112712477A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一种结构光模组的深度图像评价方法及其装置,涉及成像技术领域。该方法包括通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域,M为大于等于2的整数;在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值;根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度;对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度;根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。该方法能够评估结构光模组的成像性能。

Description

结构光模组的深度图像评价方法及其装置
技术领域
本发明涉及成像技术领域,具体而言,涉及一种结构光模组的深度图像评价方法及其装置。
背景技术
3D深度测量技术可采集场景目标的深度坐标信息,为后端开发提供额外的数据处理自由度。随着移动终端器件与智能交互设备的普及,3D深度测量技术越来越成为新一代人机交互的核心技术,在工业检测、安防零售、体感游戏、移动支付和生物医学等方面都有着广泛的应用前景。
然而,现有技术中缺少对3D结构光模组的深度图像进行***评价的方法,而该深度图像评价方法对3D结构光模组在生产过程中或者开发过程中具有重要的指导意义,因此,亟待提供一种用于对3D结构光模组的深度图像进行评价的方法,以弥补现有技术的缺失。
发明内容
本发明的目的在于提供一种结构光模组的深度图像评价方法及其装置,其能够评估结构光模组的成像性能。
本发明的实施例是这样实现的:
本发明的一方面,提供一种结构光模组的深度图像评价方法,该方法包括通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域,M为大于等于2的整数;在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值;根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度;对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度;根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。该方法能够评估结构光模组的成像性能。
可选地,根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度,包括:计算各个像素点的实际深度值和预设距离之间的差值,以得到每帧深度图像的各个像素点的第一深度误差值;根据第一深度误差值,分别计算每个子区域的各个像素点的第一深度误差值的深度误差平均值,以得到每帧深度图像的M个子区域的深度误差平均值;计算每个深度图像的M个子区域的深度误差平均值的总和,并除以每帧深度图像的子区域个数M,以得到每帧深度图像的绝对精度。
可选地,根据第一深度误差值,分别计算每个子区域的各个像素点的第一深度误差值的深度误差平均值,以得到每帧深度图像的M个子区域的深度误差平均值,包括:计算每个子区域的各个像素点的第一深度误差值的总和,并除以对应子区域的像素点的个数,以得到每帧深度图像的对应M个子区域的深度误差平均值。
可选地,对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度,包括:对每帧深度图像进行空间平面拟合,以得到每帧深度图像的拟合平面;获取每帧深度图像的预设图像区域内的各个像素点相对每帧深度图像的拟合平面的距离值,以得到每帧深度图像的多个第二深度误差值;根据每帧深度图像的多个第二深度误差值,计算每帧深度图像的均方根,均方根为空间精度。
可选地,深度图像的预设图像区域位于深度图像的中心,且预设图像区域的面积与深度图像的面积之比在1/2至4/5之间。
可选地,根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度,包括:获取每帧深度图像的每个子区域的像素点的最大深度值和最小深度值,并计算像素点的最大深度值和像素点的最小深度值之间的差值,以得到每帧深度图像的每个子区域对应的第三深度误差值;分别计算连续图像的每个子区域的连续误差平均值,其中,多帧深度图像组成连续图像,多帧深度图像的相同子区域组成连续图像的对应子区域;根据连续图像的所有连续误差平均值,获取连续图像的最大连续误差平均值,并计算连续图像的所有连续误差平均值的总平均值,以及连续图像的所有连续误差平均值的标准差,时间精度包括最大连续误差平均值、总平均值以及连续图像的标准差。
可选地,分别计算连续图像的每个子区域的连续误差平均值,包括:计算每帧深度图像的相同子区域的第三深度误差值的总和,并除以连续图像的总帧数,以得到连续图像的每个子区域的连续误差平均值。
可选地,根据连续图像的所有连续误差平均值,获取连续图像的最大连续误差平均值,并计算连续图像的所有连续误差平均值的总平均值,以及连续图像的所有连续误差平均值的标准差,包括:获取连续图像的所有连续误差平均值中的最大连续误差平均值;计算连续图像的所有连续误差平均值的总和,并除以连续图像的子区域个数M,以得到连续图像的总平均值;计算连续图像的所有连续误差平均值的标准差。
可选地,在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值,包括:去除每帧深度图像的坏点;去除每帧深度图像的噪点;获取每帧深度图像的有效像素点的实际深度值。
可选地,结构光模组的深度图像评价方法,还包括:计算每帧深度图像的坏点率;计算每帧深度图像的噪点率。
可选地,计算每帧深度图像的坏点率,包括:获取每帧深度图像的坏点的个数,坏点为结构光模组工作范围之外的像素点;计算每帧深度图像的坏点的个数,与每帧深度图像的像素点总个数的比值,以得到每帧深度图像的坏点率。
可选地,计算每帧深度图像的噪点率,包括:计算每帧深度图像在预设区域内的各个像素点的实际深度值的标准差;获取大于每帧深度图像在预设区域内的各个像素点的标准差10倍的像素点的个数,以得到每帧深度图像的第一噪点的个数;对每帧深度图像进行空间平面拟合,以得到每帧深度图像的拟合平面;获取每帧深度图像的各个像素点相对每帧深度图像的拟合平面的距离值;计算每帧深度图像的多个距离值之间的标准差;获取每帧深度图像大于其对应的标准差10倍的像素点的个数,以得到每帧深度图像的第二噪点的个数;计算第一噪点的个数和第二噪点的个数的总和,与每帧深度图像在预设区域内的各个像素点的总个数的比值,以得到每帧深度图像的噪点率。
本发明的另一方面,提供一种结构光模组的深度图像评价装置,该装置包括第一获取模组,用于通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域,M为大于等于2的整数;第二获取模组,用于在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值;第一计算模组,用于根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度;拟合模组,用于对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度;第二计算模组,用于根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。
本发明的有益效果包括:
本实施例提供了一种结构光模组的深度图像评价方法,该评价方法包括:通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域,M为大于等于2的整数;在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值;根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度;对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度;根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。这样,本实施例便可以弥补现有技术的缺陷,根据该评价方法得到绝对精度、空间精度以及时间进度,进而根据该绝对精度、空间精度以及时间精度对结构光模组的成像精度进行***评价,从而使得用户方便地掌握结构光模组成像性能。如此,也可以对结构光模组的设计研发提供数据支持,从而为结构光模组的设计和制备提供重要的指导意义。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之一;
图2为本发明实施例提供的深度图像的子区域的划分方式的示意图;
图3为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之二;
图4为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之三;
图5为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之四;
图6为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之五;
图7为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之六;
图8为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之七;
图9为本发明实施例提供的结构光模组的深度图像评价方法的流程示意图之八。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
此外,术语“水平”、“竖直”等术语并不表示要求部件绝对水平或悬垂,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
请参照图1,本实施例提供一种结构光模组的深度图像评价方法,该方法包括:
S100、通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域,M为大于等于2的整数。
需要说明的是,上述预设距离本领域技术人员可以根据结构光模组的设备规格自行拟定。例如,该预设距离可以为 300mm、400mm、500mm、600mm、700mm、800mm、900mm、1000mm、1100mm、1200mm、1300mm、1400mm或者1500mm 等。
另外,本实施例提供的结构光模组的深度图像评价方法可以仅针对其中一个预设距离进行深度图像的评估,也可以分别对多个预设距离进行深度图像评估。其中,当对多种预设距离下的深度图像进行评估时,其评价方法与对一种预设距离的深度图像进行评价的评价方法相同,区别仅在于对一种预设距离的深度图像进行评价的评价方法按照对应的预设距离进行多次执行。由于对多种预设距离下的深度图像的评价和对一种预设距离下的深度图像的评价原理相同,下文将对针对其中一种预设距离下的深度图像进行评价的具体方式进行示例说明。
还有,每帧深度图像均包括M个子区域,示例地,每帧深度图像可以包括2个子区域、3个子区域、4个子区域、6个子区域、9个子区域等等,在此不再一一列举。需要说明的是,在本实施例中,每帧深度图像的子区域个数和子区域的划分标准相同。即每帧深度图像的各个子区域在各自的深度图像中的位置相同。例如,请参见图2,若每帧深度图像均包括4个子区域 (第一子区域、第二子区域、第三子区域以及第四子区域),则可以是每帧深度图像的第一子区域都位于各自的深度图像的左上角、每帧深度图像的第二子区域都位于各自的深度图像的右上角、每帧深度图像的第三子区域都位于各自的深度图像的右下角、每帧深度图像的第四子区域都位于各自的深度图像的左下角。当然,图2仅是本实施例提供的一种对每帧深度图像的子区域的划分方式的示意图,在其他的实施例中也可以采用其他的划分方式或者选择其他的子区域的个数。
上述目标对象可以是白板,另外,在本实施例中,该白板可以固定于电机的固定端,结构光模组可以连接于电机的驱动端,电机用于驱动结构光模组靠近或者远离白板,从而通过电机控制结构光模组相对白板的距离,进而实现预设距离的调控。其中,电机可以和控制器电连接,从而用户可以通过控制器控制电机,进而对预设距离进行调控。
S200、在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值。
其中,上述有效深度值区间是指在通过结构光模组拍摄获取的深度图像后,去除每帧深度图像的坏点和噪点之后的深度值区间。坏点为处于结构光模组工作范围(例如当结构光模组可拍摄的深度图像的深度值范围在250mm至1600mm之间时,则结构光模组获取到的深度图像的像素点的深度值在250mm至 1600mm之外的像素点则为坏点)之外的像素点,噪点为图像中一种亮度或颜色信息的随机变化(被拍摄物体本身并没有)的像素点,通常是电子噪声的表现。无论是坏点还是噪点,其均为无效像素点。因为评价噪点和坏点的深度数据没有意义,反而会对深度图像的评价造成影响,因此本实施例去除坏点和噪点之后,在深度图像的有效深度值区域内对每帧深度图像进行整体评价。
S300、根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度。
S400、对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度。
S500、根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。该方法能够评估结构光模组的成像性能。
应理解,每帧深度图像都会有不同程度的像素点的深度缺失,以及存在各像素点之间发生深度值的差异。绝对精度可用于对每帧深度图像之间各个子区域之间存在的深度值差异进行评价;空间精度可用于对每帧深度图像进行空间平面拟合之后,根据拟合平面对各个像素点的深度值相对拟合平面之间的差异进行深度评价;时间精度可用于对不同帧的深度图像在同一位置(即相同子区域)时各自之间存在的深度值差异进行评价。
综上所述,本实施例提供了一种结构光模组的深度图像评价方法,该评价方法包括:通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域,M为大于等于2的整数;在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值;根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度;对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度;根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。这样,本实施例便可以弥补现有技术的缺陷,根据该评价方法得到绝对精度、空间精度以及时间进度,进而根据该绝对精度、空间精度以及时间精度对结构光模组的成像精度进行***评价,从而使得用户方便地掌握结构光模组成像性能。如此,也可以对结构光模组的设计研发提供数据支持,从而为结构光模组的设计和制备提供重要的指导意义。
请结合参照图3,可选地,上述步骤S300、根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度,包括以下步骤:
S310、计算各个像素点的实际深度值和预设距离之间的差值,以得到每帧深度图像的各个像素点的第一深度误差值。
其中,计算各个像素点的实际深度值和预设距离之间的差值,即指将各个像素点的实际深度值分别与预设距离做减法运算,从而得到每个像素点的第一深度误差值。例如,预设距离为500mm时,则每一个像素点的深度值分别和500mm做减法运算,从而得到多个第一深度误差值。
S320、根据第一深度误差值,分别计算每个子区域的各个像素点的第一深度误差值的深度误差平均值,以得到每帧深度图像的M个子区域的深度误差平均值。
可选地,上述步骤S320、根据第一深度误差值,分别计算每个子区域的各个像素点的第一深度误差值的深度误差平均值,以得到每帧深度图像的M个子区域的深度误差平均值,可以是包括:
计算每个子区域的各个像素点的第一深度误差值的总和,并除以对应子区域的像素点的个数,以得到每帧深度图像的对应M个子区域的深度误差平均值。
这样便可以得到每帧深度图像的各个子区域的深度误差平均值。例如,当一共有三帧深度图像时,则每帧深度图像均可以得到M个子区域的深度误差平均值,三帧深度图像便可以得到3M个子区域的深度误差平均值。
S330、计算每个深度图像的M个子区域的深度误差平均值的总和,并除以每帧深度图像的子区域个数M,以得到每帧深度图像的绝对精度。
即通过对每帧深度图像的M个子区域的深度误差平均值求和并除以M,以得到每帧深度图像的绝对精度,三帧深度图像便可以得到三组绝对精度,进而每一组绝对精度用于对对应地深度图像进行性能评价。
为了便于理解,下面将以举例的方式对计算每帧深度图像的绝对精度的方式进行说明。例如,若结构光模组一共获取了3 帧深度图像(分别为第一帧深度图像、第二帧深度图像以及第三帧深度图像),且每帧深度图像均包括4个子区域(分别为第一子区域、第二子区域、第三子区域以及第四子区域)。对于第一帧深度图像:先计算位于第一帧深度图像的包含在第一子区域里面的各个像素点的第一深度误差值的总和,然后将该总和值除以第一帧深度图像的第一子区域的像素点的总个数,从而得到第一帧深度图像的第一子区域的深度误差平均值。然后,同理得到第一帧深度图像的第二子区域的深度误差平均值、第一帧深度图像的第三子区域的深度误差平均值,以及第一帧深度图像的第四子区域的深度误差平均值。然后将第一帧深度图像的四个子区域各自的深度误差平均值再求和,并除以子区域的总个数(即为4),从而便可以得到第一帧深度图像的绝对精度。同理,第二帧深度图像的绝对精度和第三帧深度图像的绝对精度通过同样的方法获得。
请再参照图4,在本实施例中,可选地,上述步骤S400、对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度,包括:
S410、对每帧深度图像进行空间平面拟合,以得到每帧深度图像的拟合平面。
其中,上述对每帧深度图像进行空间平面拟合时,可以采用平面方程(即ax+by+cz=d)对深度图像进行拟合,从而得到拟合平面。另外,该平面方程中的各项参数,可以采用最小二乘法得到。
S420、获取每帧深度图像的预设图像区域内的各个像素点相对每帧深度图像的拟合平面的距离值,以得到每帧深度图像的多个第二深度误差值。
需要说明的是,例如,结构光模组获取了三帧深度图像,则此步骤便可以获取三组第二深度误差值。其中,每组第二深度误差值的个数应当与每组深度图像在预设图像区域内像素点的个数相同。例如,每帧深度图像的预设图像区域内具有10个像素点,则每帧深度图像可以得到10个距离值,即每帧深度图像可以得到10个第二深度误差值。
另外,上述每个像素点的距离值即为该像素点距离拟合平面的距离,其可以通过点到面的距离公式计算得到。其中,点到面的距离公式如下:
Figure BDA0002848955600000121
d为像素点P到拟合平面的距离,像素点的坐标(x1,y1,z1)。由于点到面的距离公式、标准差公式以及均方根公式均为公知,故该公式本领域应当熟知,本申请只是对该公式的应用,故对该公式此处不再赘述。
S430、根据每帧深度图像的多个第二深度误差值,计算每帧深度图像的均方根,均方根为空间精度。
示例地,每帧深度图像的预设图像区域内具有10个像素点,则每帧深度图像可以得到10个距离值,在计算均方根时则可以将这10个距离值分别代入均方根计算公式内进行计算,均方根公式如下:
Figure BDA0002848955600000131
其中,上述N为每帧深度图像的距离值的个数;Xi为每帧深度图像中第i个距离值。在计算时,只需将上述的10个距离值分别代入上述均方根公式计算即可。
可选地,在本实施例中,深度图像的预设图像区域位于深度图像的中心,且预设图像区域的面积与深度图像的面积之比在1/2至4/5之间。例如,预设图像区域的面积与深度图像的面积之比可以为3/4,即选取每帧深度图像的中心的75%区域为预设图像区域。或者,可选地,该预设图像区域可以为方形的预设图像区域,且其宽度为深度图像宽度的3/4,长度也为深度图像的3/4。
请参照图5,可选地,上述步骤S500、根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度,包括以下步骤:
S510、获取每帧深度图像的每个子区域的像素点的最大深度值和最小深度值,并计算像素点的最大深度值和像素点的最小深度值之间的差值,以得到每帧深度图像的每个子区域对应的第三深度误差值。
为了便于理解,采用举例的方式进行说明。若一共具有3 帧深度图像(分别为第一帧深度图像、第二帧深度图像以及第三帧深度图像),且每帧深度图像均具有4个子区域(分别为第一子区域、第二子区域、第三子区域以及第四子区域)。则计算第一帧深度图像的第一子区域的第三深度误差值时,可以是先获取第一帧深度图像的第一子区域内的各个像素点的最大深度值和最小深度值;再计算最大深度值和最小深度值的差值,从而得到第一帧深度图像的第一子区域的第三深度误差值,……以此类推,计算第一帧深度图像的其他子区域的第三深度误差值。同理,计算其他帧深度图像的每个子区域的第三深度误差值。
S520、分别计算连续图像的每个子区域的连续误差平均值,其中,多帧深度图像组成连续图像,多帧深度图像的相同子区域组成连续图像的对应子区域。
可选地,上述步骤S520、分别计算连续图像的每个子区域的连续误差平均值,包括:
计算每帧深度图像的相同子区域的第三深度误差值的总和,并除以连续图像的总帧数,以得到连续图像的每个子区域的连续误差平均值。
需要说明的是,连续图像即为多个帧的深度图像组成的图像。连续图像的子区域为每个深度图像的相同子区域的总和,例如,当一共具有三帧深度图像时,且每帧深度图像包括4个子区域时(如图2所示,分别为第一子区域、第二子区域、第三子区域以及第四子区域),则连续图像也包括4个子区域,其中国,连续图像的第一子区域即包括第一帧深度图像的第一子区域、第二帧深度图像的第一子区域,以及第三帧深度图像的第一子区域。连续图像的其他子区域同理,在此不再赘述。
本步骤可以得到M个连续误差平均值,M为连续图像的子区域的个数,也等于每帧深度图像的子区域的个数。
S530、根据连续图像的所有连续误差平均值,获取连续图像的最大连续误差平均值,并计算连续图像的所有连续误差平均值的总平均值,以及连续图像的所有连续误差平均值的标准差,时间精度包括最大连续误差平均值、总平均值以及连续图像的标准差。
请参照图6,可选地,上述步骤S530、根据连续图像的所有连续误差平均值,获取连续图像的最大连续误差平均值,并计算连续图像的所有连续误差平均值的总平均值,以及连续图像的所有连续误差平均值的标准差,包括:
S531、获取连续图像的所有连续误差平均值中的最大连续误差平均值。
S532、计算连续图像的所有连续误差平均值的总和,并除以连续图像的子区域个数M,以得到连续图像的总平均值。
S533、计算连续图像的所有连续误差平均值的标准差。
其中,最大连续误差平均值可以从步骤S520中直接获取。而连续图像的所有连续误差平均值的总平均值,可以通过将上述M个连续误差平均值求和再除以M得到。连续图像的所有连续误差平均值的标准差,则可以通过标准差公式得到,标准差公式如下:
Figure BDA0002848955600000151
其中,N为连续误差平均值的个数,xi为第i个连续误差平均值,μ为所有连续误差平均值的平均数。通过代入各项数据即可得到连续图像的标准差。
上述步骤得到的最大连续误差平均值、总平均值以及连续图像的标准差即可以用来评价结构光模组的时间精度。
请再参照图6,在本实施例中,上述步骤S200、在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值,包括:
S210、去除每帧深度图像的坏点。
S220、去除每帧深度图像的噪点。
S230、获取每帧深度图像的有效像素点的实际深度值。
其中,上述每帧深度图像的有效像素点即为结构光模组获取到的每帧深度图像的所有像素点去除坏点和噪点之后的像素点。
为了使得本实施例提供的结构光模组的深度图像评价方法的评价参数更完整,在本实施例中,请再结合参照图7,可选地,结构光模组的深度图像评价方法,还包括:
S600、计算每帧深度图像的坏点率。
S700、计算每帧深度图像的噪点率。
这样,通过本实施例提供的结构光模组的深度图像评价方法便可以得到更加全面、完整的深度数据,从而提高对结构光模组的深度数据的评价完整性和全面性,使得通过本实施例提供的结构光模组的深度图像评价方法得到的评价数据具有较佳的参考价值和实际作用。
请参照图8,具体地,在本实施例中,上述步骤S600、计算每帧深度图像的坏点率,包括:
S610、获取每帧深度图像的坏点的个数,坏点为结构光模组工作范围之外的像素点。
坏点为处于结构光模组工作范围之外的像素点。例如,当结构光模组可拍摄的深度图像的深度值范围在250mm至 1600mm之间(250mm至1600mm即为结构光模组的工作范围)时,则结构光模组获取到的深度图像的像素点的深度值在 250mm至1600mm之外的像素点则为坏点。
S620、计算每帧深度图像的坏点的个数,与每帧深度图像的像素点总个数的比值,以得到每帧深度图像的坏点率。
坏点率也可以对结构光模组的深度数据进行评价,从而对结构光模组的设计或者制备提供数据参考,反向作用于结构光模组,以利于结构光模组的性能的提升。
可选地,请参照图9,上述步骤S700、计算每帧深度图像的噪点率,包括:
S710、计算每帧深度图像在预设区域内的各个像素点的实际深度值的标准差。
其中,每帧深度图像的预设区域在本实施例中均位于每帧深度图像的中心,且预设区域的面积与深度图像的面积之比可以为9/10,即选取每帧深度图像的中心的90%区域为预设区域。或者,可选地,该预设区域也可以为方形的预设区域,且其宽度为深度图像宽度的9/10,长度也为深度图像的9/10。
每帧深度图像的各个像素点的标准差可以通过标准差公式计算得到,在此不再赘述。
S720、获取大于每帧深度图像在预设区域内的各个像素点的标准差10倍的像素点的个数,以得到每帧深度图像的第一噪点的个数。
即大于每帧深度图像在预设区域内的各个像素点的标准差 10倍的像素点为第一噪点。
S730、对每帧深度图像进行空间平面拟合,以得到每帧深度图像的拟合平面。
此处空间平面拟合与前文的空间平面拟合的原理相同,可参见前文关于平面拟合的描述,在此不再重复说明。
S740、获取每帧深度图像的各个像素点相对每帧深度图像的拟合平面的距离值。
该距离值即为各个像素点至拟合平面的距离,通过点到面的距离公式即可计算得到。
S750、计算每帧深度图像的多个距离值之间的标准差。
其中,标准差的计算公式,需要使用到每帧深度图像的多个距离值的平均数,在此,该平均数的获取可以是通过将每帧深度图像的多个距离值求和后除以距离值的个数得到。
S760、获取每帧深度图像大于其对应的标准差10倍的像素点的个数,以得到每帧深度图像的第二噪点的个数。
即大于每帧深度图像的多个距离值之间的标准差10倍的像素点为第二噪点。需要注意的是,此标准差为前述步骤S750计算得到的标准差,该标准差为通过各个像素点相对拟合平面的距离计算得到的;而步骤S720中的标准差为步骤S710得到的标准差,该标准差是直接使用各个像素点的实际深度值计算得到的,应当注意两者区分。
S770、计算第一噪点的个数和第二噪点的个数的总和,与每帧深度图像在预设区域内的各个像素点的总个数的比值,以得到每帧深度图像的噪点率。对结构光模组评价噪点率可以进一步提高结构光模组的评价完整性。
本发明的另一方面,提供一种结构光模组的深度图像评价装置,该装置包括第一获取模组、第一获取模组、第二获取模组、第一计算模组以及第二计算模组。第一获取模组用于通过结构光模组获取目标对象的多帧深度图像,结构光模组距离目标对象的距离为预设距离,每帧深度图像均包括M个子区域, M为大于等于2的整数。第二获取模组用于在有效深度值区间内获取每帧深度图像的各个像素点的实际深度值。第一计算模组用于根据每帧深度图像的实际深度值和预设距离,计算每帧深度图像的绝对精度。拟合模组用于对每帧深度图像进行空间平面拟合以得到拟合平面,并根据实际深度值与拟合平面的拟合深度值计算每帧深度图像的空间精度。第二计算模组用于根据每帧深度图像的每个子区域的最大值和最小值的差值,计算多帧深度图像的时间精度。
其中,上述上述装置用于执行前述实施例提供的结构光模组的深度图像评价方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路 (ApplicationSpecificIntegratedCircuit,简称ASIC),或,一个或多个微处理器(DigitalSignalProcessor,简称DSP),或,一个或者多个现场可编程门阵列(FieldProgrammableGateArray,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessingUnit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上***(system-on-a-chip,简称SOC)的形式实现。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文: processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文: Read-OnlyMemory,简称:ROM)、随机存取存储器(英文:RandomAccessMemory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的可选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。

Claims (13)

1.一种结构光模组的深度图像评价方法,其特征在于,包括:
通过结构光模组获取目标对象的多帧深度图像,所述结构光模组距离所述目标对象的距离为预设距离,每帧所述深度图像均包括M个子区域,M为大于等于2的整数;
在有效深度值区间内获取每帧所述深度图像的各个像素点的实际深度值;
根据每帧所述深度图像的实际深度值和所述预设距离,计算每帧所述深度图像的绝对精度;
对每帧所述深度图像进行空间平面拟合以得到拟合平面,并根据所述实际深度值与所述拟合平面的拟合深度值计算每帧所述深度图像的空间精度;
根据每帧所述深度图像的每个子区域的最大值和最小值的差值,计算多帧所述深度图像的时间精度。
2.根据权利要求1所述的结构光模组的深度图像评价方法,其特征在于,所述根据每帧所述深度图像的实际深度值和所述预设距离,计算每帧所述深度图像的绝对精度,包括:
计算各个像素点的实际深度值和所述预设距离之间的差值,以得到每帧所述深度图像的各个像素点的第一深度误差值;
根据所述第一深度误差值,分别计算每个所述子区域的各个像素点的所述第一深度误差值的深度误差平均值,以得到每帧所述深度图像的M个子区域的深度误差平均值;
计算每个所述深度图像的M个子区域的深度误差平均值的总和,并除以每帧深度图像的子区域个数M,以得到每帧所述深度图像的绝对精度。
3.根据权利要求2所述的结构光模组的深度图像评价方法,其特征在于,所述根据所述第一深度误差值,分别计算每个所述子区域的各个像素点的所述第一深度误差值的深度误差平均值,以得到每帧所述深度图像的M个所述子区域的深度误差平均值,包括:
计算每个所述子区域的各个像素点的第一深度误差值的总和,并除以对应所述子区域的像素点的个数,以得到每帧所述深度图像的对应M个所述子区域的深度误差平均值。
4.根据权利要求1所述的结构光模组的深度图像评价方法,其特征在于,所述对每帧所述深度图像进行空间平面拟合以得到拟合平面,并根据所述实际深度值与所述拟合平面的拟合深度值计算每帧所述深度图像的空间精度,包括:
对每帧所述深度图像进行空间平面拟合,以得到每帧所述深度图像的拟合平面;
获取每帧所述深度图像的预设图像区域内的各个像素点相对每帧所述深度图像的拟合平面的距离值,以得到每帧所述深度图像的多个第二深度误差值;
根据每帧所述深度图像的多个第二深度误差值,计算每帧所述深度图像的均方根,所述均方根为所述空间精度。
5.根据权利要求4所述的结构光模组的深度图像评价方法,其特征在于,所述深度图像的预设图像区域位于所述深度图像的中心,且所述预设图像区域的面积与所述深度图像的面积之比在1/2至4/5之间。
6.根据权利要求1所述的结构光模组的深度图像评价方法,其特征在于,所述根据每帧所述深度图像的每个子区域的最大值和最小值的差值,计算多帧所述深度图像的时间精度,包括:
获取每帧所述深度图像的每个子区域的像素点的最大深度值和最小深度值,并计算所述像素点的最大深度值和所述像素点的最小深度值之间的差值,以得到每帧所述深度图像的每个子区域对应的第三深度误差值;
分别计算连续图像的每个子区域的连续误差平均值,其中,多帧所述深度图像组成所述连续图像,多帧所述深度图像的相同子区域组成所述连续图像的对应子区域;
根据所述连续图像的所有连续误差平均值,获取所述连续图像的最大连续误差平均值,并计算所述连续图像的所有连续误差平均值的总平均值,以及所述连续图像的所有连续误差平均值的标准差,所述时间精度包括所述最大连续误差平均值、所述总平均值以及所述连续图像的标准差。
7.根据权利要求6所述的结构光模组的深度图像评价方法,其特征在于,所述分别计算所述连续图像的每个子区域的连续误差平均值,包括:
计算每帧所述深度图像的相同子区域的第三深度误差值的总和,并除以连续图像的总帧数,以得到所述连续图像的每个子区域的连续误差平均值。
8.根据权利要求7所述的结构光模组的深度图像评价方法,其特征在于,所述根据所述连续图像的所有连续误差平均值,获取所述连续图像的最大连续误差平均值,并计算所述连续图像的所有连续误差平均值的总平均值,以及所述连续图像的所有连续误差平均值的标准差,包括:
获取所述连续图像的所有连续误差平均值中的最大连续误差平均值;
计算所述连续图像的所有连续误差平均值的总和,并除以所述连续图像的子区域个数M,以得到所述连续图像的总平均值;
计算所述连续图像的所有连续误差平均值的标准差。
9.根据权利要求1所述的结构光模组的深度图像评价方法,其特征在于,所述在有效深度值区间内获取每帧所述深度图像的各个像素点的实际深度值,包括:
去除每帧所述深度图像的坏点;
去除每帧所述深度图像的噪点;
获取每帧深度图像的有效像素点的实际深度值。
10.根据权利要求1所述的结构光模组的深度图像评价方法,其特征在于,所述结构光模组的深度图像评价方法,还包括:
计算每帧所述深度图像的坏点率;
计算每帧所述深度图像的噪点率。
11.根据权利要求10所述的结构光模组的深度图像评价方法,其特征在于,所述计算每帧所述深度图像的坏点率,包括:
获取每帧所述深度图像的坏点的个数,所述坏点为所述结构光模组工作范围之外的像素点;
计算每帧所述深度图像的所述坏点的个数,与每帧所述深度图像的像素点总个数的比值,以得到每帧所述深度图像的所述坏点率。
12.根据权利要求10所述的结构光模组的深度图像评价方法,其特征在于,所述计算每帧所述深度图像的噪点率,包括:
计算每帧所述深度图像在预设区域内的各个像素点的实际深度值的标准差;
获取大于每帧所述深度图像在所述预设区域内的各个像素点的标准差10倍的像素点的个数,以得到每帧所述深度图像的第一噪点的个数;
对每帧所述深度图像进行空间平面拟合,以得到每帧所述深度图像的拟合平面;
获取每帧所述深度图像的各个像素点相对每帧所述深度图像的拟合平面的距离值;
计算每帧所述深度图像的多个所述距离值之间的标准差;
获取每帧所述深度图像大于其对应的标准差10倍的像素点的个数,以得到每帧所述深度图像的第二噪点的个数;
计算所述第一噪点的个数和第二噪点的个数的总和,与每帧所述深度图像在所述预设区域内的各个像素点的总个数的比值,以得到每帧所述深度图像的所述噪点率。
13.一种结构光模组的深度图像评价装置,其特征在于,包括:
第一获取模组,用于通过结构光模组获取目标对象的多帧深度图像,所述结构光模组距离所述目标对象的距离为预设距离,每帧所述深度图像均包括M个子区域,M为大于等于2的整数;
第二获取模组,用于在有效深度值区间内获取每帧所述深度图像的各个像素点的实际深度值;
第一计算模组,用于根据每帧所述深度图像的实际深度值和所述预设距离,计算每帧所述深度图像的绝对精度;
拟合模组,用于对每帧所述深度图像进行空间平面拟合以得到拟合平面,并根据所述实际深度值与所述拟合平面的拟合深度值计算每帧所述深度图像的空间精度;
第二计算模组,用于根据每帧所述深度图像的每个子区域的最大值和最小值的差值,计算多帧所述深度图像的时间精度。
CN202011519178.9A 2020-12-21 2020-12-21 结构光模组的深度图像评价方法及其装置 Pending CN112712477A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011519178.9A CN112712477A (zh) 2020-12-21 2020-12-21 结构光模组的深度图像评价方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011519178.9A CN112712477A (zh) 2020-12-21 2020-12-21 结构光模组的深度图像评价方法及其装置

Publications (1)

Publication Number Publication Date
CN112712477A true CN112712477A (zh) 2021-04-27

Family

ID=75544805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011519178.9A Pending CN112712477A (zh) 2020-12-21 2020-12-21 结构光模组的深度图像评价方法及其装置

Country Status (1)

Country Link
CN (1) CN112712477A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049658A (zh) * 2022-08-15 2022-09-13 合肥的卢深视科技有限公司 Rgb-d相机质量检测方法、电子设备及存储介质

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074018A (zh) * 2010-12-22 2011-05-25 Tcl集团股份有限公司 一种基于深度信息的轮廓跟踪方法
KR20110112143A (ko) * 2010-04-06 2011-10-12 (주)리얼디스퀘어 Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
KR20130081835A (ko) * 2012-01-10 2013-07-18 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
CN103473743A (zh) * 2013-09-12 2013-12-25 清华大学深圳研究生院 一种获取图像深度信息的方法
CN105827952A (zh) * 2016-02-01 2016-08-03 维沃移动通信有限公司 一种去除指定对象的拍照方法及移动终端
CN106254753A (zh) * 2015-12-31 2016-12-21 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备
US9538081B1 (en) * 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US20170372479A1 (en) * 2016-06-23 2017-12-28 Intel Corporation Segmentation of objects in videos using color and depth information
CN107666606A (zh) * 2016-07-29 2018-02-06 东南大学 双目全景图像获取方法及装置
KR101866106B1 (ko) * 2016-12-30 2018-06-08 동의대학교 산학협력단 깊이 영상의 프레임간의 평면 예측 방법 및 평면 예측 장치
WO2018127007A1 (zh) * 2017-01-03 2018-07-12 成都通甲优博科技有限责任公司 深度图获取方法及***
CN109003253A (zh) * 2017-05-24 2018-12-14 通用电气公司 神经网络点云生成***
CN109903241A (zh) * 2019-01-31 2019-06-18 武汉市聚芯微电子有限责任公司 一种tof相机***的深度图像校准方法及***
CN110300991A (zh) * 2018-01-23 2019-10-01 深圳市大疆创新科技有限公司 表面图形确定方法和装置
CN110400273A (zh) * 2019-07-11 2019-11-01 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质
CN110770794A (zh) * 2018-08-22 2020-02-07 深圳市大疆创新科技有限公司 图像深度估计方法、装置、可读存储介质及电子设备
US20200057886A1 (en) * 2018-08-14 2020-02-20 Boe Technology Group Co., Ltd. Gesture recognition method and apparatus, electronic device, and computer-readable storage medium
CN111402188A (zh) * 2018-12-28 2020-07-10 浙江舜宇智能光学技术有限公司 Tof摄像模组深度测量评价方法及其评价装置
CN111508011A (zh) * 2020-04-16 2020-08-07 北京深测科技有限公司 一种飞行时间相机的深度数据校准方法
CN111882596A (zh) * 2020-03-27 2020-11-03 浙江水晶光电科技股份有限公司 结构光模组三维成像方法、装置、电子设备以及存储介质

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110112143A (ko) * 2010-04-06 2011-10-12 (주)리얼디스퀘어 Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
CN102074018A (zh) * 2010-12-22 2011-05-25 Tcl集团股份有限公司 一种基于深度信息的轮廓跟踪方法
KR20130081835A (ko) * 2012-01-10 2013-07-18 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
US9538081B1 (en) * 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
CN103473743A (zh) * 2013-09-12 2013-12-25 清华大学深圳研究生院 一种获取图像深度信息的方法
CN106254753A (zh) * 2015-12-31 2016-12-21 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备
CN105827952A (zh) * 2016-02-01 2016-08-03 维沃移动通信有限公司 一种去除指定对象的拍照方法及移动终端
US20170372479A1 (en) * 2016-06-23 2017-12-28 Intel Corporation Segmentation of objects in videos using color and depth information
CN107666606A (zh) * 2016-07-29 2018-02-06 东南大学 双目全景图像获取方法及装置
KR101866106B1 (ko) * 2016-12-30 2018-06-08 동의대학교 산학협력단 깊이 영상의 프레임간의 평면 예측 방법 및 평면 예측 장치
WO2018127007A1 (zh) * 2017-01-03 2018-07-12 成都通甲优博科技有限责任公司 深度图获取方法及***
CN109003253A (zh) * 2017-05-24 2018-12-14 通用电气公司 神经网络点云生成***
CN110300991A (zh) * 2018-01-23 2019-10-01 深圳市大疆创新科技有限公司 表面图形确定方法和装置
US20200057886A1 (en) * 2018-08-14 2020-02-20 Boe Technology Group Co., Ltd. Gesture recognition method and apparatus, electronic device, and computer-readable storage medium
CN110770794A (zh) * 2018-08-22 2020-02-07 深圳市大疆创新科技有限公司 图像深度估计方法、装置、可读存储介质及电子设备
CN111402188A (zh) * 2018-12-28 2020-07-10 浙江舜宇智能光学技术有限公司 Tof摄像模组深度测量评价方法及其评价装置
CN109903241A (zh) * 2019-01-31 2019-06-18 武汉市聚芯微电子有限责任公司 一种tof相机***的深度图像校准方法及***
CN110400273A (zh) * 2019-07-11 2019-11-01 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质
CN111882596A (zh) * 2020-03-27 2020-11-03 浙江水晶光电科技股份有限公司 结构光模组三维成像方法、装置、电子设备以及存储介质
CN111508011A (zh) * 2020-04-16 2020-08-07 北京深测科技有限公司 一种飞行时间相机的深度数据校准方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049658A (zh) * 2022-08-15 2022-09-13 合肥的卢深视科技有限公司 Rgb-d相机质量检测方法、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN110276808B (zh) 一种单相机结合二维码测量玻璃板不平度的方法
KR102674646B1 (ko) 뷰로부터 거리 정보를 획득하는 장치 및 방법
US7176441B2 (en) Counting system and counting method
CN104574350B (zh) 三维数据撷取方法及其***
JP2022501603A (ja) 体積測定方法、システム、装置及びコンピュータ読取可能な記憶媒体
CN107592449B (zh) 三维模型建立方法、装置和移动终端
CN111144213B (zh) 一种对象检测方法和相关设备
CN107578410B (zh) 转辙机缺口图像自动识别方法
CN107767424A (zh) 多相机***的标定方法、多相机***及终端设备
CN114460093B (zh) 一种航空发动机缺陷检测方法及***
CN113011388B (zh) 一种基于车牌及车道线的车辆外轮廓尺寸检测方法
CN112712477A (zh) 结构光模组的深度图像评价方法及其装置
CN114972633B (zh) 交叉激光线约束下的快速扫描点云插值方法
CN112556994B (zh) 一种光学信息检测方法、装置及设备
CN110942506A (zh) 一种物体表面纹理重建方法、终端设备及***
CN106600628A (zh) 一种基于红外热像仪的目标物识别的方法与装置
CN102970514A (zh) 映像监视装置、映像监视方法以及程序
CN114898523A (zh) 一种具有测距功能的输电线路图像监测方法及装置
CN114926316A (zh) 距离测量方法、装置、电子设备及存储介质
EP4336449A1 (en) Mark hole positioning method and apparatus, assembly device, and storage medium
CN114066930A (zh) 一种平面目标跟踪方法、装置、终端设备及存储介质
CN116358528A (zh) 地图更新方法、地图更新装置、自移动设备及存储介质
CN112292577A (zh) 三维测量装置以及方法
CN113516721B (zh) 一种基于多相机的测量方法、装置及存储介质
CN115018735A (zh) 基于霍夫变换校正二维码图像的裂缝宽度识别方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination