CN110319899A - 体积测量方法、装置和*** - Google Patents

体积测量方法、装置和*** Download PDF

Info

Publication number
CN110319899A
CN110319899A CN201910741396.8A CN201910741396A CN110319899A CN 110319899 A CN110319899 A CN 110319899A CN 201910741396 A CN201910741396 A CN 201910741396A CN 110319899 A CN110319899 A CN 110319899A
Authority
CN
China
Prior art keywords
depth
under test
value
object under
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910741396.8A
Other languages
English (en)
Inventor
高松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen JWIPC Technology Co Ltd
Original Assignee
Shenzhen JWIPC Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen JWIPC Technology Co Ltd filed Critical Shenzhen JWIPC Technology Co Ltd
Priority to CN201910741396.8A priority Critical patent/CN110319899A/zh
Publication of CN110319899A publication Critical patent/CN110319899A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F17/00Methods or apparatus for determining the capacity of containers or cavities, or the volume of solid bodies

Landscapes

  • Physics & Mathematics (AREA)
  • Fluid Mechanics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种体积测量方法、装置和***,其中体积测量方法包括以下步骤:接收含有待测物体的场景的深度图,场景的深度图以预设第一水平面为基准;从单点测距装置接收参考距离值,目标检测点位于待测物体的上表面;根据场景的深度图获取与目标检测点对应的目标深度;获取补偿因子,根据补偿因子对场景的深度图的深度值进行补偿,以得到补偿深度值;根据补偿深度值得到补偿的点云坐标,并根据补偿的点云坐标得到待测物体的体积。本发明通过测得的精确的距离的数值对深度图的深度值进行补偿,可以修正深度图的深度值存在的误差,从而提高得到的待测物体的体积的精度。

Description

体积测量方法、装置和***
技术领域
本发明属于物体体积测量技术领域,尤其涉及一种体积测量方法、装置和***。
背景技术
目前,随着互联网的普及,以物流货物为代表性的物体体积测量在工厂、仓库等中的场景越来越多。为了实现快速的对物体进行分拣、装配,以及精准配送,就需要对物体体积进行测量并记录。
目前,已经出现了基于深度相机的体积测量的方法。参照图1,深度相机从上方向下拍摄待测物体,获取含有待测物体的场景的深度图。深度图即深度Z轴的坐标集合,深度图也被称为距离影像,是指将从图像采集器到场景中各点的距离(深度)作为像素值的图像,它直接反映了场景中各物体可见表面的几何形状。场景的深度图包含各个像素所对应的深度信息。以图1中A点为例,其对应的深度为d。根据各个像素对应的深度信息,可以得到场景的点云坐标。然后,从场景的点云坐标中筛选出待测物体对应的坐标点集合。最后,根据待测物体对应的坐标点集合可以计算得到待测物体的体积。
然而,现有的深度相机获取深度信息的精度不够高,尤其在受到环境(比如工作温度等)的影响时,误差较大。例如,以图1中A点为例,深度相机获取的A点对应的深度为d。但该数值常常存在一定的误差。该误差被引入后续的场景的点云坐标计算,以及待测物体的体积的计算,会导致得到的体积值误差较大。
发明内容
本发明的实施例要解决的技术问题是为了克服现有技术中基于深度相机的体积测量的方法精度不够高的缺陷,提供一种体积测量方法、装置和***。
本发明的实施例是通过下述技术方案来解决上述技术问题:
本发明的实施例一种体积测量方法,包括以下步骤:
接收含有待测物体的场景的深度图,场景的深度图以预设第一水平面为基准;
从单点测距装置接收参考距离值,参考距离值为目标检测点与预设第一水平面之间的距离,目标检测点位于待测物体的上表面;
根据场景的深度图获取与目标检测点对应的目标深度;
获取补偿因子,根据补偿因子对场景的深度图的深度值进行补偿,以得到补偿深度值;补偿因子为参考距离值与目标深度的比值;
根据补偿深度值得到补偿的点云坐标,并根据补偿的点云坐标得到待测物体的体积。
可选地,单点测距装置包括激光测距仪,激光测距仪设置于预设第一水平面上,激光测距仪的检测光束竖直投射于待测物体的上表面。
可选地,根据场景的深度图获取与目标检测点对应的目标深度的步骤包括:
根据激光测距仪的位置信息从场景的深度图中提取目标检测点对应的深度值作为目标深度。
可选地,根据场景的深度图获取与目标检测点对应的目标深度的步骤包括:
从场景的深度图中获取与待测物体的上表面对应的深度数据;
获取平均深度值,并以平均深度值作为目标深度,平均深度值为深度数据的平均值。
可选地,待测物体为长方体,待测物体为水平放置;
则根据场景的深度图获取与目标检测点对应的目标深度的步骤包括:
根据场景的深度图得到待测物体的上表面的点云坐标,根据点云坐标采用最小二乘法拟合一目标平面;
获取目标平面与预设第一水平面之间的距离作为目标深度。
可选地,体积测量方法还包括以下步骤:
获取含有待测物体的场景的图像,在图像中获取待测物体的轮廓并进行标注。
本发明的实施例还提供一种体积测量装置,包括深度图接收单元、参考距离值接收单元、目标深度获取单元、补偿单元、体积输出单元;
深度图接收单元用于接收含有待测物体的场景的深度图,场景的深度图以预设第一水平面为基准;
参考距离值接收单元用于从单点测距装置接收参考距离值,参考距离值为目标检测点与预设第一水平面之间的距离,目标检测点位于待测物体的上表面;
目标深度获取单元用于根据场景的深度图获取与目标检测点对应的目标深度;
补偿单元用于获取补偿因子,并用于根据补偿因子对场景的深度图的深度值进行补偿,以得到补偿深度值;补偿因子为参考距离值与目标深度的比值;
体积输出单元用于根据补偿深度值得到补偿的点云坐标,并根据补偿的点云坐标得到待测物体的体积。
可选地,单点测距装置包括激光测距仪,激光测距仪设置于预设第一水平面上,激光测距仪的检测光束竖直投射于待测物体的上表面;
则目标深度获取单元用于根据激光测距仪的位置信息从场景的深度图中提取目标检测点对应的深度值作为目标深度。
可选地,目标深度获取单元还用于从场景的深度图中获取与待测物体的上表面对应的深度数据;
目标深度获取单元还用于获取平均深度值,并以平均深度值作为目标深度,平均深度值为深度数据的平均值。
可选地,待测物体为长方体,待测物体为水平放置;
目标深度获取单元还用于根据场景的深度图得到待测物体的上表面的点云坐标,并根据点云坐标采用最小二乘法拟合一目标平面;
目标深度获取单元还用于获取目标平面与预设第一水平面之间的距离作为目标深度。
本发明的实施例还提供一种体积测量***,体积测量***包括深度相机模组、单点测距装置和本发明的实施例的体积测量装置;
深度相机模组用于获取场景的深度图;
单点测距装置用于获取参考距离值。
可选地,体积测量***还包括图像获取单元和标注单元;
图像获取单元用于获取含有待测物体的场景的图像;
标注单元用于在图像中获取待测物体的轮廓并进行标注。
本发明的实施例的积极进步效果在于:本发明的实施例通过测得的精确的距离的数值对深度图的深度值进行补偿,可以修正深度图的深度值存在的误差,从而提高得到的待测物体的体积的精度。
附图说明
附图说明本发明的若干实施例,且与描述一起用以解释本发明的原理。所属领域的技术人员将认识到,图中说明的特定实施例只是示范性的,且并不意图限制本发明的范围。
图1为本发明的实施例1的体积测量装置的结构示意图。
图2为本发明的实施例1的体积测量***的结构示意图。
图3为本发明的实施例1的体积测量***测量待测物体体积的示意图。
图4为本发明的实施例1的体积测量方法的流程图。
图5为本发明的实施例2的体积测量***测量待测物体体积的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、操作、元素和/或组件的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
实施例1
本实施例提供一种体积测量装置,参照图1,该体积测量装置包括深度图接收单元101、参考距离值接收单元102、目标深度获取单元103、补偿单元104、体积输出单元105。
深度图接收单元101用于接收含有待测物体的场景的深度图,场景的深度图以预设第一水平面为基准。参考距离值接收单元102用于从单点测距装置接收参考距离值,参考距离值为目标检测点与预设第一水平面之间的距离,目标检测点位于待测物体的上表面。目标深度获取单元103用于根据场景的深度图获取与目标检测点对应的目标深度。补偿单元104用于获取补偿因子,并用于根据补偿因子对场景的深度图的深度值进行补偿,以得到补偿深度值;补偿因子为参考距离值与目标深度的比值。体积输出单元105用于根据补偿深度值得到补偿的点云坐标,并根据补偿的点云坐标得到待测物体的体积。
本实施例还提供一种体积测量***,参照图2,该体积测量***包括深度相机模组2、单点测距装置3和本实施例的体积测量装置1。深度相机模组2用于获取场景的深度图。单点测距装置3用于获取参考距离值。
作为一种可选的实施方式,单点测距装置3包括激光测距仪11。参照图3,激光测距仪11设置于预设第一水平面12上,激光测距仪11的检测光束14竖直向下投射于待测物体13的上表面,激光测距仪11的检测光束14指向的点即为目标检测点15。深度相机模组2也设置于预设第一水平面12上,图中以虚线示意了深度相机模组2的拍摄范围。目标深度获取单元103用于根据激光测距仪11的位置信息从场景的深度图中提取目标检测点对应的深度值作为目标深度。
在测量体积的过程中,深度相机模组2获取含有待测物体13的场景的深度图。该深度图以各个点的深度值作为像素值。深度图接收单元101从深度相机模组2接收深度图。激光测距仪11获取其与目标检测点15之间的距离h1。因为激光测距仪11的检测光束14沿竖直方向,所以距离h1即为目标检测点15与预设第一水平面12之间的距离。因为激光测距仪11测得的距离具有极高的精度,因此,以距离h1为参考距离值。参考距离值接收单元102从激光测距仪11接收参考距离值。
激光测距仪11在设置完成后,其位置即为已知。根据激光测距仪11设置的位置即可确定其对应的目标检测点15在深度图的位置。目标深度获取单元103根据激光测距仪11的位置信息从场景的深度图中提取目标检测点对应的深度值(设为h2),作为目标深度。
接下来,补偿单元104获取补偿因子c1。补偿因子c1=h1/h2。然后,补偿单元104根据补偿因子c1对场景的深度图的深度值进行补偿,以得到补偿深度值也即,深度图中与每一个点对应的深度值均乘以补偿因子c1,以得到各个点对应的补偿深度值。
接下来,体积输出单元105根据补偿深度值得到补偿的点云坐标,从补偿的点云坐标中筛选出待测物体13对应的坐标点集合,再根据待测物体13对应的坐标点集合得到待测物体13的体积。
作为一种可选的实施方式,本实施例的体积测量装置采用一芯片实现,深度图接收单元101、参考距离值接收单元102、目标深度获取单元103、补偿单元104、体积输出单元105均集成于该芯片中。在另一种可选的实施方式中,体积测量装置采用一处理器实现,深度图接收单元101、参考距离值接收单元102、目标深度获取单元103、补偿单元104、体积输出单元105对应的功能均采用计算机程序实现。
作为一种可选的实施方式,图像获取单元获取含有待测物体13的场景的图像。图像获取单元包括RGB(红绿蓝)相机模组,RGB相机模组获取含有待测物体13的场景的彩色图像,为用户提供可视化的测量体验。标注单元用于在图像中获取待测物体13的轮廓并进行标注。标注单元根据双边滤波算法、卡尔曼滤波算法、高斯滤波算法等的至少一种从RGB相机模组获取的图像中识别出待测物体13的边缘轮廓,并以醒目的方式标注该轮廓,以方便用户锁定待测物体13。
本实施例还提供一种体积测量方法,参照图4,该包括以下步骤:
步骤S301、接收含有待测物体13的场景的深度图。场景的深度图以预设第一水平面为基准。
步骤S302、从单点测距装置接收参考距离值。参考距离值为目标检测点与预设第一水平面之间的距离,目标检测点位于待测物体13的上表面。
步骤S303、根据场景的深度图获取与目标检测点对应的目标深度。
步骤S304、获取补偿因子,根据补偿因子对场景的深度图的深度值进行补偿,以得到补偿深度值。补偿因子为参考距离值与目标深度的比值;
步骤S305、根据补偿深度值得到补偿的点云坐标,并根据补偿的点云坐标得到待测物体13的体积。
在一种可选的实施方式中,该体积测量方法采用本实施例的体积测量装置实现。
在另一种可选的实施方式中,该体积测量方法采用本实施例的体积测量***实现。深度相机模组2获取含有待测物体13的场景的深度图。该深度图以各个点的深度值作为像素值。在步骤S301中,深度图接收单元101从深度相机模组2接收深度图。
激光测距仪11获取其与目标检测点15之间的距离h1。因为激光测距仪11的检测光束14沿竖直方向,所以距离h1即为目标检测点15与预设第一水平面12之间的距离。因为激光测距仪11测得的距离具有极高的精度,因此,以距离h1为参考距离值。在步骤S302中,参考距离值接收单元102从激光测距仪11接收参考距离值。
激光测距仪11在设置完成后,其位置即为已知。根据激光测距仪11设置的位置即可确定其对应的目标检测点15在深度图的位置。在步骤S303中,目标深度获取单元103根据激光测距仪11的位置信息从场景的深度图中提取目标检测点对应的深度值(设为h2),作为目标深度。
接下来,在步骤S304中,补偿单元104获取补偿因子c1。补偿因子c1=h1/h2。然后,补偿单元104根据补偿因子c1对场景的深度图的深度值进行补偿,以得到补偿深度值也即,深度图中与每一个点对应的深度值均乘以补偿因子c1,以得到各个点对应的补偿深度值。
接下来,在步骤S305中,体积输出单元105根据补偿深度值得到补偿的点云坐标,从补偿的点云坐标中筛选出待测物体13对应的坐标点集合,再根据待测物体13对应的坐标点集合得到待测物体13的体积。
作为一种可选的实施方式,为了便于用户查看,本实施例的体积测量方法还包括以下步骤:获取含有待测物体13的场景的图像;在图像中获取待测物体13的轮廓并进行标注。
本实施例通过测得的精确的距离的数值对深度图的深度值进行补偿,可以修正深度图的深度值存在的误差,从而提高得到的待测物体13的体积的精度。采用深度图中的一个点的深度值作为目标深度,可以有效降低运算量。
实施例2
本实施例提供一种体积测量装置,该体积测量装置与实施例1的体积测量装置基本相同,区别在于,本实施例的体积测量装置的目标深度获取单元103不同。在本实施例中,参照图5,待测物体13为长方体,待测物体13为水平放置。目标深度获取单元103根据场景的深度图中获取与待测物体13对应的像素集合。因为待测物体13对应的深度值与背景(即承载待测物体13的底座)的深度值具有明显差异,因此,根据深度值可以将待测物体13与背景区分,从而从场景的深度图中获取与待测物体的上表面对应的深度数据。该深度数据包括深度图中与待测物体的上表面的各个像素点对应的深度值。然后,目标深度获取单元103获取平均深度值作为目标深度,平均深度值为深度数据的平均值,即为待测物体13对应的所有像素的深度值的平均值,也即,将待测物体13对应的所有像素的深度值求和后,除以待测物体13对应的像素的数量。因待测物体13为长方体,待测物体13为水平放置,所以,平均深度值可以表征通过深度相机模组2得到的待测物体13的上表面与预设第一水平面12之间的距离。以平均深度值作为目标深度,可以减小各个点的深度值的随机误差带来的影响,提高精度。
本实施例的体积测量装置的其它部分与实施例1的体积测量装置基本相同,此处不再赘述。
本实施例还提供一种体积测量***,本实施例的体积测量***与实施例1的体积测量***基本相同,区别在于,本实施例的体积测量***包括本实施例的体积测量装置,也即,目标深度获取单元103存在差异。
在测量体积的过程中,深度相机模组2获取含有待测物体13的场景的深度图。该深度图以各个点的深度值作为像素值。深度图接收单元101从深度相机模组2接收深度图。激光测距仪11获取其与目标检测点15之间的距离h1。因为激光测距仪11的检测光束14沿竖直方向,所以距离h1即为目标检测点15与预设第一水平面12之间的距离。因为激光测距仪11测得的距离具有极高的精度,因此,以距离h1为参考距离值。参考距离值接收单元102从激光测距仪11接收参考距离值。
目标深度获取单元103根据场景的深度图中获取与待测物体13对应的像素集合。因为待测物体13对应的深度值与背景(即承载待测物体13的底座)的深度值具有明显差异,因此,根据深度值可以将待测物体13与背景区分。然后,目标深度获取单元103获取平均深度值h3作为目标深度,平均深度值h3为待测物体13对应的所有像素的深度值的平均值,也即,将待测物体13对应的所有像素的深度值求和后,除以待测物体13对应的像素的数量。因待测物体13为长方体,待测物体13为水平放置,所以,平均深度值可以表征通过深度相机模组2得到的待测物体13的上表面与预设第一水平面12之间的距离。
接下来,补偿单元104获取补偿因子c1。补偿因子c1=h1/h3。然后,补偿单元104根据补偿因子c1对待测物体13对应的深度值进行补偿,以得到第一补偿深度值也即,深度图中的每一个与待测物体13对应的深度值均乘以补偿因子c1,以得到与待测物体13对应的第一补偿深度值。
接下来,体积输出单元105根据与待测物体13对应的第一补偿深度值得到与待测物体13对应的补偿的点云坐标,再根据与待测物体13对应的补偿的点云坐标得到待测物体13的体积。
本实施例还提供一种体积测量方法,本实施例的体积测量方法与实施例1的体积测量方法基本相同,区别在于获取目标深度的步骤存在区别。
在一种可选的实施方式中,该体积测量方法采用本实施例的体积测量装置实现。
在另一种可选的实施方式中,该体积测量方法采用本实施例的体积测量***实现。深度相机模组2获取含有待测物体13的场景的深度图。该深度图以各个点的深度值作为像素值。在步骤S301中,深度图接收单元101从深度相机模组2接收深度图。
激光测距仪11获取其与目标检测点15之间的距离h1。因为激光测距仪11的检测光束14沿竖直方向,所以距离h1即为目标检测点15与预设第一水平面12之间的距离。因为激光测距仪11测得的距离具有极高的精度,因此,以距离h1为参考距离值。在步骤S302中,参考距离值接收单元102从激光测距仪11接收参考距离值。
在步骤S303中,目标深度获取单元103根据场景的深度图中获取与待测物体13对应的像素集合。因为待测物体13对应的深度值与背景(即承载待测物体13的底座)的深度值具有明显差异,因此,根据深度值可以将待测物体13与背景区分。然后,目标深度获取单元103获取平均深度值h3作为目标深度,平均深度值h3为待测物体13对应的所有像素的深度值的平均值,也即,将待测物体13对应的所有像素的深度值求和后,除以待测物体13对应的像素的数量。因待测物体13为长方体,待测物体13为水平放置,所以,平均深度值可以表征通过深度相机模组2得到的待测物体13的上表面与预设第一水平面12之间的距离。
接下来,在步骤S304中,补偿单元104获取补偿因子c1。补偿因子c1=h1/h3。然后,补偿单元104根据补偿因子c1对待测物体13对应的深度值进行补偿,以得到第一补偿深度值也即,深度图中的每一个与待测物体13对应的深度值均乘以补偿因子c1,以得到与待测物体13对应的第一补偿深度值。
接下来,在步骤S305中,体积输出单元105根据与待测物体13对应的第一补偿深度值得到与待测物体13对应的补偿的点云坐标,再根据与待测物体13对应的补偿的点云坐标得到待测物体13的体积。
实施例3
本实施例提供一种体积测量装置,该体积测量装置与实施例1的体积测量装置基本相同,区别在于,本实施例的体积测量装置的目标深度获取单元103不同。在本实施例中,参照图5,待测物体13为长方体,待测物体13为水平放置。目标深度获取单元103根据场景的深度图获取场景的点云坐标。然后,从场景的点云坐标中筛选出待测物体13对应的坐标点集合。也即,目标深度获取单元103获取与待测物体13的上表面对应的各个点的坐标。接下来,目标深度获取单元103根据待测物体13的上表面对应的各个点的坐标,根据最小二乘法拟合与待测物体13的上表面对应的平面的函数,称为目标平面的函数。然后,目标深度获取单元103获取目标平面与预设第一水平面12之间的距离h4。预设第一水平面12的设置完成后,其对应的函数即为已知。因此,目标平面与预设第一水平面12之间的距离是能够得到的。目标深度获取单元103以距离h4为目标深度。因待测物体13为长方体,待测物体13为水平放置,所以,目标平面具与待测物体13的上表面所在的平面有极高的拟合度,目标平面可以表征待测物体13的上表面所在的平面,进而,距离h4可以表征通过深度相机模组2得到的待测物体13的上表面与预设第一水平面12之间的距离。
本实施例的体积测量装置的其它部分与实施例1的体积测量装置基本相同,此处不再赘述。
本实施例还提供一种体积测量***,本实施例的体积测量***与实施例1的体积测量***基本相同,区别在于,本实施例的体积测量***包括本实施例的体积测量装置,也即,目标深度获取单元103存在差异。
在测量体积的过程中,深度相机模组2获取含有待测物体13的场景的深度图。该深度图以各个点的深度值作为像素值。深度图接收单元101从深度相机模组2接收深度图。激光测距仪11获取其与目标检测点15之间的距离h1。因为激光测距仪11的检测光束14沿竖直方向,所以距离h1即为目标检测点15与预设第一水平面12之间的距离。因为激光测距仪11测得的距离具有极高的精度,因此,以距离h1为参考距离值。参考距离值接收单元102从激光测距仪11接收参考距离值。
目标深度获取单元103根据场景的深度图获取场景的点云坐标。然后,从场景的点云坐标中筛选出待测物体13对应的坐标点集合。也即,目标深度获取单元103获取与待测物体13的上表面对应的各个点的坐标。接下来,目标深度获取单元103根据待测物体13的上表面对应的各个点的坐标,根据最小二乘法拟合与待测物体13的上表面对应的平面的函数,称为目标平面的函数。然后,目标深度获取单元103获取目标平面与预设第一水平面12之间的距离h4。预设第一水平面12的设置完成后,其对应的函数即为已知。因此,目标平面与预设第一水平面12之间的距离是能够得到的。目标深度获取单元103以距离h4为目标深度。因待测物体13为长方体,待测物体13为水平放置,所以,目标平面可以表征待测物体13的上表面所在的平面,进而,距离h4可以表征通过深度相机模组2得到的待测物体13的上表面与预设第一水平面12之间的距离。
接下来,补偿单元104获取补偿因子c1。补偿因子c1=h1/h4。然后,补偿单元104根据补偿因子c1对待测物体13的各个点对应的深度值进行补偿,以得到第一补偿深度值也即,深度图中的每一个与待测物体13对应的深度值均乘以补偿因子c1,以得到与待测物体13对应的第一补偿深度值。
接下来,体积输出单元105根据与待测物体13对应的第一补偿深度值得到与待测物体13对应的补偿的点云坐标,再根据与与待测物体13对应的补偿的点云坐标得到待测物体13的体积。
本实施例还提供一种体积测量方法,本实施例的体积测量方法与实施例1的体积测量方法基本相同,区别在于获取目标深度的步骤存在区别。
在一种可选的实施方式中,该体积测量方法采用本实施例的体积测量装置实现。
在另一种可选的实施方式中,该体积测量方法采用本实施例的体积测量***实现。深度相机模组2获取含有待测物体13的场景的深度图。该深度图以各个点的深度值作为像素值。在步骤S301中,深度图接收单元101从深度相机模组2接收深度图。
激光测距仪11获取其与目标检测点15之间的距离h1。因为激光测距仪11的检测光束14沿竖直方向,所以距离h1即为目标检测点15与预设第一水平面12之间的距离。因为激光测距仪11测得的距离具有极高的精度,因此,以距离h1为参考距离值。在步骤S302中,参考距离值接收单元102从激光测距仪11接收参考距离值。
在步骤S303中,目标深度获取单元103根据场景的深度图获取场景的点云坐标。然后,从场景的点云坐标中筛选出待测物体13对应的坐标点集合。也即,目标深度获取单元103获取与待测物体13的上表面对应的各个点的坐标。接下来,目标深度获取单元103根据待测物体13的上表面对应的各个点的坐标,根据最小二乘法拟合与待测物体13的上表面对应的平面的函数,称为目标平面的函数。然后,目标深度获取单元103获取目标平面与预设第一水平面12之间的距离h4。预设第一水平面12的设置完成后,其对应的函数即为已知。因此,目标平面与预设第一水平面12之间的距离是能够得到的。目标深度获取单元103以距离h4为目标深度。因待测物体13为长方体,待测物体13为水平放置,所以,目标平面可以表征待测物体13的上表面所在的平面,进而,距离h4可以表征通过深度相机模组2得到的待测物体13的上表面与预设第一水平面12之间的距离。
接下来,在步骤S304中,补偿单元104获取补偿因子c1。补偿因子c1=h1/h4。然后,补偿单元104根据补偿因子c1对待测物体13对应的深度值进行补偿,以得到第一补偿深度值也即,深度图中的每一个与待测物体13对应的深度值均乘以补偿因子c1,以得到与待测物体13对应的第一补偿深度值。
接下来,在步骤S305中,体积输出单元105根据与待测物体13对应的第一补偿深度值得到与待测物体13对应的补偿的点云坐标,再根据与待测物体13对应的坐标点集合得到待测物体13的体积。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (10)

1.一种体积测量方法,其特征在于,包括以下步骤:
接收含有待测物体的场景的深度图,所述场景的深度图以预设第一水平面为基准;
从单点测距装置接收参考距离值,所述参考距离值为目标检测点与所述预设第一水平面之间的距离,所述目标检测点位于所述待测物体的上表面;
根据所述场景的深度图获取与所述目标检测点对应的目标深度;
获取补偿因子,根据所述补偿因子对所述场景的深度图的深度值进行补偿,以得到补偿深度值;所述补偿因子为所述参考距离值与所述目标深度的比值;
根据所述补偿深度值得到补偿的点云坐标,并根据所述补偿的点云坐标得到所述待测物体的体积。
2.如权利要求1所述的体积测量方法,其特征在于,所述单点测距装置包括激光测距仪,所述激光测距仪设置于所述预设第一水平面上,所述激光测距仪的检测光束竖直投射于所述待测物体的上表面。
3.如权利要求2所述的体积测量方法,其特征在于,所述根据场景的深度图获取与所述目标检测点对应的目标深度的步骤包括:
根据所述激光测距仪的位置信息从所述场景的深度图中提取所述目标检测点对应的深度值作为所述目标深度。
4.如权利要求1或2所述的体积测量方法,其特征在于,所述根据场景的深度图获取与所述目标检测点对应的目标深度的步骤包括:
从所述场景的深度图中获取与所述待测物体的上表面对应的深度数据;
获取平均深度值,并以所述平均深度值作为所述目标深度,所述平均深度值为所述深度数据的平均值。
5.如权利要求1或2所述的体积测量方法,其特征在于,所述待测物体为长方体,所述待测物体为水平放置;
则所述根据场景的深度图获取与所述目标检测点对应的目标深度的步骤包括:
根据所述场景的深度图得到所述待测物体的上表面的点云坐标,根据所述点云坐标采用最小二乘法拟合一目标平面;
获取所述目标平面与所述预设第一水平面之间的距离作为所述目标深度。
6.一种体积测量装置,其特征在于,包括深度图接收单元、参考距离值接收单元、目标深度获取单元、补偿单元、体积输出单元;
所述深度图接收单元用于接收含有待测物体的场景的深度图,所述场景的深度图以预设第一水平面为基准;
所述参考距离值接收单元用于从单点测距装置接收参考距离值,所述参考距离值为目标检测点与所述预设第一水平面之间的距离,所述目标检测点位于所述待测物体的上表面;
所述目标深度获取单元用于根据场景的深度图获取与所述目标检测点对应的目标深度;
所述补偿单元用于获取补偿因子,并用于根据所述补偿因子对所述场景的深度图的深度值进行补偿,以得到补偿深度值;所述补偿因子为所述参考距离值与所述目标深度的比值;
所述体积输出单元用于根据所述补偿深度值得到补偿的点云坐标,并根据所述补偿的点云坐标得到所述待测物体的体积。
7.如权利要求6所述的体积测量装置,其特征在于,所述单点测距装置包括激光测距仪,所述激光测距仪设置于所述预设第一水平面上,所述激光测距仪的检测光束竖直投射于所述待测物体的上表面;
则所述目标深度获取单元用于根据所述激光测距仪的位置信息从所述场景的深度图中提取所述目标检测点对应的深度值作为所述目标深度。
8.如权利要求6或7所述的体积测量装置,其特征在于,所述目标深度获取单元还用于从所述场景的深度图中获取与所述待测物体的上表面对应的深度数据;
所述目标深度获取单元还用于获取平均深度值,并以所述平均深度值作为所述目标深度,所述平均深度值为所述深度数据的平均值。
9.如权利要求6或7所述的体积测量装置,其特征在于,所述待测物体为长方体,所述待测物体为水平放置;
所述目标深度获取单元还用于根据所述场景的深度图得到所述待测物体的上表面的点云坐标,并根据所述点云坐标采用最小二乘法拟合一目标平面;
所述目标深度获取单元还用于获取所述目标平面与所述预设第一水平面之间的距离作为所述目标深度。
10.一种体积测量***,其特征在于,所述体积测量***包括深度相机模组、单点测距装置和如权利要求6-9中的任意一项所述的体积测量装置;
所述深度相机模组用于获取所述场景的深度图;
所述单点测距装置用于获取所述参考距离值;
所述体积测量***还包括图像获取单元和标注单元;
所述图像获取单元用于获取含有所述待测物体的场景的图像;
所述标注单元用于在所述图像中获取所述待测物体的轮廓并进行标注。
CN201910741396.8A 2019-08-12 2019-08-12 体积测量方法、装置和*** Pending CN110319899A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910741396.8A CN110319899A (zh) 2019-08-12 2019-08-12 体积测量方法、装置和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910741396.8A CN110319899A (zh) 2019-08-12 2019-08-12 体积测量方法、装置和***

Publications (1)

Publication Number Publication Date
CN110319899A true CN110319899A (zh) 2019-10-11

Family

ID=68126004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910741396.8A Pending CN110319899A (zh) 2019-08-12 2019-08-12 体积测量方法、装置和***

Country Status (1)

Country Link
CN (1) CN110319899A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101533529A (zh) * 2009-01-23 2009-09-16 北京建筑工程学院 基于深度图像的三维空间数据处理方法与装置
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
CN103927782A (zh) * 2014-01-06 2014-07-16 河南科技大学 一种用于深度图像曲面拟合的方法
US20150365652A1 (en) * 2014-06-13 2015-12-17 Lips Corporation Depth camera system
CN106767933A (zh) * 2017-02-10 2017-05-31 深圳奥比中光科技有限公司 深度相机误差的测量***、测量方法、评价方法及补偿方法
CN107255821A (zh) * 2017-06-07 2017-10-17 旗瀚科技有限公司 一种基于多台深度相机拼接模拟激光雷达数据的方法
CN107727220A (zh) * 2017-10-11 2018-02-23 上海展扬通信技术有限公司 一种基于智能终端的人体测量方法及人体测量***
US20180093781A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Unmanned aerial vehicle movement via environmental interactions
CN108010071A (zh) * 2017-12-01 2018-05-08 中国人民解放军后勤工程学院 一种利用3d深度测量的亮度分布测量***及方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101533529A (zh) * 2009-01-23 2009-09-16 北京建筑工程学院 基于深度图像的三维空间数据处理方法与装置
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
CN103927782A (zh) * 2014-01-06 2014-07-16 河南科技大学 一种用于深度图像曲面拟合的方法
US20150365652A1 (en) * 2014-06-13 2015-12-17 Lips Corporation Depth camera system
US20180093781A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Unmanned aerial vehicle movement via environmental interactions
CN106767933A (zh) * 2017-02-10 2017-05-31 深圳奥比中光科技有限公司 深度相机误差的测量***、测量方法、评价方法及补偿方法
CN107255821A (zh) * 2017-06-07 2017-10-17 旗瀚科技有限公司 一种基于多台深度相机拼接模拟激光雷达数据的方法
CN107727220A (zh) * 2017-10-11 2018-02-23 上海展扬通信技术有限公司 一种基于智能终端的人体测量方法及人体测量***
CN108010071A (zh) * 2017-12-01 2018-05-08 中国人民解放军后勤工程学院 一种利用3d深度测量的亮度分布测量***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
商佳尚: "差值法与比值法的误差修正效果比较研究及应用", 《计测技术》 *

Similar Documents

Publication Publication Date Title
CN102798350B (zh) 一种臂架挠度的测量方法、装置及***
KR102559661B1 (ko) 부피 측량 방법, 시스템, 설비 및 컴퓨터 판독이 가능한 저장매체
CN106969706A (zh) 基于双目立体视觉的工件检测与三维测量***及检测方法
CN106392304B (zh) 一种激光辅助焊缝智能寻迹***及方法
US20180108143A1 (en) Height measuring system and method
CN108733053A (zh) 一种基于机器人的智能道路检测方法
US10290117B2 (en) System for extracting position information of object in point cloud data by using component
CN107044821A (zh) 一种非接触式管类物体的测量方法及***
CN107101582A (zh) 基于结构光视觉的轴类零件径向跳动误差在线测量方法
CN110672020A (zh) 一种基于单目视觉的立木高度测量方法
CN105115560B (zh) 一种船舱舱容的非接触测量方法
CN104142157A (zh) 一种标定方法、装置及设备
CN107504917B (zh) 一种三维尺寸测量方法及装置
CN103196370A (zh) 一种导管接头空间位姿参数的测量方法和装置
CN107271445B (zh) 一种缺陷检测方法及装置
KR20130033374A (ko) 측량 방법
EP1459035B1 (en) Method for determining corresponding points in stereoscopic three-dimensional measurements
CN107356202A (zh) 一种激光扫描测量***目标自动照准方法
CN105405126A (zh) 一种基于单目视觉***的多尺度空-地参数自动标定方法
CN107345789A (zh) 一种pcb板孔位检测装置及方法
CN103175512B (zh) 一种混凝土泵车臂架末端位置姿态的摄像测量方法
CN108871185A (zh) 零件检测的方法、装置、设备以及计算机可读存储介质
CN105894511A (zh) 标定靶设置方法、装置及停车辅助***
CN109035343A (zh) 一种基于监控相机的楼层相对位移测量方法
CN110517314A (zh) 基于tof相机的栈板位姿确定方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191011