CN115345919B - 一种深度确定方法、装置、电子设备以及存储介质 - Google Patents

一种深度确定方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN115345919B
CN115345919B CN202211023306.XA CN202211023306A CN115345919B CN 115345919 B CN115345919 B CN 115345919B CN 202211023306 A CN202211023306 A CN 202211023306A CN 115345919 B CN115345919 B CN 115345919B
Authority
CN
China
Prior art keywords
target detection
detection frame
depth
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211023306.XA
Other languages
English (en)
Other versions
CN115345919A (zh
Inventor
段由
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Elite Road Technology Co ltd
Original Assignee
Beijing Elite Road Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Elite Road Technology Co ltd filed Critical Beijing Elite Road Technology Co ltd
Priority to CN202211023306.XA priority Critical patent/CN115345919B/zh
Publication of CN115345919A publication Critical patent/CN115345919A/zh
Application granted granted Critical
Publication of CN115345919B publication Critical patent/CN115345919B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种深度确定方法、装置、电子设备以及存储介质,涉及人工智能领域,尤其涉及智能交通领域、自动驾驶领域、智慧停车领域等。具体实现方案为:对原始图像进行目标检测,确定目标物体的目标检测框;在该目标检测框中确定第一区域;其中,该第一区域的中心点与该目标检测框的中心点重合,并且该第一区域的面积与该目标检测框的面积的比值大于或等于预设阈值;获取该第一区域中各个像素的深度;利用该第一区域中各个像素的深度,确定该目标物体的深度。本公开能够确定目标物体的深度。

Description

一种深度确定方法、装置、电子设备以及存储介质
技术领域
本公开涉及人工智能领域,尤其涉及智能交通领域、自动驾驶领域、智慧停车领域等。
背景技术
深度估计是指确定从图像采集设备到场景中各点的距离(即深度),它能够直接反映场景中物体表面的几何形状。随着三维(Three Dimensional,3D)技术的发展,深度估计有广泛的应用需求。
发明内容
本公开提供了一种深度确定方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种深度确定方法,包括:
对原始图像进行目标检测,确定目标物体的目标检测框;
在该目标检测框中确定第一区域;其中,该第一区域的中心点与该目标检测框的中心点重合,并且该第一区域的面积与该目标检测框的面积的比值大于或等于预设阈值;
获取该第一区域中各个像素的深度;
利用该第一区域中各个像素的深度,确定该目标物体的深度。
根据本公开的另一方面,提供了一种深度确定装置,包括:
目标检测模块,用于对原始图像进行目标检测,确定目标物体的目标检测框;
区域确定模块,用于在该目标检测框中确定第一区域;其中,该第一区域的中心点与该目标检测框的中心点重合,并且该第一区域的面积与该目标检测框的面积的比值大于或等于预设阈值;
获取模块,用于获取该第一区域中各个像素的深度;
深度确定模块,用于利用该第一区域中各个像素的深度,确定该目标物体的深度。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开中任一实施例的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使该计算机执行根据本公开中任一实施例的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据本公开中任一实施例的方法。
本公开利用目标检测框中的第一区域中各个像素的深度,确定目标物体的深度,能够确定出目标物体的整体深度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是可以应用本公开实施例的深度确定方法的一种***100架构示意图;
图2是根据本公开实施例的一种深度确定方法200的实现流程图;
图3A是根据本公开实施例的原始图像和目标检测框的示意图;
图3B是根据本公开实施例的采用掩码图方式确定的目标物体的轮廓示意图;
图4A是根据本公开一实施例中第一区域的示意图一;
图4B是根据本公开一实施例中第一区域的示意图二;
图4C是根据本公开一实施例中第一区域的示意图三;
图4D是根据本公开一实施例中第一区域的示意图四;
图5是根据本公开一实施例的一种第一区域各个像素深度确定方法500的流程示意图;
图6是根据本公开一实施例的确定目标物体深度的效果示意图;
图7是根据本公开一实施例提出的一种深度预测模型的结构示意图;
图8是根据本公开一实施例的深度确定装置800的结构示意图;
图9是根据本公开一实施例的深度确定装置900的结构示意图;
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
相关技术中,深度估计有广泛的应用需求。深度估计是指确定从图像采集设备到场景中个点的距离(即深度),它能够直接反映场景中物体表面的几何形状。例如,在自动驾驶、智能交通、智慧停车等场景中,需要确定目标物体(如车辆、行人等)表面的几何形状及各部位的实际位置。
目前已有的深度估计方法主要有:
1、采用激光雷达确定深度。具体地,由激光器发射一个激光脉冲,并由计时器记录下出发射的时间,返回的激光脉冲由接收器接收,并由计时器记录下返回的时间。两个时间相减即得到了光的“飞行时间”,而光速是一定的,因此在已知速度和时间后就可以计算出距离。
2、采用双目相机确定深度。此方案需要对相机进行标定,得到相机的内外参。通过对两幅图像视差的计算,直接对前方景物(图像所拍摄到的范围)进行距离测量,而无需判断前方出现的是什么类型的障碍物。双目摄像头的原理与人眼相似。人眼能够感知物体的远近,是由于两只眼睛对同一个物体呈现的图像存在差异,也称“视差”。物体距离越远,视差越小;反之,视差越大。
3、采用单目相机和深度算法确定深度。具体地,由单目相机拍摄场景图像,采用深度算法对该场景图像进行深度估计,得到该场景图像中各个像素的深度,该深度可以认为是该像素对应的真实位置与图像采集装置镜头的实际距离。深度算法可以通过预先训练的深度检测模型实现。
上述方式各有缺点:第一种方式中,激光雷达的成本高、功耗高、且故障率高。第二种方式中,需要对双目相机做大量的参数标定工作,因此需要大量的运维人员。第三种方式中,为了确定场景中各个位置的深度,需要运行深度检测模型的处理装置具有强大的算力、并且功耗也更高。
然而,在一些特定场景中,并不需要对目标物体各个部位的深度作精确的识别,而只需要对目标物体的整体深度进行估计。例如,在停车场景中,由于车辆一般处于静止状态、并且通常位于固定车位,相较于自动驾驶场景或行车场景,这种场景并不需要精确识别目标物体各个部位的深度,而只需要识别目标物体的整体深度。
针对这类对深度识别精度要求较低的场景,本公开实施例提出一种深度确定方法。图1是可以应用本公开实施例的深度确定方法的一种***100架构示意图。如图1所示,该***架构中包括:图像采集装置110、网络120和深度确定装置130。图像采集装置110和深度确定装置130可以通过网络120建立通信连接图像。图像采集装置110通过网络120向深度确定装置130发送原始图像,深度确定装置130响应于接收到的原始图像,确定原始图像中目标物体的深度。最后,深度确定装置130将确定出的目标物体的深度返回至图像采集装置,或者发送至其他服务器或终端设备。深度确定装置130可以包括具有深度估计能力的视觉处理设备或远程服务器。网络120可以采用有线或无线连接方式。其中,当深度确定装置130为视觉处理设备时,图像采集装置110可以通过有线连接的方式与视觉处理设备通信连接,例如通过总线进行数据通信;当深度确定装置130为远程服务器时,图像采集装置110可以通过无线网络与远程服务器进行数据交互。另外,图像采集装置110可以是车载摄像装置、智能交通摄像装置等。
需要说明的是,上述停车场景是广义的名称,包括停车场、道路边的临时停车区域、展厅内停放车辆的场景、交通灯附近趋于静止的车辆等。并且,本公开实施例的应用场景也不仅限于停车场景,只要采用本公开提出方法确定出的深度的精度符合场景要求,则可以适用于该场景。例如,本公开实施例还可以应用于仓储、码头等场景,用于确定货物的位置,等等。
图2是根据本公开实施例的一种深度确定方法200的实现流程图。在本公开的一些实施例中,深度确定方法可以由终端设备、服务器或其它处理设备执行。本公开的一些实施例中,深度确定方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图2所示,深度确定方法包括以下步骤:
S210:对原始图像进行目标检测,确定目标物体的目标检测框;
S220:在该目标检测框中确定第一区域;其中,该第一区域的中心点与目标检测框的中心点重合,并且该第一区域的面积与目标检测框的面积的比值大于或等于预设阈值;
S230:获取第一区域中各个像素的深度;
S240:利用第一区域中各个像素的深度,确定该目标物体的深度。
其中,原始图像可以是停车场景中的图像,例如可以是车载摄像装置、智能交通摄像装置等获取的影像数据。原始图像可以是静态的图片、动态的视频图像、或者从视频图像中提取出的视频帧等多种形式,本公开实施例对于原始图像的形式及获取途径不做限制。
在一些示例中,上述预设阈值可以根据实际情况设定,例如,将预设阈值设置为50%。
在本公开实施例中,目标检测(Object Detection)是指找出原始图像中感兴趣的目标物体,并确定该目标物体的位置和类别。具体地,通过目标检测网络输出用来描述目标物体空间位置的目标检测框,例如,输出目标物体的目标检测框的尺寸、位置、类别等信息。
在一些实施方式中,上述目标物体可以是停车场景中的车辆和行人,也可以是仓储环境中的货物、家居场景中的家具和电器、或者办公场景中的办公桌椅等。本公开实施对目标物体的种类不做限制,只要该目标物体采用本公开提出方法确定出的深度的精度符合场景要求,则可适用该目标物体。
在一些实施方式中,步骤S240中的利用第一区域中各个像素的深度,确定目标物体的深度,可以包括:计算第一区域中所有像素的深度的平均值,将平均值作为该目标物体的深度。
本公开实施例还可以采用其他方式,利用第一区域中各个像素的深度,确定目标物体的深度。例如,将第一区域中各个像素的中位数,作为该目标物体的深度。
本公开实施例提出的深度确定方法,能够根据原始图像的第一区域中目标物体的多个像素深度,确定目标物体的深度;由于采用多个像素的深度来确定目标物体的整体深度,因此对单个像素深度的精度要求不高,能够以较低成本和功耗确认目标物体的深度。例如,在单个像素深度精度不高的情况下,在深度检测结果中,一些像素的深度相较实际深度偏高、一些像素的深度相较实际深度偏低,并且偏高和偏低的概率和/或偏差程度呈现随机分布的形式;那么,如果将多个像素的平均值作为目标物体的深度,根据数学原理,在求平均值时,大量偏高或偏低的像素偏差会被抵消,最终求得的深度平均值(即目标物体深度)的准确性能够得到保证。
如何确定上述第一区域,即采用哪些区域内的像素深度来计算目标物体的深度,是本公开实施例重点考虑和解决的问题。以下分析该问题。
首先,分析目标检测框是否适合作为上述第一区域。目标检测框是原始图像中限定目标物体的矩形框;由于目标物体在原始图像中显示为不规则形状,目标检测框中除了包含目标物体以外、还包含其他物体。以图3A为例,图3A是原始图像和目标检测框的示意图,位于图3A中部的矩形框是原始图像中目标物体(如图3A中的车辆)的目标检测框。如果以目标检测框作为上述第一区域,采用目标检测框中各个像素的深度来确定该车辆整体深度,显然,由于目标检测框中包含有不属于该车辆的像素,这样确定出的车辆深度不够准确。
或者,如果以原始图像中目标物体的轮廓划定的区域作为第一区域,由于该第一区域中包含目标物体的所有像素、并且不包含其他任何物体的像素;因此,采用目标物体的轮廓划定的区域中各个像素的深度值来确定目标物体的深度值,显然是准确的。但是,确定目标物体的轮廓的过程,需要消耗较多的时间和计算成本。如图3B是采用掩码图方式确定的目标物体的轮廓示意图。除了掩码图方式以外,还有其他方式可以确定目标物体的轮廓,例如采用实例分割方式等。无论何种方式,都会增加时间和计算成本的消耗。
鉴于上述分析,本公开实施例提出的用于确定目标物体深度的第一区域具备以下特点:
1、在目标检测框中确定第一区域,即第一区域在目标检测框的内部。这是由于目标物体的所有像素都在目标检测框内。
2、第一区域的中心点与目标检测框的中心点重合。这是由于目标物***于目标检测框的中部,将第一区域的中心点与目标检测框的中心点重合,则可以保证目标物体也位于第一区域的中部,从而使第一区域中的大部分像素都是目标物体的像素。
3、第一区域的面积与目标检测框的面积的比值大于或等于预设阈值。这是为了保证第一区域能够包含目标物体的大部分像素。该预设阈值可以根据实际情况设定,例如设定为50%。
具备上述特点,则可以保证采用第一区域中各个像素的深度,能够比较准确地确定目标物体的深度。并且,由于第一区域是固定形状、并且处于目标检测框中的固定位置,因此能够方便地确定出第一区域中所包含的像素。可见,本公开实施例提出的深度确定方法,既能够保证准确估计目标物体的深度,又能够降低对时间和计算成本的消耗,提高速度。
在确定第一区域的上述特点之后,再来分析哪些区域适合作为第一区域。
图4A-4D是本公开一实施例中第一区域的示意图。需要注意的是,图4A-4D所示的图像是原始图像中的目标检测框内的图像,而不是原始图像。
如图4A所示,目标检测框的形状为矩形;
第一区域的形状可以为菱形或正方形,并且第一区域的4个顶点分别位于目标检测框的4个边的中点。第一区域面积与目标检测框面积的比值为50%。
以图4A为例,在目标检测框为长方形的情况下,第一区域的形状为菱形。在目标检测框为正方形的情况下,第一区域的形状正方形。
由图4A可见,第一区域内部大部分像素属于目标物体(如图4A中的车辆),并且,目标物体中的大部分像素在第一区域内。经实验统计,4A所示的第一区域中,目标物体的像素占所有像素的83%,因此,第一区域内的像素可以很大程度上反映目标物体的深度情况。
如图4B所示,目标检测框的形状为矩形;
第一区域的形状可以为圆形或椭圆形。
以图4B为例,在目标检测框为长方形的情况下,第一区域的形状为椭圆形,并且第一区域的4个顶点分别位于目标检测框的4个边的中点。在目标检测框为正方形的情况下,并且目标检测框的4个边均是第一区域的切线。在图4B的示例中,第一区域的面积与目标检测框面积的比值近似于80%。
由图4B可见,第一区域内大部分像素属于目标物体(如图4B的车辆),并且,目标物体中的大部分像素在第一区域内。经实验统计,图4B所示的第一区域中,目标物体的像素占所有像素的79%,因此,第一区域内的像素可以很大程度上反映目标物体的深度情况。
如图4C所示,目标检测框的形状为矩形;
第一区域的形状可以为多边形,并且第一区域的各个顶点均位于目标检测框的边上。
以图4C为例,在目标检测框为长方形的情况下,第一区域的形状为正六边形。在图4C的示例中,第一区域的面积与目标检测框面积的比值近似于75%。
由图4C可见,第一区域内大部分像素属于目标物体(如图4C的车辆),并且,目标物体中的大部分像素在第一区域内。经实验统计,图4C所示的第一区域中,目标物体的像素占所有像素的76%,因此,第一区域内的像素可以很大程度上反映目标物体的深度情况。
如图4D所示,目标检测框的形状为矩形;
第一区域的形状可以为不规则图形,并且第一区域包含目标检测框的各个边的中点。
以图4D为例,在目标检测框为长方形的情况下,第一区域的形状为十字形。如图4D所示,目标检测框的4个边分别与该十字形12个边中的4个边重合,并且这4个边的宽度均为相对应的目标检测框的边的三分之一长度。在图4D的示例中,第一区域面积与目标检测框面积的比值为5/9。
由图4D可见,第一区域内大部分像素属于目标物体(如图4D的车辆),并且,目标物体中的大部分像素在第一区域内。经实验统计,图4D所示的第一区域中,目标物体的像素占所有像素的77%,因此,第一区域内的像素可以很大程度上反映目标物体的深度情况。
本公开实施例特别适用于高位摄像场景。在这类场景中,图像采集装置的高度比目标物体(如车辆)高。以高位停车场景为例,如图4A-4D,图像中大部分车辆的朝向偏左或偏右一定的角度,并且包含了车顶、车头、车身等各个区域,采用这些位置的像素深度,能够更准确地确定整体车身的深度。
在本公开实施例中,基于目标检测框的中心点确定的第一区域能够涵盖目标物体的全部或大部分。利用第一区域内各个像素的深度确定目标物体的深度,能够以较小的算力和较快的速度,最大程度的反映真实目标物体的深度。本公开实施例提出的利用第一区域内各个像素的深度确定目标物体深度的方法也能摒除大量背景的影响。
图5是根据本公开一实施例的一种第一区域各个像素深度确定方法500的流程示意图,包括:
S510:将该原始图像输入预先训练的深度预测模型,得到原始图像中各个像素的深度;
S520:利用该原始图像中各个像素的深度、该目标检测框在该原始图像中的位置以及该第一区域在该目标检测框中的位置,确定该第一区域中各个像素的深度。
图6是根据本公开一实施例的确定目标物体深度的效果示意图。如图6所示,在原始图像中确定出目标物体的目标检测框,第一区域是该检测框内的菱形区域。根据目标检测框的位置(如中心点的坐标、目标检测框的宽和高等),以及第一区域在目标检测宽中的位置,能够确定出第一区域在整个原始图像中的位置;再根据原始图像中各个像素的深度,能够确定出第一区域中各个像素的深度。之后,可以利用第一区域中各个像素的深度,确定出目标物体的深度。
在本公开实施例中,可以利用深度预测模型输出的深度图获取原始图像中各个像素的深度。图7是根据本公开一实施例提出的一种深度预测模型的结构示意图,如图7所示,包括:
1、输入尺寸H×W×C的原始图像,其中H是原始图像的高度,W是原始图像的宽度,C为原始图像卷积核的通道数;
2、将原始图像进行n次卷积下采样操作,得到的特征图,其中n为任意正整数;
3、将得到的特征图进行n次卷积上采样操作后,进行特征融合操作,得到尺寸为H×W×2n的特征图;
4、将得到的特征图进行1×1卷积操作,得到尺寸为H×W×1的深度图。
图7所示的示例中,以上采样次数和下采样次数均为4次为例进行介绍。其中,在图7所示的深度预测模型的编码层中包括4次下采样,为便于清晰地展示,图中并未示出4次下采样的具体过程。本公开实施例在深度预测模型输出的深度图的精度达到预设条件的情况下,对采样次数并不做限制。对输入深度预测模型的原始图像的尺寸不做限制,例如,输入的原始图像的尺寸(原始图像的长度×原始图像的宽度)可以为768×448,也可以为1920×1080。
本公开实施例还提出一种深度确定装置,图8是根据本公开一实施例的深度确定装置800的结构示意图,包括:
目标检测模块810,用于对原始图像进行目标检测,确定目标物体的目标检测框;
区域确定模块820,用于在该目标检测框中确定第一区域;其中,该第一区域的中心点与该目标检测框的中心点重合,并且该第一区域的面积与该目标检测框的面积的比值大于或等于预设阈值;
获取模块830,用于获取该第一区域中各个像素的深度;
深度确定模块840,用于利用该第一区域中各个像素的深度,确定该目标物体的深度。
在一些实施方式中,该目标检测框的形状为矩形;
该第一区域的形状为菱形或正方形,并且该第一区域的4个顶点分别位于该目标检测框的4个边的中点。
在一些实施方式中,该目标检测框的形状为长方形;
该第一区域的形状为椭圆形,并且该第一区域的4个顶点分别位于该目标检测框的4个边的中点。
在一些实施方式中,该目标检测框的形状为正方形;
该第一区域的形状为圆形,并且该目标检测框的4个边均是该第一区域的切线。
在一些实施方式中,该目标检测框的形状为矩形;
该第一区域的形状为多边形,并且该第一区域的各个顶点均位于该目标检测框的边上。
在一些实施方式中,该目标检测框的形状为矩形;
该第一区域的形状为不规则图形,并且该第一区域包含该目标检测框的各个边的中点。
在一些实施方式中,该深度确定模块用于,计算该第一区域中所有像素的深度的平均值,将该平均值作为该目标物体的深度。
图9是根据本公开一实施例的深度确定装置900的结构示意图。如图9所示,深度确定装置900包括目标检测模块910、区域确定模块920、获取模块930和深度确定模块940。在一些实施方式中,该获取模块930包括:
输入子模块931,用于将该原始图像输入预先训练的深度预测模型,得到原始图像中各个像素的深度;
像素深度确定子模块932,用于利用该原始图像中各个像素的深度、该目标检测框在该原始图像中的位置以及该第一区域在该目标检测框中的位置,确定该第一区域中各个像素的深度。
本公开实施例的装置的各模块、子模块的具体功能和示例的描述,可以参见上述方法实施例中对应步骤的相关描述,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如深度确定方法。例如,在一些实施例中,深度确定方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的深度确定方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行深度确定方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (16)

1.一种深度确定方法,包括:
对原始图像进行目标检测,确定目标物体的目标检测框;所述目标检测框用于描述所述目标物体的空间位置;
在所述目标检测框中确定一个第一区域;其中,所述第一区域的中心点与所述目标检测框的中心点重合,并且所述第一区域的面积与所述目标检测框的面积的比值大于或等于预设阈值;所述预设阈值为50%;
获取所述第一区域中各个像素的深度;
计算所述第一区域中所有像素的深度的平均值,将所述平均值作为所述目标物体的深度。
2.根据权利要求1所述的方法,其中,所述目标检测框的形状为矩形;
所述第一区域的形状为菱形或正方形,并且所述第一区域的4个顶点分别位于所述目标检测框的4个边的中点。
3.根据权利要求1所述的方法,其中,所述目标检测框的形状为长方形;
所述第一区域的形状为椭圆形,并且所述第一区域的4个顶点分别位于所述目标检测框的4个边的中点。
4.根据权利要求1所述的方法,其中,所述目标检测框的形状为正方形;
所述第一区域的形状为圆形,并且所述目标检测框的4个边均是所述第一区域的切线。
5.根据权利要求1所述的方法,其中,所述目标检测框的形状为矩形;
所述第一区域的形状为多边形,并且所述第一区域的各个顶点均位于所述目标检测框的边上。
6.根据权利要求1所述的方法,其中,所述目标检测框的形状为矩形;
所述第一区域的形状为不规则图形,并且所述第一区域包含所述目标检测框的各个边的中点。
7.根据权利要求1-6中任一所述的方法,其中,所述获取所述第一区域中各个像素的深度,包括:
将所述原始图像输入预先训练的深度预测模型,得到原始图像中各个像素的深度;
利用所述原始图像中各个像素的深度、所述目标检测框在所述原始图像中的位置以及所述第一区域在所述目标检测框中的位置,确定所述第一区域中各个像素的深度。
8.一种深度确定装置,包括:
目标检测模块,用于对原始图像进行目标检测,确定目标物体的目标检测框;所述目标检测框用于描述所述目标物体的空间位置;
区域确定模块,用于在所述目标检测框中确定一个第一区域;其中,所述第一区域的中心点与所述目标检测框的中心点重合,并且所述第一区域的面积与所述目标检测框的面积的比值大于或等于预设阈值;所述预设阈值为50%;
获取模块,用于获取所述第一区域中各个像素的深度;
深度确定模块,用于计算所述第一区域中所有像素的深度的平均值,将所述平均值作为所述目标物体的深度。
9.根据权利要求8所述的装置,其中,所述目标检测框的形状为矩形;
所述第一区域的形状为菱形或正方形,并且所述第一区域的4个顶点分别位于所述目标检测框的4个边的中点。
10.根据权利要求8所述的装置,其中,所述目标检测框的形状为长方形;
所述第一区域的形状为椭圆形,并且所述第一区域的4个顶点分别位于所述目标检测框的4个边的中点。
11.根据权利要求8所述的装置,其中,所述目标检测框的形状为正方形;
所述第一区域的形状为圆形,并且所述目标检测框的4个边均是所述第一区域的切线。
12.根据权利要求8所述的装置,其中,所述目标检测框的形状为矩形;
所述第一区域的形状为多边形,并且所述第一区域的各个顶点均位于所述目标检测框的边上。
13.根据权利要求8所述的装置,其中,所述目标检测框的形状为矩形;
所述第一区域的形状为不规则图形,并且所述第一区域包含所述目标检测框的各个边的中点。
14.根据权利要求8-13中任一所述的装置,其中,所述获取模块包括:
输入子模块,用于将所述原始图像输入预先训练的深度预测模型,得到原始图像中各个像素的深度;
像素深度确定子模块,用于利用所述原始图像中各个像素的深度、所述目标检测框在所述原始图像中的位置以及所述第一区域在所述目标检测框中的位置,确定所述第一区域中各个像素的深度。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
CN202211023306.XA 2022-08-25 2022-08-25 一种深度确定方法、装置、电子设备以及存储介质 Active CN115345919B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211023306.XA CN115345919B (zh) 2022-08-25 2022-08-25 一种深度确定方法、装置、电子设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211023306.XA CN115345919B (zh) 2022-08-25 2022-08-25 一种深度确定方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
CN115345919A CN115345919A (zh) 2022-11-15
CN115345919B true CN115345919B (zh) 2024-04-12

Family

ID=83954532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211023306.XA Active CN115345919B (zh) 2022-08-25 2022-08-25 一种深度确定方法、装置、电子设备以及存储介质

Country Status (1)

Country Link
CN (1) CN115345919B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033972A (zh) * 2018-06-27 2018-12-18 上海数迹智能科技有限公司 一种目标检测方法、装置、设备及存储介质
CN111950543A (zh) * 2019-05-14 2020-11-17 北京京东尚科信息技术有限公司 一种目标检测方法和装置
CN114066958A (zh) * 2021-11-17 2022-02-18 智道网联科技(北京)有限公司 目标的深度信息预测方法和装置、电子设备和存储介质
CN114764814A (zh) * 2021-01-12 2022-07-19 富泰华工业(深圳)有限公司 植物高度确定方法、装置、电子设备及介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826357B (zh) * 2018-08-07 2022-07-26 北京市商汤科技开发有限公司 对象三维检测及智能驾驶控制的方法、装置、介质及设备
CN112132829A (zh) * 2020-10-23 2020-12-25 北京百度网讯科技有限公司 车辆信息的检测方法、装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033972A (zh) * 2018-06-27 2018-12-18 上海数迹智能科技有限公司 一种目标检测方法、装置、设备及存储介质
CN111950543A (zh) * 2019-05-14 2020-11-17 北京京东尚科信息技术有限公司 一种目标检测方法和装置
CN114764814A (zh) * 2021-01-12 2022-07-19 富泰华工业(深圳)有限公司 植物高度确定方法、装置、电子设备及介质
CN114066958A (zh) * 2021-11-17 2022-02-18 智道网联科技(北京)有限公司 目标的深度信息预测方法和装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN115345919A (zh) 2022-11-15

Similar Documents

Publication Publication Date Title
CN113902897B (zh) 目标检测模型的训练、目标检测方法、装置、设备和介质
CN110826357B (zh) 对象三维检测及智能驾驶控制的方法、装置、介质及设备
CN113012210B (zh) 深度图的生成方法、装置、电子设备和存储介质
CN113378760A (zh) 训练目标检测模型和检测目标的方法及装置
CN111209770A (zh) 一种车道线识别方法及装置
WO2020083307A1 (en) Method, apparatus, and storage medium for obtaining depth image
CN112097732A (zh) 一种基于双目相机的三维测距方法、***、设备及可读存储介质
CN112509126B (zh) 三维物体检测的方法、装置、设备及存储介质
KR20210043628A (ko) 장애물 감지 방법, 지능형 주행 제어 방법, 장치, 매체, 및 기기
CN116993817B (zh) 目标车辆的位姿确定方法、装置、计算机设备及存储介质
CN117612132A (zh) 鸟瞰视角bev俯视图的补全方法、装置和电子设备
CN113256709A (zh) 目标检测方法、装置、计算机设备以及存储介质
CN112529011A (zh) 目标检测方法及相关装置
CN115345919B (zh) 一种深度确定方法、装置、电子设备以及存储介质
Hasegawa et al. Real-time interpolation method for sparse lidar point cloud using rgb camera
CN114648639B (zh) 一种目标车辆的检测方法、***及装置
CN113920273B (zh) 图像处理方法、装置、电子设备和存储介质
CN116129422A (zh) 单目3d目标检测方法、装置、电子设备和存储介质
CN114757824A (zh) 图像拼接的方法、装置、设备以及存储介质
CN115346194A (zh) 一种三维检测方法、装置、电子设备及存储介质
CN117392000B (zh) 一种噪点去除方法、装置、电子设备及存储介质
Jaspers et al. Fast and robust b-spline terrain estimation for off-road navigation with stereo vision
GB2583774A (en) Stereo image processing
CN114612544B (zh) 图像处理方法、装置、设备和存储介质
CN117647852B (zh) 天气状态检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant