CN116681758A - 车辆的姿态估计方法、装置、电子设备及存储介质 - Google Patents

车辆的姿态估计方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116681758A
CN116681758A CN202210166170.1A CN202210166170A CN116681758A CN 116681758 A CN116681758 A CN 116681758A CN 202210166170 A CN202210166170 A CN 202210166170A CN 116681758 A CN116681758 A CN 116681758A
Authority
CN
China
Prior art keywords
target
vehicle
points
point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210166170.1A
Other languages
English (en)
Inventor
丁皓东
张良俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210166170.1A priority Critical patent/CN116681758A/zh
Priority to US17/884,136 priority patent/US20230266773A1/en
Priority to EP22190114.3A priority patent/EP4235575A1/en
Priority to KR1020220103310A priority patent/KR20230126628A/ko
Priority to JP2022137742A priority patent/JP7451628B2/ja
Publication of CN116681758A publication Critical patent/CN116681758A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20168Radial search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开提供了一种车辆的姿态估计方法、装置、电子设备及存储介质,涉及数据处理技术领域,尤其涉及自动驾驶、智能交通、物联网、大数据等领域。具体实现方案为:基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果;基于所述估计结果,对所述车辆的姿态进行估计。根据本公开,可实现对车辆姿态的精准或准确估计。

Description

车辆的姿态估计方法、装置、电子设备及存储介质
技术领域
本公开涉及数据处理技术领域,尤其涉及自动驾驶、智能交通、物联网、大数据等技术领域。
背景技术
在无人电铲场景中,无人电铲设备可基于矿卡车辆的姿态信息自动行驶到矿卡车辆的附近,以将挖掘出的对象如煤矿自动装载到矿卡车辆上,以实现自主装载。可见,如何实现对车辆姿态的精准或准确估计成为了无人作业场景中亟待解决的技术问题。
发明内容
本公开提供了一种车辆的姿态估计方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种车辆的姿态估计方法,包括:
基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;
基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果;
基于所述估计结果,对所述车辆的姿态进行估计。
根据本公开的另一方面,提供了一种车辆的姿态估计装置,包括:
第一获得单元,用于基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;
第二获得单元,用于基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果;
估计单元,用于基于所述估计结果,对所述车辆的姿态进行估计。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开以上的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开以上的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开以上的方法。
根据本公开,可实现对车辆姿态的精准或准确估计。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开车辆的姿态估计方法实现流程示意图一;
图2是本公开车辆的姿态估计方法实现流程示意图二;
图3是本公开车辆的姿态估计方法实现流程示意图三;
图4是本公开的一应用场景示意图;
图5是本公开车辆的姿态估计方法实现流程示意图四;
图6是本公开对车辆的姿态估计结果的可视化示意图;
图7是本公开车辆的姿态估计装置的组成结构示意图。
图8是用来实现本公开实施例的车辆的姿态估计方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本文中术语“第一”、“第二”表示指代多个类似的技术用语并对其进行区分,并不是限定顺序的意思,或者限定只有两个的意思,例如,第一目标数据和第二目标数据,代表两种或两个不同的目标数据。
在对本公开实施例的技术方案进行介绍之前,先对本公开可能使用到的技术术语做进一步说明:
1)点云数据:通过扫描仪如激光雷达获取的带空间坐标的采样点的一个集合,由于采样点的数量多且密度大,通常被视为点云数据。点云数据中的每个点即每个采样点均为三维坐标(x,y,z),通常用来表示该采样点对应的物体的外表面形状。
2)包围盒估计:为一种包围盒估计算法,是一种求解对期望包围对象或表征为期望包围对象的离散点的最优包围空间的方法。该算法的基本思想是用体积稍大且特性简单的几何体(称为包围盒)来近似地代替复杂的期望包围对象。
在本公开的技术方案中,期望包围对象为车辆,对用于包围车辆的目标体进行估计就是采用包围盒估计算法,对用于包围车辆的包围盒进行估计。
3)区域增长方式:为一种区域增长算法,也被称为区域生长算法。区域增长算法的基本思想是将有相似性质的点如图像中的点合并到一起。对每一个区域要先指定一个点作为区域增长或生长的种子起点,然后将种子起点周围领域的其他点和种子起点进行对比,将具有相似性质的其他点合并起来继续向外增长或生长,直到将所有具有相似性质的点被包括进来,区域增长或生长完成。
本公开实施例的技术方案可应用于能够进行自动驾驶的车辆中,如私家车、公共汽车、专用车辆等。其中,专用车辆包括卡车、货车、物流车等用于执行特定运输功能的车辆。本公开实施例的技术方案还可应用于能够与车辆进行交互的设备中,该设备可以是需要获知的车辆姿态的任何合理设备,如与车辆进行交互的其他车辆、对车辆姿态进行控制和/或管理的平台等。
图1为本公开实施例的车辆的姿态估计方法的第一实施例的流程示意图。如图1所示,该方法包括以下步骤:
S(步骤)101:基于车辆的点云数据,得到第一目标数据,该第一目标数据能够构成车辆的目标面;
车辆的点云数据是通过扫描仪如激光雷达扫描得到的。由激光雷达扫描到的车辆的点云数据可视为车辆的点云图像。基于车辆的点云图像,得到能够构成车辆的目标面的(第一)目标数据。第一目标数据为多个构成车辆的目标面的点。考虑到车辆的几何特性,车辆大致包括有以下几个面:车头所在面、车尾所在面、车身侧面(通常为两个)、车顶所在面等。车辆的目标面可以为前述几个面中的至少其中一个面。
可以理解,激光雷达通常被设置在能够扫描到车辆的位置。由于激光雷达的扫描位置的固定,通常情况下,激光雷达仅能扫描到前述面中的其中几个面,如其中一个或二个面。本公开中的车辆的目标面具体为前述几个面中的哪个面视激光雷达的扫描情况而定。
在激光雷达与车辆二者之间的相对位置和朝向不发生变化的情况下,车辆的目标面通常为激光雷达在其所处的位置处能够扫描到的车辆的面。如此,本公开方案可视为一种基于激光雷达扫描到的车辆的面实现对车辆姿态的估计方案。即,利用扫描到的车辆的几何信息实现对车辆姿态的估计,可提高姿态估计的准确性。
S102:基于第一目标数据,对用于包围车辆的目标体进行姿态估计,得到估计结果;
如前所述,本步骤中的目标体即为前述的用于包围车辆的包围盒。基于能够构成车辆的目标面的(第一)目标数据,采用包围盒估计算法,对用于包围车辆的包围盒进行姿态估计,得到对包围盒的姿态估计结果。
利用构成车辆的目标面的(第一)目标数据对包围盒进行估计,为基于车辆的几何信息对包围盒进行估计,可为对车辆姿态的估计的精准性提供了保障。
S103:基于该估计结果,对车辆的姿态进行估计。
本步骤中,基于对包围盒的估计结果对车辆的姿态进行估计。
前述S101~S103中,利用构成车辆的目标面的(第一)目标数据,对用于包围车辆的包围盒进行姿态估计,并基于该估计结果,对车辆的姿态进行估计。因为构成车辆的目标面的目标数据可体现车辆本身的几何信息如形状、大小等,利用车辆的几何信息进行车辆的姿态估计,可实现对车辆姿态的精准或准确估计。
此外,基于车辆自身的点云数据得到构成车辆的目标面的(第一)目标数据,可保证第一目标数据的准确性,进而为后续对车辆姿态的精准估计提供了一定的基础。
在实际应用中,车辆具有不同的转角,如车身侧面与车尾所在面之间的转角、车头所在面与车身侧面之间的转角。各个转角有相应的角度,如直角、钝角、锐角等。转角的边即可视为用于区分车辆的不同面的线。理论上,如果能够获知某个转角的边,即可区分出车辆中有该转角连接的两个面,即区分出车辆的点云数据中构成该两个面的点。
基于此,前述的基于车辆的点云数据得到第一目标数据的方案可基于图2所示的内容来实现。
S201:从车辆的点云数据中,确定出第二目标数据,该第二目标数据表征为能够构成车辆的转角的点;
本步骤为从车辆的点云数据中确定出构成车辆的转角的点。
S202:基于第二目标数据,得到目标线,该目标线能够构成转角的边;
本步骤为基于构成车辆的转角的点,得到能够构成转角的边的目标线。
S203:基于目标线,得到第一目标数据。
本步骤为基于目标线得到构成车辆目标面的(第一)目标数据。
S201~S203所示的方案中,从车辆的点云数据中,确定出能够构成车辆转角的点,基于构成车辆转角的点得到能够构成转角的边的目标线,基于目标线得到构成目标面的(第一)目标数据。前述方案相当于基于构成转角的边的目标线,对目标面进行获取的方案。可保证目标面的获取准确性,进而为后续车辆姿态的估计提供保障。
可以理解,本公开中的包围盒为有向包围盒,对包围盒的估计是对包围盒的中心位置和朝向均进行估计。本公开中车辆的姿态即为车辆的位姿,其包括车辆所处的位置和车辆的朝向等信息。
基于此,在本公开实施例中,如图3所示,车辆的姿态估计方法为:
S301:基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;
S302:采用预设的姿态估计方式,基于第一目标数据对目标体进行姿态估计,得到目标体的中心位置和方向;
预设的姿态估计方式包括但不限于平行于坐标轴的包围盒估计算法、最小包围盒估计算法中的其中至少一种。采用前述的包围盒估计算法,基于构成车辆目标面的第一目标数据对用于包围车辆的包围盒进行估计,可保证对包围盒的中心位置和方向的估计准确性,进而为后续车辆的准确估计提供了保障。
S303:将目标体的中心位置和方向作为对目标体进行姿态估计的估计结果;
S304:基于目标体的中心位置,得到车辆所处的位置;
S305:基于目标体的方向,得到车辆的朝向;
在S304和S305中,包围盒的估计结果和车辆的姿态存在一定的联系。示例性地,包围盒的中心位置为车辆所处的位置,包围盒的方向与车辆的朝向相反或相同。或者,对包围盒的中心位置进行预设换算方法的换算得到车辆所处的位置,对包围盒的方向进行换算得到车辆的朝向。以上仅为一种具体举例,任何合理的情形均在本公开的覆盖范围内。
S306:将车辆所处的位置和朝向作为车辆的姿态。
其中,S302~S303可作为前述基于第一目标数据对用于包围车辆的目标体进行姿态估计得到估计结果的进一步说明。S304~S306可作为前述基于估计结果对车辆的姿态进行估计的进一步说明。S304和S305无严格的先后顺序,还可以同时进行。
前述的S301~S306中,基于对用于包围车辆的包围盒的中心位置和方向的估计结果对车辆所处位置和朝向进行估计,实现了对车辆姿态的精准估计。
本公开实施例中,从车辆的点云数据中确定出第二目标数据的方案包括有以下两种,使用任意一种方案均可实现对第二目标数据的确定。
实施方案a:从车辆的点云数据中,筛选出其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值;将筛选出的点作为第二目标数据。
换言之,实施方案a即为第二目标数据为车辆的点云数据中、其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值。
其中,满足正交要求可视为满足近似正交要求。满足近似正交要求为两个点的法线之间的夹角近似为直角,如两个点的法线之间的夹角的余弦小于第三预定阈值。且构成车辆的转角的点需要与足够多(大于或等于第一预定阈值)的其他点均满足正交要求。
如此,可实现对构成车辆转角的点的准确筛选,可避免对构成车辆的转角的点的筛选遗漏。
实施方案b:从车辆的点云数据中,筛选出其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值;将筛选出的点进行聚类,形成至少两个点簇;从所述至少两个点簇中,确定出目标点簇;将目标点簇中的点作为第二目标数据。
实施方案b为实施方案a的进一步优化方案。在筛选出满足正交要求的多个点后,进行点的聚类,筛选出目标点簇并将目标点簇中的点作为能够构成车辆转角的点。
其中,可根据预设的聚类算法实现对筛选出的点的聚类。其中,聚类算法包括但不仅限定于基于距离的聚类算法、基于密度的聚类算法、基于聚类中心的聚类算法中的至少其中一种。从至少两个点簇中,筛选出具有最多点的点簇作为目标点簇。如此,可保证构成车辆转角的点的获取准确性。
前述的利用聚类以及目标点簇的选取实现对构成转角的点的获取,保证了构成车辆转角的点的获取准确性,进而为后续目标线以及目标面的准确获取提供了保障。
根据本公开的一实施例,基于第二目标数据得到目标线的方案可通过如下方式实现:对第二目标数据进行分析,确定目标长度和目标中心点;基于目标长度和目标中心点,得到目标线。
可以理解,车辆的转角的边为线段。如果能够获知线段的中心点和长度,那么就可获知目标线。利用前述实施方案a或b得到的构成转角的点的分析,可获知构成转角的边的目标线的长度(目标长度)和中心点(目标中心点),由此实现了对构成转角的边的目标线的获取。该方案在工程上简单、易行,避免了复杂运算,为一种轻量级的运算方法,节省了运算成本。
根据本公开的一实施例,前述的基于目标线得到第一目标数据的方案可通过如下方式实现:获取目标支撑点集;基于目标线的目标长度和目标中心点,从目标支撑点集中获得目标支撑点;采用预设的区域增长方式,以目标支撑点作为起点进行区域增长处理,得到能够构成车辆的目标面的第一目标数据。
其中,目标支撑点集为所述车辆的点云数据中、与构成车辆的转角的多个点均满足正交要求的点的集合,其中该多个点的数量大于或等于第二预定阈值。即,目标支撑点集中的点为车辆的点云数据中,与足够多(大于或等于第二预定阈值)的能够构成车辆的转角的点均满足正交要求的点。目标支撑点集中的点的准确性,可保证目标支撑点的获得准确性以及区域增长的准确性。
此处的满足正交要求可参见相关说明,重复之处不赘述。
从目标支撑点集中获得目标支撑点,可保证目标支撑点的获取准确性,进而为后续进行准确的区域增长提供了保障。
将目标支撑点作为种子起点进行区域增长处理,可将与种子起点具有相似特征如与目标支撑点一样可作为构成车辆的目标面的点被寻找出。该方法不仅提供了简单易行的第一目标数据的获取方式,实现了轻量级的运算,还保证了第一目标数据的获取准确性。为后续车辆姿态的准确估计提供了一定保障。
根据本公开的一实施例,采用如下方案得到车辆的点云数据。
获取针对目标环境得到的三维点云数据;获取针对目标环境得到的二维图像;基于三维点云数据和二维图像,得到车辆的点云数据;其中,该目标环境中至少包括车辆。
示例性地,利用激光雷达对目标环境进行三维扫描,得到针对目标环境的三维点云数据。利用图像采集单元如摄像头对目标环境进行(平面)图像的采集,得到针对目标环境的二维图像。
在实际应用中,目标环境中除了包括车辆,还可以包括诸如地面、石头等其他任何合理的物体。如此,针对目标环境得到的二维图像和三维点云数据除了包括车辆,还包括前述的其他物体。基于三维点云数据和二维图像得到车辆的点云数据可视为一种利用二维图像,实现对车辆的点云数据和其他物体的点云数据进行准确区分的方案。由此可保证车辆的点云数据的获取准确性。为后续车辆的姿态估计提供了准确的基础数据。
下面可结合图4至图6所示内容,对本公开实施例的技术方案做进一步说明。
本应用场景中,如图4所示,以无人电铲作业场景、车辆为矿卡车辆为例,无人电铲设备需获知矿卡车辆在作业环境中所处的位置和朝向,并依据获知车辆姿态行驶至矿卡车辆,以便实现自主装载。
结合图4所示,本公开的车辆姿态估计方案主要包括:
S401:矿卡车辆的点云数据的获取;
S402:基于车辆的点云数据,得到矿卡车辆的几何信息;
S403:基于矿卡车辆的几何信息实现对矿卡车辆的姿态的估计。
S401~S403中,基于矿卡车辆的几何信息可实现对矿卡车辆的姿态的准确或精准估计,且可避免相关技术中基于深度学习算法对车辆姿态估计而带来的运算成本高的问题。为一种运算成本低的车辆姿态估计方案。
其中,矿卡车辆的几何信息通过包括但不仅限于矿卡车辆的目标面如车身侧面来体现。
以上的各步骤的实现过程请具体参见对图5中的各步骤的相关说明。
在本应用场景中,目标环境为无人电铲设备和矿卡车辆设备所处的环境。在无人电铲设备的不同位置处安装激光雷达和摄像头(相机)。其中,激光雷达用于在其自身所处的位置处对矿卡车辆所处的环境进行三维点云数据的扫描,得到针对目标环境的三维点云数据。相机用于在其自身所处的位置处对矿卡车辆所处的环境进行平面图像的采集,得到针对目标环境的二维图像。
无人电铲设备基于针对目标环境得到的三维点云数据和二维图像,得到车辆的点云数据。前述内容相当于从包括其他物体如地面的三维点云数据中筛选目标物体如车辆的点云数据的方案。
下面结合图5所示的内容所示,前述方案可具体通过如下方案来实现:从二维图像中提取或分割出车辆图像(S501)。因为该车辆图像是在二维坐标系中如相机坐标系中得到的,将车辆图像投影或映射到针对目标环境而得到的三维点云数据所在的三维坐标系中。因为三维点云数据为激光雷达扫描到的,所以三维点云数据所在的三维坐标系可视为雷达坐标系。在二维的车辆图像投影或映射到雷达坐标系的情况下,在针对目标环境得到的三维点云数据中,与车辆图像对应的点云数据即为车辆的点云数据。即,得到矿卡车辆的点云数据(S502)。
如此,从针对目标环境得到的三维点云数据中,实现了对车辆的点云数据的提取或分割,为一种对车辆的点云数据进行提取或分割的方案。实现了对车辆的点云数据和其他物体的点云数据的准确区分。为后续车辆姿态的估计提供了准确的基础数据。
其中,可利用深度学习算法实现从二维图像中对车辆图像的分割或提取。
前述的S501和S502的方案可作为对S401方案的进一步说明。前述的二维图像通常为RGB(红绿蓝)图像。前述的基于针对目标环境得到的三维点云数据和二维图像得到车辆的点云数据的方案可视为利用RGB图像和三维点云数据的融合得到车辆的点云数据的方案。在工程上易于实现,实用性强。
在实际应用中,可将车辆的转角视为一种直角。从车辆的点云数据中筛选或提取出能够构成车辆的直角的点(S503)。为方便描述,将构成车辆的直角的点视为期望点。
针对矿卡车辆的点云数据中的各个点,计算每个点的法线与距离该点为半径r(第一预定范围)内的其他点的法线之间的夹角,具体可参见法线间的内积公式(1):
cosθ=n1·n2 (1)
其中,n1为点云数据中的某个点的法线;n2为与距离该某个点半径r内的一点的法线;θ为这两个点的法线之间的夹角。其中,半径r的取值为预先设定好的。通过法线之间的夹角的余弦值可提高计算速度,进而节约运算成本。
在cosθ小于或等于第三预定余弦阈值如0.2时,可认为两点的法线是近似正交的,满足正交要求。将两点的法线为近似正交的两点作为一个点对。若由某点以及在某点的半径r内存在的与其法线为近似正交的点组成的点对的数量大于或等于给定的第一预定阈值,则认为该点为疑似期望点。即,该点为可能是构成车辆直角的点,也可能不是构成车辆直角的点。
从车辆的点云数据中筛选或提取出所有疑似期望点。采用基于欧氏距离的聚类方法,对所有疑似期望点进行聚类,形成两个或两个以上的点簇。筛选出点数最多的点簇作为目标点簇,该目标点簇中的点即可作为构成车辆直角的点。实现了对构成车辆的转角的点的准确获取,为后续得到精准的目标线提供了保障。
通常,一个矿卡直角对应一个目标点簇,从车辆的点云数据中能够得到几个矿卡直角对应的目标点簇,视激光雷达在扫描矿卡车辆时与矿卡车辆之间呈现的相对位置关系而定。通常情况下,会扫描到一个或两个矿卡直角。
此外,针对前述的法线与期望点的法线为近似正交的点,如果某点的法线与多个、如大于或等于第二预定阈值个期望点的法线均为近似正交,则视该点为期望点的支撑点。将期望点的支撑点进行集合,得到目标支撑点集,并保存,以便后续使用。
其中,第一预定阈值、第二预定阈值以及第三预定阈值在数值上可以相同、如均为50。当然,三个预定阈值也可以不同。如,第一预定阈值为70个,第二预定阈值为50,第三预定阈值为20。本方案中对三个预定阈值之间的大小关系也不限定。
接下来,基于构成车辆直角的点,拟合出能够构成直角的边的目标线(S504)。采用主成分分析算法(PCA)对目标点簇中的点进行分析,得到最大的特征值对应的特征向量,该特征向量指示的方向即为直角的边的方向(即目标线的方向)。在雷达坐标系(XYZ坐标系)中,在目标线的方向上找到最大的x、最大的y和最大的z,以及找到最小的x、最大的y和最大的z。最大与最小的x作差,最大与最小的y作差,最大与最小的z作差,三个差值的平方再开根号即可得到目标长度,该目标长度为目标线的长度。目标点簇的中心为目标线的(目标)中心点。基于目标点簇的中心和目标长度,拟合出能够构成直角的边的目标线。实现了对目标线的精准拟合。
在实际应用中,考虑到激光雷达扫描到的直角的数量可能为一个,还可能为两个,还可以为其他合理的数量,如此,目标线的数量可能为一个,还可能为两个,还可以为其他合理的数量。视激光雷达扫描到的实际情况而定。
接下来,执行基于目标线提取车身侧面的流程(S505)。
在以目标线的中心点为中心、半径为2/3目标线长度的范围内,判断从目标支撑点集中是否能够搜索到点,如果能够搜索到点,则将搜索到的点视为目标支撑点。该目标支撑点可作为目标线的平面支撑点,以便后续得到车辆的目标面或构成目标面的点。如此,可实现对构成平面支撑点的精准获取,为后续车辆姿态的估计提供准确的基础数据。前述的半径还可以为任何大于或等于1/2目标线长度且小于目标线长度的数值,不做具体限定。
然后,采用预设的区域增长方式,以目标支撑点为起点,从整个场景点云数据(针对目标环境而得到的三维点云数据)中进行区域增长处理,得到构成车辆的两个车身侧面的所有点。每个车身侧面的所有点构成的区域即为矿卡车辆的车身侧面。可实现对构成车身侧面的点的精准获取,为后续车辆姿态的估计提供准确的基础数据。
前述方案可视为从整个场景点云数据中提取或分割出矿卡车辆的两个车身侧面的方案。除此之外,也可以从整个场景点云数据中的部分点云数据-车辆的点云数据中提取或分割出矿卡车辆的车身侧面。与从车辆的点云数据中提取或分割出矿卡车身侧面相比,从整个场景点云数据的角度出发可避免车辆的点云数据不完整而导致的车身侧面无法成功提取或提取不完整的问题。
前述的S503~S505可作为对S402的进一步阐述。S503~S505的方案均是在雷达坐标系下执行的。
接下来,执行基于车身侧面实现对包围盒估计的流程(S506)。
因为包围盒是用于包围矿卡车辆的,对包围盒的估计需要在车辆坐标系中进行。本流程需基于车身侧面对车辆坐标系进行构建,在车辆坐标系中进行包围盒的中心位置和方向的估计。
进一步的,车身侧面为平面,获取两个车身侧面的法线。法线是包括大小和方向的。具体的,为了提高计算速度,计算车身侧面内的各点的法线的合成方向,将该合成方向作为车身侧面的法线方向。车身侧面的法线大小为1。将两个车身侧面的法线进行向量叉积,得到一个矢量。由该矢量以及两个车身侧面的法线构成的坐标系即为车辆坐标系。在车辆坐标系中,针对两个车身侧面或构成车身侧面的点,采用平行于坐标轴的包围盒算法,对包围盒的中心位置和方向进行估计。可实现对包围盒的中心位置和方向的精准估计。
最后,执行基于对包围盒的估计结果实现对车辆姿态的估计的流程(S507)。
按照雷达坐标系和车辆坐标系之间的映射关系,将在车辆坐标系中的包围盒的估计结果转换到雷达坐标系中,即可得到在雷达坐标系下的车辆的位置和朝向。在雷达坐标系中,依据包围盒的中心位置、方向得到车辆的位置、方向的方案请参见前述相关说明,不赘述。
前述的S506~S507可作为对S403的进一步阐述。
可以理解,在实际应用中,无人电铲设备具有自己的坐标系,如果无人电铲设备的坐标系与雷达坐标系为不同的坐标系,则还需要将在雷达坐标系中得到的车辆位置和方向换算到无人电铲设备的坐标系下。如此,无人电铲设备可准确获知矿卡车辆的姿态,进而行驶至矿卡车辆,实现无人电铲设备的自主装卸,无需人工干预装卸。
图6为对车辆姿态估计结果的可视化示意图。在图6中以不同的符号表示不同的点。在图1中激光雷达扫描到1个直角(用☆表示)。构成该直角的点的支撑点用符号表示。平面支撑点用/>表示。车身侧面包括有两个,一个是用○符号表示的侧面1,一个是用●符号表示的侧面2。直线部分表示矿卡车辆的包围盒。
前述方案,有效地完成了在无人电铲作业过程中矿卡车辆的姿态估计,在工程上易于实现,与相关技术中的利用深度学习模型进行矿卡车辆的姿态的估计的方案相比,可大大节省运算成本。且基于利用车辆的几何信息进行车辆的姿态估计,可实现对车辆姿态的精准或准确估计。
本公开还提供一种车辆的姿态估计装置的实施例,如图7所示,所述装置包括:
第一获得单元701,用于基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;
第二获得单元702,用于基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果;
估计单元703,用于基于所述估计结果,对所述车辆的姿态进行估计。
其中,所述第一获得单元701,还用于:
从车辆的点云数据中,确定出第二目标数据,所述第二目标数据表征为能够构成所述车辆的转角的点;
基于所述第二目标数据,得到目标线,所述目标线能够构成所述转角的边;
基于所述目标线,得到所述第一目标数据。
其中,所述第二获得单元702,用于:
采用预设的姿态估计方式,基于第一目标数据对所述目标体进行姿态估计,得到所述目标体的中心位置和方向;
将所述目标体的中心位置和方向作为所述估计结果。
其中,所述估计单元703,用于:
基于所述目标体的中心位置,得到所述车辆所处的位置;
基于所述目标体的方向,得到所述车辆的朝向;
将所述车辆所处的位置和朝向作为所述车辆的姿态。
其中,所述第二目标数据为车辆的点云数据中、其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值。
其中,所述第一获得单元701,还用于:
从车辆的点云数据中,筛选出其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值;
将筛选出的所述点进行聚类,形成至少两个点簇;
从所述至少两个点簇中,确定出目标点簇;
将所述目标点簇中的点作为所述第二目标数据。
其中,所述第一获得单元701,还用于:
对所述第二目标数据进行分析,确定目标长度和目标中心点;
基于所述目标长度和目标中心点,得到所述目标线。
其中,所述第一获得单元701,还用于:
获取目标支撑点集;
基于所述目标线的目标长度和目标中心点,从目标支撑点集中获得目标支撑点;
采用预设的区域增长方式,以所述目标支撑点作为起点进行区域增长处理,得到能够构成所述车辆的目标面的所述第一目标数据。
其中,所述目标支撑点集为所述车辆的点云数据中、与构成所述车辆的转角的多个点均满足正交要求的点的集合,其中所述多个点的数量大于或等于第二预定阈值。
所述装置还包括第三获得单元(图7中未示意出),用于:
获取针对目标环境得到的三维点云数据;
获取针对目标环境得到的二维图像;
基于所述三维点云数据和所述二维图像,得到所述车辆的点云数据;
其中,所述目标环境中至少包括所述车辆。
需要说明的是,本公开的车辆的姿态估计装置,由于其解决问题的原理与前述的车辆的姿态估计方法及车辆的姿态估计方法相似,因此,车辆的姿态估计装置的实施过程及实施原理均可以参见前述方法的实施过程及实施原理描述,重复之处不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如车辆的姿态估计方法。例如,在一些实施例中,车辆的姿态估计方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的车辆的姿态估计方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行车辆的姿态估计方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (23)

1.一种车辆的姿态估计方法,包括:
基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;
基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果;
基于所述估计结果,对所述车辆的姿态进行估计。
2.根据权利要求1所述的方法,其中,所述基于车辆的点云数据,得到第一目标数据,包括:
从车辆的点云数据中,确定出第二目标数据,所述第二目标数据表征为能够构成所述车辆的转角的点;
基于所述第二目标数据,得到目标线,所述目标线能够构成所述转角的边;
基于所述目标线,得到所述第一目标数据。
3.根据权利要求1或2所述的方法,其中,所述基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果,包括:
采用预设的姿态估计方式,基于所述第一目标数据对所述目标体进行姿态估计,得到所述目标体的中心位置和方向;
将所述目标体的中心位置和方向作为所述估计结果。
4.根据权利要求3所述的方法,其中,所述基于所述估计结果,对所述车辆的姿态进行估计,包括:
基于所述目标体的中心位置,得到所述车辆所处的位置;
基于所述目标体的方向,得到所述车辆的朝向;
将所述车辆所处的位置和朝向作为所述车辆的姿态。
5.根据权利要求2所述的方法,其中,所述第二目标数据为车辆的点云数据中、其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值。
6.根据权利要求2所述的方法,其中,所述从车辆的点云数据中,确定出第二目标数据,包括:
从车辆的点云数据中,筛选出其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值;
将筛选出的所述点进行聚类,形成至少两个点簇;
从所述至少两个点簇中,确定出目标点簇;
将所述目标点簇中的点作为所述第二目标数据。
7.根据权利要求2或5或6所述的方法,其中,所述基于所述第二目标数据,得到目标线,包括:
对所述第二目标数据进行分析,确定目标长度和目标中心点;
基于所述目标长度和目标中心点,得到所述目标线。
8.根据权利要求7所述的方法,其中,所述基于所述目标线,得到所述第一目标数据,包括:
获取目标支撑点集;
基于所述目标线的目标长度和目标中心点,从所述目标支撑点集中获得目标支撑点;
采用预设的区域增长方式,以所述目标支撑点作为起点进行区域增长处理,得到能够构成所述车辆的目标面的所述第一目标数据。
9.根据权利要求8所述的方法,其中,所述目标支撑点集为所述车辆的点云数据中、与构成所述车辆的转角的多个点均满足正交要求的点的集合,其中所述多个点的数量大于或等于第二预定阈值。
10.根据权利要求1至9任一项所述的方法,还包括:
获取针对目标环境得到的三维点云数据;
获取针对目标环境得到的二维图像;
基于所述三维点云数据和所述二维图像,得到所述车辆的点云数据;
其中,所述目标环境中至少包括所述车辆。
11.一种车辆的姿态估计装置,包括:
第一获得单元,用于基于车辆的点云数据,得到第一目标数据,所述第一目标数据能够构成所述车辆的目标面;
第二获得单元,用于基于所述第一目标数据,对用于包围所述车辆的目标体进行姿态估计,得到估计结果;
估计单元,用于基于所述估计结果,对所述车辆的姿态进行估计。
12.根据权利要求11所述的装置,其中,所述第一获得单元,还用于:
从车辆的点云数据中,确定出第二目标数据,所述第二目标数据表征为能够构成所述车辆的转角的点;
基于所述第二目标数据,得到目标线,所述目标线能够构成所述转角的边;
基于所述目标线,得到所述第一目标数据。
13.根据权利要求11或12所述的装置,其中,所述第二获得单元,用于:
采用预设的姿态估计方式,基于所述第一目标数据对所述目标体进行姿态估计,得到所述目标体的中心位置和方向;
将所述目标体的中心位置和方向作为所述估计结果。
14.根据权利要求13所述的装置,其中,所述估计单元,用于:
基于所述目标体的中心位置,得到所述车辆所处的位置;
基于所述目标体的方向,得到所述车辆的朝向;
将所述车辆所处的位置和朝向作为所述车辆的姿态。
15.根据权利要求12所述的装置,其中,所述第二目标数据为车辆的点云数据中、其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值。
16.根据权利要求12所述的装置,其中,所述第一获得单元,还用于:
从车辆的点云数据中,筛选出其法线与距离其第一预定范围内的多个其他点的法线满足正交要求的点;其中所述多个其他点的数量大于或等于第一预定阈值;
将筛选出的所述点进行聚类,形成至少两个点簇;
从所述至少两个点簇中,确定出目标点簇;
将所述目标点簇中的点作为所述第二目标数据。
17.根据权利要求12或15或16所述的装置,其中,所述第一获得单元,还用于:
对所述第二目标数据进行分析,确定目标长度和目标中心点;
基于所述目标长度和目标中心点,得到所述目标线。
18.根据权利要求17所述的装置,其中,所述第一获得单元,还用于:
获取目标支撑点集;
基于所述目标线的目标长度和目标中心点,从所述目标支撑点集中获得目标支撑点;
采用预设的区域增长方式,以所述目标支撑点作为起点进行区域增长处理,得到能够构成所述车辆的目标面的所述第一目标数据。
19.根据权利要求18所述的装置,其中,所述目标支撑点集为所述车辆的点云数据中、与构成所述车辆的转角的多个点均满足正交要求的点的集合,其中所述多个点的数量大于或等于第二预定阈值。
20.根据权利要求11至19任一项所述的装置,还包括第三获得单元,用于:
获取针对目标环境得到的三维点云数据;
获取针对目标环境得到的二维图像;
基于所述三维点云数据和所述二维图像,得到所述车辆的点云数据;
其中,所述目标环境中至少包括所述车辆。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-10中任一项所述的方法。
23.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-10中任一项所述的方法。
CN202210166170.1A 2022-02-23 2022-02-23 车辆的姿态估计方法、装置、电子设备及存储介质 Pending CN116681758A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202210166170.1A CN116681758A (zh) 2022-02-23 2022-02-23 车辆的姿态估计方法、装置、电子设备及存储介质
US17/884,136 US20230266773A1 (en) 2022-02-23 2022-08-09 Vehicle attitude estimation method, electronic device and storage medium
EP22190114.3A EP4235575A1 (en) 2022-02-23 2022-08-12 Vehicle attitude estimation method and apparatus, electronic device and storage medium
KR1020220103310A KR20230126628A (ko) 2022-02-23 2022-08-18 차량 포즈 추정 방법, 장치, 전자기기 및 저장매체
JP2022137742A JP7451628B2 (ja) 2022-02-23 2022-08-31 車両姿勢推定方法、装置、電子デバイス、記憶媒体、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210166170.1A CN116681758A (zh) 2022-02-23 2022-02-23 车辆的姿态估计方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN116681758A true CN116681758A (zh) 2023-09-01

Family

ID=83319011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210166170.1A Pending CN116681758A (zh) 2022-02-23 2022-02-23 车辆的姿态估计方法、装置、电子设备及存储介质

Country Status (5)

Country Link
US (1) US20230266773A1 (zh)
EP (1) EP4235575A1 (zh)
JP (1) JP7451628B2 (zh)
KR (1) KR20230126628A (zh)
CN (1) CN116681758A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220219730A1 (en) * 2022-03-31 2022-07-14 Baidu Usa Llc Method of determining vehicle travel trajectory, electronic device, storage medium, and vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111587407B (zh) * 2017-11-10 2024-01-23 辉达公司 用于安全且可靠的自主车辆的***和方法
KR102650494B1 (ko) * 2018-10-30 2024-03-22 무진 아이엔씨 자동화된 패키지 등록 시스템, 디바이스 및 방법
US10846818B2 (en) * 2018-11-15 2020-11-24 Toyota Research Institute, Inc. Systems and methods for registering 3D data with 2D image data
CN111857111B (zh) * 2019-04-09 2024-07-19 商汤集团有限公司 对象三维检测及智能驾驶控制方法、装置、介质及设备
JP2021188258A (ja) * 2020-05-25 2021-12-13 住友建機株式会社 ショベル用のシステム
CN111797734B (zh) * 2020-06-22 2024-05-24 广州视源电子科技股份有限公司 车辆点云数据处理方法、装置、设备和存储介质
US20210213617A1 (en) * 2021-03-26 2021-07-15 Intel Corporation Generation of three-dimensional representation of object surface from structured point-cloud
CN114612665B (zh) * 2022-03-15 2022-10-11 北京航空航天大学 基于法向量直方图特征的位姿估计及动态车辆检测方法

Also Published As

Publication number Publication date
KR20230126628A (ko) 2023-08-30
JP7451628B2 (ja) 2024-03-18
JP2023122614A (ja) 2023-09-04
US20230266773A1 (en) 2023-08-24
EP4235575A1 (en) 2023-08-30

Similar Documents

Publication Publication Date Title
JP6830139B2 (ja) 3次元データの生成方法、3次元データの生成装置、コンピュータ機器及びコンピュータ読み取り可能な記憶媒体
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
US10346996B2 (en) Image depth inference from semantic labels
US20210272306A1 (en) Method for training image depth estimation model and method for processing image depth information
US20130136338A1 (en) Methods and Apparatus for Correcting Disparity Maps using Statistical Analysis on Local Neighborhoods
EP3968266B1 (en) Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
CN112558072B (zh) 车辆定位方法、装置、***、电子设备及存储介质
CN112509126B (zh) 三维物体检测的方法、装置、设备及存储介质
CN112258519A (zh) 一种高精度地图制作中道路的让行线自动化提取方法及装置
JP7451628B2 (ja) 車両姿勢推定方法、装置、電子デバイス、記憶媒体、及びプログラム
CN114926549A (zh) 三维点云处理方法、装置、设备以及存储介质
CN114170596A (zh) 姿态识别方法、装置、电子设备、工程机械和存储介质
CN114202625B (zh) 路肩线的提取方法、装置及电子设备
CN112465908A (zh) 一种物体定位方法、装置、终端设备及存储介质
Giorgini et al. Ground segmentation from large-scale terrestrial laser scanner data of industrial environments
US20230048643A1 (en) High-Precision Map Construction Method, Apparatus and Electronic Device
CN110940994B (zh) 定位初始化方法及其***
CN110363847B (zh) 一种基于点云数据的地图模型构建方法和装置
CN114119990B (zh) 用于图像特征点匹配的方法、装置及计算机程序产品
CN113033456B (zh) 车辆车轮接地点的确定方法、装置、路侧设备及云控平台
CN113516013B (zh) 目标检测方法、装置、电子设备、路侧设备和云控平台
CN115453549A (zh) 一种基于二维激光雷达的环境直角点坐标角度的提取方法
CN115272465A (zh) 物体定位方法、装置、自主移动设备和存储介质
CN112991451A (zh) 图像识别方法、相关装置及计算机程序产品
CN110399892B (zh) 环境特征提取方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination