CN112198491A - 一种基于低成本二维激光雷达的机器人三维感知***及其方法 - Google Patents

一种基于低成本二维激光雷达的机器人三维感知***及其方法 Download PDF

Info

Publication number
CN112198491A
CN112198491A CN202011070061.7A CN202011070061A CN112198491A CN 112198491 A CN112198491 A CN 112198491A CN 202011070061 A CN202011070061 A CN 202011070061A CN 112198491 A CN112198491 A CN 112198491A
Authority
CN
China
Prior art keywords
dimensional
point cloud
data
robot
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011070061.7A
Other languages
English (en)
Other versions
CN112198491B (zh
Inventor
赖志林
骆增辉
杨晓东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Saite Intelligent Technology Co Ltd
Original Assignee
Guangzhou Saite Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Saite Intelligent Technology Co Ltd filed Critical Guangzhou Saite Intelligent Technology Co Ltd
Priority to CN202011070061.7A priority Critical patent/CN112198491B/zh
Publication of CN112198491A publication Critical patent/CN112198491A/zh
Application granted granted Critical
Publication of CN112198491B publication Critical patent/CN112198491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种基于低成本二维激光雷达的机器人三维感知***及其方法,包括若干个二维激光雷达、三维融合算法模块、动态窗口点云模块,若干个二维激光雷达分别和三维融合算法模块连接,三维融合算法模块和动态窗口点云模块连接,若干个二维激光雷达分别安装在机器人本体上,通过二维激光雷达采集点云数据C1,三维融合算法模块将某一时刻所有的二维激光雷达采集的点云数据C1变换融合为三维点云数据C3,并结合时空约束更新动态窗口模块中的点云数据Z,再将点云数据C3变换成点云数据C4,并将点云数据C4***动态窗口点云模块中的点云数据Z中,然后动态窗口点云模块输出点云数据Z,从而实现对环境的三维感知,无需硬件辅助设备,有效降低了成本。

Description

一种基于低成本二维激光雷达的机器人三维感知***及其 方法
技术领域
本发明涉及机器人感知技术领域,具体为一种基于低成本二维激光雷达的机器人三维感知***及其方法。
背景技术
感知作为机器人的一种基础能力,对于机器人定位、决策、规划等模块的实现具有重要意义。对于具有二维信息感知能力的机器人来说,只能检测环境中某一个平面内的信息,具有较大的感知盲区。而具有三维信息感知能力的机器人,则能够对周围环境中的三维世界进行完整建模,有利于后续定位、决策、规划等模块的执行。
激光雷达是机器人感知世界的一种重要传感器,按维度可分为二维激光雷达、三维激光雷达,三维激光雷达可以直接感知三维环境信息,但通常成本高昂,二维激光雷达相对三维激光雷达来说成本较低,但只能感知二维环境信息。
申请号为:CN201610444260.7公开了一种基于摆动激光雷达的可变视野三维重建装置,该专利公开了一种基于二维激光雷达实现三维环境感知能力的装置,所述装置包含一套激光雷达摆动机构,以及相应的机构运动控制模块。但上述激光雷达摆动机构对于机械精度要求较高,上述机构运动控制模块对于运动控制精度要求较高,成本较高。
现有技术中,也有一些其他低成本传感器用于机器人的感知,比如超声波传感器、红外传感器、相机等。超声波传感器只能感知一个锥体内的物体,不能精确测量物体的位置,并且测量距离比较近;红外传感器只能测量一条线内的物体,只具有一维感知能力;相机能够感知的环境信息丰富,但是普通相机没有尺度信息,无法精确测量环境物***置,深度相机虽然能够提供尺度信息,但通常成本高昂,并且易受环境光线影响。因此现有技术中,针对机器人三维感知***的实现方案存在成本高昂的问题。
发明内容
本发明的目的是克服上述现有技术的缺点,提供一种可有效降低成本的基于低成本二维激光雷达的机器人三维感知***及其方法。
本发明是通过以下技术方案来实现的:一种基于低成本二维激光雷达的机器人三维感知***,包括若干个二维激光雷达、三维融合算法模块、动态窗口点云模块,若干个所述二维激光雷达分别和所述三维融合算法模块连接,所述三维融合算法模块和所述动态窗口点云模块连接,若干个所述二维激光雷达分别安装在机器人本体上,且每个所述二维激光雷达位于不同方位,所述二维激光雷达用于采集其感知范围内的点云数据C1,所述三维融合算法模块用于融合某一时刻所有的二维激光雷达采集的点云数据C1,所述动态窗口点云模块用于维持一段时间内的点云数据Z。
进一步地:所述动态窗口点云模块维持点云数据Z的时间为1min-5min。
进一步地:所述二维激光雷达的感知范围为一个圆形平面区域,该圆形平面区域平行于所述二维激光雷达的安装基面。
进一步地:所述二维激光雷达设置有五个,其中一个所述二维激光雷达水平地安装在所述机器人本体的底盘上,其余四个所述二维激光雷达分别倾斜地安装在所述机器人本体的四个角上。
一种基于低成本二维激光雷达的机器人三维感知方法,包括以下步骤:
S1:若干个二维激光雷达分别采集各感知范围内的点云数据C1,点云数据C1为相应二维激光雷达的雷达坐标系,点云数据C1中的数据点P1为相应的雷达坐标系下的数据点坐标;
S2:三维融合算法模块分别将每个二维激光雷达的点云数据C1中的数据点P1变换为点云数据C2中的数据点P2,点云数据C2为机器人本体坐标系,数据点P2为机器人本体坐标系下的数据点坐标,再将点云数据C2融合为一帧三维点云数据C3,并计算当前时刻下的机器人可视区域R;
S3:三维融合算法模块将三维点云数据C3中的数据点P3变换为点云数据C4中的数据点P4,点云数据C4为全局定位坐标系,点云数据C4中的数据点P4为全局定位坐标系下的数据点坐标;
S4:采用三维融合算法遍历点云数据数据C4中的所有数据点P4,将每一个数据点P4***动态窗口点云模块中,动态窗口点云模块将数据点P4维持存储一段时间,得到点云数据Z;
S5:三维融合算法模块基于时空约束更点云数据Z,将***时间过早或距离机器人本体过远的数据点从点云数据Z中删除;
S6:三维融合算法模块基于机器人可视区域R,将点云数据Z中位于机器人可视区域R内的数据点删除;
S7:动态窗口点云模块输出更新后的点云数据Z,作为当前时刻下的机器人三维感知数据。
进一步地:步骤S2中将所述点云数据C1中的数据点P1变换为点云数据C2中的数据点P2的变换公式为:
Figure BDA0002712180550000041
其中,
Figure BDA0002712180550000042
表示任一雷达坐标系下的数据点坐标,
Figure BDA0002712180550000043
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000051
表示机器人本体坐标系下的数据点坐标,且与数据点P1相对应,
Figure BDA0002712180550000052
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000053
是变换矩阵,描述了雷达坐标系到机器人本体坐标系的变换关系;
其中,
Figure BDA0002712180550000054
是旋转矩阵,描述了雷达坐标系到机器人本体坐标系的旋转关系,由二维激光雷达在机器人本体上的安装方位给出;
其中,t12=(tx ty tz)T是平移向量,描述了雷达坐标系到机器人本体坐标系的平移关系,由二维激光雷达在机器人本体上的安装方位给出。
进一步地:步骤S3中将所述三维点云数据C3中的数据点P3变换为点云数据C4中的数据点P4的变换公式:
Figure BDA0002712180550000055
其中,M34是变换矩阵,描述了机器人本体坐标系到全局定位坐标系的变换关系;
其中,
Figure BDA0002712180550000061
表示任一机器人本体坐标系下的数据点坐标,
Figure BDA0002712180550000062
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000063
表示全局定位坐标下的数据点坐标,且与数据点P3相对应,
Figure BDA0002712180550000064
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000065
是变换矩阵,描述了机器人本体坐标系到全局定位坐标系的变换关系;
其中,
Figure BDA0002712180550000066
是旋转矩阵,描述了机器人本体坐标系到全局定位坐标系的旋转关系,由机器人本体在全局地图中的定位结果给出;
其中,t34=(t’x t’y t’z)T是平移向量,描述了机器人本体坐标系到全局定位坐标系的平移关系,由机器人本体在全局定图中的定位结果给出。
进一步地:步骤S2中所述的机器人可视区域R由所有的所述二维激光雷达的感知范围组成。
本发明的有益效果
与现有技术相比,通过在机器人本体上安装若干个二维激光雷达,且每个二维激光雷达位于不同的方位,通过二维激光雷达采集其感知范围内的点云数据C1,三维融合算法模块将某一时刻下所有二维激光雷达采集的点云数据C1变换融合为一帧三维点云数据C3并计算当前时刻下的机器人可视区域R,然后再将点云数据C3变换成点云数据C4并将点云数据C4***动态窗口点云模块中,动态窗口点云模块维持存储一段时间的点云数据C4得到点云数据Z,三维融合算法模块结合时空约束更新点云数据Z,以保证能够维持一个尺度合理的实时点云数据空间,最后动态窗口点云模块输出更新后的点云数据Z,作为当前时刻下的机器人三维感知数据,从而实现对环境的三维感知,无需硬件辅助设备,有效降低了成本。
附图说明
图1为本发明三维感知***架构图;
图2为本发明二维激光雷达感知范围图;
图3为本发明机器人俯视图;
图4为本发明机器人前视图;
图5为本发明三维感知方法流程图。
附图标记说明:1-机器人本体,2-二维激光雷达,3-三维融合算法模块,4-动态窗口点云模块。
具体实施方式
参照图1,本发明一种基于低成本二维激光雷达的机器人三维感知***包括包括若干个二维激光雷达2、三维融合算法模块3、动态窗口点云模块4,若干个二维激光雷达2分别和三维融合算法模块3连接,三维融合算法模块3和动态窗口点云模块4连接,若干个二维激光雷达2分别安装在机器人本体1上,且每个二维激光雷达2位于不同方位,二维激光雷达2用于采集其感知范围内的点云数据C1,三维融合算法模块3用于融合某一时刻所有的二维激光雷达2采集的点云数据C1,动态窗口点云模块4用于维持一段时间内的点云数据Z。
具体的,动态窗口点云模块4维持一个机器人周围的窗口,随着机器人运动而滚动,点云数据Z是在该窗口所覆盖物理空间内。
动态窗口点云模块4维持点云数据Z的时间为1min-5min。
参照图2,二维激光雷达2的感知范围为一个圆形平面区域,该圆形平面区域平行于二维激光雷达的安装基面。
具体的,该圆形平面区域的圆心和二维激光雷达2的安装基面的圆心位于同一圆心轴上,圆心轴为二维激光雷达2的中线。
参照图3,二维激光雷达2设置有五个,其中一个二维激光雷达2水平地安装在机器人本体1的底盘上,其余四个二维激光雷达2分别倾斜地安装在机器人本体1的四个角上。其中,虚线椭圆形是倾斜安装的二维激光雷达2的感知范围,虚线圆形是水平安装的二维激光雷达2的感知范围。
参照图4,将两个二维激光雷达2分别倾斜地安装在机器人本体1两侧,机器人本体1的底盘上水平地安装了一个二维激光雷达2,其中,箭头是对应二维激光雷达2的中线轴,箭头指向二维激光雷达2上方,虚线椭圆形区域是对应二维激光雷达2的感知范围。
参照图5,本发明一种基于低成本二维激光雷达的机器人三维感知方法,包括以下步骤:
S1:若干个二维激光雷达分别采集各感知范围内的点云数据C1,点云数据C1为相应二维激光雷达的雷达坐标系,点云数据C1中的数据点P1为相应的雷达坐标系下的数据点坐标。
S2:三维融合算法模块分别将每个二维激光雷达采集的点云数据C1中的数据点P1变换为点云数据C2中的数据点P2,点云数据C2为机器人本体坐标系,数据点P2为机器人本体坐标系下的数据点坐标,再将点云数据C2融合为一帧三维点云数据C3,并计算当前时刻下的机器人可视区域R。
具体的,三维点云数据C3是若干个二维激光雷达采集的点云数据C1变换成相应的点云数据C2的并集;机器人可视区域由所有的二维激光雷达的感知范围组成。
将所述点云数据C1中的数据点P1变换为点云数据C2中的数据点P2的变换公式为:
Figure BDA0002712180550000101
其中,
Figure BDA0002712180550000102
表示任一雷达坐标系下的数据点坐标,
Figure BDA0002712180550000103
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000104
表示机器人本体坐标系下的数据点坐标,且与数据点P1相对应,
Figure BDA0002712180550000105
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000106
是变换矩阵,描述了雷达坐标系到机器人本体坐标系的变换关系;
其中,
Figure BDA0002712180550000107
是旋转矩阵,描述了雷达坐标系到机器人本体坐标系的旋转关系,由二维激光雷达在机器人本体上的安装方位给出;
其中,t12=(tx ty tz)T是平移向量,描述了雷达坐标系到机器人本体坐标系的平移关系,由二维激光雷达在机器人本体上的安装方位给出。
S3:三维融合算法模块将三维点云数据C3中的数据点P3变换为点云数据C4中的数据点P4,点云数据C4为全局定位坐标系,点云数据C4中的数据点P4为全局定位坐标系下的数据点坐标。
具体的,将所述三维点云数据C3中的数据点P3变换为点云数据C4中的数据点P4的变换公式:
Figure BDA0002712180550000111
其中,M34是变换矩阵,描述了机器人本体坐标系到全局定位坐标系的变换关系;
其中,
Figure BDA0002712180550000112
表示任一机器人本体坐标系下的数据点坐标,
Figure BDA0002712180550000113
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000114
表示全局定位坐标下的数据点坐标,且与数据点P3相对应,
Figure BDA0002712180550000115
是该点对应的齐次坐标;
其中,
Figure BDA0002712180550000121
是变换矩阵,描述了机器人本体坐标系到全局定位坐标系的变换关系;
其中,
Figure BDA0002712180550000122
是旋转矩阵,描述了机器人本体坐标系到全局定位坐标系的旋转关系,由机器人本体在全局地图中的定位结果给出;
其中,t34=(t’x t’y t’z)T是平移向量,描述了机器人本体坐标系到全局定位坐标系的平移关系,由机器人本体在全局定图中的定位结果给出。
S4:采用三维融合算法遍历点云数据数据C4中的所有数据点P4,将每一个数据点P4***动态窗口点云模块中,动态窗口点云模块将数据点P4维持存储一段时间,得到点云数据Z;
S5:三维融合算法模块基于时空约束更新点云数据Z,将***时间过早或距离机器人本体过远的数据点从点云数据Z中删除。
具体的,三维融合算法遍历点云数据Z中的所有数据点,若某一数据点的***时刻距当前时刻超过预设时间阈值,则删除该数据点,或若某一数据点距当前时刻机器人本体超过预设距离阈值,则删除该数据点。
S6:三维融合算法模块基于机器人可视区域R,将点云数据Z中位于机器人可视区域R内的数据点删除。
具体的,三维融合算法遍历点云数据Z中的所有数据点,若某一数据点位于机器人可视区域R中的任一平面之中,则删除该数据点。
S7:动态窗口点云模块输出更新后的点云数据Z,作为当前时刻下的机器人三维感知数据。
通过在机器人本体上安装若干个二维激光雷达,且每个二维激光雷达位于不同的方位,通过二维激光雷达采集其感知平面内的点云数据C1,三维融合算法模块将某一时刻下所有二维激光雷达采集的点云数据C1变换融合为一帧三维点云数据C3并计算当前时刻下的机器人可视区域R,然后在将点云数据C3变换成点云数据C4并将点云数据C4***动态窗口点云模块中,动态窗口点云模块维持存储一段时间的点云数据C4得到点云数据Z,三维融合算法模块结合时空约束更新点云数据Z,以保证能够维持一个尺度合理的实时点云数据空间,最后动态窗口点云模块输出点云数据Z,作为当前时刻下的机器人三维感知数据,从而实现对环境的三维感知,无需硬件辅助设备,有效降低了成本。
上列详细说明是针对本发明可行实施例的具体说明,该实施例并非用以限制本发明的专利范围,凡未脱离本发明所为的等效实施或变更,均应包含于本案的专利范围中。

Claims (8)

1.一种基于低成本二维激光雷达的机器人三维感知***,其特征在于:包括若干个二维激光雷达、三维融合算法模块、动态窗口点云模块,若干个所述二维激光雷达分别和所述三维融合算法模块连接,所述三维融合算法模块和所述动态窗口点云模块连接,若干个所述二维激光雷达分别安装在机器人本体上,且每个所述二维激光雷达位于不同方位,所述二维激光雷达用于采集其感知范围内的点云数据C1,所述三维融合算法模块用于融合某一时刻所有的二维激光雷达采集的点云数据C1,所述动态窗口点云模块用于维持一段时间内的点云数据Z。
2.根据权利要求1所述一种基于低成本二维激光雷达的机器人三维感知***,其特征在于:所述动态窗口点云模块维持点云数据Z的时间为1min-5min。
3.根据权利要求2所述一种基于低成本二维激光雷达的机器人三维感知***,其特征在于:所述二维激光雷达的感知范围为一个圆形平面区域,该圆形平面区域平行于所述二维激光雷达的安装基面。
4.根据权利要求3所述一种基于低成本二维激光雷达的机器人三维感知***,其特征在于:所述二维激光雷达设置有五个,其中一个所述二维激光雷达水平地安装在所述机器人本体的底盘上,其余四个所述二维激光雷达分别倾斜地安装在所述机器人本体的四个角上。
5.一种基于低成本二维激光雷达的机器人三维感知方法,其特征在于:包括以下步骤:
S1:若干个二维激光雷达分别采集各感知范围内的点云数据C1,点云数据C1为相应二维激光雷达的雷达坐标系,点云数据C1中的数据点P1为相应的雷达坐标系下的数据点坐标;
S2:三维融合算法模块分别将每个二维激光雷达的点云数据C1中的数据点P1变换为点云数据C2中的数据点P2,点云数据C2为机器人本体坐标系,数据点P2为机器人本体坐标系下的数据点坐标,再将点云数据C2融合为一帧三维点云数据C3,并计算当前时刻下的机器人可视区域R;
S3:三维融合算法模块将三维点云数据C3中的数据点P3变换为点云数据C4中的数据点P4,点云数据C4为全局定位坐标系,点云数据C4中的数据点P4为全局定位坐标系下的数据点坐标;
S4:采用三维融合算法遍历点云数据数据C4中的所有数据点P4,将每一个数据点P4***动态窗口点云模块中,动态窗口点云模块将数据点P4维持存储一段时间,得到点云数据Z;
S5:三维融合算法模块基于时空约束更新点云数据Z,将***时间过早或距离所述机器人本体过远的数据点从点云数据Z中删除;
S6:三维融合算法模块基于机器人可视区域R,将点云数据Z中位于机器人可视区域R内的数据点删除;
S7:动态窗口点云模块输出更新后的点云数据Z,作为当前时刻下的机器人三维感知数据。
6.根据权利要求5所述一种基于低成本二维激光雷达的机器人三维感知方法,其特征在于:步骤S2中将所述点云数据C1中的数据点P1变换为点云数据C2中的数据点P2的变换公式为:
Figure FDA0002712180540000031
其中,
Figure FDA0002712180540000032
表示任一雷达坐标系下的数据点坐标,
Figure FDA0002712180540000033
是该点对应的齐次坐标;
其中,
Figure FDA0002712180540000034
表示机器人本体坐标系下的数据点坐标,且与数据点P1相对应,
Figure FDA0002712180540000035
是该点对应的齐次坐标;
其中,
Figure FDA0002712180540000036
是变换矩阵,描述了雷达坐标系到机器人本体坐标系的变换关系;
其中,
Figure FDA0002712180540000041
是旋转矩阵,描述了雷达坐标系到机器人本体坐标系的旋转关系,由二维激光雷达在机器人本体上的安装方位给出;
其中,t12=(tx ty tz)T是平移向量,描述了雷达坐标系到机器人本体坐标系的平移关系,由二维激光雷达在机器人本体上的安装方位给出。
7.根据权利要求5所述一种基于低成本二维激光雷达的机器人三维感知方法,其特征在于:步骤S3中将所述三维点云数据C3中的数据点P3变换为点云数据C4中的数据点P4的变换公式:
Figure FDA0002712180540000042
其中,M34是变换矩阵,描述了机器人本体坐标系到全局定位坐标系的变换关系;
其中,
Figure FDA0002712180540000043
表示任一机器人本体坐标系下的数据点坐标,
Figure FDA0002712180540000044
是该点对应的齐次坐标;
其中,
Figure FDA0002712180540000045
表示全局定位坐标下的数据点坐标,且与数据点P3相对应,
Figure FDA0002712180540000051
是该点对应的齐次坐标;
其中,
Figure FDA0002712180540000052
是变换矩阵,描述了机器人本体坐标系到全局定位坐标系的变换关系;
其中,
Figure FDA0002712180540000053
是旋转矩阵,描述了机器人本体坐标系到全局定位坐标系的旋转关系,由机器人本体在全局地图中的定位结果给出;
其中,t34=(t’x t’y t’z)T是平移向量,描述了机器人本体坐标系到全局定位坐标系的平移关系,由机器人本体在全局定图中的定位结果给出。
8.根据权利要求5所述一种基于低成本二维激光雷达的机器人三维感知方法,其特征在于:步骤S2中所述的机器人可视区域R由所有的所述二维激光雷达的感知范围组成。
CN202011070061.7A 2020-09-30 2020-09-30 一种基于低成本二维激光雷达的机器人三维感知***及其方法 Active CN112198491B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011070061.7A CN112198491B (zh) 2020-09-30 2020-09-30 一种基于低成本二维激光雷达的机器人三维感知***及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011070061.7A CN112198491B (zh) 2020-09-30 2020-09-30 一种基于低成本二维激光雷达的机器人三维感知***及其方法

Publications (2)

Publication Number Publication Date
CN112198491A true CN112198491A (zh) 2021-01-08
CN112198491B CN112198491B (zh) 2023-06-09

Family

ID=74013643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011070061.7A Active CN112198491B (zh) 2020-09-30 2020-09-30 一种基于低成本二维激光雷达的机器人三维感知***及其方法

Country Status (1)

Country Link
CN (1) CN112198491B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106199626A (zh) * 2016-06-30 2016-12-07 上海交通大学 基于摆动激光雷达的室内三维点云地图生成***及方法
CN107167141A (zh) * 2017-06-15 2017-09-15 同济大学 基于双一线激光雷达的机器人自主导航***
US20180210087A1 (en) * 2017-01-26 2018-07-26 The Regents Of The University Of Michigan Localization Using 2D Maps Which Capture Vertical Structures In 3D Point Data
CN108932736A (zh) * 2018-05-30 2018-12-04 南昌大学 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法
CN110095786A (zh) * 2019-04-30 2019-08-06 北京云迹科技有限公司 基于一线激光雷达的三维点云地图生成方法及***
CN110244322A (zh) * 2019-06-28 2019-09-17 东南大学 基于多源传感器的路面施工机器人环境感知***及方法
CN110349221A (zh) * 2019-07-16 2019-10-18 北京航空航天大学 一种三维激光雷达与双目可见光传感器的融合标定方法
CN110658530A (zh) * 2019-08-01 2020-01-07 北京联合大学 一种基于双激光雷达数据融合的地图构建方法、***及地图
CN111259807A (zh) * 2020-01-17 2020-06-09 中国矿业大学 井下有限区域移动设备定位***
CN111596659A (zh) * 2020-05-14 2020-08-28 福勤智能科技(昆山)有限公司 基于麦克纳姆轮的自动导引车及***

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106199626A (zh) * 2016-06-30 2016-12-07 上海交通大学 基于摆动激光雷达的室内三维点云地图生成***及方法
US20180210087A1 (en) * 2017-01-26 2018-07-26 The Regents Of The University Of Michigan Localization Using 2D Maps Which Capture Vertical Structures In 3D Point Data
CN107167141A (zh) * 2017-06-15 2017-09-15 同济大学 基于双一线激光雷达的机器人自主导航***
CN108932736A (zh) * 2018-05-30 2018-12-04 南昌大学 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法
CN110095786A (zh) * 2019-04-30 2019-08-06 北京云迹科技有限公司 基于一线激光雷达的三维点云地图生成方法及***
CN110244322A (zh) * 2019-06-28 2019-09-17 东南大学 基于多源传感器的路面施工机器人环境感知***及方法
CN110349221A (zh) * 2019-07-16 2019-10-18 北京航空航天大学 一种三维激光雷达与双目可见光传感器的融合标定方法
CN110658530A (zh) * 2019-08-01 2020-01-07 北京联合大学 一种基于双激光雷达数据融合的地图构建方法、***及地图
CN111259807A (zh) * 2020-01-17 2020-06-09 中国矿业大学 井下有限区域移动设备定位***
CN111596659A (zh) * 2020-05-14 2020-08-28 福勤智能科技(昆山)有限公司 基于麦克纳姆轮的自动导引车及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李琳;张旭;屠大维;: "二维和三维视觉传感集成***联合标定方法", 仪器仪表学报 *

Also Published As

Publication number Publication date
CN112198491B (zh) 2023-06-09

Similar Documents

Publication Publication Date Title
CN111095355B (zh) 实时定位和定向***
KR101534056B1 (ko) 교통 신호 맵핑 및 검출
JP2019215853A (ja) 測位のための方法、測位のための装置、デバイス及びコンピュータ読み取り可能な記憶媒体
JP6830140B2 (ja) 運動ベクトル場の決定方法、運動ベクトル場の決定装置、機器、コンピュータ読み取り可能な記憶媒体及び車両
CN109547769B (zh) 一种公路交通动态三维数字场景采集构建***及其工作方法
CN111862180B (zh) 一种相机组位姿获取方法、装置、存储介质及电子设备
KR20220025028A (ko) 시각적 비콘 기반의 비콘 맵 구축 방법, 장치
CN113989450A (zh) 图像处理方法、装置、电子设备和介质
CN114743021A (zh) 一种输电线路图像与点云数据的融合方法及***
CN108535789A (zh) 一种基于机场跑道的异物识别***
CN114674311B (zh) 一种室内定位与建图方法及***
CN115307646B (zh) 一种多传感器融合的机器人定位方法、***及装置
CN116106870A (zh) 车辆激光雷达外参的标定方法和装置
CN112733428A (zh) 一种光学测量的扫描姿态与覆盖路径规划方法
CN107941167B (zh) 一种基于无人机载具和结构光扫描技术的空间扫描***及其工作方法
CN115410167A (zh) 目标检测与语义分割方法、装置、设备及存储介质
CN114488094A (zh) 一种车载多线激光雷达与imu外参数自动标定方法及装置
CN112381873B (zh) 一种数据标注方法及装置
CN112198491A (zh) 一种基于低成本二维激光雷达的机器人三维感知***及其方法
CN111521996A (zh) 一种激光雷达的安装标定方法
CN116027351A (zh) 一种手持/背包式slam装置及定位方法
CN116400349A (zh) 一种低分辨率毫米波雷达与光学相机的标定方法
WO2022133986A1 (en) Accuracy estimation method and system
CN111141252B (zh) 一种单目标定测距的方法及***
CN113218392A (zh) 室内定位导航方法及导航装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 510000 201, building a, No.19 nanxiangsan Road, Huangpu District, Guangzhou City, Guangdong Province

Applicant after: GUANGZHOU SAITE INTELLIGENT TECHNOLOGY Co.,Ltd.

Address before: 510000 Room 303, 36 Kaitai Avenue, Huangpu District, Guangzhou City, Guangdong Province

Applicant before: GUANGZHOU SAITE INTELLIGENT TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20210108

Assignee: Beijing Zhisaineng Technology Co.,Ltd.

Assignor: GUANGZHOU SAITE INTELLIGENT TECHNOLOGY Co.,Ltd.

Contract record no.: X2024980005834

Denomination of invention: A low-cost 2D LiDAR based robot 3D perception system and its method

Granted publication date: 20230609

License type: Common License

Record date: 20240516

EE01 Entry into force of recordation of patent licensing contract