CN105700525B - 基于Kinect传感器深度图机器人工作环境不确定性地图构建法 - Google Patents

基于Kinect传感器深度图机器人工作环境不确定性地图构建法 Download PDF

Info

Publication number
CN105700525B
CN105700525B CN201510891318.8A CN201510891318A CN105700525B CN 105700525 B CN105700525 B CN 105700525B CN 201510891318 A CN201510891318 A CN 201510891318A CN 105700525 B CN105700525 B CN 105700525B
Authority
CN
China
Prior art keywords
depth
barrier
data
ground
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510891318.8A
Other languages
English (en)
Other versions
CN105700525A (zh
Inventor
段勇
盛栋梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang University of Technology
Original Assignee
Shenyang University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang University of Technology filed Critical Shenyang University of Technology
Priority to CN201510891318.8A priority Critical patent/CN105700525B/zh
Publication of CN105700525A publication Critical patent/CN105700525A/zh
Application granted granted Critical
Publication of CN105700525B publication Critical patent/CN105700525B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)

Abstract

一种基于Kinect传感器深度图的机器人工作环境不确定性地图构建方法:其特征在于:该方法包括有以下步骤:步骤(1):机器人使用Kinect传感器采集深度数据;步骤(2):对采集的深度数据进行预处理,得到深度数据图;步骤(3):采集地面深度数据并进行地面模型提取;步骤(4):对深度数据图进行地面模型剪切处理得到障碍物深度图,步骤(5):对障碍物深度图进行检测并识别障碍区域,步骤(6)对障碍区和空闲区分析形成机器人工作环境的不确定性栅格地图。本发明可以准确的检测出周围环境并建立不确定性栅格地图,为机器人完成避障、导航、路径规划等其他任务提供了前提和条件。

Description

基于Kinect传感器深度图机器人工作环境不确定性地图构 建法
技术领域:本发明涉及一种基于Kinect传感器深度图的机器人工作环境不确定性地图构建方法。本发明实现了机器人通过对周围环境的检测并形成不确定性地图,可以为机器人完成避障、导航、路径规划等其他任务提供了前提和条件。
背景技术:构建地图是移动机器人学研究的核心内容之一,其目的是通过对地图的构建可以更好的表现周围的环境信息,更有利于机器人识别环境信息以便于后续的工作。目前对机器人建立环境地图的方法有很多,基于激光传感器的环境地图构建方法存在着传感器价格过高,性价比低等缺点;基于超声传感器的环境地图构建方法存在着获取的环境信息比较粗糙,精度低等缺点;基于视觉传感器的环境地图构建方法存在着计算复杂,较难实现等缺点。本发明使用的传感器是Kinect,它是微软公司在2010年推出的一种新的传感器,它不但能获取环境的光学图像还能获取光学图像上物体的位置信息,其获取的信息量丰富,环境适应性好、结构简单、实时性强并且价格低廉,因此可以成为机器人环境感知的一种有利工具。Kinect传感器通过彩色摄像头和深度摄像头来采集室内环境的3维信息,通过输出一个RGB图像和红外深度图像来确定环境中每一个点的颜色信息和深度信息。本发明所建立的地图为栅格地图。栅格地图是将环境离散化为一系列的栅格,每个栅格都有一种状态。Kinect传感器存在着随着距离的增大所检测到的深度距离误差会变大的特点,因此所检测到栅格存在的障碍物也存在着不确定性。最后得到的地图即为不确定性的栅格地图。
发明内容:
发明目的:本发明提供一种基于Kinect传感器深度图的机器人工作环境不确定性地图构建方法,其目的在于实现对周围环境的检测并构建出地图以便于机器人的后续工作。
技术方案:本发明是通过以下技术方案实施的:
1.一种基于Kinect传感器深度图的机器人工作环境不确定性地图构建方法:其特征在于:该方法包括有以下步骤:
步骤(1):机器人使用Kinect传感器采集深度数据;
步骤(2):对采集的深度数据进行预处理,得到深度数据图;
步骤(3):采集地面深度数据并进行地面模型提取;
步骤(4):对深度数据图进行地面模型剪切处理得到障碍物深度图,再对原深度数据图与障碍物深度图进行剪切处理得到地面深度图;
步骤(5):对障碍物深度图进行检测并识别障碍区域,对地面深度图进行检测并识别空闲区域,对障碍区和空闲区分析形成不确定性栅格地图;
步骤(6)对障碍区和空闲区分析形成机器人工作环境的不确定性栅格地图。
所述步骤(3)对于地面模型的提取采用的方法是在一个空旷无障碍物的环境下采集深度图,根据Kinect的成像原理,可以得知深度图像具有以下性质:(1)与图像的特征无关,只与距离有关。(2)灰度值变化方向与Kinect深度相机所拍摄的视场方向z轴方向一致,而且随着距离的增加灰度值会变大。所以检测到与Kinect距离相同的地面的深度信息是相同的。设定Kinect传感器与地面相对高度和俯仰角不变的条件下,在一个空旷无障碍物的环境下采集深度图,当距离超过一定阈值后Kinect已检测不到前方的地面数据,所以只取Kinect能检测到的地面数据,其他地方都视为无效数据记为0;由于Kinect传感器本身性能的限制,其对于近处地面信息采集的比较好,远处比较差,越近的地方采集到的数据越完整,而远处采集到的数据不完整且误差较大,所以还要对其进行处理;深度图像每一行记录了与Kinect相同距离下的地面深度信息,对其进行行扫描记录每一行的深度信息,除去无效数据的深度信息,对剩下的数据进行加权平均所得到的最后数据即为该处的地面深度信息;处理好每一行的数据记录下并生成一个地面模型模板;这样就得到一个地面模型;将地面模型中的数据保存在程序根目录下。
所述步骤(5)地图的区域分为空闲区,障碍区和未知区。空闲区设为所检测到的地面区域,障碍区设为所检测到有障碍物的区域,未知区域设为除了地面和障碍物的其他区域。用结构体来记录栅格信息。其中包括栅格的状态标识,栅格的置信度,栅格的颜色。具体操作包括如下步骤:
(1)空闲区域检测算法:将Kinect采集到的深度数据和所得到的地面深度数据进行比较,若地面深度数据和采集到的深度数据之差小于一定阈值则保存地面深度数据,否则将数据置为0。所得到的为地面深度信息,将其映射到世界坐标系下并记录所占用的栅格信息。
(2)障碍区域检测算法:将Kinect采集到的深度数据和所得到的地面深度数据进行比较,若地面深度数据和采集到的深度数据之差小于一定阈值则将数据置为0,否则保留采集到的深度数据。所得到的为障碍物深度信息,将其进行深度数据列扫描分析后映射到世界坐标系下并记录所占用的栅格信息。
通过Kinect传感器采集深度数据的特性以及障碍物置信度确定模型分析得出确定障碍物置信度的公式。得到不确定性栅格地图。
优点及效果:
本发明使用Kinect传感器实现局部栅格地图的构建工作,将环境分为三部分空闲区,障碍区和未知区;机器人可以在空闲区运动,无法在障碍区运动,对应未知区需要重新检测。与视觉传感器相比,本发明不但能获取环境的颜色信息还能获取距离信息,可以更好的构建地图;与超声传感器相比,本发明获得的环境信息更加精细,精度更高;与激光传感器相比,本发明所检测的范围更大,并能获得三维信息,同时性价比也更高。
本发明对Kinect传感器所采集到的深度图进行地面模型剪切处理去除了地面对障碍物检测的影响,通过对障碍物深度图的列扫描法,实现了对障碍物的快速检测;根据Kinect传感器自身的局限,建立障碍物栅格置信度模型确定栅格障碍物置信度,实现了栅格的不确定性建立,使得地图的建立更加精确。最终本发明可以准确的检测出周围环境并建立不确定性栅格地图,为机器人完成避障、导航、路径规划等其他任务提供了前提和条件。
附图说明:
图1为原始地面深度图;
图2为处理后的地面深度图;
图3为原始深度图;
图4为剪切完地面模型后的障碍物深度图;
图5为剪切完障碍物后的地面深度图
图6为障碍物分布坐标系
图7为不确定性栅格地图
图8为障碍物置信度确定模型
具体实施方式:下面结合附图对本发明加以具体描述:
本发明一种基于Kinect传感器深度图的机器人工作环境不确定性地图构建方法,包括如下步骤:
步骤一:机器人使用Kinect传感器采集深度数据。该步骤使用Kinect传感器,将采集到的深度数据存在一维数组中用于接下来的处理。
步骤二:对采集的深度数据进行预处理,得到深度数据图。本发明首先需要将深度信息映射到颜色信息以便于图像显示,经实验测试得出Kinect所能检测到有效距离为10米之内,所以将0到10米映射到0到255之间,即将距离映射到颜色从而实现深度图的显示。得到深度信息颜色图。如图3所示。
步骤三:采集地面深度数据并进行地面模型提取,由于Kinect采集的深度信息只与距离有关,所以与Kinect距离相同的地面的深度信息应该是相同的。那么就可以提取地面信息作为一个模板。
在此步骤中,本发明采用的方法是在一个空旷无障碍物的环境下采集深度图,根据Kinect的成像原理,可以得知深度图像具有以下性质:(1)与图像的特征无关,只与距离有关。(2)灰度值变化方向与Kinect深度相机所拍摄的视场方向z轴方向一致,而且随着距离的增加灰度值会变大。所以检测到与Kinect距离相同的地面的深度信息是相同的。设定Kinect传感器与地面相对高度和俯仰角不变的条件下,在一个空旷无障碍物的环境下采集深度图,当距离超过一定阈值后Kinect已检测不到前方的地面数据,所以只取Kinect能检测到的地面数据,其他地方都视为无效数据记为0。由于Kinect传感器本身性能的限制,其对于近处地面信息采集的比较好,远处比较差,越近的地方采集到的数据越完整,而远处采集到的数据不完整且误差较大,所以还要对其进行处理。深度图像每一行记录了与Kinect相同距离下的地面深度信息,对其进行行扫描记录每一行的深度信息,除去检测到为0的深度信息,对剩下的数据进行加权平均所得到的最后数据即为该处的地面深度信息。处理好每一行的数据记录下并生成一个地面模型模板,这样就可以得到一个地面模型。地面模型中的数据保存在程序根目录下。原始地面深度图如图1所示,处理好的地面模型深度图如图2所示。
步骤四:对深度图进行障碍物剪切得到地面深度图,对障碍物深度图进行检测并识别障碍区域,对地面深度图进行检测并识别空闲区域,对障碍区和空闲区分析形成不确定性栅格地图。
障碍区域检测算法:
障碍物区域检测算法具体的实现步骤如下:
(1)将Kinect采集到的深度数据与所得到的地面深度数据进行比较,若地面深度数据和采集到的深度数据之差小于一定阈值则将数据置为0,否则保留采集到的深度数据。得到障碍物深度数据图4所示。
(2)对得到的深度图用扫描法进行列扫描,以第一列为例:当扫到第一个非0数字时,记录该数字为第一个障碍物的种子点,当扫到第二个非0数字时,和第一个比较,若两者之差小于一定的阈值则两者合并为一个种子点,取两者的平均值为新的种子点。若两者之差超过一定的阈值则记录后者为新的种子点。直到扫描完一列为止。以结构体来记录每一列的障碍物信息,其中包括障碍物的个数,障碍物的距离,障碍物所包含的像素点的个数,障碍物顶端坐标,障碍物底端坐标。
(3)不断重复步骤2得到所有列的所有不同的障碍物的各项信息,对不同的障碍物进行判断,除去障碍物所包含的像素点的个数小于一定阈值的所有障碍物。
(4)根据步骤3可以得到一个横坐标为图像的像素点位置,纵坐标为实际距离的坐标系。坐标系中每一个点代表障碍物。结果如图6所示。
(5)根据步骤4得到的坐标系再次转换为实际距离坐标下的障碍物显示;需要对图像坐标系到摄像机坐标系再到世界坐标系的转换;利用公式(1)得到障碍物数据从图像坐标系转换为世界坐标系下的坐标;
dz=depth(u,v)
其中上式中dx表示像素点(u,v)相对中心位置(u0,v0)在X方向上的偏移距离,dz表示该点对应的深度距离,fx为摄像机的内部参数表示X方向的焦距,设为一个定值;
(6)判断障碍物数据在世界坐标系下属于哪个栅格,并记录该栅格;
空闲区域检测算法:
空闲区域检测算法具体的实现步骤如下:
(1)将Kinect采集到的深度数据和所得到的地面深度数据进行比较,若地面深度数据和采集到的深度数据之差小于一定阈值则保存地面深度数据,否则将数据置为0。得到的地面深度数据图如图5所示。
(2)利用公式(1)得到地面数据从图像坐标系转换为世界坐标系下的坐标;
(3)判断地面数据在世界坐标系下属于哪个栅格,并记录该栅格。
步骤五:对障碍物进行置信度分析从而确定障碍物的置信度。
障碍物置信度确认算法具体实现步骤如下:
由于Kinect对距离的测量存在误差所以需要对栅格进行置信度分析。由于Kinect所检测到的深度数据随着距离的增大,误差也随着变大。而且两者之间存在着一定比例如公式(2)。
上式中σz表示距离为z处的误差,f表示深度摄像机的焦距,b表示基线长度(红外发射端与接收端的距离),m表示归一化的参数,z表示实际深度距离,σd表示二分之一的像素距离。
障碍物置信度确定模型见图8:
得到障碍物置信度确定模型;若检测到该栅格上有障碍物,落在栅格上的概率为(grid_length-2*σz)2/grid_length2。可以得到计算栅格置信度的公式(3)。
上式中p表示栅格的置信度,f1,f2表示两种影响置信度的数据所占的比例。E表示误差对栅格置信度的影响,R表示栅格长度对栅格置信度的影响,σMax表示最远处的最大误差,zmax表示所能检测到的最远距离,grid_length表示栅格的实际长度。
所定的栅格为每个像素点代表实际距离4cm,每个栅格代表实际为12cm平方的栅格,整个局部地图表示的实际范围为10m平方的环境。结果如图7所示。

Claims (5)

1.一种基于Kinect传感器深度图机器人工作环境不确定性地图构建法,其特征在于:该方法包括有以下步骤:
步骤(1):机器人使用Kinect传感器采集深度数据;
步骤(2):对采集的深度数据进行预处理,得到深度数据图;
步骤(3):采集地面深度数据并进行地面模型提取;
步骤(4):对深度数据图进行地面模型剪切处理得到障碍物深度图,再对原深度数据图与障碍物深度图进行剪切处理得到地面深度图;
步骤(5):对障碍物深度图进行检测并识别障碍区域,对地面深度图进行检测并识别空闲区域;
步骤(6)对障碍区和空闲区分析形成机器人工作环境的不确定性栅格地图;
所述步骤(5)地图的区域分为空闲区,障碍区和未知区;空闲区设为所检测到的地面区域,障碍区设为所检测到有障碍物的区域,未知区域设为除了地面和障碍物的其他区域;以结构体来记录栅格信息;其中包括栅格的状态标识,栅格的置信度,栅格的颜色;具体操作包括如下步骤:
空闲区域检测算法:
空闲区域检测算法具体的实现步骤如下:
(1)将Kinect采集到的深度数据和所得到的地面深度数据进行比较,若地面深度数据和采集到的深度数据之差小于一定阈值则保存地面深度数据,否则将数据置为0;所得到的为地面深度信息,将其映射到世界坐标系下并记录所占用的栅格信息;
(2)利用公式(1)得到地面数据从图像坐标系转换为世界坐标系下的坐标;
(3)判断地面数据在世界坐标系下属于哪个栅格,并记录该栅格;
障碍区域检测算法:
障碍物区域检测算法具体的实现步骤如下:
(1)将Kinect采集到的深度数据与所得到的地面深度数据进行比较,若地面深度数据和采集到的深度数据之差小于一定阈值则将数据置为0,否则保留采集到的深度数据;所得到的为障碍物深度信息,将其进行深度数据列扫描分析后映射到世界坐标系下并记录所占用的栅格信息;
(2)对得到的深度图用扫描法进行列扫描,以第一列为例:当扫到第一个非0数字时,记录该数字为第一个障碍物的种子点,当扫到第二个非0数字时,和第一个比较,若两者之差小于一定的阈值则两者合并为一个种子点,取两者的平均值为新的种子点;若两者之差超过一定的阈值则记录后者为新的种子点;直到扫描完一列为止;以结构体来记录每一列的障碍物信息,其中包括障碍物的个数,障碍物的距离,障碍物所包含的像素点的个数,障碍物顶端坐标,障碍物底端坐标;
(3)不断重复步骤2得到所有列的所有不同的障碍物的各项信息,对不同的障碍物进行判断,除去障碍物所包含的像素点的个数小于一定阈值的所有障碍物;
(4)根据步骤3得到一个横坐标为图像的像素点位置,纵坐标为实际距离的坐标系;
(5)根据步骤4得到的坐标系再次转换为实际距离坐标下的障碍物显示;需要对图像坐标系到摄像机坐标系再到世界坐标系的转换;利用公式(1)得到障碍物数据从图像坐标系转换为世界坐标系下的坐标;
dz=depth(u,v)
其中上式中dx表示像素点(u,v)相对中心位置(u0,v0)在X方向上的偏移距离,dz表示该点对应的深度距离,fx为摄像机的内部参数表示X方向的焦距,设为一个定值;
(6)判断障碍物数据在世界坐标系下属于哪个栅格,并记录该栅格。
2.根据权利要求1所述基于Kinect传感器深度图机器人工作环境不确定性地图构建法:其特征在于:所述步骤(3)对于地面模型的提取采用的方法是在一个空旷无障碍物的环境下采集深度图,根据Kinect的成像原理,可以得知深度图像具有以下性质:(1)与图像的特征无关,只与距离有关;(2)灰度值变化方向与Kinect深度相机所拍摄的视场方向z轴方向一致,而且随着距离的增加灰度值会变大;所以检测到与Kinect距离相同的地面的深度信息是相同的;设定Kinect传感器与地面相对高度和俯仰角不变的条件下,在一个空旷无障碍物的环境下在采集深度图,当距离超过一定阈值后Kinect已检测不到前方的地面数据,所以只取Kinect能检测到的地面数据,其他地方都视为无效数据记为0;由于Kinect传感器本身性能的限制,其对于近处地面信息采集的比较好,远处比较差,越近的地方采集到的数据越完整,而远处采集到的数据不完整且误差较大,所以还要对其进行处理;深度图像每一行记录了与Kinect相同距离下的地面深度信息,对其进行行扫描记录每一行的深度信息,除去无效数据的深度信息,对剩下的数据进行加权平均所得到的最后数据即为该处的地面深度信息;处理好每一行的数据记录下并生成一个地面模型模板;这样就得到一个地面模型;将地面模型中的数据保存在程序根目录下。
3.根据权利要求1所述的基于Kinect传感器深度图机器人工作环境不确定性地图构建法:其特征在于:步骤(2)中首先需要将深度信息映射到颜色信息以便于图像显示,经实验测试得出Kinect所能检测到有效距离为10米之内,所以将0到10米映射到0到255之间,即将距离映射到颜色从而实现深度图的显示;得到深度信息颜色图。
4.根据权利要求1所述的基于Kinect传感器深度图机器人工作环境不确定性地图构建法,其特征在于:通过Kinect传感器采集深度数据的特性以及障碍物置信度确定模型分析得出确定障碍物置信度的公式,得到不确定性栅格地图;
障碍物置信度确认算法具体实现步骤如下:
(1)由于Kinect对距离的测量存在误差所以需要对栅格进行置信度分析;由于Kinect所检测到的深度数据随着距离的增大,误差也随着变大;而且两者之间存在着一定比例如公式(3):
上式中σz表示距离为z处的误差,f表示深度摄像机的焦距,b表示基线长度(红外发射端与接收端的距离),m表示归一化的参数,z表示实际深度距离,σd表示二分之一的像素距离;
(2)得到障碍物置信度确定模型;若检测到该栅格上有障碍物,落在栅格上的概率为(grid_length-2*σz)2/grid_length2;得到计算栅格置信度的公式(4);
上式中p表示栅格的置信度,f1,f2表示两种影响置信度的数据所占的比例;E表示误差对栅格置信度的影响,R表示栅格长度对栅格置信度的影响,σMax表示最远处的最大误差,zmax表示所能检测到的最远距离,grid_length表示栅格的实际长度。
5.根据权利要求4所述的基于Kinect传感器深度图机器人工作环境不确定性地图构建法,其特征在于:所定的栅格为每个像素点代表实际距离4cm,每个栅格代表实际为12cm平方的栅格,整个局部地图表示的实际范围为10m平方的环境。
CN201510891318.8A 2015-12-07 2015-12-07 基于Kinect传感器深度图机器人工作环境不确定性地图构建法 Expired - Fee Related CN105700525B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510891318.8A CN105700525B (zh) 2015-12-07 2015-12-07 基于Kinect传感器深度图机器人工作环境不确定性地图构建法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510891318.8A CN105700525B (zh) 2015-12-07 2015-12-07 基于Kinect传感器深度图机器人工作环境不确定性地图构建法

Publications (2)

Publication Number Publication Date
CN105700525A CN105700525A (zh) 2016-06-22
CN105700525B true CN105700525B (zh) 2018-09-07

Family

ID=56228182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510891318.8A Expired - Fee Related CN105700525B (zh) 2015-12-07 2015-12-07 基于Kinect传感器深度图机器人工作环境不确定性地图构建法

Country Status (1)

Country Link
CN (1) CN105700525B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426760A (zh) * 2017-08-22 2019-03-05 聚晶半导体股份有限公司 一种道路图像处理方法与道路图像处理装置
CN108227712A (zh) * 2017-12-29 2018-06-29 北京臻迪科技股份有限公司 一种无人船的避障行驶方法及装置
CN108673510A (zh) * 2018-06-20 2018-10-19 北京云迹科技有限公司 机器人安全行进***及方法
CN110728684B (zh) * 2018-07-17 2021-02-02 北京三快在线科技有限公司 地图构建方法、装置、存储介质及电子设备
CN109645892B (zh) * 2018-12-12 2021-05-28 深圳乐动机器人有限公司 一种障碍物的识别方法及清洁机器人
CN110202577A (zh) * 2019-06-15 2019-09-06 青岛中科智保科技有限公司 一种实现障碍物检测的自主移动机器人及其方法
CN110275540A (zh) * 2019-07-01 2019-09-24 湖南海森格诺信息技术有限公司 用于扫地机器人的语义导航方法及其***
CN110531759B (zh) * 2019-08-02 2020-09-22 深圳大学 机器人探索路径生成方法、装置、计算机设备和存储介质
CN110850885A (zh) * 2019-12-20 2020-02-28 深圳市杉川机器人有限公司 自主机器人
CN113063352B (zh) * 2021-03-31 2022-12-16 深圳中科飞测科技股份有限公司 检测方法及装置、检测设备和存储介质
CN114004874B (zh) * 2021-12-30 2022-03-25 贝壳技术有限公司 占用栅格地图的获取方法和装置
CN115022808B (zh) * 2022-06-21 2022-11-08 北京天坦智能科技有限责任公司 一种通信机器人的即时定位和无线电地图构建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102938142A (zh) * 2012-09-20 2013-02-20 武汉大学 基于Kinect的室内LiDAR缺失数据填补方法
CN104677347A (zh) * 2013-11-27 2015-06-03 哈尔滨恒誉名翔科技有限公司 一种基于Kinect生成三维导航地图室内移动机器人
CN104794748A (zh) * 2015-03-17 2015-07-22 上海海洋大学 基于Kinect视觉技术的三维空间地图构建方法
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102938142A (zh) * 2012-09-20 2013-02-20 武汉大学 基于Kinect的室内LiDAR缺失数据填补方法
CN104677347A (zh) * 2013-11-27 2015-06-03 哈尔滨恒誉名翔科技有限公司 一种基于Kinect生成三维导航地图室内移动机器人
CN104794748A (zh) * 2015-03-17 2015-07-22 上海海洋大学 基于Kinect视觉技术的三维空间地图构建方法
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
室内环境下多机器人协作建图方法的研究;申丽曼;《中国优秀硕士学位论文全文数据库》;20071215(第6期);第4.2.2节 *

Also Published As

Publication number Publication date
CN105700525A (zh) 2016-06-22

Similar Documents

Publication Publication Date Title
CN105700525B (zh) 基于Kinect传感器深度图机器人工作环境不确定性地图构建法
CN111486855B (zh) 一种具有物体导航点的室内二维语义栅格地图构建方法
CN106780612B (zh) 一种图像中的物体检测方法及装置
Rottensteiner et al. The ISPRS benchmark on urban object classification and 3D building reconstruction
US9292922B2 (en) Point cloud assisted photogrammetric rendering method and apparatus
CN107092877A (zh) 基于建筑物基底矢量的遥感影像屋顶轮廓提取方法
CN104536009A (zh) 一种激光红外复合的地面建筑物识别及导航方法
CN112798811B (zh) 速度测量方法、装置和设备
CN111709988B (zh) 一种物体的特征信息的确定方法、装置、电子设备及存储介质
CN114782626A (zh) 基于激光与视觉融合的变电站场景建图及定位优化方法
CN101246595A (zh) 光学三维扫描***中多视点云数据拼合方法
CN116399302B (zh) 基于双目视觉和神经网络模型实时监测强夯夯沉量的方法
CN113096183A (zh) 一种基于激光雷达与单目相机的障碍物检测与测量方法
Lalonde et al. Automatic three-dimensional point cloud processing for forest inventory
CN115511878A (zh) 一种边坡地表位移监测方法、装置、介质及设备
Jiang et al. Determination of construction site elevations using drone technology
CN106709432A (zh) 基于双目立体视觉的人头检测计数方法
CN110136186A (zh) 一种用于移动机器人目标测距的检测目标匹配方法
CN111696147B (zh) 一种基于改进YOLOv3模型的深度估计方法
CN115601517A (zh) 岩体结构面信息采集方法、装置、电子设备及存储介质
CN115661453A (zh) 一种基于下视角相机的塔吊吊物检测分割方法及***
Rezaeian et al. Automatic classification of collapsed buildings using object and image space features
CN114092805A (zh) 一种基于建筑模型的机器狗识别裂痕方法
Meng et al. Precise determination of mini railway track with ground based laser scanning
Chen et al. Object recognition and localization based on kinect camera in complex environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180907

Termination date: 20191207

CF01 Termination of patent right due to non-payment of annual fee