CN112288751A - 一种自动扫地装置及控制算法 - Google Patents

一种自动扫地装置及控制算法 Download PDF

Info

Publication number
CN112288751A
CN112288751A CN202011081207.8A CN202011081207A CN112288751A CN 112288751 A CN112288751 A CN 112288751A CN 202011081207 A CN202011081207 A CN 202011081207A CN 112288751 A CN112288751 A CN 112288751A
Authority
CN
China
Prior art keywords
coordinate system
camera
cam
image
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011081207.8A
Other languages
English (en)
Inventor
董宇青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011081207.8A priority Critical patent/CN112288751A/zh
Publication of CN112288751A publication Critical patent/CN112288751A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本申请提供一种自动扫地装置及控制算法,包括单目摄像头及扫地机器人,所述单目摄像头固定在室内对应地面区域的上方,所述扫地机器人顶面设有定位靶标。本申请的有益效果是:通过单目摄像头对室内地面进行图像采集,实现对扫地机器人工作的地面环境的一次性快速建图,再通过视觉算法快速识别地面可通行区域,不需要现有技术中扫地机器人在运动中逐渐建图的过程,提高了扫地机器人地面建图的工作效率,而且由于摄像头的帧率较现有技术中的单线激光雷达的扫描频率明显提高,使得地面建图实时性明显提高,进而使得扫地机器人的工作效率提高而且增加扫地机器人工作的实时性,更加灵活地适应工作环境。

Description

一种自动扫地装置及控制算法
技术领域
本公开涉及扫地机器人技术领域,具体涉及一种自动扫地装置及控制算法。
背景技术
现有的扫地机器人多利用集成在自身本体上的单线激光雷达实现室内空间的建图和重定位。基于单线激光雷达原理的扫地机器人存在以下缺点:
1、激光雷达成本一般较高,进而增加的扫地机器人整体的生产成本;
2、机械雷达高速旋转过程中经常受地面不平导致的震动后容易发生损坏;
3、在室内物体的位置发生移动时,激光雷达需要重新建图,因此对室内地面建图时间长、实时性差;
4、由于激光避障需要一定的高度范围,因此对于低于激光避障高度的障碍物无法获取感知,如宠物粪便、婴儿玩具等,因此会对扫地机器人的工作质量及效果产生影响。
发明内容
本申请的目的是针对以上问题,提供一种自动扫地装置及控制算法。
第一方面,本申请提供一种自动扫地装置,包括单目摄像头及扫地机器人,所述单目摄像头固定在室内对应地面区域的上方,所述扫地机器人顶面设有定位靶标。
根据本申请实施例提供的技术方案,所述单目摄像头设置为广角摄像头。
根据本申请实施例提供的技术方案,还包括计算平台,所述计算平台与所述单目摄像头及扫地机器人分别信号连接。
根据本申请实施例提供的技术方案,所述定位靶标包括头部靶标与尾部靶标分别贴设在扫地机器人顶面的前后两端。
第二方面,本申请提供一种自动扫地装置的控制算法,包括以下步骤:
标定单目摄像头参数;
获取室内空间图像;
对室内空间图像进行图像分割获得图像可通行区域;
将图像可通行区域映射至地面上对应的实际可通行区域;
获取扫地机器人在地面上的图像,并识别扫地机器人上定位靶标的像素位置;
将定位靶标像素位置映射至地面上对应的实际位置。
根据本申请实施例提供的技术方案,所述标定单目摄像头参数,具体包括:
摄像头坐标系中的地平面可表示为以下公式:
A*xcam+B*ycam+C*zcam+1=0 (1)
其中:(xcam,ycam,zcam)为摄像头坐标系中地平面中任意点的坐标;
世界坐标系中的地平面是zworld=0的特殊平面,在世界坐标系中选任意三点(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)且三个任意点为非共线的三点;
摄像头坐标系与世界坐标系存在以下对应关系:
Figure BDA0002718756460000021
其中:R3×3,T3×1为单目摄像头的外参参数,在单目摄像头固定安装后通过相机标定即可获得;
将(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)三点分别代入(2)公式即可分别得到(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam);
将(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam)分别代入(1)公式,即可计算得出摄像头坐标系中的地平面表达式中的未知参数A、B、C。
根据本申请实施例提供的技术方案,所述将图像可通行区域映射至地面上对应的实际可通行区域,具体包括以下步骤:
将图像可通行区域中的各点的二维坐标映射至摄像头坐标系中得到相应的三维坐标;
将摄像头坐标系中得到的三维坐标映射至世界坐标系中得到相应的实际的三维坐标。
根据本申请实施例提供的技术方案,所述将图像可通行区域中的各点的二维坐标映射至摄像头坐标系中得到相应的三维坐标,具体包括:
通过图像分割得到的图像可通行区域中的各点的集合可表示为:{(x1ccd,y1ccd),(x2ccd,y2ccd)…(xnccd,ynccd)},由于图像上的各点坐标满足摄像头的内参公式:
Figure BDA0002718756460000031
其中:M2×3为单目摄像头的内参参数,由单目摄像头标定获得;
将图像可通行区域中的任意一点(x1ccd,y1ccd)代入(3)公式,得到两个方程组成的关于xcam、ycam、zcam的联立方程组,由于xcam、ycam、zcam同时还满足(1)公式,因此得到关于xcam、ycam、zcam三个未知数的新方程,此时联立方程组得到三个未知数和三个独立方程,因此可求得图像可通行区域中的任意一点(x1ccd,y1ccd)对应的摄像头坐标系的三维坐标(x1cam,y1cam,z1cam),
同理可得到图像可通行区域中各点集合{(x1ccd,y1ccd),(x2ccd,y2ccd)…(xnccd,ynccd)}所对应的摄像头坐标系中的三维坐标点集合为{(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam)…(xncam,yncam,zncam)},从而得到第一映射关系。
根据本申请实施例提供的技术方案,所述将摄像头坐标系中得到的三维坐标映射至世界坐标系中得到相应的实际的三维坐标,具体包括:将摄像头坐标系中的各点(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam)…(xncam,yncam,zncam)代入(2)公式,得到对应的世界坐标系中的坐标(x1world,y1world,z1world),(x2world,y2world,z2world)…(xnworld,ynworld,znworld),从而得到第二映射关系。
本发明的有益效果:本申请提供一种自动扫地装置及控制算法,通过单目摄像头对室内地面进行图像采集,实现对扫地机器人工作的地面环境的一次性快速建图,再通过视觉算法快速识别地面可通行区域,不需要现有技术中扫地机器人在运动中逐渐建图的过程,提高了扫地机器人地面建图的工作效率,而且单目摄像头较单线激光雷达成本明显降低,节省扫地装置的整体成本;由于摄像头的帧率较现有技术中的单线激光雷达的扫描频率明显提高,使得地面建图实时性明显提高,进而使得扫地机器人的工作效率提高而且增加扫地机器人工作的实时性,更加灵活地适应工作环境。而且本申请通过摄像头获取地面的彩色图像,丰富的彩色图像信息有助于更加准确地识别地面情况,从而利于扫地机器人根据地面实际情况进行工作。
附图说明
图1为本申请第二种实施例的流程图。
具体实施方式
为了使本领域技术人员更好地理解本发明的技术方案,下面结合附图对本申请进行详细描述,本部分的描述仅是示范性和解释性,不应对本申请的保护范围有任何的限制作用。
本申请的第一种实施例是一种自动扫地装置,包括单目摄像头及扫地机器人,所述单目摄像头固定在室内对应地面区域的上方,所述扫地机器人顶面设有定位靶标。
本实施例中,扫地机器人放置在室内地面上,用于对地面进行清扫、清洁,单目摄像头固定在室内地面上方,例如室内屋顶上或者墙壁中上部。本实施例中扫地机器人的工作范围是室内地面的工作情景,在其他实施例中,扫地机器人还可以工作在室外环境,只需将单目摄像头设置在室外环境的高处,扫地机器人对单目摄像头获取图像范围内的地面进行清扫、清洁。
本实施例中,将定位靶标贴设在扫地机器人的顶面便于单目摄像头对扫地机器人进行识别定位。
本实施例采用单目视觉的技术手段实现对地面上的扫地机器人进行先建图再重定位,不同于现有技术中单线激光雷达的先重定位再建图的过程,单目视觉的技术手段通过对地面图像的获取即可完成建图过程,而现有技术的单线激光雷达需通过地面上的扫地机器人在地面上运行遍历过后才完成地面的建图过程,而且单目摄像头即单目视觉技术手段可快速建图,提高了扫地机器人地面建图的工作效率;而且由于摄像头的帧率较现有技术中的单线激光雷达的扫描频率明显提高,使得地面建图实时性明显提高,进而使得扫地机器人的工作效率提高而且增加扫地机器人工作的实时性,更加灵活地适应工作环境。
本实施例中单目视觉的技术手段相较于单线激光雷达的技术手段使用成本降低、稳定性高、使用寿命长。而且通过摄像头获取地面的彩色图像,丰富的彩色图像信息有助于更加准确地识别地面情况,从而利于扫地机器人根据地面实际情况进行工作,不存在激光雷达技术手段中低于避障高度的障碍物无法获取的缺陷,因此能够更加准确、全面的掌握地面情况,提高扫地机器人的清洁质量及效率。
在一优选实施方式中,所述单目摄像头设置为广角摄像头。采用广角摄像头可以获得更大的视场,获取更大的工作区域图像,因此扩大扫地机器人的工作范围。
本实施例中,还包括计算平台,所述计算平台与所述单目摄像头及扫地机器人分别信号连接。本实施例中,计算平台是基于arm平台的计算模块,例如:英伟达的jetsonnano,在其他实施例中计算平台还可以是工控机、fpga分布式计算平台、云端服务器等。本实施例中,计算平台为扫地装置的控制计算中心。
在一优选实施方式中,所述定位靶标包括头部靶标与尾部靶标分别贴设在扫地机器人顶面的前后两端。本优选实施方式中,定位靶标包括两部分,并分别设置在扫地机器人的两端用于单目摄像头对扫地机器人进行方向性的定位识别。本优选实施方式中,定位靶标可采用棋盘格靶标、圆形靶标或者二维码靶标。
如图1所示为本申请的第二种实施例的流程图,本实施例是对第一种实施例的装置进行控制的算法,包括以下步骤:
S1、标定单目摄像头参数。
本步骤具体包括:
摄像头坐标系中的地平面可表示为以下公式:
A*xcam+B*ycam+C*zcam+1=0 (1)
其中:(xcam,ycam,zcam)为摄像头坐标系中地平面中任意点的坐标;本实施例中,摄像头坐标系为以摄像头的光心为原点,光轴为z轴的右手坐标系;
世界坐标系中的地平面是zworld=0的特殊平面,在世界坐标系中选任意三点(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)且三个任意点为非共线的三点;
摄像头坐标系与世界坐标系存在以下对应关系:
Figure BDA0002718756460000071
其中:R3×3,T3×1为单目摄像头的外参参数,在单目摄像头固定安装后通过相机标定即可获得;本实施例中(2)公式为摄像头的外参标定公式,为现有已知技术,通过摄像头的外参标定过程即可获知R3×3,T3×1
将(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)三点分别代入(2)公式即可分别得到(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam);
将(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam)分别代入(1)公式,即可计算得出摄像头坐标系中的地平面表达式中的未知参数A、B、C。
本实施例中,在地面上任取三个不共面的点也即世界坐标系中的zworld=0的三个点,由于世界坐标系中的点与摄像头坐标系中的点存在(2)公式的对应关系,因此将(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)三点分别代入(2)公式即可分别得到(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam)又由于摄像头坐标系中的各点均满足(1)公式,因此将(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam)分别代入(1)公式即可求得未知参数A、B、C。
S2、获取室内空间图像。
本步骤中,单目摄像头按照摄像头的帧率对室内空间尤其是地面环境进行快速地、实时地图像获取。单目摄像头的帧率为30fps,单线激光雷达的扫描频率为8-15帧,因此单目摄像头具有更快的响应速度,快速建图。
S3、对室内空间图像进行图像分割获得图像可通行区域。
本步骤中,将摄像头获取的图像利用深度学习方法将单帧图片的所有像素点分割为两类:可通行区域及障碍物。本实施例中,在像素点分类前需先进行模型训练,包括以下步骤:
单目摄像头采集工作空间图像;
利用人工标注的方法将获取的图像中需要清扫的位置标注成可通行区域标签;
利用标注的标签将其作为groundtruth进行模型训练。
S4、将图像可通行区域映射至地面上对应的实际可通行区域。
本步骤具体包括:
S41、将图像可通行区域中的各点的二维坐标映射至摄像头坐标系中得到相应的三维坐标。
本步骤具体包括:
通过图像分割得到的图像可通行区域中的各点的集合可表示为:{(x1ccd,y1ccd),(x2ccd,y2ccd)…(xnccd,ynccd)},由于图像上的各点坐标满足摄像头的内参公式:
Figure BDA0002718756460000091
其中:M2×3为单目摄像头的内参参数,由单目摄像头标定获得;
将图像可通行区域中的任意一点(x1ccd,y1ccd)代入(3)公式,得到两个方程组成的关于xcam、ycam、zcam的联立方程组,由于xcam、ycam、zcam同时还满足(1)公式,因此得到关于xcam、ycam、zcam三个未知数的新方程,此时联立方程组得到三个未知数和三个独立方程,因此可求得图像可通行区域中的任意一点(x1ccd,y1ccd)对应的摄像头坐标系的三维坐标(x1cam,y1cam,z1cam),
同理可得到图像可通行区域中各点集合{(x1ccd,y1ccd),(x2ccd,y2ccd)…(xnccd,ynccd)}所对应的摄像头坐标系中的三维坐标点集合为{(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam)…(xncam,yncam,zncam)},从而得到第一映射关系。
S42、将摄像头坐标系中得到的三维坐标映射至世界坐标系中得到相应的实际的三维坐标。
本步骤具体包括:将摄像头坐标系中的各点(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam)…(xncam,yncam,zncam)代入(2)公式,得到对应的世界坐标系中的坐标(x1world,y1world,z1world),(x2world,y2world,z2world)…(xnworld,ynworld,znworld),从而得到第二映射关系。
本实施例中通过第一映射关系及第二映射关系的推导可得到图像中的可通行区域所对应的世界坐标系中的实际区域。
S5、获取扫地机器人在地面上的图像,并识别扫地机器人上定位靶标的像素位置。
本步骤中,图像识别靶标算法为现有技术中的成熟算法,在此不再赘述。
S6、将定位靶标像素位置映射至地面上对应的实际位置。
本步骤中的映射关系推导过程参照S41-S42步骤的推导过程,但由于约束平面由zworld=0变更为zworld=hRob,因此(1)公式中的A、B、C参数变更为A’、B’、C’。
本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实例的说明只是用于帮助理解本申请的方法及其核心思想。以上所述仅是本申请的优选实施方式,应当指出,由于文字表达的有限性,而客观上存在无限的具体结构,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进、润饰或变化,也可以将上述技术特征以适当的方式进行组合;这些改进润饰、变化或组合,或未经改进将申请的构思和技术方案直接应用于其它场合的,均应视为本申请的保护范围。

Claims (9)

1.一种自动扫地装置,用于室内地面区域清洁,其特征在于,包括单目摄像头及扫地机器人,所述单目摄像头固定在室内对应地面区域的上方,所述扫地机器人顶面设有定位靶标。
2.根据权利要求1所述的自动扫地装置,其特征在于,所述单目摄像头设置为广角摄像头。
3.根据权利要求1所述的自动扫地装置,其特征在于,还包括计算平台,所述计算平台与所述单目摄像头及扫地机器人分别信号连接。
4.根据权利要求1所述的自动扫地装置,其特征在于,所述定位靶标包括头部靶标与尾部靶标分别贴设在扫地机器人顶面的前后两端。
5.一种应用权利要求1-4所述的自动扫地装置的控制算法,其特征在于,包括以下步骤:
标定单目摄像头参数;
获取室内空间图像;
对室内空间图像进行图像分割获得图像可通行区域;
将图像可通行区域映射至地面上对应的实际可通行区域;
获取扫地机器人在地面上的图像,并识别扫地机器人上定位靶标的像素位置;
将定位靶标像素位置映射至地面上对应的实际位置。
6.根据权利要求1所述的自动扫地装置的控制算法,其特征在于,所述标定单目摄像头参数,具体包括:
摄像头坐标系中的地平面可表示为以下公式:
A*xcam+B*ycam+C*zcam+1=0 (1)
其中:(xcam,ycam,zcam)为摄像头坐标系中地平面中任意点的坐标;
世界坐标系中的地平面是zworld=0的特殊平面,在世界坐标系中选任意三点(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)且三个任意点为非共线的三点;
摄像头坐标系与世界坐标系存在以下对应关系:
Figure FDA0002718756450000021
其中:R3×3,T3×1为单目摄像头的外参参数,在单目摄像头固定安装后通过相机标定即可获得;
将(x1world,y1world,0),(x2world,y2world,0),(x3world,y3world,0)三点分别代入(2)公式即可分别得到
Figure FDA0002718756450000022
(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam);
将(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam),(x3cam,y3cam,z3cam)分别代入(1)公式,即可计算得出摄像头坐标系中的地平面表达式中的未知参数A、B、C。
7.根据权利要求6所述的自动扫地装置的控制算法,其特征在于,所述将图像可通行区域映射至地面上对应的实际可通行区域,具体包括以下步骤:
将图像可通行区域中的各点的二维坐标映射至摄像头坐标系中得到相应的三维坐标;
将摄像头坐标系中得到的三维坐标映射至世界坐标系中得到相应的实际的三维坐标。
8.根据权利要求7所述的自动扫地装置的控制算法,其特征在于,所述将图像可通行区域中的各点的二维坐标映射至摄像头坐标系中得到相应的三维坐标,具体包括:
通过图像分割得到的图像可通行区域中的各点的集合可表示为:{(x1ccd,y1ccd),(x2ccd,y2ccd)...(xnccd,ynccd)},由于图像上的各点坐标满足摄像头的内参公式:
Figure FDA0002718756450000031
其中:M2×3为单目摄像头的内参参数,由单目摄像头标定获得;
将图像可通行区域中的任意一点(x1ccd,y1ccd)代入(3)公式,得到两个方程组成的关于xcam、ycam、zcam的联立方程组,由于xcam、ycam、zcam同时还满足(1)公式,因此得到关于xcam、ycam、zcam三个未知数的新方程,此时联立方程组得到三个未知数和三个独立方程,因此可求得图像可通行区域中的任意一点(x1ccd,y1ccd)对应的摄像头坐标系的三维坐标(x1cam,y1cam,z1cam),
同理可得到图像可通行区域中各点集合{(x1ccd,y1ccd),(x2ccd,y2ccd)...(xnccd,ynccd)}所对应的摄像头坐标系中的三维坐标点集合为{(x1cam,y1cam,z1cam),(x2cam,y2cam,z2cam)...(xncam,yncam,zncam)},从而得到第一映射关系。
9.根据权利要求8所述的自动扫地装置的控制算法,其特征在于,所述将摄像头坐标系中得到的三维坐标映射至世界坐标系中得到相应的实际的三维坐标,具体包括:将摄像头坐标系中的各点
Figure FDA0002718756450000032
代入(2)公式,得到对应的世界坐标系中的坐标(x1world,y1world,z1world),(x2world,y2world,z2world)...(xnworld,ynworld,znworld),从而得到第二映射关系。
CN202011081207.8A 2020-10-12 2020-10-12 一种自动扫地装置及控制算法 Pending CN112288751A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011081207.8A CN112288751A (zh) 2020-10-12 2020-10-12 一种自动扫地装置及控制算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011081207.8A CN112288751A (zh) 2020-10-12 2020-10-12 一种自动扫地装置及控制算法

Publications (1)

Publication Number Publication Date
CN112288751A true CN112288751A (zh) 2021-01-29

Family

ID=74422800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011081207.8A Pending CN112288751A (zh) 2020-10-12 2020-10-12 一种自动扫地装置及控制算法

Country Status (1)

Country Link
CN (1) CN112288751A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114010104A (zh) * 2021-11-01 2022-02-08 普联技术有限公司 一种清扫面积的统计方法及统计装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413313A (zh) * 2013-08-19 2013-11-27 国家电网公司 基于电力机器人的双目视觉导航***及方法
CN107291080A (zh) * 2017-06-27 2017-10-24 深圳普思英察科技有限公司 一种扫地机器人及避障方法、可读存储介质
CN109472829A (zh) * 2018-09-04 2019-03-15 顺丰科技有限公司 一种物体定位方法、装置、设备和存储介质
CN109497893A (zh) * 2018-12-28 2019-03-22 湖南格兰博智能科技有限责任公司 一种扫地机器人及其判断自身位置的方法
WO2019080229A1 (zh) * 2017-10-25 2019-05-02 南京阿凡达机器人科技有限公司 基于机器视觉的棋子定位方法、***、存储介质及机器人
CN110672020A (zh) * 2019-06-14 2020-01-10 浙江农林大学 一种基于单目视觉的立木高度测量方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413313A (zh) * 2013-08-19 2013-11-27 国家电网公司 基于电力机器人的双目视觉导航***及方法
CN107291080A (zh) * 2017-06-27 2017-10-24 深圳普思英察科技有限公司 一种扫地机器人及避障方法、可读存储介质
WO2019080229A1 (zh) * 2017-10-25 2019-05-02 南京阿凡达机器人科技有限公司 基于机器视觉的棋子定位方法、***、存储介质及机器人
CN109472829A (zh) * 2018-09-04 2019-03-15 顺丰科技有限公司 一种物体定位方法、装置、设备和存储介质
CN109497893A (zh) * 2018-12-28 2019-03-22 湖南格兰博智能科技有限责任公司 一种扫地机器人及其判断自身位置的方法
CN110672020A (zh) * 2019-06-14 2020-01-10 浙江农林大学 一种基于单目视觉的立木高度测量方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FABIO REMONDINO 等: "《飞行时间测距成像相机》", 31 August 2016 *
P. MICHEL ET AL.: "Vision-guided humanoid footstep planning for dynamic environments", 《5TH IEEE-RAS INTERNATIONAL CONFERENCE ON HUMANOID ROBOTS》 *
焦李成 等, 西安电子科技大学出版社 *
谭建豪 等: "《旋翼无人机的建模、规划和控制》", 31 October 2019 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114010104A (zh) * 2021-11-01 2022-02-08 普联技术有限公司 一种清扫面积的统计方法及统计装置

Similar Documents

Publication Publication Date Title
CN109900280B (zh) 一种基于自主导航的畜禽信息感知机器人与地图构建方法
CN111958591B (zh) 一种语义智能变电站巡检机器人自主巡检方法及***
CN108226938B (zh) 一种agv小车的定位***和方法
JP2020085886A (ja) 乗物、乗物測位システム、及び乗物測位方法
CN106774296A (zh) 一种基于激光雷达和ccd摄像机信息融合的障碍检测方法
CN110163963B (zh) 一种基于slam的建图装置和建图方法
WO2015024407A1 (zh) 基于电力机器人的双目视觉导航***及方法
CN105511462B (zh) 一种基于视觉的agv导航方法
CN106584451A (zh) 一种基于视觉导航的变电站自动构图机器人及方法
CN113269837A (zh) 一种适用于复杂三维环境的定位导航方法
WO2019232804A1 (zh) 软件更新方法、***、移动机器人及服务器
CN112819943B (zh) 一种基于全景相机的主动视觉slam***
CN109947097A (zh) 一种基于视觉和激光融合的机器人定位方法及导航应用
CN110766760B (zh) 用于相机标定的方法、装置、设备和存储介质
CN109828267A (zh) 基于实例分割和深度摄像头的变电站巡检机器人障碍物检测和测距方法
CN111461048B (zh) 基于视觉的停车场可行驶区域检测与局部地图构建方法
TWI754808B (zh) 載具、載具定位系統及載具定位方法
CN113409459A (zh) 高精地图的生产方法、装置、设备和计算机存储介质
CN115014338A (zh) 一种基于二维码视觉和激光slam的移动机器人定位***及方法
CN114808649B (zh) 基于视觉***控制的公路划线方法
CN108196538A (zh) 基于三维点云模型的田间农业机器人自主导航***及方法
CN112288751A (zh) 一种自动扫地装置及控制算法
CN116978010A (zh) 图像标注方法和装置、存储介质和电子设备
CN115079143A (zh) 一种用于双桥转向矿卡的多雷达外参快速标定方法及装置
CN109490926B (zh) 一种基于双目相机和gnss的路径规划方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210129