CN112578799A - 四足机器人自主充电方法及自主充电四足机器人 - Google Patents
四足机器人自主充电方法及自主充电四足机器人 Download PDFInfo
- Publication number
- CN112578799A CN112578799A CN202110207114.3A CN202110207114A CN112578799A CN 112578799 A CN112578799 A CN 112578799A CN 202110207114 A CN202110207114 A CN 202110207114A CN 112578799 A CN112578799 A CN 112578799A
- Authority
- CN
- China
- Prior art keywords
- charging pile
- robot
- charging
- dimensional code
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 230000003187 abdominal effect Effects 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 13
- 230000000007 visual effect Effects 0.000 claims description 22
- 210000001015 abdomen Anatomy 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 3
- 206010063385 Intellectualisation Diseases 0.000 abstract description 3
- 230000007774 longterm Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及四足机器人自主充电方法及自主充电四足机器人,包括步骤一、定位建图:机器人在陌生环境中通过其前置深度相机捕获周边环境的特点来实现定位,并从充电桩出发在环境中游走的过程中建立相应的稀疏地图;步骤二、当机器人处于电量不足状态时,机器人开始以充电桩为目的进行路径规划;步骤三、当机器人进入充电桩所在的区域后,机器人开启充电桩检测算法,得到充电桩在真实世界中的坐标位置;步骤四、当充电桩暴露在机器人的腹部相机视野中时,开启四足机器人充电桩精定位算法,获得充电桩在真实世界中的坐标。利用本发明,机器人可以实现精确定位和充电,实现充电的自主化和智能化,继而实现移动机器人长期全自主的独立运行。
Description
技术领域
本发明涉及移动机器人技术领域,尤其涉及四足机器人自主充电方法及自主充电四足机器人。
背景技术
移动机器人(Robot)是自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。
移动机器人需要依靠自身携带的高容量电池,实现较长时间的无绳化运行。但是由于电池容量的限制,移动机器人依然需要频繁的返回充电。为真正实现移动机器人长期全自主的独立运行,必须解决移动机器人自主充电问题。
发明内容
本发明为了解决上述技术问题提供四足机器人自主充电方法及自主充电四足机器人。
本发明通过下述技术方案实现:
四足机器人自主充电方法,包括以下步骤:
步骤一、机器人在陌生环境中通过其前置深度相机捕获周边环境的特点来实现定位,并从充电桩出发在环境中游走的过程中建立相应的稀疏地图;
步骤二、当机器人处于电量不足状态时,机器人开始以充电桩为目的进行路径规划,沿最优路径走向充电桩;
步骤三、当机器人进入充电桩所在的区域后,机器人开启充电桩检测算法,并检测充电桩在RGB图像中的位置;
然后配合RGB图像中的二维坐标信息和前置深度相机的深度信息得到充电桩在真实世界中的坐标位置及大小,并进一步靠近充电桩;
步骤四、当充电桩暴露在机器人的腹部相机视野中时,开启四足机器人充电桩精定位算法,获得充电桩在真实世界中的坐标,机器人调整位姿实现充电。
进一步的,所述步骤一还包括:当稀疏地图建立完成后,机器人将地图分成不同的凸包区域,并明确充电桩所在的凸包区域。
进一步的,步骤四中,当充电桩暴露在腹部相机视野中时,关闭步骤三中所述的充电桩检测算法。
进一步的,所述步骤三中使用的充电桩检测算法为四足机器人充电桩定位算法。
进一步的,所述四足机器人充电桩定位算法,包括:通过充电桩粗定位模型对前置深度相机拍摄的图像进行检测,获得充电桩在真实世界中的初步位置。进一步的,所述充电桩顶部有电极区和至少一个二维码,电极区与二维码在同一平面内;所述二维码编码了该二维码的ID、该二维码与电极区的中心距离,以及该二维码的两条相互垂直边相对于该二维码中心到电极区中心连线的角度信息。
当腹部相机视野中有至少一个二维码时,则认为充电桩暴露在机器人的腹部相机视野中。
进一步的,所述步骤四中使用的四足机器人充电桩精定位算法包括以下步骤:
S1,获取视野中的一个二维码的三个角点在相机坐标系中的坐标,获得在相机坐标系中该二维码的中心坐标及边长;
S2,根据已知的二维码真实边长、二维码中心与电极区中心的真实距离以及S1获得的数据,计算出电极区中心到二维码中心的中心向量,根据所述中心向量求得电极区中心在相机坐标系中的坐标;
S3,通过坐标变换得到充电桩在真实世界中的坐标。
自主充电四足机器人,包括前置深度相机、腹部相机、定位建图模块、动态规划及导航模块、视觉粗定位模块和视觉精定位模块;
定位建图模块根据所述前置深度相机捕获的周边环境建立相应的稀疏地图,并将地图分成不同的凸包区域;
动态规划及导航模块用于规划和引导机器人的移动路径;
视觉粗定位模块用于获取目标在真实世界中的坐标位置及大小;
视觉精定位模块配合所述腹部相机对目标进行精准定位。
与现有技术相比,本发明具有以下有益效果:
本发明通过对充电桩所在的环境建图,然后利用导航进入充电桩所在的房间或区域,让充电桩进入四足机器人视野,然后利用充电桩检测算法对充电桩进行更加精确的定位,获取充电桩在真实世界中的位置,机器人可以调整姿态靠近充电桩,当充电桩进入四足机器人腹部视野之后,再开启腹部相机对充电桩进行精定位,机器人调整姿态和位置实现充电。利用本发明,机器人可以实现精确定位和充电,实现充电的自主化和智能化,继而实现移动机器人长期全自主的独立运行。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。
图1是机器人所建地图的示意图;
图2是充电桩检测算法模型的结构图;
图3是卷积块的结构图;
图4是实施例2中四足机器人充电桩的三维图;
图5是充电桩本体顶面的示意图;
图6是二维码所在圆与充电桩的位置示意图;
图7是腹部相机视野中图像的示意图;
图8是二维码的示意图;
图9是二维码的两条相互垂直边与该二维码中心到电极区中心连线的角度关系的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
本发明公开的四足机器人自主充电方法,包括如下步骤:
步骤一、定位建图:机器人在陌生环境中通过其前置深度相机捕获周边环境的特点来实现定位,并从充电桩出发在环境中游走的过程中建立相应的稀疏地图;
步骤二、当机器人处于电量不足状态时,机器人开始以充电桩为目的进行路径规划,沿最优路径走向充电桩;
步骤三、当机器人进入充电桩所在的区域后,机器人开启充电桩检测算法,并检测充电桩在RGB图像中的位置;
然后配合RGB图像中的二维坐标信息和前置深度相机的深度信息得到充电桩在真实世界中的坐标位置及大小,并进一步靠近充电桩;
步骤四、当充电桩暴露在机器人的腹部相机视野中时,开启四足机器人充电桩精定位算法,获得充电桩在真实世界中的坐标,机器人调整位姿实现充电。
基于上述四足机器人自主充电方法,本发明公开两个实施例。
实施例1
本实施例中充电桩的定位采取粗定位+精定位的方式,具体如下:
定位建图:该过程就是指机器人在陌生环境中通过其前置深度相机捕获周边环境的特点来实现定位,并从充电桩出发在环境中游走的过程中建立相应的稀疏地图,这是机器人熟悉环境的过程。对周围环境的了解能帮助机器人更好地定位自己和定位充电桩。建完地图后,机器人将地图分成不同的凸包区域,并明确充电桩所在的凸包区域,所见如图1所示。
动态规划及导航:当机器人处于电量不足状态时,机器人开始以充电桩为目的进行路径规划,寻找出最优路径,然后沿最优路径走向充电桩。
视觉粗定位:由于机器人在定位和游走的过程中,机器人定位会存在偏差,因此本实施例配合充电桩检测算法来获取充电桩更精确的位置。因此,当机器人进入充电桩地图构建过程中所划分的凸包区域后,机器人开启充电桩检测算法,并检测充电桩在RGB图像中的位置,然后配合RGB图像中的二维坐标信息和前置深度相机的深度信息得到充电桩中心在真实世界中的坐标位置,并进一步靠近充电桩。
充电桩检测算法可采用现有的四足机器人充电桩定位算法。本实施例再公开一四足机器人充电桩粗定位算法,主要步骤如下:
S1、算法环境配置。
该步骤主要配置深度学习算法所需要的软件环境。
S2、制作数据集。
收集不同背景、不同黑暗程度下包含充电桩的数据,数据可来源于网络或摄像头;然后在数据集中标注待测目标,形成标注框。
S3、数据处理:数据形成送入神经网络的数据结构。
S4、构建算法模型。
算法模型结构:如图2所示,本实施例模型的主体结构采用类似于Mnasnet的模块作为主干网络的YOLO模型。
神经网络采用5次下采样,分别将第三次、第四次、第五次下采样的特征图输出。为了增加模型在不同尺寸特征图上的检测能力,将这三层的输出送入特征融合模块,数据进行特征融合模块经过处理之后,输出融入YOLO检测头,检测出充电桩的具***置。
为了尽量降低充电桩粗定位过程中的计算量,本实施例不直接采用一般卷积过程中扩充通道的方式,而是采用融合深度可分离卷积和GhostNet中GhostBlock的特点来设计卷积模块。
如图3所示,如果模块的输入为c1个通道,输出为c2个通道,现将c1个通道的数据A经过一个深度可分离卷积来生成c2/2个通道的数据B,然后B每一个通道经过一个单通道的卷积生成同样具有c2/2个通道的数据C,最后将B和C堆叠在一起。
特征融合模块主要用于解决第三次下采样和第四次下采样特征图感受野不足而导致的检测能力不足的问题。因此,本实施例将第五次下采样的数据C5采用插值的方式生成和第四次下采样一样的大小的特征图C4’,C4’经过卷积生成和第四次下采样的数据具有一样通道数和特征图大小的数据并和第四次下采样的数据求和,生成数据C4;然后再将数据C4采用插值的方式生成和第三次下采样一样的大小的特征图C3’,C3’经过卷积生成和第三次下采样的数据具有一样通道数和特征图大小的数据并和第四次下采样的数据求和,生成数据C3。最后将C5,C4,C3输出送入YOLO检测头。
调整损失函数:将用于分类的softmaxloss换成focalloss,这样可以增加模型对前景和背景的区分能力。
S5、模型训练:将数据分批次送入神经网络,训练神经网络。
S6、模型测试:完成训练后,测试模型性能,获得训练好的充电桩粗定位模型。将前置深度相机拍摄的图像输入充电桩粗定位模型,可输出充电桩在真实世界中的初步位置。
盲走:机器人靠近充电桩的过程中会出现视野盲区,这个阶段根据视觉粗定位过程中获得的坐标位置及大小,不断靠近充电桩;
视觉精定位:当充电桩暴露在腹部相机视野中时,开启四足机器人充电桩精定位算法,并关闭充电桩检测算法等。腹部相机利用充电桩的特征信息,确定充电桩的大小以及位置,并制定相应的策略,机器人调整姿态和位置,跨在充电桩上方并完成充电。
本实施例中四足机器人充电桩精定位算法针对本实施例的四足机器人充电桩而重新设计。
本发明公开的四足机器人充电桩,包括充电桩本体,充电桩本体顶部有电极区和至少一个二维码,电极区与二维码在同一平面内。
电极区内有对称分布的电极。二维码编码了该二维码的ID、该二维码与电极区的中心距离,以及该二维码的两条相互垂直边相对于该二维码中心到电极区中心连线的角度信息。
二维码的数量根据需要设置,理论上有一个就可满足,但为了提高定位的效率与准确性,二维码有至少两个。定位时,可选取视野中面积最大的一个二维码来进行定位计算。
四足机器人充电桩的精定位方法,具体包括以下步骤:
S1,四足机器人的相机拍摄所述充电桩本体,相机视野中有至少一个二维码;
S2,获取视野中的一个二维码的三个角点在相机坐标系中的坐标,求得在相机坐标系中该二维码的中心坐标及边长;
S3,根据已知的二维码真实边长、二维码中心与电极区中心的真实距离以及S2获得的数据,计算出电极区中心到二维码中心的中心向量,根据所述中心向量求得电极区中心在相机坐标系中的坐标。
基于上述四足机器人充电桩的精定位方法,本发明提供一实施例。
实施例2
如图4、图5所示,本实施例中充电桩本体10为圆柱形,所述电极区20位于充电桩本体10顶部中央。二维码围绕电极区20沿圆周方向设置。电极区20中心就是充电桩本体10中心,电极区内有对称分布的电极。
经过编码的二维码30编码了二维码序号、该二维码中心到充电桩中心距离以及二维码的两条垂直边相对于二维码中心到充电桩中心连线的角度信息。
如图5、图6所示,二维码30中心均位于充电桩截面的同心圆上。二维码序号为***数字1、2、3、4、5、6、7、8;同时,每两个相邻二维码之间的距离是已知的。假设充电桩半径为,二维码中心所在圆的半径为,二维码的边长为L。
二维码30数量有8个,可获取视野中面积最大的那个二维码来进行定位计算。
当充电桩位于四足机器人的腹部相机视野范围内时,腹部相机的图像如图7所示。
于是,可以获得以下数值。
当机器人得知充电桩的大小和中心点后,机器人可以调整身体姿势,跨过充电桩并趴下充电。
本发明还公开了自主充电四足机器人,该自主充电四足机器人可运用上述四足机器人自主充电方法完成自主充电。其包括前置深度相机、腹部相机、定位建图模块、动态规划及导航模块、视觉粗定位模块和视觉精定位模块;
定位建图模块:根据前置深度相机捕获的周边环境建立相应的稀疏地图,并将地图分成不同的凸包区域;
动态规划及导航模块:用于规划和引导机器人的移动路径;
视觉粗定位模块:用于获取目标在真实世界中的坐标位置及大小;
视觉精定位模块:配合腹部相机对目标进行精准定位。
本发明的四足机器人可以实现精确定位和充电,实现充电的自主化和智能化,可长期全自主的独立运行。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.四足机器人自主充电方法,其特征在于:包括以下步骤:
步骤一、机器人在陌生环境中通过其前置深度相机捕获周边环境的特点来实现定位,并从充电桩出发在环境中游走的过程中建立相应的稀疏地图;
步骤二、当机器人处于电量不足状态时,机器人开始以充电桩为目的进行路径规划,沿最优路径走向充电桩;
步骤三、当机器人进入充电桩所在的区域后,机器人开启充电桩检测算法,并检测充电桩在RGB图像中的位置;
然后配合RGB图像中的二维坐标信息和前置深度相机的深度信息得到充电桩在真实世界中的坐标位置,并进一步靠近充电桩;
步骤四、当充电桩暴露在机器人的腹部相机视野中时,开启四足机器人充电桩精定位算法,获得充电桩在真实世界中的坐标,机器人调整位姿实现充电。
2.根据权利要求1所述的四足机器人自主充电方法,其特征在于:所述步骤一还包括:当稀疏地图建立完成后,机器人将地图分成不同的凸包区域,并明确充电桩所在的凸包区域。
3.根据权利要求1所述的四足机器人自主充电方法,其特征在于:步骤四中,当充电桩暴露在腹部相机视野中时,关闭步骤三中所述的充电桩检测算法。
4.根据权利要求1所述的四足机器人自主充电方法,其特征在于:所述步骤三中使用的充电桩检测算法为四足机器人充电桩定位算法。
5.根据权利要求4所述的四足机器人自主充电方法,其特征在于:所述四足机器人充电桩定位算法,包括:通过充电桩粗定位模型对前置深度相机拍摄的图像进行检测,获得充电桩在真实世界中的初步位置。
6.根据权利要求1-5中任一项所述的四足机器人自主充电方法,其特征在于:所述充电桩顶部有电极区和至少一个二维码,电极区与二维码在同一平面内;所述二维码编码了该二维码的ID、该二维码与电极区的中心距离,以及该二维码的两条相互垂直边相对于该二维码中心到电极区中心连线的角度信息。
7.根据权利要求6所述的四足机器人自主充电方法,其特征在于:所述步骤四中使用的四足机器人充电桩精定位算法包括以下步骤:
S1,获取视野中的一个二维码的三个角点在相机坐标系中的坐标,获得在相机坐标系中该二维码的中心坐标及边长;
S2,根据已知的二维码真实边长、二维码中心与电极区中心的真实距离以及S1获得的数据,计算出电极区中心到二维码中心的中心向量,根据所述中心向量求得电极区中心在相机坐标系中的坐标;
S3,通过坐标变换得到充电桩在真实世界中的坐标。
8.自主充电四足机器人,其特征在于:包括前置深度相机、腹部相机、定位建图模块、动态规划及导航模块、视觉粗定位模块和视觉精定位模块;
定位建图模块根据所述前置深度相机捕获的周边环境建立相应的稀疏地图,并将地图分成不同的凸包区域;
动态规划及导航模块用于规划和引导机器人的移动路径;
视觉粗定位模块用于获取目标在真实世界中的坐标位置及大小;
视觉精定位模块配合所述腹部相机对目标进行精准定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110207114.3A CN112578799B (zh) | 2021-02-25 | 2021-02-25 | 四足机器人自主充电方法及自主充电四足机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110207114.3A CN112578799B (zh) | 2021-02-25 | 2021-02-25 | 四足机器人自主充电方法及自主充电四足机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112578799A true CN112578799A (zh) | 2021-03-30 |
CN112578799B CN112578799B (zh) | 2022-02-11 |
Family
ID=75114023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110207114.3A Active CN112578799B (zh) | 2021-02-25 | 2021-02-25 | 四足机器人自主充电方法及自主充电四足机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112578799B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113589805A (zh) * | 2021-07-15 | 2021-11-02 | 国网上海市电力公司 | 一种四足机器人的自主充电方法和*** |
CN114156970A (zh) * | 2021-11-06 | 2022-03-08 | 中山嘉明电力有限公司 | 一种基于四足机器人的自主充电方法 |
Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1403050A (zh) * | 2002-09-16 | 2003-03-19 | 泰怡凯电器(苏州)有限公司 | 自动吸尘器的充电座及其自动吸尘器与充电座的对接方法 |
EP1383070A2 (en) * | 2002-07-18 | 2004-01-21 | Sharp Kabushiki Kaisha | Two-dimensional code reading method for portable terminal with digital camera |
US20070075338A1 (en) * | 2005-10-04 | 2007-04-05 | Samsung Electronics Co., Ltd | Image sensor and fabrication method thereof |
KR20160017772A (ko) * | 2014-08-04 | 2016-02-17 | (주)케이엠정보기술 | 문화 관광 교육 콘텐츠 통합 저작 플랫폼 서비스 방법, 상황 저작 기술 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制***及全向自动导引车 |
CN205499113U (zh) * | 2016-04-21 | 2016-08-24 | 奇弩(北京)科技有限公司 | 可自动进行无线充电的多足步行机器人 |
CN106787266A (zh) * | 2017-02-24 | 2017-05-31 | 安科智慧城市技术(中国)有限公司 | 一种移动机器人无线充电方法及装置 |
CN108255177A (zh) * | 2018-01-17 | 2018-07-06 | 航天科工智能机器人有限责任公司 | 机器人自主充电*** |
CN108549397A (zh) * | 2018-04-19 | 2018-09-18 | 武汉大学 | 基于二维码和惯导辅助的无人机自主降落方法及*** |
CN108594822A (zh) * | 2018-05-10 | 2018-09-28 | 哈工大机器人(昆山)有限公司 | 基于二维码的机器人定位方法、机器人充电方法及*** |
CN108888187A (zh) * | 2018-05-31 | 2018-11-27 | 四川斐讯信息技术有限公司 | 一种基于深度相机的扫地机器人 |
CN208174318U (zh) * | 2018-05-15 | 2018-11-30 | 江苏美的清洁电器股份有限公司 | 充电座和移动机器人充电*** |
CN109471443A (zh) * | 2018-11-30 | 2019-03-15 | 上海物景智能科技有限公司 | 一种轮式机器人定位方法和轮式机器人 |
CN109543489A (zh) * | 2019-01-04 | 2019-03-29 | 广州广电研究院有限公司 | 基于二维码的定位方法、装置和存储介质 |
CN109831005A (zh) * | 2019-02-23 | 2019-05-31 | 杭州向上机器人科技有限公司 | 一种智能机器人的自动充电*** |
CN110262507A (zh) * | 2019-07-04 | 2019-09-20 | 杭州蓝芯科技有限公司 | 一种基于5g通信的相机阵列机器人定位方法及装置 |
CN209863653U (zh) * | 2018-12-26 | 2019-12-31 | 深圳琥珀智通科技有限公司 | 扫地机器人的充电桩 |
CN110673612A (zh) * | 2019-10-21 | 2020-01-10 | 重庆邮电大学 | 一种自主移动机器人二维码引导控制方法 |
CN110893085A (zh) * | 2018-09-11 | 2020-03-20 | 原相科技股份有限公司 | 清洁机器人及其充电路径决定方法 |
EP3629120A1 (en) * | 2018-09-25 | 2020-04-01 | Nextvpu (Shanghai) Co., Ltd. | Auto-recharging of robot |
CN111260852A (zh) * | 2020-01-19 | 2020-06-09 | 郑州铁路职业技术学院 | 基于计算机视觉与cim的无感充电桩交易可视化管理*** |
CN111645772A (zh) * | 2019-03-04 | 2020-09-11 | 深圳市智擎新创科技有限公司 | 多足机器人 |
CN111679671A (zh) * | 2020-06-08 | 2020-09-18 | 南京聚特机器人技术有限公司 | 一种机器人与充电桩自动对接的方法及其*** |
CN112000100A (zh) * | 2020-08-26 | 2020-11-27 | 德鲁动力科技(海南)有限公司 | 机器人的充电***及方法 |
CN112015204A (zh) * | 2020-08-26 | 2020-12-01 | 德鲁动力科技(海南)有限公司 | 足式机器人的充电***及方法 |
CN112134109A (zh) * | 2020-09-23 | 2020-12-25 | 德鲁动力科技(海南)有限公司 | 足式机器人的充电桩 |
CN212579640U (zh) * | 2020-06-18 | 2021-02-23 | 比亚迪股份有限公司 | 充电装置和车辆 |
-
2021
- 2021-02-25 CN CN202110207114.3A patent/CN112578799B/zh active Active
Patent Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1383070A2 (en) * | 2002-07-18 | 2004-01-21 | Sharp Kabushiki Kaisha | Two-dimensional code reading method for portable terminal with digital camera |
CN1403050A (zh) * | 2002-09-16 | 2003-03-19 | 泰怡凯电器(苏州)有限公司 | 自动吸尘器的充电座及其自动吸尘器与充电座的对接方法 |
US20070075338A1 (en) * | 2005-10-04 | 2007-04-05 | Samsung Electronics Co., Ltd | Image sensor and fabrication method thereof |
KR20160017772A (ko) * | 2014-08-04 | 2016-02-17 | (주)케이엠정보기술 | 문화 관광 교육 콘텐츠 통합 저작 플랫폼 서비스 방법, 상황 저작 기술 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制***及全向自动导引车 |
CN205499113U (zh) * | 2016-04-21 | 2016-08-24 | 奇弩(北京)科技有限公司 | 可自动进行无线充电的多足步行机器人 |
CN106787266A (zh) * | 2017-02-24 | 2017-05-31 | 安科智慧城市技术(中国)有限公司 | 一种移动机器人无线充电方法及装置 |
CN108255177A (zh) * | 2018-01-17 | 2018-07-06 | 航天科工智能机器人有限责任公司 | 机器人自主充电*** |
CN108549397A (zh) * | 2018-04-19 | 2018-09-18 | 武汉大学 | 基于二维码和惯导辅助的无人机自主降落方法及*** |
CN108594822A (zh) * | 2018-05-10 | 2018-09-28 | 哈工大机器人(昆山)有限公司 | 基于二维码的机器人定位方法、机器人充电方法及*** |
CN208174318U (zh) * | 2018-05-15 | 2018-11-30 | 江苏美的清洁电器股份有限公司 | 充电座和移动机器人充电*** |
CN108888187A (zh) * | 2018-05-31 | 2018-11-27 | 四川斐讯信息技术有限公司 | 一种基于深度相机的扫地机器人 |
CN110893085A (zh) * | 2018-09-11 | 2020-03-20 | 原相科技股份有限公司 | 清洁机器人及其充电路径决定方法 |
EP3629120A1 (en) * | 2018-09-25 | 2020-04-01 | Nextvpu (Shanghai) Co., Ltd. | Auto-recharging of robot |
CN109471443A (zh) * | 2018-11-30 | 2019-03-15 | 上海物景智能科技有限公司 | 一种轮式机器人定位方法和轮式机器人 |
CN209863653U (zh) * | 2018-12-26 | 2019-12-31 | 深圳琥珀智通科技有限公司 | 扫地机器人的充电桩 |
CN109543489A (zh) * | 2019-01-04 | 2019-03-29 | 广州广电研究院有限公司 | 基于二维码的定位方法、装置和存储介质 |
CN109831005A (zh) * | 2019-02-23 | 2019-05-31 | 杭州向上机器人科技有限公司 | 一种智能机器人的自动充电*** |
CN111645772A (zh) * | 2019-03-04 | 2020-09-11 | 深圳市智擎新创科技有限公司 | 多足机器人 |
CN110262507A (zh) * | 2019-07-04 | 2019-09-20 | 杭州蓝芯科技有限公司 | 一种基于5g通信的相机阵列机器人定位方法及装置 |
CN110673612A (zh) * | 2019-10-21 | 2020-01-10 | 重庆邮电大学 | 一种自主移动机器人二维码引导控制方法 |
CN111260852A (zh) * | 2020-01-19 | 2020-06-09 | 郑州铁路职业技术学院 | 基于计算机视觉与cim的无感充电桩交易可视化管理*** |
CN111679671A (zh) * | 2020-06-08 | 2020-09-18 | 南京聚特机器人技术有限公司 | 一种机器人与充电桩自动对接的方法及其*** |
CN212579640U (zh) * | 2020-06-18 | 2021-02-23 | 比亚迪股份有限公司 | 充电装置和车辆 |
CN112000100A (zh) * | 2020-08-26 | 2020-11-27 | 德鲁动力科技(海南)有限公司 | 机器人的充电***及方法 |
CN112015204A (zh) * | 2020-08-26 | 2020-12-01 | 德鲁动力科技(海南)有限公司 | 足式机器人的充电***及方法 |
CN112134109A (zh) * | 2020-09-23 | 2020-12-25 | 德鲁动力科技(海南)有限公司 | 足式机器人的充电桩 |
Non-Patent Citations (1)
Title |
---|
潘祥生,等: "矿用智能巡检机器人关键技术研究", 《工矿自动化》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113589805A (zh) * | 2021-07-15 | 2021-11-02 | 国网上海市电力公司 | 一种四足机器人的自主充电方法和*** |
CN114156970A (zh) * | 2021-11-06 | 2022-03-08 | 中山嘉明电力有限公司 | 一种基于四足机器人的自主充电方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112578799B (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7865267B2 (en) | Environment recognizing device, environment recognizing method, route planning device, route planning method and robot | |
CN112578799B (zh) | 四足机器人自主充电方法及自主充电四足机器人 | |
CN113696186B (zh) | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 | |
Olson et al. | Wide-baseline stereo vision for terrain mapping | |
Se et al. | Vision based modeling and localization for planetary exploration rovers | |
US7912583B2 (en) | Environment map building method, environment map building apparatus and mobile robot apparatus | |
CN109202885B (zh) | 一种物料搬运移动复合机器人 | |
CN112476434A (zh) | 一种基于协作机器人的视觉3d取放方法及*** | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
US20230247015A1 (en) | Pixelwise Filterable Depth Maps for Robots | |
CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位***及方法 | |
WO2015024407A1 (zh) | 基于电力机器人的双目视觉导航***及方法 | |
CN110515383A (zh) | 自主充电的方法以及移动机器人 | |
CN108459596A (zh) | 一种移动电子设备以及该移动电子设备中的方法 | |
CN108646727A (zh) | 一种视觉充电座及其定位方法和回充方法 | |
CN113327297B (zh) | 基于深度学习的深海海底障碍物测量***与识别方法 | |
US11769269B2 (en) | Fusing multiple depth sensing modalities | |
CN109164802A (zh) | 一种机器人迷宫行走方法、装置及机器人 | |
Joshi et al. | Underwater exploration and mapping | |
Hoffman et al. | Improved rover state estimation in challenging terrain | |
Porrill et al. | TINA: The Sheffeild AIVRU Vision System. | |
Yong-guo et al. | The navigation of mobile robot based on stereo vision | |
CN113370816B (zh) | 四足机器人充电桩及其精定位方法 | |
CN117612135A (zh) | 一种基于transform的点云和图像融合的行驶区域判断方法 | |
Atsuzawa et al. | Robot navigation in outdoor environments using odometry and convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |