CN111947644A - 一种室外移动机器人定位方法、***及其电子设备 - Google Patents
一种室外移动机器人定位方法、***及其电子设备 Download PDFInfo
- Publication number
- CN111947644A CN111947644A CN202010793788.1A CN202010793788A CN111947644A CN 111947644 A CN111947644 A CN 111947644A CN 202010793788 A CN202010793788 A CN 202010793788A CN 111947644 A CN111947644 A CN 111947644A
- Authority
- CN
- China
- Prior art keywords
- positioning
- environment
- robot
- information
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000008447 perception Effects 0.000 claims abstract description 50
- 238000004891 communication Methods 0.000 claims abstract description 30
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000005070 sampling Methods 0.000 claims description 48
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 10
- 230000006698 induction Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 8
- 230000036544 posture Effects 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 description 22
- 238000007689 inspection Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0284—Relative positioning
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请公开了一种基于多传感器信息融合的室外移动机器人定位方法及***,该方法包括:初始化机器人定位中央管理***,导入环境地图,建立环境坐标系;所述机器人定位中央管理***确定通信***的运行是否正常;所述机器人定位中央管理***根据接收到的所述环境感知定位备选位置点、多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点,利用神经网络模型融合多源位置信息确定机器人当前所在位置,并将确定的所述位置发送给所述室外移动机器人。本申请还提供了一种基于多传感器融合的室外移动机器人定位***。本申请用以提高室外移动机器人定位精度和效率。
Description
技术领域
本发明涉及室外移动机器人定位技术领域,尤其涉及一种室外移动机器人定位方法、***及其电子设备。
背景技术
近年来,在室外场景种越来越多的移动机器人被应用去执行各种任务。室外移动机器人要实现自主导航并执行各种任务,需要非常准确地知道自己的位置。
但目前定位方法实现的定位精度低。申请号CN202010114866.0公开了一种融合多传感器的变电站巡检机器人定位导航***,该***区分有定位模块、避障模块、地图管理模块、语音控制模块、电量监测模块、任务调度模块、导航模块、底层控制模块和安全保障模块九个功能模块,本发明对变电站巡检机器人首次同时引入了激光雷达里程计和视觉里程计算法,能够有效提高室外变电站巡检机器人的定位稳定性和精确性,同时对变电站巡检机器人引入了深度相机,可以方便的获取机器人前方较为低矮的障碍物或坑洞障碍,提高了机器人对于各种环境的兼容性和安全性,同时也使机器人在巡检任务中具备更强的自动导航和避障能力。申请号CN202010105245.6公开了一种架空机器人组合定位方法。通过采用卡尔曼滤波器对架空检修机器人的GPS和惯性导航定位信息进行数据融合,对定位误差进行最优估计,实现对组合导航误差的校正,提高了定位精度。同时引入改进神经网络,针对架空检修机器人在GPS信号接收异常的情况下定位精度变差的问题,进行了改善。当GPS信号被遮挡时,通过改进神经网络对导航误差进行预测,从而保证检修机器人在GPS信号不可用时的定位精度和可靠性,解决了GPS信号异常时,架空机器人定位信息不准确的技术问题。
上述现有技术中,在面对复杂环境的情况下,现有技术无法满足高精确定位的需要。尤其亟需去有效融合多种定位方法来提升定位精度,实现室外场景的高精度定位。
发明内容
针对上述技术问题,本申请实施例提供了一种机器人的定位方法及***,用以提高定位精度和定位效率。
本申请是通过如下技术方案实现的:
一种基于多传感器融合的室外移动机器人定位方法,该方法包括:
步骤1、初始化机器人定位中央管理***,导入环境地图,建立环境坐标系;
步骤2、所述机器人定位中央管理***确定通信***的运行是否正常;若通信***的运行存在问题,则通过预警来通知专业人员进行处理,等待通信***恢复正常后,再继续进行后续的步骤;若通信***的运行正常,则执行步骤3;
步骤3、所述室外移动机器人确定环境感知定位备选位置点,该环境感知定位备选位置点由机器人接收的环境中固定安置的信号发射源的信号感应信息推算获得;在室外移动机器人通过接收的环境中固定安置的信号发射源的信号感应信息进行定位之前,机器人中央定位***先建立环境感知定位位置数据库;
步骤4、所述室外移动机器人确定多机协同感知定位备选位置点,所述多机协同感知定位备选位置点由机器人接收到的附近其他机器人传送的定位信息等信息推算获得;
步骤5、所述室外移动机器人确定卫星导航定位备选位置点,所述卫星导航定位备选位置点由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***获得;
步骤6、所述室外移动机器人确定环境图像信息定位备选位置点,所述环境图像信息定位备选位置点由机器人的视觉定位***获得;
步骤7、所述室外移动机器人确定轨迹计算定位备选位置点,所述轨迹计算定位备选位置点由机器人的IMU和里程计测算获得;
步骤8、所述机器人将所述环境感知定位备选位置点、所述多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点通过环境中4G、5G或者WiFi通信***发送到所述机器人定位中央管理***;
步骤9、所述机器人定位中央管理***根据接收到的所述环境感知定位备选位置点、所述多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点,利用神经网络模型融合多源位置信息确定机器人当前所在位置,以融合后的机器人定位信息与5种定位备选位置点进行比较并计算差异距离,计算误差最小偏差率;
然后将确定的具有最小偏差率的位置信息发送给所述机器人。
进一步的,所述环境感知定位位置数据库通过以下方法实现:
机器人定位中央管理***预先在环境中设置环境采样点,并由专业人员精确确定每个环境采样点的坐标数据,室外移动机器人携带用于接收环境中固定安置的信号发射源的信号的专用设备,在每个环境采样点进行多次采样,以得到每个环境采样点的接收的信号强度指示数据信息,然后建立环境采样点的信号强度指示数据数据库,并将其作为环境感知定位位置数据库;
当室外移动机器人开始进行环境感知定位时,室外移动机器人将读取当前接收环境中固定安置的信号发射源的信号,机器人携带的专用设备接收到信号发射源的信号强度指示数据,并通过环境中4G、5G或者WiFi通信***将机器人获得的信号发射源的信号强度指示数据发送到机器人定位中央管理***,机器人定位中央管理***根据室外移动机器人获得的信号发射源的信号强度指示数据与建立的环境感知定位位置数据库进行匹配,将匹配的相似度最高的环境采样点确定为环境感知定位备选位置点;
在运行环境中固定安置了一个或多个信号发射源向环境发射出各自的信号,每个信号发射源有各自的地址可以作为各自区别在环境中各处位置接收到各信号发射源的信号强度存在差异性,在各个环境采样点采集对应采样的位置而得到的各个信号发射源的信号强度,得到在一个位置的各个信号发射源的信号强度,并根据该信号强度反向逆推得到相似度最高的位置是哪一个环境采样点,将相似度最高的位置对应的环境采样点确定为环境感知定位备选位置点。
进一步的,步骤4中,所述确定多机协同感知定位备选位置点,具体包括:
当室外移动机器人开始进行多机协同感知定位时,在该室外移动机器人附近的室外移动机器人将自己的定位信息,自己的机器人编号和之前进行定位过程中得到的误差最小偏差率发送给该室外移动机器人,该室外移动机器人确定误差最小偏差率最小的另一个的室外移动机器人,根据它的定位信息和它的机器人编号对应的通信信号强弱和信号方向估计两个室外移动机器人的相对位置,由确定的相对位置和误差最小偏差率最小的另一个的室外移动机器人的定位信息确定该室外移动机器人的多机协同感知定位备选位置点;
在步骤5中,所述室外移动机器人携带了卫星导航信号接收器,用于接收由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***发出的定位信息;
在步骤6中,所述室外移动机器人确定环境图像信息定位备选位置点,具体包括:机器人定位中央管理***预先在环境中设置环境采样点,确定每个环境采样点的坐标数据,在每个所述环境采样点至少采集两次当前环境图像信息,并提取所述环境图像的特征,并对所述环境图像进行编码和池化,形成环境图像的信息数据库;当机器人开始进行环境图像的信息定位时,机器人利用携带的图像采集设备采集当前环境图像信息,并通过环境中4G、5G或者WiFi通信***将室外移动机器人获得的当前环境图像信息发送到机器人定位中央管理***,机器人定位中央管理***根据机器人获得的环境图像信息进行特征提取,与环境图像信息数据库中实际环境特征信息进行匹配,确定环境图像特征与每个实际环境特征信息的匹配度,将匹配度最高的环境图像信息确定为环境图像信息定位备选位置点。
进一步的,在步骤7中,所述由机器人的IMU和里程计测算获得,具体包括:室外移动机器人开始进行传感器定位时,室外移动机器人预先获得初始时刻的一个环境位置以及位姿信息,然后基于里程计、惯性传感器IMU获得的传感器信息计算出每一时刻的位姿相对于上一时刻位姿的距离以及方向角的变化,从而实现位姿的实时估计;
惯性传感器IMU中的加速度计采集到室外移动机器人在坐标系中的三个坐标轴方向上的加速度信息,惯性传感器IMU中的陀螺仪采集得到相对于坐标系的三个坐标轴方向上的角速度信息,根据室外移动机器人在三维空间中的角速度以及加速度值计算出对应的姿态以及当前的位置,携带的里程计中的光电编码器通过在采样周期内脉冲的变化量来计算出室外移动机器人在环境中移动的距离和方向角的变化量,从而计算出室外移动机器人位姿的相对变化,从而估算得到对应的室外移动机器人姿态以及室外移动机器人当前所在的位置,以粒子滤波的方法融合惯性传感器IMU中获得的定位信息和里程计传感器中获得的定位信息,得到传感器定位位置,确定其对应的环境位置。
进一步的,在步骤9中,利用神经网络模型融合多源位置信息确定机器人当前所在位置,具体包括:
机器人预先由接收的环境中固定安置的信号发射源的信号感应信息推算获得环境感知定位备选位置点,由接收到的附近其他机器人传送的定位信息来推算获得多机协同感知定位备选位置点,由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***获得当前室外移动机器人的卫星导航定位备选位置点,由视觉定位***获得环境图像信息定位备选位置点,由IMU和里程计测算获得轨迹计算定位备选位置点;机器人在环境中多次测试获得一系列上述5种定位备选位置点信息,专业人员对机器人进行测试的位置进行精确标定,从而获得对应的一系列人工标定环境位置点精确信息;
将这些定位备选位置点信息以及人工标定环境位置点精确信息输入到机器人定位中央管理***中训练,得到用于机器人融合定位的神经网络模型,该神经网络模型输入为5种定位备选位置点信息,输出为融合后的机器人定位信息。
进一步的,所述实现位姿的实时估计,包括:通过加速度计采集所述室外移动机器人在坐标系中的三个坐标轴方向上的加速度信息;
通过陀螺仪采集所述室外移动机器人在坐标系中的三个坐标轴方向上的角速度信息;
根据所述角速度信息和所述加速度信息确定第一定位信息;
通过里程计中的光电编码器确定在采样周期内脉冲的变化量;
根据所述脉冲的变化量确定室外移动机器人移动的距离和方向角的变化量;
根据所述机器人移动的距离和方向角的变化量,确定室外移动机器人位姿的相对变化。
进一步的,所述利用神经网络模型融合多源位置信息确定机器人当前所在位置之前,还包括:
室外移动机器人在环境中多次测试获得多次5种定位备选位置点信息;
对所述室外移动机器人进行测试的位置进行精确标定;
将所述5种定位备选位置点信息以及精确标定后的位置信息输入神经网络模型中进行训练,得到用于机器人融合定位的神经网络模型。
进一步的,所述计算误差最小偏差率,包括:
设置当前时刻为t,设置t时刻的环境感知定位备选位置点多机协同感知定位备选位置点卫星导航定位备选位置点环境图像信息定位备选位置点和轨迹计算定位备选位置点设置t时刻的融合后的估计机器人定位位置点为Xt,按照下式计算t时刻的5种定位方式的误差;
设置决策时长n,即计算t时刻误差最小偏差率要考虑t时刻定位最小误差,(t-1)时刻定位最小误差一直到(t-n)时刻定位最小误差共(n+1)组数据,利用下式计算t时刻误差最小偏差率μt:
该误差最小偏差率将用于多机协同感知定位过程。
一种基于多传感器融合的室外移动机器人定位***,包括:
中央管理***和机器人子***;
所述中央管理***包括:
机器人定位中央管理***,用于处理接收到的环境感知定位备选位置点信息、多机协同感知定位备选位置点信息、卫星导航定位备选位置点信息、环境图像信息定位备选位置点信息和轨迹计算定位备选位置点信息;
中央管理***通信交互模块,用于与所述机器人子***进行通信;
所述机器人子***包括:
室外移动机器人环境感知定位模块,用于实现环境感知定位,得到环境感知定位备选位置点;
室外移动机器人多机协同感知定位模块,用于实现多机协同感知定位,得到多机协同感知定位备选位置点;
室外移动机器人卫星导航定位模块,用于实现卫星导航定位,得到卫星导航定位备选位置点;
室外移动机器人环境图像信息定位模块,用于实现环境图像信息定位,得到环境图像信息定位备选位置点;
室外移动机器人轨迹计算定位模块,用于实现轨迹计算定位,得到轨迹计算定位备选位置点;
室外移动机器人通信交互模块,用于与所述中央管理***进行通信;
所述中央管理***和所述机器人子***,用于实现如权利要求1到4之一所述的机器人定位方法。
一种电子设备,包括存储器单元和处理器单元,所述存储器单元上存储有计算机程序,其特征在于,所述处理器单元执行所述程序时实现上述方法。
与现有技术相比,本方法充分有效融合多种定位方法来提升定位精度,实现室外场景的高精度定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的室外移动机器人定位方法流程示意图;
图2是本申请的室外移动机器人定位***的组成框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
图1为本申请的一种基于多传感器融合的室外移动机器人定位方法流程示意图,本申请提供的用于室外移动机器人定位方法,包括如下步骤:
步骤1,初始化机器人定位中央管理***,导入环境地图,建立环境坐标系;
步骤2,所述机器人定位中央管理***确定通信***的运行是否正常;若运行存在问题,可通过***预警通知专业人员进行处理。等待通信***恢复正常后,再继续进行后续的处理步骤。
步骤3,若所述机器人定位中央管理***确定通信***的运行正常,则所述室外移动机器人确定环境感知定位备选位置点(由机器人接收的环境中固定安置的信号发射源的信号感应信息推算获得)。
在室外移动机器人通过接收的环境中固定安置的信号发射源的信号感应信息进行定位之前,机器人中央定位***先建立环境感知定位位置数据库。环境感知定位位置数据库可通过以下方法实现:
机器人定位中央管理***预先在环境中设置环境采样点,确定每个环境采样点的坐标数据,室外移动机器人携带用于接收环境中固定安置的信号发射源的信号的专用设备,在每个采样点进行多次采样过程,得到每个环境采样点的接收的信号强度指示数据信息,然后建立环境采样点的信号强度指示数据数据库作为环境感知定位位置数据库。
环境感知定位的方法可以为:当室外移动机器人开始进行环境感知定位时,室外移动机器人将读取当前接收环境中固定安置的信号发射源的信号,机器人携带的专用设备接收到信号发射源的信号强度指示数据,并通过环境中4G、5G或者WiFi通信***将机器人获得的信号发射源的信号强度指示数据发送到机器人定位中央管理***,机器人定位中央管理***根据室外移动机器人获得的信号发射源的信号强度指示数据与建立的环境感知定位位置数据库进行匹配,将匹配的相似度最高的环境采样点确定为环境感知定位备选位置点。
在运行环境中固定安置了一个或多个信号发射源向环境发射出各自的信号,每个信号发射源有各自的地址可以作为各自区别在环境中各处位置接收到各信号发射源的信号强度存在差异性。在各个环境采样点采集对应采样的位置而得到的各个信号发射源的信号强度,得到在一个位置的各个信号发射源的信号强度,并根据该信号强度反向逆推到该位置是哪一个环境采样点,将该环境采样点确定为环境感知定位备选位置点。
步骤4,所述室外移动机器人确定多机协同感知定位备选位置点(由机器人接收到的附近其他机器人传送的定位信息等信息推算获得)。
当室外移动机器人开始进行多机协同感知定位时,在该室外移动机器人附近的室外移动机器人将自己的定位信息,自己的机器人编号和之前进行定位过程中得到的误差最小偏差率发送给该室外移动机器人,该室外移动机器人确定误差最小偏差率最小的另一个的室外移动机器人,根据它的定位信息和它的机器人编号对应的通信信号强弱和信号方向估计两个室外移动机器人的相对位置,由确定的相对位置和误差最小偏差率最小的另一个的室外移动机器人的定位信息确定该室外移动机器人的多机协同感知定位备选位置点。
步骤5,所述室外移动机器人确定卫星导航定位备选位置点(由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***获得)。
所述室外移动机器人携带了卫星导航信号接收器,用于接收由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***发出的定位信息。
步骤6,所述室外移动机器人确定环境图像信息定位备选位置点(由机器人的视觉定位***获得)。
机器人定位中央管理***预先在环境中设置环境采样点,确定每个环境采样点的坐标数据,在每个所述环境采样点至少采集两次当前环境图像信息,并提取所述图像的特征,并对所述图像进行编码和池化,形成环境图像信息数据库。
当机器人开始进行环境图像信息定位时,机器人利用携带的摄像头、深度相机等图像采集设备采集当前环境图像信息并通过环境中4G、5G或者WiFi通信***将室外移动机器人获得的当前环境图像信息发送到机器人定位中央管理***,机器人定位中央管理***根据机器人获得的环境图像信息进行特征提取,与环境图像信息数据库中实际环境特征信息进行匹配,确定环境图像特征与每个实际环境特征信息的匹配度,将匹配度最高的环境图像信息确定为环境图像信息定位备选位置点。
环境图像特征包括周围建筑墙体、当前道路等的特征、是否在环境中可识别到一些目标物体(如标志牌、标志建筑、桥梁,堤坝,专为定位使用的二维码或其他标志性目标),以及可识别到的目标物体与机器人当前位置的空间关系等特征。以环境图像特征与环境图像信息数据库中实际环境特征信息进行匹配,确定环境图像特征与每个实际环境特征信息的匹配度,将匹配度最高的环境图像信息确定为环境图像信息定位备选位置点。
步骤7,所述室外移动机器人确定轨迹计算定位备选位置点(由机器人的IMU和里程计等测算获得);
室外移动机器人开始进行传感器定位时,室外移动机器人预先获得初始时刻的一个环境位置以及位姿信息,然后基于里程计、惯性传感器IMU等传感器获得的传感器信息计算出每一时刻的位姿相对于上一时刻位姿的距离以及方向角的变化,从而实现位姿的实时估计。惯性传感器IMU中的加速度计采集到室外移动机器人在坐标系中的三个坐标轴方向上的加速度信息,惯性传感器IMU中的陀螺仪采集得到相对于坐标系的三个坐标轴方向上的角速度信息,根据室外移动机器人在三维空间中的角速度以及加速度值计算出对应的姿态以及当前的位置。携带的里程计中的光电编码器通过在采样周期内脉冲的变化量来计算出室外移动机器人在环境中移动的距离和方向角的变化量,从而计算出室外移动机器人位姿的相对变化,从而估算得到对应的室外移动机器人姿态以及室外移动机器人当前所在的位置。以粒子滤波的方法融合惯性传感器IMU中获得的定位信息和里程计传感器中获得的定位信息,得到传感器定位位置,确定其对应的环境位置。
步骤8,所述机器人将所述环境感知定位备选位置点、所述多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点通过环境中4G、5G或者WiFi通信***发送到所述机器人定位中央管理***;
步骤9,所述机器人定位中央管理***根据接收到的所述环境感知定位备选位置点、所述多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点,利用神经网络模型融合多源位置信息确定机器人当前所在位置,以融合后所在位置信息与5种定位备选位置点(环境感知定位备选位置点、多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和轨迹计算定位备选位置点)进行比较计算差异距离,计算误差最小偏差率。然后将确定的所述位置发送给所述机器人。
建立多源定位信息的神经网络模型的方法可以为:机器人预先由机器人接收的环境中固定安置的信号发射源的信号感应信息推算获得环境感知定位备选位置点,由机器人接收到的附近其他机器人传送的定位信息等信息推算获得多机协同感知定位备选位置点,由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***获得当前室外移动机器人的卫星导航定位备选位置点,由机器人的视觉定位***获得环境图像信息定位备选位置点,由机器人的IMU和里程计等测算获得轨迹计算定位备选位置点。室外移动机器人在环境中多次测试获得一系列上述5种定位备选位置点信息,专业人员对机器人进行测试的位置进行精确标定,从而获得对应的一系列人工标定环境位置点精确信息。将这些定位备选位置点信息以及人工标定环境位置点精确信息输入到机器人定位中央管理***中训练得到用于机器人融合定位的神经网络模型,该神经网络模型输入为5种定位备选位置点信息,输出为融合后的估计机器人定位信息。
所述确定位姿的实时估计,包括:
通过加速度计采集所述室外移动机器人在坐标系中的三个坐标轴方向上的加速度信息;
通过陀螺仪采集所述室外移动机器人在坐标系中的三个坐标轴方向上的角速度信息;
根据所述角速度信息和所述加速度信息确定第一定位信息;
通过里程计中的光电编码器确定在采样周期内脉冲的变化量;
根据所述脉冲的变化量确定室外移动机器人移动的距离和方向角的变化量;
根据所述机器人移动的距离和方向角的变化量,确定室外移动机器人位姿的相对变化;
所述通过神经网络模型确定室外移动机器人当前所在位置之前,还包括:
室外移动机器人在环境中多次测试获得多次5种定位备选位置点信息;
对所述室外移动机器人进行测试的位置进行精确标定;
将所述5种定位备选位置点信息以及精确标定后的位置信息输入神经网络模型中进行训练,得到用于机器人融合定位的神经网络模型。
所述计算误差最小偏差率,包括:
设置当前时刻为t,设置t时刻的环境感知定位备选位置点多机协同感知定位备选位置点卫星导航定位备选位置点环境图像信息定位备选位置点和轨迹计算定位备选位置点设置t时刻的融合后的估计机器人定位位置点为Xt,按照下式计算t时刻的5种定位方式的误差;
设置决策时长n,即计算t时刻误差最小偏差率要考虑t时刻定位最小误差,(t-1)时刻定位最小误差一直到(t-n)时刻定位最小误差共(n+1)组数据,利用下式计算t时刻误差最小偏差率μt。
图2是本申请的室外移动机器人定位***的组成框图。室外移动机器人定位***,包括:
中央管理***和机器人子***;
所述中央管理***包括:
机器人定位中央管理***,用于处理接收到的环境感知定位备选位置点信息、多机协同感知定位备选位置点信息、卫星导航定位备选位置点信息、环境图像信息定位备选位置点信息和轨迹计算定位备选位置点信息;
中央管理***通信交互模块,用于与所述机器人子***进行通信;
所述机器人子***包括:
室外移动机器人环境感知定位模块,用于实现环境感知定位,得到环境感知定位备选位置点;
室外移动机器人多机协同感知定位模块,用于实现多机协同感知定位,得到多机协同感知定位备选位置点;
室外移动机器人卫星导航定位模块,用于实现卫星导航定位,得到卫星导航定位备选位置点;
室外移动机器人环境图像信息定位模块,用于实现环境图像信息定位,得到环境图像信息定位备选位置点;
室外移动机器人轨迹计算定位模块,用于实现轨迹计算定位,得到轨迹计算定位备选位置点;
室外移动机器人通信交互模块,用于与所述中央管理***进行通信;
所述中央管理***和所述机器人子***,用于实现所述的室外移动机器人定位方法。
上述一种基于多传感器融合的室外移动机器人定位***,能实现上述机器人的定位方法。
在一些实施例中,计算机程序的部分或者全部可以经由ROM而被载入和/或安装到设备上。当计算机程序加载并被执行时,可以执行上文描述的方法的一个或多个步骤。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (10)
1.一种基于多传感器融合的室外移动机器人定位方法,其特征在于,该方法包括:
步骤1、初始化机器人定位中央管理***,导入环境地图,建立环境坐标系;
步骤2、所述机器人定位中央管理***确定通信***的运行是否正常;若通信***的运行存在问题,则通过预警来通知专业人员进行处理,等待通信***恢复正常后,再继续进行后续的步骤;若通信***的运行正常,则执行步骤3;
步骤3、所述室外移动机器人确定环境感知定位备选位置点,该环境感知定位备选位置点由机器人接收的环境中固定安置的信号发射源的信号感应信息推算获得;在室外移动机器人通过接收的环境中固定安置的信号发射源的信号感应信息进行定位之前,机器人中央定位***先建立环境感知定位位置数据库;
步骤4、所述室外移动机器人确定多机协同感知定位备选位置点,所述多机协同感知定位备选位置点由机器人接收到的附近其他机器人传送的定位信息等信息推算获得;
步骤5、所述室外移动机器人确定卫星导航定位备选位置点,所述卫星导航定位备选位置点由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***获得;
步骤6、所述室外移动机器人确定环境图像信息定位备选位置点,所述环境图像信息定位备选位置点由机器人的视觉定位***获得;
步骤7、所述室外移动机器人确定轨迹计算定位备选位置点,所述轨迹计算定位备选位置点由机器人的IMU和里程计测算获得;
步骤8、所述机器人将所述环境感知定位备选位置点、所述多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点通过环境中4G、5G或者WiFi通信***发送到所述机器人定位中央管理***;
步骤9、所述机器人定位中央管理***根据接收到的所述环境感知定位备选位置点、所述多机协同感知定位备选位置点、卫星导航定位备选位置点、环境图像信息定位备选位置点和所述轨迹计算定位备选位置点,利用神经网络模型融合多源位置信息确定机器人当前所在位置,以融合后的机器人定位信息与5种定位备选位置点进行比较并计算差异距离,计算误差最小偏差率;然后将确定的具有最小偏差率的位置信息发送给所述机器人。
2.根据权利要求1所述的室外移动机器人定位方法,其特征在于,所述环境感知定位位置数据库通过以下方法实现:
机器人定位中央管理***预先在环境中设置环境采样点,并由专业人员精确确定每个环境采样点的坐标数据,室外移动机器人携带用于接收环境中固定安置的信号发射源的信号的专用设备,在每个环境采样点进行多次采样,以得到每个环境采样点的接收的信号强度指示数据信息,然后建立环境采样点的信号强度指示数据数据库,并将其作为环境感知定位位置数据库;
当室外移动机器人开始进行环境感知定位时,室外移动机器人将读取当前接收环境中固定安置的信号发射源的信号,机器人携带的专用设备接收到信号发射源的信号强度指示数据,并通过环境中4G、5G或者WiFi通信***将机器人获得的信号发射源的信号强度指示数据发送到机器人定位中央管理***,机器人定位中央管理***根据室外移动机器人获得的信号发射源的信号强度指示数据与建立的环境感知定位位置数据库进行匹配,将匹配的相似度最高的环境采样点确定为环境感知定位备选位置点;
在运行环境中固定安置了一个或多个信号发射源向环境发射出各自的信号,每个信号发射源有各自的地址可以作为各自区别在环境中各处位置接收到各信号发射源的信号强度存在差异性,在各个环境采样点采集对应采样的位置而得到的各个信号发射源的信号强度,得到在一个位置的各个信号发射源的信号强度,并根据该信号强度反向逆推得到相似度最高的位置是哪一个环境采样点,将相似度最高的位置对应的环境采样点确定为环境感知定位备选位置点。
3.根据权利要求1所述的室外移动机器人定位方法,其特征在于,步骤4中,所述确定多机协同感知定位备选位置点,具体包括:
当室外移动机器人开始进行多机协同感知定位时,在该室外移动机器人附近的室外移动机器人将自己的定位信息,自己的机器人编号和之前进行定位过程中得到的误差最小偏差率发送给该室外移动机器人,该室外移动机器人确定误差最小偏差率最小的另一个的室外移动机器人,根据它的定位信息和它的机器人编号对应的通信信号强弱和信号方向估计两个室外移动机器人的相对位置,由确定的相对位置和误差最小偏差率最小的另一个的室外移动机器人的定位信息确定该室外移动机器人的多机协同感知定位备选位置点;
在步骤5中,所述室外移动机器人携带了卫星导航信号接收器,用于接收由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***发出的定位信息;
在步骤6中,所述室外移动机器人确定环境图像信息定位备选位置点,具体包括:机器人定位中央管理***预先在环境中设置环境采样点,确定每个环境采样点的坐标数据,在每个所述环境采样点至少采集两次当前环境图像信息,并提取所述环境图像的特征,并对所述环境图像进行编码和池化,形成环境图像的信息数据库;当机器人开始进行环境图像的信息定位时,机器人利用携带的图像采集设备采集当前环境图像信息,并通过环境中4G、5G或者WiFi通信***将室外移动机器人获得的当前环境图像信息发送到机器人定位中央管理***,机器人定位中央管理***根据机器人获得的环境图像信息进行特征提取,与环境图像信息数据库中实际环境特征信息进行匹配,确定环境图像特征与每个实际环境特征信息的匹配度,将匹配度最高的环境图像信息确定为环境图像信息定位备选位置点。
4.根据权利要求1所述的室外移动机器人定位方法,其特征在于,在步骤7中,所述由机器人的IMU和里程计测算获得,具体包括:室外移动机器人开始进行传感器定位时,室外移动机器人预先获得初始时刻的一个环境位置以及位姿信息,然后基于里程计、惯性传感器IMU获得的传感器信息计算出每一时刻的位姿相对于上一时刻位姿的距离以及方向角的变化,从而实现位姿的实时估计;
惯性传感器IMU中的加速度计采集到室外移动机器人在坐标系中的三个坐标轴方向上的加速度信息,惯性传感器IMU中的陀螺仪采集得到相对于坐标系的三个坐标轴方向上的角速度信息,根据室外移动机器人在三维空间中的角速度以及加速度值计算出对应的姿态以及当前的位置,携带的里程计中的光电编码器通过在采样周期内脉冲的变化量来计算出室外移动机器人在环境中移动的距离和方向角的变化量,从而计算出室外移动机器人位姿的相对变化,从而估算得到对应的室外移动机器人姿态以及室外移动机器人当前所在的位置,以粒子滤波的方法融合惯性传感器IMU中获得的定位信息和里程计传感器中获得的定位信息,得到传感器定位位置,确定其对应的环境位置。
5.根据权利要求1所述的室外移动机器人定位方法,其特征在于,在步骤9中,利用神经网络模型融合多源位置信息确定机器人当前所在位置,具体包括:
机器人预先由接收的环境中固定安置的信号发射源的信号感应信息推算获得环境感知定位备选位置点,由接收到的附近其他机器人传送的定位信息来推算获得多机协同感知定位备选位置点,由北斗卫星导航***、GPS导航***、GLONASS导航***或者GALILEO导航***获得当前室外移动机器人的卫星导航定位备选位置点,由视觉定位***获得环境图像信息定位备选位置点,由IMU和里程计测算获得轨迹计算定位备选位置点;机器人在环境中多次测试获得一系列上述5种定位备选位置点信息,专业人员对机器人进行测试的位置进行精确标定,从而获得对应的一系列人工标定环境位置点精确信息;
将这些定位备选位置点信息以及人工标定环境位置点精确信息输入到机器人定位中央管理***中训练,得到用于机器人融合定位的神经网络模型,该神经网络模型输入为5种定位备选位置点信息,输出为融合后的机器人定位信息。
6.根据权利要求4所述的方法,其特征在于,所述实现位姿的实时估计,包括:
通过加速度计采集所述室外移动机器人在坐标系中的三个坐标轴方向上的加速度信息;
通过陀螺仪采集所述室外移动机器人在坐标系中的三个坐标轴方向上的角速度信息;
根据所述角速度信息和所述加速度信息确定第一定位信息;
通过里程计中的光电编码器确定在采样周期内脉冲的变化量;
根据所述脉冲的变化量确定室外移动机器人移动的距离和方向角的变化量;
根据所述机器人移动的距离和方向角的变化量,确定室外移动机器人位姿的相对变化。
7.根据权利要求1所述的方法,其特征在于,所述利用神经网络模型融合多源位置信息确定机器人当前所在位置之前,还包括:
室外移动机器人在环境中多次测试获得多次5种定位备选位置点信息;
对所述室外移动机器人进行测试的位置进行精确标定;
将所述5种定位备选位置点信息以及精确标定后的位置信息输入神经网络模型中进行训练,得到用于机器人融合定位的神经网络模型。
8.根据权利要求1所述的方法,其特征在于,所述计算误差最小偏差率,包括:
设置当前时刻为t,设置t时刻的环境感知定位备选位置点多机协同感知定位备选位置点卫星导航定位备选位置点环境图像信息定位备选位置点和轨迹计算定位备选位置点设置t时刻的融合后的估计机器人定位位置点为Xt,按照下式计算t时刻的5种定位方式的误差;
设置决策时长n,即计算t时刻误差最小偏差率要考虑t时刻定位最小误差,(t-1)时刻定位最小误差一直到(t-n)时刻定位最小误差共(n+1)组数据,利用下式计算t时刻误差最小偏差率μt:
该误差最小偏差率将用于多机协同感知定位过程。
9.一种基于多传感器融合的室外移动机器人定位***,其特征在于,包括:
中央管理***和机器人子***;
所述中央管理***包括:
机器人定位中央管理***,用于处理接收到的环境感知定位备选位置点信息、多机协同感知定位备选位置点信息、卫星导航定位备选位置点信息、环境图像信息定位备选位置点信息和轨迹计算定位备选位置点信息;
中央管理***通信交互模块,用于与所述机器人子***进行通信;
所述机器人子***包括:
室外移动机器人环境感知定位模块,用于实现环境感知定位,得到环境感知定位备选位置点;
室外移动机器人多机协同感知定位模块,用于实现多机协同感知定位,得到多机协同感知定位备选位置点;
室外移动机器人卫星导航定位模块,用于实现卫星导航定位,得到卫星导航定位备选位置点;
室外移动机器人环境图像信息定位模块,用于实现环境图像信息定位,得到环境图像信息定位备选位置点;
室外移动机器人轨迹计算定位模块,用于实现轨迹计算定位,得到轨迹计算定位备选位置点;
室外移动机器人通信交互模块,用于与所述中央管理***进行通信;
所述中央管理***和所述机器人子***,用于实现如权利要求1到4之一所述的机器人定位方法。
10.一种电子设备,包括存储器单元和处理器单元,所述存储器单元上存储有计算机程序,其特征在于,所述处理器单元执行所述程序时实现如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010793788.1A CN111947644B (zh) | 2020-08-10 | 2020-08-10 | 一种室外移动机器人定位方法、***及其电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010793788.1A CN111947644B (zh) | 2020-08-10 | 2020-08-10 | 一种室外移动机器人定位方法、***及其电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111947644A true CN111947644A (zh) | 2020-11-17 |
CN111947644B CN111947644B (zh) | 2022-04-12 |
Family
ID=73331855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010793788.1A Active CN111947644B (zh) | 2020-08-10 | 2020-08-10 | 一种室外移动机器人定位方法、***及其电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111947644B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112711055A (zh) * | 2020-12-08 | 2021-04-27 | 重庆邮电大学 | 一种基于边缘计算的室内外无缝定位***及方法 |
CN113029138A (zh) * | 2021-04-02 | 2021-06-25 | 扬州大学 | 一种基于多传感器数据融合的小车实时姿态检测方法 |
CN113351631A (zh) * | 2021-07-05 | 2021-09-07 | 北京理工大学 | 一种光电智能垃圾分拣小车*** |
CN115190586A (zh) * | 2022-09-08 | 2022-10-14 | 东南大学 | 一种移动终端辅助的智能家居设备位置感知方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040174297A1 (en) * | 2003-03-06 | 2004-09-09 | Samsung Electronics Co. Ltd. | Hybird navigation system using neural network |
CN104535061A (zh) * | 2015-01-06 | 2015-04-22 | 常州先进制造技术研究所 | 一种基于多传感器数据融合的导航*** |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位***及导航定位方法 |
CN108981720A (zh) * | 2018-10-25 | 2018-12-11 | 哈尔滨工业大学 | Uwb与惯导融合的室内导航*** |
DE102019201695A1 (de) * | 2018-04-26 | 2019-10-31 | Lear Corporation | Biometriksensorfusion für die Klassifizierung des Zustands eines Fahrzeuginsassen |
CN110553652A (zh) * | 2019-10-12 | 2019-12-10 | 上海高仙自动化科技发展有限公司 | 机器人多传感器融合定位方法及其应用 |
CN111413970A (zh) * | 2020-03-18 | 2020-07-14 | 天津大学 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
-
2020
- 2020-08-10 CN CN202010793788.1A patent/CN111947644B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040174297A1 (en) * | 2003-03-06 | 2004-09-09 | Samsung Electronics Co. Ltd. | Hybird navigation system using neural network |
CN104535061A (zh) * | 2015-01-06 | 2015-04-22 | 常州先进制造技术研究所 | 一种基于多传感器数据融合的导航*** |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位***及导航定位方法 |
DE102019201695A1 (de) * | 2018-04-26 | 2019-10-31 | Lear Corporation | Biometriksensorfusion für die Klassifizierung des Zustands eines Fahrzeuginsassen |
CN108981720A (zh) * | 2018-10-25 | 2018-12-11 | 哈尔滨工业大学 | Uwb与惯导融合的室内导航*** |
CN110553652A (zh) * | 2019-10-12 | 2019-12-10 | 上海高仙自动化科技发展有限公司 | 机器人多传感器融合定位方法及其应用 |
CN111413970A (zh) * | 2020-03-18 | 2020-07-14 | 天津大学 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
Non-Patent Citations (1)
Title |
---|
徐龙阳等: ""基于神经网络的多传感器融合PDR定位方法"", 《传感技术学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112711055A (zh) * | 2020-12-08 | 2021-04-27 | 重庆邮电大学 | 一种基于边缘计算的室内外无缝定位***及方法 |
CN112711055B (zh) * | 2020-12-08 | 2024-03-19 | 重庆邮电大学 | 一种基于边缘计算的室内外无缝定位***及方法 |
CN113029138A (zh) * | 2021-04-02 | 2021-06-25 | 扬州大学 | 一种基于多传感器数据融合的小车实时姿态检测方法 |
CN113351631A (zh) * | 2021-07-05 | 2021-09-07 | 北京理工大学 | 一种光电智能垃圾分拣小车*** |
CN115190586A (zh) * | 2022-09-08 | 2022-10-14 | 东南大学 | 一种移动终端辅助的智能家居设备位置感知方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111947644B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111947644B (zh) | 一种室外移动机器人定位方法、***及其电子设备 | |
CN110673115B (zh) | 雷达与组合导航***的联合标定方法、装置、设备及介质 | |
CN108519615B (zh) | 基于组合导航和特征点匹配的移动机器人自主导航方法 | |
TWI827649B (zh) | 用於vslam比例估計的設備、系統和方法 | |
KR20200044420A (ko) | 위치 추정 방법 및 장치 | |
CN111220153B (zh) | 基于视觉拓扑节点和惯性导航的定位方法 | |
CN109282808B (zh) | 用于桥梁三维巡航检测的无人机与多传感器融合定位方法 | |
US8077913B2 (en) | Method and device for determining the actual position of a geodetic instrument | |
CN109937341B (zh) | 用于估计自己的位置的方法和设备 | |
CN110726409A (zh) | 一种基于激光slam和视觉slam地图融合方法 | |
EP3842735B1 (en) | Position coordinates estimation device, position coordinates estimation method, and program | |
CN110361008B (zh) | 地下车库自动泊车的定位方法及装置 | |
US8467612B2 (en) | System and methods for navigation using corresponding line features | |
CN111742326A (zh) | 车道线的检测方法、电子设备与存储介质 | |
CN113330279A (zh) | 用于确定车辆的位置的方法和*** | |
CN113147738A (zh) | 一种自动泊车定位方法和装置 | |
CN112631314B (zh) | 基于多线激光雷达与事件相机slam的机器人控制方法、*** | |
CN113710988A (zh) | 用于识别环境传感器的功能能力的方法、控制仪和车辆 | |
CN110702091A (zh) | 一种沿地铁轨道移动机器人的高精度定位方法 | |
CN111679680A (zh) | 一种无人机自主着舰方法及*** | |
KR20170083662A (ko) | 센서 오차에 강건한 지도 작성 장치 | |
CN112823321A (zh) | 对基于多种类型传感器的位置识别结果进行混合的位置定位***及其方法 | |
CN115200572B (zh) | 三维点云地图构建方法、装置、电子设备及存储介质 | |
CN111521971B (zh) | 一种机器人的定位方法及*** | |
CN109612462A (zh) | 多传感器数据融合定位方法及其安防机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231124 Address after: Room 203-1A, East Zone, R&D Building, Zibo Science and Technology Industrial Park Entrepreneurship Park, No. 69 Sanying Road, Fangzhen Town, Zhangdian District, Zibo City, Shandong Province, 255000 Patentee after: Luobixing (Shandong) Intelligent Technology Co.,Ltd. Address before: A1002, Jinqiu international building, yard 6, Zhichun Road, Beitaipingzhuang street, Haidian District, Beijing Patentee before: Beijing Lobby Technology Co.,Ltd. |
|
TR01 | Transfer of patent right |