CN106052683A - 机器人运动姿态估计方法 - Google Patents

机器人运动姿态估计方法 Download PDF

Info

Publication number
CN106052683A
CN106052683A CN201610353912.6A CN201610353912A CN106052683A CN 106052683 A CN106052683 A CN 106052683A CN 201610353912 A CN201610353912 A CN 201610353912A CN 106052683 A CN106052683 A CN 106052683A
Authority
CN
China
Prior art keywords
road sign
key frame
sign point
storehouse
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610353912.6A
Other languages
English (en)
Inventor
张茗
张一茗
陈震
朱骋
王皓月
李经纬
蒋申璐
杨永全
任海波
杜新鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qfeeltech Beijing Co Ltd
Original Assignee
Qfeeltech Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qfeeltech Beijing Co Ltd filed Critical Qfeeltech Beijing Co Ltd
Priority to CN201610353912.6A priority Critical patent/CN106052683A/zh
Publication of CN106052683A publication Critical patent/CN106052683A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种机器人运动姿态估计方法,包括:双目摄像头采集双目视觉图像,以及惯性测量单元采集惯性数据;根据双目视觉图像更新预先获取的关键帧库和路标点库,并将路标点库中的每个路标点构建投影误差项;将惯性数据代入预先构建的惯性测量单元的运动误差模型中,获取惯性测量单元的运动模型估计误差项;将投影误差项和运动模型估计误差项代入高斯牛顿迭代模型,并对高斯牛顿迭代模型进行迭代计算,并将能够使得误差代价函数最小的解作为最优解,用于估计机器人在下一时刻的位置和姿态。本发明提供的机器人运动姿态估计方法,充分利用视觉数据和惯性数据,提高了对机器人运动姿态估计的精确度。

Description

机器人运动姿态估计方法
技术领域
本发明涉及一种机器人运动姿态估计方法。
背景技术
机器人运动姿态的精确估计与定位对未知环境探索、自主导航、定位构图、路径规划等都具有十分重要的作用。目前,对于机器人运动姿态的估计通常采用视觉与惯性测量单元相结合的方式实现,即,采用视觉数据与惯性测量单元所获得的惯性数据相融合,从而对机器人的运动姿态进行估计。但是,现有的机器人运动姿态的估计方法的缺陷是:主要采用较为简单的卡尔曼滤波方法对视觉数据和惯性数据做松组合,没有充分利用视觉数据和惯性数据,对机器人运动姿态估计的精确度不高。
发明内容
本发明要解决的技术问题是提供一种机器人运动姿态估计方法,充分利用视觉数据和惯性数据,提高对机器人运动姿态估计的精确度。
为解决上述技术问题,本发明提供一种机器人运动姿态估计方法,包括:双目摄像头采集双目视觉图像,以及惯性测量单元采集惯性数据;根据双目视觉图像更新预先获取的关键帧库和路标点库,并将路标点库中的每个路标点构建投影误差项;将惯性数据代入预先构建的惯性测量单元的运动误差模型中,获取惯性测量单元的运动模型估计误差项;将投影误差项和运动模型估计误差项代入高斯牛顿迭代模型,并对高斯牛顿迭代模型进行迭代计算,并将能够使得误差代价函数最小的解作为最优解,用于估计机器人在下一时刻的位置和姿态。
进一步地,预先获取的关键帧库和路标点库的获取步骤包括:双目摄像头采集若干帧视觉图像,并对每一帧视觉图像进行关键帧判断,获取关键帧库,并对每一帧关键帧进行路标点提取以获取路标点库,其中每一帧关键帧对应一个路标点库。
进一步地,对每一帧视觉图像进行关键帧判断的方式为:提取并存储每一帧视觉图像中的Harris角点和BRISK描述子,并根据Harris角点和BRISK描述子,对每一帧图像进行关键帧判断。
进一步地,根据双目视觉图像更新预先获取的关键帧库和路标点库的步骤为:将双目视觉图像中的路标点与每一帧关键帧中的路标点库进行比对,当双目视觉图像中路标点与关键帧中的路标点库的路标点的匹配数量少于50%,则将双目视觉图像添加为关键帧,并存入关键帧库中。
进一步地,惯性数据包括:惯性测量单元在自身坐标系下三个轴向的加速度,机器人处于无明显外力时得到的机器人的俯仰角,横滚角以及偏航角。
进一步地,高斯牛顿迭代模型为:Hδx=b
其中,H为坐标系变换过程产生的投影误差项,δx为运动模型估计误差项,x为状态向量,b为信息矩阵。
进一步地,状态向量包括左状态向量和右状态向量;左状态向量为:右向量为:其中,xL为路标点世界坐标系下的空间坐标,W代指世界坐标系,S代指惯性测量单元的敏感轴坐标系,WS代指从世界坐标系向敏感轴坐标系转换,T为变换矩阵,p表示位置,q表示姿态四元数,v表示速度,bg表示陀螺仪零偏,ba表示加速度计零偏。
进一步地,惯性测量单元的运动误差模型为:其中 为从世界坐标系到敏感轴坐标系的姿态变换矩阵的共轭矩阵,为从敏感轴坐标系到世界坐标系的姿态变换矩阵的共轭矩阵,G为已知量,为xR的共轭矩阵,w为权重系数矩阵,[·]×表示该向量的反对称矩阵。
进一步地,误差代价函数为:其中,i表示第i个摄像头,k表示第k个关键帧,j表示第j个路标点,且j∈Ο(i,k)表示某个路标点是第i个摄像头的第k个关键帧中的路标点,er为投影误差,es为运动模型估计误差,Wr为投影误差对应的权重系数矩阵,Ws为运动模型估计误差对应的权重系数矩阵。
进一步地,还包括:对双目摄像头采集的视觉图像进行图像优化。
本发明提供的机器人运动姿态估计方法,使用双目摄像头采集双目视觉图像,以及采用惯性测量单元采集惯性数据,并根据双目视觉图像更新预先获取的关键帧库和路标点库,并对路标点库中的每个路标点构建投影误差项;此外,还将惯性数据代入预先构建的惯性测量单元的运动误差模型中,以获取惯性测量单元的运动模型估计误差项;最后将投影误差项和运动模型估计误差项代入高斯牛顿迭代模型,通过对高斯牛顿迭代模型进行不断地迭代计算,并将能够使得误差代价函数最小的解作为最优解,用于估计机器人在下一时刻的位置和姿态。
本发明提供的机器人运动姿态估计方法,充分利用视觉数据和惯性数据,提高了对机器人运动姿态估计的精确度。
附图说明
图1是本发明实施例提供的一种机器人运动姿态估计方法的流程图。
具体实施方式
下面通过具体的实施例进一步说明本发明,但是,应当理解为,这些实施例仅仅是用于更详细具体地说明之用,而不应理解为用于以任何形式限制本发明。
结合图1,本实施例提供的机器人运动姿态估计方法,包括:
步骤S1:双目摄像头采集双目视觉图像,以及惯性测量单元采集惯性数据;
步骤S2:根据双目视觉图像更新预先获取的关键帧库和路标点库,并将路标点库中的每个路标点构建投影误差项;
步骤S3:将惯性数据代入预先构建的惯性测量单元的运动误差模型中,获取惯性测量单元的运动模型估计误差项;
步骤S4:将投影误差项和运动模型估计误差项代入高斯牛顿迭代模型,并对高斯牛顿模型进行迭代计算,并将能够使得误差代价函数最小的解作为最优解,用于估计机器人在下一时刻的位置和姿态。
本发明实施例提供的机器人运动姿态估计方法,使用双目摄像头采集双目视觉图像,以及采用惯性测量单元采集惯性数据,并根据双目视觉图像更新预先获取的关键帧库和路标点库,并对路标点库中的每个路标点构建投影误差项;此外,还将惯性数据代入预先构建的惯性测量单元的运动误差模型中,以获取惯性测量单元的运动模型估计误差项;最后将投影误差项和运动模型估计误差项代入高斯牛顿迭代模型,通过对高斯牛顿迭代模型进行不断地迭代计算,并将能够使得误差代价函数最小的解作为最优解,用于估计机器人在下一时刻的位置和姿态。
本发明实施例提供的机器人运动姿态估计方法,充分利用视觉数据和惯性数据,提高了对机器人运动姿态估计的精确度。
优选地,预先获取的关键帧库和路标点库的获取步骤包括:双目摄像头采集若干帧视觉图像,并对每一帧视觉图像进行关键帧判断,获取关键帧库,并对每一帧关键帧进行路标点提取以获取路标点库,其中每一帧关键帧对应一个路标点库。
进一步优选地,对每一帧视觉图像进行关键帧判断的方式为:提取并存储每一帧视觉图像中的Harris角点和BRISK描述子,并根据Harris角点和BRISK描述子,对每一帧图像进行关键帧判断。其中,需要说明的是,Harris角点和BRISK描述子是两个以人名进行命名的特征点描述子,且Harris角点和BRISK描述子是本领域技术人员能够理解且接受的。
此外,需要说明的是,本实施例对具体的特征点描述子的具体类型不做限定,也可以根据实际需要采用其他特征点描述子进行特征描述。
优选地,根据双目视觉图像更新预先获取的关键帧库和路标点库的步骤为:将双目视觉图像中的路标点与每一帧关键帧中的路标点库进行比对,当双目视觉图像中的路标点与关键帧中的路标点库中的路标点的匹配数量少于50%,则将双目视觉图像添加为关键帧,并存入关键帧库中。
优选地,惯性数据包括:惯性测量单元在自身坐标系下三个轴向的加速度,机器人处于无明显外力时得到的机器人的俯仰角,横滚角以及偏航角。其中,所提及的机器人处于无明显外力是指,机器人处于匀速运动或者静止等稳定状态。
进一步优选地,高斯牛顿迭代模型为:Hδx=b,其中,H为坐标系变换过程产生的投影误差项,δx为运动模型估计误差项,x为状态向量,b为信息矩阵。
进一步优选地,状态向量包括左状态向量和右状态向量;左状态向量为:右向量为:其中,xL为路标点世界坐标系下的空间坐标,W代指世界坐标系,S代指惯性测量单元的敏感轴坐标系,WS代指从世界坐标系向敏感轴坐标系转换,T为变换矩阵,p表示位置,q表示姿态四元数,v表示速度,bg表示陀螺仪零偏,ba表示加速度计零偏。
优选地,惯性测量单元的运动误差模型为:其中 为从世界坐标系到敏感轴坐标系的姿态变换矩阵的共轭矩阵,为从敏感轴坐标系到世界坐标系的姿态变换矩阵的共轭矩阵,G为已知量,为xR的共轭矩阵,w为权重系数矩阵,[·]×表示该向量的反对称矩阵。
优选地,误差代价函数为:其中,i表示第i个摄像头,k表示第k个关键帧,j表示第j个路标点,且j∈Ο(i,k)表示某个路标点是第i个摄像头的第k个关键帧中的路标点,er为投影误差,es为运动模型估计误差,Wr为投影误差对应的权重系数矩阵,Ws为运动模型估计误差对应的权重系数矩阵。
进一步优选地,还包括:对双目摄像头采集的视觉图像进行图像优化。本实施例对采集到的视觉图像进行图像优化,例如进行自动白平衡调节,自动曝光调节。本实施例对视觉图像进行优化的目的在于,可以提高对机器人运动姿态估计的精度。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。

Claims (10)

1.一种机器人运动姿态估计方法,其特征在于,包括:
双目摄像头采集双目视觉图像,以及惯性测量单元采集惯性数据;
根据所述双目视觉图像更新预先获取的关键帧库和路标点库,并将所述路标点库中的每个路标点构建投影误差项;
将所述惯性数据代入预先构建的惯性测量单元的运动误差模型中,获取惯性测量单元的运动模型估计误差项;
将所述投影误差项和所述运动模型估计误差项代入高斯牛顿迭代模型,并对所述高斯牛顿迭代模型进行迭代计算,并将能够使得误差代价函数最小的解作为最优解,用于估计机器人在下一时刻的位置和姿态。
2.根据权利要求1所述的机器人运动姿态估计方法,其特征在于,所述预先获取的关键帧库和路标点库的获取步骤包括:
双目摄像头采集若干帧视觉图像,并对所述每一帧视觉图像进行关键帧判断,获取关键帧库,并对所述每一帧关键帧进行路标点提取以获取路标点库,其中所述每一帧关键帧对应一个路标点库。
3.根据权利要求2所述的机器人运动姿态估计方法,其特征在于,所述对所述每一帧视觉图像进行关键帧判断的方式为:
提取并存储所述每一帧视觉图像中的Harris角点和BRISK描述子,并根据所述Harris角点和所述BRISK描述子,对所述每一帧图像进行关键帧判断。
4.根据权利要求1所述的机器人运动姿态估计方法,其特征在于,所述根据所述双目视觉图像更新预先获取的关键帧库和路标点库的步骤为:
将所述双目视觉图像中的路标点与所述每一帧关键帧中的路标点库进行比对,当所述双目视觉图像中路标点与所述关键帧中的所述路标点库中的路标点的匹配数量少于50%,则将所述双目视觉图像添加为关键帧,并存入关键帧库中。
5.根据权利要求1所述的机器人运动姿态估计方法,其特征在于,所述惯性数据包括:所述惯性测量单元在自身坐标系下三个轴向的加速度,机器人处于无明显外力时得到的机器人的俯仰角,横滚角以及偏航角。
6.根据权利要求1所述的机器人运动姿态估计方法,其特征在于,所述高斯牛顿迭代模型为:Hδx=b;
其中,H为坐标系变换过程产生的投影误差项,δx为运动模型估计误差项,x为状态向量,b为信息矩阵。
7.根据权利要求6所述的机器人运动姿态估计方法,其特征在于,所述状态向量包括左状态向量和右状态向量;
左状态向量为:
右向量为:
其中,xL为路标点世界坐标系下的空间坐标,W代指世界坐标系,S代指惯性测量单元的敏感轴坐标系,WS代指从世界坐标系向敏感轴坐标系转换,T为变换矩阵,p表示位置,q表示姿态四元数,v表示速度,bg表示陀螺仪零偏,ba表示加速度计零偏。
8.根据权利要求1所述的机器人运动姿态估计方法,其特征在于,所述惯性测量单元的运动误差模型为:
其中 为从世界坐标系到敏感轴坐标系的姿态变换矩阵的共轭矩阵,为从敏感轴坐标系到世界坐标系的姿态变换矩阵的共轭矩阵,G为已知量,为xR的共轭矩阵,w为权重系数矩阵,[·]×表示该向量的反对称矩阵。
9.根据权利要求1所述的机器人运动姿态估计方法,其特征在于,所述误差代价函数为:
其中,i表示第i个摄像头,k表示第k个关键帧,j表示第j个路标点,且j∈O(i,k)表示某个路标点是第i个摄像头的第k个关键帧中的路标点,er为投影误差,es为运动模型估计误差,Wr为投影误差对应的权重系数矩阵,Ws为运动模型估计误差对应的权重系数矩阵。
10.根据权利要求1至9中任一项所述的机器人运动姿态估计方法,其特征在于,还包括:对所述双目摄像头采集的视觉图像进行图像优化。
CN201610353912.6A 2016-05-25 2016-05-25 机器人运动姿态估计方法 Pending CN106052683A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610353912.6A CN106052683A (zh) 2016-05-25 2016-05-25 机器人运动姿态估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610353912.6A CN106052683A (zh) 2016-05-25 2016-05-25 机器人运动姿态估计方法

Publications (1)

Publication Number Publication Date
CN106052683A true CN106052683A (zh) 2016-10-26

Family

ID=57175989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610353912.6A Pending CN106052683A (zh) 2016-05-25 2016-05-25 机器人运动姿态估计方法

Country Status (1)

Country Link
CN (1) CN106052683A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107101616A (zh) * 2017-05-23 2017-08-29 北京小鸟看看科技有限公司 一种定位物体的身份识别方法、装置和***
CN107747941A (zh) * 2017-09-29 2018-03-02 歌尔股份有限公司 一种双目视觉定位方法、装置及***
CN107845114A (zh) * 2017-11-10 2018-03-27 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN107941217A (zh) * 2017-09-30 2018-04-20 杭州迦智科技有限公司 一种机器人定位方法、电子设备、存储介质、装置
CN108801248A (zh) * 2018-06-22 2018-11-13 深圳市北斗产业互联网研究院 基于ukf的平面视觉惯性导航方法
CN108827301A (zh) * 2018-04-16 2018-11-16 南京航空航天大学 一种改进误差四元数卡尔曼滤波机器人姿态解算方法
CN109465832A (zh) * 2018-12-18 2019-03-15 哈尔滨工业大学(深圳) 高精度视觉和imu紧融合定位方法与***
CN110018688A (zh) * 2019-04-11 2019-07-16 清华大学深圳研究生院 基于视觉的自动引导车定位方法
CN110146074A (zh) * 2018-08-28 2019-08-20 北京初速度科技有限公司 一种应用于自动驾驶的实时定位方法及装置
CN110196047A (zh) * 2019-06-20 2019-09-03 东北大学 基于tof深度相机与imu的平仓机器人自主定位方法
CN110874569A (zh) * 2019-10-12 2020-03-10 西安交通大学 一种基于视觉惯性融合的无人机状态参数初始化方法
CN111383282A (zh) * 2018-12-29 2020-07-07 杭州海康威视数字技术股份有限公司 位姿信息确定方法及装置
CN111623773A (zh) * 2020-07-17 2020-09-04 国汽(北京)智能网联汽车研究院有限公司 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN113008271A (zh) * 2019-08-15 2021-06-22 深圳市瑞立视多媒体科技有限公司 校准3d旋转差异的数学模型构建方法、校准方法及其装置
WO2021128787A1 (zh) * 2019-12-23 2021-07-01 ***股份有限公司 一种定位的方法及装置
CN113375657A (zh) * 2021-04-26 2021-09-10 北京迈格威科技有限公司 电子地图的更新方法、装置和电子设备
CN116664910A (zh) * 2023-04-17 2023-08-29 中国水产科学研究院南海水产研究所 基于人工智能的游泳动物多参数测量装置及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102109348A (zh) * 2009-12-25 2011-06-29 财团法人工业技术研究院 定位载体、估测载体姿态与建地图的***与方法
CN103292804A (zh) * 2013-05-27 2013-09-11 浙江大学 一种单目自然视觉路标辅助的移动机器人定位方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN103424114A (zh) * 2012-05-22 2013-12-04 同济大学 一种视觉导航/惯性导航的全组合方法
CN104280022A (zh) * 2013-07-13 2015-01-14 哈尔滨点石仿真科技有限公司 视觉辅助惯性测量单元的数字头盔显示设备跟踪***
CN104658012A (zh) * 2015-03-05 2015-05-27 第二炮兵工程设计研究院 一种基于惯性与光学测量融合的运动捕捉方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102109348A (zh) * 2009-12-25 2011-06-29 财团法人工业技术研究院 定位载体、估测载体姿态与建地图的***与方法
CN103424114A (zh) * 2012-05-22 2013-12-04 同济大学 一种视觉导航/惯性导航的全组合方法
CN103292804A (zh) * 2013-05-27 2013-09-11 浙江大学 一种单目自然视觉路标辅助的移动机器人定位方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN104280022A (zh) * 2013-07-13 2015-01-14 哈尔滨点石仿真科技有限公司 视觉辅助惯性测量单元的数字头盔显示设备跟踪***
CN104658012A (zh) * 2015-03-05 2015-05-27 第二炮兵工程设计研究院 一种基于惯性与光学测量融合的运动捕捉方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
STEFAN LEUTENEGGER,AT AL.: "Keyframe-Based Visual-Inertial Odometry Using Nonlinear Optimization", 《INTERNATIONAL JOURNAL OF ROBOTICS RESEARCH》 *
韩友美,杨伯钢: "《车载移动测量***检校理论与方法》", 30 June 2014 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107101616B (zh) * 2017-05-23 2019-09-27 北京小鸟看看科技有限公司 一种定位物体的身份识别方法、装置和***
CN107101616A (zh) * 2017-05-23 2017-08-29 北京小鸟看看科技有限公司 一种定位物体的身份识别方法、装置和***
CN107747941A (zh) * 2017-09-29 2018-03-02 歌尔股份有限公司 一种双目视觉定位方法、装置及***
US10989540B2 (en) 2017-09-29 2021-04-27 Goertek Inc. Binocular vision localization method, device and system
WO2019062291A1 (zh) * 2017-09-29 2019-04-04 歌尔股份有限公司 一种双目视觉定位方法、装置及***
CN107941217A (zh) * 2017-09-30 2018-04-20 杭州迦智科技有限公司 一种机器人定位方法、电子设备、存储介质、装置
CN107941217B (zh) * 2017-09-30 2020-05-22 杭州迦智科技有限公司 一种机器人定位方法、电子设备、存储介质、装置
CN107845114A (zh) * 2017-11-10 2018-03-27 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN107845114B (zh) * 2017-11-10 2024-03-22 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN108827301A (zh) * 2018-04-16 2018-11-16 南京航空航天大学 一种改进误差四元数卡尔曼滤波机器人姿态解算方法
CN108801248A (zh) * 2018-06-22 2018-11-13 深圳市北斗产业互联网研究院 基于ukf的平面视觉惯性导航方法
CN108801248B (zh) * 2018-06-22 2020-09-15 深圳市北斗产业互联网研究院 基于ukf的平面视觉惯性导航方法
CN110146074A (zh) * 2018-08-28 2019-08-20 北京初速度科技有限公司 一种应用于自动驾驶的实时定位方法及装置
CN109465832A (zh) * 2018-12-18 2019-03-15 哈尔滨工业大学(深圳) 高精度视觉和imu紧融合定位方法与***
CN111383282A (zh) * 2018-12-29 2020-07-07 杭州海康威视数字技术股份有限公司 位姿信息确定方法及装置
CN111383282B (zh) * 2018-12-29 2023-12-01 杭州海康威视数字技术股份有限公司 位姿信息确定方法及装置
CN110018688A (zh) * 2019-04-11 2019-07-16 清华大学深圳研究生院 基于视觉的自动引导车定位方法
CN110196047A (zh) * 2019-06-20 2019-09-03 东北大学 基于tof深度相机与imu的平仓机器人自主定位方法
CN113008271A (zh) * 2019-08-15 2021-06-22 深圳市瑞立视多媒体科技有限公司 校准3d旋转差异的数学模型构建方法、校准方法及其装置
CN110874569A (zh) * 2019-10-12 2020-03-10 西安交通大学 一种基于视觉惯性融合的无人机状态参数初始化方法
WO2021128787A1 (zh) * 2019-12-23 2021-07-01 ***股份有限公司 一种定位的方法及装置
CN111623773A (zh) * 2020-07-17 2020-09-04 国汽(北京)智能网联汽车研究院有限公司 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN113375657A (zh) * 2021-04-26 2021-09-10 北京迈格威科技有限公司 电子地图的更新方法、装置和电子设备
CN116664910A (zh) * 2023-04-17 2023-08-29 中国水产科学研究院南海水产研究所 基于人工智能的游泳动物多参数测量装置及方法

Similar Documents

Publication Publication Date Title
CN106052683A (zh) 机器人运动姿态估计方法
CN106679648B (zh) 一种基于遗传算法的视觉惯性组合的slam方法
CN109974693A (zh) 无人机定位方法、装置、计算机设备及存储介质
CN106708066B (zh) 基于视觉/惯导的无人机自主着陆方法
CN111156984B (zh) 一种面向动态场景的单目视觉惯性slam方法
CN104658012B (zh) 一种基于惯性与光学测量融合的运动捕捉方法
CN109166149A (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN109084732A (zh) 定位与导航方法、装置及处理设备
CN109991636A (zh) 基于gps、imu以及双目视觉的地图构建方法及***
CN110095116A (zh) 一种基于lift的视觉定位和惯性导航组合的定位方法
CN108717712A (zh) 一种基于地平面假设的视觉惯导slam方法
CN108303099A (zh) 基于三维视觉slam的无人机室内自主导航方法
CN109579843A (zh) 一种空地多视角下的多机器人协同定位及融合建图方法
CN109631887A (zh) 基于双目、加速度与陀螺仪的惯性导航高精度定位方法
CN109540126A (zh) 一种基于光流法的惯性视觉组合导航方法
CN108253963A (zh) 一种基于多传感器融合的机器人自抗扰定位方法以及定位***
CN106826833A (zh) 基于3d立体感知技术的自主导航机器人***
CN107193279A (zh) 基于单目视觉和imu信息的机器人定位与地图构建***
CN108038902A (zh) 一种面向深度相机的高精度三维重建方法和***
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN106780729A (zh) 一种无人机序列影像批处理三维重建方法
CN111780781B (zh) 基于滑动窗口优化的模板匹配视觉和惯性组合里程计
CN108648215A (zh) 基于imu的slam运动模糊位姿跟踪算法
CN108364319A (zh) 尺度确定方法、装置、存储介质及设备
CN110675453B (zh) 一种已知场景中运动目标的自定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Inventor after: Zhang Yiming

Inventor after: Chen Zhen

Inventor after: Zhu Cheng

Inventor after: Wang Haoyue

Inventor after: Li Jingwei

Inventor after: Jiang Shenlu

Inventor after: Yang Yongquan

Inventor after: Ren Haibo

Inventor after: Du Xinpeng

Inventor before: Zhang Yiming

Inventor before: Chen Zhen

Inventor before: Zhu Cheng

Inventor before: Wang Haoyue

Inventor before: Li Jingwei

Inventor before: Jiang Shenlu

Inventor before: Yang Yongquan

Inventor before: Ren Haibo

Inventor before: Du Xinpeng

COR Change of bibliographic data
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161026