CN105931275A - 基于移动端单目和imu融合的稳定运动跟踪方法和装置 - Google Patents
基于移动端单目和imu融合的稳定运动跟踪方法和装置 Download PDFInfo
- Publication number
- CN105931275A CN105931275A CN201610346191.6A CN201610346191A CN105931275A CN 105931275 A CN105931275 A CN 105931275A CN 201610346191 A CN201610346191 A CN 201610346191A CN 105931275 A CN105931275 A CN 105931275A
- Authority
- CN
- China
- Prior art keywords
- pose
- camera
- imu
- tracking
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于移动端单目和IMU融合的稳定运动跟踪方法和装置,属于AR/VR运动跟踪技术领域,所述方法包括:判断图像的当前帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿;对视觉位姿和IMU位姿进行卡尔曼融合,并进行运动跟踪。与现有技术相比,本发明能够在移动端设备上获取更加稳定和快速的运动跟踪。
Description
技术领域
本发明涉及AR/VR运动跟踪技术领域,特别是指一种基于移动端单目和IMU融合的稳定运动跟踪方法和装置。
背景技术
运动跟踪技术是要测量、跟踪、记录物体在三维空间中的运动轨迹,其主要是通过传感器技术获取运动场景的信息,并实时计算得到被跟踪物体在空间的姿态。其主要应用于AR(Augmented Reality,增强现实)/VR(Virtual Reality,虚拟现实)、可穿戴设备、机器人和自动驾驶导航等领域。当前,移动AR/VR等运动跟踪主要是使用手柄来进行交互,在交互过程中仅仅使用手机的陀螺仪来进行旋转跟踪。至2004年Nister首次提出视觉里程计的概念以来,基于视觉里程计的方法已成为实时姿态估计和运动跟踪的主流。它通过估计相机在空间的增量运动,在时间空间确定相机的运动轨迹。
目前主流的运动跟踪方法有基于单目或双目的视觉跟踪方法,其中单目的视觉跟踪方法由于其设备成本较低,广泛存在于的当前的移动平台,如手机、平板中,因此受到了越来越多的重视。但是由于成本所限,当前主流的手机端的摄像头帧率一般较低、且图像传感器的噪音相对较大,使得其在运动跟踪的过程中对环境的适应性较差。当前,基于移动端的单目运动跟踪方法主要存在传感器上和原理上两方面的不足。从传感器本身上说,由于受移动端成像质量和帧率的限制,当环境图像中特征点较少容易导致跟踪失败;当设备进行快速运动时,会使图像产生运动模糊,导致运动跟踪失败;从原理上说,基于单目的运动跟踪只能增量表示出相机的相对运动趋势,而不具有绝对的尺度信息。这两方面目前极大的制约了当前基于移动端的具体实际应用。
发明内容
本发明要解决的技术问题是提供一种能够在移动端设备上获取更加稳定和快速的运动跟踪的基于移动端单目和IMU融合的稳定运动跟踪方法和装置。
为解决上述技术问题,本发明提供技术方案如下:
一种基于移动端单目和IMU融合的稳定运动跟踪方法,包括:
获取图像;
判断图像的当前帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;
对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;
获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿预测结果;
对视觉位姿和IMU位姿预测结果进行卡尔曼融合,依据融合后得到的位姿信息进行运动跟踪。
进一步的,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
对图像的前后相邻两帧图像上的对应匹配特征点集,计算得到两帧图像间的基础矩阵;
根据基础矩阵和相机的内参数,计算得到本质矩阵;
根据本质矩阵,采用SVD恢复得到相邻帧间的相对位姿;
将相对位姿与已获取的前一帧的相机的绝对位姿相乘,得到相机的当前位姿。
进一步的,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
在跟踪成功的特征点周围分别取一定大小的块,采用图像相关性算法SSD,去除不满足阈值的特征点。
进一步的,所述采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿包括:
对图像当前帧使用FAST特征检测算子获取特征点,采用BRIEF算法计算描述子并与初始帧特征匹配,直接计算初始帧到当前帧的变换矩阵;
将变换矩阵与初始帧的相机的绝对位姿相乘,得到相机的当前位姿。
进一步的,所述对相机的当前位姿进行卡尔曼滤波,得到视觉位姿包括:
步骤1:对于图像的各帧,采用光流法累积所得结果和特征点直接匹配所获结果进行卡尔曼滤波,得到更加准确的相机的当前姿态,并进行不断迭代变换;
步骤2:采用离散卡尔曼滤波的更新方程,计算得到当前的协方差估计Pk -,具体的,离散卡尔曼滤波的更新方程为:
Pk -=APk-1AT+Q
其中,是光流法计算得到的相机姿态,A为状态转移矩阵,B是控制增益,Pk-1是前一帧的协方差估计,Q是噪声协方差矩阵;
步骤3:采用观测方程,计算卡尔曼增益Kk,具体的,观测方程为:
zk=Hxk+vk
Kk=Pk -HT(HPk -HT+R)-1
其中,zk是通过FAST特征点匹配算法计算得到的相机姿态,H是观测矩阵,vk表示观测噪声,R是观测噪声的协方差矩阵;
步骤4:根据离散卡尔曼滤波器状态更新方程,更新***设置:
一种基于移动端单目和IMU融合的稳定运动跟踪装置,包括:
获取模块:用于获取图像;
视觉跟踪模块:用于判断图像的当前帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;
滤波模块:用于对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;
IMU位姿计算模块:用于获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿预测结果;
融合模块:用于对视觉位姿和IMU位姿预测结果进行卡尔曼融合,依据融合后得到的位姿信息进行运动跟踪。
进一步的,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
对图像的前后相邻两帧图像上的对应匹配特征点集,计算得到两帧图像间的基础矩阵;
根据基础矩阵和相机的内参数,计算得到本质矩阵;
根据本质矩阵,采用SVD恢复得到相邻帧间的相对位姿;
将相对位姿与已获取的前一帧的相机的绝对位姿相乘,得到相机的当前位姿。
进一步的,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
在跟踪成功的特征点周围分别取一定大小的块,采用图像相关性算法SSD,去除不满足阈值的特征点。
进一步的,所述采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿包括:
对图像当前帧使用FAST特征检测算子获取特征点,采用BRIEF算法计算描述子并与初始帧特征匹配,直接计算初始帧到当前帧的变换矩阵;
将变换矩阵与初始帧的相机的绝对位姿相乘,得到相机的当前位姿。
进一步的,所述滤波模块,还用于:
卡尔曼滤波模块:用于对于图像的各帧采用光流法累积所得结果和特征点直接匹配所获结果进行卡尔曼滤波,得到更加准确的相机的当前姿态,并进行不断迭代变换;
第一计算模块:用于采用离散卡尔曼滤波的更新方程,计算得到当前的协方差估计Pk -,具体的,离散卡尔曼滤波的更新方程为:
Pk -=APk-1AT+Q
其中,是光流法计算得到的相机姿态,A为状态转移矩阵,B是控制增益,Pk-1是前一帧的协方差估计,Q是噪声协方差矩阵;
第二计算模块:用于采用观测方程,计算卡尔曼增益Kk,具体的,观测方程为:
zk=Hxk+vk
Kk=Pk -HT(HPk -HT+R)-1
其中,zk是通过FAST特征点匹配算法计算得到的相机姿态,H是观测矩阵,vk表示观测噪声,R是观测噪声的协方差矩阵;
更新***模块:用于根据离散卡尔曼滤波器状态更新方程,更新***设置:
本发明具有以下有益效果:
本发明中,针对当前基于移动跟踪的问题,本发明采用基于单目的快速的FAST算法和光流法为主,同时融合移动端已有的IMU(Inertial Measurement Unit惯性测量单元)硬件,在不借助外接设备的前提下,实现基于单目和IMU融合的稳定运动跟踪方法。本发明采用快速的FAST算法和光流法,处理速度快,能实现实时跟踪;融合了特征点匹配和光流法跟踪,视觉跟踪结果精度比传统的单一方法精度高;在EKF框架下进行视觉和IMU数据的融合,结合了相机和惯性传感器各自的优点实现了快速并且准确的位姿估计。并且,本发明通过借助IMU数据获取的稳定性及其高帧率,能有效克服基于图像特征点不足、运动模糊等产生的跟踪失败问题。在视觉进行稳定跟踪的同时,通过卡尔曼滤波实现视觉所获姿态的跟踪,以得到移动端更加平稳、精确的空间位姿。同时,通过卡尔曼滤波获取的精确相机位姿对IMU数据进行校正,减少IMU本身漂移对精度的影响。最后,利用卡尔曼滤波对IMU和单目相机获取的位姿进行融合,在获取稳定运动跟踪的同时,实现对单目重建的尺度估计。与现有技术相比,本发明能够在移动端设备上获取更加稳定和快速的运动跟踪。
附图说明
图1为本发明的基于移动端单目和IMU融合的稳定运动跟踪方法的流程示意图;
图2为本发明的基于移动端单目和IMU融合的稳定运动跟踪方法的视觉位姿计算和卡尔曼滤波原理示意图;
图3为本发明的基于移动端单目和IMU融合的稳定运动跟踪方法的视觉位姿和IMU位姿卡尔曼融合原理示意图;
图4为本发明的基于移动端单目和IMU融合的稳定运动跟踪方法的坐标***示意图;
图5为本发明的基于移动端单目和IMU融合的稳定运动跟踪方法的单目视觉和IMU***示意图;
图6为本发明的基于移动端单目和IMU融合的稳定运动跟踪方法的技术方案总流程框图;
图7为本发明的基于移动端单目和IMU融合的稳定运动跟踪装置的结构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
一方面,本发明提供一种基于移动端单目和IMU融合的稳定运动跟踪方法,如图1所示,包括:
步骤S101:获取图像;
步骤S102:判断图像的当前帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;
本步骤为基于单目获取视觉图像的运动跟踪过程,进行基于单目获取视觉图像的运动跟踪之前,,在图像特征检测方面,考虑到移动端较弱的计算能力,采用速度较快的FAST特征检测算子,结合光流法进行跟踪。对于图像帧序列:I0,...,Ik,Ik+1,...,Ik+n,...,I0,...,Ik帧图像使用FAST特征检测算子,BRIEF算法计算描述子,并进行匹配,直到第Ik帧匹配成功点对数大于阈值,则初始化成功。
本步骤中,基于单目获取视觉图像的运动跟踪的具体过程可以为:
以第一帧对应的位置为原点,第一帧图像的相机位姿态位[I|0],第Ik帧图像的相机的绝对位姿为[R(0,k)|t(0,k)]。在后续帧的跟踪过程中,为提高处理的效率,通过使用光流法进行相邻帧特征点跟踪,直到n帧后,当跟踪到第Ik+n图像特征点个数小于阈值时,为保证跟踪的鲁棒性,对第Ik+n帧图像重新使用FAST特征检测算子获取更多的特征点继续跟踪,并使用BRIEF算法计算描述子与第Ik帧图像进行特征匹配得到更准确的位姿。通过上述跟踪方法,在一定程度上兼顾了单目视觉跟踪过程中的效率和鲁棒性。
步骤S103:对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;
本步骤中,卡尔曼滤波(Kalman filtering)是一种采用线性***的状态方程,通过***输入输出观测数据,对***状态进行最优估计的算法。本步骤中采用卡尔曼滤波能够有效地滤除***中的噪声和干扰的影响,从而提高相机跟踪的稳定性。
步骤S104:获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿预测结果;
本步骤中,涉及的IMU(Inertial measurement unit,简称IMU)是测量物体三轴姿态角速度(或角速率)和加速度的装置。一般的,一个IMU包含了三个单轴的加速度计和三个单轴的陀螺,加速度计用于检测物体在载体坐标***独立三轴的加速度信号,陀螺用于检测载体相对于导航坐标系的角速度信号,本步骤中,IMU能在3个垂直轴方向产生加速度和角速度值,进行积分对位姿预测,而移动设备内的单目视觉传感器可以提供没有尺度的3D位置以及位姿的测量值。在前后相邻帧之间获取IMU数据进行位姿预测,后一帧视觉位姿估计作为测量值进行更新。
步骤S105:对视觉位姿和IMU位姿预测结果进行卡尔曼融合,依据融合后得到的位姿信息进行运动跟踪;
本步骤中,为获取稳定的跟踪位姿,充分利用视觉和IMU的传感器得到的信息,本发明通过使用卡尔曼融合方法,将视觉图像得到的视觉位姿和IMU积分得到的位姿预测结果进行融合,以实现两异类传感器的信息互补和目标状态估计,从而获取融合后更为准确、可靠的位姿。进而,依据融合后的位姿信息进行运动跟踪。
本发明中,针对当前基于移动跟踪的问题,本发明采用基于单目的快速的FAST算法和光流法为主,同时融合移动端已有的IMU(Inertial Measurement Unit惯性测量单元)硬件,在不借助外接设备的前提下,实现基于单目和IMU融合的稳定运动跟踪方法。本发明采用快速的FAST算法和光流法,处理速度快,能实现实时跟踪;融合了特征点匹配和光流法跟踪,视觉跟踪结果精度比传统的单一方法精度高;在EKF框架下进行视觉和IMU数据的融合,结合了相机和惯性传感器各自的优点实现了快速并且准确的位姿估计。并且,本发明通过借助IMU数据获取的稳定性及其高帧率,能有效克服基于图像特征点不足、运动模糊等产生的跟踪失败问题。在视觉进行稳定跟踪的同时,通过卡尔曼滤波实现视觉所获姿态的跟踪,以得到移动端更加平稳、精确的空间位姿。同时,通过卡尔曼滤波获取的精确相机位姿对IMU数据进行校正,减少IMU本身漂移对精度的影响。最后,利用卡尔曼滤波对IMU和单目相机获取的位姿进行融合,在获取稳定运动跟踪的同时,实现对单目重建的尺度估计。与现有技术相比,本发明能够在移动端设备上获取更加稳定和快速的运动跟踪。
作为本发明的一种改进,步骤S102中的采用光流法进行特征点跟踪,得到相机的当前位姿包括:
对图像的前后相邻两帧图像上的对应匹配特征点集,计算得到两帧图像间的基础矩阵;
根据基础矩阵和相机的内参数,计算得到本质矩阵;
根据本质矩阵,采用SVD恢复得到相邻帧间的相对位姿;
将相对位姿与已获取的前一帧的相机的绝对位姿相乘,得到相机的当前位姿。
针对上述采用光流法进行特征点跟踪方法的改进,本发明提供一种完整具体的实施例如下:
通过跟踪过程中前后两帧图像上的对应匹配特征点集(XL,XR),由计算机视觉中的基本方法,可得其对应关系XL TFXR=0,由此可进一步计算得到两幅图像间的基础矩阵F。
由基础矩阵F和本质矩阵间E间的相互关系:E=KL TFKR,其中(KL,KR)分别相机的内参数,在本移动端的单目***中,该内参数可事先标定且KL=KR。
根据获取的本质矩阵E,利用SVD可以恢复得到相邻帧间的相对位姿[R(k,k+1)|t(k,k+1)]。
以第一帧对应的位置为原点,用该相对位姿[R(k,k+1)|t(k,k+1)]与前一帧相机绝对位姿[R(0,k)|t(0,k)]相乘,即可得到当前相机的绝对位姿[R(0,k+1)|t(0,k+1)]。
本发明在相机在运动过程中,可以依次获取每帧图片所对应的一系列相对位姿,进而得到绝对位姿。
作为本发明的另一种改进,步骤S102中的采用光流法进行特征点跟踪,得到相机的当前位姿包括:
在跟踪成功的特征点周围分别取一定大小的块,采用图像相关性算法SSD,去除不满足阈值的特征点。
本发明中,在使用光流法进行跟踪的过程中,若第Ik帧图像计算了特征点和描述子后,第Ik+1帧图使用光流法跟踪特征点,为保证光流跟踪特征点的正确性,在跟踪成功的特征点分别取它周围8*8大小的块,使用图像相关性算法SSD,去除不满足阈值的特征点,以提高光流跟踪的准确性。
作为本发明的进一步改进,步骤S102中的采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿包括:
对图像当前帧使用FAST特征检测算子获取特征点,采用BRIEF算法计算描述子并与初始帧特征匹配,直接计算初始帧到当前帧的变换矩阵;
将变换矩阵与初始帧的相机的绝对位姿相乘,得到相机的当前位姿。
本发明中,为保证上述跟踪所得相机实时位姿的准确性和平滑性,便于运动跟踪在AR/VR领域的应用,当经过n帧后光流法成功跟踪的特征点数小于阈值时,第Ik+n帧图像重新使用FAST特征检测算子和BRIEF计算描述子并与第Ik帧特征匹配,直接计算第Ik帧到第Ik+n帧的变换矩阵[R(k,k+n)|t(k,k+n)],相乘第Ik帧的相机绝对位置位姿[R(0,k)|t(0,k)]',进而得到较准确的第Ik+n帧相机绝对位姿[R(0,k+n)|t(0,k+n)]'。
作为本发明的更进一步的改进,原理图参照图2所示,步骤S103包括:
步骤1:对于图像的各帧,采用光流法累积所得结果和特征点直接匹配所获结果进行卡尔曼滤波,得到更加准确的相机的当前姿态,并进行不断迭代变换;
步骤2:采用离散卡尔曼滤波的更新方程,计算得到当前的协方差估计Pk -,具体的,离散卡尔曼滤波的更新方程为:
Pk -=APk-1AT+Q
其中,是光流法计算得到的相机姿态,A为状态转移矩阵,B是控制增益,Pk-1是前一帧的协方差估计,Q是噪声协方差矩阵;
步骤3:采用观测方程,计算卡尔曼增益Kk,具体的,观测方程为:
zk=Hxk+vk
Kk=Pk -HT(HPk -HT+R)-1
其中,zk是通过FAST特征点匹配算法计算得到的相机姿态,H是观测矩阵,vk表示观测噪声,R是观测噪声的协方差矩阵;
步骤4:根据离散卡尔曼滤波器状态更新方程,更新***设置:
本发明中,通过对单目相机姿态的卡尔曼滤波,在提高相机跟踪稳定性的同时,也为后续IMU和相机的融合提供更加准确平稳的姿态测量值[R(0,k)|t(0,k)]”。
本发明中,视觉位姿和IMU位姿进行卡尔曼融合过程可以采用本领域技术人员公知的多种方法实现,优选的,本发明可以参考如下实施例进行:
视觉和IMU融合流程示意图,如图3所示。为了方便描述,定义下标w,i,v,c分别表示世界坐标系,IMU坐标,视觉坐标系和相机坐标系。坐标系定义,如图4所示;
1)假设惯性测量包括一个特定的偏差b和高斯白噪声n,则实际的角速度ω和实际加速度a如下:
ω=ωm-bω-nω,a=am-ba-na
其中下标m表示测量值,动态偏差b能被表示为一个随机过程:
滤波器的状态量包括IMU在世界坐标系中的位置以及世界坐标系相对IMU坐标系的速度和姿态四元素同时,还有陀螺仪和加速度计的偏差bω,ba以及视觉尺度因子λ。以及标定所得的IMU和相机间的旋转关系平移关系由此可以得到一个包含24个元素状态向量X:
2)在上述的状态表达描述中,我们使用四元素对姿态进行描述。在这种情况下,我们使用四元素误差来表示误差和其协方差,这样能增加数值稳定性以及在最小表达。所以,我们定义了22元素的错误状态向量:
考虑到估计值和其真值x,例如除了四元素误差外,我们对所有状态变量使用该方法,其中,四元素误差定义为:
由此,可以得到连续错误状态的线性化方程:
其中,是噪声向量。在当前的解决方法中,我们对算法的速度尤其关心,为此,在两相邻状态的积分时间内,我们假设Fc和Gc是恒定值。为了对其进行离散化表示:
同时,可以通过积分得到离散时间的协方差矩阵Qd:
由计算所得Fd和Qd,根据卡尔曼滤波,计算得到状态协方差矩阵:
Pk+1|k=FdPk|kFd T+Qd
3)对于相机的位置测量我们根据单相机的视觉跟踪获取的绝对位姿,而得到其对应的测量位置。由此得到如下测量模型:
其中,是IMU在世界坐标系下的姿态的旋转矩阵,是视觉坐标系相对世界坐标系的旋转矩阵。
4)定义位置测量误差模型:
定义旋转测量误差模型:
其中,和是分别是误差状态量和的错误测量矩阵。最后,测量矩阵可以被累加为:
5)当我们获取到测量矩阵H时,我们可以根据卡尔曼滤波器的步骤进行更新。
如图5所示,为单目视觉和IMU融合示意图,通过上述基于卡尔曼滤波的单目视觉和IMU数据融合,得到移动端稳定的姿态输出,进而实现稳定的运动跟踪,本发明的技术方案总流程框图,如图6所示。
上述实施例仅仅是本发明的视觉位姿和IMU位姿进行卡尔曼融合的一个举例,除此实施例以外,还可以采用本领域技术人员公知的其它方法,也能够实现本发明的技术效果。
另一方面,本发明一种基于移动端单目和IMU融合的稳定运动跟踪装置,如图7所示,包括:
获取模块11:用于获取图像;
视觉跟踪模块12:用于判断图像的各帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则对图像采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;
滤波模块13:用于对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;
IMU位姿计算模块14:用于获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿预测结果;
融合模块15:用于对视觉位姿和IMU位姿预测结果进行卡尔曼融合,依据融合后得到的位姿信息进行运动跟踪。
与上述方法相对应地,与现有技术相比,本发明同样能够在移动端设备上获取能加稳定和快速的运动跟踪。
作为本发明的一种改进,视觉跟踪模块12进行的采用光流法进行特征点跟踪,得到相机的当前位姿包括:
对图像的前后相邻两帧图像上的对应匹配特征点集,计算得到两帧图像间的基础矩阵;
根据基础矩阵和相机的内参数,计算得到本质矩阵;
根据本质矩阵,采用SVD恢复得到相邻帧间的相对位姿;
将相对位姿与已获取的前一帧的相机的绝对位姿相乘,得到相机的当前位姿。
本发明在相机在运动过程中,可以依次获取每帧图片所对应的一系列相对位姿,进而得到绝对位姿。
作为本发明的另一种改进,视觉跟踪模块12进行的采用光流法进行特征点跟踪,得到相机的当前位姿包括:
在跟踪成功的特征点周围分别取一定大小的块,采用图像相关性算法SSD,去除不满足阈值的特征点。
本发明中,去除不满足阈值的特征点,能够提高光流跟踪的准确性。
作为本发明的进一步改进,视觉跟踪模块12进行的对图像采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿包括:
对图像当前帧使用FAST特征检测算子获取特征点,采用BRIEF算法计算描述子并与初始帧特征匹配,直接计算初始帧到当前帧的变换矩阵;
将变换矩阵与初始帧的相机的绝对位姿相乘,得到相机的当前位姿。
本发明中,能够保证上述跟踪所得相机实时位姿的准确性和平滑性,便于运动跟踪在AR/VR领域的应用。
作为本发明的更进一步的改进,滤波模块13,还用于:
卡尔曼滤波模块:用于对于图像的各帧采用光流法累积所得结果和特征点直接匹配所获结果进行卡尔曼滤波,得到更加准确的相机的当前姿态,并进行不断迭代变换;
第一计算模块:用于采用离散卡尔曼滤波的更新方程,计算得到当前的协方差估计Pk -,具体的,离散卡尔曼滤波的更新方程为:
Pk -=APk-1AT+Q
其中,是光流法计算得到的相机姿态,A为状态转移矩阵,B是控制增益,Pk-1是前一帧的协方差估计,Q是噪声协方差矩阵;
第二计算模块:用于采用观测方程,计算卡尔曼增益Kk,具体的,观测方程为:
zk=Hxk+vk
Kk=Pk -HT(HPk -HT+R)-1
其中,zk是通过FAST特征点匹配算法计算得到的相机姿态,H是观测矩阵,vk表示观测噪声,R是观测噪声的协方差矩阵;
更新***模块:用于根据离散卡尔曼滤波器状态更新方程,更新***设置:
本发明中,通过对单目相机姿态的卡尔曼滤波,在提高相机跟踪稳定性的同时,也为后续IMU和相机的融合提供更加准确平稳的姿态测量值[R(0,k)|t(0,k)]”。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种基于移动端单目和IMU融合的稳定运动跟踪方法,其特征在于,包括:
获取图像;
判断图像的当前帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;
对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;
获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿预测结果;
对视觉位姿和IMU位姿预测结果进行卡尔曼融合,依据融合后得到的位姿信息进行运动跟踪。
2.根据权利要求1所述的基于移动端单目和IMU融合的稳定运动跟踪方法,其特征在于,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
对图像的前后相邻两帧图像上的对应匹配特征点集,计算得到两帧图像间的基础矩阵;
根据基础矩阵和相机的内参数,计算得到本质矩阵;
根据本质矩阵,采用SVD恢复得到相邻帧间的相对位姿;
将相对位姿与已获取的前一帧的相机的绝对位姿相乘,得到相机的当前位姿。
3.根据权利要求1所述的基于移动端单目和IMU融合的稳定运动跟踪方法,其特征在于,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
在跟踪成功的特征点周围分别取一定大小的块,采用图像相关性算法SSD,去除不满足阈值的特征点。
4.根据权利要求1-3中任一所述的基于移动端单目和IMU融合的稳定运动跟踪方法,其特征在于,所述采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿包括:
对图像当前帧使用FAST特征检测算子获取特征点,采用BRIEF算法计算描述子并与初始帧特征匹配,直接计算初始帧到当前帧的变换矩阵;
将变换矩阵与初始帧的相机的绝对位姿相乘,得到相机的当前位姿。
5.根据权利要求4所述的基于移动端单目和IMU融合的稳定运动跟踪方法,其特征在于,所述对相机的当前位姿进行卡尔曼滤波,得到视觉位姿包括:
步骤1:对于图像的各帧,采用光流法累积所得结果和特征点直接匹配所获结果进行卡尔曼滤波,得到更加准确的相机的当前姿态,并进行不断迭代变换;
步骤2:采用离散卡尔曼滤波的更新方程,计算得到当前的协方差估计Pk -,具体的,离散卡尔曼滤波的更新方程为:
Pk -=APk-1AT+Q
其中,是光流法计算得到的相机姿态,A为状态转移矩阵,B是控制增益,Pk-1是前一帧的协方差估计,Q是噪声协方差矩阵;
步骤3:采用观测方程,计算卡尔曼增益Kk,具体的,观测方程为:
zk=Hxk+vk
Kk=Pk -HT(HPk -HT+R)-1
其中,zk是通过FAST特征点匹配算法计算得到的相机姿态,H是观测矩阵,vk表示观测噪声,R是观测噪声的协方差矩阵;
步骤4:根据离散卡尔曼滤波器状态更新方程,更新***设置:
6.一种基于移动端单目和IMU融合的稳定运动跟踪装置,其特征在于,包括:
获取模块:用于获取图像;
视觉跟踪模块:用于判断图像的当前帧的跟踪特征点数目是否大于预设阈值,如果是,则采用光流法进行特征点跟踪,得到相机的当前位姿,如果否,则采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿;
滤波模块:用于对相机的当前位姿进行卡尔曼滤波,得到视觉位姿;
IMU位姿计算模块:用于获取IMU在三维空间产生的加速度和角速度值,并对加速度和角速度值进行积分运算,得到IMU位姿预测结果;
融合模块:用于对视觉位姿和IMU位姿预测结果进行卡尔曼融合,依据融合后得到的位姿信息进行运动跟踪。
7.根据权利要求6所述的基于移动端单目和IMU融合的稳定运动跟踪装置,其特征在于,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
对图像的前后相邻两帧图像上的对应匹配特征点集,计算得到两帧图像间的基础矩阵;
根据基础矩阵和相机的内参数,计算得到本质矩阵;
根据本质矩阵,采用SVD恢复得到相邻帧间的相对位姿;
将相对位姿与已获取的前一帧的相机的绝对位姿相乘,得到相机的当前位姿。
8.根据权利要求6所述的基于移动端单目和IMU融合的稳定运动跟踪装置,其特征在于,所述采用光流法进行特征点跟踪,得到相机的当前位姿包括:
在跟踪成功的特征点周围分别取一定大小的块,采用图像相关性算法SSD,去除不满足阈值的特征点。
9.根据权利要求6-8中任一所述的基于移动端单目和IMU融合的稳定运动跟踪装置,其特征在于,所述采用FAST特征检测算子获取特征点,并采用BRIEF算法计算描述子对图像进行特征匹配,得到相机的当前位姿包括:
对图像当前帧使用FAST特征检测算子获取特征点,采用BRIEF算法计算描述子并与初始帧特征匹配,直接计算初始帧到当前帧的变换矩阵;
将变换矩阵与初始帧的相机的绝对位姿相乘,得到相机的当前位姿。
10.根据权利要求9所述的基于移动端单目和IMU融合的稳定运动跟踪装置,其特征在于,所述滤波模块,还用于:
卡尔曼滤波模块:用于对于图像的各帧采用光流法累积所得结果和特征点直接匹配所获结果进行卡尔曼滤波,得到更加准确的相机的当前姿态,并进行不断迭代变换;
第一计算模块:用于采用离散卡尔曼滤波的更新方程,计算得到当前的协方差估计Pk -,具体的,离散卡尔曼滤波的更新方程为:
Pk -=APk-1AT+Q
其中,是光流法计算得到的相机姿态,A为状态转移矩阵,B是控制增益,Pk-1是前一帧的协方差估计,Q是噪声协方差矩阵;
第二计算模块:用于采用观测方程,计算卡尔曼增益Kk,具体的,观测方程为:
zk=Hxk+vk
Kk=Pk -HT(HPk -HT+R)-1
其中,zk是通过FAST特征点匹配算法计算得到的相机姿态,H是观测矩阵,vk表示观测噪声,R是观测噪声的协方差矩阵;
更新***模块:用于根据离散卡尔曼滤波器状态更新方程,更新***设置:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610346191.6A CN105931275A (zh) | 2016-05-23 | 2016-05-23 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610346191.6A CN105931275A (zh) | 2016-05-23 | 2016-05-23 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105931275A true CN105931275A (zh) | 2016-09-07 |
Family
ID=56841104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610346191.6A Pending CN105931275A (zh) | 2016-05-23 | 2016-05-23 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105931275A (zh) |
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106546238A (zh) * | 2016-10-26 | 2017-03-29 | 北京小鸟看看科技有限公司 | 可穿戴设备及在可穿戴设备中确定用户位移的方法 |
CN106705965A (zh) * | 2017-01-12 | 2017-05-24 | 苏州中德睿博智能科技有限公司 | 场景三维数据配准方法及导航***误差校正方法 |
CN106780608A (zh) * | 2016-11-23 | 2017-05-31 | 北京地平线机器人技术研发有限公司 | 位姿信息估计方法、装置和可移动设备 |
CN106842625A (zh) * | 2017-03-03 | 2017-06-13 | 西南交通大学 | 一种基于特征共识性的目标追踪眼镜及方法 |
CN106898022A (zh) * | 2017-01-17 | 2017-06-27 | 徐渊 | 一种手持式快速三维扫描***及方法 |
CN107194968A (zh) * | 2017-05-18 | 2017-09-22 | 腾讯科技(上海)有限公司 | 图像的识别跟踪方法、装置、智能终端和可读存储介质 |
CN107255476A (zh) * | 2017-07-06 | 2017-10-17 | 青岛海通胜行智能科技有限公司 | 一种基于惯性数据和视觉特征的室内定位方法和装置 |
CN107341831A (zh) * | 2017-07-06 | 2017-11-10 | 青岛海通胜行智能科技有限公司 | 一种imu辅助的视觉特征鲁棒跟踪方法及装置 |
CN107491099A (zh) * | 2017-08-30 | 2017-12-19 | 浙江华飞智能科技有限公司 | 一种基于视觉和陀螺仪的云台控制方法及装置 |
CN107516327A (zh) * | 2017-08-21 | 2017-12-26 | 腾讯科技(上海)有限公司 | 基于多层滤波确定相机姿态矩阵的方法及装置、设备 |
CN107862704A (zh) * | 2017-11-06 | 2018-03-30 | 广东工业大学 | 一种目标跟踪方法、***及其使用的云台相机 |
CN108090921A (zh) * | 2016-11-23 | 2018-05-29 | 中国科学院沈阳自动化研究所 | 单目视觉和imu融合的自适应室内定位方法 |
CN108259709A (zh) * | 2018-01-19 | 2018-07-06 | 长沙全度影像科技有限公司 | 一种用于子弹时间拍摄的视频图像防抖方法及*** |
CN108364319A (zh) * | 2018-02-12 | 2018-08-03 | 腾讯科技(深圳)有限公司 | 尺度确定方法、装置、存储介质及设备 |
CN108648215A (zh) * | 2018-06-22 | 2018-10-12 | 南京邮电大学 | 基于imu的slam运动模糊位姿跟踪算法 |
CN108694348A (zh) * | 2017-04-07 | 2018-10-23 | 中山大学 | 一种基于自然特征的跟踪注册方法及装置 |
CN108803861A (zh) * | 2017-04-28 | 2018-11-13 | 广东虚拟现实科技有限公司 | 一种交互方法、设备及*** |
CN108805987A (zh) * | 2018-05-21 | 2018-11-13 | 中国科学院自动化研究所 | 基于深度学习的混合跟踪方法及装置 |
CN108921898A (zh) * | 2018-06-28 | 2018-11-30 | 北京旷视科技有限公司 | 摄像机位姿确定方法、装置、电子设备和计算机可读介质 |
CN108981693A (zh) * | 2018-03-22 | 2018-12-11 | 东南大学 | 基于单目相机的vio快速联合初始化方法 |
CN109035303A (zh) * | 2018-08-03 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | Slam***相机跟踪方法及装置、计算机可读存储介质 |
CN109074664A (zh) * | 2017-10-26 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 姿态标定方法、设备及无人飞行器 |
CN109175832A (zh) * | 2018-09-20 | 2019-01-11 | 上海理工大学 | 一种基于单目测量的3d焊接定位***及其控制方法 |
CN109196556A (zh) * | 2017-12-29 | 2019-01-11 | 深圳市大疆创新科技有限公司 | 避障方法、装置及可移动平台 |
CN109376785A (zh) * | 2018-10-31 | 2019-02-22 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN109559330A (zh) * | 2017-09-25 | 2019-04-02 | 北京金山云网络技术有限公司 | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 |
CN109584299A (zh) * | 2018-11-13 | 2019-04-05 | 深圳前海达闼云端智能科技有限公司 | 一种定位方法、定位装置、终端及存储介质 |
CN109753841A (zh) * | 2017-11-01 | 2019-05-14 | 比亚迪股份有限公司 | 车道线识别方法和装置 |
CN109993802A (zh) * | 2019-04-03 | 2019-07-09 | 浙江工业大学 | 一种城市环境中的混合相机标定方法 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN110147164A (zh) * | 2019-05-22 | 2019-08-20 | 京东方科技集团股份有限公司 | 头部运动跟踪方法、设备、***及存储介质 |
WO2019205850A1 (zh) * | 2018-04-27 | 2019-10-31 | 腾讯科技(深圳)有限公司 | 位姿确定方法、装置、智能设备及存储介质 |
CN110520694A (zh) * | 2017-10-31 | 2019-11-29 | 深圳市大疆创新科技有限公司 | 一种视觉里程计及其实现方法 |
CN110622213A (zh) * | 2018-02-09 | 2019-12-27 | 百度时代网络技术(北京)有限公司 | 利用3d语义地图进行深度定位和分段的***和方法 |
CN110648354A (zh) * | 2019-09-29 | 2020-01-03 | 电子科技大学 | 一种动态环境下的slam方法 |
CN110702107A (zh) * | 2019-10-22 | 2020-01-17 | 北京维盛泰科科技有限公司 | 一种单目视觉惯性组合的定位导航方法 |
CN110796010A (zh) * | 2019-09-29 | 2020-02-14 | 湖北工业大学 | 一种结合光流法和卡尔曼滤波的视频稳像方法 |
CN110842918A (zh) * | 2019-10-24 | 2020-02-28 | 华中科技大学 | 一种基于点云伺服的机器人移动加工自主寻位方法 |
CN110910423A (zh) * | 2019-11-15 | 2020-03-24 | 小狗电器互联网科技(北京)股份有限公司 | 一种目标跟踪方法及存储介质 |
CN111354042A (zh) * | 2018-12-24 | 2020-06-30 | 深圳市优必选科技有限公司 | 机器人视觉图像的特征提取方法、装置、机器人及介质 |
CN107316319B (zh) * | 2017-05-27 | 2020-07-10 | 北京小鸟看看科技有限公司 | 一种刚体追踪的方法、装置和*** |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN111595362A (zh) * | 2020-06-05 | 2020-08-28 | 联想(北京)有限公司 | 一种惯性测量单元的参数标定方法、装置及电子设备 |
CN111811421A (zh) * | 2020-07-17 | 2020-10-23 | 中国人民解放军国防科技大学 | 一种高速实时形变监测方法及*** |
CN111862150A (zh) * | 2020-06-19 | 2020-10-30 | 杭州易现先进科技有限公司 | 图像跟踪的方法、装置、ar设备和计算机设备 |
WO2020221307A1 (zh) * | 2019-04-29 | 2020-11-05 | 华为技术有限公司 | 一种运动物体的追踪方法和装置 |
CN112017229A (zh) * | 2020-09-06 | 2020-12-01 | 桂林电子科技大学 | 一种相机相对位姿求解方法 |
WO2020238790A1 (zh) * | 2019-05-27 | 2020-12-03 | 浙江商汤科技开发有限公司 | 相机定位 |
CN112037261A (zh) * | 2020-09-03 | 2020-12-04 | 北京华捷艾米科技有限公司 | 一种图像动态特征去除方法及装置 |
CN112396634A (zh) * | 2020-11-27 | 2021-02-23 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
CN112837374A (zh) * | 2021-03-09 | 2021-05-25 | 中国矿业大学 | 一种空间定位方法及*** |
CN113632135A (zh) * | 2019-04-30 | 2021-11-09 | 三星电子株式会社 | 用于低延迟、高性能位姿融合的***和方法 |
CN113673283A (zh) * | 2020-05-14 | 2021-11-19 | 惟亚(上海)数字科技有限公司 | 一种基于增强现实的平滑跟踪方法 |
CN113672608A (zh) * | 2021-08-25 | 2021-11-19 | 东北大学 | 基于自适应约简阈值的物联网感知数据约简***及方法 |
CN113920194A (zh) * | 2021-10-08 | 2022-01-11 | 电子科技大学 | 基于视觉惯性融合的四旋翼飞行器定位方法 |
CN114167979A (zh) * | 2021-11-18 | 2022-03-11 | 上海鱼微阿科技有限公司 | 一种增强现实一体机手柄跟踪算法 |
CN114742977A (zh) * | 2022-03-30 | 2022-07-12 | 青岛虚拟现实研究院有限公司 | 一种基于ar技术的视频透视方法 |
CN115115707A (zh) * | 2022-06-30 | 2022-09-27 | 小米汽车科技有限公司 | 车辆落水检测方法、车辆、计算机可读存储介质及芯片 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
-
2016
- 2016-05-23 CN CN201610346191.6A patent/CN105931275A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
Non-Patent Citations (3)
Title |
---|
孟琳: "基于计算机视觉的相对导航运动估计研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
邴志刚 等: "基于视觉与IMU 的跟踪机器人研究", 《天津职业技术师范大学学报》 * |
郑驰 等: "融合光流与特征点匹配的单目视觉里程计", 《浙江大学学报(工学版)》 * |
Cited By (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018077176A1 (zh) * | 2016-10-26 | 2018-05-03 | 北京小鸟看看科技有限公司 | 可穿戴设备及在可穿戴设备中确定用户位移的方法 |
CN106546238A (zh) * | 2016-10-26 | 2017-03-29 | 北京小鸟看看科技有限公司 | 可穿戴设备及在可穿戴设备中确定用户位移的方法 |
CN108090921A (zh) * | 2016-11-23 | 2018-05-29 | 中国科学院沈阳自动化研究所 | 单目视觉和imu融合的自适应室内定位方法 |
CN106780608A (zh) * | 2016-11-23 | 2017-05-31 | 北京地平线机器人技术研发有限公司 | 位姿信息估计方法、装置和可移动设备 |
CN106705965A (zh) * | 2017-01-12 | 2017-05-24 | 苏州中德睿博智能科技有限公司 | 场景三维数据配准方法及导航***误差校正方法 |
CN106898022A (zh) * | 2017-01-17 | 2017-06-27 | 徐渊 | 一种手持式快速三维扫描***及方法 |
CN106842625B (zh) * | 2017-03-03 | 2020-03-17 | 西南交通大学 | 一种基于特征共识性的目标追踪方法 |
CN106842625A (zh) * | 2017-03-03 | 2017-06-13 | 西南交通大学 | 一种基于特征共识性的目标追踪眼镜及方法 |
CN108694348A (zh) * | 2017-04-07 | 2018-10-23 | 中山大学 | 一种基于自然特征的跟踪注册方法及装置 |
CN108803861A (zh) * | 2017-04-28 | 2018-11-13 | 广东虚拟现实科技有限公司 | 一种交互方法、设备及*** |
CN107194968A (zh) * | 2017-05-18 | 2017-09-22 | 腾讯科技(上海)有限公司 | 图像的识别跟踪方法、装置、智能终端和可读存储介质 |
CN107194968B (zh) * | 2017-05-18 | 2024-01-16 | 腾讯科技(上海)有限公司 | 图像的识别跟踪方法、装置、智能终端和可读存储介质 |
CN107316319B (zh) * | 2017-05-27 | 2020-07-10 | 北京小鸟看看科技有限公司 | 一种刚体追踪的方法、装置和*** |
CN107341831B (zh) * | 2017-07-06 | 2020-10-27 | 青岛海通胜行智能科技有限公司 | 一种imu辅助的视觉特征鲁棒跟踪方法及装置 |
CN107341831A (zh) * | 2017-07-06 | 2017-11-10 | 青岛海通胜行智能科技有限公司 | 一种imu辅助的视觉特征鲁棒跟踪方法及装置 |
CN107255476A (zh) * | 2017-07-06 | 2017-10-17 | 青岛海通胜行智能科技有限公司 | 一种基于惯性数据和视觉特征的室内定位方法和装置 |
CN107516327B (zh) * | 2017-08-21 | 2023-05-16 | 腾讯科技(上海)有限公司 | 基于多层滤波确定相机姿态矩阵的方法及装置、设备 |
CN107516327A (zh) * | 2017-08-21 | 2017-12-26 | 腾讯科技(上海)有限公司 | 基于多层滤波确定相机姿态矩阵的方法及装置、设备 |
CN107491099A (zh) * | 2017-08-30 | 2017-12-19 | 浙江华飞智能科技有限公司 | 一种基于视觉和陀螺仪的云台控制方法及装置 |
CN109559330A (zh) * | 2017-09-25 | 2019-04-02 | 北京金山云网络技术有限公司 | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 |
CN109074664A (zh) * | 2017-10-26 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 姿态标定方法、设备及无人飞行器 |
CN110520694A (zh) * | 2017-10-31 | 2019-11-29 | 深圳市大疆创新科技有限公司 | 一种视觉里程计及其实现方法 |
CN109753841B (zh) * | 2017-11-01 | 2023-12-12 | 比亚迪股份有限公司 | 车道线识别方法和装置 |
CN109753841A (zh) * | 2017-11-01 | 2019-05-14 | 比亚迪股份有限公司 | 车道线识别方法和装置 |
CN107862704B (zh) * | 2017-11-06 | 2021-05-11 | 广东工业大学 | 一种目标跟踪方法、***及其使用的云台相机 |
CN107862704A (zh) * | 2017-11-06 | 2018-03-30 | 广东工业大学 | 一种目标跟踪方法、***及其使用的云台相机 |
CN109196556A (zh) * | 2017-12-29 | 2019-01-11 | 深圳市大疆创新科技有限公司 | 避障方法、装置及可移动平台 |
CN108259709A (zh) * | 2018-01-19 | 2018-07-06 | 长沙全度影像科技有限公司 | 一种用于子弹时间拍摄的视频图像防抖方法及*** |
CN110622213B (zh) * | 2018-02-09 | 2022-11-15 | 百度时代网络技术(北京)有限公司 | 利用3d语义地图进行深度定位和分段的***和方法 |
CN110622213A (zh) * | 2018-02-09 | 2019-12-27 | 百度时代网络技术(北京)有限公司 | 利用3d语义地图进行深度定位和分段的***和方法 |
CN108364319A (zh) * | 2018-02-12 | 2018-08-03 | 腾讯科技(深圳)有限公司 | 尺度确定方法、装置、存储介质及设备 |
CN108364319B (zh) * | 2018-02-12 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 尺度确定方法、装置、存储介质及设备 |
CN108981693A (zh) * | 2018-03-22 | 2018-12-11 | 东南大学 | 基于单目相机的vio快速联合初始化方法 |
WO2019205850A1 (zh) * | 2018-04-27 | 2019-10-31 | 腾讯科技(深圳)有限公司 | 位姿确定方法、装置、智能设备及存储介质 |
CN110555882A (zh) * | 2018-04-27 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 界面显示方法、装置及存储介质 |
CN110555882B (zh) * | 2018-04-27 | 2022-11-15 | 腾讯科技(深圳)有限公司 | 界面显示方法、装置及存储介质 |
US11158083B2 (en) | 2018-04-27 | 2021-10-26 | Tencent Technology (Shenzhen) Company Limited | Position and attitude determining method and apparatus, smart device, and storage medium |
CN108805987A (zh) * | 2018-05-21 | 2018-11-13 | 中国科学院自动化研究所 | 基于深度学习的混合跟踪方法及装置 |
CN108648215A (zh) * | 2018-06-22 | 2018-10-12 | 南京邮电大学 | 基于imu的slam运动模糊位姿跟踪算法 |
CN108648215B (zh) * | 2018-06-22 | 2022-04-15 | 南京邮电大学 | 基于imu的slam运动模糊位姿跟踪算法 |
CN108921898A (zh) * | 2018-06-28 | 2018-11-30 | 北京旷视科技有限公司 | 摄像机位姿确定方法、装置、电子设备和计算机可读介质 |
CN109035303A (zh) * | 2018-08-03 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | Slam***相机跟踪方法及装置、计算机可读存储介质 |
CN109175832A (zh) * | 2018-09-20 | 2019-01-11 | 上海理工大学 | 一种基于单目测量的3d焊接定位***及其控制方法 |
CN109175832B (zh) * | 2018-09-20 | 2020-11-10 | 上海理工大学 | 一种基于单目测量的3d焊接定位***的控制方法 |
CN109376785B (zh) * | 2018-10-31 | 2021-09-24 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN109376785A (zh) * | 2018-10-31 | 2019-02-22 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN109584299A (zh) * | 2018-11-13 | 2019-04-05 | 深圳前海达闼云端智能科技有限公司 | 一种定位方法、定位装置、终端及存储介质 |
CN109584299B (zh) * | 2018-11-13 | 2021-01-05 | 深圳前海达闼云端智能科技有限公司 | 一种定位方法、定位装置、终端及存储介质 |
CN111354042A (zh) * | 2018-12-24 | 2020-06-30 | 深圳市优必选科技有限公司 | 机器人视觉图像的特征提取方法、装置、机器人及介质 |
CN111354042B (zh) * | 2018-12-24 | 2023-12-01 | 深圳市优必选科技有限公司 | 机器人视觉图像的特征提取方法、装置、机器人及介质 |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN109993802A (zh) * | 2019-04-03 | 2019-07-09 | 浙江工业大学 | 一种城市环境中的混合相机标定方法 |
CN109993802B (zh) * | 2019-04-03 | 2020-12-25 | 浙江工业大学 | 一种城市环境中的混合相机标定方法 |
WO2020221307A1 (zh) * | 2019-04-29 | 2020-11-05 | 华为技术有限公司 | 一种运动物体的追踪方法和装置 |
CN113632135A (zh) * | 2019-04-30 | 2021-11-09 | 三星电子株式会社 | 用于低延迟、高性能位姿融合的***和方法 |
CN110147164A (zh) * | 2019-05-22 | 2019-08-20 | 京东方科技集团股份有限公司 | 头部运动跟踪方法、设备、***及存储介质 |
WO2020238790A1 (zh) * | 2019-05-27 | 2020-12-03 | 浙江商汤科技开发有限公司 | 相机定位 |
CN110796010A (zh) * | 2019-09-29 | 2020-02-14 | 湖北工业大学 | 一种结合光流法和卡尔曼滤波的视频稳像方法 |
CN110648354A (zh) * | 2019-09-29 | 2020-01-03 | 电子科技大学 | 一种动态环境下的slam方法 |
CN110648354B (zh) * | 2019-09-29 | 2022-02-01 | 电子科技大学 | 一种动态环境下的slam方法 |
CN110702107A (zh) * | 2019-10-22 | 2020-01-17 | 北京维盛泰科科技有限公司 | 一种单目视觉惯性组合的定位导航方法 |
CN110842918A (zh) * | 2019-10-24 | 2020-02-28 | 华中科技大学 | 一种基于点云伺服的机器人移动加工自主寻位方法 |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
CN110910423A (zh) * | 2019-11-15 | 2020-03-24 | 小狗电器互联网科技(北京)股份有限公司 | 一种目标跟踪方法及存储介质 |
CN110910423B (zh) * | 2019-11-15 | 2022-08-23 | 小狗电器互联网科技(北京)股份有限公司 | 一种目标跟踪方法及存储介质 |
CN113673283A (zh) * | 2020-05-14 | 2021-11-19 | 惟亚(上海)数字科技有限公司 | 一种基于增强现实的平滑跟踪方法 |
CN111595362A (zh) * | 2020-06-05 | 2020-08-28 | 联想(北京)有限公司 | 一种惯性测量单元的参数标定方法、装置及电子设备 |
CN111862150A (zh) * | 2020-06-19 | 2020-10-30 | 杭州易现先进科技有限公司 | 图像跟踪的方法、装置、ar设备和计算机设备 |
CN111811421A (zh) * | 2020-07-17 | 2020-10-23 | 中国人民解放军国防科技大学 | 一种高速实时形变监测方法及*** |
CN112037261A (zh) * | 2020-09-03 | 2020-12-04 | 北京华捷艾米科技有限公司 | 一种图像动态特征去除方法及装置 |
CN112017229A (zh) * | 2020-09-06 | 2020-12-01 | 桂林电子科技大学 | 一种相机相对位姿求解方法 |
CN112017229B (zh) * | 2020-09-06 | 2023-06-27 | 桂林电子科技大学 | 一种相机相对位姿求解方法 |
CN112396634A (zh) * | 2020-11-27 | 2021-02-23 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN112837374A (zh) * | 2021-03-09 | 2021-05-25 | 中国矿业大学 | 一种空间定位方法及*** |
CN112837374B (zh) * | 2021-03-09 | 2023-11-03 | 中国矿业大学 | 一种空间定位方法及*** |
CN113672608B (zh) * | 2021-08-25 | 2023-07-25 | 东北大学 | 基于自适应约简阈值的物联网感知数据约简***及方法 |
CN113672608A (zh) * | 2021-08-25 | 2021-11-19 | 东北大学 | 基于自适应约简阈值的物联网感知数据约简***及方法 |
CN113920194B (zh) * | 2021-10-08 | 2023-04-21 | 电子科技大学 | 基于视觉惯性融合的四旋翼飞行器定位方法 |
CN113920194A (zh) * | 2021-10-08 | 2022-01-11 | 电子科技大学 | 基于视觉惯性融合的四旋翼飞行器定位方法 |
CN114167979A (zh) * | 2021-11-18 | 2022-03-11 | 上海鱼微阿科技有限公司 | 一种增强现实一体机手柄跟踪算法 |
CN114167979B (zh) * | 2021-11-18 | 2024-04-26 | 玩出梦想(上海)科技有限公司 | 一种增强现实一体机手柄跟踪算法 |
CN114742977A (zh) * | 2022-03-30 | 2022-07-12 | 青岛虚拟现实研究院有限公司 | 一种基于ar技术的视频透视方法 |
CN115115707A (zh) * | 2022-06-30 | 2022-09-27 | 小米汽车科技有限公司 | 车辆落水检测方法、车辆、计算机可读存储介质及芯片 |
CN115115707B (zh) * | 2022-06-30 | 2023-10-10 | 小米汽车科技有限公司 | 车辆落水检测方法、车辆、计算机可读存储介质及芯片 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105931275A (zh) | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 | |
US11519729B2 (en) | Vision-aided inertial navigation | |
CN105953796A (zh) | 智能手机单目和imu融合的稳定运动跟踪方法和装置 | |
Heo et al. | EKF-based visual inertial navigation using sliding window nonlinear optimization | |
Lupton et al. | Visual-inertial-aided navigation for high-dynamic motion in built environments without initial conditions | |
CN109885080B (zh) | 自主控制***及自主控制方法 | |
CN110402368B (zh) | 用在交通工具导航中的集成式的基于视觉的惯性传感器*** | |
US8233660B2 (en) | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system | |
CN109141433A (zh) | 一种机器人室内定位***及定位方法 | |
Zhang et al. | IMU data processing for inertial aided navigation: A recurrent neural network based approach | |
CN112907678B (zh) | 车载相机外参姿态动态估计方法、装置、计算机设备 | |
CN110865650B (zh) | 基于主动视觉的无人机位姿自适应估计方法 | |
CN111649739A (zh) | 定位方法和装置、自动驾驶车辆、电子设备和存储介质 | |
CN109443348A (zh) | 一种基于环视视觉和惯导融合的地下车库库位跟踪方法 | |
Kang et al. | Vins-vehicle: A tightly-coupled vehicle dynamics extension to visual-inertial state estimator | |
CN114001733B (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
CN109238277B (zh) | 视觉惯性数据深度融合的定位方法及装置 | |
Zhang et al. | Vision-aided localization for ground robots | |
CN113503873A (zh) | 一种多传感器融合的视觉定位方法 | |
EP3227634B1 (en) | Method and system for estimating relative angle between headings | |
CN109387198A (zh) | 一种基于序贯检测的惯性/视觉里程计组合导航方法 | |
Irmisch et al. | Simulation framework for a visual-inertial navigation system | |
Park et al. | A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation | |
CN115540854A (zh) | 一种基于uwb辅助的主动定位方法、设备和介质 | |
Kundra et al. | Improving orientation estimation in mobiles with built-in camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160907 |