CN103745474A - 基于惯性传感器和摄像机的图像配准方法 - Google Patents

基于惯性传感器和摄像机的图像配准方法 Download PDF

Info

Publication number
CN103745474A
CN103745474A CN201410027349.4A CN201410027349A CN103745474A CN 103745474 A CN103745474 A CN 103745474A CN 201410027349 A CN201410027349 A CN 201410027349A CN 103745474 A CN103745474 A CN 103745474A
Authority
CN
China
Prior art keywords
formula
image
sin
video camera
inertial sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410027349.4A
Other languages
English (en)
Other versions
CN103745474B (zh
Inventor
顾国华
韩鲁
刘恒建
余明
廖逸琪
钱惟贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201410027349.4A priority Critical patent/CN103745474B/zh
Publication of CN103745474A publication Critical patent/CN103745474A/zh
Application granted granted Critical
Publication of CN103745474B publication Critical patent/CN103745474B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

本发明提出一种基于惯性传感器和摄像机的图像配准方法。同步控制摄像机和惯性传感器工作,同时获取同一场景的彩色图像、深度图像以及摄像机的三轴运动角速度和三轴运动加速度;利用卡尔曼滤波对三轴角速度和三轴加速度进行滤波,使用欧拉动力学方程式将三轴角速度转换成欧拉角,使用匀加速运动公式将三轴加速度转换成三轴位移,从而获得摄像机外参矩阵;利用彩色图像和深度图像的仿射变换关系,和深度图像灰度值与像素深度信息的比例关系求解出角点在深度图像中的深度信息;使用OFCM模型计算获得图像背景光流;使用RANSAC算法完成图像配准。本发明方法计算量小,实时性和精度均较高,能适用于手持设备和移动设备。

Description

基于惯性传感器和摄像机的图像配准方法
技术领域
本发明属于数字图像处理领域,具体涉及一种基于惯性传感器和摄像机的图像配准方法。
背景技术
图像配准技术的关键问题是对摄像机运动参数的估计,一般通过摄像机标定来完成。现有技术中,摄像机自标定的方法有:
李立春等人提出了基于八点法基础矩阵三维重建算法[李立春,邱志强,王鲲鹏等.基于匹配测度加权求解基础矩阵的三维重建算法[J].计算机应用,2007,27(10):2530-2533],该方法复杂并且计算量很大,难以实现图像处理的实时性。
张洋等人提出了FOE模型验证了摄像机运动的平移效果[张洋,凯瑟勒威驰,柏森.可见光范围内基于移动相机的运动目标检测算法.计算机视觉和模式识别工作室.IEEE国际会议,2006,130-131],该方法没有考虑摄像机的旋转运动和摄像机的内参矩阵,精度不高。
郑红等人提出了基于主动视觉的标定方法主要是利用云台等已知运动的硬件平台来提供摄像机运动信息[郑红,刘振强.基于精确模型的云台摄像机自标定[J].机器人,2013.5,35(3):1994-2013],该方法由于云台等设备较大,虽然能够很好地实现实时性,却很难普及到手持设备和移动设备中,使用面有限。
发明内容
本发明提出一种基于惯性传感器和摄像机的图像配准方法,该方法计算量小,实时性和精度均较高,能适用于手持设备和移动设备。
为了解决上述技术问题,本发明提供一种基于惯性传感器和摄像机的图像配准方法,包括以下步骤:
步骤一、同步控制摄像机和惯性传感器工作,同时获取同一场景的彩色图像I和J、深度图像I’和J’以及摄像机的三轴运动角速度[wx,wy,wz]和三轴运动加速度[ax,ay,az];
步骤二、提取彩色图像I的角点m1(x1,y1);
步骤三、利用卡尔曼滤波对摄像机的三轴角速度[wx,wy,wz]和三轴加速度[ax,ay,az]进行滤波,获得卡尔曼滤波估计三轴角速度和卡尔曼滤波估计三轴加速度使用欧拉动力学方程式将
Figure BDA0000459694710000023
转换成欧拉角[αk,βk,γk],使用匀加速运动公式将
Figure BDA0000459694710000024
转换成三轴位移[txk,tyk,tzk],从而获得摄像机外参矩阵[R,T]中的旋转矩阵R和平移矩阵T;
步骤四、利用彩色图像和深度图像的仿射变换关系,求解出彩色图像I的角点m1(x1,y1)在深度图像I’和J’中的坐标位置m1ir(x1,y1)和m2ir(x1,y1);利用深度图像灰度值与像素深度信息的比例关系求解出角点m1(x1,y1)在深度图像I’和J’中的深度信息u1和u2
步骤五、将步骤三获得的旋转矩阵R和平移矩阵T以及步骤四获得的彩色图像的深度信息u1、u2带入OFCM模型,计算获得图像J的背景光流m2(x2,y2),OFCM模型如公式(1)所示,
m 2 = u 1 u 2 KRK - 1 m 1 + 1 u 2 KT - - - ( 1 )
式(1)中,K为摄像机的内参矩阵,K-1为K的逆矩阵;
步骤六、使用RANSAC算法对彩色图像I的背景光流m2进行鲁棒性估计,将背景光流m2中存在的由运动物体产生的光流和误配准光流剔除掉,从而完成彩色图像I和彩色图像J的图像配准,然后利用保留的彩色图像I的正确背景光流对彩色图像J进行初始化,进行后续图像的配准。
主要发明原理:
1、本发明结合欧式空间的刚体变化关系提出了图像背景光流与摄像机运动参数的关系模型(OFCM),该模型主要推导方式如下:
假设彩色CCD为针孔模型,场景中的背景只存在与彩色CCD的相对运动,摄像机坐标系的建立是以彩色CCD的光心为中心O,光轴所在的直线为Z轴,再根据左手原则建立X,Y轴。
假设摄像机运动前摄像机坐标系与世界坐标系重合,那么空间背景中的任意一点P的坐标满足:
PW=PC         (2)
式(2)中,PW为空间某点的世界坐标系坐标,PW为空间某点的摄像机坐标系坐标,空间背景点P与其成像平面上的成像点的齐次坐标m1(x1,y1,1)满足公式(3):
u1m1=KPC         (3)
式(3)中,m1(x1,y1)为成像平面上的成像点,利用模型计算时采用Harris角点代替;u1可近似为m1(x1,y1)对应空间点的深度信息;K为摄像机的内参矩阵,考虑到图像中像素坐标系和物理坐标系的关系,可得出摄像机内参矩阵的五参数模型,如公式(4)所示,
K = f x s u 0 0 f y v 0 0 0 1 - - - ( 4 )
式(4)中,
Figure BDA0000459694710000032
Figure BDA0000459694710000033
其中,dx为像素点在x方向上的物理尺寸,dy为像素点在y方向上的物理尺寸,[u0,v0]为主点在像素坐标系中的坐标,s为相机畸变系数。
假设摄像机存在任意方向的平移运动和旋转运动,平移运动可用平移向量T=[tx,ty,tz]T来表示,旋转运动可用3*3的旋转矩阵R来表示,此时空间背景点P在摄像机坐标系中的坐标满足:
P'C=R×PW+T=R×PC+T         (5)
式(5)中,旋转矩阵R可用欧式空间的欧拉角α,β,γ表示,如式(6)所示,
R = cos γ cos β cos γ sin β sin α - sin γ cos γ sin β cos α - sin α sin γ sin γ cos β sin α sin β sin γ + cos γ cos α sin γ sin β cos α + cos γ sin α - sin β cos β sin α cos β cos α - - - ( 6 )
摄像机运动后,空间点P与其成像平面上的成像点的齐次坐标m2(x2,y2,1)满足关系:
u2m2=KP'C=K(R×PC+T)         (7)
根据公式(3)和公式(5),可以获得摄像机运动前后空间点P在成像平面上的运动光流,即OFCM的最终形式:
m 2 = u 1 u 2 KRK - 1 m 1 + 1 u 2 KT - - - ( 8 )
其中,u1和u2可以近似为空间点P在摄像机坐标系中的深度信息,通过摄像机获取的深度图像计算得出。外参矩阵[R,T]通过硬件平台获取并处理得出,m1可以通过Harris角点检测获取。假定摄像机的深度CCD和彩色CCD均工作在固定焦距f的条件下,此时像平面与物平面是一一对应的。因此,彩色CCD的内参矩阵K在整个图像获取过程中是一个恒定不变的量,可以经过一次标定获取后作为经验矩阵使用。
优势:现今存在的摄像机模型有FOE模型、MOF模型,FOE模型和MOF模型均没有考虑摄像机的内参矩阵,且FOE模型只支持摄像机的平移运动,因此在摄像机复杂运动下无法保持较高的精度。本发明提出的OFCM模型包含摄像机的内参矩阵,支持摄像机的三轴平移运动和三轴旋转运动,能够克服场景亮度突变。因此,OFCM模型在摄像机复杂运动和场景亮度突变情况下,都能保持高精度的图像配准。
2、基于惯性传感器和摄像机的硬件平台:
本发明利用OFCM模型来计算图像的背景光流,由OFCM模型可知,图像背景光流的计算需要获知摄像机的外参矩阵[R,T]和图像像素对应的深度信息u1、u2。本发明采用硬件平台来完成摄像机外参矩阵和图像像素深度信息的获取。
本发明所述硬件平台包括三个部分:控制器件FPGA、惯性传感器和摄像机,摄像机可以采用Kinect摄像机,惯性传感器中包括陀螺仪和加速度计,Kinect摄像机包括深度图像获取CCD和彩色图像获取CCD,FPGA和惯性传感器的最小***均固定在深度图像获取CCD上,惯性传感器位于Kinect摄像机的正上方,陀螺仪用于获取摄像机的三轴运动角速度[wx,wy,wz],加速度计用于获取摄像机的三轴运动加速度[ax,ay,az],Kinect摄像机用于拍摄彩色图像I、J和深度图像I’、J’。硬件平台上电后,FPGA通过控制脉冲控制Kinect摄像机的快门工作,从而完成彩色图像和深度图像的获取,FPGA通过SPI协议同步控制Kinect摄像机和惯性传感器工作,以保证本步骤获取的图像序列和采集的摄像机运动参数一一对应。
优势:基于本模型的图像配准算法计算量小,***实时性好;由于惯性传感器具有体积小、精度高等优点,和云台等获取摄像机运动参数的设备相比,能够更好地普及在手持设备和移动设备中。
3、基于惯性传感器的卡尔曼滤波模型的建立:
由于惯性传感器采集到的摄像机运动参数存在零点偏移、刻度因子误差和随机噪声等误差,因此需要对采集到的摄像机运动参数进行滤波去噪处理。
在使用卡尔曼滤波的经典公式时,需要根据惯性传感器的性能与参数建立惯性传感器的误差模型和状态转移关系式:
z′k=zk(M+1)+Bf+U         (9)
zkk,k-1zk-1+V         (10)
其中,z′k为k时刻***的实际观测值,zk为k时刻***的真实值,M为刻度因子误差,Bf为零点漂移,V和U为随机高斯白噪声,Ψk,k-1为状态转移矩阵。
根据公式(9)并结合时间序列分析法求解出惯性传感器的刻度因子误差M,零点漂移Bf,和高斯白噪声V和U;根据公式(10)并结合时间序列分析法求解出参数间的状态转移矩阵Ψk,k-1
将公式公式(9)和公式(10)计算的结果带入卡尔曼滤波的经典公式(11),对k时刻的参数进行滤波,求出估计值
Figure BDA0000459694710000054
z k , k - 1 = Ψ k , k - 1 z k - 1 z k ^ = z k , k - 1 + K k [ z ′ k ( M + 1 ) z k , k - 1 ] P k , k - 1 = Ψ k , k - 1 P k - 1 Ψ k , k - 1 T + Q k - 1 K k = P k , k - 1 ( M + 1 ) T P k - 1 P k = [ I - K k ( M + 1 ) ] P k , k - 1 - - - ( 11 )
其中,Q为***的噪声方差,Kk为卡尔曼增益,Pk为状态协方差,wk,k-1为状态预估值。
本发明与现有技术相比,其显著优点在于:
(1)由于摄像机参数的估计是通过惯性传感器和摄像机实时获取的,其中惯性传感器中的陀螺仪和加速度计分别获取摄像机的旋转运动参数和平移运动参数;摄像机包含深度图像获取CCD(深度CCD)和彩色图像获取CCD(彩色CCD),二者可以结合获取彩色图像的深度信息。因此本方法虽然基于硬件平台,但由于惯性传感器具有体积小、精度高等优点,与摄像机绑定后,可以很好地普及在手持设备和移动设备中。
(2)从摄影几何角度出发,结合欧式空间的刚体变化关系推导出图像背景光流与摄像机运动参数的关系模型(optical flow and camera’s motion),记作OFCM模型。此模型包含摄像机的内参矩阵,并且支持摄像机的三轴平移运动和三轴旋转运动;同时,在亮度突变的情况下,仍然有着较高的精度,相较于FOE模型和光流匹配法有了较大的突破。
附图说明
图1为本发明基于惯性传感器和摄像机的图像配准方法流程图。
图2为在场景亮度突变情况下使用本发明方法获得的图像配准效果图。
图3为在摄像机发生平移运动时使用本发明方法获得的图像配准效果图。
图4为在摄像机发生旋转运动时使用本发明方法获得的图像配准效果图。
图5为在摄像机发生平移运动和旋转运动时使用本发明方法获得的图像配准效果图。
具体实施方式
如图1所示,本发明基于惯性传感器和摄像机的图像配准方法,包括以下步骤
步骤一、在硬件平台中,同步控制摄像机和惯性传感器工作,同时获取同一场景的彩色图像I和J、深度图像I’和J’以及摄像机的运动参数,即三轴运动角速度[wx,wy,wz]和三轴运动加速度[ax,ay,az],具体实现如下:
本发明所述硬件平台包括三个部分:控制器件FPGA、惯性传感器和摄像机,惯性传感器包括陀螺仪和加速度计,摄像机包括深度图像获取CCD和彩色图像获取CCD,用于拍摄彩色图像I、J和深度图像I’、J’,FPGA和惯性传感器的最小***均固定在深度图像获取CCD上,陀螺仪用于获取摄像机的三轴运动角速度[wx,wy,wz],加速度计用于获取摄像机的三轴运动加速度[ax,ay,az]。硬件平台上电后,FPGA通过控制脉冲控制摄像机的快门工作,从而完成彩色图像和深度图像的获取,FPGA通过SPI协议同步控制摄像机和惯性传感器工作,以保证本步骤获取的图像序列和采集的摄像机运动参数一一对应。
步骤二、利用Harris角点检测提取彩色图像I的角点m1(x1,y1)。具体实现如下:
2.1计算彩色图像I中像素点p[x,y]的相关矩阵M,计算方法如公式(1)所示,
M = Σ x , y w ( x , y ) I x 2 I x I y I x I y I y 2 = w ( x , y ) ⊗ I x 2 I x I y I x I y I y 2 - - - ( 2 )
式(1)中,(x,y)为像素点p的图像坐标,w(x,y)是窗口大小为w*w的高斯权重函数,Ix代表行方向的导数,Iy代表列方向的导数;
2.2计算像素点m1(x1,y1)的角点响应R(x,y),计算方法如公式(2)所示,
R(x,y)=detM-k*(traceM)2         (2)
式(2)中,detM代表相关矩阵M行列式的值,traceM代表相关矩阵M的迹,k为常数,一般为0.04-0.06;
2.3判断像素点m1(x1,y1)是否为角点,判断方法为公式(3)所示,若像素点m1(x1,y1)的角点响应R(x,y)满足公式(3),则像素点m1(x1,y1)为角点;若像素点m1(x1,y1)的角点响应R(x,y)不满足公式(11),则将m1(x1,y1)舍弃;
[R(x,y)≥R(x′,y′)]∩[R(x,y)≥0.01Rmax]         (3)
式(3)中,R(x′,y′)代表窗口w*w中除像素点m1(x1,y1)之外的其它像素点的角点响应,Rmax为边缘特征信息图像If中的最大角点响应。
步骤三、利用卡尔曼滤波对摄像机的三轴角速度[wx,wy,wz]和三轴加速度[ax,ay,az]进行滤波,获得卡尔曼滤波估计三轴角速度
Figure BDA0000459694710000071
和卡尔曼滤波估计三轴加速度使用欧拉动力学方程式将
Figure BDA0000459694710000073
转换成欧拉角[αk,βk,γk],使用匀加速运动公式将
Figure BDA0000459694710000074
转换成三轴位移[txk,tyk,tzk]从而获得摄像机外参矩阵[R,T]中的旋转矩阵R和平移矩阵T;
3.1利用卡尔曼滤波对摄像机的运动参数,即三轴角速度[wx,wy,wz]和三轴加速度[ax,ay,az]进行滤波,获得卡尔曼滤波估计三轴角速度和卡尔曼滤波估计三轴加速度
Figure BDA0000459694710000077
的具体计算方式如下:
3.1.1根据惯性传感器的性能与运动参数建立惯性传感器的误差模型和状态转移关系式,结合时间序列分析法求解出惯性传感器的刻度因子误差M、零点漂移Bf、高斯白噪声U、运动参数间的状态转移矩阵Ψk,k-1以及高斯白噪声V;
误差模型如公式(4)所示,状态转移关系式公式(5)所示,
z′k=zk(M+1)+Bf+U         (4)
zkk,k-1zk-1+V         (5)
式(4)和式(5)中,z代表三轴角速度[wx,wy,wz]和三轴加速度[ax,ay,az]中的某一运动参数,z′k为k时刻惯性传感器测量获得的某一运动参数的测量值,zk为k时刻某一运动参数的真实值,M为刻度因子误差,Bf为零点漂移,V和U为随机高斯白噪声,Ψk,k-1为状态转移矩阵;
根据公式(4)并结合时间序列分析法求解出惯性传感器的刻度因子误差M,零点漂移Bf,和高斯白噪声V和U;根据公式(5)并结合时间序列分析法求解出运动参数间的状态转移矩阵Ψk,k-1
3.1.2将步骤3.1.1所求取的结果带入卡尔曼滤波的经典公式(6)对k时刻的运动参数zk进行滤波,求出该运动参数的估计值
Figure BDA0000459694710000081
z k , k - 1 = Ψ k , k - 1 z k - 1 z k ^ = z k , k - 1 + K k [ z ′ k ( M + 1 ) z k , k - 1 ] P k , k - 1 = Ψ k , k - 1 P k - 1 Ψ k , k - 1 T + Q k - 1 K k = P k , k - 1 ( M + 1 ) T P k - 1 P k = [ I - K k ( M + 1 ) ] P k , k - 1 - - - ( 6 )
式(6)中,Q为***的噪声方差,Kk为卡尔曼增益,Pk为状态协方差,zk,k-1为状态预估值。
按照上述方法分别对三轴运动角速度[wx,wy,wz]和三轴运动加速度[ax,ay,az]进行卡尔曼滤波,获得
Figure BDA0000459694710000084
3.2使用欧拉动力学方程将k时刻滤波后的三轴运动角速度wxk,wyk,wzk转换成欧式坐标系中的欧拉角αk,βk,γk,将所得的αk,βk,γk带入旋转矩阵R中,完成彩色CCD旋转矩阵R的计算;
所述欧拉动力学方程如公式(7)所示,
α · k β · k γ · k = - sin α k / tan β k cos α k / tan β k 1 cos α k sin α k 0 sin α k / sin β k - cos α k / sin β k 0 * w xk w yk w zk - - - ( 7 )
式(7)中,为欧拉角αk,βk,γk的一阶导数,将k-1时刻求得的参量αk-1,βk-1,γk-1作为公式(7)的初值;
所述旋转矩阵R如公式(8)所示:
R = cos γ k cos β k cos γ k sin β k sin α k - sin γ k cos γ k sin β k cos α k - sin α k sin γ k sin γ k cos β k sin α k sin β k sin γ k + cos γ k cos α k sin γ k sin β k cos α k + cos γ k sin α k - sin β k cos β k sin α k cos β k cos α k - - - ( 8 )
3.3使用如公式(9)所示的速度位移公式将三轴加速度axk,ayk,azk转换成三轴位移txk,tyk,tzk。由于摄像机运动参数的采集频率比较高,因此可以将摄像机的平移运动近似为匀加速运动,计算公式如公式(9)所示:
t k = v k T + 1 2 a k T 2 v k = v k - 1 + a k - 1 × T - - - ( 9 )
式(9)中,tk代表三轴位移txk,tyk,tzk中任意一坐标轴方向的位移,T为摄像机的拍摄周期,ak-1为k-1时刻对应坐标轴方向的加速度,vk-1和vk分别为k-1时刻和k时刻的初始速度。本发明给定***初始时刻的初始速度0,即v0=0。将三轴加速度axk,ayk,azk分别带入公式(9),可计算获得三轴平移运动的平移向量T=[txk,tyk,tzk]。
步骤四、利用彩色图像和深度图像的仿射变换关系,分别求解出彩色图像I的角点m1(x1,y1)在深度图像I’和J’中的坐标位置m1ir(x1,y1)和m2ir(x1,y1);利用深度图像中灰度值与像素深度信息的比例关系求解出角点m1(x1,y1)在深度图像I’和J’中的深度信息u1和u2,具体实现如下:
4.1利用彩色图像和深度图像的仿射变换关系,分别求解出彩色图像I的角点m1(x1,y1)在深度图像I’和J’中的坐标位置m1ir(x1,y1)和m2ir(x1,y1),具体实现如下:
根据直接线性变换算法计算出彩色图像和深度图像的仿射变换关系,具体如公式(10)所示:
mir=Hm         (10)
式(10)中,mir为深度图像中的像素坐标,m为彩色图像中的像素坐标。将彩色图像I的角点m1(x1,y1)带入公式(9)求解出角点m1(x1,y1)在深度图像I’和J’中的坐标位置m1ir(x1,y1)和m2ir(x1,y1)。
4.2利用深度图像中灰度值与像素深度信息的比例关系求解出彩色图像角点m1(x1,y1)在深度图像I’和J’中的深度信息u1和u2,具体计算过程如下
灰度值与像素深度信息的比例关系可以通过反向工程提出的经验关系式,如公式(11)所示:
u=l×m         (11)
式(11)中,m(x,y)为像素坐标(x,y)处的灰度值,u为像素坐标(x,y)处对应的深度值,l为比例系数;将步骤4.2求解出的m1ir(x1,y1),m2ir(x1,y1)带入公式(11)求解出对应的深度信息u1和u2
步骤五、将步骤三获得的运动外参矩阵R和T以及步骤四获得的彩色图像的深度信息u1、u2带入OFCM模型,计算获得图像J的背景光流m2(x2,y2),具体实现如下:
将步骤三获得的运动外参矩阵R和T以及步骤四获得的彩色图像的深度信息u1、u2带入如公式(12)所示的OFCM模型,计算获得第k帧角点m1在第k+1帧图像中的背景光流m2
m 2 = u 1 u 2 KRK - 1 m 1 + 1 u 2 KT - - - ( 12 )
式(12)中,K为摄像机的内参矩阵,K-1为K的逆矩阵。
步骤六、使用RANSAC算法对彩色图像I的背景光流m2进行鲁棒性估计,将背景光流m2中存在的由运动物体产生的光流和误配准光流剔除掉,从而完成彩色图像I和彩色图像J的图像配准,然后利用保留的彩色图像I的正确背景光流对彩色图像J进行初始化,进行后续图像的配准。具体实现如下:
所述彩色图像I的RANSAC计算过程为:
6.1初始化当前所有的角点m1(x1,y1),m2(x2,y2)为局内点;
6.2利用DLT算法计算出仿射变换矩阵H1,根据公式(13)结合角点m1(x1,y1)估计出角点估计值m2′(x2′,y2′):
m2′=H1m1         (13)
6.3根据公式(14)计算角点m2(x2,y2)和角点估计值m2′(x2′,y2′)的欧氏距离d,若d小于阈值d′,则将角点m1(x1,y1),m2(x2,y2)置为局内点(即背景光流),若d大于等于阈值d′,则将角点m1(x1,y1),m2(x2,y2)置为局外点,局外点即为运动物体光流或误配准光流。当完成一次RANSAC计算后,初始化当前局内点为局外点,重复步骤6.2和6.3,当不再产生新的局内点或达到规定重复次数时,结束当前RANSAC算法,
d=sqrt((x2-x2′)2+(y2-y2′)2)         (14)
所述对彩色图像J进行初始化的过程为:首先遍历该帧所有的角点,若该角点与彩色图像I保留的正确背景光流重合,则将该角点作为RANSAC计算的初始局内点。重复步骤6.1、6.2、6.3,逐帧完成RANSAC的估计。
根据上述步骤,不断地将图像中的运动物体光流或误配准光流剔除掉;利用RANSAC算法提取的角点光流,完成图像的配准。
本发明的有益效果可以通过以下实验进一步说明:
本实验采用的主控制器件为ALTERA公司的型号为EP2C5Q208C6的FPGA,传感器包含两部分:型号为ADIS16405的惯性传感器和Kinect摄像机,其中惯性传感器中的陀螺仪和加速度计分别获取摄像机的旋转运动参数和平移运动参数;Kinect摄像机包含深度图像获取CCD(深度CCD)和彩色图像获取CCD(彩色CCD),二者可以结合获取彩色图像的深度信息。由于惯性传感器的尺寸为35mm*30mm,所以硬件平台体积小,可以普及在移动设备中。
利用Kinect相机采集得到大小均为640*480的彩色图像和深度图像。根据对PC端算法的实时性分析,本实施例设置硬件平台的图像采集频率和惯性传感器的参数采集频率均为40帧/s。Harris角点检测的窗口选取为5*5,RANSAC算法的计算次数设置为30次。
为了更好地验证本发明方法提出的OFCM模型的效果,本实验分别验证了Kinect摄像机在亮度突变、随机平移运动、随机旋转运动、随机平移旋转复杂运动条件下,使用本发明方对同一场景进行图像配配准,分别获得如图2、图3、图4、图5所示的效果图。在图2、图3、图4、图5中,每幅图的左半部分为左图、右半部分为右图,左右图间隔均为10帧,其中左图为第k帧图像,右图为第k+10帧图像。从图2、图3、图4、图5看出,本发明方法能够精准的完成图像的配准。
表1为上述不同摄像机运动条件下,PC端图像配准性能统计分析。根据表1,对同种运动方式的各项指标进行纵向比较,可以发现本发明方法在Kinect摄像机发生平移运动和旋转运动时,图像配准都取得了较好的结果,平均处理精度可以达到69.5%;对不同运动方式下图像配准的情况的各项指标进行横向比较,可以发现本发明方法对Kinect摄像机单一运动的配准精度高于混合运动的配准精度,此误差主要是由陀螺仪和加速度计的误差叠加造成的;就处理实时性来看,在PC机上的平均处理时间约22.92ms,时间上的差别主要是Kinect摄像机混合运动产生误匹配点的概率变大,因此RANSAC算法估计相对耗时;根据PC端的时间估计,综合考虑硬件采集的实际难度,设置Kinect摄像机的图像获取帧频和惯性传感器的参数的同步采集频率为30Hz。
表1PC端图像配准性能统计表
Figure BDA0000459694710000121

Claims (8)

1.基于惯性传感器和摄像机的图像配准方法,其特征在于,包括以下步骤:
步骤一、同步控制摄像机和惯性传感器工作,同时获取同一场景的彩色图像I和J、深度图像I’和J’以及摄像机的三轴运动角速度[wx,wy,wz]和三轴运动加速度[ax,ay,az];
步骤二、提取彩色图像I的角点m1(x1,y1);
步骤三、利用卡尔曼滤波对摄像机的三轴角速度[wx,wy,wz]和三轴加速度[ax,ay,az]进行滤波,获得卡尔曼滤波估计三轴角速度
Figure FDA0000459694700000012
和卡尔曼滤波估计三轴加速度;使用欧拉动力学方程式将
Figure FDA0000459694700000013
转换成欧拉角[αk,βk,γk],使用匀加速运动公式将
Figure FDA0000459694700000015
转换成三轴位移[txk,tyk,tzk],从而获得摄像机外参矩阵[R,T]中的旋转矩阵R和平移矩阵T;
步骤四、利用彩色图像和深度图像的仿射变换关系,求解出彩色图像I的角点m1(x1,y1)在深度图像I’和J’中的坐标位置m1ir(x1,y1)和m2ir(x1,y1);利用深度图像灰度值与像素深度信息的比例关系求解出角点m1(x1,y1)在深度图像I’和J’中的深度信息u1和u2
步骤五、将步骤三获得的旋转矩阵R和平移矩阵T以及步骤四获得的彩色图像的深度信息u1、u2带入OFCM模型,计算获得图像J的背景光流m2(x2,y2),OFCM模型如公式(1)所示,
m 2 = u 1 u 2 KRK - 1 m 1 + 1 u 2 KT - - - ( 1 )
式(1)中,K为摄像机的内参矩阵,K-1为K的逆矩阵;
步骤六、使用RANSAC算法对彩色图像I的背景光流m2进行鲁棒性估计,将背景光流m2中存在的由运动物体产生的光流和误配准光流剔除掉,从而完成彩色图像I和彩色图像J的图像配准,然后利用保留的彩色图像I的正确背景光流对彩色图像J进行初始化,进行后续图像的配准。
2.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤一中,FPGA通过SPI协议同步控制摄像机和惯性传感器,惯性传感器包括陀螺仪和加速度计,摄像机包括深度图像获取CCD和彩色图像获取CCD,FPGA和惯性传感器的最小***均固定在深度图像获取CCD上。
3.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤二中使用Harris角点检测提取彩色图像I的角点m1(x1,y1),计算过程如下:
3.1计算彩色图像I中像素点p[x,y]的相关矩阵M,计算方法如公式(2)所示,
M = Σ x , y w ( x , y ) I x 2 I x I y I x I y I y 2 = w ( x , y ) ⊗ I x 2 I x I y I x I y I y 2 - - - ( 2 )
式(2)中,(x,y)为像素点p的图像坐标,w(x,y)是窗口大小为w*w的高斯权重函数,Ix代表行方向的导数,Iy代表列方向的导数;
3.2计算像素点m1(x1,y1)的角点响应R(x,y),计算方法如公式(3)所示,
R(x,y)=detM-k*(traceM)2           (3)
式(3)中,detM代表相关矩阵M行列式的值,traceM代表相关矩阵M的迹,k为常数,一般为0.04-0.06;
3.3判断像素点m1(x1,y1)是否为角点,判断方法为公式(4)所示,若像素点m1(x1,y1)的角点响应R(x,y)满足公式(4),则像素点m1(x1,y1)为角点;若像素点m1(x1,y1)的角点响应R(x,y)不满足公式(4),则将m1(x1,y1)舍弃;
[R(x,y)≥R(x',y')]∩[R(x,y)≥0.01Rmax]        (3)
式(4)中,R(x',y')代表窗口w*w中除像素点m1(x1,y1)之外的其它像素点的角点响应,Rmax为边缘特征信息图像If中的最大角点响应。
4.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤三中,所述获得卡尔曼滤波估计三轴角速度
Figure FDA0000459694700000022
和卡尔曼滤波估计三轴加速度的计算过程为:
4.1根据惯性传感器的性能与运动参数建立惯性传感器的误差模型和状态转移关系式,结合时间序列分析法求解出惯性传感器的刻度因子误差M、零点漂移Bf、高斯白噪声U、运动参数间的状态转移矩阵Ψk,k-1以及高斯白噪声V;
误差模型如公式(4)所示,状态转移关系式公式(5)所示,
z'k=zk(M+1)+Bf+U       (4)
zk=Ψk,k-1zk-1+V              (5)
式(4)和式(5)中,z代表三轴角速度[wx,wy,wz]和三轴加速度[ax,ay,az]中的某一运动参数,z′k为k时刻惯性传感器测量获得的某一运动参数的测量值,zk为k时刻某一运动参数的真实值;
4.2将步骤4.1所求取的结果带入卡尔曼滤波公式对k时刻的运动参数zk进行滤波,求出该运动参数的估计值
Figure FDA0000459694700000032
卡尔曼滤波公式如公式(6)所示,
z k , k - 1 = Ψ k , k - 1 z k - 1 z k ^ = z k , k - 1 + K k [ z ′ k ( M + 1 ) z k , k - 1 ] P k , k - 1 = Ψ k , k - 1 P k - 1 Ψ k , k - 1 T + Q k - 1 K k = P k , k - 1 ( M + 1 ) T P k - 1 P k = [ I - K k ( M + 1 ) ] P k , k - 1 - - - ( 6 )
式(6)中,Q为***的噪声方差,Kk为卡尔曼增益,Pk为状态协方差,zk,k-1为状态预估值。
5.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤三中,所述获得摄像机旋转矩阵R和平移矩阵T的计算过程为:
5.1使用欧拉动力学方程将k时刻滤波后的三轴运动角速度wxk,wyk,wzk转换成欧式坐标系中的欧拉角αk,βk,γk,将所得的αk,βk,γk带入旋转矩阵R中,完成彩色CCD旋转矩阵R的计算;
所述欧拉动力学方程如公式(7)所示,
α · k β · k γ · k = - sin α k / tan β k cos α k / tan β k 1 cos α k sin α k 0 sin α k / sin β k - cos α k / sin β k 0 * w xk w yk w zk - - - ( 7 )
式(7)中,
Figure FDA0000459694700000034
为欧拉角的一阶导数,将k-1时刻求得的参量αk-1,βk-1,γk-1作为公式(7)的初值;
所述旋转矩阵R如公式(8)所示:
R = cos γ k cos β k cos γ k sin β k sin α k - sin γ k cos γ k sin β k cos α k - sin α k sin γ k sin γ k cos β k sin α k sin β k sin γ k + cos γ k cos α k sin γ k sin β k cos α k + cos γ k sin α k - sin β k cos β k sin α k cos β k cos α k - - - ( 8 )
5.2使用如公式(9)所示的速度位移公式将三轴加速度axk,ayk,azk转换成三轴位移txk,tyk,tzk
t k = v k T + 1 2 a k T 2 v k = v k - 1 + a k - 1 × T - - - ( 9 )
式(9)中,tk代表三轴位移txk,tyk,tzk中任意一坐标轴方向的位移,T为摄像机的拍摄周期,ak-1为k-1时刻对应坐标轴方向的加速度,vk-1和vk分别为k-1时刻和k时刻的初始速度,给定***初始时刻的初始速度为0。
6.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤四中根据直接线性变换算法计算出彩色图像和深度图像的仿射变换关系,仿射变换关系如公式(10)所示:
mir=Hm         (10)
式(10)中,mir为深度图像中的像素坐标,m为彩色图像中的像素坐标。
7.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤四中通过反向工程提出的经验关系式获得灰度值与像素深度信息的比例关系,灰度值与像素深度信息的比例关系如公式(11)所示:
u=l×m         (11)
式(11)中,m(x,y)为像素坐标(x,y)处的灰度值,u为像素坐标(x,y)处对应的深度值,l为比例系数。
8.如权利要求1所述的基于惯性传感器和摄像机的图像配准方法,其特征在于,步骤六中,
所述使用RANSAC算法对彩色图像I的背景光流m2进行鲁棒性估计的计算过程为:
8.1初始化当前所有的角点m1(x1,y1),m2(x2,y2)为局内点;
8.2利用DLT算法计算出仿射变换矩阵H1,根据公式(12)结合角点m1(x1,y1)估计出角点估计值m2′(x2′,y2′):
m2′=H1m1         (12)
8.3根据公式(13)计算角点m2(x2,y2)和角点估计值m2′(x2′,y2′)的欧氏距离d,若d小于阈值d′,则将角点m1(x1,y1),m2(x2,y2)置为局内点(即背景光流),若d大于等于阈值d′,则将角点m1(x1,y1),m2(x2,y2)置为局外点;当完成一次RANSAC计算后,初始化当前局内点为局外点,重复步骤8.2和8.3,当不再产生新的局内点或达到规定重复次数时,结束当前RANSAC算法,
d=sqrt((x2-x2')2+(y2-y2')2)         (13)
所述对彩色图像J进行初始化的过程为:首先遍历该帧所有的角点,若该角点与彩色图像I保留的正确背景光流重合,则将该角点作为RANSAC计算的初始局内点,重复步骤8.1、8.2、8.3所述方法,逐帧完成RANSAC的估计。
CN201410027349.4A 2014-01-21 2014-01-21 基于惯性传感器和摄像机的图像配准方法 Expired - Fee Related CN103745474B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410027349.4A CN103745474B (zh) 2014-01-21 2014-01-21 基于惯性传感器和摄像机的图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410027349.4A CN103745474B (zh) 2014-01-21 2014-01-21 基于惯性传感器和摄像机的图像配准方法

Publications (2)

Publication Number Publication Date
CN103745474A true CN103745474A (zh) 2014-04-23
CN103745474B CN103745474B (zh) 2017-01-18

Family

ID=50502489

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410027349.4A Expired - Fee Related CN103745474B (zh) 2014-01-21 2014-01-21 基于惯性传感器和摄像机的图像配准方法

Country Status (1)

Country Link
CN (1) CN103745474B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104717426A (zh) * 2015-02-28 2015-06-17 深圳市德赛微电子技术有限公司 一种基于外部传感器的多摄像机视频同步装置及方法
CN105096337A (zh) * 2014-05-23 2015-11-25 南京理工大学 一种基于陀螺仪硬件平台的图像全局运动补偿方法
CN105303518A (zh) * 2014-06-12 2016-02-03 南京理工大学 一种基于区域特征的视频帧间拼接方法
CN106251342A (zh) * 2016-07-26 2016-12-21 杭州好好开车科技有限公司 基于传感技术的摄像头标定方法
CN106447766A (zh) * 2016-09-28 2017-02-22 成都通甲优博科技有限责任公司 一种基于移动设备单目相机的场景重建方法及装置
CN106485245A (zh) * 2015-08-24 2017-03-08 南京理工大学 一种基于可见光和红外图像的全天候目标实时跟踪方法
CN107507235A (zh) * 2017-08-31 2017-12-22 山东大学 一种基于rgb‑d设备采集的彩色图像和深度图像的配准方法
CN107729847A (zh) * 2017-10-20 2018-02-23 阿里巴巴集团控股有限公司 一种证件验证、身份验证方法和装置
CN108232451A (zh) * 2017-12-28 2018-06-29 无锡人人行拍网络科技有限公司 一种双移动终端数据传输天线自动双向跟踪***
CN108225309A (zh) * 2016-12-21 2018-06-29 波音公司 通过地理配准增强多个原始传感器图像的方法和设备
CN108388830A (zh) * 2018-01-09 2018-08-10 中国农业大学 基于卷积神经网的动物体形检测方法及装置
CN108668087A (zh) * 2017-03-27 2018-10-16 展讯通信(上海)有限公司 图像对齐方法及装置、移动终端
WO2019051961A1 (zh) * 2017-09-18 2019-03-21 深圳大学 一种管道检测方法、装置以及存储介质
CN109655057A (zh) * 2018-12-06 2019-04-19 深圳市吉影科技有限公司 一种六推无人机加速器测量值的滤波优化方法及其***
CN109683710A (zh) * 2018-12-20 2019-04-26 北京字节跳动网络技术有限公司 一种手掌法向量确定方法、装置、设备及存储介质
CN109900338A (zh) * 2018-12-25 2019-06-18 西安中科天塔科技股份有限公司 一种路面坑槽体积测量方法及装置
CN109902725A (zh) * 2019-01-31 2019-06-18 北京达佳互联信息技术有限公司 移动目标的检测方法、装置及电子设备和存储介质
CN110414392A (zh) * 2019-07-15 2019-11-05 北京天时行智能科技有限公司 一种障碍物距离的确定方法及装置
CN110602377A (zh) * 2019-03-18 2019-12-20 上海立可芯半导体科技有限公司 一种视频稳像方法及装置
CN111462177A (zh) * 2020-03-14 2020-07-28 华中科技大学 一种基于多线索的在线多目标跟踪方法和***
CN111540003A (zh) * 2020-04-27 2020-08-14 浙江光珀智能科技有限公司 一种深度图像的生成方法及装置
CN111750850A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和***
CN111899305A (zh) * 2020-07-08 2020-11-06 深圳市瑞立视多媒体科技有限公司 一种相机自动标定优化方法及相关***、设备
WO2021035525A1 (zh) * 2019-08-27 2021-03-04 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
WO2021035524A1 (zh) * 2019-08-27 2021-03-04 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630406A (zh) * 2008-07-14 2010-01-20 深圳华为通信技术有限公司 摄像机的标定方法及摄像机标定装置
CN102999759A (zh) * 2012-11-07 2013-03-27 东南大学 一种基于光流的车辆运动状态估计方法
WO2013084782A1 (ja) * 2011-12-09 2013-06-13 株式会社日立国際電気 画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630406A (zh) * 2008-07-14 2010-01-20 深圳华为通信技术有限公司 摄像机的标定方法及摄像机标定装置
WO2013084782A1 (ja) * 2011-12-09 2013-06-13 株式会社日立国際電気 画像処理装置
CN102999759A (zh) * 2012-11-07 2013-03-27 东南大学 一种基于光流的车辆运动状态估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
袁梦笛 等: "红外搜索跟踪***中实时图像配准的研究和实现", 《红外技术》 *
陈晨 等: "基于卡尔曼滤波的MEMS陀螺仪漂移补偿", 《机电工程》 *

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105096337B (zh) * 2014-05-23 2018-05-01 南京理工大学 一种基于陀螺仪硬件平台的图像全局运动补偿方法
CN105096337A (zh) * 2014-05-23 2015-11-25 南京理工大学 一种基于陀螺仪硬件平台的图像全局运动补偿方法
CN105303518A (zh) * 2014-06-12 2016-02-03 南京理工大学 一种基于区域特征的视频帧间拼接方法
CN104717426B (zh) * 2015-02-28 2018-01-23 深圳市德赛微电子技术有限公司 一种基于外部传感器的多摄像机视频同步装置及方法
CN104717426A (zh) * 2015-02-28 2015-06-17 深圳市德赛微电子技术有限公司 一种基于外部传感器的多摄像机视频同步装置及方法
CN106485245A (zh) * 2015-08-24 2017-03-08 南京理工大学 一种基于可见光和红外图像的全天候目标实时跟踪方法
CN106251342A (zh) * 2016-07-26 2016-12-21 杭州好好开车科技有限公司 基于传感技术的摄像头标定方法
CN106447766A (zh) * 2016-09-28 2017-02-22 成都通甲优博科技有限责任公司 一种基于移动设备单目相机的场景重建方法及装置
CN106447766B (zh) * 2016-09-28 2019-07-09 成都通甲优博科技有限责任公司 一种基于移动设备单目相机的场景重建方法及装置
CN108225309B (zh) * 2016-12-21 2023-09-26 波音公司 通过地理配准增强多个原始传感器图像的方法和设备
CN108225309A (zh) * 2016-12-21 2018-06-29 波音公司 通过地理配准增强多个原始传感器图像的方法和设备
CN108668087A (zh) * 2017-03-27 2018-10-16 展讯通信(上海)有限公司 图像对齐方法及装置、移动终端
CN107507235A (zh) * 2017-08-31 2017-12-22 山东大学 一种基于rgb‑d设备采集的彩色图像和深度图像的配准方法
CN107507235B (zh) * 2017-08-31 2020-11-10 山东大学 一种基于rgb-d设备采集的彩色图像和深度图像的配准方法
WO2019051961A1 (zh) * 2017-09-18 2019-03-21 深圳大学 一种管道检测方法、装置以及存储介质
US10931871B2 (en) 2017-09-18 2021-02-23 Shenzhen University Pipeline detection method and apparatus, and storage medium
CN107729847A (zh) * 2017-10-20 2018-02-23 阿里巴巴集团控股有限公司 一种证件验证、身份验证方法和装置
US10783369B2 (en) 2017-10-20 2020-09-22 Alibaba Group Holding Limited Document verification system, device, and method using a classification model
CN107729847B (zh) * 2017-10-20 2020-08-04 阿里巴巴集团控股有限公司 一种证件验证、身份验证方法和装置
CN108232451A (zh) * 2017-12-28 2018-06-29 无锡人人行拍网络科技有限公司 一种双移动终端数据传输天线自动双向跟踪***
CN108388830B (zh) * 2018-01-09 2020-08-14 中国农业大学 基于卷积神经网的动物体形检测方法及装置
CN108388830A (zh) * 2018-01-09 2018-08-10 中国农业大学 基于卷积神经网的动物体形检测方法及装置
CN109655057A (zh) * 2018-12-06 2019-04-19 深圳市吉影科技有限公司 一种六推无人机加速器测量值的滤波优化方法及其***
CN109683710A (zh) * 2018-12-20 2019-04-26 北京字节跳动网络技术有限公司 一种手掌法向量确定方法、装置、设备及存储介质
CN109683710B (zh) * 2018-12-20 2019-11-08 北京字节跳动网络技术有限公司 一种手掌法向量确定方法、装置、设备及存储介质
CN109900338A (zh) * 2018-12-25 2019-06-18 西安中科天塔科技股份有限公司 一种路面坑槽体积测量方法及装置
US11176687B2 (en) 2019-01-31 2021-11-16 Beijing Dajia Internet Information Technology Co., Ltd Method and apparatus for detecting moving target, and electronic equipment
CN109902725A (zh) * 2019-01-31 2019-06-18 北京达佳互联信息技术有限公司 移动目标的检测方法、装置及电子设备和存储介质
CN110602377A (zh) * 2019-03-18 2019-12-20 上海立可芯半导体科技有限公司 一种视频稳像方法及装置
CN110602377B (zh) * 2019-03-18 2021-04-23 上海立可芯半导体科技有限公司 一种视频稳像方法及装置
CN111750850A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和***
CN111750850B (zh) * 2019-03-27 2021-12-14 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和***
CN110414392A (zh) * 2019-07-15 2019-11-05 北京天时行智能科技有限公司 一种障碍物距离的确定方法及装置
CN110414392B (zh) * 2019-07-15 2021-07-20 北京天时行智能科技有限公司 一种障碍物距离的确定方法及装置
WO2021035525A1 (zh) * 2019-08-27 2021-03-04 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
WO2021035524A1 (zh) * 2019-08-27 2021-03-04 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN111462177B (zh) * 2020-03-14 2023-04-07 华中科技大学 一种基于多线索的在线多目标跟踪方法和***
CN111462177A (zh) * 2020-03-14 2020-07-28 华中科技大学 一种基于多线索的在线多目标跟踪方法和***
CN111540003A (zh) * 2020-04-27 2020-08-14 浙江光珀智能科技有限公司 一种深度图像的生成方法及装置
CN111899305A (zh) * 2020-07-08 2020-11-06 深圳市瑞立视多媒体科技有限公司 一种相机自动标定优化方法及相关***、设备

Also Published As

Publication number Publication date
CN103745474B (zh) 2017-01-18

Similar Documents

Publication Publication Date Title
CN103745474B (zh) 基于惯性传感器和摄像机的图像配准方法
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
CN109029433B (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN109671120A (zh) 一种基于轮式编码器的单目slam初始化方法及***
CN104167016B (zh) 一种基于rgb彩色与深度图像的三维运动重建方法
CN109166149A (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN107767425A (zh) 一种基于单目vio的移动端AR方法
CN103761737A (zh) 基于稠密光流的机器人运动估计方法
CN109859266A (zh) 一种基于预变换的大视角变化下视觉同时定位与绘图方法
CN112907631B (zh) 一种引入反馈机制的多rgb相机实时人体动作捕捉***
CN103994765A (zh) 一种惯性传感器的定位方法
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与***
CN102607535A (zh) 一种利用视差空间集束调整的高精度实时立体视觉定位方法
CN105303518A (zh) 一种基于区域特征的视频帧间拼接方法
CN106709222A (zh) 基于单目视觉的imu漂移补偿方法
CN108253962A (zh) 一种低照度环境下新能源无人驾驶汽车定位方法
Tian et al. Research on multi-sensor fusion SLAM algorithm based on improved gmapping
Li et al. A binocular MSCKF-based visual inertial odometry system using LK optical flow
CN112179373A (zh) 一种视觉里程计的测量方法及视觉里程计
Wang et al. Temporal and spatial online integrated calibration for camera and LiDAR
Herau et al. MOISST: Multimodal Optimization of Implicit Scene for SpatioTemporal Calibration
CN114119763A (zh) 一种用于自动驾驶车辆的Lidar标定方法及装置
CN113916221B (zh) 一种融合视觉里程计和bp网络的自适应行人航迹推算方法
Garro et al. Fast Metric Acquisition with Mobile Devices.
CN114690230A (zh) 一种基于视觉惯性slam的自动驾驶车辆导航方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170118

Termination date: 20200121

CF01 Termination of patent right due to non-payment of annual fee