CN109345587A - 一种基于全景与单目视觉的混合视觉定位方法 - Google Patents

一种基于全景与单目视觉的混合视觉定位方法 Download PDF

Info

Publication number
CN109345587A
CN109345587A CN201811017301.XA CN201811017301A CN109345587A CN 109345587 A CN109345587 A CN 109345587A CN 201811017301 A CN201811017301 A CN 201811017301A CN 109345587 A CN109345587 A CN 109345587A
Authority
CN
China
Prior art keywords
panorama
vision
matrix
camera
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811017301.XA
Other languages
English (en)
Other versions
CN109345587B (zh
Inventor
蔡成涛
梁鑫
翁翔宇
孟海洋
乔人杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201811017301.XA priority Critical patent/CN109345587B/zh
Publication of CN109345587A publication Critical patent/CN109345587A/zh
Application granted granted Critical
Publication of CN109345587B publication Critical patent/CN109345587B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明属于机器视觉领域,公开了一种基于全景与单目视觉的混合视觉定位方法,包含如下步骤:组成混合垂直立体视觉,使用平面棋盘格标定,得到全景相机与普通视觉相机的内部参数;在混合垂直立体视觉中,统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系;根据立体标定结果,得到旋转矩阵与平移矩阵;利用旋转矩阵与平移矩阵对混合垂直立体视觉立体校正,得到垂直视差,再根据混合垂直立体视觉***的三角测量公式确定目标点的三维位置坐标信息。本发明保证全景视觉的大视场,弥补了全景相机分辨率低且不均匀的劣势,解决了混合视觉中立体标定的问题并将混合视觉定位通用化。

Description

一种基于全景与单目视觉的混合视觉定位方法
技术领域
本发明属于机器视觉领域,尤其涉及一种基于全景与单目视觉的混合视觉定位方法。
背景技术
机器视觉是人工智能正在快速发展的一个分支。简单说来,机器视觉就是用机器代替人眼来做测量和判断。机器视觉***是通过机器视觉产品即图像摄取装置,分CMOS和CCD两种将被摄取目标转换成图像信号,传送给专用的图像处理***,得到被摄目标的形态信息,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像***对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。机器视觉是一项综合技术,包括图像处理、机械工程技术、控制、电光源照明、光学成像、传感器、模拟与数字视频技术、计算机软硬件技术图像增强和分析算法、图像卡、I/O卡等。一个典型的机器视觉应用***包括图像捕捉、光源***、图像数字化模块、数字图像处理模块、智能判断决策模块和机械控制执行模块。机器视觉***最基本的特点就是提高生产的灵活性和自动化程度。在一些不适于人工作业的危险工作环境或者人工视觉难以满足要求的场合,常用机器视觉来替代人工视觉。同时,在大批量重复性工业生产过程中,用机器视觉检测方法可以大大提高生产的效率和自动化程度。如今,中国正成为世界机器视觉发展最活跃的地区之一,应用范围涵盖了工业、农业、医药、军事、航天、气象、天文、公安、交通、安全、科研等国民经济的各个行业。其重要原因是中国已经成为全球制造业的加工中心,高要求的零部件加工及其相应的先进生产线,使许多具有国际先进水平的机器视觉***和应用经验也进入了中国。
机器视觉主要通过模拟人的视觉功能从客观图像中提取周围信息,加以处理或计算,最终用于实际检测、测量和控制。双目立体视觉是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维信息的方法。经过几十年来的发展,立体视觉在机器人视觉、军事应用和航空测绘等众多领域得到广泛的应用。
申请号CN201410373212.4的专利公开了一种基于马步测度的Harris?SIFT双目视觉定位方法,用于无人水下航行器(UUV)回收过程中的实时双目视觉定位。基于双目立体视觉的模型原理,利用SIFT算法从左右摄像机分别获取的图像中检测目标,并获取匹配目标的特征点,对两幅图像中目标物体的坐标标定,通过计算可得到目标物体的深度距离,还原其三维信息。针对UUV运动的海洋环境的特点,本发明提出了一种基于采用马步距离做测度的Harris?SIFT算子双目视觉算法,提高了图像匹配的运算效率和应用水平的实时性,并且可以保证一定的精度。但该算法定位精度较低,不能用于精密测量领域。
发明内容
本发明的目的在于公开视场大,细节处理效果好的一种基于全景与单目视觉的混合视觉定位方法。
本发明的目的是这样实现的:
一种基于全景与单目视觉的混合视觉定位方法,包含如下步骤:
步骤(1):将全景相机与普通视觉相机垂直放置组成混合垂直立体视觉,使用平面棋盘格对全景与普通视觉分别标定,得到全景相机与普通视觉相机的内部参数:
全景相机的内参矩阵为Ko,普通视觉相机的内参矩阵为Kp,全景相机的畸变系数为(ko1,k02,p01,po2),普通视觉相机的畸变系数为(kp1,kp2,kp3,pp1,pp2);
上式中,η是与双曲面镜参数有关的参数,γ1与γ2为有效焦距,(u0,vo)为全景相机的主点;
步骤(2):在混合垂直立体视觉中,将全景与普通视觉统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系Og-XgYgZg
建立球面统一投影模型:Om-XmYmZm为全景有效坐标系,全景有效坐标系原点为球面统一投影模型的单位球球心,Op-XpYpZp为普通视觉相机的相机坐标系;
取矩阵和矩阵Rf
上式中,θ为共同方位在全景图像中与Xm坐标轴的夹角,矩阵Rf是引入的用来统一全景与普通视觉共同方位的坐标系的矩阵;
旋转和Rf得到新的全景方位坐标系Og-XgYgZg
上式中,(xg,yg,zg)是在新的全景方位坐标系中的球面点的坐标;
步骤(3):根据立体标定结果,得到新的全景方位坐标系Og-XgYgZg与普通视觉相机的相机坐标系Op-XpYpZp之间的旋转矩阵R与平移矩阵T。
步骤(4):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正,通过一般化的立体匹配得到垂直视差,再根据混合垂直立体视觉***的三角测量公式确定目标点的三维位置坐标信息。
步骤(4.1):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正:
将旋转矩阵R分解得到ru、rd
ru*rd=1;
上式中,ru是上坐标系达到重投影透视图像平面共面所需的旋转矩阵,rd是下坐标系达到重投影透视图像平面共面所需的旋转矩阵;
定义上坐标系原点与下坐标系原点的连线和重投影透视图像平面的交点为极点,令全景相机与普通视觉相机的图像平面和上坐标系原点与下坐标系原点的连线平行,使得极点处于无穷远处列对齐:计算使得极点处于y轴无穷远处的Rrect矩阵:
重投影透视图像平面和相机坐标系原点连线平行:
上式中,T=[Tx Ty Tz]T
e1和e2正交,e2与主光轴方向向量(0,0,1)叉积:
e3与e1和e2正交:
e3=e1×e2
将Rrect左乘到矩阵ru和矩阵rd
Ru=Rrect*ru
Rd=Rrect*rd
上式中,Rd是立体校正过程中Og-XgYgZg坐标系的旋转矩阵,Ru是立体校正过程中Op-XpYpZp坐标系的旋转矩阵;
步骤(4.2):立体校正后,空间点在重投影透视图像平面的投影列对齐,混合垂直立体视觉***的三角测量公式为:
上式中,B为混合垂直立体视觉的基线,B的大小为全景有效视点与普通相机光心之间的距离;
步骤(4.3):定义垂直视差为vy=y2-y1。垂直视差的大小d和给定的二维齐次坐标之间存在如下关系:
上式中,Q为重投影矩阵;
然后计算得到目标点的三维位置坐标信息(X/W,Y/W,Z/W)。
本发明的有益效果为:
本发明在保证全景视觉大视场的同时,应用常规视角相机的高分辨率优势对目标区域进行精细观测,弥补了全景相机分辨率低且不均匀的劣势,解决了混合视觉中立体标定的问题并将混合视觉定位通用化。
附图说明
图1是全景图像及球面统一投影模型;
图2是普通视觉图像与普通视觉球面统一模型;
图3是混合视觉立体校正后的共同方位透视展开;
图4是混合视觉中的普通场景图与二维视差图;
图5是球面统一投影模型图。
具体实施方式
下面结合附图来进一步描述本发明:
一种基于全景与单目视觉的混合视觉定位方法,包含如下步骤:
步骤(1):将全景相机与普通视觉相机垂直放置组成混合垂直立体视觉,使用平面棋盘格对全景与普通视觉分别标定,得到全景相机与普通视觉相机的内部参数:
全景相机的内参矩阵为Ko,普通视觉相机的内参矩阵为Kp,全景相机的畸变系数为(ko1,k02,p01,po2),普通视觉相机的畸变系数为(kp1,kp2,kp3,pp1,pp2);
上式中,η是与双曲面镜参数有关的参数,γ1与γ2为有效焦距,(u0,vo)为全景相机的主点;
步骤(2):如图1和图2,在混合垂直立体视觉中,将全景与普通视觉统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系Og-XgYgZg
如图5,建立球面统一投影模型:Om-XmYmZm为全景有效坐标系,全景有效坐标系原点为球面统一投影模型的单位球球心,Op-XpYpZp为普通视觉相机的相机坐标系;
取矩阵和矩阵Rf
上式中,θ为共同方位在全景图像中与Xm坐标轴的夹角,矩阵Rf是引入的用来统一全景与普通视觉共同方位的坐标系的矩阵;
旋转和Rf得到新的全景方位坐标系Og-XgYgZg
上式中,(xg,yg,zg)是在新的全景方位坐标系中的球面点的坐标;
此时仅仅是对混合视觉进行粗略校正,精确校正仍需通过立体标定得到两坐标系之间的旋转平移位置关系后立体校正。
步骤(3):根据立体标定结果,得到新的全景方位坐标系Og-XgYgZg与普通视觉相机的相机坐标系Op-XpYpZp之间的旋转矩阵R与平移矩阵T。
步骤(4):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正,通过一般化的立体匹配得到垂直视差,再根据混合垂直立体视觉***的三角测量公式确定目标点的三维位置坐标信息。
步骤(4.1):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正:
将旋转矩阵R分解得到ru、rd
ru*rd=1;
上式中,ru是上坐标系达到重投影透视图像平面共面所需的旋转矩阵,rd是下坐标系达到重投影透视图像平面共面所需的旋转矩阵;
定义上坐标系原点与下坐标系原点的连线和重投影透视图像平面的交点为极点,令全景相机与普通视觉相机的图像平面和上坐标系原点与下坐标系原点的连线平行,使得极点处于无穷远处列对齐:计算使得极点处于y轴无穷远处的Rrect矩阵:
重投影透视图像平面和相机坐标系原点连线平行:
上式中,T=[Tx Ty Tz]T
e1和e2正交,e2与主光轴方向向量(0,0,1)叉积:
e3与e1和e2正交:
e3=e1×e2
将Rrect左乘到矩阵ru和矩阵rd
Ru=Rrect*ru
Rd=Rrect*rd
上式中,Rd是立体校正过程中Og-XgYgZg坐标系的旋转矩阵,Ru是立体校正过程中
Op-XpYpZp坐标系的旋转矩阵;
步骤(4.2):如图3,通过对混合视觉中的共同方位透视展开得到具有垂直视差的列对齐的两幅图像,根据两图像的垂直视差和三角定位公式确定目标点的空间三维位置。经立体校正后,空间点在全景和普通视觉透视展开图像平面的投影具有相同的横坐标即列对齐,混合立体视觉***的三角测量公式为:
上式中,B为混合垂直立体视觉的基线,B的大小为全景有效视点与普通相机光心之间的距离;
步骤(4.3):如图4,定义垂直视差为vy=y2-y1。垂直视差的大小d和给定的二维齐次坐标之间存在如下关系:
上式中,Q为重投影矩阵;
然后计算得到目标点的三维位置坐标信息(X/W,Y/W,Z/W)。
在全景图像中可观测到周围大视场中的场景信息;然而由于全景的分辨率低且不均匀,因此需要通过一个高分辨率相机对感兴趣区域进行精细观测。通过混合视觉立体标定,立体校正后通过全景的方位坐标系与普通视觉坐标系共同方位透视展开,可得到两幅共面且列对齐的图像,具有垂直视差。
与现有技术相比,本发明在保证全景视觉大视场的同时,应用常规视角相机的高分辨率优势对目标区域进行精细观测,弥补了全景相机分辨率低且不均匀的劣势,解决了混合视觉中立体标定的问题并将混合视觉定位通用化。
以上所述并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于全景与单目视觉的混合视觉定位方法,其特征在于:包含如下步骤:
步骤(1):将全景相机与普通视觉相机垂直放置组成混合垂直立体视觉,使用平面棋盘格对全景与普通视觉分别标定,得到全景相机与普通视觉相机的内部参数;
步骤(2):在混合垂直立体视觉中,将全景与普通视觉统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系Og-XgYgZg
步骤(3):根据立体标定结果,得到新的全景方位坐标系Og-XgYgZg与普通视觉相机的相机坐标系Op-XpYpZp之间的旋转矩阵R与平移矩阵T;
步骤(4):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正,通过一般化的立体匹配得到垂直视差,再根据混合垂直立体视觉***的三角测量公式确定目标点的三维位置坐标信息。
2.根据权利要求1所述的一种基于全景与单目视觉的混合视觉定位方法,其特征在于:所述的步骤(1)中的全景相机与普通视觉相机的内部参数包括全景相机的内参矩阵Ko,普通视觉相机的内参矩阵Kp,全景相机的畸变系数(ko1,k02,p01,po2),普通视觉相机的畸变系数(kp1,kp2,kp3,pp1,pp2);
其中:
上式中,η是与双曲面镜参数有关的参数,γ1与γ2为有效焦距,(u0,vo)为全景相机的主点;
3.根据权利要求1所述的一种基于全景与单目视觉的混合视觉定位方法,其特征在于:所述的步骤(2)具体为:
建立球面统一投影模型:Om-XmYmZm为全景有效坐标系,全景有效坐标系原点为球面统一投影模型的单位球球心,Op-XpYpZp为普通视觉相机的相机坐标系;
取矩阵和矩阵Rf
上式中,θ为共同方位在全景图像中与Xm坐标轴的夹角,矩阵Rf是引入的用来统一全景与普通视觉共同方位的坐标系的矩阵;
旋转和Rf得到新的全景方位坐标系Og-XgYgZg
上式中,(xg,yg,zg)是在新的全景方位坐标系中的球面点的坐标。
4.根据权利要求1所述的一种基于全景与单目视觉的混合视觉定位方法,其特征在于:所述的步骤(4)具体为:
步骤(4.1):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正:
将旋转矩阵R分解得到ru、rd
ru*rd=1;
上式中,ru是上坐标系达到重投影透视图像平面共面所需的旋转矩阵,rd是下坐标系达到重投影透视图像平面共面所需的旋转矩阵;
定义上坐标系原点与下坐标系原点的连线和重投影透视图像平面的交点为极点,令全景相机与普通视觉相机的图像平面和上坐标系原点与下坐标系原点的连线平行,使得极点处于无穷远处列对齐:计算使得极点处于y轴无穷远处的Rrect矩阵:
重投影透视图像平面和相机坐标系原点连线平行:
上式中,T=[Tx Ty Tz]T
e1和e2正交,e2与主光轴方向向量(0,0,1)叉积:
e3与e1和e2正交:
e3=e1×e2
将Rrect左乘到矩阵ru和矩阵rd
Ru=Rrect*ru
Rd=Rrect*rd
上式中,Rd是立体校正过程中Og-XgYgZg坐标系的旋转矩阵,Ru是立体校正过程中Op-XpYpZp坐标系的旋转矩阵;
步骤(4.2):立体校正后,空间点在重投影透视图像平面的投影列对齐,混合垂直立体视觉***的三角测量公式为:
上式中,B为混合垂直立体视觉的基线,B的大小为全景有效视点与普通相机光心之间的距离;
步骤(4.3):定义垂直视差为vy=y2-y1;垂直视差的大小d和给定的二维齐次坐标之间存在如下关系:
上式中,Q为重投影矩阵;
然后计算得到目标点的三维位置坐标信息(X/W,Y/W,Z/W)。
CN201811017301.XA 2018-09-01 2018-09-01 一种基于全景与单目视觉的混合视觉定位方法 Active CN109345587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811017301.XA CN109345587B (zh) 2018-09-01 2018-09-01 一种基于全景与单目视觉的混合视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811017301.XA CN109345587B (zh) 2018-09-01 2018-09-01 一种基于全景与单目视觉的混合视觉定位方法

Publications (2)

Publication Number Publication Date
CN109345587A true CN109345587A (zh) 2019-02-15
CN109345587B CN109345587B (zh) 2022-02-22

Family

ID=65292099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811017301.XA Active CN109345587B (zh) 2018-09-01 2018-09-01 一种基于全景与单目视觉的混合视觉定位方法

Country Status (1)

Country Link
CN (1) CN109345587B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161173A (zh) * 2019-12-18 2020-05-15 北京城市网邻信息技术有限公司 图像的校正信息获取、模型构建方法和装置、介质
CN111504258A (zh) * 2020-03-10 2020-08-07 杭州晶一智能科技有限公司 单个云台摄像机的立体视觉算法
CN111815711A (zh) * 2020-06-01 2020-10-23 佛山隆深机器人有限公司 一种基于机器人的单相机多视野标定方法
CN111882608A (zh) * 2020-07-14 2020-11-03 中国人民解放军军事科学院国防科技创新研究院 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法
CN112102401A (zh) * 2020-09-21 2020-12-18 中国科学院上海微***与信息技术研究所 一种目标定位方法、装置、***、设备及存储介质
CN115113631A (zh) * 2022-08-29 2022-09-27 科安特(山东)智能装备有限公司 一种可提高作业精度的agv小车视觉自检方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201725141U (zh) * 2010-05-06 2011-01-26 浙江大学 一种多镜头实时全景成像***
CN103077524A (zh) * 2013-01-25 2013-05-01 福州大学 混合视觉***标定方法
CN104166995A (zh) * 2014-07-31 2014-11-26 哈尔滨工程大学 一种基于马步测度的Harris-SIFT双目视觉定位方法
US20150062292A1 (en) * 2013-09-04 2015-03-05 Gyeongil Kweon Method and apparatus for obtaining panoramic and rectilinear images using rotationally symmetric wide-angle lens
CN105210113A (zh) * 2013-04-30 2015-12-30 高通股份有限公司 具有一般和全景相机移动的单眼视觉slam
US9299127B2 (en) * 2012-09-21 2016-03-29 ImmerVision Splitting of elliptical images
CN106127115A (zh) * 2016-06-16 2016-11-16 哈尔滨工程大学 一种基于全景和常规视觉的混合视觉目标定位方法
CN106183995A (zh) * 2016-07-26 2016-12-07 武汉大学 一种基于立体视觉的可视倒车方法
CN107945220A (zh) * 2017-11-30 2018-04-20 华中科技大学 一种基于双目视觉的重建方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201725141U (zh) * 2010-05-06 2011-01-26 浙江大学 一种多镜头实时全景成像***
US9299127B2 (en) * 2012-09-21 2016-03-29 ImmerVision Splitting of elliptical images
CN103077524A (zh) * 2013-01-25 2013-05-01 福州大学 混合视觉***标定方法
CN105210113A (zh) * 2013-04-30 2015-12-30 高通股份有限公司 具有一般和全景相机移动的单眼视觉slam
US20150062292A1 (en) * 2013-09-04 2015-03-05 Gyeongil Kweon Method and apparatus for obtaining panoramic and rectilinear images using rotationally symmetric wide-angle lens
CN104166995A (zh) * 2014-07-31 2014-11-26 哈尔滨工程大学 一种基于马步测度的Harris-SIFT双目视觉定位方法
CN106127115A (zh) * 2016-06-16 2016-11-16 哈尔滨工程大学 一种基于全景和常规视觉的混合视觉目标定位方法
CN106183995A (zh) * 2016-07-26 2016-12-07 武汉大学 一种基于立体视觉的可视倒车方法
CN107945220A (zh) * 2017-11-30 2018-04-20 华中科技大学 一种基于双目视觉的重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENGTAO CAI等: "A Target Tracking Method Based on KCF for Omnidirectional Vision", 《PROCEEDINGS OF THE 37TH CHINESE CONTROL CONFERENCE》 *
何炳蔚等: "混合视觉***中共同视场的确定与3维重建方法", 《机器人》 *
林昌等: "新型混合视觉***中共同视区域的3D重建方法", 《机械设计与研究》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161173A (zh) * 2019-12-18 2020-05-15 北京城市网邻信息技术有限公司 图像的校正信息获取、模型构建方法和装置、介质
CN111504258A (zh) * 2020-03-10 2020-08-07 杭州晶一智能科技有限公司 单个云台摄像机的立体视觉算法
CN111504258B (zh) * 2020-03-10 2021-08-31 临沂中科人工智能创新研究院有限公司 单个云台摄像机的立体视觉计算方法
CN111815711A (zh) * 2020-06-01 2020-10-23 佛山隆深机器人有限公司 一种基于机器人的单相机多视野标定方法
CN111815711B (zh) * 2020-06-01 2023-08-18 佛山隆深机器人有限公司 一种基于机器人的单相机多视野标定方法
CN111882608A (zh) * 2020-07-14 2020-11-03 中国人民解放军军事科学院国防科技创新研究院 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法
CN112102401A (zh) * 2020-09-21 2020-12-18 中国科学院上海微***与信息技术研究所 一种目标定位方法、装置、***、设备及存储介质
CN112102401B (zh) * 2020-09-21 2024-05-28 中国科学院上海微***与信息技术研究所 一种目标定位方法、装置、***、设备及存储介质
CN115113631A (zh) * 2022-08-29 2022-09-27 科安特(山东)智能装备有限公司 一种可提高作业精度的agv小车视觉自检方法
CN115113631B (zh) * 2022-08-29 2022-12-06 科安特(山东)智能装备有限公司 一种可提高作业精度的agv小车视觉自检方法

Also Published As

Publication number Publication date
CN109345587B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN109345587A (zh) 一种基于全景与单目视觉的混合视觉定位方法
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
JP4825980B2 (ja) 魚眼カメラの校正方法。
JP4825971B2 (ja) 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
US20170127045A1 (en) Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof
CN103839227B (zh) 鱼眼图像校正方法和装置
CN109285189B (zh) 一种无需双目同步的直线轨迹快速计算方法
CN107578450B (zh) 一种用于全景相机装配误差标定的方法及***
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
CN110555878A (zh) 物体空间位置形态的确定方法、装置、存储介质及机器人
CN106170086B (zh) 绘制三维图像的方法及其装置、***
CN105374067A (zh) 一种基于pal相机的三维重建方法及其重建***
JP2010276433A (ja) 撮像装置、画像処理装置及び距離計測装置
CN114782636A (zh) 三维重建方法、装置及***
CN104807405A (zh) 一种基于光线角度标定的三维坐标测量方法
WO2018000892A1 (zh) 一种全景立体影像的成像方法、装置及***
CN115601437A (zh) 一种基于目标识别的动态会聚型双目立体视觉***
JP6854472B2 (ja) 撮像装置、及び撮像方法
CN106791335B (zh) 一种紧凑的大视野光场采集***及其分析优化方法
Kashyap et al. Real-time, quasi immersive, high definition automotive 3d surround view system
Deng et al. Underwater circular object positioning system based on monocular vision
CN109900301B (zh) 一种动态环境下双目立体定位角度补偿方法
Liu et al. Joint calibration of a camera and a laser range finder from grid calibration target
Li et al. Binocular stereo vision calibration experiment based on essential matrix
KR20200030205A (ko) 방향코사인을 이용한 에피폴라 영상 제작 시스템 및 그 제작 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant