CN109102548A - 一种用于标识跟踪范围的方法及*** - Google Patents

一种用于标识跟踪范围的方法及*** Download PDF

Info

Publication number
CN109102548A
CN109102548A CN201810968579.9A CN201810968579A CN109102548A CN 109102548 A CN109102548 A CN 109102548A CN 201810968579 A CN201810968579 A CN 201810968579A CN 109102548 A CN109102548 A CN 109102548A
Authority
CN
China
Prior art keywords
following range
testee
view field
public domain
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810968579.9A
Other languages
English (en)
Other versions
CN109102548B (zh
Inventor
郑顺义
王晓南
成剑华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Meso Automation Technology Co Ltd
Original Assignee
Wuhan Meso Automation Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Meso Automation Technology Co Ltd filed Critical Wuhan Meso Automation Technology Co Ltd
Priority to CN201810968579.9A priority Critical patent/CN109102548B/zh
Publication of CN109102548A publication Critical patent/CN109102548A/zh
Application granted granted Critical
Publication of CN109102548B publication Critical patent/CN109102548B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种用于标识跟踪范围的方法及***,其方法包括以下步骤,S1,分别从两个视场获取被测物体的两幅图像;S2,根据图像匹配方法获取所述两幅图像的公共区域;S3,对所述公共区域进行可视化的标识,得出跟踪范围。本发明利用图像处理方法,将两个视场上获取的图像进行匹配,获取其公共区域,并且对公共区域进行可视化标识,利用3D激光扫描仪在可视的公共区域内进行三维扫描,避免三维激光扫描仪扫描到跟踪***的视野盲区,保证获取到的数据均具有空间位置信息。

Description

一种用于标识跟踪范围的方法及***
技术领域
本发明涉及图像处理领域,具体涉及一种用于标识跟踪范围的方法及***。
背景技术
3D激光扫描仪已经能够方便的解决大部分场景中的快速三维扫描任务,实时获取物体表面精确的三维模型,但是由于物体表面各部分的扫描是独立的,各扫描部分之间关系薄弱,造成后期拼接的困难。
配合智能光学跟踪3D扫描仪的Tracker跟踪***可以实时的对3D激光扫描仪每一帧数据的空间位置进行实时跟踪,增加扫描各帧数据之间的位置关系,提高三维数据拼接的精度与效率。但是由于Tracker跟踪***跟踪范围的不可见,3D激光扫描仪可能进入Tracker跟踪***的视觉盲区,造成某些边缘区域的数据缺少空间位置信息,增加后期模型拼接难度,以及增加工作量。
发明内容
本发明所要解决的技术问题是提供一种用于标识跟踪范围的方法及***,可以实时、动态的显示跟踪***的跟踪范围,保证3D激光扫描仪的每一次扫描都在跟踪***的跟踪范围内,增加工作效率。
本发明解决上述技术问题的技术方案如下:一种用于标识跟踪范围的方法,包括以下步骤,
S1,分别从两个视场获取被测物体的两幅图像;
S2,根据图像匹配方法获取所述两幅图像的公共区域;
S3,对所述公共区域进行可视化的标识,得出跟踪范围。
本发明的有益效果是:本发明利用图像处理方法,将两个视场上获取的图像进行匹配,获取其公共区域,并且对公共区域进行可视化标识,利用3D激光扫描仪在可视的公共区域内进行三维扫描,避免三维激光扫描仪扫描到跟踪***的视野盲区,保证获取到的数据均具有空间位置信息。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述S1具体为,
放置在所述被测物体左、右两侧的两个相机,分别获取所述被测物体的左视场图像和右视场图像。
进一步,所述S2具体为,
通过计算机获取所述左视场图像和所述右视场图像;
所述计算机根据图像匹配方法获取所述左视场图像和所述右视场图像的公共区域。
进一步,所述S3具体为,
利用所述计算机的可视化软件对所述公共区域进行显示,并框选出来,得出跟踪范围。
进一步,还包括,
S4,跟踪可视化标识设备根据所述跟踪范围,向所述被测物体发射出相应范围的可见光,在所述被测物体上对所述跟踪范围进行标识。
基于上述一种用于标识跟踪范围的方法,本发明还提供一种用于标识跟踪范围的***。
一种用于标识跟踪范围的***,包括相互连接的相机和计算机,
所述相机,其用于分别从两个视场获取被测物体的两幅图像;
所述计算机,其用于根据图像匹配方法获取所述两幅图像的公共区域;
所述计算机还用于对所述公共区域进行可视化的标识,得出跟踪范围。
本发明的有益效果是:本发明利用图像处理方法,将两个视场上获取的图像进行匹配,获取其公共区域,并且对公共区域进行可视化标识,利用3D激光扫描仪在可视的公共区域内进行三维扫描,避免三维激光扫描仪扫描到跟踪***的视野盲区,保证获取到的数据均具有空间位置信息。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述相机设有两个,两个所述相机分别放置在所述被测物体左、右两侧,
放置在所述被测物体左、右两侧的两个相机分别用于获取所述被测物体的左视场图像和右视场图像。
进一步,所述计算机具体用于,
获取所述左视场图像和所述右视场图像;
根据图像配准方法获取所述左视场图像和所述右视场图像的公共区域。
进一步,所述计算机还具体用于,
利用所述计算机的可视化软件对所述公共区域进行显示,并框选出来,得出跟踪范围。
进一步,还包括与所述计算机连接的跟踪可视化标识设备,
所述跟踪可视化标识设备用于根据所述跟踪范围,向所述被测物体发射出相应范围的可见光,在所述被测物体上对所述跟踪范围进行标识。
附图说明
图1为本发明一种用于标识跟踪范围的方法的流程图;
图2为左、右两个相机的视场示意图;
图3为跟踪可视化标识设备的简略结构示意图;
图4左、右两个相机视场的重叠区域示意图;
图5为跟踪可视化标识设备的可视范围覆盖被测物体的跟踪范围的示意图;
图6为本发明一种用于标识跟踪范围的***的结构框图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,一种用于标识跟踪范围的方法,包括以下步骤,
S1,分别从两个视场获取被测物体的两幅图像;
S2,根据图像匹配方法获取所述两幅图像的公共区域;
S3,对所述公共区域进行可视化的标识,得出跟踪范围。
在本具体实施例中:利用左、右摆放的两个相机分别获取被测物体的左视场图像和右视场图像。通过计算机获取所述左视场图像和所述右视场图像;所述计算机根据图像匹配方法获取所述左视场图像和所述右视场图像的公共区域。利用所述计算机的可视化软件对所述公共区域进行显示,并框选出来,得出跟踪范围。本发明还包括S4,跟踪可视化标识设备根据所述跟踪范围,向所述被测物体发射出相应范围的可见光,在所述被测物体上对所述跟踪范围进行标识。
具体的,运用本发明一种用于标识跟踪范围的方法进行扫描测量时可以按照以下步骤进行:
1.将相机放置在被测物体的附近(两个相机在同一水平面内,且摆放在被测物体的左、右两侧),两个相机镜头朝向被测物体;
将跟踪可视化标识设备放置在被测物体的附近(跟踪可视化设备跟两个相机在同一水平面上),投影镜头朝向被测物体;
2.打开相机,将相机的视场调整到合理的范围内(即可以尽可能多的覆盖被测物体的局部);
3.计算机利用数据线获取左、右相机的图像,根据图像匹配方法获取左、右视场图像的公共区域,根据计算机图像匹配的可视化结果(框选显示左、右视场图像的重叠区域),进行相机位置的调整,使其覆盖更多的被测物体表面(即,使左、右视场图像的重叠区域尽可能的大);
打开跟踪可视化标识设备,使跟踪可视化标识设备的可视范围(可见光波段标识可见区域)覆盖被测物体的跟踪范围;
4.利用3D激光扫描仪在跟踪可视化标识设备的可视范围内进行三维扫描,完成扫描,输出三维数字化结果并测量。
图2为左、右两个相机的视场示意图;图2中a区域与b区域表示左相机的视场范围,图2中b区域与c区域表示右相机的视场范围,b区域表示左、右相机的公共区域,即Tracker跟踪***的跟踪范围;跟踪可视化标识设备即为了在现实场景中利用可见光波段在物体表面投影出跟踪范围,使三维扫描设备在其跟踪范围内工作,保证每帧数据都可以获取三维空间坐标,增加模型拼接精度。
图3为跟踪可视化标识设备的简略结构示意图,平面2代表光源,用于投射光线,平面1代表滤光片,过滤光源投射出来的特定波段,使其投射到左、右相机视场的公共区域,用于标定及显示跟踪范围。
图4左、右两个相机视场的重叠区域示意图;图4中两个圆形代表左、右相机,其右侧的立体图形为两个相机视场的重叠区域,3.1米处是左、右相机视场相交的交点,以此交点的投影平面为标准,计算并设计跟踪可视化标识设备的角度及结构(即图3中,线m与线n的夹角以及线n与线f的夹角)。
图5为跟踪可视化标识设备的可视范围(可见光波段标识可见区域)覆盖被测物体的跟踪范围的示意图。
配合智能光学跟踪3D扫描仪的Tracker跟踪***,利用可见光波段,在被测物体表面实时投影出可视化的跟踪范围,避免三维激光扫描仪扫描到跟踪***的视野盲区,保证获取到的数据均具有空间位置信息,利于后期模型的拼接。
基于上述一种用于标识跟踪范围的方法,本发明还提供一种用于标识跟踪范围的***。
如图6所示,一种用于标识跟踪范围的***,包括相互连接的相机和计算机,
所述相机,其用于分别从两个视场获取被测物体的两幅图像;
所述计算机,其用于根据图像匹配方法获取所述两幅图像的公共区域;
所述计算机用于对所述公共区域进行可视化的标识,得出跟踪范围。
在本具体实施例中:
相机设有两个,两个所述相机分别放置在所述被测物体左、右两侧,
放置在所述被测物体左、右两侧的两个相机分别用于获取所述被测物体的左视场图像和右视场图像。
所述计算机具体用于,获取所述左视场图像和所述右视场图像;根据图像匹配方法获取所述左视场图像和所述右视场图像的公共区域。
所述计算机还具体用于,利用所述计算机的可视化软件对所述公共区域进行显示,并框选出来,得出跟踪范围。
本发明还包括与所述计算机连接的跟踪可视化标识设备,所述跟踪可视化标识设备用于根据所述跟踪范围,向所述被测物体发射出相应范围的可见光,在所述被测物体上对所述跟踪范围进行标识。
本发明***利用图像处理方法,将两个视场上获取的图像进行匹配,获取其公共区域,并且对公共区域进行可视化标识,利用3D激光扫描仪在可视的公共区域内进行三维扫描,避免三维激光扫描仪扫描到跟踪***的视野盲区,保证获取到的数据均具有空间位置信息。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用于标识跟踪范围的方法,其特征在于:包括以下步骤,
S1,分别从两个视场获取被测物体的两幅图像;
S2,根据图像匹配方法获取所述两幅图像的公共区域;
S3,对所述公共区域进行可视化的标识,得出跟踪范围。
2.根据权利要求1所述的一种用于标识跟踪范围的方法,其特征在于:所述S1具体为,
利用放置在所述被测物体左、右两侧的两个相机,分别获取所述被测物体的左视场图像和右视场图像。
3.根据权利要求2所述的一种用于标识跟踪范围的方法,其特征在于:所述S2具体为,
通过计算机获取所述左视场图像和所述右视场图像;
所述计算机根据图像匹配方法获取所述左视场图像和所述右视场图像的公共区域。
4.根据权利要求3所述的一种用于标识跟踪范围的方法,其特征在于:所述S3具体为,
利用所述计算机的可视化软件对所述公共区域进行显示,并框选出来,得出跟踪范围。
5.根据权利要求1至4任一项所述的一种用于标识跟踪范围的方法,其特征在于:还包括,
S4,跟踪可视化标识设备根据所述跟踪范围,向所述被测物体发射出相应范围的可见光,在所述被测物体上对所述跟踪范围进行标识。
6.一种用于标识跟踪范围的***,其特征在于:包括相互连接的相机和计算机,
所述相机,其用于分别从两个视场获取被测物体的两幅图像;
所述计算机,其用于根据图像匹配方法获取所述两幅图像的公共区域;
所述计算机还用于对所述公共区域进行可视化的标识,得出跟踪范围。
7.根据权利要求6所述的一种用于标识跟踪范围的***,其特征在于:所述相机设有两个,两个所述相机分别放置在所述被测物体左、右两侧,
放置在所述被测物体左、右两侧的两个相机分别用于获取所述被测物体的左视场图像和右视场图像。
8.根据权利要求7所述的一种用于标识跟踪范围的***,其特征在于:所述计算机具体用于,
获取所述左视场图像和所述右视场图像;
根据图像配准方法获取所述左视场图像和所述右视场图像的公共区域。
9.根据权利要求8所述的一种用于标识跟踪范围的***,其特征在于:所述计算机还具体用于,
利用可视化软件对所述公共区域进行显示,并框选出来,得出跟踪范围。
10.根据权利要求6至9任一项所述的一种用于标识跟踪范围的***,其特征在于:还包括与所述计算机连接的跟踪可视化标识设备,
所述跟踪可视化标识设备用于根据所述跟踪范围,向所述被测物体发射出相应范围的可见光,在所述被测物体上对所述跟踪范围进行标识。
CN201810968579.9A 2018-08-23 2018-08-23 一种用于标识跟踪范围的方法及*** Active CN109102548B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810968579.9A CN109102548B (zh) 2018-08-23 2018-08-23 一种用于标识跟踪范围的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810968579.9A CN109102548B (zh) 2018-08-23 2018-08-23 一种用于标识跟踪范围的方法及***

Publications (2)

Publication Number Publication Date
CN109102548A true CN109102548A (zh) 2018-12-28
CN109102548B CN109102548B (zh) 2020-12-11

Family

ID=64851111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810968579.9A Active CN109102548B (zh) 2018-08-23 2018-08-23 一种用于标识跟踪范围的方法及***

Country Status (1)

Country Link
CN (1) CN109102548B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111220076A (zh) * 2020-01-11 2020-06-02 武汉中观自动化科技有限公司 一种跟踪定位和标志点定位混合的定位方法和装置
CN116136396A (zh) * 2023-04-17 2023-05-19 思看科技(杭州)股份有限公司 基于跟踪扫描***的三维扫描方法和跟踪扫描***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090180682A1 (en) * 2008-01-11 2009-07-16 Theodore Armand Camus System and method for measuring image quality
CN101790083A (zh) * 2010-02-04 2010-07-28 西安理工大学 一种基于视频的车道空间占有率的监控方法
CN201707034U (zh) * 2010-06-02 2011-01-12 上海工程技术大学 一种基于多像机多视场的轨距检测***定标装置
CN103196371A (zh) * 2013-03-29 2013-07-10 南京工业大学 一种主动实时三维测量大型车厢的方法及***
CN103630072A (zh) * 2013-10-25 2014-03-12 大连理工大学 双目视觉测量***中摄像机的布局优化方法
CN103776390A (zh) * 2014-01-22 2014-05-07 广东工业大学 三维自然纹理数据扫描机及多视场数据拼接方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090180682A1 (en) * 2008-01-11 2009-07-16 Theodore Armand Camus System and method for measuring image quality
CN101790083A (zh) * 2010-02-04 2010-07-28 西安理工大学 一种基于视频的车道空间占有率的监控方法
CN201707034U (zh) * 2010-06-02 2011-01-12 上海工程技术大学 一种基于多像机多视场的轨距检测***定标装置
CN103196371A (zh) * 2013-03-29 2013-07-10 南京工业大学 一种主动实时三维测量大型车厢的方法及***
CN103630072A (zh) * 2013-10-25 2014-03-12 大连理工大学 双目视觉测量***中摄像机的布局优化方法
CN103776390A (zh) * 2014-01-22 2014-05-07 广东工业大学 三维自然纹理数据扫描机及多视场数据拼接方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
何董瑞: "大空间立体视觉外部方位参数现场校准技术研究", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *
颜树华 等: "双CCD视觉传感器测量分辨率和有效视场的理论研究", 《光电子·激光》 *
魏强: "基于双目立体视觉的异物侵界检测***设计", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111220076A (zh) * 2020-01-11 2020-06-02 武汉中观自动化科技有限公司 一种跟踪定位和标志点定位混合的定位方法和装置
CN116136396A (zh) * 2023-04-17 2023-05-19 思看科技(杭州)股份有限公司 基于跟踪扫描***的三维扫描方法和跟踪扫描***

Also Published As

Publication number Publication date
CN109102548B (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN106802138B (zh) 一种三维扫描***及其扫描方法
US7693325B2 (en) Transprojection of geometry data
US6781618B2 (en) Hand-held 3D vision system
Bajura et al. Dynamic registration correction in video-based augmented reality systems
JP4245963B2 (ja) 較正物体を用いて複数のカメラを較正するための方法およびシステム
US7342669B2 (en) Three-dimensional shape measuring method and its device
WO2019015154A1 (zh) 基于单目三维扫描***的三维重构方法和装置
CN109215063A (zh) 一种事件触发相机与三维激光雷达的配准方法
CN103959012A (zh) 6自由度位置和取向确定
CN105869160A (zh) 利用Kinect实现三维建模和全息显示的方法及***
CN104933704B (zh) 一种三维立体扫描方法及***
CN104335005A (zh) 3d扫描以及定位***
CN106595519A (zh) 一种基于激光mems投影的柔性三维轮廓测量方法及装置
CN104871176A (zh) 扫描设备及用于定位扫描设备的方法
WO2018028152A1 (zh) 一种图像采集设备、虚拟现实设备
JP2007171092A (ja) 三次元計測用マーカとこれを用いた三次元計測方法
WO2022088881A1 (en) Method, apparatus and system for generating a three-dimensional model of a scene
CN109974659A (zh) 一种基于双目机器视觉的嵌入式测距***
CN107977998B (zh) 一种基于多视角采样的光场校正拼接装置及方法
CN109102548A (zh) 一种用于标识跟踪范围的方法及***
CN110430421A (zh) 一种用于五面led-cave的光学跟踪定位***
Madritsch et al. CCD‐Camera Based Optical Beacon Tracking for Virtual and Augmented Reality
US6873924B1 (en) Method and system for calibrating relative fields of view of multiple cameras
Xiang et al. Towards mobile projective AR for construction co-robots
JP3637416B2 (ja) 3次元計測方法、3次元計測システム、画像処理装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant