CN111637893A - 一种基于机器视觉的协同定位方法 - Google Patents

一种基于机器视觉的协同定位方法 Download PDF

Info

Publication number
CN111637893A
CN111637893A CN202010520718.9A CN202010520718A CN111637893A CN 111637893 A CN111637893 A CN 111637893A CN 202010520718 A CN202010520718 A CN 202010520718A CN 111637893 A CN111637893 A CN 111637893A
Authority
CN
China
Prior art keywords
electronic device
electronic equipment
visual image
machine vision
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010520718.9A
Other languages
English (en)
Inventor
何成龙
蔚保国
易卿武
李爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN202010520718.9A priority Critical patent/CN111637893A/zh
Publication of CN111637893A publication Critical patent/CN111637893A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种基于机器视觉的协同定位方法,属于机器视觉和室内定位技术领域。本方法首先通过电子设备的视觉传感器获取含有深度信息的场景图像;将完整视觉影像、部分影像、或影像中提取的特征要素及其相对电子设备的空间位置,通过通信网络进行广播式播发或发送给指定的电子设备;其他电子设备接收信息并判别和自身获取的场景图像中是否含有相同的特征要素;最后通过特征要素与电子设备间的空间关系计算得到不同电子设备的空间关系,实现同时观测或异步观测下不同电子设备间的协同定位。本方法对于解决建筑空间内等卫星导航信号不可用应用场景中的定位问题具有重要意义。

Description

一种基于机器视觉的协同定位方法
技术领域
本发明属于机器视觉和室内定位技术领域,特别是指一种基于机器视觉的协同定位方法。
背景技术
随着室内定位应用的发展,利用通用化和商品化的传感器在建筑空间内实现定位成为主要趋势。随着5G网络和机器视觉技术的发展,通过电子设备获取环境图像,并与远程云服务器的GIS大数据进行匹配实现定位成为可能。但由于绝大部分城市建筑内部的空间特征数据并不开放,使得这种“远程云+移动端”的定位方式存在适用范围上的局限。伴随着电子设备嵌入式计算芯片处理能力的飞速提升,直接通过电子设备自身的机器视觉处理和通信过程实现协同定位成为可能,并且不依赖于远程服务器下,更有利于建筑空间环境隐私的保护。
发明内容
本发明的目的在于提供一种基于机器视觉的协同定位方法。本方法可面向建筑空间内等无法通过卫星导航信号定位的应用场景,实现同时观测或异步观测下不同电子设备间的协同定位。
为了实现上述目的,本发明采用的技术方案为:
一种基于机器视觉的协同定位方法,包括以下步骤:
(1)通过已知位置的电子设备A的视觉传感器获取其所处环境的第一视觉影像;
(2)通过未知位置的电子设备B的视觉传感器获取其所处环境的第二视觉影像;
(3)对第一视觉影像和第二视觉影像进行比对,从中找到相同的特征要素;
(4)计算电子设备A与特征要素的第一相对位置关系,以及电子设备B与特征要素的第二相对位置关系;
(5)根据第一相对位置关系、第二相对位置关系以及电子设备A的位置,得到电子设备B的位置,完成对电子设备B的定位。
进一步的,所述步骤(1)中,电子设备A获取第一视觉影像后将第一视觉影像发送给电子设备B;所述步骤(3)在电子设备B中完成,然后电子设备B将特征要素发送给电子设备A。
进一步的,所述步骤(2)中,电子设备B获取第二视觉影像后将第二视觉影像发送给电子设备A;所述步骤(3)在电子设备A中完成,然后电子设备A将特征要素发送给电子设备B。
进一步的,所述步骤(4)中,第一相对位置关系的计算在电子设备A中完成,第二相对位置关系的计算在电子设备B中完成。
进一步的,电子设备A计算完第一相对位置关系后,将第一相对位置关系发送给电子设备B;所述步骤(5)在电子设备B中完成。
进一步的,电子设备B计算完第二相对位置关系后,将第二相对位置关系发送给电子设备A;所述步骤(5)在电子设备A中完成,得到定位结果后再将定位结果发送给电子设备B。
进一步的,所述步骤(1)中,电子设备A获取第一视觉影像后将第一视觉影像连同电子设备A的拍摄参数一起发送给电子设备B;所述步骤(3)~(5)均在电子设备B中完成。
进一步的,所述电子设备A和电子设备B均为手机。
本发明与现有技术相比所取得的有益效果为:
(1)本发明不需要在应用区域中安装用于定位的基础设施,电子设备通过协同处理过程即可实现相对定位或绝对定位。
(2)本发明不需要远程服务器及与其相连的通信网络支持,可在缺乏稳定的远程通信、或难以事先获取视觉影像的场合中实现协同定位,应用覆盖面更广泛,且有利于用户位置和场景影像隐私的保护。
(3)本发明可用于便携式、车载、机载的具备多目摄像头或激光雷达传感器的电子设备,通过不同电子设备对相同场景的视觉感知、通信共享与数据处理过程,实现不同电子设备间的协同定位能力。
附图说明
图1是本发明实施例中协同定位方法的流程图。
具体实施方式
以下结合附图和实施例对本发明做进一步的说明。
一种基于机器视觉的协同定位方法,包括以下步骤:
(1)通过已知位置的电子设备A的视觉传感器获取其所处环境的第一视觉影像;
(2)通过未知位置的电子设备B的视觉传感器获取其所处环境的第二视觉影像;
(3)对第一视觉影像和第二视觉影像进行比对,从中找到相同的特征要素;
(4)计算电子设备A与特征要素的第一相对位置关系,以及电子设备B与特征要素的第二相对位置关系;
(5)根据第一相对位置关系、第二相对位置关系以及电子设备A的位置,得到电子设备B的位置,完成对电子设备B的定位。
进一步的,所述步骤(1)中,电子设备A获取第一视觉影像后将第一视觉影像发送给电子设备B;所述步骤(3)在电子设备B中完成,然后电子设备B将特征要素发送给电子设备A。
进一步的,所述步骤(2)中,电子设备B获取第二视觉影像后将第二视觉影像发送给电子设备A;所述步骤(3)在电子设备A中完成,然后电子设备A将特征要素发送给电子设备B。
进一步的,所述步骤(4)中,第一相对位置关系的计算在电子设备A中完成,第二相对位置关系的计算在电子设备B中完成。
进一步的,电子设备A计算完第一相对位置关系后,将第一相对位置关系发送给电子设备B;所述步骤(5)在电子设备B中完成。
进一步的,电子设备B计算完第二相对位置关系后,将第二相对位置关系发送给电子设备A;所述步骤(5)在电子设备A中完成,得到定位结果后再将定位结果发送给电子设备B。
进一步的,所述步骤(1)中,电子设备A获取第一视觉影像后将第一视觉影像连同电子设备A的拍摄参数一起发送给电子设备B;所述步骤(3)~(5)均在电子设备B中完成。
此外,上述方法还可通过以下方式实现:
(1)电子设备A通过人工操作或自动方式,利用自身视觉传感器获取所处环境中的视觉影像;
(2)电子设备A将获取的完整视觉影像、部分影像、或影像中提取的特征要素及其相对电子设备A的空间位置,通过通信网络进行广播式播发或发送给指定的电子设备;
(3)电子设备B接收电子设备A发送的视觉信息并进行相对定位计算,具体包括:
(301)电子设备B通过接收广播式通信或作为指定接收方的形式获取电子设备A发送的视觉信息;
(302)电子设备B将接收到的视觉信息与利用自身视觉传感器获取所处环境中的视觉影像进行比对;
(303)电子设备B利用比对过程,若得到视觉影像存在相同的特征要素时,认为可实现协同定位;若不存在相同特征要素则认为不可实现协同定位;
(304)在可实现协同定位下,电子设备B计算特征要素相对自身的空间位置;
(305)电子设备B将特征要素反馈给电子设备A计算,或由电子设备B自身计算,获取特征要素相对电子设备A的空间位置;
(306)电子设备B利用特征要素相对自身、特征要素相对电子设备A的空间位置结果,计算电子设备B和电子设备A的空间关系;
(4)电子设备A或电子设备B具有绝对位置时,通过步骤(3)获取的相对定位结果计算电子设备B或电子设备A的绝对定位结果。
其中,步骤(2)所述的通信网络是指能够将电子设备A数据传递给其他电子设备的有线或无线链路,不限于移动通信网络、自组网等具体物理形式。
其中,步骤(2)及步骤(303)~(306)中所述的特征要素,是指在视觉影像中提取的特征参照物,不限于建筑结构、装饰物及标识、光照轮廓、物品及人员等。
其中,步骤(2)及步骤(303)~(306)中所述的特征要素相对电子设备的空间关系,是指电子设备通过计算特征要素在获取的视觉影像中的位置,来计算特征要素相对自身的位置,包括相对距离和相对角度。
其中,步骤(4)中所述的绝对位置,是指在用户所需的基准坐标系中所处的位置,基准坐标系不限于WGS84坐标系、CGCS2000坐标系、在特定环境中的自定义坐标系。
图1为一种基于机器视觉实现协同定位的流程图。本方法可面向建筑空间内等无法通过卫星导航信号定位的应用场景,其通过电子设备的视觉传感器获取含有深度信息的场景图像,通过含有的相同特征要素与电子设备间的空间关系计算得到不同电子设备的空间关系。这里以利用具有多目摄像头的手机在地下空间实现协同定位为例,详细描述实现步骤:
(1)手机A通过人工操作或自动方式,利用多目摄像头获取所处环境中的视觉影像;假设手机A的影像中包含有墙面的一副画,并且手机A通过其他手段实现了自身的绝对定位;
(2)手机A将获取的完整视觉影像、部分影像、或影像中提取的特征要素及其相对手机A的空间位置,借助移动通信网络或自组网向预定的群组用户或指定的用户发送;
(3)手机B接收手机A发送的视觉信息并进行相对定位计算,具体包括:
(301)手机B通过借助移动通信网络或自组网接收手机A发送的视觉信息;
(302)手机B将接收到的视觉信息与利用自身多目摄像头获取所处环境中的视觉影像进行比对;假设手机B也拍摄到了墙面的同一幅画;
(303)手机B利用比对过程,判别手机A和手机B场景影像中具有相同的特征要素(同一幅画),认为可实现协同定位;
(304)手机B计算特征要素相对自身的空间位置;
(305)手机B将特征要素反馈给手机A计算,或由手机B自身计算,获取特征要素相对手机A的空间位置;
(306)手机B利用特征要素相对自身、特征要素相对手机A的空间位置结果,计算手机B和手机A的空间关系,得到相对定位解;
(4)手机A将其自身的绝对位置信息传递给手机B,或手机B将相对定位解发给手机A,可计算得到手机B的绝对定位结果。
本发明可用于便携式、车载、机载的具备多目摄像头或激光雷达传感器的电子设备,通过不同电子设备对相同场景的视觉感知、通信共享与数据处理过程,实现不同电子设备间的协同定位能力。

Claims (8)

1.一种基于机器视觉的协同定位方法,其特征在于,包括以下步骤:
(1)通过已知位置的电子设备A的视觉传感器获取其所处环境的第一视觉影像;
(2)通过未知位置的电子设备B的视觉传感器获取其所处环境的第二视觉影像;
(3)对第一视觉影像和第二视觉影像进行比对,从中找到相同的特征要素;
(4)计算电子设备A与特征要素的第一相对位置关系,以及电子设备B与特征要素的第二相对位置关系;
(5)根据第一相对位置关系、第二相对位置关系以及电子设备A的位置,得到电子设备B的位置,完成对电子设备B的定位。
2.根据权利要求1所述的一种基于机器视觉的协同定位方法,其特征在于,所述步骤(1)中,电子设备A获取第一视觉影像后将第一视觉影像发送给电子设备B;所述步骤(3)在电子设备B中完成,然后电子设备B将特征要素发送给电子设备A。
3.根据权利要求1所述的一种基于机器视觉的协同定位方法,其特征在于,所述步骤(2)中,电子设备B获取第二视觉影像后将第二视觉影像发送给电子设备A;所述步骤(3)在电子设备A中完成,然后电子设备A将特征要素发送给电子设备B。
4.根据权利要求2或3所述的一种基于机器视觉的协同定位方法,其特征在于,所述步骤(4)中,第一相对位置关系的计算在电子设备A中完成,第二相对位置关系的计算在电子设备B中完成。
5.根据权利要求4所述的一种基于机器视觉的协同定位方法,其特征在于,电子设备A计算完第一相对位置关系后,将第一相对位置关系发送给电子设备B;所述步骤(5)在电子设备B中完成。
6.根据权利要求4所述的一种基于机器视觉的协同定位方法,其特征在于,电子设备B计算完第二相对位置关系后,将第二相对位置关系发送给电子设备A;所述步骤(5)在电子设备A中完成,得到定位结果后再将定位结果发送给电子设备B。
7.根据权利要求1所述的一种基于机器视觉的协同定位方法,其特征在于,所述步骤(1)中,电子设备A获取第一视觉影像后将第一视觉影像连同电子设备A的拍摄参数一起发送给电子设备B;所述步骤(3)~(5)均在电子设备B中完成。
8.根据权利要求1所述的一种基于机器视觉的协同定位方法,其特征在于,所述电子设备A和电子设备B均为手机。
CN202010520718.9A 2020-06-10 2020-06-10 一种基于机器视觉的协同定位方法 Pending CN111637893A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010520718.9A CN111637893A (zh) 2020-06-10 2020-06-10 一种基于机器视觉的协同定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010520718.9A CN111637893A (zh) 2020-06-10 2020-06-10 一种基于机器视觉的协同定位方法

Publications (1)

Publication Number Publication Date
CN111637893A true CN111637893A (zh) 2020-09-08

Family

ID=72328973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010520718.9A Pending CN111637893A (zh) 2020-06-10 2020-06-10 一种基于机器视觉的协同定位方法

Country Status (1)

Country Link
CN (1) CN111637893A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587188A (zh) * 2017-09-28 2019-04-05 阿里巴巴集团控股有限公司 确定终端设备之间相对位置关系的方法、装置及电子设备
CN110268225A (zh) * 2019-05-09 2019-09-20 珊口(深圳)智能科技有限公司 在地图上定位设备的方法、服务端及移动机器人
CN110919644A (zh) * 2019-06-11 2020-03-27 远形时空科技(北京)有限公司 一种利用摄像头设备和机器人进行定位交互的方法及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587188A (zh) * 2017-09-28 2019-04-05 阿里巴巴集团控股有限公司 确定终端设备之间相对位置关系的方法、装置及电子设备
CN110268225A (zh) * 2019-05-09 2019-09-20 珊口(深圳)智能科技有限公司 在地图上定位设备的方法、服务端及移动机器人
CN110919644A (zh) * 2019-06-11 2020-03-27 远形时空科技(北京)有限公司 一种利用摄像头设备和机器人进行定位交互的方法及***

Similar Documents

Publication Publication Date Title
CN103424113B (zh) 移动终端基于图像识别技术的室内定位与导航方法
US10812941B2 (en) Positioning method and device
US9429438B2 (en) Updating map data from camera images
US20120158282A1 (en) Camera-based indoor position recognition apparatus and method
US20110165893A1 (en) Apparatus to provide augmented reality service using location-based information and computer-readable medium and method of the same
CA2762743C (en) Updating map data from camera images
US9483826B2 (en) Landmark based positioning
CN105318881A (zh) 地图导航方法、装置及***
CN104661300B (zh) 定位方法、装置、***及移动终端
US9002401B2 (en) Terminal and method for recognizing communication target
CN107426715B (zh) 位置数据的处理方法、装置、设备和存储介质
US9335400B2 (en) Indoor positioning using camera and optical signal
KR20160059376A (ko) 전자 기기 및 그 제어방법
CN103245337B (zh) 一种获取移动终端位置的方法、移动终端和位置检测***
CN106772234A (zh) 一种摄像头与电磁波协同定位追踪的方法和***
CN109272576B (zh) 一种数据处理方法、mec服务器、终端设备及装置
KR101644608B1 (ko) 가시 범위 내 통신대상 인식을 위한 단말 및 그 방법
CN104580300A (zh) 基于云端运算的图形与实景识别的方法和***
CN110969704B (zh) 一种基于ar导视的标记生成跟踪方法及装置
CN111637893A (zh) 一种基于机器视觉的协同定位方法
CN109246408B (zh) 一种数据处理方法、终端、服务器和计算机存储介质
CN110796706A (zh) 视觉定位方法及***
Pace et al. A multi-technology location-aware wireless system for interactive fruition of multimedia contents
Miyaki et al. Tracking persons using particle filter fusing visual and wi-fi localizations for widely distributed camera
US20210256712A1 (en) On-Demand Image Based Location Tracking Platform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200908

RJ01 Rejection of invention patent application after publication