CN103162682A - 基于混合现实的室内路径导航方法 - Google Patents
基于混合现实的室内路径导航方法 Download PDFInfo
- Publication number
- CN103162682A CN103162682A CN2011104066964A CN201110406696A CN103162682A CN 103162682 A CN103162682 A CN 103162682A CN 2011104066964 A CN2011104066964 A CN 2011104066964A CN 201110406696 A CN201110406696 A CN 201110406696A CN 103162682 A CN103162682 A CN 103162682A
- Authority
- CN
- China
- Prior art keywords
- image sequence
- mobile terminal
- mixed reality
- path navigation
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Navigation (AREA)
Abstract
本发明公开一种基于混合现实的室内路径导航方法,包括移动终端、无线局域网、远程服务器和多个远程PC,移动终端包括移动摄像头和显示屏,多个远程PC之间通过有线网络连接,其特征在于包括以下步骤:①在移动终端上输入目的地,通过无线局域网将目的地传输到远程PC上;②移动终端根据摄像头拍摄的当前图像形成图像序列,通过无线局域网将图像序列传输到远程PC上;③远程PC根据收到的图像序列,依次通过标记可靠识别、图像序列匹配、位置模型筛选三个步骤来计算用户当前的位置信息;④远程PC根据用户当前的位置信息与目的地计算形成路径导航,将该路径导航使用混合现实技术以3D立体方式叠加并通过无线局域网反馈至移动终端的显示屏上。
Description
技术领域
本发明设计一种基于混合现实的室内路径导航方法,属于路径导航领域。
技术背景
随着城市建设的突飞猛进,各种现代化的高楼大厦摩肩接踵,其内部的结构和功能错综复杂,当人们身处这样一些陌生而复杂的环境中需要找寻特定的目标时,如在办公楼、展览厅、校园、医院、博物馆、音乐会、技术发布会、大型展会等室内区域,此时室内路径导航尤显其重要性——引导不熟悉地方的用户找到前往目的地的路线、突发情况室内人群的快速疏散以及应急救援等。
中国申请专利号CN200810060078.7《基于无线传感网的室内定位方法》中专利公开了一种混合式基于无线传感器网络的室内定位方法,该方法主要由信标节点、盲节点、汇聚节点三部分组成。信标节点为位置已知的传感器节点;盲节点为待定位的传感器节点,但通过与临近信标节点通信,根据分布式定位算法进行粗略定位;而汇聚节点接收盲点定位,采用集中式定位优化算法进行目标的精确定位,但是要在室内安装大量的传感器并且无法立体化显示所在位置。中国专利申请号CN201010518905.X《一种具备室内导航功能的移动终端及室内导航方法》描述了一种具备室内导航功能的移动终端及室内导航方法。移动终端包括加速度计模块、电子罗盘模块、压力检测模块和控制模块等。加速度计模块、电子罗盘模块、压力检测模块分别与控制模块连接。该专利采用加速度计模块获取移动终端行进的距离,电子罗盘模块获取移动终端行进的方向信息,压力检测模块获取移动终端的大气压力信息,并且由控制模块根据移动终端行进的距离、方向信息和大气压力信息,从而得出移动终端在室内的三维立***置信息,实现了室内立体导航,但在精确度与成像方面受环境影响较大。中国专利号CN201010518905.X《提供大型建筑物内部的定位和导航的方法》专利公开了一种在GPS信号不可用时对建筑区内的电子设备进行定位/导航的方法。电子设备通过扫描可用的无线局域网接入点并下载位置信息,进而实现定位/导航功能,实时逼真地显示用户在室内当前所处的位置,及可使用的导航路径。但是该专利成像只能已平面显示,无法立体化显示所在位置。
随着增强现实(Augmented Reality,简称“AR”)、增强虚拟(Augmented Virtuality,简称“AV”)、这两项又被合称为“混合现实”(Mixed Reality,简称“MR”)的发展,可以为用户构造所需的高临场感虚拟三维场景。
现在的用户更需要一种能在室内实现立体导航的方法,能够立体化显示所在当前位置,方便用户更加快速的找到前往目的地的路线。
发明内容
本发明的目的是为了解决上述不足,提供一种基于混合现实的室内路径导航方法。
实现本发明的技术方案如下:
一种基于混合现实的室内路径导航方法,包括移动终端7、无线局域网3、远程服务器4和多个远程PC5,移动终端7包括移动摄像头1和显示屏2,多个远程PC5之间通过有线网络6连接,其特征在于包括以下步骤:①在移动终端7上输入目的地,通过无线局域网3将目的地传输到远程PC5上;②移动终端7根据摄像头1拍摄的当前图像形成图像序列,通过无线局域网3将图像序列传输到远程PC5上;③远程PC5根据收到的图像序列,依次通过标记可靠识别、图像序列匹配、与位置模型筛选三个步骤来计算用户当前的位置信息;④远程PC5根据用户当前的位置信息与目的地计算形成路径导航,将该路径导航使用混合现实技术以3D立体方式叠加并通过无线局域网4反馈至移动终端7的显示屏2上。
上述第③步中,标记可靠识别过程中将输入的图像序列进行阈值分割后处理成二进制图像,进而凸显目标标记,得到二进制图像中的特征,进而进行特征配准,如果能够达成配准,即表示识别出了位置标记,进而完成初步定位,如果不能够达成配准,则返回第②步。
上述标记可靠识别过程中采用不同光照条件的自适应阈值算法生成二进制图像,1-10秒或64帧执行一次,其余非标记图像使用最近时间的固定阈值分割图像。
上述图像序列匹配过程中,根据用户在室内移动时捕捉到的图像序列,来进行构建图像序列库,图像序列匹配先按照8-60帧/秒的频率连续采样,再以8帧/秒构建图像序列库。
上述快速精确定位过程中将输入的RGB颜色空间转化成HSI颜色空间,然后从HSI色彩空间中提取前五个LAD特征,最后通过计算欧氏距离来确定当前位置。
上述图像序列匹配中需要计算输入图像序列的特征向量与远程PC5的位置结构模型库的第n个位置的图像序列的特征向量的相似度。
上述第④步中,采用分层L-K光流算法对特征点进行跟踪,对光流跟踪的结果采用RANSAC算法求得其单应性矩阵。
本发明采用上述技术方案得到了以下的有益效果:
(1)本发明利用移动终端的摄像头自动采集图像,利用混合现实技术,在显示屏上逼真显示用户在室内当前所处的位置及导航路径,因此用户可以直观地获得导航路径指引。
(2)本发明的室内导航方法由于对室内结构化程度、导航范围大小不做任何要求,仅依靠摄像头拍摄完成定位功能,因此可为不熟悉地域的用户提供便捷、经济的室内路径导航服务。
(3)本发明采用不同光照条件的自适应阈值算法,生成二值图像,由于简化、整合了图 像中灰度值信息,程序算法的计算量会大大降低,更重要的是,能提高后续图像匹配的准确度,而其余非标记图像使用最近时间的固定阈值分割图像,可以降低***计算量。
(4)本发明将利用色度特征来增强对适应光强的能力,降低真彩色空间受色彩变化的影响。
(5)由于根据算法的特征,在不同的处理阶段选用不同的算法进行处理,可以较好地解决了跟踪过程的实时性与抖动问题。
通过位置结构模型,可使得在标记识别和图像序列匹配之后,降低定位用户最终位置的错误率,确保定位精度的准确性
附图说明
图1.室内路径导航***工作流程示意图
图2.标记的可靠识别方法示意图
图3.场景实时配准流程示意图
摄像头1;显示屏2;无线局域网3;远程服务器4;远程PC5;有线网络6;移动终端7。
具体实施方式
以下结合附图和具体实施例对本发明作进一步说明。
本发明是一种基于单目视觉定位的、依靠实时配准场景来完成虚拟导航信息的快速跟踪和实时渲染室内路径的导航***。下面介绍室内路径导航***的精确位置定位方法及场景配置方法。
本发明的室内路径导航***网络拓扑结构的示意图。包括移动终端7,移动终端7包括移动摄像头1和显示屏2,无线局域网3,远程服务器4,远程PC5,远程PC5中设置有位置结构模型库,位置结构模型库中预先会收录该室内建筑里面位置结构特征的图片,远程PC5之间通过有线网络6连接。
首先,用户在移动终端7中输入目的地;移动终端7的摄像头1拍摄目前所处环境的图像序列,然后通过无线局域网3将图像序列传输到远程PC5上,远程PC5根据收到的图像序列计算出用户的当前位置,其主要过程包括:①标记的可靠识别、②图像序列的匹配、③位置模型筛选:
①标记的可靠识别
如图所示,在定位过程中,首先完成标记的可靠识别:将输入的图像进行阈值分割后 处理成二进制图像,进而凸显目标标记。对上述标记(如方块形图像)进行特征提取,得到二值图像中的所有方块,进而与远程PC5中的位置结构模型库的结构特征配准。如果能够达成配准,即表示识别出了位置标记,进而完成初步定位,如果不能够达成配准,则移动装置的摄像头重新拍照,形成新的图像犀利,重新进行标记的可靠识别。
其中,阈值分割处理的效果取决于选定的图像阈值,而图像的最优阈值主要受变化的光照等因素的影响。为了获得更好的处理效果,本发明采用不同光照条件的自适应阈值算法,生成二值图像,每1-10秒执行一次或64帧执行一次,1-10秒内或64帧都使用前一阈值,至下一次再做分割,得到新阈值,以适应快速变化的照明条件。由于简化、整合了图像中灰度值信息,程序算法的计算量会大大降低,更重要的是,能提高后续图像匹配的准确度,而其余非标记图像使用最近时间的固定阈值分割图像,可以降低***计算量。见图3,原始图像经自适应阈值算法处理后,得到相应的二进制图像,最终可靠地识别出标记。
②图像序列匹配
如图1和图2所示,初步定位后,为达到本发明中最终定位的可靠性、精确性要求,首先进行图像序列的采集,图像序列的采集是根据用户在室内行走时捕捉到的视频序列,来构建图像序列库:先按照8-60帧/秒的频率连续采样,其中12帧/秒是最佳状态,当低于8帧/秒时,不能准确定位;当高于60帧/秒时,对载体数据处理能力要求较高,再以8帧/秒构建图像序列库。每个被识别出的标记所在的图像序列都需要与远程PC的图像序列库中的预存图像序列进行匹配。
本发明的图像序列匹配方法步骤为:首先进行直方图提取,在每个方块标记区域中,提取图像;然后进行直方图匹配,将检测到方块的图像与预先保留的远程PC5的图像序列库中的图像序列进行匹配,如果匹配结果达标,即确定了用户的准确位置。这一匹配过程与标记的可靠识别中的特征配准过程相似,但结果要求更精确、且尽量保证速度。
本发明的捕捉到的图像信息受环境光、相对运动等很多因素影响,而且,即使在相同光照环境下,捕捉的两幅图像的色彩信息也有可能不同。那么,由于真彩色空间易受色彩变化的影响,因此本发明将利用色度特征来增强对适应光强的能力。本发明将输入的RGB颜色空间转化成HSI颜色空间,然后从HSI色彩空间中提取前五个LAD特征,最后通过计算欧氏距离来确定当前位置。因此,本发明需要计算输入图像序列(X)的特征向量(xi)与远程PC5的位置结构模型库的第n个位置的图像序列(Yn)的特征向量(yi)的相似度。其中,以12帧/s的速度捕捉到的图像序列,作为检索的图像序列库。
③位置模型筛选
位置模型筛选方法:以节点代表位置,且每个节点都与邻近节点相互连接,从而构成用户的潜在路径。用户位置定位存在三种可能的情况:1)由标记识别和图像序列判定后的输出结果一致;2)由标记识别和图像序列判定后的输出结果不一致;3)只由图像序列匹配得到输出结果。在位置模型筛选过程中,本发明的精确位置识别规则见表1:
表1精确位置识别规则
在标记的可靠识别过程中,远程PC5一旦检测到潜在标记,根据预先定义的标记信息,定位用户当前所在位置;在图像序列匹配过程中,通过提取输入图像序列特征及预先定义的图像序列特征,综合分析、计算、输出当前用户位置信息;在位置模型筛选中以节点代表位置,且每个节点都与邻近节点相互连接,从而构成用户的潜在路径。在以上三个步骤过程中,位置结构模型用于最终解析用户位置。
用户位置确定后,通过判断摄像头相对于真实世界的位置和姿态,进而将虚拟场景正确地叠加到真实世界的具***置上,从而使用户从感官上认为虚拟场景确实是真实世界的一部分。
见图3,本发明在场景实时配准过程中,首先采用基于朴素贝叶斯分类的宽基线匹配算法,对于检测到的特征点,如果能通过RANSAC算法建立单应性矩阵,表明检测到该物体,则进入跟踪过程,反之则仍处于检测过程。进入跟踪过程后,采用基于角点与纹理的混合跟踪 算法进行跟踪。首先,用当前单应性矩阵计算特征点的坐标,采用分层L-K光流算法对特征点进行跟踪,对光流跟踪的结果采用RANSAC算法求得其单应性矩阵;然后,再通过鲁棒的IC算法对其优化,根据优化结果判断跟踪过程是否成功。如果跟踪成功,就保持在跟踪过程中继续跟踪,反之,如果连续30帧算法不收敛,则认为跟踪失败,并返回到检测过程。同时采用基于角点与纹理特征的混合跟踪算法进行实时跟踪,可以较好地解决了跟踪过程的实时性与抖动问题。
最后,如图2所示,远程PC5将用户的位置信息通过远程服务器4反馈至移动终端7的显示屏2上,在显示屏2上标记出用户在室内地图上所处的位置,本发明以OPENGL作为图形渲染引擎、以OSG作为场景图形管理、以OSGArt作为混合现实开发包,将根据用户位置和目的地解析得到的路径导航标记显示在移动终端7的显示屏2上,实现将虚拟导航信息无缝地叠加到移动终端7的显示屏2上,通过实时场景配准技术,无缝地叠加出混合现实的导航路径。
显然,本领域的技术人员可以对本发明的室内路径导航方法进行各种改动、而不脱离本发明的范围和精神。这样,倘若本发明的这些修改属于本发明权利要求、及其等同技术的范围之内,则本发明也意图包含这些改动在内。
Claims (7)
1.一种基于混合现实的室内路径导航方法,包括移动终端(7)、无线局域网(3)、远程服务器(4)和多个远程PC(5),移动终端(7)包括移动摄像头(1)和显示屏(2),多个远程PC(5)之间通过有线网络(6)连接,其特征在于包括以下步骤:①在移动终端(7)上输入目的地,通过无线局域网(3)将目的地传输到远程PC(5)上;②移动终端(7)根据摄像头(1)拍摄的当前图像形成图像序列,通过无线局域网(3)将图像序列传输到远程PC(5)上;③远程PC(5)根据收到的图像序列,依次通过标记可靠识别、图像序列匹配、与位置模型筛选三个步骤来计算用户当前的位置信息;④远程PC(5)根据用户当前的位置信息与目的地计算形成路径导航,将该路径导航使用混合现实技术以3D立体方式叠加并通过无线局域网(4)反馈至移动终端(7)的显示屏(2)上。
2.根据权利要求1所述的基于混合现实的室内路径导航方法,其特征在于:所述第③步中,标记可靠识别过程中将输入的图像序列进行阈值分割后处理成二进制图像来凸显目标标记,得到二进制图像中的特征,然后与位置结构模型库中的结构特征进行特征配准,如果能够达成配准,即表示识别出了位置标记,进而完成初步定位,如果不能够达成配准,则返回第②步。
3.根据权利要求1所述的基于混合现实的室内路径导航方法,其特征在于:所述标记可靠识别过程中采用不同光照条件的自适应阈值算法生成二进制图像,1-10秒或64帧执行一次,其余非标记图像使用最近时间的固定阈值分割图像。
4.根据权利要求1所述的基于混合现实的室内路径导航方法,其特征在于:所述图像序列匹配过程中,根据用户在室内移动时捕捉到的图像序列构建图像序列库,图像序列匹配先按照8-60帧/秒的频率连续采样,再以8帧/秒的频率构建图像序列库。
5.根据权利要求1所述的基于混合现实的室内路径导航方法,其特征在于:所述图像序列匹配中将输入的RGB颜色空间转化成HSI颜色空间,然后从HSI色彩空间中提取前五个LAD特征,最后通过计算欧氏距离来确定当前位置。
6.根据权利要求1所述的基于混合现实的室内路径导航方法,其特征在于:所述图像序列匹配中需要计算输入图像序列的特征向量与远程PC5的位置结构模型库的第n个位置的图像序列的特征向量的相似度。
7.根据权利要求1所述的基于混合现实的室内路径导航方法,其特征在于:所述第④步中,采用分层L-K光流算法对特征点进行跟踪,对光流跟踪的结果采用RANSAC算法求得其单应性矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110406696.4A CN103162682B (zh) | 2011-12-08 | 2011-12-08 | 基于混合现实的室内路径导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110406696.4A CN103162682B (zh) | 2011-12-08 | 2011-12-08 | 基于混合现实的室内路径导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103162682A true CN103162682A (zh) | 2013-06-19 |
CN103162682B CN103162682B (zh) | 2015-10-21 |
Family
ID=48585972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110406696.4A Active CN103162682B (zh) | 2011-12-08 | 2011-12-08 | 基于混合现实的室内路径导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103162682B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103411621A (zh) * | 2013-08-09 | 2013-11-27 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
CN103697882A (zh) * | 2013-12-12 | 2014-04-02 | 深圳先进技术研究院 | 一种基于图像识别的地理三维空间定位方法和装置 |
CN104748738A (zh) * | 2013-12-31 | 2015-07-01 | 深圳先进技术研究院 | 室内定位导航方法和*** |
CN105241460A (zh) * | 2015-10-20 | 2016-01-13 | 广东欧珀移动通信有限公司 | 一种路径生成方法及用户终端 |
CN106679668A (zh) * | 2016-12-30 | 2017-05-17 | 百度在线网络技术(北京)有限公司 | 导航方法和装置 |
CN107588766A (zh) * | 2017-09-15 | 2018-01-16 | 南京轩世琪源软件科技有限公司 | 一种基于无线区域网的室内定位方法 |
CN107831920A (zh) * | 2017-10-20 | 2018-03-23 | 广州视睿电子科技有限公司 | 光标移动显示方法、装置、移动终端及存储介质 |
CN108009588A (zh) * | 2017-12-01 | 2018-05-08 | 深圳市智能现实科技有限公司 | 定位方法及装置、移动终端 |
CN108180901A (zh) * | 2017-12-08 | 2018-06-19 | 深圳先进技术研究院 | 导盲机器人的室内导航方法、装置、机器人及存储介质 |
CN109115221A (zh) * | 2018-08-02 | 2019-01-01 | 北京三快在线科技有限公司 | 室内定位、导航方法及装置、计算机可读介质和电子设备 |
CN109357673A (zh) * | 2018-10-30 | 2019-02-19 | 上海仝物云计算有限公司 | 基于图像的视觉导航方法和装置 |
CN109506658A (zh) * | 2018-12-26 | 2019-03-22 | 广州市申迪计算机***有限公司 | 机器人自主定位方法和*** |
CN111179436A (zh) * | 2019-12-26 | 2020-05-19 | 浙江省文化实业发展有限公司 | 一种基于高精度定位技术的混合现实交互*** |
TWI695966B (zh) * | 2019-01-28 | 2020-06-11 | 林器弘 | 用於移動通訊裝置之室內定位導航系統 |
CN112540673A (zh) * | 2020-12-09 | 2021-03-23 | 吉林建筑大学 | 虚拟环境交互方法及设备 |
CN113670298A (zh) * | 2019-11-27 | 2021-11-19 | 支付宝(杭州)信息技术有限公司 | 基于增强现实的业务办理引导方法以及装置 |
CN114334119A (zh) * | 2022-03-14 | 2022-04-12 | 北京融威众邦电子技术有限公司 | 一种智能自助服务终端 |
CN114697870A (zh) * | 2022-03-11 | 2022-07-01 | 北京西南风信息技术有限公司 | 展会中人员定位与筛选匹配方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1569558A (zh) * | 2003-07-22 | 2005-01-26 | 中国科学院自动化研究所 | 基于图像表现特征的移动机器人视觉导航方法 |
US20090289956A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Virtual billboards |
CN101976461A (zh) * | 2010-10-25 | 2011-02-16 | 北京理工大学 | 一种新的户外增强现实无标跟踪注册算法 |
CN102006548A (zh) * | 2009-09-02 | 2011-04-06 | 索尼公司 | 信息提供方法、设备和***、信息显示方法和移动终端 |
-
2011
- 2011-12-08 CN CN201110406696.4A patent/CN103162682B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1569558A (zh) * | 2003-07-22 | 2005-01-26 | 中国科学院自动化研究所 | 基于图像表现特征的移动机器人视觉导航方法 |
US20090289956A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Virtual billboards |
CN102006548A (zh) * | 2009-09-02 | 2011-04-06 | 索尼公司 | 信息提供方法、设备和***、信息显示方法和移动终端 |
CN101976461A (zh) * | 2010-10-25 | 2011-02-16 | 北京理工大学 | 一种新的户外增强现实无标跟踪注册算法 |
Non-Patent Citations (3)
Title |
---|
任鹏: "增强现实中基于视觉的跟踪配准技术的研究", 《中国优秀硕士学位论文全文数据库》 * |
林聚财等: "基于彩色图像的玻璃绝缘子缺陷诊断", 《电网技术》 * |
董子龙: "面向增强现实的实时三维跟踪", 《中国博士学位论文全文数据库》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103411621B (zh) * | 2013-08-09 | 2016-02-10 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
CN103411621A (zh) * | 2013-08-09 | 2013-11-27 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
CN103697882A (zh) * | 2013-12-12 | 2014-04-02 | 深圳先进技术研究院 | 一种基于图像识别的地理三维空间定位方法和装置 |
CN104748738A (zh) * | 2013-12-31 | 2015-07-01 | 深圳先进技术研究院 | 室内定位导航方法和*** |
CN104748738B (zh) * | 2013-12-31 | 2018-06-15 | 深圳先进技术研究院 | 室内定位导航方法和*** |
CN105241460A (zh) * | 2015-10-20 | 2016-01-13 | 广东欧珀移动通信有限公司 | 一种路径生成方法及用户终端 |
CN106679668B (zh) * | 2016-12-30 | 2018-08-03 | 百度在线网络技术(北京)有限公司 | 导航方法和装置 |
CN106679668A (zh) * | 2016-12-30 | 2017-05-17 | 百度在线网络技术(北京)有限公司 | 导航方法和装置 |
CN107588766A (zh) * | 2017-09-15 | 2018-01-16 | 南京轩世琪源软件科技有限公司 | 一种基于无线区域网的室内定位方法 |
CN107831920A (zh) * | 2017-10-20 | 2018-03-23 | 广州视睿电子科技有限公司 | 光标移动显示方法、装置、移动终端及存储介质 |
CN108009588A (zh) * | 2017-12-01 | 2018-05-08 | 深圳市智能现实科技有限公司 | 定位方法及装置、移动终端 |
CN108180901A (zh) * | 2017-12-08 | 2018-06-19 | 深圳先进技术研究院 | 导盲机器人的室内导航方法、装置、机器人及存储介质 |
CN109115221A (zh) * | 2018-08-02 | 2019-01-01 | 北京三快在线科技有限公司 | 室内定位、导航方法及装置、计算机可读介质和电子设备 |
CN109357673A (zh) * | 2018-10-30 | 2019-02-19 | 上海仝物云计算有限公司 | 基于图像的视觉导航方法和装置 |
CN109506658A (zh) * | 2018-12-26 | 2019-03-22 | 广州市申迪计算机***有限公司 | 机器人自主定位方法和*** |
CN109506658B (zh) * | 2018-12-26 | 2021-06-08 | 广州市申迪计算机***有限公司 | 机器人自主定位方法和*** |
TWI695966B (zh) * | 2019-01-28 | 2020-06-11 | 林器弘 | 用於移動通訊裝置之室內定位導航系統 |
CN113670298A (zh) * | 2019-11-27 | 2021-11-19 | 支付宝(杭州)信息技术有限公司 | 基于增强现实的业务办理引导方法以及装置 |
CN111179436A (zh) * | 2019-12-26 | 2020-05-19 | 浙江省文化实业发展有限公司 | 一种基于高精度定位技术的混合现实交互*** |
CN112540673A (zh) * | 2020-12-09 | 2021-03-23 | 吉林建筑大学 | 虚拟环境交互方法及设备 |
CN114697870A (zh) * | 2022-03-11 | 2022-07-01 | 北京西南风信息技术有限公司 | 展会中人员定位与筛选匹配方法、装置、设备及介质 |
CN114334119A (zh) * | 2022-03-14 | 2022-04-12 | 北京融威众邦电子技术有限公司 | 一种智能自助服务终端 |
Also Published As
Publication number | Publication date |
---|---|
CN103162682B (zh) | 2015-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103162682B (zh) | 基于混合现实的室内路径导航方法 | |
US11252329B1 (en) | Automated determination of image acquisition locations in building interiors using multiple data capture devices | |
CN111126304B (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
Cheng et al. | Improving monocular visual SLAM in dynamic environments: an optical-flow-based approach | |
CN103901884B (zh) | 信息处理方法和信息处理设备 | |
US11632602B2 (en) | Automated determination of image acquisition locations in building interiors using multiple data capture devices | |
US9674507B2 (en) | Monocular visual SLAM with general and panorama camera movements | |
US20120075342A1 (en) | Augmenting image data based on related 3d point cloud data | |
CN104748738A (zh) | 室内定位导航方法和*** | |
EP4174772A1 (en) | Automated building floor plan generation using visual data of multiple building | |
Bettadapura et al. | Egocentric field-of-view localization using first-person point-of-view devices | |
Feng et al. | Visual Map Construction Using RGB‐D Sensors for Image‐Based Localization in Indoor Environments | |
Qian et al. | Wearable-assisted localization and inspection guidance system using egocentric stereo cameras | |
WO2017149440A1 (en) | Method, apparatus and computer program product for navigation in an indoor space | |
Schall et al. | 3D tracking in unknown environments using on-line keypoint learning for mobile augmented reality | |
Skulimowski et al. | Door detection in images of 3d scenes in an electronic travel aid for the blind | |
US11741631B2 (en) | Real-time alignment of multiple point clouds to video capture | |
Xu et al. | Indoor localization using region-based convolutional neural network | |
CN116136408A (zh) | 室内导航方法、服务器、装置和终端 | |
Li et al. | Vision-based indoor localization via a visual SLAM approach | |
Johns et al. | Urban position estimation from one dimensional visual cues | |
Tonosaki et al. | Indoor Localization by Map Matchin Using One Image of Information Board | |
Chang et al. | An Automatic Indoor Positioning Robot System Using Panorama Feature Matching. | |
KR102249380B1 (ko) | 기준 영상 정보를 이용한 cctv 장치의 공간 정보 생성 시스템 | |
EP4394701A1 (en) | Automated inter-image analysis of multiple building images for building floor plan generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |