CN113794872A - 一种基于ar智能眼镜的图像识别*** - Google Patents
一种基于ar智能眼镜的图像识别*** Download PDFInfo
- Publication number
- CN113794872A CN113794872A CN202111093228.6A CN202111093228A CN113794872A CN 113794872 A CN113794872 A CN 113794872A CN 202111093228 A CN202111093228 A CN 202111093228A CN 113794872 A CN113794872 A CN 113794872A
- Authority
- CN
- China
- Prior art keywords
- module
- image
- depth
- size
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000004891 communication Methods 0.000 claims abstract description 8
- 230000008676 import Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 13
- 239000004984 smart glass Substances 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 7
- 210000005252 bulbus oculi Anatomy 0.000 claims description 5
- 238000002360 preparation method Methods 0.000 claims description 5
- 101001093143 Homo sapiens Protein transport protein Sec61 subunit gamma Proteins 0.000 claims description 2
- 101000694017 Homo sapiens Sodium channel protein type 5 subunit alpha Proteins 0.000 claims description 2
- 101100120905 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) TDH1 gene Proteins 0.000 claims description 2
- 102100027198 Sodium channel protein type 5 subunit alpha Human genes 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 230000001179 pupillary effect Effects 0.000 claims 1
- 230000000903 blocking effect Effects 0.000 abstract 1
- 208000003028 Stuttering Diseases 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于AR智能眼镜的图像识别***,属于AR智能领域,包括红外捕捉模块、图像获取模块、图像预处理模块、第一特征获取模块、第二特征获取模块、存储模块、数据库、对比模块、搜索导入模块、GPS定位模块、线路规划模块、尺寸获取模块、判断模块、画面生成模块和显示模块,其中,所述GPS定位模块与线路规划模块通讯连接;所述红外捕捉模块与图像获取模块通讯连接,本发明能够快速识别图像,降低了AR智能眼镜的卡顿,提高了用户的使用体感,且能够精确用户位置,并清晰直观的指引用户。
Description
技术领域
本发明涉及AR智能领域,尤其涉及一种基于AR智能眼镜的图像识别***。
背景技术
图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,一般分为人脸识别与物品识别两大模块,而AR智能眼镜是利用增强现实技术将虚拟物体应用到现实场景中智能设备。
经检索,中国专利号CN202110004483.2公开了一种基于AR智能眼镜的图像识别***,虽然解决了一些图像识别的问题,但是其图像识别的速率仍然较慢,从而导致AR智能眼镜的卡顿,降低了AR智能眼镜的使用体感,且一般的AR智能眼镜不具有导航的功能,而一般的导航软件对用户位置的定位不够准确,也无法清晰直观的指引用户,因此AR智能眼镜的导航功能十分迫切,带来了***缺陷的问题。
发明内容
本发明的目的是为了解决现有技术中存在的缺陷,而提出的一种基于AR智能眼镜的图像识别***。
为了实现上述目的,本发明采用了如下技术方案:
一种基于AR智能眼镜的图像识别***,包括红外捕捉模块、图像获取模块、图像预处理模块、第一特征获取模块、第二特征获取模块、存储模块、数据库、对比模块、搜索导入模块、GPS定位模块、线路规划模块、尺寸获取模块、判断模块、画面生成模块和显示模块;
其中,所述GPS定位模块与线路规划模块通讯连接;所述红外捕捉模块与图像获取模块通讯连接。
进一步地,所述红外捕捉模块用于捕捉用户的瞳孔缩放程度,生成真实注视点,并发送至图像获取模块;所述图像获取模块用于获取景深影像,并发送至图像预处理模块和尺寸获取模块;所述图像预处理模块用于处理景深影像;其中,所述处理景深影像的具体操作为:
S1、通过模数转换器将景深影像转化为图像帧数据;
S2、对图像帧数据进行标号,形成标号帧数据;
S3、在步骤S2进行的过程中,标号完毕的标号帧数据将立即判断标号是否为奇数,若为奇数,则将标号帧数据发送至第一特征获取模块,若不为奇数,则将标号帧数据发送至第二特征获取模块;
所述第一特征获取模块用于获取标号帧数据内的特殊事物,并发送至存储模块;所述第二特征获取模块用于获取标号帧数据内的特殊事物,并发送至存储模块。
进一步地,所述特殊事物包括地标建筑和道路名称;所述生成真实注视点是采用眼球追踪技术;所述获取景深影像是采用景深摄像装置拍摄得到。
进一步地,所述存储模块用于存储特殊事物,并发送至对比模块;所述数据库用于存储地图数据,并发送至对比模块;所述对比模块用于对比特殊事物和地图数据,并生成实际位置;其中,生成实际位置的具体操作为:
SS1、计算特殊事物与地图数据的关联度值,记为a1、a2、a3……an;
SS2、判断关联度值是否合格,具体为:
A、若关联度值<90%,则不合格,记为E;
B、若关联度值≥90%,则合格,记为F;
SS3、保留F所对应的地图数据,记为实际位置,并发送至线路规划模块。
进一步地,所述a1+a2+a3+……+an=E+F,所述关联度值的计算方法采用相似性度量算法,即ROST SEAT算法。
进一步地,所述搜索导入模块用于导入搜索地名称,并发送至GPS定位模块;所述GPS定位模块用于定位搜索地,生成目标位置,并发送至线路规划模块;所述线路规划模块用于规划行进路线,并生成虚拟指向标;其中,所述生成虚拟指向标的具体过程为:
SSS1、在地图上标注实际位置和目标位置;
SSS2、规避建筑物连线目标位置和实际位置,生成预备行进路线;
SSS3、根据预备行进路线的长度,按从小到达排序,选择其中的最小值,最小值所对应的预备行进路线即为行进路线;
SSS4、根据行进路线生成指向标方向,进而生成虚拟指向标,并将虚拟指向标发送至尺寸获取模块。
进一步地,所述尺寸获取模块用于获取虚拟指向标尺寸,同时获取景深影像中实际物尺寸,并将虚拟指向标尺寸和实际物尺寸发送至判断模块;所述判断模块用于判断虚拟指向标尺寸和实际物尺寸的相似度,并依据相似度标记实际物;所述画面生成模块依据虚拟指向标替换标记后的实际物,生成播放画面,并发送至显示模块;所述显示模块用于显示播放画面。
相比于现有技术,本发明的有益效果在于:
1、本发明通过红外捕捉模块获取用户眼镜的真实注视点,并依据真实注视点拍摄景深影像,再由图像预处理模块处理景深影像,使得景深影像先分解成图像帧数据,再标号图像帧数据,形成标号帧数据,最后判断标号帧数据内的标号是否为奇数,若为奇数,则将标号帧数据发送至第一特征获取模块,若不为奇数,则将标号帧数据发送至第二特征获取模块,此过程中,标号图像帧数据和判断标号帧数据的过程同步进行,从而达到快速识别图像的目的,降低了AR智能眼镜的卡顿,提高了用户的使用体感。
2、本发明通过对比模块得到实际位置,达到精确用户位置的目的,再通过搜索导入模块导入搜索地名称,并由GPS定位模块确定目的位置,当实际位置与目标位置全部确定后,线路规划模块确定用户的行进路线,并生成虚拟指向标,再由尺寸获取模块确定景深影像中待覆盖的实际物,并用虚拟指向标覆盖,覆盖后的景深影像交由画面生成模块生成播放画面,最终由显示模块显示,达到指引用户的目的,使得指引清晰直观。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提出的一种基于AR智能眼镜的图像识别***的模块运行示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例1:
请参阅图1,本发明提供一种技术方案:一种基于AR智能眼镜的图像识别***,包括红外捕捉模块、图像获取模块、图像预处理模块、第一特征获取模块、第二特征获取模块、存储模块、数据库、对比模块、搜索导入模块、GPS定位模块、线路规划模块、尺寸获取模块、判断模块、画面生成模块和显示模块;
其中,GPS定位模块与线路规划模块通讯连接;红外捕捉模块与图像获取模块通讯连接,红外捕捉模块用于捕捉用户的瞳孔缩放程度,生成真实注视点,并发送至图像获取模块;图像获取模块用于获取景深影像,并发送至图像预处理模块和尺寸获取模块;图像预处理模块用于处理景深影像;其中,处理景深影像的具体操作为:
首先,通过模数转换器将景深影像转化为图像帧数据;其次,对图像帧数据进行标号,形成标号帧数据;最后,标号完毕的标号帧数据将立即判断标号是否为奇数,若为奇数,则将标号帧数据发送至第一特征获取模块,若不为奇数,则将标号帧数据发送至第二特征获取模块;
第一特征获取模块用于获取标号帧数据内的特殊事物,并发送至存储模块;第二特征获取模块用于获取标号帧数据内的特殊事物,并发送至存储模块,特殊事物包括地标建筑和道路名称;生成真实注视点是采用眼球追踪技术;获取景深影像是采用景深摄像装置拍摄得到。
具体的,在识别图像的过程中,红外捕捉模块通过眼球追踪技术获取用户眼镜的真实注视点,而图像获取模块内的景深摄像装置依据真实注视点拍摄景深影像,再由图像预处理模块处理景深影像,使得景深影像先分解成图像帧数据,再标号图像帧数据,形成标号帧数据,最后判断标号帧数据内的标号是否为奇数,若为奇数,则将标号帧数据发送至第一特征获取模块,若不为奇数,则将标号帧数据发送至第二特征获取模块,此过程中,标号图像帧数据和判断标号帧数据的过程同步进行,从而达到快速识别图像的目的,降低了AR智能眼镜的卡顿,提高了用户的使用体感。
实施例2:
请参阅图1,存储模块用于存储特殊事物,并发送至对比模块;数据库用于存储地图数据,并发送至对比模块;对比模块用于对比特殊事物和地图数据,并生成实际位置;其中,生成实际位置的具体操作为:
SS1、计算特殊事物与地图数据的关联度值,记为a1、a2、a3……an;
SS2、判断关联度值是否合格,具体为:
A、若关联度值<90%,则不合格,记为E;
B、若关联度值≥90%,则合格,记为F;
SS3、保留F所对应的地图数据,记为实际位置,并发送至线路规划模块,a1+a2+a3+……+an=E+F,关联度值的计算方法采用相似性度量算法,即ROST SEAT算法,搜索导入模块用于导入搜索地名称,并发送至GPS定位模块;GPS定位模块用于定位搜索地,
生成目标位置,并发送至线路规划模块;线路规划模块用于规划行进路线,并生成虚拟指向标;其中,生成虚拟指向标的具体过程为:在地图上标注实际位置和目标位置;规避建筑物连线目标位置和实际位置,生成预备行进路线;根据预备行进路线的长度,按从小到达排序,选择其中的最小值,最小值所对应的预备行进路线即为行进路线;根据行进路线生成指向标方向,进而生成虚拟指向标,并将虚拟指向标发送至尺寸获取模块,尺寸获取模块用于获取虚拟指向标尺寸,同时获取景深影像中实际物尺寸,并将虚拟指向标尺寸和实际物尺寸发送至判断模块;判断模块用于判断虚拟指向标尺寸和实际物尺寸的相似度,并依据相似度标记实际物;画面生成模块依据虚拟指向标替换标记后的实际物,生成播放画面,并发送至显示模块;显示模块用于显示播放画面。
具体的,在指引用户的过程中,第一特征获取模块和第二特征获取模块分别获取标号帧数据内的特殊事物,并将特殊事物存储于存储模块内,再由对比模块依据数据库内的地图数据对比特殊事物,从而得到实际位置,达到精确用户位置的目的,用户再通过搜索导入模块导入搜索地名称,并通过GPS定位模块确定目的位置,当实际位置与目标位置全部确定后,线路规划模块确定用户的行进路线,并生成虚拟指向标,再由尺寸获取模块确定景深影像中待覆盖的实际物,并用虚拟指向标覆盖,覆盖后的景深影像交由画面生成模块生成播放画面,最终由显示模块显示,达到指引用户的目的,使得指引清晰直观。
本发明的工作原理及使用流程:用户使用AR智能眼镜时,红外捕捉模块通过眼球追踪技术获取用户眼镜的真实注视点,而图像获取模块内的景深摄像装置依据真实注视点拍摄景深影像,再由图像预处理模块处理景深影像,使得景深影像先分解成图像帧数据,再标号图像帧数据,形成标号帧数据,最后判断标号帧数据内的标号是否为奇数,若为奇数,则将标号帧数据发送至第一特征获取模块,若不为奇数,则将标号帧数据发送至第二特征获取模块,此过程中,标号图像帧数据和判断标号帧数据的过程同步进行,从而达到快速识别图像的目的,降低了AR智能眼镜的卡顿,提高了用户的使用体感,而第一特征获取模块和第二特征获取模块分别获取标号帧数据内的特殊事物,并将特殊事物存储于存储模块内,再由对比模块依据数据库内的地图数据对比特殊事物,从而得到实际位置,达到精确用户位置的目的,用户再通过搜索导入模块导入搜索地名称,并通过GPS定位模块确定目的位置,当实际位置与目标位置全部确定后,线路规划模块确定用户的行进路线,并生成虚拟指向标,再由尺寸获取模块确定景深影像中待覆盖的实际物,并用虚拟指向标覆盖,覆盖后的景深影像交由画面生成模块生成播放画面,最终由显示模块显示,达到指引用户的目的,使得指引清晰直观,完成操作。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (7)
1.一种基于AR智能眼镜的图像识别***,其特征在于,包括红外捕捉模块、图像获取模块、图像预处理模块、第一特征获取模块、第二特征获取模块、存储模块、数据库、对比模块、搜索导入模块、GPS定位模块、线路规划模块、尺寸获取模块、判断模块、画面生成模块和显示模块;
其中,所述GPS定位模块与线路规划模块通讯连接;所述红外捕捉模块与图像获取模块通讯连接。
2.根据权利要求1所述的一种基于AR智能眼镜的图像识别***,其特征在于,所述红外捕捉模块用于捕捉用户的瞳孔缩放程度,生成真实注视点,并发送至图像获取模块;所述图像获取模块用于获取景深影像,并发送至图像预处理模块和尺寸获取模块;所述图像预处理模块用于处理景深影像;其中,所述处理景深影像的具体操作为:
S1、通过模数转换器将景深影像转化为图像帧数据;
S2、对图像帧数据进行标号,形成标号帧数据;
S3、在步骤S2进行的过程中,标号完毕的标号帧数据将立即判断标号是否为奇数,若为奇数,则将标号帧数据发送至第一特征获取模块,若不为奇数,则将标号帧数据发送至第二特征获取模块;
所述第一特征获取模块用于获取,并发送至存储模块;所述第二特征获取模块用于获取标号帧数据内的特殊事物,并发送至存储模块。
3.根据权利要求2所述的一种基于AR智能眼镜的图像识别***,其特征在于,所述特殊事物包括地标建筑和道路名称;所述生成真实注视点是采用眼球追踪技术;所述获取景深影像是采用景深摄像装置拍摄得到。
4.根据权利要求1所述的一种基于AR智能眼镜的图像识别***,其特征在于,所述存储模块用于存储特殊事物,并发送至对比模块;所述数据库用于存储地图数据,并发送至对比模块;所述对比模块用于对比特殊事物和地图数据,并生成实际位置;其中,生成实际位置的具体操作为:
SS1、计算特殊事物与地图数据的关联度值,记为a1、a2、a3……an;
SS2、判断关联度值是否合格,具体为:
A、若关联度值<90%,则不合格,记为E;
B、若关联度值≥90%,则合格,记为F;
SS3、保留F所对应的地图数据,记为实际位置,并发送至线路规划模块。
5.根据权利要求4所述的一种基于AR智能眼镜的图像识别***,其特征在于,所述a1+a2+a3+……+an=E+F,所述关联度值的计算方法采用相似性度量算法,即ROST SEAT算法。
6.根据权利要求1所述的一种基于AR智能眼镜的图像识别***,其特征在于,所述搜索导入模块用于导入搜索地名称,并发送至GPS定位模块;所述GPS定位模块用于定位搜索地,生成目标位置,并发送至线路规划模块;所述线路规划模块用于规划行进路线,并生成虚拟指向标;其中,所述生成虚拟指向标的具体过程为:
SSS1、在地图上标注实际位置和目标位置;
SSS2、规避建筑物连线目标位置和实际位置,生成预备行进路线;
SSS3、根据预备行进路线的长度,按从小到达排序,选择其中的最小值,最小值所对应的预备行进路线即为行进路线;
SSS4、根据行进路线生成指向标方向,进而生成虚拟指向标,并将虚拟指向标发送至尺寸获取模块。
7.根据权利要求1所述的一种基于AR智能眼镜的图像识别***,其特征在于,所述尺寸获取模块用于获取虚拟指向标尺寸,同时获取景深影像中实际物尺寸,并将虚拟指向标尺寸和实际物尺寸发送至判断模块;所述判断模块用于判断虚拟指向标尺寸和实际物尺寸的相似度,并依据相似度标记实际物;所述画面生成模块依据虚拟指向标替换标记后的实际物,生成播放画面,并发送至显示模块;所述显示模块用于显示播放画面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111093228.6A CN113794872A (zh) | 2021-09-17 | 2021-09-17 | 一种基于ar智能眼镜的图像识别*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111093228.6A CN113794872A (zh) | 2021-09-17 | 2021-09-17 | 一种基于ar智能眼镜的图像识别*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113794872A true CN113794872A (zh) | 2021-12-14 |
Family
ID=78878774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111093228.6A Pending CN113794872A (zh) | 2021-09-17 | 2021-09-17 | 一种基于ar智能眼镜的图像识别*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113794872A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116546182A (zh) * | 2023-07-05 | 2023-08-04 | 中数元宇数字科技(上海)有限公司 | 视频处理方法、装置、设备以及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102829788A (zh) * | 2012-08-27 | 2012-12-19 | 北京百度网讯科技有限公司 | 一种实景导航方法和实景导航装置 |
CN103335657A (zh) * | 2013-05-30 | 2013-10-02 | 佛山电视台南海分台 | 一种基于图像捕获和识别技术增强导航功能的方法和*** |
KR20140014868A (ko) * | 2012-07-26 | 2014-02-06 | 엘지이노텍 주식회사 | 시선 추적 장치 및 이의 시선 추적 방법 |
JP2016087291A (ja) * | 2014-11-10 | 2016-05-23 | パナソニックIpマネジメント株式会社 | 瞳孔・視線計測装置および照明システム |
CN108877344A (zh) * | 2018-07-20 | 2018-11-23 | 荆明明 | 一种基于增强现实技术的多功能英语学习*** |
-
2021
- 2021-09-17 CN CN202111093228.6A patent/CN113794872A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140014868A (ko) * | 2012-07-26 | 2014-02-06 | 엘지이노텍 주식회사 | 시선 추적 장치 및 이의 시선 추적 방법 |
CN102829788A (zh) * | 2012-08-27 | 2012-12-19 | 北京百度网讯科技有限公司 | 一种实景导航方法和实景导航装置 |
CN103335657A (zh) * | 2013-05-30 | 2013-10-02 | 佛山电视台南海分台 | 一种基于图像捕获和识别技术增强导航功能的方法和*** |
JP2016087291A (ja) * | 2014-11-10 | 2016-05-23 | パナソニックIpマネジメント株式会社 | 瞳孔・視線計測装置および照明システム |
CN108877344A (zh) * | 2018-07-20 | 2018-11-23 | 荆明明 | 一种基于增强现实技术的多功能英语学习*** |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116546182A (zh) * | 2023-07-05 | 2023-08-04 | 中数元宇数字科技(上海)有限公司 | 视频处理方法、装置、设备以及存储介质 |
CN116546182B (zh) * | 2023-07-05 | 2023-09-12 | 中数元宇数字科技(上海)有限公司 | 视频处理方法、装置、设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109947975B (zh) | 图像检索装置、图像检索方法及其中使用的设定画面 | |
US10473465B2 (en) | System and method for creating, storing and utilizing images of a geographical location | |
CN107025662B (zh) | 一种实现增强现实的方法、服务器、终端及*** | |
JP6296056B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN109582880B (zh) | 兴趣点信息处理方法、装置、终端及存储介质 | |
US10972864B2 (en) | Information recommendation method, apparatus, device and computer readable storage medium | |
CN110672111B (zh) | 车辆行车路径规划方法、装置、***、介质和设备 | |
EP2450667A1 (en) | Vision system and method of analyzing an image | |
CN104748738A (zh) | 室内定位导航方法和*** | |
CN111860352B (zh) | 一种多镜头车辆轨迹全跟踪***及方法 | |
JP2009003415A (ja) | 地図データ更新方法および装置 | |
EP4174716A1 (en) | Pedestrian tracking method and device, and computer readable storage medium | |
CN108388649B (zh) | 处理音视频的方法、***、设备及存储介质 | |
CN107710280A (zh) | 对象可视化方法 | |
CN110456904B (zh) | 一种无需标定的增强现实眼镜眼动交互方法及*** | |
KR100489890B1 (ko) | 스테레오 비디오 또는/및 지리객체의 상세정보 제공 장치및 그방법 | |
CN107977082A (zh) | 一种用于呈现ar信息的方法及*** | |
CN111947663A (zh) | 视觉定位数字地图ar导航***和方法 | |
CN113794872A (zh) | 一种基于ar智能眼镜的图像识别*** | |
CN113597614A (zh) | 图像处理方法和装置、电子设备及存储介质 | |
KR102029741B1 (ko) | 객체를 추적하는 방법 및 시스템 | |
JP2000148381A (ja) | 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体 | |
KR20180068483A (ko) | 도로표지판의 위치정보 데이터베이스 구축 시스템 및 그 방법과 이를 이용한 차량의 위치 추정 장치 및 그 방법 | |
CN114743026A (zh) | 目标对象的方位检测方法、装置、设备及计算机可读介质 | |
CN112560620B (zh) | 一种基于目标检测和特征融合的目标跟踪方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |