CN114816049A - 一种增强现实的引导方法及装置、电子设备、存储介质 - Google Patents

一种增强现实的引导方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN114816049A
CN114816049A CN202210334277.2A CN202210334277A CN114816049A CN 114816049 A CN114816049 A CN 114816049A CN 202210334277 A CN202210334277 A CN 202210334277A CN 114816049 A CN114816049 A CN 114816049A
Authority
CN
China
Prior art keywords
image
environment
guidance
determining
environmental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210334277.2A
Other languages
English (en)
Inventor
林眉子
班如庆
刘颖慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN202210334277.2A priority Critical patent/CN114816049A/zh
Publication of CN114816049A publication Critical patent/CN114816049A/zh
Priority to US18/180,265 priority patent/US20230316678A1/en
Priority to DE102023106947.0A priority patent/DE102023106947A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例公开了一种增强现实的引导方法,应用于增强现实设备,所述方法包括:获取实时的环境图像和所述环境图像中用户视线的焦点;基于所述实时的环境图像,确定引导标识序列;基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。本申请实施例还同时提供了一种增强现实的引导装置、电子设备及存储介质。

Description

一种增强现实的引导方法及装置、电子设备、存储介质
技术领域
本申请涉及电子设备技术领域,涉及但不限定于一种增强现实的引导方法及装置、电子设备、存储介质。
背景技术
随着技术的进步,增强现实(Augmented Reality,AR)技术更多地走进了用户的生活中,为用户带来了全新的体验。AR技术能够将虚拟的物体应用到真实的环境,使得真实的环境和虚拟的物体实时地叠加到同一个画面或空间中。将AR技术结合计算机视觉算法应用在AR设备中,能够对显示在AR设备中的场景进行物体识别和环境识别,增加了AR设备的智能化和科技感。相关技术通过在AR设备中,例如,AR眼镜中,显示需要识别的二维场景图片或者三维场景模型,引导用户观察环境。然而,该过程需要对不同场景制作二维场景图片或者三维场景模型,工作量大;同时,由于AR设备的视场角(Field of View,FOV)较小,展示二维场景图片或者三维场景模型会占用视场角中的大部分区域,导致用户体验差。
发明内容
本申请实施例提供一种增强现实的引导方法及装置、电子设备、存储介质。
本申请实施例的技术方案是这样实现的:
第一方面,本申请实施例提供一种增强现实的引导方法,应用于增强现实设备,所述方法包括:
获取实时的环境图像和所述环境图像中用户视线的焦点;
基于所述实时的环境图像,确定引导标识序列;
基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
第二方面,本申请实施例提供一种增强现实的引导装置,所述装置包括:
获取模块,用于获取实时的环境图像和所述环境图像中用户视线的焦点;
确定模块,用于基于所述实时的环境图像,确定引导标识序列;
显示模块,用于基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
第三方面,本申请实施例提供一种电子设备,一个或多个处理器;存储器;安装有多个应用程序的模块;以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,当所述一个或者多个程序被所述处理器执行时,使得所述电子设备执行所述程序时实现上述方法中的步骤。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可读存储介质中存储有计算机可执行指令,该计算机可执行指令配置为执行上述提供的智能服务共享的方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
在本申请实施例中,基于所述实时的环境图像,确定引导标识序列;基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。这样,一方面,能够通过显示的引导动画,引导用户视线的焦点观察实时的环境图像中环境特征点丰富的区域,从而提升用户视觉体验。另一方面,通过显示的引导动画引导用户,不需要增加指示性的二维场景图像或者三维场景模型、减少图像编辑和制作的工作量和屏幕的拥挤感,提升场景识别的效率,从而提升了用户AR场景识别的体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1A为本申请实施例提供的一种增强现实的引导方法的流程示意图;
图1B为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图1C为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图1D为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图1E为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图1F为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图1G为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图2为本申请实施例提供的一种增强现实的引导方法的流程示意图;
图3为本申请实施例提供的一种增强现实的引导方法的流程示意图;
图4A为本申请实施例提供的一种增强现实的引导方法的逻辑流程图;
图4B为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图5为本申请实施例提供的一种增强现实的引导方法的流程示意图;
图6为本申请实施例提供的一种增强现实的引导方法的应用场景示意图;
图7为本申请实施例提供的一种增强现实的引导装置的组成结构示意图;
图8为本申请实施例提供的一种电子设备的硬件实体示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。以下实施例用于说明本申请,但不用来限制本申请的范围。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
需要指出,本申请实施例所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请实施例所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
图1A为本申请实施例提供的一种增强现实的引导方法的流程示意图,如图1A所示,所述方法至少包括以下步骤:
步骤S101,获取实时的环境图像和所述环境图像中用户视线的焦点;
这里,所述实时的环境图像可以为:通过AR设备的摄像头实时采集的设备视场角(Field of View,FOV)内的环境图像。示例性地,开始场景识别,AR设备启动摄像头,实时拍摄环境图像,环境图像中包括摄像头采集到的AR设备周围的环境,例如,产品生产线上的机器、正在生产的产品、产品生产线上的安全标识和生产标语等。
这里,所述用户视线的焦点可以为FOV中的任意一点。示例性地,如图1B所示,开始场景识别,在FOV中心有个视觉识别的聚焦点,引导用户视线的焦点关注。
步骤S102,基于所述实时的环境图像,确定引导标识序列;
这里,所述引导标识序列中的引导标识用于引导用户视线的焦点停留在环境图像中环境特征点密度较高的区域,提升用户的AR使用体验。这里,所述环境特征点可以包括;产品生产线上的机器、正在生产的产品、产品生产线上的安全标识和生产标语中的边(edges)、角(corners)和斑点(blobs)。
这里,所述基于所述实时的环境图像,确定引导标识序列包括:将所述实时的环境图像划分为至少一个图像区域,确定所述至少一个图像区域的环境特征点的密度,基于所述密度,确定引导标识序列。
示例性地,如图1D所示,环境图像中包括4个图像区域:区域11、区域12、区域13和区域14;其中,4个图像区域中环境特征点的密度从高到低的排序为:区域11、区域12、区域13和区域14;如图1E所示,引导标识的顺序为:区域11为序列中的1标识、区域12为序列中的2标识、区域13为序列中的3标识、区域14为序列中的4标识。
步骤S103,基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
这里,所述引导动画为可以基于用户界面(User Interface,UI)的动画效果。如图1F所示,所述动画效果可以包括在图像区域上显示的圆圈15;如图1G所示,所示动画效果还可以包括用户指示用户视线的焦点从1标识移动到2标识的弧线16。
在上述实施例中,基于所述实时的环境图像,确定引导标识序列;基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。这样,一方面,能够通过显示的引导动画,引导用户视线的焦点观察实时的环境图像中环境特征点丰富的区域,从而提升用户视觉体验。另一方面,通过显示的引导动画引导用户,不需要增加指示性的二维场景图像或者三维场景模型、减少图像编辑和制作的工作量和屏幕的拥挤感,提升场景识别的效率,从而提升了用户AR场景识别的体验。
图2为本申请实施例提供的一种增强现实的引导方法的流程示意图,如图2所示,所述方法至少包括以下步骤:
步骤S201,获取实时的环境图像和所述环境图像中用户视线的焦点;
步骤S202,对所述实时的环境图像进行图像识别,得到第一环境特征点集合;
这里,可以通过深度学习的方法进行图像识别,获取第一环境特征点。例如,对实时的环境图像进行卷积神经网络,残差网络的学习,识别出场景中生产标识的边和角等特征点。
步骤S203,基于所述第一环境特征点集合,确定引导标识序列;
在一种可以实现的方式中,可以通过第一环境特征点集合重建二维图像平面,将重建后的二维图像平面划分为至少一个图像区域,在每一所示图像区域上生成一个引导标识;确定每个区域对应的特征点的密度,基于所述密度对至少一个引导标识进行排序,得到引导标识序列。
在另一种可以实现的方式中,可以通过对第一环境特征点集合中的特征点进行筛选,得到筛选后的第二环境特征点集合;基于所述第二环境特征点集合,确定引导标识序列。
步骤S204,基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
在上述实施例中,通过对所述实时的环境图像进行图像识别,得到第一环境特征点集合;基于所述第一环境特征点集合,确定引导标识序列。这样,能够引导用户查看环境特征点丰富的图像区域,提升场景识别效率。
图3为本申请实施例提供的一种增强现实的引导方法的流程示意图,如图3所示,所述方法至少包括以下步骤:
步骤S301,获取实时的环境图像和所述环境图像中用户视线的焦点;
步骤S302,对所述实时的环境图像进行图像识别,得到第一环境特征点集合;
步骤S303,获取与所述实时环境图像对应的标记样本图像;
这里,所述标记样本图像可以为标记了环境特征点的样本环境图像,例如,可以为标记了生产标语中的边和角的图像。
步骤S304,基于所述标记样本图像,对所述第一环境特征点集合中的环境特征点进行筛选,得到第二环境特征点集合;
在一种可以实施的方式中,所述步骤S304,包括:
S3041,确定所述标记样本图像中每一环境特征点的特征描述子,得到第一特征描述子集合;
这里,所述特征描述子为用于描述特征点的向量,例如,在描述角特征点时,所述特征描述子可以包括角度等参数的向量。
这里,所述第一特征描述子集合中每一特征描述子用于对应的描述所述标记样本图像中每一环境特征点。
S3042,确定所述第一环境特征点集合中每一所述环境特征点的特征描述子,得到第二特征描述子集合;
S3043,确定所述第一特征描述子集合中每一特征描述子与所述第二特征描述子集合中每一特征描述子的相似度;
在一种可以实现的方式中,可以通过相似度计算的方式匹配同一个场景中的标记样本图像和实时的环境图像;将标记样本图像中的每一个特征描述子与实时的环境图像中的每一个特征描述子进行比较,例如,计算特征描述子之间的欧式距离,得分最高的一对特征描述子,就是距离最近的两个环境特征点,即为最匹配的特征。
S3044,将每一所述相似度满足相似度阈值的环境特征点确定为所述第二环境特征点集合中的元素。
在一种可以实现的方式中,可以将相似度大于阈值的特征点保留,筛选掉相似度不满足阈值的特征点,从而过滤掉相似度不满足相似度阈值的环境特征点,只保留相似度更高的环境特征点,得到第二环境特征点集合。
步骤S305,基于所述第二环境特征点集合,确定第一环境图像;所述第一环境图像包括至少一个图像区域;每一所述图像区域中环境特征点的密度大于密度阈值;
在一种可以实施的方式中,所述步骤S305,包括:
步骤S3051,基于所述第二环境特征点集合,重建第二环境图像;
示例性地,通过第二环境特征点集合中的环境特征点数据建立二维图像平面,在所述二维图像平面中过滤掉了相似度不高的环境特征点,从而过滤了非标记的环境特征点。
步骤S3052,将所述第二环境图像划分为至少一个图像区域;
在一种可以实现的方式中,对二维图像平面进行区域划分之后,可以对每一所述图像区域添加索引,以通过所述索引确定不同的图像区域。
步骤S3053,确定所述至少一个图像区域中环境特征点的密度;
步骤S3054,将每一所述环境特征点的密度大于密度阈值的区域确定为所述第一环境图像的图像区域。
在一种可以实现的方式中,可以通过稀疏度计算过滤非核心的图像区域;然后基于密度聚类算法进一步对获取的环境特征点满足密度阈值的核心图像区域进行聚合和边界优化,过滤边缘样本和图像噪点,得到环境特征点在二维图像上密集的图像区域。
步骤S306,基于所述至少一个图像区域,确定引导标识序列;
在一种可以实施的方式中,每一所述图像区域对应一个引导标识;所述步骤S306,包括:
步骤S3061,基于每一所述图像区域中环境特征点的密度对所述至少一个图像区域进行排序,得到所述至少一个图像区域的观察顺序;
步骤S3062,基于所述观察顺序,确定所述引导标识的顺序,得到引导标识序列。
步骤S307,基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
示例性地,通过图像区域的环境特征点的密集程度,将每个图像区域按照密集程度从大到小排序,从而确定引导标识的顺序,得到一个密集到稀疏的引导标识序列,从而通过可实时变换的UI的动画效果引导用户通过根据标识序列观察相应的图像区域,引导用户查看环境特征点丰富的方向,这样可以有效的提高场景识别的准确度。
在上述实施例中,通过基于所述标记样本图像,对所述第一环境特征点集合中的环境特征点进行筛选,得到第二环境特征点集合;基于所述第二环境特征点集合,确定第一环境图像;所述第一环境图像包括至少一个图像区域;每一所述图像区域中环境特征点的密度大于密度阈值;基于所述至少一个图像区域,确定引导标识序列。这样,能够通过对环境特征点的筛选、对图像区域的筛选对特征点不丰富的图像区域进行过滤,降低图像的早点,得到特征点密集的区域,引导用户观察环境特征点丰富的方向,增强引导的有效性,优化用户对场景识别的体验感。
图4A为本申请实施例提供的一种增强现实的引导方法的流程示意图,如图4A所示,所述方法至少包括以下步骤:
步骤S401,获取所述用户视线的焦点的目标位置;
步骤S402,获取所述目标位置上的环境图像;
步骤S403,在检测到所述目标位置上的环境图像中不包括环境特征点的情况下,输出移动位置的提示信息。
示例性地,如图4B所示,当实时环境图像中环境特征点密度低,展示提示信息41,提示加载失败,引导用户移动位置。
在一种可以实现的方式中,所述方法还包括:步骤S404,在检测到所述用户视线的焦点与所述目标位置重合的情况下,输出定位成功的提示信息。
步骤S405,获取实时的环境图像和所述环境图像中用户视线的焦点;
步骤S406,基于所述实时的环境图像,确定引导标识序列;
在一种可以实现的方式中,所述方法还包括:基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识;
在一种可以实现的方式中,所述方法还包括:在所述用户视线的焦点从所述当前引导标识移动至所述下一引导标识的情况下,环境识别成功,停止显示所述引导动画。
步骤S407,在所述用户视线的焦点未从所述当前引导标识移动至所述下一引导标识的情况下,循环显示所述至少一个引导动画。
在上述实施例中,通过在所述用户视线的焦点未从所述当前引导标识移动至所述下一引导标识的情况下,循环显示所述至少一个引导动画,能够重复提示用户视线移动的方向,增强用户场景识别的体验。
随着技术的进步,增强现实技术更多地走进了用户的生活中,为用户带来了全新的体验。AR技术能够将虚拟的物体应用到真实的环境,使得真实的环境和虚拟的物体实时地叠加到同一个画面或空间中。将AR技术结合计算机视觉算法应用在AR设备中,能够对显示在AR设备中的场景进行物体识别和环境识别,增加了AR设备的智能化和科技感。相关技术通过在AR设备中,例如,AR眼镜中,显示需要识别的二维场景图片或者三维场景模型,引导用户观察环境。
然而,上述过程需要对不同场景制作二维场景图片或者三维场景模型,工作量大;同时,由于AR设备的视场角(Field of View,FOV)较小,展示二维场景图片或者三维场景模型会占用视场角中的大部分区域,导致用户体验差。
为解决上述问题,本申请提供一种增强现实的引导方法,应用于增强现实设备,如图5所示,所述方法包括:
步骤S501,启动增强现实设备,开始识别场景;
步骤S502,获取实时的环境图像;
步骤S503,环境特征点分析;
这里,通过对所述实时的环境图像进行环境特征点分析,得到第一环境特征点集合;
在一种可以实现的方式中,所述步骤S503,包括:对所述实时的环境图像进行图像识别,得到第一环境特征点集合。
步骤S504,环境特征点筛选;
这里,通过对所述第一环境特征点集合中的环境特征点进行筛选,得到第二环境特征点集合;
步骤S505,稀疏度过滤和密度聚类;
这里,通过基于稀疏度和/或密度聚类,确定第二环境特征点集合;
步骤S506,确定引导标识序列;
步骤S507,显示UI引导动画;
步骤S508,完成场景识别。
这里,所述步骤S501至步骤S505通过算法层实现;所述步骤S505至步骤S508通过应用层实现。
这里,所述算法层:开始场景识别时,AR设备启动摄像头,实时拍摄环境图像,环境图像中包括摄像头采集到的AR设备周围的环境,例如,产品生产线上的机器、正在生产的产品、产品生产线上的安全标识和生产语等。通过深度学习获取环境特征点,可以为边、角或斑点,再针对各环境特征点提取相应的特征描述子,最后进行环境特征点匹配,通过欧氏距离比较,过滤掉欧式距离比较结果不满足距离阈值的环境特征点,保留欧式距离比较结果满足距离阈值的环境特征点,得到第二环境特征点集合。
所述应用层:实时获取来自算法层的第二环境特征点集合,通过第二环境特征点集合中的环境特征点数据建立二维图像平面,对2D图像平面进行区域划分,对每一图像区域添加索引,并通过稀疏度计算过滤非核心的图像区域;然后基于密度聚类算法进一步对获取的环境特征点满足密度阈值的核心图像区域进行聚合和边界优化,过滤边缘样本和图像噪点,得到环境特征点在二维图像上密集的图像区域。通过图像区域的环境特征点的密集程度,将每个图像区域按照密集程度从大到小排序,从而确定出引导标识的顺序,得到一个密集到稀疏的引导标识序列,从而通过可实时变换的UI的动画效果引导用户通过根据标识序列观察相应的图像区域,引导用户查看环境特征点丰富的方向,这样可以有效的提高场景识别的准确度,同时也能优化用户对场景识别的体验感。
示例性地,如图1B所示,开始场景识别,在FOV101中心有个视觉识别的聚焦点,引导用户视线的焦点关注。同时算法层开始分析实时环境图像,获取环境特征点,并传递给应用层。引导动画如图1C中圆圈17所示。
示例性地,通过环视引导,判断当前环境质量,同时让用户自然的完成左右头动查看动作,环视引导:环境图像中信息展示类型为C类:追随视野,应用层根据取到的环境特征点密度排序,密度最高的位置为引导标识起始点,在界面显示引导动画,用户视线焦点注视引导动画后,引导动画向对角线位置指引。
示例性地,环视过程中能够拓展用户视线的区域,在完成环视后,根据新拓展的环境特征点密度确定后续的指引位置,引导用户跟随UI引导动画向特征丰富区域查看,环境图像中信息展示类型为A类:追随空间时,在前方视角120°的范围内,如图6所示,根据环境特征点反馈在空间中出现圆圈61,引导用户视线的焦点移动,如用户未跟随查看,2秒后射线引导动画循环指引。
在上述实施例中,通过对实时的环境图像进行图像识别,或者,环境识别,得到环境特征点;对环境特征点进行过滤;将过滤后的特征点通过界面(UI)设计显示在屏幕上,引导用户查看特征点丰富的位置,提升用户体验。
基于前述的实施例,本申请实施例再提供一种增强现实的引导装置,所述控制装置包括所包括的各模块,可以通过电子设备中的处理器来实现;当然也可通过具体的逻辑电路实现;在实施的过程中,处理器可以为中央处理器(Central Processing Unit,CPU)、微处理器(Micro Processing Unit,MPU)、数字信号处理器(Digital Signal Processor,DSP)或现场可编程门阵列(Field Programmable Gate Array,FPGA)等。
图7为本申请实施例提供的一种增强现实的引导装置的组成结构示意图,如图7所示,所述装置700包括获取模块701、确定模块702和显示模块703,其中:
所述获取模块701,用于获取实时的环境图像和所述环境图像中用户视线的焦点;
所述确定模块702,用于基于所述实时的环境图像,确定引导标识序列;
所述显示模块703,用于基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
在一些可能的实施例中,所述确定模块702,还用于:对所述实时的环境图像进行图像识别,得到第一环境特征点集合;基于所述第一环境特征点集合,确定引导标识序列。
在一些可能的实施例中,所述确定模块702,包括:获取子模块,用于获取与所述实时环境图像对应的标记样本图像;筛选子模块,用于基于所述标记样本图像,对所述第一环境特征点集合中的环境特征点进行筛选,得到第二环境特征点集合;第一确定子模块,用于基于所述第二环境特征点集合,确定第一环境图像;所述第一环境图像包括至少一个图像区域;每一所述图像区域中环境特征点的密度大于密度阈值;第二确定子模块,用于基于所述至少一个图像区域,确定引导标识序列。
在一些可能的实施例中,所述筛选子模块,还用于:确定所述标记样本图像中每一环境特征点的特征描述子,得到第一特征描述子集合;确定所述第一环境特征点集合中每一所述环境特征点的特征描述子,得到第二特征描述子集合;确定所述第一特征描述子集合中每一特征描述子与所述第二特征描述子集合中每一特征描述子的相似度;将每一所述相似度满足相似度阈值的环境特征点确定为所述第二环境特征点集合中的元素。
在一些可能的实施例中,所述第一确定子模块,还用于:基于所述第二环境特征点集合,重建第二环境图像;将所述第二环境图像划分为至少一个图像区域;确定所述至少一个图像区域中环境特征点的密度;将每一所述环境特征点的密度大于密度阈值的区域确定为所述第一环境图像的图像区域。
在一些可能的实施例中,每一所述图像区域对应一个引导标识;所述第二确定子模块,还用于:基于每一所述图像区域中环境特征点的密度对所述至少一个图像区域进行排序,得到所述至少一个图像区域的观察顺序;基于所述观察顺序,确定所述引导标识的顺序,得到引导标识序列。
在一些可能的实施例中,所述显示模块703还用于:在所述用户视线的焦点未从所述当前引导标识移动至所述下一引导标识的情况下,循环显示所述至少一个引导动画。
在一些可能的实施例中,获取模块701,还用于:获取所述用户视线的焦点的目标位置;获取所述目标位置上的环境图像;所述显示模块703还用于:在检测到所述目标位置上的环境图像中不包括环境特征点的情况下,输出移动位置的提示信息。
这里需要指出的是:以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请装置实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
需要说明的是,本申请实施例中,如果以软件功能模块的形式实现上述增强现实的引导方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得电子设备(可以是具有摄像头的智能手机、平板电脑等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read OnlyMemory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本申请实施例不限制于任何特定的硬件和软件结合。
对应地,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中任一所述增强现实的引导方法中的步骤。
对应地,本申请实施例中,还提供了一种芯片,所述芯片包括可编程逻辑电路和/或程序指令,当所述芯片运行时,用于实现上述实施例中任一所述增强现实的引导方法中的步骤。
对应地,本申请实施例中,还提供了一种计算机程序产品,当该计算机程序产品被电子设备的处理器执行时,其用于实现上述实施例中任一所述增强现实的引导方法中的步骤。
基于同一技术构思,本申请实施例提供一种电子设备,用于实施上述方法实施例记载的增强现实的引导方法。图8为本申请实施例提供的一种电子设备的硬件实体示意图,如图8所示,所述电子设备800包括存储器810和处理器820,所述存储器810存储有可在处理器820上运行的计算机程序,所述处理器820执行所述程序时实现本申请实施例任一所述增强现实的引导方法中的步骤。
存储器810配置为存储由处理器820可执行的指令和应用,还可以缓存待处理器820以及电子设备中各模块待处理或已经处理的数据(例如,图像数据、音频数据、语音通信数据和视频通信数据),可以通过闪存(FLASH)或随机访问存储器(Random Access Memory,RAM)实现。
处理器820执行程序时实现上述任一项的增强现实的引导方法的步骤。处理器820通常控制电子设备800的总体操作。
上述处理器可以为特定用途集成电路(应用程序lication Specific IntegratedCircuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(Programmable LogicDevice,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。可以理解地,实现上述处理器功能的电子器件还可以为其它,本申请实施例不作具体限定。
上述计算机存储介质/存储器可以是只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种电子设备,如移动电话、计算机、平板设备、个人数字助理等。
这里需要指出的是:以上存储介质和设备实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请存储介质和设备实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本申请实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得设备自动测试线执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种增强现实的引导方法,应用于增强现实设备,所述方法包括:
获取实时的环境图像和所述环境图像中用户视线的焦点;
基于所述实时的环境图像,确定引导标识序列;
基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
2.根据权利要求1所述的方法,所述基于所述实时的环境图像,确定引导标识序列,包括:
对所述实时的环境图像进行图像识别,得到第一环境特征点集合;
基于所述第一环境特征点集合,确定引导标识序列。
3.根据权利要求2所述的方法,所述基于所述第一环境特征点集合,确定引导标识序列,包括:
获取与所述实时环境图像对应的标记样本图像;
基于所述标记样本图像,对所述第一环境特征点集合中的环境特征点进行筛选,得到第二环境特征点集合;
基于所述第二环境特征点集合,确定第一环境图像;所述第一环境图像包括至少一个图像区域;每一所述图像区域中环境特征点的密度大于密度阈值;
基于所述至少一个图像区域,确定引导标识序列。
4.如权利要求3所述的方法,所述基于所述标记样本图像,对所述第一环境特征点集合中的环境特征点进行筛选,得到第二环境特征点集合,包括:
确定所述标记样本图像中每一环境特征点的特征描述子,得到第一特征描述子集合;
确定所述第一环境特征点集合中每一所述环境特征点的特征描述子,得到第二特征描述子集合;
确定所述第一特征描述子集合中每一特征描述子与所述第二特征描述子集合中每一特征描述子的相似度;
将每一所述相似度满足相似度阈值的环境特征点确定为所述第二环境特征点集合中的元素。
5.如权利要求3所述的方法,所述基于所述第二环境特征点集合,确定第一环境图像,包括:
基于所述第二环境特征点集合,重建第二环境图像;
将所述第二环境图像划分为至少一个图像区域;
确定所述至少一个图像区域中环境特征点的密度;
将每一所述环境特征点的密度大于密度阈值的区域确定为所述第一环境图像的图像区域。
6.如权利要求3所述的方法,每一所述图像区域对应一个引导标识;所述基于所述至少一个图像区域,确定引导标识序列,包括:
基于每一所述图像区域中环境特征点的密度对所述至少一个图像区域进行排序,得到所述至少一个图像区域的观察顺序;
基于所述观察顺序,确定所述引导标识的顺序,得到引导标识序列。
7.如权利要求1至6任一项所述的方法,所述方法还包括:
在所述用户视线的焦点未从所述当前引导标识移动至所述下一引导标识的情况下,循环显示所述至少一个引导动画。
8.如权利要求1至6任一项所述的方法,所述方法还包括:
获取所述用户视线的焦点的目标位置;
获取所述目标位置上的环境图像;
在检测到所述目标位置上的环境图像中不包括环境特征点的情况下,输出移动位置的提示信息。
9.一种增强现实的引导装置,所述装置包括:
获取模块,用于获取实时的环境图像和所述环境图像中用户视线的焦点;
确定模块,用于基于所述实时的环境图像,确定引导标识序列;
显示模块,用于基于所述引导标识序列,显示至少一个引导动画;每一所述引导动画用于引导所述用户视线的焦点从当前引导标识移动至下一引导标识。
10.一种电子设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1至8任一项所述方法中的步骤。
CN202210334277.2A 2022-03-30 2022-03-30 一种增强现实的引导方法及装置、电子设备、存储介质 Pending CN114816049A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210334277.2A CN114816049A (zh) 2022-03-30 2022-03-30 一种增强现实的引导方法及装置、电子设备、存储介质
US18/180,265 US20230316678A1 (en) 2022-03-30 2023-03-08 Augmented reality guiding method, apparatus, electronic device and computer-readable storage medium
DE102023106947.0A DE102023106947A1 (de) 2022-03-30 2023-03-20 Ein auf eine AR-Vorrichtung angewandtes Steuerungsverfahren der Augmented Reality (AR), eine AR-Steuerungsvorrichtung, ein elektronisches Gerät und ein computerlesbares Speichermedium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210334277.2A CN114816049A (zh) 2022-03-30 2022-03-30 一种增强现实的引导方法及装置、电子设备、存储介质

Publications (1)

Publication Number Publication Date
CN114816049A true CN114816049A (zh) 2022-07-29

Family

ID=82532374

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210334277.2A Pending CN114816049A (zh) 2022-03-30 2022-03-30 一种增强现实的引导方法及装置、电子设备、存储介质

Country Status (3)

Country Link
US (1) US20230316678A1 (zh)
CN (1) CN114816049A (zh)
DE (1) DE102023106947A1 (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203372A (zh) * 2016-07-19 2016-12-07 奇酷互联网络科技(深圳)有限公司 基于眼睛的活体检测方法、装置和终端设备
CN106774929A (zh) * 2016-12-30 2017-05-31 维沃移动通信有限公司 一种虚拟现实终端的显示处理方法和虚拟现实终端
CN108446026A (zh) * 2018-03-26 2018-08-24 京东方科技集团股份有限公司 一种基于增强现实的引导方法、引导设备以及一种介质
CN110383214A (zh) * 2017-03-09 2019-10-25 索尼公司 信息处理装置、信息处理方法和记录介质
CN110689623A (zh) * 2019-08-20 2020-01-14 重庆特斯联智慧科技股份有限公司 基于增强现实显示的游客导览***及方法
CN110864683A (zh) * 2019-11-27 2020-03-06 支付宝(杭州)信息技术有限公司 基于增强现实的业务办理引导方法以及装置
CN111709973A (zh) * 2020-06-16 2020-09-25 北京百度网讯科技有限公司 目标跟踪方法、装置、设备及存储介质
US20200318989A1 (en) * 2019-04-05 2020-10-08 Hyundai Motor Company Route guidance apparatus and method
WO2020200534A1 (de) * 2019-04-05 2020-10-08 Robert Bosch Gmbh Verfahren und vorrichtung zum steuern eines fahrzeuges durch einen teleoperator
US20200341284A1 (en) * 2018-01-18 2020-10-29 Sony Corporation Information processing apparatus, information processing method, and recording medium
CN112262361A (zh) * 2018-04-20 2021-01-22 Pcms控股公司 用于对混合现实内容进行基于注视的控制的方法和***
CN112507799A (zh) * 2020-11-13 2021-03-16 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质
CN113345107A (zh) * 2021-06-25 2021-09-03 北京市商汤科技开发有限公司 增强现实数据展示方法、装置、电子设备及存储介质
WO2021197189A1 (zh) * 2020-03-31 2021-10-07 深圳光峰科技股份有限公司 基于增强现实的信息显示方法、***、装置及投影设备

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203372A (zh) * 2016-07-19 2016-12-07 奇酷互联网络科技(深圳)有限公司 基于眼睛的活体检测方法、装置和终端设备
CN106774929A (zh) * 2016-12-30 2017-05-31 维沃移动通信有限公司 一种虚拟现实终端的显示处理方法和虚拟现实终端
CN110383214A (zh) * 2017-03-09 2019-10-25 索尼公司 信息处理装置、信息处理方法和记录介质
US20200341284A1 (en) * 2018-01-18 2020-10-29 Sony Corporation Information processing apparatus, information processing method, and recording medium
CN108446026A (zh) * 2018-03-26 2018-08-24 京东方科技集团股份有限公司 一种基于增强现实的引导方法、引导设备以及一种介质
CN112262361A (zh) * 2018-04-20 2021-01-22 Pcms控股公司 用于对混合现实内容进行基于注视的控制的方法和***
US20200318989A1 (en) * 2019-04-05 2020-10-08 Hyundai Motor Company Route guidance apparatus and method
WO2020200534A1 (de) * 2019-04-05 2020-10-08 Robert Bosch Gmbh Verfahren und vorrichtung zum steuern eines fahrzeuges durch einen teleoperator
CN110689623A (zh) * 2019-08-20 2020-01-14 重庆特斯联智慧科技股份有限公司 基于增强现实显示的游客导览***及方法
CN110864683A (zh) * 2019-11-27 2020-03-06 支付宝(杭州)信息技术有限公司 基于增强现实的业务办理引导方法以及装置
WO2021197189A1 (zh) * 2020-03-31 2021-10-07 深圳光峰科技股份有限公司 基于增强现实的信息显示方法、***、装置及投影设备
CN111709973A (zh) * 2020-06-16 2020-09-25 北京百度网讯科技有限公司 目标跟踪方法、装置、设备及存储介质
CN112507799A (zh) * 2020-11-13 2021-03-16 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质
CN113345107A (zh) * 2021-06-25 2021-09-03 北京市商汤科技开发有限公司 增强现实数据展示方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
DE102023106947A1 (de) 2023-10-05
US20230316678A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
CN105518712B (zh) 基于字符识别的关键词通知方法及设备
CN102857686B (zh) 图像处理装置,控制图像处理装置的方法
CN109977983B (zh) 获得训练图像的方法及装置
US20190116323A1 (en) Method and system for providing camera effect
EP4345777A1 (en) Living body detection method and apparatus, and training method and apparatus for living body detection system
CN112543343B (zh) 基于连麦直播的直播画面处理方法、装置及电子设备
CN111862035B (zh) 光斑检测模型的训练方法、光斑检测方法、设备及介质
CN112417970A (zh) 目标对象识别方法、装置和电子***
CN112230765A (zh) Ar显示方法、ar显示设备和计算机可读存储介质
CN113302907A (zh) 拍摄方法、装置、设备及计算机可读存储介质
CN112215964A (zh) 基于ar的场景导览方法和设备
CN112232203A (zh) 行人识别方法、装置、电子设备及存储介质
US11106949B2 (en) Action classification based on manipulated object movement
CN112991555B (zh) 数据展示方法、装置、设备以及存储介质
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN116171462A (zh) 对象序列的识别方法、网络训练方法、装置、设备及介质
CN114255494A (zh) 图像处理方法、装置、设备及存储介质
CN113570615A (zh) 一种基于深度学习的图像处理方法、电子设备及存储介质
CN112257628A (zh) 一种户外比赛运动员的身份识别方法、装置及设备
CN114816049A (zh) 一种增强现实的引导方法及装置、电子设备、存储介质
CN115984977A (zh) 活体检测方法和***
CN114913470A (zh) 一种事件检测方法及装置
CN115004245A (zh) 目标检测方法、装置、电子设备和计算机存储介质
JP2018137639A (ja) 動画像処理システム、並びに、符号化装置及びプログラム、並びに、復号装置及びプログラム
CN113762031A (zh) 一种图像识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination