CN113570624A - 基于智能穿戴眼镜的前景信息提示方法及相关设备 - Google Patents

基于智能穿戴眼镜的前景信息提示方法及相关设备 Download PDF

Info

Publication number
CN113570624A
CN113570624A CN202110875810.1A CN202110875810A CN113570624A CN 113570624 A CN113570624 A CN 113570624A CN 202110875810 A CN202110875810 A CN 202110875810A CN 113570624 A CN113570624 A CN 113570624A
Authority
CN
China
Prior art keywords
information
sight
wearable glasses
characteristic object
intelligent wearable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110875810.1A
Other languages
English (en)
Inventor
姚宏志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110875810.1A priority Critical patent/CN113570624A/zh
Publication of CN113570624A publication Critical patent/CN113570624A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及人工智能领域,公开了一种基于智能穿戴眼镜的前景信息提示方法及相关设备,用于提高前景信息的检测效率,以及增强与现实场景融合度。所述基于智能穿戴眼镜的前景信息提示方法包括:接收物体检测指令,通过内置摄像头获取眼睛视线方向信息,眼睛视线方向信息包括视线方向位置和视线停留时长;当视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据视线方向位置,确定前景图像中的视线聚焦区域;对视线聚焦区域进行特征物体识别,得到候选特征物体信息;对候选特征物体信息进行过滤,得到目标特征物体信息,并输出提示信息。此外,本发明还涉及区块链技术,提示信息可存储于区块链节点中。

Description

基于智能穿戴眼镜的前景信息提示方法及相关设备
技术领域
本发明涉及区域提取技术领域,尤其涉及一种基于智能穿戴眼镜的前景信息提示方法及相关设备。
背景技术
智能穿戴眼镜,也称智能镜,是指如同智能手机一样拥有独立的操作***,可以通过软件安装来实现各种功能的可穿戴的眼镜设备统称。
现有的智能穿戴眼镜在前景物体的检测技术一般是直接通过前景摄像头采集前景图像,再直接对前景图像进行物体检测,在用户使用过程中,前景图像通常变化不大,且用户并非对前景图像中所有的物体都感兴趣,因此,存在过多的无效检测,使得智能穿戴眼镜的检测效率低,精准率差。
发明内容
本发明提供了一种基于智能穿戴眼镜的前景信息提示方法及相关设备,用于提高前景信息的检测效率,以及增强与现实场景融合度。
本发明第一方面提供了一种基于智能穿戴眼镜的前景信息提示方法,包括:
接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;
当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;
对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。
可选的,在本发明第一方面的第一种实现方式中,所述内置摄像头包括微型内置摄像头,所述接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长,包括:
接收物体检测指令,根据所述物体检测指令开启所述微型内置摄像头;
通过所述微型内置摄像头按照预置的拍摄频率对眼睛运动图像进行拍摄,得到多帧眼睛运动图像;
建立所述多帧眼睛运动图像对应的内置平面坐标系,基于所述内置平面坐标系识别所述多帧眼睛运动图像对应的瞳孔位置,并将所述瞳孔位置作为视线方向位置;
根据所述拍摄频率和各帧眼睛运动图像的视线方向位置对应的变化范围,计算各帧眼睛运动图像在所述视线方向位置的停留时长,得到视线停留时长。
可选的,在本发明第一方面的第二种实现方式中,所述当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域,包括:
当所述视线停留时长大于预置的注视阈值时,通过前置摄像头对智能穿戴眼镜的前景图像进行拍摄;
按照所述内置摄像头和所述前置摄像头之间的图像缩放比例,对所述内置摄像头对应的内置平面坐标系进行缩放处理,得到前置平面坐标系;
将所述视线方向位置投射到所述前景图像对应的前置平面坐标系中,得到所述前景图像对应的视线聚焦区域。
可选的,在本发明第一方面的第三种实现方式中,所述对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息,包括:
按照所述前景图像中的视线聚焦区域,对所述前景图像进行裁剪,得到所述视线聚焦区域对应的聚焦图像;
通过训练好的特征物体识别模型,对所述聚焦图像中的特征物体进行识别,得到候选特征物体信息,所述特征物体识别模型为卷积神经网络模型。
可选的,在本发明第一方面的第四种实现方式中,所述根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息,包括:
获取所述候选特征物体信息中的物体类别标签,并获取预置场景模式对应的场景标签;
根据所述物体类别标签和所述场景标签,对所述候选特征物体信息进行场景标签过滤,得到目标特征物体信息,所述目标特征物体信息为符合所述预置场景模式的特征物体信息;
从预置的物体提示映射表中,获取所述目标特征物体信息对应的提示信息,并按照预置的信息输出方式,输出所述提示信息。
可选的,在本发明第一方面的第五种实现方式中,在所述根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息之后,所述基于智能穿戴眼镜的前景信息提示方法还包括:
获取所述智能穿戴眼镜的实时位置信息,并根据所述目标特征物体信息,获取目标特征物体的物***置信息,所述实时位置信息和所述物***置信息包括经纬度信息和海拔高度信息;
当接收到所述目标特征物体的导航指令时,根据所述实时位置信息和所述物***置信息,规划实时导航路线,并将所述实时导航路线绘制到所述智能穿戴眼镜的实时画面中。
本发明第二方面提供了一种基于智能穿戴眼镜的前景信息提示装置,包括:
接收模块,用于接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;
获取模块,用于当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;
识别模块,用于对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
过滤模块,用于根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。
可选的,在本发明第二方面的第一种实现方式中,所述内置摄像头包括微型内置摄像头,所述接收模块具体用于:
接收物体检测指令,根据所述物体检测指令开启所述微型内置摄像头;
通过所述微型内置摄像头按照预置的拍摄频率对眼睛运动图像进行拍摄,得到多帧眼睛运动图像;
建立所述多帧眼睛运动图像对应的内置平面坐标系,基于所述内置平面坐标系识别所述多帧眼睛运动图像对应的瞳孔位置,并将所述瞳孔位置作为视线方向位置;
根据所述拍摄频率和各帧眼睛运动图像的视线方向位置对应的变化范围,计算各帧眼睛运动图像在所述视线方向位置的停留时长,得到视线停留时长。
可选的,在本发明第二方面的第二种实现方式中,所述获取模块具体用于:
当所述视线停留时长大于预置的注视阈值时,通过前置摄像头对智能穿戴眼镜的前景图像进行拍摄;
按照所述内置摄像头和所述前置摄像头之间的图像缩放比例,对所述内置摄像头对应的内置平面坐标系进行缩放处理,得到前置平面坐标系;
将所述视线方向位置投射到所述前景图像对应的前置平面坐标系中,得到所述前景图像对应的视线聚焦区域。
可选的,在本发明第二方面的第三种实现方式中,所述识别模块具体用于:
按照所述前景图像中的视线聚焦区域,对所述前景图像进行裁剪,得到所述视线聚焦区域对应的聚焦图像;
通过训练好的特征物体识别模型,对所述聚焦图像中的特征物体进行识别,得到候选特征物体信息,所述特征物体识别模型为卷积神经网络模型。
可选的,在本发明第二方面的第四种实现方式中,所述过滤模块具体用于:
获取所述候选特征物体信息中的物体类别标签,并获取预置场景模式对应的场景标签;
根据所述物体类别标签和所述场景标签,对所述候选特征物体信息进行场景标签过滤,得到目标特征物体信息,所述目标特征物体信息为符合所述预置场景模式的特征物体信息;
从预置的物体提示映射表中,获取所述目标特征物体信息对应的提示信息,并按照预置的信息输出方式,输出所述提示信息。
可选的,在本发明第二方面的第五种实现方式中,所述基于智能穿戴眼镜的前景信息提示装置还包括:
定位模块,用于获取所述智能穿戴眼镜的实时位置信息,并根据所述目标特征物体信息,获取目标特征物体的物***置信息,所述实时位置信息和所述物***置信息包括经纬度信息和海拔高度信息;
导航模块,用于当接收到所述目标特征物体的导航指令时,根据所述实时位置信息和所述物***置信息,规划实时导航路线,并将所述实时导航路线绘制到所述智能穿戴眼镜的实时画面中。
本发明第三方面提供了一种智能穿戴眼镜,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述智能穿戴眼镜执行上述的基于智能穿戴眼镜的前景信息提示方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于智能穿戴眼镜的前景信息提示方法。
本发明提供的技术方案中,接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。本发明实施例中,智能穿戴眼镜接收到物体检测指令之后,通过内置摄像头获取视线方向位置和视线停留时长,而当视线停留时长大于预置的注视阈值时,则说明穿戴者对视线方向位置的画面较感兴趣,那么,智能穿戴眼镜则通过前景图像确定视线方向位置的视线聚焦区域,从而对视线聚焦区域进行特征物体识别,并按照预置场景模式进行过滤,得到与预置场景模式融合的目标特征物体信息。本发明可以提高前景信息的检测效率,以及增强与现实场景融合度。
附图说明
图1为本发明实施例中基于智能穿戴眼镜的前景信息提示方法的一个实施例示意图;
图2为本发明实施例中基于智能穿戴眼镜的前景信息提示方法的另一个实施例示意图;
图3为本发明实施例中基于智能穿戴眼镜的前景信息提示装置的一个实施例示意图;
图4为本发明实施例中基于智能穿戴眼镜的前景信息提示装置的另一个实施例示意图;
图5为本发明实施例中智能穿戴眼镜的一个实施例示意图。
具体实施方式
本发明实施例提供了一种基于智能穿戴眼镜的前景信息提示方法及相关设备,用于提高前景信息的检测效率,以及增强与现实场景融合度。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中基于智能穿戴眼镜的前景信息提示方法的一个实施例包括:
101、接收物体检测指令,根据物体检测指令开启内置摄像头,并通过内置摄像头获取眼睛视线方向信息,眼睛视线方向信息包括视线方向位置和视线停留时长;
可以理解的是,本发明的执行主体可以为基于智能穿戴眼镜的前景信息提示装置,还可以是终端或智能穿戴眼镜,具体此处不做限定。本发明实施例以智能穿戴眼镜为执行主体为例进行说明。
本实施例中,物体检测指令的触发方式包括:由智能穿戴眼镜的硬件按钮触发物体检测指令、由智能穿戴眼镜对应的控制软件触发物体检测指令和通过语音控制触发物体检测指令,触发时机可以是在智能穿戴眼镜启动时同时触发,也可以是在智能穿戴眼镜的使用过程中触发,具体不做进一步限定。
本实施例中,智能穿戴眼镜内侧朝向正常穿戴时的眼睛方向,设有3个微型内置摄像头,用于采集眼睛视线方向信息,眼睛视线方向信息包括视线方向位置、视线停留时长、眨眼次数、眨眼时长和闭眼状态等,用于智能穿戴眼镜判断穿戴者的眼睛运动图像是否满足注视条件以及确定前景图像的检测范围。
102、当视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据视线方向位置,确定前景图像中的视线聚焦区域;
本实施例中,当视线停留时长大于预置的注视阈值时,智能穿戴眼镜启动物体检测功能,以对前景图像进行特征物体识别。具体的,当视线停留时长大于预置的注视阈值时,智能穿戴眼镜通过前置摄像头获取前景图像,再根据视线方向位置,在前景图像中定位视线聚焦区域,以使得智能穿戴眼镜对视线聚焦区域进行特征物体识别,减少智能穿戴眼镜由于处理过多的无关区域而降低处理效率。
103、对前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
本实施例中,智能穿戴眼镜确定前景图像中的视线聚焦区域之后,对视线聚焦区域进行特征物体识别,得到候选特征物体信息,候选特征物体信息包括所有智能穿戴眼镜识别的特征物体,智能穿戴眼镜可以通过训练好的物体识别模型进行特征物体识别,从而提高物体检测的效率。
本实施例中,智能穿戴眼镜还可以先对前景图像进行特征物体识别,得到前景图像中的所有特征物体信息,再根据视线方向位置,将落入视线方向位置的特征物体信息作为视线聚焦区域的候选特征物体信息,以提高智能穿戴眼镜对候选特征物体信息的检测准确率,其中,当特征物体在视线方向位置范围内的面积大于预置面积阈值时,则智能穿戴眼镜确定对应的特征物体落入视线方向位置,并将落入视线方向位置的特征物体信息作为视线聚焦区域的候选特征物体信息。
104、根据预置场景模式,对候选特征物体信息进行过滤,得到目标特征物体信息,并输出目标特征物体信息对应的提示信息。
本实施例中,智能穿戴眼镜还可以根据预置场景模式,对候选特征物体信息进行过滤,从而得到与预置场景模式对应的目标特征物体信息,例如,预置场景模式为旅游场景模式,那么,智能穿戴眼镜可以根据旅游场景模式对应的过滤原则,将与旅游场景无关的物体过滤,例如人物和交通工具等,预置场景模式的过滤原则可以由用户设置,也可以由智能穿戴眼镜预设,具体不做限定。
本实施例中,智能穿戴眼镜输出目标特征物体信息对应的提示信息可以以语音的方式输出,也可以在前景图像中进行标注输出,提示信息包括目标特征物体的名称、类别、距离、属性、地理位置和个性化信息等,其中,个性化信息包括广告信息和科普信息。
进一步地,服务器将提示信息存储于区块链数据库中,具体此处不做限定。
本发明实施例中,智能穿戴眼镜接收到物体检测指令之后,通过内置摄像头获取视线方向位置和视线停留时长,而当视线停留时长大于预置的注视阈值时,则说明穿戴者对视线方向位置的画面较感兴趣,那么,智能穿戴眼镜则通过前景图像确定视线方向位置的视线聚焦区域,从而对视线聚焦区域进行特征物体识别,并按照预置场景模式进行过滤,得到与预置场景模式融合的目标特征物体信息。本发明可以提高前景信息的检测效率,以及增强与现实场景融合度。
请参阅图2,本发明实施例中基于智能穿戴眼镜的前景信息提示方法的另一个实施例包括:
201、接收物体检测指令,根据物体检测指令开启内置摄像头,并通过内置摄像头获取眼睛视线方向信息,眼睛视线方向信息包括视线方向位置和视线停留时长;
具体的,内置摄像头包括微型内置摄像头,智能穿戴眼镜接收物体检测指令,根据物体检测指令开启微型内置摄像头;智能穿戴眼镜通过微型内置摄像头按照预置的拍摄频率对眼睛运动图像进行拍摄,得到多帧眼睛运动图像;智能穿戴眼镜建立多帧眼睛运动图像对应的内置平面坐标系,基于内置平面坐标系识别多帧眼睛运动图像对应的瞳孔位置,并将瞳孔位置作为视线方向位置;智能穿戴眼镜根据拍摄频率和各帧眼睛运动图像的视线方向位置对应的变化范围,计算各帧眼睛运动图像在视线方向位置的停留时长,得到视线停留时长。
本可选实施例中,智能穿戴眼镜接收到物体检测指令之后,开启微型内置摄像头对穿戴者的瞳孔位置进行捕捉,以确定穿戴者的视线聚焦区域,具体的,智能穿戴眼镜按照预置的拍摄频率对眼睛运动图像进行拍摄,得到多帧眼睛运动图像,由于内置摄像头的安装位置是位于朝向眼睛方向,因此,拍摄到的多帧眼睛运动图像均为眼部图像,区别只在于瞳孔位置不同,因此,智能穿戴眼镜只需多帧眼睛运动图像进行叠加对比,就能确定瞳孔的运动轨迹,当连续多帧眼睛运动图像的运动轨迹没有变化时,说明瞳孔位置未发生变化,智能穿戴眼镜将运动轨迹对应的瞳孔位置作为视线方向位置。
本可选实施例中,内置摄像头所拍摄的多帧眼睛运动图像为具有相同尺寸的图像,因此,内置平面坐标系建立在多帧眼睛运动图像上,能够获得视线方向位置的瞳孔横向位置坐标和瞳孔纵向位置坐标,用于确定视线聚焦区域。
202、当视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据视线方向位置,确定前景图像中的视线聚焦区域;
具体的,当视线停留时长大于预置的注视阈值时,智能穿戴眼镜通过前置摄像头对智能穿戴眼镜的前景图像进行拍摄;智能穿戴眼镜按照内置摄像头和前置摄像头之间的图像缩放比例,对内置摄像头对应的内置平面坐标系进行缩放处理,得到前置平面坐标系;智能穿戴眼镜将视线方向位置投射到前景图像对应的前置平面坐标系中,得到前景图像对应的视线聚焦区域。
本可选实施例中,由于内置摄像头和前置摄像头所拍摄的图像尺寸不同,因此,智能穿戴眼镜在建立前置平面坐标系时,需按照内置摄像头和前置摄像头之间的图像缩放比例进行等比例缩放,以使得视线方向位置能够准确地投射到前景图像对应的视线聚焦区域中。
203、对前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
具体的,智能穿戴眼镜按照前景图像中的视线聚焦区域,对前景图像进行裁剪,得到视线聚焦区域对应的聚焦图像;智能穿戴眼镜通过训练好的特征物体识别模型,对聚焦图像中的特征物体进行识别,得到候选特征物体信息,特征物体识别模型为卷积神经网络模型。
本可选实施例中,当智能穿戴眼镜确定视线聚焦区域之后,智能穿戴眼镜对前景图像进行裁剪,以得到视线聚焦区域对应的聚焦图像,也就是注视区域的图像,然后,智能穿戴眼镜通过训练好的特征物体识别模型,对聚焦图像进行特征物体识别,从而得到聚焦图像中的特征物体信息,也就是候选特征物体信息。
本可选实施例中,为了减少图像裁剪导致的物体不完整的问题发生,智能穿戴眼镜也可以不对前景图像进行裁剪,在确定前景图像中的视线聚焦区域之后,直接对视线聚焦区域进行特征物体识别,当检测到不完整物体时,对视线聚焦区域进行扩展识别,从而得到扩展识别后的候选特征物体信息,使得物体的识别更准确。
204、根据预置场景模式,对候选特征物体信息进行过滤,得到目标特征物体信息,并输出目标特征物体信息对应的提示信息;
具体的,智能穿戴眼镜获取候选特征物体信息中的物体类别标签,并获取预置场景模式对应的场景标签;智能穿戴眼镜根据物体类别标签和场景标签,对候选特征物体信息进行场景标签过滤,得到目标特征物体信息,目标特征物体信息为符合预置场景模式的特征物体信息;智能穿戴眼镜从预置的物体提示映射表中,获取目标特征物体信息对应的提示信息,并按照预置的信息输出方式,输出提示信息。
本可选实施例中,智能穿戴眼镜通过候选特征物体信息中的物体类别标签对候选特征物体信息进行场景化的过滤,每个场景模式具有对应的场景标签,智能穿戴眼镜通过预置场景模式对应的场景标签,对候选特征物体信息中的物体类别标签进行筛选,将不在场景标签中的物体类别标签对应的候选特征物体信息剔除,得到符合预置场景模式的目标特征物体信息。智能穿戴眼镜按照预置的信息输出方式,输出目标特征物体信息对应的提示信息,信息输出方式包括语音输出方式、标记文本输出方式等。
205、获取智能穿戴眼镜的实时位置信息,并根据目标特征物体信息,获取目标特征物体的物***置信息,实时位置信息和物***置信息包括经纬度信息和海拔高度信息;
本可选实施例中,智能穿戴眼镜基于目标特征物体信息进行具体的场景应用,包括实时导航、实时讲解等,其中,实时导航的具体实现方式为智能穿戴眼镜通过实时位置信息和目标特征物体的物***置信息,规划实时导航路线,再将实时导航路线虚拟地绘制到智能穿戴眼镜的实时画面中,穿戴者根据虚拟导航路线的指引,即能在行走过程中确定行进方向,使得智能穿戴眼镜的实用性更高。
本可选实施例中,实时位置信息和物***置信息包括经纬度信息和海拔高度信息,经纬度信息能够进行室外导航,而海拔高度信息能够用于室内楼层之间的导航,例如某大型商场内某个楼层中的某个餐饮店的位置导航,能够满足穿戴者多种导航需求,使得智能穿戴眼镜的场景融合度更高。
206、当接收到目标特征物体的导航指令时,根据实时位置信息和物***置信息,规划实时导航路线,并将实时导航路线绘制到智能穿戴眼镜的实时画面中。
本可选实施例中,智能穿戴眼镜还能将实时导航路线绘制到智能穿戴眼镜的前景实时画面中,穿戴者只需按照前景实时画面中的虚拟导航路线的指引,即能够到达目标特征物体的具体地理位置,使得智能穿戴眼镜与场景的融合度更高,应用性更强,
本发明实施例中,为了提高智能穿戴眼镜与场景的融合度和可应用性,智能穿戴眼镜还能根据自身的实时位置信息,规划到目标特征物体的实时导航路线,并将实时导航路线虚拟绘制到智能穿戴眼镜的实时画面中,使得智能穿戴眼镜与具体场景融合,且实用性更强。
上面对本发明实施例中基于智能穿戴眼镜的前景信息提示方法进行了描述,下面对本发明实施例中基于智能穿戴眼镜的前景信息提示装置进行描述,请参阅图3,本发明实施例中基于智能穿戴眼镜的前景信息提示装置一个实施例包括:
接收模块301,用于接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;
获取模块302,用于当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;
识别模块303,用于对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
过滤模块304,用于根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。
进一步地,将提示信息存储于区块链数据库中,具体此处不做限定。
本发明实施例中,智能穿戴眼镜接收到物体检测指令之后,通过内置摄像头获取视线方向位置和视线停留时长,而当视线停留时长大于预置的注视阈值时,则说明穿戴者对视线方向位置的画面较感兴趣,那么,智能穿戴眼镜则通过前景图像确定视线方向位置的视线聚焦区域,从而对视线聚焦区域进行特征物体识别,并按照预置场景模式进行过滤,得到与预置场景模式融合的目标特征物体信息。本发明可以提高前景信息的检测效率,以及增强与现实场景融合度。
请参阅图4,本发明实施例中基于智能穿戴眼镜的前景信息提示装置的另一个实施例包括:
接收模块301,用于接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;
获取模块302,用于当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;
识别模块303,用于对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
过滤模块304,用于根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。
可选的,所述内置摄像头包括微型内置摄像头,所述接收模块301具体用于:
接收物体检测指令,根据所述物体检测指令开启所述微型内置摄像头;
通过所述微型内置摄像头按照预置的拍摄频率对眼睛运动图像进行拍摄,得到多帧眼睛运动图像;
建立所述多帧眼睛运动图像对应的内置平面坐标系,基于所述内置平面坐标系识别所述多帧眼睛运动图像对应的瞳孔位置,并将所述瞳孔位置作为视线方向位置;
根据所述拍摄频率和各帧眼睛运动图像的视线方向位置对应的变化范围,计算各帧眼睛运动图像在所述视线方向位置的停留时长,得到视线停留时长。
可选的,所述获取模块302具体用于:
当所述视线停留时长大于预置的注视阈值时,通过前置摄像头对智能穿戴眼镜的前景图像进行拍摄;
按照所述内置摄像头和所述前置摄像头之间的图像缩放比例,对所述内置摄像头对应的内置平面坐标系进行缩放处理,得到前置平面坐标系;
将所述视线方向位置投射到所述前景图像对应的前置平面坐标系中,得到所述前景图像对应的视线聚焦区域。
可选的,所述识别模块303具体用于:
按照所述前景图像中的视线聚焦区域,对所述前景图像进行裁剪,得到所述视线聚焦区域对应的聚焦图像;
通过训练好的特征物体识别模型,对所述聚焦图像中的特征物体进行识别,得到候选特征物体信息,所述特征物体识别模型为卷积神经网络模型。
可选的,所述过滤模块304具体用于:
获取所述候选特征物体信息中的物体类别标签,并获取预置场景模式对应的场景标签;
根据所述物体类别标签和所述场景标签,对所述候选特征物体信息进行场景标签过滤,得到目标特征物体信息,所述目标特征物体信息为符合所述预置场景模式的特征物体信息;
从预置的物体提示映射表中,获取所述目标特征物体信息对应的提示信息,并按照预置的信息输出方式,输出所述提示信息。
可选的,所述基于智能穿戴眼镜的前景信息提示装置还包括:
定位模块305,用于获取所述智能穿戴眼镜的实时位置信息,并根据所述目标特征物体信息,获取目标特征物体的物***置信息,所述实时位置信息和所述物***置信息包括经纬度信息和海拔高度信息;
导航模块306,用于当接收到所述目标特征物体的导航指令时,根据所述实时位置信息和所述物***置信息,规划实时导航路线,并将所述实时导航路线绘制到所述智能穿戴眼镜的实时画面中。
本发明实施例中,为了提高智能穿戴眼镜与场景的融合度和可应用性,智能穿戴眼镜还能根据自身的实时位置信息,规划到目标特征物体的实时导航路线,并将实时导航路线虚拟绘制到智能穿戴眼镜的实时画面中,使得智能穿戴眼镜与具体场景融合,且实用性更强。
上面图3和图4从模块化功能实体的角度对本发明实施例中的基于智能穿戴眼镜的前景信息提示装置进行详细描述,下面从硬件处理的角度对本发明实施例中智能穿戴眼镜进行详细描述。
图5是本发明实施例提供的一种智能穿戴眼镜的结构示意图,该智能穿戴眼镜500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessing units,CPU)510(例如,一个或一个以上处理器)和存储器520,一个或一个以上存储应用程序533或数据532的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器520和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对智能穿戴眼镜500中的一系列指令操作。更进一步地,处理器510可以设置为与存储介质530通信,在智能穿戴眼镜500上执行存储介质530中的一系列指令操作。
智能穿戴眼镜500还可以包括一个或一个以上电源540,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口560,和/或,一个或一个以上操作***531,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图5示出的智能穿戴眼镜结构并不构成对智能穿戴眼镜的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种智能穿戴眼镜,所述智能穿戴眼镜包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于智能穿戴眼镜的前景信息提示方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于智能穿戴眼镜的前景信息提示方法的步骤。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于智能穿戴眼镜的前景信息提示方法,其特征在于,所述基于智能穿戴眼镜的前景信息提示方法包括:
接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;
当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;
对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。
2.根据权利要求1所述的基于智能穿戴眼镜的前景信息提示方法,其特征在于,所述内置摄像头包括微型内置摄像头,所述接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长,包括:
接收物体检测指令,根据所述物体检测指令开启所述微型内置摄像头;
通过所述微型内置摄像头按照预置的拍摄频率对眼睛运动图像进行拍摄,得到多帧眼睛运动图像;
建立所述多帧眼睛运动图像对应的内置平面坐标系,基于所述内置平面坐标系识别所述多帧眼睛运动图像对应的瞳孔位置,并将所述瞳孔位置作为视线方向位置;
根据所述拍摄频率和各帧眼睛运动图像的视线方向位置对应的变化范围,计算各帧眼睛运动图像在所述视线方向位置的停留时长,得到视线停留时长。
3.根据权利要求1所述的基于智能穿戴眼镜的前景信息提示方法,其特征在于,所述当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域,包括:
当所述视线停留时长大于预置的注视阈值时,通过前置摄像头对智能穿戴眼镜的前景图像进行拍摄;
按照所述内置摄像头和所述前置摄像头之间的图像缩放比例,对所述内置摄像头对应的内置平面坐标系进行缩放处理,得到前置平面坐标系;
将所述视线方向位置投射到所述前景图像对应的前置平面坐标系中,得到所述前景图像对应的视线聚焦区域。
4.根据权利要求1所述的基于智能穿戴眼镜的前景信息提示方法,其特征在于,所述对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息,包括:
按照所述前景图像中的视线聚焦区域,对所述前景图像进行裁剪,得到所述视线聚焦区域对应的聚焦图像;
通过训练好的特征物体识别模型,对所述聚焦图像中的特征物体进行识别,得到候选特征物体信息,所述特征物体识别模型为卷积神经网络模型。
5.根据权利要求1所述的基于智能穿戴眼镜的前景信息提示方法,其特征在于,所述根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息,包括:
获取所述候选特征物体信息中的物体类别标签,并获取预置场景模式对应的场景标签;
根据所述物体类别标签和所述场景标签,对所述候选特征物体信息进行场景标签过滤,得到目标特征物体信息,所述目标特征物体信息为符合所述预置场景模式的特征物体信息;
从预置的物体提示映射表中,获取所述目标特征物体信息对应的提示信息,并按照预置的信息输出方式,输出所述提示信息。
6.根据权利要求1-5中任一项所述的基于智能穿戴眼镜的前景信息提示方法,其特征在于,在所述根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息之后,所述基于智能穿戴眼镜的前景信息提示方法还包括:
获取所述智能穿戴眼镜的实时位置信息,并根据所述目标特征物体信息,获取目标特征物体的物***置信息,所述实时位置信息和所述物***置信息包括经纬度信息和海拔高度信息;
当接收到所述目标特征物体的导航指令时,根据所述实时位置信息和所述物***置信息,规划实时导航路线,并将所述实时导航路线绘制到所述智能穿戴眼镜的实时画面中。
7.一种基于智能穿戴眼镜的前景信息提示装置,其特征在于,所述基于智能穿戴眼镜的前景信息提示装置包括:
接收模块,用于接收物体检测指令,根据所述物体检测指令开启内置摄像头,并通过所述内置摄像头获取眼睛视线方向信息,所述眼睛视线方向信息包括视线方向位置和视线停留时长;
获取模块,用于当所述视线停留时长大于预置的注视阈值时,通过前置摄像头获取智能穿戴眼镜的前景图像,并根据所述视线方向位置,确定所述前景图像中的视线聚焦区域;
识别模块,用于对所述前景图像中的视线聚焦区域进行特征物体识别,得到候选特征物体信息;
过滤模块,用于根据预置场景模式,对所述候选特征物体信息进行过滤,得到目标特征物体信息,并输出所述目标特征物体信息对应的提示信息。
8.根据权利要求7所述基于智能穿戴眼镜的前景信息提示装置,其特征在于,所述基于智能穿戴眼镜的前景信息提示装置还包括:
定位模块,用于获取所述智能穿戴眼镜的实时位置信息,并根据所述目标特征物体信息,获取目标特征物体的物***置信息,所述实时位置信息和所述物***置信息包括经纬度信息和海拔高度信息;
导航模块,用于当接收到所述目标特征物体的导航指令时,根据所述实时位置信息和所述物***置信息,规划实时导航路线,并将所述实时导航路线绘制到所述智能穿戴眼镜的实时画面中。
9.一种智能穿戴眼镜,其特征在于,所述智能穿戴眼镜包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述智能穿戴眼镜执行如权利要求1-6中任意一项所述的基于智能穿戴眼镜的前景信息提示方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-6中任一项所述基于智能穿戴眼镜的前景信息提示方法。
CN202110875810.1A 2021-07-30 2021-07-30 基于智能穿戴眼镜的前景信息提示方法及相关设备 Pending CN113570624A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110875810.1A CN113570624A (zh) 2021-07-30 2021-07-30 基于智能穿戴眼镜的前景信息提示方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110875810.1A CN113570624A (zh) 2021-07-30 2021-07-30 基于智能穿戴眼镜的前景信息提示方法及相关设备

Publications (1)

Publication Number Publication Date
CN113570624A true CN113570624A (zh) 2021-10-29

Family

ID=78169691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110875810.1A Pending CN113570624A (zh) 2021-07-30 2021-07-30 基于智能穿戴眼镜的前景信息提示方法及相关设备

Country Status (1)

Country Link
CN (1) CN113570624A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114296548A (zh) * 2021-12-14 2022-04-08 杭州朱道实业有限公司 一种展览用智能移动识别信息***
CN114363599A (zh) * 2022-02-24 2022-04-15 北京蜂巢世纪科技有限公司 基于电子变焦的追焦距方法、***、终端及存储介质
CN114815262A (zh) * 2022-05-17 2022-07-29 常山县亿思达电子有限公司 一种基于双向微振扫描投射成像的隐形mr眼镜***
WO2024139874A1 (zh) * 2022-12-26 2024-07-04 中国科学院深圳先进技术研究院 一种佩戴设备的定位方法、***与存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109254659A (zh) * 2018-08-30 2019-01-22 Oppo广东移动通信有限公司 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
CN111552076A (zh) * 2020-05-13 2020-08-18 歌尔科技有限公司 一种图像显示方法、ar眼镜及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109254659A (zh) * 2018-08-30 2019-01-22 Oppo广东移动通信有限公司 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
CN111552076A (zh) * 2020-05-13 2020-08-18 歌尔科技有限公司 一种图像显示方法、ar眼镜及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
程利: "《眼动分析法在广告心理学中的应用》", 30 November 2007, 东北林业大学出版社, pages: 80 - 81 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114296548A (zh) * 2021-12-14 2022-04-08 杭州朱道实业有限公司 一种展览用智能移动识别信息***
CN114363599A (zh) * 2022-02-24 2022-04-15 北京蜂巢世纪科技有限公司 基于电子变焦的追焦距方法、***、终端及存储介质
CN114815262A (zh) * 2022-05-17 2022-07-29 常山县亿思达电子有限公司 一种基于双向微振扫描投射成像的隐形mr眼镜***
WO2024139874A1 (zh) * 2022-12-26 2024-07-04 中国科学院深圳先进技术研究院 一种佩戴设备的定位方法、***与存储介质

Similar Documents

Publication Publication Date Title
CN113570624A (zh) 基于智能穿戴眼镜的前景信息提示方法及相关设备
WO2020228389A1 (zh) 一种创建脸部模型的方法、装置、电子设备及计算机可读存储介质
CN108351522A (zh) 注视方向映射
CN103413118B (zh) 在线眼镜试戴方法
JP6177998B2 (ja) 情報表示方法および情報表示端末
CN103456008A (zh) 一种面部与眼镜匹配方法
CN112220444B (zh) 一种基于深度相机的瞳距测量方法和装置
CN108681399A (zh) 一种设备控制方法、装置、控制设备及存储介质
CN110288715B (zh) 虚拟项链试戴方法、装置、电子设备及存储介质
CN110110669A (zh) 一种基于人脸识别技术的智慧景区游客定位方法及***
CN105180802B (zh) 一种物体尺寸信息识别方法和装置
JP7161572B2 (ja) ディープラーニング基盤の仮想イメージ生成方法及びシステム
US20210035326A1 (en) Human pose estimation system
CN111665945B (zh) 一种游览信息展示方法及装置
CN105205482A (zh) 快速人脸特征识别及姿态估算方法
CN113010009B (zh) 对象共享方法及装置
KR20210000044A (ko) 증강현실 기반 가상 피팅 시스템 및 방법
US20160189341A1 (en) Systems and methods for magnifying the appearance of an image on a mobile device screen using eyewear
CN112101261A (zh) 人脸识别方法、装置、设备及存储介质
CN115862130B (zh) 基于人体姿态及其躯干运动场的行为识别方法
KR20180116044A (ko) 증강현실용 디바이스와 그 증강현실 출력 방법
CN110007482A (zh) 一种测算多焦点眼镜焦点位置的测算平台及其使用方法
CN113095230A (zh) 一种帮助盲人查找物品的方法和装置
CN108109158B (zh) 基于自适应阈值分割的视频穿越处理方法及装置
CN111461047A (zh) 身份识别的方法、装置、设备及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination