CN109241900A - 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 - Google Patents
穿戴式设备的控制方法、装置、存储介质及穿戴式设备 Download PDFInfo
- Publication number
- CN109241900A CN109241900A CN201811000739.7A CN201811000739A CN109241900A CN 109241900 A CN109241900 A CN 109241900A CN 201811000739 A CN201811000739 A CN 201811000739A CN 109241900 A CN109241900 A CN 109241900A
- Authority
- CN
- China
- Prior art keywords
- guide
- target
- wearable device
- text
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了穿戴式设备的控制方法、装置、存储介质及穿戴式设备。该方法包括:获取目标建筑物的导视图;识别导视图中的文字,并将文字转换为与预设语言类型对应的目标文字;控制穿戴式设备显示包含目标文字的目标导视图。本申请实施例通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,获取建筑物的导视图,并将导视图中的文字转换为用户熟悉的语言,帮助用户了解建筑物的内部布局情况,可以丰富穿戴式设备的功能。
Description
技术领域
本申请实施例涉及智能设备技术领域,尤其涉及穿戴式设备的控制方法、装置、存储介质及穿戴式设备。
背景技术
目前,智能穿戴设备已进入广大用户的日常生活中,为用户的生活及工作等提供了诸多方面的便利。
随着智能穿戴技术的发展,如今的智能穿戴设备可实现丰富多样的功能。然而,目前智能穿戴设备功能仍不够完善,需要改进。
发明内容
本申请实施例提供一种穿戴式设备的控制方法、装置、存储介质及穿戴式设备,可以优化穿戴式设备的控制方案。
第一方面,本申请实施例提供了一种穿戴式设备的控制方法,包括:
获取目标建筑物的导视图;
识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字;
控制所述穿戴式设备显示包含所述目标文字的目标导视图。
第二方面,本申请实施例提供了一种穿戴式设备的控制装置,包括:
导视图获取模块,用于获取目标建筑物的导视图;
文字转换模块,用于识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字;
导视图显示模块,用于控制所述穿戴式设备显示包含所述目标文字的目标导视图。
第三方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的穿戴式设备的控制方法。
第四方面,本申请实施例提供了一种穿戴式设备,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的穿戴式设备的控制方法。
本申请实施例中提供的穿戴式设备的控制方案,获取目标建筑物的导视图,识别导视图中的文字,并将文字转换为与预设语言类型对应的目标文字,控制穿戴式设备显示包含目标文字的目标导视图。通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,获取建筑物的导视图,并将导视图中的文字转换为用户熟悉的语言,帮助用户了解建筑物的内部布局情况,可以丰富穿戴式设备的功能。
附图说明
图1为本申请实施例提供的一种穿戴式设备的控制方法的流程示意图;
图2为本申请实施例提供的另一种穿戴式设备的控制方法的流程示意图;
图3为本申请实施例提供的又一种穿戴式设备的控制方法的流程示意图;
图4为本申请实施例提供的一种穿戴式设备的控制装置的结构框图;
图5为本申请实施例提供的一种穿戴式设备的结构示意图;
图6为本申请实施例提供的又一种穿戴式设备的结构示意图;
图7为本申请实施例提供的一种穿戴式设备的示意实体图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本申请的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
图1为本申请实施例提供的一种穿戴式设备的控制方法的流程示意图,该方法可以应用于穿戴式设备,可由穿戴式设备的控制装置执行,其中该装置可由软件和/或硬件实现,一般可集成在穿戴式设备中。如图1所示,该方法包括:
步骤101、获取建筑物的导视图。
本申请实施例中,对穿戴式设备的具体组成结构、形状及体积等属性不做限定。穿戴式设备可包括佩戴于用户头部的穿戴式设备,如智能眼镜、智能头盔等。示例性的,以智能眼镜为例,智能眼镜包括眼镜框体和镜片。该眼镜框体包括镜腿和镜框。可选的,在镜腿的内侧可以设有呼吸灯,呼吸灯可以是LED灯,并可以根据智能眼镜佩戴者心跳的频率进行闪烁。在镜腿上还设有触控区(如触控面板)及骨传导区。其中,触控区设置于镜腿的外侧,在触控区内设置触摸检测模块,用于检测用户的触摸操作。例如,采用触摸传感器模块检测用户的触摸操作,该触摸传感器模块在初始态为低电平,在有触摸操作时为高电平。在用户佩戴智能眼镜的场景下将镜腿靠近脸部的一侧规定为内侧,与内侧相对的远离脸部的一侧规定为外侧。在镜腿上靠近耳朵的位置设置骨传导区。其中,在骨传导区设置骨传导耳机或骨传导传感器等骨传导部件。在镜腿靠近脸部太阳穴的位置设置心率检测模组(如心率传感器),用于获取佩戴智能眼镜用户的心率信息。在镜框上设置智能麦克风,可以智能识别当前所处环境噪音大小,可以基于环境噪音自动调节麦克风的性能。在镜框上还设有距离传感器及陀螺仪等。此外,在镜框及鼻托上还设置有眼电图(简称为EOG)传感器,用于采集用户的眼睛状态。另外,在镜腿上还设置有微处理区,微处理器设置于微处理区,分别与上述触摸检测模块、骨传导耳机、心率传感器、智能麦克风、距离传感器、陀螺仪、眼电图传感器等器件电连接,用于接收待处理数据,进行数据运算、数据处理并输出控制指令至对应的器件。需要说明的是,该智能眼镜可以通过互联网由云端下载多媒体资源进行播放,还可以通过与终端设备建立通信连接,由终端设备上获取多媒体资源,本申请对此并不作限定。在镜框外侧还可设置第一摄像头,用于拍摄佩戴者前方的景象照片等。
本申请实施例中,建筑物可以包括如商场、办公楼、教学楼、博物馆、图书馆、开放式景区(如动物园、游乐场及森林公园等等)以及景区建筑(如古塔、宫殿及电视塔等等)等各种类型的建筑物,这些建筑物可供用户出入。目标建筑物可以是上述建筑物中的一个,示例性的,可根据用户的选择确定目标建筑物,也可根据当前的定位信息等确定用户所处建筑物并确定目标建筑物等。导视图可包括建筑内部布局情况相关信息,如楼层信息、房间分布示意图、房间名称或房间号、房间内物品信息及标志物(如服务台、扶梯、直梯、纪念碑等)分布信息等等,可根据建筑物的具体情况确定。导视图可以是平面图,也可以是三维立体图,本申请实施例不做限定。
示例性的,建筑物的导视图可存储于穿戴式设备的内置存储器中,也可存储于外部终端设备中,外部终端可以是预先与穿戴式设备相关联的终端设备,如服务器或者移动终端等。相应的,穿戴式设备可以从内置存储器中获取建筑物的导视图,也可从外部终端获取建筑物的导视图。可选的,可以在穿戴式设备内置存储器中预先存储常用的建筑物的导视图,穿戴式设备在确定目标建筑物后,先从内置存储器中查找是否存在目标建筑物对应的导视图,若存在,则可直接读取,可有效提高获取导视图的速度,若不存在,则可从预设终端设备中获取,在节省穿戴式设备内置存储空间的同时还能够更加全面的获取各种建筑物对应的导视图。
步骤102、识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字。
示例性的,预设语言类型可以是***默认的语言类型,也可以是用户预先设置的语言类型。语言类型可包括语种,如汉语、英语、日语、韩语及法语等等。***默认的语言类型可以根据穿戴式设备的出厂地或购买地等地点所属国家的官方语言确定,例如,若用户从中国购买了穿戴式设备,那么***默认的语言类型可以是汉语,若用户从美国购买了穿戴式设备,那么***默认的语言类型可以是英语。可以理解的是,用户可能未在自己的国家购买穿戴式设备,那么用户可以自行设置自己熟悉的语言为预设语言类型,例如,若中国公民在美国购买了穿戴式设备,该用户可自行将预设语言类型设置为汉语。
可选的,识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字,包括:识别所述导视图中的文字,并确定所述文字对应的语言类型;在判断出所述语言类型与预设语言类型不匹配时,将所述文字转换为与预设语言类型对应的目标文字。这样设置的好处在于,若所获取的导视图中的文字已经与预设语言类型匹配,则无需进行文字转换操作,避免不必要的操作。
本申请实施例中对文字识别的过程不做具体限定,可采用相关技术中的文字识别手段,如一般可包括预处理、灰度化、降噪、二值化、字符切分以及归一化等步骤。在识别出导视图中的文字后,对该文字进行语言类型判定,若不是预设语言类型,则将导视图中的文字转换为与预设语言类型对应的目标文字。例如,预设语言类型为汉语,而当前导视图中的文字为韩语,那么可将导视图中的韩语文字转换为汉语文字。
步骤103、控制穿戴式设备显示包含所述目标文字的目标导视图。
本申请实施例中,在将导视图中的文字转换为与预设语言类型对应的目标文字后,可将目标文字添加至原来的导视图中,并保留原来的导视图中的文字,得到目标导视图;也可将原来的导视图中的文字替换为目标文字,得到目标导视图。
本申请实施例中,穿戴式设备具备影像显示功能,本申请实施例对穿戴式设备的成像原理不做限定。示例性的,可以通过微型投影仪进行成像,如利用光学反射投影原理,由微型投影仪将光投到一块反射屏上,而后通过一块凸透镜折射到人体眼球,实现“一级放大”,在人眼前形成一个足够大的虚拟屏幕,可以显示文本信息及图像等。示例性的,还可以利用低功率激光进行投影,由激光器在眼镜片上显示出一定像素的图像,该图像会被反射到用户的视网膜,从而实现影像显示。当然,还可以有其他的成像方式,本申请实施例不再一一介绍。
在控制穿戴式设备显示包含所述目标文字的目标导视图之后,用户即可通过穿戴式设备观看到符合自己语言习惯的目标建筑物的导视图,方便查找自己感兴趣的地点,并根据导视图中的示意信息到达该地点。可选的,目标导视图中还可标记出用户的当前所在位置及方位等信息,进一步帮助用户快速读懂目标导视图,从更高效地利用目标导视图向目的地行进。
本申请实施例中提供的穿戴式设备的控制方法,获取目标建筑物的导视图,识别导视图中的文字,并将文字转换为与预设语言类型对应的目标文字,控制穿戴式设备显示包含目标文字的目标导视图。通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,获取建筑物的导视图,并将导视图中的文字转换为用户熟悉的语言,帮助用户了解建筑物的内部布局情况,可以丰富穿戴式设备的功能。
在一些实施例中,在控制所述穿戴式设备显示包含所述目标文字的目标导视图之后,还包括:检测用户的第一操作;根据所述第一操作确定目标位置;规划当前位置到所述目标位置的路线,并在所述目标导视图上对路线信息进行显示。这样设置的好处在于,能够为用户提供合理的行进线路,帮助用户快速到达自己心中的目的地。穿戴式设备作为一种智能设备,能够帮助用户实现各种各样的功能,利用人机交互用户可以对穿戴式设备进行控制。本申请实施例中对穿戴式设备接收操作的具体方式不做限定,第一操作可以是任意形式的任意一个用于对穿戴式设备进行控制的操作。示例性的,穿戴式设备上可以设置实体按键或虚拟按键(如触摸式按键),用户可以通过指定触发方式(如点击、长按或连续多次点击等)按压或触摸穿戴式设备上的按键来表达自己的操作意愿,穿戴式设备在检测到某个按键被以某种方式触发时,可根据按键属性(如名称)及触发方式识别出用户的操作意愿,以控制穿戴式设备响应用户的操作。示例性的,穿戴式设备上还可以设置语音识别模块,利用该模块对用户说出的自然语言进行语义分析,得到相应的语音内容,并根据该语音内容控制穿戴式设备响应用户的语音命令。示例性的,穿戴式设备上还可以设置用于感测用户动作的传感器(如超声波传感器等),如可感测用户的手势动作等,利用该传感器识别出用户用于表达操作意愿的动作,并根据该动作的类型控制穿戴式设备进行相应的响应。
可选的,所述第一操作对应的操作类型包括注视、语音或手势。
以注视为例,可以利用穿戴式设备来检测用户的眼睛所注视的对象,具体的检测方式可以有很多种,本申请实施例不做限定。示例性的,可以在穿戴式设备的镜框内侧设置第二摄像头,该第二摄像头可以对用户眼睛的运动进行追踪,获得用户眼睛的运动情况,再分析出用户眼睛注视的方向,进而确定用户注视的对象,该对象可表示用户希望达到的目标地点。第二摄像头可以是实时开启的,也可以在满足开启条件时开启。可选的,根据第一操作确定目标位置可包括:获取用户在所述目标导视图中注视的目标对象,将所述目标对象对应的位置确定为目标位置。进一步的,将所述目标对象对应的位置确定为目标位置,包括:当所述目标对象被所述用户注视的时长达到预设时长阈值时或者当所述目标对象被所述用户注视的次数达到预设次数阈值时,将所述目标对象对应的位置确定为目标位置。这样设置的好处在于,更加准确地确定用户真正关注的地点,避免误将用户不关注的地点确定为目标位置。可以理解的是,当用户长时间注视某一对象,或者多次注视某一对象时,可以说明用户对该对象比较关注,因此,当目标对象被用户注视的时长达到预设时长阈值时或者被注视的次数达到预设次数阈值时,认为目标对象对应的位置为用户真正想要去的地方。其中,预设时长阈值的具体数值不做限定,例如可以是5秒;预设次数阈值的具体数值也不做限定,例如可以是3次。人的眼睛近似球形,位于眼眶内。眼球包括眼球壁、眼内腔和内容物、神经、血管等组织。眼球壁主要分为外层、中层及内层。眼球壁外层由角膜、巩膜组成。眼球壁外层的前1/6为透明的角膜,俗称“眼珠”,其余5/6为白色的巩膜,俗称“眼白”。本申请实施例中,可利用上文所述的第二摄像头获取用户的眼部图像,根据眼部图像计算眼珠在眼眶中的相对位置,进而计算出用户眼睛的注视方向,将该注视方向映射到目标导览图中,从而确定目标导览图中被用户注视的目标对象。
以语音为例,用户在通过穿戴式设备查看目标导览图时,能够看到其中自己熟悉的文字,当用户找到自己想要达到的地点时,可以直接以自然语言的方式发出语音指令,如“我想去XX店铺”,这时,穿戴式设备可以利用语音识别模块对用户的语音进行分析,从中提取出目标导览图中出现的目标位置。
以手势为例,穿戴式设备呈现的一般是放大的虚拟图像,用户可以透过穿戴式设备的镜片看到自己的手部,并观察手部与目标导览图中各位置之间的相对位置关系,可利用画圈、点击、双击或长时间停驻(如手部保持同样的姿势持续预设时长)等手势来选择自己想要达到的地点,穿戴式设备可以利用上文所述的第一摄像头对用户的手势进行获取及识别,进而确定满足条件的手势所对应的地点,将该地点确定为目标位置。
在确定了目标位置后,可获取用户所处的当前位置,当目标导览图中已显示用户位置时,可无需重新获取,当目标导览图中未显示用户位置时,可利用穿戴式设备中的定位模块进行定位,进而确定当前位置。穿戴式设备可以计算当前位置行进至目标位置的可行路线,并将可行路线推荐给用户,一般可推荐可行路线中的最短路线,帮助用户快速到达目标位置。在目标导视图上显示的路线信息可以文字形式体现,也可以线条及箭头等方式体现,本申请实施例不做限定。
在一些实施例中,在控制所述穿戴式设备显示包含所述目标文字的目标导视图之后,还包括:根据用户的手势操作对目标导视图进行相应的显示调整操作。这样设置的好处在于,能够灵活调整目标导视图的显示方式,方便用户更好地查看目标导视图。显示调整操作例如可包括放大操作、缩小操作及移动操作等等。例如,当目标导视图中包含的信息较多时,用户可能不容易找到自己感兴趣的信息,那么可以利用手势操作来对目标导视图进行放大,能够更清楚地看到目标导视图的细节,还可利用手势操作对放大后的目标导视图进行移动,将自己感兴趣的区域移动到正前方,方便查看。
在一些实施例中,所述获取目标建筑物的导视图,包括:获取当前的定位信息;根据所述定位信息确定目标建筑物;获取所述目标建筑物的导视图。这样设置的好处在于,可以利用定位的方式自动确定用户所处的建筑物,无需用户手动设置。可选的,可在穿戴式设备中内置定位模块,如全球定位***(Global Positioning System,GPS)模块,利用定位模块确定用户所处的目标建筑物。
在一些实施例中,所述获取目标建筑物的导视图,包括:获取用户的重心变化信息;根据所述重心变化信息确定目标建筑物中对应的目标楼层序号;获取所述目标楼层序号对应的导视图。这样设置的好处在于,目标建筑物中可能存在多个楼层,能够自动筛选出用户当前所处楼层,并获取当前楼层对应的导视图用于后续的显示,避免其他不相关楼层的导视图对当前楼层导视图的干扰,造成穿戴式设备可视区域的浪费。以多层的商场为例,利用定位信息一般仅能够获得用户在水平方向的位置,且GPS等卫星定位方式一般无法在建筑物内部使用,而本申请实施例可在用户进入商场之前就对用户的重心变化进行实时监测,根据重心变化幅度确定用户在垂直方向上的相对位移,进而确定用户所处楼层。其中,重心变化信息可利用穿戴式设备中集成的加速度传感器等运动传感器获得,本申请实施例不做限定。
在一些实施例中,在控制所述穿戴式设备显示包含所述目标文字的目标导视图之后,还包括:检测用户的第二操作;根据所述第二操作确定待切换楼层序号;获取所述待切换楼层序号对应的导视图,并重复进行识别所述导视图中的文字的相关操作。这样设置的好处在于,可方便用户在不同楼层的导视图之间进行切换,便于在整个建筑物范围内查找想要到达的地点。可选的,第二操作对应的操作类型可以与第一操作相同,也可以不同,具体的实现方式可参考第一操作的相关描述,此处不再赘述。示例性的,可通过穿戴式设备显示各楼层序号对应的标识,当用户注视待切换楼层序号、说出待切换楼层序号或用手势选择待切换楼层序号时,获取待切换楼层序号对应的导视图,并重复进行识别所述导视图中的文字的相关操作,如识别待切换楼层序号对应的导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字,控制穿戴式设备显示包含目标文字的待切换楼层序号对应的目标导视图。
图2为本申请实施例提供的另一种穿戴式设备的控制方法的流程示意图,该方法包括如下步骤:
步骤201、开启穿戴式设备的导视功能。
示例性的,当用户佩戴穿戴式设备来到某个建筑物时,可主动开启穿戴式设备的导视功能,如触摸镜腿外侧表示导视功能的触摸区域,或按压镜框上表示导视功能的实体按钮等。
步骤202、利用穿戴式设备内置的定位模块获取当前的定位信息,并根据定位信息确定目标建筑物。
示例性的,穿戴式设备可以自动根据定位信息确定用户当前所处的目标建筑物;也可将定位信息发送至预设服务器,由预设服务器来根据定位信息确定目标建筑物。
步骤203、获取目标建筑物的导视图。
示例性的,可以将上述定位信息或所确定的目标建筑物发送给预设服务器,预设服务器搜索目标建筑物对应的导视图,并将该导视图反馈给穿戴式设备。
步骤204、识别导视图中的文字,并确定文字对应的语言类型。
步骤205、判断语言类型是否为预设语言类型,若是,则执行步骤207;否则,执行步骤206。
步骤206、将导视图中的文字转换为与预设语言类型对应的目标文字。
步骤207、控制穿戴式设备显示包含所述目标文字的目标导视图。
可以理解的是,在执行步骤205之后,直接执行步骤207的情况下,导视图中原有的文字可以理解为本步骤中的目标文字,因为两者的语言类型是一致的,相应的,原来的导视图也可以理解为本步骤中的目标导视图。
步骤208、获取用户在目标导视图中注视的目标对象,将目标对象对应的位置确定为目标位置。
可选的,当目标对象被用户注视的时长达到预设时长阈值时,将目标对象对应的位置确定为目标位置,若未达到,则重新确定目标对象。
步骤209、规划当前位置到目标位置的路线,并在目标导视图上对路线信息进行显示。
本申请实施例提供的穿戴式设备的控制方法,当穿戴式设备的导视功能开启后,穿戴式设备能够自动定位用户所处的建筑物,并获取建筑物对应的导视图,将导视图中的文字转换为预设语言类型的文字并通过穿戴式设备进行显示,根据用户的注视操作确定目标位置,并智能地向用户推荐路线信息,帮助用户快速到达想要达到的地点。
图3为本申请实施例提供的又一种穿戴式设备的控制方法的流程示意图,可适用于多层建筑物的应用场景,该方法包括:
步骤301、开启穿戴式设备的导视功能。
步骤302、利用穿戴式设备内置的定位模块获取当前的定位信息,并根据定位信息确定目标建筑物。
步骤303、在确定目标建筑物为多层建筑时,获取用户的重心变化信息。
示例性的,多层建筑可包括如商场、图书馆以及教学楼等包含多个楼层的建筑。
步骤304、根据重心变化信息确定目标建筑物中对应的目标楼层序号,并获取目标楼层序号对应的第一导视图。
步骤305、识别第一导视图中的第一文字,并将第一文字转换为与预设语言类型对应的第一目标文字。
步骤306、控制穿戴式设备显示包含第一目标文字的第一目标导视图。
步骤307、根据检测到的第一手势操作对第一目标导视图进行相应的显示调整操作。
步骤308、根据检测到的第二手势操作确定第一目标导视图中的目标位置,并规划当前位置到目标位置的路线。
步骤309、在第一目标导视图中对路线信息进行显示。
步骤310、根据检测到的用户语音确定待切换楼层序号,并获取待切换楼层序号对应的第二导视图,将第二导视图中的第二文字转换为与预设语言类型对应的第二目标文字。
示例性的,用户可以以自然语言的方式发出语音指令,如“切换到第三层”,那么穿戴式设备就会识别出待切换楼层序号为三。
步骤311、控制穿戴式设备显示包含第二目标文字的第二目标导视图。
可以理解的是,接下来可以针对第二目标导视图执行与第一目标导视图相似的操作,如步骤307至步骤309,此处不再赘述。
本申请实施例提供的穿戴式设备的控制方法,当穿戴式设备的导视功能开启后,穿戴式设备能够自动定位用户所处的建筑物,还能够利用重心变化自动检测用户所处楼层,并获取相应楼层的导视图,将导视图中的文字转换为预设语言类型的文字并通过穿戴式设备进行显示,根据用户的手势操作对导视图进行显示控制以及确定目标位置,并智能地向用户推荐路线信息,帮助用户快速到达想要达到的地点,有效提高穿戴式设备的智能化程度。
图4为本申请实施例提供的一种穿戴式设备的控制装置的结构框图,该装置可由软件和/或硬件实现,一般集成在穿戴式设备中,可通过执行穿戴式设备的控制方法来对穿戴式设备进行控制。如图4所示,该装置包括:
导视图获取模块401,用于获取目标建筑物的导视图;
文字转换模块402,用于识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字;
导视图显示模块403,用于控制所述穿戴式设备显示包含所述目标文字的目标导视图。
本申请实施例中提供的穿戴式设备的控制装置,获取目标建筑物的导视图,识别导视图中的文字,并将文字转换为与预设语言类型对应的目标文字,控制穿戴式设备显示包含目标文字的目标导视图。通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,获取建筑物的导视图,并将导视图中的文字转换为用户熟悉的语言,帮助用户了解建筑物的内部布局情况,可以丰富穿戴式设备的功能。
可选的,识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字,包括:
识别所述导视图中的文字,并确定所述文字对应的语言类型;
在判断出所述语言类型与预设语言类型不匹配时,将所述文字转换为与预设语言类型对应的目标文字。
可选的,该装置还包括:
第一操作检测模块,用于在控制所述穿戴式设备显示包含所述目标文字的目标导视图之后,检测用户的第一操作;
目标位置确定模块,用于根据所述第一操作确定目标位置;
路线规划模块,用于规划当前位置到所述目标位置的路线,并在所述目标导视图上对路线信息进行显示。
可选的,所述第一操作对应的操作类型包括注视、语音或手势。
可选的,所述获取目标建筑物的导视图,包括:
获取当前的定位信息;
根据所述定位信息确定目标建筑物;
获取所述目标建筑物的导视图。
可选的,所述获取目标建筑物的导视图,包括:
获取用户的重心变化信息;
根据所述重心变化信息确定目标建筑物中对应的目标楼层序号;
获取所述目标楼层序号对应的导视图。
可选的,该装置还包括:在控制所述穿戴式设备显示包含所述目标文字的目标导视图之后,还包括:
第二操作检测模块,用于检测用户的第二操作;
待切换序号确定模块,用于根据所述第二操作确定待切换楼层序号;
所述导视图获取模块还用于:获取所述待切换楼层序号对应的导视图,并指示其他相关模块重复进行识别所述导视图中的文字的相关操作。
本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行穿戴式设备的控制方法,该方法包括:
获取目标建筑物的导视图;
识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字;
控制所述穿戴式设备显示包含所述目标文字的目标导视图。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机***存储器或随机存取存储器,诸如DRAM、DDRRAM、SRAM、EDORAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机***中,或者可以位于不同的第二计算机***中,第二计算机***通过网络(诸如因特网)连接到第一计算机***。第二计算机***可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机***中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的穿戴式设备的控制操作,还可以执行本申请任意实施例所提供的穿戴式设备的控制方法中的相关操作。
本申请实施例提供了一种穿戴式设备,该穿戴式设备中可集成本申请实施例提供的穿戴式设备的控制装置。图5为本申请实施例提供的一种穿戴式设备的结构示意图。穿戴式设备500可以包括:存储器501,处理器502及存储在存储器501上并可在处理器502运行的计算机程序,所述处理器502执行所述计算机程序时实现如本申请实施例所述的穿戴式设备的控制方法。
本申请实施例提供的穿戴式设备,可以在用户佩戴穿戴式设备的过程中,确定用户关注的对象,获取该对象的相关信息并采用增强现实的方式通过穿戴式设备显示出来,可以丰富穿戴式设备的功能,增强穿戴式设备的科技感。
上述示例中列举的存储器及微处理器均为穿戴式设备的部分元器件,所述穿戴式设备还可以包括其它元器件。图6为本申请实施例提供的又一种穿戴式设备的结构框图,图7为本申请实施例提供的一种穿戴式设备的示意实体图。如图6和图7所示,该穿戴式设备可以包括:存储器601、处理器(Central Processing Unit,CPU)602(以下简称CPU)、显示部件603、触控面板604、心率检测模组605、距离传感器606、摄像头607、骨传导扬声器608、麦克风609、呼吸灯610。这些部件通过一个或多个通信总线或信号线611(以下又称内部传输线路)来通信。
应该理解的是,图示穿戴式设备仅仅是一个范例,并且穿戴式设备可以具有比图中所示出的更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
下面就本实施例提供的穿戴式设备进行详细的描述,该穿戴式设备以智能眼镜为例。
存储器601,所述存储器601可以被CPU602访问,所述存储器601可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
显示部件603,可用于显示图像数据以及操作***的操控界面,显示部件603嵌入在智能眼镜的镜框中,镜框内部设置有内部传输线路611,该内部传输线路611和显示部件603连接。
触摸面板604,该触摸面板604设置在至少一个智能眼镜镜腿的外侧,用于获取触摸数据,触摸面板604通过内部传输线路611和CPU602连接。其中,触摸面板604可检测用户的手指滑动、点击操作,并相应的把检测到的数据传输至处理器602进行处理以生成对应的控制指令,示例性的,可以是左移指令、右移指令、上移指令、下移指令等。示例性的,显示部件603可显示处理器602传输的虚拟图像数据,该虚拟图像数据可相应的根据触摸面板604检测到的用户操作进行相应变化,具体的,可以是进行画面切换,当检测到左移指令或右移指令后相应的切换上一个或下一个虚拟图像画面;当显示部件603显示视频播放信息时,该左移指令可以是进行播放内容的回播,右移指令可以是进行播放内容的快进;当显示部件603显示的为可编辑文字内容时,该左移指令、右移指令、上移指令、下移指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件603显示的内容为游戏动画画面时,该左移指令、右移指令、上移指令、下移指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移指令、右移指令、上移指令、下移指令分别控制飞机的飞行方向;当显示部件603可显示不同频道的视频画面时,该左移指令、右移指令、上移指令、下移指令可进行不同频道的切换,其中,上移指令和下移指令可以是切换到预置频道(如用户使用的常用频道);当显示部件603显示静态图片时,该左移指令、右移指令、上移指令、下移指令可进行不同图片之间的切换,其中,左移指令可以是切换到上一幅图片,右移指令可以是切换至下一幅图,上移指令可以是切换到上一图集,下移指令可以是切换至下一图集。该触摸面板604还可用于对显示部件603的显示开关进行控制,示例性的,当长按压触摸面板604触摸区域时,显示部件603通电显示图像界面,当再次长按压触摸面板604触摸区域时,显示部件603断电,当显示部件603通电后,可通过在触摸面板604进行上滑和下滑操作以调节显示部件603中显示图像的亮度或分辨率。
心率检测模组605,用于测得用户的心率数据,心率指每分钟的心跳次数,该心率检测模组605设置在镜腿内侧。具体的,该心率检测模组605可以是通过电脉冲测量的方式使用干性电极获取人体心电数据,根据心电数据中的振幅峰值确定心率大小;该心率检测模组605还可以是由采用光电法测量心率的光线发射和光线接收器组成,相应的,该心率检测模组605设置在镜腿底部,人体耳廓的耳垂处。心率检测模组605采集到心率数据后可相应的发送至处理器602中进行数据处理已得到佩戴者当前的心率值,在一个实施例中,处理器602在确定出用户的心率值后,可将该心率值实时显示在显示部件603中,可选的处理器602在确定出心率值较低(如小于50)或较高(如大于100)可相应的触发报警器,同时将该心率值和/或生成的报警信息通过通信模块发送至服务器。
距离传感器606,可设置在镜框上,该距离传感器606用于感应人脸到镜框的距离,该距离传感器606可采用红外感应原理实现。具体的,该距离传感器606将采集的距离数据发送至处理器602,处理器602根据该距离数据控制显示部件603的亮暗。示例性的,当确定出距离传感器606采集到的距离小于5厘米时,处理器602相应的控制显示部件603处于点亮状态,当确定出距离传感器为探测到有物体靠近时,相应的控制显示部件604处于关闭状态。
呼吸灯610,可设置在镜框的边缘,当显示部件603关闭显示画面时,该呼吸灯610可根据处理器602的控制而点亮呈渐变亮暗效果。
摄像头607,可以是设置在镜框的上边框的位置,采集用户前方的图像数据的前摄像模块,还可以采集用户眼球信息的后摄像模块,也可以是二者的结合。具体的,摄像头607采集前方图像时,将采集的图像发送至处理器602识别、处理,并根据识别结果触发相应的触发事件。示例性的,当用户在家中佩戴该穿戴设备时,通过对采集的前方图像进行识别,如果识别到家具物品,则相应的查询是否存在对应的控制事件,如果存在,则相应的将该控制事件对应的控制界面显示在显示部件603中,用户可通过触摸面板604进行对应的家具物品的控制,其中该家具物品和智能眼镜通过蓝牙或无线自组网进行网络连接;当用户在户外佩戴该穿戴设备时,可相应的开启目标识别模式,该目标识别模式可用于识别特定的人,摄像头607将采集的图像发送至处理器602进行人脸识别处理,如果识别到设定的预设人脸,则相应的可通过智能眼镜集成的扬声器进行声音播报,该目标识别模式还可以用于识别不同的植物,例如,处理器602根据触摸面板604的触摸操作以记录摄像头607采集的当前图像并通过通信模块发送至服务器以进行识别,服务器对采集图像中的植物进行识别并反馈相关的植物名称、介绍至智能眼镜,并将反馈数据显示在显示部件603中。摄像头607还可以是用于采集用户眼部如眼球的图像,通过对眼球的转动的识别生成不同的控制指令,示例性的,如眼球向上转动生成上移控制指令,眼球向下转动生成下移控制指令,眼球向左转动生成左移控制指令,眼球向右转动生成右移控制指令,其中合格,显示部件603可显示处理器602传输的虚拟图像数据,该虚拟图像数据可相应的根据摄像头607检测到的用户眼球的移动变化生成的控制指令而改变,具体的,可以是进行画面切换,当检测到左移控制指令或右移控制指令后相应的切换上一个或下一个虚拟图像画面;当显示部件603显示视频播放信息时,该左移控制指令可以是进行播放内容的回播,右移控制指令可以是进行播放内容的快进;当显示部件603显示的为可编辑文字内容时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件603显示的内容为游戏动画画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移控制指令、右移控制指令、上移控制指令、下移控制指令分别控制飞机的飞行方向;当显示部件603可显示不同频道的视频画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同频道的切换,其中,上移控制指令和下移控制指令可以是切换到预置频道(如用户使用的常用频道);当显示部件603显示静态图片时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同图片之间的切换,其中,左移控制指令可以是切换到上一幅图片,右移控制指令可以是切换至下一幅图,上移控制指令可以是切换到上一图集,下移控制指令可以是切换至下一图集。
骨传导扬声器608,骨传导扬声器608设置在至少一个镜腿的内壁侧,用于将接收到的处理器602发送的音频信号转换为振动信号。其中,骨传导扬声器608将声音通过颅骨传递至人体内耳,通过将音频的电信号转变为振动信号传递到颅骨耳蜗内,再被听觉神经所感知。通过骨传导扬声器608作为发声装置减少了硬件结构厚度,重量更轻,同时无电磁辐射也不会受到电磁辐射的影响,并且具备抗噪声、防水以及解放双耳的有点。
麦克风609,可设置在镜框的下边框上,用于采集外部(用户、环境)声音并传输至处理器602进行处理。示例性的,麦克风609对用户发出的声音进行采集并通过处理器602进行声纹识别,如果识别为认证用户的声纹,则相应的可接收后续的语音控制,具体的,用户可发出语音,麦克风609将采集到的语音发送至处理器602进行识别以根据识别结果生成对应的控制指令,如“开机”、“关机”、“提升显示亮度”、“降低显示亮度”,处理器602后续根据该生成的控制指令执行对应的控制处理。
上述实施例中提供的穿戴式设备的控制装置、存储介质及穿戴式设备可执行本申请任意实施例所提供的穿戴式设备的控制方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的穿戴式设备的控制方法。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (11)
1.一种穿戴式设备的控制方法,其特征在于,包括:
获取目标建筑物的导视图;
识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字;
控制穿戴式设备显示包含所述目标文字的目标导视图。
2.根据权利要求1所述的方法,其特征在于,识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字,包括:
识别所述导视图中的文字,并确定所述文字对应的语言类型;
在判断出所述语言类型与预设语言类型不匹配时,将所述文字转换为与预设语言类型对应的目标文字。
3.根据权利要求1所述的方法,其特征在于,在控制穿戴式设备显示包含所述目标文字的目标导视图之后,还包括:
接收用户的第一操作;
根据所述第一操作确定目标位置;
规划当前位置到所述目标位置的路线,并在所述目标导视图上对路线信息进行显示。
4.根据权利3所述的方法,其特征在于,所述第一操作对应的操作类型包括注视、语音或手势。
5.根据权利要求1所述的方法,其特征在于,所述获取目标建筑物的导视图,包括:
获取当前的定位信息;
根据所述定位信息确定目标建筑物;
获取所述目标建筑物的导视图。
6.根据权利要求1所述的方法,其特征在于,所述获取目标建筑物的导视图,包括:
获取用户的重心变化信息;
根据所述重心变化信息确定目标建筑物中对应的目标楼层序号;
获取所述目标楼层序号对应的导视图。
7.根据权利要求6所述的方法,其特征在于,在控制穿戴式设备显示包含所述目标文字的目标导视图之后,还包括:
接收用户的第二操作;
根据所述第二操作确定待切换楼层序号;
获取所述待切换楼层序号对应的导视图,并重复进行识别所述导视图中的文字的相关操作。
8.根据权利要求1所述的方法,其特征在于,所述可穿戴设备包括智能眼镜。
9.一种穿戴式设备的控制装置,其特征在于,包括:
导视图获取模块,用于获取目标建筑物的导视图;
文字转换模块,用于识别所述导视图中的文字,并将所述文字转换为与预设语言类型对应的目标文字;
导视图显示模块,用于控制穿戴式设备显示包含所述目标文字的目标导视图。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的穿戴式设备的控制方法。
11.一种穿戴式设备,其特征在于,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-8任一所述的穿戴式设备的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811000739.7A CN109241900B (zh) | 2018-08-30 | 2018-08-30 | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811000739.7A CN109241900B (zh) | 2018-08-30 | 2018-08-30 | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109241900A true CN109241900A (zh) | 2019-01-18 |
CN109241900B CN109241900B (zh) | 2021-04-09 |
Family
ID=65069874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811000739.7A Active CN109241900B (zh) | 2018-08-30 | 2018-08-30 | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241900B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111125554A (zh) * | 2019-12-17 | 2020-05-08 | 上海秒针网络科技有限公司 | 信息推送的方法和装置、存储介质及电子装置 |
CN111782053A (zh) * | 2020-08-10 | 2020-10-16 | Oppo广东移动通信有限公司 | 模型编辑方法、装置、设备及存储介质 |
CN113791689A (zh) * | 2021-09-15 | 2021-12-14 | 云茂互联智能科技(厦门)有限公司 | 智能设备的控制方法、装置、存储介质及电子装置 |
US11670081B2 (en) * | 2021-06-03 | 2023-06-06 | At&T Intellectual Property I, L.P. | Providing hospitality-related data using an augmented reality display |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103597476A (zh) * | 2011-06-13 | 2014-02-19 | 索尼公司 | 信息处理装置、信息处理方法及计算机程序 |
CN104061934A (zh) * | 2014-06-10 | 2014-09-24 | 哈尔滨工业大学 | 基于惯性传感器的行人室内位置跟踪方法 |
US20150070274A1 (en) * | 2013-06-17 | 2015-03-12 | 3Divi Company | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements |
CN104517107A (zh) * | 2014-12-22 | 2015-04-15 | 央视国际网络无锡有限公司 | 基于可穿戴设备的实时翻译图片文字的方法 |
CN105893993A (zh) * | 2016-06-07 | 2016-08-24 | 深圳创龙智新科技有限公司 | 智能眼镜 |
CN106325504A (zh) * | 2016-08-16 | 2017-01-11 | 合肥东上多媒体科技有限公司 | 一种博物馆智能数字导游*** |
CN106462574A (zh) * | 2014-06-24 | 2017-02-22 | 谷歌公司 | 用于基于来自图像的非文本上下文信息的来自图像的文本的机器语言翻译的技术 |
CN106500690A (zh) * | 2016-09-22 | 2017-03-15 | 中国电子科技集团公司第二十二研究所 | 一种基于多模态融合的室内自主定位方法和装置 |
CN106507285A (zh) * | 2016-11-22 | 2017-03-15 | 宁波亿拍客网络科技有限公司 | 一种基于位置基点的定位方法、特定标记及相关设备方法 |
CN106774836A (zh) * | 2016-11-23 | 2017-05-31 | 上海擎感智能科技有限公司 | 智能眼镜及其控制方法、控制装置 |
US20170300474A1 (en) * | 2016-04-15 | 2017-10-19 | Tata Consultancy Services Limited | Apparatus and method for printing steganography to assist visually impaired |
CN107832309A (zh) * | 2017-10-18 | 2018-03-23 | 广东小天才科技有限公司 | 一种语言翻译的方法、装置、可穿戴设备及存储介质 |
CN108369630A (zh) * | 2015-05-28 | 2018-08-03 | 视觉移动科技有限公司 | 用于智能家居的手势控制***和方法 |
-
2018
- 2018-08-30 CN CN201811000739.7A patent/CN109241900B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103597476A (zh) * | 2011-06-13 | 2014-02-19 | 索尼公司 | 信息处理装置、信息处理方法及计算机程序 |
US20150070274A1 (en) * | 2013-06-17 | 2015-03-12 | 3Divi Company | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements |
CN104061934A (zh) * | 2014-06-10 | 2014-09-24 | 哈尔滨工业大学 | 基于惯性传感器的行人室内位置跟踪方法 |
CN106462574A (zh) * | 2014-06-24 | 2017-02-22 | 谷歌公司 | 用于基于来自图像的非文本上下文信息的来自图像的文本的机器语言翻译的技术 |
CN104517107A (zh) * | 2014-12-22 | 2015-04-15 | 央视国际网络无锡有限公司 | 基于可穿戴设备的实时翻译图片文字的方法 |
CN108369630A (zh) * | 2015-05-28 | 2018-08-03 | 视觉移动科技有限公司 | 用于智能家居的手势控制***和方法 |
US20170300474A1 (en) * | 2016-04-15 | 2017-10-19 | Tata Consultancy Services Limited | Apparatus and method for printing steganography to assist visually impaired |
CN105893993A (zh) * | 2016-06-07 | 2016-08-24 | 深圳创龙智新科技有限公司 | 智能眼镜 |
CN106325504A (zh) * | 2016-08-16 | 2017-01-11 | 合肥东上多媒体科技有限公司 | 一种博物馆智能数字导游*** |
CN106500690A (zh) * | 2016-09-22 | 2017-03-15 | 中国电子科技集团公司第二十二研究所 | 一种基于多模态融合的室内自主定位方法和装置 |
CN106507285A (zh) * | 2016-11-22 | 2017-03-15 | 宁波亿拍客网络科技有限公司 | 一种基于位置基点的定位方法、特定标记及相关设备方法 |
CN106774836A (zh) * | 2016-11-23 | 2017-05-31 | 上海擎感智能科技有限公司 | 智能眼镜及其控制方法、控制装置 |
CN107832309A (zh) * | 2017-10-18 | 2018-03-23 | 广东小天才科技有限公司 | 一种语言翻译的方法、装置、可穿戴设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
MARI SEKIGUCHI 等: "Development of a wearable system for navigating the visually impaired in the indoor environment - a prototype system for fork detection and navigation -", 《THE 23RD IEEE INTERNATIONAL SYMPOSIUM ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION》 * |
冀程: "BIM技术在轨道交通工程设计中的应用", 《地下空间与工程学报》 * |
金欣: "指挥控制智能化现状与发展", 《指挥信息***与技术》 * |
高雪: "面向可穿戴计算机的电子地图***的研究与开发", 《中国优秀硕士学位论文全文数据库 基础科学辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111125554A (zh) * | 2019-12-17 | 2020-05-08 | 上海秒针网络科技有限公司 | 信息推送的方法和装置、存储介质及电子装置 |
CN111782053A (zh) * | 2020-08-10 | 2020-10-16 | Oppo广东移动通信有限公司 | 模型编辑方法、装置、设备及存储介质 |
US11670081B2 (en) * | 2021-06-03 | 2023-06-06 | At&T Intellectual Property I, L.P. | Providing hospitality-related data using an augmented reality display |
CN113791689A (zh) * | 2021-09-15 | 2021-12-14 | 云茂互联智能科技(厦门)有限公司 | 智能设备的控制方法、装置、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109241900B (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109254659A (zh) | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 | |
US9342610B2 (en) | Portals: registered objects as virtualized, personalized displays | |
JP7016263B2 (ja) | アイフィードバックによるコミュニケーションを可能にするシステム及び方法 | |
CN109241900A (zh) | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 | |
JP6929644B2 (ja) | 注視によるメディア選択及び編集のためのシステム並びに方法 | |
CN109145847B (zh) | 识别方法、装置、穿戴式设备及存储介质 | |
KR20190100957A (ko) | 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의 자동 제어 | |
CN109259724B (zh) | 一种用眼监控方法、装置、存储介质及穿戴式设备 | |
CN112181152A (zh) | 基于mr眼镜的广告推送管理方法、设备及应用 | |
TW201228380A (en) | Comprehension and intent-based content for augmented reality displays | |
CN109120790A (zh) | 通话控制方法、装置、存储介质及穿戴式设备 | |
CN109255064A (zh) | 信息搜索方法、装置、智能眼镜及存储介质 | |
CN109189225A (zh) | 显示界面调整方法、装置、穿戴式设备及存储介质 | |
CN109087485A (zh) | 驾驶提醒方法、装置、智能眼镜及存储介质 | |
CN109358744A (zh) | 信息共享方法、装置、存储介质及穿戴式设备 | |
CN109240639A (zh) | 音频数据的获取方法、装置、存储介质及终端 | |
CN109224432A (zh) | 娱乐应用的操控方法、装置、存储介质及穿戴式设备 | |
CN109119080A (zh) | 声音识别方法、装置、穿戴式设备及存储介质 | |
CN109257490A (zh) | 音频处理方法、装置、穿戴式设备及存储介质 | |
CN109059929A (zh) | 导航方法、装置、穿戴式设备及存储介质 | |
CN109068126B (zh) | 视频播放方法、装置、存储介质及穿戴式设备 | |
CN109255314B (zh) | 信息提示方法、装置、智能眼镜及存储介质 | |
CN109238306A (zh) | 基于穿戴式设备的计步数据校验方法、装置、存储介质及终端 | |
CN109144264A (zh) | 显示界面调整方法、装置、穿戴式设备及存储介质 | |
CN109782968A (zh) | 一种界面调整方法及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |