CN104750234B - 可穿戴智能设备及可穿戴智能设备的互动方法 - Google Patents

可穿戴智能设备及可穿戴智能设备的互动方法 Download PDF

Info

Publication number
CN104750234B
CN104750234B CN201310741185.7A CN201310741185A CN104750234B CN 104750234 B CN104750234 B CN 104750234B CN 201310741185 A CN201310741185 A CN 201310741185A CN 104750234 B CN104750234 B CN 104750234B
Authority
CN
China
Prior art keywords
smart machine
wearable smart
data
micro
spectroscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310741185.7A
Other languages
English (en)
Other versions
CN104750234A (zh
Inventor
伍强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Semiconductor Manufacturing International Shanghai Corp
Semiconductor Manufacturing International Beijing Corp
Original Assignee
Semiconductor Manufacturing International Shanghai Corp
Semiconductor Manufacturing International Beijing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Semiconductor Manufacturing International Shanghai Corp, Semiconductor Manufacturing International Beijing Corp filed Critical Semiconductor Manufacturing International Shanghai Corp
Priority to CN201310741185.7A priority Critical patent/CN104750234B/zh
Priority to US14/569,860 priority patent/US10007331B2/en
Publication of CN104750234A publication Critical patent/CN104750234A/zh
Application granted granted Critical
Publication of CN104750234B publication Critical patent/CN104750234B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

可穿戴智能设备及其互动方法,可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。本发明的可穿戴智能设备及其互动方法能够将控制界面的图像界面虚像与操作者动作的位置或者位置随时间的变化方式匹配或关联,使得操作者动作与视觉效果一致或关联。

Description

可穿戴智能设备及可穿戴智能设备的互动方法
技术领域
本发明涉及智能电子领域,特别涉及一种可穿戴智能设备及可穿戴智能设备的互动方法。
背景技术
可穿戴智能设备是直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴智能设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴智能设备将会对我们的生活、感知带来很大的转变。
可穿戴智能设备被认为是推动电子产业发展的下一个热点,有消息称:到2016年,全球可穿戴智能设备市场的规模,将达到60亿美元。
为了占据有利的领先地位,各大公司纷纷在可穿戴智能设备上投入大量的资金进行研究,并推出相应的产品。其中,苹果公司推出“iWatch”产品,耐克公司推出“Nike+FuelBand SE”产品,阿迪达斯公司即将推出的安卓***智能手表,宏智力科技公司推出“BrainLink意念力头箍”产品,索尼公司推出“Smart Watch”产品,百度公司推出“咕咚手环”产品,迪斯尼公司推出“MagicBand”产品,盛大公司推出“GEAK智能手表”产品,谷歌公司推出“Google Glass”产品。
但是,上述产品或多或少都存在缺陷,上述的某些产品主要功能为跑步计算、导航和遥控拍照,或者记录用户的运动数据,记录结果并不准确。而谷歌公司的“Google Glass”的功能也局限于声音控制拍照、视频通话、导航和上网冲浪等,且由于“Google Glass”的缺陷,谷歌公司已经宣布推迟将“Google Glass”推向市场,
而在2013年8月14日互联网大会中,小米科技CEO雷军表示,“我也使用过很多智能穿戴设备,光手环就试用过10个以上,以及谷歌眼镜。在使用这些设备之前抱着很大好奇心,然而仔细研究过后,对实际的体验效果比较失望。”雷军进一步表示:可穿戴智能设备的整个产业链还未真正成熟,真正大规模使用还要假以时日。
发明内容
本发明解决的问题是提供一种匹配度高且功能局限性小的可穿戴智能设备。
为解决上述问题,本发明提供一种可穿戴智能设备,包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
可选的,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
可选的,所述位置传感器为声波反射器,所述位置识别器为金属环。
可选的,所述声波反射器用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心;中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述微投影仪包括:微光源,适于为微投影仪提供光源;图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;微投影透镜,配置于适于沿微投影仪的光学***轴线移动,以按使用者的焦距变化将图像输出;通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
可选的,所述位置随时间的变化方式至少包括:点击、双击或滑动。
可选的,所述操作指令至少包括:选取、确定、移动或解锁。
可选的,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
可选的,所述设备框架配置有镜片且穿戴于使用者眼睛前。
可选的,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
可选的,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
本发明还提供一种穿戴智能设备的互动方法,包括:提供目标物和可穿戴智能设备,可穿戴智能设备至少包括:微投影仪、分光镜、位置传感器和中央数据中心,所述中央数据中心预设有互动模式;根据所述位置传感器获取所述目标物的位置和位置随时间的变化方式,并将所述位置和位置随时间的变化方式的数据发送至中央数据中心;所述中央数据中心根据所述互动模式对位置和位置随时间的变化方式进行分析,并将结果转换成对应的图形数据;所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
可选的,所述互动模式为格斗模式,所述目标物为攻击者,所述中央数据中心根据所述格斗模式对攻击者的位置和动作进行分析并获得攻击者弱点,并将弱点转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与攻击者的弱点叠加。
可选的,所述图形投影为拳头图形。
可选的,所述互动模式为棋谱模式,所述目标物为棋盘和棋盘上的棋子,所述中央数据中心根据所述棋谱模式对棋盘和棋盘上的棋子的位置和变动进行分析并获得对应的下棋提示,并将下棋提示转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与棋盘上的位置叠加。
可选的,还包括:提供本地数据库或远程数据库。
可选的,所述中央数据中心根据所述互动模式对所述位置和动作进行分析包括:调用本地数据库,或者远程数据库的数据支持。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
与现有技术相比,本发明的技术方案具有以下优点:本发明提供一种虚-实结合的可穿戴智能设备,通过感应操作者的动作,并将控制界面的图像界面虚像与操作者的位置或者位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
进一步,采用戒指作为位置识别器适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式,不会额外的增加用户的穿戴负担,且能够增强探测效果。
本发明的可穿戴智能设备的互动方法能够隐蔽、便携的提示使用者,让使用者获取互动技巧的同时不打扰旁边的其他人。
附图说明
图1是本发明一实施例的可穿戴智能设备示意图;
图2为本发明一实施例的可穿戴智能设备的所述微投影仪的示意图;
图3为本发明另一实施例的可穿戴智能设备示意图;
图4为本发明又一实施例的可穿戴智能设备示意图;
图5为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图;
图6为本发明又一实施例的可穿戴智能设备示意图;
图7和图8为本发明一实施例的可穿戴智能设备图像传感器在获取至少部分人体的位置,并将所述位置转换为位置数据的示意图;
图9为本发明一实施例的图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据的示意图;
图10为本发明一实施例的可穿戴智能设备的互动方法流程示意图;
图11为本发明又一实施例的可穿戴智能设备的互动方法示意图。
具体实施方式
现有的可穿戴智能设备基本为声音控制拍照、视频通话、导航和上网冲浪,功能局限性强。
针对现有的可穿戴智能设备进行深入研究后发现:现有的可穿戴智能设备互动性差,某些设备需要通过声音来控制程序的启动,或者需要操作者通过控制设备内置的开关或按钮来进行操作,导致可穿戴智能设备需要额外设置声音控制硬件和类似的操作硬件,不但硬件成本增加且可穿戴智能设备与使用者的互动性较差。
针对上述研究,本发明提供一种虚-实结合的可穿戴智能设备,通过感应操作者的动作,并将控制界面的图像界面虚像与操作者的位置或者位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参考图1,图1为本发明一实施例的可穿戴智能设备示意图,包括:
设备框架100;
设置于设备框架100上的微投影仪110,适于将图像界面投射于分光镜120上;
设置于设备框架上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置和位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在一实施例中,所述设备框架100为眼镜式框架,具有横向延伸的第一支架101,从所述第一支架101两端延伸出的第一侧臂102和第二侧臂103。
其中,当所述可穿戴智能设备被使用者穿戴时,第一支架101大致平行使用者的脸部,且所述第一支架101用于为分光镜120和位置传感器130提供支撑平台,使得分光镜能够较佳地成虚像于人眼;而所述位置传感器130较佳的设置于第一支架101的***,使得位置传感器130能够尽可能大的范围的感应使用者的人体的位置和动作。
所述第一侧臂102或第二侧臂103用于为微投影仪110和中央数据中心140提供支撑平台。
作为一示例,在本实施例中所述微投影仪110和中央数据中心140设置于同一侧臂,设于第一侧臂102;需要说明的是,在其他实施例中,所述微投影仪110和中央数据中心140可以设置于第二侧臂103,或者所述微投影仪110和中央数据中心140可以分别设置于不同的侧臂,本领域的人员可以根据实际生产产品选择所述微投影仪110和中央数据中心140的位置,作为一个原则,所述微投影仪110需要与所述分光镜120匹配,使得适于将图像界面投射于分光镜120上。
还需要说明的是,所述第一支架101还可以配置有镜片且穿戴于使用者眼睛前。
请参考图2,图2为本发明一实施例的可穿戴智能设备的所述微投影仪110的放大图,所述微投影仪110包括:
微光源111,适于为微投影仪110提供光源。
作为一实施例,所述微光源111可以为LED(Light-Emitting Diode,缩写为LED)光源。
图像过滤器112,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
所述图像过滤器112可以根据需求部分透明以透过微光源111输出的光,从而输出所属的图像。
作为一实施例,所述图像过滤器112可以为液晶显示器(Liquid CrystalDisplay,缩写为LCD)。
微投影透镜113,配置于适于沿微投影仪的光学***轴线移动,以按使用者的焦距变化将图像输出;
所述微投影透镜113可以为多个透镜组成的透镜组。
所述微投影仪110还可以包括输入输出模块,以接受中央数据中心140的数据和指令,相应的将对应的图形或者操作界面以图像方式输出。
所述微投影仪110还可以设置为可调节投射角度,以控制输出图像的角度。
通过配置微投影仪110和分光镜120,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
请依旧参考图1,设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼。
所述分光镜120通过分光镜支架(未标识)与设备框架100连接,所述分光镜支架在一定角度内可调,以适于接受微投影仪110输出的图像,并成虚像在使用者眼中。
作为一实施例,所述分光镜120为反射镜,所述反射镜为反射率为30%至70%,作为一示范例,所述反射镜的反射率为50%。
作为另一实施例,所述分光镜120为是半透射半反射的平面镜,所述分光镜120适于反射微投影仪110输出的图像,并成虚像在使用者眼中,且适于使用者同时接受来自分光镜120前方的光线,从而能够使得使用者同时接受虚像和实像。
在其他实施例中,所述分光镜120也可以为多个透镜组成的透镜组,本领域的技术人员应该知晓,所述分光镜120只需满足接受投射的图像界面并将图像界面成虚像于人眼,在此特意说明,不应限制本发明的保护范围。
作为一实施例,所述微投影仪110输出的图像界面位于分光镜120的焦点上,或者在分光镜120的一倍焦距内,从而使得图形界面能够在人眼成虚像。
设置于设备框架前端的位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
作为一实施例,所述位置传感器130可以为声波反射器或图像传感器,所述位置传感器130根据声学原理或光学原理,获取手、手指、拳头、手臂、双手、或多个手指的位置和动作,并相应的匹配或关联为选取、确定、移动或解锁指令。
作为一示例,所述位置随时间的变化方式至少包括:手指的点击、双击或滑动;或者拳头的移动和敲击;或者手臂的纵向摆动、横向移动和相对于操作者脸部的由远及近或由近及远的移动。
作为一示例,手指的单次点击匹配或关联为选取,手指的双次点击匹配或关联为确定,手指的移动匹配或关联为解锁。
需要说明的是,本领域的技术人员应该知晓,上述示例只是作为示范性说明,至少部分人体的位置和动作可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
所述中央数据中心140可以为处理器或者控制器,例如为中央处理器,或者集成有图形处理器的中央处理器,所述中央数据中心140至少能够接受所述位置传感器130的位置数据和操作指令,并根据所述位置数据和操作指令控制所述微投影仪110输出相应图形界面,以匹配至少人体的位置,并执行与操作指令对应的操作。
所述中央数据中心140还适于与远程数据库交换数据,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式获得远程数据库数据支持。
所述中央数据中心140内置电池,例如锂电池、太阳能电池或者超级电容器,以对所述中央数据中心140供电。
所述可穿戴智能设备还可以包括通信模块(未示出),所述通信模块可以内置于设备框架100内或者包括于中央数据中心140,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
所述可穿戴智能设备还包括本地数据库,所述中央数据中心140调用本地数据库进行数据支持。
本发明的实施例通过设置微投影仪110和分光镜120在使用者眼中成虚像,且中央数据中心140根据位置传感器130获取的使用者的至少部分人体的位置和位置随时间的变化方式,校正虚像的位置,使得虚像与人体在人眼中的实像匹配,使得操作者动作与视觉效果一致。
本发明还提供另一实施例的可穿戴智能设备,请参考图3,包括:
设备框架200;
分别设置于设备框架200两侧的微投影仪210,适于将图像界面投射于分光镜220上;
设置于设备框架上的分光镜220,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器230,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心240,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
本实施例中的设备框架200、分光镜220、位置传感器230和中央数据中心240请参考之前实施例中的相应描述。
需要特别说明的是,本实施例中的微投影仪210为两个,分别设置于设备框架200的第一侧臂和第二侧臂,从而能够在使用者的左右两只眼睛中成像,使得成像效果具有立体感。
发明还提供又一实施例的可穿戴智能设备,请参考图4,包括:
设备框架300;
设置于设备框架300上的微投影仪310,适于将图像界面投射于分光镜320上;
设置于设备框架上的分光镜320,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的声波反射器330,适于感应至少部分人体的位置和位置随时间的变化方式并将所述动作转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心340,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
穿戴于手指的位置识别器350,所述位置识别器350适于被所述声波反射器330感应,以确定手指的位置和位置随时间的变化方式。
在本实施例中,设备框架300、微投影仪310、分光镜320和中央数据中心340请参考之前实施例的相应描述。
在本实施例中,所述位置传感器为声波反射器330,所述位置识别器350为金属环,例如为戒指。
其中,所述声波反射器330用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器330接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心340;中央数据中心340根据所述位置数据校准微投影仪310或分光镜320,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
作为一实施例,金属环与声波反射器330的距离可以根据下列公式确定:
其中,d为金属环与声波反射器330的距离,V0为声波在空气中传播的速度。
作为一实施例,当声波为超声波时,
其中,τ为声波反射时环境的温度;
金属环的相对声波反射器330的位置随时间的变化方式可以根据多普勒效应确定,具体公式为:
其中,Δf为声波反射器330探测到的频移,V为金属环的相对声波反射器330的运动速度,f为声波的频率,θ为金属环运动方向相对三者连线的夹角,三者连线为金属环、声波反射器330发射声波的位置、声波反射器330探测器的位置的连线。
在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂戒指。
还需要说明的是,本实施例的声波反射器330数量可以为1、2、3、4…6…11个。
较佳地,所述声波反射器330数量为4个,设置于设备框架300的左上、左下、右上、右下四个位置,以获得较大的探测范围,且较多数量的所述声波反射器330能够更精确的确定金属环的位置数据和操作指令。
更进一步地,本实施例利用戒指作为位置识别器,不会额外的增加用户的穿戴负担,且能够增强探测效果。
请参考图5,图5为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图。
以声波反射器330和位置识别器350为例,根据声波反射器330和位置识别器350,所述声波反射器330可以获得金属环的运动方向,距离和运动速度。
中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪310和分光镜320调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
在另一实施例中,中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据校准所述声波反射器330调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
作为一示例,由微投影仪310先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器(在本实施例中为声波反射器330)通过位置识别器350识别当前手指位置,并且同微投影仪310的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心340根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心340内置使用者的预存数据和所述声波反射器330获取的金属环的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心340内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,可穿戴智能设备还可以兼容声音传输单元360,所述声音传输单元可以根据使用者的语音指令,发送位置数据和操作指令至中央数据中心340,中央数据中心340根据上述语音指令以调节输出的图像界面和执行操作指令。
本发明还提供又一实施例的可穿戴智能设备,请参考图6,包括:
设备框架400;
设置于设备框架400上的微投影仪410,适于将图像界面投射于分光镜420上;
设置于设备框架400上的分光镜420,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器430,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,所述位置传感器430为若干位置不同的图像传感器;
设置于设备框架上的中央数据中心440,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在本实施例中,设备框架400、微投影仪410、分光镜420和中央数据中心440请参考之前实施例的相应描述。
需要说明的是,图像传感器的位置和数量可以根据实际的可穿戴智能设备而定,只需图像传感器的位置和数量能够感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据即可,在此特意还说明,图像传感器的位置和数量不应限制本发明的保护范围。
作为一实施例,所述位置传感器430为设置于设备框架400左上的图像传感器和设置于设备框架400右上的图像传感器。
左上的图像传感器和右上的图像传感器通过同步采样脉冲的控制下,高速并行的采集图像数据,并将采集时间作为附加信息与相应的图像帧关联,集成在位置传感器430内的处理器在并行采用处理后,获取至少部分人体的图像坐标及时间信息,根据左上的图像传感器和右上的图像传感器同时获取的至少部分人体的图像坐标及时间信息,集成在位置传感器430内的处理器根据时间标签进行匹配,将同一时刻的至少部分人体的图像坐标确定空间坐标。
基本的确定方法有利用帧差法或筛选框与概率统计方法结合来检测至少部分人体的位置随时间的变化方式。
作为一实施例,帧差法利用相邻帧相减来检测至少部分人体发生运动的区域。帧差法有双帧差和三帧差,在本实施例中以双帧差做示范性说明。
请依旧参考图6,图6中的第一图像471和第二图像472分别表示t-1与t时刻至少部分人体在图像平面中所在的位置图像数据,根据上述图像数据定义至少部分人体的位置在t-1与t时刻为A、B;双帧差利用|A-B|得到至少部分人体在图像平面中所在的位置数据。
作为一实施例,请结合参考图7和图8,图7和图8为采用本实施例的可穿戴智能设备获取至少部分人体的位置数据的示意图,为了方便理解,图7中仅示出左上的图像传感器731和右上的图像传感器732,同样的为了方便理解,将至少部分人体以箭头符号740示意。
其中,左上的图像传感器731和右上的图像传感器732的间距为预设值,为了方便理解所述间距为L,左上的图像传感器731的焦距为f1,右上的图像传感器732的焦距为f2,当至少部分人体在某一位置时,所述至少部分人体的空间坐标为(X,Y,Z),通过左上的图像传感器731获取至少部分人体的图像数据741和右上的图像传感器732获取至少部分人体的图像数据742,通过测量2幅位置图像数据中至少部分人体的位置数据,能够获得(x1,y1)、(x2,y2),作为一实施例,(x1,y1)从左上的图像传感器731获取的图像中测量获取,(x2,y2)从左上的图像传感器731获取的图像中测量获取;左上的图像传感器731的焦距f1和右上的图像传感器732的焦距f2可以预设也以通过可以从自动对焦装置的位移量中得到。
通过上述的数据,可以获取所述至少部分人体的空间坐标为(X,Y,Z)
其中:
基于上述的计算,即可获取所述至少部分人体的空间坐标(X,Y,Z),通过预先设定,可以获取位置随时间的变化方式,例如在3秒中内沿Z方向手指移动1下为点击,3秒中内沿Z方向手指移动2下为双击,2秒内沿X方向手指移动为拖动。
需要说明的是,在上面分析中近似将部分人体认定为点元素,即获取的是部分人体的重心位置的空间坐标,也可以通过人体的肤色亮度与环境的差异,结合腐蚀细化法、形状中心法和投影法来确定部分人体;并且上述位置随时间的变化方式可以通过预先校正和内置软件校正以符合个人使用习惯。
在其他实施例中,也可以根据图像传感器的运动体捕捉方法来确定至少部分人体的位置和位置随时间的变化方式,本领域的人员也可以根据实际选取的图像传感器,例如CCD或CIS等,来确定至少部分人体的位置和动作,在此特意说明,不应过分限制本发明的保护范围。
请参考图9,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪410和分光镜420调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,在本实施例中,以所述至少部分人体为拳头为例,做示范性说明。
请依旧参考图9,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据校正所述位置传感器,调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,
作为一示例,由微投影仪410先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器识别当前手指位置,并且同微投影仪410的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心440根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心440内置使用者的预存数据和所述图像传感器获取的至少部分人体的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心440内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,在其他实施例中,请依旧参考图9,位置传感器430(在本实施例中为图像传感器)捕获拳头484的位置随时间的变化方式,在t-1与t时刻获取第三图像481和第四图像482,并根据之前实施例的运算方式,将拳头的位置和运动轨迹转换为所述操作指令和位置数据,中央数据中心440获得所述操作指令和位置数据后,控制微投影仪410和分光镜420调整输出的图像界面,且在人眼中将拳头484成虚像483,使得使用者在操作图像界面时,具有较好的体验。
本发明还提供一实施例的可穿戴智能设备的互动方法,请参考图10,包括如下步骤:
步骤S101,提供目标物和可穿戴智能设备,可穿戴智能设备至少包括:微投影仪、分光镜、位置传感器和中央数据中心,所述中央数据中心预设有互动模式;
步骤S102,根据所述位置传感器获取所述目标物的位置和动作,并将所述位置和动作发送至中央数据中心;
步骤S103,所述中央数据中心根据所述互动模式对所述位置和动作进行分析,并将结果转换成对应的图形数据;
步骤S104,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
具体地,所述微投影仪、分光镜、位置传感器和中央数据中心请参考之前实施例中的相应描述。
需要说明的是,所述中央数据中心预设有互动模式,所述互动模式可以为格斗模式、棋谱模式、舞蹈模式、打牌模式或游戏模式。
所述目标物可以是游戏队友或游戏对手、攻击者、或棋谱和棋子、或桌面和棋牌。
所述位置传感器获取所述目标物的位置和动作,并将所述位置和动作发送至中央数据中心,中央数据中心根据所述互动模式对所述位置和动作进行分析,并将结果转换成对应的图形数据,并控制微投影仪和分光镜成虚像于人眼,且根据所述位置和动作,使得所述虚像与目标物的对应位置叠加。
本实施例可以在互动时,采用虚像即时地提示使用者,增加使用者互动乐趣和技巧,例如在游戏时隐性的提示使用者,或者在格斗时将弱点即时呈现于使用者眼中,提高使用者互动的技巧。
在其他实施例中,还可以提供本地数据库或远程数据库。
具体地,所述本地数据库可以配置于所述可穿戴智能设备。
所述远程数据库适于与所述中央数据中心进行交换数据。
所述中央数据中心可以调用本地数据库,或者所述中央数据中心内置通信模块,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持,对所述位置和动作进行分析,并将结果转换成对应的图形数据,并控制微投影仪和分光镜成虚像于人眼,且根据所述位置和动作,使得所述虚像与目标物的对应位置叠加。
请参考图11,图11为本发明又一实施例的可穿戴智能设备的互动方法,在本实施例中,以格斗模式为例,做示范性说明。
互动模式为格斗模式,目标物490为攻击者,位置传感器430(以两个图像传感器为例做示范性说明)在t-1与t时刻获取第五图像483和第六图像484,需要说明的是,位置传感器可以根据实际计算需要获取更多图像信息(例如第7、第8….第20图像)(未示出),位置传感器根据图像信息获取攻击者的位置和动作;所述中央数据中心440根据所述格斗模式对攻击者的位置和动作进行分析并获得攻击者弱点485,并将弱点485转换成对应的图形数据,所述可穿戴智能设备的微投影仪410根据图形数据将对应的图形投影至分光镜420;所述分光镜420将对应图形成虚像于人眼,且所述虚像与攻击者的弱点叠加,上述成虚像的具体过程可以参考之前实例中的相应描述,在此不再赘述。
所述格斗模式中内置有格斗技巧大全、擒拿术(刁、拿、锁、扣、扳、点、缠、切、拧、挫、旋、卷、封、闭等招法),跆拳道技巧,柔道技巧,截拳道技巧,咏春拳技巧,武术技巧,且格斗模式能够分析攻击者的位置和动作,获得攻击者弱点所在位置,所述中央数据中心440控制微投影仪410和分光镜420,将对应图形成虚像于人眼,所述图形可以为拳头图形或其他示意图示,使用者在形成虚像后,按照虚像的对应在攻击者身上位置,相应的进行攻击,从而能够在一定程度上提高使用者的防身技巧。
本发明还提供又一实施例的可穿戴智能设备的互动方法,在本实施例中,以棋谱模式为例,做示范性说明。
所述互动模式为棋谱模式,所述目标物为棋盘和棋盘上的棋子,所述中央数据中心根据所述棋谱模式对棋盘和棋盘上的棋子的位置和变动进行分析并获得对应的下棋提示,并将下棋提示转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与棋盘上的位置叠加。
本发明的可穿戴智能设备的互动方法还可以应用于舞蹈模式、打牌模式或游戏模式。
本发明的可穿戴智能设备的互动方法能够隐蔽、便携的提示使用者,让使用者获取互动技巧的同时不打扰旁边的其他人。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。

Claims (20)

1.一种可穿戴智能设备,其特征在于,包括:
设备框架;
设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;
设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且执行与所述操作指令相对应的操作;
所述中央数据中心还预设有互动模式,并用于获取目标物的位置和动作,根据所述互动模式对所述位置和动作进行分析,将结果转换成对应的图形数据;
所述微投影仪,用于根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
2.如权利要求1所述的可穿戴智能设备,其特征在于,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
3.如权利要求2所述的可穿戴智能设备,其特征在于,所述位置传感器为声波反射器,所述位置识别器为金属环。
4.如权利要求3所述的可穿戴智能设备,其特征在于,所述声波反射器用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心;中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
5.如权利要求1所述的可穿戴智能设备,其特征在于,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
6.如权利要求1所述的可穿戴智能设备,其特征在于,所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学***轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;
全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
7.如权利要求1所述的可穿戴智能设备,其特征在于,其特征在于,所述位置随时间的变化方式至少包括:点击、双击或滑动。
8.如权利要求7所述的可穿戴智能设备,其特征在于,所述操作指令至少包括:选取、确定、移动或解锁。
9.如权利要求1所述的可穿戴智能设备,其特征在于,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
10.如权利要求1所述的可穿戴智能设备,其特征在于,所述设备框架配置有镜片且穿戴于使用者眼睛前。
11.如权利要求1所述的可穿戴智能设备,其特征在于,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
12.如权利要求1所述的可穿戴智能设备,其特征在于,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
13.如权利要求12所述的可穿戴智能设备,其特征在于,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
14.一种可穿戴智能设备的互动方法,其特征在于,包括:
提供目标物和可穿戴智能设备,可穿戴智能设备至少包括:微投影仪、分光镜、位置传感器和中央数据中心,所述中央数据中心预设有互动模式;
根据所述位置传感器获取所述目标物的位置和位置随时间的变化方式,并将所述位置和位置随时间的变化方式的数据发送至中央数据中心;
所述中央数据中心根据所述互动模式对位置和位置随时间的变化方式进行分析,并将结果转换成对应的图形数据;所述中央数据中心还用于获取所述目标物的位置和动作,根据所述互动模式对所述位置和动作进行分析,将结果转换成对应的图形数据;
所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;
所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
15.如权利要求14所述的互动方法,其特征在于,所述互动模式为格斗模式,所述目标物为攻击者,所述中央数据中心根据所述格斗模式对攻击者的位置和动作进行分析并获得攻击者弱点,并将弱点转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与攻击者的弱点叠加。
16.如权利要求14所述的互动方法,其特征在于,所述图形投影为拳头图形。
17.如权利要求14所述的互动方法,其特征在于,所述互动模式为棋谱模式,所述目标物为棋盘和棋盘上的棋子,所述中央数据中心根据所述棋谱模式对棋盘和棋盘上的棋子的位置和变动进行分析并获得对应的下棋提示,并将下棋提示转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与棋盘上的位置叠加。
18.如权利要求14所述的互动方法,其特征在于,还包括:提供本地数据库或远程数据库。
19.如权利要求18所述的互动方法,其特征在于,所述中央数据中心根据所述互动模式对所述位置和动作进行分析包括:调用本地数据库,或者远程数据库的数据支持。
20.如权利要求19所述的互动方法,其特征在于,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
CN201310741185.7A 2013-12-27 2013-12-27 可穿戴智能设备及可穿戴智能设备的互动方法 Active CN104750234B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201310741185.7A CN104750234B (zh) 2013-12-27 2013-12-27 可穿戴智能设备及可穿戴智能设备的互动方法
US14/569,860 US10007331B2 (en) 2013-12-27 2014-12-15 Wearable intelligent systems and interaction methods thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310741185.7A CN104750234B (zh) 2013-12-27 2013-12-27 可穿戴智能设备及可穿戴智能设备的互动方法

Publications (2)

Publication Number Publication Date
CN104750234A CN104750234A (zh) 2015-07-01
CN104750234B true CN104750234B (zh) 2018-12-21

Family

ID=53481673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310741185.7A Active CN104750234B (zh) 2013-12-27 2013-12-27 可穿戴智能设备及可穿戴智能设备的互动方法

Country Status (2)

Country Link
US (1) US10007331B2 (zh)
CN (1) CN104750234B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840929B1 (ko) * 2016-05-24 2018-05-04 주식회사 에코로커스 가상 현실 구현을 위한 장치
DE102016215746A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
CN106707547A (zh) * 2016-11-22 2017-05-24 全普光电科技(上海)有限公司 智能眼镜
CN110249368B (zh) 2016-12-05 2023-07-07 奇跃公司 混合现实环境中提供虚拟远程控制的可穿戴***及方法
CN107193127A (zh) * 2017-06-27 2017-09-22 北京数科技有限公司 一种成像方法及穿戴式设备
EP3659017B1 (en) 2017-07-26 2023-04-05 Magic Leap, Inc. Training a neural network with representations of user interface devices
CN107861247B (zh) * 2017-12-22 2020-08-25 联想(北京)有限公司 光学部件及增强现实设备
CN108769237A (zh) * 2018-06-30 2018-11-06 广州艾缔亿生物科技有限公司 一种基于声音信号的交互服务平台、方法和记录媒介
CN108898118B (zh) 2018-07-04 2023-04-18 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置和存储介质
CN109582137A (zh) * 2018-11-15 2019-04-05 深圳市知更鸟旅游投资发展有限公司 一种行为动作识别***及其方法
CN114020102A (zh) * 2021-11-05 2022-02-08 山西杉大科能自动化科技有限公司 一种基于可穿戴的智能互动设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101395868A (zh) * 2006-03-03 2009-03-25 皇家飞利浦电子股份有限公司 在无线网络中报告无干扰信道以及帮助孤立节点
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
CN103018905A (zh) * 2011-09-23 2013-04-03 奇想创造事业股份有限公司 头戴式体感操控显示***及其方法
CN103376553A (zh) * 2012-04-23 2013-10-30 精工爱普生株式会社 虚像显示装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969714A (en) * 1989-02-21 1990-11-13 United Technologies Corporation Helmet mounted display having dual interchangeable optical eyepieces
JPH074343B2 (ja) * 1992-09-29 1995-01-25 株式会社エイ・ティ・アール視聴覚機構研究所 奥行き知覚分析装置
JP4908668B2 (ja) * 2000-04-19 2012-04-04 キヤノン株式会社 焦点検出装置
US7545571B2 (en) * 2004-09-08 2009-06-09 Concurrent Technologies Corporation Wearable display system
CN103119512A (zh) * 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示***和装置
WO2011091314A1 (en) * 2010-01-22 2011-07-28 Oakley, Inc. Lenses for 3d eyewear
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
WO2012021967A1 (en) * 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
KR20160084502A (ko) * 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US8847988B2 (en) * 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US9239386B2 (en) * 2011-10-05 2016-01-19 Infineon Technologies Ag Sonic sensors and packages
US8917453B2 (en) * 2011-12-23 2014-12-23 Microsoft Corporation Reflective array waveguide
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
CN103055524B (zh) * 2013-01-21 2015-11-18 上海恒润数码影像科技有限公司 定位装置及应用其的4d互动影院及互动方法
CN103439801B (zh) * 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
US9448689B2 (en) * 2013-08-30 2016-09-20 Paypal, Inc. Wearable user device enhanced display system
US20150097719A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
WO2017075100A1 (en) * 2015-10-26 2017-05-04 Pillantas Inc. Systems and methods for eye vergence control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101395868A (zh) * 2006-03-03 2009-03-25 皇家飞利浦电子股份有限公司 在无线网络中报告无干扰信道以及帮助孤立节点
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
CN103018905A (zh) * 2011-09-23 2013-04-03 奇想创造事业股份有限公司 头戴式体感操控显示***及其方法
CN103376553A (zh) * 2012-04-23 2013-10-30 精工爱普生株式会社 虚像显示装置

Also Published As

Publication number Publication date
US10007331B2 (en) 2018-06-26
CN104750234A (zh) 2015-07-01
US20150185828A1 (en) 2015-07-02

Similar Documents

Publication Publication Date Title
CN104750234B (zh) 可穿戴智能设备及可穿戴智能设备的互动方法
CN104749777B (zh) 可穿戴智能设备的互动方法
US11670267B2 (en) Computer vision and mapping for audio applications
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US11060858B2 (en) Method and system for generating a virtual user interface related to a totem
CN103713737B (zh) 用于智能眼镜的虚拟键盘***
JP6786792B2 (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
CN105446474B (zh) 可穿戴智能设备及其交互的方法、可穿戴智能设备***
WO2022216784A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
EP4272064A1 (en) Micro hand gestures for controlling virtual and graphical elements
US20170277259A1 (en) Eye tracking via transparent near eye lens
CN104750230A (zh) 可穿戴智能设备及其交互的方法、可穿戴智能设备***
CN106095089A (zh) 一种获取感兴趣目标信息的方法
CN106125921A (zh) 3d映射环境中的凝视检测
JP2021523432A (ja) 光学式位置追跡デバイスの電力管理
WO2010011923A1 (en) Enhanced detection of circular engagement gesture
WO2022005717A1 (en) Generating ground truth datasets for virtual reality experiences
KR102388939B1 (ko) 사용자의 움직임 보정을 위한 피드백 서비스 제공 방법
CN104023802A (zh) 使用神经分析的电子装置的控制
CN109002164A (zh) 头戴显示设备的显示方法、装置及头戴显示设备
US10908425B2 (en) Transmission-type head mounted display apparatus, display control method, and computer program
CN108027656A (zh) 输入设备、输入方法和程序
US20230256297A1 (en) Virtual evaluation tools for augmented reality exercise experiences
CN104750229B (zh) 可穿戴智能设备的交互方法及穿戴智能设备***
US20240111380A1 (en) Finger tapping measurement processing terminal, system, method, and computer program

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant