CN106896910A - 基于位置的触觉效果的***和方法 - Google Patents

基于位置的触觉效果的***和方法 Download PDF

Info

Publication number
CN106896910A
CN106896910A CN201611137967.XA CN201611137967A CN106896910A CN 106896910 A CN106896910 A CN 106896910A CN 201611137967 A CN201611137967 A CN 201611137967A CN 106896910 A CN106896910 A CN 106896910A
Authority
CN
China
Prior art keywords
haptic effect
user
gesture
computing device
tactile output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611137967.XA
Other languages
English (en)
Inventor
瓦希德·克霍什卡瓦
文森特·莱韦斯克
君·曼扭尔·克鲁斯-赫南德斯
曼苏尔·阿尔古内
威廉·里赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN106896910A publication Critical patent/CN106896910A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及基于位置的触觉效果的***和方法,本文所公开的一种说明性***包括被配置成检测手势并传输相关联的传感器信号的传感器。所述手势包含距离表面一定距离处的第一位置以及接触所述表面的第二位置。所述***还包含与所述传感器通信并被配置成进行以下动作的处理器:从所述传感器接收传感器信号并至少部分基于所述传感器信号来确定一种或多种触觉效果。所述一种或多种触觉效果被配置成提供贯穿所述手势的基本连续的触觉反馈。所述处理器还被配置成至少部分基于所述一种或多种触觉效果产生一个或多个触觉信号,并且传输所述一个或多个触觉信号。所述***包括用于接收所述一个或多个触觉信号并输出所述一种或多种触觉效果的触觉输出装置。

Description

基于位置的触觉效果的***和方法
技术领域
本发明涉及用户接口装置的领域。更具体地,本发明涉及基于位置的触觉效果。
背景技术
人与基于计算机的***互动的接口的质量变得愈发重要。为了产生更直观并且增强的用户体验,这些***可使用视觉、听觉和/或触觉反馈以再现物理世界中的互动的多个方面。此反馈通常是在用户接触触摸屏显示器或另一用户接口控制器时产生。例如,基于计算机的***可在用户接触触摸屏显示器上的虚拟按钮时产生触觉反馈。然而,基于接触的触觉反馈可能不会准确地模拟与现实世界物体的互动。因此,存在对用于提供触觉反馈的额外***和方法的需要。
发明内容
本公开的实施例包括一种被配置成产生基于位置的触觉效果的计算装置。在一个实施例中,本公开的***可包括传感器,所述传感器被配置成检测手势并传输与该手势相关联的传感器信号。该手势可包括至少两个位置,所述至少两个位置中的第一位置包括距离表面一定距离,并且所述至少两个位置中的第二位置包括与该表面接触。该***可还包括与传感器通信的处理器。处理器可被配置成从传感器接收传感器信号。该处理器可还被配置成至少部分基于该传感器信号来确定一种或多种触觉效果。所述一种或多种触觉效果可被配置成提供贯穿该手势的基本连续的触觉反馈。处理器可进一步被配置成至少部分基于所述一种或多种触觉效果而产生一个或多个触觉信号,并且传输所述一个或多个触觉信号。该***还可以包括与处理器通信的触觉输出装置。触觉输出装置可被配置成接收所述一个或多个触觉信号,并输出所述一种或多种触觉效果。
在另一实施例中,本公开的方法可包括:从传感器接收与手势相关联的传感器信号,其中该手势包括至少两个位置,所述至少两个位置中的第一位置包括距离表面一定距离,并且所述至少两个位置中的第二位置包括与该表面接触。该方法可还包括至少部分基于该传感器信号来确定一种或多种触觉效果。所述一种或多种触觉效果被配置成提供贯穿该手势的基本连续的触觉反馈。该方法可还包括至少部分基于所述一种或多种触觉效果而产生一个或多个触觉信号,并且将所述一个或多个触觉信号传输到触觉输出装置。触觉输出装置可被配置成接收所述一个或多个触觉信号,并输出所述一种或多种触觉效果。又一实施例包括用于实施此方法的计算机可读介质。
这些说明性实施例旨在限制或界定本主题的范围,而是提供实例以辅助理解本主题。在具体实施方式中论述说明性实例,并且在其中提供进一步描述。可通过审查本说明书和/或通过实践所要求保护的的主题的一个或多个实施例来进一步理解各种实施例所提供的优点。
附图说明
在本说明书的剩余部分中更明确地阐述全面充分的公开内容。本说明书参考以下附图。
图1A示出用于提供基于位置的触觉效果的***的实施例;
图1B示出用于提供基于位置的触觉效果的***的另一实施例;
图2是示出用于提供基于位置的触觉效果的***的框图;
图3示出用于提供基于位置的触觉效果的***的实施例;
图4示出用于提供基于位置的触觉效果的***的另一实施例;
图5示出用于提供基于位置的触觉效果的***的又一实施例;以及
图6是用于执行根据一个实施例的用于提供基于位置的触觉效果的方法的步骤的流程图。
具体实施方式
现将详细参考各种可替代说明性实施例和附图。按照解释方式而不是限制方式来提供每一实例。能够做出修改和改变对于本领域技术人员是明显的。例如,被示出或描述为一个实施例的一部分的特征可用于另一实施例中以产生又一实施例。因此,本公开旨在包含落入随附权利要求书和其等同物的范围内的修改和改变。
基于位置的触觉效果的说明性实例
本公开的一个说明性实施例包括移动装置(例如,智能电话、平板计算机、电子阅读器等)。移动装置包括触摸屏显示器,所述触摸屏显示器被配置成输出具有一个或多个虚拟按钮的图形用户接口(GUI)。GUI可包括例如主屏幕,所述主屏幕包含与移动装置上所存储的程序相关联的多个图标。用户可与虚拟按钮互动,例如以执行程序或用其它方式将输入提供到移动装置。
在说明性实施例中,移动装置被配置成随着用户接近并最终接触触摸屏显示器,例如以与虚拟按钮互动而将基本连续的触觉反馈提供给用户。例如,在说明性实施例中,移动装置被配置成检测用户的手指与触摸屏显示器之间的距离。移动装置被配置成随着用户的手指移动得越来越靠近在触摸屏显示器上输出的虚拟按钮而基本连续地将远程触觉效果(例如,空气的喷出、超声压力波和/或激光束刺激)提供给用户的手指。在一些实施例中,移动装置输出随着用户接近触摸屏显示器而逐渐增大强度的远程触觉效果。这可模拟通常与现实物理按钮相关联的弹簧力或其它形式的阻力。此外,在说明性实施例中,移动装置被配置成响应于用户通过触摸屏显示器接触虚拟按钮而输出本地触觉效果(例如,点击感觉)。本地触觉效果可模拟物理按钮的致动。在此实施例中,随着用户接近并最终接触触摸在屏显示器上输出的虚拟按钮而提供连续触觉反馈可更加准确地模拟与物理按钮的现实互动,和/或将三维感提供给原本二维的用户接口。
在另一说明性实施例中,移动装置包括GUI,所述GUI包含用户可与之互动的多个用户接口级别。移动装置被配置成随着用户接近并最终接触触摸屏显示器而激活不同用户接口级别。用户能够通过在与用户接口级别相关联的距离(相对于移动装置)处执行手势而与特定用户接口级别互动。
例如,在一些实施例中,移动装置可执行包括具有多个用户接口级别的GUI的医学模拟。每一用户接口级别可被配置成输出身体部分(例如,人的手臂)的不同方面的图像和/或提供与所述身体部分的不同方面相关联的信息。例如,移动装置可响应于检测到用户的手指相对于移动装置处于远距离处而激活第一用户接口级别。第一用户接口级别可输出身体部分的外部(例如,皮肤、毛发等)的图像。移动装置可响应于检测到用户的手指相对于移动装置处于中间距离处而激活第二用户接口级别。第二用户接口级别可输出标记有关键特征的与身体部分相关联的组织和/或韧带的图像。移动装置可响应于用户接触移动装置而激活第三用户接口级别。第三用户接口级别可输出与身体部分相关联的骨骼的图像。因此,随着用户接近和/或接触移动装置,移动装置能够激活“更深”用户接口级别,借此,用户能够访问渐多和/或不同的信息。这可额外地或可替代地将三维感提供给原本二维的接口。
在一些实施例中,移动装置被配置成随着用户接近并接触触摸屏显示器而提供与用户接口级别相关联的基本连续的触觉反馈。例如,在上述医学模拟实例中,随着用户接近并接触触摸屏显示器,移动装置可输出被配置成模拟将手指更深地按压入现实身体部分的不同层的基本连续的触觉反馈。在此实施例中,移动装置可响应于检测到用户的手指处于与第一用户接口级别相关联的距离处而输出被配置成模拟皮肤和/或毛发的触觉效果。移动装置可响应于检测到用户的手指处于与第二用户接口级别相关联的距离处而输出被配置成模拟组织和/或韧带的触觉效果。移动装置可响应于检测到用户的手指接触移动装置而输出被配置成模拟骨骼的触觉效果。触觉效果的组合(例如,如以基本连续的方式提供)可更加现实地模拟与身体部分的现实世界互动。
上文的说明性实施例的描述仅作为实例来提供。在本文中描述本发明的各种其它实施例,并且本领域的技术人员将理解这些实施例的变型。可通过审查本说明书和/或通过实践所要求保护的主题的一个或多个实施例来进一步理解各种实施例所提供的优点。
基于位置的触觉效果的说明性***
图1A示出用于提供基于位置的触觉效果的***的实施例。在实施例中,***包括计算装置100,所述计算装置100被配置成随着用户接近并最终接触计算装置100而提供基本连续的触觉反馈。额外地或可替代地,计算装置100可被配置成随着计算装置100接近并最终接触用户而提供基本连续的触觉反馈。如本文所使用的,基本连续的触觉反馈包括基本贯穿用户所执行的手势的持续时间而提供的一种或多种触觉效果。
手势是传达含义或用户意图的身体和/或物理物体的任何移动和/或定位。应认识到,简单的手势可组合以形成更加复杂的手势。例如,使手指与表面接触可被称为“伸出手指”手势,而从表面移除手指可被称为独立的“收回手指”手势。如果“伸出手指”与“收回手指”手势之间的时间相对短,那么组合的手势可被称为“点击”;如果“伸出手指”与“收回手指”手势之间的时间相对长,那么组合的手势可被称为“长按”;如果“伸出手指”与“收回手指”的二维(x,y)位置之间的距离相对大,那么组合的手势可被称为“拨动”;如果“伸出手指”与“收回手指”的二维(x,y)位置之间的距离相对小,那么组合的手势可被称为“涂抹”、“抹涂”或“轻拂”。额外地或可替代地,手势能够是三维的。例如,手势可包括在现实空间中将身体部分和/或物理物体定位在特定位置中。在一些实施例中,如果手指移动期间的三维(x,y,z)位置之间的距离(例如,在现实空间中)相对大,那么组合的手势可被称为“拨动”。如果手指移动期间的三维(x,y,z)位置之间的距离相对小,那么组合的手势可被称为“涂抹”、“抹涂”或“轻拂”。任何数量的二维或三维的简单或复杂的手势可按任何方式组合以形成任何数量的其它手势。手势还能够是由计算装置100识别并转换为电子信号的任何形式的移动或定位(例如,身体部分或物理物体的移动或定位)。这些电子信号能够激活触觉效果,例如,基本连续的触觉反馈,其中位置传感器104捕获产生触觉效果的用户意图。
在一些实施例中,计算装置100被配置成提供基本连续的触觉反馈以将用户导引到在触摸屏显示器102上输出的特定虚拟物体(例如,启用的虚拟按钮)的位置。例如,在此实施例中,计算装置100被配置成响应于用户定位在特定虚拟物体上方而输出远程触觉效果(例如,通过触觉输出装置106)。远程触觉效果可在用户不接触计算装置100时被用户感知。远程触觉效果可帮助用户最初定位虚拟物体。在此实施例中,计算装置100被进一步配置成随着用户在保持定位在虚拟物体上方的同时朝向触摸屏显示器102作出手势而连续地输出远程触觉效果。这可向用户通知用户正接近虚拟物体。在此实施例中,计算装置100还被配置成响应于检测到用户通过触摸屏显示器102接触虚拟按钮而输出本地触觉效果。本地触觉效果可在用户接触计算装置100时被用户感知。本地触觉效果可向用户通知用户与虚拟物体互动。随着用户悬停在虚拟物体上方、接近并最终接触虚拟物体,连续触觉反馈可将用户导引到虚拟物体,例如,在用户不需要看着触摸屏显示器102的情况下。
作为更具体实例,在一些实施例中,计算装置100被配置成响应于在虚拟物体上方相对于计算装置100第一距离处(例如,相对于计算装置100的距离范围112内)检测到的手势而输出第一触觉效果(例如,通过触觉输出装置106)。在此实施例中,计算装置100被配置成响应于在虚拟物体上方相对于计算装置100第二距离处(例如,在距离范围114内,但不接触计算装置100)检测到的手势而输出第二触觉效果(例如,通过触觉输出装置108)。此外,在此实施例中,计算装置100被配置成响应于在虚拟物体上方相对于计算装置100第三距离处(例如,接触计算装置100和/或触摸屏显示器102)检测到的手势而输出第三触觉效果(例如,通过触觉输出装置110)。第一触觉效果、第二触觉效果和/或第三触觉效果可彼此相同或不同。例如,第一触觉效果可包括空气喷出,第二触觉效果可包括静态ESF效果(例如,如参照图2更详细地描述的),并且第三触觉效果可包括振动。
在一些实施例中,计算装置100配置至少两种触觉效果的特性(例如,波形、类型、振幅、持续时间、频率和/或输出时间),使得所述至少两种触觉效果之间的转变对于用户来说在感知上是无缝的。例如,计算装置100可配置第一触觉效果、第二触觉效果和第三触觉效果的特性,使得所述触觉效果之间的转变对于用户来说在感知上是无缝的。这可例如贯穿手势向用户提供基本一致的触觉体验。例如,这可随着用户接近、接触和/或移离计算装置100而向用户提供基本一致的触觉体验。在一些实施例中,计算装置100配置至少两种触觉效果的特性,使得所述至少两种触觉效果对于用户来说是可清楚区别的。例如,计算装置100可配置第一触觉效果、第二触觉效果和第三触觉效果的特性,使得所述触觉效果之间的至少一种转变对于用户来说是可区别感知的。这可向用户提供诸如用户的身体部分与计算装置100之间的距离的信息。
实施例可输出任何数量和配置的触觉效果以提供贯穿手势的基本连续的触觉反馈。例如,在一些实施例中,计算装置100响应于检测到处于计算装置100的另一距离范围内的另一手势而输出第四触觉效果,响应于检测到处于计算装置100的又一距离范围内的又一手势而输出第五触觉效果和第六触觉效果等。
虽然上文所论述的实施例是关于用户接近并最终接触计算装置100,但一些实施例可提供贯穿包括用户不接触的表面(例如,计算装置100的表面)的至少一个位置以及用户接触的表面的一个位置的任何手势的基本连续的触觉反馈。例如,一些实施例可提供贯穿用户通过手指接近计算装置100,通过手指接触计算装置100并且接着将手指提离计算装置100的手势的基本连续的触觉反馈。因此,该基本连续的触觉反馈能够在用户不接触计算装置100的情况下开始和结束。
作为另一实例,一些实施例提供贯穿在用户接触计算装置100之后开始并且在用户将手指提离计算装置100之后结束的手势的基本连续的触觉反馈。例如,用户可通过身体部分而与计算装置100的表面(例如,触摸屏显示器102)互动。计算装置100可检测用户互动并输出本地触觉效果。用户可接着将身体部分提离计算装置100(例如,当用户完成与计算装置的互动时)。在一些实施例中,例如,当用户的身体部分处于相对于计算装置100距离范围114和/或距离范围112内时,计算装置100可继续将触觉反馈输出到用户(例如,以远程触觉效果的形式)。计算装置100可输出此触觉反馈,直到用户的身体部分与计算装置100之间的距离超过阈值为止。因此,基本连续的触觉反馈能够在用户接触计算装置100时开始并在用户不接触计算装置100时结束。
在一些实施例中,计算装置100可使用同一种类的触觉效果(例如,静态ESF触觉效果)以例如贯穿手势而将不同感觉输出给不同位置处的用户。例如,计算装置100可被配置成响应于检测到相对于计算装置100在距离范围112内的手势而输出第一静态ESF效果(例如,被配置成模拟低幅度振动),响应于检测到相对于计算装置100在距离范围114内的手势而输出第二静态ESF效果(例如,被配置成模拟中等幅度振动)和/或响应于检测到包括接触计算装置100的手势而输出第三静态ESF效果(例如,被配置成模拟高幅度振动)。
图1B示出用于提供基于位置的触觉效果的***的另一实施例。在实施例中,***包括计算装置100,所述计算装置100被配置成输出包括用户能够与之互动的多个用户接口级别的用户接口(例如,通过触摸屏显示器102)。用户接口可包括任何数量的用户接口级别。此外,计算装置100可将贯穿手势的任何数量和/或配置的用户位置与任何数量和/或配置的用户接口级别相关联。例如,在一些实施例中,移动装置可将贯穿手势的三个不同用户位置与相同用户接口级别相关联。在一些实施例中,用户接口级别能够被模拟为相互覆盖,例如以将模拟的深度提供给用户接口。在一些实施例中,计算装置100被配置成执行与每一个用户接口级别相关联的一个或多个功能。
在图1B所示的实施例中,计算装置100正输出与导航应用程序相关联的虚拟地图。随着用户接近和/或接触计算装置100(例如,如虚线所指示),计算装置100被配置成循环经过一个或多个用户接口级别,例如,被配置成向用户提供与虚拟地图相关联的不同细节级别。例如,计算装置100可响应于用户将手指定位在计算装置100的距离范围112内而激活被配置成例如在虚拟地图上输出与州或市相关联的信息的第一用户接口级别。随着用户将手指移动到计算装置100的第二距离范围114内但不接触计算装置100,计算装置100可激活被配置成例如将细节(例如,城镇或街道名)添加到虚拟地图的第二用户接口级别。计算装置100可响应于用户接触计算装置100,而激活被配置成例如在虚拟地图上放大特定位置的第三用户接口级别。因此,计算装置100可响应于检测到用户在计算装置100的不同距离范围内作出手势而激活与虚拟地图相关联的不同用户接口级别。
在一些实施例中,计算装置100被配置成至少部分基于用户接口级别和/或手势而确定将输出的触觉效果。这些触觉效果可被配置成例如向用户通知用户正与之互动的特定用户接口级别和/或用户在用户接口级别之间切换。例如,计算装置100可响应于激活第一用户接口级别而输出第一触觉效果,所述第一触觉效果可与相关联于激活第二用户接口级别的第二触觉效果清楚区别开。可区别的触觉效果可向用户通知用户已在用户接口级别之间切换。
在一些实施例中,计算装置100被配置成输出被配置成指示计算装置100检测手势的精度的触觉效果。例如,当在相对于计算装置100较大距离处执行手势时,计算装置100可按较小精度检测手势(例如,或手势的一部分,例如,用户的特定位置)。例如,当在相对于计算装置100一米的距离处执行手势时,计算装置100可在实际位置的1厘米的精度范围内检测到与手势相关联的位置。当手势处于相对于计算装置100一厘米的距离处时,计算装置100可在实际位置的1毫米的精度范围内检测到与手势相关联的位置。在一些实施例中,计算装置100响应于以较低精度检测的手势而输出用户感觉模糊的触觉效果。计算装置100可响应于以较高精度检测的手势而输出用户感觉清晰的触觉效果。在一些实施例中,计算装置100响应于以较低精度检测的手势而将触觉效果输出到用户的身体的较大表面区域。计算装置100可响应于以较高精度检测的手势而将触觉效果输出到用户的身体的较小表面区域。
图2是示出根据一个实施例的用于基于位置的触觉效果的***的框图。计算装置201可包括笔记本计算机、台式计算机、游戏控制器、游戏手柄、遥控器、医疗装置、汽车计算装置(例如,用于控制一个或多个汽车***或装置(例如,音响、HVAC、照明、导航或其它载具功能)的计算机)、扫描笔(wand)、触笔、笔和/或便携式游戏装置。在一些实施例中,计算装置201与可穿戴装置(例如,戒指、鞋子、臂章、袖子、夹克、眼镜、手套、手表、腕带、手镯、衣物、帽子、头带和/或珠宝)相关联,并且被配置成由用户穿戴和/或耦合到用户的身体。
在一些实施例中,计算装置201的组件(例如,处理器202、网络接口装置210、触觉输出装置218、传感器230、位置传感器232、触敏表面216)可集成到单个外壳中。在其它实施例中,组件可分散(例如,分散在多个外壳或位置之间)并相互电通信。计算装置201可包括或可不包括图2所描绘的所有组件。例如,在一些实施例中,计算装置201可不包括传感器230。
计算装置201包括通过总线206而与其它硬件连接的处理器202。能够包括任何适当的有形的(且非暂时性的)计算机可读介质(例如,RAM、ROM、EEPROM等)的存储器204可体现配置计算装置201的操作的程序组件。在一些实施例中,计算装置201还可包括一个或多个网络接口装置210、输入/输出(I/O)接口组件212和额外存储装置214。
网络接口装置210能够表示促进网络连接或以其它方式促进电子装置之间的通信的任何组件中的一个或多个。实例包含(但不限于):有线接口,例如,以太网、USB、IEEE1394;和/或无线接口,例如,IEEE 802.11、蓝牙、近场通信(NFC)接口、RFID接口或用于接入蜂窝式电话网络的无线电接口(例如,用于接入CDMA、GSM、UMTS或其它移动通信网络的收发器/天线)。
I/O组件212可用于促进与装置(例如,一个或多个显示器、触敏表面216、键盘、鼠标、扬声器、麦克风、按钮和/或用于输入数据或输出数据的其它硬件)的连接。存储装置214表示包括在计算装置201中或联到处理器202的非易失性存储装置,例如,只读存储器、闪速存储器、铁电RAM(F-RAM)、磁性、光学或其它存储介质。
计算装置201可包括触敏表面216。在一些实施例中,触敏表面216是柔性的或可变形的。触敏表面216表示被配置成感测用户的触觉输入的任何表面。一个或多个触摸传感器208被配置成在触摸区域中检测触摸(例如,当例如用户的手指或触笔等物体接触触敏表面216时),并且将与触摸相关联的信号传输到处理器202。能够使用任何适当数量、类型或布置的触摸传感器208。例如,在一些实施例中,电阻性和/或电容性传感器可嵌入在触敏表面216中,并且用于确定触摸的位置和其它信息,例如,触摸的压力、速度和/或方向。在一些实施例中,电容性传感器可检测用户的手指接近触摸传感器208(例如,嵌入在触敏表面216中)。例如,触摸传感器208可包括被配置成随着用户的手指接近触摸传感器208而检测电容的改变的电容性传感器。触摸传感器208可基于电容的改变而确定用户的手指是否处于触摸传感器208的特定距离内。
额外地或可替代地,触摸传感器208能够包括其它类型的传感器。例如,以触敏表面216为目的的光学传感器可用于确定触摸位置。作为另一实例,触摸传感器208可包括显示器的一侧上安装的LED(发光二极管)手指检测器。在一些实施例中,触摸传感器208可被配置成检测用户互动的多个方面。例如,触摸传感器208可检测用户互动的速度、压力和方向,并且将此信息并入到传输到处理器202的信号中。
在一些实施例中,计算装置201包括能够触摸的显示器,该能够触摸的显示器组合触敏表面216和装置的显示器。触敏表面216可对应于显示器外部或显示器的组件上方的一个或多个材料层。在其它实施例中,取决于计算装置201的特定配置,触敏表面216可不包括(或以其它方式对应于)显示器。
在一些实施例中,计算装置201包括一个或多个传感器230。传感器230被配置成将传感器信号传输到处理器202。传感器230可包括例如距离传感器、深度传感器、生物传感器、相机和/或温度传感器。计算装置201可至少部分基于来自传感器230的传感器信号来确定一种或多种触觉效果。例如,在一些实施例中,计算装置201可使用来自传感器230的数据来确定触觉效果将被施加到的人的身体部分的一种或多种特性。计算装置201可基于身体部分来确定触觉效果的一种或多种特性,例如以提高所感知的触觉效果的质量和/或防止对用户的伤害。
例如,在一些实施例中,计算装置201执行游戏,例如,战争游戏。计算装置201可被配置成响应于游戏事件(例如,虚拟***)而输出触觉效果(例如,远程触觉效果)。在一些实施例中,计算装置201可从传感器230接收一个或多个图像(例如,以用户身体的视角)。计算装置201可分析图像,并且确定触觉效果在例如包括毛发的用户的身体上的目的地位置。在一些实施例中,用户可将包括毛发的身体部分上的触觉效果感知为比不具有毛发的身体部分上的弱。在此实施例中,计算装置201可基于所检测的毛发来确定且输出触觉效果。例如,计算装置201可确定并且输出包括增大的振幅的触觉效果。这可提高用户所感知的触觉效果的质量。
作为另一实例,在一些实施例中,计算装置201可确定触觉效果(例如,所投射的/远程的触觉效果)将被施加到的身体部分包括例如特别敏感的身体部分(例如,耳朵或眼睛)。例如,计算装置201可分析来自传感器230的一个或多个图像,并且基于图像来确定计算装置201将触觉效果输出到的特定身体部分。计算装置201可例如使用查找表和/或算法来确定特定身体部分包括敏感身体部分。例如,计算装置201可使用查找表来将特定身体部分映射到对应敏感级别。计算装置201可响应性地确定具有一个或多个特性(例如,类型、振幅、波形、频率或其它特性)的触觉效果,所述触觉效果被配置成防止和/或减小对身体部分的伤害的可能性。
例如,计算装置201可执行模拟虚拟昆虫的游戏。在一些实施例中,计算装置201可确定并且输出被配置成昆虫在用户身上(例如,在用户的耳朵上)爬行的触觉效果。例如,计算装置可确定远程触觉效果,所述远程触觉效果包括将朝向用户的耳朵发射例如模拟用户的耳朵上的昆虫的喷出的空气(或超声波)。在一些实施例中,计算装置201可确定用户的耳朵是敏感身体部分。计算装置201可响应性地更改触觉效果的特性以减小使用户受伤的可能性。例如,计算装置201可减小喷出的空气(或超声波)的振幅或强度例如以减小使用户的听力受损的可能性。
作为另一实例,计算装置201可执行用户可控制虚拟角色的军事游戏。响应于虚拟角色被击中,计算装置201可被配置成将触觉效果(例如,远程触觉效果)输出到用户的身体的与虚拟角色被击中之处相关联的部分。例如,计算装置201可被配置成将硬材料(例如,塑料子弹)投射向用户的身体的与虚拟角色被击中之处相关联的部分。这可模拟枪械射击。在一些实施例中,计算装置201可确定触觉效果将施加到或投射向用户的身体的敏感部分(例如,用户的眼睛)。在一些实施例中,计算装置201可响应性地将触觉效果从一种类型(例如,包括例如发射塑料子弹的硬质材料的远程触觉效果)改变为另一类型(例如,包括发射气体(例如,气体的射流)的远程触觉效果)。这可减小对用户的眼睛的伤害的可能性。
在一些实施例中,计算装置201可确定存在触觉效果将施加到或投射向敏感身体部分的风险。例如,在上述军事游戏实施例中,计算装置201可确定远程触觉效果被配置成投射向用户的鼻子。例如,计算装置201可确定塑料子弹将响应于用户的虚拟角色的鼻子被击中而投射向用户的鼻子。但计算装置201可还确定用户正在移动,因而增大所投射的材料可能接触敏感身体部分(例如,用户的眼睛)的可能性。计算装置201可响应性地将触觉效果从一种类型(例如,包括例如发射塑料子弹的硬质材料的远程触觉效果)改变为另一类型(例如,包括例如发泡体的软质材料的发射的远程触觉效果)。这可减小对敏感身体部分的伤害的可能性。
在一些实施例中,传感器230(例如,温度传感器)可被配置成检测用户的温度(例如,用户的皮肤温度)。在一些实施例中,计算装置201可基于温度来修改触觉效果的特性。例如,计算装置201可被配置成例如响应于例如虚拟***的游戏事件而输出包括将热施加到用户的身体的至少一部分(例如,用户的腹部)的触觉效果。在此实施例中,计算装置201可响应于来自传感器230的指示例如用户的体温高于阈值的传感器信号而不确定触觉效果。例如,计算装置201可响应于确定用户的身体过热而不输出触觉效果。这可防止和/或减小对用户的伤害(例如,中暑)的可能。
计算装置201与位置传感器232通信。在一些实施例中,位置传感器232包括相机、3D成像***(例如,通常以商标名Microsoft 出售的3D成像***)、深度传感器、超声波换能器、加速度计、陀螺仪、射频识别(RFID)标签或读取器、室内近接***、NFC通信装置、全球定位***(GPS)装置、磁力计、无线接口(例如,IEEE 802.11或蓝牙接口)、红外线传感器、距离传感器和/或基于LED的追踪***。位置传感器232被配置成检测用户的身体部分和/或物理物体的一个或多个位置,并且将一个或多个相关联的传感器信号传输到处理器202。该位置可以是现实空间中的三维位置或相对于计算装置201的相对位置。在一些实施例中,位置传感器232被配置成例如基于用户的身体部分和/或物理物体的多个检测的三维位置而检测现实空间中的三维手势。
在一些实施例中,处理器202被配置成基于来自位置传感器232的一个或多个传感器信号而确定手势。例如,用户可作出手势(例如,现实空间中的拨动手势)。计算装置201可分析与该手势相关联的多个相机图像(例如,由位置传感器232所拍摄的),并且基于所述多个相机图像来确定该手势的一个或多个特性(例如,手势的类型)。例如,处理器202可基于相机图像而确定用户作出特定类型的手势。作为另一实例,在一些实施例中,位置传感器232包括无线接口,所述无线接口被配置成检测由用户穿戴和/或耦合到用户的身体(例如,被用户握住)的电子装置所发射的无线信号的强度。位置传感器232可将与无线信号强度相关联的传感器信号传输到处理器202。例如,处理器202可基于位置传感器232在一段时间检测的多个不同的无线信号强度确定电子装置按照与特定手势相关联的特定样式移动。
在一些实施例中,位置传感器232处于计算装置201的外部,并且与计算装置201有线或无线通信(例如,如参照图3所示)。例如,位置传感器232可包括与可穿戴装置(例如,眼镜或领带)相关联并与计算装置201通信的相机。作为另一实例,位置传感器232可包括定位在计算装置201的外部(例如,在用户的家中的架子上)并与计算装置201通信的3D成像***和/或基于LED的追踪***。
在一些实施例中,计算装置201包括与处理器202通信的触觉输出装置218。在一些实施例中,单个触觉输出装置218被配置成输出本地触觉效果与远程触觉效果两者。触觉输出装置218被配置成响应于触觉信号而输出触觉效果(例如,远程触觉效果和/或本地触觉效果)。触觉效果可包括例如温度的改变、抚摸感觉、电触觉效果、温度的改变和/或表面变形(例如,与计算装置201相关联的表面的变形)。此外,一些触觉效果可依序和/或一起使用相同或不同类型的多个触觉输出装置218。虽然图2中示出单个触觉输出装置218,但实施例可使用相同或不同类型的多个触觉输出装置218以产生触觉效果。
在一些实施例中,触觉输出装置218处于计算装置201的外部并与计算装置201通信(例如,通过有线接口,例如以太网、USB、IEEE1394和/或无线接口,例如IEEE 802.11、蓝牙或无线电接口)。例如,触觉输出装置218可与可穿戴装置相关联(例如,耦合到可穿戴装置),并且被配置成从处理器202接收触觉信号。
在一些实施例中,触觉输出装置218被配置成输出包括振动的触觉效果。触觉输出装置218可包括例如以下的一个或多个:压电致动器、电机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电机(ERM)、线性谐振致动器(LRA)和/或被配置成由于电极之间的静电吸引和排斥而振动的多个导电电极。
在一些实施例中,触觉输出装置218被配置成输出调制与触觉输出装置218相关联的表面的所感知的摩擦系数的触觉效果。在一个实施例中,触觉输出装置218包括超声波致动器。超声波致动器可在超声波频率(例如,20kHz)下振动,从而增大或减小相关联的表面的所感知的系数。在一些实施例中,超声波致动器可包括压电材料。
在一些实施例中,触觉输出装置218使用静电吸引来输出静电触觉效果。在一些实施例中,静电触觉效果可包括模拟的质感、模拟的振动、抚摸感觉和/或与计算装置201相关联的表面上的摩擦系数的所感知的改变。
例如,在一些实施例中,触觉输出装置218可包括导电层和绝缘层。在一些实施例中,导电层可包括任何半导体或其它导电材料,例如,铜、铝、金、银、石墨烯、碳纳米管、氧化铟锡(ITO)、铂、聚(3,4-乙撑二氧噻吩)/聚苯乙烯磺酸盐(PEDOT:PSS)或这些材料的任何组合。在一些实施例中,绝缘层可包括玻璃、塑料、聚合物、硅石、聚对二甲苯、卡普顿胶带、二氧化硅(SiO2)、氧化铝(Al2O3)、氮化硅(Si3N4)或这些材料的任何组合。此外,处理器202可通过将电信号(例如,AC信号)施加到导电层而操作触觉输出装置218。在一些实施例中,高压放大器可产生AC信号。电信号可在导电层与接近或触摸触觉输出装置218的物体(例如,用户的手指、头部、脚、手臂、肩膀、腿或其它身体部分或触笔)之间产生电容性耦合。改变物体与导电层之间的吸引级别能够改变用户所感知的触觉效果。
在一些实施例中,导电层包括多个电极。所述多个电极可按照特定图案或配置来布置。例如,所述多个电极可包括多个电极条。电极条可被布置为跨越计算装置201的一个或多个表面的三角形图案、水平图案、垂直图案或其它图案。作为另一实例,所述电极中的一个或多个可包括圆形、三角形、椭圆形、正方形、长方形或其它形状。例如,所述电极的周边或周界可包括圆形、三角形、椭圆形、正方形、长方形或其它形状。所述多个电极可包括任何数量的电极,该电极被布置为任何配置并且包含任何数量的形状。在一些实施例中,处理器202能够通过将电信号施加到所有所述多个电极或其子集而致动触觉输出装置218。电信号可在电极与接近或接触所述电极的物体之间产生电容性耦合。用户可将该电容性耦合感知为触觉效果。
在一些实施例中,静电触觉效果包括“动态ESF效果”。动态ESF效果可包括在用户的身体部分(例如,手指)相对于与触觉输出装置218相关联的表面移动时用户可感知到的静电触觉效果。例如,动态ESF效果可以在用户沿着触觉输出装置218的绝缘体层的表面滑动手指时被用户感知到。作为另一实例,动态ESF效果可在计算装置201相对于用户的身体移动(例如,在用户保持静止时)时被用户感知到。
例如,计算装置201可在包括一个或多个虚拟用户接口组件(例如,按钮、滑块、旋钮等)的触摸屏显示器上输出图形用户接口(GUI)。例如,GUI可包括虚拟按钮。用户接口组件可包括虚拟质感,例如,塑料质感。在一些实施例中,计算装置201可响应于用户滑动手指跨越触摸屏显示器上与用户接口组件相关联的位置而输出触觉效果。触觉效果可包括被配置成例如模拟塑料质感的动态ESF效果。
在一些实施例中,静电触觉效果包括静态ESF效果。静态ESF效果可包括在用户不需要相对于与触觉输出装置218相关联的表面移动身体部分的情况下(例如,跨越或垂直于)用户可感知到的静电触觉效果。例如,用户可相对表面基本固定,并且仍感知到触觉效果。此外,用户可根本不需要接触表面以感知静态ESF效果。例如,在上述GUI实施例中,计算装置201可响应于用户将手指悬停在触摸屏显示器上方以及用户接口组件上方而输出静态ESF触觉效果。在一些实施例中,静态ESF效果包括使用静电力来重复地吸引和排斥用户的身体部分(例如,手指)以例如产生振动感觉。触觉效果可例如向用户通知用户正接近所启用的按钮或所停用的按钮和/或悬停在所启用的按钮或所停用的按钮上方。
在一些实施例中,触觉输出装置218包括被配置成输出变形触觉效果的变形装置。变形触觉效果可包括升高或降低与计算装置201相关联的表面的部分。例如,变形触觉效果可包含升高计算装置201的表面的部分以产生凹凸不平的质感。在一些实施例中,变形触觉效果可包括弯曲、折叠、卷动、扭曲、挤压、挠曲、改变与计算装置201相关联的表面的形状或以其它方式使该表面变形。例如,变形触觉效果可将力施加在计算装置201上或与计算装置201相关联的表面上,从而导致该表面弯曲、折叠、卷动、扭曲、挤压、挠曲、改变形状或以其它方式变形。例如,响应于用户接近计算装置201,计算装置201可输出被配置成导致计算装置201朝向用户弯曲的触觉效果。此变形触觉效果可以是随着用户接近并最终接触计算装置201而提供给用户的基本连续的触觉反馈的至少一部分。
在一些实施例中,触觉输出装置218包括被为输出变形触觉效果(例如,使计算装置201或与计算装置201相关联的表面弯曲或变形)而配置的流体或其它材料。例如,流体可包括智能胶。智能胶包括具有响应于一种或多种刺激(例如,电场、磁场、温度、紫外光、振动或pH值变化)而改变的机械或结构特性的材料。例如,智能胶可响应于刺激改***度、体积、透明度和/或颜色。在一些实施例中,硬度可包括与计算装置201相关联的表面对抗变形的阻力。在一些实施例中,一根或多根导线可嵌入在智能胶中或耦合到智能胶。随着电流穿过导线延伸,释放出热,从而导致智能胶膨胀或收缩。这可导致计算装置201或与计算装置201相关联的表面变形。
作为另一实例,流体可包括流变(例如,磁流变或电流变)流体。流变流体包括悬浮在流体(例如,油或水)中的金属颗粒(例如,铁颗粒)。流体中的分子的次序可响应于电场或磁场重新对准,从而改变流体的整体阻尼和/或粘度。这可导致计算装置201或与计算装置201相关联的表面变形。
在一些实施例中,触觉输出装置218包括机械变形装置。例如,在一些实施例中,触觉输出装置218可包括耦合到使变形组件旋转的机械臂的致动器。变形组件可包括例如椭圆形、星芒形或波纹形状。变形组件可被配置成以一些旋转角度而不是其它来移动与计算装置201相关联的表面。致动器可包括压电致动器、旋转/线性致动器、螺线管、电活性聚合物致动器、宏观纤维复合物(MFC)致动器、形状记忆合金(SMA)致动器和/或其它致动器。随着致动器使变形组件旋转,变形组件可移动表面,而导致其变形。在此实施例中,变形组件可开始于表面平坦的位置中。致动器可响应于从处理器202接收信号使变形组件旋转。使变形组件旋转可导致表面的一个或多个部分升高或降低。在一些实施例中,变形组件可保持在此旋转状态中,直到处理器202向致动器发信号以使变形组件旋转回其原始位置为止。
此外,其它技术或方法能够用于使与计算装置201相关联的表面变形和/或以其它方式产生触觉效果。例如,触觉输出装置218可包括柔性表面层,所述柔性表面层被配置成基于来自表面可重新配置触觉衬底(包含(但不限于)例如纤维和纳米管)的接触而使其表面变形或改变其质地。在一些实施例中,触觉输出装置218使用例如耦合到导线的电机、空气或凹穴、谐振机械元件、微机电***(“MEMS”)元件或泵、热流体凹穴、可变多孔性隔膜或层流调制而变形或以其它方式产生触觉效果。
在一些实施例中,触觉输出装置218被配置成将触觉效果远程投射到用户(例如,以产生远程触觉效果)。例如,触觉输出装置218可包括被配置成朝向用户(例如,用户的身体部分)发射材料(例如,固体、液体、气体或等离子体)的一股或多股射流。在一个此种实施例中,触觉输出装置218包括被配置成在接收到触觉信号时发射具有变化的特性的氧气、氮气或其它气体喷流或流流的气体射流。作为另一实例,触觉输出装置218可包括被配置成在用户的方向上投射压力波的一个或多个超声波换能器或扬声器。在一个此种实施例中,处理器202可使触觉输出装置218响应于用于用户在现实空间中作出手势而朝向用户发射集中的压力波。该集中的压力波可使用户的身体的一部分(例如,用户的手指)振动。用户可将该振动感知为触觉效果。
在一些实施例中,触觉输出装置218可以是计算装置201的外壳的一部分。在其它实施例中,触觉输出装置218可容纳在覆盖与计算装置201相关联的表面(例如,计算装置201的前部或后部)的柔性外壳内。在一些实施例中,触觉输出装置218自身可是柔性的。
描绘转向存储器204,模块224、226和228以示出如何在一些实施例中配置装置以提供基于位置的触觉效果。在一些实施例中,手势检测模块224包括可由处理器202用来确定例如用户的手势的一个或多个算法或查找表。
在一些实施例中,手势检测模块224包括用于检测与计算装置201的接触的代码。例如,在此实施例中,手势检测模块224可对触摸传感器208采样,以确定用户是否已接触触敏表面216。在另一此种实施例中,手势检测模块224可分析来自位置传感器232的多幅图片,并且确定对应于用户的身体部分的像素是否覆盖与计算装置201相关联的像素。如果确定覆盖,那么手势检测模块224可确定例如用户正接触计算装置201。
在一些实施例中,手势检测模块224包括用于分析通过网络接口装置210接收的数据以确定用户相对于计算装置201的位置的代码。例如,在一些实施例中,用户可穿戴包括GPS传感器的装置,例如,智能戒指或智能手表。在此实施例中,该装置可被配置成将与该装置的GPS位置(例如,用户的身体部分的GPS位置)相关联的信号传输到计算装置201。在一些实施例中,手势检测模块224包括用于从该装置接收GPS位置并比较该GPS位置与计算装置201的GPS位置(例如,如传感器230所检测的GPS位置)的代码。这可允许计算装置201确定该装置(例如,用户)相对于计算装置201的位置。手势检测模块224可包括用于基于位置来确定手势的代码。
触觉效果确定模块226表示分析数据以确定要产生的触觉效果的程序组件。触觉效果确定模块226可包括使用一个或多个算法或查找表来选择要输出的一种或多种触觉效果的代码。在一些实施例中,触觉效果确定模块226包括用于基于所检测的手势而确定要输出的一种或多种触觉效果的代码。例如,处理器202可访问触觉效果确定模块226中所存储的查找表以将具体手势映射到特定触觉效果,例如,空气的喷出或静电触觉效果。
在一些实施例中,触觉效果确定模块226包括确定将使用一个或多个触觉输出装置218而输出的多种触觉效果,例如来提供贯穿手势的基本连续的触觉反馈的代码。例如,触觉效果确定模块226可包括用于从多个可用触觉输出装置选择两个或更多个不同触觉输出装置以相互结合来使用而随着用户接近并接触计算装置201提供基本连续的触觉反馈的代码。
触觉效果产生模块228表示使处理器202产生触觉信号并将所述触觉信号传输到触觉输出装置218以产生所选择的触觉效果的程序设计。例如,触觉效果产生模块228可访问所存储的波形或命令以发送到触觉输出装置218而产生期望触觉效果。在一些实施例中,触觉效果产生模块228可包括确定触觉信号的算法。此外,在一些实施例中,触觉效果产生模块228可包括确定触觉效果的目标坐标(例如,用户的身体上将被输出触觉效果的位置的坐标)的算法。
虽然在图2中,模块224、226、228被描绘为存储器204内的程序组件,但在一些实施例中,模块224、226、228可包括硬件。例如,模块224、226、228可包括模/数转换器、处理器、微控制器、比较器、放大器、晶体管以及其它模/数电路。
图3示出用于提供基于位置的触觉效果的***300的实施例。***300包括可穿戴计算装置302、可抓握计算装置304、位置传感器316和/或连接到网络314的远程触觉输出装置318。可穿戴计算装置302和/或可抓握计算装置可与图2的计算装置201基本相同地配置。
计算装置302、304、位置传感器316和/或远程触觉输出装置318可相互直接通信和/或可通过网络314而相互通信。例如,可穿戴计算装置302可直接与可抓握计算装置304无线通信(例如,使用蓝牙)。
***300可使用任何数量、组合和/或配置的可穿戴计算装置302、可抓握计算装置304、位置传感器316和/或远程触觉输出装置318以提供贯穿手势的基本连续的触觉反馈。例如,在一些实施例中,可穿戴计算装置302、可抓握计算装置304、位置传感器316以及远程触觉输出装置318一起工作,以例如随着用户接近、接触和/或将手指提离可抓握计算装置304的用户接口组件(例如,触发器306、操纵杆308、按钮310和/或方向键盘312)而将基本连续的触觉反馈提供给用户。
作为特定实例,在一些实施例中,用户可穿戴虚拟现实头盔来玩用户的视野基本受到阻碍的视频游戏。在此实施例中,***300可被配置成随着用户接近并最终拾起可抓握计算装置304而输出基本连续的触觉反馈,例如以将用户导引到用户可原本不能看到的可抓握计算装置304。例如,位置传感器316可检测到用户接近可抓握计算装置304,并将相关联的传感器信号传输到可穿戴计算装置302和/或远程触觉输出装置318。可穿戴计算装置302和/或远程触觉输出装置318可响应性地输出例如随着用户更靠近可抓握计算装置304而具有减小的量值的触觉效果。可抓握计算装置304可响应于用户最终接触可抓握计算装置304而输出例如振动等触觉效果。在一些实施例中,来自***300的各种组件的触觉效果的组合可将基本连续的触觉反馈提供给用户,例如来将用户朝向可抓握计算装置304导引。
在一些实施例中,***300被配置成输出被配置成将信息提供给用户的一种或多种触觉效果。例如,用户可握住可抓握计算装置304例如来玩视频游戏。***300可检测到用户的身体部分悬停在可抓握计算装置304的特定用户接口组件(例如,触发器306)上方,而不接触。在一些实施例中,***300可响应性地朝向用户(例如,朝向触发器306上方的用户的手指的背部)输出触觉效果(例如,空气的喷出)。触觉效果可被配置成向用户通知例如用户接口组件的特性。例如,在此实施例中,触觉效果可向用户通知用户接口组件的类型、位置、功能性和/或状态,例如,用户接口组件是否被启用。例如,这可允许用户在不物理上接触用户接口组件的情况下确定特定用户接口是否被启用。
此外,在一些实施例中,***300被配置成随着用户悬停在用户接口组件上方、接近并最终接触用户接口组件而提供连续触觉反馈。额外地或可替代地,在一些实施例中,***300被配置成随着用户将手指移离用户接口组件(例如,在与用户接口组件互动之后)而提供连续触觉反馈。随着用户移离用户接口组件而输出的触觉反馈可不同于随着用户接近和/或接触用户接口组件而输出的触觉反馈。例如,***300可随着用户移离用户接口组件而输出被配置成向用户指示用户接口组件不再被启用的触觉反馈。
额外地或可替代地,在一些实施例中,***300输出具有多个用户接口级别的用户接口(通过,通过显示器)。例如,***300可执行包括用户接口的视频游戏(例如,可抓握计算装置304自身可执行视频游戏)。视频游戏可包括虚拟物体,例如,虚拟激光枪。在一些实施例中,***300可响应于第一手势(例如,用户将身体部分和/或物理物体相对于可抓握计算装置304定位在第一位置中)而检测到用户与用户接口的第一用户接口级别互动和/或激活该第一用户接口级别。例如,***300可响应于用户将手指悬停在可抓握计算装置304的触发器306上方而检测到用户与第一用户接口级别互动和/或激活该第一用户接口级别。在一些实施例中,***300可执行与第一用户接口级别相关联的功能(例如,将***装到虚拟激光枪中)。额外地或可替代地,***300可输出与第一用户接口级别相关联的触觉效果,例如,被配置成模拟将***装到虚拟激光枪中的触觉效果。
此外,在一些实施例中,***300可响应于用户将身体部分相对于可抓握计算装置304定位在第二位置中而检测到用户与第二用户接口级别互动和/或激活该第二用户接口级别。例如,***300可响应于用户将手指更靠近可抓握计算装置304地悬停在触发器306上方而检测到用户可与第二用户接口级别互动和/或激活该第二用户接口级别。在一些实施例中,***300可执行与第二用户接口级别相关联的功能(例如,将虚拟激光枪充能)。额外地或可替代地,***300可输出与第二用户接口级别相关联的触觉效果,例如,被配置成模拟将虚拟激光枪充能的触觉效果。
此外,在一些实施例中,***300可响应于用户将身体部分相对于可抓握计算装置304定位在第三位置中而检测到用户与第三用户接口级别互动和/或激活该第三用户接口级别。例如,***300可响应于用户按压可抓握计算装置304的触发器306而检测到用户与第三用户接口级别互动和/或激活该第三用户接口级别。在一些实施例中,***300可执行与第三用户接口级别相关联的功能(例如,击发虚拟激光枪)。额外地或可替代地,***300可输出与第三用户接口级别相关联的触觉效果,例如,被配置成模拟击发虚拟激光枪的触觉效果。因此,用户能够通过将身体部分定位在特定用户接口组件上方不同位置处而执行多种功能。这可为用户提供更加直观且简单的体验。
图4示出用于提供基于位置的触觉效果的***400的另一实施例。***400包括载具。载具包括计算装置(例如,位于载具内)。虽然图4中的载具包括汽车,但在其它实施例中,载具包括卡车、船、飞机、摩托车等。
计算装置与一个或多个用户接口组件(例如,操纵杆、按钮、触发器、开关、旋钮、触敏表面等)通信。在图4所示的实例中,计算装置与触摸屏显示器402和多个按钮406通信。***400还包括位置传感器404和触觉输出装置。触觉输出装置被配置成向用户提供本地触觉效果和/或远程触觉效果。
在一些实施例中,计算装置被配置成响应于现实空间中的手势而向用户提供触觉反馈(例如,基本连续的触觉反馈)。例如,计算装置可通过触摸屏显示器402而输出被配置成例如改变一个或多个载具设定(例如,音频音量、无线电台、制冷或制热水平和/或GPS导航设定)的GUI。在一些实施例中,计算装置被配置成随着用户接近、接触和/或移离GUI的特定虚拟物体(例如,用于调节音频音量的虚拟按钮)而向用户提供基本连续的触觉反馈。在此实施例中,计算装置可响应于检测到用户不再在虚拟物体上方作出手势(例如,将手指悬停在虚拟物体上方)和/或虚拟物体与用户之间的距离超过阈值(例如,用户已移动得足够远离虚拟物体)而停止输出触觉反馈。在一些实施例中,此连续触觉反馈可允许用户定位期望的用户接口组件和/或与计算装置安全地互动,例如,而不需要在视觉上集中在触摸屏显示器上,这可防止事故或伤害。
作为实例,在一些实施例中,计算装置被配置成检测用户(例如,通过手指)在GUI上输出的虚拟按钮上作出手势,例如以改变无线电台。计算装置被配置成响应性地输出被配置成例如向用户通知用户正在特定虚拟物体上方作出手势的远程触觉效果(例如,超声压力波)。在一些实施例中,计算装置被配置成响应于检测到用户接近虚拟按钮而继续输出远程触觉效果。在此实施例中,计算装置可调制远程触觉效果的强度,例如以使得用户将远程触觉效果感知为具有基本恒定的量值。因此,例如,即使用户移动得更靠近远程触觉效果的来源,用户也可将远程触觉效果感知为具有基本恒定的量值。在一些实施例中,计算装置被配置成检测用户接触虚拟物体(例如,通过触摸屏显示器402和/或位置传感器404)。计算装置可响应性地停止输出远程触觉效果和/或输出包括例如脉冲振动的本地触觉效果。这可向用户确认计算装置接收到用户输入。在一些实施例中,计算装置被配置成连续地输出本地触觉效果,例如直到计算装置检测到用户将身体部分移离和/或不再接触虚拟物体为止。计算装置可接着输出一种或多种远程触觉效果,例如,直到用户与虚拟物体之间的距离超过阈值为止。
虽然上文论述是关于虚拟物体(例如,在触摸屏显示器402上所输出的虚拟物体),但在一些实施例中,计算装置可被配置成基于关于一个或多个物理用户接口组件(例如,按钮406、触发器、开关、操纵杆408、旋钮等)执行的手势而输出触觉效果。
在一些实施例中,计算装置例如通过触摸屏显示器402而输出包括多个用户接口级别的用户接口。例如,在一些实施例中,计算装置被配置成输出与汽车中的无线电相关联的GUI。在一些实施例中,用户可通过将手指悬停在触摸屏显示器402上所输出的虚拟按钮(例如,无线电台扫描按钮)上方而与用户接口的第一用户接口级别互动。在一些实施例中,计算装置可执行与第一用户接口级别相关联的功能。例如,计算装置可输出(例如,通过触摸屏显示器402)与虚拟按钮相关联的功能的描述,例如,“HOVER CLOSER TO SCAN,TAP TOTURN OFF”。计算装置可输出被配置成模拟例如物理按钮的存在或致动的触觉效果。此外,在一些实施例中,用户可通过更靠近虚拟按钮作出手势而与第二用户接口级别互动。在一些实施例中,计算装置被配置成响应性地扫描经过多个无线电台。此外,在一些实施例中,用户可通过接触触摸屏显示器402(例如,和/或触摸屏显示器402上所输出的虚拟按钮)而与第三用户接口级别互动。在一些实施例中,计算装置被配置成响应性地关闭无线电。因此,在一些实施例中,计算装置被配置成响应于用户与各种用户接口级别互动而执行多种功能。
图5示出用于提供基于位置的触觉效果的***的又一实施例。***包括在显示器(例如,触摸屏显示器)上输出虚拟物体506的计算装置502(例如,智能电话或平板计算机)。计算装置502输出(例如,通过显示器)包括例如火的虚拟物体506。计算装置502被配置成检测手势,例如,用户接近和/或移离虚拟物体506(例如,如虚线箭头所示),并且响应性地输出触觉效果。触觉效果被配置成向用户通过更加现实和/或具有沉浸感的触觉体验。例如,触觉效果可被配置成模拟例如火的热度。例如,在图5所示的实例中,计算装置502被配置成输出包括响应于检测到用户接近计算装置502而提高强度和/或响应于检测到用户移离计算装置502而降低强度的触觉效果(例如,振动或所投射的热)。此外,在一些实施例中,计算装置502被配置成响应于检测到用户接触计算装置502而输出本地触觉效果,例如,摇晃或震动感觉。在一些实施例中,基本连续的远程和/或本地触觉效果的组合可随着用户相对于火移动而更加现实地模拟虚拟物体的特性(例如,增大或减小火的热度)。
作为另一实例,在一些实施例中,计算装置502被配置成输出(例如,通过显示器)包括例如磁场和/或力场的虚拟物体506。在此实施例中,计算装置502可响应于检测到用户接近计算装置502而输出包括提高强度的触觉效果。例如,触觉效果可包括被配置成抵抗用户的移动的一股流体或气体。这可抵抗用户接近虚拟物体506,例如,模仿磁阻力或力场。计算装置502可响应于检测到用户移离计算装置502而输出包括降低强度的触觉效果。例如,触觉效果可包括被配置成辅助用户离开计算装置502的移动的一股流体或气体。这可更加现实地模拟磁体的磁场和/或力场的效果。
在一些实施例中,触觉效果被配置成将信息提供给用户。例如,计算装置502可执行应用程序。应用程序可执行如下功能:例如如果该功能被中断,那么其可能导致对计算装置502的损坏。在一些实施例中,计算装置502被配置成检测用户朝向计算装置502作出手势(例如,通过位置传感器504),并且响应性地输出被配置成例如抵抗用户朝向计算装置502的移动的远程触觉效果。在一些实施例中,计算装置502可随着用户继续接近计算装置502而提高阻力的强度和/或量。这可向用户指示用户不应与计算装置502互动。在一些实施例中,计算装置502被配置成检测用户最终接触计算装置502,并且响应性地输出包括例如一系列脉冲振动的触觉效果。这可向用户指示用户不应与计算装置502互动。此外,在一些实施例中,计算装置502被配置成检测用户将手指跨越计算装置502的表面(例如,朝向触摸屏显示器上所输出的虚拟按钮)滑动并响应性地输出包括例如摩擦系数的所感知的增大的触觉效果。这可实际上使用户在物理上更难以与计算装置502互动。触觉效果的组合可更加充分地向用户通知应用程序的状态、特性和/或其它特征。
额外地或可替代地,在一些实施例中,计算装置502输出包括多个用户接口级别的用户接口,所述多个用户接口级别例如被配置成模拟在不同深度处与虚拟物体506互动和/或与虚拟物体506的不同表面互动。例如,虚拟物体506可包括虚拟水果,例如,桃子。用户可通过在现实空间中在第一位置中作出手势(例如,将身体部分定位在第一位置中)而与虚拟水果的一部分(例如,外层)互动。在一些实施例中,计算装置502可检测手势并响应性地例如输出被配置成模拟水果的绒毛或外皮的触觉效果。此外,用户可通过在现实空间中在第二位置中作出手势而与虚拟水果的另一部分(例如,内层)互动。第二位置可比第一位置靠近计算装置502。在一些实施例中,计算装置502可检测第二位置中的手势并响应性地例如输出被配置成模拟水果的内部特性(例如,湿软或柔软质感)的触觉效果。以此方式,计算装置502可响应于不同手势而模拟虚拟物体506的不同表面和/或深度。
用于提供基于位置的触觉效果的说明性方法
图6是用于执行根据一个实施例的用于提供基于位置的触觉效果的方法的步骤的流程图。在一些实施例中,图6中的步骤可实施为由处理器(例如,通用计算机、移动装置或服务器中的处理器)执行的程序代码。在一些实施例中,这些步骤可由一组处理器实施。在一些实施例中,可省略或以不同次序执行图6所示的一个或多个步骤。类似地,在一些实施例中,还可执行图6未示出的额外步骤。下文的步骤是参考上文关于图2所示的计算装置201而描述的组件来描述的。
为了简单起见,参照画图应用程序来描述下文的步骤。但下文的步骤不限于此实施例,并且能够通过其它类型的应用程序和/或装置来采用所述步骤的任何组合。
方法600始于步骤602,其中处理器202接收与至少包括与表面(例如,计算装置201的表面)接触以及与表面不接触的手势相关联的传感器信号。例如,处理器202可执行画图应用程序。用户可朝向计算装置201移动触笔(例如,或笔或其它物体),例如用于在画图应用程序中执行一个或多个画图操作。位置传感器232(例如,相机)可捕获与触笔的移动相关联的一个或多个图像,并将相关联的传感器信号传输到处理器202。在此实施例中,图像可包括前景特征(例如,触笔的部分)以及背景特征(例如,椅子、桌子、墙壁、书桌等)。
方法600继续以步骤604,其中处理器202至少部分基于手势而确定用户接口级别。在一些实施例中,处理器202被配置成依赖于存储器204中所含有的程序设计、查找表和/或算法以确定用户接口级别。例如,处理器202可使用查找表以将现实空间中的位置(与手势相关联)映射到画图应用程序的特定用户接口级别。例如,处理器202能够将现实空间中相对于计算装置101处于远距离处的第一位置映射到与画图应用程序中所输出的图的透视图相关联的第一用户接口级别。处理器202能够将相对于计算装置101处于中等距离处的第二位置映射到与画图应用程序中所输出的图的近视图和/或横截面图相关联的第二用户接口级别。
在一些实施例中,处理器202可将单个手势与用户接口级别相关联。例如,处理器202可将一个具体手势与第一用户接口级别相关联并将另一手势与第二用户接口级别相关联。在其它实施例中,处理器202可将多个手势与用户接口级别相关联。例如,在一些实施例中,处理器202可将相对于计算装置201在一定距离范围(例如,相对于计算装置201的表面介于4英寸与8英寸之间)内发生的任何手势与单个用户接口级别相关联。
方法600继续以步骤606,其中处理器202基于手势而确定用户互动。例如,处理器202可例如基于手势的三维开始位置和/或结束位置来确定包括拨动手势、悬停手势或其它类型的手势的手势。处理器202可将手势的特定类型和/或位置与相关联于画图应用程序的具体用户互动(例如,激活线条工具、正方形形状工具、上色-涂刷-大小修改工具等)相关。
方法600继续以步骤608,其中处理器202至少部分基于用户接口级别和/或用户互动而确定功能。在一些实施例中,功能可包括:输出音频数据、视频数据和/或信息(例如,附近加油站、餐馆、影院、警察局或医院或交通状况或速度限制);进行电话呼叫;发送文字消息、SMS消息或电子邮件;打开网页浏览器或访问网站;打开应用程序;关闭应用程序;执行背景处理;执行前景处理;保存文件;打开文件;执行游戏功能;接收数据;发送数据;改变应用程序设定;通过网络而订购产品;打印文档;将条目添加到列表;从列表移除条目;录制声音;播放媒体内容;打开电子书;执行计算;执行比价;检查银行余额;和/或任何其它数量和/或配置的计算机功能。
在一些实施例中,功能包括输出、移除、改变、更新和/或删除用户接口中的虚拟物体。例如,在画图应用程序实施例中,计算装置201可响应于检测到例如用户将手指或触笔相对于计算装置201悬停在远距离处而确定与第一用户接口级别相关联的第一功能。第一功能可包括例如输出图的透视图。计算装置201可进一步响应于检测到例如在现实空间中相对于计算装置201处于远距离处的另一手势而确定与第一用户接口级别相关联的第二功能。第二功能可包括例如沿着通过手势的移动而限定的路径在虚拟画布上画图(例如,通过虚拟画图刷)。在一些实施例中,计算装置201可响应于检测到例如用户相对于计算装置201将手指悬停在中等距离处而确定与第二用户接口级别相关联的第三功能。该功能可包括例如输出图的近示图和/或横截面图。在一些实施例中,计算装置201可响应于检测到例如相对于计算装置201处于中等距离处的另一手势而进一步确定与第二用户接口级别相关联的第四功能。第四功能可包括例如沿着通过移动手势限定的路径而擦除。在一些实施例中,计算装置201可响应于检测到例如用户接触计算装置201而确定与第三用户接口级别相关联的第五功能。该功能可包括例如保存虚拟图像。
方法600继续以步骤610,其中处理器202执行功能。在一些实施例中,处理器202可通过执行一个或多个子功能而执行功能。例如,如果功能包括保存虚拟图像,那么处理器202可与一个或多个服务器(例如,图像存储数据库)通信以获得用于安全地将虚拟图像存储到数据库的私钥或密码。处理器202可接着将图像保存到数据库。
方法600继续以步骤612,其中处理器202确定被配置成贯穿手势提供基本连续的触觉反馈的一种或多种触觉效果。
在一些实施例中,处理器202至少部分基于手势和/或与手势相关联的在现实空间中的位置而确定一种或多种触觉效果。例如,处理器202可访问存储器204中所存储的查找表以将贯穿手势的位置映射到具体触觉效果。在此实施例中,查找表可被预编程在存储器中和/或可由用户编程。
在一些实施例中,处理器202至少部分基于用户与计算装置201之间的距离而确定一种或多种触觉效果。例如,在一些实施例中,用户可将第一触觉效果(例如,包括所投射的固体、液体、气体、等离子体、声压波和/或激光束)感知为相对于计算装置201在第一距离范围内(例如,介于1mm与10cm之间)比另一类型的触觉效果强。因此,在一些实施例中,处理器202响应于检测到用户相对于计算装置201定位在第一距离范围内(例如,介于1mm与10cm之间)而确定第一远程触觉效果。
作为另一实例,在一些实施例中,用户可将第二触觉效果(例如,包括基于静电的电容性耦合)感知为相对于计算装置201在第二距离范围内(例如,介于0mm与1mm之间)比另一类型的触觉效果强。因此,在一些实施例中,处理器202响应于检测到用户相对于计算装置201定位在第二距离范围内而确定第二触觉效果。作为又一实例,在一些实施例中,用户可将第三触觉效果(例如,包括本地触觉效果)感知为相对于计算装置201在第三距离范围内(例如,0mm和/或接触计算装置201)比另一类型的触觉效果强。因此,在一些实施例中,处理器202响应于检测到用户相对于计算装置201定位在第三距离范围内(例如,接触计算装置)而确定第三触觉效果。
在一些实施例中,处理器202随着用户例如接近计算装置201并相对于计算装置201移动穿过各种距离范围而确定多种触觉效果。多种触觉效果可包括将基本连续的触觉反馈提供给用户的远程和/或本地触觉效果的任何组合。
在一些实施例中,处理器202确定包括被配置成被用户感知为与先前输出的触觉效果基本相同的一个或多个特性(例如,量值、频率、持续时间)的触觉效果。例如,在一些实施例中,处理器202可检测到用户在现实空间中作出手势(例如,朝向计算装置201移动手指)。在此实施例中,处理器202可响应性地响应于确定用户正移动得更靠近计算装置201而减小触觉效果的量值和/或响应于确定用户正移动得更远离计算装置201而增大触觉效果的量值。这可向用户提供基本一致的触觉体验,例如,不管用户有多靠近或多远离计算装置201(例如,触觉输出装置218)。
在一些实施例中,处理器202确定包括被配置成被用户感知为与先前输出的触觉效果基本不同和/或可区别的一个或多个特性(例如,量值、频率、持续时间)的触觉效果。例如,在一些实施例中,处理器202可检测到用户在现实空间中作出手势。在此实施例中,处理器202可响应性地将触觉效果的特性保持恒定。因为用户在作出手势的同时可移动得更靠近和/或远离触觉效果的来源,所以用户可将触觉效果感知为正在变化(例如,即使处理器202将触觉效果的特性保持恒定也是如此)。这可将信息提供给用户,例如,用户有多靠近计算装置201。
在一些实施例中,处理器202被配置成至少部分基于用户接口级别、手势和/或用户互动而确定触觉效果。例如,处理器202可访问存储器204中所存储的查找表,以将用户接口级别(例如,与画图应用程序中的虚拟画布上的视图或图相关联)映射到具体触觉效果,例如,空气的喷出或其它远程触觉效果。在一些实施例中,处理器202被配置成基于手势的类型、位置、持续时间和/或其它特性而确定触觉效果。在一些实施例中,处理器202可基于用户互动的类型、位置、持续时间和/或其它特性而确定触觉效果。例如,在一些实施例中,处理器202确定用户互动被配置成在画图应用程序中擦除图像,并且基于此用户互动确定被配置成例如模拟用橡皮擦除黑板的感觉的相关联的触觉效果。
在一些实施例中,处理器202被配置成至少部分基于功能(例如,与功能相关联的特性)而确定触觉效果。例如,在一些实施例中,处理器202可确定与功能的类型相关联的触觉效果。例如,在一个实施例中,如果功能包括打开应用程序(例如,画图应用程序),那么处理器202可确定包括空气的短促喷出的触觉效果。在此实施例中,如果功能包括关闭应用程序,那么处理器202可确定包括空气的三次短促喷出的触觉效果。这可向用户指示功能。在一些实施例中,处理器202确定被配置成指示已执行功能的触觉效果。例如,一旦已执行包括在画图应用程序中选择画图刷工具的新颜色的功能,处理器202便可确定包括静电触觉效果的触觉效果。在一些实施例中,处理器202被配置成基于执行该功能的结果而确定不同触觉效果。例如,处理器202可在成功执行功能的情况下输出与未成功执行功能的情况不同的触觉效果。
方法600继续以步骤614,其中处理器202输出一种或多种触觉效果。处理器202将与所述一种或多种触觉效果相关联的一个或多个触觉信号传输到输出所述一种或多种触觉的触觉输出装置218。在一些实施例中,所述一种或多种触觉效果被配置成贯穿手势提供基本连续的触觉反馈。例如,处理器202可传输与多种触觉效果(例如,远程触觉效果和/或本地触觉效果)相关联的多个触觉信号。所述多种触觉效果被配置成贯穿手势和/或现实空间中的其它移动提供基本连续的触觉反馈。
基于位置的触觉效果的优点
基于位置的触觉效果有多个优点。例如,这些***可提供更加现实或具有沉浸感的用户体验。例如,在一些实施例中,这些***可贯穿手势(例如,随着用户接近和/或接触计算装置)将基本连续的触觉反馈提供给用户。这可更加现实地模拟物理现象,例如,重力、磁场、电场、风的吹动、对力的施加的阻力和/或热度。例如,在一些实施例中,计算装置可执行虚拟核反应堆熔毁的虚拟灾难游戏。计算装置可检测到用户朝向计算装置作出手势,并且响应性地输出被配置成例如模拟辐射污染的触觉效果。例如,计算装置可响应于检测到用户接近计算装置而基本连续地输出具有增大的量值的远程触觉效果,而响应于用户接触计算装置时在强烈振动中到达高潮。连续的增强触觉效果可更加现实地模拟接近被辐射污染的地方。
作为另一实例,在一些实施例中,用户可通过在现实空间中与第一用户接口级别相关联的第一位置中作出手势而与虚拟物体(例如,在显示器上输出)互动。计算装置可响应性地输出被配置成模拟与虚拟物体相关联的表面(例如,枕头上的枕头套)的触觉反馈。用户可进一步通过在与第二用户接口级别相关联的第二位置中作出手势而与虚拟物体互动。计算装置可响应性地输出被配置成模拟与虚拟物体相关联的不同表面(例如,枕头的内部,例如,羽毛或记忆发泡体)的触觉反馈。在一些实施例中,这可使虚拟物体感觉更加现实和/或三维。此外,通过将不同触觉效果与不同用户接口级别相关联,用户能够在与单个虚拟物体互动的同时感知多种触觉效果。这可实现更大范围的触觉体验。
在一些实施例中,基于位置的触觉效果可允许用户在不查看装置的情况下作出状态确定(例如,确定装置所处的模式)。因此,用户能够维持注意力在其它任务上。例如,计算装置可将与程序中或用户接口上的可进行的操作相关联的远程触觉效果投射到用户。这可允许用户在不需要在视觉上集中在显示器上的情况下与用户接口互动,。类似地,触觉效果可用作对可进行操作的、已完成的或具有特定级别的重要性的操作的确认。
在一些实施例中,基于位置的触觉效果可允许更加独特、具有互动性且有效的用户接口。例如,在一些实施例中,用户能够在与相关联于用户接口组件的不同用户接口级别互动的同时执行广泛范围的功能。此外,在一些实施例中,用户能够通过将身体部分悬停在用户接口组件上方而定位用户接口组件的位置,并且通过将身体部分移动到现实空间中的另一位置(例如,朝向用户接口组件)而激活用户接口组件。这可使用户能够与用户接口互动,例如,在不在物理上接触用户接口组件(例如,在用户接口组件上点击和/或作出手势)的情况下。在物理上接触用户接口组件可能是具有挑战性的,例如在周围运动、认知负荷和视觉分散可能使得难以在用户接口组件上精确地点击的移动的载具中。。
在其它实施例中,基于位置的触觉效果可实现非视觉接口。例如,在一些实施例中,用户能够通过在现实空间中(例如,在与用户接口级别相关联的位置)作出手势而用用户的手指探索非视觉用户接口。在用户的手指与不可见的接口组件(例如,虚拟音量开关)的位置互动时,计算装置可输出触觉反馈。这可允许用户辨识不可见的接口组件的位置。在辨识接口组件的位置时,用户能够例如通过将用户的手指移动到现实空间中的另一位置(例如,与另一用户接口级别相关联的另一位置)而与接口组件互动(例如,在接口组件上按压)。这可导致计算装置执行与不可见的接口组件相关联的功能(例如,提高音量水平)。计算装置可进一步向用户提供触觉反馈,例如来确认用户输入的接收。
概论
上文论述的方法、***和装置是实例。各种配置可视需要而省略、替代或添加各种过程或组件。例如,在替代配置中,方法可按照与所描述的次序不同的次序执行,且/或可添加、省略和/或组合各阶段。并且,关于特定配置而描述的特征可在各种其它配置中加以组合。配置的不同方面和元件可以类似方式来组合。并且,技术会进展,因此许多所述元件是实例且不限制本公开或权利要求书的范围。
在描述中给出了特定细节以便提供对实例配置(包含实施方案)全面理解。然而,可在没有这些特定细节的情况下对配置进行实践。例如,已在没有不必要的细节的情况下示出熟知的电路、过程、算法、结构和技术,以便避免使配置模糊不清。本描述仅提供实例配置,且不限制权利要求书的范围、适用性或配置。相反,配置的前文描述将向本领域的技术人员提供用于实施所描述的技术的充分描述。可在不偏离本公开的精神或范围的情况下对元件的功能和布置进行各种改变。。
此外,配置可被描述为被描绘为流程图或框图的过程。虽然每一个配置可将操作描述为依序过程,但许多所述操作可并行地或同时地执行。此外,操作的次序可被重新布置。过程可具有图中不包含的额外步骤。此外,方法的实例可由硬件、软件、固件、中间件、微码、硬件描述语言或其任何组合实施。当以软件、固件、中间件或微码实施时,用于执行必要任务的程序代码或代码段可存储在例如存储介质的非暂时性计算机可读介质中。处理器可执行所描述的任务。
在描述若干实例配置之后,可在不偏离本公开的精神的情况下使用各种修改、替代构造和等同物,。例如,上述元件可为更大***的组件,其中其它规则可优先于本发明的应用或以其它方式修改本发明的应用。此外,可在考虑上述元件之前、在此期间或在此之后进行多个步骤。因此,上文描述不限定权利要求书的范围。
本文中的“适于”或“被配置成”的使用意指不排除适于或被配置为执行额外任务或步骤的装置的开放且包含性的语言。此外,“基于”的使用旨在是开放且包含性的,这是因为“基于”一个或多个上所叙述的条件或值的过程、步骤、计算或其它行动可实际上基于超出所叙述的条件或值的额外条件或值。本文中所包含的标题、列表和编号仅是为了便于解释,且不旨在是限制性的。
根据本主题的方面的实施例能够以数字电子电路实施、以计算机硬件、固件、软件实施,或以前述各者的组合实施。在一个实施例中,计算机可包括一个处理器或多个处理器。处理器包括计算机可读介质(例如,联接到处理器的随机存取存储器(RAM))或能够访问所述计算机可读介质。处理器执行存储器中所存储的计算机可执行程序指令,例如,执行一个或多个计算机程序,所述计算机程序包括传感器取样例程、选择例程和执行上文所描述的方法的其它例程。
这些处理器可包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和状态机。这些处理器还可包括可编程电子装置,例如,PLC、可编程中断控制器(PIC)、可编程逻辑装置(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)或其它类似装置。
这些处理器可包括可存储指令的介质(例如,有形的计算机可读介质)或可与所述介质通信,所述指令在由处理器执行时,能够使处理器执行本文中描述为由处理器执行或辅助的步骤。计算机可读介质的实施例可包括(但不限于)能够向处理器(例如,网页服务器中的处理器)提供计算机可读指令的所有电子、光学、磁性或其它存储装置。介质的其它实例包括(但不限于)软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、经配置的处理器、所有光学介质、所有磁带或其它磁性介质或计算机处理器能够读取的任何其它介质。此外,各种其它装置可包括计算机可读介质,例如,路由器、私有或公共网络或其它传输装置。所描述的处理器和处理可处于一个或多个结构中,并且可通过一个或多个结构而分散。处理器可包括用于执行本文所述的方法(或方法的部分)中的一个或多个代码。
虽然已关于本主题的具体实施例详细描述了本主题,但应了解,本领域的技术人员在理解前述内容后可容易地产生这些实施例的更改、改变和等同物。因此,应理解,已出于实例目的而非限制目的呈现了本公开,并且本公开不排除包含本领域的技术人员容易明了的对本主题的这些修改、改变和/或添加。

Claims (23)

1.一种***,包括:
传感器,所述传感器被配置成检测手势并传输与所述手势相关联的传感器信号,其中所述手势包括至少两个位置,所述至少两个位置中的第一位置包括距离表面一定距离,并且所述至少两个位置中的第二位置包括与所述表面接触;以及
处理器,所述处理器与所述传感器通信,所述处理器被配置成:
从所述传感器接收所述传感器信号;
至少部分基于所述传感器信号而确定一种或多种触觉效果,所述一种或多种触觉效果被配置成提供贯穿所述手势的基本连续的触觉反馈;
至少部分基于所述一种或多种触觉效果而产生一个或多个触觉信号;并且
传输所述一个或多个触觉信号;以及
触觉输出装置,所述触觉输出装置与所述处理器通信,所述触觉输出装置被配置成接收所述一个或多个触觉信号并输出所述一种或多种触觉效果。
2.根据权利要求1所述的***,其中所述手势包括远离所述表面的开始位置以及远离所述表面的结束位置。
3.根据权利要求1所述的***,其中所述手势介于所述至少两个位置之间,所述手势在所述第一位置中开始并在所述第二位置中结束。
4.根据权利要求3所述的***,其中所述一种或多种触觉效果包括远程触觉效果以及本地触觉效果,并且其中所述处理器被进一步配置成:
使所述触觉输出装置响应于在所述第一位置处检测到第一互动而输出所述远程触觉效果;并且
使所述触觉输出装置响应于在所述第二位置处检测到第二互动而输出所述本地触觉效果。
5.根据权利要求4所述的***,其中所述触觉输出装置包括定位在被配置成由用户穿戴的可穿戴装置中的第一触觉输出装置以及耦合到所述表面的第二触觉输出装置;并且
其中所述处理器被进一步配置成:
使所述第一触觉输出装置响应于在所述第一位置处检测到所述第一互动而输出所述远程触觉效果;并且
使所述第二触觉输出装置响应于在所述第二位置处检测到所述第二互动而输出所述本地触觉效果。
6.根据权利要求4所述的***,其中:
所述手势包括身体部分的移动;
所述远程触觉效果包括产生与所述身体部分的静电耦合或朝向所述身体部分发射固体、液体、气体、等离子体、声压波或激光束;
所述本地触觉效果包括振动、质感、摩擦系数的所感知的改变、表面变形或温度的改变;并且
所述传感器包括相机、3D成像装置、陀螺仪、全球定位***(GPS)、发光二极管(LED)、红外线传感器或超声波换能器。
7.根据权利要求1所述的***,其中所述处理器被进一步配置成:
至少部分基于所述至少两个位置中的位置而从多个可用用户接口级别确定用户接口级别;
确定与所述用户接口级别相关联的功能;并且
执行所述功能。
8.根据权利要求1所述的***,其中所述处理器被进一步配置成:
基于来自第二传感器的第二传感器信号来确定身体部分;
确定所述身体部分包括敏感身体部分;
确定所述一种或多种触觉效果中的至少一种触觉效果被配置成施加到所述敏感身体部分;并且
确定被配置成减小对所述敏感身体部分的伤害的可能性的所述至少一种触觉效果的特性。
9.一种方法,包括:
从传感器接收与手势相关联的传感器信号,其中所述手势包括至少两个位置,所述至少两个位置中的第一位置包括距离表面一定距离,并且所述至少两个位置中的第二位置包括与所述表面接触;
至少部分基于所述传感器信号而确定一种或多种触觉效果,所述一种或多种触觉效果被配置成提供贯穿所述手势的基本连续的触觉反馈;
至少部分基于所述一种或多种触觉效果而产生一个或多个触觉信号;以及
将所述一个或多个触觉信号传输到触觉输出装置,所述触觉输出装置被配置成接收所述一个或多个触觉信号并输出所述一种或多种触觉效果。
10.根据权利要求9所述的方法,其中所述手势包括远离所述表面的开始位置以及远离所述表面的结束位置。
11.根据权利要求9所述的方法,其中所述手势介于所述至少两个位置之间,所述手势在所述第一位置中开始并在所述第二位置中结束。
12.根据权利要求11所述的方法,其中所述一种或多种触觉效果包括远程触觉效果以及本地触觉效果,并且还包括:
响应于在所述第一位置处检测到第一互动而输出所述远程触觉效果;以及
响应于在所述第二位置处检测到第二互动而输出所述本地触觉效果。
13.根据权利要求12所述的方法,其中所述触觉输出装置包括定位在可穿戴装置中的第一触觉输出装置以及耦合到所述表面的第二触觉输出装置;并且
还包括:
响应于在所述第一位置处检测到所述第一互动而通过所述第一触觉输出装置输出所述远程触觉效果;以及
响应于在所述第二位置处检测到所述第二互动而通过所述第二触觉输出装置输出所述本地触觉效果。
14.根据权利要求12所述的方法,其中:
所述手势包括身体部分的移动;
所述远程触觉效果包括产生与所述身体部分的静电耦合或朝向所述身体部分发射固体、液体、气体、等离子体、声压波或激光束;
所述本地触觉效果包括振动、质感、摩擦系数的所感知的改变、表面变形或温度的改变;并且
所述传感器包括相机、3D成像装置、陀螺仪、全球定位***(GPS)或超声波换能器。
15.根据权利要求9所述的方法,还包括:
至少部分基于所述至少两个位置中的位置而从多个可用用户接口级别确定用户接口级别;
确定与所述用户接口级别相关联的功能;以及
执行所述功能。
16.根据权利要求9所述的方法,还包括:
基于来自第二传感器的第二传感器信号来确定身体部分;
确定所述身体部分包括敏感身体部分;
确定所述一种或多种触觉效果中的至少一种触觉效果被配置成施加到所述敏感身体部分;以及
确定被配置成减小对所述敏感身体部分的伤害的可能性的所述至少一种触觉效果的特性。
17.一种非暂时性计算机可读介质,包括在由处理器执行时被配置成使所述处理器进行以下动作的程序代码:
从传感器接收与手势相关联的传感器信号,其中所述手势包括至少两个位置,所述至少两个位置中的第一位置包括距离表面一定距离,并且所述至少两个位置中的第二位置包括与所述表面接触;
至少部分基于所述传感器信号而确定一种或多种触觉效果,所述一种或多种触觉效果被配置成提供贯穿所述手势的基本连续的触觉反馈;
至少部分基于所述一种或多种触觉效果而产生一个或多个触觉信号;并且
将所述一个或多个触觉信号传输到触觉输出装置,所述触觉输出装置被配置成接收所述一个或多个触觉信号并输出所述一种或多种触觉效果。
18.根据权利要求17所述的非暂时性计算机可读介质,其中所述手势包括远离所述表面的开始位置以及远离所述表面的结束位置。
19.根据权利要求17所述的非暂时性计算机可读介质,其中:
所述手势介于所述至少两个位置之间,所述手势在所述第一位置中开始并在所述第二位置中结束;并且
所述一种或多种触觉效果包括远程触觉效果以及本地触觉效果;并且
还包括在由所述处理器执行时被配置成使所述处理器进行以下动作的程序代码:
使所述触觉输出装置响应于在所述第一位置处检测到第一互动而输出所述远程触觉效果;并且
使所述触觉输出装置响应于在所述第二位置处检测到第二互动而输出所述本地触觉效果。
20.根据权利要求19所述的非暂时性计算机可读介质,其中所述触觉输出装置包括定位在可穿戴装置中的第一触觉输出装置以及耦合到所述表面的第二触觉输出装置;并且
还包括在由所述处理器执行时被配置成使所述处理器进行以下动作的程序代码:
使所述第一触觉输出装置响应于在所述第一位置处检测到所述第一互动而输出所述远程触觉效果;并且
使所述第二触觉输出装置响应于在所述第二位置处检测到所述第二互动而输出所述本地触觉效果。
21.根据权利要求19所述的非暂时性计算机可读介质,其中:
所述手势包括身体部分的移动;
所述远程触觉效果包括产生与所述身体部分的静电耦合或朝向所述身体部分发射固体、液体、气体、等离子体、声压波或激光束;
所述本地触觉效果包括振动、质感、摩擦系数的所感知的改变、表面变形或温度的改变;并且
所述传感器包括相机、3D成像装置、陀螺仪、全球定位***(GPS)或超声波换能器。
22.根据权利要求17所述的非暂时性计算机可读介质,还包括在由所述处理器执行时被配置成使所述处理器进行以下动作的程序代码:
至少部分基于所述至少两个位置中的位置而从多个可用用户接口级别确定用户接口级别;
确定与所述用户接口级别相关联的功能;并且
执行所述功能。
23.根据权利要求17所述的非暂时性计算机可读介质,还包括在由所述处理器执行时被配置成使所述处理器进行以下动作的程序代码:
基于来自第二传感器的第二传感器信号来确定身体部分;
确定所述身体部分包括敏感身体部分;
确定所述一种或多种触觉效果中的至少一种触觉效果被配置成施加到所述敏感身体部分;并且
确定被配置成减小对所述敏感身体部分的伤害的可能性的所述至少一种触觉效果的特性。
CN201611137967.XA 2015-12-11 2016-12-12 基于位置的触觉效果的***和方法 Pending CN106896910A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/966,652 2015-12-11
US14/966,652 US9990078B2 (en) 2015-12-11 2015-12-11 Systems and methods for position-based haptic effects

Publications (1)

Publication Number Publication Date
CN106896910A true CN106896910A (zh) 2017-06-27

Family

ID=57530612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611137967.XA Pending CN106896910A (zh) 2015-12-11 2016-12-12 基于位置的触觉效果的***和方法

Country Status (5)

Country Link
US (3) US9990078B2 (zh)
EP (1) EP3179340A1 (zh)
JP (2) JP7182851B2 (zh)
KR (1) KR20170069936A (zh)
CN (1) CN106896910A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107309874A (zh) * 2017-06-28 2017-11-03 歌尔科技有限公司 一种机器人控制方法、装置和机器人
US10185441B2 (en) 2015-12-11 2019-01-22 Immersion Corporation Systems and methods for position-based haptic effects
CN109960070A (zh) * 2017-12-08 2019-07-02 三星显示有限公司 显示装置
CN113703607A (zh) * 2021-08-25 2021-11-26 北京京东方技术开发有限公司 一种交互显示装置

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
KR102328589B1 (ko) 2015-04-30 2021-11-17 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
CN114564143A (zh) * 2015-10-14 2022-05-31 麦克赛尔株式会社 终端装置
KR101807655B1 (ko) * 2015-12-01 2017-12-11 주식회사 퓨처플레이 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
US9886829B2 (en) * 2016-06-20 2018-02-06 Immersion Corporation Systems and methods for closed-loop control for haptic feedback
US10169918B2 (en) * 2016-06-24 2019-01-01 Microsoft Technology Licensing, Llc Relational rendering of holographic objects
EP3502841B1 (en) * 2016-08-18 2023-07-26 Sony Group Corporation Information processing device, information processing system and information processing method
JP2018045349A (ja) * 2016-09-13 2018-03-22 カシオ計算機株式会社 処理装置、処理方法及びプログラム
US10373452B2 (en) * 2016-11-29 2019-08-06 Immersion Corporation Targeted haptic projection
FR3059945B1 (fr) * 2016-12-14 2019-10-04 Faurecia Interieur Industrie Dispositif de commande en particulier pour vehicule
JP7000683B2 (ja) * 2017-01-20 2022-01-19 富士フイルムビジネスイノベーション株式会社 情報処理システム及びプログラム
US10559283B2 (en) * 2017-03-20 2020-02-11 Paypal, Inc. Automated user device damage remediation
US11126265B2 (en) * 2017-06-14 2021-09-21 Ford Global Technologies, Llc Wearable haptic feedback
US10712931B2 (en) * 2017-08-29 2020-07-14 Apple Inc. Systems for modifying finger sensations during finger press input events
US10926780B2 (en) 2017-09-06 2021-02-23 Damon Motors Inc. Haptically enabled motorcycle
US10474236B1 (en) 2017-09-13 2019-11-12 Facebook Technologies, Llc Haptic device for variable bending resistance
US11189166B2 (en) 2017-11-02 2021-11-30 Damon Motors Inc. Anticipatory motorcycle safety system
US10678333B2 (en) * 2017-11-14 2020-06-09 Verizon Patent And Licensing Inc. Methods and systems for presenting haptically perceptible virtual objects
KR102462204B1 (ko) 2017-11-21 2022-11-02 삼성전자주식회사 진동을 제공하기 위한 장치 및 방법
EP3502835A1 (en) * 2017-12-20 2019-06-26 Nokia Technologies Oy Gesture control of a data processing apparatus
US20190324549A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Systems, devices, and methods for providing immersive reality interface modes
US20200192480A1 (en) * 2018-12-18 2020-06-18 Immersion Corporation Systems and methods for providing haptic effects based on a user's motion or environment
US11068688B2 (en) * 2019-01-04 2021-07-20 Pierre T. Gandolfo Multi-function ultrasonic sensor controller with fingerprint sensing, haptic feedback, movement recognition, 3D positioning and remote power transfer capabilities
KR20210153695A (ko) 2019-07-26 2021-12-17 구글 엘엘씨 Imu 및 레이더를 통한 인증 관리
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
WO2021016751A1 (zh) * 2019-07-26 2021-02-04 深圳市大疆创新科技有限公司 一种点云特征点提取方法、点云传感***及可移动平台
KR20210151957A (ko) 2019-08-30 2021-12-14 구글 엘엘씨 모바일 디바이스에 대한 입력 방법
CN113892072A (zh) 2019-08-30 2022-01-04 谷歌有限责任公司 用于暂停的雷达姿势的视觉指示器
DE102019216411B4 (de) * 2019-10-24 2022-09-29 Volkswagen Aktiengesellschaft Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts und Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe
WO2021207330A2 (en) * 2020-04-08 2021-10-14 Tactual Labs Co. Non-uniform electrode spacing with a bend sensor
JP2021192178A (ja) * 2020-06-05 2021-12-16 ソニーグループ株式会社 デバイス、制御方法及びプログラム
CN114429811A (zh) * 2020-10-29 2022-05-03 京东方科技集团股份有限公司 挂号***
US11681399B2 (en) * 2021-06-30 2023-06-20 UltraSense Systems, Inc. User-input systems and methods of detecting a user input at a cover member of a user-input system
US11681373B1 (en) 2021-12-08 2023-06-20 International Business Machines Corporation Finger movement management with haptic feedback in touch-enabled devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008042745A2 (en) * 2006-10-04 2008-04-10 Immersion Corporation Haptic effects with proximity sensing
CN101673179A (zh) * 2008-09-10 2010-03-17 Lg电子株式会社 移动终端和使用该移动终端的对象显示方法
CN101910978A (zh) * 2007-12-31 2010-12-08 苹果公司 电子设备中的触觉反馈
CN104011633A (zh) * 2011-10-26 2014-08-27 诺基亚公司 具有触觉反馈的触摸屏
CN104914987A (zh) * 2013-12-30 2015-09-16 意美森公司 用于触觉启用的投影用户界面的***和方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103513764B (zh) 2007-09-18 2017-04-26 森赛格公司 用于感觉刺激的方法和设备
US8933892B2 (en) * 2007-11-19 2015-01-13 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
KR101498622B1 (ko) 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
KR20120028553A (ko) * 2010-09-15 2012-03-23 삼성전자주식회사 다기능 터치 패널과, 이를 포함하는 휴대 단말기 및 그의 운용 방법
JP5728866B2 (ja) * 2010-09-24 2015-06-03 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same
US9448713B2 (en) 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
EP2769270B1 (en) 2011-10-20 2018-09-19 Koninklijke Philips N.V. Holographic user interfaces for medical procedures
US9207852B1 (en) * 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
CA2859045A1 (en) * 2011-12-29 2013-07-04 Mighty Cast, Inc. Interactive base and token capable of communicating with computing device
JP5957893B2 (ja) * 2012-01-13 2016-07-27 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
JP2013186737A (ja) * 2012-03-08 2013-09-19 Stanley Electric Co Ltd タッチパネル式操作装置
US9201585B1 (en) * 2012-09-17 2015-12-01 Amazon Technologies, Inc. User interface navigation gestures
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
KR102091077B1 (ko) * 2012-12-14 2020-04-14 삼성전자주식회사 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법
JP2014209336A (ja) * 2013-03-28 2014-11-06 株式会社Nttドコモ 情報処理装置および入力支援方法
JP2014222488A (ja) 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
KR20160019468A (ko) 2013-06-11 2016-02-19 임머숀 코퍼레이션 압력 기반 햅틱 효과들을 위한 시스템들 및 방법들
US20160004322A1 (en) * 2013-07-05 2016-01-07 Clarion Co., Ltd. Information Processing Device
JP6117075B2 (ja) * 2013-10-10 2017-04-19 株式会社東海理化電機製作所 触覚呈示装置
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
CN106104426B (zh) 2014-03-21 2020-04-03 意美森公司 用于基于力的对象操纵和触觉检测的***、方法和计算机可读介质
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US10031582B2 (en) 2014-06-05 2018-07-24 Immersion Corporation Systems and methods for induced electrostatic haptic effects
KR102328100B1 (ko) * 2014-11-20 2021-11-17 삼성전자주식회사 복수의 입출력 장치를 제어하는 방법 및 장치
US9600076B2 (en) 2014-12-19 2017-03-21 Immersion Corporation Systems and methods for object manipulation with haptic feedback
US9658693B2 (en) 2014-12-19 2017-05-23 Immersion Corporation Systems and methods for haptically-enabled interactions with objects
US20160342208A1 (en) 2015-05-20 2016-11-24 Immersion Corporation Haptic effects based on predicted contact
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008042745A2 (en) * 2006-10-04 2008-04-10 Immersion Corporation Haptic effects with proximity sensing
CN101910978A (zh) * 2007-12-31 2010-12-08 苹果公司 电子设备中的触觉反馈
CN101673179A (zh) * 2008-09-10 2010-03-17 Lg电子株式会社 移动终端和使用该移动终端的对象显示方法
CN104011633A (zh) * 2011-10-26 2014-08-27 诺基亚公司 具有触觉反馈的触摸屏
CN104914987A (zh) * 2013-12-30 2015-09-16 意美森公司 用于触觉启用的投影用户界面的***和方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185441B2 (en) 2015-12-11 2019-01-22 Immersion Corporation Systems and methods for position-based haptic effects
US10551964B2 (en) 2015-12-11 2020-02-04 Immersion Corporation Systems and methods for manipulating a graphical user interface through gestures in real space and providing associated haptic effects
CN107309874A (zh) * 2017-06-28 2017-11-03 歌尔科技有限公司 一种机器人控制方法、装置和机器人
CN109960070A (zh) * 2017-12-08 2019-07-02 三星显示有限公司 显示装置
US11921946B2 (en) 2017-12-08 2024-03-05 Samsung Display Co., Ltd. Display device including a piezoelectric sensor layer
CN113703607A (zh) * 2021-08-25 2021-11-26 北京京东方技术开发有限公司 一种交互显示装置

Also Published As

Publication number Publication date
US20190179477A1 (en) 2019-06-13
EP3179340A1 (en) 2017-06-14
US20170168630A1 (en) 2017-06-15
US10551964B2 (en) 2020-02-04
US9990078B2 (en) 2018-06-05
KR20170069936A (ko) 2017-06-21
JP7182851B2 (ja) 2022-12-05
US20180321787A1 (en) 2018-11-08
JP2017107567A (ja) 2017-06-15
JP2022003535A (ja) 2022-01-11
US10185441B2 (en) 2019-01-22

Similar Documents

Publication Publication Date Title
CN106896910A (zh) 基于位置的触觉效果的***和方法
US10444829B2 (en) Systems and methods for viewport-based augmented reality haptic effects
CN104122996B (zh) 用于支持触觉的紧贴式和多面显示器的***和方法
JP6431126B2 (ja) モバイルデバイス上での共有されたフィードバックのための双方向性モデル
CN107735749A (zh) 基于压力的触觉
CN108334190A (zh) 使用视场的触觉反馈
CN105388995A (zh) 启用触觉的可变形表面的形状输入和输出的***和方法
CN105556423A (zh) 用于基于压力的触觉效果的***和方法
CN109164907A (zh) 用于支持触觉的可变形表面的***和方法
CN108434726A (zh) 自动局部触觉生成***
CN110187754A (zh) 用于利用智能贴纸触觉化虚拟物体的***和方法
CN110045813A (zh) 用于二维跟踪和三维跟踪的触觉激活***设备
EP3367216A1 (en) Systems and methods for virtual affective touch

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170627

WD01 Invention patent application deemed withdrawn after publication