CN105630156A - 用于基于变形的触觉效果的***和方法 - Google Patents

用于基于变形的触觉效果的***和方法 Download PDF

Info

Publication number
CN105630156A
CN105630156A CN201510830385.9A CN201510830385A CN105630156A CN 105630156 A CN105630156 A CN 105630156A CN 201510830385 A CN201510830385 A CN 201510830385A CN 105630156 A CN105630156 A CN 105630156A
Authority
CN
China
Prior art keywords
computing equipment
haptic effect
user
sensor signal
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510830385.9A
Other languages
English (en)
Inventor
文森特·莱韦斯克
丹尼·格雷特
君·曼扭尔·克鲁斯-赫南德斯
阿利·莫达雷斯
威廉·里赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN105630156A publication Critical patent/CN105630156A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了用于基于变形的触觉效果的***和方法。此处公开了一种说明性***,包括被配置为检测可变形表面的变形并发送与该变形相关联的第一传感器信号的变形传感器。该***还包括被配置为检测与用户输入设备的用户交互并发送与该用户交互相关联的第二传感器信号的传感器。该***进一步包含传感器,该传感器被配置为:接收第一传感器信号;接收第二传感器信号;至少部分地基于第一传感器信号和第二传感器信号执行功能。该处理器还被配置为:至少部分地基于第一传感器信号或第二传感器信号确定触觉效果;并且向配置为接收该触觉信号并输出触觉效果的触觉输出设备传送与该触觉效果相关联的触觉信号。

Description

用于基于变形的触觉效果的***和方法
技术领域
本发明涉及用户界面设备领域。更具体地,本发明涉及基于变形的触觉效果。
背景技术
随着基于计算机的***变得越来越普遍,人类通过其与这些***交互的界面的质量变得越来越重要。一种由于其直观和交互性质而变得越来越流行的接口是触摸屏显示器。通过触摸屏显示器,用户可以通过用用户的手指接触触摸屏的区域来执行各种任务。为了产生更直观和增强的用户体验,设计者通常利用具有物理交互的用户体验。这通常是通过视觉、音频和/或触觉反馈(例如,机械振动)来再现与物理世界的交互的一些方面来实现的。
最近,已经开发了可变形的计算设备已被开发出来。这些可变形的设备可以被弯曲、挤压、折曲、扭曲、折叠和/或卷曲。对于这些可变形的计算设备,需要额外接口。
发明内容
本公开的实施例包括基于变形的触觉效果。在一个实施例中,本公开的***可以包括:变形传感器,该变形传感器被配置为检测可变形表面的变形,并且传送与变形相关联的第一传感器信号。***还可以包括传感器,该传感器被配置为检测与用户输入设备的用户交互,并且传送与用户交互相关联的第二传感器信号。该***可以进一步包括与可变形表面和用户输入设备通信的处理器,该处理器被配置为:接收第一传感器信号;接收第二传感器信号;以及至少部分地基于第一传感器信号和第二传感器信号来执行功能。处理器可以进一步被配置为:至少部分地基于第一传感器信号或第二传感器信号来确定触觉效果,并且传送与触觉效果相关联的触觉信号。该***还可以包括与处理器通信的触觉输出设备,该触觉输出设备被配置为接收触觉信号并且输出触觉效果。
在另一实施例中,本公开的方法可以包括:接收与可变形表面的变形相关联的第一传感器信号;以及接收与同用户输入设备的用户交互相关联的第二传感器信号。该方法还可以包括至少部分地基于第一传感器信号和第二传感器信号来执行功能。方法可以进一步包括:至少部分地基于第一传感器信号或第二传感器信号来确定触觉效果,并且向触觉输出设备传送与触觉效果相关联的触觉信号。触觉输出设备可以被配置为接收触觉信号并且输出触觉效果。又一实施例包括用于实现这样的方法的计算机可读介质。
提出这些说明性实施例并不是为了限制本主题或限定本主题的限制,而是为了提供用于辅助对本主题的理解的示例。在具体实施方式中讨论了其他实施例,并且提供了额外的描述。各种实施例提供的优点可以进一步通过考察本说明书和/或通过实践要求保护的主题的一个或多个实施例来理解。
附图说明
在说明书的余下部分,更具体地阐述了完整和所支持的公开。说明书参考以下附图。
图1是示出根据一个实施例的用于基于变形的触觉效果的***的框图;
图2是示出根据另一实施例的用于基于变形的触觉效果的***的框图;
图3示出了用于基于变形的触觉效果的***的实施例;
图4示出了用于基于变形的触觉效果的***的另一实施例;
图5示出了用于基于变形的触觉效果的***的又一实施例;
图6示出了用于基于变形的触觉效果的***的再一实施例;以及
图7是用于执行根据一个实施例的用于提供基于变形的触觉效果的方法的步骤的流程图。
具体实施方式
现在将对各种和替代说明性实施例及附图进行详细参考。每个示例通过解释的方式而不是限制的方式来提供。对于本领域技术人员显而易见的是,可以进行各种修改和变化。例如,作为一个实施例的一部分图示或描述的特征可以在另一实施例中使用,以得到另一实施例。因此,期望本公开包括落在所附权利要求及其等同物的范围内的修改和变化。
基于变形的触觉效果的说明性示例
本公开的一个说明性实施例包括具有存储器的计算设备、触摸屏显示器以及与这些组件通信的处理器。计算设备可以是例如移动电话、平板电脑、膝上型计算机、袖珍助手、游戏控制器、遥控器或便携式音乐播放器。
在说明性实施例中,计算设备和/或触摸屏显示器是可变形的(例如,可折曲的、可折叠的、可弯曲的、可扭曲的、可拉伸的、可压缩的、或者可卷曲的)。计算设备被配置为检测变形并且向处理器传送与变形相关联的第一传感器信号。在说明性实施例中,计算设备还被配置为检测与触摸屏显示器的用户交互,并且向处理器传送第二传感器信号。用户交互可以包括例如沿着触摸屏显示器或在其上轻击的手势(例如,滑动或用两指捏)。
在说明性实施例中,计算设备被配置为至少部分地基于用户交互和变形来确定要执行的功能。如本文使用的功能包括与在计算设备上执行的应用相关联的任务。在一些实施例中,功能可以包括操作虚拟对象(如,虚拟按钮、滑块、图像或小部件)、选择程序选项或设置、改变程序或设置的参数、改变输入状态、输入数据、输出数据、记录声音、输出声音、执行计算、发送数据或接收数据。然后,计算设备可以执行功能。
例如,在说明性实施例中,计算设备正在执行聊天应用。计算设备可以在触摸屏显示器上输出虚拟键盘,因此用户可以输入聊天信息。虚拟键盘的键可以默认是小写字母。用户可能能够弯曲计算设备以便在小写字母、大写字母和特殊字符(例如,叹号或符号)之间切换虚拟键盘的键。例如,用户可以以超过阈值的量(例如,10度)来向下弯曲计算设备(例如,从不弯曲的配置开始),以将小写字母改变为特殊字符。用户可以以超过另一阈值的量(例如,15度)向上弯曲计算设备(例如,从不弯曲的配置开始)以将小写字母改变为大写字母。在说明性实施例中,计算设备被配置为检测弯曲的量和方向,并且相应地改变虚拟键盘字母。例如,用户可以向上弯曲计算设备,并且在虚拟键盘上轻击大写字母“A”。计算设备可以检测该轻击并且执行功能,例如,将大写字母“A”***文本消息中。
在说明性实施例中,计算设备进一步包括用于向用户提供触觉效果(例如,振动)的触觉输出设备。在说明性实施例中,计算设备被配置为基于变形来确定触觉效果。例如,如果用户向下弯曲10度(例如,以将键盘的键改变为特殊字符),则计算设备可以确定包括低强度振动的触觉效果。作为另一示例,如果用户将设备向上弯曲15度(例如,将键盘的键改变为大写字母),则计算设备可以确定包括高强度振动的触觉效果。作为另一示例,计算设备可以输出触觉效果以表示键盘的键的改变,而不考虑键盘的键的内容(例如,不考虑键盘的键是大写字母、小写字母还是特殊字符)。这可以允许用户在不必查看触摸屏显示器的情况下在输入模式之间进行区分,或确定输入模式已经改变。
在说明性实施例中,计算设备还被配置为输出与用户交互和/或功能相关联的触觉效果。例如,在用户在虚拟键盘上轻击大写字母“A”时,计算设备可以输出包括点击感觉的触觉效果。这可以向用户确认计算设备已经接收到用户的输入,而用户不必查看触摸屏显示器。作为另一示例,在用户将手指放置在虚拟键盘上的字母上时,计算设备可以输出配置为模拟塑料按钮的质地。这可以允许用户确定键盘的键的位置,而不必查看触摸屏显示器。在一些实施例中,在用户将手指放置在虚拟键盘上的字母上时,如果字母包括大写字母、小写字母、特殊字符或元音,则计算设备可以输出不同的触觉效果。这可以允许用户确定字母的特征,而不必查看触摸屏显示器。
尽管此处使用了术语“向上”和“向下”,这些术语并不意味着对于本主题的限制。术语“向上”和“向下”用于指示在第一方向和第二方向上对对象的操作,其中,第二方向可能是或可能不是与第一方向相反的方向。例如,“向上”和“向下”弯曲对象还可能分别被表征为向内和向外弯曲对象。
以上说明性实施例的描述仅作为示例被提供。此处描述了本发明的各种其它实施例,并且本领域技术人员可以理解这样的实施例的变体。由各种实施例提供的优点可以进一步通过考察本说明书和/或通过实践要求保护的主题的一个或多个实例来理解。
基于变形的触觉效果的说明性***
图1是示出根据一个实施例的用于基于变形的触觉效果的计算设备101的框图。计算设备101可以包括,例如,移动电话、平板电脑、电子阅读器、膝上型计算机、便携式游戏设备、医疗设备、立体声装置、遥控器或游戏控制器。在其它实施例中,计算设备101可以包括多功能控制器,例如,用于在信息亭(kiosk)、汽车、报警***、恒温器或其它类型的电子设备中使用的控制器。尽管计算设备101在图1中被示出为单个设备,但是在其它实施例中,计算设备101可以包括多个设备,例如,如图2所示。
计算设备101是可折曲的、可折叠的、可弯曲的、可扭曲的、可压缩的、可拉伸的、可卷曲的和/或可以其它方式变形的。例如,在一些实施例中,计算设备101可以包括由一个或多个铰链耦合的两个或更多个刚性组件。计算设备101可以通过关于一个或多个铰链枢转两个或更多个刚性组件而变形(例如,折叠)。在其它实施例中,计算设备101可以包括一个或多个缓冲器136。缓冲器136可以被耦合到计算设备101的侧面。例如,缓冲器136可以分别被耦合到计算设备101的顶部、底部、左侧和右侧。在如图1所示的实施例中,单个缓冲器136位于计算设备101整个周界周围。缓冲器136可以是可移动的、可压缩的、可拉伸的或者可以其它形式变形的。用户可以与缓冲器136交互,以向计算设备101提供输入。
计算设备101包括经由总线106与其它硬件对接的处理器102。存储器104可以具体化配置计算设备101的操作的程序组件,存储器104可以包括任何适当的有形(并且非易失性的)计算机可读介质,诸如RAM、ROM、EEPROM等。在一些实施例中,计算设备101可以进一步包括一个或多个网络接口设备110、输入/输出(I/O)接口组件112和附加存储114。
网络接口设备110可以代表促进网络连接的任何组件中的一个或多个。示例包括但不限于,诸如以太网、USB、IEEE1394的有线接口、和/或诸如IEEE802.11、蓝牙的无线接口、或用于访问蜂窝电话网络的无线电接口(例如,用于访问CDMA、GSM、UMTS或其它移动通信网络的收发机/天线)。
I/O组件112可以用于促进与设备的连接,诸如一个或多个显示器、键盘、鼠标、扬声器、麦克风、按钮、操纵杆和/或用于输入数据和输出数据的其它硬件。附加存储114代表非易失性存储,诸如只读存储器、闪存、铁电RAM(F-RAM)、磁性、光学或包括在计算设备101中或耦合到处理器102的其它存储介质。
计算设备101包括触敏表面116。在图1所示的实施例中,触敏表面116被集成到计算机设备101中。在其它实施例中,计算设备101可以不包括触敏表面116。触敏表面116代表被配置为感测用户的触觉输入的任何表面。在一些实施例中,触敏表面116可以是可卷曲的、可弯曲的、可折叠的、可拉伸的、可扭曲的、可压缩的或者可以其它形式变形的。例如,触敏表面116可以包括可弯曲电子纸。
一个或多个触摸传感器108被配置为当对象接触触敏表面116时检测触摸区域中的触摸,并且提供用于由处理器102使用的适当数据。可以使用传感器的任何适当数目、类型或布置。例如,电阻式和/或电容式传感器可以被嵌入在触敏表面116中,并且用于确定触摸的位置和其它信息,诸如压力、速度和/或方向。作为另一示例,针对触敏表面116的光学传感器可以用于确定触摸位置。
在其它实施例中,触摸传感器108可以包括LED(发光二极管)检测器。例如,在一些实施例中,触敏表面116可以包括安装在显示器侧面的LED手指检测器。在一些实施例中,处理器102与单个触摸传感器108通信。在其它实施例中,处理器102与多个触摸传感器108通信,例如,与第一触摸屏和第二触摸屏相关联的触摸传感器。触摸传感器108被配置为检测用户交互,并且基于用户交互向处理器102传送信号。在一些实施例中,触摸传感器108可以被配置为检测用户交互的多个方面。例如,触摸传感器108可以检测用户交互的速度和压力,并且将该信息合包括在信号中。
在一些实施例中,计算设备101可以包括支持触摸的显示器,该支持触摸的显示器组合触敏表面116和显示器。触敏表面116可以对应于显示器外部或者显示器组件上方的一个或多个层。在其它实施例中,根据计算设备101的具体配置,触敏表面116可以不包括(或者以其它方式对应于)显示器。
计算设备101还包括变形传感器134。变形传感器134被配置为检测表面的变形(例如,弯曲、折曲、拉伸、折叠、扭曲或卷曲)。例如,变形传感器134可以被配置为检测计算设备101、缓冲器136和/或触敏表面116中的变形。在一些实施例中,变形传感器134可以包括压力传感器、应变仪、力传感器、距离传感器、深度传感器、3D成像***(例如,通常以商标Microsoft出售的3D成像***)、和/或基于LED的跟踪***(例如,在计算设备101外部)。在其它实施例中,变形传感器134可以包括智能凝胶、流体和/或压电器件。智能凝胶、流体和/或压电器件可以基于变形来生成电压。例如,智能凝胶层可以耦合到表面。智能凝胶可以生成与表面中的变形(例如,弯曲)量相关联的电压量。
变形传感器134被配置为向处理器102传送传感器信号(例如,电压)。尽管如图1所示的实施例描绘了在计算设备101内部的变形传感器134,但是在一些实施例中,变形传感器134可以位于计算设备101外部(例如,如图2中所示)。例如,在一些实施例中,一个或多个变形传感器134可以与游戏控制器相关联,以用于与包括游戏***的计算设备101一起使用。
计算设备101还包括一个或多个附加传感器130。传感器130被配置为向处理器102传送传感器信号。在一些实施例中,传感器130可以包括,例如,相机、湿度传感器、环境光传感器、陀螺仪、GPS单元、加速度计、距离传感器或深度传感器、生物节律传感器或温度传感器。尽管如图1所示的实施例描绘了计算设备101内部的传感器130,但是在一些实施例中,传感器130可以位于计算设备101外部。例如,在一些实施例中,一个或多个传感器130可以与游戏控制器相关联,以用于与包括游戏***的计算设备101一起使用。在一些实施例中,处理器102可以与单个传感器130通信,并且在其它实施例中,处理器102可以与多个传感器130通信,例如,与温度传感器和湿度传感器通信。在一些实施例中,传感器130可以远离计算设备101,但是通信地耦合到处理器102,例如,如图2中所示。
计算设备101进一步包括与处理器102通信的触觉输出设备118。触觉输出设备118被配置为响应于触觉信号来输出触觉效果。在一些实施例中,触觉输出设备118被配置为输出触觉效果,该触觉效果包括,例如,振动、感觉到的摩擦系数的改变、模拟的质地、温度的改变、抚摸的感觉、电触觉效果或表面变形(即,与计算设备101相关联的表面的变形)。尽管此处示出了单个触觉输出设备118,但是一些实施例可以包括相同或不同类型的多个触觉输出设备118,其可以按顺序地或者同时地被促动以产生触觉效果。
在图1所示的实施例中,触觉输出设备118在计算设备101内部。在其它实施例中,触觉输出设备118可以远离计算设备101,但是通信地耦合到处理器102,例如,如图2中所示。例如,触觉输出设备118可以在计算设备101外部,并且经由诸如以太网、USB、IEEE1394的有线接口和/或诸如IEEE802.11、蓝牙或无线电接口的无线接口与计算设备101进行通信。
在一些实施例中,触觉输出设备118可以被配置为输出包括振动的触觉效果。在一些这样的实施例中,触觉输出设备118可以包括压电致动器、电动马达、电磁致动器、音圈、形状记忆合金、电致动聚合物、电磁线圈、偏心旋转质量电机(ERM)或线性谐振致动器(LRA)中的一个或多个。
在一些实施例中,触觉输出设备118可以被配置为响应于触觉信号来输出沿计算设备101的表面调制感觉到的摩擦系数的触觉效果。在一些这样的实施例中,触觉输出设备118可以包括超声致动器。超声致动器可以包括压电材料。超声致动器可以以例如20kHz的超声频率振动,增加或减少在触敏表面116的表面处感觉到的系数。
在一些实施例中,触觉输出设备118可以使用静电吸引,例如通过使用静电致动器,来输出触觉效果。触觉效果可以包括模拟的质地、模拟的振动、抚摸的感觉或者在与计算设备101相关联的表面上(例如,触敏表面116)感受到的摩擦系数改变。在一些实施例中,静电致动器可以包括导电层和绝缘层。导电层可以是任何半导体或其它导电材料,诸如铜、铝、金或银。绝缘层可以是玻璃、塑料、聚合物或任何其它绝缘材料。此外,处理器102可以通过向导电层施加电信号(例如,AC信号)来操作静电致动器。在一些实施例中,高压放大器可以生成AC信号。电信号可以生成在导电层和与触觉输出设备118接触或在其附近的对象(例如,用户的手指或触针)之间的电容耦合。在一些实施例中,改变在对象和导电层之间的吸引力的水平可以改变用户感觉到的触觉效果。
在一些实施例中,触觉输出设备118可以包括配置为输出变形触觉效果的变形设备。在一些这样的实施例中,触觉变形效果可以被配置为提升或降低与计算设备(例如,触敏表面116)相关联的表面的一部分。在其它实施例中,触觉变形效果可以包括弯曲、折叠、卷曲、扭曲、挤压、折曲、改变其形状、或以其它方式使计算设备101或与计算设备101相关联的表面(例如,触敏表面116)变形。例如,变形触觉效果101可以在计算设备101上(或与计算设备相关联的表面上)施加力,使其被弯曲、折叠、卷曲、扭曲、挤压、折曲、改变形状或者以其它形式变形。此外,在一些实施例中,变形触觉效果可以包括防止或抵抗计算设备101或与计算设备101相关联的表面被弯曲、折叠、卷曲、扭曲、挤压、折曲、改变形状或者以其它形式变形。
在一些实施例中,触觉输出设备118可以包括被配置用于输出触觉效果的流体(例如,配置为使与计算设备101相关联的表面变形或对用户输出设备施加力)。例如,在一些实施例中,流体可以包括智能凝胶。智能凝胶可以包括机械或结构属性,其响应于激励或刺激(例如,电场、磁场、温度、紫外光、震动或pH值变化)而改变。例如,响应于激励,智能凝胶可以在刚度、体积、透明度和/或颜色上发生变化。在一些实施例中,刚度可以在使与计算设备101相关联的表面变形或者与用户输入设备进行交互中抵抗或辅助用户。例如,智能凝胶层可以位于操纵杆的轴周围或按钮内部。响应于激励,智能凝胶可以***,其可以防止用户操作操纵杆或按下按钮。在一些实施例中,一个或多个导线可以被嵌入或耦合到智能凝胶。当电流流经导线时,释放出热量,使得智能凝胶膨胀、收缩或改变刚度。这可以使与计算设备101相关联的表面变形,或者对用户输出设备施加力。
作为另一示例,在一些实施例中,流体可以包括流变性(例如,磁流变或电流变的)流体。流变流体可以包括悬浮在流体(例如,油或水)中的金属微粒(例如,铁微粒)。响应于电场或磁场,流体中的分子的次序可以重组,改变流体的整体阻尼和/或粘度。这可以使得与计算设备101相关联的表面变形,或者使得力被施加到用户输出设备。
在一些实施例中,触觉输出设备118可以包括机械变形设备。例如,触觉输出设备118可以包括与旋转变形组件的臂耦合的致动器。变形组件可以包括,例如,椭圆状、星光状或波状的形状。变形组件可以被配置为以一定旋转角度而不是其它角度移动与计算设备101相关联的表面。在一些实施例中,致动器可以包括压电致动器、旋转/线性致动器、电磁线圈、电活性聚合物致动器、宏纤维复合材料(MFC)致动器、形状记忆合金(SMA)致动器和/或其它致动器。当致动器旋转变形组件时,变形组件可以移动表面,使其变形。在一些这样的实施例中,变形组件可以在表面是平的位置中开始。响应于从处理器102接收信号,致动器可以旋转变形组件。旋转变形组件可以使得表面的一个或多个部分升高或降低。在一些实施例中,变形组件可以保持处于该旋转的状态中,直到处理器102用信号通知致动器使变形组件旋转回其原始位置。
其它技术或方法可以用于使与计算设备101相关联的表面变形。例如,触觉输出设备118可以包括柔性表面层,被配置为基于与表面可重构触觉衬底的接触来使其表面变形或改变其质地(例如,纤维、纳米管、电活性聚合物、压电元件或者形状记忆合金)。在一些实施例中,触觉输出设备118可以例如通过变形机制(例如,耦合到导线的电机)、空气或流体袋、材料的本地变形、谐振机械元件、压电材料、微机电***(“MEMS”)元件或泵、热流体袋、可变多孔膜或者层流调制而变形。
在一些实施例中,触觉输出设备118可以是计算设备101的外壳的一部分(或耦合到外壳)。在其它实施例中,触觉输出设备118可以被布置在覆盖与计算设备101相关联的表面的柔性层内(例如,在计算设备101前后)。例如,触觉输出设备118可以包括通过铰链位于计算设备101中的智能凝胶或流变流体层(例如,铰链被配置为允许计算设备101折叠或弯曲之处)。在(例如,通过电流或电场)促动触觉输出设备118时,智能凝胶或流变流体可以改变其特性。这可能使得计算设备101折叠、弯曲或折曲,或者防止(例如,抵抗)计算设备101折叠、弯曲或折曲。
计算设备101还包括存储器104。存储器104包括程序组件124、126和128,其被描述为示出设备在一些实施例中可以如何被配置以提供基于变形的触觉效果。检测模块124配置处理器102以监视变形传感器134来检测与计算设备101相关联的表面中的变形。例如,检测模块124可以对变形传感器134进行采样,以跟踪在表面中是否存在弯曲,并且如果存在弯曲,则跟踪随着时间的弯曲的量、速度、加速度、压力和/或其它特性中的一个或多个。
检测模块124还配置处理器102以经由触摸传感器108来监视触敏表面116,来确定触摸的位置。例如,检测模块124可以对触摸传感器108进行采样,以跟踪是否存在触摸,并且如果存在触摸,则跟踪随着时间的触摸的位置、路径、速度、加速度、压力和/或其它特性中的一个或多个。虽然在图1中将检测模块124描绘为存储器104内的程序组件,但是在一些实施例中,检测模块124可以包括配置为监视变形传感器134和/或触摸传感器108的硬件。在一些实施例中,这些硬件可以包括模拟到数字转换器、处理器、微控制器、比较器、放大器、晶体管和其它模拟或数字电路。
触觉效果确定模块126代表分析数据以确定要生成的触觉效果的程序组件。触觉效果确定模块126包括选择要输出的一个或多个触觉效果的代码。在一些实施例中,触觉效果确定模块126可以包括基于来自变形传感器134的信号确定要输出的触觉效果的代码。例如,变形(例如,以变化量弯曲计算设备101)可以被映射成与用户接口相关联的功能(例如,移动到虚拟书籍中的下一页、移动虚拟书籍中的若干页或关闭虚拟书籍)。触觉效果确定模块126可以基于该功能来选择不同的触觉效果。在其它实施例中,触觉效果确定模块126可以基于变形的特性来选择触觉效果(例如,计算设备101中的弯曲量)。
触觉效果确定模块126还可以包括基于来自触摸传感器108或另一用户接口设备(例如,按钮、开关、操纵杆、滚轮、触发器)的信号来确定要输出的触觉效果的代码。例如,在一些实施例中,一些或所有的触敏表面116的区域可以被映射到图形用户界面。触觉效果确定模块126可以基于触摸的位置来选择不同的触觉效果(例如,为了模拟触敏表面116的表面上特征的存在)。在一些实施例中,这些特性可以对应于界面上的特性的可视表示。然而,即使在界面中不显示对应的元素,也可以经由触敏表面116或显示器提供触觉效果(例如,如果界面中的边界线交叉,即使该边界线没有被显示,也可以提供触觉效果)。
在一些实施例中,触觉效果确定模块126可以包括基于用户(例如,用户的手指)对触敏表面116和/或计算设备101施加的压力量来确定要输出的触觉效果的代码。例如,在一些实施例中,触觉效果确定模块126可以基于用户对触敏表面116的表面施加的压力量来选择不同的触觉效果。在一些实施例中,用户对触敏表面116施加的压力量可能影响用户感受到的触觉效果的强度。例如,在一些实施例中,减小的压力可能导致用户感受较弱的触觉效果。触觉效果确定模块126可以检测或确定该压力的减小,并且作为响应,输出或改变触觉效果以补偿该改变。例如,触觉效果确定模块可以确定更强烈的触觉效果来补偿减小的压力。因此,用户感受到的触觉效果可以保持与压力减小之前的相同。
在一些实施例中,触觉效果确定模块126可以至少部分地基于与虚拟对象相关联的特性(例如,虚拟尺寸、宽度、长度、颜色、质地、材料、轨迹、类型、运动、图案或位置)来选择触觉效果。例如,如果与虚拟对象相关联的质地粗糙,则触觉效果确定模块126可以确定包括一系列短的、脉冲振动的触觉效果。作为另一示例,如果与虚拟对象相关联的颜色是红色,则触觉效果确定模块126可以确定包括温度改变的触觉效果。作为又一示例,如果虚拟对象包括橡胶的质地,则触觉效果确定模块126可以确定配置为增加所感受到的摩擦系数的触觉效果。
在一些实施例中,触觉效果确定模块126可以包括至少部分地基于来自传感器130的信号来确定触觉效果的代码(例如,温度、环境光量、加速度计测量或陀螺仪测量)。例如,触觉效果确定模块126可以基于陀螺仪测量(例如,计算设备101在真实空间中的相对位置)来确定触觉效果。在一些这样的实施例中,如果计算设备101以特定角度倾斜,则计算设备101可以输出一个或多个对应的触觉效果(例如,振动)。
虽然在图1中触觉效果确定模块126被描绘为存储器104内的程序组件,但是在一些实施例中,触觉效果确定模块126可以包括配置为确定要生成的一个或多个触觉效果的硬件。在一些实施例中,这些硬件可以包括模拟到数字转换器、处理器、微控制器、比较器、放大器、晶体管和其它模拟或数字电路。
触觉效果生成模块128代表使得处理器102生成并且向触觉输出设备118发送触觉信号以生成所选择的触觉效果的编程。例如,触觉效果生成模块128可以访问所存储的波形或要发送到触觉输出设备118的命令,以创造预期的效果。在一些实施例中,触觉效果生成模块128可以包括用于确定触觉信号的算法。此外,在一些实施例中,触觉效果生成模块128可以包括针对触觉效果确定目标坐标的算法(例如,触敏表面116上输出触觉效果的位置的坐标)。
虽然在图1中触觉效果生成模块128被描绘为存储器104内的程序组件,但是在一些实施例中,触觉效果生成模块128可以包括被配置为确定要生成的一个或多个触觉效果的硬件。在一些实施例中,这样的硬件可以包括模拟到数字转换器、处理器、微控制器、比较器、放大器、晶体管和其它模拟或数字电路。
图2是示出根据另一实施例的用于基于变形的触觉效果的***的框图。***200包括计算***236。在一些实施例中,计算***236可以包括例如游戏控制台、膝上型计算机、台式计算机、机顶盒(例如,DVD播放器、DVR、有线电视盒)或另一计算***。
计算***236包括经由总线206与其它硬件通信的处理器202。计算***236还包括存储器204,存储器204包括触觉效果检测模块224、触觉效果确定模块226和触觉效果生成模块228。这些组件可以被配置为分别与图1中所示的存储器104、检测模块124、触觉效果确定模块126和触觉效果生成模块128类似地起作用。
计算***236还包括网络接口设备210、I/O组件212、附加存储214和传感器230。这些组件可以被配置为分别与图1中所示的网络接口设备110、I/O组件112、附加存储114和传感器130类似地起作用。
计算***236进一步包括显示器234。在一些实施例中,显示器234可以包括经由有线或无线连接与处理器202耦合的单独的组件,例如,远程监视器、电视或投影机。
计算***236被通信耦合到计算设备201。计算设备201是可折曲的、可折叠的、可弯曲的、可扭曲的、可压缩的、可拉伸的、可卷曲的和/或可以其它形式变形的。在一些实施例中,计算设备201可以包括例如游戏控制器、遥控器或移动设备。
计算设备201可以包括处理器(未示出)、存储器(未示出)、触觉效果检测模块224(未示出)、触觉效果确定模块226(未示出)和触觉效果生成模块228(未示出)。计算设备201还可以包括网络接口设备210。在该示例中,计算设备201包括网络接口设备210,并且经由例如IEEE802.11、蓝牙或无线电接口的无线接口(例如,用于接入CDMA、GSM、UMTS或其它移动通信网络的收发机/天线)与计算***236进行通信。
计算设备201包括I/O组件212,I/O组件212可以被配置为以与图1中所示的I/O组件112类似的方式起作用。计算设备201还包括与I/O组件212通信的用户输入设备238。用户输入设备238包括允许用户与计算设备201交互的设备。例如,用户输入设备238可以包括操纵杆、定向垫、按钮、开关、扬声器、麦克风、触敏表面和/或用于输入数据的其它硬件。
计算设备201进一步包括一个或多个传感器230、变形传感器240和触觉输出设备218。这些组件可以被配置为分别与图1中所示的传感器130、变形传感器134和触觉输出设备118类似地起作用。
图3示出了用于基于变形的触觉效果的***的实施例。***300包括具有触摸屏显示器306的计算设备302。在一些实施例中,计算设备302可以包括移动电话(例如,智能电话)、平板电脑、游戏控制器或电子阅读器。在图3中所示的实施例中,计算设备302正在执行绘画应用。
用户可以折曲、弯曲、扭曲、挤压、折叠、拉伸、卷曲或者以其它形式使计算设备302变形,以向计算设备302提供输入。尽管在图3被描绘为包括明显曲率或弯曲量,但是在一些实施例中,计算设备302可以以用户大体上无法察觉的量产生变形。例如,计算设备302可以产生小于1度的弯曲。
计算设备302被配置为检测变形。计算设备302可以确定并且执行与变形相关联的功能。在一些实施例中,计算设备302可以基于超过或低于阈值的变形量来确定功能(例如,与计算设备302相关联的超过15度的弯曲)。在其它实施例中,计算设备302可以随着计算设备302变形而不断地确定功能。例如,在图1所示的实施例中,用户使用用户的左手304来使计算设备302弯曲,例如,以改变与绘画应用相关联的参数或设置。例如,用户可以向上弯曲计算设备302以增加画笔的宽度,并且可以向下弯曲以减小画笔的宽度。计算设备302可以检测计算设备302中的弯曲量,并且相应地改变画笔的宽度。以该方式,计算设备302可以基于变形来连续改变与***或程序相关联的参数。
在一些实施例中,使计算设备302变形可能与改变绘画应用中画布的尺寸相关联。例如,用户可以向上弯曲计算设备302以增加画布的尺寸,并且可以向下弯曲以减小画布的尺寸。作为另一示例,用户可以挤压计算设备302以减小画布的尺寸并且拉伸计算设备302以增加画布的尺寸。计算设备302可以检测变形,并且基于该变形来增加或减小画布的尺寸。
计算设备302可以输出一个或多个触觉效果和/或基于变形的声音。例如,计算设备302可以基于超过或低于阈值的变形量来输出触觉效果(例如,在计算设备302弯曲待遇15度时)。在一些实施例中,触觉效果的特性(例如,振幅、持续时间、波形、类型和频率)可以基于变形的特性。例如,随着计算设备302越来越多地向上弯曲,计算设备302可以经由计算设备302的后部输出包括越来越不平整的质地的触觉效果,例如向用户的左手304输出。当计算设备302向下弯曲时,计算设备302可以输出包括越来越平整的质地的触觉效果。
在一些实施例中,计算设备302可以通信地耦合到计算设备302外部的触觉输出设备310。例如,触觉输出设备310可以被包括在可穿戴设备314中。可穿戴设备314可以包括鞋、臂章、衣袖、夹克、手套、戒指、手表、腕带、手镯、衣着类商品、帽子、头巾、珠宝和/或眼镜。在一些实施例中,计算设备302可以使得外部触觉输出设备310向用户身体上的位置(例如,头部、肩部、手臂、手部、足部、肘部或腿部)输出一个或多个触觉效果。例如,在使计算设备302向上弯曲时,计算设备302可以使得触觉输出设备310向用户的手腕输出包括具有增加的频率的触觉效果。在使计算设备302向下弯曲时,计算设备302可以使得触觉输出设备310向用户的手腕输出包括具有减小的频率的触觉效果。
用户可以感受触觉效果,并且能够确定计算设备302的状态和/或与程序(例如,绘画应用)相关联的参数。例如,用户可能能够感受到不平整的质地或用户手腕上的振动,并且确定画笔的宽度、画布的尺寸或绘图应用中的放大水平。
在一些实施例中,用户可以与触摸屏显示器306和/或与计算设备302相关联的另一输入组件(例如,按钮、操纵杆、开关、滚轮或触发器)交互。例如,用户可以沿着触摸屏显示器306的表面拖动(例如,在用户右手上的)手指308,例如,使用绘画应用来画图片。计算设备302被配置为检测用户交互,并且执行与用户交互或变形相关联的功能。例如,在用户沿触摸屏显示器306的表面拖动手指308时,计算设备302可以确定包括具有通过用户的手指的路径定义的形状的线的功能。计算设备302可以基于计算设备302中的变形来确定线的宽度。然后,计算设备302可以输出具有确定的形状和宽度的线。
在一些实施例中,计算设备302可以输出与用户交互相关联的一个或多个触觉效果(和/或声音)。例如,计算设备302可以物理地提高与在触摸屏显示器306上输出的线312的形状和宽度相对应的触摸屏显示器306的一部分。用户可能能够退出绘图模式,并且沿着触摸屏显示器306的表面移动手指308以物理地感受线312的位置、宽度和其它特性。
尽管计算设备302在上文被描述为执行绘图应用,但是在其它实施例中,计算设备302可以执行其它程序,诸如游戏。例如,计算设备302可以执行虚拟吉他游戏。用户可以向上或向下弯曲计算设备302(例如,利用用户的左手304),以相应地改变与演奏虚拟吉他相关联的强度。可能与较大的向上弯曲相关联的较高的强度可以模拟用户以较大的速度或压力演奏虚拟吉他。用户可以基本上同时沿着触摸屏显示器306做出手势(例如,利用用户右手的手指308)以例如弹奏吉他弦。计算设备302可以检测该手势,并且基于强度来输出包括具有振幅的振动的触觉效果。例如,随着强度的增加,计算设备302可以输出具有较高振幅的振动。随着强度的降低,计算设备302可以输出具有较低振幅的振动。此外,在一些实施例中,计算设备302可以输出与弹奏吉他相关联的声音。声音的音量(例如,幅度)可以基于强度。例如,随着强度的增加,计算设备302可以输出具有较高音量的声音。随着强度的降低,计算设备302可以输出具有较低音量的声音。
图4示出了基于变形的触觉效果的***的另一实施例。***400包括计算***402,在该示例中,计算***402包括游戏站。计算***402正执行视频游戏(例如,军事游戏)。计算***402可以与计算设备404有线地或无线地通信。在该示例中,计算设备404包括游戏控制器。计算设备404是可折曲的、可折叠的、可弯曲的、可扭曲的、可拉伸的、可压缩的、可卷曲的和/或可以其它形式变形的。
在一些实施例中,用户可以使计算设备404发生变形,例如,使用虚拟武器来放大或缩小敌军战士。例如,用户可以向上弯曲计算设备404,以使虚拟武器放大。用户可以向下弯曲计算设备404,以使虚拟武器缩小。计算设备404可以检测弯曲,并且使计算***402更新显示器406,例如,显示分别放大或缩小的十字准线。
在一些实施例中,计算设备404输出与变形相关联的触觉效果。例如,计算设备404可以输出随着用户放大而增加幅度的振动、以及随着用户缩小而减小幅度的振动。这可能使得对于用户来说,如果用户的虚拟武器被放大,则准确地射击敌军战士是更加具有挑战性的。这可能会促进用户之间的近距离交互(例如,而不是用户在一个位置等待较长的一段时间使得对手来到用户的可行动的范围内的狙击或“扎营”)。
用户可以与计算设备404上的一个或多个控制交互。例如,用户可以与触敏表面、按钮、开关、触发器、滚轮、定向垫、操纵杆408或计算设备404上的其它控制进行交互。计算设备404可以检测用户交互,并且以基于武器的缩放水平(可能基于计算设备404中的变形)的准确度来使用户的虚拟武器开火。在一些实施例中,计算设备404可以输出与用户交互相关联的触觉效果。例如,在用户按下按钮以使得用户的虚拟角色使虚拟武器开火,计算设备404可以输出配置为模拟射击的触觉效果。这可以向用户确认用户的虚拟武器已经开火,并且进一步增强视频游戏的现实感。
虽然在图4中所示的实施例描绘了军事游戏,但是在一些实施例中,计算***402可以执行气垫船游戏。用户可能能够使计算设备404变形以例如在视频游戏中选择与虚拟气垫船相关联的左侧火箭推进器或右侧火箭推进器。例如,用户可能能够保持计算设备404的左侧固定,而(例如,以超过阈值的量)扭曲计算设备404的右侧来选择右侧推进器。用户可能能够保持计算设备404的右侧固定,而扭曲计算设备404的左侧来选择左侧推进器。计算设备404可以检测变形,并且使得左侧或右侧推进器被选择。在一些实施例中,如果推进器已经被选择,则计算设备404可以输出确认触觉效果,例如,包括点击或重击。用户可以按下计算设备404上的触发器或按钮,以例如使所选择的推进器点火。计算设备404可以检测用户输入,并且使得所选择的推进器开火。计算设备404还可以输出触觉效果,包括例如配置为模拟火箭推进器的点火的隆隆声的感觉。
图5示出了基于变形的触觉效果的***的又一实施例。***500包括具有用户界面的计算设备502。在该实施例中,计算设备502包括智能手机或平板电脑。用户界面包括按钮506和触摸屏显示器504。
在一些实施例中,用户可以在计算设备502上玩射箭或弹弓(或高尔夫球)游戏。用户可以弯曲计算设备502,例如以拉开虚拟箭术弓上的弦或虚拟弹弓的橡皮筋(或虚拟高尔夫球杆)。在一些实施例中,在用户使计算设备502弯曲时,计算设备502可以输出配置为抵抗用户的弯曲的触觉效果(和/或声音,比如咯吱咯吱的声音)。这可以模拟当被拉开时弓弦或弹弓的橡皮筋中的张力。一旦用户已经达到与最大可能张力程度相关联的弯曲量,计算设备502就可以输出另一触觉效果。例如,计算设备502可以输出点击感觉。在一些实施例中,用户可能能够轻击触摸屏显示器504(或按钮506)以使弓或弹弓射击。射击的强度可以基于计算设备502中的弯曲量。在一些实施例中,计算设备502可以输出配置为模拟虚拟弓或弹弓射击的关联触觉效果,诸如低振幅的振动。此外或替代地,计算设备502可以输出配置为迅速伸直计算设备502的触觉效果,使计算设备502返回到其静息状态(即,无变形状态)。这可以模拟弓弦或弹弓的橡皮筋中张力的释放。
在一些实施例中,计算设备502可以基于计算设备502的变形来执行(例如,与虚拟对象相关联的)多个功能。在一些这样的实施例中,每个功能可以与计算设备502的不同变形相关联。例如,用户可以在视频游戏中通过在触摸屏显示器504上轻击武器来选择虚拟武器,并且使计算设备502弯曲以执行与武器相关联的不同功能。例如,计算设备502可以检测高于第一阈值的弯曲,并且例如装备虚拟武器。计算设备502还可以输出被配置为例如模拟***被装载到武器的关联的触觉效果。计算设备502可以检测高于第二阈值的弯曲,并且例如,使虚拟武器开火。计算设备502还可以输出配置为例如模拟枪射击的关联触觉效果。计算设备502可以检测在第一阈值和第二阈值之间的回落的弯曲量,并且例如弹出使用的弹壳。计算设备502还可以输出配置为例如模拟弹壳被弹出武器的关联触觉效果。此外,计算设备502可以检测低于第一阈值的弯曲量,并且例如卸下虚拟武器。计算设备502还可以输出配置为例如模拟从武器中移除空***的关联触觉效果。
在一些实施例中,计算设备502可以被配置为模拟与在触摸屏显示器504上输出的虚拟对象的物理交互。虚拟对象可以包括任何类型或数目的对象,例如,按钮、滑块、旋钮、列表或菜单。例如,如果计算设备502处于静息状态,则在与虚拟对象的用户交互时,计算设备502可以执行关联功能。例如,在用户向上滑动虚拟滑块时,计算设备502可以增加经由扬声器输出音频的音量。在一些实施例中,在用户使计算设备502变形时,计算设备502可以进入“探索模式”。探索模式可以被配置为允许用户与虚拟对象交互并且感受该虚拟对象,而不执行与虚拟对象相关联的功能。例如,计算设备502可以检测变形并且进入探索模式。然后,用户可以用手指探索触摸屏显示器504。在用户与虚拟滑块交互时,计算设备502可以输出包括橡胶质地和/或改变感受到的触摸屏显示器504的表面的摩擦系数的触觉效果。以该方式,用户可能能够感受虚拟滑块,而不需要查看触摸屏显示器504(并且不需要执行关联功能)。
在一些实施例中,在用户使计算设备502变形(例如,拉伸或弯曲),计算设备502可以进入“编辑模式”。例如,在计算设备502正处于其静息状态时,触摸屏显示器504上输出的一个或多个虚拟对象的虚拟位置可以被锁定或不可移动。计算设备502可以检测变形并且进入编辑模式。计算设备502还可以输出包括连续的、脉冲振动的触觉效果(例如,向用户警告计算设备502处于编辑模式)。编辑模式可以允许用户与触摸屏显示器504交互,以移动虚拟对象的位置。例如,用户可以用手指来将图标从第一位置拖动到第二位置。在一些实施例中,用户可以展平或停止挤压计算设备502。作为响应,计算设备502可以退出编辑模式。在一些实施例中,在退出编辑模式时,计算设备502可以停止输出脉冲振动,例如,以指示计算设备502不再处于编辑模式。
在一些实施例中,计算设备502可以基于计算设备502不同变形来模拟与虚拟对象的不同物理交互。例如,虚拟对象可以包括碳酸饮料罐(例如,苏打水或啤酒罐)。计算设备502可以被配置为检测高于第一阈值的弯曲,并且虚拟地从罐中释放碳化作用。计算设备502还可以输出与释放罐中的碳化作用相关联的触觉效果(例如,较长持续时间的低振幅振动)。计算设备502可以检测高于第二阈值的弯曲,并且虚拟地弹出罐的拉环。计算设备502还可以输出配置为模拟打开罐的拉环的触觉效果(例如,具有较短持续时间的高振幅振动)。计算设备302可以检测扭曲,并且虚拟地从罐中倾倒流体。计算设备502还可以输出配置为模拟倾倒流体的触觉效果(例如,流动感觉)。此外,在一些实施例中,用户可以经由触摸屏显示器504与虚拟罐交互。计算设备502可以基于虚拟罐的状态(碳化作用是否已经被释放、拉环是否已被打开或者饮料已经被倾倒)输出触觉效果。
在一些实施例中,虚拟对象可以包括赛车游戏中的汽车。用户可以沿着触摸屏显示器504移动手指,以将虚拟变速杆从停车位置移动到行驶位置。计算设备502可以检测手势,并且启动虚拟汽车。计算设备502还可以输出例如配置为模拟引擎启动的振动的触觉效果(例如,长的低频振动)。在一些实施例中,在用户使计算设备502弯曲时,计算设备502可以使虚拟汽车加速。计算设备502可以输出例如配置为模拟汽车加速的触觉效果。在用户展平计算设备502时,计算设备302可以施加刹车。计算设备502可以输出例如配置为模拟汽车刹车的触觉效果(例如,与刹车防抱死***相关联的振动模式)。
在一些实施例中,计算设备502可以包括多个用户界面水平。用户可以通过使计算设备502变形来在用户界面水平之间进行改变。用户可以通过与触摸屏显示器504、按钮506或另一用户界面组件进行交互来与同一个或多个用户界面水平相关联的虚拟对象进行交互。例如,计算设备502可以执行地图应用。在用户使计算设备502弯曲高于第一阈值的量时,计算设备502可以放大地图。在用户使计算设备502弯曲高于第二阈值的量,计算设备502可以输出预先隐藏的信息,诸如城市、城镇和道路名称。在用户使计算设备502弯曲高于第三阈值的量,计算设备502可以输出附加信息,诸如附近的加油站、餐馆、电影院、警察局或医院。计算设备502可以在用户界面水平之间进行切换时,输出确认触觉效果,诸如光振动。在一些实施例中,用户可以与触摸屏显示器504交互,以例如选择位置,诸如城市、城镇、道路、加油站、餐馆、电影院、警察局或医院。计算设备502可以检测选择,并且例如输出向该位置的行驶方向。计算设备502可以输出例如指示较差的行驶条件的关联触觉效果。
在一些实施例中,计算设备502可以执行照相机应用。计算设备502可以包括用于使用照相机应用捕捉场景的计算设备502背部的照相机。用户可以将照相机指向对象并且使计算设备502弯曲,以例如改变照相机的缩放或缩放水平。在缩放水平超过或者低于阈值时,计算设备502可以检测变形并输出转换触觉效果,例如包括止动或点击。例如,在缩放水平从2倍增加到4倍时,计算设备502可以输出点击。在缩放水平从4倍增加到8倍时,计算设备502可以输出另一点击。这可以允许用户在无需查看触摸屏显示器504的情况下确定缩放水平。在一些实施例中,在计算设备502仍然不平整时,用户可以与触摸屏显示器504和/或按钮506交互,例如,拍摄照片。在其它实施例中,计算设备502可以保存缩放或聚焦水平。用户可以展平计算设备502,并且当计算设备502不再变形时,与触摸屏显示器504和/或按钮506交互,以拍摄照片。计算设备502可以检测用户交互,并且使用预先保存的缩放和聚焦水平来拍摄照片。在一些实施例中,计算设备502可以输出关联的触觉效果,例如配置为模拟照相机快门或透镜的运动的触觉效果。
在一些实施例中,计算设备502可以输出配置为促进用户与用户界面控制(例如,触摸屏显示器504或按钮506)进行交互的一个或多个触觉效果。例如,计算设备502可以输出在计算设备502上执行的与消息收发、聊天或电子邮件应用相关联的虚拟键盘。在一些实施例中,计算设备502可以检测用户压缩计算设备502,并且例如,发起“滑动”输入模式。滑动输入模式允许用户通过下述来输入词:沿着虚拟键盘从词的第一个字母将手指滑动到最后一个字母,仅在单词之间抬起手指。计算设备502可以输出例如配置为减小感受到的触摸屏显示器504的表面上的摩擦系数的关联触觉效果。这可以允许用户更容易地沿着触摸屏显示器504的表面移动手指以输入消息。
在上述实施例中,在用户与触摸屏显示器504交互以键入消息时,计算设备502可以输出另一触觉效果。例如,计算设备502可以在元音上输出橡胶质地。这可以允许用户确定用户的手指何时位于元音上,这可以使得用户易于输入消息。在一些实施例中,用户可以停止挤压计算设备502以退出滑动模式。计算设备502可以检测到用户不再挤压计算设备502,并且输出一个或多个关联触觉效果。例如,计算设备502可以输出包括两个脉冲振动的触觉效果,例如以指示用户计算设备502不再处于滑动模式。
图6示出了用于基于变形的触觉效果的***600的又一实施例。***600包括计算设备602(例如,图2的计算设备201)。计算设备602是可折曲的、可折叠的、可弯曲的、可扭曲的、可拉伸的、可压缩的、可卷曲的和/或可以其它形式变形的。计算设备602包括一个或多个用户界面控制(例如,触敏表面、触摸板、按钮、定向垫或操纵杆)。在图6所示的实施例中,计算设备602被通信地耦合到计算***604。
计算***604可以输出一个或多个虚拟对象。例如,计算***604可以执行相册应用并且输出虚拟照片。用户可以与计算设备602上的一个或多个用户界面控制交互以操作照片,或者以其它方式与相册应用交互。例如,用户可以轻击计算设备602上的触敏表面的区域,以选择关联的相册小部件,例如,配置为改变虚拟照片的尺寸的按钮。计算设备602可以输出关联的触觉效果,例如用于向用户通知按钮被选择的振动。在一些实施例中,计算设备602可以被配置为检测包括挤压的变形,并且向配置为减小图片的尺寸的计算***604传送信号。计算设备602还可以被配置为检测包括拉伸的变形,并且向配置为增加照片的尺寸的计算***604传送信号。在一些实施例中,计算设备602可以输出关联的触觉效果。例如,如果照片处于其最大尺寸,则计算设备602可以输出配置为抵抗用户进一步拉伸计算设备602的触觉效果。
在一些实施例中,计算***604可以经由web浏览器输出网页。网页可以包括一个或多个链接。用户可以与计算设备602(例如,触敏表面)交互来选择链接。在一些实施例中,计算设备602可以输出与交互相关联的触觉效果。例如,在用户的手指悬停在链接上时,计算设备602可以输出配置为改变感受到的触敏表面的表面上的摩擦系数的触觉效果。这可以将用户引导到网页上链接的位置,而不需要用户查看计算***604的显示器。一旦链接被选择,用户可以使计算设备602变形。计算设备602可以检测变形,并且使计算***604执行关联的功能。例如,如果变形包括向上弯曲,则计算设备602可以使得计算***604在新的浏览器窗口中打开与链接相关联的网页。如果变形包括向下弯曲,则计算设备602可以使得计算***604打开与当前的浏览器窗口相关联的网页。
基于变形的触觉效果的说明性的方法
图7是根据一个实施例的用于执行用于提供基于变形的触觉效果的方法的步骤的流程图。在一些实施例中,图7中的步骤可以以由处理器执行的程序代码来实现,处理器例如在通用计算机中、移动设备中或服务器中的处理器。在一些实施例中,这些步骤可以由一组处理器来实现。在一些实施例中,图7中示出的一个或多个步骤可以被省略或以不同的顺序执行。类似地,在一些实施例中,还可以执行图7中没有示出的附加步骤。以下步骤参考上述关于图1中所述的计算设备101的组件来描述。
当处理器102从变形传感器134接收与可变形表面的变形相关联的第一传感器信号时,方法700在步骤702处开始。例如,计算设备101可以输出包括一个或多个虚拟对象(例如,按钮、画笔、线、矩形、圆形、图标、菜单、图像或文本)的用户界面(例如,经由与触敏表面116集成的显示器)。在一些实施例中,使计算设备101变形可以与放大或缩小虚拟对象相关联。用户可以使计算设备101向上弯曲以放大虚拟按钮。变形传感器134可以检测该向上弯曲,并且向处理器102传送关联传感器信号。
当处理器102从传感器(例如,I/O112、传感器130或触摸传感器108)接收与同用户输入设备的用户交互相关联的第二传感器信号时,方法700在步骤704处继续。例如,在上述用户界面的实施例中,用户可以在触敏表面116上轻击虚拟按钮相关联的位置。触敏表面116可以检测该轻击并且向处理器102传送关联的传感器信号。
当处理器102执行与第一传感器信号和第二传感器信号相关联的功能时,该方法700在步骤706处继续。例如,在上述用户界面实施例中,用户可能无法执行与虚拟按钮相关联的功能,除非用户使计算设备101变形。在处理器102接收与向上弯曲相关联的第一传感器信号时,处理器102可以使得能够与虚拟按钮进行用户交互。在处理器102接收与轻击相关联的第二传感器信号时,处理器102可以执行与虚拟按钮相关联的功能。例如,处理器102可以打开与虚拟按钮相关联的词处理应用。
处理器102可以经由算法、查找表、功能简档和/或其它适当的方法来确定要执行的功能。例如,在一些实施例中,处理器102可以经由存储在存储器104中的算法或查找表来确定功能。处理器102可以查询查找表,并将特定传感器信号或传感器信号的组合(例如,来自变形传感器134、传感器130、触摸传感器108等)与具体功能相关联。例如,在上述用户界面实施例中,响应于用户使计算设备101弯曲,处理器102可以查询查找表来确定包括使得能够与用户界面内的虚拟对象进行用户交互的功能。响应于用户在与虚拟按钮相关联的触敏表面上的位置上轻击,处理器102可以查询查找表以确定包括打开词处理应用的功能。处理器102可以组合这些确定,并且执行包括打开词处理应用的功能。
在一些实施例中,处理器102可以基于简档来确定功能。例如,计算设备101可以存储关联的“功能简档”,其中,用户可以指派用户希望具体功能相关联的变形。例如,在一些实施例中,计算设备101可以存储变形(例如,弧形、扭曲、挤压、折叠、弯曲、拉伸或压缩)和/或用户希望将与具体功能(例如,进入滑动模式、编辑模式、缩小或放大虚拟对象、使照相机聚焦、执行游戏功能、改变程序设置)相关联的用户输入(例如,按钮按压、与触敏表面116的交互或操纵杆交互)。在这样的实施例中,处理器102可以查询用户的功能简档,以确定要执行哪个功能。例如,如果用户的功能简档包括与传送加载虚拟武器相关联的弯曲,则响应于用户弯曲计算设备101,处理器102可以确定包括加载虚拟武器的功能。
当处理器102从变形传感器134接收与可变形表面的另一变形相关联的第三传感器信号时,方法700在步骤708处继续。例如,在上述用户界面实施例中,用户可以进一步向上弯曲计算设备101,例如,以便打开在词处理应用中的新的空白文档。变形传感器134可以检测到额外的向上弯曲,并且向处理器102传送关联的传感器信号。
当处理器102至少部分地基于第三传感器信号来执行另一功能时,方法700在步骤710处继续。例如,在上述用户界面实施例中,处理器102可以接收第三传感器信号,并且打开词处理应用中的新的空白文档。在一些实施例中,处理器102可以经由算法、查找表、功能简档或其它适当的方法(例如,使用上文关于步骤706所述的任何方法)来确定要执行的功能。
当处理器102确定虚拟对象的特性时,方法700在步骤712处继续。处理器102可以确定虚拟对象的尺寸、形状、颜色、质地、优先级、位置、内容或其它特征。例如,在上述用户界面实施例中,处理器102可以确定虚拟按钮包括词处理应用标志。在一些实施例中,处理器102可以确定与虚拟对象相关联的优先级。例如,在上述用户界面实施例中,处理器102可以确定虚拟按钮与显示器上输出的用户界面中的主工具条(homebar)相关联。在一些实施例中,处理器102可以确定与主工具条相关联的虚拟对象比用户界面中的其他位置的虚拟对象更重要或具有更高的优先级。
当处理器102确定触觉效果时,方法700在步骤714处继续。在一些实施例中,处理器102可以至少部分地基于传感器信号(例如,来自I/O112、传感器130、变形传感器134或触摸传感器108)、功能、虚拟对象的特征和/或事件来确定触觉效果。例如,处理器102可以基于第一传感器信号、第二传感器信号和/或第三传感器信号来确定触觉效果。
在一些实施例中,处理器102可以依靠于包含在触觉效果确定模块126中的编程来确定触觉效果。例如,在一些实施例中,触觉效果确定模块126可以包括查找表。在一些实施例中,触觉效果确定模块126可以查询查找表,并且使传感器信号特征(例如,振幅、频率、持续时间或波形)、功能、事件与具体触觉效果相关联。例如,在上述用户界面实施例中,触觉效果确定模块126可以使包括打开应用的功能与包括短振动的触觉效果相关联(例如,以向用户指示应用已经被打开)。作为另一示例,在上所用户界面实施例中,触觉效果确定模块126可以使包括打开词处理应用的功能与包括减小触敏表面116上的摩擦系数的触觉效果相关联。这可以使得用户更容易使用虚拟键盘来向词处理应用输入文本。
在一些实施例中,处理器102可以基于计算设备101是否或者在多大程度上被折曲、扭曲、挤压、拉伸、折叠、弯曲或以其它形式变形,来确定触觉效果。例如,在一个这样的实施例中,如果计算设备101被弯曲大于20度,则处理器102可以确定包括抵抗计算设备101的进一步弯曲的触觉效果。例如,在上述用户界面实施例中,使计算设备101弯曲大于20度可以不与执行任何功能相关联。如果用户使计算设备101弯曲20度,则计算设备101可以输出配置为抵抗进一步弯曲的触觉效果(例如,防止损坏计算设备101或多余的用户交互)。这可能向用户通知不存在用户可以通过继续弯曲计算设备101而执行的命令。
在一些实施例中,计算设备101可以存储关联的“触觉简档”,其中,用户可以确定并且在存储器104中保存用户希望与具体事件、用户交互和/或功能相关联的触觉效果的“简档”。例如,在一个实施例中,用户可以从选项的列表中选择用户希望与计算设备101的折曲、弯曲、折叠或其它变形相关联的触觉效果。在一些实施例中,列表可以包括例如触觉效果,诸如辅助变形、抵抗变形、高振幅振动、低振幅振动或模拟的质地。在这样的实施例中,处理器102可以查询用户的触觉简档,以确定要生成哪个触觉效果。例如,如果用户的触觉简档使弯曲计算设备101与包括高振幅振动的触觉效果相关联,则响应于用户弯曲计算设备101,处理器102可以确定包括高振幅振动的触觉效果。
在一些实施例中,处理器102可以基于虚拟对象的特性来确定触觉效果。例如,在上述用户界面的实施例中,处理器102可以输出与虚拟按钮的虚拟质地相关联的触觉效果。例如,如果虚拟按钮具有不平整的虚拟质地,则处理器102可以输出配置为模拟不平整的质地的触觉效果。
当处理器102向触觉输出设备118传送与触觉效果相关联的触觉信号时,方法700在步骤716处继续。在一些实施例中,处理器102可以依赖于包含在触觉效果生成模块128中的编程来生成触觉信号。处理器102可以向触觉输出设备118传送触觉信号以输出触觉效果。
在一些实施例中,处理器102可以向一个或多个触觉输出设备118传送多个触觉信号以生成触觉效果。例如,在上述用户界面实施例中,在词处理应用程序打开时,处理器102可以传送配置为使得触觉输出设备118展平计算设备101直到计算设备101平坦(例如,使得用户更容易经由虚拟键盘输入文本)的第一触觉信号。此外或替代地,处理器102可以传送配置为使得另一触觉输出设备118在触敏表面116上的与虚拟键盘按键相关联的位置输出橡胶质地的第二触觉信号。这可以允许用户在不查看显示器的情况下确定虚拟键盘的键的位置。
基于变形的触觉效果的优点
基于变形的触觉效果有许多优点。这样的***可以允许用户在不查看该设备的情况下进行状态确定(例如,确定设备所处的模式)。因此,用户可能能够保持对其它任务的关注。例如,用户可以弯曲设备并接收指示设备状态的触觉反馈。基于触觉反馈,用户可能能够确定在程序或用户界面中什么选项是可用的,而不必在视觉上关注显示器。类似地,触觉效果可以用作操作可用的、已经完成或者具有某种程度的重要性的确认。
在一些实施例中,基于变形的触觉效果可以允许用户基本上同时的(而不是顺序地)执行多个操作,产生更独特、有效和直观用户界面。例如,用户可能能够通过下述来改变程序:用一只手使计算设备产生变形,同时用另一只手与用户界面设备(例如,触敏表面、按钮、操纵杆、触发器、或开关)交互,例如来执行与程序设置相关联的功能。例如,用户可能能够通过以一只手弯曲计算设备来在视频游戏中重复循环虚拟武器。用户可能能够通过以另一只手按下虚拟“开火”按钮(例如,在计算设备的触摸屏显示器上输出的)来用选择的虚拟武器开火。这可以允许用户容易并快速地在虚拟武器之间循环并开火,同时仅需要用户的手的相对小的运动。相反,使用传统的用户界面,用于循环武器的虚拟按钮可能离“开火”按钮很远并且不方便地放置。用户可能需要在按钮之间向后和向前移动手,以便在虚拟武器之间切换和开火,这增加了用户的认知负荷、使用户变慢并且增加了用户出错的可能性(例如,错过按钮)。
在一些实施例中,基于变形的触觉效果可以使非视觉的用户界面成为可能。例如,用户可以通过使计算设备变形来切换***模式或程序设置。计算设备可以检测该变形并输出相关的触觉效果(例如,脉冲振动)。触觉效果可以向用户指示当前***模式或程序设置。在识别期望的***模式或程序设置时,用户可以用手指探索触摸感应表面。如果用户的手指与看不见的界面组件的位置交互,计算设备可以输出相关联的触觉效果。例如,如果用户与虚拟音量按钮交互时,计算设备可以输出包括橡胶质地的触觉效果。用户可以与看不见的界面组件交互(例如,轻击该界面组件的位置)以执行相关联的功能(例如,增大计算设备输出的声音的音量)。作为响应,计算设备可以执行该功能和/或为用户提供触觉反馈,例如,确认收到用户交互。通过这种方式,基于变形的触觉效果可以允许用户在与非视觉用户界面交互时执行功能。
一般解决
上面讨论的方法、***和设备是示例性的。各种配置可以省略、替代或添加合适的各种程序或组件。例如,在替代性配置中,方法可以以不同于所描述的顺序执行,和/或不同的阶段可以被添加、省略、和/或合并。同时,关于一些配置所描述的特性可以被组合进各种其它配置。配置的不同的方面和元素可以以相似的方式结合。并且,技术是发展的,从而,许多元素只是示例,并且不限制公开或要求的范围。
在说明书中给出的具体细节提供了示例配置(包括实现)的全面的理解。然而,配置可以脱离这些具体细节而被实现。例如,众所周知的电路、过程、算法、结构和技术已被去除不必要的细节地展示,以避免使配置模糊。本说明书只是提供了示例配置,而不是对权利要求的范围、适用性、或配置的限制。相反,前面的配置的说明书将为那些本领域技术人员提供使实现所描述的技术成为可能的说明书。在不脱离本公开的精神或范围的情况下,在元素的功能和安排中可以做出各种改变。
同样,配置也可以被描述为以流程图或框图形式描绘的过程。尽管每个可能将操作描述为相继的过程,许多操作可以并行地或者同时地执行。此外,操作的顺序可以被重新安排。过程可以具有不包含在图中的额外步骤。此外,方法的示例可以由硬件、软件、固件、中间件、微码、硬件描述语言、或者其任意组合实现。当以软件、固件、中间件或微码实现时,执行必要任务的程序代码或代码段可以被存储在非易失性计算机可读介质,如存储介质之中。处理器可以执行所述任务。
在不脱离本公开的精神的情况下,已经描述的若干示例配置、各种修改、替代结构、和等价物可以被使用。例如,上面的元素可以是更大的***的组件,在这样的***中,其它规则可能更为优先,或者修改本发明的应用。同样,许多步骤可以在上面的元素被考虑之前、期间或之后被施行。相应地,上面的说明书并不限制权利要求的范围。
此处的“适于”或“被配置为”的使用意指开放和包容的语言,不排除适于或被配置为执行额外任务或步骤的设备。此外,“基于”的使用是开放和包容的意思,在其中,过程、步骤、计算、或“基于”一个或多个被列举的条件或值的其它动作,在实践中,可以基于除了那些所列举的以外的额外条件或值。此处包含的标题、列表和编号仅仅是为了方便解释,其目的并非是为了限制。
根据本主题的方面的实施例可以以数字电子电路、计算机硬件、固件、软件、或以前述的组合实现。在一个实施例中,计算机可以包括处理器或多个处理器。处理器包含或有权访问计算机可读介质,如耦合到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行的程序指令,如执行包含传感器采样例程、选择例程、和执行上文所述方法的其它例程的一个或多个计算机程序。
这样的处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和状态机。这样的处理器可以进一步包括可编程电子设备,如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电子可编程只读存储器(EPROM或EEPROM)或其它类似的设备。
这样的处理器可以包括介质,或者与之通信,该介质的例子包括可以存储指令的实体的计算机可读介质,当该指令由处理器执行时,可以导致处理器执行此处所述的由处理器实施或协助的步骤。计算机可读介质的实施例可以包括,但不限于,所有电子的、光学的、磁的、或能够向处理器如web服务器中的处理器,提供计算机可读指令的存储设备。其它介质的示例包括但不限于,软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其它磁性介质、或计算机处理器可以从其读取的任何其它介质。同样,各种其它设备可以包括计算机可读介质,如路由器、私有或公共网络,或其它发送设备。处理器以及处理,可能在一个或多个结构中描述,并且可以分散到一个或多个结构中。处理器可以包括用于执行此处描述的一个或多个方法(或部分方法)的代码。
虽然本主题已经关于其特定实施例进行了详细描述,那些本领域技术人员可以领会,依据对前述事项的理解的获得,可以很容易产生对这样的实施例的变更、变化、和等同物。相应地,应该理解,本公开是为了示例而不是限制的目的而提出的,并且不排除对本领域的普通技术人员来说是显而易见的对本主题的这样的修改、变化和/或添加的内含物。

Claims (20)

1.一种***,包括:
变形传感器,所述变形传感器被配置为检测可变形表面的变形并且传送与所述变形相关联的第一传感器信号;
传感器,所述传感器被配置为检测与用户输入设备的用户交互并且传送与所述用户交互相关联的第二传感器信号;
处理器,所述处理器与所述可变形表面和所述用户输入设备通信,所述处理器被配置为:
接收所述第一传感器信号;
接收所述第二传感器信号;
至少部分地基于所述第一传感器信号和所述第二传感器信号来执行功能;
至少部分地基于所述第一传感器信号或所述第二传感器信号来确定触觉效果;并且
传送与所述触觉效果相关联的触觉信号;以及
触觉输出设备,所述触觉输出设备与所述处理器通信,所述触觉输出设备被配置为接收所述触觉信号并且输出所述触觉效果。
2.如权利要求1所述的***,其中,所述变形包括卷曲、弯曲、折叠、拉伸、扭曲或挤压所述可变形表面。
3.如权利要求2所述的***,其中,所述用户输入设备包括触敏表面。
4.如权利要求3所述的***,其中,所述触敏表面包括触摸屏显示器。
5.如权利要求4所述的***,其中,所述处理器被进一步配置为:
确定虚拟对象的特性;并且
至少部分地基于所述特性来确定所述触觉效果。
6.如权利要求1所述的***,其中,所述用户输入设备包括按钮、开关、触发器、滚轮、定向垫或操纵杆。
7.如权利要求1所述的***,其中,所述触觉效果包括振动、模拟的摩擦、模拟的纹理或者抚摸的感觉。
8.如权利要求7所述的***,其中,所述触觉输出设备被耦合到可穿戴设备,并且其中,所述可穿戴设备包括鞋子、臂章、袖子、夹克、眼镜、手套、戒指、手表、腕带、衣着类商品、帽子、头巾、或珠宝。
9.如权利要求1所述的***,其中,所述触觉效果包括第一触觉效果,并且其中,所述处理器被进一步配置为:
至少部分地基于所述第一传感器信号来确定所述第一触觉效果;并且
至少部分地基于所述第二传感器信号来确定第二触觉效果。
10.如权利要求9所述***,其中,所述处理器被进一步配置为:
接收与所述可变形表面的另一变形相关联的第三传感器信号;并且
至少部分地基于所述第三传感器信号来执行另一功能。
11.如权利要求10所述的***,其中,所述处理器被进一步配置为:
至少部分地基于所述第三传感器信号来确定第三触觉效果。
12.一种方法,包括:
接收与可变形表面的变形相关联的第一传感器信号;
接收与同用户输入设备的用户交互相关联的第二传感器信号;
至少部分地基于所述第一传感器信号和所述第二传感器信号来执行功能;
至少部分地基于所述第一传感器信号或所述第二传感器信号来确定触觉效果;以及
向触觉输出设备传送与所述触觉效果相关联的触觉信号,其中,所述触觉输出设备被配置为接收所述触觉信号并且输出所述触觉效果。
13.如权利要求12所述的方法,其中,所述变形包括卷曲、弯曲、折叠、拉伸、扭曲或挤压所述可变形表面。
14.如权利要求13所述的方法,其中,所述用户输入设备包括触摸屏显示器。
15.如权利要求14所述的方法,其中,所述触觉输出设备被耦合到可穿戴设备,并且其中,所述可穿戴设备包括鞋子、臂章、袖子、夹克、眼镜、手套、戒指、手表、腕带、衣着类商品、帽子、头巾、或珠宝。
16.如权利要求12所述的方法,其中,所述用户输入设备包括按钮、开关、触发器、滚轮、定向垫或操纵杆。
17.一种包括程序代码的非易失性计算机可读介质,所述程序代码在由处理器执行时,被配置为使得所述处理器:
接收与可变形表面的变形相关联的第一传感器信号;
接收与同用户输入设备的用户交互相关联的第二传感器信号;
至少部分地基于所述第一传感器信号和所述第二传感器信号来执行功能;
至少部分地基于所述第一传感器信号或所述第二传感器信号来确定触觉效果;以及
向触觉输出设备传送与所述触觉效果相关联的触觉信号,其中,所述触觉输出设备被配置为接收所述触觉信号并且输出所述触觉效果。
18.如权利要求17所述的非易失性计算机可读介质,其中,所述变形包括卷曲、弯曲、折叠、拉伸、扭曲或挤压所述可变形表面。
19.如权利要求17所述的非易失性计算机可读介质,其中,所述用户输入设备包括触摸屏显示器。
20.如权利要求17所述的非易失性计算机可读介质,其中,所述用户输入设备包括按钮、开关、触发器、滚轮、定向垫或操纵杆。
CN201510830385.9A 2014-11-25 2015-11-25 用于基于变形的触觉效果的***和方法 Pending CN105630156A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/552,987 US9535550B2 (en) 2014-11-25 2014-11-25 Systems and methods for deformation-based haptic effects
US14/552,987 2014-11-25

Publications (1)

Publication Number Publication Date
CN105630156A true CN105630156A (zh) 2016-06-01

Family

ID=54476864

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510830385.9A Pending CN105630156A (zh) 2014-11-25 2015-11-25 用于基于变形的触觉效果的***和方法

Country Status (5)

Country Link
US (3) US9535550B2 (zh)
EP (1) EP3037945A1 (zh)
JP (1) JP2016119069A (zh)
KR (1) KR20160062698A (zh)
CN (1) CN105630156A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239145A (zh) * 2017-06-22 2017-10-10 京东方科技集团股份有限公司 触觉反馈装置及方法
CN107682520A (zh) * 2016-08-02 2018-02-09 意美森公司 用于变形效果和触觉效果的***和方法
CN108174019A (zh) * 2016-12-01 2018-06-15 意美森公司 用于视觉-触觉通知的智能表面
CN109697038A (zh) * 2017-10-23 2019-04-30 富士施乐株式会社 信息处理装置、信息处理方法以及计算机可读介质
CN110609615A (zh) * 2018-06-15 2019-12-24 意美森公司 用于在增强现实中集成触觉覆盖的***和方法
US10518170B2 (en) 2014-11-25 2019-12-31 Immersion Corporation Systems and methods for deformation-based haptic effects
CN112189178A (zh) * 2018-04-09 2021-01-05 苹果公司 用于电子手指设备的传感器

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939900B2 (en) 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
KR102256677B1 (ko) * 2013-12-02 2021-05-28 삼성디스플레이 주식회사 플렉서블 표시장치 및 이의 영상 표시방법
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
US9971406B2 (en) * 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
JP6573434B2 (ja) * 2015-05-22 2019-09-11 国立大学法人金沢大学 ハプティックインタフェース
CN105138076B (zh) * 2015-08-03 2020-01-31 联想(北京)有限公司 一种电子设备的控制方法及电子设备
KR102378357B1 (ko) * 2015-08-24 2022-03-25 삼성디스플레이 주식회사 폴딩 가능한 디스플레이 장치 및 그 운용방법
US10871826B2 (en) 2016-03-01 2020-12-22 DISH Technologies L.L.C. Haptic feedback remote control systems and methods
CN105892664B (zh) * 2016-03-31 2021-05-18 联想(北京)有限公司 一种信息处理方法及电子设备
KR102423145B1 (ko) * 2016-04-12 2022-07-21 삼성전자주식회사 플렉서블 디바이스 및 플렉서블 디바이스의 동작 방법
US10109162B2 (en) * 2016-09-01 2018-10-23 Immersion Corporation Haptic effect enabled system using fluid
US10234945B2 (en) * 2016-09-09 2019-03-19 Immersion Corporation Compensated haptic rendering for flexible electronic devices
US20180157395A1 (en) * 2016-12-07 2018-06-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
US20180164885A1 (en) * 2016-12-09 2018-06-14 Immersion Corporation Systems and Methods For Compliance Illusions With Haptics
WO2019009880A1 (en) * 2017-07-03 2019-01-10 Hewlett-Packard Development Company, L.P. ELECTRONICALLY CONTROLLED SHUTTER FOR SECURING AN INPUT DEVICE
JP6576402B2 (ja) * 2017-08-04 2019-09-18 クラリオン株式会社 車両用警報装置および車両用警報方法
US10977910B1 (en) * 2017-09-06 2021-04-13 Apple Inc. Tactile outputs for input structures of electronic devices
US10684689B2 (en) * 2018-04-20 2020-06-16 Immersion Corporation Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments
CN108896156A (zh) * 2018-05-11 2018-11-27 北京旷视科技有限公司 物品监控方法、装置及***
US11353967B2 (en) 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
US11740697B1 (en) 2018-06-19 2023-08-29 Meta Platforms Technologies, Llc Vibrotactile devices, systems, and related methods
KR102115234B1 (ko) * 2018-11-09 2020-05-26 (주)솔트웍스 안전사고 가상 체험 시스템 및 그 방법
US20200192481A1 (en) * 2018-12-18 2020-06-18 Immersion Corporation Interactive device having a modifiable structure
KR20210136043A (ko) 2019-02-18 2021-11-16 에이알케이에이치 리쏘 홀딩스, 엘엘씨 포인팅 제어기를 사용하는 스마트 디바이스와의 상호작용
JP2022550106A (ja) 2019-09-24 2022-11-30 アーク, インコーポレイテッド スマートリング
WO2021134181A1 (en) * 2019-12-30 2021-07-08 Goertek Technology Co., Ltd. Input apparatus and electronic device applying same
EP4111296B1 (en) * 2020-02-25 2024-03-06 Peratech Holdco Ltd Pressure sensor
US11755111B2 (en) 2020-03-16 2023-09-12 Arkh, Inc. Spatially aware computing hub and environment
USD1009861S1 (en) 2020-09-25 2024-01-02 Arkh, Inc. Smart ring
US11819999B2 (en) * 2021-01-27 2023-11-21 Toyota Research Institute, Inc. Input devices having a deformable membrane and methods of using the same
US20240241553A1 (en) * 2023-01-18 2024-07-18 Htc Corporation Control system and control method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040268391A1 (en) * 2003-06-25 2004-12-30 Universal Electronics Inc. Remote control with selective key illumination
US20100141605A1 (en) * 2008-12-08 2010-06-10 Samsung Electronics Co., Ltd. Flexible display device and data displaying method thereof
CN102422244A (zh) * 2009-05-07 2012-04-18 伊梅森公司 用于提供触觉反馈形状变化显示器的方法和设备
CN102667662A (zh) * 2009-07-10 2012-09-12 罗尔·弗特加尔 柔性显示器的交互技术
CN103492832A (zh) * 2011-04-08 2014-01-01 株式会社村田制作所 位移传感器、位移检测装置以及操作设备
US20140002401A1 (en) * 2011-12-30 2014-01-02 Lg Electronics Inc. Bending threshold and release for a flexible display device
CN103631373A (zh) * 2012-08-24 2014-03-12 英默森公司 上下文相关的触觉确认***
US20140111480A1 (en) * 2012-10-19 2014-04-24 Electronics And Telecommunications Research Institute Touch panel providing tactile feedback in response to variable pressure and operation method thereof
CN104123035A (zh) * 2013-04-26 2014-10-29 意美森公司 用于支持触觉的可变形表面的***和方法

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4330730A (en) 1980-03-27 1982-05-18 Eastman Kodak Company Wound piezoelectric polymer flexure devices
US5149918A (en) 1990-10-29 1992-09-22 International Business Machines Corporation Touch sensitive overlay
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6160540A (en) 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
JPH11203020A (ja) 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 触力覚呈示装置
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
JP2000148393A (ja) 1998-11-06 2000-05-26 Minolta Co Ltd 視触覚情報伝達装置
US20040217877A1 (en) 1999-05-04 2004-11-04 William Kokonaski Flexible electronic display and wireless communication system
US7561142B2 (en) 1999-07-01 2009-07-14 Immersion Corporation Vibrotactile haptic feedback devices
US6337678B1 (en) 1999-07-21 2002-01-08 Tactiva Incorporated Force feedback computer input and output device with coordinated haptic elements
US6496200B1 (en) 1999-11-02 2002-12-17 Interval Research Corp. Flexible variation of haptic interface resolution
US6924787B2 (en) 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
EP2385518A3 (en) 2000-05-24 2012-02-15 Immersion Medical, Inc. Haptic devices using electroactive polymers
DE10046099A1 (de) 2000-09-18 2002-04-04 Siemens Ag Berührungssensitive Anzeige mit taktiler Rückkopplung
AU2002230610A1 (en) 2000-12-05 2002-06-18 E-Ink Corporation Portable eclectronic apparatus with additional electro-optical display
US20020108439A1 (en) 2001-02-14 2002-08-15 Whitehead Dennis D. Systems and methods for displaying status of consumable resource
JP4934924B2 (ja) 2001-08-09 2012-05-23 パナソニック株式会社 強誘電体アクチュエータ素子およびその製造方法
US6819304B2 (en) 2001-10-11 2004-11-16 International Business Machines Corporation Adjustable display device with display adjustment function and method therefor
CN1602498A (zh) 2001-12-12 2005-03-30 皇家飞利浦电子股份有限公司 具有触觉导引的显示***
US6703924B2 (en) 2001-12-20 2004-03-09 Hewlett-Packard Development Company, L.P. Tactile display apparatus
JP2003288158A (ja) 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
JP2003280546A (ja) 2002-03-27 2003-10-02 Matsushita Electric Ind Co Ltd 自己変形型フレキシブルディスプレイ及びそれを用いた情報処理端末
US7456823B2 (en) 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP2004071765A (ja) 2002-08-05 2004-03-04 Sony Corp 電気粘性流体装置及び電子機器
JP3937982B2 (ja) 2002-08-29 2007-06-27 ソニー株式会社 入出力装置および入出力装置を有する電子機器
US7161590B2 (en) 2002-09-04 2007-01-09 John James Daniels Thin, lightweight, flexible, bright, wireless display
US6964201B2 (en) 2003-02-25 2005-11-15 Palo Alto Research Center Incorporated Large dimension, flexible piezoelectric ceramic tapes
WO2005020190A2 (en) 2003-08-11 2005-03-03 Virtualblue, Llc Rectractable flexible digital display apparatus
US7008342B2 (en) 2003-08-15 2006-03-07 Silvatech Global Systems Ltd. Electro-mechanical continuously variable transmission
DE10340188A1 (de) 2003-09-01 2005-04-07 Siemens Ag Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
US20080297878A1 (en) 2003-10-01 2008-12-04 Board Of Regents, The University Of Texas System Compositions, methods and systems for making and using electronic paper
JP4341360B2 (ja) 2003-10-03 2009-10-07 日本ビクター株式会社 表示装置
US7522152B2 (en) 2004-05-27 2009-04-21 Immersion Corporation Products and processes for providing haptic feedback in resistive interface devices
JP2006048302A (ja) 2004-08-03 2006-02-16 Sony Corp 圧電複合装置、その製造方法、その取扱方法、その制御方法、入出力装置及び電子機器
WO2006017612A2 (en) 2004-08-06 2006-02-16 Sensable Technologies, Inc. Virtual musical interface in a haptic virtual environment
JP2006154380A (ja) 2004-11-30 2006-06-15 Victor Co Of Japan Ltd 表示装置
US7542816B2 (en) 2005-01-27 2009-06-02 Outland Research, Llc System, method and computer program product for automatically selecting, suggesting and playing music media files
JP4626376B2 (ja) 2005-04-25 2011-02-09 ソニー株式会社 音楽コンテンツの再生装置および音楽コンテンツ再生方法
JP2007121765A (ja) 2005-10-28 2007-05-17 Pioneer Electronic Corp 表示制御装置、表示方法、表示プログラムおよび記録媒体
US20070118043A1 (en) 2005-11-23 2007-05-24 Microsoft Corporation Algorithms for computing heart rate and movement speed of a user from sensor data
JP2007188597A (ja) 2006-01-13 2007-07-26 Sony Corp コンテンツ再生装置およびコンテンツ再生方法並びにプログラム
US7639237B2 (en) 2006-03-03 2009-12-29 Perkins Michael T Roll-out touch screen support system (ROTS3)
US8405618B2 (en) 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
JP2007287005A (ja) 2006-04-19 2007-11-01 Sony Corp 情報入出力装置、および情報処理方法、並びにコンピュータ・プログラム
JP4305671B2 (ja) 2006-08-22 2009-07-29 ソニー株式会社 健康運動支援システム、携帯型音楽再生装置、サービス情報提供装置、情報処理装置、健康運動支援方法
US20080097633A1 (en) 2006-09-29 2008-04-24 Texas Instruments Incorporated Beat matching systems
US7924362B2 (en) 2007-04-20 2011-04-12 Via Optronics, Llc Bezelless display system having a display assembly with an overlay including a transparent section optically bonded to a display region with an optical layer that includes a pre-cured adhesive preform
TW200912720A (en) 2007-04-24 2009-03-16 White Electronics Designs Corp Interactive display system
US9823833B2 (en) 2007-06-05 2017-11-21 Immersion Corporation Method and apparatus for haptic enabled flexible touch sensitive surface
WO2009037379A1 (en) 2007-09-18 2009-03-26 Senseg Oy Method and apparatus for sensory stimulation
FI20085475A0 (fi) 2008-05-19 2008-05-19 Senseg Oy Kosketuslaiteliitäntä
US9019087B2 (en) 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
EP2060968B1 (en) 2007-11-16 2011-01-12 Research In Motion Limited Tactile touch screen for electronic device
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
JP4909922B2 (ja) 2008-02-29 2012-04-04 株式会社日立製作所 可撓操作可能な情報表示端末装置、及び情報表示用インタフェース
US8174372B2 (en) 2008-06-26 2012-05-08 Immersion Corporation Providing haptic feedback on a touch surface
EP2327201B1 (en) 2008-07-15 2018-09-05 Immersion Corporation Systems and methods for transmitting haptic messages
KR101472021B1 (ko) 2008-09-02 2014-12-24 엘지전자 주식회사 플렉서블 디스플레이부를 구비한 휴대 단말기 및 그 제어방법
US8836611B2 (en) 2008-09-08 2014-09-16 Qualcomm Incorporated Multi-panel device with configurable interface
US8947320B2 (en) 2008-09-08 2015-02-03 Qualcomm Incorporated Method for indicating location and direction of a graphical user interface element
US8749495B2 (en) 2008-09-24 2014-06-10 Immersion Corporation Multiple actuation handheld device
JP2010086471A (ja) 2008-10-02 2010-04-15 Sony Corp 操作感提供装置、および操作感フィードバック方法、並びにプログラム
US8339250B2 (en) 2008-10-10 2012-12-25 Motorola Mobility Llc Electronic device with localized haptic response
US8427433B2 (en) 2008-10-17 2013-04-23 Honeywell International Inc. Tactile-feedback touch screen
KR101521219B1 (ko) 2008-11-10 2015-05-18 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
US20100117809A1 (en) 2008-11-11 2010-05-13 Motorola Inc. Display module with piezoelectric haptics
US8823542B2 (en) 2008-11-26 2014-09-02 Nokia Corporation Apparatus and methods relevant to electronic devices
US20100225600A1 (en) 2009-03-09 2010-09-09 Motorola Inc. Display Structure with Direct Piezoelectric Actuation
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
KR20170016521A (ko) 2009-03-12 2017-02-13 임머숀 코퍼레이션 다수의 액츄에이터를 사용하여 텍스처를 실현하는 시스템 및 방법
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
JP5694205B2 (ja) 2009-03-12 2015-04-01 イマージョン コーポレーションImmersion Corporation 摩擦ディスプレイシステム及び方法、並びに付加的な触覚効果
US9927873B2 (en) 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
US9874935B2 (en) 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US8686951B2 (en) 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
US8400410B2 (en) 2009-05-26 2013-03-19 Microsoft Corporation Ferromagnetic user interfaces
CN102473034B (zh) 2009-07-22 2015-04-01 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的***和方法
US10068728B2 (en) 2009-10-15 2018-09-04 Synaptics Incorporated Touchpad with capacitive force sensing
US10254824B2 (en) 2009-10-16 2019-04-09 Immersion Corporation Systems and methods for output of content based on sensing an environmental factor
US8902050B2 (en) 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
US9417694B2 (en) 2009-10-30 2016-08-16 Immersion Corporation System and method for haptic display of data transfers
US20110261002A1 (en) 2010-04-27 2011-10-27 Microsoft Corporation Displaying images on solid surfaces
US20110267294A1 (en) 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US9310887B2 (en) 2010-05-06 2016-04-12 James W. Wieder Handheld and wearable remote-controllers
US20120032877A1 (en) 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
US20120133494A1 (en) 2010-11-29 2012-05-31 Immersion Corporation Systems and Methods for Providing Programmable Deformable Surfaces
US10503255B2 (en) 2010-12-02 2019-12-10 Immersion Corporation Haptic feedback assisted text manipulation
US20120169609A1 (en) 2010-12-29 2012-07-05 Nokia Corporation Methods and apparatuses for facilitating content navigation
US9448713B2 (en) 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
JP5134706B2 (ja) 2011-05-16 2013-01-30 日本写真印刷株式会社 曲面タッチパネル、その製造方法及び曲面タッチパネル付表示装置
US20130009882A1 (en) 2011-07-07 2013-01-10 Nokia Corporation Methods and apparatuses for providing haptic feedback
US20130009892A1 (en) 2011-07-07 2013-01-10 Nokia, Inc. Methods and apparatuses for providing haptic feedback
US9323326B2 (en) 2011-09-06 2016-04-26 Immersion Corporation Haptic output device and method of generating a haptic effect in a haptic output device
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
US8610663B2 (en) 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
US9411423B2 (en) 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
KR101692252B1 (ko) 2012-04-08 2017-01-04 삼성전자주식회사 플렉서블 디스플레이 장치 및 제어 방법
KR20130123606A (ko) 2012-05-03 2013-11-13 한국과학기술원 플렉서블 디스플레이를 이용한 정보 동기화 방법
KR20140023066A (ko) 2012-08-16 2014-02-26 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 피드백 제공 방법
KR101869959B1 (ko) * 2012-08-23 2018-07-23 삼성전자주식회사 플렉서블 및 그 제어 방법
US9116546B2 (en) 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
KR20140044237A (ko) 2012-10-04 2014-04-14 삼성전자주식회사 플렉서블 장치 및 그의 제어 방법
KR101909492B1 (ko) 2012-12-27 2018-12-18 삼성전자주식회사 플렉서블 장치와의 인터렉션 방법 및 사용자 단말
US20140313142A1 (en) 2013-03-07 2014-10-23 Tactus Technology, Inc. Method for remotely sharing touch
US9202351B2 (en) 2013-03-11 2015-12-01 Immersion Corporation Systems and methods for haptics in vibrating environments and devices
US9436282B2 (en) 2013-03-14 2016-09-06 Immersion Corporation Contactor-based haptic feedback generation
US9041647B2 (en) 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
JP2014209336A (ja) * 2013-03-28 2014-11-06 株式会社Nttドコモ 情報処理装置および入力支援方法
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
JP6335613B2 (ja) 2013-04-26 2018-05-30 イマージョン コーポレーションImmersion Corporation 触覚使用可能な適合的及び多面的ディスプレイのためのシステム及び方法
US9524030B2 (en) 2013-04-26 2016-12-20 Immersion Corporation Haptic feedback for interactions with foldable-bendable displays
US9632581B2 (en) 2013-06-11 2017-04-25 Immersion Corporation Systems and methods for pressure-based haptic effects
US9729730B2 (en) 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
KR20150010516A (ko) * 2013-07-19 2015-01-28 삼성전자주식회사 플렉서블 디바이스가 객체를 디스플레이 하는 방법 및 장치
US20150054727A1 (en) 2013-08-23 2015-02-26 Immersion Corporation Haptically enabled viewing of sporting events
US9639158B2 (en) 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
US9671826B2 (en) 2013-11-27 2017-06-06 Immersion Corporation Method and apparatus of body-mediated digital content transfer and haptic feedback
US20150185826A1 (en) * 2013-12-30 2015-07-02 Daqri, Llc Mapping gestures to virtual functions
JP6664069B2 (ja) 2013-12-31 2020-03-13 イマージョン コーポレーションImmersion Corporation 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
KR102243680B1 (ko) * 2014-04-07 2021-04-23 엘지전자 주식회사 투명 플렉서블 디스플레이 장치 및 그 장치의 제어 방법
KR20150118813A (ko) 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
US9710063B2 (en) 2014-07-21 2017-07-18 Immersion Corporation Systems and methods for determining haptic effects for multi-touch input
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040268391A1 (en) * 2003-06-25 2004-12-30 Universal Electronics Inc. Remote control with selective key illumination
US20100141605A1 (en) * 2008-12-08 2010-06-10 Samsung Electronics Co., Ltd. Flexible display device and data displaying method thereof
CN102422244A (zh) * 2009-05-07 2012-04-18 伊梅森公司 用于提供触觉反馈形状变化显示器的方法和设备
CN102667662A (zh) * 2009-07-10 2012-09-12 罗尔·弗特加尔 柔性显示器的交互技术
CN103492832A (zh) * 2011-04-08 2014-01-01 株式会社村田制作所 位移传感器、位移检测装置以及操作设备
US20140002401A1 (en) * 2011-12-30 2014-01-02 Lg Electronics Inc. Bending threshold and release for a flexible display device
CN103631373A (zh) * 2012-08-24 2014-03-12 英默森公司 上下文相关的触觉确认***
US20140111480A1 (en) * 2012-10-19 2014-04-24 Electronics And Telecommunications Research Institute Touch panel providing tactile feedback in response to variable pressure and operation method thereof
CN104123035A (zh) * 2013-04-26 2014-10-29 意美森公司 用于支持触觉的可变形表面的***和方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10518170B2 (en) 2014-11-25 2019-12-31 Immersion Corporation Systems and methods for deformation-based haptic effects
CN107682520A (zh) * 2016-08-02 2018-02-09 意美森公司 用于变形效果和触觉效果的***和方法
CN108174019A (zh) * 2016-12-01 2018-06-15 意美森公司 用于视觉-触觉通知的智能表面
CN107239145A (zh) * 2017-06-22 2017-10-10 京东方科技集团股份有限公司 触觉反馈装置及方法
WO2018233344A1 (zh) * 2017-06-22 2018-12-27 京东方科技集团股份有限公司 触觉反馈装置及方法、可读存储介质、电子产品
CN107239145B (zh) * 2017-06-22 2020-03-31 京东方科技集团股份有限公司 触觉反馈装置及方法
CN109697038A (zh) * 2017-10-23 2019-04-30 富士施乐株式会社 信息处理装置、信息处理方法以及计算机可读介质
CN109697038B (zh) * 2017-10-23 2023-08-25 富士胶片商业创新有限公司 信息处理装置、信息处理方法以及计算机可读介质
CN112189178A (zh) * 2018-04-09 2021-01-05 苹果公司 用于电子手指设备的传感器
CN110609615A (zh) * 2018-06-15 2019-12-24 意美森公司 用于在增强现实中集成触觉覆盖的***和方法

Also Published As

Publication number Publication date
KR20160062698A (ko) 2016-06-02
US20170136350A1 (en) 2017-05-18
US10080957B2 (en) 2018-09-25
US10518170B2 (en) 2019-12-31
US20160147333A1 (en) 2016-05-26
US20190038966A1 (en) 2019-02-07
EP3037945A1 (en) 2016-06-29
US9535550B2 (en) 2017-01-03
JP2016119069A (ja) 2016-06-30

Similar Documents

Publication Publication Date Title
CN105630156A (zh) 用于基于变形的触觉效果的***和方法
US10203757B2 (en) Systems and methods for shape input and output for a haptically-enabled deformable surface
US10488931B2 (en) Systems and methods for pressure-based haptic effects
CN103838423B (zh) 用于带有触觉效果的模拟物理交互的***和方法
US20180181205A1 (en) System and Method for a Haptically-Enabled Deformable Surface
US20190064996A1 (en) Method and apparatus for generating a haptic effect in response to flex gesturing
JP6516477B2 (ja) ユーザ生成コンテンツをオーサリングするためのシステム及び方法
CN105094311A (zh) 用于基于视口的增强现实触觉效果的***和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160601

WD01 Invention patent application deemed withdrawn after publication