CN114637418A - 生成与对象相关联的触觉输出序列 - Google Patents

生成与对象相关联的触觉输出序列 Download PDF

Info

Publication number
CN114637418A
CN114637418A CN202210077295.7A CN202210077295A CN114637418A CN 114637418 A CN114637418 A CN 114637418A CN 202210077295 A CN202210077295 A CN 202210077295A CN 114637418 A CN114637418 A CN 114637418A
Authority
CN
China
Prior art keywords
electronic device
user
distance
orientation
tactile output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210077295.7A
Other languages
English (en)
Inventor
P·H·L·佩尔森
A·迈耶
P·蔡
S·J·伍德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN114637418A publication Critical patent/CN114637418A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3652Guidance using non-audiovisual output, e.g. tactile, haptic or electric stimuli
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及生成与对象相关联的触觉输出序列。在一些实施方案中,电子设备响应于检测到该电子设备被取向为在取向范围内而生成触觉输出序列,该取向范围随着该电子设备和相应对象之间的距离的变化而变化。在一些实施方案中,电子设备响应于检测到该电子设备相对于相应对象的取向的变化而改变触觉输出的一个或多个特征。在一些实施方案中,电子设备生成触觉输出,该触觉输出具有指示该电子设备的相机相对于一个或多个AR(增强现实)平面的取向的特征。在一些实施方案中,电子设备生成指示与第二电子设备的数据共享过程的触觉输出。

Description

生成与对象相关联的触觉输出序列
本申请是申请号为202080046521.4、申请日为2020年4月27日、发 明名称为“生成与对象相关联的触觉输出序列”的发明专利申请的分案申 请。
技术领域
本发明整体涉及响应于电子设备相对于相应对象的取向而生成触觉输 出序列的电子设备,以及用户与此类设备的交互。
背景技术
近年来,用户与电子设备的交互显著增强。这些设备可以是诸如电视 机、多媒体设备、移动设备、计算机、平板电脑等的设备。
在一些情况下,用户可能希望从电子设备接收指示电子设备相对于另 一对象的取向的触觉输出序列。增强这些交互可改善用户对设备的使用体 验,并减少用户交互时间,这在输入设备经电池供电的情况下尤为重要。
众所周知,应管理和处理个人可识别信息数据,以使无意或未经授权 的访问或使用的风险最小化,并应当向用户明确说明授权使用的性质。特 别地,使用个人可识别信息应遵循公认为满足或超过维护用户隐私的行业 或政府要求的隐私政策和做法。
发明内容
本公开中描述的一些实施方案涉及响应于检测到电子设备被取向为在 取向范围内而生成触觉输出序列的一个或多个电子设备,该取向范围随着 电子设备和相应对象之间的距离的变化而变化。本公开中描述的一些实施 方案涉及响应于检测到电子设备相对于相应对象的取向变化而改变触觉输 出的一个或多个特征的一个或多个电子设备。本公开中描述的一些实施方 案涉及生成触觉输出的一个或多个电子设备,该触觉输出具有指示电子设 备的相机相对于一个或多个AR(增强现实)平面的取向的特征。本公开中 描述的一些实施方案涉及生成触觉输出的一个或多个第一电子设备,该触 觉输出指示与一个或多个第二电子设备的数据共享过程。
附图说明
为了更好地理解各种所述实施方案,应该结合以下附图参考下面的具 体实施方式,在附图中,类似的附图标号在所有附图中指示对应的部分。
图1A是示出了根据一些实施方案的具有触敏显示器的便携式多功能 设备的框图。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框 图。
图2示出了根据一些实施方案的具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设 备的框图。
图4A示出了根据一些实施方案的便携式多功能设备上应用程序菜单 的示例性用户界面。
图4B示出了根据一些实施方案的具有与显示器分开的触敏表面的多功 能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B是示出了根据一些实施方案的个人电子设备的框图。
图5C至图5D示出了根据一些实施方案的具有触敏显示器和强度传感 器的个人电子设备的示例性部件。
图5E至图5H示出了根据一些实施方案的个人电子设备的示例性部件 和用户界面。
图5I至图5N提供可单独地或组合地、按原样或通过一个或多个变换 (例如调制、放大、截短等)用于在各种情景中为了各种目的(诸如上文 所述的那些以及针对本文讨论的用户界面和方法所述的那些)生成合适触 感反馈的一组样本触觉输出模式。
图6A至图6DD示出了根据本公开的一些实施方案的电子设备响应于 检测到电子设备被取向为在取向范围内而生成触觉输出序列的示例性方 式,该取向范围随着电子设备和相应对象之间的距离的变化而变化。
图7A至图7E是示出根据本公开的一些实施方案的响应于检测到电子 设备被取向为在取向范围内而生成触觉输出序列的方法的流程图,该取向 范围随着电子设备和相应对象之间的距离的变化而变化。
图8A至图8EE示出了根据本公开的一些实施方案的电子设备响应于 检测到电子设备相对于相应对象的取向变化而改变触觉输出的一个或多个 特征的示例性方式。
图9A至图9F是示出根据本公开的一些实施方案的响应于检测到电子 设备相对于相应对象的取向变化而改变触觉输出的一个或多个特征的方法 的流程图。
图10A至图10I示出了根据本公开的一些实施方案的电子设备生成触 觉输出的示例性方式,该触觉输出具有指示电子设备的相机相对于一个或 多个AR(增强现实)平面的取向的特征。
图11A至图11C是示出根据本公开的一些实施方案的生成触觉输出的 方法的流程图,该触觉输出具有指示电子设备的相机相对于一个或多个AR (增强现实)平面的取向的特征。
图12A至图12Q示出了根据本公开的一些实施方案的第一电子设备生 成指示与第二电子设备的数据共享过程的触觉输出的示例性方式。
图13A至图13F是示出根据一些实施方案的生成指示与第二电子设备 的数据共享过程的触觉输出的方法的流程图。
具体实施方式
实施方案的具体实施方式
以下描述阐述了示例性方法、参数等。然而,应当认识到,此类描述 并非意在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
需要生成指示电子设备相对于相应对象的取向的触觉输出序列的电子 设备。此类技术可降低使用此类设备和/或希望控制其对此类设备的使用的 用户的认知负担。此外,此类技术可减少以其他方式浪费在冗余用户输入 上的处理器功率和电池功率。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这 些元件不应受术语的限制。例如,第一触摸可被命名为第二触摸并且类似 地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第 一触摸和第二触摸两者均为触摸,但是它们不是同一触摸。这些术语只是 用于将一个元件与另一元件区分开。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特 定实施方案的目的,而并非旨在进行限制。应当理解,本文中所使用的术 语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任 何和全部可能的组合。还将理解的是,术语“包括”(“includes”、 “including”、“comprises”和/或“comprising”)在本说明书中使用时是 指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排 除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或 其分组。如在对各种所述实施方案中的描述和所附权利要求书中所使用的 那样,单数形式“一个”和“该”旨在也包括复数形式,除非上下文另外 明确地指示。
根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或 事件]”任选地被解释为意指“在确定……时”或“响应于确定……”或 “在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或 事件]”。根据上下文,术语“如果”任选地被解释为意指“当......时”、 “在......时”或“响应于确定”或“响应于检测到”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过 程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/ 或音乐播放器功能的便携式通信设备,诸如移动电话。还应当理解的是, 在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例 如,触摸屏显示器和/或触控板)的台式计算机。任选地使用其他便携式电 子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触控板)的膝上型 电脑或平板电脑。
应当理解,该电子设备任选地包括一个或多个其他物理用户界面设 备,诸如物理键盘、鼠标和/或操纵杆。在下面的讨论中,描述了一种包括 显示器和触敏表面的电子设备。
该设备通常支持各种应用程序,诸如以下中的一者或多者:网页浏览 应用程序、网站创建应用程序、文字处理应用程序、盘编辑应用程序、电 子表格应用程序、游戏应用程序、电话应用程序、绘图应用程序、呈现应 用程序、视频会议应用程序、健身支持应用程序、数字相机应用程序、数 字视频摄像机应用程序、照片管理应用程序、电子邮件应用程序、即时消 息应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对 于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变 化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而 言直观且清楚的用户界面来支持各种应用程序。在设备上执行的各种应用 程序任选地使用至少一个通用的物理用户界面设备,诸如触敏表面。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A 是示出了根据一些实施方案的具有触敏显示器***112的便携式多功能设 备100的框图。设备100包括存储器102(其任选地包括一个或多个计算机 可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、 音频电路110、扬声器111、麦克风113、输入/输出(I/O)子***106、外 围设备接口118、RF电路108、其他输入控制设备116和外部端口124。触 敏显示器112有时为了方便被叫做“触摸屏”,并且有时被称为或被叫做 “触敏显示器***”。设备100任选地包括用于检测设备100(例如,触敏 表面,诸如设备100的触敏显示器***112)上的接触的强度的一个或多个 接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出 的一个或多个触觉输出发生器167(例如,在触敏表面(诸如设备100的触 敏显示器***112或设备300的触控板355)上生成触觉输出)。设备100 任选地包括一个或多个光学传感器164。这些部件任选地通过一个或多个通 信总线或信号线103进行通信。
使用接触强度作为用户输入的属性允许用户访问用户在尺寸更小的设 备上可能本来不能访问的附加设备功能,该尺寸更小的设备具有有限的用 于(例如,经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或 按钮)接收用户输入和/或(例如,在触敏显示器上)显示示能表示的实地 面积。如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的 “强度”是指触敏表面上的接触(例如,手指接触)的力或压力(每单位 面积的力),或是指触敏表面上的接触的力或压力的替代物(代用物)。 接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或 测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器 任选地用于测量触敏表面上的不同点处的力。接触的强度具有值范围,该 值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如, 至少256个)。在一些具体实施中,来自多个力传感器的力测量值被组合 (例如,加权平均)以确定所估计的接触力。类似地,触笔的压敏顶端任 选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的 接触区域的大小和/或其变化、接触附近的触敏表面的电容和/或其变化以及 /或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接 触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度 阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。在一些具 体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈 值(例如,强度阈值以对应于替代物测量的单位来描述)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用 户利用用户的触感检测到的设备相对于设备的先前位置的物理位移、设备 的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物 理位移、或部件相对于设备的质心的位移。在一些情况下,用户将感觉到 触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理 地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动 时。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、 手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输 出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所 感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选 地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。又如, 即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解 释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用 户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共 有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如, “按下点击”、“松开点击”、“粗糙度”)时,除非另外陈述,否则所 生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典 型(或普通)用户的所述感官知觉。
图1A中所示的各种部件以硬件、软件、或硬件与软件两者的组合来 实现,包括一个或多个信号处理和/或专用集成电路。应当理解,设备100 仅仅是便携式多功能设备的一个示例,并且设备100任选地具有比所示出 的部件更多或更少的部件,任选地组合两个或更多个部件,或者任选地具 有这些部件的不同配置或布置。
存储器控制器122任选地控制设备100的其他部件访问存储器102。存 储器102任选地包括高速随机存取存储器,并且还任选地包括非易失性存 储器,诸如一个或多个闪存存储器设备、磁盘存储设备或其他非易失性固 态存储器设备。
一个或多个处理器120运行或执行存储器102中所存储的各种软件程 序和/或指令集以执行设备100的各种功能并处理数据。***设备接口118 可用于将设备的输入***设备和输出***设备耦接到CPU 120和存储器 102。在一些实施方案中,***设备接口118、存储器控制器122和CPU 120任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它 们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送也被称作电磁信号的RF信号。RF电 路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁 信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执 行这些功能的熟知的电路,包括但不限于天线***、RF收发器、一个或多 个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片 组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地包括用于诸 如通过近程通信无线电部件来检测近场通信(NFC)场的熟知的电路。RF电 路108任选地通过无线通信来与网络和其他设备进行通信,这些网络为诸 如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如,蜂窝 电话网络、无线局域网(LAN)和/或城域网(MAN))。无线通信任选地使用 多种通信标准、协议和技术中的任一种,包括但不限于高速上行链路分组 接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双小区 HSPA(DC-HSPDA)、全球移动通信***(GSM)、增强型数据GSM环 境(EDGE)、高速下行链路分组接入(HSDPA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时 分多址(TDMA)、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE802.11ac)、蓝牙、蓝牙 低功耗(BTLE)、互联网协议语音技术(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、用于 即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服 务(IMPS)、短消息服务(SMS)和/或即时消息(例如,可扩展消息收发 和存在协议(XMPP)),或者任何其他合适的通信协议,包括截至本文档 的提交日期时尚未开发的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音 频接口。扬声器111将电信号转换为人类可听到的声波。音频电路110从 ***设备接口118接收音频数据,将音频数据转换为电信号,并将电信号 传输到扬声器111。音频电路110还接收由麦克风113从声波转换的电信 号。音频电路110将电信号转换为音频数据,并且将音频数据传输到*** 设备接口118以用于处理。音频数据任选地由***设备接口118检索自和/ 或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110 还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可 移除音频输入/输出***设备之间的接口,该***设备为诸如仅输出的耳机 或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两 者的耳麦。
I/O子***106将设备100上的输入/输出***设备诸如触摸屏112和 其他输入控制设备116耦接到***设备接口118。I/O子***106任选地包 括显示控制器156、光学传感器控制器158、强度传感器控制器159、触觉 反馈控制器161、和用于其他输入或控制设备的一个或多个输入控制器 160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将 电信号发送到该其他输入控制设备。在一些实施方案中,输入控制器160 任选地耦接到以下各项中的任一者(或不耦接到以下各项中的任一者): 键盘、红外线端口、USB端口,以及指向设备诸如鼠标。一个或多个按钮 (例如,图2中的208)任选地包括用于扬声器111和/或麦克风113音量 控制的增大/减小按钮。该一个或多个按钮任选地包括下压按钮(例如,图 2中的206)。其他输入控制设备116任选地包括物理按钮(例如,下压按 钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击式转盘等。
快速按压下压按钮任选地脱离触摸屏112的锁定,或者任选地开始使 用触摸屏上的手势来对设备进行解锁的过程。长按下压按钮(例如206)任 选地使设备100开机或关机。触摸屏112用于实现虚拟按钮或软按钮以及 一个或多个软键盘。一个或多个按钮的功能任选地为用户可定制的。
触敏显示器112提供设备和用户之间的输入接口和输出接口。触摸屏 112向用户显示视觉输出。在一些实施方案中,一些视觉输出或全部的视觉 输出任选地与用户界面对象对应。视觉输出任选地包括图形、文本、图 标、视频以及它们的任何组合(统称为“图形”)。显示控制器156从触 摸屏112接收电信号和/或将电信号发送到触摸屏112。
触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和 /或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中 断),并且将所检测到的接触转换为与被显示在触摸屏112上的用户界面 对象(例如,一个或多个软键、图标、网页或图像)的交互。触摸屏112 具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器、 或传感器组。在示例性实施方案中,触摸屏112与用户之间的接触点对应 于用户的手指。
触摸屏112和显示控制器156任选地使用现在已知的或以后将开发出 的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与 触摸屏112接触的一个或多个点的其他元件来检测接触及其任何移动或中 断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、 和表面声波技术。在一个示例性实施方案中,使用投影互电容感测技术。 触摸屏112任选地使用LED(发光二极管)技术、LCD(液晶显示器)技 术或LPD(发光聚合物显示器)技术,但在其他实施方案中使用其他显示 技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于多点触敏触 控板。然而,触摸屏112显示来自设备100的视觉输出,而触敏触控板不 提供视觉输出。
用户任选地使用任何合适的物体或附加物诸如触笔、手指等等来与触 摸屏112接触。在一些实施方案中,设备将基于手指的粗略输入转化为精 确的指针/光标位置或命令以用于执行用户所期望的动作。在一些实施方案 中,将用户界面设计为主要通过基于手指的接触和手势来工作,由于手指 在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。触摸 屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活 或去激活特定功能的触控板(未示出)。触控板任选地是与触摸屏112分 开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。在一些实施 方案中,触控板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视 觉输出。
设备100还包括用于为各种部件供电的电力***162。电力***162任 选地包括电力管理***、一个或多个电源(例如,电池、交流电 (AC))、功率转换器或逆变器、电源状态指示器(例如,发光二极管 (LED))、再充电***、电力故障检测电路以及与便携式设备中的电力的 生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接 到I/O子***106中的光学传感器控制器158的光学传感器。光学传感器 164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像 的数据。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物 半导体(CMOS)光电晶体管。结合成像模块143(也叫做相机模块),光学 传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器 位于设备的前部上,使得在用户在触摸屏显示器上查看其他视频会议参与 者的同时任选地获取该用户的图像以用于视频会议。在一些实施方案中, 光学传感器位于设备100的后部上,与设备前部上的触摸屏显示器112相 背对,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景 器。在一些实施方案中,光学传感器164的位置可由用户改变(例如,通 过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏 显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
图1A示出了耦接到I/O子***106中的强度传感器控制器159的接触 强度传感器。设备100任选地还包括一个或多个接触强度传感器165。接触 强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电 气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度 传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。 接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信 息的代用物)。在一些实施方案中,至少一个接触强度传感器位于设备100 的后部上,与位于设备100的前部上的触摸屏显示器112相背对。在一些 实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系 统112)并置排列或邻近。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接 到***设备接口118的接近传感器166。在一些实施方案中,当多功能设备 被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传 感器关闭并且禁用触摸屏112。另选地,接近传感器166任选地耦接到I/O 子***106中的输入控制器160。
图1A示出了耦接到I/O子***106中的触觉反馈控制器161的触觉输 出发生器。设备100任选地还包括一个或多个触觉输出发生器167。触觉输 出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部 件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活 性聚合物、压电致动器、静电致动器或其他触觉输出生成部件(例如,用 于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触 觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设 备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出 发生器传感器位于设备100的后部上,与位于设备100的前部上的触摸屏 显示器112相背对。在一些实施方案中,至少一个触觉输出发生器与触敏 表面(例如,触敏显示器***112)并置排列或邻近,并且任选地通过竖直 地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表 面相同的平面中向后和向前)移动触敏表面来生成触觉输出。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接到 ***设备接口118的加速度计168。另选地,加速度计168任选地耦接到 I/O子***106中的输入控制器160。在一些实施方案中,基于对从一个或 多个加速度计接收的数据的分析来在触摸屏显示器上以纵向视图或横向视 图显示信息。设备100任选地除加速度计168之外还包括磁力仪(未示 出)和GPS(或GLONASS或其他全球导航***)接收器(未示出),以 用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,存储于存储器102中的软件组件包括操作*** 126、应用程序(或指令集)136、通信模块(或指令集)128、接触/运动模 块(或指令集)130、文本输入模块(或指令集)134、图形模块(或指令 集)132和全球定位***(GPS)模块(或指令集)135。此外,在一些实施方 案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如 图1A和图3中所示。设备/全局内部状态157包括以下中的一者或多者: 活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的; 显示状态,其指示什么应用程序、视图或其他信息占据触摸屏显示器112 的各个区域;传感器状态,包括从设备的各个传感器和输入控制设备116 获得的信息;以及关于设备的位置和/或姿态的位置信息。
操作***126(例如,WINDOWS、Darwin、RTXC、LINUX、 UNIX、OS X、iOS或嵌入式操作***诸如VxWorks)包括用于控制和管理 一般***任务(例如,存储器管理、存储设备控制、功率管理等)的各种 软件部件和/或驱动器,并且促进各种硬件部件和软件部件之间的通信。
通信模块128有利于通过一个或多个外部端口124来与其他设备进行 通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数 据的各种软件组件。在一些实施方案中,外部端口为多针(例如,30针) 连接器。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦 接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。
接触/运动模块130任选地检测与触摸屏112(结合显示控制器156) 和其他触敏设备(例如,触控板或物理点击式转盘)的接触。接触/运动模 块130从触敏表面接收接触数据。接触/运动模块130包括各种软件部件以 用于执行与接触检测相关的各种操作,诸如确定是否已经发生了接触(例 如,检测手指按下事件)、确定接触强度(例如,接触的力或压力,或者 接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面 上的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已 经停止(例如,检测手指抬起事件或者接触断开)。确定接触点的移动任 选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度 (量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这 些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触 (例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模 块130和显示控制器156检测触控板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值 来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。 例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的 鼠标“点击”阈值可被设定成预定义的阈值的大范围中的任一个阈值。在 一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如, 强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改变设 备100的物理硬件的情况下被调节)。另外,在一些具体实施中,向设备 的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过 调节各个强度阈值和/或通过利用对“强度”参数的***级点击来一次调节 多个强度阈值)的软件设置。
接触/运动模块130任选地检测由用户进行的手势输入。触敏表面上的 不同手势具有不同的接触模式(例如,所检测到的接触的不同运动、计时 和/或强度)。例如,检测手指轻击手势包括检测手指按下事件,然后在与 手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位 置处)检测手指抬起(抬离)事件。因此,任选地通过检测特定接触模式 来检测手势。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测 手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬 起(抬离)事件。
如本文所用,术语“图形”包括可被显示给用户的任何对象,其非限 制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图 像、视频、动画等。图形模块132包括用于在触摸屏112或其他显示器上 呈现和显示图形的各种已知的软件部件,包括用于改变所显示的图形的视 觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉属性)的部件。
在一些实施方案中,图形模块132存储表示待使用的图形的数据。图 形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码, 在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成 屏幕图像数据,以输出至显示控制器156。每个图形任选地被分配有对应的 代码。
触觉反馈模块133包括用于生成指令的各种软件组件,该指令由触觉 输出发生器167用于响应于用户与设备100的交互而在设备100上的一个 或多个位置处产生触觉输出。
任选地为图形模块132的部件的文本输入模块134提供用于在各种应 用程序(例如,联系人137、浏览器147、IM 141、电子邮件140和需要文 本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置,并提供该信息以供在各种应用程序中 使用(例如提供给相机143作为图片/视频元数据;供给电话138以用于基 于位置的拨号;以及提供给提供基于位置的服务的应用,诸如本地黄页桌 面小程序、天气桌面小程序和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·视频播放器模块;
·音乐播放器模块;
·联系人模块137(有时称为通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:词 典桌面小程序149-5、天气桌面小程序149-1、股市桌面小程序 149-2、闹钟桌面小程序149-4、计算器桌面小程序149-3和由用户 获取的其他桌面小程序,以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块 150;
·搜索模块151;
·视频和音乐播放器模块152,其合并音乐播放器模块和视频播放器 模块;
·记事本模块153;
·地图模块154;以及/或者
·在线视频模块155。
任选地存储在存储器102中的其他应用程序136的示例包括支持 JAVA的应用程序、其他文字处理应用程序、绘图应用程序、呈现应用程 序、其他图像编辑应用程序、加密、数字权益管理、语音识别和语音复 制。
结合触摸屏112、接触/运动模块130、图形模块132、文本输入模块 134和显示控制器156,联系人模块137任选地用于管理通讯录或联系人列 表(例如,存储在存储器102或存储器370中的联系人模块137的应用程 序内部状态192中),包括:将一个或多个姓名添加到通讯录;从通讯录 删除姓名;将电话号码、物理地址、电子邮件地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码或电子邮 件地址来发起和/或促进通过电话138、视频会议模块139、电子邮件140或 IM 141进行的通信;等等。
如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一 种。结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏 112、接触/运动模块130、图形模块132、文本输入模块134和显示控制器 156、电话模块138任选地用于输入与电话号码对应的字符序列、访问联系 人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应 的电话号码、进行会话,以及当会话完成时断开或挂断。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏 112、接触/运动模块130、图形模块132、文本输入模块134、联系人模块 137、电话模块138、显示控制器156、光学传感器控制器158和光学传感 器164、视频会议模块139包括根据用户指令来发起、进行和终止用户与一 个或多个其他参与者之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、接触/运动模块130、图形模块132、 文本输入模块134和显示控制器156,电子邮件客户端模块140包括响应于 用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管 理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机 模块143拍摄的静态图像或视频图像的电子邮件。
如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或 MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE或 IMPS发送的消息)两者。结合RF电路108、触摸屏112、接触/运动模块 130、图形模块132、文本输入模块134和显示控制器156,即时消息模块 141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列、修 改先前输入的字符、传输相应即时消息(例如,使用短消息服务(SMS) 或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用 SIMPLE、XMPP或IMPS以用于基于互联网的即时消息)、接收即时消息 以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时 消息任选地包括图形、照片、音频文件、视频文件和/或MMS和/或增强消 息服务(EMS)中所支持的其他附件。
结合RF电路108、触摸屏112、接触/运动模块130、图形模块132、 文本输入模块134、GPS模块135、地图模块154、显示控制器156和音乐 播放器模块,健身支持模块142包括用于创建健身(例如,具有时间、距 离和/或卡路里燃烧目标)的可执行指令;为健身选择和播放音乐;与健身 传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;以及显示、存储和传输健身数据。
结合触摸屏112、接触/运动模块130、图形模块132、图像管理模块 144、显示控制器156、光学传感器164和光学传感器控制器158,相机模 块143包括用于以下操作的可执行指令:捕获静态图像或视频(包括视频 流)并将它们存储到存储器102中、修改静态图像或视频的特性,或从存 储器102删除静态图像或视频。
结合触摸屏112、接触/运动模块130、图形模块132、文本输入模块 134、显示控制器156和相机模块143,图像管理模块144包括用于排列、 加标签、删除、修改(例如,编辑)或以其他方式操控、呈现(例如,在 数字幻灯片或相册中)以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触摸屏112、接触/运动模块130、图形模块132、 文本输入模块134和显示控制器156,浏览器模块147包括用于根据用户指 令来浏览互联网(包括搜索、链接至、接收和显示网页或其部分,以及链 接至网页的附件和其他文件)的可执行指令。
结合RF电路108、触摸屏112、接触/运动模块130、图形模块132、 文本输入模块134、电子邮件客户端模块140、显示控制器156和浏览器模 块147,日历模块148包括根据用户指令来创建、显示、修改和存储日历以 及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模 块149是任选地由用户下载和使用的微型应用程序(例如,天气桌面小程 序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程 序149-4和词典桌面小程序149-5)或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括 XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程 序)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文 件、CSS(层叠样式表)文件和JavaScript文件。
结合RF电路108、触摸屏112、接触/运动模块130、图形模块132、 文本输入模块134、显示控制器156和浏览器模块147,桌面小程序创建器 模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指定部 分转变为桌面小程序)。
结合触摸屏112、接触/运动模块130、图形模块132、文本输入模块 134和显示控制器156,搜索模块151包括根据用户指令在存储器102中搜 索匹配一个或多个搜索条件(例如,一个或多个用户指定的搜索词)的文 本、声音、音乐、图像、视频和/或其他文件的可执行指令。
在一些实施方案中,设备100任选地包括MP3播放器的功能。结合触 摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路 110、扬声器111、RF电路108、和浏览器模块147,视频和音乐播放器模 块152包括允许用户下载和回放以一种或多种文件格式诸如MP3或AAC 文件存储的所记录的音乐和其他声音文件的可执行指令,以及用于显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124 连接的外部显示器上)的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132 和文本输入模块134,记事本模块153包括用于根据用户指令来创建和管理 待办事项、记事本等的可执行指令。
结合RF电路108、触摸屏112、接触/运动模块130、图形模块132、 文本输入模块134、GPS模块135、浏览器模块147和显示控制器156,地 图模块154任选地用于根据用户指令接收、显示、修改和存储地图以及与 地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店及其他 兴趣点有关的数据,以及其他基于位置的数据)。
结合触摸屏112、接触/运动模块130、图形模块132、音频电路110、 扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140、 浏览器模块147和显示控制器156,在线视频模块155包括用于执行以下操 作的指令:允许用户接收、访问、浏览(例如,通过流式传输和/或下 载)、回放(例如在触摸屏上或在经由外部端口124所连接的外部显示器上)、发送具有至特定在线视频的链接的电子邮件,以及以其他方式管理 一种或多种文件格式诸如H.264的在线视频。在一些实施方案中,使用即 时消息模块141而不是电子邮件客户端模块140来发送特定在线视频的链 接。
上述每个模块和应用程序对应于用于执行上述一种或多种功能以及在 本专利申请中所述的方法(例如,本文所述的计算机实现的方法和其他信 息处理方法)的可执行指令集。这些模块(例如,指令集)不必以独立的 软件程序、过程或模块实现,因此这些模块的各种子集任选地在各种实施 方案中组合或以其他方式重新布置。在一些实施方案中,存储器102任选 地存储上述模块和数据结构的子组。例如,视频播放器模块任选地与音乐 播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块 152)。此外,存储器102任选地存储上文未描述的另外的模块和数据结 构。
通过使用触摸屏和/或触控板作为用于操作设备100的主要输入控制设 备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘 等等)的数量。在一些实施方案中,设备100是该设备上的预定义的一组 功能的操作唯一地通过触摸屏和/或触控板来执行的设备。
唯一地通过触摸屏和/或触控板来执行的预定义的一组功能任选地包括 在用户界面之间的导航。在一些实施方案中,触控板在被用户触摸时将设 备100从设备100上显示的任何用户界面导航到主菜单、home菜单或根菜 单。在一些实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制 设备,而不是触控板。在此类其他实施方案中,使用触控板来实现“菜单 按钮”。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框 图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括相 应的应用程序136-1(例如,前述应用程序137至151、155、380至390中 的任一个应用程序)和事件分类器170(例如,在操作***126中)。
事件分类器170包括事件监视器171和事件分配器模块174。事件分类 器170接收事件信息并确定要将事件信息递送到的应用程序136-1和应用程 序136-1的应用程序视图191。在一些实施方案中,应用程序136-1包括应 用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在 执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在一 些实施方案中,设备/全局内部状态157被事件分类器170用来确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类 器170用来确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下 中的一者或多者:指示正通过应用程序136-1显示的信息或准备好用于通过 该应用程序显示的信息的用户界面状态信息,当应用程序136-1恢复执行时 将被使用的恢复信息,用于使得用户能够返回到应用程序136-1的前一状态 或视图的状态队列,以及用户采取的先前动作的重做/撤销队列。
事件监视器171从***设备接口118接收事件信息。***设备接口118 传输其从I/O子***106或传感器诸如接近传感器166、一个或多个加速度 计168和/或麦克风113(通过音频电路110)接收的信息。事件信息包括关 于子事件(例如,触敏显示器112上的用户触摸,作为多点触摸手势的一 部分)的信息。***设备接口118从I/O子***106接收的信息包括来自触 敏显示器112或触敏表面的信息。
在一些实施方案中,***设备接口118仅当存在显著事件(例如,接 收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输 入)时才传输事件信息。在其他实施方案中,事件监视器171以预先确定 的间隔将请求发送至***设备接口118。作为响应,***设备接口118传输 事件信息。
在一些实施方案中,事件分类器170还包括活动事件识别器确定模块 173和/或命中视图确定模块172。
视图由用户能够在显示器上看到的控件和其他元素构成。当触敏显示 器112显示多于一个视图时,命中视图确定模块172提供用于确定子事件 已在一个或多个视图内的什么地方发生的软件过程。
与应用程序相关联的用户界面的另一方面是一组视图,本文中有时也 称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的 手势。在一些实施方案中,在其中检测到触摸的最低水平视图任选地被称 为命中视图,并且被识别为正确输入的事件集任选地至少部分地基于初始 触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。因此,在其 中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程 序的程序化或视图分级结构内的程序化水平。
当应用程序具有以分级结构组织的多个视图时,命中视图确定模块 172将命中视图识别为应当对子事件进行处理的分级结构中的最低视图。命 中视图确定模块172接收与基于触摸的手势的子事件相关的信息。在大多 数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件 序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中 视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针 对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图 应接收特定子事件序列。在一些实施方案中,活动事件识别器确定模块173 确定包括子事件的物理位置的所有视图都是活跃参与的视图,因此确定所 有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,活动事 件识别器确定模块173确定仅命中视图应接收特定子事件序列。在其他实 施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域, 分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别 器180)。在一些实施方案中,事件分配器模块174在事件队列中存储事件 信息,该事件信息由相应事件接收器182进行检索。在包括活动事件识别 器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由 活动事件识别器确定模块173确定的事件识别器。
在一些实施方案中,操作***126包括事件分类器170。另选地,应 用程序136-1包括事件分类器170。在又一个实施方案中,事件分类器170 是存储在存储器102中的另一个模块(诸如,接触/运动模块130)的一部 分,或者是独立的模块。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一 个或多个应用程序视图191,其中的每一个都包括用于处理发生在应用程序 的用户界面的相应视图内的触摸事件的指令。通常,相应应用程序视图191 包括多个事件识别器180。应用程序136-1的每个应用程序视图191包括一 个或多个事件识别器180。在其他实施方案中,事件识别器180中的一个或 多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包(未示出)或应用程序136-1从中继承方法和其他属性的较高级别的对象。 在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多 者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类 器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新 器176、对象更新器177或GUI更新器178来更新应用程序内部状态192。 另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新 器178中的一者或多者被包括在相应应用程序视图191中。另选地,应用 程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理 程序190。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件 数据179),并且根据事件信息识别事件。在一些实施方案中,事件识别器 180还包括元数据183和事件传递指令188(其任选地包括子事件递送指 令)的至少一个子集。事件识别器180包括事件接收器182和事件比较器 184。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于 子事件例如触摸或触摸移动的信息。当子事件涉及触摸的运动时,事件信 息任选地还包括子事件的速率和方向。根据子事件,事件信息还包括附加 信息,诸如子事件的位置。在一些实施方案中,事件包括设备从一个取向 旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并 且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
在一些实施方案中,事件比较器184包括事件定义186。事件比较器 184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来 确定事件或子事件,或者确定或更新事件或子事件的状态。事件定义186 包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事 件2(187-2)以及其他。在一些实施方案中,事件(187)中的子事件例如包 括触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例 中,事件2(187-2)的定义是在所显示的对象上的拖动。例如,拖动包括 被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112 上的移动、以及触摸的抬离(触摸结束)。在另一个示例中,事件1(187- 1)的定义是在所显示的对象上的双击。例如,双击包括被显示对象上的预 先确定时长的第一触摸(触摸开始)、预先确定时长的第一抬离(触摸结 束)、被显示对象上的预先确定时长的第二触摸(触摸开始)以及预先确 定时长的第二抬离(触摸结束)。在一些实施方案中,事件还包括用于一 个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件比较器184执行命中测试以确定哪个用户界 面对象与子事件相关联。例如,在触敏显示器112上显示三个用户界面对 象的应用程序视图中,当在触敏显示器112上检测到触摸时,事件比较器 184执行命中测试以确定这三个用户界面对象中的哪一个用户界面对象与该 触摸(子事件)相关联。如果每个所显示对象与相应事件处理程序190相 关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190 应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对 象相关联的事件处理程序。在一些实施方案中,事件定义187包括对用于 相应用户界面对象的事件的定义。
在一些实施方案中,相应事件(187)的定义还包括延迟动作,该延迟动 作延迟事件信息的递送,直到已确定子事件序列确实对应于或不对应于事 件识别器的事件类型。
当相应事件识别器180确定子事件序列不与事件定义186中的任何事 件匹配时,该相应事件识别器180进入事件失败、事件不可能或事件结束 状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于 命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续 进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括具有指示事件递送*** 应当如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记 和/或列表的元数据183。在一些实施方案中,元数据183包括指示子事件 是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或 列表。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互 或如何能够交互的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定子事件被识别时,相应 事件识别器180激活与事件相关联的事件处理程序190。激活事件处理程序 190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案 中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序 190。在一些实施方案中,事件识别器180抛出与所识别的事件相关联的标 记,并且与该标记相关联的事件处理程序190获取该标记并执行预定义过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信 息而不激活事件处理程序的子事件递送指令。相反,子事件递送指令将事 件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的 视图。与活跃参与的视图或与子事件系列相关联的事件处理程序接收事件 信息并执行预先确定的过程。
在一些实施方案中,对象更新器177创建并更新在应用程序136-1中 使用的对象。例如,对象更新器177创建新的用户界面对象或更新用户界 面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显 示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。 在一些实施方案中,数据更新器176创建并更新在应用程序136-1中使用的 数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行 更新,或者对视频播放器模块中所使用的视频文件进行存储。
在一些实施方案中,事件处理程序190包括数据更新器176、对象更 新器177和GUI更新器178,或具有对该数据更新器、该对象更新器和该 GUI更新器的访问权限。在其他实施方案中,它们被包括在两个或更多个 软件模块中。在一些实施方案中,数据更新器176、对象更新器177和GUI 更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块 中。
应当理解,关于触敏显示器上的用户触摸的事件处理的上述论述还适 用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是 所有用户输入都是在触摸屏上发起的。例如,口头指令;任选地与单次或 多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触笔输入;触控板 上的接触移动,诸如轻击、拖动、滚动等;设备的移动;检测到的眼睛移 动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要识别 的事件的子事件的输入。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备 100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在本实施 方案以及下文所述的其他实施方案中,用户能够通过例如利用一根或多根 手指202(在图中未按比例绘制)或一支或多支触笔203(在图中未按比例 绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实 施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向 右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动 (从右向左、从左向右、向上和/或向下)。在一些实施方案中,当用户中 断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些 具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如, 当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按 钮204。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏 112上的GUI中的软键。如前所述,菜单按钮204任选地用于导航到任选 地在设备100上被执行的一组应用程序中的任何应用程序136。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使 设备开机/关机和用于锁定设备的下压按钮206、一个或多个音量调节按钮 208、用户身份模块(SIM)卡槽210、耳麦插孔212和对接/充电外部端口 124。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或 多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一 个或多个触觉输出发生器167。下压按钮206任选地用于通过压下该按钮并 且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机; 通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设 备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备 100还通过麦克风113接受用于激活或去激活某些功能的语音输入。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设 备的框图。在一些实施方案中,设备300是膝上型电脑、台式计算机、平 板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩 具)、游戏***或控制设备(例如,家用控制器或工业用控制器)。设备 300不必是便携式的。设备300通常包括一个或多个处理单元(CPU)310、 一个或多个网络或其他通信接口360、存储器370和用于使这些部件互连的 一条或多条通信总线320。通信总线320任选地包括使***部件互连并且控 制***部件之间的通信的电路(有时称作芯片组)。设备300包括具有显 示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接 口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触控板355、 用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于上文 参考图1A所述的触觉输出发生器167)、传感器359(例如,光学传感 器、加速度传感器、接近传感器、触敏传感器和/或接触强度传感器(类似 于上文参考图1A所述的接触强度传感器165))。存储器370任选地包括 远离CPU 310定位的一个或多个存储设备。存储器370包括高速随机存取 存储器,诸如DRAM、SRAM、DDR RAM,或其他随机存取固态存储器设 备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光 盘存储设备、闪存存储器设备或其他非易失性固态存储设备。在一些实施 方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102 中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。 此外,存储器370任选地存储在便携式多功能设备100的存储器102中不 存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地 存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块 386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100 (图1A)的存储器102任选地不存储这些模块。
图3中的上述元素中的每个元素任选地存储于先前提到的存储器设备 的一个或多个存储器设备中。上述模块中的每个模块对应于用于执行上述 功能的指令集。在一些实施方案中,存储器370任选地存储上述模块和数 据结构的子组。此外,存储器370任选地存储上文未描述的附加模块和数 据结构。上述模块或程序(例如,指令集)不必被实现为单独的软件程 序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中 被组合或以其他方式重新布置。
现在将注意力转到任选地在例如便携式多功能设备100上实现的用户 界面的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用程序 菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一 些实施方案中,用户界面400包括以下元件或者其子集或超集:
·无线通信诸如蜂窝信号和Wi-Fi信号的信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有针对常用应用程序的图标的托盘408,该图标诸如:
ο电话模块138的图标416,该图标任选地包括未接来电或语音 信箱的数量的指示符414;
ο电子邮件客户端模块140的图标418,该图标任选地包括未读 电子邮件的数量的指示符410;
ο视频和音乐播放器模块152的图标422;以及
ο浏览器模块147的图标420;以及
·其他应用的图标,诸如:
οIM模块141的图标424;
ο健身支持模块142的图标442;
ο相机模块143的图标430;
ο图像管理模块144的图标428;
ο日历模块148的图标426;
ο天气桌面小程序149-1的图标438;
ο股市桌面小程序149-2的图标434;
ο闹钟桌面小程序149-4的图标440;
ο记事本模块153的图标444;
ο地图模块154的图标436;
ο在线视频模块155的图标432;以及
ο用于设置应用程序或模块的图标446,该图标提供对设备100 及其各种应用程序136的设置的访问。
在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序 图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标 签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触 敏表面451(例如,图3的平板电脑或触控板355)的设备(例如,图3的 设备300)上的示例性用户界面。设备300还任选地包括用于为设备300的 用户生成触觉输出的一个或多个触觉输出发生器357,和/或用于检测触敏 表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359 中的一个或多个传感器)。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的 输入给出以下示例中的一些示例,但是在一些实施方案中,设备检测与显 示器分开的触敏表面上的输入,如图4B中所示。根据这些实施方案,设备 检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于 468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460 和462)。在一些实施方案中,触敏表面(例如,图4B中的451)具有与 显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例 如,图4B中的452)。这样,当触敏表面(例如,图4B中的451)与多功 能设备的显示器(例如,图4B中的450)分开时,由设备在该触敏表面上 检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用 于操纵该显示器上的用户界面。应当理解,类似的方法任选地用于本文所 述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、单指轻击手势、 手指轻扫手势)来给出下面的示例,但是应当理解的是,在一些实施方案 中,这些手指输入中的一个或多个手指输入由来自另一输入设备的输入 (例如,基于鼠标的输入或触笔输入)替代。例如,轻击手势任选地由在 光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测, 之后是停止检测接触)替代。又如,轻扫手势任选地由鼠标点击(例如, 而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的 移动)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多 个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。在一些实施方案中,设备500 可包括相对于设备100和300(例如,图1A至图4B)所述的特征中的一些 或全部特征。设备500包括主体502。在一些实施方案中,设备500具有在 下文中称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充, 设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些 实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触 (例如,触摸)强度的一个或多个强度传感器。触摸屏504(或触敏表面) 的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的 用户界面可基于触摸的强度来对触摸作出响应,这意味着不同强度的触摸 可调用设备500上的不同用户界面操作。
在一些实施方案中,设备500具有一个或多个输入机构506和508。物 理输入机构的示例包括下压按钮和可旋转机构。输入机构506和508(如果 包括的话)可以是物理形式的。在一些实施方案中,设备500具有一个或 多个附接机构。这些附接机构允许用户穿戴设备500。此类附接机构(如果 包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹 克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。
图5B示出了示例性个人电子设备500。在一些实施方案中,设备500 可包括参考图1A、图1B和图3所述的部件中的一些或全部部件。设备500 可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入 设备或者可按压输入设备以及可旋转输入设备。在一些示例中,输入机构 508任选地是按钮。设备500具有总线512,该总线将I/O部分514与一个 或多个计算机处理器516和存储器518操作性地耦接。I/O部分514可连接 到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器 524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连 接,用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术 来接收应用程序和操作***数据。
个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加 速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作地连接到I/O部分514。在一些示 例中,输入机构508任选地是麦克风。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的 一个或多个非暂态计算机可读存储介质,该计算机可执行指令当由一个或 多个计算机处理器516执行时例如可使得计算机处理器执行下文所述技 术,包括过程700、900、1100、和1300(图7、图9、图11、图13)。在 一些示例中,存储介质是暂态计算机可读存储介质。在一些示例中,存储介质是非暂态计算机可读存储介质。非暂态计算机可读存储介质可包括但 不限于磁存储装置、光学存储装置、和/或半导体存储装置。此类存储装置 的示例包括磁盘、基于CD、DVD或蓝光技术的光盘,以及持久性固态存 储器诸如闪存、固态驱动器等。计算机可读存储介质可以是可有形地包含 或存储计算机可执行指令以供指令执行***、装置和设备使用或与其结合 的任何介质。个人电子设备500不限于图5B的部件和配置,而是可包括多 种配置中的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选地在设备100、300和/或500 (图1A、图3和图5A至图5B)的显示屏上显示的用户交互式图形用户界 面对象。例如,按钮、图像(例如,图标)和文本(例如,超链接)任选 地各自构成示能表示。
如本文所用,术语“焦点选择器”是指用于指示用户正与之进行交互 的用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具 体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素 (例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例 如,图3中的触控板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被 调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的 另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例 如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在 这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动 而移动。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的 触摸屏显示器(例如,图1A中的触敏显示器***112或图4A中的触摸屏 112)的一些具体实施中,在触摸屏上所检测到的接触充当“焦点选择 器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗 口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行 的按压输入)时,该特定用户界面元素根据所检测到的输入而被调节。不 考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便 递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用 户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接 触)。例如,在触敏表面(例如,触控板或触摸屏)上检测到按压输入 时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将 指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元 素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指 基于接触的一个或多个强度的接触的特征。特征强度任选地基于相对于预 定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到 接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度 增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确 定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10 秒)期间采集的预定义数量的强度样本或一组强度样本。在一些实施方案 中,特征强度基于多个强度样本。接触的特征强度任选地基于以下各项中 的一者或多者:接触的强度的最大值、接触的强度的平均值、接触的强度 的均值、接触的强度的前10%处的值、接触的强度的半最大值、接触的强 度的90%最大值等。在一些实施方案中,将特征强度与一组一个或多个强 度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强 度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度 未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超 过第二强度阈值的接触导致第二操作,而特征强度超过第二阈值的接触导 致第三操作。在一些实施方案中,在确定特征强度时使用接触的持续时间 (例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方 案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个 或多个操作(例如,是执行相应操作还是放弃执行相应操作)而不是用于 确定执行第一操作还是第二操作。
图5C示出了利用多个强度传感器524A-524D检测触敏显示屏504上 的多个接触552A-552E。图5C还包括强度图,其相对于强度单位示出了强 度传感器524A-524D的当前强度测量值。在该示例中,强度传感器524A 和524D的强度测量值均是9个强度单位,并且强度传感器524B和524C 的强度测量值均是7个强度单位。在一些具体实施中,累积强度是多个强 度传感器524A-524D的强度测量值之和,在该示例中是32个强度单位。在 一些实施方案中,每个接触都被分配了相应强度,即累积强度的一部分。 图5D示出了基于其与力554中心的距离而向接触552A-552E分配累积强 度。更一般地,在一些具体实施中,每个接触j都根据预定义的数学函数Ij =A·(Dj/ΣDi)被分配相应强度Ij,其为累积强度A的一部分,其中Dj是相 应接触j距力中心的距离,并且ΣDi是所有相应接触(例如,i=1到最后) 距力中心的距离之和。在该示例中,接触552A、552B和552E中的每个接 触都被分配以累积强度的8个强度单位的接触的强度,并且接触552C和 552D的中每个接触都被分配以累积强度的4个强度单位的接触的强度。可 以利用类似于或等同于设备100、300或500的电子设备执行参考图5C-图 5D所述的操作。在一些实施方案中,强度传感器用于确定单个特征强度 (例如,单个接触的单个特征强度)。在一些实施方案中,接触的特征强 度基于接触的一个或多个强度。应当指出,强度图不是所显示用户界面的 部分,而是包括在图5C-图5D中以辅助读者。
在一些实施方案中,在确定接触的特征强度之前任选地向轻扫接触的 强度应用平滑算法。例如,平滑化算法任选地包括以下各项中的一种或多 种:三角平滑化算法、不加权滑动平均平滑化算法、中值滤波器平滑化算 法和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触 的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。在一些实施方 案中,识别手势的一部分以用于确定特征强度。例如,触敏表面任选地接 收连续的轻扫接触,该连续的轻扫接触从起始位置过渡并到达结束位置, 在该结束位置处,接触强度增加。在该示例中,接触在结束位置处的特征 强度任选地仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如, 仅结束位置处的轻扫接触的部分)。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强 度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上 的接触强度。在一些实施方案中,深按压强度阈值对应于这样的强度:在 该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作 不同的操作。在一些实施方案中,轻按压强度阈值对应于这样的强度:在 该强度下设备将执行通常与点击物理鼠标或触控板的按钮相关联的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且 高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再被检 测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择 器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来 讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一 致的。
接触特征强度从低于深按压强度阈值的强度增大到高于深按压强度阈 值的强度有时被称为“深按压”输入。接触特征强度从低于轻按压强度阈 值的强度增大到介于轻按压强度阈值与深按压强度阈值之间的强度有时被 称为“轻按压”输入。接触特征强度从高于接触检测强度阈值的强度减小 到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面抬离。 接触特征强度从低于接触检测强度阈值的强度增大到介于接触检测强度阈 值与轻按压强度阈值之间的强度有时被称为检测到触摸表面上的接触。在 一些实施方案中,接触检测强度阈值为零。在一些实施方案中,接触检测 强度阈值大于零。
在本文中所述的一些实施方案中,响应于检测到包括相应按压输入的 手势或响应于检测到利用相应接触(或多个接触)执行的相应按压输入来 执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触) 的强度增大到高于按压输入强度阈值而检测到相应按压输入。在一些实施 方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及 该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应 接触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上 冲程”)来执行相应操作。在一些实施方案中,响应于检测到相应接触的 强度增大到高于按压输入强度阈值(例如,相应按压输入的“向下冲 程”)来执行相应操作。
图5E-图5H示出了对手势的检测,手势包括与接触562的强度从低于 图5E中的轻按压强度阈值(例如,“ITL”)的强度增大到高于图5H中的 深按压强度阈值(例如,“ITD”)的强度对应的按压输入。在所显示的包 括预定义区域574中显示的应用图标572A-572D的用户界面570上,在与 应用2对应的应用图标572B上方显示光标576时,在触敏表面560上检测利用接触562执行的手势。在一些实施方案中,在触敏显示器504上检测 到手势。强度传感器检测触敏表面560上的接触的强度。在触敏表面560 上保持接触562。该设备确定接触562的强度在深按压强度阈值(例如, “ITD”)以上达到峰值。在一些实施方案中,与一个或多个强度阈值相 比,强度是接触的特征强度。响应于检测到手势,并且根据在手势期间强 度升高到深按压强度阈值(例如,“ITD”)以上的接触562,显示最近为 应用2打开的文档的缩比表示578A-578C(例如,缩略图),如图5F-图 5H所示。应当指出,针对接触562的强度图不是所显示用户界面的部分, 而是包括在图5E-图5H中以辅助读者。
在一些实施方案中,表示578A-578C的显示包括动画。例如,表示 578A一开始显示于应用图标572B的附近,如图5F所示。表示578A-578C 在图标572B上方形成阵列。随着动画的进行,表示578A向上移动,并在 应用图标572B附近显示表示578B,如图5G中所示。然后,表示578A向 上移动,578B朝表示578A向上移动,并且在应用图标572B附近显示表示 578C,如图5H中所示。在一些实施方案中,动画根据接触562的强度进 展,如图5F-图5G中所示,其中表示578A-578C出现并随着接触562的强 度向深按压强度阈值(例如,“ITD”)增大而向上移动。在一些实施方案 中,动画进展所依据的强度是接触的特征强度。可以利用类似于或等同于 设备100、300或500的电子设备执行参考图5E至图5H所述的操作。
在一些实施方案中,设备采用强度滞后以避免有时被称为“抖动”的 意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞 后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位, 或滞后强度阈值是按压输入强度阈值的75%、90%或某个合理比例)。在 一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的 强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测 到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相 应操作。在一些实施方案中,按压输入包括相应接触的强度增大到高于按 压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈 值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞 后强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。
为了容易解释,任选地,响应于检测到以下各种情况中的任一种情况 而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压 输入的手势而执行的操作的描述:接触的强度从低于滞后强度阈值的强度 增大到高于按压输入强度阈值的强度,接触的强度增大到高于按压输入强 度阈值,接触的强度减小到低于与按压输入强度阈值对应的滞后强度阈 值,和/或接触的强度减小到低于按压输入强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例 中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入 强度阈值的滞后强度阈值来执行操作。
在一些实施方案中,电子设备500包括一个或多个触觉输出发生器, 其中该一个或多个触觉输出发生器生成不同类型的触觉输出序列,如下表1 所述。当设备(例如经由移动可移动质块生成触觉输出的一个或多个触觉 输出发生器)生成具有不同触觉输出模式的触觉输出时,触觉输出可在握 持或触摸设备的用户中产生不同触感。虽然用户的感官基于用户对触觉输 出的感知,但大多数用户将能够识别设备生成的触觉输出的波形、频率和幅值的变化。在一些实施方案中,由该设备的一个或多个触觉输出发生器 生成的特定类型的触觉输出序列对应于特定的触觉输出模式。例如,触觉 输出模式指定触觉输出的特性,诸如触觉输出的幅值、触觉输出的运动波 形的形状、触觉输出的频率和/或触觉输出的持续时间。
更具体地讲,图5I至图5K提供可单独地或组合地、按原样或通过一 种或多种转换(例如调制、放大、截断等)用于在各种情景中为了各种目 的(诸如上文所述的那些以及相对于本文论述的用户界面和方法所述的那 些)形成合适触感反馈的一组样本触觉输出模式。除了这些图中所示的触 觉输出模式之外,任选地通过改变触觉输出模式的增益值来在幅值方面调 整这些触觉输出模式中的每一者,如图所示,例如对于图5L至图5N中的FullTap 80Hz、FullTap 200Hz、MiniTap 80Hz、MiniTap 200Hz、MicroTap 80Hz和MicroTap200Hz,它们各自被示为具有1.0、0.75、0.5和0.25的增 益的变体。触觉输出的控制板的这个示例显示一组三个波形和八个频率可 如何被用于生成触觉输出模式的阵列。如图5L至图5N所示,改变触觉输 出模式的增益改变模式的幅值,而不改变模式的频率或改变波形的形状。 在一些实施方案中,改变触觉输出模式的频率还导致较低幅值,因为一些 触觉输出发生器受限于多少力可被施加于可移动质块,因此质块的较高频 率移动被约束到较低幅值以确保形成波形所需要的加速不需要触觉输出发 生器的操作力范围之外的力(例如,230Hz、270Hz和300Hz的FullTap的 峰值幅值比80Hz、100Hz、125Hz和200Hz的FullTap的幅值低)。
图5I至图5N示出了具有特定波形的触觉输出模式。触觉输出模式的 波形表示相对于中性位置(例如Xzero)的物理位移与时间的图案,可移动 质块通过所述图案以生成具有该触觉输出模式的触觉输出。图5I至图5N 所示的示例性波形包括代表可移动质块的最大和最小移动程度的Xmin和 Xmax值。对于可移动质块较大的较大电子设备,该质块的最小和最大移动 程度可以更大或更小。图5I至图5N所示的实施例描述一维中质块的移 动,但是类似的原理也可适用于二维或三维中可移动质块的移动。例如, 图5I所示的第一组触觉输出模式(例如,“FullTap”的触觉输出模式)每 一个都具有包括具有两个完整循环的振荡(例如,开始且结束于中性位置 且穿过中性位置三次的振荡)的波形。图5J所示的第二组触觉输出模式 (例如,“MiniTap”的触觉输出模式)每一个都具有包括具有一个完整循 环的振荡(例如,开始且结束于中性位置且穿过中性位置一次的振荡)的 波形。图5K所示的第三组触觉输出模式(例如“MicroTap”的触觉输出模 式)每一个都具有包括含半个完整循环的振荡(例如开始且结束于中性位 置且不穿过中性位置的振荡)的波形。触觉输出模式的波形还包括表示在 触觉输出开始和结束处可移动质块的逐渐加速和减速的起始缓冲和结束缓 冲。
如图5I至图5K所示,每个触觉输出模式还具有对应的特征频率,其 影响用户从具有该特征频率的触觉输出感觉到的触感的“节距”。对于离 散触觉输出,生成离散输出信号(例如具有0.5、1、或2个循环),并且 特征频率值指定可移动质块需要移动多快以生成具有该特征频率的触觉输 出。对于连续触觉输出,特征频率表示触觉输出发生器的可移动质块在给 定时间段内完成的循环(例如每秒循环)的数量。如图5I至图5N所示, 对于每种类型的触觉输出(例如由相应波形限定,诸如FullTap、MiniTap 或MicroTap),较高频率值对应于可移动质块的较快移动,因此一般而 言,对应于较短的触觉输出完成时间(例如包括完成离散触觉输出的所需 循环数量的时间加上起始和结束缓冲时间)。例如,特征频率为80Hz的 FullTap比特征频率为100Hz的FullTap花更长时间完成(例如在图5I中, 35.4ms与28.3ms)。此外,对于给定频率,在相应频率在其波形中具有更 多循环的触觉输出比在相同相应频率在其波形中具有更少循环的触觉输出 花更长时间完成。例如,150Hz的FullTap比150Hz的MiniTap花更长时间 完成(例如19.4ms vs.12.8ms),150Hz的MiniTap比150Hz的MicroTap 花更长时间完成(例如12.8ms vs.9.4ms)。然而对于具有不同频率的触觉 输出模式,这个规则可能不适用(例如,具有更多循环但具有更高频率的 触觉输出可能比具有更少循环但具有更低频率的触觉输出花更短的时间量 完成,反之亦然)。例如,在300Hz,FullTap与MiniTap花同样长的时间 (例如9.9ms)。
如图5I至图5K所示,触觉输出模式还具有特征幅值,其影响触觉信 号中包含的能量的量,或者用户通过具有该特征幅值的触觉输出可感觉到 的触感的“强度”。在一些实施方案中,触觉输出模式的特征幅值可根据 (例如基于用户界面情境和行为自定义的)各种条件和/或预先配置的度量 (例如基于输入的度量、和/或基于用户界面的度量)调节,例如通过固定 或动态确定的增益系数(例如介于0和1之间的值)来调节。在一些实施 方案中,触觉输出模式的特征幅值是指表示在生成触觉输出时可移动质块 相对于中性位置的最大位移的绝对值或归一化值。在一些实施方案中,基 于用户界面的度量(例如跨边界速度度量)测量在触发生成触觉输出的用 户界面改变期间用户界面元素的特征(例如该元素在用户界面中穿过隐藏 或可见边界的移动速度)。在一些实施方案中,基于输入的度量(例如强度变化度量或输入速度度量)测量在触发生成触觉输出的输入期间该输入 的特征(例如按压输入中接触的特征强度的改变速率或接触在触敏表面上 的移动速率)。在一些实施方案中,触觉输出模式的特征幅值可被“包 络”调制,并且相邻循环的峰值可具有不同幅值,其中以上所示波形之一 通过乘以随时间改变(例如从0变到1)的包络参数来进一步修改,以在生 成触觉输出时随着时间逐渐调节触觉输出的部分的幅值。
虽然在图5I至图5K中为了例示目的说明在样本触觉输出模式中表示 了特定幅值、频率和波形,但具有其他幅值、频率和波形的触觉输出模式 也可用于类似目的。也可使用60Hz-400Hz范围中的其他频率。例如,可使 用具有介于0.5到4个循环之间的波形。下表1提供触觉输出/触觉反馈行 为和配置的代表性实施例,以及它们关于用于管理本文所示和所述的基于 内容的触觉输出的用户界面的使用的实施例。
Figure BDA0003484611070000371
表1
在一些实施方案中,下载的应用利用安装程序而变为已安装的应用, 安装程序从下载的软件包提取程序部分并将提取的部分与计算机***的操 作***集成。如本文所用,“已安装的应用”是指已下载到电子设备(例 如,设备100、300和/或500)上并准备好在设备上启动(例如,变为打 开)的软件应用。
如本文所用,术语“执行中的应用”或“打开的应用”是指具有保持 状态信息(例如,作为设备/全局内部状态157和/或应用内部状态192的一 部分)的软件应用。打开的或执行中的应用是任选地以下类型的应用中的 任一者:
·当前显示于正使用应用的设备的显示屏上的活动应用;
·没有运行但具有被存储在存储器(分别有易失性和非易失性的) 中并可用于恢复应用程序的执行的状态信息的暂停的或休眠的应 用程序;以及
·后台应用(或后台进程),其当前未显示但该应用的一个或多个 进程正由一个或多个处理器处理。
一般来讲,当在第一应用中时,打开第二应用并不关闭第一应用。在 显示第二应用并且第一应用停止显示时,第一应用变为后台应用。如本文 所用,术语“关闭的应用”是指不具有保持状态信息的软件应用(例如, 关闭的应用的状态信息不被存储在设备的存储器中)。因此,关闭应用包 括停止和/或移除应用的应用进程以及从设备的存储器移除应用的状态信 息。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300 或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方 案。
用户界面和相关联的过程
生成在相对于到相应对象的距离而改变的取向范围内的触觉输出
用户以多种不同的方式与电子设备交互,包括使用电子设备来定位相 应对象。下文所述的实施方案提供了电子设备生成指示电子设备相对于相 应对象的取向范围的触觉输出的方式,其中该取向范围随着电子设备和相 应对象之间的距离的变化而变化。增强与设备的交互降低了用户执行操作 所需的时间量,从而降低了设备的用电量并延长了电池供电设备的电池寿 命。应当理解,人们使用设备。当人使用设备时,这个人任选地被称为设备的用户。
图6A至图6DD示出了根据本公开的一些实施方案的电子设备500响 应于检测到电子设备500被取向为在取向范围内而生成触觉输出序列的示 例性方式,该取向范围随着电子设备500和相应对象之间的距离的变化而 变化。这些附图中的实施方案用于示出下文描述的过程,包括参考图7A至 图7E描述的过程。
图6A至图6F示出了电子设备500针对随着电子设备500与智能锁 602之间的距离变小而变小的取向范围生成触觉输出序列。在图6A中,电 子设备500被取向为朝向智能锁602。电子设备500与智能锁602通信并且 能够与智能锁交互(例如,锁定或解锁)。当电子设备500被取向朝向智 能锁并且未移动时,电子设备500不生成指示智能锁602的触觉输出序列,因为电子设备500未移动。
如图6B所示,一旦电子设备500移动,诸如在由用户执行的扫描运动 (例如,左右扫描运动)中移动。响应于检测到电子设备500正在移动并 且被取向为朝向智能锁602而且距智能锁602特定距离,电子设备500生 成触觉输出序列604(例如,表1中所述的“次要”触觉输出)。触觉输出 序列604是连续纹理触觉输出,其频率或节距对应于电子设备500与智能 锁602之间的距离。
在图6C中,虽然电子设备500与智能锁602的距离与图6B所示的距 离相同,但电子设备500被取向为相对于直接面向智能锁602成角度θ。角 度θ在图6C所示的距离处的角度范围内,电子设备500针对该角度范围生 成与智能锁602相关联的触觉输出序列。因此,电子设备500继续生成上 文参考图6B所述的触觉输出序列604。
如图6D所示,电子设备500移动得更靠近智能锁602,同时相对于智 能锁602以角度θ取向。在图6D所示的距智能锁602的距离处,当电子设 备500和智能锁602之间的取向角度为θ时,电子设备500停止生成触觉输 出序列,因为在图6D所示的距离处,角度θ在电子设备500生成指示智能 锁602的触觉输出的取向范围内。
在图6E中,电子设备500改变其相对于智能锁602的取向,同时与智 能锁602保持与图6D所示的距离相同的距离。当电子设备500被取向为相 对于智能锁602成小于图6D所示的角度θ的角度Φ时,电子设备500生成 与电子设备相对于智能锁602的距离和取向相关联的触觉输出序列604(例 如,上文参考表1所述的“次要”触觉输出序列)。触觉输出序列604是 连续纹理触觉输出序列,其具有与电子设备500和智能锁602之间的距离 相关联的频率或节距。
图6E中所示的触觉输出序列604的频率高于图6C中所示的触觉输出 序列604的频率。因此,连续纹理触觉输出序列604的频率随着电子设备 500与智能锁602之间的距离减小而增大。电子设备500生成触觉输出序列 604所针对的角度范围随着电子设备500与智能锁602之间的距离减小而减 小。
如图6F所示,电子设备500在被取向为直接朝向智能锁602时继续生 成触觉输出604。在图6F中,电子设备500距智能锁602的距离与图6E所 示的电子设备500和智能锁602之间的距离相同。因此,电子设备500生 成与图6E所示的触觉输出序列604相同的连续纹理触觉输出序列604。
图6G至图6J示出了电子设备500针对随着电子设备500与智能锁 602之间的距离变小而变大的取向范围生成触觉输出序列。在图6G中,电 子设备500被取向为朝向导航目的地606。响应于检测到电子设备500相对 于导航目的地606的取向和距离,电子设备500生成触觉输出序列,诸如 连续纹理触觉输出序列(例如,如上文参考表1所述的“次要”触觉输出 序列)。
在图6H中,电子设备500改变取向,使得在电子设备500和导航目的 地606之间成θ角。如图6H所示,电子设备500不会响应于电子设备相对 于导航目的地606的取向和距离而生成触觉输出序列,因为角度θ在电子 设备500在图6H所示的距导航目的地606的距离处针对其生成触觉响应的 取向范围之外。
在图6I中,电子设备500距导航目的地606的距离小于图6H所示的 距离。电子设备500被取向为与导航目的地606成角度θ。响应于图6I中 所示的电子设备500相对于导航目的地606的距离和取向,电子设备500 生成触觉输出序列(例如,参考表1所讨论的“次要”触觉输出序列)。 该触觉输出序列是连续纹理触觉输出序列。电子设备在图6I中生成触觉输出,因为在图6I所示的距离处,角度θ被包括在电子设备500针对其生成 指示导航目的地606的触觉输出的取向范围内。
在图6J中,电子设备500在导航目的地606的预先确定的阈值距离内 (例如,电子设备500已到达导航目的地606)。响应于图6J中所示的电 子设备500相对于导航目的地606的距离和取向,电子设备500生成与上 文参考图6I所述的触觉输出不同的触觉输出。例如,电子设备生成离散触 觉输出(例如,上文参考表1所述的“主要”触觉输出)。
图6K至图6N示出了电子设备500响应于电子设备相对于通往导航目 的地606的路径的取向而生成触觉输出序列。在图6K中,电子设备500在 显示器504上呈现地图用户界面。该地图用户界面包括地图608,该地图示 出从电子设备500的位置608到导航目的地606的位置610的路径。如图 6K所示,当电子设备500在该路径上而且被取向为沿着通往导航目的地 606的路径时并且当电子设备500正在移动(例如,用户正在扫描运动诸如 左右扫描运动中移动电子设备500)时,电子设备500生成触觉输出。该触 觉输出指示电子设备500正遵循通往导航目的地606的路径。该触觉输出 是连续纹理触觉输出(例如,上文参考表1所述的“次要”触觉输出)。
如图6L所示,当电子设备500不在该路径上并且因此未被取向为沿着 通往导航目的地606的路径时,电子设备500不生成触觉输出。如图6L所 示,电子设备在地图用户界面中的当前位置的指示608已移动以反映电子 设备500的位置和取向(例如,位于通往导航目的地606的路径的左 侧)。
在图6M中,电子设备500在该路径上并且被取向为沿着通往导航目 的地606的路径,同时未移动。因为电子设备500未移动,所以即使电子 设备500被取向为朝向通往导航目的地606的路径,电子设备500也不生 成触觉输出。
在图6N中,电子设备500被取向为朝向导航目的地606。电子设备 500在地图用户界面中的位置和取向的指示608反映电子设备500被取向为 朝向导航目的地606,但不沿着通往导航目的地606的路径。因为电子设备 500未被取向为沿着通往导航目的地的路径,所以即使电子设备500正在移 动(例如,用户正在扫描运动中移动电子设备500),电子设备500也不生 成触觉输出。
图6O至图6P示出了电子设备500响应于电子设备500在三个维度中 相对于导航目的地606的取向而生成触觉输出。在图6O中,电子设备500 被取向为在三个维度(例如,x、y和z)上朝向导航目的地606。响应于电 子设备相对于导航目的地606的取向,电子设备500生成触觉输出(例 如,上文参考表1所述的“次要”触觉输出)。
在图6P中,电子设备500被取向为在两个维度(例如,x和y)上而 不在第三维度(例如,z)上朝向导航目的地606。由于电子设备500响应 于被取向为在三个维度中朝向导航目的地606而生成触觉输出序列,因此 当电子设备500未被取向为在三个维度中的一个维度中朝向导航目的地606 时,电子设备500放弃生成触觉输出序列。
图6Q示出了电子设备500响应于电子设备500在三个维度中的两个维 度(例如,x和y,但没有z)上面向导航目的地606的取向而生成触觉输 出序列。电子设备500生成连续纹理触觉输出(例如,上文参考表1所述 的“次要”触觉输出),因为电子设备500被取向为在两个维度(例如,x 和y)上朝向导航目的地606。
图6R至图6W示出了电子设备500在电子设备500的取向移动得更靠 近面向导航目的地606时改变纹理触觉输出序列的幅值或强度。如图6R至 图6W所示,电子设备500响应于检测到电子设备500的取向是面向导航目 的地606而生成离散触觉输出。
在图6R至图6S中,当电子设备500的取向移动得更靠近面向导航目 的地606时,电子设备500增加该纹理触觉输出序列的幅值或强度。如图 6R所示,当电子设备500被取向为相对于导航目的地606成角度θ时,电 子设备500生成连续纹理触觉输出(例如,参考表1所述的“次要”触觉 输出)。在图6S中,电子设备500被取向为相对于导航目的地606成角度Φ。角度Φ小于角度θ,并且如图6S所示,当电子设备500与导航目的地 606之间的角度为Φ时,触觉输出序列604的幅值或强度大于图6R所示的 触觉输出序列604的幅值或强度。
如图6T所示,在生成具有随着电子设备500和导航目的地606之间的 角度减小而增大的幅值或强度的纹理触觉输出之后,电子设备500响应于 检测到电子设备500被取向为朝向导航目的地606而生成离散触觉输出604 (例如,上文参考表1所述的“主要”触觉输出)。
在图6U至图6V中,当电子设备500的取向移动得更靠近面向导航目 的地606时,电子设备500减小该纹理触觉输出序列的幅值或强度。如图 6U所示,当电子设备500被取向为相对于导航目的地606成角度θ时,电 子设备500生成连续纹理触觉输出(例如,参考表1所述的“次要”触觉 输出)。在图6V中,电子设备500被取向为相对于导航目的地606成角度Φ。角度Φ小于角度θ,并且如图6V所示,当电子设备500与导航目的地 606之间的角度为Φ时,触觉输出序列604的幅值或强度小于图6U所示的 触觉输出序列604的幅值或强度。
如图6W所示,在生成具有随着电子设备500和导航目的地606之间 的角度减小而减小的幅值或强度的纹理触觉输出之后,电子设备500响应 于检测到电子设备500被取向为朝向导航目的地606而生成离散触觉输出 604(例如,上文参考表1所述的“主要”触觉输出)。
在图6X至图6Y中,电子设备500响应于被取向为朝向不同类型的对 象而生成具有不同纹理的触觉输出。在图6X中,电子设备500被取向为朝 向导航目的地606。响应于电子设备朝向导航目的地606的取向,电子设备 500生成触觉输出604,该触觉输出包括周期性离散触觉输出(例如,上面 参考表1所述的周期性“主要”触觉输出)。
在图6Y中,电子设备500被取向为朝向另一电子设备612。响应于电 子设备朝向另一电子设备612的取向,电子设备500生成连续纹理触觉输 出604(例如,上文参考表1所述的“次要”触觉输出)。因此,如图6X 至图6Y所示,电子设备500生成具有不同纹理的触觉输出序列,该不同纹 理指示电子设备500被取向为朝向的对象的类型。
图6Z至图6DD示出了电子设备500响应于显示器504上显示的控制 元素614相对于对象616的取向而生成触觉输出604。如图6Z所示,电子 设备500在显示器504上呈现控制元素614。用户能够移动控制元素614以 限定电子设备500相对于对象616的角度和/或距离。对象616包括与电子 设备500通信的收发器,以使电子设备500能够确定对象500的位置,从而生成指示对象616的位置的触觉输出。在图6Z中,控制元素614的取向 是不指向对象616的角度,因此电子设备500放弃生成触觉输出。
在图6AA中,用户(例如,利用接触603)选择控制元素以将控制元 素移动到不同取向。在图6BB中,响应于图6AA中所示的用户输入,电子 设备500将控制元素614移动到朝向对象616的取向。响应于控制元素的 取向,电子设备500生成触觉输出604(例如,上文参考表1所述的“次 要”触觉输出)。触觉输出604是具有对应于由控制元素614表示的距电 子设备500的距离的幅值或强度的连续纹理触觉输出。如图6BB所示,用 户(例如,利用接触603)选择控制元素603以将控制元素614移动到表示 距电子设备500的较短距离的位置。
响应于图6BB所示的用户输入,电子设备500在表示距电子设备500 较短距离的新位置处呈现控制元素614,如图6CC所示。响应于由图6CC 中的控制元素614表示的距离,电子设备500生成连续纹理触觉输出604 (例如,上文参考表1所述的“次要”触觉输出)。图6CC所示的触觉输 出604具有比图6BB所示的触觉输出604的幅值或强度更大的幅值或强 度。这是因为,图6CC中由控制元素614表示的距离比图6DD中由控制元 素表示的距离更靠近电子设备500和对象616之间的距离。如图6CC所 示,用户(例如,利用接触603)选择控制元素614以调节由控制元素614 表示的距电子设备500的距离。
在图6DD中,电子设备500生成触觉输出604(例如,上面参考表1 所述的“主要”触觉输出),该触觉输出指示由控制元素614表示的电子 设备500的取向和距离对应于对象616的位置。图6DD中所示的触觉输出 604是周期性离散触觉输出的序列,其指示控制元素614的取向和距离对应 于对象616。
图7A至图7E是示出根据本公开的一些实施方案的响应于检测到电子 设备被取向为在取向范围内而生成触觉输出序列的方法的流程图,该取向 范围随着电子设备和相应对象之间的距离的变化而变化。方法700任选地 在电子设备(诸如设备100、设备300、设备500)上执行,如上文参考图 1A-图1B、图2-图3、图4A-图4B和图5A-图5H所述。方法700中的一些 操作任选地被组合,和/或一些操作的次序任选地被改变。
如下所述,方法700提供了用于生成触觉反馈的方式,该触觉反馈指 示随着电子设备和相应对象之间的距离的变化而变化的取向范围。该方法 减少了用户在与本公开的设备用户界面交互时的认知负担,从而创建了更 有效的人机界面。对于电池驱动的电子设备,提高用户与用户界面交互的 效率节省了电力并且增加了电池充电之间的时间。
在一些实施方案中,诸如在图6B中,与一个或多个输入设备通信的电 子设备(例如,电子设备500,与触摸屏、加速度计、运动传感器和/或位 置传感器(例如,GPS等)中的一者或多者通信的移动设备(例如,平板 电脑、智能电话、媒体播放器或可穿戴设备))经由该一个或多个输入设 备接收(702)对应于相对于第一对象602的取向范围的一个或多个输入的 序列(例如,利用该加速度计、位置传感器和运动传感器中的一者或多者 检测电子设备相对于第一对象的取向和/或距离,和/或电子设备相对于第一 对象的取向和/或距离的变化)。例如,第一对象是在电子设备上运行的导 航应用程序的目的地,并且该一个或多个输入指示电子设备的距目的地的 相对位置和距离。又如,第一对象是在电子设备的接近阈值(例如,10英 尺、20英尺、40英尺、100英尺)内的可由电子设备发现和/或能够由电子 设备与之交互的对象(例如,第一对象是另一电子设备,诸如智能门锁或 智能电话)。在一些实施方案中,输入对应于电子设备相对于第一对象的 取向和/或距离的变化。在一些实施方案中,输入对应于在电子设备的触摸 屏处检测到的相对于第一对象的定向输入,其中在触摸屏上相对于触摸屏 上对应于第一对象(例如,对应于第一对象相对于电子设备上的参考轴的 方向)的位置或取向的位置处检测到触摸输入。
在一些实施方案中,响应于接收到该一个或多个输入的序列(704), 根据确定电子设备500和第一对象602之间的距离是第一距离,诸如在图 6D至图6F中,电子设备500在电子设备500处生成(706)对应于第一对 象602相对于电子设备500的取向的第一触觉输出604(例如,触觉、振动 等)(例如,根据确定预先确定的位置、参考轴或电子设备的一部分面向 第一对象而生成触觉输出),其中第一触觉输出604发生在取向范围的第 一部分中(例如,包括角度Φ),但不发生在取向范围的第二部分中(例 如,包括角度θ)(例如,电子设备确定电子设备相对于对象的距离和/或 取向(例如,偏移角度))。在一些实施方案中,生成触觉输出的取向范 围的部分基于电子设备和第一对象之间的所确定的距离。例如,根据确定 电子设备距第一对象第一距离,响应于电子设备在相对于第一角度范围内 的第一对象的偏移角度内的取向而生成第一触觉响应。
在一些实施方案中,响应于接收到该一个或多个输入的序列(704), 根据确定电子设备500和第一对象602之间的距离是第二距离,诸如在图 6B至图6C中,该距离不同于图6D至图6F所示的第一距离,电子设备 500在电子设备500处生成(708)对应于第一对象602相对于电子设备 500的取向的第二触觉输出604,其中第二触觉输出发生在取向范围的第一 部分和取向范围的第二部分两者中(例如,根据确定电子设备距第一对象 第二距离,响应于电子设备相对于第二角度范围内的第一对象的偏移角度 内的取向而生成第二触觉输出)。在一些实施方案中,响应于当电子设备 和第一对象之间的距离减小时电子设备上的参考轴和第一对象之间的较小 角度范围而生成触觉输出。在一些实施方案中,响应于当电子设备和第一 对象之间的距离增大时电子设备和第一对象之间的较大角度范围而生成触觉输出。
上述在电子设备和第一对象之间的距离变化时改变生成触觉输出的角 度范围的部分的方式允许电子设备使用触觉输出来传达第一对象距离电子 设备多远,这简化了用户与电子设备之间的交互,增强了电子设备的可操 作性(例如,通过以与视觉或音频指示不同的方式传送电子设备和第一对 象之间的距离或距离的变化),这又通过使用户能够更快速且有效地使用 电子设备而不需要使用电子设备的显示设备或来自用户的触摸屏输入(这 减少了电力使用)来减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6A至图6F中,第一距离小于第二距离 (710)(例如,电子设备相对于对象的使电子设备生成触觉输出的取向范 围随着电子设备进一步远离对象而增大)。
上述在电子设备进一步远离对象时增大电子设备相对于对象的使得电 子设备生成触觉输出的取向范围的方式允许电子设备在电子设备越来越靠 近对象时提供与在不使用显示设备的情况下电子设备远离对象时相比关于 对象位置的更精确的指示,这通过使用户能够更快速且有效地使用电子设 备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6G至图6I中,第一距离大于第二距离 (712)(例如,电子设备相对于对象的使电子设备生成触觉输出的取向范 围随着电子设备进一步远离对象而减小)。
上述在电子设备进一步远离对象时减小电子设备相对于对象的使得电 子设备生成触觉输出的取向范围的方式允许电子设备在电子设备更加远离 对象时提供与在不使用显示设备的情况下电子设备更靠近对象时相比关于 对象位置的更精确的指示,这通过使用户能够更快速且有效地使用电子设 备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6C至图6D中,电子设备500经由一个 或多个输入设备(例如,GPS或一些其他位置服务输入设备、相机、无线 通信设备或呈现在电子设备的触摸屏上的用户界面,用户能够与该用户界 面交互以改变用户界面中指示的取向)检测(714)电子设备500和第一对 象602之间的距离从图6C所示的初始距离变化到图6D所示的最终距离 (例如,电子设备移动使得第一对象与电子设备之间的距离在移动开始时 与移动完成时不同)。
在一些实施方案中,诸如在图6D至图6F中,在检测到电子设备和第 一对象之间的距离从图6C中的初始距离变化到图6D至图6F中的最终距离 之后,电子设备500经由一个或多个输入设备接收(716)与电子设备500 经过相对于第一对象602的取向范围的移动对应的一个或多个输入的第二 序列(例如,利用加速度计、位置传感器和运动传感器中的一者或多者检 测电子设备相对于第一对象的取向和/或距离,和/或电子设备相对于第一对 象的取向和/或距离的变化)。例如,电子设备以与上述方式相同或类似的 方式移动,同时距第一对象的距离不同于上述距离,诸如经过相对于第一 对象的取向范围。
在一些实施方案中,诸如在图6D至图6F中,响应于接收到一个或多 个输入的第二序列,电子设备500在电子设备处生成(718)相应触觉输出 604,该触觉输出具有一个或多个特征(例如,频率、幅值、模式、离散脉 冲的频率等)诸如频率的一个或多个第一值,第一值对应于电子设备500 移动经过取向范围时第一对象602相对于电子设备500的取向(例如,随 着电子设备的取向改变,该一个或多个特征的值改变),不同于当电子设 备和第一对象之间的距离为初始距离时将生成的对应触觉输出的一个或多 个特征的一个或多个第二值,诸如图6C中所示的触觉输出604(例如,该 触觉输出的一个或多个特征不同和/或以不同方式改变,具体取决于当电子 设备移动通过相对于第一对象的取向范围时第一对象与电子设备之间的距 离)。例如,当电子设备距第一对象初始距离并且移动通过相对于第一对 象的取向范围时,电子设备呈现触觉输出,该触觉输出具有第一频率并且 具有随着电子设备的取向变化而变化的幅值范围。又如,当电子设备距第 一对象最终距离并且移动通过相对于第一对象的取向范围时,电子设备呈 现触觉输出,该触觉输出具有不同于第一频率的第二频率并且/或者具有随 着电子设备的取向变化而变化的幅值范围。尽管电子设备移动通过的取向 范围在初始距离和最终距离处任选地相同,但幅值范围任选地不同。在一 些实施方案中,幅值范围相同并且频率不同,因为电子设备距第一对象的 距离不同。
上述当电子设备根据电子设备和第一对象之间的距离移动通过取向范 围时改变触觉输出的一个或多个特征的值的方式允许电子设备使用触觉输 出传达关于距第一对象的距离和相对于第一对象的取向两者的信息,这通 过使得用户能够更快速且有效地使用电子设备(诸如通过使用触觉输出传 送更多信息而不是使用显示设备来呈现具有一些信息的用户界面)而减少 了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6D至图6F中,当电子设备500和第一 对象602之间的距离是第一距离时,电子设备500不响应于电子设备在取 向范围的第一部分之外的移动来生成触觉输出,诸如当电子设备500和对 象602之间的角度为θ时(720)(例如,当电子设备在取向范围的第二部 分中或以其他方式在取向范围的第一部分之外并且距第一对象第一距离 时,电子设备不生成触觉输出)。例如,当电子设备正在向第一对象(例 如,地理位置,诸如位于某个地址处的建筑物)呈现导航指令时,电子设 备在电子设备指向第一对象时呈现触觉输出,并且在电子设备指向第一对 象方向上的位置周围的在第一角度范围之外的方向时不呈现触觉输出。
在一些实施方案中,当电子设备500和第一对象602之间的距离为第 二距离时,诸如在图6A至图6C中,电子设备不响应于电子设备在取向范 围的第一部分和第二部分之外的移动来生成触觉输出(722),诸如如果电 子设备500移动到大于θ的角度。例如,当电子设备正在向第一对象(例 如,地理位置,诸如位于某个地址处的建筑物)呈现导航指令时,电子设 备在电子设备指向第一对象(例如,在取向范围的第一部分和第二部分 内)时呈现触觉输出,并且在电子设备指向第一对象方向上的位置周围的 在第二角度范围之外的方向(例如,取向范围的第一部分和第二部分之 外)时不呈现触觉输出。
上述当取向在预先确定的取向范围之外时放弃呈现触觉输出的方式允 许电子设备使用触觉输出向用户传达第一对象相对于电子设备的位置,这 简化了用户与电子设备之间的交互,增强了电子设备的可操作性(例如, 向用户传达第一对象相对于电子设备的位置,而不需要用户查看呈现在电 子设备上的用户界面),这又通过使用户能够更快速且有效地使用电子设 备而减少了电力使用并且延长了所电子设备的电池寿命,并且还通过放弃 经由显示设备呈现用户界面而节省了电力。
在一些实施方案中,诸如在图6K中,第一对象是电子设备500上的导 航应用程序的目的地606(724)(例如,当电子设备被取向为朝向该目的 地时,电子设备呈现通往该目的地的导航方向并生成触觉输出)。在一些 实施方案中,当电子设备在该目的地的预先确定的距离内时(例如,当电 子设备已到达该目的地时),电子设备呈现不同的触觉输出。例如,当电 子设备被取向为朝向目的地时,电子设备在导航到目的地时呈现连续触觉 输出,然后呈现不同的离散触觉输出来指示到达目的地。
上述呈现触觉输出来指示导航目的地的位置的方式允许电子设备使用 触觉输出将导航指令传达给用户,这简化了用户与电子设备之间的交互, 增强了电子设备的可操作性(例如,通过使用户能够接收导航完成指令而 无需查看经由显示设备呈现的用户界面),这又通过使用户能够更快速且 有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6K中,电子设备500被配置为响应于电 子设备500的位置与从电子设备上的导航应用程序中的第一位置到第一对 象606的位置的导航路径重合而生成触觉输出(726)(例如,电子设备呈 现通往目的地的导航方向,并且当电子设备被取向为朝向通往目的地的路 径和/或在该路径上时生成触觉输出)。在一些实施方案中,当电子设备在 该目的地的预先确定的距离内时(例如,当电子设备已到达该目的地 时),电子设备呈现不同的触觉输出。例如,当电子设备被取向为朝向通 往目的地的路径和/或沿该路径并且在该路径上前进时,电子设备在导航到 目的地时呈现连续触觉输出,然后呈现不同的离散触觉输出来指示到达目 的地。在一些实施方案中,当电子设备离开通往第一对象的导航路径时, 电子设备不生成触觉输出,或者不响应于电子设备检测到电子设备的取向 朝向第一对象而不是朝向该导航路径来生成触觉输出。当电子设备在导航 路径上时,电子设备任选地仅响应于检测到电子设备正在移动(例如,以 指示用户正在利用电子设备进行扫描运动的方式移动)而生成触觉输出, 并且任选地,如果电子设备未移动,则在电子设备处于导航路径上时不生 成触觉输出。
上述呈现触觉输出来指示通往导航目的地的路径的位置的方式允许电 子设备使用触觉输出将导航指令传达给用户,这简化了用户与电子设备之 间的交互,增强了电子设备的可操作性(例如,通过使用户能够接收导航 指令而无需查看经由显示设备呈现的用户界面),这又通过使用户能够更 快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池 寿命。
在一些实施方案中,诸如在图6P中,取向范围是相对于电子设备500 的三个取向轴限定的(728)(例如,取向范围的第一部分和第二部分包括 三个维度(例如,电子设备的翻滚、俯仰和偏航)中的每个维度上的角度 范围)。
上述在三个维度中为电子设备的取向的不同部分生成触觉输出的方式 允许电子设备向用户传达关于第一对象在三个维度中的位置信息,这简化 了用户与电子设备之间的交互,增强了电子设备的可操作性(例如,通过 呈现比通过在较少维度上(诸如在两个维度上)为电子设备的取向的不同 部分生成输出可呈现的信息更多的信息),这又通过使用户能够更快速且 有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6Q中,取向范围是相对于电子设备500 的两个取向轴来限定的,而不考虑电子设备的第三取向轴(730)(例如, 取向范围的第一部分和第二部分包括在两个维度(例如,偏航和俯仰)中 的每个维度上的角度范围)。也就是说,取向范围任选地独立于电子设备 的滚动。
上述在两个维度中为电子设备的取向的不同部分生成触觉输出的方式 允许电子设备简化用于确定电子设备的取向是否在取向范围的第一部分和/ 或第二部分中的计算,这通过使用户能够更快速且有效地使用电子设备而 减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6R至图6T中,第一对象606相对于电 子设备500处于相应取向(732)。在一些实施方案中,取向范围的第一相 应部分包括该相应取向,诸如在图6R中,并且取向范围的第二相应部分不 包括该相应取向,诸如在图6T中(734)(例如,取向范围的第一相应部 分对应于电子设备被取向为朝向在预先确定的角度范围(例如,2度、5度、10度等)内的第一对象,并且取向范围的第二相应部分对应于电子设 备被取向为背离第一对象(例如,在第一取向范围之外,或者被取向为相 对于第一对象成在预先确定的角度范围之外的角度))。
在一些实施方案中,诸如在图6T中,电子设备500被配置为响应于检 测到电子设备500在取向范围的第一相应部分内的取向而生成离散触觉输 出604(736)(例如,当电子设备被取向为朝向第一对象时,电子设备生 成对应于轻击或一系列周期性轻击的触觉输出)。在一些实施方案中,诸 如在图6R至图6S中,电子设备500被配置为生成纹理触觉输出604,该 纹理触觉输出随着电子设备500的取向在取向范围的第二相应部分内变化 而变化(738)(例如,当电子设备被取向为背离第一位置时,电子设备生 成连续纹理触觉输出)。在一些实施方案中,该纹理触觉输出的特征(例 如,频率、幅值、图案等)根据电子设备被取向为多靠近或多远离第一对 象而改变。例如,当电子设备的取向在第二相应取向范围内变化以被取向 为进一步远离第一对象时,该纹理触觉输出的幅值增大。又如,当电子设 备在第二相应取向范围内变化以被取向为进一步远离第一对象时,该纹理 触觉输出的幅值减小。
上述当电子设备被取向为在取向范围的第一相应部分中时呈现离散触 觉输出并且当电子设备被取向为在取向范围的第二相应部分中时呈现纹理 触觉输出的方式允许电子设备呈现将取向范围的第一相应部分与取向范围 的第二相应部分区分开的触觉输出,这简化了用户与电子设备之间的交 互,增强了电子设备的可操作性(例如,通过使用触觉输出提供更多信息 并且任选地不使用经由显示设备显示的伴随用户界面),这又通过使用户 能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备 的电池寿命,并且还通过使用触觉输出而不是显示设备呈现信息而节省了 电力。
在一些实施方案中,诸如在图6S中,纹理触觉输出604具有第一幅 值,该第一幅值大于离散触觉输出604的第二幅值,诸如在图6T(740) 中(例如,在一些实施方案中,当电子设备被取向为在取向范围的第二相 应部分中时,触觉输出的幅值随着电子设备的取向进一步远离取向范围的 第一相应部分移动而增大,并且随着电子设备的取向朝向取向范围的第一 相应部分移动而减小)。
上述当电子设备被取向为在取向范围的第一相应部分中时呈现具有第 二幅值的离散触觉输出并且当电子设备被取向为在取向范围的第二相应部 分中时呈现具有第一幅值的纹理触觉输出的方式允许电子设备呈现将取向 范围的第一相应部分与取向范围的第二相应部分区分开的触觉输出,这简 化了用户与电子设备之间的交互,增强了电子设备的可操作性(例如,通 过使用触觉输出呈现更多信息并且任选地不使用经由显示设备显示的伴随 用户界面),这又通过使用户能够更快速且有效地使用电子设备而减少了 电力使用并且延长了电子设备的电池寿命,并且还通过使用触觉输出而不 是显示设备呈现信息而节省了电力。
在一些实施方案中,诸如在图6T中,离散触觉输出604具有第一幅 值,该第一幅值大于纹理触觉输出604的第二幅值,诸如在图6R(742) 中(例如,在一些实施方案中,当电子设备被取向为在取向范围的第二相 应部分中时,触觉输出的幅值随着电子设备的取向进一步远离取向范围的 第一相应部分移动而减小,并且随着电子设备的取向朝向取向范围的第一 相应部分移动而增大)。
上述当电子设备被取向为在取向范围的第一相应部分中时呈现具有第 一幅值的离散触觉输出并且当电子设备被取向为在取向范围的第二相应部 分中时呈现具有第二幅值的纹理触觉输出的方式允许电子设备呈现将取向 范围的第一相应部分与取向范围的第二相应部分区分开的触觉输出,这简 化了用户与电子设备之间的交互,增强了电子设备的可操作性(例如,通 过使用触觉输出呈现更多信息并且任选地不使用经由显示设备显示的伴随 用户界面),这又通过使用户能够更快速且有效地使用电子设备而减少了 电力使用并且延长了电子设备的电池寿命,并且还通过使用触觉输出而不 是显示设备呈现信息而节省了电力。
在一些实施方案中,诸如在图6K中,第一对象606对应于用户在电子 设备500上的地图绘制应用程序上指定的位置610(744)(例如,电子设 备基于电子设备相对于用户在电子设备上的地图绘制应用程序上指定的位 置的取向来生成触觉输出)。例如,当电子设备相对靠近该位置时,电子 设备针对相对于该位置的相对宽范围的取向呈现触觉输出,并且当电子设 备远离该位置时,电子设备针对相对于该位置的相对窄范围的取向呈现触 觉输出。地图绘制应用程序的地图上的用户定义的位置任选地由放置在地 图绘制应用程序的地图上的该位置处的销钉或销钉样元素来在视觉上指 示。
上述呈现触觉输出来指示地图绘制应用程序所指定的位置的方式允许 电子设备使用触觉输出将在地图绘制应用程序上指定的位置传达给用户, 这简化了用户与电子设备之间的交互,增强了电子设备的可操作性(例 如,通过使用户能够接收关于在地图绘制应用程序上指定的位置的信息而 无需查看经由显示设备呈现的用户界面),这又通过使用户能够更快速且 有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图6Z中,第一对象616是电子设备500的 环境中的对象(746)(例如,第一对象是电子设备能够与之交互的第二电 子设备,诸如智能电话、媒体播放器、可穿戴设备、个人计算机或智能家 居设备(例如,智能锁、智能灯、智能恒温器、智能厨房用具等),或者 电子设备能够使用与电子设备通信的相机、经由图像识别来识别的某种其 他设备)。例如,电子设备响应于检测到第一对象而生成触觉输出来向用 户指示该对象的位置。又如,当第一对象是第二电子设备时,电子设备生 成触觉输出来指示电子设备能够与第二电子设备交互。在一些实施方案 中,第一对象不是电子设备,而仅是物理对象,诸如界标或建筑物或门。
上述响应于电子设备相对于电子设备的环境中的对象的取向而生成触 觉输出的方式允许电子设备使用该触觉输出向用户传达关于电子设备的环 境中的该对象的信息(例如位置,电子设备是否能够与第一对象交互), 而任选地不经由显示设备呈现用户界面,这简化了用户与电子设备之间的 交互,增强了电子设备的可操作性(例如,通过使用户能够感觉该触觉输 出以接收关于对象的信息而无需查看电子设备),这又通过使用户能够更 快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池 寿命,还在提供该触觉输出而无需经由显示设备呈现用户界面时进一步减 少了电力使用。
在一些实施方案中,诸如在图6A至图6F中,图6A所示的第一触觉 输出604的一个或多个特征的一个或多个值不同于图6F所示的第二触觉输 出604的一个或多个特征的一个或多个值(748)(例如,该一个或多个特 征是离散脉冲的频率、幅值、模式、频率等中的一者或多者)。例如,除 了在距第一对象不同距离处针对取向范围的不同部分生成触觉输出之外, 电子设备还针对距第一对象不同距离处的一个或多个特征生成具有不同值 的触觉输出(例如,对于相对于第一对象的相同取向,当电子设备距第一 对象不同距离时,电子设备为上述特征中的一个或多个特征生成具有不同 值的触觉输出)。
上述当电子设备和第一对象之间的距离不同时改变触觉输出的一个或 多个特征的值的方式允许电子设备利用触觉输出传送电子设备和第一对象 之间的距离,这简化了用户和电子设备之间的交互,增强了电子设备的可 操作性(例如,使用触觉输出传送更多信息,这使得用户能够接收关于到 第一电子设备的距离的信息,而无需查看经由显示设备显示的用户界 面),这又通过使用户能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命,并且任选地使电子设备能够放弃经由 显示设备呈现用户界面,这提供了进一步的电力节省。
在一些实施方案中,诸如在图6B至图6C中,该一个或多个输入的序 列包括检测电子设备500的移动(750)(例如,电子设备在电子设备移动 (例如,更靠近和更远离第一对象移动,在相对于第一对象的取向上移动 等)时生成触觉输出,并且在电子设备未移动时不生成触觉输出)。
上述响应于检测到电子设备的移动而生成触觉输出的方式允许电子设 备在未检测到电子设备的移动时放弃生成触觉输出,这通过使用户能够更 快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池 寿命。
在一些实施方案中,诸如在图6B中,生成第一触觉输出604在电子设 备500移动时发生并且在电子设备500未移动时不发生,诸如在图6A中 (752)(例如,电子设备在电子设备移动时生成触觉输出,并且在电子设 备未移动时不生成触觉输出)。即使电子设备被取向为在取向范围的第一 部分中的取向上,但如果电子设备未移动,则电子设备任选地不生成触觉 输出。在一些实施方案中,生成第二触觉输出604在电子设备500移动时 发生,诸如在图6F中,并且在电子设备未移动时不发生(754)(例如, 电子设备在电子设备移动时生成触觉输出,并且在电子设备未移动时不生 成触觉输出)。即使电子设备的取向处于取向范围的第一部分或第二部分 中的取向,当电子设备未移动时,电子设备也不生成触觉输出。
上述响应于检测到电子设备的移动而生成触觉输出的方式允许电子设 备在未检测到电子设备的移动时放弃生成触觉输出,这通过使用户能够更 快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池 寿命。
在一些实施方案中,诸如在图6X至图6Y中,该一个或多个输入的序 列对应于相对于第一对象606的第一取向范围和相对于与第一对象606不 同的第二对象612的第二取向范围,并且电子设备500被配置为生成触觉 输出604,触觉输出604基于相对于第一对象606的第一取向范围具有用于 一个或多个特征(例如,频率、幅值、模式等)的一个或多个值,诸如在 图6X中(例如,响应于电子设备被取向为在相对于第一对象的第一取向范 围中,诸如被取向为朝向在预先确定的角度范围内的第一对象,电子设备 生成具有特定模式(例如,包括一系列周期性离散触觉输出的清晰模式) 的触觉输出),并且生成触觉输出604,该触觉输出基于相对于第二对象612的第二取向范围具有用于该一个或多个特征的不同于第一值的一个或多 个第二值,诸如在图6Y中(756)(例如,响应于检测到电子设备被取向 为在相对于第二对象的第二取向范围中,诸如被取向为朝向在预先确定的 角度范围内的第二对象,电子设备生成具有特定模式(例如,包括具有振 荡幅值的触觉输出的连续低沉模式)的触觉输出)。在一些实施方案中, 电子设备在相对于第一对象的第一取向范围内改变触觉输出的不同特征, 诸如在电子设备的取向更接近与第一对象对准时增大触觉输出的幅值。在 一些实施方案中,电子设备在相对于第二对象的第二取向范围内改变触觉 输出的不同特征,诸如在电子设备的取向更接近与第二对象对准时增大触 觉输出的幅值。在一些实施方案中,电子设备响应于检测到电子设备被取 向为朝向不同类型的对象而生成具有不同纹理的触觉输出。例如,电子设 备任选地响应于检测到电子设备被取向为朝向智能家居设备(例如,智能 锁、智能气候控制设备、智能厨房电器、智能灯等)而生成一系列离散触觉输出,并且响应于检测到电子设备被取向为朝向属于与电子设备的用户 不同的用户的个人电子设备(例如,智能手表、智能电话、媒体播放器、 平板电脑、计算机)而生成连续低沉触觉输出。
上述根据电子设备被取向为朝向哪个对象来针对给定特征生成具有不 同值的触觉输出的方式允许电子设备使用触觉输出来向用户传达电子设备 被取向为朝向哪个对象的触觉输出,这简化了用户与电子设备之间的交 互,增强了电子设备的可操作性(例如,通过通知用户电子设备被取向为 朝向哪个对象,而不需要用户查看经由显示设备呈现的用户界面),这又 通过使用户能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命,并且如果在生成触觉输出时电子设备放弃经由显 示设备呈现用户界面,则进一步减少了电力使用。
在一些实施方案中,诸如在图6Z中,该一个或多个输入的序列包括控 制元素614在电子设备500上的移动(758)(例如,电子设备响应于检测 到该控制元素相对于第一电子设备的取向而生成触觉输出)。例如,电子 设备经由显示设备呈现用户界面,该用户界面包括可由用户操纵的取向和 距离的指示。例如,用户能够移动该控制元素以限定相对于电子设备的距 离和取向,并且作为响应,电子设备生成指示由控制元素表示的相对于第 一对象的取向(和距离)的触觉输出。响应于检测到控制元素在取向范围 的第一部分中但不在取向范围的第二部分中,电子设备生成第一触觉输 出。响应于检测到控制元素在第二取向范围中,电子设备生成第二触觉输 出。
上述响应于控制元素的取向而呈现触觉输出的方式允许电子设备使用 户能够使用控制元素来搜索对象而不改变电子设备本身的取向,这简化了 用户与电子设备之间的交互,增强了电子设备的可操作性(例如,通过使 用户能够比用户能够改变电子设备的取向和位置更快地改变控制元素的取 向和位置),这又通过使用户能够更快速且有效地使用电子设备而减少了 电力使用并且延长了电子设备的电池寿命。
应当理解,对图7A至图7E中的操作进行描述的特定次序仅仅是示例 性的,并非意图表明所描述的次序是可执行这些操作的唯一次序。本领域 的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另 外,应当指出的是,本文结合本文所述的其他方法(例如,方法900、1100 和1300)所述的其他过程的细节同样以类似的方式适用于上文结合图7A 至图7E所述的方法700。例如,上文参考方法700所述的响应于基于电子 设备和相应对象之间的距离而改变的取向范围而生成触觉输出的方式任选 地具有以下特征中的一个或多个特征:当电子设备相对于相应对象的取向 改变时修改触觉输出,生成指示AR平面的触觉输出,和生成指示与第二 电子设备共享数据的触觉输出等的方式,如本文参考本文所述的其他方法 (例如,方法900、1100和1300)所述。为了简明起见,此处不再重复这 些细节。
上述信息处理方法中的操作任选地通过运行信息处理装置中的一个或 多个功能模块来实现,该信息处理装置诸如通用处理器(例如,如结合图 1A至图1B、图3、图5A至图5H所述)或特定于应用的芯片。此外,上 文参考图7A-图7E描述的操作任选地由图1A-图1B中所描绘的部件来实 现。例如,接收操作702和716以及生成操作706、708和718任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器 170中的事件监视器171检测在触摸屏504上的接触,并且事件分配器模块 174将事件信息传送到应用程序136-1。应用程序136-1的相应事件识别器 180将事件信息与相应事件定义186进行比较,并且确定触摸屏上第一位置 处的第一接触是否与预定义的事件或子事件对应,预定义的事件或子事件 诸如为对用户界面上的对象的选择。当检测到相应的预定义事件或子事件 时,事件识别器180激活与该事件或子事件的检测相关联的事件处理程序 190。事件处理程序190任选地利用或调用数据更新器176或对象更新器 177来更新应用程序内部状态192。在一些实施方案中,事件处理程序190 访问相应GUI更新器178来更新应用程序所显示的内容。类似地,本领域 的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实 现其他过程。
根据相对于相应对象的取向来修改触觉输出
用户以多种不同的方式与电子设备交互,包括使用电子设备来定位对 象。在一些实施方案中,电子设备生成触觉输出,该触觉输出具有随着电 子设备相对于对象的取向变化而变化的特征。下文所述的实施方案提供了 电子设备响应于检测到悬停在电子设备的触敏显示器上方的对象而防止自 动清除事件指示的方式。增强与设备的交互降低了用户执行操作所需的时 间量,从而降低了设备的用电量并延长了电池供电设备的电池寿命。应当 理解,人们使用设备。当人使用设备时,这个人任选地被称为设备的用 户。
图8A至图8EE示出了根据本公开的一些实施方案的电子设备500响 应于检测到电子设备相对于相应对象的取向变化而改变触觉输出的一个或 多个特征的示例性方式。这些附图中的实施方案用于示出下文描述的过 程,包括参考图9A至图9F描述的过程。
图8A至图8B示出了电子设备500a生成由围绕对象806的位置的点云 模型808限定的触觉输出序列804。如图8A所示,电子设备500a位于围绕 对象806的点云模型808内。在图8A所示的电子设备的位置处,电子设备 500a生成触觉输出序列(例如,上文参考表1所述的“主要触觉输 出”)。该触觉输出序列包括指示电子设备在围绕对象806的点云808模 型内的位置的一系列离散触觉脉冲。
在图8B中,电子设备500a在围绕对象806的位置的点云模型808内 移动得更靠近对象806。响应于电子设备500a在围绕对象806的位置的点 云模型808内的位置,电子设备500a生成触觉输出序列(例如,上文参考 表1所述的“主要减少”触觉输出)。该触觉输出序列包括指示电子设备 在围绕对象806的点云808模型内的位置的一系列离散触觉脉冲。图8B所 示的触觉输出的频率高于图8A所示的触觉输出的频率,因为电子设备 500a比图8A中的电子设备500a更靠近图8B中的对象806。图8B所示的 触觉输出序列804中的离散触觉轻击之间的周期比图8A所示的触觉输出序 列804中的离散触觉轻击之间的周期短。更一般地,随着点云808中的点 变得更密集,由电子设备500生成的触觉输出序列中的离散触觉轻击的周 期变得更短。
图8C至图8E示出了电子设备500a生成响应于显示器504上显示的控 制元素810相对于另一电子设备812的取向的变化而变化的触觉输出804。 如图8C所示,当控制元素810的取向指向远离另一电子设备812时,电子 设备500生成作为连续纹理触觉输出序列的触觉输出序列804(例如,上文 参考表1所述的“次要”触觉输出)。用户(例如,利用接触803)选择控 制元素810以改变控制元素810的取向。
在图8D中,电子设备500a在根据图8C所示的用户输入的位置处呈 现控制元素810。如图8D所示,控制元素810的取向朝向另一电子设备 812。响应于控制元素810相对于另一电子设备812的取向,电子设备500a 生成包括周期性离散触觉脉冲的触觉输出序列804(例如,“主要”触觉输 出序列)。用户(例如,利用接触803)选择控制元素810以改变由控制元 素810表示的距电子设备500a的距离。
响应于图8D所示的用户输入,电子设备500a将控制元素810移动到 图8E所示的位置。响应于控制元素810的位置,电子设备500生成包括一 系列周期性离散触觉脉冲的触觉输出序列804(例如,上文参考表1所述的 “主要”触觉输出)。图8E所示的触觉输出804的强度或幅值大于图8D 所示的触觉输出804的强度或幅值,因为由图8E所示的控制元素810表示 的距离比由图8D的控制元素810表示的距离更靠近第二电子设备812的位 置。
图8F至图8G示出了电子设备500a响应于检测到电子设备500a的通 信范围内的智能锁814而生成触觉输出。在图8F中,电子设备500a定位 在远离智能锁814的距离处,该距离远于智能锁814和电子设备500a的通 信范围。因此,电子设备500a当前不与智能锁814通信,并且不生成指示 智能锁814的触觉输出。
在图8G中,电子设备500a比图8F中的电子设备500a和智能锁814 之间的距离更靠近智能锁814。因此,在图8G中,电子设备500a与智能 锁814通信。响应于检测到智能锁814,电子设备500a生成触觉输出。触 觉输出是离散触觉输出(例如,上文参考表1所述的“主要”触觉输 出),包括单个离散触觉输出或周期性系列的离散触觉脉冲,或连续纹理 触觉输出(例如,上文参考表1所述的“次要”触觉输出)。
在一些实施方案中,在导航到导航目的地时,电子设备500响应于检 测到电子设备500在朝向导航目的地移动时越过距导航目的地的第一阈值 距离而生成触觉输出。这样,电子设备500向用户指示用户已到达导航目 的地。图8H至图8I示出了电子设备500a响应于检测到电子设备500a在朝 向导航目的地820移动时越过距导航目的地820的阈值距离而生成触觉输 出。这样,电子设备500a能够向用户指示电子设备500a正到达导航目的地820。
在图8H中,电子设备500a被定位成远离导航目的地820一定距离, 同时朝向导航目的地820导航。该距离大于阈值距离,并且电子设备500a 在图8H所示的距离处不生成触觉输出。
在图8I中,电子设备500a移动得更靠近导航目的地820并且越过阈值 距离。响应于在移动得更靠近导航目的地时越过阈值距离,电子设备500a 生成触觉输出和音频输出。该触觉输出和音频输出向用户指示电子设备 500a已到达导航目的地820。如果电子设备500在移动远离导航目的地820 时越过阈值距离,则电子设备不生成触觉输出。
在一些实施方案中,在导航到导航目的地时,电子设备500响应于检 测到电子设备在移动远离导航目的地时越过距导航目的地的阈值距离而生 成触觉输出。这样,电子设备500通知用户他们正根据导航指引以错误的 方式移动。图8J至图8K示出了电子设备500a响应于检测到电子设备500a 在远离导航目的地820移动时越过距导航目的地820的阈值距离而生成触 觉输出。这样,电子设备500a能够向用户指示电子设备500a正在移动经过 或远离导航目的地820。
在图8J中,电子设备500a被定位成远离导航目的地820一定距离, 同时朝向导航目的地820导航。该距离小于阈值距离,并且电子设备500a 在图8J所示的距离处不生成触觉输出。
在图8K中,电子设备500a进一步移动远离导航目的地820并越过阈 值距离。响应于在移动远离导航目的地时越过阈值距离,电子设备500a生 成触觉输出和音频输出。该触觉输出和音频输出向用户指示电子设备500a 正相对于导航目的地820以错误的方式移动。在一些实施方案中,图8K所 示的触觉输出和音频输出不同于图8I所示的触觉输出和音频输出。如果电 子设备500在朝向导航目的地820移动时越过阈值距离,则电子设备不生 成触觉输出。
图8L至图8M示出了电子设备500a响应于移动到预先确定的取向826 而生成触觉输出。该预先确定的取向任选地是电子设备500a能够与AR (增强现实)内容、智能家用电器或另一物理或虚拟对象交互的取向。在 图8L中,电子设备500a的中心轴线828不与预先确定的取向826对准。 因此,电子设备500a不生成触觉输出。如图8L所示,用户将电子设备500a朝向预先确定的取向移动。在图8M中,电子设备500被定位成使得 电子设备500a的中心轴线828与预先确定的取向826对准。响应于电子设 备的取向匹配预先确定的取向826,电子设备500生成触觉输出(例如,上 文参考表1所述的“主要”触觉输出)。
图8N至图8O示出了可穿戴电子设备500b响应于检测到用户用佩戴 可穿戴电子设备500b的手臂的手指向导航目的地820而生成触觉输出。在 图8N中,用户在他们的手臂上佩戴电子设备500b,并且不指向导航目的 地820。因为电子设备500b的取向不指示用户指向导航目的地820,所以 电子设备500b不生成触觉输出。在图8O中,用户使用佩戴电子设备500b 的手臂的手指向导航目的地820。响应于检测到电子设备500b的取向指示 用户指向导航目的地820,电子设备500b生成触觉输出(例如,上文参考 表1所述的“主要”触觉输出)。这样,可穿戴电子设备500b能够利用该 触觉输出向用户指示导航目的地820的位置。
图8P至图8Q示出了当用电子设备500a的相机拍摄照片时,在从电子 设备500a的相机的视场中截断面部830a时,电子设备500a生成触觉输 出。在图8P中,电子设备500a的相机捕获面部830a和830b的图像(例 如,使用与电子设备的显示器相同的电子设备的面上的相机)。因为这两 个面部都在电子设备500a的相机的视场内,所以电子设备500a不生成触觉 输出。即使面部830a和830b中的一者或多者在电子设备500a的相机的视 场内四处移动,只要面部830a和830b两者完全在电子设备500a的相机的 视场内,电子设备500a任选地也将不生成触觉输出。
在图8Q中,电子设备500a检测到面部830a中的一个面部已移动,使 得该面部从电子设备500a的相机的视场中部分地被裁剪掉(例如,该面部 到达相机的视场的边缘)。响应于检测到面部830a被部分地修剪出图像, 电子设备500a生成触觉输出。这样,电子设备500a使用该触觉输出来通知 用户面部830a中的一个面部被部分地裁剪出电子设备500a的相机的视场。
在图8R至图8S示出了电子设备500a生成指示由电子设备500a生成 的AR(增强现实)内容的触觉输出804。在图8R中,电子设备500a的相 机捕获虚拟定时器832在AR内容中所位于的桌子的位置的图像。电子设备 500a在显示器504上呈现包括虚拟定时器832的图像。响应于呈现虚拟定 时器832的图像,电子设备500a生成触觉输出(例如,上文参考表1所述 的“主要”触觉输出)。该触觉输出是模拟虚拟定时器832的走时的一系 列周期性离散触觉脉冲。
在图8S中,电子设备500a被定位成使得虚拟定时器的位置不再在电 子设备500a的相机的视场中。因此,在图8S中,电子设备500a生成指示 在第二电子设备500a的相机的视场中捕获的AR平面的触觉输出(例如, 上文参考表1所述的“次要”触觉输出),而不是指示虚拟定时器的触觉 输出,并且不同于指示虚拟定时器的触觉输出。该触觉输出是具有指示在 电子设备500a的相机的视场中捕获的AR平面的一个或多个特征的连续纹 理触觉输出。根据方法1100的一个或多个步骤来生成该触觉输出。
图8T至图8U示出了当电子设备500a指向电子设备500a能够与之通 信的智能锁时电子设备500a如何生成触觉输出,并且当电子设备500a指向 电子设备500a不能与之通信的智能锁时电子设备如何不生成触觉输出。
在图8T中,电子设备500a的取向朝向电子设备500a不能与之通信的 智能锁814a,并且远离电子设备500a能够与之通信的智能锁814b。响应 于电子设备的取向,电子设备500不生成触觉输出,因为电子设备500a不 能与智能锁814a通信并且不被取向为朝向电子设备500能够与之通信的智 能锁814b。因此,当用户将电子设备500a取向为朝向电子设备500b不能 与之通信的智能锁814a时,电子设备500a不生成指示智能锁814a的触觉 输出。
在图8U中,电子设备500a的取向朝向电子设备500a能够与之通信的 智能锁814b,并且远离电子设备500a不能与之通信的智能锁814a。响应 于电子设备的取向,电子设备500生成指示智能锁814b的触觉输出。因 此,当用户将电子设备500a取向为朝向电子设备500b能够与之通信的智 能锁814b时,电子设备500a生成指示智能锁814b的触觉输出。
图8V至图8W示出了电子设备500a生成指示电子设备500a能够使用 图像识别来定位的对象806的触觉输出。在图8V中,电子设备500a呈现 由电子设备500a的相机捕获的图像。该图像不包括电子设备500a能够利用 图像识别来识别的对象806。因此,电子设备500a放弃生成触觉输出。
在图8W中,电子设备500a捕获包括对象806的图像818。响应于识 别图像818内的对象806,电子设备500a生成指示对象806的触觉输出。 这样,电子设备500a能够使用该触觉输出来向用户指示对象806已通过图 像识别定位。
图8X至图8Y示出了电子设备500a如何根据电子设备500a和导航目 的地820(或更一般地,任何感兴趣的对象,诸如已由电子设备的用户指定 的对象)之间是否存在屏障822来修改触觉输出804。在图8X中,电子设 备500a被取向为朝向导航目的地820,而没有屏障822位于电子设备500a 和导航目的地820之间。响应于检测到电子设备500a朝向导航目的地820 的取向而在电子设备500a和导航目的地820之间没有屏障822,电子设备 500生成触觉输出序列804(例如,上文参考表1所述的“主要”触觉输出 序列)。触觉输出序列804包括一系列周期性离散触觉脉冲。如图8Y所 示,当在电子设备500a和导航目的地820之间存在屏障822时,触觉输出 序列804的强度或幅值减小。
图8Z至图8AA示出了电子设备500a如何仅在电子设备500a移动 (例如,用户在扫描运动诸如左右扫描运动中移动电子设备500a)时生成 指示电子设备500a相对于导航目的地820的取向的触觉输出。在图8Z 中,电子设备500a在移动时被取向为朝向导航目的地820。响应于电子设 备500a相对于导航目的地的取向,电子设备500a生成触觉输出。该触觉输 出具有指示电子设备相对于导航目的地820的位置的一个或多个特征(例 如,取向、距离)的一个或多个特征(例如,纹理、频率、幅值等)。在 图8AA中,电子设备500a保持在与图8Z中的电子设备500a的位置和取向 相同的位置和取向。在图8AA中,电子设备500a不生成指示电子设备 500a相对于导航目的地820的取向的触觉输出,因为电子设备500a未移 动。
图8BB至图8EE示出了电子设备500a如何响应于具有指示电子设备 500a和导航目的地820(或更一般地,任何感兴趣的对象,诸如已由电子 设备的用户指定的对象)之间的距离的延迟的用户输入而生成触觉输出。 如图8BB所示,当电子设备500a被定位成与导航目的地820相距一定距离 时,用户(例如,利用接触803)输入请求电子设备500a在指示电子设备 500a和导航目的地820之间的距离的时间延迟824之后生成触觉输出(例 如,类似于朝向导航目的地传输声脉冲)的输入。在图8CC中,电子设备 500a在接收到该输入之后的表示电子设备500a和导航目的地820之间的距 离的时间824处生成触觉输出。
在图8DD至图8EE中,电子设备500a距导航目的地820的距离比图 8BB至图8CC所示的电子设备500a和导航目的地820之间的距离更近。如 图8DD所示,用户(例如,利用接触803)输入请求电子设备500a在指示 电子设备500a和导航目的地820之间的距离的时间延迟824之后生成触觉 输出的输入。在图8EE中,电子设备500a在指示电子设备500a和导航目的地820之间的距离的时间延迟824之后生成触觉输出。因为图8EE所示 的电子设备500a和导航目的地820之间的距离小于图8CC所示的电子设备 500a和导航目的地820之间的距离,所以图8EE所示的时间延迟824小于 图8CC所示的时间延迟824。
图9A至图9F是示出根据本公开的一些实施方案的响应于检测到电子 设备相对于相应对象的取向变化而改变触觉输出的一个或多个特征的方法 的流程图。方法900任选地在电子设备(诸如设备100、设备300、设备 500)处执行,如上文参考图1A-图1B、图2-图3、图4A-图4B和图5A-图 5H所述。方法900中的一些操作任选地被组合,并且/或者一些操作的顺序 任选地被改变。
在一些实施方案中,诸如在图8C至图8E中,与一个或多个输入设备 通信的电子设备(例如,电子设备500,与触摸屏、加速度计、运动传感器 和/或位置传感器(例如,GPS等)中的一者或多者通信的移动设备(例 如,平板电脑、智能电话、媒体播放器或可穿戴设备))在沿着从第一位 置(例如,电子设备500a的位置)到不同于第一位置的第二位置(例如, 对象812的位置)的预先确定的路径导航(例如,遵循在电子设备上运行 的导航应用程序的从电子设备的位置到位于第二位置的对象的路线)时, 电子设备500a确定(902)满足一个或多个触觉输出标准(例如,触觉输 出标准包括当电子设备上的参考轴线相对于第二对象和/或预先确定的路径 在预先确定的取向范围(例如,+/-30度、+/-20度、+/-10度)内时满足的 标准);在一些实施方案中,响应于在沿着该路径导航时检测到电子设备 的“扫描”运动,使得设备上的参考轴线从相对于该路径在电子设备的位 置处的取向的大角度偏移移动到相对于该路径在电子设备的位置处的取向 的小角度偏移或零角度偏移,并且越过该路径在电子设备的位置处的取向 然后达到相对于该路径在电子设备的位置处的取向的大角度偏移而生成触 觉输出)。
在一些实施方案中,诸如在图8C中,响应于确定满足该一个或多个触 觉输出标准(904),根据确定电子设备500a在电子设备500a的当前位置 相对于预先确定的路径(例如,或第二位置)处于第一取向(例如,距 离,偏移角度等)时,电子设备在电子设备处生成(906)具有用于第一特 征(例如,强度、纹理(频率)、图案、持续时间等)的第一值的第一触觉输出804(例如,触觉、振动)。在一些实施方案中,电子设备生成包括 触觉输出的周期性猝发(例如,触觉输出模式)的触觉输出。例如,随着 电子设备上的参考轴线和预先确定的路径在电子设备的位置处的取向之间 的偏移角度减小,猝发的周期变得更短(例如,更快、更高的频率)。
在一些实施方案中,诸如在图8D中,响应于确定满足(904)该一个 或多个触觉输出标准,根据确定电子设备500a在电子设备的当前位置相对 于预先确定的路径(例如,或第二位置)处于第二取向,电子设备在电子 设备处生成(908)具有用于第一特征的第二值的第二触觉输出804(例 如,电子设备生成包括触觉输出的周期性猝发(例如,触觉输出模式)的 触觉输出)。例如,随着电子设备上的预先确定的位置与第二预先确定的 位置之间的偏移角度增大,猝发的周期变得更长(例如,更慢、更低的频 率)。
上述响应于电子设备和预先确定的路径之间的取向变化而改变触觉输 出的特征的值的方式允许电子设备使用触觉输出来传达第二位置相对于所 定义的导航路径的取向,这简化了用户与电子设备之间的交互,增强了电 子设备的可操作性(例如,通过以视觉或音频指示之外的方式传送预先确 定的路径的取向),这又通过使用户能够更快速且有效地使用电子设备而 不需要使用电子设备的显示设备或来自用户的触摸屏输入(这减少了电力 使用)来减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图8A至图8B中,图8A所示的第一触觉 输出804和图8B所示的第二触觉输出804的第一特征是频率,并且第一触 觉输出的频率的第一值不同于第二触觉输出的频率的第二值(910)(例 如,触觉输出的频率随着电子设备的中心轴线和预先确定的路径之间的角 度增大(或随着电子设备和预先确定的路径之间的距离增大)而增大,或 者触觉输出的频率随着电子设备的中心轴线和预先确定的路径之间的角度 增大(或随着电子设备和预先确定的路径之间的距离增大)而减小)。
上述随着电子设备相对于预先确定的路径的取向的变化来改变触觉输 出的频率的方式允许电子设备使用触觉输出向用户传达预先确定的路径的 位置,这简化了用户与电子设备之间的交互,增强了电子设备的可操作性 (例如,通过使用户能够确定路径的位置而无需查看电子设备的用户界 面),这又通过使用户能够更快速且有效地使用电子设备而减少了电力使 用并且延长了电子设备的电池寿命,并且使电子设备能够将路径的位置传 达给用户而无需经由显示设备呈现用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8A至图8B中,电子设备500a在电子 设备处生成(912)与电子设备的环境中的对象806对应的相应触觉输出, 其中相应触觉输出804具有基于以该对象为中心的点云模型808的一个或 多个特征的一个或多个值(例如,通往该对象的路径是从电子设备的位置 开始的直接路径,并且该触觉输出的特征具有随着该路径变短而增大或减 小的值)。例如,该点云模型在最靠近对象的位置处更致密,并且在更远 离对象的位置处更稀疏。该点云的点任选地表示触觉输出的特征,诸如频 率、幅值、模式,或离散触觉猝发的频率。在一些实施方案中,离散触觉 猝发的频率随着电子设备越来越靠近对象而增大(例如,点云中的点的密 度表示离散触觉猝发的频率)。
上述使触觉输出的一个或多个值基于围绕对象的点云模型的方式允许 电子设备随着电子设备和对象之间的距离的变化而改变触觉输出的值,这 简化了用户和电子设备之间的交互,增强了电子设备的可操作性(例如, 通过基于触觉输出的变化的值向用户传达电子设备和对象之间的距离), 这又通过使用户能够更快速且有效地使用电子设备而减少了电力使用并且 延长了电子设备的电池寿命,并且使电子设备能够将与对象的距离传达给 用户而无需经由显示设备呈现用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8X至图8Y中,图8X所示的第一触觉 输出804和图8Y所示的第二触觉输出804的第一特征是锐度(例如,后续 触觉猝发之间的幅值差异),并且第一触觉输出的锐度的第一值不同于第 二触觉输出的锐度的第二值(914)(例如,第一触觉输出比第二输出更锐 利并且包括一系列离散脉冲,并且第二触觉输出包括具有产生连续低沉感 觉的变化的幅值的一系列脉冲)。例如,图8X所示的触觉输出804比图 8Y所示的触觉输出804更锐利。
上述随着电子设备相对于预先确定的路径的取向的变化来改变触觉输 出的锐度的方式允许电子设备使用触觉输出向用户传达预先确定的路径的 取向/位置,这简化了用户与电子设备之间的交互,增强了电子设备的可操 作性(例如,通过使用户能够确定预先确定的路径的位置/取向而无需查看 经由显示设备呈现的用户界面),这又通过使用户能够更快速且有效地使 用电子设备而减少了电力使用并且延长了电子设备的电池寿命,并且使电 子设备能够将路径的位置/取向传达给对象而无需经由显示设备呈现用户界 面,这进一步节省了电力。
在一些实施方案中,诸如在图8X至图8Y中,电子设备500a在电子 设备处生成(916)相应触觉输出804,该触觉输出对应于电子设备的环境 中距电子设备相应距离的对象820(例如,预先确定的路径是从电子设备到 电子设备的环境中的对象),并且具有用于相应特征(例如,频率、幅 值、模式等)的相应值。
在一些实施方案中,诸如在图8X中,根据确定对电子设备500a和电 子设备的环境中的对象820之间的移动不存在屏障822(例如,墙壁或栅 栏),相应特征的相应值是第一值(918)(例如,在电子设备和对象之间 不存在物理屏障;在一些示例中,沿着预先确定的路径在电子设备和对象 之间没有物理屏障,并且在一些示例中,沿着从电子设备到对象的直线在 电子设备和对象之间没有物理屏障,而与预先确定的路径无关)。
在一些实施方案中,诸如在图8Y中,根据确定对电子设备500a和电 子设备的环境中的对象820之间的移动存在屏障(例如,墙壁或栅栏), 相应特征的相应值是不同于第一值的第二值(920)(例如,在电子设备和 对象之间存在物理屏障(例如,墙壁、建筑物等);在一些示例中,沿着 预先确定的路径在电子设备和对象之间存在一个或多个物理屏障,并且在 一些示例中,沿着从电子设备到对象的直线在电子设备和对象之间存在一 个或多个屏障,而与预先确定的路径无关)。例如,当在电子设备和对象 之间不存在墙壁时,电子设备生成一系列离散触觉脉冲,并且当在电子设 备和对象之间存在墙壁时,电子设备生成具有连续低沉纹理的触觉输出。 另选地,在一些实施方案中,当电子设备和对象之间不存在墙壁时,电子 设备生成具有第一幅值的触觉输出,并且当电子设备和对象之间存在墙壁 时,电子设备生成具有小于第一幅值的第二幅值的触觉输出。
上述根据确定在电子设备和对象之间存在墙壁而修改触觉输出的特征 的方式允许电子设备使用触觉输出向用户指示对象位于墙壁的另一侧,这 简化了用户与电子设备之间的交互,增强了电子设备的可操作性(例如, 通过向用户传达对象在墙壁的另一侧而不需要用户经由显示设备查看用户 界面),这又通过使用户能够更快速且有效地使用电子设备而减少了电力 使用并且延长了电子设备的电池寿命,并且使电子设备能够将对象是否在 墙壁的另一侧传达给用户而无需经由显示设备呈现用户界面,这进一步节 省了电力。
在一些实施方案中,诸如在图8Z中,触觉输出标准包括当电子设备 500a相对于预先确定的路径移动时满足的标准(922)(例如,在电子设备 移动(例如,移动得更靠近和更远离该路径,以相对于该路径的取向移动 等)时生成触觉输出)。例如,在扫描运动中移动电子设备使得电子设备 生成指示电子设备相对于预先确定的路径的取向的触觉输出。
上述在电子设备移动时生成触觉输出的方式允许电子设备使用户能够 通过移动电子设备来请求触觉输出,这简化了用户与电子设备之间的交 互,增强了电子设备的可操作性(例如,通过使用户能够请求电子设备生 成触觉输出而不与经由显示设备呈现的用户界面交互),这又通过使用户 能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备 的电池寿命,并且使电子设备能够按需生成触觉输出而无需经由显示设备呈现用户界面,这进一步节省了电力。
在一些实施方案中,生成第一触觉输出在电子设备500a移动时发生, 诸如在图8Z中,并且在电子设备未移动时不发生(924),诸如在图8AA 中(例如,在扫描运动中移动电子设备使得电子设备生成指示电子设备相 对于预先确定的路径的取向的触觉输出,并且保持电子设备静止(例如, 电子设备的移动低于预先确定的移动阈值)使得电子设备放弃生成触觉输 出)。
在一些实施方案中,生成第二触觉输出在电子设备500a移动时发生, 诸如在图6Z中,并且在电子设备未移动时不发生,诸如在图8AA中 (926)(例如,在扫描运动中移动电子设备使得电子设备生成指示电子设 备相对于预先确定的路径的取向的触觉输出,并且保持电子设备静止(例 如,电子设备的移动低于预先确定的移动阈值)使得电子设备放弃生成触 觉输出)。
上述在电子设备未移动时放弃生成触觉输出的方式允许电子设备在电 子设备未移动时节省电力,这延长了电子设备的电池寿命。
在一些实施方案中,诸如在图8C中,触觉输出标准包括当电子设备 500a检测到控制元素810在电子设备上的移动时满足的标准(928)(例 如,电子设备经由显示设备显示用户界面,该用户界面包括用于搜索对象 的控制元素,该控制元素允许用户指定相对于电子设备的当前取向和位置 的取向和距离)。例如,电子设备呈现辐射型刻度盘,该刻度盘具有用户 能够以期望的角度和距离定位的指示符,并且响应于检测到移动该指示符 的用户输入,电子设备生成触觉输出。
上述响应于检测到控制元素的移动而生成触觉输出的方式允许电子设 备响应于用户输入而生成触觉输出,这简化了用户与电子设备之间的交 互,增强了电子设备的可操作性(例如,使用户能够选择性地发起和停止 触觉输出的生成来更好地理解触觉输出的含义),这又通过使用户能够更 快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池 寿命。
在一些实施方案中,诸如在图8C至图8E中,控制元素810在电子设 备500a上的移动限定相对于电子设备的环境中的对象812的方向和/或距离 分量(930)(例如,电子设备经由显示设备显示用户界面,该用户界面包 括使用户能够选择相对于电子设备的当前位置和取向的距离和角度以用于 搜索对象的控制元素)。在一些实施方案中,电子设备相对于预先确定的 路径的取向是控制元素相对于预先确定的路径的取向,并且电子设备相对于预先确定的路径的距离由控制元素所表示的距离分量限定。这样,用户 能够通过移动控制元素而不是移动电子设备来搜索预先确定的路径。例 如,电子设备呈现辐射型刻度盘,该刻度盘具有用户能够以期望的角度和 距离放置的指示符,并且响应于检测到移动该指示符的用户输入,电子设 备生成触觉输出,该触觉输出具有指示该指示符相对于通往对象的预先确 定的路径的取向和/或距离的特征。又如,当用户改变由控制元素表示的取 向和/或距离时,电子设备生成触觉输出,该触觉输出具有随着由控制元素 表示的取向和位置变得更靠近预先确定的路径和/或相应对象而改变的特征 (例如,幅值、频率、图案、纹理、周期性脉冲的频率),因此使得使用 者能够使用控制元素来定位该对象。
上述利用控制元素限定相对于对象的方向分量和/或距离分量的方式允 许电子设备利用触觉输出来指示对象相对于控制元素的取向,这简化了用 户与电子设备之间的交互,增强了电子设备的可操作性(例如,通过使用 户能够搜索对象而无需移动电子设备),这又通过使用户能够更快速且有 效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图8G中,电子设备500a检测(932)电子 设备已经与电子设备的环境中的第二电子设备814(例如,在预先确定的路 径上的第二位置处的智能门锁)建立了通信。在一些实施方案中,诸如在 图8G中,响应于检测到电子设备500a已与第二电子设备814建立了通 信,电子设备在电子设备处生成(934)指示与第二电子设备建立了通信的 第三触觉输出(例如,响应于建立与第二电子设备的通信并且根据确定电 子设备被授权与第二电子设备进行通信而生成第三触觉输出)。例如,当 电子设备处于电子设备被授权与之交互的智能门锁的通信范围内时,电子 设备生成第三触觉输出。在一些实施方案中,第三触觉输出具有与第一触 觉输出和第二触觉输出两者不同的第一特征的值。
上述生成指示与第二电子设备建立的通信的第三触觉输出的方式允许 电子设备使用该触觉输出向用户传达已经建立了与第二电子设备的通信, 这简化了用户与电子设备之间的交互,增强了电子设备的可操作性(例 如,通过向用户传达与第二电子设备的通信已建立,而无需用户查看经由 显示设备呈现的用户界面),这又通过使用户能够更快速且有效地使用电 子设备而减少了电力使用并且延长了电子设备的电池寿命,并且使电子设 备能够生成指示与第二电子设备的通信的触觉输出,而无需经由显示设备 呈现用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8H至图8K中,电子设备500a检测 (936)电子设备和电子设备的环境中的相应对象820之间的相应距离的变 化(例如,电子设备的增大或减小电子设备和相应对象之间的距离的移 动)。
在一些实施方案中,诸如在图8H至图8I中,响应于检测到电子设备 500a和相应对象820之间的相应距离的变化(938),根据确定当相应距离 越过第一阈值距离时相应距离正在减小,诸如在图8H至图8I中,电子设 备500a在电子设备处生成(940)第一相应触觉输出,该第一相应触觉输 出指示电子设备已经到达距相应对象第一阈值距离并且正在移动得更靠近 相应对象820(例如,相应对象是由用户在导航应用程序中选择的导航目的 地,并且第一阈值距离是电子设备确定其已到达目的地的距离)。在一些 实施方案中,电子设备在生成第一相应触觉输出的同时生成音频输出。电 子设备任选地响应于检测到电子设备在越过第一阈值距离时移动远离相应 对象而放弃生成对应的触觉输出。
在一些实施方案中,诸如在图8J至图8K中,响应于检测到电子设备 500a和相应对象820之间的相应距离的变化(938),根据确定当相应距离 越过大于第一阈值距离的第二阈值距离时相应距离正在增大,诸如在图 8J、图8K中,电子设备500a在电子设备处生成(942)第二相应触觉输 出,该触觉输出指示电子设备已经到达距相应对象820第二阈值距离并且 正在移动远离相应对象820(例如,第二阈值距离是比电子设备的先前位置 更远离相应对象的预先确定的距离)。例如,电子设备朝向相应的对象移 动,然后以预先确定的量远离相应对象移动到第二阈值距离。响应于到达 距相应对象第二阈值距离,电子设备生成触觉输出以向用户指示电子设备 正在移动远离相应对象。在一些实施方案中,电子设备在生成第二相应触 觉输出的同时生成音频输出。电子设备任选地响应于检测到电子设备在越 过第二阈值距离时朝向相应对象移动而放弃生成对应的触觉输出。
上述在朝向相应对象移动时响应于达到第一阈值距离而生成第一相应 触觉输出,并且在远离相应对象移动时响应于达到第二阈值距离而生成第 二相应触觉输出的方式允许电子设备使用触觉输出向用户传达电子设备何 时靠近相应对象和电子设备何时已充分离开相应对象,这简化了用户与电 子设备之间的交互,增强了电子设备的可操作性(例如,通过使用户能够 定位相应对象而无需查看显示设备上呈现的用户界面),这又通过使用户 能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备 的电池寿命,并且使电子设备能够生成指示相应对象的位置的触觉输出而 无需经由显示设备呈现用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8M中,当电子设备500a的取向处于目 标取向时满足触觉输出标准(944)(例如,电子设备的相应功能要求电子 设备处于目标取向,诸如竖直(例如,在竖直的角度范围内,诸如竖直的 +/-5度、10度、15度内))。例如,响应于检测到电子设备是竖直的,电 子设备生成触觉输出。在一些实施方案中,当电子设备的取向不在目标取 向时不满足触觉输出标准。
上述响应于确定电子设备处于目标取向而生成触觉输出的方式允许电 子设备使用触觉输出向用户传达电子设备处于目标取向,这简化了用户与 电子设备之间的交互,增强了电子设备的可操作性(例如,使用户能够确 认电子设备处于目标取向而无需查看经由显示设备呈现的用户界面),这 又通过使用户能够更快速且有效地使用电子设备而减少了电力使用并且延 长了电子设备的电池寿命,并且使电子设备能够生成指示目标取向的触觉 输出而无需经由显示设备呈现用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8O中,电子设备500b是佩戴在用户的 手腕上的可穿戴设备(例如,智能手表),并且当该可穿戴设备的取向对 应于用户使用对应于该手腕的手指向电子设备的环境中的目标对象820 时,满足触觉输出标准(946)(例如,当在其左手腕上佩戴智能手表时, 用户用其左手指向目标对象)。响应于检测到对应于用户用左手指向目标 对象的智能手表的取向,智能手表生成触觉输出。在一些实施方案中,当 电子设备的取向不对应于用户指向目标对象时,不满足触觉输出标准。
上述当用户指向目标对象时生成触觉输出的方式允许电子设备使用触 觉输出向用户传达目标对象的位置,这简化了用户与电子设备之间的交 互,增强了电子设备的可操作性(例如,通过传达目标对象的位置,而不 需要用户查看经由显示设备呈现的用户界面),这又通过使用户能够更快 速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿 命,并且使电子设备能够生成指示目标对象的位置的触觉输出而无需经由 显示设备呈现用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8Q中,在使用电子设备500a的相机捕 获对象830a的图像时,其中该相机具有视场,电子设备检测(948)对象 在相机的视场中的移动(例如,在拍摄一个或多个面部的照片时,检测相 机视场中的一个面部的移动,诸如由于电子设备的移动和/或面部的移动所 引起的)。
在一些实施方案中,诸如在图8Q中,响应于检测到对象830a在相机 的视场中的移动(950),根据确定对象830a已到达相机的视场的边界, 电子设备500a在电子设备处生成(952)相应触觉输出(例如,确定一个 面部已经从完全在相机的视场中移动到完全或部分在相机的视场之外)。 例如,在捕获人的照片时,电子设备检测到人的面部被完全或部分截断, 并且生成触觉输出。
在一些实施方案中,诸如在图8P中,响应于检测到对象830a在相机 的视场中的移动(950),根据确定对象830a已在相机的视场内移动而未 到达相机的视场的边界,电子设备放弃(954)在电子设备处生成相应触觉 输出(例如,响应于检测到相机的视场内的一个或多个面部的移动,不包 括到达视场的边界,电子设备放弃生成触觉输出)。
上述当对象到达视场的边界时生成触觉输出的方式允许电子设备使用 触觉输出向用户传达对象到达视场的边界,这简化了用户与电子设备之间 的交互,增强了电子设备的可操作性(例如,通过在用户捕获图像之前通 知用户对象到达视场的边界),这又通过使用户能够更快速且有效地使用 电子设备(诸如通过通知用户在捕获照片之前对象被截断,使得用户能够 在捕获图像之前调整相机的位置,从而避免必须重新拍摄照片)而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图8X至图8Y中,电子设备500a在电子 设备处生成(956)相应触觉输出804,该触觉输出对应于电子设备的环境 中相对于电子设备位于相应位置的对象820,并且具有用于相应特征(例 如,频率、幅值、纹理等)的相应值,其中该相应特征的相应值至少基于 除了对象相对于电子设备的相应位置之外的对象的特征(例如,触觉输出 的特征指示对象的特征)。例如,不同的智能家用电器(例如,智能锁、 智能厨房电器、智能气候控制设备、智能灯等)具有响应于电子设备确定 其被取向为朝向相应智能家用电器而生成的不同的相关联触觉纹理。例 如,电子设备的环境中的时钟任选地使得当电子设备被取向为朝向该时钟 时电子设备生成滴答声样式的触觉输出,该触觉输出任选地不同于当电子 设备被取向为朝向电子设备的环境中的不同对象时电子设备生成的触觉输出。
上述生成具有指示除了对象位置之外的对象特征的特征的触觉输出的 方式允许电子设备利用触觉输出将对象的特征传达给用户,这简化了用户 与电子设备之间的交互,增强了电子设备的可操作性(例如,通过使用户 能够确定对象的特征而无需查看经由显示设备呈现的用户界面的),这又 通过使用户能够更快速且有效地使用电子设备而减少了电力使用并且延长 了电子设备的电池寿命,并且使电子设备能够生成指示对象的特征和/或身 份的触觉输出,而无需经由显示设备呈现用户界面,这进一步节省了电 力。
在一些实施方案中,诸如在图8Y中,电子设备500a在电子设备处生 成(958)对应于电子设备的环境中的物理对象820的相应触觉输出804 (例如,电子设备基于图像识别和/或基于检测到附接到对象的电子*** 设备来识别物理对象)。例如,对象是家居用品,诸如钥匙或附接到钥匙 的电子***设备。
上述响应于物理对象来生成触觉输出的方式允许电子设备利用触觉输 出将对象的位置传达给用户,这简化了用户与电子设备之间的交互,增强 了电子设备的可操作性(例如,通过使用户能够确定对象的位置而无需查 看经由显示设备呈现的用户界面),这又通过使得用户能够更快速且有效 地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命,并且 使电子设备能够生成指示对象的触觉输出而无需经由显示设备呈现用户界 面,这进一步节省了电力。
在一些实施方案中,诸如在图8U中,物理对象是与电子设备通信的 第二电子设备814b(960)(例如,属于用户的电子设备(例如,智能家用 电器)或属于另一用户的电子设备(例如,其他用户的智能电话))。例 如,电子设备能够定位该另一用户的智能电话以使用户能够找到该另一用 户。
上述根据电子设备相对于第二电子设备的取向来生成触觉输出的方式 允许电子设备使用触觉输出来向用户传达该位置或通往第二电子设备的路 径,这简化了用户与电子设备之间的交互,增强了电子设备的可操作性 (例如,通过向用户传达该位置或通往第二电子设备的路径,而不需要用 户经由显示设备查看用户界面),这又通过使用户能够更快速且有效地使 用电子设备而减少了电力使用并且延长了电子设备的电池寿命,并且使电 子设备能够生成指示第二电子设备的触觉输出,而无需经由显示设备呈现 用户界面,这进一步节省了电力。
在一些实施方案中,诸如在图8U中,生成对应于第二电子设备814b 的相应触觉输出包括(962):根据确定电子设备500a能够与第二电子设 备814b交互(例如,第二电子设备已授权第一电子设备与第二电子设备通 信),生成相应触觉输出(964),诸如在图8U中;并且根据确定电子设 备500a不能与第二电子设备814a交互,放弃生成相应触觉输出(966),诸如在图8T中(例如,第二电子设备尚未授权第一电子设备与第二电子设 备通信)。例如,当电子设备被取向为朝向第一电子设备被授权锁定或解 锁的智能锁时,电子设备生成触觉输出。又如,当电子设备被取向为朝向 电子设备未被授权锁定和解锁的智能锁定取向时,电子设备放弃生成触觉 输出。
上述仅在电子设备被授权与第二电子设备交互时生成触觉输出的方式 允许电子设备向用户传达电子设备能够与第二电子设备交互并且在电子设 备未被授权与第二电子设备通信时节省电力,这简化了用户与电子设备之 间的交互,增强了电子设备的可操作性(例如,通过使用户能够接收关于 第一电子设备被授权与之通信的第二电子设备的信息,而无需用户查看经 由显示设备呈现的用户界面),这又通过使用户能够更快速且有效地使用 电子设备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图8U中,第二电子设备814b是智能家居 设备(968)(例如,智能锁、智能厨房用具(例如,冰箱、烤箱、炉灶、 微波炉、咖啡机等)、智能气候控制设备(例如,恒温器、风扇等)、智 能灯等)。例如,当用户将电子设备指向他们家中已被配置为与电子设备 通信的门上的智能锁时,电子设备生成触觉输出。
上述响应于电子设备相对于智能家用电器的取向而生成触觉输出的方 式允许电子设备向用户传达电子设备在智能家用电器的通信范围内,这简 化了用户与电子设备之间的交互,增强了电子设备的可操作性(例如,通 过向用户传达关于智能家用电器的信息,而无需用户经由显示设备查看用 户界面),这又通过使用户能够更快速且有效地使用电子设备而减少了电 力使用并且延长了电子设备的电池寿命,并且使电子设备能够生成指示智 能家居设备的触觉输出,而无需经由显示设备呈现用户界面,这进一步节 省了电力。
在一些实施方案中,诸如在图8V至图8W中,生成对应于物理对象 806的相应触觉输出包括(970)捕获电子设备500a的环境的图像(972) (例如,使用与电子设备通信的相机);以及响应于捕获电子设备的环境 的图像(974):根据电子设备500a从所捕获的图像识别物理对象805,诸 如在图8W中,生成对应于物理对象806的相应触觉输出(976)(例如, 当物理对象在相机的视场中并且电子设备识别该物理对象时,电子设备生 成触觉输出);以及根据电子设备500a未从所捕获的图像识别物理对象 806,放弃生成对应于物理对象的相应触觉输出(978)(例如,如果设备 未从相机/图像识别中识别该对象,则不针对该对象生成触觉输出)。例 如,电子设备识别相机视场中的钥匙或某个其他对象,并且作为响应而生成触觉输出。
上述响应于利用图像识别来识别物理对象而生成触觉输出的方式允许 电子设备识别对象并生成指示对象的触觉输出,即使当对象不是与电子设 备通信的第二电子设备或在预先确定的位置处的对象时也是如此,这简化 了用户与电子设备之间的交互,增强了电子设备的可操作性(例如,通过 扩展电子设备的能力以包括利用图像识别来定位对象),这又通过使用户 能够更快速且有效地使用电子设备诸如使用户能够定位和识别更大数量的 对象而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图8R中,电子设备500a在电子设备处生 成(980)对应于虚拟地放置在电子设备的环境中的虚拟对象832的相应触 觉输出(例如,电子设备生成虚拟对象作为电子设备上的增强现实应用程 序的一部分)。例如,电子设备生成虚拟定时器,并且当电子设备被取向 为在电子设备的增强现实环境中朝向该虚拟定时器时,电子设备生成表示 该定时器的一系列触觉“走时”。
上述生成对应于虚拟对象的触觉输出的方式允许电子设备向用户指示 虚拟对象,这简化了用户与电子设备之间的交互,增强了电子设备的可操 作性(例如,使用户能够更快地定位虚拟对象),这又通过使用户能够更 快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池 寿命。
在一些实施方案中,诸如在图8BB至图8EE中,电子设备500a在电 子设备处生成(982)对应于电子设备的环境中的对象820的相应触觉输 出。
在一些实施方案中,生成相应触觉输出包括在第一时间824经由一个 或多个输入设备接收输入803,该输入与生成对应于图8BB所示的对象的 触觉输出的请求对应(984)(例如,电子设备检测请求电子设备生成指示 电子设备和对象之间的距离的触觉输出的输入,诸如对经由显示设备显示 的“ping”按钮的选择)。
在一些实施方案中,生成相应触觉输出包括响应于接收到与生成对应 于图8BB所示的对象820的触觉输出的请求对应的输入(986),根据确定 对象820距电子设备第一距离,在第一时间(988)之后的第二时间824 (例如,第二时间对应于第一距离)生成相应触觉输出,诸如在图8CC 中;以及根据确定对象820距电子设备500a不同于第一距离的第二距离, 诸如在图8EE中,在第一时间(990)之后的不同于第二时间的第三时间 824(例如,第三时间对应于第二距离)生成相应触觉输出。接收输入和生 成触觉输出之间的时间任选地对应于电子设备和对象之间的距离。在一些 实施方案中,电子设备距对象越远,接收输入和生成触觉输出之间的延迟 越大,并且电子设备和对象之间的距离越短,检测输入和生成触觉输出之 间的延迟越小。例如,如果第一距离比第二距离短,则第二时间比第三时 间更接近第一时间。
上述响应于用户输入而根据电子设备和对象之间的距离来生成触觉输 出的方式允许电子设备利用触觉输出向用户传达电子设备和对象之间的距 离,这简化了用户与电子设备之间的交互,增强了电子设备的可操作性 (例如,通过使用户能够接收关于电子设备和对象之间的距离的信息,而 无需经由显示设备查看用户界面),这又通过使用户能够更快速且有效地 使用电子设备而减少了电力使用并且延长了电子设备的电池寿命,并且使 电子设备能够生成指示电子设备和对象之间的距离的触觉输出,而无需经 由显示设备呈现用户界面,这进一步节省了电力。
应当理解,对图9A至图9F中的操作进行描述的特定次序仅仅是示例 性的,并非意图表明所描述的次序是可执行这些操作的唯一次序。本领域 的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另 外,应当指出的是,本文结合本文所述的其他方法(例如,方法700、1100 和1300)所述的其他过程的细节同样以类似的方式适用于上文结合图9A 至图9F所述的方法900。例如,上文参考方法900所述的电子设备修改触 觉输出序列的特征的方式任选地具有以下特征中的一个或多个特征:修改 电子设备在其中生成触觉输出的取向范围,生成指示AR平面的触觉输 出,和生成指示与第二电子设备共享数据的触觉输出等,如本文参考本文 所述的其他方法(例如,方法700、1100、1300)所述。为了简明起见,此 处不再重复这些细节。
上述信息处理方法中的操作任选地通过运行信息处理装置中的一个或 多个功能模块来实现,该信息处理装置诸如通用处理器(例如,如结合图 1A至图1B、图3、图5A至图5H所述)或特定于应用的芯片。此外,上 文参考图9A至图9F所述的操作任选地由图1A至图1B中所描绘的部件来 实施。例如,接收操作984以及生成操作906、908和912任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中 的事件监视器171检测在触摸屏504上的接触,并且事件分配器模块174 将事件信息传送到应用程序136-1。应用程序136-1的相应事件识别器180 将事件信息与相应事件定义186进行比较,并且确定触摸屏上第一位置处 的第一接触是否与预定义的事件或子事件对应,预定义的事件或子事件诸 如为对用户界面上的对象的选择。当检测到相应的预定义事件或子事件 时,事件识别器180激活与该事件或子事件的检测相关联的事件处理程序 190。事件处理程序190任选地利用或调用数据更新器176或对象更新器 177来更新应用程序内部状态192。在一些实施方案中,事件处理程序190 访问相应GUI更新器178来更新应用程序所显示的内容。类似地,本领域 的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实 现其他过程。
生成指示AR平面的触觉输出
用户以多种不同的方式与电子设备交互,包括与增强现实(AR)内容 交互。下文描述的实施方案提供了电子设备生成触觉输出的方式,该触觉 输出具有与由电子设备呈现的AR内容中包括的在电子设备附近的一个或 多个平面的一个或多个特征相关的特征。增强与设备的交互降低了用户执 行操作所需的时间量,从而降低了设备的用电量并延长了电池供电设备的 电池寿命。应当理解,人们使用设备。当人使用设备时,这个人任选地被称为设备的用户。
图10A至图10I示出了根据本公开的一个或多个实施方案的电子设备 500生成触觉输出1002的示例性方式,该触觉输出具有指示电子设备500 的相机相对于一个或多个AR(增强现实)平面的取向的特征。这些附图中 的实施方案用于示出下文描述的过程,包括参考图11A至图11C所述的过 程。
图10A至图10B示出了电子设备500生成指示电子设备500的相机被 取向为朝向地板1004的触觉输出,该地板是由电子设备500生成的AR内 容中的平面之一。在图10A中,电子设备500的相机被取向为朝向地板 1004的一部分。响应于电子设备500的相机被取向为朝向地板1004,电子 设备500生成具有指示地板1004的频率的触觉输出1002(例如,上文参考 表1所述的“次要减少”触觉输出)。触觉输出1002是连续纹理触觉输 出。相对于图10A至图10I,在一些实施方案中,电子设备500仅在电子设 备500移动时生成触觉输出,而在一些实施方案中,无论电子设备500是 否在移动,电子设备500都生成触觉输出。
在图10B中,电子设备500的相机被取向为朝向地板1004的不同部 分。响应于电子设备500的相机的该取向,电子设备500减小触觉输出1002的幅值以指示地板1004的电子设备500的相机朝向其取向的部分比图 10A中的地板1004的电子设备500的相机朝向其取向的部分更远离电子设 备500。因此,电子设备500生成触觉输出1002,该触觉输出具有指示电 子设备500的相机朝向其取向的AR平面的频率,以及指示电子设备500的 相机与该相机朝向其取向的AR平面的部分之间的距离的幅值。
在图10C中,电子设备500的相机被取向为朝向桌子1006。响应于电 子设备500的相机的该取向,电子设备500生成触觉输出1002(例如,上 文参考表1所述的“次要”触觉输出)。触觉输出1002是连续纹理触觉输 出,其具有指示桌子1006的频率,该频率不同于图10A至图10B所示的触 觉输出1002的指示地板1004的频率。
在图10D中,电子设备500的相机被取向为朝向桌子1006的边缘。响 应于电子设备500的相机的该取向,电子设备500生成指示桌子1006的边 缘的一个或多个离散触觉输出1002(例如,上文参考表1所述的“主要” 触觉输出)(例如,当相机到达AR平面的边缘时,电子设备任选地生成 指示AR平面的该边缘的触觉输出,该触觉输出不同于针对AR平面本身的 其余部分生成的触觉输出)。
在图10E至图10F中,由电子设备500生成的触觉输出1002的幅值随 着电子设备500的相机跨桌子1006移动的速度的变化而变化。在图10E 中,电子设备500的相机以相对低的速度相对于桌子1006移动。响应于电 子设备500的相机的该取向和速度,电子设备500生成触觉输出序列1002 (例如,上文参考表1所述的“次要”触觉输出)。触觉输出序列1002是 具有指示电子设备500的相机的速度的幅值或强度的连续纹理触觉输出。
在图10F中,电子设备500的相机以相对高的速度相对于桌子1006移 动。响应于电子设备500的相机的该取向和速度,电子设备500生成触觉 输出序列1002(例如,上文参考表1所述的“次要”触觉输出)。触觉输 出序列1002是具有指示电子设备500的相机的速度的幅值或强度的连续纹 理触觉输出。图10F所示的触觉输出序列1002的幅值高于图10E所示的触 觉输出序列1002的幅值,因为图10F中电子设备500的相机的速度高于图 10E中电子设备500的相机的速度。
图10G至图10H示出了电子设备500生成触觉输出序列1002,该触觉 输出序列具有指示电子设备500的相机和电子设备500的相机所朝向的桌 子1006的位置之间的距离的幅值。在图10G中,电子设备500的相机被取 向为朝向桌子1006的相对靠近电子设备500的相机的部分。响应于电子设 备500的相机相对于桌子1006的该取向,电子设备500生成触觉输出序列 1002(例如,上文参考表1所述的“次要”触觉输出序列)。触觉输出序 列1002具有指示桌子1006的频率,和指示电子设备500的相机和电子设 备500的相机所朝向的桌子1006的位置之间的距离的幅值。
在图10H中,电子设备500的相机被取向为朝向桌子1006的相对远离 电子设备500的相机的部分。响应于电子设备500的相机相对于桌子1006 的该取向,电子设备500生成触觉输出序列1002(例如,上文参考表1所 述的“次要”触觉输出序列)。触觉输出序列1002具有指示桌子1006的 频率,和指示电子设备500的相机和电子设备500的相机所朝向的桌子1006的位置之间的距离的幅值。图10H所示的触觉输出1002的幅值小于 图10G所示的触觉输出1002的幅值,因为图10H中电子设备500的相机被 取向为朝向桌子1006的相对较远的部分,并且图10G中电子设备500的相 机被取向为朝向桌子1006的相对较近的部分。
在图10I中,电子设备500的相机被取向为朝向位于桌子1006上的织 物1008。电子设备500识别出织物1008具有与桌子1006不同的纹理。作 为响应,电子设备500生成触觉输出序列1002,该触觉输出序列比在电子 设备500的相机被取向为朝向桌子的其他部分时生成的触觉输出序列更锐 利,如图10C至图10H所示。
图11A至图11C是示出根据本公开的一些实施方案的生成触觉输出的 方法1100的流程图,该触觉输出具有指示电子设备的相机相对于一个或多 个AR(增强现实)平面的取向的特征。方法1100任选地在电子设备(诸 如设备100、设备300、设备500)上执行,如上文参考图1A-图1B、图2- 图3、图4A-图4B和图5A-图5H所述。方法1100中的一些操作任选地被组合,并且/或者一些操作的顺序任选地被改变。
在一些实施方案中,诸如在图10A中,与一个或多个输入设备通信的 电子设备(例如,电子设备500,与相机或某种其他方向指示器(例如,激 光指示器、光)通信的移动设备(例如,平板电脑、智能电话、媒体播放 器或可穿戴设备)、膝上型计算机或台式计算机,该方向指示器产生对应 于电子设备的取向的指示)在相机被取向为朝向电子设备的环境时,确定(1102)满足一个或多个触觉输出标准(例如,相机捕获电子设备的环境 的图像)。例如,相机捕获相机所朝向的位置的图像。又如,激光发生器 在激光发生器所朝向的空间中的位置上生成激光点。触觉输出标准任选地 包括当在电子设备上操作触觉输出增强现实(AR)应用程序时满足的标 准。触觉输出标准任选地包括当电子设备已经识别出电子设备的环境中的 对象的平面并且电子设备上的相机被取向为朝向所识别的平面时满足的标准。触觉输出标准任选地包括当相机的取向相对于电子设备环境中的所识 别的平面改变时满足的标准。
在一些实施方案中,诸如在图10A中,响应于确定满足该一个或多个 触觉输出标准(1104),根据确定相机被取向为朝向环境中对象的第一平 面1004(例如,表面诸如地面,或对象的表面诸如地板、桌子、墙壁 等),电子设备500在电子设备处生成(1106)具有第一特征(例如,强 度、纹理(频率)、模式、持续时间等)的第一值的第一触觉输出1002 (例如,触觉、振动)。在一些实施方案中,电子设备将第一触觉输出纹 理与第一平面相关联,并且根据确定相机被取向为朝向第一平面而生成具 有第一触觉输出纹理的触觉输出。
在一些实施方案中,诸如在图10C中,响应于确定满足该一个或多个 触觉输出标准,根据确定相机被取向为朝向该环境中对象的不同于第一平 面1004的第二平面1006,电子设备500在电子设备处生成(1108)具有第 一特征的第二值的第二触觉输出1002(例如,电子设备将第二触觉输出纹 理与第二平面相关联,并且根据确定相机被取向为朝向第二平面而生成具 有第二触觉输出纹理的触觉输出)。例如,当相机被取向为朝向更靠近相 机的平面时,电子设备生成频率较高的触觉输出,并且当相机被取向为朝 向更远离相机的平面时,电子设备生成频率较低的触觉输出。在一些实施 方案中,除了距相机的距离之外,导致上述不同触觉输出的平面的特征是 它们距电子设备环境中的所识别的地平面的相应距离。
上述响应于电子设备的相机所朝向的平面的变化而改变触觉输出的特 征的方式允许电子设备确认相机被取向为朝向哪个平面并且使用触觉输出 来传达关于该平面的信息,这简化了用户与电子设备之间的交互,增强了 电子设备的可操作性(例如,通过减少用户无意中将相机取向为朝向不同 于预期平面的平面的失误),这又通过使用户能够更快速且有效地使用电 子设备而不需要使用电子设备的显示设备或来自用户的触摸屏输入(这减 少了电力使用)来减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图10C至图10D中,当相机被取向为朝向 电子设备环境中的对象的相应平面1006时,电子设备500检测(1110)相 机相对于该相应平面的取向的变化(例如,该相应平面在相机的视场中的 部分的变化)。例如,电子设备改变取向,使得该平面在电子设备的相机 的视场中心的部分改变。
在一些实施方案中,诸如在图10D中,响应于检测到相机相对于相应 平面1006的取向的变化(1112),根据确定相机的取向在变化期间到达对 象的相应平面的边界,电子设备500在电子设备处生成(1114)对应于到 达相应平面的边界的相应触觉输出1002(例如,该触觉输出的一个或多个 特征响应于检测到相应平面的边界而改变)。
在一些实施方案中,诸如在图10C中,根据确定相机的取向在变化期 间在对象的相应平面1006内移动而未到达对象的相应平面的边界,电子设 备500放弃(1116)生成相应触觉输出(例如,电子设备继续呈现不指示 该平面的边界的触觉输出)。例如,当电子设备的相机被取向为朝向桌子 时,电子设备检测到相机的取向改变以捕获桌子的边缘。响应于相机捕获 桌子的边缘,电子设备生成与当相机被取向为朝向桌子的不是桌子边缘的 部分时生成的触觉输出不同的触觉输出。在一些实施方案中,电子设备在 相机正在扫描桌子的边缘内的桌子表面时生成纹理触觉输出,而不是对应 于边缘的触觉输出。
上述呈现对应于相应平面的边缘的触觉输出的方式允许电子设备使用 触觉输出向用户传达相机被取向为朝向该平面的边界,这简化了用户与电 子设备之间的交互,增强了电子设备的可操作性(例如,使用户能够更快 地定位该平面的边界),这又通过使用户能够更快速且有效地使用电子设 备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图10E至图10F中,当相机被取向为朝向 电子设备500环境中的对象的相应平面1006时,电子设备检测(1118)相 机相对于该相应平面的取向的变化(例如,当相机被取向为朝向该相应平 面时,检测电子设备的移动和/或取向的变化)。
在一些实施方案中,诸如在图10E中,响应于检测到相机相对于相应 平面1006的取向的变化(1120),根据确定该取向变化具有跨相应平面的 第一速度,电子设备500在电子设备处生成(1122)对应于跨相应平面的 移动的第一相应触觉输出1002,该第一相应触觉输出具有用于第一相应触 觉输出的相应特征的相应值(例如,电子设备生成触觉输出,该触觉输出 具有用于与相应平面相关联的第一特征的第一值和用于与移动速度相关联的第二特征的第二值)。例如,当电子设备以第一速度跨相应平面移动 时,电子设备生成触觉输出,该触觉输出具有与相应平面相关联的频率和 与第一速度相关联的第一幅值。
在一些实施方案中,诸如在图10F中,响应于检测到相机相对于相应 平面1006的取向的变化(1120),根据确定该取向变化跨相应平面具有不 同于第一速度的第二速度,电子设备500在电子设备处生成(1124)对应 于跨相应平面的移动的第一相应触觉输出1002,该第二相应触觉输出具有 用于第二相应触觉输出的相应特征的第二相应值(例如,电子设备生成触 觉输出,该触觉输出具有与相应平面相关联的频率和与移动速度相关联的 幅值)。例如,当电子设备以第二速度跨相应平面移动时,电子设备生成 触觉输出,该触觉输出具有与相应平面相关联的频率和与第二速度相关联 的第二幅值。在一些实施方案中,当速度较高时,触觉输出的幅值较高, 但在一些实施方案中,当速度较低时,触觉输出的幅值较高。
上述根据相机相对于相应平面的速度来改变触觉输出的相应特征的方 式允许电子设备利用触觉输出向用户传达相机相对于相应平面的速度,这 简化了用户与电子设备之间的交互,增强了电子设备的可操作性(例如, 通过使用户能够更快地确定相机跨相应平面的移动的速度),这又通过使 用户能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子 设备的电池寿命。
在一些实施方案中,诸如在图10G至图10H中,当电子设备500距电 子设备环境中的对象的相应平面1006相应距离时(1126),当相机被取向 为朝向该相应平面时,确定满足一个或多个相应触觉输出标准(1128) (例如,该平面在相机的视场中,电子设备正在运行增强现实应用程序, 该平面与触觉输出相关联,相机的视场正在相对于相应平面移动等)。
在一些实施方案中,诸如在图10G至图10H中,当电子设备500距电 子设备环境中的对象的相应平面1006相应距离时(1126),响应于确定满 足该一个或多个相应触觉输出标准(1130):根据确定相机被取向为朝向 相应平面1006的距相机第一距离的第一部分,诸如在图10G中,电子设备 500在电子设备处生成第一相应触觉输出1002,该第一相应触觉输出具有 用于第一相应触觉输出的相应特征的第一相应值(1132)(例如,电子设 备生成触觉输出,该触觉输出具有与相应平面相关联的第一特征和与相机 和相应平面之间的距离相关联的第二特征),并且根据确定相机被取向为 朝向相应平面1006的不同于第一部分的第二部分,该第二部分距相机第二 距离,该第二距离不同于第一距离,电子设备500在电子设备处生成第二 相应触觉输出1002,该第二相应触觉输出具有用于第二相应触觉输出的相 应特征的第二相应值(1134)(例如,电子设备相对于相应平面的位置在 被取向为朝向相应平面的第一部分时以及在被取向为朝向相应平面的第二 部分时相同,但是电子设备相对于该平面的取向不同的(例如,电子设备 旋转))。例如,在被取向为朝向相应平面的第一部分时,电子设备生成 触觉输出,该触觉输出具有与相应平面相关联的频率和与相机和相应平面 的第一部分之间的第一距离相关联的幅值。例如,在被取向为朝向相应平 面的第二部分时,电子设备生成触觉输出,该触觉输出具有与相应平面相 关联的频率和与相机和相应平面的第二部分之间的第二距离相关联的幅 值。在一些实施方案中,触觉输出的幅值随着相机和相机所朝向的相应平 面的相应部分之间的距离减小而增大,不过在一些实施方案中,触觉输出 的幅值随着相机和相机所朝向的相应平面的相应部分之间的距离减小而减 小。
上述基于电子设备和相机所朝向的相应平面的部分之间的距离来改变 触觉输出的相应特征的方式允许电子设备向用户传达关于电子设备相对于 相应平面的取向的信息,这简化了用户与电子设备之间的交互,增强了电 子设备的可操作性(例如,通过使用户能够更快地确定电子设备相对于相 应平面的取向),这又通过使用户能够更快速且有效地使用电子设备而减 少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图10I中,相应特征的第一相应值和第二 相应值基于对应于相应平面的对象1006的表面1008的特征(1136)(例 如,电子设备基于图像识别来确定相机所朝向的对象的表面的类型)。例 如,电子设备响应于检测到相机被取向为朝向具有平滑纹理的表面而生成 具有平滑纹理的触觉输出,并且电子设备响应于检测到相机被取向为朝向 具有粗糙纹理的表面而生成具有粗糙纹理的触觉输出。
上述生成指示对应于相应平面的对象的表面的特征的触觉输出的方式 允许电子设备利用触觉输出向用户传达该表面的特征,这简化了用户与电 子设备之间的交互,增强了电子设备的可操作性(例如,通过使用户能够 更快地识别相机所朝向的相应平面的部分),这又通过使用户能够更快速 且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿 命。
在一些实施方案中,诸如在图10F中,该一个或多个触觉输出标准包 括当电子设备500相对于第一平面1006或第二平面移动时满足的标准 (1138)(例如,当电子设备未移动时,即使满足其他触觉输出标准,电 子设备也不生成触觉输出)。在一些实施方案中,移动包括电子设备和/或 相机与相应表面之间的距离的变化,电子设备和/或相机相对于相应表面的 取向的变化,相应表面的移动,以及电子设备和/或相机在平行于相应表面 的方向上的移动,该移动不改变电子设备和/或相机与相应平面之间的距 离,而是改变电子设备和/或相机被取向为朝向相应平面的哪个部分。
上述响应于电子设备相对于相应平面的移动而生成触觉输出的方式允 许电子设备在电子设备和/或相机静止时放弃生成触觉输出,这通过使用户 能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备 的电池寿命。
应当理解,对图11A至图11C中的操作进行描述的特定次序仅仅是示 例性的,并非意图表明所描述的次序是可执行这些操作的唯一次序。本领 域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另 外,应当指出的是,本文结合本文所述的其他方法(例如,方法700、900 和1300)所述的其他过程的细节同样以类似的方式适用于上文结合图11A 至图11C所述的方法1100。例如,上文参考方法1100所述的生成指示AR 平面的触觉输出的方式任选地具有以下特征中的一个或多个特征:针对基 于电子设备和相应对象之间的距离而改变的取向范围而生成触觉输出,当 电子设备的取向改变时修改触觉输出,和生成指示与第二电子设备共享数 据的触觉输出等的方式,如本文参考本文所述的其他方法(例如,方法 700、900和1300)所述。为了简明起见,此处不再重复这些细节。
上述信息处理方法中的操作任选地通过运行信息处理装置中的一个或 多个功能模块来实现,该信息处理装置诸如通用处理器(例如,如结合图 1A至图1B、图3、图5A至图5H所述)或特定于应用的芯片。此外,上 文参考图11A至图11C所述的操作任选地由图1A至图1B中所描绘的部件 来实现。例如,生成操作1106、1108和1114任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视 器171检测在触摸屏504上的接触,并且事件分配器模块174将事件信息 传送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息 与相应事件定义186进行比较,并且确定触摸屏上第一位置处的第一接触 是否与预定义的事件或子事件对应,预定义的事件或子事件诸如为对用户 界面上的对象的选择。当检测到相应的预定义事件或子事件时,事件识别 器180激活与该事件或子事件的检测相关联的事件处理程序190。事件处理 程序190任选地利用或调用数据更新器176或对象更新器177来更新应用 程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI 更新器178来更新应用程序所显示的内容。类似地,本领域的普通技术人 员会清楚地知道可如何基于图1A至图1B中描绘的部件来实现其他过程。
生成指示数据共享的触觉输出
用户以多种不同的方式与电子设备交互,包括与其他电子设备共享数 据。下文所述的实施方案提供了电子设备生成指示发起与第二电子设备的 数据共享过程的触觉输出的方式。增强与设备的交互降低了用户执行操作 所需的时间量,从而降低了设备的用电量并延长了电池供电设备的电池寿 命。应当理解,人们使用设备。当人使用设备时,这个人任选地被称为设 备的用户。
图12A至图12Q示出了根据本公开的一些实施方案的第一电子设备 500a生成指示与第二电子设备500b的数据共享过程的触觉输出的示例性方 式。这些附图中的实施方案用于示出下文描述的过程,包括参考图13A-图 13F所述的过程。
在图12A和图12B中,电子设备500a和500b彼此间隔开距离1202, 该距离超过第一阈值距离1204b。当电子设备500a和500b彼此相距的距离 比第一阈值距离1204b更远时,电子设备500a和500b不生成指示与另一电 子设备共享数据的触觉输出或视觉指示。如图12A所示,当电子设备500a 和500b被定位成相距比第一阈值1204b更远的距离时,每个电子设备呈现 相应的主屏幕用户界面,例如(在一些示例中,这两个设备正在显示不同 的相应用户界面,诸如消息收发应用程序、游戏应用程序、网络浏览应用 程序等的用户界面)。在图12B中,电子设备500a和500b移动得彼此更 靠近,但仍然相隔比第一阈值距离1204b更远的距离。因为电子设备500a 和500b相隔的距离比第一阈值距离1204b更远,电子设备500a和500b不 生成指示与另一电子设备共享数据的触觉输出或视觉指示。如图12B所 示,第一电子设备500a继续呈现主屏幕用户界面。
在图12C中,电子设备500a和500b朝向彼此移动,使得电子设备 500a和500b之间的距离1202小于第一阈值距离1204b。响应于越过第一阈 值1204b,电子设备500a和500b生成触觉输出1212a(例如,上文参考表 1所述的“次要”触觉输出),并且利用模糊的视觉效果来显示相应的主屏 幕用户界面。触觉输出序列1212a是连续纹理触觉输出序列,其具有指示 电子设备500a和500b之间的距离的幅值或强度。
在图12D中,电子设备500a和500b移动得彼此更靠近,两者相距在 第一阈值1204b内但比第二阈值1204a更远的距离1202。响应于电子设备 500a和500b之间的减小的距离1202,电子设备500a生成具有增大的幅值 的触觉输出1212b(例如,上面参考表1所述的“次要”触觉输出)并增大 主屏幕用户界面上的模糊效果。另外,在显示器504a上显示的用户界面的 模糊效果随着电子设备500a和500b之间的距离减小而增大。
在图12E中,当电子设备500a和500b相对于彼此处于使得电子设备 500a和500b生成触觉输出但不使得电子设备500a和500b发起数据传输的 取向时,电子设备500a和500b移动的更靠近彼此,相距在第二阈值1204a 内的距离1202。因此,在图12E中,第一电子设备500a生成具有比触觉输 出1212b更高的幅值的触觉输出1212c(例如,上文参考表1所述的“次 要”触觉输出),并且将模糊效果相对于图12D所示的模糊效果增加以指 示电子设备500a和500b之间的距离变化,但不发起数据传输过程。如下 文将参考图12F所述,电子设备500a和500b的使得发起数据传输的取向 是当电子设备500a和500b中的每一者的顶部边缘在阈值角度范围(例 如,1度、5度、10度等)内面向彼此的时候。在图12E中,电子设备 500a和500b之间的角度在阈值角度范围之外。
在图12F中,当电子设备500a和500b相对于彼此处于使得电子设备 500a和500b发起数据传输的取向时,电子设备500a和500b被定位成相距 大于第一阈值1204a的距离1202。电子设备500a和500b被取向成使得电 子设备500a和500b的顶部边缘在阈值角度范围(例如,1度、5度、10 度)内面向彼此。在图12F中,第一电子设备500a生成指示第一电子设备 500a和第二电子设备500b之间的距离1202的触觉输出1212b(例如,上文 参考表1所述的“次要”触觉输出)。电子设备500a和500b不发起数据传 输过程,因为电子设备500a和500b之间的距离1202大于第一阈值距离 1204a。
如图12G至图12H所示,响应于检测到电子设备500a和500b之间的 距离1202在第二阈值距离1204a内并且电子设备500a和500b的取向是导 致发起持续时间阈值1206c的数据传输的取向,电子设备500a和500b发起 数据传输过程。在图12G中,电子设备500a和500b之间的距离1202小于 第一阈值距离1204a,并且电子设备的取向是使得发起数据传输过程的取 向。响应于检测到满足多个数据传输发起标准(例如,取向、距离),第 一电子设备500a生成触觉输出1214(例如,上文参考表1所述的“主要” 触觉输出)。触觉输出1214是离散触觉输出。在图12G中,电子设备已满 足数据传输发起标准的时间1206a小于阈值时间1206c。如将参考图12L和 图12Q更详细地描述的,如果电子设备500a和500b在达到阈值时间1206c 之前停止满足数据传输发起标准,则将不发起数据传输过程。然而,如果 这些设备在阈值时间1206c内继续满足数据传输发起标准,则将任选地发 起数据传输过程中的下一个步骤。
例如,如图12H所示,当两个设备在彼此的阈值距离1204a内并且相 对于彼此处于适当取向时,响应于满足数据传输发起标准(例如,距离和 取向)达阈值时间量1206c,电子设备500a和500b发起共享数据的过程。 第一电子设备500a显示可能与第二电子设备500b进行共享的指示1210a。 同样,第二电子设备500b显示可能与第一电子设备500a进行共享的指示 1210b。在一些实施方案中,第一电子设备500a和第二电子设备500b生成 离散触觉输出(例如,上文参考表1所述的“主要”触觉输出)和/或音频 指示以指示已发起数据共享过程(例如,当达到阈值时间1206c时)。一 旦发起数据共享过程,电子设备500a和500b的用户就能够将一个或多个 文件的指示拖放到数据共享指示1210a或1210b,以发起与另一电子设备 500a或500b共享这些文件的过程。在一些实施方案中,在这两个电子设备 之间使用无线网络共享协议来共享文件。
一旦发起了数据共享过程,电子设备500a和500b任选地不必保持在 彼此的第二阈值距离1204a内就能继续设备之间的数据共享连接。如图12I 所示,当电子设备500a和500b以低于阈值速度1208c的速度1208a彼此移 开(例如,移至相距大于阈值距离1204a的距离)时,电子设备500a继续 呈现与第二电子设备500b的数据共享的指示1210a,并且数据共享连接未 断开。同样,第二电子设备500b继续呈现图12H所示的与第一电子设备 500a共享数据的指示1210b。
然而,在图12J中,第一电子设备500a和第二电子设备500b以超过 阈值速度1208c的速度1208a彼此移开(例如,移至相距大于阈值距离 1204a的距离)。响应于电子设备500a和500b的移动,数据共享连接断 开。如图12J所示,第一电子设备500a生成触觉输出1214(例如,上文参 考表1所述的“主要”触觉输出)以指示数据共享连接已断开。一旦数据 共享连接断开,第一电子设备500a就停止呈现表明与第二电子设备500b 共享数据可行的指示1210a。第二电子设备500b任选地以类似的方式操 作。
如上文参考图12G至图12H所述,任选地必须满足数据共享标准(例 如距离和取向)达阈值时间1206c才能发起数据共享过程。如图12K至图 12L所示,如果电子设备500a和500b彼此移开到相距大于第二阈值距离 1204a的距离,则不发起数据共享过程。图12K示出了第一电子设备500a 和第二电子设备500b相距小于第二阈值距离1204a的距离1202并且处于使 得发起数据传输过程的取向。换句话讲,它们满足数据共享标准。如上文 参考图12K所述,电子设备500a生成指示满足数据传输标准的触觉输出 1214。
在图12L中,在达到阈值时间1206c之前,电子设备500a和500b彼 此移开至相距大于第二阈值距离1204a的距离1202。因为电子设备500a和 500b在小于阈值时间1206c的时间1206a彼此移开,所以不发起数据共享 过程。如图12L所示,第一电子设备500a生成触觉输出1214(例如,参考 表1所述的“主要”触觉输出序列)并且停止显示具有模糊效果的主屏幕。触觉输出1214是离散触觉输出。应当理解,第二电子设备500b任选 地以类似于第一电子设备500a的方式操作。在一些实施方案中,电子设备 不是停止显示模糊效果并且呈现触觉输出,如图12L所示,而是继续呈现 模糊效果和连续纹理触觉输出,诸如在图12D中,而不发起数据传输过 程。
图12M至图12N示出了响应于电子设备500a和500b彼此移开至相距 超过第三阈值距离1204c的距离1202而断开数据共享连接的连接,在该第 三阈值距离处,数据共享连接断开。如图12M所示,电子设备500a和 500b当前被配置为彼此共享数据。
在图12N中,当电子设备500a和500b彼此移开至相距超过第三距离 阈值1204c的距离1202时,数据共享连接断开,该第三距离阈值大于发起 数据共享过程时所处的第二阈值距离1204a。尽管第三距离阈值1204c被示 出为大于第一阈值距离1204b,在该第一阈值距离处,电子设备开始生成指 示数据共享可行的触觉输出,但在一些实施方案中,第三阈值距离1204c 小于或等于第一阈值距离1204b。如图12N所示,电子设备500a停止呈现 表明数据共享可行的指示,并且生成指示数据共享连接已断开的触觉输出 1214(例如,上文参考表1所述的“主要”触觉输出)。
图12O至图12Q示出了如果电子设备500a和500b相对于彼此的取向 不满足预先确定的取向标准,则不发起数据共享过程。在图12O中,电子 设备500a和500b彼此相距大于第一阈值距离1204b的距离1202,并且被 取向为使得电子设备500a和500b的顶部边缘面向相同的方向(例如,在 页面上均朝上)。
在图12P中,电子设备500a和500b移动至相距第一阈值距离1204b 和第二阈值距离1204a之间的距离。尽管电子设备500a和500b相距小于第 一阈值距离1204b的距离1202,但电子设备不生成触觉输出或显示图12C 至图12D所示的模糊效果,因为电子设备500a和500b并未如图12C至图 12D所示被取向为朝向彼此。此外,如果电子设备500a和500b从图12C 所示的取向移动到图12P所示的取向,则由于电子设备500a和500b的取 向的变化,电子设备将任选地停止生成触觉输出并且停止显示模糊效果。 另一方面,如果电子设备500a和500b从图12P中的取向移动到图12C所 示的取向,则电子设备500a和500b将任选地如上文参考图12C所述操 作。
同样,如图12Q所示,电子设备被定位成彼此相距小于第二阈值距离 1204a的距离1202。因为电子设备500a和500b相对于彼此的取向不满足触 觉输出生成标准(例如,以阈值误差角面向彼此,诸如在图12C至图12D 中)或数据共享发起标准(例如,彼此面对,诸如在图12H中),电子设 备500a和500b不生成触觉输出、不显示视觉模糊效果或表明数据共享可 行的指示,也不发起共享数据的过程。如果电子设备500a和500b从图 12H所示的位置移动到图12Q所示的位置,则数据共享连接将断开。另一 方面,如果电子设备500a和500b从图12Q中的取向移动到图12H所示的 取向,则电子设备500a和500b将任选地如上参考图12G所述操作(例 如,呈现模糊视觉效果并且生成连续纹理触觉输出,直到达到阈值时间, 此时将发起数据共享连接)。
但图12B、图12D至图12G和图12I至图12Q未示出第二电子设备 500b的细节,但应当理解,第二电子设备500b的操作方式分别类似于参考 这些附图所示和所述的电子设备500a的操作方式。
图13A至图13F是示出根据一些实施方案的生成指示与第二电子设备 的数据共享过程的触觉输出的方法1300的流程图。方法1300任选地在电 子设备(诸如设备100、设备300、设备500)上执行,如上文参考图1A- 图1B、图2-图3、图4A-图4B和图5A-图5H所述。方法1300中的一些操 作任选地被组合,并且/或者一些操作的顺序任选地被改变。
在一些实施方案中,诸如在图12A至图12B中,与一个或多个输入设 备通信的电子设备(例如,电子设备500,与显示设备(例如,触摸屏)和 /或一个或多个按钮或开关通信的移动设备(例如,平板电脑、智能电话、 媒体播放器或可穿戴设备),与显示设备、触摸屏、鼠标、触控板和/或键 盘通信的膝上型计算机,或与显示设备、触摸屏、鼠标、触控板和/或键盘 通信的台式计算机)由电子设备500a检测检测(1302)第二电子设备500b (例如,移动设备、膝上型计算机或台式计算机)从距电子设备第一距离 移动到距电子设备第二距离,该第二距离比第一距离更近(例如,第一电 子设备和第二电子设备中的一个或多个通信设备任选地彼此通信,诸如经 由Wi-Fi、蓝牙、红外、近场通信(NFC)或一些其他通信协议,并且能够 检测这两个设备之间的距离和该距离的变化)。在一些实施方案中,第一 距离必须小于阈值距离(例如,15英尺、10英尺、5英尺、3英尺、1英 尺),以便首先发生以下动作。
在一些实施方案中,诸如在图12C中,响应于检测到第二电子设备 500b从距电子设备500a第一距离移动到第二距离(1304),根据确定满足 一个或多个触觉输出生成标准,电子设备在电子设备处生成(1306)第一 触觉输出1212a(例如,触觉、振动等)。该一个或多个触觉输出生成标准 任选地包括与电子设备和第二电子设备之间的距离,电子设备和第二电子 设备之间的通信链路,这些电子设备相对于彼此的取向相关的标准。例 如,电子设备生成具有用于第一特征的预先确定的值的触觉输出,该触觉 输出指示第二电子设备邻近电子设备。例如,该触觉输出是具有预先确定 的强度、纹理和持续时间的猝发。在一些实施方案中,电子设备在第二电 子设备移动得越来越靠近时生成更快和/或更强的触觉输出脉冲,并且在第 二电子设备移动得越来越远时生成更慢和/或更弱的触觉输出脉冲。
在一些实施方案中,诸如在图12H中,响应于检测到第二电子设备 500b从距电子设备500a第一距离移动到第二距离(1304),根据确定满足 一个或多个数据传输发起标准,电子设备经由显示设备显示(1308)表明 与第二电子设备共享数据可行的视觉指示1210a(例如,文本和/或图像) (例如,数据传输发起标准还包括以下中的一者或多者:当第二电子设备 被存储为电子设备上的联系人时满足的标准,当电子设备在数据传输模式 下操作时满足的标准,当电子设备和第二电子设备位于同一无线网络时满 足的标准等)。在一些实施方案中,该视觉指示包括当被选择时在电子设 备和第二电子设备之间发起数据传输的可选选项。在一些实施方案中,如 果第一设备和第二设备彼此保持小于数据传输距离超过时间阈值(例如,1 秒、3秒、5秒),则满足数据传输发起标准。在一些实施方案中,所呈现的视觉指示是安装在电子设备上的应用程序(例如,照片应用程序、消息 收发应用程序等)的视觉指示,可经由该应用程序与第二电子设备共享数 据,并且选择该视觉指示或将内容拖动到该视觉指示的用户输入使得经由 对应的应用程序与第二设备共享内容(或被拖动的内容)。
在一些实施方案中,诸如在图12C中,响应于检测到第二电子设备 500b从距电子设备500a第一距离移动到第二距离(1304),根据确定不满 足该一个或多个数据传输发起标准,电子设备放弃(1310)经由显示设备 504a显示表明与第二电子设备共享数据可行的视觉指示1210a(例如,在 一些实施方案中,数据共享标准包括当在生成第一触觉输出之后电子设备 和第二电子设备之间的距离增大到预先确定的阈值距离时不满足的标 准)。例如,电子设备的用户能够将电子设备移动远离第二电子设备以防 止发起数据传输,并且不显示表明与第二电子设备共享数据可行的视觉指 示。
上述响应于检测到第二电子设备充分靠近电子设备(例如,对于要执 行的数据传输操作)的方式允许电子设备使用触觉输出向用户传达数据传 输可行,这简化了用户与电子设备之间的交互,增强了电子设备的可操作 性(例如,用户能够在可能无法检测到视觉指示或音频指示的情况下诸如 当电子设备在用户的包、钱包或口袋中时检测触觉输出),这又通过使用 户能够更快速且有效地使用电子设备而减少了电力使用并且延长了电子设备的电池寿命。
在一些实施方案中,诸如在图12B中,响应于检测到第二电子设备 500b从距第一电子设备500a第一距离移动到第二距离(1312),根据确定 不满足该一个或多个触觉输出生成标准(例如,距离标准、取向标准 等),电子设备500a放弃(1314)生成第一触觉输出(例如,如果将第二 电子设备从距第一电子设备第一距离移动到距第一电子设备第二距离未将 第一电子设备和第二电子设备置于彼此相距阈值距离内或者未导致第一电 子设备和第二电子设备具有满足取向标准的相对于彼此的取向,则不生成 触觉输出并且不建立数据传输连接)。
上述当不满足一个或多个触觉输出生成标准时放弃生成触觉输出的方 式允许第一电子设备在不满足该一个或多个触觉输出生成标准时放弃呈现 触觉输出,这简化了用户与第一电子设备之间的交互,增强了第一电子设 备的可操作性(例如,通过在第一电子设备和/或第二电子设备的用户不打 算进行数据传输连接的情况下放弃生成触觉输出),这又通过使用户能够 更快速且有效地使用第一电子设备而减少了电力使用并且延长了第一电子 设备的电池寿命,并且通过放弃生成触觉输出而使电子设备能够在未满足 该一个或多个触觉输出生成标准时进一步节省能量。
在一些实施方案中,诸如在图12H中,该一个或多个数据传输发起标 准包括当电子设备500a相对于第二电子设备500b的相对取向是第一相对 取向时满足并且当电子设备500a相对于第二电子设备500b的相对取向是 不同于第一取向的第二取向时不满足的标准(1316),诸如在图12E中 (例如,当第一电子设备的顶部边缘和第二电子设备的顶部边缘面向彼此 时满足该标准,并且当这些电子设备处于不同的取向时不满足该标准)。 当这些电子设备处于与第一取向不同的取向时,任选地不发起数据传输, 即使这两个设备之间的距离满足数据传输距离标准。
上述包括基于第一电子设备和第二电子设备相对于彼此的取向的标准 的方式允许第一电子设备在用户将第一电子设备放置在不满足该标准的取 向时放弃发起数据传输,这简化了用户与第一电子设备之间的交互,增强 了第一电子设备的可操作性(例如,通过使用户能够终止数据传输连接而 无需在经由显示设备显示的用户界面中导航),这又通过使用户能够更快 速且有效地使用第一电子设备而减少了电力使用并且延长了第一电子设备 的电池寿命。
在一些实施方案中,诸如在图12C中,生成第一触觉输出1212a包括 根据确定电子设备500a距第二电子设备500b第一相应距离而生成第一触 觉输出121a,该第一触觉输出具有用于第一触觉输出的第一特征(例如, 频率、幅值、模式、纹理等)的第一值(1318);以及根据确定电子设备 500a距第二电子设备500b不同于第一相应距离的第二相应距离,诸如在图 12D中,生成第一触觉输出1212b,该第一触觉输出具有用于第一触觉输出 的第一特征的不同于第一值的第二值(1320)(例如,随着第一电子设备 和第二电子设备之间的距离减小,该触觉输出的幅值增大)。
上述生成具有随着第一电子设备和第二电子设备之间的距离而变化的 特征的触觉输出的方式允许第一电子设备向用户传达这些电子设备之间的 距离,而无需用户经由显示设备查看用户界面,这简化了用户与第一电子 设备之间的交互,增强了第一电子设备的可操作性(例如,通过在用户未 看向第一电子设备时更快地将这些电子设备之间的距离传达给用户),这 又通过使用户能够更快速且有效地使用第一电子设备而减少了电力使用并 且延长了第一电子设备的电池寿命。
在一些实施方案中,诸如在图12G中,响应于检测到第二电子设备 500b从距电子设备500a第一距离移动到第二距离(1322),根据确定满足 该一个或多个数据传输发起标准,电子设备在第一电子设备处生成 (1324)对应于数据传输发起标准的满足的第二触觉输出1214(例如,该 第二触觉输出具有与第一触觉输出不同的一个或多个特征)。例如,第一 触觉输出是连续纹理触觉输出,并且第二触觉输出是离散触觉输出。
在一些实施方案中,诸如在图12F中,响应于检测到第二电子设备 500b从距电子设备500a第一距离移动到第二距离(1322),根据确定不满 足该一个或多个数据传输发起标准,电子设备放弃(1326)在第一电子设 备处生成第二触觉输出(例如,第一电子设备继续生成第一触觉输出,直 到满足数据传输发起标准或直到不再满足触觉输出生成标准)。
上述响应于满足数据传输发起标准而生成第二触觉输出的方式允许第 一电子设备使用该触觉输出向用户传达第一电子设备准备好向/从第二电子 设备传输数据,这简化了用户与第一电子设备之间的交互,增强了第一电 子设备的可操作性(例如,通过使用户能够更快地确定满足数据传输发起 标准),这又通过使用户能够更快速且有效地使用第一电子设备而减少了 电力使用并且延长了第一电子设备的电池寿命。
在一些实施方案中,诸如在图12H中,在满足该一个或多个数据传输 发起标准之后的时间阈值1206c(例如,1、2、4秒)处显示表明与第二电 子设备500b的数据共享可行的视觉指示1210a(1328)(例如,该视觉指 示包括指示与第二电子设备的数据共享连接的文本或图像中的一者或多 者)。在一些实施方案中,该视觉指示还包括询问用户确认数据共享的发 起的提示。例如,电子设备呈现数据共享的指示,和在被选择时使得电子 设备发起数据共享的可选选项,和在被选择时使得电子设备终止与第二电 子设备的连接的可选选项。数据共享任选地直到用户选择用于使得电子设 备发起数据共享的选项才继续。
上述在时间阈值之后呈现视觉指示的方式允许第一电子设备将视觉指 示呈现更短的时间量,这通过使用户能够更快速且有效地使用第一电子设 备而减少了电力使用并且延长了第一电子设备的电池寿命。
在一些实施方案中,诸如在图12H中,该一个或多个数据传输发起标 准包括当第一电子设备500a保持在第二电子设备500b的数据传输距离内 长于时间阈值1206c(例如,1秒、2秒、4秒)时满足并且当在时间阈值 1206c(例如,1秒、2秒、4秒)之前将第一电子设备500a移动到距第二 电子设备500b比数据传输距离1204a更远的距离时不满足的标准(1330),诸如在图12L中。例如,电子设备检测电子设备和第二电子设 备之间的距离在时间阈值内增大到高于数据传输距离阈值,并且作为响 应,终止电子设备和第二电子设备之间的数据共享连接。在一些实施方案 中,电子设备呈现询问用户确认数据共享的发起的提示。例如,电子设备 呈现数据共享的指示,和在被选择时使得电子设备发起数据共享的可选选 项,和在被选择时使得电子设备终止与第二电子设备的连接的可选选项。 数据共享任选地直到用户选择用于使得电子设备发起数据共享的选项才继 续。
上述包括在电子设备之间的距离在预先确定的时间量内变得大于数据 传输距离时不满足的数据传输发起标准的方式允许第一电子设备使用户能 够通过将电子设备移动远离第二电子设备来终止数据传输,这简化了用户 与第一电子设备之间的交互,增强了第一电子设备的可操作性(例如,通 过提供取消数据传输的方式而无需与经由显示设备呈现的用户界面交 互),这又通过使用户能够更快速且有效地使用第一电子设备而减少了电力使用并且延长了第一电子设备的电池寿命。
在一些实施方案中,诸如在图12C中,电子设备500a检测(1332)第 二电子设备500b从距第一电子设备第一相应距离移动到第二相应距离。
在一些实施方案中,诸如在图12C中,响应于检测到第二电子设备 500b从距第一电子设备500a第一相应距离移动到第二相应距离(1334), 根据确定满足一个或多个标准(1336)(例如,在从第一相应距离移动到 第二相应距离期间这两个设备足够靠近以建立通信和潜在的数据传输,这 些电子设备相对于彼此处于预先确定的取向等):当第二电子设备500b和 第一电子设备500a相距图12C所示的第一相应距离时,电子设备经由显示 设备显示(1338)对应于第一相应距离的第一视觉指示(例如,经由显示 设备显示的用户界面呈现有第一量的变暗和/或模糊效果,并且任选地伴随 有指示数据传输的文本或图像的呈现);以及当第二电子设备500b和第一 电子设备500a相距图12D所示的第二相应距离时,电子设备经由显示设备 显示(1340)对应于第二相应距离的不同于第一视觉指示的第二视觉指示 (例如,经由显示设备显示的用户界面呈现有第二量的变暗和/或模糊效 果,并且任选地伴随有指示数据传输的文本或图像的呈现)。例如,当这 些电子设备移动得更靠近时,该用户界面呈现有比在这两个设备靠近之前 所显示的用户界面更大程度的变暗和/或模糊。
上述呈现对应于第一电子设备和第二电子设备之间的相应距离的视觉 指示的方式允许第一电子设备向用户指示第一电子设备和第二电子设备之 间的能够传输数据的距离,这简化了用户与第一电子设备之间的交互,增 强了第一电子设备的可操作性(例如,通过使用户能够更快地确定与第二 电子设备的数据传输可行并且电子设备需要移动靠近以发起数据传输的程 度),这又通过使用户能够更快速且有效地使用第一电子设备而减少了电 力使用并且延长了第一电子设备的电池寿命。
在一些实施方案中,诸如在图12I中,当满足该一个或多个数据传输 发起标准时,电子设备检测(1342)第一电子设备500a和第二电子设备 500b之间的距离从小于数据传输距离1204a的第一相应距离改变到大于该 数据传输距离的第二相应距离(例如,这些电子设备中的一者或两者移动 远离另一电子设备)。
在一些实施方案中,诸如在图12I中,响应于检测到第一电子设备 500a和第二电子设备500b之间的距离从第一相应距离改变到第二相应距离 (1344):根据确定第一电子设备500a和第二电子设备500b以小于速度 阈值1208c的速度1208a移开,电子设备经由显示设备504a保持(1346) 显示表明与第二电子设备共享数据可行的视觉指示1210a(例如,当这些电 子设备以相对较慢的速度彼此移开时,该视觉指示继续呈现并且数据传输 连接/潜在的连接持续存在);以及根据确定第一电子设备500a和第二电子 设备500b以大于速度阈值1208c的速度1208a移开,电子设备停止 (1348)显示表明与第二电子设备共享数据可行的视觉指示,诸如在图12J 中(例如,当这些电子设备以相对较快的速度彼此移开时,该视觉指示停 止呈现并且数据传输连接/潜在的连接停止)。
上述当速度小于速度阈值时继续呈现视觉指示并且当速度大于速度阈 值时停止呈现视觉指示的方式允许第一电子设备使用户能够通过以高于阈 值速度的速度将第一电子设备移动远离第二电子设备来终止数据共享连 接,这简化了用户与第一电子设备之间的交互,增强了第一电子设备的可 操作性(例如,通过使用户能够终止数据共享连接而无需在经由显示设备 显示的用户界面中导航),这又通过使用户能够更快速且有效地使用第一 电子设备而减少了电力使用并且延长了第一电子设备的电池寿命,还减少 了用户作为对速度低于速度阈值的移动的响应而无意中终止数据传输连接 的错误,并且使电子设备的用户能够继续数据共享操作而无需继续将电子 设备定位在数据传输距离和取向处。
在一些实施方案中,当满足该一个或多个数据传输发起标准时,电子 设备经由一个或多个输入设备接收(1350)与发起与第二电子设备504b的 数据共享的请求对应的输入,诸如将内容项拖动到图12H所示的指示 1210a(例如,选择表明与第二电子设备共享数据可行的视觉指示,将内容 项的表示拖放到该视觉指示以便与第二电子设备共享等)。在一些实施方 案中,响应于接收到与发起与电子设备500a的数据共享的请求对应的输 入,电子设备发起(1352)与第二电子设备500b的数据共享会话(例如, 向第二电子设备发送一个或多个文件或从第二电子设备接收一个或多个文 件)。
在一些实施方案中,诸如在图12M中,当与第二电子设备500b的数 据共享会话处于活动状态时,电子设备500a检测(1354)第一电子设备和 第二电子设备之间的距离从小于数据传输距离1204a的第一相应距离改变 到大于该数据传输距离的第二相应距离1202(例如,这些电子设备中的一 者或两者移动远离另一电子设备)。
在一些实施方案中,诸如在图12M中,响应于检测到第一电子设备 500a和第二电子设备500b之间的距离从第一相应距离改变到第二相应距离 (1356),根据确定第二相应距离1202小于数据共享断开距离1204c,该 数据共享断开距离大于数据传输距离1204a,电子设备保持(1358)与第二 电子设备的数据共享会话(例如,继续连接到第二电子设备以进行数据传 输,继续呈现数据传输的视觉指示,继续向第二电子设备发送文件或从第 二电子设备接收文件等);以及根据确定第二相应距离1202大于数据共享 断开距离1204c,诸如在图12N中,电子设备500a结束(1360)与第二电 子设备500b的数据共享会话(例如,停止与第二电子设备的数据传输连 接,停止呈现数据传输的视觉指示,停止向第二电子设备发送文件或从第 二电子设备接收文件)。
上述响应于检测到第一电子设备和第二电子设备之间的距离超过数据 共享断开距离而结束数据共享会话的方式允许第一电子设备使用户能够通 过将第一电子设备移动到远离第二电子设备的预先确定的距离来终止数据 共享会话,这简化了用户与第一电子设备之间的交互,增强了第一电子设 备的可操作性(例如,通过使用户能够终止数据传输会话而无需在经由显 示设备呈现的用户界面中导航),这又通过使用户能够更快速且有效地使 用第一电子设备而减少了电力使用并且延长了第一电子设备的电池寿命, 还减少了在将电子设备移开到小于数据共享断开距离的距离时意外终止数 据传输会话的用户错误的可能性,并且使电子设备的用户能够继续数据共 享操作而无需继续将电子设备定位在数据传输距离和取向处。
在一些实施方案中,诸如在图12N中,结束与第二电子设备500b的数 据共享会话包括在第一电子设备500a处生成对应于数据共享会话的结束的 第二触觉输出1214(1362)(例如,该第二触觉输出不同于第一触觉输 出)。例如,第一触觉输出是连续纹理触觉输出,并且第二触觉输出是离 散触觉输出。
上述生成第二触觉输出以指示数据共享会话已断开连接的方式允许第 一电子设备向用户指示数据共享会话已终止,这简化了用户与第一电子设 备之间的交互,增强了第一电子设备的可操作性(例如,通过使用户能够 更快地确定数据共享会话已终止),这又通过使用户能够更快速且有效地 使用第一电子设备而减少了电力使用并且延长了第一电子设备的电池寿 命。
在一些实施方案中,诸如在图12H中,该一个或多个数据传输发起标 准包括当第二距离1202小于数据传输距离1204a(例如,12英寸、6英 寸、3英寸、1英寸)时满足并且当第二距离1202大于数据传输距离1204a 时不满足的标准(1364),诸如在图12F中(例如,当电子设备彼此相距 大于数据传输距离的距离时,不满足该标准并且不发起数据传输)。
上述包括基于第一电子设备和第二电子设备之间的距离的数据传输发 起标准的方式允许第一电子设备使用户能够通过改变第一电子设备相对于 第二电子设备的距离来控制是否发起数据传输,这简化了用户与第一电子 设备之间的交互,增强了第一电子设备的可操作性(例如,通过使用户能 够以比与经由显示设备显示的用户界面交互更快的方式来控制数据传输发 起),这又通过使用户能够更快速且有效地使用第一电子设备而减少了电 力使用并且延长了第一电子设备的电池寿命。
应当理解,对图13A至图13F中的操作进行描述的特定次序仅仅是示 例性的,并非意图表明所描述的次序是可执行这些操作的唯一次序。本领 域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另 外,应当指出的是,本文结合本文所述的其他方法(例如,方法700、900 和1100)所述的其他过程的细节同样以类似的方式适用于上文结合图13A 至图13F所述的方法1300。例如,上文参考方法1300所述的生成指示数据 共享的触觉输出的方式任选地具有以下特征中的一个或多个特征:针对基 于电子设备和相应对象之间的距离而改变的取向范围而生成触觉输出,当 电子设备的取向改变时修改触觉输出,和生成指示AR平面的触觉输出等 的方式,如本文参考本文所述的其他方法(例如,方法700、900和1100) 所述。为了简明起见,此处不再重复这些细节。
上述信息处理方法中的操作任选地通过运行信息处理装置中的一个或 多个功能模块来实现,该信息处理装置诸如通用处理器(例如,如结合图 1A至图1B、图3、图5A至图5H所述)或特定于应用的芯片。此外,上 文参考图13A-图13F描述的操作任选地由图1A-图1B中所描绘的部件来实 现。例如,显示操作1308、1338和1340,生成操作1306、1318和1320,发起操作1352以及接收操作1350任选地由事件分类器170、事件识别器 180和事件处理程序190来实现。事件分类器170中的事件监视器171检测 在触摸屏504上的接触,并且事件分配器模块174将事件信息传送到应用 程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件 定义186进行比较,并且确定触摸屏上第一位置处的第一接触是否与预定 义的事件或子事件对应,预定义的事件或子事件诸如为对用户界面上的对 象的选择。当检测到相应的预定义事件或子事件时,事件识别器180激活 与该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任 选地利用或调用数据更新器176或对象更新器177来更新应用程序内部状 态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178 来更新应用程序所显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实现其他过程。
如上所述,本发明技术的一个方面是采集和使用可从特定和合法来源 获得的数据以呈现与用户相关的内容。本公开预期,在一些实例中,该所 采集的数据可包括唯一地识别或可用于识别具体人员的个人信息数据。此 类个人信息数据可包括基于位置的数据、在线标识符、人口统计数据、出 生日期、电话号码、电子邮件地址、家庭地址、与用户的健康或健身级别 相关的数据或记录(例如,生命特征测量、药物信息、锻炼信息)或任何 其他个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受 益。此外,本公开还预期个人信息数据有益于用户的其他用途。在一些实 施方案中,确定电子设备的当前位置使电子设备能够定位在电子设备附近 的对象。因此,使用此类个人信息数据使用户能够查看与他们相关的信 息。在一些实施方案中,健康和健身数据可根据用户偏好来使用以提供对 其总体健康状况的见解,或者可用作对使用技术来追求健康目标的个体的 积极反馈。
本公开预期负责收集、分析、公开、传输、存储或其他使用此类个人 信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,将期望此 类实体实现和一贯地应用一般公认为满足或超过维护用户隐私的行业或政 府所要求的隐私实践。另外,此类收集/共享应仅发生在接收到用户同意或 在适用法律中所规定的其他合法根据之后。用户的个人信息应被收集仅用 于合法使用。关于使用个人数据的此类信息应当被突出并能够被用户方便 地访问,并应当随数据的收集和/或使用改变而被更新。此外,此类实体应 考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保 有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体 可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此 外,应针对被收集和/或访问的特定类型的个人信息数据调整政策和实践, 并使其适用于适用法律和标准,包括可用于施加较高标准的辖区专有的考 虑因素。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州 法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数 据可能受到其他法规和政策的约束并应相应处理。
不管前述情况如何,本公开还预期用户选择性地阻止使用或访问个人 信息数据的实施方案。例如,本技术可被配置为允许用户在注册服务期间 或其后随时选择参与采集个人信息数据的“选择加入”或“选择退出”。 又如,用户可选择不启用确定电子设备的位置的位置服务。又如,用户能 够禁用允许电子设备能够被其他人发现并且允许电子设备与另一电子设备 传输数据的设置。即本公开预期可提供硬件元件和/或软件元件,以防止或 阻止对此类个人信息数据的访问。
一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此 外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于 保护用户的隐私。可在适当时通过移除标识符、控制所存储数据的量或特 异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如 何被存储(例如,在用户间汇集数据)和/或其他方法诸如差异化隐私来促 进去标识。此外,本公开的目的是应管理和处理个人信息数据以最小化无 意或未经授权访问或使用的风险。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个 各种所公开的实施方案,但本公开还预期各种实施方案也可在无需访问此 类个人信息数据的情况下被实现。例如,可基于汇集的非个人信息数据或 绝对最低数量的个人信息,诸如仅在用户设备上处理的内容或可用于内容 递送服务的其他非个人信息,来选择内容并递送给用户。即,本发明技术 的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正 常进行。
应管理和处理个人可识别信息数据,以使无意或未经授权的访问或使 用的风险最小化,并应当向用户明确说明授权使用的性质。众所周知,使 用个人可识别信息应遵循公认为满足或超过维护用户隐私的行业或政府要 求的隐私政策和做法。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然 而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确 形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择和 描述实施方案是为了最佳地阐明本发明的原理及其实际应用,以便由此使 得本领域的其他技术人员能够最佳地使用具有适合于所构想的特定用途的 各种修改的本发明以及各种所描述的实施方案。

Claims (21)

1.一种方法,包括:
在与一个或多个输入设备通信的电子设备处:
经由所述一个或多个输入设备接收对应于相对于第一对象的取向范围的一个或多个输入的序列;以及
响应于接收到所述一个或多个输入的序列:
根据确定所述电子设备和所述第一对象之间的距离是第一距离,在所述电子设备处生成对应于所述第一对象相对于所述电子设备的取向的第一触觉输出,其中所述第一触觉输出发生在所述取向范围的第一部分中但不发生在所述取向范围的第二部分中;以及
根据确定所述电子设备和所述第一对象之间的所述距离是不同于所述第一距离的第二距离,在所述电子设备处生成对应于所述第一对象相对于所述电子设备的所述取向的第二触觉输出,其中所述第二触觉输出在所述取向范围的所述第一部分和所述取向范围的所述第二部分两者中发生。
2.根据权利要求1所述的方法,其中所述第一距离小于所述第二距离。
3.根据权利要求1所述的方法,其中所述第一距离大于所述第二距离。
4.根据权利要求1所述的方法,还包括:
经由所述一个或多个输入设备检测所述电子设备和所述第一对象之间的距离从初始距离到最终距离的变化;
在检测到所述电子设备和所述第一对象之间的距离从所述初始距离到所述最终距离的所述变化之后,经由所述一个或多个输入设备接收一个或多个输入的第二序列,所述第二序列对应于所述电子设备在相对于所述第一对象的所述取向范围中的移动;以及
响应于接收到所述一个或多个输入的第二序列,在所述电子设备处生成相应触觉输出,所述触觉输出具有用于一个或多个特征的一个或多个第一值并且对应于所述第一对象相对于所述电子设备的所述取向,所述取向基于所述电子设备在所述取向范围中的所述移动,所述一个或多个第一值不同于用于当所述电子设备和所述第一对象之间的所述距离是所述初始距离时将生成的对应触觉输出的所述一个或多个特征的一个或多个第二值。
5.根据权利要求1所述的方法,其中:
当所述电子设备和所述第一对象之间的所述距离是所述第一距离时,所述电子设备不响应于所述电子设备在所述取向范围的所述第一部分之外的移动来生成触觉输出,并且
当所述电子设备和所述第一对象之间的所述距离是所述第二距离时,所述电子设备不响应于所述电子设备在所述取向范围的所述第一部分和所述第二部分之外的移动来生成触觉输出。
6.根据权利要求1所述的方法,其中所述第一对象是所述电子设备上的导航应用程序的目的地。
7.根据权利要求1所述的方法,其中所述电子设备被配置为响应于所述电子设备的位置与从所述电子设备上的导航应用程序中的第一位置到所述第一对象的位置的导航路径重合而生成触觉输出。
8.根据权利要求1所述的方法,其中所述取向范围相对于所述电子设备的三个取向轴而被限定。
9.根据权利要求1所述的方法,其中所述取向范围相对于所述电子设备的两个取向轴而被限定而不考虑所述电子设备的第三取向轴。
10.根据权利要求1所述的方法,其中:
所述第一对象相对于所述电子设备处于相应取向,
所述取向范围的第一相应部分包括所述相应取向,并且所述取向范围的第二相应部分不包括所述相应取向,
所述电子设备被配置为响应于检测到所述电子设备在所述取向范围的所述第一相应部分内的取向而生成离散触觉输出,并且
所述电子设备被配置为生成随着所述电子设备的所述取向在所述取向范围的所述第二相应部分内变化而变化的纹理触觉输出。
11.根据权利要求10所述的方法,其中所述纹理触觉输出具有第一幅值,所述第一幅值大于所述离散触觉输出的第二幅值。
12.根据权利要求10所述的方法,其中所述离散触觉输出具有第一幅值,所述第一幅值大于所述纹理触觉输出的第二幅值。
13.根据权利要求1所述的方法,其中所述第一对象对应于用户在所述电子设备上的地图绘制应用程序上指定的位置。
14.根据权利要求1所述的方法,其中所述第一对象是所述电子设备的环境中的对象。
15.根据权利要求1所述的方法,其中:
所述第一触觉输出的一个或多个特征的一个或多个值不同于所述第二触觉输出的所述一个或多个特征的一个或多个值。
16.根据权利要求1所述的方法,其中所述一个或多个输入的序列包括检测所述电子设备的移动。
17.根据权利要求16所述的方法,其中:
生成所述第一触觉输出在所述电子设备移动时发生,并且在所述电子设备未移动时不发生,并且
生成所述第二触觉输出在所述电子设备移动时发生,并且在所述电子设备未移动时不发生。
18.根据权利要求1所述的方法,其中所述一个或多个输入的序列对应于相对于所述第一对象的第一取向范围和相对于不同于所述第一对象的第二对象的第二取向范围,并且所述电子设备被配置为生成一个或多个特征具有基于相对于所述第一对象的所述第一取向范围的一个或多个第一值的触觉输出,并且生成所述一个或多个特征具有基于相对于所述第二对象的所述第二取向范围的一个或多个第二值的触觉输出,所述第二值不同于所述第一值。
19.根据权利要求1所述的方法,其中所述一个或多个输入的序列包括所述电子设备上的控制元素的移动。
20.一种电子设备,包括:
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1至19中任一项所述的方法的指令。
21.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由电子设备的一个或多个处理器执行时,使得所述电子设备执行根据权利要求1至19中任一项所述的方法。
CN202210077295.7A 2019-04-28 2020-04-27 生成与对象相关联的触觉输出序列 Pending CN114637418A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962839735P 2019-04-28 2019-04-28
US62/839,735 2019-04-28
PCT/US2020/030149 WO2020223176A1 (en) 2019-04-28 2020-04-27 Generating tactile output sequences associated with an object
CN202080046521.4A CN114041107A (zh) 2019-04-28 2020-04-27 生成与对象相关联的触觉输出序列

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN202080046521.4A Division CN114041107A (zh) 2019-04-28 2020-04-27 生成与对象相关联的触觉输出序列

Publications (1)

Publication Number Publication Date
CN114637418A true CN114637418A (zh) 2022-06-17

Family

ID=73029740

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210077295.7A Pending CN114637418A (zh) 2019-04-28 2020-04-27 生成与对象相关联的触觉输出序列
CN202080046521.4A Pending CN114041107A (zh) 2019-04-28 2020-04-27 生成与对象相关联的触觉输出序列

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202080046521.4A Pending CN114041107A (zh) 2019-04-28 2020-04-27 生成与对象相关联的触觉输出序列

Country Status (4)

Country Link
US (2) US11823558B2 (zh)
EP (1) EP3963433A4 (zh)
CN (2) CN114637418A (zh)
WO (1) WO2020223176A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020214864A1 (en) 2019-04-17 2020-10-22 Prestacom Services Llc User interfaces for tracking and finding items
EP3963433A4 (en) * 2019-04-28 2023-01-25 Apple Inc. PRODUCTION OF TOUCH OUTPUT SEQUENCES ASSOCIATED WITH AN OBJECT
KR102332318B1 (ko) * 2020-07-22 2021-12-01 이화여자대학교 산학협력단 시공간 인코딩을 사용하여 가상 객체의 거칠기 촉각을 제공하기 위한 방법 및 시스템
WO2022067316A1 (en) 2020-09-25 2022-03-31 Apple Inc. User interfaces for tracking and finding items
WO2024019497A1 (ko) * 2022-07-18 2024-01-25 서울대학교산학협력단 더블게이트 트랜지스터를 포함하는 마이크로 led 구동 회로 및 이를 포함하는 마이크로 led 표시장치

Family Cites Families (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160026869A1 (en) 1986-12-11 2016-01-28 Sony Corporation Information processing apparatus and method, information processing system, and providing medium
US5729731A (en) 1994-03-18 1998-03-17 Hitachi, Ltd. Method of retrieving in a database through image information
US5672820A (en) 1995-05-16 1997-09-30 Boeing North American, Inc. Object location identification system for providing location data of an object being pointed at by a pointing device
CA2180891C (en) 1995-07-12 2010-01-12 Junichi Rekimoto Notification of updates in a three-dimensional virtual reality space sharing system
EP1717678B1 (en) 1998-01-26 2017-11-22 Apple Inc. Method for integrating manual input
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
JP2000194726A (ja) 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US7058356B2 (en) 2000-06-15 2006-06-06 Benjamin Slotznick Telephone device with enhanced audio-visual features for interacting with nearby displays and display screens
US6421608B1 (en) 2000-07-12 2002-07-16 Ricoh Company Limited Method and system of remote position reporting device
US20070037582A1 (en) 2000-07-14 2007-02-15 Norman Mohi Locating system and method
US20070037588A1 (en) 2000-07-14 2007-02-15 Norman Mohi Locating system and method
US20070042790A1 (en) 2000-07-14 2007-02-22 Norman Mohi Locating system and method
US8195200B2 (en) 2000-07-14 2012-06-05 Norbelle Llc Locating system and method
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6441752B1 (en) 2000-12-30 2002-08-27 Mundi Fomukong Method and apparatus for locating mobile units tracking another or within a prescribed geographic boundary
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7138963B2 (en) 2002-07-18 2006-11-21 Metamersion, Llc Method for automatically tracking objects in augmented reality
US7064663B2 (en) 2003-04-30 2006-06-20 Basix Holdings, Llc Radio frequency object locator system
US7274292B2 (en) 2004-06-25 2007-09-25 Intel Corporation Proximity management system and method using radio-frequency identification tags
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20070229350A1 (en) 2005-02-01 2007-10-04 Scalisi Joseph F Apparatus and Method for Providing Location Information on Individuals and Objects using Tracking Devices
US7598855B2 (en) 2005-02-01 2009-10-06 Location Based Technologies, Inc. Apparatus and method for locating individuals and objects using tracking devices
US7372276B2 (en) 2005-02-16 2008-05-13 Goldak, Inc. Digital locating system and device for underground object detection
JP2006284458A (ja) 2005-04-01 2006-10-19 Denso Corp 運転支援情報表示システム
EP1869920B1 (en) 2005-04-14 2014-12-10 BlackBerry Limited System and method for customizing notifications in a mobile electronic device
JP2007088943A (ja) 2005-09-22 2007-04-05 Casio Hitachi Mobile Communications Co Ltd 端末装置、および、プログラム
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US20070106457A1 (en) 2005-11-09 2007-05-10 Outland Research Portable computing with geospatial haptic compass
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7667646B2 (en) 2006-02-21 2010-02-23 Nokia Corporation System and methods for direction finding using a handheld device
US20070252696A1 (en) 2006-05-01 2007-11-01 Belisle Timothy F Geo-location system, method and apparatus
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US20070291104A1 (en) 2006-06-07 2007-12-20 Wavetronex, Inc. Systems and methods of capturing high-resolution images of objects
US7986230B2 (en) 2006-11-14 2011-07-26 TrackThings LLC Apparatus and method for finding a misplaced object using a database and instructions generated by a portable device
JP2008131301A (ja) 2006-11-20 2008-06-05 Sony Corp 位置情報処理方法、位置情報処理システム、位置情報処理装置、通信装置およびプログラム
US7523871B1 (en) 2006-12-01 2009-04-28 Allen Wilson Identification theft proof tag and sticker method
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US8838481B2 (en) 2011-07-26 2014-09-16 Golba Llc Method and system for location based hands-free payment
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
JP2008252298A (ja) 2007-03-29 2008-10-16 Sony Corp 無線通信装置、無線通信方法、情報処理装置、情報処理方法、およびプログラム
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US7788032B2 (en) 2007-09-14 2010-08-31 Palm, Inc. Targeting location through haptic feedback signals
US8577957B2 (en) 2008-04-01 2013-11-05 Litl Llc System and method for streamlining user interaction with electronic content
US7575065B1 (en) 2008-07-31 2009-08-18 Garrett Electronics, Inc. Metal detector with excavation tool
US8094011B2 (en) 2008-08-15 2012-01-10 Everardo Dos Santos Faris Transceiver device for cell phones for tracking of objects
WO2010024584A2 (ko) 2008-08-27 2010-03-04 키위플주식회사 객체 인식시스템, 이를 갖는 무선 인터넷 시스템 및 이를 이용한 객체기반 무선통신 서비스 방법
US8380430B2 (en) 2008-10-28 2013-02-19 Audiovox Corporation Portable transceiver with vehicle security control and locate features
JP2011055250A (ja) 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
US20150154851A1 (en) 2009-10-06 2015-06-04 Luc Vincent System and method of filling in gaps in image data
US11341532B2 (en) 2009-10-06 2022-05-24 Google Llc Gathering missing information elements
CA2777553A1 (en) 2010-01-27 2011-08-04 Berntsen International, Inc. Locator assembly for detecting, locating and identifying buried objects and method of use
KR100989663B1 (ko) 2010-01-29 2010-10-26 (주)올라웍스 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US20110187527A1 (en) 2010-02-02 2011-08-04 Penny Goodwill Portable tracking/locating system, method, and application
US8253559B2 (en) 2010-02-26 2012-08-28 Thl Holding Company, Llc System and wireless device for locating a remote object
US20110234399A1 (en) 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing a remote lost-and-found service
US20110285506A1 (en) 2010-05-19 2011-11-24 Joshua Bradley Hillis System and method for tracking items
CN103109244B (zh) 2010-07-02 2016-08-24 汤姆森特许公司 用于物体跟踪和识别的方法和装置
US8886212B2 (en) 2010-08-24 2014-11-11 Blackberry Limited Mobile tracking
US8836510B2 (en) 2010-09-29 2014-09-16 Certicom Corp. Systems and methods for managing lost devices
US20120082039A1 (en) 2010-10-04 2012-04-05 Qualcomm Incorporated Methods and apparatus for providing directional information for peer discovery in peer-to-peer wireless networks
EP2439920B1 (en) 2010-10-08 2019-07-03 BlackBerry Limited System and Method for Displaying Object Location in Augmented Reality
US9008859B2 (en) * 2010-12-22 2015-04-14 Microsoft Technology Licensing, Llc Navigation instructions using low-bandwidth signaling
KR101825653B1 (ko) 2011-01-03 2018-02-05 삼성전자 주식회사 통신 단말기의 분실 모드 수행 방법 및 장치
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9082269B2 (en) * 2011-08-08 2015-07-14 See Scan, Inc. Haptic directional feedback handles for location devices
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US8462591B1 (en) 2011-12-21 2013-06-11 Sanaa Marhaben Islamic prayer and pedometer watch
US8977297B2 (en) 2011-12-29 2015-03-10 Sony Corporation Providing navigation guidance by activating a plurality of active elements of an information processing apparatus
US9191756B2 (en) 2012-01-06 2015-11-17 Iii Holdings 4, Llc System and method for locating a hearing aid
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8981938B2 (en) 2012-03-08 2015-03-17 Linquet Technologies, Inc. Comprehensive system and method of universal real-time linking of real objects to a machine, network, internet, or software service
WO2013148899A1 (en) 2012-03-28 2013-10-03 Charm Alarm Llc Smart charm anti-theft alarm system
US9002372B2 (en) 2012-03-30 2015-04-07 Danielle's Buddy, Inc. Locating system for autistic child and others
US8761811B2 (en) 2012-04-27 2014-06-24 Oracle International Corporation Augmented reality for maintenance management, asset management, or real estate management
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9804740B2 (en) 2012-06-06 2017-10-31 Apple Inc. Generating context-based options for responding to a notification
US9348607B2 (en) 2012-06-07 2016-05-24 Apple Inc. Quiet hours for notifications
US8526677B1 (en) 2012-07-16 2013-09-03 Google Inc. Stereoscopic camera with haptic feedback for object and location detection
US9443414B2 (en) 2012-08-07 2016-09-13 Microsoft Technology Licensing, Llc Object tracking
US20140173439A1 (en) 2012-09-12 2014-06-19 ACCO Brands Corporation User interface for object tracking
US9164552B2 (en) 2012-09-27 2015-10-20 Futurewei Technologies, Inc. Real time visualization of network information
US8878671B2 (en) 2012-11-15 2014-11-04 SSI America, Inc. Locator beacon and radar application for mobile device
US8847754B2 (en) 2012-11-15 2014-09-30 James Buchheim Locator beacon and radar application for mobile device
US9886631B2 (en) 2012-11-19 2018-02-06 Altria Client Services Llc On-line oil and foreign matter detection stystem and method employing hyperspectral imaging
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9357348B2 (en) 2013-01-29 2016-05-31 Tile, Inc. Systems and methods for locating a tracking device
US9473428B1 (en) 2013-03-01 2016-10-18 Whatsapp Inc. Dynamic muting of communication notifications
US20140267411A1 (en) 2013-03-15 2014-09-18 Elwha Llc Indicating observation or visibility patterns in augmented reality systems
US9609515B2 (en) 2013-03-27 2017-03-28 Xerox Corporation System and method for verifying physical proximity to a network device
CN105103198A (zh) 2013-04-04 2015-11-25 索尼公司 显示控制装置、显示控制方法以及程序
US20140300452A1 (en) 2013-04-05 2014-10-09 Powermat Technologies, Ltd. System and method for determining proximity
US9741008B2 (en) 2013-05-03 2017-08-22 Consumer Product Recovery And Finance Company, Inc. Apparatus and method for finding and reporting lost items
US9665913B2 (en) 2013-05-03 2017-05-30 Consumer Product Recovery And Finance Company, Inc. Apparatus and method for finding and reporting lost items
CA3192820C (en) 2013-06-04 2024-05-21 Isolynx, Llc Object tracking system optimization and tools
US9706032B2 (en) 2013-06-06 2017-07-11 Apple Inc. Device locator disable authentication
US20150012307A1 (en) 2013-07-05 2015-01-08 Radioactive Development, LLC Electronic reservation system and method
US9547939B2 (en) 2013-07-25 2017-01-17 Fluke Corporation Detecting and visualizing wireless network devices in communication networks
US20150106741A1 (en) 2013-10-15 2015-04-16 Microsoft Corporation Managing conversations
US9547644B2 (en) 2013-11-08 2017-01-17 Google Inc. Presenting translations of text depicted in images
US10198604B2 (en) 2014-02-21 2019-02-05 Sony Mobile Communications Inc. Detection of unauthorized tags
WO2016073060A2 (en) 2014-09-02 2016-05-12 Flir Systems, Inc. Augmented reality sonar imagery systems and methods
KR102239090B1 (ko) 2014-06-05 2021-04-13 삼성전자 주식회사 위치 정보를 제공하기 위한 방법 및 장치
US9892626B2 (en) 2014-06-10 2018-02-13 Pb Inc. Tracking device program
WO2015189846A1 (en) 2014-06-10 2015-12-17 Tag & Find Wireless Solutions Ltd. Rfid reader and antenna system for locating items using a mobile device
US11145183B2 (en) 2014-06-10 2021-10-12 PB, Inc Tracking device programs, systems and methods
WO2016007783A1 (en) 2014-07-10 2016-01-14 Brice David G System for locating remote objects
US9454915B2 (en) * 2014-08-20 2016-09-27 Thieab Ibrahim Aldossary Electro tactile communication apparatus, method, and computer program product
US9342227B2 (en) 2014-09-02 2016-05-17 Microsoft Technology Licensing, Llc Semantic card view
US9900733B2 (en) 2014-10-30 2018-02-20 At&T Intellectual Property I, L.P. Search and recovery of mobile devices
US10438409B2 (en) 2014-12-15 2019-10-08 Hand Held Products, Inc. Augmented reality asset locator
US9646419B2 (en) 2015-01-14 2017-05-09 International Business Machines Corporation Augmented reality device display of image recognition analysis matches
EP3249957B1 (en) 2015-02-16 2020-01-08 Huawei Technologies Co., Ltd. Method, apparatus and system for acquiring location information of target object
US9514630B1 (en) 2015-05-13 2016-12-06 Brandon Steven System and method for tracking physical location of vehicle keys
US20160350639A1 (en) 2015-06-01 2016-12-01 Riera Carrión Tere Smart Backpack
JP6596989B2 (ja) 2015-07-02 2019-10-30 富士通株式会社 表示制御方法、表示制御プログラム、情報処理端末及びヘッドマウントディスプレイ
US9549282B1 (en) 2015-07-16 2017-01-17 Fmr Llc Verification of wireless transmitter articles in proximity to registered devices
US9820101B2 (en) 2015-08-24 2017-11-14 Thinking Source, LLC Device tracking system
US9646471B2 (en) 2015-09-30 2017-05-09 Apple Inc. User interface using tactile output
JPWO2017056632A1 (ja) 2015-09-30 2018-07-19 ソニー株式会社 情報処理装置及び情報処理方法
WO2017068925A1 (ja) 2015-10-20 2017-04-27 ソニー株式会社 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム
US9972191B2 (en) 2016-06-01 2018-05-15 Tile, Inc. User intervention based on learned behavior in a tracking device environment
DK180122B1 (en) * 2016-06-12 2020-05-19 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
GB2551396B (en) 2016-06-17 2018-10-10 Imagination Tech Ltd Augmented reality occlusion
US9654598B1 (en) 2016-08-08 2017-05-16 Le Technology, Inc. User customization of cards
EP3502841B1 (en) 2016-08-18 2023-07-26 Sony Group Corporation Information processing device, information processing system and information processing method
US11047702B1 (en) 2016-09-16 2021-06-29 Apple Inc. Tracking systems for electronic devices
US10827450B2 (en) 2016-09-20 2020-11-03 Qualcomm Incorporated Wireless device registration
CN108020919B (zh) 2016-10-31 2023-09-29 京东方科技集团股份有限公司 显示装置、可穿戴设备及显示装置的显示切换方法
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
US10070309B2 (en) 2016-12-22 2018-09-04 Tile, Inc. Unauthorized tracking device detection and prevention
US10528815B2 (en) 2016-12-31 2020-01-07 Vasuyantra Corp. Method and device for visually impaired assistance
US20190174265A1 (en) 2017-01-10 2019-06-06 Nathan Chen Method and Apparatus for Locating a Device
US10348862B2 (en) 2017-02-07 2019-07-09 Sally Jean Daub Lost item retrieval via a communication network
US20180240176A1 (en) 2017-02-21 2018-08-23 Panasonic Intellectual Property Management Co., Ltd. Electronic routing and messaging in a venue based on activity level
US10114988B2 (en) 2017-03-23 2018-10-30 Tile, Inc. Tracking device wireless preconfiguration
CN110800018A (zh) 2017-04-27 2020-02-14 斯纳普公司 用于社交媒体平台的朋友位置共享机制
US20190370544A1 (en) 2017-05-30 2019-12-05 Ptc Inc. Object Initiated Communication
US10176691B2 (en) 2017-06-07 2019-01-08 Rachanee L. Smoak Tracking and monitoring system
US10102749B1 (en) 2017-07-24 2018-10-16 Robert M. Wagner System and method for locating misplaced keys and key fobs
CN107688422B (zh) 2017-09-05 2020-06-26 Oppo广东移动通信有限公司 通知消息显示方法及装置
US10635857B2 (en) 2017-09-29 2020-04-28 Hewlett Packard Enterprise Development Lp Card system framework
US10748426B2 (en) 2017-10-18 2020-08-18 Toyota Research Institute, Inc. Systems and methods for detection and presentation of occluded objects
US11216624B2 (en) 2017-11-30 2022-01-04 Samsung Electronics Co., Ltd. Apparatus and method for searching and registering tags in local positioning system
AU2018375665A1 (en) 2017-12-01 2020-05-14 Rhodan Marine Systems Of Florida, Llc Dynamic augmented reality headset system
US11138251B2 (en) 2018-01-12 2021-10-05 Samsung Electronics Co., Ltd. System to customize and view permissions, features, notifications, and updates from a cluster of applications
US10620006B2 (en) 2018-03-15 2020-04-14 Topcon Positioning Systems, Inc. Object recognition and tracking using a real-time robotic total station and building information modeling
US10318811B1 (en) 2018-04-22 2019-06-11 Bubbler International Llc Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects
WO2019226688A1 (en) 2018-05-22 2019-11-28 Agilent Technologies, Inc. Method and system for implementing augmented reality (ar)-based assistance within work environment
US10568035B1 (en) 2018-09-27 2020-02-18 Tile, Inc. Tracking device audio circuit
US10997415B2 (en) 2018-10-05 2021-05-04 General Electric Company Augmented reality system for asset tracking and visualization using indoor positioning system
US10448211B1 (en) 2018-11-07 2019-10-15 Adero, Inc. Organizing groups of physical objects using wireless tags
US11232307B2 (en) 2018-11-28 2022-01-25 Carl LaMont Systems and methods for using augmented reality to locate objects, identify persons, and interact with inanimate objects
US10462611B1 (en) 2019-02-01 2019-10-29 Tile, Inc. User presence-enabled tracking device functionality
US11172037B2 (en) 2019-02-12 2021-11-09 Tile, Inc. Claiming ownership of tracking devices
US10997776B2 (en) 2019-02-23 2021-05-04 Microsoft Technology Licensing, Llc Connecting spatial anchors for augmented reality
US10757676B1 (en) 2019-03-08 2020-08-25 Tile, Inc. Commissioning electronic devices for use in a tracking system
WO2020214864A1 (en) * 2019-04-17 2020-10-22 Prestacom Services Llc User interfaces for tracking and finding items
EP3963433A4 (en) * 2019-04-28 2023-01-25 Apple Inc. PRODUCTION OF TOUCH OUTPUT SEQUENCES ASSOCIATED WITH AN OBJECT
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
US10757540B1 (en) 2020-04-07 2020-08-25 Tile, Inc. Smart alerts in a tracking device environment
WO2022067316A1 (en) 2020-09-25 2022-03-31 Apple Inc. User interfaces for tracking and finding items
EP4327224A2 (en) 2021-04-19 2024-02-28 Apple Inc. User interfaces for location tracking
WO2022246411A2 (en) 2021-05-17 2022-11-24 Apple Inc. User interfaces for entity status

Also Published As

Publication number Publication date
EP3963433A4 (en) 2023-01-25
EP3963433A1 (en) 2022-03-09
US11823558B2 (en) 2023-11-21
WO2020223176A1 (en) 2020-11-05
CN114041107A (zh) 2022-02-11
US20240062634A1 (en) 2024-02-22
US20220223013A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
US11100349B2 (en) Audio assisted enrollment
US20220386085A1 (en) Easy location sharing
CN110554828B (zh) 访问电子设备上的***用户界面
CN113906378B (zh) 用于访问账户的用户界面
CN112262560B (zh) 用于更新外部设备的网络连接设置的用户界面的方法、电子设备和非暂态计算机可读存储介质
CN113110774B (zh) 显示和更新应用程序视图组
DK201970533A1 (en) Methods and user interfaces for sharing audio
CN113841104A (zh) 用于罗盘应用程序的用户界面
CN114173288A (zh) 用于跟踪和查找物品的用户界面
CN114637418A (zh) 生成与对象相关联的触觉输出序列
CN114090159A (zh) 基于使用情境提供用户界面并管理媒体的回放
WO2021262432A1 (en) User interfaces for accessing an account
US20210374744A1 (en) Configuring an account for a second user identity
AU2022204555B2 (en) Methods and user interfaces for sharing audio
WO2022067318A1 (en) User interfaces for controlling an insertion marker
WO2023225122A1 (en) Systems and methods for remote interaction between electronic devices
WO2023086862A1 (en) Methods, systems and devices for remotely managing one or more electronic devices
WO2023225129A1 (en) User interfaces for navigation
CN112181258A (zh) 加速滚动和选择

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination