CN105446478B - 设备及控制该设备的方法 - Google Patents

设备及控制该设备的方法 Download PDF

Info

Publication number
CN105446478B
CN105446478B CN201510590662.3A CN201510590662A CN105446478B CN 105446478 B CN105446478 B CN 105446478B CN 201510590662 A CN201510590662 A CN 201510590662A CN 105446478 B CN105446478 B CN 105446478B
Authority
CN
China
Prior art keywords
equipment
touch gestures
touch
function
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510590662.3A
Other languages
English (en)
Other versions
CN105446478A (zh
Inventor
T.格达拉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105446478A publication Critical patent/CN105446478A/zh
Application granted granted Critical
Publication of CN105446478B publication Critical patent/CN105446478B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种控制设备的方法包括:接收相对于设备上的图形用户界面(GUI)的元素的位置的独立的触摸手势;响应于接收到的触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示;接收相对于指示的用户输入;以及响应于接收到的用户输入运行与指示相对应的应用或功能。

Description

设备及控制该设备的方法
相关申请的交叉引用
本申请要求于2014年9月22日向韩国特许厅提交的韩国专利申请第10-2014-0126208号的权益,通过引用将其全部公开内容结合于此。
技术领域
一个或多个实施例涉及设备及控制该设备的方法。
背景技术
图形用户界面(GUI)是允许用户通过图形元素与设备交换数据的工作环境。GUI的元素包括窗口、图标、菜单、按钮、滚动条等等。用户可通过使用鼠标等等来选择GUI的元素以控制设备。近来,以触摸方式选择GUI的元素且经由这种元素的选择控制设备的方法被广泛使用。然而,如果用户在识别设备上的GUI的元素的位置方面有困难,则在用户和设备之间的信息交换可能并不顺畅。
发明内容
一个或多个实施例包括一种设备以及控制该设备的方法,该设备能够通过使用设备上的图形用户界面(GUI)上的元素的位置上的独立的触摸手势来进行用户和设备之间的容易的信息交换。
额外的方面将在下面的描述中部分地阐述,并将从该描述中部分地变得清楚,或者可以通过实践本实施例而部分地习得。
根据一个或多个实施例,一种控制设备的方法包括:接收相对于设备上的图形用户界面(GUI)的元素的位置的独立的触摸手势;响应于接收到的触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示;接收相对于指示的用户输入;以及响应于接收到的用户输入运行与所述指示相对应的应用或功能。
触摸手势可从设备上的第一点移动到第二点。
指示的提供可包括:基于触摸手势的方向按一顺序提供相对于多个应用和功能之一的指示,而不管设备的朝向如何。
触摸手势可以是第二触摸手势。该方法还可包括:在接收第二触摸手势之前,接收相对于GUI的元素的位置的独立的第一触摸手势;以及根据第一触摸手势确定多个应用和功能。
第一触摸手势可以是在多于阈值时间段内的设备上的至少一点上的触摸。
独立的第一触摸手势的接收可包括:连续地接收第一触摸手势,与此同时,第二触摸手势正在被输入。
独立的第一触摸手势的接收和独立的第二触摸手势的接收可包括:通过分别使用用户的双手来接收第一和第二触摸手势。
独立的第一触摸手势的接收和独立的第二触摸手势的接收可包括:通过分别使用用户的一只手的不同的手指来接收第一和第二触摸手势。
独立的第一触摸手势的接收可包括:在多于阈值时间段内接收作为设备上的一点的触摸的第一触摸手势,其中多个应用和功能的确定包括:确定多个应用和功能以通过使用第二触摸手势引导当前显示在设备上的应用和功能。
独立的第一触摸手势的接收可包括:在多于阈值时间段内接收作为设备上的两点上的触摸的第一触摸手势,其中多个应用和功能的确定包括:确定多个应用和功能以通过使用第二触摸手势引导相对于在设备上可运行应用和功能当中的至少一个先前确定的应用和功能的快捷键。
独立的第一触摸手势的接收可包括:在多于阈值时间段内接收作为设备上的三点上的触摸的第一触摸手势,其中多个应用和功能的确定包括:确定多个应用和功能以通过使用第二触摸手势引导设备上的主页功能。
该方法还可包括:响应于第一触摸手势提供相对于根据第一触摸手势的操作模式的指示。
当第一触摸手势是在设备上的一点上的触摸时,操作模式可以是导航模式,当第一触摸手势是在设备上的两点上的触摸时,操作模式可以是快捷键模式,当第一触摸手势是在设备上的三点上的触摸时,操作模式可以是主页功能模式,并且当第一触摸手势是在设备上的四点上的触摸时,操作模式可以是应用启动模式。
触摸手势的接收可包括:通过使用至少两个手指同时接收手势。
触摸手势可以是按直线或曲线运动的从设备上的第一点到第二点的触摸。
触摸手势可以是从设备上的第一点到第二点的挥扫模式手势,其中指示的提供包括:根据顺序地输入到设备的挥扫模式手势顺序地提供相对于多个应用和功能的指示。
触摸手势可以是从设备上的第一点连续移动到第二点并到第三点的连续模式手势,其中指示的提供包括:根据连续输入到设备的连续模式手势顺序地提供相对于多个应用和功能的指示。
该方法还可包括:当触摸点根据最初输入的触摸手势从设备上的第一点移动到第二点时,将触摸点的移动方向确定为正向且将与正向相反的方向确定为反向。
该方法还可包括:接收在反向上的触摸手势,其中指示的提供包括:按与先前确立的顺序相反的顺序提供相对于多个应用和功能之一的指示。
指示的提供可包括:通过设备的音频输出单元以声音的形式输出多个应用和功能之一的称号。
指示的提供可包括在设备上显示多个应用和功能之一的图标或突出显示。
用户输入的接收可包括:选择该指示并接收相对于设备上的GUI的元素的位置的独立的第三触摸手势。
第三触摸手势可以是相对于设备上的一点的至少一个轻敲操作。
该设备可以是可佩戴设备,其中多个应用和功能被存储在可佩戴设备中。
该设备可以是可佩戴设备,其中多个应用和功能被存储在与可佩戴设备同步的外部设备中。
根据一个或多个实施例,一种设备包括:用户输入单元,用于接收相对于设备上的GUI的元素的位置的独立的触摸手势;以及控制单元,用于响应于接收到的触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示,并且当与所述指示相对应的应用或功能被选择时,该控制单元运行所选择的应用或功能。
触摸手势可从设备上的第一点移动到第二点。
控制单元可基于触摸手势的方向按一顺序提供相对于多个应用和功能之一的指示,而不管设备的朝向如何。
触摸手势可以是第二触摸手势,用户输入单元在接收第二触摸手势之前,接收相对于GUI的元素的位置的独立的第一触摸手势,并且控制单元根据第一触摸手势确定多个应用和功能。
第一触摸手势可以是在多于阈值时间段内的设备上的至少一点上的触摸。
用户输入单元可连续地接收第一触摸手势,与此同时,第二触摸手势正在被输入。
当用户输入单元在多于阈值时间段内接收到作为在设备上的一点上的触摸的第一触摸手势时,控制单元可确定多个应用和功能来通过使用第二触摸手势引导当前显示在设备上的应用和功能,当用户输入单元在多于阈值时间段内接收到作为在设备上的两点上的触摸的第一触摸手势时,控制单元确定多个应用和功能来通过使用第二触摸手势引导相对于设备上的可运行应用和功能当中的至少一个先前确定的应用和功能的快捷键,并且当用户输入单元在多于阈值时间段内接收到作为在设备上的三个点上的触摸的第一触摸手势时,控制单元确定多个应用和功能来通过使用第二触摸手势引导设备上的主页功能。
该指示可以是相对于多个应用和功能之一的称号的声音,并且该设备还可包括用于以声音形式输出多个应用和功能之一的称号的音频输出单元。
该指示可以是设备上的多个应用和功能之一的图标或突出显示,并且该设备还可包括:用于在设备上显示多个应用和功能之一的图标或突出显示的显示单元。
用户输入单元可选择该指示并接收相对于设备上的GUI的元素的位置的独立的第三触摸手势。
该设备可以是可佩戴设备,其中多个应用和功能被存储在可佩戴设备中,或存储在与可佩戴设备同步的外部设备中。
根据一个或多个实施例,存在存储一个或多个程序的非暂态计算机可读记录介质,所述程序包括用于运行一种控制设备的方法的命令,该方法包括:接收相对于设备上的GUI的元素的位置的独立的触摸手势;响应于接收到的触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示;接收相对于指示的用户输入;以及响应于接收到的用户输入运行与所述指示相对应的应用或功能。
附图说明
从以下结合附图对实施例的描述,这些和/或其它方面将变得清楚和更加容易理解,附图中:
图1图示了根据示例性实施例的设备;
图2是根据示例性实施例的控制设备的方法的流程图;
图3A和3B是用于说明根据示例性实施例的在设备上输入触摸手势的操作的示图;
图4是根据另一示例性实施例的控制设备的方法的流程图;
图5A到5D图示了根据示例性实施例的第一触摸手势;
图6A到6E图示了根据示例性实施例的第二触摸手势;
图7A和7B图示了根据示例性实施例的第三触摸手势;
图8到图11图示了根据示例性实施例的第一和第二触摸手势的输入;
图12是图示根据示例性实施例的设备控制方法的流程图;
图13是图示根据示例性实施例的相对于多个稳定点的操作模式的表;
图14A到14F图示了根据示例性实施例的由手指进行的第一触摸手势中的设备的相续操作;
图15A到15F图示了根据另一示例性实施例的由两个手指进行的第一触摸手势中的设备的相续操作;
图16A到16G图示了根据另一示例性实施例的由三个手指进行的第一触摸手势中的设备的相续操作;
图17图示了根据另一示例性实施例的由四个手指进行的第一触摸手势中的设备的操作;
图18A到18C图示了根据示例性实施例的由一只手进行的第一和第二触摸手势中的设备的相续操作;
图19A到19C图示了根据另一示例性实施例的由一只手进行的第一和第二触摸手势中的设备的相续操作;
图20A到20C图示了根据另一示例性实施例的由一只手进行的第一和第二触摸手势中的设备的相续操作;
图21图示了根据示例性实施例的可佩戴设备和一设备;
图22是图示根据示例性实施例的通过使用设备控制方法执行的可佩戴设备和一设备的操作的流程图;
图23是图示根据另一示例性实施例的通过使用设备控制方法执行的可佩戴设备和一设备的操作的流程图;
图24A到24C图示了根据示例性实施例的当可佩戴设备是耳机时设备的控制操作;
图25A和25B图示了根据示例性实施例的当可佩戴设备是智能手表时设备的控制操作;
图26是图示根据示例性实施例的可佩戴设备的框图;
图27是图示根据示例性实施例的可佩戴设备中包括的通信单元的框图;
图28是图示根据示例性实施例的一设备的框图;
图29是图示根据示例性实施例的一设备的软件的框图;以及
图30是图示根据另一示例性实施例的一设备的框图。
具体实施方式
现在将对实施例进行详细参照,在附图中图示了这些实施例的示例,其中同样的附图标记始终指代同样的元素。在这点上,本实施例可具有不同的形式,并且不应被解释为受限于本文阐述的描述。因此,以下参照图描述了实施例,仅用于说明本描述的各方面。
将简要地描述本文使用的术语,并且将详细描述本发明。
本发明中所用的术语考虑到本发明的功能而作为目前广泛使用的通用术语来选择,但是可根据本领域熟练操作员的意图、传统实践或新技术的引入而变更。此外,如果在特定情况下存在申请人任意选择的术语,则在该情况下,术语的含义将在本发明的相应描述部分中详细描述。因此,术语应当以本说明书的整体内容为基础而非简单地以每个术语的名称为基础来定义。
在下面的本公开中,当描述了一者包含(或包括或者具有)一些元素时,应当理解其可仅包含(或包括或者具有)那些元素,或者如果没有特定限制的话,则除了这些元素以外,其还可包含(或包括或者具有)其它元素。如本文所使用的术语“单元”含义是(但不限于)执行某些任务的软件或硬件组件,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。一单元可有利地被配置成驻留在可寻址存储介质中并且被配置成在一个或多个处理器上运行。因此,一单元例如可包括组件,诸如软件组件、面向对象的软件组件、类组件和任务组件、过程、功能、属性、流程、子例程、程序代码的片段、驱动器、固件、微码、电路、数据、数据库、数据结构、表、数组和变量。组件和单元中规定的功能可被组合成更少的组件和单元,或者进一步分成额外的组件和单元。
现在将参考附图详细描述本发明的本领域普通技术人员能够易于具体实现的示例性实施例。在附图中,为了清楚,将省略与本发明的描述无关的部分。如本文使用的术语“和/或”包括一个或多个相关列出项目中的任意一个以及所有组合。诸如“其至少一个”的表达当在元素列表之前时,修饰整个元素列表而不修饰列表的单个元素。
图1图示了根据示例性实施例的设备100。
参照图1,设备100可以是能够识别用户USER的触摸手势的任意电子设备。例如,设备100可以是智能电话机、平板个人计算机(PC)、PC、智能TV、蜂窝手机、个人数字助理(PDA)、便携式计算机、媒体播放器、微服务器、GPS设备、电子书终端、导航设备、信息亭、MP3播放器、数码相机、另外的移动或非移动计算设备,但不限于此。设备100可包括能够接收触摸输入的各种设备,诸如触摸面板、电子板、触摸台等等。设备100可以是具有通信功能和数据处理功能的可佩戴设备,诸如手表、眼镜、耳机、发带、戒指等等。
在本实施例中,设备100可在图形用户界面(GUI)的元素的位置上接收独立的触摸手势。GUI是指用户USER通过图形与设备100交换数据的工作环境。GUI的元素包括窗口、图标、菜单、按钮、滚动条等等。在本实施例中,设备100中的GUI的元素可包括多个主页(home)功能图标HI1、HI2、HI3和HI4,多个应用图标AI1、AI2、AI3和AI4,以及日期/时间图标TIME。
一般而言,用户USER通过使用触摸在设备100的屏幕上选择图标以控制设备100或使用遥控器在屏幕上选择菜单等等来执行工作,以与设备100交换信息。然而,当用户USER在识别GUI的元素的位置方面有困难时,用户USER和设备100之间的信息交换可能并不顺畅。例如,当用户USER视觉有缺陷时,用户USER可能不能识别GUI的元素的位置。另举一例,当用户USER开会时,由于用户USER在看设备100方面有困难,因此用户USER在识别设备100中的GUI的元素的位置方面有困难。
根据本实施例,设备100可在GUI的元素的位置上接收独立的触摸手势,并且根据接收到的触摸手势运行应用或功能。更详细地,根据本实施例,设备100可响应于接收到的触摸手势提供相对于多个应用和功能之一的指示IND,并且运行根据相对于指示IND的用户输入所选择的应用或功能。因此,即使当用户USER在识别GUI的元素的位置方面有困难时,用户USER和设备100之间的信息交换也可以是顺畅的。
图2是根据示例性实施例的控制设备的方法的流程图。
参照图2,根据本实施例的控制设备的方法(其是根据接收到的触摸手势运行应用或功能的方法)包括下面的设备所执行的操作。例如,根据本实施例的控制设备的方法可包括图1的设备100按时间顺序执行的操作。
在操作S200中,接收相对于设备上的GUI的元素的位置的独立的触摸手势。在这点上,触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于设备上的触摸区域上的任意点的触摸操作。因此,可不考虑设备上的触摸手势所触摸的点的位置。例如,触摸手势可以是从设备上的第一点移动到第二点的触摸手势。
在操作S210中,响应于触摸手势按先前确立的顺序来提供相对于多个应用和功能之一的指示。在这点上,先前确立的顺序可由用户或设备中的操作***来确立。多个应用和功能可根据触摸手势的类型而不同地确定。
在一实施例中,指示可以是声音。在操作S210中,多个应用和功能之一的称号可作为声音来提供。在另一实施例中,指示可以是图形。在操作S210中,多个应用和功能之一的图标或例如相对于该图标的突出显示可被提供。
在操作S220中,接收相对于指示的用户输入。在一实施例中,用户输入可以是触摸手势。在另一实施例中,用户输入可以是对按钮的操纵。在一实施例中,当用户选择与操作S210的指示相对应的应用或功能时,设备可接收与选择操作相对应的用户输入,然后,操作S230被执行。在另一实施例中,当用户不选择操作S210的指示时,操作S200可被执行,从而设备可再次接收触摸手势。
在操作S230中,与指示相对应的应用或功能响应于用户输入而被执行。在一实施例中,存储在设备中的应用或功能可被运行。在另一实施例中,存储在与该设备同步的外部设备中的应用或功能可被运行。
图3A和3B是用于说明根据示例性实施例的在设备100中输入触摸手势的操作的示图。
图3A和3B的触摸手势可以是图2的操作S200的触摸手势。参照图3A和3B,用户USER可在设备100上的GUI的元素的位置上执行独立的触摸手势。换句话说,用户USER可不执行指示设备100上的特定应用或功能的触摸手势,而是可在设备100上的任意点上执行触摸手势。因此,可不考虑设备100上的触摸手势所触摸的点的位置。在这点上,触摸手势可以是从设备100的触摸区域上的第一点P1移动到第二点P2的移动手势。
根据本实施例,设备100可基于触摸手势的方向来提供相对于多个应用和功能之一的指示,而不管设备100的朝向如何。更详细地,设备100可基于最初输入的触摸手势的方向来确定提供多个应用和功能的顺序,并且保持顺序,尽管设备100的朝向被改变。
在图3A中,设备100的朝向可基本上垂直于触摸手势的方向。在图3B中,设备100的朝向可基本上平行于触摸手势的方向。因而,虽然设备100的朝向在使用中被改变,但设备100可基于输入的触摸手势的方向来提供相对于多个应用和功能之一的指示。
更详细地,当当前输入的触摸手势的方向与最初输入的触摸手势的方向相同时,设备100可按先前确立的顺序提供指示。同时,当当前输入的触摸手势的方向与最初输入的触摸手势的方向不同时,设备100可按与先前确立的顺序相反的顺序提供指示。
图4是根据另一示例性实施例的控制设备的方法的流程图。
参照图4,根据本实施例的控制设备的方法(其是根据接收到的触摸手势运行应用或功能的方法)包括设备所执行的下列操作。例如,根据本实施例的控制设备的方法可包括图1的设备100所提出的按时间顺序的操作。与图2的方法相比,根据本实施例的控制设备的方法还可包括操作S400和S410。操作S420到S450可类似于图2的操作S200到S230。
在操作S400中,相对于设备上的GUI的元素的位置接收独立的第一触摸手势。在这点上,第一触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是设备上的触摸区域上的任意点上的触摸操作。因此,可不考虑设备上的第一触摸手势所触摸的点的位置。例如,第一触摸手势可以是在多于阈值时间段内的设备的触摸区域上的至少一点上的手势。
在操作S410中,根据第一触摸手势来确定多个应用和功能。更详细地,设备可根据第一触摸手势、根据在设备上触摸的点的数量确定要响应于第二触摸手势来提供提示的多个应用和功能。
在操作S420中,接收相对于设备上的GUI的元素的位置的第二触摸手势。在这点上,第一触摸手势被连续地接收,与此同时,第二触摸手势正在被接收。第二触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于设备上的触摸区域上的任意点的触摸操作。因此,可不考虑设备上的第二触摸手势所触摸的点的位置。例如,第二触摸手势可以是从设备上的第一点移动到第二点的触摸手势。
在操作S430中,响应于第二触摸手势按先前确立的顺序来提供相对于多个应用和功能之一的指示。在这点上,先前确立的顺序可由用户或设备中的操作***来确立。多个应用和功能可根据触摸手势的类型而不同地确定。
在一实施例中,指示可以是声音。在操作S430中,多个应用和功能之一的称号可作为声音提供。在另一实施例中,指示可以是图形。在操作S430中,多个应用和功能之一的图标或例如相对于该图标的突出显示可被提供。
在操作S440中,接收相对于指示的第三触摸手势。在这点上,第一触摸手势被连续地接收,而同时第三触摸手势正在被接收。在一实施例中,第三触摸手势可以是用于选择与指示相对应的应用或功能的用户输入。第三触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于设备上的触摸区域上的任意点的触摸操作。因此,可不考虑设备上的第三触摸手势所触摸的点的位置。例如,第三触摸手势可以是相对于设备上的点的一轻拍(tap)或双轻拍。
在操作S450中,与指示相对应的应用或功能响应于第三触摸手势而被执行。在一实施例中,存储在设备中的应用或功能可被运行。在另一实施例中,存储在与该设备同步的外部设备中的应用或功能可被运行。
图5A到5D图示了根据示例性实施例的第一触摸手势。
参照图5A到5D,用户USER可通过触摸设备上的触摸区域TA来执行第一触摸手势。在这点上,触摸区域TA可以是有触摸传感器嵌入在其中的任意区域。触摸区域TA可对应于设备的前表面、后表面或侧表面。
在图5A中,用户USER可在多于阈值时间段内通过使用手指触摸该触摸区域TA,从而设备可检测到触摸区域TA上的第一稳定点SP1。在图5B中,用户USER可在多于阈值时间段内通过使用两个手指同时触摸该触摸区域TA,从而设备可检测到触摸区域TA上的第一稳定点SP1和第二稳定点SP2。
在图5C中,用户USER可在多于阈值时间段内通过使用三个手指同时触摸该触摸区域TA,从而设备可检测到触摸区域TA上的第一稳定点SP1、第二稳定点SP2和第三稳定点SP3。在图5D中,用户USER可在多于阈值时间段内通过使用四个手指同时触摸该触摸区域TA,从而设备可检测到触摸区域TA上的第一稳定点SP1、第二稳定点SP2、第三稳定点SP3和第四稳定点SP4。
虽然在图5A到5D中由用户USER的手指执行第一触摸手势,但触摸区域TA上用户USER所触摸的身体部分不对用户USER进行限制。在另一实施例中,除了身体部分之外,用户USER还可通过使用诸如铁笔之类的坐标显示装置来在触摸区域TA上执行第一触摸手势。
图6A到6E图示了根据示例性实施例的第二触摸手势。
参照图6A到6E,用户USER可通过触摸设备上的触摸区域TA来执行第二触摸手势。在这点上,触摸区域TA可以是有触摸传感器嵌入在其中的任意区域。触摸区域TA可对应于设备的前表面、后表面或侧表面。
在图6A中,用户USER可触摸该触摸区域TA,以使得手指可按直线运动从触摸区域TA上的第一可动点MP1移动到第二可动点MP2,从而设备可检测到触摸区域TA上的从第一可动点MP1到第二可动点MP2的第一方向上的触摸手势。
在图6B中,用户USER可触摸该触摸区域TA,以使得手指可按曲线运动从触摸区域TA上的第一可动点MP1移动到第二可动点MP2,从而设备可检测到触摸区域TA上的从第一可动点MP1到第二可动点MP2的第一方向上的触摸手势。
虽然未示出,但在另一实施例中,用户USER可触摸该触摸区域TA,以使得手指可按任意运动(例如,按之字形运动或按波状运动)从触摸区域TA上的第一可动点MP1移动到第二可动点MP2。如上所述,当可动触摸手势被输入而不管触摸手势的类型如何时,设备可将输入的触摸手势确定为第二触摸手势。
在图6C中,用户USER可触摸该触摸区域TA,以使得手指可按挥扫(swipe)模式从触摸区域TA上的第一可动点MP1移动到第二可动点MP2,从而设备可检测到触摸区域TA上的从第一可动点MP1到第二可动点MP2的第一方向上的触摸手势。如上所述,当第二触摸手势处于挥扫模式时,用户USER可间断地重复执行第二触摸手势直到相对于所期望的应用或功能的指示被提供为止。
在图6D中,用户USER可触摸该触摸区域TA,以使得手指可按连续模式从触摸区域TA上的第一可动点MP1移动到第二可动点MP2并到第三可动点MP3,从而设备可检测到触摸区域TA上的从第一可动点MP1到第二可动点MP2并到第三可动点MP3的第一方向上的触摸手势。如上所述,当第二触摸手势处于连续模式时,用户USER可连续地执行第二触摸手势直到相对于所期望的应用或功能的指示被提供为止。
在图6E中,用户USER可触摸该触摸区域TA,以使得手指可从触摸区域TA上的第一可动点MP1移动到第二可动点MP2且从触摸区域TA上的第三可动点MP3移动到第四可动点MP4,从而用户USER可通过使用两个手指同时执行第二触摸手势,但不限于此。在另一实施例中,用户USER可通过使用三个、四个或五个手指来同时执行第二触摸手势。如上所述,指示的应用和功能的类型可根据用来执行第二触摸手势的手指的数量来改变。
图7A和7B图示了根据示例性实施例的第三触摸手势。
参照图7A和7B,用户USER可通过触摸设备上的触摸区域TA来执行第三触摸手势。在这点上,触摸区域TA可以是有触摸传感器嵌入在其中的任意区域。触摸区域TA可对应于设备的前表面、后表面或侧表面。
在图7A中,用户USER可在触摸区域TA上通过使用手指触摸(例如,轻拍)第一可动作点AP1,从而设备可检测到第三触摸手势。在图7B中,用户USER可在触摸区域TA上通过使用手指触摸第一可动作点AP1两次(例如,双轻拍),从而设备可检测到第三触摸手势。然而,本发明不限于此。在另一实施例中,用户USER可通过使用多于两个手指来触摸第一可动作点AP1。在另一实施例中,用户USER可触摸第一可动作点AP1多于三次。
上面描述了第一到第三触摸手势,但是本发明不限于此。第一到第三触摸手势可按多种方式改变,并且可包括例如轻拍、双轻拍、拖动、挥扫、轻弹、拖放等等。
在这点上,“轻拍”是用户通过使用手指或例如电子笔的触摸工具触摸屏幕并随后立即将其抬离屏幕而不在屏幕上拖动的手势。“双轻拍”是用户通过使用手指或可以是铁笔的触摸工具触摸屏幕两次的手势。
“拖动”是用户通过使用手指或触摸工具触摸屏幕并在保持触摸的同时移动手指或触摸工具到屏幕中的另一位置的手势。当拖动被执行时,对象移动,或者下述的平移(panning)手势被执行。“轻弹”是用户通过使用手指或触摸工具以临界速度或以更高速度(例如,100像素/秒)执行拖动的手势。轻弹可基于手指或触摸工具的移动速度是等于还是高于例如100像素/秒的临界速度来区分于拖动或平移。
“拖放”是用户通过使用手指或触摸工具将对象拖动到预定位置并随后将手指或触摸工具抬离屏幕的手势。
“挥扫”是用于通过使用手指或触摸工具触摸屏幕中的对象并将手指或触摸工具在水平或垂直方向上移动某一距离的手势。在对角线方向上移动可不被识别为挥扫事件。
图8到图11图示了根据示例性实施例的第一和第二触摸手势的输入。
参照图8,当设备100处于锁定模式时,即,当设备100被待用时,用户在设备100的前表面即显示面板上执行第一和第二触摸手势,从而执行上述根据本实施例的设备控制方法。下面描述了用户通过使用双手来执行第一和第二触摸手势,但本发明不限于此。用户可通过双手之一来执行第一和第二触摸手势。
更详细地,用户通过一只手H1在多于阈值时间段内在设备100的至少一点上执行第一触摸手势,从而设备100可检测到第一稳定点SP1。因此,设备100的锁定模式可被释放,以使得设备100可被激活并且可确定多个应用和功能。
之后,用户通过使用另一只手H2来执行从第一可动作点MP1移动到第二可动作点MP2的第二触摸手势,从而设备100可检测到从第一可动点MP1到第二可动点MP2的第一方向上的第二触摸手势。因此,设备100可按先前确立的顺序提供相对于多个应用和功能之一的指示。
参照图9,当触摸传感器未被嵌入在设备100的其上没提供显示面板的后表面中时,用户在设备100的后表面上执行第一和第二触摸手势,从而执行上述根据本实施例的设备控制方法。该设备控制方法类似于参照图8所述的那种方法,从而省略了对其的详细描述。
参照图10,当触摸传感器被嵌入在设备100的侧表面中时,用户在设备100的侧表面上执行第一和第二触摸手势,从而执行上述根据本实施例的设备控制方法。该设备控制方法类似于参照图8所述的那种方法,从而省略了对其的详细描述。虽然未示出,但当触摸传感器被嵌入在设备100的边框(bezel)区域中时,用户在设备100的边框区域上执行第一和第二触摸手势,从而执行上述根据本实施例的设备控制方法。
参照图11,当护盖COV被覆盖在设备100上并被嵌入在触摸传感器中时,用户在护盖COV上执行第一和第二触摸手势,从而执行上述根据本实施例的设备控制方法。该设备控制方法类似于参照图8所述的那种方法,从而省略了对其的详细描述。
图12是图示根据示例性实施例的设备控制方法的流程图。
参照图12,根据本实施例的设备控制方法(其是根据接收到的触摸手势运行应用或功能的方法)包括设备所执行的下列操作。例如,根据本实施例的控制设备的方法可包括图1的设备100所提出的按时间顺序的操作。与图4的方法相比,根据本实施例的控制设备的方法还可包括操作S1220。操作S1200、S1210和S1230到S1260可类似于图4的操作S400到S450。
在操作S1200中,设备接收相对于设备上的GUI的元素的位置的独立的第一触摸手势。在这点上,第一触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是设备上的触摸区域上的任意点上的触摸操作。例如,第一触摸手势可以是在多于阈值时间段内的设备的触摸区域上的至少一点上的手势。
在操作S1210中,设备响应于第一触摸手势提供相对于根据第一触摸手势的操作模式的指示。在一实施例中,指示可以是声音。在操作S1210中,设备可以声音的形式输出操作模式的称号。在另一实施例中,指示可以是图形。在操作S1210中,设备可显示指示操作模式的图标。
在操作S1220中,设备根据第一触摸手势来确定多个应用和功能。更详细地,设备可根据第一触摸手势、根据在设备上触摸的点的数量确定要响应于第二触摸手势来提供提示的多个应用和功能。根据实施例,操作S1210和S1220的顺序可改变。
在操作S1230中,设备接收相对于设备上的GUI的元素的位置的第二触摸手势。在这点上,设备连续地接收第一触摸手势,与此同时,第二触摸手势正在被接收。第二触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于设备上的触摸区域上的任意点的触摸操作。例如,第二触摸手势可以是从设备上的第一点移动到第二点的触摸手势。
在操作S1240中,设备响应于第二触摸手势按先前确立的顺序来提供相对于多个应用和功能之一的指示。在这点上,先前确立的顺序可由用户或设备中的操作***来确立。多个应用和功能可根据触摸手势的类型而不同地确定。在一实施例中,指示可以是声音。在操作S1240中,多个应用和功能之一的称号可以声音的形式提供。在另一实施例中,指示可以是图形。在操作S1240中,多个应用和功能之一的图标或例如相对于该图标的突出显示可被提供。
在操作S1250中,设备接收相对于指示的第三触摸手势。在这点上,设备连续地接收第一触摸手势,与此同时,第三触摸手势正在被接收。在一实施例中,第三触摸手势可以是用于选择与指示相对应的应用或功能的用户输入。第三触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于设备上的触摸区域上的任意点的触摸操作。例如,第三触摸手势可以是相对于设备上的点的一轻拍或双轻拍。
在操作S1260中,设备响应于第三触摸手势而执行与指示相对应的应用或功能。在一实施例中,存储在设备中的应用或功能可被运行。在另一实施例中,存储在与该设备同步的外部设备中的应用或功能可被运行。
图13是图示根据示例性实施例的相对于多个稳定点的操作模式的表。
参照图13,当根据第一触摸手势存在一个稳定点时,例如,图5A,则相对于第一触摸手势的操作模式可以是导航模式。在这点上,导航模式可以是相对于设备上当前显示的应用和功能相对应的图标的指示被提供给用户的模式。更详细地,如果在导航模式中输入第二触摸手势,则设备可提供相对于设备上当前显示的图标之一的指示。
当根据第一触摸手势存在两个稳定点时,例如,图5B,则相对于第一触摸手势的操作模式可以是快捷模式。在这点上,快捷模式可以是相对于与在设备上可运行的多个应用或功能当中的一个或多个先前确定的应用和功能相对应的快捷的指示被提供给用户的模式。在这点上,一个或多个先前确定的应用和功能可由用户或设备的操作***在先前确定。更详细地,如果在快捷模式中输入了第二触摸手势,则设备可提供相对于与一个或多个先前确定的应用和功能之一相对应的快捷的指示,而不管一个或多个先前确定的应用和功能是否被显示在设备上。
当根据第一触摸手势存在三个稳定点时,例如,图5C,则相对于第一触摸手势的操作模式可以是主页功能模式。在这点上,主页功能模式可以是相对于设备上的设备可运行的主页功能的指示被提供给用户的模式。更详细地,如果在主页功能模式中输入了第二触摸手势,则设备可提供相对于设备可运行的主页功能之一的指示。
当根据第一触摸手势存在第四稳定点时,例如,图5D,则相对于第一触摸手势的操作模式可以是应用启动模式。在这点上,应用启动模式可以是相对于应用或功能的选择操作。更详细地,在应用启动模式中,设备可直接执行所选择的应用或功能。
图14A到14F图示了根据示例性实施例的由手指进行的第一触摸手势中的设备100的相续操作。
参照图14A,用户可在多于阈值时间段内通过使用手H1的手指执行作为设备100的一点上的触摸的第一触摸手势。因此,设备100可检测到第一稳定点SP1并根据第一触摸手势提供相对于操作模式的第一指示IND1。例如,设备100可以声音的形式根据第一触摸手势输出“导航模式”。
参照图14B,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于当前显示在设备100上的多个应用和功能之一的指示。例如,设备100可响应于第一方向上的第二触摸手势以作为第一指示IND1的声音的形式输出“奖励卡(bonus card)”,并且相对于与“奖励卡”相对应的图标显示作为第二指示IND2的突出显示。
在本实施例中,最初输入的第二触摸手势的第一方向可被确定为正向,而与第一方向相反的第二方向可被确定为反向。如果第二触摸手势是在作为正向的第一方向上输入的,则设备100可按先前确立的顺序提供相对于多个应用和功能当中的下一应用或功能的指示。同时,如果第二触摸手势是在作为反向的第二方向上输入的,则设备100可按与先前确立的顺序相反的顺序提供相对于多个应用和功能当中的前一应用或功能的指示。
参照图14C,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可检测到可动点MP,并且响应于第二触摸手势提供相对于下一应用或功能的指示。例如,设备100可响应于第一方向上的第二触摸手势以作为第一指示IND1的声音的形式输出作为下一应用的“地图”,并且相对于与“地图”相对应的图标显示作为第二指示IND2的突出显示。
参照图14D,用户可通过使用手H2的手指在第二方向上执行第二触摸手势。设备100可检测到可动点MP,并且响应于第二触摸手势提供相对于前一应用或功能的指示。例如,设备100可响应于第二方向上的第二触摸手势以作为第一指示IND1的声音的形式输出作为前一应用的“奖励卡”,并且相对于与“奖励卡”相对应的图标显示作为第二指示IND2的突出显示。
参照图14E,用户可通过使用手H2的手指来执行第三触摸手势,从而设备100可检测到可动作点(actionable point,AP)。
参照图14F,设备100可响应于第三触摸手势运行与指示相对应的应用或功能。例如,设备100可响应于第三触摸手势运行作为与图14D的指示相对应的应用的“奖励卡”,从而设备100的显示屏幕可变成应用“奖励卡”的开始屏幕。设备100可以随同应用的执行以作为第一指示的IND1的声音形式输出“它被启动”。
图15A到15F图示了根据另一示例性实施例的由两个手指进行的第一触摸手势中的设备100的相续操作。
参照图15A,用户可在多于阈值时间段内通过使用手H1的两个手指执行作为设备100的两点上的同时触摸的第一触摸手势。因此,设备100可检测到第一和第二稳定点SP1和SP2,并根据第一触摸手势提供相对于操作模式的第一指示IND1。例如,设备100可根据第一触摸手势以声音的形式输出“快捷键模式”。
参照图15B,用户可通过使用手H2的手指来在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于与设备100可运行的多个应用和功能当中的先前确定的应用和功能之一相对应的快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出“喜欢的呼叫”,并且显示与“喜欢的呼叫”相对应的快捷键SC1。
在本实施例中,最初输入的第二触摸手势的第一方向可被确定为正向,而与第一方向相反的第二方向可被确定为反向。如果第二触摸手势是在作为正向的第一方向上输入的,则设备100可按先前确立的顺序提供相对于与多个应用和功能当中的下一应用或功能相对应的快捷键的指示。同时,如果第二触摸手势是在作为反向的第二方向上输入的,则设备100可按与先前确立的顺序相反的顺序提供相对于与多个应用和功能和功能当中的前一应用或功能相对应的快捷键的指示。
参照图15C,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于与下一应用或功能相对应的快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一应用的“消息”,并且显示与“消息”相对应的快捷键SC2。
参照图15D,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于与下一应用或功能相对应的快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一应用的“当前时间”,并且显示与“当前时间”相对应的快捷键SC3。
虽然未示出,但当用户通过使用手H2的手指在第二方向上执行第二触摸手势时,设备100可响应于第二触摸手势提供相对于与前一应用或功能相对应的快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为前一应用的“消息”并且显示与“消息”相对应的快捷键SC2。
参照图15E,用户可通过使用手H2的手指来执行第三触摸手势,从而设备100可检测到可动作点AP。
参照图15F,设备100可响应于第三触摸手势运行与指示相对应的应用或功能。例如,设备100可响应于第三触摸手势输出作为与图15D的指示相对应的功能的“当前时间”,从而以声音(例如,“当前时间是13:14”)的形式输出功能的运行结果。
图16A到16G图示了根据另一示例性实施例的由三个手指进行的第一触摸手势中的设备100的相续操作。
参照图16A,用户可在多于阈值时间段内通过使用手H1的三个手指执行作为设备100的三点上的触摸的第一触摸手势。因此,设备100可检测到第一到第三稳定点SP1、SP2和SP3,并根据第一触摸手势提供相对于操作模式的第一指示IND1。例如,设备100可以声音的形式根据第一触摸手势输出“主页功能模式”。
参照图16B,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于设备100可运行的多个主页功能之一的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出“呼叫”,并且显示“呼叫”相对应的图标HF1。
在本实施例中,最初输入的第二触摸手势的第一方向可被确定为正向,而与第一方向相反的第二方向可被确定为反向。如果第二触摸手势是在作为正向的第一方向上输入的,则设备100可按先前确立的顺序提供相对于多个主页功能当中的下一主页功能的指示。同时,如果第二触摸手势是在作为反向的第二方向上输入的,则设备100可按与先前确立的顺序相反的顺序提供相对于多个应用和功能当中的前一主页功能的指示。
参照图16C,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于下一主页功能的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一主页功能的“邮件”,并且显示与“邮件”相对应的图标HF2。
参照图16D,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于下一主页功能的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一主页功能的“相机”,并且显示与“相机”相对应的图标HF3。
参照图16E,用户可通过使用手H2的手指在第一方向上执行第二触摸手势。设备100可响应于第二触摸手势提供相对于设备100可运行的多个主页功能之一的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出“喜欢的呼叫”,并且显示与“喜欢的呼叫”相对应的图标HF4。
虽然未示出,但当用户通过使用手H2的手指在第二方向上执行第二触摸手势时,设备100可响应于第二触摸手势提供相对于前一主页功能的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为前一主页功能的“相机”,并且显示与“相机”相对应的图标HF4。
参照图16F,用户可通过使用手H2的手指来执行第三触摸手势,从而设备100可检测到可动作点AP。
参照图16G,设备100可响应于第三触摸手势运行与指示相对应的主页功能。例如,设备100可响应于第三触摸手势输出作为与图16E的指示相对应的主页功能的“喜欢的呼叫”,从而设备100的屏幕可变为“喜欢的呼叫”。
图17图示了根据另一示例性实施例的由四个手指进行的第一触摸手势中的设备100的操作。
参照图17,用户可在多于阈值时间段内通过使用手H1的四个手指执行作为设备100的四点上的触摸的第一触摸手势。因此,设备100可检测到第一到第四稳定点SP1、SP2、SP3和SP4,并根据第一触摸手势提供相对于操作模式的第一指示IND1。例如,设备100可根据第一触摸手势以声音的形式输出“应用开始模式”。
图18A到18C图示了根据示例性实施例的由一只手进行的第一和第二触摸手势中的设备100的相续操作。
参照图18A,用户可在多于预定时间段内通过使用一只手的第一手指F1执行作为设备100的一点上的触摸的第一触摸手势。因此,设备100可检测到第一稳定点SP1,并根据第一触摸手势提供相对于操作模式的第一指示IND1。
之后,用户可通过使用同一只手的第二手指F2来在第一方向上执行第二触摸手势。在本实施例中,最初输入的第二触摸手势的第一方向可被确定为正向,而与第一方向相反的第二方向可被确定为反向。设备100可响应于第二触摸手势按先前确立的顺序提供相对于设备100上显示的多个应用和功能之一的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出“奖励卡”,并且相对于与“奖励卡”相对应的图标显示作为第二指示IND2的突出显示。
参照图18B,用户可通过使用同一只手的第二手指F2来在第一方向上执行第二触摸手势。在本实施例中,由于第一方向被确定为正向,因此设备100可按先前确立的顺序提供相对于设备100上显示的多个应用或功能当中的下一应用或功能的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一应用的“地图”,并且相对于与“地图”相对应的图标显示作为第二指示IND2的突出显示。
参照图18C,用户可通过使用同一只手的第二手指F2来在第二方向上执行第二触摸手势。在本实施例中,由于第二方向被确定为反向,因此设备100可按与先前确立的顺序相反的顺序提供相对于设备100上显示的多个应用或功能当中的前一应用或功能的指示。因此,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为前一应用的“奖励卡”,并且相对于与“奖励卡”相对应的图标显示作为第二指示IND2的突出显示。
图19A到19C图示了根据另一示例性实施例的由一只手进行的第一和第二触摸手势中的设备100的相续操作。
参照图19A,用户可在多于预定时间段内通过使用一只手的第一和第二手指F1a和F1b执行作为设备100的两点上的同时触摸的第一触摸手势。因此,设备100可检测到第一和第二稳定点SP1和SP2,并根据第一触摸手势提供相对于操作模式的第一指示IND1。
之后,用户可通过使用同一只手的第三手指F2来在第一方向上执行第二触摸手势。在本实施例中,最初输入的第二触摸手势的第一方向可被确定为正向,而与第一方向相反的第二方向可被确定为反向。设备100可响应于第二触摸手势按先前确立的顺序提供相对于与多个先前确定的应用和功能之一相对应的快捷键的指示。在本实施例中,相对于喜欢的呼叫、消息和当前时间的指示可按先前确立的顺序来提供。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出“喜欢的呼叫”,并且显示与“喜欢的呼叫”相对应的快捷键作为第二指示IND2。
参照图19B,用户可通过使用同一只手的第三手指F2来在第一方向上执行第二触摸手势。在本实施例中,由于第一方向被确定为正向,因此设备100可按先前确立的顺序提供相对于下一快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一快捷键的“消息”,并且显示与“消息”相对应的快捷键作为第二指示IND2。
参照图19C,用户可通过使用同一只手的第三手指F2来在第二方向上执行第二触摸手势。在本实施例中,由于第二方向被确定为反向,因此设备100可按与先前确立的顺序相反的顺序提供相对于前一快捷键的指示。因此,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为前一快捷键的“喜欢的呼叫”,并且显示与“喜欢的呼叫”相对应的快捷键作为第二指示IND2。
图20A到20C图示了根据另一示例性实施例的由一只手进行的第一和第二触摸手势中的设备100的相续操作。
图20A到20C的操作可在图19A到19C的操作被执行之后执行。相比于图19A到19C的设备100朝向,图20A到20C的设备100的朝向被改变。如上所述,虽然设备100的朝向在使用中被改变,但可基于最初输入的第二触摸手势的方向来确定提供顺序的顺序。
参照图20A,用户可通过使用一只手的第三手指F2来在第一方向上执行第二触摸手势。在该实施例中,由于第一方向被确定为正向,因此设备100可按先前确立的顺序提供相对于下一快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一快捷键的“消息”,并且显示与“消息”相对应的快捷键作为第二指示IND2。
参照图20B,用户可通过使用同一只手的第三手指F2来在第一方向上执行第二触摸手势。在本实施例中,由于第一方向被确定为正向,因此设备100可按先前确立的顺序提供相对于下一快捷键的指示。例如,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为下一快捷键的“当前时间”,并且显示与“当前时间”相对应的快捷键作为第二指示IND2。
参照图20C,用户可通过使用同一只手的第三手指F2来在第二方向上执行第二触摸手势。在本实施例中,由于第二方向被确定为反向,因此设备100可按与先前确立的顺序相反的顺序提供相对于前一快捷键的指示。因此,设备100可响应于第二触摸手势以作为第一指示IND1的声音的形式输出作为前一快捷键的“消息”,并且显示与“消息”相对应的快捷键作为第二指示IND2。
图21图示了根据示例性实施例的可佩戴设备200和设备300。
参照图21,可佩戴设备200是指可佩戴形状的能够识别用户的触摸手势的电子设备。可佩戴设备200例如可以是耳机200a、智能手表200b或者眼镜200c,但不限于此。可佩戴设备200可实现为耳环、项链、耳机、耳朵形状的附属物、鞋、戒指、衣服、头盔等等。
佩戴可佩戴设备200是指用户按先前确立的方式使可佩戴设备200处于身体接触形状。例如,用户可以如下方式佩戴可佩戴设备200:将腕表佩戴在其腕部,将眼镜、耳环佩戴在其耳朵上,将项链佩戴在其颈部上,将耳机佩戴在其耳朵中,将耳朵形状的附属物佩戴到其耳垂,鞋子、将戒指佩戴在其指头上,衣服、头盔等等。
作为能够与可佩戴设备200同步的电子设备的设备300可被称为主设备。例如,设备300可以是智能电话机、平板PC、个人计算机(PC)、蜂窝电话机、个人数字助理(PDA)、便携式计算机、媒体播放器、微服务器、GPS导航设备、智能TV、桌面式PC、笔记本、智能白板、平板手机、导航设备、电子书终端、数字广播终端、信息站、MP3播放器、数码相机、另外的移动或非移动计算设备,但不限于此。设备300可包括能够接收触摸输入的各种设备,诸如触摸面板、电子白板、触摸桌面等等。
在本实施例中,可佩戴设备200可接收相对于GUI的元素的位置的独立的触摸手势。在一实施例中,可佩戴设备200可根据接收到的触摸手势将用户输入发送到设备300,从而设备300中存储的应用或功能可被执行。在另一实施例中,可佩戴设备200可根据接收到的触摸手势直接执行可佩戴设备200中存储的应用或者功能。
更详细地,根据本实施例,可佩戴设备200可响应于接收到的触摸手势提供相对于多个应用和功能之一的指示IND,并且执行根据用户输入选择的应用或功能。在这点上,所选择的应用或功能可被存储在可佩戴设备200或设备300中。因此,当用户在识别设备200上的GUI的元素的位置方面有困难时,则在用户和可佩戴设备200之间的信息交换可以是顺畅的。
图22是图示根据示例性实施例的通过使用设备控制方法执行的可佩戴设备200和设备300的操作的流程图。
参照图22,根据本实施例的设备控制方法可包括图21的可佩戴设备200和设备300所提出的按时间顺序的操作。虽然下面省略了,但参考图21的可佩戴设备200和设备300的描述适用于根据本实施例的设备控制方法。
在操作S2200中,可佩戴设备200接收相对于其上的GUI的元素的位置的独立的第一触摸手势。在这点上,第一触摸手势不选择与可佩戴设备200上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是可佩戴设备200上的触摸区域上的任意点上的触摸操作。例如,第一触摸手势可以是在多于阈值时间段内的可佩戴设备200的触摸区域上的至少一点上的手势。
在操作S2210中,可佩戴设备200根据第一触摸手势提供相对于操作模式的指示。在一实施例中,指示可以是声音。在操作S2210中,可佩戴设备200可以声音的形式输出操作模式的称号。在另一实施例中,指示可以是图形。在操作S2210中,可佩戴设备200可显示指示操作模式的图标。
在操作S2220中,可佩戴设备200根据第一触摸手势来确定多个应用和功能。更详细地,可佩戴设备200可根据第一触摸手势、根据在可佩戴设备200上触摸的点的数量确定要响应于第二触摸手势来提供提示的多个应用和功能。根据实施例,操作S2210和S2220的顺序可改变。
在操作S2230中,可佩戴设备200接收相对于其上的GUI的元素的位置的独立的第二触摸手势。在这点上,可佩戴设备200连续地接收第一触摸手势,与此同时,第二触摸手势正在被接收。在这点上,第二触摸手势不选择可佩戴设备200上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于可佩戴设备200上的触摸区域的任意点的触摸操作。例如,第二触摸手势可以是从可佩戴设备200的第一点移动到第二点的触摸手势。
在操作S2240中,可佩戴设备200响应于第二触摸手势按先前确立的顺序来提供相对于多个应用和功能之一的指示。在这点上,先前确立的顺序可由用户或可佩戴设备200中的操作***来确立。多个应用和功能可根据触摸手势的类型而不同地确定。在一实施例中,指示可以是声音。在操作S2240中,多个应用和功能之一的称号可以声音的形式提供。在另一实施例中,指示可以是图形。在操作S2240中,可佩戴设备200可显示多个应用和功能之一的图标或相对于该图标的突出显示。
在操作S2250中,可佩戴设备200接收第三触摸手势。在这点上,可佩戴设备200连续地接收第一触摸手势,与此同时,第三触摸手势正在被接收。在一实施例中,第三触摸手势可以是用于选择与指示相对应的应用或功能的用户输入。在这点上,第三触摸手势不选择设备上的GUI的元素当中的与要运行的应用或功能相对应的元素,而是可以是相对于可佩戴设备200上的触摸区域的任意点的触摸操作。例如,第三触摸手势可以是相对于可佩戴设备200上的点的轻拍或双轻拍。
在操作S2260中,可佩戴设备200将相对于第三触摸手势的用户输入发送到设备300。在这点上,相对于第三触摸手势的用户输入可以是用于选择与响应于第二触摸手势提供的指示相对应的应用或功能的用户输入。
在操作S2270中,设备300运行所选择的应用或功能。例如,用户可通过运行存储在设备300中的应用“音乐播放”来聆听音乐。另举一例,用户可通过运行存储在设备300中的“呼叫”功能来呼叫期望的通信者。
图23是图示根据另一示例性实施例的通过使用设备控制方法执行的可佩戴设备200和设备300的操作的流程图。
参照图23,根据本实施例的设备控制方法可包括图21的可佩戴设备200和设备300所提出的按时间顺序的操作。虽然下面省略了,但参考图21的可佩戴设备200和设备300的描述适用于根据本实施例的设备控制方法。根据本实施例的设备控制方法是对图22的设备控制方法的修改。省略了图22和图23之间的冗余描述。
在操作S2300中,可佩戴设备200接收相对于其上的GUI的元素的位置的独立的第一触摸手势。在操作S2310中,可佩戴设备200根据第一触摸手势提供相对于操作模式的指示。在操作S2320中,可佩戴设备200向设备300发送相对于第一触摸手势的用户输入。根据实施例,操作S2310和S2320的顺序可改变。
在操作S2330中,设备300根据第一触摸手势来确定多个应用和功能。更详细地,设备300可根据第一触摸手势、根据在设备300上触摸的点的数量确定要响应于第二触摸手势来提供提示的多个应用和功能。在操作S2340中,可佩戴设备200接收相对于其上的GUI的元素的位置的独立的第二触摸手势。在这点上,可佩戴设备200连续地接收第一触摸手势,与此同时,第二触摸手势正在被接收。
在操作S2350中,可佩戴设备200向设备300发送相对于第二触摸手势的用户输入。在操作S2355中,设备300响应于第二触摸手势按先前建立的顺序提供多个应用和功能之一。在这点上,先前建立的顺序可由用户或设备300中的操作***来建立。多个应用和功能可根据触摸手势的类型而被不同地确定。
在操作S2360中,可佩戴设备200提供相对于多个应用和功能之一的指示。在操作S2370中,可佩戴设备200接收第三触摸手势。在这点上,可佩戴设备200连续地接收第一触摸手势,与此同时,第三触摸手势正在被接收。在操作S2380中,可佩戴设备200向设备300发送相对于第三触摸手势的用户输入。在操作S2390中,设备300运行所选择的应用或功能。
图24A到24C图示了根据示例性实施例的当可佩戴设备是耳机200a时设备的控制操作。
参照图24A,用户USER可佩戴可识别用户USER的触摸手势并与设备300通信的耳机200a。在本实施例中,耳机200a可接收GUI的元素的位置上的独立的触摸手势,并且响应于接收到的触摸手势提供相对于多个应用和功能之一的指示。
参照图24B,用户USER可通过使用手H1来执行相对于耳机200a的触摸手势。本实施例可与参照图18A到图20C所述的实施例类似地实现。参照图18A到图20C而提供的描述可适用于本实施例。
更详细地,用户USER可在多于阈值时间段内通过使用手H1的至少一个手指执行作为耳机200的至少一个触摸点上的触摸的第一触摸手势。耳机200a可响应于第一触摸手势提供相对于根据第一触摸手势的操作模式的指示。例如,指示可以是声音。可佩戴设备200可以声音的形式输出操作模式的称号。
在一实施例中,耳机200a可根据第一触摸手势确定要响应于第二触摸手势来提供指示的多个应用和功能。在另一实施例中,耳机200a可根据第一触摸手势来发送用户输入到设备300,并且设备300可确定要响应于第二触摸手势提供指示的多个应用和功能。
之后,用户USER可通过使用手H1的至少一个手指执行从耳机200a上的触摸点上的第一点移动到第二点的第二触摸手势。在这点上,用户USER连续地执行第一触摸手势,与此同时,通过使用不同的手指来执行第二触摸手势。耳机200a可响应于第二触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示。在这点上,指示可以是声音。耳机200a可以声音的形式输出操作模式的称号。
之后,用户USER可通过使用手H1的至少一个手指执行相对于一指示的第三触摸手势。在这点上,用户USER连续地执行第一触摸手势,与此同时,通过使用不同的手指来执行第三触摸手势。同一手指可用来执行第二和第三触摸手势。在一实施例中,耳机200a可根据第三触摸手势来执行所选择的应用或功能。在另一实施例中,耳机200a可向设备300提供相对于第三触摸手势的用户输入,并且设备300可执行所选择的应用或功能。
参照图24C,用户USER可通过使用两只手H1和H2来对耳机200a执行触摸手势。本实施例可与参照图14A到图17所述的实施例类似地实现。参照图14A到图17而提供的描述可适用于本实施例。
更详细地,用户USER可在多于阈值时间段内通过使用手H1的至少一个手指执行作为耳机200的至少一个触摸点上的触摸的第一触摸手势。耳机200a可响应于第一触摸手势提供相对于根据第一触摸手势的操作模式的指示。例如,指示可以是声音。可佩戴设备200可以声音的形式输出操作模式的称号。
在一实施例中,耳机200a可根据第一触摸手势确定要响应于第二触摸手势来提供指示的多个应用和功能。在另一实施例中,耳机200a可根据第一触摸手势来将用户输入发送到设备300,并且设备300可确定要响应于第二触摸手势来提供指示的多个应用和功能。
之后,用户USER可通过使用手H1的至少一个手指执行从耳机200a上的触摸点上的第一点移动到第二点的第二触摸手势。在这点上,用户USER连续地执行第一触摸手势,与此同时,通过使用不同的手指来执行第二触摸手势。耳机200a可响应于第二触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示。在这点上,指示可以是声音。耳机200a可以声音的形式输出操作模式的称号。
之后,用户USER可通过使用手H2的至少一个手指执行相对于一指示的第三触摸手势。在这点上,用户USER在执行第三触摸手势的同时连续地执行第一触摸手势。同一手指可用来执行第二和第三触摸手势。在一实施例中,耳机200a可根据第三触摸手势来执行所选择的应用或功能。在另一实施例中,耳机200a可向设备300提供相对于第三触摸手势的用户输入,并且设备300可执行所选择的应用或功能。
图25A和25B图示了根据示例性实施例的当可佩戴设备是智能手表200b时设备300的控制操作。
参照图25A,用户USER可佩戴可识别用户USER的触摸手势并与设备300通信的智能手表200b。在本实施例中,智能手表200b可接收GUI的元素的位置上的独立的触摸手势,并且响应于接收到的触摸手势提供相对于多个应用和功能之一的指示。
参照图25B,用户USER可在手H1上佩戴智能手表200b的同时通过使用手H2来执行相对于智能手表200b的触摸手势。本实施例可与参照图18A到图20C所述的实施例类似地实现。参照图18A到图20C而提供的描述可适用于本实施例。
更详细地,用户USER可在多于阈值时间段内通过使用手H2的至少一个手指(例如,F1)执行作为智能手表200b的至少一个触摸点上的触摸的第一触摸手势。智能手表200b可响应于第一触摸手势提供相对于根据第一触摸手势的操作模式的指示。例如,指示可以是声音。智能手表200b可以声音的形式输出操作模式的称号。
在一实施例中,智能手表200b可根据第一触摸手势确定要响应于第二触摸手势来提供指示的多个应用和功能。在另一实施例中,智能手表200b可根据第一触摸手势来将用户输入发送到设备300,并且设备300可确定要响应于第二触摸手势来提供指示的多个应用和功能。
之后,用户USER可通过使用手H2的至少一个手指(例如F2)执行从智能手表200b上的触摸点上的第一点移动到第二点的第三触摸手势。在这点上,用户USER连续地执行第一触摸手势,与此同时,通过使用不同的手指来执行第三触摸手势。同一手指可用来执行第二和第三触摸手势。在一实施例中,智能手表200b可根据第三触摸手势来执行所选择的应用或功能。在另一实施例中,智能手表200b可向设备300发送相对于第三触摸手势的用户输入,并且设备300可执行所选择的应用或功能。
图26是图示根据示例性实施例的可佩戴设备200的框图。
参照图26,可佩戴设备200可包括用户输入单元210、控制单元220、显示单元230和通信单元240。虽然未示出,但可佩戴设备200还可包括传感器单元,该传感器单元可包括能够获得可佩戴设备200的状态信息的至少一个传感器。
用户输入单元210可从用户接收各种命令,并且包括例如按键、触摸面板、笔识别板等等。本实施例的用户输入单元210可从用户接收第一到第三触摸手势。在这点上,第一到第三触摸手势独立于可佩戴设备200上的GUI的元素的位置。
控制单元220可控制可佩戴设备200的通用操作。本实施例的控制单元220可响应于通过用户输入单元210的第一到第三触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示,并且与指示相对应的应用或功能被选择,控制单元220执行所选择的应用或功能。
显示单元230可显示可佩戴设备200的状态信息、应用运行屏幕、相对于多个应用和功能之一的指示等等。显示单元230可例如包括液晶显示装置、有机发光二极管显示装置等等。显示单元230可根据可佩戴设备200的形状在各种位置及按各种类型提供。
通信单元240可与外部设备(例如,图21的设备300)通信,并且更详细地,与外部设备交换数据、控制信号、状态信号等等。通信单元240可提供其类型可根据实施例而改变的多种通信方法。
图27是图示根据示例性实施例的可佩戴设备中包括的通信单元240的框图。
参照图27,根据本实施例的通信单元240可包括以下各项中的至少一个:蓝牙模块241、WiFi模块242、近场通信(NFC)模块243和移动通信模块244或这些的组合。蓝牙模块241、WiFi模块242、NFC模块243和移动通信模块244可根据实施例选择性地提供。
移动通信模块244可通过移动通信网络发送且接收呼叫和文本消息,并且执行数据通信。移动通信网络可包括例如使用以下各项中的至少一个的通信网络:2代(2G)移动通信,诸如码分多址(CDMA)、全球移动通信***(GSM)、个人数字蜂窝(PCD)等等;3G移动通信,诸如国际移动电信(IMT)2000、宽带码分多址(W-CDMA)、码分多址(CDMA)2000等等;以及4G移动通信,诸如长期演进(LTE)、高级长期演进(LTE-A)等等。
图28是图示根据示例性实施例的设备1000的框图。
参照图28,根据本实施例的设备1000的配置可适用于图1的设备100以及图21的可佩戴设备200和设备300。设备1000的配置可适用于各种类型的设备,诸如,智能电话机、平板PC、个人PDA、MP3播放器、信息站、电子相框、导航设备、数字TV、手表或者诸如头戴式显示器(HMD)的可佩戴设备。
设备1000可包括以下各项中的至少一个:显示设备110、控制单元170、存储器120、GPS芯片125、通信单元130、视频处理器135、音频处理器140、用户输入单元145、麦克风单元150、拍摄单元155、扬声器单元160和运动检测单元165。
显示单元110可包括显示面板111和控制显示面板111的控制器(未示出)。显示面板111可实现为各种类型的显示器,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器、有源矩阵有机发光二极管(AMOLED)、等离子体显示板(PDP)等等。显示面板111可按柔性、透明或可佩戴的方式实现。显示单元110在耦接到用户输入单元145的触摸面板147之后可作为触摸屏(未示出)来提供。例如,触摸屏(未示出)可包括其中显示面板111和触摸面板147以堆栈结构相互耦接的集成模块。
存储器120可包括内部存储器(未示出)和外部存储器(未示出)中的至少一个。
内部存储器可包括以下各项中的至少一个,例如,易失性存储器(例如,动态RAM(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等等)、非易失性存储器(例如,一次性可编程ROM(OTPROM)、可编程ROM(PROM)、可擦除且可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩模ROM、快闪ROM等等)、硬盘驱动器(HDD)、固态驱动器(SSD)等等。根据一实施例,控制单元170可加载和处理从非易失性存储器或易失性存储器中的另外的元件中的至少一个接收到的命令或数据。控制单元170可保存从非易失性存储器中的另外的元件接收到的数据或由其生成的数据。
外部存储器可包括以下各项中的至少一个:例如,小型闪存(CF)、安全数字(SD)、微安全数字(MSD)、迷你SD、极限数字(xD)和存储棒。
存储器120可存储用来操作设备1000的各种类型的程序和数据。例如,存储器120可临时或半永久地存储密钥生成程序和用于内容加密的加密程序、以及密钥重建程序和用于内容解密的解密程序中的至少一部分。另举一例,存储器120可临时或半永久地存储经加密和解密的内容的至少一部分。
在本实施例中,当事件发生时,控制单元170可基于设备1000的使用特定信息来确定从电子设备输出的音频信号的音量控制操作。在另一实施例中,当该事件发生时,控制单元170可基于设备1000的使用特定信息和设置信息中的至少一条来确定从电子设备输出的音频信号的音量控制操作。
更详细地,控制单元170可控制显示单元110来显示存储在存储器120中的内容的一部分。换句话说,控制单元170可在显示单元110上显示存储在存储器120中的内容的一部分。可替换地,如果在显示单元110的区域上执行用户手势,则控制单元170可执行与该用户手势相对应的控制操作。
控制单元170可包括以下各项中的至少一个:RAM 171、ROM 172、CPU 173、图形处理单元(GPU)174和总线175。RAM 171、ROM 172、CPU 173和GPU 174可通过总线175连接。
CPU 173可访问存储器120并通过使用存储在存储器120中的操作***(OS)来执行启动。CPU 173可通过使用存储在存储器120中的各种类型的程序、内容、数据等等来执行各种操作。
ROM 172存储用于启动OS的命令的集合。例如,如果开启命令被输入并且电力被供应到蜂窝终端100B,则CPU 173可通过根据存储在ROM 172中的命令将存储在存储器120中的OS复制到RAM 171并运行OS来启动OS。如果启动完成,则CPU 173通过将存储在存储器120中的各种类型的程序复制到RAM 171并运行复制到RAM 171中的程序来执行各种类型的操作。如果设备1000的启动完成,则GPU 174在显示单元110的区域上显示UI屏幕。更详细地,GPU 174可生成显示包括诸如内容、图标、菜单等等的各种对象的电子文档的屏幕。GPU 174根据屏幕的布局计算显示每个对象的诸如坐标值、形状、大小、颜色等等的属性值。GPU 174可基于计算的属性值来生成包括对象的屏幕的各种布局。GPU 174所生成的屏幕可被提供给显示单元110并且被显示在显示单元110的区域上。
GPS芯片125可从GPS卫星接收GPS信号,并且计算设备1000的当前位置。当导航程序被使用或者需要用户的当前位置时,控制单元170可通过使用GPS芯片125来计算用户位置。
通信单元130可根据各种类型的通信与各种类型的外部设备通信。在本实施例中,通信单元130可向至少一个电子设备发送控制单元170所确定的关于音量控制操作的信息和事件发生信息。通信单元130还可发送标识信息、使用特定信息和事件发生信息中的至少一条。更详细地,通信单元130可包括以下各项中的至少一个:WiFi芯片131、蓝牙芯片132、无线通信芯片133和NFC芯片134。控制单元170可通过使用通信单元130与各种类型的外部设备通信。
WiFi芯片131和蓝牙芯片132可分别通过使用WiFi方法和蓝牙方法执行通信。当WiFi芯片131或蓝牙芯片132被使用时,可通过首先发送和接收诸如SSID和会话密钥的各种类型的连接信息并随后通过使用各种类型的连接信息连接通信来发送和接收各种类型的信息。无线通信芯片133是根据各种通信标准执行通信的芯片,各种通信标准诸如IEEE、紫蜂、3G、第3代合作伙伴计算(3GPP)、LTE等等。NFC芯片134是通过使用NFC方法操作的芯片,NFC方法使用诸如135kHz、13.56MHz、433MHz、860~960MHz、2.45GHz等等的各种RF-ID频带当中的13.56MHz的频带。
视频处理器135可处理通过通信单元130接收到的或存储在存储器120中的内容中包括的视频数据。视频处理器135可对视频数据执行各种图像处理,诸如解码、缩放、噪声过滤,帧频转换、分辨率转换等等。
音频处理器140可处理通过通信单元130接收到的或存储在音频120中的内容中包括的音频数据。音频处理器140可对音频数据执行各种处理,诸如解码、放大、噪声过滤等等。
如果对多媒体内容的再现程序被运行,则控制单元170可驱动视频处理器135和音频处理器140再现相应内容。扬声器单元160可输出音频处理器140所生成的音频数据。
用户输入单元145可从用户接收各种命令。在本实施例中,用户输入单元145可接收关于音频信号的音量控制的设置信息。更详细地,用户输入单元145可包括按键146、触摸面板147和笔识别面板148中的至少一个。
按键146可包括在主体的外观的诸如前部、侧部或背部的各种区域中形成的各种类型的按键:机械按钮、转轮等等。
触摸面板147可检测到用户的触摸输入并且输出与检测到的触摸输入相对应的触摸事件值。当触摸面板147耦接到显示面板111以形成触摸屏(未示出)时,触摸屏可被实现为各种类型的触摸传感器,诸如电容性、减压的、或压电触摸传感器。当用户的身体的一部分通过使用触摸屏表面上涂敷的介电材料触摸触摸屏表面时,电容性方法检测到用户的身体所导致的小电流并计算触摸坐标。当触摸屏中包括的两个电极板触摸用户所触摸的屏幕的点时,减压方法检测到电流的流动,并且计算触摸坐标。发生在触摸屏上的触摸事件可主要由用户的手指或可改变电容的导电材料形成的物质生成。
笔识别面板148可根据用户的触摸笔(例如,铁笔、数位笔等等)来检测接近输入或触摸输入,并且输出检测到的笔接近事件或笔触摸事件。笔识别面板148可例如按EMR方式实现,并且根据笔接近或触摸引起的电磁场的强度改变来检测触摸或接近输入。更详细地,笔识别面板148可被配置成包括具有网格结构的电子感应线圈传感器(未示出)和将具有预定频率的交流电信号顺序地提供给电子感应线圈传感器的环形线圈的电子信号处理单元(未示出)。如果包括谐振电路的笔存在于笔识别面板148的环形线圈附近,则从相应环形线圈发送的磁场基于相互电子感应生成电流到笔的谐振电路。感应磁场可基于电流从笔的谐振电路中包括的线圈生成。笔识别面板148可在信号接收状态下从环形线圈检测感应磁场以检测笔的接近位置或触摸位置。笔识别面板148可具有显示面板111的下部的预定区域,例如可覆盖显示面板111的显示范围的区域。
麦克风单元150可接收用户语音或其它声音并将它们转换成音频数据。控制单元170可在呼叫操作期间通过麦克风单元150使用用户语音输入或者将用户语音转换成音频数据并将该音频数据存储在存储器120中。
拍摄单元155可根据用户的控制拍摄静止图像或运动图像。多个拍摄单元155可像前置相机、后置相机等等那样实现。
当拍摄单元155和麦克风单元150被提供时,控制单元170可根据通过麦克风单元150的用户语音输入或拍摄单元155所识别的用户动作来执行控制操作。例如,设备1000可按运动控制模式或声音控制模式来操作。当设备1000按运动控制模式操作时,控制单元170可激活拍摄单元155来拍摄用户,跟踪用户的动作改变,并执行与动作改变相对应的控制操作。当设备1000按声音控制模式操作时,控制单元170可通过麦克风单元150分析用户语音输入并且按声音识别模式操作,其中控制操作根据经分析的用户语音来执行。
运动检测单元165可检测设备1000的主体的动作。设备1000可旋转或可在各种方向上倾斜。在这点上,运动检测单元165可通过使用诸如地磁传感器、陀螺仪传感器、加速度传感器等等的各种传感器中的至少一个来检测运动特性,诸如旋转方向和角度、倾斜角等等。
此外,虽然在图28中未示出,但在本实施例中,设备1000还可包括各种外部输入端口,用于连接诸如USB连接器可连接到的USB端口、听筒、鼠标、LAN等等的各种外部端子,接收和处理DMB信号的数字多媒体广播(DMB)芯片,各种传感器等等。
上述设备1000的元件的称号可被改变。本实施例的设备1000可包括这些元件中的至少一个,可省略这些元件中的一些,或者可包括额外的元件。
图29是图示根据示例性实施例的设备1000的软件的框图。
参照图29,图28的存储器120可存储设备1000的OS控制资源和用于操作应用的应用程序。OS可包括核121、中间件122、API 123等等。OS可例如包括安卓、iOS、Windows、塞班、泰泽(Tizen)或Bada等等。
核121可包括设备驱动器121-1或能够管理资源的***资源管理器121-2中的至少一个。设备驱动器121-1可按软件方式来访问和控制设备1000的硬件组件以控制硬件。为此,设备驱动器121-1可被标识为提供每个硬件提供器的接口和独立的驱动器模块。设备驱动器121-1可例如包括显示驱动器、相机驱动器、WiFi驱动器、音频驱动器和进程间通信(IPC)驱动器中的至少一个。***资源管理器121-2可包括进程管理单元、存储器管理单元和文件***管理单元中的至少一个。***资源管理器121-2可执行控制、分配或恢复***资源的功能。
中间件122可包括用于在各种应用中提供共同要求的功能的多个先前实现的模块。中间件122可通过API 123提供功能来允许应用124有效地使用设备1000中包括的资源。中间件122可包括多个模块中的至少一个,例如,应用管理器122-1、窗口管理器122-2、多媒体管理器122-3、资源管理器122-4、电力管理器122-5、数据库管理器122-6、封装管理器122-7、连接管理器122-8、通知管理器122-9、位置管理器122-10、图形管理器122-11和安全管理器122-12。
应用管理器122-1可管理应用124中的至少一个的生命周期。窗口管理器122-2可管理屏幕上使用的GUI资源。多媒体管理器122-3可确定用于再现各种媒体文件的格式并且依据相应的格式通过使用编解码器对媒体文件执行编码或解码。资源管理器122-4可管理应用124中的至少一个的诸如源代码、存储器、存储空间等等的资源。电力管理器122-5可与基本输入输出***BIOS操作来管理电池或电力并且提供关于操作的电力信息。数据库管理器122-6可生成、搜索或者改变要在应用124中的至少一个中使用的数据库。封装管理器122-7可安装或更新封装文件中分布的应用。连接管理器122-8可管理无线连接,例如,WiFi或蓝牙。通知管理器122-9可按不干扰用户的方式显示或通知诸如接收消息、约定(promise)、接近提醒等等的事件。位置管理器122-10可管理设备1000的位置信息。图形管理器122-11可管理要提供给用户的图形效果和与图形效果有关的用户界面。安全管理器122-12可提供***安全或用户验证所需的通用安全功能。当设备1000包括呼叫功能时,中间件122还可包括用于管理用户语音呼叫功能或会议呼叫功能的呼叫管理器(未示出)。
中间件122还可包括运行时间库122-13或其它库模块(未示出)。运行时间库122-13是编译器用来在应用的运行期间通过编程语言跟踪新功能的库模块。例如,运行时间库122-13可执行关于输入/输出、存储功能或算术功能等等的功能。中间件122可通过上述元件模块的各种功能组合生成并使用新的中间件模块。中间件122可针对每种OS类型提供专用模块以提供区别的功能。中间件122可动态地删除给定元件的一部分或添加新的元件。本实施例中描述的元件可被部分地省略,还可包括另外的元素,或者可用具有其它称号但执行类似功能的元件替代。
API 123是API编程功能的集合,并且可根据OS而被提供作为另外的元件。例如在安卓或iOS中,可根据平台而提供一个API集合。例如在泰泽中,两个或更多个API集合可被提供。
应用124可包括默认安装的预加载应用或用户在使用过程期间可安装并使用的第三方应用。应用124可包括以下各项中的至少一个:例如,用于返回到主页屏幕的主页应用124-1,用于与通信者的电话的拨号器应用124-2,用于从电话号码所标识的通信者接收消息的文本消息应用124-3,即时消息(IM)应用124-4,浏览器应用124-5,相机应用124-6,提醒应用124-7,管理通信者的电话号码或地址的电话簿应用124-8,管理用户的呼叫日志、文本消息的发送/接收日志或未接呼叫日志等等的呼叫日志应用124-9,从电子邮件所标识的通信者接收消息的电子邮件应用124-10,日历应用124-11,媒体播放器应用124-12,相册应用124-13,以及手表应用124-14。上述的本实施例的软件的元素的称号可根据OS的类型而改变。本实施例的软件可包括这些元素中的至少一个,可省略这些元素中的一些,或者可包括额外的元素。
图30是图示根据另一示例性实施例的设备2000的框图。
参照图30,根据本实施例的设备2000的配置可适用于图1的设备100以及图21的可佩戴设备200和设备300。设备2000可包括通信单元2100、用户输入单元2200、控制单元2300、音频输出单元2400和显示单元2500。
通信单元2100可与外部设备通信,并且更详细地,与外部设备交换数据、控制信号、状态信号等等。通信单元2100可提供其类型可根据实施例而改变的多种通信方法。
用户输入单元2200可接收相对于设备2000上的GUI的元素的位置的独立的触摸手势。更详细地,用户输入单元2200可在阈值时间段内接收作为设备2000的触摸区域的至少一点上的触摸的第一触摸手势。用户输入单元2000可接收从设备2000的触摸区域上的第一点移动到第二点的第二触摸手势。在这点上,用户输入单元2200可连续地接收第一触摸手势,与些同时,第二触摸手势正在被接收。用户输入单元2000可多于至少一次地接收作为设备2000的触摸区域上的至少一点上的触摸的第三触摸手势。在这点上,用户输入单元2200可连续地接收第一触摸手势,与此同时,第三触摸手势正在被接收。
控制单元2300可响应于输入的触摸手势按先前确立的顺序提供相对于多个应用和功能之一的指示,并且如果与该指示相对应的应用或功能被选择,则控制单元2300运行所选择的应用或功能。
更详细地,控制单元2300可响应于第一触摸手势进行控制以提供相对于根据第一触摸手势的操作模式的指示。控制单元2300可根据第一触摸手势确定要响应于第二触摸手势来提供指示的多个应用和功能。之后,控制单元2300可响应于第二触摸手势进行控制以按先前确立的顺序提供相对于多个应用和功能之一的指示。之后,控制单元2300可响应于第三触摸手势进行控制以运行所选择的应用或功能。
音频输出单元2400可以声音的形式输出指示。更详细地,音频输出单元2400可以声音的形式根据第一触摸手势输出操作模式的称号。音频输出单元2400可以声音的形式根据第二触摸手势输出多个应用和功能之一的称号。音频输出单元2400可根据第三触摸手势输出所选择的应用或功能的称号或运行结果。因此,即使当用户不能看到设备2000时,在用户和设备2000之间的信息交换也可以是顺畅的。
显示单元2500可以图形的形式显示指示。更详细地,显示单元2500可根据第一触摸手势显示指示操作模式的图标。显示单元2500可根据第二触摸手势显示相对于与多个应用和功能之一相对应的图标的突出显示。显示单元2500可根据第二触摸手势显示与多个应用和功能之一相对应的快捷键。显示单元2500可根据第二触摸手势显示指示主页功能的图标。显示单元2500可根据第三触摸手势显示相对于所选择的应用或功能的屏幕。
根据本发明的实施例的外部设备控制方法也可具体实现为计算机可读记录介质上的计算机可读代码。计算机可读介质可以是能够存储由计算机***读取的数据的任何记录装置,例如,只读存储器(ROM)、随机存取存储器(RAM)、致密盘(CD)-ROM、磁带、软盘、光数据存储设备等等。计算机可读介质可分布在通过网络互连的计算机***之间,并且本发明可以分布式方式被存储和实现为计算机可读代码。
尽管已经参照本发明的示例性实施例具体示出和描述了本发明,但本领域普通技术人员将会理解,可在本文中进行形式和细节上的各种改变而不脱离所附权利要求限定的本发明的精神和范围。

Claims (14)

1.一种控制设备的方法,该方法包括:
接收独立于设备上的图形用户界面GUI的元素的位置的第一触摸手势,该第一触摸手势是相对于设备上的触摸区域上的任意点的触摸操作;
根据第一触摸手势、根据在设备上触摸的点的数量确定多个应用或功能;
接收独立于设备上的GUI的元素的位置的第二触摸手势;
响应于接收到的第二触摸手势按先前确立的顺序提供相对于多个应用或功能之一的指示;
接收相对于所述指示的用户输入;以及
响应于接收到的用户输入运行与所述指示相对应的应用或功能。
2.如权利要求1所述的方法,其中,所述第二触摸手势从设备上的位置独立的第一点移动到第二点。
3.如权利要求1所述的方法,其中,指示的提供包括:基于第二触摸手势的方向按一顺序提供相对于多个应用或功能之一的指示,而不管设备的朝向如何。
4.如权利要求1所述的方法,其中,第一触摸手势是在多于阈值时间段内的设备上的至少一点上的触摸。
5.如权利要求1所述的方法,其中,第一触摸手势的接收包括:连续地接收第一触摸手势,与此同时,第二触摸手势正在被输入。
6.如权利要求1所述的方法,其中,第一触摸手势的接收和第二触摸手势的接收包括:
通过分别使用用户的双手来接收第一触摸手势和第二触摸手势;或者
通过分别使用用户的一只手的不同的手指来接收第一触摸手势和第二触摸手势。
7.如权利要求1所述的方法,其中,第二触摸手势的接收包括:在多于阈值时间段内接收作为设备上的一点的触摸的第二触摸手势,并且
其中,多个应用或功能的确定包括:确定多个应用或功能以通过使用第一触摸手势引导当前显示在设备上的应用或功能。
8.如权利要求1所述的方法,其中,第一触摸手势的接收包括:在多于阈值时间段内接收作为设备上的两点上的触摸的第一触摸手势,并且,
其中,多个应用或功能的确定包括:确定多个应用或功能以通过使用第二触摸手势提供相对于在设备上可运行的应用或功能当中的至少一个先前确定的应用和功能的快捷键。
9.如权利要求1所述的方法,其中,第一触摸手势的接收包括:在多于阈值时间段内接收作为设备上的三点上的触摸的第一触摸手势,并且
其中,多个应用或功能的确定包括:确定多个应用或功能以通过使用第二触摸手势提供设备上的主页功能。
10.如权利要求1所述的方法,还包括:响应于第一触摸手势提供相对于根据第一触摸手势的操作模式的指示。
11.如权利要求1所述的方法,其中,第二触摸手势的接收包括:通过使用至少两个手指同时接收手势。
12.如权利要求1所述的方法,还包括:当触摸点根据最初输入的第一触摸手势从设备上的第一点移动到第二点时,将触摸点的移动方向确定为正向且将与正向相反的方向确定为反向。
13.如权利要求1所述的方法,其中,所述设备是可佩戴设备,并且
其中,所述多个应用或功能被存储在可佩戴设备或与可佩戴设备同步的外部设备中。
14.一种电子设备包括:
用户输入单元,用于接收独立于设备上的GUI的元素的位置的第一触摸手势,该第一触摸手势是相对于设备上的触摸区域上的任意点的触摸操作,并且接收独立于设备上的GUI的元素的位置的第二触摸手势;以及
控制单元,用于根据第一触摸手势、根据在设备上触摸的点的数量确定多个应用或功能,响应于接收到的第二触摸手势按先前确立的顺序提供相对于多个应用或功能之一的指示,并且当与所述指示相对应的应用或功能被选择时,该控制单元运行所选择的应用或功能。
CN201510590662.3A 2014-09-22 2015-09-16 设备及控制该设备的方法 Expired - Fee Related CN105446478B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0126208 2014-09-22
KR1020140126208A KR20160034776A (ko) 2014-09-22 2014-09-22 디바이스 및 상기 디바이스의 제어 방법

Publications (2)

Publication Number Publication Date
CN105446478A CN105446478A (zh) 2016-03-30
CN105446478B true CN105446478B (zh) 2019-08-09

Family

ID=55556773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510590662.3A Expired - Fee Related CN105446478B (zh) 2014-09-22 2015-09-16 设备及控制该设备的方法

Country Status (5)

Country Link
US (1) US10592099B2 (zh)
EP (1) EP3198390A4 (zh)
KR (1) KR20160034776A (zh)
CN (1) CN105446478B (zh)
WO (1) WO2016047898A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US9811707B2 (en) 2014-06-04 2017-11-07 Lenovo (Singapore) Pte. Ltd. Fingerprint reader on a portion of a device for changing the configuration of the device
US9939908B2 (en) 2015-09-28 2018-04-10 Paypal, Inc. Multi-device authentication
US20170116453A1 (en) * 2015-10-23 2017-04-27 Lenovo (Singapore) Pte. Ltd. Systems and methods for biometric authentication circuit offset from front surface of device
US10761714B2 (en) 2015-11-23 2020-09-01 Google Llc Recognizing gestures and updating display by coordinator
US10218730B2 (en) * 2016-07-29 2019-02-26 ShieldX Networks, Inc. Systems and methods of stateless processing in a fault-tolerant microservice environment
US10871896B2 (en) * 2016-12-07 2020-12-22 Bby Solutions, Inc. Touchscreen with three-handed gestures system and method
KR102560598B1 (ko) * 2016-12-21 2023-07-28 삼성전자주식회사 디스플레이 장치 및 그 제어방법
CN112527166B (zh) * 2020-12-18 2022-11-18 阿波罗智联(北京)科技有限公司 触控指令的处理方法、装置、设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103076973A (zh) * 2013-01-05 2013-05-01 广东欧珀移动通信有限公司 一种窗口切换方法、***及智能终端
CN103092494A (zh) * 2011-10-28 2013-05-08 腾讯科技(深圳)有限公司 触摸屏终端的应用程序切换方法和装置
CN103135934A (zh) * 2013-03-06 2013-06-05 广东欧珀移动通信有限公司 一种快速切换应用程序的方法、装置及触摸屏移动设备
CN103218044A (zh) * 2013-04-11 2013-07-24 张苏渝 一种基于物理回馈的触摸装置及其触摸处理方法
CN103455275A (zh) * 2012-05-30 2013-12-18 三星电子株式会社 在具有触摸屏的终端中移动对象的方法和装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6211856B1 (en) 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
EP1567927B1 (en) 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
KR20090070491A (ko) 2007-12-27 2009-07-01 엔에이치엔(주) 터치스크린을 이용한 화면 제어 장치 및 방법
KR101593598B1 (ko) 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8749499B2 (en) 2010-06-08 2014-06-10 Sap Ag Touch screen for bridging multi and/or single touch points to applications
US9268431B2 (en) 2010-08-27 2016-02-23 Apple Inc. Touch and hover switching
US20120110517A1 (en) * 2010-10-29 2012-05-03 Honeywell International Inc. Method and apparatus for gesture recognition
EP2715490B1 (en) 2011-05-23 2018-07-11 Haworth, Inc. Digital whiteboard collaboration apparatuses, methods and systems
KR20130052797A (ko) 2011-11-14 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 제어 방법 및 이를 지원하는 단말기
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
KR20140051719A (ko) * 2012-10-23 2014-05-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140173529A1 (en) 2012-12-14 2014-06-19 Barnesandnoble.Com Llc Circular gesture for touch sensitive ui control feature
EP2950179B1 (en) * 2014-05-30 2018-11-28 LG Electronics Inc. Mobile terminal and controlling method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103092494A (zh) * 2011-10-28 2013-05-08 腾讯科技(深圳)有限公司 触摸屏终端的应用程序切换方法和装置
CN103455275A (zh) * 2012-05-30 2013-12-18 三星电子株式会社 在具有触摸屏的终端中移动对象的方法和装置
CN103076973A (zh) * 2013-01-05 2013-05-01 广东欧珀移动通信有限公司 一种窗口切换方法、***及智能终端
CN103135934A (zh) * 2013-03-06 2013-06-05 广东欧珀移动通信有限公司 一种快速切换应用程序的方法、装置及触摸屏移动设备
CN103218044A (zh) * 2013-04-11 2013-07-24 张苏渝 一种基于物理回馈的触摸装置及其触摸处理方法

Also Published As

Publication number Publication date
CN105446478A (zh) 2016-03-30
KR20160034776A (ko) 2016-03-30
US20170242580A1 (en) 2017-08-24
EP3198390A1 (en) 2017-08-02
WO2016047898A1 (en) 2016-03-31
US10592099B2 (en) 2020-03-17
EP3198390A4 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
CN105446478B (zh) 设备及控制该设备的方法
US10841265B2 (en) Apparatus and method for providing information
US9971911B2 (en) Method and device for providing a private page
CN104424359B (zh) 用于根据字段属性来提供内容的电子设备和方法
CN110377196B (zh) 电子设备及其控制方法
CN105830422B (zh) 可折叠电子设备及其界面交互方法
CN103853451B (zh) 显示设备及控制显示设备的方法
US8842082B2 (en) Device, method, and graphical user interface for navigating and annotating an electronic document
US11165963B2 (en) Device, method, and graphical user interface for accessing an application in a locked device
CN108351706A (zh) 具有可卷动的显示器的电子设备及其控制方法
EP2784657A2 (en) Method and device for switching tasks
US12015732B2 (en) Device, method, and graphical user interface for updating a background for home and wake screen user interfaces
US11893212B2 (en) User interfaces for managing application widgets
JP2015170365A (ja) 携帯端末機及び携帯端末機のコンテンツの拡大表示方法
KR102183445B1 (ko) 투과 영역을 포함하는 커버를 가지는 휴대 단말기의 디스플레이 방법 및 장치
CN106843642A (zh) 一种移动终端的交互方法和移动终端
KR20150128406A (ko) 음성 인식 정보를 표시하는 방법 및 장치
KR102134404B1 (ko) 데이터 표시 방법 및 그 전자 장치
CN107562314A (zh) 卷轴式应用图标显示方法及***
CN106030502B (zh) 电子装置及其显示与链接对象链接的电子文档的方法
US20220391076A1 (en) Activity Stream Foundations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190809

Termination date: 20210916