CN103581428B - 终端及其控制方法 - Google Patents

终端及其控制方法 Download PDF

Info

Publication number
CN103581428B
CN103581428B CN201310319717.8A CN201310319717A CN103581428B CN 103581428 B CN103581428 B CN 103581428B CN 201310319717 A CN201310319717 A CN 201310319717A CN 103581428 B CN103581428 B CN 103581428B
Authority
CN
China
Prior art keywords
user
constructed
controller
terminal
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310319717.8A
Other languages
English (en)
Other versions
CN103581428A (zh
Inventor
全兑泳
姜来勋
黄仁龙
洪承范
张丞镇
金成优
洪圭锡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120082721A external-priority patent/KR102043145B1/ko
Priority claimed from KR1020130028204A external-priority patent/KR102087137B1/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN103581428A publication Critical patent/CN103581428A/zh
Application granted granted Critical
Publication of CN103581428B publication Critical patent/CN103581428B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/721Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种终端及其控制方法。终端包括:被构造为包在手腕的至少一个区域上并且可拆卸地形成的主体;布置在主体的一个表面中并且被构造为感测穿过手腕的肌腱与手腕中的至少一个的运动的感测单元;以及控制器,其被构造为生成用于控制外部装置以执行之前匹配到感测到的肌腱与手腕中的至少一个的运动的功能的控制信号。

Description

终端及其控制方法
技术领域
本发明涉及用户可以佩戴的终端(或用户可佩戴终端)及其控制方法。
背景技术
通常,终端可以根据终端是否可移动而分为终端(移动终端或便携式终端)和固定终端。另外,终端可以根据用户是否能够直接携带而分为手持终端和车载终端。
随着这样的功能变得更加多样化,终端能够支持更复杂的功能,例如,捕获图像或视频,在线音乐或视频文件,玩游戏,接收广播信号等等。通过完全而统一地实施这样的功能,终端可以实施为多媒体播放器或装置的形式。已经进行了很多工作来支持并增加终端的功能性。这样的工作包括软件和硬件改进,以及形成终端的结构组件的改变和改进。
终端可以生成用于控制诸如远程控制器的外部装置的控制信号。从远处控制外部装置的终端已经向着具有用户可佩戴设计方向发展,因此可佩戴终端已经变得重要。随着可佩戴终端的发展,使用身体特征的用户友好用户界面的需求已经变得更加紧迫。
发明内容
本发明的方面在于提供了一种通过使用从用户的手腕感测的特征来生成控制信号的终端及其控制方法。
本发明的另一方面在于提供一种终端及其控制方法,该终端能够通过使用能够弯曲或已经弯曲的柔性显示单元的特性基于穿过用户的手腕的肌腱的运动来生成控制命令。
根据本发明的实施方式,提供了一种终端,该终端包括:主体,该主体被构造为包在手腕的至少一个区域上并且能够拆卸;感测单元,该感测单元布置在主体的一个表面中并且被构造为感测穿过手腕的肌腱和手腕中的至少一个的运动;以及控制器,该控制器被构造为生成控制信号以控制外部装置执行之前匹配到所感测到的肌腱和手腕中的至少一个的运动的功能。
在本发明的实施方式中,终端可以进一步包括柔性显示单元,所述柔性显示单元形成在主体的至少一个区域中并且被构造为能够弯曲。
在本发明的实施方式中,控制器可以生成控制信号以执行分别对应于肌腱的不同运动特征的不同功能,并且肌腱的运动特征可以与用户的手指的形状、用户的手指的移动速度、手的移动速度和握持力的改变中的至少一个相关。
在本发明的实施方式中,仅当感测到预置的开始手势时,控制器可以执行对应于由感测单元感测到的肌腱的运动特征的功能。
在本发明的实施方式中,基于感测到预置的开始手势,可以在柔性显示单元上显示与匹配到分别根据肌腱的不同运动的不同运动特征的功能相关的引导信息。
在本发明的实施方式中,当用户的手指的形状对应于第一手势时,控制器可以执行第一功能,并且当用户的手指的形状对应于第二手势时,控制器可以执行第二功能,其中,第一功能可以是相机功能并且第二功能可以是音乐执行功能。
在本发明的实施方式中,当基于感测到第一手势而执行相机功能时,控制器可以基于用户的手指的形状的改变生成控制信号以控制与相机相关的功能。
在本发明的实施方式中,对肌腱的运动进行感测,控制器可以估计第一手指与第二手指之间的距离,并且根据所估计的距离控制放大和缩小功能。
在本发明的实施方式中,终端可以包括布置在不同位置的多个相机,并且控制器可以控制多个相机中的至少一个使得根据手腕面对的方向改变多个相机中被激活的相机。
在本发明的实施方式中,终端可以包括相机传感器,并且控制器可以基于由相机传感器感测到的用户的眼睛的方向控制显示区域的信息显示在柔性显示单元上的位置。
在本发明的实施方式中,控制器可以基于由感测单元感测到的手腕的运动移动显示区域中显示的信息。
在本发明的实施方式中,控制器可以基于根据用户的手指的运动而改变的肌腱的运动来选择显示区域中显示的信息中包括的一个或多个目标项目中的至少一个。
在本发明的实施方式中,其位置根据用户的手指的运动而改变的图形对象可以显示在显示区域中。
在本发明的实施方式中,可以基于对应于多个手指中的至少两个手指的接触的肌腱的运动的感测来选择选择目标项目中的至少一个。
在本发明的实施方式中,控制器可以基于感测单元与手感接触的面积来确定柔性显示单元包在手腕上的位置,并且根据所确定的位置来控制其中显示信息的显示区域的大小。
在本发明的实施方式中,可以将感测肌腱的运动的感测单元的灵敏度控制为根据由柔性显示单元包裹的位置而不同。
在本发明的实施方式中,终端可以进一步包括:被构造为将所生成的控制信号发送给外部装置的无线通信单元。
在本发明的实施方式中,控制器可以仅当感测到预置开始手势时才将对应于运动特征的控制信号发送给外部装置。
在本发明的实施方式中,感测单元可以包括:物理信号感测单元,其被构造为感测肌腱和手腕中的至少一个的运动;以及生物信号感测单元,其被构造为感测能够从手腕测量获得的生物信号,其中,控制器可以通过使用至少一个感测到的运动和生物信号来生成控制信号。
在本发明的实施方式中,无线通信单元可以将所感测到的生物信号与所生成的控制信号一起发送给外部装置。
根据下面给出的详细描述,本发明的进一步的范围和可用性将变得更加明显。然而,应理解的是,指示本发明的优选实施方式的详细描述和具体示例仅为了示出的目的,这是因为根据该详细描述,本发明的精神和范围内的各种改变和修改对于本领域技术人员来说都是显而易见的。
附图说明
附图被包括进来以提供本发明的进一步理解,并且被并入本申请且构成本申请的一部分,示出了本发明的实施方式,并且与说明书一起用于说明本发明的方面和特征,并且其中:
图1是根据本发明的实施方式的终端的框图。
图2A、图2B和图2C是示出根据本发明的实施方式的终端中包括的柔性显示单元的概念图。
图3是示出根据本发明的实施方式的终端中用于基于与肌腱的运动特征相关的信息控制控制信号的方法的流程图。
图4A和图4B是示出根据本发明的实施方式的终端中图3的控制方法的概念图。
图5A和图5B是示出根据本发明的实施方式的终端中用于接收预备运动的方法的概念图。
图6A、图6B、图6C、图7A、图7B、图8A和图8B是示出根据本发明的实施方式的终端中用于根据不同的运动特征生成各种控制信号的方法的概念图。
图9A和图9B是示出根据本发明的实施方式的终端中用于基于肌腱的运动特征执行安全相关功能的方法的概念图。
图10A和图10B是示出根据本发明的实施方式的终端中用于在柔性显示单元上显示信息的方法的概念图。
图11是示出根据本发明的实施方式的终端中用于设置对应于运动特征的功能的方法的概念图。
图12是示出根据本发明的实施方式的终端中用于利用运动特征执行功能的方法的概念图。
图13是示出根据本发明的实施方式的将控制信号发送给外部装置的终端的概念图。
图14是示出根据本发明的实施方式的终端中用于控制控制信号的控制方法的流程图。
图15是示出根据本发明的实施方式的终端中的图14的控制方法的概念图。
图16A至图16D是示出根据本发明的实施方式的终端中用于根据不同的运动特征生成各种控制信号的方法的概念图。
图17是示出根据本发明的实施方式的终端中用于生成用于执行鼠标功能的控制信号的方法的概念图。
图18是示出根据本发明的实施方式的终端中用于接收预备运动的方法的概念图。
图19是示出根据本发明的实施方式的终端中用于通过利用用户的手腕等等的运动特征和生物信号生成控制信号的方法的概念图。
具体实施方式
现在将参考附图描述本发明的实施方式,在附图中,虽然实施方式不同但是相同的附图标记表示相同的元件,并且与第一实施方式相同的元件的描述将用于不同的实施方式。在下面的描述中,使用诸如“模块”、“部件”或“单元”的后缀来表示元件仅为了方便本发明的描述,并且后缀本身不具有任何特殊的意义。在描述本发明时,如果对于现有功能或构造的详细描述被认为不必要地使得本公开的精神混乱,则已经省略了这样的说明,但是本领域技术人员将理解这样的说明。本发明的附图能够有利于本发明的理解并且不应认为限于附图。
本公开中描述的终端可以包括移动电话、智能电话、笔记本计算机、膝上计算机、数字广播接收器、PDA(个人数字助理)、PMP(便携式多媒体播放器)、导航装置、平板电脑、超级本等等。然而,本领域技术人员将理解的是,除了特殊构造为用于电移动的任何元件之外,根据本发明的实施方式的构造还能够应用于诸如数字TV、台式计算机等等的固定类型的终端。
图1是根据本发明的实施方式的终端的框图。
终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1将终端100示出为具有各种组件,但是应该理解,并不要求实现所有示出的组件。可以替选地实施更多或更少的组件。
下面将详细描述终端的元件。
无线通信单元110通常包括允许终端100与无线电通信***或终端100所在网络之间的无线电通信的一个或更多个模块。例如,无线通信单元110可包括广播接收模块111、移动通信模块112、无线互联网模块113、短距离通信模块114和定位信息模块115中的至少一个。
广播接收模块111经由广播信道从外部广播管理服务器(或其它网络实体)接收广播信号和/或广播相关信息。
所述广播信道可包括卫星信道和/或地面信道。广播管理服务器可以是生成并发送广播信号和/或广播相关信息的服务器,或者接收先前生成的广播信号和/或广播相关信息并将其发送给终端的服务器。广播信号可包括TV广播信号、无线电广播信号、数据广播信号等。另外,广播信号还可包括与TV或无线电广播信号组合的广播信号。
广播相关信息可指与广播信道、广播节目或广播服务提供商相关的信息。广播相关信息还可经由移动通信网络来提供,在这种情况下,可通过移动通信模块112来接收广播相关信息。
广播相关信息可以按照各种形式存在。例如,广播信号可以按照数字多媒体广播(DMB)的电子节目指南(EPG)的形式或按照手持数字视频广播(DVB-H)的电子服务指南(ESG)等的形式存在。
广播接收模块111可被构造为利用各种类型的广播***接收信号广播。具体地讲,广播接收模块111可利用诸如地面数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、手持数字视频广播(DVB-H)、称为仅媒体前向链路的数据广播***、地面综合服务数字广播(ISDB-T)等的数字广播***接收数字广播。除了上述数字广播***之外,广播接收模块111可被构造为适合于提供广播信号的每一种广播***。
经由广播接收模块111接收到的广播信号和/或广播相关信息可存储在存储器160中。
移动通信模块112向基站、外部终端和服务器中的至少一个发送无线电信号和/或从其接收无线电信号。根据文本和/或多媒体消息发送和/或接收,这些无线电信号可包括语音呼叫信号、视频呼叫信号或各种类型的数据。
无线互联网模块113支持终端的无线互联网接入。此模块可从内部或外部连接到终端100。所实施的无线互联网接入技术可以包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等。
短程通信模块114是支持短距离通信的模块。短距离通信技术的一些示例包括BluetoothTM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、ZigBeeTM等。
位置信息模块115是用于检查或获取终端的定位或位置的模块。位置信息模块115的典型示例是GPS(全球定位***)。
参考图1,A/V输入单元120被构造为接收音频或视频信号。A/V输入单元120可包括相机121和麦克风122。在视频拍摄模式或图像拍摄模式下,相机121处理通过图像拍摄装置获得的静止图片或视频的图像数据。处理的图像帧可显示在显示单元151上。
由相机121处理的图像帧可存储在存储器160(或其它存储介质)中或者经由无线通信单元110发送。根据终端的构造可设置两个或更多个相机121。
麦克风122可在电话呼叫模式、录制模式、语音识别模式等模式下经由麦克风接收声音(可听数据),并可将这些声音处理成音频数据。在电话呼叫模式的情况下,处理的音频(语音)数据可被转换成能够经由移动通信模块112发送给移动通信基站的格式以便于输出。麦克风122可实现各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中生成的噪声或干扰。
用户输入单元130可从用户所输入的命令生成输入数据以控制终端的各种操作。用户输入单元130可以包括键区、薄膜开关(domeswitch)、触摸板、滚轮(jogwheel)、触合式开关(jogswitch)等。
感测单元140检测终端100的当前状态,例如终端100的打开/闭合状态、终端100的位置、用户是否接触终端100(即,触摸输入)、终端100的取向、终端100的加速或减速移动和方向等,并生成用于控制终端100的操作的命令或信号。例如,当终端100被实现为滑盖型移动电话时,感测单元140可感测滑盖电话是打开还是闭合。另外,感测单元140可检测电源单元190是否供电或接口单元170是否连接至外部装置。感测单元140可以包括物理信号感测单元142、环境感测单元146和生物信号感测单元144。
物理信号感测单元142测量终端100的主体中的物理变化。例如,物理信号感测单元142可以测量用户的手腕的肌腱所生成的压力的变化或者运动的加速度或角速度。
环境感测单元146可以测量关于终端100周围的环境的信息,例如,高度、大气压、温度、湿度、照度等等。
生物信号感测单元144是指感测在用户的身体中生成的生物信号的传感器。生物信号是指由人的诸如微细胞等等的身体组织生成的电气信号。主电气测量包括脑电图(EEG)、心电图(ECG)、肌动电流图(EMG)、目镜导电性和皮电反射(GSR),并且主物理测量包括血压、心率、心律失常、中风商、脉动缺陷、体温、呼吸频率等等。
心电图(ECG)传感器是指从皮肤的表面测量心脏的电活动的传感器。ECG传感器通过将电流计引到身体表面的两个适合的部分来利用电流计测量根据心跳由心肌生成的动作电流。ECG可以测量与心脏有关的疾病,例如,心律失常、冠心病等等。例如,ECG传感器可以包括例如项圈式ECG传感器和贴片式ECG传感器。
肌动电流图(EMG)传感器是指从皮肤的表面测量肌肉的收缩力、肌肉活动和疲劳性的传感器。EMG传感器的EMG测量方案包括将电极附于人体皮肤的表面并且引发电势的表面演生方案和将针电极粘到肌肉,获得肌肉中的点中形成的活动电势,从而检测以运动为单元的活动。
脑电图(EEG)传感器是指从皮肤的表面测量与额外刺激相关的浓度或脑活动的传感器。EEG传感器感生在人体的大脑中产生的电势波动或者由来自头皮的电势波动引起的脑电流并且测量电记录图。即,EGG传感器可以测量与大脑的各区域(例如,大脑额叶、颞叶和枕叶)相关的脑电波。
皮电反射(GSR)传感器从皮肤的表面测量与交感神经活动相关的皮肤电阻的变化。GSR传感器测量由于外部刺激或活动身体的皮肤中的情绪兴奋导致电阻临时减小,生成活动电势等等的现象。GSR传感器也可以用作测谎器。
光电容积描记(PPG)传感器可以利用光学传感器测量周围血管的血液流速并且可以测量氧饱和和动脉硬化。PPG传感器可以通过将已经通过用户的手指的毛细管的不包括被吸收到接收单元的光的量的红外光转换为电流值来测量血液流速。PPG传感器也可以测量氧饱和度、脉动、血压或体温以及血液流速。
氧饱和度(SpO2)传感器利用光学传感器测量周围血管的血液流速,并且还测量血液氧饱和度和脉动。SpO2传感器可以通过使用分别关于动脉血和静脉血的基准值来感测氧饱和度是否异常。
超声传感器输出身体中的组织或母亲的胎儿的实时图像。超声传感器通过生成频率超过20kHz的超声波来检测距离、厚度、移动等等。
血压传感器通过使用压力测量动脉的血压。血压传感器用于测量活体的血液信息,其可以分类为压力-电转换传感器(例如,电子压强计)、在侵入式血压测量方法中使用的导管端血压计等等。
血糖传感器通过从用户收集少量血液利用电化学反应来测量血糖的数值。
多导睡眠传感器是用于监视睡眠的质量的传感器。多导睡眠传感器通过综合地测量ECG、脉动、呼吸、氧饱和度、脑电波、体温等等来监视睡眠质量。
体成分传感器是用于测量重量和体电阻并且分析重量、体重、体脂肪、肌肉质量、代谢率的传感器。体成分是指身体水分、蛋白质、矿物质和体置放,并且体成分传感器可以通过使用生物电阻抗分析来测量体成分。
输出单元150被构造为提供视觉、听觉和/或触觉方式的输出(如,音频信号、视频信号、报警信号、振动信号等)。输出单元150可包括显示单元151、音频输出模块152、报警单元153、触觉模块154等。
显示单元151可显示(输出)终端100中处理的信息。例如,当终端100处于电话呼叫模式时,显示单元151可显示与呼叫或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)和/或图形用户界面(GUI)。当终端100处于视频通话模式或图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像及其相关功能的UI或GUI等等。
显示单元151可包括液晶显示器(LCD)、薄膜晶体管-LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器和电子墨水显示器中的至少一种。
这些显示器中的一些可被构造为透明的或光透射性的以允许外部的观看,这可称为透明显示器。透明显示器的典型示例可例如为TOLED(透明有机发光二极管)等。通过这样的构造,用户能够穿过终端主体的显示单元151所占据的区域看到位于终端主体背后的对象。
根据特定想要的实施方式,终端100可以包括两个或更多显示单元。例如,多个显示单元可一体地或单独地布置在终端的一个表面上,或者可分别布置在不同的表面上。
同时,当显示单元151与用于检测触摸操作的传感器(称为“触摸传感器”,下同)以层状方式叠加以形成触摸屏时,显示单元151可用作输入装置和输出装置。触摸传感器可具有触摸膜、触摸片、触摸板等的形式。
触摸传感器可被构造为将施加于显示单元151的特定部分的压力或在显示单元151的特定部分处产生的电容等等的变化转换为电输入信号。触摸传感器可被构造为检测施加触摸时的压力以及触摸位置和触摸区域。
当存在与触摸传感器相关的触摸输入时,对应信号被发送至触摸控制器。触摸控制器处理该信号,并且将对应数据发送给控制器180。因此,控制器180可识别显示单元151的哪个部分被触摸。
参照图1,接近传感器141可以布置在触摸屏内或附近。接近传感器141是用于通过利用电磁力或红外线在没有物理接触的情况下检测相对于特定检测表面的对象的有无或者附近存在的对象的有无。因此,与接触型传感器相比,接近传感器141具有长得多的寿命,并且能够用于各种应用。
接近传感器141的示例可以包括透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、RF振荡接近传感器、电容型接近传感器、磁接近传感器、红外接近传感器等等。在触摸屏是电容型的情况下,利用根据指点器的接近的电场的变化来检测指点器的接近。在该情况下,触摸屏(触摸传感器)可以被分类为接近传感器。
在下面的描述中,为了简明起见,靠近触摸屏的指点器的识别被称为“接近触摸”,而指点器在触摸屏上实际接触的识别被称为“接触触摸”。在这种情况下,当指点器处于接近触摸的状态时,这表示指点器设置为垂直地对应于触摸屏。
通过采用接近传感器141,能够检测接近触摸和接近触摸模式(如,接近触摸距离、接近触摸速度、接近触摸时间、接近触摸位置、接近触摸移动状态等),与所检测到的接近触摸操作和接近触摸模式对应的信息可输出给触摸屏。
音频输出模块152可在呼叫信号接收模式、呼叫模式、录制模式、语音识别模式、广播接收模式等模式下将从无线通信单元110接收或存储在存储器160中的音频数据转换并输出为声音。另外,音频输出模块152可提供与终端100执行的特定功能(如,呼叫信号接收声音、消息接收声音等)相关的音频输出。音频输出模块152可包括扬声器、蜂鸣器或其它声音生成装置。
报警单元153可以提供输出以通知终端100的事件的发生。典型的事件可包括呼叫接收、消息接收、键信号输入、触摸输入等。除了音频或视频输出之外,报警单元153可以以不同方式提供输出以通知事件的发生。例如,报警单元153可以提供振动形式的输出。当接收到呼叫、消息或其它外来通信时,报警单元153可以提供触觉输出(即,振动)以通知给用户。通过提供这样的触觉输出,用户即使在他的移动电话处于用户的口袋中的情况下也能够识别各种事件的发生。通知事件的发生的输出也可以经由显示单元151或音频输出模块152来提供。显示单元151和音频输出模块152可以被分类为报警单元153的一部分。
触觉模块154生成用户能够感觉到的各种触觉效果。由触觉模块154生成的触觉效果的一个典型示例是振动。触觉模块154的强度和模式可以是受控的。例如,不同的振动可合成以输出,或者可顺序地输出。
除了振动之外,触觉模块154可生成各种其它触觉效果,例如模拟诸如插针排列相对于接触皮肤的垂直移动、通过注入孔或抽吸开口对空气的喷力或抽吸力、接触皮肤、接触电极、静电力等的效果、利用能够吸热或放热的元件表现冷热感觉的效果。
除了通过直接接触传递触觉效果之外,触觉模块154可实现为允许用户通过诸如用户手指或手臂的肌肉觉来感觉到触觉效果。根据终端100的构造可提供两个或更多个触觉模块154。
存储器160可存储用于处理和控制由控制器180执行的操作的软件程序,或者可临时存储输入或输出的数据(如,电话簿、消息、静止图像、视频等)。另外,存储器160可存储与触摸屏上输入触摸时所输出的振动和音频信号的各种模式相关的数据。
存储器160可包括任何类型的存储介质,包括闪存、硬盘、微型多媒体卡、卡型存储器(如,SD或XD存储器等等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等。另外,移动终端100可操作在互联网上执行存储器160的存储功能的网络存储器。
接口单元170用作与和移动终端100连接的每个外部装置的接口。例如,接口单元170可从外部装置接收数据、向移动终端100中的各个元件输送电力、或者将终端100的内部数据发送给外部装置。例如,接口单元170可包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
所述标识模块可被构造为存储验证移动终端100的使用权限的各种信息的芯片,并且可以包括用户识别模块(UIM)、订户识别模块(SIM)、全球订户识别模块(USIM)等。并且,具有标识模块的装置(以下称为“标识装置”)可以具有智能卡的形式。因此,标识装置可经由端口连接至终端100。
当终端100与外部托架连接时,接口单元170可用作允许电力从托架通过接口单元170向终端100供应的路径,或者用作允许用户输入的各种命令信号从托架传输给终端的路径。从托架输入的各种命令信号或电力可用作识别终端已经正确安装在托架上的信号。
控制器180通常控制终端的总体操作。例如,控制器180执行与电话呼叫、数据通信、视频呼叫等相关的控制和处理。控制器180可包括再现多媒体的多媒体模块181。多媒体模块181可被构造在控制器180内或者可以被构造为控制器与控制器180分离。
控制器180可执行模式识别处理以将触摸屏上执行的书写输入或绘画输入分别识别为字符或图像。
而且,当终端的状态满足预设条件时,控制器180可执行锁定状态以限制用户针对应用输入控制命令。并且,在锁定状态下,控制器180可基于通过显示单元感测到的触摸输入控制在锁定状态下显示的锁定画面。
电源单元190接收外部电力或内部电力,并在控制器180的控制下供应操作各个元件和组件所需的适当电力。
本文所述的各种实施方式可利用例如软件、硬件或其任意组合来实现在计算机可读或其类似介质中。
对于硬件实现方式,本文所述的实施方式可利用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行本文所述的功能的电子单元中的至少一个来实现。在一些情况下,这些实施方式可通过控制器180本身来实现。
对于软件实现方式,诸如本文所述的程序或功能的实施方式可通过单独的软件模块来实现。各个软件模块可执行本文所述的一个或更多个功能或操作。
软件代码可通过以任何合适的编程语言编写的软件应用来实现。软件代码可存储在存储器160中,并由控制器180执行。
同时,在本实施方式中,可以通过使用柔性显示器来显示终端100中的信息处理。下面,将参考附图详细描述柔性显示单元。图2A和图2C是示出根据本发明的实施方式的终端中包括的柔性显示单元的概念图。
如图2A的(a)和(b)中所示,柔性显示单元151可以包括能够由于从外部施加的力而弯曲、折叠或旋转的显示器。这里,柔性显示单元151可以包括通常的柔性显示器和电子纸。
这里,通常的柔性显示器是指能够像纸一样弯曲、折叠或旋转同时保持现有的平板显示器的显示特性的显示器,并且该显示器被制造在薄且柔性的基板上,并且又轻又耐用,并且不易破碎。
而且,电子纸是采用通常的墨水的特性的显示技术,其与通常的平板显示器的不同之处在于其使用了反射光。电子纸可以通过利用使用扭转向列球或胶囊的电泳来改变图形或字符。
同时,柔性显示单元151包括形成在其上的感测单元181(请参见图1),因此能够感测关于柔性显示单元151的弯曲信息。在本公开,词语“弯曲”可以包括“弯曲”、“旋转”和“折叠”的所有含义。
感测单元181可以整体或部分地布置在柔性显示单元151上,并且可以感测关于柔性显示单元151的用户的手指。这里,柔性显示单元151的弯曲可以包括柔性显示单元151弯曲的方向、柔性显示单元151弯曲的程度、柔性显示单元151弯曲的位置、柔性显示单元151弯曲的时间、弯曲的柔性显示单元151返回其原始状态的加速度等等。此外,弯曲信息可以包括在柔性显示单元弯曲时能够感测到的其它类型的信息。
而且,控制器180可以生成用于改变柔性显示单元151上显示的信息或者基于由感测单元181感测到关于柔性显示单元151的弯曲信息控制终端的功能的控制信号。
例如,如图2A的(a)和(b)中所示,当柔性显示单元151由于外部力而弯曲时,柔性显示单元151上显示的画面图像可以根据柔性显示单元151弯曲的方向、柔性显示单元151弯曲的角度以及柔性显示单元151返回其原始状态的返回加速度而重新排列、分离或合成。
例如,如图2A的(a)和(b)中所示,当柔性显示单元151由于外力向内弯曲时,柔性显示单元151上显示的画面图像可以显示为彼此靠近。而且,相反地,当柔性显示单元151由于外力而向外弯曲时,柔性显示单元151上显示的画面图像可以显示为彼此分离。
而且,除了上述方法之外,控制器180可以根据柔性显示单元151的弯曲不同地控制在柔性显示单元151上显示信息的方法,从而用户可以准确地识别柔性显示单元151上显示的信息。
同时,如图2B中所示,根据本发明的实施方式的包括柔性显示单元151的终端可以包括围绕柔性显示单元151的外壳200。而且,考虑柔性显示单元151的特性,外壳200可以被构造为根据外力与柔性显示单元151一起弯曲。
同时,如上所述,响应于柔性显示单元151的弯曲信息,控制器180可以生成与根据本发明的实施方式的终端的功能相关的控制信号。
而且,如图2C的(a)中所示,根据本发明的实施方式的终端可以实施为包在用户的手腕上的形式。
而且,如图2C的(b)中所示,在根据本发明的实施方式的终端中,感测单元140布置在终端的其中柔性显示单元151与手腕接触的表面中,从而可以由感测单元140感测到穿过手腕的多个肌腱的运动。在该情况下,感测单元140可以感测根据手指的运动的肌腱的运动并且将感测到的信息传输给控制器180。而且,控制器180可以基于来自感测单元140的感测信息执行与用户的手指的运动匹配的功能。
同时,参考根据用户的手指的运动的肌腱的运动,在手腕410内的腕隧道410中存在负责用户的手指的运动的用户的手指屈肌肌腱。在手指屈肌肌腱中存在九个肌腱和一个神经,并且当用户的手指运动时,用户的手指屈肌肌腱中包括的九个肌腱以各种组合的方式运动。感测单元140可以感测根据用户的手指或手腕的运动而改变的肌腱的形状,并且控制器可以基于感测信息确定由手指做出的手势。
在该情况下,存储器160可以在其中存储有关于匹配到不同的手指手势的肌腱的形状信息。
同时,感测单元180可以感测手指的运动速度和握持力的变化以及根据用户的手指的运动改变的肌腱的形状。
即,感测单元180可以感测肌腱的运动特征,并且这里,运动特征可以是形状(或手势)、手指的运动速度、书写的移动方向、手腕的运动速度和握持力的改变中的至少一种。
同时,如上所述,由于根据本发明的实施方式的终端通过显示单元151包住手腕,因此能够通过感测单元140感测肌腱的运动和形状。
下面,将参考附图详细描述基于通过前述方法感测到的肌腱的运动特征执行预先匹配到感测到的运动特征的功能的方法。
图3是示出根据本发明的实施方式的终端中用于通过使用柔性显示单元生成控制信号的控制方法的流程图。图4A和图4B是示出图3的控制方法的概念图。
首先,感测单元140(参见图1和图2C的(b))感测穿过手腕的肌腱的运动(S310)。这里,感测单元140被布置在其中柔性显示单元151接触手腕的部分中。而且,作为感测单元140的感测目标的肌腱是如上面参考图2C的(b)描述的腕隧道410中包括的肌腱。
在步骤S310,当由感测单元310感测到肌腱的运动时,控制器180生成用于执行之前匹配到感测到的肌腱的运动特征的功能的控制信号(S320)。
这里,如上所述,肌腱的运动特征可以是手指的形状(手势)、手指的运动速度、手指的运动方向、手腕的运动速度和握持力的改变中的至少一种。而且,这样的运动特征可以根据手指或手腕的运动而不同地改变。例如,当五指散开时的运动特征以及当五指聚拢时的运动特征是不同的。即,肌腱的运动和形状根据手指的运动而不同。
即,控制器180生成用于执行对应于肌腱的不同运动特征的不同功能的控制信号。例如,当用户的手指的形状(或手势)对应于预置的第一形状时,控制器180可以生成对应于匹配到第一形状的第一功能的第一控制信号。而且,当用户的手指的形状对应于预置的第二形状时,控制器180可以生成对应于匹配到第二形状的第二功能的第二控制信号。
而且,这里,用于执行预先匹配的功能的控制信号是用于控制根据本发明的终端的控制信号。因此,在根据本发明的实施方式的终端中,可以执行根据基于所感测到的肌腱的运动特征生成的控制信号的功能。因此,通过简单地感测肌腱的运动或根据运动的形状,可以在根据本发明的实施方式的终端中执行各种不同的功能。而且,可以分别根据用户选择或初始设置设置匹配到不同手指的运动特征的功能。
将描述执行根据不同手指的形状的不同功能的示例。如图4A的(a)和图4B的(a)中所示,当手指具有不同形状时,如图4A的(b)和图4B的(b)中所示,在终端中执行不同功能。
例如,当第一手指421和第五手指425伸开同时其余的第二、第三和第四手指聚拢(如图4A的(a)中所示)时,控制器180生成对应于匹配到如所示的手指形状(手势)的“呼叫”相关功能的控制信号。结果,如图4A的(b)中所示,执行“呼叫”相关功能的执行画面可以输出到柔性显示单元151。
在另一示例中,当第二手指422和第三手指423伸开并且其余第一、第四和第五手指聚拢时,控制器180生成对应于匹配到如所示的手指形状(或手势)的“相机”功能的控制信号。结果,如图4的(b)中所示,相机121或121’(参见图2A和图2B)可以被激活,并且通过相机输入的图像可以输出到柔性显示单元151。
同时,除了参考图4A和图4B描述的示例之外,控制器180可以基于手指的动态运动、手指的运动速度、握持力的变化和手腕的运动和速度或者速度来执行预置的功能。
如上所述,终端可以根据不同的手指手势执行不同的功能。因此,用户可以甚至利用他的手指或手腕而在没有向柔性显示单元通过触摸等等施加控制命令的情况下执行想要的功能。
下面,将参考附图描述仅当感测到开始手势时才执行对应于用户的手指或手腕的功能的方法。图5A和图5B是示出根据本发明的实施方式的终端中用于接收预备运动的方法的概念图。
在根据本发明的实施方式的终端中,在用户简单地移动他的手指或手而不是为了生成控制信号而移动手指或手腕的情况下,能够防止生成错误的控制信号。即,在根据本发明的实施方式的终端中,在感测到预置的开始手势的情况下,控制器180可以执行对应于通过感测单元180感测到的肌腱的运动特征的功能。
这里,预置的开始手势可以基于用户设置或者可以对应于初始设置信息。
例如,在预置开始手势是第二手指422在特定方向上移动一次的手势并且第二手指移动为对应于预置的开始手势(如图5A的(a)中所示)的情况下,控制器180可以在感测到开始手势之后生成与对应于肌腱的运动特征的功能相关的控制信号。
而且,为了通知用户已经感测到开始手势,如图5A的(b)中所示,控制器180可以将引导信息输出到柔性显示单元151。而且,引导信息可以通过诸如语音、振动等等的除了图5A的(b)中所示的视觉方法之外的声音或触觉方法来输出。
而且,在感测到开始手势之后,当预置时间已经流逝或者在感测到预置的结束手势之后,虽然感测单元140感测到肌腱的运动,但是控制器可以不执行感测到的肌腱的运动的功能。
而且,如图5B中所示,控制器可以将与匹配到根据肌腱的不同运动的不同运动特征中的每一个的功能相关的引导信息输出到柔性显示单元151。
如上所述,在根据本发明的实施方式的终端中,当感测到开始手势时,执行对应于肌腱的运动特征的功能,因此防止了违背用户意图的不必要的功能的执行。
下面,将通过特定实施方式描述控制根据肌腱的运动特征和手腕所面对的方向的各种功能的方法。图6A、图6B、图6C、图7A、图7B、图8A和图8B是示出根据本发明的实施方式的终端中用于根据不同的运动特征生成各种控制信号的方法的概念图。
例如,将描述在相机功能被激活的状态下根据肌腱的运动特征控制相机相关功能的方法。在根据本发明的实施方式的终端中,当感测到根据用户的手指的运动的肌腱的运动时,控制器180可以能够基于感测信息估计至少两个手指之间的距离。
以该方式,当估计出手指之间的距离时,控制器180可以基于所估计的手指之间的距离信息生成控制信号。
例如,如图6A和图6B中所示,控制器180可以基于不同手指之间的距离调整相机的倍率。即,控制器180可以基于不同手指之间的距离控制缩小或放大功能。
当估计的第一手指421与第二手指422之间的距离“a”小于基准距离时,控制器180可以执行缩小功能,如图6A的(a)和(b)中所示。而且,当估计的第一手指421与第二手指422之间的距离“a”大于基准距离时,控制器180可以执行放大功能,如图6B的(a)和(b)中所示。而且,当执行放大或缩小功能时,控制器180可以根据手指之间的距离不同地控制其倍率。
同时,根据本发明的实施方式的终端包括布置在不同位置的多个相机,并且控制器180可以根据手腕面对的方向来控制多个相机中的至少一个使得多个相机中的对应的相机被激活。
例如,将描述多个相机中的第一相机121被布置在对应于手背的表面中并且第二相机121’被布置在对应于手掌的表面中的情况。在该情况下,控制器180可以通过传感器单元140中包括的运动传感器(未示出)感测手背或手掌面向的方向。这里,运动传感器141可以安装在终端100内,并且可以识别终端的运动或位置。运动传感器可以包括地磁传感器、加速度计、陀螺仪传感器等等。
根据通过传感器单元140获得的感测结果,当手背面对用户时,控制器180可以激活第二相机121’,并且当手掌面对用户时,控制器180可以激活第一相机121,因此通过相机接收不同的图像。
同时,在该情况下,控制器180可以根据手背或手掌面对用户的方向来控制柔性显示单元151的其中显示信息(例如,通过相机输入的图像)的区域。即,控制器10可以根据用户的眼睛的方向改变柔性显示单元151上显示信息的区域。
而且,虽然未示出,但是控制器180可以基于根据用户的手腕或手指的运动的肌腱的运动特征控制与相机相关的各种功能。例如,控制器180可以根据用户选择控制与相机相关的多个功能,例如,连续拍摄的次数、拍摄命令、亮度调整、光和影的调整等等。
在另一示例中,将描述基于肌腱的运动特征选择柔性显示单元151上显示的选择目标项目中的至少一个的方法。例如,如图7A中所示,控制器180可以根据用户的手指422从442a移动到422b而移动显示在柔性显示单元151上的图形对象(或触摸指针)300。
而且,如图7B的(a)中所示,当至少两个手指421和422接触时,控制器180可以控制柔性显示单元151使得显示项目210。当显示在触摸指针300所位于的部分中的项目210被选择(如图7B的(a)中所示)时,对应于所选择的项目210的信息可以输出到柔性显示单元151(如图7B的(b)中所示)。
下面,将描述基于根据用户的手腕或手指的运动的肌腱的运动控制与音乐或视频播放(或再现)相关的应用中的功能的方法。
例如,如图8A的(a)、(b)和(c)中所示,当手腕在第一方向上旋转(a)并且接下来返回其原始方向(b)时,控制器180可以播放(或再现)播放列表中当前播放的第一音乐的下一第二音乐。
而且,控制器180可以确定是否播放当前播放的音乐的下一音乐,或者是否播放当前音乐的前一音乐。
而且,如图8B的(a)中所示,在音频或视频相关应用中,在以1×速度搜索当前播放的文件时,当手腕在预定方向上移动(如图8B的(b)中所示)时,搜索速度可以增大到3×速度。
在另一示例中,如图9A中所示,在通过由无线通信单元110执行的NFC(近场通信)解除诸如车辆的锁定装置或门锁的锁定装置的情况下,仅当感测到肌腱的预置运动特征时,控制器180才可以将用于解锁锁定装置的信号发送给锁定装置。
因此,在该情况下,仅当感测到用户的肌腱的特定状态时或者仅当感测到预置方式的肌腱的运动时,控制器180才解锁锁定装置,从而用户能够加强锁定装置的安全性。
在另一示例中,如图9B的(a)、(b)和(c)中所示,在应用的控制命令受到限制的锁定状态下,当感测到肌腱的预置的运动特征时,控制器180可以将锁定状态改变为解锁状态。
这里,锁定状态是针对终端中包括的应用的用户控制命令的输入受到限制的状态。这用于防止在包括触摸屏(或被构造为触摸屏的显示单元或者柔性显示单元151)的终端中输入用户不想要的控制命令,从而防止终端的应用和功能的激活或去激活。因此,在锁定状态下,通过触摸屏(或显示单元151)或任何其它用户输入单元130执行的控制命令的用户输入可以被限制到预置的范围。
同时,在锁定状态下,虽然控制命令的用户输入受到限制,但是在终端进入锁定状态之前已经运行的终端的应用的操作和终端的功能可以继续执行。
解锁状态是指针对终端的控制命令的用户输入不受限制的状态。因此,在解锁状态中,根据用户通过触摸屏(或显示单元151)或用户输入单元130输入的控制命令激活或去激活终端的功能和应用。
这里,可以当在预置时间段中没有感测到针对终端中设置的触摸屏(或显示单元151)和任何其它用户输入单元130的用户输入时执行锁定状态。预置时间段可以根据用户设置而改变。而且,可以在用户按下终端中预先为锁定状态设置的特殊键(例如,锁定键)时执行锁定状态。
除了通过将触摸施加到根据本发明的实施方式的终端的柔性显示单元来将锁定状态改变为解锁状态的方法之外,用户可以以该方式仅利用用户的手腕或手指的运动来将锁定状态改变为解锁状态。因此,即使当用户不能够使用两只手时,他或她也可以解锁锁定状态。
同时,在根据本发明的实施方式的终端中,控制器180可以根据柔性显示单元151是否位于用户的手腕中来不同地控制其中显示信息的区域的大小。
如上所述,信息可以显示在弯曲以包住用户的手腕的柔性显示单元151的整个区域中。然而,实际上,根据手背(或手掌)面对的方向,用户仅能够看到在柔性显示单元151的一部分中显示的信息。
因此,根据本发明的实施方式的控制器180可以通过上述相机传感器或运动传感器来识别手背面对的方向,并且根据所识别出的方向控制其中显示信息的区域。例如,当用户的手背面向用户的眼睛时,控制器180可以在柔性显示单元151的对应于用户的手背的方向的区域中显示信息。
而且,如图10A中所示,控制器180可以根据柔性显示单元151与用户的手腕接触的面积来控制其中显示信息的区域的大小。例如,感测单元140可以感测与用户的手腕接触的面积。控制器180可以基于如上所述感测到的信息来确定柔性显示单元151包住用户的手腕的位置。控制器180可以根据所确定的位置控制其中显示信息的区域的大小。
因此,如所示的,当柔性显示单元151离用户的身体(用户的肘部)比离用户的手掌更近时,柔性显示单元151的接触面积增大,从而控制器180可以控制柔性显示单元151处于位置“a”时的信息显示区域的大小,使得其大于当柔性显示单元151处于位置“b”时的信息显示区域的大小。
同时,位置“a”的肌腱在身体中比处于位置“b”时更深,因此,控制器180可以控制感测单元140以在位置“a”具有更高的灵敏度。
而且,如图10B的(a)和(b)中所示,在柔性显示单元151的信息显示区域根据用户的眼睛的方向而改变的情况下,控制器180可以基于改变后的信息显示区域的大小控制柔性显示单元151以改变其上显示的信息的量。
如上所述,根据本发明的实施方式的终端能够通过根据柔性显示单元151的位置和用户的眼睛的方向改变其中显示信息的区域来高效地将信息提供给用户。
同时,如图11中所示,在根据本发明的实施方式的终端中,用户可以直接设置对应于特定手势的功能。例如,如图11的(b)中所示,在想要将对应的手势与导航功能匹配的情况下,当用户选择导航功能时,控制器180可以输出用于接收将与导航功能匹配的手势的引导信息,如图11的(c)中所示。而且,如图11的(c)和(d)中所示,当通过感测单元140识别到特定手势时,其可以匹配到导航功能。
而且,虽然未示出,在根据本发明的实施方式的终端中,除了基于用户直接做出的手势识别特定手势的方法之外,也可以由用户选择之前存储的手势项目中的任一个。
以该方式,在根据本发明的实施方式的终端中,用户可以通过直接选择或输入对应于特定功能的手势来建立适合于用户的设置环境。
同时,在根据本发明的实施方式的终端中,用户可以通过移动他的手指或手腕来激活诸如“健康模式”的特定模式以帮助用户的健康。健康模式可以基于用户选择而激活。因此,如图12中所示,在健康模式被激活的状态下,关于将消耗的卡路里的信息以及对应于每个特定功能的手势信息被输出以引导用户移动他的手指或手腕。
如上所述,在根据本发明的实施方式的终端中,能够通过根据用户运动的手势来执行终端的功能并且能够增强用户健康。
而且,在根据本发明的实施方式的终端及其控制方法中,能够通过利用包住用户手腕的柔性显示单元来感测穿过用户的手腕的肌腱的运动。因此,用户可以通过简单地移动他的手腕或手指而不必通过触摸输入等等将控制命令施加到柔性显示单元来根据肌腱的运动特征执行匹配的功能。即,在根据本发明的实施方式的终端及其控制方法中,能够通过使用一只手而不是两只手来执行各种功能,从而增加了用户方便性。
同时,在本实施方式中,终端100可以部分地放置在用户的身体上并且生成用于控制外部装置的控制信号。下面,将参考附图详细描述将控制信号发送给外部装置的终端100。图13是示出根据本发明的实施方式的将控制信号发送给外部装置的终端的概念图。
如图13中所示,根据本发明的实施方式的终端100可以实施为使得其主体在用户的手腕上。
而且,如图2中所示,在根据本发明的实施方式的终端中,感测单元140被布置在终端100的主体的与用户的手腕接触的表面中,使得可以通过感测单元140感测到穿过用户的手腕的多个肌腱和用户的手腕的运动。
在该情况下,感测单元140可以用作用于检测用户的手指的运动的检测单元。即,感测单元140可以感测根据用户的手指的运动的肌腱的运动,并且将感测信息传输给控制器180。而且,控制器180可以基于来自感测单元140的感测信息处理与用户的手指的运动匹配的功能。
在该情况下,存储器160可以在其中存储有关于与不同手指手势匹配的肌腱的形状信息。而且,存储器160可以在其中存储根据用户的手腕的运动的肌腱的运动特征。
同时,感测单元140可以感测握持力的变化、用户的手腕的移动速度和角速度、用户的手腕的移动等等以及根据用户的手指的运动而改变的肌腱的形状。即,感测单元140可以确定用户的手腕和手指的运动特征如何改变。例如,感测单元140可以感测用户紧握他的拳头的状态到用户伸开所有手指的状态、用户拍手的状态以及用户将手指彼此敲击以制造声音的状态等等。
即,感测单元可以感测肌腱的运动特征,并且这里,运动特征可以是用户的手指的形状(或手势)、握持力的变化、用户的手指的移动速度、用户的手腕的移动方向、用户的手腕的移动速度、用户的手腕的加速度和用户的手腕的角速度。
终端100可以包括形成在其主体的外周表面上的用户输入单元130和输出单元150。
例如,在根据本发明的实施方式的终端100中,用户输入单元130可以是用于开启或关闭终端100的电源的按钮。在另一示例中,用户输入单元130可以是用于在用户简单地移动他的手指或受的情况下防止错误地生成控制信号的按钮。即,当感测到施加到用户输入单元的用户输入时,感测单元140被激活预置时间段。控制器180可以生成对应于由激活的感测单元140感测到的肌腱的运动特征的控制信号。
输出单元150可以通过使用发光二极管(LED)输出关于电源单元190的电力状态的信息或者关于感测单元140是否被激活的信息。
虽然未示出,但是显示单元可以设置在主体的外周表面中以输出关于终端100的控制的信息。例如,显示单元可以输出关于用户的手指的形状的信息和关于对应于形状的控制功能的信息。这里,显示单元可以是能够与终端100的主体一起弯曲的柔性显示单元。
而且,将生成的控制信号发送给外部装置的无线通信单元110(请参见图1)可以设置在终端100的主体中。外部装置可以是能够在短距离内连接到终端100的装置。当外部装置位于预置区域中时,其可以自动地连接到终端100或者可以根据用户输入选择性地连接到终端100。
图14是示出根据本发明的实施方式的终端中用于控制控制信号的控制方法的流程图。图15是示出根据本发明的实施方式的终端中的图14的控制方法的概念图。
首先,根据根据本发明的实施方式的控制方法,感测单元140(请参见图1)感测穿过用户的手腕的肌腱与用户的手腕中的至少一个的运动(S410)。这里,感测单元140被布置在终端100的主体与用户的手腕接触的部分中。而且,作为感测单元140的感测目标的肌腱是上面参考图2C的(b)讨论的腕隧道410中包括的肌腱。
当在步骤S410中由感测单元140感测到肌腱与用户的手腕中的至少一个的运动时,控制器180生成用于执行预先与肌腱和用户的手腕中的至少一个的感测的运动特征匹配的功能的控制信号(S420)。
这里,如上所述,肌腱和用户的手腕中的至少一个的运动特征可以是用户的手指的形状(或手势)、握持力的变化、用户的手指的移动速度、用户的手指的位置、用户的手指的移动速度、用户的手指的加速度和用户的手腕的角速度。而且,运动特征可以根据用户的手指或手腕的运动而不同的改变。
例如,当五指伸开时的运动特征和当五指聚拢时的运动特征是不同的。即,肌腱的运动和形状根据手指的运动而不同。而且,当终端100所位于的用户的手腕以直立手势移动到与用户的耳朵相邻的位置时,运动特征根据用户的手腕的位置和用户的手腕的移动速度而不同。
即,控制器180生成用于执行对应于肌腱的不同运动特征的不同功能的控制信号。例如,当手指的形状(或手势)对应于预置的第一形状时,控制器180可以生成对应于与第一形状匹配的第一功能的第一控制信号。而且,当手指的形状对应于预置的第二形状时,控制器180可以生成对应于与第二形状匹配的第二功能的第二控制信号。
而且,这里,用于执行“之前匹配的功能”的控制信号是用于控制外部装置的控制信号。控制信号被发送到希望由无线通信单元110控制的外部装置。因此,可以根据基于通过使用根据本发明的实施方式的终端100感测到的肌腱和用户的手腕的运动特征生成的控制信号控制外部装置以执行功能。
这里,外部装置可以包括诸如蜂窝电话、智能电话、膝上笔记本、数字广播终端、PDA(个人数字助理)、PMP(便携式多媒体播放器)、导航装置、平板PC、超级本等等的移动终端和诸如数字TV、台式计算机等等的固定终端。除了终端之外,外部装置可以包括能够由控制信号远程控制的任何电子装置,例如,冰箱、空调等等。
如上所述,在根据本发明的实施方式的终端100中,通过根据运动简单地感测肌腱的运动或形状,可以在根据本发明的实施方式的终端中执行各种不同功能。而且,可以根据用户选择或初始设置分别设置匹配到不同手指的运动特征的功能。
例如,参考图15,当用户的手指都从用户握紧他的拳头的状态伸开时,生成对应于开启电源的功能的控制信号。结果,与终端100同步的外部装置可以响应于该控制信号而开启电源。
因此,当用户在用户的所有手指都伸开的状态下握拳时,生成对应于关闭电源的功能的控制信号。结果,与终端100同步的外部装置可以响应于该控制信号而关闭电源。
同时,除了上面参考图15描述的示例之外,控制器180可以能够基于用户的手指的动态移动和移动速度、握持的变化或者用户的手腕的运动和速度来执行预置的功能。
如上所述,在根据本发明的实施方式的终端100中,可以根据不同的手指手势执行不同的功能。因此,用户可以仅通过他的手指或手腕而不必通过触摸向外部装置施加控制命令来执行想要的功能。
图16A至图16D是示出根据本发明的实施方式的终端中用于根据不同的运动特征生成各种控制信号的方法的概念图。
例如,在图16A至图16C中,假设接收到呼叫,并且来电呼叫声音输出到蓝牙耳机500。蓝牙耳机可以被替换为具有鼠标的扬声器或有线耳机。
这里,感测单元140可以感测其附着到的正在移动的用户的手腕的运动特征。在这样的情况下,控制器180可以基于用户的手腕的运动和用户的手腕已经移动到的位置来生成控制信号。
例如,参考图16A,当用户的手腕移动到与用户的耳朵相邻的位置时,终端100可以生成用于接通呼叫的控制信号。控制器180可以将用于接通呼叫的控制信号发送给蓝牙耳机500。因此,用户可以通过使用蓝牙耳机500执行通话通信。
在另一示例中,参考图16B,当用户的手腕移动到与心脏相邻的位置时,终端可以生成用于将关于所接收到的呼叫的信息输出到显示单元的控制信号。控制器180可以将关于所接收到的呼叫的信息输出到设置在终端100的主体中的显示单元或者发送用于使得位于附近的外部装置510能够输出该信息的控制信号。
在另一示例中,参考图16C,在用户重复左右地移动其手腕的情况下,终端100可以拒绝接收呼叫并且将诸如“会议中”的预置文本消息发送给呼叫者终端。
而且,终端100可以根据用户的手腕面对的方向控制各种功能。参考图16D,控制器180可以根据用户的手腕面对的方向生成用于执行相反功能的控制信号。
例如,在执行音量改变模式的状态下,当用户的手背面对天空时,控制器180可以生成用于调高音量的控制信号,并且当用户的手背朝向地面时,控制器180可以生成用于降低音量的控制信号。此外,控制器180可以生成用于输出下一页(内容、频道等等)或者前一页(内容、频道等等)的控制信号。
如上面参考图6A至图6C所描述的,当估计用户的手指之间的距离时,控制器180可以基于关于估计的用户的手指之间的距离的信息来生成控制信号。
这里,控制器180可以基于不同手指之间的距离调整输出到外部装置的显示单元的视频或图像的倍率。即,控制器180可以基于不同手指之间的距离控制缩小或放大功能。
例如,当估计的第一和第二手指之间的距离小于基准距离时,控制器180可以执行缩小功能。而且,当估计的第一和第二手指之间的距离大于基准距离时,控制器180可以执行放大功能。而且,当执行缩小或放大功能时,控制器180可以根据手指之间的距离不同地控制其倍率。
基于相同的远离,可以调整外部装置中设置的相机的倍率或者其扬声器的音量。以该方式,根据本发明的实施方式,可以仅通过利用用户的手腕的简单手势来执行各种控制功能。
图17是示出根据本发明的实施方式的终端中用于生成用于执行鼠标功能的控制信号的方法的概念图。
将描述用于基于肌腱的运动特征选择外部装置的显示单元600上显示的选择目标项目中的至少一个的方法。参考图17,控制器180可以移动在外部装置的显示单元600上显示的图像对象(或触摸指针)620。控制器180也可以能够根据用户的手腕而不是用户的手指422的运动来移动图形对象。
在图形对象(或触摸指针)620已经移动到图标610的状态下,当用户握拳时,控制器180可以生成用于执行诸如鼠标的点击的功能的控制信号。即,可以执行对应于图标610的应用程序。
而且,控制器180可以根据用户的拳头的握紧力来生成不同的控制信号。例如,当感测到强于基准握紧力的握紧力时,控制器180可以生成用于执行对应于拖拽而不是鼠标的点击的功能。即,在图像对象(或触摸指针)620已经移动到图标610上的状态下,当感测到强于基准握紧力的握紧力时,也可以根据用户的手腕的运动来移动图标610的位置。
下面,将参考附图详细描述用于仅当感测到开始手势时执行对应于用户的手指或手腕的运动的功能的方法。图18是示出根据本发明的实施方式的终端中用于接收预备运动的方法的概念图。
在根据本发明的实施方式的终端100中,在用户简单地移动其手指或受而没有有意地移动以生成控制信号的情况下,防止了响应于该移动的控制信号的错误生成。即,在根据本发明的实施方式的终端100中,仅当感测到预置的开始手势时,控制器180可以生成对应于由感测单元140感测到的肌腱的运动特征的控制信号。
这里,预置的开始手势可以基于用户设置或者可以对应于初始设置信息。
例如,在预置的开始手势是在特定方向上移动第二手指422一次的姿势并且第二手指422移动以对应于预置的开始手势的情况下,在感测到开始手势之后,控制器180可以生成与对应于肌腱的运动特征的功能相关的控制信号。
而且,为了通知用户已经感测到开始手势,如图18中所示,控制器180可以通过使用输出单元150’输出引导信息。而且,除了图18中所示的视觉方法之外,还可以通过诸如语音、振动等等的声音或触觉方法来输出引导信息。
而且,在感测到开始手势之后,在预置时间段已经过去的情况下或者在感测到预置的结束手势的情况下,虽然由感测单元140感测到肌腱的运动,但是控制器180也不会执行对应于感测到的肌腱的运动的功能。
如上所述,在根据本发明的实施方式的终端中,仅当感测到开始手势时,执行对应于肌腱的运动特征的功能,从而能够防止执行用户不想要的不必要的功能。
图19是示出根据本发明的实施方式的终端中用于通过利用用户的手腕等等的运动特征和生物信号生成控制信号的方法的概念图。
终端100可以通过使用可从用户的手腕测量获得的生物信号以及肌腱与用户的手腕中的至少一个的运动特征来生成控制信号。
特别地,生物信号感测单元144(请参见图10)可以感测ECG、PPG、EMG、GSR、散热量、提问、血压和呼吸中的至少一个生物信号。
控制器180可以通过使用由生物信号感测单元144感测到的生物信号来确定用户的身体状况并且根据所确定的身体状况来生成控制信号。
例如,可以确定用户困了。这里,如果根据搜索周围外部装置的结果,外部装置是车辆的一部分,则控制器180可以生成用于输出报警信号以防止用户疲劳驾驶的控制信号。或者,当外部装置是电视或收音机时,控制器180可以生成用于关闭外部装置的电源以节省电力的控制信号。
在另一示例中,参考图19,终端100可以通过使用所感测到的生物信号来确定用户的身体状况要求吸湿。这里,控制器180可以生成用于将关于吸湿的信息输出到冰箱700的控制信号。而且,控制器180可以将感测到的生物信号与控制信号一起发送给冰箱700。在接收到控制信号和生物信号时,冰箱700可以分析冰箱700中的食物,基于生物信号选择最适合的食物,并且将关于所选择的食物的信息输出到显示单元710。
如上所述,在根据本发明的实施方式的终端中,除了通过根据用户的动作的手势执行外部装置的功能之外,还能够基于用户的生物信号控制外部装置以提供最优信息。因此,根据本发明的终端及其控制方法能够提供新颖的界面并且增加用户方便性。
在本发明的实施方式中,前述方法可以实施为程序记录介质中的能够由处理器读取的代码。处理器可读介质可以包括存储可由计算机***读取的数据的任何类型的记录装置。处理器可读介质可以包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储元件等等。而且,处理器可读介质也可以包括载波或信号(例如通过互联网的传输)的形式的实施。
根据本公开的实施方式的终端在其构造和方法的应用方面不受到限制,而是能够选择性地组合实施方式的整体或一部分以构造各种修改。
由于在不脱离其特性的情况下这些特征可以按照多个形式具体实施,所以还应该理解,除非另外指明,否则上述实施方式不受上面描述的任何细节限制,而是应该如所附权利要求中定义的在其范围内广义地解释,因此,落入权利要求的边界和范围或这些边界和范围的等同物内的所有变化和修改旨在被所附权利要求涵盖。

Claims (18)

1.一种终端,所述终端包括:
主体,所述主体被构造为可拆卸地包在用户的手腕上;
柔性显示单元,所述柔性显示单元是可弯曲的并且位于所述主体的第一区域上;
感测单元,所述感测单元位于所述主体的表面上并且被构造为感测穿过所述手腕的肌腱的运动,所述运动由所述用户的手指的运动造成;以及
控制器,所述控制器被构造为:
当所述手指形成的形状与特定形状匹配时执行第一功能,其中,所述第一功能对应于所述特定形状并且使所述柔性显示单元显示关联的执行画面;
确定所述柔性显示单元包在所述手腕上的第一位置,其中,所述第一位置的确定包括确定所述感测单元与所述手腕彼此接触的面积;以及
根据所确定的第一位置控制第一显示区域的大小。
2.根据权利要求1所述的终端,其中,所述控制器还被构造为基于感测到的运动来确定所述手指形成的形状是否与多个预定形状中的任一个相匹配。
3.根据权利要求1所述的终端,其中,至少所述特定形状或所述第一功能由所述用户设定。
4.根据权利要求1所述的终端,其中,所述控制器还被构造为:
在感测到预定开始手势之后才执行所述第一功能;以及
在感测到所述预定开始手势时使所述柔性显示单元显示与多个预定形状相关的引导信息,
其中,所述引导信息包括与所述多个预定形状相对应的手部图像以及分别与对应于所述手部图像的功能有关的信息。
5.根据权利要求1所述的终端,其中,所述控制器被构造为执行所述第一功能和第二功能,所述第一功能包括相机功能并且所述第二功能包括音乐功能。
6.根据权利要求5所述的终端,其中,所述控制器被构造为根据第一手指运动执行所述第一功能,并且
所述控制器被构造为根据第二手指运动执行所述第二功能。
7.根据权利要求6所述的终端,其中,所述控制器被构造为根据所述第一手指与所述第二手指之间的距离控制第一相机的变焦功能。
8.根据权利要求5所述的终端,所述终端进一步包括:
多个相机,所述多个相机被构造为分别位于所述主体的多个位置处,并且其中,所述控制器被构造为基于所述手腕面对的方向来激活第一相机。
9.根据权利要求2所述的终端,其中:
所述主体包括相机传感器,其中,所述相机传感器被构造为感测所述用户的眼睛的第一方向;并且
所述控制器被构造为基于所述用户的眼睛的第一感测方向控制所述柔性显示单元上的第一显示。
10.根据权利要求9所述的终端,其中,所述感测单元还被构造为感测所述手腕的运动,并且所述控制器被构造为基于所感测到的所述手腕的运动改变所述第一显示。
11.根据权利要求2所述的终端,其中,所述控制器被进一步构造为使得所述柔性显示单元在所述第一显示区域上显示一个或多个选择目标项目,其中,所述控制器被构造为基于对应于第一手指的第一运动的肌腱的运动选择第一目标项目。
12.根据权利要求2所述的终端,其中,所述控制器被进一步构造为使得所述柔性显示单元在所述柔性显示单元上的第一位置处显示第一图形对象,并且
基于第一手指的第一运动在所述柔性显示单元上的第二位置处显示所述第一图形对象。
13.根据权利要求2所述的终端,其中,所述控制器被进一步构造为使得所述柔性显示单元在所述柔性显示单元的第一显示区域上显示一个或多个选择目标项目,其中,所述控制器被构造为基于对应于彼此接触的两个或更多手指的肌腱的运动来选择第一目标项目。
14.根据权利要求1所述的终端,其中,所述控制器被进一步构造为基于所确定的第一位置调整所述感测单元的灵敏度。
15.根据权利要求1所述的终端,所述终端进一步包括:
无线通信单元,所述无线通信单元被构造为将第一控制信号发送给外部装置,其中,所述第一控制信号基于所感测到的运动。
16.根据权利要求15所述的终端,其中,所述无线通信单元被构造为使得在由所述感测单元感测到预定的开始手势时才将所述第一控制信号发送给所述外部装置。
17.根据权利要求15所述的终端,其中:
所述感测单元进一步包括:
物理信号感测单元,所述物理信号感测单元被构造为感测所述运动;以及
生物信号感测单元,所述生物信号感测单元被构造为感测能够从所述手腕测量获得的第一生物信号,并且
所述控制器被进一步构造为基于所述运动或所述第一生物信号中的至少一个生成所述第一控制信号。
18.根据权利要求17所述的终端,其中,所述无线通信单元被构造为将所述第一生物信号与所述第一控制信号一起发送给所述外部装置。
CN201310319717.8A 2012-07-27 2013-07-26 终端及其控制方法 Expired - Fee Related CN103581428B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2012-0082721 2012-07-27
KR1020120082721A KR102043145B1 (ko) 2012-07-27 2012-07-27 이동 단말기 및 그것의 제어방법
KR10-2013-0028204 2013-03-15
KR1020130028204A KR102087137B1 (ko) 2013-03-15 2013-03-15 제어 장치 및 그것의 제어 방법

Publications (2)

Publication Number Publication Date
CN103581428A CN103581428A (zh) 2014-02-12
CN103581428B true CN103581428B (zh) 2016-03-30

Family

ID=48874787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310319717.8A Expired - Fee Related CN103581428B (zh) 2012-07-27 2013-07-26 终端及其控制方法

Country Status (3)

Country Link
US (1) US9753543B2 (zh)
EP (1) EP2698686B1 (zh)
CN (1) CN103581428B (zh)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
GB2509323B (en) 2012-12-28 2015-01-07 Glide Talk Ltd Reduced latency server-mediated audio-video communication
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
EP2959394B1 (en) 2013-02-22 2021-05-12 Facebook Technologies, LLC. Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
GB2512840B (en) * 2013-04-08 2017-06-14 Seager Jacqui Wearable alert device for the deaf or hard of hearing
KR102099358B1 (ko) * 2013-04-22 2020-04-09 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
USD749102S1 (en) * 2013-05-10 2016-02-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US20150124566A1 (en) * 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
US9372535B2 (en) * 2013-09-06 2016-06-21 Thalmic Labs Inc. Systems, articles, and methods for electromyography-based human-electronics interfaces
US9483123B2 (en) 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
US10761566B2 (en) 2013-09-27 2020-09-01 Beijing Lenovo Software Ltd. Electronic apparatus and method for processing information
CN103869976A (zh) * 2014-02-19 2014-06-18 联想(北京)有限公司 一种电子设备及信息处理方法
US10048762B2 (en) * 2013-11-05 2018-08-14 Intuit Inc. Remote control of a desktop application via a mobile device
US20160313806A1 (en) * 2013-12-06 2016-10-27 Nokia Technologies Oy Apparatus and method for user input
US9900177B2 (en) 2013-12-11 2018-02-20 Echostar Technologies International Corporation Maintaining up-to-date home automation models
US20150161452A1 (en) 2013-12-11 2015-06-11 Echostar Technologies, Llc Home Monitoring and Control
US9769522B2 (en) 2013-12-16 2017-09-19 Echostar Technologies L.L.C. Methods and systems for location specific operations
US9668676B2 (en) 2013-12-30 2017-06-06 Apple Inc. User identification system based on plethysmography
KR102265326B1 (ko) * 2014-02-03 2021-06-15 삼성전자 주식회사 이미지 촬영장치 및 방법
KR102358935B1 (ko) 2014-02-12 2022-02-04 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기
EP3105655A1 (en) * 2014-02-12 2016-12-21 Koninklijke Philips N.V. Movement detection apparatus for detecting a hand movement
CN106102504A (zh) 2014-02-14 2016-11-09 赛尔米克实验室公司 用于弹性电力缆线的***、制品和方法以及采用弹性电力缆线的可佩戴电子装置
CN104881151A (zh) * 2014-02-27 2015-09-02 致伸科技股份有限公司 鼠标
US10254843B2 (en) * 2014-02-28 2019-04-09 Vikas Gupta Gesture operated wrist mounted camera system
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
EP3121687A4 (en) 2014-03-18 2017-11-01 Sony Corporation Information processing device, control method, and program
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US9723393B2 (en) * 2014-03-28 2017-08-01 Echostar Technologies L.L.C. Methods to conserve remote batteries
US20160203700A1 (en) * 2014-03-28 2016-07-14 Echostar Technologies L.L.C. Methods and systems to make changes in home automation based on user states
US20150293590A1 (en) * 2014-04-11 2015-10-15 Nokia Corporation Method, Apparatus, And Computer Program Product For Haptically Providing Information Via A Wearable Device
KR102170500B1 (ko) * 2014-04-22 2020-10-28 삼성전자주식회사 웨어러블 장치
US20150325202A1 (en) * 2014-05-07 2015-11-12 Thalmic Labs Inc. Systems, devices, and methods for wearable computers with heads-up displays
KR20150130818A (ko) * 2014-05-14 2015-11-24 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US10037742B2 (en) * 2014-07-18 2018-07-31 Xiaomi Inc. Method and apparatus for displaying health data and medium
KR102216126B1 (ko) 2014-07-31 2021-02-16 삼성전자주식회사 정맥 인증을 이용하여 동작하는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
KR20160015719A (ko) 2014-07-31 2016-02-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102343657B1 (ko) * 2014-08-28 2021-12-24 삼성전자주식회사 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
WO2016036427A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
US9824578B2 (en) 2014-09-03 2017-11-21 Echostar Technologies International Corporation Home automation control using context sensitive menus
WO2016035571A1 (ja) * 2014-09-04 2016-03-10 ソニー株式会社 情報表示装置及びその情報表示方法、プログラム、並びに、通信システム
US9612623B2 (en) * 2014-09-16 2017-04-04 Lg Electronics Inc. Mobile terminal
US9727133B2 (en) 2014-09-19 2017-08-08 Sony Corporation Ultrasound-based facial and modal touch sensing with head worn device
US9989507B2 (en) 2014-09-25 2018-06-05 Echostar Technologies International Corporation Detection and prevention of toxic gas
US10488936B2 (en) 2014-09-30 2019-11-26 Apple Inc. Motion and gesture input from a wearable device
CN105573480A (zh) * 2014-10-17 2016-05-11 中兴通讯股份有限公司 一种控制终端的方法、装置及终端
CN104394312B (zh) * 2014-10-23 2017-08-22 小米科技有限责任公司 拍摄控制方法及装置
US9721141B2 (en) * 2014-10-30 2017-08-01 Polar Electro Oy Wrist-worn apparatus control with fingerprint data
US9511259B2 (en) 2014-10-30 2016-12-06 Echostar Uk Holdings Limited Fitness overlay and incorporation for home automation system
US9983011B2 (en) 2014-10-30 2018-05-29 Echostar Technologies International Corporation Mapping and facilitating evacuation routes in emergency situations
US10274992B2 (en) * 2014-11-12 2019-04-30 Kyocera Corporation Wearable device with muscle activity detector
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
KR102490619B1 (ko) * 2014-12-05 2023-01-20 삼성메디슨 주식회사 휴대용 초음파 진단 장치 및 그 제어방법
EP3437562B1 (en) 2014-12-05 2020-11-18 Samsung Medison Co., Ltd. Portable ultrasonic diagnostic apparatus and method of controlling the same
EP4273665A3 (en) * 2014-12-05 2024-01-10 Samsung Medison Co., Ltd. Portable ultrasonic diagnostic apparatus and method of controlling the same
US10013025B2 (en) * 2014-12-11 2018-07-03 Intel Corporation Wearable device with power state control
WO2016099049A1 (ko) * 2014-12-17 2016-06-23 전자부품연구원 웨어러블 장치 및 이를 이용한 정보 입력 방법
KR102343141B1 (ko) 2014-12-19 2021-12-27 삼성디스플레이 주식회사 스트레쳐블 디스플레이를 이용한 디바이스 및 이의 제어 방법
US9967614B2 (en) 2014-12-29 2018-05-08 Echostar Technologies International Corporation Alert suspension for home automation system
USD841016S1 (en) * 2014-12-31 2019-02-19 Sony Corporation Display panel or screen with graphical user interface
US10362944B2 (en) 2015-01-19 2019-07-30 Samsung Electronics Company, Ltd. Optical detection and analysis of internal body tissues
CN104639966A (zh) * 2015-01-29 2015-05-20 小米科技有限责任公司 遥控方法及装置
KR102252619B1 (ko) * 2015-02-03 2021-05-17 삼성전자 주식회사 알림 제공 방법 및 이를 구현하는 전자 장치
CN104615248B (zh) * 2015-02-10 2018-07-31 北京智谷睿拓技术服务有限公司 确定输入信息的方法和设备
CN104699241B (zh) 2015-02-10 2018-04-06 北京智谷睿拓技术服务有限公司 确定动作和/或动作部位的方法和设备
JP6558717B2 (ja) * 2015-03-12 2019-08-14 株式会社ニコン 入力機器、入力方法及びコンピュータプログラム
US9729989B2 (en) 2015-03-27 2017-08-08 Echostar Technologies L.L.C. Home automation sound detection and positioning
CN104731322A (zh) * 2015-03-30 2015-06-24 北京智谷睿拓技术服务有限公司 确定输入信息的方法和设备
US11334228B1 (en) * 2015-03-30 2022-05-17 Evernote Corporation Dynamic targeting of preferred objects in video stream of smartphone camera
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
CN106200887A (zh) * 2015-05-04 2016-12-07 原相科技股份有限公司 动作辨识***及其方法
US9946857B2 (en) 2015-05-12 2018-04-17 Echostar Technologies International Corporation Restricted access for home automation system
US9948477B2 (en) 2015-05-12 2018-04-17 Echostar Technologies International Corporation Home automation weather detection
CN104821975B (zh) 2015-05-25 2018-10-30 京东方科技集团股份有限公司 一种柔性显示装置及其底座
WO2016195156A1 (ko) * 2015-06-02 2016-12-08 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN106325079A (zh) * 2015-06-16 2017-01-11 中兴通讯股份有限公司 家电设备的控制方法和装置
US9503628B1 (en) 2015-07-07 2016-11-22 Yahya Hussain Alsalamah Camera mounting and control device
CN107850935B (zh) * 2015-07-17 2021-08-24 电子部品研究院 可穿戴设备及利用该设备输入数据的方法
KR20170017112A (ko) 2015-08-05 2017-02-15 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20170020998A (ko) * 2015-08-17 2017-02-27 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US9960980B2 (en) 2015-08-21 2018-05-01 Echostar Technologies International Corporation Location monitor and device cloning
CN106371564B (zh) * 2015-08-28 2020-06-23 北京智谷睿拓技术服务有限公司 输入信息确定方法和设备
US9924265B2 (en) 2015-09-15 2018-03-20 Intel Corporation System for voice capture via nasal vibration sensing
US10348355B2 (en) * 2015-09-16 2019-07-09 Intel Corporation Techniques for gesture recognition using photoplethysmographic (PPMG) sensor and low-power wearable gesture recognition device using the same
CN107003642B (zh) * 2015-09-23 2019-12-17 华为技术有限公司 可穿戴设备的用户界面切换方法、装置及可穿戴设备
US9939899B2 (en) 2015-09-25 2018-04-10 Apple Inc. Motion and gesture input from a wearable device
US9996066B2 (en) 2015-11-25 2018-06-12 Echostar Technologies International Corporation System and method for HVAC health monitoring using a television receiver
KR102564523B1 (ko) 2015-12-15 2023-08-08 삼성전자주식회사 플렉서블 전자장치 및 동작 방법
US10101717B2 (en) 2015-12-15 2018-10-16 Echostar Technologies International Corporation Home automation data storage system and methods
US9798309B2 (en) 2015-12-18 2017-10-24 Echostar Technologies International Corporation Home automation control based on individual profiling using audio sensor data
US10091017B2 (en) 2015-12-30 2018-10-02 Echostar Technologies International Corporation Personalized home automation control based on individualized profiling
US10073428B2 (en) 2015-12-31 2018-09-11 Echostar Technologies International Corporation Methods and systems for control of home automation activity based on user characteristics
US10060644B2 (en) 2015-12-31 2018-08-28 Echostar Technologies International Corporation Methods and systems for control of home automation activity based on user preferences
US20170215768A1 (en) * 2016-02-03 2017-08-03 Flicktek Ltd. Wearable controller for wrist
US11281301B2 (en) 2016-02-03 2022-03-22 Flicktek Ltd Wearable controller for wrist
KR102369800B1 (ko) 2016-02-05 2022-03-03 한화테크윈 주식회사 바이오 신호에 기초한 웨어러블 카메라 운용 방법, 시스템 및 이를 위한 장치
US10206620B2 (en) 2016-03-23 2019-02-19 Intel Corporation User's physiological context measurement method and apparatus
US10789523B2 (en) * 2016-05-31 2020-09-29 Sony Corporation Program, information processing system, information processing method, and reader/writer apparatus
US9882736B2 (en) 2016-06-09 2018-01-30 Echostar Technologies International Corporation Remote sound generation for a home automation system
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
CN106125936B (zh) * 2016-06-30 2019-03-08 联想(北京)有限公司 一种体感控制方法及电子装置
CN106200801B (zh) 2016-07-08 2018-09-04 广东欧珀移动通信有限公司 一种腕带式移动终端及其控制方法
KR20180009979A (ko) 2016-07-20 2018-01-30 삼성전자주식회사 장치간 보안 동기화 및 페이링을 위한 방법 및 이를 지원하는 장치
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US10294600B2 (en) 2016-08-05 2019-05-21 Echostar Technologies International Corporation Remote detection of washer/dryer operation/fault condition
US10049515B2 (en) 2016-08-24 2018-08-14 Echostar Technologies International Corporation Trusted user identification and management for home automation systems
US10241583B2 (en) 2016-08-30 2019-03-26 Intel Corporation User command determination based on a vibration pattern
US10478099B2 (en) 2016-09-22 2019-11-19 Apple Inc. Systems and methods for determining axial orientation and location of a user's wrist
CN107995965A (zh) * 2016-09-29 2018-05-04 深圳市柔宇科技有限公司 控制方法、控制装置及智能穿戴设备
CN107886686B (zh) * 2016-09-30 2021-04-20 中兴通讯股份有限公司 一种工作疲劳提醒方法、装置和***
KR102560598B1 (ko) * 2016-12-21 2023-07-28 삼성전자주식회사 디스플레이 장치 및 그 제어방법
US11216062B2 (en) * 2016-12-29 2022-01-04 InBody Co., Ltd. Wearable terminal and method for operating same
US10845885B2 (en) * 2017-02-27 2020-11-24 International Business Machines Corporation Object scrolling and selection on a wearable computing device
CN106873764A (zh) * 2017-04-14 2017-06-20 苏州春禄电子科技有限公司 一种基于体感控制***的手机手势输入***
CN107329574A (zh) * 2017-06-30 2017-11-07 联想(北京)有限公司 用于电子设备的输入方法和***
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
RU2678494C1 (ru) 2017-08-24 2019-01-29 Самсунг Электроникс Ко., Лтд. Устройство и способ для биометрической идентификации пользователя с использованием рч (радиочастотного) радара
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US10895757B2 (en) 2018-07-03 2021-01-19 Verb Surgical Inc. Systems and methods for three-dimensional visualization during robotic surgery
WO2020033110A1 (en) * 2018-08-05 2020-02-13 Pison Technology, Inc. User interface control of responsive devices
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10802598B2 (en) * 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
US10911103B2 (en) * 2018-08-19 2021-02-02 International Forte Group LLC Portable electronic device for facilitating a proximity based interaction with a short range communication enabled object
US10905350B2 (en) 2018-08-31 2021-02-02 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
US11287885B1 (en) * 2019-01-22 2022-03-29 Facebook Technologies, Llc Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems
CN109782919A (zh) * 2019-01-30 2019-05-21 维沃移动通信有限公司 一种终端设备的控制方法和终端设备
TWI689859B (zh) 2019-03-19 2020-04-01 國立臺灣科技大學 由手腕偵測肌動訊號識別使用者手勢之系統及方法
CN112294298A (zh) * 2019-08-02 2021-02-02 华广生技股份有限公司 生物传感器的植入装置及其植入方法
TWI719636B (zh) * 2019-09-16 2021-02-21 友達光電股份有限公司 穿戴式裝置及其操作方法
US11157086B2 (en) 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
CN112817443A (zh) * 2021-01-22 2021-05-18 歌尔科技有限公司 基于手势的显示界面控制方法、装置、设备及存储介质
CN112783326A (zh) * 2021-01-28 2021-05-11 唐庆圆 手势识别装置和手势识别***
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN113703568B (zh) * 2021-07-12 2024-06-21 中国科学院深圳先进技术研究院 手势识别方法、手势识别装置、手势识别***及存储介质
WO2023157669A1 (ja) * 2022-02-15 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法及び表示デバイス
US20230376193A1 (en) * 2022-05-17 2023-11-23 Apple Inc. User interfaces for device controls

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1531676A (zh) * 2001-06-01 2004-09-22 ���ṫ˾ 用户输入装置
CN1996208A (zh) * 2007-01-15 2007-07-11 解晖 一种人机指令输入设备及该设备中运动信息的映射方法
WO2011055326A1 (en) * 2009-11-04 2011-05-12 Igal Firsov Universal input/output human user interface
CN102339626A (zh) * 2010-07-14 2012-02-01 阿迪达斯股份公司 用于控制音乐播放的方法、***及程序产品

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6042555A (en) * 1997-05-12 2000-03-28 Virtual Technologies, Inc. Force-feedback interface device for the hand
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7148879B2 (en) * 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
EP1408443B1 (en) * 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
US7170496B2 (en) * 2003-01-24 2007-01-30 Bruce Peter Middleton Zero-front-footprint compact input system
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
KR20050102803A (ko) * 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
US7812826B2 (en) * 2005-12-30 2010-10-12 Apple Inc. Portable electronic device with multi-touch input
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
KR100793079B1 (ko) * 2006-12-08 2008-01-10 한국전자통신연구원 손목착용형 사용자 명령 입력 장치 및 그 방법
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US9423995B2 (en) * 2007-05-23 2016-08-23 Google Technology Holdings LLC Method and apparatus for re-sizing an active area of a flexible display
US9261979B2 (en) * 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
KR20100072377A (ko) * 2007-11-19 2010-06-30 노키아 코포레이션 입력 장치, 시스템 및 방법
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
KR101546774B1 (ko) 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
KR101521219B1 (ko) * 2008-11-10 2015-05-18 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
EP2256592A1 (en) * 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
US8581856B2 (en) * 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US20110054782A1 (en) * 2009-08-27 2011-03-03 Kaahui Keaka K A Method and apparatus of measuring and analyzing user movement
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8669842B2 (en) * 2009-12-18 2014-03-11 Electronics And Telecommunications Research Institute Apparatus and method for controlling contents player
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
KR101413539B1 (ko) * 2010-11-22 2014-07-02 한국전자통신연구원 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법
US10061387B2 (en) * 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US8860805B2 (en) * 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same
US20120316456A1 (en) 2011-06-10 2012-12-13 Aliphcom Sensory user interface
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
WO2013063767A1 (en) * 2011-11-01 2013-05-10 Intel Corporation Dynamic gesture based short-range human-machine interaction
US9098069B2 (en) * 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
US20130120106A1 (en) * 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US8988349B2 (en) * 2012-02-28 2015-03-24 Google Technology Holdings LLC Methods and apparatuses for operating a display in an electronic device
US10185416B2 (en) * 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US8743052B1 (en) * 2012-11-24 2014-06-03 Eric Jeffrey Keller Computing interface system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1531676A (zh) * 2001-06-01 2004-09-22 ���ṫ˾ 用户输入装置
CN1996208A (zh) * 2007-01-15 2007-07-11 解晖 一种人机指令输入设备及该设备中运动信息的映射方法
WO2011055326A1 (en) * 2009-11-04 2011-05-12 Igal Firsov Universal input/output human user interface
CN102339626A (zh) * 2010-07-14 2012-02-01 阿迪达斯股份公司 用于控制音乐播放的方法、***及程序产品

Also Published As

Publication number Publication date
EP2698686A2 (en) 2014-02-19
US9753543B2 (en) 2017-09-05
US20140028546A1 (en) 2014-01-30
EP2698686B1 (en) 2018-10-10
CN103581428A (zh) 2014-02-12
EP2698686A3 (en) 2015-03-11

Similar Documents

Publication Publication Date Title
CN103581428B (zh) 终端及其控制方法
KR102135586B1 (ko) 이동 단말기 및 이의 제어방법
WO2020253727A1 (zh) 一种ecg检测方法与穿戴设备
US9699544B2 (en) Terminal and control method thereof
US10366778B2 (en) Method and device for processing content based on bio-signals
KR102299076B1 (ko) 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
KR101809131B1 (ko) 웨어러블 디바이스 및 그것의 동작방법
CN102438063B (zh) 移动终端和控制移动终端的操作的方法
CN110045819A (zh) 一种手势处理方法及设备
CN110134316A (zh) 模型训练方法、情绪识别方法及相关装置和设备
KR20160142128A (ko) 와치형 단말기 및 그 제어방법
KR20160015719A (ko) 이동 단말기 및 그 제어방법
US20170119262A1 (en) Mobile terminal
KR102087137B1 (ko) 제어 장치 및 그것의 제어 방법
CN115033133B (zh) 渐进式的信息展示方法、装置、电子设备及存储介质
KR20170083403A (ko) 스마트 워치 및 그의 근전도 신호를 이용한 제어방법
KR101727900B1 (ko) 휴대 단말기 및 그 동작 제어방법
CN108304076A (zh) 电子装置、视频播放应用的管理方法及相关产品
KR20110133295A (ko) 휴대 단말기 및 그 동작방법
KR20170022690A (ko) 이동단말기 및 그 제어방법
KR20160033935A (ko) 웨어러블 단말기
KR101716153B1 (ko) 휴대 단말기 및 그 동작 방법
KR20160068390A (ko) 이동 단말기 및 그 제어 방법
KR101689713B1 (ko) 휴대 단말기 및 그 동작 방법
KR20170052192A (ko) 이동 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160330

Termination date: 20210726