CN105138247A - 检测到第二设备接近第一设备而在第一设备呈现用户界面 - Google Patents
检测到第二设备接近第一设备而在第一设备呈现用户界面 Download PDFInfo
- Publication number
- CN105138247A CN105138247A CN201510151763.0A CN201510151763A CN105138247A CN 105138247 A CN105138247 A CN 105138247A CN 201510151763 A CN201510151763 A CN 201510151763A CN 105138247 A CN105138247 A CN 105138247A
- Authority
- CN
- China
- Prior art keywords
- equipment
- input
- user interface
- threshold distance
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/20—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
- H04W4/21—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了第一设备和方法。在一个方面中,一种设备包括触摸使能显示器、处理器和处理器可访问的存储器。存储器承载指令,指令可由处理器执行以确定输入设备在触摸使能显示器的接近程度内,并且响应于该确定且在没有来自人的补充输入的情况下,在触摸使能显示器上呈现用于至少部分地基于输入设备的操纵而向第一设备提供输入的用户界面(UI)。
Description
技术领域
本申请一般地涉及基于在第一设备的接近程度内检测到第二设备而在第一设备上呈现用户界面。
背景技术
目前,对用户而言不存在使用户界面(UI)呈现在设备上以在不同的UI被呈现时例如利用另一设备来提供到该UI的输入的、相对适当的、自动的和/或容易的方法,并且用户期望在提供输入之后例如自动地和/或无缝地再次呈现不同的UI。
发明内容
因此,在一个方面中,一种设备包括:触摸使能显示器、处理器以及处理器可访问的存储器。存储器承载以下指令:其能够由处理器执行以确定输入设备位于触摸使能显示器的接近程度内,并且响应于该确定、在没有来自人的附加输入的情况下在触摸使能显示器上呈现用于至少部分地基于输入设备的操纵来提供到第一设备的输入的用户界面(UI)。
在另一方面中,一种方法包括:确定第一设备是在到第二设备的阈值距离处和在到第二设备的阈值距离内中的一个。该方法还包括:响应于确定第一设备在阈值距离处和在阈值距离内中的一个,在没有到不同于第一设备的第二设备的用户输入的情况下,而并非将第一设备移动到在阈值距离处和在阈值距离内中的一个,在显示器上呈现用于至少部分地利用第一设备来提供到第二设备的输入的用户界面(UI)。更进一步,该方法包括:确定第一设备不再在阈值距离处和在阈值距离内中的至少之一,并且响应于确定第一设备不再在阈值距离处和在阈值距离内中的至少之一而从显示器移除该UI。
在又另一方面中,一种不是载波的计算机可读存储介质承载以下指令:其能够由处理器执行以确定输入设备在触摸使能显示器的预定义区域的接近程度内,其中触摸使能显示器的预定义区域不是触摸使能显示器的整个区域。该指令还能够执行以响应于该确定而在触摸使能显示器上呈现用于至少基于输入设备的操纵来提供到触摸使能显示器的输入的用户界面(UI)。
可以参照附图来最好地理解本原理的细节(关于其结构和操作),在附图中类似的附图标记指代类似的部分,并且其中:
附图说明
图1是根据本原理的示例***的框图;
图2是根据本原理的设备的网络的框图;
图3是示出了根据本原理的示例算法的流程图;
图4是根据本原理的示例性图示;以及
图5至图7是根据本原理的示例性用户界面(UI)。
具体实施方式
本公开内容一般地涉及基于设备的信息。关于本文中讨论的任何计算机***,***可以包括通过网络连接的服务器部件和客户端部件,使得数据可以在客户端部件与服务器部件之间交换。客户端部件可以包括一个或更多个计算设备,包括电视机(例如,智能电视机、因特网使能的电视机)、计算机(诸如台式计算机、笔记本电脑和平板电脑)、所谓的可变形设备(例如,具有平板电脑配置和笔记本电脑配置)以及包括智能电话的其他移动设备。作为非限制性示例,这些客户端设备可以采用来自苹果、谷歌或微软的操作***。可以使用Unix操作***或类似的操作***例如Linux。这些操作***能够执行一个或更多个浏览器,诸如由微软或谷歌或摩斯拉(Mozilla)制造的浏览器,或能够通过网络(诸如因特网、本地内联网或虚拟专用网)访问由因特网服务器托管的网络应用程序的其他浏览器程序。
如本文中所使用的,指令指的是用于处理***中的信息的计算机实现的的步骤。指令可以以软件、固件或硬件来实现;因此,根据它们的功能性来阐述说明性的部件、块、模块、电路以及步骤。
处理器可以是任何常规的通用单芯片或多芯片处理器,其能够借助于各种线(诸如地址线、数据线和控制线)以及寄存器和移位寄存器来执行逻辑。此外,除了通用处理器以外,本文中描述的任何逻辑块、模块以及电路也能够在以下设备中或由以下设备来实现或执行:数字信号处理器(DSP)、现场可编程门阵列(FPGA)或其他可编程逻辑器件,诸如被设计成执行本文中描述的功能的专用集成电路(ASIC)、分立门或晶体管逻辑、分立硬件部件或其任何组合。处理器能够由控制器或状态机或计算设备的组合来实现。
在本文中作为流程图和/或用户界面而描述的任何软件和/或应用程序可以包括各种子例程、过程等。应当理解的是,被公开为由例如模块执行的逻辑能够被重新分配给其他软件模块和/或在单个模块中被组合在一起和/或使得能够在可共享库中得到。
逻辑当以软件实现时能够用适合的语言(诸如但不限于C#或C++)来编写,并且能够被存储在计算机可读存储介质(例如可以不是载波)上或者通过其传送,诸如随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、光盘只读存储器(CD-ROM)或其他光盘存储(诸如数字多功能光盘(DVD))、磁盘存储或包括可拆卸的拇指驱动器的其他磁存储设备等。连接可以建立计算机可读介质。作为示例,这样的连接可以包括硬线线缆,其包括光纤、同轴线以及双绞线。这样的连接可以包括无线通信连接,包括红外和无线电。
在一个示例中,处理器能够通过其输入线从数据存储装置(诸如计算机可读存储介质)来访问信息,和/或处理器能够通过激活无线收发机发送和接收数据来从因特网服务器无线地访问信息。数据在被接收时通常通过处理器的寄存器与天线之间的电路***而从模拟信号被转换成数字信号,并且在被发送时从数字信号被转换成模拟信号。然后处理器通过其移位寄存器来处理数据以在输出线上输出经计算的数据,从而在设备上呈现经计算的数据。
包括在一种实施方式中的部件可以以任何适当组合而被用于其他实施方式中。例如,本文中所描述的和/或附图中所描绘的各种部件中的任何部件都可以与其他实施方式结合、互换或从其他实施方式中排除。
“具有A、B和C中至少之一的***”(同样地,“具有A、B或C中的至少之一的***”和“具有A、B、C中的至少之一的***”)包括只有A的***、只有B的***、只有C的***、具有A和B的***、具有A和C的***、具有B和C的***和/或具有A、B和C的***等。
“具有A、B和C中的一个或更多个的***”(同样地,“具有A、B或C中的一个或更多个的***”和“具有A、B、C中的一个或更多个的***”)包括只有A的***、只有B的***、只有C的***、具有A和B的***、具有A和C的***、具有B和C的***和/或具有A、B和C的***等。
在发明内容、具体实施方式和/或权利要求中使用术语“电路”或“电路***”。如现有技术中已知的,术语“电路***”包括所有级别的可用集成,例如,从分立逻辑电路到最高级别的电路集成(诸如VLSI),并且包括被编程以执行实施方式的功能的可编程逻辑部件以及以指令编程以执行那些功能的通用或专用处理器。
现在具体地参照图1,其示出了信息处理***和/或计算机***100的示例框图。注意,在一些实施方式中,***100可以是台式计算机***,诸如北卡罗来纳州的莫里斯维尔市的联想(美国)股份有限公司所售的或系列的个人计算机之一,或者是工作站计算机,诸如北卡罗来纳州的莫里斯维尔市的联想(美国)有限公司所售的然而,如从本文的描述中明显看出的,根据本原理的客户端设备、服务器或其他机器可以包括***100的其他特征或仅一些特征。此外,***100可以是例如游戏控制台如或
如图1所示,***100包括所谓的芯片集110。芯片集是指被设计成一起工作的一组集成电路或芯片。芯片集通常作为单个产品被销售(例如,考虑以品牌等销售的芯片集)。
在图1的示例中,芯片集110具有特定的架构,其可以在一定程度上根据品牌或制造商而变化。芯片集110的架构包括经由例如直接管理接口或直接媒体接口(DMI)142或链路控制器144来交换信息(例如,数据、信号、命令等)的核与存储器控制组120和I/O控制器集线器150。在图1的示例中,DMI142是芯片到芯片接口(有时称为“北桥”与“南桥”之间的链路)。
核与存储器控制组120包括经由前端总线(FSB)124来交换信息的一个或多个处理器122(例如,单核或多核等)和存储器控制器集线器126。如本文中所描述的,核与存储器控制组120的各种部件可以被集成到例如单个处理器裸片上以制造取代常规“北桥”类型架构的芯片。
存储器控制器集线器126与存储器140对接。例如,存储器控制器集线器126可以提供对DDRSDRAM存储器(例如,DDR、DDR2、DDR3等)的支持。一般来说,存储器140是一种随机存取存储器(RAM)。其通常称为“***存储器”。
存储器控制器集线器126还包括低压差分信号接口(LVDS)132。LVDS132可以是用于支持显示设备192(例如,CRT、平板、投影仪、触摸使能的显示器等)的所谓的LVDS显示接口(LDI)。块138包括可以经由LVDS接口132(例如,串行数字视频、HDMI/DVI、显示端口)来支持的技术的一些示例。存储器控制器集线器126还包括例如用于支持独立显卡136的一个或更多个PCI-express(快速)接口(PCI-E)134。利用PCI-E接口的独立显卡已成为用于加速图形端口(AGP)的替代方式。例如,存储器控制器集线器126可以包括用于外部的基于PCI-E的显卡(包括例如一个或更多个GPU)的16通道(x16)PCI-E端口。示例性***可以包括用于支持图形的AGP或PCI-E。
I/O集线器控制器150包括各种接口。图1的示例包括SATA接口151、一个或更多个PCI-E接口152(可选地,一个或多个传统的PCI接口)、一个或更多个USB接口153、LAN接口154(更一般地,用于在处理器122的指导下通过至少一个网络(诸如因特网、WAN、LAN等)进行通信的网络接口)、通用I/O接口(GPIO)155、低引脚数(LPC)接口170、电源管理接口161、时钟发生器接口162、音频接口163(例如,用于扬声器194以输出音频)、总操作成本(TCO)接口164、***管理总线接口(例如,多主串行计算机总线接口)165以及在图1的示例中包括BIOS168和引导代码190的串行***闪存/控制器接口(SPI闪存)166。关于网络连接,I/O集线器控制器150可以包括与PCI-E接口端口多路复用的集成吉比特以太网控制器线。其他网络特征可以独立于PCI-E接口而进行操作。
I/O集线器控制器150的接口提供用于与各种设备、网络等的通信。例如,SATA接口151提供用于在一个或更多个驱动器180(诸如HDD、SDD或其组合)上读取信息、写入信息或读取和写入信息,但在任何情况下,驱动器180被理解成为例如可以不是载波的有形计算机可读存储介质。I/O集线器控制器150还可以包括支持一个或多个驱动器180的高级主机控制器接口(AHCI)。PCI-E接口152允许与设备、网络等的无线连接182。USB接口153提供用于输入设备184,诸如键盘(KB)、鼠标以及各种其他设备(例如,相机、电话、存储装置、媒体播放器等)。
在图1的示例中,LPC接口170提供用于一个或多个ASIC171、可信平台模块(TPM)172、超级I/O173、固件集线器174、BIOS支持175以及各种类型的存储器176(诸如ROM177、闪存178以及非易失性RAM(NVRAM)179)的使用。关于TPM172,该模块可以是芯片的形式,其能够被用于认证软件和硬件设备。例如,TPM能够执行平台认证并且可以被用来检验寻求访问的***是所期望的***。
***100可以被配置成:在接通电源时执行存储在SPI闪存166中的、用于BIOS168的引导代码190,并且此后在一个或更多个操作***和(例如,存储在***存储器140中的)应用程序软件的控制下处理数据。操作***可以被存储在各个位置中的任何位置中并且例如根据BIOS168的指令而被访问。
在***100上还示出了传感器191,其被看作是与处理器122通信并且被配置成向处理器122提供输入。例如,传感器191可以是诸如热成像相机的相机、诸如网络摄像头的数字相机和/或被集成到***100中并且能够由处理器122控制以采集图片/图像和/或视频的相机。除了前述以外或代替前述,传感器191可以是位置传感器、距离传感器和/或运动传感器,但是在任何情况下被看作是可启动的以至少例如确定到另一设备如触针的距离和/或来自该另一设备的运动(例如至少当位于传感器191的可检测范围内时),并且向处理器122提供关于距离和/或运动的输入。
另外,尽管为了清晰未示出,但是在一些实施方式,***100可以包括用于例如感测和/或测量***100的取向的陀螺仪、用于例如感测***100的加速和/或运动的加速计、与处理器122通信并且基于例如用户向麦克风提供音频输入而向处理器122提供输入的音频接收器/麦克风。更进一步地,为了清晰也未示出,***100可以包括被配置成例如从至少一个卫星接收地理位置信息并且将该信息提供给处理器122的GPS收发器。然而,应当理解的是,可以根据本原理使用除了GPS接收器以外的其他合适的位置接收器,以例如确定***100的位置。
在继续进行至图2之前,应当理解的是,示例性客户端设备或其他机器/计算机可以包括比图1的***100上所示的特征更少或更多的特征。举例来讲,例如,根据本原理,***100可以包括通过不同的方法接收和/或提供输入的、和/或不同类型的一个或更多个附加部件,诸如包括笔和/或触针或者与笔和/或触针相关联的***100。此外,注意,例如,为了至***100的手写和/或绘画输入,可以利用无线通信如通过来自另一设备(例如,笔)的蓝牙信号和超声波信号来提供该输入。在任何情况下,至少基于前述应当理解的是,***100被配置成采用本原理。
现在转到图2,其示出了通过根据本原理的网络200诸如例如因特网进行通信的示例性设备。应当理解的是,例如,参照图2描述的每个设备可以包括上述***100的特征、部件和或元件中的至少一些。在任何情况下,图2示出了笔记本电脑202、台式计算机204、诸如例如智能手表的可穿戴设备206、智能电视(TV)208、智能电话210、平板电脑212、输入设备216和诸如例如因特网服务器的服务器214,服务器214可以例如提供可由设备202至212和设备216访问的云存储。应当理解的是,设备202至216被配置成通过采用本原理的网络200相互通信。
更详细地描述输入设备216,其可以是笔诸如例如电子笔、触笔、超声波笔、红外(IR)笔等。此外,注意,设备216被配置成例如当与其物理接触时和/或基于用户相对于设备202至214中的另一设备操纵设备216,向设备202至214中的一个或更多个提供输入,包括例如向根据本原理的设备202至214上的触摸使能垫和触摸使能显示器提供(例如,手写和/或绘画)输入。还注意,设备216包括至少一个选择器元件218,其可以是例如从设备216的壳体物理上突出的按钮和/或可以是例如与壳体平齐的触摸使能选择器元件。在任何情况下,元件218被看作是可选择地给笔提供输入,然后该输入可以被发送至根据本原理的设备202至214中的另一设备。此外,尽管未示出,但是应当理解的是,设备216还可以包括例如用于感测设备216的运动的加速计、和/或用于感测设备216的至少一部分与人的身体部分接触和/或从人施加于设备216的压力的压力水平(例如,设备216的筒部分上的挤压姿态(gesture))的传感器。更进一步,注意,设备216可以利用无线通信诸如例如Wi-Fi(例如,Wi-Fidirect)、蓝牙和/或NFC通信而与设备202至214中的一个或更多个(和/或例如***100)进行通信。
参照图3,其示出了可以由设备如根据本原理的***100采用的示例性逻辑。开始于块200,该逻辑在第一设备(诸如例如***100)处呈现例如第一用户界面(UI)、窗口或应用层等。第一UI、窗口或层(为了简便在下文称作“第一UI”)可以是用于应用程序例如但不限于例如因特网浏览器、音乐流媒体服务、社交网络应用程序、新闻应用程序等。在任何情况下,一旦第一UI已经被呈现在例如第一设备的触摸使能显示器上,则该逻辑进行至块302。在块302处,该逻辑监视(例如,监视和/或启动触摸使能显示器)第二设备诸如例如触针朝向第一设备的靠近。该逻辑从块302进行至判定棱形304。
从而,在棱形304处,该逻辑确定第二设备是否已经被检测为靠近第一设备,在一些实施方式中,这可以基于从第一设备上的传感器(诸如例如相机、触摸使能显示器、本文中公开的另外的传感器等)到第一设备的处理器的输入。无论如何,棱形304处的否定确定使该逻辑继续在棱形304处做出确定直到做出肯定确定为止。然后,响应于棱形304处的肯定确定,该逻辑进行至块306,在块306处,该逻辑启动根据本原理的一个或更多个输入应用程序,诸如手写应用程序、笔记应用程序、绘画应用程序和/或可以用于基于第二设备的操纵(以例如接触第一设备的触摸使能显示器从而向其直接手写输入)而向第一设备提供输入的又一应用程序。然后,该逻辑从块306移动至判定棱形308。然而,在描述判定棱形308之前,应当理解的是,例如如果还未被启动和/或在第一设备上执行,输入应用程序可以在块306处被启动。如果该逻辑确定输入应用程序已经被启动和/或执行,则该逻辑不需要在块306处启动输入应用程序,但可以在任何情况下进行至棱形308。
现在参照棱形308,该逻辑确定第二设备是否位于第一设备的至少(例如,预定义的)一部分距离阈值内,诸如第一设备的触摸使能显示器的预定义区域和/或呈现在第一设备的触摸使能显示器上的UI的预定义区域。阈值距离可以例如由第一设备的制造商预设,和/或可以通过操纵设置UI如在下文将描述的UI700、由第一设备的用户来建立。棱形308处的否定确定致使该逻辑返回棱形304,并且从棱形304继续进行。然而,相反,棱形308处的肯定确定致使该逻辑进行至块310,在块310处,该逻辑自动地呈现第二UI而不需要另外的用户输入(例如,除了将第二输入设备移动至阈值距离内以外),该第二UI与一个或更多个输入应用程序(例如,在块306处被启动的应用程序和/或已经由该逻辑确定要在块306处被启动和/或执行的应用程序)相关联,并且在下文有时被称为“输入UI”。
该逻辑从块310进行至块312,在块312处,该逻辑可以例如从第二设备和/或从用户(例如,基于使用其手指的一部分与第一设备的触摸使能显示器接触的用户)接收到第二UI的输入。无论在块312处是否接收任何输入,该逻辑可以从块312进行至判定棱形314。在棱形314处,该逻辑确定第二设备是否从阈值距离被移除(例如,和/或从到上面讨论的预定义区域中的一个或更多个的阈值距离被移除)。例如,当用户将第二设备从第一设备的触摸使能显示器移动超出阈值距离时,在棱形314处可以作出肯定确定。在任何情况下,棱形314处的否定确定使该逻辑继续在棱形314处作出确定直到作出肯定确定为止,并且一旦在棱形314处作出肯定确定,则该逻辑进行至块316。代替前述,但仍然响应于棱形314处的否定确定,该逻辑回转至块312,然后从块312继续。
在块316处,该逻辑响应于棱形314处的肯定确定从第一设备上的呈现移除第二UI。此外,在一些实施方式中,在块316处,该逻辑可以再次呈现第一UI。
参照图4继续详细的描述,其示出了本原理的示例图示400。图示400示出了第一UI402,其可以是例如呈现在平板设备406上的因特网浏览器UI。图4还示出了第二UI404,其可以是根据本原理的输入应用程序的输入UI,并且在示出的示例中包括由用户例如利用触针408已经提供的绘画和手写两者。
注意,如图示所示,在第一时间处,触针408远离平板设备406而大于(例如,高于)距离阈值,其中,距离阈值由图中示出的虚线410表示。然后,在第二时间处,触针408被示为具有在距离阈值(如图所示,与平板设备406的触摸使能显示器接触)内(例如,低于)的其至少一部分,这被看作是可由平板设备406检测并且可以致使平板设备406从平板设备406移除UI402的呈现而呈现UI404,如图示的部分412所示。之后,触针可以从平板设备406被移开超出距离阈值,这也被看作是可由平板设备406检测并且可以致使平板设备406从平板设备406移除UI404的呈现而再次呈现UI402,如由图示400的部分414所示。
尽管示出了触针408的两个图示,但是应当理解的是,在仅存在单个触针408的背景下进行图4的描述。出于说明的目的,在相对于由线410表示的距离阈值的不同位置处示出了两个触针。从而,箭头416和418触针408分别在距离阈值内移动和远离距离阈值移动。
现在参照图5,其示出了可在设备如***100上呈现的示例UI500。UI500被看作是用于因特网浏览器。如图所示,UI500至少包括第一部分502,在第一部分502处,为当前被呈现在UI500上的网站呈现网址。从而,UI500还包括另一部分504,在另一部分504处,网站本身的至少一部分被呈现。
另外,图5示出了分别由示出的虚线画轮廓和/或表示的第一区域506、第二区域508和第三区域510。应当理解的是,每个区域可以是呈现UI500的显示器的区域(和/或具体地用于UI500本身的区域),在该区域上方,输入设备如触针可以悬停以便由显示器检测从而调用与根据本原理的输入应用程序(例如,用于向其提供手写和/或笔记输入的UI)相关联的输入UI。从而,应当理解的是,在示例实施方式如正被描述的实施方式中,触针在显示器和/或UI500的另一部分上、不包括区域506、508和510上方的悬停(例如,即使由显示器检测到),将不致使呈现UI500的设备呈现与输入应用程序相关联的输入UI,因为在区域506、508和510之一上方还未检测到悬停。
仍然参照图5,还应当理解的是,区域506、508和510中的每个区域不需要能够基于悬停而被调用以呈现同一输入UI。例如,在一些实施方式中,每个区域可分别被调用以使同一输入应用程序的不同输入UI被呈现,以及也在一些实施方式中,每个区域可分别被调用以使与不同的输入应用程序相关联的不同输入UI被呈现(例如,用于区域506的绘画应用程序、用于区域508的不同的笔记应用程序以及用于区域510的不同的手写应用程序)。此外,注意,当通过在一个点选择UI500并且从该点拖拽到(例如,光标)到远离该点的另一位置来配置区域506、508、510(例如,以针对UI500和/或关联应用程序的配置模式)从而至少部分地建立相应区域的形状和/或大小(例如,可以不止一次地完成上述处理以建立相应的线从而形成正被配置的区域的边界)时,区域506、508和510中的每个区域的大小和/或形状可以由用户诸如利用拖放动作来配置和/或创建。更进一步,应当理解的是,预定义区域506、508和510可以基于和/或根据UI如UI500上的显示器像素(例如,要包括像素的一定数量和位置的区域)、元件的位置、菜单条、按钮等在设备处被创建,和/或可以基于与显示器相关联的水平坐标和垂直坐标(例如,X-Y坐标)在设备处被创建。
现在转到图6,其示出了用于根据本原理的输入应用程序的示例性UI600,示例性UI600可以例如响应于检测到触针悬停在呈现UI600的设备的显示器上方(例如,以及在一些实施方式中,更具体地,检测到触针悬停在预定义区域如上文描述的区域506、508和510上方)而被呈现。UI600可以被呈现以例如占据触摸使能显示器的整个可呈现区域,和/或可以被重叠在和/或弹出在于检测到触针悬停在显示器上方之前所呈现的另一UI(例如,UI500)的仅一部分上方。注意,UI600具有将由用户例如通过使用触针提供给设备的手写输入的表示602。UI600还包括由用户例如通过使用触针提供给设备的绘画的表示604。
除了前述以外,UI600还可以包括选择器元件606,该选择器元件606可选择地自动地使浏览器窗口被呈现在呈现UI600的设备的显示器上(例如,被重叠在UI600上)而无需到该选择器元件的相应的另外的用户输入,以便用户浏览由于选择而被包括在和/或***到UI600的、例如通过用户使用触针所表示的位置中的文件、文件夹、图像、视频等。在UI600上还出了选择器元件608,其可选地自动使先前呈现的UI例如UI500再次被呈现,而无需到该选择器元件的相应的另外的用户输入,其中UI500在本示例中是在检测到触针在到显示器的阈值距离内在设备的显示器上方之前而被呈现的。更进一步,在一些实施方式中,选择器元件610可以被呈现,选择器元件610可选地自动使设置UI(例如下文将要描述的UI700)被呈现以配置用于输入UI和/或关联应用程序的设置和/或配置根据本原理的其他设置如针对悬停以调用本文中描述的输入应用程序的输入UI的特定阈值距离或阈值时间,而无需要到该选择器元件的相应的另外的用户输入。
在移至图7之前,参照图6应当理解的是,尽管未示出,但是除了元件608以外或代替元件608,导航例如菜单或条和/或另外的选项如内容的弹出表格,可以被呈现在UI600上用于导航至先前呈现的UI和/或使先前呈现的UI再次被呈现。
现在参照图7继续详细的描述,其示出了设置UI700。在示出的示例中,UI700包括第一设置702,第一设置702用于建立针对调用输入UI和/或应用程序的悬停的阈值距离。从而,文本输入框706可选地输入、添加和/或删除针对距离的数字,而框706可选地选择(例如,经由来自框706的选择器的下拉框)与被输入框704的数字有关的长度单位。从而,如可以从图7理解的,阈值距离已经由用户设置为2厘米。
UI700还包括第二设置708,第二设置708用于建立触针从阈值距离移除的阈值时间,其到期可以致使先于输入UI的呈现而被呈现的UI(例如,因特网浏览器UI)被呈现。因此,文本输入框710可选地输入、添加和/或删除针对时间的数字,而框712可选地选择(例如,经由来自块712的选择器的下拉框)与被输入框710的数字有关的时间单位。从而,如可以从图7理解的,阈值时间已经由用户设置为5秒。
仍然参照图7,UI还可以包括一个或更多个其他选择器元件,例如示出的元件714、716和718,所有这些元件被看作是可选地自动采用与相应的选择器元件相关联的功能,而无需另外的用户输入。因此,元件714可选地使例如另一窗口或UI被呈现以定义一个或更多个区域和/或这些区域的一个或更多个形状(例如,如上面参照区域506、508和510所描述的),其中这些区域被看作是从例如除了输入UI(例如,因特网浏览器UI)以外的UI能够被调用以使输入UI被呈现。注意,可以对于要被呈现在设备上的任何UI建立这样的区域,而不管其相应的关联应用程序如何,而在其他实施方式中这些区域可以基于每应用程序和/或每UI来被建立。
示出了另一选择器元件716,其可选地使例如另一窗口或UI被呈现,以列出与呈现UI700的设备相关联和/或被存储在呈现UI700的设备上的一个或更多个应用程序,以便从中选择以使该设备检测与所选择的一个或多个应用程序相关联的UI上方的悬停,从而如本文中讨论地呈现输入UI。选择器元件718被看作是可选地利用自由空间(例如,在设备的显示器上方和/或在(例如,由用户至少部分地利用设置702建立的)阈值距离内)中的姿态而非触针和/或用户的身体部分与显示器的实际接触,来实现到输入UI的输入,从而提供例如绘画输入、手写输入、笔记输入等。这样的姿态(例如,自由空间中的书写或绘画如同在例如显示器的表面上的书写或绘画)可以利用例如设备上的相机和/或姿态识别原理和/或软件被检测,识别被和/或确定。
尽管未示出,但是应当理解的是,UI700仍然可以包括其他选择器元件,例如可选地自动采用与相应的选择元件相关联的功能而无需另外的用户输入。例如,选择器元件可以被呈现以基于输入设备(例如,触笔)上的选择器元件的选择如上述选择器218的选择来调用输入UI(例如,在阈值距离内或者甚至在一些实施方式中超出阈值距离)。作为另一示例,选择器元件可以被呈现以基于在可以与响应于来自已经检测到运动的输入设备的通信而呈现输入UI的设备进行通信的输入设备处(例如,使用加速计)所检测的输入设备(例如,触笔)的移动来调用输入UI(例如,在阈值距离内或者甚至在一些实施方式中超出阈值距离)。
但是作为一个或更多个示例,选择器元件可以被呈现以基于施加于和/或施加到输入设备的压力(例如,到触笔的挤压姿态)来调用输入UI(例如,在阈值距离内或者甚至在一些实施方式中超出阈值距离),其中所述压力在输入设备处(例如,使用姿态传感器)被检测为例如满足用于调用输入UI的压力阈值,这可以被传送至响应于来自输入设备的关于已经满足压力阈值的通信而呈现输入UI的设备。此外,注意,在一些实施方式中,当输入设备处于例如压力阈值配置模式下时,用户可以通过向输入设备施加用户期望是压力阈值的压力量而在输入设备处创建这样的压力阈值。
在不参照任何特定图的情况下,应当理解的是,当在本文中指示输入设备在阈值距离内和/或接近另一设备时,应当理解的是,在阈值距离内可以表示在阈值距离处以及在阈值距离内。
此外,应当理解的是,在本文讨论的至少一些实施方式中,可以根据本原理检测用户的身体部分而非输入设备(例如,从而使输入UI被呈现)。更进一步,可以利用电磁共振(EMR)数字转换器(例如,维亚康姆(Wacom))来实现检测笔、用户等的接近和/或靠近。还可以使用检测笔和/或用户接近显示器的其他方法,例如当笔或用户出于这样的目的而持续触摸书写表面时,使用笔中的运动传感器并且定期地(例如,相对地)校正的航位测算法。此外,可以根据本原理使用超声波笔以提供(例如,相对于设备的)三维位置信息,从而提供检测笔接近书写表面的又一方法。
甚至进一步,应当理解的是,可以根据本原理使用其他通信方法(例如,蓝牙、近场通信(NFC)、Wi-Fi(例如,Wi-Fidirect)等),以例如通过感测用户何时触摸和/或捡起触笔来将当前呈现的应用程序唤醒、解锁和/或改变成输入应用程序。例如,通过使用笔筒上的触摸传感器和/或基于笔运动检测来提供这样的输入。
仍然在不参照任何特定图的情况下,应当理解的是,本文中阐述的原理规定了例如基于特定应用程序和/或被呈现的UI来调用输入UI的各种方法。例如,存在以下实例:不期望在输入UI和另一UI之间来回改变(例如,基于在阈值距离内的输入设备),例如当在给出表示而非意在提供输入时使用触针指向设备的显示器。
此外,不同的应用程序和/或UI(例如,除了输入应用程序和/或输入UI以外)可以与不同的输入UI和/或输入应用程序相关联。从而,输入UI和/或应用程序,和/或存储输入UI或应用程序的设备本身,可以被配置成例如当在因特网浏览器UI上方检测到悬停时呈现用于笔记应用程序的笔记UI,而当在PowerPointUI上方检测到悬停时可以呈现用于待办事项输入应用程序的(不同的)待办事项输入UI。此外,一些应用程序和/或UI(例如,除了输入应用程序和/或输入UI以外)如视频呈现UI可以被配置成即使检测到阈值距离之内的悬停也根本不会被移除(使得输入UI可以被呈现)。
更进一步,在一些实施方式中,同一UI的不同模式可以在一个实例中使输入UI响应于检测到悬停而被呈现,而在另一实例中不使输入UI响应于悬停而被呈现。例如,在视频呈现的全屏模式期间,设备可以被配置成尽管在阈值距离之内检测到悬停也不呈现输入UI,而在非全面模式下可以呈现输入UI。
更进一步,应当理解的是,在一些实施方式中,例如,仅当例如触针上的开关或按钮被致动到用于呈现根据本原理的一个或更多个输入UI的“开”位置时,当窗口使能计算机上的标签按钮已经被选择,和/或当专用(例如,输入)应用程序启动按钮或选择器已经被选择时,可以完成响应于悬停而变成输入UI。
此外,应当理解的是,在一些实施方式中,即使当例如要呈现输入UI的设备(和甚至更具体地,设备的显示器)处于锁定配置和/或模式(例如,和/或呈现锁定屏幕)下时,也可以采用本原理。在这样的实例中,例如,可以响应于从已经检测到其运动的输入设备接收通信而对设备和/或屏幕进行解锁。
在结束之前,应当理解的是,虽然例如用于采用本原理的软件应用程序可以与设备如***100一起出售,但是本原理应用于以下实例:其中,这样的应用程序例如通过诸如因特网的网络而从服务器被下载至设备。此外,本原理应用于以下实例:其中,例如这样的应用程序被包括在正出售和/或提供的计算机可读存储介质上,其中计算机可读存储介质不是载波和/或信号本身。
虽然在本文中示出和详细描述了特定的基于检测到第二设备接近第一设备而在第一设备上呈现用户界面,但是应当理解的是,本申请所包含的主题仅由权利要求来限定。
Claims (18)
1.一种第一设备,包括
触摸使能显示器;
处理器;
存储器,其能够由所述处理器访问并且承载指令,所述指令能够由所述处理器执行以:
确定输入设备在所述触摸使能显示器的接近程度内;以及
响应于所述确定且在不需要来自人的附加输入的情况下,在所述触摸使能显示器上呈现至少部分地基于所述输入设备的操纵而向所述第一设备提供输入的用户界面。
2.根据权利要求1所示的第一设备,其中,所述指令还能够被执行以:
确定所述输入设备已经从所述第一设备的接近程度内被移除;以及
响应于所述输入设备已经从所述第一设备的接近程度内被移除的所述确定,从所述触摸使能显示器上的呈现中移除所述用户界面。
3.根据权利要求2所述的第一设备,其中,所述用户界面是第一用户界面,并且其中,所述指令还能够被执行以:
在从所述触摸使能显示器上的呈现中移除所述第一用户界面之后,在所述触摸使能显示器上呈现第二用户界面。
4.根据权利要求3所述的第一设备,其中,所述第二用户界面是在确定所述输入设备在所述触摸使能显示器的接近程度内之前、在所述触摸使能显示器上呈现的用户界面。
5.根据权利要求1所述的第一设备,其中,用于向所述第一设备提供输入的所述用户界面是选自一个组中的至少之一,所述组包括:用于从输入设备接收手写输入的用户界面、用于从输入设备接收绘画输入的用户界面。
6.根据权利要求1所述的第一设备,其中,所述指令还能够执行以至少部分地基于控制已经在所述第一设备处执行的应用程序呈现所述用户界面,而在所述触摸使能显示器上呈现用于向所述第一设备提供输入的所述用户界面。
7.根据权利要求1所述的第一设备,其中,所述指令还能够执行以至少部分地基于与所述用户界面相关联且执行以呈现所述用户界面的应用程序的启动,而在所述触摸使能显示器上呈现用于向所述第一设备提供输入的所述用户界面。
8.根据权利要求1所述的第一设备,其中,所述用户界面用于至少部分地基于检测到所述输入设备紧靠所述触摸使能显示器而向所述第一设备提供输入。
9.根据权利要求8所述的第一设备,包括所述输入设备,其中,所述输入设备是触针。
10.根据权利要求1所述的第一设备,其中,所述用户界面用于至少部分地基于在接近程度内的自由空间中所述输入设备的控制,而向所述第一设备提供输入。
11.根据权利要求10所述的第一设备,其中,所述用户界面用于至少部分地基于在高于所述触摸使能显示器且在接近程度内的自由空间中所述输入设备的控制,而向所述第一设备提供输入。
12.根据权利要求1所述的第一设备,其中,所述确定所述输入设备在所述触摸使能显示器的接近程度内至少部分地基于由所述触摸使能显示器检测到所述输入设备的至少一部分。
13.根据权利要求1所述的第一设备,其中,所述用户界面至少部分地基于选自一个组的应用程序的执行而被呈现,所述组包括:手写应用程序、笔记应用程序、绘画应用程序。
14.根据权利要求1所述的第一设备,其中,所述接近程度是离所述触摸使能显示器的阈值距离,所述阈值距离由用户在确定所述输入设备在所述触摸使能显示器的接近程度内之前被确立。
15.一种方法,包括:
确定第一设备是在到第二设备的阈值距离处和在到所述第二设备的所述阈值距离内中之一;
响应于确定所述第一设备是在所述阈值距离处和在所述阈值距离内中之一,且在无需到不同于所述第一设备的第二设备的用户输入的情况下、并非将所述第一设备移动至在所述阈值距离处和在所述阈值距离内之一,在显示器上呈现用于至少部分地利用所述第一设备向所述第二设备提供输入的用户界面;
确定所述第一设备不再是在所述阈值距离处和在所述阈值距离内的至少之一;以及
响应于确定所述第一设备不再是在所述阈值距离处和在所述阈值距离内的至少之一,从所述显示器移除所述用户界面。
16.根据权利要求15所述的方法,还包括:
响应于从所述显示器移除所述用户界面,在从所述显示器上的呈现中移除所述第一用户界面之后,在所述显示器上显示第二用户界面,所述第二用户界面是在确定所述第一设备是在到所述第二设备的所述阈值距离处和在到所述第二设备的所述阈值距离内之一之前所呈现的用户界面。
17.根据权利要求15所述的方法,其中,所述显示器是触摸使能显示器,并且其中,确定所述第一设备是在到所述第二设备的所述阈值距离处和在到所述第二设备的所述阈值距离内之一,包括利用所述触摸使能显示器来确定所述第一设备的至少一部分是在到所述触摸使能显示器的所述阈值距离处和在到所述触摸使能显示器的所述阈值距离内之一。
18.根据权利要求15所述的方法,其中,确定所述第一设备是在到所述第二设备的所述阈值距离处和在到所述第二设备的所述阈值距离内之一,包括利用相机来确定所述第一设备的至少一部分是在到所述第二设备的所述阈值距离处和在到所述第二设备的所述阈值距离内之一。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/294,792 | 2014-06-03 | ||
US14/294,792 US10817124B2 (en) | 2014-06-03 | 2014-06-03 | Presenting user interface on a first device based on detection of a second device within a proximity to the first device |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105138247A true CN105138247A (zh) | 2015-12-09 |
CN105138247B CN105138247B (zh) | 2019-10-29 |
Family
ID=53677628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510151763.0A Active CN105138247B (zh) | 2014-06-03 | 2015-04-01 | 检测到第二设备接近第一设备而在第一设备呈现用户界面 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10817124B2 (zh) |
CN (1) | CN105138247B (zh) |
DE (1) | DE102015108004A1 (zh) |
GB (1) | GB2528567B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122236A (zh) * | 2017-04-25 | 2017-09-01 | 北京洋浦伟业科技发展有限公司 | 一种控制应用程序前台运行的方法与装置 |
CN110007841A (zh) * | 2019-03-29 | 2019-07-12 | 联想(北京)有限公司 | 一种控制方法和电子设备 |
CN110235096A (zh) * | 2017-01-25 | 2019-09-13 | 微软技术许可有限责任公司 | 基于笔邻近度重绘用户接口 |
CN111684401A (zh) * | 2018-02-02 | 2020-09-18 | 微芯片技术股份有限公司 | 显示用户界面以及相关***、方法和设备 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140256250A1 (en) * | 2013-03-11 | 2014-09-11 | Barnesandnoble.Com Llc | Peer-to-peer data transfer using near field communication (nfc)-enabled styluses |
KR102547115B1 (ko) | 2016-06-03 | 2023-06-23 | 삼성전자주식회사 | 어플리케이션을 전환하기 위한 방법 및 그 전자 장치 |
US20180288392A1 (en) * | 2017-04-01 | 2018-10-04 | Intel Corporation | Adjusting display content based on user distance detection |
US11263399B2 (en) * | 2017-07-31 | 2022-03-01 | Apple Inc. | Correcting input based on user context |
KR102436435B1 (ko) * | 2018-03-13 | 2022-08-26 | 삼성전자주식회사 | 전자 펜으로부터 수신한 신호에 기초하여 다양한 기능을 실행시키기 위한 전자 장치 |
US11373373B2 (en) * | 2019-10-22 | 2022-06-28 | International Business Machines Corporation | Method and system for translating air writing to an augmented reality device |
US20230195214A1 (en) * | 2021-12-17 | 2023-06-22 | Lenovo (Singapore) Pte. Ltd. | Presentation of electronic content according to device and head orientation |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040160427A1 (en) * | 1998-11-20 | 2004-08-19 | Microsoft Corporation | Pen-based interface for a notepad computer |
CN1666247A (zh) * | 2003-08-21 | 2005-09-07 | 微软公司 | 使用空中点的聚焦管理 |
US20080259045A1 (en) * | 2007-03-30 | 2008-10-23 | Lg Electronics Inc. | Method of controlling mobile communication device equipped with touch screen, communication device and method of executing functions thereof |
US20090158201A1 (en) * | 2007-09-24 | 2009-06-18 | Michael Iampietro | Rendering of content in a defined region of a graphical user interface |
US20090199127A1 (en) * | 2008-01-31 | 2009-08-06 | Microsoft Corporation | Previewing target display areas |
CN201577133U (zh) * | 2009-10-13 | 2010-09-08 | 昆盈企业股份有限公司 | 摄像驱动***及使用该***的电子装置 |
US20110285669A1 (en) * | 2010-05-21 | 2011-11-24 | Lassesson Kristian | Electronic Devices Including Interactive Displays Implemented Using Cameras and Related Methods and Computer Program Products |
CN103092502A (zh) * | 2011-08-31 | 2013-05-08 | 三星电子株式会社 | 在便携式终端中提供用户界面的方法及其设备 |
CN103197843A (zh) * | 2011-12-20 | 2013-07-10 | 联想(新加坡)私人有限公司 | 信息处理设备和信息处理方法 |
CN103631514A (zh) * | 2012-08-24 | 2014-03-12 | 三星电子株式会社 | 用于触笔功能的操作的方法及支持该方法的电子装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2538878B2 (ja) | 1986-05-26 | 1996-10-02 | 株式会社東芝 | 情報入力装置および情報入力装置における文字記入領域制御方法 |
US5243149A (en) | 1992-04-10 | 1993-09-07 | International Business Machines Corp. | Method and apparatus for improving the paper interface to computing systems |
JPH0816313A (ja) | 1994-07-04 | 1996-01-19 | Sanyo Electric Co Ltd | 手書き入力方法及び装置 |
US6128007A (en) | 1996-07-29 | 2000-10-03 | Motorola, Inc. | Method and apparatus for multi-mode handwritten input and hand directed control of a computing device |
US6728784B1 (en) * | 1996-08-21 | 2004-04-27 | Netspeak Corporation | Collaborative multimedia architecture for packet-switched data networks |
US6525716B1 (en) | 1997-04-01 | 2003-02-25 | Casio Computer Co., Ltd. | Handwritten data input device having coordinate detection tablet |
US6957233B1 (en) | 1999-12-07 | 2005-10-18 | Microsoft Corporation | Method and apparatus for capturing and rendering annotations for non-modifiable electronic content |
US7346933B2 (en) * | 2001-09-05 | 2008-03-18 | Computerprox Corporation | Ultrasonic sensor component signal communication to standalone universal serial bus keyboard emulator for entry/exit computer proximity determination |
US7096432B2 (en) * | 2002-05-14 | 2006-08-22 | Microsoft Corporation | Write anywhere tool |
US7123770B2 (en) | 2002-05-14 | 2006-10-17 | Microsoft Corporation | Incremental system for real time digital ink analysis |
US20030215145A1 (en) | 2002-05-14 | 2003-11-20 | Microsoft Corporation | Classification analysis of freeform digital ink input |
US7751623B1 (en) | 2002-06-28 | 2010-07-06 | Microsoft Corporation | Writing guide for a free-form document editor |
US20050281467A1 (en) | 2003-01-24 | 2005-12-22 | Stahovich Thomas F | Recognizing multi-stroke symbols |
US8381135B2 (en) * | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7657849B2 (en) * | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US8315482B2 (en) | 2007-06-26 | 2012-11-20 | Microsoft Corporation | Integrated platform for user input of digital ink |
US8219936B2 (en) * | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
US9658765B2 (en) | 2008-07-31 | 2017-05-23 | Northrop Grumman Systems Corporation | Image magnification system for computer interface |
US8351904B2 (en) | 2008-09-23 | 2013-01-08 | Lg Electronics Inc. | Mobile terminal and communication history providing method using the same |
US8914396B2 (en) | 2009-12-30 | 2014-12-16 | At&T Intellectual Property I, L.P. | System and method for an iterative disambiguation interface |
US20120120002A1 (en) | 2010-11-17 | 2012-05-17 | Sony Corporation | System and method for display proximity based control of a touch screen user interface |
CN102681747A (zh) | 2011-03-09 | 2012-09-19 | 联想(北京)有限公司 | 一种终端设备以及动态显示应用标识信息的方法 |
CN102855079B (zh) | 2011-05-24 | 2016-06-08 | Lg电子株式会社 | 移动终端 |
CN103858083A (zh) * | 2011-10-13 | 2014-06-11 | Lg电子株式会社 | 输入界面控制设备及其方法 |
US20130285929A1 (en) | 2012-04-30 | 2013-10-31 | Wolfgang Michael Theimer | Method and Apparatus Pertaining to Stylus-Based Responses |
KR101395480B1 (ko) | 2012-06-01 | 2014-05-14 | 주식회사 팬택 | 필기 입력에 기초하여 어플리케이션을 실행하는 방법 및 그 단말 |
KR20140026027A (ko) | 2012-08-24 | 2014-03-05 | 삼성전자주식회사 | 어플리케이션 실행 방법 및 휴대 단말 |
KR102129374B1 (ko) | 2012-08-27 | 2020-07-02 | 삼성전자주식회사 | 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말 |
-
2014
- 2014-06-03 US US14/294,792 patent/US10817124B2/en active Active
-
2015
- 2015-04-01 CN CN201510151763.0A patent/CN105138247B/zh active Active
- 2015-05-20 DE DE102015108004.4A patent/DE102015108004A1/de active Pending
- 2015-06-02 GB GB1509519.3A patent/GB2528567B/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040160427A1 (en) * | 1998-11-20 | 2004-08-19 | Microsoft Corporation | Pen-based interface for a notepad computer |
CN1666247A (zh) * | 2003-08-21 | 2005-09-07 | 微软公司 | 使用空中点的聚焦管理 |
US20080259045A1 (en) * | 2007-03-30 | 2008-10-23 | Lg Electronics Inc. | Method of controlling mobile communication device equipped with touch screen, communication device and method of executing functions thereof |
US20090158201A1 (en) * | 2007-09-24 | 2009-06-18 | Michael Iampietro | Rendering of content in a defined region of a graphical user interface |
US20090199127A1 (en) * | 2008-01-31 | 2009-08-06 | Microsoft Corporation | Previewing target display areas |
CN201577133U (zh) * | 2009-10-13 | 2010-09-08 | 昆盈企业股份有限公司 | 摄像驱动***及使用该***的电子装置 |
US20110285669A1 (en) * | 2010-05-21 | 2011-11-24 | Lassesson Kristian | Electronic Devices Including Interactive Displays Implemented Using Cameras and Related Methods and Computer Program Products |
CN103092502A (zh) * | 2011-08-31 | 2013-05-08 | 三星电子株式会社 | 在便携式终端中提供用户界面的方法及其设备 |
CN103197843A (zh) * | 2011-12-20 | 2013-07-10 | 联想(新加坡)私人有限公司 | 信息处理设备和信息处理方法 |
CN103631514A (zh) * | 2012-08-24 | 2014-03-12 | 三星电子株式会社 | 用于触笔功能的操作的方法及支持该方法的电子装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110235096A (zh) * | 2017-01-25 | 2019-09-13 | 微软技术许可有限责任公司 | 基于笔邻近度重绘用户接口 |
CN107122236A (zh) * | 2017-04-25 | 2017-09-01 | 北京洋浦伟业科技发展有限公司 | 一种控制应用程序前台运行的方法与装置 |
CN107122236B (zh) * | 2017-04-25 | 2020-06-05 | 北京梆梆安全科技有限公司 | 一种控制应用程序前台运行的方法与装置 |
CN111684401A (zh) * | 2018-02-02 | 2020-09-18 | 微芯片技术股份有限公司 | 显示用户界面以及相关***、方法和设备 |
CN110007841A (zh) * | 2019-03-29 | 2019-07-12 | 联想(北京)有限公司 | 一种控制方法和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
GB2528567B (en) | 2018-12-26 |
US20150346946A1 (en) | 2015-12-03 |
US10817124B2 (en) | 2020-10-27 |
DE102015108004A1 (de) | 2015-12-03 |
CN105138247B (zh) | 2019-10-29 |
GB2528567A (en) | 2016-01-27 |
GB201509519D0 (en) | 2015-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105138247A (zh) | 检测到第二设备接近第一设备而在第一设备呈现用户界面 | |
US9501218B2 (en) | Increasing touch and/or hover accuracy on a touch-enabled device | |
JP6930700B2 (ja) | 適応可能な深度検知システム | |
CN109416616B (zh) | 电子装置及其操作方法 | |
US20150326575A1 (en) | Data transfer based on input device identifying information | |
US20150370350A1 (en) | Determining a stylus orientation to provide input to a touch enabled device | |
US9471143B2 (en) | Using haptic feedback on a touch device to provide element location indications | |
EP3336675B1 (en) | Electronic devices and input method of electronic device | |
CN104731316A (zh) | 基于眼睛跟踪在设备上呈现信息的***及方法 | |
CN105556428A (zh) | 具有显示器的便携式终端及其操作方法 | |
EP3547107B1 (en) | Method for providing information mapped between a plurality of inputs and electronic device for supporting the same | |
US20160154555A1 (en) | Initiating application and performing function based on input | |
US20170116453A1 (en) | Systems and methods for biometric authentication circuit offset from front surface of device | |
US10515270B2 (en) | Systems and methods to enable and disable scrolling using camera input | |
US20150347364A1 (en) | Highlighting input area based on user input | |
US20210051245A1 (en) | Techniques for presenting video stream next to camera | |
CN106201452B (zh) | 呈现窗口的装置,呈现用户界面的方法和装置 | |
US11340776B2 (en) | Electronic device and method for providing virtual input tool | |
US10216405B2 (en) | Presenting control interface based on multi-input command | |
CN104898967A (zh) | 在可触控板上呈现至可触控板的输入的指示的装置及方法 | |
US10282082B2 (en) | Altering presentation of an element presented on a device based on input from a motion sensor | |
US11003293B2 (en) | Electronic device that executes assigned operation in response to touch pressure, and method therefor | |
US11256410B2 (en) | Automatic launch and data fill of application | |
US10860094B2 (en) | Execution of function based on location of display at which a user is looking and manipulation of an input device | |
CN107924276B (zh) | 电子设备及其文本输入方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |