CN109426392A - 用于确定与用户界面对应的输入检测区域的方法及其电子设备 - Google Patents

用于确定与用户界面对应的输入检测区域的方法及其电子设备 Download PDF

Info

Publication number
CN109426392A
CN109426392A CN201810965059.2A CN201810965059A CN109426392A CN 109426392 A CN109426392 A CN 109426392A CN 201810965059 A CN201810965059 A CN 201810965059A CN 109426392 A CN109426392 A CN 109426392A
Authority
CN
China
Prior art keywords
input
user
area
display
electronic equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810965059.2A
Other languages
English (en)
Other versions
CN109426392B (zh
Inventor
崔成勋
朱宰淑
权容振
罗亨然
文贞植
全桂勋
郑甫华
赵俊熙
许胜�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109426392A publication Critical patent/CN109426392A/zh
Application granted granted Critical
Publication of CN109426392B publication Critical patent/CN109426392B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供了设置在电子设备的显示器上显示的用户界面的输入检测区域的设备和方法。电子设备在第一区域中显示用户界面、通过显示器从第一区域的外部接收用户输入、检查用户输入是由手指还是电子笔提供的,当用户输入由手指提供时,确定用户输入是否在第二区域中,该第二区域与第一区域相邻并围绕第一区域,当用户输入由电子笔提供时,确定用户输入是否在第三区域中,该第三区域与第一区域相邻、围绕第一区域并且位于第二区域内,并且使应用能够使用该用户输入,就像该用户输入在第一区域中提供一样。

Description

用于确定与用户界面对应的输入检测区域的方法及其电子 设备
技术领域
本公开涉及用于基于电子设备中的输入对象来确定可以检测与用户界面对应的输入的区域的方法和设备。
背景技术
以上信息仅作为背景信息给出,以帮助理解本公开。关于以上任何内容是否可用作关于本公开的现有技术,没有做出决定并且没有作出断言。
随着信息通信技术和半导体技术的发展而提供各种功能的各种电子设备已经发展成提供各种多媒体服务的多媒体设备。例如,多媒体服务可以包括语音呼叫服务、消息服务、广播服务、无线互联网服务、相机服务、电子支付服务和音乐播放服务中的至少一个。
电子设备可以提供与多媒体服务对应的用户界面。例如,电子设备可以在显示器上的至少一个区域中显示与应用对应的用户界面(例如,服务图像),使得用户可以控制该应用。
以上信息仅作为背景信息给出,以帮助理解本公开。关于以上任何内容是否可用作关于本公开的现有技术,没有做出决定并且没有作出断言。
发明内容
本公开的各方面旨在解决至少上面提到的问题和/或缺点,并提供至少下述优点。因而,本公开的一方面是提供一种用于在执行应用时创建用于显示该应用的窗口的电子设备。应用可以通过窗口显示在显示器的至少一个区域中。电子设备可以将与窗口对应的输入检测区域设置为比显示应用的窗口区域稍大于(例如,30dp)显示应用的窗口区域,使得用户可以使用他/她身体的部分(例如,手指)容易地在显示的应用上输入触摸。当通过与窗口区域对应的输入检测区域检测来自用户的输入时,电子设备可以确定它已经检测到与窗口对应的用户输入。
本公开的另一方面是提供可以一种设置输入检测区域的电子设备,该输入检测区域具有固定到其中它可以检测触摸输入的窗口的尺寸。因而,当可以提供比用户的身体更精确的触摸输入的其它输入对象(例如,鼠标或电子笔)用于电子设备时,可以通过考虑用户身体设置的窗口的输入检测区域生成触摸输入错误。例如,电子设备的用户可以使用电子笔触摸靠近窗口的图标。但是,当通过窗口的输入检测区域检测到触摸输入时,电子设备确定触摸输入是与窗口对应的触摸输入并且可以执行与用户的意图不同的操作。
附加的各方面将部分地在下面的描述中阐述,并且部分地将从描述中显而易见,或者可以通过实践所给出的实施例来学习。
本公开的各种实施例可以提供用于基于电子设备中的输入对象适应性地设置用户界面的输入检测区域的设备和方法。
根据本公开的一方面,提供了一种电子设备。该电子设备包括壳体、通过壳体的一部分暴露的显示器、与显示器功能性连接的一个或多个处理器,以及与处理器功能性连接的存储器。存储器存储包括用户界面的应用。存储器存储指令,当指令被执行时,配置一个或多个处理器以在显示器的第一区域中显示用户界面,通过显示器从显示器的第一区域的外部接收用户输入,检查用户输入是由手指还是由电子笔提供,当用户输入由手指提供时,确定用户输入是否在第二区域中(第二区域与显示器的第一区域相邻并围绕第一区域),当用户输入由电子笔提供时,确定用户输入是否在第三区域中(第三区域与显示器的第一区域相邻、围绕第一区域,并且位于第二区域内部),并且当用户输入在第二区域或第三区域中时,使应用能够使用该用户输入,如同用户输入在第一区域中提供一样。
根据本公开的另一方面,提供了一种电子设备的操作。该电子设备包括在电子设备的显示器的第一区域中显示应用的用户界面,通过显示器的第一区域外部的显示器接收用户输入,检查用户输入是由手指还是电子笔提供,当用户输入由手指提供时,确定用户输入是否在第二区域中(第二区域与显示器的第一区域相邻并围绕第一区域),当用户输入由电子笔提供时,确定用户输入是否在第三区域中(第三区域与显示器的第一区域相邻、围绕第一区域,并且位于第二区域内部),并且当用户输入在第二区域或第三区域中时,使应用使用该用户输入,如同用户输入在第一区域中提供一样。
根据本公开的另一方面,提供了一种电子设备。该电子设备包括显示器、一个或多个处理器和存储器。存储器存储指令,当指令被执行时,配置一个或多个处理器以在显示器的至少一部分上显示应用的用户界面,通过显示器接收在显示器上显示用户界面的部分之外的用户输入,检查提供了用户输入的输入对象,检查该用户输入是否包括在显示器上显示的用户界面的输入检测区域中并与提供用户输入的输入对象对应,以及控制应用在用户输入包括在输入检测区域中时使用该用户输入。
根据以下结合附图公开本公开的各种实施例的详细描述,本公开的其它方面、优点和显著特征对于本领域技术人员将变得显而易见。
附图说明
通过以下结合附图的描述,本公开的某些实施例的以上和其它方面、特征和优点将更加明显,其中:
图1A和1B是根据本公开的各种实施例的电子设备的透视图;
图1C是示出根据本公开的各种实施例的通过外部设备显示信息的电子设备的配置的图;
图2是根据本公开的各种实施例的电子设备的框图;
图3是根据本公开的各种实施例的程序的框图;
图4是图示根据本公开的各种实施例的在电子设备中设置输入检测区域的流程图;
图5是图示根据本公开的各种实施例的与输入对象对应的输入检测区域的图;
图6是图示根据本公开的各种实施例的基于电子设备中的输入对象设置输入检测区域的流程图;
图7示出了根据本公开的各种实施例的用于改变图标的图像配置;
图8是图示根据本公开的各种实施例的基于电子设备中的重叠窗口设置输入检测区域的流程图;
图9是示出根据本公开的各种实施例的基于重叠窗口设置的输入检测区域的图;
图10是图示根据本公开的各种实施例的基于电子设备中的操作模式设置输入检测区域的流程图;
图11是图示根据本公开的各种实施例的确定与电子设备中的输入对应的窗口的流程图;
图12示出了根据本公开的各种实施例的用于确定与输入对应的窗口的图像配置;
图13是图示根据本公开的各种实施例的在电子设备中使用输入检测区域设置操作模式的流程图;以及
图14是根据本公开的各种实施例的用于基于输入对象设置输入检测区域的网络环境中的电子设备的框图。
贯穿整个附图,应当注意的是,相同的标号用于描绘相同或相似的元件、特征和结构。
具体实施方式
提供参考附图的以下描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体细节以帮助理解,但这些仅被视为示例性的。因而,本领域普通技术人员将认识到的是,在不脱离本公开的范围和精神的情况下,可以对本文描述的各种实施例进行各种改变和修改。此外,为了清楚和简明,可以省略对众所周知的功能和构造的描述。
在以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅由发明人用以使得能够清楚且一致地理解本公开。因而,对于本领域技术人员来说显而易见的是,提供本公开的各种实施例的以下描述仅用于说明目的,而不是为了限制由所附权利要求及其等同物限定的本公开的目的。
应当理解的是,除非上下文另有明确规定,否则单数形式“一”、“一个”和“该”包括复数指示物。因此,例如,对“部件表面”的引用包括对一个或多个这种表面的引用。
图1A和1B是根据本公开的各种实施例的电子设备的透视图。
参考图1A和1B,电子设备100可以包括壳体110。例如,壳体110可以由导电材料和/或非导电材料制成。
根据实施例,壳体110可以具有面向第一方向(例如,Z轴方向)的第一侧121(例如,前部或顶部)、与第一侧121相对的第二侧122(例如,后部或底部),以及包围第一侧121和第二侧122的至少一部分的侧部123。例如,侧部123与前板131和后板结合,并且可以由包括金属和/或聚合物的侧部边框结构116形成。
根据实施例,电子设备100可以包括部署在第一侧121上的前板131(例如,窗口或玻璃板),并且显示器101可以通过前板131的第一区域A1暴露。
根据实施例,电子设备100可以具有用于呼叫的接收器孔102。例如,电子设备100使用其中的扬声器并且可以被控制,使得电子设备100的用户可以通过接收器孔102与对方通话以进行呼叫。
根据实施例,电子设备100可以具有麦克风孔103。例如,电子设备100使用部署在其中的一个或多个麦克风并且能够感测声音的方向,并且可以通过麦克风孔103从外部接收声音。
根据实施例,电子设备100可以具有一个或多个键输入设备117。例如,键输入设备117可以包括在壳体110的侧部123上的一个或多个侧部键按钮。侧部键按钮可以包括:音量按钮、电源按钮或具体功能按钮(例如,用于执行人工智能模式或快速语音识别模式)。
根据实施例,电子设备100可以包括暴露在显示器101上或者通过前板131执行功能而不被暴露以执行电子设备100的各种功能的部件。例如,这些部件中的至少一些可以部署在前板131的第二区域A1中。例如,部件可以包括一个或多个传感器模块104。例如,传感器模块104可以包括照明传感器(例如,光传感器)、接近传感器(例如,光传感器)、红外(IR)传感器、超声传感器、指纹传感器、面部传感器或虹膜传感器。例如,部件可以包括第一相机105。例如,部件可以包括指示器106(例如,发光二极管(LED)),用于可视地向用户提供电子设备100的状态信息。例如,部件可以包括部署在接收器孔102的侧部的光源114(例如,IRLED)。例如,部件可以包括用于利用从光源114发射到用户眼睛的光检测虹膜图像的成像传感器组件115(例如,虹膜相机)。例如,部件中的一个或多个可以被部署成通过面向与电子设备100中的第一方向相反的方向(例如,-Z轴方向)的第二侧122的至少一个区域(例如,后部或底部)暴露。
根据实施例,电子设备100可以包括凹陷107(例如,笔槽),电子笔安放在凹陷107上。根据实施例,电子设备100可以包括第一连接器孔108,用于向/从外部设备发送/接收数据,以及通过从外部接收电力来对电子设备100充电。根据实施例,电子设备100可以包括用于接纳外部设备的耳机插孔的第二连接器孔109(例如,耳机插孔组件)。
根据实施例,显示器101可以输出数据。例如,如图1B所示,显示器101可以显示由电子设备100执行的一个或多个应用的信息。例如,显示器101可以通过分别与应用对应的窗口132、133和135显示应用的信息。
图1C是示出根据本公开的各种实施例的通过外部设备显示信息的电子设备的配置的图。
参考图1C,电子设备100可以通过对接设备140与外部设备150连接。例如,当对接到对接设备140时,电子设备100可以在桌面扩展模式下操作。当处于桌面扩展模式时,电子设备100可以输出用于通过外部设备150操作电子设备100的用户界面。例如,电子设备100可以显示由电子设备100通过外部设备150执行的一个或多个应用的用户界面。应用的用户界面可以通过分别与应用对应的窗口152、154和156显示在外部设备150上。
根据实施例,电子设备100、对接设备140和外部设备150可以通过导线或无线地连接。例如,电子设备100、对接设备140和外部设备150可以通过导线连接。例如,电子设备100、对接设备140和外部设备150可以无线地连接。例如,电子设备100和对接设备140可以通过导线连接,并且对接设备140和外部设备150可以无线地连接。例如,电子设备100和对接设备140可以无线地连接,并且对接设备140和外部设备150可以通过导线连接。
根据实施例,电子设备100和外部设备可以通过有线或无线地直接连接。
图2是根据本公开的各种实施例的电子设备的框图。在以下描述中,电子设备可以包括图1A、1B和1C中所示的电子设备100的全部或一部分。
参考图2,电子设备201可以包括总线210、处理器(例如,包括处理电路)220、存储器230、输入/输出(I/O)接口(例如,包括输入/输出电路)240、显示器250和通信接口(例如,包括通信电路)260。在另一个实施例中,电子设备201可以不包括部件中的一个或多个,或者可以附加地包括其它组件。
例如,总线210可以包括连接部件(220至260)并在部件之间发送信号(例如,控制消息和/或数据)的电路。
处理器220可以执行关于电子设备201的一个或多个其它部件的控制和/或通信的计算或数据处理。例如,处理器220可以包括中央处理单元(CPU)、应用处理器(AP)、通信处理器(CP)和图像信号处理器(ISP)中的一个或多个。
根据实施例,处理器220可以检测在显示器250上显示的用户界面的输入检测区域。例如,当执行应用时,可以控制显示器250以通过与应用对应的窗口来显示该应用的用户界面。当创建应用的窗口时,处理器220可以创建具有不同尺寸并与窗口对应的多个输入检测区域。当通过I/O接口240检测到输入时,处理器220可以将与多个输入检测区域的输入对象的种类对应的输入检测区域确定为用于检测与显示在显示器250的至少一部分上的窗口对应的输入的区域。例如,窗口的输入检测区域可以包括被设置为与在显示器250的至少一部分上显示的窗口的边缘相邻的虚拟区域。窗口的输入检测区域可以不显示或者可以显示以与显示器250上的窗口区分。输入检测区域可以被设置成与窗口的边缘相邻的各种形状,诸如多边形、圆形和半圆形。例如,窗口可以包括被设置为在显示器250上显示应用的用户界面的区域。
根据实施例,处理器220可以基于电子设备201的操作模式设置用户界面的输入检测区域。例如,当电子设备201已被设置为外部设备(例如,第一外部电子设备202)的输入设备时,处理器220可以以与鼠标(指向设备)对应的尺寸设置在外部设备的显示器上显示的窗口的输入检测区域。例如,电子设备201(例如,图1C中所示的电子设备100)可以被设置为有线或无线连接的外部设备(例如,图1C中所示的外部设备150)的输入设备(例如,触摸板)。即使由用户的身体(例如,手指)接收到输入,处理器220也可以以与鼠标对应的尺寸设置在外部设备上显示的窗口的输入检测区域,而不管输入对象(例如,用户的身体)。
根据实施例,处理器220可以基于与另一个窗口的重叠信息来使显示器250上显示的用户界面的输入检测区域变形。例如,当几个窗口彼此重叠时,处理器220可以将窗口的输入检测区域的(与另一个窗口重叠的)至少一部分变形(减小)。例如,处理器220可以重置与另一个窗口重叠的部分的尺寸,同时维持窗口的输入检测区域的不与该窗口重叠的另一部分尺寸。
根据实施例,处理器220可以基于与输入检测区域对应的输入来执行对应于输入检测区域的窗口的应用。例如,当通过显示在显示器250的至少一部分上的窗口的输入检测区域接收输入时,处理器220可以通过与窗口对应的应用来执行与输入对应的功能。例如,当通过显示在显示器250的至少一部分上的窗口的输入检测区域接收输入时,处理器220可以基于该输入调整窗口的尺寸。
根据实施例,当几个窗口彼此重叠时,处理器220可以基于窗口的重叠次序(例如,Z次序)来选择与输入对应的窗口。例如,执行多个应用,处理器220可以控制显示器250,以通过分别与应用对应的多个窗口来显示一个或多个应用的用户界面。当几个窗口在与通过I/O接口240检测到的输入对应的位置处彼此重叠时,处理器220可以确定具有最高重叠次序的窗口(部署在最高层)作为用于处理输入的窗口。
存储器230可以包括易失性和/或非易失性存储器。存储器230可以存储例如与电子设备201的一个或多个其它部件相关的命令或数据。数据可以包括具有不同尺寸并且与窗口对应的输入检测区域的信息(例如,尺寸和形状)。例如,存储器230可以存储包括用户界面的应用。
I/O接口240可以将从用户或另一个外部设备输入的命令或数据发送到电子设备201的其它部件。例如,I/O接口240可以包括一个或多个物理按钮,例如主页按钮、电源按钮和音量按钮。I/O接口240可以将从电子设备201的其它部件接收的命令或数据输出到用户或其它外部设备。例如,I/O接口240可以包括用于输出音频信号的扬声器和用于收集音频信号的麦克风。
显示器250可以向用户显示各种内容(例如,文本、图像、视频、图标和/或符号)。例如,显示器250可以包括触摸屏。显示器250可以通过电子笔或用户身体的一部分来接收触摸、手势、接近或悬停输入。
通信接口260可以设置电子设备201与外部设备(例如,第一外部电子设备202、第二外部电子设备204或服务器206)之间的通信。例如,通信接口260可以连接到网络272,并且可以通过无线通信或有线通信与外部设备(例如,第二外部电子设备204或服务器206)通信。例如,通信接口260可以通过近场通信274与外部设备(例如,第一外部电子设备202)通信。
图3是根据本公开的各种实施例的程序的框图。根据实施例,程序可以包括用于控制与电子设备(例如,图2中所示的电子设备201)和/或在OS上驱动的各种应用相关的资源的操作***(OS)。例如,OS可以包括AndroidTM、iOSTM、WindowsTM、SymbianTM、TizenTM或BadaTM
参考图3,程序300可以包括内核310、框架320和/或应用330。程序300的至少一部分可以预先加载到电子设备201或者可以从外部电子设备(例如,图2中所示的外部电子设备202和204以及服务器206)下载。
内核310可以提供可以控制或管理***资源的接口。根据实施例,内核310可以包括输入设备驱动程序312。输入设备驱动程序312可以控制连接到电子设备的一个或多个输入设备。例如,一个或多个输入设备可以包括鼠标、键盘、触摸屏、电子笔和跟踪球。
框架320可以提供所有应用330所需的功能,或者可以向应用330提供各种功能,使得应用330可以使用电子设备中的有限***资源。根据实施例,框架320可以包括窗口管理器322和输入管理器324。窗口管理器322可以管理用于屏幕的图形用户界面(GUI)资源。例如,当在电子设备中执行应用时,窗口管理器322可以创建具有显示的应用的窗口。窗口管理器322可以创建具有不同尺寸并且与窗口对应的多个输入检测区域。输入管理器324可以管理电子设备的输入。例如,当输入事件发生时,输入管理器324可以识别输入事件的输入对象。输入管理器324可以基于从窗口管理器322提供的窗口或输入检测区域的信息将输入事件发送到窗口管理器322或应用330。例如,输入管理器324可以基于输入事件的输入对象确定在显示器250上显示的窗口的输入检测区域。当发生与窗口区域或输入检测区域对应的输入事件时,输入管理器324可以将输入事件提供给窗口中显示的应用330。例如,当发生用于调整窗口尺寸的输入事件时,输入管理器324可以将该输入事件提供给窗口管理器322。例如,窗口信息可以包括由窗口管理器322创建的窗口的高度、宽度和位置中的一个或多个。
应用330可以包括在电子设备中驱动的一个或多个应用332、334、336和338。根据实施例,应用330可以包括根据外部电子设备(例如,移动医疗设备的医疗保健应用)的特性指定的应用。根据实施例,应用330可以包括从外部电子设备接收的应用。
程序300的至少一部分可以在软件、固件、硬件(例如,处理器220)或者至少两个的组合中实现(例如,执行),并且可以包括用于执行一个或多个功能的模块、程序、例程、指令集或进程。
根据本公开的各种实施例,电子设备包括壳体、通过壳体的一部分暴露的显示器、与显示器功能性连接的处理器以及存储器。存储器存储包括用户界面的应用。存储器可以存储指令,当指令被执行时,指令使一个或多个处理器执行在显示器的第一区域中显示用户界面、通过显示器从显示器的第一区域的外部接收用户输入、检查用户输入是由手指还是电子笔提供,当确定用户输入由手指提供时,确定用户输入是否在第二区域中(该第二区域与显示器的第一区域相邻并围绕第一区域),当确定用户输入由电子笔提供时,确定用户输入是否在第三区域中(该第三区域与显示器的第一区域相邻、围绕第一区域,并位于第二区域内),并且当用户输入在第二区域或第三区域中时,使应用能够使用该用户输入,就好像用户输入在第一区域中提供一样。
根据各种实施例,壳体还可以包括接纳电子笔的凹陷。
根据各种实施例,第三区域的面积可以小于第一区域的面积。
根据各种实施例,电子设备可以在功能上连接到外部指向设备。指令可以存储使得一个或多个处理器检查用户输入是否由手指、电子笔或指向设备提供的指令,当用户输入由手指提供时,确定用户输入是否在显示器的第二区域中,当用户输入由电子笔提供时,确定用户输入是否在显示器的第三区域中,当用户输入由指示设备提供时,确定用户输入是否在第四区域中(其与显示器的第一区域相邻、围绕第一区域,并且位于第三区域内),并且当用户输入在第二区域、第三区域或第四区域中时,使应用能够使用该用户输入,就好像用户输入在第一区域中提供一样。
根据各种实施例,指向设备可以包括鼠标。
根据各种实施例,指令可以存储指令,该指令使一个或多个处理器确定用于通过显示器显示用户界面的第一区域、确定与第一区域对应的第二区域和第三区域,并在显示器的第一区域中显示用户界面。
根据本公开的各种实施例,电子设备包括显示器、处理器和功能上连接到处理器的存储器。存储器可以存储指令,该指令使一个或多个处理器在显示器的至少一部分上显示应用的用户界面、通过显示器在显示器上显示用户界面的部分之外接收用户输入、检查用户输入提供的输入对象、检查用户输入是否包括在显示器上显示的用户界面的输入检测区域中并与已提供该用户输入的输入对象对应,以及控制应用以便在用户输入包括在输入检测区域中时使用该用户输入。
根据各种实施例,输入对象可以包括用户的身体、电子笔和外部指示设备中的一个或多个。
根据各种实施例,指令可以包括被设置为使一个或多个处理器确定用于通过显示器显示用户界面的第一区域并且创建具有不同尺寸并与第一区域对应的多个输入检测区域的指令。
根据各种实施例,指令可以包括被设置为使一个或多个处理器选择具有不同尺寸并与用于显示用户界面的区域对应的多个输入检测区域中与已提供用户输入的输入对象对应的任何一个输入检测区域,并将所选择的输入检测区域设置为显示在显示器上的用户界面的输入检测区域的指令。
根据各种实施例,指令可以包括被设置为使一个或多个处理器当多个应用的用户界面在显示器上彼此重叠时更新在显示器上显示的用户界面的输入检测区域中与另一个用户界面重叠的至少一部分的尺寸的指令。
根据各种实施例,指令可以包括被设置为使一个或多个处理器检查电子设备是否已被设置为外部输入设备的输入设备以及当电子设备已被设置为外部设备的输入设备时设置显示器上显示的用户界面的输入检测区域而不管已提供用户输入的输入对象的指令。
根据各种实施例,指令可以包括被设置为以下的指令:使一个或多个处理器当提供用户输入的输入对象是用户身体的一部分时将显示在显示器上的用户界面的输入检测区域时设置为第二区域、当提供用户输入的输入对象是用户身体的一部分时将显示在显示器上的用户界面的输入检测区域设置为包括在第二区域中的第三区域并且当提供用户输入的输入对象是用户身体的一部分时将显示在显示器上的用户界面的输入检测区域设置为包括在第三区域中的第四区域。
根据各种实施例,指令可以包括被设置为使一个或多个处理器,当在检测到用户输入的区域中显示多个用户界面时,基于用户界面的重叠次序确定用于处理用户输入的用户界面的指令。
根据各种实施例,指令可以包括被设置为使一个或多个处理器当用户输入包括在输入检测区域中时基于输入检测区域中的用户界面改变在显示器的至少一部分上显示的图标的指令。
图4是图示根据本公开的各种实施例的在电子设备中设置输入检测区域的流程图。
图5是示出根据本公开的各种实施例的与输入对象对应的输入检测区域的图。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图4和5,电子设备可以在操作401中在显示器的第一区域中显示用户界面。例如,当操作应用1时,处理器220可以在显示器520(例如,图2中所示的显示器250)的至少一部分上创建用于显示第一应用1的窗口500,如图5所示。处理器220可以控制显示器520通过窗口500显示应用1的用户界面。根据实施例,处理器220可以创建具有不同尺寸并且与窗口500对应的多个输入检测区域502、504和506。例如,可以基于电子设备201支持的输入对象(例如,手指、电子笔或鼠标)的种类来创建输入检测区域502、504和506。例如,显示用户界面的第一区域可以包括用户界面的窗口500。
电子设备可以在操作403中检查是否接收到输入。例如,处理器220可以检查在显示器250上是否检测到用户输入,显示器250显示包括第一区域的用户界面。例如,处理器220可以检查是否通过显示器250在第一区域(例如,图5中所示的窗口500)之外检测到用户输入。
当电子设备没有接收到输入时,它可以在操作401中继续显示用于显示器的第一区域的用户界面。
当电子设备接收到输入时,它可以在操作405中检查输入的输入对象。例如,处理器220可以检查已经生成输入事件的输入对象的种类。
在操作407中,电子设备可以基于输入对象确定在显示器上显示的用户界面的输入检测区域。例如,当检测到用户身体(例如,手指)的输入(例如,触摸输入)时,处理器220可以确定与窗口500对应的输入检测区域502、504、506中与用户身体对应的第二输入检测区域502作为窗口500的输入检测区域。例如,当检测到电子笔的输入(例如,触摸输入)时,处理器220可以确定与窗口500对应的输入检测区域502、504、506中与电子笔对应的第三输入检测区域504作为窗口500的输入检测区域。例如,当检测到鼠标输入时,处理器220可以确定与窗口500对应的输入检测区域502、504、506中与鼠标对应的第四输入检测区域506作为窗口500的输入检测区域。例如,基于输入对象确定的输入检测区域被设置为在窗口500外部与窗口500相邻并围绕窗口500的至少一部分,并且可以通过输入检测区域接收与窗口500对应的输入。
在操作409中,电子设备可以检查是否接收到与用户界面的输入检测区域对应的输入。例如,处理器220可以检查在操作403中接收导的输入的输入点是否在显示器520上显示的窗口500的输入检测区域502、504和506中。
当接收到与用户界面的输入检测区域对应的输入时,电子设备可以在操作411中执行与该用户界面的输入对应的功能。例如,当接收到与窗口500对应的输入检测区域502的输入时,处理器220可以将输入事件信息发送到与窗口500对应的应用。处理器220可以通过该应用执行与输入事件对应的功能。例如,当接收到与通过电子笔的窗口500的输入检测区域504对应的输入时,处理器220可以基于输入调整窗口500的尺寸。例如,处理器220可以通过图3中所示的窗口管理器322增大或减小显示在显示器520上的窗口500的尺寸。
当在用户界面的输入检测区域外部接收输入时,电子设备可以在操作409中执行与输入的输入点对应的功能。例如,当在操作403中没有接收导与输入的输入点相对应的功能时,处理器220可以忽略该输入。
根据实施例,电子设备可以基于与用户输入对应的输入对象来确定在显示器上显示的窗口的输入检测区域。例如,当输入事件的输入对象从电子笔改变到用户的身体(例如,手指)时,处理器220可以将显示在显示器520上的窗口500的输入检测区域从与电子笔对应的第三输入检测区域504改变到与用户的身体对应的第二输入检测区域502(例如,增大尺寸)。例如,当输入事件的输入对象从用户的身体改变为鼠标时,处理器220可以将显示在显示器520上的窗口500的输入检测区域从与用户的身体对应的第二输入检测区域502改变为与鼠标对应的第四输入检测区域506(例如,减小尺寸)。
图6是图示根据本公开的各种实施例的基于电子设备中的输入对象设置输入检测区域的流程图。在下文中描述用于在图4的操作407中设置用户界面的输入检测区域的操作。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图6,当接收到输入时(例如,图4的操作403),电子设备可以检查接收到的输入是否是由用户的身体(例如,手指)做出的。例如,处理器220可以通过图3中所示的输入管理器324检查输入事件是否是由于用户的身体的触摸而生成的。
当接收到通过用户的身体的输入时,电子设备在操作603中可以将用户界面的输入检测区域确定为与用户的身体对应的第二区域(例如,15dp)。例如,如图5所示,处理器220可以将与显示器520上显示的窗口500对应的输入检测区域502、504和506中与用户的身体对应的第二输入检测区域502确定为窗口500的输入检测区域。例如,第二输入检测区域502可以被设置为与窗口500相邻并且围绕窗口500的至少一部分。
当接收到的输入不是由用户的身体做出时,电子设备在操作605中可以检查接收到的输入是否是由电子笔做出的。例如,处理器220可以检查输入事件是否是由电子笔通过图3中所示的输入管理器324生成。
当接收到通过电子笔的输入时,电子设备在操作607中可以将用户界面的输入检测区域确定为与电子笔对应的第三区域(例如,10dp)。例如,如图5所示,处理器220可以将与显示器520上显示的窗口500对应的输入检测区域502、504和506中与电子笔对应的第三输入检测区域504确定为窗口500的输入检测区域。例如,第三输入检测区域504可以与窗口500相邻,作为第一输入检测区域,可以围绕第一输入检测区域的至少一部分,并且可以位于第二输入检测区域502内。第三输入检测区域504可以被设置在小于第二输入检测区域502的面积(例如,尺寸)的区域中。
当接收到的输入不是由电子笔做出时,电子设备在操作609中可以检查接收到的输入是否是由鼠标做出的。
当接收到的输入不是由鼠标做出时,电子设备在操作609中可以确定尚未设置用户界面的输入检测区域。例如,当接收到的输入不是由用户的身体、电子笔和鼠标做出时,处理器220可以确定输入是由不需要使用输入检测区域的输入对象(例如,键盘)做出的。
当通过鼠标接收到输入时,电子设备在操作611中可以将用户界面的输入检测区域确定为与鼠标对应的第四区域(例如,5dp)。例如,如图5所示,处理器220可以将与显示器520上显示的窗口500对应的输入检测区域502、504和506中与鼠标对应的第四输入检测区域506确定为窗口500的输入检测区域。例如,第四输入检测区域506可以与窗口500相邻,作为第一输入检测区域,可以围绕第一输入检测区域的至少一部分,并且可以位于第三输入的内部。第四输入检测区域506可以被设置在小于第二输入检测区域502和第三输入检测区域504的面积的区域中。
根据实施例,当通过输入设置区域不匹配的输入对象接收到输入时,电子设备可以将预先定义的输入设置区域设置为显示在显示器上的窗口的输入设置区域。例如,如图5所示,处理器220可以创建与鼠标对应的第二输入检测区域502,与电子笔对应的第三输入检测区域504,以及与用户的身体对应的第四输入检测区域506,作为窗口500的输入检测区域。当接收到除鼠标、电子笔和用户的身体之外的输入对象的输入时,处理器220可以将预先定义的输入设置区域设置为用于检测窗口500的输入的区域。例如,预先定义的输入设置区域可以包括第二输入检测区域502、第三输入检测区域504和第四输入检测区域506中的任何一个,或者具体地定义的输入检测区域。
根据本公开的各种实施例,当接收到通过电子笔和鼠标的输入时,电子设备可以设置具有相同尺寸的输入检测区域。
图7示出了根据本公开的各种实施例的用于改变图标的图像配置。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图7,电子设备700可以基于要基于输入执行的功能来改变与输入点对应的图标。例如,当基于输入对象设置在显示器250上显示的窗口710的输入检测区域712时,处理器220可以基于通过输入检测区域712接收到的输入来调整窗口的尺寸。例如,当通过输入检测区域712接收到输入(例如,鼠标输入或悬停输入)时,处理器220可以控制显示器250显示与窗口710的尺寸调整对应的图标730。例如,当通过与输入检测区域712不同的另一个区域接收到输入(例如,鼠标输入或悬停输入)时,处理器220可以控制显示器250显示指示输入点的指针720。
图8是图示根据本公开的各种实施例的基于电子设备中的重叠窗口设置输入检测区域的流程图。
图9是示出根据本公开的各种实施例的基于重叠窗口设置的输入检测区域的图。在下文中描述用于在图4中所示的操作407中设置用户界面的输入检测区域的操作。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图8和9,当接收到输入时(例如,图4的操作403),电子设备在操作801中可以基于输入的输入对象来设置显示器上显示的窗口的输入检测区域。例如,当创建窗口时,处理器220可以创建具有不同尺寸并与窗口对应的多个输入检测区域。处理器220可以将与用于接收多个输入检测区域的输入的输入对象对应的输入检测区域确定为在显示器250的至少一部分上显示的窗口的输入对象。例如,当多个输入检测区域窗口910和920显示在显示器250上时,如图9所示,处理器220可以基于用于接收输入的输入对象设置与窗口910或920对应的输入检测区域912或922。
在操作803中,电子设备可以检查是否存在在显示器上显示的窗口的重叠窗口。例如,处理器220可以检查显示器上显示的窗口910和920是否彼此重叠。
当存在在显示器上显示的窗口的重叠窗口时,在操作805中,电子设备可以更新窗口的输入检测区域中与另一个窗口重叠的部分的尺寸。例如,当第一应用的窗口910部署在第二应用的窗口920的至少一部分上方时,如图9所示,处理器可以将第一应用的窗口910的输入检测区域912的重叠区域914的尺寸更新为最小尺寸。例如,处理器220可以将重叠区域914更新为最小尺寸,同时维持第一应用的窗口910的输入检测区域912中不与另一个窗口(第二应用的窗口920)重叠的区域的尺寸。根据实施例,当通过重叠区域914检测到用户输入时,处理器220可以基于第一应用的窗口910和第二应用的窗口920的重叠次序(例如,Z次序)来选择与用户输入对应的窗口910或920。例如,当从窗口910和920的输入检测区域912和922的重叠区域914接收到用户输入时,处理器220可以基于窗口910和920的重叠次序将第一应用的窗口910确定为用于处理用户输入的窗口。
图10是图示根据本公开的各种实施例的基于电子设备中的操作模式设置输入检测区域的流程图。在下文中描述用于在图4中所示的操作407中设置用户界面的输入检测区域的操作。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图10,在操作1001中,当接收到输入时(图4的操作403),电子设备(例如,处理器220)可以检查电子设备是否已被设置为输入设备。例如,当电子设备100(例如,电子设备201)通过对接设备140连接到外部设备150时,如图1C所示,处理器220可以检查电子设备100的操作是否已经设置为用于外部设备150的输入的模式。
当电子设备尚未被设置为外部设备的输入设备时,在操作1003中,电子设备可以基于与接收到的输入对应的输入对象来设置在显示器上显示的窗口的输入检测区域。例如,处理器220可以将具有不同尺寸并且与窗口对应的多个输入检测区域中与用于接收输入的输入对象对应的输入检测区域确定为在显示器250或外部设备的显示器的至少一部分上显示的窗口的输入检测区域。
当电子设备已被设置为外部设备的输入设备时,在操作1005中,电子设备可以基于作为外部设备的输入设备的电子设备的设置来设置在外部设备的显示器上显示的窗口的输入检测区域。例如,当电子设备100被设置为外部设备150的输入设备时,如图1C所示,可以识别由电子设备100接收的用户身体(例如,手指)的触摸输入,如通过外部设备150中的电子设备100的鼠标输入。因而,电子设备100(例如,处理器220)可以设置在外部设备150的显示器上显示的窗口的输入检测区域,而不管电子设备100用于接收输入的输入对象是什么。例如,当电子设备100已被设置为外部设备150的输入设备(例如,鼠标)时,电子设备100(例如,处理器220)可以将与鼠标对应的输入检测区域确定为显示在外部设备150的显示器的至少一部分上的窗口的输入检测区域。
图11是图示根据本公开的各种实施例的确定与电子设备中的输入对应的窗口的流程图。
图12示出了根据本公开的各种实施例的用于确定与输入对应的窗口的图像配置。在下文中描述用于执行与图4中所示的操作411中的用户界面的输入对应的功能的操作。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图11和12,在操作1101中,当通过用户界面的输入检测区域接收到输入时(图4的操作409),电子设备(例如,处理器220)可以检查若干窗口是否在输入点彼此重叠。例如,为了执行计算器应用,处理器可以创建与计算器应用对应的窗口1210,如图12所示。处理器220可以控制显示器250通过窗口1210显示计算器应用的用户界面。当检测到通过用户的身体(例如,手指)的输入时(1230),处理器220可以将显示在显示器250的至少一部分上的窗口1210的输入检测区域1212设置为与用户的身体(手指)对应。例如,当通过用户的身体检测到的触摸输入1230被包括在显示器250的至少一部分上显示的窗口1210的输入检测区域1212中时,处理器220可以检查若干窗口是否在检测到触摸输入1230的位置处彼此重叠。
当若干窗口在输入点处彼此重叠时,在操作1103中,电子设备可以基于窗口的重叠次序(例如,Z次序)确定用于处理窗口的输入的窗口。例如,可以显示计算器应用,以与显示器250的整个区域中显示的日历应用的至少一部分重叠。当通过与计算器应用对应的窗口1210的输入检测区域1212检测到用户输入时,处理器220可以确定日历应用和计算器应用的窗口1210和1220在用户输入的检测位置处彼此重叠。处理器220可以基于日历应用和计算器应用的重叠次序来确定用于将输入事件作为计算器应用发送的应用。
当在输入点处存在一个窗口或者确定用于处理输入的窗口时,在操作1105中,电子设备可以执行与窗口中的输入对应的功能。例如,处理器220可以基于日历应用和计算器应用的重叠次序将输入事件发送到计算器应用。处理器220可以通过计算器应用执行与输入事件对应的计算(例如,“=”计算)。
图13是图示根据本公开的各种实施例的在电子设备中使用输入检测区域设置操作模式的流程图。在以下描述中,电子设备可以包括图2中所示的电子设备201或电子设备201的至少一部分(例如,处理器220)。
参考图13,电子设备(例如,处理器220)可以在操作1301中在显示器的第一区域中显示用户界面。例如,当执行应用时,处理器220可以控制显示器250通过在显示器250的至少一部分上创建的窗口显示应用的用户界面。处理器220可以创建具有与创建窗口时的窗口对应的不同尺寸的多个输入检测区域。
在操作1303中,电子设备可以检查是否已经接收到相邻的触摸输入。例如,相邻的触摸输入(其是在没有连接到显示器250的输入对象(例如,电子笔)的情况下生成的输入)可以包括悬停输入。
当电子设备没有接收到相邻的触摸输入时,它可以在操作1301中继续显示用于显示器的第一区域的用户界面。
当接收到相邻的触摸输入时,电子设备在操作1305中可以基于检测到相邻触摸输入的输入对象来设置在显示器上显示的用户界面的输入检测区域。例如,当检测到通过电子笔的相邻触摸输入时,处理器220可以基于与窗口对应的多个输入检测区域中与电子笔对应的输入检测区域的信息来设置在显示器250的至少一部分上显示的窗口的输入检测区域。例如,输入检测区域的信息可以包括用于配置输入检测区域的坐标信息。
在操作1307中,电子设备可以检查是否已经接收到与用户界面的输入检测区域对应的相邻触摸输入。例如,处理器220可以检查在操作1303中接收到的相邻触摸输入的检测位置是否包括在操作1305中设置的用户界面的输入检测区域中。
当在用户界面的输入检测区域之外接收到相邻触摸输入时,电子设备可以在操作1307中执行与相邻触摸输入相对应的功能。例如,当没有与在操作1303中接收的相邻触摸输入的输入点对应的功能时,处理器220可以忽略该输入。
当接收到与用户界面的输入检测区域对应的相邻触摸输入时,电子设备在操作1309中可以基于相邻触摸输入设置用户界面的操作模式。例如,当接收到与显示器250的至少一部分上显示的窗口的输入检测区域对应的相邻触摸输入时,处理器220可以将窗口的尺寸调整模式设置为用户界面的操作模式。
在操作1311中,电子设备可以检查是否已经接收到相邻触摸输入。例如,处理器220可以检查是否检测到与相邻触摸输入对应的触摸输入。例如,触摸输入可以包括通过触摸屏上的接触生成的输入。
当在操作1315中未接收到触摸输入时,电子设备可以检查是否移除了用于用户界面的输入检测区域的相邻触摸输入。例如,处理器220可以检查是否持续维持在操作1303中接收到的用户界面的输入检测区域的相邻触摸输入。
当持续维持用于用户界面的输入检测区域的相邻触摸输入时,电子设备可以在操作1311中检查是否接收到触摸输入。
当移除用户界面的输入检测区域的相邻触摸输入时,电子设备在操作1317中可以关闭基于相邻触摸输入设置的用户界面的操作。例如,当相邻触摸输入在窗口的输入检测区域之外或未被检测到时,处理器220可以确定已经移除了用于用户界面的输入检测区域的相邻触摸输入。在这种情况下,处理器220可以关闭在操作1309中设置的用户界面的操作模式。
当接收到触摸输入时,电子设备在操作1313中可以基于触摸输入执行与用户界面的操作模式对应的功能。例如,当接收到与在操作1303中接收的相邻触摸输入对应的触摸输入时,处理器220可以基于该触摸输入执行在操作1309中设置的用户界面的操作模式。例如,即使与相邻触摸输入对应的触摸输入在用户界面的输入检测区域之外,处理器220也可以基于触摸输入执行在操作1309中设置的用户界面的操作模式。
根据本公开的各种实施例,电子设备可以设置与多窗口、边缘菜单、弹出窗口、通知和图标中的至少一个输入对象对应的输入检测区域。
根据本公开的各种实施例,一种操作电子设备的方法可以包括在电子设备的显示器的第一区域中显示应用的用户界面;通过显示器在显示器的第一区域之外接收用户输入;检查用户输入是由手指还是电子笔提供;当用户输入由手指提供时,确定用户界面是否在第二区域中,该第二区域与显示器的第一区域相邻并围绕第一区域;当用户输入由电子笔提供时,确定用户输入是否在第三区域中(其与显示器的第一区域相邻、围绕第一区域、并且位于第二区域内);当用户输入在第二区域或第三区域中时,使应用能够使用该用户输入,就像该用户输入在第一区域中一样。
根据各种实施例,第三区域的面积可以小于第一区域的面积。
该方法还可以包括:检查用户输入是否已经由手指、电子笔或外部指向设备提供;当用户输入由手指提供时,确定用户输入是否在显示器的第二区域中;当用户输入由电子笔提供时,确定用户输入是否在显示器的第三区域中;当用户输入由指向设备提供时,确定用户输入是否在第四区域中(其与显示器的第一区域相邻、围绕第一区域,并且位于第三区域内);以及当用户输入在第二区域、第三区域或第四区域中时,使得应用能够使用该用户输入,就像该用户输入在第一区域中一样。
根据各种实施例,指向设备可以包括鼠标。
根据各种实施例,显示用户界面可以包括:通确定用于过显示器显示用户界面的第一区域;确定与第一区域对应的第二区域和第三区域;以及在显示器的第一区域中显示用户界面。
根据各种实施例的电子设备和操作电子设备的方法,有可能通过基于输入对象适应性地设置用户界面的输入检测区域的尺寸来防止电子设备的用户不期望的触摸输入。
图14是图示根据各种实施例的网络环境中的电子设备的框图。
参考图14,网络环境1400中的电子设备1401可以经由第一网络1498(例如,短程无线通信网络)与外部电子设备1402或者经由第二网络1499(例如,远程无线通信网络)与外部电子设备1404或服务器1408通信。根据实施例,电子设备1401可以经由服务器1408与外部电子设备1404通信。根据实施例,电子设备1401可以包括处理器1420(例如,图2的处理器220)、存储器1430(例如,图2的存储器230)、输入设备1450、声音输出设备1455、显示设备1460(例如,图2的显示器250)、音频模块1470、传感器模块1476、接口1477、触觉模块1479、相机模块1480、电源管理模块1488、电池1489、通信模块1490(例如,图2的通信接口260)、订户标识模块(SIM)1496或天线模块1497。在一些实施例中,可以从电子设备1401中省略部件中的至少一个(例如,显示设备1460或相机模块1480),或者可以在电子设备1401中添加一个或多个其它部件。在一些实施例中,部件中的一些可以被实现为单个集成电路。例如,传感器模块1476(例如,指纹传感器、虹膜传感器或照度传感器)可以被实现为嵌入在显示设备1460(例如,显示器)中。
处理器1420可以执行例如软件(例如,程序1440)以控制与处理器1420耦合的电子设备1401的至少一个其它部件(例如,硬件或软件部件)并且可以执行各种数据处理或计算。根据一个实施例,作为数据处理或计算的至少一部分,处理器1420可以将从另一个部件(例如,传感器模块1476或通信模块1490)接收的命令或数据加载到易失性存储器1432中,处理存储在易失性存储器1432中的命令或数据,并将结果所得的数据存储在非易失性存储器1434中。根据实施例,处理器1420可以包括主处理器1421(例如,CPU或AP)和辅助处理器1423。(例如,图形处理单元(GPU)、ISP、传感器集线器处理器或CP),其可独立于主处理器1421或与主处理器1421结合操作。附加地或可替代地,辅助处理器1423可以适于比主处理器1421消耗更少的功率,或者特定于指定功能。辅助处理器1423可以被实现为与主处理器1421分开或作为主处理器1421的一部分。
辅助处理器1423可以在主处理器1421处于非活动(例如,睡眠)状态时控制代替主处理器1421控制与电子设备1401的部件中的至少一个部件(例如,显示设备1460、传感器模块1476或通信模块1490)相关的功能或状态中的至少一些,或者在主处理器1421处于活动状态(例如,执行应用)时与主处理器1421一起进行控制。根据实施例,辅助处理器1423(例如,ISP或CP)可以被实现为与辅助处理器1423功能相关的另一个部件(例如,相机模块1480或通信模块1490)的一部分。
存储器1430可以存储由电子设备1401的至少一个部件(例如,处理器1420或传感器模块1476)使用的各种数据。各种数据可以包括例如软件(例如,程序1440)。并输入与其相关的命令的数据或输出数据。存储器1430可以包括易失性存储器1432或非易失性存储器1434。
程序1440可以作为软件存储在存储器1430中,并且可以包括例如OS1442、中间件1444或应用1446。
输入设备1450可以从电子设备1401的外部(例如,用户)接收要由电子设备1401的其它部件(例如,处理器1420)使用的命令或数据。输入设备1450可以包括例如麦克风,鼠标或键盘。
声音输出设备1455可以将声音信号输出到电子设备1401的外部。声音输出设备1455可以包括例如扬声器或接收器。扬声器可以用于一般目的,诸如播放多媒体或播放记录,并且接收器可以用于来电。根据实施例,接收器可以被实现为与扬声器分开或作为扬声器的一部分。
显示设备1460可以在视觉上向电子设备1401的外部(例如,用户)提供信息。显示设备1460可以包括例如显示器、全息设备或投影仪以及控制显示器、全息设备和投影仪中的对应一个的控制电路。根据实施例,显示设备1460可以包括适于检测触摸的触摸电路,或者适于测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块1470可以将声音转换为电信号,反之亦然。根据实施例,音频模块1470可以经由输入设备1450获得声音,或者经由声音输出设备1455或直接(例如,有线地)或无线地与电子设备1401耦合的外部电子设备(例如,外部电子设备1402)的耳机输出声音。
传感器模块1476可以检测电子设备1401的操作状态(例如,功率或温度)或电子设备1401外部的环境状态(例如,用户的状态),然后生成与检测到的状态对应的电信号或者数据值。根据实施例,传感器模块1476可以包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁传感器、加速度传感器、抓握传感器、接近传感器、颜色传感器、IR传感器、生物传感器、温度传感器、湿度传感器或照度传感器。
接口1477可以支持用于直接(例如,有线地)或无线地与外部电子设备(例如,外部电子设备1402)耦合的电子设备1401的一个或多个指定协议。根据实施例,接口1477可以包括例如高清多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端子1478可以包括连接器,电子设备1401可以通过该连接器与外部电子设备(例如,外部电子设备1402)物理连接。根据实施例,连接端子1478可以包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块1479可以将电信号转换成机械刺激(例如,振动或移动)或电刺激,这可以由用户经由他的触感或动觉感觉识别。根据实施例,触觉模块1479可以包括例如马达、压电元件或电刺激器。
相机模块1480可以捕获静止图像或移动图像。根据实施例,相机模块1480可以包括一个或多个透镜、图像传感器、ISP或闪光灯。
电力管理模块1488可以管理供给电子设备1401的电力。根据一个实施例,电力管理模块1488可以被实现为例如电力管理集成电路(PMIC)的至少一部分。
电池1489可以向电子设备1401的至少一个部件供电。根据实施例,电池1489可以包括例如不可再充电的主电池、可再充电的二次电池,或者燃料电池。
通信模块1490可以支持在电子设备1401和外部电子设备(例如,外部电子设备1402、外部电子设备1404或服务器1408)之间建立直接(例如,有线)通信信道或无线通信信道,以及经由建立的通信信道执行通信。通信模块1490可以包括可以独立于处理器1420(例如,AP)操作的一个或多个CP,并且支持直接(例如,有线)通信或无线通信。根据实施例,通信模块1490可以包括无线通信模块1492(例如,蜂窝通信模块、短程无线通信模块或全球导航卫星***(GNSS)通信模块)或有线通信模块1494(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的对应的一个可以经由第一网络1498(例如,短距离通信网络、诸如蓝牙TM、无线保真(Wi-Fi)直接或红外数据协会(IrDA))或第二网络1499(例如,远程通信网络,诸如蜂窝网络、互联网或计算机网络(例如,LAN或广域网(WAN)))与外部电子设备通信。这些各种类型的通信模块可以被实现为单个部件(例如,单个芯片),或者可以被实现为彼此分开的多个部件(例如,多个芯片)。无线通信模块1492可以使用存储在用户标识模块1496中的订户信息(例如,国际移动订户身份(IMSI))来识别和认证通信网络(诸如第一网络1498或第二网络1499)中的电子设备1401。
天线模块1497可以向电子设备1401的外部(例如,外部电子设备)发送信号或从其接收信号或电力。根据实施例,天线模块1497可以包括一个或多个天线,并且,由此,例如,可以通过通信模块1490(例如,无线通信模块1492)来选择适于在通信网络(例如,第一网络1498或第二网络1499)中使用的通信方案的至少一个天线。然后,可以经由所选择的至少一个天线在通信模块1490和外部电子设备之间发送或接收信号或电力。
上述部件中的至少一些可以相互耦合并且经由外设间通信方案(例如,总线、通用输入和输出(GPIO)、串行***接口(SPI)或移动工业处理器接口(MIPI))在它们之间传送信号(例如,命令或数据)。
根据实施例,可以经由与第二网络1499耦合的服务器1408在电子设备1401和外部电子设备1404之间发送或接收命令或数据。电子设备1402和1404中的每一个可以是与电子设备1401相同类型或不同类型的设备。根据实施例,可以在外部电子设备1402、1404或1408中的一个或多个处执行要在电子设备1401处执行的操作中的全部或一些。例如,如果电子设备1401应当自动地执行功能或服务,或者响应于来自用户或另一个设备的请求而执行功能或服务,那么代替执行这些功能或服务或作为其附加,电子设备1401还可以请求一个或多个外部电子设备执行功能或服务的至少一部分。接收请求的一个或多个外部电子设备可以执行所请求的功能或服务的至少一部分,或者与请求相关的附加功能或附加服务,并且将执行的结果传送到电子设备1401。电子设备1401可以在对结果进行或不进行进一步处理的情况下提供结果,作为对请求的回复的至少一部分。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
根据各种实施例的电子设备可以是各种类型的电子设备之一。电子设备可以包括例如便携式通信设备(例如,智能电话)、计算机设备、便携式多媒体设备、便携式医疗设备、相机、可穿戴设备或家用电器。根据本公开的实施例,电子设备不限于上述那些。
应当认识到的是,本公开的各种实施例和其中使用的术语不旨在将本文阐述的技术特征限定到特定的实施例,并且包括针对对应实施例的各种改变、等同物或替换。关于附图的描述,类似的标号可以用于表示类似或相关的元件。应当理解的是,与项对应的单数形式的名词可以包括一个或多个事物,除非相关上下文另有明确指示。如本文所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”、“A、B或C中的至少一个”之类的短语中的每一个可以包括在对应的一个短语中一起列举的项的所有可能组合。如本文所使用的,诸如“第一”和“第二”之类的术语可以用于简单地将对应的部件与另一个区分,并且在其它方面不限制部件(例如,重要性或次序)。应当理解的是,如果有或没有术语“可操作地”或“通信地”提到元件(例如,第一元件)“与......耦合”、“耦合到”,“与......连接”或“连接到”另一个元件(例如,第二元件),那么这意味着该元件可以直接(例如,有线地)、无线地或经由第三元件与另一个元件耦合。
如本文所使用的,术语“模块”可以包括以硬件、软件或固件实现的单元,并且可以可互换地与其它术语一起使用,例如,“逻辑”、“逻辑块”、“部分”或“电路”。模块可以是适于执行一个或多个功能的单个集成部件或者最小单元或其部分。例如,根据实施例,模块可以以专用集成电路(ASIC)的形式实现。
如本文所阐述的各种实施例可以被实现为软件(例如,程序1440),其包括存储在机器(例如,电子设备1401)可读的存储介质(例如,内部存储器1436或外部存储器1438)中的一个或多个指令。例如,机器(例如,电子设备1401)的处理器(例如,处理器1420)可以调用存储在存储介质中的一个或多个指令中的至少一个,并且在处理器的控制下使用或不使用一个或多个其它部件的情况下执行它。这允许机器***作以根据所调用的至少一个指令执行至少一个功能。一个或多个指令可以包括由编译器生成的代码或可由解释器执行的代码。机器可读存储介质可以以非瞬态存储介质的形式提供。其中,术语“非瞬态”仅仅意味着存储介质是有形设备,并且不包括信号(例如,电磁波),但是这个术语不区分数据半永久性存储在存储介质中的情况与数据临时存储在存储介质中的情况。
根据实施例,可以包括根据本公开的各种实施例的方法并将其在计算机程序产品中提供。计算机程序产品可以作为卖方和买方之间的产品进行交易。计算机程序产品可以以机器可读存储介质(例如,光盘只读存储器(CD-ROM))的形式分发,或者经由应用商店(例如,Play StoreTM)或两个用户设备(例如,智能电话)之间在线分发(例如,下载或上传)。如果在线分发,那么计算机程序产品的至少部分可以临时生成或至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或中继服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可以包括单个实体或多个实体。根据各种实施例,可以省略一个或多个上述组件,或者可以添加一个或多个其他部件。可替代地或附加地,可以将多个部件(例如,模块或程序)集成到单个部件中。在这种情况下,根据各种实施例,集成部件仍然可以以与在集成之前由多个部件中的对应一个部件执行的相同或相似的方式执行多个部件中的每个部件的一个或多个功能。根据各种实施例,由模块、程序或另一个部件执行的操作可以顺序地、并行地、重复地或启发式地执行,或者操作中的一个或多个可以以不同的次序执行或省略,或者可以添加一个或多个其它操作。
已经参考本发明的各种实施例示出和描述了本公开,但是本领域技术人员将理解的是,在不脱离由所附权利要求及其等同物限定的本公开内容的精神和范围的情况下,可以在形式和细节上进行各种改变。

Claims (20)

1.一种电子设备,包括:
壳体;
显示器,通过所述壳体的一部分暴露;
一个或多个处理器,与所述显示器可操作地连接;以及
存储器,与所述一个或多个处理器功能性地连接,
其中所述存储器被配置为存储包括用户界面的应用,以及
其中所述存储器存储指令,所述指令在被执行时将所述一个或多个处理器配置为:
在所述显示器的第一区域中显示所述用户界面,
通过所述显示器从所述显示器的所述第一区域的外部接收用户输入,
确定所述用户输入是由手指还是电子笔提供,
当所述用户输入由手指提供时,确定所述用户输入是否在第二区域中,所述第二区域与所述显示器的第一区域相邻并且围绕所述第一区域,
当所述用户输入由电子笔提供时,确定所述用户输入是否在第三区域中,所述第三区域与所述显示器的第一区域相邻、围绕所述第一区域并且位于所述第二区域内,以及
当所述用户输入在所述第二区域或所述第三区域中时,使应用能够使用所述用户输入,就像所述用户输入在所述第一区域中提供一样。
2.如权利要求1所述的电子设备,其中所述壳体具有接纳所述电子笔的凹陷。
3.如权利要求1所述的电子设备,其中所述第三区域的面积小于所述第一区域的面积。
4.如权利要求1所述的电子设备,
其中所述电子设备能够可操作地连接到外部指向设备,以及
其中所述指令在被执行时还将所述一个或多个处理器配置为:
确定所述用户输入是由手指、电子笔还是外部指向设备提供的,
当所述用户输入由手指提供时,确定所述用户输入是否在所述显示器的所述第二区域中,
当所述用户输入由电子笔提供时,确定所述用户输入是否在所述显示器的所述第三区域中,
当所述用户输入由外部指向设备提供时,确定所述用户输入是否在第四区域中,所述第四区域与所述显示器的所述第一区域相邻、围绕所述第一区域并且位于所述第三区域内,以及
当所述用户输入在所述第二区域、所述第三区域或所述第四区域中时,使应用能够使用所述用户输入,就像所述用户输入在所述第一区域中提供一样。
5.如权利要求4所述的电子设备,其中所述外部指向设备包括鼠标。
6.如权利要求1所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为:
确定用于通过所述显示器显示所述用户界面的所述第一区域,以及
确定与所述第一区域对应的第二区域和第三区域,并在所述显示器的所述第一区域中显示所述用户界面。
7.一种操作电子设备的方法,所述方法包括:
在所述电子设备的显示器的第一区域中显示应用的用户界面;
通过所述显示器在所述显示器的第一区域外部接收用户输入;
确定所述用户输入是由手指还是电子笔提供;
当所述用户输入由手指提供时,确定所述用户界面是否在第二区域中,所述第二区域与所述显示器的第一区域相邻并且围绕所述第一区域;
当所述用户输入由电子笔提供时,确定所述用户输入是否在第三区域中,所述第三区域与所述显示器的所述第一区域相邻、围绕所述第一区域并且位于所述第二区域内;以及
当所述用户输入在所述第二区域或所述第三区域中时,使应用能够使用所述用户输入,就像所述用户输入在所述第一区域中一样。
8.如权利要求7所述的方法,其中所述第三区域的面积小于所述第一区域的面积。
9.如权利要求7所述的方法,还包括:
确定所述用户输入是由手指、电子笔还是外部指向设备提供;
当所述用户输入由手指提供时,确定所述用户输入是否在所述显示器的第二区域中;
当所述用户输入由电子笔提供时,确定所述用户输入是否在所述显示器的第三区域中;
当所述用户输入由外部指向设备提供时,确定所述用户输入是否在第四区域中,所述第四区域与所述显示器的第一区域相邻、围绕所述第一区域并且位于所述第三区域内;以及
当所述用户输入在所述第二区域、所述第三区域或所述第四区域中时,使应用能够使用所述用户输入,就像所述用户输入在所述第一区域中提供一样。
10.如权利要求9所述的方法,其中所述外部指向设备包括鼠标。
11.如权利要求7所述的方法,其中显示所述用户界面包括:
确定用于通过所述显示器显示所述用户界面的所述第一区域;
确定与所述第一区域对应的第二区域和第三区域;以及
在所述显示器的第一区域中显示所述用户界面。
12.一种电子设备,包括:
显示器;
一个或多个处理器;以及
存储器,
其中所述存储器存储指令,所述指令在被执行时将所述一个或多个处理器配置为:
在所述显示器的至少一部分上显示应用的用户界面,
通过所述显示器,在所述显示器上显示所述用户界面的部分之外接收用户输入,
识别已提供用户输入的输入对象,
确定所述用户输入是否包括在所述显示器上显示的所述用户界面的输入检测区域中并且与提供所述用户输入的输入对象对应,以及
当所述用户输入包括在所述输入检测区域中时,控制所述应用使用所述用户输入。
13.如权利要求12所述的电子设备,其中所述输入对象包括用户的身体、电子笔或外部指向设备中的一个或多个。
14.如权利要求12所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为:
确定用于通过所述显示器显示所述用户界面的第一区域,以及
创建具有不同尺寸并且与所述第一区域对应的多个输入检测区域。
15.如权利要求14所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为:
从具有不同尺寸并且与用于显示所述用户界面的区域对应的多个输入检测区域中选择与所述输入对象对应的任何一个输入检测区域,以及
将所选择的所述输入检测区域设置为所述显示器上显示的所述用户界面的输入检测区域。
16.如权利要求12所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为当多个应用的用户界面在所述显示器上彼此重叠时更新所述显示器上显示的所述用户界面的所述输入检测区域中与另一个用户界面重叠的至少一部分的尺寸。
17.如权利要求12所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为:
确定所述电子设备是否已被设置为外部输入设备的输入设备,以及
当所述电子设备已被设置为外部设备的输入设备时,设置显示在所述显示器上的用户界面的输入检测区域,而不管提供所述用户输入的所述输入对象。
18.如权利要求12所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为:
当提供所述用户输入的所述输入对象是用户身体的一部分时,将所述显示器上显示的所述用户界面的所述输入检测区域设置为第二区域,
当提供所述用户输入的所述输入对象是用户身体的一部分时,将所述显示器上显示的所述用户界面的所述输入检测区域设置为包括在所述第二区域中的第三区域,以及
当提供所述用户输入的所述输入对象是用户身体的一部分时,将所述显示器上显示的所述用户界面的所述输入检测区域设置为包括在所述第三区域中的第四区域。
19.如权利要求12所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为,当在检测到所述用户输入的区域中显示多个用户界面时,基于所述用户界面的重叠次序来确定用于处理所述用户输入的用户界面。
20.如权利要求12所述的电子设备,其中所述指令在被执行时还将所述一个或多个处理器配置为,当所述用户输入包括在所述输入检测区域中时,基于所述输入检测区域中的所述用户输入来改变所述显示器的至少一部分上显示的图标。
CN201810965059.2A 2017-08-23 2018-08-23 用于确定与用户界面对应的输入检测区域的方法及其电子设备 Active CN109426392B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0106453 2017-08-23
KR1020170106453A KR102411283B1 (ko) 2017-08-23 2017-08-23 사용자 인터페이스의 입력 검출 영역을 설정하기 위한 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
CN109426392A true CN109426392A (zh) 2019-03-05
CN109426392B CN109426392B (zh) 2024-02-27

Family

ID=63371555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810965059.2A Active CN109426392B (zh) 2017-08-23 2018-08-23 用于确定与用户界面对应的输入检测区域的方法及其电子设备

Country Status (6)

Country Link
US (1) US20190065034A1 (zh)
EP (1) EP3447627B1 (zh)
KR (1) KR102411283B1 (zh)
CN (1) CN109426392B (zh)
AU (1) AU2018321518B2 (zh)
WO (1) WO2019039859A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7244242B2 (ja) * 2018-09-26 2023-03-22 シュナイダーエレクトリックホールディングス株式会社 操作入力制御装置
US11481111B2 (en) 2020-04-24 2022-10-25 Microsoft Technology Licensing, Llc Utilization of predictive gesture analysis for preloading and executing application components
CN116450017B (zh) * 2023-04-25 2024-01-26 北京优酷科技有限公司 显示对象的显示方法、装置、电子设备及介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010016858A1 (en) * 1998-03-16 2001-08-23 Cary Lee Bates Expanded pointer focus for hypertext lnks
GB201101133D0 (en) * 2011-01-21 2011-03-09 Inq Entpr Ltd Apparatus and method for improved user interaction in electronic devices
US20130120278A1 (en) * 2008-11-11 2013-05-16 Christian T. Cantrell Biometric Adjustments for Touchscreens
US20130285922A1 (en) * 2012-04-25 2013-10-31 Motorola Mobility, Inc. Systems and Methods for Managing the Display of Content on an Electronic Device
US20150220205A1 (en) * 2014-02-06 2015-08-06 Samsung Electronics Co., Ltd. User input method and apparatus in electronic device
US20150301740A1 (en) * 2012-11-27 2015-10-22 Thomson Licensing Adaptive virtual keyboard
US20150370779A1 (en) * 2014-06-24 2015-12-24 Apple Inc. Character recognition on a computing device
CN105446611A (zh) * 2014-09-19 2016-03-30 三星电子株式会社 用于对触摸输入进行处理的装置及其方法
US20160291857A1 (en) * 2015-03-31 2016-10-06 Samsung Electronics Co., Ltd. Method for providing user interface and electronic device therefor
CN106062686A (zh) * 2014-03-05 2016-10-26 三星电子株式会社 用于检测电子设备中的用户输入的方法和装置
US20160349970A1 (en) * 2015-06-01 2016-12-01 Apple Inc. Zoom enhancements to facilitate the use of touch screen devices
US20170075457A1 (en) * 2014-05-27 2017-03-16 Wacom Co., Ltd Indicator detecting device and signal processing method thereof
CN106575138A (zh) * 2014-08-14 2017-04-19 三星电子株式会社 提供用户界面的电子设备和方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040212601A1 (en) * 2003-04-24 2004-10-28 Anthony Cake Method and apparatus for improving accuracy of touch screen input devices
KR20100043437A (ko) * 2008-10-20 2010-04-29 삼성전자주식회사 터치 스크린을 구비한 컴퓨팅 기기의 입력 판단 장치 및 방법
JP5355515B2 (ja) 2010-05-06 2013-11-27 株式会社村田製作所 タッチパネル、ならびにタッチ式入力装置およびその制御方法
US9146655B2 (en) * 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9632648B2 (en) * 2012-07-06 2017-04-25 Lg Electronics Inc. Mobile terminal, image display device and user interface provision method using the same
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
KR20140139247A (ko) * 2013-05-27 2014-12-05 삼성전자주식회사 오브젝트 운용 방법 및 그 전자 장치
US8823399B1 (en) * 2013-10-07 2014-09-02 Cypress Semiconductor Corporation Detect and differentiate touches from different size conductive objects on a capacitive button
JP2015146090A (ja) 2014-02-03 2015-08-13 コニカミノルタ株式会社 手書き入力装置及び入力制御プログラム
JP6559403B2 (ja) 2014-05-19 2019-08-14 シャープ株式会社 コンテンツ表示装置、コンテンツ表示方法及びプログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010016858A1 (en) * 1998-03-16 2001-08-23 Cary Lee Bates Expanded pointer focus for hypertext lnks
US20130120278A1 (en) * 2008-11-11 2013-05-16 Christian T. Cantrell Biometric Adjustments for Touchscreens
GB201101133D0 (en) * 2011-01-21 2011-03-09 Inq Entpr Ltd Apparatus and method for improved user interaction in electronic devices
US20130285922A1 (en) * 2012-04-25 2013-10-31 Motorola Mobility, Inc. Systems and Methods for Managing the Display of Content on an Electronic Device
US20150301740A1 (en) * 2012-11-27 2015-10-22 Thomson Licensing Adaptive virtual keyboard
US20150220205A1 (en) * 2014-02-06 2015-08-06 Samsung Electronics Co., Ltd. User input method and apparatus in electronic device
CN106062686A (zh) * 2014-03-05 2016-10-26 三星电子株式会社 用于检测电子设备中的用户输入的方法和装置
US20170075457A1 (en) * 2014-05-27 2017-03-16 Wacom Co., Ltd Indicator detecting device and signal processing method thereof
US20150370779A1 (en) * 2014-06-24 2015-12-24 Apple Inc. Character recognition on a computing device
CN106575138A (zh) * 2014-08-14 2017-04-19 三星电子株式会社 提供用户界面的电子设备和方法
CN105446611A (zh) * 2014-09-19 2016-03-30 三星电子株式会社 用于对触摸输入进行处理的装置及其方法
US20160291857A1 (en) * 2015-03-31 2016-10-06 Samsung Electronics Co., Ltd. Method for providing user interface and electronic device therefor
US20160349970A1 (en) * 2015-06-01 2016-12-01 Apple Inc. Zoom enhancements to facilitate the use of touch screen devices

Also Published As

Publication number Publication date
KR102411283B1 (ko) 2022-06-21
US20190065034A1 (en) 2019-02-28
EP3447627B1 (en) 2024-03-20
WO2019039859A1 (en) 2019-02-28
AU2018321518A1 (en) 2020-02-27
EP3447627A1 (en) 2019-02-27
AU2018321518B2 (en) 2021-01-21
CN109426392B (zh) 2024-02-27
KR20190021568A (ko) 2019-03-06

Similar Documents

Publication Publication Date Title
US11659271B2 (en) Electronic device to control screen property based on distance between pen input device and electronic device and method of controlling same
US11036954B2 (en) Electronic device and fingerprint authentication interface method thereof
US20200125144A1 (en) Foldable electronic device for controlling user interface and operating method thereof
EP4156705A1 (en) Electronic device including pop-up and rotational camera
US11392225B2 (en) Electronic device and stylus pen charging method using same
CN109426392A (zh) 用于确定与用户界面对应的输入检测区域的方法及其电子设备
US20210132728A1 (en) Electronic device including sensor for detecting external input
US20220303379A1 (en) Electronic device including flexible display, and operating method thereof
US10998634B2 (en) Electronic device including antenna apparatus using photo-conductive material and antenna control method
US11307618B2 (en) Electronic device for displaying information regarding stylus pen and method thereof
US20200366328A1 (en) Electronic device in which tray for loading sim card is inserted, and control method therefor
US20210174766A1 (en) Electronic device for controlling divided screen
EP4177727A1 (en) Electronic device, and method for processing writing input thereof
US11372498B2 (en) Electronic device for supporting user input and control method of electronic device
KR102493561B1 (ko) 전자 장치 및 이를 이용한 외부 장치의 연결을 제어하는 방법
CN113343709A (zh) 意图识别模型的训练方法、意图识别方法、装置及设备
CN112766389A (zh) 图像分类方法、图像分类模型的训练方法、装置和设备
KR20210057461A (ko) Sim 카드의 초기화 방법 및 장치
US12020498B2 (en) Device and method for providing feedback for user input in electronic device
US11574425B2 (en) Method for providing drawing effects by displaying a drawing output corresponding to a drawing input using a plurality of objects, and electronic device supporting the same
KR20210121548A (ko) 설정된 위치로 사용자 입력을 유도하는 가이드 정보를 디스플레이하는 전자 장치 및 전자 장치의 동작 방법
KR20190088352A (ko) 제한 영역을 포함하는 디스플레이를 이용하여 동작을 제어하기 위한 전자 장치 및 그 동작 방법
KR20210045154A (ko) 전자 장치 및 이를 이용한 키 입력에 따른 전자 장치의 키 운용 방법
KR20200053251A (ko) 식별한 커버들의 종류에 기반하여 동작을 수행하는 전자 장치 및 그의 동작 방법
KR20190029051A (ko) 터치 입력의 방향을 감지하는 전자장치 및 동작 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant