WO2023216012A1 - 基于处理器的手势处理方法、装置及设备 - Google Patents

基于处理器的手势处理方法、装置及设备 Download PDF

Info

Publication number
WO2023216012A1
WO2023216012A1 PCT/CN2022/091360 CN2022091360W WO2023216012A1 WO 2023216012 A1 WO2023216012 A1 WO 2023216012A1 CN 2022091360 W CN2022091360 W CN 2022091360W WO 2023216012 A1 WO2023216012 A1 WO 2023216012A1
Authority
WO
WIPO (PCT)
Prior art keywords
interface
touch
task
touch operation
display screen
Prior art date
Application number
PCT/CN2022/091360
Other languages
English (en)
French (fr)
Inventor
王嘉浩
Original Assignee
广州视源电子科技股份有限公司
广州视睿电子科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 广州视源电子科技股份有限公司, 广州视睿电子科技有限公司 filed Critical 广州视源电子科技股份有限公司
Priority to CN202280006545.6A priority Critical patent/CN117396834A/zh
Priority to PCT/CN2022/091360 priority patent/WO2023216012A1/zh
Publication of WO2023216012A1 publication Critical patent/WO2023216012A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating

Definitions

  • this application provides a processor-based gesture processing method, applied to an electronic device, where the electronic device is deployed with at least two launchers, and the launchers are used to launch desktop applications; the method includes:
  • the gesture corresponding to the preset launcher is determined according to the mapping relationship between the preset launcher and the gesture recognition mode.
  • Recognition mode wherein the gesture recognition mode is used to indicate gesture recognition information.
  • the touch corresponding to the touch operation is determined according to the gesture recognition mode. instruction.
  • the electronic device in response to the user's touch operation, determine the touch instruction corresponding to the touch operation according to the gesture recognition mode, including:
  • the touch operation represents an operation of sliding a touch point in a preset area to a display screen outside the preset area, determine the display type of the display screen;
  • the touch instruction corresponding to the touch operation is determined according to the gesture recognition mode and the display type of the display screen.
  • determining the touch instruction corresponding to the touch operation according to the gesture recognition mode and the display type of the display screen includes:
  • the touch instruction corresponding to the touch operation is determined according to the gesture recognition mode and the processing logic information corresponding to the display type.
  • determine the input event consumer corresponding to the display type of the display screen including:
  • the input event consumer corresponding to the display screen is determined to be a full-screen interface input event consumer; wherein the full-screen interface input event consumer represents processing logic information corresponding to the full-screen interface ;
  • the input event consumer corresponding to the display screen is determined to be a vertical screen interface input event consumer; wherein, the vertical screen interface input event consumer representation corresponds to the vertical screen interface processing logic information.
  • determining the touch instruction corresponding to the touch operation according to the gesture recognition mode and the processing logic information corresponding to the display type including:
  • a touch instruction corresponding to the touch operation is generated.
  • the method also includes:
  • processing the application program in the task interface includes:
  • a differentiator is generated, and the current interface of the display screen is used as the task thumbnail source; wherein the differentiator represents the scaling ratio of the current interface And the animation change effect of transparency and transparency;
  • the current interface is displayed according to the animation change effect of the differentiator.
  • the multi-task overview interface includes at least one task card group; wherein the task card group includes an application icon and a task thumbnail source corresponding to the application icon.
  • the task card group in the multi-task overview interface is cleared, the clearing prompt information is displayed, and the interface of the display screen is returned after a preset time period; wherein, The above-mentioned clearing prompt information disappears with a transparency gradient within a preset time period.
  • the method also includes:
  • a first determining unit configured to determine the gesture recognition mode corresponding to the preset launcher if it is determined that the currently running desktop application is a preset launcher among the at least two launchers; wherein, the gesture recognition Pattern is used to indicate gesture recognition information;
  • a second determination unit configured to respond to the user's touch operation and determine the touch instruction corresponding to the touch operation according to the gesture recognition mode
  • An entry unit configured to enter a task interface corresponding to the touch instruction according to the touch instruction; wherein the task interface is used to display applications running in the background in the electronic device;
  • a processing unit configured to process an application program in the task interface in response to a click operation on the task interface.
  • the first determining unit is specifically used to:
  • the electronic device supports screen rotation processing, a preset area is provided on the display screen of the electronic device; the second determination unit is specifically used to:
  • the second determination unit includes:
  • a first determination module configured to respond to a user's touch operation, wherein the touch operation represents an operation of sliding a touch point in a preset area to a display screen outside the preset area, and determine the display of the display screen. type;
  • the second determination module is configured to determine the touch instruction corresponding to the touch operation according to the gesture recognition mode and the display type of the display screen.
  • the second determination module includes:
  • the first determination sub-module is used to determine the input event consumer corresponding to the display type of the display screen; wherein the input event consumer represents the processing logic information corresponding to the display type;
  • the second determination sub-module is used to determine the touch instruction corresponding to the touch operation according to the gesture recognition mode and the processing logic information corresponding to the display type.
  • the first determination sub-module includes:
  • a generating submodule configured to generate a touch instruction corresponding to the touch operation if it is determined that the last input event is the execution of the current touch operation.
  • Return submodule used to return to the interface before the touch operation if it is determined that the last input event is to cancel the current touch operation.
  • processing unit is specifically used for:
  • the device also includes:
  • a display unit configured to display the current interface according to the animation change effect of the differentiator in response to a touch operation.
  • the multi-task overview interface also includes a one-click clear button; the device also includes:
  • the device also includes:
  • the present application provides an electronic device, including a memory and a processor.
  • the memory stores a computer program that can run on the processor.
  • the processor executes the computer program, the first aspect is implemented. the method described.
  • the present application provides a computer-readable storage medium in which computer-executable instructions are stored, and when executed by a processor, the computer-executable instructions are used to implement the method described in the first aspect.
  • the gesture recognition mode corresponding to the preset launcher can be determined, and then the touch command corresponding to the touch operation is determined based on the gesture recognition mode, and the task interface corresponding to the touch command is entered according to the touch command, and then the user faces the task on the task interface Interface applications for multitasking. Therefore, the gesture recognition mode corresponding to each launcher is developed on the electronic device, and then multi-tasking can be performed according to the gesture recognition mode corresponding to the launcher under each running launcher, so that the electronic device can be compatible with a variety of launchers and solve the problem
  • the electronic device supports multi-task management launcher type rather than a single technical issue.
  • Figure 1 is a schematic flowchart of a processor-based gesture processing method provided by an embodiment of the present application
  • Figure 5 is a schematic structural diagram of another processor-based gesture processing device provided by an embodiment of the present application.
  • Figure 7 is a block diagram of an electronic device provided by an embodiment of the present application.
  • Figure 1 is a schematic flow chart of a processor-based gesture processing method provided by an embodiment of the present application. As shown in Figure 1, it is applied to an electronic device. The electronic device is deployed with at least two launchers, and the launcher is used to launch a desktop application; The method includes:
  • the gesture recognition mode is used to indicate gesture recognition information.
  • the electronic device is deployed with at least two launchers, and the launchers are used to launch desktop applications.
  • the electronic device is an Android system device
  • one launcher is the native launcher of the electronic device itself
  • the other launcher is a launcher downloaded and installed by the user in addition to the native launcher, that is, a third-party launcher.
  • the device can deploy multiple third-party launchers.
  • the default launcher refers to the launcher set by the user to be turned on by default when the computer is turned on. When the electronic device is running, it is necessary to first determine whether the currently running desktop application is the default launcher among at least two launchers.
  • the desktop application corresponding to the default launcher will be entered after booting.
  • the user does not set a default launcher in the system settings, there will be a pop-up selection box every time the computer is turned on. The user can select a desktop application to start in the pop-up selection box.
  • the package manager of the Android system is used to determine whether the launcher used by the current user is the default launcher. If it is determined that the launcher used by the current user is the native launcher of the Android system, it will jump directly.
  • the launcher used by the current user is the default launcher, that is, the launcher used by the current user is not the native launcher of the Android system, then determine the corresponding launcher of the default launcher. Gesture recognition mode.
  • the touch operation includes touch information about the movement of the user's finger.
  • the touch information includes the speed value, acceleration value, coordinate value and touch dwell time of the touch point, etc.
  • the electronic device is provided with a display screen, and a preset display is provided on the display screen.
  • the preset area can be a rectangular area, etc.
  • the preset area can be located at the bottom of the display screen, and there is no limit to this.
  • the electronic device can calculate the last input event of the display screen based on the touch command and combined with the state global variables of the system interface recorded in the Android system.
  • the entry and touch command will be triggered.
  • the state global variable is used to store the state of the interface displayed on the display screen.
  • the state includes: sliding down from the top of the display screen, the display screen will display a menu about commonly used setting items.
  • the electronic device In the state of displaying the menu, the electronic device will The touch command enters the interface of the display screen corresponding to the touch command; or, if the menu is not displayed, the electronic device will enter the multi-task overview interface corresponding to the touch command according to the touch command; or, if the menu is not displayed, the electronic device In this case, due to the short touch dwell time of the touch operation, the electronic device will enter the interface before the touch operation according to the touch command.
  • the task interface includes a multi-task overview interface, an interface for entering the display screen, or an interface before entering a touch operation, etc.
  • Figure 2 is a schematic scene diagram of a multi-task overview interface provided by an embodiment of the present application.
  • the multi-task overview interface includes a top status bar, a preset area at the bottom, a one-click clear button, and at least one task card.
  • the task card group includes application icons and task thumbnail sources corresponding to the application icons. Define the callback event method of the one-click clear button. If a trigger operation is received for the one-click clear button, in response to the trigger operation, all background running task card groups displayed in the multi-task overview interface will automatically slide up and disappear. When clearing the button with one click, it will pause and display the "No recent content" prompt for a preset time period (for example, 1s) and then return to the display interface with a transparency gradient animation.
  • a preset time period for example, 1s
  • the gesture recognition mode corresponding to the default launcher is determined; wherein the gesture recognition mode is used to indicate gesture recognition information .
  • the touch instruction corresponding to the touch operation is determined according to the gesture recognition mode.
  • the application program in the task interface is processed.
  • the gesture recognition mode corresponding to the preset launcher can be determined, and then the touch command corresponding to the touch operation is determined based on the gesture recognition mode, and the task interface corresponding to the touch command is entered according to the touch command, and then the user faces the task on the task interface Interface applications for multitasking. Therefore, the gesture recognition mode corresponding to each launcher is developed on the electronic device, and then multi-tasking can be performed according to the gesture recognition mode corresponding to the launcher under each running launcher, so that the electronic device can be compatible with a variety of launchers and solve the problem
  • the electronic device supports multi-task management launcher type rather than a single technical issue.
  • Figure 3 is a schematic flow chart of another processor-based gesture processing method provided by an embodiment of the present application. As shown in Figure 3, it is applied to an electronic device. The electronic device is deployed with at least two launchers, and the launcher is used to launch a desktop application. ; The method includes:
  • the gesture recognition mode is used to indicate gesture recognition information.
  • this step can refer to step 101 in Figure 1 and will not be described again.
  • step 202 includes two implementation methods:
  • step 202 If the electronic device supports screen rotation processing, a preset area is set on the display screen of the electronic device; step 202 includes: responding to the user's touch operation, where the touch operation represents operating in the preset area. The touch point slides to the display screen outside the preset area, and the touch command corresponding to the touch operation is determined according to the gesture recognition mode.
  • step 202 includes: responding to the user's touch operation, where the touch operation represents a touch point operating in the preset area sliding to a display outside the preset area.
  • the display type of the display screen is determined; according to the gesture recognition mode and the display type of the display screen, the touch command corresponding to the touch operation is determined.
  • determining the input event consumer corresponding to the display type of the display screen includes:
  • the input event consumer corresponding to the display screen is determined to be a full-screen interface input event consumer; where the full-screen interface input event consumer represents the processing logic information corresponding to the full-screen interface; if it is determined that the display type If the display type of the screen is a vertical screen interface, then the input event consumer corresponding to the display screen is determined to be a vertical screen interface input event consumer; wherein, the vertical screen interface input event consumer represents the processing logic information corresponding to the vertical screen interface.
  • the interface before the touch operation is returned.
  • the touch operation includes touch information about the movement of the user's finger.
  • the touch information includes the speed value, acceleration value, coordinate value and touch dwell time of the touch point, etc.
  • the electronic device is provided with a display screen, and a preset display is provided on the display screen.
  • the default area can be a rectangular area located at the bottom of the display screen.
  • the electronic device supports screen rotation processing and receives a touch operation from the user, where the touch operation represents an operation of sliding a touch point operating in a preset area to a display screen outside the preset area, then The touch instruction corresponding to the touch operation is determined according to the gesture recognition mode.
  • the electronic device does not support screen rotation processing and receives a touch operation from the user, where the touch operation represents an operation of sliding a touch point operating in a preset area to a display screen outside the preset area
  • the received touch operation is passed to the touch interaction service (TouchInterActionService) of the native launcher through the preset system interface (SystemUI).
  • TouchInterActionService the touch interaction service
  • SystemUI preset system interface
  • screen rotation is not supported, and the device side is based on the Android window.
  • Mode implements the vertical screen display logic of the application interface. Due to the limitations of the native launcher, multi-tasking gesture processing cannot be performed on the application interface displayed in window mode. Therefore, the display type of the current foreground interface of the display screen is determined through the touch interaction service.
  • the display type includes full-screen display or vertical screen display, and an input event consumer corresponding to the display type of the display screen is determined, where the input event consumer represents processing logic information corresponding to the display type. Finally, the touch command corresponding to the touch operation is determined based on the gesture recognition mode and the processing logic information corresponding to the display type.
  • the input event consumer corresponding to the display screen is determined to be a full-screen interface input event consumer.
  • the full-screen interface input event consumer is modified based on the "non-native activity input event consumer" of the native launcher in the Android system.
  • the full-screen interface input event consumer represents the processing logic information corresponding to the full-screen interface.
  • the full-screen interface input Event consumers are used to handle touch operations in full-screen interfaces. If it is determined that the display type of the display screen is a vertical screen interface, then it is determined that the input event consumer corresponding to the display screen is a vertical screen interface input event consumer.
  • the vertical screen interface input event consumer is modified based on the "backup input event consumer" of the native launcher in the Android system.
  • the vertical screen interface input event consumer represents the processing logic information corresponding to the vertical screen interface.
  • the screen interface input event consumer is used to handle input events in portrait mode.
  • the last input event will be triggered, and the electronic device will process according to the processing corresponding to the display type.
  • Logical information to determine whether the status of the last input event of the touch operation on the display screen is that the user cancels the current gesture operation. If it is determined that the last input event is to cancel the current touch operation, return to the interface before the touch operation and end the entire process. If it is determined that the last input event is to perform the current touch operation, a touch instruction corresponding to the touch operation is generated.
  • this step can refer to step 103 in Figure 1 and will not be described again.
  • this step can refer to step 104 in Figure 1 and will not be described again.
  • the touch operation includes touch information, and the touch information includes the speed value, acceleration value, coordinate value and touch dwell time of the touch point. Based on the speed value, acceleration value, coordinate value and touch dwell time of the touch point, a differentiator is generated, and the current interface of the display screen is used as the task thumbnail source; where the differentiator represents both the scaling ratio and transparency of the current interface.
  • the animation change effect in response to touch operations, the current interface is displayed according to the animation change effect of the difference device.
  • the task interface includes a multi-task overview interface, an interface on a display screen, or an interface before a touch operation; the multi-task overview interface includes at least one task card group; wherein the task card group includes an application icon, and an application icon.
  • the corresponding task thumbnail source includes
  • the task interface includes a multi-task overview interface, a display screen interface, or an interface before touch operation, etc.
  • the multi-task overview interface includes at least one task card group
  • the task card group includes an application icon and a task thumbnail source corresponding to the application icon.
  • the layout size of multiple task card groups is calculated, and the preset application icon layout and the tasks corresponding to the application icons are obtained through system calculation.
  • the layout of the thumbnail source is relatively sized, with the application icon layout directly above the layout of the task thumbnail source, which is filled with the task usage snapshot.
  • the task overview interface will follow the gesture during the sliding process, only displaying the task thumbnail source of the currently running program and displaying the animation shrinking from outside to inside. effect.
  • the application icon of the current task and the one-click clear button will gradually be displayed in the form of an expansion animation, and the adjacent task card group will be displayed with transparency. Gradient mode is displayed gradually.
  • the multi-task overview interface also includes a one-click clear button; in response to the triggering operation of the one-click clear button, the task card group in the multi-task overview interface is cleared, a clearing prompt message is displayed, and after a preset time period Return to the display screen interface; where the clearing prompt information disappears with a transparency gradient within a preset time period.
  • the multi-tasking overview interface includes a one-click clear button.
  • the electronic device defines the callback event method of the one-click clear button. If a trigger operation is received for the one-click clear button, in response to the trigger operation, the task card group displayed in the multi-task overview interface will automatically slide up and disappear. When the button is cleared, the "No recent content" message is displayed for 1 second, and then the interface returns to the display screen with a transparency gradient animation.
  • the interface when the user clicks on a blank area of a non-task card group or swipes up from the preset area at the bottom, the interface will be triggered to return to the display screen with a transparency gradient.
  • the electronic device can also preview the background multitasking by sliding left and right in the multitasking card group area in the multitasking overview interface, and highlight the centered task card group, and click or pull down the specified task card to realize the background task. Switching, you can also switch background tasks by clicking or pulling down the specified task card.
  • the corresponding default launcher is determined according to the mapping relationship between the default launcher and the gesture recognition mode.
  • Gesture recognition mode wherein, gesture recognition mode is used to indicate gesture recognition information.
  • the touch instruction corresponding to the touch operation is determined according to the gesture recognition mode.
  • any application is displayed.
  • the touch operation includes touch information, and the touch information includes the speed value, acceleration value, coordinate value and touch dwell time of the touch point.
  • the multi-task overview interface also includes a one-click clear button; in response to the triggering operation of the one-click clear button, the task card group in the multi-task overview interface is cleared, a clearing prompt message is displayed, and the display returns after a preset time period screen interface; among them, the clearing prompt message disappears with a transparency gradient within a preset time period.
  • the multi-tasking overview interface In response to a click operation on a blank area outside the task card group in the multi-tasking overview interface, the multi-tasking overview interface returns to the display screen interface according to the preset transparency gradient method. Therefore, the gesture recognition mode corresponding to each launcher is developed on the electronic device, and then multi-tasking can be performed according to the gesture recognition mode corresponding to the launcher under each running launcher, so that the electronic device can be compatible with a variety of launchers and solve the problem
  • the electronic device supports multi-task management launcher type rather than a single technical issue.
  • Figure 4 is a schematic structural diagram of a processor-based gesture processing device provided by an embodiment of the present application. As shown in Figure 4, it is applied to an electronic device.
  • the electronic device is deployed with at least two launchers, and the launchers are used to launch desktop applications;
  • the device includes:
  • the first determining unit 31 is configured to determine the gesture recognition mode corresponding to the default launcher if it is determined that the currently running desktop application is a default launcher among at least two launchers; wherein the gesture recognition mode is used to indicate a gesture Identification information.
  • the second determination unit 32 is configured to respond to the user's touch operation and determine the touch instruction corresponding to the touch operation according to the gesture recognition mode.
  • the processing unit 34 is configured to process the application program in the task interface in response to a click operation on the task interface.
  • FIG. 5 is a schematic structural diagram of another processor-based gesture processing device provided by an embodiment of the present application. Based on the embodiment shown in Figure 4, as shown in Figure 5, the first determination unit 31 is specifically used for:
  • the touch instruction corresponding to the touch operation is determined according to the gesture recognition mode.
  • the first determination module 321 is configured to determine the display type of the display screen in response to the user's touch operation, where the touch operation represents an operation of sliding a touch point in a preset area to a display screen outside the preset area.
  • the first determination sub-module 3221 includes:
  • the fourth determination sub-module 32212 is used to determine that the input event consumer corresponding to the display screen is a vertical screen interface input event consumer if the display type of the display screen is determined to be a vertical screen interface; wherein, the vertical screen interface input event consumer represents Processing logic information corresponding to the vertical screen interface.
  • the generation sub-module 32222 is used to generate a touch instruction corresponding to the touch operation if it is determined that the last input event is to perform the current touch operation.
  • the device also includes:
  • Return submodule 32223 used to return to the interface before the touch operation if it is determined that the last input event is to cancel the current touch operation.
  • processing unit 34 is specifically used for:
  • any application is displayed.
  • the touch operation includes touch information
  • the touch information includes the speed value, acceleration value, coordinate value and touch dwell time of the touch point.
  • the device also includes:
  • the generation unit 41 is used to generate a differentiator based on the speed value, acceleration value, coordinate value and touch dwell time of the touch point, and use the current interface of the display screen as the task thumbnail source; wherein the differentiator represents the current interface Animated changes in scaling and transparency.
  • the display unit 42 is configured to display the current interface according to the animation change effect of the differentiator in response to the touch operation.
  • the task interface includes a multi-task overview interface, an interface on a display screen, or an interface before a touch operation.
  • the multi-task overview interface includes at least one task card group; wherein the task card group includes an application icon and a task thumbnail source corresponding to the application icon.
  • the multi-tasking overview interface also includes a one-click clear button; the device also includes:
  • the clearing unit 43 is configured to clear the task card group in the multi-task overview interface in response to the triggering operation of the one-click clear button, display the clearing prompt information, and return to the display screen interface after a preset time period; wherein , the clearing prompt information disappears with a transparency gradient within the preset time period.
  • the device also includes:
  • the device of this embodiment can execute the technical solution in the above method. Its specific implementation process and technical principles are the same and will not be described again here.
  • FIG. 6 is a schematic structural diagram of an electronic device provided by an embodiment of the present application. As shown in FIG. 6 , the electronic device includes: a memory 51 and a processor 52 .
  • the memory 51 stores computer programs that can be run on the processor 52 .
  • the processor 52 is configured to perform the method as provided in the above embodiments.
  • the electronic device also includes a receiver 53 and a transmitter 54 .
  • the receiver 53 is used to receive instructions and data sent by the external device
  • the transmitter 54 is used to send instructions and data to the external device.
  • FIG. 7 is a block diagram of an electronic device provided by an embodiment of the present application.
  • the electronic device may be a mobile phone, a computer, a digital broadcast terminal, a messaging device, a game console, a tablet device, a medical device, a fitness device, or a personal digital assistant. wait.
  • Device 600 may include one or more of the following components: processing component 602, memory 604, power component 606, multimedia component 608, audio component 610, input/output (I/O) interface 612, sensor component 614, and communications component 616.
  • processing component 602 memory 604, power component 606, multimedia component 608, audio component 610, input/output (I/O) interface 612, sensor component 614, and communications component 616.
  • memory 604 memory 604, power component 606, multimedia component 608, audio component 610, input/output (I/O) interface 612, sensor component 614, and communications component 616.
  • I/O input/output
  • Processing component 602 generally controls the overall operations of device 600, such as operations associated with display, phone calls, data communications, camera operations, and recording operations.
  • the processing component 602 may include one or more processors 620 to execute instructions to complete all or part of the steps of the above method.
  • processing component 602 may include one or more modules that facilitate interaction between processing component 602 and other components.
  • processing component 602 may include a multimedia module to facilitate interaction between multimedia component 608 and processing component 602.
  • Memory 604 is configured to store various types of data to support operations at device 600 . Examples of such data include instructions for any application or method operating on device 600, contact data, phonebook data, messages, pictures, videos, etc.
  • Memory 604 may be implemented by any type of volatile or non-volatile storage device, or a combination thereof, such as static random access memory (SRAM), electrically erasable programmable read-only memory (EEPROM), erasable programmable read-only memory (EEPROM), Programmable read-only memory (EPROM), programmable read-only memory (PROM), read-only memory (ROM), magnetic memory, flash memory, magnetic or optical disk.
  • SRAM static random access memory
  • EEPROM electrically erasable programmable read-only memory
  • EEPROM erasable programmable read-only memory
  • EPROM Programmable read-only memory
  • PROM programmable read-only memory
  • ROM read-only memory
  • magnetic memory flash memory, magnetic or optical disk.
  • Power supply component 606 provides power to the various components of device 600.
  • Power supply components 606 may include a power management system, one or more power supplies, and other components associated with generating, managing, and distributing power to device 600 .
  • Multimedia component 608 includes a screen that provides an output interface between device 600 and the user.
  • the screen may include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen may be implemented as a touch screen to receive input signals from the user.
  • the touch panel includes one or more touch sensors to sense touches, swipes, and gestures on the touch panel. A touch sensor can not only sense the boundaries of a touch or swipe action, but also detect the duration and pressure associated with the touch or swipe action.
  • multimedia component 608 includes a front-facing camera and/or a rear-facing camera.
  • the front camera and/or the rear camera may receive external multimedia data.
  • Each front-facing camera and rear-facing camera can be a fixed optical lens system or have a focal length and optical zoom capabilities.
  • Audio component 610 is configured to output and/or input audio signals.
  • audio component 610 includes a microphone (MIC) configured to receive external audio signals when device 600 is in operating modes, such as call mode, recording mode, and speech recognition mode. The received audio signals may be further stored in memory 604 or sent via communications component 616 .
  • audio component 610 also includes a speaker for outputting audio signals.
  • the I/O interface 612 provides an interface between the processing component 602 and a peripheral interface module, which may be a keyboard, a click wheel, a button, etc. These buttons may include, but are not limited to: Home button, Volume buttons, Start button, and Lock button.
  • Sensor component 614 includes one or more sensors for providing various aspects of status assessment for device 600 .
  • the sensor component 614 can detect the open/closed state of the device 600, the relative positioning of components, such as the display and keypad of the device 600, the sensor component 614 can also detect the position change of the device 600 or a component of the device 600, the user The presence or absence of contact with device 600, device 600 orientation or acceleration/deceleration and temperature changes of device 600.
  • Sensor assembly 614 may include a proximity sensor configured to detect the presence of nearby objects without any physical contact.
  • Sensor assembly 614 may also include a light sensor, such as a CMOS or CCD image sensor, for use in imaging applications.
  • the sensor component 614 may also include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.
  • non-transitory computer-readable storage medium including instructions, such as a memory 604 including instructions, which are executable by the processor 620 of the device 600 to complete the above method is also provided.
  • non-transitory computer-readable storage media may be ROM, random access memory (RAM), CD-ROM, magnetic tape, floppy disk, optical data storage device, etc.
  • Embodiments of the present application also provide a non-transitory computer-readable storage medium.
  • the storage medium When instructions in the storage medium are executed by a processor of an electronic device, the electronic device can execute the method provided by the above embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供一种基于处理器的手势处理方法、装置及设备,涉及触摸控制技术,该方法包括:若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息(101)。响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令(102)。根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序(103)。响应于针对任务界面的点击操作,对任务界面中的应用程序进行处理(104)。本申请的方法,使得电子设备能够兼容多种启动器,解决了电子设备支持多任务管理的启动器的类型较单一的技术问题。

Description

基于处理器的手势处理方法、装置及设备 技术领域
本申请涉及触摸控制技术,尤其涉及一种基于处理器的手势处理方法、装置及设备。
背景技术
目前,电子设备在投入使用过程中,需要具备后台的多任务管理功能,因此,需要部署电子设备的启动器。
现有技术中,用户可以在电子设备自身的原生启动器中进行多任务手势操作,进而实现多任务管理功能。
然而现有技术中,由于电子设备只支持在原生启动器中进行多任务手势操作,不兼容其他的启动器,导致多任务管理功能的实现场景较为单一,进而导致电子设备支持多任务管理的启动器的类型较单一。
发明内容
本申请提供一种基于处理器的手势处理方法、装置及设备,用以解决电子设备支持多任务管理的启动器的类型较单一的技术问题。
第一方面,本申请提供一种基于处理器的手势处理方法,应用于电子设备,所述电子设备部署有至少两个启动器,所述启动器用于启动桌面应用;所述方法包括:
若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息;
响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令;
根据所述触摸指令进入与所述触摸指令对应的任务界面;其中,所述任务界面用于显示电子设备中的处于后台运行状态的应用程序;
响应于针对所述任务界面的点击操作,对所述任务界面中的应用程序进行处理。
进一步地,若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则确定所述预设启动器对应的手势识别模式,包括:
若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息。
进一步地,电子设备若支持屏幕旋转处理,所述电子设备的显示屏上设置有预设区域;响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令,包括:
响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令。
进一步地,所述电子设备若不支持屏幕旋转处理;响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令,包括:
响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,确定所述显示屏的显示类型;
根据所述手势识别模式、以及所述显示屏的显示类型,确定所述触摸操作对应的触摸指令。
进一步地,根据所述手势识别模式、以及所述显示屏的显示类型,确定所述触摸操作对应的触摸指令,包括:
确定显示屏的显示类型对应的输入事件消费者;其中,所述输入事件消费者表征与显示类型对应的处理逻辑信息;
根据手势识别模式、以及与所述显示类型对应的处理逻辑信息,确定所述触摸操作对应的触摸指令。
进一步地,确定显示屏的显示类型对应的输入事件消费者,包括:
若确定显示屏的显示类型为全屏界面,则确定所述显示屏对应的输入事件消费者为全屏界面输入事件消费者;其中,所述全屏界面输入事件消费者表征与全屏界面对应的处理逻辑信息;
若确定显示屏的显示类型为竖屏界面,则确定所述显示屏对应的输入事件消费者为竖屏界面输入事件消费者;其中,所述竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息。
进一步地,根据手势识别模式、以及与所述显示类型对应的处理逻辑信息,确定所述触摸操作对应的触摸指令,包括:
根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件;
若确定最后一个输入事件为执行当前的触摸操作,则生成与所述触摸操作对应的触摸指令。
进一步地,所述方法还包括:
若确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面。
进一步地,响应于针对所述任务界面的点击操作,对所述任务界面中的应用程序进行处理,包括:
响应于针对所述任务界面中的任一应用程序的点击操作,显示任一所述应用程序。
进一步地,所述触摸操作包括触摸信息,所述触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。
进一步地,所述方法还包括:
根据所述触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,所述差值器表征当前界面的缩放比例以及透明度二者的动画变化效果;
响应于触摸操作,根据所述差值器的动画变化效果显示所述当前界面。
进一步地,所述任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面;
所述多任务概览界面包括至少一个任务卡组;其中,所述任务卡组包括应用程序图标、以及与所述应用程序图标对应的任务缩略图源。
进一步地,所述多任务概览界面还包括一键清除按钮;所述方法还包括:
响应于针对所述一键清除按钮的触发操作,对所述多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,所述清空提示信息在预设时间段内以透明度渐变方式消失。
进一步地,所述方法还包括:
响应于针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。
第二方面,本申请提供一种基于处理器的手势处理装置,应用于电子设备,所述电子设备部署有至少两个启动器,所述启动器用于启动桌面应用;所述装置包括:
第一确定单元,用于若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息;
第二确定单元,用于响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令;
进入单元,用于根据所述触摸指令进入与所述触摸指令对应的任务界面;其中,所述任务界面用于显示电子设备中的处于后台运行状态的应用程序;
处理单元,用于响应于针对所述任务界面的点击操作,对所述任务界面中的应用程序进行处理。
进一步地,所述第一确定单元,具体用于:
若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息。
进一步地,电子设备若支持屏幕旋转处理,所述电子设备的显示屏上设置有预设区域;所述第二确定单元,具体用于:
响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令。
进一步地,所述电子设备若不支持屏幕旋转处理;所述第二确定单元,包括:
第一确定模块,用于响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,确定所述显示屏的显示类型;
第二确定模块,用于根据所述手势识别模式、以及所述显示屏的显示类型,确定所述触摸操作对应的触摸指令。
进一步地,所述第二确定模块,包括:
第一确定子模块,用于确定显示屏的显示类型对应的输入事件消费者;其中,所述输入事件消费者表征与显示类型对应的处理逻辑信息;
第二确定子模块,用于根据手势识别模式、以及与所述显示类型对应的处理逻辑 信息,确定所述触摸操作对应的触摸指令。
进一步地,所述第一确定子模块,包括:
第三确定子模块,用于若确定显示屏的显示类型为全屏界面,则确定所述显示屏对应的输入事件消费者为全屏界面输入事件消费者;其中,所述全屏界面输入事件消费者表征与全屏界面对应的处理逻辑信息;
第四确定子模块,用于若确定显示屏的显示类型为竖屏界面,则确定所述显示屏对应的输入事件消费者为竖屏界面输入事件消费者;其中,所述竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息。
进一步地,所述第二确定子模块,包括:
第五确定子模块,用于根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件;
生成子模块,用于若确定最后一个输入事件为执行当前的触摸操作,则生成与所述触摸操作对应的触摸指令。
进一步地,所述装置还包括:
返回子模块,用于若确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面。
进一步地,所述处理单元,具体用于:
响应于针对所述任务界面中的任一应用程序的点击操作,显示任一所述应用程序。
进一步地,所述触摸操作包括触摸信息,所述触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。
进一步地,所述装置还包括:
生成单元,用于根据所述触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,所述差值器表征当前界面的缩放比例以及透明度二者的动画变化效果;
显示单元,用于响应于触摸操作,根据所述差值器的动画变化效果显示所述当前界面。
进一步地,所述任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面;
所述多任务概览界面包括至少一个任务卡组;其中,所述任务卡组包括应用程序图标、以及与所述应用程序图标对应的任务缩略图源。
进一步地,所述多任务概览界面还包括一键清除按钮;所述装置还包括:
清除单元,用于响应于针对所述一键清除按钮的触发操作,对所述多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,所述清空提示信息在预设时间段内以透明度渐变方式消失。
进一步地,所述装置还包括:
返回单元,用于响应于针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。
第三方面,本申请提供一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一 方面所述的方法。
第四方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现第一方面所述的方法。
第五方面,本申请提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面所述的方法。
本申请提供的一种基于处理器的手势处理方法、装置及设备,若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令。根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序。响应于针对任务界面的点击操作,对任务界面中的应用程序进行处理。本方案中,可以确定预设启动器对应的手势识别模式,然后根据该手势识别模式确定触摸操作对应的触摸指令,并根据触摸指令进入与触摸指令对应的任务界面,进而用户在任务界面对任务界面中的应用程序进行多任务处理。所以,在电子设备上开发各启动器对应的手势识别模式,进而可以在运行的各启动器下,根据启动器对应的手势识别模式进行多任务处理,使得电子设备能够兼容多种启动器,解决了电子设备支持多任务管理的启动器的类型较单一的技术问题。
附图说明
图1为本申请实施例提供的一种基于处理器的手势处理方法的流程示意图;
图2为本申请实施例提供的一种多任务概览界面的场景示意图;
图3为本申请实施例提供的另一种基于处理器的手势处理方法的流程示意图;
图4为本申请实施例提供的一种基于处理器的手势处理装置的结构示意图;
图5为本申请实施例提供的另一种基于处理器的手势处理装置的结构示意图;
图6为本申请实施例提供的一种电子设备的结构示意图;
图7为本申请实施例提供的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。
一个示例中,电子设备在投入使用过程中,需要具备后台的多任务管理功能,因此,需要部署电子设备的启动器。现有技术中,用户可以在电子设备自身的原生启动器中进行多任务手势操作,进而实现多任务管理功能。然而现有技术中,由于电子设备只支持在原生启动器中进行多任务手势操作,不兼容其他的启动器,导致多任务管理功能的实现场景较为单一,进而导致电子设备支持多任务管理的启动器的类型较单一。
本申请提供的一种基于处理器的手势处理方法、装置及设备,旨在解决现有技术 的如上技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图1为本申请实施例提供的一种基于处理器的手势处理方法的流程示意图,如图1所示,应用于电子设备,电子设备部署有至少两个启动器,启动器用于启动桌面应用;该方法包括:
101、若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。
示例性地,本实施例的执行主体可以为电子设备、或者终端设备、或者基于处理器的手势处理装置或设备、或者其他可以执行本实施例的装置或设备,对此不做限制。本实施例中以执行主体为电子设备进行介绍。
首先,电子设备部署有至少两个启动器,启动器用于启动桌面应用。其中,电子设备为安卓(Android)***的设备,一个启动器为电子设备自身的原生启动器,另一个启动器为除原生启动器之外、用户下载安装的启动器,即三方启动器,电子设备可以部署多个三方启动器。预设启动器是指用户设置的在开机时默认开启的启动器。当电子设备运行时,需要先判断当前所运行的桌面应用是否是至少两个启动器中的预设启动器,如果确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则可以根据预设的启动器与手势识别模式之间的映射关系,确定预设启动器对应的手势识别模式,手势识别模式用于指示手势识别信息,手势识别信息用于对触摸操作进行识别。
举例来说,用户下载至少一个三方启动器时,可以先在***设置中自行设置预设启动器,当用户下一次开启电子设备时,开机后就会进入与预设启动器对应的桌面应用,或者,用户没有在***设置中设置预设启动器,每次开机都会有弹窗选择框,用户可以在弹窗选择框选择一个桌面应用启动。当进入桌面应用时,通过安卓(Android)***的包管理器判断当前用户使用的启动器是否为预设启动器,如果确定当前用户使用的启动器为安卓***的原生启动器,则直接跳转到安卓***的原生启动器的处理逻辑进行处理,如果确定当前用户使用的启动器为预设启动器,即当前用户使用的启动器不是安卓***的原生启动器,则确定预设启动器对应的手势识别模式。
102、响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令。
示例性地,触摸操作包括关于用户手指移动时的触摸信息,触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间等,并且电子设备设置有显示屏,显示屏上设置有预设区域,预设区域可以是长方形区域等,预设区域可以位于显示屏的底部位置,对此不作限定。当接收到用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,根据手势识别模式确定触摸操作对应的触摸指令,触摸指令包括进入多任务概览界面、进入显示屏的界面、或进入触摸操作前的界面等。
103、根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序。
示例性地,电子设备可以根据触摸指令,并结合安卓***中记录的***界面的状态全局变量,对显示屏的最后一个输入事件进行计算,当达到对应的状态条件时将会触发进入与触摸指令对应的任务界面。其中,状态全局变量用于存储显示屏显示的界面的状态,例如,状态包括:由显示屏的顶部下滑,显示屏会显示关于常用设置项的菜单,在显示菜单的状态下,电子设备会根据触摸指令进入与触摸指令对应的显示屏的界面;或者,如果在不显示菜单的状态下,电子设备会根据触摸指令进入与触摸指令对应的多任务概览界面;或者,如果在不显示菜单的状态下,由于触摸操作的触摸停留时间较短,电子设备会根据触摸指令进入触摸操作前的界面。
104、响应于针对任务界面的点击操作,对任务界面中的应用程序进行处理。
示例性地,任务界面包括多任务概览界面、进入显示屏的界面、或进入触摸操作前的界面等。图2为本申请实施例提供的一种多任务概览界面的场景示意图,如图2所示,多任务概览界面包括顶部状态栏、底部的预设区域、一键清除按钮、以及至少一个任务卡组,任务卡组包括应用图标、以及与应用图标对应的任务缩略图源。定义一键清除按钮的回调事件方法,如果接收到针对一键清除按钮的触发操作,响应于该触发操作,多任务概览界面中显示的所有后台运行的任务卡组将主动上滑消失,在点击一键清除按钮时并停顿显示“近期无任何内容”预设时间段(例如1s)提示后以透明度渐变的动画方式返回显示屏的界面。
本申请实施例中,若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令。根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序。响应于针对任务界面的点击操作,对任务界面中的应用程序进行处理。本方案中,可以确定预设启动器对应的手势识别模式,然后根据该手势识别模式确定触摸操作对应的触摸指令,并根据触摸指令进入与触摸指令对应的任务界面,进而用户在任务界面对任务界面中的应用程序进行多任务处理。所以,在电子设备上开发各启动器对应的手势识别模式,进而可以在运行的各启动器下,根据启动器对应的手势识别模式进行多任务处理,使得电子设备能够兼容多种启动器,解决了电子设备支持多任务管理的启动器的类型较单一的技术问题。
图3为本申请实施例提供的另一种基于处理器的手势处理方法的流程示意图,如图3所示,应用于电子设备,电子设备部署有至少两个启动器,启动器用于启动桌面应用;该方法包括:
201、若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。
示例性地,本步骤可以参见图1中的步骤101,不再赘述。
202、响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令。
一个示例中,步骤202包括两种实现方式:
步骤202的第一种实现方式:电子设备若支持屏幕旋转处理,电子设备的显示屏上设置有预设区域;步骤202包括:响应于用户的触摸操作,其中,触摸操作表征操 作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,根据手势识别模式确定触摸操作对应的触摸指令。
步骤202的第二种实现方式:电子设备若不支持屏幕旋转处理;步骤202包括:响应于用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,确定显示屏的显示类型;根据手势识别模式、以及显示屏的显示类型,确定触摸操作对应的触摸指令。
一个示例中,“根据手势识别模式、以及显示屏的显示类型,确定触摸操作对应的触摸指令”,包括:确定显示屏的显示类型对应的输入事件消费者;其中,输入事件消费者表征与显示类型对应的处理逻辑信息;根据手势识别模式、以及与显示类型对应的处理逻辑信息,确定触摸操作对应的触摸指令。
一个示例中,“确定显示屏的显示类型对应的输入事件消费者”,包括:
若确定显示屏的显示类型为全屏界面,则确定显示屏对应的输入事件消费者为全屏界面输入事件消费者;其中,全屏界面输入事件消费者表征与全屏界面对应的处理逻辑信息;若确定显示屏的显示类型为竖屏界面,则确定显示屏对应的输入事件消费者为竖屏界面输入事件消费者;其中,竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息。
一个示例中,“根据手势识别模式、以及与显示类型对应的处理逻辑信息,确定触摸操作对应的触摸指令”,包括:根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件;若确定最后一个输入事件为执行当前的触摸操作,则生成与触摸操作对应的触摸指令。
一个示例中,若确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面。
示例性地,触摸操作包括关于用户手指移动时的触摸信息,触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间等,并且电子设备设置有显示屏,显示屏上设置有预设区域,预设区域可以是位于显示屏底部的长方形区域。当接收到用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,根据手势识别模式确定触摸操作对应的触摸指令,触摸指令包括进入多任务概览界面、进入显示屏的界面、或进入触摸操作前的界面等。
在第一种实现方式中,电子设备若支持屏幕旋转处理,如果接收到用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,则根据手势识别模式确定触摸操作对应的触摸指令。
在第二种实现方式中,电子设备若不支持屏幕旋转处理,如果接收到用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,则将接收到的触摸操作通过预设的***界面(SystemUI)传递给原生启动器的触摸交互服务(TouchInterActionService),由于本发明搭载的电子设备形态的设计,不支持屏幕旋转,设备端基于Android窗口模式实现了应用界面的竖屏显示逻辑,由于原生启动器的限制,无法对窗口模式显示的应用界面进行多任务手势的处理,因此,通过触摸交互服务判断显示屏的当前前台界面的显示类型,其中,显示类型包括全屏显示、或竖屏显示,并确定显示屏的显示类型对应的输入事件消费者,其中,输入事 件消费者表征与显示类型对应的处理逻辑信息。最后根据手势识别模式、以及与显示类型对应的处理逻辑信息,确定触摸操作对应的触摸指令。
如果确定显示屏的显示类型为全屏界面,则确定显示屏对应的输入事件消费者为全屏界面输入事件消费者。其中,全屏界面输入事件消费者是基于安卓***中原生启动器的“非原生活动输入事件消费者”进行修改得到的,全屏界面输入事件消费者表征与全屏界面对应的处理逻辑信息,全屏界面输入事件消费者用于处理全屏界面下的触摸操作。如果确定显示屏的显示类型为竖屏界面,则确定显示屏对应的输入事件消费者为竖屏界面输入事件消费者。其中,竖屏界面输入事件消费者是基于安卓***中中原生启动器的“后备输入事件消费者”进行修改得到的,竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息,竖屏界面输入事件消费者用于处理竖屏模式下的输入事件。
在根据手势识别模式、以及与显示类型对应的处理逻辑信息,确定触摸操作对应的触摸指令的过程中,当用户手指离开显示屏时会触发最后一个输入事件,电子设备根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件的状态是否为用户取消当前的手势操作,如果确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面并结束整个流程,如果确定最后一个输入事件为执行当前的触摸操作,则生成与触摸操作对应的触摸指令。
203、根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序。
示例性地,本步骤可以参见图1中的步骤103,不再赘述。
204、响应于针对任务界面中的任一应用程序的点击操作,显示任一应用程序。
示例性地,本步骤可以参见图1中的步骤104,不再赘述。
205、触摸操作包括触摸信息,触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。根据触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,差值器表征当前界面的缩放比例以及透明度二者的动画变化效果;响应于触摸操作,根据差值器的动画变化效果显示当前界面。
一个示例中,任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面;多任务概览界面包括至少一个任务卡组;其中,任务卡组包括应用程序图标、以及与应用程序图标对应的任务缩略图源。
示例性地,通过对应的“输入事件消费者”,电子设备会根据触摸操作记录用户手指的移动状态,通过对触摸操作的加速度、速度、坐标及触摸停留时间等状态综合运算后生成一个缩放及透明度变化的动画插值器,将显示屏当前显示的应用界面的快照作为任务缩略图源,按计算得到的插值器进行当前全竖屏界面/竖屏界面的手势跟随显示,所以响应于触摸操作,可以根据差值器的动画变化效果显示当前界面。
任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面等。其中,多任务概览界面包括至少一个任务卡组,任务卡组包括应用程序图标、以及与应用程序图标对应的任务缩略图源。根据电子设备使用的屏幕分辨率结合电子设备用户的交互习惯量化值,计算得到多个任务卡组的布局大小,通过***计算得到预设的应用程 序图标的布局、以及与应用程序图标对应的任务缩略图源的布局相对大小,应用程序图标布局处于任务缩略图源的布局正上方,任务缩略图源采用任务使用快照填充。
举例来说,当未在显示屏上打开应用程序,直接从显示屏的界面由底部的预设区域上滑触发多任务手势时,多任务概览界面会进行手势跟随,根据手指的滑动距离,以界面透明度渐变、与由外朝内收缩相结合的动效方式逐渐显示所有后台运行的任务,其中,一键清除按钮及单个任务卡组的“应用程序图标”在手势跟随过程中以扩张动画的方式逐渐显示。
当从应用程序的界面由底部的预设区域上滑触发多任务手势时,在滑动过程中任务概览界面会手势跟随,仅显示当前运行程序的任务缩略图源并显示由外朝内收缩的动效。当手指离开显示屏时,如果根据最后一个输入事件的状态判断最终进入多任务概览界面时,当前任务的应用程序图标及一键清除按钮以扩张动画的方式逐渐显示,相邻任务卡组以透明度渐变方式逐渐显示。
206、多任务概览界面还包括一键清除按钮;响应于针对一键清除按钮的触发操作,对多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,清空提示信息在预设时间段内以透明度渐变方式消失。
示例性地,多任务概览界面包括一键清除按钮。电子设备定义一键清除按钮的回调事件方法,如果接收到针对一键清除按钮的触发操作,响应于该触发操作,多任务概览界面中显示的任务卡组将主动上滑消失,在点击一键清除按钮时并停顿显示“近期无任何内容”1s提示后以透明度渐变的动画方式返回显示屏的界面。
207、响应于针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。
示例性地,在多任务概览界面中,当用户点击非任务卡组的空白区域、及从底部的预设区域上滑,均会触发界面以透明度渐变方式返回显示屏的界面。电子设备还可以在多任务概览界面中,通过在多任务卡组的区域左右滑动,实现后台多任务的预览,并突出显示居中的任务卡组,通过点击或下拉指定的任务卡实现后台任务的切换,还可以通过点击或下拉指定的任务卡实现后台任务的切换。
本申请实施例中,若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令。根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序。响应于针对任务界面中的任一应用程序的点击操作,显示任一应用程序。触摸操作包括触摸信息,触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。根据触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,差值器表征当前界面的缩放比例以及透明度二者的动画变化效果;响应于触摸操作,根据差值器的动画变化效果显示当前界面。多任务概览界面还包括一键清除按钮;响应于针对一键清除按钮的触发操作,对多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,清空提示信息在预设时间段内以透明度渐变方式消失。响应于 针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。所以,在电子设备上开发各启动器对应的手势识别模式,进而可以在运行的各启动器下,根据启动器对应的手势识别模式进行多任务处理,使得电子设备能够兼容多种启动器,解决了电子设备支持多任务管理的启动器的类型较单一的技术问题。
图4为本申请实施例提供的一种基于处理器的手势处理装置的结构示意图,如图4所示,应用于电子设备,电子设备部署有至少两个启动器,启动器用于启动桌面应用;该装置包括:
第一确定单元31,用于若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。
第二确定单元32,用于响应于用户的触摸操作,根据手势识别模式确定触摸操作对应的触摸指令。
进入单元33,用于根据触摸指令进入与触摸指令对应的任务界面;其中,任务界面用于显示电子设备中的处于后台运行状态的应用程序。
处理单元34,用于响应于针对任务界面的点击操作,对任务界面中的应用程序进行处理。
本实施例的装置,可以执行上述方法中的技术方案,其具体实现过程和技术原理相同,此处不再赘述。
图5为本申请实施例提供的另一种基于处理器的手势处理装置的结构示意图,在图4所示实施例的基础上,如图5所示,第一确定单元31,具体用于:
若确定当前所运行的桌面应用是至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定预设启动器对应的手势识别模式;其中,手势识别模式用于指示手势识别信息。
一个示例中,电子设备若支持屏幕旋转处理,电子设备的显示屏上设置有预设区域;第二确定单元32,具体用于:
响应于用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,根据手势识别模式确定触摸操作对应的触摸指令。
一个示例中,电子设备若不支持屏幕旋转处理;第二确定单元32,包括:
第一确定模块321,用于响应于用户的触摸操作,其中,触摸操作表征操作于预设区域的触摸点滑动至预设区域以外的显示屏的操作,确定显示屏的显示类型。
第二确定模块322,用于根据手势识别模式、以及显示屏的显示类型,确定触摸操作对应的触摸指令。
一个示例中,第二确定模块322,包括:
第一确定子模块3221,用于确定显示屏的显示类型对应的输入事件消费者;其中,输入事件消费者表征与显示类型对应的处理逻辑信息。
第二确定子模块3222,用于根据手势识别模式、以及与显示类型对应的处理逻辑信息,确定触摸操作对应的触摸指令。
一个示例中,第一确定子模块3221,包括:
第三确定子模块32211,用于若确定显示屏的显示类型为全屏界面,则确定显示屏对应的输入事件消费者为全屏界面输入事件消费者;其中,全屏界面输入事件消费者表征与全屏界面对应的处理逻辑信息。
第四确定子模块32212,用于若确定显示屏的显示类型为竖屏界面,则确定显示屏对应的输入事件消费者为竖屏界面输入事件消费者;其中,竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息。
一个示例中,第二确定子模块3222,包括:
第五确定子模块32221,用于根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件。
生成子模块32222,用于若确定最后一个输入事件为执行当前的触摸操作,则生成与触摸操作对应的触摸指令。
一个示例中,该装置还包括:
返回子模块32223,用于若确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面。
一个示例中,处理单元34,具体用于:
响应于针对任务界面中的任一应用程序的点击操作,显示任一应用程序。
一个示例中,触摸操作包括触摸信息,触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。
一个示例中,该装置还包括:
生成单元41,用于根据触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,差值器表征当前界面的缩放比例以及透明度二者的动画变化效果。
显示单元42,用于响应于触摸操作,根据差值器的动画变化效果显示当前界面。
一个示例中,任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面。
多任务概览界面包括至少一个任务卡组;其中,任务卡组包括应用程序图标、以及与应用程序图标对应的任务缩略图源。
一个示例中,多任务概览界面还包括一键清除按钮;该装置还包括:
清除单元43,用于响应于针对一键清除按钮的触发操作,对多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,清空提示信息在预设时间段内以透明度渐变方式消失。
一个示例中,该装置还包括:
返回单元44,用于响应于针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。
本实施例的装置,可以执行上述方法中的技术方案,其具体实现过程和技术原理相同,此处不再赘述。
图6为本申请实施例提供的一种电子设备的结构示意图,如图6所示,电子设备包括:存储器51,处理器52。
存储器51中存储有可在处理器52上运行的计算机程序。
处理器52被配置为执行如上述实施例提供的方法。
电子设备还包括接收器53和发送器54。接收器53用于接收外部设备发送的指令和数据,发送器54用于向外部设备发送指令和数据。
图7是本申请实施例提供的一种电子设备的框图,该电子设备可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
装置600可以包括以下一个或多个组件:处理组件602,存储器604,电源组件606,多媒体组件608,音频组件610,输入/输出(I/O)接口612,传感器组件614,以及通信组件616。
处理组件602通常控制装置600的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件602可以包括一个或多个处理器620来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件602可以包括一个或多个模块,便于处理组件602和其他组件之间的交互。例如,处理组件602可以包括多媒体模块,以方便多媒体组件608和处理组件602之间的交互。
存储器604被配置为存储各种类型的数据以支持在装置600的操作。这些数据的示例包括用于在装置600上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器604可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件606为装置600的各种组件提供电力。电源组件606可以包括电源管理***,一个或多个电源,及其他与为装置600生成、管理和分配电力相关联的组件。
多媒体组件608包括在装置600和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件608包括一个前置摄像头和/或后置摄像头。当装置600处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件610被配置为输出和/或输入音频信号。例如,音频组件610包括一个麦克风(MIC),当装置600处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器604或经由通信组件616发送。在一些实施例中,音频组件610还包括一个扬声器,用于输出音频信号。
I/O接口612为处理组件602和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件614包括一个或多个传感器,用于为装置600提供各个方面的状态评估。例如,传感器组件614可以检测到装置600的打开/关闭状态,组件的相对定位,例如组件为装置600的显示器和小键盘,传感器组件614还可以检测装置600或装置600一个组件的位置改变,用户与装置600接触的存在或不存在,装置600方位或加速/减速和装置600的温度变化。传感器组件614可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件614还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件614还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件616被配置为便于装置600和其他设备之间有线或无线方式的通信。装置600可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件616经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,通信组件616还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置600可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器604,上述指令可由装置600的处理器620执行以完成上述方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本申请实施例还提供了一种非临时性计算机可读存储介质,当该存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述实施例提供的方法。
本申请实施例还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (31)

  1. 一种基于处理器的手势处理方法,其特征在于,应用于电子设备,所述电子设备部署有至少两个启动器,所述启动器用于启动桌面应用;所述方法包括:
    若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息;
    响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令;
    根据所述触摸指令进入与所述触摸指令对应的任务界面;其中,所述任务界面用于显示电子设备中的处于后台运行状态的应用程序;
    响应于针对所述任务界面的点击操作,对所述任务界面中的应用程序进行处理。
  2. 根据权利要求1所述的方法,其特征在于,若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则确定所述预设启动器对应的手势识别模式,包括:
    若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息。
  3. 根据权利要求1所述的方法,其特征在于,电子设备若支持屏幕旋转处理,所述电子设备的显示屏上设置有预设区域;响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令,包括:
    响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令。
  4. 根据权利要求1所述的方法,其特征在于,所述电子设备若不支持屏幕旋转处理;响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令,包括:
    响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,确定所述显示屏的显示类型;
    根据所述手势识别模式、以及所述显示屏的显示类型,确定所述触摸操作对应的触摸指令。
  5. 根据权利要求4所述的方法,其特征在于,根据所述手势识别模式、以及所述显示屏的显示类型,确定所述触摸操作对应的触摸指令,包括:
    确定显示屏的显示类型对应的输入事件消费者;其中,所述输入事件消费者表征与显示类型对应的处理逻辑信息;
    根据手势识别模式、以及与所述显示类型对应的处理逻辑信息,确定所述触摸操作对应的触摸指令。
  6. 根据权利要求5所述的方法,其特征在于,确定显示屏的显示类型对应的输入事件消费者,包括:
    若确定显示屏的显示类型为全屏界面,则确定所述显示屏对应的输入事件消费者为全屏界面输入事件消费者;其中,所述全屏界面输入事件消费者表征与全屏界面对 应的处理逻辑信息;
    若确定显示屏的显示类型为竖屏界面,则确定所述显示屏对应的输入事件消费者为竖屏界面输入事件消费者;其中,所述竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息。
  7. 根据权利要求5所述的方法,其特征在于,根据手势识别模式、以及与所述显示类型对应的处理逻辑信息,确定所述触摸操作对应的触摸指令,包括:
    根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件;
    若确定最后一个输入事件为执行当前的触摸操作,则生成与所述触摸操作对应的触摸指令。
  8. 根据权利要求7所述的方法,其特征在于,所述方法还包括:
    若确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面。
  9. 根据权利要求1所述的方法,其特征在于,响应于针对所述任务界面的点击操作,对所述任务界面中的应用程序进行处理,包括:
    响应于针对所述任务界面中的任一应用程序的点击操作,显示任一所述应用程序。
  10. 根据权利要求1所述的方法,其特征在于,所述触摸操作包括触摸信息,所述触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。
  11. 根据权利要求10所述的方法,其特征在于,所述方法还包括:
    根据所述触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,所述差值器表征当前界面的缩放比例以及透明度二者的动画变化效果;
    响应于触摸操作,根据所述差值器的动画变化效果显示所述当前界面。
  12. 根据权利要求11所述的方法,其特征在于,所述任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面;
    所述多任务概览界面包括至少一个任务卡组;其中,所述任务卡组包括应用程序图标、以及与所述应用程序图标对应的任务缩略图源。
  13. 根据权利要求12所述的方法,其特征在于,所述多任务概览界面还包括一键清除按钮;所述方法还包括:
    响应于针对所述一键清除按钮的触发操作,对所述多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,所述清空提示信息在预设时间段内以透明度渐变方式消失。
  14. 根据权利要求1-13任一项所述的方法,其特征在于,所述方法还包括:
    响应于针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。
  15. 一种基于处理器的手势处理装置,其特征在于,应用于电子设备,所述电子设备部署有至少两个启动器,所述启动器用于启动桌面应用;所述装置包括:
    第一确定单元,用于若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息;
    第二确定单元,用于响应于用户的触摸操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令;
    进入单元,用于根据所述触摸指令进入与所述触摸指令对应的任务界面;其中,所述任务界面用于显示电子设备中的处于后台运行状态的应用程序;
    处理单元,用于响应于针对所述任务界面的点击操作,对所述任务界面中的应用程序进行处理。
  16. 根据权利要求15所述的装置,其特征在于,所述第一确定单元,具体用于:
    若确定当前所运行的桌面应用是所述至少两个启动器中的预设启动器,则根据预设的启动器与手势识别模式之间的映射关系,确定所述预设启动器对应的手势识别模式;其中,所述手势识别模式用于指示手势识别信息。
  17. 根据权利要求15所述的装置,其特征在于,电子设备若支持屏幕旋转处理,所述电子设备的显示屏上设置有预设区域;所述第二确定单元,具体用于:
    响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,根据所述手势识别模式确定所述触摸操作对应的触摸指令。
  18. 根据权利要求15所述的装置,其特征在于,所述电子设备若不支持屏幕旋转处理;所述第二确定单元,包括:
    第一确定模块,用于响应于用户的触摸操作,其中,所述触摸操作表征操作于预设区域的触摸点滑动至所述预设区域以外的显示屏的操作,确定所述显示屏的显示类型;
    第二确定模块,用于根据所述手势识别模式、以及所述显示屏的显示类型,确定所述触摸操作对应的触摸指令。
  19. 根据权利要求18所述的装置,其特征在于,所述第二确定模块,包括:
    第一确定子模块,用于确定显示屏的显示类型对应的输入事件消费者;其中,所述输入事件消费者表征与显示类型对应的处理逻辑信息;
    第二确定子模块,用于根据手势识别模式、以及与所述显示类型对应的处理逻辑信息,确定所述触摸操作对应的触摸指令。
  20. 根据权利要求19所述的装置,其特征在于,所述第一确定子模块,包括:
    第三确定子模块,用于若确定显示屏的显示类型为全屏界面,则确定所述显示屏对应的输入事件消费者为全屏界面输入事件消费者;其中,所述全屏界面输入事件消费者表征与全屏界面对应的处理逻辑信息;
    第四确定子模块,用于若确定显示屏的显示类型为竖屏界面,则确定所述显示屏对应的输入事件消费者为竖屏界面输入事件消费者;其中,所述竖屏界面输入事件消费者表征与竖屏界面对应的处理逻辑信息。
  21. 根据权利要求19所述的装置,其特征在于,所述第二确定子模块,包括:
    第五确定子模块,用于根据与显示类型对应的处理逻辑信息,确定触摸操作在显示屏的最后一个输入事件;
    生成子模块,用于若确定最后一个输入事件为执行当前的触摸操作,则生成与所述触摸操作对应的触摸指令。
  22. 根据权利要求21所述的装置,其特征在于,所述装置还包括:
    返回子模块,用于若确定最后一个输入事件为取消当前的触摸操作,则返回触摸操作前的界面。
  23. 根据权利要求15所述的装置,其特征在于,所述处理单元,具体用于:
    响应于针对所述任务界面中的任一应用程序的点击操作,显示任一所述应用程序。
  24. 根据权利要求15所述的装置,其特征在于,所述触摸操作包括触摸信息,所述触摸信息包括触摸点的速度值、加速度值、坐标值以及触摸停留时间。
  25. 根据权利要求24所述的装置,其特征在于,所述装置还包括:
    生成单元,用于根据所述触摸点的速度值、加速度值、坐标值以及触摸停留时间,生成差值器,并将显示屏的当前界面作为任务缩略图源;其中,所述差值器表征当前界面的缩放比例以及透明度二者的动画变化效果;
    显示单元,用于响应于触摸操作,根据所述差值器的动画变化效果显示所述当前界面。
  26. 根据权利要求25所述的装置,其特征在于,所述任务界面包括多任务概览界面、显示屏的界面、或触摸操作前的界面;
    所述多任务概览界面包括至少一个任务卡组;其中,所述任务卡组包括应用程序图标、以及与所述应用程序图标对应的任务缩略图源。
  27. 根据权利要求26所述的装置,其特征在于,所述多任务概览界面还包括一键清除按钮;所述装置还包括:
    清除单元,用于响应于针对所述一键清除按钮的触发操作,对所述多任务概览界面中的任务卡组进行清除处理,显示清空提示信息,并在预设时间段后返回显示屏的界面;其中,所述清空提示信息在预设时间段内以透明度渐变方式消失。
  28. 根据权利要求15-27任一项所述的装置,其特征在于,所述装置还包括:
    返回单元,用于响应于针对多任务概览界面中任务卡组以外的空白区域的点击操作,根据预设的透明度渐变方式由多任务概览界面返回显示屏的界面。
  29. 一种电子设备,其特征在于,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-14中任一项所述的方法。
  30. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1-14任一项所述的方法。
  31. 一种计算机程序产品,其特征在于,包括计算机程序,该计算机程序被处理器执行时实现权利要求1-14中任一项所述的方法。
PCT/CN2022/091360 2022-05-07 2022-05-07 基于处理器的手势处理方法、装置及设备 WO2023216012A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280006545.6A CN117396834A (zh) 2022-05-07 2022-05-07 基于处理器的手势处理方法、装置及设备
PCT/CN2022/091360 WO2023216012A1 (zh) 2022-05-07 2022-05-07 基于处理器的手势处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2022/091360 WO2023216012A1 (zh) 2022-05-07 2022-05-07 基于处理器的手势处理方法、装置及设备

Publications (1)

Publication Number Publication Date
WO2023216012A1 true WO2023216012A1 (zh) 2023-11-16

Family

ID=88729366

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/091360 WO2023216012A1 (zh) 2022-05-07 2022-05-07 基于处理器的手势处理方法、装置及设备

Country Status (2)

Country Link
CN (1) CN117396834A (zh)
WO (1) WO2023216012A1 (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566917A (zh) * 2010-12-20 2012-07-11 微软公司 用于多种模式的应用-启动界面
JP2013077270A (ja) * 2011-09-30 2013-04-25 Kyocera Corp 装置、方法、及びプログラム
CN104461599A (zh) * 2013-09-25 2015-03-25 上海琥智数码科技有限公司 多桌面启动器整合方法
CN104461333A (zh) * 2013-09-25 2015-03-25 上海琥智数码科技有限公司 多桌面启动器切换方法
US20160210018A1 (en) * 2015-01-19 2016-07-21 Microsoft Microsoft Technology Licensing, LLC Control of Representation Interaction within an Application Launcher
CN106339173A (zh) * 2016-08-31 2017-01-18 新诺商桥科技(北京)有限公司 一种智慧桌面***
CN109831586A (zh) * 2019-02-28 2019-05-31 努比亚技术有限公司 一种用户界面切换显示方法、移动终端和存储介质
CN110908739A (zh) * 2019-11-28 2020-03-24 广东汉鼎蜂助手网络技术有限公司 与第三方Launcher实现数据对接的方法、装置及设备
CN111158788A (zh) * 2019-12-31 2020-05-15 科大讯飞股份有限公司 桌面启动器控制方法、装置及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566917A (zh) * 2010-12-20 2012-07-11 微软公司 用于多种模式的应用-启动界面
JP2013077270A (ja) * 2011-09-30 2013-04-25 Kyocera Corp 装置、方法、及びプログラム
CN104461599A (zh) * 2013-09-25 2015-03-25 上海琥智数码科技有限公司 多桌面启动器整合方法
CN104461333A (zh) * 2013-09-25 2015-03-25 上海琥智数码科技有限公司 多桌面启动器切换方法
US20160210018A1 (en) * 2015-01-19 2016-07-21 Microsoft Microsoft Technology Licensing, LLC Control of Representation Interaction within an Application Launcher
CN106339173A (zh) * 2016-08-31 2017-01-18 新诺商桥科技(北京)有限公司 一种智慧桌面***
CN109831586A (zh) * 2019-02-28 2019-05-31 努比亚技术有限公司 一种用户界面切换显示方法、移动终端和存储介质
CN110908739A (zh) * 2019-11-28 2020-03-24 广东汉鼎蜂助手网络技术有限公司 与第三方Launcher实现数据对接的方法、装置及设备
CN111158788A (zh) * 2019-12-31 2020-05-15 科大讯飞股份有限公司 桌面启动器控制方法、装置及存储介质

Also Published As

Publication number Publication date
CN117396834A (zh) 2024-01-12

Similar Documents

Publication Publication Date Title
JP6553719B2 (ja) 画面分割表示方法および装置
CN107562322B (zh) 切换页面的方法和装置
US10642476B2 (en) Method and apparatus for single-hand operation on full screen
EP3242204B1 (en) Method and device for multi-task management
CN107544810B (zh) 控制应用程序的方法和装置
CN105893136B (zh) 多任务管理方法和装置
EP3098701B1 (en) Method and apparatus for managing terminal application
CN105975166B (zh) 应用控制方法及装置
EP3786778A1 (en) Method and device for screen projection, terminal and storage medium
US20180039403A1 (en) Terminal control method, terminal, and storage medium
CN111381739B (zh) 应用图标显示方法、装置、电子设备及存储介质
US20190235745A1 (en) Method and device for displaying descriptive information
CN106681592B (zh) 基于电子设备的显示切换方法及装置、电子设备
CN111610912B (zh) 应用显示方法、应用显示装置及存储介质
EP3828682A1 (en) Method, apparatus for adding shortcut plug-in, and intelligent device
CN108829473B (zh) 事件响应方法、装置及存储介质
CN112068764A (zh) 一种语言切换方法、装置和用于语言切换的装置
US12001672B2 (en) Interface display method and apparatus for controlling interactability of simultaneously displayed user interfaces of an application
WO2023216012A1 (zh) 基于处理器的手势处理方法、装置及设备
CN115963929A (zh) Vr显示方法、装置及存储介质
US11783525B2 (en) Method, device and storage medium form playing animation of a captured image
US20220286550A1 (en) Method for controlling mobile terminal, and mobile terminal
CN112860140A (zh) 应用程序控制方法、应用程序控制装置及存储介质
CN116774888A (zh) 页面展示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 202280006545.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22940983

Country of ref document: EP

Kind code of ref document: A1