WO2018123231A1 - 電子機器、入力制御方法、及びプログラム - Google Patents

電子機器、入力制御方法、及びプログラム Download PDF

Info

Publication number
WO2018123231A1
WO2018123231A1 PCT/JP2017/038115 JP2017038115W WO2018123231A1 WO 2018123231 A1 WO2018123231 A1 WO 2018123231A1 JP 2017038115 W JP2017038115 W JP 2017038115W WO 2018123231 A1 WO2018123231 A1 WO 2018123231A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
display
pointer
finger
touch operation
Prior art date
Application number
PCT/JP2017/038115
Other languages
English (en)
French (fr)
Inventor
俊介 齊藤
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201780075055.0A priority Critical patent/CN110088720B/zh
Priority to JP2018558848A priority patent/JP7022899B2/ja
Publication of WO2018123231A1 publication Critical patent/WO2018123231A1/ja
Priority to US16/407,123 priority patent/US11237722B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1654Details related to the display arrangement, including those related to the mounting of the display in the housing the display being detachable, e.g. for remote use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Definitions

  • the present disclosure relates to an electronic device including a touch panel, an input control method, and a program.
  • Patent Document 1 discloses an input control method for moving a cursor by performing a touch operation on a touch detection display with a user's finger or stylus.
  • a drag operation in an area adjacent to the cursor is received and the cursor is moved. Thereby, it is possible to accurately indicate a small object by a touch operation.
  • Patent Document 2 discloses an information processing process including planar coordinate input means, coordinate information acquisition means, angle calculation means for calculating a signed angle from the coordinate information, and scroll information creation means for creating scroll information from the signed angle. An apparatus is disclosed. As a result, it is possible to continue scrolling with few operations on the planar coordinate input means.
  • This disclosure provides an electronic device, an input control method, and a program that improve operability.
  • the electronic device of the present disclosure includes a display unit, a touch panel, and a control unit.
  • the display unit displays a pointer indicating the input position.
  • the touch panel detects a touch operation on the display unit by a user's finger or a pointing device.
  • the control unit controls the display position of the pointer on the display unit, and executes input processing according to a touch operation on the touch panel. Further, the display unit displays a predetermined area for designating the display position of the pointer at a position different from the position of the touch operation.
  • the control unit detects a continuous touch operation from the predetermined area to the outside of the predetermined area, the control unit moves the pointer along a position different from the touch position according to the movement of the touch position by the continuous touch operation.
  • the input control method includes a step of displaying a pointer indicating an input position on a display unit, a step of detecting a touch operation by a user's finger or a pointing device on the display unit using a touch panel, and a pointer on the display unit. Controlling the display position and executing input processing on the touch panel.
  • the input control method further includes a step of displaying a predetermined area on the display unit for designating the display position of the pointer to a position different from the position of the touch operation, and continuous touch from the predetermined area to the outside of the predetermined area. Moving the pointer along a position different from the touch position in response to movement of the touch position by the continuous touch operation when the operation is detected.
  • the program of the present disclosure causes a computer to execute the input control method.
  • the operability is improved according to the electronic device, the input control method, and the program according to the present disclosure.
  • FIG. 1A is a perspective view of an information processing apparatus according to Embodiment 1 of the present disclosure.
  • FIG. 1B is a perspective view of the information processing apparatus according to Embodiment 1 of the present disclosure.
  • FIG. 2 is a block diagram illustrating a configuration of the information processing apparatus according to the first embodiment.
  • FIG. 3A is a diagram showing a display example of the display in the first embodiment.
  • FIG. 3B is a diagram showing a display example of the display in the first embodiment.
  • FIG. 3C is a diagram showing a display example of the display in the first embodiment.
  • FIG. 4 is a flowchart for explaining the touch input control according to the first embodiment.
  • An electronic device such as a notebook computer is provided with a touch pad for a user to operate.
  • the user can move the pointer on the screen or perform an operation such as a left click on the target pointed by the pointer by operating the touch pad with a finger or the like.
  • the swipe operation can be continuously performed even if the finger protrudes from the virtual pad.
  • the user when a tap operation is performed after the finger protrudes from the virtual pad during the swipe operation, the user must visually check the position of the virtual pad and perform the tap operation within the virtual pad. Therefore, the operability for the virtual pad on the screen is not good.
  • the electronic device of the present disclosure improves operability for the virtual pad. Specifically, another variable-position virtual pad having a function equivalent to that of the fixed-position virtual pad is temporarily provided on the touch screen. That is, the same operation as that for the virtual pad at the fixed position can be performed in the virtual pad at the variable position. Thus, the operation on the pointer can be continued without returning the finger to the virtual pad at the fixed position. For example, if the swipe operation starts from the virtual pad at the fixed position, the pointer can be moved even when the finger moves outside the area of the virtual pad at the fixed position. Further, the tap operation can be performed on the object pointed by the pointer at the position where the swipe operation is completed.
  • the electronic device of the present disclosure will be described in detail.
  • FIGS. 1A and 1B illustrate the appearance of an information processing apparatus that is an example of an electronic apparatus according to Embodiment 1 of the present disclosure.
  • the information processing apparatus 1 includes a tablet terminal 100 and a base device 200 to which the tablet terminal 100 can be attached.
  • FIG. 1A shows a state where the tablet terminal 100 is attached to the base device 200.
  • FIG. 1B shows a state where the tablet terminal 100 is detached from the base device 200.
  • the tablet terminal 100 is detachable from the base device 200.
  • the information processing apparatus 1 can be used as a notebook computer (see FIG. 1A).
  • the tablet terminal 100 can be used alone, and the tablet terminal 100 can be used as a tablet computer (see FIG. 1B).
  • the information processing apparatus 1 is a so-called detachable computer.
  • FIG. 2 shows the configuration of the information processing apparatus 1.
  • the tablet terminal 100 includes a touch screen 110, a connector 120, a control unit 130, a storage unit 140, a communication unit 150, and a battery 160.
  • the touch screen 110 is provided on one main surface of the housing as shown in FIGS. 1A and 1B.
  • the touch screen 110 includes a display 111 and a touch panel 112.
  • the display 111 is composed of, for example, a liquid crystal display or an organic EL display.
  • the touch panel 112 is provided on the surface of the display 111.
  • the touch panel 112 detects a touch operation by a user's finger or a pointing device (for example, a pen).
  • the touch panel 112 includes, for example, an electrode film.
  • the control unit 130 specifies the contact position (touch position) of the finger or pointing device by measuring, for example, a change in voltage or a change in capacitance caused by the finger or pointing device touching the touch panel 112. Can do.
  • the connector 120 includes a connection terminal for electrically connecting the tablet terminal 100 and the base device 200.
  • the control unit 130 controls the entire information processing apparatus 1.
  • the control unit 130 controls the display position of the pointer on the display 111 and executes input processing according to a touch operation on the touch panel 112.
  • the control unit 130 can be realized by a semiconductor element or the like.
  • the control unit 130 includes, for example, a microcontroller, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), and an ASIC (Application Specific Specific Integrated Circuit). Can do.
  • the function of the control unit 130 may be configured only by hardware, or may be realized by combining hardware and software.
  • the storage unit 140 includes, for example, ROM (Read Only Memory), SSD (Solid State Drive), RAM (Random Access Memory), DRAM (Dynamic Random Access Memory), ferroelectric memory, flash memory, or magnetic disk, or these It can be realized by a combination of
  • the storage unit 140 stores an operating system (OS) 141, various application programs (AP) 142, various data, and the like.
  • the control unit 130 implements various functions by reading the operating system 141, the application program 142, and various data and executing arithmetic processing.
  • the application program 142 can use an application programming interface (API) of the operating system 141. For example, while the control unit 130 is activating the application program 142, the application program 142 may acquire the coordinates of the position where the user's finger or pointing device is in contact with the touch panel 112 using the API of the operating system 141. it can.
  • API application programming interface
  • the communication unit 150 includes an interface circuit for performing communication with an external device in accordance with a predetermined communication standard (for example, LAN (Local Area Network), Wi-Fi).
  • a predetermined communication standard for example, LAN (Local Area Network), Wi-Fi.
  • the battery 160 is, for example, a rechargeable secondary battery (for example, a lithium ion battery).
  • the base device 200 includes an operation unit 210, a connector 220, an external connection terminal 230, and a battery 240.
  • the operation unit 210 includes a touch pad 211 and a keyboard 212 for a user to perform an input operation.
  • the connector 220 includes a connection terminal for electrically connecting the tablet terminal 100 and the base device 200.
  • the external connection terminal 230 is an input / output port for connecting to a peripheral device, and includes a communication interface such as USB (Universal Serial Bus), HDMI (registered trademark) (High Definition Multimedia Interface).
  • the battery 240 is, for example, a rechargeable secondary battery (for example, a lithium ion battery).
  • the connector 120 of the tablet terminal 100 and the connector 220 of the base device 200 are electrically connected.
  • signals and power can be transmitted between the circuit in the tablet terminal 100 and the circuit in the base device 200.
  • various information input via the operation unit 210 and the external connection terminal 230 of the base device 200 is transmitted to the control unit 130.
  • FIGS. 3A to 3C show display examples of the display 111.
  • Various application programs 142 stored in the storage unit 140 include application programs having a function of emulating the pointer 31 indicating the input position.
  • FIG. 3A shows a screen display example when an application program for emulating the pointer 31 is activated.
  • the control unit 130 displays the pointer 31 and displays an image showing the area of the fixed pad 32 (virtual pad) on a part of the display 111 (for example, the right side). Display on the lower side.
  • the position of the fixed pad 32 is fixed.
  • the fixed pad 32 is a predetermined area that allows a user to perform a touch operation for designating the position of the pointer 31 to a position different from the touch position.
  • the touch operation for designating the position of the pointer 31 to a position different from the touch position includes a swipe operation.
  • the swipe operation is an operation in which the user moves a finger or a pointing device while touching the touch panel 112.
  • the fixed pad 32 also accepts a specific touch operation by the user.
  • a specific touch operation is an operation for moving a finger in an arc shape corresponding to a scroll operation, and a tap for performing the same process as a left click on a target pointed to by the pointer 31 without touching the pointer 31 Including operations.
  • the control unit 130 executes the same process as the left click on the current position of the pointer 31. That is, when the user performs a touch operation within the area of the fixed pad 32, the pointer 31 does not move to the touch position.
  • the control unit 130 performs a process corresponding to the touch operation on the touch position. That is, the pointer 31 moves to the touch position in response to a touch operation outside the area of the fixed pad 32.
  • FIG. 3B shows a display example when the user performs a swipe operation from the inside of the fixed pad 32 to the outside of the fixed pad 32 by a finger or a pointing device.
  • the control unit 130 causes the display 111 to display an image indicating the area of the movable pad 33 (virtual pad) while the swipe operation is being performed.
  • the region of the movable pad 33 at this time includes a contact position of a finger or a pointing device and a region in the vicinity thereof.
  • the region of the movable pad 33 is a region having a diameter of 1 cm around the contact position of the finger or the pointing device.
  • the image showing the region of the movable pad 33 in contact with the finger or the pointing device is, for example, a circle having a diameter of 1 cm with the contact position as the center.
  • the movable pad 33 is an area that enables at least one touch operation that is the same as the fixed pad 32. While the finger or the pointing device is in contact with the touch panel 112, the position of the movable pad 33 is variable and moves according to the touch position.
  • FIG. 3C shows a predetermined time after the user performs a swipe operation from the area of the fixed pad 32 to the outside of the area of the fixed pad 32 by using a finger or a pointing device, after the finger or the pointing device is released from the touch panel 112 (for example, A display example within 1 second) is shown.
  • the control unit 130 causes the display 111 to display an image indicating the area of the movable pad 33.
  • the area of the movable pad 33 at this time includes a position where the finger or the pointing device is separated from the touch panel 112 and an area in the vicinity thereof.
  • the region of the movable pad 33 is a region having a diameter of 1 cm centered on a position away from the finger or the pointing device.
  • the image showing the region of the movable pad 33 after the finger or the pointing device is separated is, for example, a circle having a diameter of 1 cm with the separated position as the center.
  • the position of the movable pad 33 within a predetermined time after the finger or the pointing device is separated from the touch panel 112 is fixed at a position where the finger or the pointing device is separated from the touch panel 112.
  • the control unit 130 performs the swipe operation from the area of the fixed pad 32 to the outside of the area of the fixed pad 32, and thereafter, for a predetermined time after the finger or the pointing device leaves the touch panel 112, the movable pad 33. , At least one touch operation (input process) identical to that of the fixed pad 32 can be received.
  • the pointer 31 can be moved to a position different from the touch position while performing a swipe operation from within the area of the fixed pad 32 to outside the area of the fixed pad 32.
  • the left click operation can be emulated by the tap operation in the movable pad 33 area.
  • the movable pad 33 when the finger or pointing device is in contact with the touch panel 112 and the movable pad 33 after the finger or pointing device is separated from the touch panel 112 (see FIG. 3C).
  • the size and shape of the movable pad 33 that is in contact with the movable pad 33 when it is not in contact with each other, and the images showing these areas may be different.
  • the color, size, or shape of the image may be changed.
  • FIG. 4 shows the operation of the control unit 130 when the application program 142 for emulating the pointer 31 is activated.
  • the control unit 130 performs processing according to the touch operation. Note that even when the user performs a touch operation using the pointing device, the control unit 130 performs the same process as the process illustrated in FIG. 4.
  • the control unit 130 determines whether or not the user's finger is in contact with the touch panel 112 based on the output of the touch panel 112 (S1). When detecting that the user's finger is touching the touch panel 112, the control unit 130 determines whether or not the touch is a swipe operation starting from the area of the fixed pad 32 (S2). The determination as to whether or not the swipe operation starts from the area of the fixed pad 32 can be made based on, for example, the coordinates of the contact position.
  • the control unit 130 moves the pointer 31 to a position different from the contact position in accordance with the change in the coordinates of the contact position. (S3). Specifically, the control unit 130 starts the current position of the pointer 31 and moves the pointer 31 according to the moving direction and moving amount of the contact position.
  • the control unit 130 causes the display 111 to display an image indicating the area of the movable pad 33 at the contact position of the touch panel 112 (S4) (see FIG. 3B). Thereby, the user can visually recognize that the movable pad 33 that can receive the same operation as the fixed pad 32 follows the contact position.
  • the display position of the area of the pointer 31 and the movable pad 33 can be specified using the API of the operating system 141, for example.
  • the control unit 130 determines whether or not the user's finger has left the touch panel 112 based on the output of the touch panel 112 (S5). If the user's finger is not separated from the touch panel 112 (No in S5), the process returns to step S3, and the images of the pointer 31 and the movable pad 33 are moved based on the current contact position.
  • the control unit 130 determines whether or not a predetermined time (for example, 1 second) has elapsed since the user's finger is separated from the touch panel 112 ( S6). If the predetermined time has not elapsed, the control unit 130 detects whether or not a tap operation has been performed on the movable pad 33 or the fixed pad 32 (S7) (see FIG. 3C). If no tap operation is detected (No in S7), the process returns to step S6.
  • a predetermined time for example, 1 second
  • control unit 130 When the control unit 130 detects a tap operation in the area of the movable pad 33 or the area of the fixed pad 32 before the predetermined time elapses (Yes in S7), the control unit 130 responds to the tap operation with respect to the position of the pointer 31. Processing is executed (S8). That is, the control unit 130 performs the same process as the left click on the target pointed by the pointer 31. In other words, the control unit 130 executes input processing corresponding to the display position of the pointer 31.
  • the control unit 130 deletes the movable pad 33 and hides the image indicating the area of the movable pad 33 (S9) (see FIG. 3A).
  • the control unit 130 limits the emulation function of the pointer 31 within the area of the fixed pad 32 when a predetermined time elapses after the finger is removed. That is, the control unit 130 performs processing corresponding to the touch operation on the touch position outside the area of the fixed pad 32. By hiding the image indicating the area of the movable pad 33, the user can visually recognize that the movable pad 33 has been deleted from the touch screen 110.
  • control unit 130 When the control unit 130 detects a contact and determines that the contact is not a swipe operation starting from the region of the fixed pad 32 (No in S2), the control unit 130 performs processing according to the touch operation based on the contact. Execute (S10). For example, if the detected contact is a tap operation in the area of the fixed pad 32, the same process as the left click is executed on the current position of the pointer 31. If the detected contact is outside the area of the fixed pad 32, processing corresponding to the touch operation is executed on the contact position. For example, if the starting point of the swipe operation is outside the area of the fixed pad 32, the pointer 31 is moved to the contact position.
  • the information processing apparatus 1 (an example of an electronic device) of the present disclosure includes a display 111 (an example of a display unit), a touch panel 112, and a control unit 130.
  • the display 111 displays a pointer 31 indicating the input position.
  • the touch panel 112 detects a touch operation on the display 111 by a user's finger or a pointing device.
  • the control unit 130 controls the display position of the pointer 31 on the display 111 and executes input processing according to a touch operation on the touch panel 112.
  • the display 111 displays an area (predetermined area) of the fixed pad 32 for designating the display position of the pointer to a position different from the position of the touch operation.
  • the control unit 130 When the control unit 130 detects a swipe operation (continuous touch operation) from the area of the fixed pad 32 to the outside of the area of the fixed pad 32, the control unit 130 determines the touch position according to the movement of the touch position by the swipe operation.
  • the pointer 31 is moved along different positions.
  • the control unit 130 moves the pointer 31 to the touch position in response to a touch operation outside the area of the fixed pad 32.
  • the control unit 130 moves the pointer 31 along a position different from the touch position.
  • the control unit 130 detects that the finger or the pointing device has moved away from the touch panel 112 after the swipe operation from the area of the fixed pad 32 to the outside of the area of the fixed pad 32, the finger or the pointing device has moved away.
  • the display position of the pointer 31 in response to a touch operation on the movable pad 33 (the position where the finger or the pointing device is separated and the vicinity thereof) in a state where the display position of the pointer 31 is fixed only within a predetermined time after detecting Input processing corresponding to is executed.
  • This touch operation is, for example, a tap operation.
  • the control unit 130 causes the display 111 to display an image indicating a region of the movable pad 33 (a region including a position where the finger or the pointing device is separated from the touch panel 112) for a predetermined time. Thereby, since the user can visually recognize the position where the finger is separated from the touch panel 112, that is, the movable pad 33, the operability is further improved.
  • the control unit 130 causes the display 111 to display an image indicating the area of the movable pad 33 (area including the touch position) while detecting a swipe operation from the area of the fixed pad 32 to the area outside the area of the fixed pad 32. . Thereby, since the user can visually recognize that the movable pad 33 follows the touch position, the operability is further improved.
  • the input control method of the present disclosure includes a step of displaying a pointer 31 indicating an input position on the display 111, a step of detecting a touch operation with a user's finger or a pointing device on the display 111 using the touch panel 112, and a control unit 130. Controlling the display position of the pointer 31 on the display 111 and executing an input process on the touch panel 112.
  • This input control method further includes a step of displaying an area (predetermined area) of the fixed pad 32 for designating the display position of the pointer 31 at a position different from the position of the touch operation on the display 111, and an area of the fixed pad 32
  • a swipe operation continuous touch operation
  • the pointer 31 is moved along a position different from the touch position according to the movement of the touch position by the swipe operation.
  • the pointer 31 moves to the touch position in response to a touch operation outside the area of the fixed pad 32.
  • the control unit 130 moves the pointer 31 along a position different from the touch position.
  • the program of the present disclosure causes a computer to execute the input control method. Further, the storage medium according to the present disclosure may store the above program.
  • the first embodiment has been described as an example of the technique disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed.
  • the operation received in the movable pad 33 is not limited to the tap operation.
  • a long press operation with a finger or a pointing device may be received in the movable pad 33.
  • the control unit 130 may execute the same process as the right click.
  • the touch operation starting from outside the area of the fixed pad 32 is enabled. Specifically, the pointer 31 is moved to the touch position in response to a touch operation outside the area of the fixed pad 32. However, while the pointer 31 is displayed on the display 111, the touch operation starting from outside the area of the fixed pad 32 may be invalidated. That is, when an application program for emulating the pointer 31 is activated, the touch operation starting from outside the area of the fixed pad 32 may be invalidated.
  • the user changes the image of the movable pad 33 when the finger or the pointing device is in contact (see FIG. 3B) and the image of the movable pad 33 after the finger or the pointing device is separated (see FIG. 3C) depending on the setting.
  • You may be allowed to.
  • the color, size, or shape of each image may be changed by the user by setting.
  • the size and shape of the region of the movable pad 33 may be changed according to the size and shape of the image of the movable pad 33.
  • the color, size, or shape of the image of the fixed pad 32 may be changed by the user according to the setting.
  • the user may be able to set the image display position of the fixed pad 32 and the display / non-display of the image.
  • the presence / absence, position, size, and shape of the area of the fixed pad 32 may be changed in accordance with display / non-display of the image of the fixed pad 32, position, size, and shape.
  • a so-called detachable computer has been described as an example of an electronic device.
  • the idea of the present disclosure can also be applied to other types of electronic devices equipped with the touch panel 112.
  • this indication is applicable to electronic equipment carrying a touch panel like a tablet terminal.
  • This disclosure can be applied to an electronic device provided with a touch panel. Specifically, the present disclosure is applicable to detachable computers, tablet terminals, and the like.
  • Information processing equipment (electronic equipment) 100 Tablet Terminal 110 Touch Screen 111 Display (Display Unit) DESCRIPTION OF SYMBOLS 112 Touch panel 120 Connector 130 Control part 140 Memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

電子機器(1)は、表示部(111)と、タッチパネル(112)と、制御部(130)とを備える。表示部(111)は、入力位置を示すポインタを表示する。タッチパネル(112)は、表示部(111)に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出する。制御部(130)は、表示部(111)上でのポインタの表示位置を制御し、かつ、タッチパネル(112)上でのタッチ操作に応じて入力処理を実行する。さらに、表示部(111)は、ポインタの表示位置をタッチ操作の位置とは異なる位置に指定するための所定領域を表示する。制御部(130)は、所定領域内から所定領域外への連続的なタッチ操作を検出したときに、連続的なタッチ操作によるタッチ位置の移動に応じて、タッチ位置とは異なる位置に沿ってポインタを移動させる。

Description

電子機器、入力制御方法、及びプログラム
 本開示は、タッチパネルを備えた電子機器、入力制御方法、及びプログラムに関する。
 特許文献1は、ユーザの指又はスタイラスによってタッチ検知ディスプレイに対してタッチ操作を行うことにより、カーソルを移動させる入力制御方法を開示する。この入力制御方法では、カーソルに隣接する領域内におけるドラッグ操作を受け付けて、カーソルを移動している。これにより、タッチ操作によって小型の対象物を正確に指示することを可能にしている。
 特許文献2は、平面型座標入力手段と、座標情報取得手段と、座標情報から符号付角度を算出する角度算出手段と、符号付角度からスクロール情報を作成するスクロール情報作成手段とを有する情報処理装置を開示する。これにより、平面型座標入力手段上における少ない操作でのスクロールの継続を可能にしている。
特開2006-179006号公報 特開2003-233455号公報
 本開示は、操作性を向上する電子機器、入力制御方法、及びプログラムを提供する。
 本開示の電子機器は、表示部と、タッチパネルと、制御部とを備える。表示部は、入力位置を示すポインタを表示する。タッチパネルは、表示部に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出する。制御部は、表示部上でのポインタの表示位置を制御し、かつ、タッチパネル上でのタッチ操作に応じて入力処理を実行する。さらに、表示部は、ポインタの表示位置をタッチ操作の位置とは異なる位置に指定するための所定領域を表示する。制御部は、所定領域内から所定領域外への連続的なタッチ操作を検出したときに、連続的なタッチ操作によるタッチ位置の移動に応じて、タッチ位置とは異なる位置に沿ってポインタを移動させる。
 本開示の入力制御方法は、入力位置を示すポインタを表示部に表示するステップと、タッチパネルにより表示部に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出するステップと、表示部上でのポインタの表示位置を制御し、かつ、タッチパネル上での入力処理を実行するステップと、を含む。この入力制御方法は、さらに、ポインタの表示位置をタッチ操作の位置とは異なる位置に指定するための所定領域を表示部に表示するステップと、所定領域内から所定領域外への連続的なタッチ操作を検出したときに、連続的なタッチ操作によるタッチ位置の移動に応じて、タッチ位置とは異なる位置に沿ってポインタを移動させるステップと、を含む。
 本開示のプログラムは、コンピュータに上記入力制御方法を実行させる。
 本開示における電子機器、入力制御方法、及びプログラムによれば、操作性が向上する。
図1Aは、本開示の実施の形態1における情報処理装置の斜視図である。 図1Bは、本開示の実施の形態1における情報処理装置の斜視図である。 図2は、実施の形態1における情報処理装置の構成を示すブロック図である。 図3Aは、実施の形態1におけるディスプレイの表示例を示す図である。 図3Bは、実施の形態1におけるディスプレイの表示例を示す図である。 図3Cは、実施の形態1におけるディスプレイの表示例を示す図である。 図4は、実施の形態1におけるタッチ入力の制御を説明するためのフローチャートである。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (課題)
 ノートブック型コンピュータなどの電子機器には、ユーザが操作するためのタッチパッドが設けられている。ユーザは、このタッチパッドを指などで操作することによって、画面上のポインタを移動させたり、ポインタが指している対象に対して左クリックなどの動作を実行したりすることができる。このタッチパッドと同一の機能を有する仮想的なタッチパッド(仮想パッド)をタブレット端末などの電子機器の画面上に設けるものがある。
 仮想パッドに対してユーザが例えばスワイプ操作を行う場合には、指が仮想パッド外にはみ出したとしても、継続してスワイプ操作を行うことができる。しかしながら、スワイプ操作中に指が仮想パッド外にはみ出した後、例えばタップ操作を行う場合には、ユーザは、仮想パッドの位置を目視確認して、仮想パッド内でタップ操作を行なわなければならない。よって、画面上の仮想パッドに対する操作性が良くなかった。
 本開示の電子機器は、仮想パッドに対する操作性を向上させる。具体的には、固定位置の仮想パッドと同等の機能を有する別の可変位置の仮想パッドを、一時的にタッチスクリーン上に設ける。すなわち、固定位置の仮想パッドに対する操作と同一の操作を可変位置の仮想パッド内で可能にする。これにより、固定位置の仮想パッドに指を戻さなくても、ポインタに対する操作を継続することができる。例えば、固定位置の仮想パッドを起点としたスワイプ操作であれば、固定位置の仮想パッドの領域外に指が移動した場合であっても、ポインタの移動を可能にする。さらに、そのスワイプ操作を終了した位置において、ポインタが指している対象に対してのタップ操作を可能にする。以下、本開示の電子機器について詳細に説明する。
 (実施の形態1)
 1.構成
 1.1 全体の構成
 図1A及び図1Bは、本開示の実施の形態1に係る電子機器の一例である情報処理装置の外観を示している。本実施の形態の情報処理装置1は、タブレット端末100と、タブレット端末100を取り付け可能なベース装置200とを備える。図1Aは、タブレット端末100がベース装置200に取り付けられた状態を示している。図1Bは、タブレット端末100がベース装置200から取り外された状態を示している。図1A及び図1Bに示すように、タブレット端末100はベース装置200に対して着脱可能である。タブレット端末100がベース装置200に装着されているときは、情報処理装置1をノートブック型コンピュータとして利用することができる(図1A参照)。また、タブレット端末100は単体でも使用可能であり、タブレット端末100をタブレット型コンピュータとして利用することができる(図1B参照)。このように情報処理装置1は、所謂デタッチャブル型コンピュータである。
 1.2 タブレット端末の構成
 図2は、情報処理装置1の構成を示している。タブレット端末100は、タッチスクリーン110と、コネクタ120と、制御部130と、記憶部140と、通信部150と、バッテリ160とを備える。
 タッチスクリーン110は、図1A及び図1Bに示すように筐体の一主面に設けられる。タッチスクリーン110は、ディスプレイ111とタッチパネル112とを含む。ディスプレイ111は、例えば、液晶ディスプレイ又は有機ELディスプレイで構成される。タッチパネル112は、ディスプレイ111の表面に設けられる。タッチパネル112は、ユーザの指又はポインティングデバイス(例えば、ペン)によるタッチ操作を検出する。タッチパネル112は、例えば電極膜を含む。制御部130は、例えば、指やポインティングデバイスがタッチパネル112に接触することによって生じる電圧の変化又は静電容量の変化を測定することによって、指やポインティングデバイスの接触位置(タッチ位置)を特定することができる。
 コネクタ120は、タブレット端末100とベース装置200とを電気的に接続するための接続端子を含む。
 制御部130は、情報処理装置1全体を制御する。例えば、制御部130は、ディスプレイ111上でのポインタの表示位置を制御し、且つ、タッチパネル112上でのタッチ操作に応じて入力処理を実行する。制御部130は、半導体素子などで実現可能である。制御部130は、例えば、マイクロコントローラ、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)で構成することができる。制御部130の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。記憶部140は、例えば、ROM(Read Only Memory)、SSD(Solid State Drive)、RAM(Random Access Memory)、DRAM(Dynamic Random Access Memory)、強誘電体メモリ、フラッシュメモリ、又は磁気ディスク、又はこれらの組み合わせによって実現できる。
 記憶部140には、オペレーティングシステム(OS)141、種々のアプリケーションプログラム(AP)142、及び種々のデータ等が格納されている。制御部130は、オペレーティングシステム141、アプリケーションプログラム142、及び種々のデータを読み込んで演算処理を実行することにより、種々の機能を実現する。アプリケーションプログラム142は、オペレーティングシステム141のアプリケーションプログラミングインターフェース(API)を使用できる。例えば、制御部130がアプリケーションプログラム142を起動中、アプリケーションプログラム142は、オペレーティングシステム141のAPIを使用して、ユーザの指又はポインティングデバイスがタッチパネル112に接触している位置の座標を取得することができる。
 通信部150は、所定の通信規格(例えばLAN(Local Area Network)、Wi-Fi)に準拠して外部機器との通信を行うためのインタフェース回路を備える。バッテリ160は、例えば、充電可能な二次電池(例えば、リチウムイオン電池)である。
 1.3 ベース装置の構成
 ベース装置200は、操作部210と、コネクタ220と、外部接続端子230と、バッテリ240とを備える。
 操作部210は、ユーザが入力操作を行うためのタッチパッド211とキーボード212とを含む。コネクタ220は、タブレット端末100とベース装置200とを電気的に接続するための接続端子を含む。
 外部接続端子230は、周辺機器と接続するための入出力ポートであり、USB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)等の通信インタフェースで構成される。バッテリ240は、例えば、充電可能な二次電池(例えば、リチウムイオン電池)である。
 タブレット端末100がベース装置200に取り付けられると、タブレット端末100のコネクタ120とベース装置200のコネクタ220とが電気的に接続される。これにより、タブレット端末100内の回路とベース装置200内の回路との間で信号や電力の伝送が可能となる。例えば、ベース装置200の操作部210及び外部接続端子230を介して入力された種々の情報が制御部130に送信される。
 2.ディスプレイの表示例
 図3A~Cは、ディスプレイ111の表示例を示している。記憶部140に格納されている種々のアプリケーションプログラム142には、入力位置を示すポインタ31をエミュレーションする機能を備えたアプリケーションプログラムが含まれる。図3Aは、ポインタ31をエミュレーションするためのアプリケーションプログラムが起動されているときの画面表示例を示している。
 ポインタ31をエミュレーションするためのアプリケーションプログラムが起動されている間、制御部130は、ポインタ31を表示すると共に、固定パッド32(仮想パッド)の領域を示す画像をディスプレイ111の一部(例えば、右下側)に表示する。固定パッド32の位置は固定されている。固定パッド32は、ポインタ31の位置をタッチ位置とは異なる位置に指定するためのユーザによるタッチ操作を可能にする所定領域である。ポインタ31の位置をタッチ位置とは異なる位置に指定するためのタッチ操作とは、具体的には、スワイプ操作を含む。スワイプ操作は、ユーザが指又はポインティングデバイスをタッチパネル112に触れた状態で移動させる操作である。また、固定パッド32は、ユーザによる特定のタッチ操作の受付も行う。例えば、特定のタッチ操作は、スクロール動作に対応する円弧状に指を動かす操作、及びポインタ31に触れずにポインタ31が指している対象に対して左クリックと同一の処理を実行するためのタップ操作などを含む。これにより、例えば、ユーザが固定パッド32内でタップ操作を行うと、制御部130は、左クリックと同一の処理を現在のポインタ31の位置に対して実行する。すなわち、ユーザが固定パッド32の領域内でタッチ操作したときは、ポインタ31はそのタッチ位置に移動しない。一方、ユーザが固定パッド32の領域外でタッチ操作したときは、制御部130は、タッチ位置に対して、タッチ操作に応じた処理を実行する。すなわち、固定パッド32の領域外のタッチ操作に応じて、ポインタ31はタッチ位置に移動する。
 図3Bは、ユーザが指又はポインティングデバイスにより固定パッド32の領域内から固定パッド32の領域外へとスワイプ操作を行っているときの表示例を示している。制御部130は、スワイプ操作がされている間、可動パッド33(仮想パッド)の領域を示す画像をディスプレイ111に表示させる。このときの可動パッド33の領域は、指又はポインティングデバイスの接触位置と、その近傍の領域を含む。例えば、可動パッド33の領域は、指又はポインティングデバイスの接触位置を中心とした直径1cmの領域である。指又はポインティングデバイスが接触中の可動パッド33の領域を示す画像は、例えば、接触位置を中心とした直径1cmの円である。可動パッド33は、固定パッド32と同一の少なくとも1つのタッチ操作を可能にする領域である。指又はポインティングデバイスがタッチパネル112に接触中において、可動パッド33の位置は可変であり、タッチ位置に従って移動する。
 図3Cは、ユーザが指又はポインティングデバイスにより固定パッド32の領域内から固定パッド32の領域外へとスワイプ操作を行った後、指又はポインティングデバイスがタッチパネル112から離されてから所定時間(例えば、1秒)内の表示例を示している。指又はポインティングデバイスがタッチパネル112から離れてから所定時間内は、制御部130は可動パッド33の領域を示す画像をディスプレイ111に表示させる。このときの可動パッド33の領域は、指又はポインティングデバイスがタッチパネル112から離れた位置と、その近傍の領域を含む。例えば、可動パッド33の領域は、指又はポインティングデバイスから離れた位置を中心とした直径1cmの領域である。指又はポインティングデバイスが離れた後の可動パッド33の領域を示す画像は、例えば、離れた位置を中心とした直径1cmの円である。指又はポインティングデバイスがタッチパネル112から離れてから所定時間内の可動パッド33の位置は、指又はポインティングデバイスがタッチパネル112から離れた位置に固定される。
 制御部130は、固定パッド32の領域内から固定パッド32の領域外へとスワイプ操作を行っている間、及びその後、指又はポインティングデバイスがタッチパネル112から離れてから所定時間内は、可動パッド33において、固定パッド32と同一の少なくとも1つのタッチ操作(入力処理)を受け付け可能にする。これにより、固定パッド32の領域内から固定パッド32の領域外へとスワイプ操作を行っている間、タッチ位置とは異なる位置へのポインタ31の移動を可能にする。さらに、固定パッド32の領域内から固定パッド32の領域外へのスワイプ操作の後、可動パッド33の領域内におけるタップ操作による、左クリック動作のエミュレーションを可能にする。
 本実施の形態において、指又はポインティングデバイスがタッチパネル112に接触しているときの可動パッド33(図3B参照)と、指又はポインティングデバイスがタッチパネル112から離れた後の可動パッド33(図3C参照)の大きさ及び形状は同一である。また、図3Bに示す指又はポインティングデバイスが接触中の可動パッド33の領域の画像と、図3Cに示す指又はポインティングデバイスが離れた後の可動パッド33の領域の画像は同一である。しかし、接触中の可動パッド33とその後非接触になったときの可動パッド33の大きさ及び形状、さらにそれらの領域を示す画像は異なっても良い。例えば、画像の色、大きさ、又は形状を変えても良い。
 3.動作
 図4は、ポインタ31をエミュレーションするためのアプリケーションプログラム142が起動されているときの制御部130の動作を示している。以下、ユーザが指をタッチパネル112に接触させることによってタッチ操作を行い、制御部130はそのタッチ操作に応じた処理を行う場合を例にして説明する。なお、ユーザがポインティングデバイスを使用してタッチ操作を行った場合も、制御部130は、図4に示す処理と同様の処理を実行する。
 制御部130は、タッチパネル112の出力に基づいて、ユーザの指がタッチパネル112に接触しているか否かを判断する(S1)。ユーザの指がタッチパネル112に接触していることを検知すると、制御部130は、その接触が固定パッド32の領域内を起点としたスワイプ操作か否かを判断する(S2)。固定パッド32の領域内を起点としたスワイプ操作か否かの判断は、例えば、接触位置の座標に基づいて、行うことができる。
 接触が固定パッド32の領域内を起点としたスワイプ操作であれば(S2でYes)、制御部130は、接触位置の座標の変化に応じて、ポインタ31を接触位置とは異なる位置に移動させる(S3)。具体的には、制御部130は、現在のポインタ31の位置を起点にし、接触位置の移動方向及び移動量に応じて、ポインタ31を移動させる。
 制御部130は、ディスプレイ111に、可動パッド33の領域を示す画像をタッチパネル112の接触位置に表示させる(S4)(図3B参照)。これにより、ユーザは、固定パッド32と同一の操作を受け付け可能な可動パッド33が接触位置に追従することを視認することができる。ポインタ31と可動パッド33の領域の表示位置は、例えば、オペレーティングシステム141のAPIを使用して、指定することができる。
 制御部130は、タッチパネル112の出力に基づいて、ユーザの指がタッチパネル112から離れたか否かを判断する(S5)。ユーザの指がタッチパネル112から離れていなければ(S5でNo)、ステップS3に戻り、現在の接触位置に基づいて、ポインタ31と可動パッド33の画像を移動させる。
 ユーザの指がタッチパネル112から離れたときは(S5でYes)、制御部130は、ユーザの指がタッチパネル112から離れてから所定時間(例えば、1秒)が経過したか否かを判断する(S6)。所定時間が経過していなければ、制御部130は、可動パッド33又は固定パッド32に対して、タップ操作が行われたか否かを検知する(S7)(図3C参照)。タップ操作を検知しなければ(S7でNo)、ステップS6に戻る。制御部130は、所定時間が経過する前に、可動パッド33の領域又は固定パッド32の領域内において、タップ操作を検知すると(S7でYes)、ポインタ31の位置に対してタップ操作に応じた処理を実行する(S8)。すなわち、制御部130は、ポインタ31が指している対象に対して、左クリックと同一の処理を実行する。言い換えると、制御部130は、ポインタ31の表示位置に対応した入力処理を実行する。
 指が離れてから所定時間が経過すると(S6でYes)、制御部130は、可動パッド33を削除し、可動パッド33の領域を示す画像を非表示にする(S9)(図3A参照)。これにより、制御部130は、指が離れてから所定時間が経過すると、ポインタ31のエミュレーション機能を固定パッド32の領域内に制限する。すなわち、制御部130は、固定パッド32の領域外では、タッチ操作に応じた処理を、タッチ位置に対して実行する。可動パッド33の領域を示す画像が非表示になることによって、ユーザは、可動パッド33がタッチスクリーン110から削除されたことを視認することができる。
 制御部130は、接触を検知したときに、その接触が固定パッド32の領域内を起点としたスワイプ操作でないと判断したときは(S2でNo)、その接触に基づくタッチ操作に応じた処理を実行する(S10)。例えば、検知した接触が固定パッド32の領域内におけるタップ操作であれば、ポインタ31の現在の位置に対して、左クリックと同一の処理を実行する。また、検知した接触が固定パッド32の領域外であれば、タッチ操作に応じた処理を接触位置に対して実行する。例えば、スワイプ操作の起点が固定パッド32の領域外であれば、ポインタ31を接触位置に移動させる。
 4.効果等
 本開示の情報処理装置1(電子機器の例)は、ディスプレイ111(表示部の例)と、タッチパネル112と、制御部130とを備える。ディスプレイ111は、入力位置を示すポインタ31を表示する。タッチパネル112は、ディスプレイ111に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出する。制御部130は、ディスプレイ111上でのポインタ31の表示位置を制御し、かつ、タッチパネル112上でのタッチ操作に応じて入力処理を実行する。ディスプレイ111は、ポインタの表示位置をタッチ操作の位置とは異なる位置に指定するための固定パッド32の領域(所定領域)を表示する。制御部130は、固定パッド32の領域内から固定パッド32の領域外へのスワイプ操作(連続的なタッチ操作)を検出したときに、スワイプ操作によるタッチ位置の移動に応じて、タッチ位置とは異なる位置に沿ってポインタ31を移動させる。制御部130は、固定パッド32の領域外に対するタッチ操作に応じて、ポインタ31をタッチ位置に移動させる。しかし、スワイプ操作によって、指が固定パッド32の領域内から固定パッド32の領域外へと移動したときは、制御部130は、ポインタ31をタッチ位置とは異なる位置に沿って移動させる。これにより、ユーザは、指を固定パッド32に戻さなくても、スワイプ操作を継続して、ポインタ31をタッチ位置とは異なる位置に沿って移動させることが可能になる。よって、操作性が向上する。
 制御部130は、固定パッド32の領域内から固定パッド32の領域外へのスワイプ操作の後、指またはポインティングデバイスがタッチパネル112から離れたことを検出したときは、指またはポインティングデバイスが離れたことを検出してから所定時間内だけ、ポインタ31の表示位置を固定した状態で、可動パッド33(指またはポインティングデバイスが離れた位置及びその近傍の領域)に対するタッチ操作に応じてポインタ31の表示位置に対応した入力処理を実行する。このタッチ操作は、例えば、タップ操作である。これにより、指を固定パッド領域に戻さなくても、スワイプ操作を終了した位置でタップ操作を行うことにより、そのときのポインタ31の表示位置(すなわち、ポインタ31が指している対象)に対して、左クリックと同一の処理を行うことができる。よって、操作性が向上する。
 制御部130は、所定時間の間、可動パッド33の領域(指またはポインティングデバイスがタッチパネル112から離れた位置を含む領域)を示す画像をディスプレイ111に表示させる。これにより、ユーザは、タッチパネル112から指が離れた位置、すなわち、可動パッド33を視認することができるため、操作性がさらに向上する。
 制御部130は、固定パッド32の領域内から固定パッド32の領域外へのスワイプ操作を検出している間、可動パッド33の領域(タッチ位置を含む領域)を示す画像をディスプレイ111に表示させる。これにより、ユーザは、可動パッド33がタッチ位置に追従することを視認することができるため、操作性がさらに向上する。
 本開示の入力制御方法は、入力位置を示すポインタ31をディスプレイ111に表示するステップと、タッチパネル112によりディスプレイ111に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出するステップと、制御部130により、ディスプレイ111上でのポインタ31の表示位置を制御し、かつ、タッチパネル112上での入力処理を実行するステップと、を含む。この入力制御方法は、さらに、ポインタ31の表示位置をタッチ操作の位置とは異なる位置に指定するための固定パッド32の領域(所定領域)をディスプレイ111に表示するステップと、固定パッド32の領域内から固定パッド32の領域外へのスワイプ操作(連続的なタッチ操作)を検出したときに、スワイプ操作によるタッチ位置の移動に応じて、タッチ位置とは異なる位置に沿ってポインタ31を移動させるステップとを含む。ポインタ31は、固定パッド32の領域外に対するタッチ操作に応じて、タッチ位置に移動する。しかし、スワイプ操作によって、指が固定パッド32の領域内から固定パッド32の領域外へと移動したときは、制御部130により、ポインタ31をタッチ位置とは異なる位置に沿って移動させる。これにより、ユーザは、指を固定パッド32に戻さなくても、スワイプ操作を継続して、ポインタ31をタッチ位置とは異なる位置に沿って移動させることが可能になる。よって、操作性が向上する。
 本開示のプログラムは、コンピュータに上記入力制御方法を実行させる。また、本開示に係る記憶媒体は、上記のプログラムを格納してもよい。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
 上記実施の形態1においては、可動パッド33内でタップ操作を受け付けたときに、左クリックと同一の処理を実行する例について説明した。しかし、可動パッド33内で受け付ける操作はタップ操作に限らない。例えば、指又はポインティングデバイスによる長押しの操作を可動パッド33内で受け付けても良い。制御部130は、長押しの操作を可動パッド33内で検出したときは、右クリックと同一の処理を実行しても良い。
 上記実施の形態1においては、ポインタ31がディスプレイ111に表示されている間も、固定パッド32の領域外を起点にしたタッチ操作を有効にした。具体的には、固定パッド32の領域外のタッチ操作に応じて、ポインタ31をタッチ位置に移動させた。しかし、ポインタ31がディスプレイ111に表示されている間は、固定パッド32の領域外を起点にしたタッチ操作を無効にしても良い。すなわち、ポインタ31をエミュレーションするためのアプリケーションプログラムが起動されているときは、固定パッド32の領域外を起点としたタッチ操作を無効にしても良い。
 指又はポインティングデバイスが接触しているときの可動パッド33の画像(図3B参照)と、指又はポインティングデバイスが離れた後の可動パッド33の画像(図3C参照)とを、ユーザが設定によって変えられるようにしても良い。具体的には、各画像の色、大きさ、又は形状を、ユーザが設定によって変えられるようにしても良い。可動パッド33の領域の大きさ及び形状は、可動パッド33の画像の大きさ及び形状に応じて、変化させても良い。また、固定パッド32の画像の色、大きさ、又は形状を、ユーザが設定によって変えられるようにしても良い。さらに、ユーザが、固定パッド32の画像の表示位置、及び画像の表示/非表示を設定できるようにしても良い。固定パッド32の領域の有無、位置、大きさ、及び形状は、固定パッド32の画像の表示/非表示、位置、大きさ、及び形状に応じて変化させても良い。
 上記実施の形態1においては、電子機器の一例として、所謂デタッチャブル型コンピュータを説明した。しかし、本開示の思想は、タッチパネル112を搭載した他の種類の電子機器にも適用することができる。例えば、本開示は、タブレット端末のようなタッチパネルを搭載した電子機器に対して適用できる。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、タッチパネルを備えた電子機器に適用可能である。具体的には、本開示は、デタッチャブル型コンピュータ、タブレット端末などに適用可能である。
  1    情報処理装置(電子機器)
  100  タブレット端末
  110  タッチスクリーン
  111  ディスプレイ(表示部)
  112  タッチパネル
  120  コネクタ
  130  制御部
  140  記憶部
  141  オペレーティングシステム
  142  アプリケーションプログラム
  150  通信部
  160  バッテリ
  200  ベース装置
  210  操作部
  211  タッチパッド
  212  キーボード
  220  コネクタ
  230  外部接続端子
  240  バッテリ

Claims (8)

  1.  入力位置を示すポインタを表示する表示部と、
     前記表示部に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出するタッチパネルと、
     前記表示部上でのポインタの表示位置を制御し、かつ、前記タッチパネル上でのタッチ操作に応じて入力処理を実行する制御部と、
     を備え、
     前記表示部は、前記ポインタの表示位置を前記タッチ操作の位置とは異なる位置に指定するための所定領域を表示し、
     前記制御部は、前記所定領域内から前記所定領域外への連続的なタッチ操作を検出したときに、前記連続的なタッチ操作によるタッチ位置の移動に応じて、前記タッチ位置とは異なる位置に沿って前記ポインタを移動させる、
     電子機器。
  2.  前記制御部は、前記所定領域内から前記所定領域外への前記連続的なタッチ操作の後、前記指またはポインティングデバイスが前記タッチパネルから離れたことを検出したときは、前記指またはポインティングデバイスが離れたことを検出してから所定時間内だけ、前記ポインタの表示位置を固定した状態で、前記指またはポインティングデバイスが前記タッチパネルから離れた位置及びその近傍の領域に対するタッチ操作に応じて前記ポインタの表示位置に対応した入力処理を実行する、
     請求項1に記載の電子機器。
  3.  前記指またはポインティングデバイスが前記タッチパネルから離れた位置及びその近傍の領域に対する前記タッチ操作は、タップ操作又は長押し操作である、請求項2に記載の電子機器。
  4.  前記制御部は、前記所定時間の間、前記指またはポインティングデバイスが前記タッチパネルから離れた位置を示す画像を前記表示部に表示させる、請求項2に記載の電子機器。
  5.  前記制御部は、前記所定領域内から前記所定領域外への前記連続的なタッチ操作を検出している間、前記タッチ位置を示す画像を前記表示部に表示させる、請求項1に記載の電子機器。
  6.  入力位置を示すポインタを表示部に表示するステップと、
     タッチパネルにより前記表示部に対する、ユーザの指またはポインティングデバイスによるタッチ操作を検出するステップと、
     前記表示部上でのポインタの表示位置を制御し、かつ、前記タッチパネル上での入力処理を実行するステップと、
     を含む入力制御方法であって、
     前記ポインタの表示位置を前記タッチ操作の位置とは異なる位置に指定するための所定領域を前記表示部に表示するステップと、
     前記所定領域内から前記所定領域外への連続的なタッチ操作を検出したときに、前記連続的なタッチ操作によるタッチ位置の移動に応じて、前記タッチ位置とは異なる位置に沿って前記ポインタを移動させるステップと、
     を含む、入力制御方法。
  7.  前記タッチ位置とは異なる位置に沿って前記ポインタを移動させるステップの後、前記指またはポインティングデバイスが前記タッチパネルから離れたことを検出したときは、前記指またはポインティングデバイスが離れたことを検出してから所定時間内だけ、前記ポインタの表示位置を固定した状態で、前記指またはポインティングデバイスが前記タッチパネルから離れた位置及びその近傍の領域に対するタッチ操作に応じて前記ポインタの表示位置に対応した入力処理を実行するステップを含む、請求項6に記載の入力制御方法。
  8.  コンピュータに請求項6または7に記載の入力制御方法を実行させるためのプログラム。
PCT/JP2017/038115 2016-12-27 2017-10-23 電子機器、入力制御方法、及びプログラム WO2018123231A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780075055.0A CN110088720B (zh) 2016-12-27 2017-10-23 电子设备、输入控制方法以及存储介质
JP2018558848A JP7022899B2 (ja) 2016-12-27 2017-10-23 電子機器、入力制御方法、及びプログラム
US16/407,123 US11237722B2 (en) 2016-12-27 2019-05-08 Electronic device, input control method, and program for controlling a pointer on a display

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-253397 2016-12-27
JP2016253397 2016-12-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/407,123 Continuation US11237722B2 (en) 2016-12-27 2019-05-08 Electronic device, input control method, and program for controlling a pointer on a display

Publications (1)

Publication Number Publication Date
WO2018123231A1 true WO2018123231A1 (ja) 2018-07-05

Family

ID=62707963

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038115 WO2018123231A1 (ja) 2016-12-27 2017-10-23 電子機器、入力制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US11237722B2 (ja)
JP (1) JP7022899B2 (ja)
CN (1) CN110088720B (ja)
WO (1) WO2018123231A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024039A (ja) * 2004-07-08 2006-01-26 Sony Corp 情報処理装置及びこれに用いるプログラム
JP2011526396A (ja) * 2008-06-27 2011-10-06 マイクロソフト コーポレーション 仮想タッチパッド

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267808A (ja) * 1999-03-16 2000-09-29 Oki Electric Ind Co Ltd タッチパネル入力装置と表示装置とを連携させた入力方法
JP3951727B2 (ja) 2002-02-06 2007-08-01 松下電器産業株式会社 情報処理装置
JP2006178625A (ja) * 2004-12-21 2006-07-06 Canon Inc 座標入力装置及びその制御方法、並びにプログラム
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
JP4922625B2 (ja) 2006-02-23 2012-04-25 京セラミタ株式会社 タッチパネル入力による電子機器装置、タッチパネルの入力操作を行うプログラム
JP2010211369A (ja) * 2009-03-09 2010-09-24 Nec Corp 端末装置
JP2011028524A (ja) * 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
JP5510185B2 (ja) * 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
US9465457B2 (en) * 2010-08-30 2016-10-11 Vmware, Inc. Multi-touch interface gestures for keyboard and/or mouse inputs
JP5246974B2 (ja) * 2012-01-25 2013-07-24 パナソニック株式会社 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP5721662B2 (ja) * 2012-04-26 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力受付方法、入力受付プログラム、及び入力装置
JP2013246796A (ja) * 2012-05-29 2013-12-09 Panasonic Corp 入力装置、入力支援方法及びプログラム
JP5783957B2 (ja) * 2012-06-22 2015-09-24 株式会社Nttドコモ 表示装置、表示方法及びプログラム
CN103513908B (zh) * 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
US9268424B2 (en) * 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
WO2014098164A1 (ja) * 2012-12-21 2014-06-26 日本電気株式会社 画像表示装置、携帯端末装置、情報処理システム、画像表示装置制御方法及びプログラム
CN104838347A (zh) * 2013-01-15 2015-08-12 日立麦克赛尔株式会社 信息处理装置、信息处理方法、以及程序
JP5780438B2 (ja) * 2013-05-21 2015-09-16 カシオ計算機株式会社 電子機器、位置指定方法及びプログラム
JP5882279B2 (ja) * 2013-10-08 2016-03-09 Necパーソナルコンピュータ株式会社 情報処理装置、方法及びプログラム
WO2016105329A1 (en) * 2014-12-22 2016-06-30 Intel Corporation Multi-touch virtual mouse

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024039A (ja) * 2004-07-08 2006-01-26 Sony Corp 情報処理装置及びこれに用いるプログラム
JP2011526396A (ja) * 2008-06-27 2011-10-06 マイクロソフト コーポレーション 仮想タッチパッド

Also Published As

Publication number Publication date
CN110088720A (zh) 2019-08-02
JP7022899B2 (ja) 2022-02-21
US11237722B2 (en) 2022-02-01
US20190265883A1 (en) 2019-08-29
CN110088720B (zh) 2023-09-05
JPWO2018123231A1 (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
US11752432B2 (en) Information processing device and method of causing computer to perform game program
JP5490508B2 (ja) タッチセンサを有する装置、触感呈示方法及び触感呈示プログラム
US20140380209A1 (en) Method for operating portable devices having a touch screen
WO2019201004A1 (en) Method, apparatus, storage medium, and electronic device of processing split screen display
WO2015105756A1 (en) Increasing touch and/or hover accuracy on a touch-enabled device
US10585510B2 (en) Apparatus, systems, and methods for transferring objects between multiple display units
EP3260947B1 (en) Information processing device, method for inputting and program
WO2018141173A1 (zh) 控制方法、装置、计算机存储介质及终端
US20180203602A1 (en) Information terminal device
US9823890B1 (en) Modifiable bezel for media device
JP7142196B2 (ja) 電子機器、タブレット端末、入力制御方法、及びプログラム
JP2007080291A (ja) 入力処理方法及びそれを実施する入力処理装置
US10739866B2 (en) Using a wearable device to control characteristics of a digital pen
US9501182B2 (en) Mechanism for interpreting touches to a pad cover over a sensor pad at a computing device
US9870061B2 (en) Input apparatus, input method and computer-executable program
TW201430676A (zh) 頁面操作系統及方法
WO2018123231A1 (ja) 電子機器、入力制御方法、及びプログラム
TWI515642B (zh) 手持式電子裝置及其控制方法
US20140362039A1 (en) Input device, information processing device, and program
CN115237274A (zh) 信息处理装置以及控制方法
CN108008819A (zh) 一种便于用户单手操作的页面变换方法及终端设备
JP2015005250A (ja) 携帯型情報処理装置、そのポインタ移動方法、およびコンピュータが実行可能なプログラム
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
JP2014215890A (ja) 電子機器、情報処理方法及び情報処理プログラム
US11669200B2 (en) System for touch pad

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17885558

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018558848

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17885558

Country of ref document: EP

Kind code of ref document: A1