WO2014141856A1 - 携帯型装置 - Google Patents

携帯型装置 Download PDF

Info

Publication number
WO2014141856A1
WO2014141856A1 PCT/JP2014/054166 JP2014054166W WO2014141856A1 WO 2014141856 A1 WO2014141856 A1 WO 2014141856A1 JP 2014054166 W JP2014054166 W JP 2014054166W WO 2014141856 A1 WO2014141856 A1 WO 2014141856A1
Authority
WO
WIPO (PCT)
Prior art keywords
portable device
area
handle
input operation
display surface
Prior art date
Application number
PCT/JP2014/054166
Other languages
English (en)
French (fr)
Inventor
須田 淳一
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201480003023.6A priority Critical patent/CN104781769B/zh
Priority to US14/440,636 priority patent/US20150301713A1/en
Priority to DE112014001224.6T priority patent/DE112014001224T5/de
Priority to KR1020157012474A priority patent/KR101679158B1/ko
Publication of WO2014141856A1 publication Critical patent/WO2014141856A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0279Improving the user comfort or ergonomics
    • H04M1/0281Improving the user comfort or ergonomics for providing single handed use or left/right hand conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to prevention of erroneous operation of a portable device that accepts input on a display surface.
  • Patent Document 1 a touch sensor arranged so as to surround each side of the touch screen detects which part of the mobile phone is held, and the position corresponding to the detection result is invalidated by the touch operation.
  • Patent Document 2 describes changing the UI display position according to the protruding direction of the locus of the scroll operation.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2011-28603 (published on February 10, 2011)” Japanese Patent Publication “Japanese Patent Laid-Open No. 2012-155675 (Released on August 16, 2012)”
  • a portable device that accepts an input operation on a display surface such as a smartphone may be operated by a hand holding the portable device, and an erroneous operation unintended by the user may occur during such an operation.
  • an erroneous operation unintended by the user may occur during such an operation.
  • an operation is performed with the thumb of the right hand while holding the portable device with the right hand, an erroneous operation has occurred due to the base of the thumb of the right hand touching the screen. It is considered possible to prevent the above-mentioned erroneous operation by making the vicinity of the user's handle position an invalid area where the input operation is invalid.
  • the technique disclosed in Patent Document 1 regarding the setting of the invalid area has a problem that the timing for setting the area is not taken into consideration.
  • Patent Document 1 since the vicinity of the hand position of the mobile phone is always an invalidation area, it is impossible to accept an input operation using the entire display surface.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to cause an erroneous operation at a timing at which the input operation should be invalidated (for example, a timing at which an erroneous operation may occur). It is an object of the present invention to provide a portable device or the like that can prevent an erroneous operation without disturbing the reception of the input operation by invalidating the input operation on a possible area.
  • a portable device is a portable device that accepts an input operation on a display surface that displays an image, and the display surface according to a predetermined input operation.
  • Display means for displaying an input target object that is a target of an input operation in a partial area, and a handle determination means for determining whether the portable device is gripped with a right hand or a left hand,
  • An invalid area setting unit that invalidates an input operation to an area that is not displayed while the input target object is being displayed and that corresponds to the determination result of the handle determination unit.
  • a portable device is a portable device that accepts an input operation on a display surface that displays an image, and from a trajectory of a drag operation starting from an end of the display surface, A handle determining means for determining whether the portable device is gripped with a right hand or a left hand, and when the handle determining means determines a handle, the hand according to the determination result of the handle Invalid area setting means for invalidating an input operation on an area on the display surface.
  • the timing when the input operation should be invalidated (timing when the input target object is displayed, timing when the drag operation starting from the end of the display surface, or the like) Disables input operations for areas where erroneous operations may occur. Therefore, there is an effect that an erroneous operation can be prevented without hindering acceptance of the input operation.
  • release process is a flowchart which shows an example of an invalid area
  • FIG. 1 is a block diagram showing a main configuration of a portable device 1 according to an embodiment of the present invention.
  • the portable device 1 is a device of a size and shape that can be operated with one hand holding a casing, and includes a touch panel 11, a control unit 12, a storage unit 13, and a tilt sensor (tilt detection unit) 100 as shown in the figure.
  • the touch panel 11 includes a display unit 111 that displays an image according to the control of the control unit 12 and an input unit 112 that receives a user input operation.
  • the display surface of the display unit 111 also serves as the input surface of the input unit 112, and accepts a user's touch operation on the display surface as an input operation on the portable device 1.
  • the control unit 12 comprehensively controls each unit included in the portable device 1, and includes an operation determination unit 121, a menu display unit (display unit) 122, an operation recording unit 123, an operation analysis unit 124, and a handle determination unit. (Hand holding determination means) 125, an invalid area setting unit (invalid area setting means, release means) 126, and a no-operation time measuring unit 129 are provided.
  • the storage unit 13 stores various data used by the portable device 1. In the illustrated example, operation data 131 indicating a user's operation trajectory and a handle determination condition 133 for determining the handle of the portable device 1 are stored.
  • the tilt sensor 100 is for specifying the posture in which the portable device 1 is held. Note that the tilt sensor 100 may be a gyro sensor, an acceleration sensor, or the like.
  • the operation determination unit 121 determines what operation is performed on the portable device 1 based on the input received by the input unit 112. For example, when the input unit 112 receives a drag operation starting from the right or left end of the display surface of the display unit 111 (an operation for sliding the contact position while maintaining the contact state on the display surface), the menu is displayed. It is determined that a menu display operation that is an operation for displaying is performed. Note that the operation for displaying the menu is not limited to the drag operation.
  • the menu display unit 122 displays a menu on the display unit 111 when receiving a notification from the operation determination unit 121 that the menu display operation has been performed. Specifically, a screen as shown in FIG. 2 is displayed.
  • a menu object O (hereinafter referred to as a menu) is displayed.
  • This menu extends from the end of the display surface toward the center of the display surface and includes a plurality of items (six in this example).
  • the user can cause the portable device 1 to execute processing corresponding to the item.
  • the operation recording unit 123 records operation data 131 indicating the contents of the input operation received by the input unit 112, the operation analysis unit 124 analyzes the operation data 131, and the possession determination unit 125 includes the operation analysis unit 124. Based on the analysis result, the handle is determined according to the handle determination condition 133.
  • the invalid area setting unit 126 sets an invalid area at a position corresponding to the determination result of the handle determination unit 125, notifies the operation determination unit 121 of the set invalid area, and does not accept an operation on the invalid area. By instructing, the operation performed in the invalid area is invalidated.
  • the operation invalidation method is not limited to this.
  • the operation determination unit 121 may not be notified of the operation performed in the invalid area by controlling the input unit 112. Further, it may be controlled not to display an object to be operated in the invalid area.
  • ⁇ Menu display and invalid area settings> In the screen example of FIG. 2, the coordinates of the lower right corner of the display surface are set as reference coordinates A (X0, Y0), and the coordinates of the lower right corner of the menu are set as menu reference points B (X0, Y1).
  • the width of the menu is W
  • the height is H
  • the y-coordinate Y1 of the menu reference point B is the y-coordinate of the start point of the menu display operation so that the item can be selected smoothly with the finger (typically the thumb) that performed the menu display operation. It is preferable to set the same value or a value close thereto.
  • FIG. 3 is a diagram illustrating a region where an erroneous operation is likely to occur.
  • the area Q is placed on the palm (thumb of the thumb). It is easy to touch by mistake at the base).
  • the invalid area T in FIG. 4 is an invalid area that is set when holding the right hand, and is located below the menu (in the positive y-axis direction side) so as to include an area Q (see FIG. 3) that is likely to be erroneously operated. It is set to the lower right side of the display screen.
  • the height of the invalid area T is D / N and the width is W / M.
  • N and M are both integers of 1 or more. From the above, the range of the invalid area T is (N ⁇ X0 ⁇ W) / N ⁇ X ⁇ X0, ((N ⁇ 1) ⁇ Y0 + Y1) / N ⁇ Y ⁇ Y0 It is expressed.
  • the pentagonal invalid area T ′ is also set below the menu so as to include an area Q that is likely to be erroneously operated.
  • the invalid area T ′ covers a wider area closer to the menu than the invalid area T in FIG. 4, so that an erroneous operation is less likely to occur.
  • the invalid areas T and T ′ described above both cover the area Q and have a height that does not reach the menu, and the width is equal to or less than the width W of the menu. This makes it possible to accept an operation outside the invalid area while preventing an erroneous operation from occurring.
  • the invalid area when left-handed may be set on the lower hand side of the menu (lower left corner of the display surface).
  • the invalid area is an area corresponding to the handle, as long as it covers an area where an erroneous operation is likely to occur, and its shape is not limited to the above example. However, it is preferable that the invalid area covers only an area where an erroneous operation is likely to occur according to the handle as in the above example, and should not be set wider than necessary. As a result, compared to the technique of Patent Document 1 (FIG. 3, FIG. 7 etc. of the same document) in which a band-shaped invalidation area is set along the side of the rectangular display surface, In addition, it is possible to accept user input operations over a wide range.
  • the menu display operation is a drag operation starting from the right end or the left end of the display surface. Therefore, the locus when the menu display operation is performed with the right hand is, as shown in FIG. 5A, an arc-like locus L11 that goes from the left end of the display surface to the upper right, or the right end of the display surface goes to the lower left. An arcuate locus L12 is obtained.
  • the trajectory when the menu display operation is performed with the left hand as shown in FIG.
  • an arcuate locus L14 extending from the left end of the display surface to the lower right, or a circle extending from the right end of the display surface to the upper left
  • An arcuate locus L13 is obtained.
  • an arc-shaped trajectory going from the left end to the upper right is referred to as an upward trajectory
  • an arc-shaped trajectory extending from the right end to the lower left is referred to as a lower left trajectory.
  • an arc-shaped trajectory from the left end to the lower right is referred to as a right-down trajectory
  • an arc-shaped trajectory from the right end to the upper left is referred to as an upward-left trajectory.
  • the handle is presumed to be the right hand, and if the track is descending to the right or ascending to the left (negative tilt), the handle is left It can be estimated that. Therefore, if the menu display operation can be analyzed and the inclination of the trajectory can be specified, the holding hand can be determined.
  • the input unit 112 receives a menu display instruction (S101), and the operation determination unit 121 notifies the menu display unit 122 that an operation for displaying a menu has been received.
  • the operation determination unit 121 sends data indicating the locus of the operation for displaying the menu to the operation recording unit 123.
  • the menu display part 122 displays a menu on the display part 111 (S102; display step).
  • the operation recording unit 123 records the data indicating the locus of the operation as the operation data 131 (S103), and notifies the operation analysis unit 124 to that effect.
  • the operation analysis unit 124 analyzes the operation data 131 (S104), and determines whether the trajectory has a certain inclination or more (S105). Here, if it is determined that there is no inclination greater than a certain level (NO in S105), the process ends. On the other hand, when it is determined that there is a certain inclination (YES in S015), the operation analysis unit 124 determines whether the locus inclination is upward or downward (S106), and the result of this determination is determined. The handle determination unit 125 is notified.
  • the possession determination unit 125 that has received the notification to that effect follows the possession determination condition 133. Is the right hand (S107; handle determination step). Then, the handle determination unit 125 notifies the determination result to the invalid area setting unit 126, and the invalid area setting unit 126 sets an invalid area on the right hand side of the display surface (S108; invalid area setting step).
  • the handle determination unit 125 that has received the notification to that effect determines whether the handle is in accordance with the handle determination condition 133. The left hand is determined (S109; handle determination step).
  • the handle determination unit 125 notifies the determination result to the invalid region setting unit 126, and the invalid region setting unit 126 sets an invalid region on the left hand side of the display surface (S110; invalid region setting step).
  • the process ends.
  • the invalid area setting process described above can be expressed as a process of setting an invalid area according to the determination result of the holding hand when displaying the menu, focusing on the display target. If attention is paid to the received input operation, it is a process of setting an invalid area according to the determination result of the holding hand when a drag operation (an operation for displaying a menu) starting from an end is performed. Can express. As described above, the portable device 1 sets the invalid area at the timing of displaying the menu (the timing at which the drag operation starting from the end is performed). In other words, the portable device 1 may cause an erroneous operation due to the vicinity of the base of the thumb touching the display surface, and when it becomes highly necessary to set an invalid area (the menu is displayed). )) To set the invalid area.
  • the invalid area is not set when there is a low possibility of such an erroneous operation.
  • the period which can accept input operation on the whole surface of a display screen can be lengthened.
  • the object to be displayed is not limited to the menu as long as it is a target of the input operation.
  • the operation for displaying the object may be an operation starting from the screen edge, for example, an operation starting from the upper or lower edge of the screen.
  • a menu display operation is accepted (S101), and the menu is displayed (S102).
  • the operation determination unit 121 performs operation recording of data indicating a touch region that is a region touched by a finger on the display surface.
  • the data is sent to the unit 123 (S203).
  • the operation recording unit 123 records the data indicating the touch area in the storage unit 13 as the operation data 131 (S204), and notifies the operation analysis unit 124 to that effect.
  • an invalid area setting process is performed (S205).
  • the invalid area setting unit 126 determines whether to cancel the invalid area (S206). In S206, for example, when the user operation for canceling the invalid area, the end of the menu display, or the end of the execution of the application software operated by the displayed menu is detected, it may be determined to cancel the invalid area. If it is determined that the invalid area is to be canceled (YES in S206), the invalid area setting unit 126 instructs the operation determination unit 121 to cancel the invalidation (S207), thereby ending the process.
  • the operation analysis unit 124 analyzes the operation data 131 and determines whether the operation accepted in S203 is the operation # 1 for the menu. (S208). Specifically, if the touch position indicated by the operation data 131 is included in the area where the menu is displayed, it is determined that the operation is # 1, and if it is not included, it is determined that it is not the operation # 1. .
  • the operation analysis unit 124 further analyzes the operation data 131 and determines whether or not the touch area that is the target of the hand determination is recorded. (S209). Here, if a touch area different from the touch area included in the area where the menu is displayed is recorded, it is determined as YES, and if it is not recorded, it is determined as NO. That is, in S209, it is determined whether or not the touch operation # 2 other than the menu is performed.
  • the invalid area setting process ends. In this case, it is preferable to set an invalid area such that the portable device 1 is held with both hands.
  • the operation analysis unit 124 has information (for example, coordinates) indicating the position of the center of gravity of the touch area that is the target of the handle determination and has that effect.
  • the hand determination unit 125 is notified.
  • the handle determination unit 125 determines whether or not the center of gravity of the touch area is within the expected pressing area (expected contact area) on the right hand side based on the information notified from the operation analysis unit 124 (S210).
  • the expected pressing area is an area on the display surface that is set in advance as an area that is highly likely to be touched by the user's finger during an input operation to the menu, and is likely to be touched when the user holds the right hand.
  • An expected pressing area on the right hand side and an expected pressing area on the left hand side, which is likely to be touched with a finger when holding the left hand, are set in advance. For example, the area at the lower right corner of the display surface including the area Q in FIG.
  • the right hand side expected pressed area may be the right hand side expected pressed area
  • the left hand side expected pressed area is the lower left corner of the display surface having the same shape as the right hand side expected pressed area. It may be an area.
  • the information indicating the range of the expected pressed area is stored as a handle determination condition 133 associated with information indicating whether the range corresponds to right hand holding (right hand side) or left hand holding (left hand side). It may be recorded in the section 13.
  • the expected pressing area may be set so as to cover the corner portion of the portable device 1 on the side of the handle (see the base of the thumb, see FIG. 3) when the user holds the portable device 1 with one hand.
  • a range similar to the invalid area as shown in FIGS. 4 and 5 may be used. That is, the expected pressing area on the right hand side is (N ⁇ X0 ⁇ W) / N ⁇ X ⁇ X0, ((N ⁇ 1) ⁇ Y0 + Y1) / N ⁇ Y ⁇ Y0 May be set (see FIG. 4). The same applies to the expected pressing area on the left hand side.
  • the expected pressing area is not limited to this example as long as it includes an area that is likely to be touched by a finger during an input operation to the menu.
  • an area that becomes wider from the hand-side corner (lower right corner or lower left corner) of the portable device 1 toward the menu may be set as the expected pressed area.
  • the shape of the expected pressed area is not limited to a rectangle and a pentagon as in the case of the invalid area, and may be a trapezoid, a circle, a triangle, a hexagon or more polygon. Further, the expected pressed area and the invalid area may be the same area or different areas.
  • the holding hand determination unit 125 determines that the hand is held right (S211). ; Handle determination step). Then, the handle determination unit 125 notifies the determination result to the invalid region setting unit 126, and the invalid region setting unit 126 sets the invalid region on the right hand side of the display surface (S212; invalid region setting step). On the other hand, if it is determined that the center of gravity of the touch area is within the expected pressing area on the left hand side (NO in S212), it is determined that the touch area is left-handed (S213; holding hand determination step), and that is indicated by the invalid area setting unit 126. The invalid area setting unit 126 sets an invalid area on the left hand side of the display surface (S214; invalid area setting step). Thus, after setting the invalid area according to the handle, the process ends.
  • FIG. 9A when the portable device 1 is held with the right hand, the corner of the portable device 1 close to the base of the thumb (the corner circled in FIG. 9A) is the other.
  • the portable device 1 is tilted downward to the right so that it is positioned vertically downward from the corner.
  • the hand when the hand is held by the left hand, it tilts downward to the left as shown in FIG.
  • the portable device 1 In order to operate while holding the portable device 1 firmly with one hand, it is necessary to fasten the armpits and fix the elbows to the side of the body, and to fix the palm and the portable device 1 in close contact.
  • the handle determination method of the present embodiment uses this, and if the portable device 1 is tilted to the right for a predetermined time or more, it is determined to be held by the right hand, and if it is tilted to the left for a predetermined time or more, it is determined to be left-handed. To do. More specifically, the handle determination condition 133 is associated with the right-handed holding that is tilted to the lower right for a predetermined time or more and the left-handed holding that is tilted to the lower left for the predetermined time or more. Uses to determine the handle. The inclination is calculated from data measured by the inclination sensor 100 (see FIG. 1).
  • a menu display operation is accepted (S101), and the menu is displayed (S102). If the operation determination unit 121 determines that a menu display operation has been performed, the operation determination unit 121 notifies the handle determination unit 125 to that effect.
  • the handle determination unit 125 that has received this notification detects the tilt of the portable device 1 from the data measured by the tilt sensor 100 (S303), and records information indicating the tilt for a predetermined time (S304). When the recording for a predetermined time is completed, the handle determination unit 125 determines whether the portable device 1 is tilted based on the recorded information (S305).
  • the handle determination unit 125 determines that the handle is right-handed according to the handle determination condition 133 (S307; handle determination step). Then, the handle determination unit 125 notifies the determination result to the invalid region setting unit 126, and the invalid region setting unit 126 sets an invalid region on the right hand side of the display surface (S308; invalid region setting step). On the other hand, if it is determined that the vehicle is leaning to the left (NO in S306), it is determined to be left-handed (S309; handle determination step), and the determination result is notified to the invalid area setting unit 126 to the left-hand side. An invalid area is set (S310; invalid area setting step). Thus, after setting the invalid area according to the handle, the process ends.
  • FIG. 11 is a diagram illustrating the trajectory of the drag operation in the vertical direction
  • FIG. 12 is a flowchart illustrating an example of the invalid area setting process in the case where the holding hand is determined by analyzing the trajectory of the drag operation.
  • FIG. 11A when the drag operation in the vertical direction is performed with the thumb of the right hand, the thumb is moved with its base as a fulcrum, and as a result, the locus drawn on the display surface has an arc shape protruding leftward. .
  • the handle can be determined by specifying in which direction the locus of the drag operation protrudes.
  • the handle determination condition 133 indicates that if the trajectory of the drag operation is an arc that protrudes to the left side, the handle is determined to be right-handed, and if the arc that protrudes to the right side indicates that the hand is left-handed, It can be carried out.
  • the operation determination unit 121 waits for a drag operation (S401), and when it is determined that the drag operation has been performed from the locus of the operation received by the input unit 112 (YES in S401). Then, data indicating the locus is transmitted to the operation recording unit 123 and recorded as operation data 131 (S402). In addition, the operation recording unit 123 notifies the operation analysis unit 124 that the operation data 131 has been recorded.
  • the operation analysis unit 124 analyzes the operation data 131 and determines whether the trajectory is arcuate (S403). If it is determined that the shape is not an arc (NO in S403), the invalid area setting process ends. On the other hand, if it is determined that the shape is an arc (YES in S403), it is determined whether the locus is an arc protruding leftward (S404).
  • the operation analysis unit 124 when it is determined that the arc protrudes to the left (YES in S404), the operation analysis unit 124 notifies the possession determination unit 125 to that effect. Then, the handle determination unit 125 determines whether the right hand is held according to the handle determination condition 133 (S405; handle determination step), and notifies the invalid area setting unit 126 of the determination result. On the other hand, when it is determined in S404 that the arc protrudes to the right (NO in S404), the operation analysis unit 124 notifies the possession determination unit 125 to that effect. Then, the handle determination unit 125 determines that the user has a left hand according to the handle determination condition 133 (S406; handle determination step), and notifies the invalid area setting unit 126 of the determination result.
  • the operation determination unit 121 determines that an operation for displaying a menu has been performed (YES in S407), the menu display unit 122 and the invalid area setting unit 126 are notified of this, and the processing is S408. Proceed to On the other hand, if the operation for displaying the menu is not performed, the process returns to S401. Thereby, the invalid area
  • the menu display unit 122 displays a menu.
  • the invalid area setting unit 126 confirms whether it is left-handed based on the content of the last notification from the possession determination unit 125 (S409; possession determination step). Is set (S410; invalid area setting step), and if it is right-handed, an invalid area is set on the right hand side (S411; invalid area setting step).
  • the tilt detection and the holding hand determination may be performed before the menu is displayed. Thereby, the time from the menu display to the invalid area setting can be shortened, and the invalid area can be set simultaneously with the menu display.
  • the cancellation of the invalid area will be described with reference to FIG. Note that the flowchart of FIG. 13 shows processing after the invalid area is set.
  • the invalid area setting unit 126 that has set the invalid area instructs the no-operation time measurement unit 129 to measure the no-operation time, and the no-operation time measurement unit 129 starts measuring the no-operation time according to this instruction ( S501).
  • the no-operation time is a continuation time in a state where no input operation is performed on the input unit 112.
  • the no-operation time measuring unit 129 confirms whether or not the no-operation time continues for a predetermined time or more (S502), and when it is confirmed that the no-operation time continues for the predetermined time or more (YES in S502), the invalid area setting is performed. This is notified to the unit 126. Receiving this notification, the invalid area setting unit 126 instructs the operation determination unit 121 to cancel the invalid area setting (S503), thereby ending the invalid area releasing process.
  • the method of determining the handle based on the drag operation trajectory is not limited to the examples of the above embodiments.
  • the trajectory when the drag operation is performed with the right hand and the trajectory when the drag operation is performed with the left hand are registered in advance as trajectories for determination, and the registered trajectory and the detected drag operation are registered.
  • the handle may be determined by pattern matching with the locus.
  • the determination method of the handle shown in each of the above embodiments may be used in combination, and applied in order from a predetermined determination method with a high priority, and the determination result of the handle that comes out first may be adopted. As a result, for example, when the handle cannot be determined from the tilt, it is possible to determine the handle from the drag operation locus and set the invalid area.
  • the control block (particularly the control unit 12) of the portable device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or software using a CPU (Central Processing Unit). It may be realized by.
  • the portable device 1 includes a CPU that executes instructions of a control program that is software that implements each function, and a ROM (Read Only) in which the control program and various data are recorded so as to be readable by a computer (or CPU).
  • Memory or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the control program, and the like.
  • the computer reads the control program from the recording medium and executes it, thereby achieving the object of the present invention.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the control program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the control program.
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the control program is embodied by electronic transmission.
  • a portable device 1 is a portable device that accepts an input operation on a display surface that displays an image, and inputs an input to a partial area of the display surface according to a predetermined input operation.
  • Display means for displaying an input target object (menu) to be operated, and a handle determination means for determining whether the portable device is gripped with a right hand or a left hand ( During the display of the handle determination unit 125) and the input target object, the input operation is invalidated in the area where the input target object is not displayed and according to the determination result of the handle determination unit Invalid area setting means (invalid area setting unit 126).
  • the area corresponding to the determination result of the handle is set as an invalid area that invalidates the input operation on the area. Since the setting is performed, it is possible to prevent an erroneous operation caused by accidentally touching an area other than the object when performing an input operation on the object. In addition, since the invalid area is set while the object is displayed, it is possible to accept an input operation on the entire display surface until the object is displayed.
  • the portable device 1 according to the second aspect of the present invention is the portable device 1 according to the first aspect, wherein the invalid area setting means is a user side holding the portable device with respect to the input target object on the display surface, and The input operation for the region closer to the handle determined by the handle determination unit may be invalidated. According to the above configuration, it is possible to set an invalidation area suitable for a case where the portable device is held with one hand and operated with the thumb of the hand.
  • the predetermined input operation is an input operation that draws a predetermined locus on the display surface
  • the handle determination unit includes: The handle of the portable device is determined from the locus of the input operation displaying the input target object.
  • the holding hand is determined using the locus of the input operation on which the object is displayed, so that a special configuration for determining the holding hand is not necessary, and the operation for determining the holding hand is performed to the user. There is no need to do it.
  • an invalid area can be set simultaneously with the display of the object.
  • the portable device 1 according to the aspect 4 of the present invention is the portable object 1 according to the aspect 1 or 2, wherein the handle determination unit is configured to input the input target object simultaneously with the input operation on the input target object or continuously with the input operation.
  • the handle determination unit is configured to input the input target object simultaneously with the input operation on the input target object or continuously with the input operation.
  • an expected contact area set in advance on the display surface as an area that is likely to be touched by the user's finger when the input operation is performed with the right hand. If contact with any of the expected contact areas set in advance on the display surface is detected as an area where there is a high possibility of touching, depending on which expected contact area is in contact with the portable device,
  • the holding hand may be determined, and the invalid area setting unit may invalidate an input operation on an area including an expected contact area where contact is detected.
  • a special configuration for determining the handle is unnecessary, and it is not necessary to perform an operation for determining the handle, and the region including the expected contact region is set as an invalid region. An erroneous operation during an input operation can be prevented appropriately.
  • a portable device 1 according to an aspect 5 of the present invention includes the inclination detection unit that measures the inclination of the portable device 1 in the aspect 1 or 2, and the handle determination unit is measured by the inclination detection unit.
  • the handle of the portable device 1 is determined from the tilt.
  • the portable device 1 is operated while being held with one hand, the portable device 1 is likely to be held in an inclined state according to the hand. For this reason, according to the said structure, the handle in the state in which the portable apparatus 1 is operated with one hand can be determined.
  • the handle determining unit has an arc shape in which a trajectory of the drag operation in the vertical direction with respect to the display surface protrudes to the left side. May be determined to be right-handed, and may be determined to be left-handed when it has an arc shape protruding rightward. According to the said structure, a handle can be determined, without providing special structures, such as a sensor.
  • the portable device 1 according to Aspect 7 of the present invention is the portable device 1 according to any one of the Aspects 1 to 6, wherein after the invalid area is set by the invalid area setting means, the state where the input operation is not detected continues for a predetermined time.
  • a canceling unit (invalid area setting unit 126) for canceling the setting of the invalid area may be provided.
  • the invalid area setting is automatically canceled, and an input operation using a wide input surface can be performed. Can be returned to.
  • a portable device 1 according to an aspect 8 of the present invention is a portable device that accepts an input operation on a display surface that displays an image, and is based on a trajectory of a drag operation starting from an end of the display surface.
  • a handle determining means for determining whether the device is gripped with a right hand or a left hand, and the display screen according to a determination result of the handle when the handle determining means determines a handle.
  • an invalid area setting means for setting an invalid area in which an input operation to the area is invalid.
  • the control method according to the tenth aspect of the present invention is a control method for the portable device 1 that accepts an input operation on a display surface for displaying an image, from a drag operation locus starting from an end of the display surface.
  • a hand determination step (S107, S109; S211, S213; S307, S309; S405, S406) for determining whether the portable device 1 is gripped with the right hand or the left hand, and the hand determination Invalid area setting step (S108, S110; S212, S214; S308, S310; S409, invalidating an input operation to the area on the display surface according to the determination result of the holding hand when the holding hand is determined in the step) S410, S411). Since the drag operation starting from the end of the display surface reminds that an object outside the screen is drawn into the screen, it is often assigned to an operation for instructing display of a new selection target.
  • the holding hand is determined from the locus of the drag operation starting from the end portion of the display surface, and when this determination is performed, an invalid area corresponding to the determination result of the holding hand is set. That is, since the invalid area is set at a timing at which an erroneous operation may occur, it is possible to prevent an erroneous operation without hindering the acceptance of the input operation.
  • the portable apparatus may be realized by a computer.
  • the portable apparatus is realized by a computer by causing the computer to operate as each unit included in the portable apparatus.
  • a control program for a portable device and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
  • the present invention can be used for portable devices such as mobile phones and smartphones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 入力操作の受け付けに支障をきたすことなく誤操作を防止するために、携帯型装置(1)は、メニューを表示するメニュー表示部(122)と、携帯型装置(1)の持ち手を判定する持ち手判定部(125)と、メニューを表示したときに、該メニューが表示されていない持ち手判定結果に応じた領域を無効領域に設定する無効領域設定部(126)とを備える。

Description

携帯型装置
 本発明は、表示面に対する入力を受け付ける携帯型装置の誤操作の防止に関する。
 従来から、スマートフォン等のタッチパネルを備えた携帯型装置の操作性向上のための技術開発が進められている。例えば、下記特許文献1には、タッチスクリーンの各辺を囲むように配設したタッチセンサによって携帯電話機の何れの部分が持たれたかを検出し、その検出結果に応じた位置をタッチ操作の無効化領域とすることにより、無効化領域に指を置いて休ませることを可能にしている。また、下記特許文献2には、スクロール操作の軌跡の突出方向に応じてUIの表示位置を変更することが記載されている。
日本国公開特許公報「特開2011-28603号(2011年2月10日公開)」 日本国公開特許公報「特開2012-155675号(2012年8月16日公開)」
 ここで、スマートフォン等の表示面に対する入力操作を受け付ける携帯型装置は、携帯型装置を把持している手で操作されることがあり、このような操作の際には、ユーザの意図しない誤操作が行われるという問題があった。例えば、右手で携帯型装置を把持しながら、右手の親指で操作を行う場合に、右手の親指の付け根部分が画面に触れてしまうことによる誤操作が生じていた。ユーザの持ち手位置付近を、入力操作が無効となる無効領域とすることにより、上記の誤操作を防ぐことは可能と考えられる。しかし、無効領域の設定に関する上記特許文献1の技術では、該領域を設定すべきタイミングについて考慮されていないという問題がある。すなわち、特許文献1では、携帯電話機の持ち手位置付近が常に無効化領域とされるため、表示面の全面を活用した入力操作の受け付けが不能となる。本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力操作を無効にするべきタイミング(例えば、誤操作が生じる可能性のある状態となったタイミング)で、誤操作が生じる可能性のある領域に対する入力操作を無効にすることにより、入力操作の受け付けに支障をきたすことなく、誤操作の防止が可能な携帯型装置等を提供することにある。
 上記の課題を解決するために、本発明の一態様に係る携帯型装置は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、所定の入力操作に応じて、上記表示面の一部の領域に、入力操作の対象となる入力対象オブジェクトを表示する表示手段と、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、上記入力対象オブジェクトの表示中に、該入力対象オブジェクトが表示されていない領域であって、上記持ち手判定手段の判定結果に応じた領域に対する入力操作を無効とする無効領域設定手段と、を備えている。
 また、本発明の他の態様に係る携帯型装置は、画画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、上記持ち手判定手段が持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域に対する入力操作を無効とする無効領域設定手段と、を備えてい
る。
 上記本発明の各態様によれば、入力操作を無効にするべきタイミング(入力対象オブジェクトが表示されているタイミング、または表示面の端部を始点とするドラッグ操作が行われたタイミング等)で、誤操作が生じる可能性のある領域に対する入力操作を無効にする。よって、入力操作の受け付けに支障をきたすことなく、誤操作を防止することができるという効果を奏する。
本発明の一実施形態に係る携帯型装置の要部構成を示すブロック図である。 メニューの表示例を示す図である。 誤操作が発生し易い領域を示す図である。 無効領域の設定例を示す図である。 無効領域の他の設定例を示す図である。 メニュー表示操作の軌跡を示す図である。 無効領域設定処理の一例を示すフローチャートである。 メニュー操作時にメニュー以外の領域で検出されたタッチ領域に基づいて持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。 携帯型装置の持ち手に応じた傾き方を示す図である。 携帯型装置の傾きによって持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。 上下方向のドラッグ操作の軌跡を示す図である。 ドラッグ操作の軌跡の解析によって持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。 無効領域解除処理の一例を示すフローチャートである。
 〔実施形態1〕
 図1は、本発明の一実施形態に係る携帯型装置1の要部構成を示すブロック図である。携帯型装置1は筐体を把持した片手で操作可能なサイズおよび形状の装置であり、図示のように、タッチパネル11、制御部12、記憶部13、および傾きセンサ(傾き検出部)100を備えている。タッチパネル11は、制御部12の制御に従って画像を表示する表示部111と、ユーザの入力操作を受け付ける入力部112とを備えている。表示部111の表示面が入力部112の入力面を兼ねており、表示面に対するユーザのタッチ操作を携帯型装置1に対する入力操作として受け付ける。制御部12は、携帯型装置1が備える各部を統括的に制御するものであり、操作判定部121、メニュー表示部(表示手段)122、操作記録部123、操作解析部124、持ち手判定部(持ち手判定手段)125、無効領域設定部(無効領域設定手段、解除手段)126、および無操作時間計測部129を備えている。記憶部13は、携帯型装置1が使用する各種データを格納する。図示の例では、ユーザの操作の軌跡を示す操作データ131と、携帯型装置1の持ち手を判定するための持ち手判定条件133とが格納されている。また、傾きセンサ100は、携帯型装置1が保持されている姿勢を特定するためのものである。なお、傾きセンサ100は、ジャイロセンサや加速度センサなどであってもよい。
 操作判定部121は、入力部112が受け付けた入力が、携帯型装置1に対するどのような操作であるか判定する。例えば、入力部112が表示部111の表示面の右端部または左端部を始点とするドラッグ操作(表示面への接触状態を維持した状態で、接触位置をスライドさせる操作)を受け付けたときには、メニューを表示させる操作であるメニュー表示操作が行われたと判定する。なお、メニューを表示させるための操作は、上記のドラ
ッグ操作に限られない。メニュー表示部122は、メニュー表示操作が行われた旨の通知を操作判定部121から受信したときに、表示部111にメニューを表示させる。具体的には、図2に示すような画面を表示する。同図の例では、メニューのオブジェクトO(以下、メニューと呼ぶ)が表示されている。このメニューは、表示面の端部を始点として表示面の中央側に向かって延在しており、複数の項目(この例では6つ)を含む。ユーザは、所望の項目を選択することにより、その項目に対応する処理を携帯型装置1に実行させることができる。操作記録部123は、入力部112が受け付けた入力操作の内容を示す操作データ131を記録し、操作解析部124は、操作データ131を解析し、持ち手判定部125は、操作解析部124の解析結果から持ち手判定条件133に従って持ち手を判別する。無効領域設定部126は、持ち手判定部125の判別結果に応じた位置に無効領域を設定し、設定した無効領域を操作判定部121に通知すると共に、該無効領域に対する操作を受け付けないように指示することによって、無効領域内で行われた操作を無効にする。なお、操作の無効化方法はこれに限定されず、例えば入力部112を制御して無効領域内で行われた操作が操作判定部121に通知されないようにしてもよい。また、無効領域内に操作の対象となるオブジェクトを表示しないように制御してもよい。
 <メニューの表示と無効領域の設定>
 図2の画面例では、表示面右下隅の座標を基準座標A(X0,Y0)とし、メニュー右下隅の座標をメニュー基準点B(X0,Y1)としている。また、メニューの幅をW、高さをH、基準座標Aからメニュー基準点Bまでの距離をD(D=Y0-Y1)で示している。オブジェクトOの画像データと共に、上記各パラメータ(W,H,D)を予め記憶しておくことにより、図2のような表示を行うことができる。なお、メニュー表示操作を行った指(典型的には親指)にて、スムーズに項目を選択することができるように、メニュー基準点Bのy座標Y1は、メニュー表示操作の始点のy座標と同一か、またはこれに近い値に設定することが好ましい。なお、表示面の左端を始点とするドラッグ操作を行った場合、表示面の左端を始点としてメニューを表示する。
 次に、無効領域の設定について、図3から図5を参照して説明する。図3は、誤操作が発生し易い領域を示す図である。図3の(a)および(b)に示すように、ユーザが携帯型装置1を右手で持った状態で、メニューのうち領域Pを親指でタッチしようとした場合、領域Qを手のひら(親指の付け根部分)で誤ってタッチしてしまい易い。
 続いて、無効領域の設定について、図4および図5を参照して説明する。図4の無効領域Tは、右手持ちのときに設定される無効領域であり、誤操作がされ易い領域Q(図3参照)を含むように、メニューよりも下側(y軸正方向側)の表示面の右下寄りに設定される。図4の例では、無効領域Tの高さをD/Nとし、幅をW/Mとしている。なお、NおよびMは、何れも1以上の整数である。以上より、無効領域Tの範囲は、
 (N×X0-W)/N<X<X0,((N-1)×Y0+Y1)/N<Y<Y0
と表される。
 また、図5に示すように、五角形形状の無効領域T’も、誤操作がされ易い領域Qを含むように、メニューよりも下側に設定される。無効領域T’は、図4の無効領域Tと比べてメニューに近い側の領域を広くカバーするので、より誤操作が発生し難い。上記の無効領域TおよびT’は、何れも領域Qをカバーしつつ、その高さはメニューに達しない高さであり、その幅はメニューの幅W以下である。これにより、誤操作の発生を防ぎつつ、無効領域外に対する操作を受け付けることを可能にしている。左手持ちのときの無効領域は、上記の例と同様に、メニューより下側の持ち手側(表示面の左下隅)に設定すればよい。なお、無効領域は、持ち手に応じた領域であって、誤操作が発生しやすい領域をカバーするものであればよく、その形状は上記の例に限定されない。ただし、無効領域は、上記の例のように、持ち手に応じた特に誤操作が発生し易い領域のみをカバーし、必要以上に
広く設定しないことが好ましい。これにより、矩形形状の表示面の辺に沿って帯状の無効化領域を設定している特許文献1(同文献の図3、図7等)の技術と比べて、無効領域を設定した状態においても、広い範囲でユーザの入力操作を受け付けることができる。
 <持ち手判定方法>
 持ち手判定方法について、メニュー表示操作の軌跡を示す図6に基づいて説明する。上述のように、メニュー表示操作は、表示面の右端または左端を始点とするドラッグ操作である。このため、右手でメニュー表示操作を行ったときの軌跡は、同図の(a)に示すように、表示面の左端から右上に向かう円弧状の軌跡L11、または表示面の右端から左下に向かう円弧状の軌跡L12となる。一方、左手でメニュー表示操作を行ったときの軌跡は、同図(b)に示すように、表示面の左端から右下に向かう円弧状の軌跡L14、または表示面の右端から左上に向かう円弧状の軌跡L13となる。以下では、左端から右上に向かう円弧状の軌跡を右上がりの軌跡と呼び、右端から左下に向かう円弧状の軌跡を左下がりの軌跡と呼ぶ。同様に、左端から右下に向かう円弧状の軌跡を右下がりの軌跡と呼び、右端から左上に向かう円弧状の軌跡を左上がりの軌跡と呼ぶ。
 以上より、メニュー表示操作の軌跡が、右上がりまたは左下がり(傾きが正)であれば持ち手は右手であると推定し、右下がりまたは左上がり(傾きが負)であれば持ち手は左手であると推定することができる。従って、メニュー表示操作を解析して、その軌跡の傾きを特定することができれば、持ち手を判定することができる。
 <携帯型装置1が実行する無効領域設定処理>
 図7の無効領域設定処理では、入力部112がメニュー表示指示を受け付け(S101)、操作判定部121がメニューを表示させる操作を受け付けた旨をメニュー表示部122に通知する。また、操作判定部121は、メニューを表示させる操作の軌跡を示すデータを操作記録部123に送る。そして、メニュー表示部122は、メニューを表示部111に表示する(S102;表示ステップ)。また、操作記録部123は、操作の軌跡を示す上記データを操作データ131として記録し(S103)、その旨を操作解析部124に通知する。
 次に、操作解析部124は、操作データ131を解析し(S104)、軌跡に一定以上の傾きがあるか判定する(S105)。ここで、一定以上の傾きがないと判定した場合(S105でNO)、処理は終了する。一方、一定以上の傾きがあると判定した場合(S015でYES)には、操作解析部124は、軌跡の傾きが、右上がりまたは左下がりであるか判定し(S106)、この判定の結果を持ち手判定部125に通知する。
 ここで、軌跡の傾きが右上がりまたは左下がりであると判定された場合(S106でYES)には、その旨の通知を受信した持ち手判定部125が、持ち手判定条件133に従い、持ち手が右手であると判定する(S107;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の右手側に無効領域を設定する(S108;無効領域設定ステップ)。一方、軌跡の傾きが左上がりまたは右下がりであると判定された場合(S106でNO)には、その旨の通知を受信した持ち手判定部125が、持ち手判定条件133に従い、持ち手が左手であると判定する(S109;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の左手側に無効領域を設定する(S110;無効領域設定ステップ)。このように、持ち手に応じた無効領域を設定した後、処理は終了する。
 以上説明した無効領域設定処理は、表示する対象に着目すれば、メニューを表示するときに、持ち手の判定結果に応じた無効領域を設定する処理であると表現できる。また、受
け付けた入力操作に着目すれば、端部を始点とするドラッグ操作(メニューを表示させる操作)が行われたときに、持ち手の判定結果に応じた無効領域を設定する処理であると表現できる。このように、携帯型装置1は、メニューを表示するタイミング(端部を始点とするドラッグ操作が行われたタイミング)にて、無効領域を設定する。つまり、携帯型装置1は、親指の根元付近が表示面に触れてしまうことによる誤操作が生じる可能性があり、無効領域を設定する必要性が高い状態となったとき(メニューが表示されているとき)に無効領域を設定する。言い換えれば、上記のような誤操作が生じる可能性の低いときには無効領域を設定しない。これにより、常に無効領域を設定する上記特許文献1の技術と比べて、表示画面の全面にて入力操作を受け付け可能な期間を長くすることができる。なお、表示するオブジェクトは、入力操作の対象となるものであればよく、メニューに限られない。また、上記オブジェクトを表示させるための操作は、画面端を始点とするものであればよく、例えば画面の上または下端を始点とするものであってもよい。
 〔実施形態2〕
 本実施形態では、図1に示す構成の携帯型装置1が、上記実施形態とは異なる方式で持ち手判定を行って無効領域を設定する例を図8に基づいて説明する。図8の左側のフローチャートでは、図7の例と同様に、まず、メニューの表示操作を受け付け(S101)、メニューを表示する(S102)。メニューが表示されている状態において、入力部112が表示面に対するタッチ操作を受け付ける(S203)と、操作判定部121は、表示面上において指が触れた領域であるタッチ領域を示すデータを操作記録部123に送る(S203)。そして、操作記録部123は、タッチ領域を示す上記データを操作データ131として記憶部13に記録し(S204)、その旨を操作解析部124に通知する。
 これにより、無効領域設定処理が行われる(S205)。そして、無効領域設定処理によって無効領域が設定された場合、無効領域設定部126は、無効領域を解除するか判定する(S206)。S206では、例えば、無効領域を解除するユーザ操作、メニューの表示終了、あるいは表示したメニューによって操作されるアプリケーションソフトウェアの実行終了等が検出されたときに、無効領域を解除すると判定としてもよい。ここで、無効領域を解除すると判定した場合(S206のYES)には、無効領域設定部126は、操作判定部121に指示して無効を解除させ(S207)、これにより処理は終了する。
 続いて、S205の無効領域設定処理の詳細について説明する。図8の右側に示すように、本実施形態の無効領域設定処理では、まず、操作解析部124が、操作データ131を解析し、S203で受け付けた操作がメニューに対する操作♯1であるかを判定する(S208)。具体的には、操作データ131の示すタッチ位置が、メニューの表示されている領域内に含まれていれば操作♯1であると判定し、含まれていなければ操作♯1ではないと判定する。
 ここで、操作♯1ではないと判定した場合(S208でNO)、無効領域設定処理は終了する。一方、操作♯1であると判定した場合(S208でYES)には、操作解析部124は、操作データ131をさらに解析し、持ち手判定の対象となるタッチ領域が記録されているかを判定する(S209)。ここでは、メニューの表示されている領域内に含まれるタッチ領域とは別のタッチ領域が記録されていればYESと判定し、記録されていなければNOと判定する。つまり、S209では、メニュー以外に対するタッチ操作♯2が行われたか判定する。
 S209において、持ち手判定の対象となるタッチ領域が記録されていないと判定した場合(S209でNO)には、無効領域設定処理は終了する。この場合には、携帯型装置1が両手で持たれているような無効領域を設定することが好ましく状況であると考えられるためである。一方、記録されていると判定した場合(S209でYES)には、操作解
析部124は、持ち手判定の対象となるタッチ領域の重心の位置を示す情報(例えば座標)と共に、その旨を持ち手判定部125に通知する。
 次に、持ち手判定部125は、操作解析部124から通知された上記情報に基づき、タッチ領域の重心が右手側の期待押下領域(期待接触領域)内にあるかを判定する(S210)。ここで、期待押下領域とは、メニューへの入力操作時にユーザの指が触れる可能性が高い領域として予め設定された表示面上の領域であり、右手持ちの場合に指が触れる可能性が高い右手側の期待押下領域と、左手持ちの場合に指が触れる可能性が高い左手側の期待押下領域とが予め設定されている。例えば、図3の領域Qを含む表示面右下隅の領域を右手側の期待押下領域としてもよく、左手側の期待押下領域は、右手側の期待押下領域と同様の形状の表示面左下隅の領域としてもよい。なお、期待押下領域の範囲を示す情報は、その範囲が右手持ち(右手側)に対応するか、左手持ち(左手側)に対応するかを示す情報と対応付けた持ち手判定条件133として記憶部13に記録しておけばよい。
 期待押下領域は、ユーザが携帯型装置1を片手で把持するときに、携帯型装置1の持ち手側の角部分(親指の根元付近。図3参照。)をカバーするように設定すればよく、例えば図4および図5に示したような無効領域と同様の範囲としてもよい。すなわち、右手側の期待押下領域を、
 (N×X0-W)/N<X<X0,((N-1)×Y0+Y1)/N<Y<Y0
と設定してもよい(図4参照)。左手側の期待押下領域も同様である。無論、期待押下領域は、メニューへの入力操作時に指が触れる可能性が高い領域を含むものであればよく、この例に限られない。例えば、図5の無効領域のように、携帯型装置1の持ち手側の角(右下角または左下角)からメニューに向かうにつれて幅広となる領域を期待押下領域としてもよい。期待押下領域の形状も無効領域の形状と同様、矩形および五角形に限られず、台形、円形、三角形、および、六角形以上の多角形などであってもよい。また、期待押下領域と無効領域とは、同一の領域であってもよいし、異なる領域であってもよい。
 ここで、持ち手判定条件133に従い、タッチ領域の重心が右手側の期待押下領域内にあると判定した場合(S210のYES)には、持ち手判定部125は、右手持ちと判定する(S211;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の右手側に無効領域を設定する(S212;無効領域設定ステップ)。一方、タッチ領域の重心が左手側の期待押下領域内にあると判定した場合(S212でNO)には、左手持ちと判定(S213;持ち手判定ステップ)してその旨を無効領域設定部126に通知し、無効領域設定部126は、表示面の左手側に無効領域を設定する(S214;無効領域設定ステップ)。このように、持ち手に応じた無効領域を設定した後、処理は終了する。
 〔実施形態3〕
 本実施形態では、図1に示す構成の携帯型装置1が、上記実施形態とは異なる方式で持ち手判定を行って無効領域を設定する例を図9および図10に基づいて説明する。図9の(a)に示すように、携帯型装置1を右手持ちしているときには、親指の付け根に近い携帯型装置1の角(図9の(a)において丸で囲んだ角)が他の角よりも鉛直下方向に位置するように、携帯型装置1が右下がりに傾く。一方、左手持ちしているときには、図9の(b)に示すように左下がりに傾く。これは、片手でしっかりと携帯型装置1を保持しながら操作するためには、脇を締めて、肘を体側面に密着させ固定する必要があり、さらに、掌と携帯型装置1を密着させた状態で、携帯型装置1の左右端を、掌の親指の根本部分(親指内転筋)と、小指・薬指・中指・人指し指の第1間接とで、携帯型装置1の片方の端を掌下部に沿わせる形で挟み込むように保持しながら親指で操作するため、携帯型装置1の左右端のどちらか一方を下方向へ向けることになることによる。
 本実施形態の持ち手判定方法は、これを利用したものであり、携帯型装置1が所定時間以上右下がりに傾いていれば右手持ち、所定時間以上左下がりに傾いていれば左手持ちと判定する。具体的には、所定時間以上右下がりに傾いていることと、右手持ちとが対応付けられ、所定時間以上左下がりに傾いていることと、左手持ちとが対応付けられた持ち手判定条件133を用いて持ち手判定を行う。なお、傾きは、傾きセンサ100(図1参照)によって計測されたデータから算出する。
 図10の無効領域設定処理では、図7の例と同様に、まず、メニューの表示操作を受け付け(S101)、メニューを表示する(S102)。操作判定部121は、メニューの表示操作が行われたと判定した場合、持ち手判定部125にその旨を通知する。この通知を受信した持ち手判定部125は、傾きセンサ100が測定したデータから携帯型装置1の傾きを検出し(S303)、その傾きを示す情報を所定時間記録する(S304)。所定時間の記録が完了したときに、持ち手判定部125は、記録した情報に基づいて携帯型装置1が傾いているかを判定する(S305)。具体的には、右下がりまたは左下がりの何れかに傾いている時間が所定の下限時間以上であれば傾いていると判定する。ここで、傾いていないと判定した場合(S305でNO)、無効領域を設定せずに処理を終了する。一方、傾いていると判定した場合(S305でYES)、傾きが右下がりであるかを判定する(S306)。
 ここで、傾きが右下がりであると判定した場合(S306でYES)には、持ち手判定部125は、持ち手判定条件133に従い、右手持ちと判定する(S307;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の右手側に無効領域を設定する(S308;無効領域設定ステップ)。一方、左下がりに傾いていると判定した場合(S306でNO)には、左手持ちと判定し(S309;持ち手判定ステップ)、この判定結果を無効領域設定部126に通知して左手側に無効領域を設定させる(S310;無効領域設定ステップ)。このように、持ち手に応じた無効領域を設定した後、処理は終了する。
 〔持ち手判定方法の他の例〕
 持ち手判定方法のさらに他の例を図11および図12に基づいて説明する。図11は、上下方向のドラッグ操作の軌跡を示す図であり、図12は、ドラッグ操作の軌跡の解析によって持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。図11の(a)に示すように、上下方向のドラッグ操作を右手の親指で行う場合、その付け根を支点として親指が動かされる結果、表示面に描かれる軌跡は左側に突出した円弧状となる。一方、上下方向のドラッグ操作を左手の親指で行う場合、表示面に描かれる軌跡は右側に突出した円弧状となる。よって、ドラッグ操作の軌跡が何れの方向に突出しているかを特定することによって、持ち手を判定することができる。つまり、持ち手判定条件133を、ドラッグ操作の軌跡が左側に突き出た弧であれば右手持ちであり、右側に突き出た弧であれば左手持ちであることを示すものとして、持ち手の判定を行うことができる。
 図12のフローチャートでは、まず、操作判定部121は、ドラッグ操作を待ち受けている(S401)そして、入力部112が受け付けた操作の軌跡からドラッグ操作が行われたと判定したとき(S401でYES)に、その軌跡を示すデータを操作記録部123に送信して、操作データ131として記録させる(S402)。また、操作記録部123は、操作データ131を記録した旨を操作解析部124に通知する。
 次に、操作解析部124は、操作データ131を解析し、軌跡が円弧状であるか判断する(S403)。ここで、円弧状ではないと判断した場合(S403でNO)、無効領域設定処理は終了する。一方、円弧状であると判断した場合(S403でYES)、軌跡が左方向に突き出た弧となっているか判断する(S404)。
 ここで、左方向に突き出た弧となっていると判断した場合(S404でYES)、操作解析部124は、その旨を持ち手判定部125に通知する。そして、持ち手判定部125は、持ち手判定条件133に従って右手持ち判定し(S405;持ち手判定ステップ)、この判定結果を無効領域設定部126に通知する。一方、S404において右方向に突き出た弧となっていると判断した場合(S404でNO)、操作解析部124は、その旨を持ち手判定部125に通知する。そして、持ち手判定部125は、持ち手判定条件133に従って左手持ちと判定し(S406;持ち手判定ステップ)、この判定結果を無効領域設定部126に通知する。
 この後、操作判定部121が、メニューを表示させる操作が行われたと判断したとき(S407でYES)には、その旨をメニュー表示部122および無効領域設定部126に通知して、処理はS408に進む。一方、メニューを表示させる操作が行われなければS401に戻る。これにより、メニュー表示操作を行う直前の持ち手に応じた無効領域を設定することができる。
 S408では、メニュー表示部122はメニューを表示する。そして、無効領域設定部126は、持ち手判定部125からの最後の通知の内容に基づき、左手持ちであるか確認し(S409;持ち手判定ステップ)、左手持ちであれば左手側に無効領域を設定し(S410;無効領域設定ステップ)、右手持ちであれば右手側に無効領域を設定する(S411;無効領域設定ステップ)。これにより処理は終了する。なお、傾きの検出および持ち手の判定は、メニューの表示前に行っておいてもよい。これにより、メニューの表示から無効領域設定までの時間を短縮することができ、メニューの表示と同時に無効領域を設定することも可能になる。
 〔無効領域の解除〕
 無効領域の解除について、図13に基づいて説明する。なお、図13のフローチャートは、無効領域が設定された後の処理を示している。無効領域を設定した無効領域設定部126は、無操作時間計測部129に無操作時間を計測するように指示し、無操作時間計測部129は、この指示に従って無操作時間の計測を開始する(S501)。なお、無操作時間とは、入力部112に対する入力操作が行われていない状態の継続時間である。
 そして、無操作時間計測部129は、無操作時間が所定時間以上継続しているか確認し(S502)、所定時間以上継続していることが確認されたとき(S502でYES)に、無効領域設定部126にその旨を通知する。この通知を受信した無効領域設定部126は、操作判定部121に指示して無効領域の設定を解除させ(S503)、これにより無効領域解除処理は終了する。
 〔変形例〕
 ドラッグ操作の軌跡に基づいて持ち手を判定する方法は、上記各実施形態の例に限られない。例えば、右手でドラッグ操作を行ったときの軌跡と、左手でドラッグ操作を行ったときの軌跡とを、判定用の軌跡として事前に登録しておき、登録された軌跡と、検出されたドラッグ操作の軌跡とのパターンマッチングによって持ち手を判定してもよい。さらに、上記各実施形態で示した持ち手の判定方法を併用し、予め定めた優先度の高い判定方法から順に適用し、最初に出た持ち手の判定結果を採用すればよい。これにより、例えば、傾きからは持ち手が判定できなかった場合に、ドラッグ操作の軌跡から持ち手を判定して無効領域を設定することも可能になる。
 〔ソフトウェアによる実現例〕
 携帯型装置1の制御ブロック(特に制御部12)は、集積回路(ICチップ)等に形成
された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、携帯型装置1は
、各機能を実現するソフトウェアである制御プログラムの命令を実行するCPU、上記制御プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記制御プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記制御プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記制御プログラムは、該制御プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記制御プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る携帯型装置1は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、所定の入力操作に応じて、上記表示面の一部の領域に、入力操作の対象となる入力対象オブジェクト(メニュー)を表示する表示手段(メニュー表示部122)と、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段(持ち手判定部125)と、上記入力対象オブジェクトの表示中に、該入力対象オブジェクトが表示されていない領域であって、上記持ち手判定手段の判定結果に応じた領域に対する入力操作を無効とする無効領域設定手段(無効領域設定部126)と、を備えている。上記の構成によれば、入力対象オブジェクト(以下、必要に応じてオブジェクトと略称する)の表示中に、持ち手の判定結果に応じた領域を、該領域に対する入力操作を無効にする無効領域に設定するので、オブジェクトに対する入力操作を行うときにオブジェクト以外の領域に誤って触れてしまうことによる誤操作を防ぐことができる。また、オブジェクトの表示中に無効領域を設定するため、オブジェクトが表示されるまでの期間、表示面の全面での入力操作の受け付けが可能である。
 本発明の態様2に係る携帯型装置1は、上記態様1において、記無効領域設定手段は、上記表示面において、上記入力対象オブジェクトに対して上記携帯型装置を把持するユーザ側であり、かつ上記持ち手判定手段が判定した持ち手側寄りの領域に対する入力操作を無効としてもよい。上記構成によれば、携帯型装置が片手で把持され、その手の親指で操作される場合に適した無効化領域を設定することができる。
 本発明の態様3に係る携帯型装置1は、上記態様1または2において、上記所定の入力操作は、上記表示面に対して所定の軌跡を描く入力操作であり、上記持ち手判定手段は、上記入力対象オブジェクトを表示させた入力操作の軌跡から、携帯型装置の持ち手を判定する。上記構成によれば、オブジェクトを表示させた入力操作の軌跡を利用して持ち手を判定するので、持ち手判定のための特別な構成が不要となり、また持ち手判定のための操作をユーザに行わせる必要もなくなる。また、オブジェクトの表示と同時に無効領域を設定することも可能となる。
 本発明の態様4に係る携帯型装置1は、上記態様1または2において、上記持ち手判定手段は、上記入力対象オブジェクトに対する入力操作と同時、または該入力操作と連続して、該入力対象オブジェクトに対して右手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域と、入力対象オブジェクトに対して左手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域との何れかに対する接触が検出されている場合に、何れの期待接触領域に接触があったかに応じて、携帯型装置の持ち手を判定し、上記無効領域設定
手段は、接触が検出された期待接触領域を含む領域に対する入力操作を無効にしてもよい。上記構成によれば、持ち手判定のための特別な構成が不要であり、また持ち手判定のための操作を行わせる必要もなく、期待接触領域を含む領域を無効領域とするので、オブジェクトに対する入力操作時の誤操作を適切に防ぐことができる。
 本発明の態様5に係る携帯型装置1は、上記態様1または2において、上記携帯型装置1の傾きを計測する傾き検出部を備え、上記持ち手判定手段は、上記傾き検出部により計測された傾きから、上記携帯型装置1の持ち手を判定する。ここで、携帯型装置1を片手で持ちながら操作しているときには、携帯型装置1は持ち手に応じて傾いた状態で保持される可能性が高い。このため、上記構成によれば、携帯型装置1が片手で操作されている状態における持ち手を判定することができる。
 本発明の態様6に係る携帯型装置1は、上記態様1または2において、上記持ち手判定手段は、上記表示面に対する上下方向のドラッグ操作の軌跡が左側に突出した円弧状となっている場合に右手持ちと判定し、右側に突出した円弧状となっている場合に左手持ちと判定してもよい。上記構成によれば、センサ等の特別な構成を備えることなく持ち手を判定することができる。
 本発明の態様7に係る携帯型装置1は、上記態様1から6の何れか1態様において、上記無効領域設定手段により無効領域が設定された後、入力操作が検出されない状態が所定の時間継続している場合に、無効領域の設定を解除する解除手段(無効領域設定部126)を備えていてもよい。上記構成によれば、オブジェクトを表示したが、表示したオブジェクトへの入力操作が行われない場合に、自動的に無効領域の設定を解除して、入力面を広く使った入力操作が可能な状態に戻すことができる。
 本発明の態様8に係る携帯型装置1は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、上記持ち手判定手段が持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域を、該領域に対する入力操作が無効となる無効領域に設定する無効領域設定手段と、を備えている。また、本発明の態様10に係る制御方法は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置1の制御方法であって、上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置1が右手で把持されているか、左手で把持されているかを判定する持ち手判定ステップ(S107、S109;S211、S213;S307、S309;S405、S406)と、上記持ち手判定ステップにおいて持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域に対する入力操作を無効とする無効領域設定ステップ(S108、S110;S212、S214;S308、S310;S409、S410、S411)と、を含んでいる。表示面の端部を始点とするドラッグ操作は、画面外にあるものを画面内に引き込むことを想起させるので、新たな選択対象の表示を指示するための操作に割り当てられることが多い。つまり、表示面の端部を始点とするドラッグ操作が行われた後には、この操作によって新たに表示された選択対象に対する入力操作が行われる可能性があり、この入力操作の際にはユーザが意図しない領域に誤って触れてしまうことによる誤操作が発生する可能性がある。そこで、上記の構成によれば、表示面の端部を始点とするドラッグ操作の軌跡から持ち手を判定し、この判定を行ったときに持ち手の判定結果に応じた無効領域を設定する。すなわち、誤操作が発生する可能性があるタイミングで無効領域を設定するので、入力操作の受け付けに支障をきたすことなく、誤操作を防止することができる。
 本発明の各態様に係る携帯型装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記携帯型装置が備える各手段として動作させることにより上記携
帯型装置をコンピュータにて実現させる携帯型装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、携帯電話やスマートフォン等の携帯型装置に利用することができる。
  1 携帯型装置
100 傾きセンサ(傾き検出部)
122 メニュー表示部(表示手段)
125 持ち手判定部(持ち手判定手段)
126 無効領域設定部(無効領域設定手段、解除手段)

Claims (8)

  1.  画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、
     所定の入力操作に応じて、上記表示面の一部の領域に、入力操作の対象となる入力対象オブジェクトを表示する表示手段と、
     上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、
     上記入力対象オブジェクトの表示中に、該入力対象オブジェクトが表示されていない領域であって、上記持ち手判定手段の判定結果に応じた領域に対する入力操作を無効とする無効領域設定手段と、を備えていることを特徴とする携帯型装置。
  2.  上記無効領域設定手段は、上記表示面において、上記入力対象オブジェクトに対して上記携帯型装置を把持するユーザ側であり、かつ上記持ち手判定手段が判定した持ち手側寄りの領域に対する入力操作を無効とすることを特徴とする請求項1に記載の携帯型装置。
  3.  上記所定の入力操作は、上記表示面に対して所定の軌跡を描く入力操作であり、
     上記持ち手判定手段は、上記入力対象オブジェクトを表示させた入力操作の軌跡から、携帯型装置の持ち手を判定することを特徴とする請求項1または2に記載の携帯型装置。
  4.  上記持ち手判定手段は、上記入力対象オブジェクトに対する入力操作と同時、または該入力操作と連続して、該入力対象オブジェクトに対して右手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域と、入力対象オブジェクトに対して左手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域との何れかに対する接触が検出されている場合に、何れの期待接触領域に接触があったかに応じて、携帯型装置の持ち手を判定し、
     上記無効領域設定手段は、接触が検出された期待接触領域を含む領域に対する入力操作を無効にすることを特徴とする請求項1または2に記載の携帯型装置。
  5.  上記携帯型装置の傾きを計測する傾き検出部を備え、
     上記持ち手判定手段は、上記傾き検出部により計測された傾きから、上記携帯型装置の持ち手を判定することを特徴とする請求項1または2に記載の携帯型装置。
  6.  上記持ち手判定手段は、上記表示面に対する上下方向のドラッグ操作の軌跡が左側に突出した円弧状となっている場合に右手持ちと判定し、右側に突出した円弧状となっている場合に左手持ちと判定することを特徴とする請求項1または2に記載の携帯型装置。
  7.  上記無効領域設定手段により無効領域が設定された後、入力操作が検出されない状態が所定の時間継続している場合に、無効領域の設定を解除する解除手段を備えていることを特徴とする請求項1から6の何れか1項に記載の携帯型装置。
  8.  画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、
     上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、
     上記持ち手判定手段が持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域に対する入力操作を無効とする無効領域設定手段と、を備えていることを特徴とする携帯型装置。
PCT/JP2014/054166 2013-03-11 2014-02-21 携帯型装置 WO2014141856A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480003023.6A CN104781769B (zh) 2013-03-11 2014-02-21 携带式装置
US14/440,636 US20150301713A1 (en) 2013-03-11 2014-02-21 Portable device
DE112014001224.6T DE112014001224T5 (de) 2013-03-11 2014-02-21 Tragbare Vorrichtung
KR1020157012474A KR101679158B1 (ko) 2013-03-11 2014-02-21 휴대형 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-048258 2013-03-11
JP2013048258A JP5965339B2 (ja) 2013-03-11 2013-03-11 携帯型装置

Publications (1)

Publication Number Publication Date
WO2014141856A1 true WO2014141856A1 (ja) 2014-09-18

Family

ID=51536532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054166 WO2014141856A1 (ja) 2013-03-11 2014-02-21 携帯型装置

Country Status (6)

Country Link
US (1) US20150301713A1 (ja)
JP (1) JP5965339B2 (ja)
KR (1) KR101679158B1 (ja)
CN (1) CN104781769B (ja)
DE (1) DE112014001224T5 (ja)
WO (1) WO2014141856A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102169521B1 (ko) * 2013-05-14 2020-10-23 삼성전자 주식회사 입력장치, 디스플레이장치 및 그 제어방법
JP2015038695A (ja) * 2013-08-19 2015-02-26 ソニー株式会社 情報処理装置および情報処理方法
US9317183B2 (en) * 2013-08-20 2016-04-19 Google Inc. Presenting a menu at a mobile device
KR20160024575A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 전자 장치를 잠금해제하는 방법과 이를 지원하는 전자 장치
JP6458513B2 (ja) * 2015-01-30 2019-01-30 ブラザー工業株式会社 表示装置および表示プログラム
WO2017006394A1 (ja) * 2015-07-03 2017-01-12 三菱電機株式会社 情報処理システム
US10248311B2 (en) * 2015-07-06 2019-04-02 Samsung Electronics Co., Ltd. Electronic device supporting virtual keyboard and method for configuring the virtual keyboard
CN106569713B (zh) * 2016-10-31 2020-07-17 南京云岸信息科技有限公司 一种触控区域调整装置、方法及终端
JP6627795B2 (ja) * 2017-02-08 2020-01-08 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
JP2018151852A (ja) * 2017-03-13 2018-09-27 セイコーエプソン株式会社 入力装置、入力制御方法、およびコンピュータープログラム
JP6631582B2 (ja) * 2017-04-18 2020-01-15 京セラドキュメントソリューションズ株式会社 操作入力装置、情報処理装置、操作入力方法
CN108594995A (zh) * 2018-04-13 2018-09-28 广东小天才科技有限公司 一种基于手势识别的电子设备操作方法及电子设备
JP7491232B2 (ja) * 2021-02-05 2024-05-28 株式会社デンソー 車両用制御装置及び車両用制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028603A (ja) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2011237945A (ja) * 2010-05-07 2011-11-24 Fujitsu Toshiba Mobile Communications Ltd 携帯型電子機器
JP2012108674A (ja) * 2010-11-16 2012-06-07 Ntt Docomo Inc 表示端末
JP2012175213A (ja) * 2011-02-18 2012-09-10 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169820A (ja) 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP5058187B2 (ja) * 2009-02-05 2012-10-24 シャープ株式会社 携帯情報端末
US8674959B2 (en) * 2010-06-28 2014-03-18 Intel Corporation Dynamic bezel for a mobile device
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
JP2012155675A (ja) * 2011-01-28 2012-08-16 Panasonic Corp タッチパネル装置
CN102778969B (zh) * 2011-05-13 2015-12-09 联想移动通信科技有限公司 触摸式移动终端及其运行方法
CN103619243B (zh) * 2011-06-24 2016-05-04 株式会社村田制作所 移动设备
CN102591576B (zh) * 2011-12-27 2014-09-17 华为终端有限公司 一种手持设备及触摸响应方法
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
KR101496512B1 (ko) * 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028603A (ja) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2011237945A (ja) * 2010-05-07 2011-11-24 Fujitsu Toshiba Mobile Communications Ltd 携帯型電子機器
JP2012108674A (ja) * 2010-11-16 2012-06-07 Ntt Docomo Inc 表示端末
JP2012175213A (ja) * 2011-02-18 2012-09-10 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Also Published As

Publication number Publication date
CN104781769B (zh) 2018-01-19
KR101679158B1 (ko) 2016-11-23
KR20150068478A (ko) 2015-06-19
CN104781769A (zh) 2015-07-15
US20150301713A1 (en) 2015-10-22
JP2014174829A (ja) 2014-09-22
JP5965339B2 (ja) 2016-08-03
DE112014001224T5 (de) 2016-01-07

Similar Documents

Publication Publication Date Title
JP5965339B2 (ja) 携帯型装置
JP5726754B2 (ja) 携帯情報端末、入力制御方法、およびプログラム
JP5983503B2 (ja) 情報処理装置及びプログラム
JP4395408B2 (ja) タッチパネル付き入力装置
JP5434997B2 (ja) 画像表示装置
US20110122080A1 (en) Electronic device, display control method, and recording medium
JP5222967B2 (ja) 携帯端末
JP2009158989A (ja) カメラ
WO2015198688A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20150253925A1 (en) Display control device, display control method and program
JP6131091B2 (ja) 情報処理装置および制御プログラム
JP2017027098A (ja) 操作認識装置、操作認識方法及びプログラム
JP2014137646A (ja) 表示装置、表示装置の制御方法、および、記録媒体
US20170075453A1 (en) Terminal and terminal control method
JP6000035B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
JP7218567B2 (ja) 情報入力装置
JP5995171B2 (ja) 電子機器、情報処理方法、及び情報処理プログラム
JP6682951B2 (ja) プログラムおよび情報処理装置
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
EP3568745B1 (en) Hover interaction using orientation sensing
JP6034140B2 (ja) 表示装置、表示制御方法及びプログラム
KR101463086B1 (ko) 다기능 장치에 명령을 입력하는 방법
JP2011175310A (ja) 情報処理装置および情報処理システム
JP2017045472A (ja) タッチパネル式装置によるヘッドマウントディスプレイ上のポインタ操作が可能なシステム、プログラム、及び方法
JP2015156153A (ja) 携帯端末

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14764968

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14440636

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20157012474

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: IDP00201503268

Country of ref document: ID

WWE Wipo information: entry into national phase

Ref document number: 1120140012246

Country of ref document: DE

Ref document number: 112014001224

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14764968

Country of ref document: EP

Kind code of ref document: A1