WO2011055587A1 - 携帯端末および表示方法 - Google Patents

携帯端末および表示方法 Download PDF

Info

Publication number
WO2011055587A1
WO2011055587A1 PCT/JP2010/065280 JP2010065280W WO2011055587A1 WO 2011055587 A1 WO2011055587 A1 WO 2011055587A1 JP 2010065280 W JP2010065280 W JP 2010065280W WO 2011055587 A1 WO2011055587 A1 WO 2011055587A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile terminal
key
display
corresponding position
gravity
Prior art date
Application number
PCT/JP2010/065280
Other languages
English (en)
French (fr)
Inventor
尚基 塩田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to CN201080050267.1A priority Critical patent/CN102597929B/zh
Priority to US13/505,904 priority patent/US20120212418A1/en
Priority to EP10828147.8A priority patent/EP2498172A4/en
Priority to JP2011539310A priority patent/JP5681867B2/ja
Publication of WO2011055587A1 publication Critical patent/WO2011055587A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/1649Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a portable terminal provided with a touch panel and a display method.
  • Mobile terminals such as mobile phones, PHS (Personal Handy-phone System) and PDA (Personal Digital Assistant) are increasingly equipped with touch panels.
  • a user can perform input to the mobile terminal by performing a touch operation that touches an operation target such as a software keyboard displayed on the screen. For this reason, since the user can perform an operation by touching the screen, an intuitive operation is possible.
  • Patent Document 1 As a technique for improving the operability when a user performs input while holding the mobile terminal in a handheld terminal equipped with a touch panel, the mobile terminal described in Patent Document 1 and Patent Document 2 An information processing apparatus has been proposed.
  • Patent Document 3 describes an operating device capable of realizing a desire to use a mobile terminal with a desired position.
  • this operation device when the user presses the touch panel, an operation button for performing an operation with the thumb is displayed around the pressed position. Therefore, the user can use the mobile terminal with a desired position of the mobile terminal.
  • An object of the present invention is to provide a portable terminal and a display method that solve the above-described problem that the holding of the portable terminal becomes unstable while enabling the user to hold the portable terminal as desired. It is in.
  • the portable terminal includes a touch panel, a position detection unit that detects a contact position on the touch panel, and a corresponding position according to the contact position detected by the position detection unit on the touch panel. And a control unit that displays display information indicating that the user is holding the portable terminal.
  • the display method according to the present invention is a display method by a portable terminal having a touch panel, wherein the touch position on the touch panel is detected, and the corresponding position on the touch panel according to the detected touch position Display information indicating that the position is a holding position of the mobile terminal by the user is displayed.
  • the present invention it is possible to stably hold the mobile terminal while enabling the user to hold the mobile terminal as desired.
  • FIG. 1 is a block diagram showing the configuration of the mobile terminal according to the first embodiment of the present invention.
  • the mobile terminal 100 includes a touch panel 1, a touch coordinate determination unit 2, and a control unit 3.
  • the mobile terminal 100 is a mobile phone, PHS, PDA, or the like.
  • the touch panel 1 displays various information such as characters and images, and senses contact with its own panel.
  • the touch coordinate determination unit 2 is sometimes called a position detection unit.
  • the touch coordinate determination unit 2 detects a contact position on the touch panel 1 from the user.
  • the contact position is represented by coordinate values in a coordinate system preset on the touch panel 1.
  • the control unit 3 displays display information indicating that the corresponding position is a holding position of the mobile terminal 100 by the user at the corresponding position corresponding to the contact position detected by the touch coordinate determination unit 2 on the touch panel 1. .
  • the corresponding position is the other hand that allows the user to stably hold the portable terminal 100 when the user holds the portable terminal 100 so as to touch the contact position with a finger of one hand.
  • the position of the finger is the other hand that allows the user to stably hold the portable terminal 100 when the user holds the portable terminal 100 so as to touch the contact position with a finger of one hand. The position of the finger.
  • the corresponding position is a position that is line-symmetric with the contact position with respect to the horizontal center line of the mobile terminal 100.
  • the corresponding position is a position that is point-symmetric with the contact position with respect to the center of gravity of the mobile terminal 100.
  • the location of the corresponding position is merely an example, and is not limited to this example.
  • the corresponding position may be a position that is slightly lower than the position that is point-symmetric with the contact position with respect to the center of gravity of the mobile terminal 100.
  • FIG. 2A and 2B are diagrams showing examples of display information and corresponding positions.
  • the mark 21 which shows a user's holding position is shown as display information.
  • the mark 21 is displayed at a position symmetrical to the contact position 23 with respect to the horizontal center line 22 of the portable terminal 100.
  • the mark 21 is displayed at a point symmetrical with the contact position 23 with respect to the center of gravity 24 of the mobile terminal 100.
  • FIG. 3 is a flowchart for explaining an example of the operation of the mobile terminal 100 in the present embodiment.
  • step S301 when the user's finger touches the touch panel 1, the touch coordinate determination unit 2 detects the touched coordinate value as a contact position. Thereafter, step S302 is executed.
  • step S302 the touch coordinate determination unit 2 outputs the contact position to the control unit 3.
  • the control unit 3 calculates a corresponding position based on the contact position.
  • control unit 3 holds the coordinate value of the center line or the center of gravity of the mobile terminal 100, and based on the coordinate value of the center line or the center of gravity and the coordinate value of the contact position indicated by the contact position information, A position that is line-symmetric with the contact position with respect to the center line or a position that is point-symmetric with the contact position with respect to the center of gravity of the mobile terminal 100 is calculated as the corresponding position.
  • step S303 the control unit 3 generates display information, displays the display information at a corresponding position on the touch panel 1, and ends the process.
  • the touch coordinate determination unit 2 detects a contact position on the touch panel 1 from the user.
  • the control unit 3 displays display information indicating that the corresponding position is a holding position of the mobile terminal 100 by the user at the corresponding position corresponding to the contact position detected by the touch coordinate determination unit 2 on the touch panel 1.
  • control unit 3 sets a position symmetrical with the contact position with respect to the center line of the mobile terminal 100 as a corresponding position. Therefore, when the mobile terminal 100 is arranged so as to be horizontally long, the mobile terminal can be stably held.
  • control unit 3 sets the contact position and point-symmetrical positions as the corresponding positions with respect to the center of gravity of the mobile terminal. Therefore, when the mobile terminal 100 is arranged so as to be vertically long, the mobile terminal 100 can be stably held.
  • FIG. 4 is an external view showing the external appearance of the mobile terminal of the present embodiment.
  • the mobile terminal 100 includes two housings 101 and 102 and a connection unit 103.
  • Each of the housings 101 and 102 is provided with two display screens 111 and 112, respectively.
  • connection unit 103 uses a hinge mechanism or the like to connect the casings 101 and 102 so that they can be opened and closed.
  • the connection unit 103 connects the casings 101 and 102 so as to be openable and closable by connecting the casings 101 and 102 so as to be rotatable about a predetermined rotation axis.
  • FIG. 5 is a block diagram showing the configuration of the mobile terminal of the present embodiment.
  • the mobile terminal 100 includes a touch panel 1, a terminal opening / closing sensor unit 4, an acceleration sensor unit 5, and a calculation unit 6 having a touch coordinate determination unit 2 and a control unit 3.
  • the touch panel 1 includes a display unit 11 and a touch input unit 12.
  • the display unit 11 can display various information, and at least displays a display position determination button for determining the position of the operation key.
  • the display position determination button is used as determination information for determining the holding position of the user.
  • the touch input unit 12 is provided on the front surface of the display unit 11 so as to overlap the display unit 11, and detects that the user has touched the touch input unit 12. Note that the touch input unit 12 may detect that the user has pressed it as being touched by the user.
  • the terminal open / close sensor unit 4 is sometimes called an open / close detection unit.
  • the terminal open / close sensor unit 4 detects the open / closed state of the mobile terminal 100.
  • the terminal open / close sensor unit 4 detects the open / close angle of the mobile terminal 100 as an open / closed state.
  • the terminal open / close sensor unit 4 may detect whether the mobile terminal 100 is open or not as an open / closed state.
  • the acceleration sensor unit 5 is sometimes called a gravity detection unit.
  • the acceleration sensor unit 5 detects the direction of gravity acting on the mobile terminal 100.
  • the touch coordinate determination unit 2 of the calculation unit 6 detects the end point of the drag operation using the touch input unit 12 with respect to the display position determination button displayed on the display unit 11 as a contact position on the touch panel 1.
  • the control unit 3 includes a key display position determination unit 31 and a key display composition unit 32.
  • the key display position determination unit 31 is sometimes called a calculation unit.
  • the key display position determination unit 31 detects the touch detected by the touch coordinate determination unit 2 based on the open / closed state detected by the terminal open / close sensor unit 4 and the direction of gravity detected by the acceleration sensor unit 5. The corresponding position according to the position is calculated.
  • the key display position determination unit 31 determines whether or not the mobile terminal 100 is arranged to be vertically long based on the direction of gravity. In the present embodiment, when the casings 101 and 102 are opened, if the casings 101 and 102 are vertically aligned, the mobile terminal 100 is vertically long, and if the casings 101 and 102 are horizontally aligned, the mobile terminal 100 is horizontally long It shall be
  • the key display position determination unit 31 is arranged so that the mobile terminal 100 is vertically long when the direction of the rotation axis is perpendicular to the direction of gravity. If the direction of the rotation axis and the direction of gravity are parallel, it is determined that the mobile terminal is arranged so as to be horizontally long.
  • the key display position determination unit 31 calculates a position symmetrical to the contact position with respect to the horizontal center line of the mobile terminal 100 as a corresponding position.
  • the key display position determination unit 31 calculates a corresponding position based on the open / closed state.
  • a position that is point-symmetric with respect to the center of gravity of the mobile terminal 100 is calculated as the corresponding position.
  • a position that is point-symmetric with respect to the center of gravity of the display screen having the contact position is calculated as the corresponding position.
  • 6A to 6C are diagrams showing examples of contact positions and corresponding positions.
  • the mobile terminal 100 is arranged so as to be horizontally long (that is, the casings 101 and 102 are arranged side by side).
  • the corresponding position 61 is a line symmetrical with the contact position 60 with respect to the center line 65 of the mobile terminal 100.
  • the mobile terminal 100 is arranged so as to be vertically long (that is, the casings 101 and 102 are arranged vertically). Further, the portable terminal 100 is in a fully open state (that is, a state where the angle between the casings 101 and 102 is 180 °). In this case, the corresponding position 62 is point-symmetric with the contact position 60 with respect to the center of gravity 66 of the mobile terminal 100.
  • the mobile terminal 100 is arranged so as to be vertically long. Further, the portable terminal 100 is closed by 90 °, that is, the angle between the casings 101 and 102 is 90 °. In this case, the corresponding position 63 is point-symmetric with respect to the contact position 60 with respect to the center of gravity 67 of the display screen having the contact position 60 (display screen 111 in FIG. 6C).
  • the key display combining unit 32 is sometimes called a display control unit.
  • the key display combining unit 32 displays the first operation key in the contact area on the display unit 11 including the contact position detected by the touch coordinate determination unit 2.
  • the key display combining unit 32 displays a second operation key that is display information in a corresponding area including the corresponding position calculated by the key display position determining unit 31 in the display unit 11.
  • the first operation key and the second operation key may be collectively referred to as operation keys.
  • the control unit 3 displays the first operation key of the contact area including the contact position and includes the corresponding position.
  • the second operation key is displayed as display information in the area.
  • the first operation key and the second operation key may be collectively referred to as operation keys.
  • the key display combining unit 32 combines the displayed image with the operation key and displays the displayed image. Displayed on the unit 11.
  • the first operation key is an operation key for performing a key input operation with the thumb of one hand of the user
  • the second operation key is for performing a key input operation with the thumb of the other hand of the user. This is the operation key.
  • the user when the user performs a key input operation using the operation keys displayed on the touch panel as described above, the user touches the operation key, unlike when performing a key input operation using a normal hardware keyboard. Sometimes there is no response. For this reason, the user cannot identify the operation key by touching the operation key with a hand. Therefore, the user must perform a key input operation while visually confirming the operation key, such as whether or not the target operation key has been correctly selected.
  • the user's line of sight is the first operation key and the second operation key.
  • the movement between the two operation keys causes frequent movement of the line of sight, resulting in a decrease in input efficiency.
  • FIG. 7A is a diagram showing an example of operation keys.
  • FIG. 7A shows a first operation key 71, a second operation key 72, and an input destination form 73 displayed on the touch panel 1.
  • the first operation key 71 is a key for performing an input operation with the thumb of the left hand, and includes a space key 71A for inputting a blank and a character key 71B to which a character is assigned.
  • the space key 71A is displayed at a position overlapping the contact position.
  • the character key 71B has a plurality of Romaji keys to which each Romaji is assigned.
  • the Romaji key is arranged in a range where the thumb of the user's left hand can easily reach, more specifically, in a fan-shaped range centered on the contact position.
  • a key to which hiragana or katakana is assigned may be used.
  • the second operation key 72 is a key without a character key among the operation keys, and has a function key that can be dragged. This function key is assigned a function in each drag direction by the drag operation. Specifically, with the second operation key 72, an execution instruction for any of a determination function, a BS (Back Space) function, and a shift function is input according to the drag direction.
  • the decision function is a function that decides the character that the user wants to input.
  • the determination function is selected while the user is in contact with any of the character keys 71B with the left hand, the character assigned to the character key is input to the input destination form 73.
  • the BS function is a function for deleting the character immediately before the cursor indicating the character input position in the input destination form 73.
  • the shift function is a function assigned to a shift key of a normal keyboard. For example, the shift function has a function of switching a next character to be capitalized.
  • the operation keys shown in FIG. 7A are merely examples, and the operation keys are not limited to this example.
  • the operation key may be the example shown in FIG. 7B.
  • FIG. 7B shows the first operation key 71, the second operation key 72B, and the input destination form 73 displayed on the touch panel 1.
  • the second operation key 72B has a plurality of function keys to which functions are assigned. Specifically, the second operation key 72B includes a determination key 72B1 to which a determination function is assigned, a BS key 72B2 to which a BS function is assigned, and a shift key 72B3 to which a shift function is assigned. When these function keys are touched by the user, the function assigned to the touched function key is executed.
  • FIGS. 8A to 8C are diagrams for explaining the operation of the mobile terminal 100 of the present embodiment. It is assumed that the first operation key is a left hand key for performing a key input operation with the thumb of the left hand, and the second operation key is a right hand key for performing a key input operation with the thumb of the right hand. Further, the display screens are arranged in the horizontal direction, and a position that is line-symmetric with the contact position with respect to the center line of the mobile terminal 100 is a corresponding position.
  • a display position determination button 81 is displayed on the touch panel 1.
  • the user performs a drag operation on the display position determination button 81 to move the first operation key to a position where it can be used easily.
  • the left hand key 82 is displayed in the contact area including the contact position that is the end point of the drag operation, and the contact position.
  • the right hand key 83 is displayed in the corresponding area including the corresponding position according to the.
  • FIG. 9 is a flowchart for explaining a more detailed operation of the mobile terminal 100 of the present embodiment.
  • the first operation key is a left hand key
  • the second operation key is a right hand key.
  • step S901 the key display combining unit 32 of the mobile terminal 100 displays a display position determination button at a predetermined button position on the display unit 11 of the touch panel 1 at a predetermined start timing.
  • the start timing can be set as appropriate by the user of the mobile terminal 100 or a developer. For example, the start timing is when the mobile terminal 100 is activated, when a desired application program is executed, or when a display instruction for a display position determination button is received from the user.
  • the key display composition unit 32 When displaying the display position determination button, the key display composition unit 32 notifies the touch coordinate determination unit 2 of a predetermined button position.
  • the touch coordinate determination part 2 will perform step S902, if a button position is received.
  • step S902 the touch coordinate determination unit 2 confirms whether or not a drag operation on the display position determination button has been started.
  • the touch coordinate determination unit 2 confirms whether or not the button position on the touch input unit 12 is touched by the user.
  • the touch coordinate determination unit 2 checks whether the coordinate value indicating the touch position has continuously changed.
  • the touch coordinate determination unit 2 determines that the drag operation on the display position determination button has started, and uses the changed coordinate values as the display position after movement in the key display composition unit 32. Notice. Thereafter, the touch coordinate determination unit 2 executes Step S903. Note that when the display position after movement is received, the key display combining unit 32 changes the display position of the display position determination button to the received display position after movement.
  • the touch coordinate determination unit 2 determines that the drag operation on the display position determination button has not been started, and the step Step S902 is executed.
  • step S903 every time the coordinate value changes, the touch coordinate determination unit 2 notifies the key display composition unit 32 of the changed coordinate value as the display position after the movement, and the coordinate value is set to a predetermined constant value. Check if it has changed over time.
  • the touch coordinate determination unit 2 determines that the drag operation on the display position determination button has ended if the coordinate value has not changed for a certain period of time, and executes Step S904. In addition, when the coordinate value changes within a predetermined time, the touch coordinate determination unit 2 determines that the drag operation on the display position determination button has not ended, and executes Step S903.
  • step S904 the touch coordinate determination unit 2 notifies the current coordinate value to the key display position determination unit 31 and the key display composition unit 32 as the contact position that is the display position of the left hand key.
  • the key display combining unit 32 receives the contact position, the key display combining unit 32 displays the left hand key in the contact area including the contact position on the display unit 11.
  • the key display position determination part 31 will perform step S905, if a contact position is received.
  • step S905 the key display position determination unit 31 confirms the direction of gravity detected by the acceleration sensor unit 5.
  • the key display position determination unit 31 determines whether or not the mobile terminal 100 is arranged vertically based on the direction of gravity.
  • the key display position determination unit 31 holds axis information indicating the direction of the rotation axis, and determines whether an angle formed by the direction of the rotation axis indicated by the axis information and the direction of gravity is less than a first predetermined angle. to decide.
  • the key display position determination unit 31 determines that the direction of gravity is perpendicular to the rotation axis, and determines that the mobile terminal 100 is horizontally long. If the angle formed is equal to or greater than a predetermined angle, it is determined that the direction of gravity is not perpendicular to the rotation axis, and the mobile terminal 100 is determined to be vertically long.
  • the key display position determination unit 31 executes step S906 when the portable terminal 100 is vertically long, and executes step S910 when the portable terminal 100 is horizontally long.
  • step S906 the key display position determination unit 31 confirms the open / closed state detected by the terminal open / close sensor unit 4.
  • the key display position determination unit 31 determines whether the mobile terminal 100 is open based on the open / closed state.
  • the key display position determination unit 31 determines whether the formed angle is equal to or greater than a second predetermined angle.
  • the key display position determination unit 31 determines that the mobile terminal 100 is open when the angle formed is equal to or greater than the second predetermined angle, and closes the mobile terminal 100 when the formed angle is less than the predetermined value.
  • the second predetermined angle is, for example, 140 ° or 180 °.
  • the key display position determination unit 31 executes step S907 when the mobile terminal 100 is open, and executes step S908 when the mobile terminal 100 is closed.
  • step S907 the key display position determination unit 31 calculates a position point-symmetric to the contact position with respect to the center of gravity of the mobile terminal 100 as a corresponding position.
  • the key display position determination unit 31 notifies the key display composition unit 32 of the corresponding position.
  • the key display combining unit 32 executes step S910.
  • step S908 the key display position determination unit 31 calculates a position that is point-symmetric with the contact position with respect to the center of gravity of the display screen having the contact position as a corresponding position.
  • the key display position determination unit 31 notifies the key display composition unit 32 of the corresponding position.
  • the key display combining unit 32 executes step S910.
  • step S909 the key display position determination unit 31 calculates a position that is line-symmetric with the contact position with respect to the horizontal center line of the mobile terminal 100 as the corresponding position.
  • the key display position determination unit 31 notifies the key display composition unit 32 of the corresponding position.
  • the key display combining unit 32 executes step S910.
  • step S910 the key display combining unit 32 displays the right hand key in the corresponding area including the corresponding position on the display unit 11, and ends the process.
  • the control unit 3 displays the first operation key in the contact area including the contact position. In this case, since the operation key is displayed at the position where the user holds the mobile terminal 100, the user can operate the mobile terminal 100 from any place.
  • control unit 3 displays the second operation key in the corresponding area including the corresponding position as display information.
  • the user can operate the portable terminal while holding the position where the portable terminal can be stably held. Accordingly, it is possible to further improve the stability of the mobile terminal 100 during operation.
  • an operation key without a character key among the first operation key and the second operation key can be dragged, and a function is assigned to each drag direction by the drag operation. Have a key.
  • the acceleration sensor unit 5 detects the direction of gravity acting on the mobile terminal.
  • the key display position determination unit 31 calculates a corresponding position based on the direction of gravity detected by the acceleration sensor unit 5.
  • the key display composition unit 32 displays the display information at the corresponding position calculated by the key display position determination unit 31.
  • the corresponding position is calculated based on the direction of gravity acting on the mobile terminal. Even if the position where the mobile terminal 100 can be stably held changes depending on how the mobile terminal 100 is held by the user, it is possible to calculate an appropriate corresponding position for stably holding the mobile terminal 100 Is possible.
  • the terminal opening / closing sensor unit 4 detects the open / closed state of the casings 101 and 102.
  • the key display position determination unit 31 calculates a corresponding position based on the open / closed state detected by the terminal open / close sensor unit 4.
  • the key display composition unit 32 displays the display information at the corresponding position calculated by the key display position determination unit 31.
  • the corresponding position is calculated based on the open / closed state of the respective casings 101 and 102. For this reason, even if the position at which the portable terminal 100 can be stably held changes according to the open / closed state of the casings 101 and 102, an appropriate corresponding position for stably holding the portable terminal 100 is provided. It becomes possible to calculate.
  • the key display position determination unit 31 determines whether or not the mobile terminal 100 is arranged so as to be vertically long based on the direction of gravity. When the mobile terminal 100 is arranged so as to be horizontally long, the key display position determination unit 31 calculates a position symmetrical to the contact position with respect to the horizontal center line of the mobile terminal 100 as a corresponding position.
  • the mobile terminal 100 can be stably held even if the mobile terminal 100 is arranged horizontally.
  • the key display position determination unit 31 calculates a position that is point-symmetric to the contact position with respect to the center of gravity of the mobile terminal 100 as the corresponding position. Is closed, a position that is point-symmetric with respect to the center of gravity of the display screen having the contact position is calculated as the corresponding position.
  • the portable terminal 100 can be stably held even when the portable terminal 100 is open or the portable terminal 100 is closed.
  • the touch panel 1 displays a display position determination button that is display information for determining the holding position of the user.
  • the touch coordinate determination unit 2 detects a drag operation on the determination information, and detects the position of the end point of the drag operation on the determination information as a contact position. In this case, the user can determine the holding position of one hand while checking the position where the user can easily hold.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 携帯端末の保持が不安定になるという問題を解決する携帯端末を提供する。 タッチ座標判定部2は、ユーザからのタッチパネル1への接触位置を検出する。制御部3は、タッチパネル1におけるタッチ座標判定部2にて検出された接触位置に応じた対応位置に、その対応位置がユーザによる携帯端末の保持位置であることを示す表示情報を表示する。

Description

携帯端末および表示方法
 本発明は、タッチパネルを備えた携帯端末および表示方法に関する。
 携帯電話、PHS(Personal Handy-phone System)およびPDA(Personal Digital Assistant)などの携帯端末では、タッチパネルを備えたものが増えている。タッチパネルを備えた携帯端末では、ユーザは、画面に表示されたソフトウェアキーボードなどの操作対象に触れるタッチ操作を行うことで、携帯端末への入力を行うことができる。このため、ユーザは画面に触れることで操作を行うことができるため、直感的操作が可能になっている。
 タッチパネルを備えた携帯端末において、ユーザが携帯端末を手に保持した状態で入力を行う際の操作性を向上させるための技術としては、特許文献1に記載の携帯端末および特許文献2に記載の情報処理装置が提案されている。
 特許文献1および2に記載の技術では、ユーザが親指などでタッチパネルに触れると、文字入力のためのソフトウェアキーが表示される。このとき、ソフトウェアキーは、ユーザが携帯端末の予め定められた位置を両手で持ったときに、左右の親指が届く範囲に表示される。これにより、ユーザは親指を動かすだけで入力を行うことが可能になり、操作性を向上させることが可能になる。
 しかしながら、特許文献1および2に記載の技術では、ソフトウェアキーは、ユーザが携帯端末の予め定められた位置を持ったときに、左右の親指が届く範囲に表示されるので、ユーザによる携帯端末を持つ位置が固定されてしまう。
 これに対して、特許文献3には、所望の位置を持って携帯端末を使用したいという要望を実現することが可能な操作装置が記載されている。この操作装置では、ユーザがタッチパネルを押圧すると、その押圧位置の周辺に、親指で操作を行うための操作ボタンが表示される。したがって、ユーザは、携帯端末の所望の位置を持って携帯端末を使用することが可能になる。
特開2006-148536号公報 特開2004-355606号公報 特開平11-164175号公報
 特許文献3に記載の操作装置のように、携帯端末を持つ位置が固定されていない場合、ユーザの持つ位置によっては、携帯端末の保持が不安定になるという問題があった。特に、折り畳み式のように形状が変化する携帯端末や、ある程度以上の大きさの携帯端末の場合、ユーザが任意の位置で携帯端末を保持することが可能であっても、携帯端末の保持が不安定になりやすい。
 本発明の目的は、ユーザが所望する携帯端末の保持の仕方を可能にしつつ、上記の課題である、携帯端末の保持が不安定になるという問題を解決する携帯端末および表示方法を提供することにある。
 本発明による携帯端末は、タッチパネルと、前記タッチパネルへの接触位置を検出する位置検出部と、前記タッチパネルにおける、前記位置検出部にて検出された接触位置に応じた対応位置に、前記対応位置がユーザによる携帯端末の保持位置であることを示す表示情報を表示する制御部と、を有する。
 また、本発明による表示方法は、タッチパネルを有する携帯端末による表示方法であって、前記タッチパネルへの接触位置を検出し、前記タッチパネルにおける、前記検出された接触位置に応じた対応位置に、前記対応位置がユーザによる携帯端末の保持位置であることを示す表示情報を表示する。
 本発明によれば、ユーザが所望する携帯端末の保持の仕方を可能にしつつ、携帯端末を安定的に保持させることが可能になる。
第一の実施形態の携帯端末の構成を示したブロック図である。 表示情報と対応位置の一例を示した図である。 表示情報と対応位置の一例を示した図である。 携帯端末の動作の一例を説明するためのフローチャートである。 第二の実施形態の携帯端末の外観を示した外観図である。 第二の実施形態の携帯端末の構成を示したブロック図である。 接触位置および対応位置の一例を示した図である。 接触位置および対応位置の他の例を示した図である。 接触位置および対応位置の他の例を示した図である。 操作キーの一例を示した図である。 操作キーの一例を示した図である。 第二の実施形態の携帯端末の動作の概要を説明するための図である。 第二の実施形態の携帯端末の動作の概要を説明するための図である。 第二の実施形態の携帯端末の動作の概要を説明するための図である。 第二の実施形態の携帯端末の動作の一例を説明するための図である。
 以下、本発明の実施形態について図面を参照して説明する。なお、以下の説明では、同じ機能を有する構成には同じ符号を付け、その説明を省略する場合がある。
 図1は、本発明の第一の実施形態の携帯端末の構成を示したブロック図である。図1において、携帯端末100は、タッチパネル1と、タッチ座標判定部2と、制御部3とを有する。なお、携帯端末100は、携帯電話、PHSおよびPDAなどである。
 タッチパネル1は、文字や画像などの種々の情報を表示するとともに、自パネルへの接触を感知する。
 タッチ座標判定部2は、位置検出部と呼ばれることもある。タッチ座標判定部2は、ユーザからのタッチパネル1への接触位置を検出する。接触位置は、タッチパネル1上に予め設定された座標系の座標値で表わされる。
 制御部3は、タッチパネル1における、タッチ座標判定部2にて検出された接触位置に応じた対応位置に、その対応位置がユーザによる携帯端末100の保持位置であることを示す表示情報を表示する。
 対応位置は、具体的には、ユーザが一方の手の指で接触位置に触れるように携帯端末100を保持したときに、ユーザが携帯端末100を安定的に保持することが可能な他方の手の指の位置である。
 例えば、携帯端末100が横長に配置される場合、対応位置は、携帯端末100の横方向の中心線に対して、接触位置と線対称な位置である。また、携帯端末100が縦長に配置される場合、対応位置は、携帯端末100の重心に対して、接触位置と点対称な位置などである。なお、上記の対応位置の場所は、単なる一例であり、この例に限定されない。例えば、携帯端末100が縦長に配置される場合、対応位置は、携帯端末100の重心に対して、接触位置と点対称な位置よりやや低い位置でもよい。
 図2Aおよび図2Bは、表示情報と対応位置の一例を示した図である。図2Aおよび図2Bでは、ユーザの保持位置を示すマーク21が表示情報として示されている。
 図2Aでは、マーク21は、携帯端末100の横方向の中心線22に対して、接触位置23と線対称な位置に表示されている。図2Bでは、マーク21は、携帯端末100の重心24に対して、接触位置23と点対称な位置に表示されている。
 次に動作を説明する。
 図3は、本実施形態における携帯端末100の動作の一例を説明するためのフローチャートである。
 ステップS301では、ユーザの指がタッチパネル1に接触すると、タッチ座標判定部2は、その接触された座標値を接触位置として検出する。その後、ステップS302が実行される。
 ステップS302では、タッチ座標判定部2は、接触位置を制御部3に出力する。制御部3は、接触位置を受け付けると、その接触位置に基づいて対応位置を算出する。
 例えば、制御部3は、携帯端末100の中心線または重心の座標値を保持し、中心線または重心の座標値と、接触位置情報が示す接触位置の座標値とに基づいて、携帯端末100の中心線に対して接触位置と線対称な位置または携帯端末100の重心に対して接触位置と点対称な位置を対応位置として算出する。
 タッチ座標判定部2は、対応位置を算出すると、ステップS303を実行する。
 ステップS303では、制御部3は、表示情報を生成し、その表示情報をタッチパネル1における対応位置に表示して、処理を終了する。
 本実施形態によれば、タッチ座標判定部2は、ユーザからのタッチパネル1への接触位置を検出する。制御部3は、タッチパネル1におけるタッチ座標判定部2にて検出された接触位置に応じた対応位置に、その対応位置がユーザによる携帯端末100の保持位置であることを示す表示情報を表示する。
 この場合、ユーザの接触位置に応じた対応位置に、その対応位置が携帯端末100の保持位置であることを示す表示情報が表示される。したがって、対応位置が適宜設定され、かつ、ユーザが表示情報の表示されている対応位置を保持すれば、ユーザが所望する携帯端末100の保持の仕方を可能にしつつ、携帯端末100を安定的に保持させることが可能になる。
 また、本実施形態では、制御部3は、携帯端末100の中心線に対して接触位置と線対称の位置を対応位置とする。したがって、携帯端末100が横長となるように配置される場合、携帯端末を安定的に保持させることが可能になる。
 また、本実施形態では、制御部3は、携帯端末の重心に対して接触位置と点対称の位置を対応位置とする。したがって、携帯端末100が縦長となるように配置される場合、携帯端末100を安定的に保持させることが可能になる。
 次に第二の実施形態について説明する。
 図4は、本実施形態の携帯端末の外観を示した外観図である。図4において、携帯端末100は、二つの筐体101および102と、接続部103とを有する。
 筐体101および102のそれぞれには、二つの表示画面111および112のそれぞれが設けられている。
 接続部103は、ヒンジ機構などを用いて、筐体101および102を開閉可能に接続する。図4では、接続部103は、筐体101および102を所定の回転軸を中心に回転可能に接続することで、筐体101および102を開閉可能に接続している。
 図5は、本実施形態の携帯端末の構成を示したブロック図である。図5において、携帯端末100は、タッチパネル1と、端末開閉センサ部4と、加速度センサ部5と、タッチ座標判定部2および制御部3を有する演算部6と、を有する。
 タッチパネル1は、表示部11と、タッチ入力部12とを有する。
 表示部11は、種々の情報を表示することが可能であり、少なくとも、操作キーの位置を決定するための表示位置決定ボタンを表示する。なお、本実施形態では、表示位置決定ボタンを、ユーザの保持位置を決定するための決定情報として用いている。
 タッチ入力部12は、表示部11の前面に表示部11と重なって設けられており、ユーザから接触されたことを検出する。なお、タッチ入力部12は、ユーザから押圧されたことを、ユーザから接触されたこととして検出してもよい。
 端末開閉センサ部4は、開閉検出部と呼ばれることもある。端末開閉センサ部4は、携帯端末100の開閉状態を検出する。例えば、端末開閉センサ部4は、携帯端末100の開閉角度を開閉状態として検出する。また、端末開閉センサ部4は、携帯端末100が開いているか否かを開閉状態として検出してもよい。
 加速度センサ部5は、重力検出部と呼ばれることもある。加速度センサ部5は、携帯端末100に作用している重力の方向を検出する。
 演算部6のタッチ座標判定部2は、表示部11に表示された表示位置決定ボタンに対する、タッチ入力部12を用いたドラッグ操作の終点を、タッチパネル1への接触位置として検出する。
 制御部3は、キー表示位置判定部31と、キー表示合成部32とを有する。
 キー表示位置判定部31は、算出部と呼ばれることもある。キー表示位置判定部31は、端末開閉センサ部4にて検出された開閉状態と、加速度センサ部5にて検出された重力の方向とに基づいて、タッチ座標判定部2にて検出された接触位置に応じた対応位置を算出する。
 具体的には、先ず、キー表示位置判定部31は、重力の方向に基づいて、携帯端末100が縦長となるように配置されているか否かを判断する。本実施形態では、筐体101および102が開いたときに、筐体101および102が縦に並ぶ場合、携帯端末100が縦長となり、筐体101および102が横に並ぶ場合、携帯端末100が横長となるものとする。
 例えば、筐体101および102が回転可能に接続されている場合、キー表示位置判定部31は、回転軸の方向と重力の方向とが垂直な場合、携帯端末100が縦長となるように配置されていると判断し、回転軸の方向と重力の方向とが平行な場合、携帯端末が横長となるように配置されていると判断する。
 携帯端末100が横長になるように配置されている場合、キー表示位置判定部31は、携帯端末100の横方向の中心線に対して、接触位置と線対称な位置を対応位置として算出する。
 一方、携帯端末100が縦長になるように配置されている場合、キー表示位置判定部31は、開閉状態に基づいて対応位置を算出する。
 具体的には、開閉状態にて携帯端末100が開いていることが示されている場合、携帯端末100の重心に対して、接触位置と点対称な位置を対応位置として算出する。また、開閉状態にて携帯端末100が閉じていることが示されている場合、接触位置を有する表示画面の重心に対して、接触位置と点対称な位置を対応位置として算出する。
 図6A~図6Cは、接触位置および対応位置の一例を示した図である。
 図6Aでは、携帯端末100は、横長となるように(つまり、筐体101および102が左右に並ぶように)配置されている。この場合、対応位置61は、携帯端末100の中心線65に対して、接触位置60と線対称な位置となる。
 図6Bでは、携帯端末100は、縦長となるように(つまり、筐体101および102が縦に並ぶように)配置されている。また、携帯端末100は完全に開いている状態(、つまり、筐体101および102のなす角が180°の状態)になっている。この場合、対応位置62は、携帯端末100の重心66に対して、接触位置60と点対称な位置となる。
 図6Cでは、携帯端末100は、縦長となるように配置されている。また、携帯端末100は90°だけ閉じた状態、つまり、筐体101および102のなす角が90°になっている。この場合、対応位置63は、接触位置60を有する表示画面(図6Cでは、表示画面111)の重心67に対して、接触位置60と点対称な位置となる。
 図5に戻る。キー表示合成部32は、表示制御部と呼ばれることもある。キー表示合成部32は、表示部11における、タッチ座標判定部2にて検出された接触位置を含む接触領域に第一の操作キーを表示する。また、キー表示合成部32は、表示部11における、キー表示位置判定部31にて算出された対応位置を含む対応領域に表示情報である第二の操作キーを表示する。以下、第一の操作キーおよび第二の操作キーを、操作キーと総称することもある。
 これにより、キー表示位置判定部31およびキー表示合成部32は制御部3に含まれるので、制御部3は、接触位置を含む接触領域の第一の操作キーを表示し、対応位置を含む対応領域に第二の操作キーを表示情報として表示することになる。
 なお、以下では、第一の操作キーおよび第二の操作キーを、操作キーと総称することもある。また、キー表示合成部32は、実行中のアプリケーションプログラムの表示画像などが表示部11に表示されている場合、キー表示合成部32は、その表示されている画像と操作キーを合成して表示部11に表示する。
 ユーザが携帯端末100を手で保持しながら操作キーを用いてキー入力操作を行えるようにすることが望ましい。したがって、接触領域および対応領域は、携帯端末100保持している手の親指の届く範囲内に設定されることが望ましい。この場合、第一の操作キーは、ユーザの一方の手の親指でキー入力操作を行うための操作キーとなり、第二の操作キーは、ユーザの他方の手の親指でキー入力操作を行うための操作キーとなる。
 また、上記のようにユーザがタッチパネルに表示された操作キーを用いてキー入力操作を行う場合、ユーザは、通常のハードウェアキーボードを用いてキー入力操作を行う場合と異なり、操作キーに接触したときに手応えがない。このため、ユーザは、操作キーを手で触れることで操作キーを識別することができない。よって、ユーザは、目当ての操作キーを正確に選択したか否かなどを、操作キーを目視して確認しながら、キー入力操作を行わなければならない。
 したがって、文字が割り当てられた文字キーや種々の機能が割り当てられた機能キーが第一の操作キーおよび第二の操作キーに均等に割り振られると、ユーザの視線は、第一の操作キーおよび第二の操作キーの間を移動することになり、視線移動が頻繁に発生し、入力効率が下がる。
 そこで、第一の操作キーおよび第二の操作キーの一方にのみ、文字が割り当てられた文字キーがあり、第一の操作キーおよび第二の操作キーの他方に、所定の機能が割り当てられた機能キーがあることが望ましい。
 図7Aは、操作キーの一例を示した図である。図7Aでは、タッチパネル1に表示された、第一の操作キー71と、第二の操作キー72と、入力先フォーム73とが示されている。
 第一の操作キー71は、左手の親指で入力操作を行うためのキーであり、空白を入力するためのスペースキー71Aと、文字が割り当てられた文字キー71Bとを有する。
 スペースキー71Aは、接触位置と重なる位置に表示される。
 文字キー71Bは、ローマ字のそれぞれが割り当てられた複数のローマ字キーを有する。ローマ字キーは、ユーザの左手の親指が届きやすい範囲、より具体的には、接触位置を中心とする扇型の範囲に配置されている。なお、文字キー71Bとして、ひらがなやカタカナが割り当てられたキーが用いられてもよい。
 第二の操作キー72は、操作キーのうちの文字キーのないキーであり、ドラッグ操作が可能な機能キーを有する。この機能キーは、ドラッグ操作によるドラッグ方向のそれぞれに機能が割り当てられている。具体的には、第二の操作キー72では、ドラッグ方向に応じて、決定機能、BS(Back Space)機能およびシフト(Shift)機能のいずれかの実行指示が入力される。
 決定機能は、ユーザが入力したい文字を決定する機能である。ユーザが左手で文字キー71Bのいずれかと接触した状態で決定機能が選択されると、その文字キーに割り当てられた文字が入力先フォーム73に入力される。
 BS機能は、入力先フォーム73における文字入力位置を示すカーソルの直前の文字を削除する機能である。また、シフト機能は、通常のキーボードのシフトキーに割り当てられた機能であり、例えば、次に入力する文字を大文字に切り替える機能を有する。
 図7Aで示した操作キーは単なる一例であって、操作キーはこの例に限定されない。例えば、操作キーは、図7Bで示した例でもよい。
 図7Bでは、タッチパネル1に表示された、第一の操作キー71と、第二の操作キー72Bと、入力先フォーム73とが示されている。
 第二の操作キー72Bは、機能が割り当てられた複数の機能キーを有する。具体的には、第二の操作キー72Bは、決定機能が割り当てられた決定キー72B1と、BS機能が割り当てられたBSキー72B2と、シフト機能が割り当てられたシフトキー72B3とを有する。これらの機能キーがユーザにて接触されると、その接触された機能キーに割り当てられた機能が実行される。
 次に動作を説明する。
 図8A~図8Cは、本実施形態の携帯端末100の動作を説明するための図である。なお、第一の操作キーを左手の親指でキー入力操作を行うための左手キーとし、第二の操作キーを右手の親指でキー入力操作を行うための右手キーであるとする。また、表示画面が横方向に並んでおり、携帯端末100の中心線に対して、接触位置と線対称な位置が対応位置となっている。
 先ず、図8Aで示したように、タッチパネル1に表示位置決定ボタン81が表示される。
 続いて、ユーザは、図8Bで示したように、表示位置決定ボタン81に対してドラッグ操作を行い、第一の操作キーが使いやすい位置まで移動させる。そして、ユーザが表示位置決定ボタン81に対するドラッグ操作を終了すると、図8Cで示したように、ドラッグ操作の終点である接触位置を含む接触領域に、左手キー82が表示されると共に、その接触位置に応じた対応位置を含む対応領域に、右手キー83が表示される。
 図9は、本実施形態の携帯端末100のより詳細な動作を説明するためのフローチャートである。なお、以下では、第一の操作キーを、左手キーとし、第二の操作キーを、右手キーとする。
 ステップS901では、携帯端末100のキー表示合成部32は、予め定められた開始タイミングで、表示位置決定ボタンをタッチパネル1の表示部11における所定のボタン位置に表示する。なお、開始タイミングは、携帯端末100のユーザまたは開発者などによって適宜設定可能である。例えば、開始タイミングは、携帯端末100の起動時、所望のアプリケーションプログラムの実行時、または、ユーザから表示位置決定ボタンの表示指示があった時などである。
 キー表示合成部32は、表示位置決定ボタンを表示すると、所定のボタン位置をタッチ座標判定部2に通知する。タッチ座標判定部2は、ボタン位置を受け付けると、ステップS902を実行する。
 ステップS902では、タッチ座標判定部2は、表示位置決定ボタンに対するドラッグ操作が開始されたか否かを確認する。
 より具体的には、先ず、タッチ座標判定部2は、タッチ入力部12におけるボタン位置がユーザにてタッチされたか否かを確認する。
 ボタン位置がタッチされた場合、タッチ座標判定部2は、そのタッチ位置を示す座標値が連続的に変化したか否か確認する。
 座標値が連続的に変化した場合、タッチ座標判定部2は、表示位置決定ボタンに対するドラッグ操作が開始されたと判断して、変化後の座標値を移動後の表示位置としてキー表示合成部32に通知する。その後、タッチ座標判定部2は、ステップS903を実行する。なお、キー表示合成部32は、移動後の表示位置を受け付けると、表示位置決定ボタンの表示位置を、その受け付けた移動後の表示位置に変更する。
 また、ボタン位置がタッチされていない場合、および、座標値が連続的に変化していない場合、タッチ座標判定部2は、表示位置決定ボタンに対するドラッグ操作が開始されていないと判断して、ステップS902を実行する。
 ステップS903では、タッチ座標判定部2は、その座標値が変化するたびに、変化後の座標値を移動後の表示位置としてキー表示合成部32に通知するとともに、座標値が予め定められた一定時間以上変化していないかを確認する。
 タッチ座標判定部2は、座標値が一定時間以上変化していないと、表示位置決定ボタンに対するドラッグ操作が終了したと判断して、ステップS904を実行する。また、タッチ座標判定部2は、座標値が一定時間内に変化すると、表示位置決定ボタンに対するドラッグ操作が終了していないと判断して、ステップS903を実行する。
 ステップS904では、タッチ座標判定部2は、現在の座標値を左手キーの表示位置である接触位置として、キー表示位置判定部31およびキー表示合成部32のそれぞれに通知する。キー表示合成部32は、接触位置を受け付けると、表示部11における、接触位置を含む接触領域に左手キーを表示する。また、キー表示位置判定部31は、接触位置を受け付けると、ステップS905を実行する。
 ステップS905では、キー表示位置判定部31は、加速度センサ部5にて検出された重力の方向を確認する。キー表示位置判定部31は、その重力の方向に基づいて、携帯端末100が縦長に配置されているか否かを判断する。
 例えば、キー表示位置判定部31は、回転軸の方向を示す軸情報を保持し、その軸情報が示す回転軸の方向と重力の方向とのなす角が第一の所定角度未満か否かを判断する。
 そのなす角が所定角度未満の場合、キー表示位置判定部31は、重力の方向が回転軸に対して垂直であると判断し、携帯端末100が横長であると判断する。また、そのなす角が所定角度以上の場合、重力の方向が回転軸に対して垂直でないと判断し、携帯端末100が縦長であると判断する。
 キー表示位置判定部31は、携帯端末100が縦長であると、ステップS906を実行し、携帯端末100が横長であると、ステップS910を実行する。
 ステップS906では、キー表示位置判定部31は、端末開閉センサ部4にて検出された開閉状態を確認する。キー表示位置判定部31は、その開閉状態に基づいて、携帯端末100が開いているか否かを判断する。
 例えば、開閉状態が筐体101および102のなす角を示す場合、キー表示位置判定部31は、そのなす角が第二の所定角度以上か否かを判断する。キー表示位置判定部31は、そのなす角が第二の所定角度以上であると、携帯端末100が開いていると判断し、そのなす角が所定値未満であると、携帯端末100が閉じていると判断する。なお、第二の所定角度は、例えば、140°や180°などである。
 キー表示位置判定部31は、携帯端末100が開いていると、ステップS907を実行し、携帯端末100が閉じていると、ステップS908を実行する。
 ステップS907では、キー表示位置判定部31は、携帯端末100の重心に対して接触位置と点対称な位置を対応位置として算出する。キー表示位置判定部31は、その対応位置をキー表示合成部32に通知する。キー表示合成部32は、対応位置を受け付けると、ステップS910を実行する。
 また、ステップS908では、キー表示位置判定部31は、接触位置を有する表示画面の重心に対して接触位置と点対称な位置を対応位置として算出する。キー表示位置判定部31は、その対応位置をキー表示合成部32に通知する。キー表示合成部32は、対応位置を受け付けると、ステップS910を実行する。
 また、ステップS909では、キー表示位置判定部31は、携帯端末100の横方向の中心線に対して接触位置と線対称な位置を対応位置として算出する。キー表示位置判定部31は、その対応位置をキー表示合成部32に通知する。キー表示合成部32は、対応位置を受け付けると、ステップS910を実行する。
 ステップS910では、キー表示合成部32は、表示部11における、対応位置を含む対応領域に右手キーを表示して、処理を終了する。
 以上説明したように本実施形態によれば、制御部3は、接触位置を含む接触領域に第一の操作キーを表示する。この場合、ユーザが携帯端末100を持った位置に操作キーが表示されるので、ユーザは任意の場所を持って携帯端末100を操作することが可能になる。
 また、本実施形態では、制御部3は、表示情報として、対応位置を含む対応領域に第二の操作キーを表示する。この場合、ユーザは携帯端末を安定的に保持できる位置を持ったまま、携帯端末を操作することが可能になる。したがって、操作時における携帯端末100の安定性をより向上させることが可能になる。
 また、本実施形態では、第一の操作キーおよび第二の操作キーの一方にのみ、文字が割り当てられた文字キーがある。この場合、文字入力の際に、ユーザの視線が動く範囲を小さくすることが可能になるため、入力効率をより向上させることが可能になる。
 また、本実施形態では、第一の操作キーおよび第二の操作キーのうち文字キーのない操作キーは、ドラッグ操作が可能であり、そのドラッグ操作によるドラッグ方向のそれぞれに機能が割り当てられた機能キーを有する。
 この場合、バックスペースなどの種々の機能を実行する際に、指を携帯端末から離さずに操作することが可能になるので、操作時における携帯端末100の安定性をより向上させることが可能になる。
 また、本実施形態では、加速度センサ部5は、携帯端末に作用している重力の方向を検出する。キー表示位置判定部31は、加速度センサ部5にて検出された重力の向きに基づいて、対応位置を算出する。キー表示合成部32は、キー表示位置判定部31が算出した対応位置に表示情報を表示する。
 この場合、対応位置が携帯端末に作用している重力の方向に基づいて算出される。ユーザによる携帯端末100の持ち方に応じて、携帯端末100を安定に保持することが可能な位置が変化しても、携帯端末100を安定的に保持するのに適切な対応位置を算出することが可能になる。
 また、本実施形態では、端末開閉センサ部4は、各筐体101および102の開閉状態を検出する。キー表示位置判定部31は、端末開閉センサ部4にて検出された開閉状態に基づいて、対応位置を算出する。キー表示合成部32は、キー表示位置判定部31が算出した対応位置に表示情報を表示する。
 この場合、対応位置が各筐体101および102の開閉状態に基づいて算出される。このため、筐体101および102の開閉状態に応じて、携帯端末100を安定に保持することが可能な位置が変化しても、携帯端末100を安定的に保持するのに適切な対応位置を算出することが可能になる。
 また、本実施形態では、キー表示位置判定部31は、重力の方向に基づいて、携帯端末100が縦長となるように配置されているか否かを判断する。キー表示位置判定部31は、携帯端末100が横長となるように配置されている場合、携帯端末100の横方向の中心線に対して、接触位置と線対称な位置を対応位置として算出する。
 この場合、携帯端末100が横長になるように配置されても、携帯端末100を安定的に保持させることが可能になる。
 また、本実施形態では、キー表示位置判定部31は、携帯端末100が開いている場合、携帯端末100の重心に対して、接触位置と点対称な位置を対応位置として算出し、携帯端末100が閉じている場合、接触位置を有する表示画面の重心に対して、接触位置と点対称な位置を対応位置として算出する。
 この場合、携帯端末100が開いていても、携帯端末100が閉じていても、携帯端末100を安定的に保持させることが可能になる。
 また、本実施形態では、タッチパネル1は、ユーザの保持位置を決定するための表示情報である表示位置決定ボタンを表示する。タッチ座標判定部2は、決定情報に対するドラッグ操作を検出し、その決定情報に対するドラッグ操作の終点の位置を接触位置として検出する。この場合、ユーザは自分の持ちやすい位置を確認しながら、一方の手の保持位置を決定することが可能になる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されたものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更を行うことができる。
 この出願は、2009年11月4日に出願された日本出願特願2009-252928号公報を基礎とする優先権を主張し、その開示の全てをここに取り込む。
   1    タッチパネル
   2    タッチ座標判定部
   3    制御部
   4    端末開閉センサ部
   5    加速度センサ部
   6    演算部
   11   表示部
   12   タッチ入力部
   31   キー表示位置判定部
   32   キー表示合成部
   100  携帯端末

Claims (15)

  1.  タッチパネルと、
     前記タッチパネルへの接触位置を検出する位置検出部と、
     前記タッチパネルにおける、前記位置検出部にて検出された接触位置に応じた対応位置に、前記対応位置がユーザによる携帯端末の保持位置であることを示す表示情報を表示する制御部と、を有する表示装置。
  2.  請求項1に記載の携帯端末において、
     前記制御部は、前記接触位置を含む接触領域に第一の操作キーを表示する、携帯端末。
  3.  請求項1または2に記載の携帯端末において、
     前記制御部は、前記表示情報として、前記対応位置を含む対応領域に第二の操作キーを表示する、携帯端末。
  4.  請求項1に記載の携帯端末において、
     前記制御部は、前記接触位置を含む接触領域に第一の操作キーを表示し、前記表示情報として、前記対応位置を含む対応領域に第二の操作キーを表示し、
     前記第一の操作キーおよび前記第二の操作キーの一方にのみ、文字が割り当てられた文字キーがある、携帯端末。
  5.  請求項4に記載の携帯端末において、
     前記第一の操作キーおよび前記第二の操作キーのうち前記文字キーのない操作キーは、ドラッグ操作が可能であり、当該ドラッグ操作によるドラッグ方向のそれぞれに機能が割り当てられた機能キーを有する、携帯端末。
  6.  請求項1ないし5のいずれか1項に記載の携帯端末において、
     前記制御部は、当該携帯端末の中心線に対して、前記接触位置と線対称の位置を前記対応位置とする、携帯端末。
  7.  請求項1ないし5のいずれか1項に記載の携帯端末において、
     前記制御部は、当該携帯端末の重心に対して、前記接触位置と点対称の位置を前記対応位置とする、携帯端末。
  8.  請求項1ないし5のいずれか1項に記載の携帯端末において、
     当該携帯端末に作用している重力の方向を検出する重力検出部をさらに有し、
     前記制御部は、
     前記重力検出部にて検出された重力の方向に基づいて、前記対応位置を算出する算出部と、
     前記算出部にて算出された対応位置に前記表示情報を表示する表示制御部と、を有する、携帯端末。
  9.  請求項8に記載の携帯端末において、
     前記算出部は、前記重力の方向に基づいて、当該携帯端末が縦長となるように配置されているか否かを判断し、当該携帯端末が横長となるように配置されている場合、当該携帯端末の横方向の中心線に対して、前記接触位置と線対称な位置を前記対応位置として算出する、携帯端末。
  10.  請求項1ないし5のいずれか1項に記載の携帯端末において、
     二つの筐体と、
     各筐体を開閉可能に接続する接続部と、
     各筐体の開閉状態を検出する開閉検出部と、を有し、
     前記タッチパネルは、各筐体に設けられた二つの表示画面を有し、
     前記制御部は、
     前記開閉検出部にて検出された開閉状態に基づいて、前記対応位置を算出する算出部と、
     前記算出部にて算出された対応位置に前記表示情報を表示する表示制御部と、を有する、携帯端末。
  11.  請求項10に記載の携帯端末において、
     前記算出部は、前記携帯端末が開いている場合、当該携帯端末の重心に対して、前記接触位置と点対称な位置を前記対応位置として算出し、前記携帯端末が閉じている場合、前記接触位置を有する表示画面の重心に対して、前記接触位置と点対称な位置を前記対応位置として算出する、携帯端末。
  12.  請求項10または11に記載の携帯端末において、
     当該携帯端末に作用している重力の方向を検出する重力検出部をさらに有し、
     前記算出部は、前記重力の方向と前記開閉状態とに基づいて、前記対応位置を算出する、携帯端末。
  13.  請求項12に記載の携帯端末において、
     前記算出部は、前記重力の方向に基づいて、当該携帯端末が縦長となるように配置されているか否かを判断し、当該携帯端末が横長となるように配置されている場合、当該携帯端末の横方向の中心線に対して、前記接触位置と線対称な位置を前記対応位置として算出し、当該携帯端末が縦長に配置されている場合、前記開閉状態に基づいて、前記対応位置を算出する、携帯端末。
  14.  請求項1ないし13のいずれか1項に記載の携帯端末において、
     前記タッチパネルは、ユーザの保持位置を決定するための決定情報を表示し、
     前記位置検出部は、前記決定情報に対するドラッグ操作を検出し、当該決定情報に対するドラッグ操作の終点の位置を前記接触位置として検出する、携帯端末。
  15.  タッチパネルを有する携帯端末による表示方法であって、
     前記タッチパネルへの接触位置を検出し、
     前記タッチパネルにおける、前記検出された接触位置に応じた対応位置に、前記対応位置がユーザによる携帯端末の保持位置であることを示す表示情報を表示する、表示方法。
PCT/JP2010/065280 2009-11-04 2010-09-07 携帯端末および表示方法 WO2011055587A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201080050267.1A CN102597929B (zh) 2009-11-04 2010-09-07 移动终端和显示方法
US13/505,904 US20120212418A1 (en) 2009-11-04 2010-09-07 Mobile terminal and display method
EP10828147.8A EP2498172A4 (en) 2009-11-04 2010-09-07 MOBILE TERMINAL AND DISPLAY METHOD
JP2011539310A JP5681867B2 (ja) 2009-11-04 2010-09-07 携帯端末および表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-252928 2009-11-04
JP2009252928 2009-11-04

Publications (1)

Publication Number Publication Date
WO2011055587A1 true WO2011055587A1 (ja) 2011-05-12

Family

ID=43969827

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/065280 WO2011055587A1 (ja) 2009-11-04 2010-09-07 携帯端末および表示方法

Country Status (5)

Country Link
US (1) US20120212418A1 (ja)
EP (1) EP2498172A4 (ja)
JP (1) JP5681867B2 (ja)
CN (1) CN102597929B (ja)
WO (1) WO2011055587A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130194217A1 (en) * 2012-02-01 2013-08-01 Jaejoon Lee Electronic device and method of controlling the same
JP2015138309A (ja) * 2014-01-21 2015-07-30 株式会社ミツトヨ タッチパネル式携帯端末、その制御方法及びコンピュータプログラム
JP2016115194A (ja) * 2014-12-16 2016-06-23 学校法人帝京大学 モバイルデバイス用の文字入力方法及び文字入力領域の自動調整方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120067445A (ko) * 2010-12-16 2012-06-26 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101340703B1 (ko) 2011-11-25 2013-12-12 삼성전자주식회사 휴대단말기의 키패드 배치장치 및 방법
KR101979666B1 (ko) * 2012-05-15 2019-05-17 삼성전자 주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기
CN103870131B (zh) * 2012-12-14 2017-07-25 联想(北京)有限公司 一种控制电子设备的方法及电子设备
US9395898B2 (en) * 2012-12-14 2016-07-19 Lenovo (Beijing) Co., Ltd. Electronic device and method for controlling the same
CN103902166A (zh) * 2012-12-27 2014-07-02 联想(北京)有限公司 一种显示方法及电子设备
US8769431B1 (en) 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
CN106205390B (zh) 2016-07-08 2018-03-27 广东欧珀移动通信有限公司 一种电子设备控制方法及电子设备
KR20210036568A (ko) * 2019-09-26 2021-04-05 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN111414047B (zh) * 2020-03-05 2021-08-17 联想(北京)有限公司 一种触屏控制方法、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164175A (ja) * 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画面表示部を有する機器の操作装置
JP2004355606A (ja) * 2003-02-14 2004-12-16 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2009252928A (ja) 2008-04-04 2009-10-29 Panasonic Corp プリント配線基板

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP2006053678A (ja) * 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
CN101609383B (zh) * 2006-03-03 2014-08-06 苹果公司 具有显示器和用于用户界面及控制的周围触摸敏感边框的电子设备
US20080141125A1 (en) * 2006-06-23 2008-06-12 Firooz Ghassabian Combined data entry systems
JP2008052062A (ja) * 2006-08-24 2008-03-06 Ricoh Co Ltd 表示装置、表示装置の表示方法、プログラム及び記録媒体
KR100837283B1 (ko) * 2007-09-10 2008-06-11 (주)익스트라스탠다드 터치스크린을 구비한 휴대용 단말기
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
MX2011001722A (es) * 2008-08-12 2011-07-29 Keyless Systems Ltd Sistema mejorado de introducción de datos.
US8947320B2 (en) * 2008-09-08 2015-02-03 Qualcomm Incorporated Method for indicating location and direction of a graphical user interface element
US8866840B2 (en) * 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
US8803816B2 (en) * 2008-09-08 2014-08-12 Qualcomm Incorporated Multi-fold mobile device with configurable interface
JP5268595B2 (ja) * 2008-11-28 2013-08-21 ソニー株式会社 画像処理装置、画像表示方法及び画像表示プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164175A (ja) * 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画面表示部を有する機器の操作装置
JP2004355606A (ja) * 2003-02-14 2004-12-16 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2009252928A (ja) 2008-04-04 2009-10-29 Panasonic Corp プリント配線基板

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2498172A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130194217A1 (en) * 2012-02-01 2013-08-01 Jaejoon Lee Electronic device and method of controlling the same
EP2624119A1 (en) * 2012-02-01 2013-08-07 LG Electronics, Inc. Electronic device and method of controlling the same
KR20130088935A (ko) * 2012-02-01 2013-08-09 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9348441B2 (en) 2012-02-01 2016-05-24 Lg Electronics Inc. Electronic device and method of controlling the same
KR101973631B1 (ko) 2012-02-01 2019-04-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
JP2015138309A (ja) * 2014-01-21 2015-07-30 株式会社ミツトヨ タッチパネル式携帯端末、その制御方法及びコンピュータプログラム
JP2016115194A (ja) * 2014-12-16 2016-06-23 学校法人帝京大学 モバイルデバイス用の文字入力方法及び文字入力領域の自動調整方法

Also Published As

Publication number Publication date
JPWO2011055587A1 (ja) 2013-03-28
CN102597929B (zh) 2015-09-09
CN102597929A (zh) 2012-07-18
EP2498172A4 (en) 2015-01-28
US20120212418A1 (en) 2012-08-23
JP5681867B2 (ja) 2015-03-11
EP2498172A1 (en) 2012-09-12

Similar Documents

Publication Publication Date Title
JP5681867B2 (ja) 携帯端末および表示方法
JP5817716B2 (ja) 情報処理端末およびその操作制御方法
JP5323603B2 (ja) 画像表示装置
JP6319298B2 (ja) 情報端末、表示制御方法及びそのプログラム
US20100177121A1 (en) Information processing apparatus, information processing method, and program
JP5429627B2 (ja) 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
WO2012043111A1 (ja) 情報処理端末およびその制御方法
JP5846129B2 (ja) 情報処理端末およびその制御方法
JP5473708B2 (ja) 携帯端末及び表示制御プログラム
JP2010086064A (ja) 情報処理装置、文字入力方法及びプログラム
WO2013118522A1 (ja) 携帯端末及びその動作方法
WO2013175798A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20140085207A1 (en) Information processing apparatus and control method therefor
JP6217633B2 (ja) 携帯端末装置、携帯端末装置の制御方法、及びプログラム
JP6044631B2 (ja) タッチパネル入力装置及びその制御方法
US20130311945A1 (en) Input device
WO2012093549A1 (ja) 情報処理端末とその制御方法
JP2012146324A (ja) 情報処理装置
WO2012157667A1 (ja) 携帯端末装置、その表示制御方法、および、プログラム
JP5047325B2 (ja) 情報入力装置及び情報入力方法
JP2010093516A (ja) 携帯情報端末及びその動作制御方法並びにプログラム
JP2013122711A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2013069203A (ja) 情報処理端末およびその表示制御方法
WO2014041595A1 (ja) 表示装置、表示方法およびプログラム
JP2013238930A (ja) 表示装置及びその制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080050267.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10828147

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011539310

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13505904

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010828147

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010828147

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 4764/CHENP/2012

Country of ref document: IN