WO2014208691A1 - 携帯機器、携帯機器の制御方法 - Google Patents

携帯機器、携帯機器の制御方法 Download PDF

Info

Publication number
WO2014208691A1
WO2014208691A1 PCT/JP2014/067052 JP2014067052W WO2014208691A1 WO 2014208691 A1 WO2014208691 A1 WO 2014208691A1 JP 2014067052 W JP2014067052 W JP 2014067052W WO 2014208691 A1 WO2014208691 A1 WO 2014208691A1
Authority
WO
WIPO (PCT)
Prior art keywords
cursor
display unit
screen
display
displayed
Prior art date
Application number
PCT/JP2014/067052
Other languages
English (en)
French (fr)
Inventor
真介 盛合
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013134070A external-priority patent/JP6046562B2/ja
Priority claimed from JP2013134072A external-priority patent/JP5998105B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2014208691A1 publication Critical patent/WO2014208691A1/ja
Priority to US14/972,755 priority Critical patent/US10007375B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a portable device such as a mobile phone, a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), an electronic book terminal, a portable music player, a portable TV, a portable navigation system, and more particularly to a portable device having a touch panel. Furthermore, the present invention relates to a control method that can be used for such a portable device.
  • a portable device such as a mobile phone, a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), an electronic book terminal, a portable music player, a portable TV, a portable navigation system, and more particularly to a portable device having a touch panel.
  • a control method that can be used for such a portable device.
  • a mobile phone in which a display is arranged on the front side of a housing is known.
  • a substantially rectangular display slightly smaller than the casing is arranged on the front side of the casing having a substantially rectangular outline.
  • a touch panel is disposed so as to overlap the display, and various application programs (hereinafter simply referred to as “applications”) are executed based on a user's touch operation on the display.
  • FIG. 23 shows how the user operates the mobile phone. As shown in FIG. 23, an increasing number of users hold a slightly lower side of a mobile phone with one hand and operate a display with a thumb, that is, a touch panel disposed on the display.
  • the user must perform a complicated operation such as changing the mobile phone in order to operate the operation objects (icons, soft keys, etc.) in the region where the thumb is difficult to reach.
  • a complicated operation such as changing the mobile phone in order to operate the operation objects (icons, soft keys, etc.) in the region where the thumb is difficult to reach.
  • the portable device includes a display unit, a detection unit that detects a touch position on the display unit that has been touched, and a control that controls the display unit based on a detection result by the detection unit.
  • a section when the touch position moves, the control unit moves the cursor position in a trajectory obtained by enlarging the trajectory of the touch position, and displays the cursor at the cursor position on the display unit.
  • the control section relates to the first screen. The process assigned to the position is executed.
  • control unit displays a second screen on the display unit based on the fact that the cursor position has moved out of the display unit before the detection unit no longer detects the touch position. Then, when the touch position is not detected by the detection unit in a state where the second screen is displayed on the display unit, the control unit executes a process assigned to the cursor position with respect to the second screen. .
  • the second screen may include a notification information list screen.
  • the control unit displays the application corresponding to the notification information when the touch position is not detected by the detection unit in a state where the cursor position exists in any of the notification information on the list screen. Run on the department.
  • control unit further detects that the cursor position is not detected by the detection unit in a state where the cursor position does not exist in any of the notification information on the list screen.
  • the list screen may be closed.
  • the first screen may include an application operation screen.
  • the second screen may include an operation menu screen on which an object for operating the application is arranged. In this case, if the touch position is no longer detected by the detection unit in a state where the cursor position is present on the object, the control unit executes processing related to the application assigned to the object.
  • the second screen may be configured to have a size smaller than the size of the display unit.
  • the control unit displays the second screen on the display unit at a position close to a side that has passed when the cursor position deviates from the display unit.
  • the first screen may include one page of a screen composed of a plurality of pages. Further, the second screen may include a different page from the first screen.
  • the control unit sets a first reference position related to the touch position and a second reference position related to the cursor position on the display unit before the touch position moves,
  • the cursor position is set to a position away from the second reference position by a second vector obtained by enlarging the first vector between the touch position detected by the detection unit and the first reference position.
  • the cursor position can be moved in a trajectory obtained by enlarging the trajectory of the touch position.
  • control unit further provides another cursor position on the display unit when the cursor position is out of a range where the cursor can be displayed on the display.
  • the cursor is displayed at the same time, the touch position when the cursor position exists outside the range where the cursor can be displayed is set as the first reference position, and the other cursor position is set as the first cursor position.
  • the configuration may be such that two reference positions are set.
  • control unit further determines the touch position when the movement of the touch position is stopped in a state where the cursor position exists outside the range where the cursor can be displayed, in the first reference.
  • the configuration may be such that the position is set.
  • the control unit when the cursor position is out of a range where the cursor can be displayed on the display unit, the control unit provides another cursor position on the display unit, and The cursor may be displayed at a position.
  • a portable device includes a display unit, a detection unit that detects a touch position on the display unit that has been touched, and a control that controls the display unit based on a detection result by the detection unit.
  • the control unit sets a first reference position related to the touch position and a second reference position related to the cursor position on the display unit before the touch position moves. Then, when the touch position moves, the control unit moves from the second reference position by a second vector obtained by enlarging the first vector between the touch position detected by the detection unit and the first reference position.
  • the control unit can newly set the second reference position on the display unit and display the cursor when the cursor position is out of a range where the cursor can be displayed on the display unit.
  • the touch position when the cursor position exists at a position outside the range is newly set as the first reference position.
  • the cursor position when the cursor position is out of a range where the cursor can be displayed on the display unit, another cursor position for displaying the cursor is provided on the display unit.
  • the other cursor position can be set as the second reference position.
  • control unit determines the touch position when the movement of the touch position is stopped in a state where the cursor position exists at a position outside the range where the cursor can be displayed.
  • the configuration may be such that the position is set.
  • control unit determines the touch position at the time of elapse of the predetermined time every time a predetermined time elapses in a state where the cursor position exists at a position outside the range where the cursor can be displayed.
  • the configuration may be such that one reference position is set.
  • the configuration may be such that the process assigned to the cursor position is executed with respect to the first screen.
  • control unit further displays a second screen on the display unit based on the fact that the cursor position has moved out of the display unit before the detection unit no longer detects the touch position. And when the touch position is no longer detected by the detection unit in a state where the second screen is displayed on the display unit, a process assigned to the cursor position with respect to the second screen is executed. Can be done.
  • the second screen may further include a notification information list screen.
  • the control unit displays the application corresponding to the notification information when the touch position is not detected by the detection unit in a state where the cursor position exists in any of the notification information on the list screen. Run on the department.
  • a method for controlling a mobile device relates to a method for controlling a mobile device that controls the display unit by detecting a touch position on the touched display unit. Moving the cursor position along a trajectory obtained by enlarging the trajectory of the touch position, and displaying the cursor at the cursor position on the display unit; and displaying the first screen on the display unit and the cursor position on the display unit If the touch position is no longer detected in a state where the touch position is present, the step of executing the process assigned to the cursor position with respect to the first screen, and the cursor position before the touch position is no longer detected are displayed on the display unit.
  • the touch position is not detected, comprising the steps of: executing processing assigned to the cursor position with respect to the second screen.
  • a mobile device control method relates to a mobile device control method for controlling the display unit by detecting a touch position on the touched display unit.
  • the control method includes a step of setting a first reference position related to the touch position and a second reference position related to the cursor position on the display unit before the touch position moves;
  • the touch position is determined by determining a position away from the second reference position by a second vector obtained by enlarging the first vector between the detected touch position and the first reference position as the cursor position.
  • the second reference position is newly set on the display unit, and the cursor is out of the range where the cursor can be displayed.
  • the phrase “touched” in the above includes not only the concept of “the display unit has been touched by a finger” but also the concept of “the finger or the like is close to the display unit”.
  • the present invention it is possible to provide a portable device and a method for controlling the portable device that allow a user to perform a smooth operation.
  • FIG. 10 is a flowchart illustrating cursor mode control processing according to a second modification. It is a figure which shows an example of a screen display when the control process of cursor mode based on the example 2 of a change is performed. It is a figure which shows an example of a screen display when the control process of cursor mode based on the example 2 of a change is performed. It is a figure which shows an example of a screen display when the control process of cursor mode based on the example 3 of a change is performed. It is a figure which shows an example of a screen display when the control process of cursor mode based on the example 3 of a change is performed.
  • FIG. 10 is a flowchart showing cursor mode control processing according to a modification example 4; It is a figure for demonstrating the example in which an operation menu screen is displayed when the cursor position moves out of a display based on the other example of a change. It is a figure for demonstrating the example which an adjacent page is displayed when the cursor position moves out of a display based on the other example of a change. It is a figure which shows a mode that a user operates a mobile telephone.
  • FIG. 1 (a), (b) and (c) show a front view, a rear view and a right side view of the mobile phone 1, respectively.
  • the longitudinal direction of the cabinet 2 is defined as the up-down direction
  • the short direction of the cabinet 2 is defined as the left-right direction.
  • the mobile phone 1 includes a cabinet 2, a display 3, a touch panel 4, a microphone 5, a call speaker 6, an external speaker 7, and a camera 8.
  • the cabinet 2 has a substantially rectangular outline when viewed from the front.
  • a display 3 is arranged on the front side of the cabinet 2.
  • Various images (screens) are displayed in the display area R of the display 3.
  • the display 3 is a liquid crystal display, for example.
  • the display 3 may be another type of display such as an organic EL display.
  • a touch panel 4 is disposed so as to cover the display 3.
  • the touch panel 4 is formed in a transparent sheet shape.
  • various types of touch panels such as a capacitance type, an ultrasonic type, a pressure sensitive type, a resistance film type, and a light detection type can be used.
  • a microphone 5 is arranged at the lower end. Further, inside the cabinet 2, a call speaker 6 is arranged at the upper end. The microphone 5 receives sound that has passed through a microphone hole 5 a formed in the front of the cabinet 2. The microphone 5 generates an electrical signal corresponding to the input sound. The call speaker 6 outputs sound. The output sound passes through an output hole 6 a formed in the front of the cabinet 2 and is emitted to the outside of the cabinet 2.
  • the received voice received from the communication destination device such as a mobile phone
  • the call speaker 6 is output from the call speaker 6, and the uttered voice uttered by the user is input to the microphone 5.
  • the sound includes various sounds such as sound and notification sound.
  • An external speaker 7 is arranged inside the cabinet 2. On the back surface of the cabinet 2, an output hole 7 a is formed in a region facing the external speaker 7. The sound output from the external speaker 7 passes through the output hole 7a and is emitted to the outside of the cabinet 2.
  • a camera 8 is arranged on the back side.
  • the camera 8 includes an image sensor such as a CCD or a CMOS sensor, and photographs a subject.
  • FIG. 2 is a block diagram showing the overall configuration of the mobile phone 1.
  • the mobile phone 1 includes a control unit 11, a storage unit 12, an image output unit 13, a touch detection unit 14, a voice input unit 15, a voice output unit 16, and a voice processing unit. 17, a key input unit 18, a communication unit 19, and a photographing unit 20.
  • the storage unit 12 includes a ROM, a RAM, and an external memory.
  • the storage unit 12 stores various programs.
  • the programs stored in the storage unit 12 include various applications (for example, home, telephone, e-mail, web browser, map, game, schedule management, etc.) in addition to a control program for controlling each unit of the mobile phone 1. Including. Further, the program stored in the storage unit 12 includes a program for executing a cursor mode control process, which will be described later. These programs are stored in the storage unit 12 by the manufacturer when the mobile phone 1 is manufactured, and are also stored in the storage unit 12 by a user via a storage medium such as a communication network, a memory card, or a CD-ROM.
  • the storage unit 12 also includes a working area for storing data that is temporarily used or generated when the program is executed.
  • the control unit 11 includes a computer or a CPU.
  • the control unit 11 is configured according to a program stored in the storage unit 12 to configure each unit (storage unit 12, image output unit 13, touch detection unit 14, voice input unit 15, voice output unit 16, voice processing unit). 17, key input unit 18, communication unit 19, photographing unit 20, etc.).
  • the image output unit 13 includes the display 3 shown in FIG.
  • the image output unit 13 displays an image (screen) on the display 3 based on the control signal and the image signal from the control unit 11.
  • the touch detection unit 14 includes the touch panel 4 shown in FIG.
  • the touch detection unit 14 detects a touch operation by the user on the display 3 illustrated in FIG. That is, when the user touches the display area R of the display 3, the touch detection unit 14 uses the touch panel 4 to detect a position touched by the user (hereinafter referred to as “touch position”).
  • the touch detection unit 14 outputs a position signal generated based on the detected touch position to the control unit 11.
  • an orthogonal coordinate system is set on the display 3 with the upper left corner of the display 3 as the origin, the X axis in the horizontal direction and the Y axis in the vertical direction. Yes.
  • the touch panel 4 When a finger is touched on the display 3, the touch panel 4 outputs a coordinate value indicating a touch position on the display 3.
  • the touch panel 4 may be configured to detect the position where the finger is approaching as the touch position when the user's finger is close to the display 3.
  • the touch panel 4 is provided on the mobile phone 1, the user can perform various touch operations by touching the display 3 with a finger.
  • the touch operation includes, for example, a tap operation, a flick operation, a slide operation, a drag operation, a long touch operation, and the like.
  • the tap operation is an operation of releasing the finger from the display 3 in a short time after the user touches the display 3 with the finger.
  • the flick operation is an operation in which the user touches the display 3 with a finger and then flips the display 3 with the finger in an arbitrary direction.
  • the slide operation is an operation in which the user moves the finger in an arbitrary direction while keeping the finger in contact with the display 3.
  • the drag operation is an operation of releasing a finger from the display 3 after the user performs a slide operation on a moving object such as an icon.
  • the long touch operation is an operation in which, after the user touches the display 3 with the finger, the finger is kept in contact with the display 3 for a long time without moving the finger.
  • the control unit 11 determines that the touch operation is a tap operation. judge. When the touch position is no longer detected after the touch position has been moved within a predetermined second time after the touch position is detected and the touch position is not detected, the control unit 11 performs a flick operation on the touch operation. Is determined. After the touch position is detected, when the touch position moves by a predetermined second distance or more, the control unit 11 determines that the touch operation is a slide operation. After the touch position is detected, the control unit 11 determines that the touch operation is a long touch operation when the touch position continues to be detected for a third time or more without moving for a predetermined third distance or more. .
  • the voice input unit 15 includes a microphone 5.
  • the voice input unit 15 outputs an electrical signal from the microphone 5 to the voice processing unit 17.
  • the audio output unit 16 includes a call speaker 6 and an external speaker 7. An electrical signal from the audio processing unit 17 is input to the audio output unit 16. The audio output unit 16 outputs sound from the call speaker 6 or the external speaker 7.
  • the audio processing unit 17 performs A / D conversion or the like on the electrical signal from the audio input unit 15 and outputs the converted digital audio signal to the control unit 11.
  • the audio processing unit 17 performs decoding processing, D / A conversion, and the like on the digital audio signal from the control unit 11, and outputs the converted electric signal to the audio output unit 16.
  • the key input unit 18 includes at least one hard key.
  • the key input unit 18 includes a power key for turning on the mobile phone 1.
  • the key input unit 18 outputs a signal corresponding to the pressed hard key to the control unit 11 when at least one of the various hard keys (not shown) arranged on the mobile phone 1 is pressed. To do.
  • the communication unit 19 includes a circuit for converting a signal, an antenna for transmitting and receiving radio waves, and the like to perform a call and communication.
  • the communication unit 19 converts a call or communication signal input from the control unit 11 into a radio signal, and transmits the converted radio signal to a communication destination such as a base station or another communication device via an antenna. To do. Further, the communication unit 19 converts the radio signal received via the antenna into a signal in a format that can be used by the control unit 11, and outputs the converted signal to the control unit 11.
  • the photographing unit 20 includes a camera 8 shown in part (b) of FIG.
  • the imaging unit 20 performs various types of image processing on the image data of the image captured by the camera 8 and outputs the image data after the image processing to the control unit 11.
  • FIG. 3 is a diagram for explaining a screen displayed on the display 3 by executing the application.
  • the control unit 11 executes various applications as described above. After the application is executed, the control unit 11 executes a process according to the touch operation on the display 3 by the user, and displays a screen based on the process on the display 3.
  • the screen displayed on the display 3 includes a pictogram area RP, a window area RW, and a key area RK.
  • a notification bar 101 is displayed in the pictogram area RP.
  • the notification bar 101 includes a current time 101a, an intensity meter 101b indicating the intensity of radio waves, a remaining amount meter 101c indicating the remaining battery level, and the like. Further, the notification bar 101 includes a notification icon 101d corresponding to other notification information to be notified to the user other than the current time 101a, the intensity meter 101b, and the remaining amount meter 101c.
  • notification information includes, for example, information related to missed calls (phone number, caller name, etc.), information related to new incoming e-mails (mail address, sender name, etc.), alarm notification time, etc.
  • the operation key group 102 is displayed in the key area RK.
  • the operation key group 102 includes a setting key 102a, a home key 102b, and a back key 102c.
  • the setting key 102a is a key for mainly displaying a setting screen for performing various settings on the display 3.
  • the home key 102b is a key for mainly shifting the display on the display 3 from another screen to the home screen.
  • the back key 102c is a key for returning the executed process to the process one step before.
  • an operation screen when the application is executed is displayed.
  • a home application is executed, a home screen is displayed in the window area RW.
  • activation icons for activating various applications such as telephone and e-mail on the display 3 (in the foreground) are arranged.
  • a telephone application is executed, a dial screen, an incoming call list screen, and the like are displayed in the window area RW.
  • a web browser application is executed, a web screen is displayed in the window area RW based on data acquired from an external server.
  • the window area RW may extend to the picto area RP or the key area RK. That is, the entire screen may be configured by the window area RW.
  • the operation screen when the application is executed may be displayed using the window area RW extending to the pictogram area RP.
  • the key area RK is not displayed
  • the operation screen when the application is executed may be displayed using the window area RW extending to the key area RK.
  • the operation screen when the application is executed may be displayed using the window area RW expanded over the entire display 3.
  • FIG. 4 is a diagram illustrating an example of a screen display when processing according to a touch operation on the display 3 is performed.
  • the control unit 11 When the control unit 11 detects a tap operation on the home key 102b, the control unit 11 executes the home application and displays the home screen on the display 3. On the home screen, activation icons 103 for activating various applications are arranged. For example, as shown in part (a) of FIG. 4, when the user performs a tap operation on the activation icon 103 of the telephone application, the telephone application is displayed as shown in part (b) of FIG. The dial screen is displayed on the display 3. The dial screen is a screen for a user to enter a telephone number and make a call.
  • the home screen is composed of a plurality of pages. For example, when a page continues in the left direction, if a flick operation in the right direction is performed with respect to an arbitrary position on the home screen, the home screen scrolls, as shown in FIG. A page is displayed on the display 3.
  • the plurality of pages may be ranked with respect to each other. For example, when the control unit 11 detects a flick operation when any screen is displayed, the control unit 11 is given to the screen on which the flick operation is performed. One screen may be selected based on the flick operation from the screens associated with the ranks before and after the rank, and the selected screen may be displayed on the display 3.
  • FIG. 5 is a diagram for explaining the notification list screen 104 displayed on the display 3.
  • the notification bar 101 in the pictogram area RP of the display 3 functions as an object used for an operation for displaying the notification list screen 104 on the display 3.
  • the display 3 (window area RW) is notified as shown in part (b) of FIG.
  • a list screen 104 is displayed.
  • the notification list screen 104 may be displayed so as to descend from the lower end of the notification bar 101 so as to be pulled out from the notification bar 101 by a slide operation.
  • Notification information is displayed in more detail in each display column 104a of the notification list screen 104 than the notification icon 101d. For example, when the notification information is missed call information, the number of missed calls and the latest missed call information (such as a telephone number) are displayed in the display column 104a.
  • the user when the user responds to desired notification information, the user performs a tap operation on the display column 104 a corresponding to the notification information.
  • the application corresponding to the notification information that has been tapped is activated.
  • the notification information is missed call information
  • a telephone application is activated, and as shown in FIG. 5C, the missed call list screen 105 in which missed call information is displayed in each display column 105a. Is displayed on the display 3.
  • the user when using the mobile phone 1, the user often holds the device body with one hand and touches the display 3 with the thumb. As described above with reference to FIG. 23, it is difficult for the thumb to reach the position of the display 3 far from the thumb. Therefore, there is an object to be operated such as the activation icon 103 at a position where the thumb is difficult to reach, and when the user performs a touch operation on the object, the user needs to change the mobile phone 1.
  • the mobile phone 1 in order to allow the user to smoothly perform an operation with one hand, the mobile phone 1 according to the present embodiment will be described below in addition to the normal mode that accepts the tap operation and the flick operation described above as the operation mode. It has a cursor mode.
  • 6 to 8 are flowcharts showing the control process in the cursor mode.
  • 6 and 7 are flowcharts showing a main processing routine.
  • FIG. 8 is a flowchart showing a processing routine for determining the cursor position.
  • 9 and 10 are diagrams illustrating an example of screen display when the cursor mode control process is performed. In FIG. 9, the home screen is displayed on the display 3.
  • the control unit 11 monitors whether or not a long touch operation has been performed on the display 3 (S101).
  • the long touch operation is an operation for switching from the normal mode to the cursor mode.
  • the control unit 11 sets the current touch position acquired from the touch detection unit 14 as the reference touch position PA (S102). Next, the control unit 11 determines the reference cursor position QA (S103), and displays the cursor C at the determined reference cursor position QA (S104).
  • the control unit 11 sets a position shifted by a predetermined vector from the reference touch position PA as the reference cursor position QA.
  • the cursor C has a circular shape, but the cursor C may have an arbitrary shape such as an arrow shape.
  • the control unit 11 determines whether or not the next detection timing of the touch position by the touch detection unit 14 has arrived (S105). When the next detection timing comes (S105: YES), the control unit 11 determines whether or not the finger is released from the display 3 based on whether or not the touch position is detected by the touch detection unit 14 (S106). ). The control unit 11 determines that the finger has been released from the display 3 when the touch position that has been detected until the previous detection timing is no longer detected.
  • the control unit 11 determines the cursor position QB based on the touch position PB detected at the current detection timing (S107).
  • the cursor position QB is a position where the cursor C is displayed. However, as described later, when the determined cursor position QB exists outside the displayable area RA (described later), the cursor C is not displayed at the cursor position QB.
  • the control unit 11 obtains a first vector VP between the touch position PB detected at the current detection timing and the reference touch position PA (S201). Next, the control unit 11 obtains a second vector VQ used for determining the cursor position QB by multiplying the first vector VP by a predetermined factor (for example, three times) (S202). Then, the control unit 11 determines a position away from the reference cursor position QA by the second vector VQ as the cursor position QB (S203).
  • the control unit 11 determines whether or not the determined cursor position QB is within the displayable area RA (S108). As shown in part (a) of FIG. 9, the control unit 11 provides a displayable area RA on the display 3.
  • the displayable area RA is an area in which the cursor C can be displayed without the cursor C protruding from the display area R of the display 3 when the cursor C is displayed at the cursor position QB. Coordinate data indicating the displayable area RA is stored in the storage unit 12.
  • the control unit 11 displays the cursor C at the determined cursor position QB (S109).
  • step S105 when the user moves his / her finger while touching the display 3, the processing from step S105 to step S109 is repeated, and the cursor position QB, that is, the cursor, is a trajectory obtained by enlarging the trajectory of the touch position by a predetermined time. C moves on the display 3. Eventually, the cursor C reaches the activation icon 103 in the upper right part.
  • the user wants to operate the notification bar 101 located at the upper end of the display 3, the user touches the display 3 so that the cursor position QB exceeds the upper side of the display 3 as shown in FIG. Is greatly moved upward.
  • the control unit 11 provides an upper boundary line UL at a position away from the upper side of the display 3 by a predetermined distance Y1, as shown in part (a) of FIG.
  • the upper boundary line UL is a threshold for the cursor position QB, and is used to determine whether or not to display the notification list screen 104 (FIG. 5) on the display 3. Coordinate data indicating the upper boundary line UL is stored in the storage unit 12.
  • step S105 When the user moves his / her finger upward, the processing from step S105 to step S109 described above is repeated until the cursor position QB moves out of the displayable area RA.
  • the control unit 11 determines in step S108 that the cursor position QB is not within the displayable area RA, that is, deviates from the displayable area RA (S108: NO).
  • the control unit 11 sets a cursor position QC, which is different from the cursor position QB, to a position immediately before leaving the displayable area RA on the trajectory of the cursor position QB (S112), and displays the cursor C at the set cursor position QC. (S113).
  • the cursor position QB exceeds the upper side of the displayable area RA, the cursor C is displayed on the upper end portion of the display 3 as shown in part (c) of FIG.
  • the control unit 11 determines whether or not the movement of the touch position is stopped (S114). If the touch position is moving further upward and is not stopped (S114: NO), the control unit 11 determines whether or not the cursor position QB exceeds the upper boundary line UL (S115). . If the cursor position QB does not exceed the upper boundary line UL (S115: NO), the process returns to step S105.
  • step S105 to step S108 and from step S112 to step S115 is repeated until the cursor position QB leaves the displayable area RA and exceeds the upper boundary line UL.
  • the control unit 11 displays a list of notifications on the display 3 as shown in part (a) of FIG.
  • the screen 104 is displayed (S116).
  • the notification list screen 104 is displayed so as to descend from the lower end of the notification bar 101.
  • step S116 After the notification list screen 104 is displayed, even if it is determined in step S115 that the cursor position QB exceeds the upper boundary line UL, the processing in step S116 is not executed.
  • step S114 it is determined that the movement of the touch position has stopped (S114: YES), and the control unit 11 determines the cursor position QC where the cursor C is currently displayed, as shown in part (a) of FIG. A new reference cursor position QA is set (S117). Further, the control unit 11 newly sets the current touch position PB as the reference touch position PA (S118).
  • step S105 to S109 is repeated.
  • the reference cursor position QA and the reference touch position PA newly set in steps S117 and S118 are used. That is, the control unit 11 obtains the second vector VQ from the first vector VP between the touch position PB detected this time and the new reference touch position PA (S201, S202). Then, the control unit 11 determines a position away from the new reference cursor position QA by the second vector VQ as the cursor position QB (S203). Thus, as shown in FIG. 9B, when the user moves the finger so that the cursor C is directed to the desired notification information, the cursor C immediately moves in the same direction as the finger has moved.
  • step S106 the control unit 11 determines that the release has been performed. (S106: YES). Since the cursor position QB is positioned on the display field 104a which is an object (S110: YES), the control unit 11 selects an application corresponding to the process assigned to the object, that is, the notification information represented in the display field 104a. Execute (S111).
  • the user When only viewing the notification information on the notification list screen 104 and closing the notification list screen 104, the user releases his / her finger in a state where the cursor position QB does not exist in the display column 104a.
  • step S110 determines whether the notification list screen 104 is displayed on the display 3 (S119). If the notification list screen 104 is displayed (S119: YES), the control unit 11 closes the notification list screen 104 (S120).
  • step S117 and step S118 the processing of step S117 and step S118 is performed, and the cursor position QC where the cursor C is currently displayed becomes a new reference cursor position QA.
  • the current touch position PB is newly set as the reference touch position PA. Therefore, after that, when the user moves the finger to the inside of the display 3, the cursor C immediately moves in the same direction as the direction of the moved finger.
  • the cursor C moves on the display 3 in a trajectory obtained by enlarging the trajectory of the finger.
  • the process assigned to the object is executed. Therefore, when the user operates the mobile phone 1 while holding the mobile phone 1 with one hand, the user can operate the object or the like on the display 3 where the thumb cannot reach, and can smoothly operate the mobile phone 1. .
  • the notification list screen 104 when the user moves his / her finger on the display 3 so that the cursor position QB exceeds the upper side of the display 3, the notification list screen 104 is displayed on the display 3, and the user directly When the desired notification information is selected and the finger is released, an application corresponding to the notification information is executed. Further, when the user releases the finger without selecting the notification information, the notification list screen 104 is closed. Thus, the user operates from calling the notification list screen 104 to the display 3 until the application corresponding to the desired notification information is executed, and operation from calling the notification list screen 104 to closing the notification list screen 104. Can be realized by a series of operations of moving the finger on the display 3 and then releasing the finger, so that the mobile phone 1 can be operated more smoothly.
  • the notification list screen 104 is displayed when the cursor position QB exceeds the upper boundary line UL set outside the display 3. Therefore, the notification list screen 104 is not displayed even if the user accidentally moves his / her finger greatly to move the cursor position QB slightly off the display 3.
  • the reference touch position PA and the reference cursor position QA are set on the display 3 before the finger touched on the display 3 is moved, and the touch is performed after the finger movement is started.
  • a first vector VP between the detected touch position PB and the reference touch position PA is obtained.
  • a position separated from the reference cursor position QB by the second vector VQ obtained by enlarging the first vector VP by a predetermined multiple is determined as the cursor position QB.
  • the cursor position QB is moved along a trajectory obtained by enlarging the trajectory of the touch position PB.
  • the reference touch position PA and the reference cursor position QA are fixed, and the reference touch position PA and the reference cursor position QA are not updated every time the touch position is detected. Therefore, an arithmetic process for determining the cursor position QB is performed. Difficult to get complicated.
  • the cursor position QB when the cursor position QB deviates from the displayable area RA, another cursor position QC is set on the display 3, and the cursor C is displayed at this cursor position QC. . For this reason, even if the cursor position QB deviates from the displayable area RA, the cursor C remains on the display 3, so that the user is in the cursor mode and the cursor position QB can display the cursor C. It can be recognized that it is off.
  • the touch position PB when the cursor position QB is out of the displayable area RA is newly set as the reference touch position PA, and another cursor position QC is newly set as the reference cursor position QA. It is set as the configuration set to. For this reason, when the user moves his / her finger to the inside of the display 3 from the state where the cursor position QB is out of the displayable area RA, the cursor C immediately moves. Also, the direction of movement of the cursor C is the same as the direction of finger movement.
  • the cursor position is moved by moving the finger to the inside of the display 3 to some extent.
  • the cursor C does not start to move unless QB returns to the displayable area RA. That is, since the cursor C does not move immediately even if the user moves his / her finger, the user may feel poor followability (see part (a) of FIG. 11).
  • the direction in which the cursor C starts moving is different from the direction of the finger, the user may feel uncomfortable (see part (b) of FIG. 11).
  • the cursor C when the user moves the finger to the inside of the display 3, the cursor C immediately moves in the same movement direction as the finger, so that the user feels poor followability or feels uncomfortable. It is difficult to do.
  • the touch position PB when the movement of the touch position is stopped while the cursor position QB is out of the displayable area RA is set as the reference touch position PA, and another cursor position QC is set as the reference position. It is configured to be set at the cursor position QA. Normally, the user temporarily stops the finger that has moved the cursor position QB away from the display 3, and then moves the finger in a direction to return the cursor position QB to the display 3. Therefore, the reference touch position PA and the reference cursor position QA can be changed at an appropriate timing immediately before the user moves his / her finger to return the cursor position QB to the display 3.
  • FIG. 12 is a flowchart showing the control processing in the cursor mode according to this modification example.
  • FIG. 13 is a diagram illustrating an example of a screen display when the cursor mode control process is performed according to the present modification example.
  • step S116 is replaced with the process of step S121 in the flowchart of FIG. 7, except that the processes of steps S122 to S125 are added after the process of step S109. And are connected to each other at symbols A and B in FIG.
  • a notification list flag is set (S121). As shown in part (a) of FIG. 13, the notification list screen 104 is not displayed only when the cursor position QB exceeds the upper boundary line UL.
  • the control unit 11 determines whether the notification list flag is set (S122). Furthermore, if the notification list flag is set (S122: YES), the control unit 11 determines whether or not the cursor position QB has moved downward (S123).
  • the control unit 11 determines that the notification list flag is set (S122: YES), and further determines that the cursor position QB has moved downward (S123: YES). Thereby, the control part 11 displays the notification list screen 104 on the display 3 as shown to the (c) part of FIG. 13 (S124). The notification list screen 104 is displayed so as to descend from the lower end of the notification bar 101. When the notification list screen 104 is displayed (S124), the control unit 11 resets the notification list flag (S125).
  • the notification list screen 104 is displayed so as to come down by the movement of the finger that pulls down the notification list screen 104, so that an intuitive and easy-to-understand operation can be realized.
  • ⁇ Modification 2> when the user moves his / her finger upward so that the cursor position QB exceeds the upper side of the display 3, the notification list screen 104 is displayed. In the present modification example, when the user further moves his / her finger downward, leftward or rightward so that the cursor position QB exceeds the lower side, left side or right side of the display 3, the operation menu screen 106 is displayed. The operation menu screen 106 is used for operating an application being executed on the display 3.
  • FIG. 14 and FIG. 15 are flowcharts showing the control process of the cursor mode according to this modification example.
  • FIG. 16 and FIG. 17 are diagrams showing an example of a screen display when the cursor mode control process is performed according to this modification example.
  • FIG. 16 and FIG. 17 one page of the book which is an operation screen of the electronic book application is displayed on the display 3.
  • steps S131 to S138 are added to the flowcharts of FIGS.
  • FIG. 15 for the sake of convenience, the illustration of the processes of steps S107 to S109, steps S112 to S114, steps S117, and S118 shown in FIG. 7 is omitted. 14 and 15, they are connected to each other at symbols A (not shown in FIG. 15) and B.
  • the control unit 11 provides a lower boundary line BL at a position away from the lower side of the display 3 by a predetermined distance Y1. Further, as shown in part (a) of FIG. 17 and part (b) of FIG. 17, the control unit 11 provides a left boundary line LL at a position away from the left side of the display 3 by a predetermined distance X1 to the left. A right boundary line RL is provided at a position separated from the right side of the display 3 to the right by a predetermined distance X1.
  • the lower boundary line BL, the left boundary line LL, and the right boundary line RL are threshold values for the cursor position QB, and are used to determine whether or not to display the operation menu screen 106 on the display 3. Coordinate data indicating the lower boundary line BL, the left boundary line LL, and the right boundary line RL is stored in the storage unit 12.
  • the control unit 11 determines whether the cursor position QB exceeds the lower boundary line BL, whether the cursor position QB exceeds the left boundary line LL, and It is determined whether or not the right boundary line RL is exceeded (S131, S132, and S133).
  • the control unit 11 displays the operation menu screen 106 on the left side of the display 3, that is, at a position close to the left side of the display 3 (S135). Further, when the user moves his / her finger to the right and the cursor position QB passes the right side of the display 3 and exceeds the right boundary line RL as shown in FIG. 17B, (S133: YES). The control unit 11 displays the operation menu screen 106 on the right side of the display 3, that is, at a position close to the right side of the display 3 (S136).
  • the user moves the cursor C to the desired operation button 106a by moving the finger while touching the display 3, as shown in part (c) of FIG. Then, the user releases his / her finger from the display 3 while the cursor C is on the operation button 106a.
  • control unit 11 determines that the release has been performed (S106: YES)
  • the cursor position QB is positioned on the operation button 106a that is the object (S110: YES), so the control unit 11 executes on the display 3 assigned to the operation button 106a.
  • a process related to the application is performed (S111). For example, when an electronic book application is executed on the display 3, if the finger is released in a state where the cursor C is positioned on the page sending button, the next page of the book is displayed on the display 3.
  • the control unit 11 displays the operation menu screen 106. It is determined whether it is displayed on the display 3 (S137). If the operation menu screen 106 is displayed (S137: YES), the control unit 11 closes the operation menu screen 106 (S138).
  • the user calls the operation menu screen 106 on the display 3 and executes the process assigned to the desired operation button 106a, and after calling the operation menu screen 106.
  • the operation until the operation menu screen 106 is closed can be realized by a series of operations of moving the finger on the display 3 and then releasing the finger, so that the mobile phone 1 can be operated smoothly.
  • the operation menu screen 106 is displayed at a position close to the side of the display 3 that is passed when the cursor position QB moves out of the display 3.
  • the cursor position QB (cursor C) can be moved to the operation button 106a on the operation menu screen 106 without moving the finger too much.
  • the operation menu screen 106 is displayed. Is displayed. Therefore, even if the user accidentally moves his / her finger greatly, even if the cursor position QB slightly deviates from the display 3, the operation menu screen 106 is not displayed.
  • ⁇ Modification 3> when the user moves his / her finger upward so that the cursor position QB exceeds the upper side of the display 3, the notification list screen 104 is displayed.
  • the screen displayed on the display 3 includes a plurality of pages, the user moves his / her finger to the left or right so that the cursor position QB exceeds the left or right side of the display 3. Then, a page adjacent to the currently displayed page is displayed.
  • FIG. 18 is a flowchart showing the control process of the cursor mode according to this modification example.
  • FIG. 19 is a diagram illustrating an example of a screen display when the cursor mode control process is performed according to the present modification example. In FIG. 19, a home screen including a plurality of pages is displayed on the display 3.
  • steps S141 to S144 are added to the flowchart of FIG. 18 is the same as FIG. 7 except that the processing of steps S107 to S109, steps S112 to S114, steps S117, and S118 shown in FIG. Are connected to each other at symbols A (not shown in FIG. 18) and B.
  • the control unit 11 provides a left boundary line LL at a position left by a predetermined distance X1 from the left side of the display 3, and from the right side of the display 3.
  • a right boundary line RL is provided at a position separated to the right by a predetermined distance X1.
  • the left boundary line LL and the right boundary line RL are threshold values for the cursor position QB and are used to determine whether or not to display an adjacent page on the display 3. Coordinate data indicating the left boundary line LL and the right boundary line RL is stored in the storage unit 12.
  • the control unit 11 determines whether the cursor position QB exceeds the left boundary line LL and whether it exceeds the right boundary line RL. Determination is made (S141, S142).
  • the part 11 displays the left adjacent page on the display 3 (S143).
  • the control unit 11 changes the page on the right to the right. This is displayed on the display 3 (S144).
  • the user moves his / her finger while touching the display 3 to activate the object to be operated, in the case of the home screen.
  • the cursor C is moved to the icon 103. Then, the finger is released from the display 3 while the cursor C is on the object.
  • the control unit 11 performs the process assigned to the object because the cursor position QB is positioned on the object (S110: YES). For example, when the object is the activation icon 103, the control unit 11 activates an application corresponding to the activation icon 103 and displays the operation screen on the display 3.
  • the user moves the finger on the display 3 after moving the finger on the display 3 until the display 3 is called to the adjacent page and the process assigned to the desired object is executed.
  • This can be realized by a series of operations of releasing, and the mobile phone 1 can be operated smoothly.
  • the reference touch position PA and the reference cursor position QA are updated when the movement of the touch position is stopped in a state where the cursor position QB deviates from the displayable area RA.
  • the update of the reference touch position PA and the reference cursor position QA is periodically repeated.
  • FIG. 20 is a flowchart showing the control processing in the cursor mode according to this modification example.
  • the process of step S114 is replaced with the process of step S126 with respect to the flowchart of FIG.
  • the control unit 11 when the cursor position QB moves outside the displayable area RA, the control unit 11 initially has moved until the predetermined time has elapsed since the cursor position QB moved outside the displayable area RA. Once the reference touch position PA and the reference cursor position QA are updated, it is determined whether or not a predetermined time has elapsed since the reference update (S126). If it is determined that the predetermined time has elapsed (S126: YES), the control unit 11 newly sets another cursor position QC as the reference cursor position QA (S117) and newly sets the current touch position PB as the reference touch. The position PA is set (S118).
  • the predetermined time is shorter than the time required for the user who notices the cursor position QB to return the cursor position QB to the display 3 after the cursor position QB has deviated from the displayable area RA.
  • the predetermined time may be the same time as the touch position detection interval by the touch detection unit 14, or may be a longer time.
  • the predetermined time can be set to a time of several ms to several tens of ms, for example.
  • the cursor C moves the same as the finger. Since it moves immediately in the direction, it can be made difficult for the user to feel poor followability or to feel uncomfortable.
  • the displayable area RA is set on the display 3.
  • the displayable area RA may not be set on the display 3 by drawing the cursor C inside the display 3 with respect to the cursor position QB. In this case, when the cursor position QB moves out of the display 3, the control unit 11 sets another cursor position QB on the display 3 and displays the cursor C.
  • the upper boundary line UL is used as a threshold for displaying the operation menu screen 106, and when the cursor position QB moves outside the upper boundary line UL, the control unit 11 Alternatively, the operation menu screen 106 may be displayed at a position close to the upper side of 3.
  • the left boundary line LL and the right boundary line RL are used as thresholds for displaying adjacent pages, and the cursor position QB has moved outside the left boundary line LL or the right boundary line RL. In this case, the control unit 11 may display a page adjacent to the page that has been displayed.
  • the notification list screen 104 when the notification list screen 104 is displayed, if the finger is released at a position other than the display column 104a that is an object, the notification list screen 104 is closed.
  • the present invention is not limited to the above configuration. For example, even when the finger is released, the notification list screen 104 is not closed, and the notification list screen 104 is then closed when a tap operation is performed on the lower part of the notification list screen 104. May be.
  • the notification list screen 104 when the notification list screen 104 is displayed, the display 3 is touched again, and when the finger is moved so that the cursor position QB moves outside the upper boundary line UL, the notification list screen 104 is displayed. It may be closed.
  • the reference touch position PA and the reference cursor position QA are changed based on the movement of the cursor position QB outside the displayable area RA.
  • the reference touch position PA and the reference cursor position QA may not be changed based on the movement outside the displayable area RA.
  • the reference touch position PA and the reference cursor position QA are updated.
  • the present invention is not limited to such a configuration, and in the configuration of the above embodiment, when it is determined that the notification list screen 104 is displayed when the cursor position QB exceeds the upper boundary line UL, the reference touch position PA and the reference cursor are displayed.
  • the position QA may be updated.
  • the reference touch position PA and the reference cursor position QA may be updated.
  • step S112 and step S113 is deleted in FIG. 7.
  • a predetermined position on the display 3 for example, a position immediately before leaving the displayable area RA on the trajectory of the cursor position QB. Is newly set to the reference cursor position QA.
  • the notification list screen 104 is displayed.
  • the operation menu is displayed.
  • a configuration in which the screen 106 is displayed may be adopted.
  • the operation menu screen 106 is used for operating an application being executed on the display 3.
  • an operation button 106a for operating the application is arranged.
  • the executed application is an electronic book
  • a button for sending a page, a button for returning a page, and the like are arranged on the operation menu screen 106 as operation buttons 106a.
  • control unit 11 provides a lower boundary line BL at a position separated by a predetermined distance Y1 from the lower side of the display 3 and moves left and right by a predetermined distance X1 from the left side and the right side of the display 3, respectively.
  • a left boundary line LL and a right boundary line RL are provided at positions separated from each other.
  • the user moves his / her finger left or right so that the cursor position QB exceeds the left or right side of the display 3.
  • a configuration may be adopted in which, when moved, a page adjacent to the currently displayed page is displayed.
  • the home screen on which the activation icon 103 is arranged is displayed on the display 3.
  • the upper boundary line UL is provided, and the control unit 11 displays the notification list screen 104 when the cursor position QB moves outside the upper boundary line UL.
  • the upper boundary line UL may not be provided, and in this case, the control unit 11 displays the notification list screen 104 when the cursor position QB moves outside the upper side of the display 3 (display region R).
  • the lower boundary line BL, the left boundary line LL, and the right boundary line RL are not provided, and the cursor position QB is from the lower side, the left side, or the right side of the display 3 (display area R).
  • the operation menu screen 106 may be displayed.
  • the control is performed when the left boundary line LL and the right boundary line RL are not provided and the cursor position QB moves outside the left side or the right side of the display 3 (display region R).
  • An adjacent page may be displayed by the unit 11.
  • the reference cursor position QA is set to a position different from the reference touch position PA, but may be set to the same position.
  • the cursor mode is shifted based on the long touch operation, but may be shifted to the cursor mode based on other operations, for example, a double tap operation or a hard key operation.
  • the position on the display 3 where the finger is first touched after the transition to the cursor mode is set as the reference touch position PA.
  • the reference touch position PA and the reference cursor position QA are updated.
  • the present invention is not limited to such a configuration, and in the configuration of the above embodiment, when it is determined that the notification list screen 104 is displayed when the cursor position QB exceeds the upper boundary line UL, the reference touch position PA and the reference cursor are displayed.
  • the position QA may be updated.
  • the reference touch position PA and the reference cursor position QA may be updated.
  • the reference touch position PA and the reference cursor position QA may be updated.
  • the notification list screen 104 is the same size as the window area RW, but may be a small size.
  • the upper, lower, left, and right boundary lines UL, BL, LL, RL are provided, and the cursor position QB is outside any of the boundary lines UL, BL, LL, RL.
  • the notification list screen 104 may be displayed at a position close to the side of the display 3 where the boundary lines UL, BL, LL, and RL have passed.
  • the present invention is not limited to a mobile phone, but can be applied to various portable devices such as a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), an electronic book terminal, a portable music player, a portable TV, and a portable navigation system.
  • PDA Personal Digital Assistant
  • Tablet PC Tablet PC
  • portable music player Portable TV
  • portable TV Portable TV
  • portable navigation system a portable navigation system

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

 本発明に係る携帯電話機は、ディスプレイ上のタッチ位置を検出するタッチ検出部と、制御部とを備える。制御部は、タッチ位置が移動すると、タッチ位置の軌道を拡大した軌道でカーソル位置を移動させ、カーソル位置にカーソルを表示する。制御部は、ディスプレイ上にカーソル位置が存在する状態でタッチ位置が検出されなくなると、ホーム画面に関してカーソル位置に割り当てられた処理を実行する。制御部は、タッチ位置が検出されなくなる前にカーソル位置がディスプレイの外へ移動したことに基づいて、ディスプレイに通知一覧画面を表示する。制御部は、タッチ位置が検出されなくなると、通知一覧画面に関してカーソル位置に割り当てられた処理を実行する。

Description

携帯機器、携帯機器の制御方法
 本発明は、携帯電話機、PDA(Personal Digital Assistant)、タブレットPC(Tablet PC)、電子書籍端末、携帯音楽プレーヤ、ポータブルテレビ、ポータブルナビゲーションシステム等の携帯機器に関し、特に、タッチパネルを有する携帯機器に関する。さらに、本発明は、かかる携帯機器に用いることが可能な制御方法に関する。
 従来、筐体の正面側にディスプレイが配置された携帯電話機が知られている。かかる携帯電話機では、たとえば、略長方形の輪郭を有する筺体の正面側に、筺体より僅かに小さい略長方形のディスプレイが配置される。さらに、このディスプレイに重なるようにタッチパネルが配置され、ディスプレイに対するユーザのタッチ操作に基づいて、各種アプリケーションプログラム(以下、単に「アプリケーション」と称する。)が実行される。
 図23は、ユーザが携帯電話機を操作する様子を示している。図23に示すように、携帯電話機のやや下側を片手で持ち、親指でディスプレイ、すなわちディスプレイに配されたタッチパネルに対する操作を行う、というユーザが増えている。
 近年、携帯電話機のディスプレイは大型化してきており、上記のように親指で操作が行われる場合、図23に一点鎖線で示すような、ディスプレイの上部から親指のつけ根とは反対側の側部にかけての領域には、親指が届きにくい。
 ユーザは、このように親指が届きにくい領域にある操作用のオブジェクト(アイコン、ソフトキー等)を操作するために、携帯電話機を持ち変えるといった煩雑な動作を行わなければならない。
 それゆえに、このような問題が生じず、ユーザが円滑な操作を行うことが可能な携帯機器、携帯機器の制御方法を提供することが望まれている。
 本発明の第1の態様に係る携帯機器は、表示部と、タッチされた前記表示部上のタッチ位置を検出する検出部と、前記検出部による検出結果に基づいて前記表示部を制御する制御部と、を備える。ここで、前記制御部は、前記タッチ位置が移動すると、前記タッチ位置の軌道を拡大した軌道でカーソル位置を移動させ、前記表示部上の前記カーソル位置にカーソルを表示する。そして、前記制御部は、前記表示部に第1画面が表示され前記表示部上に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記第1画面に関して前記カーソル位置に割り当てられた処理を実行する。さらに、前記制御部は、前記検出部により前記タッチ位置が検出されなくなる前に前記カーソル位置が前記表示部の外へ移動したことに基づいて、前記表示部に第2画面を表示する。そして、前記制御部は、前記表示部に前記第2画面が表示された状態で前記検出部により前記タッチ位置が検出されなくなると、前記第2画面に関して前記カーソル位置に割り当てられた処理を実行する。
 本態様の携帯機器において、前記第2画面は、通知情報の一覧画面を含み得る。この場合、前記制御部は、前記一覧画面の何れかの前記通知情報に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記通知情報に対応するアプリケーションを前記表示部上で実行する。
 上記構成とした場合、さらに、前記制御部は、前記カーソル位置が、前記一覧画面の何れの前記通知情報にも前記カーソル位置が存在しない状態で前記検出部により前記タッチ位置が検出されなくなると、前記一覧画面を閉じるような構成とされ得る。
 本態様に係る携帯機器において、前記第1画面は、アプリケーションの動作画面を含み得る。さらに、前記第2画面は、前記アプリケーションを操作するためのオブジェクトが配された操作メニュー画面を含み得る。この場合、前記制御部は、前記オブジェクトに前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記オブジェクトに割り当てられた、前記アプリケーションに係る処理を実行する。
 本態様に係る携帯機器において、前記第2画面は、前記表示部のサイズより小さなサイズを有するよう構成され得る。この場合、前記制御部は、前記表示部における、前記カーソル位置が前記表示部から外れる際に通過した辺に寄った位置に前記第2画面を表示する。
 本態様に係る携帯機器において、前記第1画面は、複数のページからなる画面の一つのページを含み得る。さらに、前記第2画面は、前記第1画面と異なるページを含み得る。
 本態様に係る携帯機器において、前記制御部は、前記タッチ位置が移動する前に前記タッチ位置に係る第1基準位置と前記カーソル位置に係る第2基準位置とを前記表示部上に設定し、前記タッチ位置が移動すると、前記検出部により検出された前記タッチ位置と前記第1基準位置との間の第1ベクトルを拡大した第2ベクトルだけ前記第2基準位置から離れた位置を前記カーソル位置に決定することにより、前記タッチ位置の軌道を拡大した軌道で前記カーソル位置を移動させるような構成とされ得る。
 上記構成とした場合、さらに、前記制御部は、前記カーソル位置が前記ディスプレイ上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に別のカーソル位置を設けて、当該別のカーソル位置に前記カーソルを表示するとともに、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在しているときの前記タッチ位置を前記第1基準位置に設定し、前記別のカーソル位置を前記第2基準位置に設定するような構成とされ得る。
 上記構成とした場合、さらに、前記制御部は、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在する状態で前記タッチ位置の移動が停止したときの前記タッチ位置を前記第1基準位置に設定するような構成とされ得る。
 本態様に係る携帯機器において、前記制御部は、前記カーソル位置が前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に別のカーソル位置を設けて、当該別のカーソル位置に前記カーソルを表示するような構成とされ得る。
 本発明の第2の態様に係る携帯機器は、表示部と、タッチされた前記表示部上のタッチ位置を検出する検出部と、前記検出部による検出結果に基づいて前記表示部を制御する制御部と、を備える。ここで、前記制御部は、前記タッチ位置が移動する前に前記タッチ位置に係る第1基準位置とカーソル位置に係る第2基準位置とを前記表示部上に設定する。そして、前記制御部は、前記タッチ位置が移動すると、前記検出部により検出された前記タッチ位置と前記第1基準位置との間の第1ベクトルを拡大した第2ベクトルだけ前記第2基準位置から離れた位置を前記カーソル位置に決定することにより、前記タッチ位置の軌道を拡大した軌道で前記カーソル位置を移動させ、前記表示部上の前記カーソル位置に、操作の対象となる位置を示すためのカーソルを表示する。さらに、前記制御部は、前記カーソル位置が、前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に新たに前記第2基準位置を設定するとともに、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在しているときの前記タッチ位置を新たに前記第1基準位置に設定する。
 本態様に係る携帯機器において、前記制御部は、前記カーソル位置が、前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記カーソルを表示する別のカーソル位置を前記表示部上に設けて、当該別のカーソル位置を前記第2基準位置に設定するような構成とされ得る。
 本態様に係る携帯機器において、前記制御部は、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在する状態で前記タッチ位置の移動が停止したときの前記タッチ位置を前記第1基準位置に設定するような構成とされ得る。
 本態様に係る携帯機器において、前記制御部は、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在する状態において、所定時間が経過する度に、経過時の前記タッチ位置を前記第1基準位置に設定するような構成とされ得る。
 本態様に係る携帯機器において、前記制御部は、前記表示部に第1画面が表示され前記表示部上に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記第1画面に関して前記カーソル位置に割り当てられた処理を実行するような構成とされ得る。
 上記構成とした場合、さらに、制御部は、前記検出部により前記タッチ位置が検出されなくなる前に前記カーソル位置が前記表示部の外へ移動したことに基づいて、前記表示部に第2画面を表示し、前記表示部に前記第2画面が表示された状態で前記検出部により前記タッチ位置が検出されなくなると、前記第2画面に関して前記カーソル位置に割り当てられた処理を実行するような構成とされ得る。
 上記構成とした場合、さらに、前記第2画面は、通知情報の一覧画面を含み得る。この場合、前記制御部は、前記一覧画面の何れかの前記通知情報に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記通知情報に対応するアプリケーションを前記表示部上で実行する。
 本発明の第3の態様に係る携帯機器の制御方法は、タッチされた表示部上のタッチ位置を検出することにより前記表示部を制御する携帯機器の制御方法に関し、前記タッチ位置が移動すると、前記タッチ位置の軌道を拡大した軌道でカーソル位置を移動させ、前記表示部上の前記カーソル位置にカーソルを表示するステップと、前記表示部に第1画面が表示され前記表示部上に前記カーソル位置が存在する状態で前記タッチ位置が検出されなくなると、前記第1画面に関して前記カーソル位置に割り当てられた処理を実行するステップと、前記タッチ位置が検出されなくなる前に前記カーソル位置が前記表示部の外へ移動したことに基づいて、前記表示部に第2画面を表示するステップと、前記表示部に前記第2画面が表示された状態で前記タッチ位置が検出されなくなると、前記第2画面に関して前記カーソル位置に割り当てられた処理を実行するステップと、を含む。
 本発明の第4の態様に係る携帯機器の制御方法は、タッチされた表示部上のタッチ位置を検出することにより前記表示部を制御する携帯機器の制御方法に関する。本態様に係る制御方法は、前記タッチ位置が移動する前に前記タッチ位置に係る第1基準位置とカーソル位置に係る第2基準位置とを前記表示部上に設定するステップと、前記タッチ位置が移動すると、検出された前記タッチ位置と前記第1基準位置との間の第1ベクトルを拡大した第2ベクトルだけ前記第2基準位置から離れた位置を前記カーソル位置に決定することにより、前記タッチ位置の軌道を拡大した軌道で前記カーソル位置を移動させ、前記表示部上の前記カーソル位置に、操作の対象となる位置を示すためのカーソルを表示するステップと、前記カーソル位置が前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に新たに前記第2基準位置を設定するとともに、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在しているときの前記タッチ位置を新たに前記第1基準位置に設定するステップと、を含む。
 なお、上記において「タッチされた」との文言には、「表示部が指等により触れられた」との概念のみならず、「表示部に指等が近接した」との概念が含まれる。
 本発明によれば、ユーザが円滑な操作を行うことが可能な携帯機器、携帯機器の制御方法を提供することができる。
 本発明の効果ないし意義は、以下に示す実施形態の説明によりさらに明らかとなろう。ただし、以下の実施形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施形態に記載されたものに何ら制限されるものではない。
実施の形態に係る、携帯電話機の構成を示す図である。 実施の形態に係る、携帯電話機の全体構成を示すブロック図である。 実施の形態に係る、アプリケーションの実行によりディスプレイに表示される画面について説明するための図である。 実施の形態に係る、ディスプレイに対するタッチ操作に応じた処理が行われる場合の画面表示の例を示す図である。 実施の形態に係る、ディスプレイに表示される通知一覧画面について説明するための図である。 実施の形態に係る、カーソルモードの制御処理を示すフローチャートである。 実施の形態に係る、カーソルモードの制御処理を示すフローチャートである。 実施の形態に係る、カーソルモードの制御処理を示すフローチャートである。 実施の形態に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 実施の形態に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 実施の形態の構成と比較される構成を示す図である。 変更例1に係る、カーソルモードの制御処理を示すフローチャートである。 変更例1に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 変更例2に係る、カーソルモードの制御処理を示すフローチャートである。 変更例2に係る、カーソルモードの制御処理を示すフローチャートである。 変更例2に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 変更例2に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 変更例3に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 変更例3に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。 変更例4に係る、カーソルモードの制御処理を示すフローチャートである。 その他の変更例に係る、カーソル位置がディスプレイの外へ移動したときに操作メニュー画面が表示される例を説明するための図である。 その他の変更例に係る、カーソル位置がディスプレイの外へ移動したときに隣接するページが表示される例を説明するための図である。 ユーザが携帯電話機を操作する様子を示す図である。
 以下、本発明の実施の形態について、図面を参照して説明する。
 図1の(a)部、(b)部および(c)部には、それぞれ、携帯電話機1の正面図、背面図および右側面図を示す。以下、説明の便宜上、図1に示すように、キャビネット2の長手方向を上下方向と定義し、キャビネット2の短手方向を左右方向と定義する。
 図1に示されるように、携帯電話機1は、キャビネット2と、ディスプレイ3と、タッチパネル4と、マイクロフォン5と、通話スピーカ6と、外部スピーカ7と、カメラ8とを備えている。
 キャビネット2は、正面から見て、ほぼ長方形の輪郭を有する。キャビネット2の正面側に、ディスプレイ3が配されている。ディスプレイ3には、その表示領域Rに各種の画像(画面)が表示される。ディスプレイ3は、たとえば、液晶ディスプレイである。ディスプレイ3は、有機ELディスプレイ等、他の種類のディスプレイであっても良い。さらに、ディスプレイ3を覆うように、タッチパネル4が配置されている。タッチパネル4は、透明なシート状に形成されている。タッチパネル4として、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等、各種方式のタッチパネルが用いられ得る。
 キャビネット2の内部には、下端部にマイクロフォン5が配されている。また、キャビネット2の内部には、上端部に通話スピーカ6が配されている。マイクロフォン5は、キャビネット2の正面に形成されたマイク孔5aを通過した音声を受け付ける。マイクロフォン5は、入力された音に応じた電気信号を生成する。通話スピーカ6は、音を出力する。出力された音は、キャビネット2の正面に形成された出力孔6aを通過してキャビネット2の外に放出される。通話の際には、通信先の機器(携帯電話機等)から受信された受話音声が通話スピーカ6から出力され、ユーザが発した発話音声がマイクロフォン5に入力される。なお、音は、音声、報知音等、様々な音を含む。
 キャビネット2の内部には、外部スピーカ7が配されている。キャビネット2の背面には、外部スピーカ7と対向する領域に出力孔7aが形成されている。外部スピーカ7から出力された音は、出力孔7aを通過してキャビネット2の外に放出される。
 キャビネット2の上部には、背面側にカメラ8が配されている。カメラ8は、CCD、CMOSセンサ等の撮像素子を含み、被写体を撮影する。
 図2は、携帯電話機1の全体構成を示すブロック図である。
 図2に示されるように、携帯電話機1は、制御部11と、記憶部12と、画像出力部13と、タッチ検出部14と、音声入力部15と、音声出力部16と、音声処理部17と、キー入力部18と、通信部19と、撮影部20とを備えている。
 記憶部12は、ROM、RAM、外部メモリを含む。記憶部12には、各種のプログラムが記憶されている。記憶部12に記憶されるプログラムは、携帯電話機1の各部を制御するための制御プログラムの他、各種アプリケーション(たとえば、ホーム、電話、電子メール、ウェブブラウザ、地図、ゲーム、スケジュール管理、等)を含む。さらに、記憶部12に記憶されるプログラムは、後述する、カーソルモードの制御処理を実行するためのプログラムを含む。これらのプログラムは、メーカによって携帯電話機1の製造時に記憶部12に記憶される他、ユーザによって通信網やメモリカード、CD-ROM等の記憶媒体を介して記憶部12に記憶される。
 記憶部12には、プログラムの実行の際、一時的に利用または生成されるデータを記憶するワーキング領域も含まれる。
 制御部11は、コンピュータまたはCPUを含む。制御部11は、記憶部12に記憶されたプログラムに従って、携帯電話機1を構成する各部(記憶部12、画像出力部13、タッチ検出部14、音声入力部15、音声出力部16、音声処理部17、キー入力部18、通信部19、撮影部20等)を制御する。
 画像出力部13は、図1に示すディスプレイ3を含む。画像出力部13は、制御部11からの制御信号と画像信号に基づき、ディスプレイ3に画像(画面)を表示する。
 タッチ検出部14は、図1に示すタッチパネル4を含む。タッチ検出部14は、図1に示すディスプレイ3へのユーザによるタッチ操作を、タッチパネル4により検出する。すなわち、タッチ検出部14は、ユーザがディスプレイ3の表示領域R内を触れた場合に、タッチパネル4を用いて、ユーザが触れた位置(以下、「タッチ位置」と称する)を検出する。タッチ検出部14は、検出したタッチ位置に基づいて生成された位置信号を制御部11へ出力する。図1の(a)部に示すように、ディスプレイ3上には、たとえば、ディスプレイ3の左上の角を原点とし、左右方向をX軸、上下方向をY軸とする直交座標系が設定されている。ディスプレイ3に指がタッチされると、タッチパネル4は、ディスプレイ3におけるタッチ位置を示す座標値を出力する。
 なお、タッチパネル4は、ユーザの指がディスプレイ3に近接したときに、指が近接した位置をタッチ位置として検出するように構成されても良い。
 ユーザは、携帯電話機1にタッチパネル4が設けられるために、ディスプレイ3に指を触れることによって様々なタッチ操作を行うことができる。タッチ操作は、たとえば、タップ操作、フリック操作、スライド操作、ドラッグ操作、ロングタッチ操作等を含む。タップ操作とは、ユーザがディスプレイ3に指を接触させた後、短時間のうちに指をディスプレイ3から離す操作である。フリック操作とは、ユーザがディスプレイ3に指を接触させた後、ディスプレイ3を指で任意の方向に弾く操作である。スライド操作とは、ユーザがディスプレイ3に指を接触させたまま、任意の方向へ指を移動させる操作である。ドラッグ操作とは、ユーザがアイコン等の移動対象物に対してスライド操作を行った後、ディスプレイ3から指を離す操作である。ロングタッチ操作とは、ユーザがディスプレイ3に指を接触させた後、指を移動させることなく指を長くディスプレイ3に接触させておく操作である。
 たとえば、タッチ検出部14がタッチ位置を検出した場合に、タッチ位置が検出されてから予め定められた第1時間以内にタッチ位置が検出されなくなると、制御部11は、タッチ操作をタップ操作と判定する。タッチ位置が検出されてから予め定められた第2時間以内に予め定められた第1距離以上タッチ位置が移動した後、タッチ位置が検出されなくなった場合、制御部11は、タッチ操作をフリック操作と判定する。タッチ位置が検出された後、予め定めた第2距離以上タッチ位置が移動すると、制御部11は、タッチ操作をスライド操作と判定する。タッチ位置が検出された後、予め定めた第3距離以上タッチ位置が移動することなく、第3時間以上タッチ位置が検出され続けた場合、制御部11は、タッチ操作をロングタッチ操作と判定する。
 音声入力部15は、マイクロフォン5を含む。音声入力部15は、マイクロフォン5からの電気信号を音声処理部17へ出力する。
 音声出力部16は、通話スピーカ6および外部スピーカ7を含む。音声出力部16には、音声処理部17からの電気信号が入力される。音声出力部16は、通話スピーカ6または外部スピーカ7から音を出力させる。
 音声処理部17は、音声入力部15からの電気信号にA/D変換等を施し、変換後のデジタルの音声信号を制御部11へ出力する。音声処理部17は、制御部11からのデジタルの音声信号にデコード処理およびD/A変換等を施し、変換後の電気信号を音声出力部16に出力する。
 キー入力部18は、少なくとも一つ以上のハードキーを含む。たとえば、キー入力部18は、携帯電話機1に電源を投入するための電源キーなどを含む。キー入力部18は、携帯電話機1に配された各種ハードキー(図示せず)のうち、少なくとも一つのキーが押下されたときに、押下されたハードキーに対応する信号を制御部11に出力する。
 通信部19は、通話や通信を行うため、信号を変換するための回路、電波を送受信するアンテナ等を備える。通信部19は、制御部11から入力される通話や通信のための信号を無線信号に変換し、変換された無線信号を、アンテナを介して基地局や他の通信装置等の通信先へ送信する。さらに、通信部19は、アンテナを介して受信した無線信号を制御部11が利用できる形式の信号へ変換し、変換された信号を制御部11へ出力する。
 撮影部20は、図1の(b)部に示すカメラ8を含む。撮影部20は、カメラ8により撮影された画像の画像データに各種の画像処理を施し、画像処理後の画像データを制御部11に出力する。
 図3は、アプリケーションの実行によりディスプレイ3に表示される画面について説明するための図である。制御部11は、上述のように、各種のアプリケーションを実行する。アプリケーションが実行された後は、制御部11は、ユーザによるディスプレイ3に対するタッチ操作に応じた処理を実行し、当該処理に基づく画面をディスプレイ3に表示する。
 図3に示すように、ディスプレイ3に表示される画面は、ピクト領域RP、ウィンドウ領域RWおよびキー領域RKにより構成される。ピクト領域RPには、通知バー101が表示される。通知バー101は、現在時刻101a、電波の強度を示す強度メータ101b、バッテリー残量を示す残量メータ101c等を含む。さらに、通知バー101は、現在時刻101a、強度メータ101b、残量メータ101c以外のユーザに知らされるべきその他の通知情報に対応する通知アイコン101dを含む。その他の通知情報として、たとえば、電話の不在着信に係る情報(電話番号、発信者名等)、電子メールの新規着信に係る情報(メールアドレス、送信者名等)、アラーム報知の時刻が経過した旨の情報、スケジュールの予定時刻が経過した旨の情報、携帯電話機1の更新に関する情報、携帯電話機1に外部メモリが接続された旨の情報などが挙げられる。ユーザは、通知バー101を確認することにより、通知情報を大凡確認することができる。
 キー領域RKには、操作キー群102が表示される。操作キー群102は、設定キー102a、ホームキー102b、およびバックキー102cから構成されている。設定キー102aは、主に、各種設定を行う設定画面をディスプレイ3に表示させるためのキーである。ホームキー102bは、主に、ディスプレイ3の表示を他の画面からホーム画面に移行させるためのキーである。バックキー102cは、主に、実行された処理を1ステップ前の処理に戻すためのキーである。
 ウィンドウ領域RWには、アプリケーションが実行されたときの動作画面が表示される。たとえば、ホームのアプリケーションが実行された場合、ウィンドウ領域RWには、ホーム画面が表示される。ホーム画面には、電話、電子メールなど、各種のアプリケーションをディスプレイ3上で(フォアグラウンドで)起動するための起動用アイコンが配列される。また、電話のアプリケーションが実行された場合、ウィンドウ領域RWには、ダイヤル画面、着信一覧画面等が表示される。さらに、ウェブブラウザのアプリケーションが実行された場合、ウィンドウ領域RWには、外部のサーバから取得したデータに基づき、ウェブ画面が表示される。
 なお、実行されるアプリケーションによっては、ピクト領域RPおよびキー領域RKの少なくとも一つが表示されなくても良い。この場合、ピクト領域RPまたはキー領域RKの領域まで、ウィンドウ領域RWが拡がっても良い。すなわち、画面全体がウィンドウ領域RWで構成される場合がある。たとえば、ピクト領域RPが表示されない場合には、アプリケーションが実行されたときの動作画面は、ピクト領域RPまで拡がったウィンドウ領域RWを用いて表示されても良い。キー領域RKが表示されない場合には、アプリケーションが実行されたときの動作画面は、キー領域RKまで拡がったウィンドウ領域RWを用いて表示されても良い。また、ピクト領域RPおよびキー領域RKの両方が表示されない場合には、アプリケーションが実行されたときの動作画面は、ディスプレイ3全体に拡げられたウィンドウ領域RWを用いて表示されても良い。
 図4は、ディスプレイ3に対するタッチ操作に応じた処理が行われる場合の画面表示の例を示す図である。
 制御部11は、ホームキー102bに対するタップ操作を検出すると、ホームのアプリケーションを実行し、ディスプレイ3にホーム画面を表示させる。ホーム画面には、各種のアプリケーションを起動するための起動用アイコン103が配列される。たとえば、図4の(a)部に示すように、ユーザにより、電話のアプリケーションの起動用アイコン103に対するタップ操作がなされると、図4の(b)部に示すように、電話のアプリケーションがディスプレイ3上で起動し、ダイヤル画面がディスプレイ3に表示される。ダイヤル画面は、ユーザが電話番号を入力して電話の発信を行うための画面である。
 また、図4の(c)部に示すように、ホーム画面は複数のページにより構成される。たとえば、左方向にページが続く場合、ホーム画面の任意の位置に対して右方向へのフリック操作がなされると、ホーム画面がスクロールし、図4の(d)部に示すように、隣のページがディスプレイ3に表示される。また、複数のページは、互いに順位付けされていても良く、たとえば、制御部11は、何れかの画面が表示されている場合にフリック操作を検出すると、フリック操作がなされた画面に付与された順位の前後の順位に対応づけられた画面の中から、フリック操作に基づいて一つの画面を選択し、選択した画面をディスプレイ3に表示しても良い。
 図5は、ディスプレイ3に表示される通知一覧画面104について説明するための図である。
 ディスプレイ3のピクト領域RPの通知バー101は、ディスプレイ3に通知一覧画面104を表示するための操作に用いるオブジェクトとして機能する。通知一覧画面104には、通知バー101に通知アイコン101dなどで示された各通知情報が、さらに詳しく表示される。
 図5の(a)部に示すように、ユーザが通知バー101に対して下方へのスライド操作を行うと、図5の(b)部に示すように、ディスプレイ3(ウィンドウ領域RW)に通知一覧画面104が表示される。このとき、通知一覧画面104は、スライド操作によって通知バー101から引き出されて見えるよう、通知バー101の下端から降りて来るように表示されると良い。
 通知一覧画面104の各表示欄104aに、通知アイコン101d等より詳しく通知情報が表示される。たとえば、通知情報が不在着信情報である場合、不在着信の電話の件数と最新の不在着信情報(電話番号など)とが表示欄104aに表示される。
 図5の(b)部に示すように、ユーザは、所望の通知情報に対して応答する場合、その通知情報に対応する表示欄104aに対するタップ操作を行う。これにより、タップ操作がなされた通知情報に対応するアプリケーションが起動される。たとえば、通知情報が不在着信情報である場合には、電話のアプリケーションが起動され、図5の(c)部に示すように、不在着信情報が各表示欄105aに表示された不在着信一覧画面105がディスプレイ3に表示される。
 さて、ユーザは、携帯電話機1を利用する際、機器本体を片手で持ち、親指でディスプレイ3に対するタッチ操作を行う場合が多い。先に図23を参照して説明した通り、親指から遠く離れたディスプレイ3の位置には親指が届きにくい。よって、親指が届きにくい位置に起動用アイコン103等の操作対象となるオブジェクトがあり、ユーザが、そのオブジェクトに対してタッチ操作を行う場合、ユーザは携帯電話機1を持ち替える必要がある。
 そこで、ユーザが片手での操作を円滑に行うことができるよう、本実施の形態の携帯電話機1は、操作モードとして、上述したタップ操作やフリック操作を受け付ける通常モードの他に、以下に説明するカーソルモードを備えている。
 以下、図6ないし図10を参照して、カーソルモードについて説明する。
 図6ないし図8は、カーソルモードの制御処理を示すフローチャートである。図6および図7は、メインの処理ルーチンを示すフローチャートである。図8は、カーソル位置決定の処理ルーチンを示すフローチャートである。図9および図10は、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。図9では、ディスプレイ3にホーム画面が表示されている。
 図6および図7のフローチャートを参照してメインの処理ルーチンを説明する。なお、図6および図7においては、記号AおよびBにおいて互いに接続されている。
 制御部11は、ディスプレイ3へのロングタッチ操作がなされたか否かを監視する(S101)。本実施の形態では、ロングタッチ操作が、通常モードからカーソルモードへ切り替えるための操作となる。
 片手で操作を行っているユーザは、ディスプレイ3の上部に位置する起動用アイコン103や通知バー101に対して操作を行う場合に、カーソルモードへ移行すべく、図9の(a)部に示すように、ディスプレイ3の任意の位置へ親指でロングタッチ操作を行う。
 ロングタッチ操作が行われると(S101:YES)、制御部11は、タッチ検出部14から取得した現在のタッチ位置を基準タッチ位置PAに設定する(S102)。次に、制御部11は、基準カーソル位置QAを決定し(S103)、決定した基準カーソル位置QAにカーソルCを表示する(S104)。
 カーソルCが表示されることにより、ユーザは、カーソルモードに切り替えられたことを把握できる。基準カーソル位置QAを基準タッチ位置PAと同じ位置にした場合には、カーソルCが指に隠れてしまい、ユーザが、カーソルモードへの切り替えを容易に把握できない虞がある。そこで、図9の(a)部に示すように、制御部11は、基準タッチ位置PAから所定ベクトルずれた位置を基準カーソル位置QAに設定する。
 なお、本実施の形態では、便宜上、カーソルCを円形状としているが、矢印の形状など、カーソルCは任意の形状とされて良い。
 次に、制御部11は、タッチ検出部14によるタッチ位置の次の検出タイミングが到来したか否かを判定する(S105)。制御部11は、次の検出タイミングが到来すると(S105:YES)、タッチ検出部14によりタッチ位置が検出されたか否かに基づいて、ディスプレイ3から指がリリースされたか否かを判定する(S106)。制御部11は、前回の検出タイミングまで検出されていたタッチ位置が検出されなくなった場合に、指がディスプレイ3からリリースされたと判定する。
 図9の(b)部に示すように、ユーザは、ディスプレイ3の右上部に位置する起動用アイコン103を操作したい場合に、ディスプレイ3にタッチしたまま指を目標の起動用アイコン103へ移動させる。これにより、ディスプレイ3上をタッチ位置が移動する。
 指がリリースされていない判定すると(S106:NO)、制御部11は、今回の検出タイミングで検出されたタッチ位置PBに基づき、カーソル位置QBを決定する(S107)。カーソル位置QBは、カーソルCを表示させる位置である。ただし、後述のように、決定されたカーソル位置QBが表示可能領域RA(後述する)の外に存在する場合、カーソル位置QBにはカーソルCが表示されない。
 ここで、図8のフローチャートを参照して、カーソル位置決定の処理ルーチンを説明する。制御部11は、今回の検出タイミングで検出されたタッチ位置PBと基準タッチ位置PAとの間の第1ベクトルVPを求める(S201)。次に、制御部11は、第1ベクトルVPを所定倍(たとえば、3倍)することにより、カーソル位置QBの決定に用いる第2ベクトルVQを求める(S202)。そして、制御部11は、基準カーソル位置QAから第2ベクトルVQ離れた位置を、カーソル位置QBに決定する(S203)。
 図6および図7のフローチャートに戻り、カーソル位置QBが決定されると、制御部11は、決定されたカーソル位置QBが、表示可能領域RA内であるか否かを判定する(S108)。図9の(a)部に示すように、制御部11は、ディスプレイ3上に表示可能領域RAを設ける。表示可能領域RAは、カーソル位置QBにカーソルCを表示したときに、カーソルCがディスプレイ3の表示領域Rからはみ出すことながなく、カーソルCが表示可能な領域である。表示可能領域RAを示す座標データが記憶部12に記憶されている。
 決定されたカーソル位置QBが表示可能領域RA内にあれば(S108:YES)、制御部11は、決定されたカーソル位置QBにカーソルCを表示する(S109)。
 このようにして、ユーザが、ディスプレイ3にタッチしたまま指を動かすことにより、ステップS105からステップS109の処理が繰り返され、タッチ位置の軌道を所定倍に拡大した軌道でカーソル位置QB、すなわち、カーソルCがディスプレイ3上を移動する。やがて、カーソルCが右上部の起動用アイコン103に達する。
 ユーザは、右上部の起動用アイコン103上にカーソルCが位置する状態で、ディスプレイ3から指をリリースする。指がディスプレイ3からリリースされたと判定すると(S106:YES)、制御部11は、リリース時のカーソル位置QBが、起動用アイコン103、通知一覧画面104の表示欄104aなど、操作対象となるオブジェクト上に位置しているか否かを判定する(S110)。カーソル位置QBがオブジェクト上に位置していれば(S110:YES)、制御部11は、オブジェクトに割り当てられた処理を実行する(S111)。たとえば、オブジェクトが電話のアプリケーションの起動用アイコン103である場合、制御部11は、電話のアプリケーションを起動して、図4の(b)部に示すようなダイヤル画面をディスプレイ3に表示する。
 ユーザは、ディスプレイ3の上端に位置する通知バー101を操作したい場合、図9の(c)部に示すように、カーソル位置QBがディスプレイ3の上辺を超えるように、ディスプレイ3にタッチしたまま指を、上方に向けて大きく移動させる。
 制御部11は、図9の(a)部に示すように、ディスプレイ3の上辺から所定距離Y1だけ上方に離れた位置に上境界線ULを設ける。上境界線ULは、カーソル位置QBに対する閾値であり、通知一覧画面104(図5)をディスプレイ3に表示するか否かを判定するために利用される。上境界線ULを示す座標データが記憶部12に記憶されている。
 ユーザが指を上方へ移動させた場合、カーソル位置QBが表示可能領域RAから外れるまでは、上述したステップS105からステップS109の処理が繰り返される。やがて、カーソル位置QBが表示可能領域RAから外れると、制御部11は、ステップS108において、カーソル位置QBが表示可能領域RA内でない、すなわち、表示可能領域RAから外れていると判定する(S108:NO)。制御部11は、カーソル位置QBとは別のカーソル位置QCを、カーソル位置QBの軌道上における表示可能領域RAを外れる直前の位置に設定し(S112)、設定したカーソル位置QCにカーソルCを表示する(S113)。カーソル位置QBが表示可能領域RAの上辺を越えた場合、図9の(c)部に示すように、カーソルCがディスプレイ3の上端部に表示された状態となる。
 制御部11は、タッチ位置の移動が停止したか否かを判定する(S114)。タッチ位置が、さらに上方へ向けて移動中であって停止していなければ(S114:NO)、制御部11は、カーソル位置QBが上境界線ULを越えているか否かを判定する(S115)。カーソル位置QBが上境界線ULを越えていなければ(S115:NO)、ステップS105の処理に戻る。
 こうして、カーソル位置QBが表示可能領域RAを外れてから上境界線ULを越えるまでは、ステップS105からステップS108、およびステップS112からステップS115の処理が繰り返される。
 やがて、図9の(c)部に示すようにカーソル位置QBが上境界線ULを越える。これにより、ステップS115において、カーソル位置QBが上境界線ULを越えていると判定すると(S115:YES)、制御部11は、図10の(a)部に示すように、ディスプレイ3に通知一覧画面104を表示する(S116)。通知一覧画面104は、通知バー101の下端から降りて来るように表示される。
 なお、通知一覧画面104が表示された後は、ステップS115でカーソル位置QBが上境界線ULを越えていると判定されても、ステップS116の処理は実行されない。
 ユーザは、通知一覧画面104が表示されたことを把握すると、一旦、指を止める。これにより、タッチ位置の移動が停止する。ステップS114において、タッチ位置の移動が停止したと判定し(S114:YES)、制御部11は、図10の(a)部に示すように、現在、カーソルCが表示されているカーソル位置QCを、新たに基準カーソル位置QAに設定する(S117)。さらに、制御部11は、現在のタッチ位置PBを新たに基準タッチ位置PAに設定する(S118)。
 ユーザは、通知一覧画面104から所望の通知情報を選択する場合、ディスプレイ3へのタッチを継続したまま、所望の通知情報の表示欄104a(図10)へカーソルCを移動させる。これにより、ステップS105からS109の処理が繰り返される。
 このとき、図7のカーソル位置決定の処理ルーチンでは、ステップS117およびS118で新たに設定された基準カーソル位置QAおよび基準タッチ位置PAが用いられる。すなわち、制御部11は、今回検出されたタッチ位置PBと新たな基準タッチ位置PAとの間の第1ベクトルVPから第2ベクトルVQを求める(S201、S202)。そして、制御部11は、新たな基準カーソル位置QAから第2ベクトルVQ離れた位置をカーソル位置QBに決定する(S203)。こうして、図9(b)に示すように、所望の通知情報へカーソルCが向かうよう、ユーザが指を移動させると、指が移動した方向と同じ方向に、直ちにカーソルCが移動する。
 カーソルC(カーソル位置QB)が、所望の通知情報の表示欄104a(図10)へ達し、その位置で、ユーザが指をリリースすると、ステップS106で、制御部11は、リリースがなされた判定する(S106:YES)。制御部11は、カーソル位置QBがオブジェクトである表示欄104a上に位置するため(S110:YES)、オブジェクトに割り当てられた処理、すなわち、表示欄104aに表わされた通知情報に対応するアプリケーションを実行する(S111)。
 通知一覧画面104の各通知情報の閲覧のみを行い、通知一覧画面104を閉じる場合、ユーザは、カーソル位置QBが表示欄104aに存在しない状態で指をリリースする。
 ステップS110において、カーソル位置QBがオブジェクト上にないと判定すると(S110:NO)、制御部11は、通知一覧画面104がディスプレイ3に表示されているか否かを判定する(S119)。通知一覧画面104が表示されていれば(S119:YES)、制御部11は、通知一覧画面104を閉じる(S120)。
 なお、上述のように、通知一覧画面104を表示させるためにユーザが意図的にディスプレイ3の外へカーソル位置QBを移動させる場合だけでなく、ユーザが、ディスプレイ3上でカーソルC(カーソル位置QB)を移動させるつもりが、誤って指を大きく動かし過ぎたときに、カーソル位置QBが表示可能領域RAを外れる場合がある。
 この場合も、ユーザが指を一旦止め、タッチ位置の移動が停止すると、ステップS117およびステップS118の処理が行われ、現在、カーソルCが表示されているカーソル位置QCが、新たに基準カーソル位置QAに設定され、現在のタッチ位置PBが新たに基準タッチ位置PAに設定される。よって、その後、ユーザが指をディスプレイ3の内側に移動させると、カーソルCが、移動した指の方向と同じ方向に、直ちに移動する。
 以上、本実施の形態によれば、ユーザが、ディスプレイ3にタッチしたまま指を移動させると、指の軌道を拡大した軌道でカーソルCがディスプレイ3上を移動し、カーソルCが所望の位置、たとえば、起動用アイコン103等、操作対象となるオブジェクトの位置に移動された状態で、ユーザが指をリリースすると、オブジェクトに割り当てられた処理が実行される。よって、ユーザは、携帯電話機1を片手で保持しながら操作する場合に、親指が届かないディスプレイ3上のオブジェクト等に対して操作を行うことができ、携帯電話機1を円滑に操作することができる。
 さらに、本実施の形態によれば、カーソル位置QBがディスプレイ3の上辺を越えるように、ユーザがディスプレイ3上で指を移動させると、通知一覧画面104がディスプレイ3に表示され、ユーザがそのまま指で所望の通知情報を選択し、指をリリースすると、通知情報に対応するアプリケーションが実行される。また、通知情報を選択することなく、ユーザが指をリリースすると通知一覧画面104が閉じられる。よって、ユーザは、ディスプレイ3に通知一覧画面104を呼び出してから所望の通知情報に対応するアプリケーションを実行させるまでの動作、および、通知一覧画面104を呼び出してから通知一覧画面104を閉じるまでの動作を、ディスプレイ3上で指を移動させた後に指を離すという一連の操作で実現でき、携帯電話機1を一層円滑に操作することができる。
 さらに、本実施の形態によれば、カーソル位置QBが、ディスプレイ3よりも外に設定された上境界線ULを越えた場合に、通知一覧画面104が表示される。よって、ユーザが、誤って指を大きく移動させてしまうことにより、カーソル位置QBが少々ディスプレイ3から外れても、通知一覧画面104が表示されない。
 さらに、本実施の形態によれば、ディスプレイ3にタッチされた指が移動される前に基準タッチ位置PAと基準カーソル位置QAとがディスプレイ3上に設定され、指の移動が開始されてからタッチ位置PBが検出されると、検出されたタッチ位置PBと基準タッチ位置PAとの間の第1ベクトルVPが求められる。そして、第1ベクトルVPを所定倍に拡大した第2ベクトルVQだけ基準カーソル位置QBから離れた位置がカーソル位置QBに決定される。これにより、タッチ位置PBの軌道を拡大した軌道でカーソル位置QBが移動される。すなわち、基準タッチ位置PAと基準カーソル位置QAが固定されており、タッチ位置が検出される度に基準タッチ位置PAと基準カーソル位置QAが更新されないので、カーソル位置QBを決定するための演算処理が複雑になりにくい。
 さらに、本実施の形態によれば、カーソル位置QBが、表示可能領域RAを外れた場合には、ディスプレイ3上に別のカーソル位置QCが設定され、このカーソル位置QCにカーソルCが表示される。このため、カーソル位置QBが、表示可能領域RAから外れても、カーソルCは、ディスプレイ3上に留まるので、ユーザは、カーソルモードであること、および、カーソル位置QBが、カーソルCを表示できる範囲から外れていることを認識できる。
 しかも、本実施の形態では、カーソル位置QBが表示可能領域RAから外れた状態にあるときのタッチ位置PBが基準タッチ位置PAに新たに設定され、別のカーソル位置QCが基準カーソル位置QAに新たに設定される構成とされている。このため、カーソル位置QBが表示可能領域RAから外れた状態から、ユーザが指をディスプレイ3の内側に移動させると、直ちにカーソルCが移動する。また、カーソルCの動き出しの方向は指の移動方向と同じ方向となる。
 図11に示すように、カーソル位置QBが表示可能領域RAから外れた後も基準タッチ位置PAおよび基準カーソル位置QAが変更されない場合、ある程度、指がディスプレイ3の内側に移動されることによりカーソル位置QBが表示可能領域RA内に戻らないとカーソルCが動き始めない。すなわち、ユーザが指を動かしてもカーソルCが直ちに動かないため、ユーザが追従性の悪さを感じてしまう虞がある(図11の(a)部参照)。また、カーソルCの動き出しの方向が指の方向とは異なる方向となるため、ユーザが違和感を覚える虞がある(図11の(b)部参照)。この点、本実施の形態の構成では、ユーザが指をディスプレイ3の内側に移動させると、カーソルCが指と同じ移動方向に直ちに移動するので、ユーザが追従性の悪さを感じたり違和感を覚えたりしにくい。
 さらに、本実施の形態では、カーソル位置QBが表示可能領域RAから外れている状態でタッチ位置の移動が停止したときのタッチ位置PBが基準タッチ位置PAに設定され、別のカーソル位置QCが基準カーソル位置QAに設定される構成とされている。ユーザは、通常、カーソル位置QBがディスプレイ3から離れる方向へ移動させていた指を一旦止めてから、カーソル位置QBをディスプレイ3上に戻す方向に指を移動させる。よって、ユーザがカーソル位置QBをディスプレイ3上に戻すために指を動かす直前である適正なタイミングで、基準タッチ位置PAおよび基準カーソル位置QAを変更することができる。
 以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態等によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
 <変更例1>
 上記実施の形態では、ユーザが、カーソル位置QBがディスプレイ3の上辺を越えるように指を上方へ移動させると、通知一覧画面104が表示される。本変更例では、ユーザが、カーソル位置QBがディスプレイ3の上辺を越えるように指を上方へ移動させ、これに続いて指を下方に移動させると、通知一覧画面104が表示される。
 図12は、本変更例に係る、カーソルモードの制御処理を示すフローチャートである。図13は、本変更例に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。
 図12では、図7のフローチャートに対し、ステップS116の処理がステップS121の処理に置き換えられており、ステップS109の処理の後段に、ステップS122ないしステップS125の処理が追加されている以外は図7と同じであり、図6とは記号AおよびBにおいて互いに接続されている。
 本変更例では、ステップS115で、カーソル位置QBが上境界線ULを越えていると判定すると(S115:YES)、通知一覧フラグをセットする(S121)。図13の(a)部に示すように、カーソル位置QBが上境界線ULを越えただけでは、通知一覧画面104は表示されない。
 本変更例では、制御部11は、ステップS109において、カーソル位置QBにカーソルCを表示すると、通知一覧フラグがセットされているか否かを判定する(S122)。さらに、通知一覧フラグがセットされていれば(S122:YES)、制御部11は、カーソル位置QBが下方へ移動したか否かを判定する(S123)。
 図13の(b)部に示すように、ユーザが、カーソル位置QBが上境界線ULを越えた後、これに続いて指を引き下げた場合、カーソル位置QBが下方へ移動し、そのカーソル位置QBにカーソルCが表示される。このとき、制御部11は、通知一覧フラグがセットされていると判定し(S122:YES)、さらに、カーソル位置QBが下方へ移動したと判定する(S123:YES)。これにより、制御部11は、図13の(c)部に示すように、通知一覧画面104をディスプレイ3に表示する(S124)。通知一覧画面104は、通知バー101の下端から降りて来るように表示される。通知一覧画面104が表示されると(S124)、制御部11は、通知一覧フラグをリセットする(S125)。
 本変更例の構成によれば、通知一覧画面104を引き下ろすような指の動きにより、通知一覧画面104が下りて来るように表示されるので、直感的で分かりやすい操作を実現できる。
 <変更例2>
 実施の形態では、ユーザが、カーソル位置QBがディスプレイ3の上辺を越えるように指を上方へ移動させると、通知一覧画面104が表示される。本変更例では、さらに、ユーザが、カーソル位置QBがディスプレイ3の下辺、左辺または右辺を越えるように指を下方、左方、または右方に移動させると、操作メニュー画面106が表示される。操作メニュー画面106は、ディスプレイ3上で実行されているアプリケーションの操作に用いられる。
 図14および図15は、本変更例に係る、カーソルモードの制御処理を示すフローチャートである。
 図16および図17は、本変更例に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。図16および図17では、ディスプレイ3に、電子書籍のアプリケーションの動作画面である書籍の一つのページが表示されている。
 図14および図15では、図6および図7のフローチャートに対し、ステップS131ないしステップS138の処理が追加されている。また、図15では、便宜上、図7に示すステップS107ないしステップS109、ステップS112ないしステップS114、ステップS117、およびステップS118の処理の図示が省略されている。なお、図14および図15においては、記号A(図15では省略)およびBにおいて互いに接続されている。
 本変更例では、図16の(a)部に示すように、制御部11は、ディスプレイ3の下辺から所定距離Y1だけ下方に離れた位置に下境界線BLを設ける。また、図17の(a)部および図17の(b)部に示すように、制御部11は、ディスプレイ3の左辺から所定距離X1だけ左方に離れた位置に左境界線LLを設け、ディスプレイ3の右辺から所定距離X1だけ右方に離れた位置に右境界線RLを設ける。下境界線BL、左境界線LLおよび右境界線RLは、カーソル位置QBに対する閾値であり、操作メニュー画面106をディプレイ3に表示するか否かを判定するために利用される。下境界線BL、左境界線LLおよび右境界線RLを示す座標データが記憶部12に記憶されている。
 制御部11は、カーソル位置QBが上境界線ULを越えていないと判定すると(S115:NO)、下境界線BLを越えているか否か、左境界線LLを越えているか否か、および、右境界線RLを越えているか否かを判定する(S131、S132およびS133)。
 ユーザが指を下方に移動させることにより、図16の(a)部に示すように、カーソル位置QBがディスプレイ3の下辺を通過して下境界線BLを越えると(S131:YES)、制御部11は、図16の(b)部に示すように、ディスプレイ3の下部に、すなわち、ディスプレイ3の下辺側に寄った位置に操作メニュー画面106を表示する(S134)。操作メニュー画面106には、アプリケーションを操作するための操作ボタン106aが配されている。たとえば、アプリケーションが電子書籍である場合、ページを送るボタン、ページを戻すボタン等が、操作ボタン106aとして操作メニュー画面106に配される。
 また、ユーザが指を左方に移動させることにより、図17の(a)部に示すように、カーソル位置QBがディスプレイ3の左辺を通過して左境界線LLを越えると(S132:YES)、制御部11は、ディスプレイ3の左側部に、すなわち、ディスプレイ3の左辺側に寄った位置に操作メニュー画面106を表示する(S135)。さらに、ユーザが指を右方に移動させることにより、図17の(b)部に示すように、カーソル位置QBがディスプレイ3の右辺を通過して右境界線RLを越えると(S133:YES)、制御部11は、ディスプレイ3の右側部に、すなわち、ディスプレイ3の右辺側に寄った位置に操作メニュー画面106を表示する(S136)。
 操作メニュー画面106が表示されると、図16の(c)部に示すように、ユーザは、ディスプレイ3にタッチしたまま指を移動させて、カーソルCを所望の操作ボタン106aまで移動させる。そして、ユーザは、カーソルCが操作ボタン106a上にある状態で指をディスプレイ3から離す。
 制御部11は、リリースがなされた判定すると(S106:YES)、カーソル位置QBがオブジェクトである操作ボタン106a上に位置するため(S110:YES)、操作ボタン106aに割り当てられた、ディスプレイ3で実行中のアプリケーションに係る処理を行う(S111)。たとえば、ディスプレイ3上で電子書籍のアプリケーションが実行されている場合、カーソルCがページを送るボタン上に位置する状態で指がリリースされると、ディスプレイ3には、書籍の次のページが表示される。
 操作ボタン106aを操作せずに操作メニュー画面106を閉じる場合、ユーザは、カーソルCが操作ボタン106a上に位置しない状態で指をリリースする。
 カーソル位置QBがオブジェクト上にないと判定し(S110:NO)、さらに、通知一覧画面104がディスプレイ3に表示されていないと判定すると(S119:NO)、制御部11は、操作メニュー画面106がディスプレイ3に表示されているか否かを判定する(S137)。操作メニュー画面106が表示されていれば(S137:YES)、制御部11は、操作メニュー画面106を閉じる(S138)。
 本変更例の構成によれば、ユーザは、ディスプレイ3に操作メニュー画面106を呼び出してから所望の操作ボタン106aに割り当てられた処理を実行させるまでの動作、および、操作メニュー画面106を呼び出してから操作メニュー画面106を閉じるまでの動作を、ディスプレイ3上で指を移動させた後に指を離すという一連の操作で実現でき、携帯電話機1を円滑に操作することができる。
 さらに、本変更例の構成によれば、カーソル位置QBがディスプレイ3の外に移動する際に通過したディスプレイ3の辺に寄った位置に操作メニュー画面106が表示されるので、その後、ユーザは、指をあまり移動させることなく、操作メニュー画面106の操作ボタン106aへカーソル位置QB(カーソルC)を移動させることができる。
 さらに、本変更例の構成によれば、カーソル位置QBが、ディスプレイ3よりも外に設定された下境界線BL、左境界線LLまたは右境界線RLを越えた場合に、操作メニュー画面106が表示される。よって、ユーザが、誤って指を大きく移動させてしまうことにより、カーソル位置QBが少々ディスプレイ3から外れても、操作メニュー画面106が表示されない。
 <変更例3>
 実施の形態では、ユーザが、カーソル位置QBがディスプレイ3の上辺を越えるように指を上方へ移動させると、通知一覧画面104が表示される。本変更例では、さらに、ディスプレイ3に表示された画面が複数のページを含む場合に、ユーザが、カーソル位置QBがディスプレイ3の左辺または右辺を越えるように指を左方または右方に移動させると、現在表示されているページに隣接するページが表示される。
 図18は、本変更例に係る、カーソルモードの制御処理を示すフローチャートである。図19は、本変更例に係る、カーソルモードの制御処理が行われたときの画面表示の一例を示す図である。図19では、複数のページを含むホーム画面がディスプレイ3に表示されている。
 図18では、図7のフローチャートに対し、ステップS141ないしステップS144の処理が追加されている。また、図18では、便宜上、図7に示すステップS107ないしステップS109、ステップS112ないしステップS114、ステップS117、およびステップS118の処理の図示が省略されている以外は図7と同じであり、図6とは記号A(図18では省略)およびBにおいて互いに接続されている。
 本変更例では、図19の(a)部に示すように、制御部11は、ディスプレイ3の左辺から所定距離X1だけ左方に離れた位置に左境界線LLを設け、ディスプレイ3の右辺から所定距離X1だけ右方に離れた位置に右境界線RLを設ける。左境界線LLおよび右境界線RLは、カーソル位置QBに対する閾値であり、隣接するページをディプレイ3に表示するか否かを判定するために利用される。左境界線LLおよび右境界線RLを示す座標データが記憶部12に記憶されている。
 制御部11は、カーソル位置QBが上境界線ULを越えていないと判定すると(S115:NO)、左境界線LLを越えているか否か、および、右境界線RLを越えているか否かを判定する(S141、S142)。
 ユーザが指を左方に移動させることにより、図19の(a)部に示すように、カーソル位置QBがディスプレイ3の左辺を通過して左境界線LLを越えると(S141:YES)、制御部11は、図19の(b)部に示すように、左隣のページをディスプレイ3に表示する(S143)。同様に、ユーザが指を右方に移動させることにより、カーソル位置QBがディスプレイ3の右辺を通過して右境界線RLを越えると(S142:YES)、制御部11は、右隣のページをディスプレイ3に表示する(S144)。
 隣のページが表示されると、図19の(c)部に示すように、ユーザは、ディスプレイ3にタッチしたまま指を移動させて、操作対象となるオブジェクト、ホーム画面の場合には起動用アイコン103までカーソルCを移動させる。そして、カーソルCがオブジェクト上にある状態で指をディスプレイ3から離す。
 制御部11は、リリースがなされた判定すると(S106:YES)、カーソル位置QBがオブジェクト上に位置するため(S110:YES)、オブジェクトに割り当てられた処理を行う。たとえば、オブジェクトが起動用アイコン103である場合、制御部11は、起動用アイコン103に対応するアプリケーションを起動して、その動作画面をディスプレイ3に表示する。
 本変更例の構成によれば、ユーザは、ディスプレイ3に隣のページを呼び出してから所望のオブジェクトに割り当てられた処理を実行させるまでの動作を、ディスプレイ3上で指を移動させた後に指を離すという一連の操作で実現でき、携帯電話機1を円滑に操作することができる。
 <変更例4>
 実施の形態では、カーソル位置QBが表示可能領域RAから外れた状態においてタッチ位置の移動が停止したときに、基準タッチ位置PAおよび基準カーソル位置QAが更新される。本変更例では、カーソル位置QBが表示可能領域RAから外れている間、基準タッチ位置PAおよび基準カーソル位置QAの更新が、定期的に繰り返される。
 図20は、本変更例に係る、カーソルモードの制御処理を示すフローチャートである。図20では、図7のフローチャートに対し、ステップS114の処理がステップS126の処理に置き換えられている。
 本変更例では、カーソル位置QBが表示可能領域RAの外へ移動した場合、制御部11は、移動した当初はカーソル位置QBが表示可能領域RAの外へ移動してから所定時間が経過したか否かを判定し、一度、基準タッチ位置PAおよび基準カーソル位置QAの更新が行われた後は、基準更新から所定時間が経過したか否かを判定する(S126)。所定時間が経過したと判定すると(S126:YES)、制御部11は、別のカーソル位置QCを、新たに基準カーソル位置QAに設定するとともに(S117)、現在のタッチ位置PBを新たに基準タッチ位置PAに設定する(S118)。
 なお、所定時間は、カーソル位置QBが表示可能領域RAから外れてから、それに気付いたユーザがカーソル位置QBをディスプレイ3上に戻すのに要すると想定される時間より短い時間とされる。所定時間は、タッチ検出部14によるタッチ位置の検出間隔と同じ時間であっても良く、それより長い時間であっても良い。所定時間は、たとえば、数msから数十msの時間に設定され得る。
 本変更例の構成によれば、上記実施の形態と同様、カーソル位置QBが表示可能領域RAから外れた場合に、ユーザが指をディスプレイ3の内側に移動させると、カーソルCが指と同じ移動方向に直ちに移動するので、ユーザが追従性の悪さを感じたり違和感を覚えたりしにくくすることができる。
 <その他の変更例>
 実施の形態では、カーソル位置QBを中心にカーソルCが描画される構成であるため、ディスプレイ3に表示可能領域RAが設定される。しかしながら、カーソルCがカーソル位置QBに対してディスプレイ3の内側に描画されることにより、ディスプレイ3に表示可能領域RAが設定されない構成とされても良い。この場合、カーソル位置QBがディスプレイ3の外へ移動したときに、制御部11が、別のカーソル位置QBをディスプレイ3上に設定し、カーソルCを表示する。
 さらに、上記変更例2において、上境界線ULが、操作メニュー画面106を表示するための閾値として用いられ、カーソル位置QBが上境界線ULより外へ移動した場合に、制御部11が、ディスプレイ3の上辺側に寄った位置に操作メニュー画面106を表示するようにしても良い。また、上記変更例2において、左境界線LLおよび右境界線RLが、隣接するページを表示するための閾値として用いられ、カーソル位置QBが左境界線LLまたは右境界線RLより外へ移動した場合に、制御部11が、それまで表示されていたページに隣接するページを表示するようにしても良い。
 さらに、上記変更例3では、カーソル位置QBが左境界線LLまたは右境界線RLより外へ移動した場合に、それまで表示されていたページに隣接するページが表示されるが、隣接しないページが表示されても良い。
 さらに、実施の形態では、通知一覧画面104が表示されている状態において、オブジェクトである表示欄104a以外の位置で指がリリースされると、通知一覧画面104が閉じられる。しかしながら、上記構成に限られず、たとえば、指をリリースしても通知一覧画面104が閉じられず、その後、通知一覧画面104の下部へタップ操作が行われたときに、通知一覧画面104が閉じられても良い。さらに、通知一覧画面104が表示された状態で、再びディスプレイ3がタッチされ、そのまま、カーソル位置QBが上境界線ULの外へ移動するように指が移動されたときに、通知一覧画面104が閉じられても良い。
 さらに、実施の形態では、カーソル位置QBが、表示可能領域RAの外へ移動したことに基づいて基準タッチ位置PAおよび基準カーソル位置QAが変更される。しかしながら、表示可能領域RAの外へ移動したことに基づいて基準タッチ位置PAおよび基準カーソル位置QAが変更されなくても良い。
 さらに、上記実施の形態では、カーソル位置QBが表示可能領域RAを外れた状態でタッチ位置の移動が停止すると、基準タッチ位置PAおよび基準カーソル位置QAが更新される。しかしながら、このような構成に限らず、上記実施の形態の構成において、カーソル位置QBが上境界線ULを越えることにより通知一覧画面104を表示すると判断されたときに、基準タッチ位置PAおよび基準カーソル位置QAが更新されても良い。
 同様に、変更例2の構成において、カーソル位置QBが上境界線ULを越えることにより通知一覧画面104を表示すると判断されたとき、並びに、カーソル位置QBが下境界線BL、左境界線LLまたは右境界線RLを越えることにより操作メニュー画面106を表示すると判断されたとき、基準タッチ位置PAおよび基準カーソル位置QAが更新されても良い。
 さらに、変更例3の構成において、カーソル位置QBが上境界線ULを越えることにより通知一覧画面104を表示すると判断されたとき、並びに、カーソル位置QBが左境界線LLまたは右境界線RLを越えることにより隣接するページを表示すると判断されたとき、基準タッチ位置PAおよび基準カーソル位置QAが更新されても良い。
 さらに、実施の形態では、カーソル位置QBが表示可能領域RAの外へ移動すると、カーソル位置QBの軌道上における表示可能領域RAを外れる直前の位置に別のカーソル位置QCが設定され、設定したカーソル位置QCにカーソルCが表示される。しかしながら、カーソル位置QBが表示可能領域RAの外へ移動すると、カーソルCが表示されない構成が採られても良い。この場合、図7において、ステップS112およびステップS113の処理が削除され、ステップS117の処理では、ディスプレイ3上の所定の位置、たとえば、カーソル位置QBの軌道上における表示可能領域RAを外れる直前の位置が、新たに基準カーソル位置QAに設定される。
 さらに、上記実施の形態では、ユーザが、カーソル位置QBがディスプレイ3の上辺を越えるように指を上方へ移動させると、通知一覧画面104が表示される。しかしながら、図21に示すように、上記構成に加え、ユーザが、カーソル位置QBがディスプレイ3の下辺、左辺または右辺を越えるように指を下方、左方、または右方に移動させると、操作メニュー画面106が表示されるような構成が採られても良い。操作メニュー画面106は、ディスプレイ3上で実行されているアプリケーションの操作に用いられる。操作メニュー画面106には、アプリケーションを操作するための操作ボタン106aが配されている。たとえば、図21のように、実行されたアプリケーションが電子書籍である場合、ページを送るボタン、ページを戻すボタン等が、操作ボタン106aとして操作メニュー画面106に配される。
 この例では、制御部11により、ディスプレイ3の下辺から所定距離Y1だけ下方に離れた位置に下境界線BLを設けられ、ディスプレイ3の左辺および右辺からそれぞれ所定距離X1だけ左方および右方に離れた位置に左境界線LLおよび右境界線RLが設けられる。
 ユーザが指を下方に移動させることにより、図21の(a)部に示すように、カーソル位置QBがディスプレイ3の下辺を通過して下境界線BLを越えると、制御部11は、ディスプレイ3の下部に操作メニュー画面106を表示する。また、ユーザが指を左方に移動させることにより、図13の(b)部に示すように、カーソル位置QBがディスプレイ3の左辺を通過して左境界線LLを越えると、制御部11は、ディスプレイ3の左側部に操作メニュー画面106を表示する。さらに、ユーザが指を右方に移動させることにより、図21の(c)部に示すように、カーソル位置QBがディスプレイ3の右辺を通過して右境界線RLを越えると、制御部11は、ディスプレイ3の右側部に操作メニュー画面106を表示する。
 カーソルCが操作ボタン106aまで移動され、指がリリースされると、操作ボタン106aに割り当てられた、ディスプレイ3で実行中のアプリケーションに係る処理が行われる。たとえば、ディスプレイ3上で電子書籍のアプリケーションが実行されている場合、カーソルCがページを送るボタン上に位置する状態で指がリリースされると、ディスプレイ3には、書籍の次のページが表示される。
 さらに、図22に示すように、ディスプレイ3に表示された画面が複数のページを含む場合に、ユーザが、カーソル位置QBがディスプレイ3の左辺または右辺を越えるように指を左方または右方に移動させると、現在表示されているページに隣接するページが表示されるような構成が採られても良い。図22では、起動用アイコン103が配されたホーム画面が、ディスプレイ3に表示されている。
 この例では、ユーザが指を左方に移動させることにより、図22の(a)部に示すように、カーソル位置QBがディスプレイ3の左辺を通過して左境界線LLを越えると、制御部11は、図22の(b)部に示すように、左隣のページをディスプレイ3に表示する。同様に、ユーザが指を右方に移動させることにより、カーソル位置QBがディスプレイ3の右辺を通過して右境界線RLを越えると、制御部11は、右隣のページをディスプレイ3に表示する。
 カーソルCが起動用アイコン103まで移動され、指がリリースされると、起動用アイコン103に対応するアプリケーションがディスプレイ3上で起動される。
 さらに、実施の形態では、上境界線ULが設けられ、制御部11は、カーソル位置QBが上境界線ULより外へ移動したときに、通知一覧画面104を表示する。しかしながら、上境界線ULが設けられなくても良く、この場合、制御部11は、カーソル位置QBがディスプレイ3(表示領域R)の上辺より外へ移動したときに通知一覧画面104を表示する。
 同様に、変更例2および図21の例において、下境界線BL、左境界線LLおよび右境界線RLが設けられず、カーソル位置QBがディスプレイ3(表示領域R)の下辺、左辺または右辺より外へ移動したときに、制御部11により、操作メニュー画面106が表示されても良い。さらに、変更例3および図22の例において、左境界線LLおよび右境界線RLが設けられず、カーソル位置QBがディスプレイ3(表示領域R)の左辺または右辺より外へ移動したときに、制御部11により、隣接するページが表示されても良い。
 さらに、実施の形態では、基準カーソル位置QAが基準タッチ位置PAと異なる位置に設定されたが、同じ位置に設定されても良い。
 さらに、実施の形態では、ロングタッチ操作に基づいてカーソルモードへ移行されるが、他の操作、たとえば、ダブルタップ操作、ハードキーへの操作に基づいてカーソルモードへ移行されても良い。この場合、カーソルモードへの移行後に最初に指がタッチされたディスプレイ3上の位置が、基準タッチ位置PAに設定される。
 さらに、実施の形態では、カーソル位置QBが表示可能領域RAを外れた状態でタッチ位置の移動が停止すると、基準タッチ位置PAおよび基準カーソル位置QAが更新される。しかしながら、このような構成に限らず、上記実施の形態の構成において、カーソル位置QBが上境界線ULを越えることにより通知一覧画面104を表示すると判断されたときに、基準タッチ位置PAおよび基準カーソル位置QAが更新されても良い。
 同様に、図21に示す構成において、カーソル位置QBが上境界線ULを越えることにより通知一覧画面104を表示すると判断されたとき、並びに、カーソル位置QBが下境界線BL、左境界線LLまたは右境界線RLを越えることにより操作メニュー画面106を表示すると判断されたとき、基準タッチ位置PAおよび基準カーソル位置QAが更新されても良い。
 さらに、図22に示す構成において、カーソル位置QBが上境界線ULを越えることにより通知一覧画面104を表示すると判断されたとき、並びに、カーソル位置QBが左境界線LLまたは右境界線RLを越えることにより隣接するページを表示すると判断されたとき、基準タッチ位置PAおよび基準カーソル位置QAが更新されても良い。
 さらに、実施の形態では、通知一覧画面104は、ウィンドウ領域RWと同じサイズとされたが、小さなサイズとされても良い。この場合、変更例2および図21の例と同様、上下左右の境界線UL、BL、LL、RLが設けられ、カーソル位置QBが、何れかの境界線UL、BL、LL、RLの外へ移動すると、通過した境界線UL、BL、LL、RLのあるディスプレイ3の辺に寄った位置に通知一覧画面104が表示される構成とされても良い。
 本発明は、携帯電話機に限られず、PDA(Personal Digital Assistant)、タブレットPC(Tablet PC)、電子書籍端末、携帯音楽プレーヤ、ポータブルテレビ、ポータブルナビゲーションシステム等の各種の携帯機器に適用可能である。
 この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。

Claims (19)

  1.  表示部と、
     タッチされた前記表示部上のタッチ位置を検出する検出部と、
     前記検出部による検出結果に基づいて前記表示部を制御する制御部と、を備え、
     前記制御部は、
     前記タッチ位置が移動すると、前記タッチ位置の軌道を拡大した軌道でカーソル位置を移動させ、前記表示部上の前記カーソル位置にカーソルを表示し、
     前記表示部に第1画面が表示され前記表示部上に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記第1画面に関して前記カーソル位置に割り当てられた処理を実行し、
     前記検出部により前記タッチ位置が検出されなくなる前に前記カーソル位置が前記表示部の外へ移動したことに基づいて、前記表示部に第2画面を表示し、
     前記表示部に前記第2画面が表示された状態で前記検出部により前記タッチ位置が検出されなくなると、前記第2画面に関して前記カーソル位置に割り当てられた処理を実行する、ことを特徴とする携帯機器。
  2.  請求項1に記載の携帯機器において、
     前記第2画面は、通知情報の一覧画面を含み、
     前記制御部は、前記一覧画面の何れかの前記通知情報に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記通知情報に対応するアプリケーションを前記表示部上で実行する、ことを特徴とする携帯機器。
  3.  請求項2に記載の携帯機器において、
     前記制御部は、前記一覧画面の何れの前記通知情報にも前記カーソル位置が存在しない状態で前記検出部により前記タッチ位置が検出されなくなると、前記一覧画面を閉じる、ことを特徴とする携帯機器。
  4.  請求項1ないし請求項3の何れか一項に記載の携帯機器において、
     前記第1画面は、アプリケーションの動作画面を含み、
     前記第2画面は、前記アプリケーションを操作するためのオブジェクトが配された操作メニュー画面を含み、
     前記制御部は、前記オブジェクトに前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記オブジェクトに割り当てられた、前記アプリケーションに係る処理を実行する、ことを特徴とする携帯機器。
  5.  請求項1に記載の携帯機器において、
     前記第2画面は、前記表示部のサイズより小さなサイズを有し、
     前記制御部は、前記表示部における、前記カーソル位置が前記表示部から外れる際に通過した辺に寄った位置に前記第2画面を表示する、ことを特徴とする携帯機器。
  6.  請求項1に記載の携帯機器において、
     前記第1画面は、複数のページからなる画面の一つのページを含み、
     前記第2画面は、前記第1画面と異なるページを含む、ことを特徴とする携帯機器。
  7.  請求項1に記載の携帯機器において、
     前記制御部は、
     前記タッチ位置が移動する前に前記タッチ位置に係る第1基準位置と前記カーソル位置に係る第2基準位置とを前記表示部上に設定し、
     前記タッチ位置が移動すると、前記検出部により検出された前記タッチ位置と前記第1基準位置との間の第1ベクトルを拡大した第2ベクトルだけ前記第2基準位置から離れた位置を前記カーソル位置に決定することにより、前記タッチ位置の軌道を拡大した軌道で前記カーソル位置を移動させる、ことを特徴とする携帯機器。
  8.  請求項7に記載の携帯機器において、
     前記制御部は、前記カーソル位置が前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に別のカーソル位置を設けて、当該別のカーソル位置に前記カーソルを表示するとともに、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在しているときの前記タッチ位置を前記第1基準位置に設定し、前記別のカーソル位置を前記第2基準位置に設定する、ことを特徴とする携帯機器。
  9.  請求項8に記載の携帯機器において、
     前記制御部は、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在する状態で前記タッチ位置の移動が停止したときの前記タッチ位置を前記第1基準位置に設定する、ことを特徴とする携帯機器。
  10.  請求項1に記載の携帯機器において、
     前記制御部は、前記カーソル位置が前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に別のカーソル位置を設けて、当該別のカーソル位置に前記カーソルを表示する、ことを特徴とする携帯機器。
  11.  表示部と、
     タッチされた前記表示部上のタッチ位置を検出する検出部と、
     前記検出部による検出結果に基づいて前記表示部を制御する制御部と、を備え、
     前記制御部は、
     前記タッチ位置が移動する前に前記タッチ位置に係る第1基準位置とカーソル位置に係る第2基準位置とを前記表示部上に設定し、
     前記タッチ位置が移動すると、前記検出部により検出された前記タッチ位置と前記第1基準位置との間の第1ベクトルを拡大した第2ベクトルだけ前記第2基準位置から離れた位置を前記カーソル位置に決定することにより、前記タッチ位置の軌道を拡大した軌道で前記カーソル位置を移動させ、前記表示部上の前記カーソル位置に、操作の対象となる位置を示すためのカーソルを表示し、
     前記カーソル位置が、前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に新たに前記第2基準位置を設定するとともに、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在しているときの前記タッチ位置を新たに前記第1基準位置に設定する、ことを特徴とする携帯機器。
  12.  請求項11に記載の携帯機器において、
     前記制御部は、前記カーソル位置が、前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記カーソルを表示する別のカーソル位置を前記表示部上に設けて、当該別のカーソル位置を前記第2基準位置に設定する、ことを特徴とする携帯機器。
  13.  請求項11または請求項12に記載の携帯機器において、
     前記制御部は、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在する状態で前記タッチ位置の移動が停止したときの前記タッチ位置を前記第1基準位置に設定する、ことを特徴とする携帯機器。
  14.  請求項11または請求項12に記載の携帯機器において、
     前記制御部は、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在する状態において、所定時間が経過する度に、経過時の前記タッチ位置を前記第1基準位置に設定する、ことを特徴とする携帯機器。
  15.  請求項11に記載の携帯機器において、
     前記制御部は、前記表示部に第1画面が表示され前記表示部上に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記第1画面に関して前記カーソル位置に割り当てられた処理を実行する、ことを特徴とする携帯機器。
  16.  請求項15に記載の携帯機器において、
     前記制御部は、
     前記検出部により前記タッチ位置が検出されなくなる前に前記カーソル位置が前記表示部の外へ移動したことに基づいて、前記表示部に第2画面を表示し、
     前記表示部に前記第2画面が表示された状態で前記検出部により前記タッチ位置が検出されなくなると、前記第2画面に関して前記カーソル位置に割り当てられた処理を実行する、ことを特徴とする携帯機器。
  17.  請求項16に記載の携帯機器において、
     前記第2画面は、通知情報の一覧画面を含み、
     前記制御部は、前記一覧画面の何れかの前記通知情報に前記カーソル位置が存在する状態で前記検出部により前記タッチ位置が検出されなくなると、前記通知情報に対応するアプリケーションを前記表示部上で実行する、ことを特徴とする携帯機器。
  18.  タッチされた表示部上のタッチ位置を検出することにより前記表示部を制御する携帯機器の制御方法であって、
     前記タッチ位置が移動すると、前記タッチ位置の軌道を拡大した軌道でカーソル位置を移動させ、前記表示部上の前記カーソル位置にカーソルを表示するステップと、
     前記表示部に第1画面が表示され前記表示部上に前記カーソル位置が存在する状態で前記タッチ位置が検出されなくなると、前記第1画面に関して前記カーソル位置に割り当てられた処理を実行するステップと、
     前記タッチ位置が検出されなくなる前に前記カーソル位置が前記表示部の外へ移動したことに基づいて、前記表示部に第2画面を表示するステップと、
     前記表示部に前記第2画面が表示された状態で前記タッチ位置が検出されなくなると、前記第2画面に関して前記カーソル位置に割り当てられた処理を実行するステップと、を含むことを特徴とする携帯機器の制御方法。
  19.  タッチされた表示部上のタッチ位置を検出することにより前記表示部を制御する携帯機器の制御方法であって、
     前記タッチ位置が移動する前に前記タッチ位置に係る第1基準位置とカーソル位置に係る第2基準位置とを前記表示部上に設定するステップと、
     前記タッチ位置が移動すると、検出された前記タッチ位置と前記第1基準位置との間の第1ベクトルを拡大した第2ベクトルだけ前記第2基準位置から離れた位置を前記カーソル位置に決定することにより、前記タッチ位置の軌道を拡大した軌道で前記カーソル位置を移動させ、前記表示部上の前記カーソル位置に、操作の対象となる位置を示すためのカーソルを表示するステップと、
     前記カーソル位置が前記表示部上に前記カーソルを表示できる範囲から外れた場合、前記表示部上に新たに前記第2基準位置を設定するとともに、前記カーソルを表示できる範囲を外れた位置に前記カーソル位置が存在しているときの前記タッチ位置を新たに前記第1基準位置に設定するステップと、を含むことを特徴とする携帯機器の制御方法。
PCT/JP2014/067052 2013-06-26 2014-06-26 携帯機器、携帯機器の制御方法 WO2014208691A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/972,755 US10007375B2 (en) 2013-06-26 2015-12-17 Portable apparatus and method for controlling cursor position on a display of a portable apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-134072 2013-06-26
JP2013134070A JP6046562B2 (ja) 2013-06-26 2013-06-26 携帯機器、携帯機器の制御方法およびプログラム
JP2013-134070 2013-06-26
JP2013134072A JP5998105B2 (ja) 2013-06-26 2013-06-26 携帯機器、携帯機器の制御方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/972,755 Continuation US10007375B2 (en) 2013-06-26 2015-12-17 Portable apparatus and method for controlling cursor position on a display of a portable apparatus

Publications (1)

Publication Number Publication Date
WO2014208691A1 true WO2014208691A1 (ja) 2014-12-31

Family

ID=52142017

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/067052 WO2014208691A1 (ja) 2013-06-26 2014-06-26 携帯機器、携帯機器の制御方法

Country Status (2)

Country Link
US (1) US10007375B2 (ja)
WO (1) WO2014208691A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017524222A (ja) * 2015-07-22 2017-08-24 小米科技有限責任公司Xiaomi Inc. フルスクリーン片手操作方法、装置、プログラム及び記録媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU361975S (en) * 2014-08-27 2015-05-27 Janssen Pharmaceutica Nv Display screen with icon
WO2017172635A1 (en) * 2016-03-31 2017-10-05 Osisoft, Llc Event based data collection, integration, and presentation
JP6653489B2 (ja) * 2016-12-16 2020-02-26 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
JP6776113B2 (ja) * 2016-12-20 2020-10-28 シャープ株式会社 表示装置、表示装置における表示方法及びプログラム
CN108205407B (zh) * 2016-12-20 2021-07-06 夏普株式会社 显示装置、显示方法及存储介质
USD868827S1 (en) 2017-02-15 2019-12-03 Palantir Technologies, Inc. Display screen or portion thereof with set of icons
JP2019102009A (ja) * 2017-12-08 2019-06-24 京セラドキュメントソリューションズ株式会社 タッチパネル装置
US10585525B2 (en) 2018-02-12 2020-03-10 International Business Machines Corporation Adaptive notification modifications for touchscreen interfaces
US11776382B1 (en) * 2022-12-23 2023-10-03 The Adt Security Corporation Premises security system using ultra-wideband (UWB) functionality to initiate at least one action

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011516936A (ja) * 2008-01-30 2011-05-26 グーグル・インコーポレーテッド モバイル装置イベントの通知
JP2012203432A (ja) * 2011-03-23 2012-10-22 Sharp Corp 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2013018480A1 (ja) * 2011-07-29 2013-02-07 Kddi株式会社 タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146556A (ja) * 2004-11-19 2006-06-08 Nintendo Co Ltd 画像表示処理プログラムおよび画像表示処理装置
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
JP5597583B2 (ja) 2011-03-28 2014-10-01 太陽誘電株式会社 タッチパネル装置及び電子機器
US20140347326A1 (en) * 2013-05-21 2014-11-27 Samsung Electronics Co., Ltd. User input using hovering input

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011516936A (ja) * 2008-01-30 2011-05-26 グーグル・インコーポレーテッド モバイル装置イベントの通知
JP2012203432A (ja) * 2011-03-23 2012-10-22 Sharp Corp 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2013018480A1 (ja) * 2011-07-29 2013-02-07 Kddi株式会社 タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017524222A (ja) * 2015-07-22 2017-08-24 小米科技有限責任公司Xiaomi Inc. フルスクリーン片手操作方法、装置、プログラム及び記録媒体
US10642476B2 (en) 2015-07-22 2020-05-05 Xiaomi Inc. Method and apparatus for single-hand operation on full screen

Also Published As

Publication number Publication date
US20160103554A1 (en) 2016-04-14
US10007375B2 (en) 2018-06-26

Similar Documents

Publication Publication Date Title
WO2014208691A1 (ja) 携帯機器、携帯機器の制御方法
EP3617861A1 (en) Method of displaying graphic user interface and electronic device
JP5922480B2 (ja) 表示機能を備える携帯機器、プログラムおよび表示機能を備える携帯機器の制御方法
WO2014104033A1 (ja) 携帯端末装置、画面制御方法およびプログラム
WO2014065254A1 (ja) 携帯端末装置および入力操作受け付け方法
US20170068418A1 (en) Electronic apparatus, recording medium, and operation method of electronic apparatus
JP5743847B2 (ja) 携帯端末および低感度領域設定プログラム
US9451069B2 (en) Mobile terminal device, lock release method, and non-transitory computer readable storage medium
JP2015046009A (ja) 電子機器、電子機器の制御方法およびプログラム
JP5854928B2 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
JP6122355B2 (ja) 携帯端末装置
WO2014192878A1 (ja) 携帯機器および携帯機器における制御方法
JP6046562B2 (ja) 携帯機器、携帯機器の制御方法およびプログラム
JP5998105B2 (ja) 携帯機器、携帯機器の制御方法およびプログラム
JP6130922B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
JP2017194776A (ja) 携帯端末装置
JP6069117B2 (ja) 電子機器及び制御プログラム並びに動作方法
JP5993802B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6538785B2 (ja) 電子機器、電子機器の制御方法およびプログラム
JP5969320B2 (ja) 携帯端末装置
JP2015088837A (ja) 表示装置および表示方法
JP6321387B2 (ja) 携帯機器、携帯機器のタッチ位置検出方法およびプログラム
JP6047066B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6208082B2 (ja) 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP6306345B2 (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14818047

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14818047

Country of ref document: EP

Kind code of ref document: A1