WO2015115527A1 - 携帯機器、およびタッチ位置補正方法 - Google Patents

携帯機器、およびタッチ位置補正方法 Download PDF

Info

Publication number
WO2015115527A1
WO2015115527A1 PCT/JP2015/052472 JP2015052472W WO2015115527A1 WO 2015115527 A1 WO2015115527 A1 WO 2015115527A1 JP 2015052472 W JP2015052472 W JP 2015052472W WO 2015115527 A1 WO2015115527 A1 WO 2015115527A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch position
touch
curved surface
surface area
finger
Prior art date
Application number
PCT/JP2015/052472
Other languages
English (en)
French (fr)
Inventor
小畑 貴則
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2015115527A1 publication Critical patent/WO2015115527A1/ja
Priority to US15/222,798 priority Critical patent/US10162466B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Definitions

  • Embodiments of the present disclosure relate to portable devices such as a mobile phone, a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), an electronic book terminal, a portable music player, a portable TV, and a portable navigation system. Regarding equipment. Furthermore, the present disclosure relates to a touch position correction method that can be used for such a mobile device.
  • a mobile phone in which a display is arranged on the front side of a housing is known.
  • a substantially rectangular display slightly smaller than the casing is disposed on the front side of the casing having a substantially rectangular outline.
  • a touch panel is disposed so as to overlap the display, and various application programs are executed based on a user's touch operation on the display.
  • Some mobile phones have a curved shape at the front end of the housing from the viewpoint of design.
  • the display and the touch panel can be extended to an end portion having a curved surface shape.
  • the shape of the end of the touch panel is a curved surface.
  • a mobile phone in which the entire surface of the display and the touch panel has a curved shape will be developed.
  • the touch panel has a curved surface area
  • the target touch position that the user wants to touch and the actual touch position that is actually touched are shifted. Is likely to occur.
  • a portable device includes a display disposed on a front surface of a housing, a touch panel that is superimposed on the display and detects a touch position touched with a finger, and has a curved region at least in part, and touch When the position is within the curved surface area, an approach direction determining unit that determines an approach direction in which the finger approaches the curved surface area, and a position correcting unit that corrects the touch position in the curved surface area according to the approach direction.
  • FIG. 1 It is a figure which shows the structure of the mobile telephone based on Embodiment. It is a block diagram which shows the whole structure of the mobile telephone based on Embodiment. It is a figure which shows the display on which the home screen was displayed based on embodiment. It is a figure which shows a mode that the curved-surface area
  • FIG. 6 is a flowchart illustrating a touch position correction process according to the first embodiment. It is a figure for demonstrating the relationship between the attitude
  • 12 is a flowchart illustrating a touch position correction process according to the second embodiment. 12 is a flowchart illustrating a touch position correction process according to the third embodiment.
  • 14 is a flowchart illustrating a touch position correction process according to the fourth embodiment. It is a figure which shows the display with which the setting screen for setting the correction amount of a touch position based on the example of a change was displayed. It is a figure which shows the structure of the mobile telephone based on the example of a change.
  • FIGS. 1A to 1D are a front view, a rear view, a right side view, and a bottom view of the mobile phone 1, respectively.
  • the longitudinal direction of the cabinet 2 is defined as the vertical direction
  • the short direction of the cabinet 2 is defined as the horizontal direction
  • the vertical direction and the direction perpendicular to the horizontal direction are defined as the front-rear direction.
  • the mobile phone 1 includes a cabinet 2, a display 3, a touch panel 4, a microphone 5, a call speaker 6, an external speaker 7, and a camera 8. .
  • the cabinet 2 has a substantially rectangular outline when viewed from the front. As shown in FIG.1 (d), the both ends of the front of the cabinet 2 are curved-surface shape which curves so that it may become low toward inner side from the inner side.
  • a display 3 is arranged on the front side of the cabinet 2. Various images (screens) are displayed on the display 3.
  • the display 3 extends to both the left and right ends of the cabinet 2, and both end portions thereof are curved like the both end portions of the cabinet 2.
  • the display 3 is a liquid crystal display, and includes a liquid crystal panel and an LED backlight that illuminates the liquid crystal panel.
  • the display 3 may be another type of display such as an organic EL display.
  • a touch panel 4 is arranged so as to overlap the display 3.
  • the touch panel 4 is a transparent sheet shape. Both ends of the touch panel 4 have a curved shape so as to correspond to both ends of the display 3. That is, the touch panel 4 has curved surface areas 4a at both ends thereof. Parts other than the both ends of the touch panel 4 have a flat shape.
  • the touch panel 4 is a capacitive touch panel.
  • a touch panel other than the capacitive type such as an ultrasonic type, a pressure sensitive type, a resistance film type, a light detection type, or the like may be used.
  • a microphone 5 is arranged at the lower end.
  • a call speaker 6 is arranged at the upper end.
  • the microphone 5 receives the sound that has passed through the microphone hole 5 a that exists in the front of the cabinet 2.
  • the microphone 5 generates an electrical signal corresponding to the input sound.
  • the call speaker 6 outputs sound.
  • the output sound passes through the output hole 6 a existing in the front of the cabinet 2 and is emitted outside the cabinet 2.
  • the received voice received from the communication destination device such as a mobile phone
  • the sound includes various sounds such as sound and notification sound.
  • An external speaker 7 is arranged inside the cabinet 2. On the back surface of the cabinet 2, there is an output hole 7 a in a region facing the external speaker 7. The sound output from the external speaker 7 passes through the output hole 7a and is emitted to the outside of the cabinet 2.
  • a camera 8 is arranged on the front side.
  • the camera 8 captures a subject to be photographed that exists in the front direction of the mobile phone 1.
  • the camera 8 includes an image sensor such as a CCD or CMOS sensor, and a lens that forms an image to be photographed on the image sensor.
  • FIG. 2 is a block diagram showing the overall configuration of the mobile phone 1.
  • the mobile phone 1 includes a control unit 11, a storage unit 12, an image output unit 13, a touch detection unit 14, a voice input unit 15, a voice output unit 16, and a voice processing unit. 17, a key input unit 18, a communication unit 19, a photographing unit 20, and an acceleration detection unit 21.
  • the storage unit 12 includes a ROM, a RAM, and an external memory.
  • the storage unit 12 stores various programs.
  • Programs stored in the storage unit 12 include various application programs (hereinafter simply referred to as “applications”) in addition to a control program for controlling each unit of the mobile phone 1, such as a telephone, a message, a camera, a web browser, Includes applications such as maps, games, and schedule management.
  • the program stored in the storage unit 12 includes a program for executing touch position correction processing described later.
  • the program is stored in the storage unit 12 by the manufacturer when the mobile phone 1 is manufactured, and is also stored in the storage unit 12 via a storage medium such as a communication network, a memory card, or a CD-ROM.
  • the storage unit 12 also includes a working area for storing data that is temporarily used or generated when the program is executed.
  • the storage unit 12 includes a position storage unit 12a.
  • the position on the touch panel 4 where the finger is closest in the process of the user's finger approaching the touch panel 4 is stored in time series as the closest position X.
  • the control unit 11 includes a CPU. In accordance with the program stored in the storage unit 12, the control unit 11 includes each unit (storage unit 12, image output unit 13, touch detection unit 14, A voice input unit 15, a voice output unit 16, a voice processing unit 17, a key input unit 18, a communication unit 19, a photographing unit 20, an acceleration detection unit 21, and the like.
  • the image output unit 13 includes the display 3 shown in FIG.
  • the image output unit 13 displays an image (screen) on the display 3 based on the control signal and the image signal from the control unit 11.
  • the image output unit 13 turns on / off the display 3 and adjusts the brightness in accordance with a control signal from the control unit 11.
  • the touch detection unit 14 includes the touch panel 4 illustrated in FIG. 1A, and detects a touch operation on the touch panel 4. More specifically, the touch detection unit 14 detects a position (hereinafter referred to as “touch position”) where a touch target such as a user's finger contacts the touch panel 4. The touch detection unit 14 outputs a touch position signal generated based on the detected touch position to the control unit 11. In other words, the touch operation on the touch panel 4 is performed on the screen or object image displayed on the display 3 and is a touch operation on the display 3.
  • the touch panel 4 detects the touch position when the finger contacts the cover.
  • the touch panel 4 is indirectly touched by a finger, but the touch to the touch panel 4 may be direct or indirect. In either case, the touch panel 4 is touched by a finger. There is no change in being touched.
  • the user can perform various touch operations on the display 3 by touching the touch panel 4 with a finger.
  • the touch operation includes, for example, a tap operation, a flick operation, a slide operation, and the like.
  • the tap operation is an operation of releasing the finger from the touch panel 4 in a short time after the user touches the touch panel 4 with the finger.
  • the flick operation is an operation in which the user touches the touch panel 4 with a finger and then plays or sweeps the touch panel 4 with the finger in an arbitrary direction.
  • the slide operation is an operation in which the user moves the finger in an arbitrary direction while keeping the finger in contact with the touch panel 4.
  • the control unit 11 determines that the touch operation is a tap operation. judge. When the touch position is no longer detected after the touch position has been moved within a predetermined second time after the touch position is detected and the touch position is not detected, the control unit 11 performs a flick operation on the touch operation. Is determined. After the touch position is detected, when the touch position moves by a predetermined second distance or more, the control unit 11 determines that the touch operation is a slide operation.
  • the touch panel 4 is a capacitance type, and when the finger approaches the touch panel 4 to some extent, the capacitance starts to change at the approached position (detection point). The closer the finger is to the touch panel 4, the greater the change in capacitance at that position.
  • the touch detection unit 14 detects a position on the touch panel 4 where the amount of change in capacitance exceeds a detection threshold as a touch position, and outputs a touch position signal. On the touch panel 4 where the change in capacitance has occurred. Is detected as a proximity position, and a proximity position signal indicating the proximity position and the amount of change in capacitance at the proximity position is output to the control unit 11.
  • the voice input unit 15 includes a microphone 5.
  • the voice input unit 15 outputs an electrical signal from the microphone 5 to the voice processing unit 17.
  • the audio output unit 16 includes a call speaker 6 and an external speaker 7. An electrical signal from the audio processing unit 17 is input to the audio output unit 16. The audio output unit 16 outputs sound from the call speaker 6 or the external speaker 7.
  • the audio processing unit 17 performs A / D conversion or the like on the electrical signal from the audio input unit 15 and outputs the converted digital audio signal to the control unit 11.
  • the audio processing unit 17 performs decoding processing, D / A conversion, and the like on the digital audio signal from the control unit 11, and outputs the converted electric signal to the audio output unit 16.
  • the key input unit 18 includes at least one hard key.
  • the key input unit 18 includes a power key for turning on the mobile phone 1.
  • the key input unit 18 outputs a signal corresponding to the pressed hard key to the control unit 11.
  • the communication unit 19 includes a circuit for converting a signal, an antenna for transmitting and receiving radio waves, and the like for performing communication and communication.
  • the communication unit 19 converts a call or communication signal input from the control unit 11 into a radio signal, and transmits the converted radio signal to a communication destination such as a base station or another communication device via an antenna. To do. Further, the communication unit 19 converts the radio signal received via the antenna into a signal in a format that can be used by the control unit 11, and outputs the converted signal to the control unit 11.
  • the imaging unit 20 includes the camera 8 and the imaging control circuit shown in FIG.
  • the imaging unit 20 performs various types of image processing on the image data of the image captured by the camera 8 and outputs the image data after the image processing to the control unit 11.
  • Acceleration detector 21 includes a triaxial acceleration sensor.
  • the triaxial acceleration sensor detects gravitational acceleration generated in the three directions of the mobile phone 1 in the front-rear direction, the up-down direction, and the left-right direction.
  • the acceleration detection unit 21 outputs an acceleration signal, which is detected by the triaxial acceleration sensor and indicates an acceleration corresponding to the posture of the mobile phone 1 (cabinet 2), to the control unit 11.
  • FIG. 3 is a diagram showing the display 3 on which the home screen 101 is displayed.
  • various screens are displayed on the display 3, and various touch operations are performed by the user on the screen.
  • the home screen 101 is displayed on the display 3 as an initial screen.
  • the home screen 101 includes an activation icon 101a for activating various applications.
  • the startup icon 101a includes, for example, a telephone icon 101b, a camera icon 101c, a mail icon 101d, and the like.
  • a notification bar 102 and an operation key group 103 are displayed on the display 3.
  • the notification bar 102 is displayed above the home screen 101 displayed on the display 3.
  • the notification bar 102 includes a current time, a remaining amount meter indicating the remaining battery level, an intensity meter indicating the intensity of the radio wave, and the like.
  • the operation key group 103 is displayed below the home screen 101.
  • the operation key group 103 includes, for example, a setting key 103a, a home key 103b, and a back key 103c.
  • the setting key 103a is a key mainly for causing the display 3 to display a setting screen for performing various settings.
  • the home key 103 b is a key for mainly shifting the display 3 on the display 3 from another screen to the home screen 101.
  • the back key 103c is a key for returning the executed process to the process one step before.
  • the user When using various applications, the user performs a tap operation on the activation icon 101a corresponding to the application to be used.
  • the application is activated and an execution screen based on the application is displayed. Even if the execution screen of the executed application is displayed or the execution screen changes as the application progresses, the notification bar 102 and the operation key group 103 are continuously displayed on the display 3.
  • the touch panel 4 includes curved surface areas 4a at both ends thereof.
  • a deviation tends to occur between the target touch position that the user is trying to touch and the actual touch position that is actually touched.
  • FIG. 4A to 4 (c) are diagrams illustrating how the curved surface area 4a of the touch panel 4 is touched with a finger from the front direction, the side surface direction, and the diagonally upward direction of the touch panel 4, respectively.
  • FIG. 4A when the curved area 4 a is touched with a finger from the front direction of the cabinet 2, the actual touch position Q is shifted to the inside of the touch panel 4 with respect to the target touch position P.
  • FIG. 4B when the curved surface area 4 a is touched with a finger from the side surface direction of the cabinet 2, the actual touch position Q is outside the touch panel 4 with respect to the target touch position P. Shift.
  • FIG. 4C when the curved surface area 4a is touched with a finger from an obliquely upward direction (the normal direction of the curved surface) of the cabinet 2, the target touch position P and the actual touch position Q are substantially the same. Position.
  • the touch position shift method differs depending on the direction in which the finger approaches the touch panel 4, that is, the presence or absence of the shift or the shift direction is different, so the actual touch position Q is uniform. Cannot be corrected.
  • the control unit 11 when the finger touches the curved surface area 4 a, touch position correction processing for correcting the touch position according to the direction in which the finger approaches the touch panel 4 is performed by the control unit 11. That is, the program stored in the storage unit 12 gives the control unit 11 a function for correcting the touch position, and the touch position correction process is executed by this function.
  • Example 1> 5 (a) to 5 (c) respectively show the process in which the finger approaches the touch panel 4 when the curved area 4a of the touch panel 4 is touched with the finger from the front direction, the side surface direction, and the diagonally upward direction of the cabinet 2. It is a figure which shows the motion of the closest position X on the touch panel 4 closest to the finger. As shown in FIG. 5A, when the curved surface area 4 a is touched with a finger from the front direction of the cabinet 2, the closest position X moves from the inner side to the outer side of the touch panel 4 as the finger approaches the curved surface area 4 a. Moving. On the other hand, as illustrated in FIG.
  • the approach direction of the finger is estimated based on the movement of the closest position X, and the touch position is corrected according to the estimated approach direction.
  • FIG. 6 is a flowchart illustrating the touch position correction process according to the first embodiment.
  • the control unit 11 determines whether or not the proximity position on the touch panel 4 is detected by the touch detection unit 14 (S101). When the user touches the touch panel 4 and brings his finger close to the touch panel 4, the touch detection unit 14 eventually detects the proximity position. When the proximity position is detected (S101: YES), the control unit 11 is closest to the proximity position where the capacitance change is the largest among the detected proximity positions, that is, the finger approaching the touch panel 4. The proximity position is acquired as the closest position X (S102), and the acquired closest position X is stored in the position storage unit 12a (S103).
  • control unit 11 determines whether or not the touch position is detected by the touch detection unit 14 (S104). If the touch position is not detected (S104: NO), the control unit 11 returns to step S102 and acquires the closest position X again (S102). Thus, the closest position X is acquired until the touch position is detected, and the acquired closest position X is stored in the position storage unit 12a in time series.
  • the touch position is detected by the touch detection unit 14.
  • the control unit 11 determines whether or not the touch position is within the curved surface area 4a (S105). If the touch position is not within the curved surface area 4a (S105: NO), the control unit 11 ends the touch position correction process without correcting the touch position (S106). On the other hand, if the touch position is within the curved surface area 4a (S105: YES), the control unit 11 is in the process of touching the curved surface area 4a with a finger based on the closest position X stored in the position storage unit 12a. The moving amount and moving direction of the closest position X are obtained (S107). And the control part 11 determines whether the calculated
  • the finger approaches the curved surface area 4a from the diagonally upward direction of the cabinet 2. It is presumed that When the finger is touched on the curved surface area 4a from the diagonally upward direction of the cabinet 2, the actual touch position Q and the target touch position P are substantially the same as shown in FIG.
  • the control unit 11 determines that the movement amount is equal to or less than the predetermined amount (S108: NO)
  • the touch position correction process is terminated without correcting the touch position (S106).
  • the control unit 11 determines that the movement amount is larger than the predetermined amount (S108: YES)
  • the movement direction of the closest position X is a direction from the inner side to the outer side (outer direction) of the touch panel 4, or the touch panel. 4 is determined whether the direction is from the outer side to the inner side (inner direction) (S109).
  • the control unit 11 determines that the moving direction of the closest position X is the outside direction (S109: outside), the control unit 11 corrects the detected touch position so as to be shifted outward by a predetermined correction amount (S110).
  • the corrected touch position is close to the target touch position for the user. In this case, the correction amount is predetermined.
  • the moving direction of the closest position X is the inward direction
  • the finger has approached the curved surface region 4a from the side surface direction of the cabinet 2 as shown in FIG.
  • the actual touch position Q is shifted to the outside of the touch panel 4 with respect to the target touch position P as shown in FIG.
  • the control unit 11 determines that the moving direction of the closest position X is the inside direction (S109: inside)
  • the control unit 11 corrects the detected touch position so as to be shifted inward by a predetermined correction amount (S111).
  • the corrected touch position is close to the target touch position for the user.
  • the touch position correction process ends.
  • the control unit 11 deletes the closest position X stored in the position storage unit 12a.
  • the touch position is corrected according to the direction in which the finger is brought closer to the touch.
  • the touch position can be appropriately corrected according to how the curved area 4a is touched.
  • FIGS. 7A to 7C are diagrams for explaining the relationship between the posture of the cabinet 2 and the direction in which the finger is brought close to the curved surface area 4 a of the touch panel 4.
  • the cabinet 2 When the user looks at the display 3 from the front and operates the display 3, as shown in FIG. 7A, the cabinet 2 is almost horizontal from the horizontal plane (curved direction of the curved region 4a).
  • the mobile phone 1 is gripped by the user so as not to tilt.
  • the curved area 4a is touched in a state where the cabinet 2 is not tilted in the left-right direction, as shown in FIG. 7A, a finger is often brought closer to the curved area 4a from the front direction of the cabinet 2. Conceivable.
  • the cabinet 2 can be easily viewed.
  • the mobile phone 1 may be gripped by the user so as to be inclined from the horizontal plane in the left-right direction.
  • the curved area 4a is touched in a state where the cabinet 2 is tilted in the left-right direction, as shown in FIGS. 7B and 7C, the finger is curved from the side surface direction or the obliquely upward direction of the cabinet 2. It can be considered that the distance is often close to 4a.
  • the inclination angle R of the cabinet 2 is large as shown in FIG.
  • the fingers are often brought closer to the curved surface area 4a from the side surface direction, and the cabinet 2 as shown in FIG. 7 (c).
  • the inclination angle R is small, it is considered that the finger is often brought closer to the curved surface area 4a from an obliquely upward direction.
  • the approaching direction of the finger is estimated based on the inclination state of the cabinet 2 from the horizontal plane in the left-right direction, and the touch position is corrected according to the estimated approaching direction.
  • FIG. 8 is a flowchart illustrating the touch position correction process according to the second embodiment.
  • the control unit 11 determines whether or not the touch position is within the curved surface area 4a (S202). If the touch position is not within the curved surface area 4a (S202: NO), the control unit 11 ends the touch position correction process without correcting the touch position (S203).
  • the control unit 11 obtains an inclination angle R from the horizontal plane of the cabinet 2 in the left-right direction (S204).
  • the storage unit 12 stores an angle table in which gravity accelerations in the three directions of front and rear, left and right, and up and down generated in the mobile phone 1 are associated with an inclination angle R in the left and right direction.
  • the control unit 11 acquires the tilt angle R from the angle table based on the three-direction acceleration detected by the acceleration detection unit 21.
  • the control unit 11 determines whether the inclination angle R is smaller than a predetermined first angle (S205).
  • the first angle is a threshold for determining whether or not the cabinet 2 is substantially tilted from the horizontal plane, and is set to an angle close to 0 degrees. If the cabinet 2 is not substantially inclined from the horizontal plane, the inclination angle R is smaller than the first angle.
  • the control unit 11 corrects the detected touch position so as to shift outward by a predetermined correction amount (S206). The corrected touch position is close to the target touch position for the user.
  • step S205 When the control unit 11 determines in step S205 that the inclination angle R is equal to or greater than the first angle (S205: NO), the control unit 11 determines whether the inclination angle R is greater than a predetermined second angle (S207).
  • the second angle is a threshold value for determining whether or not the cabinet 2 is inclined to some extent from the horizontal plane, and is set to an angle larger than the first angle.
  • the controller 11 corrects the detected touch position so as to shift inward by a predetermined correction amount (S208). The corrected touch position is close to the target touch position for the user.
  • the touch position can be appropriately corrected according to how the curved area 4a is touched.
  • Example 2 it is determined whether the cabinet 2 is inclined from the horizontal plane in the left-right direction by actually detecting the inclination angle R of the cabinet 2.
  • whether or not the cabinet 2 is tilted is determined based on whether or not a face image is included in the image captured by the camera 8.
  • the cabinet 2 when the cabinet 2 is not tilted, it is considered that the user is viewing the display 3 from the front direction. In this case, the user's face is photographed by the camera 8 facing the front direction.
  • the cabinet 2 is inclined, the user's face does not exist in the front direction of the cabinet 2, and thus the user's face is not photographed by the camera 8.
  • the state of inclination of the cabinet 2 from the horizontal plane in the left-right direction is estimated based on whether or not a face image is included in the image captured by the camera 8, and the approach of the finger based on the state of inclination of the cabinet 2 is further estimated. Directions are guessed. Then, the touch position is corrected according to the estimated approach direction.
  • FIG. 9 is a flowchart illustrating the touch position correction process according to the third embodiment.
  • the camera 8 is activated by the control unit 11.
  • the control unit 11 determines whether or not the touch position is within the curved surface area 4a (S302). If the touch position is not within the curved surface area 4a (S302: NO), the control unit 11 ends the touch position correction process without correcting the touch position (S303).
  • the control unit 11 acquires an image taken by the camera 8 (S304). And the control part 11 determines whether the face image is contained in the picked-up image by performing a known face recognition process (S305). As described above, when a face image is included in the captured image, it is presumed that the cabinet 2 is not substantially inclined from the horizontal plane in the left-right direction, so that the finger approaches the curved region 4a from the front direction of the cabinet 2. Guessed.
  • control unit 11 determines that the face image is included in the captured image (S305: YES)
  • the control unit 11 corrects the detected touch position so as to shift outward by a predetermined correction amount (S306), and the touch position.
  • the correction process ends.
  • the corrected touch position is close to the target touch position for the user.
  • the cabinet 2 is inclined from the horizontal plane in the left-right direction.
  • the cabinet 2 is tilted by the user so that an image displayed on the area of the display 3 that overlaps the curved surface area 4a is easy to see, it is considered that the tilt angle R is often not so large as it is large. This corresponds to the case where the inclination angle R is equal to or larger than the first angle but smaller than the second angle as described in ⁇ Example 2>.
  • the control unit 11 does not correct the touch position (S303).
  • the control unit 11 performs touch position correction processing so as to correct the detected touch position so as to shift inward by a predetermined correction amount. May be changed.
  • the touch position can be appropriately corrected according to how the curved area 4a is touched.
  • Example 4 In the fourth embodiment, whether or not the cabinet 2 is tilted is determined based on the content of the screen displayed on the display 3. As described in the second embodiment, when an object image to be operated such as an icon is displayed in the area of the display 3 that overlaps the curved surface area 4a, the cabinet 2 is tilted by the user so that the object image is easy to see. It is thought to be easy to be.
  • the inclination state from the horizontal plane of the cabinet 2 in the left-right direction is estimated. Based on this, the approach direction of the finger is estimated. Then, the touch position is corrected according to the estimated approach direction.
  • FIG. 10 is a flowchart illustrating the touch position correction process according to the fourth embodiment.
  • the control unit 11 determines whether or not the touch position is within the curved surface area 4a (S402). If the touch position is not within the curved surface area 4a (S402: NO), the control unit 11 ends the touch position correction process without correcting the touch position (S403).
  • the control unit 11 determines whether an object image is displayed in the area of the display 3 that overlaps the curved surface area 4a (S404).
  • the object image is not displayed, it is presumed that the cabinet 2 is not substantially inclined from the horizontal plane with respect to the left-right direction. Therefore, it is presumed that the finger approaches the curved surface area 4a from the front direction of the cabinet 2.
  • the control unit 11 corrects the detected touch position so that it is shifted outward by a predetermined correction amount (S405), and ends the touch position correction process. To do.
  • the corrected touch position is close to the target touch position for the user.
  • Example 4 when an object image is displayed in the area of the display 3 that overlaps the curved surface area 4a, the user's face exists in the side surface direction of the cabinet 2, and the user's finger is in the side surface direction of the cabinet 2. It can also be estimated that the curved surface area 4a has been approached.
  • the touch position correction process is changed so that the control unit 11 corrects the detected touch position so as to shift inward by a predetermined correction amount. Also good.
  • the touch position can be appropriately corrected according to how the curved area 4a is touched.
  • the user may be able to adjust the correction amount of the touch position.
  • FIG. 11 is a diagram showing the display 3 on which a setting screen 104 for setting the correction amount of the touch position is displayed.
  • the control unit 11 displays the setting screen 104 on the display 3 based on a predetermined operation by the user.
  • the setting screen 104 includes items 104a “correction amount high”, “medium correction amount”, “correction amount small”, and “correction amount 0”, a check box 104b corresponding to each item 104a, and a decision object 104c.
  • the user desires correction of the touch position, the user selects a desired correction amount from three different correction amounts of large, medium, and small by touching the check box 104b.
  • the user selects to set the correction amount to zero by touching the check box 104b.
  • the control unit 11 sets the correction amount in which the check mark is entered in the check box 104b as the correction amount used in the touch position correction process.
  • the touch panel 4 having curved surfaces 4a that are curved so as to be lowered from the inside toward the outside is used for the mobile phone 1.
  • the present invention is not limited to this.
  • a touch panel 4 having a convex curved surface area on the entire surface may be used for the mobile phone 1.
  • a touch panel 4 having curved areas that are curved so as to increase from the inside toward the outside may be used for the mobile phone 1.
  • a touch panel 4 having a concave curved surface area on the entire surface may be used for the mobile phone 1.
  • the step (S105, S202, S302, S402) for determining the curved surface area is deleted in the touch position correction process.
  • the processing in steps S109 to S111 of the touch position correction processing in FIG. 6 does not change, but the moving direction of the closest position X is in the direction from the inside to the outside.
  • the finger has approached from the side surface direction of the cabinet 2, and the finger has approached from the front direction of the cabinet 2 when the moving direction of the closest position X is from the outside to the inside. It will be guessed. 12B and 12C, in the touch position correction process of FIG.
  • step S206 and the process of step S208 are interchanged, and step S306 of the touch position correction process of FIG.
  • step S405 of the touch position correction process in FIG. 10 the touch position is corrected so as to shift inward by a predetermined correction amount.
  • the above embodiment is applied to a smartphone type mobile phone.
  • the present invention is not limited to this, and the above embodiment may be applied to other types of mobile phones such as a straight type, a folding type, and a sliding type.
  • the touch position is corrected according to the direction in which the finger approaches the touch panel 4, but the touch position may be specified with respect to the touch panel 4 not only with the finger but also with a stylus pen. Even when another tool that can be used is used, the touch position may be corrected in accordance with the direction in which the tool approaches.
  • a finger that can instruct a touch position on the touch panel, the tool, or the like may be comprehensively expressed as a touch position instruction unit.
  • the above embodiment is not limited to a mobile phone, but is applied to various portable devices such as a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), an electronic book terminal, a portable music player, a portable TV, and a portable navigation system.
  • PDA Personal Digital Assistant
  • Tablet PC Tablet PC
  • electronic book terminal a portable music player
  • portable TV Portable TV
  • portable navigation system a portable navigation system
  • the touch panel may be configured to detect a position where the finger approaches the curved surface area and a degree of approach of the finger at the position.
  • the approach direction determination unit determines the movement of the closest position by sequentially acquiring the closest position where the finger is closest to the curved surface region as the determination of the approach direction.
  • the position correction unit corrects the touch position according to the movement of the closest position.
  • the curved surface region may be a curved region that becomes lower from the inside to the outside of the touch panel.
  • the approach direction determination unit determines the moving direction of the closest position. Then, when the approach direction determination unit determines that the moving direction is the direction from the inside to the outside of the touch panel, the position correction unit corrects the touch position to shift outward.
  • the position correction unit further shifts the touch position inward when the approach direction determination unit determines that the movement direction is the direction from the outside to the inside of the touch panel. It can be set as the structure to correct
  • the approach direction determination unit may further determine the amount of movement of the closest position. In this case, the position correction unit does not correct the touch position when the approach direction determination unit determines that the movement amount is smaller than the predetermined amount.
  • the mobile device may further include a posture detection unit that detects the posture of the housing.
  • the approach direction determination unit determines the inclination angle from the horizontal plane of the casing in the bending direction of the curved surface region based on the detection result by the posture detection unit as the determination of the approach direction. Then, the position correction unit corrects the touch position according to the tilt angle.
  • the portable device may be configured to further include an imaging unit that captures a direction in which the front of the housing faces.
  • the approach direction determination unit determines whether or not a face image is included in the image photographed by the photographing unit as the approach direction determination. Then, the position correction unit corrects the touch position according to the presence or absence of the face image.
  • the approach direction determination unit may determine whether the object image to be operated is displayed in the display area where the curved surface areas overlap as the determination of the approach direction. In this case, the position correction unit corrects the touch position according to whether or not the object image is displayed.
  • the second aspect of the present disclosure relates to a touch position correction method for correcting a touch position by a finger detected by a touch panel having at least a curved surface area.
  • the touch position correction method according to this aspect includes a determination step of determining an approach direction in which a finger approaches the curved surface area when the touch position is within the curved surface area, and correction for correcting the touch position in the curved surface area according to the approach direction. Steps.
  • a portable device includes a display arranged in front of a housing, a touch panel that is superimposed on the display and detects a touch position touched with a finger, and has a curved area at least in part, and the touch position is a curved surface
  • a position correction unit that corrects the touch position in the curved surface area in accordance with the approaching direction of the finger approaching the curved surface area when it is within the area.
  • 2 cabinet (frame), 3 display, 4 touch panel, 4a curved surface area, 11 control unit (approach direction determination unit, position correction unit), 20 photographing unit, 21 acceleration detection unit (attitude detection unit).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 携帯電話機は、キャビネットの正面に配されたディスプレイと、ディスプレイに重ねられ、指でタッチされたタッチ位置を検出する、少なくとも一部に曲面領域を有するタッチパネルと、制御部とを備える。制御部は、タッチ位置が曲面領域内である場合に、指が曲面領域へ近づく接近方向を判定する。さらに、制御部は、接近方向に応じて曲面領域におけるタッチ位置を補正する。

Description

携帯機器、およびタッチ位置補正方法
 本開示の実施形態は、携帯電話機、PDA(Personal Digital Assistant)、タブレットPC(Tablet PC)、電子書籍端末、携帯音楽プレーヤ、ポータブルテレビ、ポータブルナビゲーションシステム等の携帯機器に関し、特に、タッチパネルを有する携帯機器に関する。さらに、本開示は、かかる携帯機器に用いることが可能なタッチ位置補正方法に関する。
 従来、筐体の正面側にディスプレイが配置された携帯電話機が知られている。かかる携帯電話機では、たとえば、ほぼ長方形の輪郭を有する筺体の正面側に、筺体より僅かに小さいほぼ長方形のディスプレイが配置される。さらに、このディスプレイに重なるようにタッチパネルが配置され、ディスプレイに対するユーザのタッチ操作に基づいて、各種アプリケーションプログラムが実行される。
 かかる携帯電話機の中には、デザイン性の面から、筺体正面の端部が曲面形状とされるものがある。近年、ディスプレイおよびタッチパネルを湾曲させることが技術的に可能となったため、ディスプレイおよびタッチパネルが曲面形状を有する端部まで拡げられることが想定される。この場合、タッチパネルの端部の形状が曲面である。また、デザイン性の面から、ディスプレイおよびタッチパネルの全面が曲面形状とされる携帯電話機が開発されることも想定される。
 このように、タッチパネルの少なくとも一部が曲面領域を有する場合、曲面領域に指がタッチされるときに、ユーザがタッチしようとする目標のタッチ位置と実際にタッチされる実際のタッチ位置とにずれが生じやすい。
 本開示の第1の態様は、携帯機器に関する。本開示の一態様に係る携帯機器は、筐体の正面に配されたディスプレイと、ディスプレイに重ねられ、指でタッチされたタッチ位置を検出する、少なくとも一部に曲面領域を有するタッチパネルと、タッチ位置が曲面領域内である場合に、指が曲面領域へ近づく接近方向を判定する接近方向判定部と、接近方向に応じて曲面領域におけるタッチ位置を補正する位置補正部とを備える。
実施の形態に係る、携帯電話機の構成を示す図である。 実施の形態に係る、携帯電話機の全体構成を示すブロック図である。 実施の形態に係る、ホーム画面が表示されたディスプレイを示す図である。 実施の形態に係る、タッチパネルの曲面領域が、それぞれ、タッチパネルの正面方向、側面方向および斜め上方向から指でタッチされる様子を示す図である。 実施例1に係る、タッチパネルの曲面領域がキャビネットの正面方向、側面方向および斜め上方向から指でタッチされる場合の、指がタッチパネルに近づく過程における、指に最も接近したタッチパネル上の最近接位置の動きを示す図である。 実施例1に係る、タッチ位置補正処理を示すフローチャートである。 実施例2に係る、キャビネットの姿勢と、タッチパネルの曲面領域に指が近づけられる方向との関係について説明するための図である。 実施例2に係る、タッチ位置補正処理を示すフローチャートである。 実施例3に係る、タッチ位置補正処理を示すフローチャートである。 実施例4に係る、タッチ位置補正処理を示すフローチャートである。 変更例に係る、タッチ位置の補正量を設定するための設定画面が表示されたディスプレイを示す図である。 変更例に係る、携帯電話機の構成を示す図である。
 以下、実施の形態について、図面を参照して説明する。
 <携帯電話機の構成>
 携帯電話機の中には、デザイン性の面から、筺体正面の端部が曲面形状とされるものがある。近年、ディスプレイおよびタッチパネルを湾曲させることが技術的に可能となったため、ディスプレイおよびタッチパネルが曲面形状を有する端部まで拡げられることが想定される。タッチパネルの少なくとも一部が曲面領域を有する場合、曲面領域に指がタッチされるときに、ユーザがタッチしようとする目標のタッチ位置と実際にタッチされる実際のタッチ位置とにずれが生じやすいという問題がある。以下では、この問題を解決することができる携帯電話機について説明する。
 図1(a)~(d)は、それぞれ、携帯電話機1の正面図、背面図、右側面図および底面図である。以下、説明の便宜上、図1(a)~(d)に示すように、キャビネット2の長手方向を上下方向と定義し、キャビネット2の短手方向を左右方向と定義する。さらに、これら上下方向および左右方向に垂直な方向を前後方向と定義する。
 図1(a)~(d)に示すように、携帯電話機1は、キャビネット2と、ディスプレイ3と、タッチパネル4と、マイクロフォン5と、通話スピーカ6と、外部スピーカ7と、カメラ8とを含む。
 キャビネット2は、正面から見て、ほぼ長方形の輪郭を有する。図1(d)に示すように、キャビネット2の正面の両端部は、内側から外側に向って低くなるよう湾曲する曲面形状である。キャビネット2の正面側に、ディスプレイ3が配されている。ディスプレイ3には、各種の画像(画面)が表示される。ディスプレイ3は、キャビネット2の左右両端まで拡がっており、その両端部は、キャビネット2の両端部と同様、曲面形状である。ディスプレイ3は、液晶ディスプレイであり、液晶パネルと、液晶パネルを照明するLEDバックライトを含む。ディスプレイ3は、有機ELディスプレイ等、他の種類のディスプレイであってもよい。
 さらに、ディスプレイ3に重なるように、タッチパネル4が配置されている。タッチパネル4は、透明なシート状である。タッチパネル4の両端部は、ディスプレイ3の両端部に対応するよう、曲面形状である。即ち、タッチパネル4は、その両端部に曲面領域4aを有する。タッチパネル4の両端部以外の部位は、平坦な形状を有する。実施の形態では、タッチパネル4は、静電容量式のタッチパネルである。タッチパネル4として、超音波式、感圧式、抵抗膜式、光検知式等、静電容量式以外のタッチパネルが用いられても良い。
 キャビネット2の内部には、下端部にマイクロフォン5が配されている。キャビネット2の内部には、上端部に通話スピーカ6が配されている。マイクロフォン5は、キャビネット2の正面に存在するマイク孔5aを通過した音声を受け付ける。マイクロフォン5は、入力された音に応じた電気信号を生成する。通話スピーカ6は、音を出力する。出力された音は、キャビネット2の正面に存在する出力孔6aを通過してキャビネット2の外に放出される。通話の際には、通信先の機器(携帯電話機等)から受信された受話音声が通話スピーカ6から出力され、ユーザが発した発話音声がマイクロフォン5に入力される。音は、音声、報知音等、様々な音を含む。
 キャビネット2の内部には、外部スピーカ7が配されている。キャビネット2の背面には、外部スピーカ7と対向する領域に出力孔7aが存在する。外部スピーカ7から出力された音は、出力孔7aを通過してキャビネット2の外に放出される。
 キャビネット2の上部には、正面側にカメラ8が配されている。カメラ8は、携帯電話機1の正面方向に存在する撮影対象を撮影する。カメラ8は、CCD、CMOSセンサ等の撮像素子と、撮影対象の像を撮像素子に結像させるレンズとを含む。
 図2は、携帯電話機1の全体構成を示すブロック図である。
 図2に示されるように、携帯電話機1は、制御部11と、記憶部12と、画像出力部13と、タッチ検出部14と、音声入力部15と、音声出力部16と、音声処理部17と、キー入力部18と、通信部19と、撮影部20と、加速度検出部21とを含む。
 記憶部12は、ROM、RAM、および外部メモリを含む。記憶部12には、各種のプログラムが記憶されている。記憶部12に記憶されるプログラムは、携帯電話機1の各部を制御するための制御プログラムの他、各種アプリケーションプログラム(以下、単に「アプリケーション」と称する)、たとえば、電話、メッセージ、カメラ、ウェブブラウザ、地図、ゲーム、スケジュール管理等のアプリケーションを含む。さらに、記憶部12に記憶されるプログラムは、後述するタッチ位置補正処理を実行するためのプログラムを含む。プログラムは、メーカによって携帯電話機1の製造時に記憶部12に記憶される他、通信網やメモリカード、CD-ROM等の記憶媒体を介して記憶部12に記憶される。
 記憶部12には、プログラムの実行の際、一時的に利用または生成されるデータを記憶するワーキング領域も含まれる。
 記憶部12には、位置記憶部12aが備えられている。位置記憶部12aには、ユーザの指がタッチパネル4に近づく過程において、指が最も接近したタッチパネル4上の位置が、最近接位置Xとして、時系列的に記憶される。
 制御部11は、CPUを含む。制御部11は、記憶部12に記憶されたプログラムに従って、携帯電話機1を構成する各部(記憶部12、画像出力部13、タッチ検出部14、
音声入力部15、音声出力部16、音声処理部17、キー入力部18、通信部19、撮影部20、加速度検出部21、等)を制御する。
 画像出力部13は、図1(a)に示すディスプレイ3を含む。画像出力部13は、制御部11からの制御信号と画像信号に基づき、ディスプレイ3に画像(画面)を表示する。画像出力部13は、制御部11からの制御信号に応じて、ディスプレイ3の点灯、消灯および輝度の調整を行う。
 タッチ検出部14は、図1(a)に示すタッチパネル4を含み、タッチパネル4に対するタッチ操作を検出する。より具体的には、タッチ検出部14は、タッチパネル4に対する、ユーザの指などの接触対象が接触する位置(以下、「タッチ位置」と称する)を検出する。タッチ検出部14は、検出したタッチ位置に基づいて生成されたタッチ位置信号を制御部11へ出力する。タッチパネル4に対するタッチ操作は、ディスプレイ3に表示される画面やオブジェクト画像を対象として行われるものであり、ディスプレイ3に対するタッチ操作である、と言い換えることができる。
 タッチパネル4を含むキャビネット2の正面が、ガラス等で構成される透明なカバーで覆われる場合、タッチパネル4へ触れようとする指はタッチパネル4でなくカバーに接触する。この場合、タッチパネル4は、指がカバーに接触したときにタッチ位置を検出する。このように、カバーがある場合、タッチパネル4は、指により間接的にタッチされることになるが、タッチパネル4へのタッチは、直接的でも間接的でもよく、どちらの場合もタッチパネル4が指でタッチされることに変わりはない。
 ユーザは、タッチパネル4に指を触れることにより、ディスプレイ3に対し様々なタッチ操作を行うことができる。タッチ操作は、たとえば、タップ操作、フリック操作、スライド操作等を含む。タップ操作とは、ユーザがタッチパネル4に指を接触させた後、短時間のうちに指をタッチパネル4から離す操作である。フリック操作とは、ユーザがタッチパネル4に指を接触させた後、タッチパネル4を指で任意の方向に弾くあるいは掃う操作である。スライド操作とは、ユーザがタッチパネル4に指を接触させたまま、任意の方向へ指を移動させる操作である。
 たとえば、タッチ検出部14がタッチ位置を検出した場合に、タッチ位置が検出されてから予め定められた第1時間以内にタッチ位置が検出されなくなると、制御部11は、タッチ操作をタップ操作と判定する。タッチ位置が検出されてから予め定められた第2時間以内に予め定められた第1距離以上タッチ位置が移動した後、タッチ位置が検出されなくなった場合、制御部11は、タッチ操作をフリック操作と判定する。タッチ位置が検出された後、予め定めた第2距離以上タッチ位置が移動すると、制御部11は、タッチ操作をスライド操作と判定する。
 タッチパネル4は、静電容量式であり、指がある程度タッチパネル4に近づくと、近づいた位置(検出点)では静電容量が変化し始める。指がタッチパネル4に近づくほど、その位置の静電容量の変化は大きくなり、やがて、指がその位置に触れると、静電容量の変化量が、タッチを判断するための検出閾値を超える。タッチ検出部14は、静電容量の変化量が検出閾値を超えたタッチパネル4上の位置をタッチ位置として検出し、タッチ位置信号を出力する一方で、静電容量の変化が生じたタッチパネル4上の位置を近接位置として検出し、近接位置とその近接位置での静電容量の変化量とを示す近接位置信号を制御部11に出力する。
 音声入力部15は、マイクロフォン5を含む。音声入力部15は、マイクロフォン5からの電気信号を音声処理部17へ出力する。
 音声出力部16は、通話スピーカ6および外部スピーカ7を含む。音声出力部16には、音声処理部17からの電気信号が入力される。音声出力部16は、通話スピーカ6または外部スピーカ7から音を出力させる。
 音声処理部17は、音声入力部15からの電気信号にA/D変換等を施し、変換後のデジタルの音声信号を制御部11へ出力する。音声処理部17は、制御部11からのデジタルの音声信号にデコード処理およびD/A変換等を施し、変換後の電気信号を音声出力部16に出力する。
 キー入力部18は、少なくとも1つ以上のハードキーを含む。たとえば、キー入力部18は、携帯電話機1に電源を投入するための電源キー等を含む。キー入力部18は、押下されたハードキーに対応する信号を制御部11に出力する。
 通信部19は、通話や通信を行うため、信号を変換するための回路、電波を送受信するアンテナ等を含む。通信部19は、制御部11から入力される通話や通信のための信号を無線信号に変換し、変換された無線信号を、アンテナを介して基地局や他の通信装置等の通信先へ送信する。さらに、通信部19は、アンテナを介して受信した無線信号を制御部11が利用できる形式の信号へ変換し、変換された信号を制御部11へ出力する。
 撮影部20は、図1(a)に示すカメラ8、撮像制御回路などを含む。撮影部20は、カメラ8により撮影された画像の画像データに各種の画像処理を施し、画像処理後の画像データを制御部11に出力する。
 加速度検出部21は、3軸加速度センサを含む。3軸加速度センサは、携帯電話機1の前後方向、上下方向および左右方向の3方向に生じる重力加速度を検出する。加速度検出部21は、3軸加速度センサが検出した、携帯電話機1(キャビネット2)の姿勢に応じた加速度を示す加速度信号を制御部11に出力する。
 図3は、ホーム画面101が表示されたディスプレイ3を示す図である。
 携帯電話機1では、種々の画面がディスプレイ3に表示され、画面上においてユーザにより種々のタッチ操作がなされる。たとえば、初期画面として、ホーム画面101がディスプレイ3に表示される。図3に示すように、ホーム画面101は、各種のアプリケーションを起動するための起動用アイコン101aを含む。起動用アイコン101aには、たとえば、電話アイコン101b、カメラアイコン101c、メールアイコン101d等が含まれる。
 ディスプレイ3には、ホーム画面101の他に、通知バー102および操作キー群103が表示される。通知バー102は、ディスプレイ3に表示されたホーム画面101の上方に表示される。通知バー102は、現在時刻、バッテリー残量を示す残量メータ、電波の強度を示す強度メータ等を含む。操作キー群103は、ホーム画面101の下方に表示される。操作キー群103は、例えば、設定キー103a、ホームキー103bおよびバックキー103cから構成されている。設定キー103aは、主に、各種設定を行う設定画面をディスプレイ3に表示させるためのキーである。ホームキー103bは、主に、ディスプレイ3の表示を他の画面からホーム画面101に移行させるためのキーである。バックキー103cは、主に、実行された処理を1ステップ前の処理に戻すためのキーである。
 各種アプリケーションを利用する場合、ユーザは、利用するアプリケーションに対応する起動用アイコン101aに対してタップ操作を行う。アプリケーションが起動されて、アプリケーションに基づく実行画面が表示される。実行されたアプリケーションの実行画面が表示されても、あるいは、アプリケーションの進行に伴って実行画面が遷移しても、通知バー102および操作キー群103は、ディスプレイ3に表示され続ける。
 さて、携帯電話機1では、上述の通り、タッチパネル4が、その両端部に曲面領域4aを含む。曲面領域4aに指がタッチされるとき、ユーザがタッチしようとする目標のタッチ位置と実際にタッチされる実際のタッチ位置とにずれが生じやすい。
 図4(a)~(c)は、タッチパネル4の曲面領域4aが、それぞれ、タッチパネル4の正面方向、側面方向および斜め上方向から指でタッチされる様子を示す図である。図4(a)に示すように、曲面領域4aが、キャビネット2の正面方向から指でタッチされる場合、目標のタッチ位置Pに対して、実際のタッチ位置Qがタッチパネル4の内側にずれる。一方、図4(b)に示すように、曲面領域4aが、キャビネット2の側面方向から指でタッチされる場合、目標のタッチ位置Pに対して、実際のタッチ位置Qがタッチパネル4の外側にずれる。図4(c)に示すように、曲面領域4aが、キャビネット2の斜め上方向(曲面の法線方向)から指でタッチされる場合、目標のタッチ位置Pと実際のタッチ位置Qがほぼ同じ位置となる。
 実際のタッチ位置Qが目標のタッチ位置Pからずれた場合、目標のタッチ位置Pに近づけるよう、実際のタッチ位置Qを補正することが望ましい。しかしながら、上記のように、タッチパネル4に指が近づく方向によって、タッチ位置のずれ方が異なるため、即ち、ずれの有無が生じたりずれの方向が異なったりするため、実際のタッチ位置Qを一様に補正することができない。
 そこで、携帯電話機1では、曲面領域4aに指がタッチされたときに、タッチパネル4へ指が近づく方向に応じたタッチ位置の補正を行うためのタッチ位置補正処理が、制御部11によって行われる。即ち、記憶部12に保持されたプログラムによって、制御部11にタッチ位置を補正するための機能が付与され、この機能によって、タッチ位置補正処理が実行される。
 以下、タッチ位置補正処理の具体的実施例について説明する。
 <実施例1>
 図5(a)~(c)は、それぞれ、タッチパネル4の曲面領域4aがキャビネット2の正面方向、側面方向および斜め上方向から指でタッチされる場合の、指がタッチパネル4に近づく過程における、指に最も接近したタッチパネル4上の最近接位置Xの動きを示す図である。図5(a)に示すように、曲面領域4aが、キャビネット2の正面方向から指でタッチされる場合、指が曲面領域4aに近づくに従って、最近接位置Xは、タッチパネル4の内側から外側へ移動する。一方、図5(b)に示すように、曲面領域4aが、キャビネット2の側面方向から指でタッチされる場合、指が曲面領域4aに近づくに従って、最近接位置Xは、タッチパネル4の外側から内側へ移動する。図5(c)に示すように、曲面領域4aが、キャビネット2の斜め上方向から指でタッチされる場合、最近接位置Xはほぼ動かない。
 そこで、実施例1では、最近接位置Xの動きに基づいて指の接近方向が推測され、推測された接近方向に応じたタッチ位置の補正が行われる。
 図6は、実施例1のタッチ位置補正処理を示すフローチャートである。
 制御部11は、タッチ検出部14によりタッチパネル4上の近接位置が検出されたか否かを判定する(S101)。ユーザが、タッチパネル4にタッチするため、タッチパネル4に指を近づけていくと、やがて、タッチ検出部14により、近接位置が検出される。近接位置が検出されるようになると(S101:YES)、制御部11は、検出された近接位置の中から静電容量の変化が最も大きな近接位置、即ち、タッチパネル4に近づく指に最も接近した近接位置を、最近接位置Xとして取得し(S102)、取得した最近接位置Xを位置記憶部12aに記憶させる(S103)。
 次に、制御部11は、タッチ検出部14によりタッチ位置が検出されたか否かを判定する(S104)。タッチ位置が検出されなければ(S104:NO)、制御部11は、ステップS102に戻り、再び最近接位置Xを取得する(S102)。こうして、タッチ位置が検出されるまで、最近接位置Xが取得され、取得された最近接位置Xが時系列的に位置記憶部12aに記憶される。
 ユーザの指がタッチパネル4にタッチされると、タッチ検出部14により、タッチ位置が検出される。タッチ位置が検出されると(S104:YES)、制御部11は、タッチ位置が曲面領域4a内であるか否かを判定する(S105)。タッチ位置が曲面領域4a内でなければ(S105:NO)、制御部11は、タッチ位置の補正を行うことなく(S106)、タッチ位置補正処理を終了する。一方、タッチ位置が曲面領域4a内であれば(S105:YES)、制御部11は、位置記憶部12aに記憶された最近接位置Xに基ついて、指が曲面領域4aにタッチされる過程での最近接位置Xの移動量と移動方向を求める(S107)。そして、制御部11は、求めた移動量が所定量より大きいか否かを判定する(S108)。
 移動量が所定量以下である場合、即ち、最近接位置Xがほぼ同じ位置に留まっている場合、図5(c)に示すように、指がキャビネット2の斜め上方向から曲面領域4aに接近してきたと推測される。指がキャビネット2の斜め上方向から曲面領域4aにタッチされる場合、図4(c)に示すように、実際のタッチ位置Qと目標のタッチ位置Pとがほぼ同じ位置となる。制御部11は、移動量が所定量以下であると判定すると(S108:NO)、タッチ位置の補正を行うことなく(S106)、タッチ位置補正処理を終了する。
 一方、制御部11は、移動量が所定量より大きいと判定すると(S108:YES)、最近接位置Xの移動方向が、タッチパネル4の内側から外側へ向かう方向(外側方向)であるか、タッチパネル4の外側から内側へ向かう方向(内側方向)であるかを判定する(S109)。
 最近接位置Xの移動方向が外側方向である場合、図5(a)に示すように、指がキャビネット2の正面方向から曲面領域4aに接近してきたと推測される。指がキャビネット2の正面方向から曲面領域4aにタッチされる場合、図4(a)に示すように、目標のタッチ位置Pに対して、実際のタッチ位置Qがタッチパネル4の内側にずれる。制御部11は、最近接位置Xの移動方向が外側方向であると判定すると(S109:外側)、外側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正する(S110)。補正後のタッチ位置は、ユーザが目標とするタッチ位置に近くなる。この場合、補正量は予め定められている。
 一方、最近接位置Xの移動方向が内側方向である場合、図5(b)に示すように、指がキャビネット2の側面方向から曲面領域4aに接近してきたと推測される。指がキャビネット2の側面方向から曲面領域4aにタッチされる場合、図4(b)に示すように、目標のタッチ位置Pに対して、実際のタッチ位置Qがタッチパネル4の外側にずれる。制御部11は、最近接位置Xの移動方向が内側方向であると判定すると(S109:内側)、内側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正する(S111)。補正後のタッチ位置は、ユーザが目標とするタッチ位置に近くなる。
 制御部11は、タッチ位置を補正すると(S110、S111)、タッチ位置補正処理を終了する。制御部11は、タッチ位置補正処理を終了する際、位置記憶部12aに記憶された最近接位置Xを削除させる。
 以上、実施例1によれば、タッチパネル4の曲面領域4aが指でタッチされたとき、タッチに際して指が近づけられた方向に応じてタッチ位置の補正が行われる。曲面領域4aへのタッチの行われ方に応じて、タッチ位置を適正に補正することができる。
 <実施例2>
 図7(a)~(c)は、キャビネット2の姿勢と、タッチパネル4の曲面領域4aに指が近づけられる方向との関係について説明するための図である。
 ユーザがディスプレイ3を正面方向から見て、ディスプレイ3に対して操作を行う場合、図7(a)に示すように、キャビネット2が、左右方向(曲面領域4aの湾曲方向)に関して、水平面からほぼ傾かないように、携帯電話機1がユーザに把持される。キャビネット2が左右方向に傾けられない状態で曲面領域4aがタッチされる場合には、図7(a)に示すように、キャビネット2の正面方向から指が曲面領域4aに近づけられることが多いと考えられる。
 一方、曲面領域4aに重なるディスプレイ3の領域にアイコン等の操作対象となるオブジェクト画像が表示され、そのオブジェクト画像に対して操作が行われるような場合には、そのオブジェクト画像が見やすいよう、キャビネット2が、左右方向に関して、水平面から傾くように、携帯電話機1がユーザに把持されることがある。キャビネット2が左右方向に傾けられた状態で曲面領域4aがタッチされる場合には、図7(b)および(c)に示すように、キャビネット2の側面方向または斜め上方向から指が曲面領域4aに近づけられることが多いと考えられる。特に、図7(b)のように、キャビネット2の傾き角Rが大きい場合には、側面方向から指が曲面領域4aに近づけられることが多く、図7(c)のように、キャビネット2の傾き角Rが小さい場合には、斜め上方向から指が曲面領域4aに近づけられることが多いと考えられる。
 そこで、実施例2では、左右方向に関するキャビネット2の水平面からの傾き状態に基づいて指の接近方向が推測され、推測された接近方向に応じたタッチ位置の補正が行われる。
 図8は、実施例2のタッチ位置補正処理を示すフローチャートである。
 制御部11は、タッチ検出部14によりタッチ位置が検出されると(S201:YES)、タッチ位置が曲面領域4a内であるか否かを判定する(S202)。タッチ位置が曲面領域4a内でなければ(S202:NO)、制御部11は、タッチ位置の補正を行うことなく(S203)、タッチ位置補正処理を終了する。
 一方、タッチ位置が曲面領域4a内であれば(S202:YES)、制御部11は、左右方向に関するキャビネット2の水平面からの傾き角Rを求める(S204)。記憶部12には、携帯電話機1に生じる前後、左右および上下の3方向の重力加速度と、左右方向に関する傾き角Rとが対応付けられた角度テーブルが記憶されている。制御部11は、加速度検出部21により検出された3方向の加速度に基づいて、角度テーブルから傾き角Rを取得する。
 制御部11は、傾き角Rが予め定めた第1角度より小さいか否かを判定する(S205)。第1角度は、キャビネット2が水平面からほぼ傾いていないか否かを判定するための閾値であり、0度に近い角度に定められる。キャビネット2が水平面からほぼ傾いていなければ、傾き角Rが第1角度より小さくなる。
 キャビネット2が水平面からほぼ傾いていない場合、図7(a)に示すように、指がキャビネット2の正面方向から曲面領域4aに接近してきたと推測される。指がキャビネット2の正面方向から曲面領域4aにタッチされる場合には、目標のタッチ位置Pに対して、実際のタッチ位置Qがタッチパネル4の内側にずれる。制御部11は、傾き角Rが第1角度より小さいと判定すると(S205:YES)、外側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正する(S206)。補正後のタッチ位置は、ユーザが目標とするタッチ位置に近くなる。
 制御部11は、ステップS205において、傾き角Rが第1角度以上であると判定すると(S205:NO)、傾き角Rが予め定めた第2角度より大きい否かを判定する(S207)。第2角度は、キャビネット2が水平面からある程度大きく傾いているか否かを判定するための閾値であり、第1角度より大きな角度に定められる。
 キャビネット2があまり大きく傾いていない場合、図7(c)に示すように、指がキャビネット2の斜め上方向から曲面領域4aに接近してきたと推測される。指がキャビネット2の斜め上方向から曲面領域4aにタッチされる場合には、実際のタッチ位置Qと目標のタッチ位置Pとがほぼ同じ位置となる。制御部11は、傾き角Rが第2角度以下であると判定すると(S207:NO)、タッチ位置の補正を行わない(S203)。
 一方、キャビネット2が大きく傾いている場合、図7(b)に示すように、指がキャビネット2の側面方向から曲面領域4aに接近してきたと推測される。指がキャビネット2の側面方向から曲面領域4aにタッチされる場合には、目標のタッチ位置Pに対して、実際のタッチ位置Qがタッチパネル4の外側にずれる。制御部11は、傾き角Rが第2角度より大きいと判定すると(S207:YES)、内側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正する(S208)。補正後のタッチ位置は、ユーザが目標とするタッチ位置に近くなる。
 制御部11は、タッチ位置を補正すると(S206、S208)、タッチ位置補正処理を終了する。
 実施例2によれば、実施例1と同様、曲面領域4aへのタッチの行われ方に応じて、タッチ位置を適正に補正することができる。
 <実施例3>
 実施例2では、キャビネット2の傾き角Rを実際に検出することにより、キャビネット2が、左右方向に関して、水平面から傾いているか否かが判定される。これに対し、実施例3では、カメラ8で撮影された画像に顔画像が含まれるか否かに基づいて、キャビネット2が傾いているか否かが判定される。実施例2で説明されたように、キャビネット2が傾いていない場合、ユーザがディスプレイ3を正面方向から見ていると考えられる。この場合、正面方向を向くカメラ8によりユーザの顔が撮影される。一方、キャビネット2が傾いている場合、ユーザの顔がキャビネット2の正面方向には存在しないため、カメラ8によりユーザの顔が撮影されない。
 実施例3では、カメラ8による撮影画像中に顔画像が含まれるか否かにより、左右方向に関するキャビネット2の水平面からの傾き状態が推測され、さらに、キャビネット2の傾き状態に基づいて指の接近方向が推測される。そして、推測された接近方向に応じたタッチ位置の補正が行われる。
 図9は、実施例3のタッチ位置補正処理を示すフローチャートである。
 実施例3では、タッチ位置補正処理が開始される際に、制御部11により、カメラ8が起動される。
 制御部11は、タッチ検出部14によりタッチ位置が検出されると(S301:YES)、タッチ位置が曲面領域4a内であるか否かを判定する(S302)。タッチ位置が曲面領域4a内でなければ(S302:NO)、制御部11は、タッチ位置の補正を行うことなく(S303)、タッチ位置補正処理を終了する。
 一方、タッチ位置が曲面領域4a内であれば(S302:YES)、制御部11は、カメラ8が撮影した画像を取得する(S304)。そして、制御部11は、既知の顔認識処理を実行することにより、撮影画像中に顔画像が含まれているか否かを判定する(S305)。上述の通り、撮影画像中に顔画像が含まれている場合、左右方向に関してキャビネット2が水平面からほぼ傾いていないと推測され、そのため、指がキャビネット2の正面方向から曲面領域4aに接近してきたと推測される。制御部11は、撮影画像中に顔画像が含まれていると判定すると(S305:YES)、外側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正し(S306)、タッチ位置補正処理を終了する。補正後のタッチ位置は、ユーザが目標とするタッチ位置に近くなる。
 一方、撮影画像中に顔画像が含まれていない場合、左右方向に関してキャビネット2が水平面から傾いていると推測される。曲面領域4aに重なるディスプレイ3の領域に表示された画像が見やすいよう、ユーザによりキャビネット2が傾けられる場合、傾き角Rは、大きくなることよりもそれほど大きくならないことの方が多いと考えられる。これは、<実施例2>でいうところの、傾き角Rが第1角度以上であるが、第2角度より小さい場合に対応する。実施例3では、撮影画像中に顔画像が含まれていない場合、指がキャビネット2の斜め上方向から曲面領域4aに接近してきたと推測される。制御部11は、撮影画像中に顔画像が含まれていないと判定すると(S305:NO)、タッチ位置の補正を行わない(S303)。
 実施例3において、撮影画像中に顔画像が含まれていない場合には、ユーザの顔がキャビネット2の側面方向に存在し、当該ユーザの指がキャビネット2の側面方向から曲面領域4aに接近してきたと推測することもできる。撮影画像中に顔画像が含まれていない場合に(S305:NO)、制御部11が、内側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正するように、タッチ位置補正処理が変更されても良い。
 実施例3によれば、実施例1と同様、曲面領域4aへのタッチの行われ方に応じて、タッチ位置を適正に補正することができる。
 <実施例4>
 実施例4では、ディスプレイ3に表示される画面の内容に基づいて、キャビネット2が傾いているか否かが判定される。実施例2で説明されたように、曲面領域4aに重なるディスプレイ3の領域にアイコン等の操作対象となるオブジェクト画像が表示される場合には、そのオブジェクト画像が見やすいよう、ユーザによりキャビネット2が傾けられやすいと考えられる。
 実施例4では、曲面領域4aに重なるディスプレイ3の領域に、オブジェクト画像が表示されているか否かにより、左右方向に関するキャビネット2の水平面からの傾き状態が推測され、さらに、キャビネット2の傾き状態に基づいて指の接近方向が推測される。そして、推測された接近方向に応じたタッチ位置の補正が行われる。
 図10は、実施例4のタッチ位置補正処理を示すフローチャートである。
 制御部11は、タッチ検出部14によりタッチ位置が検出されると(S401:YES)、タッチ位置が曲面領域4a内であるか否かを判定する(S402)。タッチ位置が曲面領域4a内でなければ(S402:NO)、制御部11は、タッチ位置の補正を行うことなく(S403)、タッチ位置補正処理を終了する。
 一方、タッチ位置が曲面領域4a内であれば(S402:YES)、制御部11は、曲面領域4aに重なるディスプレイ3の領域に、オブジェクト画像が表示されているか否かを判定する(S404)。オブジェクト画像が表示されていない場合は、左右方向に関してキャビネット2が水平面からほぼ傾いていないと推測され、そのため、指がキャビネット2の正面方向から曲面領域4aに接近してきたと推測される。制御部11は、オブジェクト画像が表示されていないと判定すると(S404:NO)、外側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正し(S405)、タッチ位置補正処理を終了する。補正後のタッチ位置は、ユーザが目標とするタッチ位置に近くなる。
 一方、オブジェクト画像が表示されている場合、左右方向に関してキャビネット2が水平面から傾いていると推測され、そのため、指がキャビネット2の斜め上方向から曲面領域4aに接近してきたと推測される。制御部11は、オブジェクト画像が表示されていると判定すると(S404:YES)、タッチ位置の補正を行わない(S403)。
 実施例4において、曲面領域4aに重なるディスプレイ3の領域に、オブジェクト画像が表示されている場合には、ユーザの顔がキャビネット2の側面方向に存在し、当該ユーザの指がキャビネット2の側面方向から曲面領域4aに接近してきたと推測することもできる。オブジェクト画像が表示されている場合に(S404:YES)、制御部11が、内側へ所定の補正量だけシフトするよう、検出されたタッチ位置を補正するように、タッチ位置補正処理が変更されても良い。
 実施例4によれば、実施例1と同様、曲面領域4aへのタッチの行われ方に応じて、タッチ位置を適正に補正することができる。
 <変更例>
 以上、実施の形態について説明したが、実施の形態は、上記以外に種々の変更が可能である。
 たとえば、上記実施の形態において、タッチ位置の補正量をユーザが調整できても良い。
 図11は、タッチ位置の補正量を設定するための設定画面104が表示されたディスプレイ3を示す図である。
 ユーザによる所定の操作に基づいて、制御部11は、設定画面104をディスプレイ3に表示させる。設定画面104は、「補正量大」、「補正量中」、「補正量小」および「補正量0」の各項目104a、各項目104aに対応するチェックボックス104bおよび決定オブジェクト104cを含む。ユーザは、タッチ位置の補正を希望する場合、チェックボックス104bへのタッチ操作により、大、中、小の程度の異なる3つの補正量から所望の補正量を選択する。ユーザは、タッチ位置の補正を希望しない場合、チェックボックス104bへのタッチ操作により、補正量をゼロとすることを選択する。決定オブジェクト104cへのタッチ操作が行われると、制御部11はチェックボックス104bにチェックマークが記入された補正量を、タッチ位置補正処理で用いられる補正量に設定する。
 上記実施の形態では、携帯電話機1に、内側から外側に向って低くなるよう湾曲する曲面領域4aを両端部に有するタッチパネル4が用いられる。しかしながら、これに限られず、たとえば、図12(a)に示すように、携帯電話機1に、凸湾曲形状の曲面領域を全面に有するタッチパネル4が用いられても良い。図12(b)に示すように、携帯電話機1に、内側から外側に向って高くなるよう湾曲する曲面領域を両端部に有するタッチパネル4が用いられてもよい。さらに、図12(c)に示すように、携帯電話機1に、凹湾曲形状の曲面領域を全面に有するタッチパネル4が用いられても良い。図12(a)および(c)の構成とされた場合には、タッチ位置補正処理において、曲面領域を判定するステップ(S105、S202、S302、S402)が削除される。図12(b)および(c)の構成とされた場合、図6のタッチ位置補正処理のステップS109からS111の処理は変わらないが、最近接位置Xの移動方向が内側から外側へ向かう方向である場合に、キャビネット2の側面方向から指が近づいたと推測されることととなり、最近接位置Xの移動方向が外側から内側へ向かう方向である場合に、キャビネット2の正面方向から指が近づいたと推測されることとなる。さらに、図12(b)および(c)の構成とされた場合、図8のタッチ位置補正処理において、ステップS206の処理とステップS208の処理が入れ替えられ、図9のタッチ位置補正処理のステップS306および図10のタッチ位置補正処理のステップS405では、内側に所定の補正量だけシフトするよう、タッチ位置が補正される。
 さらに、上記実施の形態は、スマートフォン型の携帯電話機に適用されている。しかしながら、これに限らず、上記の実施形態は、ストレート式、折りたたみ式、スライド式等、他のタイプの携帯電話機に適用されても良い。
 さらに、上記実施の形態では、タッチパネル4へ指が近づく方向に応じてタッチ位置の補正が行われたが、指に限らず、スタイラスペンのようにタッチパネル4に対してタッチ位置を指定することができる他のツールが利用された場合にも、そのツールが近づく方向に応じてタッチ位置の補正が行われてよい。タッチパネルに対してタッチ位置を指示することができる指、または上記ツール等は、包括してタッチ位置指示部として表現されてもよい。
 さらに、上記の実施形態は、携帯電話機に限られず、PDA(Personal Digital Assistant)、タブレットPC(Tablet PC)、電子書籍端末、携帯音楽プレーヤ、ポータブルテレビ、ポータブルナビゲーションシステム等の各種の携帯機器に適用可能である。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 (その他の態様)
 本開示に係る携帯機器において、タッチパネルは、指が曲面領域へ近づいた位置と当該位置での指の近づき度合いとを検出する構成とされ得る。この場合、接近方向判定部は、接近方向の判定として、指が曲面領域に近づく過程において指が最も近づいた最近接位置を順次取得することにより最近接位置の動きを判定する。そして、位置補正部は、最近接位置の動きに応じてタッチ位置を補正する。
 このような構成とされた場合、さらに、曲面領域は、タッチパネルの内側から外側に向って低くなるよう湾曲した領域とされ得る。この場合、接近方向判定部は、最近接位置の移動方向を判定する。そして、位置補正部は、接近方向判定部により、移動方向がタッチパネルの内側から外側への方向であると判定されると、タッチ位置を、外側にシフトさせるよう補正する。
 このような構成とされた場合、さらに、位置補正部は、接近方向判定部により、移動方向がタッチパネルの外側から内側への方向であると判定されると、タッチ位置を、内側にシフトさせるよう補正する構成とされ得る。
 このような構成とされた場合、さらに、接近方向判定部は、最近接位置の移動量を判定する構成とされ得る。この場合、位置補正部は、接近方向判定部により、移動量が所定量より小さいと判定されると、タッチ位置を補正しない。
 本開示に係る携帯機器は、筺体の姿勢を検出する姿勢検出部を、さらに備える構成とされ得る。この場合、接近方向判定部は、接近方向の判定として、姿勢検出部による検出結果に基づいて曲面領域の湾曲方向における筺体の水平面からの傾き角を判定する。そして、位置補正部は、傾き角に応じてタッチ位置を補正する。
 本開示に係る携帯機器は、筺体の正面が向く方向を撮影する撮影部を、さらに備える構成とされ得る。この場合、接近方向判定部は、接近方向の判定として、撮影部により撮影された画像中に顔画像が含まれているか否かを判定する。そして、位置補正部は、顔画像の有無に応じてタッチ位置を補正する。
 本開示に係る携帯機器において、接近方向判定部は、接近方向の判定として、曲面領域が重なるディスプレイの領域に操作対象となるオブジェクト画像が表示されているか否かを判定する構成とされ得る。この場合、位置補正部は、オブジェクト画像の表示の有無に応じてタッチ位置を補正する。
 本開示の第2の態様は、少なくとも一部に曲面領域を有するタッチパネルが検出した指によるタッチ位置を補正するタッチ位置補正方法に関する。本態様に係るタッチ位置補正方法は、タッチ位置が曲面領域内である場合に、指が曲面領域へ近づく接近方向を判定する判定ステップと、接近方向に応じて曲面領域におけるタッチ位置を補正する補正ステップと、を含む。
 本開示の第3の態様は、携帯機器に関する。本態様に係る携帯機器は、筐体の正面に配されたディスプレイと、ディスプレイに重ねられ、指でタッチされたタッチ位置を検出する、少なくとも一部に曲面領域を有するタッチパネルと、タッチ位置が曲面領域内である場合に、指が曲面領域へ近づく接近方向に応じて曲面領域におけるタッチ位置を補正する位置補正部と、を備える。
 2 キャビネット(筺体)、3 ディスプレイ、4 タッチパネル、4a 曲面領域、11 制御部(接近方向判定部、位置補正部)、20 撮影部、21 加速度検出部(姿勢検出部)。

Claims (10)

  1.  筐体の正面に配されたディスプレイと、
     前記ディスプレイに重ねられ、指でタッチされたタッチ位置を検出する、少なくとも一部に曲面領域を有するタッチパネルと、
     前記タッチ位置が前記曲面領域内である場合に、指が前記曲面領域へ近づく接近方向を判定する接近方向判定部と、
     前記接近方向に応じて前記曲面領域における前記タッチ位置を補正する位置補正部と、を備える、携帯機器。
  2.  請求項1に記載の携帯機器において、
     前記タッチパネルは、指が前記曲面領域へ近づいた位置と当該位置での指の近づき度合いとを検出し、
     前記接近方向判定部は、前記接近方向の判定として、指が前記曲面領域に近づく過程において指が最も近づいた最近接位置を順次取得することにより前記最近接位置の動きを判定し、
     前記位置補正部は、前記最近接位置の動きに応じて前記タッチ位置を補正する、携帯機器。
  3.  請求項2に記載の携帯機器において、
     前記曲面領域は、前記タッチパネルの内側から外側に向って低くなるよう湾曲した領域であり、
     前記接近方向判定部は、前記最近接位置の移動方向を判定し、
     前記位置補正部は、前記接近方向判定部により、前記移動方向が前記タッチパネルの内側から外側への方向であると判定されると、前記タッチ位置を、外側にシフトさせるよう補正する、携帯機器。
  4.  請求項3に記載の携帯機器において、
     前記位置補正部は、前記接近方向判定部により、前記移動方向が前記タッチパネルの外側から内側への方向であると判定されると、前記タッチ位置を、内側にシフトさせるよう補正する、携帯機器。
  5.  請求項3に記載の携帯機器において、
     前記接近方向判定部は、前記最近接位置の移動量を判定し、
     前記位置補正部は、前記接近方向判定部により、前記移動量が所定量より小さいと判定されると、前記タッチ位置を補正しない、携帯機器。
  6.  請求項1に記載の携帯機器において、
     前記筺体の姿勢を検出する姿勢検出部を、さらに備え、
     前記接近方向判定部は、前記接近方向の判定として、前記姿勢検出部による検出結果に基づいて前記曲面領域の湾曲方向における前記筺体の水平面からの傾き角を判定し、
     前記位置補正部は、前記傾き角に応じて前記タッチ位置を補正する、携帯機器。
  7.  請求項1に記載の携帯機器において、
     前記筺体の正面が向く方向を撮影する撮影部を、さらに備え、
     前記接近方向判定部は、前記接近方向の判定として、前記撮影部により撮影された画像中に顔画像が含まれているか否かを判定し、
     前記位置補正部は、前記顔画像の有無に応じて前記タッチ位置を補正する、携帯機器。
  8.  請求項1に記載の携帯機器において、
     前記接近方向判定部は、前記接近方向の判定として、前記曲面領域が重なる前記ディスプレイの領域に操作対象となるオブジェクト画像が表示されているか否かを判定し、
     前記位置補正部は、前記オブジェクト画像の表示の有無に応じて前記タッチ位置を補正する、携帯機器。
  9.  少なくとも一部に曲面領域を有するタッチパネルが検出した指によるタッチ位置を補正するタッチ位置補正方法であって、
     前記タッチ位置が前記曲面領域内である場合に、指が前記曲面領域へ近づく接近方向を判定する判定ステップと、
     前記接近方向に応じて前記曲面領域における前記タッチ位置を補正する補正ステップと、を含む、タッチ位置補正方法。
  10.  筐体の正面に配されたディスプレイと、
     前記ディスプレイに重ねられ、指でタッチされたタッチ位置を検出する、少なくとも一部に曲面領域を有するタッチパネルと、
     前記タッチ位置が前記曲面領域内である場合に、指が前記曲面領域へ近づく接近方向に応じて前記曲面領域における前記タッチ位置を補正する位置補正部と、を備える、携帯機器。
PCT/JP2015/052472 2014-01-29 2015-01-29 携帯機器、およびタッチ位置補正方法 WO2015115527A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/222,798 US10162466B2 (en) 2014-01-29 2016-07-28 Portable device and method of modifying touched position

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-014489 2014-01-29
JP2014014489A JP6046064B2 (ja) 2014-01-29 2014-01-29 携帯機器、タッチ位置補正方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/222,798 Continuation US10162466B2 (en) 2014-01-29 2016-07-28 Portable device and method of modifying touched position

Publications (1)

Publication Number Publication Date
WO2015115527A1 true WO2015115527A1 (ja) 2015-08-06

Family

ID=53757098

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/052472 WO2015115527A1 (ja) 2014-01-29 2015-01-29 携帯機器、およびタッチ位置補正方法

Country Status (3)

Country Link
US (1) US10162466B2 (ja)
JP (1) JP6046064B2 (ja)
WO (1) WO2015115527A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351732A (zh) * 2015-11-03 2018-07-31 微软技术许可有限责任公司 柔性多层感测表面
US10955977B2 (en) 2015-11-03 2021-03-23 Microsoft Technology Licensing, Llc Extender object for multi-modal sensing
US11016584B2 (en) 2017-11-10 2021-05-25 Samsung Electronics Co., Ltd. Electronic device having a curved display and control method thereof

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170024124A1 (en) * 2014-04-14 2017-01-26 Sharp Kabushiki Kaisha Input device, and method for controlling input device
CN105607772B (zh) * 2014-11-13 2020-11-03 现代自动车株式会社 触摸输入装置以及包括该装置的车辆
KR101902434B1 (ko) 2014-11-13 2018-10-01 현대자동차주식회사 터치 입력장치 및 이를 포함하는 차량
KR102379635B1 (ko) * 2015-10-12 2022-03-29 삼성전자주식회사 전자 장치 및 이의 제스처 처리 방법
JP6559045B2 (ja) * 2015-10-29 2019-08-14 キヤノン株式会社 情報処理装置、方法、コンピュータプログラム及び記憶媒体
US10732759B2 (en) * 2016-06-30 2020-08-04 Microsoft Technology Licensing, Llc Pre-touch sensing for mobile interaction
US20180239509A1 (en) * 2017-02-20 2018-08-23 Microsoft Technology Licensing, Llc Pre-interaction context associated with gesture and touch interactions
KR101975326B1 (ko) * 2017-12-13 2019-05-07 (주)아바비젼 광학 터치 보정 방법 및 이를 이용한 시스템
KR101986660B1 (ko) * 2017-12-13 2019-06-07 (주)아바비젼 터치 센서가 구비된 곡면 디스플레이 장치
US11644926B2 (en) * 2021-01-04 2023-05-09 Cirque Corporation Changing a proximity value associated with a capacitance sensor
WO2024019311A1 (ko) * 2022-07-22 2024-01-25 삼성전자주식회사 디스플레이 패널 상의 외부 객체의 접촉을 처리하는 전자 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6429922A (en) * 1987-07-24 1989-01-31 Brother Ind Ltd Detector for input of fluoroscopic touch panel
JP2003280807A (ja) * 2002-03-26 2003-10-02 Polymatech Co Ltd タッチパッド装置
JP2011248847A (ja) * 2010-05-31 2011-12-08 Panasonic Corp 入力装置、入力方法、プログラム、及び記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
JP5597583B2 (ja) 2011-03-28 2014-10-01 太陽誘電株式会社 タッチパネル装置及び電子機器
KR20150007910A (ko) * 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR102176575B1 (ko) * 2013-12-30 2020-11-09 삼성전자주식회사 입력을 감지하는 전자 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6429922A (en) * 1987-07-24 1989-01-31 Brother Ind Ltd Detector for input of fluoroscopic touch panel
JP2003280807A (ja) * 2002-03-26 2003-10-02 Polymatech Co Ltd タッチパッド装置
JP2011248847A (ja) * 2010-05-31 2011-12-08 Panasonic Corp 入力装置、入力方法、プログラム、及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351732A (zh) * 2015-11-03 2018-07-31 微软技术许可有限责任公司 柔性多层感测表面
US10955977B2 (en) 2015-11-03 2021-03-23 Microsoft Technology Licensing, Llc Extender object for multi-modal sensing
CN108351732B (zh) * 2015-11-03 2021-04-23 微软技术许可有限责任公司 柔性多层感测表面
US11016584B2 (en) 2017-11-10 2021-05-25 Samsung Electronics Co., Ltd. Electronic device having a curved display and control method thereof

Also Published As

Publication number Publication date
US10162466B2 (en) 2018-12-25
JP6046064B2 (ja) 2016-12-14
JP2015141596A (ja) 2015-08-03
US20160334936A1 (en) 2016-11-17

Similar Documents

Publication Publication Date Title
JP6046064B2 (ja) 携帯機器、タッチ位置補正方法およびプログラム
JP6140773B2 (ja) 電子機器及び電子機器の動作方法
JP4897596B2 (ja) 入力装置、記憶媒体、情報入力方法及び電子機器
JP5865597B2 (ja) 携帯電子機器
WO2013150998A1 (ja) 携帯型電子機器
US10191645B2 (en) Controlling a touch panel display during scrolling operations
EP3291062A1 (en) Method for adjusting photographing focus of mobile terminal through touch control panel and mobile terminal
JP5743847B2 (ja) 携帯端末および低感度領域設定プログラム
US20170068418A1 (en) Electronic apparatus, recording medium, and operation method of electronic apparatus
WO2014208691A1 (ja) 携帯機器、携帯機器の制御方法
JP6381989B2 (ja) 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2012194810A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
US20160077551A1 (en) Portable apparatus and method for controlling portable apparatus
JP6208609B2 (ja) 携帯端末装置、携帯端末装置の制御方法およびプログラム
JP6047048B2 (ja) 携帯機器、タッチパネルの制限領域設定方法およびプログラム
JPWO2019176009A1 (ja) 携帯情報端末
JP5993802B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
US9134806B2 (en) Mobile terminal device, storage medium and display control method
JP6046562B2 (ja) 携帯機器、携帯機器の制御方法およびプログラム
JP6538785B2 (ja) 電子機器、電子機器の制御方法およびプログラム
JP6321387B2 (ja) 携帯機器、携帯機器のタッチ位置検出方法およびプログラム
JP6047066B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6208082B2 (ja) 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2016187105A (ja) 電子機器、電子機器の撮影制御方法、および電子機器の撮影制御プログラム
JP6306345B2 (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15743381

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15743381

Country of ref document: EP

Kind code of ref document: A1