WO2019215915A1 - 入力制御装置、表示入力装置及び入力制御方法 - Google Patents

入力制御装置、表示入力装置及び入力制御方法 Download PDF

Info

Publication number
WO2019215915A1
WO2019215915A1 PCT/JP2018/018339 JP2018018339W WO2019215915A1 WO 2019215915 A1 WO2019215915 A1 WO 2019215915A1 JP 2018018339 W JP2018018339 W JP 2018018339W WO 2019215915 A1 WO2019215915 A1 WO 2019215915A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
input device
finger
input
determination unit
Prior art date
Application number
PCT/JP2018/018339
Other languages
English (en)
French (fr)
Inventor
康明 小網
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/018339 priority Critical patent/WO2019215915A1/ja
Priority to US17/040,148 priority patent/US11175782B2/en
Priority to DE112018007216.9T priority patent/DE112018007216B4/de
Publication of WO2019215915A1 publication Critical patent/WO2019215915A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03548Sliders, in which the moving part moves in a plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • This invention relates to a device for controlling the acceptance of an input operation.
  • Patent Document 1 describes a touch panel device that can change the upper limit value of the number of touch inputs that can be detected even during a touch input operation in a touch panel device that detects a plurality of touch inputs that are simultaneously performed.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide an input control device that can prioritize an input operation using an input device when there is a touch point exceeding an effective upper limit value.
  • An input control device controls reception of an input operation via a touch panel on which an input device that forms a plurality of touch points is placed, and includes the position of the touch point and the capacitance of the touch point.
  • the touch information acquisition unit for acquiring touch information and the touch information are used to determine whether the touch point is due to the finger or the input device in the contact state, and the finger is brought into the contact state.
  • a touch means determination unit that determines whether or not there is a touch point by a certain input device, and a touch point on the touch panel when the touch means determination unit determines that there is a touch point by an input device that is in contact with a finger. If the total number of touches exceeds the effective upper limit value, an operation determination unit is provided that determines that touch points with fingers exceeding the effective upper limit value are touch invalid and makes touch release. And it is characterized in Rukoto.
  • FIG. 1 is a diagram illustrating a configuration of a display input device according to a first embodiment.
  • FIG. 2A is a perspective view showing an example of the input device
  • FIG. 2B is a plan view showing an example of the input device.
  • 3A and 3B are diagrams for explaining the outline of the processing according to the first embodiment.
  • 4A and 4B are diagrams illustrating a hardware configuration example of the control device according to the first embodiment.
  • 3 is a flowchart illustrating an example of processing by the control device according to the first embodiment.
  • 6A and 6B are diagrams illustrating an example of a software key to which a function for volume adjustment is assigned. 6 is a diagram illustrating a configuration of a display input device according to Embodiment 2.
  • FIG. 2A is a perspective view showing an example of the input device
  • FIG. 2B is a plan view showing an example of the input device.
  • 3A and 3B are diagrams for explaining the outline of the processing according to the first embodiment.
  • FIGS. 8A and 8B are diagrams for explaining the outline of the processing according to the third embodiment.
  • 9A and 9B are diagrams for explaining the outline of the processing according to the fourth embodiment.
  • 10A and 10B are diagrams for explaining the outline of the processing according to the fifth embodiment, and
  • FIG. 10C is a graph showing the magnitude relationship of the capacitance.
  • 11A and 11B are diagrams for explaining the outline of the processing according to the sixth embodiment.
  • 12A, 12B, and 12C are diagrams for explaining the outline of the processing according to the seventh embodiment.
  • 18 is a flowchart illustrating an example of processing by a control device according to a seventh embodiment.
  • 14A and 14B are diagrams for explaining the outline of the processing according to the eighth embodiment.
  • FIG. 1 is a diagram illustrating a configuration of a display input device 10 according to the first embodiment.
  • FIG. 1 also shows an input device 1 used for the display input device 10.
  • the display input device 10 includes a touch panel 2, a control device 3, and a display 4.
  • the touch panel 2, the control device 3, and the display 4 may be integrated as the display input device 10 or may function as the display input device 10 by being connected to each other so that they can communicate with each other.
  • the display input device 10 is mounted on a vehicle, for example.
  • the display input device 10 is operated by a user to display, for example, a map image for navigation.
  • FIG. 2A is a perspective view illustrating an example of the input device 1.
  • the input device 1 is shown as being placed on the touch panel 2.
  • FIG. 2B is a plan view illustrating an example of the input device 1.
  • the input device 1 has a conductive portion that comes into contact with the user's finger when the user places his / her hand on the input device 1.
  • the part includes a substantially cylindrical outer peripheral conductive portion 11.
  • a substantially annular resin bottom plate 12 is provided in one of the two openings in the outer peripheral conductive portion 11.
  • the input device 1 has a plurality of conductor columns 13 housed in the outer peripheral conductive portion 11. Each of the conductor pillars 13 is placed substantially perpendicular to the bottom plate 12.
  • 2A and 2B show an example in which three conductor pillars 13 are arranged at positions corresponding to the vertices of an equilateral triangle. Each of the conductor columns 13 is electrically connected to the outer peripheral conductive portion 11.
  • a touch point is formed at each position where the conductor pillar 13 is present. That is, as shown in FIGS. 2A and 2B, when there are three conductor pillars 13, the input device 1 forms three touch points on the touch panel 2.
  • An input operation using the input device 1 by the user is converted into the positions of the plurality of touch points and input to the display input device 10.
  • the user can handle the input device 1 like a knob, and can rotate the input device 1 around its axis 14 on the touch panel 2. For example, the user rotates the input device 1 around the axis 14 on the touch panel 2 for the purpose of adjusting the volume of the audio. Further, the input device 1 can be attached to and detached from the touch panel 2, and the user can freely move the input device 1 on the touch panel 2.
  • the input device 1 may have a conductive lid (not shown) in FIGS. 2A and 2B.
  • the lid has a substantially annular shape, and closes the opening of the two openings in the outer peripheral conductive portion 11 where the bottom plate 12 is not provided. Even when the input device 1 is placed on the touch panel 2, the touch panel 2 can be seen from the hollow portion 15 provided around the axis 14 of the input device 1.
  • the user's finger or the input device 1 contacts the touch panel 2.
  • the touch panel 2 is a capacitive touch panel.
  • the control device 3 includes an input control device 3A, a function execution unit 34, and a display control unit 35 as shown in FIG.
  • the input control device 3 ⁇ / b> A controls reception of input operations via the touch panel 2.
  • the input control device 3 ⁇ / b> A includes a touch information acquisition unit 31, a touch means determination unit 32, and an operation determination unit 33.
  • the touch information acquisition unit 31 acquires the touch information by detecting the position of the touch point, the capacitance of the touch point, the number of touch points, the touched order, the gesture, and the like. .
  • the position of the touch point indicates coordinates on the touch panel.
  • the gesture is a state of continuous movement of the touch point, such as flick or swipe.
  • the touch information is information including the position of the touch point, the capacitance of the touch point, the number of touch points, the touched order, and the gesture. Note that, for example, the number of touch points is obviously determined depending on how many pieces of touch point position information is present. Therefore, the number of touch points may not be included in the touch information.
  • the touch information acquisition unit 31 outputs the acquired touch information to the touch means determination unit 32 and the operation determination unit 33.
  • the touch means determination unit 32 uses the touch information output from the touch information acquisition unit 31 to determine whether the touch point is due to a finger or due to the input device 1 in a contact state. Moreover, the touch means determination part 32 can determine whether there is a touch point by the input device 1 in which the finger is in contact with the determination. The touch means determination unit 32 may also determine whether the touch point is due to the input device 1 in which the finger is in a non-contact state.
  • the capacitance When the touch point is a finger, that is, when the user directly touches the touch panel 2 with a finger, the capacitance is defined as capacitance C1.
  • the capacitance when the touch point is based on the input device 1 in which the finger is in contact, that is, when the user puts his / her hand on the input device 1 on the touch panel 2, the capacitance is defined as capacitance C2.
  • the touch point is due to the input device 1 in which the finger is in a non-contact state, that is, the capacitance when the input device 1 is on the touch panel 2 but the user does not place his / her hand on the input device 1.
  • the capacitance is C3.
  • the capacitances C1, C2, and C3 have a relationship that the capacitance C1 is the largest and the capacitance C3 is the smallest. Therefore, the touch means determination unit 32 is set by setting the first threshold that can distinguish between the capacitance C1 and the capacitance C2 and the second threshold that can identify the capacitance C2 and the capacitance C3. It is possible to determine by what means the touch point is.
  • the touch means determination unit 32 sends, to the operation determination unit 33, the determination result of what means the touch point is based on and the determination result of whether there is a touch point by the input device 1 in which the finger is in contact. Output.
  • the operation determination unit 33 outputs the touch information output by the touch information acquisition unit 31 to the function execution unit 34.
  • the operation determination unit 33 is a case where the touch means determination unit 32 determines that there is a touch point by the input device 1 in contact with the finger, and the total number of touch points on the touch panel 2 has an effective upper limit value. When it exceeds, it determines with some touch points being touch invalid, and is set as touch release. At this time, the operation determination unit 33 determines that the touch points by the fingers exceeding the total number of touch points with respect to the effective upper limit value are touch invalid and sets the touch release.
  • the effective upper limit value is an upper limit value of the number of touches that can be recognized as an effective touch, for example, set in consideration of the processing capability of the display input device 10.
  • the touch point is reflected in the processing in the function execution unit 34.
  • the touch point is notified to the function execution unit 34 as a release target, and is reflected in the processing in the function execution unit 34.
  • the function execution unit 34 is prevented from recognizing that the touch point is in a state of being pressed down and performing processing. .
  • the operation determination unit 33 does not output the touch information about the touch point that is invalidated to the touch to the function execution unit 34, and the function execution unit 34 recognizes the touch point at which the touch information no longer comes and the touch point is touch released. It may be determined that it has been performed and reflected in the processing.
  • FIG. 3A and 3B are diagrams for explaining an overview of processing by the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33.
  • FIG. 3A when the user places his / her hand on the input device 1 with the touch points T1 to T4 by the finger, only the touch point T5 is first detected among the touch points T5 to T7 formed by the input device 1. Touch enabled.
  • the touch point T5 is determined by the touch means determination unit 32 to be due to the input device 1 in which the finger is in contact.
  • the input device 1 transmits a user's input operation by a plurality of touch points T5 to T7 in the example shown in FIGS. 3A and 3B.
  • the operation determination unit 33 determines that the touch points T3 and T4 are touch invalid and sets the touch release. As a result, as shown in FIG. 3B, all the touch points T5 to T7 formed by the input device 1 are detected and the touch becomes valid, and an input operation using the input device 1 is accepted.
  • the function execution unit 34 performs processing using the touch information output by the operation determination unit 33.
  • the function execution unit 34 performs, for example, audio volume adjustment, air conditioner temperature adjustment, display image enlargement ratio setting, and the like.
  • the function execution unit 34 notifies the display control unit 35 of the performed processing.
  • the display control unit 35 updates the display image on the display 4 according to the processing performed by the function execution unit 34. For example, when the function execution unit 34 adjusts the audio volume, the display control unit 35 causes the display 4 to display an image indicating the adjusted volume.
  • the display 4 is controlled by the display control unit 35 to display an image.
  • a touch panel 2 is overlaid on the display 4.
  • the display 4 is, for example, a liquid crystal display.
  • FIGS. 4A and 4B also show the input device 1, the touch panel 2, and the display 4.
  • the function of each part of the touch information acquisition part 31, the touch means determination part 32, the operation determination part 33, the function execution part 34, and the display control part 35 of the control apparatus 3 is implement
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in a memory.
  • the CPU is also called a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, or a DSP (Digital Signal Processor).
  • FIG. 4A illustrates a case where the functions of the touch information acquisition unit 31, the touch unit determination unit 32, the operation determination unit 33, the function execution unit 34, and the display control unit 35 are realized by the processing circuit 100 that is dedicated hardware. It is a figure which shows the hardware structural example.
  • the processing circuit 100 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array), or a combination thereof. To do.
  • the functions of the touch information acquisition unit 31, the touch means determination unit 32, the operation determination unit 33, the function execution unit 34, and the display control unit 35 may be realized by combining separate processing circuits 100, or the functions of the respective units. May be realized by one processing circuit 100.
  • the functions of the touch information acquisition unit 31, the touch means determination unit 32, the operation determination unit 33, the function execution unit 34, and the display control unit 35 are realized by the CPU 102 that executes a program stored in the memory 101. It is a figure which shows the hardware structural example in a case. In this case, the functions of the touch information acquisition unit 31, touch means determination unit 32, operation determination unit 33, function execution unit 34, and display control unit 35 are realized by software, firmware, or a combination of software and firmware. The Software and firmware are described as programs and stored in the memory 101.
  • the CPU 102 reads out and executes the program stored in the memory 101, thereby realizing the functions of the touch information acquisition unit 31, the touch means determination unit 32, the operation determination unit 33, the function execution unit 34, and the display control unit 35.
  • the control device 3 has a memory 101 for storing a program or the like in which the processing of steps ST1 to ST10 shown in the flowchart of FIG.
  • these programs cause the computer to execute the procedures or methods of the touch information acquisition unit 31, the touch means determination unit 32, the operation determination unit 33, the function execution unit 34, and the display control unit 35.
  • the memory 101 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM) or an EEPROM (Electrically Erasable Programmable Semiconductor ROM).
  • a RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable ROM) or an EEPROM (Electrically Erasable Programmable Semiconductor ROM).
  • EPROM Erasable Programmable ROM
  • EEPROM Electrical Erasable Programmable Semiconductor ROM
  • a part is implement
  • the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33 have their functions implemented by a processing circuit as dedicated hardware, and the function execution unit 34 and the display control unit 35 have a processing circuit that is a memory. The function can be realized by reading out and executing the program stored in.
  • the processing circuit is configured by each of the touch information acquisition unit 31, the touch unit determination unit 32, the operation determination unit 33, the function execution unit 34, and the display control unit 35 by hardware, software, firmware, or a combination thereof.
  • the function can be realized.
  • the touch information acquisition unit 31 determines whether the touch panel 2 is touched (step ST1). When being touched, the touch panel 2 notifies the touch information acquisition unit 31 to that effect.
  • the touch information acquisition unit 31 receives a notification from the touch panel 2 and determines whether the touch panel 2 is touched.
  • step ST1; NO When the touch panel 2 is not touched (step ST1; NO), the control device 3 ends the process.
  • the touch information acquisition unit 31 acquires the touch information by detecting the position of the touch point or the like (step ST2).
  • the touch information acquisition unit 31 outputs the acquired touch information to the touch means determination unit 32 and the operation determination unit 33.
  • the touch means determination unit 32 uses the touch information output by the touch information acquisition unit 31 to determine what means the touch point is from, and the input device in which the finger is in a contact state. It is determined whether there is a touch point by 1 (step ST3).
  • step ST3 When there is no touch point by the input device 1 in which the finger is in contact (step ST3; NO), the operation determination unit 33 outputs the touch information output by the touch information acquisition unit 31 to the function execution unit 34 as it is. Then, the function execution unit 34 executes a process intended by the touch operation indicated by the touch information (step ST4). Subsequently, the display control unit 35 updates the display image on the display 4 in accordance with the processing performed by the function execution unit 34 (step ST5).
  • the operation determination unit 33 uses the input device 1 to touch the touch point by the input device 1 in which the finger is in contact. It is determined whether the necessary number of input operations are detected (step ST6).
  • the required number of input operations that can be performed using the input device 1 corresponds to touch points that the input device 1 forms on the touch panel 2. For example, in the example shown in FIGS. 3A and 3B, the required number is 3. Further, it is assumed that the touch information acquisition unit 31 detects the position of the touch point only up to the same number as the effective upper limit value.
  • the touch information acquisition unit 31 detects the position and the like only up to five touch points in step ST2, and even if the sixth touch point appears, the sixth touch point appears.
  • the touch point is removed from the detection target such as the position.
  • step ST6 When the required number of touch points by the input device 1 in contact with the finger are detected (step ST6; YES), the operation determination unit 33 performs the function of the touch information output by the touch information acquisition unit 31 as it is. To the unit 34. Then, the function execution part 34 performs the process which the operation added to the input device 1 by the user intends (step ST7). Subsequently, the display control unit 35 updates the display image on the display 4 in accordance with the processing performed by the function execution unit 34 (step ST8).
  • step ST6 when the necessary number of touch points by the input device 1 in contact with the finger has not been detected (step ST6; NO), the operation determination unit 33 is the same as the number of touch points of the input device 1 that have not been detected. Then, the touch point by the finger to be touch released is selected (step ST9). Subsequently, the operation determination unit 33 determines that the touch point by the finger selected in step ST9 is invalid, and sets the touch release (step ST10). The touch point determined as the touch release in step ST10 is notified from the operation determination unit 33 to the function execution unit 34.
  • the touch point determined to be the touch release in step ST10 is notified from the operation determination unit 33 to the touch information acquisition unit 31.
  • the flowchart in FIG. 5 is performed periodically.
  • the touch information acquisition unit 31 removes the touch point that has been touch released in step ST10 from the detection target such as the position. Therefore, the necessary number of touch points by the input device 1 in contact with the finger are detected.
  • an input operation using the input device 1 is accepted with priority.
  • the display input device 10 is mounted on a vehicle, and the audio volume is maximum and the sound is in an explosive state.
  • the driver who is a user cannot concentrate on driving because of the volume.
  • the function for volume adjustment is assigned to the software key by the touch panel, and considering the possibility that the volume cannot be adjusted with the software key due to the effective upper limit value, as a hardware key for volume adjustment Devices having buttons are known.
  • the button is often provided on the front panel of the in-vehicle device.
  • the volume adjustment by the hardware key of the input device 1 is prioritized even when there is a touch point exceeding the effective upper limit value.
  • FIGS. 6A and 6B As a software key to which a volume adjusting function is assigned as a software key by a touch panel, for example, icons as shown in FIGS. 6A and 6B are known.
  • icons as shown in FIGS. 6A and 6B are known.
  • the software keys as shown in FIGS. 6A and 6B if the user does not operate while looking at the icon, a touch of a place other than the icon, a displacement of the adjustment pin P in the sliding direction, or the like occurs. However, the user cannot watch the icon while driving and is difficult to operate the software key.
  • the display input device 10 according to the first embodiment can be operated by the input device 1, the software keys as shown in FIGS. 6A and 6B can be eliminated, and the degree of freedom of display layout can be improved.
  • the input operation using the input device 1 is prioritized over the input operation with a finger, so that misunderstanding of the user, failure of the display 4 and failure of the input device 1 can be prevented. it can.
  • the touch information acquisition unit 31 detects the position of the touch point only up to the same number as the effective upper limit value.
  • the touch information acquisition unit 31 may acquire the touch information by detecting the position and the like for all touch points on the touch panel 2.
  • the touch means determination unit 32 determines what means is used for all touch points on the touch panel 2.
  • the operation determination unit 33 extracts from the touch information acquired by the touch information acquisition unit 31 all the touch points by the input device 1 in contact with the finger and the touch points by the finger within the range of the effective upper limit value. For all other touch points, it is determined that the touch is invalid and a process for touch release is performed.
  • the input operation using the input device 1 can be prioritized.
  • FIG. FIG. 7 is a diagram illustrating a configuration of the display input device 10 according to the second embodiment.
  • the display input device 10 according to the second embodiment is different from the display input device 10 according to the first embodiment in that the condition acquisition unit 36 is provided.
  • Components having the same or corresponding functions as those already described in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified in the second embodiment.
  • the condition acquisition unit 36 acquires a condition related to a touch point by a finger that is determined to be touch invalid and is used as a touch release.
  • condition the “condition relating to the touch point by the finger that is determined to be touch invalid and is touch-released” is simply referred to as “condition”.
  • the conditions are stored in advance in a storage unit (not shown) and read by the condition acquisition unit 36, for example.
  • the condition acquisition unit 36 outputs the acquired condition to the operation determination unit 33. It should be noted that there are a plurality of conditions that can be stored in a storage unit (not shown), and it is preferable that the user can select and set the conditions. Specific contents of the conditions will be described in Embodiments 3 to 6 described later.
  • the operation determination unit 33 determines that some touch points are invalid as a touch and needs to be touch-released, and uses the conditions output by the operation determination unit 33 to select a touch point to be a touch release.
  • the condition acquisition unit 36 is realized by the same hardware configuration as that described in the first embodiment with reference to FIGS. 3A and 3B.
  • the touch points that are determined as touch invalid and are touch-released under conditions that suit the user's preference are set. You can choose.
  • Embodiment 3 a case will be described in which the condition acquired by the condition acquisition unit 36 is determined to be a touch invalid in order from the touch point touched first and is set as a touch release.
  • FIG. 7 is used for the configuration of the display input device 10 according to the third embodiment.
  • 8A and 8B are diagrams for explaining an overview of processing by the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33 according to the third embodiment.
  • An example of a case where the effective upper limit value is 5, that is, the touch of the display input device 10 is effective up to 5 points will be described.
  • the touch point T5 is determined by the touch means determination unit 32 to be due to the input device 1 in which the finger is in contact. Then, in order to receive an input operation using the input device 1, the operation determination unit 33 determines that the touch points touched first among the touch points T1 to T4, that is, the touch points T1 and T2, are invalid. Touch release. As a result, as shown in FIG. 8B, all the touch points T5 to T7 formed by the input device 1 are detected and the touch becomes valid, and an input operation using the input device 1 is accepted.
  • the touch is performed immediately before that. Touch operation with a finger can be continued.
  • Embodiment 4 FIG.
  • the condition acquired by the condition acquisition unit 36 is determined to be touch invalid in order from the touch point touched later and is set as a touch release.
  • the configuration of the display input device 10 according to the fourth embodiment uses FIG. 9A and 9B are diagrams for explaining an overview of processing by the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33 according to the fourth embodiment.
  • An example of a case where the effective upper limit value is 5, that is, the touch of the display input device 10 is effective up to 5 points will be described as an example.
  • the touch point T5 is determined by the touch means determination unit 32 to be due to the input device 1 in which the finger is in contact. Then, in order to accept an input operation using the input device 1, the operation determination unit 33 determines that the touch points touched later among the touch points T1 to T4, that is, the touch points T3 and T4 are invalid, Touch release. As a result, as shown in FIG. 9B, all the touch points T5 to T7 formed by the input device 1 are detected and the touch becomes valid, and an input operation using the input device 1 is accepted.
  • the user touches first. Touch operation with a finger can be continued.
  • Embodiment 5 FIG.
  • the condition acquired by the condition acquisition unit 36 is determined to be a touch invalid in order from a touch point having a low electrostatic capacitance to be a touch release.
  • the configuration of the display input device 10 according to the fifth embodiment uses FIG. 10A and 10B are diagrams for explaining an overview of processing by the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33 according to the fifth embodiment.
  • An example of a case where the effective upper limit value is 5, that is, the touch of the display input device 10 is effective up to 5 points will be described as an example.
  • the touch point T5 is determined by the touch means determination unit 32 to be due to the input device 1 in which the finger is in contact.
  • the operation determination unit 33 determines that the touch points are ineffective from the touch points with the lowest capacitance among the touch points T1 to T4 by the finger, Touch release.
  • the operation determination unit 33 uses the touch information output from the touch information acquisition unit 31 to specify the magnitude relationship between the capacitances of the touch points T1 to T4 as illustrated in FIG. 10C, for example.
  • the operation determination unit 33 determines that the touch points T2 and T3 are invalid as a touch and sets the touch release.
  • FIG. 10B all the touch points T5 to T7 formed by the input device 1 are detected and the touch becomes valid, and an input operation using the input device 1 is accepted.
  • the touch is strongly touched.
  • the operation can be continued. That is, the user can insist on a touch operation with a finger desired to be continued depending on the strength of the touch.
  • FIG. 6 a case will be described in which the condition acquired by the condition acquisition unit 36 is a touch release in order from a touch point at a touch invalid location.
  • the configuration of the display input device 10 according to the sixth embodiment uses FIG. FIGS. 11A and 11B are diagrams for explaining an overview of processing by the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33 according to the sixth embodiment.
  • An example of a case where the effective upper limit value is 5, that is, the touch of the display input device 10 is effective up to 5 points will be described.
  • the touch point T5 is determined by the touch means determination unit 32 to be due to the input device 1 in which the finger is in contact.
  • the operation determination unit 33 determines that the touch points are ineffective from the points in the touch ineffective points among the touch points T1 to T4 by the finger. Release.
  • the touch invalid place refers to a place other than the software keys S1 to S4 shown in FIG. 11A.
  • the operation determination unit 33 may acquire information indicating where the touch invalid place is from the display control unit 35.
  • the operation determination unit 33 determines that the touch points T3 and T4 are invalid, and sets the touch release.
  • FIG. 11B all touch points T5 to T7 formed by the input device 1 are detected and the touch becomes valid, and an input operation using the input device 1 is accepted.
  • Embodiment 7 FIG.
  • a priority instruction operation is applied to the input apparatus 1
  • a touch point by a finger is determined to be invalid and a touch release is described.
  • the configuration of the display input device 10 according to the seventh embodiment uses FIG.
  • the operation determination unit 33 is a case where the touch means determination unit 32 determines that there is a touch point by the input device 1 in contact with the finger, and the total number of touch points on the touch panel 2 exceeds the effective upper limit value. Even if it is, the touch point by the finger is not determined to be invalid until the priority instruction operation is applied to the input device 1.
  • FIG. 12A, 12B, and 12C are diagrams for explaining an overview of processing performed by the touch information acquisition unit 31, the touch unit determination unit 32, and the operation determination unit 33 according to the seventh embodiment.
  • An example of a case where the effective upper limit value is 5, that is, the touch of the display input device 10 is effective up to 5 points will be described.
  • FIG. 12A when the user places his / her hand on the input device 1 with the finger touch points T1 to T4, only the touch point T5 among the touch points T5 to T7 formed by the input device 1 is detected first. Touch enabled.
  • the touch point T5 is determined by the touch means determination unit 32 to be due to the input device 1 in which the finger is in contact. Then, when an operation of shaking the input device 1 on the touch panel 2 is applied to the input device 1 as shown in FIG. It is determined that the touch is invalid and the touch is released.
  • the operation determination unit 33 may determine that the input device 1 has been shaken on the touch panel 2 by monitoring the touch information output by the touch information acquisition unit 31. As a result, as shown in FIG. 12C, all the touch points T5 to T7 formed by the input device 1 are detected and the touch becomes valid, and an input operation using the input device 1 is accepted.
  • the operation of shaking the input device 1 on the touch panel 2 is the priority instruction operation.
  • another operation such as moving the input device 1 to draw a circle on the touch panel 2 may be a priority instruction operation.
  • the user sets in advance which operation is designated as the priority instruction operation.
  • step ST6 the operation determination unit 33 determines whether a priority instruction operation has been applied to the input device 1 (Ste ST70).
  • step ST70 When a priority instruction operation is applied to the input device 1 (step ST70; YES), the process of step ST9 described in the first embodiment is performed. On the other hand, when the priority instruction operation is not applied to the input device 1 (step ST70; NO), the operation determination unit 33 determines that the touch point with the finger is invalid and does not release the touch, and the process ends.
  • the input operation using the input device 1 is prioritized only when the user applies a priority instruction operation to the input device 1. Therefore, when the user accidentally places his / her hand on the input device 1, it is possible to prevent the touch point by the finger from being touch-released.
  • Embodiment 8 FIG. In the eighth embodiment, a mode in which an upper limit is set for the number of touches that are valid for a touch point with a finger will be described.
  • the configuration of the display input device 10 according to the eighth embodiment uses FIG.
  • 14A and 14B are diagrams for explaining an overview of processing by the touch information acquisition unit 31, the touch means determination unit 32, and the operation determination unit 33 according to the eighth embodiment.
  • An example of a case where the effective upper limit value is 8, that is, the touch of the display input device 10 is effective up to 8 points will be described as an example.
  • the touch point by the finger is set to enable touching up to five points.
  • the setting of how many touch points the finger touches can be enabled may be changeable by the user.
  • the touch information acquisition unit 31 detects the touch points T1 to T7. At this time, the touch points T1 to T7 are determined by the touch means determination unit 32 to be due to a finger.
  • the operation determination unit 33 makes only five touches valid among the touch points T1 to T7, and does not make touch valid for the remaining two points. That is, the remaining two points are not invalidated by touching, but are not reflected in the processing by the function execution unit 34 and are in a so-called unused state.
  • the operation determination unit for two touch points that are not touch-enabled among the touch points T1 to T7 by the finger. 33 disables touch. As a result, as shown in FIG. 14B, all the touch points T8 to T10 formed by the input device 1 are detected and the touch becomes valid, and the input operation using the input device 1 is accepted.
  • the effective upper limit value (8 in FIGS. 14A and 14B) is obtained by subtracting the required number of touch points (3 in FIGS. 14A and 14B) by the input device 1 as the touch effective finger.
  • the upper limit of the touch point a number less than the number obtained by subtracting the required number of touch points by the input device 1 from the effective upper limit value may be set as the upper limit of the touch points by the finger that makes the touch effective.
  • the second input device 1 is further placed on the touch panel 2, and an input operation using the second input device 1 is designated as described in the first to sixth embodiments. It is possible to use a plurality of input devices 1 in preference to the input operation by.
  • the operation determination unit 33 makes the touch point of the finger touch effective only by subtracting the number of touch points formed by the input device 1 from the effective upper limit value, and the touch means determination unit 32 puts the finger in the contact state.
  • the touch point that is not touch-enabled among touch points by a finger may be invalidated.
  • the input operation using the input device 1 can be prioritized.
  • a touch point by a finger that becomes invalid when an input operation using the input device 1 is prioritized is not treated as valid in the first place. Therefore, even if the input operation using the input device 1 is prioritized, the finger touch operation that has been performed so far is continued without any influence.
  • the input control device can prioritize the input operation using the input device when there is a touch point exceeding the effective upper limit value. Suitable for use in an input device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

タッチ情報取得部(31)は、タッチ点の位置及びタッチ点の静電容量を含むタッチ情報を取得する。タッチ手段判定部(32)は、タッチ情報を用いて、タッチ点が指によるものであるか、指が接触状態にある入力装置(1)によるものであるかを判定して、指が接触状態にある入力装置(1)によるタッチ点が有るかを判定する。操作判定部(33)は、指が接触状態にある入力装置(1)によるタッチ点が有ると判定された場合であって、タッチパネル(2)上のタッチ点の総数が有効上限値を超えている場合、有効上限値に対するタッチ点の総数の超過分の指によるタッチ点をタッチ無効と判定し、タッチリリースとする。

Description

入力制御装置、表示入力装置及び入力制御方法
 この発明は、入力操作の受け付けを制御する装置に関するものである。
 デザイン又は操作性の観点から、タッチパネルとメカニカルスイッチとを共存させたいという要望がある。そのようなメカニカルスイッチとして、タッチパネル上に置かれるノブのような入力装置が知られている。ユーザが当該入力装置を操作した場合、ユーザによる操作は、当該入力装置とタッチパネルとの複数点での接触として検出される。
 タッチパネルを用いた装置においては、処理能力等の要因により、有効なタッチとして認識可能なタッチ数に上限が設けられている。したがって、指によるタッチ点が多数有る場合、入力装置によるタッチ点がタッチ有効とは認識されず、ユーザは、入力装置を使っての入力操作を行えないことがある。例えば特許文献1には、同時にされた複数のタッチ入力を検出するタッチパネル装置において、検出可能なタッチ入力数の上限値をタッチ入力操作時においても変更できるようにしたタッチパネル装置が記載されている。
特開2011―113221号公報
 上記特許文献1のように検出可能なタッチ入力数の上限値が変更可能であったとしても、変更後の上限値に対して指によるタッチ点と入力装置によるタッチ点との総数が大きくなる場合は、入力装置を使っての入力操作を行えない場合がある。
 この発明は、上記のような課題を解決するためになされたもので、有効上限値を超えるタッチ点が有る場合に、入力装置を使っての入力操作を優先できる入力制御装置を得ることを目的とする。
 この発明に係る入力制御装置は、複数のタッチ点を形成する入力装置が置かれるタッチパネルを介した入力操作の受け付けを制御するものであって、タッチ点の位置及びタッチ点の静電容量を含むタッチ情報を取得するタッチ情報取得部と、タッチ情報を用いて、タッチ点が指によるものであるか、指が接触状態にある入力装置によるものであるかを判定して、指が接触状態にある入力装置によるタッチ点が有るかを判定するタッチ手段判定部と、タッチ手段判定部により指が接触状態にある入力装置によるタッチ点が有ると判定された場合であって、タッチパネル上のタッチ点の総数が有効上限値を超えている場合、有効上限値に対する当該総数の超過分の指によるタッチ点をタッチ無効と判定しタッチリリースとする操作判定部とを備えることを特徴とするものである。
 この発明によれば、有効上限値を超えるタッチ点が有る場合に、入力装置を使っての入力操作を優先することができる。
実施の形態1に係る表示入力装置の構成を示す図である。 図2Aは入力装置の一例を示す斜視図であり、図2Bは入力装置の一例を示す平面図である。 図3A及び図3Bは、実施の形態1の処理の概要を説明するための図である。 図4A及び図4Bは、実施の形態1の制御装置のハードウェア構成例を示す図である。 実施の形態1の制御装置による処理の一例を示すフローチャートである。 図6A及び図6Bは、音量調節用の機能が割り当てられたソフトウェアキーの一例を示す図である。 実施の形態2に係る表示入力装置の構成を示す図である。 図8A及び図8Bは、実施の形態3の処理の概要を説明するための図である。 図9A及び図9Bは、実施の形態4の処理の概要を説明するための図である。 図10A及び図10Bは、実施の形態5の処理の概要を説明するための図であり、図10Cは、静電容量の大小関係を示したグラフである。 図11A及び図11Bは、実施の形態6の処理の概要を説明するための図である。 図12A、図12B及び図12Cは、実施の形態7の処理の概要を説明するための図である。 実施の形態7の制御装置による処理の一例を示すフローチャートである。 図14A及び図14Bは、実施の形態8の処理の概要を説明するための図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1. 
 図1は、実施の形態1に係る表示入力装置10の構成を示す図である。図1には、表示入力装置10に対して使われる入力装置1も示している。表示入力装置10は、タッチパネル2、制御装置3及びディスプレイ4を備える。タッチパネル2、制御装置3及びディスプレイ4は、表示入力装置10として一体になっていてもよいし、それぞれ独立した装置であり互いに通信可能に接続されることで表示入力装置10として機能してもよい。表示入力装置10は、例えば車両に搭載されている。表示入力装置10は、ユーザにより操作されて、例えばナビゲーション用の地図画像等を表示する。
 図2Aは、入力装置1の一例を示す斜視図である。図2Aでは、入力装置1は、タッチパネル2上に置かれた状態で示されている。図2Bは、入力装置1の一例を示す平面図である。
 入力装置1は、ユーザが入力装置1に手を置いたときに、ユーザの指が接触する導電性の部位を有している。当該部位は、略円筒状の外周導電部11を含む。外周導電部11における2つの開口部のうち一方の開口部には、略円環状の樹脂製の底面板12が設けられている。
 入力装置1は、外周導電部11内に収容されている複数の導体柱13を有する。導体柱13のそれぞれは、底面板12に対して略垂直に置かれている。図2A及び図2Bでは、3つの導体柱13が正三角形の各頂点に対応する位置に配置されている例を示している。導体柱13のそれぞれは、外周導電部11と電気的に導通している。
 上記のように構成された入力装置1は、タッチパネル2上に置かれると、導体柱13が有る位置のそれぞれでタッチ点を形成する。つまり、図2A及び図2Bで示したように3つの導体柱13が有る場合、入力装置1は、3つのタッチ点をタッチパネル2に対して形成する。ユーザによる入力装置1を使った入力操作は、これら複数のタッチ点の位置に変換されて表示入力装置10へ入力される。
 ユーザは、入力装置1をノブのように扱うことができ、タッチパネル2上で入力装置1をその軸心14周りに回転させることができる。ユーザは、例えばオーディオの音量調節を目的として、タッチパネル2上で入力装置1をその軸心14周りに回転させる。また、入力装置1は、タッチパネル2に対して着脱可能であるとともに、ユーザは、入力装置1をタッチパネル2上で自在に移動させることができる。
 なお、図2A及び図2Bでは、入力装置1の要部のみ抽出して示している。つまり、入力装置1は、図2A及び図2Bでは不図示の導電性の蓋体を有していてもよい。当該蓋体は、略円環状であり、外周導電部11における2つの開口部のうち底面板12が設けられていない方の開口部を塞ぐ。
 また、入力装置1がタッチパネル2上に置かれても、入力装置1の軸心14の周囲に設けられた中空部15からはタッチパネル2が見えるようになっている。
 タッチパネル2には、ユーザの指又は入力装置1が接触する。タッチパネル2は、静電容量式のタッチパネルである。
 制御装置3は、図1に示すように入力制御装置3A、機能実行部34及び表示制御部35を備える。入力制御装置3Aは、タッチパネル2を介した入力操作の受け付けを制御する。入力制御装置3Aは、タッチ情報取得部31、タッチ手段判定部32及び操作判定部33を備える。
 タッチ情報取得部31は、タッチパネル2がタッチされると、タッチ点の位置、タッチ点の静電容量、タッチ点の数、タッチされた順番及びジェスチャ等を検出することで、タッチ情報を取得する。タッチ点の位置は、タッチパネル上の座標を示している。また、ジェスチャは、フリック又はスワイプ等、タッチ点の連続的な移動の様子である。
 タッチ情報は、タッチ点の位置、タッチ点の静電容量、タッチ点の数、タッチされた順番及びジェスチャ等を含む情報である。なお、例えばタッチ点の位置の情報がいくつあるかで、タッチ点の数はおのずと明らかになるので、タッチ点の数はタッチ情報に含まれていなくても構わない。
 タッチ情報取得部31は、取得したタッチ情報をタッチ手段判定部32及び操作判定部33へ出力する。
 タッチ手段判定部32は、タッチ情報取得部31により出力されたタッチ情報を用いて、タッチ点が指によるものであるか、指が接触状態にある入力装置1によるものであるかを判定する。またタッチ手段判定部32は、この判定を行うことにより、指が接触状態にある入力装置1によるタッチ点が有るかを判定することができる。
 タッチ手段判定部32はさらに、タッチ点が、指が非接触状態にある入力装置1によるものであるかをも判定してもよい。
 タッチ点が指によるものである場合、つまり、ユーザが指で直接タッチパネル2をタッチしている場合の静電容量を静電容量C1とする。また、タッチ点が指が接触状態にある入力装置1によるものである場合、つまり、ユーザがタッチパネル2上の入力装置1に手を置いている場合の静電容量を静電容量C2とする。また、タッチ点が指が非接触状態にある入力装置1によるものである場合、つまり、タッチパネル2上に入力装置1はあるがユーザが入力装置1に手を置いていない場合の静電容量を静電容量C3とする。静電容量C1,C2,C3は、静電容量C1が一番大きく、静電容量C3が一番小さくなるという関係性を有する。したがって、静電容量C1と静電容量C2を識別可能な第1閾値、及び、静電容量C2と静電容量C3を識別可能な第2閾値が設定されることで、タッチ手段判定部32は、タッチ点がどのような手段によるものであるかを判定することができる。
 タッチ手段判定部32は、タッチ点がどのような手段によるものであるかの判定結果と、指が接触状態にある入力装置1によるタッチ点が有るかの判定結果とを、操作判定部33へ出力する。
 操作判定部33は、タッチ情報取得部31により出力されたタッチ情報を機能実行部34へ出力する。
 また、操作判定部33は、タッチ手段判定部32により指が接触状態にある入力装置1によるタッチ点が有ると判定された場合であって、タッチパネル2上のタッチ点の総数が有効上限値を超えている場合、いくつかのタッチ点をタッチ無効と判定し、タッチリリースとする。このとき、操作判定部33は、有効上限値に対するタッチ点の総数の超過分の指によるタッチ点を、タッチ無効と判定し、タッチリリースとする。有効上限値は、例えば表示入力装置10の処理能力等を考慮して設定された、有効なタッチとして認識可能なタッチ数の上限値である。タッチ点がタッチ有効であれば、そのタッチ点は機能実行部34での処理に反映される。一方、タッチ点がタッチ無効とされると、そのタッチ点はリリース対象として機能実行部34へ通知され、機能実行部34での処理に反映される。タッチリリースとされたタッチ点について機能実行部34への通知がされることにより、当該タッチ点が押下されっぱなしの状態にあると機能実行部34が認識して処理を行ってしまうのを防ぐ。
 なお、操作判定部33はタッチ無効としたタッチ点についてのタッチ情報は機能実行部34へ出力せず、機能実行部34はタッチ情報が来なくなったタッチ点を認識して当該タッチ点はタッチリリースされたと判定し、処理に反映してもよい。
 図3A及び図3Bは、タッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は5、つまり、表示入力装置10では5点までタッチが有効となる場合を例に説明する。
 図3Aのように、指によるタッチ点T1~T4が有る状態で、ユーザが入力装置1に手を置くと、入力装置1が形成するタッチ点T5~T7のうち、タッチ点T5のみがまず検出されてタッチ有効になる。
 このとき、タッチ点T5は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 既に述べたように、入力装置1は複数、図3A及び図3Bに示す例では3つのタッチ点T5~T7によりユーザの入力操作を伝えるものである。操作判定部33は、入力装置1を使っての入力操作を受け付けるために、タッチ点T3及びT4をタッチ無効と判定し、タッチリリースとする。これにより、図3Bに示すように、入力装置1が形成するタッチ点T5~T7全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受け付けられることになる。
 機能実行部34は、操作判定部33により出力されたタッチ情報を用いて、処理を行う。機能実行部34は、例えば、オーディオの音量調節、エアコン温度の調節、又は、表示画像の拡大率の設定等を行う。機能実行部34は、行った処理について表示制御部35へ通知する。
 表示制御部35は、機能実行部34が行った処理に応じてディスプレイ4の表示画像を更新する。例えば、機能実行部34がオーディオの音量調節を行った場合、表示制御部35は、調整後の音量を示す画像をディスプレイ4に表示させる。
 ディスプレイ4は、表示制御部35に制御されて画像を表示する。ディスプレイ4には、タッチパネル2が重ねられている。ディスプレイ4は、例えば液晶ディスプレイである。
 次に、制御装置3のハードウェア構成例について、図4A及び図4Bを用いて説明する。図4A及び図4Bには、入力装置1、タッチパネル2及びディスプレイ4についても示している。
 制御装置3のタッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能は、処理回路により実現される。当該処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ又はDSP(Digital Signal Processor)とも呼ばれる。
 図4Aは、タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能を、専用のハードウェアである処理回路100で実現した場合のハードウェア構成例を示す図である。処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)若しくはFPGA(Field Programmable Gate Array)、又は、これらを組み合わせたものが該当する。タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能を別個の処理回路100を組み合わせて実現してもよいし、当該各部の機能を1つの処理回路100で実現してもよい。
 図4Bは、タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能を、メモリ101に格納されるプログラムを実行するCPU102で実現した場合のハードウェア構成例を示す図である。この場合、タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組合せにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ101に格納される。CPU102は、メモリ101に格納されたプログラムを読み出して実行することにより、タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能を実現する。すなわち、制御装置3は、後述する図5のフローチャートで示すステップST1~ST10の処理が結果的に実行されることになるプログラム等を格納するためのメモリ101を有する。また、これらのプログラムは、タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の手順又は方法をコンピュータに実行させるものであるとも言える。ここで、メモリ101は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)若しくはEEPROM(Electrically Erasable Programmable ROM)等の、不揮発性若しくは揮発性の半導体メモリ、又は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク若しくはDVD(Digital Versatile Disc)等のディスク状の記録媒体等が該当する。
 なお、タッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、タッチ情報取得部31、タッチ手段判定部32及び操作判定部33については専用のハードウェアとしての処理回路でその機能を実現し、機能実行部34及び表示制御部35については処理回路がメモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組合せによって、上記のタッチ情報取得部31、タッチ手段判定部32、操作判定部33、機能実行部34及び表示制御部35の各部の機能を実現することができる。
 次に、上記のように構成された制御装置3による処理の一例について、図5に示すフローチャートを用いて説明する。
 タッチ情報取得部31は、タッチパネル2がタッチされているかを判定する(ステップST1)。タッチパネル2は、タッチされている場合にその旨をタッチ情報取得部31へ通知する。タッチ情報取得部31は、タッチパネル2からの通知を受けてタッチパネル2がタッチされているかを判定する。
 タッチパネル2がタッチされていない場合(ステップST1;NO)、制御装置3は処理を終了する。
 一方、タッチパネル2がタッチされている場合(ステップST1;YES)、タッチ情報取得部31は、タッチ点の位置等を検出してタッチ情報を取得する(ステップST2)。タッチ情報取得部31は、取得したタッチ情報をタッチ手段判定部32及び操作判定部33へ出力する。
 続いて、タッチ手段判定部32は、タッチ情報取得部31により出力されたタッチ情報を用いて、タッチ点がどのような手段によるものであるかを判定するとともに、指が接触状態にある入力装置1によるタッチ点が有るかを判定する(ステップST3)。
 指が接触状態にある入力装置1によるタッチ点が無い場合(ステップST3;NO)、操作判定部33は、タッチ情報取得部31により出力されたタッチ情報をそのまま機能実行部34へ出力する。すると、機能実行部34は、当該タッチ情報が示すタッチ操作が意図する処理を実行する(ステップST4)。
 続いて、表示制御部35は、機能実行部34が行った処理に応じてディスプレイ4の表示画像を更新する(ステップST5)。
 一方、指が接触状態にある入力装置1によるタッチ点が有る場合(ステップST3;YES)、操作判定部33は、指が接触状態にある入力装置1によるタッチ点が、入力装置1を使って入力操作が可能となる必要数分検出されているかを判定する(ステップST6)。入力装置1を使って入力操作が可能となる必要数分(以下、単に「必要数分」と言う)は、入力装置1がタッチパネル2に対して形成するタッチ点に相当する。例えば図3A及び図3Bに示した例では、必要数分は、3となる。また、タッチ情報取得部31は、有効上限値と同数までしかタッチ点の位置等を検出しないものとする。つまり、有効上限値が5であると、ステップST2においてタッチ情報取得部31は、5つのタッチ点までしか位置等を検出せず、仮に6つ目のタッチ点が出現したとしても当該6つ目のタッチ点は位置等の検出対象から外す。
 指が接触状態にある入力装置1によるタッチ点が、必要数分検出されている場合(ステップST6;YES)、操作判定部33は、タッチ情報取得部31により出力されたタッチ情報をそのまま機能実行部34へ出力する。すると、機能実行部34は、ユーザによって入力装置1に加えられた操作が意図する処理を実行する(ステップST7)。
 続いて、表示制御部35は、機能実行部34が行った処理に応じてディスプレイ4の表示画像を更新する(ステップST8)。
 一方、指が接触状態にある入力装置1によるタッチ点が、必要数分検出されていない場合(ステップST6;NO)、操作判定部33は、検出できていない入力装置1のタッチ点の数だけ、タッチリリースとする指によるタッチ点を選択する(ステップST9)。
 続いて、操作判定部33は、ステップST9で選択した指によるタッチ点をタッチ無効と判定し、タッチリリースとする(ステップST10)。ステップST10でタッチリリースとされたタッチ点は、操作判定部33から機能実行部34へ通知される。
 また、ステップST10でタッチリリースとされたタッチ点は、操作判定部33からタッチ情報取得部31へ通知される。図5のフローチャートは周期的に行われているものである。ステップST10の後に処理が再度ステップST1へ戻ると、次のステップST2でタッチ情報取得部31は、ステップST10でタッチリリースとされたタッチ点は位置等の検出対象から外す。したがって、指が接触状態にある入力装置1によるタッチ点が必要数分検出されることになる。
 このようにして、入力装置1を使っての入力操作が、優先して受け付けられる。
 例えば、表示入力装置10が車両に搭載されており、オーディオの音量が最大で爆音状態にあるとする。ユーザである運転手は、音量が原因で運転に集中できない。従来の車載装置として、タッチパネルによるソフトウェアキーに音量調節用の機能を割り当てるとともに、有効上限値ゆえに当該ソフトウェアキーでの音量調節ができなくなる可能性を考慮して、音量調節用のハードウェアキーとしてのボタンを有する装置が知られている。当該ボタンは、車載装置のフロントパネルに設けられることが多い。一方、実施の形態1の表示入力装置10は、入力装置1というハードウェアキーによる音量調節が、有効上限値を超えるタッチ点が有る場合でも優先されるので、有効上限値を考慮してフロントパネル等に音量調節用のボタンを設置するような構成を採用しなくても構わない。
 タッチパネルによるソフトウェアキーとして、音量調節用の機能が割り当てられたソフトウェアキーは、例えば図6A及び図6Bに示すようなアイコンが知られている。ユーザが図6A及び図6Bに示すようなソフトウェアキーを操作する場合、アイコンを見ながら操作しないと、アイコン以外の場所のタッチ、また、調節ピンPのスライド方向のずれ等が生じる。しかし、ユーザは運転中はアイコンの注視ができず、ソフトウェアキーを操作しにくい。一方、実施の形態1の表示入力装置10は、入力装置1による操作が可能なため、図6A及び図6Bに示すようなソフトウェアキーを無くして、表示レイアウトの自由度を向上させることができる。
 また仮に、入力装置1を操作しているのに操作に応じた処理が実行されない場合、ユーザは入力装置1とタッチパネル2との接触不良であると勘違いすることがある。するとユーザは、入力装置1をタッチパネル2に強く押し当てるなどし、ディスプレイ4及び入力装置1の故障につながる。実施の形態1の表示入力装置10では、入力装置1を使っての入力操作が指による入力操作よりも優先されるので、ユーザの勘違い、ディスプレイ4の故障及び入力装置1の故障を防ぐことができる。
 なお、上記では、タッチ情報取得部31が有効上限値と同数までしかタッチ点の位置等を検出しないものとした。しかしながら、タッチ情報取得部31は、タッチパネル2上のタッチ点全てについて、位置等を検出してタッチ情報を取得してもよい。この場合、タッチ手段判定部32はタッチパネル2上のタッチ点全てについてどのような手段によるものかを判定する。そして操作判定部33は、タッチ情報取得部31により取得されたタッチ情報の中から、指が接触状態にある入力装置1によるタッチ点全てと指によるタッチ点とを有効上限値の範囲内で抽出し、それ以外のタッチ点については全てタッチ無効と判定し、タッチリリースとする処理を行う。
 以上のように、この実施の形態1によれば、有効上限値を超えるタッチ点が有る場合に、入力装置1を使っての入力操作を優先することができる。
実施の形態2.
 図7は、実施の形態2に係る表示入力装置10の構成を示す図である。
 実施の形態2に係る表示入力装置10は、条件取得部36を備えている点で、実施の形態1に係る表示入力装置10と異なる。実施の形態1で既に説明した構成と同一又は相当する機能を有する構成については、同一の符号を付し、実施の形態2ではその説明を省略又は簡略化する。
 条件取得部36は、タッチ無効と判定しタッチリリースとする指によるタッチ点に関する条件を取得する。以下では、「タッチ無効と判定しタッチリリースとする指によるタッチ点に関する条件」を単に「条件」と言う。条件は、例えば、不図示の記憶部に予め保存されており、条件取得部36により読み出される。条件取得部36は、取得した条件を操作判定部33へ出力する。
 なお、不図示の記憶部に保存可能な条件は複数種類有り、ユーザによる選択及び設定が可能であると好ましい。条件の具体的な内容は、後述の実施の形態3~6にて説明する。
 操作判定部33は、いくつかのタッチ点をタッチ無効と判定、タッチリリースにする必要がある場合、操作判定部33により出力された条件を用いて、タッチリリースとするタッチ点を選択する。
 条件取得部36は、実施の形態1で図3A及び図3Bを用いて説明したのと同様のハードウェア構成で実現される。
 以上のように、この実施の形態2に係る表示入力装置10によれば、実施の形態1の効果に加え、ユーザの好みに合った条件で、タッチ無効と判定しタッチリリースとするタッチ点を選択することができる。
実施の形態3.
 実施の形態3では、条件取得部36が取得した条件が、先にタッチされたタッチ点から順にタッチ無効と判定しタッチリリースとするものである場合について説明する。
 実施の形態3に係る表示入力装置10の構成は、図7を援用する。
 図8A及び図8Bは、実施の形態3のタッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は5、つまり、表示入力装置10では5点までタッチが有効となる場合を例に説明する。
 図8Aのように、指によるタッチ点T1~T4が有る状態で、ユーザが入力装置1に手を置くと、入力装置1が形成するタッチ点T5~T7のうち、タッチ点T5のみがまず検出されてタッチ有効になる。また、指によるタッチ点T1~T4は、タッチ点T1次にタッチ点T2次にタッチ点T3次にタッチ点T4の順でタッチされたものであるとする。
 このとき、タッチ点T5は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 すると、操作判定部33は、入力装置1を使っての入力操作を受け付けるために、タッチ点T1~T4の中で先にタッチされていたタッチ点つまりタッチ点T1及びT2をタッチ無効と判定し、タッチリリースとする。これにより、図8Bに示すように、入力装置1が形成するタッチ点T5~T7全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受け付けられることになる。
 以上のように、この実施の形態3に係る表示入力装置10によれば、実施の形態1の効果に加え、入力装置1を使っての入力操作を優先した際に、その直前にタッチしていた指によるタッチ操作を継続することができる。
実施の形態4.
 実施の形態4では、条件取得部36が取得した条件が、後にタッチされたタッチ点から順にタッチ無効と判定しタッチリリースとするものである場合について説明する。
 実施の形態4に係る表示入力装置10の構成は、図7を援用する。
 図9A及び図9Bは、実施の形態4のタッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は5、つまり、表示入力装置10では5点までタッチが有効となる場合を例に説明する。
 図9Aのように、指によるタッチ点T1~T4が有る状態で、ユーザが入力装置1に手を置くと、入力装置1が形成するタッチ点T5~T7のうち、タッチ点T5のみがまず検出されてタッチ有効になる。また、指によるタッチ点T1~T4は、タッチ点T1次にタッチ点T2次にタッチ点T3次にタッチ点T4の順でタッチされたものであるとする。
 このとき、タッチ点T5は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 すると、操作判定部33は、入力装置1を使っての入力操作を受け付けるために、タッチ点T1~T4の中で後にタッチされていたタッチ点つまりタッチ点T3及びT4をタッチ無効と判定し、タッチリリースとする。これにより、図9Bに示すように、入力装置1が形成するタッチ点T5~T7全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受け付けられることになる。
 以上のように、この実施の形態4に係る表示入力装置10によれば、実施の形態1の効果に加え、入力装置1を使っての入力操作を優先した際に、最初にタッチしていた指によるタッチ操作を継続することができる。
実施の形態5.
 実施の形態5では、条件取得部36が取得した条件が、静電容量の低いタッチ点から順にタッチ無効と判定しタッチリリースとするものである場合について説明する。
 実施の形態5に係る表示入力装置10の構成は、図7を援用する。
 図10A及び図10Bは、実施の形態5のタッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は5、つまり、表示入力装置10では5点までタッチが有効となる場合を例に説明する。
 図10Aのように、指によるタッチ点T1~T4が有る状態で、ユーザが入力装置1に手を置くと、入力装置1が形成するタッチ点T5~T7のうち、タッチ点T5のみがまず検出されてタッチ有効になる。
 このとき、タッチ点T5は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 すると、操作判定部33は、入力装置1を使っての入力操作を受け付けるために、指によるタッチ点T1~T4の中で静電容量の低いタッチ点から順にタッチ点をタッチ無効と判定し、タッチリリースとする。操作判定部33は、タッチ情報取得部31により出力されたタッチ情報を用いて、例えば図10Cに示すようなタッチ点T1~T4の各静電容量の大小関係を特定する。図10Cに示す例の場合、操作判定部33は、タッチ点T2及びT3をタッチ無効と判定し、タッチリリースとする。これにより、図10Bに示すように、入力装置1が形成するタッチ点T5~T7全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受け付けられることになる。
 以上のように、この実施の形態5に係る表示入力装置10によれば、実施の形態1の効果に加え、入力装置1を使っての入力操作を優先した際に、強くタッチされているタッチ操作を継続できる。つまりユーザは、タッチの強さによって継続したい指によるタッチ操作を主張することができる。
実施の形態6.
 実施の形態6では、条件取得部36が取得した条件が、タッチ無効箇所にあるタッチ点から順にタッチリリースとするものである場合について説明する。
 実施の形態6に係る表示入力装置10の構成は、図7を援用する。
 図11A及び図11Bは、実施の形態6のタッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は5、つまり、表示入力装置10では5点までタッチが有効となる場合を例に説明する。
 図11Aのように、指によるタッチ点T1~T4が有る状態で、ユーザが入力装置1に手を置くと、入力装置1が形成するタッチ点T5~T7のうち、タッチ点T5のみがまず検出されてタッチ有効になる。
 このとき、タッチ点T5は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 すると、操作判定部33は、入力装置1を使っての入力操作を受け付けるために、指によるタッチ点T1~T4の中でタッチ無効箇所にある点から順にタッチ点をタッチ無効と判定し、タッチリリースとする。タッチ無効箇所とは、図11Aに示すソフトウェアキーS1~S4以外の箇所を指す。操作判定部33は、表示制御部35からタッチ無効箇所がどこであるかを示す情報を取得すればよい。図11Aの場合、操作判定部33は、タッチ点T3及びT4をタッチ無効と判定し、タッチリリースとする。これにより、図11Bに示すように、入力装置1が形成するタッチ点T5~T7全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受付けられることになる。
 以上のように、この実施の形態6に係る表示入力装置10によれば、実施の形態1の効果に加え、入力装置1を使っての入力操作を優先した際に、ソフトウェアキーのタッチ等、意味のある操作をしている指によるタッチ操作を継続できる。
実施の形態7.
 実施の形態7では、入力装置1に優先指示操作が加えられた場合に、指によるタッチ点をタッチ無効と判定し、タッチリリースとする形態について説明する。
 実施の形態7に係る表示入力装置10の構成は、図1を援用する。
 操作判定部33は、タッチ手段判定部32により指が接触状態にある入力装置1によるタッチ点が有ると判定された場合であって、タッチパネル2上のタッチ点の総数が有効上限値を超えている場合であっても、入力装置1に優先指示操作が加えられるまでは、指によるタッチ点をタッチ無効とは判定しない。
 図12A、図12B及び図12Cは、実施の形態7のタッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は5、つまり、表示入力装置10では5点までタッチが有効となる場合を例に説明する。
 図12Aのように、指によるタッチ点T1~T4が有る状態で、ユーザが入力装置1に手を置くと、入力装置1が形成するタッチ点T5~T7のうち、タッチ点T5のみがまず検出されてタッチ有効になる。
 このとき、タッチ点T5は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 そして、図12Bに示すように入力装置1に入力装置1をタッチパネル2上で振る操作が加えられた場合、この操作が優先指示操作と判定され、操作判定部33は、タッチ点T3及びT4をタッチ無効と判定し、タッチリリースとする。なお、操作判定部33は、タッチ情報取得部31により出力されるタッチ情報を監視することで、入力装置1がタッチパネル2上で振られたことを判定すればよい。
 これにより、図12Cに示すように、入力装置1が形成するタッチ点T5~T7全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受け付けられることになる。
 なお、図12A、図12B及び図12Cを用いた説明では、入力装置1をタッチパネル2上で振る操作が優先指示操作であるとした。しかしながら、入力装置1をタッチパネル2上で円を描くように動かす等の他の操作が優先指示操作であってもよい。どのような操作を優先指示操作とするかは、例えばユーザが予め設定する。
 次に、実施の形態7の制御装置3による処理の一例について、図13に示すフローチャートを用いて説明する。なお、図5で既に説明したステップと同一又は相当する処理を行うステップについては、同一の符号を付し、適宜その説明を省略又は簡略化する。
 指が接触状態にある入力装置1によるタッチ点が、必要数分検出されていない場合(ステップST6;NO)、操作判定部33は、入力装置1に優先指示操作が加えられたかを判定する(ステップST70)。
 入力装置1に優先指示操作が加えられた場合(ステップST70;YES)、実施の形態1で説明したステップST9の処理が行われる。
 一方、入力装置1に優先指示操作が加えられていない場合(ステップST70;NO)、操作判定部33が指によるタッチ点をタッチ無効と判定しタッチリリースとすることなく、処理は終わる。
 以上のように、この実施の形態7に係る表示入力装置10によれば、ユーザが入力装置1に優先指示操作を加えて初めて、入力装置1を使っての入力操作が優先される。したがって、ユーザが誤って入力装置1に手を置いてしまった場合に、指によるタッチ点がタッチリリースとされるのを防ぐことができる。
実施の形態8.
 実施の形態8では、指によるタッチ点に対し、タッチ有効とされる数に上限が設けられる形態について説明する。
 実施の形態8に係る表示入力装置10の構成は、図1を援用する。
 図14A及び図14Bは、実施の形態8のタッチ情報取得部31、タッチ手段判定部32及び操作判定部33による処理の概要を説明するための図である。有効上限値は8、つまり、表示入力装置10では8点までタッチが有効となる場合を例に説明する。また、指によるタッチ点は、5点までタッチ有効にできるとの設定がされているとする。指によるタッチ点をいくつまでタッチ有効とするかの設定は、ユーザにより変更可能であってもよい。
 図14Aのように、指によるタッチ点T1~T7が有る状態では、タッチ情報取得部31は、タッチ点T1~T7を検出する。このとき、タッチ点T1~T7は、タッチ手段判定部32により、指によるものであると判定される。
 操作判定部33は、タッチ点T1~T7のうち、5点のみをタッチ有効とし、残りの2点についてはタッチ有効としない。つまり、残りの2点は、タッチ無効とはならないものの、機能実行部34による処理には反映されず、いわゆる未使用状態となる。
 図14Aに示す状態においてユーザがタッチパネル2上の入力装置1に手を置くと、入力装置1が形成する複数のタッチ点のうち、1点のみがタッチ情報取得部31により検出されてタッチ有効になる。タッチ情報取得部31により検出されたこの1点は、タッチ手段判定部32により、指が接触状態にある入力装置1によるものであると判定される。
 しかしながら、指が接触状態にある入力装置1によるタッチ点が必要数分検出されていないので、指によるタッチ点T1~T7のうち、タッチ有効としていなかった2つのタッチ点については、操作判定部33がタッチ無効とする。これにより、図14Bに示すように、入力装置1が形成するタッチ点T8~T10全てが検出されてタッチ有効となり、入力装置1を使っての入力操作が受け付けられることになる。
 なお、上記では、有効上限値(図14A及び図14Bでは、8)から、入力装置1によるタッチ点の必要数(図14A及び図14Bでは、3)を引いた数を、タッチ有効とする指によるタッチ点の上限とした。しかしながら、有効上限値から、入力装置1によるタッチ点の必要数を引いた数未満の数を、タッチ有効とする指によるタッチ点の上限としてもよい。このようにすると、例えば、2つ目の入力装置1を更にタッチパネル2上に置いて、実施の形態1~6で示したようにして2つ目の入力装置1を使っての入力操作を指による入力操作よりも優先させて、複数の入力装置1を使用することが可能になる。
 要は、操作判定部33は、有効上限値から入力装置1が形成するタッチ点の数を引いた数以下しか指によるタッチ点をタッチ有効とせず、タッチ手段判定部32により指が接触状態にある入力装置1によるタッチが有ると判定された場合には、指によるタッチ点のうちタッチ有効としていなかったタッチ点をタッチ無効とするものであればよい。
 以上のように、この実施の形態8に係る表示入力装置10によれば、有効上限値を超えるタッチ点が有る場合に、入力装置1を使っての入力操作を優先することができる。また、入力装置1を使っての入力操作が優先される際に無効となる指によるタッチ点は、そもそも有効なものとして扱われていなかったものである。したがって、入力装置1を使っての入力操作が優先されても、それまでに行われていた指によるタッチ操作は何ら影響を受けることなく継続される。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態においての任意の構成要素の省略が可能である。
 以上のように、この発明に係る入力制御装置は、有効上限値を超えるタッチ点が有る場合に、入力装置を使っての入力操作を優先することができるので、タッチパネルを備えた例えば車載の表示入力装置に組み込んで用いるのに適している。
 1 入力装置、2 タッチパネル、3 制御装置、3A 入力制御装置、4 ディスプレイ、10 表示入力装置、11 外周導電部、12 底面板、13 導体柱、14 軸心、15 中空部、31 タッチ情報取得部、32 タッチ手段判定部、33 操作判定部、34 機能実行部、35 表示制御部、36 条件取得部、100 処理回路、101 メモリ、102 CPU。

Claims (10)

  1.  複数のタッチ点を形成する入力装置が置かれるタッチパネルを介した入力操作の受け付けを制御する入力制御装置であって、
     タッチ点の位置及びタッチ点の静電容量を含むタッチ情報を取得するタッチ情報取得部と、
     前記タッチ情報を用いて、タッチ点が指によるものであるか、指が接触状態にある前記入力装置によるものであるかを判定して、指が接触状態にある前記入力装置によるタッチ点が有るかを判定するタッチ手段判定部と、
     前記タッチ手段判定部により指が接触状態にある前記入力装置によるタッチ点が有ると判定された場合であって、前記タッチパネル上のタッチ点の総数が有効上限値を超えている場合、前記有効上限値に対する前記総数の超過分の指によるタッチ点をタッチ無効と判定しタッチリリースとする操作判定部とを備えることを特徴とする入力制御装置。
  2.  タッチ無効と判定しタッチリリースとする指によるタッチ点に関する条件を取得する条件取得部を備え、
     前記操作判定部は、前記条件を用いてタッチ無効とするタッチ点を選択することを特徴とする請求項1記載の入力制御装置。
  3.  前記条件は、先にタッチされたタッチ点から順にタッチ無効とするものであることを特徴とする請求項2記載の入力制御装置。
  4.  前記条件は、後にタッチされたタッチ点から順にタッチ無効とするものであることを特徴とする請求項2記載の入力制御装置。
  5.  前記条件は、静電容量の低いタッチ点から順にタッチ無効とするものであることを特徴とする請求項2記載の入力制御装置。
  6.  前記条件は、タッチ無効箇所にあるタッチ点から順にタッチ無効とするものであることを特徴とする請求項2記載の入力制御装置。
  7.  前記操作判定部は、前記入力装置に優先指示操作が加えられた場合、前記超過分の指によるタッチ点をタッチ無効と判定しタッチリリースとする処理を行うことを特徴とする請求項1記載の入力制御装置。
  8.  複数のタッチ点を形成する入力装置が置かれるタッチパネルを介した入力操作の受け付けを制御する入力制御装置であって、
     タッチ点の位置及びタッチ点の静電容量を含むタッチ情報を取得するタッチ情報取得部と、
     前記タッチ情報を用いて、タッチ点が指によるものであるか、指が接触状態にある前記入力装置によるものであるかを判定して、指が接触状態にある前記入力装置によるタッチ点が有るかを判定するタッチ手段判定部と、
     有効上限値から前記入力装置が形成するタッチ点の数を引いた数以下しか指によるタッチ点をタッチ有効とせず、前記タッチ手段判定部により指が接触状態にある前記入力装置によるタッチが有ると判定された場合には、指によるタッチ点のうちタッチ有効としていなかったタッチ点をタッチ無効とする操作判定部とを備えることを特徴とする入力制御装置。
  9.  請求項1または請求項8に記載の入力制御装置と、
     前記タッチパネルと、
     前記タッチパネルが重ねられたディスプレイとを備えることを特徴とする表示入力装置。
  10.  複数のタッチ点を形成する入力装置が置かれるタッチパネルを介した入力操作の受け付けを制御する入力制御方法であって、
     タッチ情報取得部が、タッチ点の位置及びタッチ点の静電容量を含むタッチ情報を取得するタッチ情報取得ステップと、
     タッチ手段判定部が、前記タッチ情報を用いて、タッチ点が指によるものであるか、指が接触状態にある前記入力装置によるものであるかを判定して、指が接触状態にある前記入力装置によるタッチ点が有るかを判定するタッチ手段判定ステップと、
     操作判定部が、前記タッチ手段判定ステップにより指が接触状態にある前記入力装置によるタッチ点が有ると判定された場合であって、前記タッチパネル上のタッチ点の総数が有効上限値を超えている場合、前記有効上限値に対する前記総数の超過分の指によるタッチ点をタッチ無効と判定しタッチリリースとする操作判定ステップとを備えることを特徴とする入力制御方法。
PCT/JP2018/018339 2018-05-11 2018-05-11 入力制御装置、表示入力装置及び入力制御方法 WO2019215915A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/018339 WO2019215915A1 (ja) 2018-05-11 2018-05-11 入力制御装置、表示入力装置及び入力制御方法
US17/040,148 US11175782B2 (en) 2018-05-11 2018-05-11 Input control device and input control method
DE112018007216.9T DE112018007216B4 (de) 2018-05-11 2018-05-11 Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/018339 WO2019215915A1 (ja) 2018-05-11 2018-05-11 入力制御装置、表示入力装置及び入力制御方法

Publications (1)

Publication Number Publication Date
WO2019215915A1 true WO2019215915A1 (ja) 2019-11-14

Family

ID=68467895

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/018339 WO2019215915A1 (ja) 2018-05-11 2018-05-11 入力制御装置、表示入力装置及び入力制御方法

Country Status (3)

Country Link
US (1) US11175782B2 (ja)
DE (1) DE112018007216B4 (ja)
WO (1) WO2019215915A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093058A (ja) * 2019-12-12 2021-06-17 株式会社デンソーウェーブ 空調コントローラ及び空調装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244252A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、および推定方法
JP2013029971A (ja) * 2011-07-28 2013-02-07 Japan Display East Co Ltd タッチパネル
JP2014029712A (ja) * 2010-10-08 2014-02-13 Ag Ltd タッチツールシステム及びそのプログラム
JP2015122296A (ja) * 2013-11-21 2015-07-02 株式会社デンソー 操作装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5271240B2 (ja) 2009-11-25 2013-08-21 株式会社デジタル タッチパネル装置
JP5884282B2 (ja) 2011-03-29 2016-03-15 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びにプログラム
WO2016166793A1 (ja) 2015-04-13 2016-10-20 三菱電機株式会社 操作具、入力装置および電子機器
JP6403921B1 (ja) 2017-10-11 2018-10-10 三菱電機株式会社 操作入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244252A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、および推定方法
JP2014029712A (ja) * 2010-10-08 2014-02-13 Ag Ltd タッチツールシステム及びそのプログラム
JP2013029971A (ja) * 2011-07-28 2013-02-07 Japan Display East Co Ltd タッチパネル
JP2015122296A (ja) * 2013-11-21 2015-07-02 株式会社デンソー 操作装置

Also Published As

Publication number Publication date
US11175782B2 (en) 2021-11-16
DE112018007216T5 (de) 2020-11-19
DE112018007216B4 (de) 2022-10-13
US20210019003A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
RU2583754C2 (ru) Устройство управления
KR101721963B1 (ko) 터치 입력장치 및 이를 포함하는 차량
CN106662977B (zh) 用于在多手指操纵的情况下运行机动车的操纵装置的方法
JP5640486B2 (ja) 情報表示装置
EP2846215A2 (en) Operating device for vehicle
JP2008084158A (ja) 入力装置
TW201329835A (zh) 顯示控制裝置、顯示控制方法及電腦程式
JP2010211500A (ja) 操作装置
US11175775B2 (en) Input device, touch panel control device, and touch panel control method
KR20170001014A (ko) 터치 입력장치 및 이를 포함하는 차량
JP2008065504A (ja) タッチパネル制御装置およびタッチパネル制御方法
KR101154137B1 (ko) 터치 패드 상에서 한손 제스처를 이용한 사용자 인터페이스
US9367169B2 (en) Method, circuit, and system for hover and gesture detection with a touch screen
WO2012111227A1 (ja) タッチ式入力装置、電子機器および入力方法
WO2019215915A1 (ja) 入力制御装置、表示入力装置及び入力制御方法
JP5983225B2 (ja) 入力装置、および入力システム
JP2020057540A (ja) 操作装置及び操作制御方法
WO2018173096A1 (ja) 操作表示パネルおよび操作表示方法
JP5850722B2 (ja) タッチ式センサ
CN113204289A (zh) 接口装置以及信息处理装置
WO2017169264A1 (ja) 情報処理装置、及び情報処理プログラム
US11507219B2 (en) Touch panel apparatus
JP2015132906A (ja) 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム
US10955962B2 (en) Electronic device and control method thereof that switches a touch panel between an independent mode and a dual input mode
JP2019032762A (ja) 入力装置及び入力方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18918188

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18918188

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP